JP2011070579A - Captured image display device - Google Patents

Captured image display device Download PDF

Info

Publication number
JP2011070579A
JP2011070579A JP2009223242A JP2009223242A JP2011070579A JP 2011070579 A JP2011070579 A JP 2011070579A JP 2009223242 A JP2009223242 A JP 2009223242A JP 2009223242 A JP2009223242 A JP 2009223242A JP 2011070579 A JP2011070579 A JP 2011070579A
Authority
JP
Japan
Prior art keywords
image
coordinate
dimensional
camera
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009223242A
Other languages
Japanese (ja)
Inventor
Motonobu Tonomura
元伸 外村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2009223242A priority Critical patent/JP2011070579A/en
Publication of JP2011070579A publication Critical patent/JP2011070579A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically form and display a two-dimensional image observed from an observation direction, regarding an object whose observation direction is defined. <P>SOLUTION: The same object is captured by a camera from imaging points Q1, Q2 to obtain captured images P1, P2. The image P1 is analyzed to recognize a reference plane R of interest on the object, and points S11-S14 corresponding to four points S31-S34 on the reference plane R are obtained on the image P1. Features of the images P1, P2 are compared to obtain points S21-S24 corresponding to the points S11-S14 on the image P2. Three-dimensional coordinate values of the points S31-S34 on the reference plane R are obtained from eight points S11-S24 on the images P1, P2 and information on the location and direction of the camera. Based on the coordinate values of the points S11-S24 and points S31-S34, a transformation formula for transforming the images P1, P2 on an xy coordinate system into images on a uv coordinate system is derived, and the transformation formula is used to obtain transformed images of the images P1, P2 on the uv coordinate system. These transformed images are composed to obtain a display image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮影画像表示装置に関し、特に、複数のカメラを用いて、それぞれ異なる方向から撮影した被写体の撮影像に基づいて、当該被写体を所定の仮想方向から観察した画像を生成して表示する撮影画像表示装置に関する。   The present invention relates to a photographed image display device, and in particular, generates and displays an image obtained by observing a subject from a predetermined virtual direction based on photographed images of subjects photographed from different directions using a plurality of cameras. The present invention relates to a captured image display device.

複数のカメラを用いて、同一の被写体をそれぞれ異なる方向から撮影すれば、それぞれ異なる二次元撮影画像を得ることができる。このように、三次元空間において、同一の対象物を異なる方向から観察した場合に得られる撮影画像と当該対象物との相互関係は、一般にエピポーラ幾何と呼ばれる幾何学によって解析されている。このエピポーラ幾何を利用すれば、複数の二次元撮影画像に基づいて、三次元の被写体像を復元することも可能であり、任意の仮想視点から当該被写体を観察した二次元画像を作成することも可能である。   If a plurality of cameras are used to photograph the same subject from different directions, different two-dimensional captured images can be obtained. As described above, in the three-dimensional space, the mutual relationship between the captured image obtained when the same object is observed from different directions and the object is analyzed by geometry called epipolar geometry. By using this epipolar geometry, it is possible to restore a three-dimensional subject image based on a plurality of two-dimensional captured images, and to create a two-dimensional image in which the subject is observed from an arbitrary virtual viewpoint. Is possible.

たとえば、下記の特許文献1には、複数のカメラを所定位置に配置して、被写体に対する死角を排除した複数枚の撮影画像を得た上で、これら撮影画像に基づいて、当該被写体の完全な仮想三次元像を復元する技術が開示されている。この技術を用いれば、ユーザの要望に応じて、被写体を任意の視点から観察した二次元画像を作成することが可能である。また、下記の非特許文献1には、同一人物を2方向から撮影した2枚の顔写真に基づいて、当該人物を任意の方向から観察した二次元画像を作成する技術が提案されている。   For example, in Patent Document 1 below, a plurality of cameras are arranged at predetermined positions to obtain a plurality of photographed images from which blind spots with respect to a subject are eliminated, and based on these photographed images, a complete image of the subject is obtained. A technique for restoring a virtual three-dimensional image is disclosed. By using this technique, it is possible to create a two-dimensional image in which a subject is observed from an arbitrary viewpoint according to a user's request. Non-Patent Document 1 below proposes a technique for creating a two-dimensional image obtained by observing a person from an arbitrary direction based on two face photographs taken of the same person from two directions.

特許第3300334号公報Japanese Patent No. 3300334

向井康博 他「2枚の顔写真を用いた任意方向の顔画像の生成」:情報処理学会論文誌 Vol. 37, No. 4 pp. 635-644, Apr. 1996Yasuhiro Mukai et al. “Generating Facial Images in Arbitrary Direction Using Two Face Photos”: IPSJ Journal Vol. 37, No. 4 pp. 635-644, Apr. 1996

上述したように、同一の被写体に対して、異なる複数の方向から撮影した二次元撮影画像を得ることができれば、これらの撮影画像に基づいて、被写体の三次元像を復元することができ、ユーザの指定する任意の仮想視点から観察した被写体の二次元画像を作成し、これを表示することが可能である。このように、従来の技術では、ユーザが希望する任意の仮想視点の位置から観察した二次元画像を表示することができるため、極めて自由度の高い画像表示が可能になるメリットは得られる。しかしながら、ユーザ自身(もしくは、何らかの外部装置)が仮想視点の位置を指定する必要があるため、適切な観察方向が予め決まっているような被写体の場合でも、観察方向を指定する操作負担が課せられ、利便性が損なわれるという問題がある。   As described above, if a two-dimensional photographed image taken from a plurality of different directions can be obtained for the same subject, a three-dimensional image of the subject can be restored based on these photographed images. It is possible to create and display a two-dimensional image of a subject observed from an arbitrary virtual viewpoint designated by. As described above, the conventional technique can display a two-dimensional image observed from the position of an arbitrary virtual viewpoint desired by the user. Therefore, there is an advantage that an image display with a very high degree of freedom is possible. However, since it is necessary for the user himself (or some external device) to specify the position of the virtual viewpoint, an operation burden for specifying the observation direction is imposed even in the case of a subject whose appropriate observation direction is predetermined. There is a problem that convenience is impaired.

たとえば、車両のナンバープレートの部分を被写体とする場合、「ナンバープレート上の文字を認識する」という一般的な用途では、「ナンバープレートを正面から観察する方向」が適切な観察方向になる。また、不審人物の侵入を監視するようなシステムでは、「被写体となる人物の顔を正面から観察する方向」が適切な観察方向になる。   For example, when a license plate portion of a vehicle is a subject, in a general application of “recognizing characters on the license plate”, “the direction in which the license plate is observed from the front” is an appropriate observation direction. In a system that monitors the intrusion of a suspicious person, “the direction in which the face of the person who is the subject is observed from the front” is the appropriate observation direction.

このように、その用途に応じて、特定の被写体についての適切な観察方向が予め定まっている場合であっても、従来提案されている技術では、ユーザ自身もしくは何らかの外部装置によって観察方向を指示する必要があるため、煩雑な指定操作が必要になる。   As described above, even when an appropriate observation direction for a specific subject is determined in advance according to the application, the conventionally proposed technique instructs the observation direction by the user himself or some external device. Since it is necessary, a complicated designation operation is required.

たとえば、車両のナンバープレートを正面から観察した二次元画像を表示させたい場合を考えよう。この場合、道路や駐車場のゲートのように、被写体となる車両の向きが定まっている環境では、1台のカメラで車両のほぼ正面からの撮影を行えば十分である。しかしながら、車両の向きが定まらない広場などでは、複数台のカメラで撮影を行った後、従来提案されている技術により、ユーザが「ナンバープレートを正面から観察できる方向」を指定する操作を行う必要がある。また、不審者の監視システムであれば、ユーザが「人物を正面から観察できる方向」を指定する操作を行う必要がある。   For example, suppose you want to display a two-dimensional image of a vehicle license plate viewed from the front. In this case, in an environment where the orientation of the subject vehicle is fixed, such as a road or a parking lot gate, it is sufficient to perform photographing from almost the front of the vehicle with one camera. However, in places such as plazas where the direction of the vehicle is not fixed, after shooting with multiple cameras, it is necessary for the user to perform an operation to specify the “direction in which the license plate can be observed from the front” using the conventionally proposed technology. There is. Further, in the case of a suspicious person monitoring system, the user needs to perform an operation of designating “a direction in which a person can be observed from the front”.

そこで本発明は、用途に応じて適切な観察方向が予め定まっている被写体について、当該適切な観察方向から観察した状態を示す二次元画像を自動的に生成し、これを表示することができる撮影画像表示装置を提供することを目的とする。   Therefore, the present invention can automatically generate a two-dimensional image showing a state observed from an appropriate observation direction for a subject whose appropriate observation direction is determined in advance according to the application, and display the image. An object is to provide an image display device.

(1) 本発明の第1の態様は、異なる方向から撮影した被写体の撮影画像に基づいて、当該被写体を所定の仮想方向から観察した画像を生成して表示する撮影画像表示装置において、
互いに異なる位置に設置され、同一の被写体を撮影可能な方向に向けられた第1のカメラおよび第2のカメラと、
第1のカメラによる撮影で得られたデジタル画像もしくは当該デジタル画像に所定の変換処理を加えた画像を第1の撮影画像として入力し、第2のカメラによる撮影で得られたデジタル画像もしくは当該デジタル画像に所定の変換処理を加えた画像を第2の撮影画像として入力する画像入力部と、
入力された第1の撮影画像および第2の撮影画像を格納する撮影画像格納部と、
第1の撮影画像を解析することにより、被写体上の着目対象となる基準平面上の点として予め設定されている4つの基準点にそれぞれ対応する点を、第1の撮影画像上において4つの第1対応点として抽出する第1対応点抽出部と、
第1の撮影画像の特徴と第2の撮影画像の特徴とを比較することにより、両画像上の各点間の対応関係を求め、第2の撮影画像上において、4つの第1対応点にそれぞれ対応する4つの第2対応点を抽出する第2対応点抽出部と、
第1のカメラおよび第2のカメラの設置位置および向きの情報と、4つの第1対応点および4つの第2対応点の二次元座標値と、に基づいて、各対応点に対応する被写体上での4つの基準点の三次元座標値を求める基準点座標算出部と、
4つの基準点を含む基準平面上もしくはこの基準平面を予め定められた所定方向に所定の回転角度だけ回転させた平面上に、二次元uv座標系を定義し、第1の撮影画像および第2の撮影画像の少なくとも一方を変換対象画像として選択し、この変換対象画像上に二次元xy座標系を定義したときに、二次元uv座標系上の任意の座標値(u,v)と、当該座標値で示される点に対応する二次元xy座標系上の点の座標値(x,y)と、の関係を定める座標変換式の係数値を、4つの基準点の座標値と、4つの第1対応点もしくは4つの第2対応点の座標値との対応関係を用いて算出する係数値算出部と、
係数値算出部によって算出された係数値によって規定される座標変換式を用いて、二次元xy座標系上の変換対象画像を二次元uv座標系上の表示対象画像に変換する画像変換部と、
画像変換部によって変換された表示対象画像を格納する表示対象画像格納部と、
表示対象画像をモニタ画面に表示する画像出力部と、
を設けたものである。
(1) According to a first aspect of the present invention, in a captured image display device that generates and displays an image obtained by observing a subject from a predetermined virtual direction based on a captured image of the subject captured from different directions,
A first camera and a second camera installed at different positions and oriented in a direction in which the same subject can be photographed;
A digital image obtained by photographing with the first camera or an image obtained by applying a predetermined conversion process to the digital image is input as the first photographed image, and the digital image obtained by photographing with the second camera or the digital image An image input unit for inputting an image obtained by performing a predetermined conversion process on the image as a second captured image;
A captured image storage unit for storing the input first captured image and second captured image;
By analyzing the first captured image, four points on the first captured image corresponding to four reference points that are preset as points on the reference plane of interest on the subject are displayed. A first corresponding point extracting unit for extracting as one corresponding point;
By comparing the features of the first photographed image and the features of the second photographed image, the correspondence between the points on both images is obtained, and the four first corresponding points are obtained on the second photographed image. A second corresponding point extracting unit that extracts four corresponding second corresponding points,
On the subject corresponding to each corresponding point based on the information on the installation positions and orientations of the first camera and the second camera and the two-dimensional coordinate values of the four first corresponding points and the four second corresponding points A reference point coordinate calculation unit for obtaining three-dimensional coordinate values of the four reference points at
A two-dimensional uv coordinate system is defined on a reference plane including four reference points or a plane obtained by rotating the reference plane in a predetermined direction by a predetermined rotation angle, and the first captured image and the second When at least one of the captured images is selected as a conversion target image and a two-dimensional xy coordinate system is defined on the conversion target image, an arbitrary coordinate value (u, v) on the two-dimensional uv coordinate system, and Coefficient values of coordinate transformation formulas that define the relationship between the coordinate values (x, y) of the points on the two-dimensional xy coordinate system corresponding to the points indicated by the coordinate values, the coordinate values of the four reference points, A coefficient value calculation unit for calculating using a correspondence relationship with the coordinate values of the first corresponding point or the four second corresponding points;
An image conversion unit that converts a conversion target image on the two-dimensional xy coordinate system into a display target image on the two-dimensional uv coordinate system using a coordinate conversion formula defined by the coefficient value calculated by the coefficient value calculation unit;
A display target image storage unit for storing the display target image converted by the image conversion unit;
An image output unit for displaying a display target image on a monitor screen;
Is provided.

(2) 本発明の第2の態様は、上述した第1の態様に係る撮影画像表示装置において、
第1対応点抽出部が、第1の撮影画像上の直線部を探索し、探索された直線部によって囲まれた四角形を基準平面と認識し、当該四角形の4頂点を4つの第1対応点として抽出するようにしたものである。
(2) According to a second aspect of the present invention, in the captured image display device according to the first aspect described above,
The first corresponding point extraction unit searches for a straight line portion on the first captured image, recognizes a quadrangle surrounded by the searched straight line portion as a reference plane, and sets four vertices of the quadrangle as four first corresponding points. It is made to extract as.

(3) 本発明の第3の態様は、上述した第1の態様に係る撮影画像表示装置において、
第1対応点抽出部が、第1の撮影画像から人間の顔面を探索し、探索された顔面における右眼中心点、左眼中心点、唇の右端点、唇の左端点を含む面を基準平面と認識し、これらの各点を4つの第1対応点として抽出するようにしたものである。
(3) According to a third aspect of the present invention, in the captured image display device according to the first aspect described above,
The first corresponding point extraction unit searches the human face from the first photographed image, and uses the surface including the right eye center point, left eye center point, lip right end point, and lip left end point in the searched face as a reference. A plane is recognized, and each of these points is extracted as four first corresponding points.

(4) 本発明の第4の態様は、上述した第1の態様に係る撮影画像表示装置において、
第1対応点抽出部が、第1のカメラおよび第2のカメラの設置位置および向きの情報と、第1の撮影画像上の二次元被写体情報と、第2の撮影画像上の二次元被写体情報と、に基づいて、被写体の三次元形状モデルを作成し、当該三次元形状モデル上での所定の平面を基準平面と認識し、当該基準平面上の任意の4点に対応する4つの点を第1対応点として抽出するようにしたものである。
(4) According to a fourth aspect of the present invention, in the captured image display device according to the first aspect described above,
The first corresponding point extraction unit includes information on installation positions and orientations of the first camera and the second camera, two-dimensional subject information on the first photographed image, and two-dimensional subject information on the second photographed image. Based on the above, a three-dimensional shape model of the subject is created, a predetermined plane on the three-dimensional shape model is recognized as a reference plane, and four points corresponding to arbitrary four points on the reference plane are determined. This is extracted as the first corresponding point.

(5) 本発明の第5の態様は、上述した第1〜第4の態様に係る撮影画像表示装置において、
基準点座標算出部に、第1のカメラおよび第2のカメラの設置位置および向きの情報を、外部からの設定操作により格納する機能をもたせ、当該格納情報を用いて、4つの基準点の三次元座標値を求めるようにしたものである。
(5) According to a fifth aspect of the present invention, in the captured image display device according to the first to fourth aspects described above,
The reference point coordinate calculation unit has a function of storing information on the installation positions and orientations of the first camera and the second camera by a setting operation from the outside. The original coordinate value is obtained.

(6) 本発明の第6の態様は、上述した第1〜第4の態様に係る撮影画像表示装置において、
基準点座標算出部に、撮影画像格納部に格納されているテスト用被写体を撮影した第1の撮影画像と第2の撮影画像とに基づいて、第1のカメラおよび第2のカメラの設置位置および向きの情報を自動取得する機能をもたせるようにしたものである。
(6) According to a sixth aspect of the present invention, in the captured image display device according to the first to fourth aspects described above,
Based on the first photographed image and the second photographed image obtained by photographing the test subject stored in the photographed image storage unit in the reference point coordinate calculation unit, the installation positions of the first camera and the second camera And a function to automatically acquire orientation information.

(7) 本発明の第7の態様は、上述した第1〜第6の態様に係る撮影画像表示装置において、
係数値算出部が、二次元uv座標系と二次元xy座標系との間のスケーリングファクターを任意に設定することにより、座標値(u,v)と座標値(x,y)との関係を定める座標変換式として、
x=(h11・u+h12・v+h13)/(h31・u+h32・v+1)
y=(h21・u+h22・v+h23)/(h31・u+h32・v+1)
なる式を定義し、この2本の式に、4つの基準点についての二次元uv座標系の座標値(u,v)と4つの第1対応点の二次元xy座標系の座標値(x,y)とをそれぞれ代入して得られる8本の連立方程式を用いて、8個の係数h11,h12,h13,h21,h22,h23,h31,h32を算出するようにしたものである。
(7) According to a seventh aspect of the present invention, in the captured image display device according to the first to sixth aspects described above,
The coefficient value calculation unit arbitrarily sets a scaling factor between the two-dimensional uv coordinate system and the two-dimensional xy coordinate system, so that the relationship between the coordinate value (u, v) and the coordinate value (x, y) is obtained. As a coordinate transformation formula to be defined,
x = (h11 · u + h12 · v + h13) / (h31 · u + h32 · v + 1)
y = (h21 · u + h22 · v + h23) / (h31 · u + h32 · v + 1)
The two formulas are defined, and the two formulas are coordinate values (u, v) of the two-dimensional uv coordinate system for the four reference points and the coordinate values (x of the two-dimensional xy coordinate system of the four first corresponding points) , Y) are used to calculate eight coefficients h11, h12, h13, h21, h22, h23, h31, h32 using eight simultaneous equations obtained by substituting respectively.

(8) 本発明の第8の態様は、上述した第1〜第7の態様に係る撮影画像表示装置において、
係数値算出部が、第1の撮影画像および第2の撮影画像の双方を変換対象画像として選択し、これら変換対象画像上にそれぞれ第1および第2の二次元xy座標系を定義し、二次元uv座標系上の任意の座標値(u,v)と、当該座標値で示される点に対応する第1および第2の二次元xy座標系上の点の座標値(x,y)と、の関係を定める座標変換式の係数値を、4つの基準点の座標値と、4つの第1対応点および4つの第2対応点の座標値との対応関係を用いて算出し、
画像変換部が、係数値算出部によって算出された係数値によって規定される第1の座標変換式を用いて、第1の二次元xy座標系上の第1の撮影画像を二次元uv座標系上の第1の準備画像に変換するとともに、係数値算出部によって算出された係数値によって規定される第2の座標変換式を用いて、第2の二次元xy座標系上の第2の撮影画像を二次元uv座標系上の第2の準備画像に変換し、第1の準備画像と第2の準備画像とを合成することにより、表示対象画像を生成するようにしたものである。
(8) According to an eighth aspect of the present invention, in the captured image display device according to the first to seventh aspects described above,
The coefficient value calculation unit selects both the first photographed image and the second photographed image as conversion target images, defines first and second two-dimensional xy coordinate systems on these conversion target images, respectively, An arbitrary coordinate value (u, v) on the dimension uv coordinate system, and a coordinate value (x, y) of a point on the first and second two-dimensional xy coordinate systems corresponding to the point indicated by the coordinate value, The coefficient value of the coordinate transformation formula that defines the relationship between is calculated using the correspondence between the coordinate values of the four reference points and the coordinate values of the four first corresponding points and the four second corresponding points,
The image conversion unit converts the first photographed image on the first two-dimensional xy coordinate system into the two-dimensional uv coordinate system using the first coordinate conversion formula defined by the coefficient value calculated by the coefficient value calculation unit. The second imaging on the second two-dimensional xy coordinate system using the second coordinate conversion formula defined by the coefficient value calculated by the coefficient value calculation unit while being converted into the first preparation image above. The display target image is generated by converting the image into a second preparation image on the two-dimensional uv coordinate system and synthesizing the first preparation image and the second preparation image.

(9) 本発明の第9の態様は、上述した第8の態様に係る撮影画像表示装置において、
画像変換部が、第1の準備画像と第2の準備画像とを合成する際に、第1の準備画像上の座標値(u,v)で示される位置の画素の画素値をI1(u,v)、第2の準備画像上の座標値(u,v)で示される位置の画素の画素値をI2(u,v)、表示対象画像上の座標値(u,v)で示される位置の画素の画素値をI(u,v)としたときに、所定の重み係数α(0≦α≦1)を用いて、
I(u,v)=(1−α)・I1(u,v)+α・I2(u,v)
なる合成演算を行うようにしたものである。
(9) According to a ninth aspect of the present invention, in the photographed image display device according to the eighth aspect described above,
When the image conversion unit combines the first preparation image and the second preparation image, the pixel value of the pixel at the position indicated by the coordinate value (u, v) on the first preparation image is set to I1 (u , V), the pixel value of the pixel at the position indicated by the coordinate value (u, v) on the second preparation image is indicated by I2 (u, v), and the coordinate value (u, v) on the display target image. When the pixel value of the pixel at the position is I (u, v), using a predetermined weight coefficient α (0 ≦ α ≦ 1),
I (u, v) = (1−α) · I1 (u, v) + α · I2 (u, v)
The composition operation is performed.

(10) 本発明の第10の態様は、上述した第9の態様に係る撮影画像表示装置において、
uv平面上の所定の代表点と第1のカメラを設置した撮影点とを結ぶ直線とuv平面とのなす鋭角θ1と、この代表点と第2のカメラを設置した撮影点とを結ぶ直線とuv平面とのなす鋭角θ2と、を比べ、重み係数αを、
θ1>θ2であればα<0.5に設定し、両角度の差が大きければ大きいほど、αが小さくなるように設定し、
θ1<θ2であればα>0.5に設定し、両角度の差が大きければ大きいほど、αが大きくなるように設定し、
θ1=θ2であればα=0.5に設定するようにしたものである。
(10) According to a tenth aspect of the present invention, in the captured image display device according to the ninth aspect described above,
An acute angle θ1 formed by a straight line connecting a predetermined representative point on the uv plane and the shooting point where the first camera is installed and the uv plane, and a straight line connecting this representative point and the shooting point where the second camera is installed Compare the acute angle θ2 made with the uv plane,
If θ1> θ2, α <0.5 is set, and the larger the difference between the two angles, the smaller α is set.
If θ1 <θ2, α is set to 0.5, and the larger the difference between the two angles, the larger α is set.
If θ1 = θ2, α = 0.5 is set.

(11) 本発明の第11の態様は、上述した第9の態様に係る撮影画像表示装置において、
表示対象画像上の座標値(u,v)で示される位置にある着目画素の画素値I(u,v)を決定する際に、当該着目画素の配置点と第1のカメラを設置した撮影点とを結ぶ直線とuv平面とのなす鋭角θ1と、この配置点と第2のカメラを設置した撮影点とを結ぶ直線とuv平面とのなす鋭角θ2と、を比べ、画素値I(u,v)を決定する際に用いる重み係数αを、
θ1>θ2であればα<0.5に設定し、両角度の差が大きければ大きいほど、αが小さくなるように設定し、
θ1<θ2であればα>0.5に設定し、両角度の差が大きければ大きいほど、αが大きくなるように設定し、
θ1=θ2であればα=0.5に設定するようにしたものである。
(11) According to an eleventh aspect of the present invention, in the captured image display device according to the ninth aspect described above,
When determining the pixel value I (u, v) of the pixel of interest at the position indicated by the coordinate value (u, v) on the display target image, shooting with the arrangement point of the pixel of interest and the first camera installed The acute angle θ1 formed by the straight line connecting the points and the uv plane is compared with the acute angle θ2 formed by the straight line connecting the arrangement point and the shooting point where the second camera is installed and the uv plane, and the pixel value I (u , V) is used to determine the weighting factor α
If θ1> θ2, α <0.5 is set, and the larger the difference between the two angles, the smaller α is set.
If θ1 <θ2, α is set to 0.5, and the larger the difference between the two angles, the larger α is set.
If θ1 = θ2, α = 0.5 is set.

(12) 本発明の第12の態様は、上述した第10または第11の態様に係る撮影画像表示装置において、
α=(θ2−θ1)/π+1/2
なる演算式により重み係数αを設定するようにしたものである。
(12) According to a twelfth aspect of the present invention, in the photographed image display device according to the tenth or eleventh aspect described above,
α = (θ2−θ1) / π + 1/2
The weighting factor α is set by the following arithmetic expression.

(13) 本発明の第13の態様は、上述した第9の態様に係る撮影画像表示装置において、
画像変換部が、
第1のカメラおよび第2のカメラの設置位置および向きの情報と、第1の撮影画像上の二次元画像情報と、第2の撮影画像上の二次元画像情報と、に基づいて、被写体および障害物の三次元形状モデルを作成し、基準平面の手前に存在する障害物を認識する処理を行い、
表示対象画像上の座標値(u,v)で示される位置にある着目画素の画素値I(u,v)を決定する際に、当該着目画素が、障害物により第1の準備画像上でのみ隠面となっている領域内の画素である場合には、画素値I(u,v)を決定する際に用いる重み係数αをα=1に設定し、障害物により第2の準備画像上でのみ隠面となっている領域内の画素である場合には、画素値I(u,v)を決定する際に用いる重み係数αをα=0に設定するようにしたものである。
(13) According to a thirteenth aspect of the present invention, in the captured image display device according to the ninth aspect described above,
The image converter
Based on the installation position and orientation information of the first camera and the second camera, the two-dimensional image information on the first photographed image, and the two-dimensional image information on the second photographed image, the subject and Create a 3D shape model of the obstacle, perform the process of recognizing the obstacle existing in front of the reference plane,
When determining the pixel value I (u, v) of the pixel of interest at the position indicated by the coordinate value (u, v) on the display target image, the pixel of interest is displayed on the first preparation image by the obstacle. If the pixel is in a region that is only a hidden surface, the weighting factor α used to determine the pixel value I (u, v) is set to α = 1, and the second preparation image is created by the obstacle. In the case of a pixel in a region that is a hidden surface only above, the weighting coefficient α used when determining the pixel value I (u, v) is set to α = 0.

(14) 本発明の第14の態様は、上述した第1〜第13の態様に係る撮影画像表示装置において、
画像変換部が、二次元xy座標系上の変換対象画像を二次元uv座標系上の表示対象画像もしくは準備画像に変換する際に、座標値(u,v)を引数として座標値(x,y)を求める座標変換式を用い、変換対象画像上の座標値(x,y)で示される位置の近傍に存在する複数の画素の画素値を用いた補間演算によって求められる補間値を、座標値(u,v)で示される位置に配置された画素の画素値とするようにしたものである。
(14) According to a fourteenth aspect of the present invention, in the captured image display device according to the first to thirteenth aspects described above,
When the image conversion unit converts a conversion target image on the two-dimensional xy coordinate system into a display target image or a preparation image on the two-dimensional uv coordinate system, the coordinate value (x, x) is used as an argument. y) is used to calculate an interpolation value obtained by interpolation using pixel values of a plurality of pixels existing in the vicinity of the position indicated by the coordinate value (x, y) on the image to be converted. The pixel value of the pixel arranged at the position indicated by the value (u, v) is used.

(15) 本発明の第15の態様は、上述した第1〜第14の態様に係る撮影画像表示装置において、
係数値演算部が、基準平面を予め定められた所定の軸回りに、予め定められた所定の回転角γだけ回転させた平面上に、二次元uv座標系を定義するようにしたものである。
(15) According to a fifteenth aspect of the present invention, in the captured image display device according to the first to fourteenth aspects described above,
The coefficient value calculation unit defines a two-dimensional uv coordinate system on a plane obtained by rotating the reference plane around a predetermined axis about a predetermined rotation angle γ. .

(16) 本発明の第16の態様は、上述した第1〜第15の態様に係る撮影画像表示装置において、
互いに異なる位置に設置され、同一の被写体を撮影可能な方向に向けられた複数M台(M≧3)のカメラを設け、
これらM台のカメラの中の任意の2台の組み合わせを、第1のカメラおよび第2のカメラとして採用し、表示対象画像を作成する機能をもたせるようにしたものである。
(16) According to a sixteenth aspect of the present invention, in the captured image display device according to the first to fifteenth aspects described above,
A plurality of M cameras (M ≧ 3) installed at different positions and directed in a direction in which the same subject can be photographed, are provided.
A combination of any two of these M cameras is adopted as the first camera and the second camera so as to have a function of creating a display target image.

(17) 本発明の第17の態様は、上述した第1〜第16の態様に係る撮影画像表示装置において、
第1のカメラおよび第2のカメラとして、魚眼レンズもしくは全方位ミラーを装着したカメラを用い、
第1のカメラおよび第2のカメラによる撮影によって得られた歪曲円形画像内の所定の切出中心点近傍の画像を、所定の座標変換式を用いて平面正則画像に変換する魚眼画像変換部を更に設け、
画像入力部が、魚眼画像変換部によって変換された平面正則画像を、それぞれ第1の撮影画像および第2の撮影画像として入力するようにしたものである。
(17) According to a seventeenth aspect of the present invention, in the captured image display device according to the first to sixteenth aspects described above,
Using a camera equipped with a fisheye lens or an omnidirectional mirror as the first camera and the second camera,
A fish-eye image conversion unit that converts an image near a predetermined cut-out center point in a distorted circular image obtained by photographing with the first camera and the second camera into a planar regular image using a predetermined coordinate conversion formula Further provided,
The image input unit inputs the planar regular image converted by the fisheye image conversion unit as a first captured image and a second captured image, respectively.

(18) 本発明の第18の態様は、上述した第1〜第17の態様に係る撮影画像表示装置における各カメラ以外の構成要素を、コンピュータにプログラムを組み込むことにより構成するようにしたものである。   (18) According to an eighteenth aspect of the present invention, components other than the cameras in the captured image display device according to the first to seventeenth aspects described above are configured by incorporating a program into a computer. is there.

(19) 本発明の第19の態様は、上述した第1〜第17の態様に係る撮影画像表示装置における各カメラ以外の構成要素を、半導体集積回路により構成するようにしたものである。   (19) According to a nineteenth aspect of the present invention, the constituent elements other than the cameras in the photographed image display device according to the first to seventeenth aspects are configured by a semiconductor integrated circuit.

(20) 本発明の第20の態様は、上述した第2の態様に係る撮影画像表示装置を利用して、車両のナンバープレートの撮影表示装置を構成するようにし、
各カメラを、被写体となる車両のナンバープレートを撮影可能な位置および向きに設置し、
第1対応点抽出部が、ナンバープレートの表面を着目対象となる基準平面として、ナンバープレートを構成する四角形の4頂点を4つの第1対応点として抽出し、
画像出力部が、ナンバープレートを正面方向から観察した画像を表示対象画像として出力するようにしたものである。
(20) According to a twentieth aspect of the present invention, a photographic image display device according to the second aspect described above is used to constitute a photographic display device for a license plate of a vehicle.
Install each camera in a position and orientation where you can shoot the license plate of the subject vehicle,
The first corresponding point extraction unit extracts the four vertices of the quadrangle constituting the license plate as four first corresponding points, using the surface of the license plate as a reference plane to be focused,
The image output unit outputs an image obtained by observing the license plate from the front direction as a display target image.

(21) 本発明の第21の態様は、上述した第3の態様に係る撮影画像表示装置を利用して、監視システムを構成するようにし、
各カメラを、被写体となる人間の顔面を撮影可能な位置および向きに設置し、
画像出力部が、人間の顔面を正面方向から観察した画像を表示対象画像として出力するようにしたものである。
(21) According to a twenty-first aspect of the present invention, a monitoring system is configured using the captured image display device according to the third aspect described above.
Install each camera in a position and orientation that allows shooting the human face as the subject,
An image output unit outputs an image obtained by observing a human face from the front direction as a display target image.

(22) 本発明の第22の態様は、異なる方向から撮影した被写体の撮影画像に基づいて、当該被写体を所定の仮想方向から観察した画像を生成して表示する撮影画像表示方法において、
第1のカメラおよび第2のカメラを、互いに異なる位置に、かつ、同一の被写体を撮影可能な方向に向けて設置するカメラ設置段階と、
コンピュータが、第1のカメラによる撮影で得られたデジタル画像もしくは当該デジタル画像に所定の変換処理を加えた画像を第1の撮影画像として入力し、第2のカメラによる撮影で得られたデジタル画像もしくは当該デジタル画像に所定の変換処理を加えた画像を第2の撮影画像として入力する画像入力段階と、
コンピュータが、第1の撮影画像を解析することにより、被写体上の着目対象となる基準平面上の点として予め設定されている4つの基準点にそれぞれ対応する点を、第1の撮影画像上において4つの第1対応点として抽出する第1対応点抽出段階と、
コンピュータが、第1の撮影画像の特徴と第2の撮影画像の特徴とを比較することにより、両画像上の各点間の対応関係を求め、第2の撮影画像上において、4つの第1対応点にそれぞれ対応する4つの第2対応点を抽出する第2対応点抽出段階と、
コンピュータが、第1のカメラおよび第2のカメラの設置位置および向きの情報と、4つの第1対応点および4つの第2対応点の二次元座標値と、に基づいて、各対応点に対応する被写体上での4つの基準点の三次元座標値を求める基準点座標算出段階と、
コンピュータが、4つの基準点を含む基準平面上もしくはこの基準平面を予め定められた所定方向に所定の回転角度だけ回転させた平面上に、二次元uv座標系を定義し、第1の撮影画像および第2の撮影画像の少なくとも一方を変換対象画像として選択し、この変換対象画像上に二次元xy座標系を定義したときに、二次元uv座標系上の任意の座標値(u,v)と、当該座標値で示される点に対応する二次元xy座標系上の点の座標値(x,y)と、の関係を定める座標変換式の係数値を、4つの基準点の座標値と、4つの第1対応点もしくは4つの第2対応点の座標値との対応関係を用いて算出する係数値算出段階と、
コンピュータが、係数値算出段階で算出された係数値によって規定される座標変換式を用いて、二次元xy座標系上の変換対象画像を二次元uv座標系上の表示対象画像に変換する画像変換段階と、
コンピュータが、画像変換段階によって変換された表示対象画像をモニタ画面に表示する画像出力段階と、
を行うようにしたものである。
(22) According to a twenty-second aspect of the present invention, in the captured image display method for generating and displaying an image obtained by observing the subject from a predetermined virtual direction based on the captured image of the subject captured from different directions,
A camera installation stage in which the first camera and the second camera are installed at different positions and in the direction in which the same subject can be photographed;
A computer inputs a digital image obtained by photographing with the first camera or an image obtained by applying a predetermined conversion process to the digital image as a first photographed image, and a digital image obtained by photographing with the second camera Alternatively, an image input step of inputting an image obtained by performing a predetermined conversion process on the digital image as a second captured image;
When the computer analyzes the first captured image, points corresponding to the four reference points set in advance as points on the reference plane to be focused on the subject are displayed on the first captured image. A first corresponding point extraction stage for extracting as four first corresponding points;
The computer compares the features of the first photographed image and the features of the second photographed image to obtain the correspondence between the points on the two images, and the four first images are displayed on the second photographed image. A second corresponding point extracting step of extracting four second corresponding points corresponding to the corresponding points;
The computer corresponds to each corresponding point based on the information on the installation positions and orientations of the first camera and the second camera, and the two first corresponding points and the two-dimensional coordinate values of the four second corresponding points. A reference point coordinate calculation step for obtaining three-dimensional coordinate values of four reference points on the subject to be
The computer defines a two-dimensional uv coordinate system on a reference plane including four reference points or on a plane obtained by rotating the reference plane in a predetermined direction by a predetermined rotation angle, and the first captured image When at least one of the second photographed image and the second photographed image is selected as a conversion target image and a two-dimensional xy coordinate system is defined on the conversion target image, arbitrary coordinate values (u, v) on the two-dimensional uv coordinate system And the coordinate value (x, y) of the point on the two-dimensional xy coordinate system corresponding to the point indicated by the coordinate value, the coefficient value of the coordinate conversion formula that defines the relationship between the coordinate value of the four reference points and A coefficient value calculating stage for calculating using a correspondence relationship with coordinate values of four first corresponding points or four second corresponding points;
Image conversion in which a computer converts a conversion target image on a two-dimensional xy coordinate system into a display target image on a two-dimensional uv coordinate system using a coordinate conversion formula defined by the coefficient value calculated in the coefficient value calculation stage Stages,
An image output stage in which a computer displays a display target image converted in the image conversion stage on a monitor screen;
Is to do.

本発明の撮影画像表示装置によれば、同一の被写体を2台のカメラにより異なる方向から撮影することにより得られる2枚の撮影画像に基づいて、被写体上で着目対象となる基準平面を認識し、当該基準平面を予め設定された所定方向から観察した二次元画像を生成するようにしたため、用途に応じて適切な観察方向が予め定まっている被写体について、当該適切な観察方向から観察した状態を示す二次元画像を自動的に生成し、これを表示することができるようになる。   According to the photographed image display device of the present invention, a reference plane to be focused on is recognized on the subject based on two photographed images obtained by photographing the same subject from two different directions with two cameras. Since a two-dimensional image obtained by observing the reference plane from a predetermined direction set in advance is generated, a state in which an appropriate observation direction is determined in advance according to the application is observed from the appropriate observation direction. The two-dimensional image shown can be automatically generated and displayed.

本発明の基本的実施形態に係る撮影画像表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the picked-up image display apparatus which concerns on fundamental embodiment of this invention. 図1に示す装置の撮影画像格納部120内に格納された第1の撮影画像P1および第2の撮影画像P2の一例を示す平面図である。It is a top view which shows an example of the 1st captured image P1 and the 2nd captured image P2 which were stored in the captured image storage part 120 of the apparatus shown in FIG. 図2に示す第1の撮影画像P1および第2の撮影画像P2から、それぞれ第1の対応点S11〜S14および第2の対応点S21〜S24を抽出した状態を示す平面図である。FIG. 3 is a plan view showing a state in which first corresponding points S11 to S14 and second corresponding points S21 to S24 are extracted from the first captured image P1 and the second captured image P2 shown in FIG. 一般的なエピポーラ幾何の基本概念を示す空間配置図である。It is a spatial layout diagram showing a basic concept of general epipolar geometry. 被写体上に得られた基準点S31〜S34の一例を示す正面図である。It is a front view which shows an example of reference | standard points S31-S34 obtained on the to-be-photographed object. 第1の撮影画像P1,第2の撮影画像P2,基準平面Rの位置関係を示す配置図である。FIG. 6 is a layout diagram showing a positional relationship between a first captured image P1, a second captured image P2, and a reference plane R. 撮影画像の投影面の位置と撮影画像のスケーリングとの関係を示す斜視図である。It is a perspective view which shows the relationship between the position of the projection surface of a picked-up image, and the scaling of a picked-up image. 撮影画像の投影面πをZ=1で示される平面上に配置した状態を示す斜視図である。It is a perspective view which shows the state which has arrange | positioned the projection surface (pi) of a picked-up image on the plane shown by Z = 1. 三次元空間上に配置された三次元XYZ座標系と三次元UVW座標系との位置関係を示す斜視図である。It is a perspective view which shows the positional relationship of the three-dimensional XYZ coordinate system arrange | positioned on three-dimensional space, and a three-dimensional UVW coordinate system. 図9に示すXYZ座標系上の1点p(x,y,1)とUVW座標系上の1点q(u,v,1)との関係を示す座標変換式を示す図である。It is a figure which shows the coordinate transformation type | formula which shows the relationship between 1 point p (x, y, 1) on the XYZ coordinate system shown in FIG. 9, and 1 point q (u, v, 1) on a UVW coordinate system. 図10に示す座標変換式の変形態様を示す図である。It is a figure which shows the deformation | transformation aspect of the coordinate transformation type | formula shown in FIG. xy座標系上に得られた4つの対応点とuv座標系上に得られた4つの基準点とを示す平面図である。It is a top view which shows four corresponding points obtained on xy coordinate system, and four reference points obtained on uv coordinate system. 図10に示す座標変換式に基づいて得られる行列式を示す図である。It is a figure which shows the determinant obtained based on the coordinate transformation formula shown in FIG. 図13に示す行列式における係数h11〜h32を決定することによって得られる座標変換式を示す図である。It is a figure which shows the coordinate transformation formula obtained by determining the coefficient h11-h32 in the determinant shown in FIG. 図1に示す装置の画像変換部170による変換処理を示す平面図である。It is a top view which shows the conversion process by the image conversion part 170 of the apparatus shown in FIG. 図1に示す装置の画像変換部170による、2つの撮影画像の合成を伴う変換処理を示す平面図である。It is a top view which shows the conversion process with the synthesis | combination of two picked-up images by the image conversion part 170 of the apparatus shown in FIG. 図16に示す変換処理において、2つの撮影画像の合成方法の一例を示す平面図である。FIG. 17 is a plan view illustrating an example of a method for combining two captured images in the conversion process illustrated in FIG. 16. 図16に示す変換処理において、2つの撮影画像の合成方法の別な一例を示す平面図である。FIG. 17 is a plan view illustrating another example of a method for combining two captured images in the conversion process illustrated in FIG. 16. 図18に示す合成方法による合成対象となる2つの撮影画像を示す平面図である。FIG. 19 is a plan view showing two captured images to be combined by the combining method shown in FIG. 18. 図1に示す装置の第1対応点抽出部130によって抽出された第1対応点の別な一例を示す平面図である。It is a top view which shows another example of the 1st corresponding point extracted by the 1st corresponding point extraction part 130 of the apparatus shown in FIG. 基準平面Rを所定の回転角γだけ回転させた平面上にuv座標系を定義した例を示す斜視図である。It is a perspective view which shows the example which defined the uv coordinate system on the plane which rotated the reference | standard plane R only the predetermined rotation angle (gamma). 魚眼カメラによる撮影で得られる歪曲円形画像Sと平面正則画像Tとの関係を示す斜視図である。It is a perspective view which shows the relationship between the distortion circular image S obtained by imaging | photography with a fisheye camera, and the planar regular image T. FIG. 魚眼カメラによる撮影で得られた歪曲円形画像Sを平面正則画像Tに変換するための座標変換式を示す図である。It is a figure which shows the coordinate conversion type | formula for converting the distortion circular image S obtained by imaging | photography with a fisheye camera into the planar regular image T. FIG. 魚眼カメラを用いた実施形態に係る撮影画像表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the picked-up image display apparatus which concerns on embodiment using a fisheye camera. 4台のカメラを用いた実施形態における各カメラの配置を示す斜視図である。It is a perspective view which shows arrangement | positioning of each camera in embodiment using four cameras.

以下、本発明を図示する実施形態に基づいて説明する。   Hereinafter, the present invention will be described based on the illustrated embodiments.

<<< §1.本発明の基本的実施形態 >>>
図1は、本発明の基本的実施形態に係る撮影画像表示装置の構成を示すブロック図である。この実施形態では、2台のカメラ10,20によって、被写体30を撮影する例が示されている。ここでは、被写体30が車両である場合、特に、車両のナンバープレートの部分を被写体として、これを撮影し、モニタ画面上に表示する実施例を述べることにする。
<<< §1. Basic embodiment of the present invention >>
FIG. 1 is a block diagram showing a configuration of a captured image display apparatus according to a basic embodiment of the present invention. In this embodiment, an example in which a subject 30 is photographed by two cameras 10 and 20 is shown. Here, when the subject 30 is a vehicle, an embodiment will be described in which a license plate portion of the vehicle is taken as a subject, and this is photographed and displayed on a monitor screen.

モニタ画面上において、「ナンバープレート上の文字を認識する」という一般的な用途では、当然ながら、「ナンバープレートを正面から観察する方向」が適切な観察方向になる。したがって、この図1に示す装置は、2台のカメラ10,20によって、互いに異なる方向から撮影した被写体30の撮影画像に基づいて、被写体30を所定の仮想方向、すなわち、ナンバープレートの正面方向から観察した画像を生成して表示する装置ということになる。   In the general application of “recognizing characters on the license plate” on the monitor screen, the “observation direction of the license plate from the front” is naturally an appropriate observation direction. Therefore, the apparatus shown in FIG. 1 moves the subject 30 from a predetermined virtual direction, that is, from the front of the license plate, based on the images taken by the two cameras 10 and 20 from different directions. This means an apparatus that generates and displays an observed image.

ここに示す実施例の場合、第1のカメラ10および第2のカメラ20は、通常の平面静止画像を撮影することが可能なデジタルカメラであり、図示のとおり、互いに異なる位置に設置され、同一の被写体30を撮影可能な方向に向けられている。図では、被写体30となる車両が正面向き配置され、その正面像を左斜め方向から撮影する位置に第1のカメラ10が設置され、右斜め方向から撮影する位置に第2のカメラ20が設置された例が示されているが、実際には、必ずしもこのような位置関係に配置されている必要はない。   In the case of the embodiment shown here, the first camera 10 and the second camera 20 are digital cameras capable of capturing a normal planar still image, and are installed at different positions as shown in the figure and are the same. The subject 30 is directed in a direction in which the subject 30 can be photographed. In the figure, the vehicle to be the subject 30 is arranged in the front direction, the first camera 10 is installed at a position where the front image is photographed from the left oblique direction, and the second camera 20 is installed at the position where the subject image is photographed from the right oblique direction. However, in actuality, it is not always necessary to be arranged in such a positional relationship.

車両のナンバープレートの文字を自動的に読み取るシステムは、既に実用化されており、高速道路を走行中の車両のナンバーや、駐車場のゲートを通過する車両のナンバーを自動的に読み取る装置として利用されている。このように、車両の進行方向が定まっている環境であれば、1台のカメラで車両の正面を所定方向から撮影した画像が得られれば、ナンバーの読み取りには十分である。本発明に係る装置は、被写体30の向きが定まらないような環境において利用した場合に、その本領を発揮することになる。   A system that automatically reads the letters on the license plate of a vehicle has already been put into practical use, and is used as a device that automatically reads the number of a vehicle traveling on a highway or the number of a vehicle passing through a parking lot gate. Has been. Thus, in an environment where the traveling direction of the vehicle is fixed, it is sufficient to read the number if an image obtained by photographing the front of the vehicle from a predetermined direction with one camera is obtained. The apparatus according to the present invention exhibits its main features when used in an environment where the orientation of the subject 30 is not determined.

この装置では、まず、第1のカメラ10による撮影で得られたデジタル画像および第2のカメラ20による撮影で得られたデジタル画像は、図示のとおり、画像入力部110によって入力され、撮影画像格納部120内に、それぞれ第1の撮影画像P1および第2の撮影画像P2として格納される。なお、必要があれば、この画像入力時に、各カメラの撮影で得られたデジタル画像に対して、所定の変換処理を加えるようにしてもかまわない。たとえば、魚眼カメラを用いた場合には、歪曲円形画像を平面正則画像に変換する処理が必要になる(詳しくは、§4の変形例で述べる)。また、デジタルビデオカメラを用いた場合には、同時点で撮影されたフレーム画像が、それぞれ第1の撮影画像P1および第2の撮影画像P2として取り込まれ、以下に述べる静止画像に対する処理が、時系列に沿って連続して実行されることになる。   In this apparatus, first, a digital image obtained by photographing with the first camera 10 and a digital image obtained by photographing with the second camera 20 are input by the image input unit 110 as shown in FIG. In the unit 120, the first captured image P1 and the second captured image P2 are stored, respectively. If necessary, a predetermined conversion process may be applied to a digital image obtained by photographing with each camera when inputting the image. For example, when a fisheye camera is used, a process of converting a distorted circular image into a planar regular image is necessary (details will be described in the modification of §4). When a digital video camera is used, frame images taken at the same point are taken in as a first shot image P1 and a second shot image P2, respectively. It will be executed continuously along the series.

図2は、この撮影画像格納部120内に格納された第1の撮影画像P1および第2の撮影画像P2の一例を示す平面図である。図2(a) に示す第1の撮影画像P1は、被写体30となる車両正面のナンバープレート付近を斜め左方向から撮影した画像であり、図2(b) に示す第2の撮影画像P2は、被写体30となる車両正面のナンバープレート付近を斜め右方向から撮影した画像である。なお、実際の撮影画像には、ナンバープレートだけでなく、車両のボディー前面部分が写っていることになるが、ここでは、説明の便宜上、ナンバープレートの部分のみを図示することにする。   FIG. 2 is a plan view showing an example of the first photographed image P1 and the second photographed image P2 stored in the photographed image storage unit 120. A first photographed image P1 shown in FIG. 2 (a) is an image obtained by photographing the vicinity of the license plate in front of the vehicle to be the subject 30 from the diagonal left direction, and a second photographed image P2 shown in FIG. FIG. 6 is an image obtained by photographing the vicinity of the license plate in front of the vehicle as the subject 30 from the diagonally right direction. Note that, in the actual photographed image, not only the license plate but also the front part of the vehicle body is shown, but for convenience of explanation, only the part of the license plate is shown here.

本発明の重要な特徴は、この撮影画像表示装置に対して、予め「被写体のどの部分をどの方向から観察した二次元画像を表示せよ」という情報を設定しておき、当該設定どおりの表示を行わせる点にある。具体的には、ここに例示する実施形態の場合、「ナンバープレートの部分を、その正面方向から観察した二次元画像を表示せよ」という情報を設定しておくことになる。そのために、本発明では、被写体上で着目対象となる基準平面なるものを定義する。上例の場合、ナンバープレートの表面が基準平面として定義される。   An important feature of the present invention is that information on “display a two-dimensional image obtained by observing which part of a subject from which direction” is set in advance for the captured image display device, and display according to the setting is performed. There is in point to let you do. Specifically, in the embodiment illustrated here, information “display a two-dimensional image obtained by observing the license plate portion from the front direction” is set. For this purpose, the present invention defines a reference plane that is a target of interest on the subject. In the above example, the surface of the license plate is defined as the reference plane.

更に、この基準平面上に4つの基準点を定義する。この4つの基準点は、基準平面を規定する点であるので、基準平面上の任意の点(ただし、一直線上にのる3点を含んでいてはならない)であってかまわない。ただ、後述するように、撮影画像から、この4つの基準点に対応する対応点を抽出する処理を行う必要があるので、実用上は、そのような抽出処理が容易に行えるような特徴的な点を基準点に定義するのが好ましい。たとえば、ナンバープレートの表面を基準平面とする場合であれば、ナンバープレートを構成する矩形の4頂点を基準点と定義するのが最適である。そこで、以下の説明では、予め、この4頂点が基準点として定義されている例を述べることにする。   Further, four reference points are defined on this reference plane. Since these four reference points are points that define the reference plane, they may be arbitrary points on the reference plane (however, they should not include three points on a straight line). However, as described later, since it is necessary to perform processing for extracting corresponding points corresponding to these four reference points from the photographed image, in practice, it is characteristic that such extraction processing can be easily performed. Preferably, the point is defined as a reference point. For example, if the surface of the license plate is used as a reference plane, it is optimal to define four vertices of a rectangle constituting the license plate as reference points. Therefore, in the following description, an example in which these four vertices are defined as reference points will be described in advance.

なお、平面は一直線上にない3点によって規定することができるので、基準平面を規定するためには3つの基準点が定義されていれば十分である。しかしながら、§2で詳述するように、本発明では、座標変換式の係数を求めるための連立方程式を解くために、4つの基準点が必要になる。   Since the plane can be defined by three points that are not on a straight line, it is sufficient to define three reference points in order to define the reference plane. However, as described in detail in §2, in the present invention, four reference points are required in order to solve the simultaneous equations for obtaining the coefficients of the coordinate conversion equation.

図1に示す第1対応点抽出部130は、第1の撮影画像P1を解析することにより、被写体30上の着目対象となる基準平面上の点として予め設定されている4つの基準点にそれぞれ対応する点を、第1の撮影画像P1上において4つの第1対応点として抽出する処理を行う。すなわち、第1対応点抽出部130内には、予め、被写体30上の着目対象となる基準平面上の点として、4つの基準点に関する情報が設定されており、第1の撮影画像P1を解析することにより、この4つの基準点にそれぞれ対応する点を認識する処理を行うことになる。   The first corresponding point extraction unit 130 illustrated in FIG. 1 analyzes each of the first captured images P <b> 1, so that each of the four reference points set in advance as points on the reference plane that is the target of interest on the subject 30 is obtained. A process of extracting corresponding points as four first corresponding points on the first captured image P1 is performed. That is, in the first corresponding point extraction unit 130, information on four reference points is set in advance as points on the reference plane to be focused on the subject 30, and the first captured image P1 is analyzed. As a result, processing for recognizing points corresponding to the four reference points is performed.

ここでは、ナンバープレートを構成する矩形の4頂点を基準点として認識するような設定がなされていたとしよう。この場合、図2(a) に示す第1の撮影画像P1を解析することにより、図3(a) に示すような4つの対応点S11〜S14が抽出されることになる。具体的には、第1対応点抽出部130は、まず、第1の撮影画像P1上の直線部を探索し、探索された直線部によって囲まれた四角形を基準平面と認識し、当該四角形の4頂点を4つの第1対応点S11〜S14として抽出する処理を行えばよい。   Here, it is assumed that the setting is made so that the four vertices of the rectangle constituting the license plate are recognized as reference points. In this case, by analyzing the first photographed image P1 shown in FIG. 2A, four corresponding points S11 to S14 as shown in FIG. 3A are extracted. Specifically, the first corresponding point extraction unit 130 first searches for a straight line portion on the first captured image P1, recognizes a rectangle surrounded by the searched straight line portion as a reference plane, A process of extracting the four vertices as the four first corresponding points S11 to S14 may be performed.

一般に、画像に含まれる直線を認識する方法としては、画素値ヒストグラムを算出する手法や画素値の濃度勾配を算出する手法などの様々な方法が知られており、実用化されている。また、このような直線の認識法を利用して四角形を認識する方法も公知の方法であり、実際に様々な分野で利用されている。したがって、本明細書では、撮影画像上から四角形の4頂点を抽出する具体的な処理方法についての説明は省略する。   In general, as a method for recognizing a straight line included in an image, various methods such as a method of calculating a pixel value histogram and a method of calculating a density gradient of pixel values are known and put into practical use. A method of recognizing a quadrangle using such a straight line recognition method is also a known method, and is actually used in various fields. Therefore, in this specification, a description of a specific processing method for extracting four vertices of a quadrangle from a captured image is omitted.

要するに、第1対応点抽出部130は、予め設定された所定の解析アルゴリズムに基づいて、第1の撮影画像P1に対する解析を行い、4つの第1対応点S11〜S14を抽出する処理を実行すればよい。ここで重要な点は、抽出された4つの第1対応点S11〜S14が、被写体上の着目対象となる基準平面上に位置する4つの基準点に対応する点になっていることである。上例の場合、基準平面は被写体30のナンバープレートの表面であり、4つの基準点はこのナンバープレートを構成する矩形の4頂点であるから、4つの第1対応点S11〜S14は、第1の撮影画像P1に写っているナンバープレートを構成する四角形の4頂点ということになる。   In short, the first corresponding point extraction unit 130 performs an analysis on the first captured image P1 based on a predetermined analysis algorithm set in advance, and executes a process of extracting the four first corresponding points S11 to S14. That's fine. The important point here is that the four extracted first corresponding points S11 to S14 correspond to the four reference points located on the reference plane to be focused on the subject. In the above example, the reference plane is the surface of the license plate of the subject 30, and the four reference points are the four vertices of the rectangle constituting the license plate, so the four first corresponding points S11 to S14 are the first ones. That is, the four vertices of a quadrangle constituting the license plate shown in the photographed image P1.

一方、第2対応点抽出部140は、第2の撮影画像P2上で、4つの基準点に対応する4つの対応点(第2対応点)を抽出する処理を行う。その結果、図3(b) に示すような4つの第2対応点S21〜S24が抽出されることになる。ただ、この第2対応点S21〜S24の抽出には、前述した第1対応点S11〜S14の抽出とは異なる方法が採られる。すなわち、第2対応点抽出部140は、第1の撮影画像P1の特徴と第2の撮影画像P2の特徴とを比較することにより、両画像上の各点間の対応関係を求め、第2の撮影画像P2上において、4つの第1対応点S11〜S14にそれぞれ対応する4つの第2対応点S21〜S24を抽出する処理を行う。   On the other hand, the second corresponding point extraction unit 140 performs a process of extracting four corresponding points (second corresponding points) corresponding to the four reference points on the second captured image P2. As a result, four second corresponding points S21 to S24 as shown in FIG. 3B are extracted. However, a method different from the extraction of the first corresponding points S11 to S14 described above is adopted for the extraction of the second corresponding points S21 to S24. That is, the second corresponding point extracting unit 140 obtains the correspondence between the points on the two images by comparing the feature of the first photographed image P1 and the feature of the second photographed image P2, and the second On the photographed image P2, four second corresponding points S21 to S24 corresponding to the four first corresponding points S11 to S14 are extracted.

一般に、同一の被写体を異なる方向から撮影した2枚の撮影画像があれば、両画像を構成する画素間の対応関係を求めることができる。たとえば、図2(a) ,(b) に示すような2枚の撮影画像が与えられた場合、写っている被写体は同一であるから、たとえば、それぞれの画像について、水平方向に走査したときの画素値の濃度勾配の変化および垂直方向に走査したときの画素値の濃度勾配の変化などの特徴を解析すれば、近傍の特徴が類似する2点が互いに対応する点であることを認識可能である。このように、同一の被写体を異なる方向から撮影した2枚の撮影画像について、両画像を構成する各点間の対応関係を求める手法は、公知の手法であり、様々な分野において利用されている(たとえば、毎日コミュニケーションズ社刊「OpenCVプログラミングブック」(2009年)、カットシステム社刊「実践OpenCV−映像処理&解析」(2009年)、オライリージャパン社刊「詳解OpenCV」(2009年)などの専門書を参照)。したがって、本明細書では、より詳細な処理方法についての説明は省略する。   In general, if there are two photographed images obtained by photographing the same subject from different directions, the correspondence between the pixels constituting both images can be obtained. For example, when two photographed images as shown in FIGS. 2 (a) and 2 (b) are given, since the photographed subject is the same, for example, when each image is scanned in the horizontal direction, If features such as changes in the density gradient of the pixel value and changes in the density gradient of the pixel value when scanned in the vertical direction are analyzed, it is possible to recognize that two points with similar neighboring features correspond to each other. is there. As described above, a technique for obtaining the correspondence between points constituting two images of two captured images obtained by photographing the same subject from different directions is a known technique and is used in various fields. (For example, "OpenCV Programming Book" published by Mainichi Communications Inc. (2009), "Practical OpenCV-Video Processing & Analysis" published by Cut Systems Inc. (2009), "Detailed OpenCV" published by O'Reilly Japan (2009), etc. See the book). Therefore, in this specification, a description of a more detailed processing method is omitted.

結局、図3(a) に示す4つの第1対応点S11〜S14は、図2(a) に示す第1の撮影画像P1に対して所定のアルゴリズムに基づく解析(四角形の認識)を行うことによって抽出された点であるのに対して、図3(b) に示す4つの第2対応点S21〜S24は、図2(a) ,(b) に示す両画像P1,P2の特徴を比較することにより、画像P1上の各点が、画像P2上のどの点に対応するかを示す対応関係を求め、当該対応関係を用いて、図3(a) に示す4つの第1対応点S11〜S14について対応する画像P2上の点として抽出されることになる。このような方法を採るのは、第1対応点S11〜S14に対応する、より正確な点として、第2対応点S21〜S24を抽出することができるためである。   After all, the four first corresponding points S11 to S14 shown in FIG. 3 (a) are subjected to analysis (rectangular recognition) based on a predetermined algorithm for the first captured image P1 shown in FIG. 2 (a). In contrast, the four second corresponding points S21 to S24 shown in FIG. 3 (b) compare the characteristics of the images P1 and P2 shown in FIGS. 2 (a) and 2 (b). As a result, a correspondence relation indicating which point on the image P1 corresponds to which point on the image P2 is obtained, and using the correspondence relation, four first correspondence points S11 shown in FIG. ˜S14 are extracted as corresponding points on the image P2. The reason for adopting such a method is that the second corresponding points S21 to S24 can be extracted as more accurate points corresponding to the first corresponding points S11 to S14.

さて、こうして、図3(a) ,(b) に示すように、第1の撮影画像P1上に4つの第1対応点S11〜S14が定まり、第2の撮影画像P2上に4つの第2対応点S21〜S24が定まったら、これら8点の情報は、基準点座標算出部150へ与えられる。基準点は、被写体30上の基準平面上に定義された4つの点であるが、その情報は、各撮影画像P1,P2上に、対応点S11〜S14,S21〜S24の位置として二次元情報として記録されているだけである。基準点座標算出部150は、この二次元情報に基づいて、三次元空間上での4つの基準点の位置、すなわち、各基準点の三次元情報を復元する処理を行うことになる。   In this way, as shown in FIGS. 3A and 3B, four first corresponding points S11 to S14 are determined on the first photographed image P1, and four second points on the second photographed image P2. When the corresponding points S21 to S24 are determined, the information on these eight points is given to the reference point coordinate calculation unit 150. The reference points are four points defined on the reference plane on the subject 30, but the information is two-dimensional information as the positions of corresponding points S11 to S14 and S21 to S24 on the captured images P1 and P2. It is only recorded as. Based on this two-dimensional information, the reference point coordinate calculation unit 150 performs processing for restoring the positions of the four reference points in the three-dimensional space, that is, the three-dimensional information of each reference point.

一般に、三次元空間において、同一の被写体を異なる方向から観察した場合に得られる2枚の撮影画像と当該被写体との対応関係は、エピポーラ幾何と呼ばれる幾何学を利用することによって求めることができる。   In general, in a three-dimensional space, the correspondence between two captured images obtained when the same subject is observed from different directions and the subject can be obtained by using geometry called epipolar geometry.

図4は、一般的なエピポーラ幾何の基本概念を示す空間配置図である。この図では、被写体上の特徴点ξを、2つの異なる視点Q1,Q2から観察することにより得られる2枚の投影像が示されている。投影面π1上に得られる投影像は、第1の視点Q1から観察した場合に得られる像であり、特徴点ξは投影点ξ1に投影されることになる。一方、投影面π2上に得られる投影像は、第2の視点Q2から観察した場合に得られる像であり、特徴点ξは投影点ξ2に投影されることになる。   FIG. 4 is a spatial layout diagram showing the basic concept of general epipolar geometry. In this figure, two projected images obtained by observing the feature point ξ on the subject from two different viewpoints Q1 and Q2 are shown. The projection image obtained on the projection plane π1 is an image obtained when observed from the first viewpoint Q1, and the feature point ξ is projected onto the projection point ξ1. On the other hand, the projection image obtained on the projection plane π2 is an image obtained when observed from the second viewpoint Q2, and the feature point ξ is projected onto the projection point ξ2.

ここで、2つの視点Q1,Q2を結ぶ直線Bは、ベースラインと呼ばれており、このベースラインBと投影面π1,π2との交点は、エピポールe1,e2と呼ばれる。また、投影点ξ1とエピポールe1とを結ぶ直線E1や、投影点ξ2とエピポールe2とを結ぶ直線E2は、エピポーラ線と呼ばれ、3点ξ,Q1,Q2を通る平面は、エピポーラ平面EPと呼ばれている。   Here, the straight line B connecting the two viewpoints Q1 and Q2 is called a base line, and the intersections of the base line B and the projection planes π1 and π2 are called epipoles e1 and e2. The straight line E1 connecting the projection point ξ1 and the epipole e1 and the straight line E2 connecting the projection point ξ2 and the epipole e2 are called epipolar lines, and the plane passing through the three points ξ, Q1, and Q2 is the epipolar plane EP. being called.

この図4を、同一被写体に対する2台のカメラによる撮影系と考えると、視点Q1,Q2は、それぞれ各カメラが設置された撮影点ということになる。厳密に言えば、視点Q1は、第1のカメラ10のレンズの焦点が置かれた第1の撮影点となり、視点Q2は、第2のカメラ20のレンズの焦点が置かれた第2の撮影点となる。また、第1の投影面π1は、第1のカメラ10の光軸に直交する撮像面であり、当該撮像面π1上に投影された被写体像が、第1の撮影画像P1に相当する。同様に、第2の投影面π2は、第2のカメラ20の光軸に直交する撮像面であり、当該撮像面π2上に投影された被写体像が、第2の撮影画像P2に相当する。   If FIG. 4 is considered as a photographing system using two cameras for the same subject, the viewpoints Q1 and Q2 are photographing points where each camera is installed. Strictly speaking, the viewpoint Q1 is a first shooting point where the lens of the first camera 10 is focused, and the viewpoint Q2 is a second shooting where the lens of the second camera 20 is focused. It becomes a point. The first projection plane π1 is an imaging plane orthogonal to the optical axis of the first camera 10, and the subject image projected on the imaging plane π1 corresponds to the first captured image P1. Similarly, the second projection plane π2 is an imaging plane orthogonal to the optical axis of the second camera 20, and the subject image projected on the imaging plane π2 corresponds to the second captured image P2.

結局、図に示す投影点ξ1は、被写体上の特徴点ξに対応する第1の撮影画像P1上の対応点となり、投影点ξ2は、被写体上の特徴点ξに対応する第2の撮影画像P2上の対応点となる。ここで、各撮影点Q1,Q2の位置が固定されていれば、三角測量の原理により、投影点ξ1,ξ2の位置に基づいて、被写体上の特徴点ξの三次元空間上での位置を求めることができる。すなわち、2点Q1,ξ1を結ぶ直線と、2点Q2,ξ2を結ぶ直線との交点として、特徴点ξの三次元空間上での位置を決定することができる。   Eventually, the projection point ξ1 shown in the figure becomes a corresponding point on the first photographed image P1 corresponding to the feature point ξ on the subject, and the projection point ξ2 is a second photographed image corresponding to the feature point ξ on the subject. Corresponding point on P2. Here, if the positions of the photographing points Q1 and Q2 are fixed, the position of the feature point ξ on the subject in the three-dimensional space is determined based on the positions of the projection points ξ1 and ξ2 based on the principle of triangulation. Can be sought. That is, the position of the feature point ξ in the three-dimensional space can be determined as the intersection of the straight line connecting the two points Q1 and ξ1 and the straight line connecting the two points Q2 and ξ2.

実際には、投影点ξ1,ξ2の位置は、撮像面π1,π2上に定義された二次元座標系上の座標値として与えられるが、撮像面π1,π2は、各カメラの光軸に直交する投影面であるから、各カメラの設置位置、その向き、ズーム倍率が定まれば、三次元空間上での撮像面π1,π2の位置を決めることができ、投影点ξ1,ξ2の三次元座標値を決定することができる。なお、2台のカメラのズーム倍率を同一に設定しておけば(通常は、そのような設定を行うことになろう)、カメラのズーム倍率は、単に復元される被写体の像の大きさを決定するパラメータになるだけであり、被写体の形状を復元する際に必須の情報にはならない。したがって、実用上は、第1のカメラ10および第2のカメラ20の設置位置および向きの情報が得られれば、互いに対応する投影点ξ1,ξ2の位置の情報に基づいて、特徴点ξの三次元空間上での座標を決定することができる。   Actually, the positions of the projection points ξ1 and ξ2 are given as coordinate values on a two-dimensional coordinate system defined on the imaging surfaces π1 and π2, but the imaging surfaces π1 and π2 are orthogonal to the optical axis of each camera. If the installation position of each camera, its orientation, and the zoom magnification are determined, the positions of the imaging surfaces π1, π2 in the three-dimensional space can be determined, and the three-dimensional projection points ξ1, ξ2 are determined. Coordinate values can be determined. If the zoom magnifications of the two cameras are set to be the same (usually, such a setting will be performed), the camera zoom magnification simply determines the size of the image of the subject to be restored. It is only a parameter to be determined, and is not essential information for restoring the shape of the subject. Therefore, in practice, if information on the installation positions and orientations of the first camera 10 and the second camera 20 is obtained, the cubic of the feature points ξ is based on the information on the positions of the corresponding projection points ξ1, ξ2. Coordinates in the original space can be determined.

図1に示す基準点座標算出部150は、第1のカメラ10および第2のカメラ20の設置位置および向きの情報と、第1対応点抽出部130から与えられた4つの第1対応点S11〜S14の二次元座標値と、第2対応点抽出部140から与えられた4つの第2対応点S21〜S24の二次元座標値と、に基づいて、これら各対応点に対応する被写体30上での4つの基準点S31〜S34の三次元座標値を求める処理を行う。図5は、被写体30上に得られた基準点S31〜S34の一例を示す正面図である。この図では、説明の便宜上、被写体30の全体像が描かれているが、基準点座標算出部150によって実際に算出されるのは、この被写体30上の4つの基準点S31〜S34の三次元座標値のみである。この4つの基準点S31〜S34は、前述したとおり、被写体30上の着目対象面(この例では、ナンバープレートの表面)として設定された基準平面R上の点になる。   The reference point coordinate calculation unit 150 illustrated in FIG. 1 includes information on the installation positions and orientations of the first camera 10 and the second camera 20, and four first corresponding points S11 given from the first corresponding point extraction unit 130. -S14 and the two-dimensional coordinate values of the four second corresponding points S21 to S24 given from the second corresponding point extraction unit 140, on the subject 30 corresponding to these corresponding points. The process of obtaining the three-dimensional coordinate values of the four reference points S31 to S34 at is performed. FIG. 5 is a front view showing an example of the reference points S31 to S34 obtained on the subject 30. FIG. In this figure, for convenience of explanation, the entire image of the subject 30 is drawn. However, what is actually calculated by the reference point coordinate calculation unit 150 is the three-dimensional of the four reference points S31 to S34 on the subject 30. It is only a coordinate value. As described above, the four reference points S31 to S34 are points on the reference plane R set as the target surface of interest on the subject 30 (in this example, the surface of the license plate).

各カメラの設置位置および向きの情報と、第1対応点S11〜S14の二次元座標値と、第2対応点S21〜S24の二次元座標値と、に基づいて、4つの基準点S31〜S34の三次元座標値が求まる理由は、図4に示すエピポーラ幾何の原理から容易に理解できよう。たとえば、図3(a) ,(b) に示す撮影画像P1,P2を、図4に示す撮像面π1,π2上に得られた画像として、図3(a) ,(b) に示す互いに対応する点S11,S21を、図4に示す投影点ξ1,ξ2とすれば、図4に示す特徴点ξとして、図5に示す基準点S31の三次元座標値が得られることになる。他の基準点S32,S33,S34についても同様である。   Four reference points S31 to S34 based on the information on the installation position and orientation of each camera, the two-dimensional coordinate values of the first corresponding points S11 to S14, and the two-dimensional coordinate values of the second corresponding points S21 to S24. The reason why the three-dimensional coordinate value is obtained can be easily understood from the principle of epipolar geometry shown in FIG. For example, the captured images P1 and P2 shown in FIGS. 3 (a) and 3 (b) correspond to each other as shown in FIGS. 3 (a) and 3 (b) as images obtained on the imaging surfaces π1 and π2 shown in FIG. If the points S11 and S21 to be performed are the projection points ξ1 and ξ2 shown in FIG. 4, the three-dimensional coordinate value of the reference point S31 shown in FIG. 5 is obtained as the feature point ξ shown in FIG. The same applies to the other reference points S32, S33, S34.

なお、第1のカメラ10および第2のカメラ20の設置位置および向きの情報は、各カメラを定位置へ設置する作業が完了した後、ユーザが基準点座標算出部150に対して、当該情報を設定する操作を行うことにより、基準点座標算出部150内に格納することができる。このような運用を採る場合は、基準点座標算出部150に、第1のカメラ10および第2のカメラ20の設置位置および向きの情報を、外部からの設定操作により格納する機能をもたせておき、当該格納情報を用いて、4つの基準点の三次元座標値を求めるようにすればよい。このような運用手法は、一般に「キャリブレーション」と呼ばれている。   Note that information on the installation positions and orientations of the first camera 10 and the second camera 20 is obtained by the user from the reference point coordinate calculation unit 150 after the operation of installing each camera at a fixed position is completed. Can be stored in the reference point coordinate calculation unit 150. When such an operation is adopted, the reference point coordinate calculation unit 150 has a function of storing information on the installation positions and orientations of the first camera 10 and the second camera 20 by an external setting operation. Using the stored information, the three-dimensional coordinate values of the four reference points may be obtained. Such an operation method is generally called “calibration”.

一方、基準点座標算出部150に、撮影画像格納部120に格納されているテスト用被写体を撮影した第1の撮影画像P1と第2の撮影画像P2とに基づいて、第1のカメラ10および第2のカメラ20の設置位置および向きの情報を自動取得する機能をもたせておくことも可能である。すなわち、所定のテスト用被写体についての2つの撮影画像に基づいて、撮影に用いた2台のカメラの設置位置および向きを推定するアルゴリズムを実行するプログラムを基準点座標算出部150に組み込んでおき、各カメラを定位置へ設置する作業が完了した後、当該テスト用被写体についての試験撮影を行えば、これら試験撮影の結果を利用して、2台のカメラの設置位置および向きの情報を自動取得することが可能になる。   On the other hand, based on the first captured image P1 and the second captured image P2 obtained by capturing the test subject stored in the captured image storage unit 120 in the reference point coordinate calculation unit 150, the first camera 10 and It is also possible to have a function of automatically acquiring information on the installation position and orientation of the second camera 20. That is, a program for executing an algorithm for estimating the installation positions and orientations of the two cameras used for photographing based on two photographed images of a predetermined test subject is incorporated in the reference point coordinate calculating unit 150. After completing the work of installing each camera at a fixed position, if you take a test shoot of the test subject, you can automatically obtain information on the installation position and orientation of the two cameras using the results of the test shoot. It becomes possible to do.

このような運用手法は、一般に「ノンキャリブレーション」と呼ばれている。この運用手法は、カメラの設置位置や向きを頻繁に変更して利用するような場合に便利である。なお、テスト用被写体の撮影画像に基づいて、カメラの設置位置および向きの情報を自動取得するアルゴリズムも、既に実用化されている公知のアルゴリズムであるため、ここでは詳しい説明は省略する。   Such an operation method is generally called “non-calibration”. This operation method is convenient when the camera installation position and orientation are frequently changed and used. It should be noted that an algorithm for automatically acquiring information on the installation position and orientation of the camera based on the photographed image of the test subject is also a well-known algorithm that has already been put into practical use, and will not be described in detail here.

さて、こうして、4つの基準点S31〜S34の三次元座標値が求まれば、グローバルな三次元座標系上において、第1の撮影画像P1上の4つの第1対応点S11〜S14、第2の撮影画像P2上の4つの第2対応点S21〜S24、基準平面R上の4つの基準点S31〜S34の12個の点の位置が定まることになる。図6は、三次元空間上に配置された第1の撮影画像P1,第2の撮影画像P2,基準平面Rの位置関係を示す配置図である。   Now, when the three-dimensional coordinate values of the four reference points S31 to S34 are obtained in this way, the four first corresponding points S11 to S14 and the second on the first photographed image P1 on the global three-dimensional coordinate system. The positions of 12 points of the four second corresponding points S21 to S24 on the captured image P2 and the four reference points S31 to S34 on the reference plane R are determined. FIG. 6 is an arrangement diagram showing the positional relationship between the first photographed image P1, the second photographed image P2, and the reference plane R arranged in the three-dimensional space.

ここで、点S11,S21,S31は互いに対応する点であり、点S12,S22,S32は互いに対応する点であり、点S13,S23,S33は互いに対応する点であり、点S14,S24,S34は互いに対応する点である。これら空間上の位置が既知の各点の対応関係を利用すれば、第1の撮影画像P1上の任意の点pと基準平面R上の点qとの間の一般的な対応関係を示す座標変換式を定義することができ、同様に、第2の撮影画像P2上の任意の点pと基準平面R上の点qとの間の一般的な対応関係を示す座標変換式を定義することができる。   Here, the points S11, S21, S31 are points corresponding to each other, the points S12, S22, S32 are points corresponding to each other, the points S13, S23, S33 are points corresponding to each other, and the points S14, S24, S34 is a point corresponding to each other. Coordinates indicating a general correspondence between an arbitrary point p on the first photographed image P1 and a point q on the reference plane R are obtained by using the correspondence of each point whose position on the space is known. A conversion equation can be defined, and similarly, a coordinate conversion equation indicating a general correspondence between an arbitrary point p on the second captured image P2 and a point q on the reference plane R is defined. Can do.

ここでは、図示のとおり、第1の撮影画像P1(第1のカメラの撮像面π1)上に第1の二次元xy座標系を定義し、第1の撮影画像P1上の任意の点pの位置を座標(x,y)で示すこととし、同様に、第2の撮影画像P2(第2のカメラの撮像面π2)上に第2の二次元xy座標系を定義し、第2の撮影画像P2上の任意の点pの位置を座標(x,y)で示すことにする。第1の二次元xy座標系と第2の二次元xy座標系とは、いずれも各撮影画像上においてのみ定義されるローカル座標系であり、両者の座標は全く独立したものである。一方、図示のとおり、4つの基準点S31〜S34を含む基準平面R上にも、ローカルな二次元uv座標系を定義し、この基準平面R上の任意の点qの位置を座標(u,v)で示すことにする。   Here, as shown in the figure, a first two-dimensional xy coordinate system is defined on the first captured image P1 (imaging plane π1 of the first camera), and an arbitrary point p on the first captured image P1 is defined. The position is indicated by coordinates (x, y). Similarly, a second two-dimensional xy coordinate system is defined on the second photographed image P2 (imaging plane π2 of the second camera), and the second photograph The position of an arbitrary point p on the image P2 is indicated by coordinates (x, y). The first two-dimensional xy coordinate system and the second two-dimensional xy coordinate system are both local coordinate systems defined only on each captured image, and the coordinates of both are completely independent. On the other hand, as shown in the figure, a local two-dimensional uv coordinate system is defined also on the reference plane R including the four reference points S31 to S34, and the position of an arbitrary point q on the reference plane R is expressed by coordinates (u, v).

この3つのローカル二次元座標系は、前述したグローバルな三次元座標系の所定位置に配置された座標系であり、このグローバル座標系上において、各座標系の位置は既知のものとなっている。すなわち、第1のカメラの撮像面π1は、第1のカメラ10の光軸に対して直交する投影面として定義される面であり、第1のカメラ10が設置されている撮影点Q1の位置とその光軸の向きが決まれば、グローバル座標系における、撮像面π1の位置を定めることができる。理論的には、第1のカメラ10のズーム倍率に応じて、撮像面π1の位置は光軸に沿って平行移動することになるが、§2で詳述するように、カメラのズーム倍率は、像の大きさを決めるスケーリングファクターになるため、実用上は任意に設定してかまわない。   The three local two-dimensional coordinate systems are coordinate systems arranged at predetermined positions of the global three-dimensional coordinate system described above, and the positions of the respective coordinate systems are known on the global coordinate system. . That is, the imaging plane π1 of the first camera is a plane defined as a projection plane orthogonal to the optical axis of the first camera 10, and the position of the shooting point Q1 where the first camera 10 is installed. If the orientation of the optical axis is determined, the position of the imaging plane π1 in the global coordinate system can be determined. Theoretically, the position of the imaging plane π1 translates along the optical axis according to the zoom magnification of the first camera 10, but as described in detail in §2, the zoom magnification of the camera is Since it becomes a scaling factor that determines the size of the image, it may be set arbitrarily in practice.

同様に、第2のカメラの撮像面π2についても、第2のカメラ20が設置されている撮影点Q2の位置とその光軸の向きが決まれば、グローバル座標系におけるその位置を定めることができる。また、基準平面Rは、4つの基準点S31〜S34を含む平面であるから、基準点座標算出部150によって算出された基準点S31〜S34の三次元座標値に基づいて、そのグローバル座標系における位置を定めることができる。   Similarly, regarding the imaging plane π2 of the second camera, if the position of the photographing point Q2 where the second camera 20 is installed and the direction of the optical axis thereof are determined, the position in the global coordinate system can be determined. . Further, since the reference plane R is a plane including four reference points S31 to S34, the reference plane R in the global coordinate system is based on the three-dimensional coordinate values of the reference points S31 to S34 calculated by the reference point coordinate calculation unit 150. The position can be determined.

図6において、基準平面Rは、三次元空間上に復元された被写体上の着目対象となる平面であり、上例の場合、ナンバープレートの表面に相当する。したがって、この基準平面R上に定義された二次元uv座標系上に、被写体の像を復元することができれば、当該復元画像は、「ナンバープレートを正面から観察した画像」になり、本発明が目的とする表示対象画像(用途に応じて適切な観察方向が予め定まっている被写体について、当該適切な観察方向から観察した状態を示す二次元画像)になる。すなわち、ナンバープレートを、図6に示す仮想視点E(基準平面Rに直交する線上の点)から観察した場合の正面像が得られることになる。   In FIG. 6, a reference plane R is a plane that is a target of interest on the subject restored in the three-dimensional space, and corresponds to the surface of the license plate in the above example. Therefore, if the image of the subject can be restored on the two-dimensional uv coordinate system defined on the reference plane R, the restored image becomes an “image obtained by observing the license plate from the front”. This is a target display target image (a two-dimensional image showing a state in which an object with an appropriate observation direction determined in advance according to the application is observed from the appropriate observation direction). That is, a front image when the license plate is observed from a virtual viewpoint E (a point on a line orthogonal to the reference plane R) shown in FIG. 6 is obtained.

二次元uv座標系上に被写体30の像を復元するには、第1の撮影画像P1を用いてもよいし、第2の撮影画像P2を用いてもよい。第1の撮影画像P1を用いる場合には、第1の撮影画像P1を変換対象画像として、第1の二次元xy座標系上の点p(x,y)と二次元uv座標系上の点q(u,v)との対応関係を示す座標変換式「(u,v)=f(x,y)」を用いた変換を行い、第2の撮影画像P2を用いる場合には、第2の撮影画像P2を変換対象画像として、第2の二次元xy座標系上の点p(x,y)と二次元uv座標系上の点q(u,v)との対応関係を示す座標変換式「(u,v)=g(x,y)」を用いた変換を行うことになる。   In order to restore the image of the subject 30 on the two-dimensional uv coordinate system, the first captured image P1 may be used, or the second captured image P2 may be used. When the first photographed image P1 is used, the first photographed image P1 is used as a conversion target image, and the point p (x, y) on the first two-dimensional xy coordinate system and the point on the two-dimensional uv coordinate system are used. When the conversion using the coordinate conversion formula “(u, v) = f (x, y)” indicating the correspondence with q (u, v) is performed and the second captured image P2 is used, the second Coordinate conversion showing the correspondence between the point p (x, y) on the second two-dimensional xy coordinate system and the point q (u, v) on the two-dimensional uv coordinate system Conversion using the expression “(u, v) = g (x, y)” is performed.

図1に示す係数値算出部160は、上記関数fもしくはgに含まれる係数の値を算出する機能を有する。すなわち、第1の撮影画像P1もしくは第2の撮影画像P2を変換対象画像として、この変換対象画像上に二次元xy座標系を定義したときに、二次元uv座標系上の任意の座標値(u,v)と、当該座標値で示される点に対応する二次元xy座標系上の点の座標値(x,y)と、の関係を定める座標変換式の係数値を、4つの基準点の座標値と、4つの第1対応点もしくは4つの第2対応点の座標値との対応関係を用いて算出する処理を行う。   The coefficient value calculation unit 160 shown in FIG. 1 has a function of calculating the value of the coefficient included in the function f or g. That is, when the first captured image P1 or the second captured image P2 is used as a conversion target image and a two-dimensional xy coordinate system is defined on the conversion target image, an arbitrary coordinate value on the two-dimensional uv coordinate system ( u, v) and the coordinate value (x, y) of the point on the two-dimensional xy coordinate system corresponding to the point indicated by the coordinate value, the coefficient value of the coordinate transformation formula that defines the relationship between the four reference points Is calculated using a correspondence relationship between the coordinate values of the four first corresponding points or the coordinate values of the four second corresponding points.

要するに、第1の撮影画像P1を変換対象画像とする場合は、「二次元uv座標系上の任意の座標値(u,v)」と、「当該座標値で示される点q(u,v)に対応する第1の二次元xy座標系上の点p(x,y)の座標値(x,y)」と、の関係を定める座標変換式「(u,v)=f(x,y)」の係数値を、4つの基準点S31〜S34の座標値と、4つの第1対応点S11〜S14の座標値との対応関係を用いて算出することになる。また、第2の撮影画像P2を変換対象画像とする場合は、「二次元uv座標系上の任意の座標値(u,v)」と、「当該座標値で示される点q(u,v)に対応する第2の二次元xy座標系上の点p(x,y)の座標値(x,y)」と、の関係を定める座標変換式「(u,v)=g(x,y)」の係数値を、4つの基準点S31〜S34の座標値と、4つの第2対応点S21〜S24の座標値との対応関係を用いて算出することになる。この係数値算出部160によって行われる具体的な関数式についての係数値の算出方法については、§2で詳述する。   In short, when the first captured image P1 is a conversion target image, “an arbitrary coordinate value (u, v) on the two-dimensional uv coordinate system” and “a point q (u, v) indicated by the coordinate value” are displayed. ) And a coordinate conversion formula “(u, v) = f (x, y,)” that defines the relationship between the coordinate value (x, y) of the point p (x, y) on the first two-dimensional xy coordinate system corresponding to y) ”is calculated using the correspondence between the coordinate values of the four reference points S31 to S34 and the coordinate values of the four first corresponding points S11 to S14. When the second captured image P2 is the conversion target image, “arbitrary coordinate values (u, v) on the two-dimensional uv coordinate system” and “point q (u, v) indicated by the coordinate values” are displayed. ) Corresponding to the coordinate value (x, y) of the point p (x, y) on the second two-dimensional xy coordinate system corresponding to the coordinate conversion expression “(u, v) = g (x, y) ”is calculated using the correspondence relationship between the coordinate values of the four reference points S31 to S34 and the coordinate values of the four second corresponding points S21 to S24. The coefficient value calculation method for a specific function formula performed by the coefficient value calculation unit 160 will be described in detail in Section 2.

図1に示す画像変換部170は、係数値算出部160によって算出された係数値によって規定される座標変換式「(u,v)=f(x,y)」もしくは「(u,v)=g(x,y)」を用いて、第1の二次元xy座標系もしくは第2の二次元xy座標系上の変換対象画像、すなわち、撮影画像格納部120に格納されている第1の撮影画像P1もしくは第2の撮影画像P2を、二次元uv座標系上の表示対象画像P3に変換する処理を行う。この変換処理により、図6に示す二次元uv座標系上に、表示対象画像P3が得られることになる。この表示対象画像P3は、上述したとおり、元の被写体30の基準平面Rを復元した像になり、この基準平面Rを正面から観察した状態を示す画像になる。   The image conversion unit 170 illustrated in FIG. 1 has a coordinate conversion formula “(u, v) = f (x, y)” or “(u, v) = defined by the coefficient value calculated by the coefficient value calculation unit 160. g (x, y) ”is used to convert the image to be converted on the first two-dimensional xy coordinate system or the second two-dimensional xy coordinate system, that is, the first photographing stored in the photographed image storage unit 120. A process of converting the image P1 or the second captured image P2 into a display target image P3 on the two-dimensional uv coordinate system is performed. By this conversion processing, a display target image P3 is obtained on the two-dimensional uv coordinate system shown in FIG. As described above, the display target image P3 is an image obtained by restoring the reference plane R of the original subject 30, and an image showing a state in which the reference plane R is observed from the front.

図1に示すとおり、こうして画像変換部170による変換処理によって作成された表示対象画像P3は、表示対象画像格納部180に格納され、画像出力部190によってモニタ装置へと出力され、モニタの画面上に表示される。結局、モニタ画面上には、図5に示すナンバープレートの部分の正面画像が表示されることになる。このように、本発明に係る撮影画像表示装置によれば、ユーザが、観察方向に関して何ら指示操作を行わなくても、用途に応じて適切な観察方向が予め定まっている被写体について、当該適切な観察方向から観察した状態を示す二次元画像が自動的に生成され、モニタ画面上に表示されることになる。   As shown in FIG. 1, the display target image P3 thus created by the conversion processing by the image conversion unit 170 is stored in the display target image storage unit 180, output to the monitor device by the image output unit 190, and displayed on the monitor screen. Is displayed. Eventually, the front image of the license plate portion shown in FIG. 5 is displayed on the monitor screen. As described above, according to the photographed image display device according to the present invention, the user can perform the appropriate observation for the subject whose appropriate observation direction is determined in advance according to the use without performing any instruction operation regarding the observation direction. A two-dimensional image showing a state observed from the observation direction is automatically generated and displayed on the monitor screen.

以上、図1のブロック図を参照しながら、本発明の基本的実施形態に係る撮影画像表示装置の構成を説明したが、実際には、この撮影画像表示装置におけるカメラ10,20以外の構成要素、すなわち、画像入力部110,撮影画像格納部120,第1対応点抽出部130,第2対応点抽出部140,基準点座標算出部150,係数値算出部160,画像変換部170,表示対象画像格納部180,画像出力部190の部分は、コンピュータに専用のプログラムを組み込むことによって構成することができる。また、LSIなどの半導体集積回路によって構成することもできる。   The configuration of the captured image display device according to the basic embodiment of the present invention has been described above with reference to the block diagram of FIG. 1, but actually, the components other than the cameras 10 and 20 in this captured image display device. That is, the image input unit 110, the captured image storage unit 120, the first corresponding point extraction unit 130, the second corresponding point extraction unit 140, the reference point coordinate calculation unit 150, the coefficient value calculation unit 160, the image conversion unit 170, the display target The image storage unit 180 and the image output unit 190 can be configured by incorporating a dedicated program into the computer. Moreover, it can also be comprised by semiconductor integrated circuits, such as LSI.

<<< §2.係数値算出部における具体的な処理 >>>
ここでは、図1に示す装置における係数値算出部160が行う具体的な処理を説明する。§1で述べたとおり、ここで算出する係数値は、図6に示す第1の二次元xy座標系上の点p(x,y)と二次元uv座標系上の点q(u,v)との対応関係を示す座標変換式「(u,v)=f(x,y)」の関数fに含まれる係数の値、もしくは、第2の二次元xy座標系上の点p(x,y)と二次元uv座標系上の点q(u,v)との対応関係を示す座標変換式「(u,v)=g(x,y)」の関数gに含まれる係数の値である。いずれも、座標値(x,y)と座標値(u,v)との間の変換式に関するものであるから、ここでは、関数fについての説明を行うことにする。
<<< §2. Specific processing in the coefficient value calculation section >>
Here, specific processing performed by the coefficient value calculation unit 160 in the apparatus shown in FIG. 1 will be described. As described in §1, the coefficient values calculated here are the point p (x, y) on the first two-dimensional xy coordinate system and the point q (u, v) on the two-dimensional uv coordinate system shown in FIG. )) Or the value of the coefficient included in the function f of the coordinate conversion expression “(u, v) = f (x, y)” indicating the correspondence relationship or the point p (x on the second two-dimensional xy coordinate system , Y) and the value of the coefficient included in the function g of the coordinate conversion formula “(u, v) = g (x, y)” indicating the correspondence between the point q (u, v) on the two-dimensional uv coordinate system. It is. Since both relate to the conversion formula between the coordinate value (x, y) and the coordinate value (u, v), the function f will be described here.

関数fが定まれば、第1の二次元xy座標系上の任意の点p(x,y)の座標(x,y)を、二次元uv座標系上の座標(u,v)に変換することができるので、第1の撮影画像P1上の任意の点p(x,y)に位置する画素を、二次元uv座標系上の座標変換点q(u,v)の位置にプロットすることができ、第1の撮影画像P1を二次元uv座標系上の表示対象画像に変換することができる。この変換処理は、§1で述べたとおり、画像変換部170によって実行される。   If the function f is determined, the coordinates (x, y) of an arbitrary point p (x, y) on the first two-dimensional xy coordinate system are converted into coordinates (u, v) on the two-dimensional uv coordinate system. Therefore, a pixel located at an arbitrary point p (x, y) on the first photographed image P1 is plotted at the position of the coordinate conversion point q (u, v) on the two-dimensional uv coordinate system. The first captured image P1 can be converted into a display target image on the two-dimensional uv coordinate system. This conversion process is executed by the image conversion unit 170 as described in §1.

関数fに含まれる係数値は、第1の二次元xy座標系上の4点S11〜S14の既知座標値と、二次元uv座標系上の4点S31〜S34の既知座標値とを用いた演算によって算出される。もっとも、理論的には、関数fに含まれるすべての係数値を定めるためには、これら8個の点の座標値だけでは十分ではない。そこで、本発明では、「二次元uv座標系と二次元xy座標系との間のスケーリングファクターは、任意に設定できる。」という前提を置く工夫をすることにより、8個の点の座標値を用いて係数値を算出できるようにしている。   As the coefficient values included in the function f, the known coordinate values of the four points S11 to S14 on the first two-dimensional xy coordinate system and the known coordinate values of the four points S31 to S34 on the two-dimensional uv coordinate system are used. Calculated by calculation. In theory, however, the coordinate values of these eight points are not sufficient to determine all the coefficient values included in the function f. Therefore, in the present invention, by devising the premise that “the scaling factor between the two-dimensional uv coordinate system and the two-dimensional xy coordinate system can be arbitrarily set”, the coordinate values of the eight points are obtained. The coefficient value can be calculated by using this.

図6において、グローバル座標系上での撮影点Q1,Q2の位置、撮像面π1,π2の位置、基準平面Rの位置を完全に定めることができれば、基準平面R上に実寸台の被写体30を復元することができるので、二次元uv座標系上には、表示対象画像として、実寸台の画像を得ることができる。しかしながら、実用上、実寸台の表示対象画像を得ることに、技術的な意味はない。実際には、表示対象画像は、デジタル画像データとして得られるので、所定ピッチの画素配列として得られることになる。したがって、画素ピッチの設定次第で、得られる画像データのサイズ(縦横の画素数)は変わってしまう。また、この表示対象画像をモニタ画面上に表示する場合も、用いるモニタ装置が対応する画素サイズなどの条件により、表示される画像の最終的なサイズは変わってしまう。   In FIG. 6, if the positions of the photographing points Q1 and Q2, the positions of the imaging planes π1 and π2, and the position of the reference plane R on the global coordinate system can be completely determined, the subject 30 on the actual scale is placed on the reference plane R. Since the image can be restored, an image on the actual scale can be obtained as a display target image on the two-dimensional uv coordinate system. However, in practical terms, there is no technical significance in obtaining an actual display image. Actually, since the display target image is obtained as digital image data, it is obtained as a pixel array having a predetermined pitch. Therefore, the size of the obtained image data (the number of vertical and horizontal pixels) changes depending on the setting of the pixel pitch. In addition, when the display target image is displayed on the monitor screen, the final size of the displayed image changes depending on conditions such as the pixel size corresponding to the monitor device to be used.

結局、基準平面R上に実寸台の被写体像を復元することは意味がないので、二次元xy座標系上の各撮影画像と二次元uv座標系上の表示対象画像との間のスケーリングファクターは、任意に設定できることになる。   After all, since it is meaningless to restore the subject image on the reference plane R, the scaling factor between each captured image on the two-dimensional xy coordinate system and the display target image on the two-dimensional uv coordinate system is It can be set arbitrarily.

さて、図7は、三次元XYZ座標系における撮影画像の投影面の位置と撮影画像のスケーリングとの関係を示す斜視図である。図に示す投影面πa,πbは、いずれもXY平面に平行な投影面であり、投影面πaは、Z=zaで示される平面上に配置され、投影面πbは、Z=zbで示される平面上に配置されている。ここで、この座標系の原点Oの位置に視点Q1をとって、被写体上の特徴点ξを観察すると、図示のとおり、投影面πa上には投影点ξaが形成され、投影面πb上には投影点ξbが形成される。このようにして、各投影面πa,πb上には、それぞれ被写体の個々の点が投影され、被写体全体の投影像が形成されることになるが、投影面πa上に形成される投影像と投影面πb上に形成される投影像とは相似形になる。別言すれば、投影面πa上に形成される投影像をzb/za倍に拡大すれば、投影面πb上に形成される投影像が得られる。   FIG. 7 is a perspective view showing the relationship between the position of the projection plane of the captured image and the scaling of the captured image in the three-dimensional XYZ coordinate system. The projection planes πa and πb shown in the figure are both projection planes parallel to the XY plane, the projection plane πa is arranged on a plane indicated by Z = za, and the projection plane πb is indicated by Z = zb. It is arranged on a plane. Here, when the viewpoint Q1 is taken at the position of the origin O of this coordinate system and the feature point ξ on the subject is observed, a projection point ξa is formed on the projection surface πa as shown in the figure, and the projection point ξa is formed on the projection surface πb. Forms a projection point ξb. In this way, each point of the subject is projected on each of the projection planes πa and πb to form a projection image of the entire subject, but the projection image formed on the projection plane πa The projected image formed on the projection plane πb has a similar shape. In other words, if the projection image formed on the projection plane πa is enlarged zb / za times, a projection image formed on the projection plane πb can be obtained.

結局、投影面πをZ軸方向に平行移動させることは、投影像のスケーリングファクターを変化させることと等価であり、スケーリングファクターを任意に設定できるのであれば、投影面πのZ軸方向の位置も任意に設定できることになる。そこで、図8に示すように、投影面πを、Z=1で示される平面上に配置することにし、この投影面π上に二次元xy座標系を定義することにする。この二次元xy座標系上の任意の点pは、二次元座標値p(x,y)で示されることになるが、三次元XYZ座標系では、三次元座標値p(x,y,1)で示されることになる。   After all, translating the projection plane π in the Z-axis direction is equivalent to changing the scaling factor of the projection image. If the scaling factor can be arbitrarily set, the position of the projection plane π in the Z-axis direction Can also be set arbitrarily. Therefore, as shown in FIG. 8, the projection plane π is arranged on a plane indicated by Z = 1, and a two-dimensional xy coordinate system is defined on the projection plane π. An arbitrary point p on the two-dimensional xy coordinate system is indicated by a two-dimensional coordinate value p (x, y). In the three-dimensional XYZ coordinate system, a three-dimensional coordinate value p (x, y, 1 ).

一方、図9に示すように、三次元グローバル空間上に、三次元XYZ座標系とともに、これとは全く別な三次元UVW座標系(原点O′)を定義してみる。XYZ座標系とUVW座標系とは、全く独立した座標系であり、各原点O,O′の位置や各座標軸の向きは、それぞれ独立して設定されている。そして、XYZ座標系上には、図8で示したように、Z=1で示される平面上に配置された投影面πを定義し、この投影面π上に二次元xy座標系を定義する。一方、UVW座標系上には、W=1で示される平面上に配置された基準平面Rを定義し、この基準平面R上に二次元uv座標系を定義する。この二次元uv座標系上の任意の点qは、二次元座標値q(u,v)で示されることになるが、三次元UVW座標系では、三次元座標値q(u,v,1)で示されることになる。   On the other hand, as shown in FIG. 9, let us define a three-dimensional XYZ coordinate system and a completely different three-dimensional UVW coordinate system (origin O ′) in the three-dimensional global space. The XYZ coordinate system and the UVW coordinate system are completely independent coordinate systems, and the positions of the origins O and O ′ and the orientations of the coordinate axes are set independently. Then, on the XYZ coordinate system, as shown in FIG. 8, a projection plane π arranged on the plane indicated by Z = 1 is defined, and a two-dimensional xy coordinate system is defined on the projection plane π. . On the other hand, on the UVW coordinate system, a reference plane R arranged on a plane indicated by W = 1 is defined, and a two-dimensional uv coordinate system is defined on the reference plane R. An arbitrary point q on the two-dimensional uv coordinate system is indicated by a two-dimensional coordinate value q (u, v), but in the three-dimensional UVW coordinate system, the three-dimensional coordinate value q (u, v, 1). ).

さて、上述したように、XYZ座標系とUVW座標系とは、位置や向きを任意に設定可能な相互に全く独立した座標系であるから、図6に示す第1の二次元xy座標系(第1の撮影画像P1が形成されている投影面π1上の座標系)および二次元uv座標系(基準平面R上の座標系)を、図9のモデルに示す二次元xy座標系および二次元uv座標系に置き換えて考えることが可能である。ただ、スケーリングファクターに関しては、完全な整合性はとれない。図6に示す投影面π1と視点Q1との距離は、撮影に用いた第1のカメラ10のズーム倍率に基づいて決定されるものであるのに対して、図9のモデルに示す投影面πと視点Q1(原点O)との距離は1に固定されてしまっている。しかしながら、上述したとおり、実用上、スケーリングファクターは、任意に設定できるため、図9のモデルに示す座標系を前提として座標変換式を定義しても何ら支障は生じない。   As described above, the XYZ coordinate system and the UVW coordinate system are completely independent coordinate systems in which positions and orientations can be arbitrarily set. Therefore, the first two-dimensional xy coordinate system ( A two-dimensional xy coordinate system and a two-dimensional model shown in the model of FIG. 9 represent a two-dimensional uv coordinate system (coordinate system on the reference plane R) on the projection plane π1 on which the first photographed image P1 is formed. It can be considered by replacing with the uv coordinate system. However, there is no perfect consistency regarding the scaling factor. The distance between the projection plane π1 shown in FIG. 6 and the viewpoint Q1 is determined based on the zoom magnification of the first camera 10 used for shooting, whereas the projection plane π shown in the model of FIG. And the viewpoint Q1 (origin O) are fixed at 1. However, as described above, since the scaling factor can be set arbitrarily in practice, there is no problem even if the coordinate conversion formula is defined assuming the coordinate system shown in the model of FIG.

ここで定義すべき座標変換式は、図9に示す三次元XYZ座標系上の任意の点p(x,y,1)と三次元UVW座標系上の点q(u,v,1)との対応関係を示す式である。一般に、2つの異なる三次元座標系間の座標変換式は、ホモグラフィー行列Hを用いて表現され、三次元XYZ座標系上の座標値(x,y,z)と三次元UVW座標系上の座標値(u,v,w)との間の座標変換式は、
[x y z]=H[u v w]
なる行列式で表される。ここで、Hは、3行3列のホモグラフィー行列であり、右肩にTを付した行列は転置行列を示している(明細書中では、文字列のみで行列表現を行う便宜上、列ベクトルを行ベクトルの転置形式で示すことにする)。
The coordinate transformation formula to be defined here is an arbitrary point p (x, y, 1) on the three-dimensional XYZ coordinate system shown in FIG. 9 and a point q (u, v, 1) on the three-dimensional UVW coordinate system. Is an expression showing the correspondence relationship In general, a coordinate conversion formula between two different three-dimensional coordinate systems is expressed using a homography matrix H, and a coordinate value (x, y, z) on a three-dimensional XYZ coordinate system and a three-dimensional UVW coordinate system. The coordinate conversion formula between coordinate values (u, v, w) is
[X y z] T = H [u v w] T
It is expressed by the determinant Here, H is a 3 × 3 homography matrix, and a matrix with T on the right shoulder indicates a transposed matrix (in the specification, a column vector is used for the sake of convenience of performing matrix expression only with character strings). Is shown in the row vector transpose form).

図9に示すモデルでは、上式において、z=1、w=1に固定することができるので、
[x y 1]=H[u v 1]
なる式を用いればよい。ここでは、更に、xy座標系とuv座標系との間のスケーリングファクターを任意に設定できるという利点を利用して、任意のスケーリング係数σを導入し、図10に式(1)として示すように
[x y 1]=H[u v 1]・σ
なる式を立てることにする。ここで、3行3列のホモグラフィー行列Hの各要素をh11,h12,h13,h21,h22,h23,h31,h32,h33とすれば、上式は、図10の式(2)のように表すことができる。
In the model shown in FIG. 9, in the above formula, z = 1 and w = 1 can be fixed.
[X y 1] T = H [u v 1] T
The following formula may be used. Here, further, an arbitrary scaling factor σ is introduced by utilizing the advantage that the scaling factor between the xy coordinate system and the uv coordinate system can be arbitrarily set, as shown in Expression (1) in FIG. [X y 1] T = H [u v 1] T · σ
I will formulate Here, if each element of the 3 × 3 homography matrix H is h11, h12, h13, h21, h22, h23, h31, h32, h33, the above equation can be expressed as equation (2) in FIG. Can be expressed as

この式(2)に示す行列式を3本の式に分けると、
x=h11・uσ+h12・vσ+h13・σ
y=h21・uσ+h22・vσ+h23・σ
1=h31・uσ+h32・vσ+h33・σ
となる。この第3式をσについて解くと、
σ=1/(h31・u+h32・v+h33)
となるので、このσを第1式および第2式に代入して整理すると、図10に式(3)および式(4)として示すように、
x=(h11・u+h12・v+h13)/(h31・u+h32・v+h33)
y=(h21・u+h22・v+h23)/(h31・u+h32・v+h33)
なる式が得られる。
Dividing the determinant shown in equation (2) into three equations,
x = h11 · uσ + h12 · vσ + h13 · σ
y = h21 · uσ + h22 · vσ + h23 · σ
1 = h31 · uσ + h32 · vσ + h33 · σ
It becomes. Solving this third equation for σ,
σ = 1 / (h31 · u + h32 · v + h33)
Therefore, when this σ is substituted into the first expression and the second expression and rearranged, as shown in FIG. 10 as the expressions (3) and (4),
x = (h11 · u + h12 · v + h13) / (h31 · u + h32 · v + h33)
y = (h21 · u + h22 · v + h23) / (h31 · u + h32 · v + h33)
The following formula is obtained.

この2つの式の分母分子をh33で除すると、
x=(h11/h33・u+h12/h33・v+h13/h33)
/(h31/h33・u+h32/h33・v+h33/h33)
y=(h21/h33・u+h22/h33・v+h23/h33)
/(h31/h33・u+h32/h33・v+h33/h33)
となるので、h11/h33,h12/h33,h13/h33,h21/h33,h22/h33,h23/h33,h31/h33,h32/h33を、それぞれh11′,h12′,h13′,h21′,h22′,h23′,h31′,h32′とおけば、
x=(h11′・u+h12′・v+h13′)/(h31′・u+h32′・v+1)
y=(h21′・u+h22′・v+h23′)/(h31′・u+h32′・v+1)
と変形できる。ここで、h11′〜h32′を新たにh11〜h32とおけば、
x=(h11・u+h12・v+h13)/(h31・u+h32・v+1)
y=(h21・u+h22・v+h23)/(h31・u+h32・v+1)
なる式が得られることになる。結局、図10の式(3)および式(4)において、便宜上、h33=1とおいて、図10に示す式(5)および式(6)を導くことができる。
Dividing the denominator numerator of these two formulas by h33,
x = (h11 / h33 · u + h12 / h33 · v + h13 / h33)
/ (H31 / h33 · u + h32 / h33 · v + h33 / h33)
y = (h21 / h33 · u + h22 / h33 · v + h23 / h33)
/ (H31 / h33 · u + h32 / h33 · v + h33 / h33)
Therefore, h11 / h33, h12 / h33, h13 / h33, h21 / h33, h22 / h33, h23 / h33, h31 / h33, h32 / h33 are designated as h11 ′, h12 ′, h13 ′, h21 ′, If you say h22 ', h23', h31 ', h32'
x = (h11'.u + h12'.v + h13 ') / (h31'.u + h32'.v + 1)
y = (h21'.u + h22'.v + h23 ') / (h31'.u + h32'.v + 1)
And can be transformed. Here, if h11 ′ to h32 ′ are newly set as h11 to h32,
x = (h11 · u + h12 · v + h13) / (h31 · u + h32 · v + 1)
y = (h21 · u + h22 · v + h23) / (h31 · u + h32 · v + 1)
The following formula is obtained. After all, in the formulas (3) and (4) in FIG. 10, for convenience, it is possible to derive the formulas (5) and (6) shown in FIG. 10 by setting h33 = 1.

図10の式(5)の分母を両辺に乗じれば、図11に示すように、式(7)が得られ、その左辺の一部を右辺へ移項すると式(8)が得られる。同様に、図10の式(6)の分母を両辺に乗じれば、図11に示すように、式(9)が得られ、その左辺の一部を右辺へ移項すると式(10)が得られる。結局、図9に示すモデルを用いた場合、座標値(x,y)と座標値(u,v)との間の座標変換式は、図11の式(8)および式(10)に示すように、
x=h11・u+h12・v+h13−h31・x・u−h32・x・v
y=h21・u+h22・v+h23−h31・y・u−h32・y・v
となる。
If both sides are multiplied by the denominator of Expression (5) in FIG. 10, Expression (7) is obtained as shown in FIG. 11, and Expression (8) is obtained by shifting a part of the left side to the right side. Similarly, if both sides are multiplied by the denominator of equation (6) in FIG. 10, equation (9) is obtained as shown in FIG. 11, and when a part of the left side is moved to the right side, equation (10) is obtained. It is done. After all, when the model shown in FIG. 9 is used, the coordinate conversion equations between the coordinate values (x, y) and the coordinate values (u, v) are shown in equations (8) and (10) in FIG. like,
x = h11.u + h12.v + h13-h31.x.u-h32.x.v
y = h21 * u + h22 * v + h23-h31 * y * u-h32 * y * v
It becomes.

これら2つの式は、二次元xy座標系上の任意の座標値(x,y)と二次元uv座標系上の任意の座標値(u,v)との関係を示す式であり、図9に示すグローバル座標系上に配置された2つの三次元座標系モデルを前提として導出された式である。このモデルでは、二次元xy座標系は、三次元XYZ座標系上の所定位置に定義された二次元座標系であり、二次元uv座標系は、三次元UVW座標系上の所定位置に定義された二次元座標系である。そして、二次元xy座標は、第1のカメラの撮像面π1上に定義された座標であり、そこには、第1の撮影画像P1が配置されている。また、二次元uv座標は、基準平面R(被写体30上の着目対象面)上に定義された座標であり、そこには、表示対象画像P3が形成されることになる。   These two expressions are expressions showing the relationship between an arbitrary coordinate value (x, y) on the two-dimensional xy coordinate system and an arbitrary coordinate value (u, v) on the two-dimensional uv coordinate system. Is an expression derived on the premise of two three-dimensional coordinate system models arranged on the global coordinate system shown in FIG. In this model, the two-dimensional xy coordinate system is a two-dimensional coordinate system defined at a predetermined position on the three-dimensional XYZ coordinate system, and the two-dimensional uv coordinate system is defined at a predetermined position on the three-dimensional UVW coordinate system. It is a two-dimensional coordinate system. The two-dimensional xy coordinates are coordinates defined on the imaging plane π1 of the first camera, and the first captured image P1 is arranged there. The two-dimensional uv coordinates are coordinates defined on the reference plane R (the target target surface on the subject 30), and the display target image P3 is formed there.

したがって、これら2つの式を用いれば、座標値(u,v)と座標値(x,y)との間の相互変換を行うことができ、二次元xy座標上の第1の撮影画像P1を、二次元uv座標上の表示対象画像P3に変換することができる。ただ、これらの式を座標変換式として用いるためには、8個の係数h11〜h32の値を定める必要がある。§1で述べたとおり、係数値算出部160は、8個の点の座標値を用いて、これら8個の係数値を算出する処理を行う。   Therefore, if these two expressions are used, mutual conversion between the coordinate values (u, v) and the coordinate values (x, y) can be performed, and the first captured image P1 on the two-dimensional xy coordinates can be obtained. , It can be converted into a display target image P3 on the two-dimensional uv coordinates. However, in order to use these equations as coordinate transformation equations, it is necessary to determine the values of the eight coefficients h11 to h32. As described in §1, the coefficient value calculation unit 160 performs a process of calculating these eight coefficient values using the coordinate values of the eight points.

図12は、この算出処理に利用される8個の点を示す平面図である。図12(a) は、第1の二次元xy平面上に配置された4つの第1対応点S11〜S14を示す図である。ここでは、これらの各対応点が、xy座標系において、それぞれS11(x1,y1),S12(x2,y2),S13(x3,y3),S14(x4,y4)なる座標で示される点であるものとしよう。これら4つの第1対応点S11〜S14は、第1対応点抽出部130によって抽出され、その座標値が求められている。   FIG. 12 is a plan view showing eight points used for this calculation process. FIG. 12A is a diagram showing four first corresponding points S11 to S14 arranged on the first two-dimensional xy plane. Here, these corresponding points are points indicated by coordinates of S11 (x1, y1), S12 (x2, y2), S13 (x3, y3), S14 (x4, y4), respectively, in the xy coordinate system. Let's have it. These four first corresponding points S11 to S14 are extracted by the first corresponding point extracting unit 130, and the coordinate values thereof are obtained.

一方、図12(b) は、二次元uv平面上に配置された4つの基準点S31〜S34を示す図である。ここでは、これらの各基準点が、uv座標系において、それぞれS31(u1,v1),S32(u2,v2),S33(u3,v3),S34(u4,v4)なる座標で示される点であるものとしよう。これら4つの基準点S31〜S34の座標値は、基準点座標算出部150によって算出されている。   On the other hand, FIG. 12B is a diagram showing four reference points S31 to S34 arranged on the two-dimensional uv plane. Here, these reference points are points indicated by coordinates S31 (u1, v1), S32 (u2, v2), S33 (u3, v3), S34 (u4, v4), respectively, in the uv coordinate system. Let's have it. The coordinate values of these four reference points S31 to S34 are calculated by the reference point coordinate calculation unit 150.

しかも、対応点S11(x1,y1)は基準点S31(u1,v1)に対応する点であり、対応点S12(x2,y2)は基準点S32(u2,v2)に対応する点であり、対応点S13(x3,y3)は基準点S33(u3,v3)に対応する点であり、対応点S14(x4,y4)は基準点S34(u4,v4)に対応する点である。したがって、これら対応関係にある座標値(x,y)および座標値(u,v)の組み合わせは、図11に示す式(8)および式(10)を満足する。そこで、上記4通りの組み合わせを式(8)および式(10)に代入すれば、合計8本の連立方程式が得られる。   Moreover, the corresponding point S11 (x1, y1) is a point corresponding to the reference point S31 (u1, v1), and the corresponding point S12 (x2, y2) is a point corresponding to the reference point S32 (u2, v2). Corresponding point S13 (x3, y3) is a point corresponding to reference point S33 (u3, v3), and corresponding point S14 (x4, y4) is a point corresponding to reference point S34 (u4, v4). Therefore, the combination of the coordinate values (x, y) and the coordinate values (u, v) in the correspondence relationship satisfies the equations (8) and (10) shown in FIG. Therefore, if the above four combinations are substituted into the equations (8) and (10), a total of eight simultaneous equations can be obtained.

図13は、この8本の連立方程式を行列式の形で示した図である。たとえば、左側の8行8列の行列式の第1行目の各項は、図11の式(8)に、x=x1,u=u1,v=v1を代入することにより得られる項であり、第2行目の各項は、図11の式(10)に、y=y1,u=u1,v=v1を代入することにより得られる項である。すなわち、この行列式の第1行目および第2行目の各項は、対応点S11(x1,y1)と基準点S31(u1,v1)との対応関係を示す項になる。同様に、第3行目および第4行目の各項は、対応点S12(x2,y2)と基準点S32(u2,v2)との対応関係を示す項であり、第5行目および第6行目の各項は、対応点S13(x3,y3)と基準点S33(u3,v3)との対応関係を示す項であり、第7行目および第8行目の各項は、対応点S14(x4,y4)と基準点S34(u4,v4)との対応関係を示す項である。   FIG. 13 is a diagram showing these eight simultaneous equations in the form of determinants. For example, each term in the first row of the determinant of 8 rows and 8 columns on the left is a term obtained by substituting x = x1, u = u1, v = v1 into equation (8) in FIG. Yes, each term in the second row is a term obtained by substituting y = y1, u = u1, v = v1 into equation (10) in FIG. That is, each term in the first and second rows of this determinant is a term indicating the correspondence between the corresponding point S11 (x1, y1) and the reference point S31 (u1, v1). Similarly, each term in the third row and the fourth row is a term indicating a correspondence relationship between the corresponding point S12 (x2, y2) and the reference point S32 (u2, v2). Each term in the sixth row is a term indicating a correspondence relationship between the corresponding point S13 (x3, y3) and the reference point S33 (u3, v3), and each term in the seventh and eighth rows is a corresponding item. This is a term indicating the correspondence between the point S14 (x4, y4) and the reference point S34 (u4, v4).

この図13の行列式で示される8本の連立方程式において、各座標値は既知数になるので、未知数は8個の係数h11〜h32の8個になる。したがって、この8本の連立方程式を解く演算を実行すれば、8個の係数h11〜h32の値を算出することができる。係数値算出部160は、このような演算によって、係数値h11〜h32を算出することになる。   In the eight simultaneous equations shown by the determinant in FIG. 13, each coordinate value is a known number, so the unknown number is eight of eight coefficients h11 to h32. Therefore, if the operation for solving these eight simultaneous equations is executed, the values of the eight coefficients h11 to h32 can be calculated. The coefficient value calculation unit 160 calculates the coefficient values h11 to h32 by such calculation.

要するに、係数値算出部160は、二次元uv座標系と二次元xy座標系との間のスケーリングファクターを任意に設定することにより、座標値(u,v)と座標値(x,y)との関係を定める座標変換式として、図10の式(5),式(6)に示すように、
x=(h11・u+h12・v+h13)/(h31・u+h32・v+1)
y=(h21・u+h22・v+h23)/(h31・u+h32・v+1)
なる式を定義し、この2本の式に、4つの基準点についての二次元uv座標系の座標値(u,v)と4つの第1対応点の二次元xy座標系の座標値(x,y)とをそれぞれ代入して得られる8本の連立方程式を用いて、8個の係数h11,h12,h13,h21,h22,h23,h31,h32を算出することになる。
In short, the coefficient value calculation unit 160 arbitrarily sets a scaling factor between the two-dimensional uv coordinate system and the two-dimensional xy coordinate system, so that the coordinate value (u, v), the coordinate value (x, y), and As a coordinate transformation formula that defines the relationship, as shown in formula (5) and formula (6) in FIG.
x = (h11 · u + h12 · v + h13) / (h31 · u + h32 · v + 1)
y = (h21 · u + h22 · v + h23) / (h31 · u + h32 · v + 1)
The two formulas are defined, and the two formulas are coordinate values (u, v) of the two-dimensional uv coordinate system for the four reference points and the coordinate values (x of the two-dimensional xy coordinate system of the four first corresponding points) , Y) are used to calculate eight coefficients h11, h12, h13, h21, h22, h23, h31, h32 using eight simultaneous equations obtained by substituting respectively.

以上の説明は、図6に示す3つの二次元座標系において、第1の二次元xy座標系上の座標値(x,y)と二次元uv座標系上の座標値(u,v)との間の座標変換式の係数を、4つの第1対応点S11〜S14の座標値と4つの基準点S31〜S34の座標値とに基づいて算出する方法についてのものであり、この方法で算出された座標変換式「(u,v)=f(x,y)」を用いると、第1の撮影画像P1を表示対象画像P3に変換することが可能になる。   In the above description, in the three two-dimensional coordinate systems shown in FIG. 6, the coordinate values (x, y) on the first two-dimensional xy coordinate system, the coordinate values (u, v) on the two-dimensional uv coordinate system, Is calculated based on the coordinate values of the four first corresponding points S11 to S14 and the coordinate values of the four reference points S31 to S34, and is calculated by this method. If the coordinate conversion formula “(u, v) = f (x, y)” is used, the first captured image P1 can be converted into the display target image P3.

一方、全く同様の方法により、第2の二次元xy座標系上の座標値(x,y)と二次元uv座標系上の座標値(u,v)との間の座標変換式の係数を、4つの第2対応点S21〜S24の座標値と4つの基準点S31〜S34の座標値とに基づいて算出することも可能であり、この方法で算出された座標変換式「(u,v)=g(x,y)」を用いると、第2の撮影画像P2を表示対象画像P3に変換することが可能になる。   On the other hand, the coefficient of the coordinate conversion equation between the coordinate value (x, y) on the second two-dimensional xy coordinate system and the coordinate value (u, v) on the two-dimensional uv coordinate system is calculated in exactly the same manner. It is also possible to calculate based on the coordinate values of the four second corresponding points S21 to S24 and the coordinate values of the four reference points S31 to S34, and the coordinate conversion formula “(u, v ) = G (x, y) ”, the second captured image P2 can be converted into the display target image P3.

実用上は、係数値算出部160によって、上記2通りの方法を実行し、§3で述べるように、座標変換式「(u,v)=f(x,y)」を用いた第1の撮影画像P1から表示対象画像P3への変換と、座標変換式「(u,v)=g(x,y)」を用いた第2の撮影画像P2から表示対象画像P3への変換と、の双方を行うことができるようにするのが好ましい。   Practically, the coefficient value calculation unit 160 executes the above two methods, and uses the coordinate conversion formula “(u, v) = f (x, y)” as described in §3. Conversion from the captured image P1 to the display target image P3 and conversion from the second captured image P2 to the display target image P3 using the coordinate conversion formula “(u, v) = g (x, y)” It is preferable to be able to do both.

<<< §3.画像変換部における具体的な処理 >>>
ここでは、図1に示す装置における画像変換部170が行う具体的な処理を説明する。§1で述べたとおり、この画像変換部170は、図14に式(12)として示すように、係数値算出部160によって算出された係数値によって規定される座標変換式「(u,v)=f(x,y)」もしくは「(u,v)=g(x,y)」を用いて、撮影画像格納部120に格納されている第1の撮影画像P1もしくは第2の撮影画像P2を、表示対象画像P3に変換する処理を行う。図15は、この変換処理を示す平面図である。
<<< §3. Specific processing in the image conversion unit >>>
Here, specific processing performed by the image conversion unit 170 in the apparatus illustrated in FIG. 1 will be described. As described in §1, the image conversion unit 170, as shown as the equation (12) in FIG. 14, is a coordinate conversion formula “(u, v) defined by the coefficient value calculated by the coefficient value calculation unit 160. = F (x, y) "or" (u, v) = g (x, y) "using the first captured image P1 or the second captured image P2 stored in the captured image storage unit 120. Is converted into the display target image P3. FIG. 15 is a plan view showing this conversion process.

図示のとおり、第1の撮影画像P1は、第1のカメラの撮像面π1上に定義された第1の二次元xy座標系上に配置され、座標変換式「(u,v)=f(x,y)」によって、二次元uv座標系上(基準平面R上)に配置された表示対象画像P3に変換することができる。同様に、第2の撮影画像P2は、第2のカメラの撮像面π2上に定義された第2の二次元xy座標系上に配置され、座標変換式「(u,v)=g(x,y)」によって、二次元uv座標系上(基準平面R上)に配置された表示対象画像P3に変換することができる。これは、上記座標変換式によって、二次元xy座標系上の任意の点p(x,y)を、二次元uv座標系上の点q(u,v)に変換することができるためである。   As illustrated, the first captured image P1 is arranged on the first two-dimensional xy coordinate system defined on the imaging plane π1 of the first camera, and the coordinate conversion formula “(u, v) = f ( x, y) "can be converted into a display target image P3 arranged on the two-dimensional uv coordinate system (on the reference plane R). Similarly, the second captured image P2 is arranged on the second two-dimensional xy coordinate system defined on the imaging plane π2 of the second camera, and the coordinate conversion formula “(u, v) = g (x , Y) ”can be converted into the display target image P3 arranged on the two-dimensional uv coordinate system (on the reference plane R). This is because an arbitrary point p (x, y) on the two-dimensional xy coordinate system can be converted to a point q (u, v) on the two-dimensional uv coordinate system by the coordinate conversion formula. .

ただ、撮影画像P1,P2も、表示対象画像P3も、所定ピッチで画素を配置した画素配列によって構成されているため、実際には、撮影画像P1,P2上の任意の1画素を、表示対象画像P3上の1つの画素に必ずしも正確に対応させることはできない。そこで実用上は、まず、二次元uv座標系上に所望のピッチで画素配列(表示対象画像P3を構成するための画素配列)を定義し、当該画素配列を構成する個々の画素の画素値を、二次元xy座標系上の撮影画像P1もしくはP2の画素値を参照することにより決定する方法を採る。   However, since both the captured images P1 and P2 and the display target image P3 are configured by a pixel array in which pixels are arranged at a predetermined pitch, in practice, any one pixel on the captured images P1 and P2 is displayed on the display target. It is not always possible to accurately correspond to one pixel on the image P3. Therefore, in practice, first, a pixel array (pixel array for configuring the display target image P3) is defined on the two-dimensional uv coordinate system at a desired pitch, and pixel values of individual pixels configuring the pixel array are determined. Then, a method of determining by referring to the pixel value of the captured image P1 or P2 on the two-dimensional xy coordinate system is adopted.

すなわち、画像変換部170は、二次元xy座標系上の変換対象画像(撮影画像P1もしくはP2)を二次元uv座標系上の表示対象画像P3に変換する際に、座標値(u,v)を引数として座標値(x,y)を求める座標変換式を用い、変換対象画像上の座標値(x,y)で示される位置の近傍に存在する複数の画素の画素値を用いた補間演算によって求められる補間値を、座標値(u,v)で示される位置に配置された画素の画素値とする処理を行えばよい。   That is, when the image conversion unit 170 converts the conversion target image (captured image P1 or P2) on the two-dimensional xy coordinate system into the display target image P3 on the two-dimensional uv coordinate system, the coordinate value (u, v). Interpolation calculation using the pixel values of a plurality of pixels existing in the vicinity of the position indicated by the coordinate value (x, y) on the image to be converted using a coordinate conversion formula for obtaining the coordinate value (x, y) using as a parameter The interpolation value obtained by (1) may be processed to be the pixel value of the pixel arranged at the position indicated by the coordinate value (u, v).

このように、所定の座標値(x,y)の近傍に存在する複数の画素の画素値を読み出し、これらの画素値についての補間値を求める補間演算を行う方法としては、たとえば、バイリニア補間法、バイキュービック・スプライン補間法など、様々な方法が公知であるため、ここでは詳しい説明は省略する。もちろん、そのような補間を行わずに、座標値(x,y)で示される位置に最も近い画素の画素値をそのまま用いる方法を採ることも可能である。   In this way, as a method of performing the interpolation calculation for reading out the pixel values of a plurality of pixels existing in the vicinity of the predetermined coordinate value (x, y) and obtaining the interpolation values for these pixel values, for example, the bilinear interpolation method Since various methods such as bicubic spline interpolation are known, detailed description thereof is omitted here. Of course, it is also possible to adopt a method in which the pixel value of the pixel closest to the position indicated by the coordinate value (x, y) is used as it is without performing such interpolation.

結局、実際には、画像変換部170が行う画像変換処理には、座標値(u,v)を引数として座標値(x,y)を求める形式の座標変換式が用いられることになるので、「(u,v)=f(x,y)」もしくは「(u,v)=g(x,y)」なる形式の代わりに、関数f,gの逆関数f−1,g−1を用いた「(x,y)=f−1(u,v)」もしくは「(x,y)=g−1(u,v)」なる形式の座標演算式が用いられることになる。図11の式(8),式(10)によって示される座標変換式は、このような形式の式になっている。 After all, in practice, the image conversion processing performed by the image conversion unit 170 uses a coordinate conversion formula in the form of obtaining the coordinate value (x, y) using the coordinate value (u, v) as an argument. Instead of the form of “(u, v) = f (x, y)” or “(u, v) = g (x, y)”, inverse functions f −1 and g −1 of the functions f and g are changed. The coordinate arithmetic expression in the form of “(x, y) = f −1 (u, v)” or “(x, y) = g −1 (u, v)” is used. The coordinate conversion formulas shown by the formulas (8) and (10) in FIG. 11 are in this format.

さて、図15に示すように、表示対象画像P3は、第1の撮影画像P1を座標変換式「(u,v)=f(x,y)」によって変換することによって得ることもできるし、第2の撮影画像P2を座標変換式「(u,v)=g(x,y)」によって変換することによって得ることもできる。そして、幾何学的には、いずれの変換方法を採った場合でも、得られる表示対象画像P3に違いはない。したがって、理論的には、画像変換部170は、第1の撮影画像P1および第2の撮影画像P2の一方を変換対象画像として選択し、この変換対象画像について、上記座標変換式を用いた変換処理を施し、表示対象画像P3を得る処理を行えばよい。   As shown in FIG. 15, the display target image P3 can be obtained by converting the first captured image P1 by the coordinate conversion formula “(u, v) = f (x, y)”. It can also be obtained by converting the second captured image P2 by the coordinate conversion formula “(u, v) = g (x, y)”. Geometrically, there is no difference in the display target image P3 obtained regardless of which conversion method is employed. Therefore, theoretically, the image conversion unit 170 selects one of the first captured image P1 and the second captured image P2 as a conversion target image, and the conversion target image is converted using the coordinate conversion formula. Processing may be performed to obtain the display target image P3.

しかしながら、実用上は、各撮影画像P1,P2には、物理的な制約に基づく解像度が存在し、これらの画像には、有限個の画素の情報しか含まれていない。このため、実際には、両撮影画像P1,P2に基づく変換結果は正確には一致しない。したがって、実用上は、第1の撮影画像P1および第2の撮影画像P2の双方を変換対象画像として選択し、この双方の変換対象画像について、上記座標変換式を用いた変換処理を施し、表示対象画像P3を得る処理を行うのが好ましい。   However, in practice, each of the captured images P1 and P2 has a resolution based on physical constraints, and these images contain only information on a finite number of pixels. For this reason, actually, the conversion results based on both the captured images P1 and P2 do not exactly match. Therefore, practically, both the first photographed image P1 and the second photographed image P2 are selected as the conversion target images, and the conversion processing using the coordinate conversion formula is performed on both the conversion target images, and the display is performed. It is preferable to perform processing for obtaining the target image P3.

そのためには、まず、係数値算出部160により、第1の撮影画像P1および第2の撮影画像P2の双方を変換対象画像として選択し、これら変換対象画像上にそれぞれ第1および第2の二次元xy座標系を定義し、二次元uv座標系上の任意の座標値(u,v)と、当該座標値で示される点に対応する第1および第2の二次元xy座標系上の点の座標値(x,y)と、の関係を定める座標変換式fおよびgの係数値を、4つの基準点S31〜S34の座標値と、4つの第1対応点S11〜S14および4つの第2対応点S21〜S24の座標値との対応関係を用いて算出するようにする。   For this purpose, first, the coefficient value calculation unit 160 selects both the first captured image P1 and the second captured image P2 as conversion target images, and the first and second two images are respectively displayed on the conversion target images. A dimension xy coordinate system is defined, an arbitrary coordinate value (u, v) on the two-dimensional uv coordinate system, and a point on the first and second two-dimensional xy coordinate systems corresponding to the point indicated by the coordinate value The coordinate values of the coordinate transformation equations f and g that define the relationship between the coordinate values (x, y) of the two, the coordinate values of the four reference points S31 to S34, the four first corresponding points S11 to S14, and the four first values. The calculation is performed using the correspondence with the coordinate values of the two corresponding points S21 to S24.

そして、画像変換部170が、図16に示すように、係数値算出部160によって算出された係数値によって規定される第1の座標変換式(関数f)を用いて、図の左下に示す第1の二次元xy座標系上の第1の撮影画像P1を、その上方に示す二次元uv座標系上の第1の準備画像Paに変換するとともに、係数値算出部160によって算出された係数値によって規定される第2の座標変換式(関数g)を用いて、図の右下に示す第2の二次元xy座標系上の第2の撮影画像P2を、その上方に示す二次元uv座標系上の第2の準備画像Pbに変換し、最後に、第1の準備画像Paと第2の準備画像Pbとを合成することにより、図の上方に示す表示対象画像P3を生成する処理を行うようにすればよい。   Then, as shown in FIG. 16, the image conversion unit 170 uses the first coordinate conversion formula (function f) defined by the coefficient value calculated by the coefficient value calculation unit 160, and the first The first captured image P1 on the one two-dimensional xy coordinate system is converted into the first preparation image Pa on the two-dimensional uv coordinate system shown above, and the coefficient value calculated by the coefficient value calculation unit 160 The second photographed image P2 on the second two-dimensional xy coordinate system shown at the lower right of the figure is converted into the two-dimensional uv coordinate shown above using the second coordinate conversion formula (function g) defined by A process of generating the display target image P3 shown in the upper part of the figure by converting the second preparation image Pb on the system and finally combining the first preparation image Pa and the second preparation image Pb. You just have to do it.

なお、前述したように、実際には、第1の撮影画像P1から第1の準備画像Paへの変換処理は、第1の準備画像Paを構成する画素配列上の座標値(u,v)に配置された画素q1(u,v)について、座標値(u,v)を引数として座標値(x,y)を求める形式の座標変換式「(x,y)=f−1(u,v)」を用いた演算によって対応する座標値(x,y)を求め、当該座標値p(x,y)で示される位置の近傍に存在する複数の画素の画素値を用いた補間演算によって求められる補間値を、画素q1(u,v)の画素値とする処理を行うことになる。 As described above, actually, the conversion process from the first captured image P1 to the first preparation image Pa is performed by using coordinate values (u, v) on the pixel array constituting the first preparation image Pa. The coordinate conversion formula “(x, y) = f −1 (u, v) for the pixel q1 (u, v) arranged at the position where the coordinate value (u, v) is used as an argument. v) ”to obtain the corresponding coordinate value (x, y), and an interpolation operation using pixel values of a plurality of pixels existing in the vicinity of the position indicated by the coordinate value p (x, y). A process of setting the obtained interpolation value as the pixel value of the pixel q1 (u, v) is performed.

同様に、第2の撮影画像P2から第2の準備画像Pbへの変換処理は、第2の準備画像Pbを構成する画素配列上の座標値(u,v)に配置された画素q2(u,v)について、座標値(u,v)を引数として座標値(x,y)を求める形式の座標変換式「(x,y)=g−1(u,v)」を用いた演算によって対応する座標値(x,y)を求め、当該座標値p(x,y)で示される位置の近傍に存在する複数の画素の画素値を用いた補間演算によって求められる補間値を、画素q2(u,v)の画素値とする処理を行うことになる。 Similarly, in the conversion process from the second captured image P2 to the second preparation image Pb, the pixel q2 (u) arranged at the coordinate value (u, v) on the pixel array constituting the second preparation image Pb. , V) by an operation using a coordinate conversion expression “(x, y) = g −1 (u, v)” in a format for obtaining the coordinate value (x, y) using the coordinate value (u, v) as an argument. A corresponding coordinate value (x, y) is obtained, and an interpolation value obtained by an interpolation operation using pixel values of a plurality of pixels existing in the vicinity of the position indicated by the coordinate value p (x, y) is obtained as a pixel q2. Processing is performed to obtain a pixel value of (u, v).

こうして、第1の準備画像Paと第2の準備画像Pbとが得られたら、両画像を合成することにより、図の上方に示す表示対象画像P3を生成する処理を行うようにすればよい。両画像の合成方法は、両画像の特徴を融合させるような方法であれば、どのような方法を採ってもかまわないが、一般的には、αブレンドと呼ばれている方法を採ればよい。   In this way, when the first preparation image Pa and the second preparation image Pb are obtained, a process for generating the display target image P3 shown in the upper part of the figure may be performed by combining the two images. Any method may be used for synthesizing both images as long as the features of both images are fused. Generally, a method called α blending may be used. .

具体的には、図16に示すように、第1の準備画像Pa上の座標値(u,v)で示される位置の任意の画素q1(u,v)の画素値をI1(u,v)、第2の準備画像Pb上の同じ座標値(u,v)で示される位置の画素q2(u,v)の画素値をI2(u,v)、表示対象画像P3上の同じ座標値(u,v)で示される位置の画素q(u,v)の画素値をI(u,v)としたときに、所定の重み係数α(0≦α≦1)を用いて、図16に式(13)として示すように、
I(u,v)=(1−α)・I1(u,v)+α・I2(u,v)
なる合成演算を行い、画素q(u,v)の画素値I(u,v)を決定するようにすればよい。
Specifically, as shown in FIG. 16, the pixel value of an arbitrary pixel q1 (u, v) at the position indicated by the coordinate value (u, v) on the first preparation image Pa is set to I1 (u, v ), The pixel value of the pixel q2 (u, v) at the position indicated by the same coordinate value (u, v) on the second preparation image Pb is set to I2 (u, v), and the same coordinate value on the display target image P3. When the pixel value of the pixel q (u, v) at the position indicated by (u, v) is I (u, v), a predetermined weight coefficient α (0 ≦ α ≦ 1) is used, and FIG. As shown in equation (13),
I (u, v) = (1−α) · I1 (u, v) + α · I2 (u, v)
And the pixel value I (u, v) of the pixel q (u, v) may be determined.

ここで、重み係数αは、画像合成を行う上で、第1の準備画像Paと第2の準備画像Pbとのいずれを重視するかを定めるパラメータであり、0≦α≦1の範囲の値となる。重み係数αが小さければ小さいほど、第1の準備画像Paを重視した合成が行われ、大きければ大きいほど、第2の準備画像Pbを重視した合成が行われる。α=0に設定すると、表示対象画像P3は第1の準備画像Paに等しくなり、α=1に設定すると、表示対象画像P3は第2の準備画像Pbに等しくなる。α=0.5に設定しておけば、両画像の平均画像が表示対象画像P3として得られる。   Here, the weighting factor α is a parameter that determines which of the first preparation image Pa and the second preparation image Pb is important in image synthesis, and is a value in the range of 0 ≦ α ≦ 1. It becomes. The smaller the weight coefficient α is, the more the composition is made with emphasis on the first preparation image Pa, and the larger the composition is, the emphasis is on the second preparation image Pb. When α = 0 is set, the display target image P3 is equal to the first preparation image Pa, and when α = 1 is set, the display target image P3 is equal to the second preparation image Pb. If α is set to 0.5, an average image of both images is obtained as the display target image P3.

重み係数αの値は、たとえば、常にα=0.5にする、というように固定しておいてもよいが、より好ましくは、表示対象画像P3が得られるuv座標平面と各カメラの撮像面(被写体の投影面)との位置関係に基づいて、その都度、最適値を定めるようにするのが好ましい。   The value of the weighting factor α may be fixed such that α is always set to 0.5, for example, but more preferably, the uv coordinate plane from which the display target image P3 is obtained and the imaging surface of each camera It is preferable to determine the optimum value each time based on the positional relationship with the (projection plane of the subject).

たとえば、図1の上部に示す例の場合、被写体30の着目対象となるナンバープレートを、左斜め45°および右斜め45°程度の角度から2台のカメラ10,20で撮影しているため、図2(a) ,(b) に示すように、ほぼ対称となる撮影画像P1,P2が得られている。このような場合は、α=0.5に設定し、両画像の重みを等しく設定すればよい。ところが、図1の上部に示す例において、被写体30の向きがやや左向きであったとすると、第1の撮影画像P1は、車両の正面に近い方向から撮影した画像となり、第2の撮影画像P2は、車両の側面に近い方向から撮影した画像となるので、着目対象となるナンバープレートの解像度に関しては、撮影画像P1の方が撮影画像P2よりも高くなる。このような場合は、α<0.5に設定し、撮影画像P1をより重視した合成を行うようにするのが好ましい。   For example, in the case of the example shown in the upper part of FIG. 1, the license plate that is the subject of interest of the subject 30 is taken by the two cameras 10 and 20 from an angle of about 45 ° to the left and 45 ° to the right. As shown in FIGS. 2A and 2B, captured images P1 and P2 that are substantially symmetrical are obtained. In such a case, α = 0.5 may be set and the weights of both images may be set equal. However, in the example shown in the upper part of FIG. 1, if the direction of the subject 30 is slightly leftward, the first captured image P1 is an image captured from a direction close to the front of the vehicle, and the second captured image P2 is Since the image is taken from a direction close to the side surface of the vehicle, the taken image P1 is higher than the taken image P2 with respect to the resolution of the license plate to be focused. In such a case, it is preferable to set α <0.5 so as to perform composition with more importance on the captured image P1.

図17は、重み係数αの値を設定する具体的な方法の一例を示す上面図である。ここで、点Q1,Q2は、2台のカメラの撮影点であり、投影面π1,π2は、これら2台のカメラの撮像面である。第1の撮影画像P1は投影面π1上に形成され、第2の撮影画像P2は投影面π2上に形成される。一方、uv平面は、被写体30上の基準平面R上に定義された座標平面であり、表示対象画像P3が形成される平面である。   FIG. 17 is a top view showing an example of a specific method for setting the value of the weighting factor α. Here, the points Q1 and Q2 are photographing points of the two cameras, and the projection planes π1 and π2 are imaging surfaces of the two cameras. The first captured image P1 is formed on the projection plane π1, and the second captured image P2 is formed on the projection plane π2. On the other hand, the uv plane is a coordinate plane defined on the reference plane R on the subject 30, and is a plane on which the display target image P3 is formed.

ここで、このuv平面上に所定の代表点K(たとえば、第1の準備画像Paもしくは第2の準備画像Pbの中心点)を定義することとし、図示のとおり、代表点Kと第1のカメラ10を設置した撮影点Q1とを結ぶ直線L1とuv平面とのなす鋭角θ1と、代表点Kと第2のカメラ20を設置した撮影点Q2とを結ぶ直線L2とuv平面とのなす鋭角θ2とを求める。そうすると、角θ1,θ2は、それぞれ各カメラ10,20の代表点Kを撮影する向きを示すパラメータとなり、角度が大きいほど、カメラは代表点Kの正面に配置されていることになる。したがって、角θ1,θ2を比較し、角度がより大きいカメラ(より正面に近い配置がなされているカメラ)による撮影画像をより重視した合成を行えば、より好ましい結果が得られると考えられる。   Here, a predetermined representative point K (for example, the center point of the first preparation image Pa or the second preparation image Pb) is defined on the uv plane, and as shown in the figure, the representative point K and the first point K are defined. The acute angle θ1 formed between the straight line L1 connecting the shooting point Q1 where the camera 10 is installed and the uv plane, and the acute angle formed between the straight line L2 connecting the representative point K and the shooting point Q2 where the second camera 20 is installed and the uv plane. θ2 is obtained. Then, the angles θ1 and θ2 are parameters indicating the direction in which the representative points K of the respective cameras 10 and 20 are photographed, and the larger the angle, the more the camera is disposed in front of the representative points K. Therefore, it is considered that a more preferable result can be obtained if the angles θ1 and θ2 are compared, and composition is performed with more emphasis on the image captured by a camera having a larger angle (a camera arranged closer to the front).

そこで、撮影点Q1,Q2,代表点K,uv平面の三次元空間上での座標位置に基づいて角θ1,θ2を算出し、重み係数αを、θ1>θ2であればα<0.5に設定し、両角度の差が大きければ大きいほど、αが小さくなるように設定し、θ1<θ2であればα>0.5に設定し、両角度の差が大きければ大きいほど、αが大きくなるように設定し、θ1=θ2であればα=0.5に設定するようにすればよい。具体的には、たとえば、図17の下段に示すように、α=(θ2−θ1)/π+1/2なる演算式により重み係数αを設定すればよい。この演算式によれば、θ1=90°、θ2=0°という極端な場合には、α=0となり、θ1=0°、θ2=90°という極端な場合には、α=1となる。   Therefore, the angles θ1 and θ2 are calculated based on the coordinate positions in the three-dimensional space of the photographing points Q1, Q2, the representative points K, and the uv plane, and if the weighting coefficient α is θ1> θ2, α <0.5. Α is set to be smaller as the difference between the two angles is larger, α is set to 0.5 when θ1 <θ2, and α is larger as the difference between the two angles is larger. It may be set so as to increase, and if θ1 = θ2, α = 0.5 may be set. Specifically, for example, as shown in the lower part of FIG. 17, the weighting factor α may be set by an arithmetic expression of α = (θ2−θ1) / π + 1/2. According to this arithmetic expression, α = 0 in the extreme case of θ1 = 90 ° and θ2 = 0 °, and α = 1 in the extreme case of θ1 = 0 ° and θ2 = 90 °.

なお、図示の便宜上、図17では、各要素の配置を二次元の平面図として示しているが、実際には、各要素は三次元空間に配置されており、角θ1,θ2は、この三次元空間上における直線と平面とのなす角として与えられる。   For convenience of illustration, FIG. 17 shows the arrangement of each element as a two-dimensional plan view. However, in actuality, each element is arranged in a three-dimensional space, and the angles θ1 and θ2 are represented by this cubic. It is given as the angle between a straight line and a plane in the original space.

このように、代表点Kに対するカメラの向きによって重み係数αを設定する方法では、表示対象画像P3を構成するすべての画素の画素値を求める合成演算に、同一の重み係数αの値を用いることになるが、その代わりに、個々の画素ごとに、用いる重み係数αの値を変えるようにしてもかまわない。   As described above, in the method of setting the weighting factor α according to the orientation of the camera with respect to the representative point K, the same value of the weighting factor α is used for the synthesis operation for obtaining the pixel values of all the pixels constituting the display target image P3. However, instead, the value of the weight coefficient α to be used may be changed for each individual pixel.

たとえば、図17に示す例の場合、代表点Kに基づいて共通の重み係数αの値を決定すると、uv平面上の点ξ10に配置された画素についても、点ξ20に配置された画素についても、共通したαを用いた合成演算が行われることになる。ところが、図示のとおり、配置点ξ10に関しては、2点Q1,ξ10を結ぶ直線とuv平面とのなす鋭角θ1と、2点Q2,ξ10を結ぶ直線とuv平面とのなす鋭角θ2とを比較すると、θ1>θ2であるから、投影面π1上の投影点ξ11に配置された画素の画素値と、投影面π2上の投影点ξ12に配置された画素の画素値と、に基づいて、点ξ10上に配置された画素の画素値を決定する際には、前者をより重視した合成を行うべきである。   For example, in the example shown in FIG. 17, when the value of the common weighting coefficient α is determined based on the representative point K, both the pixel arranged at the point ξ10 on the uv plane and the pixel arranged at the point ξ20 Thus, a composite operation using a common α is performed. However, as shown in the figure, with respect to the arrangement point ξ10, the acute angle θ1 formed by the straight line connecting the two points Q1 and ξ10 and the uv plane is compared with the acute angle θ2 formed by the straight line connecting the two points Q2 and ξ10 and the uv plane. , Θ1> θ2, and therefore, based on the pixel value of the pixel arranged at the projection point ξ11 on the projection plane π1 and the pixel value of the pixel arranged at the projection point ξ12 on the projection plane π2, the point ξ10 When determining the pixel values of the pixels arranged on the top, the former should be combined with greater importance.

これに対して、配置点ξ20に関しては、2点Q1,ξ20を結ぶ直線とuv平面とのなす鋭角θ1と、2点Q2,ξ20を結ぶ直線とuv平面とのなす鋭角θ2とを比較すると、θ1<θ2であるから、投影面π1上の投影点ξ21に配置された画素の画素値と、投影面π2上の投影点ξ22に配置された画素の画素値と、に基づいて、点ξ20上に配置された画素の画素値を決定する際には、後者をより重視した合成を行うべきである。   On the other hand, regarding the arrangement point ξ20, when comparing the acute angle θ1 formed by the straight line connecting the two points Q1 and ξ20 and the uv plane with the acute angle θ2 formed by the straight line connecting the two points Q2 and ξ20 and the uv plane, Since θ1 <θ2, on the point ξ20 based on the pixel value of the pixel arranged at the projection point ξ21 on the projection plane π1 and the pixel value of the pixel arranged at the projection point ξ22 on the projection plane π2. When determining the pixel values of the pixels arranged in, the synthesis should be performed with more emphasis on the latter.

そこで、各画素ごとに独立した重み係数αを決定して合成演算を行うのであれば、表示対象画像P3上の座標値(u,v)で示される位置にある着目画素の画素値I(u,v)を決定する際に、当該着目画素の配置点(たとえば、ξ10やξ20)と第1のカメラ10を設置した撮影点Q1とを結ぶ直線とuv平面とのなす鋭角θ1と、当該配置点と第2のカメラ20を設置した撮影点Q2とを結ぶ直線とuv平面とのなす鋭角θ2と、を比べ、画素値I(u,v)を決定する際に用いる重み係数αを、θ1>θ2であればα<0.5に設定し、両角度の差が大きければ大きいほど、αが小さくなるように設定し、θ1<θ2であればα>0.5に設定し、両角度の差が大きければ大きいほど、αが大きくなるように設定し、θ1=θ2であればα=0.5に設定すればよい。この場合にも、具体的には、たとえば、図17の下段に示すように、α=(θ2−θ1)/π+1/2なる演算式により重み係数αを設定すればよい。   Therefore, if an independent weighting factor α is determined for each pixel and the synthesis operation is performed, the pixel value I (u) of the pixel of interest at the position indicated by the coordinate value (u, v) on the display target image P3. , V), the acute angle θ1 formed by the straight line connecting the arrangement point (for example, ξ10 or ξ20) of the pixel of interest and the photographing point Q1 where the first camera 10 is installed, and the uv plane, and the arrangement The straight line connecting the point and the shooting point Q2 where the second camera 20 is installed is compared with the acute angle θ2 formed by the uv plane, and the weighting coefficient α used when determining the pixel value I (u, v) is θ1. If> θ2, α <0.5 is set, and the larger the difference between the two angles, the smaller α is set. If θ1 <θ2, α> 0.5 is set. The larger the difference is, the larger α is set. If θ1 = θ2, α = 0. It may be set to 5. Also in this case, specifically, as shown in the lower part of FIG. 17, for example, the weighting coefficient α may be set by an arithmetic expression of α = (θ2−θ1) / π + 1/2.

ここでは、重み係数αを決定する際に考慮すべき、もうひとつの要素を述べておく。それは、被写体30上の着目対象となる基準平面Rの手前に存在する障害物である。図18は、uv平面の手前に障害物40が存在する例を示す平面図である。表示対象画像P3は、この障害物40の奥に位置する被写体30上の基準平面Rの画像であるから、障害物40の画像は、本来、排除されなければならない。ところが、図示の例の場合、投影面π1上には、この障害物40の投影像が形成されるため、図示する平面図において、投影点ξ31とξ41との間には、本来の被写体ではなく、障害物40の像が得られることになる。これに対して、投影面π2上には、障害物40の投影像は形成されず、図示する平面図において、投影点ξ32とξ42との間には、本来の被写体の像が得られることになる。   Here, another factor to be considered when determining the weighting factor α will be described. It is an obstacle that exists in front of the reference plane R that is the subject of interest on the subject 30. FIG. 18 is a plan view illustrating an example in which an obstacle 40 is present in front of the uv plane. Since the display target image P3 is an image of the reference plane R on the subject 30 located behind the obstacle 40, the image of the obstacle 40 must be originally excluded. However, in the illustrated example, a projection image of the obstacle 40 is formed on the projection plane π1, and therefore, in the plan view illustrated, the original object is not located between the projection points ξ31 and ξ41. Thus, an image of the obstacle 40 is obtained. On the other hand, the projection image of the obstacle 40 is not formed on the projection plane π2, and an original subject image is obtained between the projection points ξ32 and ξ42 in the plan view shown in the drawing. Become.

このような場合、図示する平面図において、uv平面上の配置点ξ30とξ40との間に位置する画素の画素値を決める際には、投影面π1上の第1の撮影画像P1を用いるべきではない。被写体の配置点ξ30とξ40との間に対応する領域は、投影面π1上に得られる第1の撮影画像P1上では障害物40による隠面となっているのに対して、投影面π2上に得られる第2の撮影画像P2上では隠面にはなっていない。したがって、この例では、uv平面上に形成される表示対象画像P3のうち、配置点ξ30とξ40との間に対応する領域に位置する画素の画素値I(u,v)を決定する際には、α=1に設定し、第2の撮影画像P2のみを考慮するようにすればよい。   In such a case, in determining the pixel value of the pixel located between the arrangement points ξ30 and ξ40 on the uv plane in the illustrated plan view, the first captured image P1 on the projection plane π1 should be used. is not. The area corresponding to the position between the subject placement points ξ30 and ξ40 is a hidden surface by the obstacle 40 on the first photographed image P1 obtained on the projection surface π1, whereas it is on the projection surface π2. It is not a hidden surface on the second captured image P2 obtained. Therefore, in this example, when the pixel value I (u, v) of the pixel located in the region corresponding to the arrangement point ξ30 and ξ40 in the display target image P3 formed on the uv plane is determined. Is set to α = 1 and only the second photographed image P2 may be considered.

図19は、図18に示す合成方法による合成対象となる2つの撮影画像を示す平面図である。図19(a) は、第1の撮影画像P1を示し、図19(b) は、第2の撮影画像P2を示す。いずれの撮影画像にも、本来の被写体30となるナンバープレートと障害物40としての猫が写っているが、第1の撮影画像P1では、被写体30の前方に位置する障害物40によって被写体30の一部が隠面となり、当該部分に関する画像情報は欠落してしまっている。これに対して、第2の撮影画像P2では、障害物40によって被写体30は隠れておらず、すべての画像情報が維持されている。   FIG. 19 is a plan view showing two captured images to be combined by the combining method shown in FIG. FIG. 19A shows the first captured image P1, and FIG. 19B shows the second captured image P2. In any of the captured images, the license plate that is the original subject 30 and the cat as the obstacle 40 are shown. However, in the first photographed image P1, the obstacle 30 positioned in front of the subject 30 causes the subject 30 to move. A part is a hidden surface, and image information relating to the part is missing. On the other hand, in the second captured image P2, the subject 30 is not hidden by the obstacle 40, and all image information is maintained.

このような場合、第1の撮影画像P1において隠面となっている領域内に関しては、画素値I(u,v)を決定する際に用いる重み係数αをα=1に設定し、第2の撮影画像P2の情報のみを用いて画素値の決定を行うようにすればよい。   In such a case, for the area that is a hidden surface in the first captured image P1, the weighting coefficient α used when determining the pixel value I (u, v) is set to α = 1, and the second The pixel value may be determined using only the information of the captured image P2.

要するに、画像変換部170は、表示対象画像P3上の座標値(u,v)で示される位置にある着目画素の画素値I(u,v)を決定する際に、当該着目画素が、障害物40により第1の準備画像Pa上でのみ隠面となっている領域内の画素である場合には、画素値I(u,v)を決定する際に用いる重み係数αをα=1に設定し、逆に、障害物40により第2の準備画像Pb上でのみ隠面となっている領域内の画素である場合には、画素値I(u,v)を決定する際に用いる重み係数αをα=0に設定すればよい。   In short, when the image conversion unit 170 determines the pixel value I (u, v) of the pixel of interest at the position indicated by the coordinate value (u, v) on the display target image P3, In the case where the pixel is in a region that is a hidden surface only on the first preparation image Pa due to the object 40, the weighting coefficient α used when determining the pixel value I (u, v) is set to α = 1. On the contrary, when the pixel is in a region hidden by the obstacle 40 only on the second preparation image Pb, the weight used when determining the pixel value I (u, v) The coefficient α may be set to α = 0.

なお、図18において、uv平面上に形成される各準備画像Pa,Pb上で、障害物によって隠面となる領域を認識するためには、三次元空間上において、基準平面の手前に存在する障害物40を認識する必要がある。この障害物40の三次元空間上での位置認識は、第1のカメラ10および第2のカメラ20の設置位置および向きの情報と、第1の撮影画像P1上の二次元画像情報と、第2の撮影画像P2上の二次元画像情報と、に基づいて、被写体30および障害物40の三次元形状モデルを作成すればよい。このような三次元形状モデルの作成方法は、既に述べたとおり、エピポーラ幾何を用いた方法として公知である。   In FIG. 18, in order to recognize a region that is a hidden surface due to an obstacle on each of the prepared images Pa and Pb formed on the uv plane, it exists before the reference plane in the three-dimensional space. It is necessary to recognize the obstacle 40. The position recognition of the obstacle 40 in the three-dimensional space includes information on the installation positions and orientations of the first camera 10 and the second camera 20, two-dimensional image information on the first captured image P1, A three-dimensional shape model of the subject 30 and the obstacle 40 may be created based on the two-dimensional image information on the second captured image P2. Such a method for creating a three-dimensional shape model is known as a method using epipolar geometry, as already described.

以上、画像変換部170における具体的な画像変換処理の方法を、各撮影画像P1,P2がモノクロ画像である場合について説明したが、これらの画像がカラー画像である場合には、同様の処理を個々の原色ごとに行えばよい。たとえば、1つの画素がRGBの三原色の画素値を有している場合、原色Rの画素値、原色Gの画素値,原色Bの画素値のそれぞれについて、上述した処理を行えば、カラーの表示対象画像P3を得ることができる。   The specific image conversion processing method in the image conversion unit 170 has been described above for the case where each of the captured images P1 and P2 is a monochrome image. However, if these images are color images, the same processing is performed. This can be done for each primary color. For example, when one pixel has pixel values of three primary colors of RGB, if the above-described processing is performed for each of the pixel value of the primary color R, the pixel value of the primary color G, and the pixel value of the primary color B, color display The target image P3 can be obtained.

<<< §4.その他の変形例 >>>
最後に、本発明のいくつかの変形例を示しておく。
<<< §4. Other variations >>
Finally, some modifications of the present invention will be described.

<4−1.様々な被写体の認識>
これまで、被写体上の着目対象を車両のナンバープレートとし、このナンバープレートの表面を基準平面Rに設定し、このナンバープレートを構成する四角形の4つの頂点を4つの基準点とする例を述べた。しかしながら、本発明は、このような車両のナンバープレートを着目対象とする場合に限定されるものではなく、何らかの基準平面Rと、当該基準平面R上に位置する4つの基準点を定義できる被写体であれば、どのような被写体についても適用可能である。
<4-1. Recognition of various subjects>
So far, the example in which the subject of interest on the subject is the vehicle license plate, the surface of the license plate is set to the reference plane R, and the four vertices of the quadrangle constituting the license plate are the four reference points has been described. . However, the present invention is not limited to such a case where the license plate of the vehicle is used as a target of attention, but an object that can define any reference plane R and four reference points located on the reference plane R. Any object can be applied.

基準平面Rおよび4つの基準点としての最も典型的な例は、上例のナンバープレートのような四角形とその4頂点である。一般的な車両には、ナンバープレート以外にも、ボディーや窓など、四角形として把握できる構造部が存在するので、これらの構造部を被写体上の着目対象とすれば、本発明により、当該着目対象を正面から観察した状態を示す画像を自動的に表示させることが可能である。車両に限らず、多くの工業製品には、四角形の構造部が含まれているので、本発明は、このような工業製品を被写体とする分野にも広く利用することができる。   The most typical example of the reference plane R and the four reference points is a quadrangle such as the license plate in the above example and its four vertices. In general vehicles, there are structure parts that can be grasped as a quadrangle, such as a body and a window, in addition to a license plate. It is possible to automatically display an image showing a state observed from the front. Since many industrial products, not limited to vehicles, include a rectangular structure, the present invention can be widely used in fields where such industrial products are used as subjects.

既に述べたとおり、四角形の4頂点を4つの基準点として設定した場合、第1対応点抽出部130は、第1の撮影画像P1上の直線部を探索し、探索された直線部によって囲まれた四角形を基準平面と認識し、当該四角形の4頂点を4つの第1対応点として抽出することができる。なお、複数の四角形が認識された場合は、各四角形の縦横比率や面積を認識することにより、着目対象を特定することも可能である。   As described above, when the four vertices of the quadrangle are set as the four reference points, the first corresponding point extracting unit 130 searches for the straight line part on the first captured image P1, and is surrounded by the searched straight line part. The quadrilateral can be recognized as a reference plane, and the four vertices of the quadrilateral can be extracted as the four first corresponding points. When a plurality of rectangles are recognized, it is possible to identify the target object by recognizing the aspect ratio and area of each rectangle.

また、本発明は、人間の顔面を被写体として、顔面を正面から観察した画像を自動的に表示する不審者監視システムなどにも利用することができる。一般に、人間の顔面には、図20に示す例のように、右眼中心点S1、左眼中心点S2、唇の右端点S3、唇の左端点S4という4つの特徴点を定義することができ、人物の二次元撮影画像から、このような4つの特徴点を認識する方法は、既に公知の技術として、デジタルカメラなどの顔面認識処理などで実用化されている。また、人間の顔面は、ほぼ左右対称であることから、上記4つの特徴点は同一平面上に位置する。したがって、上記4つの特徴点を被写体上の4つの基準点と定義し、この4つの基準点を含む平面を基準平面Rと定義すれば、人間の顔面を被写体として、本発明を適用することが可能である。   The present invention can also be used in a suspicious person monitoring system that automatically displays an image obtained by observing a face of a human face from the front. In general, as shown in the example shown in FIG. 20, the human face may define four feature points: a right eye center point S1, a left eye center point S2, a lip right end point S3, and a lip left end point S4. In addition, a method for recognizing four feature points from a two-dimensional photographed image of a person has already been put to practical use in a face recognition process such as a digital camera as a known technique. Further, since the human face is almost symmetrical, the four feature points are located on the same plane. Therefore, if the four feature points are defined as four reference points on the subject, and a plane including the four reference points is defined as a reference plane R, the present invention can be applied to a human face as the subject. Is possible.

この場合、第1対応点抽出部130は、第1の撮影画像P1から、公知の顔面認識技術を利用して人間の顔面を探索し、探索された顔面における右眼中心点S1、左眼中心点S2、唇の右端点S3、唇の左端点S4を含む面を基準平面Rと認識し、これら各点を4つの第1対応点S11〜S14として抽出する処理を行えばよい。三次元空間上において、人間の顔の表面は、基準平面R上に正確にのっているわけではないが、ほぼ基準平面Rに沿った面になるため、この基準平面R上に表示対象画像P3を形成するようにしても、実用的な支障は生じない。   In this case, the first corresponding point extraction unit 130 searches for a human face from the first captured image P1 using a known face recognition technique, and the right eye center point S1 and the left eye center in the searched face. A surface including the point S2, the right end point S3 of the lips, and the left end point S4 of the lips may be recognized as the reference plane R, and each of these points may be extracted as four first corresponding points S11 to S14. In the three-dimensional space, the surface of the human face is not exactly on the reference plane R, but is almost a plane along the reference plane R. Therefore, the display target image is on the reference plane R. Even if P3 is formed, there is no practical problem.

これまで述べた実施形態を、このようにして人間の顔面に適用すれば、右眼中心点S1、左眼中心点S2、唇の右端点S3、唇の左端点S4という4つの特徴点を含む基準平面Rに対して垂直方向から観察した状態の表示対象画像P3を得ることができるので、結局、人物の顔面の正面像を表示させることができる。これは、不審人物の特定などの用途に非常に便利である。一般に、人間の空間内での向き、特に顔面の向きは、車両の向きなどに比べて極めて自由度が高く、カメラによる人物の撮影画像には、様々な方向を向いた顔面が写っている。本発明によれば、人物がどの方向を向いていたとしても、2台のカメラにその顔面が写っていれば、当該人物の正面像が自動的に表示されることになる。したがって、本発明は、不審者監視システムなどへの利用にも適している。   If the embodiment described so far is applied to the human face in this way, it includes four feature points: right eye center point S1, left eye center point S2, right end point S3 of the lips, and left end point S4 of the lips. Since the display target image P3 observed from the direction perpendicular to the reference plane R can be obtained, a front image of the person's face can be displayed after all. This is very convenient for use such as identification of a suspicious person. In general, the orientation in the human space, particularly the orientation of the face, has a very high degree of freedom compared to the orientation of the vehicle, and the face taken in various directions is reflected in the photographed image of the person by the camera. According to the present invention, no matter which direction the person is facing, the front image of the person is automatically displayed if the faces are reflected on the two cameras. Therefore, the present invention is also suitable for use in a suspicious person monitoring system.

これまで述べてきた実施例は、いずれも特定の被写体のもつ固有の特徴に基づいて、基準平面Rを定義した例である。たとえば、ナンバープレートであれば、「外形が矩形の板状プレート」という固有の特徴を有しており、当該固有の特徴を利用して、基準平面を構成する4つの基準点(矩形の4頂点)を予め定義しておくことができた。同様に、人間の顔面であれば、「両目と唇」という固有の特徴を有しており、当該固有の特徴を利用して、基準平面を構成する4つの基準点(両目の中心点と両唇端)を予め定義しておくことができた。   Each of the embodiments described so far is an example in which the reference plane R is defined based on the unique characteristics of a specific subject. For example, a license plate has a unique feature of “a plate plate having a rectangular outer shape”, and four reference points (four vertices of a rectangle) that constitute a reference plane are utilized by using the unique feature. ) Could be defined in advance. Similarly, a human face has a unique feature of “both eyes and lips”, and using the unique feature, the four reference points (the center point and both eyes of the eyes) that constitute the reference plane are used. (Lip edge) could be defined in advance.

しかしながら、本発明を実施する上では、必ずしもこのような特定の被写体のもつ固有の特徴に基づいて、基準平面Rを定義する必要はなく、単に、「被写体上で認識された平面を基準平面Rとして、当該平面上の任意の4点を基準点とする」という運用を行うことも可能である。すなわち、既に述べたとおり、エピポーラ幾何を利用すれば、第1のカメラ10および第2のカメラ20の設置位置および向きの情報と、第1の撮影画像P1上の二次元被写体情報と、第2の撮影画像P2上の二次元被写体情報と、に基づいて、被写体30の三次元形状モデルを作成することができる。そこで、第1対応点抽出部130に、当該三次元形状モデルを作成し、この三次元形状モデル上での所定の平面を基準平面Rと認識し、当該基準平面R上の任意の4点に対応する4つの点を第1対応点として抽出する機能をもたせておけば、どのような被写体であっても、平面部分を有していれば、当該平面部分を着目対象として、これを正面から観察した状態の画像を表示させることができる。   However, in practicing the present invention, it is not always necessary to define the reference plane R based on the unique characteristics of such a specific subject, and simply “the plane recognized on the subject is defined as the reference plane R. It is also possible to perform an operation of “using any four points on the plane as reference points”. That is, as already described, if epipolar geometry is used, information on the installation positions and orientations of the first camera 10 and the second camera 20, the two-dimensional subject information on the first captured image P1, and the second A three-dimensional shape model of the subject 30 can be created based on the two-dimensional subject information on the captured image P2. Therefore, the three-dimensional shape model is created in the first corresponding point extraction unit 130, a predetermined plane on the three-dimensional shape model is recognized as the reference plane R, and the arbitrary four points on the reference plane R are set. If a function for extracting the corresponding four points as the first corresponding points is provided, any subject can have a plane portion, and the plane portion can be focused on from the front. An observed image can be displayed.

<4−2.斜め方向からの観察>
これまで述べてきた実施形態では、いずれも被写体上の着目対象をその正面方向から観察した画像を表示することを前提としてきた。そのため、図9に示すモデルでは、被写体30の着目対象となる基準平面R上に二次元uv座標系を定義し、当該座標系上に表示対象画像を得る演算を行った。一般に、車両のナンバープレートや人物の顔面の場合、これを正面から観察した画像を表示するのが好ましい。すなわち、車両ナンバーの特定や人物の特定などの用途では、ナンバープレートや人物の顔面を正面から観察した状態を表示するのが適切であり、正面方向、すなわち、基準平面Rに直交する方向が適切な観察方向ということになる。
<4-2. Observation from an oblique direction>
In all the embodiments described so far, it has been assumed that an image obtained by observing the target object on the subject from the front direction is displayed. For this reason, in the model shown in FIG. 9, a two-dimensional uv coordinate system is defined on the reference plane R that is the subject of interest of the subject 30, and calculation is performed to obtain a display target image on the coordinate system. In general, in the case of a vehicle license plate or a human face, it is preferable to display an image obtained by observing the license plate from the front. That is, in applications such as vehicle number identification or person identification, it is appropriate to display the state of the license plate or the person's face observed from the front, and the front direction, that is, the direction orthogonal to the reference plane R is appropriate. It will be a different observation direction.

しかしながら、用途によっては、必ずしも基準平面Rに対して直交する方向が適切な観察方向とは限らない。たとえば、同じ車両を被写体とする場合であっても、車種を確認する用途の場合、車両を正面から観察した画像よりも、斜め前方、もしくは、斜め後方から観察した画像を表示させた方が、車両全体の特徴を把握しやすい。したがって、車両の車種確認という用途では、適切な観察方向は、斜め前方、もしくは、斜め後方ということになる。この場合、ナンバープレートの表面を基準平面Rとして設定したのであれば、適切な観察方向は、この基準平面Rに直交する方向ではなく、たとえば、基準平面Rに対して斜め45°に交差する方向ということになる。   However, depending on the application, the direction orthogonal to the reference plane R is not always an appropriate observation direction. For example, even if the subject is the same vehicle, for the purpose of confirming the vehicle type, it is better to display an image observed from diagonally forward or diagonally behind than an image observed from the front of the vehicle. Easy to understand the characteristics of the entire vehicle. Therefore, for the purpose of vehicle type confirmation, the appropriate observation direction is diagonally forward or diagonally backward. In this case, if the surface of the license plate is set as the reference plane R, an appropriate observation direction is not a direction orthogonal to the reference plane R, for example, a direction intersecting with the reference plane R at an angle of 45 °. It turns out that.

そこで、上例のように、基準平面Rに対する斜め方向を適切な観察方向として設定するのであれば、図9に示すモデルの代わりに、図21に示すモデルを用いるようにすればよい。この図21に示すモデルでは、基準平面R(たとえば、ナンバープレートの表面)をv軸まわりに所定の回転角γ(たとえば、γ=45°)だけ回転させた平面上にuv座標系を定義している。もちろん、回転軸は必ずしもv軸にする必要はなく、任意の軸を回転軸に設定してかまわない。   Therefore, as in the above example, if the oblique direction with respect to the reference plane R is set as an appropriate observation direction, the model shown in FIG. 21 may be used instead of the model shown in FIG. In the model shown in FIG. 21, a uv coordinate system is defined on a plane obtained by rotating a reference plane R (for example, the surface of a license plate) by a predetermined rotation angle γ (for example, γ = 45 °) around the v axis. ing. Of course, the rotation axis is not necessarily the v-axis, and any axis may be set as the rotation axis.

このように、二次元uv座標系を回転させて定義すると、得られる表示対象画像P3は、被写体の三次元画像を当該uv平面上に投影した画像になる。そのような投影画像は、被写体の三次元形状モデルを作成することにより得ることができる。この場合、二次元uv座標系上に形成される表示対象画像P3上の座標値(u,v)と、当該座標値で示される表示対象画像P3上の点に対応する二次元xy座標系上の点の座標値(x,y)と、の関係を定める座標変換式は、これまでの実施形態で述べた式とは若干異なることになる。もっとも、図21に示すとおり、基準平面R上に定義された二次元座標系とこれを回転角γだけ回転させて得られる二次元uv座標系との関係は、幾何学的に決定できるので、上記座標変換式も、これまで述べた座標変換式に若干の修正を加えることにより得られる。係数値算出部160は、このような修正を加えた後の座標変換式の各係数値を算出すればよい。   As described above, when the two-dimensional uv coordinate system is rotated and defined, the obtained display target image P3 is an image obtained by projecting the three-dimensional image of the subject onto the uv plane. Such a projection image can be obtained by creating a three-dimensional shape model of the subject. In this case, the coordinate value (u, v) on the display target image P3 formed on the two-dimensional uv coordinate system and the two-dimensional xy coordinate system corresponding to the point on the display target image P3 indicated by the coordinate value. The coordinate conversion formula that defines the relationship between the coordinate values (x, y) of the points in FIG. 4 is slightly different from the formulas described in the previous embodiments. However, as shown in FIG. 21, the relationship between the two-dimensional coordinate system defined on the reference plane R and the two-dimensional uv coordinate system obtained by rotating the two-dimensional coordinate system by the rotation angle γ can be determined geometrically. The coordinate conversion formula is also obtained by slightly modifying the coordinate conversion formula described so far. The coefficient value calculation unit 160 may calculate each coefficient value of the coordinate conversion formula after such correction.

<4−3.魚眼カメラの採用>
これまで述べてきた実施形態は、第1のカメラ10および第2のカメラ20として、一般的な平面デジタルカメラを用いた例であるが、1台のカメラによって、より広い視野を確保するためには、魚眼レンズを装着した魚眼カメラ(魚眼レンズの代わりに全方位ミラーを装着したカメラも、ここでは、魚眼カメラと呼ぶことにする)を用いることができる。
<4-3. Adoption of fisheye camera>
The embodiment described so far is an example in which a general planar digital camera is used as the first camera 10 and the second camera 20, but in order to ensure a wider field of view with one camera. Can use a fish-eye camera equipped with a fish-eye lens (a camera equipped with an omnidirectional mirror instead of a fish-eye lens is also referred to as a fish-eye camera here).

魚眼レンズを用いると、メカニカルな動作機構なしに、半球状の全方位を示す円形画像を得ることができ、1台のカメラでかなり広い視野をカバーすることができる。ただ、魚眼カメラによる撮影画像は、通常の平面カメラによる撮影画像とは異なり、歪曲円形画像になるため、これを利用する際には、この歪曲円形画像の一部分を切り出して、通常の平面正則画像へ変換する変換処理が必要になる。   When a fisheye lens is used, a circular image showing all directions of a hemisphere can be obtained without a mechanical operation mechanism, and a considerably wide field of view can be covered with one camera. However, the image captured by the fisheye camera is different from the image captured by the normal flat camera, and becomes a distorted circular image. Therefore, when using this, a part of the distorted circular image is cut out and the normal planar regularity is obtained. Conversion processing to convert to an image is required.

図22は、魚眼レンズを用いた撮影により得られた歪曲円形画像の一般的な特徴と、その一部分を切り出して、平面正則画像に変換する処理の基本原理を説明するための斜視図であり、正射影方式の魚眼レンズを用いた撮影により歪曲円形画像Sが形成された基本モデルが示されている。一般に、魚眼レンズは、その投影方式によって複数の種類に分けられるが、この図22に示すモデルは、正射影方式の魚眼レンズについてのものである。   FIG. 22 is a perspective view for explaining the general characteristics of a distorted circular image obtained by photographing using a fisheye lens and the basic principle of processing for cutting out a part of the image and converting it into a planar regular image. A basic model in which a distorted circular image S is formed by photographing using a projection type fisheye lens is shown. In general, fish-eye lenses are classified into a plurality of types depending on the projection method. The model shown in FIG. 22 is for a fish-eye lens of an orthogonal projection method.

ここでは、三次元XYZ直交座標系におけるXY平面上に歪曲円形画像Sが形成された例が示されており、図示のとおり、Z軸を図の上方にとり、Z軸の正の領域側にドーム状の仮想球面H(半球)が定義されている。また、この仮想球面Hの左上には、二次元uv直交座標系が配置されている。なお、ここに示す三次元XYZ直交座標系や二次元uv直交座標系は、魚眼カメラによる撮影で得られた歪曲円形画像Sを平面正則画像Tに変換するための座標変換を説明するための座標系であり、これまで述べてきた図9に示すモデルなどに示されている三次元XYZ座標系や二次元uv座標系とは全く無関係な別な座標系である。   Here, an example in which a distorted circular image S is formed on an XY plane in a three-dimensional XYZ orthogonal coordinate system is shown. As shown in the figure, the Z axis is taken upward in the figure, and the dome is located on the positive region side of the Z axis. A virtual phantom spherical surface H (hemisphere) is defined. A two-dimensional uv orthogonal coordinate system is arranged on the upper left of the phantom spherical surface H. The three-dimensional XYZ orthogonal coordinate system and the two-dimensional uv orthogonal coordinate system shown here are for explaining coordinate conversion for converting a distorted circular image S obtained by photographing with a fisheye camera into a planar regular image T. The coordinate system is another coordinate system that is completely unrelated to the three-dimensional XYZ coordinate system and the two-dimensional uv coordinate system shown in the model shown in FIG.

XY平面上に形成された歪曲円形画像Sは、座標系の原点Oを中心とした半径Rの円を構成する画像であり、Z軸の正の領域側における180°の画角をもった領域に存在する像を歪ませて記録したものに相当する。歪曲円形画像Sには、Z軸の正の領域側に存在するすべての像が記録されることになるが、その中心部分と周囲部分とでは、像の縮尺倍率が異なっており、記録された像の形状は歪んだものになる。   The distorted circular image S formed on the XY plane is an image forming a circle with a radius R centered on the origin O of the coordinate system, and is an area having an angle of view of 180 ° on the positive area side of the Z axis. Is equivalent to the image recorded with distortion. In the distorted circular image S, all the images existing on the positive region side of the Z axis are recorded, but the scale portion of the image is different between the central portion and the peripheral portion, and the recorded images are recorded. The shape of the image is distorted.

実際の魚眼レンズは、複数の凸レンズや凹レンズを組み合わせた光学系によって構成されるが、その光学的な特性は、図22に示すような仮想球面Hによってモデル化できることが知られている。すなわち、歪曲円形画像Sの上面に、半径Rをもったドーム状の仮想球面H(半球)を配置したモデルを考えれば、正射影方式の魚眼レンズの光学的特性は、仮想球面H上の任意の点Q(x,y,z)に対して法線方向から入射する光線L(図の一点鎖線)は、Z軸に平行な光線として、XY平面上の点S(x,y)へ向かう振る舞いをする、と考えてよい。逆言すれば、図22において、歪曲円形画像S上の点S(x,y)に位置する画素は、図22に示す入射光線Lの延長線上に存在する物体上の1点を示していることになる。   An actual fisheye lens is constituted by an optical system that combines a plurality of convex lenses and concave lenses, and it is known that its optical characteristics can be modeled by a virtual spherical surface H as shown in FIG. That is, considering a model in which a dome-shaped virtual spherical surface H (hemisphere) having a radius R is arranged on the upper surface of the distorted circular image S, the optical characteristics of the orthographic fish-eye lens are arbitrary on the virtual spherical surface H. A light ray L (a one-dot chain line in the figure) incident from the normal direction to the point Q (x, y, z) behaves as a light ray parallel to the Z axis toward the point S (x, y) on the XY plane. You can think of it. In other words, in FIG. 22, the pixel located at the point S (x, y) on the distorted circular image S indicates one point on the object existing on the extension line of the incident light beam L shown in FIG. 22. It will be.

もちろん、実際の魚眼レンズで生じている光学的現象は、複数の凸レンズや凹レンズによる屈折により、撮像対象となる物体の特定の点が、XY平面上の特定の点S(x,y)上に結像する現象ということになるが、画像変換処理などを行う上では、図22に示すような仮想球面Hを用いたモデルに置き換えた議論を行っても何ら支障はない。ここで行う画像変換の目的は、歪曲円形画像S上の一部分を切り出して、平面正則画像Tに変換する処理を行うことである。   Of course, an optical phenomenon occurring in an actual fisheye lens is that a specific point of an object to be imaged is connected to a specific point S (x, y) on the XY plane due to refraction by a plurality of convex lenses and concave lenses. Although this is an image phenomenon, there is no problem in performing an image conversion process or the like even if the discussion is replaced with a model using a virtual spherical surface H as shown in FIG. The purpose of the image conversion performed here is to perform a process of cutting out a part on the distorted circular image S and converting it into a planar regular image T.

ここでは、たとえば、図示する点P(x,y)を切出中心点として、歪曲円形画像S上の近傍領域の画像を平面正則画像に変換することを考えてみよう。いま、図示のとおり、この切出中心点P(x,y)を通りZ軸に平行な直線と仮想球面Hとの交点をQ(x,y,z)とする。この交点Qは、いわば切出中心点P(x,y)の真上の点であり、ここでは球面上対応点と呼ぶ。同様に、点Q(x,y,z)は、点S(x,y)についての球面上対応点ということになる。 Here, for example, let's consider converting an image in a neighboring area on the distorted circular image S into a planar regular image with the point P (x 0 , y 0 ) shown in the figure as a cut center point. Now, as shown in the figure, the intersection of a straight line parallel to the Z axis and the phantom spherical surface H passing through the cut center point P (x 0 , y 0 ) is defined as Q (x 0 , y 0 , z 0 ). This intersection point Q is, so to speak, a point directly above the cut-out center point P (x 0 , y 0 ), and is referred to as a corresponding point on the sphere. Similarly, the point Q (x, y, z) is the corresponding point on the sphere for the point S (x, y).

続いて、原点Oと球面上対応点Q(x,y,z)とを結ぶ方向に、図示のように、視線ベクトルnを定義し、この視線ベクトルn上に二次元uv座標系の原点Gを定義する。ここで、原点Gの座標は(xg,yg,zg)であり、2点OG間の距離がm・rであるとする。rは、歪曲円形画像Sの半径(仮想球面Hの半径)であり、mは、原点Gと原点Oとの距離が、この半径rの何倍であるかを示す倍率パラメータである。二次元uv座標系は、原点Gを通り、視線ベクトルnに垂直な平面上に定義される。図示のとおり、二次元uv座標系は、互いに直交するu軸とv軸とを有しているが、回転基準軸Jとu軸とのなす角をφとする。ここで、回転基準軸Jは、原点Gを通り、XY平面に平行であり、かつ、視線ベクトルnに直交する軸として定義される。 Subsequently, a line-of-sight vector n is defined as shown in the direction connecting the origin O and the corresponding point Q (x 0 , y 0 , z 0 ) on the spherical surface, and a two-dimensional uv coordinate system is formed on the line-of-sight vector n. Define the origin G of. Here, the coordinates of the origin G are (xg, yg, zg), and the distance between the two points OG is m · r. r is the radius of the distorted circular image S (the radius of the phantom spherical surface H), and m is a magnification parameter indicating how many times the radius r is the distance between the origin G and the origin O. The two-dimensional uv coordinate system is defined on a plane that passes through the origin G and is perpendicular to the line-of-sight vector n. As shown in the figure, the two-dimensional uv coordinate system has a u-axis and a v-axis that are orthogonal to each other, but the angle formed between the rotation reference axis J and the u-axis is φ. Here, the rotation reference axis J is defined as an axis that passes through the origin G, is parallel to the XY plane, and is orthogonal to the line-of-sight vector n.

角度φを増減すると、視線ベクトルnを中心軸として、二次元uv座標系が回転することになり、当該角度φは、一般に平面傾斜角と呼ばれている。また、球面上対応点Q(x,y,z)は、視線ベクトルnの方向を決定する点であり、図示のとおり、方位角αと天頂角βとによって特定することができる。ここで、方位角α(0≦α<360°)は、切出中心点P(x,y)とXY座標系の原点Oとを結ぶ直線とY軸とのなす角になり、天頂角β(0≦β≦90°)は、視線ベクトルnとZ軸とのなす角(鋭角)になる。 When the angle φ is increased or decreased, the two-dimensional uv coordinate system rotates about the line-of-sight vector n as the central axis, and the angle φ is generally called a plane tilt angle. Further, the corresponding point Q (x 0 , y 0 , z 0 ) on the spherical surface is a point that determines the direction of the line-of-sight vector n, and can be specified by the azimuth angle α and the zenith angle β as shown in the figure. Here, the azimuth angle α (0 ≦ α <360 °) is an angle formed by a straight line connecting the cut-out center point P (x 0 , y 0 ) and the origin O of the XY coordinate system and the Y axis, and the zenith The angle β (0 ≦ β ≦ 90 °) is an angle (acute angle) formed by the line-of-sight vector n and the Z axis.

結局、二次元uv座標系の位置および向きは、方位角α,天頂角β,平面傾斜角φ,倍率パラメータmを決定することにより一意に定まる。ここで行う変換処理は、XY平面上に形成されている歪曲円形画像Sの切出中心点P(x,y)の近傍領域の部分画像を、uv平面上の平面正則画像Tに変換することである。そのためには、歪曲円形画像S上の任意の点S(x,y)と、これに対応する平面正則画像T上の点T(u,v)との関係を示す座標変換式が必要になる。 Eventually, the position and orientation of the two-dimensional uv coordinate system are uniquely determined by determining the azimuth angle α, zenith angle β, plane tilt angle φ, and magnification parameter m. The conversion process performed here converts a partial image in the vicinity of the cut-out center point P (x 0 , y 0 ) of the distorted circular image S formed on the XY plane into a planar regular image T on the uv plane. It is to be. For this purpose, a coordinate conversion formula is necessary that indicates the relationship between an arbitrary point S (x, y) on the distorted circular image S and a corresponding point T (u, v) on the planar regular image T. .

このような座標変換式は、図23に示す式(14)および式(15)となることが知られている。これらの式において、rは歪曲円形画像Sの半径(仮想球面Hの半径)であり、撮影に用いた魚眼レンズに固有の値になる。また、A〜Fは、式(16)〜式(21)に示すように、方位角α,天頂角β,平面傾斜角φに基づいて求まる係数であり、一般に回転係数と呼ばれている。そして、wは、式(22)に示すように、w=m・rで与えられる値であり、図22に示す原点Oと原点Gとの距離に相当する値である。mを増減すると、uv座標系が視線ベクトルnに沿った方向に平行移動することになり、このmの値は、得られる平面正則画像Tの倍率を決定するスケーリングファクターになる。   It is known that such coordinate conversion formulas are formulas (14) and (15) shown in FIG. In these equations, r is the radius of the distorted circular image S (the radius of the virtual spherical surface H), and is a value specific to the fisheye lens used for imaging. A to F are coefficients obtained based on the azimuth angle α, the zenith angle β, and the plane inclination angle φ as shown in the equations (16) to (21), and are generally called rotation coefficients. Then, w is a value given by w = m · r as shown in Expression (22), and is a value corresponding to the distance between the origin O and the origin G shown in FIG. When m is increased or decreased, the uv coordinate system is translated in the direction along the line-of-sight vector n, and the value of m becomes a scaling factor that determines the magnification of the obtained planar regular image T.

結局、本発明を実施する際に、一般的な平面デジタルカメラを用いる代わりに、魚眼レンズもしくは全方位ミラーを装着した魚眼カメラを用いた場合は、撮影によって得られた歪曲円形画像S内の所定の切出中心点P(x,y)の近傍の画像を、図23に示す座標変換式を用いて(この式は、正射影方式の場合の変換式であり、他の射影方式の場合は、まず正射影方式へ変換してから、この変換式を用いればよい)平面正則画像Tに変換し、得られた平面正則画像Tを、これまで述べた実施形態における第1の撮影画像P1および第2の撮影画像P2として利用すればよい。 Eventually, when a fisheye camera equipped with a fisheye lens or an omnidirectional mirror is used instead of using a general flat digital camera when implementing the present invention, a predetermined circular image S in the distorted circular image S obtained by photographing is used. An image in the vicinity of the cut-out center point P (x 0 , y 0 ) using a coordinate transformation formula shown in FIG. 23 (this formula is a transformation formula in the case of the orthographic projection method, In this case, it is only necessary to first convert to the orthographic projection method and then use this conversion formula) to convert the planar regular image T into the first regular captured image in the embodiments described so far. What is necessary is just to utilize as P1 and the 2nd picked-up image P2.

図24は、このような魚眼カメラを用いた実施形態に係る撮影画像表示装置の構成を示すブロック図である。図1に示す装置との相違は、2台のカメラとして、第1の魚眼カメラ15および第2の魚眼カメラ25を用いている点と、新たに魚眼画像変換部200を設けた点である。   FIG. 24 is a block diagram showing a configuration of a captured image display apparatus according to an embodiment using such a fisheye camera. The difference from the apparatus shown in FIG. 1 is that a first fisheye camera 15 and a second fisheye camera 25 are used as two cameras, and a fisheye image conversion unit 200 is newly provided. It is.

魚眼画像変換部200は、第1の魚眼カメラ15および第2の魚眼カメラ25による撮影によって得られた歪曲円形画像S内の所定の切出中心点P(x,y)の近傍の画像を、図23に示す座標変換式を用いて平面正則画像Tに変換する処理を行う。画像入力部110は、こうして魚眼画像変換部200によって変換された平面正則画像Tを、それぞれ第1の撮影画像P1および第2の撮影画像P2として入力することになる。 The fish-eye image conversion unit 200 has a predetermined cut-out center point P (x 0 , y 0 ) in the distorted circular image S obtained by photographing with the first fish-eye camera 15 and the second fish-eye camera 25. A process of converting a nearby image into a planar regular image T using a coordinate conversion formula shown in FIG. The image input unit 110 inputs the planar regular image T thus converted by the fisheye image conversion unit 200 as the first captured image P1 and the second captured image P2, respectively.

<4−4.3台以上のカメラの利用>
これまで述べてきた実施形態は、2台のカメラのみを用いて撮影画像表示装置を構成した例であるが、本発明に係る装置は、3台以上のカメラを用いて構成することも可能である。すなわち、互いに異なる位置に設置され、同一の被写体を撮影可能な方向に向けられた複数M台(M≧3)のカメラを用意し、これらM台のカメラの中の任意の2台の組み合わせを、これまで述べてきた実施形態における第1のカメラ10および第2のカメラ20として採用し、表示対象画像を作成する機能をもたせておけばよい。
<Use of 4-4.3 or more cameras>
The embodiments described so far are examples in which the captured image display device is configured using only two cameras, but the device according to the present invention can also be configured using three or more cameras. is there. That is, a plurality of M cameras (M ≧ 3) that are installed at different positions and are directed in the direction in which the same subject can be photographed are prepared, and any two of these M cameras can be combined. The first camera 10 and the second camera 20 in the embodiments described so far may be adopted to have a function of creating a display target image.

図25は、4台のカメラを用いた実施形態における各カメラの配置を示す斜視図である。この例では、被写体35としての車両が進入する円形の撮影対象エリア50の周囲に、4本の支柱61〜64を配置し、各支柱61〜64にそれぞれ魚眼カメラ71〜74を設けている。これら4台の魚眼カメラ71〜74は、いずれも同一の被写体35を撮影可能な方向に向けられている。   FIG. 25 is a perspective view showing the arrangement of the cameras in the embodiment using four cameras. In this example, four support posts 61 to 64 are arranged around a circular photographing target area 50 into which a vehicle as the subject 35 enters, and fisheye cameras 71 to 74 are provided on the support posts 61 to 64, respectively. . These four fisheye cameras 71 to 74 are all directed in the direction in which the same subject 35 can be photographed.

この例の場合、この4台の魚眼カメラ71〜74による撮影で得られた歪曲円形画像のそれぞれについて、所定の切出中心点(たとえば、円形の撮影対象エリア50の中心点に対応する位置)を設定し、前述した方法で、それぞれ平面正則画像を作成している。そして、隣接する一対のカメラをそれぞれ1グループとして、これまで述べてきた実施形態の処理を実行し、表示対象画像を作成するようにしている。   In the case of this example, for each of the distorted circular images obtained by photographing with the four fisheye cameras 71 to 74, a position corresponding to a predetermined cut-out center point (for example, the center point of the circular photographing target area 50). ) And a plane regular image is created by the method described above. Then, a pair of adjacent cameras is set as one group, and the processing of the embodiment described so far is executed to create a display target image.

具体的には、カメラ71と72を第1グループ、カメラ72と73を第2グループ、カメラ73と74を第3グループ、カメラ74と71を第4グループとして、それぞれのグループで、これまで述べた方法により、表示対象画像を作成する。その結果、合計4枚の表示対象画像が得られることになるので、モニタ画面上には、この4枚の表示対象画像すべてを画面分割して表示するようにしてもよいし、時分割で画面を切り替えながら表示するようにしてもよい。   Specifically, the cameras 71 and 72 are the first group, the cameras 72 and 73 are the second group, the cameras 73 and 74 are the third group, and the cameras 74 and 71 are the fourth group. The display target image is created by the method described above. As a result, a total of four display target images are obtained. Therefore, all four display target images may be displayed on the monitor screen by dividing the screen, or the screens may be displayed in time division. You may make it display while switching.

あるいは、4枚の表示画像の中の1枚もしくは数枚を選択して表示してもよい。たとえば、車両のナンバープレートの部分を着目対象として、このナンバープレートを正面から観察した状態の画像を自動的に表示させたい場合、上記グループのうちのいくつかでは、ナンバープレートの認識(4つの対応点の抽出)に失敗する可能性がある。このように、認識に失敗した場合は、当該グループについては表示を中止し、認識に成功したグループについての結果のみを選択して表示させればよい。あるいは、個々のグループごとに、4つの対応点を抽出して、ナンバープレートを構成する四角形が認識できたら、当該四角形の面積が最も大きなグループを選択して、当該グループの結果のみを表示するようなことも可能である。   Alternatively, one or several of the four display images may be selected and displayed. For example, when it is desired to automatically display an image of the license plate observed from the front with the license plate portion of the vehicle as a target of interest, in some of the above groups, license plate recognition (four correspondences) (Point extraction) may fail. As described above, when the recognition fails, the display of the group is stopped, and only the result of the group that is successfully recognized may be selected and displayed. Alternatively, by extracting four corresponding points for each group and recognizing the quadrangle constituting the license plate, the group having the largest area of the quadrangle is selected and only the result of the group is displayed. It is also possible.

図25では、4台の魚眼カメラを用いる例を示したが、もちろん、カメラの台数は4台に限定されるものではなく、必要に応じて、任意の台数を設置することができ、また、これら複数のカメラの中の任意の2台を組み合わせてグループを構成することができる。また、上例では、魚眼カメラを用いる例を示したが、もちろん、通常の平面カメラを複数台配置した場合にも、上例と同様の処理を行うことができる。   FIG. 25 shows an example in which four fisheye cameras are used. Of course, the number of cameras is not limited to four, and any number can be installed as necessary. Any two of these cameras can be combined to form a group. In the above example, a fish-eye camera is used. Of course, the same processing as in the above example can be performed when a plurality of normal planar cameras are arranged.

10:第1のカメラ
15:第1の魚眼カメラ
20:第2のカメラ
25:第2の魚眼カメラ
30,35:被写体
40:障害物
50:撮影対象エリア
61〜64:支柱
71〜74:魚眼カメラ
110:画像入力部
120:撮影画像格納部
130:第1対応点抽出部
140:第2対応点抽出部
150:基準点座標算出部
160:係数値算出部
170:画像変換部
180:表示対象画像格納部
190:画像出力部
200:魚眼画像変換部
A〜F:回転係数
B:ベースライン
E:仮想視点
E1,E2:エピポーラ線
EP:エピポーラ平面
e1,e2:エピポール:
f:座標(x,y)を座標(u,v)に変換する関数
G(xg,yg,zg):二次元uv座標系の原点
g:座標(x,y)を座標(u,v)に変換する関数
H:ホモグラフィー行列/仮想球面
h11〜h33:係数(ホモグラフィー行列の要素)
I(u,v):画素q(u,v)の画素値
I1(u,v):画素q1(u,v)の画素値
I2(u,v):画素q2(u,v)の画素値
J:回転基準軸
K:uv平面上の代表点
L:入射光線
L1:2点(K,Q1)を結ぶ直線
L2:2点(K,Q2)を結ぶ直線
m:倍率パラメータ
n:視線ベクトル
O:三次元XYZ座標系の原点
O′:三次元UVW座標系の原点
P1:第1の撮影画像
P2:第2の撮影画像
P3:表示対象画像
P(x,y):切出中心点
p:xy平面上の1点
Q1:第1の撮影点(視点)
Q2:第2の撮影点(視点)
Q(x,y,z):球面上対応点
Q(x,y,z):球面上対応点
q:uv平面上の1点
q(u,v):表示対象画像P3上の画素
q1(u,v):第1の準備画像Pa上の画素
q2(u,v):第2の準備画像Pb上の画素
R:基準平面
r:歪曲円形画像Sの半径(仮想球面Hの半径)
S:歪曲円形画像
S1〜S4:顔面基準点
S11〜S14:第1対応点
S21〜S24:第2対応点
S31〜S34:被写体上の基準点
S(x,y):歪曲円形画像S内の点
T:平面正則画像
T(u,v):平面正則画像T内の点
U:三次元UVW座標系の座標軸
u:二次元uv座標系の座標軸/座標値
u1〜u4:4つの基準点のu座標値
V:三次元UVW座標系の座標軸
v:二次元uv座標系の座標軸/座標値
v1〜v4:4つの基準点のv座標値
W:三次元UVW座標系の座標軸
w:W軸上の座標値
X:三次元XYZ座標系の座標軸
x:二次元xy座標系の座標軸/その座標値
x1〜x4:4つの第1対応点のx座標値
Y:三次元XYZ座標系の座標軸
y:二次元xy座標系の座標軸/その座標値
y1〜y4:4つの第1対応点のy座標値
Z:三次元XYZ座標系の座標軸
z,za,zb:Z軸上の座標値
α:重み係数/方位角
β:天頂角
γ:回転角
θ11〜θ22:角度
ξ:被写体上の特徴点
ξ1:投影面(撮像面)π1上への投影点
ξ2:投影面(撮像面)π2上への投影点
ξ10,ξ20,ξ30,ξ40:uv平面上の着目画素の配置点
ξ11,ξ21,ξ31,ξ41:第1の投影面π1上の投影点
ξ12,ξ22,ξ32,ξ42:第2の投影面π2上の投影点
ξa:投影面πa上への投影点
ξb:投影面πb上への投影点
π,πa,πb:XY平面に平行な投影面
π1:第1の投影面/第1のカメラの撮像面
π2:第2の投影面/第2のカメラの撮像面
σ:スケーリング係数
φ:平面傾斜角
10: 1st camera 15: 1st fisheye camera 20: 2nd camera 25: 2nd fisheye camera 30, 35: Subject 40: Obstacle 50: Shooting target area 61-64: Posts 71-74 : Fisheye camera 110: image input unit 120: captured image storage unit 130: first corresponding point extraction unit 140: second corresponding point extraction unit 150: reference point coordinate calculation unit 160: coefficient value calculation unit 170: image conversion unit 180 : Display target image storage unit 190: Image output unit 200: Fisheye image converters A to F: Rotation coefficient B: Baseline E: Virtual viewpoint E1, E2: Epipolar line EP: Epipolar plane e1, e2: Epipole:
f: function G (xg, yg, zg) for converting coordinates (x, y) to coordinates (u, v): origin of two-dimensional uv coordinate system g: coordinates (x, y) to coordinates (u, v) Function H to convert to: Homography matrix / virtual sphere h11 to h33: coefficients (elements of homography matrix)
I (u, v): Pixel value of pixel q (u, v) I1 (u, v): Pixel value of pixel q1 (u, v) I2 (u, v): Pixel of pixel q2 (u, v) Value J: rotation reference axis K: representative point on uv plane L: incident ray L1: straight line connecting two points (K, Q1) L2: straight line connecting two points (K, Q2) m: magnification parameter n: line-of-sight vector O: Origin of the three-dimensional XYZ coordinate system O ′: Origin of the three-dimensional UVW coordinate system P1: First photographed image P2: Second photographed image P3: Display target image P (x 0 , y 0 ): Center of extraction Point p: One point on the xy plane Q1: First photographing point (viewpoint)
Q2: Second shooting point (viewpoint)
Q (x 0 , y 0 , z 0 ): corresponding point on spherical surface Q (x, y, z): corresponding point on spherical surface q: one point q (u, v) on uv plane: on display target image P3 Pixel q1 (u, v): Pixel q2 (u, v) on the first preparation image Pa: Pixel R on the second preparation image Pb: Reference plane r: Radius of the distorted circular image S (of the phantom spherical surface H radius)
S: Distorted circular images S1 to S4: Face reference points S11 to S14: First corresponding points S21 to S24: Second corresponding points S31 to S34: Reference points S (x, y) on the subject: Distorted circular image S Point T: Planar regular image T (u, v): Point in the planar regular image T: Coordinate axis of the three-dimensional UVW coordinate system u: Coordinate axis / coordinate values u1 to u4 of the two-dimensional uv coordinate system: Four reference points u coordinate value V: coordinate axis of 3D UVW coordinate system v: coordinate axis of 2D uv coordinate system / coordinate values v1 to v4: v coordinate value of 4 reference points W: coordinate axis of 3D UVW coordinate system w: on W axis Coordinate value X: coordinate axis of three-dimensional XYZ coordinate system x: coordinate axis of two-dimensional xy coordinate system / coordinate values x1 to x4: x coordinate value of four first corresponding points Y: coordinate axis y of three-dimensional XYZ coordinate system Coordinate axes of two-dimensional xy coordinate system / coordinate values y1 to y4: y positions of four first corresponding points Value Z: coordinate axis z, za, zb of the three-dimensional XYZ coordinate system: coordinate value α on the Z axis α: weighting factor / azimuth angle β: zenith angle γ: rotation angle θ11 to θ22: angle ξ: feature point ξ1 on the subject : Projection point on projection plane (imaging plane) π 1: Projection point on projection plane (imaging plane) π 2 ξ 10, ξ 20, ξ 30, ξ 40: Arrangement points of target pixel on uv plane ξ41: projection point on the first projection plane π1, ξ12, ξ22, ξ32, ξ42: projection point on the second projection plane π2 ξa: projection point on the projection plane πa ξb: projection point on the projection plane πb π, πa, πb: projection plane parallel to the XY plane π1: first projection plane / first camera imaging plane π2: second projection plane / second camera imaging plane σ: scaling coefficient φ: plane Angle of inclination

Claims (22)

異なる方向から撮影した被写体の撮影画像に基づいて、当該被写体を所定の仮想方向から観察した画像を生成して表示する撮影画像表示装置であって、
互いに異なる位置に設置され、同一の被写体を撮影可能な方向に向けられた第1のカメラおよび第2のカメラと、
前記第1のカメラによる撮影で得られたデジタル画像もしくは当該デジタル画像に所定の変換処理を加えた画像を第1の撮影画像として入力し、前記第2のカメラによる撮影で得られたデジタル画像もしくは当該デジタル画像に所定の変換処理を加えた画像を第2の撮影画像として入力する画像入力部と、
入力された前記第1の撮影画像および前記第2の撮影画像を格納する撮影画像格納部と、
前記第1の撮影画像を解析することにより、被写体上の着目対象となる基準平面上の点として予め設定されている4つの基準点にそれぞれ対応する点を、前記第1の撮影画像上において4つの第1対応点として抽出する第1対応点抽出部と、
前記第1の撮影画像の特徴と前記第2の撮影画像の特徴とを比較することにより、両画像上の各点間の対応関係を求め、前記第2の撮影画像上において、前記4つの第1対応点にそれぞれ対応する4つの第2対応点を抽出する第2対応点抽出部と、
前記第1のカメラおよび前記第2のカメラの設置位置および向きの情報と、前記4つの第1対応点および前記4つの第2対応点の二次元座標値と、に基づいて、前記各対応点に対応する前記被写体上での4つの基準点の三次元座標値を求める基準点座標算出部と、
前記4つの基準点を含む基準平面上もしくはこの基準平面を予め定められた所定方向に所定の回転角度だけ回転させた平面上に、二次元uv座標系を定義し、前記第1の撮影画像および前記第2の撮影画像の少なくとも一方を変換対象画像として選択し、この変換対象画像上に二次元xy座標系を定義したときに、前記二次元uv座標系上の任意の座標値(u,v)と、当該座標値で示される点に対応する前記二次元xy座標系上の点の座標値(x,y)と、の関係を定める座標変換式の係数値を、前記4つの基準点の座標値と、前記4つの第1対応点もしくは前記4つの第2対応点の座標値との対応関係を用いて算出する係数値算出部と、
前記係数値算出部によって算出された係数値によって規定される座標変換式を用いて、前記二次元xy座標系上の前記変換対象画像を前記二次元uv座標系上の表示対象画像に変換する画像変換部と、
前記画像変換部によって変換された表示対象画像を格納する表示対象画像格納部と、
前記表示対象画像をモニタ画面に表示する画像出力部と、
を備えることを特徴とする撮影画像表示装置。
A photographed image display device that generates and displays an image obtained by observing a subject from a predetermined virtual direction based on a photographed image of the subject photographed from different directions,
A first camera and a second camera installed at different positions and oriented in a direction in which the same subject can be photographed;
A digital image obtained by photographing with the first camera or an image obtained by applying a predetermined conversion process to the digital image is input as a first photographed image, and a digital image obtained by photographing with the second camera or An image input unit that inputs an image obtained by performing a predetermined conversion process on the digital image as a second captured image;
A captured image storage unit for storing the input first captured image and the second captured image;
By analyzing the first photographed image, four points on the first photographed image corresponding to four reference points preset as points on the reference plane as a target of interest on the subject are displayed. A first corresponding point extracting unit that extracts the first corresponding points;
By comparing the feature of the first photographed image with the feature of the second photographed image, a correspondence relationship between each point on both images is obtained, and the four second images are obtained on the second photographed image. A second corresponding point extracting unit that extracts four second corresponding points corresponding to one corresponding point;
Each corresponding point based on information on the installation position and orientation of the first camera and the second camera, and the two-dimensional coordinate values of the four first corresponding points and the four second corresponding points A reference point coordinate calculation unit for obtaining three-dimensional coordinate values of four reference points on the subject corresponding to
A two-dimensional uv coordinate system is defined on a reference plane including the four reference points or a plane obtained by rotating the reference plane in a predetermined direction by a predetermined rotation angle, and the first captured image and When at least one of the second captured images is selected as a conversion target image and a two-dimensional xy coordinate system is defined on the conversion target image, arbitrary coordinate values (u, v) on the two-dimensional uv coordinate system are defined. ) And the coordinate value (x, y) of the point on the two-dimensional xy coordinate system corresponding to the point indicated by the coordinate value, the coefficient value of the coordinate transformation formula that defines the relationship between the four reference points A coefficient value calculation unit that calculates a coordinate value and a correspondence relationship between the coordinate values of the four first corresponding points or the four second corresponding points;
An image for converting the conversion target image on the two-dimensional xy coordinate system into a display target image on the two-dimensional uv coordinate system using a coordinate conversion formula defined by the coefficient value calculated by the coefficient value calculation unit. A conversion unit;
A display target image storage unit for storing the display target image converted by the image conversion unit;
An image output unit for displaying the display target image on a monitor screen;
A photographed image display device comprising:
請求項1に記載の撮影画像表示装置において、
第1対応点抽出部が、第1の撮影画像上の直線部を探索し、探索された直線部によって囲まれた四角形を基準平面と認識し、当該四角形の4頂点を4つの第1対応点として抽出することを特徴とする撮影画像表示装置。
The captured image display device according to claim 1,
The first corresponding point extraction unit searches for a straight line portion on the first captured image, recognizes a quadrangle surrounded by the searched straight line portion as a reference plane, and sets four vertices of the quadrangle as four first corresponding points. A photographed image display device characterized in that it is extracted as:
請求項1に記載の撮影画像表示装置において、
第1対応点抽出部が、第1の撮影画像から人間の顔面を探索し、探索された顔面における右眼中心点、左眼中心点、唇の右端点、唇の左端点を含む面を基準平面と認識し、前記各点を4つの第1対応点として抽出することを特徴とする撮影画像表示装置。
The captured image display device according to claim 1,
The first corresponding point extraction unit searches the human face from the first photographed image, and uses the surface including the right eye center point, left eye center point, lip right end point, and lip left end point in the searched face as a reference. A captured image display device that recognizes a plane and extracts each of the points as four first corresponding points.
請求項1に記載の撮影画像表示装置において、
第1対応点抽出部が、第1のカメラおよび第2のカメラの設置位置および向きの情報と、前記第1の撮影画像上の二次元被写体情報と、前記第2の撮影画像上の二次元被写体情報と、に基づいて、被写体の三次元形状モデルを作成し、当該三次元形状モデル上での所定の平面を基準平面と認識し、当該基準平面上の任意の4点に対応する4つの点を第1対応点として抽出することを特徴とする撮影画像表示装置。
The captured image display device according to claim 1,
The first corresponding point extraction unit includes information on installation positions and orientations of the first camera and the second camera, two-dimensional subject information on the first photographed image, and two-dimensional on the second photographed image. Based on the subject information, a three-dimensional shape model of the subject is created, a predetermined plane on the three-dimensional shape model is recognized as a reference plane, and four corresponding to any four points on the reference plane A captured image display device, wherein a point is extracted as a first corresponding point.
請求項1〜4のいずれかに記載の撮影画像表示装置において、
基準点座標算出部が、第1のカメラおよび第2のカメラの設置位置および向きの情報を、外部からの設定操作により格納する機能を有し、当該格納情報を用いて、4つの基準点の三次元座標値を求めることを特徴とする撮影画像表示装置。
In the captured image display device according to any one of claims 1 to 4,
The reference point coordinate calculation unit has a function of storing the installation position and orientation information of the first camera and the second camera by setting operation from the outside, and using the stored information, A photographed image display device characterized by obtaining a three-dimensional coordinate value.
請求項1〜4のいずれかに記載の撮影画像表示装置において、
基準点座標算出部が、撮影画像格納部に格納されているテスト用被写体を撮影した第1の撮影画像と第2の撮影画像とに基づいて、第1のカメラおよび第2のカメラの設置位置および向きの情報を自動取得する機能を有することを特徴とする撮影画像表示装置。
In the captured image display device according to any one of claims 1 to 4,
Based on the first captured image and the second captured image in which the reference point coordinate calculation unit captures the test subject stored in the captured image storage unit, the installation positions of the first camera and the second camera And a captured image display device having a function of automatically acquiring orientation information.
請求項1〜6のいずれかに記載の撮影画像表示装置において、
係数値算出部が、二次元uv座標系と二次元xy座標系との間のスケーリングファクターを任意に設定することにより、座標値(u,v)と座標値(x,y)との関係を定める座標変換式として、
x=(h11・u+h12・v+h13)/(h31・u+h32・v+1)
y=(h21・u+h22・v+h23)/(h31・u+h32・v+1)
なる式を定義し、この2本の式に、4つの基準点についての二次元uv座標系の座標値(u,v)と4つの第1対応点の二次元xy座標系の座標値(x,y)とをそれぞれ代入して得られる8本の連立方程式を用いて、8個の係数h11,h12,h13,h21,h22,h23,h31,h32を算出することを特徴とする撮影画像表示装置。
In the captured image display device according to any one of claims 1 to 6,
The coefficient value calculation unit arbitrarily sets a scaling factor between the two-dimensional uv coordinate system and the two-dimensional xy coordinate system, so that the relationship between the coordinate value (u, v) and the coordinate value (x, y) is obtained. As a coordinate transformation formula to be defined,
x = (h11 · u + h12 · v + h13) / (h31 · u + h32 · v + 1)
y = (h21 · u + h22 · v + h23) / (h31 · u + h32 · v + 1)
The two formulas are defined, and the two formulas are coordinate values (u, v) of the two-dimensional uv coordinate system for the four reference points and the coordinate values (x of the two-dimensional xy coordinate system of the four first corresponding points) , Y) and eight simultaneous equations obtained by substituting for each of them, eight coefficients h11, h12, h13, h21, h22, h23, h31, h32 are calculated. apparatus.
請求項1〜7のいずれかに記載の撮影画像表示装置において、
係数値算出部が、第1の撮影画像および第2の撮影画像の双方を変換対象画像として選択し、これら変換対象画像上にそれぞれ第1および第2の二次元xy座標系を定義し、二次元uv座標系上の任意の座標値(u,v)と、当該座標値で示される点に対応する前記第1および第2の二次元xy座標系上の点の座標値(x,y)と、の関係を定める座標変換式の係数値を、4つの基準点の座標値と、4つの第1対応点および4つの第2対応点の座標値との対応関係を用いて算出し、
画像変換部が、前記係数値算出部によって算出された係数値によって規定される第1の座標変換式を用いて、前記第1の二次元xy座標系上の前記第1の撮影画像を前記二次元uv座標系上の第1の準備画像に変換するとともに、前記係数値算出部によって算出された係数値によって規定される第2の座標変換式を用いて、前記第2の二次元xy座標系上の前記第2の撮影画像を前記二次元uv座標系上の第2の準備画像に変換し、前記第1の準備画像と前記第2の準備画像とを合成することにより、表示対象画像を生成することを特徴とする撮影画像表示装置。
In the captured image display device according to any one of claims 1 to 7,
The coefficient value calculation unit selects both the first photographed image and the second photographed image as conversion target images, defines first and second two-dimensional xy coordinate systems on these conversion target images, respectively, Arbitrary coordinate values (u, v) on the dimension uv coordinate system and the coordinate values (x, y) of the points on the first and second two-dimensional xy coordinate systems corresponding to the points indicated by the coordinate values And a coefficient value of a coordinate transformation formula that defines the relationship between the four reference points and the correspondence values of the four first corresponding points and the four second corresponding points.
An image conversion unit converts the first captured image on the first two-dimensional xy coordinate system into the second image using a first coordinate conversion formula defined by the coefficient value calculated by the coefficient value calculation unit. The second two-dimensional xy coordinate system is converted into a first preparation image on a dimensional uv coordinate system and a second coordinate conversion formula defined by the coefficient value calculated by the coefficient value calculation unit is used. The second photographed image above is converted into a second preparation image on the two-dimensional uv coordinate system, and the first preparation image and the second preparation image are combined to form a display target image. A photographic image display device characterized by generating.
請求項8に記載の撮影画像表示装置において、
画像変換部が、第1の準備画像と第2の準備画像とを合成する際に、前記第1の準備画像上の座標値(u,v)で示される位置の画素の画素値をI1(u,v)、前記第2の準備画像上の座標値(u,v)で示される位置の画素の画素値をI2(u,v)、表示対象画像上の座標値(u,v)で示される位置の画素の画素値をI(u,v)としたときに、所定の重み係数α(0≦α≦1)を用いて、
I(u,v)=(1−α)・I1(u,v)+α・I2(u,v)
なる合成演算を行うことを特徴とする撮影画像表示装置。
The captured image display device according to claim 8,
When the image conversion unit combines the first preparation image and the second preparation image, the pixel value of the pixel at the position indicated by the coordinate value (u, v) on the first preparation image is set to I1 ( u, v), the pixel value of the pixel at the position indicated by the coordinate value (u, v) on the second preparation image is I2 (u, v), and the coordinate value (u, v) on the display target image. When the pixel value of the pixel at the indicated position is I (u, v), using a predetermined weight coefficient α (0 ≦ α ≦ 1),
I (u, v) = (1−α) · I1 (u, v) + α · I2 (u, v)
A photographed image display device characterized by performing a composition operation.
請求項9に記載の撮影画像表示装置において、
uv平面上の所定の代表点と第1のカメラを設置した撮影点とを結ぶ直線とuv平面とのなす鋭角θ1と、前記代表点と第2のカメラを設置した撮影点とを結ぶ直線とuv平面とのなす鋭角θ2と、を比べ、重み係数αを、
θ1>θ2であればα<0.5に設定し、両角度の差が大きければ大きいほど、αが小さくなるように設定し、
θ1<θ2であればα>0.5に設定し、両角度の差が大きければ大きいほど、αが大きくなるように設定し、
θ1=θ2であればα=0.5に設定することを特徴とする撮影画像表示装置。
The captured image display device according to claim 9,
An acute angle θ1 formed by a straight line connecting a predetermined representative point on the uv plane and a shooting point where the first camera is installed and a uv plane, and a straight line connecting the representative point and a shooting point where the second camera is installed Compare the acute angle θ2 made with the uv plane,
If θ1> θ2, α <0.5 is set, and the larger the difference between the two angles, the smaller α is set.
If θ1 <θ2, α is set to 0.5, and the larger the difference between the two angles, the larger α is set.
If θ1 = θ2, α = 0.5 is set as a captured image display device.
請求項9に記載の撮影画像表示装置において、
表示対象画像上の座標値(u,v)で示される位置にある着目画素の画素値I(u,v)を決定する際に、当該着目画素の配置点と第1のカメラを設置した撮影点とを結ぶ直線とuv平面とのなす鋭角θ1と、前記配置点と第2のカメラを設置した撮影点とを結ぶ直線とuv平面とのなす鋭角θ2と、を比べ、前記画素値I(u,v)を決定する際に用いる重み係数αを、
θ1>θ2であればα<0.5に設定し、両角度の差が大きければ大きいほど、αが小さくなるように設定し、
θ1<θ2であればα>0.5に設定し、両角度の差が大きければ大きいほど、αが大きくなるように設定し、
θ1=θ2であればα=0.5に設定することを特徴とする撮影画像表示装置。
The captured image display device according to claim 9,
When determining the pixel value I (u, v) of the pixel of interest at the position indicated by the coordinate value (u, v) on the display target image, shooting with the arrangement point of the pixel of interest and the first camera installed An acute angle θ1 formed by a straight line connecting a point and the uv plane is compared with an acute angle θ2 formed by a straight line connecting the arrangement point and the photographing point where the second camera is installed and the uv plane, and the pixel value I ( The weighting factor α used in determining u, v) is
If θ1> θ2, α <0.5 is set, and the larger the difference between the two angles, the smaller α is set.
If θ1 <θ2, α is set to 0.5, and the larger the difference between the two angles, the larger α is set.
If θ1 = θ2, α = 0.5 is set as a captured image display device.
請求項10または11に記載の撮影画像表示装置において、
α=(θ2−θ1)/π+1/2
なる演算式により重み係数αを設定することを特徴とする撮影画像表示装置。
The captured image display device according to claim 10 or 11,
α = (θ2−θ1) / π + 1/2
A photographed image display device characterized in that a weighting factor α is set by the following equation.
請求項9に記載の撮影画像表示装置において、
画像変換部が、
第1のカメラおよび第2のカメラの設置位置および向きの情報と、第1の撮影画像上の二次元画像情報と、第2の撮影画像上の二次元画像情報と、に基づいて、被写体および障害物の三次元形状モデルを作成し、基準平面の手前に存在する障害物を認識する処理を行い、
表示対象画像上の座標値(u,v)で示される位置にある着目画素の画素値I(u,v)を決定する際に、当該着目画素が、前記障害物により第1の準備画像上でのみ隠面となっている領域内の画素である場合には、前記画素値I(u,v)を決定する際に用いる重み係数αをα=1に設定し、前記障害物により第2の準備画像上でのみ隠面となっている領域内の画素である場合には、前記画素値I(u,v)を決定する際に用いる重み係数αをα=0に設定することを特徴とする撮影画像表示装置。
The captured image display device according to claim 9,
The image converter
Based on the installation position and orientation information of the first camera and the second camera, the two-dimensional image information on the first photographed image, and the two-dimensional image information on the second photographed image, the subject and Create a 3D shape model of the obstacle, perform the process of recognizing the obstacle existing in front of the reference plane,
When determining the pixel value I (u, v) of the pixel of interest at the position indicated by the coordinate value (u, v) on the display target image, the pixel of interest is moved onto the first preparation image by the obstacle. If the pixel is in a region that is a hidden surface only, the weighting coefficient α used when determining the pixel value I (u, v) is set to α = 1, and the second is caused by the obstacle. If the pixel is in a region that is a hidden surface only on the prepared image, the weighting coefficient α used when determining the pixel value I (u, v) is set to α = 0. A captured image display device.
請求項1〜13のいずれかに記載の撮影画像表示装置において、
画像変換部が、二次元xy座標系上の変換対象画像を二次元uv座標系上の表示対象画像もしくは準備画像に変換する際に、座標値(u,v)を引数として座標値(x,y)を求める座標変換式を用い、変換対象画像上の前記座標値(x,y)で示される位置の近傍に存在する複数の画素の画素値を用いた補間演算によって求められる補間値を、前記座標値(u,v)で示される位置に配置された画素の画素値とすることを特徴とする撮影画像表示装置。
In the picked-up image display device according to any one of claims 1 to 13,
When the image conversion unit converts a conversion target image on the two-dimensional xy coordinate system into a display target image or a preparation image on the two-dimensional uv coordinate system, the coordinate value (x, x) is used as an argument. Using the coordinate conversion equation for obtaining y), an interpolation value obtained by an interpolation operation using pixel values of a plurality of pixels existing in the vicinity of the position indicated by the coordinate value (x, y) on the image to be converted is A captured image display device characterized in that a pixel value of a pixel arranged at a position indicated by the coordinate value (u, v) is used.
請求項1〜14のいずれかに記載の撮影画像表示装置において、
係数値演算部が、基準平面を予め定められた所定の軸回りに、予め定められた所定の回転角γだけ回転させた平面上に、二次元uv座標系を定義することを特徴とする撮影画像表示装置。
In the picked-up image display apparatus in any one of Claims 1-14,
The coefficient value calculation unit defines a two-dimensional uv coordinate system on a plane obtained by rotating a reference plane around a predetermined axis by a predetermined rotation angle γ. Image display device.
請求項1〜15のいずれかに記載の撮影画像表示装置において、
互いに異なる位置に設置され、同一の被写体を撮影可能な方向に向けられた複数M台(M≧3)のカメラを備え、
これらM台のカメラの中の任意の2台の組み合わせを、第1のカメラおよび第2のカメラとして採用し、表示対象画像を作成する機能を有することを特徴とする撮影画像表示装置。
In the photographic image display device according to any one of claims 1 to 15,
Provided with a plurality of M cameras (M ≧ 3) installed in different positions and directed in the direction in which the same subject can be photographed,
A photographed image display device having a function of adopting a combination of any two of these M cameras as a first camera and a second camera and creating a display target image.
請求項1〜16のいずれかに記載の撮影画像表示装置において、
第1のカメラおよび第2のカメラとして、魚眼レンズもしくは全方位ミラーを装着したカメラを用い、
前記第1のカメラおよび第2のカメラによる撮影によって得られた歪曲円形画像内の所定の切出中心点近傍の画像を、所定の座標変換式を用いて平面正則画像に変換する魚眼画像変換部を更に備え、
画像入力部が、前記魚眼画像変換部によって変換された平面正則画像を、それぞれ第1の撮影画像および第2の撮影画像として入力することを特徴とする撮影画像表示装置。
In the picked-up image display apparatus in any one of Claims 1-16,
Using a camera equipped with a fisheye lens or an omnidirectional mirror as the first camera and the second camera,
Fish-eye image conversion for converting an image in the vicinity of a predetermined cut-out center point in a distorted circular image obtained by photographing with the first camera and the second camera into a planar regular image using a predetermined coordinate conversion formula Further comprising
A photographic image display device, wherein the image input unit inputs the planar regular image converted by the fisheye image conversion unit as a first photographic image and a second photographic image, respectively.
請求項1〜17のいずれかに記載の撮影画像表示装置における各カメラ以外の構成要素としてコンピュータを機能させるためのプログラム。   The program for functioning a computer as components other than each camera in the picked-up image display apparatus in any one of Claims 1-17. 請求項1〜17のいずれかに記載の撮影画像表示装置における各カメラ以外の構成要素として機能する半導体集積回路。   A semiconductor integrated circuit that functions as a component other than each camera in the captured image display device according to claim 1. 請求項2に記載の撮影画像表示装置を含み、
各カメラが、被写体となる車両のナンバープレートを撮影可能な位置および向きに設置されており、
第1対応点抽出部が、前記ナンバープレートの表面を着目対象となる基準平面として、前記ナンバープレートを構成する四角形の4頂点を4つの第1対応点として抽出し、
画像出力部が、前記ナンバープレートを正面方向から観察した画像を表示対象画像として出力することを特徴とする車両のナンバープレートの撮影表示装置。
A captured image display device according to claim 2,
Each camera is installed in a position and orientation where the license plate of the vehicle that is the subject can be photographed,
The first corresponding point extracting unit extracts the four vertexes of the quadrangle constituting the license plate as four first corresponding points, with the surface of the license plate as a reference plane to be focused on,
An imaging output device for a license plate of a vehicle, wherein the image output unit outputs an image obtained by observing the license plate from the front direction as a display target image.
請求項3に記載の撮影画像表示装置を含み、
各カメラが、被写体となる人間の顔面を撮影可能な位置および向きに設置されており、
画像出力部が、前記人間の顔面を正面方向から観察した画像を表示対象画像として出力することを特徴とする監視システム。
Including the captured image display device according to claim 3;
Each camera is installed in a position and orientation that can shoot the human face as the subject,
An image output unit outputs an image obtained by observing the human face from the front direction as a display target image.
異なる方向から撮影した被写体の撮影画像に基づいて、当該被写体を所定の仮想方向から観察した画像を生成して表示する撮影画像表示方法であって、
第1のカメラおよび第2のカメラを、互いに異なる位置に、かつ、同一の被写体を撮影可能な方向に向けて設置するカメラ設置段階と、
コンピュータが、前記第1のカメラによる撮影で得られたデジタル画像もしくは当該デジタル画像に所定の変換処理を加えた画像を第1の撮影画像として入力し、前記第2のカメラによる撮影で得られたデジタル画像もしくは当該デジタル画像に所定の変換処理を加えた画像を第2の撮影画像として入力する画像入力段階と、
コンピュータが、前記第1の撮影画像を解析することにより、被写体上の着目対象となる基準平面上の点として予め設定されている4つの基準点にそれぞれ対応する点を、前記第1の撮影画像上において4つの第1対応点として抽出する第1対応点抽出段階と、
コンピュータが、前記第1の撮影画像の特徴と前記第2の撮影画像の特徴とを比較することにより、両画像上の各点間の対応関係を求め、前記第2の撮影画像上において、前記4つの第1対応点にそれぞれ対応する4つの第2対応点を抽出する第2対応点抽出段階と、
コンピュータが、前記第1のカメラおよび前記第2のカメラの設置位置および向きの情報と、前記4つの第1対応点および前記4つの第2対応点の二次元座標値と、に基づいて、前記各対応点に対応する前記被写体上での4つの基準点の三次元座標値を求める基準点座標算出段階と、
コンピュータが、前記4つの基準点を含む基準平面上もしくはこの基準平面を予め定められた所定方向に所定の回転角度だけ回転させた平面上に、二次元uv座標系を定義し、前記第1の撮影画像および前記第2の撮影画像の少なくとも一方を変換対象画像として選択し、この変換対象画像上に二次元xy座標系を定義したときに、前記二次元uv座標系上の任意の座標値(u,v)と、当該座標値で示される点に対応する前記二次元xy座標系上の点の座標値(x,y)と、の関係を定める座標変換式の係数値を、前記4つの基準点の座標値と、前記4つの第1対応点もしくは前記4つの第2対応点の座標値との対応関係を用いて算出する係数値算出段階と、
コンピュータが、前記係数値算出段階で算出された係数値によって規定される座標変換式を用いて、前記二次元xy座標系上の前記変換対象画像を前記二次元uv座標系上の表示対象画像に変換する画像変換段階と、
コンピュータが、前記画像変換段階によって変換された表示対象画像をモニタ画面に表示する画像出力段階と、
を有することを特徴とする撮影画像表示方法。
A captured image display method for generating and displaying an image obtained by observing a subject from a predetermined virtual direction based on a photographed image of the subject photographed from different directions,
A camera installation stage in which the first camera and the second camera are installed at different positions and in the direction in which the same subject can be photographed;
A computer inputs a digital image obtained by photographing with the first camera or an image obtained by applying a predetermined conversion process to the digital image as a first photographed image, and is obtained by photographing with the second camera. An image input step of inputting a digital image or an image obtained by applying a predetermined conversion process to the digital image as a second captured image;
When the computer analyzes the first captured image, points corresponding to four reference points set in advance as points on the reference plane as a target of interest on the subject are determined as the first captured image. A first corresponding point extraction stage for extracting as four first corresponding points above;
The computer obtains the correspondence between each point on both images by comparing the feature of the first photographed image and the feature of the second photographed image, and on the second photographed image, A second corresponding point extracting step of extracting four second corresponding points respectively corresponding to the four first corresponding points;
The computer, based on the information on the installation position and orientation of the first camera and the second camera, and the two-dimensional coordinate values of the four first corresponding points and the four second corresponding points, A reference point coordinate calculation step for obtaining three-dimensional coordinate values of four reference points on the subject corresponding to each corresponding point;
The computer defines a two-dimensional uv coordinate system on a reference plane including the four reference points or on a plane obtained by rotating the reference plane by a predetermined rotation angle in a predetermined direction. When at least one of the photographed image and the second photographed image is selected as a conversion target image and a two-dimensional xy coordinate system is defined on the conversion target image, an arbitrary coordinate value on the two-dimensional uv coordinate system ( u, v) and the coordinate value (x, y) of the point on the two-dimensional xy coordinate system corresponding to the point indicated by the coordinate value, the coefficient value of the coordinate transformation formula that defines the relationship between the four A coefficient value calculating step for calculating using a correspondence relationship between the coordinate value of the reference point and the coordinate values of the four first corresponding points or the four second corresponding points;
The computer converts the conversion target image on the two-dimensional xy coordinate system into a display target image on the two-dimensional uv coordinate system using a coordinate conversion formula defined by the coefficient value calculated in the coefficient value calculation step. An image conversion stage to convert,
An image output step in which the computer displays the display target image converted in the image conversion step on a monitor screen;
A captured image display method characterized by comprising:
JP2009223242A 2009-09-28 2009-09-28 Captured image display device Pending JP2011070579A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009223242A JP2011070579A (en) 2009-09-28 2009-09-28 Captured image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009223242A JP2011070579A (en) 2009-09-28 2009-09-28 Captured image display device

Publications (1)

Publication Number Publication Date
JP2011070579A true JP2011070579A (en) 2011-04-07

Family

ID=44015777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009223242A Pending JP2011070579A (en) 2009-09-28 2009-09-28 Captured image display device

Country Status (1)

Country Link
JP (1) JP2011070579A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013162416A (en) * 2012-02-07 2013-08-19 Sharp Corp Imaging apparatus, image processing apparatus, image processing method and program
JP2017028510A (en) * 2015-07-23 2017-02-02 日本放送協会 Multi-viewpoint video generating device, program therefor, and multi-viewpoint video generating system
US20170337707A1 (en) * 2016-05-20 2017-11-23 National Chiao Tung University Method and system for transforming between physical images and virtual images
JP2018156192A (en) * 2017-03-15 2018-10-04 株式会社東芝 Image processing apparatus, image processing system, image processing method, and program
CN109523462A (en) * 2018-11-14 2019-03-26 北京奇艺世纪科技有限公司 A kind of acquisition methods and device of VR video screenshotss image
CN111091595A (en) * 2019-12-23 2020-05-01 吉林省广播电视研究所(吉林省广播电视局科技信息中心) Strabismus three-dimensional mapping method and mapping system
WO2020138120A1 (en) * 2018-12-26 2020-07-02 日本電気株式会社 Information processing device, information processing method, and recording medium
CN111798476A (en) * 2020-06-08 2020-10-20 国网江西省电力有限公司电力科学研究院 Method for extracting axis of conductive arm of high-voltage isolating switch
CN112710608A (en) * 2020-12-16 2021-04-27 深圳晶泰科技有限公司 Experiment observation method and system
JP2021168463A (en) * 2020-04-08 2021-10-21 ペキン シャオミ パインコーン エレクトロニクス カンパニー, リミテッド Omnidirectional parallax view synthesis method, device and storage medium
CN113813170A (en) * 2021-08-30 2021-12-21 中科尚易健康科技(北京)有限公司 Target point conversion method between cameras of multi-camera physiotherapy system
CN113993747A (en) * 2019-09-13 2022-01-28 马瑞利株式会社 Display device and display method
CN115665312A (en) * 2022-12-27 2023-01-31 天津华慧智能科技有限公司 Method for judging parking accuracy by automatically calculating relation between vehicle body and marking line through mobile phone
WO2023206475A1 (en) * 2022-04-29 2023-11-02 北京小米移动软件有限公司 Image processing method and apparatus, electronic device and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268594A (en) * 2000-03-15 2001-09-28 Infiniteface.Com Inc Client server system for three-dimensional beauty simulation
JP2002324249A (en) * 2001-02-26 2002-11-08 Nabura:Kk Image display system and its method
JP2005269010A (en) * 2004-03-17 2005-09-29 Olympus Corp Image creating device, program and method
JP2006350852A (en) * 2005-06-17 2006-12-28 Nabura:Kk Image generation system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268594A (en) * 2000-03-15 2001-09-28 Infiniteface.Com Inc Client server system for three-dimensional beauty simulation
JP2002324249A (en) * 2001-02-26 2002-11-08 Nabura:Kk Image display system and its method
JP2005269010A (en) * 2004-03-17 2005-09-29 Olympus Corp Image creating device, program and method
JP2006350852A (en) * 2005-06-17 2006-12-28 Nabura:Kk Image generation system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200800812030; 冨山仁博、片山美和、久富健介、岩舘祐一: '多視点映像生成技術の研究とアプリケーション' 情報処理学会研究報告 2008-CVIM-162 第2008巻、第27号, 20080310, p207-214, 社団法人情報処理学会 *
JPN6013027817; 冨山仁博、片山美和、久富健介、岩舘祐一: '多視点映像生成技術の研究とアプリケーション' 情報処理学会研究報告 2008-CVIM-162 第2008巻、第27号, 20080310, p207-214, 社団法人情報処理学会 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013162416A (en) * 2012-02-07 2013-08-19 Sharp Corp Imaging apparatus, image processing apparatus, image processing method and program
JP2017028510A (en) * 2015-07-23 2017-02-02 日本放送協会 Multi-viewpoint video generating device, program therefor, and multi-viewpoint video generating system
US20170337707A1 (en) * 2016-05-20 2017-11-23 National Chiao Tung University Method and system for transforming between physical images and virtual images
US10403002B2 (en) * 2016-05-20 2019-09-03 National Chiao Tung University Method and system for transforming between physical images and virtual images
JP2018156192A (en) * 2017-03-15 2018-10-04 株式会社東芝 Image processing apparatus, image processing system, image processing method, and program
CN109523462A (en) * 2018-11-14 2019-03-26 北京奇艺世纪科技有限公司 A kind of acquisition methods and device of VR video screenshotss image
JP7248039B2 (en) 2018-12-26 2023-03-29 日本電気株式会社 Information processing device, information processing method and program
EP3905657A4 (en) * 2018-12-26 2022-01-26 NEC Corporation Information processing device, information processing method, and recording medium
CN113454978B (en) * 2018-12-26 2023-08-18 日本电气株式会社 Information processing apparatus, information processing method, and storage medium
CN113454978A (en) * 2018-12-26 2021-09-28 日本电气株式会社 Information processing apparatus, information processing method, and recording medium
WO2020138120A1 (en) * 2018-12-26 2020-07-02 日本電気株式会社 Information processing device, information processing method, and recording medium
JPWO2020138120A1 (en) * 2018-12-26 2021-10-28 日本電気株式会社 Information processing equipment, information processing methods and programs
CN113993747B (en) * 2019-09-13 2023-06-06 马瑞利株式会社 Display device and display method
CN113993747A (en) * 2019-09-13 2022-01-28 马瑞利株式会社 Display device and display method
CN111091595B (en) * 2019-12-23 2023-06-02 吉林省广播电视研究所(吉林省广播电视局科技信息中心) Strabismus three-dimensional mapping method and system
CN111091595A (en) * 2019-12-23 2020-05-01 吉林省广播电视研究所(吉林省广播电视局科技信息中心) Strabismus three-dimensional mapping method and mapping system
US11245886B2 (en) 2020-04-08 2022-02-08 Beijing Xiaomi Pinecone Electronics Co., Ltd. Method and apparatus for synthesizing omni-directional parallax view, and storage medium
JP2021168463A (en) * 2020-04-08 2021-10-21 ペキン シャオミ パインコーン エレクトロニクス カンパニー, リミテッド Omnidirectional parallax view synthesis method, device and storage medium
CN111798476A (en) * 2020-06-08 2020-10-20 国网江西省电力有限公司电力科学研究院 Method for extracting axis of conductive arm of high-voltage isolating switch
CN111798476B (en) * 2020-06-08 2023-10-20 国网江西省电力有限公司电力科学研究院 Extraction method for conductive arm axis of high-voltage isolating switch
CN112710608A (en) * 2020-12-16 2021-04-27 深圳晶泰科技有限公司 Experiment observation method and system
CN112710608B (en) * 2020-12-16 2023-06-23 深圳晶泰科技有限公司 Experimental observation method and system
CN113813170A (en) * 2021-08-30 2021-12-21 中科尚易健康科技(北京)有限公司 Target point conversion method between cameras of multi-camera physiotherapy system
CN113813170B (en) * 2021-08-30 2023-11-24 中科尚易健康科技(北京)有限公司 Method for converting target points among cameras of multi-camera physiotherapy system
WO2023206475A1 (en) * 2022-04-29 2023-11-02 北京小米移动软件有限公司 Image processing method and apparatus, electronic device and storage medium
CN115665312A (en) * 2022-12-27 2023-01-31 天津华慧智能科技有限公司 Method for judging parking accuracy by automatically calculating relation between vehicle body and marking line through mobile phone

Similar Documents

Publication Publication Date Title
JP2011070579A (en) Captured image display device
WO2021120407A1 (en) Parallax image stitching and visualization method based on multiple pairs of binocular cameras
JP5739584B2 (en) 3D image synthesizing apparatus and method for visualizing vehicle periphery
JP4828779B2 (en) High-speed digital pan tilt zoom video
EP2820593B1 (en) Method and system for adaptive perspective correction of ultra wide-angle lens images
WO2019049421A1 (en) Calibration device, calibration system, and calibration method
Sturm Multi-view geometry for general camera models
TWI554976B (en) Surveillance systems and image processing methods thereof
US8326077B2 (en) Method and apparatus for transforming a non-linear lens-distorted image
US20040061774A1 (en) Digital imaging system using overlapping images to formulate a seamless composite image and implemented using either a digital imaging sensor array
US20180018807A1 (en) Method and apparatus for generating panoramic image with texture mapping
JP2013038775A (en) Ray image modeling for fast catadioptric light field rendering
JPWO2018235163A1 (en) Calibration apparatus, calibration chart, chart pattern generation apparatus, and calibration method
CN107451952B (en) Splicing and fusing method, equipment and system for panoramic video
TWI602154B (en) Panoramic image stitching method and system thereof
US7409152B2 (en) Three-dimensional image processing apparatus, optical axis adjusting method, and optical axis adjustment supporting method
EP3606059B1 (en) Projector calibration method and projection system using the same
CN113538587A (en) Camera coordinate transformation method, terminal and storage medium
JP2019509526A (en) Optimal spherical image acquisition method using multiple cameras
JP2014010783A (en) Image processing apparatus, image processing method, and program
TWI615808B (en) Image processing method for immediately producing panoramic images
JP2019525509A (en) Horizontal parallax stereo panorama import method
CN111583117A (en) Rapid panoramic stitching method and device suitable for space complex environment
JP6755737B2 (en) Distance measuring device, imaging device, and distance measuring method
JP2011146762A (en) Solid model generator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131203