JP2005140623A - Image measuring method and instrument, program, and recording medium - Google Patents

Image measuring method and instrument, program, and recording medium Download PDF

Info

Publication number
JP2005140623A
JP2005140623A JP2003376934A JP2003376934A JP2005140623A JP 2005140623 A JP2005140623 A JP 2005140623A JP 2003376934 A JP2003376934 A JP 2003376934A JP 2003376934 A JP2003376934 A JP 2003376934A JP 2005140623 A JP2005140623 A JP 2005140623A
Authority
JP
Japan
Prior art keywords
image
target area
images
vertex
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003376934A
Other languages
Japanese (ja)
Inventor
Ken Tsutsuguchi
拳 筒口
Yasushi Hanakago
花籠  靖
Yoshinobu Tonomura
佳伸 外村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003376934A priority Critical patent/JP2005140623A/en
Publication of JP2005140623A publication Critical patent/JP2005140623A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To calculate an actual dimension by setting only a measuring range on one image, when measuring the actual dimension of an object within the image, using stereoscopic view. <P>SOLUTION: This image measuring instrument has a photographing information calculating part 200 for calculating a projection matrix when photographing two images photographed with a measuring object and a reference object at the same time, and a matrix for imparting a restriction relation between the two images, an objective area determination part 300 for receiving a two-dimensional rectangular assignment surrounding an objective area to be stored, in one of the images, for calculating a coupling coefficient when sides of the rectangle are expressed by linear coupling of an image of three sides crossed in one apex in an image of the reference object, and for correcting a shape of the rectangle to store apex positions thereof, a corresponding objective area determination part 400 for calculating an area corresponding to the rectangle as a corresponding objective area, in the other image, to store apex positions thereof, and an objective area actual dimension calculating part 500 for calculating three-dimensional coordinates of the apexes of the objective area, using the projection matrix, the apex positions in the objective area and the apex positions in the corresponding objective area. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、実寸及び形状が既知である物体(参照物体)と実寸及び形状が未知である物体(測定対象物体)とを同時に撮影した複数の画像を用いて、測定対象物体を囲む矩形領域の実寸を算出する、画像計測方法及び装置に関する。   The present invention uses a plurality of images obtained by simultaneously capturing an object whose actual size and shape are known (reference object) and an object whose actual size and shape are unknown (measurement target object). The present invention relates to an image measurement method and apparatus for calculating an actual size.

撮影された画像を用いて被写体の実寸を測定することは、いわゆる写真測量の分野で広く行われている。近年、ディジタルカメラに代表されるディジタル画像撮影装置の精度が向上し、またディジタル画像撮影装置で撮影したデータ(ディジタル画像)を記録する記録媒体の容量も増大しているため、撮影及び記録画像における縦横の画素(ピクセル)数すなわち解像度が大きくなり、それによって、ディジタル画像は、フィルムカメラ(銀塩カメラ)により撮影されたアナログ画像に匹敵する画質を有するようになってきている。ディジタル画像はコンピュータ処理が容易であるため、これらディジタル画像撮影装置の発展に伴い、写真測量の撮影手段としてディジタル画像撮影装置を用いることが主流となってきている。   Measuring the actual size of a subject using a photographed image is widely performed in the field of so-called photogrammetry. In recent years, the accuracy of digital image capturing apparatuses typified by digital cameras has improved, and the capacity of recording media for recording data (digital images) captured by digital image capturing apparatuses has increased. The number of vertical and horizontal pixels (pixels), that is, the resolution is increased, whereby digital images have an image quality comparable to analog images taken by a film camera (silver salt camera). Since digital images can be easily processed by computers, with the development of these digital image photographing devices, it has become mainstream to use digital image photographing devices as photographing means for photogrammetry.

画像を用いた実寸の測量は、通常、撮影時の視点からの距離をステレオ視を適用して復元するという三角測量原理により行われることがほとんどであり、その原理は非特許文献1をはじめとする多くの文献に記載されている。   Actual-scale surveys using images are usually performed by the triangulation principle of restoring the distance from the viewpoint at the time of shooting by applying stereo vision. It is described in many references.

以下、ディジタル画像撮影装置を単にカメラ等と称し、ディジタル画像撮影装置によって撮影された画像をディジタル画像、あるいは単に画像と称する。また、測量の対象となる現実世界に設定された3次元デカルト座標系を世界座標系またはワールド座標系と呼び、ワールド座標系の3次元の点を   Hereinafter, the digital image capturing device is simply referred to as a camera or the like, and an image captured by the digital image capturing device is referred to as a digital image or simply an image. Also, the 3D Cartesian coordinate system set in the real world to be surveyed is called the world coordinate system or the world coordinate system.

Figure 2005140623
Figure 2005140623

などと表す。また、撮影の視点位置(カメラ中心)を原点とする3次元デカルト座標系をカメラ座標系と呼ぶ。また、撮影され記録されたディジタル画像上での2次元デカルト座標系を画像座標系と呼び、画像座標系の2次元の点を And so on. A three-dimensional Cartesian coordinate system having the origin at the photographing viewpoint position (camera center) is called a camera coordinate system. Also, a two-dimensional Cartesian coordinate system on a captured and recorded digital image is called an image coordinate system, and a two-dimensional point in the image coordinate system is called

Figure 2005140623
Figure 2005140623

などと表す。なお、以下の説明において、記載の簡略化のために、各種の記号に関し、混同を来さない限りにおいて、イタリックのボールド体で記載された例えば And so on. In the following description, for simplification of description, various symbols are described in italic bold unless otherwise confused.

Figure 2005140623
Figure 2005140623

を、単に活字体(例えばm,m′)で記載することがある。 May be described simply in a typeface (for example, m, m ′).

図1は、ステレオ視の原理を表している。図において、ステレオ視に用いられる2枚の画像はそれぞれI,I′で表わされており、O,O′はそれぞれ画像I,I′のカメラ中心である。Owはワールド座標系の原点であり、 FIG. 1 shows the principle of stereo vision. In the figure, two images used for stereo vision are represented by I and I ', respectively, and O and O' are the camera centers of the images I and I ', respectively. O w is the origin of the world coordinate system,

Figure 2005140623
Figure 2005140623

はワールド座標系における3次元、m,m′はそれぞれI,I′における Is three-dimensional in the world coordinate system, m and m 'are in I and I'

Figure 2005140623
Figure 2005140623

の像である。また、 It is a statue of. Also,

Figure 2005140623
Figure 2005140623

はエピポールである。 Is an epipole.

ここで図1に示すように、ワールド座標系の点   Here, as shown in FIG.

Figure 2005140623
Figure 2005140623

が異なる複数の画像に撮影されている場合、それぞれの画像に写っている If the images are taken in different images, they appear in each image

Figure 2005140623
Figure 2005140623

の像を対応点と呼ぶ。すなわち、図1においては、画像I上の点mの、画像I′上における対応点はm′であり、逆にm′の画像Iにおける対応点はmである。もちろん、複数の画像に重複して撮影されている部分が多ければ、それだけ対応点の数は多い。 Is called a corresponding point. That is, in FIG. 1, the corresponding point on the image I ′ of the point m on the image I is m ′, and conversely, the corresponding point on the image I of m ′ is m. Of course, if there are a large number of portions that are captured in duplicate in a plurality of images, the number of corresponding points increases accordingly.

さて、ステレオによる測量の原理は以下のとおりである。カメラ中心の位置を変えて撮影した2枚の画像上における参照物体の対応点、すなわち、ワールド座標系での同一位置が、それぞれの画像に写っている位置の画像座標値がわかれば、それぞれの画像を撮影したカメラの射影行列、すなわちワールド座標中のある点が画像中のどの点に射影されたかを計算するための行列がわかる。どのようなカメラモデルを仮定するかにより、必要な対応点の数は異なる。このとき、必要な対応点の画素座標値だけが既知であると、被写体のもとの3次元座標値は相対的なスケールでしか復元できない。   Now, the principle of surveying by stereo is as follows. If the corresponding point of the reference object on the two images taken by changing the center position of the camera, that is, the image coordinate value of the position where the same position in the world coordinate system is reflected in each image is known, A projection matrix of the camera that has taken the image, that is, a matrix for calculating to which point in the image a certain point in the world coordinates is projected is known. The number of corresponding points required varies depending on what camera model is assumed. At this time, if only the pixel coordinate values of the necessary corresponding points are known, the original three-dimensional coordinate values of the subject can be restored only on a relative scale.

しかし、必要な対応点が写している現実の3次元世界の点の、ワールド座標系での3次元座標値と、その対応点の組のそれぞれの画像での画像座標値がわかれば、すなわち、   However, if the three-dimensional coordinate value in the world coordinate system of the actual three-dimensional world point where the necessary corresponding point is copied and the image coordinate value in each image of the pair of corresponding points are known, that is,

Figure 2005140623
Figure 2005140623

が既知であれば、スケール因子も含めた射影行列を得ることができる。この、ワールド座標系での3次元座標値と、対応点の組のそれぞれの画像での画像座標値との組を、以下記号 If is known, a projection matrix including a scale factor can be obtained. This set of the three-dimensional coordinate value in the world coordinate system and the image coordinate value in each image of the set of corresponding points is represented by the following symbol:

Figure 2005140623
Figure 2005140623

あるいは単にSと表すこととする。 Alternatively, it is simply expressed as S.

この、Sがいくつ既知であればよいかも、どのようなカメラモデルを仮定するかにより異なってくる。例えば、非特許文献2や非特許文献3において説明されているアフィンカメラを仮定すると、4組の異なるSがわかれば、2枚の画像の射影行列を知ることができる。この事情を以下に説明する。   How many Ss should be known depends on what camera model is assumed. For example, assuming the affine camera described in Non-Patent Document 2 and Non-Patent Document 3, if four different Ss are known, the projection matrix of two images can be known. This situation will be described below.

Figure 2005140623
Figure 2005140623

をワールド座標系における3次元の点とし、mを、実際に撮影されたディジタル画像上の2次元の点とすると、一般に、撮影された画像上の点m=[u,v]Tとワールド座標空間の点 Is a three-dimensional point in the world coordinate system, and m is a two-dimensional point on the actually photographed digital image, generally, the point m = [u, v] T on the photographed image and the world coordinates Point in space

Figure 2005140623
Figure 2005140623

との間には以下の関係が成り立つ。ただし、ATは行列あるいはベクトルAの転置を表す記号である: The following relationship holds between Where A T is a symbol representing the transpose of a matrix or vector A:

Figure 2005140623
Figure 2005140623

ここでsはスケール因子、Pは3行4列の射影行列である。 Here, s is a scale factor, and P is a 3 × 4 projection matrix.

アフィンカメラを仮定して、行列Pの未知の成分をpij(i=1,2;j=1,2,3,4)で表すと、非特許文献2、非特許文献3に示されているように、一般に(1)式は以下のように簡略化される: Assuming an affine camera, the unknown component of the matrix P is represented by p ij (i = 1, 2; j = 1, 2, 3, 4), as shown in Non-Patent Document 2 and Non-Patent Document 3. In general, equation (1) can be simplified as follows:

Figure 2005140623
Figure 2005140623

したがって、2枚の画像I,I′を撮影したアフィンカメラの射影行列をP,P′、その未知の成分をpij,p'ij(i=1,2;j=1,2,3,4)とし、あるワールド座標の点 Accordingly, the projection matrices of the affine camera that captured the two images I and I ′ are P and P ′, and the unknown components thereof are p ij and p ′ ij (i = 1, 2; j = 1, 2, 3, 4) and a point in world coordinates

Figure 2005140623
Figure 2005140623

が画像I,I′上の対応点m=[u,v]T,m′=[u′,v′]Tに射影されたとすると、次の式が成り立つ: Is projected to corresponding points m = [u, v] T , m ′ = [u ′, v ′] T on the images I and I ′, the following equation holds:

Figure 2005140623
Figure 2005140623

したがって、アフィンカメラを仮定した射影行列を求める場合、(4)式の右辺の行列には16個の未知数があり、1つの3次元ワールド座標及び画像上の対応点ペアSごとに4つの方程式が出てくるので、4組の情報がわかればよいことになる。   Therefore, when obtaining a projection matrix assuming an affine camera, there are 16 unknowns in the matrix on the right side of equation (4), and there are four equations for each three-dimensional world coordinate and corresponding point pair S on the image. As it comes out, you only need to know 4 sets of information.

したがって、いったん射影行列P及びP′が求まれば、ワールド座標における未知の点   Therefore, once the projection matrices P and P ′ are obtained, unknown points in world coordinates

Figure 2005140623
Figure 2005140623

があったとき、その点 When there was

Figure 2005140623
Figure 2005140623

をそれぞれの画像に射影した点m,m′を見つけることにより、(4)式によって点 By finding the points m and m 'that are projected onto each image,

Figure 2005140623
Figure 2005140623

を求めることができる。これを利用すれば、2枚の画像に撮影された物体上の計測したい点の、2枚の画像上での位置を求めてそのワールド座標での距離を求めれば、撮影されている物体の実寸がわかることになる。 Can be requested. If this is used, the actual size of the object being photographed can be obtained by obtaining the position of the point to be measured on the object photographed in the two images on the two images and determining the distance in the world coordinates. Will be understood.

しかしながらこの方法では、測定の対象となる物体のワールド座標系の点が画像上のどこに射影されているかを、少なくとも2枚の画像にわたり、求めなければならない、という問題があった。また、一方の画像Iにおいて、測定の対象点の像を指定し、他方の画像I′上で対応点探索により対応点を求めたとしても、誤対応が生じると正確な結果が得られない、という問題があった。   However, this method has a problem in that it is necessary to determine where on the image the point of the object to be measured in the world coordinate system is projected over at least two images. In addition, even if an image of a measurement target point is designated in one image I and a corresponding point is obtained by searching for a corresponding point on the other image I ′, an accurate result cannot be obtained if an incorrect correspondence occurs. There was a problem.

従来の手法においては、この対応点を正確に求めることによって、計測の精度を向上しようとするものが開示されている。例えば、特許文献1においては、2枚の画像を平行化することによって対応点付けを行う手法が開示されている。また、特許文献2においては、複数カメラにおいて撮影された画像において、マーカーの位置の対応位置を求めるために、探索窓位置を更新しつつ探索する手法が関示されている。   In the conventional technique, a technique for improving the measurement accuracy by accurately obtaining the corresponding points is disclosed. For example, Patent Document 1 discloses a method of assigning corresponding points by parallelizing two images. Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique of searching while updating the search window position in order to obtain the corresponding position of the marker position in images taken by a plurality of cameras.

しかしながら、特許文献1、特許文献2ともに、計測の対象となる範囲を直感的に指定できない、という問題があった。
特開2003−185434 特開2001−141418 Toni Scenk著,村井俊治・近津博文監訳,「デジタル写真測量」,(社)日本測量協会発行,2002年 Gang Xu and Zhengyon Zhang, "Epipolar Geometry in Stereo, Motion and Object Recognition: A Unified Approach", Kluwer Academic Publishers, 1996 佐藤淳著、「コンピュータ・ビジョン−視覚の幾何学−」、コロナ社発行、1999年
However, both Patent Document 1 and Patent Document 2 have a problem that the range to be measured cannot be specified intuitively.
JP 2003-185434 A JP 2001-141418 A Toni Scenk, translated by Toshiharu Murai and Hirofumi Chitsutsu, “Digital Photogrammetry”, published by Japan Surveying Association, 2002 Gang Xu and Zhengyon Zhang, "Epipolar Geometry in Stereo, Motion and Object Recognition: A Unified Approach", Kluwer Academic Publishers, 1996 Sato, "Computer Vision-Geometry of Vision", published by Corona, 1999

本発明は、画像に撮影されている対象の大きさを計測しようとする際に、1枚の画像上において測定範囲を矩形(すなわち長方形)等で設定すれば、他の画像上において対応点を指定することなく、その測定範囲のワールド座標系における座標値を得て実寸を算出し、その測定範囲を他の画像に合成することにより実寸比較することが可能となる、画像計測方法及び装置を提供することにある。   According to the present invention, when measuring the size of an object photographed in an image, if a measurement range is set as a rectangle (that is, a rectangle) on one image, a corresponding point on another image is set. An image measurement method and apparatus capable of comparing the actual size by obtaining the coordinate value in the world coordinate system of the measurement range without specifying and calculating the actual size and combining the measurement range with another image. It is to provide.

本発明の画像計測方法は、
測定対象、及び、少なくとも1つの頂点を形成する3つの辺の長さが既知である立方体または直方体または平行六面体をなす参照物体が同時に撮影された少なくとも2枚の画像から、測定対象を囲む矩形領城をなす頂点の3次元座標値を算出する画像計測方法であって、
測定対象及び参照物体が同時に撮影された少なくとも2枚の画像I,I′を入力する段階と、
参照物体の像の4つの頂点の像を入力された2枚の画像I,I′において取得することにより、2枚の画像I,I′の撮影時の、アフィンカメラを仮定した射影行列、及び2枚の画像I,I′間の拘束関係を与える拘束行列を算出し記憶する段階と、
実寸測定の対象となる領域を対象領域Mとして、一方の画像Iにおいて、対象領域Mを囲む画面上での2次元の矩形の指定を受け入れて記憶し、その矩形の辺を、参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で表した際の結合係数を算出し、矩形の形状を修正して矩形の画面上での頂点位置を記憶する段階と、
他方の画像I′において、先に指定された矩形の対応領域を対応対象領域M′として、対応対象領域M′を算出し、対応対象領域M′の画面上での頂点位置を記憶する段階と、
算出された射影行列と、対象領域Mでの頂点位置と、対応対象領域M′での頂点位置を用いて、対象領域Mの頂点の3次元ワールド座標を算出する段階と、を有する。
The image measurement method of the present invention includes:
A rectangular area surrounding the measurement object from at least two images of the measurement object and a reference object forming a cube, a rectangular parallelepiped, or a parallelepiped whose length of three sides forming at least one vertex is known. An image measurement method for calculating a three-dimensional coordinate value of a vertex forming a castle,
Inputting at least two images I and I ′ in which a measurement object and a reference object are simultaneously photographed;
A projection matrix assuming an affine camera at the time of photographing two images I and I ′ by acquiring images of four vertices of the reference object image in the input two images I and I ′, and Calculating and storing a constraint matrix that provides a constraint relationship between the two images I and I ′;
A region to be subjected to actual size measurement is set as a target region M, and a designation of a two-dimensional rectangle on the screen surrounding the target region M is received and stored in one image I, and the sides of the rectangle are stored in the image of the reference object. Calculating a coupling coefficient when represented by a linear combination of three side images intersecting at one vertex, correcting the shape of the rectangle, and storing the vertex position on the rectangular screen;
In the other image I ′, a corresponding target area M ′ is calculated using the previously designated rectangular corresponding area as the corresponding target area M ′, and the vertex position on the screen of the corresponding target area M ′ is stored. ,
Using the calculated projection matrix, the vertex position in the target area M, and the vertex position in the corresponding target area M ′ to calculate the three-dimensional world coordinates of the vertices of the target area M.

本発明においては、射影行列や拘束行列を算出する際には、参照物体の実寸、形状の情報を取得することが好ましい。   In the present invention, when calculating a projection matrix or a constraint matrix, it is preferable to acquire information on the actual size and shape of the reference object.

本発明では、画像IまたはI′上での対象領域頂点位置とその3次元ワールド座標を用いて、他の画像あるいは3次元シーンに合成して表示するようにすることができる。   In the present invention, using the target region vertex position on the image I or I ′ and its three-dimensional world coordinates, it can be combined with another image or a three-dimensional scene and displayed.

また本発明では、矩形領域の画面上での頂点位置を対応対象領域として記憶する段階は、例えば、算出された結合係数を用いて、参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で対応対象領域の画面上での頂点位置を算出し評価する段階と、算出された2画面間の拘束を与える行列を用いて、対象領域の頂点の他方の画像I′での対応位置を算出し評価する段階と、一方の画像Iにおける対象領域M内の輝度情報から得られる特徴点と、他方の画像I′における対応対象領域M′内の輝度情報から得られる特徴点との間の類似度を算出し評価する段階と、各評価する段階による評価値を基に対応対象領域M′の位置、形状を変化させつつ、対応対象領域M′を決定する段階と、を有する。   Further, in the present invention, the step of storing the vertex position on the screen of the rectangular area as the corresponding target area is performed by using, for example, the calculated coupling coefficient of three sides that intersect at one vertex of the reference object image. Using the step of calculating and evaluating the vertex position on the screen of the corresponding target area by linear combination of the images, and using the matrix that gives the constraint between the calculated two screens, the other image I ′ of the vertex of the target area A step of calculating and evaluating the corresponding position, a feature point obtained from the luminance information in the target region M in one image I, and a feature point obtained from the luminance information in the corresponding target region M ′ in the other image I ′ And calculating the degree of similarity between them, and determining the corresponding target region M ′ while changing the position and shape of the corresponding target region M ′ based on the evaluation values obtained in the respective evaluating steps. .

さらに本発明では、一方の画像Iで指定した対象領域Mの、他方の画像I′における対応対象領域M′を決定した後に、その対応対象領域M′を新たな対象領域とみなし、再び一方の画像Iにおける新たな対応対象領域を求めるようにしてもよい。   Further, in the present invention, after determining the corresponding target area M ′ in the other image I ′ of the target area M specified in one image I, the corresponding target area M ′ is regarded as a new target area, and again A new corresponding target area in the image I may be obtained.

本発明の画像計測装置は、測定対象、及び、少なくとも1つの頂点を形成する3つの辺の長さが既知である立方体または直方体または平行六面体をなす参照物体が同時に撮影された少なくとも2枚の画像から、測定対象を囲む矩形領城をなす頂点の3次元座標値を算出する画像計測装置であって、
測定対象及び参照物体が同時に撮影された少なくとも2枚の画像を入力し、記憶及び/または表示するための画像入力手段と、
参照物体の像の4つの頂点の像を前記入力された2枚の画像において取得することにより、2枚の画像の撮影時の、アフィンカメラを仮定した射影行列、及び2枚の画像間の拘束関係を与える行列を算出し記憶する撮影情報算出手段と、
実寸測定の対象となる領域を対象領域として、2枚の画像のうちの一方の画像において、対象領域を囲む画面上での2次元の矩形の指定を受け入れて記憶し、その矩形の辺を、参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で表した際の結合係数を算出し、矩形の形状を修正して矩形の画面上での頂点位置を記憶する対象領域決定手段と、
2枚の画像のうちの他方の画像において、対象領域決定手段での矩形に対応する領域を対応対象領域として算出し、対応対象領域の画面上での頂点位置を記憶する対応対象領域決定手段と、
射影行列と、対象領域での頂点位置と、対応対象領域での頂点位置を用いて、対象領域の頂点の3次元座標を算出する対象領域実寸算出手段と、
を有する。
The image measuring apparatus according to the present invention includes at least two images of a measurement object and a reference object having a cube, a rectangular parallelepiped, or a parallelepiped whose length of three sides forming at least one vertex is known. From the image measuring device for calculating the three-dimensional coordinate value of the vertex forming the rectangular castle surrounding the measurement object,
Image input means for inputting, storing and / or displaying at least two images of the measurement object and the reference object taken simultaneously;
By acquiring the images of the four vertices of the reference object image in the two input images, a projection matrix assuming an affine camera and the constraint between the two images at the time of photographing the two images Photographing information calculation means for calculating and storing a matrix for giving a relationship;
With the target area of the actual size measurement as the target area, in one of the two images, the designation of a two-dimensional rectangle on the screen surrounding the target area is accepted and stored, and the sides of the rectangle are The target area for storing the vertex position on the rectangular screen by calculating the coupling coefficient when the image of the reference object is represented by the linear combination of the three side images that intersect at one vertex. A determination means;
Corresponding target area determining means for calculating the area corresponding to the rectangle in the target area determining means as the corresponding target area in the other of the two images and storing the vertex position on the screen of the corresponding target area; ,
A target area actual size calculating means for calculating the three-dimensional coordinates of the vertices of the target area using the projection matrix, the vertex position in the target area, and the vertex position in the corresponding target area;
Have

本発明は、画像に撮影されている測定対象の範囲を片方の画像のみで矩形により指定しさえすれば、その範囲の実寸を得ることができるというと効果がある。   The present invention has an effect that the actual size of the range can be obtained as long as the range of the measurement object captured in the image is specified by a rectangle only with one image.

次に、本発明の好ましい実施の形態について、図面を参照して説明する。図2は、本発明の実施の一形態の計測装置の全体を示すブロック図である。図3は、この計測装置の細部を示すブロック図である。   Next, a preferred embodiment of the present invention will be described with reference to the drawings. FIG. 2 is a block diagram showing the entire measuring apparatus according to the embodiment of the present invention. FIG. 3 is a block diagram showing details of the measuring apparatus.

計測装置は、測定対象、及び、少なくとも1つの頂点を形成する3つの辺の長さが既知である立方体または直方体または平行六面体をなす参照物体が同時に撮影された少なくとも2枚の画像から、測定対象を囲む矩形領城(長方形領域)をなす頂点の3次元座標値を算出するものであって、画像入力部100と、撮影情報算出部200と、対象領域決定部300と、対応対象領域決定部400と、対象領域実寸算出部500と、対象領域表示部600と、を備えている。   The measuring device is a measuring object based on a measuring object and at least two images of a cube, a rectangular parallelepiped, or a parallelepiped reference object whose lengths of three sides forming at least one vertex are known. 3D coordinate values of vertices forming a rectangular castle (rectangular region) surrounding the image, an image input unit 100, an imaging information calculation unit 200, a target region determination unit 300, and a corresponding target region determination unit 400, a target area actual size calculation unit 500, and a target area display unit 600.

画像入力部100は、画像読込部101と画像記憶部102と画像表示部103とを備えており、測定対象、及び、立方体または直方体または平行六面体をなす参照物体が同時に撮影された少なくとも2枚の画像を入力し、記憶あるいは表示する。撮影情報算出部200は、参照物体情報入力部201と参照物体抽出部202と対応点取得部203と対応関係算出・記憶部204と射影行列算出・記憶部205とを備えており、参照物体の実寸、形状の情報を取得し、参照物体の像の4つの頂点の像を入力された2枚の画像(一方の画像と他方の画像)において取得することにより、2枚の画像の撮影時の、アフィンカメラを仮定した射影行列、及び2枚の画像間の拘束関係を与える行列を算出し記憶する。対象領域決定部300は、基底ベクトル導出部301と対象領域選択部302と結合係数導出部303と領域変形部304と領域位置記憶部305とを備えており、一方の画像において実寸測定の対象となる領域(これを対応領域という)を囲む画面上での2次元の矩形の指定を受け入れて記憶し、その矩形の辺を、参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で表した際の結合係数を算出し、その矩形の形状を修正して矩形の画面上での頂点位置を記憶する。   The image input unit 100 includes an image reading unit 101, an image storage unit 102, and an image display unit 103, and includes at least two images of a measurement object and a reference object that forms a cube, a rectangular parallelepiped, or a parallelepiped at the same time. Enter an image and store or display it. The imaging information calculation unit 200 includes a reference object information input unit 201, a reference object extraction unit 202, a corresponding point acquisition unit 203, a correspondence calculation / storage unit 204, and a projection matrix calculation / storage unit 205. By acquiring the actual size and shape information, and acquiring the images of the four vertices of the reference object image in the input two images (one image and the other image), Then, a projection matrix assuming an affine camera and a matrix giving a constraint relationship between two images are calculated and stored. The target region determining unit 300 includes a base vector deriving unit 301, a target region selecting unit 302, a coupling coefficient deriving unit 303, a region deforming unit 304, and a region position storage unit 305. Accepts and stores a specification of a two-dimensional rectangle on the screen that encloses a region (this is called a corresponding region), and the side of the rectangle is an image of three sides that intersect at one vertex of the reference object image. The coupling coefficient when expressed by linear coupling is calculated, the shape of the rectangle is corrected, and the vertex position on the rectangular screen is stored.

対応対象領域決定部400は、領域形状算出部401と領域位置算出部402と特徴量算出部403と対応領域移動・評価部404とを備えており、他方の画像において、先に指定された矩形に対応する領域(これを対応対象領域という)を算出し、対応対象領域の画面上での頂点位置を記憶する。特に、領域形状算出部401は、算出された結合係数を用いて、参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合によって、対応対象領域の画面上での頂点位置を算出し評価する。領域位置算出部402は、算出された2画面間の拘束を与える行列を用いて、対象領域の頂点の別の画像での対応位置を算出し評価する。特徴量算出部403は、一方の画像における対象領域内の輝度情報から得られる特徴点と、他方の画像における対応対象領域内の輝度情報から得られる特徴点との間の類似度を算出し評価する。そして対応領域移動・評価部404は、領域形状算出部401、領域位置算出部402及び特徴量算出部403による評価値を基に、対応対象領域位置、形状を変化させつつ、対応対象領域を決定する。   The correspondence target region determination unit 400 includes a region shape calculation unit 401, a region position calculation unit 402, a feature amount calculation unit 403, and a corresponding region movement / evaluation unit 404. In the other image, the previously specified rectangle An area corresponding to (this is called a corresponding target area) is calculated, and a vertex position on the screen of the corresponding target area is stored. In particular, the region shape calculation unit 401 uses the calculated coupling coefficient to determine the vertex position on the screen of the corresponding target region by linear combination of three side images that intersect at one vertex of the image of the reference object. Calculate and evaluate. The region position calculation unit 402 calculates and evaluates the corresponding position of the vertex of the target region in another image using the calculated matrix that gives the constraint between the two screens. The feature amount calculation unit 403 calculates and evaluates the similarity between the feature point obtained from the luminance information in the target region in one image and the feature point obtained from the luminance information in the corresponding target region in the other image. To do. Then, the corresponding region movement / evaluation unit 404 determines the corresponding target region while changing the corresponding target region position and shape based on the evaluation values from the region shape calculating unit 401, the region position calculating unit 402, and the feature amount calculating unit 403. To do.

対象領域実寸算出部500は、世界座標算出部501と相対座標算出部502とを備えており、算出された射影行列と、対象領域決定部300により算出され記憶された対象領域の頂点位置と、対応対象領域決定部400により算出され記憶された対応対象領域の頂点位置とを用いて、対象領域の頂点の3次元座標を算出する。対象領域表示部600は、テクスチャオブジェクト生成部601とポリゴン生成部602と画像生成部603と表示部604とを備えており、入力された画像と、対象領域の画面上での頂点位置と、その3次元座標を用いて、対象領域内の画像データを他の画像あるいは3次元シーンに合成して表示する機能を有する。   The target area actual size calculation unit 500 includes a world coordinate calculation unit 501 and a relative coordinate calculation unit 502. The calculated projection matrix, the vertex position of the target area calculated and stored by the target area determination unit 300, and Using the vertex position of the corresponding target area calculated and stored by the corresponding target area determining unit 400, the three-dimensional coordinates of the vertex of the target area are calculated. The target area display unit 600 includes a texture object generation unit 601, a polygon generation unit 602, an image generation unit 603, and a display unit 604. The input image, the vertex position on the screen of the target area, Using three-dimensional coordinates, the image data in the target area is displayed by being combined with another image or a three-dimensional scene.

次に、この計測装置を用いた、測定対象及び参照物体が同時に撮影された少なくとも2枚の画像から測定対象を囲む矩形領城をなす頂点の3次元座標値を算出する処理を説明する。ここで参照物体は、少なくとも1つの頂点を形成する3つの辺の長さが既知である立方体または直方体または平行六面体である。   Next, a process for calculating the three-dimensional coordinate values of the vertices forming a rectangular castle surrounding the measurement object from at least two images of the measurement object and the reference object simultaneously photographed using the measurement apparatus will be described. Here, the reference object is a cube, a rectangular parallelepiped or a parallelepiped whose lengths of three sides forming at least one vertex are known.

まず、画像入力部100の画像読込部101において、測定対象及び参照物体が撮影された少なくとも2枚の画像を入力する。このとき、少なくとも2枚の画像において、撮影するカメラのカメラ中心は移動していることが望ましく、参照物体のひとつの頂点を通る3つの辺が画像上に写っていることが望ましい。また、この3つの辺の像は、画像上において数画素以上の長さを有することが望ましい。また、3つの辺のうち1つは現実の世界において鉛直方向であり、他の2辺はこの鉛直方向の辺に垂直であることが望ましい。以下は、参照物体のひとつの頂点を通る3つの辺が上記の条件を満たしているものとして説明を進める。なお、鉛直ではない2辺は、互いに垂直であることが好ましいが、同一直線上でなければ、垂直でなくてもよい。以下、画像を2枚とし、それぞれの画像をI,I′とする。   First, the image reading unit 101 of the image input unit 100 inputs at least two images obtained by photographing the measurement target and the reference object. At this time, in at least two images, it is desirable that the camera center of the camera to be photographed is moved, and it is desirable that three sides passing through one vertex of the reference object appear on the image. Further, it is desirable that the images of these three sides have a length of several pixels or more on the image. Further, it is desirable that one of the three sides is in the vertical direction in the real world, and the other two sides are perpendicular to the side in the vertical direction. In the following description, it is assumed that three sides passing through one vertex of the reference object satisfy the above condition. The two non-vertical sides are preferably perpendicular to each other, but may not be perpendicular as long as they are not on the same straight line. Hereinafter, the number of images is two, and the images are I and I ′.

次に、画像入力部100の画像記憶部102は、画像読込部101で読み込んだ画像を記憶し、またその画像を画像表示部103が表示する。この画像の表示は、後述する対象領域決定部300の対象領域選択部302において、ユーザによる矩形の入力を受け付けるためのものである。   Next, the image storage unit 102 of the image input unit 100 stores the image read by the image reading unit 101 and the image display unit 103 displays the image. The display of the image is for receiving a rectangular input by the user in a target area selection unit 302 of the target area determination unit 300 described later.

以上のようにして画像入力部100での画像の入力と記憶とが終了すると、次に、撮影情報算出部200が起動し、その参照物体情報入力部201が、あらかじめ入力しておいた参照物体の上述の3つの辺の実寸及び形状を取得する。以下、参照物体の3つの辺が交わる頂点の3次元ワールド座標をX0、X0から引いた鉛直下向きに相当する辺をなす参照物体の頂点の3次元ワールド座標をX2とする。また、ワールド座標系においてXoを原点とみなし、X02を下向きY軸とみなし、X0を通る残りの2つの辺をX軸、Z軸とみなしたときに、これらX軸、Y軸、Z軸が右手系をなすようにX軸、Z軸を取るものとし、参照物体の残りの2つの辺の、X軸をなす辺をX01、Z軸をなす辺をX03とする。本発明においては、ワールド座標系の原点はどこにとっても構わないので、上述のようにXoを原点とし、X01をX軸、X02をY軸、X03をZ軸とすることにする。 When the input and storage of the image in the image input unit 100 are completed as described above, the imaging information calculation unit 200 is activated next, and the reference object information input unit 201 inputs the reference object previously input. The actual size and shape of the above three sides are acquired. Hereinafter, the three-dimensional world coordinates of the vertex where the three sides of the reference object intersect are X 0 , and the three-dimensional world coordinates of the vertex of the reference object forming the side corresponding to the vertically downward direction subtracted from X 0 are X 2 . In the world coordinate system, when X o is regarded as the origin, X 0 X 2 is regarded as the downward Y axis, and the remaining two sides passing through X 0 are regarded as the X axis and the Z axis, these X axis, Y The X and Z axes are taken so that the axis and the Z axis form a right-handed system. Of the remaining two sides of the reference object, the side forming the X axis is X 0 X 1 and the side forming the Z axis is X 0. and X 3. In the present invention, since it may be for where the origin of the world coordinate system, the X o as the origin as described above, X 0 X axis X 1, Y axis X 0 X 2, X 0 X 3 and Z-axis Let's say.

参照物体情報入力部201は、X01,X02,X03の長さを取得することになる。この長さはユーザが手入力によって入力してもよいし、あらかじめ既知のものとして設定されていてもよいし、例えばネットワークに接続されたデータベースサーバ内のテンプレートモデルと参照物体とを照合し、照合結果に応じてテンプレートモデルでの長さを取得するようにしてもよい。 The reference object information input unit 201 acquires the lengths X 0 X 1 , X 0 X 2 , and X 0 X 3 . This length may be input manually by the user, or may be set in advance as a known one. For example, a template model in a database server connected to a network is compared with a reference object, and the length is verified. You may make it acquire the length in a template model according to a result.

次に、参照物体抽出部202が、画像I,I′において参照物体の3つの辺をなす4つの頂点の像を抽出する。すなわち、2枚の画像における4つの頂点の像の座標値を、それぞれの画像に設定された2次元座標値により求める。これは、例えばユーザにより画面上にこれらの画像を表示しながら手入力によって指定してもよいし、参照物体の形状が既知であるとしてHough変換により辺を抽出してあらかじめ登録されていたモデルとのテンプレートマッチングを行ってもよい。4つの頂点の像が抽出されると、対応点取得部203が、4つの頂点の画像I,I′における像を対応付ける。参照物体抽出部202での頂点像の抽出や対応点取得部203における対応付けは、前記のように手入力にて同時に実施してもよい。対応点取得部203での対応付けには、既知の手法、例えば、ブロックマッチングやオプティカルフローを用いてもよい。   Next, the reference object extraction unit 202 extracts images of four vertices forming three sides of the reference object in the images I and I ′. That is, the coordinate values of the four vertex images in the two images are obtained from the two-dimensional coordinate values set in the respective images. This may be specified by manual input while displaying these images on the screen by the user, for example, and a model that has been registered in advance by extracting edges by Hough transform assuming that the shape of the reference object is known. Template matching may be performed. When the images of the four vertices are extracted, the corresponding point acquisition unit 203 associates the images in the four vertex images I and I ′. The extraction of the vertex image in the reference object extraction unit 202 and the association in the corresponding point acquisition unit 203 may be simultaneously performed by manual input as described above. A known method, for example, block matching or optical flow may be used for association in the corresponding point acquisition unit 203.

以下、参照物体の4つの頂点X0,X1,X2,X3の画像Iにおける像をそれぞれ Hereinafter, the images in the image I of the four vertices X 0 , X 1 , X 2 , X 3 of the reference object are respectively shown.

Figure 2005140623
Figure 2005140623

とおき、画像I′における像をそれぞれ And the images in image I '

Figure 2005140623
Figure 2005140623

とおく。例えば図4に示す far. For example, as shown in FIG.

Figure 2005140623
Figure 2005140623

はその例である。図4は、対応領域の探索を表す図である。ここで図4(a)は一方の画像Iを、図4(b)は他方の画像I′を示しており、 Is an example. FIG. 4 is a diagram illustrating a search for a corresponding area. 4A shows one image I, and FIG. 4B shows the other image I ′.

Figure 2005140623
Figure 2005140623

はそれぞれ画像I,I′における参照物体の頂点の像であり、mi,m'i(i=0,1,2,3)は矩形領域の頂点を表している。また Are the images of the vertices of the reference objects in the images I and I ′, respectively, and m i and m ′ i (i = 0, 1, 2, 3) represent the vertices of the rectangular area. Also

Figure 2005140623
Figure 2005140623

は、それぞれ、頂点miの画像I′におけるエピポーラ線を示す。 Respectively show epipolar lines in the image I 'of the vertex m i.

次に、対応関係算出・記憶部204は、   Next, the correspondence calculation / storage unit 204

Figure 2005140623
Figure 2005140623

の座標値から、画像I及びI′間に成り立つ拘束関係を用いて、拘束行列を求める。 From the coordinate values, a constraint matrix is obtained using a constraint relationship established between the images I and I ′.

一般に、撮影時のカメラ中心が異なる2つの画像において、対応点、すなわち同じ3次元ワールド座標の点のそれぞれの画像上での像を、それぞれm,m′とし、m,m′の同次座標表記をそれぞれ   In general, in two images having different camera centers at the time of shooting, the corresponding points, that is, the images on the respective images of the same three-dimensional world coordinate points are denoted by m and m ′, respectively, and the homogeneous coordinates of m and m ′. Each notation

Figure 2005140623
Figure 2005140623

とすると、 Then,

Figure 2005140623
Figure 2005140623

という拘束式が成り立つ。これを一般化エピポーラ方程式といい、 The constraint equation holds. This is called the generalized epipolar equation,

Figure 2005140623
Figure 2005140623

は3行3列の行列であって、Fundamental MatrixあるいはF行列などといい、非特許文献1〜3記載のように、アフィンカメラを仮定すると、4組の対応点が既知であれば、このF行列の成分を計算できることが知られている。 Is a matrix of 3 rows and 3 columns, and is called a Fundamental Matrix or F matrix. As described in Non-Patent Documents 1 to 3, assuming an affine camera, if four sets of corresponding points are known, this F It is known that matrix components can be calculated.

また、一方の画像I上の点mの他方の画像I′における対応点は、次の式を満たす画像I′上の直線   In addition, the corresponding point in the other image I ′ of the point m on one image I is a straight line on the image I ′ that satisfies the following equation:

Figure 2005140623
Figure 2005140623

上にあるという拘束条件も満たしていることが知られている。 It is known that the constraint condition of being above is also satisfied.

Figure 2005140623
Figure 2005140623

このような直線   Straight line like this

Figure 2005140623
Figure 2005140623

を一般にエピポーラ線と呼ぶ。 Is generally called an epipolar line.

なお、カメラの焦点距離などの内部パラメータが既知であれば、   If internal parameters such as camera focal length are known,

Figure 2005140623
Figure 2005140623

の代わりにEssential MatrixあるいはE行列などと呼ばれる行列を求めることができるが、本発明では、特に区別せず拘束行列と呼び、改めて Can be obtained instead of an essential matrix or an E matrix, but in the present invention, it is called a constraint matrix without distinction.

Figure 2005140623
Figure 2005140623

で表すことにする。すなわち、対応関係算出・記憶部204は、 It will be expressed as That is, the correspondence calculation / storage unit 204

Figure 2005140623
Figure 2005140623

を用いて、拘束行列 Using the constraint matrix

Figure 2005140623
Figure 2005140623

を求めて記憶することになる。 Will be remembered.

次に、射影行列算出・記憶部205が、   Next, the projection matrix calculation / storage unit 205

Figure 2005140623
Figure 2005140623

を用いて、背景技術で述べた方法によって、一方の画像Iの撮影時のアフィン射影行列P、及び他方の画像I′の撮影時のアフィン射影行列P′を算出し、記憶する。 Is used to calculate and store the affine projection matrix P at the time of shooting one image I and the affine projection matrix P ′ at the time of shooting the other image I ′.

次に対象領域決定部300の詳細について説明する。対象領域決定部300は、画像Iにおける測定の対象となる部分を囲む矩形の頂点座標値を決定する。   Next, details of the target area determination unit 300 will be described. The target area determination unit 300 determines rectangular vertex coordinate values surrounding a portion to be measured in the image I.

まず、基底ベクトル導出部301は、前記の   First, the basis vector deriving unit 301

Figure 2005140623
Figure 2005140623

から、ワールド座標系における From the world coordinate system

Figure 2005140623
Figure 2005140623

の像、すなわち、 The image of

Figure 2005140623
Figure 2005140623

を求める。 Ask for.

一方、対象領域選択部302は、測定の対象となる領域を設定する。その際、ユーザからの入力により、一方の画像I上で長方形領域を選択してもよいし、ある対象を囲むような長方形領域を選択してもよい。このようにして設定した領域の頂点を、以下、mi(i=0,1,2,3)とおく。図4(a)の人物像を囲む領域はその例である。本実施形態は、この矩形領域を構成するmi(i=0,1,2,3)の、他方の画像I′における対応点m'i(i=0,1,2,3)を求めることができる点が主たる特徴である。 On the other hand, the target area selection unit 302 sets an area to be measured. At this time, a rectangular area on one image I may be selected by an input from the user, or a rectangular area surrounding a certain target may be selected. The vertices of the area set in this way are hereinafter referred to as m i (i = 0, 1, 2, 3). An example of the region surrounding the person image in FIG. In the present embodiment, corresponding points m ′ i (i = 0, 1, 2, 3) in the other image I ′ of m i (i = 0, 1, 2, 3) constituting this rectangular area are obtained. The main feature is that it can.

まず、mi(i=0,1,2,3)の3次元ワールド座標系での座標値をMi(i=0,1,2,3)とする。3次元ワールド座標系において、長方形Mi(i=0,1,2,3)は、参照物体のY軸をなすX02に平行な縦辺(図4(a)のm12とm30がワールド座標系でなす辺)と、参照物体のZX平面、すなわちX01とX03とで張られる面に平行な横辺(図4(B)のm01とm23がワールド座標系でなす辺)をなすものとする。 First, let M i (i = 0, 1, 2, 3) be the coordinate values of m i (i = 0, 1, 2, 3) in the three-dimensional world coordinate system. In the three-dimensional world coordinate system, the rectangle M i (i = 0, 1, 2, 3) is a vertical side parallel to X 0 X 2 forming the Y axis of the reference object (m 1 m 2 in FIG. 4A). and m 3 m 0 and sides) formed by the world coordinate system, ZX plane of the reference object, namely X 0 X 1 and X 0 m of X 3 and parallel to the plane spanned by the horizontal side (FIG. 4 (B) 0 Assume that m 1 and m 2 m 3 form an edge in the world coordinate system.

参照物体のY軸が3次元ワールド座標系の鉛直線に平行であり、参照物体のZX面が3次元ワールド座標系の水平面と平行であれば、長方形Mi(i=0,1,2,3)は3次元ワールド座標系において水平面に鉛直な長方形で表される面を表すことになる。 If the Y axis of the reference object is parallel to the vertical line of the 3D world coordinate system and the ZX plane of the reference object is parallel to the horizontal plane of the 3D world coordinate system, then the rectangle M i (i = 0, 1, 2, 3) represents a plane represented by a rectangle perpendicular to the horizontal plane in the three-dimensional world coordinate system.

さて、アフィンカメラにおいては、ワールド座標系で平行な直線の組は、画像上でも平行な直線の組に射影されるという性質があるため、ワールド座標系で水平面に平行な直線は画像上でも水平面に平行である。したがって、例えば、   In the affine camera, a set of straight lines parallel to the world coordinate system is projected onto a set of parallel straight lines on the image. Therefore, a straight line parallel to the horizontal plane in the world coordinate system is projected on the horizontal plane on the image. Parallel to So, for example,

Figure 2005140623
Figure 2005140623

と表すことができるとすると、そのアフィンカメラによる一方の画像Iへの像も Can be expressed as an image on one image I by the affine camera.

Figure 2005140623
Figure 2005140623

となり、同様にアフィンカメラによる他方の画像I′への像も Similarly, the image to the other image I 'by the affine camera is also

Figure 2005140623
Figure 2005140623

となる。 It becomes.

基底ベクトル導出部301での基底ベクトルの導出と対象領域選択部302での対象領域の選択が終わると、結合係数算出部303は、(8)式を用いて、αx,αzを求める。この段階では、 When the derivation of the base vector in the base vector deriving unit 301 and the selection of the target region in the target region selecting unit 302 are completed, the coupling coefficient calculating unit 303 obtains α x and α z using the equation (8). At this stage

Figure 2005140623
Figure 2005140623

が既知であるので、これらは容易に求められる。 Are known, since they are known.

次に、領域変形部304が、長方形Mi(i=0,1,2,3)の縦辺が参照物体のX02に平行であることから、I上の像でもmi(i=0,1,2,3)の縦辺と、 Next, since the region deforming unit 304 has the vertical side of the rectangle M i (i = 0, 1, 2, 3) parallel to X 0 X 2 of the reference object, m i (i = 0, 1, 2, 3),

Figure 2005140623
Figure 2005140623

とが平行になるようにmi(i=0,1,2,3)を移動させる。その際、縦辺の距離を保って、mi(i=0,1,2,3)の2点を移動させてもよい。 DOO moves the m i (i = 0,1,2,3) so as to be parallel. At that time, the two points m i (i = 0, 1, 2, 3) may be moved while maintaining the distance of the vertical side.

その後、領域位置記憶部305は、変形後のmi(i=0,1,2,3)を改めてmi(i=0,1,2,3)とし、メモリ上に記憶する。以上により、Iにおける矩形領域の頂点座標値mi(i=0,1,2,3)が決定され、対象領域決定部300での処理が終了する。 After that, the region position storage unit 305 changes m i (i = 0, 1, 2, 3) after deformation to m i (i = 0, 1, 2, 3) and stores it in the memory. As described above, the vertex coordinate values m i (i = 0, 1, 2, 3) of the rectangular area in I are determined, and the processing in the target area determining unit 300 ends.

次に、他方の画像I′におけるmi(i=0,1,2,3)の対応点m'i(i=0,1,2,3)を、対応対象領域決定部400が決定する。対応対象領域決定部400での処理を説明する。 Next, the corresponding target area determining unit 400 determines the corresponding points m ′ i (i = 0, 1, 2, 3) of m i (i = 0, 1, 2, 3) in the other image I ′. . Processing in the corresponding target area determination unit 400 will be described.

まず、領域形状算出部401が、対象領域決定部300の結合定数導出部303が求めた結合係数αx,αzを用いて、m'i(i=0,1,2,3)の横辺の方向ベクトルを算出し、さらに、縦辺の方向ベクトルを First, the region shape calculating unit 401 uses the coupling coefficients α x and α z obtained by the coupling constant deriving unit 303 of the target region determining unit 300 to calculate the horizontal m ′ i (i = 0, 1, 2, 3). Calculate the direction vector of the side, and further calculate the direction vector of the vertical side.

Figure 2005140623
Figure 2005140623

とする。この方向ベクトルにより、m'i(i=0,1,2,3)の形状が求まる。しかし、この領域形状算出部401での計算のみでは、画像上のどの位置にm'iがあるのかが決定できない。一方、領域位置算出部402は、エピポーラ線にかかわる拘束行列 And From this direction vector, the shape of m ′ i (i = 0, 1, 2, 3) is obtained. However, it is impossible to determine at which position on the image m ′ i exists only by the calculation by the region shape calculation unit 401. On the other hand, the region position calculation unit 402 is a constraint matrix related to epipolar lines.

Figure 2005140623
Figure 2005140623

により、mi(i=0,1,2,3)の他方の画像I′における対応点が、 Thus, the corresponding point in the other image I ′ of m i (i = 0, 1, 2, 3) is

Figure 2005140623
Figure 2005140623

上にあることを用いて、m'i(i=0,1,2,3)の位置を決定する。しかし、この領域位置算出部402での計算のみでは、エピポーラ線上のどの点がm'iであるかが決定できない。領域形状算出部401と領域位置算出部402を用いれば、m'iの形状と辺の長さを決定できるが、一意的な位置は決定できない。この段階では、miのどれか1点の対応点が求まればよいので、例えばオプティカルフロー探索やブロックマッチング法などにより、miのどれか1点の対応点を他方の画像I′上で求めて、m'iを一意的に決定することも考えられるが、miが例えば全て輝度変化のない領域内にあると、そのような対応点を探すことができない。 Using the above, the position of m ′ i (i = 0, 1, 2, 3) is determined. However, it is impossible to determine which point on the epipolar line is m ′ i only by the calculation in the region position calculation unit 402. If the region shape calculation unit 401 and the region position calculation unit 402 are used, the shape of m ′ i and the side length can be determined, but a unique position cannot be determined. At this stage, since any corresponding point of one point may Motomare of m i, for example, by optical flow discovery and block matching method, the corresponding point of any one point m i on the other image I ' It can be considered that m ′ i is uniquely determined. However, if all m i are within an area where there is no change in luminance, for example, such a corresponding point cannot be searched.

そこで、特徴量算出部403において、一方の画像Iのmi(i=0,1,2,3)で囲まれる領域内のある量と、他方の画像I′のm'i(i=0,1,2,3)で囲まれる領域内のある量とを算出する。具体的には、例えば、画像Iのmiで囲まれる領域内の特徽点を、例えば輝度値によるコーナーとしていくつか求め、各特徴点を、例えば矩形miのある頂点mn(n∈{0,1,2,3})を始点として、その矩形の横辺、縦辺を基底ベクトルとしてその一次結合で表し、その特徴点の座標の平均位置(重心位置)を算出する。同様に、その特徴点の他方の画像I′のm'iで囲まれる領域内における対応点を、例えばブロックマッチング法やオプティイカルフロー探索により求め、原点としたmnに対応するm'nを始点とし、m'iの縦辺、横辺を基底ベクトルとしてその対応特徴点の座標の平均位置(重心位置)を算出し、両者の結合係数を比較する、などの方法が用いられる。 Therefore, in the feature amount calculation unit 403, a certain amount in an area surrounded by m i (i = 0, 1, 2, 3) of one image I and m ′ i (i = 0) of the other image I ′. , 1, 2, 3) and a certain amount in the region surrounded by Specifically, for example, some special points in the area surrounded by m i of the image I are obtained as corners based on luminance values, for example, and each characteristic point is obtained by, for example, a vertex m n (n∈ with a rectangle m i ). {0, 1, 2, 3}) is used as a starting point, and the horizontal and vertical sides of the rectangle are represented by a linear combination thereof as a basis vector, and the average position (centroid position) of the coordinates of the feature points is calculated. Similarly, a corresponding point in the region surrounded by m ′ i of the other image I ′ of the feature point is obtained by, for example, a block matching method or an optical flow search, and m ′ n corresponding to m n as the origin is obtained. A method is used in which the average position (centroid position) of the coordinates of the corresponding feature point is calculated using the vertical and horizontal sides of m ′ i as basis vectors, and the coupling coefficients of the two are compared.

iやm'iで囲まれる領域内には、測定の対象となる被写体の像が写っているため、上述したコーナー等の特徴点は存在する可能性が大きく、前述したmiの対応点を探索する方法よりも処理が容易である。 The surrounded by the area in m i and m 'i, since the image of the subject to be measured is captured, feature points such as corners described above greatly possibly present, corresponding points m i mentioned above It is easier to process than the method of searching.

次に、対応領域移動・評価部404は、m'iのある頂点をエピポーラ線 Next, the corresponding area movement / evaluation unit 404 selects the apex with m ′ i as an epipolar line.

Figure 2005140623
Figure 2005140623

上で移動させながら、上述した領域形状算出部401、領域位置算出部402及び特徴量算出部403の処理を繰り返し、領域形状算出部401、領域位置算出部402及び特徴量算出部403の処理によって算出される量があるしきい値より小さければ処理を終了し、そうでなければ再度m'iのある頂点をエピポーラ線 While moving above, the processing of the region shape calculation unit 401, the region position calculation unit 402, and the feature amount calculation unit 403 is repeated, and the region shape calculation unit 401, the region position calculation unit 402, and the feature amount calculation unit 403 If the calculated amount is smaller than a certain threshold value, the process is terminated. Otherwise, the vertex having m ′ i is again connected to the epipolar line.

Figure 2005140623
Figure 2005140623

上で移動させて再びこれらの量の算出を行う。 Move these up to calculate these quantities again.

算出される量として、例えば、領域形状算出部401においては、現在のm'iから算出される結合係数α'x,α'zとαx,αzとの差を評価する関数 As the amount to be calculated, for example, in the region shape calculation unit 401, a function for evaluating the difference between the coupling coefficients α ′ x and α ′ z calculated from the current m ′ i and α x and α z.

Figure 2005140623
Figure 2005140623

を用いてもよいし、その正の平方根を用いてもよい。 May be used, or the positive square root thereof may be used.

また、領域位置算出部402における評価関数として、   In addition, as an evaluation function in the region position calculation unit 402,

Figure 2005140623
Figure 2005140623

との距離をδiとおき、対応点のエピポーラ線上への拘束の度合いを表す関数 The [delta] i Distant distance between, the function representing the degree of restraint to the epipolar line of the corresponding point

Figure 2005140623
Figure 2005140623

を用いてもよい。 May be used.

また、特徴量算出部403における評価関数として、画像IとI′における特徴点の重心位置の結合係数を(μ,ν),(μ′,ν′)とおき、   Further, as an evaluation function in the feature quantity calculation unit 403, the coupling coefficients of the centroid positions of the feature points in the images I and I ′ are set as (μ, ν) and (μ ′, ν ′),

Figure 2005140623
Figure 2005140623

を用いてもよい。 May be used.

また、これらの評価関数の重み付きの和を   Also, the weighted sum of these evaluation functions is

Figure 2005140623
Figure 2005140623

として、処理終了の判定基準となるしきい値εを設けて、判定をしてもよい。 Alternatively, the determination may be made by providing a threshold value ε as a criterion for determining the end of processing.

なお、このようにして求めたm'iを新たに対象領域とみなし、一方の画像Iに対して、miを初期値として同様の処理を繰り返してもよい。 Note that m ′ i obtained in this way may be newly regarded as a target region, and the same processing may be repeated for one image I with m i as an initial value.

対応対象領域決定部400によりm'iが求まったら、次に、対象領域実寸算出部500は、M'iの3次元ワールド座標値を求める。以下、対象領域実寸算出部500での処理を説明する。 Once m ′ i is obtained by the corresponding target area determination unit 400, the target area actual size calculation unit 500 next obtains a three-dimensional world coordinate value of M ′ i . Hereinafter, processing in the target area actual size calculation unit 500 will be described.

世界座標算出部501は、既に求めた頂点mi,m'i(i=0,1,2,3)及び射影行列P,P′から、背景技術で述べた方法により、Miの3次元ワールド座標値を求める。Miは、3次元ワールド座標において対象物体を囲む長方形(矩形)を表しており、長方形が対象物体を囲む最小の大きさであれば、その長方形の縦横の辺の長さを求めることにより、その対象物体の縦横の大きさを求めることができる。 The world coordinate calculation unit 501 uses the vertices m i , m ′ i (i = 0, 1, 2, 3) and the projection matrices P, P ′ that have already been obtained to calculate the three-dimensional M i by the method described in the background art. Find the world coordinate value. M i represents a rectangle (rectangle) surrounding the target object in the three-dimensional world coordinates, and if the rectangle is the minimum size surrounding the target object, by obtaining the lengths of the vertical and horizontal sides of the rectangle, The vertical and horizontal sizes of the target object can be obtained.

iの3次元ワールド座標値が求められると、相対座標算出部502は、Miを適当な相対座標値にする。Miは参照物体のX0を原点とする座標値であったので、例えば、M0を始点として、他の点をM0からの位置ベクトルで表す、などの方法により、相対座標値に変換される。もちろん、相対座標値を算出を省略しても差し支えない。以上の処理によって、一方の画像I上で矩形領域を設定するだけで、その矩形領域の頂点のワールド座標値を算出することができた。 When the three-dimensional world coordinate value of M i is obtained, the relative coordinate calculation unit 502 sets M i to an appropriate relative coordinate value. Since M i is a coordinate value with X 0 of the reference object as the origin, it is converted into a relative coordinate value by a method such as expressing M 0 as a starting point and expressing other points as position vectors from M 0. Is done. Of course, the calculation of relative coordinate values may be omitted. With the above processing, only by setting a rectangular area on one image I, the world coordinate value of the vertex of the rectangular area can be calculated.

このようにして画像内矩形領域の実寸を知ることができたので、次に、対象領域表示部600は、画像のその矩形領域を、実寸で定義された3次元のポリゴンとして生成し、また、そのポリゴンに対する画像の矩形領域内の画素のテクスチャマッピングを行う。さらに、同様にして生成された他の対象物体のテクスチャマッピングされたポリゴンと、同じ視界情報を持つシーンにおいて同時に表示することで、互いの大きさ情報を比較することが可能となる。以下、対象領域表示部600での処理を説明する。   Since the actual size of the rectangular area in the image was found in this way, next, the target area display unit 600 generates the rectangular area of the image as a three-dimensional polygon defined by the actual size, and Texture mapping of pixels in the rectangular area of the image with respect to the polygon is performed. Further, by simultaneously displaying the polygons texture-mapped for other target objects generated in the same manner in a scene having the same field of view information, it is possible to compare the size information of each other. Hereinafter, processing in the target area display unit 600 will be described.

テクスチャオブジェクト生成部601は、一方の画像Iとmi(i=0,1,2,3)から、Iのmi(i=0,1,2,3)が囲む領域の画素データを得る。なお、他方の画像I′とm'i(i=0,1,2,3)から得られるデータでももちろんよい。そしてポリゴン生成部602が、頂点Mi(i=0,1,2,3)を持つ四辺形ポリゴンを生成する。ここで、テクスチャオブジェクト生成部601で生成した画素データを、ポリゴン生成部602が生成したポリゴンにテクスチャマッピングしてもよいし、テクスチャオブジェクト生成部601で生成した画素データの形状的な頂点mi(i=0,1,2,3)のワールド座標系での位置Mi(i=0,1,2,3)が既知であることから、ポリゴンを生成せず、射影することとしてもよい。画像生成部603は、このように生成された単独あるいは複数のオブジェクトを、ある視界情報を持つシーンにおける面オブジェクトとして生成する。その後、表示部604は、画像生成部603によって生成された合成シーンを画面上に表示する。 The texture object generation unit 601 obtains pixel data of an area surrounded by m i (i = 0, 1, 2, 3) of I from one image I and m i (i = 0, 1, 2, 3). . Of course, data obtained from the other images I ′ and m ′ i (i = 0, 1, 2, 3) may be used. Then, the polygon generation unit 602 generates a quadrilateral polygon having a vertex M i (i = 0, 1, 2, 3). Here, the pixel data generated by the texture object generation unit 601 may be texture-mapped to the polygon generated by the polygon generation unit 602, or the shape vertex ap ( i ) of the pixel data generated by the texture object generation unit 601. Since the position M i (i = 0, 1, 2, 3) in the world coordinate system of i = 0, 1, 2, 3) is known, the polygon may not be generated and projected. The image generation unit 603 generates one or a plurality of objects generated in this way as a plane object in a scene having certain visual field information. Thereafter, the display unit 604 displays the composite scene generated by the image generation unit 603 on the screen.

以上、本発明の好ましい実施形態の計測装置を説明した。上述した計測装置は、専用のハードウェア装置として構成することができるともに、それを実現するためのコンピュータプログラムを、パーソナルコンピュータやワークステーションなどのコンピュータに読み込ませ、そのプログラムを実行させることによっても実現できる。画像計測を行うためのプログラムは、磁気テープやCD−ROMなどの記録媒体によって、あるいは、ネットワークを介して、コンピュータに読み込まれる。このようなコンピュータは、一般に、CPUと、プログラムやデータを格納するためのハードディスク装置などの外部記憶装置と、主メモリと、キーボードやマウスさらにはディジタルカメラなどの入力装置と、CRTや液晶ディスプレイなどの表示装置と、磁気テープやCD−ROM等の記録媒体を読み取る読み取り装置とから構成されている。外部記憶装置、主メモリ、入力装置、表示装置及び読み取り装置は、いずれも中央処理装置に接続している。このコンピュータは、上述した計測を行うためのプログラムを格納した記録媒体を読み取り装置に装着し、記録媒体からプログラムを読み出して外部記憶装置に格納し、あるいはネットワークを介してそのようなプログラムをダウンロードして外部記憶装置に格納し、その後、外部記憶装置に格納されたプログラムをCPUが実行することにより、上述した計測装置として機能する。   The measurement apparatus according to the preferred embodiment of the present invention has been described above. The above-described measuring device can be configured as a dedicated hardware device, and is also realized by reading a computer program for realizing it into a computer such as a personal computer or a workstation and executing the program. it can. A program for performing image measurement is read into a computer by a recording medium such as a magnetic tape or a CD-ROM, or via a network. Such a computer generally has a CPU, an external storage device such as a hard disk device for storing programs and data, a main memory, an input device such as a keyboard, a mouse, and a digital camera, a CRT, a liquid crystal display, and the like. Display device and a reading device for reading a recording medium such as a magnetic tape or a CD-ROM. The external storage device, main memory, input device, display device, and reading device are all connected to the central processing unit. This computer loads a recording medium storing a program for performing the above-described measurement into a reading device, reads the program from the recording medium and stores it in an external storage device, or downloads such a program via a network. When the CPU executes the program stored in the external storage device and then stored in the external storage device, it functions as the above-described measurement device.

以下、コンピュータプログラムとして本実施形態の計測装置を実現した場合における、そのコンピュータプログラムにおける処理ステップについて、図5を用いて説明する。図5は、このようなコンピュータプログラムにおける処理の流れを示しており、ここで、   Hereinafter, processing steps in the computer program when the measuring apparatus of the present embodiment is realized as a computer program will be described with reference to FIG. FIG. 5 shows the flow of processing in such a computer program, where

Figure 2005140623
Figure 2005140623

は画像I,I′間のF行列であり、 Is the F matrix between the images I and I ′,

Figure 2005140623
Figure 2005140623

は画像I,I′における参照物体の3軸の像であり、[αx,αz]は対象領域矩形の辺の、参照物体の軸で表した一次結合係数であり、 Is a three-axis image of the reference object in the images I and I ′, and [α x , α z ] is a linear coupling coefficient of the sides of the target region rectangle expressed by the axis of the reference object,

Figure 2005140623
Figure 2005140623

は、それぞれ、対象領域矩形のワールド座標値、画像I,I′における像である。 Are the world coordinate values of the target area rectangle and the images in the images I and I ′, respectively.

なお、図においてSPxxxは、このようなコンピュータプログラムにおいて、ひとかたまりのプログラムブロックとして実装されるステップを示している。ここでxxxの部分の数字は、図3に示した計測装置における各処理部の参照符号と対応付けられている。例えば、SP202は、上述した説明での参照物体抽出部202での処理に対応するプログラムブロックである。   In the figure, SPxxx indicates steps implemented as a group of program blocks in such a computer program. Here, the numbers in the part xxx are associated with the reference numerals of the respective processing units in the measuring apparatus shown in FIG. For example, the SP 202 is a program block corresponding to the processing in the reference object extraction unit 202 in the above description.

まずSP101において、参照物体及び対象物体が同時に撮影された画像を読み込む。本実施形態では、参照物体は直方体をなしており、水平面上に置かれているものとする。また、参照物体及び対象物体は静止しており、カメラ位置を変えて撮影した2枚の画像を読み込むものとする。その際、カメラパラメータ、すなわちズーム倍率等は固定しなくてもよい。本発明においては、2枚の撮影画像間においてカメラが校正されている必要がないからである。次にSP1において、読み込んだ画像をディジタルデータとして記憶する。その際、画像を識別するための何らかの識別子(例えばファイル名)と同時に記憶してもよい。この説明では、簡単のため、記憶に関わるステップを全てSP1で表している。当然ながら、各段階における記憶に関わるステップを、全て独立したステップとしてもよい。また、画像の記憶と平行して、SP103において、画像を表示する。   First, in SP101, an image in which the reference object and the target object are simultaneously captured is read. In the present embodiment, it is assumed that the reference object has a rectangular parallelepiped shape and is placed on a horizontal plane. Further, it is assumed that the reference object and the target object are stationary, and two images taken by changing the camera position are read. At this time, camera parameters, that is, zoom magnification and the like may not be fixed. This is because in the present invention, the camera does not need to be calibrated between two captured images. Next, in SP1, the read image is stored as digital data. At that time, it may be stored simultaneously with some identifier (for example, file name) for identifying the image. In this description, for the sake of simplicity, all steps related to storage are represented by SP1. Of course, all the steps related to storage in each stage may be independent steps. In parallel with image storage, the image is displayed in SP103.

画像の表示後、SP202において、参照物体の、互いに直交し、1点で交わる3辺の像を、2枚の画像において抽出する。これは、ユーザが画面上でマウス等によりそれらの位置を順序付けて選択してもよいし、2枚の画像間でブロックマッチングやオプティカルフロー探索処理等を行うことにより、一方の画面で選択して他方の画面では対応点として求めるようにしてもよい。その後、SP203において、4頂点の対応付けを行う。これも、ユーザが点を順序付けて選択することで対応付けてもよいし、点を選択後、あらためて対応付けてもよい。   After displaying the image, in SP202, images of three sides of the reference object that are orthogonal to each other and intersect at one point are extracted from the two images. This can be done by selecting the position on the screen with a mouse or the like on the screen, or selecting on one screen by performing block matching or optical flow search processing between the two images. You may make it obtain | require as a corresponding point in the other screen. Thereafter, in SP203, the four vertices are associated. This may be associated by the user selecting points in order, or may be associated again after selecting the points.

4頂点の対応付け後、SP204において、4つの対応付けられた頂点から、2枚の画像のF行列を計算し、SP1において記憶する。また、参照物体の情報を、例えばテンプレートやユーザによる手入力、初期設定などにより、SP201において取得する。ここでは、参照物体における直交する3辺の長さを得る。例えば、上述したように、直交する3辺の交点の3次元座標をX0、X0から引いた鉛直下向きに相当する辺をなす参照物体の頂点の3次元座標をX2、残りの2辺の端点をX1,X3とし、X01,X02,X03が右手系をなすように3辺を設定する。ただし、X02はY軸である。ここで、各辺の長さがX01=d1,X02=d2,X03=d3として、X0=(0,0,0),X1=(d1,0,0),X2=(0,d2,0),X3=(0,0,d3)とおく。SP201の後、SP205において、Xi及びこれらの像 After associating the four vertices, in SP204, F matrices of two images are calculated from the four associated vertices and stored in SP1. Further, the reference object information is acquired in SP 201 by, for example, a template, manual input by a user, initial setting, or the like. Here, the length of three orthogonal sides in the reference object is obtained. For example, as described above, the three-dimensional coordinate of the intersection of three orthogonal sides is X 0 , the three-dimensional coordinate of the vertex of the reference object that forms the side corresponding to the vertically downward direction subtracted from X 0 is X 2 , and the remaining two sides Are set to X 1 and X 3, and three sides are set so that X 0 X 1 , X 0 X 2 , and X 0 X 3 form a right-handed system. However, X 0 X 2 is the Y axis. Here, assuming that the length of each side is X 0 X 1 = d 1 , X 0 X 2 = d 2 , X 0 X 3 = d 3 , X 0 = (0,0,0), X 1 = (d 1 , 0, 0), X 2 = (0, d 2 , 0), and X 3 = (0, 0, d 3 ). After SP201, the SP205, X i and these images

Figure 2005140623
Figure 2005140623

からアフィン射影行列P,P′を求め、SP1において記憶する。 Affine projection matrices P and P ′ are obtained from the above and stored in SP1.

また、SP203の実行後、上述とは独立した処理として、SP301において、Xiの像 Further, after execution of SP203, as an independent process to the above, in the SP301, X i image of

Figure 2005140623
Figure 2005140623

から、基底ベクトルとして、前記の From the above, as the basis vector

Figure 2005140623
Figure 2005140623

を求める。 Ask for.

また、SP202の実行後、上述とは独立の処理として、SP302において、SP202で表示された画像の片方であるI(一方の画像)に対し、測定の対象となる被写体を囲む最小の長方形領域を指定する。この処理は、ユーザからの入力を受け付けることによって行えばよく、また、長方形の辺は、画像の縦辺、横辺に平行でよい。図4(a)の人物像を囲む領域はその例である。   In addition, after execution of SP202, as a process independent of the above, in SP302, a minimum rectangular area surrounding a subject to be measured is set for I (one image) which is one of the images displayed in SP202. specify. This process may be performed by receiving input from the user, and the sides of the rectangle may be parallel to the vertical and horizontal sides of the image. An example of the region surrounding the person image in FIG.

SP301とSP302の処理が両方とも終わったら、SP303において、SP302で設定された長方形領域の横辺の、   When both the processing of SP301 and SP302 is completed, in SP303, the horizontal side of the rectangular area set in SP302 is displayed.

Figure 2005140623
Figure 2005140623

で表された一次結合係数を求める。例えば、図4(a)において、 1 is obtained. For example, in FIG.

Figure 2005140623
Figure 2005140623

The

Figure 2005140623
Figure 2005140623

と表し、実数(αx,αz)を求め、SP1により記憶する。 And real numbers (α x , α z ) are obtained and stored in SP1.

SP303と同様に、SP304において、図4(a)における   Similar to SP303, in SP304, in FIG.

Figure 2005140623
Figure 2005140623

が、長さを保ちつつ But keep the length

Figure 2005140623
Figure 2005140623

と平行になるように、m0,m1の位置を修正する。もちろん、m2,m3の位置を修正してもよい。また、この修正により、測定の対象となる被写体が矩形からはみ出してしまったような場合は、SP302に戻って処理を繰り返してもよい。 The positions of m 0 and m 1 are corrected so that they are parallel to each other. Of course, the positions of m 2 and m 3 may be corrected. In addition, if the subject to be measured protrudes from the rectangle due to this correction, the processing may be repeated by returning to SP302.

このようにして、miを決定し、SP1によって記憶する。 Thus, to determine the m i, is stored by SP1.

次に、以上説明した処理によって得られた情報を用いて、他方の画像I′におけるmiの対応点m'i(i=0,1,2,3)を決定する。 Next, the corresponding point m ′ i (i = 0, 1, 2, 3) of m i in the other image I ′ is determined using the information obtained by the processing described above.

まず、SP403dにおいて、m'iを決定する処理が終了したかどうかを判定する。終了していなければ、SP403eにおいて、次の画像においてm'iを見つけるかどうかの判定を行う。例えば、まだ一方の画像I上のmiしか決まっていなければYesを選択し、他方の画像I′上のm'iを求める処理(以下のSP401,SP402)を行う。また、m'iを求めたが、再度、他方の画像I′上のm'iを既知の領域として、例えば一方の画像I上においてmiを求める処理を行ってもよい。あるいは、画像が2枚よりも多い場合に、3枚目以降の画像において対応領域を求める処理を行ってもよい。どういう判断基準でこれらの判定を行うかは、一方の画像I上のmiに対して他方の画像I′上のm'iを求める処理を行うことを除き、ユーザが設定してもよいし、画像の入力枚数に応じてプログラムが設定してもよい。 First, in SP403d, it is determined whether or not the process for determining m ′ i has ended. If not completed, it is determined in SP403e whether m ′ i is found in the next image. For example, if only m i on one image I is not yet determined, Yes is selected, and processing for obtaining m ′ i on the other image I ′ (SP 401 and SP 402 below) is performed. In addition, m ′ i has been obtained. However, m ′ i on the other image I ′ may be set as a known area, and for example, m i may be obtained on one image I. Alternatively, when there are more than two images, processing for obtaining a corresponding area in the third and subsequent images may be performed. The criteria for making these determinations may be set by the user except that the processing for obtaining m ′ i on the other image I ′ is performed on m i on one image I. The program may be set according to the number of input images.

SP401では、結合定数αx,αzに基づき、m'iの辺の方向ベクトルを求める。 In SP401, the direction vector of the side of m ′ i is obtained based on the coupling constants α x and α z .

Figure 2005140623
Figure 2005140623

とした場合であれば、図4(b)の If this is the case, the

Figure 2005140623
Figure 2005140623

とし、初期値としてα'x=αx,α'zzとする。また、縦辺の方向ベクトルは And α ′ x = α x and α ′ z = z as initial values. The direction vector of the vertical side is

Figure 2005140623
Figure 2005140623

とする。 And

SP401と平行してSP402aでは、miに対応するエピポーラ線 In SP402a in parallel with SP401, epipolar lines corresponding to m i

Figure 2005140623
Figure 2005140623

を計算する。 Calculate

次に、SP401とSP402aの終了後、SP402bにおいて、例えば、m'0の位置を Next, after the end of SP401 and SP402a, for example, the position of m ′ 0 is set in SP402b.

Figure 2005140623
Figure 2005140623

上で適当に決め、m'0から(17)式の方向に引いた直線と Determined appropriately above, a straight line drawn from m ′ 0 in the direction of (17)

Figure 2005140623
Figure 2005140623

との交点をm'1とし、また、m'0から Let m ' 1 be the intersection with, and from m' 0

Figure 2005140623
Figure 2005140623

の方向に引いた直線と A straight line drawn in the direction of

Figure 2005140623
Figure 2005140623

との交点をm'3とする。残りのm'2は、m'i(i=0,1,2,3)が平行四辺形をなすように決めればよい。その後、このようにして決めたm'i(i=0,1,2,3)について、 Let m ' 3 be the intersection with. The remaining m ′ 2 may be determined so that m ′ i (i = 0, 1, 2, 3) forms a parallelogram. After that, for m ′ i (i = 0, 1, 2, 3) determined in this way,

Figure 2005140623
Figure 2005140623

を計算する。 Calculate

次に、SP404において、まず一方の画像I上で、miで囲む領域内の特徴点を見つけ、次にその特徴点の他方の画像I′上での対応点を見つける。対応点を見つけ方としては、ブロックマッチング、オプティカルフロー探索など、どのような手法を用いてもよい。対応点が見つかったもののみ考慮して、その数がN組とすると、一方の画像I上の特徴点qn(n=1,2,…,N)を全て、 Next, in SP404, first, a feature point in a region surrounded by m i is found on one image I, and then a corresponding point on the other image I ′ of the feature point is found. As a method for finding the corresponding points, any method such as block matching or optical flow search may be used. Considering only those where corresponding points are found, and assuming that the number is N, all feature points q n (n = 1, 2,..., N) on one image I are all

Figure 2005140623
Figure 2005140623

のように表し、全てのqnの平均位置qを The average position q of all q n is expressed as

Figure 2005140623
Figure 2005140623

により求める。次に、同じように他方の画像I′についても Ask for. Next, similarly for the other image I ′

Figure 2005140623
Figure 2005140623

のように求め、 Asking,

Figure 2005140623
Figure 2005140623

を計算する。 Calculate

このようにして特徴量が算出されたら、次に、SP403aにおいて、これらの評価関数の重み付きの和を   After the feature amount is calculated in this way, the weighted sum of these evaluation functions is then calculated in SP403a.

Figure 2005140623
Figure 2005140623

として計算する。重みwiは、wi=1/3と均等にしてもよいし、悉意的に順序付けてもよい。この値と、あらかじめ設定された処理終了の判定基準となるしきい値εとを比較し、しきい値よりも小さければ処理を終了してSP403dに戻り、そうでなければステップSP403bに進む。 Calculate as The weights w i may be equal to w i = 1/3 or may be arbitrarily ordered. This value is compared with a preset threshold value ε that is a criterion for determining the end of processing. If the value is smaller than the threshold value, the processing ends and the processing returns to SP403d. Otherwise, the processing proceeds to step SP403b.

SP403bでは、反復回数があるあらかじめ設定された上限値(MAX_ITERATE)を超えるかどうかにより、処理を終了するかどうかを判定し、上限値を超えていれば処理を終了してSP403dに戻り、そうでなければSP403cに進む。SP403cでは、例えばm'0の位置を、 In SP403b, it is determined whether or not to end the process depending on whether or not the number of iterations exceeds a preset upper limit value (MAX_ITERATE). If the upper limit value is exceeded, the process ends and the process returns to SP403d. If not, the process proceeds to SP403c. In SP403c, for example, the position of m ′ 0 is

Figure 2005140623
Figure 2005140623

に沿って例えば1画素分動かし、反復回数を1だけ増分してSP402bに戻る。移動の大きさは1画素でもよいし、より小さな値でもよいし、反復回数に応じて減じていってもよい。また、移動の方向は、1回目の移動によりEの値が小さくなれば同じ方向へ、そうでなければ逆の方向へ移動してもよい。 And the number of iterations is incremented by 1, and the process returns to SP402b. The magnitude of the movement may be one pixel, a smaller value, or may be reduced according to the number of repetitions. Further, the direction of movement may be the same direction if the value of E is decreased by the first movement, and may be moved in the opposite direction otherwise.

このようにしてm'i(i=0,1,2,3)が算出されたので、SP403dにおいて対応算出終了と判定され、SP1において、m'i(i=0,1,2,3)を記憶する。 Since m ′ i (i = 0, 1, 2, 3) has been calculated in this way, it is determined in SP403d that the corresponding calculation has been completed, and in SP1, m ′ i (i = 0, 1, 2, 3). Remember.

次に、SP501において、mi,m'i(i=0,1,2,3)及び射影行列P,P′から、M'iの3次元ワールド座標値を求め、その後、SP502において、Miを適当な相対座標値にし、SP1において記憶する。これら記憶したデータは、SP503において、外部記憶装置に出力してもよい。 Next, in SP501, the three-dimensional world coordinate value of M ′ i is obtained from m i , m ′ i (i = 0, 1, 2, 3) and the projection matrices P and P ′. i is set to an appropriate relative coordinate value and stored in SP1. These stored data may be output to an external storage device in SP503.

次に、SP2において、これらの情報、すなわち画像の識別子、画像内の矩形領域頂点座標値mi(i=0,1,2,3)及びMiをメモリあるいは外部記憶装置に記憶されているファイルから読み込む。そして、SPS601において、画像のテクスチャオブジェクトを生成し、SP602において、頂点Miを持つ3次元ボリゴンを生成する。その後、SP603aにおいて表示用のシーン、例えば3次元コンピュータグラフィックスにより生成される3次元シーンを生成し、SP603bにおいて、SP602によって生成された3次元ポリゴンに、SP601において生成されたテクスチャオブジェクトをテクスチャマッピングする。また、複数のテクスチャオブジェクトがマッピングされたポリゴンがある際には、これらをシーン内の適当な位置に配置する。最後に、SP604において、以上のシーンとテクスチャマッピングされたポリゴンとを表示し、これによって、例えば異なる撮影現場で撮影された被写体の大きさを、同じシーンで比較表示することが可能となる。 Then, in SP2, these information, i.e. the image of the identifier, and the rectangular region in the image vertex coordinate values m i and (i = 0, 1, 2, 3) and M i are stored memory or the external storage device Read from file. In SPS 601, a texture object of the image is generated, and in SP 602, a three-dimensional Borgon having a vertex M i is generated. Thereafter, a scene for display, for example, a three-dimensional scene generated by three-dimensional computer graphics, is generated in SP603a, and the texture object generated in SP601 is texture-mapped to the three-dimensional polygon generated by SP602 in SP603b. . When there are polygons to which a plurality of texture objects are mapped, these are arranged at appropriate positions in the scene. Finally, in SP604, the above scene and the texture-mapped polygon are displayed, which makes it possible to compare and display, for example, the size of the subject shot at different shooting sites in the same scene.

ステレオ視の原理を表した図である。It is a figure showing the principle of stereo vision. 本発明の基本的な構成を表す図である。It is a figure showing the basic composition of the present invention. 本発明の実施形態を表す構成図である。It is a block diagram showing embodiment of this invention. 対応領域の探索を表す図である。It is a figure showing search of a corresponding area. 本発明の実施例における処理の流れを表す図である。It is a figure showing the flow of the process in the Example of this invention.

符号の説明Explanation of symbols

100 画像入力部
200 撮影情報算出部
300 対象領域決定部
400 対応対象領域決定部
500 対象領域実寸算出部
600 対象領域表示部
100 Image Input Unit 200 Imaging Information Calculation Unit 300 Target Area Determination Unit 400 Corresponding Target Area Determination Unit 500 Target Area Actual Size Calculation Unit 600 Target Area Display Unit

Claims (13)

測定対象、及び、少なくとも1つの頂点を形成する3つの辺の長さが既知である立方体または直方体または平行六面体をなす参照物体が同時に撮影された少なくとも2枚の画像から、前記測定対象を囲む矩形領城をなす頂点の3次元座標値を算出する画像計測方法であって、
前記測定対象及び前記参照物体が同時に撮影された少なくとも2枚の画像を入力する段階と、
前記参照物体の像の4つの頂点の像を前記入力された2枚の画像において取得することにより、前記2枚の画像の撮影時の、アフィンカメラを仮定した射影行列、及び前記2枚の画像間の拘束関係を与える行列を算出して記憶する段階と、
実寸測定の対象となる領域を対象領域として、前記2枚の画像のうちの一方の画像において、前記対象領域を囲む画面上での2次元の矩形の指定を受け入れて記憶し、前記矩形の辺を、前記参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で表した際の結合係数を算出し、前記矩形の形状を修正して前記矩形の画面上での頂点位置を記憶する段階と、
前記2枚の画像のうちの他方の画像において、前記矩形に対応する領域を対応対象領域として算出し、前記対応対象領域の画面上での頂点位置を記憶する段階と、
前記射影行列と、前記対象領域での頂点位置と、前記対応対象領域での頂点位置を用いて、前記対象領域の頂点の3次元座標を算出する段階と、
を有する画像計測方法。
A rectangle surrounding the measurement object from at least two images of a measurement object and a reference object having a cube, a rectangular parallelepiped, or a parallelepiped whose length of three sides forming at least one vertex are known. An image measurement method for calculating a three-dimensional coordinate value of a vertex forming a castle,
Inputting at least two images of the measurement object and the reference object taken simultaneously;
A projection matrix assuming an affine camera and the two images at the time of photographing the two images by acquiring four vertex images of the reference object image in the two input images. Calculating and storing a matrix that gives a constraint relationship between them;
An area to be measured in actual size is set as a target area, and in one of the two images, a two-dimensional rectangle designation on the screen surrounding the target area is received and stored, and the side of the rectangle Is calculated as a linear combination of images of three sides that intersect at one vertex of the image of the reference object, and the rectangular shape is corrected by correcting the shape of the rectangle. Remembering
Calculating an area corresponding to the rectangle as a corresponding target area in the other of the two images, and storing a vertex position on the screen of the corresponding target area;
Calculating the three-dimensional coordinates of the vertices of the target region using the projection matrix, the vertex positions in the target region, and the vertex positions in the corresponding target region;
An image measurement method comprising:
前記2枚の画像の少なくとも一方と、前記対象領域の画面上での頂点位置と、前記対象領域の頂点位置の3次元座標とを用いて、前記対象領域内の画像データを他の画像あるいは3次元シーンに合成して表示する段階をさらに有する、請求項1に記載の画像計測方法。   Using at least one of the two images, the vertex position on the screen of the target area, and the three-dimensional coordinates of the vertex position of the target area, the image data in the target area is converted into another image or 3 The image measurement method according to claim 1, further comprising a step of combining and displaying the three-dimensional scene. 前記矩形領域の画面上での頂点位置を対応対象領域として記憶する段階は、
前記算出された結合係数を用いて、前記参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で前記対応対象領域の画面上での頂点位置を算出し評価する段階と、
前記算出された2画面間の拘束を与える行列を用いて、前記対象領域の頂点の前記他方の画像での対応位置を算出し評価する段階と、
前記一方の画像における前記対象領域内の輝度情報から得られる特徴点と、前記他方の画像における前記対応対象領域内の輝度情報から得られる特徴点との間の類似度を算出し評価する段階と、
前記各評価する段階による評価値を基に前記対応対象領域の位置、形状を変化させつつ、前記対応対象領域を決定する段階と、
を有する、請求項1または2に記載の画像による画像計測方法。
The step of storing the vertex position on the screen of the rectangular area as a corresponding target area,
Calculating and evaluating a vertex position on the screen of the corresponding target area by linear combination of images of three sides intersecting at one vertex of the image of the reference object using the calculated coupling coefficient; and
Calculating and evaluating the corresponding position in the other image of the vertices of the target area using a matrix that gives a constraint between the calculated two screens;
Calculating and evaluating a similarity between a feature point obtained from the luminance information in the target area in the one image and a feature point obtained from the luminance information in the corresponding target area in the other image; ,
Determining the corresponding target region while changing the position and shape of the corresponding target region based on the evaluation values obtained in the respective evaluating steps;
The image measurement method by the image of Claim 1 or 2 which has these.
前記一方の画像で指定した対象領域の、前記他方の画像における対応対象領域を決定した後に、前記対応対象領域を新たな対象領域とみなし、再び前記一方の画像における新たな対応対象領域を求める段階を有する、請求項1乃至3のいずれか1項に記載の画像計測方法。   After determining the corresponding target area in the other image of the target area specified in the one image, determining the corresponding target area as a new target area and obtaining a new corresponding target area in the one image again The image measurement method according to claim 1, comprising: 測定対象、及び、少なくとも1つの頂点を形成する3つの辺の長さが既知である立方体または直方体または平行六面体をなす参照物体が同時に撮影された少なくとも2枚の画像から、前記測定対象を囲む矩形領城をなす頂点の3次元座標値を算出する画像計測装置であって、
前記測定対象及び前記参照物体が同時に撮影された少なくとも2枚の画像を入力し、記憶及び/または表示するための画像入力手段と、
前記参照物体の像の4つの頂点の像を前記入力された2枚の画像において取得することにより、前記2枚の画像の撮影時の、アフィンカメラを仮定した射影行列、及び前記2枚の画像間の拘束関係を与える行列を算出し記憶する撮影情報算出手段と、
実寸測定の対象となる領域を対象領域として、前記2枚の画像のうちの一方の画像において、前記対象領域を囲む画面上での2次元の矩形の指定を受け入れて記憶し、前記矩形の辺を、前記参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で表した際の結合係数を算出し、前記矩形の形状を修正して前記矩形の画面上での頂点位置を記憶する対象領域決定手段と、
前記2枚の画像のうちの他方の画像において、前記矩形に対応する領域を対応対象領域として算出し、前記対応対象領域の画面上での頂点位置を記憶する対応対象領域決定手段と、
前記射影行列と、前記対象領域での頂点位置と、前記対応対象領域での頂点位置を用いて、前記対象領域の頂点の3次元座標を算出する対象領域実寸算出手段と、
を有する画像計測装置。
A rectangle surrounding the measurement object from at least two images of a measurement object and a reference object having a cube, a rectangular parallelepiped, or a parallelepiped whose length of three sides forming at least one vertex are known. An image measuring device for calculating a three-dimensional coordinate value of a vertex forming a castle,
Image input means for inputting, storing and / or displaying at least two images of the measurement object and the reference object taken simultaneously;
A projection matrix assuming an affine camera and the two images at the time of photographing the two images by acquiring four vertex images of the reference object image in the two input images. Photographing information calculation means for calculating and storing a matrix that gives a constraint relationship between
An area to be measured in actual size is set as a target area, and in one of the two images, a two-dimensional rectangle designation on the screen surrounding the target area is received and stored, and the side of the rectangle Is calculated as a linear combination of images of three sides that intersect at one vertex of the image of the reference object, and the rectangular shape is corrected by correcting the shape of the rectangle. Target area determination means for storing
A corresponding target area determining means for calculating an area corresponding to the rectangle as a corresponding target area in the other of the two images, and storing a vertex position on the screen of the corresponding target area;
Using the projection matrix, the vertex position in the target area, and the vertex position in the corresponding target area, target area actual size calculating means for calculating the three-dimensional coordinates of the vertex of the target area;
An image measuring device having
前記2枚の画像の少なくとも一方と、前記対象領域の画面上での頂点位置と、前記対象領域の頂点位置の3次元座標とを用いて、前記対象領域内の画像データを他の画像あるいは3次元シーンに合成して表示する対象領域表示手段をさらに有する、請求項5に記載の画像計測装置。   Using at least one of the two images, the vertex position on the screen of the target area, and the three-dimensional coordinates of the vertex position of the target area, the image data in the target area is converted into another image or 3 The image measurement apparatus according to claim 5, further comprising target area display means for combining and displaying the three-dimensional scene. 前記対応対象領域決定手段は、
前記算出された結合係数を用いて、前記参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で前記対応対象領域の画面上での頂点位置を算出し評価する領域形状算出手段と、
前記算出された2画面間の拘束を与える行列を用いて、前記対象領域の頂点の前記他方の画像での対応位置を算出し評価する領域位置算出手段と、
前記一方の画像における前記対象領域内の輝度情報から得られる特徴点と、前記他方の画像における前記対応対象領域内の輝度情報から得られる特徴点との間の類似度を算出し評価する特徴量算出手段と、
前記領域形状算出手段、前記領域位置算出手段及び前記特徴量算出手段による評価値を基に前記対応対象領域の位置、形状を変化させつつ、前記対応対象領域を決定する対応領域移動・評価手段と、
を有する請求項5または6に記載の画像による画像計測装置。
The corresponding target area determining means includes
Region shape calculation for calculating and evaluating a vertex position on the screen of the corresponding target region by linear combination of images of three sides intersecting at one vertex of the image of the reference object using the calculated coupling coefficient Means,
Area position calculating means for calculating and evaluating a corresponding position in the other image of the vertex of the target area using a matrix that gives a constraint between the calculated two screens;
A feature amount for calculating and evaluating a similarity between a feature point obtained from luminance information in the target area in the one image and a feature point obtained from luminance information in the corresponding target area in the other image A calculation means;
A corresponding region moving / evaluating unit that determines the corresponding target region while changing the position and shape of the corresponding target region based on the evaluation values obtained by the region shape calculating unit, the region position calculating unit, and the feature amount calculating unit; ,
An image measuring apparatus using an image according to claim 5 or 6.
前記一方の画像で指定した対象領域の、前記他方の画像における対応対象領域を決定した後に、前記対応対象領域を新たな対象領域とみなし、再び前記一方の画像における新たな対応対象領域を求める手段を有する、請求項5乃至7のいずれか1項に記載の画像計測装置。   Means for determining a corresponding target area in the other image after determining a corresponding target area in the other image of the target area specified in the one image, and obtaining a new corresponding target area in the one image again The image measuring device according to claim 5, comprising: コンピュータを、
測定対象、及び、少なくとも1つの頂点を形成する3つの辺の長さが既知である立方体または直方体または平行六面体をなす参照物体が同時に撮影された少なくとも2枚の画像を入力し、記憶及び/または表示するための画像入力手段、
前記参照物体の像の4つの頂点の像を前記入力された2枚の画像において取得することにより、前記2枚の画像の撮影時の、アフィンカメラを仮定した射影行列、及び前記2枚の画像間の拘束関係を与える行列を算出し記憶する撮影情報算出手段、
実寸測定の対象となる領域を対象領域として、前記2枚の画像のうちの一方の画像において前記対象領域を囲む画面上での2次元の矩形の指定を受け入れて記憶し、前記矩形の辺を、前記参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で表した際の結合係数を算出し、前記矩形の形状を修正して前記矩形の画面上での頂点位置を記憶する対象領域決定手段、
前記2枚の画像のうちの他方の画像において、前記矩形に対応する領域を対応対象領域として算出し、前記対応対象領域の画面上での頂点位置を記憶する対応対象領域決定手段、
前記射影行列と、前記対象領域での頂点位置と、前記対応対象領域での頂点位置を用いて、前記対象領域の頂点の3次元座標を算出する対象領域実寸算出手段、
として機能させるプログラム。
Computer
Input at least two images of a measurement object and a reference object having a cube, a rectangular parallelepiped, or a parallelepiped having a known length of three sides forming at least one vertex, and storing and / or storing them Image input means for displaying,
A projection matrix assuming an affine camera and the two images at the time of photographing the two images by acquiring four vertex images of the reference object image in the two input images. Photographing information calculation means for calculating and storing a matrix that gives a constraint relationship between
The target area of the actual size measurement is set as the target area, and the designation of a two-dimensional rectangle on the screen surrounding the target area in one of the two images is received and stored, and the sides of the rectangle are stored. , Calculating a coupling coefficient when the image of the reference object is represented by a linear combination of images of three sides intersecting at one vertex, and correcting the shape of the rectangle to obtain the position of the vertex on the screen of the rectangle Target area determining means for storing,
A corresponding target area determining unit that calculates an area corresponding to the rectangle as a corresponding target area in the other of the two images, and stores a vertex position on the screen of the corresponding target area;
Target area actual size calculating means for calculating the three-dimensional coordinates of the vertices of the target area using the projection matrix, the vertex position in the target area, and the vertex position in the corresponding target area;
Program to function as.
前記コンピュータを、さらに、前記2枚の画像の少なくとも一方と、前記対象領域の画面上での頂点位置と、前記対象領域の頂点位置の3次元座標とを用いて、前記対象領域内の画像データを他の画像あるいは3次元シーンに合成して表示する対象領域表示手段として機能させる、請求項9に記載のプログラム。   The computer further uses the at least one of the two images, the vertex position on the screen of the target area, and the three-dimensional coordinates of the vertex position of the target area to generate image data in the target area. The program according to claim 9, wherein the program is made to function as a target area display unit that synthesizes and displays the image on another image or a three-dimensional scene. 前記対応対象領域決定手段は、
前記算出された結合係数を用いて、前記参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で前記対応対象領域の画面上での頂点位置を算出し評価する領域形状算出手段と、
前記算出された2画面間の拘束を与える行列を用いて、前記対象領域の頂点の前記他方の画像での対応位置を算出し評価する領域位置算出手段と、
前記一方の画像における前記対象領域内の輝度情報から得られる特徴点と、前記他方の画像における前記対応対象領域内の輝度情報から得られる特徴点との間の類似度を算出し評価する特徴量算出手段と、
前記領域形状算出手段、前記領域位置算出手段及び前記特徴量算出手段による評価値を基に前記対応対象領域の位置、形状を変化させつつ、前記対応対象領域を決定する対応領域移動・評価手段と、
から構成され、前記コンピュータを前記領域形状算出手段、前記領域位置算出手段、前記特徴量算出手段及び前記対応領域移動・評価手段としても機能させる、請求項9または10に記載の画像によるプログラム。
The corresponding target area determining means includes
Region shape calculation for calculating and evaluating a vertex position on the screen of the corresponding target region by linear combination of images of three sides intersecting at one vertex of the image of the reference object using the calculated coupling coefficient Means,
Area position calculating means for calculating and evaluating a corresponding position in the other image of the vertex of the target area using a matrix that gives a constraint between the calculated two screens;
A feature amount for calculating and evaluating a similarity between a feature point obtained from luminance information in the target area in the one image and a feature point obtained from luminance information in the corresponding target area in the other image A calculation means;
A corresponding region moving / evaluating unit that determines the corresponding target region while changing the position and shape of the corresponding target region based on the evaluation values obtained by the region shape calculating unit, the region position calculating unit, and the feature amount calculating unit; ,
The image program according to claim 9 or 10, wherein the program functions as the region shape calculating unit, the region position calculating unit, the feature amount calculating unit, and the corresponding region moving / evaluating unit.
前記コンピュータを、さらに、前記一方の画像で指定した対象領域の、前記他方の画像における対応対象領域を決定した後に、前記対応対象領域を新たな対象領域とみなし、再び前記一方の画像における新たな対応対象領域を求める手段として機能させる、請求項9乃至11のいずれか1項に記載のプログラム。   The computer further determines a corresponding target area in the other image of the target area specified in the one image, regards the corresponding target area as a new target area, and again determines a new target area in the one image. The program according to any one of claims 9 to 11, which functions as means for obtaining a corresponding target area. コンピュータが読み取り可能な記録媒体であって、請求項9乃至12のいずれか1項に記載のプログラムを格納した記録媒体。   A computer-readable recording medium that stores the program according to any one of claims 9 to 12.
JP2003376934A 2003-11-06 2003-11-06 Image measuring method and instrument, program, and recording medium Pending JP2005140623A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003376934A JP2005140623A (en) 2003-11-06 2003-11-06 Image measuring method and instrument, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003376934A JP2005140623A (en) 2003-11-06 2003-11-06 Image measuring method and instrument, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2005140623A true JP2005140623A (en) 2005-06-02

Family

ID=34687838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003376934A Pending JP2005140623A (en) 2003-11-06 2003-11-06 Image measuring method and instrument, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2005140623A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350578A (en) * 2005-06-14 2006-12-28 Fuji Xerox Co Ltd Image analysis device
JP2008292407A (en) * 2007-05-28 2008-12-04 Canon Inc Information processing method and information processing device
JP2009517683A (en) * 2005-11-30 2009-04-30 テレコム・イタリア・エッセ・ピー・アー A method for obtaining scattered parallax field in stereo vision
JP2009520975A (en) * 2005-12-21 2009-05-28 テレコム・イタリア・エッセ・ピー・アー A method for obtaining a dense parallax field in stereo vision
WO2010071139A1 (en) * 2008-12-17 2010-06-24 株式会社トプコン Shape measurement device and program
JP2016075530A (en) * 2014-10-03 2016-05-12 エヌ・ティ・ティ・インフラネット株式会社 Navigation device and navigation method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350578A (en) * 2005-06-14 2006-12-28 Fuji Xerox Co Ltd Image analysis device
JP4687265B2 (en) * 2005-06-14 2011-05-25 富士ゼロックス株式会社 Image analyzer
US8275195B2 (en) 2005-11-30 2012-09-25 Telecom Italia S.P.A. Method for determining scattered disparity fields in stereo vision
JP2009517683A (en) * 2005-11-30 2009-04-30 テレコム・イタリア・エッセ・ピー・アー A method for obtaining scattered parallax field in stereo vision
JP4887374B2 (en) * 2005-11-30 2012-02-29 テレコム・イタリア・エッセ・ピー・アー A method for obtaining scattered parallax field in stereo vision
US20100215248A1 (en) * 2005-12-21 2010-08-26 Gianluca Francini Method for Determining Dense Disparity Fields in Stereo Vision
JP2009520975A (en) * 2005-12-21 2009-05-28 テレコム・イタリア・エッセ・ピー・アー A method for obtaining a dense parallax field in stereo vision
JP4887376B2 (en) * 2005-12-21 2012-02-29 テレコム・イタリア・エッセ・ピー・アー A method for obtaining a dense parallax field in stereo vision
US8160353B2 (en) * 2005-12-21 2012-04-17 Telecom Italia S.P.A. Method for determining dense disparity fields in stereo vision
JP2008292407A (en) * 2007-05-28 2008-12-04 Canon Inc Information processing method and information processing device
JP2010145186A (en) * 2008-12-17 2010-07-01 Topcon Corp Shape measuring device and program
WO2010071139A1 (en) * 2008-12-17 2010-06-24 株式会社トプコン Shape measurement device and program
JP2016075530A (en) * 2014-10-03 2016-05-12 エヌ・ティ・ティ・インフラネット株式会社 Navigation device and navigation method

Similar Documents

Publication Publication Date Title
CN110568447B (en) Visual positioning method, device and computer readable medium
JP4392507B2 (en) 3D surface generation method
JP6057298B2 (en) Rapid 3D modeling
US9972120B2 (en) Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces
JP6338021B2 (en) Image processing apparatus, image processing method, and image processing program
US7174039B2 (en) System and method for embodying virtual reality
JP2005308553A (en) Three-dimensional image measuring device and method
JP6503906B2 (en) Image processing apparatus, image processing method and image processing program
JP2013539147A5 (en)
JP2000067267A (en) Method and device for restoring shape and pattern in there-dimensional scene
JP2010109783A (en) Electronic camera
JP2001067463A (en) Device and method for generating facial picture from new viewpoint based on plural facial pictures different in viewpoint, its application device and recording medium
CN114255285B (en) Video and urban information model three-dimensional scene fusion method, system and storage medium
Lussu et al. Ultra close-range digital photogrammetry in skeletal anthropology: A systematic review
JPH11504452A (en) Apparatus and method for reproducing and handling a three-dimensional object based on a two-dimensional projection
JP2001148012A (en) Method and device for searching corresponding point
JP2000155831A (en) Method and device for image composition and recording medium storing image composition program
JP2006300656A (en) Image measuring technique, device, program, and recording medium
JP2005140623A (en) Image measuring method and instrument, program, and recording medium
Budianti et al. Background blurring and removal for 3d modelling of cultural heritage objects
JP4149732B2 (en) Stereo matching method, three-dimensional measurement method, three-dimensional measurement apparatus, stereo matching method program, and three-dimensional measurement program
KR101189167B1 (en) The method for 3d object information extraction from single image without meta information
JP2006059165A (en) Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium
JP6768400B2 (en) Information processing equipment, information processing methods and programs
JP2018032144A (en) Image processor, image processing method and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090610