JP2005140623A - Image measuring method and instrument, program, and recording medium - Google Patents
Image measuring method and instrument, program, and recording medium Download PDFInfo
- Publication number
- JP2005140623A JP2005140623A JP2003376934A JP2003376934A JP2005140623A JP 2005140623 A JP2005140623 A JP 2005140623A JP 2003376934 A JP2003376934 A JP 2003376934A JP 2003376934 A JP2003376934 A JP 2003376934A JP 2005140623 A JP2005140623 A JP 2005140623A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target area
- images
- vertex
- calculating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、実寸及び形状が既知である物体(参照物体)と実寸及び形状が未知である物体(測定対象物体)とを同時に撮影した複数の画像を用いて、測定対象物体を囲む矩形領域の実寸を算出する、画像計測方法及び装置に関する。 The present invention uses a plurality of images obtained by simultaneously capturing an object whose actual size and shape are known (reference object) and an object whose actual size and shape are unknown (measurement target object). The present invention relates to an image measurement method and apparatus for calculating an actual size.
撮影された画像を用いて被写体の実寸を測定することは、いわゆる写真測量の分野で広く行われている。近年、ディジタルカメラに代表されるディジタル画像撮影装置の精度が向上し、またディジタル画像撮影装置で撮影したデータ(ディジタル画像)を記録する記録媒体の容量も増大しているため、撮影及び記録画像における縦横の画素(ピクセル)数すなわち解像度が大きくなり、それによって、ディジタル画像は、フィルムカメラ(銀塩カメラ)により撮影されたアナログ画像に匹敵する画質を有するようになってきている。ディジタル画像はコンピュータ処理が容易であるため、これらディジタル画像撮影装置の発展に伴い、写真測量の撮影手段としてディジタル画像撮影装置を用いることが主流となってきている。 Measuring the actual size of a subject using a photographed image is widely performed in the field of so-called photogrammetry. In recent years, the accuracy of digital image capturing apparatuses typified by digital cameras has improved, and the capacity of recording media for recording data (digital images) captured by digital image capturing apparatuses has increased. The number of vertical and horizontal pixels (pixels), that is, the resolution is increased, whereby digital images have an image quality comparable to analog images taken by a film camera (silver salt camera). Since digital images can be easily processed by computers, with the development of these digital image photographing devices, it has become mainstream to use digital image photographing devices as photographing means for photogrammetry.
画像を用いた実寸の測量は、通常、撮影時の視点からの距離をステレオ視を適用して復元するという三角測量原理により行われることがほとんどであり、その原理は非特許文献1をはじめとする多くの文献に記載されている。 Actual-scale surveys using images are usually performed by the triangulation principle of restoring the distance from the viewpoint at the time of shooting by applying stereo vision. It is described in many references.
以下、ディジタル画像撮影装置を単にカメラ等と称し、ディジタル画像撮影装置によって撮影された画像をディジタル画像、あるいは単に画像と称する。また、測量の対象となる現実世界に設定された3次元デカルト座標系を世界座標系またはワールド座標系と呼び、ワールド座標系の3次元の点を Hereinafter, the digital image capturing device is simply referred to as a camera or the like, and an image captured by the digital image capturing device is referred to as a digital image or simply an image. Also, the 3D Cartesian coordinate system set in the real world to be surveyed is called the world coordinate system or the world coordinate system.
などと表す。また、撮影の視点位置(カメラ中心)を原点とする3次元デカルト座標系をカメラ座標系と呼ぶ。また、撮影され記録されたディジタル画像上での2次元デカルト座標系を画像座標系と呼び、画像座標系の2次元の点を And so on. A three-dimensional Cartesian coordinate system having the origin at the photographing viewpoint position (camera center) is called a camera coordinate system. Also, a two-dimensional Cartesian coordinate system on a captured and recorded digital image is called an image coordinate system, and a two-dimensional point in the image coordinate system is called
などと表す。なお、以下の説明において、記載の簡略化のために、各種の記号に関し、混同を来さない限りにおいて、イタリックのボールド体で記載された例えば And so on. In the following description, for simplification of description, various symbols are described in italic bold unless otherwise confused.
を、単に活字体(例えばm,m′)で記載することがある。 May be described simply in a typeface (for example, m, m ′).
図1は、ステレオ視の原理を表している。図において、ステレオ視に用いられる2枚の画像はそれぞれI,I′で表わされており、O,O′はそれぞれ画像I,I′のカメラ中心である。Owはワールド座標系の原点であり、 FIG. 1 shows the principle of stereo vision. In the figure, two images used for stereo vision are represented by I and I ', respectively, and O and O' are the camera centers of the images I and I ', respectively. O w is the origin of the world coordinate system,
はワールド座標系における3次元、m,m′はそれぞれI,I′における Is three-dimensional in the world coordinate system, m and m 'are in I and I'
の像である。また、 It is a statue of. Also,
はエピポールである。 Is an epipole.
ここで図1に示すように、ワールド座標系の点 Here, as shown in FIG.
が異なる複数の画像に撮影されている場合、それぞれの画像に写っている If the images are taken in different images, they appear in each image
の像を対応点と呼ぶ。すなわち、図1においては、画像I上の点mの、画像I′上における対応点はm′であり、逆にm′の画像Iにおける対応点はmである。もちろん、複数の画像に重複して撮影されている部分が多ければ、それだけ対応点の数は多い。 Is called a corresponding point. That is, in FIG. 1, the corresponding point on the image I ′ of the point m on the image I is m ′, and conversely, the corresponding point on the image I of m ′ is m. Of course, if there are a large number of portions that are captured in duplicate in a plurality of images, the number of corresponding points increases accordingly.
さて、ステレオによる測量の原理は以下のとおりである。カメラ中心の位置を変えて撮影した2枚の画像上における参照物体の対応点、すなわち、ワールド座標系での同一位置が、それぞれの画像に写っている位置の画像座標値がわかれば、それぞれの画像を撮影したカメラの射影行列、すなわちワールド座標中のある点が画像中のどの点に射影されたかを計算するための行列がわかる。どのようなカメラモデルを仮定するかにより、必要な対応点の数は異なる。このとき、必要な対応点の画素座標値だけが既知であると、被写体のもとの3次元座標値は相対的なスケールでしか復元できない。 Now, the principle of surveying by stereo is as follows. If the corresponding point of the reference object on the two images taken by changing the center position of the camera, that is, the image coordinate value of the position where the same position in the world coordinate system is reflected in each image is known, A projection matrix of the camera that has taken the image, that is, a matrix for calculating to which point in the image a certain point in the world coordinates is projected is known. The number of corresponding points required varies depending on what camera model is assumed. At this time, if only the pixel coordinate values of the necessary corresponding points are known, the original three-dimensional coordinate values of the subject can be restored only on a relative scale.
しかし、必要な対応点が写している現実の3次元世界の点の、ワールド座標系での3次元座標値と、その対応点の組のそれぞれの画像での画像座標値がわかれば、すなわち、 However, if the three-dimensional coordinate value in the world coordinate system of the actual three-dimensional world point where the necessary corresponding point is copied and the image coordinate value in each image of the pair of corresponding points are known, that is,
が既知であれば、スケール因子も含めた射影行列を得ることができる。この、ワールド座標系での3次元座標値と、対応点の組のそれぞれの画像での画像座標値との組を、以下記号 If is known, a projection matrix including a scale factor can be obtained. This set of the three-dimensional coordinate value in the world coordinate system and the image coordinate value in each image of the set of corresponding points is represented by the following symbol:
あるいは単にSと表すこととする。 Alternatively, it is simply expressed as S.
この、Sがいくつ既知であればよいかも、どのようなカメラモデルを仮定するかにより異なってくる。例えば、非特許文献2や非特許文献3において説明されているアフィンカメラを仮定すると、4組の異なるSがわかれば、2枚の画像の射影行列を知ることができる。この事情を以下に説明する。 How many Ss should be known depends on what camera model is assumed. For example, assuming the affine camera described in Non-Patent Document 2 and Non-Patent Document 3, if four different Ss are known, the projection matrix of two images can be known. This situation will be described below.
をワールド座標系における3次元の点とし、mを、実際に撮影されたディジタル画像上の2次元の点とすると、一般に、撮影された画像上の点m=[u,v]Tとワールド座標空間の点 Is a three-dimensional point in the world coordinate system, and m is a two-dimensional point on the actually photographed digital image, generally, the point m = [u, v] T on the photographed image and the world coordinates Point in space
との間には以下の関係が成り立つ。ただし、ATは行列あるいはベクトルAの転置を表す記号である: The following relationship holds between Where A T is a symbol representing the transpose of a matrix or vector A:
ここでsはスケール因子、Pは3行4列の射影行列である。 Here, s is a scale factor, and P is a 3 × 4 projection matrix.
アフィンカメラを仮定して、行列Pの未知の成分をpij(i=1,2;j=1,2,3,4)で表すと、非特許文献2、非特許文献3に示されているように、一般に(1)式は以下のように簡略化される: Assuming an affine camera, the unknown component of the matrix P is represented by p ij (i = 1, 2; j = 1, 2, 3, 4), as shown in Non-Patent Document 2 and Non-Patent Document 3. In general, equation (1) can be simplified as follows:
したがって、2枚の画像I,I′を撮影したアフィンカメラの射影行列をP,P′、その未知の成分をpij,p'ij(i=1,2;j=1,2,3,4)とし、あるワールド座標の点 Accordingly, the projection matrices of the affine camera that captured the two images I and I ′ are P and P ′, and the unknown components thereof are p ij and p ′ ij (i = 1, 2; j = 1, 2, 3, 4) and a point in world coordinates
が画像I,I′上の対応点m=[u,v]T,m′=[u′,v′]Tに射影されたとすると、次の式が成り立つ: Is projected to corresponding points m = [u, v] T , m ′ = [u ′, v ′] T on the images I and I ′, the following equation holds:
したがって、アフィンカメラを仮定した射影行列を求める場合、(4)式の右辺の行列には16個の未知数があり、1つの3次元ワールド座標及び画像上の対応点ペアSごとに4つの方程式が出てくるので、4組の情報がわかればよいことになる。 Therefore, when obtaining a projection matrix assuming an affine camera, there are 16 unknowns in the matrix on the right side of equation (4), and there are four equations for each three-dimensional world coordinate and corresponding point pair S on the image. As it comes out, you only need to know 4 sets of information.
したがって、いったん射影行列P及びP′が求まれば、ワールド座標における未知の点 Therefore, once the projection matrices P and P ′ are obtained, unknown points in world coordinates
があったとき、その点 When there was
をそれぞれの画像に射影した点m,m′を見つけることにより、(4)式によって点 By finding the points m and m 'that are projected onto each image,
を求めることができる。これを利用すれば、2枚の画像に撮影された物体上の計測したい点の、2枚の画像上での位置を求めてそのワールド座標での距離を求めれば、撮影されている物体の実寸がわかることになる。 Can be requested. If this is used, the actual size of the object being photographed can be obtained by obtaining the position of the point to be measured on the object photographed in the two images on the two images and determining the distance in the world coordinates. Will be understood.
しかしながらこの方法では、測定の対象となる物体のワールド座標系の点が画像上のどこに射影されているかを、少なくとも2枚の画像にわたり、求めなければならない、という問題があった。また、一方の画像Iにおいて、測定の対象点の像を指定し、他方の画像I′上で対応点探索により対応点を求めたとしても、誤対応が生じると正確な結果が得られない、という問題があった。 However, this method has a problem in that it is necessary to determine where on the image the point of the object to be measured in the world coordinate system is projected over at least two images. In addition, even if an image of a measurement target point is designated in one image I and a corresponding point is obtained by searching for a corresponding point on the other image I ′, an accurate result cannot be obtained if an incorrect correspondence occurs. There was a problem.
従来の手法においては、この対応点を正確に求めることによって、計測の精度を向上しようとするものが開示されている。例えば、特許文献1においては、2枚の画像を平行化することによって対応点付けを行う手法が開示されている。また、特許文献2においては、複数カメラにおいて撮影された画像において、マーカーの位置の対応位置を求めるために、探索窓位置を更新しつつ探索する手法が関示されている。
In the conventional technique, a technique for improving the measurement accuracy by accurately obtaining the corresponding points is disclosed. For example,
しかしながら、特許文献1、特許文献2ともに、計測の対象となる範囲を直感的に指定できない、という問題があった。
本発明は、画像に撮影されている対象の大きさを計測しようとする際に、1枚の画像上において測定範囲を矩形(すなわち長方形)等で設定すれば、他の画像上において対応点を指定することなく、その測定範囲のワールド座標系における座標値を得て実寸を算出し、その測定範囲を他の画像に合成することにより実寸比較することが可能となる、画像計測方法及び装置を提供することにある。 According to the present invention, when measuring the size of an object photographed in an image, if a measurement range is set as a rectangle (that is, a rectangle) on one image, a corresponding point on another image is set. An image measurement method and apparatus capable of comparing the actual size by obtaining the coordinate value in the world coordinate system of the measurement range without specifying and calculating the actual size and combining the measurement range with another image. It is to provide.
本発明の画像計測方法は、
測定対象、及び、少なくとも1つの頂点を形成する3つの辺の長さが既知である立方体または直方体または平行六面体をなす参照物体が同時に撮影された少なくとも2枚の画像から、測定対象を囲む矩形領城をなす頂点の3次元座標値を算出する画像計測方法であって、
測定対象及び参照物体が同時に撮影された少なくとも2枚の画像I,I′を入力する段階と、
参照物体の像の4つの頂点の像を入力された2枚の画像I,I′において取得することにより、2枚の画像I,I′の撮影時の、アフィンカメラを仮定した射影行列、及び2枚の画像I,I′間の拘束関係を与える拘束行列を算出し記憶する段階と、
実寸測定の対象となる領域を対象領域Mとして、一方の画像Iにおいて、対象領域Mを囲む画面上での2次元の矩形の指定を受け入れて記憶し、その矩形の辺を、参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で表した際の結合係数を算出し、矩形の形状を修正して矩形の画面上での頂点位置を記憶する段階と、
他方の画像I′において、先に指定された矩形の対応領域を対応対象領域M′として、対応対象領域M′を算出し、対応対象領域M′の画面上での頂点位置を記憶する段階と、
算出された射影行列と、対象領域Mでの頂点位置と、対応対象領域M′での頂点位置を用いて、対象領域Mの頂点の3次元ワールド座標を算出する段階と、を有する。
The image measurement method of the present invention includes:
A rectangular area surrounding the measurement object from at least two images of the measurement object and a reference object forming a cube, a rectangular parallelepiped, or a parallelepiped whose length of three sides forming at least one vertex is known. An image measurement method for calculating a three-dimensional coordinate value of a vertex forming a castle,
Inputting at least two images I and I ′ in which a measurement object and a reference object are simultaneously photographed;
A projection matrix assuming an affine camera at the time of photographing two images I and I ′ by acquiring images of four vertices of the reference object image in the input two images I and I ′, and Calculating and storing a constraint matrix that provides a constraint relationship between the two images I and I ′;
A region to be subjected to actual size measurement is set as a target region M, and a designation of a two-dimensional rectangle on the screen surrounding the target region M is received and stored in one image I, and the sides of the rectangle are stored in the image of the reference object. Calculating a coupling coefficient when represented by a linear combination of three side images intersecting at one vertex, correcting the shape of the rectangle, and storing the vertex position on the rectangular screen;
In the other image I ′, a corresponding target area M ′ is calculated using the previously designated rectangular corresponding area as the corresponding target area M ′, and the vertex position on the screen of the corresponding target area M ′ is stored. ,
Using the calculated projection matrix, the vertex position in the target area M, and the vertex position in the corresponding target area M ′ to calculate the three-dimensional world coordinates of the vertices of the target area M.
本発明においては、射影行列や拘束行列を算出する際には、参照物体の実寸、形状の情報を取得することが好ましい。 In the present invention, when calculating a projection matrix or a constraint matrix, it is preferable to acquire information on the actual size and shape of the reference object.
本発明では、画像IまたはI′上での対象領域頂点位置とその3次元ワールド座標を用いて、他の画像あるいは3次元シーンに合成して表示するようにすることができる。 In the present invention, using the target region vertex position on the image I or I ′ and its three-dimensional world coordinates, it can be combined with another image or a three-dimensional scene and displayed.
また本発明では、矩形領域の画面上での頂点位置を対応対象領域として記憶する段階は、例えば、算出された結合係数を用いて、参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で対応対象領域の画面上での頂点位置を算出し評価する段階と、算出された2画面間の拘束を与える行列を用いて、対象領域の頂点の他方の画像I′での対応位置を算出し評価する段階と、一方の画像Iにおける対象領域M内の輝度情報から得られる特徴点と、他方の画像I′における対応対象領域M′内の輝度情報から得られる特徴点との間の類似度を算出し評価する段階と、各評価する段階による評価値を基に対応対象領域M′の位置、形状を変化させつつ、対応対象領域M′を決定する段階と、を有する。 Further, in the present invention, the step of storing the vertex position on the screen of the rectangular area as the corresponding target area is performed by using, for example, the calculated coupling coefficient of three sides that intersect at one vertex of the reference object image. Using the step of calculating and evaluating the vertex position on the screen of the corresponding target area by linear combination of the images, and using the matrix that gives the constraint between the calculated two screens, the other image I ′ of the vertex of the target area A step of calculating and evaluating the corresponding position, a feature point obtained from the luminance information in the target region M in one image I, and a feature point obtained from the luminance information in the corresponding target region M ′ in the other image I ′ And calculating the degree of similarity between them, and determining the corresponding target region M ′ while changing the position and shape of the corresponding target region M ′ based on the evaluation values obtained in the respective evaluating steps. .
さらに本発明では、一方の画像Iで指定した対象領域Mの、他方の画像I′における対応対象領域M′を決定した後に、その対応対象領域M′を新たな対象領域とみなし、再び一方の画像Iにおける新たな対応対象領域を求めるようにしてもよい。 Further, in the present invention, after determining the corresponding target area M ′ in the other image I ′ of the target area M specified in one image I, the corresponding target area M ′ is regarded as a new target area, and again A new corresponding target area in the image I may be obtained.
本発明の画像計測装置は、測定対象、及び、少なくとも1つの頂点を形成する3つの辺の長さが既知である立方体または直方体または平行六面体をなす参照物体が同時に撮影された少なくとも2枚の画像から、測定対象を囲む矩形領城をなす頂点の3次元座標値を算出する画像計測装置であって、
測定対象及び参照物体が同時に撮影された少なくとも2枚の画像を入力し、記憶及び/または表示するための画像入力手段と、
参照物体の像の4つの頂点の像を前記入力された2枚の画像において取得することにより、2枚の画像の撮影時の、アフィンカメラを仮定した射影行列、及び2枚の画像間の拘束関係を与える行列を算出し記憶する撮影情報算出手段と、
実寸測定の対象となる領域を対象領域として、2枚の画像のうちの一方の画像において、対象領域を囲む画面上での2次元の矩形の指定を受け入れて記憶し、その矩形の辺を、参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で表した際の結合係数を算出し、矩形の形状を修正して矩形の画面上での頂点位置を記憶する対象領域決定手段と、
2枚の画像のうちの他方の画像において、対象領域決定手段での矩形に対応する領域を対応対象領域として算出し、対応対象領域の画面上での頂点位置を記憶する対応対象領域決定手段と、
射影行列と、対象領域での頂点位置と、対応対象領域での頂点位置を用いて、対象領域の頂点の3次元座標を算出する対象領域実寸算出手段と、
を有する。
The image measuring apparatus according to the present invention includes at least two images of a measurement object and a reference object having a cube, a rectangular parallelepiped, or a parallelepiped whose length of three sides forming at least one vertex is known. From the image measuring device for calculating the three-dimensional coordinate value of the vertex forming the rectangular castle surrounding the measurement object,
Image input means for inputting, storing and / or displaying at least two images of the measurement object and the reference object taken simultaneously;
By acquiring the images of the four vertices of the reference object image in the two input images, a projection matrix assuming an affine camera and the constraint between the two images at the time of photographing the two images Photographing information calculation means for calculating and storing a matrix for giving a relationship;
With the target area of the actual size measurement as the target area, in one of the two images, the designation of a two-dimensional rectangle on the screen surrounding the target area is accepted and stored, and the sides of the rectangle are The target area for storing the vertex position on the rectangular screen by calculating the coupling coefficient when the image of the reference object is represented by the linear combination of the three side images that intersect at one vertex. A determination means;
Corresponding target area determining means for calculating the area corresponding to the rectangle in the target area determining means as the corresponding target area in the other of the two images and storing the vertex position on the screen of the corresponding target area; ,
A target area actual size calculating means for calculating the three-dimensional coordinates of the vertices of the target area using the projection matrix, the vertex position in the target area, and the vertex position in the corresponding target area;
Have
本発明は、画像に撮影されている測定対象の範囲を片方の画像のみで矩形により指定しさえすれば、その範囲の実寸を得ることができるというと効果がある。 The present invention has an effect that the actual size of the range can be obtained as long as the range of the measurement object captured in the image is specified by a rectangle only with one image.
次に、本発明の好ましい実施の形態について、図面を参照して説明する。図2は、本発明の実施の一形態の計測装置の全体を示すブロック図である。図3は、この計測装置の細部を示すブロック図である。 Next, a preferred embodiment of the present invention will be described with reference to the drawings. FIG. 2 is a block diagram showing the entire measuring apparatus according to the embodiment of the present invention. FIG. 3 is a block diagram showing details of the measuring apparatus.
計測装置は、測定対象、及び、少なくとも1つの頂点を形成する3つの辺の長さが既知である立方体または直方体または平行六面体をなす参照物体が同時に撮影された少なくとも2枚の画像から、測定対象を囲む矩形領城(長方形領域)をなす頂点の3次元座標値を算出するものであって、画像入力部100と、撮影情報算出部200と、対象領域決定部300と、対応対象領域決定部400と、対象領域実寸算出部500と、対象領域表示部600と、を備えている。
The measuring device is a measuring object based on a measuring object and at least two images of a cube, a rectangular parallelepiped, or a parallelepiped reference object whose lengths of three sides forming at least one vertex are known. 3D coordinate values of vertices forming a rectangular castle (rectangular region) surrounding the image, an
画像入力部100は、画像読込部101と画像記憶部102と画像表示部103とを備えており、測定対象、及び、立方体または直方体または平行六面体をなす参照物体が同時に撮影された少なくとも2枚の画像を入力し、記憶あるいは表示する。撮影情報算出部200は、参照物体情報入力部201と参照物体抽出部202と対応点取得部203と対応関係算出・記憶部204と射影行列算出・記憶部205とを備えており、参照物体の実寸、形状の情報を取得し、参照物体の像の4つの頂点の像を入力された2枚の画像(一方の画像と他方の画像)において取得することにより、2枚の画像の撮影時の、アフィンカメラを仮定した射影行列、及び2枚の画像間の拘束関係を与える行列を算出し記憶する。対象領域決定部300は、基底ベクトル導出部301と対象領域選択部302と結合係数導出部303と領域変形部304と領域位置記憶部305とを備えており、一方の画像において実寸測定の対象となる領域(これを対応領域という)を囲む画面上での2次元の矩形の指定を受け入れて記憶し、その矩形の辺を、参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で表した際の結合係数を算出し、その矩形の形状を修正して矩形の画面上での頂点位置を記憶する。
The
対応対象領域決定部400は、領域形状算出部401と領域位置算出部402と特徴量算出部403と対応領域移動・評価部404とを備えており、他方の画像において、先に指定された矩形に対応する領域(これを対応対象領域という)を算出し、対応対象領域の画面上での頂点位置を記憶する。特に、領域形状算出部401は、算出された結合係数を用いて、参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合によって、対応対象領域の画面上での頂点位置を算出し評価する。領域位置算出部402は、算出された2画面間の拘束を与える行列を用いて、対象領域の頂点の別の画像での対応位置を算出し評価する。特徴量算出部403は、一方の画像における対象領域内の輝度情報から得られる特徴点と、他方の画像における対応対象領域内の輝度情報から得られる特徴点との間の類似度を算出し評価する。そして対応領域移動・評価部404は、領域形状算出部401、領域位置算出部402及び特徴量算出部403による評価値を基に、対応対象領域位置、形状を変化させつつ、対応対象領域を決定する。
The correspondence target
対象領域実寸算出部500は、世界座標算出部501と相対座標算出部502とを備えており、算出された射影行列と、対象領域決定部300により算出され記憶された対象領域の頂点位置と、対応対象領域決定部400により算出され記憶された対応対象領域の頂点位置とを用いて、対象領域の頂点の3次元座標を算出する。対象領域表示部600は、テクスチャオブジェクト生成部601とポリゴン生成部602と画像生成部603と表示部604とを備えており、入力された画像と、対象領域の画面上での頂点位置と、その3次元座標を用いて、対象領域内の画像データを他の画像あるいは3次元シーンに合成して表示する機能を有する。
The target area actual
次に、この計測装置を用いた、測定対象及び参照物体が同時に撮影された少なくとも2枚の画像から測定対象を囲む矩形領城をなす頂点の3次元座標値を算出する処理を説明する。ここで参照物体は、少なくとも1つの頂点を形成する3つの辺の長さが既知である立方体または直方体または平行六面体である。 Next, a process for calculating the three-dimensional coordinate values of the vertices forming a rectangular castle surrounding the measurement object from at least two images of the measurement object and the reference object simultaneously photographed using the measurement apparatus will be described. Here, the reference object is a cube, a rectangular parallelepiped or a parallelepiped whose lengths of three sides forming at least one vertex are known.
まず、画像入力部100の画像読込部101において、測定対象及び参照物体が撮影された少なくとも2枚の画像を入力する。このとき、少なくとも2枚の画像において、撮影するカメラのカメラ中心は移動していることが望ましく、参照物体のひとつの頂点を通る3つの辺が画像上に写っていることが望ましい。また、この3つの辺の像は、画像上において数画素以上の長さを有することが望ましい。また、3つの辺のうち1つは現実の世界において鉛直方向であり、他の2辺はこの鉛直方向の辺に垂直であることが望ましい。以下は、参照物体のひとつの頂点を通る3つの辺が上記の条件を満たしているものとして説明を進める。なお、鉛直ではない2辺は、互いに垂直であることが好ましいが、同一直線上でなければ、垂直でなくてもよい。以下、画像を2枚とし、それぞれの画像をI,I′とする。
First, the
次に、画像入力部100の画像記憶部102は、画像読込部101で読み込んだ画像を記憶し、またその画像を画像表示部103が表示する。この画像の表示は、後述する対象領域決定部300の対象領域選択部302において、ユーザによる矩形の入力を受け付けるためのものである。
Next, the
以上のようにして画像入力部100での画像の入力と記憶とが終了すると、次に、撮影情報算出部200が起動し、その参照物体情報入力部201が、あらかじめ入力しておいた参照物体の上述の3つの辺の実寸及び形状を取得する。以下、参照物体の3つの辺が交わる頂点の3次元ワールド座標をX0、X0から引いた鉛直下向きに相当する辺をなす参照物体の頂点の3次元ワールド座標をX2とする。また、ワールド座標系においてXoを原点とみなし、X0X2を下向きY軸とみなし、X0を通る残りの2つの辺をX軸、Z軸とみなしたときに、これらX軸、Y軸、Z軸が右手系をなすようにX軸、Z軸を取るものとし、参照物体の残りの2つの辺の、X軸をなす辺をX0X1、Z軸をなす辺をX0X3とする。本発明においては、ワールド座標系の原点はどこにとっても構わないので、上述のようにXoを原点とし、X0X1をX軸、X0X2をY軸、X0X3をZ軸とすることにする。
When the input and storage of the image in the
参照物体情報入力部201は、X0X1,X0X2,X0X3の長さを取得することになる。この長さはユーザが手入力によって入力してもよいし、あらかじめ既知のものとして設定されていてもよいし、例えばネットワークに接続されたデータベースサーバ内のテンプレートモデルと参照物体とを照合し、照合結果に応じてテンプレートモデルでの長さを取得するようにしてもよい。
The reference object
次に、参照物体抽出部202が、画像I,I′において参照物体の3つの辺をなす4つの頂点の像を抽出する。すなわち、2枚の画像における4つの頂点の像の座標値を、それぞれの画像に設定された2次元座標値により求める。これは、例えばユーザにより画面上にこれらの画像を表示しながら手入力によって指定してもよいし、参照物体の形状が既知であるとしてHough変換により辺を抽出してあらかじめ登録されていたモデルとのテンプレートマッチングを行ってもよい。4つの頂点の像が抽出されると、対応点取得部203が、4つの頂点の画像I,I′における像を対応付ける。参照物体抽出部202での頂点像の抽出や対応点取得部203における対応付けは、前記のように手入力にて同時に実施してもよい。対応点取得部203での対応付けには、既知の手法、例えば、ブロックマッチングやオプティカルフローを用いてもよい。
Next, the reference
以下、参照物体の4つの頂点X0,X1,X2,X3の画像Iにおける像をそれぞれ Hereinafter, the images in the image I of the four vertices X 0 , X 1 , X 2 , X 3 of the reference object are respectively shown.
とおき、画像I′における像をそれぞれ And the images in image I '
とおく。例えば図4に示す far. For example, as shown in FIG.
はその例である。図4は、対応領域の探索を表す図である。ここで図4(a)は一方の画像Iを、図4(b)は他方の画像I′を示しており、 Is an example. FIG. 4 is a diagram illustrating a search for a corresponding area. 4A shows one image I, and FIG. 4B shows the other image I ′.
はそれぞれ画像I,I′における参照物体の頂点の像であり、mi,m'i(i=0,1,2,3)は矩形領域の頂点を表している。また Are the images of the vertices of the reference objects in the images I and I ′, respectively, and m i and m ′ i (i = 0, 1, 2, 3) represent the vertices of the rectangular area. Also
は、それぞれ、頂点miの画像I′におけるエピポーラ線を示す。 Respectively show epipolar lines in the image I 'of the vertex m i.
次に、対応関係算出・記憶部204は、
Next, the correspondence calculation /
の座標値から、画像I及びI′間に成り立つ拘束関係を用いて、拘束行列を求める。 From the coordinate values, a constraint matrix is obtained using a constraint relationship established between the images I and I ′.
一般に、撮影時のカメラ中心が異なる2つの画像において、対応点、すなわち同じ3次元ワールド座標の点のそれぞれの画像上での像を、それぞれm,m′とし、m,m′の同次座標表記をそれぞれ In general, in two images having different camera centers at the time of shooting, the corresponding points, that is, the images on the respective images of the same three-dimensional world coordinate points are denoted by m and m ′, respectively, and the homogeneous coordinates of m and m ′. Each notation
とすると、 Then,
という拘束式が成り立つ。これを一般化エピポーラ方程式といい、 The constraint equation holds. This is called the generalized epipolar equation,
は3行3列の行列であって、Fundamental MatrixあるいはF行列などといい、非特許文献1〜3記載のように、アフィンカメラを仮定すると、4組の対応点が既知であれば、このF行列の成分を計算できることが知られている。
Is a matrix of 3 rows and 3 columns, and is called a Fundamental Matrix or F matrix. As described in
また、一方の画像I上の点mの他方の画像I′における対応点は、次の式を満たす画像I′上の直線 In addition, the corresponding point in the other image I ′ of the point m on one image I is a straight line on the image I ′ that satisfies the following equation:
上にあるという拘束条件も満たしていることが知られている。 It is known that the constraint condition of being above is also satisfied.
このような直線 Straight line like this
を一般にエピポーラ線と呼ぶ。 Is generally called an epipolar line.
なお、カメラの焦点距離などの内部パラメータが既知であれば、 If internal parameters such as camera focal length are known,
の代わりにEssential MatrixあるいはE行列などと呼ばれる行列を求めることができるが、本発明では、特に区別せず拘束行列と呼び、改めて Can be obtained instead of an essential matrix or an E matrix, but in the present invention, it is called a constraint matrix without distinction.
で表すことにする。すなわち、対応関係算出・記憶部204は、
It will be expressed as That is, the correspondence calculation /
を用いて、拘束行列 Using the constraint matrix
を求めて記憶することになる。 Will be remembered.
次に、射影行列算出・記憶部205が、
Next, the projection matrix calculation /
を用いて、背景技術で述べた方法によって、一方の画像Iの撮影時のアフィン射影行列P、及び他方の画像I′の撮影時のアフィン射影行列P′を算出し、記憶する。 Is used to calculate and store the affine projection matrix P at the time of shooting one image I and the affine projection matrix P ′ at the time of shooting the other image I ′.
次に対象領域決定部300の詳細について説明する。対象領域決定部300は、画像Iにおける測定の対象となる部分を囲む矩形の頂点座標値を決定する。
Next, details of the target
まず、基底ベクトル導出部301は、前記の
First, the basis
から、ワールド座標系における From the world coordinate system
の像、すなわち、 The image of
を求める。 Ask for.
一方、対象領域選択部302は、測定の対象となる領域を設定する。その際、ユーザからの入力により、一方の画像I上で長方形領域を選択してもよいし、ある対象を囲むような長方形領域を選択してもよい。このようにして設定した領域の頂点を、以下、mi(i=0,1,2,3)とおく。図4(a)の人物像を囲む領域はその例である。本実施形態は、この矩形領域を構成するmi(i=0,1,2,3)の、他方の画像I′における対応点m'i(i=0,1,2,3)を求めることができる点が主たる特徴である。
On the other hand, the target
まず、mi(i=0,1,2,3)の3次元ワールド座標系での座標値をMi(i=0,1,2,3)とする。3次元ワールド座標系において、長方形Mi(i=0,1,2,3)は、参照物体のY軸をなすX0X2に平行な縦辺(図4(a)のm1m2とm3m0がワールド座標系でなす辺)と、参照物体のZX平面、すなわちX0X1とX0X3とで張られる面に平行な横辺(図4(B)のm0m1とm2m3がワールド座標系でなす辺)をなすものとする。 First, let M i (i = 0, 1, 2, 3) be the coordinate values of m i (i = 0, 1, 2, 3) in the three-dimensional world coordinate system. In the three-dimensional world coordinate system, the rectangle M i (i = 0, 1, 2, 3) is a vertical side parallel to X 0 X 2 forming the Y axis of the reference object (m 1 m 2 in FIG. 4A). and m 3 m 0 and sides) formed by the world coordinate system, ZX plane of the reference object, namely X 0 X 1 and X 0 m of X 3 and parallel to the plane spanned by the horizontal side (FIG. 4 (B) 0 Assume that m 1 and m 2 m 3 form an edge in the world coordinate system.
参照物体のY軸が3次元ワールド座標系の鉛直線に平行であり、参照物体のZX面が3次元ワールド座標系の水平面と平行であれば、長方形Mi(i=0,1,2,3)は3次元ワールド座標系において水平面に鉛直な長方形で表される面を表すことになる。 If the Y axis of the reference object is parallel to the vertical line of the 3D world coordinate system and the ZX plane of the reference object is parallel to the horizontal plane of the 3D world coordinate system, then the rectangle M i (i = 0, 1, 2, 3) represents a plane represented by a rectangle perpendicular to the horizontal plane in the three-dimensional world coordinate system.
さて、アフィンカメラにおいては、ワールド座標系で平行な直線の組は、画像上でも平行な直線の組に射影されるという性質があるため、ワールド座標系で水平面に平行な直線は画像上でも水平面に平行である。したがって、例えば、 In the affine camera, a set of straight lines parallel to the world coordinate system is projected onto a set of parallel straight lines on the image. Therefore, a straight line parallel to the horizontal plane in the world coordinate system is projected on the horizontal plane on the image. Parallel to So, for example,
と表すことができるとすると、そのアフィンカメラによる一方の画像Iへの像も Can be expressed as an image on one image I by the affine camera.
となり、同様にアフィンカメラによる他方の画像I′への像も Similarly, the image to the other image I 'by the affine camera is also
となる。 It becomes.
基底ベクトル導出部301での基底ベクトルの導出と対象領域選択部302での対象領域の選択が終わると、結合係数算出部303は、(8)式を用いて、αx,αzを求める。この段階では、
When the derivation of the base vector in the base
が既知であるので、これらは容易に求められる。 Are known, since they are known.
次に、領域変形部304が、長方形Mi(i=0,1,2,3)の縦辺が参照物体のX0X2に平行であることから、I上の像でもmi(i=0,1,2,3)の縦辺と、
Next, since the
とが平行になるようにmi(i=0,1,2,3)を移動させる。その際、縦辺の距離を保って、mi(i=0,1,2,3)の2点を移動させてもよい。 DOO moves the m i (i = 0,1,2,3) so as to be parallel. At that time, the two points m i (i = 0, 1, 2, 3) may be moved while maintaining the distance of the vertical side.
その後、領域位置記憶部305は、変形後のmi(i=0,1,2,3)を改めてmi(i=0,1,2,3)とし、メモリ上に記憶する。以上により、Iにおける矩形領域の頂点座標値mi(i=0,1,2,3)が決定され、対象領域決定部300での処理が終了する。
After that, the region
次に、他方の画像I′におけるmi(i=0,1,2,3)の対応点m'i(i=0,1,2,3)を、対応対象領域決定部400が決定する。対応対象領域決定部400での処理を説明する。
Next, the corresponding target
まず、領域形状算出部401が、対象領域決定部300の結合定数導出部303が求めた結合係数αx,αzを用いて、m'i(i=0,1,2,3)の横辺の方向ベクトルを算出し、さらに、縦辺の方向ベクトルを
First, the region
とする。この方向ベクトルにより、m'i(i=0,1,2,3)の形状が求まる。しかし、この領域形状算出部401での計算のみでは、画像上のどの位置にm'iがあるのかが決定できない。一方、領域位置算出部402は、エピポーラ線にかかわる拘束行列
And From this direction vector, the shape of m ′ i (i = 0, 1, 2, 3) is obtained. However, it is impossible to determine at which position on the image m ′ i exists only by the calculation by the region
により、mi(i=0,1,2,3)の他方の画像I′における対応点が、 Thus, the corresponding point in the other image I ′ of m i (i = 0, 1, 2, 3) is
上にあることを用いて、m'i(i=0,1,2,3)の位置を決定する。しかし、この領域位置算出部402での計算のみでは、エピポーラ線上のどの点がm'iであるかが決定できない。領域形状算出部401と領域位置算出部402を用いれば、m'iの形状と辺の長さを決定できるが、一意的な位置は決定できない。この段階では、miのどれか1点の対応点が求まればよいので、例えばオプティカルフロー探索やブロックマッチング法などにより、miのどれか1点の対応点を他方の画像I′上で求めて、m'iを一意的に決定することも考えられるが、miが例えば全て輝度変化のない領域内にあると、そのような対応点を探すことができない。
Using the above, the position of m ′ i (i = 0, 1, 2, 3) is determined. However, it is impossible to determine which point on the epipolar line is m ′ i only by the calculation in the region
そこで、特徴量算出部403において、一方の画像Iのmi(i=0,1,2,3)で囲まれる領域内のある量と、他方の画像I′のm'i(i=0,1,2,3)で囲まれる領域内のある量とを算出する。具体的には、例えば、画像Iのmiで囲まれる領域内の特徽点を、例えば輝度値によるコーナーとしていくつか求め、各特徴点を、例えば矩形miのある頂点mn(n∈{0,1,2,3})を始点として、その矩形の横辺、縦辺を基底ベクトルとしてその一次結合で表し、その特徴点の座標の平均位置(重心位置)を算出する。同様に、その特徴点の他方の画像I′のm'iで囲まれる領域内における対応点を、例えばブロックマッチング法やオプティイカルフロー探索により求め、原点としたmnに対応するm'nを始点とし、m'iの縦辺、横辺を基底ベクトルとしてその対応特徴点の座標の平均位置(重心位置)を算出し、両者の結合係数を比較する、などの方法が用いられる。
Therefore, in the feature
miやm'iで囲まれる領域内には、測定の対象となる被写体の像が写っているため、上述したコーナー等の特徴点は存在する可能性が大きく、前述したmiの対応点を探索する方法よりも処理が容易である。 The surrounded by the area in m i and m 'i, since the image of the subject to be measured is captured, feature points such as corners described above greatly possibly present, corresponding points m i mentioned above It is easier to process than the method of searching.
次に、対応領域移動・評価部404は、m'iのある頂点をエピポーラ線
Next, the corresponding area movement /
上で移動させながら、上述した領域形状算出部401、領域位置算出部402及び特徴量算出部403の処理を繰り返し、領域形状算出部401、領域位置算出部402及び特徴量算出部403の処理によって算出される量があるしきい値より小さければ処理を終了し、そうでなければ再度m'iのある頂点をエピポーラ線
While moving above, the processing of the region
上で移動させて再びこれらの量の算出を行う。 Move these up to calculate these quantities again.
算出される量として、例えば、領域形状算出部401においては、現在のm'iから算出される結合係数α'x,α'zとαx,αzとの差を評価する関数
As the amount to be calculated, for example, in the region
を用いてもよいし、その正の平方根を用いてもよい。 May be used, or the positive square root thereof may be used.
また、領域位置算出部402における評価関数として、
In addition, as an evaluation function in the region
との距離をδiとおき、対応点のエピポーラ線上への拘束の度合いを表す関数 The [delta] i Distant distance between, the function representing the degree of restraint to the epipolar line of the corresponding point
を用いてもよい。 May be used.
また、特徴量算出部403における評価関数として、画像IとI′における特徴点の重心位置の結合係数を(μ,ν),(μ′,ν′)とおき、
Further, as an evaluation function in the feature
を用いてもよい。 May be used.
また、これらの評価関数の重み付きの和を Also, the weighted sum of these evaluation functions is
として、処理終了の判定基準となるしきい値εを設けて、判定をしてもよい。 Alternatively, the determination may be made by providing a threshold value ε as a criterion for determining the end of processing.
なお、このようにして求めたm'iを新たに対象領域とみなし、一方の画像Iに対して、miを初期値として同様の処理を繰り返してもよい。 Note that m ′ i obtained in this way may be newly regarded as a target region, and the same processing may be repeated for one image I with m i as an initial value.
対応対象領域決定部400によりm'iが求まったら、次に、対象領域実寸算出部500は、M'iの3次元ワールド座標値を求める。以下、対象領域実寸算出部500での処理を説明する。
Once m ′ i is obtained by the corresponding target
世界座標算出部501は、既に求めた頂点mi,m'i(i=0,1,2,3)及び射影行列P,P′から、背景技術で述べた方法により、Miの3次元ワールド座標値を求める。Miは、3次元ワールド座標において対象物体を囲む長方形(矩形)を表しており、長方形が対象物体を囲む最小の大きさであれば、その長方形の縦横の辺の長さを求めることにより、その対象物体の縦横の大きさを求めることができる。
The world coordinate
Miの3次元ワールド座標値が求められると、相対座標算出部502は、Miを適当な相対座標値にする。Miは参照物体のX0を原点とする座標値であったので、例えば、M0を始点として、他の点をM0からの位置ベクトルで表す、などの方法により、相対座標値に変換される。もちろん、相対座標値を算出を省略しても差し支えない。以上の処理によって、一方の画像I上で矩形領域を設定するだけで、その矩形領域の頂点のワールド座標値を算出することができた。
When the three-dimensional world coordinate value of M i is obtained, the relative coordinate
このようにして画像内矩形領域の実寸を知ることができたので、次に、対象領域表示部600は、画像のその矩形領域を、実寸で定義された3次元のポリゴンとして生成し、また、そのポリゴンに対する画像の矩形領域内の画素のテクスチャマッピングを行う。さらに、同様にして生成された他の対象物体のテクスチャマッピングされたポリゴンと、同じ視界情報を持つシーンにおいて同時に表示することで、互いの大きさ情報を比較することが可能となる。以下、対象領域表示部600での処理を説明する。
Since the actual size of the rectangular area in the image was found in this way, next, the target
テクスチャオブジェクト生成部601は、一方の画像Iとmi(i=0,1,2,3)から、Iのmi(i=0,1,2,3)が囲む領域の画素データを得る。なお、他方の画像I′とm'i(i=0,1,2,3)から得られるデータでももちろんよい。そしてポリゴン生成部602が、頂点Mi(i=0,1,2,3)を持つ四辺形ポリゴンを生成する。ここで、テクスチャオブジェクト生成部601で生成した画素データを、ポリゴン生成部602が生成したポリゴンにテクスチャマッピングしてもよいし、テクスチャオブジェクト生成部601で生成した画素データの形状的な頂点mi(i=0,1,2,3)のワールド座標系での位置Mi(i=0,1,2,3)が既知であることから、ポリゴンを生成せず、射影することとしてもよい。画像生成部603は、このように生成された単独あるいは複数のオブジェクトを、ある視界情報を持つシーンにおける面オブジェクトとして生成する。その後、表示部604は、画像生成部603によって生成された合成シーンを画面上に表示する。
The texture
以上、本発明の好ましい実施形態の計測装置を説明した。上述した計測装置は、専用のハードウェア装置として構成することができるともに、それを実現するためのコンピュータプログラムを、パーソナルコンピュータやワークステーションなどのコンピュータに読み込ませ、そのプログラムを実行させることによっても実現できる。画像計測を行うためのプログラムは、磁気テープやCD−ROMなどの記録媒体によって、あるいは、ネットワークを介して、コンピュータに読み込まれる。このようなコンピュータは、一般に、CPUと、プログラムやデータを格納するためのハードディスク装置などの外部記憶装置と、主メモリと、キーボードやマウスさらにはディジタルカメラなどの入力装置と、CRTや液晶ディスプレイなどの表示装置と、磁気テープやCD−ROM等の記録媒体を読み取る読み取り装置とから構成されている。外部記憶装置、主メモリ、入力装置、表示装置及び読み取り装置は、いずれも中央処理装置に接続している。このコンピュータは、上述した計測を行うためのプログラムを格納した記録媒体を読み取り装置に装着し、記録媒体からプログラムを読み出して外部記憶装置に格納し、あるいはネットワークを介してそのようなプログラムをダウンロードして外部記憶装置に格納し、その後、外部記憶装置に格納されたプログラムをCPUが実行することにより、上述した計測装置として機能する。 The measurement apparatus according to the preferred embodiment of the present invention has been described above. The above-described measuring device can be configured as a dedicated hardware device, and is also realized by reading a computer program for realizing it into a computer such as a personal computer or a workstation and executing the program. it can. A program for performing image measurement is read into a computer by a recording medium such as a magnetic tape or a CD-ROM, or via a network. Such a computer generally has a CPU, an external storage device such as a hard disk device for storing programs and data, a main memory, an input device such as a keyboard, a mouse, and a digital camera, a CRT, a liquid crystal display, and the like. Display device and a reading device for reading a recording medium such as a magnetic tape or a CD-ROM. The external storage device, main memory, input device, display device, and reading device are all connected to the central processing unit. This computer loads a recording medium storing a program for performing the above-described measurement into a reading device, reads the program from the recording medium and stores it in an external storage device, or downloads such a program via a network. When the CPU executes the program stored in the external storage device and then stored in the external storage device, it functions as the above-described measurement device.
以下、コンピュータプログラムとして本実施形態の計測装置を実現した場合における、そのコンピュータプログラムにおける処理ステップについて、図5を用いて説明する。図5は、このようなコンピュータプログラムにおける処理の流れを示しており、ここで、 Hereinafter, processing steps in the computer program when the measuring apparatus of the present embodiment is realized as a computer program will be described with reference to FIG. FIG. 5 shows the flow of processing in such a computer program, where
は画像I,I′間のF行列であり、 Is the F matrix between the images I and I ′,
は画像I,I′における参照物体の3軸の像であり、[αx,αz]は対象領域矩形の辺の、参照物体の軸で表した一次結合係数であり、 Is a three-axis image of the reference object in the images I and I ′, and [α x , α z ] is a linear coupling coefficient of the sides of the target region rectangle expressed by the axis of the reference object,
は、それぞれ、対象領域矩形のワールド座標値、画像I,I′における像である。 Are the world coordinate values of the target area rectangle and the images in the images I and I ′, respectively.
なお、図においてSPxxxは、このようなコンピュータプログラムにおいて、ひとかたまりのプログラムブロックとして実装されるステップを示している。ここでxxxの部分の数字は、図3に示した計測装置における各処理部の参照符号と対応付けられている。例えば、SP202は、上述した説明での参照物体抽出部202での処理に対応するプログラムブロックである。
In the figure, SPxxx indicates steps implemented as a group of program blocks in such a computer program. Here, the numbers in the part xxx are associated with the reference numerals of the respective processing units in the measuring apparatus shown in FIG. For example, the
まずSP101において、参照物体及び対象物体が同時に撮影された画像を読み込む。本実施形態では、参照物体は直方体をなしており、水平面上に置かれているものとする。また、参照物体及び対象物体は静止しており、カメラ位置を変えて撮影した2枚の画像を読み込むものとする。その際、カメラパラメータ、すなわちズーム倍率等は固定しなくてもよい。本発明においては、2枚の撮影画像間においてカメラが校正されている必要がないからである。次にSP1において、読み込んだ画像をディジタルデータとして記憶する。その際、画像を識別するための何らかの識別子(例えばファイル名)と同時に記憶してもよい。この説明では、簡単のため、記憶に関わるステップを全てSP1で表している。当然ながら、各段階における記憶に関わるステップを、全て独立したステップとしてもよい。また、画像の記憶と平行して、SP103において、画像を表示する。 First, in SP101, an image in which the reference object and the target object are simultaneously captured is read. In the present embodiment, it is assumed that the reference object has a rectangular parallelepiped shape and is placed on a horizontal plane. Further, it is assumed that the reference object and the target object are stationary, and two images taken by changing the camera position are read. At this time, camera parameters, that is, zoom magnification and the like may not be fixed. This is because in the present invention, the camera does not need to be calibrated between two captured images. Next, in SP1, the read image is stored as digital data. At that time, it may be stored simultaneously with some identifier (for example, file name) for identifying the image. In this description, for the sake of simplicity, all steps related to storage are represented by SP1. Of course, all the steps related to storage in each stage may be independent steps. In parallel with image storage, the image is displayed in SP103.
画像の表示後、SP202において、参照物体の、互いに直交し、1点で交わる3辺の像を、2枚の画像において抽出する。これは、ユーザが画面上でマウス等によりそれらの位置を順序付けて選択してもよいし、2枚の画像間でブロックマッチングやオプティカルフロー探索処理等を行うことにより、一方の画面で選択して他方の画面では対応点として求めるようにしてもよい。その後、SP203において、4頂点の対応付けを行う。これも、ユーザが点を順序付けて選択することで対応付けてもよいし、点を選択後、あらためて対応付けてもよい。 After displaying the image, in SP202, images of three sides of the reference object that are orthogonal to each other and intersect at one point are extracted from the two images. This can be done by selecting the position on the screen with a mouse or the like on the screen, or selecting on one screen by performing block matching or optical flow search processing between the two images. You may make it obtain | require as a corresponding point in the other screen. Thereafter, in SP203, the four vertices are associated. This may be associated by the user selecting points in order, or may be associated again after selecting the points.
4頂点の対応付け後、SP204において、4つの対応付けられた頂点から、2枚の画像のF行列を計算し、SP1において記憶する。また、参照物体の情報を、例えばテンプレートやユーザによる手入力、初期設定などにより、SP201において取得する。ここでは、参照物体における直交する3辺の長さを得る。例えば、上述したように、直交する3辺の交点の3次元座標をX0、X0から引いた鉛直下向きに相当する辺をなす参照物体の頂点の3次元座標をX2、残りの2辺の端点をX1,X3とし、X0X1,X0X2,X0X3が右手系をなすように3辺を設定する。ただし、X0X2はY軸である。ここで、各辺の長さがX0X1=d1,X0X2=d2,X0X3=d3として、X0=(0,0,0),X1=(d1,0,0),X2=(0,d2,0),X3=(0,0,d3)とおく。SP201の後、SP205において、Xi及びこれらの像
After associating the four vertices, in SP204, F matrices of two images are calculated from the four associated vertices and stored in SP1. Further, the reference object information is acquired in
からアフィン射影行列P,P′を求め、SP1において記憶する。 Affine projection matrices P and P ′ are obtained from the above and stored in SP1.
また、SP203の実行後、上述とは独立した処理として、SP301において、Xiの像 Further, after execution of SP203, as an independent process to the above, in the SP301, X i image of
から、基底ベクトルとして、前記の From the above, as the basis vector
を求める。 Ask for.
また、SP202の実行後、上述とは独立の処理として、SP302において、SP202で表示された画像の片方であるI(一方の画像)に対し、測定の対象となる被写体を囲む最小の長方形領域を指定する。この処理は、ユーザからの入力を受け付けることによって行えばよく、また、長方形の辺は、画像の縦辺、横辺に平行でよい。図4(a)の人物像を囲む領域はその例である。 In addition, after execution of SP202, as a process independent of the above, in SP302, a minimum rectangular area surrounding a subject to be measured is set for I (one image) which is one of the images displayed in SP202. specify. This process may be performed by receiving input from the user, and the sides of the rectangle may be parallel to the vertical and horizontal sides of the image. An example of the region surrounding the person image in FIG.
SP301とSP302の処理が両方とも終わったら、SP303において、SP302で設定された長方形領域の横辺の、 When both the processing of SP301 and SP302 is completed, in SP303, the horizontal side of the rectangular area set in SP302 is displayed.
で表された一次結合係数を求める。例えば、図4(a)において、 1 is obtained. For example, in FIG.
を The
と表し、実数(αx,αz)を求め、SP1により記憶する。 And real numbers (α x , α z ) are obtained and stored in SP1.
SP303と同様に、SP304において、図4(a)における Similar to SP303, in SP304, in FIG.
が、長さを保ちつつ But keep the length
と平行になるように、m0,m1の位置を修正する。もちろん、m2,m3の位置を修正してもよい。また、この修正により、測定の対象となる被写体が矩形からはみ出してしまったような場合は、SP302に戻って処理を繰り返してもよい。 The positions of m 0 and m 1 are corrected so that they are parallel to each other. Of course, the positions of m 2 and m 3 may be corrected. In addition, if the subject to be measured protrudes from the rectangle due to this correction, the processing may be repeated by returning to SP302.
このようにして、miを決定し、SP1によって記憶する。 Thus, to determine the m i, is stored by SP1.
次に、以上説明した処理によって得られた情報を用いて、他方の画像I′におけるmiの対応点m'i(i=0,1,2,3)を決定する。 Next, the corresponding point m ′ i (i = 0, 1, 2, 3) of m i in the other image I ′ is determined using the information obtained by the processing described above.
まず、SP403dにおいて、m'iを決定する処理が終了したかどうかを判定する。終了していなければ、SP403eにおいて、次の画像においてm'iを見つけるかどうかの判定を行う。例えば、まだ一方の画像I上のmiしか決まっていなければYesを選択し、他方の画像I′上のm'iを求める処理(以下のSP401,SP402)を行う。また、m'iを求めたが、再度、他方の画像I′上のm'iを既知の領域として、例えば一方の画像I上においてmiを求める処理を行ってもよい。あるいは、画像が2枚よりも多い場合に、3枚目以降の画像において対応領域を求める処理を行ってもよい。どういう判断基準でこれらの判定を行うかは、一方の画像I上のmiに対して他方の画像I′上のm'iを求める処理を行うことを除き、ユーザが設定してもよいし、画像の入力枚数に応じてプログラムが設定してもよい。
First, in SP403d, it is determined whether or not the process for determining m ′ i has ended. If not completed, it is determined in SP403e whether m ′ i is found in the next image. For example, if only m i on one image I is not yet determined, Yes is selected, and processing for obtaining m ′ i on the other image I ′ (
SP401では、結合定数αx,αzに基づき、m'iの辺の方向ベクトルを求める。 In SP401, the direction vector of the side of m ′ i is obtained based on the coupling constants α x and α z .
とした場合であれば、図4(b)の If this is the case, the
とし、初期値としてα'x=αx,α'z=zとする。また、縦辺の方向ベクトルは And α ′ x = α x and α ′ z = z as initial values. The direction vector of the vertical side is
とする。 And
SP401と平行してSP402aでは、miに対応するエピポーラ線 In SP402a in parallel with SP401, epipolar lines corresponding to m i
を計算する。 Calculate
次に、SP401とSP402aの終了後、SP402bにおいて、例えば、m'0の位置を Next, after the end of SP401 and SP402a, for example, the position of m ′ 0 is set in SP402b.
上で適当に決め、m'0から(17)式の方向に引いた直線と Determined appropriately above, a straight line drawn from m ′ 0 in the direction of (17)
との交点をm'1とし、また、m'0から Let m ' 1 be the intersection with, and from m' 0
の方向に引いた直線と A straight line drawn in the direction of
との交点をm'3とする。残りのm'2は、m'i(i=0,1,2,3)が平行四辺形をなすように決めればよい。その後、このようにして決めたm'i(i=0,1,2,3)について、 Let m ' 3 be the intersection with. The remaining m ′ 2 may be determined so that m ′ i (i = 0, 1, 2, 3) forms a parallelogram. After that, for m ′ i (i = 0, 1, 2, 3) determined in this way,
を計算する。 Calculate
次に、SP404において、まず一方の画像I上で、miで囲む領域内の特徴点を見つけ、次にその特徴点の他方の画像I′上での対応点を見つける。対応点を見つけ方としては、ブロックマッチング、オプティカルフロー探索など、どのような手法を用いてもよい。対応点が見つかったもののみ考慮して、その数がN組とすると、一方の画像I上の特徴点qn(n=1,2,…,N)を全て、 Next, in SP404, first, a feature point in a region surrounded by m i is found on one image I, and then a corresponding point on the other image I ′ of the feature point is found. As a method for finding the corresponding points, any method such as block matching or optical flow search may be used. Considering only those where corresponding points are found, and assuming that the number is N, all feature points q n (n = 1, 2,..., N) on one image I are all
のように表し、全てのqnの平均位置qを The average position q of all q n is expressed as
により求める。次に、同じように他方の画像I′についても Ask for. Next, similarly for the other image I ′
のように求め、 Asking,
を計算する。 Calculate
このようにして特徴量が算出されたら、次に、SP403aにおいて、これらの評価関数の重み付きの和を After the feature amount is calculated in this way, the weighted sum of these evaluation functions is then calculated in SP403a.
として計算する。重みwiは、wi=1/3と均等にしてもよいし、悉意的に順序付けてもよい。この値と、あらかじめ設定された処理終了の判定基準となるしきい値εとを比較し、しきい値よりも小さければ処理を終了してSP403dに戻り、そうでなければステップSP403bに進む。 Calculate as The weights w i may be equal to w i = 1/3 or may be arbitrarily ordered. This value is compared with a preset threshold value ε that is a criterion for determining the end of processing. If the value is smaller than the threshold value, the processing ends and the processing returns to SP403d. Otherwise, the processing proceeds to step SP403b.
SP403bでは、反復回数があるあらかじめ設定された上限値(MAX_ITERATE)を超えるかどうかにより、処理を終了するかどうかを判定し、上限値を超えていれば処理を終了してSP403dに戻り、そうでなければSP403cに進む。SP403cでは、例えばm'0の位置を、 In SP403b, it is determined whether or not to end the process depending on whether or not the number of iterations exceeds a preset upper limit value (MAX_ITERATE). If the upper limit value is exceeded, the process ends and the process returns to SP403d. If not, the process proceeds to SP403c. In SP403c, for example, the position of m ′ 0 is
に沿って例えば1画素分動かし、反復回数を1だけ増分してSP402bに戻る。移動の大きさは1画素でもよいし、より小さな値でもよいし、反復回数に応じて減じていってもよい。また、移動の方向は、1回目の移動によりEの値が小さくなれば同じ方向へ、そうでなければ逆の方向へ移動してもよい。 And the number of iterations is incremented by 1, and the process returns to SP402b. The magnitude of the movement may be one pixel, a smaller value, or may be reduced according to the number of repetitions. Further, the direction of movement may be the same direction if the value of E is decreased by the first movement, and may be moved in the opposite direction otherwise.
このようにしてm'i(i=0,1,2,3)が算出されたので、SP403dにおいて対応算出終了と判定され、SP1において、m'i(i=0,1,2,3)を記憶する。 Since m ′ i (i = 0, 1, 2, 3) has been calculated in this way, it is determined in SP403d that the corresponding calculation has been completed, and in SP1, m ′ i (i = 0, 1, 2, 3). Remember.
次に、SP501において、mi,m'i(i=0,1,2,3)及び射影行列P,P′から、M'iの3次元ワールド座標値を求め、その後、SP502において、Miを適当な相対座標値にし、SP1において記憶する。これら記憶したデータは、SP503において、外部記憶装置に出力してもよい。 Next, in SP501, the three-dimensional world coordinate value of M ′ i is obtained from m i , m ′ i (i = 0, 1, 2, 3) and the projection matrices P and P ′. i is set to an appropriate relative coordinate value and stored in SP1. These stored data may be output to an external storage device in SP503.
次に、SP2において、これらの情報、すなわち画像の識別子、画像内の矩形領域頂点座標値mi(i=0,1,2,3)及びMiをメモリあるいは外部記憶装置に記憶されているファイルから読み込む。そして、SPS601において、画像のテクスチャオブジェクトを生成し、SP602において、頂点Miを持つ3次元ボリゴンを生成する。その後、SP603aにおいて表示用のシーン、例えば3次元コンピュータグラフィックスにより生成される3次元シーンを生成し、SP603bにおいて、SP602によって生成された3次元ポリゴンに、SP601において生成されたテクスチャオブジェクトをテクスチャマッピングする。また、複数のテクスチャオブジェクトがマッピングされたポリゴンがある際には、これらをシーン内の適当な位置に配置する。最後に、SP604において、以上のシーンとテクスチャマッピングされたポリゴンとを表示し、これによって、例えば異なる撮影現場で撮影された被写体の大きさを、同じシーンで比較表示することが可能となる。
Then, in SP2, these information, i.e. the image of the identifier, and the rectangular region in the image vertex coordinate values m i and (i = 0, 1, 2, 3) and M i are stored memory or the external storage device Read from file. In
100 画像入力部
200 撮影情報算出部
300 対象領域決定部
400 対応対象領域決定部
500 対象領域実寸算出部
600 対象領域表示部
100
Claims (13)
前記測定対象及び前記参照物体が同時に撮影された少なくとも2枚の画像を入力する段階と、
前記参照物体の像の4つの頂点の像を前記入力された2枚の画像において取得することにより、前記2枚の画像の撮影時の、アフィンカメラを仮定した射影行列、及び前記2枚の画像間の拘束関係を与える行列を算出して記憶する段階と、
実寸測定の対象となる領域を対象領域として、前記2枚の画像のうちの一方の画像において、前記対象領域を囲む画面上での2次元の矩形の指定を受け入れて記憶し、前記矩形の辺を、前記参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で表した際の結合係数を算出し、前記矩形の形状を修正して前記矩形の画面上での頂点位置を記憶する段階と、
前記2枚の画像のうちの他方の画像において、前記矩形に対応する領域を対応対象領域として算出し、前記対応対象領域の画面上での頂点位置を記憶する段階と、
前記射影行列と、前記対象領域での頂点位置と、前記対応対象領域での頂点位置を用いて、前記対象領域の頂点の3次元座標を算出する段階と、
を有する画像計測方法。 A rectangle surrounding the measurement object from at least two images of a measurement object and a reference object having a cube, a rectangular parallelepiped, or a parallelepiped whose length of three sides forming at least one vertex are known. An image measurement method for calculating a three-dimensional coordinate value of a vertex forming a castle,
Inputting at least two images of the measurement object and the reference object taken simultaneously;
A projection matrix assuming an affine camera and the two images at the time of photographing the two images by acquiring four vertex images of the reference object image in the two input images. Calculating and storing a matrix that gives a constraint relationship between them;
An area to be measured in actual size is set as a target area, and in one of the two images, a two-dimensional rectangle designation on the screen surrounding the target area is received and stored, and the side of the rectangle Is calculated as a linear combination of images of three sides that intersect at one vertex of the image of the reference object, and the rectangular shape is corrected by correcting the shape of the rectangle. Remembering
Calculating an area corresponding to the rectangle as a corresponding target area in the other of the two images, and storing a vertex position on the screen of the corresponding target area;
Calculating the three-dimensional coordinates of the vertices of the target region using the projection matrix, the vertex positions in the target region, and the vertex positions in the corresponding target region;
An image measurement method comprising:
前記算出された結合係数を用いて、前記参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で前記対応対象領域の画面上での頂点位置を算出し評価する段階と、
前記算出された2画面間の拘束を与える行列を用いて、前記対象領域の頂点の前記他方の画像での対応位置を算出し評価する段階と、
前記一方の画像における前記対象領域内の輝度情報から得られる特徴点と、前記他方の画像における前記対応対象領域内の輝度情報から得られる特徴点との間の類似度を算出し評価する段階と、
前記各評価する段階による評価値を基に前記対応対象領域の位置、形状を変化させつつ、前記対応対象領域を決定する段階と、
を有する、請求項1または2に記載の画像による画像計測方法。 The step of storing the vertex position on the screen of the rectangular area as a corresponding target area,
Calculating and evaluating a vertex position on the screen of the corresponding target area by linear combination of images of three sides intersecting at one vertex of the image of the reference object using the calculated coupling coefficient; and
Calculating and evaluating the corresponding position in the other image of the vertices of the target area using a matrix that gives a constraint between the calculated two screens;
Calculating and evaluating a similarity between a feature point obtained from the luminance information in the target area in the one image and a feature point obtained from the luminance information in the corresponding target area in the other image; ,
Determining the corresponding target region while changing the position and shape of the corresponding target region based on the evaluation values obtained in the respective evaluating steps;
The image measurement method by the image of Claim 1 or 2 which has these.
前記測定対象及び前記参照物体が同時に撮影された少なくとも2枚の画像を入力し、記憶及び/または表示するための画像入力手段と、
前記参照物体の像の4つの頂点の像を前記入力された2枚の画像において取得することにより、前記2枚の画像の撮影時の、アフィンカメラを仮定した射影行列、及び前記2枚の画像間の拘束関係を与える行列を算出し記憶する撮影情報算出手段と、
実寸測定の対象となる領域を対象領域として、前記2枚の画像のうちの一方の画像において、前記対象領域を囲む画面上での2次元の矩形の指定を受け入れて記憶し、前記矩形の辺を、前記参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で表した際の結合係数を算出し、前記矩形の形状を修正して前記矩形の画面上での頂点位置を記憶する対象領域決定手段と、
前記2枚の画像のうちの他方の画像において、前記矩形に対応する領域を対応対象領域として算出し、前記対応対象領域の画面上での頂点位置を記憶する対応対象領域決定手段と、
前記射影行列と、前記対象領域での頂点位置と、前記対応対象領域での頂点位置を用いて、前記対象領域の頂点の3次元座標を算出する対象領域実寸算出手段と、
を有する画像計測装置。 A rectangle surrounding the measurement object from at least two images of a measurement object and a reference object having a cube, a rectangular parallelepiped, or a parallelepiped whose length of three sides forming at least one vertex are known. An image measuring device for calculating a three-dimensional coordinate value of a vertex forming a castle,
Image input means for inputting, storing and / or displaying at least two images of the measurement object and the reference object taken simultaneously;
A projection matrix assuming an affine camera and the two images at the time of photographing the two images by acquiring four vertex images of the reference object image in the two input images. Photographing information calculation means for calculating and storing a matrix that gives a constraint relationship between
An area to be measured in actual size is set as a target area, and in one of the two images, a two-dimensional rectangle designation on the screen surrounding the target area is received and stored, and the side of the rectangle Is calculated as a linear combination of images of three sides that intersect at one vertex of the image of the reference object, and the rectangular shape is corrected by correcting the shape of the rectangle. Target area determination means for storing
A corresponding target area determining means for calculating an area corresponding to the rectangle as a corresponding target area in the other of the two images, and storing a vertex position on the screen of the corresponding target area;
Using the projection matrix, the vertex position in the target area, and the vertex position in the corresponding target area, target area actual size calculating means for calculating the three-dimensional coordinates of the vertex of the target area;
An image measuring device having
前記算出された結合係数を用いて、前記参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で前記対応対象領域の画面上での頂点位置を算出し評価する領域形状算出手段と、
前記算出された2画面間の拘束を与える行列を用いて、前記対象領域の頂点の前記他方の画像での対応位置を算出し評価する領域位置算出手段と、
前記一方の画像における前記対象領域内の輝度情報から得られる特徴点と、前記他方の画像における前記対応対象領域内の輝度情報から得られる特徴点との間の類似度を算出し評価する特徴量算出手段と、
前記領域形状算出手段、前記領域位置算出手段及び前記特徴量算出手段による評価値を基に前記対応対象領域の位置、形状を変化させつつ、前記対応対象領域を決定する対応領域移動・評価手段と、
を有する請求項5または6に記載の画像による画像計測装置。 The corresponding target area determining means includes
Region shape calculation for calculating and evaluating a vertex position on the screen of the corresponding target region by linear combination of images of three sides intersecting at one vertex of the image of the reference object using the calculated coupling coefficient Means,
Area position calculating means for calculating and evaluating a corresponding position in the other image of the vertex of the target area using a matrix that gives a constraint between the calculated two screens;
A feature amount for calculating and evaluating a similarity between a feature point obtained from luminance information in the target area in the one image and a feature point obtained from luminance information in the corresponding target area in the other image A calculation means;
A corresponding region moving / evaluating unit that determines the corresponding target region while changing the position and shape of the corresponding target region based on the evaluation values obtained by the region shape calculating unit, the region position calculating unit, and the feature amount calculating unit; ,
An image measuring apparatus using an image according to claim 5 or 6.
測定対象、及び、少なくとも1つの頂点を形成する3つの辺の長さが既知である立方体または直方体または平行六面体をなす参照物体が同時に撮影された少なくとも2枚の画像を入力し、記憶及び/または表示するための画像入力手段、
前記参照物体の像の4つの頂点の像を前記入力された2枚の画像において取得することにより、前記2枚の画像の撮影時の、アフィンカメラを仮定した射影行列、及び前記2枚の画像間の拘束関係を与える行列を算出し記憶する撮影情報算出手段、
実寸測定の対象となる領域を対象領域として、前記2枚の画像のうちの一方の画像において前記対象領域を囲む画面上での2次元の矩形の指定を受け入れて記憶し、前記矩形の辺を、前記参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で表した際の結合係数を算出し、前記矩形の形状を修正して前記矩形の画面上での頂点位置を記憶する対象領域決定手段、
前記2枚の画像のうちの他方の画像において、前記矩形に対応する領域を対応対象領域として算出し、前記対応対象領域の画面上での頂点位置を記憶する対応対象領域決定手段、
前記射影行列と、前記対象領域での頂点位置と、前記対応対象領域での頂点位置を用いて、前記対象領域の頂点の3次元座標を算出する対象領域実寸算出手段、
として機能させるプログラム。 Computer
Input at least two images of a measurement object and a reference object having a cube, a rectangular parallelepiped, or a parallelepiped having a known length of three sides forming at least one vertex, and storing and / or storing them Image input means for displaying,
A projection matrix assuming an affine camera and the two images at the time of photographing the two images by acquiring four vertex images of the reference object image in the two input images. Photographing information calculation means for calculating and storing a matrix that gives a constraint relationship between
The target area of the actual size measurement is set as the target area, and the designation of a two-dimensional rectangle on the screen surrounding the target area in one of the two images is received and stored, and the sides of the rectangle are stored. , Calculating a coupling coefficient when the image of the reference object is represented by a linear combination of images of three sides intersecting at one vertex, and correcting the shape of the rectangle to obtain the position of the vertex on the screen of the rectangle Target area determining means for storing,
A corresponding target area determining unit that calculates an area corresponding to the rectangle as a corresponding target area in the other of the two images, and stores a vertex position on the screen of the corresponding target area;
Target area actual size calculating means for calculating the three-dimensional coordinates of the vertices of the target area using the projection matrix, the vertex position in the target area, and the vertex position in the corresponding target area;
Program to function as.
前記算出された結合係数を用いて、前記参照物体の像の、1つの頂点で交わる3つの辺の像の線形結合で前記対応対象領域の画面上での頂点位置を算出し評価する領域形状算出手段と、
前記算出された2画面間の拘束を与える行列を用いて、前記対象領域の頂点の前記他方の画像での対応位置を算出し評価する領域位置算出手段と、
前記一方の画像における前記対象領域内の輝度情報から得られる特徴点と、前記他方の画像における前記対応対象領域内の輝度情報から得られる特徴点との間の類似度を算出し評価する特徴量算出手段と、
前記領域形状算出手段、前記領域位置算出手段及び前記特徴量算出手段による評価値を基に前記対応対象領域の位置、形状を変化させつつ、前記対応対象領域を決定する対応領域移動・評価手段と、
から構成され、前記コンピュータを前記領域形状算出手段、前記領域位置算出手段、前記特徴量算出手段及び前記対応領域移動・評価手段としても機能させる、請求項9または10に記載の画像によるプログラム。 The corresponding target area determining means includes
Region shape calculation for calculating and evaluating a vertex position on the screen of the corresponding target region by linear combination of images of three sides intersecting at one vertex of the image of the reference object using the calculated coupling coefficient Means,
Area position calculating means for calculating and evaluating a corresponding position in the other image of the vertex of the target area using a matrix that gives a constraint between the calculated two screens;
A feature amount for calculating and evaluating a similarity between a feature point obtained from luminance information in the target area in the one image and a feature point obtained from luminance information in the corresponding target area in the other image A calculation means;
A corresponding region moving / evaluating unit that determines the corresponding target region while changing the position and shape of the corresponding target region based on the evaluation values obtained by the region shape calculating unit, the region position calculating unit, and the feature amount calculating unit; ,
The image program according to claim 9 or 10, wherein the program functions as the region shape calculating unit, the region position calculating unit, the feature amount calculating unit, and the corresponding region moving / evaluating unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003376934A JP2005140623A (en) | 2003-11-06 | 2003-11-06 | Image measuring method and instrument, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003376934A JP2005140623A (en) | 2003-11-06 | 2003-11-06 | Image measuring method and instrument, program, and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005140623A true JP2005140623A (en) | 2005-06-02 |
Family
ID=34687838
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003376934A Pending JP2005140623A (en) | 2003-11-06 | 2003-11-06 | Image measuring method and instrument, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005140623A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006350578A (en) * | 2005-06-14 | 2006-12-28 | Fuji Xerox Co Ltd | Image analysis device |
JP2008292407A (en) * | 2007-05-28 | 2008-12-04 | Canon Inc | Information processing method and information processing device |
JP2009517683A (en) * | 2005-11-30 | 2009-04-30 | テレコム・イタリア・エッセ・ピー・アー | A method for obtaining scattered parallax field in stereo vision |
JP2009520975A (en) * | 2005-12-21 | 2009-05-28 | テレコム・イタリア・エッセ・ピー・アー | A method for obtaining a dense parallax field in stereo vision |
WO2010071139A1 (en) * | 2008-12-17 | 2010-06-24 | 株式会社トプコン | Shape measurement device and program |
JP2016075530A (en) * | 2014-10-03 | 2016-05-12 | エヌ・ティ・ティ・インフラネット株式会社 | Navigation device and navigation method |
-
2003
- 2003-11-06 JP JP2003376934A patent/JP2005140623A/en active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006350578A (en) * | 2005-06-14 | 2006-12-28 | Fuji Xerox Co Ltd | Image analysis device |
JP4687265B2 (en) * | 2005-06-14 | 2011-05-25 | 富士ゼロックス株式会社 | Image analyzer |
US8275195B2 (en) | 2005-11-30 | 2012-09-25 | Telecom Italia S.P.A. | Method for determining scattered disparity fields in stereo vision |
JP2009517683A (en) * | 2005-11-30 | 2009-04-30 | テレコム・イタリア・エッセ・ピー・アー | A method for obtaining scattered parallax field in stereo vision |
JP4887374B2 (en) * | 2005-11-30 | 2012-02-29 | テレコム・イタリア・エッセ・ピー・アー | A method for obtaining scattered parallax field in stereo vision |
US20100215248A1 (en) * | 2005-12-21 | 2010-08-26 | Gianluca Francini | Method for Determining Dense Disparity Fields in Stereo Vision |
JP2009520975A (en) * | 2005-12-21 | 2009-05-28 | テレコム・イタリア・エッセ・ピー・アー | A method for obtaining a dense parallax field in stereo vision |
JP4887376B2 (en) * | 2005-12-21 | 2012-02-29 | テレコム・イタリア・エッセ・ピー・アー | A method for obtaining a dense parallax field in stereo vision |
US8160353B2 (en) * | 2005-12-21 | 2012-04-17 | Telecom Italia S.P.A. | Method for determining dense disparity fields in stereo vision |
JP2008292407A (en) * | 2007-05-28 | 2008-12-04 | Canon Inc | Information processing method and information processing device |
JP2010145186A (en) * | 2008-12-17 | 2010-07-01 | Topcon Corp | Shape measuring device and program |
WO2010071139A1 (en) * | 2008-12-17 | 2010-06-24 | 株式会社トプコン | Shape measurement device and program |
JP2016075530A (en) * | 2014-10-03 | 2016-05-12 | エヌ・ティ・ティ・インフラネット株式会社 | Navigation device and navigation method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110568447B (en) | Visual positioning method, device and computer readable medium | |
JP4392507B2 (en) | 3D surface generation method | |
JP6057298B2 (en) | Rapid 3D modeling | |
US9972120B2 (en) | Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces | |
JP6338021B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US7174039B2 (en) | System and method for embodying virtual reality | |
JP2005308553A (en) | Three-dimensional image measuring device and method | |
JP6503906B2 (en) | Image processing apparatus, image processing method and image processing program | |
JP2013539147A5 (en) | ||
JP2000067267A (en) | Method and device for restoring shape and pattern in there-dimensional scene | |
JP2010109783A (en) | Electronic camera | |
JP2001067463A (en) | Device and method for generating facial picture from new viewpoint based on plural facial pictures different in viewpoint, its application device and recording medium | |
CN114255285B (en) | Video and urban information model three-dimensional scene fusion method, system and storage medium | |
Lussu et al. | Ultra close-range digital photogrammetry in skeletal anthropology: A systematic review | |
JPH11504452A (en) | Apparatus and method for reproducing and handling a three-dimensional object based on a two-dimensional projection | |
JP2001148012A (en) | Method and device for searching corresponding point | |
JP2000155831A (en) | Method and device for image composition and recording medium storing image composition program | |
JP2006300656A (en) | Image measuring technique, device, program, and recording medium | |
JP2005140623A (en) | Image measuring method and instrument, program, and recording medium | |
Budianti et al. | Background blurring and removal for 3d modelling of cultural heritage objects | |
JP4149732B2 (en) | Stereo matching method, three-dimensional measurement method, three-dimensional measurement apparatus, stereo matching method program, and three-dimensional measurement program | |
KR101189167B1 (en) | The method for 3d object information extraction from single image without meta information | |
JP2006059165A (en) | Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium | |
JP6768400B2 (en) | Information processing equipment, information processing methods and programs | |
JP2018032144A (en) | Image processor, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050621 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090204 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090610 |