JP2001266110A - System and method for positioning picture - Google Patents

System and method for positioning picture

Info

Publication number
JP2001266110A
JP2001266110A JP2000073758A JP2000073758A JP2001266110A JP 2001266110 A JP2001266110 A JP 2001266110A JP 2000073758 A JP2000073758 A JP 2000073758A JP 2000073758 A JP2000073758 A JP 2000073758A JP 2001266110 A JP2001266110 A JP 2001266110A
Authority
JP
Japan
Prior art keywords
image
images
coordinate system
aerial
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000073758A
Other languages
Japanese (ja)
Inventor
Shintaro Watanabe
真太郎 渡辺
Koji Miyajima
耕治 宮島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data Group Corp
Original Assignee
NTT Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp filed Critical NTT Data Corp
Priority to JP2000073758A priority Critical patent/JP2001266110A/en
Publication of JP2001266110A publication Critical patent/JP2001266110A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To easily and appropriately decide a corresponding point for positioning a picture photographed in the air in spite of the object of the air- taken picture and to appropriately decide the corresponding point even if the resolution of the air-taken picture is insufficient. SOLUTION: When a user searches the same linear objects on an earth surface plane from two air-taken pictures I1 and I2 and finds them, at least four or more corresponding segments are decided in accordance with the various same linear objects. A corresponding segment input part 15 recognizes the coordinate system of its own of the air-taken pictures I1 and I2, recognizes the coordinate of the start point and the end point of the corresponding segments, shows the corresponding segments in expressions of linear lines and calculates the coordinate of the intersection of the two linear expressions.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】異なる方向及び異なる場所か
ら撮影された、同一の被写体を含む2つの画像の位置合
わせを行なうための方式及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and a method for aligning two images including the same subject, which are photographed from different directions and different places.

【0002】[0002]

【従来の技術】地図情報の更新や、災害時における被災
状況の確認等の場合には、同一地点が写っている2つの
空撮画像の比較を行なうことがある。地図情報を更新す
る場合には、現在と過去の空撮画像を比較し、変化した
領域を抽出する。災害時における被災状況の確認の場合
には、災害が発生していない平常時の空撮画像と災害時
の空撮画像とを比較し、被害地域を抽出する。
2. Description of the Related Art In the case of updating map information or confirming the state of a disaster at the time of a disaster, two aerial images showing the same point are sometimes compared. When updating the map information, a current and a past aerial image is compared, and a changed area is extracted. In the case of checking the damage situation at the time of a disaster, the aerial image at normal times where no disaster has occurred and the aerial image at the time of the disaster are compared to extract a damaged area.

【0003】通常、2つの空撮画像を撮影したときのカ
メラの位置及び方向(撮影角度)が互いに異なっている
ため、2つの空撮画像では、同一被写体の表示位置及び
表示向きは互いに異なっている。これら2つの空撮画像
の比較を行なうときは、同一被写体の表示位置が重なり
合うように、画像の位置合わせを行なう。画像の位置合
わせは、一般に、カメラキャリブレーションと呼ばれる
方法により行なう。カメラキャリブレーションでは、両
方の空撮画像に対し、地表平面上の同一地点に相当する
点(以下、本明細書において「対応点」と言う)を定め
て、その対応点に基づいて画像の位置合わせが行われ
る。対応点は、少なくとも5つ定める必要があり、オペ
レータによって、手作業で定められる。
Usually, the positions and directions (shooting angles) of the cameras when two aerial images are photographed are different from each other, so that the display position and display direction of the same subject are different from each other in the two aerial images. I have. When comparing these two aerial images, the images are aligned so that the display positions of the same subject overlap each other. Image alignment is generally performed by a method called camera calibration. In the camera calibration, a point (hereinafter, referred to as “corresponding point” in the present specification) corresponding to the same point on the ground plane is determined for both aerial images, and the position of the image is determined based on the corresponding point. Matching is performed. At least five corresponding points need to be determined, and are manually determined by the operator.

【0004】[0004]

【発明が解決しようとする課題】カメラキャリブレーシ
ョンによって正確な画像位置合わせを行なうためには、
対応点が、それぞれの空撮画像上において偏りなく存在
するよう適切に定めなければならない。しかし、先述し
たように、2つの空撮画像は同一被写体の表示位置及び
表示向きが互いに異なっているため、対応点を偏りなく
存在するよう適切に定めることは困難である。特に、市
街地の空撮画像の場合には一層困難である。その理由
を、図1及び図2を参照して述べる。
In order to perform accurate image registration by camera calibration,
Corresponding points must be appropriately determined so as to be present evenly on each aerial image. However, as described above, since the display position and display direction of the same subject differ from each other in the two aerial images, it is difficult to appropriately determine the corresponding points so as to be present without bias. In particular, it is more difficult in the case of an aerial image of an urban area. The reason will be described with reference to FIGS.

【0005】図1は、災害時における被災状況の確認を
する場合の2つの空撮画像を示しており、(a)が平常
時の空撮画像、(b)が災害時の空撮画像である。画像
位置合わせを行なうためには、これら両方の画像に適切
に対応点を定めなければならない。しかし、(a)と
(b)を比較してわかるように、被写体が市街地である
と、建造物が密集していたり火災の煙に視界を阻まれた
りして地表平面がほとんど現れていなかったり、災害に
よる破壊や、工事等により建造物や道路等の形状が変わ
ってしまっていることがあるので、対応点を適切に定め
ることは一層困難である。
FIGS. 1A and 1B show two aerial images for confirming the state of a disaster during a disaster. FIG. 1A shows an aerial image during normal times, and FIG. 1B shows an aerial image during a disaster. is there. In order to perform image registration, corresponding points must be appropriately determined for both these images. However, as can be seen from a comparison between (a) and (b), when the subject is in an urban area, the buildings are densely packed, or the view is blocked by smoke from a fire, and the ground plane hardly appears. Since the shape of a building, a road, or the like may have been changed due to destruction due to a disaster, construction, or the like, it is more difficult to appropriately determine a corresponding point.

【0006】図2は、高層ビル等の高い建物が立ち並ぶ
市街地を同一被写体として含んでいる2つの空撮画像を
示すものであって、(a)と(b)とではそれぞれ撮影
場所及び撮影方向が異なっている。画像位置合わせを行
なうためには、これら両方の画像に適切に対応点を定め
なければならない。しかし、(a)と(b)を見てわか
るように、高い建物が含まれていると、地表面が高い建
物の陰に隠れてしまったり、高い建物によって地表面上
に大きな影ができる等して、対応点を定められる場所が
少なくなってしまう。このため、対応点を適切に定める
ことが一層困難である。
FIGS. 2A and 2B show two aerial images including the city area where tall buildings such as high-rise buildings are lined up as the same subject. FIGS. 2A and 2B show a photographing place and a photographing direction, respectively. Are different. In order to perform image registration, corresponding points must be appropriately determined for both these images. However, as can be seen from (a) and (b), if a tall building is included, the ground surface will be hidden behind a tall building, or a tall building will cause a large shadow on the ground surface. As a result, the number of places where the corresponding points can be determined decreases. For this reason, it is more difficult to appropriately determine the corresponding points.

【0007】また、比較的広大な範囲が写っている空撮
画像の場合には、空撮画像の解像度が十分に高くない
と、適切な対応点をその広大な範囲に定めることは困難
である。
Further, in the case of an aerial image in which a relatively large area is shown, it is difficult to determine an appropriate corresponding point in the large area unless the resolution of the aerial image is sufficiently high. .

【0008】従って、本発明の目的は、空撮画像の位置
合わせを行なうための対応点を、空撮画像の被写体に関
わらず、簡単に且つ適切に定めることができるようにす
ることにある。
Accordingly, an object of the present invention is to make it possible to easily and appropriately determine a corresponding point for aligning an aerial image, regardless of the subject of the aerial image.

【0009】また、本発明の別の目的は、空撮画像の解
像度が十分でなくても、適切に対応点を定めることがで
きるようにすることにある。
Another object of the present invention is to make it possible to appropriately determine corresponding points even if the resolution of an aerial image is not sufficient.

【0010】[0010]

【課題を解決するための手段】本発明に従う画像位置合
わせ方式は、同一の被写体が表示されている2つの画像
の位置合わせを行なうための方式であって、2つの画像
はそれぞれ独自の座標系を持っており、線分指定手段
と、交点座標算出手段と、画像変換処理手段とを備え
る。線分指定手段は、2つの画像の各々上に、2つの画
像間で対応する複数の線分を指定する。交点座標算出手
段は、2つの画像の各々毎に、複数の線分又はそれらの
線分の延長線によって生じる複数の交点の座標を算出す
る。画像変換処理手段は、2つの画像間で対応し合う、
算出した複数の交点座標に基づいて、一方の画像の座標
系を、同一被写体の表示位置が重なり合うように他方の
画像の座標系に変換する。
An image registration method according to the present invention is a method for aligning two images displaying the same subject, and each of the two images has its own coordinate system. And includes a line segment designation unit, an intersection coordinate calculation unit, and an image conversion processing unit. The line segment designating unit designates, on each of the two images, a plurality of line segments corresponding to the two images. The intersection coordinate calculating means calculates, for each of the two images, coordinates of a plurality of intersections generated by a plurality of line segments or extension lines of the line segments. The image conversion processing means corresponds between the two images,
Based on the calculated plurality of intersection coordinates, the coordinate system of one image is converted into the coordinate system of the other image so that the display positions of the same subject overlap.

【0011】本発明によれば、ユーザは、同一被写体が
有する直線部分に基づいて互いに対応する線分を指定す
れば、その対応線分によって生じる交点、つまり対応点
を自動的に定められる。このため、従来のように直接画
像上に点を定める時よりも、簡単に且つ適切に対応点を
定めることが可能になる。また、線分の延長線によって
生じる交点の座標を利用するので、たとえ、撮影画像上
で被写体の直線部分が短くて十分な長さを持った対応線
分が定められなくても、対応点が定められる。また、撮
影画像の表示領域外に交点ができる場合があるので、撮
影画像の表示領域外に仮想的な対応点を定めることがで
きる。
According to the present invention, when a user specifies a line segment corresponding to each other based on a straight line portion of the same subject, an intersection generated by the corresponding line segment, that is, a corresponding point is automatically determined. For this reason, it is possible to determine the corresponding point more easily and appropriately than when a point is directly determined on an image as in the related art. In addition, since the coordinates of the intersection generated by the extension line of the line segment are used, even if the corresponding straight line segment having a sufficient length is not defined on the captured image because the straight line portion of the subject is short, the corresponding point is determined. Determined. In addition, since an intersection may be formed outside the display area of the captured image, a virtual corresponding point can be determined outside the display area of the captured image.

【0012】[0012]

【発明の実施の形態】以下、本発明を、空撮画像の位置
合わせに適用した画像位置合わせ方式の一実施形態を説
明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of an image registration system in which the present invention is applied to aerial image registration will be described below.

【0013】まず、図3及び図4を参照して一般的な画
像位置合わせの方法を説明する。この方法は、後述する
本発明の一実施形態でも用いる。
First, a general image registration method will be described with reference to FIGS. This method is also used in an embodiment of the present invention described later.

【0014】図3に示す2つの空撮画像I、I
は、それぞれ独自の座標系が与えられている。これら2
つの空撮画像I、Iは、それぞれを撮影したときの
カメラC1、C2の位置及び方向(撮影角度)が互いに
異なっているため、同一被写体の表示位置及び表示向き
は互いに異なっている(後に詳述するが、本実施形態
は、それら2つの空撮画像I、Iに対し、地表平面
K上の同一地点Pが写っている対応点p、pを、簡
単に且つ適切に定めることができる点に特徴がある)。
Each of the two aerial images I 1 and I 2 shown in FIG. 3 has its own coordinate system. These two
Since the two aerial images I 1 and I 2 have different positions and directions (shooting angles) of the cameras C1 and C2 when the respective images are taken, the display positions and display directions of the same subject are different from each other ( As will be described in detail later, in the present embodiment, for the two aerial images I 1 and I 2 , corresponding points p 1 and p 2 that show the same point P on the ground plane K are simply and appropriately set. It is characterized in that it can be specified in

【0015】空撮画像I撮影時のカメラC1と、空撮
画像I撮影時のカメラC2には、それぞれ独自の座標
系が存在する。一方のカメラC1の位置を、カメラC1
の座標系の原点(0,0,0)とし、このカメラC1に
対して他方のカメラC2の位置を、カメラC1の座標系
で(C,C,C)、カメラ向きを、カメラC2の
座標系で(ω,φ,κ)とおく。このω、φ、κは、カ
メラC2の座標系の軸を中心とした回転角を表す。この
とき、C、C、C、ω、φ、κは、カメラC1か
らのカメラC2のずれ具合を表す未知変数とみることが
でき、これらの未知変数を求めることを考える。そのた
めに、地表平面K上の或る同一地点PがカメラC1の空
撮画像Iに写った点pを(x,y)、及び、上
記同一地点PがカメラC2の空撮画像Iに写った点p
を(x,y)と定める。(x,y)は、空撮
画像Iの座標系の座標、(x,y)は、空撮画像
の座標系の座標である。
Aerial image I1Camera C1 during shooting and aerial photography
Image I2The camera C2 at the time of shooting has its own coordinates
The system exists. The position of one camera C1 is
The origin (0,0,0) of the coordinate system of
On the other hand, the position of the other camera C2 is represented by the coordinate system of the camera C1.
In (Cx, Cy, Cz), The camera orientation of camera C2
Let (ω, φ, κ) be in the coordinate system. These ω, φ, κ are
It represents the rotation angle about the axis of the coordinate system of the camera C2. this
When Cx, Cy, Cz, Ω, φ, κ are camera C1
It can be seen as an unknown variable indicating the degree of displacement of these cameras C2.
We can, and consider finding these unknown variables. That
For example, the same point P on the ground plane K is in the sky of the camera C1.
Image I1Point p1To (x1, Y1) And above
The same point P is an aerial image I of the camera C2.2Point p
2To (x2, Y2). (X1, Y1) Aerial photography
Image I1Coordinates of the coordinate system of (x2, Y2) Is an aerial image
I 2In the coordinate system of.

【0016】カメラC2の位置(C,C,C)に
おいて、Cは縮尺に影響する変数なので、Cを基準
として、C/C=c、C/C=cとおき、
カメラC2位置を(1,c,c)とする。このカメ
ラC2位置(1,c,c)は、カメラC1位置
(0,0,0)、p1、pと同一平面上にあることか
ら、次の(1)式が成り立つ。
The position of the camera C2 (C x, C y, C z) at, since C x is a variable that affects the scale, based on C x, C y / C x = c y, C z / C x = c z
The position of the camera C2 is (1, cy , cz ). The camera C2 position (1, c y, c z) the camera position C1 (0,0,0), since it is on p1, p 2 and coplanar, the following equation (1) holds.

【0017】[0017]

【数1】 (Equation 1)

【0018】ここで、(X,Y,Z)は、次の
(2)式によって、pを空撮画像I の座標系からカ
メラC1の座標系へ変換したもの、(X,Y
)は、次の(3)式によって、pを空撮画像I
の座標系からカメラC1の座標系へ変換したものであ
る。それぞれ変換するための(2)式、(3)式は、カ
メラC1、C2の焦点距離をfとしたときの式である。
Here, (X1, Y1, Z1) Is the next
According to equation (2), p1Aerial image I 1From the coordinate system
Converted to the coordinate system of Mera C1, (X2, Y2,
Z2) Is given by the following equation (3).2Aerial image I2
From the coordinate system of camera C1 to the coordinate system of camera C1.
You. Equations (2) and (3) for conversion are
This is an expression when the focal lengths of the lenses C1 and C2 are f.

【0019】[0019]

【数2】 (Equation 2)

【0020】[0020]

【数3】 (Equation 3)

【0021】(2)式、(3)式において、求めたい未
知変数は、c、c、ω、φ、κの5つであるから、
(x,y)、p(x,y)のペア、つま
り対応点のペアを最低5個定めれば、上記(1)式よ
り、未知変数c、c、ω、φ、κに関する方程式が
5個でき、それらを連立方程式として解くことで、未知
変数c、c、ω、φ、κが求まり(しかし実際には
解が一意に定まることは稀で、最小二乗法で対応点のペ
アを5個以上用いて解析的に解を求める)、カメラC1
からのカメラC2のずれ具合が推定される。
[0021] (2) and (3), the unknown variables to be determined, c y, c z, ω , φ, since it is five kappa,
If at least five pairs of p 1 (x 1 , y 1 ) and p 2 (x 2 , y 2 ), that is, five pairs of corresponding points are determined, the unknown variables cy , cz , There are five equations related to ω, φ, and κ. By solving them as simultaneous equations, unknown variables c y , c z , ω, φ, and κ can be obtained (however, in practice, the solution is rarely uniquely determined. , A solution is analytically obtained by using five or more pairs of corresponding points by the least squares method), and the camera C1
From the camera C2 is estimated.

【0022】算出された未知変数c、c、ω、φ、
κの値に基づいて、次の式により、図4に示したよう
に、空撮画像Iと空撮画像Iとの同一被写体が全て
重なり合うように、空撮画像Iを画像I’に変換す
る。すなわち、まず、次の(4)式により、p
(x,y)をカメラC2の座標系のz軸まわりに
κ回転させた時の座標(xκ,yκ)を求める。
The calculated unknown variables c y , c z , ω, φ,
Based on the value of kappa, by the following equation, as shown in FIG. 4, to overlap all the same subject to the aerial image I 1 and the aerial image I 2, Aerial image I 2 pictures I 2 To '. That is, first, by the following equation (4), p
2 (x 2, y 2) coordinates when rotating kappa the z-axis of the coordinate system of the camera C2 (x κ, y κ) obtained.

【0023】[0023]

【数4】 (Equation 4)

【0024】次に、次の(5)式により、上記(4)式
で求められた(xκ,yκ)をカメラC2の座標系のy
軸まわりにφ回転させた時の座標(xφ,yφ)を求め
る。
Next, according to the following equation (5), (x κ , y κ ) obtained by the above equation (4) is converted to y in the coordinate system of the camera C2.
The coordinates (x φ , y φ ) when rotated by φ around the axis are obtained.

【0025】[0025]

【数5】 (Equation 5)

【0026】次に、次の(6)式により、上記(5)式
で求められた(xφ,yφ)をカメラC2の座標系のx
軸まわりにω回転させた時の座標(xω,yω)を求め
る。
Next, according to the following equation (6), (x φ , y φ ) obtained by the above equation (5) is converted into x in the coordinate system of the camera C2.
The coordinates ( , ) when rotated by ω around the axis are obtained.

【0027】[0027]

【数6】 (Equation 6)

【0028】次に、次の(7)式により、上記(6)式
で求められた(xω,yω)をカメラC1の座標系のX
軸方向に移動させた時の座標(x,y)を求める。
なお、ZはカメラC1位置(0,0,0)から地表平
面KまでのカメラC1のカメラ軸の長さ、sは、上記
(xω,yω)とp(x,y)との距離の比(x
+yω 1/2/(x +y 1/2であ
る。このZ及びsは、後述する(8)式、(9)式に
ついても同様である。
Next, the following equation (6) is used according to the following equation (7).
(Xω, Yω) Is X in the coordinate system of camera C1.
Coordinates (xx, Yx).
Note that Z0Is the horizon from camera C1 position (0,0,0)
The length of the camera axis of the camera C1 up to the plane K, s is
(Xω, Yω) And p1(X1, Y1) And the distance ratio (x
w 2+ Yω 2)1/2/ (X1 2+ Y1 2)1/2In
You. This Z0And s are given by the following equations (8) and (9).
The same applies to the case.

【0029】[0029]

【数7】 (Equation 7)

【0030】次に、次の(8)式により、上記(7)式
で求められた(x,y)をカメラC1の座標系のY
軸方向に移動させた時の座標(x,y)を求める。
Next, according to the following equation (8), (x x , y x ) obtained by the above equation (7) is converted into Y in the coordinate system of the camera C1.
The coordinates ( xy , yy ) at the time of moving in the axial direction are obtained.

【0031】[0031]

【数8】 (Equation 8)

【0032】次に、次の(9)式により、上記(8)式
で求められた(x,y)をカメラC1の座標系のZ
軸方向に移動させた時の座標(x,y)を求める。
なお、座標(x,y)は、上記変換後の画像I
の座標系における座標である。
Next, according to the following equation (9), (x y , y y ) obtained by the above equation (8) is converted to the Z coordinate of the camera C1.
The coordinates ( xz , yz ) at the time of moving in the axial direction are obtained.
Note that the coordinates (x z , yz ) correspond to the converted image I 2
Are coordinates in the coordinate system.

【0033】[0033]

【数9】 (Equation 9)

【0034】以上の処理により、上述した画像変換処理
が行われ、変換後の画像が、ディスプレイ3に表示され
たり所定のファイルに保存されたりする。
With the above-described processing, the above-described image conversion processing is performed, and the converted image is displayed on the display 3 or stored in a predetermined file.

【0035】なお、画像位置合わせでは、以上の説明か
らもわかるように、対応点は同一平面上に存在する必要
があるため、両方の空撮画像I、Iに撮影されてい
る地表面は平らであることが望ましい。これは次に説明
する本実施形態についても同様である。
In image alignment, as can be understood from the above description, since the corresponding points need to be on the same plane, the ground surface photographed in both aerial images I 1 and I 2 Is desirably flat. This is the same for the present embodiment described below.

【0036】以下、本実施形態について詳述する。尚、
以下の説明では、空撮画像Iのように画像位置合わせ
のベースとなる空撮画像を「ベース空撮画像」と言い、
空撮画像Iのように画像位置合わせされる(画像変換
される)空撮画像を「変換対象空撮画像」と言うことに
する。
Hereinafter, the present embodiment will be described in detail. still,
In the following description, the aerial image as a base image registration as Aerial image I 1 is called "base Aerial image",
Is image registration as Aerial image I 2 (the image to be converted) aerial image will be referred to as "converted Aerial image".

【0037】図5は、本実施形態に係る画像位置合わせ
方式を適用したコンピュータの機能ブロック図である。
FIG. 5 is a functional block diagram of a computer to which the image registration method according to the present embodiment is applied.

【0038】コンピュータ1に、ディスプレイ3と、マ
ウスやキーボード等のユーザ入力装置5が接続される。
コンピュータ1は、典型的には、パーソナルコンピュー
タやワークステーション等の汎用型コンピュータであ
る。コンピュータ1には、ベース空撮画像及び変換対象
空撮画像が保存されている画像データベース(画像D
B)8と、画像DB8からベース空撮画像及び変換対象
空撮画像を取り出して両方の空撮画像をディスプレイ3
に表示し、ユーザによる操作に応じて上記位置合わせ実
行する画像位置合わせアプリケーション11が備えられ
る。ベース空撮画像は、例えば、地図情報更新の際の画
像位置合わせでは「現在の」空撮画像、災害時の救護活
動の際の画像位置合わせでは「災害時の」空撮画像のデ
ータであって、比較の対象となる(比較される側の)空
撮画像データである。一方、変換対象空撮画像は、例え
ば、地図情報更新の際の画像位置合わせでは「過去の」
空撮画像、災害時の救護活動の際の画像位置合わせでは
「平常時の」空撮画像のデータであって、比較する側の
空撮画像データである。
The display 3 and a user input device 5 such as a mouse and a keyboard are connected to the computer 1.
The computer 1 is typically a general-purpose computer such as a personal computer or a workstation. The computer 1 stores an image database (image D) in which a base aerial image and a conversion target aerial image are stored.
B) 8 and the base aerial image and the conversion target aerial image are extracted from the image DB 8 and both aerial images are displayed on the display 3.
And an image registration application 11 for performing the above-described registration in accordance with an operation by a user. The base aerial image is, for example, the data of the “current” aerial image for image registration when updating map information, and the “at the time of disaster” aerial image data for image registration during a rescue operation in the event of a disaster. The aerial image data to be compared (to be compared). On the other hand, the conversion target aerial image is, for example, “past” in image alignment when updating map information.
The aerial image data is the data of the “normal” aerial image in the case of the image registration at the time of the rescue operation in the event of a disaster, and is the aerial image data on the side to be compared.

【0039】図6に、画像位置合わせアプリケーション
11の構成を示す。
FIG. 6 shows the configuration of the image registration application 11.

【0040】画像位置合わせアプリケーション11に
は、画像取得部13と、対応線分入力部15と、カメラ
キャリブレーション実行部23と、画像変換部25と、
画像出力部27が備えられる。
The image registration application 11 includes an image acquisition unit 13, a corresponding line segment input unit 15, a camera calibration execution unit 23, an image conversion unit 25,
An image output unit 27 is provided.

【0041】画像取得部13は、画像DB8からベース
空撮画像及び変換対象空撮画像を取得し、後続の処理の
ために取得した両方の空撮画像をコンピュータ1のメモ
リに書込む。
The image acquisition unit 13 acquires a base aerial image and a conversion target aerial image from the image DB 8, and writes both aerial images acquired for subsequent processing into the memory of the computer 1.

【0042】対応線分入力部15は、次の図7に示すよ
うに、取得された2つの空撮画像をディスプレイ3に並
べて表示し、その表示した2つの空撮画像上に、ユーザ
に線分を入力させる。そして、ユーザから入力された線
分に基づいて対応点を算出する処理を実行する。
As shown in FIG. 7, the corresponding line segment input unit 15 displays the obtained two aerial images side by side on the display 3 and displays a line on the displayed two aerial images for the user. Enter minutes. Then, a process of calculating a corresponding point based on the line segment input by the user is executed.

【0043】図7は、ディスプレイ3に一緒に表示され
る2つの空撮画像上の一例を示す。この図を参照して、
本実施形態でユーザが2つの空撮画像上で行なう処理と
共に、対応線分入力部15が行なう処理を説明する。
FIG. 7 shows an example on two aerial images displayed together on the display 3. Referring to this figure,
In the present embodiment, the processing performed by the corresponding line segment input unit 15 together with the processing performed by the user on two aerial images will be described.

【0044】まず、ユーザは、2つの空撮画像I、I
から、地表平面上の同一直線物、例えば、同一建造物
の地表接地面(底面)における直線部分や、同一道路や
同一線路における直線部分などを探す。ユーザは、同一
直線物を見つけたら、ユーザ入力装置5(典型的にはマ
ウス)を使用し、点ではなく、同一直線物に従って(例
えば同一直線物をなぞるように)互いに対応する線分
(以下、対応線分)を定める。
First, the user selects two aerial images I 1 and I 1
From 2 , a straight line on the ground plane, for example, a straight line portion on the ground contact surface (bottom surface) of the same building, a straight line portion on the same road or the same track, etc. are searched. When the user finds the same straight-line object, the user uses the user input device 5 (typically a mouse), and does not use a point but a line segment corresponding to each other according to the same straight-line object (for example, so as to follow the same straight-line object) (hereinafter, referred to as a line segment). , Corresponding line segment).

【0045】例えば、図示のように、ユーザは、同一直
線物として同一道路50a、50bを見つけたら、それ
ぞれの空撮画像I、I上に対応線分を定める。すな
わち、空撮画像I上においては、道路50aの直線部
分において始点Sを決め、その直線部分に従って所望
の位置で終点Eを決めて、対応線分Sを定め
る。また、空撮画像I上においても同様に、道路50
bの直線部分において始点Sを決め、その直線部分に
したがって所望の位置で終点Eを決めて、対応線分S
を定める。
For example, as shown in the figure, when the user finds the same roads 50a and 50b as the same straight object, a corresponding line segment is determined on each of the aerial images I 1 and I 2 . That is, air in the shooting image I 1, determines the starting point S 1 in the straight section of the road 50a, decide the end point E 1 at a desired position in accordance with the straight portion, defining a corresponding segment S 1 E 1. Similarly, on the aerial image I 2, a road 50
determining the starting point S 2 in the linear portion of b, determined the end point E 2 at a desired position in accordance with the straight portion, corresponding segment S
Define the 2 E 2.

【0046】ユーザは、同一直線物として別の同一道路
53a、53bを見つけたときも、これと同様の処理を
行なって、空撮画像I上には対応線分Sを、空
撮画像I上には対応線分Sを定める。
[0046] The user, another identical road 53a as same line thereof, even when you find 53b, by performing the same processing as this, the corresponding line segment S 3 E 3 is on aerial image I 1, empty A corresponding line segment S 4 E 4 is defined on the captured image I 2 .

【0047】このようにして、対応線分を2本定める
と、対応線分が互いに平行でなければ各対応線分によっ
て交点(図ではp、p)ができる。空撮画像I
において、各対応線分は、地表平面上の同一直線物
に基づいて定められた線分なので、各対応線分の交点
は、地表平面上の同一地点、すなわち「対応点」にな
る。詳述すると、本実施形態における対応点は、後述す
るように、各対応線分を延長して直線として扱い、直線
同士の交点を求めることによって定められる。これによ
り、たとえ、空撮画像上で被写体の直線部分が短くて十
分な長さを持った対応線分が定められなくても、対応点
を定めることができる。また、それにより、空撮画像の
表示領域外に交点ができる場合があるので、直接画像上
に対応点を定める従来と違って、空撮画像の表示領域外
に仮想的な対応点を定めることができる。
When two corresponding line segments are determined in this way, intersections (p 1 and p 2 in the figure) are formed by the corresponding line segments unless the corresponding line segments are parallel to each other. Aerial image I 1 ,
In I 2, each corresponding line segment, so line segments defined based on the same straight line of the ground plane, the intersection of each respective line segments, the same point on the ground plane, that is, "corresponding points". More specifically, the corresponding points in the present embodiment are determined by extending each corresponding line segment and treating it as a straight line, and finding the intersection of the straight lines, as described later. Accordingly, even if a straight line portion of the subject is short on the aerial image and a corresponding line segment having a sufficient length cannot be determined, a corresponding point can be determined. In addition, this may cause intersections outside the display area of the aerial image, so unlike the conventional method of directly defining the corresponding point on the image, define a virtual corresponding point outside the display area of the aerial image. Can be.

【0048】なお、対応点は、カメラキャリブレーショ
ン実行部23での処理で用いられるが、その処理では、
既に図3及び図4で説明したように少なくとも5つの対
応点が必要である。n本の直線による交点(対応点)の
数vは、v=n(n−1)/2という式によって求めら
れるので、各空撮画像I、Iにおいて、少なくとも
5つの対応点を定めるためには、対応線分は4本以上必
要になる。つまり、本実施形態では、ユーザは、各空撮
画像I、I上に、対応線分を4本以上定める。
The corresponding points are used in the processing in the camera calibration execution unit 23. In the processing,
At least five corresponding points are required as already described with reference to FIGS. Since the number v of intersections (corresponding points) by n straight lines is determined by the equation v = n (n-1) / 2, at least five corresponding points are determined in each of the aerial images I 1 and I 2 . For this purpose, four or more corresponding line segments are required. That is, in the present embodiment, the user defines four or more corresponding line segments on each of the aerial images I 1 and I 2 .

【0049】空撮画像I、I上に与えられた4本以
上の対応線分によって定められる各対応点の座標は、図
6に示した対応線分入力部15によってそれぞれ算出さ
れる。
The coordinates of each corresponding point defined by four or more corresponding line segments given on the aerial images I 1 and I 2 are calculated by the corresponding line segment input unit 15 shown in FIG.

【0050】対応線分入力部15は、各空撮画像I
の独自の座標系を認識する。その座標系に従って、
対応線分入力部15は、空撮画像I、I別に次の処
理を行う。すなわち、対応線分入力部15は、各対応線
分の始点・終点の座標を確認し、各対応線分を直線の式
に表す(各対応線分を延長し直線として扱う)。そし
て、対応線分入力部15は、2つの直線式、例えば、次
の(10)式と(11)式を求め、次の(12)式によ
って、(10)式と(11)式とが為す角αを算出し、
2つの直線が平行か否かを確認する。なお、(10)式
と(11)式において、m、nは、対応線分の番号を示
し、x、yは、その画像独自の座標系における座標を示
す。
The corresponding line segment input unit 15 outputs each aerial image I 1 ,
It recognizes its own coordinate system of I 2. According to that coordinate system,
The corresponding line segment input unit 15 performs the following processing for each of the aerial photographed images I 1 and I 2 . That is, the corresponding line segment input unit 15 confirms the coordinates of the start point and the end point of each corresponding line segment, and expresses each corresponding line segment as a straight line formula (each corresponding line segment is extended and treated as a straight line). Then, the corresponding line segment input unit 15 obtains two linear equations, for example, the following equations (10) and (11), and the following equations (12) are used to convert the equations (10) and (11). Angle α to be calculated,
Check whether the two straight lines are parallel. In Expressions (10) and (11), m and n indicate the numbers of the corresponding line segments, and x and y indicate the coordinates in a coordinate system unique to the image.

【0051】[0051]

【数10】 (Equation 10)

【0052】[0052]

【数11】 [Equation 11]

【0053】[0053]

【数12】 (Equation 12)

【0054】対応線分入力部15は、角α=uπ(uは
整数)であれば、対応線分(直線)mと対応線分(直
線)nは平行であり対応点が存在しないため、また別に
対応線分をユーザに定めてもらう。角α=uπ(uは整
数)でなければ、対応線分入力部15は、(10)式、
(11)式から求められる次の(13)式から、対応線
分(直線)mと対応線分(直線)nの交点、つまり対応
点の座標を算出し、その座標を記憶する。
When the angle α = uπ (u is an integer), the corresponding line segment input line 15 is in parallel with the corresponding line segment (straight line) m and the corresponding line segment (straight line) n, and there is no corresponding point. In addition, the corresponding line segment is determined by the user. If the angle α is not u = uπ (u is an integer), the corresponding line segment input unit 15 calculates
From the following equation (13) obtained from the equation (11), the intersection of the corresponding line segment (straight line) m and the corresponding line segment (straight line) n, that is, the coordinates of the corresponding point is calculated, and the coordinates are stored.

【0055】[0055]

【数13】 (Equation 13)

【0056】対応線分入力部15は、各空撮画像I
において、算出する座標の個数が既定個数(少なく
とも5個)になるまで、上述した処理を繰り返し、既定
個数になった時は、算出した対応点の座標のペアを、カ
メラキャリブレーション実行部23に通知する。
The corresponding line segment input unit 15 outputs each aerial image I 1 ,
In I 2, to the number of coordinates calculating is established number (at least 5), the above processing is repeatedly, when it becomes the default number is a pair of coordinates of the calculated corresponding points, camera calibration execution unit Notify 23.

【0057】カメラキャリブレーション実行部23は、
対応線分入力部15から通知された対応点座標のペアに
基づいて、空撮画像I、Iのカメラ位置及び向きを
推定する。つまり、カメラキャリブレーション実行部2
3は、上記5ペア以上の対応点座標ペアを用いて、図3
を参照して先に説明した(1)〜(3)式から上記未知
変数c、c、ω、φ、κを算出して、算出した各未
知変数の値を、画像変換処理部25に通知する。
The camera calibration execution unit 23
The camera position and orientation of the aerial images I 1 and I 2 are estimated based on the pair of corresponding point coordinates notified from the corresponding line segment input unit 15. That is, the camera calibration execution unit 2
3 uses the five or more corresponding point coordinate pairs described above and
The unknown variables c y , c z , ω, φ, and κ are calculated from the equations (1) to (3) described above with reference to FIG. Notify.

【0058】画像変換処理部25は、通知された未知変
数c、c、ω、φ、κの値を用いて、前述した
(4)〜(9)式から上記座標(x,y)を求め、
図8に示すように、変換対象空撮画像Iを、その画像
におけるベース空撮画像Iと同一の被写体の位置
をベース空撮画像Iの位置に合わせた画像I’に変
換する。
The image conversion processing unit 25 uses the notified values of the unknown variables c y , c z , ω, φ, and κ to obtain the coordinates (x z , y) from the above-described equations (4) to (9). z ), and
As shown in FIG. 8, a conversion target Aerial image I 2, the image I 2 'which align the same subject and based aerial image I 1 in the image I 2 to the position of the base Aerial image I 1 Convert.

【0059】画像出力部27は、ベース空撮画像I
変換された画像I’とを同時にディスプレイ3に表示
したり、それら両方の画像I、I’のデータを所定
のファイルに保存したり、コンピュータ1にプリンタが
接続されていればそのプリンタを介してプリントアウト
したりする。
The image output unit 27 simultaneously displays the base aerial image I 1 and the converted image I 2 ′ on the display 3, or converts the data of both images I 1 and I 2 ′ into a predetermined file. It saves or prints out via the printer if a printer is connected to the computer 1.

【0060】図9は、本実施形態に係る画像位置合わせ
処理の流れを示す。
FIG. 9 shows the flow of the image positioning process according to this embodiment.

【0061】まず、変換対象空撮画像及びベース空撮画
像のデータが画像DB8から取得され(ステップS
1)、2つの空撮画像データがコンピュータ1のメモリ
上に保存される(S2)。保存された2つの空撮画像デ
ータは、ディスプレイ3に表示され、ユーザによって、
対応線分が複数本入力される(S3)。入力された各対
応線分は、少なくとも1つ以上の平行ではない対応線分
が在るか否かが判定され(S4)、全てが平行であれば
(S4でno)、再度対応線分をユーザが入力する。平
行でない対応線分が在れば(S4でyes)、それらの
対応線分の直線式が求められて交点座標が算出され(S
5)、その交点座標が対応点座標として保存される(S
6)。ステップS3〜S6までの動作は、対応点座標の
ペアが既定個数(最低5個)算出されるまで繰り返し行
なわれる。対応点座標のペアが既定個数算出された時は
(S6でyes)、各対応点ペアの座標と上記(1)〜
(3)式により上記カメラ位置及び向きが推定され(S
7)、推定されたカメラ位置及び向きに基づいて、上記
(4)〜(9)式により変換対象画像が上記画像変換さ
れ(S8)、変換された画像が所定のファイル又はディ
スプレイ3に出力される(S9)。
First, data of the conversion target aerial image and the base aerial image are obtained from the image DB 8 (step S).
1) Two aerial image data are stored in the memory of the computer 1 (S2). The two stored aerial image data are displayed on the display 3, and are displayed by the user.
A plurality of corresponding line segments are input (S3). For each of the input corresponding line segments, it is determined whether there is at least one or more non-parallel corresponding line segments (S4). If all of the input corresponding line segments are parallel (no in S4), the corresponding line segments are again set. User inputs. If there is a corresponding line segment that is not parallel (yes in S4), a straight line formula of the corresponding line segment is obtained, and the coordinates of the intersection are calculated (S4).
5), and the intersection coordinates are stored as corresponding point coordinates (S
6). The operations in steps S3 to S6 are repeated until a predetermined number of pairs (corresponding to at least five) of corresponding point coordinates are calculated. When a predetermined number of pairs of corresponding point coordinates are calculated (yes in S6), the coordinates of each corresponding point pair and the above (1) to
The camera position and orientation are estimated by equation (3) (S
7) Based on the estimated camera position and orientation, the image to be converted is image-converted by the above equations (4) to (9) (S8), and the converted image is output to a predetermined file or the display 3. (S9).

【0062】以上、上述した実施形態によれば、ユーザ
が、建物や道路等の同一直線物に基づいて空撮画像上に
線分を定めることで、対応線分入力部15によって、対
応点が自動的に定められる。このため、従来のように直
接画像上に点を定める時よりも、適切に対応点を定める
ことが可能になる。また、それぞれの空撮画像が、建造
物が密集していて地表平面がほとんど現れていなかった
り、高層ビル等によって地表面の一部が隠れてしまって
いたり、解像度が十分に高くない画像であったりして
も、地表面上の同一直線物さえ把握できれば、適切に対
応点を定めることができる。このため、ユーザにとっ
て、対応点を定める作業が非常に簡単になる。
As described above, according to the above-described embodiment, the user determines the line segment on the aerial image based on the same straight-line object such as a building or a road, and the corresponding point is input by the corresponding line segment input unit 15. Determined automatically. For this reason, the corresponding point can be determined more appropriately than when a point is directly determined on an image as in the related art. In addition, each aerial image is an image in which the buildings are dense and the ground plane hardly appears, or a part of the ground surface is hidden by high-rise buildings, or the resolution is not sufficiently high. Even if it can grasp the same straight object on the ground surface, the corresponding point can be determined appropriately. For this reason, the task of determining the corresponding points becomes very simple for the user.

【0063】また、上述した実施形態によれば、対応点
は、各対応線分を延長して直線として扱い、直線同士の
交点を求めることによって定められる。これにより、た
とえ、空撮画像上で被写体の直線部分が短くて十分な長
さを持った対応線分が定められなくても、対応点を定め
ることができる。また、空撮画像の表示領域外に交点が
できる場合があるので、空撮画像の表示領域外に仮想的
な対応点を定めることができる。また、n本の直線によ
る交点の数vは、v=n(n−1)/2なので、対応線
分を1本増やすだけで対応点を複数個定めらるので、多
くの対応点を効率良く与えられる。
According to the above-described embodiment, the corresponding points are determined by extending each corresponding line segment and treating it as a straight line, and finding the intersection of the straight lines. Accordingly, even if a straight line portion of the subject is short on the aerial image and a corresponding line segment having a sufficient length cannot be determined, a corresponding point can be determined. In addition, since an intersection may be formed outside the display region of the aerial image, a virtual corresponding point can be determined outside the display region of the aerial image. Further, since the number v of intersections of n straight lines is v = n (n-1) / 2, a plurality of corresponding points can be determined by simply increasing the number of corresponding line segments, so that many corresponding points can be efficiently used. Well given.

【0064】以上、本発明の好適な幾つかの実施形態を
説明したが、これらは本発明の説明のための例示であっ
て、本発明の範囲をこれらの実施例にのみ限定する趣旨
ではない。本発明は、他の種々の形態でも実施すること
が可能である。つまり、本発明で提案する画像位置合わ
せ方式の過程で行なう対応線分を用いたカメラキャリブ
レーションは、空撮画像への適用に限定されるわけでは
なく、一般的なカメラキャリブレーションにおける対応
点付与の問題に対しても有効である。
Although some preferred embodiments of the present invention have been described above, these are merely examples for describing the present invention, and are not intended to limit the scope of the present invention only to these examples. . The present invention can be implemented in other various forms. That is, the camera calibration using the corresponding line segment performed in the process of the image registration method proposed in the present invention is not limited to the application to the aerial image, and the corresponding point assignment in the general camera calibration is performed. It is also effective for the problem of.

【図面の簡単な説明】[Brief description of the drawings]

【図1】(a)災害時における被災状況の確認の場合の
平常時の空撮画像を示す図。 (b)災害時における被災状況の確認の場合の災害時の
空撮画像を示す図。
FIG. 1A is a diagram showing an aerial photograph image in a normal state in a case of confirming a disaster situation at the time of a disaster. (B) The figure which shows the aerial image at the time of disaster in the case of confirmation of the damage situation at the time of disaster.

【図2】(a)或る方向から撮影された空撮画像であっ
て高層ビル等の高い建物が含まれているときの画像を示
す図。 (b)(a)とは別の方向から撮影された空撮画像であ
って同一の高層ビル等の高い建物が含まれているときの
画像を示す図。
FIG. 2A is a diagram illustrating an aerial image captured from a certain direction when a tall building such as a high-rise building is included; (B) A diagram showing an aerial image taken from a different direction from (a) and including an image of a tall building such as the same high-rise building.

【図3】本発明の一実施形態に係る画像位置合わせの概
要をモデル化した図。
FIG. 3 is a diagram modeling an outline of image alignment according to an embodiment of the present invention.

【図4】図3において、空撮画像Iを画像I’に変
換する時の図。
In Figure 4 3, a diagram of when converting aerial image I 2 to the image I 2 '.

【図5】本実施形態に係る画像位置合わせ方式を適用し
たコンピュータの機能ブロック図。
FIG. 5 is a functional block diagram of a computer to which the image alignment method according to the embodiment is applied.

【図6】画像位置合わせアプリケーション11の構成を
示すブロック図。
FIG. 6 is a block diagram showing a configuration of an image registration application 11;

【図7】ディスプレイ3に表示される2つの空撮画像の
一例を示す図。
FIG. 7 is a view showing an example of two aerial images displayed on a display 3;

【図8】図7において空撮画像Iが画像I’に変換
された時の図。
Figure when aerial image I 2 in FIG. 8] FIG. 7 is converted into an image I 2 '.

【図9】本実施形態に係る画像位置合わせ処理における
流れを示すフローチャート。
FIG. 9 is a flowchart illustrating a flow of an image registration process according to the embodiment.

【符号の説明】[Explanation of symbols]

1 コンピュータ 3 ディスプレイ 5 ユーザ入力装置 8 画像データベース(画像DB) 11 画像位置合わせアプリケーション 13 画像取得部 15 対応線分入力部 23 カメラキャリブレーション実行部 25 画像変換部 27 画像出力部 Reference Signs List 1 computer 3 display 5 user input device 8 image database (image DB) 11 image registration application 13 image acquisition unit 15 corresponding line segment input unit 23 camera calibration execution unit 25 image conversion unit 27 image output unit

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 同一の被写体が表示されている2つの画
像の位置合わせを行なうための方式において、 前記2つの画像はそれぞれ独自の座標系を持っており、 前記2つの画像の各々上に、前記2つの画像間で対応す
る複数の線分を指定する線分指定手段と、 前記2つの画像の各々毎に、前記複数の線分又はそれら
の線分の延長線によって生じる複数の交点の座標を算出
する交点座標算出手段と、 前記2つの画像間で対応し合う、前記算出した複数の交
点座標に基づいて、一方の画像の座標系を、前記同一被
写体の表示位置が重なり合うように他方の画像の座標系
に変換する画像変換処理手段とを備える画像位置合わせ
方式。
1. A method for aligning two images displaying the same subject, wherein each of the two images has its own coordinate system, and each of the two images has Line segment designating means for designating a plurality of line segments corresponding to the two images; and coordinates of a plurality of intersections generated by the plurality of line segments or extensions of the line segments for each of the two images. Intersection coordinate calculation means for calculating the coordinate system of one image based on the calculated plurality of intersection coordinates corresponding to the two images so that the display position of the same subject overlaps with the other image. An image alignment method comprising: image conversion processing means for converting an image into a coordinate system.
【請求項2】 同一の被写体が表示されている2つの画
像の位置合わせを行なうための方式において、 前記2つの画像はそれぞれ独自の座標系を持っており、 前記2つの画像の各々上に、前記2つの画像間で対応す
る複数の線分を指定する線分指定ステップと、 前記2つの画像の各々毎に、前記複数の線分又はそれら
の線分の延長線によって生じる複数の交点の座標を算出
する交点座標算出ステップと、 前記2つの画像間で対応し合う、前記算出した複数の交
点座標に基づいて、一方の画像の座標系を、前記同一被
写体の表示位置が重なり合うように他方の画像の座標系
に変換する画像変換処理ステップとを有する画像位置合
わせ方法。
2. A method for aligning two images displaying the same subject, wherein each of the two images has its own coordinate system, and each of the two images has: A line segment designating step of designating a plurality of line segments corresponding between the two images; and, for each of the two images, coordinates of a plurality of intersections generated by the plurality of line segments or extensions of the line segments. And calculating the intersection coordinates corresponding to the two images, based on the calculated plurality of intersection coordinates, changing the coordinate system of one of the images so that the display positions of the same subject overlap each other. An image conversion processing step of converting the image into a coordinate system of the image.
【請求項3】 同一の被写体が表示されている2つの画
像の位置合わせを行なうための方式において、 前記2つの画像はそれぞれ独自の座標系を持っており、 前記2つの画像の各々上に、前記2つの画像間で対応す
る複数の線分を指定する線分指定ステップと、 前記2つの画像の各々毎に、前記複数の線分又はそれら
の線分の延長線によって生じる複数の交点の座標を算出
する交点座標算出ステップと、 前記2つの画像間で対応し合う、前記算出した複数の交
点座標に基づいて、一方の画像の座標系を、前記同一被
写体の表示位置が重なり合うように他方の画像の座標系
に変換する画像変換処理ステップとをコンピュータに実
行させるためにプログラムを記録したコンピュータ読取
可能な記録媒体。
3. A method for aligning two images displaying the same subject, wherein each of the two images has its own coordinate system, and each of the two images has: A line segment designating step of designating a plurality of line segments corresponding between the two images; and, for each of the two images, coordinates of a plurality of intersections generated by the plurality of line segments or extensions of the line segments. And calculating the intersection coordinates corresponding to the two images, based on the calculated plurality of intersection coordinates, changing the coordinate system of one of the images so that the display positions of the same subject overlap each other. A computer-readable recording medium storing a program for causing a computer to execute an image conversion processing step of converting an image into a coordinate system.
JP2000073758A 2000-03-16 2000-03-16 System and method for positioning picture Withdrawn JP2001266110A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000073758A JP2001266110A (en) 2000-03-16 2000-03-16 System and method for positioning picture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000073758A JP2001266110A (en) 2000-03-16 2000-03-16 System and method for positioning picture

Publications (1)

Publication Number Publication Date
JP2001266110A true JP2001266110A (en) 2001-09-28

Family

ID=18591952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000073758A Withdrawn JP2001266110A (en) 2000-03-16 2000-03-16 System and method for positioning picture

Country Status (1)

Country Link
JP (1) JP2001266110A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095707A (en) * 2018-12-11 2020-06-18 キヤノン株式会社 Alignment-free video change detection using deep blind image region prediction

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095707A (en) * 2018-12-11 2020-06-18 キヤノン株式会社 Alignment-free video change detection using deep blind image region prediction

Similar Documents

Publication Publication Date Title
JP4832878B2 (en) Image composition processing apparatus and method
JP5100360B2 (en) Image processing device
US7424174B2 (en) Image processing device
JP2004334819A (en) Stereo calibration device and stereo image monitoring device using same
JPH10221072A (en) System and method for photogrammetry
JP2005308553A (en) Three-dimensional image measuring device and method
JPH11509946A (en) Method and system for image combination using parallax dependent technique
JP2007323615A (en) Image processor and processing method thereof
KR100545048B1 (en) System for drawing blind area in aerial photograph and method thereof
JP2001148012A (en) Method and device for searching corresponding point
JP4851240B2 (en) Image processing apparatus and processing method thereof
JP4809134B2 (en) Image processing apparatus and processing method thereof
JP3251557B2 (en) Wall image / damage / repair information registration management system and method
JP2000121358A (en) Method and device for obtaining inspection point position
CN113034347A (en) Oblique photographic image processing method, device, processing equipment and storage medium
JPH06348815A (en) Method for setting three-dimensional model of building aspect in cg system
JP4550081B2 (en) Image measurement method
JP4389663B2 (en) Image processing method and image processing apparatus
JP4747293B2 (en) Image processing apparatus, image processing method, and program used therefor
JP2001266110A (en) System and method for positioning picture
US20190311212A1 (en) Method and System for Display the Data from the Video Camera
JP4359939B2 (en) Image measuring device
JP2004077377A (en) Displacement measuring method and displacement measuring device by photogrammetry
JP3441657B2 (en) Image point setting device and photogrammetry method using the image point setting device
JP2005140623A (en) Image measuring method and instrument, program, and recording medium

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040521

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20040526

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070605