JPH07200650A - Building image synthesizing device - Google Patents

Building image synthesizing device

Info

Publication number
JPH07200650A
JPH07200650A JP5351977A JP35197793A JPH07200650A JP H07200650 A JPH07200650 A JP H07200650A JP 5351977 A JP5351977 A JP 5351977A JP 35197793 A JP35197793 A JP 35197793A JP H07200650 A JPH07200650 A JP H07200650A
Authority
JP
Japan
Prior art keywords
image
site
building
viewpoint
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5351977A
Other languages
Japanese (ja)
Other versions
JP3235929B2 (en
Inventor
Yuji Takada
雄二 高田
Koji Sugishita
幸司 杉下
Hideaki Matsuo
英明 松尾
Mitsutaka Tejima
光隆 手嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP35197793A priority Critical patent/JP3235929B2/en
Publication of JPH07200650A publication Critical patent/JPH07200650A/en
Application granted granted Critical
Publication of JP3235929B2 publication Critical patent/JP3235929B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To provide a building image synthesizing device which can easily calculate a visual point with no use of a reference object and can synthesize a computer graphic CG image of a building produced by a computer with an actually photographed image. CONSTITUTION:A building image synthesizing device is provided with an edge detecting part 102 which detects an edge 2 of a building site out of an actually photographed image 1 of the site, a site information input part 103 inputting the length of the side and the diagonal line of the building site and the position of the site as site information 3, a focus calculating part 104 which calculates a focus 5 based on the site information 3 and the detected edge 2, a visual point calculating part 105 which calculates a visual point based on the focus 5, the information 3 and the edge 2, a building CG input part 6, and an image synthesizing part 107 which synthesizes a building CG 7 with the image 1. In such a constitution, a virtual rectangle is formed on the site, and the image of the rectangle projected on the image screen of an image pickup device is calculated based on the input site information 3. Then the focus and the visual point of the pickup device are calculated based on the projected image of the rectangle. The building CG is converted into an image acquired from the visual point and synthesized with the image 1.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、コンピュータを用いた
建造物のコンピュータグラフィック(以下、CGと記載)
を実写画像に合成する装置に関し、特に建造物を建造す
る敷地に関する情報が得られる場合に、効率的に合成す
る装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a computer graphic of a building using a computer (hereinafter referred to as CG).
The present invention relates to a device for synthesizing a real image with a real image, and particularly to a device for efficiently synthesizing the information when information about a site where a building is built can be obtained.

【0002】[0002]

【従来の技術】従来、建造物のCG画像を実写画像へ合
成することは景観シミュレーションとして行われてい
る。この景観シミュレーションは、建造物を立てる風景
の実写画像にコンピュータで作成したCG画像を合成す
ることにより、実際の風景内に建造物を建造した状態の
シミュレーションを行うことが可能である。
2. Description of the Related Art Conventionally, a CG image of a building is combined with a photographed image as a landscape simulation. In this landscape simulation, it is possible to perform a simulation of a state in which a building is built in an actual landscape by synthesizing a computer-generated CG image with a photographed image of a landscape where the building is set up.

【0003】建造物のCG画像を実写画像を合成する場
合には、実写画像の視点に合わせてCG画像を回転,拡
大/縮小を行わなければならない。そのためには、撮影
を行うカメラの視点の位置,焦点距離を知る必要があ
る。撮影地点において、カメラのズームや高さ,距離等
のパラメータを記録しておき、それを利用して視点を算
出してもよい。しかし、一般の撮影者が、カメラのズー
ム等のパラメータを記録したりすることは困難であり、
大変に手間のかかる作業である。
When synthesizing a CG image of a building with a real shot image, the CG image must be rotated and enlarged / reduced according to the viewpoint of the real shot image. For that purpose, it is necessary to know the position of the viewpoint and the focal length of the camera that performs the shooting. It is also possible to record parameters such as the zoom, height, and distance of the camera at the shooting point and use them to calculate the viewpoint. However, it is difficult for general photographers to record parameters such as camera zoom,
This is a very time-consuming task.

【0004】そのため、カメラの視点を自動的に検出す
る装置もある。実写画像をとる場合に、長方形や立方体
といった形状や大きさのわかった基準物をおいて撮影
し、その基準物体の画像を用いてカメラの視点を算出す
るという装置である。例えば、家のCGを実写画像上に
合成する場合、合成する実写画像を撮影する前に、カメ
ラを撮影を行う位置に配置し、基準物体をカメラに写る
位置に置き、基準物体を含む画像を撮影した後、基準物
体を取り除き、カメラを動かさずに合成対象となる実写
画像を撮影する。次に、基準物体の写った画像を用いて
カメラの撮影パラメータを算出し、視点および焦点距離
を算出し、家のCGを回転/縮小,平行移動を行い、実
際の対象画像上に合成を行う。この場合、大きさのわか
っている基準物体をあらかじめ用意しておかなければな
らず、また、その基準物体も、精度を向上するために
は、ある程度大きなものになってしまう。
Therefore, there is a device that automatically detects the viewpoint of the camera. When taking a real image, it is a device that captures an image of a reference object such as a rectangle or a cube whose shape and size are known, and calculates the viewpoint of the camera using the image of the reference object. For example, when CG of a house is to be combined on a live-action image, the camera is placed at a position where the image is taken, the reference object is placed at a position to be captured by the camera, and an image including the reference object is displayed before capturing the real-image to be combined. After shooting, the reference object is removed, and a real image to be combined is shot without moving the camera. Next, the shooting parameters of the camera are calculated using the image of the reference object, the viewpoint and the focal length are calculated, the CG of the house is rotated / reduced, the translation is performed, and the composition is performed on the actual target image. . In this case, a reference object of known size must be prepared in advance, and the reference object also becomes large to some extent in order to improve accuracy.

【0005】[0005]

【発明が解決しようとする課題】上述した従来の技術で
は、合成を行う実写画像の視点を算出するために、ある
一定の基準物体を置かなければならない点であり、大変
に手間がかかり、また精度を向上するためには、ある程
度の大きさの基準物体を必要とするという問題があっ
た。
In the above-mentioned conventional technique, a certain reference object must be placed in order to calculate the viewpoint of the real image to be combined, which is very troublesome. There is a problem that a reference object of a certain size is required to improve the accuracy.

【0006】本発明は上記の点に鑑み、建造物のCGを
実写画像に合成する場合に、建造物のCGを合成する実
写画像の視点および視線方向,焦点距離を、基準物体を
置くことなしに直接対象画像から容易に算出することを
可能にし、合成する場合の操作者の手間を省き、容易に
合成を可能にする実写画像と建造物のCGの合成装置の
提供を目的とする。
In view of the above points, in the present invention, when a CG of a building is combined with a live-action image, the viewpoint, line-of-sight direction, and focal length of the real-image of the CG of the building are not placed as a reference object. It is an object of the present invention to provide an apparatus for synthesizing a real image and a CG of a building, which enables easy calculation directly from the target image, saves the operator's trouble when synthesizing, and enables easy synthesizing.

【0007】[0007]

【課題を解決するための手段】本発明は上記課題を解決
し、目的を達成するため、敷地の実写画像を入力する画
像入力手段と、敷地情報を入力する敷地情報入力手段
と、前記画像入力手段により入力された実写画像から敷
地のエッジを検出するエッジ検出手段と、前記敷地情報
入力手段により入力された敷地情報と、前記エッジ検出
手段により検出されたエッジを用いて焦点を算出する焦
点算出手段と、前記敷地情報入力手段により入力された
敷地情報および前記エッジ検出手段により検出されたエ
ッジおよび前記焦点算出手段により算出された焦点を用
いて視点を算出する視点算出手段と、建造物のコンピュ
ータグラフィックを入力するCG入力手段と、前記視点
算出手段により算出された視点を用いて前記画像入力手
段により入力された実写画像と、前記CG入力手段によ
り入力された建造物のコンピュータグラフィックを合成
する画像合成手段からなることを特徴とする。
In order to solve the above problems and to achieve the object, the present invention has an image input means for inputting a real image of a site, a site information input means for inputting site information, and the image input. Edge detection means for detecting the edge of the site from the photographed image input by the means, focus information for calculating the focus using the site information input by the site information input means, and the edge detected by the edge detection means Means, viewpoint calculating means for calculating a viewpoint using the site information input by the site information inputting means, the edges detected by the edge detecting means, and the focus calculated by the focus calculating means, and a computer for a building CG input means for inputting graphics, and the viewpoint calculated by the viewpoint calculation means are input by the image input means. And shot images, characterized by comprising the image synthesizing means for synthesizing a computer graphic of a building which has been entered by the CG input means.

【0008】[0008]

【作用】本発明によれば、画像入力手段で実写画像を入
力し、エッジ検出手段において実写画像から敷地のエッ
ジ画像を検出する。次に敷地情報入力手段において、敷
地情報として敷地の形状に関する情報と、建造物を建造
する位置に関する情報を入力する。焦点算出手段は、エ
ッジ画像から敷地の端点の画像面上の座標を検出し、敷
地の任意の端点を4つ選択し、敷地情報を基に仮想的に
実空間中の敷地上に長方形を作成する。次に仮想的な長
方形の画像面上の座標を求め、それを用いて焦点距離を
求める。次に視点算出手段は、求めた焦点と敷地の端点
の画像面上の座標と、実空間中での座標から視点を算出
する。最後に画像合成手段において、敷地のCGから前
記視点算出手段で算出した視点からのCGを作成する。
次に、実写画像中の敷地上の敷地情報入力部で入力した
建築位置に、CG入力手段により入力された建造物のC
Gを合成する。このように、基準物体を置くことなし
に、操作者は容易に建造物のCGを実写画像に合成する
ことが可能となる。
According to the present invention, the image input means inputs the photographed image, and the edge detection means detects the edge image of the site from the photographed image. Next, in the site information input means, information about the site shape and information about the position where the building is built are input as site information. The focus calculation means detects coordinates on the image plane of the endpoints of the site from the edge image, selects four arbitrary endpoints of the site, and virtually creates a rectangle on the site in the real space based on the site information. To do. Next, the coordinates on the image plane of the virtual rectangle are obtained, and the focal length is obtained using the coordinates. Next, the viewpoint calculating means calculates the viewpoint from the obtained focus, the coordinates of the end points of the site on the image surface, and the coordinates in the real space. Finally, the image composition means creates a CG from the viewpoint calculated by the viewpoint calculation means from the CG of the site.
Next, at the building position input by the site information input section on the site in the photographed image, the C of the building input by the CG input means
Synthesize G. In this way, the operator can easily combine the CG of the building with the photographed image without placing the reference object.

【0009】[0009]

【実施例】図1は本発明の一実施例における建造物画像
合成装置の構成を示すブロック図である。図1におい
て、101は画像入力部であり、これは、スキャナ,ビデ
オ再生装置等の実写画像(1)を入力する手段と、この実
写画像(1)を記憶する手段であるフレームバッファを有
する。102はエッジ検出部であり、前記画像入力部101が
保持する実写画像(1)のエッジ(2)を検出する。103は敷
地情報入力部であり、焦点,視点算出,画像合成に必要
な敷地情報(3)を入力する。104は焦点算出部であり、前
記エッジ(2)と前記敷地情報(3)を用いて実写画像(1)を
撮影した撮影装置(4)の焦点(5)を算出する。105は視点
算出部であり、前記エッジ(2)と敷地情報(3)と焦点(5)
を用いて実写画像(1)を撮影した撮影装置(4)の視点(6)
を算出する。106はCG入力部であり、画像入力部101が
保持する実写画像(1)に合成しようとする建造物CG(7)
を入力する。107は画像合成部であり、建造物CG(7)を
視点(6)からの画像に変換し、実写画像(1)との合成画像
(8)を作成する。このように、本実施例の建造物画像合
成装置により、建造物CG(7)を実写画像(1)に合成する
ことが可能となる。以下に、その合成処理手順を詳しく
説明する。
1 is a block diagram showing the construction of a building image synthesizing apparatus according to an embodiment of the present invention. In FIG. 1, reference numeral 101 denotes an image input unit, which has a means for inputting a photographed image (1) such as a scanner or a video reproducing device, and a frame buffer which is a means for storing this photographed image (1). An edge detection unit 102 detects the edge (2) of the photographed image (1) held by the image input unit 101. A site information input unit 103 inputs site information (3) necessary for focus, viewpoint calculation, and image composition. A focus calculation unit 104 calculates the focus (5) of the photographing device (4) that has photographed the real image (1) using the edge (2) and the site information (3). 105 is a viewpoint calculation unit, which is the edge (2), site information (3), and focus (5)
Viewpoint (6) of the photographic device (4) that captured the real image (1) using
To calculate. Reference numeral 106 denotes a CG input unit, which is a building CG (7) to be combined with the photographed image (1) held by the image input unit 101.
Enter. Reference numeral 107 denotes an image combining unit, which converts the building CG (7) into an image from the viewpoint (6) and combines the image with the real image (1).
Create (8). In this way, the building image synthesizing apparatus according to the present embodiment makes it possible to synthesize the building CG (7) with the photographed image (1). The synthesizing processing procedure will be described in detail below.

【0010】図2は図1に示す建造物画像合成装置にお
ける本発明の画像合成手順の流れ図である。まず、建造
物を建築する敷地(9)を含む実写画像(1)を画像入力部10
1により入力する(S21)。次に、エッジ検出部102により
敷地(9)の実写画像(1)中の敷地画像(10)のエッジ(2)を
検出する(S22)。次に、敷地情報入力部103で敷地情報
(3)を入力する(S23)。この敷地情報(3)とは、敷地(9)
の形状を表すパラメータであり、敷地(9)の辺の長さ
と、各端点間の対角線の長さである。敷地情報(3)の入
力方法は、最初に任意の1辺、例えば実写画像(1)中の
敷地画像(10)において、一番手前にくる辺の敷地(9)の
見取図等から得られる実際の長さを入力する。
FIG. 2 is a flow chart of the image synthesizing procedure of the present invention in the building image synthesizing apparatus shown in FIG. First, the image input section 10 is provided with a live-action image (1) including the site (9) where the building is constructed.
Input by 1 (S21). Next, the edge detection unit 102 detects the edge (2) of the site image (10) in the photographed image (1) of the site (9) (S22). Next, in the site information input unit 103, site information
Input (3) (S23). This site information (3) means site (9)
It is a parameter that represents the shape of the site, and is the length of the side of the site (9) and the length of the diagonal line between the endpoints. The method of inputting the site information (3) is as follows. First, in an arbitrary side, for example, in the site image (10) in the live-action image (1), the actual data obtained from the sketch of the site (9) on the side closest to you. Enter the length of.

【0011】そして、その辺から時計回りに順番に各辺
の実際の長さを入力する。全ての辺に対する敷地(9)の
辺の実際の長さを入力し終ると、次に対角線の長さを入
力する。対角線についても、任意の対角線から順番に全
ての対角線の長さを入力する。敷地(9)の辺の長さと対
角線の長さを入力し終ると、建造物を立てようとする位
置情報を入力する。この位置情報とは、敷地(9)の辺か
らの距離である。敷地情報(3)は、上記のように1つず
つ入力するのではなく、スキャナ等を使って敷地(9)の
図面を入力し、その入力データから敷地情報(3)を読み
取っても入力することは可能である。
Then, the actual length of each side is input in the clockwise order from that side. Once you have entered the actual lengths of the site (9) sides for all sides, then enter the diagonal lengths. With respect to the diagonal lines, the lengths of all diagonal lines are input in order from the arbitrary diagonal line. When the length of the side of the site (9) and the length of the diagonal line have been entered, enter the position information for building the building. This position information is the distance from the side of the site (9). The site information (3) is not input one by one as described above, but is also input by inputting the drawing of the site (9) using a scanner and reading the site information (3) from the input data. It is possible.

【0012】次に、敷地情報(3)が入力されると、焦点
算出部104は、敷地情報(3)とエッジ(2)を使って実写画
像(1)を撮影した撮影装置(4)の焦点(5)を算出する(S2
4)。視点算出部105は、エッジ(2)と敷地情報(3)と焦点
(5)を使って実写画像(1)を撮影した撮影装置(4)の視点
(6)を算出する(S25)。焦点(5)と視点(6)の詳しい算出
手段については後述する。このようにして、視点(6)を
算出した後、CG入力部106は、実写画像(1)に合成しよ
うとする建造物CG(7)を取り込み、保持しておく。画
像合成部107は、CG入力部106が保持する建造物CG
(7)を、実写画像(1)と合成を行い、合成画像(8)を作成
する(S26)。
Next, when the site information (3) is input, the focus calculation unit 104 uses the site information (3) and the edge (2) of the photographing device (4) that has photographed the photographed image (1). Calculate focus (5) (S2
Four). The viewpoint calculation unit 105 determines the edge (2), site information (3), and focus.
Viewpoint of the shooting device (4) that shot the real image (1) using (5)
(6) is calculated (S25). Detailed calculation means of the focus (5) and the viewpoint (6) will be described later. After calculating the viewpoint (6) in this way, the CG input unit 106 captures and holds the building CG (7) to be combined with the photographed image (1). The image composition unit 107 is a building CG held by the CG input unit 106.
(7) is combined with the photographed image (1) to create a combined image (8) (S26).

【0013】まず、焦点(5)の算出方式を説明する。図
3は焦点(5)の算出手順の流れ図を示す。焦点(5)を算出
するために3つの座標系を用いる。図4は視点算出に用
いる3つの座標系を示し、401は実空間中の空間座標系
w−Xwwwである。原点Owは、例えば実空間中の
敷地(9)の端点とし、XY平面の傾きを敷地(9)と同一と
し、Z軸を敷地(9)に垂直上方にとる。402は撮影装置
(4)の画像面である。403は画像座標系Og−Xggであ
る。画像面402の中心を原点Ogとし、画像面水平方向に
X軸をとり、垂直方向にY軸をとる。404は視点座標系
e−Xeeeである。視点(6)を原点Oeとし画像原点
gを通り、画像面402に垂直にZ軸をとり、画像座標系
403と同一方向にX軸Y軸をとる。これら3つの座標系
は、視点(6)を算出するとき、合成を行うときにも使用
する。
First, the method of calculating the focus (5) will be described. FIG. 3 shows a flow chart of the procedure for calculating the focus (5). Three coordinate systems are used to calculate the focus (5). Figure 4 shows the three coordinate system used for perspective calculation, 401 is a spatial coordinate system O w -X w Y w Z w in the real space. The origin O w is, for example, an end point of the site (9) in the real space, the inclination of the XY plane is the same as that of the site (9), and the Z axis is set vertically above the site (9). 402 is a photographing device
It is the image side of (4). 403 is an image coordinate system O g -X g Y g. The center of the image plane 402 is the origin O g, and the X axis is in the horizontal direction of the image plane and the Y axis is in the vertical direction. 404 is a viewpoint coordinate system O e -X e Y e Z e . The viewpoint (6) is set as the origin O e , passes through the image origin O g , and the Z axis is taken perpendicular to the image plane 402, and the image coordinate system
The X axis and the Y axis are taken in the same direction as 403. These three coordinate systems are also used when calculating the viewpoint (6) and when performing composition.

【0014】まず、実空間中の敷地(9)の端点をSi、こ
の端点Siの実写画像(1)上の投影点、つまり敷地画像(1
0)の端点をSi′とする。焦点(5)を算出するために、実
空間中の敷地(9)の座標の計算をする(S31)。敷地(9)の
端点Siから、3点が同一直線上にならないように、4
点の代表点を選択する(S32)。この4点の代表点のうち
の任意の点から、時計回りにP1,P2,P3,P4とす
る。Piでできる四角形凸型または凹型の場合は、凸ま
たは凹となる点がP4となるようにする。図5(a)は選択
した代表点が凸型の四角形を形成する場合であり、図5
(b)は選択した代表点が凹型の四角形を形成する場合で
ある。
First, the end point of the site (9) in the real space is S i , and the projection point of this end point S i on the photographed image (1), that is, the site image (1
The end point of 0) is S i ′. In order to calculate the focal point (5), the coordinates of the site (9) in the real space are calculated (S31). From the end point S i of the site (9), make sure that 3 points are not on the same straight line.
A representative point is selected (S32). From any of the four representative points, P 1 , P 2 , P 3 , and P 4 are set clockwise. In the case of a quadrangular convex type or a concave type formed by P i , the point that becomes convex or concave is set to P 4 . FIG. 5A shows the case where the selected representative point forms a convex quadrangle.
(b) is a case where the selected representative point forms a concave quadrangle.

【0015】次に、図5(a),(b)に示す代表点P1,P3
を結んだ直線と代表点P2,P4を結んだ直線の交点をP
0とする。次に、Q1,Q2,Q3,Q4を、P0を中心とす
る仮想的に長方形となるようにとる(S33)。本実施例に
おいては、P0,P1の中点をQ1とし,直線P02上の
0からP2方向に、P0との距離が線分P01の長さと
なる点をQ2とする。Q3,Q4についてもQ2と同様に、
それぞれ直線P03,P04上にとる。図5は敷地(9)
上に長方形(11)を作成した例を示す。501,504は、敷地
(9)であり、502,505は、敷地(9)上に作成する長方形(1
1)である。503,506は、空間座標系Ow−Xwwwであ
る。
Next, the representative points P 1 and P 3 shown in FIGS.
P is the intersection of the straight line connecting P and the representative points P 2 and P 4.
Set to 0 . Next, Q 1 , Q 2 , Q 3 , and Q 4 are taken so as to form a virtually rectangular shape with P 0 at the center (S 33). In this embodiment, the midpoint of P 0, P 1 and Q 1, the P 2 direction from P 0 on the straight line P 0 P 2, the distance between P 0 is the length of the line segment P 0 Q 1 Let the point be Q 2 . For Q 3 and Q 4 as well as Q 2 ,
They are taken on the straight lines P 0 P 3 and P 0 P 4 , respectively. Figure 5 shows the site (9)
An example of creating a rectangle (11) is shown above. 501 and 504 are sites
(9) and 502 and 505 are rectangles (1
1). 503 and 506 is a spatial coordinate system O w -X w Y w Z w .

【0016】図5(a),(b)に示す各代表点Piの空間座
標系401(図4)での座標値(Xw(Pi),Yw(Pi),Zw
(Pi))は、敷地情報(3)のうちの敷地(9)の実際の辺の大
きさ、および対角線の長さを基に長方形(11)を算出する
(S34)。Qiの空間座標系401での座標値(Xw(Qi),Y
(Qi),Zw(Qi))は、各代表点Piとの距離から算出で
きる。本実施例では、線分Pijの長さをd(PiPj)、線
分Pijの長さをd(PiQj)、線分Qijの長さをd
(QiQj)と表す。本実施例においては、空間座標系401の
原点をP1とし、空間座標系401のX軸を直線P14のP
4が正となる方向とする。Y軸を直線P14と垂直に、
点P2のY座標値が正となる方向にとる。そうすると、
各点Pi,Qiの座標は以下のようになる.
Coordinate values (Xw (Pi) , Yw (Pi) , Zw in the spatial coordinate system 401 (FIG. 4) of each representative point P i shown in FIGS. 5A and 5B.
(Pi) ) calculates the rectangle (11) based on the actual side size of the site (9) in the site information (3) and the length of the diagonal line.
(S34). Coordinate values (Xw (Qi) , Y in the space coordinate system 401 of Q i
w (Qi) and Zw (Qi) ) can be calculated from the distance from each representative point P i . In this embodiment, the length of the line segment P i P j is d (PiPj) , the length of the line segment P i Q j is d (PiQj) , and the length of the line segment Q i Q j is d.
Expressed as (QiQj) . In this embodiment, the origin of the spatial coordinate system 401 is P 1, and the X axis of the spatial coordinate system 401 is the straight line P 1 P 4 P.
4 is positive. The Y axis is perpendicular to the straight lines P 1 P 4 ,
The direction is such that the Y coordinate value of the point P 2 is positive. Then,
The coordinates of each point P i , Q i are as follows.

【0017】[0017]

【数1】 [Equation 1]

【0018】次に、Piの画像面上の投影点をPi′、Q
iの画像面上の投影点をQi′とし、Pi′の画像座標系4
03での座標値(Xg(Pi′),Yg(Pi′))とする。Qi
の画像座標系403での座標値(Xg(Qi′),Yg(Qi′))
を求める。Pi′の画像座標系403での座標は、Piが敷
地(9)の端点であるので、実写画像(1)のエッジ(2)から
簡単に得られる。Qi′については複比といわれる理論
を用いる。
[0018] Next, P i 'a projection point on the image plane of the P i, Q
Let Q i ′ be the projection point on the image plane of i, and let P i ′ be the image coordinate system 4
The coordinate values at 03 (Xg (Pi ') , Yg (Pi') ) are used. Q i
Coordinate values in the image coordinate system 403 (Xg (Qi ') , Yg (Qi') )
Ask for. The coordinates of P i ′ in the image coordinate system 403 can be easily obtained from the edge (2) of the photographed image (1) because P i is the end point of the site (9). A theory called cross ratio is used for Q i ′.

【0019】図6は空間中の直線上の4点とその画像面
上の投影点との関係を示し、空間中の直線601上の4点
A,B,C,Dと、その4点の画像面上に投影された直
線601の投影画像602上の点A′,B′,C′,D′との
間には、複比と呼ばれる(数2)の関係がある。
FIG. 6 shows the relationship between the four points on the straight line in the space and the projected points on the image plane. The four points A, B, C and D on the straight line 601 in the space and the four points are shown. The straight line 601 projected on the image plane has points A ′, B ′, C ′, D ′ on the projected image 602, which is called a cross ratio (Equation 2).

【0020】[0020]

【数2】 [Equation 2]

【0021】(数1)の関係を空間中の直線P13と直線
24に用いる。本実施例においては、線分Pi′Pj
の長さをd(Pi′Pj′)、線分Pi′Qj′の長さをd
(Pi′Qj′)、線分Qi′Qj′の長さをd(Qi′Qj′)と表
す。本実施例においては、d(P0P1)=2d(P0Q1)となる
ようにQ1をとっているので、それを用いて整理する
と、d(P0′Qi′)は、
The relation of (Equation 1) is used for the straight lines P 1 P 3 and P 2 P 4 in space. In this embodiment, the line segment P i ′ P j ′ is used.
Of the segment P i ′ Q j ′, and the length of the line segment P i ′ Q j ′ is d (Pi′Pj ′)
(Pi'Qj '), the line segment Q i' 'a length of d (Qi'Qj' Q j represents a). In the present embodiment, Q 1 is set so that d (P0P1) = 2d (P0Q1), and therefore, when arranged using that, d (P0'Qi ') is

【0022】[0022]

【数3】 [Equation 3]

【0023】(数3)のd(P0′Qi′)により、点Qi′の
画像座標系403での座標(Xg(Qi′),Yg(Qi′))は(数
4)で求められる。
[0023] ', the point Q i (number 3) of d (P0'Qi)' obtained by the coordinates in the image coordinate system 403 of the (Xg (Qi '), Yg (Qi')) is (Equation 4) .

【0024】[0024]

【数4】 [Equation 4]

【0025】次に、このQi′を基に焦点(5)を求める。
仮の焦点をf′とおくと、焦点(5)は、以下の手順で求
められる。まず、Qi′に対し、次のベクトルmiを計算
する。
Next, the focus (5) is obtained based on this Q i ′.
If the temporary focus is f ', the focus (5) is obtained by the following procedure. First, the following vector m i is calculated for Q i ′.

【0026】[0026]

【数5】 [Equation 5]

【0027】上記のベクトルmiを用いて、Qi′ででき
る四角形の各辺Qi′Qj′に対し、ベクトルnijを求め
る。mi×mjは外積を表す。
[0027] Using the above vector m i, to Q j '' each side Q i of the rectangle which can be in 'Q i, obtaining the vector n ij. m i × m j represents an outer product.

【0028】[0028]

【数6】 [Equation 6]

【0029】次に、求めたnijから次式のM,M′を求
める。
Next, M and M'of the following equations are obtained from the obtained nij .

【0030】[0030]

【数7】 [Equation 7]

【0031】焦点(5)をfとし、このM,M′を用いる
と、焦点(5)は(数8)で求められる。
When the focal point (5) is f and these M and M'are used, the focal point (5) can be obtained by (Equation 8).

【0032】[0032]

【数8】 [Equation 8]

【0033】このように、本実施例によれば、敷地上に
仮想的に長方形を作成することにより、焦点(5)(本実施
例では、以下fと表す)を算出することが可能である(S
35)。
As described above, according to the present embodiment, it is possible to calculate the focal point (5) (hereinafter referred to as f in this embodiment) by virtually creating a rectangle on the site. (S
35).

【0034】次に、焦点fとエッジ(2)と敷地情報(3)を
基に、視点(6)(本実施例では、以下Eと表す)を算出す
る。
Next, based on the focus f, the edge (2) and the site information (3), the viewpoint (6) (in this embodiment, referred to as E hereinafter) is calculated.

【0035】図7は視点算出手順の流れ図を示す。空間
座標系401における座標のわかっている3点以上の代表
点の投影点と、視点Eまでの距離を求める式から(S7
1)、視点Eの空間座標系401での座標を決定することが
できる。本実施例では、焦点fを求めるのに使用した敷
地(9)の端点中の代表点である4点Piと、視点Eまでの
距離d(EPi)を求める式を導き出して(S72)、それを用
いてEの空間座標系401での座標(視点)を算出する(S7
3)。
FIG. 7 shows a flow chart of the viewpoint calculation procedure. From the formula for calculating the distance to the viewpoint E and the projection point of three or more representative points whose coordinates are known in the spatial coordinate system 401 (S7
1), the coordinates of the viewpoint E in the spatial coordinate system 401 can be determined. In this embodiment, a formula for obtaining the distance d (EPi) to the viewpoint E and the four points P i that are the representative points among the end points of the site (9) used to obtain the focus f is derived (S72), Using this, the coordinates (viewpoint) of E in the spatial coordinate system 401 are calculated (S7
3).

【0036】図8は敷地上の選択した4点でできる長方
形の投影図を示し、点Piとその画像面上の投影点Pi
を示す。801は点Piでできる四角形である。802は画像
面である。803は四角形801を画像面802上に投影した四
角形である。804は視点Eである。805は空間座標系Ow
−Xwwwである。806は視点座標系Oe−Xeee
ある。投影点Pi′の視点座標系での座標値は、(Xe
(Pi′),Ye(Pi′),f)となる。視点Eと投影点Pi
を結んだ直線EPi′の距離d(EPi′)を、(数9)により
求める。
FIG. 8 shows a projection view of a rectangle formed by four selected points on the site, and the point P i and the projection point P i ′ on the image plane thereof.
Indicates. 801 is a quadrangle formed by the points P i . Reference numeral 802 is an image plane. 803 is a quadrangle obtained by projecting the quadrangle 801 onto the image surface 802. A viewpoint E is 804. 805 is the spatial coordinate system O w
Is a -X w Y w Z w. 806 is a viewpoint coordinate system O e -X e Y e Z e . The coordinate value of the projection point P i ′ in the viewpoint coordinate system is (Xe
(Pi ') , Ye (Pi') , f). Viewpoint E and projection point P i
Straight EP i connecting the 'distance d (EPi'), obtained by (Equation 9).

【0037】[0037]

【数9】 [Equation 9]

【0038】次に、隣接するPi′,Pj′間の距離d
(Pi′Pj′)とd(EPi′)により、隣接する直線EPi′,
EPj′の角度θijとしたとき、cosθijを、(数10)によ
り求める。
Next, the distance d between adjacent P i ′ and P j
By (Pi′Pj ′) and d (EPi ′) , adjacent straight lines EP i ′,
When the angle θ ij of EP j ′ is set, cos θ ij is calculated by (Equation 10).

【0039】[0039]

【数10】 [Equation 10]

【0040】三角形EPijに対し余弦定理を用いる
と、(数11)を得る。
If the cosine theorem is used for the triangle EP i P j , (Equation 11) is obtained.

【0041】[0041]

【数11】 [Equation 11]

【0042】この連立方程式を解くことによりd(EPi)
が求まる。次に、空間座標系401におけるEの座標(Xw
(E),Yw(E)、Zw(E))を求める。距離d(EPi)を視点
EとPiの空間座標系401での座標を用いて表すと、(数1
2)のようになる。
By solving this simultaneous equation, d (EPi)
Is required. Next, the coordinates of E in the spatial coordinate system 401 (Xw
(E) , Yw (E) , Zw (E) ) are obtained. If the distance d (EPi) is expressed using the coordinates of the viewpoints E and P i in the spatial coordinate system 401, (Equation 1
It becomes like 2).

【0043】[0043]

【数12】 [Equation 12]

【0044】(数12)を整理すると、(数13)のように視点
Eの空間座標系401での座標(Xw(E),Yw(E),Zw
(E))が求まる。
When (Equation 12) is rearranged, the coordinates (Xw (E) , Yw (E) , Zw in the space coordinate system 401 of the viewpoint E as shown in (Equation 13) are obtained.
(E) ) is obtained.

【0045】[0045]

【数13】 [Equation 13]

【0046】ここでZw(E)は、+と−の2つの解が出
てくる。これは、カメラの位置が敷地面よりも上にある
場合と、下にある場合である。これは、敷地上の点のう
ち一番手前にくる点を1つと、一番奥にくる点を1つ選
択し、その2点の画像座標系403での座標のY座標値を
比較する。例えば、本実施例においては、一番手前にあ
る点をP1、一番奥にある点をP3とする。手前にくる点
1のY座標の値の方が、奥にある点P3のY座標の値よ
りも大きい場合、カメラの位置は敷地よりも下になり、
−の値となる。逆に、手前の点P1のY座標の値が奥の
点P3のY座標の値よりも小さい場合、カメラの位置は
敷地よりも上となり、+の値となる。
Here, for Zw (E) , two solutions of + and-appear. This is where the camera is above and below the site. This is to select one of the points on the site that comes to the front and one that comes to the back, and compare the Y coordinate values of the two points in the image coordinate system 403. For example, in this embodiment, the point in the foreground is P 1 , and the point in the back is P 3 . When the Y coordinate value of the point P 1 coming to the front is larger than the Y coordinate value of the point P 3 located at the back, the position of the camera is below the site,
Negative value. Conversely, when the Y coordinate value of the front point P 1 is smaller than the Y coordinate value of the back point P 3 , the camera position is above the site and has a + value.

【0047】次に、建造物CG(7)を実写画像(1)上に配
置する手順を説明する。図9は建造物CGを実写画像に
合成する手順の流れ図を示す。まず、CG入力部106に
おいて建造物CG(7)を取り込み、保持する(S91)。建
造物CG(7)の大きさを空間座標系401に合わせて変更す
る(S92)。例えば、空間座標系401の「1」が実寸で
「1m」であり、建造物CG(7)が実寸「50cm」を
「1」として記述されているならば、建造物CG(7)を
1/2倍して大きさを修正した建造物CG(7′)を作成
する。
Next, a procedure for arranging the building CG (7) on the photographed image (1) will be described. FIG. 9 shows a flow chart of a procedure for synthesizing a building CG into a photographed image. First, the building CG (7) is fetched and held in the CG input unit 106 (S91). The size of the building CG (7) is changed according to the spatial coordinate system 401 (S92). For example, if “1” in the spatial coordinate system 401 is the actual size “1 m” and the building CG (7) is described as “1” with the actual size “50 cm”, the building CG (7) is 1 Create a building CG (7 ') whose size is corrected by doubling.

【0048】次に、修正した建造物CG(7′)を実写画
像上に合成する位置の空間座標系401での座標を決定す
る。建造する位置は施工図により得られ、施工図に示さ
れた位置に建造物CG(7′)の底面の位置がくるよう
に、回転,平行移動を行う。このようにして、建造物C
G(7)を実写画像(1)の敷地上の建造位置(S93)、つまり
合成位置に合わせることができる。
Next, the coordinates in the spatial coordinate system 401 of the position where the corrected building CG (7 ') is to be combined on the photographed image are determined. The building position is obtained from the construction drawing, and rotation and parallel movement are performed so that the bottom surface of the building CG (7 ') is located at the position shown in the construction drawing. In this way, the building C
G (7) can be aligned with the construction position (S93) on the site of the photographed image (1), that is, the composite position.

【0049】次に、空間座標系401から視点座標系404へ
変換し(S94)、画像座標系403での座標を求め、実写画
像と合成する(S95)。
Next, the space coordinate system 401 is converted into the viewpoint coordinate system 404 (S94), the coordinates in the image coordinate system 403 are obtained, and the coordinates are combined with the photographed image (S95).

【0050】まず、空間座標系401から視点座標系404へ
の変換式を求める。空間中の任意の点Riの空間座標系4
01での座標を(Xw(Ri)、Yw(Ri)、Zw(Ri))とし、視
点座標系404での座標を(Xe(Ri)、Ye(Ri)、Z
(Ri))とすると、座標の変換式は、以下のようにな
る。
First, a conversion formula from the spatial coordinate system 401 to the viewpoint coordinate system 404 is obtained. Space coordinate system 4 of arbitrary point Ri in space
The coordinates at 01 are (Xw (Ri) , Yw (Ri) , Zw (Ri) ), and the coordinates at the viewpoint coordinate system 404 are (Xe (Ri) , Ye (Ri) , Z ) .
e (Ri) ), the coordinate conversion formula is as follows.

【0051】[0051]

【数14】 [Equation 14]

【0052】視点を求めるときに使用した点P1,P2
3,P4に対し、(数14)を適用すると、(数14)のt11
12,t13,t14,t21,t22,t23,t24,t31,t
32,t33,t34は、以下のようになる。
The points P 1 , P 2 , used when obtaining the viewpoint
Applying (Equation 14) to P 3 and P 4 , t 11 of (Equation 14),
t 12, t 13, t 14 , t 21, t 22, t 23, t 24, t 31, t
32 , t 33 and t 34 are as follows.

【0053】[0053]

【数15】 [Equation 15]

【0054】空間中の点Piが画像面に射影された点Qi
の視点座標系404での座標(Xe(Pi′)、Ye(Pi′)、Z
(Pi′))は、以下のようになる。
Point Qi where point Pi in space is projected on the image plane
In the viewpoint coordinate system 404 of (Xe (Pi ') , Ye (Pi') , Z
e (Pi ') ) is as follows.

【0055】[0055]

【数16】 [Equation 16]

【0056】点Qiの画面座標系403での座標のX座標,
Y座標は、それぞれ(数16)の(Xe(Pi′)、Ye(Pi′))
と一致する。合成CG10の画像面での座標は、(数16)
にそれぞれの点を代入することにより変換され、合成す
ることができる。
The X coordinate of the point Qi in the screen coordinate system 403,
The Y coordinate is (Xe (Pi ') , Ye (Pi') ) in (Equation 16), respectively.
Matches The coordinates on the image plane of the composite CG10 are (Equation 16)
Can be synthesized by substituting each point into.

【0057】このように、本実施例によれば、敷地(9)
上に仮想的に長方形を作成することにより、基準物体を
置かずに焦点および視点を算出することが可能となり、
敷地情報入力部103より敷地情報(3)を入力するだけで容
易に合成を行うことができる。
Thus, according to this embodiment, the site (9)
By creating a virtual rectangle on top, it is possible to calculate the focus and viewpoint without placing a reference object,
It is possible to easily perform composition by simply inputting the site information (3) from the site information input unit 103.

【0058】[0058]

【発明の効果】以上説明したように、本発明の建造物画
像合成装置は、特別に従来のような基準物体を置くこと
なく容易に視点を検出し、建造物のCGの配置を自動的
に行うので、建造物のCGを実写画像に合成する作業を
効率良く行うことが可能となる。
As described above, the building image synthesizing apparatus of the present invention can easily detect the viewpoint without placing a reference object as in the conventional case, and automatically arrange the CGs of the building. Since it is performed, it is possible to efficiently perform the work of synthesizing the CG of the building with the photographed image.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例における建造物画像合成装置
の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a building image synthesizing apparatus according to an embodiment of the present invention.

【図2】図1の画像合成手順全体の流れ図である。FIG. 2 is a flowchart of the entire image synthesizing procedure of FIG.

【図3】図1の焦点算出手順の流れ図である。FIG. 3 is a flowchart of the focus calculation procedure of FIG.

【図4】図1の視点算出に用いる3つの座標系を示す図
である。
FIG. 4 is a diagram showing three coordinate systems used for the viewpoint calculation of FIG.

【図5】図1の空間中の敷地と敷地上に作成した長方形
を示す図である。
5 is a diagram showing a site in the space of FIG. 1 and a rectangle created on the site.

【図6】図1の空間中の直線上の4点とその点の画像上
の投影点との関係を示す図である。
6 is a diagram showing a relationship between four points on a straight line in the space of FIG. 1 and projected points on the image of the points.

【図7】図1の視点算出手順の流れ図である。FIG. 7 is a flowchart of the viewpoint calculation procedure of FIG.

【図8】敷地上の選択した4点でできる長方形の投影図
である。
FIG. 8 is a projection view of a rectangle formed by four selected points on the site.

【図9】図1の建造物CGを実写画像に合成する手順の
流れ図である。
9 is a flowchart of a procedure for synthesizing the building CG of FIG. 1 into a real image.

【符号の説明】[Explanation of symbols]

101…画像入力部、 102…エッジ検出部、 103…敷地
情報入力部、 104…焦点算出部、 105…視点算出部、
106…CG入力部、 107…画像合成部、 401…空間
座標系Ow−Xwww、 402…実写画像を撮影した撮
影装置の画像面、 403…画像座標系Og−Xgg、 40
4…視点座標系Oe−Xeee、 501,504…敷地(9)、
502,505…敷地上に作成した長方形(11)、 503,506
…空間座標系Ow−Xwww、 601…空間中の直線、
602…画像面上に投影された直線601投影像、 801…
空間中の敷地の端点から選択した4点でできる四角形、
802…画像面、 803…画像面上に投影された四角形801
の投影像、 804…視点E、 805…空間座標系Ow−Xw
ww、 806…視点座標系Oe−Xeee
101 ... Image input unit, 102 ... Edge detection unit, 103 ... Site information input unit, 104 ... Focus calculation unit, 105 ... Viewpoint calculation unit,
106 ... CG input unit, 107 ... image combining unit, 401 ... space coordinate system O w -X w Y w Z w , 402 ... image surface of the imaging device taken the photographed image, 403 ... image coordinate system O g -X g Y g , 40
4 ... viewpoint coordinate system O e -X e Y e Z e , 501,504 ... site (9),
502, 505… Rectangular (11), 503, 506 created on the site
... space coordinate system O w -X w Y w Z w , 601 ... straight line in space,
602 ... Straight line 601 projection image projected on the image plane, 801 ...
A square made up of 4 points selected from the end points of the site in the space,
802 ... image plane, 803 ... quadrangle 801 projected on the image plane
The projected image of the, 804 ... point of view E, 805 ... space coordinate system O w -X w
Y w Z w, 806 ... viewpoint coordinate system O e -X e Y e Z e .

───────────────────────────────────────────────────── フロントページの続き (72)発明者 手嶋 光隆 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Mitsutaka Teshima 1006 Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Industrial Co., Ltd.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 敷地の実写画像を入力する画像入力手段
と、敷地情報を入力する敷地情報入力手段と、前記画像
入力手段により入力された実写画像から敷地のエッジを
検出するエッジ検出手段と、前記敷地情報入力手段によ
り入力された敷地情報と、前記エッジ検出手段により検
出されたエッジを用いて焦点を算出する焦点算出手段
と、前記敷地情報入力手段により入力された敷地情報お
よび前記エッジ検出手段により検出されたエッジおよび
前記焦点算出手段により算出された焦点を用いて視点を
算出する視点算出手段と、建造物のコンピュータグラフ
ィックを入力するCG入力手段と、前記視点算出手段に
より算出された視点を用いて前記画像入力手段により入
力された実写画像と、前記CG入力手段により入力され
た建造物のコンピュータグラフィックを合成する画像合
成手段からなることを特徴とする建造物画像合成装置。
1. An image input unit for inputting a real image of a site, a site information input unit for inputting site information, and an edge detecting unit for detecting an edge of the site from the real image input by the image input unit. Site information input by the site information input means, focus calculation means for calculating a focus using the edges detected by the edge detection means, site information input by the site information input means and the edge detection means A viewpoint calculation means for calculating a viewpoint using the edges detected by the edge and the focus calculated by the focus calculation means; a CG input means for inputting a computer graphic of a building; and a viewpoint calculated by the viewpoint calculation means. And the real image input by the image input means and the computer of the building input by the CG input means. A building image synthesizing device comprising image synthesizing means for synthesizing a tagraphic.
JP35197793A 1993-12-29 1993-12-29 Building image synthesis device Expired - Fee Related JP3235929B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35197793A JP3235929B2 (en) 1993-12-29 1993-12-29 Building image synthesis device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35197793A JP3235929B2 (en) 1993-12-29 1993-12-29 Building image synthesis device

Publications (2)

Publication Number Publication Date
JPH07200650A true JPH07200650A (en) 1995-08-04
JP3235929B2 JP3235929B2 (en) 2001-12-04

Family

ID=18420928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35197793A Expired - Fee Related JP3235929B2 (en) 1993-12-29 1993-12-29 Building image synthesis device

Country Status (1)

Country Link
JP (1) JP3235929B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018132913A (en) * 2017-02-15 2018-08-23 清水建設株式会社 Structural visualization device and structural visualization system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018132913A (en) * 2017-02-15 2018-08-23 清水建設株式会社 Structural visualization device and structural visualization system

Also Published As

Publication number Publication date
JP3235929B2 (en) 2001-12-04

Similar Documents

Publication Publication Date Title
JP7231306B2 (en) Method, Apparatus and System for Automatically Annotating Target Objects in Images
USRE45785E1 (en) Virtual reality camera
JP4048511B2 (en) Fisheye lens camera device and image distortion correction method thereof
CN110782394A (en) Panoramic video rapid splicing method and system
JP6220486B1 (en) 3D model generation system, 3D model generation method, and program
JP4243767B2 (en) Fisheye lens camera device and image extraction method thereof
JP4268206B2 (en) Fisheye lens camera device and image distortion correction method thereof
US8208029B2 (en) Method and system for calibrating camera with rectification homography of imaged parallelogram
WO2018235163A1 (en) Calibration device, calibration chart, chart pattern generation device, and calibration method
JP2007072537A (en) 360-degree image photographing device
WO2017203710A1 (en) Three-dimensional model generation system, three-dimensional model generation method, and program
JP2003219324A (en) Image correction data calculation method, image correction data calculation apparatus, and multi- projection system
JP2007036482A (en) Information projection display and program
JPH07294215A (en) Method and apparatus for processing image
JP2010287174A (en) Furniture simulation method, device, program, recording medium
JP3690581B2 (en) POSITION DETECTION DEVICE AND METHOD THEREFOR, PLAIN POSITION DETECTION DEVICE AND METHOD THEREOF
JP6467612B2 (en) In-place image processing system and structure maintenance management business system
KR20180048443A (en) Optimal Spherical Image Acquisition Method Using Multiple Cameras
JP2003179800A (en) Device for generating multi-viewpoint image, image processor, method and computer program
Bartczak et al. Integration of a time-of-flight camera into a mixed reality system for handling dynamic scenes, moving viewpoints and occlusions in real-time
JP4776983B2 (en) Image composition apparatus and image composition method
JP6027952B2 (en) Augmented reality image generation system, three-dimensional shape data generation device, augmented reality presentation device, augmented reality image generation method, and program
JP2005063041A (en) Three-dimensional modeling apparatus, method, and program
JP2011146762A (en) Solid model generator
Anwar Calibrating projector flexibly for a real-time active 3D scanning system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees