JP2000030084A - Image compositing apparatus - Google Patents

Image compositing apparatus

Info

Publication number
JP2000030084A
JP2000030084A JP10196884A JP19688498A JP2000030084A JP 2000030084 A JP2000030084 A JP 2000030084A JP 10196884 A JP10196884 A JP 10196884A JP 19688498 A JP19688498 A JP 19688498A JP 2000030084 A JP2000030084 A JP 2000030084A
Authority
JP
Japan
Prior art keywords
image
information
size
position information
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10196884A
Other languages
Japanese (ja)
Other versions
JP3720587B2 (en
Inventor
Sannashi Miyama
三奈子 宮間
Kunio Kondo
邦雄 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP19688498A priority Critical patent/JP3720587B2/en
Publication of JP2000030084A publication Critical patent/JP2000030084A/en
Application granted granted Critical
Publication of JP3720587B2 publication Critical patent/JP3720587B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily create a composited image of an actually photographed image and a CG image without feeling of incompatibility even without special experience. SOLUTION: The image compositing apparatus is provided with an operation part 20 to estimate visual point position information from the actually photographed image, an operation part 24 to estimate three-dimensional space information of the actually photographed image from the estimated visual point position information, an operation part 26 to estimate the size of an object from a coordinate value of the vertex of the object which is photographed on the actually photographed image and actual height of the vertex based on the three-dimensional space information, an operation part 28 to create a unit texture image to be a reference, a generating part 30 to generate the CG image for compositing from the estimated size of the object and the unit texture image, an operation part 22 to estimate light source position information from the actually photographed image and a compositing part 32 to perform perspective projection transformation for the generated CG image, to perform shade processing for the CG image based on the light source position information and to composite the CG image with the actually photographed image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像合成装置、特
に、実写画像を基にして、それを背景とした商品カタロ
グの作成や、住宅等の内装変更後のイメージを表わした
画像等の作成に適用して好適な、画像合成装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesizing apparatus, and more particularly, to the creation of a product catalog based on a real image and the image of an interior of a house or the like after the interior has been changed. The present invention relates to an image synthesizing apparatus suitable for application to

【0002】[0002]

【従来の技術】従来、画像合成を、実写画像のみを用い
て行う場合、違和感の無い合成画像を得るために、企画
段階で合成を前提に綿密な計算がなされた実写画像の素
材を準備し、それらを印刷用のレイアウト・スキャナや
トータル・スキャナ・システムの画像処理ステーショ
ン、デザイン専用システム等の専用機によって、合成す
る処理が行われている。
2. Description of the Related Art Conventionally, when image synthesis is performed using only a real image, in order to obtain a synthetic image without a sense of incongruity, a material of a real image which has been carefully calculated on the premise of the synthesis at the planning stage is prepared. These are combined by a dedicated machine such as a layout scanner for printing, an image processing station of a total scanner system, or a dedicated design system.

【0003】又、近年、住宅等で使用されているバス・
トイレタリやキッチン等の商品カタログを作成するため
に、実写した背景画像とCG(コンピュータ・グラフィ
ックス)技術により作成した浴槽等の部品とを画像合成
したり、インテリア・シミュレーション等において、家
具、カーテン、壁紙等の内装をCGで作成し、そのCG
画像を室内の実写画像に合成することにより、得られる
合成画像から内装を変更した場合のイメージを確認する
ことが行われている。
In recent years, buses used in houses and the like have
In order to create product catalogs for toiletries and kitchens, images are synthesized from actual background images and parts such as bathtubs created by CG (computer graphics) technology, and furniture, curtains, The interior such as wallpaper is created by CG, and the CG
2. Description of the Related Art By synthesizing an image with a real captured image in a room, an image obtained when the interior is changed from an obtained synthesized image is confirmed.

【0004】このように、合成画像の素材にCG画像を
用いる場合、背景として使用する実写画像を、合成を前
提に厳密に条件を決めて撮影し、その撮影条件が予め明
らかである場合は、その撮影条件を用いてCG画像を作
成することにより、実写画像とそのCG画像を合成し、
違和感の無い合成画像を容易に作成することもできる。
As described above, when a CG image is used as a material of a composite image, a photographed image to be used as a background is photographed under strictly determined conditions on the premise of composition, and when the photographing conditions are clear in advance, By creating a CG image using the shooting conditions, the actual captured image and the CG image are combined,
It is also possible to easily create a composite image without a sense of discomfort.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、合成を
前提に撮影されていない、即ち撮影条件が不明な実写画
像を用いて、それにCG画像を合成して違和感の無い合
成画像を作成するためには、オペレータが経験と勘で実
写画像に合うような条件を試行錯誤で求めてCG画像を
生成し、それを用いて合成処理を行っているため、合成
操作が難しいという問題があった。
However, in order to create a composite image without a sense of incongruity by combining a CG image with a real image that has not been photographed on the premise of composition, that is, using a real image whose photography conditions are unknown. However, since the operator generates a CG image by trial and error to find a condition suitable for a real image based on experience and intuition, and performs a combining process using the CG image, there is a problem that the combining operation is difficult.

【0006】本発明は、前記従来の問題点を解決するべ
くなされたもので、任意の実写画像とCG画像を合成す
る場合、特別な経験や勘がなくとも、違和感の無い合成
画像を容易に作成することができる画像合成装置を提供
することを課題とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned conventional problems. In synthesizing a CG image with an arbitrary real image, it is possible to easily generate a synthesized image without a sense of incongruity without special experience or intuition. It is an object to provide an image synthesizing device that can be created.

【0007】[0007]

【課題を解決するための手段】本発明は、実写画像とC
G画像とを合成する画像合成装置において、実写画像か
ら視点位置情報を推定する手段と、推定した視点位置情
報から、実写画像の3次元的空間情報を推定する手段
と、推定した3次元的空間情報に基づいて実写画像中の
合成対象とする対象物の大きさを推定する手段と、推定
した対象物の大きさに基づいて合成用のCG画像を生成
する生成手段と、生成したCG画像を透視投影変換し
て、前記実写画像に合成する手段と、を備えた構成とす
ることにより、前記課題を解決したものである。
SUMMARY OF THE INVENTION According to the present invention, a photographed image and C
In an image synthesizing apparatus for synthesizing a G image, a means for estimating viewpoint position information from a real shot image, a means for estimating three-dimensional space information of a real shot image from the estimated viewpoint position information, and an estimated three-dimensional space Means for estimating the size of an object to be synthesized in the real image based on the information; generating means for generating a CG image for synthesis based on the estimated size of the object; The above-mentioned problem has been solved by adopting a configuration including means for performing perspective projection conversion and synthesizing with the real image.

【0008】即ち、本発明においては、実写画像に合成
するCG画像を、該実写画像から推定した視点を中心と
する3次元空間情報に基づいて作成できるようにしたの
で、これら実写画像とCG画像とをそれぞれ素材として
違和感の無い合成画像を、特別な経験や勘がなくとも容
易且つ確実に作成できる。
That is, in the present invention, a CG image to be synthesized with a real image can be created based on three-dimensional spatial information centered on a viewpoint estimated from the real image. Thus, it is possible to easily and reliably create a composite image having no sense of incompatibility by using each of these as a material without any special experience or intuition.

【0009】[0009]

【発明の実施の形態】一般に、違和感の無い合成画像を
作成すためには、合成に用いる各々の素材画像が、同一
の撮影条件、即ち視点、アングル、光の当たり方等が等
しくなくてはならない。設定条件が不明の実写画像を用
いて違和感の無い合成画像を作成するためには、実写画
像を撮影したときの撮影条件を推定する必要がある。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Generally, in order to create a composite image without a sense of incongruity, each material image used for composition must have the same shooting conditions, that is, the same viewpoint, angle, light hit, and the like. No. In order to create a composite image without a sense of incongruity using a real image whose setting conditions are unknown, it is necessary to estimate shooting conditions at the time of shooting the real image.

【0010】そこで、この実施形態では、実写画像にC
G画像を合成する際に、1枚の実写画像から撮影条件で
ある、視点位置情報(視点位置、視距離、対象物の位置
関係等)を、専用のハードウェアを用いなくとも容易に
推定できるようにし、推定したその条件を基にして合成
用のCG画像を生成し、それを透視投影変換した後、実
写画像に張込んで合成する機能を有する画像合成システ
ム(画像合成装置)を提供する。
Therefore, in this embodiment, C
When synthesizing a G image, viewpoint position information (a viewpoint position, a viewing distance, a positional relationship of an object, and the like), which is a shooting condition, can be easily estimated from one real image without using dedicated hardware. Thus, there is provided an image synthesizing system (image synthesizing apparatus) having a function of generating a CG image for synthesis based on the estimated condition, performing perspective projection conversion of the generated CG image, and embedding the CG image into a real image. .

【0011】又、この実施形態では、前記実写画像から
光源位置情報を推定し、推定した光源位置情報に基づい
て、前記CG画像に陰影処理を施す機能を備えている。
Further, this embodiment has a function of estimating light source position information from the actual photographed image and performing shading processing on the CG image based on the estimated light source position information.

【0012】又、この実施形態では、前記実写画像から
CG画像を合成する対象場所の実際の大きさを推定する
機能と、CG画像のテクスチャとなる実写画像から基本
となる単位テクスチャ画像を作成する機能と、推定した
合成対象物(場所)の大きさ情報に基づいて単位テクス
チャ画像から対象場所用のCG画像を作成する機能を備
えている。
In this embodiment, a function of estimating the actual size of a target position for synthesizing a CG image from the actual photographed image and a basic unit texture image are created from the actual photographed image serving as a texture of the CG image. It has a function and a function of creating a CG image for the target location from the unit texture image based on the estimated size information of the synthesis target (location).

【0013】以下、図面を参照して、より具体的な実施
形態について詳細に説明する。図1は、本発明に係る一
実施形態の画像合成システム(画像合成装置)の概略構
成を示すブロック図である。
Hereinafter, more specific embodiments will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating a schematic configuration of an image composition system (image composition device) according to an embodiment of the present invention.

【0014】この画像合成システムは、実写画像を入力
するスキャナ等の画像入力装置10と、入力した実写画
像の画像データ等を保持する画像保持用メモリ12と、
該メモリ12に保持されている画像データに基づいてそ
の画像を表示する画像表示装置14と、上記メモリ12
に保持されている合成後の画像データ等を出力する画像
出力装置16とを備えている。
The image synthesizing system includes an image input device 10 such as a scanner for inputting a real image, an image holding memory 12 for storing image data of the input real image, and the like.
An image display device 14 for displaying an image based on the image data held in the memory 12;
And an image output device 16 for outputting the image data and the like after the synthesis stored in the image processing device.

【0015】又、上記画像保持用メモリ12には、該メ
モリ12から入力した実写画像データについて、後に詳
述する画像合成のための各種演算処理を実行するための
演算部18が接続され、この演算部18には視点位置情
報演算部20、光源情報演算部22、室内空間大きさ情
報演算部24、合成位置大きさ情報演算部26、単位テ
クスチャ画像演算部28、CG画像生成部30、画像デ
ータ合成部32が含まれている。
The image holding memory 12 is connected to an operation unit 18 for executing various operation processes for image synthesis, which will be described in detail later, on the real image data input from the memory 12. The operation unit 18 includes a viewpoint position information operation unit 20, a light source information operation unit 22, an indoor space size information operation unit 24, a combined position size information operation unit 26, a unit texture image operation unit 28, a CG image generation unit 30, an image A data synthesizing unit 32 is included.

【0016】又、上記演算部18には、ユーザインター
フェースとしてマウス等のポインティングデバイスから
なる情報入力部34が接続され、画像表示装置14のデ
ィスプレイに表示されている実写画像等を見ながら、該
情報入力部34で画像合成の演算処理に必要なデータを
オペレータが入力できるようになっている。
An information input unit 34 such as a pointing device such as a mouse is connected to the arithmetic unit 18 as a user interface. The information input unit 34 is displayed on the display of the image display device 14 while viewing the actual image and the like. The input unit 34 allows an operator to input data necessary for the image synthesis calculation process.

【0017】このシステムでは、図2に示すフローチャ
ートに従って、画像合成迄の基本的な処理が実行され
る。まず、スキャナ10で実写画像の取込みを行い(ス
テップ1)、そのデータをメモリ12で保持するととも
に、実写画像を画像表示装置(ディスプレイ)14に表
示する。そして、ディスプレイ14上の実写画像を見な
がら情報入力部34から情報を入力することにより、視
点位置情報演算部20で、既に読み込んである実写画像
から視点位置情報を推定する。
In this system, basic processing up to image synthesis is executed according to the flowchart shown in FIG. First, a real image is captured by the scanner 10 (step 1), the data is stored in the memory 12, and the real image is displayed on the image display device (display) 14. Then, by inputting information from the information input unit 34 while looking at the real shot image on the display 14, the viewpoint position information calculating unit 20 estimates viewpoint position information from the already read real shot image.

【0018】この視点位置情報演算部20で実行する視
点位置情報の推定は、前記図2のフローチャートにおけ
る消失点計算(ステップ2)、大きさ情報の入力(ステ
ップ3)、視点位置情報(視点位置、視距離)推定(ス
テップ4)迄の処理に当る。
The estimation of the viewpoint position information executed by the viewpoint position information calculation unit 20 is performed by calculating the vanishing point (step 2), inputting the size information (step 3), and the viewpoint position information (viewpoint position) in the flowchart of FIG. , Visual distance) estimation (step 4).

【0019】前記ステップ2で実行する消失点計算は、
スキャナで取り込んだ実写画像において、3次元空間内
の平行線が透視図上で1点、即ち消失点で交わることを
利用して、実写画像中の平行線から消失点座標を求める
ことを意味する。
The vanishing point calculation performed in step 2 is as follows:
Using the fact that parallel lines in a three-dimensional space intersect at one point, that is, a vanishing point, in a perspective view in a real image captured by a scanner, vanishing point coordinates are obtained from the parallel lines in the real image. .

【0020】即ち、室内を撮影した実写画像に写し込ま
れているテーブル、窓、畳、天井等の形状を表わす線
は、3次元的には一般に平行線である。従って、実写画
像が、例えば図3のようであったとすると、天井の平行
線は消失点に収束することから、直交する3軸方向の3
つの消失点は、各軸にそれぞれ平行な2本の線分をディ
スプレイ上で指定することにより、2直線の交点として
求められる。
That is, the lines representing the shapes of the table, window, tatami, ceiling and the like, which are projected on the actual photographed image of the room, are generally parallel in three dimensions. Therefore, if the real image is, for example, as shown in FIG. 3, the parallel line on the ceiling converges to the vanishing point.
One vanishing point is obtained as an intersection of two straight lines by designating two line segments parallel to each axis on the display.

【0021】この時点での消失点座標は、ディスプレイ
用表示座標系である2次元の座標値として求められる。
但し、図3に示した画像は、図4に示したように、カメ
ラを床に対して水平に設置し、仰角=0として撮影され
ていることから、鉛直方向の平行線は写真の画面に対し
て平行な位置関係にあるため、左右2つの消失点のみと
なり、上下方向に第3の消失点は存在していない。
The vanishing point coordinates at this time are obtained as a two-dimensional coordinate value which is a display coordinate system for a display.
However, since the image shown in FIG. 3 was taken with the camera installed horizontally with respect to the floor and the elevation angle = 0 as shown in FIG. 4, the vertical parallel lines are shown on the photograph screen. Since the positions are parallel to each other, there are only two left and right vanishing points, and there is no third vanishing point in the vertical direction.

【0022】ステップ3の大きさ情報の入力は、読み込
んだ前記実写画像中に写し込まれている、例えば窓の一
辺の長さ等の予め既知の物体の大きさ情報を、前記情報
入力部34により入力することにあたる。この大きさ情
報を入力することによって、撮影したときのカメラ位置
である視点位置や、カメラから投影面中心(視心)まで
の距離である視距離等の視点位置情報を求めることが可
能となる。この場合、大きさ情報が正しいほど視点位置
を正確に求めることができるが、ある程度大きさが推定
できるようなものであればよい。
The input of the size information in step 3 is to input the size information of a known object, such as the length of one side of a window, which is imprinted in the read real image, into the information input unit 34. Input. By inputting this size information, it is possible to obtain viewpoint position information such as a viewpoint position, which is a camera position at the time of shooting, and a viewing distance, which is a distance from the camera to the center of the projection plane (sight). . In this case, the more accurate the size information, the more accurately the viewpoint position can be obtained. However, it is sufficient that the size can be estimated to some extent.

【0023】ステップ4の視点位置情報推定では、中心
的処理として視点位置、視距離の計算を行う。以下、こ
れについて詳述する。なお、この推定方法については、
近藤、木村、田嶋による、「手描き透視図の視点推定と
その応用」情報処理学会論文誌 昭和63年7月、に詳
細に説明されている。
In the viewpoint position information estimation in step 4, the viewpoint position and the viewing distance are calculated as central processing. Hereinafter, this will be described in detail. In addition, about this estimation method,
This is described in detail in Kondo, Kimura, and Tajima, “Estimation of viewpoint of hand-drawn perspective view and its application”, Transactions of Information Processing Society of Japan, July 1988.

【0024】まず、投影中心である視点座標(視点位
置)を求める方法を以下に述べる。ここでは、視点と視
心を結ぶ直線上に地上座標系の原点があると想定してい
る。
First, a method for obtaining the viewpoint coordinates (viewpoint position) as the projection center will be described below. Here, it is assumed that the origin of the ground coordinate system is on a straight line connecting the viewpoint and the sight.

【0025】図5は、視点Eと消失点Vの関係を示した
もので、Fは視距離である。点Pを含み、角度αである
半直線Lを考える。このとき、点P(x,y)は、投影
面上のP′(x′,F)に変換される。この点Pを半直
線L上に無限大の長さにとると消失点Vと一致する。こ
れから、直線Lの消失点の座標は(F/tanα,F)
となる。
FIG. 5 shows the relationship between the viewpoint E and the vanishing point V, where F is the viewing distance. Consider a ray L containing a point P and having an angle α. At this time, the point P (x, y) is converted into P '(x', F) on the projection plane. When this point P is set to an infinite length on the half line L, it coincides with the vanishing point V. From this, the coordinates of the vanishing point of the straight line L are (F / tan α, F)
Becomes

【0026】図6は、視点座標系E−UVWと、地上座
標系O−XYZとの関係を、(A)の平面図と(B)の
側面図で示したものである。ここで、視点をE、視軸を
Vとし、視点Eから線分V1−V2に対して直交する線
分を引き、その交点をHLとする。HL′は、このHL
の平面図の座標、E′は視点の側面図の座標、F′は視
点EからHLまでの距離を示す。この図6は、W軸の周
りにα、U軸の周りにβだけ傾けた状態を示している。
消失点V1、V2、V3は、原点を視心Cとする画面の
座標系C−UWにおいて、次のようになる。
FIG. 6 shows the relationship between the viewpoint coordinate system E-UVW and the ground coordinate system O-XYZ in a plan view of (A) and a side view of (B). Here, the viewpoint is E, the visual axis is V, a line segment orthogonal to the line segment V1-V2 is drawn from the viewpoint E, and the intersection point is HL. HL 'is the HL
E 'indicates the coordinates of the side view of the viewpoint, and F' indicates the distance from the viewpoint E to HL. FIG. 6 shows a state of being inclined by α around the W axis and by β around the U axis.
The vanishing points V1, V2, and V3 are as follows in the coordinate system C-UW of the screen whose origin is the visual center C.

【0027】 V1=(F′/tanα,Ftanβ) …(1) V2=(−F′tanα,Ftanβ) …(2) V3=(0,−F/tanβ) …(3) F′=F/cosβ …(4) HL=(0,Ftanβ) …(5)V1 = (F ′ / tanα, Ftanβ) (1) V2 = (− F′tanα, Ftanβ) (2) V3 = (0, −F / tanβ) (3) F ′ = F / cosβ (4) HL = (0, Ftanβ) (5)

【0028】上記(1)〜(5)式を利用して、V1、
V2、V3が既知のとき、方位角α、仰角β、視距離
F、視心Cを次の手順により求める。これを、図7も参
照しながら説明する。
Using the above equations (1) to (5), V1,
When V2 and V3 are known, the azimuth angle α, the elevation angle β, the visual distance F, and the visual center C are obtained by the following procedure. This will be described with reference to FIG.

【0029】(1)線分V1−V2の中点を求め、該中
点を中心として、直径をV1−V2とする円を作画す
る。
(1) The midpoint of the line segment V1-V2 is determined, and a circle having a diameter V1-V2 is drawn around the midpoint.

【0030】(2)V3から直線V1−V2に下ろした
垂線と、直線V1−V2との交点HL′、上記円との交
点Eを求める。
(2) An intersection HL 'between the perpendicular drawn from V3 to the straight line V1-V2 and the straight line V1-V2, and an intersection E with the circle are obtained.

【0031】(3)線分E−HL′と線分HL′−V2
より角度αを求める。
(3) Line segment E-HL 'and line segment HL'-V2
The angle α is further obtained.

【0032】(4)線分E−HL′と線分HL′−V3
より視距離Fを求める。
(4) Line segment E-HL 'and line segment HL'-V3
The viewing distance F is obtained from the calculation.

【0033】(5)前記(4)式を利用して、視距離F
と線分E−HL′から角度βを求める。
(5) The visual distance F is calculated by using the above equation (4).
And the angle β is determined from the line segment E-HL ′.

【0034】(6)V1から線分V2−V3に下ろした
垂線と、V2から線分V1−V3に下ろした垂線との交
点を視心Cとする。
(6) The intersection of the perpendicular drawn from V1 to the line segment V2-V3 and the perpendicular drawn from V2 to the line segment V1-V3 is defined as the visual center C.

【0035】次に、視心情報が既知の場合に視点位置情
報を推定する方法を、前記図3に示した2消失点画像と
実質上同一の図8を用いて説明する。
Next, a method of estimating viewpoint position information when the visual center information is known will be described with reference to FIG. 8 which is substantially the same as the two vanishing point images shown in FIG.

【0036】この図8に示した実写画像Gは、床面に対
して水平にカメラを設置して撮影されたと推定され、仰
角βは0°である。このような2消失点の場合、前記図
4に示したように、消失点の位置は目の高さ(視線)の
延長線上にある。又、この画像Gは、スキャナで取り込
んだ後、トリミング作業を行っていないことから、図8
に示すように視線の中心となる視心Cは、2つの消失点
を結んだ線上にあり、且つx軸方向の中心にあるとして
以下の手順で視距離Fを算出する。
It is presumed that the photographed image G shown in FIG. 8 was taken with a camera installed horizontally with respect to the floor surface, and the elevation angle β is 0 °. In the case of such two vanishing points, the vanishing point is located on an extension of the eye height (line of sight) as shown in FIG. Since the image G has not been trimmed after being captured by the scanner, FIG.
As shown in FIG. 7, the visual center C, which is the center of the line of sight, is on the line connecting the two vanishing points and at the center in the x-axis direction, and the visual distance F is calculated by the following procedure.

【0037】(1)左右2つの消失点を求めるために、
3次元空間内でそれぞれ平行な2組の平行線を指定し、
2直線の交点として消失点V1、V2を計算する。
(1) In order to find two vanishing points on the left and right,
Specify two sets of parallel lines that are parallel to each other in three-dimensional space,
Vanishing points V1 and V2 are calculated as intersections of two straight lines.

【0038】(2)線分V1−V2の中点Mを求め、中
点を中心とし、直径をV1−V2とする円を作画する。
(2) The midpoint M of the line segment V1-V2 is determined, and a circle having the diameter V1-V2 is drawn around the midpoint.

【0039】(3)線分V1−V2上にあり、且つ実写
画像のx軸方向の中心Cを求める。
(3) The center C on the line segment V1-V2 and in the x-axis direction of the actual photographed image is obtained.

【0040】(4)視心Cから半円に垂線を引き、交点
が視点Eとなる。
(4) A perpendicular line is drawn from the visual center C to a semicircle, and the intersection point becomes the viewpoint E.

【0041】(5)線分E−Cより視距離Fを求める。(5) Obtain the viewing distance F from the line segment EC.

【0042】一方、視心情報が不明の場合、即ち、同様
に2消失点画像ではあるが、トリミングされているため
に、視心が実際の画像の中心から反れていて不明の場合
に、視点位置情報を推定する方法を、図9を用いて説明
する。なお、この推定方法については、F.ホーエンベ
ルク著、増田訳「技術における構成幾何学」(上巻)日
本評論社、に詳細に説明されている。
On the other hand, when the visual acuity information is unknown, that is, when the visual acuity is deviated from the center of the actual image and is unknown because the image is a two vanishing point image but is trimmed, the viewpoint A method for estimating position information will be described with reference to FIG. This estimation method is described in F.S. This is described in detail in Hohenberg's Masuda translation, "Constitutive Geometry in Technology" (Vol. 1, Nihon Hyoronsha).

【0043】図9(A)に示した実写画像Gは、太い実
線で示す直方体が写し込まれているが、トリミングによ
りその左端が切断されているため、画像の中心が不明に
なっている。但し、この場合は、画像G中でA′B′
C′D′(但し、D′は見えない)で示す直方体の上面
の一部にあたる四角形が、同図(B)に示すように寸法
a、bが明らかな四角形ABCDであるとする。
In the actual image G shown in FIG. 9A, a rectangular parallelepiped indicated by a thick solid line is imprinted. However, since the left end is cut off by trimming, the center of the image is unknown. However, in this case, A′B ′ in the image G
It is assumed that a rectangle corresponding to a part of the upper surface of a rectangular parallelepiped indicated by C′D ′ (D ′ is not visible) is a square ABCD whose dimensions a and b are clear as shown in FIG.

【0044】上記画像中の物体で、実際の3次元空間で
は水平線に平行でお互いに直交する2本の線分、ここで
は、図9(B)で線分AB、ACの長さが上記のように
既知であるとして、以下の手順で視点位置、即ち視距離
を推定できる。
In the actual three-dimensional space, two line segments which are parallel to the horizontal line and are orthogonal to each other in the image, the lengths of the line segments AB and AC in FIG. As described above, the viewpoint position, that is, the viewing distance can be estimated by the following procedure.

【0045】(1)左右2つの消失点を求めるために、
水平線にそれぞれ平行な2組の平行線から消失点V1、
V2を求める。
(1) In order to find two vanishing points on the left and right,
The vanishing point V1, from two sets of parallel lines parallel to the horizontal line,
Find V2.

【0046】(2)線分V1−V2の中点を求め、その
中点を中心とし、直径をV1−V2とする円を作画す
る。
(2) The midpoint of the line segment V1-V2 is determined, and a circle having the diameter V1-V2 is drawn around the midpoint.

【0047】(3)長方形ABCDが画像に写し込まれ
ているA′B′C′(D′)を、上で求めた円周上の平
面図AÅBÅCÅDÅに変換する。
(3) Convert A'B'C '(D') in which the rectangle ABCD is imprinted on the image into the plan view A {B {C} D} on the circumference obtained above.

【0048】(4)線分BÅ−DÅを延長して線分V1
−V2と交わる点Fが線分B−Dの消失点となる。即
ち、V1、V2、Fは、それぞれ線分A−B、線分B−
C、線分B−Dに平行な線が画面上で交わる点である。
(4) Extend line segment B {-D} to obtain line segment V1
The point F that intersects −V2 is the vanishing point of the line segment BD. That is, V1, V2, and F are line segment AB and line segment B-, respectively.
C is a point at which lines parallel to the line segment BD intersect on the screen.

【0049】(5)角DBCであるαは、線分B−Cと
線分C−Dによって与えられる。
(5) The angle DBC, α, is given by the line segment BC and the line segment CD.

【0050】(6)視点Eは、空間で直径がV1−V2
である水平円の上にあり、且つ弦F−V2に対して円周
角2αを持つ水平円の上にもあることから、これらの円
の交点として与えられる。
(6) The viewpoint E is a space having a diameter V1-V2.
, And also on a horizontal circle having a circumferential angle 2α with respect to the chord F-V2, it is given as the intersection of these circles.

【0051】(7)視点Eから線分V1−V2に引いた
垂線により視心、ここではHが求められ、線分E−Hよ
り視距離Fが求まる。
(7) The visual center, here H, is determined from the perpendicular drawn from the viewpoint E to the line segment V1-V2, and the viewing distance F is determined from the line segment EH.

【0052】以上は2消失点画像の場合出あるが、次に
1消失点画像における視点位置情報の推定方法を説明す
る。
The above description is for a case of two vanishing point images. Next, a method for estimating viewpoint position information in one vanishing point image will be described.

【0053】図10(A)は、消失点と、実写画像に写
し込まれている基準面について、予め入力された座標値
等を利用して、視点位置情報を推定する方法を示したも
のである。このとき既知の情報は、消失点Vと、基準面
である四角形ABCDの各頂点座標であるとする。
FIG. 10 (A) shows a method of estimating viewpoint position information using vanishing points and coordinate values input in advance with respect to a reference plane projected on a real image. is there. At this time, the known information is assumed to be the vanishing point V and the coordinates of each vertex of the square ABCD as the reference plane.

【0054】ここで基準面とは、便宜上、視点位置との
関係を変えて図10(B)に示したように、実写画像中
に写し込まれている大きさが既知の直方体の上面に当る
長方形である。従って、上記基準面は、大きさと位置す
る高さが既知であり、その大きさは縦×横で、高さはそ
の長方形が床にあるなら高さ:0、床より上にある場合
は床からの高さで与えられる。
Here, for convenience, the reference plane corresponds to the upper surface of a rectangular parallelepiped whose size is known in the actual image as shown in FIG. 10B by changing the relationship with the viewpoint position. It is rectangular. Therefore, the size and height of the reference plane are known, and the size is vertical and horizontal. The height is 0 if the rectangle is on the floor, and the floor if the rectangle is above the floor. Given by height from

【0055】上記図10(A)で直線SLは水平線、四
角形abcdは横幅を線分ABに合わせて辺ab がSL
に接している四角形ABCDの平面図であるとすると、
視点E、視距離Fは以下の透視図の作図法を基にした計
算手法によって求めることができる。
In FIG. 10A, the straight line SL is a horizontal line, and the square abcd has a side ab corresponding to the line segment AB and the side ab is SL.
If it is a plan view of a square ABCD in contact with
The viewpoint E and the viewing distance F can be obtained by a calculation method based on a drawing method of a perspective view described below.

【0056】1.四角形ABCDが写し込まれている実
写画像中で、水平な1組の平行線A−D、B−Cの交点
から消失点Vを求める。
1. A vanishing point V is obtained from an intersection of a pair of horizontal parallel lines AD and BC in a real image in which a rectangular ABCD is imprinted.

【0057】2.入力された基準面ABCDに水平方向
の手前の辺ABの両端の点から水平線SLに対して垂線
を引き、その交点をそれぞれa、bとする。
2. Lines perpendicular to the horizontal line SL are drawn from both ends of the front side AB in the horizontal direction on the input reference plane ABCD, and their intersection points are a and b, respectively.

【0058】3.ここで基準面は、前記のように直方体
の上面(長方形)であり、その辺の長さは予め入力され
ているので、その情報を利用して、線分a、bをそれぞ
れ基準面ABCDの頂点A、Bに対応させて、該基準面
ABCDの平面図abcdを作る。
3. Here, the reference plane is the upper surface (rectangle) of the rectangular parallelepiped as described above, and the lengths of the sides are input in advance. A plan view abcd of the reference plane ABCD is created corresponding to the vertices A and B.

【0059】4.基準面の水平方向の奥の辺CDの両端
の点から水平線SLに対して垂線を引き、その交点をそ
れぞれC′、D′とする。
4. Lines perpendicular to the horizontal line SL are drawn from the points at both ends of the horizontal side CD in the horizontal direction of the reference plane, and their intersection points are C 'and D', respectively.

【0060】5.平面図の点c、dからそれぞれC′、
D′を通る半値線を引く。この2直線の交点が視点Eと
なる。
5. From the points c and d in the plan view, C ′,
Draw a half line through D '. The intersection point of these two straight lines is the viewpoint E.

【0061】6.視点EとSLとの距離から視距離Fを
求める。
6. The viewing distance F is obtained from the distance between the viewpoint E and SL.

【0062】以上詳述した如く、視点位置、視距離、対
象物の位置関係等の視点位置情報を推定する演算が前記
視点位置情報演算部20で実行され、前記図2のフロー
チャートでステップ4の処理が終了すると、その視点位
置情報を用いて2次元の実写画像から3次元空間情報を
推定することにより、前記図3又は図8の実写画像の場
合であれば、図11に示すような室内空間の大きさ推定
を行うことが可能となる(ステップ5)。
As described in detail above, the calculation for estimating the viewpoint position information such as the viewpoint position, the viewing distance, and the positional relationship of the object is executed by the viewpoint position information calculating section 20. When the processing is completed, three-dimensional space information is estimated from the two-dimensional photographed image using the viewpoint position information, and in the case of the photographed image of FIG. 3 or FIG. It is possible to estimate the size of the space (step 5).

【0063】これを、前記画像表示装置14の画面に表
示された図12の実写画像を用いて具体的に説明する。
但し、実際の実写画像では分り難いので、この図12で
は簡略化してある。
This will be specifically described with reference to the actual image shown in FIG. 12 displayed on the screen of the image display device 14.
However, since it is difficult to understand the actual photographed image, it is simplified in FIG.

【0064】本実施形態の画像合成システムでは、上記
実写画像に矢印Aで示した点をマウス等でクリックして
指示すると、この点を中心として、垂直方向と、該中心
から左右の消失点へそれぞれ向う線からなる軸方向に延
びたガイドラインが表示されている。
In the image synthesizing system of this embodiment, when the point indicated by the arrow A is designated by clicking with a mouse or the like on the actual photographed image, the point is centered in the vertical direction and from the center to the left and right vanishing points. An axially extending guide line consisting of the respective lines is displayed.

【0065】そして、この実写画像中の基準点、即ち、
床と壁が交わる点や、天井と壁が交わる点をマウス等で
指定すると、室内空間大きさ情報演算部26で計算した
結果を用いて、図13に示したように視点位置から見た
空間の大きさをメッシュでトレース表示することが可能
となり、実写画像に映し込まれている空間の3次元的構
成を推定することができる。又、この画像合成システム
は、床と壁が交わる点が実写画像中に映し出されていな
い場合でも、その点を推測しながらマウス等で指定でき
るようなガイド機能も持ち合わせている。
Then, the reference point in the actual photographed image, that is,
When the point at which the floor intersects with the wall or the point at which the ceiling intersects with the wall is designated with a mouse or the like, the space calculated from the interior space size information calculation unit 26 is used as shown in FIG. Can be trace-displayed with a mesh, and the three-dimensional configuration of the space reflected in the actual image can be estimated. Further, this image synthesizing system also has a guide function that allows a user to specify a point at which a floor and a wall intersect with each other by using a mouse or the like while guessing the point even when the point is not shown in the actual image.

【0066】以上ように推定した室内空間の大きさは、
前記図11又は図13に示すように、実写画像から得ら
れた3次元情報に基づいて、例えば40cm間隔でメッ
シュを張り込むことによって確認することができる。こ
の図には、便宜上2次元的に表示してあるが、実際に
は、例えば40cm×40cm×40cmの寸法からな
る3次元的なメッシュを張り込んでいる。
The size of the indoor space estimated as described above is
As shown in FIG. 11 or FIG. 13, based on the three-dimensional information obtained from the actually photographed image, it is possible to confirm by inserting a mesh at intervals of, for example, 40 cm. In this drawing, although two-dimensionally displayed for convenience, a three-dimensional mesh having a size of, for example, 40 cm × 40 cm × 40 cm is actually applied.

【0067】次に、ここで実写画像から3次元情報を推
定するために実行する前記2消失点画像における2次元
画像の3次元化について詳細に説明する。
Next, the three-dimensional conversion of the two-dimensional image in the two vanishing point images, which is performed to estimate the three-dimensional information from the photographed image, will be described in detail.

【0068】前記図5、図6に示したように、直方体の
辺は、視点−消失点を結ぶ直線に平行であることを利用
して、2次元画像の3次元化を行うことができる。これ
を、図14を用いて詳述する。なお、この方法について
は、杉下による「3次元形状生成のためのスケッチイン
ターフェース」埼玉大学、平成6年2月、に詳細に説明
されている。
As shown in FIGS. 5 and 6, it is possible to convert a two-dimensional image into a three-dimensional image by utilizing the fact that the side of the rectangular parallelepiped is parallel to the straight line connecting the viewpoint and the vanishing point. This will be described in detail with reference to FIG. This method is described in detail in "Sketch Interface for 3D Shape Generation" by Sugishita, Saitama University, February 1994.

【0069】図14で、P1、P2と投影面上の点で、
両点を結ぶ直線は消失点Vを通る。Cは視心、Eは視点
である。視点と消失点を結ぶ直線が、3次元空間上にお
けるP1′、P2′を通る直線と平行であること、及
び、視点EとP1とを結ぶ直線上にP1′が存在し、視
点EとP2とを結ぶ直線上にP2′が存在することか
ら、P1′−P2′間の距離が分かれば、P1′、P
2′の位置(座標)を決定できる。
In FIG. 14, at points P1 and P2 and points on the projection plane,
A straight line connecting both points passes through the vanishing point V. C is the sight and E is the viewpoint. A straight line connecting the viewpoint and the vanishing point is parallel to a straight line passing through P1 'and P2' in the three-dimensional space, and P1 'exists on a straight line connecting the viewpoints E and P1, and the viewpoints E and P2 Since P2 'exists on a straight line connecting P1' and P2 ', P1', P2 '
The position (coordinates) of 2 'can be determined.

【0070】そこで、視心Cが地上座標系の原点(0,
0,0)に位置し、視点Eが地上座標系のx軸上の正方
向に位置していると仮定し、 P1 (x1 ,y1 )、P2 (x2 ,y2 ) P1 ′(x1 ′,y1 ′,z1 ′)、P2 ′(x2 ′,
y2 ′,z2 ′) C(x0 ,y0 )、E(F,0,0)、V(xs ,ys
,zs ) のように定めると、P1 ′、P2 ′の各座標値は媒介変
数t、sを用いて、次の(6)〜(12)式によって求
められる。ここで、Fは視距離である。
Then, the visual center C is set at the origin (0, 0, 1) of the ground coordinate system.
0, 0), and the viewpoint E is assumed to be located in the positive direction on the x-axis of the ground coordinate system, and P1 (x1, y1), P2 (x2, y2) P1 '(x1', y1) ', Z1'), P2 '(x2',
y2 ', z2') C (x0, y0), E (F, 0,0), V (xs, ys
, Zs), the coordinate values of P1 'and P2' are obtained by the following equations (6) to (12) using the parameters t and s. Here, F is a viewing distance.

【0071】 x1 ′=F(1−t ),y1 ′=tY1 ,z1 ′=tZ1 …(6) t=AB,Y1 =x1 −x0 ,Z1 =y0 −y1 …(7) x2 ′=F(1−s),y2 ′=sY2 ,z2 ′=sZ2 …(8) s=AG,Y2 =x2 −x0 ,Z2 =y0 −y2 …(9) A=D/[{F(B−C)}2 +(CY2 −BY1 )2 +(CZ2 −BZ1 )2 1/2 …(10) B=(y0 −ys −Z2 )/(Z2 −Z1 ) …(11) G=(BY1 +xs −x0 )/Y2 …(12)X1 '= F (1-t), y1' = tY1, z1 '= tZ1 (6) t = AB, Y1 = x1-x0, Z1 = y0-y1 (7) x2' = F ( 1-s), y2 '= sY2, z2' = sZ2 (8) s = AG, Y2 = x2-x0, Z2 = y0-y2 (9) A = D / [{F (BC)} 2 + (CY2 -BY1) 2 + (CZ2 -BZ1) 2] 1/2 ... (10) B = (y0 -ys -Z2) / (Z2 -Z1) ... (11) G = (BY1 + xs -x0) /Y2...(12)

【0072】上記(10)式で、DはP1 ′−P2 ′間
の距離であり、このP1 ′−P2 ′間の距離を与えるこ
とにより、2次元形状から3次元形状を得ることができ
る。得られた3次元形状は、視心Cが地上座標系の原点
に位置し、視点EがX軸上の正方向に位置しているとの
仮定の下での座標なので、実際の3次元空間の座標を得
るためには変換行列によって座標変換を行う必要があ
る。その変換行列は、先に求めた方位角α、仰角βを用
いて構成される。又、最初の2点の座標が求まれば、そ
れを基に残りの点の座標を求めることができる。
In the above equation (10), D is the distance between P1 'and P2'. By giving the distance between P1 'and P2', a three-dimensional shape can be obtained from a two-dimensional shape. The obtained three-dimensional shape is a coordinate under the assumption that the visual center C is located at the origin of the ground coordinate system and the viewpoint E is located in the positive direction on the X axis. In order to obtain the coordinates of, it is necessary to perform coordinate conversion using a conversion matrix. The conversion matrix is configured using the azimuth angle α and the elevation angle β obtained earlier. If the coordinates of the first two points are obtained, the coordinates of the remaining points can be obtained based on the obtained coordinates.

【0073】次に、前記1消失点画像における2次元画
像の3次元化(復元)の場合を図15を用いで説明す
る。なお、以下でA、B、C、Pに付した添字2、3
は、それぞれ各点の2次元座標、3次元座標であること
を表わしている。
Next, the case of three-dimensional conversion (reconstruction) of a two-dimensional image in the one vanishing point image will be described with reference to FIG. The suffixes 2, 3 added to A, B, C, P below
Represents two-dimensional coordinates and three-dimensional coordinates of each point, respectively.

【0074】図中の点A、Bは、大きさの基準となる線
分ABの両端の点、点A′、B′はその3次元空間上で
の座標である。又、点Pは、3次元での視点E3 から線
分A′B′と平行に引いた線と投影面Sとの交点であ
る。
Points A and B in the figure are points at both ends of a line segment AB serving as a size reference, and points A 'and B' are coordinates on a three-dimensional space. Point P is the intersection of a line drawn in parallel with line segment A'B 'from viewpoint E3 in three dimensions and projection plane S.

【0075】投影面Sにおいて、視心C2 (xc ,yc
)、視距離F、点A2 (xa ,ya)、点B2 (xb ,
yb )、点P2 (xp ,yp )とすれば、これらを視点
が投影面に直交することを前提に3次元化すると、次の
ようになる。
On the projection plane S, the visual center C2 (xc, yc
), Viewing distance F, point A2 (xa, ya), point B2 (xb,
yb) and point P2 (xp, yp), these are three-dimensionalized assuming that the viewpoint is orthogonal to the projection plane.

【0076】A3 (0,xa −xc ,ya −yc ),B
3 (0,xb −xc ,yb −yc),C3 (0,0,
0),E3 (F,0,0),P3 (0,xp −xc ,y
p −yc )
A3 (0, xa-xc, ya-yc), B
3 (0, xb-xc, yb-yc), C3 (0, 0,
0), E3 (F, 0, 0), P3 (0, xp -xc, y
p-yc)

【0077】又、点A′、B′はそれぞれ直線EA、E
B上にあり、線分EAの長さのs倍がEA′の長さにな
り、線分EBの長さのt倍がEB′の長さであるとする
と、次の(13)式、(14)式が成り立つ。
The points A 'and B' correspond to the straight lines EA and E, respectively.
On B, if s times the length of the line segment EA is the length of EA 'and t times the length of the line segment EB is the length of EB', the following equation (13) is used. Equation (14) holds.

【0078】[0078]

【数1】 (Equation 1)

【0079】又、線分A′B′と線分EPは平行である
ので、線分A′B′の長さがDであるとすると、次の
(15)式の関係から(16)式が得られる。
Since the line segment A'B 'and the line segment EP are parallel, assuming that the length of the line segment A'B' is D, the following equation (15) is used to obtain the equation (16). Is obtained.

【0080】[0080]

【数2】 (Equation 2)

【0081】上記(13)式、(14)式及び(16)
式から、A′(za ′,ya ′,za ′)、B′(xb
′,yb ′,zb ′)の座標は、それぞれ次の(1
7)式、(18)式のように表わされる。
The above equations (13), (14) and (16)
From the equations, A '(za', ya ', za'), B '(xb
, Yb ', zb') are the following (1
Expressions 7) and (18) are provided.

【0082】[0082]

【数3】 (Equation 3)

【0083】なお、(17)式中の定数s、(18)式
中の定数tは、それぞれ以下の(19)式、(20)式
のようになっている。
The constant s in the equation (17) and the constant t in the equation (18) are as shown in the following equations (19) and (20), respectively.

【0084】[0084]

【数4】 (Equation 4)

【0085】なお、ここでは、長さの基準を入力された
基準面の対角線としたが、基準面の水平方向や奥行き方
向の辺でも、それらに合わせて式を変えれば3次元復元
は可能である。
In this case, the length reference is the diagonal line of the input reference plane. However, the three-dimensional reconstruction can be performed on the horizontal and depth sides of the reference plane by changing the equation according to them. is there.

【0086】又、最初の2点A′、B′の座標が求まれ
ば、それらを基に残りの点の座標を求めることもでき
る。
When the coordinates of the first two points A 'and B' are obtained, the coordinates of the remaining points can be obtained based on the obtained coordinates.

【0087】以上詳述したような2次元の実写画像から
3次元空間情報を推定する計算処理を、前記室内空間大
きさ情報演算部24で行うことにより、前記ステップ4
で推定した視点位置情報を用いて、前述した図11又は
図13に示したような立体再構成が可能となる。即ち、
前記ステップ3で入力した大きさ情報を用いることによ
って、視点位置から見た空間の大きさをメッシュでトレ
ース表示することが可能となり、実写画像に写し込まれ
ている空間の3次元的情報、即ち室内空間の大きさを推
定することができる。従って、前記図11又は図13に
示したように、視点に近い位置ほど寸法が大きいメッシ
ュが張り込まれた画像を作成することが可能となる。
The above-described step 4 is performed by performing the calculation processing for estimating the three-dimensional space information from the two-dimensional photographed image described above in detail by the indoor space size information calculation unit 24.
The stereoscopic reconstruction as shown in FIG. 11 or FIG. 13 described above can be performed using the viewpoint position information estimated in. That is,
By using the size information input in the step 3, it is possible to trace and display the size of the space viewed from the viewpoint position with a mesh, and to provide three-dimensional information of the space projected on the real image, that is, The size of the indoor space can be estimated. Therefore, as shown in FIG. 11 or FIG. 13, it is possible to create an image in which a mesh having a larger size is inserted at a position closer to the viewpoint.

【0088】前記図2のステップ5で、上記室内空間の
大きさ推定が終了すると、得られた3次元空間情報は前
記情報演算部24からメモリ12に出力され、保持され
る。
In step 5 of FIG. 2, when the estimation of the size of the indoor space is completed, the obtained three-dimensional space information is output from the information calculation unit 24 to the memory 12 and held.

【0089】次いで、その情報を用いて光源条件の推定
を行う(ステップ6)。この光源情報の推定は、画像表
示装置14のディスプレイ上で、そこに表示されている
実写画像に写し込まれている光源の位置をマウス等で指
定することにより、その位置を前述した3次元空間情報
を用いて、光源情報演算部22で推定計算して求めるこ
とにより行われる。
Next, the light source condition is estimated using the information (step 6). The estimation of the light source information is performed by designating the position of the light source projected on the actual image displayed on the display of the image display device 14 with a mouse or the like, and then the position is described in the three-dimensional space. This is performed by estimating and calculating by the light source information calculation unit 22 using the information.

【0090】即ち、上記の如く、視点位置情報が求まっ
たことから、それを用いて実写画像中に写し込まれてい
る物体の位置、大きさ等の3次元的空間情報を推定する
ことができるようになったので、画像中の照明器具や窓
といった光を放つ物体、即ち光源の3次元的な位置を推
定できる。光源の位置が決まれば合成しようとするCG
画像の物体に光が照射する方向を光学的に計算できる。
このように推定された光源位置(条件)は、前記メモリ
12に出力され、保持される。
That is, since the viewpoint position information is obtained as described above, it is possible to estimate three-dimensional space information such as the position and size of the object projected in the actual image by using the viewpoint position information. Thus, it is possible to estimate the three-dimensional position of a light-emitting object such as a lighting fixture or a window in the image, that is, the light source. CG to be synthesized when the position of the light source is determined
The direction in which light illuminates the object in the image can be calculated optically.
The light source position (condition) estimated in this way is output to the memory 12 and held.

【0091】次いで、ステップ7では実写画像に写し込
まれている物体である、CG画像を合成したい対象物を
選択し、画像表示装置14のディスプレイ上で該対象物
の頂点をマウス等で指定し、その点の実際の高さを入力
することにより、前記合成位置大きさ情報演算部26に
より対象物の大きさ、即ち合成位置の大きさを推定計算
して求める。
Next, in step 7, an object to be combined with the CG image, which is an object projected on the real image, is selected, and the vertex of the object is designated on the display of the image display device 14 with a mouse or the like. By inputting the actual height of the point, the size of the target object, that is, the size of the combined position is estimated and calculated by the combined position size information calculating unit 26.

【0092】これを、前記図12に相当する図16、図
17を用いて具体的に説明する。合成位置大きさ推定に
処理が移ると、画面上にマウスにより移動されるカーソ
ルの先端を交点とし、該交点を通り垂直に延びた線と、
同交点を通り消失点へ向かう線からなる2本のガイドラ
インが表示される。
This will be specifically described with reference to FIGS. 16 and 17 corresponding to FIG. When the process shifts to the synthesis position size estimation, the tip of the cursor moved by the mouse on the screen is set as an intersection, and a line that extends vertically through the intersection and
Two guidelines consisting of a line passing through the intersection to the vanishing point are displayed.

【0093】そこで、合成したい対象物(ここでは収納
棚の扉)のところへカーソルを持って行き、図16に示
したようにその頂点を指定し、その点の3次元室内空
間における高さを入力し、次いで指定した頂点の対角
にあたる頂点を同様に指定する。以上の操作から、こ
の対象物である扉の大きさ(縦×横)が推定される。以
上の操作を他の扉についても同様に実行する。このよう
に推定された大きさ情報は、前記メモリ12に出力さ
れ、保持される。
Then, the user moves the cursor to the object to be combined (here, the door of the storage shelf), designates the vertex as shown in FIG. 16, and changes the height of the point in the three-dimensional indoor space. Input, and then specify the vertex at the diagonal of the specified vertex in the same way. From the above operation, the size (length × width) of the door as the object is estimated. The above operation is similarly performed for the other doors. The size information estimated in this way is output to the memory 12 and held.

【0094】次のステップ8では、前記単位テクスチャ
画像演算部28によりCG画像のテクスチャとなる実写
画像から、模様やパターン、形状の基本となる単位テク
スチャ画像が作成される。これは、前記メモリ12に出
力され、所定のテクスチャファイルに保持される。
In the next step 8, the unit texture image calculation unit 28 creates a unit texture image which is the basis of a pattern, a pattern, and a shape from a real image which is a texture of a CG image. This is output to the memory 12 and stored in a predetermined texture file.

【0095】図18には、この単位テクスチャ画像の作
成手順を概念的に示した。同図(A)は、オリジナルの
テクスチャ画像で、上記CG画像のテクスチャになる実
写画像に当たる。このテクスチャ画像から、テクスチャ
の基本となる単位テクスチャ画像を作成する場合、同図
(B)にイメージを示すように、(1)繰り返しの模様
やパターンの基本単位部分を指定し、(2)基本単位の
大きさ情報(この場合、縦、横の大きさ)を入力、
(3)上記の情報等を該当するテクスチャ画像に関連付
けて上記テクスチャファイルに保存することにより作成
が完了する。同様の操作により必要な種類の単位テクス
チャ画像の作成が行われ、それぞれ対応するテクスチャ
ファイルに保存される。
FIG. 18 conceptually shows the procedure for creating this unit texture image. FIG. 2A shows an original texture image, which corresponds to a real image that becomes a texture of the CG image. When a basic texture unit image is created from this texture image, (1) a repetitive pattern or a basic unit portion of the pattern is designated, and (2) a basic texture unit as shown in FIG. Enter the unit size information (in this case, the vertical and horizontal dimensions),
(3) The creation is completed by storing the above information and the like in the texture file in association with the corresponding texture image. A necessary type of unit texture image is created by the same operation, and is stored in the corresponding texture file.

【0096】更に、CG画像生成部30では、前記メモ
リ12から読み込まれる合成位置大きさ情報と、前記情
報入力部34により指定されたテクスチャファイルから
読み込まれる上記メモリ12上の単位テクスチャ画像と
を用い、且つ、前記メモリ12から読み込まれる実写画
像データと共に、既に指定してある視点位置情報、光源
情報等を用いて、対象物の実際の大きさに則したテクス
チャ画像の生成、実写画像における配置場所での陰影処
理が施されたCG画像が生成される(ステップ9)。図
19は、このように生成されたCG画像のイメージを示
したものである。但し、グラデーションは省略してあ
る。
Further, the CG image generation unit 30 uses the combined position size information read from the memory 12 and the unit texture image on the memory 12 read from the texture file specified by the information input unit 34. Also, using the already-designated viewpoint position information, light source information, and the like, together with the actual image data read from the memory 12, generation of a texture image in accordance with the actual size of the target object, and location of the texture image in the actual image Is generated (step 9). FIG. 19 shows an image of the CG image generated as described above. However, the gradation is omitted.

【0097】ここで実行されるCG画像の生成について
更に詳述すると、CG画像の表面の明るさは、面の向
き、視点の位置、光源の位置との空間的な位置関係によ
って変化する。即ち、実写画像の視点位置情報から、視
点、光源の位置が決まり、CG画像を合成する位置を指
定することによって面の向きが決まり、その影の形状が
求まる。
The generation of the CG image executed here will be described in further detail. The brightness of the surface of the CG image changes depending on the spatial orientation of the surface, the position of the viewpoint, and the position of the light source. That is, the viewpoint and the position of the light source are determined from the viewpoint position information of the real image, and the direction of the surface is determined by designating the position where the CG image is synthesized, and the shape of the shadow is obtained.

【0098】次に、合成したい物体の材質、即ちテクス
チャを指定することによって反射係数は決まり、CG画
像の陰影処理に必要な条件が揃う。このような条件を使
用し、陰影処理して生成したCG画像を、画像データ合
成部32に出力する。
Next, the reflection coefficient is determined by designating the material of the object to be synthesized, that is, the texture, and the conditions necessary for the shadow processing of the CG image are prepared. The CG image generated by performing the shading process using such a condition is output to the image data synthesizing unit 32.

【0099】この画像データ合成部32では、上記ステ
ップ9で生成されたCG画像が入力されると、マウス等
の情報入力部34により指定する、画像表示装置14に
表示されている実写画像中の合成位置に対して、前記メ
モリ12から読み込まれるステップ7で入力された合成
対象位置の座標値を用いて、該CG画像を実写画像を生
成(撮影)したときの視点条件に合わせて透視投影変換
し、その変換画像を配置することにより合成する(ステ
ップ10)。
In the image data synthesizing section 32, when the CG image generated in the step 9 is input, the image data synthesizing section 32 designates the information input section 34 such as a mouse and the like. Using the coordinate values of the compositing target position input in step 7 read from the memory 12 with respect to the compositing position, perspective projection transformation is performed on the CG image in accordance with the viewpoint conditions when an actual image is generated (photographed). Then, the converted images are arranged and combined (step 10).

【0100】本実施形態の画像合成システムで上記ステ
ップ10の合成処理を行う場合の具体的操作を、図20
〜図22の合成画像を参照しながら説明する。
FIG. 20 shows a specific operation in the case where the image synthesizing system of this embodiment performs the synthesizing process in step 10 described above.
This will be described with reference to the composite image of FIG.

【0101】図20は、前記図12に相当する実写画像
を背景画像とした合成開始画面であり、この画面の下段
には、複数種類の単位テクスチャ画像がウインド表示さ
れている。オペレータがこの合成画面上でマウスを用い
て合成対象物である収納棚の扉を指定すると、その周囲
が縁取りされて該扉が選択されたことが表示される。
FIG. 20 shows a synthesis start screen using a real image corresponding to FIG. 12 as a background image. In the lower part of this screen, a plurality of types of unit texture images are displayed in a window. When the operator uses the mouse to specify the door of the storage shelf, which is the object to be synthesized, on this synthesis screen, the perimeter thereof is framed to indicate that the door has been selected.

【0102】又、同画面上で、上記対象物に合成したい
テクスチャを上記ウインドからマウスを用いて選択する
と、同様に選択された単位テクスチャのウインドが縁取
りされて表示される。
On the same screen, when a texture to be synthesized with the object is selected from the window using a mouse, the window of the selected unit texture is similarly displayed with a border.

【0103】図21には、合成対象として4枚の扉と、
左から2番目のウインドの単位テクスチャ画像が選択さ
れたことが画面上に表示されていることが示されてい
る。
FIG. 21 shows four doors to be combined.
This indicates that the selection of the unit texture image of the second window from the left is displayed on the screen.

【0104】この図21の画面の状態で、合成実行を指
示すると、前述したように前記CG画像生成部30によ
り対象物の大きさ情報、テクスチャの情報を参照して、
CG画像が生成され、前記画像データ合成部32により
指定場所に該CG画像が合成され、図22に示した合成
済画面が表示され、合成が終了する。
When the user instructs execution of synthesis in the state of the screen shown in FIG. 21, the CG image generating section 30 refers to the size information and the texture information of the object as described above, and
A CG image is generated, the CG image is synthesized at the designated location by the image data synthesizing unit 32, the synthesized screen shown in FIG. 22 is displayed, and the synthesis is completed.

【0105】以上詳述した如く、この実施形態によれ
ば、撮影条件が不明な実写画像でも、そこから視点位置
情報と陰影情報を推定することができるため、違和感の
無い合成画像を生成することができる。従って、この実
施形態の画像合成システムを用いることにより、次のよ
うな具体的な処理を行うことが可能となる。
As described in detail above, according to this embodiment, it is possible to estimate viewpoint position information and shading information even from a real image having unknown shooting conditions, so that it is possible to generate a synthetic image without a sense of discomfort. Can be. Therefore, the following specific processing can be performed by using the image composition system of this embodiment.

【0106】一般に、住宅等で使用されているバス・ト
イレタリといった衛生機器やキッチンは、同一形状によ
る色違いや、素材の違い等からなる多数の組合せが可能
となっている。これらの商品カタログは、商品毎にスタ
ジオにセットを組み、カメラで撮影している。しかし、
このように撮影により作成するカタログは、通常1種類
しかなく、色違いの商品に関しては色のサンプルを表示
する場合が多い。
In general, sanitary appliances such as baths and toiletries and kitchens used in houses and the like can be provided in many combinations of different colors due to the same shape, different materials, and the like. These product catalogs are set up in a studio for each product and photographed with a camera. But,
As described above, there is usually only one kind of catalog created by photography, and in many cases, color samples are displayed for products of different colors.

【0107】そこで、このシステムを利用することによ
って、撮影した1枚の実写画像にCG画像を合成するこ
とによって、色や素材の違う商品も実際にスタジオ撮影
したものと同様に、商品全体のイメージを撮影コストを
かけることなく、均一な品質で、簡単に表現できる。
Therefore, by using this system, a CG image is synthesized with one photographed real image, and a product of a different color or material can be imaged in the same manner as an actual product photographed in a studio. Can be easily expressed with uniform quality without increasing shooting costs.

【0108】又、インテリア・シミュレーション等にお
いて、家具やカーテン、壁紙といった住宅内部の内装を
変更する際に、現状を撮影した実写画像に対して、変更
予定の家具やカーテン、内装材をCG画像で生成して合
成することによって、事前に変更後のイメージを確認す
ることができる。
In the interior simulation or the like, when the interior of a house such as furniture, curtains, and wallpaper is changed, the furniture, curtains, and interior materials to be changed are represented by CG images with respect to actual images taken of the current situation. By generating and synthesizing, the image after the change can be confirmed in advance.

【0109】以上、本発明について具体的に説明した
が、本発明は、前記実施形態に示したものに限られるも
のでなく、その要旨を逸脱しない範囲で種々変更可能で
ある。
Although the present invention has been specifically described above, the present invention is not limited to the above-described embodiment, and can be variously modified without departing from the gist thereof.

【0110】[0110]

【発明の効果】以上説明したとおり、本発明によれば、
実写画像に写し込まれている対象物と実質的に同一形状
でテスクチャが異なる物体のCG画像を生成し、そのC
G画像を該実写画像に合成する場合、特別な経験や勘が
なくとも、違和感の無い合成画像を容易に作成すること
ができる。
As described above, according to the present invention,
A CG image of an object having substantially the same shape and a different texture as the object projected in the real image is generated, and the C
When the G image is combined with the real image, a combined image without a sense of incongruity can be easily created without any special experience or intuition.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る一実施形態の画像合成システムを
示すブロック図
FIG. 1 is a block diagram showing an image composition system according to an embodiment of the present invention.

【図2】本実施形態における画像合成の処理手順を示す
フローチャート
FIG. 2 is a flowchart illustrating a processing procedure of image synthesis according to the embodiment;

【図3】消失点の求め方を示す説明図FIG. 3 is an explanatory diagram showing how to find a vanishing point;

【図4】2消失点画像における投影面とカメラの関係を
示す説明図
FIG. 4 is an explanatory diagram showing a relationship between a projection plane and a camera in a two vanishing point image.

【図5】視点と消失点の関係を示す説明図FIG. 5 is an explanatory diagram showing a relationship between a viewpoint and a vanishing point.

【図6】視点推定計算を説明するための線図FIG. 6 is a diagram for explaining viewpoint estimation calculation;

【図7】視点情報を推定する方法を示す説明図FIG. 7 is an explanatory diagram showing a method for estimating viewpoint information.

【図8】2消失点実写画像で視点情報を推定する方法を
示す説明図
FIG. 8 is an explanatory diagram showing a method of estimating viewpoint information from two vanishing point real images.

【図9】2消失点実写画像で視点情報を推定する方法を
示す他の説明図
FIG. 9 is another explanatory diagram showing a method of estimating viewpoint information from a two-vanishing-point real image.

【図10】1消失点画像で視点情報を推定する方法を示
す説明図
FIG. 10 is an explanatory diagram showing a method of estimating viewpoint information using one vanishing point image.

【図11】3次元空間情報を基に空間の大きさを推定し
た状態を示す説明図
FIG. 11 is an explanatory diagram showing a state in which the size of a space is estimated based on three-dimensional space information.

【図12】実写画像の一例を示す説明図FIG. 12 is an explanatory diagram showing an example of a photographed image.

【図13】上記実写画像について空間の大きさを推定し
た状態を示す説明図
FIG. 13 is an explanatory diagram showing a state in which the size of a space is estimated for the real image.

【図14】2消失点2次元画像の3次元化を説明するた
めの線図
FIG. 14 is a diagram for explaining three-dimensional conversion of a two-dimensional image with two vanishing points;

【図15】1消失点2次元画像の3次元化を説明するた
めの線図
FIG. 15 is a diagram for explaining three-dimensional conversion of a two-dimensional image with one vanishing point;

【図16】上記実写画像において合成対象物の頂点を指
定している状態を示す説明図
FIG. 16 is an explanatory diagram showing a state in which a vertex of an object to be combined is designated in the photographed image;

【図17】上記実写画像において合成対象物の対向頂点
を指定している状態を示す説明図
FIG. 17 is an explanatory diagram showing a state in which the opposite vertex of the object to be combined is specified in the actual image.

【図18】単位テクスチャ画像を作成するための実写画
像を示す説明図
FIG. 18 is an explanatory diagram showing a photographed image for creating a unit texture image;

【図19】合成用CG画像の一例を示す説明図FIG. 19 is an explanatory diagram illustrating an example of a CG image for synthesis.

【図20】合成開始前の実写画像が表示された画面を示
す説明図
FIG. 20 is an explanatory diagram showing a screen on which a real image before synthesis is displayed.

【図21】合成操作中の実写画像が表示された画面を示
す説明図
FIG. 21 is an explanatory diagram showing a screen on which a photographed image during a combining operation is displayed.

【図22】合成操作後の実写画像が表示された画面を示
す説明図
FIG. 22 is an explanatory diagram showing a screen on which a photographed image after the combining operation is displayed.

【符号の説明】[Explanation of symbols]

10…画像入力装置 12…画像保持用メモリ 14…画像表示装置 16…画像出力装置 18…演算部 20…視点位置情報演算部 22…光源情報演算部 24…室内空間大きさ情報演算部 26…合成位置大きさ情報演算部 28…単位テクスチャ画像演算部 30…CG画像生成部 32…画像データ合成部 34…情報入力部 DESCRIPTION OF SYMBOLS 10 ... Image input device 12 ... Image holding memory 14 ... Image display device 16 ... Image output device 18 ... Calculation part 20 ... Viewpoint position information calculation part 22 ... Light source information calculation part 24 ... Indoor space size information calculation part 26 ... Synthesis Position / size information calculation unit 28 ... unit texture image calculation unit 30 ... CG image generation unit 32 ... image data synthesis unit 34 ... information input unit

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】実写画像とCG画像とを合成する画像合成
装置において、 実写画像から視点位置情報を推定する手段と、 推定した視点位置情報から、実写画像の3次元的空間情
報を推定する手段と、 推定した3次元的空間情報に基づいて実写画像中の合成
対象とする対象物の大きさを推定する手段と、 推定した対象物の大きさに基づいて合成用のCG画像を
生成する生成手段と、 生成したCG画像を透視投影変換して、前記実写画像に
合成する手段と、を備えていることを特徴とする画像合
成装置。
An image synthesizing apparatus for synthesizing a real image and a CG image, means for estimating viewpoint position information from the real image, and means for estimating three-dimensional spatial information of the real image from the estimated viewpoint position information. Means for estimating the size of an object to be synthesized in a real image based on the estimated three-dimensional spatial information; and generating a CG image for synthesis based on the estimated size of the object. An image synthesizing apparatus, comprising: means; and means for performing perspective projection conversion of the generated CG image and synthesizing the actual captured image.
【請求項2】請求項1において、 前記対象物の大きさを推定する手段が、前記実写画像上
に写し込まれている対象物の頂点の座標値と、その点の
実際の高さとから該対象物の大きさを推定する演算機能
を有していることを特徴とする画像合成装置。
2. The apparatus according to claim 1, wherein the means for estimating the size of the object includes a coordinate value of a vertex of the object projected on the real image and an actual height of the point. An image synthesizing device having an arithmetic function for estimating the size of an object.
【請求項3】請求項1において、 CG画像用のテクスチャとなる実写画像から、基本とな
る単位テクスチャ画像を作成する手段を備えていると共
に、 前記生成手段が、推定された前記対象物の大きさに基づ
いて単位テクスチャ画像から合成用のCG画像を生成す
る機能を有していることを特徴とする画像合成装置。
3. The apparatus according to claim 1, further comprising: means for generating a basic unit texture image from a real image serving as a texture for a CG image, and wherein said generating means includes an estimated size of the object. An image synthesizing apparatus having a function of generating a CG image for synthesis from a unit texture image based on the image quality.
【請求項4】請求項1において、 前記実写画像から光源位置情報を推定する手段と、 推定した光源位置情報に基づいて、前記CG画像に陰影
処理を施す手段と、を備えていることを特徴とする画像
合成装置。
4. The apparatus according to claim 1, further comprising: means for estimating light source position information from the real image, and means for performing shading processing on the CG image based on the estimated light source position information. Image synthesizing device.
JP19688498A 1998-07-13 1998-07-13 Image synthesizer Expired - Fee Related JP3720587B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19688498A JP3720587B2 (en) 1998-07-13 1998-07-13 Image synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19688498A JP3720587B2 (en) 1998-07-13 1998-07-13 Image synthesizer

Publications (2)

Publication Number Publication Date
JP2000030084A true JP2000030084A (en) 2000-01-28
JP3720587B2 JP3720587B2 (en) 2005-11-30

Family

ID=16365266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19688498A Expired - Fee Related JP3720587B2 (en) 1998-07-13 1998-07-13 Image synthesizer

Country Status (1)

Country Link
JP (1) JP3720587B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006009257A1 (en) * 2004-07-23 2006-01-26 Matsushita Electric Industrial Co., Ltd. Image processing device and image processing method
KR100686952B1 (en) 2003-04-17 2007-02-27 혼다 기켄 고교 가부시키가이샤 Method, apparatus and writable medium for compositing images, and method, apparatus and writable medium for rendering three-dimensional model
JP2007108834A (en) * 2005-10-11 2007-04-26 Dainippon Printing Co Ltd Advertisement display simulation device, advertisement display simulation program, and advertisement display simulation method
KR20120027876A (en) * 2010-09-13 2012-03-22 엘지전자 주식회사 Mobile twrminal and 3d image convergence method thereof
JP2013232195A (en) * 2012-04-30 2013-11-14 Boeing Co:The Image registration of multi-mode data using 3d geoarc
WO2016092997A1 (en) * 2014-12-10 2016-06-16 シャープ株式会社 Image processing device
US9870644B2 (en) 2011-06-14 2018-01-16 Samsung Electronics Co., Ltd. Apparatus and method for image processing

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100686952B1 (en) 2003-04-17 2007-02-27 혼다 기켄 고교 가부시키가이샤 Method, apparatus and writable medium for compositing images, and method, apparatus and writable medium for rendering three-dimensional model
WO2006009257A1 (en) * 2004-07-23 2006-01-26 Matsushita Electric Industrial Co., Ltd. Image processing device and image processing method
JP2007108834A (en) * 2005-10-11 2007-04-26 Dainippon Printing Co Ltd Advertisement display simulation device, advertisement display simulation program, and advertisement display simulation method
KR20120027876A (en) * 2010-09-13 2012-03-22 엘지전자 주식회사 Mobile twrminal and 3d image convergence method thereof
KR101708306B1 (en) * 2010-09-13 2017-02-20 엘지전자 주식회사 Mobile twrminal and 3d image convergence method thereof
US9870644B2 (en) 2011-06-14 2018-01-16 Samsung Electronics Co., Ltd. Apparatus and method for image processing
JP2013232195A (en) * 2012-04-30 2013-11-14 Boeing Co:The Image registration of multi-mode data using 3d geoarc
WO2016092997A1 (en) * 2014-12-10 2016-06-16 シャープ株式会社 Image processing device

Also Published As

Publication number Publication date
JP3720587B2 (en) 2005-11-30

Similar Documents

Publication Publication Date Title
US9282321B2 (en) 3D model multi-reviewer system
US9288476B2 (en) System and method for real-time depth modification of stereo images of a virtual reality environment
US7068274B2 (en) System and method for animating real objects with projected images
US6677956B2 (en) Method for cross-fading intensities of multiple images of a scene for seamless reconstruction
US7019748B2 (en) Simulating motion of static objects in scenes
US9129433B1 (en) Photogrammetry engine for model construction
US6930681B2 (en) System and method for registering multiple images with three-dimensional objects
Bandyopadhyay et al. Dynamic shader lamps: Painting on movable objects
US20150325044A1 (en) Systems and methods for three-dimensional model texturing
US20140125654A1 (en) Modeling and Editing Image Panoramas
Bimber et al. Occlusion shadows: Using projected light to generate realistic occlusion effects for view-dependent optical see-through displays
US20030038822A1 (en) Method for determining image intensities of projected images to change the appearance of three-dimensional objects
CN106683177B (en) Based on interaction roaming type house decoration data interactive method and device
CN109816768A (en) A kind of interior method for reconstructing, device, equipment and medium
JPH10111953A (en) Image processing method, device therefor and recording medium
Felinto et al. Production framework for full panoramic scenes with photorealistic augmented reality
JP3720587B2 (en) Image synthesizer
JP3784104B2 (en) Image synthesizer
JP3693735B2 (en) Image synthesizer
JP2003157290A (en) Processing method and processing system for image simulation, image simulation processing program, and recording medium
KR100393185B1 (en) Apparatus for synthesizing three-dimensional structure data with graphics object, and method therefor
JP2000137834A (en) Device and method for generating composite moving picture
JP7447429B2 (en) Image processing system, image processing method and program
WO2017031117A1 (en) System and method for real-time depth modification of stereo images of a virtual reality environment
Samonte et al. An emerging interactive 3d architectural design walkthrough system for industrial hotel builders

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050524

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050908

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090916

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090916

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100916

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110916

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110916

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120916

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120916

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130916

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees