JP3339980B2 - Image synthesis device - Google Patents

Image synthesis device

Info

Publication number
JP3339980B2
JP3339980B2 JP02671995A JP2671995A JP3339980B2 JP 3339980 B2 JP3339980 B2 JP 3339980B2 JP 02671995 A JP02671995 A JP 02671995A JP 2671995 A JP2671995 A JP 2671995A JP 3339980 B2 JP3339980 B2 JP 3339980B2
Authority
JP
Japan
Prior art keywords
background
image
information
foreground object
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP02671995A
Other languages
Japanese (ja)
Other versions
JPH07282294A (en
Inventor
雅通 中川
潤一 佐藤
義恭 角
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP02671995A priority Critical patent/JP3339980B2/en
Publication of JPH07282294A publication Critical patent/JPH07282294A/en
Application granted granted Critical
Publication of JP3339980B2 publication Critical patent/JP3339980B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、画像の合成装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesizing apparatus.

【0002】[0002]

【従来の技術】利用者がその場で実際に見たように、臨
場感のある画像を提示するためには、利用者が頭を動か
した場合に周囲の様子が見渡せるような、視点の変化に
対応して画像を提示することが重要である。
2. Description of the Related Art In order to present an image with a sense of reality as if the user actually saw it on the spot, a viewpoint change that allows the user to look around when the user moves his / her head. It is important to present an image corresponding to

【0003】従来、コンピュータグラフィックスなどで
用いられている物体の3次元モデルや表面の反射モデル
から画像を合成すれば、任意の視点からの画像を合成す
ることが可能である。しかし品質の高い画像を、利用者
の視点移動の指示に応じて実時間で合成することは、機
器の性能などで不可能であることが多い。また、コンピ
ュータグラフィックスによる生成画像が、カメラなどで
撮影された自然画像に比べて人工的で違和感のある画質
であるという問題点がある。
Conventionally, if an image is synthesized from a three-dimensional model of an object or a reflection model of a surface used in computer graphics or the like, it is possible to synthesize an image from an arbitrary viewpoint. However, it is often impossible to synthesize a high-quality image in real time in response to a user's instruction to move the viewpoint, due to the performance of the device and the like. There is also a problem that an image generated by computer graphics has an image quality that is more artificial and uncomfortable than a natural image captured by a camera or the like.

【0004】上記の問題点を解決するために、予め処理
時間をかけて作成したCG画像や、カメラなどから取り
込まれた自然画像を合成画像に取り込み利用するという
方式がある。
In order to solve the above problem, there is a method in which a CG image created by taking a long processing time in advance or a natural image captured from a camera or the like is captured and used as a composite image.

【0005】従来、このような技術としては、広角なレ
ンズで撮影した広角な平面画像や、いわゆるパノラマ画
像と呼ばれる1つの視点回りに水平方向に360度の回
転して撮影した円柱投影画像から、利用者が指示する視
点の方向、視野角に応じて画像を切り出す画像合成装置
があった。
Conventionally, as such a technique, a wide-angle planar image photographed by a wide-angle lens, or a cylindrical projection image photographed by rotating 360 degrees in a horizontal direction around one viewpoint called a panoramic image is used. There has been an image synthesizing apparatus that cuts out an image in accordance with a viewpoint direction and a viewing angle specified by a user.

【0006】これらの技術について、以下図を用いて説
明する。図14は広角な平面画像からの合成画像の切り
出し方法についての説明図である。1101は広角なレ
ンズなどで撮影された平面画像であり、中心をOとし水
平方向にX軸、垂直方向にY軸を定義してある。視点1
102からの水平方向にθ度回転した時の画像を切り出
す場合を考える。その場合の切り出し領域1103の中
心をP、X軸の右端、左端の点をR,Lとする。点R,
LのX座標値をRx、Lxは、水平方向の視野角をα度、
視点1102から平面画面の中心Oまでの距離、つまり
撮影時の焦点距離をFとして、次の式で求められる。
[0006] These techniques will be described below with reference to the drawings. FIG. 14 is an explanatory diagram of a method of cutting out a composite image from a wide-angle planar image. Reference numeral 1101 denotes a plane image taken by a wide-angle lens or the like, with the center at O, the X axis in the horizontal direction, and the Y axis in the vertical direction. Viewpoint 1
Consider a case where an image is rotated from the image 102 and rotated by θ degrees in the horizontal direction. In this case, the center of the cutout region 1103 is P, and the right and left ends of the X axis are R and L. Point R,
The X coordinate value of L is Rx, Lx is the horizontal viewing angle α degrees,
The distance from the viewpoint 1102 to the center O of the plane screen, that is, the focal length at the time of photographing is F, and is obtained by the following equation.

【0007】[0007]

【数1】Rx = F・tan( θ - α/2 ) Lx = F・tan( θ + α/2 ) ここで回転角度はY軸回りに左ネジの方向を正としてい
る。
## EQU1 ## Rx = F.tan (.theta .-. Alpha./2) Lx = F.tan (.theta. +. Alpha./2) Here, the rotation angle is positive with respect to the Y axis in the direction of the left screw.

【0008】同様に、垂直方向の切り出し座標の上端、
下端のY座標をUy、Byとすると、垂直の視野角をβと
して、次の式で計算できる。
Similarly, the upper end of the vertical cutout coordinates,
Assuming that the Y coordinate of the lower end is Uy and By, the vertical viewing angle is β and can be calculated by the following equation.

【0009】[0009]

【数2】Ux = F・tan( - β/2 ) Bx = F・tan( β/2 ) よって回転角度θに応じてRx、Lx、Uy、Byで指定さ
れる領域を切り出すことにより、視点の水平回転に対応
する画像を合成することができる。
## EQU2 ## Ux = Ftan (-β / 2) Bx = Ftan (β / 2) Accordingly, the area specified by Rx, Lx, Uy, and By is cut out according to the rotation angle θ to obtain the viewpoint. An image corresponding to the horizontal rotation of can be synthesized.

【0010】次にパノラマ画像からのある視線方向の合
成画像を得る方法について図を用いて説明する。図15
aは上方から見たパノラマ画像と合成画像の関係を示し
た模式図である。1201が水平方向360度の映像を
円柱に投射したパノラマ画像である。このパノラマ画像
の作成方法としては、縦型スリットの受光素子を360
度回転させながら撮像する方法や、カメラ等を一定角度
づつ受光面を中心として回転しながら撮影した平面画像
を、幾何変形して繋ぎ合わせる方法などがある。パノラ
マ画像1201は視点回りの回転角度θと垂直方向の高
さhの2次元画像となる。図15bがこのパノラマ画像
を平面に展開したものである。図15aにおいて、視点
1202からθ0方向を見た時の画像は、円柱の接平面
にパノラマ画像を投影した画像1203となる。合成画
像の水平、垂直軸をU,Vとし、焦点距離をFとすれ
ば、合成画像中の点(u1、v1)の点に対応するパノラ
マ画像の点(θ1、h1)は、次の式で求められる。
Next, a method for obtaining a composite image in a certain viewing direction from a panoramic image will be described with reference to the drawings. FIG.
a is a schematic diagram showing the relationship between a panoramic image and a composite image viewed from above. Reference numeral 1201 denotes a panoramic image obtained by projecting a 360-degree image in the horizontal direction onto a cylinder. As a method of creating this panoramic image, the light receiving element of the vertical slit is set to 360
There is a method of imaging while rotating by degrees, and a method of geometrically deforming and joining planar images taken while rotating a camera or the like by a fixed angle around a light receiving surface. The panoramic image 1201 is a two-dimensional image having a rotation angle θ around the viewpoint and a height h in the vertical direction. FIG. 15B shows this panoramic image developed on a plane. In FIG. 15A, the image viewed from the viewpoint 1202 in the θ0 direction is an image 1203 obtained by projecting a panoramic image on a tangent plane of a cylinder. If the horizontal and vertical axes of the composite image are U and V, and the focal length is F, the point (θ1, h1) of the panoramic image corresponding to the point (u1, v1) in the composite image is given by the following equation. Is required.

【0011】[0011]

【数3】θ1 = arctan( u1 / F) + θ0 h1 = v1 ・ cos(θ) 視野角をαとすれば、これをθ0−α/2からθ0+α/
2に対応するu1について計算すれば、望む合成画像が得
られる。図15cに合成<画像の例を示す。図15b1
204は、図15cの切り出し画像に対応するパノラマ
画像中の領域である。
## EQU3 ## θ1 = arctan (u1 / F) + θ0 h1 = v1 · cos (θ) Assuming that the viewing angle is α, this is θ0−α / 2 to θ0 + α /
By calculating for u1 corresponding to 2, a desired composite image can be obtained. FIG. 15c shows an example of a composite <image. FIG.
Reference numeral 204 denotes an area in the panoramic image corresponding to the clipped image in FIG. 15C.

【0012】[0012]

【発明が解決しようとする課題】しかしながら、上記の
画像合成装置において、画像がすべて同一の平面、円柱
上にあるとするため、画像上の凹凸の情報を用いた処理
が不可能であるという問題点があった。
However, in the above-described image synthesizing apparatus, since the images are all on the same plane and cylinder, it is impossible to perform processing using information on the unevenness on the image. There was a point.

【0013】すなわち、上記画像合成装置において、背
景画像を扱った場合、十分に遠い遠景画像の合成は可能
であるが、前景との相互干渉のある画像を合成すること
は不可能である。
That is, in the above-described image synthesizing apparatus, when a background image is handled, it is possible to synthesize a sufficiently distant image, but it is not possible to synthesize an image having mutual interference with a foreground.

【0014】例えば、背景以外の前景として、コンピュ
ータグラフィックスなどによる物体を同時に合成した場
合、背景画像内の凹凸情報がないため、前景の物体の一
部が背景の一部によって隠れる合成や、あるいは前景の
物体が動いていて背景に衝突した場合に、背景の形状に
応じて衝突の様子を変化させる処理は不可能である。
For example, when an object by computer graphics or the like is simultaneously synthesized as a foreground other than the background, there is no unevenness information in the background image, so that a part of the foreground object is hidden by a part of the background, or When a foreground object is moving and collides with the background, it is impossible to change the collision state according to the shape of the background.

【0015】例えば部屋、街角などの視点との距離の短
い背景を扱う場合、背景と前景との相互干渉は合成結果
の臨場感を高める効果がある。
For example, when dealing with a background having a short distance from the viewpoint, such as a room or a street corner, mutual interference between the background and the foreground has the effect of increasing the sense of reality of the synthesis result.

【0016】本発明は、上記問題点を除去し、背景とな
る画像の凹凸により、背景画像の一部分により、手前の
物体が隠される、あるいは背景に物体が衝突した場合の
反射の方向の再現などの合成を可能とする画像合成装置
を提供することを目的とする。
According to the present invention, there is provided a method for removing the above-mentioned problem, in which an object in the foreground is hidden by a part of the background image due to unevenness of an image serving as a background, or reproduction of a direction of reflection when an object collides with the background. It is an object of the present invention to provide an image synthesizing apparatus which can synthesize images.

【0017】[0017]

【課題を解決するための手段】本発明は広範囲の背景
の画像を2次元配列として記憶する背景画像記憶手段
と、前記背景の画像に関して同様の2次元配列で、その
要素が奥行き値となる奥行き情報を記憶する背景奥行き
記憶手段と、3次元空間内を動く前景物体の3次元形状
と移動方向と速度を含む前景物体情報を生成する移動前
景物体生成手段と、前記前景物体情報と、前記背景画像
と、前記奥行き情報とから、前記背景と前記前景物体を
合成する画像合成手段を備えた画像合成装置において、
前記画像合成手段は、前記前景物体情報と、前記奥行き
情報とから、前記背景と前記移動前景物体の接触を判定
し、接触したことを移動制限情報として出力し前記移
動前景物体生成手段は、前記移動制限情報を用いて前記
前景物体情報を変更することを特徴とする画像合成装置
である。
SUMMARY OF THE INVENTION The present invention comprises a background image storage means for storing an image of a wide range of background as a two-dimensional array, in the same two-dimensional array with respect to the image of the background, the
A background depth storage means for storing depth information whose elements are depth values, and a three-dimensional shape of a foreground object moving in a three-dimensional space
Before moving to generate foreground object information including direction, speed, and speed
A scene object generating unit, the foreground object information, the background image, and the depth information, the image synthesizing apparatus including an image synthesizing unit that synthesizes the background and the foreground object.
The image synthesizing means includes the foreground object information and the depth
Determining contact between the background and the moving foreground object from the information
And outputs as the movement restriction information that has been contacted, the transfer
The moving foreground object generation means uses the movement restriction information to
Image synthesizing apparatus characterized by changing foreground object information
It is.

【0018】[0018]

【作用】本発明によれば、上記のように、背景画像の凹
凸情報を用いるため、単に平面や円柱といった形状だけ
でなく、背景の複雑な形状を必要とする処理である背景
と前景の隠面処理や、背景画像に前景物体が衝突し、背
景物体の凹凸の傾きに応じて反射するような効果を持つ
画像合成が可能となる。
According to the present invention, as described above, since the unevenness information of the background image is used, not only the shape such as a plane or a cylinder but also the hidden background and foreground which is a process requiring a complicated shape of the background are required. It is possible to perform surface processing and image synthesis having an effect that a foreground object collides with a background image and is reflected according to the inclination of the unevenness of the background object.

【0019】一方、視点の回転に関しては、画像の切り
出し位置を変更するだけでよいので、背景画像を、その
複雑な3次元形状から合成するようなコンピュータグラ
フィックス処理に比べて、簡単な処理で背景の画像を合
成できる。
On the other hand, with regard to the rotation of the viewpoint, it is only necessary to change the cut-out position of the image, so that the processing is simpler than the computer graphics processing in which the background image is synthesized from its complicated three-dimensional shape. Background images can be combined.

【0020】[0020]

【実施例】以下、本発明の実施例を図面を用いて詳細に
説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0021】図1は、本発明の第一の実施例を示す画像
合成装置の概略構成図である。図1において101は広
範囲の背景画像を記憶する背景画像記憶部、102は広
範囲な背景画像から視点の方向、位置、視野角の視点情
報により視野に入る背景画像を切り出す背景画像切り出
し部、103は101に記憶された背景画像と対応した
広範囲な背景の奥行き情報を記憶する背景奥行き記憶
部、104は視点情報と3次元空間中に置かれた前景の
物体の形状、位置などの物体を画像に合成する為の情報
である前景物体情報を生成する前景物体生成部であり、
105は103からの背景奥行き情報と104からの前
景物体の位置から、それらを比較し、102からの背景
画像と前景物体画像の隠ぺい関係を考慮した背景画像上
の前景物体の画像合成をおこなう画像合成部である。
FIG. 1 is a schematic block diagram of an image synthesizing apparatus showing a first embodiment of the present invention. In FIG. 1, 101 is a background image storage unit that stores a wide range of background images, 102 is a background image cutout unit that cuts out a background image that enters the field of view based on viewpoint information on the direction, position, and viewing angle of the viewpoint from the wide range of background images. A background depth storage unit 104 stores depth information of a wide range of backgrounds corresponding to the background image stored in 101, and converts the viewpoint information and an object such as the shape and position of a foreground object placed in a three-dimensional space into an image. A foreground object generation unit that generates foreground object information that is information for combining,
Reference numeral 105 denotes an image for comparing the background depth information from 103 and the position of the foreground object from 104, and performing image synthesis of the foreground object on the background image in consideration of the concealment relationship between the background image and the foreground object image from 102. This is the synthesis unit.

【0022】次に本発明の第一の実施例の動作につい
て、図を参照しながら説明する。図2、図3、図4、図
5は、部屋などの長方形の背景を円柱のパノラマ画像に
より表し、前景物体と合成する場合の説明図である。図
2はパノラマ画像と背景との関係を、円柱の上方から見
た模式図である。201は、部屋の平面図であり、それ
を視点202を中心とする円柱203の上に投影したも
のが、図3の206のパノラマ画像である。視点回りの
回転角θと垂直方向の高さhで定義される2次元配列で
ある。
Next, the operation of the first embodiment of the present invention will be described with reference to the drawings. FIGS. 2, 3, 4 and 5 are explanatory diagrams of a case where a rectangular background such as a room is represented by a cylindrical panoramic image and is synthesized with a foreground object. FIG. 2 is a schematic diagram showing the relationship between the panoramic image and the background as viewed from above the cylinder. Reference numeral 201 denotes a plan view of a room, which is projected onto a cylinder 203 centering on a viewpoint 202, and is a panoramic image 206 in FIG. This is a two-dimensional array defined by a rotation angle θ around the viewpoint and a height h in the vertical direction.

【0023】このパノラマ画像は、縦型スリットの受光
素子を360度回転させる方法や、平面画像の繋ぎ合わ
せにより作成できる。またコンピュータグラフィックス
の手法、例えば処理時間のかかるレイトレーシング法な
どにより、人工的に作成することも可能である。このよ
うな画像が図1の101の背景画像記憶部に記憶されて
いる。
This panoramic image can be created by a method of rotating the light receiving element of the vertical slit by 360 degrees or by joining two-dimensional images. Further, it can be artificially created by a computer graphics method, for example, a ray tracing method that requires a long processing time. Such an image is stored in the background image storage unit 101 in FIG.

【0024】背景画像切り出し部において、いま視点は
図2において、202の位置にあり、視線の方向204
がθ0であり、視野が205に示す角度値θsからθeの
間にあるとすると、図3のパノラマ画像206上の網掛
けで示す領域207が切り出される背景画像に対応する
領域である。
In the background image clipping section, the viewpoint is now at the position 202 in FIG.
Is θ0 and the visual field is between the angle values θs and θe shown in 205, the shaded area 207 on the panoramic image 206 in FIG. 3 is the area corresponding to the background image to be cut out.

【0025】高速切り出しのためには、近似的に円柱と
平面の投影像の歪みを無視して、207で示す領域から
1次の線形補間で背景画像切り出し部の出力とする。
For high-speed extraction, the distortion of the projected image of the cylinder and the plane is disregarded approximately and the output of the background image extraction unit is obtained from the area indicated by 207 by primary linear interpolation.

【0026】図4に示すように、切り出しされた背景画
像を水平軸、垂直軸をそれぞれU、Vとして、その背景
画像の幅、高さをUw、Vhとすれば、画像中の点(u
1、v1)の値は、次式により、対応するパノラマ画像の
点(θ1、h1)の値として求めれる。
As shown in FIG. 4, the horizontal and vertical axes of the cut-out background image are U and V, respectively, and the width and height of the background image are Uw and Vh.
The value of (1, v1) is obtained as the value of the point (θ1, h1) of the corresponding panoramic image by the following equation.

【0027】[0027]

【数4】 θ1 = u1 / Uw ・(θe − θs) + θs h1 = v1 / Vw ・ Hmax ここで、Hmaxはパノラマ画像のhの最大値である。(4) θ1 = u1 / Uw · (θe−θs) + θsh1 = v1 / Vw · Hmax where Hmax is the maximum value of h of the panoramic image.

【0028】パノラマ画像は離散化されているので、上
式で計算される(θ1、h1)の点が離散化された点に正
確に当てはまらない場合がある。その場合は近傍4点の
線形近似で値を計算する。
Since the panoramic image is discretized, the point (θ1, h1) calculated by the above equation may not accurately correspond to the discretized point. In that case, the value is calculated by linear approximation of four neighboring points.

【0029】より正確には、円柱と平面の投影変換を行
えばよい。その場合の合成画像中の点(u1、v1)の点
に対応するパノラマ画像の点(θ1、h1)は、横方向の
視野角α、焦点距離をFとして、次の式で求められる。
More precisely, projection conversion between a cylinder and a plane may be performed. In this case, the point (θ1, h1) of the panoramic image corresponding to the point (u1, v1) in the composite image is obtained by the following equation, where F is the viewing angle α in the horizontal direction and F is the focal length.

【0030】[0030]

【数5】α = (θe − θs) F = 2・Uw / tan(α/2) θ1 = arctan(u1 / F)+θ0 h1 = v1 ・ cos(θ1) 次に背景の奥行き情報について説明する。図2の視点2
02から垂直方向に高さhにある点から、回転角θの方
向にに直線を延ばし、それが201の背景の物体とぶつ
かる点までの距離をr(θ、h)とし、これを(θ、
h)における背景奥行きとする。背景奥行き情報は、パ
ノラマ画像と同様にθ、hの2次元配列で、その要素が
奥行き値rとなる。図3におけるhが0である直線上の
奥行き値rの変化を示したものが、図5である。背景奥
行き情報は、レンジファインダなどの3次元計測装置で
作成するか、人間がCADツールなどにより背景画像を
参照しながら入力することなどにより作成される。
Α = (θe−θs) F = 2 · Uw / tan (α / 2) θ1 = arctan (u1 / F) + θ0 h1 = v1 · cos (θ1) Next, background depth information will be described. View point 2 in FIG.
A straight line is extended in the direction of the rotation angle θ from the point at the height h in the vertical direction from 02, and the distance from the point at which it hits the background object 201 is defined as r (θ, h). ,
h) is the background depth. The background depth information is a two-dimensional array of θ and h, similar to the panoramic image, and its element is a depth value r. FIG. 5 shows a change in the depth value r on a straight line where h is 0 in FIG. The background depth information is created by a three-dimensional measuring device such as a range finder or by a human inputting a CAD tool or the like while referring to a background image.

【0031】背景奥行き切り出し部では、視点情報によ
り、θsからθeまでの奥行き値を切り出す。画像中の点
(u1、v1)に対応する奥行き値は、(数4)または
(数5)で計算されるθ1、h1に対応する値r(θ1、
h1)となる。
The background depth cutout unit cuts out depth values from θs to θe based on the viewpoint information. The depth value corresponding to the point (u1, v1) in the image is a value r (θ1, 対 応) corresponding to θ1, h1 calculated by (Equation 4) or (Equation 5).
h1).

【0032】前景物体生成部において、生成される物体
の表面形状を平面近似であるポリゴンで表現する。図6
aは三角形ポリゴンで表現した球を示している。1つの
ポリゴン301は、ポリゴン301を構成する頂点のリ
ストと、それらのリストの各頂点302、303、30
4の3次元座標と、ポリゴンの色、反射係数などレンダ
リングに必要なポリゴンの属性情報の3つで定義でき
る。 頂点304の3次元位置は、X,Y,Zの直交座
標系で表現する。図6bで示すように、原点をパノラマ
画像の円柱座標系と同じ視点にとし、Z軸はパノラマ画
像の水平回転角θが0度の軸とする。Y軸は円筒の回転
軸の上方向とし、X軸は、Z軸とY軸と直交する右手座
標系にとる。物体を構成する全てのポリゴンについて
の、頂点の3次元位置、ポリゴンを構成する頂点のリス
ト、ポリゴンの属性情報が前景物体生成部の出力である
前景物体情報である。
In the foreground object generation unit, the surface shape of the generated object is represented by a polygon which is a plane approximation. FIG.
a indicates a sphere represented by a triangular polygon. One polygon 301 is composed of a list of vertices constituting the polygon 301 and vertices 302, 303, and 30 of the list.
4 and three polygon attribute information required for rendering, such as polygon color and reflection coefficient. The three-dimensional position of the vertex 304 is represented by an X, Y, Z rectangular coordinate system. As shown in FIG. 6B, the origin is set to the same viewpoint as the cylindrical coordinate system of the panoramic image, and the Z axis is the axis at which the horizontal rotation angle θ of the panoramic image is 0 degrees. The Y axis is in the upward direction of the rotation axis of the cylinder, and the X axis is in a right-handed coordinate system orthogonal to the Z axis and the Y axis. The three-dimensional positions of the vertices, the list of vertices forming the polygon, and the attribute information of the polygons are the foreground object information output from the foreground object generation unit for all the polygons forming the object.

【0033】なお、前景物体は3次元の大きさを持つも
のだけに限定されるわけではない。例えば、物体の2次
元画像を用いる場合、その画像を平面ポリゴンの上に貼
り付けられた属性情報として扱えば、前景が2次元画像
の場合にも同様に扱える。
The foreground object is not limited to one having a three-dimensional size. For example, when a two-dimensional image of an object is used, if the image is handled as attribute information pasted on a plane polygon, the same can be handled when the foreground is a two-dimensional image.

【0034】次に、背景前景合成部において、前景物体
情報と背景画像と背景奥行き情報から前景と背景を合成
する方法について、図を用いて説明する。図7は背景前
景合成のフローチャートである。隠れ面処理について
は、コンピュータグラフィクスにおいてよく用いられる
Zバッファ法を使用する。 (1)まず出力画像に背景画像切り出し部の出力の背景
画像を複写する。これにより出力画像全体に値が定義さ
れる。 (2)出力画像と同じサイズで各要素が奥行き情報の2
次元配列であるZバッファに、背景奥行き情報切り出し
部からの背景奥行き情報を複写する。奥行き値は大きい
程、視点より遠くにあることになる。 (3)物体を構成するポリゴンの各頂点の座標値を透視
投影変換する。頂点の座標を(x0、y0、z0)とす
る。まず図2に示す視点の方向θ0とZ軸を次の式によ
りY軸まわりに回転して視線の方向と一致させる。この
視点座標系への変換後の座標値を(xp、yp、zp)と
すると
Next, a method of synthesizing the foreground and the background from the foreground object information, the background image and the background depth information in the background foreground synthesizing unit will be described with reference to the drawings. FIG. 7 is a flowchart of background foreground synthesis. For the hidden surface processing, a Z-buffer method often used in computer graphics is used. (1) First, a background image output from the background image cutout unit is copied to an output image. This defines values for the entire output image. (2) Each element has the same size as the output image and each element is 2
The background depth information from the background depth information cutout unit is copied into a Z buffer that is a dimensional array. The greater the depth value, the farther it is from the viewpoint. (3) Perspective projection transformation of the coordinate values of each vertex of the polygon constituting the object. Let the coordinates of the vertices be (x0, y0, z0). First, the direction θ0 and the Z-axis of the viewpoint shown in FIG. 2 are rotated around the Y-axis by the following equation to match the direction of the line of sight. If the coordinate values after conversion to this viewpoint coordinate system are (xp, yp, zp)

【0035】[0035]

【数6】xp = x0・cosθ − z0・sinθ yp = y0 zp = x0・sinθ + z0・cosθ 次に、図4で示すようなUV座標系で、幅Uw、高さVh
の出力画像上への投影変
Xp = x0 * cosθ-z0 * sinθ yp = y0zp = x0 * sinθ + z0 * cosθ Next, in the UV coordinate system as shown in FIG. 4, the width Uw and the height Vh
Change of projection on output image

【0036】換する。頂点が投影される画像上の点(u
0、v0)は、(数5)のFを使い、次式により求められ
る。ただし投影変換の縦横のアスペクト比は1であると
する。
In other words, The point on the image where the vertices are projected (u
0, v0) is obtained by the following equation using F in (Equation 5). However, it is assumed that the vertical and horizontal aspect ratio of the projection conversion is 1.

【0037】[0037]

【数7】u0 = F・xp / zp v0 = F・yp / zp (4)前景物体生成部からの前景物体の各ポリゴンにつ
いて逐次処理する。 (5)ポリゴンをスキャンラインに分割し、各スキャン
ライン上の各画素処理を行なう。ポリゴンを出力画像上
でのU軸に平行なスキャンラインに分割し、各スキャン
ラインの両端の点の視野座標系での座標値を計算し、ス
キャンライン上の内部の点(u1、v1)の視野座標系で
の座標値(xp1, yp1、zp1)を、両端の点の内分によ
り計算する。 (6)スキャンライン上の点(u1、v1)の円柱座標系
の奥行き値rを次式により計算する。
U0 = Fxp / zp v0 = Fyp / zp (4) Each polygon of a foreground object from the foreground object generation unit is sequentially processed. (5) Divide the polygon into scan lines, and perform pixel processing on each scan line. The polygon is divided into scan lines parallel to the U-axis on the output image, and the coordinate values in the visual field coordinate system of the points at both ends of each scan line are calculated, and the internal points (u1, v1) on the scan line are calculated. The coordinate values (xp1, yp1, zp1) in the visual field coordinate system are calculated from the internal parts of the points at both ends. (6) The depth value r of the point (u1, v1) on the scan line in the cylindrical coordinate system is calculated by the following equation.

【0038】[0038]

【数8】r = sqrt(xp・xp + zp・zp) ここでsqrt()は平方根を表す。 (7)Zバッファの(u1、v1)に対応する奥行き値
を、(6)でのrと比較する。rの方が小さい場合、前
景物体の点は背景より前にあるので、(8)、(9)の
処理を行う。大きい場合は背景画像のままである。
[Mathematical formula-see original document] r = sqrt (xp xp + zp zp) where sqrt () represents a square root. (7) The depth value corresponding to (u1, v1) in the Z buffer is compared with r in (6). If r is smaller, the points of the foreground object are ahead of the background, and the processing of (8) and (9) is performed. If it is large, it remains as the background image.

【0039】これにより背景に隠れる前景物体は表示さ
れず、また一部分だけ隠れる前景物体も表現できる。 (8)出力画像の点(u1、v1)に、ポリゴン属性情報
から決まる面の色を書き込む。 (9)Zバッファの点(u1、v1)に(7)で計算され
た奥行き値rを書き込む。 (10)スキャンライン上の全ての画素について(6)
から(9)までを処理。 (11)ポリゴンの全てのスキャンラインについて
(5)から(10)まで処理。 (12)物体の全てのポリゴンについて(4)から(1
1)まで処理。
Thus, a foreground object hidden in the background is not displayed, and a foreground object partially hidden can be expressed. (8) The surface color determined from the polygon attribute information is written to the point (u1, v1) of the output image. (9) The depth value r calculated in (7) is written to the point (u1, v1) in the Z buffer. (10) For all pixels on the scan line (6)
Process from to (9). (11) Process from (5) to (10) for all scan lines of the polygon. (12) From (4) to (1) for all polygons of the object
Process up to 1).

【0040】次に本発明の第2の実施例について図を用
いて説明する。図8は本発明の第2の実施例の概略構成
図である。501は3次元空間内を動く移動物体を移動
制御情報に基づき生成する移動前景物体生成部である。
移動制御情報は、人間がマウスなどにより対話的に指示
するものや、内部の計算から軌道を生成するものがあ
る。例えば、前者の例としては人間の手を模した物体を
部屋の中で動かす場合などがあり、後者の例としてはボ
ールなどが部屋の中を飛び跳ねるような場合がある。こ
の場合は、初期の運動方向だけを定めれば、あとは壁な
どにぶつかるまでの軌道は力学的に計算できる。
Next, a second embodiment of the present invention will be described with reference to the drawings. FIG. 8 is a schematic configuration diagram of a second embodiment of the present invention. Reference numeral 501 denotes a moving foreground object generation unit that generates a moving object that moves in a three-dimensional space based on the movement control information.
The movement control information includes information that is instructed interactively by a human using a mouse or the like and information that generates a trajectory from internal calculations. For example, as the former example, there is a case in which an object imitating a human hand is moved in a room, and as the latter example, a ball or the like jumps in a room. In this case, if only the initial movement direction is determined, the trajectory until it hits a wall or the like can be calculated dynamically.

【0041】この移動前景物体生成部では、第1の実施
例で説明した物体の3次元形状とともに、その移動方
向、速度などの情報も記憶しておく。
This moving foreground object generation unit stores information such as the moving direction and speed of the object, as well as the three-dimensional shape of the object described in the first embodiment.

【0042】502の背景前景合成部においては、第一
の実施例において図7で説明したZバッファ処理の
(8)、(9)の処理を、図9に示すような接触判定処
理に変更する。 (13)背景と移動前景物体が接触したことを、移動制
限情報として移動前景物体生成部に通知する。その後、
合成処理を中断して、再び移動前景物体からの新しい前
景物体情報により、画像を合成を開始する。
In the background foreground synthesis unit 502, the processes (8) and (9) of the Z buffer process described in FIG. 7 in the first embodiment are changed to contact determination processes as shown in FIG. . (13) Notify the moving foreground object generation unit that the background has contacted the moving foreground object as movement restriction information. afterwards,
The combining process is interrupted, and the image is combined again with new foreground object information from the moving foreground object.

【0043】この移動制限情報が入力された場合、移動
前景物体生成部では、現在保持している移動方向を反転
し、速度分移動した位置に変更された移動前景物体の情
報を生成する。
When the movement restriction information is input, the moving foreground object generation unit inverts the currently held moving direction and generates information of the moving foreground object changed to the position moved by the speed.

【0044】以上により、背景より奥に物体が移動した
画像を合成しようとした場合、壁などの中に埋め込まれ
たようになるのではなく、壁で跳ね返るような反射の運
動を再現できる。
As described above, when an image in which an object has moved farther than the background is to be synthesized, it is possible to reproduce a reflection motion that bounces off a wall, instead of being embedded in a wall or the like.

【0045】また、(13)において、即座に合成を中
止せず、その接触したポリゴンの番号と、点の座標を移
動制限情報に加え、次のポリゴンの処理に移ることで、
移動前景物体生成部においては、どれだけのポリゴンが
接触したかを知ることができる。この情報に基づき接触
したポリゴンを変形することにより、単に反射するだけ
でなく、接触によってつぶれた形状を合成することが可
能である。
Further, in (13), the combination is not immediately stopped, but the number of the contacted polygon and the coordinates of the point are added to the movement restriction information, and the process proceeds to the next polygon.
The moving foreground object generation unit can know how many polygons have touched. By deforming the contacted polygon based on this information, it is possible to combine not only the reflection but also the shape crushed by the contact.

【0046】あるいは、前景物体情報に物体、ポリゴン
毎に反射処理か、突き抜け処理を行うかの切り替えの情
報を付加することにより、反射処理と隠面処理を切り替
えれば、跳ね返る物体と壁を突き抜ける物体などを同時
に合成できる。
Alternatively, by adding information for switching between reflection processing and penetration processing for each object and polygon to the foreground object information, if reflection processing and hidden surface processing are switched, an object that rebounds and an object that penetrates a wall can be obtained. Can be combined at the same time.

【0047】合成画像の出力は、すべての処理が終了し
た時に行うことにより、合成のやり直しなどによる出力
画像のちらつきを防止できる。
The output of the composite image is performed when all the processes have been completed, so that the output image can be prevented from flickering due to re-composition.

【0048】次に本発明の第3の実施例について説明す
る。図10は本発明の第3の実施例の概略構成図であ
る。701背景特性記憶部であり、101の背景画像記
憶部の背景画像に対応して、背景に物体が衝突などの相
互作用した場合の特性を決める情報として、背景表面の
傾き、背景が物質を引き付けたり、跳ね返す反発係数、
背景の材質の硬さによる衝突の衝撃の強さを決める衝撃
係数、背景の材質の温度などの背景の特性を記憶する。
Next, a third embodiment of the present invention will be described. FIG. 10 is a schematic configuration diagram of a third embodiment of the present invention. A background characteristic storage unit 701 corresponds to the background image in the background image storage unit 101, and as information for determining characteristics when an object interacts with the background, such as collision, the inclination of the background surface and the background attracts a substance. Coefficient of restitution,
The characteristics of the background, such as the impact coefficient that determines the impact strength of the collision based on the hardness of the background material and the temperature of the background material, are stored.

【0049】背景特性情報は、背景画像と同様に水平ま
わりの回転角度θと、垂直方向の高さhの2次元配列
で、配列の各要素は対応する背景の特性からなる。例え
ば背景の特性として背景表面の傾きと反発係数を考える
と、背景表面の傾きは法線ベクトル(Nx、Ny、Nz)
で表すことができる。この法線ベクトルの座標系は、物
体の頂点の座標系と同様なXYZ直交座標系である。
The background characteristic information is a two-dimensional array of the rotation angle θ about the horizontal and the height h in the vertical direction, similarly to the background image, and each element of the array is composed of the characteristic of the corresponding background. For example, considering the inclination of the background surface and the coefficient of restitution as characteristics of the background, the inclination of the background surface is represented by a normal vector (Nx, Ny, Nz).
Can be represented by The coordinate system of the normal vector is an XYZ orthogonal coordinate system similar to the coordinate system of the vertices of the object.

【0050】背景の反発係数をν1とすると、衝突前と
衝突後の物体の速度の比であり、1ならば速度が落ち
ず、1より小さいと減速する。例えばν1が0ならば表
面が吸着の性質を持っていて、物体は背景にくっついた
状態になる。通常は0から1の間の数値であるが、磁力
などによる反発の場合などは1以上になる。
Assuming that the coefficient of restitution of the background is ν1, this is the ratio of the speed of the object before and after the collision. For example, if ν1 is 0, the surface has the property of adsorption, and the object is in a state of sticking to the background. Usually, it is a numerical value between 0 and 1, but it becomes 1 or more in the case of repulsion due to magnetic force or the like.

【0051】また衝突による物体生成部702では、物
体の形状、位置に、物体の3次元の移動方向ベクトル
(Mx、My,Mz)を加え、必要に応じて背景の特性
と同様の物体の反発係数ν2などの物体情報を、背景物
体合成部703に入力する。背景物体合成部において
は、前記第2の実施例と同様に、背景と物体の接触を調
べる。
The collision-based object generation unit 702 adds a three-dimensional movement direction vector (Mx, My, Mz) of the object to the shape and position of the object, and rejects the object in the same manner as the background characteristics as necessary. Object information such as a coefficient ν2 is input to the background object synthesis unit 703. The background object synthesizing unit checks the contact between the background and the object, as in the second embodiment.

【0052】接触が起こった場合の図9(13)におい
て、移動物体の方向ベクトルと背景の法線ベクトルか
ら、反射の方向ベクトル(Lx、Ly、Lz)を次式のよ
うに、移動方向と背景傾きの法線に関して対称になるよ
うに求める。
In FIG. 9 (13) when contact occurs, the direction vector (Lx, Ly, Lz) of the reflection is calculated from the direction vector of the moving object and the normal vector of the background as follows. It is determined to be symmetric with respect to the normal line of the background inclination.

【0053】[0053]

【数9】Lx = Mx − Nx Ly = My − Ny Lz = Mz − Nz また、反射前の物体の移動速度と、背景の反発係数ν
1、物体の反発係数ν2から反射後の物体の移動速度を
計算する。例えば、反射前の速度をV1、反射後の速度
をV2とした場合
Lx = Mx-NxLy = My-NyLz = Mz-Nz Also, the moving speed of the object before reflection and the coefficient of restitution of the background ν
1. The moving speed of the object after reflection is calculated from the coefficient of restitution ν2 of the object. For example, when the speed before reflection is V1 and the speed after reflection is V2

【0054】[0054]

【数10】V2 = ν1×ν2×V1 で計算することが出来る。V2 = ν1 × ν2 × V1

【0055】これらの物体の反射後の方向、移動速度を
物体変更情報に加える。物体生成部では、物体全体でこ
の反射の方向、速度の平均をもとめ、次の移動量の方
向、速度とする。あるいは、物体変更情報で、背景の奥
行き値と物体の点の奥行き値rとの差が最大の点を、い
ちばん最初に接触する点として、その点の移動方向、速
度を新たな移動方向、速度として、物体を生成する。
The direction and moving speed of these objects after reflection are added to the object change information. The object generation unit obtains the average of the direction and speed of the reflection over the entire object, and sets the average as the direction and speed of the next movement amount. Alternatively, in the object change information, the point where the difference between the background depth value and the depth value r of the object point is the largest is set as the first contact point, and the moving direction and speed of that point are set as the new moving direction and speed. To generate an object.

【0056】また物体変更情報に、物体と衝突した点の
背景の衝撃係数を加え、物体生成部では、その衝撃係数
が物体の特性として記憶される衝撃変形いき値を超えた
場合、その衝撃係数に応じて、物体の形状を移動方向に
縮小するなどの変形処理を加えた物体を生成することに
より、柔らかい物体が硬い背景に衝突した場合の画像を
表現することが可能となる。
The object change information is added to the impact coefficient of the background at the point where the object collides. If the impact coefficient exceeds an impact deformation threshold value stored as a characteristic of the object, the impact coefficient is calculated. By generating an object subjected to a deformation process such as reducing the shape of the object in the moving direction in accordance with, it is possible to express an image when a soft object collides with a hard background.

【0057】あるいは物体変更情報に背景の温度を加
え、物体生成部において、物体の温度に関する特性によ
っては、一定以上の温度の場合、爆発、蒸発、融けた物
体を生成することにより、背景の温度による物体の変化
の画像を合成することができる。
Alternatively, the background temperature is added to the object change information, and the object generation unit generates an explosion, evaporation, or melting object if the temperature is equal to or higher than a certain value depending on the temperature characteristic of the object. The image of the change of the object due to can be synthesized.

【0058】前記での背景の傾きを背景奥行き情報から
計算する方法について説明する。いま背景の傾きを求め
たい点から近傍の点までの3次元空間での方向ベクトル
を計算する。背景上の点の3次元位置は、パノラマ画像
のθ、hと奥行き値rの3つの円柱座標系で表現されて
いる。これを図6bで説明した直交座標系に変換し、近
傍の点の座標から中心の座標値を引いてベクトルを計算
し、大きさが1になるように正規化する。このようなベ
クトルが上下左右の4近傍の場合4つ得られる。これら
のベクトルの内、隣合う2ベクトルの外積を計算する。
4近傍の場合、4つの外積ベクトルが得られる。これら
4つの外積ベクトルを平均し、大きさ1に正規化したも
のを、求める点の背景傾きとする。
A method of calculating the background inclination from the background depth information will be described. A direction vector in a three-dimensional space from a point where the inclination of the background is to be obtained to a nearby point is calculated. The three-dimensional position of a point on the background is represented by three cylindrical coordinate systems of θ and h and a depth value r of the panoramic image. This is converted into the orthogonal coordinate system described with reference to FIG. 6B, a vector is calculated by subtracting the center coordinate value from the coordinates of the neighboring points, and the vector is normalized so that the magnitude becomes 1. In the case where there are four such vectors in the up, down, left, and right neighborhood, four are obtained. The cross product of two adjacent vectors among these vectors is calculated.
In the case of four neighbors, four outer product vectors are obtained. The average of these four cross product vectors and normalized to a size of 1 is used as the background slope of the point to be determined.

【0059】次に本発明の第4の実施例について説明す
る。図11は本発明の第4の実施例の概略構成図であ
る。図11の801は背景の奥行きに不連続点があるか
どうか、ある場合にはその不連続エッジにおいて、通り
抜け可能かどうかを知らせるエッジ情報を記憶するエッ
ジ情報記憶部である。エッジ情報は、θ、hの2次元配
列で、各要素はエッジがない場合0、エッジがエッジで
通り抜け可能な場合1、不可能な場合2の値を持つ。ま
たエッジの場合、さらにエッジの奥行き最大値と最小値
を持つ。エッジのない場合この値は不定である。
Next, a fourth embodiment of the present invention will be described. FIG. 11 is a schematic configuration diagram of a fourth embodiment of the present invention. An edge information storage unit 801 in FIG. 11 stores edge information that indicates whether there is a discontinuous point in the depth of the background, and in some cases, whether or not the discontinuous edge can pass through. The edge information is a two-dimensional array of θ and h. Each element has a value of 0 when there is no edge, 1 when the edge can pass through the edge, and 2 when it cannot. In the case of an edge, it further has a maximum value and a minimum value of the depth of the edge. This value is undefined if there is no edge.

【0060】次にエッジ情報について図を用いて詳細に
説明する。図12aにおいて、901は背景画像であ
り、902は位置(θ1、h1)に移動する物体とその移
動方向を示しており、903は位置(θ2、h1)にある
物体とその移動方向を示している。今、高さh1におけ
る奥行きrの形状が図12bの904のようであったと
する。θ1においては、ドアにより奥行きに不連続エッ
ジが生じており、θ2では本棚により不連続エッジが生
じている。θ1では通り抜けが可能であり、θ2では通り
抜けが不可能である。そこで、エッジ情報において、
(θ1、h1)は1を、(θ2、h1)は2の値となり、そ
れぞれのエッジの最大値、最小値を記憶する。
Next, the edge information will be described in detail with reference to the drawings. In FIG. 12A, reference numeral 901 denotes a background image; 902, an object moving to a position (θ1, h1) and its moving direction; and 903, an object at a position (θ2, h1) and its moving direction. I have. Now, it is assumed that the shape of the depth r at the height h1 is as shown by 904 in FIG. 12B. At θ1, the door has a discontinuous edge at the depth, and at θ2, the bookshelf has a discontinuous edge. It is possible to pass through at θ1 and not at θ2. Therefore, in the edge information,
(Θ1, h1) becomes 1 and (θ2, h1) becomes 2, and the maximum value and the minimum value of each edge are stored.

【0061】移動前景物体生成部では、移動制御情報に
基づいて移動物体の形状、位置、移動方向を背景前景合
成部803に入力する。背景前景合成部においては、背
景と前景移動物体との接触の判定を行う。図13は、こ
の接触判定のフローチャートである。 (1)エッジ情報の対応する点のフラグを参照し処理を
分岐する。 (2)フラグが0の場合は、エッジ点ではないので、第
2の実施例のように接触判定をおこない、接触していた
場合は移動制御情報により接触を移動前景物体生成部に
通知する。 (3)フラグが1の場合は、通り抜け可能なエッジ部で
ある。第1の実施例のようにZバッファによる隠面処理
をおこなう。 (4)フラグが2の場合は、奥行き方向に通り抜け不可
能なエッジがある。その場合は、エッジの最大値、最小
値の間に物体がある場合、奥行き方向と反対側に移動方
向を反射するよう、移動制御情報を移動前景物体生成部
に通知する。以上の処理に応じて、移動前景物体生成部
では必要に応じて移動方向を修正し、移動物体を生成す
る。
The moving foreground object generation unit inputs the shape, position, and moving direction of the moving object to the background foreground synthesis unit 803 based on the movement control information. In the background foreground synthesis unit, the contact between the background and the foreground moving object is determined. FIG. 13 is a flowchart of the contact determination. (1) The process branches by referring to the flag of the corresponding point in the edge information. (2) If the flag is 0, it is not an edge point, so a contact determination is made as in the second embodiment, and if there is a contact, the contact is notified to the moving foreground object generation unit using the movement control information. (3) When the flag is 1, it is an edge portion that can pass through. As in the first embodiment, hidden surface processing using a Z buffer is performed. (4) When the flag is 2, there is an edge that cannot pass through in the depth direction. In this case, when there is an object between the maximum value and the minimum value of the edge, the movement control information is notified to the moving foreground object generation unit so as to reflect the moving direction in the direction opposite to the depth direction. In accordance with the above processing, the moving foreground object generation unit corrects the moving direction as necessary to generate a moving object.

【0062】なお、以上のすべてについて、パノラマ画
像を用いた実施例により説明をしたが、本発明の背景画
像はパノラマ画像に限定されるものではない。例えば、
従来の技術で説明した平面画像に対しても、円柱座標系
を直交座標系に置き換えることにより容易に適用でき
る。また、円柱ではなく球体に投影された背景画像を用
いてもよい。その場合は円柱座標系を極座標系に置き換
えれば良い。
Although all of the above have been described with reference to the embodiment using a panoramic image, the background image of the present invention is not limited to a panoramic image. For example,
It can be easily applied to the planar image described in the related art by replacing the cylindrical coordinate system with the rectangular coordinate system. Alternatively, a background image projected on a sphere instead of a cylinder may be used. In that case, the cylindrical coordinate system may be replaced with a polar coordinate system.

【0063】また、背景画像と、背景奥行き情報、背景
傾き情報、背景エッジ情報は、各要素が同一の背景の点
に関する、同じ大きさの2次元配列であるので、配列の
要素を拡張し、それら同一の配列に複数の情報をもたせ
ることも可能である。その場合、配列のアクセスが各画
素毎に一度で済むという利点がある。
Since the background image, the background depth information, the background inclination information, and the background edge information are two-dimensional arrays of the same size with respect to the same background point, the elements of the array are expanded. It is also possible to give a plurality of information to the same sequence. In this case, there is an advantage that the array needs to be accessed only once for each pixel.

【0064】[0064]

【発明の効果】以上、詳細に説明したように、本発明に
よれば、視点の回転による背景の合成とともに、前景の
物体と背景との3次元的な相互作用である、隠面処理、
面による反射を処理することにより、3次元の空間とし
ての臨場感を高める画像合成が可能となる。
As described above in detail, according to the present invention, in addition to the synthesis of the background by rotating the viewpoint, the hidden surface processing, which is a three-dimensional interaction between the foreground object and the background,
By processing the reflection from the surface, it is possible to perform image synthesis that enhances the sense of reality as a three-dimensional space.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施例の概略構成図である。FIG. 1 is a schematic configuration diagram of a first embodiment of the present invention.

【図2】背景画像と背景奥行きとの関係を示す説明図。FIG. 2 is an explanatory diagram showing a relationship between a background image and a background depth.

【図3】背景画像と背景奥行きとの関係を示す説明図。FIG. 3 is an explanatory diagram showing a relationship between a background image and a background depth.

【図4】背景画像と背景奥行きとの関係を示す説明図。FIG. 4 is an explanatory diagram showing a relationship between a background image and a background depth.

【図5】背景画像と背景奥行きとの関係を示す説明図。FIG. 5 is an explanatory diagram showing a relationship between a background image and a background depth.

【図6】前景物体の形状表現と、座標系の説明図。FIG. 6 is an explanatory diagram of a shape representation of a foreground object and a coordinate system.

【図7】本発明の第1の実施例の処理フローチャート。FIG. 7 is a processing flowchart according to the first embodiment of the present invention.

【図8】本発明の第2の実施例の概略構成図。FIG. 8 is a schematic configuration diagram of a second embodiment of the present invention.

【図9】本発明の第2の実施例の処理フローチャート。FIG. 9 is a processing flowchart according to a second embodiment of the present invention.

【図10】本発明の第3の実施例の概略構成図。FIG. 10 is a schematic configuration diagram of a third embodiment of the present invention.

【図11】本発明の第4の実施例の概略構成図。FIG. 11 is a schematic configuration diagram of a fourth embodiment of the present invention.

【図12】奥行きエッジ情報の説明図。FIG. 12 is an explanatory diagram of depth edge information.

【図13】本発明の第4の実施例の処理フローチャー
ト。
FIG. 13 is a processing flowchart according to a fourth embodiment of the present invention.

【図14】従来例の説明図。FIG. 14 is an explanatory view of a conventional example.

【図15】従来例の説明図。FIG. 15 is an explanatory diagram of a conventional example.

【符号の説明】 101 背景画像記憶部 102 背景画像切り出し部 103 波形奥行き記憶部 104 前景物体生成部 105 背景前景物体合成部 501 移動前景物体生成部 502 背景前景物体合成部 701 背景反射情報記憶部 702 移動前景物体生成部 703 背景前景合成部 801 エッジ情報記憶部 802 背景前景合成部 803 移動前景物体生成部[Description of Signs] 101 Background image storage unit 102 Background image cutout unit 103 Waveform depth storage unit 104 Foreground object generation unit 105 Background foreground object synthesis unit 501 Moving foreground object generation unit 502 Background foreground object synthesis unit 701 Background reflection information storage unit 702 Moving foreground object generation unit 703 Background foreground synthesis unit 801 Edge information storage unit 802 Background foreground synthesis unit 803 Moving foreground object generation unit

フロントページの続き (56)参考文献 特開 平4−372079(JP,A) 特開 平5−183808(JP,A) 特開 平4−123279(JP,A) 特開 平5−181940(JP,A) 特開 平5−181950(JP,A) 特開 平6−28451(JP,A) 中川雅通他,モデルベース画像合成技 術,National Technic al Report,日本,松下電器産 業株式会社,1994年12月18日,第40巻 第6号,106−113,本願優先権後発行 中川雅通他,知的画像符号化による立 体視画像の生成,1990年電子情報通信学 会春季全国大会講演論文集(7),日 本,電子情報通信学会,1990年3月5 日,PT.7,7−39 佐藤潤一他,表面の法線分布に基づい た立体形状モデルの自動生成,1992年電 子情報通信学会春季大会講演論文集,日 本,電子情報通信学会,1992年3月15 日,PT.1,1−302 (58)調査した分野(Int.Cl.7,DB名) G06T 17/40 G06T 15/70 G09G 5/36 510 G09G 5/377 Continuation of front page (56) References JP-A-4-372079 (JP, A) JP-A-5-183808 (JP, A) JP-A-4-123279 (JP, A) JP-A-5-181940 (JP) , A) JP-A-5-181950 (JP, A) JP-A-6-28451 (JP, A) Masamichi Nakagawa et al., Model-Based Image Synthesis Technology, National Technical Report, Japan, Matsushita Electric Industrial Co., Ltd. , December 18, 1994, Vol. 40, No. 6, 106-113, issued after the priority of the present application Masamichi Nakagawa et al., Generation of stereoscopic images by intelligent image coding, 1990 IEICE Spring Meeting Proceedings of the National Convention (7), Japan, The Institute of Electronics, Information and Communication Engineers, March 5, 1990, PT. 7, 7-39 Junichi Sato et al., Automatic Generation of 3D Shape Model Based on Surface Normal Distribution, Proceedings of the 1992 IEICE Spring Conference, Japan, The Institute of Electronics, Information and Communication Engineers, March 15, 1992 JP, PT. 1,1-302 (58) Field surveyed (Int.Cl. 7 , DB name) G06T 17/40 G06T 15/70 G09G 5/36 510 G09G 5/377

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】広範囲の背景の画像を2次元配列として
憶する背景画像記憶手段と、 前記背景の画像に関して同様の2次元配列で、その要素
が奥行き値となる奥行き情報を記憶する背景奥行き記憶
手段と、3次元空間内を動く 前景物体の3次元形状と移動方向と
速度を含む前景物体情報を生成する移動前景物体生成手
段と、 前記前景物体情報と、前記背景画像と、前記奥行き情報
とから、前記背景と前記前景物体を合成する画像合成手
段を備えた画像合成装置において、前記画像合成手段は、前記前景物体情報と、前記奥行き
情報とから、前記背景と前記移動前景物体の接触を判定
し、接触したことを移動制限情報として出力し前記移動前景物体生成手段は、前記移動制限情報を用い
て前記前景物体情報を変更することを特徴とする画像合
成装置。
1. A background image storage means for serial <br/>憶images of a wide range of background as a two-dimensional array, in the same two-dimensional array with respect to the image of the background, the element
Background depth storage means for storing depth information in which is a depth value, 3D shape and moving direction of a foreground object moving in a 3D space
A moving foreground object generator that generates foreground object information including speed
A step, the foreground object information, the background image, and the depth information, the image synthesizing device including an image synthesizing unit that synthesizes the background and the foreground object, wherein the image synthesizing unit includes the foreground object information And the depth
Determining contact between the background and the moving foreground object from the information
The contact is output as movement restriction information, and the moving foreground object generating means uses the movement restriction information.
The foreground object information by changing
Equipment.
【請求項2】広範囲の背景の画像を視点回りの回転角θ
と垂直方向の高さhで定義される2次元配列のパノラマ
画像として記憶するパノラマ背景画像記憶手段と、 前記背景のパノラマ画像と同様にθ、hの2次元配列
で、その要素が奥行き値rとなる奥行き情報を記憶する
背景奥行き記憶手段と、視線の方向、視野を含む視点情報により前記パノラマ
像から視野に入っている背景画像を切り出す背景画像切
り出し手段と、前記視点情報により奥行き値を切り出す背景奥行き切り
出し手段と 、 を備えたことを特徴とする請求項1記載の画像合成装
置。
2. An image of a wide range of backgrounds is rotated by a rotation angle θ around a viewpoint.
Panorama of two-dimensional array defined by height and vertical height h
A panoramic background image storage means for storing as an image, and a two-dimensional array of θ and h like the panoramic image of the background
A background depth storage unit that stores depth information whose element is a depth value r, a background image cutout unit that cuts out a background image included in the field of view from the panorama image based on viewpoint information including a line of sight direction, and viewpoint information including a field of view . Background depth cutout that cuts out depth values based on the viewpoint information
2. The image synthesizing device according to claim 1, further comprising: an output unit .
【請求項3】前記移動前景物体生成手段は、前記前景物
体情報の移動方向を修正することを特徴とする請求項1
記載の画像合成装置。
3. A moving foreground object generating means, comprising:
2. The moving direction of body information is corrected.
An image synthesizing apparatus according to claim 1.
【請求項4】前記移動前景物体生成手段において、接触
による前記移動前景物体の移動の方向を、 前記奥行き情報から得られた背景の面の傾斜から計算
し、新しい前景物体情報を生成することを特徴とする請
求項3記載の画像合成装置。
4. The moving foreground object generating means calculates a direction of movement of the moving foreground object due to a contact from the inclination of a background surface obtained from the depth information, and generates new foreground object information. The image synthesizing device according to claim 3, wherein:
【請求項5】前記背景奥行き記憶手段は、不連続な箇所
に関する情報を画像と同様の2次元配列で記憶するエッ
ジ情報も有し、前記画像合成手段は、前記前景物体と前
記背景との接触を検出するにあたり、前記不連続な箇所
における前記前景物体の通り抜け可能性を前記エッジ情
報を用いて判定することを特徴とする請求項3記載の画
像合成装置。
5. The background depth storage means stores information on discontinuous portions in a two-dimensional array similar to an image.
The image synthesizing unit also has the edge information , and detects the possibility of passing through the foreground object at the discontinuous point when detecting contact between the foreground object and the background.
The image synthesizing apparatus according to claim 3, wherein the determination is performed using a report .
JP02671995A 1994-02-18 1995-02-15 Image synthesis device Expired - Fee Related JP3339980B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02671995A JP3339980B2 (en) 1994-02-18 1995-02-15 Image synthesis device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2103894 1994-02-18
JP6-21038 1994-02-18
JP02671995A JP3339980B2 (en) 1994-02-18 1995-02-15 Image synthesis device

Publications (2)

Publication Number Publication Date
JPH07282294A JPH07282294A (en) 1995-10-27
JP3339980B2 true JP3339980B2 (en) 2002-10-28

Family

ID=26358050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02671995A Expired - Fee Related JP3339980B2 (en) 1994-02-18 1995-02-15 Image synthesis device

Country Status (1)

Country Link
JP (1) JP3339980B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4726347B2 (en) * 2000-12-07 2011-07-20 株式会社バンダイナムコゲームス Image display device, image display method, information storage medium, and image display program
JP2003030677A (en) * 2001-07-19 2003-01-31 Namco Ltd Image display device, image display method, information storage medium and image display program
JP4607992B2 (en) * 2008-08-20 2011-01-05 株式会社メイクソフトウェア Photo print providing apparatus and method, and program
EP2670130B1 (en) 2012-06-01 2019-03-27 Alcatel Lucent Method and apparatus for mixing a first video signal and a second video signal
JP6324063B2 (en) * 2013-12-26 2018-05-16 キヤノン株式会社 Image reproducing apparatus and control method thereof
JP6392738B2 (en) * 2015-12-01 2018-09-19 日本電信電話株式会社 Information acquisition apparatus, information acquisition method, and information acquisition program
JP6392739B2 (en) * 2015-12-03 2018-09-19 日本電信電話株式会社 Image processing apparatus, image processing method, and image processing program
JP7006056B2 (en) * 2017-06-05 2022-01-24 凸版印刷株式会社 Virtual space presentation device, virtual space presentation method, and program
JP7153070B2 (en) * 2018-05-24 2022-10-13 マクセル株式会社 3DAR content creation device, 3DAR content playback device, and 3DAR content creation system
CN112285739B (en) * 2020-11-19 2021-08-13 福勤智能科技(昆山)有限公司 Data processing method, device, equipment and storage medium
KR102586637B1 (en) * 2021-12-28 2023-10-06 연세대학교 산학협력단 Method for generating synthetic video using optical flow

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
中川雅通他,モデルベース画像合成技術,National Technical Report,日本,松下電器産業株式会社,1994年12月18日,第40巻 第6号,106−113,本願優先権後発行
中川雅通他,知的画像符号化による立体視画像の生成,1990年電子情報通信学会春季全国大会講演論文集(7),日本,電子情報通信学会,1990年3月5日,PT.7,7−39
佐藤潤一他,表面の法線分布に基づいた立体形状モデルの自動生成,1992年電子情報通信学会春季大会講演論文集,日本,電子情報通信学会,1992年3月15日,PT.1,1−302

Also Published As

Publication number Publication date
JPH07282294A (en) 1995-10-27

Similar Documents

Publication Publication Date Title
US6005967A (en) Picture synthesizing apparatus and method
US5936630A (en) Method of and apparatus for performing perspective transformation of visible stimuli
US5077608A (en) Video effects system able to intersect a 3-D image with a 2-D image
US6249289B1 (en) Multi-purpose high resolution distortion correction
US5325472A (en) Image displaying system for interactively changing the positions of a view vector and a viewpoint in a 3-dimensional space
US6031540A (en) Method and apparatus for simulating movement in multidimensional space with polygonal projections from subhemispherical imagery
CA2391673C (en) Image-based methods of representation and rendering of three-dimensional object and animated three-dimensional object
US20020113865A1 (en) Image processing method and apparatus
JP3339980B2 (en) Image synthesis device
US20080309668A1 (en) Image processing method and apparatus
US5694531A (en) Method and apparatus for simulating movement in multidimensional space with polygonal projections
US6081275A (en) Image compositing apparatus
EP0834837A2 (en) Image processing apparatus and method
US6731284B1 (en) Method of and apparatus for performing perspective transformation of visible stimuli
EP3573018B1 (en) Image generation device, and image display control device
JP3629243B2 (en) Image processing apparatus and method for rendering shading process using distance component in modeling
JP3387900B2 (en) Image processing method and apparatus
EP0668571B1 (en) Picture synthesizing apparatus
KR100490885B1 (en) Image-based rendering method using orthogonal cross cylinder
JP2973413B2 (en) Illuminance calculation method and display device for computer graphics
JP2000030080A (en) Virtual reality system
JP2002203237A (en) Curved image conversion method and recording medium with the curved image conversion method recorded thereon
Ichikawa et al. Multimedia ambiance communication
Kang et al. Visual tunnel analysis for visibility prediction and camera planning
JPH09245192A (en) Method for realizing virtual environment generation realizing and its device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070816

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080816

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080816

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090816

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090816

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100816

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110816

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110816

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120816

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees