JPH07320086A - Method and device for image generation - Google Patents

Method and device for image generation

Info

Publication number
JPH07320086A
JPH07320086A JP10813994A JP10813994A JPH07320086A JP H07320086 A JPH07320086 A JP H07320086A JP 10813994 A JP10813994 A JP 10813994A JP 10813994 A JP10813994 A JP 10813994A JP H07320086 A JPH07320086 A JP H07320086A
Authority
JP
Japan
Prior art keywords
image
local feature
unit
information
structure information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10813994A
Other languages
Japanese (ja)
Other versions
JP3023903B2 (en
Inventor
Masakazu Matsugi
優和 真継
Katsumi Iijima
克己 飯島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP10813994A priority Critical patent/JP3023903B2/en
Publication of JPH07320086A publication Critical patent/JPH07320086A/en
Priority to US08/893,929 priority patent/US6463176B1/en
Application granted granted Critical
Publication of JP3023903B2 publication Critical patent/JP3023903B2/en
Priority to US10/265,923 priority patent/US6907140B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To lower the arithmetic cost and shorten the processing time by generating an image without any detailed three-dimensional shape model. CONSTITUTION:This device consists of a structure information storage part 1 for an object image, a view point position input part 2 for inputting a view point position for a virtual object at the time of viewing, a motion mode selection part 3 regarding prepared objects, a local feature element arrangement and deformation part 4 which alters the information from the structure information storage part 1 on the basis of the view point position input part 2 and motion mode selection part 3, a generation part 5 which performs a generating process so that interpolation between feature elements is performed with a curved line, an image data base 6 which stores a background image, an image composition part 7 which composites the object image generated by the generation part 5 with the background image from the image data base 6, and an image display part 8 which displays the image composed by the image composition part 7.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、少ない数の部分的画像
データから完全な画像を生成する画像生成方法および画
像生成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image generating method and an image generating apparatus for generating a complete image from a small number of partial image data.

【0002】[0002]

【従来の技術】従来、画像中の物体の立体形状、距離な
どを反映し、視点位置に応じた画像を少ないデータで生
成する手法としては、例えば特開平5−12413号公
報に示される画像生成装置のように、予め対象物体が再
現できる表面上の点を3次元計測装置により計測し、そ
のような点の3次元的位置座標を記憶しておいて、再生
画像を生成するときは、視点位置と対象物件との位置関
係から再生画像用のスクリーン上の位置を求め、予め異
なる視点位置で得た画像との対応点関係から輝度レベル
またはRGB値を対応させて表示する物であった。
2. Description of the Related Art Conventionally, as a method for reflecting the three-dimensional shape and distance of an object in an image and generating an image corresponding to a viewpoint position with a small amount of data, for example, image generation disclosed in Japanese Patent Laid-Open No. 12413/1993. Like a device, a point on the surface where the target object can be reproduced is measured in advance by a three-dimensional measuring device, and the three-dimensional position coordinates of such a point are stored, and when a reproduced image is generated, the viewpoint is The position on the screen for the reproduced image is obtained from the positional relationship between the position and the target property, and the luminance level or RGB value is displayed in correspondence with the corresponding point relationship with the images obtained at different viewpoint positions in advance.

【0003】また、特公平5−60148号公報に示さ
れる合成画像発生装置では、予め基準画像と対象物体の
3次元形状モデルを所定のメモリに記憶しておき、再生
時に記憶した時と異なる視点からの距離と方角との差異
から対象画像の変倍率、画面上移動距離、および回転角
を計算し、それらに基づいた幾何学的変形を施して異な
る視点より観察した対象画像を生成するものであった。
Further, in the composite image generating apparatus disclosed in Japanese Patent Publication No. 5-60148, a reference image and a three-dimensional shape model of a target object are stored in a predetermined memory in advance, and a different viewpoint from the one stored at the time of reproduction is stored. It calculates the scaling factor, moving distance on screen, and rotation angle of the target image from the difference between the distance from and the direction, and performs geometric deformation based on them to generate the target image observed from different viewpoints. there were.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記従
来例では、実写画像中の特定対象の画像を加工して別の
シーンの画像と合成したり、遮蔽部分を考慮しながらそ
の特定対象の運動、変形を行わせたりする為に、対象に
関するより詳細な3次元形状モデルが必要である。そし
て、対象に関するより詳細な3次元形状モデルを求める
為には別途、形状計測手段あるいは2眼式ステレオカメ
ラで得られる視差付き画像から形状モデルを求める手法
などによる詳細な計測を必要とする。そのため、演算コ
スト、処理時間ともに大きいという問題点があった。
However, in the above-mentioned conventional example, the image of the specific object in the photographed image is processed to be combined with the image of another scene, or the motion of the specific object while considering the occluded portion, A more detailed three-dimensional shape model of the object is required to perform the transformation. Then, in order to obtain a more detailed three-dimensional shape model regarding the object, detailed measurement is required separately by a shape measuring means or a method of obtaining a shape model from an image with parallax obtained by a twin-lens stereo camera. Therefore, there is a problem that both the calculation cost and the processing time are large.

【0005】本発明は、上記従来技術にかかる問題点に
鑑み、詳細な3次元形状モデルなしで画像を生成するこ
とにより、演算コスト、処理時間ともに小さくすること
ができる画像生成方法および画像生成装置を提供するこ
とを目的としている。
In view of the above problems of the prior art, the present invention generates an image without a detailed three-dimensional shape model, thereby making it possible to reduce the calculation cost and the processing time, and an image generating apparatus. Is intended to provide.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するため
の本発明は、予め定義された局所的特徴要素とそれらの
空間的配置情報とを画像の構造情報として記憶し、該構
造情報に基づき画像を生成することを特徴とする。
SUMMARY OF THE INVENTION To achieve the above object, the present invention stores pre-defined local feature elements and their spatial arrangement information as image structure information, and based on the structure information. It is characterized by generating an image.

【0007】この画像生成方法において、前記局所的特
徴要素は、空間的に離散して存在する輪郭線からなるこ
とを特徴とし、前記局所的特徴要素は、複数方向のエッ
ジセグメントの交差パターン、曲率一定の曲線またはそ
の一部、およびエッジセグメントからなり、前記局所的
特徴要素間を所定の方法で滑らかに結ぶことにより、画
像の一部を生成することを特徴とする。
In this image generation method, the local feature element is composed of contour lines that are spatially discrete, and the local feature element is a crossing pattern of edge segments in a plurality of directions and a curvature. It is characterized in that it is composed of a fixed curve or a part thereof and an edge segment, and a part of an image is generated by smoothly connecting the local feature elements by a predetermined method.

【0008】そして、前記構造情報は、視点位置の変化
に伴って生成、消失する際の、それぞれの視点位置での
局所的特徴要素とその空間的配置情報であることを特徴
とする。
The structure information is characterized in that it is a local feature element at each viewpoint position and its spatial arrangement information when it is generated and disappears with a change in the viewpoint position.

【0009】また、前記局所的特徴要素は3次元空間に
配置された面要素であり、前記局所的特徴要素間を滑ら
かに連結する補間用曲面データを生成することを特徴と
してもよい。
Further, the local feature element may be a surface element arranged in a three-dimensional space, and the curved surface data for interpolation which smoothly connects the local feature elements may be generated.

【0010】さらに、上記の方法に好適な画像生成装置
は、予め定義された局所的特徴要素とそれらの空間的配
置を対象画像の構造情報として記憶する構造情報記憶部
と、画像を見るときの仮想的な対象に対する視点位置を
入力するための視点位置入力部と、前記対象に関する予
め決められた運動モードを選択するための運動モード選
択部と、前記視点位置入力部および前記運動モード選択
部からの入力情報に基いて、前記構造情報記憶部の情報
を変更する局所特徴要素配置・変形部と、前記局所特徴
要素配置・変形部からの情報を受けて、各局所的特徴要
素間を補間する曲線または曲面を生成する生成部と、前
記対象画像の背景となる背景画像を記憶する画像記憶部
と、前記画像記憶部から背景画像を取り込み、前記生成
部で生成処理された対象画像と合成させるための画像合
成部と、前記画像合成部で形成された画像を表示する画
像表示部と、から構成される。
Further, the image generating apparatus suitable for the above method has a structure information storage unit for storing the previously defined local feature elements and their spatial arrangement as the structure information of the target image, and a structure information storage unit for viewing the image. From a viewpoint position input unit for inputting a viewpoint position for a virtual target, a motion mode selection unit for selecting a predetermined motion mode for the target, the viewpoint position input unit and the motion mode selection unit The local feature element placement / deformation unit that changes the information in the structural information storage unit based on the input information of the above and the information from the local feature element placement / deformation unit, and interpolates between the local feature elements. A generation unit that generates a curved line or a curved surface, an image storage unit that stores a background image that is a background of the target image, a background image is captured from the image storage unit, and the generation process is performed by the generation unit. And an image synthesizing portion for synthesizing a target image, an image display unit for displaying the image formed by the image synthesizing unit, and a.

【0011】[0011]

【作用】上記のとおりに構成された本発明では、予め定
義された局所的特徴要素、およびそれらの空間的配置情
報に基づき画像を生成することにより、対象のワイヤフ
レームモデルなどの詳細な3次元形状モデルを求めずに
対象の運動・動作に応じた任意のサイズ、変形を与え
て、所定位置に任意の視点位置からの画像を生成した
り、あるいは対象の任意の運動・動作を入れた動画像を
生成することが可能である。
According to the present invention configured as described above, an image is generated based on the local feature elements defined in advance and their spatial arrangement information, so that a detailed three-dimensional image such as a target wireframe model can be obtained. Video that generates an image from an arbitrary viewpoint position at a predetermined position by giving an arbitrary size and deformation according to the motion / motion of the target without obtaining a shape model, or inserting a motion / motion of the target It is possible to generate an image.

【0012】[0012]

【実施例】以下、本発明の実施例について図面を参照し
て説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0013】図1は、本発明の画像生成方法を好適に実
施する装置の一構成例を示すブロック図、図2は、図1
に示す構造情報記憶部に記憶された局所的特徴要素の一
例を示した図である。
FIG. 1 is a block diagram showing an example of the configuration of an apparatus for suitably implementing the image generation method of the present invention, and FIG. 2 is shown in FIG.
It is a figure showing an example of a local feature element memorized by structure information storage part shown in.

【0014】本実施例の画像生成装置は、図1に示すよ
うに、対象画像の構造情報記憶部1、視点位置入力部
2、対象運動モード選択部3、局所特徴要素配置・変形
部4、特徴要素間補間用曲線生成部5、画像データベー
ス6、画像合成部7、および画像表示部8とから構成さ
れる。
As shown in FIG. 1, the image generating apparatus of this embodiment has a structure information storage unit 1 for a target image, a viewpoint position input unit 2, a target motion mode selection unit 3, a local feature element placement / deformation unit 4, The inter-feature element interpolation curve generation unit 5, the image database 6, the image synthesis unit 7, and the image display unit 8 are included.

【0015】上記各構成要素を詳述すると、構造情報記
憶部1は、対象とする物体、生物などの構造的画像情報
の記憶部であり、観察者の視点位置、対象の運動・動作
などに伴う対象画像の変化を表現する為の必要最小限の
情報として、図2に示すような2次元あるいは3次元的
局所的特徴要素、およびそれらの3次元的空間配置情報
を記憶するものである。
Explaining each of the above-mentioned components in detail, the structure information storage unit 1 is a storage unit for storing structural image information of a target object, living thing, etc. Two-dimensional or three-dimensional local characteristic elements as shown in FIG. 2 and their three-dimensional spatial arrangement information are stored as the minimum necessary information for expressing the accompanying change in the target image.

【0016】視点位置入力部2は、観察者が対象を視る
位置、方向を入力する為のもので、磁気変換方式(例え
ば、POLHEMUS(ホ゜ヒマス)社製,3SPACE ISOTRAK II)、超音
波方式(例えば、Stereo Graphics社製,Crystal EYES
VR System)等のように観察者の頭部などに直接センサ
等を装着して視点位置を計測し入力する方法や、計算機
端末のマウスやキーボードなどで入力する方法のいずれ
でもよい。
The viewpoint position input unit 2 is for inputting a position and a direction at which an observer looks at an object, and is a magnetic conversion method (for example, 3SPACE ISOTRAK II manufactured by POLHEMUS) and an ultrasonic method ( For example, Stereo Graphics, Crystal EYES
For example, a method of directly mounting a sensor or the like on the observer's head such as VR System) to measure and input the viewpoint position, or a method of inputting with a mouse or keyboard of a computer terminal may be used.

【0017】対象運動モード選択部3は、対象に関す
る、予め決められた運動・動作(例えば、人物を対象と
する場合、喜怒哀楽などの顔の表情変化、発声する言葉
に応じた口の形状の変化など、顔の形状変化に関するも
のから、歩行、駆け足、スポーツプレイ時を含む身体の
動きまでなど)を行なう動画像を対話的に選択して背景
画像中のある場所に生成させるときに使われる。
The target motion mode selection unit 3 determines a predetermined motion / motion relating to the target (for example, when targeting a person, a change in facial expression such as emotions and emotions, and a mouth shape corresponding to a spoken word). It is used to interactively select and generate a moving image that is related to changes in the shape of the face, such as changes in face shape, to walking, running legs, or body movements during sports play, etc. at a certain position in the background image. Be seen.

【0018】局所特徴要素配置・変形部4は、視点位置
入力部2、対象運動モード選択部3からの情報を受けて
対象の立体形状、視点位置を反映した画像を再生する為
に、例えば視点が変わることによって生じる局所的特徴
要素の撮像面上の相対位置変化およびそれぞれの要素の
変形を生じさせるものである。
The local feature element placement / deformation unit 4 receives information from the viewpoint position input unit 2 and the target motion mode selection unit 3, and reproduces an image reflecting the three-dimensional shape and viewpoint position of the target. Changes the relative position of the local feature element on the imaging surface and the deformation of each element.

【0019】特徴要素間補間用曲線生成部5は、局所特
徴要素配置・変形部4の出力を受けて特徴要素間を正し
く、滑らかに曲線要素で補間するように生成処理を行な
うものである。
The inter-feature element interpolation curve generation unit 5 receives the output of the local feature element arrangement / deformation unit 4 and performs a generation process so that the inter-feature elements are correctly and smoothly interpolated by the curvilinear elements.

【0020】画像データベース6は、対象画像の背景と
なる背景画像を記憶する画像記憶部である。
The image database 6 is an image storage unit that stores a background image that is the background of the target image.

【0021】画像合成部7は、特定対象以外の背景とな
る画像を画像データベース6から取り込み、対象画像と
合成するための処理部である。
The image synthesizing unit 7 is a processing unit for fetching an image serving as a background other than the specific target from the image database 6 and synthesizing the image with the target image.

【0022】画像表示部8は合成後の画像を表示する為
のディスプレイ手段とその駆動手段を含む。
The image display unit 8 includes display means for displaying the combined image and its driving means.

【0023】次に、本実施例における構造情報記憶部1
での情報記憶形式を、顔の3次元アニメーション画像を
例にして説明する。
Next, the structure information storage unit 1 in this embodiment.
The information storage format will be described by taking a three-dimensional animation image of a face as an example.

【0024】本実施例では、顔の画像情報を、顔を構成
するパーツ(例えば、目、鼻、口、耳など)ごとに、図
2に示される局所的特徴要素とそれらの3次元空間配置
をパーツ画像の構造情報として保持し、さらに各パーツ
とその(重心)位置関係を顔画像の構造情報として保持
する。例えば、パーツの一つとしての目の画像の基本構
造情報は、目頭、目尻に相当する部位にL型交差要素
In the present embodiment, the face image information is used for the local feature elements shown in FIG. 2 and their three-dimensional spatial arrangement for each part (eg, eyes, nose, mouth, ears, etc.) that constitutes the face. Is held as the structural information of the part image, and further, each part and its (center of gravity) positional relationship are held as the structural information of the face image. For example, the basic structural information of an image of an eye as one of the parts is L-shaped intersection elements at the parts corresponding to the inner and outer corners of the eye.

【0025】[0025]

【数1】 を、目上,目下の弧状曲線部位に曲線(曲率)要素[Equation 1] Is a curve (curvature) element in the arcuate curve part above and below

【0026】[0026]

【数2】 を割り当てた局所的特徴要素と、それらの代表点位置
(例えば、左右上下端点座標など)を記憶する。尚、目
の輪郭の画像構造情報としては、上述した構成に限定さ
れるものではなく、例えば、目上、目下に相当する2つ
の曲線(曲率)要素
[Equation 2] The local feature elements to which is assigned and their representative point positions (for example, left and right upper and lower end point coordinates) are stored. The image structure information of the contour of the eye is not limited to the above-mentioned configuration, and for example, two curve (curvature) elements corresponding to above and below the eyes.

【0027】[0027]

【数3】 とその代表点位置で表現してもよい。[Equation 3] May be represented by the position of the representative point.

【0028】さらに、瞳の形状を表現するのに必要な構
造情報としては、所定の半径の円Crとその中心位置で
表わしてもよいし、2つの曲率要素
Further, the structural information necessary for expressing the shape of the pupil may be expressed by a circle Cr having a predetermined radius and its center position, or two curvature elements.

【0029】[0029]

【数4】 とそれらの代表点位置として表わしてもよい。この場合
には、目上、目下に相当する曲率要素との交点で生じる
T型交差の位置
[Equation 4] And their representative point positions may be represented. In this case, the position of the T-shaped intersection that occurs at the intersections with the curvature elements corresponding to above and below

【0030】[0030]

【数5】 をその構造情報に含めてもよい。[Equation 5] May be included in the structural information.

【0031】このような顔画像の基本構造情報として
は、前向き正面から見た画像を所定サイズで表示したも
のを正準画像情報としてデフォルト的に記憶しておく。
As the basic structure information of such a face image, an image viewed from the front and the front in a predetermined size is stored as canonical image information by default.

【0032】さらに、視点位置を正面方向から例えば4
5°,90°,135°,180°方向に水平面内で変
えたときの画像の構造情報として同様にそれぞれに対応
する原画像から基本構造情報と同様に局所的特徴要素と
それらの空間配置情報を記憶しておく。
Further, the viewpoint position is, for example, 4 from the front direction.
Similarly, as the structural information of the image when changed in the horizontal plane in the directions of 5 °, 90 °, 135 °, and 180 °, the local feature elements and their spatial arrangement information as well as the basic structural information from the corresponding original images. Remember.

【0033】特徴要素配置・変形部4は、視点位置入力
部2または運動モード選択部3からの情報を受けて任意
の視点位置からの画像を生成する為に、予め得た離散的
な視点方向別構造情報データから当該視点方向の画像中
の各特徴要素の見かけの形状と空間配置データを予測、
生成する。
The characteristic element arrangement / deformation unit 4 receives the information from the viewpoint position input unit 2 or the motion mode selection unit 3 to generate an image from an arbitrary viewpoint position, and obtains a discrete viewpoint direction obtained in advance. Predict the apparent shape and spatial arrangement data of each feature element in the image of the viewpoint direction from the different structure information data,
To generate.

【0034】そこで以下に、その方法を詳述する。Therefore, the method will be described in detail below.

【0035】3次元アニメーションなど線画ベースで画
像を表現する際、仮想的な視点方向が変わることによっ
て、輪郭データの変形、消出、生成が起こる。本実施例
では、これらのうち消出、生成については、それらの生
起する視点方向角度データθ iとそのときの構造情報デ
ータ
Drawing based on line drawing such as 3D animation
When expressing an image, the virtual viewpoint changes
Then, the transformation, deletion, and generation of the contour data occur. Example
Then, of these, as for extinction and generation,
Angle data of viewpoint direction θ iAnd the structural information
Data

【0036】[0036]

【数6】 を求める。尚、[Equation 6] Ask for. still,

【0037】[0037]

【数7】 はj番目の位置[Equation 7] Is the jth position

【0038】[0038]

【数8】 に存在する局所的特徴要素を表わす。N(i)は視点方
向θiに対応する対象画像の全特徴要素数を示す。
[Equation 8] Represents a local feature element existing in the. N (i) indicates the total number of characteristic elements of the target image corresponding to the viewpoint direction θ i .

【0039】次に、視点方向θ(θi-1<θ<θi)での
構造情報データ
Next, structural information data in the viewpoint direction θ (θ i-1 <θ <θ i ).

【0040】[0040]

【数9】 を生成する。ここで、[Equation 9] To generate. here,

【0041】[0041]

【数10】 、Fはfk i-1,fk iから視点方向θでの対応する特徴要
[Equation 10] , F are the corresponding feature elements in the viewpoint direction θ from f k i−1 , f k i

【0042】[0042]

【数11】 の位置[Equation 11] Position of

【0043】[0043]

【数12】 および形状(例えば、L型交差の交差角、向き、曲率要
素の曲率、向きなど)を予測する関数であり、二つの特
徴要素fk i-1,fk iの位置および形状データをθ(θ
i-1<θ<θi)の値から補間する。例えば、線形補間の
場合、
[Equation 12] And a shape (for example, a crossing angle of L-shaped intersection, a direction, a curvature of a curvature element, a direction, etc.), and the position and shape data of two feature elements f k i-1 and f k i are represented by θ ( θ
Interpolation is performed from the value of i-1 <θ <θ i ). For example, for linear interpolation,

【0044】[0044]

【数13】 尚、[Equation 13] still,

【0045】[0045]

【数14】 などは局所的特徴要素の形状パラメータを示し、L型交
差の場合は交差角、曲率要素の場合は曲率を表わす。
[Equation 14] Represents the shape parameter of the local feature element, and represents the intersection angle in the case of the L-shaped intersection and the curvature in the case of the curvature element.

【0046】本実施例では、補間の方式に上記のような
線形方式が用いられているが、本発明はこれに限られる
ものではない。
In the present embodiment, the linear method as described above is used as the interpolation method, but the present invention is not limited to this.

【0047】また、In addition,

【0048】[0048]

【数15】 は視点方向θi-1,θi両者の画像に共通して存在する同
じ種類(例えば、L型交差、曲率要素などの種別)の特
徴要素について定義されたが、θi-1≦θ<θiで存在
し、θi<θ≦θi+1では消失する特徴要素についてはそ
の空間位置
[Equation 15] Is defined for characteristic elements of the same type (for example, types of L-shaped intersections, curvature elements, etc.) that are common to both images of the viewpoint directions θ i−1 and θ i , but θ i−1 ≦ θ < The spatial position of a feature element that exists at θ i and disappears at θ i <θ ≤ θ i + 1

【0049】[0049]

【数16】 は前述と同様の補間により求め、その形状は不変とする
か、あるいは別途、(θ,θi)の範囲の一視点方向か
らの画像に基いて構造データを生成することにより、位
置、形状の補間データを得てもよい。
[Equation 16] Is obtained by the same interpolation as described above, and its shape is invariable, or separately, by generating structural data based on the image from one viewpoint direction in the range of (θ, θ i ), the position and shape can be calculated. Interpolated data may be obtained.

【0050】上述の様にして、所定の視点位置、対象運
動モードにおける特徴要素の形状、配置データを得た
後、補間用曲線生成部5において、先ず、顔画像のパー
ツ(例えば、目、鼻、口など)ごとに特徴要素間を滑ら
かに結ぶ曲線を生成する。
After the predetermined viewpoint position, the shape of the characteristic element in the target motion mode, and the arrangement data have been obtained as described above, the interpolating curve generating section 5 first sets the face image parts (for example, eyes and nose). , Mouth, etc.) to generate a curve that smoothly connects the feature elements.

【0051】次に、その生成方法をパーツの一つである
目の画像の生成を例に採って説明する。
Next, the generation method will be described taking the generation of an eye image, which is one of the parts, as an example.

【0052】図3は、目を二つのL型交差FIG. 3 shows two L-shaped intersections of eyes.

【0053】[0053]

【数17】 、4種の曲率要素[Equation 17] 4 curvature elements

【0054】[0054]

【数18】 の空間配置による構造情報として記述した場合にこれら
局所的特徴要素間を滑らかに連結する方法の例を示す。
[Equation 18] An example of a method for smoothly connecting these local feature elements when described as structural information based on the spatial arrangement of is shown.

【0055】図3中、各特徴要素のサイズパラメータσ
が予め設定されているとすると、L型交差はそれを構成
する二つのラインセグメントの長さの和がσと同程度、
曲率要素の場合、弧長がσと同程度である。の場合、
特徴要素間補間用曲線生成部5はL型交差L1を構成す
る一方のラインセグメントL11の端点と
In FIG. 3, the size parameter σ of each feature element
Is set in advance, the sum of the lengths of the two line segments forming the L-shaped intersection is about the same as σ,
For curvature elements, the arc length is comparable to σ. in the case of,
The inter-feature element interpolation curve generation unit 5 defines the end point of one line segment L 11 that constitutes the L-shaped intersection L 1.

【0056】[0056]

【数19】 の一端とを直線(図中、点線で表示)で結ぶ。同様にし
て、L1を構成する他方のラインセグメントL12とC1
[Formula 19] Connect one end with a straight line (indicated by a dotted line in the figure). Similarly, other line segments L 12 and C 1 constituting the L 1,

【0057】[0057]

【数20】 とを直線で結合することにより目の輪郭を形成する。[Equation 20] The eye contour is formed by connecting and with a straight line.

【0058】また、図3のでは、特徴要素間の滑らか
な結合をSpline曲線の生成によって行なう。例え
ば、3次のSpline曲線要素により結合する場合、
予め設定された座標系においてy=ax3+bx2+cx
+dの各係数値が結合すべき特徴要素の各端点において
傾きが一致するように選ぶ。描画範囲は特徴要素の各端
点の座標を求めることに決めることができる。
Further, in FIG. 3, smooth connection between the characteristic elements is performed by generating a Spline curve. For example, when connecting by a cubic Spline curve element,
Y = ax 3 + bx 2 + cx in a preset coordinate system
The coefficient values of + d are selected so that their slopes match at each end point of the feature element to be combined. The drawing range can be determined by obtaining the coordinates of each end point of the feature element.

【0059】さらに、の方式は、Snakesと呼ば
れる輪郭線モデル(M.Kass,A.Witkin,D.Terzopoulos:「S
nakes:Active contour models」 International Journal
ofComputer Vision, Vol.1, pp.321-331)を適用する
ものであり、輪郭線v(s)=(x(s),y(s))に対
し、評価関数
Furthermore, the method of is based on a contour model called Snakes (M.Kass, A. Witkin, D. Terzopoulos: "S
nakes: Active contour models '' International Journal
of Computer Vision, Vol.1, pp.321-331) is applied, and the evaluation function is applied to the contour line v (s) = (x (s), y (s)).

【0060】[0060]

【数21】 を最小にする輪郭線v(s)を求めるものであって、V
i(s)(s)はSnakesの制御点(線)であり、局所
的特徴要素の線または曲線要素に相当する。添字i(s)
は特徴要素に適当な方法で符番したときの番号に相当す
る。
[Equation 21] To obtain a contour line v (s) that minimizes
i (s) (s) is a control point (line) of Snakes, and corresponds to a line or a curve element of a local feature element. Subscript i (s)
Corresponds to the number when the characteristic element is numbered by an appropriate method.

【0061】このように局所的特徴要素間の補間用曲線
の生成方法について説明したが、本発明はこれに特に限
定されるものではない。
Although the method of generating a curve for interpolation between local feature elements has been described above, the present invention is not particularly limited to this.

【0062】上述の様にして、対象の全体画像の各パー
ツごとに特徴要素間を結線することにより各パーツの線
画像を生成する。
As described above, the line image of each part is generated by connecting the characteristic elements for each part of the entire image of the target.

【0063】対象運動モードの選択部3で設定された場
合には、それぞれの運動、動作などに応じて予め用意さ
れたモデルに基いて時系列的に局所的特徴要素の配置・
変形が局所特徴要素配置・変形部4によって生成され、
その都度、補間用曲線生成部5で形状補間処理が行なわ
れて対象の動画像が生成される。尚、動画像は観察者の
視点位置を反映したものであることは言うまでもない。
When the target motion mode is set by the selection unit 3, the local feature elements are arranged and arranged in time series based on a model prepared in advance according to each motion and motion.
A transformation is generated by the local feature element placement / transformation unit 4,
Each time, the interpolation curve generator 5 performs shape interpolation processing to generate a target moving image. It goes without saying that the moving image reflects the viewpoint position of the observer.

【0064】さらに、本実施例では対象画像と予め画像
データベース6に用意された背景画像を選択して画像合
成部7により合成処理を行なう。その際、対象画像にテ
クスチャアッピングを行なって陰影、色、模様などを付
加してもよい。図4は、顔画像の場合の構造情報と復元
画像を示す。
Further, in the present embodiment, the target image and the background image prepared in advance in the image database 6 are selected and the image synthesizing unit 7 performs the synthesizing process. At that time, the target image may be texture-applied to add a shadow, a color, a pattern, or the like. FIG. 4 shows structure information and a restored image in the case of a face image.

【0065】対象の運動・動作の種類によって決まる局
所的特徴要素の形状、配置の時系列データは、実写動画
像から所定の局所特徴要素抽出方式に基いて生成しても
よいし、計算機上で運動、動作モデルとして生成しても
よい。図5は、そのような時系列データの記憶形式の一
例を示す。
The time-series data of the shape and arrangement of the local feature elements determined by the type of motion / motion of the object may be generated from the actual moving image based on a predetermined local feature element extraction method, or on a computer. It may be generated as a motion / motion model. FIG. 5 shows an example of a storage format of such time series data.

【0066】図5中、符号jは画像フレーム番号、符号
Nはそのフレーム中の対象画像の特徴要素、符号fは特
徴要素タイプ、符号
In FIG. 5, reference numeral j is an image frame number, reference numeral N is a characteristic element of the target image in the frame, reference numeral f is a characteristic element type, reference numeral.

【0067】[0067]

【数22】 はその代表点位置で、x,yはフレーム中の横、縦方向
画素位置を表わす。
[Equation 22] Represents the position of the representative point, and x and y represent the horizontal and vertical pixel positions in the frame.

【0068】このようにして図1に示した局所特徴要素
配置・変形部4は、特徴要素分のそれぞれの種別、代表
点位置を制御パラメータとして読み込み、さらに、それ
ぞれの特徴要素に視点位置に応じた配置、形状の適切な
変更を行なう。
In this way, the local feature element arranging / deforming unit 4 shown in FIG. 1 reads in the respective types and representative point positions of the feature elements as control parameters, and further, according to the viewpoint position of each feature element. Make appropriate changes to the layout and shape.

【0069】尚、図5に示されるデータは、図1に示し
た構造情報記憶部1に内蔵される顔画像中のあるパーツ
に関する視線方向別データの例を示している。必要があ
れば、さらに特徴要素の形状を決めるパラメータの値を
所定の形式で記憶してもよい。
Note that the data shown in FIG. 5 shows an example of line-of-sight direction data regarding a certain part in the face image contained in the structure information storage unit 1 shown in FIG. If necessary, the value of the parameter that determines the shape of the characteristic element may be stored in a predetermined format.

【0070】(他の実施例)図6は、本発明の画像生成
方法を好適に実施する装置の他の構成例を示すブロック
図である。この図に基づく下記の説明にて、上記実施例
と同一構成要素には同一符号を付し、その説明を省略す
る。
(Other Embodiments) FIG. 6 is a block diagram showing another example of the configuration of an apparatus for suitably implementing the image generating method of the present invention. In the following description based on this figure, the same components as those in the above embodiment are designated by the same reference numerals, and the description thereof will be omitted.

【0071】本実施例は、局所的特徴要素として3次元
的な面要素を用い、特徴要素間補間用曲面生成部15で
特徴要素間を滑らかに結ぶ面を生成することが特徴であ
る。図7は、図6に示した画像生成装置で用いる局所的
特徴要素の例を示す。
The present embodiment is characterized in that a three-dimensional surface element is used as a local characteristic element, and a surface for smoothly interpolating the characteristic elements is generated by the inter-characteristic element curved surface generation unit 15. FIG. 7 shows an example of local feature elements used in the image generating apparatus shown in FIG.

【0072】この図にて、SLiは二つの平面要素がL
字型に交差してできるL字型面要素であり、交差角度と
その向き(交差角を2等分し、交差線分と直交する方
向)に応じて離散的に設定される。
In this figure, SL i has two plane elements L
It is an L-shaped surface element formed by intersecting in a V shape, and is discretely set according to the intersection angle and its direction (the direction that divides the intersection angle into two equal parts and is orthogonal to the intersection line segment).

【0073】SCiはガウス曲率、平均曲率(または、
二つの主曲率)およびその中心点の法ベクトル、サイズ
パラメータによって指定される曲面要素であり、SLi
と同様に指定パラメータの離散的なセットによって予め
設定される。SC1,SC2,SC3は二つの主曲率の符
号の組合せの異なる面要素を示す。
SC i is Gaussian curvature, mean curvature (or
Two principal curvatures), a center vector of the center point, and a curved surface element specified by a size parameter, and SL i
Similarly, is preset by a discrete set of specified parameters. SC 1 , SC 2 , and SC 3 represent different surface elements with different combinations of signs of the two principal curvatures.

【0074】対象物体の画像を生成する為には特徴要素
間補間用曲面生成部15で特徴要素の間を滑らかに埋め
る曲線データをx,y,z座標として生成した後、視点
方向、位置に基いて隠面処理を行ない、さらに、光線方
向と面の反射特性を反映した陰影、色、模様などを付加
して画像表示部8で表示する。
In order to generate the image of the target object, the inter-feature element interpolating curved surface producing section 15 produces curve data for smoothly filling the space between the feature elements as x, y, z coordinates, and then, in the viewpoint direction and position. Based on the hidden surface processing, a shadow, a color, a pattern, etc. reflecting the ray direction and the reflection characteristics of the surface are added and displayed on the image display unit 8.

【0075】[0075]

【発明の効果】以上説明したように本発明は、予め定義
された局所的特徴要素の空間配置を画像の構造情報とし
て表現することにより、特定対象の画像を異なる任意の
視点位置から生成したり、対象の動きに伴った画像を生
成したりすることがワイヤフレームモデルなどの詳細な
3次元形状モデルなしでできる。
As described above, according to the present invention, the image of the specific object is generated from different arbitrary viewpoint positions by expressing the spatial arrangement of the local feature elements defined in advance as the structural information of the image. It is possible to generate an image according to the movement of a target without a detailed three-dimensional shape model such as a wire frame model.

【0076】このため、3次元画像の生成に必要なデー
タ数を従来と比べて大幅に減らすことができる。
Therefore, the number of data required to generate a three-dimensional image can be greatly reduced compared to the conventional case.

【0077】さらに、視点位置の変化に伴う遮蔽輪郭の
生成、消滅を予め記憶させることができるので、物体の
3次元形状モデルと視点位置から幾何学的演算を行なっ
て表示する方式に比べて演算コスト、処理時間ともに低
減させることができる。
Further, since the generation and disappearance of the shielding contour due to the change of the viewpoint position can be stored in advance, the calculation is performed as compared with the method in which the geometrical calculation is performed from the three-dimensional shape model of the object and the viewpoint position. Both cost and processing time can be reduced.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の画像生成方法を好適に実施する装置の
一構成例を示すブロック図である。
FIG. 1 is a block diagram showing a configuration example of an apparatus that preferably implements an image generation method of the present invention.

【図2】図1に示す構造情報記憶部に記憶された局所的
特徴要素の一例を示した図である。
FIG. 2 is a diagram showing an example of local feature elements stored in a structure information storage unit shown in FIG.

【図3】目を二つのL型交差、4種の曲率要素の空間配
置による構造情報として記述した場合にこれら局所的特
徴要素間を滑らかに連結する方法の例を説明するための
図である。
FIG. 3 is a diagram for explaining an example of a method for smoothly connecting local feature elements when an eye is described as structural information by spatial arrangement of two L-shaped intersections and four types of curvature elements. .

【図4】顔画像の場合の構造情報と復元画像を示す図で
ある。
FIG. 4 is a diagram showing structure information and a restored image in the case of a face image.

【図5】局所的特徴要素の形状、配置の時系列データの
記憶形式の一例を示す図である。
FIG. 5 is a diagram showing an example of a storage format of time-series data of shapes and arrangements of local feature elements.

【図6】本発明の画像生成方法を好適に実施する装置の
他の構成例を示すブロック図である。
FIG. 6 is a block diagram showing another configuration example of an apparatus that preferably implements the image generation method of the present invention.

【図7】図6に示した画像生成装置で用いる局所的特徴
要素の例を示す図である。
7 is a diagram showing an example of local feature elements used in the image generating apparatus shown in FIG.

【符号の説明】[Explanation of symbols]

1 対象画像の構造情報記憶部 2 視点位置入力部 3 対象運動モード選択部 4 局所特徴要素配置・変形部 5 特徴要素間補間用曲線生成部 6 画像データベース 7 画像合成部 8 画像表示部 15 特徴要素間補間用曲面生成部 1 target image structure information storage unit 2 viewpoint position input unit 3 target motion mode selection unit 4 local feature element placement / deformation unit 5 inter-feature element interpolation curve generation unit 6 image database 7 image synthesis unit 8 image display unit 15 feature element Curved surface generator for interpolating

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 予め定義された局所的特徴要素とそれら
の空間的配置情報とを画像の構造情報として記憶し、該
構造情報に基づき画像を生成することを特徴とする画像
生成方法。
1. An image generation method characterized in that a local feature element defined in advance and spatial arrangement information thereof are stored as image structure information, and an image is generated based on the structure information.
【請求項2】 前記局所的特徴要素は、空間的に離散し
て存在する輪郭線からなることを特徴とする、請求項1
に記載の画像生成方法。
2. The local feature element comprises a contour line that is spatially discrete and present.
The image generation method described in.
【請求項3】 前記局所的特徴要素は、複数方向のエッ
ジセグメントの交差パターン、曲率一定の曲線またはそ
の一部、およびエッジセグメントからなり、前記局所的
特徴要素間を所定の方法で滑らかに結ぶことにより、画
像の一部を生成することを特徴とする、請求項1に記載
の画像生成方法。
3. The local feature element comprises an intersection pattern of edge segments in a plurality of directions, a curve having a constant curvature or a part thereof, and an edge segment, and the local feature elements are smoothly connected by a predetermined method. The image generation method according to claim 1, wherein a part of the image is generated thereby.
【請求項4】 前記構造情報は、視点位置の変化に伴っ
て生成、消失する際の、それぞれの視点位置での局所的
特徴要素とその空間的配置情報であることを特徴とす
る、請求項1に記載の画像生成方法。
4. The structure information is local feature elements and spatial arrangement information at each viewpoint position when the structure information is generated and disappears with a change in the viewpoint position. 1. The image generation method described in 1.
【請求項5】 前記局所的特徴要素は3次元空間に配置
された面要素であり、前記局所的特徴要素間を滑らかに
連結する補間用曲面データを生成することを特徴とす
る、請求項1に記載の画像生成方法。
5. The local feature element is a surface element arranged in a three-dimensional space, and curved surface data for interpolation that smoothly connects the local feature elements is generated. The image generation method described in.
【請求項6】 予め定義された局所的特徴要素とそれら
の空間的配置を対象画像の構造情報として記憶する構造
情報記憶部と、 画像を見るときの仮想的な対象に対する視点位置を入力
するための視点位置入力部と、 前記対象に関する予め決められた運動モードを選択する
ための運動モード選択部と、 前記視点位置入力部および前記運動モード選択部からの
入力情報に基いて、前記構造情報記憶部の情報を変更す
る局所特徴要素配置・変形部と、 前記局所特徴要素配置・変形部からの情報を受けて、各
局所的特徴要素間を補間する曲線または曲面を生成する
生成部と、 前記対象画像の背景となる背景画像を記憶する画像記憶
部と、 前記画像記憶部から背景画像を取り込み、前記生成部で
生成処理された対象画像と合成させるための画像合成部
と、 前記画像合成部で形成された画像を表示する画像表示部
と、からなる画像生成装置。
6. A structure information storage unit for storing predefined local feature elements and their spatial arrangement as structure information of a target image, and for inputting a viewpoint position with respect to a virtual target when viewing the image. Point of view position input unit, a motion mode selection unit for selecting a predetermined motion mode for the object, based on the input information from the viewpoint position input unit and the motion mode selection unit, the structural information storage A local feature element arrangement / deformation unit that changes information of a part; a generation unit that receives information from the local feature element arrangement / deformation unit and generates a curve or a curved surface that interpolates between the local feature elements; An image storage unit that stores a background image that is the background of the target image, and an image composition unit that captures the background image from the image storage unit and combines the background image with the target image that has been generated and processed by the generation unit. And an image display unit that displays the image formed by the image composition unit.
JP10813994A 1994-02-02 1994-05-23 Image generation method and image generation device Expired - Fee Related JP3023903B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP10813994A JP3023903B2 (en) 1994-05-23 1994-05-23 Image generation method and image generation device
US08/893,929 US6463176B1 (en) 1994-02-02 1997-07-15 Image recognition/reproduction method and apparatus
US10/265,923 US6907140B2 (en) 1994-02-02 2002-10-07 Image recognition/reproduction method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10813994A JP3023903B2 (en) 1994-05-23 1994-05-23 Image generation method and image generation device

Publications (2)

Publication Number Publication Date
JPH07320086A true JPH07320086A (en) 1995-12-08
JP3023903B2 JP3023903B2 (en) 2000-03-21

Family

ID=14476933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10813994A Expired - Fee Related JP3023903B2 (en) 1994-02-02 1994-05-23 Image generation method and image generation device

Country Status (1)

Country Link
JP (1) JP3023903B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6987535B1 (en) 1998-11-09 2006-01-17 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6987535B1 (en) 1998-11-09 2006-01-17 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Also Published As

Publication number Publication date
JP3023903B2 (en) 2000-03-21

Similar Documents

Publication Publication Date Title
JP4473754B2 (en) Virtual fitting device
US9607419B2 (en) Method of fitting virtual item using human body model and system for providing fitting service of virtual item
US10096157B2 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
JP5818773B2 (en) Image processing apparatus, image processing method, and program
KR101707707B1 (en) Method for fiiting virtual items using human body model and system for providing fitting service of virtual items
KR101560508B1 (en) Method and arrangement for 3-dimensional image model adaptation
CN110648274B (en) Method and device for generating fisheye image
JPH09319896A (en) Three-dimensional image generating device
KR100317138B1 (en) Three-dimensional face synthesis method using facial texture image from several views
EP3731191A1 (en) Image generation device and image generation method
JPH09305798A (en) Image display device
JP3643511B2 (en) 3D image processing method, 3D modeling method, and recording medium recording 3D image processing program
JP2002324249A (en) Image display system and its method
JPH06118349A (en) Spectacles fitting simulation device
JPH0950540A (en) Method for generating picture
KR20030054360A (en) Apparatus and Method for Converting 2D Images to 3D Object
JP3850080B2 (en) Image generation and display device
JP7394566B2 (en) Image processing device, image processing method, and image processing program
JP3023903B2 (en) Image generation method and image generation device
JPH09138865A (en) Three-dimensional shape data processor
CN112561784A (en) Image synthesis method, image synthesis device, electronic equipment and storage medium
JPH0223473A (en) Variable density adding method and device for three-dimensional form model
US6633291B1 (en) Method and apparatus for displaying an image
JP3648099B2 (en) Image composition display method and apparatus, and recording medium on which image composition display program is recorded
JP2002056407A (en) Image generation system

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090121

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090121

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100121

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110121

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120121

Year of fee payment: 12

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130121

Year of fee payment: 13

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 14

LAPS Cancellation because of no payment of annual fees