JP2784097B2 - Image synthesizer - Google Patents

Image synthesizer

Info

Publication number
JP2784097B2
JP2784097B2 JP3098052A JP9805291A JP2784097B2 JP 2784097 B2 JP2784097 B2 JP 2784097B2 JP 3098052 A JP3098052 A JP 3098052A JP 9805291 A JP9805291 A JP 9805291A JP 2784097 B2 JP2784097 B2 JP 2784097B2
Authority
JP
Japan
Prior art keywords
information
image
wire frame
dimensional
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3098052A
Other languages
Japanese (ja)
Other versions
JPH04306782A (en
Inventor
明子 馬橋
隆浩 福原
篤道 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP3098052A priority Critical patent/JP2784097B2/en
Publication of JPH04306782A publication Critical patent/JPH04306782A/en
Application granted granted Critical
Publication of JP2784097B2 publication Critical patent/JP2784097B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、画像を3次元方向に変
形、合成し、合成画像出力を供する画像合成器に関する
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesizer for deforming and synthesizing an image in a three-dimensional direction and providing a synthesized image output.

【0002】[0002]

【従来の技術】図6は、例えば特開平1−162492
号公報に示された従来の画像伝送方式の概念図である。
図6において、11はコードブック、12はメモリ、1
3は合成部、116は音声情報中の音素符号、117は
口形パラメータ情報、118は口画像情報、119は口
以外の顔画像情報、120は再生顔画像情報である。
2. Description of the Related Art FIG.
FIG. 1 is a conceptual diagram of a conventional image transmission system disclosed in Japanese Patent Application Laid-Open Publication No. HEI 10-125, 1988.
In FIG. 6, 11 is a code book, 12 is a memory, 1
Reference numeral 3 denotes a synthesis unit, 116 denotes phoneme codes in audio information, 117 denotes mouth shape parameter information, 118 denotes mouth image information, 119 denotes face image information other than the mouth, and 120 denotes reproduced face image information.

【0003】次に、動作について説明する。まず、送信
側からの音声情報中の音素符号116に対して、図7の
ような口形モデル画像のパラメータ値を全音素符号に対
して記憶したコードブック11から、対応する口形パラ
メータ117を選択する。該口形パラメータ117に基
づいて、口部分の幾何学的形状を示す1組の口形パラメ
ータによって定義される図8のような口形モデル画像を
記憶したメモリ12中の口形モデル画像を変形する。該
口形モデル画像118と、送信側からの口部以外の顔動
画像119を合成部13において合成し、再生顔画像情
報120を出力する構成である。
Next, the operation will be described. First, for the phoneme code 116 in the voice information from the transmitting side, the corresponding mouth shape parameter 117 is selected from the codebook 11 in which the parameter values of the mouth shape model image are stored for all phoneme codes as shown in FIG. . Based on the mouth shape parameter 117, the mouth shape model image in the memory 12 storing the mouth shape model image as shown in FIG. 8 defined by a set of mouth shape parameters indicating the geometric shape of the mouth portion is modified. The mouth shape model image 118 and the face moving image 119 other than the mouth from the transmitting side are synthesized by the synthesizing unit 13 and the reproduced face image information 120 is output.

【0004】[0004]

【発明が解決しようとする課題】従来の画像伝送方式
は、以上のように構成されているので、カメラなどの撮
像系により入力された口以外の顔画像情報は、原画像に
限られるため合成部より出力される再生画像は、口以外
は入力画像と同一のものに限られる。従って、合成画像
の対象となる顔画像に対して、複数の濃淡情報を選択す
ることができない(口形モデル画像を除く)という問題
点があった。
Since the conventional image transmission system is configured as described above, the face image information other than the mouth inputted by the image pickup system such as a camera is limited to the original image, so that it is composed. The reproduced image output from the unit is limited to the same image as the input image except for the mouth. Therefore, there has been a problem that a plurality of shade information cannot be selected (except for the mouth shape model image) for the face image to be the target of the composite image.

【0005】この発明は、かかる問題点を解決するため
になされたものであり、複数の濃淡情報を複数の3次元
ワイヤーフレームにテキスチャマッピング処理すること
によって原画像と異なる合成画像を任意に自動生成する
ことを目的としている。
SUMMARY OF THE INVENTION The present invention has been made to solve such a problem, and arbitrarily automatically generates a composite image different from an original image by performing texture mapping processing of a plurality of grayscale information on a plurality of three-dimensional wireframes. It is intended to be.

【0006】[0006]

【課題を解決するための手段】この発明は、画像入力部
より入力した被写体画像の3次元構成情報に従い、基本
となる3次元ワイヤーフレームを変形しワイヤーフレー
ム情報を出力する3次元ワイヤーフレーム変形部と、ワ
イヤーフレーム情報と濃淡情報に基づいて画像を整合す
る合成画像生成処理部と、複数のワイヤーフレーム情報
を格納したワイヤーフレーム情報格納部と、この格納部
のワイヤーフレーム情報と上記3次元ワイヤーフレーム
変形部の出力を合成画像生成処理部に対して切り換え出
力する第1切り換え手段と、各種濃淡情報を格納した濃
淡情報格納部と、この格納部からの濃淡情報と上記被写
体画像より得られた濃淡情報を上記合成画像生成処理部
に対して切り換え出力する第2切り換え手段とを備え、
上記合成画像生成処理部は、最低2個の3次元ワイヤー
フレームと最低2個の濃淡情報に対して各々の合成配分
値を任意に決定するものである。
According to the present invention, there is provided a three-dimensional wire frame deforming unit for deforming a basic three-dimensional wire frame and outputting wire frame information in accordance with three-dimensional configuration information of a subject image input from an image input unit. A combined image generation processing unit for matching images based on the wire frame information and the grayscale information; a wire frame information storage unit storing a plurality of wire frame information; a wire frame information of the storage unit and the three-dimensional wire frame First switching means for switching and outputting the output of the deforming section to the composite image generation processing section, a density information storage section storing various density information, density information from this storage section, and density obtained from the subject image Second switching means for switching and outputting information to the composite image generation processing unit,
The composite image generation processing unit includes at least two three-dimensional wires
Each composite distribution for frame and at least two shade information
The value is arbitrarily determined.

【0007】また、この発明は、上記発明に如え、対象
物にスリット光を投射した被写体画像から特徴点を抽出
し、その特徴点に基づいて被写体の3次元構造情報を算
出する3次元デジタイザを設けたものである。
Further, according to the present invention, there is provided a three-dimensional digitizer for extracting a feature point from a subject image obtained by projecting slit light on an object and calculating three-dimensional structure information of the subject based on the feature point. Is provided.

【0008】[0008]

【作用】この発明による3次元ワイヤーフレーム変形部
においては、基本3次元ワイヤーフレームを上記の手法
で計測した被写体の3次元座標により変形し、被写体画
像に整合された3次元ワイヤーフレームを得、また、合
成画像生成処理部の入力は、被写体画像に整合した3次
元ワイヤーフレーム情報とワイヤーフレーム情報格納部
中の他の3次元ワイヤーフレーム情報を自由に選択でき
るように第1の切り換え手段を設ける。
In the three-dimensional wire frame deforming unit according to the present invention, the basic three-dimensional wire frame is deformed by the three-dimensional coordinates of the subject measured by the above-described method, and a three-dimensional wire frame matched with the subject image is obtained. The input of the composite image generation processing unit is provided with first switching means so that three-dimensional wire frame information matched with the subject image and other three-dimensional wire frame information in the wire frame information storage unit can be freely selected.

【0009】他方、被写体画像の濃淡情報と、濃淡情報
格納部中の他の濃淡情報を自由に選択できるように第2
切り換え手段を設け、上記2個の切り換え手段の切り替
えで各入力情報を決定し、選択された3次元ワイヤーフ
レーム情報に選択された濃淡情報をテキスチャマッピン
グ処理することにより、最低2個の3次元ワイヤーフレ
ームと最低2個の濃淡情報に対して各々の合成配分値を
任意に決定することで、無限通りの合成画像を生成する
ことができる。
On the other hand, the second information is provided so that the density information of the subject image and other density information in the density information storage section can be freely selected.
A switching means is provided, each input information is determined by switching between the two switching means, and a texture mapping process is performed on the selected shade information to the selected three-dimensional wire frame information, so that at least two three-dimensional wires are obtained. Fret
And each of the composite distribution values for the
Generate an infinite number of composite images by arbitrarily determining
be able to.

【0010】また上記のように構成された画像合成器に
おける3次元デジタイザは、対象物にスリット光を投射
した被写体画像に対して、対象物の3次元構造を表現す
るために有効な情報となる特徴点を抽出し、得られた各
特徴点の3次元座標を算出し、対象物の3次元構造情報
を抽出する。
The three-dimensional digitizer in the image synthesizer configured as described above becomes effective information for expressing the three-dimensional structure of the object with respect to the object image obtained by projecting the slit light on the object. The feature points are extracted, the three-dimensional coordinates of each obtained feature point are calculated, and the three-dimensional structure information of the object is extracted.

【0011】[0011]

【実施例】実施例1 図1は、この発明の一実施例を示すブロック図である。
図1において、1はスリット光照射部、2は画像入力
部、3はノイズフィルター、4は特徴点抽出部、5は3
次元座標計算部、6は基本3次元ワイヤーフレームデー
タベース、7は3次元ワイヤーフレーム変形部、8は3
次元ワイヤーフレームデータベース、9は濃淡情報デー
タベース、10は合成画像生成処理部である。また、1
01は入力画像、102はスリット光を投射した入力画
像、103はノイズ除去後の入力画像、104は特徴点
情報、105は3次元座標情報、106は基本3次元ワ
イヤーフレーム情報、107は被写体画像の3次元ワイ
ヤーフレーム情報、108は登録されている3次元ワイ
ヤーフレーム情報、109は被写体画像の濃淡情報、1
10は登録されている濃淡情報、111は合成画像出
力、112は入力ワイヤーフレーム情報、113は入力
濃淡情報である。また、同図において、1〜5は既知の
3次元デジタイザを構成するものである。
Embodiment 1 FIG. 1 is a block diagram showing an embodiment of the present invention.
In FIG. 1, 1 is a slit light irradiating unit, 2 is an image input unit, 3 is a noise filter, 4 is a feature point extracting unit, and 5 is 3
Dimensional coordinate calculator, 6 is a basic three-dimensional wireframe database, 7 is a three-dimensional wireframe deformer, 8 is 3
A dimensional wire frame database, 9 is a shade information database, and 10 is a composite image generation processing unit. Also, 1
01 is an input image, 102 is an input image obtained by projecting slit light, 103 is an input image after noise removal, 104 is feature point information, 105 is three-dimensional coordinate information, 106 is basic three-dimensional wireframe information, and 107 is a subject image 108 is registered three-dimensional wire frame information, 109 is shading information of the subject image,
Reference numeral 10 denotes registered grayscale information, 111 denotes a composite image output, 112 denotes input wire frame information, and 113 denotes input grayscale information. Further, in FIG. 1, reference numerals 1 to 5 constitute a known three-dimensional digitizer.

【0012】前記のように構成された合成画像生成器に
おいて、入力画像101に対して、スリット光照射部1
より、スリット光を投射した入力画像102(図2)を
得る。図2において、114は入力画像中の被写体画
像、115は照射したスリット光の点の集合を示してい
る。上記スリット光を照射した入力画像102をノイズ
フィルター3に通し、ノイズ除去後の画像103に対し
特徴点抽出部4において特徴点を抽出する。特徴点抽出
部4より抽出された特徴点情報104については、3次
元座標計算部5で各特徴点の3次元座標を算出する。算
出された3次元座標データ105をもとに基本3次元ワ
イヤーフレームデータベース6中に登録されている基本
3次元ワイヤーフレーム(図3)が3次元ワイヤーフレ
ーム変形部7において被写体画像に整合するように変形
される。
In the composite image generator configured as described above, the slit light irradiating unit 1
Thus, the input image 102 (FIG. 2) on which the slit light is projected is obtained. In FIG. 2, reference numeral 114 denotes a subject image in the input image, and 115 denotes a set of irradiated slit light points. The input image 102 irradiated with the slit light is passed through the noise filter 3, and the feature point extracting unit 4 extracts a feature point from the noise-removed image 103. With respect to the feature point information 104 extracted by the feature point extraction unit 4, the three-dimensional coordinate calculation unit 5 calculates three-dimensional coordinates of each feature point. Based on the calculated three-dimensional coordinate data 105, the basic three-dimensional wire frame (FIG. 3) registered in the basic three-dimensional wire frame database 6 matches the subject image in the three-dimensional wire frame deforming unit 7. Be transformed.

【0013】そして整合後の3次元ワイヤーフレーム情
報107が出力される。さらに、上記被写体画像のワイ
ヤーフレーム情報107と、3次元ワイヤーフレームデ
ータベース8中の他のワイヤーフレーム情報108のど
ちらか一方が第1スイッチsw1の切り換えで合成画像
生成処理部10の入力となる。また、被写体画像の濃淡
情報109または、濃淡情報データベース9中に登録さ
れた他の濃淡情報110のどちらか一方が第2スイッチ
sw2の切り換えで合成画像生成処理部10の入力とな
り、入力ワイヤーフレーム情報112の構成要素である
3角形パッチ単位に、入力濃淡情報113を用いてテキ
スチャマッピング処理することにより、合成画像111
を出力する。
Then, the three-dimensional wire frame information 107 after the matching is output. Further, one of the wire frame information 107 of the subject image and the other wire frame information 108 in the three-dimensional wire frame database 8 is input to the composite image generation processing unit 10 by switching the first switch sw1. Either the grayscale information 109 of the subject image or another grayscale information 110 registered in the grayscale information database 9 is input to the composite image generation processing unit 10 by switching the second switch sw2, and the input wireframe information is input. The texture mapping process is performed by using the input density information 113 for each triangular patch which is a component of the
Is output.

【0014】ここで、ワイヤーフレームデータフォーマ
ットは、同ワイヤーフレームデータベースの構成要素で
ある3角形パッチの3頂点のx,y,z座標及び、3角
形パッチの接続情報である。図4は、これらについて説
明したものであるが、上記の通り(a)、(b)がデー
タファイルとして、3次元ワイヤーフレームデータベー
スに記憶されていることになる。また、基本3次元ワイ
ヤーフレーム情報106、被写体画像の3次元ワイヤー
フレーム情報108は、同図(a)、(b)双方を含む
ものである。
Here, the wireframe data format is the x, y, z coordinates of three vertices of a triangular patch which is a component of the wireframe database, and connection information of the triangular patch. FIG. 4 explains these, but as described above, (a) and (b) are stored in the three-dimensional wireframe database as data files. The basic three-dimensional wireframe information 106 and the three-dimensional wireframe information 108 of the subject image include both FIGS.

【0015】また、図5は、テキスチャマッピング処理
の概要を示したものである。3次元ワイヤーフレームの
構成要素である3角形パッチ内の画素値は斜交座標を用
い、3角形内部の点の位置を2辺に対する長さの比率で
求めることができる。同図において、被写体画像の3次
元ワイヤーフレームの3角形パッチDEF内の任意の点
Pは、各辺のベクトルを用いて、次式のように表すこと
ができる。 A=sP1 +tP2
FIG. 5 shows an outline of the texture mapping process. Pixel values in a triangular patch, which is a component of a three-dimensional wire frame, can be obtained by oblique coordinates, and the position of a point inside the triangular shape can be obtained by a ratio of length to two sides. In the figure, an arbitrary point P in a triangular patch DEF of a three-dimensional wire frame of a subject image can be represented by the following equation using vectors on each side. A = sP1 + tP2

【0016】但し、0≦s≦1、0≦t≦1However, 0 ≦ s ≦ 1, 0 ≦ t ≦ 1

【0017】ここで、ベクトルA、P1 、P2 を、それ
ぞれA=(a1 ,a2 )、P1 =(p11,p12)、P2
=(p21,p22)とおくと上式より、 a1 =sP11+tP12 a2 =sP21+tP22 以上の2式よりs、tを求め、基本3次元ワイヤーフレ
ームの対応する三角形パッチABCに適用することによ
って点Pの対応点Qを得る。従って、3角形パッチAB
Cにおける点Qの濃淡値をもって3角形パッチDEFに
おける点Pの濃淡値とし、3角形DEF名内のすべての
点に対して、上記の操作を同様に行えばよい。
Here, vectors A, P1, and P2 are represented by A = (a1, a2), P1 = (p11, p12), and P2, respectively.
= (P21, p22) From the above equation, a1 = sP11 + tP12 a2 = sP21 + tP22 From the above two equations, s and t are obtained and applied to the corresponding triangular patch ABC of the basic three-dimensional wire frame to correspond to the point P. Get point Q. Therefore, the triangular patch AB
The shading value of the point Q in C is set as the shading value of the point P in the triangular patch DEF, and the above operation may be similarly performed for all the points in the triangular DEF name.

【0018】この結果、1つの入力濃淡情報に対して1
つの入力ワイヤーフレーム情報を用いて画像を生成する
以外に、複数の濃淡情報、あるいは複数のワイヤーフレ
ーム情報に対して、任意の合成配分値が選択でき、汎用
性の向上が期待できる。なお、n個の3次元ワイヤーフ
レーム情報からの入力ワイヤーフレーム情報は、対応す
る各3角形の頂点同志を線形内挿すれば得られる。従っ
て、更新された入力ワイヤーフレーム情報のj番目の頂
点のx座標をXj とすると、
As a result, one input density information corresponds to one
In addition to generating an image using one piece of input wire frame information, an arbitrary composite distribution value can be selected for a plurality of pieces of shade information or a plurality of pieces of wire frame information, and improvement in versatility can be expected. The input wire frame information from the n pieces of three-dimensional wire frame information can be obtained by linearly interpolating the vertices of the corresponding triangles. Therefore, if the x coordinate of the j-th vertex of the updated input wireframe information is Xj,

【数1】 である。(Equation 1) It is.

【0019】ここで、xijはi番目の3次元ワイヤーフ
レームのj番目頂点のx座標、rxiは、各3次元ワイヤ
ーフレームの合成配分値である。y、x座標においても
同様の手法を用い、得られた3次元座標情報で構成され
る新たな3次元ワイヤーフレームが入力ワイヤーフレー
ム情報となる。また、濃淡情報についても、上記手法を
適用し、新たな入力濃淡情報を得る。
Here, xij is the x coordinate of the j-th vertex of the i-th three-dimensional wire frame, and rxi is the composite distribution value of each three-dimensional wire frame. A similar method is used for the y and x coordinates, and a new three-dimensional wire frame composed of the obtained three-dimensional coordinate information becomes input wire frame information. Also, the above method is applied to the grayscale information to obtain new input grayscale information.

【0020】実施例2 上記実施例1では、3次元ワイヤーフレームデータベー
スとして、基本3次元ワイヤーフレームデータベースと
他の3次元ワイヤーフレームデータベースの2つのデー
タベースを備えていたが、本実施例ではこれらを同一の
データベースとして代用しても同様の効果を期待でき
る。但し、3次元ワイヤーフレーム変形部からの読み出
し命令があるときは、該データベースより基本3次元ワ
イヤーフレーム情報が出力されるようになっている。
Second Embodiment In the first embodiment, two databases, a basic three-dimensional wireframe database and another three-dimensional wireframe database, are provided as the three-dimensional wireframe database. The same effect can be expected even if the database is used instead. However, when there is a read command from the three-dimensional wire frame deformation unit, basic three-dimensional wire frame information is output from the database.

【0021】実施例3 上記実施例1では、画像入力部への入力画像は1台のカ
メラ等の撮像系によって取り込まれた画像であるが、本
実施例では、複数のカメラ等による入力画像を用いれ
ば、対象物に対して、より広範囲な被写体画像を得るこ
とが期待できる。
Third Embodiment In the first embodiment, the input image to the image input unit is an image captured by an image pickup system such as a single camera. If it is used, it is expected that a wider image of the subject can be obtained for the target object.

【0022】[0022]

【発明の効果】この発明は、以上説明したように構成さ
れるので以下に記載されるような効果を奏する。
Since the present invention is configured as described above, it has the following effects.

【0023】被写体画像より得られる濃淡情報及び3次
元ワイヤーフレーム情報と各情報格納部に登録されてい
る複数の濃淡情報及び3次元ワイヤーフレーム情報を、
第1及び第2切換え手段の切り換えによって合成画像生
成のための各種情報の組合せを自由に選択することがで
きるのでワイヤーフレーム情報格納部中のM個の3次元
ワイヤーフレーム情報に対して、テキスチャマッピング
処理すべき濃淡情報がN個あるとき、M×N通りの合成
画像を生成することができる。
The grayscale information and three-dimensional wireframe information obtained from the subject image and a plurality of grayscale information and three-dimensional wireframe information registered in each information storage unit are
By switching the first and second switching means, it is possible to freely select a combination of various types of information for generating a composite image. Therefore, texture mapping is performed on M pieces of three-dimensional wire frame information in the wire frame information storage unit. When there are N pieces of density information to be processed, M × N combined images can be generated.

【0024】また、複数の入力濃淡情報に対する合成配
分ri と、複数の入力ワイヤーフレーム情報に対する合
成配分rw を任意に変化させることで最低2個のワイヤ
ーフレーム情報と対応する最低2個の濃淡情報とから、
無限通りの合成画像を生成することができる。
Also, a composite distribution for a plurality of input density information
Ri and the sum of the input wireframe information.
At least two wires by changing the distribution rw arbitrarily
-From the frame information and at least two corresponding shade information,
An infinite number of synthesized images can be generated.

【0025】また、スリット光を用いた3次元デジタイ
ザを用いることで、安定した手法で対象物体の3次元構
造情報を抽出することができる。
Further, by using a three-dimensional digitizer using slit light, it is possible to extract three-dimensional structure information of a target object by a stable method.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施例1を示すブロック図である。FIG. 1 is a block diagram showing a first embodiment of the present invention.

【図2】この発明におけるスリット光を投射した入力画
像を示す図である。
FIG. 2 is a diagram showing an input image projected with slit light according to the present invention.

【図3】この発明における基本3次元ワイヤーフレーム
を示す図である。
FIG. 3 is a diagram showing a basic three-dimensional wire frame according to the present invention.

【図4】この発明における3次元ワイヤーフレームデー
タベースのフォーマット形式を示す図である。
FIG. 4 is a diagram showing a format of a three-dimensional wire frame database according to the present invention.

【図5】この発明におけるテキスチャマッピング処理の
概念図である。
FIG. 5 is a conceptual diagram of a texture mapping process according to the present invention.

【図6】従来の画像伝送方式の概念図である。FIG. 6 is a conceptual diagram of a conventional image transmission system.

【図7】従来の画像伝送方式のコードブック構成例であ
る。
FIG. 7 is a codebook configuration example of a conventional image transmission method.

【図8】従来の画像伝送方式の各音素に対する口画像の
例である。
FIG. 8 is an example of a mouth image for each phoneme in the conventional image transmission method.

【符号の説明】[Explanation of symbols]

1 スリット光照射部 2 画像入力部 3 ノイズフィルタ 4 特徴点抽出部 5 3次元座標計算部 6 基本3次元ワイヤーフレームデータベース 7 3次元ワイヤーフレーム変形部 8 3次元ワイヤーフレームデータベース 9 濃淡情報データベース 10 合成画像生成処理部 101 入力画像 102 スリット光を投射した入力画像 103 ノイズ除去後の入力画像 104 特徴点情報 105 3次元座標情報 106 基本3次元ワイヤーフレーム情報 107 被写体画像の3次元ワイヤーフレーム情報 108 3次元ワイヤーフレーム情報 109 被写体画像の濃淡情報 110 濃淡情報 111 合成画像出力 112 入力ワイヤーフレーム情報 113 入力濃淡情報 114 被写体画像 sw1 第1スイッチ sw2 第2スイッチ Reference Signs List 1 slit light irradiation unit 2 image input unit 3 noise filter 4 feature point extraction unit 5 three-dimensional coordinate calculation unit 6 basic three-dimensional wireframe database 7 three-dimensional wireframe deformation unit 8 three-dimensional wireframe database 9 grayscale information database 10 synthesized image Generation processing unit 101 Input image 102 Input image projected with slit light 103 Input image after noise removal 104 Feature point information 105 3D coordinate information 106 Basic 3D wireframe information 107 3D wireframe information of subject image 108 3D wire Frame information 109 Shading information of subject image 110 Shading information 111 Synthetic image output 112 Input wireframe information 113 Input shading information 114 Subject image sw1 First switch sw2 Second switch

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 画像入力部より入力した被写体画像の3
次元構成情報に従い、基本となる3次元ワイヤーフレー
ムを変形しワイヤーフレーム情報を出力する3次元ワイ
ヤーフレーム変形部と、ワイヤーフレーム情報と濃淡情
報に基づいて画像を整合する合成画像生成処理部と、複
数のワイヤーフレーム情報を格納したワイヤーフレーム
情報格納部と、この格納部のワイヤーフレーム情報と上
記3次元ワイヤーフレーム変形部の出力を合成画像生成
処理部に対して切り換え出力する第1切り換え手段と、
各種濃淡情報を格納した濃淡情報格納部と、この格納部
からの濃淡情報と上記被写体画像より得られた濃淡情報
を上記合成画像生成処理部に対して切り換え出力する第
2切り換え手段とを備え、上記合成画像生成処理部は、
最低2個の3次元ワイヤーフレームと最低2個の濃淡情
報に対して各々の合成配分値を任意に決定することを特
徴とする画像合成器。
1. An object image input from an image input unit.
A three-dimensional wire frame deforming unit that deforms a basic three-dimensional wire frame according to the three-dimensional configuration information and outputs wire frame information; a composite image generation processing unit that matches an image based on the wire frame information and gray level information; A wire frame information storage unit that stores the wire frame information, and first switching means for switching and outputting the wire frame information of the storage unit and the output of the three-dimensional wire frame deforming unit to the composite image generation processing unit;
A gray-scale information storage unit storing various gray-scale information, and second switching means for switching and outputting gray-scale information from the storage unit and gray-scale information obtained from the subject image to the composite image generation processing unit; The composite image generation processing unit includes:
At least two 3D wireframes and at least two shades
An image synthesizer characterized by arbitrarily determining each composite distribution value for a report .
【請求項2】 対象物にスリット光を投射した被写体画
像から特徴点を抽出し、その特徴点に基づいて被写体の
3次元構造情報を算出する3次元デジタイザを備えたこ
とを特徴とする請求項1記載の画像合成器。
2. A three-dimensional digitizer for extracting a feature point from a subject image obtained by projecting slit light on an object and calculating three-dimensional structure information of the subject based on the feature point. An image synthesizer according to claim 1.
JP3098052A 1991-04-03 1991-04-03 Image synthesizer Expired - Fee Related JP2784097B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3098052A JP2784097B2 (en) 1991-04-03 1991-04-03 Image synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3098052A JP2784097B2 (en) 1991-04-03 1991-04-03 Image synthesizer

Publications (2)

Publication Number Publication Date
JPH04306782A JPH04306782A (en) 1992-10-29
JP2784097B2 true JP2784097B2 (en) 1998-08-06

Family

ID=14209466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3098052A Expired - Fee Related JP2784097B2 (en) 1991-04-03 1991-04-03 Image synthesizer

Country Status (1)

Country Link
JP (1) JP2784097B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3347508B2 (en) * 1995-02-24 2002-11-20 キヤノン株式会社 Captured image processing device and captured image processing method
JPH09330423A (en) * 1996-06-13 1997-12-22 Fujitsu Ltd Three-dimensional shape data transforming device
JP4611575B2 (en) * 2001-06-20 2011-01-12 セコム株式会社 Face image collation device for personal authentication

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0223473A (en) * 1988-07-13 1990-01-25 Kokusai Denshin Denwa Co Ltd <Kdd> Variable density adding method and device for three-dimensional form model

Also Published As

Publication number Publication date
JPH04306782A (en) 1992-10-29

Similar Documents

Publication Publication Date Title
US6967658B2 (en) Non-linear morphing of faces and their dynamics
US7952577B2 (en) Automatic 3D modeling system and method
KR100339764B1 (en) A method and apparatus for drawing animation
US5577175A (en) 3-dimensional animation generating apparatus and a method for generating a 3-dimensional animation
JP4886645B2 (en) Virtual face model deformation device and virtual face model deformation program
US7423650B2 (en) Method of representing and animating two-dimensional humanoid character in three-dimensional space
JP2008513882A (en) Video image processing system and video image processing method
KR20020022504A (en) System and method for 3D animation authoring with motion control, facial animation, lip synchronizing and lip synchronized voice
JP2000067267A (en) Method and device for restoring shape and pattern in there-dimensional scene
KR102422822B1 (en) Apparatus and method for synthesizing 3d face image using competitive learning
KR102358854B1 (en) Apparatus and method for color synthesis of face images
US7009606B2 (en) Method and apparatus for generating pseudo-three-dimensional images
JP2784097B2 (en) Image synthesizer
WO2003017206A9 (en) Automatic 3d modeling system and method
US20040174361A1 (en) Geometric and brightness modeling of images
JP3663645B2 (en) Moving image processing apparatus and method
JP3505361B2 (en) Animation creation device and recording medium
JP4102091B2 (en) Method for determining an image according to the magnitude of a gradient from a range image
CN113506220B (en) Face gesture editing method and system driven by 3D vertex and electronic equipment
JPH0935082A (en) Image processing method and image processor
CN117893642B (en) Face shape remodelling and facial feature exchanging face changing method
Fagel Video-realistic synthetic speech with a parametric visual speech synthesizer.
JP3157015B2 (en) Image processing method and image processing apparatus
JP3505360B2 (en) Animation creation device and recording medium
JP2861893B2 (en) Shape conversion device and shape conversion method in this device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees