JPH0888850A - Expression reproducing device - Google Patents

Expression reproducing device

Info

Publication number
JPH0888850A
JPH0888850A JP22201494A JP22201494A JPH0888850A JP H0888850 A JPH0888850 A JP H0888850A JP 22201494 A JP22201494 A JP 22201494A JP 22201494 A JP22201494 A JP 22201494A JP H0888850 A JPH0888850 A JP H0888850A
Authority
JP
Japan
Prior art keywords
facial expression
expression
texture data
texture
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP22201494A
Other languages
Japanese (ja)
Other versions
JP2843262B2 (en
Inventor
Taiichi Kitamura
泰一 北村
Atsushi Otani
淳 大谷
Fumio Kishino
文郎 岸野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR TSUSHIN SYST KENKYUSHO KK
Original Assignee
ATR TSUSHIN SYST KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR TSUSHIN SYST KENKYUSHO KK filed Critical ATR TSUSHIN SYST KENKYUSHO KK
Priority to JP22201494A priority Critical patent/JP2843262B2/en
Publication of JPH0888850A publication Critical patent/JPH0888850A/en
Application granted granted Critical
Publication of JP2843262B2 publication Critical patent/JP2843262B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE: To reproduce highly real expressions by synthesizing texture data corresponding to the expression with a wire frame model. CONSTITUTION: This device is provided with an expression texture database 109 for storing the texture data of six basic expressions of a human being and a head part texture switching part 111 for inferring the expression based on an expression change amount extracted by an expression change amount extraction part 103 and selecting and synthesizing textures stored in a non- expression texture database 107 and the expression texture database 109. In this case, a movement parameter based an the change of the expression of a person is detected and the wire frame model is worked based on the detected parameter. Also, the texture to be synthesized is generated based on the texture data corresponding to the recognized basic expression among the stored texture data and the generated texture data are synthesized with the worked wire frame model and displayed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は撮像された顔画像をコ
ンピュータグラフィックス技術を用いて実時間で立体デ
ィスプレイに再現する表情再現装置に関し、特に顔画像
をワイヤフレームモデルとテクスチャにより再現する表
情再現装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a facial expression reproducing apparatus for reproducing a captured face image on a three-dimensional display in real time by using computer graphics technology, and more particularly to a facial expression reproduction for reproducing the face image by a wire frame model and texture. Regarding the device.

【0002】[0002]

【従来の技術】近年、遠隔地にいる人々があたかも同じ
場所で会議をするような感じで話し合ったりすることの
できる臨場感通信会議システムの開発が進められている
(たとえば社団法人、電子情報通信学会発行、信学技
報、HC92−61)。
2. Description of the Related Art In recent years, development of an immersive communication conference system that enables people in remote places to talk with each other as if they were having a conference at the same place has been under development (for example, incorporated associations, electronic information communications). Published by the Society, Technical Report, HC92-61).

【0003】実際の会議において参加者の顔の表情の微
妙な動きがコミュニケーションに重要な意味を持つた
め、臨場感通信会議システムにおいて人間の表情の微妙
な変化を再現することが必要であり、そのためリアリテ
ィの高い表情を再現することができる表情再現装置の開
発が期待されている。
Since subtle movements of facial expressions of participants in an actual conference have an important meaning for communication, it is necessary to reproduce subtle changes in human facial expressions in a realistic communication conference system. The development of facial expression reproduction devices that can reproduce highly realistic facial expressions is expected.

【0004】従来の表情再現装置では、送信される人物
の頭部の標準的な形態を頂点と頂点間を結ぶ線とによっ
て近似した頭部3次元ワイヤフレームモデルを受信側に
保有し、送信側の人物の顔に止着されたマーカーの移動
量をカメラなどでトラッキングし、それに併せて頭部ワ
イヤフレームモデルの頂点座標を移動させることにより
表情の変化を再現する。
In the conventional facial expression reproducing apparatus, the receiving side holds a three-dimensional wire frame model of the head that approximates the standard form of the head of a person to be transmitted by the vertices and the line connecting the vertices, and the transmitting side The amount of movement of the marker attached to the person's face is tracked by a camera or the like, and the vertex coordinates of the head wireframe model are moved accordingly to reproduce the change in facial expression.

【0005】図5は従来の表情再現装置のブロック図で
あり、図6は図5の顔画像入力部の具体例を示した図で
ある。
FIG. 5 is a block diagram of a conventional facial expression reproducing apparatus, and FIG. 6 is a diagram showing a specific example of the face image input section of FIG.

【0006】図5を参照して、従来の表情再現装置は人
物の顔画像を入力する顔画像入力部101と、顔画像の
動きから表情変化の量を抽出する表情変化量抽出部10
3と、前述した頭部3次元ワイヤフレームモデルを記憶
する頭部ワイヤフレームモデル記憶部105と、記憶さ
れた頭部3次元ワイヤフレームモデルと抽出された表情
変化量とを合成しワイヤフレームモデルを変形させるこ
とにより表情変化を再現するワイヤフレーム変形部11
3と、無表情時のテクスチャデータ(顔の色彩情報)を
記憶する無表情テクスチャデータベース107と、変形
されたワイヤフレームモデルと無表情テクスチャデータ
とを合成する表情顔画像合成部115とにより構成され
る。
Referring to FIG. 5, the conventional facial expression reproducing apparatus includes a facial image input section 101 for inputting a facial image of a person and an facial expression change amount extracting section 10 for extracting the facial expression change amount from the movement of the facial image.
3, a head wireframe model storage unit 105 that stores the above-described head 3D wireframe model, the stored head 3D wireframe model, and the extracted facial expression change amount are combined to create a wireframe model. Wireframe transformation unit 11 that reproduces facial expression changes by transforming
3, an expressionless texture database 107 that stores the expressionless texture data (color information of the face), and an expression face image combining unit 115 that combines the deformed wireframe model and the expressionless texture data. It

【0007】顔画像入力部101は、具体的には図6の
ように構成される。すなわち送信される人物の顔209
にはその表情筋の上にマーカー203が止着されてい
る。頭部に固定されたヘルメット211には顔209を
画像データ205として撮像するカメラ201が設けら
れる。
The face image input section 101 is specifically constructed as shown in FIG. That is, the face 209 of the person to be transmitted.
A marker 203 is attached to the facial muscle of the person. A camera 201 that captures a face 209 as image data 205 is provided on the helmet 211 fixed to the head.

【0008】図7は図5の表情再現装置による顔画像の
合成処理について説明するためのフローチャートであ
る。
FIG. 7 is a flow chart for explaining a face image synthesizing process by the facial expression reproducing apparatus of FIG.

【0009】ステップS701において、マーカーを含
む顔画像が顔画像入力部101によって取込まれる。ス
テップS702において、マーカーの移動量に基づいて
ワイヤフレームモデルの加工が行なわれる。ステップS
703において、加工されたワイヤフレームモデルに無
表情テクスチャデータが合成される。
In step S 701, the face image including the marker is captured by the face image input unit 101. In step S702, the wire frame model is processed based on the movement amount of the marker. Step S
At 703, the expressionless texture data is combined with the processed wireframe model.

【0010】以上の過程により顔の表情が再現される。The facial expression is reproduced by the above process.

【0011】[0011]

【発明が解決しようとする課題】しかしながら従来の表
情再現装置では、頭部ワイヤフレームモデルを検出され
たデータに基づいて変形し、これに無表情時のカラーテ
クスチャを合成していたため、皺や表皮のたるみなど微
妙な表情を再現することが困難であり、リアリティのあ
る表情の再現ができなかった。
However, in the conventional facial expression reproducing apparatus, since the head wireframe model is deformed based on the detected data and the color texture in the non-expressive state is combined with this, the wrinkles and the skin are removed. It was difficult to reproduce subtle facial expressions such as sagging, and it was not possible to reproduce realistic facial expressions.

【0012】もちろん無限の頂点座標を持つ頭部ワイヤ
フレームモデルを用いるのであればよりリアリティのあ
る表情の再現が可能であるが、これでは実時間での表情
再現は不可能である。
Of course, if a head wireframe model having infinite vertex coordinates is used, a more realistic facial expression can be reproduced, but this is not possible in real time.

【0013】皺、たるみを表現する方法として、崔など
(「顔の3次元モデルに基づく表情の記述と合成」,電
子情報通信学会論文誌,Vol.J73−A,No.
7,pp.1270〜1280)による手法が開示され
ているが、これは予め皺の発生する位置を登録しておか
なければならないので、すべての人に当てはまる手法で
はない。またテクスチャを一部切出すためテクスチャに
不連続が発生するおそれもある。
As a method of expressing wrinkles and sagging, Choi et al. ("Description and synthesis of facial expression based on three-dimensional model of face", IEICE Transactions, Vol. J73-A, No.
7, pp. 1270 to 1280) is disclosed, but this is not applicable to all people because the position where wrinkles are generated must be registered in advance. Moreover, since a part of the texture is cut out, discontinuity may occur in the texture.

【0014】また無表情の頭部モデルに加え、予め表情
を持つ頭部モデルを記憶し、表情変化に応じて表情を持
つ頭部モデルを混ぜ合せるmorphing(T. Beier, S. Nee
ly,“Feature Based Image Metamorphosis ”,Proc. of
SIGGRAPH92,1992)と呼ばれる手法が開示され
ている。しかしながら、morphingにおいて、形状変形は
いくつかの変形駆動点に対して近傍点の変形駆動点との
相対的位置比を一定に保ちながら行なわれ、最終的には
人物の表情は予め登録された表情頭部モデルに変形され
ることになる。したがって変形後の表情はいつも同じも
のとなり、微妙な表情の再現が不可能である。
In addition to the expressionless head model, a morphing (T. Beier, S. Nee) which stores a head model having an expression in advance and mixes the head model having an expression according to a change in expression.
ly, “Feature Based Image Metamorphosis”, Proc. of
A method called SIGGRAPH92, 1992) is disclosed. However, in morphing, shape deformation is performed while keeping the relative position ratio of some deformation driving points to the deformation driving points of neighboring points constant, and finally the facial expression of the person is a registered facial expression. It will be transformed into a head model. Therefore, the facial expression after deformation is always the same, and it is impossible to reproduce a subtle facial expression.

【0015】それゆえにこの発明の主たる目的は、皺や
たるみなどを含む微妙な表情の再現が可能な表情再現装
置を提供することである。
Therefore, a main object of the present invention is to provide a facial expression reproducing device capable of reproducing a subtle facial expression including wrinkles and sagging.

【0016】[0016]

【課題を解決するための手段】請求項1の発明に係る表
情再現装置は、人物の顔を近似したワイヤフレームモデ
ルを記憶するワイヤフレームモデル記憶手段と、人物の
顔の複数の基本表情の各々に対応する複数のテクスチャ
データを記憶するテクスチャデータ記憶手段と、人物の
顔の表情の変化に基づく動きパラメータを検出するパラ
メータ検出手段と、検出されたパラメータに基づいてワ
イヤフレームモデルを加工する加工手段と、検出された
パラメータに基づいて人物の顔の表情を基本表情のいず
れかとして認識する認識手段と、記憶されたテクスチャ
データのうち、認識された基本表情に対応したテクスチ
ャデータに基づいて合成すべきテクスチャデータを生成
する生成手段と、生成されたテクスチャデータを加工さ
れたワイヤフレームモデルに合成し再現表情画像とする
合成手段と、再現表情画像を表示する表示手段とを備え
たものである。
According to another aspect of the present invention, there is provided a facial expression reproducing device for storing a wireframe model storing a wireframe model approximating a human face, and a plurality of basic facial expressions for the human face. Data storing means for storing a plurality of texture data corresponding to, a parameter detecting means for detecting a motion parameter based on a change in facial expression of a person, and a processing means for processing a wireframe model based on the detected parameters. A recognition means for recognizing the facial expression of the person's face as one of the basic facial expressions on the basis of the detected parameters; and synthesizing based on the texture data corresponding to the recognized basic facial expression among the stored texture data. Generating means for generating the desired texture data, and the wire frame processed for the generated texture data. Synthesizing means for synthetic reproduced expression image to the model, in which a display means for displaying the reproduced expression image.

【0017】請求項2に係る表情再現装置は、請求項1
記載の表情再現装置において、複数のテクスチャデータ
は無表情テクスチャデータと表情テクスチャデータとを
含み、生成手段は、認識手段により認識された基本表情
が表情テクスチャデータに対応したものであるとき、人
物の表情が認識されたときからの時間の経過とともに、
無表情テクスチャデータと表情テクスチャデータとを配
分を変えて合成し、合成すべきテクスチャデータを生成
する表情再現装置である。
A facial expression reproducing apparatus according to a second aspect is the first aspect.
In the facial expression reproducing device described above, the plurality of texture data includes expressionless texture data and facial expression texture data, and the generation means generates a human facial expression when the basic facial expression recognized by the recognition means corresponds to the facial expression texture data. With the passage of time since the facial expression was recognized,
It is a facial expression reproducing device for synthesizing expressionless texture data and facial expression texture data with different distributions and generating texture data to be synthesized.

【0018】[0018]

【作用】請求項1記載の表情再現装置は、人物の顔を近
似したワイヤフレームモデルと、人物の複数の基本表情
の各々に対応する複数のテクスチャデータとを記憶す
る。人物の表情の変化に基づく動きパラメータを検出
し、検出されたパラメータに基づいてワイヤフレームモ
デルを加工する。また検出されたパラメータに基づいて
人物の表情を基本表情のいずれかとして認識し、記憶さ
れたテクスチャデータのうち認識された基本表情に対応
したテクスチャデータに基づいて合成すべきテクスチャ
を生成し、生成されたテクスチャデータを加工されたワ
イヤフレームモデルに合成し表示する。
The facial expression reproducing apparatus according to the first aspect stores a wireframe model approximating a human face and a plurality of texture data corresponding to each of a plurality of basic facial expressions of the human. A motion parameter based on a change in a person's facial expression is detected, and a wireframe model is processed based on the detected parameter. The facial expression of the person is recognized as one of the basic facial expressions based on the detected parameters, and the texture to be synthesized is generated based on the texture data corresponding to the recognized basic facial expression in the stored texture data, and the generated texture is generated. The processed texture data is combined with the processed wireframe model and displayed.

【0019】請求項2記載の表情再現装置は、請求項1
記載の表情再現装置の作用に加えて、無表情テクスチャ
データと表情テクスチャデータを記憶し、認識手段によ
り認識された基本表情が表情テクスチャデータに対応し
たものであるとき、人物の表情が認識されたときからの
時間の経過とともに、無表情テクスチャと表情テクスチ
ャとを配分を変えて合成し、合成されたテクスチャを加
工されたワイヤフレームモデルに合成する。
A facial expression reproducing apparatus according to a second aspect is the first aspect.
In addition to the operation of the facial expression reproducing device described, a facial expression of a person is recognized when the basic facial expression recognized by the recognizing means corresponds to the facial expression texture data by storing the expressionless texture data and the facial expression texture data. With the passage of time from the time, the expressionless texture and the expression texture are combined with different distributions, and the combined texture is combined with the processed wireframe model.

【0020】[0020]

【実施例】図1は本発明の一実施例である表情再現装置
のブロック図である。
1 is a block diagram of a facial expression reproducing apparatus according to an embodiment of the present invention.

【0021】図1を参照して、本実の表情再現装置が図
5に示される従来の表情再現装置と異なる点について説
明する。
With reference to FIG. 1, the difference between the actual facial expression reproducing apparatus and the conventional facial expression reproducing apparatus shown in FIG. 5 will be described.

【0022】本実施例の表情再現装置は従来の表情再現
装置に加え、「喜び」、「怒り」、「悲しみ」、「嫌
悪」、「恐怖」、「驚き」の人間の6基本表情のテクス
チャデータを記憶する表情テクスチャデータベース10
9と、表情変化量抽出部103が抽出する表情変化量に
基づいて表情を推論し、無表情テクスチャデータベース
107および表情テクスチャデータベース109に記憶
されているテクスチャの選択や合成を行なう頭部テクス
チャ切換部111とを備える。
In addition to the conventional facial expression reproducing apparatus, the facial expression reproducing apparatus according to the present embodiment has six basic facial expression textures of "joy,""anger,""sadness,""disgust,""fear," and "surprise." Facial expression texture database 10 for storing data
9 and a head texture switching unit that infers a facial expression based on the facial expression change amount extracted by the facial expression change amount extraction unit 103, and selects and synthesizes the textures stored in the expressionless texture database 107 and the facial expression texture database 109. And 111.

【0023】図2は図1の表情再現装置において行なわ
れる顔画像の合成処理について説明するためのフローチ
ャート、図3は図2のフローチャート中のマーカーの移
動量に基づく表情推論について説明するための図、図4
は図2のフローチャート中の無表情テクスチャと表情テ
クスチャの合成について説明するための図である。
FIG. 2 is a flowchart for explaining the face image synthesizing process performed in the facial expression reproducing apparatus of FIG. 1, and FIG. 3 is a diagram for explaining facial expression inference based on the movement amount of the marker in the flowchart of FIG. , Fig. 4
FIG. 3 is a diagram for explaining synthesis of a non-expression texture and a facial expression texture in the flowchart of FIG. 2.

【0024】本実施例における表情再現装置は、無表情
テクスチャ以外に6種類の基本表情に対応する複数の表
情テクスチャを記憶し顔マーカーの動きから表情を推論
し、表情に応じたテクスチャを選択し用いたり、無表情
テクスチャと表情テクスチャとを任意の割合で混ぜ合せ
たものをテクスチャとして用いることを特徴としている
(この方法をテクスチャブレンディング法と呼ぶ)。
The facial expression reproducing apparatus according to this embodiment stores a plurality of facial expression textures corresponding to six basic facial expressions in addition to the expressionless texture, infers the facial expression from the movement of the face marker, and selects the texture corresponding to the facial expression. It is characterized in that it is used or a mixture of the expressionless texture and the expressional texture at an arbitrary ratio is used as a texture (this method is called a texture blending method).

【0025】図2を参照して、ステップS201で顔画
像入力部101によりマーカーを貼付けた顔画像が取込
まれ、マーカーの動きがトラッキングされる。ステップ
S202で、マーカーの移動量に基づいて表情の推論が
行なわれる。この推論は図3に示されるように、顔に止
着された0〜12の13個のマーカーの無表情時の位置
からの移動量に基づいて行なわれる。
Referring to FIG. 2, in step S201, the face image input unit 101 takes in the face image with the marker attached, and the movement of the marker is tracked. In step S202, the facial expression is inferred based on the movement amount of the marker. As shown in FIG. 3, this inference is performed based on the amount of movement of the 13 markers 0 to 12 attached to the face from the position when there is no expression.

【0026】たとえば図3の表の上段のように、5番の
マーカーの移動量(pixel 単位)が、5<x,−10>
yかつ、6番のマーカーの移動量が−5>x,−10>
yかつ、11番のマーカーの移動量が0<x,−10>
yかつ、12番のマーカーの移動量が0>x,−10>
yの関係が成り立つときはその表情は「喜び」であると
判定される。
For example, as shown in the upper part of the table in FIG. 3, the movement amount (pixel unit) of the fifth marker is 5 <x, −10>.
y and the movement amount of the 6th marker is -5> x, -10>
y and the movement amount of the 11th marker is 0 <x, −10>
y and the movement amount of the 12th marker is 0> x, −10>
When the relationship of y is established, the facial expression is judged to be "joy."

【0027】ステップS203でマーカーの動きにより
推論された表情が表情テクスチャデータベース109に
記憶されている「喜び」、「怒り」、「悲しみ」、「嫌
悪」、「恐怖」、「驚き」の人間の6基本表情に分類さ
れるか判定される。分類できた場合はステップS204
において、分類された表情が直前の表情と同一性がある
か判定され、NOであればステップS210において、
ブレンディングを開始してからの時間tをリセットす
る。
The facial expressions inferred by the movement of the marker in step S203 are stored in the facial expression texture database 109, and are stored in the facial expression texture database 109 for humans of "joy", "anger", "sadness", "disgust", "fear", and "surprise". It is determined whether to be classified into 6 basic facial expressions. If it can be classified, step S204
In step S210, it is determined whether the classified facial expression is identical to the immediately preceding facial expression.
The time t from the start of blending is reset.

【0028】ステップS205において、ブレンディン
グを開始してからの時間tがblending-interval (たと
えば3〜4秒程度の予め設定された時刻)を超えたか判
定され、NOであればステップS206において、以下
の式により無表情テクスチャと表情テクスチャとを混ぜ
合せたものをワイヤフレームに合成するテクスチャ(合
成テクスチャ)とする。
In step S205, it is determined whether the time t from the start of blending exceeds the blending-interval (for example, a preset time of about 3 to 4 seconds). If NO, the following will be performed in step S206. A combination of the expressionless texture and the expression texture according to the formula is used as a texture (composite texture) to be combined with the wireframe.

【0029】合成するテクスチャ={(blending inter
val −t)×無表情テクスチャ+t×表情テクスチャ}
/blending interval この混ぜ合せにより、図4に示されるように無表情テク
スチャと表情テクスチャとが合成されるわけであるが、
その重み付けはブレンディングを開始してからの時間t
が0のときには、無表情テクスチャが100%、表情テ
クスチャが0%であるのに対して、t=blending inter
val のときには、表情テクスチャが100%、無表情テ
クスチャが0%となるように合成されることになる。
Texture to be synthesized = {(blending inter
val −t) × expressionless texture + t × expression texture}
/ Blending interval By this mixing, the expressionless texture and the expressional texture are synthesized as shown in FIG.
The weighting is the time t from the start of blending.
When is 0, the expressionless texture is 100% and the expressional texture is 0%, while t = blending inter
When val is set, the expression texture is 100% and the expressionless texture is 0%.

【0030】ステップS207において、マーカーの移
動量に基づいてワイヤフレームモデルの頂点座標の移動
が行なわれ、顔の形状変化が再現される。ステップS2
08において、変形されたワイヤフレームモデルに、前
過程で設定された合成テクスチャが合成される。
In step S207, the vertex coordinates of the wire frame model are moved based on the amount of movement of the marker, and the shape change of the face is reproduced. Step S2
At 08, the composite texture set in the previous process is combined with the deformed wireframe model.

【0031】一方ステップS203でNOの場合は、ス
テップS209において無表情テクスチャを合成テクス
チャとする。
On the other hand, in the case of NO at step S203, the expressionless texture is set as a synthetic texture at step S209.

【0032】ステップS205でYESの場合は、ステ
ップS211において分類された表情テクスチャを合成
テクスチャとする。
If YES in step S205, the facial expression texture classified in step S211 is used as a synthetic texture.

【0033】この実施例による表情再現装置を用いるこ
とにより実時間で人間の6の基本表情に対応した皺や表
皮のたるみなどを再現することが可能となり、かつ無表
情の状態から表情のある状態への変化もブレンディング
の重み付けを時間とともに変化させることにより滑らか
に行なうことができる。
By using the facial expression reproducing apparatus according to this embodiment, it is possible to reproduce wrinkles and sagging of the epidermis corresponding to 6 basic facial expressions of a human in real time, and from a state of no expression to a state of expression. The change to can be smoothly performed by changing the weighting of blending with time.

【0034】なお本実施例では、表情テクスチャとして
6基本表情を用意したが表情の数は任意でもよい。
In this embodiment, six basic facial expressions are prepared as the facial expression texture, but the number of facial expressions may be arbitrary.

【0035】[0035]

【発明の効果】請求項1の発明に係る表情再現装置は、
表情に応じたテクスチャデータをワイヤフレームモデル
に合成することにより、リアリティの高い表情を再現す
ることができる。
The facial expression reproducing apparatus according to the first aspect of the invention is
By synthesizing the texture data according to the facial expression with the wire frame model, the highly realistic facial expression can be reproduced.

【0036】請求項2の発明に係る表情再現装置は、請
求項1記載の表情再現装置の効果に加えて、表情の変化
を滑らかに行なうことができ、不自然さの少ない画像を
再現することができる。
In addition to the effect of the facial expression reproducing apparatus according to the first aspect, the facial expression reproducing apparatus according to the second aspect of the present invention can change the facial expression smoothly and reproduce an image with less unnaturalness. You can

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例である表情再現装置のブロッ
ク図である。
FIG. 1 is a block diagram of a facial expression reproduction device that is an embodiment of the present invention.

【図2】図1の表情再現装置において行なわれる顔画像
の合成処理について説明するためのフローチャートであ
る。
FIG. 2 is a flowchart for explaining a face image synthesizing process performed in the facial expression reproduction device in FIG.

【図3】図2のフローチャート中のマーカーの移動量に
基づく表情推論について説明するための図である。
FIG. 3 is a diagram for explaining facial expression inference based on a movement amount of a marker in the flowchart of FIG.

【図4】図2のフローチャート中の無表情テクスチャと
表情テクスチャの合成について説明するための図であ
る。
FIG. 4 is a diagram for explaining synthesis of a non-expression texture and an expression texture in the flowchart of FIG.

【図5】従来の表情再現装置のブロック図である。FIG. 5 is a block diagram of a conventional facial expression reproduction device.

【図6】図5の顔画像入力部の具体例を示した図であ
る。
FIG. 6 is a diagram showing a specific example of the face image input unit of FIG.

【図7】図5の表情再現装置による顔画像の合成処理に
ついて説明するためのフローチャートである。
7 is a flow chart for explaining a face image synthesizing process by the facial expression reproducing device of FIG. 5. FIG.

【符号の説明】[Explanation of symbols]

101 顔画像入力部 103 表情変化量抽出部 105 頭部ワイヤフレームモデル記憶部 107 無表情テクスチャデータベース 109 表情テクスチャデータベース 111 頭部テクスチャ切換部 113 ワイヤフレーム変形部 115 表情顔画像合成部 101 Face Image Input Unit 103 Facial Expression Change Extraction Unit 105 Head Wireframe Model Storage Unit 107 Expressionless Texture Database 109 Facial Expression Texture Database 111 Head Texture Switching Unit 113 Wireframe Deformation Unit 115 Facial Expression Image Synthesis Unit

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成6年9月20日[Submission date] September 20, 1994

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】全図[Correction target item name] All drawings

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図1】 FIG.

【図2】 [Fig. 2]

【図3】 [Figure 3]

【図4】 [Figure 4]

【図6】 [Figure 6]

【図5】 [Figure 5]

【図7】 [Figure 7]

───────────────────────────────────────────────────── フロントページの続き (72)発明者 大谷 淳 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール通信シ ステム研究所内 (72)発明者 岸野 文郎 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール通信シ ステム研究所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Jun Otani No. 5 Mihiratani, Seiya Town, Seika-cho, Kyoto Prefecture Seika-cho, Osamu Osamu, Osamu Osamu, 5 Hiratani, ATR Communication Systems Laboratory

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 人物の顔を近似したワイヤフレームモデ
ルを記憶するワイヤフレームモデル記憶手段と、 前記人物の顔の複数の基本表情の各々に対応する複数の
テクスチャデータを記憶するテクスチャデータ記憶手段
と、 前記人物の顔の表情の変化に基づく動きパラメータを検
出するパラメータ検出手段と、 前記検出されたパラメータに基づいて前記ワイヤフレー
ムモデルを加工する加工手段と、 前記検出されたパラメータに基づいて前記人物の顔の表
情を前記基本表情のいずれかとして認識する認識手段
と、 前記記憶されたテクスチャデータのうち、前記認識され
た基本表情に対応したテクスチャデータに基づいて合成
すべきテクスチャデータを生成する生成手段と、 前記生成されたテクスチャデータを前記加工されたワイ
ヤフレームモデルに合成し再現表情画像とする合成手段
と、 前記再現表情画像を表示する表示手段とを備えた、表情
再現装置。
1. A wireframe model storage means for storing a wireframe model approximating a person's face, and a texture data storage means for storing a plurality of texture data corresponding to each of a plurality of basic facial expressions of the person's face. A parameter detecting unit that detects a motion parameter based on a change in facial expression of the person; a processing unit that processes the wireframe model based on the detected parameter; and the person based on the detected parameter. Recognition means for recognizing the facial expression of the person as one of the basic facial expressions, and generating texture data to be synthesized based on the stored texture data corresponding to the texture data corresponding to the recognized basic facial expression. Means for converting the generated texture data into the processed wireframe module. A facial expression reproducing device comprising: a synthesizing unit that synthesizes a reproduced facial expression image with Dell; and a display unit that displays the reproduced facial expression image.
【請求項2】 前記複数のテクスチャデータは無表情テ
クスチャデータと表情テクスチャデータとを含み、 前記生成手段は、前記認識手段により認識された基本表
情が前記表情テクスチャデータに対応したものであると
き、前記人物の表情が認識されたときからの時間の経過
とともに、前記無表情テクスチャデータと前記表情テク
スチャデータとを配分を変えて合成し、合成すべきテク
スチャデータを生成する、請求項1記載の表情再現装
置。
2. The plurality of texture data includes expressionless texture data and expression texture data, and the generation means, when the basic expression recognized by the recognition means corresponds to the expression texture data, The facial expression according to claim 1, wherein the expressionless texture data and the facial expression texture data are combined by changing the distribution with the passage of time after the facial expression of the person is recognized to generate texture data to be combined. Reproduction device.
JP22201494A 1994-09-16 1994-09-16 Facial expression reproduction device Expired - Fee Related JP2843262B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22201494A JP2843262B2 (en) 1994-09-16 1994-09-16 Facial expression reproduction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22201494A JP2843262B2 (en) 1994-09-16 1994-09-16 Facial expression reproduction device

Publications (2)

Publication Number Publication Date
JPH0888850A true JPH0888850A (en) 1996-04-02
JP2843262B2 JP2843262B2 (en) 1999-01-06

Family

ID=16775761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22201494A Expired - Fee Related JP2843262B2 (en) 1994-09-16 1994-09-16 Facial expression reproduction device

Country Status (1)

Country Link
JP (1) JP2843262B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0883088A2 (en) * 1997-06-06 1998-12-09 Digital Equipment Corporation Automated mapping of facial images to wireframe topologies
WO2009038484A1 (en) * 2007-09-19 2009-03-26 David Aaron Bennett Deformable robotic surface
JP2010534376A (en) * 2007-07-23 2010-11-04 ザ プロクター アンド ギャンブル カンパニー Method and apparatus for realistic simulation of wrinkle aging and deaging
CN109165614A (en) * 2018-08-31 2019-01-08 杭州行开科技有限公司 Face identification system based on 3D camera
JP2019506050A (en) * 2015-12-31 2019-02-28 クリエイティブ テクノロジー リミテッドCreative Technology Ltd How to generate customized / personalized head related transfer functions

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MULTIDIMENSIONAL SIGNAL PROCEESSING 1991 INTERNATIONAL CONFERENCE ON ACOUSTICS SPEECH AND SIGNAL PROCESSING *
SIGNAL PROCESSING IMAGE COMMUNICATION=1989 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0883088A2 (en) * 1997-06-06 1998-12-09 Digital Equipment Corporation Automated mapping of facial images to wireframe topologies
EP0883088A3 (en) * 1997-06-06 1999-12-15 Digital Equipment Corporation Automated mapping of facial images to wireframe topologies
JP2010534376A (en) * 2007-07-23 2010-11-04 ザ プロクター アンド ギャンブル カンパニー Method and apparatus for realistic simulation of wrinkle aging and deaging
JP2012181843A (en) * 2007-07-23 2012-09-20 Procter & Gamble Co Method and apparatus for realistic simulation of wrinkle aging and de-aging
WO2009038484A1 (en) * 2007-09-19 2009-03-26 David Aaron Bennett Deformable robotic surface
JP2019506050A (en) * 2015-12-31 2019-02-28 クリエイティブ テクノロジー リミテッドCreative Technology Ltd How to generate customized / personalized head related transfer functions
US11804027B2 (en) 2015-12-31 2023-10-31 Creative Technology Ltd. Method for generating a customized/personalized head related transfer function
CN109165614A (en) * 2018-08-31 2019-01-08 杭州行开科技有限公司 Face identification system based on 3D camera

Also Published As

Publication number Publication date
JP2843262B2 (en) 1999-01-06

Similar Documents

Publication Publication Date Title
US6919892B1 (en) Photo realistic talking head creation system and method
JP4310916B2 (en) Video display device
JP7200439B1 (en) Avatar display device, avatar generation device and program
US7027054B1 (en) Do-it-yourself photo realistic talking head creation system and method
US8553037B2 (en) Do-It-Yourself photo realistic talking head creation system and method
KR101306221B1 (en) Method and apparatus for providing moving picture using 3d user avatar
WO2002080111A1 (en) Emotion-based 3-d computer graphics emotion model forming system
US20020007276A1 (en) Virtual representatives for use as communications tools
KR20060064553A (en) Method, apparatus, and computer program for processing image
JP3810943B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
EP1754198A1 (en) Animation systems
US7002584B2 (en) Video information producing device
JP3753625B2 (en) Expression animation generation apparatus and expression animation generation method
JPH0888850A (en) Expression reproducing device
Pandzic et al. Towards natural communication in networked collaborative virtual environments
CN116958344A (en) Animation generation method and device for virtual image, computer equipment and storage medium
JPH09147134A (en) Animation generating device
Park et al. A feature‐based approach to facial expression cloning
EP1316921A1 (en) A method for creating photo-realistic animation that expresses a plurality of expressions
JP2723070B2 (en) User interface device with human image display
JP2000149041A (en) Dynamic image processing device and method and storage medium thereof
JP2002208024A (en) Method and device for generating agent character animation dataset, and recording medium recorded with generation program
JP3469231B2 (en) Animation search device
JP3345808B2 (en) Method and apparatus for displaying a three-dimensional shape model
CN114741541A (en) Interactive control method and device for interactive control of AI digital person on PPT (Power Point) based on templated editing

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19981006

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071023

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081023

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091023

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091023

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101023

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101023

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111023

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111023

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121023

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131023

Year of fee payment: 15

LAPS Cancellation because of no payment of annual fees