JPH0236687A - Face moving picture synthesis system - Google Patents

Face moving picture synthesis system

Info

Publication number
JPH0236687A
JPH0236687A JP63187702A JP18770288A JPH0236687A JP H0236687 A JPH0236687 A JP H0236687A JP 63187702 A JP63187702 A JP 63187702A JP 18770288 A JP18770288 A JP 18770288A JP H0236687 A JPH0236687 A JP H0236687A
Authority
JP
Japan
Prior art keywords
mouth
image
internal
mouth shape
patch model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63187702A
Other languages
Japanese (ja)
Other versions
JP2667455B2 (en
Inventor
Eiji Morimatsu
映史 森松
Toshitaka Tsuda
俊隆 津田
Kiichi Matsuda
松田 喜一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP63187702A priority Critical patent/JP2667455B2/en
Publication of JPH0236687A publication Critical patent/JPH0236687A/en
Application granted granted Critical
Publication of JP2667455B2 publication Critical patent/JP2667455B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/20Contour coding, e.g. using detection of edges

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PURPOSE:To synthesize a more natural moving picture of a face by modifying a mouth so as to be matched with audio information sent from a sender side and displaying a mouth internal picture corresponding to the audio information in the case of reproducing a picture. CONSTITUTION:A two-dimensional mouth patch model is modified in response to a mouth code corresponding to the inputted audio information at the communication after the initializing operation and a changeover means 5 is switched in response to the mouth code. A mouth internal picture data inputted via the changeover means 5 is assigned to the two-dimensional mouth internal patch model representing the shape of mouth inside in terms of the set of patches and the result is outputted as a mouth internal picture in response to the mouth code. Then a picture synthesis means 6 synthesizes picture information from a still face picture data storage means 1, a two-dimensional mouth patch model modification means 2 and a two-dimensional mouth internal patch model modification means 4. Thus, a more natural moving picture of a face is synthesized and displayed in response to the audio information sent during the communication.

Description

【発明の詳細な説明】 [目 次] 概要 産業上の利用分野 従来の技術(第12図) 発明が解決しようとする課題 課題を解決するための手段(第1図) 作 用(第1図) 実施例(第2〜11図) 発明の効果 [概 要] 初期化時に伝送される少数の初期化データを用いること
により、通信中に伝送される音声情報に応じて、受信側
で顔の動画像を合成して表示する顔動画像合成システム
に関し、 受信側で、送信側から送られてくる音声情報に適合する
ように、口の部分を変形させて、画像を再生する際に、
音声情報に対応した口内部画像をも表示できるようにし
て、より自然な顔の動画像を合成できるようにすること
を目的とし、受信側に、初期化時に送られる1フレーム
分の静止顔画像データを記憶する手段と、口形2次元パ
ッチモデルを入力された音声情報に対応する口形符号に
応じて変形する手段と、自画像のうち口腔内部部分を切
り出した口内部画像データを全口形符号の数だけ記憶す
る手段と、口形符号に応じて選択された口内部画像デー
タを口内部2次元パッチモデルにあてはめて口形符号に
応じた口内部画像として出力する手段と、画像合成手段
とをそなえるように構成する。
[Detailed description of the invention] [Table of contents] Overview Industrial application field Prior art (Figure 12) Means for solving the problem to be solved by the invention (Figure 1) Effect (Figure 1) ) Embodiment (Figures 2 to 11) Effects of the invention [Summary] By using a small amount of initialization data transmitted at the time of initialization, it is possible for the receiving side to adjust the facial expression according to the voice information transmitted during communication. Regarding a facial dynamic image synthesis system that synthesizes and displays moving images, when the receiving side deforms the mouth part to match the audio information sent from the transmitting side and plays the image,
The aim is to be able to display images of the inside of the mouth that correspond to audio information, thereby making it possible to synthesize more natural facial moving images. means for storing data; means for transforming a two-dimensional mouth shape patch model according to a mouth shape code corresponding to input audio information; means for applying the internal mouth image data selected according to the mouth shape code to an internal mouth two-dimensional patch model and outputting it as an internal mouth image according to the mouth shape code, and an image synthesizing means. Configure.

[産業上の利用分野] 本発明は、初期化時に伝送される少数の初期化データを
用いることにより、通信中に伝送される音声情報に応じ
て、受信側で顔の動画像を合成して表示する顔動画像合
成システムに関する。
[Industrial Application Field] The present invention uses a small amount of initialization data transmitted at the time of initialization to synthesize a moving image of a face on the receiving side according to audio information transmitted during communication. This invention relates to a facial moving image synthesis system for display.

テレビ(TV)電話、TV会議等においては、最終的に
公衆電話回線を利用した伝送方式を採用することが自振
とされており、このため、得られた画像情報を可能な限
り圧縮することが要望されている。
In television (TV) telephones, TV conferences, etc., it is considered appropriate to ultimately adopt a transmission method that uses public telephone lines, and for this reason, it is necessary to compress the obtained image information as much as possible. is requested.

[従来の技術] TV電話等において伝送される画像は、通常。[Conventional technology] Images transmitted on videophones, etc. are normally used.

人物の原動画像であるが、かかる動画像情報は、第12
図に示すように、音声情報とは独立して伝送されるのが
従来からの方式である。
Although this is a moving image of a person, such moving image information is
As shown in the figure, the conventional method is to transmit audio information independently.

即ち、入力画像は、送信側においてTVカメラ61によ
りアナログ画像信号として発生され、この画像信号は画
像符号化装置62でディジタル信号に変換されて符号化
され圧縮されて受信側に送られる。受信側では、画像復
号化装置63により受信画像を元の信号に復号化してデ
イスプレィ64に出力画像として表示する。
That is, an input image is generated as an analog image signal by a TV camera 61 on the transmitting side, and this image signal is converted into a digital signal by an image encoding device 62, encoded, compressed, and sent to the receiving side. On the receiving side, an image decoding device 63 decodes the received image into an original signal and displays it on a display 64 as an output image.

また、入力音声は送信側でマイクロ5で音声情報として
得た後、音声符号化装置66で音声特有の符号化を行な
って圧縮した後、受信側で音声復号化装置67で復号化
されてスピーカー68から出力音声として得られる。
In addition, the input voice is obtained as voice information by the micro 5 on the transmitting side, and is then compressed by voice-specific encoding in the voice encoding device 66. Then, on the receiving side, it is decoded by the voice decoding device 67, and then it is transmitted to the speaker. 68 as output audio.

しかしながら、このような従来から一般的に行なわれて
きた動画像の伝送方式は、動画像の情報量が大きいため
、低ビツトレートの通信回線を利用することができず、
コストが高くなってしまうとともに、公衆電話回線を利
用したTV電話等の適用には程遠いという問題点があっ
た。
However, since the amount of information contained in moving images is large, this conventional video transmission method that has been commonly used cannot use low bit rate communication lines.
There were problems in that the cost was high and that it was far from being applicable to TV telephones using public telephone lines.

そこで、送信側からは例えば顔の静止画情報をあらかじ
め送っておき、受信側で、送信側から送られてくる音声
情報からこの音声情報に適合するように、口の部分など
を変形させて、画像を再生することも考えられる。
Therefore, the sending side sends, for example, still image information of the face in advance, and the receiving side deforms the mouth part etc. from the audio information sent from the sending side to match this audio information. It is also possible to play back images.

[発明が解決しようとする課題] しかしながら、このような手段では、口を開いた顔画像
を合成する際に、口内部(歯の部分とか舌の部分など)
の画像が表示されないため、顔の動画像としては不自然
さが残ってしまうという問題点がある。
[Problems to be Solved by the Invention] However, with such means, when synthesizing a face image with an open mouth, the inside of the mouth (teeth, tongue, etc.)
Since the image of the face is not displayed, there is a problem in that the moving image of the face remains unnatural.

本発明は、このような問題点を解決しようとするもので
、初期化時に伝送される少数の初期化データを用いるこ
とにより、通信中に伝送される音声情報に応じて、受信
側で顔の動画像を合成して表示するものにおいて、受信
側で、送信側から送られてくる音声情報からこの音声情
報に適合するように1口の部分を変形させて、画像を再
生する際に、音声情報に対応した口内部側像をも表示で
きるようにして、より自然な顔の動画像を合成できるよ
うにした、顔動画像合成システムを提供することを目的
としている。
The present invention aims to solve such problems, and by using a small amount of initialization data transmitted at the time of initialization, the receiving side can adjust the facial expression according to the voice information transmitted during communication. In a device that synthesizes and displays moving images, the receiving side transforms the first mouth part from the audio information sent from the transmitting side to match this audio information, and when playing the image, the audio It is an object of the present invention to provide a facial moving image synthesis system that can also display an image of the inside of the mouth corresponding to information and synthesize a more natural facial moving image.

[課題を解決するための手段] 第1図は本発明の原理ブロック図である。[Means to solve the problem] FIG. 1 is a block diagram of the principle of the present invention.

第1図において、1は静止顔画像データ記憶手段で、こ
の静止顔画像データ記憶手段1は、初期化時に送られる
1フレーム分の静止顔画像データを記憶するものである
In FIG. 1, reference numeral 1 denotes still face image data storage means, and this still face image data storage means 1 stores one frame of still face image data sent at the time of initialization.

2は口形2次元パッチモデル変形手段で、この口形2次
元パッチモデル変形手段2は、口を含む口周辺の形状を
パッチの集合で表わした口形2次元パッチモデルを、入
力された音声情報に対応する口形符号に応じて変形する
ものである。
2 is a mouth shape two-dimensional patch model transforming means, and this mouth shape two-dimensional patch model transforming means 2 converts a mouth shape two-dimensional patch model, which represents the shape of the mouth including the mouth as a set of patches, into a shape corresponding to the input audio information. It transforms depending on the mouth shape code.

3は口内部画像データ記憶手段で、この口内部画像デー
タ記憶手段3は、口直像のうち口腔内部部分を切り出し
た口内部側像データを、全口形符号の数だけ記憶するも
ので、このために複数(M;自然数)の口内部面像メモ
リ3−1〜3−Mを有している。
Reference numeral 3 denotes an internal mouth image data storage means, and this internal mouth image data storage unit 3 stores internal mouth side image data obtained by cutting out the internal part of the oral cavity from a direct image of the mouth, as many as the number of whole mouth type codes. Therefore, a plurality (M: natural number) of intraoral surface image memories 3-1 to 3-M are provided.

4は口内部2次元パッチモデル変形手段で、この口内部
2次元パッチモデル変形手段4は、口形符号に応じて切
り替わった切替手段5を介して入力された口内部画像デ
ータ記憶手段3から選択された口内部側像データを、口
内部形状をパッチの集合で表わした口内部2次元パッチ
モデルにあてはめて口形符号に応じた口内部側像として
出力するものである。
Reference numeral 4 denotes an internal mouth two-dimensional patch model deforming means, and this internal mouth two-dimensional patch model deforming means 4 is selected from the internal mouth image data storage means 3 input via the switching means 5 which is switched according to the mouth shape code. The internal mouth image data is applied to an internal mouth two-dimensional patch model in which the internal shape of the mouth is represented by a set of patches, and is output as an internal mouth image corresponding to the mouth shape code.

5は切替手段で、この切替手段5は、口形符号に応じて
この口形符号に対応する口内部面像メ、モ・す3  x
 (1=112t ・・、M)と口内部2次元パッチモ
デル変形手段4とを接続するように切り替わるものであ
る。
Reference numeral 5 denotes a switching means, and this switching means 5 selects an intraoral surface image corresponding to the mouth shape code according to the mouth shape code.
(1=112t . . . , M) is switched to connect the internal mouth two-dimensional patch model deforming means 4.

6は画像合成手段で、この画像合成手段6は、静止顔画
像データ記憶手段19ロ形2次元パッチモデル変形手段
2および口内部2次元パッチモデル変形手段4からの画
像情報を合成するものである。
Reference numeral 6 denotes an image synthesizing means, and this image synthesizing means 6 synthesizes image information from the still face image data storage means 19, the square two-dimensional patch model transforming means 2, and the internal mouth two-dimensional patch model transforming means 4. .

[作 用] 上述の構成により、まず、初期化時において、送信側か
ら静止原画像データ記憶手段1へ静止顔画像データが送
られるが、その後は、口形2次元パッチモデルが静止顔
画像と整合するように、静止顔画像データ記憶手段1の
静止顔画像データと口形2次元パッチモデル変形手段2
の口形2次元パッチモデルのデータとのマツピングが施
されるとともに、口内部画偽が全口形符号に対して口内
部2次元パッチモデルに整合するように、目白部2次元
パッチモデル変形手段4の口内部2次元パッチモデルと
口内部画像データ記憶手段3の口内部側像データとのマ
ツピングが口形符号の全てについて施される。
[Function] With the above configuration, first, at the time of initialization, still face image data is sent from the sending side to the still original image data storage means 1, but after that, the mouth shape two-dimensional patch model is matched with the still face image. The still face image data in the still face image data storage means 1 and the mouth shape two-dimensional patch model transforming means 2 are
The eye white part two-dimensional patch model deforming means 4 is mapped with the data of the mouth shape two-dimensional patch model, and the eye white part two-dimensional patch model deforming means 4 is mapped with the data of the mouth shape two-dimensional patch model. Mapping between the mouth interior two-dimensional patch model and the mouth interior side image data stored in the mouth interior image data storage means 3 is performed for all mouth shape codes.

このような初期化時の操作の後、通信が行なわれるわけ
であるが、かかる通信時においては、口形2次元パッチ
モデルが、入力された音声情報に対応する口形符号に応
じて変形されるとともに、口形符号に応じて切替手段5
が切り替わり、この切替手段5を介して入力された口内
部側像データが、口内部形状をパッチの集合で表わした
口内部2次元パッチモデルにあてはめられ、口形符号に
応じた口内部側像として出力される。即ち、各口形符号
に応じて、対応する口内部側像のマツピングデータから
口内部側像が再生される。
After such initialization operations, communication is performed, and during such communication, the mouth shape two-dimensional patch model is transformed according to the mouth shape code corresponding to the input audio information, and , switching means 5 according to the mouth shape code.
The internal mouth side image data inputted through this switching means 5 is applied to the internal mouth two-dimensional patch model that represents the internal mouth shape as a set of patches, and the internal mouth side image data is applied to the internal mouth internal side image according to the mouth shape code. Output. That is, in accordance with each mouth shape code, the internal mouth image is reproduced from the mapping data of the corresponding internal mouth image.

そして、画像合成手段6にて、静止顔画像データ記憶手
段12ロ形2次元パッチモデル変形手段2および口内部
2次元パッチモデル変形手段4からの画像情報が合成さ
れる。
Then, the image synthesis means 6 synthesizes the image information from the still face image data storage means 12, the square two-dimensional patch model transformation means 2, and the internal mouth two-dimensional patch model transformation means 4.

これにより1通信中に伝送される音声情報に応じて、受
信画で、顔の動画像が合成されて表示される。
As a result, a moving image of a face is synthesized and displayed as a received image according to audio information transmitted during one communication.

[実施例] 以下、図面を参照して本発明の詳細な説明する。[Example] Hereinafter, the present invention will be described in detail with reference to the drawings.

第2図は本発明の一実施例を示すブロック図で、この実
施例では、送信部10と受信部20とが設けられ、送信
部10は、顔画像入力を画像処理する画像処理部11と
、音声入力を符2号化する音声符号化部12とを含んで
いる。
FIG. 2 is a block diagram showing an embodiment of the present invention. In this embodiment, a transmitting section 10 and a receiving section 20 are provided, and the transmitting section 10 is equipped with an image processing section 11 that processes an input facial image. , and a voice encoding unit 12 that encodes the voice input into code 2.

また、受信部20は、背景画メモリ(静止顔画像データ
記憶手段)19.音声復号化部21.音声認識部227
ロ形モデル変形部36.制御点座標メモリ(テーブル)
23.瞼形モデル変形部24、合成部25.補間点計算
部27.ランダムパルス発生部28.座標テーブル制御
部29を有している。
The receiving unit 20 also includes a background image memory (still face image data storage means) 19. Audio decoding section 21. Voice recognition section 227
Square model deformation section 36. Control point coordinate memory (table)
23. Eyelid shape model deformation section 24, synthesis section 25. Interpolation point calculation unit 27. Random pulse generator 28. It has a coordinate table control section 29.

ここで、背景画メモリ19は、初期化時に送信側より送
られた1フレーム分の顔画像の静止画データ(例えば口
を閉じた顔画像データ)を記憶し格納するものである。
Here, the background image memory 19 stores one frame of still image data of a face image (for example, face image data with a closed mouth) sent from the transmitting side at the time of initialization.

また、音声復号化部21は送信部10で符号化された音
声符号を復号化するもので、音声認識部22は音声復号
化部21から出力された音声信号を音声認識するもので
ある。
The audio decoding unit 21 decodes the audio code encoded by the transmitting unit 10, and the audio recognition unit 22 performs audio recognition on the audio signal output from the audio decoding unit 21.

口形モデル変形部36は、音声認識部22を通じて入力
された音声情報に対応する口形符号に応じて口形を変形
するもので、第3図に示すごとく、コードブック361
2ロ外部モデル変形部362゜口内部画像データ記憶部
363.口内部モデル変形部364.切替スイッチ部3
652合成画像メモリ366をそなえている。
The mouth shape model modification section 36 transforms the mouth shape according to the mouth shape code corresponding to the speech information inputted through the speech recognition section 22, and as shown in FIG.
2. External model transformation section 362. Mouth internal image data storage section 363. Mouth interior model deformation part 364. Changeover switch section 3
652 composite image memory 366.

コードブック361は、音声認識部22から次々と出力
される音素符号(音声の基本構成単位である母音又は子
音などから成るもの)から1組の口形パラメータ値を逐
次選択するものであるが、このコードブック361には
、第4図に示すように、特定の話者が各音素!、■・・
・9mを発生した場合の口の形状をパラメータ■ (例
えば口の横@)、II(例えば唇の厚さ)、・・・+ 
n (例えば口の縦幅)として数値化したテーブルが予
めその個人情報として記憶されている。
The codebook 361 is for sequentially selecting a set of mouth shape parameter values from phoneme codes (consisting of vowels, consonants, etc., which are the basic structural units of speech) output one after another from the speech recognition unit 22. In the codebook 361, as shown in FIG. 4, each phoneme is recorded by a specific speaker! , ■...
・Parameters for the shape of the mouth when 9m is generated ■ (for example, the side of the mouth), II (for example, the thickness of the lips), ...+
A table quantified as n (for example, the vertical width of the mouth) is stored in advance as the personal information.

また、ロ外部モデル変形部362は、コードブック36
1で逐次選択されたIMiの口形パラメータ値に応じて
、口を含む口周辺の形状を第7図に示すように複数(こ
の例では26)のバッチR工〜R2Gの集合で表わした
口形2次元パッチモデルを、各パッチR工〜R2sの頂
点を制御点として変形することにより、ロ外部モデル画
像を変形するものであり、例えば、上記の音素i、n、
mに対する自画像の一例を模式的に示すと、第6図(a
)(b)、(Q)のようになる。
In addition, the external model deformation unit 362
In accordance with the mouth shape parameter values of IMi sequentially selected in step 1, the mouth shape 2 is expressed as a set of multiple (26 in this example) batches R to R2G, as shown in FIG. 7, including the mouth. By transforming the dimensional patch model using the vertices of each patch R to R2s as control points, the external model image is transformed. For example, the above phonemes i, n,
Fig. 6 (a) schematically shows an example of a self-portrait for m.
)(b),(Q).

従って、これらのコードブック3612ロ外部モデル変
形部362は、口形2次元パッチモデルを、入力された
音声情報に対応する口形符号に応じて変形する口形2次
元パッチモデル変形手段を構成する。
Therefore, the codebook 3612 and the external model transformation unit 362 constitute a mouth shape two-dimensional patch model transforming means that transforms the mouth shape two-dimensional patch model according to the mouth shape code corresponding to the input audio information.

なお、ロ外部モデル変形部362は、初期化時に、個人
情報として予めその特定話者の1画面(1フレーム)分
の自画像データを背景画メモリ19を介してもらい、こ
れを口の幾何学的形状の骨組となるパッチ・モデルにマ
ツピングしたものを口形モデル画像として記憶しておく
が、このように、最初に送信部10から目部分の画像を
1画面分送っておく場合でも、フードブック361は予
め作っておく必要がある。
In addition, at the time of initialization, the external model transformation unit 362 receives in advance one screen (one frame) of self-portrait data of the specific speaker as personal information via the background image memory 19, and converts this data into the geometric shape of the mouth. The image mapped onto the patch model that serves as the framework of the shape is stored as a mouth shape model image, but even if one screen of the eye image is first sent from the transmitter 10 in this way, the food book 361 must be made in advance.

口内部画像データ記憶部363は、自画像のうち口腔内
部部分(歯の部分や舌の部分など)を切り出した口内部
画像データを、全口形符号の数(M)だけ記憶するもの
で、このために複数(M)の口内部画像メモリ363−
1〜363−Mを有している。なお、この場合の各口形
符号1,2゜、Mの口内部画像の例を示すと、第9図の
下段部のようになる。
The internal mouth image data storage unit 363 stores the internal mouth image data obtained by cutting out the internal parts of the oral cavity (teeth parts, tongue parts, etc.) from the self-portrait as many as the number (M) of the whole mouth shape code. A plurality (M) of internal mouth image memories 363-
1 to 363-M. In this case, examples of internal mouth images of mouth shapes 1, 2°, and M are shown in the lower part of FIG. 9.

口内部モデル変形部364は、口形符号1(i=1,2
.  ・・、M)に応じて切り替わった切替スイッチ部
365を介して入力された口内部画像データ記憶部36
3から選択された口内部画像データを、口内部形状を第
8図に示すように複数(この例では8)のパッチS□〜
S、の集合で表わした口内部2次元パッチモデルにあて
はめて、口形符号に応じた口内部画像として出力するも
のである。その様子を模式的に示すと、第9図のように
なる。
The mouth internal model deformation unit 364 has a mouth shape code 1 (i=1, 2
.. . . , M), the internal mouth image data storage unit 36 input via the changeover switch unit 365
The internal mouth image data selected from 3 is divided into a plurality of (8 in this example) patches S□~ as shown in FIG.
This is applied to a two-dimensional internal mouth patch model represented by a set of S, and output as an internal mouth image corresponding to the mouth shape code. The situation is schematically shown in FIG. 9.

切替スイッチ部365は1口形符号iに応じてこの口形
符号に対応する口内部画像メモリ363−1と口内部モ
デル変形部364とを接続するように切り替わるもので
ある。
The changeover switch section 365 is switched in accordance with the mouth shape code i to connect the mouth interior image memory 363-1 and the mouth interior model transformation section 364 corresponding to this mouth shape symbol.

合成画像メモリ366は、ロ外部モデル変形部362お
よび口内部モデル変形部364からの画像情報を合成す
るものである。
The composite image memory 366 combines image information from the external model transformation section 362 and the internal mouth model transformation section 364.

なお、この場合も、初期化時において1口形2次元パッ
チモデル(第7図参照)が静止顔画像と整合するように
、静止顔画像データと口形2次元パッチモデルのデータ
とのマツピングを施すほか、口内部画像が全口形符号に
対して口内部2次元パッチモデル(第8図参照)に整合
するように、口内部2次元パッチモデルと口内部画像デ
ータとのマツピングを口形符号の全てについて施してお
く。
In this case as well, mapping is performed between the still face image data and the data of the mouth-shaped two-dimensional patch model so that the one-mouth-shaped two-dimensional patch model (see Figure 7) matches the still face image at the time of initialization. , Mapping between the internal mouth 2D patch model and the internal mouth image data is performed for all mouth shape codes so that the internal mouth image matches the internal mouth 2D patch model (see Figure 8) for all mouth shape codes. I'll keep it.

次に、第2図に示す補間点計算部27は、静止画データ
に対応する瞼形状モデル(第10図参照)の全頂点P1
〜P、の座標データを初期化時に受けて、まばたき開始
から終了までの各フレーム時点での制御点p、、p、、
p4の座標を線形補間計算し、そのデータを制御点座標
メモリ23へ送るものである。
Next, the interpolation point calculation unit 27 shown in FIG. 2 calculates all vertices P1 of the eyelid shape model (see FIG. 10) corresponding to the still image data.
~P, is received at the time of initialization, and the control points p,, p, , at each frame point from the start to the end of blinking are determined.
The coordinates of p4 are calculated by linear interpolation, and the data is sent to the control point coordinate memory 23.

すなわち、この瞼形状モデルは、第10図に示すごとく
、8個の頂点Pi〜P、(各点がx、yの2次元座標値
をもつ)と、これらの頂点Pi〜P。
That is, as shown in FIG. 10, this eyelid shape model has eight vertices Pi to P (each point has two-dimensional coordinate values of x and y) and these vertices Pi to P.

をつないでできる6個の三角形パッチT□〜T6とで構
成されるが、この瞼形状モデルは、まばたきの動作を合
成するため、p、、p、、p4を制御点(X+ y座標
を変化させる点)とし、その他の5点は不動(固定点)
としている。
This eyelid shape model is composed of six triangular patches T□ to T6, which are formed by connecting the point), and the other five points are immovable (fixed points).
It is said that

そして、この補間点計算部27においては、初期化時に
、8個の頂点P1〜P8の座標のほかに、P、、P、、
P4の最下点を示すp2 、p。
Then, in this interpolation point calculation unit 27, in addition to the coordinates of eight vertices P1 to P8, P, , P, .
p2, p indicating the lowest point of P4.

P、′の3点の座標値も与えられ、あらかじめ与えられ
たまばたき1回当りのフレーム数Nより、P2→P2′
→P z 、P x→P、′→P、、P4→P4→P4
の各区間を線形補間するようになっている。
The coordinate values of the three points P and ' are also given, and from the pre-given number of frames per blink N, P2 → P2'
→P z , P x → P, ' → P, , P4 → P4 → P4
It is designed to perform linear interpolation for each interval.

制御点座標メモリ23は、陰影モデル画像の瞼パラメー
タを基に瞼のまばたき動作を記憶するものである。具体
的には、上記補間点計算部27で補間計算されたまばた
き開始から終了までの各フレーム時点における3つの制
御点Pz、P3.P4の座標をテーブルの形で、制御点
座標メモリ23に記憶領域に保管するのである。この制
御点座標テーブルの構成例を第5図に示す。
The control point coordinate memory 23 stores the blinking motion of the eyelids based on the eyelid parameters of the shadow model image. Specifically, three control points Pz, P3 . The coordinates of P4 are stored in the storage area of the control point coordinate memory 23 in the form of a table. An example of the structure of this control point coordinate table is shown in FIG.

ランダムパルス発生部28は、まばたき信号(ランダム
パルス信号)を発生するものである。
The random pulse generator 28 generates a blink signal (random pulse signal).

また、座標テーブル制御部29は、ランダムパルス発生
部28からまばたき開始信号を受けた時点から制御点座
標メモリ23の座標テーブル内の全頂点データを順次読
み出し、各フレームごとに陰影モデル変形部24へと転
送するものである。
Further, the coordinate table control unit 29 sequentially reads out all vertex data in the coordinate table of the control point coordinate memory 23 from the time when the blink start signal is received from the random pulse generation unit 28, and sends the data to the shadow model transformation unit 24 for each frame. This is what is transferred.

陰影モデル変形部24は、顔の瞼部分の幾何学的形状を
示す陰影パラメータによって定義される陰影モデル画像
を記憶するもので、この陰影モデル変形部24では、制
御点座標メモリ23から瞼パラメータを取り出し、この
瞼パラメータに基づいて陰影モデル画像を変形するもの
である。具体的には、座標テーブル制御部29の作用に
より、制御点座標メモリ23から順次送られてくる瞼パ
ラメータを取り込んで、この瞼パラメータに基づいて陰
影モデル画像を変形するのである。ここで、この陰影モ
デル画像の変形の様子を模式的に示すと、第11図(a
)〜(c)のようになる。
The shadow model transformation unit 24 stores a shadow model image defined by shadow parameters indicating the geometrical shape of the eyelid portion of the face. The shadow model image is then transformed based on the eyelid parameters. Specifically, by the action of the coordinate table control unit 29, the eyelid parameters sequentially sent from the control point coordinate memory 23 are taken in, and the shadow model image is transformed based on the eyelid parameters. Here, the state of deformation of this shadow model image is schematically shown in Fig. 11 (a
) to (c).

合成部25は1口形モデル変形部36から発生された画
像口画像(この画像は日周辺部を含む口外影画像と歯や
歯ぐきの部分等を含む口内部画像とを合成されたもので
ある)および陰影モデル変形部24から発生された瞼画
像を、背景画メモリ19に記憶された静止顔画像の目部
分および瞼部分以外の画像と合成するものである。
The synthesis unit 25 generates an image mouth image generated from the single-mouth model transformation unit 36 (this image is a composite of an extra-mouth shadow image including the periphery and an intra-mouth image including the teeth and gums). The eyelid image generated from the shadow model transformation unit 24 is then synthesized with an image other than the eye and eyelid portions of the still face image stored in the background image memory 19.

次に、この実施例の動作を説明する。Next, the operation of this embodiment will be explained.

音声入力は音声符号化部12で符号化されて受信部20
に伝送されるが、この音声符号は音声復号化部21で復
号化して音声として出力される。
The audio input is encoded by the audio encoder 12 and sent to the receiver 20.
This audio code is decoded by the audio decoding section 21 and output as audio.

また、一方において、この音声出力は音声認識部22に
送られ、その音素符号が逐次抽出されてコードブック3
61に送られる。コードブック361では、入力した音
素符号に基づいて第4図に示すコードブックの中から対
応する口形に関する1組のパラメータ値I、II、・・
・、nを選択する。
On the other hand, this voice output is sent to the voice recognition unit 22, and its phoneme codes are sequentially extracted and the codebook 3
Sent to 61. In the codebook 361, a set of parameter values I, II, . . . regarding the corresponding mouth shape are selected from the codebook shown in FIG.
・, select n.

そして、これらの選択された1組のパラメータ値により
、予め記憶したロ外部モデル画像を変形した口周辺画像
をロ外部モデル変形部362で発生する。この結果、発
生された自画像と音声認識部22で抽出された音素との
対応関係は、例えば第6図(a)、(b)、(c)に示
すようになる。
Then, based on the selected set of parameter values, the external model deforming section 362 generates a mouth area image obtained by transforming the external model image stored in advance. As a result, the correspondence between the generated self-image and the phonemes extracted by the voice recognition unit 22 is as shown in FIGS. 6(a), (b), and (c), for example.

また1口形符号iに応じて切替スイッチ部365が切り
替わり、この切替スイッチ部365を介して入力された
口内部画像データが、口内部2次元パッチモデルにあて
はめられ、各口形符号iに応じた口内部画像として出力
される。即ち、各口形符号に応じて、対応する口内部画
像のマツピングデータから口内部画像が再生される。そ
の様子を模式的に示すと、第9図のようになる。
Further, the changeover switch section 365 is switched according to the mouth shape code i, and the internal mouth image data inputted through the changeover switch section 365 is applied to the internal mouth two-dimensional patch model, and the mouth according to each mouth shape code i is applied. Output as an internal image. That is, according to each mouth shape code, the internal mouth image is reproduced from the mapping data of the corresponding internal mouth image. The situation is schematically shown in FIG. 9.

そして、合成画像メモリ366にて、ロ外部モデル変形
部362および口内部モデル変形部364からの画像情
報が合成されることにより、自画像がつくられる。
Then, in the composite image memory 366, the image information from the external model deforming section 362 and the internal mouth model deforming section 364 are combined to create a self-portrait.

なお、初期化時には、第7図に示すような口形2次元パ
ッチモデルが静止顔画像と整合するように、これらの静
止顔画像データと口形2次元パッチモデルのデータとの
マツピングが施されるほか、口内部画像が全口形符号に
対して口内部2次元パッチモデル(第9図参照)に整合
するように、これらの口内部2次元パッチモデルと口内
部画像データとのマツピングが口形符号の全てについて
施される。
In addition, at the time of initialization, mapping is performed between the still face image data and the data of the mouth shape two-dimensional patch model so that the mouth shape two-dimensional patch model shown in FIG. 7 matches the still face image. , the mapping of these internal mouth 2D patch models and the internal mouth image data is performed to match the entire mouth shape code to the internal mouth 2D patch model (see Figure 9). It is carried out about.

一方、ランダムパルス発生部28からは、ランダムな時
間間隔で、まばたき開始信号が発せられる。
On the other hand, the random pulse generator 28 generates a blink start signal at random time intervals.

このようにランダムパルス発生部28からパルス列信号
が出力されると、座標テーブル制御部29では、このま
ばたき開始信号を受けた時点から、制御点座標メモリ2
3の座標テーブル内の全頂点データを読み出し、各フレ
ーム毎に陰影モデル変形部24へと転送する。かかる転
送はまばたき開始信号発生時から単位まばたき当りのフ
レーム数が経過した時点で終了する。そして、陰影モデ
ル変形部24では、上記の頂点データに従って、あらか
じめ記憶した陰影モデル画像を変形した瞼画像を発生す
る。
When the pulse train signal is outputted from the random pulse generator 28 in this way, the coordinate table controller 29 starts the control point coordinate memory 2 from the time when this blink start signal is received.
All vertex data in the coordinate table No. 3 is read out and transferred to the shadow model transformation unit 24 for each frame. Such transfer ends when the number of frames per unit blink has elapsed since the blink start signal was generated. Then, the shadow model transformation unit 24 generates an eyelid image by transforming the shadow model image stored in advance according to the above vertex data.

このようにして変形して発生された自画像(この自画像
は口外部画像と口内部画像とを合成したものである)お
よび瞼画像は、その後、背景画メモリ19に記憶された
静止顔画像の口および瞼以外の画像と、合成部25で、
合成されて、顔全体の動画像として出力されることとな
る。
The self-portrait (this self-portrait is a composite of the external mouth image and the internal mouth image) and eyelid image transformed and generated in this way are then combined with the mouth of the still face image stored in the background image memory 19. and images other than the eyelids, in the compositing section 25,
The images will be combined and output as a moving image of the entire face.

これにより、原動画の情報をより圧縮できるので、情報
量を大きく削減することができ、その結果、低ビツトレ
ートの回線を利用した低廉な画像伝送方式を実現できる
ほか、再生画像の瞼部分が適当にまばたきをしながら、
更に入力音声情報に適合するように、口の部分を変形さ
せる際に、音声情報に対応した口内部画像をも表示でき
るので、より自然な顔の動画像を合成できる。
This makes it possible to further compress the information in the original video, greatly reducing the amount of information.As a result, it is possible to realize an inexpensive image transmission method that uses a low bit rate line, and the eyelids of the reproduced image can be adjusted appropriately. While blinking,
Furthermore, when deforming the mouth to match the input audio information, it is also possible to display an image of the inside of the mouth that corresponds to the audio information, making it possible to synthesize a more natural moving image of the face.

なお、上記の口形モデル変形部36での口形モデル画像
の変形および陰影モデル変形部24での陰影モデル画像
の変形に用いられる手法は、信学技報丁E87−2.第
87巻、第19号、1987に記述されている。
The method used to transform the mouth shape model image in the mouth shape model transformation section 36 and the shadow model image in the shadow model transformation section 24 is as described in IEICE Technical Report E87-2. 87, No. 19, 1987.

[発明の効果] 以上詳述したように、本発明の顔動画像合成システムに
よれば、原動画の情報をより圧、f!できるので、情報
量を大きく削減することができ、その結果、低ビツトレ
ートの回線を利用した低廉な画像伝送方式を実現できる
ほか、受信側で、送信側から送られてくる音声情報から
この音声情報に適合するように、口の部分を変形させて
、画像を再生する際に、音声情報に対応した口内部画像
をも表示できるので、より自然な顔の動画像を合成でき
るという利点がある。
[Effects of the Invention] As detailed above, according to the facial moving image synthesis system of the present invention, the information of the original moving image can be further enhanced, f! As a result, the amount of information can be greatly reduced, and as a result, it is possible to realize an inexpensive image transmission method that uses a low bit rate line. When playing back an image by deforming the mouth part to match the image, it is also possible to display an image of the inside of the mouth that corresponds to the audio information, which has the advantage of being able to synthesize a more natural-looking moving image of the face.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の原理ブロック図、 第2図は本発明の一実施例を示すブロック図、第3図は
口形モデル変形部のブロック図、第4図はコードブック
の構成図、 第5図は制御点座標テーブルの構成図、第6図(a)=
  (b)、(c)は音素符号に対する口画像を示す図
。 第7図は口形2次元パッチモデルを示す図。 第8図は口内部2次元パッチモデルを示−ソ”図、第9
図は口内部画像の生成法を示す模式図。 第10図は瞳領域の形状モデル構成を示す図、第11図
(a)、(b)、(c)は陰影モデル画像の変形の概念
を説明する図、 第12図は従来の一般的な画像伝送方式を示す系統図で
ある。 図において、 1は静止顔画像データ記憶手段、 2は口形2次元パッチモデル変形手段、3は口内部画像
データ記憶手段。 3−1〜3−Mは口内部画像メモリ。 4は口内部2次元パッチモデル変形手段、5は切替手段
、 6は画像合成手段。 10は送信部、 11は画像処理部、 12は音声符号化部、 19は背景画メモリ、 20は受信部、 21は音声復号化部、 22は音声認諏部、 23は制御点座標メモリ(テーブル)、24は瞼形モデ
ル変形部、 25は合成部、 27は補間点計算部、 28はランダムパルス発生部、 29は座標テーブル制御部、 36は口形モデル変形部。 361はコードブック。 362はロ外部モデル変形部。 363は口内部画像データ記憶部、 363−1〜363−Mは口内部画像メモリ、364は
口内部モデル変形部。 365は切替スイッチ部、 366は合成画像メモリである。 コードブックの杉り云゛口 第4 図 51を賢94 外)i卸、曾、7壬オ衆ヤーブルr@5目第5 国 f−L 吉業■ =1 11i (O) (b) If” λト晋素にズ寸オろD旦イ家1運丁を巧第6図 ロ形2ン穴元ノV−/芒ヒモチノ4カへ′1′Dコ// \ ロロ舌岩jI徨fl生、吸(乞j瓢すオ更デ灯3コ第9
図 口内台P2次元)で、7手モすル乞がす2とj、÷貝域
/1′71′9状七i′ル7丁茸7蚊?、せ刀第10図 −フし−ム1 7し−ムN/2 7し−ムN 8會・わモすルV!像η−1−IAtrt/忠Eg児明
す相第11図
Fig. 1 is a block diagram of the principle of the present invention, Fig. 2 is a block diagram showing an embodiment of the present invention, Fig. 3 is a block diagram of a mouth shape model deformation section, Fig. 4 is a configuration diagram of a codebook, and Fig. 5 is a block diagram showing an embodiment of the present invention. The figure is a configuration diagram of the control point coordinate table, Figure 6 (a) =
(b) and (c) are diagrams showing mouth images corresponding to phoneme codes. FIG. 7 is a diagram showing a mouth shape two-dimensional patch model. Figure 8 shows a two-dimensional patch model of the inside of the mouth.
The figure is a schematic diagram showing a method for generating an internal mouth image. Figure 10 is a diagram showing the configuration of the shape model of the pupil region, Figures 11 (a), (b), and (c) are diagrams explaining the concept of deformation of the shadow model image, and Figure 12 is the conventional general FIG. 2 is a system diagram showing an image transmission method. In the figure, 1 is a still face image data storage means, 2 is a mouth shape two-dimensional patch model transformation means, and 3 is an internal mouth image data storage means. 3-1 to 3-M are internal mouth image memories. 4 is an internal mouth two-dimensional patch model deformation means, 5 is a switching means, and 6 is an image synthesis means. 10 is a transmitting unit, 11 is an image processing unit, 12 is an audio encoding unit, 19 is a background image memory, 20 is a receiving unit, 21 is an audio decoding unit, 22 is an audio recognition unit, 23 is a control point coordinate memory ( 24 is an eyelid model transformation section, 25 is a synthesis section, 27 is an interpolation point calculation section, 28 is a random pulse generation section, 29 is a coordinate table control section, and 36 is a mouth shape model transformation section. 361 is a codebook. 362 is an external model transformation part. 363 is an internal mouth image data storage unit, 363-1 to 363-M are internal mouth image memories, and 364 is an internal mouth model transformation unit. 365 is a changeover switch section, and 366 is a composite image memory. Codebook Sugiri Yunguchi No. 4 Figure 51 Ken94 Ex) i Wholesale, Zeng, 7 壬 小 連 @ 5 目 5 Country f-L Good business ■ = 1 11i (O) (b) If ” λ To Shinmoto Zuzuoro D Dan I family 1 Uncho to skill 6 Lo shape 2 N hole base V- / To 4 people in Aohimochino '1' D Ko // \ Roro tongue rock jI 徨Fl raw, sucking
In the figure (internal table P2 dimension), 7 hand mosuru begging 2 and j, ÷ shell area / 1'71'9 shape 7 i'le 7 mushrooms 7 mosquitoes? , Seto Figure 10 - Frame 1 7 Shi-mu N/2 7 Shi-mu N 8 Meeting Wamosuru V! Image η-1-IAtrt/Zhong Egji bright phase Fig. 11

Claims (2)

【特許請求の範囲】[Claims] (1)初期化時に伝送される少数の初期化データを用い
ることにより、通信中に伝送される音声情報に応じて、
受信側で顔の動画像を合成して表示する顔動画像合成シ
ステムにおいて、 該受信側に、 該初期化時に送られる1フレーム分の静止顔画像データ
を記憶する静止顔画像データ記憶手段(1、19)と、 口を含む口周辺の形状をパッチの集合で表わした口形2
次元パッチモデルを、入力された音声情報に対応する口
形符号に応じて変形する口形2次元パッチモデル変形手
段(2、361、362)と、口画像のうち口腔内部部
分を切り出した口内部画像データを全口形符号の数だけ
記憶する口内部画像データ記憶手段(3、363)と、 口形符号に応じて該口内部画像データ記憶手段(3、3
63)から選択された口内部画像データを、口内部形状
をパッチの集合で表わした口内部2次元パッチモデルに
あてはめて、該口形符号に応じた口内部画像として出力
する口内部2次元パッチモデル変形手段(4、364)
と、 該静止顔画像データ記憶手段(1、19)、該口形2次
元パッチモデル変形手段(2、362)および該口内部
2次元パッチモデル変形手段(4、364)からの画像
情報を合成する画像合成手段(6、366)とをそなえ
て構成されたことを 特徴とする、顔動画像合成システム。
(1) By using a small amount of initialization data transmitted during initialization, depending on the audio information transmitted during communication,
In a facial moving image synthesis system that synthesizes and displays facial moving images on a receiving side, the receiving side includes still face image data storage means (1) for storing one frame of still facial image data sent at the time of initialization. , 19) and mouth shape 2, which represents the shape of the mouth area including the mouth as a collection of patches.
Mouth shape two-dimensional patch model transformation means (2, 361, 362) that transforms a dimensional patch model according to a mouth shape code corresponding to input audio information; and mouth internal image data that is obtained by cutting out an internal part of the oral cavity from a mouth image. internal mouth image data storage means (3, 363) for storing the same number of mouth shape codes as the number of mouth shape codes;
63) is applied to an internal mouth 2-dimensional patch model in which the internal mouth shape is represented by a set of patches, and outputs an internal mouth image according to the mouth shape code. Transformation means (4, 364)
and combining image information from the still face image data storage means (1, 19), the mouth shape two-dimensional patch model transformation means (2, 362), and the mouth internal two-dimensional patch model transformation means (4, 364). 1. A face moving image synthesis system, comprising: an image synthesis means (6, 366).
(2)該初期化時において、該口形2次元パッチモデル
が該静止顔画像と整合するように該静止顔画像データと
該口形2次元パッチモデルのデータとのマッピングを施
すとともに、該口内部画像が全口形符号に対して該口内
部形2次元パッチモデルに整合するように、該口内部形
2次元パッチモデルと該口内部画像データとのマッピン
グを口形符号の全てについて施すことを特徴とする、請
求項1記載の顔動画像合成システム。
(2) At the time of initialization, the still face image data and the data of the mouth shape two-dimensional patch model are mapped so that the mouth shape two-dimensional patch model matches the still face image, and the mouth internal image is is characterized in that mapping is performed between the intra-mouth shape two-dimensional patch model and the intra-mouth image data for all mouth shape codes so that the internal mouth shape two-dimensional patch model matches the entire mouth shape code with the intra-mouth shape two-dimensional patch model. The face moving image synthesis system according to claim 1.
JP63187702A 1988-07-27 1988-07-27 Facial video synthesis system Expired - Fee Related JP2667455B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63187702A JP2667455B2 (en) 1988-07-27 1988-07-27 Facial video synthesis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63187702A JP2667455B2 (en) 1988-07-27 1988-07-27 Facial video synthesis system

Publications (2)

Publication Number Publication Date
JPH0236687A true JPH0236687A (en) 1990-02-06
JP2667455B2 JP2667455B2 (en) 1997-10-27

Family

ID=16210664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63187702A Expired - Fee Related JP2667455B2 (en) 1988-07-27 1988-07-27 Facial video synthesis system

Country Status (1)

Country Link
JP (1) JP2667455B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02105681U (en) * 1989-02-08 1990-08-22
JPH06121311A (en) * 1992-10-05 1994-04-28 Casio Comput Co Ltd Virtual reality space sharing system
JPH0795550A (en) * 1993-07-15 1995-04-07 Nec Corp Video display device
US5426460A (en) * 1993-12-17 1995-06-20 At&T Corp. Virtual multimedia service for mass market connectivity
US5557661A (en) * 1993-11-02 1996-09-17 Nec Corporation System for coding and decoding moving pictures based on the result of speech analysis
US6330023B1 (en) * 1994-03-18 2001-12-11 American Telephone And Telegraph Corporation Video signal processing systems and methods utilizing automated speech analysis
US7198078B2 (en) 2003-07-04 2007-04-03 Toyoda Gosei Co., Ltd. Filler pipe

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3070073B2 (en) 1990-07-13 2000-07-24 ソニー株式会社 Shape control method based on audio signal

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02105681U (en) * 1989-02-08 1990-08-22
JPH06121311A (en) * 1992-10-05 1994-04-28 Casio Comput Co Ltd Virtual reality space sharing system
JPH0795550A (en) * 1993-07-15 1995-04-07 Nec Corp Video display device
US5557661A (en) * 1993-11-02 1996-09-17 Nec Corporation System for coding and decoding moving pictures based on the result of speech analysis
US5426460A (en) * 1993-12-17 1995-06-20 At&T Corp. Virtual multimedia service for mass market connectivity
US6330023B1 (en) * 1994-03-18 2001-12-11 American Telephone And Telegraph Corporation Video signal processing systems and methods utilizing automated speech analysis
US7198078B2 (en) 2003-07-04 2007-04-03 Toyoda Gosei Co., Ltd. Filler pipe

Also Published As

Publication number Publication date
JP2667455B2 (en) 1997-10-27

Similar Documents

Publication Publication Date Title
US5710590A (en) Image signal encoding and communicating apparatus using means for extracting particular portions of an object image
US7145606B2 (en) Post-synchronizing an information stream including lip objects replacement
JPH05153581A (en) Face picture coding system
JP2006330958A (en) Image composition device, communication terminal using the same, and image communication system and chat server in the system
EP1422928A3 (en) Motion compensated interpolation of digital video signals
JPH0823530A (en) Method and apparatus for processing stream of audio signal and video signal
JP2004533666A (en) Communications system
JPS62120179A (en) Image transmitter and image synthesizer
EP1459550A1 (en) Video communication system using model-based coding and prioritization techniques
JPH089372A (en) Device for increasing frame transmission rate of received video signal
JPH03121688A (en) Coding and decoding device for picture signal
US20030163315A1 (en) Method and system for generating caricaturized talking heads
JPH10247254A (en) Lip motion parameter generator
JP2667455B2 (en) Facial video synthesis system
CA2162199A1 (en) Acoustic-assisted image processing
JPH06319130A (en) Picture transmission system
US6473136B1 (en) Television broadcast transmitter/receiver and method of transmitting/receiving a television broadcast
JPH01190187A (en) Picture transmission system
KR100229538B1 (en) Apparatus and method for encoding a facial movement
JP2644789B2 (en) Image transmission method
JPH10271499A (en) Image processing method using image area, image processing unit using the method and image processing system
JPH02196585A (en) Voice signal communication equipment
JPH0888853A (en) Medium processing system
JP3854871B2 (en) Image processing apparatus, image processing method, recording medium, and program
US7154906B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable storage medium storing image processing program code

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees