JPH0714208B2 - Video transmission system - Google Patents

Video transmission system

Info

Publication number
JPH0714208B2
JPH0714208B2 JP17384789A JP17384789A JPH0714208B2 JP H0714208 B2 JPH0714208 B2 JP H0714208B2 JP 17384789 A JP17384789 A JP 17384789A JP 17384789 A JP17384789 A JP 17384789A JP H0714208 B2 JPH0714208 B2 JP H0714208B2
Authority
JP
Japan
Prior art keywords
image
information
model
movement
density
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP17384789A
Other languages
Japanese (ja)
Other versions
JPH0338188A (en
Inventor
敏 南
納 中村
貴 水野
Original Assignee
株式会社テレマティーク国際研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社テレマティーク国際研究所 filed Critical 株式会社テレマティーク国際研究所
Priority to JP17384789A priority Critical patent/JPH0714208B2/en
Publication of JPH0338188A publication Critical patent/JPH0338188A/en
Publication of JPH0714208B2 publication Critical patent/JPH0714208B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明はテレビ電話やテレビ会議に利用する動画像伝送
方式に関する。本発明は、伝送情報量を圧縮しながら、
より自然な画像を伝送することができる動画像の伝送方
式に関する。
DETAILED DESCRIPTION OF THE INVENTION [Industrial field of use] The present invention relates to a moving image transmission system used for videophones and video conferences. The present invention, while compressing the amount of transmitted information,
The present invention relates to a moving image transmission method capable of transmitting more natural images.

〔概要〕〔Overview〕

本発明は、モデル画像を伝送しておき、その後の画像の
動き情報を伝送して、そのモデル画像に変形を加えて動
画像を合成して表示する動画像伝送方式において、 画像の動きによる濃度変化を等濃線情報として抽出して
伝送し、この等濃線情報によってモデル画像から合成さ
れた動画像の濃度を補正することにより、 より自然な動画像を少ない情報量の伝送で実現するもの
である。
The present invention relates to a moving image transmission method in which a model image is transmitted, motion information of the subsequent image is transmitted, and the model image is deformed to synthesize and display the moving image. Realization of a more natural moving image by transmission of a small amount of information by extracting and transmitting changes as isodensity line information and correcting the density of the moving image synthesized from the model image based on this isodensity line information Is.

〔従来の技術〕[Conventional technology]

テレビ電話やテレビ会議等に使用される顔の画像を伝送
する動画像伝送方式として、伝送情報量を圧縮して伝送
路の使用帯域を圧縮できる動画像伝送方式が種々研究さ
れている。このような動画像伝送方式として、知的符号
化方式が研究されている。
As a moving image transmission method for transmitting a face image used in a videophone, a video conference, etc., various moving image transmission methods capable of compressing a transmission information amount and compressing a used band of a transmission line have been studied. As such a moving image transmission method, an intelligent encoding method has been studied.

この方式はあらかじめモデル画像を1枚だけ通話に先立
って伝送しておき、通話中は通話者の顔の動きの情報の
みを伝送する方式である。より詳しく述べると、あらか
じめ、通話に先立って、送信側から受信側へ通話者の顔
のモデル画像(静止画像であり、無表情のもの)を1枚
伝送しておき、受信側では、このモデル画像に基づいて
通話者の顔の形状モデルを形成しておく。そして実際の
通話中は、送信側で通話者の顔各部の動きを認識してそ
の動きを解析し、この動きの解析情報を受信側に伝送す
る。受信側では受信した動きの解析情報に基づいて上述
のモデル画像に基づく形状モデルを変形して動画像を合
成し、これを表示するものである。
This method is a method in which only one model image is transmitted in advance prior to a call, and only information about the face movement of the caller is transmitted during the call. More specifically, prior to the call, one model image of the face of the caller (still image, with no expression) is transmitted from the sender side to the receiver side. A face shape model of the caller is formed based on the image. During an actual call, the transmitting side recognizes the movement of each part of the face of the caller, analyzes the movement, and transmits the analysis information of this movement to the receiving side. On the receiving side, the shape model based on the above-mentioned model image is transformed based on the received motion analysis information to synthesize a moving image, and this is displayed.

〔発明が解決しようとする問題点〕[Problems to be solved by the invention]

このような従来の動画像伝送方式の問題として、顔の形
状変化に伴う顔面への照明の当たり方の変化の情報が伝
送されない問題がある。これは、顔の形状変化により顔
面への照明の当たり方すなわち照射角度が変化するた
め、その部分の濃度値が動きに伴って変化する情報であ
る。仮に送信側で顔の動きが全く正確に抽出できたとし
ても、この情報が伝送されなければ、受信側でモデルを
変形しただけでは送信側と同じ画像を再現することはで
きない。
As a problem of such a conventional moving image transmission system, there is a problem that information on a change in how the face is illuminated is not transmitted due to a change in the shape of the face. This is information that the density value of the portion changes with the movement because the way the face is illuminated, that is, the irradiation angle changes due to the change in the shape of the face. Even if the transmitting side can accurately extract the facial movement, if this information is not transmitted, the same image as the transmitting side cannot be reproduced only by deforming the model on the receiving side.

さらに具体例を挙げると、しわの表現が挙げられる。し
わは、顔面の形状が変化することによる影の部分として
表出するもので、モデル画像にはこれに関する濃度情報
は含まれていない。このため、モデルを変形するだけで
しわを表現することは不可能となっている。
A more specific example is the expression of wrinkles. Wrinkles appear as shadows due to changes in the shape of the face, and the model image does not include density information related thereto. For this reason, it is impossible to express wrinkles simply by deforming the model.

本発明は、上述の問題点を解決するもので、入力画像の
濃度変化情報を等濃線情報として伝送してこの情報によ
り濃度補正を行うことにより、より入力画像に近い自然
な画像を伝送することができる動画像伝送方式を提供す
ることを目的とする。
The present invention solves the above-mentioned problems, and transmits density change information of an input image as isodensity line information and performs density correction using this information, thereby transmitting a natural image closer to the input image. It is an object of the present invention to provide a moving image transmission system capable of performing the above.

〔問題点を解決するための手段〕[Means for solving problems]

本発明は、送信側に、通話に先立ってモデル画像を伝送
する手段と、通話中の画像の動きを解析して動きの情報
を受信側に伝送する手段とを備え、受信側に、送信側か
ら伝送されてくる画像の動きの情報により上記モデル画
像を変形して動きを伴う画像を合成する手段を備えた動
画像伝送方式において、 送信側に、通話中の画像の濃度の等しい点を線で結んだ
等濃線情報を時系列的に抽出する手段と、この手段で抽
出された等濃線情報を順次受信側に伝送する手段とを備
え、受信側に受信した上記等濃線情報により上記合成さ
れた画像の濃度補正を行う手段を備えたことを特徴とす
る。
The present invention includes, on the transmitting side, means for transmitting a model image prior to a call, and means for analyzing movement of an image during a call and transmitting motion information to the receiving side. In a moving image transmission system equipped with means for transforming the model image according to the information on the image motion transmitted from the device and synthesizing an image accompanied by motion, on the transmitting side, a point where the density of the image during the call is equal is drawn. And a means for sequentially transmitting the isoconcentration line information extracted by this means to the receiving side, and using the isoconcentration line information received by the receiving side. It is characterized in that a means for correcting the density of the combined image is provided.

また、本発明は、送信側に、通話中の入力画像の濃度の
等しい点を線で結んだ等濃線を抽出する手段と、抽出さ
れた等濃線を符号化する手段とを備え、受信側に、受信
した等濃線情報から濃淡画像を復元する手段と、モデル
画像から動きを合成によって合成された画像の等濃線を
抽出する手段と、抽出した等濃線から上記合成された画
像の濃淡画像を復元する手段と、上記受信した等濃線情
報から復元した濃淡画像と上記モデル画像から合成され
た画像の濃淡画像との濃度差を算出する手段と、この濃
度差により上記合成された画像の濃度補正を行う手段と
を備えることができる。
Further, the present invention includes, on the transmission side, means for extracting an isodensity line connecting points having the same density of an input image during a call with a line, and means for encoding the extracted isodensity line, On the side, a means for restoring a grayscale image from the received isoconcentric line information, a means for extracting an isoconcentric line of the image composed by combining the motions from the model image, and an image composed as described above from the extracted isoconcentric lines Means for restoring the grayscale image, a means for calculating the density difference between the grayscale image restored from the received iso-concentration line information and the grayscale image of the image synthesized from the model image, and the density difference And a means for correcting the density of the image.

〔作用〕[Action]

本発明では、まず通話に先立って通話者の静止したモデ
ル画像を伝送しておく。受信側ではこのモデル画像から
特徴点を抽出して特徴点のデータとして蓄積しておく。
In the present invention, first, a static model image of the caller is transmitted prior to the call. The receiving side extracts characteristic points from this model image and stores them as characteristic point data.

通話中は、送信側で入力画像の特徴点を抽出して画像の
動きの情報として受信側に伝送し、受信側ではこの情報
により、モデル画像を変形して合成画像を作成する。
During a call, the transmitting side extracts the characteristic points of the input image and transmits it to the receiving side as image movement information, and the receiving side deforms the model image based on this information to create a composite image.

送信側では、画像の動きの情報とともに、その画像の濃
度を等濃線情報の時系列情報として抽出してこれを受信
側に順次伝送する。受信側ではこの等濃線情報に基づい
てモデル画像から変形された合成画像の濃度補正を行っ
て出力画像として受信側の通話者に表示する。
On the transmitting side, the density of the image is extracted as time-series information of the contour line information together with the information on the movement of the image, and this is sequentially transmitted to the receiving side. The receiving side corrects the density of the composite image transformed from the model image based on the contour line information, and displays it as an output image to the receiving party.

このように、等濃線情報を用いることにより、伝送情報
量を削減できるから全画素の濃度情報を伝送するより伝
送効率が向上する。また、等濃線の時間的変化は、顔面
の動きをよく表しているから自然な復元画像を得ること
ができる。
As described above, by using the contour line information, the amount of transmission information can be reduced, so that the transmission efficiency is improved as compared with the case of transmitting the density information of all pixels. Further, the temporal change of the contour lines well represents the movement of the face, so that a natural restored image can be obtained.

〔実施例〕〔Example〕

以下本発明の実施例を図面に基づいて説明する。 Embodiments of the present invention will be described below with reference to the drawings.

第1図は本発明一実施例の動画像伝送方式の構成を示す
ブロック図である。
FIG. 1 is a block diagram showing the configuration of a moving image transmission system according to an embodiment of the present invention.

この実施例の動画像伝送方式は、送信側は通話者1の顔
面を撮影する撮影手段2と、この撮影手段2で撮像され
た画像を解析する画像解析手段3と、この画像解析手段
3で解析された画像情報を伝送路5上に送出する送信手
段4とを備える。また受信側は、伝送路5上の画像情報
を受信する受信手段6と、この受信手段6で受信した画
像情報から動画像を合成する画像合成手段7と合成した
動画像を通話者9に表示する画像表示手段8とを備え
る。なお、この撮像手段2は通常のテレビ撮像機であ
り、画像表示手段8はテレビ表示機である。
In the moving image transmission system of this embodiment, the transmitting side uses the photographing means 2 for photographing the face of the caller 1, the image analyzing means 3 for analyzing the image photographed by the photographing means 2, and the image analyzing means 3. And a transmitting means 4 for transmitting the analyzed image information onto the transmission path 5. Also, the receiving side displays a moving image combined with the receiving means 6 for receiving the image information on the transmission path 5 and the image combining means 7 for combining the moving image from the image information received by the receiving means 6 to the caller 9. The image display means 8 is provided. The image pickup means 2 is a normal television image pickup device, and the image display means 8 is a television display device.

送信側の画像解析手段3は、撮像手段2で撮影した通話
者1の画像情報から、通話に先立って受信側に伝送する
静止画像であるモデル画像を抽出して受信側に伝送する
モデル画像抽出手段31と、通話中の通話者1の顔面の動
きを解析して動きの情報を出力する動き解析手段32と、
通話中の通話者1の顔面の濃度の情報である等濃線を抽
出する等濃線抽出手段33とを備える。
The image analysis means 3 on the transmission side extracts a model image, which is a still image to be transmitted to the reception side prior to the call, from the image information of the caller 1 captured by the imaging means 2, and then extracts the model image to be transmitted to the reception side. A means 31 and a movement analysis means 32 for analyzing the movement of the face of the calling party 1 during the call and outputting the movement information.
An iso-dense line extracting means 33 for extracting an iso-dense line which is information on the density of the face of the caller 1 during a call is provided.

また受信側の画像合成手段7は、通話に先立って受信し
たモデル画像からその特徴点を抽出するモデル作成手段
71と、受信した動きの情報に基づいて上記作成されたモ
デル画像を変形して動き合成が行われた合成画像を作成
する動き合成手段72と、受信した等濃線情報に基づいて
動き合成が行われた合成画像の濃度補正を行う濃度補正
手段73とを備える。
The image synthesizing means 7 on the receiving side is a model creating means for extracting the feature points from the model image received prior to the call.
71, a motion synthesizing unit 72 that transforms the model image created above based on the received motion information to create a composite image that has been subjected to motion synthesizing, and motion synthesizing based on the received iso-concentration line information. And a density correction unit 73 that corrects the density of the synthesized image that has been executed.

なお、この動画像伝送方式は双方向性であり、逆方向伝
送も同様の構成で行われる。
Note that this moving image transmission system is bidirectional, and reverse transmission is also performed with the same configuration.

本発明の特徴とするところは、自然な動画像を生成する
ために、動きに伴う顔面の反射程度の変化情報を情報量
を削減し、かつ顔面の大まかな濃度分布をよく表す等濃
線として抽出して受信側に伝送し、受信側でこの等濃線
に基づいて復元した画像とモデル画像から復元された画
像の濃度との差分を算出して動き合成がなされた合成画
像にこの差分を加算して濃度補正を行って通話中の自然
な画像を伝送するところにある。
The feature of the present invention is that, in order to generate a natural moving image, the change amount information of the degree of reflection of the face due to the movement is reduced as an information amount, and is represented as a contour line that well represents the rough density distribution of the face. It is extracted and transmitted to the receiving side, and the receiving side calculates the difference between the density of the image reconstructed based on the contour lines and the density of the image reconstructed from the model image, and this difference is added to the composite image subjected to motion composition. This is to add and correct the density to transmit a natural image during a call.

次に本実施例動画像伝送方式における画像処理の流れの
ブロック図を第2図に示す。このブロック図は第1図に
おける画像解析手段3と画像合成手段7とが行う画像処
理の詳細を示している。
Next, FIG. 2 shows a block diagram of the flow of image processing in the moving image transmission system of this embodiment. This block diagram shows the details of the image processing performed by the image analysis means 3 and the image synthesis means 7 in FIG.

本実施例動画像伝送方式での画像処理は、大きく分けて
モデル作成、動きの解析および合成、等濃線の抽出およ
び濃度補正の3つに分けられる。以下それぞれの画像処
理について詳細に説明する。
Image processing in the moving image transmission system of this embodiment is roughly divided into three types: model creation, motion analysis and synthesis, isodensity line extraction, and density correction. Each image processing will be described in detail below.

(1)モデル作成 本実施例では、先見的知識として、受信側に通話者1の
モデル画像を1枚用意し、このモデル画像に基づき通話
者1の顔形状を表すワイヤーフレームを作成しておく。
このワイヤーフレーム作成手順について説明する。
(1) Model Creation In this example, as a priori knowledge, one model image of the caller 1 is prepared on the receiving side, and a wire frame representing the face shape of the caller 1 is created based on this model image. .
The procedure for creating the wire frame will be described.

まず、送信側で通話者1の顔画像の1枚をモデル画像11
1として撮像手段2からの入力より抽出する。この顔画
像は静止画像であり無表情のものである。このモデル画
像を通話に先立ち受信側に伝送する。受信側では、受信
したモデル画像112から通話者1の顔の特徴点120点およ
び虹彩の中心と半径を抽出する。ついでこの顔の特徴点
を用いてワイヤーフレーム構成点385点の位置を線形的
に算出する。そして特徴点とワイヤーフレームの構成点
を3角フレームにより接続して、モデルワイヤーフレー
ム114とする。そして、上述のモデル画像112、モデルの
特徴点(虹彩の中心と半径の情報も含む)情報113、モ
デルワイヤーフレーム114を知識データベース115に記憶
しておく。
First, on the sending side, one of the face images of the caller 1 is model image 11
Extracted from the input from the image pickup means 2 as 1. This face image is a still image and has no expression. This model image is transmitted to the receiving side before the call. On the receiving side, 120 feature points of the face of the caller 1 and the center and radius of the iris are extracted from the received model image 112. Then, the positions of the 385 wire frame composing points are linearly calculated using the feature points of the face. Then, the characteristic points and the constituent points of the wire frame are connected by a triangular frame to form a model wire frame 114. Then, the model image 112, the model feature point information (including information on the center and radius of the iris) 113, and the model wire frame 114 are stored in the knowledge database 115.

(2)動きの解析および合成 通話中の通話者1の顔の動きは、送信側で特徴点に基づ
いて抽出して受信側に伝送し、受信側でこの動きの情報
に基づいてモデル画像を変形して顔の動きのある画像を
合成する。この動きの解析および抽出は、顔の各器官、
例えば目、鼻等の位置に基づいて行う。
(2) Motion analysis and synthesis The motion of the face of the talker 1 during a call is extracted on the basis of feature points on the transmitting side and transmitted to the receiving side, and on the receiving side a model image is based on this motion information. It transforms and synthesizes an image with facial movements. This motion analysis and extraction is performed for each facial organ,
For example, it is performed based on the positions of the eyes, the nose, and the like.

まず、動きの解析の先立って、その処理を簡素化するた
めに、顔の各器官の大まかな位置を示す領域すなわち候
補領域を設定する。この候補領域設定処理は、通話の初
期フレームでは局所的しきい値を用いた2値化画像から
各器官を表す領域を逐次的に探索することにより行い、
以降のフレームでは前のフレームで抽出された特徴点を
用いて行う。
First, prior to the analysis of the motion, in order to simplify the processing, a region indicating a rough position of each organ of the face, that is, a candidate region is set. This candidate area setting process is performed by sequentially searching for an area representing each organ from a binarized image using a local threshold in the initial frame of a call,
In the subsequent frames, the feature points extracted in the previous frame are used.

この候補領域内で微分および細線化を行い、顔の各器官
の輪郭線、すなわち特徴線を抽出する。この時の微分マ
スクの種類や大きさあるいは細線化のアルゴリズム等は
抽出する特徴線によって異なるものとする。
Differentiation and thinning are performed within this candidate region to extract the contour lines of each facial organ, that is, the feature lines. At this time, the type and size of the differential mask, the thinning algorithm, and the like differ depending on the characteristic line to be extracted.

次に抽出された特徴線上の120点を特徴点として抽出し
これを受信側に伝送する。また、虹彩の中心および半径
は、目の候補領域内の微分画像を用いて、その微分値を
重みとするハフ変換を行うことにより抽出し、上述の特
徴点とともに特徴点情報122として受信側へ伝送する。
Next, 120 points on the extracted characteristic line are extracted as characteristic points and transmitted to the receiving side. Further, the center and radius of the iris are extracted by performing Hough transform using the differential image in the eye candidate region and using the differential value as the weight, and are transmitted to the receiving side as the feature point information 122 together with the above-mentioned feature points. To transmit.

この送信側での動きの解析動作のフローチャートを第3
図に示す。
The flowchart of the motion analysis operation on the transmitting side is described in the third section.
Shown in the figure.

受信側での動きを合成した合成画像の作成は、ワイヤー
フレームを用いたモデル画像のアフィン変換を基本とし
て行う。
The creation of a composite image that combines the motions on the receiving side is basically based on the affine transformation of the model image using the wire frame.

まず、受信した特徴点情報123内の入力画像の特徴点120
点を用いてモデル画像のワイヤーフレーム作成と同様の
処理により入力ワイヤーフレーム124を作成する。次に
知識データベース115からモデルワイヤーフレーム126を
取り出し、このモデルワイヤーフレーム126と、入力ワ
イヤーフレーム124とを用いてモデル画像128の変形を行
う。この変形はモデルワイヤーフレーム126の各3角フ
レームに含まれるモデル画像の画素を入力ワイヤーフレ
ーム124の対応する3角フレーム内へとアフィン変換す
ることにより行う。得られた画像が合成画像129であ
る。
First, the feature point 120 of the input image in the received feature point information 123
The input wireframe 124 is created by the same process as the wireframe creation of the model image using the points. Next, the model wire frame 126 is extracted from the knowledge database 115, and the model image 128 is deformed using this model wire frame 126 and the input wire frame 124. This modification is performed by affine-transforming the pixels of the model image included in each triangular frame of the model wire frame 126 into the corresponding triangular frame of the input wire frame 124. The obtained image is the composite image 129.

次に、目の内部は、モデル画像および入力画像の虹彩の
中心と半径の情報を用いて、虹彩の部分はモデル画像の
虹彩の部分から、白目の部分はモデル画像の白目の部分
からそれぞれの画素をアフィン変換して合成する。これ
により合成画像130が得られる。
Next, inside the eye, the iris portion is extracted from the iris portion of the model image, and the white eye portion is extracted from the white eye portion of the model image, using information about the center and radius of the iris of the model image and the input image. Pixels are affine transformed and combined. As a result, the composite image 130 is obtained.

この受信側での画像の合成動作のフローチャートを第4
図に示す。
The flowchart of the image synthesizing operation on the receiving side is described in the fourth section.
Shown in the figure.

(3)等濃線による合成画像の濃度補正 ここで、画像中の等しい濃度値を持つ画素を結ぶことに
より得られる線を等濃線と呼ぶことにする。
(3) Density Correction of Composite Image by Contour Lines Here, a line obtained by connecting pixels having the same density value in an image is called a contour line.

送信側では、画像の濃度値を検出するために、まず、入
力画像121を画像のダイナミックレンジを8等分するし
きい値を用いて量子化する。この量子化された画像に対
して、注目画素を中心とする9×9画素のマスクを用い
る多数決論理によって画像を平滑化する。これは平滑化
により雑音を拾った画素であるとか、周辺の画素と相違
するような値の画素を平均化するためのものである。そ
して、平滑化された入力画像121の濃度値の変化する部
分すなわち実際には上記8レベルの境界を等濃線131と
して抽出する。この抽出した等濃線をチェーン符号によ
り符号化して、受信側へ伝送する。このチェーン符号化
方法としては、例えば等濃線のある1点の座標を開始点
として、その線の方向を8方向あるいは4方向として指
定する符号化がある。
On the transmitting side, in order to detect the density value of the image, first, the input image 121 is quantized using a threshold value that divides the dynamic range of the image into eight equal parts. For this quantized image, the image is smoothed by the majority logic using a mask of 9 × 9 pixels centered on the pixel of interest. This is for averaging pixels having noise picked up by smoothing or having a value different from that of surrounding pixels. Then, the portion where the density value of the smoothed input image 121 changes, that is, the boundary of the above eight levels is actually extracted as a contour line 131. The extracted contour lines are encoded by a chain code and transmitted to the receiving side. As this chain encoding method, for example, there is an encoding method in which the coordinates of one point having a contour line are designated as the starting point and the direction of the line is designated as 8 directions or 4 directions.

この送信側での等濃線の抽出動作のフローチャートを第
5図に示す。
FIG. 5 shows a flowchart of the operation of extracting the contour lines on the transmitting side.

この入力画像の濃度を等濃線として抽出することによ
り、全ての画素についての濃度の変化を伝送することに
比べて受信側に伝送する情報量を減縮するとが可能であ
る。
By extracting the density of this input image as a contour line, it is possible to reduce the amount of information transmitted to the receiving side as compared to transmitting the change in density of all pixels.

受信側では、受信した符号化された等濃線の情報を復号
化した等濃線134を得る。また、受信側では送信側と同
様な処理によってモデル画像に基づいて動きの補正がな
された合成画像130から等濃線136を抽出する。
On the receiving side, the contour lines 134 obtained by decoding the received encoded contour lines information are obtained. Further, the receiving side extracts the iso-density line 136 from the composite image 130 in which the motion is corrected based on the model image by the same processing as the transmitting side.

そして入力画像の等濃線134と合成画像の等濃線136とを
等濃線間の画素の濃度値を補間することにより、濃淡画
像135および137へと変換する。この補間方法としては、
等濃線間のある1つの画素について、上下左右の交差す
る等濃線と交点までの距離を求めて、濃度値の内挿を行
う補間方法がある。また4点ではなく、上下、左右方向
にそれぞれ2点以上の交差点を求めて濃度値を内挿する
ことも可能である。
Then, the contour lines 134 of the input image and the contour lines 136 of the composite image are converted into grayscale images 135 and 137 by interpolating the density values of the pixels between the contour lines. As this interpolation method,
There is an interpolation method that interpolates the density value by obtaining the distance to the intersection and the intersection of the upper, lower, left, and right lines for one pixel between the isodensity lines. Further, instead of four points, it is also possible to obtain two or more intersections in the vertical and horizontal directions and interpolate the density value.

この濃淡画像の復元は、伝送された等濃線の情報は送信
側で濃度情報を大まかな情報として抽出して圧縮した情
報であるため、顔面の全画素について等濃線の情報から
補間によって濃度値を大まかに復元するものである。ま
た合成画像130からの等濃線136の抽出とその等濃線136
からの濃淡画像137の復元は、入力画像から復元した濃
淡画像135との差分をとるために、入力画像121と同一の
動き合成がされた合成画像に基づいて、その両者の濃度
差を比較するためである。
In this restoration of the grayscale image, the information of the transmitted isodensity lines is information obtained by extracting density information as rough information on the transmission side and compressing it. The value is roughly restored. In addition, the extraction of the contour lines 136 from the composite image 130 and the contour lines 136
In order to obtain the difference between the grayscale image 137 and the grayscale image 135 restored from the input image, the grayscale image 137 is compared with the input image 121 on the basis of the same motion-synthesized synthetic image. This is because.

なお、本実施例では、最初に伝送されたモデル画像には
細かい濃度情報を含んでいるため、濃度情報のすべてを
送るのではなく、大まかな濃度分布の変化として受信側
でその差分を検出できる等濃線情報として送り、受信側
でその差分を検出してこれを最初のモデル画像の濃度値
情報に対して加算する構成としている。
In this embodiment, since the first transmitted model image contains fine density information, not all density information is sent, but the difference can be detected on the receiving side as a rough change in density distribution. It is configured such that it is sent as isodensity line information, the difference is detected on the receiving side, and this is added to the density value information of the first model image.

このように、入力画像121の等濃線を変換して得られた
濃淡画像135は、入力画像121の大まかな濃度分布を、合
成画像130の等濃線を変換して得られた濃淡画像137は合
成画像の大まかな濃度分布をそれぞれ表していると考え
られる。そこで、顔面の変化による濃度変化分は、これ
らの差をとることにより概算できる。そこで、二つの濃
淡画像135と合成画像から復元した濃淡画像137との差分
をとると、濃度の変化分となる差分画像138が得られ
る。この差分画像138を合成画像130に加算することによ
り、濃度変化分の補正がなされた出力画像140が得られ
る。
In this way, the grayscale image 135 obtained by converting the contour lines of the input image 121 is a grayscale image 137 obtained by converting the rough density distribution of the input image 121 into the contour lines of the composite image 130. Are considered to represent the rough density distribution of the composite image, respectively. Therefore, the amount of density change due to the change of the face can be roughly estimated by taking these differences. Therefore, if the difference between the two grayscale images 135 and the grayscale image 137 reconstructed from the composite image is calculated, a difference image 138 that is the change in density is obtained. By adding the difference image 138 to the composite image 130, the output image 140 corrected for the density change is obtained.

ここで、出力画像140を画像表示手段8に出力する際に
は顔面に背景も合成して出力する。
Here, when the output image 140 is output to the image display unit 8, the background is also combined with the face and output.

この受信側での濃度補正動作のフローチャートを第6図
に示す。
FIG. 6 shows a flowchart of the density correction operation on the receiving side.

さらに本実施例によって画像変換されていく第2図に対
応する画像の模式的例を第7図に示す。
Further, FIG. 7 shows a schematic example of an image corresponding to FIG. 2 which is image-converted by this embodiment.

〔発明の効果〕〔The invention's effect〕

以上説明したように、本発明は、口の内部などのモデル
画像にない部分が自然に合成され、顔面の動きによる濃
度の変化をよく表す等濃線情報として伝送されるため、
しわ等の形状変換に伴う濃度変化が自然に合成され、よ
り自然な動画像を伝送することができる。また、顔面の
濃度情報を全画素についてではなく、圧縮されチェーン
符号化可能な等濃線情報として送ることができるため、
その伝送情報量が少なくてすみ、伝送効率を改善するこ
とができる。
As described above, according to the present invention, a portion that does not exist in the model image such as the inside of the mouth is naturally synthesized and transmitted as isodensity line information that well represents the change in density due to the movement of the face.
The density change accompanying the shape conversion such as wrinkles is naturally synthesized, and a more natural moving image can be transmitted. In addition, since the face density information can be sent not as for all pixels but as compressed and chain-encoding isodensity line information,
The amount of transmitted information can be small, and the transmission efficiency can be improved.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明一実施例を示すブロック構成図。 第2図は実施例の処理動作を説明するブロック図。 第3図ないし第6図は実施例の各処理を説明するフロー
チャート。 第7図は実施例の処理画像例を示す図。 1、9…通話者、2…撮像手段、3…画像解析手段、4
…送信手段、5…伝送路、6…受信手段、7…画像合成
手段、8…画像表示手段、31…モデル画像抽出手段、32
…動き解析手段、33…等濃線抽出手段、71…モデル作成
手段、72…動き合成手段、73…濃度補正手段。
FIG. 1 is a block diagram showing an embodiment of the present invention. FIG. 2 is a block diagram for explaining the processing operation of the embodiment. 3 to 6 are flow charts for explaining each processing of the embodiment. FIG. 7 is a diagram showing an example of a processed image of the embodiment. 1, 9 ... caller, 2 ... imaging means, 3 ... image analysis means, 4
... sending means, 5 ... transmission path, 6 ... receiving means, 7 ... image synthesizing means, 8 ... image displaying means, 31 ... model image extracting means, 32
... motion analysis means, 33 ... iso-dense line extraction means, 71 ... model creation means, 72 ... motion synthesis means, 73 ... density correction means.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】送信側に、通話に先立ってモデル画像を伝
送する手段と、通話中の画像の動きを解析して動きの情
報を受信側に伝送する手段とを備え、 受信側に、送信側から伝送されてくる画像の動きの情報
により上記モデル画像を変形して動きを伴う画像を合成
する手段を備えた 動画像伝送方式において、 送信側に、通話中の画像の濃度の等しい点を線で結んだ
等濃線情報を時系列的に抽出する手段と、 この手段で抽出された等濃線情報を順次受信側に伝送す
る手段と を備え、 受信側に受信した上記等濃線情報により上記合成された
画像の濃度補正を行う手段を備えた ことを特徴とする動画像伝送方式。
1. A transmission side is provided with means for transmitting a model image prior to a call and means for analyzing a movement of an image during a call and transmitting movement information to the reception side. In the moving image transmission system, which is equipped with a means for synthesizing an image with movement by transforming the model image according to the information on the image movement transmitted from the side The iso-concentration line information received by the receiving side is provided with means for extracting the iso-concentration line information connected by lines in time series and means for sequentially transmitting the iso-concentration line information extracted by this means to the receiving side. The moving image transmission system is provided with means for correcting the density of the combined image according to.
【請求項2】送信側に、通話に先立ってモデル画像を伝
送する手段と、通話中の画像の動きを解析して動きの情
報を受信側に伝送する手段とを備え、 受信側に、送信側から伝送されてくる画像の動きの情報
により上記モデル画像を変形して動きを伴う画像を合成
する手段を備えた 動画像伝送方式において、 送信側に、 通話中の入力画像の濃度の等しい点を線で結んだ等濃線
を抽出する手段と、 抽出された等濃線を符号化する手段と を備え、 受信側に、 受信した等濃線情報から濃淡画像を復元する手段と、 モデル画像から動き合成によって合成された画像の等濃
線を抽出する手段と、 抽出した等濃線から上記合成された画像の濃淡画像を復
元する手段と、 上記受信した等濃線情報から復元した濃淡画像と上記モ
デル画像から合成された画像の濃淡画像との濃度差を算
出する手段と、 この濃度差により上記合成された画像の濃度補正を行う
手段と を備えたことを特徴とする動画像伝送方式。
2. The transmitting side comprises means for transmitting a model image prior to a call, and means for analyzing a movement of an image during a call and transmitting movement information to the receiving side. In the moving image transmission method, the model image is transformed by the information of the image movement transmitted from the side to synthesize an image accompanied by movement. It is equipped with a means to extract the contour lines connecting the lines and a means to encode the extracted contour lines, and to the receiving side, a means to restore the grayscale image from the received contour lines information, and a model image. Means for extracting the contour lines of the image synthesized by motion synthesis from the above, means for restoring the grayscale image of the synthesized image from the extracted contour lines, and the grayscale image restored from the received contour line information And synthesized from the model image above Moving image transmission method characterized by comprising means for calculating the density difference between the grayscale image of the image, and means for performing density correction of the synthesized image by the density difference.
JP17384789A 1989-07-04 1989-07-04 Video transmission system Expired - Lifetime JPH0714208B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17384789A JPH0714208B2 (en) 1989-07-04 1989-07-04 Video transmission system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17384789A JPH0714208B2 (en) 1989-07-04 1989-07-04 Video transmission system

Publications (2)

Publication Number Publication Date
JPH0338188A JPH0338188A (en) 1991-02-19
JPH0714208B2 true JPH0714208B2 (en) 1995-02-15

Family

ID=15968262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17384789A Expired - Lifetime JPH0714208B2 (en) 1989-07-04 1989-07-04 Video transmission system

Country Status (1)

Country Link
JP (1) JPH0714208B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0559041B1 (en) * 1992-03-03 1995-08-09 Teijin Limited Method and apparatus for treating package end yarn
JP3716866B2 (en) * 1993-07-12 2005-11-16 ソニー株式会社 Digital image signal transmission apparatus and reception apparatus
JP3589702B2 (en) * 1994-06-29 2004-11-17 株式会社東芝 Communication terminal device
JP2009268088A (en) * 2008-04-04 2009-11-12 Fujifilm Corp Image processing system, image processing method, and program
JP2009273116A (en) * 2008-04-07 2009-11-19 Fujifilm Corp Image processing device, image processing method, and program
JP2010005614A (en) * 2008-05-30 2010-01-14 Kobukuro Techno Co Ltd Drum screen
US10701344B2 (en) * 2015-12-02 2020-06-30 Seiko Epson Corporation Information processing device, information processing system, control method of an information processing device, and parameter setting method
KR102256110B1 (en) 2017-05-26 2021-05-26 라인 가부시키가이샤 Method for image compression and method for image restoration

Also Published As

Publication number Publication date
JPH0338188A (en) 1991-02-19

Similar Documents

Publication Publication Date Title
AU4550799A (en) Method and system for capturing and representing 3d geometry, color and shading of facial expressions
JPH05153581A (en) Face picture coding system
WO2018225518A1 (en) Image processing device, image processing method, program, and telecommunication system
CN115908659A (en) Method and device for synthesizing speaking face based on generation countermeasure network
JPH0714208B2 (en) Video transmission system
EP1320074B1 (en) Method and apparatus for generating texture for a 3D facial model
JPH05316491A (en) Portrait image encoding system
KR100902995B1 (en) Method for making face image of golden ratio, and apparatus applied to the same
JP2795084B2 (en) Mouth shape image synthesis method and apparatus
KR100229538B1 (en) Apparatus and method for encoding a facial movement
JP2001231037A (en) Image processing system, image processing unit, and storage medium
KR100281965B1 (en) Face Texture Mapping Method of Model-based Coding System
KR20010089664A (en) System and method for three-dimensional modeling
KR100408829B1 (en) Face Image Segmentation Method in Model-Based Coding System
KR100289703B1 (en) Face Image Matching Method in Model-Based Coding System
KR100289702B1 (en) Face Image Matching Method Using Panorama Image in Model-based Coding System
JPH06187455A (en) Face area extracting device for animation picture
CN116091704B (en) Remote human body three-dimensional image reconstruction method
KR100278065B1 (en) Apparatus for composing a lip shape in a 3 dimension model-based coding system
KR20000044789A (en) Face profile line approximation method by using standard face profile pattern
KR100281969B1 (en) Partial Contour Registration Method of Face-Matched Texture Images
CN115955573A (en) Real-time remote synchronous projection method for two-dimensional image
Coianiz et al. Analysis and encoding of lip movements
KR100292238B1 (en) Method for matching of components in facial texture and model images
JPH06339132A (en) Coding decoding method and device for motion picture