JP2670663B2 - Real-time image recognition and synthesis device - Google Patents

Real-time image recognition and synthesis device

Info

Publication number
JP2670663B2
JP2670663B2 JP18460594A JP18460594A JP2670663B2 JP 2670663 B2 JP2670663 B2 JP 2670663B2 JP 18460594 A JP18460594 A JP 18460594A JP 18460594 A JP18460594 A JP 18460594A JP 2670663 B2 JP2670663 B2 JP 2670663B2
Authority
JP
Japan
Prior art keywords
image
data
image data
model
image model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP18460594A
Other languages
Japanese (ja)
Other versions
JPH0850660A (en
Inventor
浩史 石井
弘美 田中
泰一 北村
Original Assignee
株式会社エイ・ティ・アール通信システム研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エイ・ティ・アール通信システム研究所 filed Critical 株式会社エイ・ティ・アール通信システム研究所
Priority to JP18460594A priority Critical patent/JP2670663B2/en
Publication of JPH0850660A publication Critical patent/JPH0850660A/en
Application granted granted Critical
Publication of JP2670663B2 publication Critical patent/JP2670663B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、人物などの像の動
作、姿勢などの実時間認識合成装置に関し、特に送信側
の像モデルを3次元ワイヤフレームモデルにカラーテク
スチャマッピングしたものにより構成し、この像モデル
を、コンピュータグラフィックス技術を用いて、生成さ
れた仮想空間に配置し、受信側の立体ディスプレイに、
像の動きを再現して立体表示する像の実時間認識合成装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a real-time recognition / synthesis apparatus for the movement and posture of an image of a person or the like, and more particularly, to an image model on the transmission side formed by color texture mapping on a three-dimensional wire frame model. This image model is placed in the generated virtual space using computer graphics technology, and is displayed on the stereoscopic display on the receiving side.
The present invention relates to a real-time recognition / synthesis apparatus for an image which reproduces the movement of an image and stereoscopically displays it.

【0002】[0002]

【従来の技術】従来の像の実時間認識合成装置は、たと
えば1993年1月25日発行、電子情報通信学会技術
研究報告p.23〜28、「臨場感通信会議における3
次元画像の実時間表示」において開示されている。以下
その装置について説明する。
2. Description of the Related Art A conventional real-time image recognition / synthesis apparatus is disclosed in, for example, IEICE Technical Report p. 23-28, "3 in the presence communication conference"
Real-Time Display of Dimensional Images ". Hereinafter, the apparatus will be described.

【0003】図8は、従来の実時間認識合成装置の構成
図であり、図9は図8の表情検出器103の具体例であ
る。図中の矢印はデータの送られる方向を示している。
FIG. 8 is a block diagram of a conventional real-time recognition synthesizing apparatus, and FIG. 9 is a concrete example of the facial expression detector 103 of FIG. The arrows in the figure indicate the direction in which data is sent.

【0004】実時間認識合成装置は、大きくは送信側の
システム11と受信側のシステム13とから構成されて
いる。送信側のシステム11は、実空間1中の送信側の
人物3の体の動きを検出する体の動き検出器101と、
表情を検出する表情検出器103とから構成されてい
る。体の動き検出器101として、たとえばVPL社の
データグローブや、 Polhemus の磁気センサなどが使用
される。体の動き検出器101によって得られたデータ
は、体の動きパラメータ21として受信側のシステム1
3中の画像合成部115へ送られる。
[0004] The real-time recognition / synthesis apparatus is mainly composed of a system 11 on the transmitting side and a system 13 on the receiving side. The transmitting-side system 11 includes a body motion detector 101 that detects a body motion of the transmitting-side person 3 in the real space 1;
And a facial expression detector 103 for detecting facial expressions. As the body movement detector 101, for example, a data glove of VPL, a magnetic sensor of Polhemus, or the like is used. The data obtained by the body motion detector 101 is used as the body motion parameter 21 as the system 1 on the receiving side.
3 is sent to the image synthesis unit 115.

【0005】また、表情検出器103は、図9に示すよ
うに顔209の表情筋の上の皮膚表面に、マーカー20
3を止着しこれを頭部に固定したカメラ201により画
像205としてとらえる装置である。画像205中のマ
ーカー203の移動量はトラッキングされ、表情の動き
パラメータ23として受信側システム13中の画像合成
手段115へ送られる。
Further, the facial expression detector 103 is provided with a marker 20 on the skin surface above the facial muscles of the face 209 as shown in FIG.
3 is an apparatus which captures an image 205 with the camera 201 fixed to the head and fixed to the head. The movement amount of the marker 203 in the image 205 is tracked and sent to the image synthesizing means 115 in the receiving system 13 as the motion parameter 23 of the facial expression.

【0006】一方、受信側システム13には、予め送信
側の人物3をワイヤフレームモデルとカラーテクスチャ
によりモデル化した人物モデルデータベース111が用
意されている。3次元ワイヤフレームモデルは人体の表
面を三角形のパッチで近似したものであり、カラーテク
スチャは、人体表面の色彩情報である。
On the other hand, the receiving side system 13 is provided with a person model database 111 in which the person 3 on the transmitting side is modeled by a wire frame model and a color texture in advance. The three-dimensional wire frame model is obtained by approximating the surface of a human body with triangular patches, and the color texture is color information of the surface of the human body.

【0007】画像合成部115において、人物モデルデ
ータベース111中の3次元ワイヤフレームモデルとカ
ラーテクスチャにより構成された人物モデルデータと、
送信されてきた体の動きパラメータ21および表情の動
きパラメータ23とが合成される。合成は、人物モデル
データの3次元ワイヤフレームモデルの各頂点座標を、
体の動きパラメータ21と表情の動きパラメータ23に
合わせ、移動させることにより行なわれる。
[0007] In the image synthesizing section 115, the person model data composed of the three-dimensional wire frame model and the color texture in the person model database 111,
The transmitted body motion parameters 21 and facial expression motion parameters 23 are combined. In the synthesis, the coordinates of each vertex of the three-dimensional wireframe model of the human model data are
This is performed by moving the body according to the body movement parameter 21 and the facial expression movement parameter 23.

【0008】合成された人物像5は、コンピュータグラ
フィックス技術を用いて生成された仮想空間7中に配置
される。受信側の立体ディスプレイ9には、人物像5を
含む仮想空間7が表示される。
[0008] The synthesized human image 5 is arranged in a virtual space 7 generated using computer graphics technology. The virtual space 7 including the human image 5 is displayed on the stereoscopic display 9 on the receiving side.

【0009】[0009]

【発明が解決しようとする課題】しかしながら、このよ
うな像の実時間認識合成装置では、像の動きをすべて動
きパラメータとして送信するため、像の微妙な変化を認
識、合成できないという問題があった。特に、人物の表
情などを送信するとき、コミュニケーションに重要な役
割を持つ、目のまわりの表情の微妙な変化を、顔に止着
したマーカーの変位の計測のみから認識、合成すること
は困難である。
However, in such a real-time image recognition / synthesis apparatus, since all the movements of the image are transmitted as motion parameters, there is a problem that a subtle change in the image cannot be recognized and synthesized. . In particular, when transmitting facial expressions of people, it is difficult to recognize and synthesize subtle changes in facial expressions around the eyes, which play an important role in communication, only by measuring the displacement of markers attached to the face. is there.

【0010】この問題を解決するために、エッジ検出な
どの画像処理技術を用いることが考えられる。それによ
り計測するデータを増やし、像の微妙な変化をある程度
認識、合成することが可能であるが、画像処理量が膨大
な量になるため、高価な画像処理装置を必要とし、また
処理情報量が増えることにより、処理速度が遅くなり、
実時間認識ができなくなることが考えられる。
To solve this problem, it is conceivable to use an image processing technique such as edge detection. This makes it possible to increase the data to be measured and to recognize and combine subtle changes in the image to some extent, but the amount of image processing becomes enormous, requiring an expensive image processing device and processing information. Increases the processing speed,
Real-time recognition may not be possible.

【0011】それゆえに、この発明の主たる目的は、像
の微妙な変化の再現が可能で、かつ通信データ量および
送信側の計測に必要な処理情報量および受信側の画像合
成に必要な処理情報量が十分に少なく、実用に適した像
の実時間認識合成装置を提供することである。
[0011] Therefore, a main object of the present invention is to reproduce a subtle change in an image, and to process the amount of communication data and the amount of processing information necessary for measurement on the transmitting side and the amount of processing information required for image synthesis on the receiving side. An object of the present invention is to provide a real-time image recognition / synthesizing apparatus having a sufficiently small amount and suitable for practical use.

【0012】[0012]

【課題を解決するための手段】前記目的を達成するた
め、本発明の像の実時間認識合成装置は、送信側の像モ
デルを、3次元ワイヤフレームモデルにカラーテクスチ
ャマッピングしたものにより像モデルデータとして構成
し、像モデルデータを、コンピュータグラフィックス技
術を用いて生成された仮想空間に配置し、受信側の立体
ディスプレイに、像の動きを再現して立体表示する、像
の実時間認識合成装置であって、像モデルデータを格納
する格納手段と、送信側の像モデルの動作などに基づ
く、動きパラメータを検出するパラメータ検出手段と、
送信側の像モデルの少なくとも一部を撮像して、画像デ
ータを検出する画像データ検出手段と、格納された像モ
デルデータと、検出された動きパラメータとを合成し
て、第1の画像データを生成する第1の合成手段と、検
出された画像データと、格納された像モデルデータのう
ち撮像された像モデルの部分に対応する部分像モデルデ
ータとを合成して第1の中間画像データを調整する第1
の調整手段と、検出された動きパラメータのうち、撮像
された像モデルの部分の外縁に近接する近接パラメータ
と、像モデルデータのうち少なくとも撮像された像モデ
ルの部分の周縁に対応する周縁像モデルデータとを合成
して第2の中間画像データを調整する第2の調整手段
と、調整された第1の中間画像データと第2の中間画像
データとを合成して第2の画像データを生成する第2の
合成手段と、生成された第1の画像データと、生成され
た第2の画像データとを合成して、第3の画像データを
生成する第3の合成手段と、生成された第3の画像デー
タに基づいて、送信側の像モデルの動きを再現する像再
現手段とを備えることを特徴としている。
In order to achieve the above-mentioned object, an image real-time recognition / synthesis apparatus according to the present invention provides an image model data generating apparatus which performs color texture mapping of an image model on a transmitting side to a three-dimensional wire frame model. A real-time image recognition / synthesis device that arranges image model data in a virtual space generated by using computer graphics technology, and reproduces the motion of the image on a receiving-side three-dimensional display. And storage means for storing image model data, and parameter detection means for detecting a motion parameter based on the operation of the image model on the transmission side,
Image data detection means for detecting at least a part of the image model on the transmission side to detect the image data, the stored image model data, and the detected motion parameter are combined to generate the first image data. First synthesizing means for generating, the detected image data, and partial image model data corresponding to a captured image model portion of the stored image model data to synthesize first intermediate image data. First to adjust
Adjusting means, a proximity parameter that is close to the outer edge of the captured image model portion of the detected motion parameters, and a peripheral image model corresponding to at least the periphery of the captured image model portion of the image model data. Second adjusting means for synthesizing the data and adjusting the second intermediate image data, and synthesizing the adjusted first intermediate image data and the second intermediate image data to generate the second image data. A second combining unit that combines the generated first image data and the generated second image data to generate third image data; and a third combining unit that generates the third image data. Image reproduction means for reproducing the movement of the image model on the transmission side based on the third image data.

【0013】[0013]

【作用】この発明による像の実時間認識合成装置は、以
下の作用を持つ。
The image real-time recognition / synthesis apparatus according to the present invention has the following functions.

【0014】まず送信側から送られる像の動きパラメー
タと、受信側に予め保存されている像モデルデータとが
合成され、第1の画像データとなる。特に微妙な像の再
現が必要な部分は撮像され、送信側から画像データとし
て別個に送信される。撮像された画像データと撮像され
た部分に対応する像モデルデータとが合成され第1の中
間画像データとなる。検出された動きパラメータのうち
撮像された部分の外縁に近接するパラメータと撮像され
た部分の周縁に対応する像モデルデータとが合成され第
2の中間画像データとなる。第1の中間画像データと第
2の中間画像データは合成され第2の画像データとな
る。そして第1の画像データと第2の画像データは合成
され、第3の画像データとなる。第3の画像データは受
信側のディスプレイに実時間で再現される。
First, the motion parameters of the image sent from the transmitting side and the image model data stored in advance on the receiving side are combined to form the first image data. Particularly, a portion that requires subtle image reproduction is imaged and separately transmitted as image data from the transmission side. The captured image data and the image model data corresponding to the captured portion are combined to form the first intermediate image data. Of the detected motion parameters, the parameter close to the outer edge of the imaged portion and the image model data corresponding to the periphery of the imaged portion are combined to form second intermediate image data. The first intermediate image data and the second intermediate image data are combined into the second image data. Then, the first image data and the second image data are combined into the third image data. The third image data is reproduced on the display on the receiving side in real time.

【0015】[0015]

【実施例】図1は、この発明の一実施例の実時間認識合
成装置を示す構成図、図2は、図1の表情検出器103
の具体例を示す図、図3は図1の人物モデルデータベー
ス111に含まれる人物の頭部のワイヤフレームモデル
を示した図、図4は図1のモデル変形調整部で行なわれ
る処理について説明するための図である。
1 is a block diagram showing a real-time recognition / synthesizing apparatus according to an embodiment of the present invention. FIG. 2 is a diagram showing an expression detector 103 shown in FIG.
FIG. 3 is a diagram showing a wireframe model of a person's head included in the person model database 111 of FIG. 1, and FIG. 4 is a diagram for explaining a process performed by the model deformation adjusting unit of FIG. FIG.

【0016】図1から図4を用いてこの発明の一実施例
の実時間認識合成装置の構成と動作について説明する。
The configuration and operation of the real-time recognition and synthesis apparatus of one embodiment of the present invention will be described with reference to FIGS. 1 to 4.

【0017】図1中の矢印は、データの送られる方向を
示している。実時間認識装置は、大きくは送信側システ
ム11と受信側システム13とから構成される。
The arrow in FIG. 1 indicates the direction in which data is sent. The real-time recognition device mainly includes a transmitting system 11 and a receiving system 13.

【0018】送信側のシステム11は、実空間1中の送
信側の人物3の体の動きを検出する体の動き検出器10
1と、表情を検出する表情検出器103とから構成され
ている。体の動き検出器101として、たとえばVPL
社のデータグローブや、Polhemusの磁気センサが使用さ
れる。体の動き検出器101により得られたデータは、
体の動きパラメータ21として、受信側システム13へ
送信される。
The system 11 on the transmission side is a body motion detector 10 for detecting the movement of the body of the person 3 on the transmission side in the real space 1.
1 and a facial expression detector 103 that detects a facial expression. As the body motion detector 101, for example, VPL
The company's data gloves and Polhemus magnetic sensors are used. The data obtained by the body motion detector 101 is
The body movement parameter 21 is transmitted to the receiving system 13.

【0019】表示検出器103は、図2に示すように、
頭部に固定されたカメラ201により表情を撮影する装
置である。カメラ201は、顔209および顔209の
表情筋の上の皮膚表面に止着されたマーカー203を撮
像する。撮像された画像データ205中で、マーカー2
03の移動方向、移動距離はトラッキングされ、顔マー
カーの動きパラメータ23として、受信側システム13
へと送られ、特に複雑な変化をする目のまわりのデータ
は、画像データ25として受信側システム13へ送られ
る。
The display detector 103, as shown in FIG.
This is an apparatus for photographing facial expressions with a camera 201 fixed to the head. The camera 201 images the face 209 and the marker 203 fixed on the skin surface above the facial expression muscle of the face 209. Marker 2 in the captured image data 205
03, the moving direction and the moving distance of the face marker are tracked.
The data around the eye that is sent to the receiving system 13 is sent to the receiving system 13 as image data 25.

【0020】受信側システム13には、予め送信側の人
物3を3次元ワイヤフレームモデルとカラーテクスチャ
とによりモデル化した人物モデルデータベース111が
用意されている。
The receiving side system 13 is provided with a person model database 111 in which the person 3 on the transmitting side is modeled in advance by a three-dimensional wire frame model and a color texture.

【0021】3次元ワイヤフレームモデルは、人体の表
面を三角形のパッチで近似したものであり、カラーテク
スチャは人体表面の色彩情報である。
The three-dimensional wire frame model is an approximation of the surface of the human body with triangular patches, and the color texture is color information of the human body surface.

【0022】体の動きパラメータ21と顔マーカーの動
きパラメータ23は、第1画像合成部105へ送られ、
そこで人物モデルデータベース111から取出された3
次元ワイヤフレームモデルおよびカラーテクスチャ27
と合成される。合成は具体的には3次元ワイヤフレーム
モデルの頂点座標を体の動きパラメータ21と顔マーカ
ーの動きパラメータ23に合せて変形させることによっ
て行なわれる。これにより、人体の動きや顔マーカーの
動きによる形状変化が再現される。
The body motion parameter 21 and the face marker motion parameter 23 are sent to the first image synthesizing unit 105,
Therefore, 3 extracted from the person model database 111
Dimensional wireframe model and color texture 27
Is synthesized with Specifically, the synthesis is performed by deforming the vertex coordinates of the three-dimensional wire frame model in accordance with the body movement parameter 21 and the face marker movement parameter 23. As a result, the shape change due to the movement of the human body or the movement of the face marker is reproduced.

【0023】また画像データ25と顔マーカーの動きパ
ラメータ23と人物モデルデータベース111中の3次
元ワイヤフレームモデル29とがモデル変形調整部11
7へ送られる。モデル変形調整部117で行なわれる処
理を以下に説明する。
The image data 25, the movement parameter 23 of the face marker, and the three-dimensional wire frame model 29 in the human model database 111 are used as the model deformation adjusting unit 11.
It is sent to 7. The processing performed by the model deformation adjusting unit 117 will be described below.

【0024】人物モデルデータベース111中の3次元
ワイヤフレームモデル29において、目の部分45と目
のまわりの部分46は、図3に示されるように他の部分
47に比べノードの密度が高く、三角形のパッチが細か
くなるように設定されている。これは目の部分45およ
び目のまわりの部分46は特に微妙な変化の再現が必要
なためである。画像データ25は目の部分45と目のま
わりの部分46に合成される。モデル変形調整部117
において、表情検出器から送信された顔マーカーの動き
パラメータ23からの情報に基づいて目のまわりの部分
46のワイヤフレームの頂点座標の移動が行なわれ、形
状変化が再現される。
In the three-dimensional wireframe model 29 in the person model database 111, the eye portion 45 and the portion 46 around the eye have a higher node density than the other portions 47 as shown in FIG. The patch is set to be fine. This is because the eye portion 45 and the portion 46 around the eye need to reproduce a particularly subtle change. The image data 25 is combined into an eye portion 45 and a portion 46 around the eyes. Model deformation adjustment unit 117
In, the vertex coordinates of the wire frame of the portion 46 around the eyes are moved based on the information from the motion parameter 23 of the face marker transmitted from the expression detector, and the shape change is reproduced.

【0025】この形状変化はたとえば図4に示されるよ
うに顔に止着されたマーカー203a〜203dが矢印
204a〜204dのように動いたことに応じて、目の
まわりの部分46中のワイヤフレームモデルの各々の頂
点座標の移動が計算により、矢印213a〜213dの
ように行なわれることによって表わされる。
This change in shape is caused by the fact that the markers 203a to 203d fixed to the face are moved as shown by arrows 204a to 204d as shown in FIG. The movement of each vertex coordinate of the model is represented by calculation by being performed as indicated by arrows 213a to 213d.

【0026】第2画像合成部107において、形状変化
が再現された目のまわりの部分のワイヤフレームモデル
59と、目の部分45と目のまわりの部分46とに合成
された画像データ57とが合成される。画像合成はたと
えばSilicon Graphics社のワークステーションONYX
により行なわれる。第1画像合成部105と第2画像合
成部107により得られた画像データ31,33は、各
々第3画像合成部109へ送られ合成される。合成され
た人物像5は、コンピュータグラフィックス技術を用い
て生成された仮想空間7中に配置される。受信側の立体
ディスプレイ9には、人物像5を含む仮想空間7が表示
される。
In the second image synthesizing unit 107, the wire frame model 59 of the part around the eye where the shape change is reproduced, and the image data 57 synthesized with the eye part 45 and the part 46 around the eye. Synthesized. Image synthesis is done by ONYX workstation of Silicon Graphics
It is performed by The image data 31 and 33 obtained by the first image synthesizing unit 105 and the second image synthesizing unit 107 are sent to the third image synthesizing unit 109 to be synthesized. The synthesized human image 5 is arranged in a virtual space 7 generated using computer graphics technology. The virtual space 7 including the human image 5 is displayed on the stereoscopic display 9 on the receiving side.

【0027】また、第1画像合成部により合成された画
像の色調データ41と第2画像合成部により合成された
画像の色調データ43は各々色調検査部113に送られ
そこで比較される。その差が所定値より大きい場合、そ
の差の情報39を、人物モデルデータベース111へフ
ィードバックし、その差が小さくなるように人物モデル
データベース111中のカラーテクスチャは補正され
る。
The color tone data 41 of the image synthesized by the first image synthesizing unit and the color tone data 43 of the image synthesized by the second image synthesizing unit are sent to a color tone inspection unit 113 and compared there. When the difference is larger than the predetermined value, the difference information 39 is fed back to the person model database 111, and the color texture in the person model database 111 is corrected so that the difference becomes small.

【0028】会議システムなどでは、照明条件などはあ
まり頻繁には変化しないので、この補正処理は数秒〜数
分に1回でよい。画像データ25は、1秒間に数枚〜数
十枚送られてくるため、画像データ25を補正するより
も、人物モデルデータベース111中のカラーテクスチ
ャを補正した方が、処理情報量を減らす上で有利であ
る。
In a conference system or the like, the lighting conditions and the like do not change very often, so this correction process may be performed once every several seconds to several minutes. Since several to several tens of image data 25 are sent per second, correcting the color texture in the human model database 111 is more effective than correcting the image data 25 in reducing the amount of processing information. It is advantageous.

【0029】なお、図5から図7は、図1の実施例にお
いて第1画像合成部105により合成された画像と、第
2画像合成部107により合成された画像の境界での色
調の変化を目立たなくさせるために行なう処理について
説明するための図である。
FIGS. 5 to 7 show the change in color tone at the boundary between the image synthesized by the first image synthesizing unit 105 and the image synthesized by the second image synthesizing unit 107 in the embodiment of FIG. It is a figure for demonstrating the process performed in order to make it inconspicuous.

【0030】図5において、人物モデルデータベース中
の人物モデルデータ207より取出された目のまわりの
3次元ワイヤフレームモデル29と、顔マーカーの動き
パラメータ23と、画像データ25はモデル変形調整部
117へ送られる。前述したようにモデル変形調整部1
17において、目のまわりの部分の3次元ワイヤフレー
ムモデルと顔マーカーの動きパラメータ23が合成され
た第1の中間画像データ59と、目の部分と目のまわり
の部分の3次元ワイヤフレームモデルと画像データ25
が合成された第2の中間画像データ57が生成される。
生成された中間画像データ57、59は第2画像合成部
107へと送られ合成され、第2の画像データ33とな
る。一方、人物モデルデータ207より取出された目の
まわりを除く部分の3次元ワイヤフレームモデルおよび
カラーテクスチャ27は、第1画像合成部105に送ら
れ、体の動きパラメータ21および顔マーカーの動きパ
ラメータ23と合成され、第1の画像データ31とな
る。この第1の画像データ31と第2の画像データ33
が第3画像合成部109へ送られ、人物像5が合成され
る。
In FIG. 5, the three-dimensional wire frame model 29 around the eyes extracted from the human model data 207 in the human model database, the movement parameter 23 of the face marker, and the image data 25 are sent to the model deformation adjusting unit 117. Sent. As described above, the model deformation adjustment unit 1
At 17, the first intermediate image data 59 in which the three-dimensional wireframe model of the part around the eyes and the motion parameter 23 of the face marker are combined, the three-dimensional wireframe model of the eyes and the part around the eyes Image data 25
The second intermediate image data 57 in which is combined is generated.
The generated intermediate image data 57 and 59 are sent to the second image synthesizing unit 107 to be synthesized and become the second image data 33. On the other hand, the three-dimensional wireframe model and the color texture 27 of the part excluding the area around the eyes extracted from the person model data 207 are sent to the first image synthesis unit 105, and the body motion parameter 21 and the face marker motion parameter 23 are sent. And is combined into the first image data 31. The first image data 31 and the second image data 33
Is sent to the third image synthesizing unit 109, and the person image 5 is synthesized.

【0031】このとき、第1の画像データと第2の画像
データの境界部を目立たなくさせるために、各々には色
調調整部分504に対応するデータが含まれている。色
調調整部分504は、図6に示されているように第1の
画像データ31の領域と第2の画像データ33の領域と
が重なる領域である。色調調整部分504は、図3の目
のまわりの部分46と同じであっても、異なってもよ
い。
At this time, in order to make the boundary portion between the first image data and the second image data inconspicuous, each of them includes data corresponding to the color tone adjusting portion 504. The color tone adjustment portion 504 is an area where the area of the first image data 31 and the area of the second image data 33 overlap each other as shown in FIG. The tone adjustment portion 504 may be the same as or different from the portion 46 around the eyes of FIG.

【0032】図6において、第1の画像データ31の色
調調整部分504との境界点Aでの色調データ600、
第2の画像データ33の色調調整部分504との境界点
Bでの色調データ602が、図のような色調レベルであ
ったとすると、その色調調整部分504の領域では第1
の画像データ31の色調データ600は、色調調整部分
504の領域中を、第2の画像データ33の領域側へ進
むごとに線形的に減少させていき、色調調整部分504
の領域の第2の画像データ33の領域側の境界点Bの位
置で0にする。この線形的な色調データの減少を606
に示す。
In FIG. 6, the color tone data 600 at the boundary point A with the color tone adjusting portion 504 of the first image data 31,
Assuming that the color tone data 602 at the boundary point B with the color tone adjustment portion 504 of the second image data 33 has a color tone level as shown in FIG.
The color tone data 600 of the image data 31 is linearly reduced in the area of the color tone adjustment portion 504 as the color data 600 progresses toward the region of the second image data 33.
Is set to 0 at the position of the boundary point B on the area side of the second image data 33 in the area. This linear decrease in tone data is 606
Shown in

【0033】同様に第2の画像データ33の色調データ
602は、色調調整部分504の領域中を、第1の画像
データ31の領域側へ進むごとに、線形的に減少させて
いき、色調調整部分504の領域の第1の画像データ3
1の領域側の境界点Aの位置で0にする。この線形的な
色調データの減少を608に示す。
Similarly, the color tone data 602 of the second image data 33 is linearly reduced in the area of the color tone adjusting portion 504 as it advances toward the area of the first image data 31, and the color tone adjustment is performed. First image data 3 in the area of the portion 504
It is set to 0 at the position of the boundary point A on the side of the area of 1. This reduction in linear tone data is shown at 608.

【0034】そして、色調調整部分504の領域での色
調データは、第1の画像データの色調データ606と第
2の画像データの色調データ608を足し合せたもの
を、色調調整部分504での色調データ604とする。
この処理により第1の画像データ31と第2の画像デー
タ33の境界を目立たなくすることができる。
The color tone data in the color tone adjusting portion 504 is obtained by adding the color tone data 606 of the first image data and the color tone data 608 of the second image data. The data is assumed to be 604.
With this processing, the boundary between the first image data 31 and the second image data 33 can be made inconspicuous.

【0035】図7に示すように、色調は第1の画像デー
タ31と第2の画像データ33の中でも場所により色調
レベルが異なる場合がある。その場合、その部分毎に図
6で示される色調調整処理をすれば良い。
As shown in FIG. 7, the color tone of the first image data 31 and the second image data 33 may differ depending on the location. In that case, the color tone adjustment process shown in FIG. 6 may be performed for each part.

【0036】なお、この実施例では画像データとして送
信する部位を、目の部分に設定したが、口など他の部分
でもよい。
In this embodiment, the part to be transmitted as image data is set to the eye part, but it may be another part such as the mouth.

【0037】また、この実施例では人物像を例に挙げた
が、動物などでも実施が可能である。
In this embodiment, a human image is used as an example, but an animal or the like can be used.

【0038】さらにこの実施例では、モデル変形調整部
で目のまわりの部分のワイヤフレームモデルの形状を変
化させたが、目の部分のワイヤフレームモデルの形状を
変化させるようにしてもよい。
Further, in this embodiment, the shape of the wire frame model around the eyes is changed by the model deformation adjusting unit, but the shape of the wire frame model around the eyes may be changed.

【0039】[0039]

【発明の効果】以上のようにこの発明によると、像の変
化の単純な部分は動きパラメータとして送信し、像の変
化の複雑な部分は画像データとして送信するため、送信
する情報量が少なく画像処理を高速で行なうことができ
る。また像の中で複雑な変化をする部分についての変化
を正確に再現することが可能である。
As described above, according to the present invention, a simple part of an image change is transmitted as a motion parameter, and a complicated part of an image change is transmitted as image data. Processing can be performed at high speed. Further, it is possible to accurately reproduce a change in a portion where a complicated change occurs in the image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施例による実時間認識合成装置
の構成とデータの送られる方向を示した図である。
FIG. 1 is a diagram showing a configuration of a real-time recognition / synthesis apparatus according to an embodiment of the present invention and a direction in which data is sent.

【図2】図1の表情検出器の具体例を説明するための図
である。
FIG. 2 is a diagram for explaining a specific example of the expression detector of FIG. 1;

【図3】図1の人物モデルデータベースに含まれる人物
の頭部のワイヤフレームモデルを示した図である。
3 is a diagram showing a wireframe model of a person's head included in the person model database shown in FIG. 1;

【図4】図1のモデル変形調整部で行なわれる処理につ
いて説明するための図である。
FIG. 4 is a diagram for explaining a process performed by a model deformation adjusting unit in FIG.

【図5】図1の受信側システムの画像合成方法を説明す
るための図である。
5 is a diagram for explaining an image synthesizing method of the receiving side system in FIG. 1. FIG.

【図6】図1の第3画像合成部での第1の画像データ3
1と第2の画像データ33の境界部での色調調整の処理
を説明するための図である。
6 is a first image data 3 in the third image composition unit of FIG.
FIG. 9 is a diagram for explaining a color tone adjustment process at a boundary between first and second image data 33;

【図7】図4の処理方法を用いて図3の画像合成を具体
的に示した図である。
FIG. 7 is a diagram specifically showing the image synthesis of FIG. 3 using the processing method of FIG.

【図8】従来の実時間認識合成装置の構成と、データの
送られる方向を示した図である。
FIG. 8 is a diagram showing a configuration of a conventional real-time recognition synthesizing apparatus and a data sending direction.

【図9】図6の表情検出器の具体例を説明するための図
である。
9 is a diagram for explaining a specific example of the facial expression detector of FIG.

【符号の説明】[Explanation of symbols]

3 送信側の人物 5 合成された人物像 7 仮想空間 9 ディスプレイ 21 体の動きパラメータ 23 顔マーカーの動きパラメータ 25 画像データ 111 人物モデルデータベース 117 モデル変形調整部 3 person on the sending side 5 composite image 7 virtual space 9 display 21 body motion parameter 23 face marker motion parameter 25 image data 111 person model database 117 model deformation adjustment unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 北村 泰一 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール通 信システム研究所内 (56)参考文献 特開 平7−325936(JP,A) ─────────────────────────────────────────────────── ─── Continuation of front page (72) Taiichi Kitamura Taiichi Kitamura, Seika-cho, Kyoto Prefecture, Osamu Osamu, Osamu Osamu, No. 5 Mihiratani, ATR Communication Systems Research Institute Co., Ltd. (56) Reference JP-A-7- 325936 (JP, A)

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 送信側の像モデルを、3次元ワイヤフレ
ームモデルにカラーテクスチャマッピングしたものによ
り像モデルデータとして構成し、前記像モデルデータ
を、コンピュータグラフィックス技術を用いて生成され
た仮想空間に配置し、受信側の立体ディスプレイに、像
の動きを再現して立体表示する、像の実時間認識合成装
置であって、 前記像モデルデータを格納する格納手段と、 前記送信側の像モデルの動作などに基づく、動きパラメ
ータを検出するパラメータ検出手段と、 前記送信側の像モデルの少なくとも一部を撮像して、画
像データを検出する画像データ検出手段と、 前記格納された像モデルデータと、前記検出された動き
パラメータとを合成して、第1の画像データを生成する
第1の合成手段と、 前記検出された画像データと、前記格納された像モデル
データのうち前記撮像された像モデルの部分に対応する
部分像モデルデータとを合成して第1の中間画像データ
を調整する第1の調整手段と、 前記検出された動きパラメータのうち、前記撮像された
像モデルの部分の外縁に近接する近接パラメータと、前
記像モデルデータのうち少なくとも前記撮像された像モ
デルの部分の周縁に対応する周縁像モデルデータとを合
成して第2の中間画像データを調整する第2の調整手段
と、 前記調整された第1の中間画像データと第2の中間画像
データとを合成して第2の画像データを生成する第2の
合成手段と、 前記生成された第1の画像データと、前記生成された第
2の画像データとを合成して、第3の画像データを生成
する第3の合成手段と、 前記生成された第3の画像データに基づいて、前記送信
側の像モデルの動きを再現する像再現手段とを備えた、
像の実時間認識合成装置。
1. An image model on a transmission side is configured as image model data by color texture mapping on a three-dimensional wire frame model, and the image model data is stored in a virtual space generated by using computer graphics technology. A real-time image recognition / synthesis device for arranging and stereoscopically displaying the movement of an image on a stereoscopic display on the receiving side, the storage unit storing the image model data; A parameter detection unit that detects a motion parameter based on motion, an image data detection unit that captures at least a part of the image model on the transmission side and detects image data, and the stored image model data, First synthesizing means for synthesizing the detected motion parameter to generate first image data, and the detected image data. Data, and first adjusting means for adjusting the first intermediate image data by synthesizing the partial image model data corresponding to the imaged image model portion of the stored image model data; Among the captured motion parameters, a proximity parameter that is close to the outer edge of the captured image model portion and peripheral image model data that corresponds to at least the periphery of the captured image model portion of the image model data. Second adjusting means for combining and adjusting the second intermediate image data; and a second adjusting means for combining the adjusted first intermediate image data and second adjusted intermediate image data to generate second image data. A second combining unit; a third combining unit that combines the generated first image data with the generated second image data to generate third image data; Third Based on the image data, and a image reproduction means for reproducing the motion image model of the transmission side,
Real-time image recognition and synthesis device.
JP18460594A 1994-08-05 1994-08-05 Real-time image recognition and synthesis device Expired - Fee Related JP2670663B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18460594A JP2670663B2 (en) 1994-08-05 1994-08-05 Real-time image recognition and synthesis device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18460594A JP2670663B2 (en) 1994-08-05 1994-08-05 Real-time image recognition and synthesis device

Publications (2)

Publication Number Publication Date
JPH0850660A JPH0850660A (en) 1996-02-20
JP2670663B2 true JP2670663B2 (en) 1997-10-29

Family

ID=16156147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18460594A Expired - Fee Related JP2670663B2 (en) 1994-08-05 1994-08-05 Real-time image recognition and synthesis device

Country Status (1)

Country Link
JP (1) JP2670663B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100292238B1 (en) * 1998-05-28 2001-06-01 전주범 Method for matching of components in facial texture and model images
JP3575679B2 (en) 2000-03-31 2004-10-13 日本電気株式会社 Face matching method, recording medium storing the matching method, and face matching device
JP4761670B2 (en) * 2001-08-27 2011-08-31 三洋電機株式会社 Moving stereo model generation apparatus and method
US7606392B2 (en) 2005-08-26 2009-10-20 Sony Corporation Capturing and processing facial motion data
JP5362357B2 (en) * 2005-08-26 2013-12-11 ソニー株式会社 Capture and process facial movement data
JP2011149952A (en) * 2011-03-10 2011-08-04 Sanyo Electric Co Ltd Model input device and model generation system
CN110930298A (en) * 2019-11-29 2020-03-27 北京市商汤科技开发有限公司 Image processing method and apparatus, image processing device, and storage medium

Also Published As

Publication number Publication date
JPH0850660A (en) 1996-02-20

Similar Documents

Publication Publication Date Title
JP4473754B2 (en) Virtual fitting device
AU2006282764B2 (en) Capturing and processing facial motion data
US7825948B2 (en) 3D video conferencing
JP5818773B2 (en) Image processing apparatus, image processing method, and program
WO2023119557A1 (en) Avatar display device, avatar generation device, and program
WO1999030509A1 (en) Generation of light for tracking and acquisition of three-dimensional scene geometry in computer graphics applications
JPWO2006049147A1 (en) Three-dimensional shape estimation system and image generation system
JP2534617B2 (en) Real-time recognition and synthesis method of human image
Ohya et al. Real-time reproduction of 3D human images in virtual space teleconferencing
CN111007939A (en) Virtual reality system space positioning method based on depth perception
JP2670663B2 (en) Real-time image recognition and synthesis device
JP2802725B2 (en) Facial expression reproducing device and method of calculating matrix used for facial expression reproduction
JP3414683B2 (en) METHOD AND APPARATUS FOR MEASURING SURFACE MOTION OF OBJECT
JP5362357B2 (en) Capture and process facial movement data
JP2002032788A (en) Method and device for providing virtual reality and recording medium with virtual reality providing program recorded threreon
JP2627487B2 (en) Real-time image recognition and synthesis device
JPH0475639A (en) Face image model generating device
WO2022224732A1 (en) Information processing device and information processing method
JP2813971B2 (en) State reproduction method
Grammalidis et al. Estimating body animation parameters from depth images using analysis by synthesis
JP3023903B2 (en) Image generation method and image generation device
JP2910256B2 (en) Moving image transmission apparatus and moving image transmission method
del Valle et al. Making machines understand facial motion and expressions like humans do
CN109785364A (en) Motor vehicles user's motion profile method for catching
MXPA00010044A (en) Wavelet-based facial motion capture for avatar animation

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19970603

LAPS Cancellation because of no payment of annual fees