JP2627487B2 - Real-time image recognition and synthesis device - Google Patents
Real-time image recognition and synthesis deviceInfo
- Publication number
- JP2627487B2 JP2627487B2 JP6120013A JP12001394A JP2627487B2 JP 2627487 B2 JP2627487 B2 JP 2627487B2 JP 6120013 A JP6120013 A JP 6120013A JP 12001394 A JP12001394 A JP 12001394A JP 2627487 B2 JP2627487 B2 JP 2627487B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- image data
- model
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000015572 biosynthetic process Effects 0.000 title claims description 19
- 238000003786 synthesis reaction Methods 0.000 title claims description 19
- 230000033001 locomotion Effects 0.000 claims description 38
- 230000002194 synthesizing effect Effects 0.000 claims description 19
- 230000005540 biological transmission Effects 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 230000008921 facial expression Effects 0.000 description 9
- 239000003550 marker Substances 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 6
- 238000000034 method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Color Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
【0001】[0001]
【産業上の利用分野】この発明は、人物などの像の動
作、姿勢などの実時間認識合成装置に関し、特に送信側
の像モデルを3次元ワイヤフレームモデルにカラーテク
スチャマッピングしたものにより構成し、この像モデル
を、コンピュータグラフィックス技術を用いて、生成さ
れた仮想空間に配置し、受信側の立体ディスプレイに、
像の動きを再現して立体表示する像の実時間認識合成装
置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a real-time recognition / synthesis apparatus for the movement and posture of an image of a person or the like, and more particularly, to an image model on the transmission side formed by color texture mapping on a three-dimensional wire frame model. This image model is placed in the generated virtual space using computer graphics technology, and is displayed on the stereoscopic display on the receiving side.
The present invention relates to a real-time recognition / synthesis apparatus for an image which reproduces the movement of an image and stereoscopically displays it.
【0002】[0002]
【従来の技術】従来の像の実時間認識合成装置は、たと
えば1993年1月25日発行、電子情報通信学会技術
研究報告p.23〜28、「臨場感通信会議における3
次元画像の実時間表示」において開示されている。以下
その装置について説明する。2. Description of the Related Art A conventional real-time image recognition / synthesis apparatus is disclosed in, for example, IEICE Technical Report p. 23-28, "3 in the presence communication conference"
Real-Time Display of Dimensional Images ". Hereinafter, the apparatus will be described.
【0003】図6は、従来の実時間認識合成装置の構成
図であり、図7は図6の表情検出器103の具体例であ
る。図中の矢印はデータの送られる方向を示している。FIG. 6 is a block diagram of a conventional real-time recognition / synthesis apparatus, and FIG. 7 is a specific example of the expression detector 103 of FIG. The arrows in the figure indicate the direction in which data is sent.
【0004】実時間認識合成装置は、大きくは送信側の
システム11と受信側のシステム13とから構成されて
いる。送信側のシステム11は、実空間1中の送信側の
人物3の体の動きを検出する体の動き検出器101と、
表情を検出する表情検出器103とから構成されてい
る。体の動き検出器101として、たとえばVPL社の
データグローブや、 Polhemus の磁気センサなどが使用
される。体の動き検出器101によって得られたデータ
は、体の動きパラメータ21として受信側のシステム1
3中の画像合成部115へ送られる。[0004] The real-time recognition / synthesis apparatus is mainly composed of a system 11 on the transmitting side and a system 13 on the receiving side. The transmitting-side system 11 includes a body motion detector 101 that detects a body motion of the transmitting-side person 3 in the real space 1;
And a facial expression detector 103 for detecting facial expressions. As the body movement detector 101, for example, a data glove of VPL, a magnetic sensor of Polhemus, or the like is used. The data obtained by the body motion detector 101 is used as the body motion parameter 21 as the system 1 on the receiving side.
3 is sent to the image synthesis unit 115.
【0005】また、表情検出器103は、図7に示すよ
うに顔209の表情筋の上の皮膚表面に、マーカー20
3を止着しこれを頭部に固定したカメラ201により画
像205としてとらえる装置である。画像205中のマ
ーカー203の移動量はトラッキングされ、表情の動き
パラメータ23として受信側システム13中の画像合成
手段115へ送られる。[0005] Further, as shown in FIG.
3 is an apparatus which captures an image 205 with the camera 201 fixed to the head and fixed to the head. The movement amount of the marker 203 in the image 205 is tracked and sent to the image synthesizing means 115 in the receiving system 13 as the motion parameter 23 of the facial expression.
【0006】一方、受信側システム13には、予め送信
側の人物3をワイヤフレームモデルとカラーテクスチャ
によりモデル化した人物モデルデータベース111が用
意されている。3次元ワイヤフレームモデルは人体の表
面を三角形のパッチで近似したものであり、カラーテク
スチャは、人体表面の色彩情報である。On the other hand, the receiving side system 13 is provided with a person model database 111 in which the person 3 on the transmitting side is modeled by a wire frame model and a color texture in advance. The three-dimensional wire frame model is obtained by approximating the surface of a human body with triangular patches, and the color texture is color information of the surface of the human body.
【0007】画像合成部115において、人物モデルデ
ータベース111中の3次元ワイヤフレームモデルとカ
ラーテクスチャにより構成された人物モデルデータと、
送信されてきた体の動きパラメータ21および表情の動
きパラメータ23とが合成される。合成は、人物モデル
データの3次元ワイヤフレームモデルの各頂点座標を、
体の動きパラメータ21と表情の動きパラメータ23に
合わせ、移動させることにより行なわれる。[0007] In the image synthesizing section 115, the person model data composed of the three-dimensional wire frame model and the color texture in the person model database 111,
The transmitted body motion parameters 21 and facial expression motion parameters 23 are combined. In the synthesis, the coordinates of each vertex of the three-dimensional wireframe model of the human model data are
This is performed by moving the body according to the body movement parameter 21 and the facial expression movement parameter 23.
【0008】合成された人物像5は、コンピュータグラ
フィックス技術を用いて生成された仮想空間7中に配置
される。受信側の立体ディスプレイ9には、人物像5を
含む仮想空間7が表示される。[0008] The synthesized human image 5 is arranged in a virtual space 7 generated using computer graphics technology. The virtual space 7 including the human image 5 is displayed on the stereoscopic display 9 on the receiving side.
【0009】[0009]
【発明が解決しようとする課題】しかしながら、このよ
うな像の実時間認識合成装置では、像の動きをすべて動
きパラメータとして送信するため、像の微妙な変化を認
識、合成できないという問題があった。特に、人物の表
情などを送信するとき、コミュニケーションに重要な役
割を持つ、目のまわりの表情な微妙な変化を、顔に止着
したマーカーの変位の計測のみから認識、合成すること
は困難である。However, in such a real-time image recognition / synthesis apparatus, since all the movements of the image are transmitted as motion parameters, there is a problem that a subtle change in the image cannot be recognized and synthesized. . In particular, when transmitting the facial expressions of a person, it is difficult to recognize and combine subtle changes in facial expressions around the eyes, which play an important role in communication, only by measuring the displacement of the marker anchored to the face. is there.
【0010】この問題を解決するために、エッジ検出な
どの画像処理技術を用いることが考えられる。それによ
り計測するデータを増やし、像の微妙な変化をある程度
認識、合成することが可能であるが、画像処理量が膨大
な量になるため、高価な画像処理装置を必要とし、また
処理情報量が増えることにより、処理速度が遅くなり、
実時間認識ができなくなることが考えられる。To solve this problem, it is conceivable to use an image processing technique such as edge detection. This makes it possible to increase the data to be measured and to recognize and combine subtle changes in the image to some extent, but the amount of image processing becomes enormous, requiring an expensive image processing device and processing information. Increases the processing speed,
Real-time recognition may not be possible.
【0011】それゆえに、この発明の主たる目的は、像
の微妙な変化の再現が可能で、かつ通信データ量および
送信側の計測に必要な処理情報量および受信側の画像合
成に必要な処理情報量が十分に少なく、実用に適した像
の実時間認識合成装置を提供することである。[0011] Therefore, a main object of the present invention is to reproduce a subtle change in an image, and to process the amount of communication data and the amount of processing information necessary for measurement on the transmitting side and the amount of processing information required for image synthesis on the receiving side. An object of the present invention is to provide a real-time image recognition / synthesizing apparatus having a sufficiently small amount and suitable for practical use.
【0012】[0012]
【課題を解決するための手段】前記目的を達成するた
め、本発明の像の実時間認識合成装置は、送信側の像モ
デルを、3次元ワイヤフレームモデルにカラーテクスチ
ャマッピングしたものにより像モデルデータとして構成
し、像モデルデータを、コンピュータグラフィックス技
術を用いて生成された仮想空間に配置し、受信側の立体
ディスプレイに、像の動きを再現して立体表示する、像
の実時間認識合成装置であって、像モデルデータを格納
する格納手段と、送信側の像モデルの動作などに基づ
く、動きパラメータを検出するパラメータ検出手段と、
送信側の像モデルの少なくとも一部を撮像して、画像デ
ータを検出する画像データ検出手段と、格納された像モ
デルデータと、検出された動きパラメータとを合成し
て、第1の画像データを生成する第1の合成手段と、格
納された像モデルデータと、検出された画像データとを
合成して、第2の画像データを生成する第2の合成手段
と、生成された第1の画像データと、生成された第2の
画像データとを合成して、第3の画像データを生成する
第3の合成手段と、生成された第3の画像データに基づ
いて、送信側の像モデルの動きを再現する像再現手段と
を備えることを特徴としている。In order to achieve the above-mentioned object, an image real-time recognition / synthesis apparatus according to the present invention provides an image model data generating apparatus which performs color texture mapping of an image model on a transmitting side to a three-dimensional wire frame model. A real-time image recognition / synthesis device that arranges image model data in a virtual space generated by using computer graphics technology, and reproduces the motion of the image on a receiving-side three-dimensional display. And storage means for storing image model data, and parameter detection means for detecting a motion parameter based on the operation of the image model on the transmission side,
Image data detecting means for capturing at least a part of the image model on the transmitting side and detecting image data, synthesizing the stored image model data and the detected motion parameter, and converting the first image data First synthesizing means for generating, second image synthesizing means for synthesizing the stored image model data and the detected image data to generate second image data, and the generated first image Third combining means for combining the data with the generated second image data to generate third image data; and a transmitting-side image model based on the generated third image data. Image reproducing means for reproducing motion.
【0013】[0013]
【作用】この発明による像の実時間認識合成装置は、以
下の作用を持つ。The image real-time recognition / synthesis apparatus according to the present invention has the following functions.
【0014】まず送信側から送られる像の動きパラメー
タと、受信側に予め保存されている像モデルデータを合
成し、第1の画像データとする。特に微妙な像の再現が
必要な部分は、送信側から画像データとして別個に送信
し、その画像データを受信側で像モデルデータと合成す
ることにより、第2の画像データとする。そして第1の
画像データと第2の画像データを合成したものを第3の
画像データとする。第3の画像データは受信側のディス
プレイに実時間で再現される。First, the motion parameters of the image sent from the transmitting side are combined with the image model data stored in advance on the receiving side to obtain first image data. Particularly, a portion requiring a delicate image reproduction is separately transmitted as image data from the transmission side, and the image data is combined with the image model data on the reception side to obtain second image data. Then, a combination of the first image data and the second image data is defined as third image data. The third image data is reproduced on the display on the receiving side in real time.
【0015】[0015]
【実施例】図1は、この発明の一実施例の実時間認識合
成装置を示す構成図、図2は、図1の表情検出器103
の具体例である。1 is a block diagram showing a real-time recognition / synthesizing apparatus according to an embodiment of the present invention. FIG. 2 is a diagram showing an expression detector 103 shown in FIG.
Is a specific example.
【0016】図中の矢印は、データの送られる方向を示
している。実時間認識装置は、大きくは送信側システム
11と受信側システム13とから構成される。The arrows in the figure indicate the direction in which data is sent. The real-time recognition device mainly includes a transmitting system 11 and a receiving system 13.
【0017】送信側のシステム11は、実空間1中の送
信側の人物3の体の動きを検出する体の動き検出器10
1と、表情を検出する表情検出器103から構成されて
いる。体の動き検出器101として、たとえばVPL社
のデータグローブや、Polhemusの磁気センサが使用され
る。体の動き検出器101により得られたデータは、体
の動きパラメータ21として、受信側システム13へ送
信される。The system 11 on the transmitting side includes a body motion detector 10 for detecting the body motion of the person 3 on the transmitting side in the real space 1.
1 and an expression detector 103 for detecting an expression. As the body motion detector 101, for example, a data glove manufactured by VPL or a magnetic sensor manufactured by Polhemus is used. The data obtained by the body motion detector 101 is transmitted to the receiving system 13 as the body motion parameter 21.
【0018】表示検出器103は、図2に示すように、
頭部に固定されたカメラ201により表情を撮影する装
置である。カメラ201は、顔209および顔209の
表情筋の上の皮膚表面に止着されたマーカー203を撮
像する。撮像された画像データ205中で、マーカー2
03の移動方向、移動距離はトラッキングされ、顔マー
カーの動きパラメータ23として、受信側システム13
へと送られ、特に複雑な変化をする目のまわりのデータ
は、画像データ25として受信側のシステム13へ送ら
れる。The display detector 103, as shown in FIG.
This is an apparatus for photographing facial expressions with a camera 201 fixed to the head. The camera 201 images the face 209 and the marker 203 fixed on the skin surface above the facial expression muscle of the face 209. Marker 2 in the captured image data 205
03, the moving direction and the moving distance of the face marker are tracked.
The data around the eye, which undergoes particularly complicated changes, is sent as image data 25 to the receiving system 13.
【0019】受信側システム13には、予め送信側の人
物3を3次元ワイヤフレームモデルとカラーテクスチャ
とによりモデル化した人物モデルデータベース111が
用意されている。The receiving side system 13 is provided with a person model database 111 in which the person 3 on the transmitting side is modeled in advance using a three-dimensional wire frame model and a color texture.
【0020】3次元ワイヤフレームモデルは、人体の表
面を三角形のパッチで近似したものであり、カラーテク
スチャは人体表面の色彩情報であるる 体の動きパラメータ21と顔マーカーの動きパラメータ
23は、第1画像合成部105へ送られ、そこで人物モ
デルデータベース111から取出された3次元ワイヤフ
レームモデルおよびカラーテクスチャ27と合成され
る。合成は具体的には3次元ワイヤフレームモデルの頂
点座標を体の動きパラメータ21と顔マーカーの動きパ
ラメータ23に合せて変形させることによって行なわれ
る。これにより、人体の動きや顔マーカーの動きによる
形状変化を再現する。The three-dimensional wire frame model is obtained by approximating the surface of the human body with triangular patches, and the color texture is color information on the surface of the human body. The image data is sent to the one-image combining unit 105, where it is combined with the three-dimensional wireframe model and the color texture 27 extracted from the person model database 111. Specifically, the synthesis is performed by deforming the vertex coordinates of the three-dimensional wire frame model in accordance with the body movement parameter 21 and the face marker movement parameter 23. Thereby, the shape change due to the movement of the human body or the movement of the face marker is reproduced.
【0021】一方画像データ25は第2画像合成部10
7へ送られ人物モデルデータベース111から取出され
た3次元ワイヤフレームモデル29の所望の位置にマッ
ピングされる。マッピングはたとえばSilicon Graphics
社のワークステーションONYXにより行なわれる。第
1画像合成部105と第2画像合成部107により得ら
れた画像データ31,33は、各々第3画像合成部へ送
られ合成される。合成された人物像5は、コンピュータ
グラフィックス技術を用いて生成された仮想空間7中に
配置される。受信側の立体ディスプレイ9には、人物像
5を含む仮想空間7が表示される。On the other hand, the image data 25 is stored in the second image
7 is mapped to a desired position of the three-dimensional wire frame model 29 extracted from the person model database 111. Mapping is for example Silicon Graphics
It is performed by the company's workstation ONYX. The image data 31 and 33 obtained by the first image combining unit 105 and the second image combining unit 107 are sent to the third image combining unit and combined. The synthesized human image 5 is arranged in a virtual space 7 generated using computer graphics technology. The virtual space 7 including the human image 5 is displayed on the stereoscopic display 9 on the receiving side.
【0022】また、第1画像合成部により合成された画
像の色調データ41と第2画像合成部により合成された
画像の色調データ43は各々色調検査部113に送られ
そこで比較される。その差が所定値より大きい場合、そ
の差の情報39を、人物モデルデータベース111へフ
ィードバックし、その差が小さくなるように人物モデル
データベース111中のカラーテクスチャを補正する。The color tone data 41 of the image synthesized by the first image synthesizing unit and the color tone data 43 of the image synthesized by the second image synthesizing unit are sent to a color tone inspection unit 113 and compared there. When the difference is larger than the predetermined value, the information 39 of the difference is fed back to the person model database 111, and the color texture in the person model database 111 is corrected so that the difference becomes smaller.
【0023】会議システムなどでは、照明条件などはあ
まり頻繁には変化しないので、この補正処理は数秒〜数
分に1回でよい。画像データ25は、1秒間に数枚〜数
十枚送られてくるため、画像データ25を補正するより
も、人物モデルデータベース111中のカラーテクスチ
ャを補正した方が、処理情報量を減らす上で有利であ
る。In a conference system or the like, since the lighting conditions and the like do not change very frequently, this correction process may be performed once every several seconds to several minutes. Since several to several tens of image data 25 are sent per second, correcting the color texture in the human model database 111 is more effective than correcting the image data 25 in reducing the amount of processing information. It is advantageous.
【0024】なお、図3から図5は、図1の実施例にお
いて第1画像合成部105により合成された画像と、第
2画像合成部107により合成された画像の境界での色
調の変化を目立たなくさせるために行なう処理を説明す
るための図である。FIGS. 3 to 5 show the change in color tone at the boundary between the image synthesized by the first image synthesizing unit 105 and the image synthesized by the second image synthesizing unit 107 in the embodiment of FIG. It is a figure for explaining processing performed in order to make it inconspicuous.
【0025】図3において、人物モデルデータベース中
の人物モデルデータ207より取出された目のまわりの
3次元ワイヤフレームモデル29は、第2画像合成手段
107へ送られ、画像データ25と合成され、第2の画
像データ33となる。一方、人物モデルデータ207よ
り取出された目のまわりを除く部分の3次元ワイヤフレ
ームモデルおよびカラーテクスチャ27は、第1画像合
成手段105に送られ、体の動きパラメータ21および
顔マーカーの動きパラメータ23と合成され、第1の画
像データ31となる。この第1の画像データ31と第2
の画像データ33が第3画像合成手段109へ送られ、
人物像5が合成される。In FIG. 3, the three-dimensional wire frame model 29 around the eyes extracted from the human model data 207 in the human model database is sent to the second image synthesizing means 107, where it is synthesized with the image data 25. 2 image data 33. On the other hand, the three-dimensional wire frame model and the color texture 27 of the part except for the area around the eyes extracted from the human model data 207 are sent to the first image synthesizing means 105, and the body motion parameters 21 and the face marker motion parameters 23 Are combined to form the first image data 31. The first image data 31 and the second
Is sent to the third image synthesizing means 109,
The human image 5 is synthesized.
【0026】このとき、第1の画像データと第2の画像
データの境界部を目立たなくさせるために、各々には色
調調整部分504に対応するデータが含まれている。色
調調整部分504は、図4に示されているように第1の
画像データ31の領域と第2の画像データ33の領域と
が重なる領域である。At this time, in order to make the boundary between the first image data and the second image data inconspicuous, each includes data corresponding to the color tone adjustment portion 504. The color tone adjustment part 504 is an area where the area of the first image data 31 and the area of the second image data 33 overlap as shown in FIG.
【0027】図4において、第1の画像データ31の色
調調整部分504との境界点Aでの色調データ600、
第2の画像データ33の色調調整部分504との境界点
Bでの色調データ602が、図のような色調レベルであ
ったとすると、その色調調整部分504の領域では第1
の画像データ31の色調データ600は、色調調整部分
504の領域中を、第2の画像データ33の領域側へ進
むごとに線形的に減少させていき、色調調整部分504
の領域の第2の画像データ33の領域側の境界点Bの位
置で0にする。この線形的な色調データの減少を606
に示す。In FIG. 4, the color tone data 600 at the boundary point A between the first image data 31 and the color tone adjustment portion 504,
Assuming that the color tone data 602 at the boundary point B with the color tone adjustment portion 504 of the second image data 33 has a color tone level as shown in FIG.
The color tone data 600 of the image data 31 is linearly reduced in the area of the color tone adjustment portion 504 as the color data 600 progresses toward the region of the second image data 33.
Is set to 0 at the position of the boundary point B on the area side of the second image data 33 in the area. This linear decrease in tone data is 606
Shown in
【0028】同様に第2の画像データ33の色調データ
602は、色調調整部分504の領域中を、第1の画像
データ31の領域側へ進むごとに、線形的に減少させて
いき、色調調整部分504の領域の第1の画像データ3
1の領域側の境界点Aの位置で0にする。この線形的な
色調データの減少を608に示す。Similarly, the color tone data 602 of the second image data 33 is linearly decreased in the area of the color tone adjustment portion 504 as the area advances toward the area of the first image data 31, and the color tone adjustment is performed. First image data 3 in the area of portion 504
It is set to 0 at the position of the boundary point A on the side of the area of 1. This reduction in linear tone data is shown at 608.
【0029】そして、色調調整部分504の領域での色
調データは、第1の画像データの色調データ606と第
2の画像データの色調データ608を足し合せたもの
を、色調調整部分504での色調データ604とする。
この処理により第1の画像データ31と第2の画像デー
タ33の境界を目立たなくすることができる。The color tone data in the color tone adjustment portion 504 is obtained by adding the color tone data 606 of the first image data and the color tone data 608 of the second image data. The data is assumed to be 604.
With this processing, the boundary between the first image data 31 and the second image data 33 can be made inconspicuous.
【0030】図5に示すように、色調は第1の画像デー
タ31と第2の画像データ33の中でも場所により色調
レベルが異なる場合がある。その場合、その部分毎に図
4で示される色調調整処理をすれば良い。As shown in FIG. 5, the color tone may be different depending on the location in the first image data 31 and the second image data 33. In that case, the color tone adjustment processing shown in FIG. 4 may be performed for each portion.
【0031】なお、この実施例では画像データとして送
信する部位を、目の部分に設定したが、口など他の部分
でもよい。In this embodiment, the part to be transmitted as image data is set at the eye, but may be at another part such as the mouth.
【0032】また、この実施例では人物像を例に挙げた
が、動物などでも実施が可能である。In this embodiment, a human figure is taken as an example, but the present invention can be applied to an animal or the like.
【0033】[0033]
【発明の効果】以上のようにこの発明によると、像の変
化の単純な部分は動きパラメータとして送信し、像の変
化の複雑な部分は画像データとして送信するため、送信
する情報量が少なく画像処理を高速で行なうことができ
る。また像の中で複雑な変化をする部分についての変化
を正確に再現することが可能である。As described above, according to the present invention, a simple part of an image change is transmitted as a motion parameter, and a complicated part of an image change is transmitted as image data. Processing can be performed at high speed. Further, it is possible to accurately reproduce a change in a portion where a complicated change occurs in the image.
【図1】この発明の一実施例による実時間認識合成装置
の構成とデータの送られる方向を示した図である。FIG. 1 is a diagram showing a configuration of a real-time recognition / synthesis apparatus according to an embodiment of the present invention and a direction in which data is sent.
【図2】図1の表情検出器の具体例を説明するための図
である。FIG. 2 is a diagram for explaining a specific example of the expression detector of FIG. 1;
【図3】図1の受信側システムの画像合成方法を説明す
るための図である。FIG. 3 is a diagram for explaining an image synthesizing method of the receiving side system in FIG. 1;
【図4】図1の第3画像合成部での第1の画像データ3
1と第2の画像データ33の境界部での色調調整の処理
を説明するための図である。FIG. 4 is a diagram illustrating first image data 3 in a third image synthesizing unit in FIG. 1;
FIG. 9 is a diagram for explaining a color tone adjustment process at a boundary between first and second image data 33;
【図5】図4の処理方法を用いて図3の画像合成を具体
的に示した図である。FIG. 5 is a diagram specifically illustrating the image synthesis of FIG. 3 using the processing method of FIG. 4;
【図6】従来の実時間認識合成装置の構成と、データの
送られる方向を示した図である。FIG. 6 is a diagram showing a configuration of a conventional real-time recognition / synthesis apparatus and a direction in which data is sent.
【図7】図6の表情検出器の具体例を説明するための図
である。FIG. 7 is a diagram for explaining a specific example of the expression detector of FIG. 6;
3 送信側の人物 5 合成された人物像 7 仮想空間 9 ディスプレイ 21 体の動きパラメータ 23 顔マーカーの動きパラメータ 25 画像データ 111 人物モデルデータベース Reference Signs List 3 Sending person 5 Synthesized person image 7 Virtual space 9 Display 21 Body movement parameter 23 Face marker movement parameter 25 Image data 111 Person model database
───────────────────────────────────────────────────── フロントページの続き (72)発明者 北村 泰一 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール通 信システム研究所内 (56)参考文献 電子情報通信学会技術研究報告VO L.92,NO.443 P.23−28「臨場 感通信会議における3次元顔画像の実時 間表示」(1993.1.25) ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Taiichi Kitamura 5 Sanriya, Seiya-cho, Sorika-cho, Kyoto, Japan Research Report VOL. 92, NO. 443 p. 23-28 "Real-time display of 3D face images in a telecommunications conference" (1993.1.25)
Claims (1)
ームモデルにカラーテクスチャマッピングしたものによ
り像モデルデータとして構成し、前記像モデルデータ
を、コンピュータグラフィックス技術を用いて生成され
た仮想空間に配置し、受信側の立体ディスプレイに、像
の動きを再現して立体表示する、像の実時間認識合成装
置であって、 前記像モデルデータを格納する格納手段と、 前記送信側の像モデルの動作などに基づく、動きパラメ
ータを検出するパラメータ検出手段と、 前記送信側の像モデルの少なくとも一部を撮像して、画
像データを検出する画像データ検出手段と、 前記格納された像モデルデータと、前記検出された動き
パラメータとを合成して、第1の画像データを生成する
第1の合成手段と、 前記格納された像モデルデータと、前記検出された画像
データとを合成して、第2の画像データを生成する第2
の合成手段と、 前記生成された第1の画像データと、前記生成された第
2の画像データとを合成して、第3の画像データを生成
する第3の合成手段と、 前記生成された第3の画像データに基づいて、前記送信
側の像モデルの動きを再現する像再現手段とを備えた、
像の実時間認識合成装置。1. An image model on a transmission side is configured as image model data by color texture mapping on a three-dimensional wire frame model, and the image model data is stored in a virtual space generated by using computer graphics technology. A real-time image recognition / synthesis device that arranges and reproduces the motion of an image on a stereoscopic display on the receiving side, and that stores the image model data. Based on an operation or the like, a parameter detection unit that detects a motion parameter, an image of at least a part of the image model on the transmission side, an image data detection unit that detects image data, and the stored image model data. First synthesizing means for synthesizing the detected motion parameters to generate first image data; Data, by combining said detected image data, the second for generating the second image data
Combining means for combining the generated first image data and the generated second image data to generate third image data; and Image reproducing means for reproducing the movement of the image model on the transmission side based on third image data.
Real-time image recognition and synthesis device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6120013A JP2627487B2 (en) | 1994-06-01 | 1994-06-01 | Real-time image recognition and synthesis device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6120013A JP2627487B2 (en) | 1994-06-01 | 1994-06-01 | Real-time image recognition and synthesis device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07325936A JPH07325936A (en) | 1995-12-12 |
JP2627487B2 true JP2627487B2 (en) | 1997-07-09 |
Family
ID=14775746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6120013A Expired - Fee Related JP2627487B2 (en) | 1994-06-01 | 1994-06-01 | Real-time image recognition and synthesis device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2627487B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7606392B2 (en) | 2005-08-26 | 2009-10-20 | Sony Corporation | Capturing and processing facial motion data |
JP5362357B2 (en) * | 2005-08-26 | 2013-12-11 | ソニー株式会社 | Capture and process facial movement data |
-
1994
- 1994-06-01 JP JP6120013A patent/JP2627487B2/en not_active Expired - Fee Related
Non-Patent Citations (1)
Title |
---|
電子情報通信学会技術研究報告VOL.92,NO.443 P.23−28「臨場感通信会議における3次元顔画像の実時間表示」(1993.1.25) |
Also Published As
Publication number | Publication date |
---|---|
JPH07325936A (en) | 1995-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2006282764B2 (en) | Capturing and processing facial motion data | |
EP1433335B1 (en) | 3d video conferencing system | |
JP4473754B2 (en) | Virtual fitting device | |
AU2005291927B2 (en) | System and method for tracking facial muscle and eye motion for computer graphics animation | |
JP5818773B2 (en) | Image processing apparatus, image processing method, and program | |
US5870136A (en) | Dynamic generation of imperceptible structured light for tracking and acquisition of three dimensional scene geometry and surface characteristics in interactive three dimensional computer graphics applications | |
CN116528141A (en) | Personalized HRTFS via optical capture | |
JPWO2006049147A1 (en) | Three-dimensional shape estimation system and image generation system | |
JP2534617B2 (en) | Real-time recognition and synthesis method of human image | |
JP2802725B2 (en) | Facial expression reproducing device and method of calculating matrix used for facial expression reproduction | |
JP2670663B2 (en) | Real-time image recognition and synthesis device | |
JP5362357B2 (en) | Capture and process facial movement data | |
JP2627487B2 (en) | Real-time image recognition and synthesis device | |
JP2002032788A (en) | Method and device for providing virtual reality and recording medium with virtual reality providing program recorded threreon | |
JP5759439B2 (en) | Video communication system and video communication method | |
WO2022224732A1 (en) | Information processing device and information processing method | |
JPH0475639A (en) | Face image model generating device | |
JP2813971B2 (en) | State reproduction method | |
JP3023903B2 (en) | Image generation method and image generation device | |
JP2910256B2 (en) | Moving image transmission apparatus and moving image transmission method | |
Krnoul et al. | Face model reconstruction for Czech audio-visual speech synthesis | |
MXPA00010044A (en) | Wavelet-based facial motion capture for avatar animation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19970114 |
|
LAPS | Cancellation because of no payment of annual fees |