JPH0850660A - 像の実時間認識合成装置 - Google Patents

像の実時間認識合成装置

Info

Publication number
JPH0850660A
JPH0850660A JP18460594A JP18460594A JPH0850660A JP H0850660 A JPH0850660 A JP H0850660A JP 18460594 A JP18460594 A JP 18460594A JP 18460594 A JP18460594 A JP 18460594A JP H0850660 A JPH0850660 A JP H0850660A
Authority
JP
Japan
Prior art keywords
image
data
image data
model
image model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP18460594A
Other languages
English (en)
Other versions
JP2670663B2 (ja
Inventor
Hiroshi Ishii
浩史 石井
Hiromi Tanaka
弘美 田中
Taiichi Kitamura
泰一 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR TSUSHIN SYST KENKYUSHO KK
Original Assignee
ATR TSUSHIN SYST KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR TSUSHIN SYST KENKYUSHO KK filed Critical ATR TSUSHIN SYST KENKYUSHO KK
Priority to JP18460594A priority Critical patent/JP2670663B2/ja
Publication of JPH0850660A publication Critical patent/JPH0850660A/ja
Application granted granted Critical
Publication of JP2670663B2 publication Critical patent/JP2670663B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)
  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【目的】 像の微妙な変化の再現が可能で、かつ処理情
報量が十分に少なく、実用に適した像の実時間認識合成
装置を提供する。 【構成】 予め送信側の人物像3を、3次元ワイヤーフ
レームモデルにカラーテクスチャマッピングした人物モ
デルデータとして受信側に保有し、送信側から送られる
動きパラメータ21,23と人物モデルデータ27を合
成し、第1の画像データ31とする手段と、送信側から
送られる動きパラメータ23と画像データ25と人物モ
デルデータ29を調整した後合成し、第2の画像データ
33とする手段と、第1の画像データ31と第2の画像
データ33とを合成し、第3の画像データ35とする手
段により、合成された人物像5の実時間認識合成を行な
う。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、人物などの像の動
作、姿勢などの実時間認識合成装置に関し、特に送信側
の像モデルを3次元ワイヤフレームモデルにカラーテク
スチャマッピングしたものにより構成し、この像モデル
を、コンピュータグラフィックス技術を用いて、生成さ
れた仮想空間に配置し、受信側の立体ディスプレイに、
像の動きを再現して立体表示する像の実時間認識合成装
置に関する。
【0002】
【従来の技術】従来の像の実時間認識合成装置は、たと
えば1993年1月25日発行、電子情報通信学会技術
研究報告p.23〜28、「臨場感通信会議における3
次元画像の実時間表示」において開示されている。以下
その装置について説明する。
【0003】図8は、従来の実時間認識合成装置の構成
図であり、図9は図8の表情検出器103の具体例であ
る。図中の矢印はデータの送られる方向を示している。
【0004】実時間認識合成装置は、大きくは送信側の
システム11と受信側のシステム13とから構成されて
いる。送信側のシステム11は、実空間1中の送信側の
人物3の体の動きを検出する体の動き検出器101と、
表情を検出する表情検出器103とから構成されてい
る。体の動き検出器101として、たとえばVPL社の
データグローブや、 Polhemus の磁気センサなどが使用
される。体の動き検出器101によって得られたデータ
は、体の動きパラメータ21として受信側のシステム1
3中の画像合成部115へ送られる。
【0005】また、表情検出器103は、図9に示すよ
うに顔209の表情筋の上の皮膚表面に、マーカー20
3を止着しこれを頭部に固定したカメラ201により画
像205としてとらえる装置である。画像205中のマ
ーカー203の移動量はトラッキングされ、表情の動き
パラメータ23として受信側システム13中の画像合成
手段115へ送られる。
【0006】一方、受信側システム13には、予め送信
側の人物3をワイヤフレームモデルとカラーテクスチャ
によりモデル化した人物モデルデータベース111が用
意されている。3次元ワイヤフレームモデルは人体の表
面を三角形のパッチで近似したものであり、カラーテク
スチャは、人体表面の色彩情報である。
【0007】画像合成部115において、人物モデルデ
ータベース111中の3次元ワイヤフレームモデルとカ
ラーテクスチャにより構成された人物モデルデータと、
送信されてきた体の動きパラメータ21および表情の動
きパラメータ23とが合成される。合成は、人物モデル
データの3次元ワイヤフレームモデルの各頂点座標を、
体の動きパラメータ21と表情の動きパラメータ23に
合わせ、移動させることにより行なわれる。
【0008】合成された人物像5は、コンピュータグラ
フィックス技術を用いて生成された仮想空間7中に配置
される。受信側の立体ディスプレイ9には、人物像5を
含む仮想空間7が表示される。
【0009】
【発明が解決しようとする課題】しかしながら、このよ
うな像の実時間認識合成装置では、像の動きをすべて動
きパラメータとして送信するため、像の微妙な変化を認
識、合成できないという問題があった。特に、人物の表
情などを送信するとき、コミュニケーションに重要な役
割を持つ、目のまわりの表情の微妙な変化を、顔に止着
したマーカーの変位の計測のみから認識、合成すること
は困難である。
【0010】この問題を解決するために、エッジ検出な
どの画像処理技術を用いることが考えられる。それによ
り計測するデータを増やし、像の微妙な変化をある程度
認識、合成することが可能であるが、画像処理量が膨大
な量になるため、高価な画像処理装置を必要とし、また
処理情報量が増えることにより、処理速度が遅くなり、
実時間認識ができなくなることが考えられる。
【0011】それゆえに、この発明の主たる目的は、像
の微妙な変化の再現が可能で、かつ通信データ量および
送信側の計測に必要な処理情報量および受信側の画像合
成に必要な処理情報量が十分に少なく、実用に適した像
の実時間認識合成装置を提供することである。
【0012】
【課題を解決するための手段】前記目的を達成するた
め、本発明の像の実時間認識合成装置は、送信側の像モ
デルを、3次元ワイヤフレームモデルにカラーテクスチ
ャマッピングしたものにより像モデルデータとして構成
し、像モデルデータを、コンピュータグラフィックス技
術を用いて生成された仮想空間に配置し、受信側の立体
ディスプレイに、像の動きを再現して立体表示する、像
の実時間認識合成装置であって、像モデルデータを格納
する格納手段と、送信側の像モデルの動作などに基づ
く、動きパラメータを検出するパラメータ検出手段と、
送信側の像モデルの少なくとも一部を撮像して、画像デ
ータを検出する画像データ検出手段と、格納された像モ
デルデータと、検出された動きパラメータとを合成し
て、第1の画像データを生成する第1の合成手段と、検
出された画像データと、格納された像モデルデータのう
ち撮像された像モデルの部分に対応する部分像モデルデ
ータとを合成して第1の中間画像データを調整する第1
の調整手段と、検出された動きパラメータのうち、撮像
された像モデルの部分の外縁に近接する近接パラメータ
と、像モデルデータのうち少なくとも撮像された像モデ
ルの部分の周縁に対応する周縁像モデルデータとを合成
して第2の中間画像データを調整する第2の調整手段
と、調整された第1の中間画像データと第2の中間画像
データとを合成して第2の画像データを生成する第2の
合成手段と、生成された第1の画像データと、生成され
た第2の画像データとを合成して、第3の画像データを
生成する第3の合成手段と、生成された第3の画像デー
タに基づいて、送信側の像モデルの動きを再現する像再
現手段とを備えることを特徴としている。
【0013】
【作用】この発明による像の実時間認識合成装置は、以
下の作用を持つ。
【0014】まず送信側から送られる像の動きパラメー
タと、受信側に予め保存されている像モデルデータとが
合成され、第1の画像データとなる。特に微妙な像の再
現が必要な部分は撮像され、送信側から画像データとし
て別個に送信される。撮像された画像データと撮像され
た部分に対応する像モデルデータとが合成され第1の中
間画像データとなる。検出された動きパラメータのうち
撮像された部分の外縁に近接するパラメータと撮像され
た部分の周縁に対応する像モデルデータとが合成され第
2の中間画像データとなる。第1の中間画像データと第
2の中間画像データは合成され第2の画像データとな
る。そして第1の画像データと第2の画像データは合成
され、第3の画像データとなる。第3の画像データは受
信側のディスプレイに実時間で再現される。
【0015】
【実施例】図1は、この発明の一実施例の実時間認識合
成装置を示す構成図、図2は、図1の表情検出器103
の具体例を示す図、図3は図1の人物モデルデータベー
ス111に含まれる人物の頭部のワイヤフレームモデル
を示した図、図4は図1のモデル変形調整部で行なわれ
る処理について説明するための図である。
【0016】図1から図4を用いてこの発明の一実施例
の実時間認識合成装置の構成と動作について説明する。
【0017】図1中の矢印は、データの送られる方向を
示している。実時間認識装置は、大きくは送信側システ
ム11と受信側システム13とから構成される。
【0018】送信側のシステム11は、実空間1中の送
信側の人物3の体の動きを検出する体の動き検出器10
1と、表情を検出する表情検出器103とから構成され
ている。体の動き検出器101として、たとえばVPL
社のデータグローブや、Polhemusの磁気センサが使用さ
れる。体の動き検出器101により得られたデータは、
体の動きパラメータ21として、受信側システム13へ
送信される。
【0019】表示検出器103は、図2に示すように、
頭部に固定されたカメラ201により表情を撮影する装
置である。カメラ201は、顔209および顔209の
表情筋の上の皮膚表面に止着されたマーカー203を撮
像する。撮像された画像データ205中で、マーカー2
03の移動方向、移動距離はトラッキングされ、顔マー
カーの動きパラメータ23として、受信側システム13
へと送られ、特に複雑な変化をする目のまわりのデータ
は、画像データ25として受信側システム13へ送られ
る。
【0020】受信側システム13には、予め送信側の人
物3を3次元ワイヤフレームモデルとカラーテクスチャ
とによりモデル化した人物モデルデータベース111が
用意されている。
【0021】3次元ワイヤフレームモデルは、人体の表
面を三角形のパッチで近似したものであり、カラーテク
スチャは人体表面の色彩情報である。
【0022】体の動きパラメータ21と顔マーカーの動
きパラメータ23は、第1画像合成部105へ送られ、
そこで人物モデルデータベース111から取出された3
次元ワイヤフレームモデルおよびカラーテクスチャ27
と合成される。合成は具体的には3次元ワイヤフレーム
モデルの頂点座標を体の動きパラメータ21と顔マーカ
ーの動きパラメータ23に合せて変形させることによっ
て行なわれる。これにより、人体の動きや顔マーカーの
動きによる形状変化が再現される。
【0023】また画像データ25と顔マーカーの動きパ
ラメータ23と人物モデルデータベース111中の3次
元ワイヤフレームモデル29とがモデル変形調整部11
7へ送られる。モデル変形調整部117で行なわれる処
理を以下に説明する。
【0024】人物モデルデータベース111中の3次元
ワイヤフレームモデル29において、目の部分45と目
のまわりの部分46は、図3に示されるように他の部分
47に比べノードの密度が高く、三角形のパッチが細か
くなるように設定されている。これは目の部分45およ
び目のまわりの部分46は特に微妙な変化の再現が必要
なためである。画像データ25は目の部分45と目のま
わりの部分46に合成される。モデル変形調整部117
において、表情検出器から送信された顔マーカーの動き
パラメータ23からの情報に基づいて目のまわりの部分
46のワイヤフレームの頂点座標の移動が行なわれ、形
状変化が再現される。
【0025】この形状変化はたとえば図4に示されるよ
うに顔に止着されたマーカー203a〜203dが矢印
204a〜204dのように動いたことに応じて、目の
まわりの部分46中のワイヤフレームモデルの各々の頂
点座標の移動が計算により、矢印213a〜213dの
ように行なわれることによって表わされる。
【0026】第2画像合成部107において、形状変化
が再現された目のまわりの部分のワイヤフレームモデル
59と、目の部分45と目のまわりの部分46とに合成
された画像データ57とが合成される。画像合成はたと
えばSilicon Graphics社のワークステーションONYX
により行なわれる。第1画像合成部105と第2画像合
成部107により得られた画像データ31,33は、各
々第3画像合成部109へ送られ合成される。合成され
た人物像5は、コンピュータグラフィックス技術を用い
て生成された仮想空間7中に配置される。受信側の立体
ディスプレイ9には、人物像5を含む仮想空間7が表示
される。
【0027】また、第1画像合成部により合成された画
像の色調データ41と第2画像合成部により合成された
画像の色調データ43は各々色調検査部113に送られ
そこで比較される。その差が所定値より大きい場合、そ
の差の情報39を、人物モデルデータベース111へフ
ィードバックし、その差が小さくなるように人物モデル
データベース111中のカラーテクスチャは補正され
る。
【0028】会議システムなどでは、照明条件などはあ
まり頻繁には変化しないので、この補正処理は数秒〜数
分に1回でよい。画像データ25は、1秒間に数枚〜数
十枚送られてくるため、画像データ25を補正するより
も、人物モデルデータベース111中のカラーテクスチ
ャを補正した方が、処理情報量を減らす上で有利であ
る。
【0029】なお、図5から図7は、図1の実施例にお
いて第1画像合成部105により合成された画像と、第
2画像合成部107により合成された画像の境界での色
調の変化を目立たなくさせるために行なう処理について
説明するための図である。
【0030】図5において、人物モデルデータベース中
の人物モデルデータ207より取出された目のまわりの
3次元ワイヤフレームモデル29と、顔マーカーの動き
パラメータ23と、画像データ25はモデル変形調整部
117へ送られる。前述したようにモデル変形調整部1
17において、目のまわりの部分の3次元ワイヤフレー
ムモデルと顔マーカーの動きパラメータ23が合成され
た第1の中間画像データ59と、目の部分と目のまわり
の部分の3次元ワイヤフレームモデルと画像データ25
が合成された第2の中間画像データ57が生成される。
生成された中間画像データ57、59は第2画像合成部
107へと送られ合成され、第2の画像データ33とな
る。一方、人物モデルデータ207より取出された目の
まわりを除く部分の3次元ワイヤフレームモデルおよび
カラーテクスチャ27は、第1画像合成部105に送ら
れ、体の動きパラメータ21および顔マーカーの動きパ
ラメータ23と合成され、第1の画像データ31とな
る。この第1の画像データ31と第2の画像データ33
が第3画像合成部109へ送られ、人物像5が合成され
る。
【0031】このとき、第1の画像データと第2の画像
データの境界部を目立たなくさせるために、各々には色
調調整部分504に対応するデータが含まれている。色
調調整部分504は、図6に示されているように第1の
画像データ31の領域と第2の画像データ33の領域と
が重なる領域である。色調調整部分504は、図3の目
のまわりの部分46と同じであっても、異なってもよ
い。
【0032】図6において、第1の画像データ31の色
調調整部分504との境界点Aでの色調データ600、
第2の画像データ33の色調調整部分504との境界点
Bでの色調データ602が、図のような色調レベルであ
ったとすると、その色調調整部分504の領域では第1
の画像データ31の色調データ600は、色調調整部分
504の領域中を、第2の画像データ33の領域側へ進
むごとに線形的に減少させていき、色調調整部分504
の領域の第2の画像データ33の領域側の境界点Bの位
置で0にする。この線形的な色調データの減少を606
に示す。
【0033】同様に第2の画像データ33の色調データ
602は、色調調整部分504の領域中を、第1の画像
データ31の領域側へ進むごとに、線形的に減少させて
いき、色調調整部分504の領域の第1の画像データ3
1の領域側の境界点Aの位置で0にする。この線形的な
色調データの減少を608に示す。
【0034】そして、色調調整部分504の領域での色
調データは、第1の画像データの色調データ606と第
2の画像データの色調データ608を足し合せたもの
を、色調調整部分504での色調データ604とする。
この処理により第1の画像データ31と第2の画像デー
タ33の境界を目立たなくすることができる。
【0035】図7に示すように、色調は第1の画像デー
タ31と第2の画像データ33の中でも場所により色調
レベルが異なる場合がある。その場合、その部分毎に図
6で示される色調調整処理をすれば良い。
【0036】なお、この実施例では画像データとして送
信する部位を、目の部分に設定したが、口など他の部分
でもよい。
【0037】また、この実施例では人物像を例に挙げた
が、動物などでも実施が可能である。
【0038】さらにこの実施例では、モデル変形調整部
で目のまわりの部分のワイヤフレームモデルの形状を変
化させたが、目の部分のワイヤフレームモデルの形状を
変化させるようにしてもよい。
【0039】
【発明の効果】以上のようにこの発明によると、像の変
化の単純な部分は動きパラメータとして送信し、像の変
化の複雑な部分は画像データとして送信するため、送信
する情報量が少なく画像処理を高速で行なうことができ
る。また像の中で複雑な変化をする部分についての変化
を正確に再現することが可能である。
【図面の簡単な説明】
【図1】この発明の一実施例による実時間認識合成装置
の構成とデータの送られる方向を示した図である。
【図2】図1の表情検出器の具体例を説明するための図
である。
【図3】図1の人物モデルデータベースに含まれる人物
の頭部のワイヤフレームモデルを示した図である。
【図4】図1のモデル変形調整部で行なわれる処理につ
いて説明するための図である。
【図5】図1の受信側システムの画像合成方法を説明す
るための図である。
【図6】図1の第3画像合成部での第1の画像データ3
1と第2の画像データ33の境界部での色調調整の処理
を説明するための図である。
【図7】図4の処理方法を用いて図3の画像合成を具体
的に示した図である。
【図8】従来の実時間認識合成装置の構成と、データの
送られる方向を示した図である。
【図9】図6の表情検出器の具体例を説明するための図
である。
【符号の説明】
3 送信側の人物 5 合成された人物像 7 仮想空間 9 ディスプレイ 21 体の動きパラメータ 23 顔マーカーの動きパラメータ 25 画像データ 111 人物モデルデータベース 117 モデル変形調整部
フロントページの続き (72)発明者 田中 弘美 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール通信シ ステム研究所内 (72)発明者 北村 泰一 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール通信シ ステム研究所内

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 送信側の像モデルを、3次元ワイヤフレ
    ームモデルにカラーテクスチャマッピングしたものによ
    り像モデルデータとして構成し、前記像モデルデータ
    を、コンピュータグラフィックス技術を用いて生成され
    た仮想空間に配置し、受信側の立体ディスプレイに、像
    の動きを再現して立体表示する、像の実時間認識合成装
    置であって、 前記像モデルデータを格納する格納手段と、 前記送信側の像モデルの動作などに基づく、動きパラメ
    ータを検出するパラメータ検出手段と、 前記送信側の像モデルの少なくとも一部を撮像して、画
    像データを検出する画像データ検出手段と、 前記格納された像モデルデータと、前記検出された動き
    パラメータとを合成して、第1の画像データを生成する
    第1の合成手段と、 前記検出された画像データと、前記格納された像モデル
    データのうち前記撮像された像モデルの部分に対応する
    部分像モデルデータとを合成して第1の中間画像データ
    を調整する第1の調整手段と、 前記検出された動きパラメータのうち、前記撮像された
    像モデルの部分の外縁に近接する近接パラメータと、前
    記像モデルデータのうち少なくとも前記撮像された像モ
    デルの部分の周縁に対応する周縁像モデルデータとを合
    成して第2の中間画像データを調整する第2の調整手段
    と、 前記調整された第1の中間画像データと第2の中間画像
    データとを合成して第2の画像データを生成する第2の
    合成手段と、 前記生成された第1の画像データと、前記生成された第
    2の画像データとを合成して、第3の画像データを生成
    する第3の合成手段と、 前記生成された第3の画像データに基づいて、前記送信
    側の像モデルの動きを再現する像再現手段とを備えた、
    像の実時間認識合成装置。
JP18460594A 1994-08-05 1994-08-05 像の実時間認識合成装置 Expired - Fee Related JP2670663B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18460594A JP2670663B2 (ja) 1994-08-05 1994-08-05 像の実時間認識合成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18460594A JP2670663B2 (ja) 1994-08-05 1994-08-05 像の実時間認識合成装置

Publications (2)

Publication Number Publication Date
JPH0850660A true JPH0850660A (ja) 1996-02-20
JP2670663B2 JP2670663B2 (ja) 1997-10-29

Family

ID=16156147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18460594A Expired - Fee Related JP2670663B2 (ja) 1994-08-05 1994-08-05 像の実時間認識合成装置

Country Status (1)

Country Link
JP (1) JP2670663B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100292238B1 (ko) * 1998-05-28 2001-06-01 전주범 텍스쳐맵핑을위한텍스쳐영상과표준형상모델내구성성분정합방법
JP2003061936A (ja) * 2001-08-27 2003-03-04 Sanyo Electric Co Ltd 動立体モデル生成装置及び方法
US7177450B2 (en) 2000-03-31 2007-02-13 Nec Corporation Face recognition method, recording medium thereof and face recognition device
JP2009506442A (ja) * 2005-08-26 2009-02-12 ソニー株式会社 顔の動きのデータの撮影及び処理
JP2011149952A (ja) * 2011-03-10 2011-08-04 Sanyo Electric Co Ltd モデル入力装置およびモデル生成システム
US8218825B2 (en) 2005-08-26 2012-07-10 Sony Corporation Capturing and processing facial motion data
JP2022515303A (ja) * 2019-11-29 2022-02-18 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 画像処理方法及び装置、画像処理装置並びに記憶媒体

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100292238B1 (ko) * 1998-05-28 2001-06-01 전주범 텍스쳐맵핑을위한텍스쳐영상과표준형상모델내구성성분정합방법
US7177450B2 (en) 2000-03-31 2007-02-13 Nec Corporation Face recognition method, recording medium thereof and face recognition device
JP2003061936A (ja) * 2001-08-27 2003-03-04 Sanyo Electric Co Ltd 動立体モデル生成装置及び方法
JP2009506442A (ja) * 2005-08-26 2009-02-12 ソニー株式会社 顔の動きのデータの撮影及び処理
US8218825B2 (en) 2005-08-26 2012-07-10 Sony Corporation Capturing and processing facial motion data
JP2011149952A (ja) * 2011-03-10 2011-08-04 Sanyo Electric Co Ltd モデル入力装置およびモデル生成システム
JP2022515303A (ja) * 2019-11-29 2022-02-18 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 画像処理方法及び装置、画像処理装置並びに記憶媒体

Also Published As

Publication number Publication date
JP2670663B2 (ja) 1997-10-29

Similar Documents

Publication Publication Date Title
AU2006282764B2 (en) Capturing and processing facial motion data
US5870136A (en) Dynamic generation of imperceptible structured light for tracking and acquisition of three dimensional scene geometry and surface characteristics in interactive three dimensional computer graphics applications
JP4473754B2 (ja) 仮想試着装置
EP1433335B1 (en) 3d video conferencing system
AU2005291927B2 (en) System and method for tracking facial muscle and eye motion for computer graphics animation
US7171029B2 (en) Method and apparatus for generating models of individuals
JP2014106543A (ja) 画像処理装置、画像処理方法及びプログラム
WO2010038693A1 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
JP2534617B2 (ja) 人物像の実時間認識合成方法
JP2802725B2 (ja) 表情再現装置および表情再現に用いられるマトリックスの算出方法
JP2670663B2 (ja) 像の実時間認識合成装置
JP5362357B2 (ja) 顔の動きのデータの撮影及び処理
US6931145B1 (en) Method and apparatus for measuring motion of an object surface by multi-resolution analysis using a mesh model
JP2002032788A (ja) 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体
JP2627487B2 (ja) 像の実時間認識合成装置
JPH0475639A (ja) 顔画像モデル生成装置
WO2022224732A1 (ja) 情報処理装置及び情報処理方法
JP7200439B1 (ja) アバター表示装置、アバター生成装置及びプログラム
JP2813971B2 (ja) 状態再現方法
JP6971932B2 (ja) 映像操作装置、映像操作方法、及び映像操作プログラム
Grammalidis et al. Estimating body animation parameters from depth images using analysis by synthesis
Krnoul et al. Face model reconstruction for Czech audio-visual speech synthesis
JP2010085322A (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
del Valle et al. Making machines understand facial motion and expressions like humans do

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19970603

LAPS Cancellation because of no payment of annual fees