JPH0738873A - 人物像の実時間認識合成方法 - Google Patents

人物像の実時間認識合成方法

Info

Publication number
JPH0738873A
JPH0738873A JP5182744A JP18274493A JPH0738873A JP H0738873 A JPH0738873 A JP H0738873A JP 5182744 A JP5182744 A JP 5182744A JP 18274493 A JP18274493 A JP 18274493A JP H0738873 A JPH0738873 A JP H0738873A
Authority
JP
Japan
Prior art keywords
person
image
dimensional
model
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5182744A
Other languages
English (en)
Other versions
JP2534617B2 (ja
Inventor
Atsushi Otani
淳 大谷
Haruo Takemura
治雄 竹村
Taiichi Kitamura
泰一 北村
Fumio Kishino
文郎 岸野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR TSUSHIN SYST KENKYUSHO KK
Original Assignee
ATR TSUSHIN SYST KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR TSUSHIN SYST KENKYUSHO KK filed Critical ATR TSUSHIN SYST KENKYUSHO KK
Priority to JP5182744A priority Critical patent/JP2534617B2/ja
Publication of JPH0738873A publication Critical patent/JPH0738873A/ja
Application granted granted Critical
Publication of JP2534617B2 publication Critical patent/JP2534617B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

(57)【要約】 【目的】 人物の動き検出部と人物モデルにおける動き
合成部を合体し、人物の動きを実時間で人物モデルにお
いて再現できるような人物像の実時間認識合成方法を提
供する。 【構成】 実空間1中の人物2の3次元モデルを3次元
モデル生成部20で作成しておき、通信会議中における
人物の動きとして表情や頭部の回転や指の動きや体の回
転を実時間検出部30で検出し、検出された動き情報に
基づいて、人物像を実時間生成部40で生成し、受信側
の立体ディスプレイ5に仮想空間44が人物像3を含む
仮想空間4として表示することにより、受信側の会議参
加者6と送信側の人物2とがあたかも1ヶ所にいるよう
な感覚で会議を行なう。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は人物像の実時間認識合
成方法に関し、特に、送信側の人物モデルを3次元ワイ
ヤーフレームモデルにカラーテクスチャマッピングした
ものにより構成し、この人物モデルをコンピュータグラ
フィックス技術を用いて生成された仮想空間に配置し、
受信側の立体ディスプレイに人物の動きを再現して立体
表示し、互いに異なる複数の場所にいる複数の人々が、
あたかも一堂に介している感覚で会議を行なうことがで
きるような通信に適用される人物像の実時間認識合成方
法に関する。
【0002】
【従来の技術】従来、人物の表情や動きの検出,認識方
法および人物モデルにおける動きの合成(再現)は別個
に研究される場合がほとんどであった。
【0003】人物の表情や動きの検出は、人物を含むシ
ーンをテレビカメラにより画像として捉え、これを処理
することにより、表情認識や動きの認識を行なう試みが
行なわれてきたが、いずれの方法も処理精度に問題があ
り、さらに処理時間も実時間処理からかけ離れたもので
あった。
【0004】
【発明が解決しようとする課題】一方、人物モデルにお
ける動きの合成に関しては、コンピュータグラフィック
スの分野で主に扱われていた。すなわち、通常、人物の
動きをビデオカメラなどで撮影し、その連続画像から何
フレームかのキーフレームを選択し、これに基づいて設
計者が人物モデルを適宜変形することにより動きを合成
し、キーフレームの間のフレームについては、適宜補間
を行なうことにより、滑らかな動きを合成していた。し
かし、このような手法を用いると、予め用意された限ら
れた動きしか合成することができない。さらに、人物の
動き検出部からの情報を用いて、人物モデルにおいて動
きを再現することは不可能であった。
【0005】これに対して、エクゾスケルトン型の変位
検出デバイスを顔面に貼り付け、コンピュータグラフィ
ックスで生成された人物像において表情を再現する試み
も見られるが、大きな機器を装着する必要があり、使い
勝手に大きな問題点があった。
【0006】それゆえに、この発明の主たる目的は、人
物の動き検出部と人物モデルにおける動き合成部を合体
し、さらに人物の動きを実時間で人物モデルにおいて再
現できるような人物像の実時間認識合成方法を提供する
ことである。
【0007】
【課題を解決するための手段】この発明は送信側の人物
のモデルを3次元ワイヤーフレームモデルにカラーテク
スチャマッピングしたものにより構成し、この人物モデ
ルをコンピュータグラフィックス技術を用いて生成され
た仮想空間に配置し、受信側の立体ディスプレイに人物
の動きを再現して立体表示する通信方法において、送信
側の人物の顔の表情筋の上の皮膚表面にマーカを貼り付
け、この人物の顔画像を撮像してその画像中におけるマ
ーカを実時間で追跡するとともに、その人物の角膜に光
を照射したときの角膜反射像を撮像して視線と瞬きを検
出し、その人物の体,頭,指などの動き情報を実時間で
検出する。
【0008】そして、3次元人物モデルにおいて、マー
カの追跡結果に基づいて顔に対応する部分のワイヤーフ
レームモデルを駆動し、視線および瞬きの検出結果に基
づいて、3次元人物モデルの眼球の黒目の位置および瞼
の開閉を行ない、検出した動き情報により3次元人物モ
デルの対応する各部分を駆動するように構成される。
【0009】
【作用】この発明に係る人物像の実時間認識方法は、人
物の顔の表情筋にマーカを貼り付け、このマーカと角膜
反射像を実時間で追跡するとともに、体,頭,指などの
動きも実時間で検出し、3次元の人物モデルに実時間に
てテクスチャマッピングを行なうことにより、3次元の
人物モデルにおいて実時間で動きの再現を可能にする。
【0010】
【実施例】図1はこの発明の一実施例の全体の構成を示
すブロック図である。この実施例では、実空間1中の人
物2の3次元モデルを生成するための人物像3次元モデ
ル生成部20と、人物の動きを検出する実時間検出部3
0と、検出された動き情報で人物像を生成する実時間生
成部40とを含む。人物像3次元モデル生成部20は、
人体のパーツ21ごとに、形状入力装置22により3次
元ワイヤーフレームモデル23を獲得し、映像入力装置
24によってカラーテクスチャ25を獲得する。ワイヤ
ーフレームモデル23は人体の表面を三角形のパッチで
近似したものであり、カラーテクスチャは人体表面の色
彩情報である。
【0011】通信会議中において、実時間検出部30に
よって人物の動きが検出される。この人物の動き実時間
検出部30は、顔の表情検出部31と、頭部の回転移動
検出部32と、指の動き検出部33と、体の回転運動検
出部34とを含み、それぞれ人体の部分の動き情報を検
出する。人物像生成部40は、3次元ワイヤーフレーム
モデルの変形部41によって、動き検出部30で検出さ
れた人体の各部分の動き情報と人物像3次元モデル生成
部20によって生成された3次元ワイヤーフレームモデ
ル23とに基づいて、3次元ワイヤーフレームモデルを
変形し、人体の動きによる形状変化を再現する。そし
て、テクスチャマッピング部42において、変形部41
において変形されたワイヤーフレームモデルに含まれる
三角パッチにカラーテクスチャ25を貼り付ける。この
ようにして、生成された3次元人物モデル3は仮想空間
3次元データ43に基づいて、コンピュータグラフィッ
クス技術を用いて生成された仮想空間44に配置され
る。受信側の立体ディスプレイ5に仮想空間44が、人
物像3を含む仮想空間4として表示されることにより、
受信側の会議参加者6は送信側の人物2とあたかも一ヶ
所にいるような感覚で会議を行なうことができる。
【0012】以下に、図1の各部分の構成について詳細
に説明する。図2は図1の人物像3次元モデル生成部2
0の動作原理を示す図である。人物2の人体は、パーツ
21a(頭),21b(上体),21c(上腕),21
d(下腕),21e(手)に分割され、形状データとカ
ラーデータとが獲得される。図2では上半身のみを示し
ているが、下半身も同様にして行なわれる。形状データ
を獲得するためには、たとえばレーザレンジスキャナ2
6が用いられる。このようなレーザレンジスキャナとし
ては、Cyberware Color 3D Dig
itizerなどが用いられる。レーザレンジスキャナ
26は対象物の周囲を回転しながらレーザストライプ光
を対象物に照射し、対象物の表面のレーザストライプの
変形を観測することにより、3次元点データ集合を獲得
できる。同時に、対象物の表面の色彩情報(カラーテク
スチャ)も獲得できる。たとえば、パーツ21cについ
て考えると、レーザレンジスキャナ26により得られた
3次元データ集合に基づいて、3次元ワイヤーフレーム
モデル23cと、そのカラーテクスチャ25cが得られ
る。
【0013】ただし、レーザレンジスキャナ26は、上
腕21cのように回転体に近いパーツには有効である
が、指を含む手などのように回転体とはいえないパーツ
については、テレビカメラ27を利用し、カラーテクス
チャ25eを得るとともに、3次元点データ23eはマ
ニアル操作により取得する。
【0014】上述のようにして、各人体パーツの3次元
ワイヤーフレームモデル23とカラーテクスチャ25と
が得られる。これらのパーツは、それぞれの間の関節の
動きを再現可能な形で接続される。
【0015】一方、動き検出部30においては、顔の表
情検出部31では、後述のような画像処理を用いる。頭
部および体の回転移動検出部32と34とでは、たとえ
ばPolhemusの磁気センサが使用される。この磁
気センサは3次元空間における座標軸方向の移動および
座標軸周りの回転の計6個の姿勢パラメータの実時間検
出が可能である。指の動き検出部33では、たとえばV
PL社のデータグローブが使用される。このグローブ
は、指の曲がり具合を光ファイバにより実時間で検出す
ることができる。
【0016】図3は顔の表情検出部31の原理を説明す
るための図である。図3に示すように、顔50の表情筋
の上の皮膚表面にカラーマーカ51を貼り付け、これを
テレビカメラ52で画像55として捉え、画像55中で
カラーマーカ51の追跡を行なう。画像55は2値化さ
れ、カラーマーカ51に対応する部分のみを検出できる
ようにされる。カラーマーカ51の追跡を安定化するた
め、顔50を持つ人物は図3に示すようなヘルメット5
3を被る。ヘルメット53には枠54が固定されてい
て、これにテレビカメラ52が固定される。このように
構成することにより、顔50が向きを変えても、常に顔
50に対して一定の位置から顔画像55が得られる。な
お、カラーマーカ51の追跡の高速化のため、顔画像5
5において、各カラーマーカ51に対してウィンドウ5
6を設定し、このウィンドウ56において、カラーマー
カ51に対応すると考えられる画素の重心を求めてカラ
ーマーカ51の位置とする。
【0017】表情検出部31では、皮膚表面の変形だけ
ではなく、視線の検出も行なう。すなわち、図3に示す
枠54に設けられたテレビカメラ52の横に、光源とし
ての電球57を配置し、これを点灯したときに生じる電
球の角膜反射像58をテレビカメラ52で撮像する。そ
して、得られた画像55において、カラーマーカ51と
同様に追跡する。ここで、テレビカメラ52とは別のカ
メラ59を角膜反射像58を検出するための専用として
設けることにより、検出の高精度化を狙うことも可能で
ある。これにより、視線の方向が検出されるとともに、
角膜反射像58が観測されるか否かにより、瞬きの検出
も行なう。
【0018】図1に示した人物像生成部40では、変形
部41において、検出部30で検出された動き情報に基
づいて、人物像の3次元ワイヤーフレームモデル23を
変形する。まず、顔の部分のワイヤーフレームモデルの
変形法について説明する。本来、顔50は3次元構造を
持つのに対して、カラーマーカ51の動きは、テレビカ
メラ52によって獲得される画像55中の2次元の動き
として検出されるため、3次元モデルを駆動するために
は、知識や拘束条件が必要である。ここでは、鼻のマー
カを不動の基準点とし、無表情時における各マーカとの
距離を求めておき、表情変化に伴い距離変化が生じたマ
ーカの動き情報に基づき、たとえば以下のようにして、
3次元モデル23を駆動する。
【0019】図4は下唇の下のマーカの動きが小さい場
合のワイヤーフレーム駆動法を示す図であり、図5は下
唇の下のマーカの動きが大きい場合のワイヤーフレーム
駆動法を示す図でり、図6は唇の両端のマーカが外側に
動く場合のワイヤーフレーム駆動法を示す図であり、図
7は唇の両端のマーカが内側に動く場合のワイヤーフレ
ーム駆動法を示す図である。
【0020】まず、下唇のマーカの動きにより、下顎を
駆動する。なお、このマーカの動きが小さいときは、図
4に示すように、口を小さく開いたと判断し、この場合
顔の両側にある下顎と上顎の接続点を結ぶ直線を中心軸
とした円筒面上を下顎が動くという知見に従い、唇も含
めた下顎領域に対応する部分を駆動する。あるしきい値
を越えて動いたときは、図5に示すように、大きく口を
開いたと判断し、鉛直下向きに下顎領域を動かす。
【0021】唇の両端(口角点)のマーカの動きによ
り、唇の形状を決定する。口角点が唇に対して外側(内
側)に動くことにより、唇を引いた(口を突き出した)
と判断する。口角点が外へ動いたときは、図6に示すよ
うに、唇の周りに対応するモデル部分が、口角点と耳と
で決定される面上を動くと仮定し、各頂点の3次元座標
を決定する。口角点が内へ動いた場合は、図7に示すよ
うに、予め得られているデータに基づき、唇を突き出す
ように口周囲の頂点の座標を決定する。
【0022】鼻側溝および上唇のマーカは、上記の動き
の調整に用いられる。すなわち、唇の形状を変化させる
ために、鼻の周りも含めた広い範囲の頂点を駆動してい
るが、口角点のマーカの動きだけに従うと、これらの頂
点の動きが不自然なものとなるので、これを防ぐのが狙
いである。上頬点のマーカの動きが検出される場合は、
マーカ周囲の頂点を、実際に計測したデータに基づいて
駆動する。
【0023】一方、表情検出部31では、視線と瞬きの
検出を行なうが、変形部41では人物像のワイヤーフレ
ームモデル23における眼球の部分において、黒目の部
分の位置の決定および瞼の開閉を行なう。
【0024】頭部の回転移動検出部32と体の回転運動
検出部34とによって、各部分の3次元位置および回転
が判別できるので、関節の間の部分に対応するワイヤー
フレームモデルに含まれる三角パッチの頂点の3次元座
標を計算することにより、3次元ワイヤーフレームモデ
ル23上で動きが再現される。同様にして、指の動き検
出部33により得られる情報により、指のモデルが適宜
変形される。
【0025】このようにして、ワイヤーフレームモデル
23が変形されるが、この変形された三角パッチに対し
て、実時間でカラーテクスチャをテクスチャマッピング
部42で貼り付ける処理を行なう。初期状態の三角パッ
チに対応する形でカラーテクスチャが得られているの
で、人物の動きに伴なう三角パッチの変形に対応して、
適宜カラーテクスチャの間引きや補間が行なわれる。
【0026】以上のようにして作成された3次元人物モ
デル23が仮想空間データ43を用いてコンピュータグ
ラフィックス技術により作成される仮想空間に配置され
る。
【0027】図8はこの発明の動作を実現する実施例を
示す図であり、2つの場所にいる2人の会議参加者のた
めの実施例である。一方側のワークステーション61
は、たとえばIRIS WS Crimson,Rea
lity Engine Silicon Graph
ics製であり、高速なテクスチャマッピングが可能で
あり、他方側の人物81の実時間3次元表示のために用
いられる。人物81の3次元人物像は、立体視用3次元
スクリーン64に表示される。3次元スクリーンの例と
して、左右目用の画像が交互に60Hz程度の頻度で表
示されるものがあり、一方側の人物71は、立体視用眼
鏡72(スクリーン64に同期して左右目用のシャッタ
が開閉される)を着用し、磁気センサ73が設けられた
データグローブ74を着用して、他方側の人物81と協
調作業を行なう。
【0028】一方、人物81の表情検出は、他方側の2
台のワークステーション62,63のうちの1台63
(たとえばIRIS WS 4D340/VGX)を用
いて行なわれる。前述の図3に示したヘルメット53に
取付けられたテレビカメラ52から得られる画像情報を
分岐し、一方を青色のマーカ追跡のためにクロマキー6
7に入力して、青色部分とその他の色の部分に分離する
2値化を行ない、他方を角膜反射像検出のためにレベル
キー68に入力して2値化を行ない、ワークステーショ
ン63において追跡処理を行なう。
【0029】他方側のもう一方のワークステーション6
2(たとえば、IRIS WS 4D240/VGS)
は、人物81の装着するデータグローブ85と磁気セン
サ84からの情報処理に使用される。また、他方側も一
方側と同様の仮想空間がこのワークステーション62に
よって構成され、立体視用3次元スクリーン65に表示
されるが、テクスチャマッピングの能力の限界から、人
物81の人物像表示は簡易なコンピュータグラフィック
ス像により行なわれることもある。
【0030】他方側の2台のワークステーション62と
63とによって得られた人物81の動き情報は、Eth
ernet64を介して一方側のワークステーション6
1に転送され、人物81の3次元モデルが駆動される。
また、人物71と81とが音声によりコミュニケーショ
ンできるように、一方側にマイクロフォン94とスピー
カ93が配置され、他方側にもマイクロフォン91とス
ピーカ95と遅延装置92とが用意される。遅延装置9
2は表情の検出と生成のための処理時間を考慮して、音
声に遅延をかけるためのものである。
【0031】この図8に示した実施例の性能は以下のと
おりである。種々の状況でマーカ追跡および角膜反射像
追跡の実験を行なった結果、11フレーム/秒程度の速
度で行なえることがわかった。人物の上半身像の3次元
モデル23を約6700点の頂点数(頭部は1400
点)からなるワイヤーフレームモデルで構成した場合、
一方、動き生成については、まず動き検出系とは切り離
して実験を行なった結果、11フレーム/秒程度の速度
で表示を行なうことができた。表情検出系と連動して生
成を行なった場合、仮想空間における人物以外のものが
ある場合には5〜6フレーム/秒,人物のみの場合に
は、6〜7フレーム/秒となった。
【0032】
【発明の効果】以上のように、この発明によれば、顔の
表情筋にマーカを貼り付け、その顔の画像を撮像して実
時間でマーカを追跡し、体,頭,指などの動きを実時間
で検出するようにし、3次元の人物モデルに実時間でテ
クスチャマッピングが可能な装置を用いるようにしてい
るため、3次元の人物モデルにおいて、実時間で動きの
再現が可能となる。
【図面の簡単な説明】
【図1】この発明の一実施例の全体の構成を示すブロッ
ク図である。
【図2】3次元人物像を生成する原理を説明するための
図である。
【図3】表情検出部の原理を説明するための図である。
【図4】下唇の下のマーカの動きが小さい場合のワイヤ
ーフレーム駆動法を示す図である。
【図5】下唇の下のマーカの動きが大きい場合のワイヤ
ーフレーム駆動法を示す図である。
【図6】唇の両端のマーカが外側に動く場合のワイヤー
フレーム駆動法を示す図である。
【図7】唇の両端のマーカが内側に動く場合のワイヤー
フレーム駆動法を示す図である。
【図8】この発明の動作原理を実現する実施例を示す図
である。
【符号の説明】
1 実空間 2 人物 3 3次元人物モデル 4 仮想空間 5 立体ディスプレイ 6 受信側の会議参加者 20 人物像3次元モデル生成部 21 人体パーツ 21a 頭 21b 上体 21c 上腕 21d 下碗 21e 手 22 形状入力装置 23 3次元ワイヤーフレームモデル 24 映像入力装置 25 カラーテクスチャ 26 レーザレンジスキャナ 27 テレビカメラ 30 人物の動き実時間検出部 31 顔の表情検出部 32 頭部の回転移動検出部 33 指の動き検出部 34 体の回転移動検出部 40 人物像生成部 41 3次元ワイヤーフレームモデル変形部 42 カラーテクスチャマッピング部 43 仮想空間3次元データ 44 生成された仮想空間 50 顔 51 カラーマーカ 52 テレビカメラ 53 ヘルメット 54 枠 55 顔画像 56 ウィンドウ 57 電球 58 角膜反射像 59 テレビカメラ 61,62,63 ワークステーション 64,65 立体視用3次元スクリーン 66 Ethernet 67 クロマキー 68 レベルキー 74,85 データグローブ 73,84 磁気センサ 91,94 マイクロフォン 92 遅延装置 93,95 スピーカ
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 // G06T 15/00 9192−5L G06F 15/72 450 A (72)発明者 竹村 治雄 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール通信シ ステム研究所内 (72)発明者 北村 泰一 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール通信シ ステム研究所内 (72)発明者 岸野 文郎 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール通信シ ステム研究所内

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 送信側の人物モデルを3次元ワイヤーフ
    レームモデルにカラーテクスチャマッピングしたものに
    より構成し、この人物モデルをコンピュータグラフィッ
    クス技術を用いて生成された仮想空間に配置し、受信側
    の立体ディスプレイに人物の動きを再現して立体表示す
    る通信方法において、 送信側の人物の顔の表情筋の上の皮膚表面にマーカを貼
    り付け、この人物の顔画像を撮像してその画像中におけ
    る前記マーカを実時間で追跡するとともに、該人物の角
    膜に光を照射したときの角膜反射像を撮像して視線と瞬
    きとを検出し、該人物の体,頭,指などの動き情報を実
    時間で検出し、 3次元人物モデルにおいて、前記マーカの追跡結果に基
    づいて顔に対応する部分のワイヤーフレームモデルを駆
    動し、前記視線および瞬きの検出結果に基づいて、前記
    3次元人物モデルの眼球の黒目の位置および瞼の開閉を
    行ない、前記検出した動き情報により前記3次元人物モ
    デルの対応する各部分を駆動することを特徴とする、人
    物像の実時間認識合成方法。
JP5182744A 1993-07-23 1993-07-23 人物像の実時間認識合成方法 Expired - Fee Related JP2534617B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5182744A JP2534617B2 (ja) 1993-07-23 1993-07-23 人物像の実時間認識合成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5182744A JP2534617B2 (ja) 1993-07-23 1993-07-23 人物像の実時間認識合成方法

Publications (2)

Publication Number Publication Date
JPH0738873A true JPH0738873A (ja) 1995-02-07
JP2534617B2 JP2534617B2 (ja) 1996-09-18

Family

ID=16123682

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5182744A Expired - Fee Related JP2534617B2 (ja) 1993-07-23 1993-07-23 人物像の実時間認識合成方法

Country Status (1)

Country Link
JP (1) JP2534617B2 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10271470A (ja) * 1997-03-24 1998-10-09 Olympus Optical Co Ltd 画像音声通信システムおよびテレビ電話送受信方法
GB2351635A (en) * 1999-01-20 2001-01-03 Canon Kk Video conferencing apparatus
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6195104B1 (en) 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
KR20010093938A (ko) * 2000-04-03 2001-10-31 김성천 인터넷을 사용한 아바타 형상화 방법 및 장치
WO2004062257A3 (en) * 2002-12-30 2004-12-23 Motorola Inc A method, system and apparatus for telepresence communications
JP2010517427A (ja) * 2007-01-23 2010-05-20 ユークリッド・ディスカバリーズ・エルエルシー 個人向けのビデオサービスを提供するシステムおよび方法
CN102761706A (zh) * 2011-04-26 2012-10-31 株式会社理光 成像设备、成像方法及程序
JP2013080473A (ja) * 2007-09-04 2013-05-02 Sony Corp 統合モーションキャプチャ
JP2016224597A (ja) * 2015-05-28 2016-12-28 浜松ホトニクス株式会社 瞬目計測方法、瞬目計測装置、及び瞬目計測プログラム
US9621917B2 (en) 2014-03-10 2017-04-11 Euclid Discoveries, Llc Continuous block tracking for temporal prediction in video encoding
US10091507B2 (en) 2014-03-10 2018-10-02 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
US10097851B2 (en) 2014-03-10 2018-10-09 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
JP2019220932A (ja) * 2018-06-14 2019-12-26 株式会社バーチャルキャスト コンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路
CN110959286A (zh) * 2017-07-31 2020-04-03 索尼公司 图像处理装置、图像处理方法、程序以及远程通讯系统
JP2021101557A (ja) * 2016-10-26 2021-07-08 グリー株式会社 情報処理システム、情報処理方法、および情報処理プログラム
CN115670392A (zh) * 2023-01-04 2023-02-03 北京智拓视界科技有限责任公司 用于对被扫描对象的脸部表情进行采集的三维扫描装置

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6313864B1 (en) 1997-03-24 2001-11-06 Olympus Optical Co., Ltd. Image and voice communication system and videophone transfer method
JPH10271470A (ja) * 1997-03-24 1998-10-09 Olympus Optical Co Ltd 画像音声通信システムおよびテレビ電話送受信方法
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6195104B1 (en) 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
GB2351635A (en) * 1999-01-20 2001-01-03 Canon Kk Video conferencing apparatus
GB2351635B (en) * 1999-01-20 2003-03-19 Canon Kk Video conferencing apparatus
KR20010093938A (ko) * 2000-04-03 2001-10-31 김성천 인터넷을 사용한 아바타 형상화 방법 및 장치
WO2004062257A3 (en) * 2002-12-30 2004-12-23 Motorola Inc A method, system and apparatus for telepresence communications
US8072479B2 (en) * 2002-12-30 2011-12-06 Motorola Mobility, Inc. Method system and apparatus for telepresence communications utilizing video avatars
JP2010517427A (ja) * 2007-01-23 2010-05-20 ユークリッド・ディスカバリーズ・エルエルシー 個人向けのビデオサービスを提供するシステムおよび方法
JP2013080473A (ja) * 2007-09-04 2013-05-02 Sony Corp 統合モーションキャプチャ
CN102761706A (zh) * 2011-04-26 2012-10-31 株式会社理光 成像设备、成像方法及程序
US8831282B2 (en) 2011-04-26 2014-09-09 Ricoh Company, Ltd. Imaging device including a face detector
US9621917B2 (en) 2014-03-10 2017-04-11 Euclid Discoveries, Llc Continuous block tracking for temporal prediction in video encoding
US10091507B2 (en) 2014-03-10 2018-10-02 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
US10097851B2 (en) 2014-03-10 2018-10-09 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
JP2016224597A (ja) * 2015-05-28 2016-12-28 浜松ホトニクス株式会社 瞬目計測方法、瞬目計測装置、及び瞬目計測プログラム
JP2021101557A (ja) * 2016-10-26 2021-07-08 グリー株式会社 情報処理システム、情報処理方法、および情報処理プログラム
CN110959286A (zh) * 2017-07-31 2020-04-03 索尼公司 图像处理装置、图像处理方法、程序以及远程通讯系统
JP2019220932A (ja) * 2018-06-14 2019-12-26 株式会社バーチャルキャスト コンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路
CN115670392A (zh) * 2023-01-04 2023-02-03 北京智拓视界科技有限责任公司 用于对被扫描对象的脸部表情进行采集的三维扫描装置

Also Published As

Publication number Publication date
JP2534617B2 (ja) 1996-09-18

Similar Documents

Publication Publication Date Title
JP2534617B2 (ja) 人物像の実時間認識合成方法
Gemmell et al. Gaze awareness for video-conferencing: A software approach
CN106170083B (zh) 用于头戴式显示器设备的图像处理
US6806898B1 (en) System and method for automatically adjusting gaze and head orientation for video conferencing
US20180365484A1 (en) Head-mounted display with facial expression detecting capability
AU2006282764B2 (en) Capturing and processing facial motion data
JP4794678B1 (ja) 映像処理装置、映像処理方法、および映像通信システム
Ohya et al. Real-time reproduction of 3D human images in virtual space teleconferencing
Ohya et al. Virtual space teleconferencing: Real-time reproduction of 3d human images
US20050083248A1 (en) Mobile face capture and image processing system and method
US20140254939A1 (en) Apparatus and method for outputting information on facial expression
WO2023109753A1 (zh) 虚拟角色的动画生成方法及装置、存储介质、终端
KR20120040751A (ko) 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
Petajan et al. Robust face feature analysis for automatic speachreading and character animation
WO2021240848A1 (ja) 3次元アバター生成装置、3次元アバター生成方法及び3次元アバター生成プログラム
CN114821675B (zh) 对象的处理方法、系统和处理器
Zitnick et al. Manipulation of video eye gaze and head orientation for video teleconferencing
JPH1196366A (ja) ヘッドマウントディスプレイを装着した人物の顔画像合成方法およびその装置
CN114267070A (zh) 一种可捕捉人体动作和表情的vr眼镜及其捕捉方法
Akimoto et al. 3D facial model creation using generic model and front and side views of face
JP2670663B2 (ja) 像の実時間認識合成装置
US20230139989A1 (en) Videoconference method and videoconference system
JPH0812706B2 (ja) 視線アニメーション表示装置
TWI240891B (en) Method of controlling the computer mouse by tracking user's head rotation and eyes movement
JP2000331190A (ja) 仮想変身装置

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19960402

LAPS Cancellation because of no payment of annual fees