JP2000194876A - 仮想空間共有装置 - Google Patents
仮想空間共有装置Info
- Publication number
- JP2000194876A JP2000194876A JP36983798A JP36983798A JP2000194876A JP 2000194876 A JP2000194876 A JP 2000194876A JP 36983798 A JP36983798 A JP 36983798A JP 36983798 A JP36983798 A JP 36983798A JP 2000194876 A JP2000194876 A JP 2000194876A
- Authority
- JP
- Japan
- Prior art keywords
- virtual space
- posture
- facial expression
- whole body
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
(57)【要約】
【課題】 仮想空間内のアバタを自分自身の動作によっ
て制御可能であって、より直感的なインタフェースであ
る仮想空間共有装置を提供する。 【解決手段】 サイト1にいる人物の全身姿勢および動
作状態を撮像し、全身の姿勢推定装置15によってその
姿勢および動作状態を推定し、仮想空間サーバ7が仮想
空間5をコンピュータグラフィックスで表示するととも
に、CG再現装置6からの各人物に対応したアバタを表
示させ、推定された姿勢および動作で対応のアバタを表
示させ、また顔表情推定装置16で推定された顔の表情
となるようにアバタを表示させる。
て制御可能であって、より直感的なインタフェースであ
る仮想空間共有装置を提供する。 【解決手段】 サイト1にいる人物の全身姿勢および動
作状態を撮像し、全身の姿勢推定装置15によってその
姿勢および動作状態を推定し、仮想空間サーバ7が仮想
空間5をコンピュータグラフィックスで表示するととも
に、CG再現装置6からの各人物に対応したアバタを表
示させ、推定された姿勢および動作で対応のアバタを表
示させ、また顔表情推定装置16で推定された顔の表情
となるようにアバタを表示させる。
Description
【0001】
【発明の属する技術分野】この発明は仮想空間共有装置
に関し、特にコンピュータグラフィックスで作成された
仮想空間内で実際の人物の動きに合わせてアバタを表示
できるような仮想空間共有装置に関する。
に関し、特にコンピュータグラフィックスで作成された
仮想空間内で実際の人物の動きに合わせてアバタを表示
できるような仮想空間共有装置に関する。
【0002】
【従来の技術】コンピュータグラフィックスで3次元空
間を表現し、人物の仮身であるアバタを表示してコミュ
ニケーションシステムを構成する3Dチャットが普及し
つつある。3Dチャットでは、アバタを通して表情やゼ
スチャー,音声さらに位置情報をリアルタイムで伝達す
ることができるため、より現実に近いコミュニケーショ
ンを提供できる。
間を表現し、人物の仮身であるアバタを表示してコミュ
ニケーションシステムを構成する3Dチャットが普及し
つつある。3Dチャットでは、アバタを通して表情やゼ
スチャー,音声さらに位置情報をリアルタイムで伝達す
ることができるため、より現実に近いコミュニケーショ
ンを提供できる。
【0003】このような3Dチャットについては、たと
えば「仮想社会におけるインタラクションの再現システ
ム」(VISUAL COMPUTINGグラフィックスとCADシンポ
ジウム98第85頁〜第90頁)で提案されている。
えば「仮想社会におけるインタラクションの再現システ
ム」(VISUAL COMPUTINGグラフィックスとCADシンポ
ジウム98第85頁〜第90頁)で提案されている。
【0004】
【発明が解決しようとする課題】しかしながら、従来の
システムでは、仮想空間内でのアバタの操作はキーボー
ドやマウスで行なっているため、その仮想空間内にあた
かも自分がいるような感覚、すなわち、没入感が乏しい
という問題点があった。
システムでは、仮想空間内でのアバタの操作はキーボー
ドやマウスで行なっているため、その仮想空間内にあた
かも自分がいるような感覚、すなわち、没入感が乏しい
という問題点があった。
【0005】それゆえに、この発明の主たる目的は、仮
想空間内のアバタを自分自身の動作によって制御可能で
あって、より直感的なインタフェースである仮想空間共
有装置を提供することである。
想空間内のアバタを自分自身の動作によって制御可能で
あって、より直感的なインタフェースである仮想空間共
有装置を提供することである。
【0006】
【課題を解決するための手段】請求項1に係る発明は、
仮想空間内でそれぞれ離れた場所にいる複数の人物があ
たかも一同に介しているかのようにコミュニケーション
することが可能な仮想空間共有装置であって、それぞれ
の場所にいる人物の全身姿勢および動作状態とその人物
の顔の表情の少なくともいずれか一方を実時間,非接触
で検出する検出手段と、仮想空間と複数の人物のそれぞ
れに対応する人体の仮身であるアバタをコンピュータグ
ラフィックスで表示するとともに、検出された全身姿勢
および動作状態または顔の表情に基づいて対応するアバ
タが動作するように仮想空間内で表示させる表示制御手
段とを備えて構成される。
仮想空間内でそれぞれ離れた場所にいる複数の人物があ
たかも一同に介しているかのようにコミュニケーション
することが可能な仮想空間共有装置であって、それぞれ
の場所にいる人物の全身姿勢および動作状態とその人物
の顔の表情の少なくともいずれか一方を実時間,非接触
で検出する検出手段と、仮想空間と複数の人物のそれぞ
れに対応する人体の仮身であるアバタをコンピュータグ
ラフィックスで表示するとともに、検出された全身姿勢
および動作状態または顔の表情に基づいて対応するアバ
タが動作するように仮想空間内で表示させる表示制御手
段とを備えて構成される。
【0007】請求項2に係る発明では、請求項1の検出
手段は、人物の全身の姿勢および動作状態を異なる角度
から撮像する複数の全身撮像手段と、その全身撮像出力
に基づいて全身姿勢および動作状態を推定する姿勢推定
手段とを含む。
手段は、人物の全身の姿勢および動作状態を異なる角度
から撮像する複数の全身撮像手段と、その全身撮像出力
に基づいて全身姿勢および動作状態を推定する姿勢推定
手段とを含む。
【0008】請求項3に係る発明では、請求項1の検出
手段は、人物の顔を撮像する顔撮像手段と、その撮像出
力に基づいて顔の表情を推定する顔表情推定手段とを含
む。
手段は、人物の顔を撮像する顔撮像手段と、その撮像出
力に基づいて顔の表情を推定する顔表情推定手段とを含
む。
【0009】
【発明の実施の形態】図1はこの発明の一実施形態の全
体の構成を示すブロック図である。この実施形態では、
3つのサイト(場所)1,2,3,4が設置され、さら
に仮想空間5が設けられる。サイト1はユーザ自身が体
全体を動かすとともに顔の表情を変化させて仮想空間内
の対応するアバタの体の動きおよび顔の表情の動作を制
御する。サイト2も同様にして、別のユーザが体全体お
よび顔の表情によって仮想空間内のそれぞれに対応する
アバタの動きを制御し、サイト3ではさらに別のユーザ
が体全体を動かして対応するアバタの動きを制御する。
体の構成を示すブロック図である。この実施形態では、
3つのサイト(場所)1,2,3,4が設置され、さら
に仮想空間5が設けられる。サイト1はユーザ自身が体
全体を動かすとともに顔の表情を変化させて仮想空間内
の対応するアバタの体の動きおよび顔の表情の動作を制
御する。サイト2も同様にして、別のユーザが体全体お
よび顔の表情によって仮想空間内のそれぞれに対応する
アバタの動きを制御し、サイト3ではさらに別のユーザ
が体全体を動かして対応するアバタの動きを制御する。
【0010】このために、サイト1にはCCDカメラ1
1〜14と、全身の姿勢推定装置15と顔表情推定装置
16とCG再現装置17とが設けられる。CCDカメラ
11〜13は、ユーザの体全体を正面,側面および立面
から撮像する。CCDカメラ11〜13の画像出力は全
身の姿勢推定装置15に与えられ、ユーザの全身の姿勢
が推定される。CCDカメラ14はユーザの顔を撮像し
て、その撮像出力が顔表情推定装置16に与えられて顔
の表情が推定される。CG再現装置17はユーザの動き
で再現された仮想空間内のキャラクタを表示する。
1〜14と、全身の姿勢推定装置15と顔表情推定装置
16とCG再現装置17とが設けられる。CCDカメラ
11〜13は、ユーザの体全体を正面,側面および立面
から撮像する。CCDカメラ11〜13の画像出力は全
身の姿勢推定装置15に与えられ、ユーザの全身の姿勢
が推定される。CCDカメラ14はユーザの顔を撮像し
て、その撮像出力が顔表情推定装置16に与えられて顔
の表情が推定される。CG再現装置17はユーザの動き
で再現された仮想空間内のキャラクタを表示する。
【0011】サイト2は、熱カメラ21とCCDカメラ
22と全身の姿勢推定装置23と顔表情推定装置24と
CG再現装置25とを含む。熱カメラ21はユーザの発
する熱を感知して熱画像を撮像する赤外線カメラであっ
て、その撮像出力が全身の姿勢推定装置23に与えられ
てユーザの全身の姿勢あるいは動作状態が推定される。
CCDカメラ22と顔表情推定装置24はサイト1のC
CDカメラ14と顔表情推定装置16と同様にして顔の
表情を推定し、CG再現装置25はサイト2のユーザの
動きである再現された仮想空間内のキャラクタを表示す
る。
22と全身の姿勢推定装置23と顔表情推定装置24と
CG再現装置25とを含む。熱カメラ21はユーザの発
する熱を感知して熱画像を撮像する赤外線カメラであっ
て、その撮像出力が全身の姿勢推定装置23に与えられ
てユーザの全身の姿勢あるいは動作状態が推定される。
CCDカメラ22と顔表情推定装置24はサイト1のC
CDカメラ14と顔表情推定装置16と同様にして顔の
表情を推定し、CG再現装置25はサイト2のユーザの
動きである再現された仮想空間内のキャラクタを表示す
る。
【0012】サイト3はCCDカメラ31〜35と、全
身の姿勢推定装置36とCG再現装置37とから構成さ
れている。CCDカメラ31〜35はユーザの全身を異
なる方向から撮像し、その撮像出力に基づいて全身の姿
勢推定装置36がユーザの姿勢を推定する。CG再現装
置37はサイト3におけるユーザの動きで再現されたキ
ャラクタを表示する。
身の姿勢推定装置36とCG再現装置37とから構成さ
れている。CCDカメラ31〜35はユーザの全身を異
なる方向から撮像し、その撮像出力に基づいて全身の姿
勢推定装置36がユーザの姿勢を推定する。CG再現装
置37はサイト3におけるユーザの動きで再現されたキ
ャラクタを表示する。
【0013】サイト4にはCG再現装置6が設けられ
る。このCG再現装置6は仮想空間内のアバタとなる各
ユーザに対応したキャラクタを仮想空間5内で表示す
る。仮想空間サーバ7は表示装置に仮想空間5を表示す
るとともに、CG再現装置6で再現されたキャラクタを
仮想空間5内に表示させ、各サイト1〜3で入力された
各ユーザの姿勢情報と顔の表情に基づいて各ユーザに対
応するキャラクタの動作を制御する。
る。このCG再現装置6は仮想空間内のアバタとなる各
ユーザに対応したキャラクタを仮想空間5内で表示す
る。仮想空間サーバ7は表示装置に仮想空間5を表示す
るとともに、CG再現装置6で再現されたキャラクタを
仮想空間5内に表示させ、各サイト1〜3で入力された
各ユーザの姿勢情報と顔の表情に基づいて各ユーザに対
応するキャラクタの動作を制御する。
【0014】図2はユーザの動きと各種キャラクタと仮
想空間での表情を示す図である。次に、図1および図2
を参照して、この発明の一実施形態の動作について説明
する。
想空間での表情を示す図である。次に、図1および図2
を参照して、この発明の一実施形態の動作について説明
する。
【0015】図2(a)に示すように、たとえばサイト
1のユーザが全身を動かすと、CCDカメラ11〜13
の画像出力に基づいて全身の姿勢推定装置15が姿勢を
推定する。また、サイト2では、図2(b)に示すよう
に、ユーザの顔の表情がCCDカメラ22で撮像され、
その顔画像に基づいて顔表情推定装置24が顔の表情を
推定する。
1のユーザが全身を動かすと、CCDカメラ11〜13
の画像出力に基づいて全身の姿勢推定装置15が姿勢を
推定する。また、サイト2では、図2(b)に示すよう
に、ユーザの顔の表情がCCDカメラ22で撮像され、
その顔画像に基づいて顔表情推定装置24が顔の表情を
推定する。
【0016】仮想空間サーバ7は図2(c)に示すよう
に、表示部に仮想空間5を表示するとともに、図2
(d)に示すようにCG再現装置6で再現された各ユー
ザに対応したアバタを表示する。そして、仮想空間サー
バ7はサイト1のユーザの動作の変化に合わせて対応の
アバタの動作を制御し、サイト2のユーザの顔の表情の
変化に合わせて対応のアバタの顔の表情を変化させる。
に、表示部に仮想空間5を表示するとともに、図2
(d)に示すようにCG再現装置6で再現された各ユー
ザに対応したアバタを表示する。そして、仮想空間サー
バ7はサイト1のユーザの動作の変化に合わせて対応の
アバタの動作を制御し、サイト2のユーザの顔の表情の
変化に合わせて対応のアバタの顔の表情を変化させる。
【0017】したがって、この発明の実施形態によれ
ば、キーボードやマウスなどを用いることなくユーザの
全身の動きや顔の表情に合わせてアバタを表示でき、さ
らに複数のユーザが1つの仮想空間を共有してコミュニ
ケーションを図ることができる。
ば、キーボードやマウスなどを用いることなくユーザの
全身の動きや顔の表情に合わせてアバタを表示でき、さ
らに複数のユーザが1つの仮想空間を共有してコミュニ
ケーションを図ることができる。
【0018】図3は図1に示した全身の姿勢推定装置の
具体的な動作を示すためのフローチャートである。この
図3に示したフローチャートは、本願出願人が特願平1
0−288896号において、「多段画像処理により人
物の3次元姿勢推定方法」として既に出願したものであ
り、その動作について簡単に説明する。ステップ(図示
ではSPと略称する)SP1において、3台のCCDカ
メラ11〜13によってユーザの正面像と側面像と立面
像とが撮像され、それぞれの画像出力がクロマキー背景
分離装置によって背景画像が分離され、ステップSP2
においてしきい値処理によりシルエット画像が抽出され
る。なお、シルエット画像は、図1の熱カメラ21の撮
像出力の熱画像をしきい値処理して人物に対応する領域
を抽出してシルエット画像とすることもできる。
具体的な動作を示すためのフローチャートである。この
図3に示したフローチャートは、本願出願人が特願平1
0−288896号において、「多段画像処理により人
物の3次元姿勢推定方法」として既に出願したものであ
り、その動作について簡単に説明する。ステップ(図示
ではSPと略称する)SP1において、3台のCCDカ
メラ11〜13によってユーザの正面像と側面像と立面
像とが撮像され、それぞれの画像出力がクロマキー背景
分離装置によって背景画像が分離され、ステップSP2
においてしきい値処理によりシルエット画像が抽出され
る。なお、シルエット画像は、図1の熱カメラ21の撮
像出力の熱画像をしきい値処理して人物に対応する領域
を抽出してシルエット画像とすることもできる。
【0019】ステップSP3において、シルエット画像
から身体重心を求めるために距離変換が施され、重心が
検出される。ステップSP4において上半身主軸の検出
が行なわれる。距離変換画像のうち、身体重心の水平位
置よりも上方の画像に対して、腕領域の除去処理のため
前フレームの上半身主軸を対称軸としたガウス分布を距
離位置に乗じると、得られた画像の領域は、胴体部と頭
部にほぼ集中し、上半身距離画像の重心を求めることが
できる。
から身体重心を求めるために距離変換が施され、重心が
検出される。ステップSP4において上半身主軸の検出
が行なわれる。距離変換画像のうち、身体重心の水平位
置よりも上方の画像に対して、腕領域の除去処理のため
前フレームの上半身主軸を対称軸としたガウス分布を距
離位置に乗じると、得られた画像の領域は、胴体部と頭
部にほぼ集中し、上半身距離画像の重心を求めることが
できる。
【0020】次に、正面,側面,立面の特徴点の検出が
行なわれる。すなわち、ステップSP5において、輪郭
形状が獲得され、シルエット画像において身体重心から
ラスタ走査し、最初に発見された輪郭(境界)画素を開
始点として反時計回りに境界線の追跡が行なわれる。境
界(輪郭)線上で「1」画素、それ以外で「0」画素と
なる2値画像を輪郭画像と呼ぶ。
行なわれる。すなわち、ステップSP5において、輪郭
形状が獲得され、シルエット画像において身体重心から
ラスタ走査し、最初に発見された輪郭(境界)画素を開
始点として反時計回りに境界線の追跡が行なわれる。境
界(輪郭)線上で「1」画素、それ以外で「0」画素と
なる2値画像を輪郭画像と呼ぶ。
【0021】ステップSP6において足先点の検出が行
なわれる。身体重心の算出に用いた距離変換画像の極大
値を求めることで骨格画像を作成し、下半身(身体重心
の垂直位置より下方)かつ左(右)半身(身体重心の水
平位置を中心として左あるいは右側)に存在する骨格の
端点の中から「身体重心からの水平偏差が最大」の条件
を満たす端点を足先点として選ぶ。
なわれる。身体重心の算出に用いた距離変換画像の極大
値を求めることで骨格画像を作成し、下半身(身体重心
の垂直位置より下方)かつ左(右)半身(身体重心の水
平位置を中心として左あるいは右側)に存在する骨格の
端点の中から「身体重心からの水平偏差が最大」の条件
を満たす端点を足先点として選ぶ。
【0022】ステップSP7において手先点の検出が行
なわれる。輪郭上で仮頭頂から足先までに相当する輪郭
に含まれる画素数をlh :mh :nh の比率に分割し
て、中央部分に含まれる輪郭点を手先点の候補区間とす
る。なお、ln ,h,nh は経験的に求めた定数であ
る。
なわれる。輪郭上で仮頭頂から足先までに相当する輪郭
に含まれる画素数をlh :mh :nh の比率に分割し
て、中央部分に含まれる輪郭点を手先点の候補区間とす
る。なお、ln ,h,nh は経験的に求めた定数であ
る。
【0023】ステップSP8において頭頂点の検出が行
なわれる。輪郭上で仮頭頂から手先に相当する輪郭の画
素数をlp :mp :np の比率に分割して、中央部分に
含まれる輪郭点を手先点の候補とする。そして、上半身
主軸までの距離が最短である点を首位置として、左右の
首位置に挟まれている輪郭の二等分を頭頂点とする。
なわれる。輪郭上で仮頭頂から手先に相当する輪郭の画
素数をlp :mp :np の比率に分割して、中央部分に
含まれる輪郭点を手先点の候補とする。そして、上半身
主軸までの距離が最短である点を首位置として、左右の
首位置に挟まれている輪郭の二等分を頭頂点とする。
【0024】さらに、遺伝的アルゴリズムによって肘と
膝の位置が推定される。遺伝的アルゴリズムでは対象問
題の下位候補は遺伝子型として染色体で1次元的に表現
される。そして、染色体の初期集団を発生させ、評価関
数に応じた選択淘汰,交差,突然変異という遺伝的走査
を行ないながら、下位の集団を走査対象として並列的に
探索を進めていく。そして、ステップSP9で肘位置を
推定して、ステップSP10で膝位置を推定する。この
ようにして正面特徴点と側面特徴点と立面特徴点が検出
されると、それらの特徴点群の三角測量を行なうステッ
プSP11において特徴点群の3次元位置をもった姿勢
と推定される。
膝の位置が推定される。遺伝的アルゴリズムでは対象問
題の下位候補は遺伝子型として染色体で1次元的に表現
される。そして、染色体の初期集団を発生させ、評価関
数に応じた選択淘汰,交差,突然変異という遺伝的走査
を行ないながら、下位の集団を走査対象として並列的に
探索を進めていく。そして、ステップSP9で肘位置を
推定して、ステップSP10で膝位置を推定する。この
ようにして正面特徴点と側面特徴点と立面特徴点が検出
されると、それらの特徴点群の三角測量を行なうステッ
プSP11において特徴点群の3次元位置をもった姿勢
と推定される。
【0025】図4は顔表情推定装置の具体例を示すブロ
ック図である。顔表情推定装置16は特徴点特定部16
1と周波数領域変換部162と表情再現部163とから
構成されている。特徴点抽出部161は、CCDカメラ
14で撮像された顔画像から輝度情報による1次元テン
プレートマッチングにより目の位置を特定し、両目の位
置から口の位置を推定する。その後、予め学習された被
検者の肌の色情報によって入力画像を2値変換して、そ
の2値変換を用いて顔位置を特定し、入力画像の中心に
顔の中心が合致するようにCCDカメラ14にフィード
バックする。
ック図である。顔表情推定装置16は特徴点特定部16
1と周波数領域変換部162と表情再現部163とから
構成されている。特徴点抽出部161は、CCDカメラ
14で撮像された顔画像から輝度情報による1次元テン
プレートマッチングにより目の位置を特定し、両目の位
置から口の位置を推定する。その後、予め学習された被
検者の肌の色情報によって入力画像を2値変換して、そ
の2値変換を用いて顔位置を特定し、入力画像の中心に
顔の中心が合致するようにCCDカメラ14にフィード
バックする。
【0026】周波数領域変換部162では、表情変換を
捉えるために重要な領域に対してDCT(2次元離散コ
サイン変換)を行ない、無表情検出時からの空間周波数
成分変化を求める。そして、表情再現部163では、予
め遺伝的アルゴリズム(GA)によって学習されたパラ
メータを用いて、周波数領域変換部162で得られたデ
ータを3次元顔モデルの変形に変換する。このようにし
て、顔の表情が推定される。
捉えるために重要な領域に対してDCT(2次元離散コ
サイン変換)を行ない、無表情検出時からの空間周波数
成分変化を求める。そして、表情再現部163では、予
め遺伝的アルゴリズム(GA)によって学習されたパラ
メータを用いて、周波数領域変換部162で得られたデ
ータを3次元顔モデルの変形に変換する。このようにし
て、顔の表情が推定される。
【0027】
【発明の効果】以上のように、この発明によれば、別々
の場所にいる人物の全身姿勢および動作状態とその人物
の顔の表情の少なくともいずれかを実時間,非接触で検
出し、複数の人物のそれぞれに対応する人体の仮身であ
るアバタを仮想空間内でコンピュータグラフィックスで
表示し、検出された全身姿勢および動作状態または顔の
表情に基づいて対応するアバタが動作するように表示す
るようにしたので、別々の場所にいる人物があたかも一
同に介しているかのようにコミュニケーションをするこ
とが可能となり、より没入感の高い仮想環境を構成する
ことができ、通信会議システムやチャットなどの新しい
インフラとして応用が可能となる。
の場所にいる人物の全身姿勢および動作状態とその人物
の顔の表情の少なくともいずれかを実時間,非接触で検
出し、複数の人物のそれぞれに対応する人体の仮身であ
るアバタを仮想空間内でコンピュータグラフィックスで
表示し、検出された全身姿勢および動作状態または顔の
表情に基づいて対応するアバタが動作するように表示す
るようにしたので、別々の場所にいる人物があたかも一
同に介しているかのようにコミュニケーションをするこ
とが可能となり、より没入感の高い仮想環境を構成する
ことができ、通信会議システムやチャットなどの新しい
インフラとして応用が可能となる。
【図1】この発明の一実施形態の全体の構成を示すブロ
ック図である。
ック図である。
【図2】この発明の一実施形態の動作を説明するための
図である。
図である。
【図3】全身の姿勢推定装置の動作を説明するためのフ
ローチャートである。
ローチャートである。
【図4】顔表情推定装置の具体的なブロック図である。
1,2,3,4 サイト 5 仮想空間 6,17,25,37 CG再現装置 7 仮想空間サーバ 11〜14,22,31〜35 CCDカメラ 15,23,36 全身の姿勢推定装置 16,24 顔表情推定装置 21 熱カメラ 161 特徴点特定部 162 周波数領域変換部 163 表情再現部
【手続補正書】
【提出日】平成11年10月29日(1999.10.
29)
29)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】特許請求の範囲
【補正方法】変更
【補正内容】
【特許請求の範囲】
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0006
【補正方法】変更
【補正内容】
【0006】
【課題を解決するための手段】請求項1に係る発明は、
仮想空間内でそれぞれ離れた場所にいる複数の人物があ
たかも一堂に会しているかのようにコミュニケーション
することが可能な仮想空間共有装置であって、それぞれ
の実空間の場所にいる人物の全身姿勢および動作状態と
その人物の顔の表情の少なくともいずれか一方を実時
間,非接触で検出する検出手段と、仮想空間と複数の人
物のそれぞれに対応する人体の仮身であるアバタをコン
ピュータグラフィックスで生成するアバタ生成手段と、
検出された全身姿勢および動作状態または顔の表情に基
づいて、アバタ生成手段によって生成された対応するア
バタが動作するように仮想空間内で表示させる表示制御
手段とを備えて構成される。
仮想空間内でそれぞれ離れた場所にいる複数の人物があ
たかも一堂に会しているかのようにコミュニケーション
することが可能な仮想空間共有装置であって、それぞれ
の実空間の場所にいる人物の全身姿勢および動作状態と
その人物の顔の表情の少なくともいずれか一方を実時
間,非接触で検出する検出手段と、仮想空間と複数の人
物のそれぞれに対応する人体の仮身であるアバタをコン
ピュータグラフィックスで生成するアバタ生成手段と、
検出された全身姿勢および動作状態または顔の表情に基
づいて、アバタ生成手段によって生成された対応するア
バタが動作するように仮想空間内で表示させる表示制御
手段とを備えて構成される。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 大谷 淳 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール知能映 像通信研究所内 Fターム(参考) 5B050 AA10 BA04 BA07 BA08 BA09 BA10 BA12 CA07 DA05 DA07 DA10 EA03 EA05 EA06 EA09 EA19 EA22 EA24 EA27 EA28
Claims (3)
- 【請求項1】 仮想空間内でそれぞれ離れた場所にいる
複数の人物があたかも一同に介しているかのようにコミ
ュニケーションすることが可能な仮想空間共有装置であ
って、 それぞれの場所にいる人物の全身姿勢および動作状態と
その人物の顔の表情の少なくともいずれか一方を実時
間,非接触で検出する検出手段、および仮想空間と前記
複数の人物のそれぞれに対応する人体の仮身であるアバ
タをコンピュータグラフィックスで表示するとともに、
前記検出手段によって検出された全身姿勢および動作状
態または顔の表情に基づいて、対応するアバタが動作す
るように前記仮想空間内で表示させる表示制御手段を備
えた、仮想空間共有装置。 - 【請求項2】 前記検出手段は、 前記人物の全身の姿勢および動作状態を異なる角度から
撮像する複数の全身撮像手段と、 前記複数の全身撮像手段の出力に基づいて全身姿勢およ
び動作状態を推定する姿勢推定手段とを含む、請求項1
に記載の仮想空間共有装置。 - 【請求項3】 前記検出手段は、 前記人物の顔を撮像する顔撮像手段と、 前記顔撮像手段の出力に基づいて顔の表情を推定する顔
表情推定手段とを含む、請求項1に記載の仮想空間共有
装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP36983798A JP2000194876A (ja) | 1998-12-25 | 1998-12-25 | 仮想空間共有装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP36983798A JP2000194876A (ja) | 1998-12-25 | 1998-12-25 | 仮想空間共有装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000194876A true JP2000194876A (ja) | 2000-07-14 |
Family
ID=18495439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP36983798A Pending JP2000194876A (ja) | 1998-12-25 | 1998-12-25 | 仮想空間共有装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000194876A (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006157959A (ja) * | 2003-03-11 | 2006-06-15 | Japan Science & Technology Agency | 共存在空間コミュニケーションシステム |
JP2010257461A (ja) * | 2009-04-26 | 2010-11-11 | Ailive Inc | ネットワークゲーム用の共有ゲーム空間を創出する方法およびシステム |
JP2013542505A (ja) * | 2010-09-29 | 2013-11-21 | アルカテル−ルーセント | 画像内のコンテンツの検閲処理を行うための方法および装置 |
CN104392241A (zh) * | 2014-11-05 | 2015-03-04 | 电子科技大学 | 一种基于混合回归的头部姿态估计方法 |
JP2015133065A (ja) * | 2014-01-15 | 2015-07-23 | キヤノン株式会社 | 画像認識装置、画像認識方法およびプログラム |
US9298257B2 (en) | 2010-12-01 | 2016-03-29 | Samsung Electronics Co., Ltd. | Apparatus and method for controlling avatar using expression control point |
WO2019116689A1 (ja) * | 2017-12-15 | 2019-06-20 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2019179502A (ja) * | 2018-03-30 | 2019-10-17 | 株式会社 ディー・エヌ・エー | 動画を作成するためのシステム、方法、及びプログラム |
JP2019204244A (ja) * | 2018-05-22 | 2019-11-28 | 株式会社 ディー・エヌ・エー | 動画を配信するためのシステム、方法、及びプログラム |
JP2020093113A (ja) * | 2020-02-28 | 2020-06-18 | 株式会社トプコン | 眼科検査装置 |
JP2021111380A (ja) * | 2020-01-03 | 2021-08-02 | ネイバー コーポレーションNAVER Corporation | 入力映像に含まれた客体の3次元ポーズの推定のためのデータを生成する方法、コンピュータシステムおよび推論モデルを構築する方法 |
-
1998
- 1998-12-25 JP JP36983798A patent/JP2000194876A/ja active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4557227B2 (ja) * | 2003-03-11 | 2010-10-06 | 独立行政法人科学技術振興機構 | 共存在空間コミュニケーションシステム |
JP2006157959A (ja) * | 2003-03-11 | 2006-06-15 | Japan Science & Technology Agency | 共存在空間コミュニケーションシステム |
JP2010257461A (ja) * | 2009-04-26 | 2010-11-11 | Ailive Inc | ネットワークゲーム用の共有ゲーム空間を創出する方法およびシステム |
JP2013542505A (ja) * | 2010-09-29 | 2013-11-21 | アルカテル−ルーセント | 画像内のコンテンツの検閲処理を行うための方法および装置 |
US9298257B2 (en) | 2010-12-01 | 2016-03-29 | Samsung Electronics Co., Ltd. | Apparatus and method for controlling avatar using expression control point |
JP2015133065A (ja) * | 2014-01-15 | 2015-07-23 | キヤノン株式会社 | 画像認識装置、画像認識方法およびプログラム |
CN104392241A (zh) * | 2014-11-05 | 2015-03-04 | 电子科技大学 | 一种基于混合回归的头部姿态估计方法 |
US11514604B2 (en) | 2017-12-15 | 2022-11-29 | Sony Corporation | Information processing device and information processing method |
WO2019116689A1 (ja) * | 2017-12-15 | 2019-06-20 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2019179502A (ja) * | 2018-03-30 | 2019-10-17 | 株式会社 ディー・エヌ・エー | 動画を作成するためのシステム、方法、及びプログラム |
JP2022171661A (ja) * | 2018-03-30 | 2022-11-11 | 株式会社 ディー・エヌ・エー | 動画を作成するためのシステム、方法、及びプログラム |
JP2019204244A (ja) * | 2018-05-22 | 2019-11-28 | 株式会社 ディー・エヌ・エー | 動画を配信するためのシステム、方法、及びプログラム |
JP7228338B2 (ja) | 2018-05-22 | 2023-02-24 | 株式会社 ディー・エヌ・エー | 動画を配信するためのシステム、方法、及びプログラム |
JP2021111380A (ja) * | 2020-01-03 | 2021-08-02 | ネイバー コーポレーションNAVER Corporation | 入力映像に含まれた客体の3次元ポーズの推定のためのデータを生成する方法、コンピュータシステムおよび推論モデルを構築する方法 |
JP7178396B2 (ja) | 2020-01-03 | 2022-11-25 | ネイバー コーポレーション | 入力映像に含まれた客体の3次元ポーズの推定のためのデータを生成する方法およびコンピュータシステム |
US11610331B2 (en) | 2020-01-03 | 2023-03-21 | Line Corporation | Method and apparatus for generating data for estimating three-dimensional (3D) pose of object included in input image, and prediction model for estimating 3D pose of object |
JP2020093113A (ja) * | 2020-02-28 | 2020-06-18 | 株式会社トプコン | 眼科検査装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210177124A1 (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
KR102069964B1 (ko) | 이미지 및 뎁스 데이터를 사용하여 3차원(3d) 인간 얼굴 모델을 발생시키는 가상 현실 기반 장치 및 방법 | |
US11736756B2 (en) | Producing realistic body movement using body images | |
US9369638B2 (en) | Methods for extracting objects from digital images and for performing color change on the object | |
US8982110B2 (en) | Method for image transformation, augmented reality, and teleperence | |
US8970569B2 (en) | Devices, systems and methods of virtualizing a mirror | |
US8976160B2 (en) | User interface and authentication for a virtual mirror | |
JP7200439B1 (ja) | アバター表示装置、アバター生成装置及びプログラム | |
CN110609617B (zh) | 虚拟镜子的装置、系统和方法 | |
EP3912085A1 (en) | Systems and methods for face reenactment | |
CN107484428B (zh) | 用于显示对象的方法 | |
JP2019510297A (ja) | ユーザの真実の人体モデルへの仮想的な試着 | |
KR101794731B1 (ko) | 2차원 캐릭터 그림데이터를 애니메이션이 가능한 3차원 모델로 변형하는 방법 및 장치 | |
KR102148151B1 (ko) | 디지털 커뮤니케이션 네트워크에 기반한 지능형 채팅 | |
JP2010507854A (ja) | ビデオイメージシーケンスを仮想シミュレーションする方法及び装置 | |
JP2000194876A (ja) | 仮想空間共有装置 | |
JPH10240908A (ja) | 映像合成方法 | |
KR20230096063A (ko) | 2차원 이미지에 기초한 3차원 메쉬 생성기 | |
JP2000268161A (ja) | 実時間表情検出装置 | |
KR101447958B1 (ko) | 신체 부분 검출 방법 및 장치 | |
JP2005339363A (ja) | 人体パーツ自動分割装置及び人体パーツ自動分割方法 | |
JP2023505615A (ja) | 細かいしわを有する顔メッシュ変形 | |
JPH11175765A (ja) | 3次元モデル作成方法、3次元モデル作成装置及び記憶媒体 | |
WO2020183598A1 (ja) | 学習データ生成装置、学習データ生成方法および学習データ生成プログラム | |
JP2003141563A (ja) | 顔3次元コンピュータグラフィック生成方法、そのプログラム及び記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20000725 |