JP2000331190A - 仮想変身装置 - Google Patents

仮想変身装置

Info

Publication number
JP2000331190A
JP2000331190A JP11140496A JP14049699A JP2000331190A JP 2000331190 A JP2000331190 A JP 2000331190A JP 11140496 A JP11140496 A JP 11140496A JP 14049699 A JP14049699 A JP 14049699A JP 2000331190 A JP2000331190 A JP 2000331190A
Authority
JP
Japan
Prior art keywords
face
virtual
axis
virtual environment
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11140496A
Other languages
English (en)
Inventor
Tatsumi Sakaguchi
竜己 坂口
Atsushi Otani
淳 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Media Integration and Communication Research Laboratories
Original Assignee
ATR Media Integration and Communication Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Media Integration and Communication Research Laboratories filed Critical ATR Media Integration and Communication Research Laboratories
Priority to JP11140496A priority Critical patent/JP2000331190A/ja
Publication of JP2000331190A publication Critical patent/JP2000331190A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【構成】人物の顔を撮影した顔画像から顔領域を抽出
し、その顔領域の重心から目領域および口領域を検出す
る。そして、目領域および口領域の位置に基づいて顔の
軸の傾きおよび顔の軸周りの回転の少なくとも一方を検
出し、それに基づいて仮想環境内に再現される3次元モ
デルの頭部を変形させ、頭部の動作を再現する。また、
目領域における黒目領域の位置を検出することによって
視線方向が検出され、3次元モデルの頭部は視線方向に
向けられる。また、仮想環境内においては、その視線方
向が仮想カメラ位置とされる。さらに、仮想環境内の背
景およびオブジェクトは3次元モデルによって再現さ
れ、アバタは仮想環境内のオブジェクトに触れることが
できる。 【効果】仮想環境内において人物の頭部の動作および視
線方向を再現することができる。また、仮想環境内にお
けるユーザの没入感を向上させることができる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は仮想変身装置に関し、
特にたとえば仮想環境内に人物を3次元CG(コンピュ
ータグラフィックス)モデルで実時間で再現する、仮想
変身装置に関する。
【0002】
【従来の技術】従来、仮想環境を生成するシステムとし
て、本願発明者らがAGM SIGGRAPH98において発表した
“Shall We Dance?”というシステムがある。[AGM SIGG
RAPH98 Conf. Abstracts and Applications,p124(199
8)] この“Shall We Dance?”というシステムは、人物の全
身の姿勢および顔の表情を非接触方式である画像処理に
よって実時間で推定し、仮想3次元空間内に3次元CG
モデルによって実時間で再現していた。
【0003】
【発明が解決しようとする課題】しかしながら、従来技
術では、人物の頭部の動作は身体姿勢の検出部で検出さ
れるものの、その精度は低く、再現画像の品質の低下を
避けるため、CGでの再現時には頭部の動作は再現され
なかった。そのため、たとえば首を傾げる動作やうなづ
くといった動作を再現することができなかった。
【0004】また、従来技術では、顔表情の推定は行な
うものの、視線の追跡は行なわれていなかった。そのた
め、再現される3次元CGキャラクタの顔については目
は全く動いておらず、再現画像がリアリティに欠け、非
常に不自然であった。
【0005】さらに、従来技術では、仮想環境をとらえ
るカメラ視線は一方向に固定されており、ユーザは第3
者的立場でしか仮想環境内のシーンを見ることが出来な
かった。そのため、自分がどのように仮想環境内に投影
されているかを確認するのには都合がよいが、ユーザの
没入感が低下するという問題点があった。
【0006】また、さらに、従来技術では、仮想環境内
の背景は2次元の平面にマッピングされた絵でしかな
く、仮想環境内にはアバタしか存在していなかった。そ
のため、アバタは仮想環境内のオブジェクトに触れたり
することができず、ユーザは仮想環境に対する没入感を
高めることができなかった。
【0007】それゆえに、この発明の主たる目的は仮想
環境内において人物の頭部の動作および視線方向を再現
することのできる仮想変身装置を提供することである。
【0008】また、この発明の他の目的は、仮想環境に
おけるユーザの没入感を向上させることのできる、仮想
変身装置を提供することである。
【0009】
【課題を解決するための手段】第1の発明は、人物を撮
影した入力画像を入力する画像入力手段、入力画像から
顔領域を抽出する顔領域抽出手段、顔領域から目領域を
検出する目領域検出手段、目領域から口領域を推定する
口領域推定手段、目領域と口領域とから人物の顔の軸の
傾きおよび顔の軸周りの回転の少なくとも一方を検出す
る頭部動作検出手段、および仮想環境内に再現される3
次元モデルを予め記憶しておく3次元モデル記憶手段を
備える仮想変身装置において、顔の軸の傾きおよび顔の
軸周りの回転の少なくとも一方に基づいて3次元モデル
の頭部を変形させるモデル変形手段を備えたことを特徴
とする、仮想変身装置である。
【0010】第2の発明は、人物の視線方向を検出する
視線方向検出手段を備え、3次元モデルの頭部は視線方
向に向けられる、仮想変身装置である。
【0011】第3の発明は、視線方向に基づいて仮想環
境をとらえる仮想カメラ位置を決定する仮想カメラ位置
決定手段を備える、仮想変身装置である。
【0012】第4の発明は、仮想環境内の背景およびオ
ブジェクトは3次元モデルとして再現される、仮想変身
装置である。
【0013】
【作用】第1の発明では、人物の顔を撮影した入力画像
を、顔の肌色領域を「0」、顔の肌色領域以外を「1」
として2値化する。そして、顔の肌色領域から顔の重心
を検出し、その重心の斜め上方にあるホールの位置を目
領域と決定する。また、人体の構造情報から、重心より
も下方で右目と左目との間の垂直2等分線上の所定の位
置に口領域を決定する。そして、目領域および口領域の
位置関係から顔の軸の傾きおよび顔の軸周りの回転の少
なくとも一方を検出する。具体的には、水平軸に対する
両目を結ぶ線がなす角度が顔の軸の傾き角とされる。ま
た、右目領域と左目領域との間の間隔の大きさによって
顔の軸周りの回転角を判断する。つまり、間隔の大きさ
が小さくなればなるほど顔は回転しているとみなされ
る。そして、検出された顔の軸の傾き角および顔の軸周
りの回転角の少なくとも一方に基づいて、予め記憶され
ている3次元モデルの頭部を変形させる。
【0014】第2の発明では、目領域を黒目領域を
「1」、白目領域を「0」として2値化する。そして、
目領域全体の中で黒目領域がどこにあるかを検出するこ
とで視線の方向を推定する。そして、3次元モデルの頭
部を視線方向に向ける。
【0015】第3の発明は、視線方向に基づいてアバタ
の頭部位置を決定し、そのアバタの視点を仮想環境をと
らえる仮想カメラ位置とする。
【0016】第4の発明は、仮想環境内の背景およびオ
ブジェクトにはダイナミクス特性がモデリングされ、背
景およびオブジェクトは、仮想空間内において3次元モ
デルとして再現される。
【0017】
【発明の効果】これらの発明によれば、人物の顔の軸の
傾き角および顔の軸周りの回転角の少なくとも一方と視
線方向とに基づいて3次元モデルの頭部を変形し、仮想
環境内において、人物の頭部の動作および視線方向を再
現することができる。また、仮想環境をとらえる仮想カ
メラ位置を3次元モデルの視線方向に置くことおよび仮
想環境内の背景やオブジェクトを3次元モデルで再現す
ることによって、ユーザの仮想環境に対する没入感を向
上させることができる。
【0018】この発明の上述の目的,その他の目的,特
徴および利点は、図面を参照して行う以下の実施例の詳
細な説明から一層明らかとなろう。
【0019】
【実施例】図1に示すこの実施例の仮想変身装置10
は、カラーカメラ(以下、単に「カメラ」という。)1
2を含み、カメラ12は、電動雲台14上に設置され、
人物の顔を正面から撮影する。
【0020】そして、カメラ12から出力された人物の
顔画像は、顔表情認識装置16へ入力される。顔表情認
識装置16はパソコン程度の処理能力を有するコンピュ
ータであり、後に詳細に説明するが、顔の軸の傾き,顔
の軸周りの回転,視線方向および顔の表情を検出する。
また、顔表情認識装置16は電動雲台14を制御し、カ
メラ12の撮影角度を調整し、カメラ12の画角の中心
に顔画像の重心がくるようにする。つまり、カメラ12
は、常に、人物の顔が画像の中心付近にくるように制御
される。
【0021】顔表情認識装置16によって得られた顔の
軸の傾き,顔の軸周りの回転,視線方向および顔の表情
の情報は、通信回線を通じて、仮想環境合成装置18へ
送られる。この仮想環境合成装置18もまたパソコン程
度の処理能力を有するコンピュータであり、顔表情認識
装置16から送られてくる顔の軸の傾き等のデータに基
づいて予め記憶していた3次元CGモデルを変形させ、
「アバタ」と呼ばれる被験者の分身の人物画像を仮想環
境内に再現する。
【0022】以下、図2および図8に示すフローチャー
トを用いてこの実施例の動作について説明する。まず、
図2に示すフローチャートを参照して顔画像認識装置1
6における実施例の動作について説明する。
【0023】図2を参照して、まず、ステップ1では、
図3(a)に示すように、カメラ12によって撮影され
た人物(被験者)の顔画像が、顔表情認識装置16へ入
力される。
【0024】次に、ステップS3では、その顔画像を、
肌色領域を「0」、肌色領域以外を「1」として2値化
する。つまり、顔画像は、図3(b)に示すように、白
黒の2値画像に変換される。
【0025】ステップS5では、図3(c)に示すよう
に、ステップS3で得られた2値画像における肌色領域
の重心を検出する。
【0026】ステップS7では、ステップS5で検出さ
れた重心が入力画像の中心からどれだけずれているかを
算出する。
【0027】そして、次のステップS9では、ステップ
S7で算出された“ずれ”に応じて、次の画像取り込み
のために、肌色領域の重心が入力画像の中心にくるよう
に電動雲台14を制御する。
【0028】次に、図4に示すフローチャートを用いて
図2の動作の前処理の方法について説明する。
【0029】図4を参照して、まず、ステップS51で
は、人物の顔が写っていない背景画像を取得する。次
に、ステップS53では、その背景に人物の顔が登場し
た画像を撮影する。そして、ステップS55では、背景
差分法によって人物の顔画像を抽出する。なお、背景差
分法とは、顔の存在する画像(入力画像)から顔の存在
しない画像(背景画像)を差し引くことによって、顔画
像だけを抽出する方法である。
【0030】ステップS57では、一般に知られている
RGB空間(RGBがそれぞれたとえば256階調で表
現される空間)における「肌色空間」を参考にして、ス
テップS55で得られた顔画像の肌色領域を抽出する。
【0031】そして、ステップS59では、その肌色部
分からその人物(被験者)や照明固有の肌色インデック
スを作成する。
【0032】ステップS61では、肌色領域の重心を検
出する。なお、顔の重心は鼻の上にあるので、ここで検
出された重心の位置は鼻の位置とされる。
【0033】ステップS63では、目の初期位置を検出
する。ここでは、先のステップS59で作成した肌色イ
ンデックスに基づいて、顔の肌色領域を「0」、顔の肌
色領域以外を「1」として顔画像を2値化する。そし
て、図3(d)に示すように、先のステップS61で検
出された重心すなわち鼻の位置の斜め上方にあるホール
(黒い部分)を検出し、そのホールの位置を目の初期位
置と決定する。
【0034】そして、ステップS65では、口の初期位
置を推定する。ステップS61およびステップS63に
よって鼻と目の位置が決まると、人体の構造情報から口
の位置が推定される。具体的には、重心すなわち鼻の位
置よりも下方で、右目と左目との間の垂直2等分線上の
所定の位置に口の初期位置を決定する。
【0035】このようにして、前処理を行なうことによ
って、目と口の初期位置と、両者の相対位置を求めてお
く。
【0036】図2に戻って、ステップS11では目領域
を追跡する。図5を参照して、前処理によって得られた
目領域に、瞳の中心を通る縦のラインのテンプレートを
作成する。図5に実線で示した、縦64pixel,横1pix
elの小領域がテンプレートに相当する領域である。
【0037】そして、そのテンプレートによって目領域
を探索することによって、そのフレームでの目の位置を
検出する。すなわち、テンプレートマッチングによって
目の位置を追跡する。また、このテンプレートは、瞳の
中心を通る縦のラインであるため、図6に示すように、
頭部の傾きや回転に影響されず、目の位置を正確に追跡
することができる。
【0038】そして、ステップS13では、視線方向を
検出する。視線方向の検出方法を説明すると、まず、先
のステップS9で検出された目領域を、白目の領域を
「0」、黒目の領域を「1」として2値化する。そし
て、黒目領域の重心を検出し、目領域全体における黒目
領域の位置を検出することにより視線方向を検出する。
つまり、目領域全体の重心に対する黒目領域の重心のズ
レによって視線方向を判断する。
【0039】そして、ステップS15では、前処理によ
って得られた目と口の相対的な位置関係に基づいて口の
位置を推定する。
【0040】ステップS17では、顔表情の認識を行
う。顔表情の認識は、本願発明者が“電子情報通信学会
論文誌D-II,Vol.J80-D-II,No.6,pp.1547-1554(199
7年6月)”に発表した手法によって行なわれる。
【0041】これは、2次元離散コサイン変換によって
画像を空間周波数領域に変換し、顔部位の変化に対応す
る各周波数帯域での電力変化を捉えることによって、顔
表情の認識を行なうものである。具体的には、目と口の
形状変化を検出することによって、顔表情の認識を行な
っている。
【0042】ステップS19では、顔の軸の傾きおよび
顔の軸周りの回転の少なくとも一方を検出する。図7を
参照して、顔の傾きについては、水平軸に対する両目を
結ぶ線がなす角度θが顔の軸の傾き角とされる。そし
て、顔の軸周りの回転については、右目領域と左目領域
との間の間隔Dの大きさから顔の軸周りの回転角が判明
する。つまり、間隔Dの大きさが小さくなればなるほど
顔は回転しているとみなされる。なお、顔の軸の傾きお
よび顔の軸周りの回転は必ずしも両方とも検出する必要
は無く、検出されるのはどちらか一方だけでもよい。
【0043】ステップS21では、ステップS19で検
出された顔の軸の傾き角および顔の軸周りの回転角の少
なくとも一方に基づいて、先のステップS13で検出さ
れた視線方向を補正する。
【0044】そして、ステップS23では、以上のよう
にして得られた顔の軸の傾き,顔の軸周りの回転,視線
方向および顔の表情の情報を、通信回線を通じて、仮想
環境合成装置18へ送信する。
【0045】次に、図8に示すフローチャートを参照し
て仮想環境合成装置18における実施例の動作について
説明する。
【0046】図8を参照して、ステップS25では、顔
画像認識装置16で検出された、顔の軸の傾き,顔の軸
周りの回転,視線方向および顔の表情のデータが仮想環
境合成装置18へ入力される。
【0047】そして、ステップS27およびステップS
29では、予め用意されたアバタ用の頭部モデルおよび
身体モデルを顔画像認識装置16から入力されたデータ
に基づいて変形する。
【0048】まず、ステップS27では、顔表情認識装
置16で検出された顔の表情に基づいて頭部モデルの表
情に、予め用意されている、平静,怒り,悲しみ,喜
び,驚き等の表情を選択する。
【0049】次に、ステップS29では、顔表情認識装
置16で検出された顔の軸の傾きおよび顔の軸周りの回
転の少なくとも一方に基づいて頭部モデルを変形させ、
たとえば首を傾げる動作やうなずきといった頭部の動作
を再現する。
【0050】また、顔の軸の傾きおよび顔の軸周りの回
転の少なくとも一方と、本件とは別の身体姿勢検出装置
から検出される身体の姿勢とに基づいて、頭部モデルお
よび身体モデルを変形させる。そして、変形された頭部
モデルおよび身体モデルからなるアバタは、後述するス
テップS35において、仮想空間内に配置される。
【0051】ステップS31では、顔表情認識装置16
で検出された視線方向および先のステップS29で変形
された頭部モデルおよび身体モデルに基づいて、アバタ
の頭部位置を決定する。つまり、アバタの頭部位置は、
アバタの視線方向に向けられる。
【0052】ステップS33では、仮想カメラ位置を決
定する。ステップS31でアバタの頭部位置が決定され
ると、そこが仮想環境内におけるアバタの視点すなわち
仮想カメラ位置となる。つまり、仮想環境内では、アバ
タの視線方向に仮想カメラ位置が置かれる。
【0053】また、従来どおりに、仮想環境内のシーン
を第3者的立場で見る視点に仮想カメラ位置を置くこと
もできる。そして、仮想カメラ位置は、用途に応じてあ
るいはユーザの任意によって、自在に切り換えることが
できる。
【0054】ステップS35では、アバタが仮想空間内
に配置される。このとき、他のアバタのモデルも仮想空
間内に配置される。また、背景やオブジェクトを含めた
シーン全体も3次元モデルとして仮想空間内に配置され
る。これらの3次元モデルには、それぞれ、ダイナミク
ス属性すなわち運動および変形に必要な、重さ,摩擦係
数,体積等の各種の属性がモデリングされている。ま
た、ジオメトリ属性すなわち位置および形に関する属性
や、影や色に影響する光源による属性もモデリングされ
ている。よって、アバタは、シーン内の全てのオブジェ
クトとインタラクションすることが可能であり、ユーザ
が操るアバタは仮想空間内において、たとえばコップを
テーブルから叩き落す等の様々なアクションをすること
ができる。
【0055】ステップS37では、空間のダイナミクス
が計算される。これは、アバタやオブジェクトのうち、
初期運動が与えられているもの、つまり動いているもの
についての位置特性が計算される。
【0056】そして、ステップS39では、アバタ同士
あるいはアバタとオブジェクトとの間に衝突が生じるか
どうかが判断される。なお、衝突は、アバタないしオブ
ジェクトの外形線が接触した場合に衝突したと判断され
る。ここで、衝突したと判断された場合はステップS4
1へ進み、衝突してないと判断された場合はステップS
43へ進む。
【0057】ステップS41では、衝突したアバタやオ
ブジェクトについて、両者を衝突したままの状態すなわ
ち抵触した状態にしておくか、あるいは、両者を回避す
なわち離れさせるかの処理を行う。
【0058】そして、ステップS43では、レンダリン
グを行なう。このとき、レンダリングはアバタの視点か
ら行なわれる。つまり、仮想空間内に配置されたアバタ
の視点から見た映像が再現される。また、仮想カメラ位
置を切り換えることによって、仮想空間内のシーンを第
3者的立場で見た視点によるレンダリングを行なうこと
もできる。つまり、仮想環境内に再現される3次元モデ
ルの表示方向は自在に切り換えることができる。そし
て、再現された3次元モデルは、ステップS45におい
て、モニタへ表示される。
【0059】上記の実施例には、さらに、以下のような
発明が含まれる。
【0060】前記目領域と口領域とに基づいて前記人物
の顔表情を検出する顔表情検出手段をさらに備え、前記
3次元モデルの頭部は前記顔表情に基づいて選択される
請求項1ないし4のいずれかに記載の仮想変身装置。
【0061】前記顔表情検出手段は、前記目領域および
口領域の位置ないし前記目領域および口領域の開き具合
から前記顔表情を検出する、上記仮想変身装置。
【0062】前記画像入力手段は前記入力画像の撮影角
を制御する撮影角制御手段を備える、請求項1記載の仮
想変身装置。
【0063】前記顔領域抽出手段は前記入力画像から前
記人物の肌色領域を抽出する肌色領域抽出手段を備え、
前記顔領域は前記肌色領域に基づいて抽出される、請求
項1記載の仮想変身装置。
【0064】前記目領域検出手段は前記顔領域の重心を
検出する重心検出手段を備え、前記目領域は前記重心に
基づいて検出される、請求項1記載の仮想変身装置。
【0065】前記口領域は、前記重心に基づいて検出さ
れる、請求項1記載の仮想変身装置。
【0066】前記視線方向検出手段は、前記目領域から
黒目領域を抽出し、前記黒目領域の重心を検出し、前記
重心の位置に基づいて前記人物の視線方向を検出する、
請求項2記載の仮想変身装置。
【0067】前記仮想カメラ位置は前記仮想環境内のシ
ーンを第3者的立場から見る視点に切り換えることがで
きる、請求項3記載の仮想変身装置。
【0068】前記仮想環境内では前記3次元モデル同士
の衝突が検出される、請求項4記載の仮想変身装置。
【図面の簡単な説明】
【図1】この発明の一実施例である仮想変身装置を示す
ブロック図である
【図2】顔画像認識装置における実施例の動作を説明す
るためのフローチャートである。
【図3】人物の顔画像を示す図解図である。
【図4】前処理の方法を説明するためのフローチャート
である。
【図5】目領域の追跡方法を説明するための図解図であ
る。
【図6】目領域の追跡方法を説明するための図解図であ
る。
【図7】顔の軸の傾きおよび顔の軸周りの回転を検出す
る方法を説明するための図解図である。
【図8】仮想環境合成装置における実施例の動作を説明
するためのフローチャートである。
【符号の説明】
10 …仮想変身装置 12 …カラーカメラ 14 …電動雲台 16 …顔表情認識装置 18 …仮想環境合成装置
───────────────────────────────────────────────────── フロントページの続き (72)発明者 大谷 淳 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール知能映 像通信研究所内 Fターム(参考) 5B050 BA09 BA12 CA05 CA08 DA08 EA12 EA13 EA19 EA28 FA02 5B057 BA02 BA17 BA29 CE08 CF10 DA08 DC06 DC08 DC25

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】人物を撮影した入力画像を入力する画像入
    力手段、 前記入力画像から顔領域を抽出する顔領域抽出手段、 前記顔領域から目領域を検出する目領域検出手段、 前記目領域から口領域を推定する口領域推定手段、 前記目領域と口領域とから前記人物の顔の軸の傾きおよ
    び顔の軸周りの回転の少なくとも一方を検出する頭部動
    作検出手段、および仮想環境内に再現される3次元モデ
    ルを予め記憶しておく3次元モデル記憶手段を備える仮
    想変身装置において、 前記顔の軸の傾きおよび前記顔の軸周りの回転の少なく
    とも一方に基づいて前記3次元モデルの頭部を変形させ
    るモデル変形手段を備えたことを特徴とする、仮想変身
    装置。
  2. 【請求項2】前記人物の視線方向を検出する視線方向検
    出手段を備え、前記3次元モデルの頭部は前記視線方向
    に向けられる、請求項1記載の仮想変身装置。
  3. 【請求項3】前記視線方向に基づいて前記仮想環境をと
    らえる仮想カメラ位置を決定する仮想カメラ位置決定手
    段を備える、請求項1または2に記載の仮想変身装置。
  4. 【請求項4】前記仮想環境内の背景およびオブジェクト
    は3次元モデルとして再現される、請求項1記載の仮想
    変身装置。
JP11140496A 1999-05-20 1999-05-20 仮想変身装置 Pending JP2000331190A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11140496A JP2000331190A (ja) 1999-05-20 1999-05-20 仮想変身装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11140496A JP2000331190A (ja) 1999-05-20 1999-05-20 仮想変身装置

Publications (1)

Publication Number Publication Date
JP2000331190A true JP2000331190A (ja) 2000-11-30

Family

ID=15269988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11140496A Pending JP2000331190A (ja) 1999-05-20 1999-05-20 仮想変身装置

Country Status (1)

Country Link
JP (1) JP2000331190A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002282210A (ja) * 2001-03-27 2002-10-02 Japan Science & Technology Corp 視線検出方法及びその装置
JP2005108196A (ja) * 2003-09-09 2005-04-21 Fuji Photo Film Co Ltd 対象物識別装置および方法並びにプログラム
JP2006243373A (ja) * 2005-03-03 2006-09-14 Matsushita Electric Ind Co Ltd 映像信号処理装置、この映像信号処理装置を搭載した撮像装置及び映像信号処理方法並びに映像信号処理用プログラム
US7920725B2 (en) 2003-09-09 2011-04-05 Fujifilm Corporation Apparatus, method, and program for discriminating subjects
WO2012042974A1 (ja) 2010-09-30 2012-04-05 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
US9298257B2 (en) 2010-12-01 2016-03-29 Samsung Electronics Co., Ltd. Apparatus and method for controlling avatar using expression control point
US10964046B2 (en) 2018-06-07 2021-03-30 Fuji Xerox Co., Ltd. Information processing apparatus and non-transitory computer readable medium storing information processing program for estimating face orientation by using an omni-directional camera
CN115471618A (zh) * 2022-10-27 2022-12-13 科大讯飞股份有限公司 重定向方法、装置、电子设备和存储介质

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002282210A (ja) * 2001-03-27 2002-10-02 Japan Science & Technology Corp 視線検出方法及びその装置
JP4729188B2 (ja) * 2001-03-27 2011-07-20 独立行政法人科学技術振興機構 視線検出装置
JP2005108196A (ja) * 2003-09-09 2005-04-21 Fuji Photo Film Co Ltd 対象物識別装置および方法並びにプログラム
JP4541806B2 (ja) * 2003-09-09 2010-09-08 富士フイルム株式会社 対象物識別装置および方法並びにプログラム
US7920725B2 (en) 2003-09-09 2011-04-05 Fujifilm Corporation Apparatus, method, and program for discriminating subjects
US8184870B2 (en) 2003-09-09 2012-05-22 Fujifilm Corporation Apparatus, method, and program for discriminating subjects
JP2006243373A (ja) * 2005-03-03 2006-09-14 Matsushita Electric Ind Co Ltd 映像信号処理装置、この映像信号処理装置を搭載した撮像装置及び映像信号処理方法並びに映像信号処理用プログラム
WO2012042974A1 (ja) 2010-09-30 2012-04-05 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
US9196093B2 (en) 2010-09-30 2015-11-24 Fujifilm Corporation Information presentation device, digital camera, head mount display, projector, information presentation method and non-transitory computer readable medium
US9298257B2 (en) 2010-12-01 2016-03-29 Samsung Electronics Co., Ltd. Apparatus and method for controlling avatar using expression control point
US10964046B2 (en) 2018-06-07 2021-03-30 Fuji Xerox Co., Ltd. Information processing apparatus and non-transitory computer readable medium storing information processing program for estimating face orientation by using an omni-directional camera
CN115471618A (zh) * 2022-10-27 2022-12-13 科大讯飞股份有限公司 重定向方法、装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
Thies et al. Facevr: Real-time facial reenactment and eye gaze control in virtual reality
US10445917B2 (en) Method for communication via virtual space, non-transitory computer readable medium for storing instructions for executing the method on a computer, and information processing system for executing the method
US9479736B1 (en) Rendered audiovisual communication
CN108885799B (zh) 信息处理设备,信息处理系统以及信息处理方法
US8514262B2 (en) Information processing apparatus and network conference system
US9855496B2 (en) Stereo video for gaming
US20180365484A1 (en) Head-mounted display with facial expression detecting capability
AU2022203653A1 (en) Real-time visual feedback for user positioning with respect to a camera and a display
US20180189549A1 (en) Method for communication via virtual space, program for executing the method on computer, and information processing apparatus for executing the program
CN102959616B (zh) 自然交互的交互真实性增强
US6130677A (en) Interactive computer vision system
CN106997618A (zh) 一种虚拟现实与真实场景融合的方法
JP5001930B2 (ja) 動作認識装置及び方法
EP4248413A1 (en) Multiple device sensor input based avatar
JP2011258159A (ja) プログラム、情報記憶媒体及び画像生成システム
US20190302880A1 (en) Device for influencing virtual objects of augmented reality
CN111199583B (zh) 一种虚拟内容显示方法、装置、终端设备及存储介质
CN111308707A (zh) 画面显示调节方法、装置、存储介质及增强现实显示设备
CN109859857A (zh) 身份信息的标注方法、装置和计算机可读存储介质
CN111670431A (zh) 信息处理装置、信息处理方法以及程序
US11138743B2 (en) Method and apparatus for a synchronous motion of a human body model
Chen et al. 3D face reconstruction and gaze tracking in the HMD for virtual interaction
JP2000331190A (ja) 仮想変身装置
CN107066095B (zh) 一种信息处理方法及电子设备
JP3062181B1 (ja) 実時間表情検出装置

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020219