JP2648682B2 - 表情要素コードの再生表示及び情緒・表情の加工・発生装置 - Google Patents

表情要素コードの再生表示及び情緒・表情の加工・発生装置

Info

Publication number
JP2648682B2
JP2648682B2 JP4213734A JP21373492A JP2648682B2 JP 2648682 B2 JP2648682 B2 JP 2648682B2 JP 4213734 A JP4213734 A JP 4213734A JP 21373492 A JP21373492 A JP 21373492A JP 2648682 B2 JP2648682 B2 JP 2648682B2
Authority
JP
Japan
Prior art keywords
expression
facial
facial expression
emotion
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP4213734A
Other languages
English (en)
Other versions
JPH0676044A (ja
Inventor
正重 古川
陽一 古野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP4213734A priority Critical patent/JP2648682B2/ja
Publication of JPH0676044A publication Critical patent/JPH0676044A/ja
Application granted granted Critical
Publication of JP2648682B2 publication Critical patent/JP2648682B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、人間の顔の表情を筋電
図学的、生理学的に解析し、計算処理した表情要素コー
ドの再生表示及び情緒・表情の加工・発生装置に関す
る。
【0002】
【従来の技術】従来、テクノロジー的に読み取った人間
の顔の表情に係る画像データの再生、特に表情の変化の
画像再生は、少しずつ違いのある画像を連続的に見せる
アニメーション技法で実現されてきた。しかし、ゲーム
ソフトなどにアニメーション技法を用いる場合、その画
像データが記憶領域の大きな部分を占めることになるこ
とからも明らかなように、かかるアニメーション技法で
は、大量の画像情報を必要とし、細かい表情の変化を実
現しようとすればするほど、より多くの画像データが必
要となるため、現在のところ大まかな変化のみでの不自
然な表情変化しか表現できていない。また、アニメーシ
ョン技法による表情の変化の表現は、アニメータが経験
的に蓄積したノウハウに従っている。これでは、定量的
条件の指定での表情発生は不可能であり、アニメータの
技量によっては不自然な表情変化となる。
【0003】動く画像の再生及び合成には、通信の場
合、発信側と受信側とが共有する知識の開発が望まれ、
また、アニメーションの画像合成の場合にもその知識が
応用できることが理想である。現在、顔の合成法として
は、三次元顔モデルの構造変形をして表情をつくる「構
造変形手法」があり、また、顔の表情に係わる特定部位
に関しては、実際の画像信号を利用する「嵌め込み合成
手法」がある。構造変形手法では、顔の表情に関する変
形パラメータを定め、そのパラメータの組み合わせによ
り、表情変化を合成しており、また、はめ込み合成手法
では、目の周り、口の周りを入力画像から切りだし、合
成画像に嵌め込んでいる。情報量については、「嵌め込
み合成方式」よりも、「構造変形方式」は、顔面画像を
パラメータによって合成しているので少なくはなるが、
まだまだ多い。最近、アニメーション作成のためではあ
るが、K.Waters氏は、1987年、三次元構造
顔モデルに、表情筋の三次元筋肉ベクトルパラメータを
採用したもの、すなわち、表情筋の形については、局所
解剖学を利用し、動きについては、心理学者が提唱する
「顔の動きのコードシステム」(Facial Act
ion Coding System:FACS)とし
て、6つの情緒と9種類の表情の活動ユニット(Act
ion Unit;AU)を嵌め込んだ三次元筋肉ベク
トルパラメータ方式を開発した(Computer G
raphics,Vol.21,No.4,p17−2
4,(1987),K.Waters:AMuscle
Model For Animating Thre
e−Dement−ional Facial Exp
ression)。この表情のAUと称するものは、F
ACSとして、最近しばしば使われている。しかし、こ
れは、体験的な心理学の主観的な概念から割り出された
もので、自然科学としての生理学的研究による法則では
ないから、たとえその変形合成にパラメータを応用して
も、その再生画像は不自然にならざるを得ない。更に、
従来の局所解剖学の表情筋の機能的名称は、筋電図研究
によれば見直す必要があるもののあることが判明した。
例えば、「笑筋」は笑いの主役を演じていないなどがそ
れである。したがって、その画像の再生には、大変な矛
盾を含んでおり、実際の人の表情とは違ったものとな
る。また、このような方式では、未だ情報量が多くなる
ことは否めない。
【0004】
【発明が解決しようとする課題】一方、医療の分野で
は、過去、現在、未来とも、その表情の読み取りは日常
の診療に欠くことのできない重要な要素であり、テクノ
ロジー的に読み取った人間の顔の表情データを適切に画
像等に再生でき、かつ、その表情の情緒的変化をテクノ
ロジー的に適切に加工できる装置の開発が望まれてい
る。勿論、芸術の分野でも、社会生活の面でも同様であ
る。かかる点に鑑み、本発明は、 筋肉の動きや神経系接続関係などの筋電図学的神経
生理学的研究に基づいて、顔の表情の要素をテクノロジ
ー的に分類し、コード化すること、つまり、表情を筋肉
や神経系の因果関係から理論的に取り扱ってコード化す
ることにより、表情の記録に要する情報量を、大幅に圧
縮させ、従来のアニメーション技法等における画像デー
タに較べて格段に減少させ、また、その表情にかかるコ
ードを定量化して、従来にない表情の定量的な解析を可
能にする。 そのコードの数値と筋肉の動きの相関関係を筋電図
学的神経生理学的研究から導き、これに基づいて眉、
瞼、口等を動かすことで表情を作ることによって、従来
の経験による顔の作画ではなく、筋電図学的神経生理学
的研究に基づいた表情を発生させ、再生される表情を自
然なものにする。 人間の表情発生及び情緒発生の筋電図学的神経生理
学的研究によって、表情と情緒との間に明解な対応の法
則があることが明らかになったことから、この対応関係
に基づいて情緒に対応した表情の発生及び情緒の時間変
化に応じた表情の変化を発生させ、経験の蓄積や心理学
からではなく、極めてテクノロジー的に情緒から表情を
発生させる。 表情筋を支配する神経系の接続、表情筋群の拮抗及
び協同関係から導かれた表情の動的モデルに従うこと
で、表情の自然な変化の時系列発生を可能にし、従来の
経験や心理学による表情変化発生に対して、筋電図学的
神経生理学的研究に基づいた表情変化を発生させる。 顔面モデルとして、人形や三次元グラフィクスを用
いることによって、三次元的な表情の再生をも可能にす
る。等々を目的とする。
【0005】
【課題を解決するための手段】本発明の基礎的な理論
は、発明者古川正重による表情の神経生理学的研究成果
による。ここにその理論の概要を説明する。人間の表情
には、直ちに目にふれない微妙な表情と素早く反射的に
反応して一目でそれとわかる表情がある。前者には、涙
の分泌をはじめ、顔色の変化、瞳孔の収縮などの自律神
経支配下の諸変化又は兆候があげられ、一方、後者は、
笑い、泣きなどの表情は体性運動神経支配領域に見られ
るもので、これらは、人間の社会生活に必要な通信手段
として、信号的な役割を担っているものと考えられる。
そこで、情緒の反応から表出までの過程を簡明にまと
め、内部機構のブロック図をつくり、情緒表現の内部機
構モデルとして図1に示す。このブロック図は、人体の
解剖学的な諸器官名は省略し、機能的な名称を用いたの
で、各ブロックの空間的な位置関係には意味はないが、
情報伝達経路を重視して作成したものである。したがっ
て、人間の顔の素早く動く画像としての表情は、体性運
動神経系の顔面神経の支配を受ける表情筋の活動があ
り、その中枢は、また顔面神経の中枢となる。表情筋
は、頭部、頸部にそれぞれ一対づつ、顔の眼、耳、鼻の
周りに各三対づつ、口唇の周囲には、言語活動に寄与す
るものを含めて約十対存在する。それらの中で、表情に
関する主な筋を図2に示す。これらを表情筋群と呼ぶ。
一般に、体性運動筋は、骨格筋と呼ばれるもので、手足
の筋のように、骨から始まって途中関節を要して骨に終
わるものである。それに対して、表情筋は、骨格筋の一
種で横紋筋でありながら、それぞれ顔面骨部より発して
途中関節を要せずに、直接皮膚に終着していることが特
徴で、対応は極めて速く、左右同時性である。そして、
前者の運動筋の神経支配については、例えば、手を伸ば
す場合、一つの伸筋ばかりでなく、同時的に張力を増加
して強力する筋及び筋群を協力(同)筋(synerg
ist)と称し、屈縮側の張力を減少する屈筋及び筋群
を拮抗筋(antago−nist)と称されている
が、これらの関係は、手を伸ばすために協調しているわ
けである。また、歩行時の両脚に見られる交互的の筋活
動を支配する神経支配関係を生理学的に研究したシエリ
ントン(Sherrington.c.s.:1861
〜1953)は、1906年に相反神経支配の法則(P
rinciple of Reciprocal In
nervation)と名付け、1932年にノーベル
生理医学賞を受賞した。顔においては、眼球運動に関与
する眼筋などは、この法則が認められるが、顔面神経支
配の表情筋の活動にこの法則が適応できるかどうか、或
いは、別の法則で支配されているかどうかの研究は必要
である。現代の神経生理学においては、脳の活動には脳
波、心臓の活動には心電図があるように、この表情筋の
活動には筋電図学的研究が重要である。一般に、筋肉が
活動する時は、筋肉の細胞自体に電位の変化が起きる。
この活動電位を、時間的に調査して記録したものを筋電
図(Electro−Myogram;E.M.G.)
と呼ぶ。表情筋の活動電位は最大で800μV、持続時
間は4ミリ秒以下で、手足の筋のそれに比べると約半分
と小さく短いのが特徴である。まず、顔を図2左に示す
ように、上部、中部、下部とする。上部に;ヒタイ
(F)、マユ(C)、中部に;マブタ(O)、ホホ
(Z)、下部に;クチ(R)、アゴ(M)として、6区
分にすると、それらの区分の皮下には、主要な表情筋が
図2の右側の如く約14ある。それらの表情筋及び表情
筋群を区分ごとに次表の6群に分けることができる。こ
れらの6群を表情に必要な最小限の筋群の分類とした。
【表1】 筋電図の実験には、各筋及び各筋群に複数の電極を使用
して、同時記録することによって各筋群の相関関係を調
査することができる。その調査を総合して検討すると次
のようになる。すなわち、前額に皺をつくる前頭筋
(F)と眉を動かす皺眉筋(C)、この皺眉筋(C)と
口唇を開閉する口輪筋(R)、口角を上げる頬骨筋群
(Z)と眼を閉じる眼輪筋(O)がそれぞれ協同的神経
支配関係にあり、また、前額に皺をつくる前頭筋(F)
と眼を閉じる眼輪筋(O)、眉を動かす皺眉筋(C)と
口角を上げる頬骨筋群(Z)、口唇を開閉する口輪筋
(R)と下唇を下げる筋群(M)がそれぞれ拮抗的神経
支配関係にあることを確認した。これを図3に示す。更
に、実際にリアルな情緒的表情パターンをつくる時の表
情筋群の筋電図は、例えば、「笑う」の時、OZMに見
られ、FCRに見られない。「怒り」の時、FCRに見
られ、OZMに見られない。このように、6群の表情筋
は、それぞれ3群宛が協同的に活動する場合、他の3群
は拮抗的の関係になっている。この組み合わせのパター
ンは8つになり、次表に示す。
【表2】 しかし、顔の左右対をなしている筋及び筋群の筋電図
は、それぞれ同名のものは互いに協同的で、拮抗的では
ない。すなわち、相反関係になっていない。このこと
は、表情のパターン形成の上で極めて重要な表情筋の活
動の特質と考えられる。一般に、脳細胞は並列で、その
興奮は多元的であり、互いに加重或いは抑制に作用して
複雑に統合し、そのインパルスが末梢神経に伝えられ
て、末梢器官を活動させていると考えられる。末梢器官
としての表情筋は、顔面神経の支配を受けて活動し、そ
の中枢は、随意的運動の中枢として、大脳の運動領が挙
げられ、不随意的の反射運動の中枢は、中脳と小脳にあ
り、それらを統合する中枢は、脳幹網様体と考えられ
る。情緒の中枢は未だ不明であるが、表情運動の中枢
は、前述したように、複数挙げられている。しかし、そ
れらが、どのような法則で統合されているかの課題は極
めて重要である。先に述べた四肢運動の相反神経支配の
法則を部分的には適応できるが、総体的にはその適応は
不可能である。そこで、その統合の法則のモデルを、前
述の筋電図学的実験研究から考察して制作することにし
た。図3に示す6群の二つ宛の相互関係は、相反神経支
配に準ずるその組み合わせが多数あって無意味である。
しかし、実際の表情パターンは、筋電図から見る場合、
表2に示すように3群宛の相関関係で構成されている。
その3群づつを組み合わせると、最小限の8つのパター
ンに集約できる。そして、図2の右に示す6つの筋群に
ついて、拮抗的なものを互いに立体軸上に対立させ、協
同的なものを稜線として隣接させて、立体的に組み合わ
せると、図4に示す八面体ができる。これを、表情パタ
ーンの法則の動的モデルとし、発明者の古川正重はこれ
を「表情の八面体」(Pattern Princip
le of Octhedron in Emot−i
onal Expression)と名付けた。この表
情における八面体のパターンの法則のモデルは、表情の
効果器としての顔の表情筋群の運動方式を帰納して作成
したものであるから、当然、表情を具現化する法則のモ
デルであると同時に、これを支配する顔面神経中枢の統
合発信方式の自然の法則のモデルでもあると考えられ
る。ところで、この表情の八面体において、8つの面を
構成している3要素を操作すると、極限的な表情が現れ
る。これを図5及び図6に示す。図6で実線は隣接する
面、破線は対向する面を示す。この場合の八面体の面要
素が示す表情は、次表のような表情・情緒と対応してい
る。
【表3】 これらの表情要素コードと表情・情緒の相関関係を更に
次表に示す。
【表4】 この表に従えば、表情要素コードから表情・情緒を判別
できる。
【0006】ここにおいて、本発明は、表情発生条件を
設定する表情発生条件入力装置と、該表情発生条件入力
装置からの指示信号に従い顔面における可動部分たる前
額(F)、眉(C)、瞼(O)、頬(Z)、口(R)、
顎(M)の移動量、移動方向、形態変化を、表情の筋電
図学的神経生理学的解析による表情筋群(F,C,O,
Z,R,M)に基づきそれぞれのベクトル成分を計算
し、コード化して、表情画像としての表情要素コードを
再生する表情要素コード再生手段に加えて、その表情要
素コードに、表情筋群活動の特徴のある相関関係を筋電
図の実験研究により解明した表情運動を説明する表情パ
ターンの法則の動的モデルたる表情の八面体に基づき、
表情の変化の開始時と終了時の情緒の種別、大きさ、変
化時間の要素を付与する情緒の時系列変化対応表情発生
手段を備えた演算処理装置と、該演算処理装置で再生さ
れ、かつ、表情の変化の開始時と終了時の情緒の種別、
大きさ、変化時間の要素が付与された表情要素コードに
従い、顔面の形態を再生表示するとともに、顔面の可動
部分たる前額(F)、眉(C)、瞼(O)、頬(Z)、
口(R)、顎(M)を移動、変形させる表情表示装置
と、から成る。
【0007】
【作用】如上の構成であるから、表情発生条件入力装置
にて所要の表情発生条件を入力すると、演算処理装置の
表情要素コード再生手段が、その表情発生条件入力装置
からの指示信号に従い、顔面の可動部分たる前額
(F)、眉(C)、瞼(O)、頬(Z)、口(R)、顎
(M)の移動量、移動方向、形態変化を、表情の筋電図
学的神経生理学的解析に基づいて計算し、それらの可動
部分における移動量、移動方向、形態変化を含んだ表情
画像のための表情要素コードを再生する。そして、表情
表示装置が、その表情要素コードに従い顔面の表情を再
生表示する。また、演算処理装置では、表情情緒の時系
列変化対応表情発生手段が、表情パターンの動的モデル
たる上記「表情の八面体」に基づき、その表情要素コー
ドに変化の開始時と終了時の情緒の種別、大きさ、変化
時間を加味させる。
【0008】
【実施例】図7は、本発明の「表情要素コードの再生表
示及び情緒・表情の加工・発生装置」に係る実施例を示
している。図7において、1は、表情発生条件を設定す
る表情発生条件入力装置、2は、該表情発生条件入力装
置からの指示信号に従い、顔面における可動部分たる前
額(F)、眉(C)、瞼(O)、頬(Z)、口(R)、
顎(M)の移動量、移動方向、形態変化を、表情の筋電
図学的神経生理学的解析に基づいて計算し、表情画像と
しての表情要素コードxを再生する表情要素コード再生
手段21に加えて、表情パターンの動的モデルたる上記
「表情の八面体」に基づき、その表情要素コードxに表
情の変化の開始と終了時の情緒の種別、大きさ、変化時
間の要素を付与する情緒の時系列変化対応表情発生手段
22を備えた演算処理装置、3は、該演算処理装置で再
生された表情要素コード出力に従い顔面の形態を再生表
示する表情表示装置である。
【0009】表情発生条件入力装置1の具体的なものと
しては、キーボード、可変抵抗とA/Dコンバータの組
み合わせ、直列又は並列ディジタル入力等が考えられ
る。演算処理装置2としては、パーソナルコンピュー
タ、ワークステーションなどでよい。また、表情表示装
置3としては、顔面の模型、コンピュータグラフィック
スなどで実現する。二次元モデル、三次元モデルのいず
れでも可能である。
【0010】演算処理装置2における表情要素コード再
生手段21は、次のアルゴリズムに支配される。 「表情要素コード再生アルゴリズム」 表情要素コードの最も単純な再生のための顔面モデルと
して、図8に示す折れ線モデルがある。これは、眉、
瞼、口などの可動部分を折れ線として表したものであ
る。この折れ線モデルでは顔面の各可動部を頂点1〜5
2と設定し、右眉、左眉、右上眼瞼、左上眼瞼、右下眼
瞼、左下眼瞼、上唇、下唇を8本の折れ線として、顔面
の可動部を表している。これらの可動部の移動は、頂点
を移動させることで行う。各頂点は、前記表1乃至表4
が示すように、情緒との関連から複数の表情筋群F,
C,O,Z,R,Mの影響を受けるので、各頂点と表情
筋群との関係は、次表のように表すことができる。
【表5】 次に、上記各頂点の内の1点について、移動量、移動方
向の決定方法を説明する。図9に第n番目の頂点の移動
の力学モデルを示す。図9において、一端が固定された
スプリングsの他端nを牽引する張力FANは、FAN
=fAN(a)の関数で表される。また、移動量σAN
及び係数kとの間に、FAN=k・σANの関係がある
ことから、次式が成立する。なお、添字のAは、表情筋
群F,C,O,Z,R,Mの種別を、また、添字のN
は、各頂点を示している。
【数1】 この(1)式は、眉、瞼、口などの可動部分の折れ線に
おける第n番目の頂点nが表情要素コードの1つの成分
aに対して移動する移動量σANに合致する。この場
合、移動量σANは方向性を持つので、これをX成分、
Y成分からなるベクトルLANで表すと、次式のように
なる。
【数2】 例えば、右眉における前頭筋Fによる移動は、図10の
ようになる。この左眉の頂点1は、実際には前頭筋Fと
皺眉筋Cとの影響を受けているために、その移動は図1
1に示すように、前頭筋Fによるベクトル移動量LF1
と皺眉筋Cによるベクトル移動量LC1とを加算したも
のとなる。そこで、加算移動量をLとし、頂点1の加
算移動量Lを求めると、次式のようになる。
【数3】 そこで、それらの表情筋群F,C,O,Z,R,Mに基
づきそれぞれのベクトル成分をコード化して表情要素コ
ード(f,c,o,z,r,m)とし、これを(3)式
に与えると、その加算移動量Lは、次式のような関数
として得られる。
【数4】 この(4)式を頂点1の移動量の式と呼ぶ。同様にし
て、表5の「各頂点と関連する筋群」の関係から、全5
2頂点の移動量の式L〜L52が決まる。表情要素コ
ードの各成分は、0〜1.0の値をとるものとする。
【数5】 このようにして、筋肉と眉、瞼、口の解剖学的及び筋電
図学的研究から、あらかじめ全頂点の移動量の式を求め
ておくと、折れ線モデルによる表情要素コード再生アル
ゴリズムのフローチャートは図12となる。すなわち、
眉、瞼、口などの可動部分における全頂点の移動量の式
に表情要素コードを代入して移動量を求め、これに
従って各頂点を移動させるとともに、頂点間を線分で結
び、もって、可動部分の移動量、移動方向、形態変化を
表情の生理学的筋電図学的解析に基づいて計算した表情
画像としての表情要素コードxを再生することができる
のである。この表情要素コードxの出力は、表情表示装
置3に送り、該表情表示装置において顔面の表情として
実現させるのである。
【0011】また、演算処理装置2における情緒の時系
列変化対応表情発生手段22は、表情要素コード再生手
段21で再生する表情要素コードxに対し、情緒の種別
と大きさの要素を付与する情緒対応表情再生手段と、そ
の表情要素コードxに表情の変化の開始と終了、変化時
間の要素を付与する表情の時系列発生手段を内包してお
り、「情緒の変化に対応した表情の時系列変化発生アル
ゴリズム」に支配される。そして、この「情緒の変化に
対応した表情の時系列変化発生アルゴリズム」は、情緒
対応表情再生手段における「情緒を基にした表情の発生
アルゴリズム」と、表情の時系列発生手段における「表
情の時系列変化発生アルゴリズム」とで成立する。図1
3に「情緒の変化に対応した表情の時系列変化発生のア
ルゴリズム」のフローチャートを示す。情緒の時系列変
化対応表情発生手段22には、上記表情発生条件入力装
置1から、表情の発生条件として、開始時、終了時の情
緒の種別と、大きさと、時間を与える。
【0012】この発生条件を受けた情緒の時系列変化対
応表情発生手段22は、まず、情緒対応表情再生手段に
おいて、これを「情緒を基にした表情の発生アルゴリズ
ム」にて処理し、表情要素コード再生手段21で再生す
る表情要素コードxに情緒の種別と大きさの要素を付与
する。つまり、この情緒対応表情再生手段は、次のアル
ゴリズムに支配される。 「情緒を基にした表情の発生アルゴリズム」 情緒を表情に変換するには、図6を用い、指定する情緒
と面要素の対応は、前記表3に従うものとする。 (1)表情要素の重み付け 表情要素コードXに対して、 主要素 ++ 2k・x 《重み付けを強くするときは 3k・x》 従属要素 + k・x 拮抗要素 (−) k・ (1−x) k:1/6を意味する。 (2)情緒変換式 上記表情要素の重み付けと前記表4から、各情緒の量を
計算する式が求められる。
【数6】 これを情緒変換式と呼ぶ。 (3)情緒変換式から表情要素コードxを求める方法 いずれかの情緒を選択して、情緒の量を与える。すなわ
ち、情緒変換式とその左辺が決定したことになる。この
とき、表情要素間の関係式が与えられれば、情緒の種別
と大きさを含む表情要素コードxが決定する。そこで、
情緒変換式の各項要素が同じ大きさと仮定して、この情
緒の種別と大きさを含む表情要素コードxを求める。 例として、happyを用いた場合を示すと次の通りで
ある。 例 種別:happy 大きさ:0.5
【数7】 Ehp=0.5=2k・z+k・o+k・m+k・(1−c) z=o=m、c=0として、 0.5=(4z+1)・k k=1/6だから z=(0.5・6−1)/4=0.5 ∴情緒happyとその大きさを含む表情要素コードx: (f,c,o,z,r,m)=(0,0,0.5,0.5,0,0.5) 情緒の種別と大きさから表情を発生するアルゴリズムの
フローチャートを図14に示す。すなわち、対応する表
4から構成要素を判別し、これに情緒の大きさを乗じて
表情要素コードとし、情緒の種別と大きさを含む表情要
素コードxを得るのである。
【0013】情緒対応表情再生手段で算出されたこの情
緒の種別と大きさを含む表情要素コードxに対しては、
更に、表情の時系列発生手段により表情の変化の開始と
終了、変化時間の要素を付与する。この表情の時系列発
生手段は、次のアルゴリズムに支配される。 「表情の時系列変化発生アルゴリズム」 表情の変化は、図4に示す表情の八面体の表面に沿って
発生する。表情の八面体上の位置変化を、正規八面体上
での位置変化と八面体の大きさの変化に分けることで具
体化した場合の処理手順を図15のフローチャートに示
す。なお、正規八面体とは、全頂点が1つの球に接する
八面体で、その球の半径dを1としたもの、すなわち、
各成分の値を1とした表情の八面体をいう。また、八面
体の大きさの変化とは、その球の半径dをいう。以下、
その処理手順を順に説明する。 開始時・終了時の表情要素コードxからその表面に
持つ表情の八面体の大きさをそれぞれ算出する。これを
,dとする。 算出したd,dの値を用いて、正規八面体上の
開始位置、停止位置を算出する。 正規八面体の面に沿った最短ルートを算出する。 開始から終了までの変化時間と時系列間隔からコマ
数を算出し、1コマごとの正規八面体での位置変化、八
面体の大きさ変化を割り出す。 正規八面体上の位置と八面体の大きさを開始値にす
る。 正規八面体上での位置を、八面体の現在の大きさで
補正して、情緒の変化に対応した表情の時系列変化が発
生した表情要素コードx、つまり、表情の変化の開始と
終了時の情緒の種別、大きさ、変化時間を含む表情要素
コードxを得る。ここでは、表情要素コード再生手段2
1で再生される前述の表情要素コードxと同質のものと
なっている。このようにして得られた情緒の変化に対応
した表情の時系列変化発生を包含する表情要素コードx
を、表情表示装置3に送り、該表情表示装置において顔
面の表情を実現させるのである。
【0014】なお、演算処理装置2では、情緒の時系列
変化対応表情発生手段22において、情緒対応表情再生
手段のみ働かせて情緒の種別と大きさだけを含む表情要
素コードxを、また、表情の時系列発生手段のみ働かせ
て表情の変化の開始と終了、変化時間だけを含む表情要
素コードxを再生することもでき、これらを表情表示装
置3において顔面の表情として実現させることができ
る。
【0015】
【発明の効果】本発明によれば、 (1)人間の顔の表情を、筋電図学的神経生理学的研究
に基づき筋肉や神経系の因果関係から理論的に取り扱っ
て、表情の要素をテクノロジー的に分類し、コード化す
ることができ、これにより、表情の記録や伝送に要する
情報量を、大幅に圧縮した状態とすることができ、従来
のアニメーション技法等における画像データに較べて格
段に減少させることができる。また、その表情にかかる
コードを定量化することで、従来にない表情の定量的な
解析を可能にすることができる。 (2)顔面再生画像、その他の顔面モデルにおいて、筋
電図学的神経生理学的研究から導き出されたその表情要
素コードの数値と筋肉の動きの相関関係に基づいて眉、
瞼、口等を動かすことで任意にかつ人工的に表情を作る
ことができ、これにより、従来の経験や心理学による顔
の作画ではなく、筋電図学的神経生理学的研究に基づい
た適正な表情を発生させることができ、再生される表情
を自然なものにできる。 (3)顔面再生画像、その他の顔面モデルにおいて、人
間の顔の表情と情緒との間の明解な対応関係に基づいて
情緒に対応した表情を発生させることができ、かつ、情
緒の時間変化に応じた表情の変化を発生させることがで
き、経験の蓄積や心理学からではなく、極めてテクノロ
ジー的に情緒から表情を発生させることができる。 (4)表情筋を支配する神経系の接続、表情筋群の拮抗
及び協同関係から導かれた表情の動的モデルに従うこと
で、顔面再生画像、その他の顔面モデルにおいて、表情
の自然な変化の時系列発生を可能にでき、従来の経験や
心理学による表情変化の発生ではなく、筋電図学的神経
生理学的研究に基づいた適正な表情変化を発生させるこ
とができる。 (5)顔面モデルとして、人形や三次元グラフィクスを
用いることにより三次元的な表情の再生をも可能にする
ことができる。等々の優れた効果を奏し、所期の目的を
達成することができる。
【0016】また、本発明には、下記のような応用が考
えられる。 (A)テレビ電話・テレビ会議 表情の情報量を大幅に圧縮できるから、顔面の表情が自
然に変化する動画を支障なく伝送できる。 (B)自然な表情を持った人形 人形劇に使用される人形に、簡単に表情が作れ、しか
も、自然な表情変化を持たせることができる。 (C)表情トレーニング教材 表情トレーニングのプログラムに従って各種の表情変化
を発生させ、表情トレーニングの教材とする。 (D)ゲームソフト及びアニメーションへの応用 ゲームソフトに近年多様されているアニメーションで
は、従来は1コマごとに画像が必要であったが、これが
表情要素コードのみの記憶となるので、顔面のアニメー
ションに関しては従来の格段の情報量となる。更に、表
情の時系列変化発生装置を用いることで、人間らしい自
然な表情を発生させることができ、リアリティのあるア
ニメーションを簡単に制作作成できるようになる。 (E)表情及び情緒の実験装置 人間の情緒発生の研究、精神疾患と表情の関連研究、コ
ミュニケーション手段としての表情機能の研究など、従
来定性的にしか研究されていなかった表情、情緒を定量
化して研究することができる。 (F)ストレス解消装置 楽しい、嬉しい、安らぎ、爽快などの情緒に応じた表情
の変化を一定周期で発生させ、それを見ることでストレ
スを解消し、情緒を安定させる装置を造ることができ
る。
【図面の簡単な説明】
【図1】 本発明に係る情緒表現の内部機構モデルを示
すブロック図である。
【図2】 本発明に係る顔の主な表情筋の分布状態を示
す図である。
【図3】 同顔の6つの表情筋群の拮抗・協同関係を示
す図である。
【図4】 同顔の表情の八面体を示す図である。
【図5】 同顔の表情の八面体のオペレーションと表情
の図形化に係る図である。
【図6】 同顔の表情のイメージパターンとその協同及
び拮抗関係を示す図である。
【図7】 本発明の「表情要素コードの再生表示及び情
緒・表情の加工・発生装置」に係る実施例を示すブロッ
ク図である。
【図8】 同例における顔の折線モデルを示す図であ
る。
【図9】 同例における顔の可動部の力学モデルを示す
図である。
【図10】同例における右眉の折線モデルとその移動量
を示す図である。
【図11】図10の折線モデルにおける1頂点の移動量
を示すベクトル図である。
【図12】同例の表情要素コード再生フローチャートで
ある。
【図13】同例の情緒の時系列変化対応表情発生フロー
チャートである。
【図14】同例の情緒対応表情発生フローチャートであ
る。
【図15】同例の表情の時系列変化発生フローチャート
である。
【符号の説明】
1 表情発生条件入力装置 2 演算処理装置 3 表情表示装置 21 表情要素コード再生手段 22 情緒の時系列変化対応表情発生手段
フロントページの続き (56)参考文献 COMPUTER GRAPHIC S,VOL.21,NO4,P17−24, (1987),K.WATERS:A MU SCLE MODEL FOR A N IMATING THREE−DEME NTIONAL FACIAL EXP RESSION

Claims (1)

    (57)【特許請求の範囲】
  1. 【請求項1】 表情発生条件を設定する表情発生条件入
    力装置と、 該表情発生条件入力装置からの指示信号に従い顔面にお
    ける可動部分たる前額(F)、眉(C)、瞼(O)、頬
    (Z)、口(R)、顎(M)の移動量、移動方向、形態
    変化を、表情の筋電図学的神経生理学的解析による表情
    筋群(F,C,O,Z,R,M)に基づきそれぞれのベ
    クトル成分を計算し、コード化して、表情画像としての
    表情要素コードを再生する表情要素コード再生手段に加
    えて、その表情要素コードに、表情筋群活動の特徴のあ
    る相関関係を筋電図の実験研究により解明した表情運動
    を説明する表情パターンの法則の動的モデルたる表情の
    八面体に基づき、表情の変化の開始時と終了時の情緒の
    種別、大きさ、変化時間の要素を付与する情緒の時系列
    変化対応表情発生手段を備えた演算処理装置と、 該演算処理装置で再生され、かつ、表情の変化の開始時
    と終了時の情緒の種別、大きさ、変化時間の要素が付与
    された表情要素コードに従い、顔面の形態を再生表示す
    るとともに、顔面の可動部分たる前額(F)、眉
    (C)、瞼(O)、頬(Z)、口(R)、顎(M)を移
    動、変形させる表情表示装置と、 から成ることを特徴とする表情要素コードの再生表示及
    び情緒・表情の加工・発生装置。
JP4213734A 1992-07-17 1992-07-17 表情要素コードの再生表示及び情緒・表情の加工・発生装置 Expired - Fee Related JP2648682B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4213734A JP2648682B2 (ja) 1992-07-17 1992-07-17 表情要素コードの再生表示及び情緒・表情の加工・発生装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4213734A JP2648682B2 (ja) 1992-07-17 1992-07-17 表情要素コードの再生表示及び情緒・表情の加工・発生装置

Publications (2)

Publication Number Publication Date
JPH0676044A JPH0676044A (ja) 1994-03-18
JP2648682B2 true JP2648682B2 (ja) 1997-09-03

Family

ID=16644124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4213734A Expired - Fee Related JP2648682B2 (ja) 1992-07-17 1992-07-17 表情要素コードの再生表示及び情緒・表情の加工・発生装置

Country Status (1)

Country Link
JP (1) JP2648682B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133445A (ja) * 2000-10-30 2002-05-10 Namco Ltd 画像処理装置、画像処理方法および情報記憶媒体
JP2002236759A (ja) * 2001-02-08 2002-08-23 New Industry Research Organization 遠隔看護システム
CN1846234A (zh) 2003-09-03 2006-10-11 日本电气株式会社 形态变形装置、物体动作编码装置以及物体动作解码装置
US7554549B2 (en) * 2004-10-01 2009-06-30 Sony Corporation System and method for tracking facial muscle and eye motion for computer graphics animation
KR101535432B1 (ko) 2013-09-13 2015-07-13 엔에이치엔엔터테인먼트 주식회사 콘텐츠 평가 시스템 및 이를 이용한 콘텐츠 평가 방법
RU2700537C1 (ru) * 2019-02-04 2019-09-17 Общество с ограниченной ответственностью "КВАРТА ВК" Способ определения эмоционального состояния человека

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
COMPUTER GRAPHICS,VOL.21,NO4,P17−24,(1987),K.WATERS:A MUSCLE MODEL FOR A NIMATING THREE−DEMENTIONAL FACIAL EXPRESSION

Also Published As

Publication number Publication date
JPH0676044A (ja) 1994-03-18

Similar Documents

Publication Publication Date Title
US10210425B2 (en) Generating and using a predictive virtual personification
Perani et al. Different brain correlates for watching real and virtual hand actions
Terzopoulos et al. Analysis of facial images using physical and anatomical models
JP5047798B2 (ja) コンピュータグラフィックスアニメーション用に顔面筋および眼球の運動を追跡するためのシステムおよび方法
JP2003233300A (ja) 人体の神経系に基づく情緒合成装置及び方法
Kalra et al. Modeling of vascular expressions in facial animation
DiLorenzo et al. Laughing out loud: Control for modeling anatomically inspired laughter using audio
Fabri et al. Expressive agents: Non-verbal communication in collaborative virtual environments
Arrouët et al. Open-ViBE: a three dimensional platform for real-time neuroscience
CN111297379A (zh) 一种基于感官传递的脑机结合系统和方法
Troje The little difference: Fourier based synthesis of gender-specific biological motion
Wu et al. BioFace-3D: Continuous 3D facial reconstruction through lightweight single-ear biosensors
JP2648682B2 (ja) 表情要素コードの再生表示及び情緒・表情の加工・発生装置
Pelachaud et al. Final report to NSF of the standards for facial animation workshop
Pitermann et al. An inverse dynamics approach to face animation
Haber et al. Facial modeling and animation
GOMI et al. A Physiolo ically Based Mo el of Perioral Dynamics for Various Lip Deformations in Speech Articulation
KR20200136255A (ko) 신경계 및 근골격계 환자의 운동재활을 위한 증강현실 기반 거울운동 시스템
JP2573126B2 (ja) 表情のコード化及び情緒の判別装置
Mustafa et al. A brain-computer interface augmented reality framework with auto-adaptive ssvep recognition
Kider Jr et al. A data-driven appearance model for human fatigue
Saygin et al. Cognitive neuroscience and robotics: a mutually beneficial joining of forces
Patel Colouration issues in computer generated facial animation
Pollick et al. Perception of humanoid movement
Yang et al. A study of real-time image processing method for treating human emotion by facial expression

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080516

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090516

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090516

Year of fee payment: 12

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090516

Year of fee payment: 12

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090516

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090516

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100516

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100516

Year of fee payment: 13

LAPS Cancellation because of no payment of annual fees