JP2008186075A - インタラクティブ画像表示装置 - Google Patents

インタラクティブ画像表示装置 Download PDF

Info

Publication number
JP2008186075A
JP2008186075A JP2007016689A JP2007016689A JP2008186075A JP 2008186075 A JP2008186075 A JP 2008186075A JP 2007016689 A JP2007016689 A JP 2007016689A JP 2007016689 A JP2007016689 A JP 2007016689A JP 2008186075 A JP2008186075 A JP 2008186075A
Authority
JP
Japan
Prior art keywords
animation
subject
face
user
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007016689A
Other languages
English (en)
Inventor
Lyons Michael
ライオンズ マイケル
Wiratanaya Andreas
ヴィラタナヤ アンドレアス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2007016689A priority Critical patent/JP2008186075A/ja
Publication of JP2008186075A publication Critical patent/JP2008186075A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】 ユーザが提示された画像に対して示す興味のレベルに応じて、異なった画像を提示していくことが可能なインタラクティブ画像表示装置を提供する。
【解決手段】 映像モジュールプログラム1200は、ハードディスク1110に格納された動画像から顔領域を抽出する顔検出部1208と、検出され抽出された顔の内部の画像上の動きを特定するための情報の計算を行なうオプティカルフロー算出部1206とを含む。アニメーションエンジンプログラム1400は、ハードディスク1110に格納された顔画像から得られた動きを特定するための情報と、ユーザ2の体の動きから、ユーザ2の興味のレベルを算出する感情モデル算出部1402と、算出された興味のレベルの変化に対応して、内部状態を変化させるステートマシン部1404と、ステートマシンの状態に応じて対応するアニメーションを生成するためのアニメーションエンジン部1406とを含む。
【選択図】 図3

Description

この発明は、ユーザとの間でインタラクティブに画像を表示することが可能なインタラクティブ画像表示装置の構成に関する。
身体の障害を有する人々を助けるための様々な人工器官、たとえば、義足などは存在しているものの、認知能力の障害に対する人工器官の開発は、最近、やっと研究の緒についたばかりである。
認知症の治療の場合、常時、患者に対して注意を払い、かつ、世話をする必要があり、患者の家族にとって、負担を強いることとなっている。この結果生じるストレスは、患者の精神の安定には、ネガティブな効果を与えうる。このようなストレスを低減するための1つの方法は、一定期間にわたって、患者の注意をひき続けるような映像音楽メディアで患者を楽しませることで、同時に、世話をする者にも、このような世話の負荷を緩和させる、というものである。
最近、クワバラ等は、「セマンティックデスクトップ」という概念を提案している。このフレームワークでは、認知症または重度の記憶障害の人々に対してオンラインのサポートを提供する(たとえば、非特許文献1を参照)。典型的には、過去の出来事から記憶を刺激する画像を年長者に提供するような、つまり、過去のことを思い出させるようなビデオを患者に見せることを行う。さらに、ユーザとの相互作用を追加するために、ウツミ等は、ビデオを見る人の注意を引き付け続けるためにコンテンツを切り替えながら提供するという方法を試みている(たとえば、非特許文献2を参照)。この方法では、患者の注視する方向を注意の尺度として用いて、患者が興味を失い始めたときには、異なったチャネルに切り替えるということを行っている。
Kuwabara, K., Kuwahara, N., Abe, S. and Yasuda, K. Using Semantic Web Technologies for Cognitive Prostheses in Networked Interaction Therapy. Proc. Workshop on Cognitive Prostheses and Assisted Communications, IUI 2006,1-5 Utsumi, A., Kanbara, D., Kawato, S., Abe, S. and Yamauchi, H. Vision-based Behavior Detection for Monitoring and Assisting Memory-Impaired People. Proc. Workshop on Cognitive Prostheses and Assisted Communications, IUI 2006, 10-15
しかしながら、このような従来の試みでは、必ずしも、ユーザの興味のレベルに応じて、インタラクティブに画像を提示するわけではないため、ユーザの興味の維持が十分ではない可能性がある、という問題があった。
本発明は、このような問題点を解決するためになされたものであって、その目的は、ユーザが提示された画像に対して示す興味のレベルに応じて、異なった画像を提示していくことが可能なインタラクティブ画像表示装置を提供することである。
この発明のある局面に従うと、インタラクティブ画像表示装置であって、被験者に対する観測情報を得るための検知手段と、検知手段の検知結果に応じて、アニメーションを生成する表示制御手段とを備え、表示制御手段は、観測情報に応じて、被験者の感情状態を判断する感情状態算出手段と、感情状態の判断結果に応じて、所定の状態間を遷移するステートマシン手段と、所定の状態に応じて、異なるアニメーションを生成するアニメーションエンジン手段とを含み、アニメーションエンジン手段により生成されたアニメーションを表示するための表示手段をさらに備える。
好ましくは、検知手段は、被験者の顔画像を含む対象画像領域についての動画像データを獲得する撮影手段を含み、感情状態算出手段は、動画像データを格納するための記憶装置と、記憶装置に格納された対象画像領域内において、顔を検出する顔検出手段と、検出された顔に対応する検出領域において、単位領域ごとに動きベクトルを検出する動き検出手段と、検出された動きベクトルの時間変化に基づいて、被験者の感情状態をパラメータ化して出力する判断処理手段とを含む。
好ましくは、動き検出手段は、検出領域に対応する顔画像データにおいて格子点上の各点についてのオプティカルフローを、異なる複数の速度レベルで算出するオプティカルフロー算出手段を含み、異なる複数の速度レベルに対応したオプティカルフローに基づいて、動きベクトルに関連する情報として、被験者の頭の運動の大きさに相当する情報と、被験者の表情の動きの大きさに相当する情報とを分離して抽出する演算手段をさらに備え、判断処理手段は、情報に応じて、判断処理を行う。
好ましくは、アニメーションエンジン手段は、被験者が表示手段を見ていないとの判断に応じて、被験者に対して、表示手段を見るように促す動作を行うアニメーションを生成する。
好ましくは、アニメーションエンジン手段は、所定のポーズを示すアニメーションを生成する手段と、所定のポーズの真似をすることを促すアニメーションを生成する手段と、被験者が所定のポーズを真似たと判断することに応じて、肯定を示すポーズをとるアニメーションを生成する手段とを含む。
好ましくは、アニメーションエンジン手段は、被験者が所定のポーズを真似ていないと判断することに応じて、再度、所定のポーズの真似をすることを促すアニメーションを生成する手段を含む。
(本発明の概要)
以下に説明するように、本発明では、コンテンツの表示を患者の反応に適応的に行って患者の興味を引き付け続けるとの概念をより拡張した新しいインタフェースを提供するものである。過去の出来事を思い起こさせるような画像の代わりに、リアルタイムで変化するアニメキャラクタの形で、よりインタラクティブなコンテンツを使う装置を実現する。見る人を楽しませるようなアニメキャラクタのシミュレーションはコンピュータグラフィックの分野では、活発に研究されている分野であるが、認知症というような患者の世話のためにこれを用いようとした例はほとんどない。中期から末期の認知症の患者は、しばしば、言語によるコミュニケーション能力の重大な障害に苦しむものであるため、本発明では、視覚的で言語によらないインターアクションに基づいている。したがって、本発明では、パントマイムのような言語によらないコミュニケーションを用いている。
[ハードウェア構成]
以下、本発明の実施の形態にかかる感情情報通知装置について説明する。
図1は、本発明のインタラクティブ画像表示システム100の構成を示す概略ブロック図である。
図1を参照して、このインタラクティブ画像表示システム100は、パーソナルコンピュータなどのコンピュータ110と、コンピュータ110に接続され、ユーザ(患者、すなわち、被介護者)2への情報を表示するための表示装置としてのディスプレイ108と、同じくコンピュータ110に接続され、ユーザ2または介護者からの指示や情報を入力するための入力装置としてのキーボード106と、被験者4の顔を含む画像を取込むための複数台カメラ102.1〜102.nとを含む。なお、入力装置として、マウスや、タブレットとペンなどをさらに備える構成としてもよい。また、被験者4の感情状態を判断する手がかりとなる情報を取得するためのセンサとして、マイク等がさらに設けられていてもよい。
また、この実施の形態のシステムでは、カメラ102.1〜102.nとしては、たとえば、CCD(固体撮像素子)を含むビデオカメラを用いて、画像データをデジタルデータとしてキャプチャする。
なお、図示しないが、コンピュータ110には、CD−ROM(Compact Disc Read-Only Memory )ドライブなど、外部の記録媒体からのデータを取り込むための装置が設けられているものとする。
さらに、図1を参照して、コンピュータ110は、バスBSそれぞれに接続された、CPU(Central Processing Unit )1104と、ROM(Read Only Memory) 1106と、RAM(Random Access Memory)1108と、ハードディスク1110と、カメラ102.1〜102.nからの画像を取り込み、あるいは入力装置106からの信号を受け取るなどデータを授受するためのインタフェース部1102とを含んでいる。インタフェース部1102は、上述したようなセンサが設けられている場合は、センサからの入力信号を受け取る。
既に述べたように、インタラクティブ画像表示システム100として機能する部分の主要部は、コンピュータハードウェアと、CPU1104により実行されるソフトウェアとにより実現される。一般的にこうしたソフトウェアはCD−ROM等の記憶媒体に格納されて流通し、CD−ROMドライブ等により記憶媒体から読取られてハードディスク1110に一旦格納される。または、当該装置がネットワークに接続されている場合には、ネットワーク上のサーバから一旦ハードディスク1110にコピーされる。そうしてさらにハードディスク1110からRAM1108に読出されてCPU1104により実行される。なお、ネットワーク接続されている場合には、たとえば、ハードディスク1110に格納することなくRAM1108に直接ロードして実行するようにしてもよい。
図1に示したコンピュータのハードウェア自体およびその動作原理は一般的なものである。したがって、本発明の最も本質的な部分は、CD−ROMや、ハードディスク1110等の記憶媒体に記憶されたソフトウェアである。
なお、最近の一般的傾向として、コンピュータのオペレーティングシステムの一部として様々なプログラムモジュールを用意しておき、アプリケーションプログラムはこれらモジュールを所定の配列で必要な時に呼び出して処理を進める方式が一般的である。そうした場合、当該感情情報通知装置を実現するためのソフトウェア自体にはそうしたモジュールは含まれず、当該コンピュータでオペレーティングシステムと協働してはじめて感情情報通知装置が実現することになる。しかし、一般的なプラットフォームを使用する限り、そうしたモジュールまで含ませたソフトウェアを流通させる必要はなく、それらモジュールを含まないソフトウェア自体およびそれらソフトウェアを記録した記録媒体(およびそれらソフトウェアがネットワーク上を流通する場合のデータ信号)が実施の形態を構成すると考えることができる。
[ソフトウェア構成]
図2は、本願発明のインタラクティブなキャラクタアニメーションシステム100の構成を示す概念図である。
図2に示すように、ユーザ(患者)とアニメーションエンジンソフトウェアの生成したバーチャルなキャラクタとの間に相互作用がもたらされる。本システム100では、たとえば、パントマイムのように、キャラクタは、いくつかの様式化されたユーモラスな動作を行ってから動作を停止する。パントマイムの場合は、このような動作の停止に対して、さらに動作を促すために、見る側は、お金を投げ入れたり、拍手をしたりというようなインターアクション(相互作用)をとるわけである。
これに対して、本システム100では、ユーザの動きがシステムにより、異なったスケールで撮影する複数のビデオカメラにより記録され、コンピュータの画像アルゴリズムは、ユーザ(患者)の外観や動きを分析してその注意の状態を決定する。このようにして得られたユーザの情報は、コンピュータ上で動作するステートマシンに送られて、強化学習が実行され、アニメーションのキャラクタが次にどのような動作をするべきかを決定する。本システム100では、1組のアニメーションが、ユーザが何らかの反応を起こすことが期待されるようにデザインされ、これにより、このようなユーザの反応がシステムの入力となり、フィードバックループが完成する。
本システム100では、システムへの入力としては、非言語的なコミュニケーションであって、かつ、非侵襲的なセンシングを行うために、複数のカメラにより撮影されたユーザの画像を用いている。たとえば、2つのカメラを用いて、一方、ユーザの顔にフォーカスし、他方は、ユーザの上半身全体を撮影している。
感情の評価の方法としては、コンピュータ110で動作するステートマシンにより、以下のように処理を行う。
たとえば、人間は、興味の程度に応じて、異なった注意のサインを示す。ここで、興味の程度としては、穏やかな興味の程度で単純に観察している程度から、有頂天となっているような興味の程度までの広がりがある。単純に観察しているという興味のレベルのユーザは、単にアニメーションを見ているだけであるが、興味を抱いているユーザは、無意識的な表情の変化を示す。強く興味を持っているユーザは、さらに、体全体での身ぶりで反応する。したがって、本システムでは、以下のような処理を行うことができる。
D1)ユーザは、ディスプレイを見ているのかいないのかを決定する。
D2)現在のユーザの頭の方向を認識する。
D3)体全体の動きを分類する(動いている(動きの大きさのレベル)。静止している。)つまり、体の動きの大きさを所定のレベルのいずれに属するかで分類する。
D4)表情が笑っているのか、顔をしかめているのかというような基本パターンに分類する。
D5)身ぶりをいくつかの基本パターンに分類する(手を広げている。顔を両手で覆っている。口を手で覆っている。等)
図3は、図1に示した感情情報通知装置100上で動作するソフトウェアの構成を説明するための機能ブロック図である。
さらに、本システム100では、アニメーションに関連付けて、予め定められた複数の音楽ファイル(MIDIファイル)が再生される構成となっている。
以下では、ユーザ2の感情状態を判断する手がかりとなる情報としては、撮影された画像から検知される表情等の情報であるものとする。
図3においては、コンピュータ110上で動作するプログラムは、映像モジュールプログラム1200と、キャプチャされてハードディスク1110に格納された動画像から被験者の感情状態を判断し、対応するアニメーションを生成して切り替えながら出力するためのアニメーションエンジンプログラム1400とを含む。
本発明では、このような構成とすることで、ユーザ2の現在表示中のアニメーションへの興味のレベルに応じて、異なったアニメーションを切り替えながらユーザ2に対して提示することが可能となる。
以下に説明するとおり、インタラクティブ画像表示システム100では、ユーザ2について撮影された動画像が実時間で処理されて、顔の領域が分離され、表情が記録される。顔の動きを解釈するために、オプティカルフロー法が使用される。
映像モジュールプログラム1200は、対象となるユーザ2の顔とその周りの環境も含めた動画像をカメラ102.1〜102.nから獲得する画像キャプチャ部1202と、キャプチャされた動画像をハードディスク1110に格納するための画像データ記録処理部1204とを含む。画像キャプチャ部1202は、必要に応じて、カメラ102.1〜102.nから入力されるデジタル動画像データを保存に適した画像フォーマットへとフォーマット変換を行なう。
映像モジュールプログラム1200は、さらに、ハードディスク1110に格納された動画像から顔領域を抽出する顔検出部1208と、オプティカルフローに基づいて、抽出された顔自体または顔の内部の画像上の動きを特定するための情報(たとえば、画像内の動きベクトルの分布)の計算を行なうオプティカルフロー算出部1206とを含み、オプティカルフロー算出部1206は、顔画像の動画像データを算出された動きを特定するための情報とともにハードディスク1110に格納する。
一方、アニメーションエンジンプログラム1400は、ハードディスク1110に格納された顔画像から得られた動きを特定するための情報と、後に説明するようにユーザ2の体の動きから、ユーザ2の興味のレベルを算出する感情モデル算出部1402と、算出された興味のレベルの変化に対応して、内部状態を変化させるステートマシン部1404と、ステートマシンの状態に応じて対応するアニメーションを生成するためのアニメーションエンジン部1406とを含む。
(映像モジュールプログラム1200)
カメラ102からの動画像データの入力は、オプティカルフロー処理の演算量の削減や、ハードディスク1110へ格納するためのデータ容量の削減のために、たとえば、640×480画素から320×240画素に間引かれる。
周知の顔の検出アルゴリズムにより顔検出部1208が、カメラ102の視野の中に顔が存在するかどうかを決定し、それがどこに存在しているかも決定する。特に限定されないが、この顔検出のアルゴリズムは、頭の画像の中心の位置にくるように、顔に固定されたアスペクト比の矩形領域を登録する。たとえば、約30°まで平面から回転している顔も正確に検出することができ、同様に、画像平面内において約30°傾いた状態の顔も正確に検出することができる。顔画像はスケールされ、30フレーム/秒までのレートで、各フレームに対応する顔画像が、たとえば、タイムスタンプとともに保存される。
オプティカルフロー算出部1206において、画像のオプティカルフロー領域が、さまざまなビデオフレーム間での動きを検出する。検出された動きベクトルは、顔の内部領域全体にわたる動きベクトルの平均とともに、顔画像の動画像データと関連づけてハードディスク1110に保存される。
オプティカルフローは、視覚的なシーンにおいて、動きにより、画像領域がずれることを測定したものである。固定されたカメラと近似的に一定な照明に対しては、オプティカルフローのフィールドは、局所的な速度を計っていることになる。オプティカルフローを計算するために用いる方法としては、特に限定されないが、文献:特開2004−355082号公報や、文献:Barrron, J. L., Fleet, D. J., Beauchemin, S.S.: Performance of optical flow techniques. The International Journal of Computer Vision, 12(1994)pp.43-77に記載されている、ブロックマッチングあるいはブロック相関として知られているものを使用することが可能である。
ブロック相関技術を用いることで、ある画像フレームの領域が、それに続くフレーム中の全く同じサイズの領域にマッチングされる。このようなマッチングは、画像間の距離(たとえば、各画素の輝度の差の絶対和または自乗和など)の大きさを最小化することによって決定される。たとえば、15fpsのフレームレートのオプティカルフローフィールドにおいては、顔の内部の動作による特徴量の変位は、各時間ステップに対して数ピクセル程度になる。
速度として動きを計測するために、たとえば、1、3、5、7および10ビデオフレームだけ離れたフレーム間でのオプティカルフローフィールドを計算する。オプティカルフローの値は、さらに、顔検知モジュールによって検出された顔の内部部分に対応している各領域について、対応するフレーム間について平均処理がされる。
図6は、顔画像について検出されたオプティカルフローのフィールドの例を示す図である。
顔の片側をこわばらせる動きをした場合に、顔画像上の格子点(これをフィールドと呼ぶ)の各々において、動きベクトルが白い矢印で示されている。
顔のこわばりの途中や、表情を緩める途中のように動きのある場合には、顔の各部の動きに応じて、動きベクトルが現れているのがわかる。
オプティカルフロー算出部1206において算出されるオプティカルフロー値の平均において、上述した1、3、5、7および10ビデオフレームの間隔において平均処理により求められた動きベクトルの大きさである5つの速度レベルについて、動作速度の分布が求められる。このため、そのような動きが大きく顔全体(頭)が剛体的に動いたことによる動作に対応しているものなのか、あるいは表情や会話に対応するもっと微妙な動作に対応しているものであるかが検知できる。つまり、顔全体が動いているときは、5つの動きベクトルのいずれにもピークが現れるのに対し、顔の内部の動きであれば、ビデオフレーム間隔に依存して、ピークの存在する速度レベルと存在しない速度レベルとが混在するというように、顔の動きの解釈をステートマシン部1402が行なうことができる。
なお、本システム100では、さらに、以下のようにして、表情の判断を行っている。
図7は、本システム100での表情および顔の向きの判断の方法を示す図である。
すなわち、図7に示すように、検出された顔領域の矩形部分(図7(a))は、7つの領域に分割される。この7つの領域は、左目、右目、左眉、右眉、左ほほ、右ほほ、口である。各領域についてオプティカルフローを算出する。表情は、感情モデル算出部1402で、各領域ごとに、平均フローベクトルからなる特徴フローベクトルを分類することで認識される。図7(b)では、上述したような手法により、剛体的な動きと、微妙な内部の動きとを分離するためのオプティカルフローの分布を示す図である。
また、ユーザがカメラを見ているかどうかを決定するためには、顔の対象性を用いている。すなわち、図7(a)に示すように、顔検出部1208で検出された矩形領域は、正確に顔の中心に合わせられている。そこで、右側の顔と左側の顔とを比較することで、顔の向きを評価できる。ここで、顔の向きの検出(あるいは、視線の検出)については、周知な方法を用いることによって実現できる。
したがって、また、ユーザが今カメラを見ているかどうかだけでなく、ユーザが、今、右をみているのか、左をみているのかも決定することができる。
図8は、ユーザ2の上体の姿勢を検出する手続きを示す図である。
また、ユーザの上体の姿勢を分類するためには、図8(a)に示すように撮影した上体の画像において、図8(b)のようにユーザの画像(前景)と背景とを分離する。ここでは、撮影が室内で行われていることから、前景と背景の分離には、たとえば、「ガウシアンモデル」を用いることができる。このような「ガウシアンモデル」については、文献:Wren, C.R., Azarbayejani, A., Darrell, T. and Pentland, A.P. Pfinder: Real-Time Tracking of the Human Body. IEEE PAMI, 1997, 780-785に開示がある。さらに、画像は2値化されて、マススプリングモデルを用いると、現在の姿勢の特徴的な形を図8(c)のように取り出すことができる。ここで、このマススプリングモデルについては、文献:Turk, M. Visual Interaction With Lifelike Characters. Proc. 2nd Conf. on Automatic Face and Gesture Recognition,IEEE (1996)に開示がある。
このような特徴的な形を予め分類しておいた姿勢と比較することにより、ユーザの上体の姿勢を分類することができる。
(アニメーションエンジンプログラム1400)
まず、感情モデル算出部1402は、上述したようなD1〜D5のような判断結果をパラメータ化して、ステートマシン部1404に出力する。
ステートマシン部1404は、複数の状態間を受け取ったパラメータに応じて遷移する。状態の個数については特に制限されないが、たとえば、5〜10程度とすることができる。そして、アニメーションエンジン部1406は、この各状態に応じて、異なるアニメーションを生成する。
以下では、説明の簡単のために、以下のような3つの状態A,B,Cの間を遷移するものとして説明する。
(状態A)システム100は、顔検出部1208の検出結果等により、ユーザ2がディスプレイ108に表示されるアニメーションを見ていないと判断した状態である。
この場合は、ユーザ2の興味を引いてアニメーションを見はじめるように合図をして差し招くような動作をする。たとえば、アニメーションのキャラクタは、腕を振ってジャンプしたりする。
(状態B)キャラクタは、ユーザ2がディスプレイ108から適切な距離をとって、アニメーションを見るように促す。つまり、ユーザ2がディスプレイ108を見ていると判断し、かつ、顔検出部1208検出結果等により、ユーザ2がディスプレイ108に第1の所定の距離よりも近づきすぎている、または第2の所定の距離よりも遠くはなれすぎていると判断すると、ステートマシン部1404はこの状態に遷移する。
この状態では、キャラクタは、ユーザ2が近づきすぎているときは、ユーザ2に離れてみることを促すしぐさをし、一方、ユーザ2が近づきすぎているときは、ユーザ2に近づいてみることを促すしぐさをする。
(状態C)この状態では、キャラクタは、ある1つの身ぶり、たとえば、腕を振る、あるいは、手で所定の形を作る、等のしぐさをした後に、ユーザ2にそれをまねてみることを促すしぐさをする。さらに、感情モデル算出部1402から与えられるパラメータにしたがって、ステートマシン部1404は、ユーザ2がキャラクタと同様のしぐさをしたかを判断する。もしも、ユーザ2が同様のしぐさをしたと判断した場合は、ユーザ2が成功したことを示す肯定的なしぐさをする。一方、ユーザ2が同様のしぐさをしていないと判断した場合は、ユーザ2に、もう一度まねてみること促すしぐさをする。
ここで、特に限定されないが、たとえば、状態Bから状態Cへは、感情モデル算出部1402から与えられるパラメータの組と所定のしきい値の組との比較により遷移することとすることができる。状態の個数は、さらに増加させることが可能であり、この場合も、各状態間の遷移は、パラメータの組と所定のしきい値の組との比較により、各パラメータが対応するしきい値を越えたか否かに応じて行うことができる。さらには、このような遷移のためのしきい値は、遷移に伴うユーザの興味レベルの変化に応じて、適応的に変化することとして、システムが学習する構成とすることも可能である。
(アニメーションエンジン部1406)
図4は、本システム100で使用するアニメーションキャラクタの例を示す図である。
パントマイムは、2つのチャネルを使って情報を伝達する。すなわち、表情とボディランゲージである。本発明では、ユーザに提示する画像としては、一般に予め準備した複数の動画像を使用することが可能であるが、ただし、あまりにリアリスティックな人間のモデルでは、ユーザから却って受け入れられない場合があり、また、動物をモデルにすると、ボディランゲージを使える範囲が限られてしまう、という事情を考慮して、図4(a)(b)に示すような、比較的抽象的な漫画のようなモデルを使用することが好ましい。
図5は、動作および表情を表現するためのアニメーションの例を示す図である。
表情のアニメーションは、コンピュータグラフィックの世界では、よく研究されている問題である。本発明では、予めいくつかの表情を手書きで作成しておき、これらの表情間の変化はモーフィングの技法を用いた。このような手書きで作成したアニメーションの例を図5に示す。これらの基本表情のパターンを線形的にブレンドすることで、さらに、様々な表情を作成することができる。つまり、図5(b)に示すような複数の基本表情のパターンをn個作成すれば、表情は、n次元の空間の中の点として表現することができる。
四肢の動きは、回転を含んでいるために、非線形な動きとなる。したがって、上記の表情のように、基本パターンを作っておいて、これらを線形にブレンドする、というだけでは十分ではない。このような問題を解決するための一般的な方法として、図5(a)に示すような骨格モデルを用いたアニメーションを作成する。アニメーションの動きは、各骨の回転を用いて容易にパラメータ表現できる。
図9は、本システム100を実際にユーザが使用している状態を示す図である。
図9(a)(b)に示すように、ユーザ2と本システム100との間では、非言語的なユーザのしぐさ(画面を見ているか、いないか)により、表示内容が相互作用として変化する。
以上のとおり、本発明によれば、ユーザ(被介護者)の興味を引き続ける画像の提示が可能となる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
本発明のインタラクティブ画像表示装置100の構成を示す概略ブロック図である。 インタラクティブ画像表示装置100の動作を示す概念図である。 感情情報通知装置100上で動作するソフトウェアの構成を説明するための機能ブロック図である。 本システム100で使用するアニメーションキャラクタの例を示す図である。 動作および表情を表現するためのアニメーションの例を示す図である。 顔画像について検出されたオプティカルフローのフィールドの例を示す図である。 本システム100での表情および顔の向きの判断の方法を示す図である。 ユーザ2の上体の姿勢を検出する手続きを示す図である。 本システム100を実際にユーザが使用している状態を示す図である。
符号の説明
2 ユーザ、100 インタラクティブ画像表示装置、102.1−102.n カメラ、106 キーボード、108 ディスプレイ、110 コンピュータ、1102 インタフェース部、1104 CPU、1106 ROM、1108 RAM、1110 ハードディスク、1200 映像モジュールプログラム、1202 キャプチャ部、1204 画像データ記録処理部、1206 オプティカルフロー算出部、1208 顔検出部、1400 アニメーションエンジンプログラム、1402 感情モデル算出部、1404 ステートマシン部、1406 アニメーションエンジン部。

Claims (6)

  1. 被験者に対する観測情報を得るための検知手段と、
    前記検知手段の検知結果に応じて、アニメーションを生成する表示制御手段とを備え、
    前記表示制御手段は、
    前記観測情報に応じて、前記被験者の感情状態を判断する感情状態算出手段と、
    前記感情状態の判断結果に応じて、所定の状態間を遷移するステートマシン手段と、
    前記所定の状態に応じて、異なるアニメーションを生成するアニメーションエンジン手段とを含み、
    前記アニメーションエンジン手段により生成されたアニメーションを表示するための表示手段をさらに備える、インタラクティブ画像表示装置。
  2. 前記検知手段は、被験者の顔画像を含む対象画像領域についての動画像データを獲得する撮影手段を含み、
    前記感情状態算出手段は、
    前記動画像データを格納するための記憶装置と、
    前記記憶装置に格納された前記対象画像領域内において、顔を検出する顔検出手段と、
    前記検出された顔に対応する検出領域において、単位領域ごとに動きベクトルを検出する動き検出手段と、
    検出された前記動きベクトルの時間変化に基づいて、前記被験者の感情状態をパラメータ化して出力する判断処理手段とを含む、請求項1記載のインタラクティブ画像表示装置。
  3. 前記動き検出手段は、前記検出領域に対応する顔画像データにおいて格子点上の各点についてのオプティカルフローを、異なる複数の速度レベルで算出するオプティカルフロー算出手段を含み、
    前記異なる複数の速度レベルに対応した前記オプティカルフローに基づいて、前記動きベクトルに関連する情報として、前記被験者の頭の運動の大きさに相当する情報と、前記被験者の表情の動きの大きさに相当する情報とを分離して抽出する演算手段をさらに備え、
    前記判断処理手段は、前記情報に応じて、判断処理を行う、請求項1記載のインタラクティブ画像表示装置。
  4. 前記アニメーションエンジン手段は、
    前記被験者が前記表示手段を見ていないとの判断に応じて、前記被験者に対して、前記表示手段を見るように促す動作を行うアニメーションを生成する、請求項1記載のインタラクティブ画像表示装置。
  5. 前記アニメーションエンジン手段は、
    所定のポーズを示すアニメーションを生成する手段と、
    前記所定のポーズの真似をすることを促すアニメーションを生成する手段と、
    前記被験者が前記所定のポーズを真似たと判断することに応じて、肯定を示すポーズをとるアニメーションを生成する手段とを含む、請求項1記載のインタラクティブ画像表示装置。
  6. 前記アニメーションエンジン手段は、
    前記被験者が前記所定のポーズを真似ていないと判断することに応じて、再度、前記所定のポーズの真似をすることを促すアニメーションを生成する手段を含む、請求項5記載のインタラクティブ画像表示装置。
JP2007016689A 2007-01-26 2007-01-26 インタラクティブ画像表示装置 Pending JP2008186075A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007016689A JP2008186075A (ja) 2007-01-26 2007-01-26 インタラクティブ画像表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007016689A JP2008186075A (ja) 2007-01-26 2007-01-26 インタラクティブ画像表示装置

Publications (1)

Publication Number Publication Date
JP2008186075A true JP2008186075A (ja) 2008-08-14

Family

ID=39729110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007016689A Pending JP2008186075A (ja) 2007-01-26 2007-01-26 インタラクティブ画像表示装置

Country Status (1)

Country Link
JP (1) JP2008186075A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015231443A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラム及びゲームシステム
WO2016157944A1 (ja) * 2015-03-31 2016-10-06 シャープ株式会社 ロボット
WO2018034113A1 (ja) * 2016-08-16 2018-02-22 株式会社デイジー コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供システム用のプログラム
KR20230071941A (ko) * 2021-11-17 2023-05-24 주식회사 제네시스랩 인터랙티브 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272407A (ja) * 1998-03-24 1999-10-08 Dainippon Printing Co Ltd ストレスチェッカー付き端末装置
JP2001137547A (ja) * 1999-11-16 2001-05-22 Namco Ltd ゲーム装置
JP2005018656A (ja) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd 運転者状態検出装置
JP2005258820A (ja) * 2004-03-11 2005-09-22 Toyota Motor Corp 感情誘導装置及び感情誘導方法
JP2006123136A (ja) * 2004-11-01 2006-05-18 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2006285531A (ja) * 2005-03-31 2006-10-19 Advanced Telecommunication Research Institute International 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の視線方法を実行させるためのプログラム
JP2006319610A (ja) * 2005-05-12 2006-11-24 Matsushita Electric Ind Co Ltd 撮像装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272407A (ja) * 1998-03-24 1999-10-08 Dainippon Printing Co Ltd ストレスチェッカー付き端末装置
JP2001137547A (ja) * 1999-11-16 2001-05-22 Namco Ltd ゲーム装置
JP2005018656A (ja) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd 運転者状態検出装置
JP2005258820A (ja) * 2004-03-11 2005-09-22 Toyota Motor Corp 感情誘導装置及び感情誘導方法
JP2006123136A (ja) * 2004-11-01 2006-05-18 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2006285531A (ja) * 2005-03-31 2006-10-19 Advanced Telecommunication Research Institute International 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の視線方法を実行させるためのプログラム
JP2006319610A (ja) * 2005-05-12 2006-11-24 Matsushita Electric Ind Co Ltd 撮像装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015231443A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラム及びゲームシステム
WO2016157944A1 (ja) * 2015-03-31 2016-10-06 シャープ株式会社 ロボット
JP2016193466A (ja) * 2015-03-31 2016-11-17 シャープ株式会社 ロボット
WO2018034113A1 (ja) * 2016-08-16 2018-02-22 株式会社デイジー コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供システム用のプログラム
JPWO2018034113A1 (ja) * 2016-08-16 2018-08-16 株式会社デイジー コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供システム用のプログラム
KR20230071941A (ko) * 2021-11-17 2023-05-24 주식회사 제네시스랩 인터랙티브 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Similar Documents

Publication Publication Date Title
KR102196380B1 (ko) 사용자의 감정 상태들을 사용하여 가상 이미지 생성 시스템을 제어하기 위한 기술
CN106170083B (zh) 用于头戴式显示器设备的图像处理
US8044989B2 (en) Mute function for video applications
TWI255141B (en) Method and system for real-time interactive video
US11178456B2 (en) Video distribution system, video distribution method, and storage medium storing video distribution program
JP4877762B2 (ja) 表情誘導装置および表情誘導方法、表情誘導システム
US20160144278A1 (en) Affect usage within a gaming context
JP2005242567A (ja) 動作評価装置及び方法
US20210312167A1 (en) Server device, terminal device, and display method for controlling facial expressions of a virtual character
JP2006293979A (ja) コンテンツ提供システム
JP2005346471A (ja) 情報処理方法、情報処理装置
Li et al. Buccal: low-cost cheek sensing for inferring continuous jaw motion in mobile virtual reality
JP2023036740A (ja) 動画配信システム、動画配信方法、及び動画配信プログラム
JP2008186075A (ja) インタラクティブ画像表示装置
US20200250498A1 (en) Information processing apparatus, information processing method, and program
EP1944700A1 (en) Method and system for real time interactive video
TWI240891B (en) Method of controlling the computer mouse by tracking user's head rotation and eyes movement
JP6945693B2 (ja) 動画再生装置、動画再生方法、及び動画配信システム
JP7198892B2 (ja) 動画再生装置、動画再生方法、及び動画配信システム
JP6731532B1 (ja) 動画再生装置、動画再生方法、及び動画配信システム
WO2022224732A1 (ja) 情報処理装置及び情報処理方法
KR20220112099A (ko) 실재감 있는 디지털 휴먼 튜터 생성 방법 및 시스템
GB2621868A (en) An image processing method, device and computer program
Yusoff et al. Head Movement Quantification and Its Role in Facial Expression Study

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110908

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111004