JP2006277192A - 映像表示システム - Google Patents
映像表示システム Download PDFInfo
- Publication number
- JP2006277192A JP2006277192A JP2005093867A JP2005093867A JP2006277192A JP 2006277192 A JP2006277192 A JP 2006277192A JP 2005093867 A JP2005093867 A JP 2005093867A JP 2005093867 A JP2005093867 A JP 2005093867A JP 2006277192 A JP2006277192 A JP 2006277192A
- Authority
- JP
- Japan
- Prior art keywords
- video
- content
- user
- monitor
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
Abstract
【課題】 脳障害者などの鑑賞者の興味に応じたコンテンツを重点的に表示させる映像表示システムを提供する。
【解決手段】 この発明の映像表示システムは、複数の映像コンテンツを有する映像コンテンツ供給装置と、この映像コンテンツ供給装置から与えられる複数の映像を1つの画面に領域を分割して表示するモニタ1と、人間の顔領域を含む対象画像の画像データを撮影して取得するビデオカメラ11と、このカメラ11からの画像データに基づき被撮影者の動作を検出し、この検出出力に応じて被撮影者のモニタ1に表示されているコンテンツへの集中度を判定してモニタ1に表示させる映像コンテンツを選択し、モニタ1に選択したコンテンツ映像を与えるように制御するコンピュータと、を備える。
【選択図】 図1
【解決手段】 この発明の映像表示システムは、複数の映像コンテンツを有する映像コンテンツ供給装置と、この映像コンテンツ供給装置から与えられる複数の映像を1つの画面に領域を分割して表示するモニタ1と、人間の顔領域を含む対象画像の画像データを撮影して取得するビデオカメラ11と、このカメラ11からの画像データに基づき被撮影者の動作を検出し、この検出出力に応じて被撮影者のモニタ1に表示されているコンテンツへの集中度を判定してモニタ1に表示させる映像コンテンツを選択し、モニタ1に選択したコンテンツ映像を与えるように制御するコンピュータと、を備える。
【選択図】 図1
Description
この発明は、映像表示システムに係り、特に、観察者に興味を抱かせる映像コンテンツを表示する映像表示システムに関するものである。
痴呆や事故などによる脳障害者を介護する介護者を支援する目的で作成される「思い出ビデオ」というコンテンツが存在する。思い出ビデオは脳障害者に対して、ビデオ映像への集中を促し、徘徊などの危険行為を抑制したり、ビデオ映像への集中時間を作り出すことによって、脳障害者の問題行為の抑制のために心理的な安定を引き出したり、介護者の自由時間を確保する目的で提案され、その有効性が臨床の現場で報告されている(例えば、非特許文献1参照)。
上記した「思い出ビデオ」は、脳障害者の昔のアルバムから作成したスライドショーに映像エフェクトを施し、BGMやナレーションを加え、視聴者にとって魅力的なコンテンツとして編集したものである。
痴呆や事故などによる脳障害者を介護する介護者にとって、患者がビデオ映像に心を集中し、じっとしている時間が増えれば、負荷が軽減される。しかし、同じコンテンツのビデオ映像を流し続けておくと、脳障害者が、興味を無くして、退屈してしまうという問題がある。そこで、予め複数のコンテンツのビデオ映像を用意しておき、興味を無くして飽きてきたら、コンテンツが異なるビデオ映像に切り替えて、引き続き興味を引きつけ、ビデオ映像を鑑賞する時間を増やすことが考えられる。しかし、脳障害者がコンテンツの異なるビデオ映像に能動的に自分で選んだり、切り替えたりすることは不可能な場合が多い。また、介護者がコンテンツを切り替える場合には、介護者への負担が生じることになる。
また、ある程度時間が経過すると、コンテンツの異なるビデオ映像に自動的に切り替えるように構成することもできる。しかしながら、興味を抱いて鑑賞しているビデオ映像を突然他のビデオ映像に切り替えると、脳障害者等にとって気分を害することになり、かえって逆効果になる。
安田清ほか:痴呆症者への思い出ビデオの作成と集中度の評価、第28回高次脳機能障害学会総会(2004)
安田清ほか:痴呆症者への思い出ビデオの作成と集中度の評価、第28回高次脳機能障害学会総会(2004)
表示されているビデオ映像に鑑賞者が興味を持っているか否かを判断し、この判断結果に応じて、コンテンツ映像を切り替える制御を行なえばより長く鑑賞者を楽しませることができる。鑑賞者が、興味を抱いているか否かの検出は、例えば、鑑賞者に装着した脈拍形、血圧計、脳波計などの生理情報検出装置を用いて行うことができる。しかし、脳障害者は、装着型の機器は好まなく、すぐ外してしまう傾向がある。
そこで、この発明は、脳障害者などの鑑賞者に、計測機器を装着せずに、鑑賞者が興味あるコンテンツを選好し、鑑賞者の興味に応じたコンテンツ切り替えを行い鑑賞者が興味を持つコンテンツを重点的に表示させる映像表示システムを提供することを目的とするものである。
この発明の映像表示システムは、複数の映像コンテンツを有する映像供給手段と、この映像供給手段から与えられる複数の映像を表示する表示手段と、人間の顔領域を含む対象画像の画像データを撮影して取得する撮影手段と、この撮影手段からの画像データに基づき被撮影者の特徴を検出する検出手段と、この検出手段の出力に応じて被撮影者の表示手段への集中度を判定する判定手段と、この判定手段に応じて前記表示手段に表示された複数の映像コンテンツの中から1つの映像コンテンツを選択して前記表示手段に表示させる手段と、備えたことを特徴とする。
前記表示手段に複数のコンテンツの映像を同時に表示、または時分割で表示するように構成すればよい。
また、前記検出手段は、被撮影者の視線の向きを検出するように構成し、前記判定手段は、前記検出手段で検出した視線の向きがコンテンツに向いている時間を計測し、その計測結果に応じて集中度を判定するように構成できる。
また、前記検出手段は、被撮影者の瞳孔の大きさを検出するように構成し、前記判定手段は、前記検出手段で検出した瞳孔の大きさに応じて集中度を判定するように構成できる。
また、前記映像供給手段は、複数の映像コンテンツを格納する記憶手段を備え、前記判定手段に応じて前記記憶手段から映像コンテンツを読み出すように構成することができる。
この発明によれば、鑑賞者が興味を有するコンテンツを選択してその映像を重点的に表示させることができる。また、興味を無くして飽きてきたら、コンテンツが異なるビデオ映像に切り替えて、引き続き興味を引きつけることができるので、ビデオ映像を鑑賞する時間を増やすことができる。更に、興味を抱いて鑑賞しているビデオ映像を突然他のビデオ映像に切り替えることもなくなり、脳障害者等のユーザの気分を害する虞もない。
この発明の実施の形態について図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付し、説明の重複を避けるためにその説明は繰返さない。図1はこの発明の実施形態にかかる映像表示システムの構成を示す概略図、図2は、この発明の実施形態にかかる映像表示システムの構成を示すブロック図、図3は、この発明の映像表示システムにおけるコンピュータ10の構成を中心にしたブロック図である。
図1に示すこの発明の映像表示システムは、パーソナルコンピュータ、ワークステーションのようなコンピュータ10を含み、ユーザ3の興味に応じてCRT、液晶表示装置、プラズマディスプレイ装置、プロジェクタなどのモニタ1に表示させる映像のコンテンツを選択し、更に、集中度に応じて表示されているコンテンツを切り替えるものである。ここで、集中度は、脳障害者などのユーザ3が、モニタ1に表示されているコンテンツ映像に対して、興味を抱いて注視している状態を測定した興味の程度のことをいう。
人は、興味を抱く刺激に対しては瞳孔の拡大現象を示すことが知られている。また、興味があるコンテンツ映像が表示されていると、そのモニタ1を注視するし、逆に、興味が無いあるいは薄れてゆくとモニタ1から顔や視線を逸らす度合いが多くなると考えられる。そこで、この実施形態では、顔の向き、視線などの注視状態だけでなく瞳孔の大きさなどでもユーザの集中度を測定するものである。
この図1に示すように、椅子2に腰掛けたユーザ3の集中度を非接触で検出し、検出結果に応じてコンピュータ10が、映像コンテンツ供給装置20としての映像再生装置21〜24を選択して、ユーザが興味を示している映像を表示させる。この実施形態では、ユーザ3の集中度を検出するために、ユーザ1を撮像するビデオカメラ11と赤外線カメラ12が設けられる。このビデオカメラ11、赤外線カメラ12で撮像した映像をコンピュータ10に取り込む。ビデオカメラ11からの画像データにより、コンピュータ10が非接触顔追跡手法を利用し、顔の向き、視線の変化を検出する。また、赤外線カメラ12からの画像データにより、コンピュータ10がユーザ3の瞳孔の大きさを検出し、瞳孔の拡大現象を検出する。また、ビデオカメラ11には、図示しないがマイクを内蔵している。このマイクより、ユーザ3の発話などを集音する。
コンピュータ10は、ユーザ3の顔の向き、視線、瞳孔の大きさなどにより、モニタ1に表示されている映像のコンテンツに対するユーザの興味を判断するものである。そして、この判断結果に応じて映像コンテンツを選択してモニタ1にユーザ3の意図を反映した表示がなされる。このとき、コンテンツが音声を含む場合には、モニタ1内蔵のスピーカより音声が出力される。そして、表示されているコンテンツへの興味が薄らぐとモニタ1に表示するコンテンツが切り替えられる。このように、映像再生装置21〜24の信号を切り替えて、ユーザ3が興味を示す映像をモニタ1に与えるものである。また、マイクからの集音により、ユーザ3の集中度を判断するように適用しても良い。
図2はかかる映像システムの構成を示すブロック図である。図2に示すように、この映像システムは、上述したように、モニタ1、コンピュータ10、コンピュータ10により制御される映像コンテンツ供給装置20と、映像コンテンツ供給装置20から与えられる映像信号を合成または選択してモニタ1に与えるコンテンツ合成切替装置30と、ユーザに応じて注視時間を設定する設定入力手段40と、ユーザを撮像するビデオカメラ11と、赤外線カメラ12と、ユーザの声などを集音するマイク13と、を備える。
コンテンツ合成切替装置30は、映像コンテンツ供給装置20から供給される複数の映像信号を1つの画面の映像として供給したり、映像コンテンツ供給装置20から与えられる複数の映像信号の中からユーザが興味を抱いていると判断された所定のコンテンツにかかる映像を選択して供給する。ビデオカメラ11、赤外線カメラ12から出力される画像データは、コンピュータ10へ与えられる。また、マイク13にて集音されたユーザが存在する場ないし空間の音音声又は動作音に対応する音声信号(音声データ)がコンピュータ10へ与えられる。
映像コンテンツ供給装置20には、この実施形態では、4つの映像再生装置21〜24を備え、各映像再生装置21〜24には、それぞれ異なるコンテンツの映像が再生できるように構成されている。この映像再生装置21〜24は、DVDやビデオテープなどの映像メディア媒体を再生するものである。例えば、映像再生装置21には、思い出ビデオの内容のコンテンツの映像媒体が装填され、映像再生装置22には、相撲などのスポーツの内容のコンテンツの映像媒体が装填され、映像再生装置23には、ニュースなどの内容のコンテンツの映像媒体が装填され、映像再生装置24には、自然番組などの内容のコンテンツの映像媒体が装填される。これら映像再生装置21〜24は、コンピュータ10の制御に基づき、オンオフ、再生、停止等の動作が制御される。また、映像再生装置21…は、記録された映像メディアだけでなく、リアルタイムで放送されているTV番組、TV電話などの映像等も供給できるように構成されている。
そして、これら映像再生装置21〜24の映像信号はコンテンツ合成切替装置30に与えられ、このコンテンツ合成切替装置30は、コンピュータ10からの制御信号に基づき、ユーザ3がコンテンツを選ぶための映像表示態様やユーザ3が選好したと判断したコンテンツの映像を供給するために、映像再生装置21〜24からの映像信号を合成または選択した映像に切り替え、そして、対応した映像信号をモニタ1に与える。
また、コンピュータ10は、モニタ1のオン/オフ制御並びにモニタに内蔵されたスピーカ14の音量、スピーカ14に与える音声信号を供給する。
図3は、この発明の映像表示システムにおけるコンピュータ10の構成を中心にしたブロック図である。この発明では、コンピュータ10により、ユーザのモニタ1への集中度の判定、この判定に基づく映像コンテンツの切替を制御するものである。このシステムを構成するコンピュータ10は、それぞれバス110に接続されたCPU(Central Processing Unit)101、起動用プログラムが格納されたROM(Read Only Memory)102、ワークメモリなどとして用いられるRAM(Random Access Memory)103、ハードディスクドライブ104を備える。
更に、このコンピュータ10は、ビデオカメラ11、赤外線カメラ12からの画像を取り込むための画像取り込み装置105,マイク13からの音声データを取り込むための音声取り込み装置106を備え、これら画像取り込み装置105、音声取り込み装置106がバス110と接続されている。更に、フロッピィディスク(FD)が装填され、データの読み取り/書き込みを行うフロッピィディスクドライブ(FDD)装置107、CD−ROM、DVD−ROM等の光ディスク装填され、光ディスクに格納されたソフトウェアなどのデータを読み込む光ディスクドライブ装置108を備え、これら両ドライブ107,108からのデータはバス110を介してハードディスクドライブ104などに与えられる。CPU101からの制御信号は、インタフェース回路109を介して映像コンテンツ供給装置20,コンテンツ切替装置30及びモニタ1に与えられる。
設定入力手段40は、テンキーなどを含むキーボードやボリュームコントロールなどで構成され、ユーザ3によって1つの場所を注視する時間が違う場合があるため、介護者がこの設定入力手段40により、注視する時間を設定する。設定入力手段40からの指示入力は、インターフェース回路109を介してバス110からCPU101に取り込まれる。
さらに、この装置は、音声合成装置111を備え、ユーザ3に対するコメントなどが音声合成装置111にて合成され、スピーカ14から合成された音声が出力される。この音声合成回路111からは、ユーザ3が好んでいる人の声に基づいて音声を合成し、出力するように構成すれば、ユーザ3にとって気分良く指示の言葉を認識できる。
この映像表示システムの動作は、コンピュータ10のハードウェアとCPU101により実行されるソフトウェアとにより実現される。一般的にこのようなソフトウェアは、CD−ROM、DVD−ROM、FD等の記憶媒体に格納されて流通し、光ディスクドライブ108、FDD107等により、記憶媒体から読み取られ、ハードディスクドライブ104にそのソフトウェアが格納される。また、当該装置がネットワークに接続されている場合には、サーバからハードディスクドライブ104にソフトウェアを格納するように構成できる。そして、ハードディスクドライブ104からRAM103に読み出されCPU101により実行される。
また、ビデオカメラ11、赤外線カメラ12からの画像データは画像取り込み装置105、バス110を経てRAM103及びハードディスクドライブ104に与えられる。また、マイク13からの音声データも同様に音声取り込み装置106、バス110を経てRAM103及びハードディスクドライブ104に与えられる。
次に、この発明の映像表示システムにおけるユーザの集中度等を検出する方法につき説明する。
この発明は、選好注視法を利用した選好の測定と、興味を引く刺激に対しては瞳孔が拡大するという現象に基づく興味の測定を利用してユーザ3の集中度等を検出するものである。
視覚刺激に対する選好を調べる選好注視法で知られているように、被験者の全面に2つのターゲットを出しておき、片方は中性的であまり興味のない刺激、もう片方は興味の対象となる刺激を提示する。興味のある対象を選好するならそのターゲットを注視する時間が増加する。そこで、この実施形態では、ユーザ3の視線を推定し、ユーザ3の視線が向いている時間の長いコンテンツを調べることで、ユーザ3の選好を推定するものである。そのため、ユーザ3の顔の向きと視線の向きを推定する。
まず、この発明の映像システムは、ビデオカメラ11によりユーザ3の顔を撮像してるか否か判定し、撮像しているならその位置と向き並びに視線を抽出して追跡を行う。そのため、ビデオカメラ11で撮像し、その画像取込み装置105から与えられる画像データをCPU101が判定する。この実施形態では、CPU101は、顔の検出に2段階のステップを踏む。まず、ビデオカメラ11より得た画像データより、粗く顔の候補点を拾い出し、絞った候補点に対して精度の高い顔らしさの判定を実施する。顔らしさの判定のプロセスで目の位置を抽出し、両目の位置に基づいて鼻位置を抽出する。顔の向きは目と鼻の相対位置関係から推定する。顔の追跡は、両目の中点パターンを毎フレーム更新しながらテンプレートマッチングで追跡する。
顔候補点の抽出につき説明する。顔候補点の抽出プロセスでは、まず、図4に示すように、6つのセグメントに分割した一定サイズの矩形枠で全画面を走査する。セグメントSiの領域の平均濃度を[Si]で表す。左右の目や眉がそれぞれS1とS3に入った場合の顔の一般的な濃淡パターンから、次の(1)(2)式で示す不等式が成立すると期待できる。
[S1]<[S2] 且つ [S1]<[S4] …(1)
[S3]<[S2] 且つ [S3]<[S6] …(2)
[S3]<[S2] 且つ [S3]<[S6] …(2)
そこで、不等式(1)(2)が同時に満たされる枠は顔候補とする。このようなフィルタを、ここでは6分割矩形(SSR:Six−Segmented Rectangular)フィルタと呼ぶことにする。
SSRフィルタを高速で計算するために、中間画像としてintegral imageを利用する。画像f(x、y)に対してintegral image(ii)は次の式(3)のように定義される。
このintegral imageを次のように、ワンパスで計算することができる。
ここで、S(x,y)は行の累積値で、s(−1,y)=0,ii(x.−1)=0とする。
integral imageを利用すると、任意の矩形領域Dの画素値の総和はそのコーナーの座標を(x1,y1)、(x2,y1)、(x1,y2)、(x2,y2)とすると、その4点の値から次のように計算できる。
したがって、SSRフィルタ計算は、フィルタの大きさによらず一定時間で処理できる。
顔の大きさは予め知ることはできないので、例えば、入力画像320×240に対して、120×72、80×48、60×36、40×24、30×18の5種類のフィルタを適用する。
この実施形態で使用したSSRフィルタのセグメントの比は図4の記号でw1=4、w2=2、w3=4、h1=h2=3である。
現実には不等式(1)(2)を満たす点は塊で現れるので、そのクラスターの中心を1つの顔候補とする。
背景の中の顔の写真などを顔候補として抽出しないように、背景差分を利用して、顔候補領域に動きが生じていることを確認することにしている。
次に、顔、非顔の判定を行う。候補点が顔か非顔かの判定には、機械学習アルゴリズムの1つであるSupport Vector Machine(SVM)を適用した。ヘアスタイルや髭などの影響を小さくするため、SVMの学習パターンには、額や口の領域を含めないことにした。図5に典型的な学習パターンの一例を示す。パターンの大きさは35×21である。スケールと回転は目の座標によって正規化する。この例では、両目間の距離は23画素で、目は上から8画素目の列に水平に並んでいる。そしてヒストグラム平坦化の処理で濃度も正規化されている。
候補点をSVMにインプットする前に、そのパターンは学習パターンと同じように正規化する必要がある。そこで、SSRフィルタの(S1+S4)と(S3+S6)の各領域で最も暗い点と2番目に暗い点を目の候補として抽出する。SSRフィルタで抽出された1つの顔候補に対して最大4つのパターンがSVMで確かめられることになる。2番目に暗い点までの目の候補とするのは、眉が目より暗く撮像されるケースが少なくないからである。
SVMによる顔・非顔判定プロセスで目の位置も抽出される。目の追跡処理で問題になるのは、瞬きによって目の形状パターンが瞬間的に大きく変化することである。そのため、目のテンプレートを毎フレーム更新しても追従することができない。そこで、この実施形態では、目に代わって眉間を追跡し、その結果を基に目を再度検出する手順を採用している。眉間のパターンは顔表情が変化してもかなり安定しており、また額部と鼻筋は比較的明るく、両側の目部分が楔状に暗いパターンとなっているため位置決めしやすい。眉間追跡後、目はその両サイドに、前フレームと相対的に同じ位置に暗い領域として再探索される。追跡結果は、SVMによって顔らしさを確認する。
眉間のパターンは毎フレーム更新することにより、顔の向きの変化に対応する。顔の見かけの大きさの変化に対応するため、サブサンプリングによる2/3,1/2,1/3,1/4,1/6の一連の縮小画像を用意して、両目間の距離に応じて、追跡用の縮小画像が決定される。その結果、顔の見かけの大きさが大きく変化しても追跡用のテンプレートのサイズは固定サイズで対応できる。
次に、鼻頭の検出と追跡につき説明する。両目の位置が見つけ出されると、鼻頭を抽出するのは難しくはない。鼻頭は凸形状で皮膚の皺も少ない。従って、照明の方向が異なっても、鼻頭のどこかにハイライトが生じる。図6は目に対して相対的な鼻頭の探索領域を示している。この領域内の最も明るい点が鼻頭候補である。そして、その点が両目から等距離になったならば鼻頭として追跡を開始する。鼻頭の追跡においても、更新型テンプレートのサイズは固定サイズで対応できる。追跡の結果が、図6の領域からはずれた場合には誤追跡として判断し、再度検出処理から始める。
次に、顔の向きの推定処理につき説明する。精度の高い顔の向きの推定には、顔の特徴点の三次元位置を計測するステレオシステムが必要であるが、ここでは、対象者が正面を向いているか否かの判定を行うため、シングルカメラの方法を採用している。
一般に、正面顔の画像では左右の目から鼻頭までの距離はほぼ等しい。そこで、図7に示すように、両目を結ぶラインに鼻頭から垂線を下ろし、その垂線の足が両目の中点からどれくらい離れているかによって、正面を向いているか横方向を向いているかを判定する。高精度は期待できないが、シングルカメラの場合、ロングショットの画像にも適用できる利点がある。
両目と鼻頭の座標を(x1,y1)、(x2,y2)、(x3.y3)とし、x2−x1=x21,y2−y1=y21とすると、垂線の足の座標は次の式のようになる。
上記の式によれば、rの符号は顔が左右のどちらを向いているかを表し、絶対値はその度合いを表す。
また、同様にして、顔が下へ向いているか上へ向いているかは、両目を結ぶラインに鼻頭から垂線を下ろし、その垂線の距離を測定することで、判定できる。垂線の距離が正面でモニタ1を注視している状態より小さくなれば、顔が下または上を向いていると判断でき、更に鼻頭の輝度により、下を向いているか、上を向いているか判断できる。上を向くと鼻頭は明るくなり、下を向くと鼻頭は暗くなる。
上記の処理で検出した目は、単に暗い領域として抽出されるだけであるので、視線の推定には、さらに詳しい解析を行う。
図8は、この実施形態における視線方向推定処理の動作を示すフローチャート、図9は、目の領域の解析の状態を示す模式図であり、開眼時の虹彩と上下瞼の抽出例を示している。
図8のフローチャートに示すように、視線方向推定処理を開始すると、上記のビデオカメラ11からの画像により、正面顔を検出する(ステップS1)。続いて、検出した正面顔のデータから暗い領域として抽出された目の位置を手がかりに、目領域内のエッジを抽出する(ステップS2)。
次に、図9に示すように上瞼のエッジ51を選択する(ステップS3)。この時、目が開いているか閉じているかが不明なときでも上瞼のエッジ51は比較的安定して抽出できる。続いて、この上瞼のエッジ51に沿ってその下部に両目間距離に比例した虹彩サイズの円形領域の平均濃度が最も低い領域を虹彩候補として探索する(ステップS4)。
次に、虹彩候補位置の下瞼のエッジ52を抽出する(ステップS5)。そして、目の開閉判定を行う(ステップS6)。この開閉判定は、抽出した下瞼のエッジ52と上瞼のエッジ51との距離が閾値以下なら閉眼と判定する。閉眼と判定すると視線の方向は判定できないので、この処理を終了する。図9に示す開眼時の虹彩と上下瞼の抽出例を示している。このとき、虹彩53の両サイドに俗に白眼と呼ばれる強膜54が見えている。眼球が左右に回転するとこの強膜54の面積の左右の比が変化する。ステップS7においては、虹彩53の両サイドの強膜面積を抽出する。そして、抽出した左右の強膜面積の比から虹彩が正面向き方向から左右どれぐらい回転しているか判定することにより、視線方向を推定し(ステップS8)、この処理が終わる。
次に、瞳孔の測定処理につき説明する。人間の網膜は近赤外線光に対して高い反射率を有する。また、瞳孔を通って眼球内に入った光は再び瞳孔より射出するため、入射光と同一方向に光が戻る再帰反射となる。そこで、この実施形態では、図10に示すように、近赤外線LED121を有する赤外線カメラ12にて瞳孔部分を撮像する。カメラの光軸と近赤外線LED121の光軸とを同軸に近い赤外線カメラ12を用いることで、網膜30反射し、再帰反射した光が可視光カットフィルタ122を通り、レンズからCCDに撮像されることにより、瞳孔部分を明るく撮像することができる。
図11は瞳孔測定処理を示すフローチャートである。このフローチャートに示すように、瞳孔測定は、まず、赤外線カメラ12から眼の領域の画像データ抽出する(ステップS10)。続いて、得られた画像データは空間的な微分フィルタを用いて瞳孔部分のみを強調する処理を行う(ステップS11)。この処理は、瞳孔径は平均で約5mm程度であるので、ある注目画素f(x、y)に対して平均瞳孔径Δ(5mm)だけ離れた上下左右の画素間で差分を取る微分演算を行うことで瞳孔強調処理を行う。微分演算式を以下に示す。図12の瞳孔強調フィルタの関係を示す模式図で示すように、ここで、撮像画像の解像度が0.34mmとすると、Δ=15画素となる。
続いて、瞳孔部分の面積を算出する(ステップS12)。強調処理を行った後、適当な値で2値化処理を行う。ここまでの処理で得られた2値画像の殆どは瞳孔部分の画素のみである。そして、この2値画像を用いて瞳孔部分の面積を算出して、瞳孔測定処理を終える。
さて、この発明の映像表示システムは、大まかにキャリブレショーンフェーズ、コンテンツ選択フェーズ、選好コンテンツ提示フェーズという3つのフェーズにより、複数のコンテンツの中からユーザ3が最も興味を示すコンテンツを選び、そのコンテンツの映像をモニタ1に表示させるものである。ユーザ3の興味、集中度を測定するために、上述した視線方向推定処理と瞳孔測定処理をビデオカメラ11,赤外線カメラ12の画像からコンピュータ10が判断するものである。
キャリブレーションフレーズは、ユーザ3の何もコンテンツを提示しないときの瞳孔の平均値を求めるフレーズである。このフレーズでユーザ3の瞳孔の平均値と視線方向の推定における中心あわせを行っておく。
次に、コンテンツ選択フェーズは、モニタ1に複数のコンテンツを同時に1画面を分割して表示し、ユーザ3の視線を視線方向推定により検出し、どのコンテンツに注視しているか判別する。例えば、4つのコンテンツを1画面に同時に表示すると、図1に示す左上1a、左下1c、右上1b、右下1dにそれぞれのコンテンツが表示される。コンピュータ10は検出したユーザ3の視線が4つのどこに向いているにより、どのコンテンツを注視しているか判別する。例えば、視線が右上の方に一定時間向いている場合には右上に表示されているコンテンツ1bを注視していると判断する。さらに、赤外線カメラ12の画像から瞳孔径を測定しており、瞳孔径が平均値よりも大きければ、そのコンテンツが好まれたと判断する。
続いて、選好コンテンツ提示フェーズでは、コンテンツ選択フェーズで、4分割されたなかのコンテンツのうち好まれたと判断したコンテンツの映像をモニタ1の画面全面に表示する。そして、ユーザ3の集中度を引き続き測定する。もし、視線がモニタ1からはずれることが多くなったり、瞳孔径が平均値より小さくなってきた場合には、現在表示されているコンテンツに飽きてきたとみなし、他のコンテンツに切り替えるために、コンテンツ選択フェーズに戻り、複数のコンテンツをモニタ1に提示する。このサイクルを繰り返し、ユーザ3が興味を抱くコンテンツを逐次提示させることができる。
上記したこの第1の実施形態の制御につき、図13、図14のフローチャートに従い更に説明する。この第1の実施形態は、キャリブレーションフェーズ後、モニタ1に4つの異なるコンテンツの映像を上下左右に分割して表示し、ユーザ3に興味のあるコンテンツを選好してもらうように構成したものである。
まず、動作を開始すると、モニタ1の表示画面をクリア並びに他の設定も初期化する(ステップS21)。続いて、キャリブレーション用光点の表示に移り(ステップS22)、コンピュータ10はモニタ1にキャリブレーション画像を送り、モニタ1の中心に例えば1cm大の光点を点滅表示させる。
そして、コンピュータ10は、音声合成装置111を動作させ、「画面の点を見て下さい」というメッセージを出力すると共に、モニタ1にも「画面の点を見て下さい」というメッセージを表示させる(ステップS23)。
続いて、コンピュータ10は、ビデオカメラ11で撮像した画像からユーザ3の視点を推定し算出する(ステップS24)。そして、ユーザ3がモニタ1の中心点滅光点を見ているかどうか算出したユーザ3の視点により判断する(ステップS25)。光点を見ていない場合には、ステップ23に戻り、前述の動作を繰り返す。なお、ステップ23の動作には、直ちに戻るのではなく、所定時間、例えば3秒間経過後に戻るように構成している。直ちに、ステップS23の動作に戻ってもまだユーザ3は光点を見ていない場合が多いのである程度時間を開けた方が良いからである。
ステップS25において、ユーザ3が光点を見ていると判断すると、無選好状態の瞳孔面積を測定する為に、コンピュータ10は、赤外線カメラ12の画像データから上述した方法に基づいて、1秒間ユーザ3の瞳孔の面積または径を計測する。そして、この実施形態では、瞳孔の拡大を面積で判断するので、面積を計測する。この計測した面積を無選好瞳孔面積(NDP)とし、メモリ103、ハードディスク104に記憶させておく(ステップS26)。
続いて、モニタ1にコンテンツ基準画面を表示する(ステップS27)。このコンテンツ基準画面は、この実施形態では、4つの異なるコンテンツ画像を同時にモニタ1に表示させる。このため、映像再生装置21から24からそれぞれのコンテンツ映像をコンテンツ合成切替装置30に送り、4つの映像を1つの画面に上下左右に分けて合成しモニタ1に表示させる。この例では、映像再生装置21には、思い出ビデオの内容のコンテンツの映像媒体が装填され、映像再生装置22には、相撲などのスポーツの内容のコンテンツの映像媒体が装填され、映像再生装置23には、ニュースなどの内容のコンテンツの映像媒体が装填され、映像再生装置24には、自然番組などの内容のコンテンツの映像媒体が装填されている。まず、コンピュータ10は、例えば、左上の領域1aに思い出ビデオ表示し、左下の領域1cに相撲などのスポーツを表示し、右上の領域1bにニュースを表示し、右下の領域1dに自然番組を表示させる。
コンピュータ10は、ビデオカメラ11からの画像に基づき、ユーザ3の視線方向求め(ステップS28)、赤外線カメラ12からの画像に基づき、ユーザの瞳孔の面積を求める処理(ステップS29)を続ける。
続いて、ユーザ3の視線がモニタ1の外にあるか否か判断し(ステップS30)、モニタ1の外を見ていると判断すると、「画面を見て下さい」という音声メッセージを音声合成装置111が合成して出力し、モニタ1の画面内に視線を誘導し、ステップ28に戻り前述の動作を繰り返す(ステップS31)。
ステップS30において、ユーザ1の視線がモニタ1内にあると判断すると、ユーザ3の視線が所定時間、この実施形態では、3秒以上4つのコンテンツのうちの一つを向いていたか否か判断する(ステップS32)。ユーザ3となる患者によって注視する時間が異なる場合もあるので、介護者が設置入力手段40で所定時間が調整可能なように構成している。
そして、ユーザ3が1つのコンテンツが表示されている領域に3秒以上視線を向けていたと判断すると、その視線を向けていたコンテンツに興味があると判断し、ステップS36に進む。一方、コンテンツに3秒以上視線を向けていない場合には、視線を向けたコンテンツで瞳孔面積が先に算出したNDPより大きいか否か判断する(ステップS33)。コンテンツに3秒以上視線を向けていない場合であっても瞳孔面積が拡大すると興味があると判断できるので、瞳孔面積がNDPより大きくなった場合には、そのコンテンツに興味があると判断し、ステップS36へ進む。
視線が3秒以上留まっていない、また瞳孔面積が拡大していない場合にはコンテンツに興味がない場合と判断し、ステップS34で興味がない状態を示すカウンタのカウントを1つカウントアップする。これは1回の判断で興味がないと判断するのではなく、何回か繰り返し判断した後に興味があるかないかを判断するためである。続いて、カウントした値が所定回数か否か判断する(ステップS35)。この実施形態では、5回まで興味があるか否か判断するように構成しているので、5回に達していない場合には、ステップS27に戻り、前述の動作を繰り返す。
一方、ステップS32またはS33において、ユーザ3が表示されているコンテンツの中で興味を持っているコンテンツがあるとステップS36に進む。そして、ステップS36において、ユーザ3が興味があると判断したコンテンツが選好されたとして、興味を持っているコンテンツの映像再生装置からの映像をモニタ1の全面に表示させる。例えば、左上の領域1aに表示された「思い出ビデオ」を選好したと判断されると、映像再生装置21からの映像をモニタ1に表示させるように、映像コンテンツ供給装置20、コンテンツ合成切替装置30を制御し、映像再生装置21で再生されている映像をモニタ1に表示させる。そして、コンピュータ10は、ユーザの顔の向き、視線のモニターは継続している。
続いて、選好したコンテンツ映像を視聴している間、コンピュータ10はユーザ1のモニタ1への集中度の判定を行うため集中度判定処理にはいる(ステップS37)。集中度判定処理で集中していると判断されると、ステップS36に戻り、引き続き同じコンテンツをモニタ1に表示させる。一方、集中していないと判断されると、ステップS27に戻り、他のコンテンツを選択できるように、コンテンツ基準画面を表示させる。
ステップS37において、集中度判定のルーチンに入ると、ステップS40において、過去T秒間以内にユーザ3がモニタ1を見ていなかった割合γを算出する。この算出は、例えば、T秒間を1分間とすると、1分間の間で、検出したユーザの視線がモニタ1の画面を離れた時間を計測しておき、その累積時間を基準である10秒間で除した割合で算出する。このため、コンピュータ10は、T時間(1分間)の間の視線がモニタ1の画面から離れた時間を計測し、RAM102に格納している。
続いて、割合γが閾値を超えたか否か判断する(ステップS41)。ここでは、0.5、すなわち、半分の時間以上視線がモニタ1の画面からはずれたか否か判断される。閾値以下の場合には集中していると判断する。閾値を超えるた場合には、直ちに集中していないと判断するのではなく、ステップS42に進む。ステップS42では、直前のコンテンツ切り替えから所定時間(N秒)経過したか否か判断する。これはコンテンツが切り替わった直後は、モニタ1を正視していない場合があり、直ちに集中していないと判断すると、頻繁にコンテンツを切り替えることになる。また、興味があるコンテンツでも切り替えられることになる。このため、この実施形態では、一定時間、例えば120秒間経過した後も閾値を超える場合には集中していないと判断するように構成している。直前のコンテンツの切り替えから120秒経過しても、割合γ以上ユーザ3の視線がモニタ1の画面からはずれている場合には集中していないと判断する。なお、このコンテンツ切替直後の集中していないと判断するための待機時間はこの例では120秒間にしたが、ユーザの状態などでその時間を決めればよい。
集中度判定ルーチン(ステップS37)において判断された集中度により、ステップS38において、ユーザが集中しているか否か判断する。集中している場合には、ステップS36に戻り、前述の動作を繰り返す。集中していないと判断されると、ステップS27に戻り、ステップS27おいて、他のコンテンツを選択できるように、モニター1にコンテンツ基準画面を表示させる。そして、ユーザ3が次のコンテンツを選好するとその選好した映像再生装置を選び、コンテンツの切り替え動作を行って、モニタ1に表示させるコンテンツ映像を切り替える。そして、ユーザ3に選好するコンテンツがないと判断されると、動作は終了する。
上記のように構成することで、ユーザ3に興味のあるコンテンツの映像を視聴させることができ、また、ユーザ3が興味を無くして飽きてきたら、コンテンツが異なるビデオ映像に切り替えることができ、引き続き興味を引きつけ、ビデオ映像を鑑賞する時間を増やすことができる。また、興味を抱いて鑑賞しているビデオ映像を突然他のビデオ映像に切り替えることもなくなり、脳障害者等のユーザの気分を害する虞もない。
なお、上述した実施形態においては、4つの映像表示装置21から24で異なるコンテンツの映像を再生するように構成しているが、ハードディスクドライブを内蔵した映像再生装置などを用いて、複数のコンテンツをハードディスクドライブに格納しておき、格納されたデータの読み出しを制御して、コンテンツ映像を切り替えるように構成しても良い。このように構成すると、上記した映像コンテンツ供給装置20とコンテンツ切替装置30とが一体に構成され、読み出し制御でコンテンツ映像の選択、切り替えが行える。
更に、モニタ1に表示させるコンテンツとしては、記録した映像コンテンツに限らず、テレビ電話、テレビ放送などのライブ映像、CGなどのコンピュータグラフィックなどを映像コンテンツの一つとして用い、これらコンテンツを選択し、切り替えるように構成しても良い。
次に、この発明の第2の実施形態につき、図15のフローチャートに基づき説明する。第1の実施形態においては、提示するコンテンツが4つを1組の場合を例にとり説明した。これに対して、この第2の実施形態は、バラエティ、映画など更に別のコンテンツを複数組有する場合である。なお、図13のフローチャートと同じ処理については同じステップ番号を用いて説明し、説明の重複を避けるためにここではその説明を割愛する。
この第2の実施形態は、キャリブレーションフェーズ後、モニタ1に、第1の候補として4つの異なるコンテンツの映像を上下左右に分割して表示し、ユーザ3に興味のあるコンテンツを選好してもらうように構成したものである。
まず、動作を開始すると、第1の実施形態と同じくステップS21からステップS23までの処理が行われる。第1の候補として提示した4つのコンテンツの中からユーザ3が興味を抱いたものがあると判断した場合には、ステップS36からS38の処理を行い第1の実施形態と同じ処理になる。
第1の実施形態においては、ステップS35で興味がない状態を示すカウンタのカウント値が所定回数以上になると動作を終了する。これに対して、この第2の実施形態においては、ユーザ3が第1の候補の中で興味を示すものがない場合には、別の組のコンテンツに切り替えてユーザ3に提示するように構成している。このため、ステップS35において、興味がない状態を示すカウンタのカウント値が所定回数以上になるとステップS35aに進み、ステップ35aにて、今まで提示した以外の他のコンテンツがあるか否か判断する。複数組のコンテンツ全てを提示した場合には、もう提示するコンテンツはないので、動作を終了する。
提示する他のコンテンツがある場合には、ステップS35bに進み、別のコンテンツの組を選びモニタ1に提示すべき基準画面を入れ替えしてステップS27に戻る。
ステップS27においては、入れ替えられたコンテンツに基づき基準画面を表示し、前述と同様に、ユーザ3がどのコンテンツに興味を抱いたかを検出する処理を行い、ユーザ3が興味のあるコンテンツを選好すると、ステップS36からS38の処理を行い、ユーザ3が選好したコンテンツ映像を鑑賞する。
このように、この第2の実施形態では、多種類のコンテンツを用意することができ、ユーザ3が好むコンテンツを幅広く用意することができる。また、コンテンツが異なるビデオ映像に多数切り替えることができ、引き続き興味を引きつけ、ビデオ映像を鑑賞する時間を増やすことができる。
なお、上記第2の実施形態において、選好したコンテンツを表示していた時間を計測しておき、その時間をハードディスクドライブ104等に記憶させておくように構成しても良い。このように構成すると、表示された色々なコンテンツの中でのユーザが集中していた時間を取得することができる。この取得した時間に基づき、次回以降興味を持っていたと思われるコンテンツを優先的に表示させるように映像コンテンツ供給装置20を制御することができる。
また、上記第1、第2の実施形態においては、視線追跡でコンテンツに視線が向いている時間だけでなく、瞳孔の拡大の有無も用いてユーザ3の選好の検出に用いているが、視線の追跡だけでユーザ3の選好の検出を行っても良い。なお、この場合には、視線が向いている時間を適宜調整して、ユーザ3に動作に合うように調整することが好ましい。
また、モニタ1にコンテンツ選好時にモニタ1に同時に提示するコンテンツは、上記の第1、第2の実施形態においては4個に構成したが、同時に提示するコンテンツの数は必要に応じて2個、6個、8個など変更することもできる。
次に、この発明の第3の実施形態につき、図16のフローチャートに基づき説明する。第1、第2のの実施形態においては、1つのモニタ1の画面に複数のコンテンツを同時に提示しているが、この実施形態では、時系列的に複数のコンテンツをモニタ1に表示させる場合である。なお、図13、図15のフローチャートと同じ処理については同じステップ番号を用いて説明し、説明の重複を避けるためにここではその説明を割愛する。
この第3の実施形態は、キャリブレーションフェーズ後、モニタ1に、順次、時系列的に異なるコンテンツの映像を全面に表示し、表示されたコンテンツの中からユーザ3に興味のあるコンテンツを選好してもらうように構成したものである。
第3の実施形態においても、キャリブレーションフェーズに相当するステップS21からS26まで、上記第1の実施形態と同様の処理が行われる。そして、この第3の実施形態では、複数のコンテンツから1つのコンテンツを選択し、モニタ1の全面に表示する(ステップS27a)。このステップS27aでは、例えば、10秒間1つのコンテンツを表示させる。続いて、第1の実施形態と同様に、視線方向の算出、瞳孔面積算出等の処理を行う(ステップS28〜S31)。
そして、ステップS30において、ユーザ1の視線がモニタ1内にあると判断すると、ユーザ3の視線が所定時間、この実施形態では、3秒以上視線をモニタ1の画面を向けていたか否か判断する(ステップS50)。ユーザ3となる患者によって注視する時間が異なる場合もあるので、介護者が設置入力手段40で時間を調整可能なように構成している。
そして、ユーザ3がモニタ1の画面に3秒以上視線を向けていたと判断すると、その視線を向けていたコンテンツに興味があると判断し、ステップS51に進む。ステップS51において、コンピュータ10は、表示していたコンテンツと視線を向けていた累積時間のデータをRAM103に格納させた後、ステップS54に進む。
一方、コンテンツに3秒以上視線を向けていない場合には、瞳孔面積が先に算出したNDPより大きいか否か判断する(ステップS52)。コンテンツに3秒以上視線を向けていない場合であっても瞳孔面積が拡大すると興味があると判断できるので、瞳孔面積がNDPより大きくなった場合には、そのコンテンツに興味があると判断し、ステップS53に進む。ステップS53において、表示していたコンテンツと瞳孔面積のデータをRAM103に格納させた後、ステップS54に進む。
視線が3秒以上留まっていない、また瞳孔面積が拡大していない場合にはコンテンツに興味がない場合と判断し、ステップS54に進む。また、データを格納後もステップS54に進む。
ステップS54では、表示すべき他のコンテンツがあるか否か判断し、コンテンツ全てを提示した場合には、もう提示するコンテンツはないので、ステップS56に進む。
提示する他のコンテンツがある場合には、ステップS55に進み、別のコンテンツを選びモニタ1に提示すべきコンテンツを入れ替えしてステップS27aに戻り、前述の動作を繰り返す。
全てのコンテンツの提示が終わると、ステップS54からステップS56に進む。ステップS56においては、コンピュータ10はRAM103をアクセスし、上記ステップS50,S52においてユーザ3が興味を抱いて選好したコンテンツがあるか否か判断する。選好したコンテンツがない場合には動作が終了する。
ステップS56において、選好があると判断されると、ステップS57に進み、選好されたコンテンツのうち、1番興味があると思われるものをRAM103に格納したデータに基づきコンピュータ10が判断し、そのコンテンツを選び(ステップS57)、そして、そのコンテンツをモニタ1に表示させる(ステップS36)。
ステップS57において、1番興味のあると選択する順序は、例えば、視線を向けていた時間の長いものや瞳孔面積の一番大きなものなどを基準としてコンピュータ10が選好したコンテンツの中で順序を決めておく。その順序で1番のものを選択する。
ユーザ3が興味のあるコンテンツを選好すると、ステップS36からS38の処理を行い、ユーザ3が選好したコンテンツ映像を鑑賞する。続いて、実施形態と同様にコンピュータ10はユーザ1のモニタ1への集中度の判定を行うため集中度判定処理に入り、はいる(ステップS37)。集中度判定処理で集中していると判断されると、ステップS36に戻り、引き続き同じコンテンツをモニタ1に表示させる。一方、集中していないと判断されると、ステップS27aに戻り、他のコンテンツを選択できるように、順次コンテンツを時分割で表示し、新たなコンテンツを選択する。
なお、このときコンテンツの選好に入るのではなく、予めRAM103に複数個の選好したコンテンツがあることを示すデータが格納されていると、今表示していたコンテンツの次に興味を抱いていたコンテンツを選択し、モニタ1に表示させ、この表示されたコンテンツに対して再び興味を抱いていると判断できた場合には、そのコンテンツを選好したコンテンツとしてモニタ1に表示させるように構成しても良い。このように構成すると、ユーザ3は、たびたびコンテンツを選好する作業を行うことなく、興味ある異なるコンテンツに切り替えてモニタ1に表示させることができる。
上記した実施形態においては、ユーザの集中度を視線の向きで判定しているが、ユーザが発する声、手拍子などの動作音でユーザの集中度を判断するように構成することもできる。図17にユーザの発話・動作音を用いてユーザの集中度を判定するフローチャートを示す。この集中度の判定は、ユーザがコンテンツ映像を視聴している時、ユーザの好む歌のコンテンツなどにおいては、コンテンツの音声に合わせて歌を歌ったり、手拍子などを取ることもある。このような状態を判断して、集中度を測定を行うものである。
集中度判定のルーチンに入ると、ステップS31aにおいて、過去T秒間以内にユーザがコンテンツの音声信号と同期した発話・動作音が計測されていた割合γ2を算出する。この算出は、例えば、T秒間を10秒間とすると、10秒間の間で検出した発話・動作音の時間を計測しておき、その累積時間を基準である10秒間で除した割合で算出する。計測はマイク13で集音された音声データに基づき、ユーザが発生している音声並びに手拍子などの音を検出する。このため、コンピュータ10は、T時間(10秒間)の間の発話・動作音の時間を計測し、RAM102に格納している。
続いて、割合γ2が閾値を超えたか否か判断する(ステップS32a)。ここでは、0.5、すなわち、半分の時間以上発話・動作音があるか否か判断される。閾値以上の場合には集中していると判断する。閾値を下回るた場合には、直ちに集中していないと判断するのではなく、ステップS33aに進む。ステップS33aでは、直前のコンテンツ切り替えから所定時間(N秒)経過したか否か判断する。これはコンテンツが切り替わった直後は、モニタ1等を視聴していない場合があり、直ちに集中して以内と判断すると、頻繁にコンテンツを切り替えることになる。また、興味があるコンテンツでも切り替えられることになる。このため、この例では、一定時間、例えば30秒間経過した後も閾値を下回る場合には集中していないと判断するように構成している。直前のコンテンツの切り替えから30秒経過しても、半分の時間以上発話・動作音がない場合には集中していないと判断する。なお、このコンテンツ切替直後の集中していないと判断するための待機時間はこの例では30秒間にしたが、ユーザの状態などでその時間を決めればよい。このように、この処理によれば、ユーザ3の発話・動作音を用いて集中度判定を行うこともできる。
また、この集中度の判断として、瞳孔径が平均値より小さくなってきた場合には、現在表示されているコンテンツに飽きてきた判断するように構成することもできる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
この発明は、脳障害者などを介護する施設などに用いることができる。
1 モニタ、3 ユーザ、10 コンピュータ、11 ビデオカメラ、12 赤外線カメラ、20 映像コンテンツ供給装置、21〜24 映像再生装置、30 コンテンツ合成切替装置。
Claims (8)
- 複数の映像コンテンツを有する映像供給手段と、この映像供給手段から与えられる複数の映像を表示する表示手段と、人間の顔領域を含む対象画像の画像データを撮影して取得する撮影手段と、この撮影手段からの画像データに基づき被撮影者の特徴を検出する検出手段と、この検出手段の出力に応じて被撮影者の表示手段への集中度を判定する判定手段と、この判定手段に応じて前記表示手段に表示された複数の映像コンテンツの中から1つの映像コンテンツを選択して前記表示手段に表示させる手段と、備えたことを特徴とする映像表示システム。
- 前記表示手段に複数のコンテンツの映像を同時に表示すること特徴とする請求項1に記載の映像表示システム。
- 前記表示手段に複数のコンテンツの映像を時分割で表示することを特徴とする請求項1に記載の映像表示システム
- 前記検出手段は、被撮影者の視線の向きを検出することを特徴とする請求項1ないし3のいずれかに記載の映像表示システム。
- 前記判定手段は、前記検出手段で検出した視線の向きがコンテンツに向いている時間を計測し、その計測結果に応じて集中度を判定することを特徴とする請求項4に記載の映像表示システム。
- 前記検出手段は、被撮影者の瞳孔の大きさを検出することを特徴とする請求項1ないし3のいずれかに記載の映像表示システム。
- 前記判定手段は、前記検出手段で検出した瞳孔の大きさに応じて集中度を判定することを特徴とする請求項5に記載の映像表示システム。
- 前記映像供給手段は、複数の映像コンテンツを格納する記憶手段を備え、前記判定手段に応じて前記記憶手段から映像コンテンツを読み出すことを特徴とする請求項1ないし3のいずれかに記載の映像表示システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005093867A JP2006277192A (ja) | 2005-03-29 | 2005-03-29 | 映像表示システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005093867A JP2006277192A (ja) | 2005-03-29 | 2005-03-29 | 映像表示システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006277192A true JP2006277192A (ja) | 2006-10-12 |
Family
ID=37211911
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005093867A Pending JP2006277192A (ja) | 2005-03-29 | 2005-03-29 | 映像表示システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006277192A (ja) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008112222A (ja) * | 2006-10-27 | 2008-05-15 | Digital Electronics Corp | 操作表示装置、操作表示プログラムおよびそれを記録した記録媒体 |
JP2008113902A (ja) * | 2006-11-06 | 2008-05-22 | Toyota Motor Corp | 眼開度検出装置及び方法 |
JP2010154395A (ja) * | 2008-12-26 | 2010-07-08 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP2010166561A (ja) * | 2009-01-16 | 2010-07-29 | Samsung Electronics Co Ltd | ユーザの関心度に基づいた鑑賞物の自動提供方法及びこれを適用したビデオ機器 |
JP2010531510A (ja) * | 2007-06-28 | 2010-09-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | デジタルコンテンツを提示する方法 |
JP2011138421A (ja) * | 2009-12-29 | 2011-07-14 | Mic Ware:Kk | 地図表示装置、地図表示方法、およびプログラム |
JP2012196279A (ja) * | 2011-03-18 | 2012-10-18 | Waseda Univ | 注目度検出システム、注目度判定装置、注目度判定装置用のプログラム、及び画像配信システム |
JP2012216180A (ja) * | 2011-03-30 | 2012-11-08 | Advanced Telecommunication Research Institute International | 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム |
JP2012221498A (ja) * | 2011-04-08 | 2012-11-12 | Sony Computer Entertainment Inc | ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法 |
WO2013119649A1 (en) * | 2012-02-07 | 2013-08-15 | The Nielsen Company (Us), Llc | Methods and apparatus to select media based on engagement levels |
JP2014515295A (ja) * | 2011-06-01 | 2014-06-30 | セントレ ナショナル デ ラ リシェルシェ サイエンティフィック(セ・エン・エル・エス) | オキュロメータを有するシステム、このようなシステムに実装される方法及び対応するコンピュータプログラム |
JP2015154831A (ja) * | 2014-02-20 | 2015-08-27 | 株式会社三洋物産 | 遊技機 |
US9294863B2 (en) | 2013-10-15 | 2016-03-22 | Fujitsu Limited | Acoustic device, augmented reality acoustic device, acoustic system, acoustic processing method, and recording medium |
JP2016071835A (ja) * | 2014-09-30 | 2016-05-09 | 深▲せん▼市億思達科技集団有限公司 | 眼追跡に基づく三次元ホログラフィック仮想オブジェクトの表示制御方法 |
JP2016081339A (ja) * | 2014-10-17 | 2016-05-16 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
JP5956051B1 (ja) * | 2015-12-14 | 2016-07-20 | 株式会社ガイア・システム・ソリューション | 情報提供システム |
JP2016178356A (ja) * | 2015-03-18 | 2016-10-06 | 株式会社リコー | 通信装置、通信システム、受信制御方法およびプログラム |
JPWO2015056742A1 (ja) * | 2013-10-17 | 2017-03-09 | 株式会社夏目綜合研究所 | 視認対象効果度測定装置 |
WO2017221555A1 (ja) * | 2016-06-23 | 2017-12-28 | 株式会社ガイア・システム・ソリューション | エンゲージメント値処理システム及びエンゲージメント値処理装置 |
JP2019215731A (ja) * | 2018-06-13 | 2019-12-19 | 富士通株式会社 | 集中度評価プログラム、装置、及び方法 |
JP2021018408A (ja) * | 2019-10-18 | 2021-02-15 | 株式会社フォーサイト | 学習システム、学習講義提供方法、およびプログラム |
JP2021087825A (ja) * | 2021-02-26 | 2021-06-10 | 株式会社Jvcケンウッド | 評価装置、評価方法、及び評価プログラム |
JP2021167994A (ja) * | 2020-04-09 | 2021-10-21 | 株式会社ピースリー | 視聴効果計測装置、視聴効果計測方法及びコンピュータプログラム |
-
2005
- 2005-03-29 JP JP2005093867A patent/JP2006277192A/ja active Pending
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008112222A (ja) * | 2006-10-27 | 2008-05-15 | Digital Electronics Corp | 操作表示装置、操作表示プログラムおよびそれを記録した記録媒体 |
JP2008113902A (ja) * | 2006-11-06 | 2008-05-22 | Toyota Motor Corp | 眼開度検出装置及び方法 |
US20100094176A1 (en) * | 2006-11-06 | 2010-04-15 | Toyota Jidosha Kabushiki Kaisha | Eye opening detection system and method of detecting eye opening |
US8435188B2 (en) | 2006-11-06 | 2013-05-07 | Toyota Jidosha Kabushiki Kaisha | Eye opening detection system and method of detecting eye opening |
JP2010531510A (ja) * | 2007-06-28 | 2010-09-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | デジタルコンテンツを提示する方法 |
US9179191B2 (en) | 2008-12-26 | 2015-11-03 | Sony Corporation | Information processing apparatus, information processing method, and program |
JP2010154395A (ja) * | 2008-12-26 | 2010-07-08 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP2010166561A (ja) * | 2009-01-16 | 2010-07-29 | Samsung Electronics Co Ltd | ユーザの関心度に基づいた鑑賞物の自動提供方法及びこれを適用したビデオ機器 |
US9204079B2 (en) | 2009-01-16 | 2015-12-01 | Samsung Electronics Co., Ltd. | Method for providing appreciation object automatically according to user's interest and video apparatus using the same |
JP2011138421A (ja) * | 2009-12-29 | 2011-07-14 | Mic Ware:Kk | 地図表示装置、地図表示方法、およびプログラム |
JP2012196279A (ja) * | 2011-03-18 | 2012-10-18 | Waseda Univ | 注目度検出システム、注目度判定装置、注目度判定装置用のプログラム、及び画像配信システム |
JP2012216180A (ja) * | 2011-03-30 | 2012-11-08 | Advanced Telecommunication Research Institute International | 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム |
JP2012221498A (ja) * | 2011-04-08 | 2012-11-12 | Sony Computer Entertainment Inc | ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法 |
JP2014515295A (ja) * | 2011-06-01 | 2014-06-30 | セントレ ナショナル デ ラ リシェルシェ サイエンティフィック(セ・エン・エル・エス) | オキュロメータを有するシステム、このようなシステムに実装される方法及び対応するコンピュータプログラム |
WO2013119654A1 (en) * | 2012-02-07 | 2013-08-15 | The Nielsen Company (Us), Llc | Methods and apparatus to control a state of data collection devices |
AU2013204416B2 (en) * | 2012-02-07 | 2015-06-11 | The Nielsen Company (Us), Llc | Methods and apparatus to select media based on engagement levels |
WO2013119649A1 (en) * | 2012-02-07 | 2013-08-15 | The Nielsen Company (Us), Llc | Methods and apparatus to select media based on engagement levels |
US9294863B2 (en) | 2013-10-15 | 2016-03-22 | Fujitsu Limited | Acoustic device, augmented reality acoustic device, acoustic system, acoustic processing method, and recording medium |
JPWO2015056742A1 (ja) * | 2013-10-17 | 2017-03-09 | 株式会社夏目綜合研究所 | 視認対象効果度測定装置 |
JP2015154831A (ja) * | 2014-02-20 | 2015-08-27 | 株式会社三洋物産 | 遊技機 |
JP2016071835A (ja) * | 2014-09-30 | 2016-05-09 | 深▲せん▼市億思達科技集団有限公司 | 眼追跡に基づく三次元ホログラフィック仮想オブジェクトの表示制御方法 |
JP2016081339A (ja) * | 2014-10-17 | 2016-05-16 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
JP2016178356A (ja) * | 2015-03-18 | 2016-10-06 | 株式会社リコー | 通信装置、通信システム、受信制御方法およびプログラム |
JP5956051B1 (ja) * | 2015-12-14 | 2016-07-20 | 株式会社ガイア・システム・ソリューション | 情報提供システム |
WO2017221555A1 (ja) * | 2016-06-23 | 2017-12-28 | 株式会社ガイア・システム・ソリューション | エンゲージメント値処理システム及びエンゲージメント値処理装置 |
JP2018005892A (ja) * | 2016-06-23 | 2018-01-11 | 株式会社ガイア・システム・ソリューション | エンゲージメント値処理システム及びエンゲージメント値処理装置 |
CN109416834A (zh) * | 2016-06-23 | 2019-03-01 | 凯亚系统解决股份有限公司 | 吸引度值处理系统及吸引度值处理装置 |
US20190340780A1 (en) * | 2016-06-23 | 2019-11-07 | Gaia System Solutions Inc. | Engagement value processing system and engagement value processing apparatus |
JP2019215731A (ja) * | 2018-06-13 | 2019-12-19 | 富士通株式会社 | 集中度評価プログラム、装置、及び方法 |
JP7139704B2 (ja) | 2018-06-13 | 2022-09-21 | 富士通株式会社 | 集中度評価プログラム、装置、及び方法 |
JP2021018408A (ja) * | 2019-10-18 | 2021-02-15 | 株式会社フォーサイト | 学習システム、学習講義提供方法、およびプログラム |
JP2021167994A (ja) * | 2020-04-09 | 2021-10-21 | 株式会社ピースリー | 視聴効果計測装置、視聴効果計測方法及びコンピュータプログラム |
JP2021087825A (ja) * | 2021-02-26 | 2021-06-10 | 株式会社Jvcケンウッド | 評価装置、評価方法、及び評価プログラム |
JP7074221B2 (ja) | 2021-02-26 | 2022-05-24 | 株式会社Jvcケンウッド | 評価装置、評価方法、及び評価プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006277192A (ja) | 映像表示システム | |
US10802580B2 (en) | Technique for controlling virtual image generation system using emotional states of user | |
JP2006293979A (ja) | コンテンツ提供システム | |
KR102246310B1 (ko) | 시선-기반 미디어 선택 및 편집을 위한 시스템들 및 방법들 | |
Smith et al. | Attentional synchrony and the influence of viewing task on gaze behavior in static and dynamic scenes | |
US8899752B2 (en) | Visual fatigue level measuring device, visual fatigue level measuring method, visual fatigue level measuring system, and three-dimensional glasses | |
US8243132B2 (en) | Image output apparatus, image output method and image output computer readable medium | |
JP4869978B2 (ja) | 画像記録装置、画像記録方法、および画像記録プログラム | |
WO2012105196A1 (ja) | 関心度推定装置および関心度推定方法 | |
CN110575001B (zh) | 显示控制装置、显示控制方法及存储显示控制程序的介质 | |
TW200827769A (en) | Display device and display method | |
US9498123B2 (en) | Image recording apparatus, image recording method and image recording program stored on a computer readable medium | |
JP2007289656A (ja) | 画像記録装置、画像記録方法、および画像記録プログラム | |
US20110279665A1 (en) | Image recording apparatus, image recording method and image recording program | |
Jaimes et al. | Using human observer eye movements in automatic image classifiers | |
Campbell et al. | The lateralization of lip-reading: A second look | |
JP7066115B2 (ja) | パブリックスピーキング支援装置、及びプログラム | |
JP2019179080A (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN110269586A (zh) | 用于捕获具有暗点的人的视野的设备和方法 | |
WO2018216402A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP7279121B2 (ja) | ユーザ行動支援装置、方法およびプログラム | |
JP2006277209A (ja) | メッセージ伝達装置 | |
KR102038413B1 (ko) | 그레이디언트 벡터 필드와 칼만 필터를 이용한 온라인 강의 모니터링 방법 | |
JP2007164617A (ja) | ガウス関数を用いたテンプレート作成方法および眼球運動を用いた視力入力コミュニケーション方法 | |
KR20150107511A (ko) | 공간주시특성을 이용한 공간탐색 특성정보 추출방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080219 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080617 |