JP7284401B2 - 視線情報処理プログラム、情報処理装置および視線情報処理方法 - Google Patents

視線情報処理プログラム、情報処理装置および視線情報処理方法 Download PDF

Info

Publication number
JP7284401B2
JP7284401B2 JP2019166031A JP2019166031A JP7284401B2 JP 7284401 B2 JP7284401 B2 JP 7284401B2 JP 2019166031 A JP2019166031 A JP 2019166031A JP 2019166031 A JP2019166031 A JP 2019166031A JP 7284401 B2 JP7284401 B2 JP 7284401B2
Authority
JP
Japan
Prior art keywords
user
line
period
sight
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019166031A
Other languages
English (en)
Other versions
JP2021044723A (ja
Inventor
珊珊 于
清訓 森岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019166031A priority Critical patent/JP7284401B2/ja
Priority to US17/015,777 priority patent/US11468657B2/en
Publication of JP2021044723A publication Critical patent/JP2021044723A/ja
Application granted granted Critical
Publication of JP7284401B2 publication Critical patent/JP7284401B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Description

本発明は、視線情報処理プログラム、情報処理装置および視線情報処理方法に関する。
カウンセリングにおいて、カウンセラがクライアントの心理を推測する場合、言語情報だけでなくクライアントから得られる非言語情報も重要である。例えばカウンセラは、クライアントの視線情報から、クライアントが話題に興味を持っているかや発話したいかなどの情報を読み取ることがある。
また近年、ビデオ通話の技術を用い、カウンセラとクライアントが遠隔通信によってディスプレイなどを介してコミュニケーションをする、遠隔カウンセリングが増えている。遠隔カウンセリングでカウンセラが視線情報を得るために、ディスプレイを見ているクライアントの視線を検出する技術が重要である。このとき、ディスプレイ上でクライアントの画像が表示されている位置は、レイアウトによって異なる。
表示のレイアウトに関する技術としては、例えば時間情報に基づいてレイアウト要素間の差分時間を算出し、差分時間に対応するレイアウト要素間の配置間隔で、パス情報の経路に沿って、レイアウト要素を配置する要素レイアウト装置が提案されている。また視線検出に関する技術としては、例えば対象物を閲覧者の視野と対比してどのように見えるかを確認するのに適したヒートマップを作成することが可能な視線分析システムが提案されている。また、簡単な校正で視線パターンを任意の視線ターゲットに合わせる方法も提案されている。
また遠隔通信によるコミュニケーションに関する技術としては、例えば対話者の顔の向きを検出し、検出した距離及び顔の向きに応じて対話用通信を続行するか否かを判定する対話用通信システムが提案されている。
特開2005-100338号公報 特開2015-219892号公報 特開2016-63413号公報
Feng Lu, Xiaowu Chen, Yoichi Sato, "Appearance-Based Gaze Estimation via Uncalibrated Gaze Pattern Recovery", IEEE Transactions on Image Processing, Vol. 26, No. 4, April 2017.
カウンセリングにおいてクライアントがカウンセラを頻繁に見ている場合、クライアントは話題に関心を示していたり、発話したがっていたりすることが多い。遠隔カウンセリングで、クライアントがカウンセラを見ているか否かを判定するには、クライアントのディスプレイに表示されたカウンセラの画像をクライアントが見ているか判定すればよい。
しかし、クライアント側の情報処理装置に、クライアントのディスプレイのレイアウト情報をカウンセラ側の情報処理装置に送信するためのソフトウェアを入れることは制限される場合がある。この場合、クライアントのディスプレイでのカウンセラの画像の表示位置が不明であるため、クライアントがカウンセラの画像を見ているか判定するのが難しい。
1つの側面では、本件は、ビデオ通話の一方のユーザが他方のユーザの画像を見ているかについての汎用性の高い判定技術を提供することを目的とする。
1つの案では、コンピュータに以下の処理を実行させる視線情報処理プログラムが提供される。
コンピュータは、ネットワークで接続された第1端末装置を用いる第1ユーザと第2端末装置を用いる第2ユーザとのビデオ通話の通話実施期間において、第1端末装置の第1表示部に表示される第2ユーザの顔が写った複数の第2ユーザ画像と、第1表示部に表示されるコンテンツとの第1表示部における画面内の表示領域を示すレイアウト情報と、第1ユーザの顔が写った複数の第1ユーザ画像から算出される、通話実施期間において第1ユーザが第1表示部に対して向けた視線を示す第1視線情報とに基づいて、第1ユーザによるコンテンツに関する説明が行われた第1期間と、第1ユーザと第2ユーザとでコンテンツの説明以外のコミュニケーションが行われた第2期間とを判定し、第1表示部に表示される複数の第2ユーザ画像に基づいて、通話実施期間において第2ユーザが向けた視線を示す第2視線情報を算出し、第2視線情報に示される、第1期間と第2期間とにおける第2ユーザの視線の違いに基づいて、コンテンツと複数の第1ユーザ画像とが表示された第2端末装置の第2表示部における、複数の第1ユーザ画像の第2表示部の画面内の表示領域を推定し、推定された複数の第1ユーザ画像の表示領域と第2視線情報とに基づいて、通話実施期間において、第2ユーザが、第2端末装置の第2表示部に表示される複数の第1ユーザ画像を見ているか否かを推定する。
1態様によれば、ビデオ通話の一方のユーザが他方のユーザの画像を見ているかについての汎用性の高い判定技術が提供される。
視線情報処理方法を実施する情報処理システムの一例を示す図である。 第2の実施の形態のシステム構成の一例を示す図である。 カウンセラ端末のハードウェアの一例を示す図である。 遠隔カウンセリングにおけるカウンセラ側のモニタの例を示す図である。 遠隔カウンセリングにおけるクライアント側のモニタの例を示す図である。 カウンセラ端末の機能を示すブロック図である。 資料領域ビットマップおよび動画・カメラ領域ビットマップの生成方法の一例を示す図である。 カウンセラ動画ビットマップの生成方法の一例を示す図である。 視線推定結果テーブルの一例を示す図である。 カウンセラ動画位置推定の手順の一例を示すフローチャートである。 期間判定の手順の一例を示すフローチャートである。 カウンセラ動画ビットマップ生成の手順の一例を示すフローチャートである。 カウンセラ動画のモニタ上の推定位置の例を示す図である。 視線推定の手順の一例を示すフローチャートである。 視線推定結果の表示例を示す図である。 関心度グラフの例を示す図である。
以下、本実施の形態について図面を参照して説明する。なお各実施の形態は、矛盾のない範囲で複数の実施の形態を組み合わせて実施することができる。
〔第1の実施の形態〕
まず第1の実施の形態について説明する。
図1は、視線情報処理方法を実施する情報処理システムの一例を示す図である。図1の例では、情報処理装置10が視線情報処理方法を実施する。情報処理装置10は、例えば視線情報処理方法の処理手順が記述された視線情報処理プログラムを実行することにより、視線情報処理方法を実施することができる。
情報処理装置10は、ネットワークで接続された端末装置2aを用いるユーザ1aと端末装置2bを用いるユーザ1bとのビデオ通話の通話実施期間において、ユーザ1bがユーザ1aの画像を見ているか否かを推定する。端末装置2aは、表示部3aを有する。表示部3aは、例えば端末装置2aに接続されたモニタである。端末装置2bは、表示部3bを有する。表示部3bは、例えば端末装置2bに接続されたモニタである。情報処理装置10は、端末装置2aと接続されていてもよいし、端末装置2aが情報処理装置10の機能を有していてもよい。
情報処理装置10は、記憶部11と処理部12とを有する。記憶部11は、例えば情報処理装置10が有するメモリ、またはストレージ装置である。処理部12は、例えば情報処理装置10が有するプロセッサ、または演算回路である。
記憶部11は、ユーザ画像4a,4b,4c,・・・とユーザ画像5a,5b,5c,・・・とレイアウト情報6とを記憶する。ユーザ画像4a,4b,4c,・・・は、通話実施期間に端末装置2bの表示部3bに表示されるユーザ1aの顔が写った画像である。端末装置2bは、ビデオ通話においてユーザ画像4a,4b,4c,・・・を画面内の共通の表示領域にリアルタイムで表示する。
ユーザ画像5a,5b,5c,・・・は、通話実施期間に端末装置2aの表示部3aに表示されるユーザ1bの顔が写った画像である。端末装置2aは、ビデオ通話においてユーザ画像5a,5b,5c,・・・を画面内の共通の表示領域にリアルタイムで表示する。レイアウト情報6は、表示部3aの表示レイアウトを示す。例えばレイアウト情報6は、表示部3aに表示されるユーザ画像5a,5b,5c,・・・と、表示部3aに表示されるコンテンツとの表示部3aにおける画面内の表示領域を示す。
処理部12は、ユーザ画像4a,4b,4c,・・・から、通話実施期間においてユーザ1aが表示部3aに対して向けた視線を示す視線情報7を算出する。視線情報7は、例えば通話実施期間においてユーザ1aの視線が向けられた位置を示す視線座標7a,7b,7c,・・・を含む。視線座標7a,7b,7c,・・・は、通話実施期間においてユーザ1aが視線を向けた箇所の表示部3aの画面における座標である。処理部12は、例えば前述の非特許文献1に記載の方法で、視線座標7a,7b,7c,・・・を算出する。
処理部12は、レイアウト情報6と視線情報7とに基づいて、ユーザ1aによるコンテンツに関する説明が行われたコンテンツ説明期間と、ユーザ1aとユーザ1bとでコンテンツの説明以外のコミュニケーションが行われた自由会話期間とを判定する。例えば処理部12は、通話実施期間を分割して得られる複数の単位期間のうちの判定対象単位期間内のユーザ1aの視線のうち、コンテンツの表示領域に向けられた視線の割合が所定値以上の場合、判定対象単位期間をコンテンツ説明期間と判定する。
一例として、時刻「1」~「8」を通話実施期間とするビデオ通話の時刻「1」,「2」,「4」,「6」において、ユーザ1aの視線が向けられた位置が、コンテンツの表示領域に含まれるとする。また時刻「3」,「5」,「7」,「8」において、ユーザ1aの視線が向けられた位置が、ユーザ画像5a,5b,5c,・・・の表示領域に含まれるとする。ここで処理部12は、通話実施期間が時刻を4つ含む単位期間に分割され、それぞれの単位期間でユーザ1aの視線が向けられた複数の位置のうち、コンテンツの表示領域に含まれる位置の割合が50%以上の単位期間をコンテンツ説明期間とする。この場合、処理部12は、時刻「1」~「4」をコンテンツ説明期間と判定し、時刻「5」~「8」を自由会話期間であると判定する。
処理部12は、ユーザ画像5a,5b,5c,・・・に基づいて、通話実施期間においてユーザ1bが向けた視線を示す視線情報8を算出する。視線情報8は、例えば通話実施期間においてユーザ1bの視線が向けられた位置を示す視線座標8a,8b,8c,・・・を含む。視線座標8a,8b,8c,・・・は、例えば通話実施期間においてユーザ1bが視線を向けた箇所の、表示部3bの画面を含む平面における座標である。視線座標8a,8b,8c,・・・は、視線座標7a,7b,7c,・・・の算出と同様の方法で算出される。
処理部12は、視線情報8に示されるコンテンツ説明期間と自由会話期間とにおけるユーザ1bの視線の違いに基づいて、推定表示領域9を推定する。推定表示領域9は、コンテンツとユーザ画像4a,4b,4c,・・・とが表示された表示部3bにおける、ユーザ画像4a,4b,4c,・・・の表示部3bの画面内の表示領域を推定したものである。
例えば処理部12は、表示部3bの画面を分割して得られる単位領域ごとに、コンテンツ説明期間において、ユーザ1bの視線が単位領域に向けられた回数を示す第1回数を集計する。また処理部12は、単位領域ごとに、自由会話期間内において、ユーザ1bの視線が単位領域に向けられた回数を示す第2回数を集計する。そして処理部12は、単位時間あたりの第2回数から単位時間あたりの第1回数を減算した値が所定値以上となる単位領域の集合を、推定表示領域9と推定する。つまり処理部12は、コンテンツ説明期間と比較して自由会話期間に多くユーザ1bによって見られた領域を推定表示領域9と推定する。
処理部12は、推定表示領域9と視線情報8とに基づいて、通話実施期間において、ユーザ1bが端末装置2bの表示部3bに表示されるユーザ画像4a,4b,4c,・・・を見ているか否かを推定する。例えば処理部12は、通話実施期間の所定の時刻においてユーザ1bが視線を向けた箇所の座標が、推定表示領域9に含まれる場合、ユーザ1bが所定の時刻においてユーザ画像4a,4b,4c,・・・を見ていると推定する。一方処理部12は、所定の時刻においてユーザ1bが視線を向けた箇所の座標が、推定表示領域9に含まれない場合、ユーザ1bが所定の時刻においてユーザ画像4a,4b,4c,・・・を見ていないと推定する。処理部12は、推定結果を示す情報を端末装置2aの表示部3aに表示してもよい。
このようにユーザ1aの視線とレイアウト情報6から、通話実施期間がコンテンツ説明期間と自由会話期間とに分けられ、それぞれの期間のユーザ1bの視線を基に推定表示領域9が推定される。そして、ある時刻におけるユーザ1bの視線が推定表示領域9に向けられたか否かによって、当該時刻にユーザ1bがユーザ1aの画像を見ているか否かが推定される。これにより、ユーザ1bが使用する端末装置2bのレイアウトが不明である場合でも、ユーザ1bが表示部3bに表示されたユーザ1aの画像を見ているか否かの推定が可能となる。すなわち、ビデオ通話の一方のユーザが他方のユーザの画像を見ているかについての判定技術を適用可能なシステムの範囲が広がり、そのような判定技術の汎用性が向上する。
例えば情報処理装置10は、カウンセラであるユーザ1aがクライアントであるユーザ1bに対して行う遠隔のカウンセリングにおいて用いられてもよい。この場合、例えばカウンセリング開始から一定時間までの期間に推定表示領域9が推定される。そして当該期間経過後視線情報処理が行われることで、ユーザ1aは、ユーザ1bが表示部3bに表示されたユーザ1aの画像を見ているか否かをリアルタイムに把握することができる。これによりユーザ1aは、ユーザ1bがユーザ1aへ関心を持っているか、ユーザ1bがユーザ1aに話しかけたいか、などのユーザ1bの視線から得られる情報を取得できる。
また処理部12は、ユーザ1bが顔の向きを変えてよそ見をしている場合の視線を、推定表示領域9の推定に用いる視線から除外するため、以下の処理を行ってもよい。処理部12は、ユーザ画像5a,5b,5c,・・・から、通話実施期間におけるユーザ1bの顔向きを示す値を算出する。顔向きを示す値は、例えばユーザ画像5a,5b,5c,・・・に写ったユーザ1bの、右目に対する左目の大きさの割合である。処理部12は、コンテンツ説明期間における顔向きを示す値の平均値を算出する。そして処理部12は、自由会話期間のユーザ1bの顔が写った所定のユーザ画像から算出される顔向きを示す値と顔向きを示す値の平均値との差の絶対値が閾値以上である場合、所定のユーザ画像から算出されるユーザ1bの視線を集計対象から除外する。これにより、推定表示領域9の推定精度が向上する。
〔第2の実施の形態〕
次に第2の実施の形態について説明する。第2の実施の形態は、ビデオ通話による遠隔カウンセリングにおいて、カウンセリングの対象であるクライアントがカウンセラの動画を見ているか否かをリアルタイムで推定するものである。なお、以下の説明では、視線が向けられた位置を、単に視線と呼ぶこともある。
図2は、第2の実施の形態のシステム構成の一例を示す図である。カウンセラ端末100は、ネットワーク20を介して、クライアント端末200と指導者端末23とに接続されている。カウンセラ端末100は、カウンセラ21の使用するコンピュータである。クライアント端末200は、クライアント22が使用するコンピュータである。指導者端末23は、カウンセラ21に対してカウンセリングの指導を行う指導者が使用するコンピュータである。
カウンセラ21は、カウンセラ端末100によってクライアント22に遠隔カウンセリングを行う。カウンセラ端末100は、カウンセラ21の動画をリアルタイムでクライアント端末200に送信する。またカウンセラ端末100は、クライアント端末200から受信した動画をリアルタイムで表示する。またカウンセラ端末100は、クライアント22がカウンセラ21の動画を見ているか否かをリアルタイムで推定し、推定結果を表示する。
クライアント22は、クライアント端末200によってカウンセラ21から遠隔カウンセリングを受ける。クライアント端末200は、クライアント22の動画をリアルタイムでカウンセラ端末100に送信する。またクライアント端末200は、カウンセラ端末100から受信した動画をリアルタイムで表示する。指導者端末23は、カウンセラ21の指導者が操作する端末である。指導者端末23は、カウンセラ21によるクライアント22へのカウンセリングの結果をカウンセラ端末100から取得する。
図3は、カウンセラ端末のハードウェアの一例を示す図である。カウンセラ端末100は、プロセッサ101によって装置全体が制御されている。プロセッサ101には、バス111を介してメモリ102と複数の周辺機器が接続されている。プロセッサ101は、マルチプロセッサであってもよい。プロセッサ101は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、またはDSP(Digital Signal Processor)である。プロセッサ101がプログラムを実行することで実現する機能の少なくとも一部を、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)などの電子回路で実現してもよい。
メモリ102は、カウンセラ端末100の主記憶装置として使用される。メモリ102には、プロセッサ101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、メモリ102には、プロセッサ101による処理に利用する各種データが格納される。メモリ102としては、例えばRAM(Random Access Memory)などの揮発性の半導体記憶装置が使用される。
バス111に接続されている周辺機器としては、ストレージ装置103、グラフィック処理装置104、機器接続インタフェース105、入力インタフェース106、光学ドライブ装置107、機器接続インタフェース108、音声入出力部109およびネットワークインタフェース110がある。
ストレージ装置103は、内蔵した記録媒体に対して、電気的または磁気的にデータの書き込みおよび読み出しを行う。ストレージ装置103は、コンピュータの補助記憶装置として使用される。ストレージ装置103には、OSのプログラム、アプリケーションプログラム、および各種データが格納される。なお、ストレージ装置103としては、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)を使用することができる。
グラフィック処理装置104には、モニタ31が接続されている。グラフィック処理装置104は、プロセッサ101からの命令に従って、画像をモニタ31の画面に表示させる。モニタ31としては、有機EL(Electro Luminescence)を用いた表示装置や液晶表示装置などがある。
機器接続インタフェース105には、カメラ32が接続されている。カメラ32は、例えばモニタ31の画面上部に設置される、撮影装置である。カメラ32は、プロセッサ101からの命令に従って、カメラ32のレンズを向けた先の光景の静止画または動画のデータを生成し、メモリ102に格納する。
入力インタフェース106には、キーボード33とマウス34とが接続されている。入力インタフェース106は、キーボード33やマウス34から送られてくる信号をプロセッサ101に送信する。なお、マウス34は、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。
光学ドライブ装置107は、レーザ光などを利用して、光ディスク35に記録されたデータの読み取りを行う。光ディスク35は、光の反射によって読み取り可能なようにデータが記録された可搬型の記録媒体である。光ディスク35には、DVD(Digital Versatile Disc)、DVD-RAM、CD-ROM(Compact Disc Read Only Memory)、CD-R(Recordable)/RW(ReWritable)などがある。
機器接続インタフェース108は、カウンセラ端末100に周辺機器を接続するための通信インタフェースである。例えば機器接続インタフェース108には、メモリ装置36やメモリリーダライタ37を接続することができる。メモリ装置36は、機器接続インタフェース108との通信機能を搭載した記録媒体である。メモリリーダライタ37は、メモリカード37aへのデータの書き込み、またはメモリカード37aからのデータの読み出しを行う装置である。メモリカード37aは、カード型の記録媒体である。
音声入出力部109には、マイク38とスピーカ39とが接続されている。音声入出力部109は、マイク38から入力された音声信号をディジタル信号に変換して、プロセッサ101に送信する。また音声入出力部109は、プロセッサ101から音声データを受信すると、音声データに従った音声信号を生成し、スピーカ39から音声出力を行う。
ネットワークインタフェース110は、ネットワーク20に接続されている。ネットワークインタフェース110は、ネットワーク20を介して、他のコンピュータまたは通信機器との間でデータの送受信を行う。
カウンセラ端末100は、以上のようなハードウェア構成によって、第2の実施の形態の処理機能を実現することができる。またクライアント端末200および指導者端末23も、図3に示したカウンセラ端末100と同様のハードウェアにより実現することができる。ただし、指導者端末23は、機器接続インタフェース105を有していなくてもよく、音声入出力部109にマイク38が接続されていなくてもよい。第1の実施の形態に示した情報処理装置10も、図3に示したカウンセラ端末100と同様のハードウェアにより実現することができる。またプロセッサ101は、第1の実施の形態に示した処理部12の一例である。またメモリ102またはストレージ装置103は、第1の実施の形態に示した記憶部11の一例である。またモニタ31は、第1の実施の形態に示した表示部3aの一例である。
カウンセラ端末100は、例えばコンピュータ読み取り可能な記録媒体に記録されたプログラムを実行することにより、第2の実施の形態の処理機能を実現する。カウンセラ端末100に実行させる処理内容を記述したプログラムは、様々な記録媒体に記録しておくことができる。例えば、カウンセラ端末100に実行させるプログラムをストレージ装置103に格納しておくことができる。プロセッサ101は、ストレージ装置103内のプログラムの少なくとも一部をメモリ102にロードし、プログラムを実行する。またカウンセラ端末100に実行させるプログラムを、光ディスク35、メモリ装置36、メモリカード37aなどの可搬型記録媒体に記録しておくこともできる。可搬型記録媒体に格納されたプログラムは、例えばプロセッサ101からの制御により、ストレージ装置103にインストールされた後、実行可能となる。またプロセッサ101が、可搬型記録媒体から直接プログラムを読み出して実行することもできる。
次に、第2の実施の形態の遠隔カウンセリングについて説明する。
第2の実施の形態の遠隔カウンセリングでは、カウンセラ端末100およびクライアント端末200は、ビデオ通話アプリケーションを実行する。ビデオ通話アプリケーションは、相手方の動画をリアルタイムでモニタに表示する。つまりカウンセラ21とクライアント22は、カウンセラ端末100およびクライアント端末200を介したビデオ通話でコミュニケーションを行う。このときカウンセラ21は、話題に応じて、モニタに表示された資料を用いた説明をクライアント22にすることがある。以下では図4,5を参照して、モニタの表示とカウンセラ21およびクライアント22の視線の傾向とについて説明する。
図4は、遠隔カウンセリングにおけるカウンセラ側のモニタの例を示す図である。カウンセラ21は、カウンセラ端末100に接続されたモニタ31を見ながらカウンセリングを行う。モニタ31の画面の上部には、カメラ32が設置されている。カウンセラ端末100は、カメラ32によって、カウンセラ21の顔を撮影する。なおカウンセラ端末100は、マイク38によってカウンセラ21の声を示す音声を取得する。カウンセラ端末100は、カメラ32で撮影した画像を示す画像データとマイク38で取得した音声を示す音声データとを含む動画データをリアルタイムでクライアント端末200に送信する。
モニタ31の画面には、クライアント動画41と説明資料42とが表示されている。クライアント動画41は、クライアント端末200から受信した動画データに基づいて、カウンセラ端末100がリアルタイムに再生した画像である。再生された動画には、クライアント22の顔が写されている。なおクライアント動画41の音声は、例えばスピーカ39によって出力される。
説明資料42は、カウンセラ21がクライアント22に説明する資料である。例えばカウンセラ端末100は、説明資料42のファイルを、例えばストレージ装置103に記憶している。そしてカウンセラ端末100は、そのファイルをストレージ装置103から読み出し、モニタ31の所定の表示領域に説明資料42を表示する。
ここで、カウンセリング中にカウンセラ21が視線を向ける頻度が高い領域として、視線増加領域43、視線増加領域44、視線増加箇所45などがある。
視線増加領域43は、カウンセラ21による資料説明が行われている期間(資料説明期間)にカウンセラ21が視線を向ける頻度が高頻度となる領域である。視線増加領域43には、モニタ31の画面上で説明資料42が表示された領域が含まれる。これは、資料説明期間にカウンセラ21が、説明資料42を見ながらクライアント22と話をするためである。
視線増加領域44は、資料説明期間以外のコミュニケーションが行われている期間(自由会話期間)にカウンセラ21が視線を向ける頻度が高頻度となる領域である。視線増加領域44には、モニタ31の画面上でクライアント動画41が表示された領域が含まれる。これは、自由会話期間にカウンセラ21が、クライアント22の様子を見ながらクライアント22と話をするためである。
視線増加箇所45は、自由会話期間にカウンセラ21が視線を向ける頻度が高頻度となる箇所である。視線増加箇所45は、モニタ31のカメラ32が設置された箇所である。これは自由会話期間に、カウンセラ21がクライアント22を見ているとクライアント22に感じさせるように、カウンセラ21がカメラ32に視線を向けることがあるためである。
図5は、遠隔カウンセリングにおけるクライアント側のモニタの例を示す図である。クライアント22は、クライアント端末200に接続されたモニタ51を見ながらカウンセリングを受ける。モニタ51は、第1の実施の形態に示した表示部3bの一例である。モニタ51の画面の上部には、クライアント端末200に接続されたカメラ52が設置されている。クライアント端末200は、カメラ52によってクライアント22の顔を撮影する。またクライアント端末200は、接続されたマイクによってクライアント22の声を示す音声を取得する。クライアント端末200は、カメラ52で撮影した画像を示す画像データとクライアント端末200のマイクで取得した音声データとを含む動画データをリアルタイムでカウンセラ端末100に送信する。
モニタ51の画面には、カウンセラ動画61と説明資料62とが表示されている。カウンセラ動画61は、カウンセラ端末100から受信した動画データに基づいて、クライアント端末200がリアルタイムに再生した画像である。再生された動画には、カウンセラ21の顔が写されている。なおカウンセラ動画61の音声は、例えばクライアント端末200に接続されたスピーカによって出力される。
説明資料62は、カウンセラ21がクライアント22に説明する資料である。例えばクライアント端末200は、カウンセラ端末100に表示された説明資料42と同じ内容の説明資料62のファイルをカウンセラ端末100から受信し、ストレージ装置に格納する。そしてクライアント端末200は、そのファイルをストレージ装置から読み出し、モニタ51の所定の表示領域に説明資料62を表示する。
ここで、カウンセリング中にクライアント22が視線を向ける頻度が高い領域として、視線増加領域63、視線増加領域64、よそ見領域65などがある。
視線増加領域63は、資料説明期間にクライアント22が視線を向ける頻度が高頻度となる領域である。視線増加領域63には、モニタ51の画面上で説明資料62が表示された領域が含まれる。これは、資料説明期間にクライアント22が、説明資料62を見ながらカウンセラ21と話をするためである。
視線増加領域64は、自由会話期間にクライアント22が視線を向ける頻度が高頻度となる領域である。視線増加領域64には、モニタ51の画面上でカウンセラ動画61が表示された領域が含まれる。これは、自由会話期間にクライアント22が、カウンセラ21を見ながらカウンセラ21と話をするためである。
よそ見領域65は、モニタ51の画面の外の領域である。よそ見領域65などのモニタ51の画面の外の領域は、クライアント22が考え事をしたりよそ見をする時に、視線を向けられることがある。
なお、説明資料42,62は、第1の実施の形態に示したコンテンツの一例である。
上記のように、カウンセラ21およびクライアント22の視線の傾向は、資料説明期間と自由会話期間とで異なる。この傾向の違いに基づいて、カウンセラ端末100は、モニタ51のレイアウト情報なしに、クライアント22がカウンセラ動画61を見ているか否かを推定する。まずカウンセラ端末100は、カウンセラ21の視線とモニタ31のレイアウトとに基づいて、資料説明期間と自由会話期間とを特定する。例えばカウンセラ端末100は、カウンセラ21の視線が説明資料42の表示領域周辺で停留している割合が高い期間を、資料説明期間と判定する。またカウンセラ端末100は、カウンセラ21の視線がクライアント動画41の表示領域周辺で停留するか、またはカメラ32を向いている割合が高い期間を、自由会話期間と判定する。
次にカウンセラ端末100は、推定した資料説明期間と自由会話期間とにおけるクライアント22の視線の違いに基づいて、モニタ51上でカウンセラ動画61が表示されている領域を推定する。そしてカウンセラ端末100は、クライアント22が推定した領域を見ているか否かを推定する。
またカウンセラ端末100は、クライアント22の顔向きからクライアント22がよそ見領域65を見ているか否かを判定する。カウンセラ端末100は、クライアント22の顔向きが平均と大きくずれた時刻において、クライアント22がよそ見領域65を見ていると判定する。そしてカウンセラ端末100は、当該時刻のクライアント22の視線を、カウンセラ動画61が表示されている領域の推定に用いる視線から除外する。
次に、カウンセラ端末100の機能について詳細に説明する。
図6は、カウンセラ端末の機能を示すブロック図である。カウンセラ端末100は、記憶部120、レイアウト取得部130、画像取得部140、視線座標算出部150、顔向き算出部160、カウンセラ動画位置推定部170、視線推定部180および推定結果表示部190を有する。
記憶部120は、カウンセラ画像121-1,121-2,121-3,・・・とクライアント画像122-1,122-2,122-3,・・・とを記憶する。また記憶部120は、資料領域ビットマップ123、動画・カメラ領域ビットマップ124、カウンセラ動画ビットマップ125および視線推定結果テーブル126を記憶する。
カウンセラ画像121-1,121-2,121-3,・・・は、カウンセラ21の顔を写した画像である。カウンセラ画像121-1,121-2,121-3,・・・それぞれは、撮影された時刻と対応付けられている。クライアント画像122-1,122-2,122-3,・・・は、クライアント22の顔を写した画像である。クライアント画像122-1,122-2,122-3,・・・それぞれは、撮影された時刻と対応付けられている。
資料領域ビットマップ123は、モニタ31に表示される画面内での説明資料が表示される領域を示すビットマップ形式の情報である。動画・カメラ領域ビットマップ124は、モニタ31に表示される画面内でのクライアント動画が表示される領域と、カメラ32の設置位置とを示すビットマップ形式の情報である。例えば資料領域ビットマップ123と動画・カメラ領域ビットマップ124とは、モニタ31の画面およびその周辺(カメラ32の設置場所を含む範囲)を含む面を分割した複数の単位領域それぞれに対応するビットを有するビットマップである。資料領域ビットマップ123では、資料説明期間に高頻度で視線が向けられる視線増加領域43に対応するビットは「1」、その他のビットは「0」に設定される。動画・カメラ領域ビットマップ124では、自由会話期間に高頻度で視線が向けられる視線増加領域44または視線増加箇所45に対応するビットは「1」、その他のビットは「0」に設定される。
カウンセラ動画ビットマップ125は、モニタ51の画面を分割した複数の単位領域それぞれに対応するビットを有するビットマップである。カウンセラ動画ビットマップ125では、カウンセラ動画61が表示されていると推定された領域に対応するビットは「1」、その他のビットは「0」に設定される。視線推定結果テーブル126は、各時刻におけるクライアント22の視線推定の結果を記憶するテーブルである。
レイアウト取得部130は、カウンセラ端末100のモニタ31に表示された画面レイアウトを取得する。レイアウト取得部130は、画面レイアウトを、カウンセラ端末100のOSから取得してもよいしカウンセラ21の入力から取得してもよい。またレイアウト取得部130は、モニタ31の画面上でカメラ32が設置されている領域を取得する。カメラ32が設置されている領域は、例えばカウンセラ21の入力によって指定される。レイアウト取得部130は、取得した画面レイアウトとカメラ32の設置領域とに基づいて資料領域ビットマップ123および動画・カメラ領域ビットマップ124を生成し、記憶部120に格納する。
画像取得部140は、カメラ32が撮影したカウンセラ21の顔を写した画像をリアルタイムで取得する。そして画像取得部140は、取得した画像を撮影された時刻と対応付けて、カウンセラ画像121-1,121-2,121-3,・・・として記憶部120に格納する。また画像取得部140は、クライアント端末200から受信した動画から、クライアント22の顔を写した画像をリアルタイムで取得する。そして画像取得部140は、取得した画像を撮影された時刻と対応付けて、クライアント画像122-1,122-2,122-3,・・・として記憶部120に格納する。
視線座標算出部150は、カウンセラ画像121-1,121-2,121-3,・・・からカウンセラ21の視線座標を算出する。カウンセラ21の視線座標は、例えば非特許文献1に示された方法で算出される、カウンセラ21が視線を向けたモニタ31上の座標を示す。また視線座標算出部150は、クライアント画像122-1,122-2,122-3,・・・からクライアント22の視線座標を算出する。クライアント22の視線座標は、クライアント22が視線を向けたモニタ51の画面を含む平面上の座標を示す。クライアント22の視線座標は、カウンセラ21の視線座標と同様の方法で算出される。
顔向き算出部160は、クライアント画像122-1,122-2,122-3,・・・から各時刻のクライアント22の顔向きを示す値を算出する。顔向きを示す値は、例えばクライアント画像122-1,122-2,122-3,・・・に写ったクライアント22の、右目に対する左目の大きさの割合である。
カウンセラ動画位置推定部170は、カウンセラ画像121-1,121-2,121-3,・・・を基に資料説明期間と自由会話期間を特定し、クライアント画像122-1,122-2,122-3,・・・を基にカウンセラ動画61の表示位置を推定する。カウンセラ動画位置推定部170は、期間判定部171および位置推定部172を有する。
期間判定部171は、カウンセラ画像121-1,121-2,121-3,・・・の撮影された期間を複数の単位期間に区切り、各単位期間が資料説明期間に含まれるか自由会話期間に含まれるかを判定する。例えば期間判定部171は、視線座標算出部150に、カウンセラ画像121-1,121-2,121-3,・・・から各時刻におけるカウンセラ21の視線座標を算出させる。そして期間判定部171は、ある単位期間で、資料領域ビットマップ123でビットが「1」の領域内の視線座標の数が、動画・カメラ領域ビットマップ124でビットが「1」の領域内の視線座標の数以上の場合、当該単位期間を資料説明期間と判定する。一方期間判定部171は、ある単位期間で、資料領域ビットマップ123でビットが「1」の領域内の視線座標の数が、動画・カメラ領域ビットマップ124でビットが「1」の領域内の視線座標の数未満の場合、当該単位期間を自由会話期間と判定する。
位置推定部172は、カウンセラ動画ビットマップ125を生成する。例えば位置推定部172は、視線座標算出部150に、クライアント画像122-1,122-2,122-3,・・・のうち、資料説明期間に撮影されたものから、資料説明期間に含まれる各時刻のクライアント22の視線座標を算出させる。また位置推定部172は、視線座標算出部150に、クライアント画像122-1,122-2,122-3,・・・のうち、自由会話期間に撮影されたものから、自由会話期間に含まれる各時刻のクライアント22の視線座標を算出させる。
位置推定部172は、モニタ51の領域を分割した複数の単位領域それぞれに含まれる、資料説明期間のクライアント22の視線座標と自由会話期間のクライアント22の視線座標とをそれぞれ集計する。位置推定部172は、各単位領域について、自由会話期間のクライアント22の視線座標の数と資料説明期間のクライアント22の視線座標の数との差分を算出する。そして位置推定部172は、差分が閾値以上であった単位領域に対応するビットが「1」、その他のビットが「0」のカウンセラ動画ビットマップ125を生成し、記憶部120に格納する。
なお位置推定部172は、自由会話期間においてクライアント22の顔向きが平均と大きくずれた時刻の視線を集計対象から除外する。位置推定部172は、顔向き算出部160に、クライアント画像122-1,122-2,122-3,・・・のうち、資料説明期間に撮影されたものから、資料説明期間に含まれる各時刻のクライアント22の顔向きを示す値を算出させる。そして位置推定部172は、資料説明期間におけるクライアント22の顔向きを示す値の平均値を算出する。
位置推定部172は、顔向き算出部160に、クライアント画像122-1,122-2,122-3,・・・のうち、自由会話期間に撮影されたものから、自由会話期間に含まれる各時刻のクライアント22の顔向きを示す値を算出させる。そして位置推定部172は、自由会話期間に含まれるある時刻の顔向きを示す値と資料説明期間における顔向きを示す値の平均値との差の絶対値が閾値以上である場合、当該時刻のクライアント22の視線座標を集計対象から除外する。
視線推定部180は、リアルタイムで取得したクライアント動画41を基に、現在クライアント22がカウンセラ動画61を見ているか否かの推定(視線推定)をする。視線推定部180は、視線座標算出部150に、画像取得部140が取得したクライアント22の画像から、現在のクライアント22の視線座標を算出させる。そして視線推定部180は、現在のクライアント22の視線座標が、カウンセラ動画ビットマップ125でビットが「1」の領域に含まれる場合、現在クライアント22はカウンセラ動画61を見ていると判定する。一方視線推定部180は、現在のクライアント22の視線座標が、カウンセラ動画ビットマップ125でビットが「1」の領域に含まれない場合、現在クライアント22はカウンセラ動画61を見ていないと判定する。
また視線推定部180は、クライアント22の現在の関心度を算出する。現在の関心度は、例えば現在の時刻の一定時間前(例えば、10秒前)から現在の時刻までにクライアント22がカウンセラ動画61を見たと判定された回数の割合[%]である。
推定結果表示部190は、視線推定の結果を表示する。例えば推定結果表示部190は、クライアント22の現在の関心度が閾値より大きい場合、クライアント22が話題に関心を持っている旨の文言をモニタ31に表示する。
なお、図6に示した各要素間を接続する線は通信経路の一部を示すものであり、図示した通信経路以外の通信経路も設定可能である。また、図6に示した各要素の機能は、例えば、その要素に対応するプログラムモジュールをコンピュータに実行させることで実現することができる。
次に、記憶部120に記憶されるデータの生成方法について説明する。まず資料領域ビットマップ123と動画・カメラ領域ビットマップ124との生成方法について説明する。
図7は、資料領域ビットマップおよび動画・カメラ領域ビットマップの生成方法の一例を示す図である。レイアウト取得部130は、モニタ31の画面レイアウト131に基づいて資料領域ビットマップ123および動画・カメラ領域ビットマップ124を生成する。画面レイアウト131には、例えばモニタ31の画面内でのクライアント動画41の表示領域と説明資料42の表示領域とが示されている。
レイアウト取得部130は、モニタ31の画面を分割した複数の単位領域それぞれに対応するビットを有する、初期ビットマップから資料領域ビットマップ123および動画・カメラ領域ビットマップ124を生成する。なお、初期ビットマップの各ビットの初期値は「0」である。
資料領域ビットマップ123の生成では、レイアウト取得部130は、モニタ31の画面レイアウト131から説明資料42が表示されている資料領域123aを取得する。レイアウト取得部130は、初期ビットマップの、資料領域123aに含まれる単位領域に対応するビットを「1」としたビットマップを、資料領域ビットマップ123とする。
動画・カメラ領域ビットマップ124の生成では、レイアウト取得部130は、モニタ31の画面レイアウト131からクライアント動画41が表示されている動画領域124aを取得する。またレイアウト取得部130は、カウンセラ21の入力からモニタ31の画面上でカメラ32が設置されているカメラ領域124bを取得する。レイアウト取得部130は、初期ビットマップの、動画領域124aまたはカメラ領域124bに含まれる単位領域に対応するビットを「1」としたビットマップを、動画・カメラ領域ビットマップ124とする。
期間判定部171は、単位期間内に取得したカウンセラ21の視線座標を、資料領域ビットマップ123と動画・カメラ領域ビットマップ124とのそれぞれと比較することで、資料説明期間と自由会話期間とを判定する。資料説明期間と自由会話期間とが判定されると、位置推定部172は、クライアント端末200のモニタ51におけるカウンセラ動画61の表示領域を推定し、該当領域を示すカウンセラ動画ビットマップ125を生成する。
図8は、カウンセラ動画ビットマップの生成方法の一例を示す図である。位置推定部172は、資料説明期間におけるクライアント22の視線座標の集計と自由会話期間におけるクライアント22の視線座標の集計との差分に基づいて、カウンセラ動画ビットマップ125を生成する。
位置推定部172は、モニタ51の画面を分割した複数の単位領域それぞれに対応する要素を有する、初期配列を用いてクライアント22の視線座標を集計する。初期配列の各要素の初期値は、例えば「0」である。位置推定部172は、初期配列の値を更新し、資料説明期間におけるクライアント22の視線座標の集計を示す資料説明期間ヒートマップ71および自由会話期間におけるクライアント22の視線座標の集計を示す自由会話期間ヒートマップ72を生成する。なお図8では、ヒートマップの各要素の値の大小が、点の濃淡で表される。
資料説明期間ヒートマップ71の生成では、位置推定部172は、初期配列の各要素を、資料説明期間におけるクライアント22の視線座標のうち対応する単位領域に含まれるものの数に更新する。そして位置推定部172は、更新した初期配列の各要素を資料説明期間におけるクライアント22の視線座標の数で除したものを資料説明期間ヒートマップ71とする。
自由会話期間ヒートマップ72の生成では、位置推定部172は、初期配列の各要素を、自由会話期間におけるクライアント22の視線座標のうち対応する単位領域に含まれるものの数に更新する。そして位置推定部172は、更新した初期配列の各要素を自由会話期間におけるクライアント22の視線座標の数で除したものを自由会話期間ヒートマップ72とする。なお、クライアント22の顔向きが平均と大きくずれていると判定された時刻のクライアント22の視線座標は、自由会話期間ヒートマップ72の生成では、自由会話期間におけるクライアント22の視線座標に含まれない。
位置推定部172は、自由会話期間ヒートマップ72と資料説明期間ヒートマップ71との差分を示す差分ヒートマップ73を生成する。差分ヒートマップ73の各要素には、自由会話期間ヒートマップ72の対応する要素の値から資料説明期間ヒートマップ71の対応する要素の値を引いた値が格納される。そして位置推定部172は、差分ヒートマップ73からカウンセラ動画ビットマップ125を生成する。カウンセラ動画ビットマップ125は、差分ヒートマップ73の各要素に対応するビットを有しており、差分ヒートマップ73の、値が閾値以上の要素に対応するビットが「1」、その他のビットが「0」のビットマップである。
なおカウンセラ動画ビットマップ125は、一定時間(例えば、15分)のクライアント22の視線座標を基に生成される。そのため、カウンセリング開始から一定時間後(例えば、15分後)に、カウンセラ動画ビットマップ125は生成され、視線推定が開始する。
次に図9を参照し、カウンセラ端末100の保持する情報について、詳細に説明する。
図9は、視線推定結果テーブルの一例を示す図である。視線推定結果テーブル126には、時刻に対応付けて、視線推定結果および関心度が設定されている。時刻は、例えば視線推定が開始してからの時間で表される。
視線推定結果には、対応する時刻における視線推定の結果が設定される。例えば視線推定結果には、対応する時刻にクライアント22がカウンセラ動画61を見ている場合は「1」、対応する時刻にクライアント22がカウンセラ動画61を見ていない場合は「0」が設定される。関心度には、対応する時刻におけるクライアント22の関心度が設定される。ここで、ある時刻の関心度の算出は、当該時刻の一定時間前(例えば、10秒前)から当該時刻までの、視線推定の結果を基に算出される。そのため、視線推定が開始してから一定時間後(例えば、10秒後)までの時刻に対応する関心度は空欄となる。
以下、カウンセラ動画位置推定の手順について、詳細に説明する。
図10は、カウンセラ動画位置推定の手順の一例を示すフローチャートである。以下、図10に示す処理をステップ番号に沿って説明する。
[ステップS101]レイアウト取得部130は、カウンセラ端末100のモニタ31に表示された画面の構成を示す画面レイアウト131を取得する。画面レイアウト131は、カウンセラ端末100のOSから取得されてもよいしカウンセラ21によって入力されてもよい。またレイアウト取得部130は、モニタ31の画面上でカメラ32が設置されている領域を取得する。カメラ32が設置されている領域は、例えばカウンセラ21の入力によって指定される。
[ステップS102]レイアウト取得部130は、ステップS101で取得した画面レイアウト131とカメラ32の設置領域とに基づいて資料領域ビットマップ123および動画・カメラ領域ビットマップ124を生成する。レイアウト取得部130は、生成した資料領域ビットマップ123および動画・カメラ領域ビットマップ124を、記憶部120に格納する。
[ステップS103]カウンセラ動画位置推定部170は、一定時間(例えば、15分間)待機する。カウンセラ動画位置推定部170は、一定時間経過後、処理をステップS104に進める。
[ステップS104]期間判定部171は、カウンセラ画像121-1,121-2,121-3,・・・、資料領域ビットマップ123および動画・カメラ領域ビットマップ124を用いて、資料説明期間と自由会話期間とを推定する。期間判定の詳細については後述する(図11参照)。
[ステップS105]位置推定部172は、クライアント画像122-1,122-2,122-3,・・・を用いて、カウンセラ動画ビットマップ125を生成する。カウンセラ動画ビットマップ生成の詳細については後述する(図12参照)。
[ステップS106]カウンセラ動画位置推定部170は、カウンセリングが終了したか否かを判定する。例えばカウンセラ動画位置推定部170は、カウンセラ端末100とクライアント端末200との間の通信が終了している場合、カウンセリングが終了したと判定する。カウンセラ動画位置推定部170は、カウンセリングが終了したと判定した場合、処理を終了する。またカウンセラ動画位置推定部170は、カウンセリングが終了していないと判定した場合、処理をステップS103に進める。
このように、カウンセラ動画61のモニタ51上の推定位置を示すカウンセラ動画ビットマップ125が生成される。最初のカウンセラ動画ビットマップ125は、カウンセリング開始から一定時間で取得された、カウンセラ画像121-1,121-2,121-3,・・・およびクライアント画像122-1,122-2,122-3,・・・を基に生成される。
その後カウンセラ動画ビットマップ125は、一定時間ごとに更新される。このとき一定時間が経過することによって、記憶部120に格納されるカウンセラ画像121-1,121-2,121-3,・・・およびクライアント画像122-1,122-2,122-3,・・・の数は増える。すると、カウンセラ動画ビットマップ125の生成に用いられるカウンセラ画像121-1,121-2,121-3,・・・およびクライアント画像122-1,122-2,122-3,・・・の数も増える。よって一定時間ごとに、カウンセラ動画ビットマップ125が示すカウンセラ動画61の位置の推定精度が向上する。
次に、期間判定について詳細に説明する。
図11は、期間判定の手順の一例を示すフローチャートである。以下、図11に示す処理をステップ番号に沿って説明する。
[ステップS111]期間判定部171は、カウンセラ画像121-1,121-2,121-3,・・・を記憶部120から取得する。
[ステップS112]期間判定部171は、視線座標算出部150に、カウンセラ画像121-1,121-2,121-3,・・・から、カウンセラ21の視線座標を算出させる。視線座標算出部150は、カウンセラ画像121-1,121-2,121-3,・・・が撮影された各時刻のカウンセラ21の視線座標を算出する。
[ステップS113]期間判定部171は、カウンセリング開始から現在までの期間(カウンセリング期間)を一定時間(例えば、5分間)ごとの単位期間に分割する。
[ステップS114]期間判定部171は、全単位期間から、判定対象単位期間を1つ選択する。
[ステップS115]期間判定部171は、ステップS114で選択した判定対象単位期間中の各時刻におけるカウンセラ21の視線座標のうち、資料領域ビットマップ123で「1」のビットに対応する領域内の視線座標数をカウントする。期間判定部171は、カウントした値を変数aに代入する。
[ステップS116]期間判定部171は、ステップS114で選択した判定対象単位期間中の各時刻におけるカウンセラ21の視線座標のうち、動画・カメラ領域ビットマップ124で「1」のビットに対応する領域内の視線座標数をカウントする。期間判定部171は、カウントした値を変数bに代入する。
[ステップS117]期間判定部171は、変数aが変数b以上であるか否かを判定する。つまり期間判定部171は、判定対象単位期間中の視線座標のうち、資料領域ビットマップ123で「1」のビットに対応する領域内のものの数が、動画・カメラ領域ビットマップ124で「1」のビットに対応する領域内のものの数以上であるか否か判定する。期間判定部171は、変数aが変数b以上であると判定した場合、処理をステップS118に進める。また期間判定部171は、変数aが変数b未満であると判定した場合、処理をステップS119に進める。
[ステップS118]期間判定部171は、ステップS114で選択した判定対象単位期間を資料説明期間と判定する。そして期間判定部171は、処理をステップS120に進める。
[ステップS119]期間判定部171は、ステップS114で選択した判定対象単位期間を自由会話期間と判定する。
[ステップS120]期間判定部171は、全ての単位期間を判定対象単位期間として選択したか否かを判定する。期間判定部171は、全ての単位期間を判定対象単位期間として選択したと判定した場合、処理を終了する。また期間判定部171は、判定対象単位期間として選択していない単位期間が残っていると判定した場合、処理をステップS114に進める。
このように、カウンセリング開始から現在までの期間に含まれる単位期間それぞれを判定対象単位期間として、各判定対象単位期間が資料説明期間であるか自由会話期間であるかが推定される。ここで判定対象単位期間内のカウンセラ21の視線座標のうち、説明資料42の表示領域に含まれるものが、クライアント動画41の表示領域またはカメラ32の設置領域に含まれるもの以上の場合、判定対象単位期間は資料説明期間であると推定される。すなわち、判定対象単位期間内のカウンセラ21の視線のうち、クライアント動画41の表示領域またはカメラ32の設置領域に向けられた視線の割合が所定値未満の場合、判定対象単位期間が自由会話期間と判定される。これにより、資料説明期間と自由会話期間とで異なるカウンセラ21の視線の傾向に基づいた期間の判定が可能となる。
次に、カウンセラ動画ビットマップ生成について詳細に説明する。
図12は、カウンセラ動画ビットマップ生成の手順の一例を示すフローチャートである。以下、図12に示す処理をステップ番号に沿って説明する。
[ステップS131]位置推定部172は、クライアント画像122-1,122-2,122-3,・・・のうち、資料説明期間に撮影されたものを記憶部120から取得する。
[ステップS132]位置推定部172は、顔向き算出部160に、ステップS131で取得したクライアント画像から、クライアント22の顔向きを示す値を算出させる。顔向き算出部160は、資料説明期間の各時刻のクライアント22の顔向きを示す値を算出する。クライアント22の顔向きを示す値は、例えばクライアント画像に写ったクライアント22の、右目に対する左目の大きさの割合である。
[ステップS133]位置推定部172は、資料説明期間のクライアント22の顔向きを示す値の平均値を算出する。
[ステップS134]位置推定部172は、視線座標算出部150に、ステップS131で取得したクライアント画像から、クライアント22の視線座標を算出させる。視線座標算出部150は、資料説明期間の各時刻のクライアント22の視線座標を算出する。
[ステップS135]位置推定部172は、資料説明期間ヒートマップ71を生成する。例えば位置推定部172は、モニタ51の画面を分割した複数の単位領域それぞれに対応する要素を有する初期配列の各要素に、ステップS134で算出したクライアント22の視線座標のうち、対応する単位領域に含まれるものの数を格納する。そして位置推定部172は、視線座標の数を格納した初期配列の各要素を、ステップS134で算出したクライアント22の視線座標の数で除した配列を資料説明期間ヒートマップ71とする。
[ステップS136]位置推定部172は、クライアント画像122-1,122-2,122-3,・・・のうち、自由会話期間に撮影されたものを記憶部120から取得する。
[ステップS137]位置推定部172は、顔向き算出部160に、ステップS131で取得したクライアント画像から、クライアント22の顔向きを示す値を算出させる。顔向き算出部160は、自由会話期間の各時刻のクライアント22の顔向きを示す値を算出する。
[ステップS138]位置推定部172は、自由会話期間の各時刻についてステップS137で算出した顔向きを示す値とステップS133で算出した平均値との差を算出する。そして位置推定部172は、算出された差の絶対値が閾値以上の時刻(すなわち、顔向きが平均と大きくずれた時刻)のクライアント画像を、ステップS136で取得したクライアント画像から除外する。
[ステップS139]位置推定部172は、視線座標算出部150に、ステップS136で取得したクライアント画像のうち、ステップS138で除外されなかったものから、クライアント22の視線座標を算出させる。視線座標算出部150は、自由会話期間の各時刻のクライアント22の視線座標を算出する。
[ステップS140]位置推定部172は、自由会話期間ヒートマップ72を生成する。例えば位置推定部172は、モニタ51の画面を分割した複数の単位領域それぞれに対応する要素を有する初期配列の各要素に、ステップS139で算出したクライアント22の視線座標のうち、対応する単位領域に含まれるものの数を格納する。そして位置推定部172は、視線座標の数を格納した初期配列の各要素を、ステップS139で算出したクライアント22の視線座標の数で除した配列を自由会話期間ヒートマップ72とする。
[ステップS141]位置推定部172は、差分ヒートマップ73を生成する。例えば位置推定部172は、自由会話期間ヒートマップ72の各要素の値から資料説明期間ヒートマップ71の対応する要素の値を引いたものを差分ヒートマップ73とする。
[ステップS142]位置推定部172は、差分ヒートマップ73からカウンセラ動画ビットマップ125を生成する。例えば位置推定部172は、差分ヒートマップ73の各要素に対応する、初期値「0」のビットを有するビットマップを生成する。そして位置推定部172は、差分ヒートマップ73の要素のうち、値が閾値以上である要素を抽出し、生成したビットマップのビットのうち、抽出した要素に対応するビットを「1」にしたものを、カウンセラ動画ビットマップ125とする。
このように、資料説明期間および自由会話期間のクライアント22の視線座標を基に、カウンセラ動画ビットマップ125が生成される。ここで、クライアント22の顔向きが平均と大きくずれた時刻の視線座標は、カウンセラ動画ビットマップ125の生成に用いられない。これにより、クライアント22がよそ見をしていた場合の視線座標が除去される。
クライアント22がよそ見をしていた場合に視線が向けられる箇所は、資料説明期間に視線が向けられる頻度が少ない場合がある。そのため、クライアント22がよそ見をしていた場合の視線座標が資料説明期間ヒートマップ71に集計されると、差分ヒートマップ73において当該視線座標を含む領域に対応する要素の値が閾値より大きくなる可能性がある。すると、クライアント22がよそ見をしているときに視線を向けていた領域でカウンセラ動画61が誤検出される。よって、クライアント22がよそ見をしていた場合の視線座標が除去されることにより、カウンセラ動画ビットマップ125の精度が向上する。
図13は、カウンセラ動画のモニタ上の推定位置の例を示す図である。モニタ51は、カウンセラ動画61と説明資料62とを表示する。また図13に示された印は、モニタ51に対するクライアント22の視線の一例を示す。
資料説明期間にクライアント22は、説明資料62の周辺の領域に頻繁に視線を向けている。また、資料説明期間にクライアント22は、カウンセラ動画61の周辺の領域や、カウンセラ動画61と説明資料62のいずれも表示されていない領域に視線を向けていることもある。
自由会話期間にクライアント22は、カウンセラ動画61の周辺の領域に頻繁に視線を向けている。また、自由会話期間にクライアント22は、説明資料62の周辺の領域や、カウンセラ動画61と説明資料62のいずれも表示されていない領域や、モニタ51以外の領域に視線を向けていることもある。
ここで、資料説明期間の視線座標を集計した資料説明期間ヒートマップ71と自由会話期間の視線座標を集計した自由会話期間ヒートマップ72との差分である差分ヒートマップ73の値が閾値以上の要素に対応する領域にカウンセラ動画61があると推定される。つまり、自由会話期間にクライアント22が視線を向ける頻度が一定以上増加した領域が、推定カウンセラ動画領域66である。推定カウンセラ動画領域66は、カウンセラ動画61があると推定された領域で、カウンセラ動画ビットマップ125の「1」のビットに対応する領域の集合である。
カウンセラ動画61の周辺の領域は、自由会話期間にクライアント22が視線を向ける頻度が増加しているため、推定カウンセラ動画領域66と推定される。また、説明資料62の周辺の領域は、自由会話期間にクライアント22が視線を向ける頻度が減少しているため、推定カウンセラ動画領域66と推定されない。また、カウンセラ動画61と説明資料62のいずれも表示されていない領域は、資料説明期間と自由会話期間とでクライアント22は、同程度の頻度で視線を向けているため、推定カウンセラ動画領域66と推定されない。また、モニタ51以外の領域に対する視線は、クライアント22がよそ見をしていたとして、集計から除去される。よってモニタ51以外の領域は、推定カウンセラ動画領域66と推定されない。
このように、自由会話期間にクライアント22が視線を向ける頻度が増加した領域が推定カウンセラ動画領域66と推定されることで、モニタ51の画面レイアウトなしにカウンセラ動画61の位置が推定される。
次に、視線推定について詳細に説明する。
図14は、視線推定の手順の一例を示すフローチャートである。以下、図14に示す処理をステップ番号に沿って説明する。
[ステップS201]画像取得部140は、カウンセラ画像とクライアント画像とを取得する。画像取得部140は、例えばカメラ32が撮影した現在のカウンセラ21の顔をカウンセラ画像として取得する。そして画像取得部140は、取得したカウンセラ画像を現在時刻と対応付けて、カウンセラ画像121-1,121-2,121-3,・・・として記憶部120に格納する。また画像取得部140は、例えばクライアント端末200から受信した動画から、現在のクライアント22の顔を写した画像をクライアント画像として取得する。そして画像取得部140は、取得したクライアント画像を現在時刻と対応付けて、クライアント画像122-1,122-2,122-3,・・・として記憶部120に格納する。なお画像取得部140は、ステップS201を一定時間間隔(例えば0.5秒間隔)で行う。
[ステップS202]画像取得部140は、カウンセラ動画ビットマップ125が生成済みであるか否かを判定する。画像取得部140は、カウンセラ動画ビットマップ125が生成済みであると判定した場合、処理をステップS203に進める。また画像取得部140は、カウンセラ動画ビットマップ125がまだ生成されていないと判定した場合、処理をステップS201に進める。
[ステップS203]視線座標算出部150は、ステップS201で取得されたクライアント画像から、当該画像が撮影された時刻のクライアント22の視線座標を算出する。
[ステップS204]視線推定部180は、ステップS203で算出されたクライアント22の視線座標が、カウンセラ動画ビットマップ125で「1」のビットに対応する領域内にあるか否かを判定する。視線推定部180は、視線座標がカウンセラ動画ビットマップ125で「1」のビットに対応する領域内にあると判定した場合、処理をステップS205に進める。また視線推定部180は、視線座標がカウンセラ動画ビットマップ125で「1」のビットに対応する領域内にないと判定した場合、処理をステップS206に進める。
[ステップS205]視線推定部180は、クライアント22が現在カウンセラ動画61を見ていると判定する。視線推定部180は、視線推定結果テーブル126に、時刻を現在時刻、視線推定結果を「1」に設定したレコードを追加する。そして視線推定部180は、処理をステップS207に進める。
[ステップS206]視線推定部180は、クライアント22が現在カウンセラ動画61を見ていないと判定する。視線推定部180は、視線推定結果テーブル126に、時刻を現在時刻、視線推定結果を「0」に設定したレコードを追加する。
[ステップS207]視線推定部180は、クライアント22の現在の関心度を算出する。例えば視線推定部180は、視線推定結果テーブル126を参照し、現在時刻の10秒前から現在時刻までの視線推定結果の欄のうち、「1」に設定されているものの割合[%]をクライアント22の現在の関心度として算出する。そして視線推定部180は、視線推定結果テーブル126の現在時刻に対応する関心度を、算出した関心度に設定する。
[ステップS208]推定結果表示部190は、ステップS207で算出したクライアント22の現在の関心度が、閾値より大きいか否かを判定する。推定結果表示部190は、関心度が閾値より大きいと判定した場合、処理をステップS209に進める。また推定結果表示部190は、関心度が閾値以下と判定した場合、処理をステップS210に進める。
[ステップS209]推定結果表示部190は、クライアント22が関心を持っていることをモニタ31に表示する。
[ステップS210]視線推定部180は、カウンセリングが終了したか否かを判定する。例えば視線推定部180は、カウンセラ端末100とクライアント端末200との間の通信が終了している場合、カウンセリングが終了したと判定する。視線推定部180は、カウンセリングが終了したと判定した場合、処理を終了する。また視線推定部180は、カウンセリングが終了していないと判定した場合、処理をステップS201に進める。
このように、カウンセラ動画ビットマップ125と現在のクライアント22の画像から、現在クライアント22がカウンセラ動画61を見ているか否かが推定される。これにより、モニタ51の画面レイアウトなしに、現在クライアント22がカウンセラ動画61を見ているか否かが推定される。
また、視線推定結果を基にクライアント22の現在の関心度が算出される。関心度は、クライアント22がカウンセラ21を見る頻度を示す。例えば関心度が急に高まった場合、クライアント22は発話したがっていることが多い。また例えば関心度が低い場合、クライアント22はカウンセラ21の話題への関心が低いことが多い。このように、関心度を算出することで遠隔カウンセリングにおいてクライアント22の心理状態を推定できる。以下では、カウンセラ21に関心度を通知するための表示について説明する。
図15は、視線推定結果の表示例を示す図である。カウンセリング中にモニタ31は、クライアント動画41と説明資料42に加えて、推定結果表示部46を表示する。推定結果表示部46は、クライアント22の現在の関心度に応じた表示をする。
関心度が閾値以下であれば、例えば推定結果表示部46は文言を表示しない。例えばカウンセラ21は、推定結果表示部46が何も表示しない状態が続くと、話題を変更する。また関心度が閾値を超えると、例えば推定結果表示部46は、「関心あり」などのクライアント22が関心を持っていることを示す文言を表示する。例えばカウンセラ21は、推定結果表示部46が「関心あり」と表示すると、クライアント22に発話させる。このように、カウンセラ21は、関心度に応じたコミュニケーションをすることで円滑にカウンセリングを進めることができるようになる。
またカウンセラ端末100は、カウンセリング終了後、視線推定結果テーブル126およびカウンセリング中のカウンセラ21とクライアント22の動画を指導者端末23に送信してもよい。カウンセラ21の指導者は、各時刻におけるクライアント22の関心度とカウンセリングの様子から、カウンセラ21の評価ができる。
図16は、関心度グラフの例を示す図である。関心度グラフ81は、横軸が時刻、縦軸が関心度を示すグラフである。関心度グラフ81は、視線推定結果テーブル126から生成され、指導者端末23に表示される。
関心度グラフ81より、時刻「0:00:10」ごろから時刻「0:02:00」ごろまでの期間は、関心度が40%未満であったため、クライアント22はカウンセラ21の話題に関心がなかったと推定される。また、時刻「0:03:50」ごろから後の時刻では、関心度が70%以上であったため、クライアント22はカウンセラ21の話題に関心があったと推定される。この場合、関心度が低かった時刻「0:00:10」ごろから時刻「0:02:00」ごろまでの期間では、例えばカウンセラ21は話題を変更するとよい。例えばカウンセラ21の指導者は、関心度が低かった時間帯の動画を指導者端末23で再生し、カウンセラ21が当該時間帯に話題を変更していたか否かを確認する。
また、関心度グラフ81より、時刻「0:02:00」ごろと時刻「0:05:00」ごろの関心度の上昇が大きいことから、クライアント22が時刻「0:02:00」ごろと時刻「0:05:00」ごろに発話したがっていたと推定される。この場合、時刻「0:02:00」ごろと時刻「0:05:00」ごろでは、例えばカウンセラ21はクライアント22に発話させるとよい。例えばカウンセラ21の指導者は、関心度の上昇が大きい時間帯の動画を指導者端末23で再生し、カウンセラ21が当該時間帯にクライアント22に発話させていたか否かを確認する。
このように、関心度グラフ81によってカウンセラ21の指導者に、カウンセリングを評価するために注目すべき時間帯と確認する事項が提示される。これにより、カウンセラ21の指導者は、カウンセラ21のカウンセリングを適切に評価できる。
以上、実施の形態を例示したが、実施の形態で示した各部の構成は同様の機能を有する他のものに置換することができる。また、他の任意の構成物や工程が付加されてもよい。さらに、前述した実施の形態のうちの任意の2以上の構成(特徴)を組み合わせたものであってもよい。
1a,1b ユーザ
2a,2b 端末装置
3a,3b 表示部
4a,4b,4c,・・・,5a,5b,5c,・・・ ユーザ画像
6 レイアウト情報
7,8 視線情報
7a,7b,7c,・・・,8a,8b,8c,・・・ 視線座標
9 推定表示領域
10 情報処理装置
11 記憶部
12 処理部

Claims (7)

  1. コンピュータに、
    ネットワークで接続された第1端末装置を用いる第1ユーザと第2端末装置を用いる第2ユーザとのビデオ通話の通話実施期間において、前記第1端末装置の第1表示部に表示される前記第2ユーザの顔が写った複数の第2ユーザ画像と、前記第1表示部に表示されるコンテンツとの前記第1表示部における画面内の表示領域を示すレイアウト情報と、前記第1ユーザの顔が写った複数の第1ユーザ画像から算出される、前記通話実施期間において前記第1ユーザが前記第1表示部に対して向けた視線を示す第1視線情報とに基づいて、前記第1ユーザによる前記コンテンツに関する説明が行われた第1期間と、前記第1ユーザと前記第2ユーザとで前記コンテンツの説明以外のコミュニケーションが行われた第2期間とを判定し、
    前記第1表示部に表示される前記複数の第2ユーザ画像に基づいて、前記通話実施期間において前記第2ユーザが向けた視線を示す第2視線情報を算出し、
    前記第2視線情報に示される、前記第1期間と前記第2期間とにおける前記第2ユーザの視線の違いに基づいて、前記コンテンツと前記複数の第1ユーザ画像とが表示された前記第2端末装置の第2表示部における、前記複数の第1ユーザ画像の第2表示部の画面内の表示領域を推定し、
    推定された前記複数の第1ユーザ画像の表示領域と前記第2視線情報とに基づいて、前記通話実施期間において、前記第2ユーザが、前記第2端末装置の第2表示部に表示される前記複数の第1ユーザ画像を見ているか否かを推定する、
    処理を実行させる視線情報処理プログラム。
  2. 前記複数の第1ユーザ画像の表示領域の推定では、
    前記第2表示部の画面を分割して得られる単位領域ごとに、前記第1期間内において、前記第2ユーザの視線が前記単位領域に向けられた回数を示す第1回数を集計し、
    前記単位領域ごとに、前記第2期間内において、前記第2ユーザの視線が前記単位領域に向けられた回数を示す第2回数を集計し、
    単位時間あたりの前記第2回数から前記単位時間あたりの前記第1回数を減算した値が所定値以上となる前記単位領域の集合を、前記複数の第1ユーザ画像の表示領域と推定する、
    請求項1記載の視線情報処理プログラム。
  3. 前記コンピュータに、さらに、
    前記複数の第2ユーザ画像から、前記通話実施期間における前記第2ユーザの顔向きを示す値を算出し、
    前記第1期間における前記顔向きを示す値の平均値を算出する、
    処理を実行させ、
    前記複数の第1ユーザ画像の表示領域の推定では、前記第2期間内の前記第2ユーザの顔が写った所定の第2ユーザ画像から算出される前記顔向きを示す値と前記平均値との差の絶対値が閾値以上である場合、前記所定の第2ユーザ画像から算出される前記第2ユーザの視線を集計対象から除外する、
    請求項2記載の視線情報処理プログラム。
  4. 前記第1期間と前記第2期間との判定では、前記通話実施期間を分割して得られる複数の単位期間のうちの判定対象単位期間内の前記第1ユーザの視線のうち、前記コンテンツの表示領域に向けられた視線の割合が所定値以上の場合、前記判定対象単位期間を前記第1期間と判定する、
    請求項1ないし3のいずれかに記載の視線情報処理プログラム。
  5. 前記第1期間と前記第2期間との判定では、前記通話実施期間を分割して得られる複数の単位期間のうちの判定対象単位期間内の前記第1ユーザの視線のうち、前記複数の第2ユーザ画像の表示領域または前記第1ユーザを撮影するカメラの設置領域に向けられた視線の割合が所定値未満の場合、前記判定対象単位期間を前記第1期間と判定する、
    請求項1ないし3のいずれかに記載の視線情報処理プログラム。
  6. ネットワークで接続された第1端末装置を用いる第1ユーザと第2端末装置を用いる第2ユーザとのビデオ通話の通話実施期間において、前記第2端末装置の第2表示部に表示される前記第1ユーザの顔が写った複数の第1ユーザ画像と、前記通話実施期間において、前記第1端末装置の第1表示部に表示される前記第2ユーザの顔が写った複数の第2ユーザ画像と、前記複数の第2ユーザ画像と前記第1表示部に表示されるコンテンツとの前記第1表示部における画面内の表示領域を示すレイアウト情報とを記憶する記憶部と、
    前記レイアウト情報と、前記複数の第1ユーザ画像から算出される、前記通話実施期間において前記第1ユーザが前記第1表示部に対して向けた視線を示す第1視線情報とに基づいて、前記第1ユーザによる前記コンテンツに関する説明が行われた第1期間と、前記第1ユーザと前記第2ユーザとで前記コンテンツの説明以外のコミュニケーションが行われた第2期間とを判定し、前記複数の第2ユーザ画像に基づいて、前記通話実施期間において前記第2ユーザが向けた視線を示す第2視線情報を算出し、前記第2視線情報に示される、前記第1期間と前記第2期間とにおける前記第2ユーザの視線の違いに基づいて、前記コンテンツと前記複数の第1ユーザ画像とが表示された前記第2端末装置の第2表示部における、前記複数の第1ユーザ画像の第2表示部の画面内の表示領域を推定し、推定された前記複数の第1ユーザ画像の表示領域と前記第2視線情報とに基づいて、前記通話実施期間において、前記第2ユーザが、前記第2端末装置の第2表示部に表示される前記複数の第1ユーザ画像を見ているか否かを推定する処理部と、
    を有する情報処理装置。
  7. コンピュータが、
    ネットワークで接続された第1端末装置を用いる第1ユーザと第2端末装置を用いる第2ユーザとのビデオ通話の通話実施期間において、前記第1端末装置の第1表示部に表示される前記第2ユーザの顔が写った複数の第2ユーザ画像と、前記第1表示部に表示されるコンテンツとの前記第1表示部における画面内の表示領域を示すレイアウト情報と、前記第1ユーザの顔が写った複数の第1ユーザ画像から算出される、前記通話実施期間において前記第1ユーザが前記第1表示部に対して向けた視線を示す第1視線情報とに基づいて、前記第1ユーザによる前記コンテンツに関する説明が行われた第1期間と、前記第1ユーザと前記第2ユーザとで前記コンテンツの説明以外のコミュニケーションが行われた第2期間とを判定し、
    前記第1表示部に表示される前記複数の第2ユーザ画像に基づいて、前記通話実施期間において前記第2ユーザが向けた視線を示す第2視線情報を算出し、
    前記第2視線情報に示される、前記第1期間と前記第2期間とにおける前記第2ユーザの視線の違いに基づいて、前記コンテンツと前記複数の第1ユーザ画像とが表示された前記第2端末装置の第2表示部における、前記複数の第1ユーザ画像の第2表示部の画面内の表示領域を推定し、
    推定された前記複数の第1ユーザ画像の表示領域と前記第2視線情報とに基づいて、前記通話実施期間において、前記第2ユーザが、前記第2端末装置の第2表示部に表示される前記複数の第1ユーザ画像を見ているか否かを推定する、
    視線情報処理方法。
JP2019166031A 2019-09-12 2019-09-12 視線情報処理プログラム、情報処理装置および視線情報処理方法 Active JP7284401B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019166031A JP7284401B2 (ja) 2019-09-12 2019-09-12 視線情報処理プログラム、情報処理装置および視線情報処理方法
US17/015,777 US11468657B2 (en) 2019-09-12 2020-09-09 Storage medium, information processing apparatus, and line-of-sight information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019166031A JP7284401B2 (ja) 2019-09-12 2019-09-12 視線情報処理プログラム、情報処理装置および視線情報処理方法

Publications (2)

Publication Number Publication Date
JP2021044723A JP2021044723A (ja) 2021-03-18
JP7284401B2 true JP7284401B2 (ja) 2023-05-31

Family

ID=74862592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019166031A Active JP7284401B2 (ja) 2019-09-12 2019-09-12 視線情報処理プログラム、情報処理装置および視線情報処理方法

Country Status (2)

Country Link
US (1) US11468657B2 (ja)
JP (1) JP7284401B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009147792A (ja) 2007-12-17 2009-07-02 Nec Corp 画像付通信装置、画像付通信表示方法、プログラムおよび画像付通信システム
JP2011097531A (ja) 2009-11-02 2011-05-12 Advanced Telecommunication Research Institute International 傾聴対話持続システム
JP2013046319A (ja) 2011-08-26 2013-03-04 Hitachi Consumer Electronics Co Ltd 画像処理装置及び、画像処理方法
JP2014090230A (ja) 2012-10-29 2014-05-15 Kyocera Corp テレビ電話機能付き機器、プログラムおよびテレビ電話機能付き機器の制御方法
JP2016140720A (ja) 2015-02-05 2016-08-08 株式会社リコー 通信端末、面談システム、表示方法及びプログラム
JP2016163166A (ja) 2015-03-02 2016-09-05 株式会社リコー 通信端末、面談システム、表示方法及びプログラム
US20160378183A1 (en) 2015-06-26 2016-12-29 Samsung Electronics Co., Ltd. Display apparatus and image correction method thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4168980B2 (ja) 2003-08-22 2008-10-22 セイコーエプソン株式会社 要素レイアウト装置および要素レイアウトプログラム、並びに要素レイアウト方法
JP2015219892A (ja) 2014-05-21 2015-12-07 大日本印刷株式会社 視線分析システムおよび視線分析装置
JP6433209B2 (ja) 2014-09-18 2018-12-05 大和ハウス工業株式会社 対話用通信システム及び対話用通信方法
US20210405865A1 (en) * 2020-06-26 2021-12-30 Microsoft Technology Licensing, Llc Dynamic positioning of content views based on a camera position relative to a display screen

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009147792A (ja) 2007-12-17 2009-07-02 Nec Corp 画像付通信装置、画像付通信表示方法、プログラムおよび画像付通信システム
JP2011097531A (ja) 2009-11-02 2011-05-12 Advanced Telecommunication Research Institute International 傾聴対話持続システム
JP2013046319A (ja) 2011-08-26 2013-03-04 Hitachi Consumer Electronics Co Ltd 画像処理装置及び、画像処理方法
JP2014090230A (ja) 2012-10-29 2014-05-15 Kyocera Corp テレビ電話機能付き機器、プログラムおよびテレビ電話機能付き機器の制御方法
JP2016140720A (ja) 2015-02-05 2016-08-08 株式会社リコー 通信端末、面談システム、表示方法及びプログラム
JP2016163166A (ja) 2015-03-02 2016-09-05 株式会社リコー 通信端末、面談システム、表示方法及びプログラム
US20160378183A1 (en) 2015-06-26 2016-12-29 Samsung Electronics Co., Ltd. Display apparatus and image correction method thereof

Also Published As

Publication number Publication date
US11468657B2 (en) 2022-10-11
US20210081697A1 (en) 2021-03-18
JP2021044723A (ja) 2021-03-18

Similar Documents

Publication Publication Date Title
US10586395B2 (en) Remote object detection and local tracking using visual odometry
CN109891189B (zh) 策划的摄影测量
RU2607774C2 (ru) Способ управления в системе захвата изображения, устройство управления и машиночитаемый носитель данных
US10235574B2 (en) Image-capturing device, recording device, and video output control device
US20130135295A1 (en) Method and system for a augmented reality
US9875408B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP2007310454A (ja) 画像評価装置および被験者集中度算出装置、並びに、画像評価プログラムおよび被験者集中度算出プログラム
CN109154862B (zh) 用于处理虚拟现实内容的装置、方法和计算机可读介质
EP2798853A1 (en) Interactive media systems
JP6867056B2 (ja) 情報処理装置、制御方法、及びプログラム
JP2009277097A (ja) 情報処理装置
KR20180074180A (ko) 가상현실 영상에 대한 정보를 제공하는 장치 및 방법
JP2012123513A (ja) 情報処理装置、および情報処理システム
JP2017162103A (ja) 点検作業支援システム、点検作業支援方法、点検作業支援プログラム
US9619707B2 (en) Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium
JP5489197B2 (ja) 電子広告装置・方法及びプログラム
JP2008288707A (ja) 監視装置
JP6214334B2 (ja) 電子機器、判定方法及びプログラム
JP7284401B2 (ja) 視線情報処理プログラム、情報処理装置および視線情報処理方法
US10057321B2 (en) Image management apparatus and control method capable of automatically creating comment data relevant to an image
CN109218620B (zh) 基于环境亮度的拍照方法、装置、存储介质及移动终端
US20220189200A1 (en) Information processing system and information processing method
JPWO2018179119A1 (ja) 映像解析装置、映像解析方法およびプログラム
CN109040604B (zh) 拍摄图像的处理方法、装置、存储介质及移动终端
US9483125B2 (en) Position information obtaining device and method, and image display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220609

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230412

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230501

R150 Certificate of patent or registration of utility model

Ref document number: 7284401

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150