JP2016066351A - 情報処理システム、情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理システム、情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2016066351A
JP2016066351A JP2015174042A JP2015174042A JP2016066351A JP 2016066351 A JP2016066351 A JP 2016066351A JP 2015174042 A JP2015174042 A JP 2015174042A JP 2015174042 A JP2015174042 A JP 2015174042A JP 2016066351 A JP2016066351 A JP 2016066351A
Authority
JP
Japan
Prior art keywords
information
user
gaze
information processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015174042A
Other languages
English (en)
Inventor
拓哉 水原
Takuya Mizuhara
拓哉 水原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US14/848,817 priority Critical patent/US10359842B2/en
Publication of JP2016066351A publication Critical patent/JP2016066351A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】キャリブレーション対象のユーザにキャリブレーションを実行していることを意識させずにキャリブレーションを実行する。
【解決手段】第1の情報処理装置と、第2の情報処理装置とを備える情報処理システムであって、検出部と注視点情報生成部と表示制御部とを備える。検出部は、第1の情報処理装置を利用する第1ユーザの視線方向を検出する。注視点情報生成部は、視線方向に基づいて、第1の情報処理装置および第2の情報処理装置の各々に共通に表示する第1画面情報のうち第1ユーザが注視している位置を示す注視点情報を生成する。表示制御部は、第1ユーザの視線方向と、実際の注視位置との対応関係を決めるためのキャリブレーションを実行する場合において、第1画面情報上に、注視点情報が示す位置に表示する第2画像と、第1ユーザに注視させる注視指示位置に表示する第3画像と、を含む表示画像を、第2の情報処理装置に表示する制御を行う。
【選択図】図2

Description

本発明は、情報処理システム、情報処理装置、情報処理方法およびプログラムに関する。
従来、赤外線LEDと赤外線カメラで構成される視線センサーを用いて、コンピュータの表示画面を注視するユーザの視線方向を検出する技術が知られている。ここで、眼球の物理的な形状には個人差があるので、ユーザの視線方向と、実際の注視位置との対応関係を決めるためのキャリブレーションが必要となる。
例えば特許文献1には、コンピュータの表示画面の所定位置にマーカーを表示してキャリブレーションを行う初期キャリブレーション工程と、アプリケーションの実行時に(イベントが発生する毎に)キャリブレーションを再実行する動的キャリブレーション工程とを含むキャリブレーション方法が開示されている。
従来技術においては、キャリブレーションを実行する場合、被験者が観察する表示画面に、被験者に注視させるための注視画像(マーカー等)を表示するので、キャリブレーションを実行していることを被験者が知りながらキャリブレーションが進められていく。しかしながら、例えば被験者に心理的なストレスを与えることを防ぐ等の目的で、キャリブレーションを実行していることをユーザに意識させたくないような場合もある。
上述した課題を解決し、目的を達成するために、本発明は、第1の情報処理装置と、前記第1の情報処理装置と通信可能な第2の情報処理装置とを備える情報処理システムであって、前記第1の情報処理装置を利用する第1ユーザの視線方向を検出する検出部と、前記視線方向に基づいて、前記第1の情報処理装置および前記第2の情報処理装置の各々に共通に表示する第1画面情報のうち前記第1ユーザが注視している位置を示す注視点情報を生成する注視点情報生成部と、前記第1ユーザの視線方向と、実際の注視位置との対応関係を決めるためのキャリブレーションを実行する場合において、前記第1画面情報上に、前記注視点情報が示す位置に表示する第2画像と、前記第1ユーザに注視させる注視指示位置に表示する第3画像と、を含む表示画像を、前記第2の情報処理装置に表示する制御を行う表示制御部と、を備える。
本発明によれば、キャリブレーション対象のユーザにキャリブレーションを実行していることを意識させずにキャリブレーションを実行することができる。
図1は、実施形態の情報処理システムの構成の一例を示す図である。 図2は、被験者が利用するPC端末のハードウェア構成の一例を示す図である。 図3は、医師が利用するPC端末のハードウェア構成の一例を示す図である。 図4は、被験者が利用するPC端末の機能構成の一例を示す図である。 図5は、視線方向の検出方法について説明する図である。 図6は、健康診断データの一例を示す図である。 図7は、健康診断データの一例を示す図である。 図8は、健康診断データの一例を示す図である。 図9は、健康診断データの一例を示す図である。 図10は、医師が利用するPC端末の機能構成の一例を示す図である。 図11は、実施形態の情報処理システムの概略図である。 図12は、注視点マーカーおよび注視指示マーカーの一例を示す図である。 図13は、第1モードにおける注視指示位置の決定方法を説明するための図である。 図14は、第2モードにおける注視指示位置の決定方法を説明するための図である。 図15は、情報処理システムの動作手順の一例を示すシーケンス図である。 図16は、被験者が利用するPC端末の動作例を示すフローチャートである。 図17は、医師が利用するPC端末の動作例を示すフローチャートである。 図18は、医師が利用するPC端末の動作例を示すフローチャートである。 図19は、医師が利用するPC端末の動作例を示すフローチャートである。 図20は、第1の変形例の被験者が利用するPC端末の機能構成の一例を示す図である。 図21は、第1の変形例の医師が利用するPC端末の機能構成の一例を示す図である。 図22は、第1の変形例の情報処理システムの動作手順の一例を示すシーケンス図である。 図23は、第2の変形例の被験者が利用するPC端末の機能構成の一例を示す図である。 図24は、第2の変形例の医師が利用するPC端末の機能構成の一例を示す図である。 図25は、第2の変形例の情報処理システムの動作手順の一例を示すシーケンス図である。 図26は、第3の変形例の情報処理システムの構成の一例を示す図である。 図27は、第3の変形例のサーバ装置のハードウェア構成の一例を示す図である。 図28は、第3の変形例のサーバ装置の機能構成の一例を示す図である。 図29は、第3の変形例の被験者が利用するPC端末の機能構成の一例を示す図である。 図30は、第3の変形例の医師が利用するPC端末の機能構成の一例を示す図である。
以下、添付図面を参照しながら、本発明に係る情報処理システム、情報処理装置、情報処理方法およびプログラムの実施形態を詳細に説明する。
図1は、本実施形態に係る情報処理システム1の構成の一例を示す図である。図1の例では、被験者(以下、「ユーザA」と称する場合がある)が存在する拠点Aおよび拠点Bには、それぞれ2台のPC端末100が配置される。また、健康診断等を実施する医師(以下、「ユーザB」と称する場合がある)が存在する拠点Cには、1台のPC端末200が配置されている。複数のPC端末100およびPC端末200の各々は、インターネットなどのネットワーク10を介して相互に接続されている。本実施形態に係る情報処理システム1の利用シーンとしては遠隔において、例えば、医師と患者とのカウンセリング、産業医と従業員とのメンタルヘルスケア、教師と生徒との面談など、両者が対等な立場というよりは、一方が強い立場であるような関係などが想定される。また、警官と犯人との取り調べが行われる場面なども想定される。なお、ユーザAは請求項の「第1ユーザ」に対応し、ユーザBは請求項の「第2ユーザ」に対応する。
図2は、ユーザAが利用するPC端末100のハードウェア構成の一例を示す図である。図2に示すように、PC端末100は、CPU120と、ROM121と、RAM122と、表示部123と、操作部124と、センサI/F部125と、ネットワークI/F部126とを有する。CPU120は、PC端末100の動作を統括的に制御する。ROM121は、プログラム等の各種のデータを保持する不揮発性のメモリである。RAM122は、CPU120のワークエリア(作業領域)として機能する揮発性のメモリである。表示部123は、各種の情報を表示するデバイスであり、例えば液晶型ディスプレイで構成され得る。操作部124は、各種の操作に用いられるデバイスであり、例えばキーボードやマウス等で構成され得る。センサI/F部125は、赤外線LEDと赤外線カメラで構成される視線センサー130と接続するためのインターフェースである。ネットワークI/F部126は、ネットワーク10と接続するためのインターフェースである。
図3は、ユーザBが利用するPC端末200のハードウェア構成の一例を示す図である。図3に示すように、PC端末200は、CPU230と、ROM231と、RAM232と、表示部233と、操作部234と、ネットワークI/F部235とを有する。CPU230は、PC端末200の動作を統括的に制御する。ROM231は、プログラム等の各種のデータを保持する不揮発性のメモリである。RAM232は、CPU230のワークエリア(作業領域)として機能する揮発性のメモリである。表示部233は、各種の情報を表示するデバイスであり、例えば液晶型ディスプレイで構成され得る。操作部234は、各種の操作に用いられるデバイスであり、例えばキーボードやマウス等で構成され得る。ネットワークI/F部235は、ネットワーク10と接続するためのインターフェースである。
図4は、PC端末100の機能構成の一例を示す図である。図4に示すように、PC端末100は、検出部101と、注視点情報生成部102と、注視点情報保持部103と、注視点情報送信部104と、第1画面情報取得部105と、表示制御部106と、第1画面情報保持部107とを有する。説明の便宜上、図4の例では、本発明に係る機能を主に例示しているが、PC端末100が有する機能はこれらに限られるものではない。
検出部101は、視線センサー130による検出結果を利用して、ユーザAの視線方向を検出する。注視点情報生成部102は、検出部101により検出された視線方向に基づいて、PC端末100(表示部123)に表示する第1画面情報のうちユーザAが注視している位置を示す注視点情報を生成する。視線方向の検出方法としては公知の方法を用いることができ、例えば、特許文献2に記載されている角膜反射法などが挙げられる。図5は、角膜反射法について説明する図である。図5に示すように、赤外線21が眼の角膜曲率中心22に向かって入射すると角膜23に角膜反射(プルキニエ像)24ができる。瞳孔中心25からの視線方向26は画面27の右上の点28を向いている。角膜反射法は、赤外線21の角膜反射(プルキニエ像)24が角膜23と眼球の回転中心の違いにより、眼球運動に伴って平行移動するのを検出する方法である。具体的には、赤外線LEDでユーザAの顔を照らして、赤外線カメラで目を撮像する。赤外線LEDを照らしてできた反射光の角膜23上の位置(角膜反射24)を基準点とする。角膜反射24の位置に対する瞳孔の位置に基づいて、視線方向26を検出する。例えば、左目の角膜反射24よりも瞳孔が目じり側にあれば、ユーザAは左側方向を見ていると検出でき、角膜反射24よりも瞳孔が目頭側にあれば、ユーザAは右側方向を見ていると検出できる。第1画面情報は、PC端末100とPC端末200との間で共通に表示する画面情報である。画面情報とは、表示対象の情報であり、画像に限られるものではない。この例では、第1画面情報は、ユーザAの健康診断の結果を示す健康診断データであるが、これに限られるものではない。また、健康診断データのデータ形式は任意であり、例えばテーブル形式のデータであってもよい。図6〜図9は、健康診断データの一例を示す図である。図6は、ユーザID「0001」と、名前、性別、年齢が対応付いたテーブル形式のデータである。図7は、ユーザID「0001」と、年月日(検診日)、検診項目の結果が対応付いたテーブル形式のデータである。図8は、ユーザID「0001」と、過去の病歴が対応付いたテーブル形式のデータである。図9は、ユーザID「0001」と、生活習慣の結果が対応付いたテーブル形式のデータである。
注視点情報保持部103は、注視点情報を保持する。注視点情報送信部104は、注視点情報生成部102により注視点情報が生成されるたびに、その注視点情報(注視点情報保持部103に保持された最新の注視点情報)をPC端末200へ送信する。
第1画面情報取得部105は、PC端末200から配信される第1画面情報を取得する。表示制御部106は、各種の情報を表示部123に表示する制御を行う。例えば表示制御部106は、第1画面情報取得部105により取得された第1画面情報を表示部123に表示する制御を行う。
第1画面情報保持部107は、第1画面情報取得部105により取得された第1画面情報を保持する。例えば第1画面情報である健康診断データがテーブル形式のデータの場合、第1画面情報保持部107は、予め用意したテーブル内に値を保持することで、健康診断データを保持することができる。
この例では、上述の注視点情報生成部102、注視点情報送信部104、第1画面情報取得部105および表示制御部106の各々の機能は、PC端末100のCPU120がROM121等に格納されたプログラムを実行することにより実現されるが、これに限らず、例えばこれらの機能のうちの少なくとも一部が専用のハードウェア回路(半導体集積回路等)により実現されてもよい。
図10は、PC端末200の機能構成の一例を示す図である。図10に示すように、PC端末200は、注視点情報取得部201と、注視点情報保持部202と、決定部203と、注視指示情報保持部204と、第1画面情報保持部205と、第1画面情報配信部206と、生成部207と、表示制御部208と、判定部210と、キャリブレーション終了判定部211とを有する。説明の便宜上、図10の例では、本発明に係る機能を主に例示しているが、PC端末200が有する機能はこれらに限られるものではない。
注視点情報取得部201は、PC端末100から注視点情報を取得する。注視点情報保持部202は、注視点情報取得部201により取得された注視点情報を保持する。
決定部203は、ユーザBから、キャリブレーションの開始指示を受け付けたことを契機として、PC端末100とPC端末200との間で共通に表示する第1画面情報のうちユーザAに注視させる注視指示位置を決定し、決定した注視指示位置を示す注視指示情報を生成する。この例では、注視指示位置を決定するモード(方式)として、注視指示位置を自動的に決定するモード(以下、「第1モード」と称する場合がある)と、注視指示位置を手動で決定するモード(以下、「第2モード」と称する場合がある)とがあり、ユーザBは、何れかのモードを選択することができる。なお、これに限らず、例えば注視指示位置を決定するモードとして、第1モードおよび第2モードのうちの何れか一方のモードのみが予め定められている形態であってもよい。注視指示位置の決定方法の具体的な内容については後述する。
注視指示情報保持部204は、決定部203により生成された注視指示情報を保持する。第1画面情報保持部205は、第1画面情報を保持する。PC端末100の第1画面情報保持部107と同様に、例えば第1画面情報である健康診断データがテーブル形式のデータの場合、第1画面情報保持部205は、予め用意したテーブル内に値を保持することで、健康診断データを保持することができる。第1画面情報配信部206は、第1画面情報保持部205に保持されている第1画面情報をPC端末100へ配信する。
生成部207は、第1画面情報上に、注視点情報が示す位置に表示する第2画像と、注視指示位置に表示する第3画像と、を含む表示画像を生成する。以下の説明では、第1画面情報を「健康診断データ」と称し、第2画像を「注視点マーカー」と称し、第3画像を「注視指示マーカー」と称する場合がある。この例では、キャリブレーションの実行中において、生成部207は、注視点情報取得部201により新たな注視点情報が取得されるたび、または、決定部203により新たな注視指示位置が決定されるたびに、最新の注視点情報および注視指示情報に基づいて表示画像を生成し、後述の表示制御部208は、その生成された表示画像を表示部233に表示する制御を行う。すなわち、ユーザAの視線方向と、実際の注視位置との対応関係を決めるためのキャリブレーションを実行する場合において、表示制御部208は、第1画面情報上に、注視点情報が示す位置に表示する第2画像と、ユーザAに注視させる注視指示位置に表示する第3画像と、を含む表示画像を、表示部233に表示する制御を行う。
表示制御部208は、各種の情報を表示部233に表示する制御を行う。例えば表示制御部208は、生成部207により生成された表示画像を、表示部233に表示する制御を行う。
判定部210は、ユーザAが注視指示位置を注視したか否かを判定(注視指示が終了したか否かを判定)する。この具体的な内容については後述する。キャリブレーション終了判定部211は、キャリブレーションを終了するか否かを判定する。この具体的な内容については後述する。
この例では、上述の注視点情報取得部201、決定部203、第1画面情報配信部206、生成部207、表示制御部208、判定部210、キャリブレーション終了判定部211の各々の機能は、PC端末200のCPU230がROM231等に格納されたプログラムを実行することにより実現されるが、これに限らず、例えばこれらの機能のうちの少なくとも一部が専用のハードウェア回路(半導体集積回路等)により実現されてもよい。
以下では、図11に示すように、拠点AのユーザAが利用する1台のPC端末100(請求項の「第1の情報処理装置」に対応)と、拠点CのユーザBが利用するPC端末200(請求項の「第2の情報処理装置」に対応)とを例に挙げて、より具体的な内容を説明する。図11の例では、第1画面情報が表示される表示部123の下部に、視線センサー130が設置されている。視線センサー130は、典型的には赤外線LEDと赤外線カメラで構成されるが、これに限らず、公知の様々な構成を採り得る。例えば、可視光カメラを用いることもできる。PC端末100は、視線センサー130による検出結果を用いて、PC端末100(表示部123)に表示する第1画面情報のうちユーザAが注視している位置を示す注視点情報を生成する。ここで、眼球の形状には個人差があるので、ユーザAの視線方向と、実際の注視位置との対応関係を決めるためのキャリブレーションが必要になる。
PC端末200は、PC端末100との間で共通に表示する第1画面情報上に、注視点マーカーと注視指示マーカーとを含む表示画像を表示部233に表示する。ユーザBは、表示部233に表示されている注視指示マーカーを見て、その位置に表示されている項目(この例では、健康診断データに含まれる複数の項目のうちの何れかの項目)を注視するようにユーザAに指示することでキャリブレーションを行う。
ここで、注視点マーカーおよび注視指示マーカーの一例を図12に示す。図12の例では、PC端末200に表示する健康診断データのうち、PC端末100から取得した注視点情報に対応する位置は、健康診断データに含まれる複数の項目のうち、過去の病歴として「脳卒中」が該当するか否かの質問に対する回答の項目の位置を示している。つまり、拠点AのユーザAは、PC端末100に表示された健康診断データに含まれる複数の項目のうち、過去の病歴として「脳卒中」が該当するか否かの質問に対する回答の項目を注視していることを示しており、注視点マーカーは、PC端末200に表示される健康診断データのうち、過去の病歴として「脳卒中」が該当するか否かの質問に対する回答の項目の位置に表示される。
また、図12の例では、注視指示情報が示す注視指示位置は、健康診断データに含まれる複数の項目のうち、「山田太郎」という名前のユーザの「年齢」の項目の位置を示しており、注視指示マーカーは、PC端末200に表示される健康診断データのうち、「山田太郎」という名前のユーザの「年齢」の項目の位置に表示される。図12の例では、キャリブレーションが開始されると、健康診断データ上に、注視点マーカーと、注視指示マーカーと、「キャリブレーション中」という文字列とを含む表示画像(この例では、健康診断データ上に、注視点マーカーと、注視指示マーカーと、「キャリブレーション中」という文字列とを重ね合わせた(合成した)表示画像)が、PC端末200(表示部233)に表示される。
次に、注視指示位置の決定方法の一例を説明する。ここで、PC端末100とPC端末200との間で共通に表示する第1画面情報は、拠点AのユーザAがそれぞれを注視可能な複数の特徴領域を有している。例えば、上記特徴領域は、表構造に含まれる複数の項目のうちの何れか1つの項目に対応する領域であってもよい。前述したように、この例では、第1画面情報は健康診断データであり、健康診断データに含まれる複数の項目の各々が上記特徴領域に対応しているが、これに限られるものではない。
まず、上述の第1モード(注視指示位置を自動的に決定するモード)における注視指示位置の決定方法の一例を説明する。この場合、PC端末200の決定部203は、予め定められた規則に従って、何れか1つの特徴領域(この例では、健康診断データに含まれる複数の項目のうちの何れか1つの項目)を、注視指示位置として自動的に決定する。そして、決定部203は、判定部210によりユーザAが注視指示位置を注視したと判定された場合、ユーザAが注視したと判定された注視指示位置に対応する特徴領域とは異なる特徴領域を、新たな注視指示位置として決定する。前述したように、本実施形態では、キャリブレーションの実行中において、決定部203により新たな注視指示位置が決定されるたびに(あるいは注視点情報取得部201により新たな注視点情報が取得されるたびに)、生成部207は、最新の注視点情報および注視指示情報に基づいて、健康診断データ上に、注視点マーカーと、注視指示マーカーと、「キャリブレーション中」という文字列とを含む表示画像を生成し直し、表示制御部208は、その生成された表示画像を表示部233に表示する制御を行う。この一連の処理は、キャリブレーションが終了するまで繰り返されることになる。以下、図13を参照しながら、注視指示位置の決定方法の具体的な内容を説明する。
図13の例では、健康診断データは、名前、性別、年齢の項目を含むユーザの基本情報を表す第1の表構造11と、身長、体重といった検診項目と検診日時を表す第2の表構造12と、過去の病歴に関する質問と回答を表す第3の表構造13と、生活習慣に関する質問と回答を表す第4の表構造14とを含んでいる。図13の例では、決定部203は、第1の表構造11→第2の表構造12→第3の表構造13→第4の表構造14の順番に、各表構造の左端の中心の項目を、注視指示位置として順に決定する。図13の例では、注視指示マーカーに付された数字(1〜4)は、注視指示位置として決定される順番を表している。
表構造の左端の中心の項目を選択する際に、表構造が複数の行から構成され、かつ、その行数が偶数の場合は、行数を2で除算した値が行番号として割り当てられる行が選択され、表構造が複数の行から構成され、かつ、その行数が奇数の場合は、行数を1だけ増やして2で除算した値が行番号として割り当てられる行が選択される。一例として、図13に示す第2の表構造12では、行数が8であるため、左端の検診項目のうち、8を2で除算した「4」が行番号として割り当てられる第4行目の「BMI」が選択されるといった具合である。また、第3の表構造13では、行数が7であるため、左端の過去の病歴の項目のうち、7を1だけ増やした8を2で除算した「4」が行番号として割り当てられる第4行目の「がん」が選択されるといった具合である。
決定部203は、判定部210によりユーザAが注視指示位置を注視したと判定されるたびに、次の順番の項目を、新たな注視指示位置として決定し、予め定められた所定数(図13の例では4つであるがこれに限られるものではない)の項目の全てを、注視指示位置として決定するまで、上記決定処理を繰り返す。また、図13の例では、第1の表構造11→第2の表構造12→第3の表構造13→第4の表構造14の順番に、各表構造の左端の中心の項目を、注視指示位置として順に決定しているが、これに限らず、項目の種類や数、ならびに注視指示位置として決定する順番は任意に設定可能である。
また、例えば決定部203は、注視指示位置を決定してから一定期間の間、ユーザAが当該注視指示位置を注視したと判定されなかった場合は、当該注視指示位置に対応する項目をスキップし、次の順番の項目を、新たな注視指示位置として決定することもできる。また、例えば決定部203は、ユーザAが、スキップした項目以外の項目に対応する注視指示位置を注視したと判定された後に、スキップした項目の近傍の項目を、新たな注視指示位置として決定することもできる。要するに、決定部203は、注視指示位置を決定してから一定期間の間、ユーザAが当該注視指示位置を注視したと判定されなかった場合は、当該注視指示位置に対応する項目とは異なる項目を、新たな注視指示位置として決定することもできる。
ここで、ユーザAが注視指示位置を注視したか否かを判定する方法の一例を説明する。本実施形態では、判定部210は、注視点マーカー(第2画像)と注視指示マーカー(第3画像)との位置関係に基づいて、拠点AのユーザAが注視指示位置を注視したか否かを判定する。より具体的には、判定部210は、注視点マーカーと注視指示マーカーとが重なり合う領域を示す重畳領域の面積が閾値以上の場合、ユーザAが注視指示位置を注視したと判定する。なお、閾値は任意に変更可能であり、例えば注視点マーカーおよび注視指示マーカーのうちの一方(例えばサイズが小さい方)のサイズの50%に相当する値を閾値として設定することもできるし、100%に相当する値を閾値として設定することもできる。
また、これに限らず、例えば判定部210は、予め定められた周期(例えば1秒周期)で、上記重畳領域が閾値以上であるか否かを判定し、一定期間内において、重畳領域が閾値以上であると判定した回数が所定数(例えば5秒以内に3回)以上の場合は、ユーザAが注視指示位置を注視したと判定することもできる。
さらに、例えば判定部210は、健康診断データに含まれる複数の項目(特徴領域の一例)のうち、注視点情報に対応する項目(注視点マーカーが表示される項目)と、注視指示情報に対応する項目(注視指示マーカーが表示される項目)とが一致する場合、ユーザAが注視指示位置を注視したと判定することもできる。また、上記と同様に、例えば判定部210は、予め定められた周期(例えば1秒周期)で、注視点情報に対応する項目と、注視指示情報に対応する項目とが一致するか否かを判定し、一定期間内において、一致すると判定した回数が所定数(例えば5秒以内に3回)以上の場合は、ユーザAが注視指示位置を注視したと判定することもできる。
続いて、キャリブレーションを終了するか否かを判定する方法の一例を説明する。本実施形態では、PC端末200のキャリブレーション終了判定部211は、上記規則により注視指示位置として決定することが予め定められた複数の項目の各々について、ユーザAが、当該項目に対応する注視指示位置を注視したと判定された場合、キャリブレーションを終了すると判定する。
次に、上述の第2モード(注視指示位置を手動で決定するモード)における注視指示位置の決定方法の一例を説明する。この場合、決定部203は、ユーザBによる選択指示に従って、何れか1つの項目を注視指示位置として決定する。例えば、決定部203は、健康診断データを分割するとともに、それぞれが1以上の項目を含む複数の選択範囲のうちの少なくとも1つを、ユーザBによる選択指示を受け付け可能な選択範囲として決定することができる。以下、図14を参照しながら、注視指示位置の決定方法の具体的な内容を説明する。
図14の例では、決定部203は、健康診断データを6等分する6つの選択範囲のうちの何れか1つを、ユーザBによる選択指示を受け付け可能な選択範囲として決定し、ユーザBによる選択指示に従って、当該選択範囲に含まれる何れか1つの項目を注視指示位置として決定する。なお、選択範囲の数は6つに限られるものではなく、複数の選択範囲の各々のサイズも個別に変更可能である。例えば複数の選択範囲の各々のサイズが異なる形態であってもよい。図14の例では、決定部203は、判定部210によりユーザAが注視指示位置を注視したと判定されるたびに、予め定められた順番に従って、6つの選択範囲のうちの何れか1つを、ユーザBによる選択指示を受け付け可能な選択範囲として決定し、ユーザBによる選択指示を待って、新たな注視指示位置を決定する。なお、判定部210による判定方法は第1モードと同様である。図14の例では、注視点マーカーに付された数字(1〜6)は、当該注視点マーカーを含む選択範囲が、ユーザBによる選択指示を受け付け可能な選択範囲として決定される順番を表しているが、この順番は一例であり、任意に変更可能である。
第1モードと同様に、キャリブレーションの実行中において、決定部203により新たな注視指示位置が決定されるたびに(あるいは注視点情報取得部201により新たな注視点情報が取得されるたびに)、生成部207は、最新の注視点情報および注視指示情報に基づいて、健康診断データ上に、注視点マーカーと、注視指示マーカーと、「キャリブレーション中」という文字列とを含む表示画像を生成し直し、表示制御部208は、その生成された表示画像を表示部233に表示する制御を行う。この一連の処理は、キャリブレーションが終了するまで繰り返されることになる。
また、図14の例では、キャリブレーション終了判定部211は、拠点AのユーザAが、6つの選択範囲の各々においてユーザBによる選択指示に従って決定された注視指示位置を注視したと判定された場合、キャリブレーションを終了すると判定するが、終了判定の方法はこれに限られるものではない。例えば上述した選択範囲が設定されず、ユーザBは、注視指示位置として、健康診断データの任意の項目を選択可能である形態において、キャリブレーション終了判定部211は、ユーザAが、それぞれがキャリブレーションに必要な位置に存在する複数の項目の各々に対応する注視指示位置を注視したと判定された場合に、キャリブレーションを終了すると判定することもできる。この形態において、決定部203は、ユーザBに対して、健康診断データのうちキャリブレーションに必要な位置に対応する項目の選択指示を促す情報を報知する制御を行うこともできる。報知の形態は任意であり、例えば音声を出力する形態でもよいし、画像やテキストを表示部233に表示する形態でもよい。
要するに、キャリブレーション終了判定部211は、キャリブレーションに必要な複数の特徴領域(この例では健康診断データに含まれる項目)の各々について、拠点AのユーザAが、当該特徴領域に対応する注視指示位置を注視したと判定された場合、キャリブレーションを終了すると判定することができる。
図15は、本実施形態に係る情報処理システム1の動作手順の一例を示すシーケンス図である。ここでは、拠点AのPC端末100(表示部123)および拠点CのPC端末200(表示部233)の各々には、第1画面情報である健康診断データが表示されていることを前提とする。
まず、拠点AのユーザAは、PC端末100(表示部123)を注視し、PC端末100(検出部101)は、ユーザAの視線方向を検出する(ステップS101)。次に、PC端末100の注視点情報生成部102は、ユーザAの視線方向に基づいて上述の注視点情報を生成する(ステップS102)。
次に、PC端末100(注視点情報送信部104)は、ステップS2で生成された注視点情報を、PC端末200へ送信する(ステップS103)。次に、PC端末200(生成部207、表示制御部208)は、表示部233に表示する健康診断データ上に、当該健康診断データのうちステップS103で送られてきた注視点情報に対応する位置に表示する注視点マーカーを含む表示画像(この例では健康診断データ上に注視点マーカーを重ね合わせた(合成した)表示画像)を、表示部233に表示する(ステップS104)。
拠点CのユーザBは、PC端末200(表示部233)に表示された注視点マーカーを確認することで、拠点AのユーザAが、健康診断データのうちのどの位置を注視しているのかを確認することができる。上述したステップS101〜ステップS104までの流れは、キャリブレーションを実行するか否かに関わらず、PC端末100とPC端末200との接続が切断されるまで、繰り返し実行される。
ユーザBが、PC端末200に対して、キャリブレーションの開始指示を入力し、第1モードおよび第2モードのうちの何れかを選択する指示を入力すると、PC端末200(決定部203)は、注視指示位置を決定するモードとして、第1モードおよび第2モードのうちの何れかを決定する(ステップS105)。そして、PC端末200(決定部203)は、その決定したモードに従って注視指示位置を決定する。
そして、PC端末200(生成部207、表示制御部208)は、PC端末200に表示する健康診断データ上に、当該健康診断データのうち、最新の注視点情報に対応する位置に表示する注視点マーカーと、当該健康診断データのうち注視指示位置に表示する注視指示マーカーと、を含む表示画像を表示部233に表示する(ステップS106)。
ユーザBは、PC端末200(表示部233)に表示された注視指示マーカーを確認することで、健康診断データのどの項目をユーザAに注視させるかを確認することができ、ユーザAに対して、注視指示マーカーに対応する項目を注視するように指示する。この指示の形態は任意であり、例えばPC端末100とPC端末200との通信を利用して、PC端末100に、健康診断データのうち注視すべき項目を示す情報を出力させる形態であってもよい(音声出力させる形態でもよいし、画像情報やテキストを表示部233に表示させる形態でもよい)し、例えば電話機等の通話機能を利用して指示する形態であってもよい。上述したステップS105〜ステップS106までの流れは、キャリブレーションが終了するまで繰り返し実行される。
次に、図16を用いて、PC端末100の動作例を説明する。図16は、PC端末100の動作例を示すフローチャートである。図16に示すように、まず検出部101は、ユーザAの視線方向を検出する(ステップS1)。次に、注視点情報生成部102は、ステップS1で検出された視線方向に基づいて上述の注視点情報を生成し(ステップS2)、その生成した注視点情報を注視点情報保持部103に保持させる(ステップS3)。次に、注視点情報送信部104は、ステップS3で注視点情報保持部103に保持された注視点情報(最新の注視点情報)をPC端末200へ送信する(ステップS4)。
次に、図17を用いて、PC端末100からの注視点情報を取得した場合のPC端末200の動作例を説明する。図17は、この場合のPC端末200の動作例を示すフローチャートである。図17に示すように、まず注視点情報取得部201は、PC端末100(注視点情報送信部104)から送信されてきた注視点情報を取得し(ステップS11)、その取得した注視点情報を注視点情報保持部202に保持させる(ステップS12)。次に、生成部207は、PC端末200に表示する健康診断データ上に、当該健康診断データのうち、ステップS12で注視点情報保持部202に保持された注視点情報(最新の注視点情報)に対応する位置に表示する注視点マーカーを含む表示画像を生成する(ステップS13)。次に、表示制御部208は、ステップS13で生成された表示画像を表示部233に表示する制御を行う(ステップS14)。
次に、図18を用いて、キャリブレーションを実行する場合のPC端末200の動作例を説明する。図18は、キャリブレーションを実行する場合のPC端末200の動作例を示すフローチャートである。この例では、ユーザBから、キャリブレーションの開始指示を受け付けると、決定部203は、「キャリブレーション中」という文字列を表示するよう、生成部207および表示制御部208に指示する。この指示を受けた生成部207は、PC端末200に表示する健康診断データ上に、当該健康診断データのうち、最新の注視点情報に対応する位置に表示する注視点マーカーと、「キャリブレーション中」という文字列とを含む表示画像を生成し、表示制御部208は、その生成された表示画像を表示部233に表示する制御を行う(ステップS21)。
次に、決定部203は、ユーザBからの、第1モードおよび第2モードのうちの何れかを選択する指示に従って、注視指示位置を決定するモードを決定し(ステップS22)、キャリブレーションを実行する(ステップS23)。具体的には、図19に示す一連の処理を繰り返し実行することになる。図19は、1つの注視指示位置が決定されてから、ユーザAが当該注視指示位置を注視したと判定されるまでのPC端末200の動作例を示すフローチャートである。以下、具体的な内容を説明する。図19に示すように、まず決定部203は、図18のステップS22で決定されたモードに応じた方法で、注視指示位置を決定し、決定した注視指示位置を示す注視指示情報を生成する(ステップS31)。注視指示位置の決定方法は上述したとおりである。決定部203は、ステップS31で決定した注視指示情報を注視指示情報保持部204に保持させる(ステップS32)。
次に、生成部207は、PC端末200に表示する健康診断データ上に、当該健康診断データのうち最新の注視点情報に対応する位置に表示する注視点マーカーと、当該健康診断データのうちステップS31で決定された注視指示位置に表示する注視指示マーカーと、「キャリブレーション中」という文字列とを含む表示画像を生成する(ステップS33)。次に、表示制御部208は、ステップS33で生成された表示画像を表示部233に表示する制御を行う(ステップS34)。次に、判定部210は、拠点AのユーザAが注視指示位置を注視したか否かを判定する(ステップS35)。ユーザAが注視指示位置を注視したと判定した場合(ステップS35:Yes)、判定部210は、その旨を決定部203に通知する。この通知を受けた決定部203は、注視指示マーカーを非表示とするよう、生成部207および表示制御部208に指示する。この指示を受けた生成部207は、注視指示マーカーを非表示とする表示画像(PC端末200に表示する健康診断データ上に、当該健康診断データのうち、最新の注視点情報に対応する位置に表示する注視点マーカーと、「キャリブレーション中」という文字列とを含む表示画像)を生成し、表示制御部208は、その生成された表示画像を表示部233に表示する制御を行う(ステップS36)。以上が、図19に示すフローチャートの処理内容である。
図18に戻って説明を続ける。上述のステップS23の後のステップS24において、キャリブレーション終了判定部211は、キャリブレーションを終了するか否かを判定する(ステップS24)。終了判定の方法は上述したとおりである。キャリブレーションを終了しないと判定された場合(ステップS24:No)は、上述のステップS23の処理を繰り返す。キャリブレーションを終了すると判定した場合(ステップS24:Yes)、キャリブレーション終了判定部211は、その旨を決定部203に通知する。この通知を受けた決定部203は、「キャリブレーション中」という文字列を非表示とするよう、生成部207および表示制御部208に指示する。この指示を受けた生成部207は、「キャリブレーション中」という文字列を非表示とする表示画像(PC端末200に表示する健康診断データ上に、当該健康診断データのうち、最新の注視点情報に対応する位置に表示する注視点マーカーを含む表示画像)を生成し、表示制御部208は、その生成された表示画像を表示部233に表示する制御を行う(ステップS25)。そして、PC端末200は、以上のキャリブレーションにより得られた複数のデータ(ユーザAの視線方向と注視指示位置とが紐付けられたデータ)を元に、ユーザAの視線方向と、ユーザAの注視位置との対応関係を決定することができる。
以上に説明したように、本実施形態では、互いに異なる拠点に配置されたPC端末100およびPC端末200の各々に共通に表示される健康診断データ上に、健康診断データのうち、拠点Aに配置されたPC端末100を利用するユーザAが注視している位置に表示する注視点マーカーと、健康診断データのうちユーザAに注視させる注視指示位置に表示する注視指示マーカーと、を含む表示画像を、PC端末200に表示する。これにより、拠点Cに配置されたPC端末200を利用するユーザBは、当該表示画像を見ながら、ユーザAに対して注視指示を出すことでキャリブレーションを行うことができる。本実施形態では、キャリブレーションを行う際に、ユーザAに注視させるためのマーカー等の注視画像を、ユーザAが利用するPC端末100に表示する必要が無いので、キャリブレーション対象のユーザAにキャリブレーションを実行していることを意識させずにキャリブレーションを実行することができる。特に、メンタルヘルスケアにおいては、相手側に対して余計な心理的ストレスを与えないことが好ましいので、本実施形態は特に有効な効果を有する。
以上、本発明に係る実施形態について説明したが、本発明は、上述の実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。
(第1の変形例)
上述の実施形態では、PC端末100が注視点情報を生成しているが、これに限らず、PC端末200が注視点情報を生成する形態であってもよい。図20は、第1の変形例におけるPC端末100の機能構成の一例を示す図である。図20に示すように、PC端末100は、検出部101と、視線情報生成部110と、視線情報保持部111と、視線情報送信部112と、第1画面情報取得部105と、表示制御部106と、第1画面情報保持部107とを備える。視線情報生成部110、視線情報保持部111および視線情報送信部112以外の構成要素は上述の実施形態と同様であるので、詳細な説明は省略する。
視線情報生成部110は、検出部101により検出された視線方向(ユーザAの視線方向)を少なくとも含む視線情報を生成する。視線情報は、注視点情報を生成するのに必要な情報であればよい。視線情報保持部111は視線情報を保持する。視線情報送信部112は、視線情報生成部110により視線情報が生成されるたびに、その視線情報(視線情報保持部111に保持された最新の視線情報)をPC端末200へ送信する。
図21は、第1の変形例におけるPC端末200の機能構成の一例を示す図である。図21に示すように、PC端末200は、視線情報取得部220と、視線情報保持部221と、注視点情報生成部222と、注視点情報保持部202と、決定部203と、注視指示情報保持部204と、第1画面情報保持部205と、第1画面情報配信部206と、生成部207と、表示制御部208と、判定部210と、キャリブレーション終了判定部211とを備える。視線情報取得部220、視線情報保持部221および注視点情報生成部222以外の構成要素は上述の実施形態と同様であるので、詳細な説明は省略する。
視線情報取得部220は、PC端末100から視線情報を取得する。視線情報保持部221は、視線情報取得部220により取得された視線情報を保持する。注視点情報生成部222は、視線情報取得部220により視線情報が取得されるたびに、その取得された視線情報(視線情報保持部221に保持される最新の視線情報)に基づいて注視点情報を生成し、その生成した注視点情報を注視点情報保持部202に保持させる。
図22は、第1の変形例における情報処理システム1の動作手順の一例を示すシーケンス図である。ここでは、拠点AのPC端末100(表示部123)および拠点CのPC端末200(表示部233)の各々には、第1画面情報である健康診断データが表示されていることを前提とする。
視線情報生成部110は、検出部101により検出された視線方向(ユーザAの視線方向)を少なくとも含む視線情報を生成する(ステップS111)。視線情報保持部111は視線情報を保持する(ステップS112)。視線情報送信部112は、視線情報生成部110により視線情報が生成されるたびに、その視線情報(視線情報保持部111に保持された最新の視線情報)をPC端末200へ送信する(ステップS113)。視線情報取得部220は、PC端末100から視線情報を取得する(ステップS114)。視線情報保持部221は、視線情報取得部220により取得された視線情報を保持する(ステップS115)。注視点情報生成部222は、視線情報取得部220により視線情報が取得されるたびに、その取得された視線情報(視線情報保持部221に保持される最新の視線情報)に基づいて注視点情報を生成(ステップS116)し、その生成した注視点情報を注視点情報保持部202に保持させる(ステップS117)。
このように、第1の変形例によれば、PC端末100では注視点情報を生成する必要がないので、PC端末100での処理の負荷が低減する。また、後述する第2の変形例と比較してPC端末100では視線情報を送信し、画像データは送信しないので、PC端末100からPC端末200に対して送信するデータ量を削減することができる。
第1の変形例では、PC端末100は請求項の「外部装置」に対応し、PC端末200は請求項の「情報処理装置」に対応していると考えることができる。要するに、本発明が適用される情報処理装置は、外部装置と通信可能な情報処理装置であって、上述の視線情報取得部220に対応する機能と、上述の注視点情報生成部222に対応する機能と、上述の表示制御部208に対応する機能とを少なくとも備える形態であればよい。
(第2の変形例)
上述の第1の変形例では、PC端末100が視線情報を生成しているが、これに限らず、PC端末100がユーザの眼を含んだ画像情報を送信し、PC端末200が視線方向(ユーザAの視線方向)を少なくとも含む視線情報を算出して注視点情報を生成する形態であってもよい。図23は、第2の変形例におけるPC端末100の機能構成の一例を示す図である。図23に示すように、PC端末100は、第1画面情報取得部105と、表示制御部106と、第1画面情報保持部107と、画像情報送信部113とを備える。画像情報送信部113以外の構成要素は上述の実施形態および第1の変形例と同様であるので、詳細な説明は省略する。
画像情報送信部113は、視線センサー130の赤外線カメラから入力されたユーザAの眼を含んだ画像情報を周期的にPC端末200に対して送信する。
図24は、第2の変形例におけるPC端末200の機能構成の一例を示す図である。図24に示すように、PC端末200は、画像情報取得部223と、視線方向算出部224と、注視点情報生成部222と、注視点情報保持部202と、決定部203と、注視指示情報保持部204と、第1画面情報保持部205と、第1画面情報配信部206と、生成部207と、表示制御部208と、判定部210と、キャリブレーション終了判定部211とを備える。画像情報取得部223および視線方向算出部224以外の構成要素は上述の実施形態および第1の変形例と同様であるので、詳細な説明は省略する。
画像情報取得部223は、PC端末100からユーザAの眼を含んだ画像情報を周期的に取得する。
視線方向算出部224は、ユーザAの眼を含んだ画像情報から上述した、例えば、角膜反射法など用いてユーザAの視線方向を算出する。視線方向算出部224は、ユーザAの視線方向を算出するたびに、その算出された視線方向(視線情報)を注視点情報生成部222に受け渡す。
図25は、第2の変形例における情報処理システム1の動作手順の一例を示すシーケンス図である。ここでは、拠点AのPC端末100(表示部123)および拠点CのPC端末200(表示部233)の各々には、第1画面情報である健康診断データが表示されていることを前提とする。
PC端末100は、視線センサー130の赤外線カメラから入力される入力画像を取得し(ステップS121)、入力画像の周期ごとに画像情報をPC端末200に対して送信する(ステップS122)。PC端末200の画像情報取得部223が周期的に取得したユーザAの眼を含んだ画像情報からユーザAの視線方向を算出する(ステップS123)。注視点情報生成部222は、視線方向算出部224によりユーザAの視線方向が算出されるたびに、その算出された視線方向(最新の視線情報)に基づいて注視点情報を生成する(ステップS124)。その後の注視点情報保持部202以降の動作は、上述の実施形態および第1の変形例と同様である。
このように、第2の変形例によれば、PC端末100ではユーザAの眼を含んだ画像情報をPC端末200に送信するだけなので、PC端末100では注視点情報や視線情報を生成する必要がない。すなわち、PC端末100で動作させる専用アプリケーションを開発する必要がなく、開発コストを削減することができる。
(第3の変形例)
図26は、第3の変形例の情報処理システムの構成の一例を示す図である。図26に示すように、情報処理システム1は、PC端末100およびPC端末200の各々とネットワーク10を介して接続されるサーバ装置300をさらに備える形態であってもよい。すなわち、第3の変形例は、サーバ装置300に、上述の第2の変形例で説明したPC端末200の機能を持たせた構成である。情報処理システム1のPC端末100は、ユーザAの眼を含んだ画像情報をサーバ装置300に対して送信し、サーバ装置300から配信される第1画面情報を表示する機能を持ち、PC端末200は、サーバ装置300から配信される合成画面情報を表示する機能を持ち、その他の情報処理システム1の機能はサーバ装置300に持たせた構成である。
図27は、サーバ装置300のハードウェア構成の一例を示す図である。図27に示すように、サーバ装置300は、CPU301と、ROM302と、RAM303と、表示部304と、操作部305と、ネットワークI/F部306とを有する。CPU301は、サーバ装置300の動作を統括的に制御する。ROM302は、プログラム等の各種のデータを保持する不揮発性のメモリである。RAM303は、CPU301のワークエリア(作業領域)として機能する揮発性のメモリである。表示部304は、各種の情報を表示するデバイスであり、例えば液晶型ディスプレイで構成され得る。操作部305は、各種の操作に用いられるデバイスであり、例えばキーボードやマウス等で構成され得る。ネットワークI/F部306は、ネットワーク10と接続するためのインターフェースである。
例えばサーバ装置300は、PC端末100に対して第1画面情報を配信し、PC端末200に対して第1画面情報上に、注視点情報が示す位置に表示する第2画像と、第1ユーザに注視させる注視指示位置に表示する第3画像とを重ね合わせた(合成した)表示画像を合成画面情報として配信する機能を有する形態である。すなわち、合成画面情報とは、図12を用いて説明したように、健康診断データ上に、注視点マーカーと、注視指示マーカーと、「キャリブレーション中」という文字列とを含む表示画像(図12の例では、健康診断データ上に、注視点マーカーと、注視指示マーカーと、「キャリブレーション中」という文字列とを重ね合わせた(合成した)表示画像)である。
図28は、第3の変形例のサーバ装置300の機能構成の一例を示す図である。図28に示すように、サーバ装置300は、画像情報取得部311と、視線方向算出部312と、注視点情報生成部313と、注視点情報保持部314と、決定部315と、注視指示情報保持部316と、第1画面情報保持部317と、画面情報配信部318と、生成部319と、判定部320と、キャリブレーション終了判定部321とを備える。画面情報配信部318以外の構成要素は上述の実施形態および第2の変形例と同様であるので、詳細な説明は省略する。すなわち、画像情報取得部311は画像情報取得部223の機能と同様であり、視線方向算出部312は視線方向算出部224の機能と同様であり、注視点情報生成部313は注視点情報生成部222の機能と同様であり、注視点情報保持部314は注視点情報保持部202の機能と同様であり、決定部315は決定部203の機能と同様であり、注視指示情報保持部316は注視指示情報保持部204の機能と同様であり、第1画面情報保持部317は第1画面情報保持部205の機能と同様であり、生成部319は生成部207の機能と同様であり、判定部320は判定部210の機能と同様であり、キャリブレーション終了判定部321はキャリブレーション終了判定部211の機能と同様である。
画面情報配信部318は、第1画面情報保持部317に保持されている第1画面情報をPC端末100へ配信すると共に、第1画面情報上に、注視点情報が示す位置に表示する第2画像と、第1ユーザに注視させる注視指示位置に表示する第3画像とを重ね合わせた(合成した)表示画像を合成画面情報としてPC端末200へ配信する。
図29は、第3の変形例のPC端末100の機能構成の一例を示す図である。図29に示すように、PC端末100は、第1画面情報取得部105と、表示制御部106と、第1画面情報保持部107と、画像情報送信部113とを備える。各部の構成要素は上述の実施形態および第2の変形例と同様であるので、詳細な説明は省略する。
図30は、第3の変形例のPC端末200の機能構成の一例を示す図である。図30に示すように、PC端末200は、合成画面情報取得部225と、合成画面情報保持部226と、表示制御部208とを備える。
合成画面情報取得部225は、サーバ装置300から配信される合成画面情報を取得する。合成画面情報とは、第1画面情報上に、注視点情報が示す位置に表示する第2画像と、第1ユーザに注視させる注視指示位置に表示する第3画像と、を重ね合わせた(合成した)表示画像である。
合成画面情報保持部226は、合成画面情報取得部225により取得された合成画面情報を保持する。例えば、第1画面情報上に、注視点情報が示す位置に表示する第2画像と、第1ユーザに注視させる注視指示位置に表示する第3画像と、を重ね合わせた(合成した)表示画像である合成画面情報を保持する。
表示制御部208は、合成画面情報取得部225で取得した合成画面情報に基づいて表示部233に合成した表示画像を表示する制御を行う。
このように、第3の変形例によれば、PC端末100ではユーザAの眼を含んだ画像情報をサーバ装置300に送信するだけであり、PC端末200では、サーバ装置300から配信される合成画面情報を表示するだけである。サーバ装置300では、その他の処理を行うので、PC端末100およびPC端末200で動作させる専用アプリケーションを開発する必要がなく、開発コストを削減することができる。
なお、上記の場合に限らず、サーバ装置300には、PC端末100が有する複数の機能の一部または、PC端末200が有する複数の機能の一部を搭載することができる。
(プログラム)
上述した実施形態の情報処理システム1で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよいし、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、各種プログラムを、ROM等の不揮発性の記録媒体に予め組み込んで提供するように構成してもよい。
1 情報処理システム
21 赤外線
22 角膜曲率中心
23 角膜
24 角膜反射
25 瞳孔中心
26 視線方向
27 画面
28 点
100 PC端末
101 検出部
102 注視点情報生成部
103 注視点情報保持部
104 注視点情報送信部
105 第1画面情報取得部
106 表示制御部
107 第1画面情報保持部
110 視線情報生成部
111 視線情報保持部
112 視線情報送信部
113 画像情報送信部
120 CPU
121 ROM
122 RAM
123 表示部
124 操作部
125 センサI/F部
126 ネットワークI/F部
130 視線センサー
200 PC端末
201 注視点情報取得部
202 注視点情報保持部
203 決定部
204 注視指示情報保持部
205 第1画面情報保持部
206 第1画面情報配信部
207 生成部
208 表示制御部
210 判定部
211 キャリブレーション終了判定部
220 視線情報取得部
221 視線情報保持部
222 注視点情報生成部
223 画像情報取得部
224 視線方向算出部
225 合成画面情報取得部
226 合成画面情報保持部
230 CPU
231 ROM
232 RAM
233 表示部
234 操作部
235 ネットワークI/F部
300 サーバ装置
301 CPU
302 ROM
303 RAM
304 表示部
305 操作部
306 ネットワークI/F部
311 画像情報取得部
312 視線方向算出部
313 注視点情報生成部
314 注視点情報保持部
315 決定部
316 注視指示情報保持部
317 第1画面情報保持部
318 画面情報配信部
319 生成部
320 判定部
321 キャリブレーション終了判定部
特開2000−010723号公報 特開2006−87751号公報

Claims (18)

  1. 第1の情報処理装置と、前記第1の情報処理装置と通信可能な第2の情報処理装置とを備える情報処理システムであって、
    前記第1の情報処理装置を利用する第1ユーザの視線方向を検出する検出部と、
    前記視線方向に基づいて、前記第1の情報処理装置および前記第2の情報処理装置の各々に共通に表示する第1画面情報のうち前記第1ユーザが注視している位置を示す注視点情報を生成する注視点情報生成部と、
    前記第1ユーザの視線方向と、実際の注視位置との対応関係を決めるためのキャリブレーションを実行する場合において、前記第1画面情報上に、前記注視点情報が示す位置に表示する第2画像と、前記第1ユーザに注視させる注視指示位置に表示する第3画像と、を含む表示画像を、前記第2の情報処理装置に表示する制御を行う表示制御部と、を備える、
    情報処理システム。
  2. 前記第2画像と前記第3画像との位置関係に基づいて、前記第1ユーザが前記注視指示位置を注視したか否かを判定する判定部をさらに備える、
    請求項1に記載の情報処理システム。
  3. 前記判定部は、前記第2画像と前記第3画像とが重なり合う領域を示す重畳領域の面積が閾値以上の場合、前記第1ユーザが前記注視指示位置を注視したと判定する、
    請求項2に記載の情報処理システム。
  4. 前記判定部は、予め定められた周期で、前記重畳領域が前記閾値以上であるか否かを判定し、一定期間内において、前記重畳領域が前記閾値以上であると判定した回数が所定数以上の場合は、前記第1ユーザが前記注視指示位置を注視したと判定する、
    請求項3に記載の情報処理システム。
  5. 前記第1画面情報は、前記第1ユーザがそれぞれを注視可能な複数の特徴領域を有し、
    前記注視点情報に対応する前記特徴領域と、前記注視指示位置に対応する前記特徴領域とが一致する場合、前記第1ユーザが前記注視指示位置を注視したと判定する判定部をさらに備える、
    請求項1に記載の情報処理システム。
  6. 前記判定部は、予め定められた周期で、前記注視点情報に対応する前記特徴領域と、前記注視指示位置に対応する前記特徴領域とが一致するか否かを判定し、一定期間内において、一致すると判定した回数が所定数以上の場合は、前記第1ユーザが前記注視指示位置を注視したと判定する、
    請求項5に記載の情報処理システム。
  7. 前記第1画面情報は、前記第1ユーザがそれぞれを注視可能な複数の特徴領域を有し、
    予め定められた規則に従って、何れか1つの前記特徴領域を前記注視指示位置として決定する決定部をさらに備える、
    請求項1乃至6のうちの何れか1項に記載の情報処理システム。
  8. 前記決定部は、前記第1ユーザが前記注視指示位置を注視したと判定された場合、前記第1ユーザが注視したと判定された前記注視指示位置に対応する前記特徴領域とは異なる前記特徴領域を、新たな前記注視指示位置として決定する、
    請求項7に記載の情報処理システム。
  9. 前記決定部は、前記注視指示位置を決定してから一定期間の間、前記第1ユーザが前記注視指示位置を注視したと判定されなかった場合は、前記第1ユーザが注視したと判定されなかった前記注視指示位置に対応する前記特徴領域とは異なる前記特徴領域を、新たな前記注視指示位置として決定する、
    請求項7または請求項8に記載の情報処理システム。
  10. 前記特徴領域は、表構造に含まれる複数の項目のうちの何れか1つの項目に対応する領域である、
    請求項7乃至9のうちの何れか1項に記載の情報処理システム。
  11. 前記第1画面情報は、前記第1ユーザがそれぞれを注視可能な複数の特徴領域を有し、
    前記第2の情報処理装置を利用する第2ユーザによる選択指示に従って、何れか1つの前記特徴領域を前記注視指示位置として決定する決定部をさらに備える、
    請求項1乃至6のうちの何れか1項に記載の情報処理システム。
  12. 前記決定部は、前記第1画面情報を分割するとともに、それぞれが1以上の前記特徴領域を含む複数の選択範囲のうちの少なくとも1つを、前記第2ユーザによる選択指示を受け付け可能な前記選択範囲として設定する、
    請求項11に記載の情報処理システム。
  13. 外部装置と通信可能な情報処理装置であって、
    前記外部装置および前記情報処理装置の各々に共通に表示する第1画面情報のうち、前記外部装置を利用するユーザが注視している位置を示す注視点情報を取得する注視点情報取得部と、
    前記ユーザの視線方向と、実際の注視位置との対応関係を決めるためのキャリブレーションを実行する場合において、前記第1画面情報上に、前記注視点情報が示す位置に表示する第2画像と、前記ユーザに注視させる注視指示位置に表示する第3画像と、を含む表示画像を、前記情報処理装置に表示する制御を行う表示制御部と、を備える、
    情報処理装置。
  14. 外部装置と通信可能な情報処理装置であって、
    前記外部装置を利用するユーザの視線方向を検出する検出部を備える前記外部装置から、前記視線方向を少なくとも含む視線情報を取得する視線情報取得部と、
    前記視線情報に基づいて、前記外部装置および前記情報処理装置の各々に共通に表示する第1画面情報のうち前記ユーザが注視している位置を示す注視点情報を生成する注視点情報生成部と、
    前記ユーザの視線方向と、実際の注視位置との対応関係を決めるためのキャリブレーションを実行する場合において、前記第1画面情報上に、前記注視点情報が示す位置に表示する第2画像と、前記ユーザに注視させる注視指示位置に表示する第3画像と、を含む表示画像を、前記情報処理装置に表示する制御を行う表示制御部と、を備える、
    情報処理装置。
  15. 外部装置と通信可能な情報処理装置による情報処理方法であって、
    前記外部装置および前記情報処理装置の各々に共通に表示する第1画面情報のうち、前記外部装置を利用するユーザが注視している位置を示す注視点情報を取得する注視点情報取得ステップと、
    前記ユーザの視線方向と、実際の注視位置との対応関係を決めるためのキャリブレーションを実行する場合において、前記第1画面情報上に、前記注視点情報が示す位置に表示する第2画像と、前記ユーザに注視させる注視指示位置に表示する第3画像と、を含む表示画像を、前記情報処理装置に表示する制御を行う表示制御ステップと、を含む、
    情報処理方法。
  16. 外部装置と通信可能な情報処理装置による情報処理方法であって、
    前記外部装置を利用するユーザの視線方向を検出する検出部を備える前記外部装置から、前記視線方向を少なくとも含む視線情報を取得する視線情報取得ステップと、
    前記視線情報に基づいて、前記外部装置および前記情報処理装置の各々に共通に表示する第1画面情報のうち前記ユーザが注視している位置を示す注視点情報を生成する注視点情報生成ステップと、
    前記ユーザの視線方向と、実際の注視位置との対応関係を決めるためのキャリブレーションを実行する場合において、前記第1画面情報上に、前記注視点情報が示す位置に表示する第2画像と、前記ユーザに注視させる注視指示位置に表示する第3画像と、を含む表示画像を、前記情報処理装置に表示する制御を行う表示制御ステップと、を含む、
    情報処理方法。
  17. 外部装置と通信可能な情報処理装置に搭載されたコンピュータに、
    前記外部装置および前記情報処理装置の各々に共通に表示する第1画面情報のうち、前記外部装置を利用するユーザが注視している位置を示す注視点情報を取得する注視点情報取得ステップと、
    前記ユーザの視線方向と、実際の注視位置との対応関係を決めるためのキャリブレーションを実行する場合において、前記第1画面情報上に、前記注視点情報が示す位置に表示する第2画像と、前記ユーザに注視させる注視指示位置に表示する第3画像と、を含む表示画像を、前記情報処理装置に表示する制御を行う表示制御ステップと、を実行させるためのプログラム。
  18. 外部装置と通信可能な情報処理装置に搭載されたコンピュータに、
    前記外部装置を利用するユーザの視線方向を検出する検出部を備える前記外部装置から、前記視線方向を少なくとも含む視線情報を取得する視線情報取得ステップと、
    前記視線情報に基づいて、前記外部装置および前記情報処理装置の各々に共通に表示する第1画面情報のうち前記ユーザが注視している位置を示す注視点情報を生成する注視点情報生成ステップと、
    前記ユーザの視線方向と、実際の注視位置との対応関係を決めるためのキャリブレーションを実行する場合において、前記第1画面情報上に、前記注視点情報が示す位置に表示する第2画像と、前記ユーザに注視させる注視指示位置に表示する第3画像と、を含む表示画像を、前記情報処理装置に表示する制御を行う表示制御ステップと、を実行させるためのプログラム。
JP2015174042A 2014-09-16 2015-09-03 情報処理システム、情報処理装置、情報処理方法およびプログラム Pending JP2016066351A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/848,817 US10359842B2 (en) 2014-09-16 2015-09-09 Information processing system and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014188295 2014-09-16
JP2014188295 2014-09-16

Publications (1)

Publication Number Publication Date
JP2016066351A true JP2016066351A (ja) 2016-04-28

Family

ID=55804234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015174042A Pending JP2016066351A (ja) 2014-09-16 2015-09-03 情報処理システム、情報処理装置、情報処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2016066351A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109426425A (zh) * 2017-09-05 2019-03-05 富士施乐株式会社 信息处理装置、图像形成装置以及存储介质
CN113992885A (zh) * 2021-09-22 2022-01-28 联想(北京)有限公司 一种数据同步方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109426425A (zh) * 2017-09-05 2019-03-05 富士施乐株式会社 信息处理装置、图像形成装置以及存储介质
CN109426425B (zh) * 2017-09-05 2023-09-22 富士胶片商业创新有限公司 信息处理装置、图像形成装置以及存储介质
CN113992885A (zh) * 2021-09-22 2022-01-28 联想(北京)有限公司 一种数据同步方法及装置

Similar Documents

Publication Publication Date Title
Saleem et al. Virtual ophthalmology: telemedicine in a COVID-19 era
US20230386631A1 (en) Health care prescription synchronization between patient and health care provider
US10359842B2 (en) Information processing system and information processing method
US8047652B1 (en) Portable electronic amsler test
US20140204190A1 (en) Systems and methods for providing guidance for a procedure with a device
US20220171456A1 (en) Method and System for Remote Clinician Management of Head-Mounted Vision Assist Devices
CN109285602B (zh) 用于自我检查用户眼睛的主模块、系统和方法
US20100211408A1 (en) Systems and methods for generating medical diagnoses
US20140354949A1 (en) Interactive platform for health assessment
US20220160223A1 (en) Methods and Systems for Evaluating Vision Acuity and/or Conducting Visual Field Tests in a Head-Mounted Vision Device
US20200129094A1 (en) Diagnostic hearing health assessment system and method
US20170127942A1 (en) Ophthalmic examination system
Shelchkova et al. Modulations of foveal vision associated with microsaccade preparation
TW202205311A (zh) 用於處理近視的系統和其操作方法、以及非暫態電腦可讀取媒體
JP2024036343A (ja) コンテンツ提供システム及びコンテンツ提供方法
Li et al. Usability testing of a smartphone-based retinal camera among first-time users in the primary care setting
US20180182476A1 (en) Mapping of clinical findings in fundus images to generate patient reports
JP2016066351A (ja) 情報処理システム、情報処理装置、情報処理方法およびプログラム
KR20150111011A (ko) 의료 정보 제공 시스템
JP2014089650A (ja) 電子問診装置、電子問診システム、電子問診装置の制御方法及び制御プログラム
KR20160002516A (ko) 홍채차트를 이용한 건강진단 시스템 및 그 방법
WO2019130495A1 (ja) コンピュータシステム、薬提案方法及びプログラム
KR20200092659A (ko) 의료 커뮤니케이션 가상 훈련 시뮬레이션 시스템 및 방법
JP6330638B2 (ja) トレーニング支援装置およびプログラム
US20170027538A1 (en) Mobile data glasses and method for communication between a medical network and medical staff using mobile data glasses