JP2016140720A - 通信端末、面談システム、表示方法及びプログラム - Google Patents

通信端末、面談システム、表示方法及びプログラム Download PDF

Info

Publication number
JP2016140720A
JP2016140720A JP2015021484A JP2015021484A JP2016140720A JP 2016140720 A JP2016140720 A JP 2016140720A JP 2015021484 A JP2015021484 A JP 2015021484A JP 2015021484 A JP2015021484 A JP 2015021484A JP 2016140720 A JP2016140720 A JP 2016140720A
Authority
JP
Japan
Prior art keywords
communication terminal
user
line
display
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015021484A
Other languages
English (en)
Inventor
拓哉 水原
Takuya Mizuhara
拓哉 水原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015021484A priority Critical patent/JP2016140720A/ja
Priority to US14/989,536 priority patent/US20160234461A1/en
Publication of JP2016140720A publication Critical patent/JP2016140720A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/402Support for services or applications wherein the services involve a main real-time session and one or more additional parallel non-real time sessions, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services
    • H04L65/4025Support for services or applications wherein the services involve a main real-time session and one or more additional parallel non-real time sessions, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services where none of the additional parallel sessions is real time or time sensitive, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Abstract

【課題】遠隔面談の場合であっても、通信端末を利用している第2の利用者が他の通信端末を利用している第1の利用者の視線方向を把握することを可能とする。【解決手段】他の通信端末10と通信する通信端末40であって、前記他の通信端末10から、当該他の通信端末10の利用者の視線方向を示す視線データを受信する受信手段と、前記受信された視線データに基づいて、所定の表示手段における前記利用者の視点の位置を特定する特定手段と、特定された前記表示手段における位置に、前記利用者の視点の位置を示す視点情報を表示する表示制御手段と、を有する。【選択図】図1

Description

本発明は、通信端末、面談システム、表示方法及びプログラムに関するものである。
従来から、遠隔地の相手とインターネットを介して会話を行なうテレビ会議システムが普及している。このテレビ会議システムは、遠隔地の相手の顔を見ながら会話を行なうことができるため、単なる電話会議よりも、実際の会議に近い感覚で会議を行なうことができる(特許文献1参照)。
また、近年、人件費の観点から、会社の複数の事業所の全てに産業医を配置することが困難となっている問題を解決すべく、テレビ会議システムの通信端末を利用して、遠隔面談が行なわれるようになって来た。
一方、直接会って面談する場合には、会話の質疑応答の結果による診断だけでなく、従業員等の第1の利用者の視線方向が、産業医等の第2の利用者によって指示された方向を向いていない場合、第2の利用者は第1の利用者に鬱病等の何らかの異変が起きていることに気付くことができる。
しかしながら、遠隔面談の場合には、通信端末を利用している第2の利用者は、他の通信端末を利用している第1の利用者の視線方向を把握することが困難であるため、直接会った場合の面談に近い質の面談を行なうことが困難であるという課題が生じる。
請求項1に係る発明は、他の通信端末と通信する通信端末であって、前記他の通信端末から、当該他の通信端末の利用者の視線方向を示す視線データを受信する受信手段と、前記受信された視線データに基づいて、所定の表示手段における前記利用者の視点の位置を特定する特定手段と、特定された前記表示手段における位置に、前記利用者の視点の位置を示す視点情報を表示する表示制御手段と、を有することを特徴とする通信端末である。
以上説明したように本発明によれば、直接会った場合の面談に近い質の面談を行なうことができるという効果を奏する。
本発明の実施形態に係る面談システムの概略図である。 視線検出方法を示した概念図である。 従業員側の画面例を示した図である。 産業医側の画面例を示した図である。 通信端末及び視線検出装置のハードウェア構成図である。 面談システムの機能構成図である。 利用者管理テーブルの概念図である。 (a)は検査結果管理テーブルの概念図、(b)は病歴管理テーブルの概念図、及び(c)は生活習慣管理テーブルの概念図である。 (a)は視点位置管理テーブルの概念図、(b)は表示位置を示す概念図である。 遠隔面談を行なうための処理を示したシーケンス図である。 産業医側の画面にメッセージを表示させる処理を示したフローチャートである。 産業医側の画面に視点マーカを表示させる処理を示したフローチャートである。
以下、図面を用いて、本発明の実施形態について説明する。
<<実施形態の概略>>
まずは、図1乃至図4を用いて、本実施形態の概略を説明する。なお、図1は、本発明の実施形態に係る面談システムの概略図である。
図1に示されているように、本実施形態の面談システム1は、従業員側の通信端末10及び視線検出装置30、並びに産業医側の通信端末40によって構築されている。通信端末10及び視線検出装置30は、従業員が利用する面談室Xに設置されている。通信端末10及び視線検出装置30は、従業員の少なくとも目の部分の画像を含む画像データを送信するためのケーブルによって接続されている。通信端末40は、従業員と遠隔面談を行なう産業医が利用する産業医室Yに設置されている。
本実施形態では、通信端末10及び通信端末40は、一般のPC(Personal Computer)であり、インターネットやLAN(Local Area Network)等の通信ネットワーク9によって通信可能に接続されている。
なお、通信端末10、40は、スマートフォン、又はタブレット端末であってもよい。更に、通信端末10、40は、通信端末10及び視線検出装置30が一体となった遠隔面談用の専用端末であってもよい。また、通信端末10は、第1の通信端末の一例であり、通信端末40から見ると、他の通信端末である。通信端末40は、第2の通信端末の一例である。
また、従業員は第1の利用者の一例で、産業医は第2の利用者の一例である。例えば、第1の利用者と第2の利用者との組み合わせ例として、従業員(又は経営者)と、産業医(又は、一般の医師、看護師、若しくは薬剤師)とが含まれる。また、先生(又は講師)と、園児(又は児童、生徒、学生若しくはこれらの保護者)との組み合わせが含まれる。更に、部下と上司との組み合わせも含まれる。
図1では、視線検出装置30が従業員の少なくとも目の部分を撮像して得た画像データを通信端末10に送信し、通信端末10が画像データに基づいて従業員の視線方向を示す視線データを作成してから、通信端末40に視線データを送信することで、通信端末40が視線データに基づき従業員の視線方向に基づいた視点マーカvを表示している。ここでは、視点マーカvの一例として、眼球形状のマーカが表示されている。これにより、産業医は、従業員と遠隔面談する場合であっても、直接会って面談する場合と同じように、従業員が気にしている点や視点が安定しないで鬱病ぎみであるか等を把握することができる。
なお、通信端末10は、従業員の視線方向に基づいた視点マーカvを表示していない。従業員が自分の視点マーカvを意識すると、産業医は正確に鬱病等の判断ができないからである。また、視点マーカvは、視点情報の一例であり、視点情報の他の例として、マーカではなく、健康診断データとして表示されている文字や枠等の色や太さを変えて表示する場合も含まれる。
次に、視線検出方法の概略について説明する。図2は、視線検出方法を示した概念図である。視線検出方法は、利用者がどこを見ているのか判断するために、目の動きを検出する方法である。利用者の目の動きは、目において、動かない部分(基準点)と動く部分(動点)を検出することから始まる。検出装置が、基準点と動点を検出した後、基準点に対する動点の位置に基づいて、視線を検出する。基準点及び動点の選び方の違いにより、様々な視線検出方法がある。その中でも代表的方法として、以下に、基準点を角膜反射、動点を瞳孔にして位置関係を使う角膜反射法を説明する。
まず、視線検出方法を行なうための一般的な検出装置は、赤外線LED(Light Emitting Diode)照明機器301aで利用者の顔を照らし、赤外線LED照明機器301aを照らしてできた反射光の角膜上の位置(角膜反射)を基準点とする。そして、検出装置は、赤外線カメラ302aで、角膜反射の位置に対する瞳孔の位置に基づいて、利用者の視線を検出する。例えば、図2に示されているように、左目の角膜反射位置よりも瞳孔が目じり寄り上側にあれば、利用者は左上側を見ているものとして検出される。また、角膜反射位置よりも瞳孔が目頭寄り上側にあれば、利用者は右上側を見ているものとして検出される。この検出による視線データは、座標データとして表わされる。
本実施形態では、通信ネットワーク9を介して、上述の視線検出方法を従業員側と産業医側で分散して実行することで、遠隔面談に応用している。これにより、本実施形態では、従業員側の通信端末10には図3に示されているような画面例が表示され、産業医側の通信端末40には図4に示されているような画面例が表示される。
なお、視線検出方法の別の例として、LMedSを用いた虹彩検出法、Active Appearance Models法等が挙げられる。角膜反射法、虹彩検出法、及びActive Appearance Models法は、いずれも利用者の画像を示す画像データに基づいて視線が検出される方法である。但し、角膜反射法が、視線データとして座標データを出力するのに対して、虹彩検出法及びActive Appearance Models法が、視線データとして特定のパラメータを出力する点で相違する。具体的には、虹彩検出法は、利用者が撮像された画像から利用者の目の虹彩部分を検出し、検出した虹彩に楕円を当てはめ、この当てはめた楕円の「傾き」、「長軸」及び「短軸」の3つのパラメータに基づいて視線を検出する方法である。Active Appearance Models法は、利用者が様々な方向を向いている状態で撮像されて得られた顔の画像から、顔モデルを作成し、この顔モデルと視線方向を対応付けて得られた特徴量のパラメータを記憶(又は学習)しておくことで、視線を検出する方法である。
図3は、従業員側の画面例を示した図である。図4は、産業医側の画面例を示した図である。図3に示されているように、通信端末10における後述のディスプレイ217上には、健康診断データ画面1000が表示されている。健康診断データ画面1000には、利用者の個人情報表示領域1010、検査結果表示領域1020、病歴表示領域1030、及び生活習慣表示領域1040が表示されている。個人情報表示領域1010には、従業員の氏名等の利用者個人データの内容が表示される。また、検査結果表示領域1020、病歴表示領域1030、及び生活習慣表示領域1040には、従業員の健康診断の検査結果等の健康診断管理データの内容が表示される。即ち、利用者個人データ及び健康診断管理データによって、健康診断データ画面1000の内容である健康診断データが構成される。なお、本実施形態では、遠隔面談が医療用に用いられているが、これに限るものではない。仕事の会議等に用いられてもよい。よって、本実施形態の健康診断データは、利用者に関連する内容を示す利用者関連データの一例である。
一方、通信端末40における後述のディスプレイ217上には、健康診断データ画面4000が表示されている。健康診断データ画面4000には、図3と同様に、利用者の個人情報表示領域4010、検査結果表示領域4020、病歴表示領域4030、及び生活習慣表示領域4040が表示されている。各欄4010、4020、4030、及び4040は、それぞれ上記各欄1010、1020、1030、及び1040と同じ内容を示している。また、健康診断データ画面4000には、視点マーカv、受信状態表示領域4110、及び「視点マーカ表示」ボタン4210が表示されている。受信状態表示領域4110には、通信端末40が従業員である通信相手からの画像データを受信中である旨を示すメッセージが表示される。ここでは、メッセージの一例として、「相手の画像データ受信中」を示す内容が表示されている。「視点マーカ表示」ボタン4210は、産業医が通信端末40のディスプレイ217に、視点マーカvを表示させたい場合に押下するためのボタンであり、産業医から視点マーカvの表示を受け付ける。なお、視点マーカvは、従業員の視線方向の変化に応じて、健康診断データ画面4000における表示位置が変更される。
<<実施形態のハードウェア構成>>
続いて、図5を用いて、通信端末10、40及び視線検出装置30のハードウェア構成を説明する。図5は、通信端末及び視線検出装置のハードウェア構成図である。なお、通信端末10、40は、同じ構成であるため、通信端末40の説明を省略し、通信端末10及び視線検出装置30について説明する。
図5に示されているように、通信端末10は、CPU201、ROM202、RAM203、HD(Hard Disk)204、HDD(Hard Disk Drive)205、メディアI/F207、キーボード208、及びマウス209を備えている。
このうち、CPU201は、通信端末10全体の動作を制御する。ROM202は、IPL等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。HD204は、プログラム等の各種データを記憶する。HDD205は、CPU201の制御にしたがってHD204に対する各種データの読み出し又は書き込みを制御する。メディアI/F207は、フラッシュメモリ等の記録メディア206に対するデータの読み出し又は書き込み(記憶)を制御する。キーボード208は、文字、数値、各種指示などの入力のための複数のキーを備えた入力装置である。マウス209は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うための入力装置である。
また、通信端末10は、ネットワークI/F211、カメラ212、撮像素子I/F213、マイク214、スピーカ215、音入出力I/F216、ディスプレイ217、ディスプレイI/F218、及び外部機器I/Fを備えている。
このうち、ネットワークI/F211は、通信ネットワーク9を利用してデータ伝送をするためのインターフェースである。カメラ212は、CPU201の制御に従って被写体を撮像して画像データを出力する。撮像素子I/F213は、カメラ212の駆動を制御する回路である。マイク214は、音を入力する内蔵型のマイクである。スピーカ215は、音を出力する内蔵型のスピーカである。音入出力I/F216は、CPU201の制御に従ってマイク214及びスピーカ215との間で音信号の入出力を処理する回路である。ディスプレイ217は、カーソル、メニュー、ウィンドウ、文字、マーカ又は画像などの各種情報を表示する。ディスプレイI/F218は、CPU201の制御に従ってディスプレイ217に映像(静止画、動画)を出力する回路である。外部機器I/F219は、USB(Universal Serial Bus)ケーブル等を利用してデータを伝送するためのインターフェースである。
更に、通信端末10は、上記CPU201等の各構成要素を図5に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン210を備えている。
なお、上記プログラムは、インストール可能な形式又は実行可能な形式のファイルで、上記記録メディア206等のコンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。また、上記プログラムは、HD204ではなくROM202に記憶されるようにしてもよい。更に、上記記録媒体の他の例として、CD−R(Compact Disc Recordable)、DVD(Digital Versatile Disk)、ブルーレイディスク等が挙げられる。
一方、図5に示されているように、視線検出装置30は、赤外線LED照明機器301、赤外線カメラ302、操作ボタン303、外部機器I/F309、及びバスライン310を備えている。
このうち、赤外線LED照明機器301は、赤外光を発光するダイオードを備えた照明機器である。赤外線カメラ302は、赤外線に感度をもつカメラである。外部機器I/F309は、USBケーブル等を利用してデータを伝送するためのインターフェースである。バスライン310は、上記各構成要素301等を図5に示されているように電気的に接続するためのアドレスバス、データバス等である。
<<実施形態の機能構成>>
続いて、図5及び図6を用いて、本実施形態の機能構成を説明する。図6は、面談システムの機能構成図である。
<通信端末10の機能構成>
図6に示されているように、通信端末10は、送受信部11、受付部12、表示制御部13、作成部14、通話部17、接続部18、及び記憶・読出部19を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD204からRAM203上に展開されたプログラムに従ったCPU201からの命令によって動作することで実現される機能又は手段である。また、通信端末10は、図5に示されているROM202、RAM203、及びHD204によって構築される記憶部100を有している。
(通信端末10の各機能構成)
通信端末10の送受信部11は、主に、図5に示されているネットワークI/F210及びCPU201の処理によって実現され、通信ネットワーク9を介して、通信端末40と各種データの送受信を行う。例えば、送受信部11は、従業員を撮像する赤外線カメラ302によって所定間隔で従業員が撮像される度に、従業員の視線方向を示す視線データを送信する。
受付部12は、主にキーボード208、マウス209、及びCPU201による処理によって実現され、利用者から各種の選択、指定、又は指示等を受け付ける。
表示制御部13は、主にディスプレイI/F218及びCPU201の処理によって実現され、ディスプレイ217に各種画像や文字等を表示させるための制御を行う。
作成部14は、後述の撮像部32によって得られた従業員の目の画像を含む画像データに基づいて視線データを作成する。例えば、上述の角膜反射法が用いられた場合、視線データは、座標データとして表わされる。
通話部17は、主に、カメラ212、撮像素子I/F213、マイク214、スピーカ215、音入出力I/F216、ディスプレイ217、及びディスプレイI/F218、並びにCPU201の処理によって実現され、相手側の通信端末40と音及び映像の通信を行なう。
接続部18は、主に外部機器I/F209、及びCPU201による処理によって実現され、外部機器との接続を検知すると共に、外部機器との通信を行なう。
記憶・読出部19は、記憶部100に各種データを記憶したり、記憶部100から各種データを読み出したりする。
<視線検出装置30の機能構成>
図6に示されているように、視線検出装置30は、照明部31、撮像部32、及び接続部38を有している。これら各部は、図5に示されている視線検出装置30の各構成要素のいずれかが動作することで実現される機能又は手段である。
照明部31は、赤外線LED照明機器301の動作によって実現され、赤外線を照射することで利用者の顔を照明する。
撮像部32は、撮像手段の一例として赤外線カメラ302の動作によって実現され、照明部31によって照射された赤外線の反射光を撮像して、画像データを生成する。
接続部38は、主に外部機器I/F309によって実現され、外部機器との接続を検知すると共に、外部機器との通信を行なう。
<通信端末40の機能構成>
図6に示されているように、通信端末40は、送受信部41、受付部42、表示制御部43、判断部44、特定部45、画像処理部46、通話部47、及び記憶・読出部49を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD204からRAM203上に展開されたプログラムに従ったCPU201からの命令によって動作することで実現される機能又は手段である。また、通信端末40は、図5に示されているROM202、RAM203、及びHD204によって構築される記憶部400を有している。この記憶部400には、利用者管理テーブルによって構成されている利用者管理DB401が構築されている。また、記憶部400には、検査結果管理テーブル、病歴管理テーブル、及び生活習慣管理テーブルによって構成されている健康診断管理DB402が構築されている。更に、記憶部400には、視点位置管理テーブルによって構成されている視点位置管理DB403が構築されている。
なお、利用者管理テーブルの内容が、利用者個人データの内容を構成する。また、検査結果管理テーブル、病歴管理テーブル、及び生活習慣管理テーブルの内容が、健康診断管理データの内容を構成する。即ち、図3及び図4において、利用者管理テーブル、検査結果管理テーブル、病歴管理テーブル、及び生活習慣管理テーブルの内容が、それぞれ、利用者の個人情報表示領域1010(4010)、検査結果表示領域1020(4020)、病歴表示領域1030(4030)、及び生活習慣表示領域1040(4040)内のデータを構成する。
(利用者管理テーブル)
図7は、利用者管理テーブルを示す概念図である。この利用者管理テーブルでは、利用者の個人情報が管理されており、利用者を識別するための利用者ID、利用者の氏名、利用者の性別、及び利用者の年齢が関連付けて記憶されて管理されている。なお、利用者IDは利用者を一意に識別できる利用者識別情報の一例である。利用者識別情報は、例えば、従業員番号、学籍番号、国民総背番号制に基づく国民番号が挙げられる。
(検査結果管理テーブル)
図8(a)は、検査結果管理テーブルを示す概念図である。この検査結果管理テーブルでは、利用者ID毎に、検査項目及び過去の検査日が関連付けられて管理されている。検査項目は、例えば、身長、体重、BMI(Body Mass Index)、血圧、尿酸、赤血球、及び中性脂肪である。
(病歴管理テーブル)
図8(b)は、病歴管理テーブルを示す概念図である。この病歴管理テーブルでは、利用者ID毎に、過去の病歴の各項目に対する利用者の回答が関連付けられて管理されている。過去の病歴の項目は、例えば、高血圧、脳卒中、がん、糖尿病、不整脈、及び気管支喘息である。回答が「○」は、その病気を経験したことを示し、回答が「×」は、その病気を経験していないことを示している。
(生活習慣管理テーブル)
図8(c)は、生活習慣管理テーブルを示す概念図である。この生活習慣管理テーブルでは、利用者ID毎に、生活習慣の各項目に対する利用者の回答が関連付けられて管理されている。生活習慣の項目は、例えば、運動週間、喫煙状態、飲酒状態、睡眠時間、食事の中で揚げ物が多い、便秘状態、及びストレスを感じる、である。回答が「○」は、利用者がその生活習慣の項目を実践していることを示し、回答が「×」は、利用者がその生活習慣の項目を実践していないことを示している。
(視点位置管理テーブル)
図9(a)は、視点位置管理テーブルを示す概念図である。ここでは、角膜反射法が用いられる場合に利用されるテーブルが示されている。この視点位置管理テーブルでは、所定の利用者の目の角膜反射の位置に対する瞳孔の位置を示す所定の座標データと、通信端末10、40のディスプレイ217における所定の利用者の視点の位置を示す所定の表示位置情報とが関連付けられて管理されている。
また、図9(b)は、表示位置を示す概念図である。図9(b)では、通信端末10、40のディスプレイ217がともに、横1280画素、縦960画素の場合を示している。左上が第1の表示領域s1、右上が第2の表示領域s2、左下が第3の表示領域s3、及び右下が第4の表示領域s4である。例えば、座標データが(1,−1)の場合、視点位置は第1の表示領域s1となる。これにより、図4のように、第1の表示領域s1の真ん中に視点マーカvが表示される。なお、虹彩検出法、又はActive Appearance Models法が用いられる場合には、座標データに替えて、パラメータが表示位置情報と関連付けられて管理される。
(通信端末40の各機能構成)
次に、図5及び図6を用いて、通信端末40の各機能構成について詳細に説明する。
通信端末40の送受信部41は、主に、図5に示されているネットワークI/F210及びCPU201の処理によって実現され、通信ネットワーク9を介して、通信端末10と各種データの送受信を行う。
受付部42は、主にキーボード208、マウス209、及びCPU201による処理によって実現され、利用者から各種の選択、指定、又は指示等を受け付ける。
表示制御部43は、主にディスプレイI/F218及びCPU201の処理によって実現され、ディスプレイ217に各種画像や文字等を表示させるための制御を行う。
判断部44は、主にCPU201の処理によって実現され、通信端末10から視線データを受信したか等の判断を行なう。
特定部45は、主にCPU201の処理によって実現され、送受信部41によって視線データが受信される度に、送受信部41によって受信された視線データに基づいて、通信端末40のディスプレイ217における従業員の視点の位置の特定等を行なう。
画像処理部46は、主にCPU201の処理によって実現され、健康診断データ上に視点マーカvを合成する処理等を行なう。
通話部47は、主に、カメラ212、撮像素子I/F213、マイク214、スピーカ215、音入出力I/F216、ディスプレイ217、及びディスプレイI/F218、並びにCPU201の処理によって実現され、相手側の通信端末10と音声及び映像の通信を行なう。
記憶・読出部49は、記憶部400に各種データを記憶したり、記憶部400から各種データを読み出したりする。
<<実施形態の処理または動作>>
次に、図10乃至図12を用いて、本実施形態の処理または動作について説明する。図10は、遠隔面談を行なうための処理を示したシーケンス図である。図11は、産業医側の画面にメッセージを表示させる処理を示したフローチャートである。図12は、産業医側の画面に視点マーカを表示させる処理を示したフローチャートである。
まず、ビデオ(テレビ)会議と同様に、従業員と産業医は、通信端末10,40を利用して、遠隔面談を開始する。この時点では、お互いのディスプレイ217に相手側の顔や部屋が映し出されている。そして、産業医が画面を切り替え、面談中の従業員の利用者IDを入力すると、受付部42が、利用者IDの入力を受け付ける(ステップS21)。次に、記憶・読出部49は、受付部42によって受け付けられた利用者IDを検索キーとして、記憶部400の利用者管理テーブル(図7参照)を検索することにより、対応する利用者の氏名、性別、年齢を示す利用者個人データを読み出す(ステップS22)。更に、記憶・読出部49は、受付部42によって受け付けられた利用者IDを検索キーとして、記憶部400の健康診断管理テーブル(図8参照)を検索することにより、対応する利用者の各検査項目、過去の病歴、及び生活習慣に関する健康診断管理データを読み出す(ステップS23)。そして、表示制御部43は、通信端末40のディスプレイ217上に、図4に示されているように、利用者個人データ及び健康診断管理データによって構成された健康診断データ画面を表示する(ステップS24)。なお、この時点では、視点マーカv及び受信状態表示領域4110内のメッセージは表示されていない。
次に、送受信部41は、通信端末10と画面共有を行なうために、表示領域4010,4020,4030,4040と同じ画像である共有画面データを送信する(ステップS25)。これにより、通信端末10の送受信部11は、共有画面データを受信する。そして、通信端末10の表示制御部13は、通信端末10のディスプレイ217上に、図3に示されているような健康診断データ画面を表示する(ステップS26)。
また、面接室Xでは、視線検出装置30の照明部31が従業員の顔に赤外線を照射し、撮像部32が反射光を受光することで、従業員の目を含む画像に係る画像データを得る(ステップS27)。この照射及び受光の動作は、所定間隔(例えば、0.5秒間隔)で行なわれる。そして、視線検出装置30は、接続部38から通信端末10の接続部18に、画像データを送信する(ステップS28)。
次に、通信端末10の作成部14は、送受信部11によって受信された画像データに基づいて、目の角膜反射の位置に対する瞳孔の位置を示す座標データ(視線データの一例)を作成する(ステップS29)。そして、送受信部11は、通信ネットワーク9を介して通信端末40に対して視線データを送信する(ステップS30)。これにより、通信端末40の送受信部41は、視線データを受信する。この視線データの送受信の処理は、ステップS28によって、視線検出装置30から通信端末10に視線データが送信する度に順次行なわれる。
次に、図11に示されているように、通信端末40では、判断部44が、通信端末10から視線データを受信したかを判断する(ステップS101)。このステップS101において、判断部44が視線データを受信したと判断した場合には、図4に示されているように、表示制御部43は、健康診断データ画面4000の受信状態表示領域4110に、受信中メッセージを表示する(ステップS102)。この受信中メッセージは、例えば、図4に示されているように、「相手の視線データ受信中」と示されている。一方、ステップS101において、判断部44が、通信端末10から視線データを受信していないと判断した場合には、表示制御部43は、健康診断データ画面4000の受信状態表示領域4110に、視線データを未受信である旨を示す未受信メッセージを表示する(ステップS103)この未受信メッセージは、例えば、「相手の視線データ未受信」と表わされる。なお、未受信の場合には、メッセージを表示させなくてもよい。
更に、図12に示されているように、通信端末40では、判断部44は、受付部42が産業医から視点マーカvを表示させることを受け付けたかを判断する(ステップS121)。そして、このステップS121において、判断部44が、受け付けたと判断した場合には(YES)、特定部45は、ステップS30によって受信された視線データ(座標データ)を検索キーとして視点位置管理テーブル(図9(a)参照)を検索することにより、対応する表示位置情報を読み出すことで、視点マーカvの表示位置を特定する(ステップS122)。
次に、画像処理部46は、健康診断データ上において、上記ステップS122によって特定された表示位置に視点マーカvを合成する(ステップS123)。その後、表示制御部43は、図4に示されているように、通信端末40のディスプレイ217上に、視点マーカvが合成された健康診断データ画面4000を表示する(ステップS124)。
次に、判断部44は、新たな視線データを受信したかを判断する(ステップS125)。そして、このステップS125において、判断部44が新たな視線データを受信したと判断した場合には(YES)、上記ステップS121の処理に戻る。また、ステップS125において、判断部44が、新たな視線データを受信していないと判断した場合には(NO)、判断部44がステップS125の再処理を行なう。この再処理は、例えば、1秒おきに行なわれる。
一方、上記ステップS121において、判断部44が、視点マーカvの表示を受け付けていないと判断した場合には(NO)、更に、判断部44は、表示制御部43が既に視点マーカvを表示中であるか否かを判断する(ステップS126)。そして、このステップS126において、判断部44が、既に表示中であると判断した場合には(YES)、表示制御部43は、図4に示されている視点マーカvを非表示にし、ステップS125の処理に進む(ステップS127)。また、ステップS126において、判断部44が、表示中でないと判断した場合には(NO)、ステップS125の処理に進む。図4に示されているように、健康診断データ画面4000上に視点マーカvが表示され続けると、産業医にとっては健康診断データ画面4000が見えづらくなると感じる場合もあるため、視点マーカvの表示又は非表示の切り替えを可能としている。
なお、上記例では、図6に示されているように、特定部45が通信端末50側で実現されているが、これに限らず、通信端末10側で実現されてもよい。この場合、図10のステップS30では、視線データではなく、通信端末50のディスプレイ217における従業員の視点の位置を示す位置データが送信される。これにより、通信端末40の表示制御部43は、位置データに基づいて通信端末40のディスプレイ217上に視点マーカvを表示することができる。
<<本実施形態の主な効果>>
以上説明したように本実施形態によれば、産業医側の通信端末40のディスプレイ217上に、視点マーカvを表示することにより、産業医が遠隔面談を行なう場合であっても、従業員と直接会って面談する場合と同じように、従業員の視線を考慮した診断を行なうことができる。よって、直接会った場合の面談に近い質の面談を行なうことができるという効果を奏する。
例えば、図4に示されているように、産業医が通話により従業員の氏名を確認しているにも拘わらず、従業員の視点マーカvが氏名とは異なる領域に表示されると、産業医は、従業員が鬱病ぎみではないか等、何らかの異変に気付くことができるという効果を奏する。
特に、表示制御部43が、通信端末10から順次送られて来る視線データに基づいて、視点マーカvの表示位置が頻繁に変わると、産業医は、従業員の視線が安定していないため、更に異変に気付き易くなるという効果を奏する。
1 面談システム
10 通信端末
11 送受信部
12 受付部
13 表示制御部
17 通話部
18 接続部
19 記憶・読出部
30 視線検出装置
31 照明部
32 撮像部(撮像手段の一例)
38 接続部
40 通信端末
41 送受信部(送信手段の一例、受信手段の一例)
42 受付部
43 表示制御部(表示制御手段の一例)
44 判断部
45 特定部(特定手段の一例)
46 画像処理部(画像処理手段の一例)
47 通話部
49 記憶・読出部
100 記憶部
217 ディスプレイ(表示手段の一例)
301 赤外線LED照明機器
302 赤外線カメラ
303 操作ボタン
309 外部機器I/F
400 記憶部(記憶手段の一例)
401 利用者管理DB
402 健康診断管理DB
403 視点位置管理DB(視点位置管理手段の一例)
特開2012−178135号公報

Claims (16)

  1. 他の通信端末と通信する通信端末であって、
    前記他の通信端末から、当該他の通信端末の利用者の視線方向を示す視線データを受信する受信手段と、
    前記受信された視線データに基づいて、所定の表示手段における前記利用者の視点の位置を特定する特定手段と、
    特定された前記表示手段における位置に、前記利用者の視点の位置を示す視点情報を表示する表示制御手段と、
    を有することを特徴とする通信端末。
  2. 前記視線データは、前記利用者の目の角膜反射の位置に対する瞳孔の位置を示す座標データであることを特徴とする請求項2に記載の通信端末。
  3. 請求項2に記載の通信端末であって、
    所定の利用者の目の角膜反射の位置に対する瞳孔の位置を示す所定の座標データと、前記表示手段における前記所定の利用者の視点の位置を示す所定の表示位置情報とを関連付けて管理する視点位置管理手段を有し、
    前記特定手段は、前記受信手段によって受信された特定の座標データに対して前記視点位置管理手段で関連付けられている特定の表示位置情報に基づいて、前記表示手段における前記利用者の視点の位置を特定することを特徴とする通信端末。
  4. 前記特定手段は、前記受信手段によって前記視線データが受信される度に、前記利用者の視点の位置を特定することを特徴とする請求項1乃至3のいずれか一項に記載の通信端末。
  5. 請求項1乃至4のいずれか一項に記載の通信端末であって、
    前記視点情報の表示の有無を受け付ける受付手段を有し、
    前記受付手段によって表示する旨を受け付けた場合には前記表示制御手段は前記視点情報を表示し、前記受付手段によって表示しない旨を受け付けた場合には前記表示制御手段は前記視点情報を表示しないことを特徴とする通信端末。
  6. 請求項1乃至5のいずれか一項に記載の通信端末であって、
    前記表示制御手段は、前記視点情報、及び前記利用者に関する情報を示す利用者関連データを前記表示手段に表示することを特徴とする通信端末。
  7. 請求項6に記載の通信端末であって、
    前記視点情報と前記利用者関連データとを合成する画像処理手段を有し、
    前記表示制御手段は、前記画像処理手段によって合成された前記視点情報及び前記利用者関連データを前記表示手段に表示することを特徴とする通信端末。
  8. 前記利用者関連データを記憶する記憶手段を有することを特徴とする請求項7に記載の通信端末。
  9. 請求項6乃至8のいずれか一項に記載の通信端末であって、
    前記視点情報を除いた前記利用者関連データによる画面を前記他の通信端末と共有すべく、前記他の通信端末へ前記画面に係る共有画面データを送信する送信手段を有することを特徴とする通信端末。
  10. 前記視点情報は、眼球を示したマーカであることを特徴とする請求項1乃至9のいずれか一項に記載の通信端末。
  11. 前記他の通信端末と、
    請求項1乃至10のいずれか一項に記載の通信端末と、
    を有することを特徴とする面談システム。
  12. 前記他の通信端末は、前記利用者を撮像する撮像手段によって所定間隔で前記利用者が撮像される度に、当該他の通信端末の利用者の視線方向を示す視線データを送信することを特徴とする請求項11に記載の面談システム。
  13. 前記他の通信端末は、前記撮像手段によって得られた前記利用者の目の画像を含む画像データに基づいて、前記視線データを作成する作成手段を有し、
    前記他の通信端末は、前記作成手段によって作成された前記視線データを送信することを特徴とする請求項10又は11に記載の面談システム。
  14. 第1の通信端末と、当該第1の通信端末の利用者との面談に利用する第2の通信端末とを有する面談システムであって、
    前記利用者の目の画像を含む画像データに基づいて、当該利用者の視線方向を示す視線データを作成する作成手段と、
    前記作成された視線データに基づいて、前記第2の通信端末の表示手段における前記利用者の視点の位置を特定する特定手段と、
    特定された前記表示手段における位置に、前記利用者の視点の位置を示す視点情報を表示する表示制御手段と、
    を有することを特徴とする面談システム。
  15. 他の通信端末と通信する通信端末が実行する表示方法であって、
    前記通信端末は、
    前記他の通信端末から、当該他の通信端末の利用者の視線方向を示す視線データを受信する受信ステップと、
    前記受信された視線データに基づいて、所定の表示手段における前記利用者の視点の位置を特定する特定ステップと、
    特定された前記表示手段における位置に、前記利用者の視点の位置を示す視点情報を表示する表示制御ステップと、
    を実行することを特徴とする表示方法。
  16. コンピュータに、請求項15に記載の各ステップを実行させることを特徴とするプログラム。
JP2015021484A 2015-02-05 2015-02-05 通信端末、面談システム、表示方法及びプログラム Pending JP2016140720A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015021484A JP2016140720A (ja) 2015-02-05 2015-02-05 通信端末、面談システム、表示方法及びプログラム
US14/989,536 US20160234461A1 (en) 2015-02-05 2016-01-06 Terminal, system, display method, and recording medium storing a display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015021484A JP2016140720A (ja) 2015-02-05 2015-02-05 通信端末、面談システム、表示方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2016140720A true JP2016140720A (ja) 2016-08-08

Family

ID=56566309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015021484A Pending JP2016140720A (ja) 2015-02-05 2015-02-05 通信端末、面談システム、表示方法及びプログラム

Country Status (2)

Country Link
US (1) US20160234461A1 (ja)
JP (1) JP2016140720A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018149234A (ja) * 2017-03-15 2018-09-27 公立大学法人広島市立大学 注視点推定システム、注視点推定方法及び注視点推定プログラム
WO2020090943A1 (ja) * 2018-10-30 2020-05-07 Cyberdyne株式会社 インタラクティブ情報伝達システム及びインタラクティブ情報伝達方法並びに情報伝達システム
JP7284401B2 (ja) 2019-09-12 2023-05-31 富士通株式会社 視線情報処理プログラム、情報処理装置および視線情報処理方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10359842B2 (en) * 2014-09-16 2019-07-23 Ricoh Company, Limited Information processing system and information processing method
JP2016163166A (ja) * 2015-03-02 2016-09-05 株式会社リコー 通信端末、面談システム、表示方法及びプログラム
US11798204B2 (en) * 2022-03-02 2023-10-24 Qualcomm Incorporated Systems and methods of image processing based on gaze detection

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7460150B1 (en) * 2005-03-14 2008-12-02 Avaya Inc. Using gaze detection to determine an area of interest within a scene
US20110304606A1 (en) * 2010-06-14 2011-12-15 Oto Technologies, Llc Method and system for implementing look-ahead protection in a computing device
US9294722B2 (en) * 2010-10-19 2016-03-22 Microsoft Technology Licensing, Llc Optimized telepresence using mobile device gestures
US9996150B2 (en) * 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
US9723298B2 (en) * 2014-06-13 2017-08-01 International Business Machines Corporation Managing a display
US9678567B2 (en) * 2014-07-16 2017-06-13 Avaya Inc. Indication of eye tracking information during real-time communications
US9674237B2 (en) * 2014-11-02 2017-06-06 International Business Machines Corporation Focus coordination in geographically dispersed systems

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018149234A (ja) * 2017-03-15 2018-09-27 公立大学法人広島市立大学 注視点推定システム、注視点推定方法及び注視点推定プログラム
WO2020090943A1 (ja) * 2018-10-30 2020-05-07 Cyberdyne株式会社 インタラクティブ情報伝達システム及びインタラクティブ情報伝達方法並びに情報伝達システム
JPWO2020090943A1 (ja) * 2018-10-30 2021-10-07 Cyberdyne株式会社 インタラクティブ情報伝達システム及びインタラクティブ情報伝達方法並びに情報伝達システム
JP7157424B2 (ja) 2018-10-30 2022-10-20 Cyberdyne株式会社 インタラクティブ情報伝達システム及びインタラクティブ情報伝達方法並びに情報伝達システム
JP7284401B2 (ja) 2019-09-12 2023-05-31 富士通株式会社 視線情報処理プログラム、情報処理装置および視線情報処理方法

Also Published As

Publication number Publication date
US20160234461A1 (en) 2016-08-11

Similar Documents

Publication Publication Date Title
JP2016131741A (ja) 通信端末、面談システム、表示方法及びプログラム
JP2016140720A (ja) 通信端末、面談システム、表示方法及びプログラム
US20160275726A1 (en) Manipulation of virtual object in augmented reality via intent
JP5721510B2 (ja) 遠隔診断システム、データ送信方法、データ受信方法、及びそれらに用いられる通信端末装置、データ解析装置、並びにプログラム、記憶媒体
EP4028862A1 (en) Multimodal inputs for computer-generated reality
US20160077585A1 (en) Information processing system and information processing method
JP2011039860A (ja) 仮想空間を用いる会話システム、会話方法及びコンピュータプログラム
JP2018027613A (ja) 接客装置、接客方法及び接客システム
JP2016163166A (ja) 通信端末、面談システム、表示方法及びプログラム
JP2022510350A (ja) 対話型健康状態評価方法およびそのシステム
JP6040745B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム及びコンテンツ提供システム
US10108784B2 (en) System and method of objectively determining a user's personal food preferences for an individualized diet plan
JP2016189556A (ja) 面談管理システム、面談システム、面談管理方法及びプログラム
JP2016163150A (ja) 通信端末、面談システム、通信方法及びプログラム
JP2012501687A (ja) 超音波撮像
JP2017069827A (ja) 通信端末、面談システム、表示方法及びプログラム
JP2018042812A (ja) 健康管理システム及びそのプログラム
JP2017016506A (ja) 通信端末、面談システム、表示方法及びプログラム
JP2018042811A (ja) 健康管理システム及びそのプログラム
KR20210150988A (ko) 활력 지수 획득 장치 및 방법
TWI659429B (zh) 互動式健康狀態評估系統及其方法
JP2004259198A (ja) 情報管理装置、情報管理システム、及びプログラム
JP2016143333A (ja) 情報処理システム、情報処理方法、およびプログラム
US20230114755A1 (en) Virtual space control system, method for controlling the same, and control program
WO2021251014A1 (ja) 提案情報生成装置、反射体付き表示装置、提案情報生成システム装置、提案情報生成方法、表示処理方法、プログラム及び記録媒体