JP7087804B2 - コミュニケーション支援装置、コミュニケーション支援システム及び通信方法 - Google Patents

コミュニケーション支援装置、コミュニケーション支援システム及び通信方法 Download PDF

Info

Publication number
JP7087804B2
JP7087804B2 JP2018149329A JP2018149329A JP7087804B2 JP 7087804 B2 JP7087804 B2 JP 7087804B2 JP 2018149329 A JP2018149329 A JP 2018149329A JP 2018149329 A JP2018149329 A JP 2018149329A JP 7087804 B2 JP7087804 B2 JP 7087804B2
Authority
JP
Japan
Prior art keywords
listener
mental
display
line
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018149329A
Other languages
English (en)
Other versions
JP2020025221A (ja
Inventor
邦和 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2018149329A priority Critical patent/JP7087804B2/ja
Publication of JP2020025221A publication Critical patent/JP2020025221A/ja
Application granted granted Critical
Publication of JP7087804B2 publication Critical patent/JP7087804B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、コミュニケーション支援装置、コミュニケーション支援システム及び通信方法に関する。
従来、ネットワークを介して接続された複数の端末を利用して会議を行う会議システムが知られている。このような会議システムにより、会議参加者の様子を撮影した画像又は音声等を送受信して、複数の拠点に居る参加者が相互にコミュニケーションをとることができる。これにより、例えば、会議参加者の会議室への移動等、会議以外の部分に時間を費やすことなく会議を行うことができる。
例えば、特許文献1では次のような技術が開示されている。すなわち、会議で利用される資料、会議参加者のうち少なくとも一方を会議の映像情報をして記録するとともに、会議参加者の視線情報、脳波、心拍数、又はその他の生体情報を会議参加者の情報として取得する。取得された会議参加者の情報に基づいて会議参加者の心理状態を推定し、推定された心理状態情報に基づいて、会議の音声映像情報の一部を選択して映像インデックスを生成し、これらをインデックス情報として記録するものである。
特許文献2には、複数の参加者が同時に発言した場合や発言に重なりがあった場合に、発言に優先順位をつけ、優先順位に応じて発言の音声及び画像情報を提示する技術が開示されている。
特許文献3には、クライアント装置から送信された音声データを、文字に変換し、文字出力とし、対応する発話者の画像データが表示されている場合には、該画像データと合成し、画像データが表示されていない場合には、文字発話枠に画像データを生成し、文字出力と合成された画像データと、クライアント装置から受け付けた画像データと、生成された文字発話枠と、に基づく画像データの全てを全体画像データとして合成し、合成された全体画像データをクライアント装置に送信する技術が開示されている。
特許文献2及び特許文献3に記載の技術には、参加者に対して予め優先順位を付け、優先順位が最も高い参加者の発言をリアルタイムで音声出力し、他の参加者の発言を文字情報に変換して出力する技術が記載されている。
特開2006-85440号公報 特開2006-229903号公報 特開2016-136746号公報
特許文献1に記載の技術は、参加者が発言した内容が音声認識されて会議システムに表示され、会議参加者の推定された心理状態に基づいて、会議の音声映像情報の一部をインデックス情報として記録することができる。しかしながら、会議の音声映像情報の一部をインデックス情報として記録するだけでは、例えば、会議参加者が会議資料のうちのどの部分に疑問を持っているのかを履歴情報として残すことはできるが、その疑問に対して問題解決できたか否かは判断できない。
また、特許文献2及び特許文献3に記載の技術では、事前に与えられた優先順位が高い会議参加者の質問がリアルタイムで音声出力されるため、質問内容が会議内容を理解するために重要な質問であっても、その質問が優先順位の低い会議参加者によるものである場合、リアルタイムにその質問を説明者に伝達できない場合が生じる。また、特許文献2及び特許文献3に記載の技術では、画面に表示されるテキスト情報だけでは、会議参加者がどのような心理状態で質問をしてきたのかが判断できない。
また、特許文献1~特許文献3に記載の技術では、話し手は、聞き手からの質問があるまで、会議資料のどの部分がどの程度聞き手に理解されているのかを判断できない。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、話し手が聞き手の様子を把握することで、より円滑なコミュニケーションを可能とするコミュニケーション支援装置、コミュニケーション支援システム及び通信方法を提供することにある。
上記課題を解決するために、本発明のある観点によれば、話し手が話す内容に関する表示を出力する出力制御部を備えるコミュニケーション支援装置であって、前記出力制御部は、前記表示のうち、聞き手の心身状態が所定の心身状態であると判定されたときの前記聞き手の視線情報に対応する部分を示す表示とともに、所定のコマンドを出力する、コミュニケーション支援装置が提供される。
コミュニケーション支援装置は、聞き手の前記視線情報を取得する視線情報取得部と、前記聞き手の前記心身状態を判定する心身状態判定部と、をさらに備えてもよい。
前記出力制御部は、前記心身状態判定部による判定結果を出力してもよい。
前記出力制御部は、前記表示のうちの前記視線情報に対応した部分を示す表示とともに、聞き手の前記心身状態に応じた情報を出力してもよい。
前記出力制御部は、聞き手の心身状態が所定の心身状態であると判定された回数に応じて、前記心身状態に応じた前記コマンドを出力してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、話し手が話す内容に関する表示を出力する出力制御部を備えるコミュニケーション支援装置であって、前記出力制御部は、前記表示のうち、聞き手の心身状態が困惑した状態であると判定されたときの前記聞き手の視線情報に対応する部分を示す表示とともに、前記聞き手の視線情報に対応する部分に関する情報の検索を促す表示、又は前記聞き手の視線情報に対応する部分に関する質問を促す表示を出力する、コミュニケーション支援装置。前記出力制御部は、聞き手が困惑した状態であると判定されたときの前記聞き手の視線情報に対応する部分に、前記聞き手の視線情報に対応する部分に関する情報の検索を促す表示、又は前記聞き手の視線情報に対応する部分に関する質問を促す表示を出力する、コミュニケーション支援装置が提供される。
前記出力制御部は、入力された前記質問を他のコミュニケーション支援装置に送信してもよい。
同一又は類似した内容の前記質問が入力された前記コミュニケーション支援装置の数に基づいて優先度を設定する情報処理部をさらに備え、前記出力制御部は、前記優先度に基づいて前記質問を表示してもよい。
前記出力制御部は、前記聞き手の視線情報に対応する部分を示す表示とともに、前記優先度が高い前記質問を表示してもよい。また、上記課題を解決するために、本発明の別の観点によれば、話し手が話す内容に関する表示を出力する出力制御部を備えるコミュニケーション支援装置であって、前記出力制御部は、前記表示のうち、聞き手の心身状態が所定の心身状態であると判定されたときの前記聞き手の視線情報に対応する部分を示す表示を出力し、当該部分に関連する人物へ問合せを促す表示を出力する、コミュニケーション支援装置が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、話し手が話す内容に関する表示を出力する出力制御部を備えるコミュニケーション支援システムであって、聞き手の視線情報を取得する視線情報取得部と、前記聞き手の心身状態を判定する心身状態判定部と、を備え、前記出力制御部は、前記表示のうち、前記心身状態判定部によって所定の心身状態であると判定されたときの前記視線情報に対応する部分を示す表示とともに、所定のコマンドを出力する、コミュニケーション支援システムが提供される。
また、上記課題を解決するために、本発明の別の観点によれば、話し手が話す内容に関する表示のうち、聞き手の心身状態が所定の心身状態であると判定されたときの前記聞き手の視線情報に対応する部分を示す表示とともに、所定のコマンドを出力すること、を含む、通信方法が提供される。また、上記課題を解決するために、本発明の別の観点によれば、話し手が話す内容に関する表示を出力する出力制御部を備えるコミュニケーション支援システムであって、聞き手の視線情報を取得する視線情報取得部と、前記聞き手の心身状態を判定する心身状態判定部と、を備え、前記出力制御部は、前記表示のうち、前記心身状態判定部によって困惑した状態であると判定されたときの前記視線情報に対応する部分を示す表示とともに、前記聞き手の視線情報に対応する部分に関する情報の検索を促す表示、又は前記聞き手の視線情報に対応する部分に関する質問を促す表示を出力する、コミュニケーション支援システムが提供される。また、上記課題を解決するために、本発明の別の観点によれば、話し手が話す内容に関する表示のうち、聞き手の心身状態が困惑した状態であると判定されたときの前記聞き手の視線情報に対応する部分を示す表示とともに、前記聞き手の視線情報に対応する部分に関する情報の検索を促す表示、又は前記聞き手の視線情報に対応する部分に関する質問を促す表示を出力すること、を含む、通信方法が提供される。また、上記課題を解決するために、本発明の別の観点によれば、話し手が話す内容に関する表示を出力する出力制御部を備えるコミュニケーション支援システムであって、聞き手の視線情報を取得する視線情報取得部と、前記聞き手の心身状態を判定する心身状態判定部と、を備え、前記出力制御部は、前記表示のうち、前記心身状態判定部によって所定の心身状態であると判定されたときの前記視線情報に対応する部分を示す表示を出力し、当該部分に関連する人物へ問合せを促す表示を出力する、コミュニケーション支援システムが提供される。また、上記課題を解決するために、本発明の別の観点によれば、話し手が話す内容に関する表示のうち、聞き手の心身状態が所定の心身状態であると判定されたときの前記聞き手の視線情報に対応する部分を示す表示を出力し、当該部分に関連する人物へ問合せを促す表示を出力すること、を含む、通信方法が提供される。

以上説明したように本発明によれば、話し手が聞き手の様子を把握することで、より円滑にコミュニケーションをとることが可能となる。
本発明の第1の実施形態に係るコミュニケーション支援システムの構成の一例を示す模式図である。 同実施形態に係る端末のハードウェア構成の一例を示すブロック図である。 同実施形態に係る端末の構成の一例を示すブロック図である。 ユーザの顔画像から得られる複数の特徴点の例を示す図である。 ニュートラルな表情と困惑の表情の関係を説明するための図である。 同実施形態に係る話し手が利用する端末のユーザ支援制御部が出力する画面の一例を示す図である。 同実施形態に係る聞き手が利用する端末のユーザ支援制御部が出力する画面の一例を示す図である。 同実施形態に係るサーバのハードウェア構成の一例を示すブロック図である。 同実施形態に係るサーバの構成の一例を示すブロック図である。 同実施形態に係る聞き手が利用する端末の閲覧情報管理テーブルの一例を示す表である。 同実施形態に係る話し手が利用する端末の閲覧情報管理テーブルの一例を示す表である。 同実施形態に係るコミュニケーション支援システムの動作の流れの一例を示すシーケンス図である。 同実施形態に係る端末の動作の流れの一例を示す流れ図である。 本発明の第2の実施形態に係るサーバの構成の一例を示すブロック図である。 同実施形態に係る専門家情報管理テーブルの一例を示す表である。 同実施形態に係る話し手が利用する端末の閲覧情報管理テーブルの一例を示す表である。 同実施形態に係る端末の動作の流れの一例を示す流れ図である。 同実施形態に係る聞き手が利用する端末のユーザ支援制御部が出力する画面の一例を示す図である。
以下に添付図面を参照しながら、本発明の実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成または論理的意義を有する複数の構成を、必要に応じて端末100A及び100Bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、複数の構成要素の各々に同一符号のみを付する。例えば、端末100A及び端末100Bを特に区別する必要が無い場合には、各端末を単に端末100と称する。
<<1.第1の実施形態>>
<1-1.コミュニケーション支援システムの構成>
まず、図1を参照し、本発明の実施形態に係るコミュニケーション支援システムの概要を説明する。図1は、本実施形態に係るコミュニケーション支援システムの構成の一例を示す模式図である。
本実施形態に係るコミュニケーション支援システム1は、話し手が話す内容に関する表示を出力し、聞き手の心身状態に基づいて、出力された表示のうち、聞き手の視線に対応する部分を示す表示を出力する。コミュニケーション支援システム1は、端末100、サーバ200及びネットワーク300を有する。サーバ200は、各端末100とネットワーク300を介して接続される。また、コミュニケーション支援システム1は、図1に示したように、複数の端末100を備えてもよく、複数の端末100は、ネットワーク300によって、相互に接続されてもよい。複数の端末100は、ネットワーク300を介してサーバ200と接続されてもよい。なお、端末100を利用するユーザのうち、主に話者となるユーザを話し手と呼称し、話し手の話を聞くユーザを聞き手と呼称する。
[端末100]
端末100は、話し手が話す内容に関する表示を出力し、当該表示のうち、聞き手の心身状態が所定の心身状態であると判定されたときの聞き手の視線情報に対応する部分を示す表示を出力する。複数の端末100は、例えば、それぞれ異なる拠点に設けられ、それぞれ異なるユーザにより利用されてもよい。例えば、端末100Aは拠点B1に設けられ、ユーザU1により利用されてもよく、端末100Bは、拠点B2に設けられ、ユーザU2により利用されてもよく、端末100Cは、拠点B3に設けられユーザU3により利用されてもよい。ただし、図1においては、1つの拠点に端末100を利用する1人のユーザが存在する例を示したが、1つの拠点に複数の端末100が設けられ、複数の端末100のそれぞれが、異なるユーザによって利用されてもよい。なお、視線情報とは、聞き手の視線に関する情報であり、例えば、聞き手の視線の方向、視線の滞留時間、視線の移動距離等である。視線情報には、聞き手の瞳孔の大きさ、瞬きの回数等が含まれてもよい。
(端末100のハードウェア構成)
ここで、図2を参照して、端末100のハードウェア構成を説明する。図2は、本実施形態に係る端末のハードウェア構成の一例を示すブロック図である。端末100は、図2に示したように、CPU(Central Prosessing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303、操作装置304、表示装置305、記憶装置306、通信装置307、画像入力装置308、音声入力装置309、音声出力装置310及びバス311を備える。本実施形態に係る端末100が行う、画像処理や心身状態判定処理等に挙げられる各種情報処理は、ソフトウェアと、以下に説明する端末100のハードウェアとの協働により実現される。
CPU301は、演算処理装置及び制御装置として機能し、各種プログラムに従って端末100内の動作全般を制御する。CPU301は、例えば、マイクロプロセッサであってもよい。ROM302は、CPU301が使用するプログラムや演算パラメータ等を記憶する。RAM303は、CPU301の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバスにより相互に接続されている。CPU301、ROM302及びRAM303とソフトウェアとの協働により、後述する制御部110の機能が実現され得る。
操作装置304は、マウス、キーボード、タッチパネル等、ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU301に出力する入力制御回路等から構成され得る。端末100のユーザは、該操作装置304を操作することにより、端末100に対して各種のデータの入力、処理動作の指示等を行うことができる。
表示装置305は、画像入力装置308で撮影された画像、後述するユーザ支援制御部112によって出力された画像等を表示する。表示装置305は、例えば、液晶ディスプレイ(LCD)装置で構成され、後述する表示部140に対応する。
記憶装置306は、一時的又は恒久的に保存すべきデータを記録する。記憶装置306は、例えば、ハードディスク(Hard Disk)等の磁気記憶装置であってもよく、又は、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ等の不揮発性メモリ、あるいは同等の機能を有するメモリ等であってよい。記憶装置306は、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体からデータを削除する削除装置等を含んでもよい。記憶装置306は、本実施形態にかかる端末100の記憶部120として構成され得る。また、記憶装置306は、CPU301が実行するプログラムや各種データを記憶し得る。
通信装置307は、ネットワーク300に接続するための通信インタフェースである。通信装置307は、例えば、通信デバイスで構成され、無線LAN(Local Area Network)対応通信装置、LTE(Long Term Evolution)対応通信装置、有線による通信を行うワイヤー通信装置、またはブルートゥース(登録商標)通信装置を含んでよい。
画像入力装置308は、端末100を使用するユーザを撮像する。画像入力装置308は、例えば、光学系、CCD(Charge Coupled Device)のような撮像素子及び画像処理回路を含む。画像入力装置308は、例えば、後述する撮影部170に対応する。
音声入力装置309は、端末100を使用するユーザの音声を集音する。音声入力装置309は、例えば、マイクロフォンのような音を電気信号に変換し、当該電気信号をデジタルデータに変換する。音声入力装置309は、例えば、後述するマイク150に対応する。
音声出力装置310は、他の端末100の音声入力装置309から入力された音声情報を出力する。詳細には、音声出力装置310は、デジタルデータを電気信号に変換し、当該電気信号を音声に変換する。音声出力装置310としては、例えば、スピーカ、イヤホン又はヘッドホン等の音声出力装置が用いられてもよい。音声出力装置310は、後述するスピーカ130に対応する。
バス311は、CPU301、ROM302及びRAM303を相互に接続する。バス311には、さらに、操作装置304、表示装置305、記憶装置306、通信装置307、画像入力装置308、音声入力装置309及び音声出力装置310が接続される。バス311は、例えば、複数の種類のバスを含んでもよい。バス311は、例えば、CPU301、ROM302及びRAM303を接続する高速バスと、当該高速バスよりも低速のバスを含んでもよい。
(端末100の機能構成)
次に、図3を参照して、本実施形態に係る端末100の機能構成の一例を説明する。図3は、本実施形態に係る端末の構成の一例を示すブロック図である。端末100は、少なくとも制御部110を備え、必要に応じて、記憶部120、スピーカ130、表示部140、マイク150、操作部160、撮影部170、及び通信部180を備える。
制御部110は、端末100の各構成を制御する。制御部110は、ユーザ支援制御部112と、操作処理部114と、画像処理部116、及び情報処理部118とを有する。制御部110は、CPU301、ROM302及びRAM303と、ソフトウェアとの協働により実現される。
ユーザ支援制御部112は、出力制御部に相当するものであり、話し手が話す内容に関する表示を出力し、当該表示のうち、聞き手の心身状態が所定の心身状態であると判定されたときのユーザの視線に対応する部分を示す表示を出力する。ユーザ支援制御部112は、表示部140の表示を制御する。ユーザ支援制御部112は、後述する心身状態判定部1167による判定結果を出力してもよい。また、ユーザ支援制御部112は、例えば、操作部160からの指示に基づいて記憶部120から所定の情報を読み込み、読み込まれた情報に基づく画面を表示部140に表示させてもよい。また、ユーザ支援制御部112は、スピーカ130による音声の出力、及びマイク150による音声の入力の制御を行ってもよい。
また、ユーザ支援制御部112は、聞き手の心身状態が所定の心身状態であると判定されたときの視線情報に対応する部分に所定のコマンドを出力してもよい。例えば、後述する心身状態判定部1167によって聞き手の心身状態が困惑した状態であると判定されたとき、当該判定がされたときの視対象情報について「検索」又は「質問」を促す表示を出力してもよい。また、ユーザ支援制御部112は、聞き手によってされた質問を他のコミュニケーション支援装置に送信してもよい。
また、ユーザ支援制御部112は、聞き手の心身状態が所定の心身状態であると判定された回数に応じて、心身状態に応じたコマンドを出力してもよい。ユーザ支援制御部112は、例えば、一人の聞き手の心身状態が困惑した状態であると判定された回数が所定の回数以上である場合、当該判定がされたときの視対象情報について「検索」又は「質問」を促す表示を出力してもよい。また、ユーザ支援制御部112は、例えば、複数の聞き手の心身状態が困惑した状態であると判定された回数の合計が所定の回数以上である場合、当該判定がされたときの視対象情報について「検索」又は「質問」を促す表示を出力してもよい。
操作処理部114は、後述する操作部160から入力された操作に関する情報である操作情報を、他の端末100又はサーバ200に送信する。また、操作処理部114は、操作情報を記憶部120に格納する。また、操作処理部114は、ユーザによる操作部160を介した操作が示す位置に対応する表示部140上の表示座標位置を算出する。そして操作処理部114は、算出された表示位置座標と対応するオブジェクトがユーザにより操作されたと判定する。
画像処理部116は、撮影部170から入力された画像情報の処理を行う。画像処理部116は、画像取得部1161、ユーザ検出部1163、視線情報取得部1165、及び心身状態判定部1167を有する。
画像取得部1161は、撮影部170から、ユーザの撮像画像を取得する。
ユーザ検出部1163は、画像取得部1161によって取得された画像からユーザに関する領域を検出する。ユーザ検出部1163は、例えば、ユーザの身体を検出する。ユーザ検出部1163は、ユーザの身体全体を検出してもよいし、例えば、顔等、身体の一部を検出してもよい。ユーザ検出部1163は、例えば、顔領域を検出する場合、エッジ検出または形状パターン検出によって候補領域を抽出し、抽出された候補領域を小領域に分割し、各領域の特徴点を予め設定された顔領域パターンと照合してもよい。また、ユーザ検出部1163は、例えば、各候補領域の色濃度が所定の閾値に対応する値である場合に胴体候補領域を抽出し、顔及び胴体候補領域の濃度または彩度のコントラストを用いて顔領域を抽出してもよい。また、ユーザ検出部1163は、公知の画像処理技術を用いてユーザの身体の動きを検出してもよい。
視線情報取得部1165は、聞き手の視線情報を取得する。視線情報は、先立って説明したように、聞き手の視線に関する情報である。視線情報には、例えば、聞き手の視線の方向、視線の滞留時間、視線の移動距離、聞き手の瞳孔の大きさ、瞬きの回数等が含まれてもよい。
心身状態判定部1167は、聞き手の心身状態を判定し、判定結果を心身状態情報として取得する。心身状態判定部1167は、例えば、端末100を操作中のユーザの表情を検出し、検出された顔領域における目や口の位置の変化を測定し、予め設定された判定ルールと照合して聞き手の表情を識別する。心身状態としては、例えば、困惑、興味又は驚き等が挙げられる。
ここで、図4及び図5を参照して、聞き手の表情の識別方法について説明する。図4は、聞き手の顔画像から得られる複数の特徴点の例を示す図である。図5は、ニュートラルな表情と困惑の表情の関係を説明するための図である。
以下では、具体的な例として、聞き手が困惑したときの表情の特徴について説明する。しかし、他の表情、例えば興味を示したときの聞き手の表情も困惑した表情と同様に固有の特徴を有している。したがって、困惑したときの表情以外の表情は、それぞれの表情の固有の特徴に基づいて認識され得る。
例えば、図4に示したように、ユーザの顔画像から特徴点として、左眉P1~P3、右眉P4~P6、左目P7~P10、右目P11~P14、口P15~P18がユーザ検出部1163によって検出される。心身状態判定部1167は、ユーザ検出部1163によって検出された特徴点の位置の変化に基づいて、聞き手の心身状態を判定する。
図5に示した、画像F1は、ユーザのニュートラルな表情が撮像されたときの左眉毛(P1~P3)と左目(P7~P10)を示した画像である。画像F2は、ユーザが困惑した状態の表情が撮像されたときの左眉毛(P1’~P3’)と左目(P7’~P10’)を示した画像である。画像F2に示した、聞き手が困惑したときの表情は、画像F1に写るニュートラルな表情と比較して、眉毛と目の距離が短くなり、目の開きが細くなっている。具体的には、画像F2では、画像F1と比較して、眉毛の特徴点P1’~P3’と目の上部の特徴点P7’~P9’の間隔が狭くなっており、また、目の特徴点P8’とP10’の間隔が狭くなっている。このように、聞き手が困惑したときの表情は、ニュートラルな表情とは異なる特徴を有している。
この例に示したように、困惑したときの表情以外にも、それぞれの表情は固有の特徴を有している。したがって、各特徴点の位置が決定されれば、その各特徴点の位置に対して、表情への近さを定義することが可能である。
また、特徴点の位置の変化量について、予め段階的に閾値を設定し、ユーザ検出部1163によって検出された特徴点の位置の変化量に応じてユーザの困惑度は変更されてもよい。心身状態判定部1167は、例えば、左眉毛の特徴点P1~P3、左目の特徴点P7~P10、右眉毛の特徴点P4~P6、右目に関する特徴点P11~P14、及び口に関する特徴点P15~P18、の位置の変化量が、予め指定した閾値を超える場合に、ユーザの困惑度が高くなったと推定することが可能である。心身状態判定部1167は、公知の情報処理技術、例えば、機械学習等によって、特徴点の位置からユーザの心身状態の判定、又は所定の心身状態の程度(例えば困惑度)を推定してもよい。
なお、心身状態判定部1167は、ユーザ検出部1163によって検出された聞き手の動きに基づいて、予め設定された判定ルールと照合して聞き手の心身状態を判定してもよい。
情報処理部118は、取得された視線情報から、視線が向けられている対象に関する情報である視対象情報を取得する。ここで言う視対象情報とは、表示部140に出力された表示であり、例えば、表示部140に表示された資料Aのテキスト、図、表、映像情報等である。また、情報処理部118は、後述する閲覧情報管理テーブル500に、ユーザの閲覧情報を記録する。閲覧情報としては、例えば、視対象情報、聞き手の視線の滞留時間、聞き手の心身状態、聞き手に困惑、興味又は驚き等が生じた視対象情報に対する聞き手の対応、聞き手の質問内容等が挙げられる。
また、情報処理部118は、複数の聞き手が行った質問が、実質的に同一内容であるか否かを判定する機能を有していてもよいし、類似した内容であるか否かを判定する機能を有していてもよい。情報処理部118は、更に、同一または類似の内容の質問が入力された端末100の数を算出する機能を有していていもよい。情報処理部118は、例えば、算出された端末100の数によって優先度を設定してもよく、ユーザ支援制御部112は、当該優先度に基づいて、質問を表示部140に表示させてもよい。ここまで、図4及び図5を参照して、聞き手の表情の識別方法について説明した。以下では、引き続き図3を参照して、端末100の機能構成を説明する。
図3に示した記憶部120は、端末100の動作のためのプログラム及びデータを記憶する。記憶部120には、端末100が、各種の処理を実施する際に利用する各種のプログラムやデータベース等が適宜記録されている。記憶部120には、画像処理部116が取得した各種の情報が履歴情報として記録されていてもよい。更に、記憶部120には、例えば、画像処理部116がそれぞれの処理を行う際に、保存する必要が生じた様々な処理の途中経過等が適宜記録されてもよい。画像処理部116が実行する処理に限られず、端末100が何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等が適宜記録されてもよい。この記憶部120は、ユーザ支援制御部112、操作処理部114、画像処理部116、情報処理部118等が、自由にリード/ライト処理を実施することが可能である。記憶部120には、例えば、視線情報、心身状態情報、閲覧情報、操作情報、閲覧情報管理テーブル等が格納されてもよい。なお、記憶部120は、記憶装置306により実装され得る。
スピーカ130は、他の端末100の音声情報を出力する。なお、スピーカ130は、音声出力装置310に対応する。
表示部140は、ユーザ支援制御部112の出力指示に基づいた表示を表示する。表示部140は、話し手が話す内容に関する表示し、また、聞き手の心身状態が所定の心身状態であると判定されたときのユーザの視線情報に対応する部分を示す表示を表示する。表示部140は、端末100を利用するユーザの画像、話し手U1が説明に用いる資料、聞き手からの質問事項、ユーザに対する操作説明等を表示してもよい。なお、表示部140は、表示装置305に対応する。
ここで、図6及び図7を参照して、ユーザ支援制御部112によって表示部140に表示される画面例を説明する。図6は、話し手が利用する端末のユーザ支援制御部が出力する画面の一例を示す図である。図7は、聞き手が利用する端末のユーザ支援制御部が出力する画面の一例を示す図である。
話し手U1に利用される端末100Aの表示部140Aは、オブジェクト表示領域141、及び閲覧情報表示領域143を含んでもよい。オブジェクト表示領域141は、例えば、話し手U1が説明に使用する資料Aを表示してもよい。表示部140Aには、視線情報及び心身状態情報に基づいて生成された表示142がオブジェクト表示領域141に表示されたオブジェクトに重ね合わせて表示されてもよい。表示142は、ユーザ支援制御部112の出力指示によって表示される。図6では、表示142として、オブジェクト表示領域141に表示されたオブジェクトに含まれるキーワードが強調表示されるとともに、この強調表示されたキーワードに対して、「詳細に説明してください。」という表示がされている。強調表示は、テキスト情報に対してだけでなく、映像情報に対して表示されてもよい。このように、ユーザ支援制御部112は、表示部140Aが表示する表示のうち、視線情報に対応した部分に、聞き手の心身状態に応じた情報を出力してもよい。
閲覧情報表示領域143には、閲覧情報が表示される。また、閲覧情報表示領域143には、例えば、聞き手によってされた質問が表示されてもよい。当該質問は、聞き手U2が行った質問であってもよいし、聞き手U3が行った質問であってもよい。よって、例えば、聞き手U2に利用される端末100Bの閲覧情報表示領域143には、聞き手U2が行った質問が表示されてもよいし、聞き手U3が行った質問が表示されてもよい。この閲覧情報表示領域143には、例えば、聞き手の心身状態情報の一つである困惑度、及び、困惑状態にあると判断された聞き手の人数に基づいて設定された質問の優先度に応じて、質問内容が表示されてもよい。具体的には、閲覧情報表示領域143では、優先度が高い質問が上方に表示され、優先度が低い質問は、閲覧情報表示領域143の下方に表示されてもよい。また、閲覧情報表示領域143には、後述する閲覧情報管理テーブル600が表示されてもよい。話し手U1は、説明中に閲覧情報表示領域143に表示された内容を見ることで、聞き手がどのような内容について困惑を示しているかを判断することができ、閲覧情報表示領域143の表示内容に応じて、説明内容の補足や修正などを行うことができる。具体的には、話し手U1は、説明の中で閲覧情報表示領域143に表示された優先度の高い質問について説明を加えることができる。また、話し手U1は、例えば、表示部140に表示された資料Aについての説明を一通り終えた後に優先度の高い質問から順に、閲覧情報表示領域143に表示された質問に対する回答をすることが可能となる。
聞き手に利用される端末100Bの表示部140Bは、オブジェクト表示領域141、及び閲覧情報表示領域143を含んでもよい。表示部140Bは、例えば、図7に示したように、話し手U1が説明に使用する資料Aに対応するオブジェクトを表示してもよい。また、閲覧情報表示領域143には、聞き手U2によってされた質問又は他の聞き手U3によってされた質問が表示されてもよい。
また、表示部140Bには、聞き手が利用する端末100からサーバ200に送信された、視線情報及び心身状態情報に基づいて生成された表示145がオブジェクト表示領域141のオブジェクトに重ね合わせて表示される。表示145は、ユーザ支援制御部112の出力指示によって表示される。表示145としては、例えば、図7に示したように、オブジェクト表示領域141のオブジェクトに含まれるキーワードが強調表示されるとともに、この強調表示されたキーワードに対する操作のメニューがされてもよい。図7では、当該キーワードに対して、「検索」、「質問」または「終了」の選択肢が表示されている。聞き手U2は、例えば、「検索」を選択すると、表示部140Bの所定の領域に、キーワードに関する情報が表示されてもよい。聞き手U2が「質問」を選択すると、聞き手U2は、質問内容を入力することができるようにしてもよい。質問内容の入力は、操作部160を介して聞き手U2によって入力されてもよいし、マイク150を介して音声入力されてもよい。音声入力された質問内容は、公知の音声認識技術でテキスト変換されてもよい。または、聞き手U2は、操作部160を介して質問表示領域に表示された質問内容を選択してもよい。また、表示部140には、視線情報又は心身状態情報が表示されてもよい。表示部140には、聞き手が複数存在する場合は、視線情報又は心身状態情報の集計結果が表示されてもよい。ここまで、図6及び図7を参照して、ユーザ支援制御部112によって表示部140に表示される画面例を説明した。以下では、引き続き図3を参照して、端末100の機能構成を説明する。
図3に示すマイク150は、端末100を利用するユーザの発言を入力する。なお、マイク150は、音声入力装置309に対応する。
操作部160は、端末100に対する入力インタフェースである。ユーザは、操作部160を介して、端末100に対して各種の情報の入力や指示入力を行うことができる。例えば、話し手U1は、操作部160を介して、説明する資料を選択することができる。また、聞き手U2は、操作部160を介して、検索、質問等を行うことができる。操作部160は、例えばキーボード等のハードキー、マウス、タッチパネル等の表示部140に表示されるソフトキーであってもよい。なお、操作部160は、操作装置304に対応する。
撮影部170は、端末100を操作するユーザを撮影する。撮影部170は、ユーザの表情又は動作から、心理状態を判定するための画像を撮影する。例えば、撮影部170は、CCD(Charged Coupled Devices)カメラであってもよい。なお、撮影部170は、画像入力装置308に対応する。
通信部180は、LAN(Local Area Network)などのネットワーク300を通じてサーバ200とデータの送受信を行う。通信部180は、有線であってもよく、また無線であってもよい。なお、通信部180は、通信装置307に対応する。
[サーバ200]
サーバ200は、仮想のコミュニケーション空間を生成し、端末100を利用するユーザにコミュニケーションの場を提供する。具体的には、サーバ200は、端末100からユーザの画像及び音声を収集し、収集されたユーザの画像及び音声を、他の端末100に提供する。これにより、例えば、遠隔した拠点に存在するユーザは、接続された端末100を利用するユーザの画像及び音声を共有することが可能となる。
(サーバ200のハードウェア構成)
ここで、図8を参照して、サーバ200のハードウェア構成を説明する。図8は、本実施形態に係るサーバのハードウェア構成の一例を示すブロック図である。図8に示したように、サーバ200は、CPU401、ROM402、RAM403、記憶装置404、通信装置405及びバス406を備える。
CPU401は、サーバ200における様々な処理を実行する。CPU401は、演算処理装置及び制御装置として機能し、各種プログラムに従ってサーバ200内の動作全般を制御する。CPU401は、例えば、マイクロプロセッサであってもよい。ROM402は、CPU401が使用するプログラムや演算パラメータ等を記憶する。RAM403は、CPU401の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバスにより相互に接続されている。CPU401、ROM402及びRAM403とソフトウェアとの協働により、制御部230の機能が実現され得る。
記憶装置404は、一時的又は恒久的に保存すべきデータを記憶する。記憶装置404は、例えば、ハードディスク等の磁気記憶装置であってもよく、又はEEPROM及びフラッシュメモリ等の不揮発性メモリ、あるいは同等の機能を有するメモリ等であってもよい。記憶装置404は、本実施形態にかかるサーバ200の記憶部220の一例として構成され得る。記憶装置404は、CPU401が実行するプログラムや各種データを記憶する。
通信装置405は、ネットワーク300を介して(あるいは、直接的に)端末100と通信する。通信装置405は、無線通信用インタフェースであってもよく、この場合には、例えば、通信アンテナ、RF回路及びその他の通信処理用の回路を含んでもよい。また、通信装置405は、有線通信用のインタフェースであってもよく、この場合に、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。
バス406は、CPU401、ROM402及びRAM403を相互に接続する。バス406には、さらに、記憶装置404及び通信装置405が接続される。バス406は、例えば、複数の種類のバスを含んでもよい。バス406は、例えば、CPU401、ROM402及びRAM403を接続する高速バスと、当該高速バスよりも低速の別のバスを含んでもよい。
本実施形態において、上述した端末100及びサーバ200の協働により、ユーザ間のコミュニケーションにおいて、用いられる複数の資料に対応する表示オブジェクトを含む表示画面が各ユーザに提供される。本実施形態では、ユーザ間で共有している資料について話し手が説明する場合に、ユーザ同士がより円滑にコミュニケーションをとることが可能となる。
(サーバ200の機能構成)
次に、図9~図11を参照して、本実施形態に係るサーバ200の機能構成の一例を説明する。図9は、本実施形態に係るサーバの構成の一例を示すブロック図である。図10は、聞き手が利用する端末の閲覧情報管理テーブルの一例を示す表である。図11は、話し手が利用する端末の閲覧情報管理テーブルの一例を示す表である。サーバ200は、先立って説明したように、仮想のコミュニケーション空間を生成する。図9を参照すると、サーバ200は、通信部210、記憶部220、及び制御部230を備える。
通信部210は、端末100と通信する。通信部210は、例えば、LANに直接的に接続され、端末100と通信する。
記憶部220は、話し手U1の端末100Aから送信された資料A、聞き手の資料Aの閲覧時に作成される閲覧情報管理テーブル500、話し手U1の端末100Aに送信される閲覧情報管理テーブル600を格納してもよい。閲覧情報管理テーブル500は、例えば、聞き手ごとの閲覧情報が記録されるテーブルである。閲覧情報管理テーブル500は、例えば、図10に示したように、視対象情報、心身状態、視線の滞留時間、聞き手U2に困惑が生じた視対象情報に対する聞き手の対応等が記録されてもよい。閲覧情報管理テーブル600は、聞き手の閲覧情報が後述する閲覧情報管理部232によってまとめられたテーブルである。閲覧情報管理テーブル600は、例えば、図11に示したように、視対象情報、心身状態、聞き手U2に困惑が生じた視対象情報に対する聞き手の対応等が記録されてもよい。さらに、閲覧情報管理テーブル600には、一つの視対象情報において、心身状態判定部1167によって所定の心身状態であると判定された聞き手の人数が記録されてもよい。また、閲覧情報管理テーブル600には、一つの視対象情報において、複数の聞き手による視線の総滞留時間が記載されてもよい。また、閲覧情報管理テーブル600には、聞き手ごとの閲覧情報が記録されてもよい。閲覧情報管理テーブル500及び閲覧情報管理テーブル600は、端末100の記憶部120又はサーバ200の記憶部220に格納されてよい。
図9に示した、制御部230は、サーバ200の各構成を制御する機能を有する。制御部230は、コミュニケーション空間生成部231、閲覧情報管理部232を有する。また、制御部230は、通信部210を介して、端末100からの要求に応じて、記憶部220にコミュニケーション中の音声情報及び画像情報を保存し、保存された音声情報又は画像情報を各端末100へ送信する。なお、制御部230は、CPU301、ROM302及びRAM303により実装され得る。
コミュニケーション空間生成部231は、ユーザ間でコミュニケーションを開始する際に仮想的なコミュニケーション空間を生成する。閲覧情報管理部232は、端末100B及び端末100Cから送信された聞き手の閲覧情報を、記憶部220に端末100ごとに閲覧情報管理テーブル500に記録する。また、閲覧情報管理部232は、端末100ごとに閲覧情報管理テーブルに記録された閲覧情報を統合し、話し手の端末100Aの閲覧情報管理テーブル600に記録する。
<1-2.コミュニケーション支援システムの動作>
続いて、図12を参照して、本実施形態に係るコミュニケーション支援システムの動作について説明する。図12は、本実施形態に係るコミュニケーション支援システムの動作の流れの一例を示すシーケンス図である。
図12を参照して、話し手U1が利用する端末100A、聞き手U2が利用する端末100B、聞き手U3が利用する端末100C及びサーバ200がネットワーク300によって相互に接続されている場合を説明する。
まず、ステップS101において、端末100A、端末100B、及び端末100Cのそれぞれは、話し手U1、聞き手U2、及び聞き手U3それぞれの、操作部160を介した接続要求が入力される。次いで、ステップS103において、端末100A、端末100B及び端末100Cは、操作処理部114によって、接続要求をサーバ200へ送信する。
次いで、ステップS105において、サーバ200に備えられるコミュニケーション空間生成部231は、話し手U1、聞き手U2及び聞き手U3がコミュニケーション可能な仮想的なコミュニケーション空間を生成する。そして、ステップS107において、話し手U1の端末100Aの操作処理部114は、コミュニケーション空間上に、例えば、話し手U1が説明のために利用する資料Aのデータを送信する。続いて、ステップS109において、サーバ200は、聞き手U2の端末100B及び聞き手U3の端末100Cへ資料Aのデータを送信する。このとき、端末100とサーバ200間で呼制御に係る処理が行われてもよい。これにより、ステップS111で、端末100A、端末100B、端末100C及びサーバ200の間で当該コミュニケーションのセッションが開始される。そして、ステップS113において、端末100Aの表示部140A、端末100Bの表示部140B、及び端末100Cの表示部140Cに、資料Aが表示される。
続いて、ステップS115で、端末100Bが、聞き手U2の視線情報及び心身状態情報を取得すると、情報処理部118は、視線情報及び心身状態情報を端末100Bの閲覧情報管理テーブル500に記録する。
ここで、ステップS115の動作の詳細について図13を用いて説明する。図13は、本実施形態に係る端末の動作の流れの一例を示す流れ図である。
まず、ステップS201において、端末100Bが有する画像取得部1161は、聞き手U2が利用する端末100Bの撮影部170によって撮像された聞き手U2の顔を含む画像を取得する。
次いで、ステップS203において、ユーザ検出部1163は、ステップS201で取得された画像から聞き手U2の顔部分の領域を検出する。次いで、ステップS205で、ユーザ検出部1163は、ステップS203で検出された顔部分の領域における聞き手U2の目部分の領域を検出する。
次いで、ステップS207において、視線情報取得部1165は、ステップS205で検出された目部分の領域の画像から、目の特徴点(例えば、目頭、目尻、瞳孔位置、瞳孔中心等)を抽出し、視線方向推定のための特徴点を抽出する。視線情報取得部1165は、ステップS205で検出された聞き手U2の目部分を解析することで視線の方向を算出する。視線情報取得部1165は、算出された視線の方向及び算出時の時間についての情報を取得してもよい。
次いで、ステップS209において、情報処理部118は、ステップS207で算出された聞き手U2の視線情報から、視線が向けられている対象の情報である視対象情報を取得する。ここで言う視対象情報とは、例えば、表示部140Bに表示された資料Aのテキスト、図、表、映像情報等である。
次いで、ステップS211において、視線情報取得部1165は、ステップ207で取得された視線情報から、聞き手U2の目の動きを検出する。ここで言う視線の動きとは、例えば、視線の滞留時間、移動距離などである。
次いで、ステップS213において、心身状態判定部1167は、撮影部170で撮影された利用者の顔画像から表情分析を行い、ユーザU2の心身状態、例えば困り状態を判定する。
次いで、ステップS215において、情報処理部118は、心身状態判定部1167によって心身状態情報が取得されたときの聞き手U2の視線位置を検出する。具体的には、撮影部170Bで撮影された聞き手の顔画像から目の位置を特定し、資料Aのどの部分を見ているか視線位置を検出する。情報処理部118は、検出された視線位置に対応する視対象情報を特定する。特定された視対象情報は、図10に示した、閲覧情報管理テーブル500に記録され、閲覧情報管理テーブル500は、記憶部120に格納される。
次いで、ステップS217において、聞き手U2の閲覧情報が、情報処理部118によって、例えば、図10に示した閲覧情報管理テーブル500に記録される。このとき、ユーザ支援制御部112は、例えば、図7に示した表示145を表示部140Bに表示してもよい。具体的には、ユーザ支援制御部112は、聞き手U2が見ている視対象情報を、聞き手U2が利用する端末100Bの表示部140の表示画面上でハイライトすると共に、ハイライトした位置に、視対象情報に対する操作方法を提示するメニューを表示してもよい。ここまで、ステップS115の動作の詳細について説明した。以下では、図12を参照して、ステップS117以降の動作について説明する。
図12に示したステップS117において、通信部180を介して、端末100Bによって取得された視線情報、心身状態情報、閲覧情報、質問等は、サーバ200に送信される。
ステップS117において、聞き手U2が話し手U1に質問をする場合は、聞き手U2は、操作部160から質問表示領域144に表示された質問内容を選択するか、マイク150を用いて音声で入力する。入力された音声は音声認識でテキスト変換されてもよい。質問が入力されると、例えば困惑度に例示される心身状態情報、質問内容、視線位置などが閲覧情報管理テーブル500に記録され、端末100Bから通信部180を介してサーバ200に送信される。聞き手U2が話し手U1に質問をしないときは、検索ボタンを選択すると、視対象情報に関する情報、例えば、視対象情報に関する詳細な説明などが表示される。
そして、ステップS119において、サーバ200は、端末100Bから送信された閲覧情報管理テーブル500及び、サーバ200が有する閲覧情報管理テーブル600を更新する。
続いて、ステップS121で、サーバ200は、端末100A、端末100B及び端末100Cへ、更新された仮想空間のデータを送信する。仮想空間のデータとは、コミュニケーション支援システム1を利用する際に、端末100間で共有されるデータであり、例えば、表示部140に表示される画面に関するデータ、閲覧情報管理テーブル500、及び閲覧情報管理テーブル600等である。これにより、ステップS123で、端末100A、端末100B及び端末100Cの表示部140において、受信した仮想空間のデータに対応して、表示部140の表示が変更される。
なお、図12においては、聞き手U2の心身状態が判定される例を記載したが、聞き手U3の視線及び心身状態の検出をした場合でも同様の処理が行われる。また、複数の聞き手それぞれに利用される端末100によって、それぞれの聞き手の心身状態が判定されてもよい。サーバ200は、複数の聞き手に利用される端末100から送信される各種情報の処理に同時に対応可能なものであってよい。
以上のように本実施形態に係るコミュニケーション支援システムによれば、聞き手の視線情報と心身状態に基づいて、話し手が話す内容に対する聞き手の理解度を判定することができ、話し手は、聞き手の様子を把握しながら説明をすることが可能となる。
<<2.第2の実施形態>>
<2-1.コミュニケーション支援システムの構成>
続いて、図14~図16を参照して、本発明に係る第2の実施形態について説明する。図14は、本実施形態に係るサーバの構成の一例を示すブロック図である。図15は、専門家情報管理テーブルの一例を示す表である。図16は、話し手が利用する端末の閲覧情報管理テーブルの一例を示す表である。
第2の実施形態に係るコミュニケーション支援システムは、端末100、サーバ400、及びネットワーク300を備える。端末100の構成及びネットワーク300は、第1の実施形態と実質的に同一であるため、ここでの詳細な説明は省略する。サーバ400は、第1の実施形態におけるサーバ200の構成に加え、制御部230内に質問空間生成部233を有する。
質問空間生成部233は、例えば、図15に示した、記憶部220内に保存される専門家情報管理テーブル700を参照し、所定の分野に詳しい専門家を聞き手U2に提示することができる。専門家は、予め専門家情報管理テーブル700に登録されてもよい。専門家情報管理テーブル700では、図15に示したように、所定のキーワードと当該キーワードに関する詳しい知識を有する専門家が紐づけられている。一つのキーワードに対し、一人の専門家が紐づけられてもよいし、複数の専門家が紐づけられてもよい。質問空間生成部233は、聞き手U2が資料Aの閲覧時に困惑状態となる場合、聞き手U2に困惑を引き起こしている視対象情報について詳細な知識を有する専門家を紹介する。質問空間生成部233は、コミュニケーション空間とは別の仮想的な質問空間を生成する。質問空間生成部233によって、聞き手U2と専門家とをつなぐものであってよい。専門家は、ネットワーク300を介して接続された端末100を利用するユーザであってもよい。
質問空間生成部233は、心身状態判定部1167による聞き手の心身状態の判定結果に基づいて質問仮想空間を生成することができる。質問空間生成部233は、心身状態判定部1167が聞き手の心身状態を判定する際に用いる判定条件に基づいて、質問仮想空間を生成してもよい。具体的には、図16では、所定のキーワードを有する視対象情報で困惑した回数を保存する困惑回数の項目が追加されており、質問空間生成部233は、所定の視対象情報に対して、困惑回数が所定の回数以上となった場合に、質問仮想空間を生成してもよい。例えば、図16に示したように、資料Aの10ページ目に記載された「テレワーク」というテキスト情報に対して、聞き手の困惑回数が3回以上となったときに、質問空間生成部233は、質問仮想空間を生成してもよい。また、質問空間生成部233は、視対象情報への聞き手の視線の滞留時間に基づいて質問仮想空間を生成してもよい。
更に、質問空間生成部233は、聞き手が利用する一つの端末100の心身状態判定部1167による判定結果だけでなく、複数の端末100の心身状態判定部1167の判定結果に基づいて質問仮想空間を生成してもよい。また、質問空間生成部233は、所定の聞き手が利用する端末100の心身状態判定部1167の判定結果に基づいて質問仮想空間を生成してもよい。
ユーザ支援制御部112は、聞き手の心身状態が困惑状態であると判定されたときの聞き手の視線情報に対応する部分に関連する人物へ問合せを促す表示を出力してもよい。ユーザ支援制御部112は、例えば、図18に示したように、困惑した状態が検出された視対象情報に詳しい専門家の一覧を出力してもよい。聞き手は、問合せを促す表示を選択することで、生成された質問空間において、聞き手が困惑状態となったときの視対象情報に関する質問を専門家に対して行うことが可能となる。
<2-2.コミュニケーション支援システムの動作>
続いて、図17及び図18を参照して、本実施形態に係るコミュニケーション支援システムの動作について説明する。図17は、本実施形態に係る端末の動作の流れの一例を示す流れ図である。図18は、聞き手が利用する端末のユーザ支援制御部が出力する画面の一例を示す図である。
図17に示した動作を示す図のS201~S217は、第1の実施形態における図13に示したS201~S217の処理と実質的に同一である。本実施形態におけるコミュニケーション支援システムの動作と第1の実施形態の動作との主な差異は、S219以降の処理を有することにある。
ステップS217で、情報処理部118が、心身状態判定部1167によって心身状態情報が取得されたときの聞き手U2の視線位置を検出した後、情報処理部118は、閲覧情報管理テーブル500に記録されたキーワードと、キーワード閲覧時の聞き手の困惑発生回数を算出する。同じキーワードを有する視対象情報に対し一定回数以上、例えば3回以上、所定の心身状態の一つである困惑した状態を検出した場合、情報処理部118は、聞き手にとって当該キーワードの理解が難しいと判断し、ステップS221を実行し、専門家情報管理テーブル700に登録された専門家に対して質問するための質問仮想空間を生成する。
ステップS221で質問仮想空間が生成されると、図18に示したように、専門家情報管理テーブル700に登録されている専門家のうちの、困惑した状態が検出された視対象情報に詳しい専門家の一覧を表示する専門家表示領域146が表示される。聞き手は、専門家表示領域146に表示された専門家を選択することで、上記視対象情報について専門家に問い合わせをすることが可能となる。
以上説明したように、第2の実施形態によれば、聞き手に提示された資料において、資料中の情報と、その情報に対して聞き手の困惑状態とから、予め登録された専門分野に詳しい人とコミュニケーションをとることが可能となる。その結果、聞き手は、コミュニケーションにおいて、提示資料について詳しい説明を受けることができ、話し手が話す内容を正確に理解することが可能となる。
<<3.変形例>>
以上、本発明の実施形態を説明した。以下では、本発明の実施形態の変形例を説明する。なお、以下に説明する変形例は、本発明の実施形態で説明した構成に代えて適用されてもよいし、本発明の実施形態で説明した構成に対して追加的に適用されてもよい。
本発明の実施形態において、質問空間生成部233が質問空間を生成した後、サーバ400の記憶部220内に保存される専門家情報管理テーブル700に登録された専門家と接続して質問をする場合について説明したが、本発明の実施形態はこれに限定されるものではない。例えば、コミュニケーション支援システムが生成する仮想空間にアクセス可能な専門家がいないときは、生成された質問仮想空間上で質問を登録しておくと、専門家が利用する端末がアクセス可能となったときに、その専門家が質問に対応できるようにしてもよい。また、端末100は、表示部140にインタフェースエージェントを表示し、聞き手はインタフェースエージェントを介して情報検索をするようにしてもよい。ユーザ支援制御部112は、表示部140に、専門家が事前に登録した情報のうちの該当する情報を自動的に表示するようにしてもよい。
表示部140が表示する資料Aには、公開レベル、例えば、関係者内、部内、社内などが設定されてもよい。聞き手は、この公開レベルに応じて、質問空間で問い合わせすることができる専門家や提示可能な情報を提示できるようにしてもよい。例えば、公開レベルが「会議関係者内」であれば、情報処理部118は、会議に関係する専門家に対して質問可能であるが、会議に関係しない専門家に対しては質問できないようにしてもよい。具体的には、専門家情報管理テーブル700に公開レベルが登録されており、情報処理部118は、所定の公開レベルを有する専門家名を表示部140の専門家表示領域146に表示してもよい。また、会議に関係しない専門家に対して質問可能な内容を制限してもよく、例えば、専門家は、資料Aに記載されたキーワードの説明以外を回答できないようにしてもよい。また、より公開レベルが広いものであれば該当するページの情報を専門家と共有し、聞き手は、専門家に質問できるようにするなどの設定をできるようにしてもよい。
また、情報処理部118は、困惑したキーワード数と困惑回数から聞き手の理解レベルを判定し、ユーザ支援制御部112は、表示部140に聞き手の理解レベルに応じて情報を提示するようにしてもよい。ユーザ支援制御部112は、例えば、理解レベルが低い聞き手に対して、常に資料Aに記載されたキーワードの意味を表示したり、話し手の説明で理解が難しいものは解説情報を資料Aに重ねて表示したりするようにしてもよい。
また、聞き手U2が利用する端末100Bの閲覧情報管理テーブル500は、聞き手U3が利用する端末100Cに送信されてもよい。これにより、聞き手の閲覧情報を共有化することができるため、聞き手の視線情報と心身状態から話し手が話す内容に対する他の聞き手の理解度を判定することができる。これにより、話し手及び聞き手双方が、話し手に対して聞き手が理解できない内容を把握しながら説明をすることが可能となる。
また、端末100がユーザ支援制御部及び画像処理部を有する場合を説明したが、サーバ200がユーザ支援制御部及び画像処理部を有してもよい。
<<4.結び>>
以上説明したように、本発明の実施形態によれば、ユーザがより円滑なコミュニケーションをとることが可能となる。
なお、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、本明細書の端末100の処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、端末100の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
さらに、端末100に内蔵されるCPU、ROM及びRAMなどのハードウェアに、上述した端末100の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
1 コミュニケーション支援システム
100、100A、100B、100C 端末
110、230 制御部
112 ユーザ支援制御部
114 操作処理部
116 画像処理部
1161 画像取得部
1163 ユーザ検出部
1165 視線情報取得部
1167 心身状態判定部
118 情報処理部
120、220 記憶部
130 スピーカ
140 表示部
150 マイク
160 操作部
170 撮影部
180、210 通信部
200 サーバ
231 コミュニケーション空間生成部
232 閲覧情報管理部
300 ネットワーク

Claims (16)

  1. 話し手が話す内容に関する表示を出力する出力制御部を備えるコミュニケーション支援装置であって、
    前記出力制御部は、前記表示のうち、聞き手の心身状態が所定の心身状態であると判定されたときの前記聞き手の視線情報に対応する部分を示す表示とともに、所定のコマンドを出力する、コミュニケーション支援装置。
  2. 聞き手の前記視線情報を取得する視線情報取得部と、
    前記聞き手の前記心身状態を判定する心身状態判定部と、をさらに備える、請求項1に記載のコミュニケーション支援装置。
  3. 前記出力制御部は、前記心身状態判定部による判定結果を出力する、請求項2に記載のコミュニケーション支援装置。
  4. 前記出力制御部は、前記表示のうちの前記視線情報に対応した部分を示す表示とともに、聞き手の前記心身状態に応じた情報を出力する、請求項1~3のいずれか1項に記載のコミュニケーション支援装置。
  5. 前記出力制御部は、聞き手の心身状態が所定の心身状態であると判定された回数に応じて、前記心身状態に応じた前記コマンドを出力する、請求項1~4のいずれか1項に記載のコミュニケーション支援装置。
  6. 話し手が話す内容に関する表示を出力する出力制御部を備えるコミュニケーション支援装置であって、
    前記出力制御部は、前記表示のうち、聞き手の心身状態が困惑した状態であると判定されたときの前記聞き手の視線情報に対応する部分を示す表示とともに、前記聞き手の視線情報に対応する部分に関する情報の検索を促す表示、又は前記聞き手の視線情報に対応する部分に関する質問を促す表示を出力する、コミュニケーション支援装置。
  7. 前記出力制御部は、入力された前記質問を他のコミュニケーション支援装置に送信する、請求項6に記載のコミュニケーション支援装置。
  8. 同一又は類似した内容の前記質問が入力された前記コミュニケーション支援装置の数に基づいて優先度を設定する情報処理部をさらに備え、
    前記出力制御部は、前記優先度に基づいて前記質問を表示する、請求項6又は7に記載のコミュニケーション支援装置。
  9. 前記出力制御部は、前記聞き手の視線情報に対応する部分を示す表示とともに、前記優先度が高い前記質問を表示する、請求項8に記載のコミュニケーション支援装置。
  10. 話し手が話す内容に関する表示を出力する出力制御部を備えるコミュニケーション支援装置であって、
    前記出力制御部は、前記表示のうち、聞き手の心身状態が所定の心身状態であると判定されたときの前記聞き手の視線情報に対応する部分を示す表示を出力し、当該部分に関連する人物へ問合せを促す表示を出力する、コミュニケーション支援装置。
  11. 話し手が話す内容に関する表示を出力する出力制御部を備えるコミュニケーション支援システムであって、
    聞き手の視線情報を取得する視線情報取得部と、
    前記聞き手の心身状態を判定する心身状態判定部と、
    を備え、
    前記出力制御部は、前記表示のうち、前記心身状態判定部によって所定の心身状態であると判定されたときの前記視線情報に対応する部分を示す表示とともに、所定のコマンドを出力する、コミュニケーション支援システム。
  12. 話し手が話す内容に関する表示のうち、聞き手の心身状態が所定の心身状態であると判定されたときの前記聞き手の視線情報に対応する部分を示す表示とともに、所定のコマンドを出力すること、を含む、通信方法。
  13. 話し手が話す内容に関する表示を出力する出力制御部を備えるコミュニケーション支援システムであって、
    聞き手の視線情報を取得する視線情報取得部と、
    前記聞き手の心身状態を判定する心身状態判定部と、
    を備え、
    前記出力制御部は、前記表示のうち、聞き手の心身状態が困惑した状態であると判定されたときの前記聞き手の視線情報に対応する部分を示す表示とともに、前記聞き手の視線情報に対応する部分に関する情報の検索を促す表示、又は前記聞き手の視線情報に対応する部分に関する質問を促す表示を出力する、コミュニケーション支援システム。
  14. 話し手が話す内容に関する表示のうち、聞き手の心身状態が困惑した状態であると判定されたときの前記聞き手の視線情報に対応する部分を示す表示とともに、前記聞き手の視線情報に対応する部分に関する情報の検索を促す表示、又は前記聞き手の視線情報に対応する部分に関する質問を促す表示を出力すること、を含む、通信方法。
  15. 話し手が話す内容に関する表示を出力する出力制御部を備えるコミュニケーション支援システムであって、
    聞き手の視線情報を取得する視線情報取得部と、
    前記聞き手の心身状態を判定する心身状態判定部と、
    を備え、
    前記出力制御部は、前記表示のうち、聞き手の心身状態が所定の心身状態であると判定されたときの前記聞き手の視線情報に対応する部分を示す表示を出力し、当該部分に関連する人物へ問合せを促す表示を出力する、コミュニケーション支援システム。
  16. 話し手が話す内容に関する表示のうち、聞き手の心身状態が所定の心身状態であると判定されたときの前記聞き手の視線情報に対応する部分を示す表示を出力し、当該部分に関連する人物へ問合せを促す表示を出力すること、を含む、通信方法。
JP2018149329A 2018-08-08 2018-08-08 コミュニケーション支援装置、コミュニケーション支援システム及び通信方法 Active JP7087804B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018149329A JP7087804B2 (ja) 2018-08-08 2018-08-08 コミュニケーション支援装置、コミュニケーション支援システム及び通信方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018149329A JP7087804B2 (ja) 2018-08-08 2018-08-08 コミュニケーション支援装置、コミュニケーション支援システム及び通信方法

Publications (2)

Publication Number Publication Date
JP2020025221A JP2020025221A (ja) 2020-02-13
JP7087804B2 true JP7087804B2 (ja) 2022-06-21

Family

ID=69619038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018149329A Active JP7087804B2 (ja) 2018-08-08 2018-08-08 コミュニケーション支援装置、コミュニケーション支援システム及び通信方法

Country Status (1)

Country Link
JP (1) JP7087804B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022139436A (ja) * 2021-03-12 2022-09-26 Necプラットフォームズ株式会社 会議支援装置、会議支援システム、会議支援方法、およびプログラム
JP2023140221A (ja) 2022-03-22 2023-10-04 株式会社リコー 情報処理装置、情報処理システム、コミュニケーション支援システム、情報処理方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006054830A (ja) 2004-08-16 2006-02-23 Sony Corp 画像圧縮通信方法及び装置
JP2008272019A (ja) 2007-04-25 2008-11-13 Oki Electric Ind Co Ltd 集団感情認識支援システム
JP2011081639A (ja) 2009-10-08 2011-04-21 Konica Minolta Business Technologies Inc 電子会議システム
JP2016031580A (ja) 2014-07-28 2016-03-07 株式会社リコー 通知支援システム、通知支援方法、情報処理装置及びプログラム
JP2018018332A (ja) 2016-07-28 2018-02-01 京セラドキュメントソリューションズ株式会社 プレゼンテーション支援システム、プレゼンテーション支援装置及びプレゼンテーション支援方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2739817B2 (ja) * 1993-12-28 1998-04-15 日本電気株式会社 プレゼンテーション装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006054830A (ja) 2004-08-16 2006-02-23 Sony Corp 画像圧縮通信方法及び装置
JP2008272019A (ja) 2007-04-25 2008-11-13 Oki Electric Ind Co Ltd 集団感情認識支援システム
JP2011081639A (ja) 2009-10-08 2011-04-21 Konica Minolta Business Technologies Inc 電子会議システム
JP2016031580A (ja) 2014-07-28 2016-03-07 株式会社リコー 通知支援システム、通知支援方法、情報処理装置及びプログラム
JP2018018332A (ja) 2016-07-28 2018-02-01 京セラドキュメントソリューションズ株式会社 プレゼンテーション支援システム、プレゼンテーション支援装置及びプレゼンテーション支援方法

Also Published As

Publication number Publication date
JP2020025221A (ja) 2020-02-13

Similar Documents

Publication Publication Date Title
US8164644B2 (en) Method and apparatus for generating media signal by using state information
CN110096251B (zh) 交互方法及装置
CN111432245B (zh) 多媒体信息的播放控制方法、装置、设备及存储介质
JPWO2017047182A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2022510350A (ja) 対話型健康状態評価方法およびそのシステム
CN110570383B (zh) 一种图像处理方法、装置、电子设备及存储介质
JP7087804B2 (ja) コミュニケーション支援装置、コミュニケーション支援システム及び通信方法
CN104933419A (zh) 获取虹膜图像的方法、装置及红膜识别设备
KR20190134975A (ko) 인공지능 시스템의 앱들 또는 스킬들의 리스트를 표시하는 증강 현실 장치 및 동작 방법
CN113703585A (zh) 交互方法、装置、电子设备及存储介质
JP2020136921A (ja) ビデオ通話システム、およびコンピュータプログラム
JPWO2019155735A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN110491384B (zh) 一种语音数据处理方法及装置
CN110188364B (zh) 基于智能眼镜的翻译方法、设备及计算机可读存储介质
CN111540383A (zh) 语音会话装置及其控制装置、控制程序以及控制方法
CN113093907B (zh) 人机交互方法、系统、设备及存储介质
CN111985252B (zh) 对话翻译方法及装置、存储介质和电子设备
US9619023B2 (en) Terminal, system, communication method, and recording medium storing a communication program
CN111554314A (zh) 噪声检测方法、装置、终端及存储介质
CN111698600A (zh) 一种处理执行方法、装置及可读介质
CN111610886A (zh) 触控屏幕亮度的调整方法、设备及计算机可读存储介质
CN115376198A (zh) 视线方向估计方法、装置、电子设备、介质及程序产品
JP6496220B2 (ja) 情報配信装置および情報配信プログラム
JP7371770B2 (ja) アバター制御プログラム、アバター制御方法および情報処理装置
CN111225269B (zh) 视频播放方法、装置、播放终端及存储介质

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220523

R150 Certificate of patent or registration of utility model

Ref document number: 7087804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150