JP2006262010A - 遠隔会議・教育システム - Google Patents

遠隔会議・教育システム Download PDF

Info

Publication number
JP2006262010A
JP2006262010A JP2005076012A JP2005076012A JP2006262010A JP 2006262010 A JP2006262010 A JP 2006262010A JP 2005076012 A JP2005076012 A JP 2005076012A JP 2005076012 A JP2005076012 A JP 2005076012A JP 2006262010 A JP2006262010 A JP 2006262010A
Authority
JP
Japan
Prior art keywords
psychological state
data
information
education system
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005076012A
Other languages
English (en)
Other versions
JP4604173B2 (ja
Inventor
Kiyoshi Nosu
潔 野須
Tomoya Kurokawa
智哉 黒川
Kenji Ogami
憲志 大上
Tsuneyuki Suzuki
経之 鈴木
Akira Okuda
旭 奥田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai University
Original Assignee
Tokai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai University filed Critical Tokai University
Priority to JP2005076012A priority Critical patent/JP4604173B2/ja
Publication of JP2006262010A publication Critical patent/JP2006262010A/ja
Application granted granted Critical
Publication of JP4604173B2 publication Critical patent/JP4604173B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】非同期遠隔会議において、映像、音声情報に加え、使用者の音声、表情・動作、生体情報のデータから抽出した多様な心理状態推定情報を遠隔地の対話相手に表示することを可能にする。
【解決手段】
複数の端末を、ネットワークを介して接続可能な遠隔会議・教育システムであって、各端末が、音声、映像情報の入出力手段、生体情報の入力手段と、これらのデータを実時間で抽出する手段と、これらの抽出データから利用者の心理状態を実時間で推定する手段と、映像音響情報に加え心理状態データ-をサーバに実時間伝送し、当該サーバに映像音響情報と心理状態データを一時蓄積し、通信相手が任意の時間に取り出すことを可能にする手段と、そして、蓄積された対話相手の端末の映像音響情報と心理状態データをサーバより受信し、映像音響情報及び対話相手の心理状態表示人工構造物を表示する手段とを備えて構成されている。
【選択図】 図3

Description

本発明は、遠隔地間で異なる時間帯で活動する人々、特に、異なる文化間、業務分野間など異なる文脈で活動する人々が共同作業、会議、議論、意思決定を円滑に遂行する遠隔会議・教育システムを提供する。
ユビキタス社会になり、いつでも、どこからでもコミュニケ−ションを取ることが可能になりつつあるが、場所だけでなく時間も共有しないコミュニケーションにより共同作業、会議、講義を経済的に実現することが求められている。
例えば、グローバルに事業展開している企業では、時差がある遠隔地間の事業所間で異なる時間帯に活動する社員の共同作業、会議、議論、意思決定を円滑に行う手段が求められている。特に、グローバル企業では、時間帯だけなく、業務分野や文化的背景など異なる文脈で活動している社員が多く、言語や映像から得られる情報とともに、対話相手の真意の理解、心理状態の推定が円滑な共同作業、会議、議論、迅速な意思決定において重要であるが、経済的に実現するのは、現状技術では、困難である。
デジタル映像音響技術とインターネット通信技術を使って遠隔地間で共同作業、会議、講義が行われている。しかし、映像音響入出力機器の機能と性能の限界から遠隔地間で受け取る情報は、限定されたものである。高品質な映像音響入出力機器と広帯域な通信回線を使って臨場感ある遠隔地間のコミュニケーションを実現する試みがあるが装置コスト、運用コストの点で実現が難しい場合があり、現状技術では、時差がない遠隔地間の同期遠隔会議においても対面コミュニケーションに近い場の共有が、困難なことが多い。
これらの諸課題のうち、時間を共有しない人の間で知識を共有する課題を解決する手段の提案例として、特開平10−214022「グループ学習教材編成方法及びシステム」がある。この例では、仲間同士で議論し教え合うことで、学習者間の相互作用を活性化することができるグループ学習教材編成方法及びシステムを提供する。共通の学習対象をもつ複数の学習者の協調的な振る舞いから得られるデータを基本とし、先行する学習者の学習履歴を記録し、後進学習者に対し目的状態へ至る手順を表示する機能を持ったグループ学習教材を編集し、編成されたグループ学習教材を他の学習者が共有、利用しながら、学習対象についての情報を表示し、学習者のノート/メモを取込みながら、グループ学習教材を更新する。
しかし、この方法では、忙しいビジネスマンにとって、皆で共有するノートに書き込むのは、煩雑である。仮に、入力が容易な映像及び音声情報の蓄積交換が出来たとしても、リアルタイムに双方向でやり取りを行わない非同期のコミュニケーションでは、対話の文脈が分断されるため、蓄積交換された映像、音声情報だけから遠隔地の対話相手、特に異文化圏、異なる分野で業務を遂行している対話相手の真意を理解し、相手の心理状態を推定することは、困難である。
一方、電子メディアの使用者の心理状態を推定する方法も提案されている。例えば、特開平5−12023「感情認識装置」では、基準となる音声信号と特徴信号とのズレ量を検出し、このズレ量に基づいて、感情状態を判断する。
図1は、遠隔会議使用者の音声スペクトルの最大パワーレベルとその周波数の変化率と「嬉しい」、「怒り」、「悲しい」、「納得」、「困惑」といった心理状態の関係を統計的信頼区間(信頼度95%)で示したデータ例である。このデータから分かるように、音声データのバラツキが大きい。従って、遠隔会議使用者の心理状態を音声データのみから適切に判断するのは、困難である。
別の考案例として特開平9−56703「感情検出装置および心拍データ発信器および感情表示装置」がある。これは、心拍センサから出力する心拍信号により心拍数の変化度合いを演算することにより、対話等における相手あるいは双方の緊張度や興奮度を、その場で的確に定量的に、しかも、場の雰囲気を害することなく検出し、その検出結果を表示することをめざしている。図2は、電子メディア利用者の脈拍数と皮膚温度の変化率と「面白い」、「驚き」、「納得」、「困惑」といった心理状態の関係を統計的信頼区間(信頼度95%)で示したデータ例である。図2は、心拍数や脈拍数情報に皮膚温度情報を組み合わせた場合でも、電子メディア利用者の心理状態を細かく識別することが出来ないことを示している。
生体情報を活用する別の考案例に、特開平7−204168「生体情報自動識別装置」がある。これは、脳波センサのデジタル出力信号をフーリエ変換し所望周波数帯域内の複数の分割された周波数帯域毎のスペクトルパワーを求め、センサを取り付けた被験者の複数の心理状態又は知的作業内容を判定することを狙っている。表1は、電子メディア利用者の脳波成分と「面白い」、「驚き」、「納得」、「困惑」といった心理状態の関係を示したデータ例である。表1は、α波、β波、δ波、θ波の増減からのみ心理状態を適切に判断するのは、困難であることを示している。
Figure 2006262010
特開平10−214022 特開平5−12023 特開平9−56703 特開平7−204168
本発明は、時間を共有しない人の間で情報交換を行う非同期遠隔会議・教育システムにおいて、映像、音声情報に加え、使用者の音声、表情・動作、生体情報のデータから抽出した多様な心理状態推定情報を遠隔地の対話相手に表示することを可能にする遠隔会議・教育システムを提供する。
前記課題を解決する請求項1に記載の発明は、サーバ及び複数の端末を、ネットワークを介して接続可能な遠隔会議・教育システムであって、各端末が、音声、映像情報の入出力手段、生体情報の入力手段と、音声、表情・動作、生体情報のデータを実時間で抽出する手段と、音声、表情・動作、生体情報の抽出データから利用者の心理状態を実時間で推定する手段と、利用者自身の映像音響情報に加え心理状態データをサーバに実時間伝送し、当該サーバに映像音響情報と心理状態データを一時蓄積し、通信相手が任意の時間に取り出すことを可能にする手段と、そして、蓄積された対話相手の端末の映像音響情報と心理状態データを、ネットワークを介してサーバより受信し、映像音響情報及び対話相手の心理状態表示人工構造物を表示する手段とを備えて構成されてなる遠隔会議・教育システムを提供する。
前記課題を解決する請求項2に記載の発明は、推定する利用者の心理状態の種類を予め設定し、音声、表情・動作、生体情報のデータごとに個々の心理状態に対応する判断基準値を蓄積記憶し、抽出された各時点の音声、表情・動作、生体情報のデータごとに心理状態の判断基準値との差分から一致指数を算出し、心理状態ごとに音声、表情・動作、生体情報のデータの一致指数を合算し、一致指数が最大の心理状態をその時点の心理状態と推定することを特徴とする請求項1の遠隔会議・教育システムを提供する。
前記課題を解決する請求項3に記載の発明は、遠隔地間での対話開始前に、各個人別に音声、表情・動作、生体情報のデータごとに各心理状態に対応する測定基準値を測定し、蓄積記憶することを特徴とする請求項1の遠隔会議・教育システムを提供する。
前記課題を解決する請求項4に記載の発明は、音声スペクトルの最大パワーレベルとその周波数、発話ピッチから心理状態を推定することを特徴とする請求項1の遠隔会議・教育システムを提供する。
前記課題を解決する請求項5に記載の発明は、顔画像の複数の特徴点の相対的移動変化量から心理状態を推定することを特徴とする請求項1の遠隔会議・教育システムを提供する。
前記課題を解決する請求項6に記載の発明は、顔画像の唇の左右端2点、右眉の左右端2点、左眉の左右端2点の相対的移動変化量から心理状態を推定することを特徴とする請求項5の遠隔会議・教育システムを提供する。
前記課題を解決する請求項7に記載の発明は、顔画像の複数の特徴点の変化量を1〜3秒間隔で算出することを特徴とする請求項5又は6の遠隔会議・教育システムを提供する。
前記課題を解決する請求項8に記載の発明は、脈拍数、皮膚温度、呼吸数の生体情報の変化量から心理状態を推定することを特徴とする請求項1の遠隔会議・教育システムを提供する。
前記課題を解決する請求項9に記載の発明は、生体情報の変化量を2〜10秒間隔で算出することを特徴とする請求項8の遠隔会議・教育システムを提供する。
前記課題を解決する請求項10に記載の発明は、請求項1の発明において、音声に関する情報の入手及びそれに基づく心理状態の推定を行わないものに該当し、各端末が、映像情報の入出力手段、生体情報の入力手段と、表情・動作、生体情報のデータを実時間で抽出する手段と、表情・動作、生体情報の抽出データから利用者の心理状態を実時間で推定する手段と、利用者自身の映像音響情報に加え心理状態データ-をサーバに実時間伝送し、当該サーバに前記映像音響情報と心理状態データを一時蓄積し、通信相手が任意の時間に取り出すことを可能にする手段と、そして、蓄積された対話相手の端末の映像音響情報と心理状態データを、ネットワークを介してサーバより受信し、映像音響情報及び対話相手の心理状態表示人工構造物を表示する手段とを備えて構成されてなる遠隔会議・教育システムを提供する。
上述した本発明は、遠隔地間で異なる時間帯で活動する人々、特に異なる文化や業務分野の人々が共同作業、会議、議論、意思決定を円滑かつ迅速に遂行する。
以下、図面を用いて本発明に係る遠隔会議・教育システムについて詳細に説明する。
図3は、遠隔地間で時間を共有せず会議を行う非同期式遠隔会議の実施例の構成である。1は、ヘッドフォン、2は、マイクロフォン、3は、画像表示装置、4は、カメラ、5は、身体装着型生体センサ、7は、通信ネットワーク、9は、蓄積型遠隔会議情報処理装置、300,300’は、通信端末、400は、映像音響情報蓄積サーバである。通信端末300、300’は、各々、ヘッドフォン1、マイクロフォン2、画像表示装置3、カメラ4、身体装着型生体センサ5、蓄積型遠隔会議情報処理装置9で構成されている。
上記の構成において、遠隔会議システム使用者は、相手と時間を共有して通信回線を通じて直接対話するのではなく、映像音響情報蓄積サーバ400に、映像情報、音声情報、心理状態表示データをいったん蓄積し、相手の都合が良いときにダウンロードしてもらって情報伝達を行う。また、他者から情報伝達があったときは、都合が良いときに、映像音響情報蓄積サーバ400にアクセスし、蓄積された送信者の映像情報、音声情報、心理状態表示データをダウンロードして閲覧する。
自分宛の情報があることを認識した通信端末300の使用者は、映像音響情報蓄積サーバ400にいったん蓄積された遠隔地の通信端末300’の対話相手の情報をダウンロードし、音声情報は、ヘッドフォン1により、相手の映像情報及び心理状態表示データは、画像表示装置3により得る。
他者に送りたいメッセージあるときは、マイクロフォン2で対話相手に話しかける音声情報は、送付先ラベルを添付して映像音響情報蓄積サーバ400に送る。同時に、蓄積型遠隔会議情報処理装置9で音声解析による使用者心理状態推定にも用いられる。
カメラ4は、遠隔会議使用者の映像を撮影する。その映像情報は、送付先ラベルを添付して遠隔地の映像音響情報蓄積サーバ400に送る。同時に、蓄積型遠隔会議情報処理装置9で顔画像解析による使用者の心理状態推定にも用いられる。身体装着型生体センサ5は、脈拍数、皮膚温度、呼吸数の生体情報を検出する。これらのデータは、蓄積型遠隔会議情報処理装置9で生体情報解析による使用者の心理状態推定に用いられる。蓄積型遠隔会議情報処理装置9は、リアルタイムで生体情報、顔画像、音声情報の解析による使用者心理状態推定を行い、そのデータを使用者の映像、音声とともに送付先ラベルを添付して映像音響情報蓄積サーバ400に送る。
映像音響情報蓄積サーバ400は、遠隔会議システム使用者の映像、音声及び使用者心理状態推定データを受け取ると、蓄積するとともに、情報送付先に伝達メッセージ到着を連絡する。
映像音響情報蓄積サーバ400から伝達メッセージ到着の連絡を受けた通信端末300の使用者は、都合が良いときに、映像音響情報蓄積サーバ400にアクセスし、蓄積された送信者の映像情報、音声情報、心理状態表示データをダウンロードする。相手の心理状態表示データは、蓄積型遠隔会議情報処理装置9で処理され、映像情報とともに画像表示装置3に表示される。送られてきた相手の音声情報は、遠隔会議情報処理装置9で処理され、ヘッドフォン1に出力される。
以上の構成により、非同期遠隔会議使用者の音声、表情・動作、生体情報のデータから総合的に判断した心理状態データを遠隔地の対話相手に表示することを可能にし、時間、空間を越えて心の微妙な変化を対話相手に伝える事が可能になる。
図4は、非同期式遠隔会議の実施例の遠隔会議情報処理装置9の構成を示している。21は、音響出力インタフェース回路、22は、音響入力インタフェース回路、23は、映像出力インタフェース回路、24は、映像入力インタフェース回路、25は、生体情報入力インタフェース回路、26は、音響データ抽出回路、27は、映像データ抽出回路、28は、生体情報抽出回路、29は、心理状態推定回路、30は、心理状態データ生成回路、31は、映像・音響多重回路、32は、送信データ多重化回路、33は、送信回路、34は、受信回路、35は、受信データ分離回路、36は、映像・音響分離回路、37は、会議映像/心理状態データ合成回路である。
音響出力インタフェース回路21は、図3のヘッドフォン1に接続されている。音響入力インタフェース回路22は、マイクロフォン2に接続されている。映像出力インタフェース回路23は、画像表示装置3に接続されている。映像入力インタフェース回路24は、カメラ4に接続されている。生体情報入力インタフェース回路25は、身体装着型生体センサ5に接続されている。
音響データ抽出回路26は、音響入力インタフェース回路22の信号から、心理状態を推定する音声データとして、音声スペクトルの最大パワーレベルとその周波数を抽出する。
映像データ抽出回路27は、映像入力インタフェース回路24の映像信号から顔画像の複数の特徴点の相対的移動変化量から心理状態を推定する。具体的には、顔画像の唇の左右端2点、右眉の左右端2点、左眉の左右端2点の相対的移動変化量を抽出する。これらの顔画像の特徴点の変化量を1〜3秒間隔で算出する。
生体情報抽出回路28は、生体情報入力インタフェース回路25の信号から脈拍数、皮膚温度、呼吸数の変化量を抽出する。これらの生体情報の変化量を2〜10秒間隔で算出する。
心理状態推定回路29は、音響データ抽出回路26の音声データ、映像データ抽出回路27の顔画像データ、生体情報抽出回路28の生体データを基に「驚き」、「納得」、「面白さ」、「困惑」といった利用者の心理状態を実時間で推定する回路である。
心理状態データ生成回路30は、心理状態推定回路29の出力である利用者の心理状態推定結果をもとに、使用者の推定心理状態を他人が一目でわかるようなアバタ−、二次元もしくは三次元アニメーションなど心理状態表示人工構造物データを生成する。
音響入力インタフェース回路22及び映像入力インタフェース回路24のデジタル出力信号は、映像・音響多重回路31で多重化される。
映像・音響多重回路31及び心理状態データ生成回路30の出力は、送信データ多重化回路32で多重化され、送信回路33からネットワークに送り出される。
ネットワークから送られてきたデータは、受信回路34で受信され、受信データ分離回路35で、対話相手の心理状態表示人工構造物データと対話相手の映像・音声多重化データに分離される。
映像・音響分離回路36は、映像・音声多重化データを映像データと音声データに分離する。分離された音声データは、音響出力インタフェース回路21に送られ、アナログ情報に変換される。
会議映像/心理状態データ合成回路37は、分離された映像データと心理状態表示人工構造物データを合成し、映像出力インタフェース回路23に送られ、アナログ情報に変換される。
推定する利用者の心理状態の種類を予め「驚き」、「納得」、「面白さ」、「困惑」の四つに設定し、生体情報、顔画像のデータごとに個々の前記心理状態に対応する判断基準値を蓄積記憶し、抽出された各時点の音声、表情・動作、生体情報のデータごとに前記心理状態の判断基準値との差分から一致指数を算出し、心理状態ごとに生体情報、表情・動作のデータの一致指数を合算し、一致指数が最大の心理状態をその時点の心理状態と推定する。
音声データでは、詳細な心理状態の識別が困難であるので、「高揚」もしくは「非高揚」心理状態の識別のみを行う。例えば、前記4つの心理状態にさらに「怒り」の心理状態を追加する必要がある場合に、本データを追加することができる。
判断基準値は、測定データの変化率で定めており、遠隔地間での対話開始前に、各個人別に音声、表情・動作、生体情報のデータごとに各心理状態に対応する測定基準値を測定し蓄積記憶しておく。
図5は、心理状態推定回路29の処理アルゴリズムを示している。顔画像データ1(右唇位置)、顔画像データ2(左唇位置)、顔画像データ3(右内眉位置)、顔画像データ4(左内眉位置)、顔画像データ5(右外眉位置)、顔画像データ6(左外眉位置)、生体データ1(呼吸数)、生体データ2(心拍数)、生体データ3(皮膚温度)ごとにその測定変化率から「驚き」、「納得」、「面白さ」、「困惑」の四つの心理状態に対応する判断基準値が蓄積記憶されている。特定の時点の測定データから各心理状態別の一致指数を計算する。
9種類の測定データごとに計算した四つの心理状態に対応する一致指数を「驚き」、「納得」、「面白さ」、「困惑」の心理状態ごとに合算する。一致指数合算値が最大の心理状態と判定する。
音声データから「高揚」心理状態/「非高揚」心理状態の判定を行う。これらの推定データは、心理状態データ生成回路30に送られ、使用者の推定心理状態を他人が一目でわかるようなアバタ−、二次元もしくは三次元アニメーションなど心理状態表示人工構造物データを生成する。
以下、図5のアルゴリズムに組み込まれている音声、顔画面、生体情報別にその判定基準値の具体例を説明する。
図6は、音声最大レベル値及び最大レベルの周波数の変化率と心理状態の関係を示している。音声最大パワーレベル及びその周波数の変化率からは細かい心理状態を分けて推測することは難しい。怒りといった高揚心理状態とその他の心理状態(非高揚心理状態)の分離のみが可能である。測定データが四角の枠内であるならば、「高揚」心理状態もしくは「非高揚」心理状態と判断する。
顔画面の解析は、頭頂−あごのラインを基準線41として相対座標系40を再計算することにより、頭のぶれや画面に占める顔の割合などに左右されずに、ほぼ計測点の動きだけを算定し、顔画像の複数の特徴点の相対的移動変化量から心理状態を推定する。具体的には、顔画像の唇の左右端2点、右眉の左右端2点、左眉の左右端2点の相対的移動変化量から心理状態を推定する。
図7は、顔画面をデータから頭頂−あごのラインを基準線41として相対座標系40を再計算する過程の画像の一部である。顔画像の複数の特徴点の変化量は、1〜3秒間隔で算出する。
図8は、右唇の画像解析結果(位置変化率)を示している。「驚き」の心理状態での変化は広範囲にy軸下方に広がっている。「面白さ」の心理状態での変化はy軸上方向に引き上げられる傾向がある。逆に、「困惑」での変化はx軸方向外側に伸びる傾向にある。図9は、左唇の画像解析結果を示している。右唇と同様な動きをしている。
図10は、右内眉の画像解析結果(位置変化率)を示している。「驚き」及び「困惑」の心理状態での変化は、x軸方向に長くなる傾向にある。「納得」と「面白さ」の心理状態での変化は左右どちらもほぼ重なっており、これらの計測点だけで判断するのは難しい。
図11は、左内眉の画像解析結果(位置変化率)を示している。右内眉とほぼ同様な変化の動きをしている。図12は、右外眉の画像解析結果(位置変化率)を示している。「驚き」及び「困惑」の心理状態での変化は、x軸方向長くなる傾向にあり、重なりやすくなっている(識別しにくくなっている)。「面白さ」の心理状態での変化はx,y軸方向ともに一番変化が少ない。「納得」の心理状態での変化はx軸方向へ大きく動くことが多い。
図13は、左外眉の画像解析結果(位置変化率)を示している。右外眉と同様な動きをしている。図14は、平均化時間を5秒に設定したときの生体情報のデータ例、図15は、平均化時間を10秒に設定したときの生体情報のデータ、図16は、平均化時間を30秒に設定したときの生体情報のデータ例である。平均化時間が長くなると雑音成分が除去されるが同時に生体情報の急峻な変化量も平滑化され重要な情報が失われる。そこで、本実施態様では、脈拍数、皮膚温度、呼吸数の生体情報の変化量を10秒間隔で抽出している。
図17は、生体情報のうち、脈拍と呼吸数の心理状態判定基準を示している。「納得」と「面白さ」の心理状態は、「困惑」心理状態は分離することが可能であるが、「驚き」の心理状態の範囲は全体に広がっており、他の心理状態との分離は不可能である。
図18は、生体情報のうち、呼吸数と皮膚温度の心理状態判定基準を示している。「納得」と「面白さ」の心理状態は「困惑」の心理状態と分離可能である。
図19 左外眉の測定データの一致度指数の算出方法を示している。測定点と「驚き」、「納得」、「困惑」、「面白さ」の四つの心理状態判定区間の平均点の距離をもとに一致指数を算出している。もっとも距離の短い心理状態の一致指数を「+1」、もっとも距離の長い心理状態の一致指数を「−1」、その他の心理状態の一致指数を「0」とした。
以上の構成により、遠隔会議使用者の音声、表情・動作、生体情報のデータを総合的に判断して多様な使用者心理状態を実時間で推定し、遠隔地の対話相手に表示することを可能にし、遠隔にいる対話相手の心の微妙な変化を相手に伝える事が可能になる。
遠隔会議使用者の音声スペクトルの最大パワーレベルとその周波数の変化率と「嬉しい」、「怒り」、「悲しい」、「納得」、「困惑」といった心理状態の関係を統計的信頼区間(信頼度95%)で示したデータ例である。 電子メディア利用者の脈拍数と皮膚温度の変化率と「面白い」、「驚き」、「納得」、「困惑」といった心理状態の関係を統計的信頼区間(信頼度95%)で示したデータ例である。 遠隔地間で時間を共有しないで会議を行う非同期式遠隔会議の実施例の構成を示す概略図である。 実施例の遠隔会議情報処理装置9の構成を示すブロック図である。 心理状態推定回路29の処理アルゴリズムを説明するための図である。 音声最大レベル値及び最大レベルの周波数の変化率と心理状態の関係を示すチャート図である。 顔画像分析基準線を説明するための概略図である。 顔画像による心理状態判定基準(右唇)を説明するためのチャート図である。 顔画像による心理状態判定基準(左唇)を説明するためのチャート図である。 顔画像による心理状態判定基準(右内眉)を説明するためのチャート図である。 顔画像による心理状態判定基準(左内眉)を説明するためのチャート図である。 顔画像による心理状態判定基準(右外眉)を説明するためのチャート図である。 顔画像による心理状態判定基準(左外眉)を説明するためのチャート図である。 生体情報の平均化時間の設定(5秒)の場合における変化率を示すチャート図である。 生体情報の平均化時間の設定(10秒)の場合における変化率を示すチャート図である。 生体情報の平均化時間の設定(30秒)の場合における変化率を示すチャート図である。 生体情報による心理状態判定基準(脈拍−呼吸数)を説明するためのチャート図である。 生体情報による心理状態判定基準(呼吸数−皮膚温度)を説明するためのチャート図である。 一致度指数の算出方法(左外眉の場合)を説明するためのチャート図である。
符号の説明
1 ヘッドフォン
2 マイクロフォン
3 画像表示装置
4 カメラ
5 身体装着型生体センサ
7 通信ネットワーク
9 蓄積型遠隔会議情報処理装置
21 音響出力インタフェース回路
22 音響入力インタフェース回路
23 映像出力インタフェース回路
24 映像入力インタフェース回路
25 生体情報入力インタフェース回路
26 音響データ抽出回路
27 映像データ抽出回路
28 生体情報抽出回路
29 心理状態推定回路
30 心理状態データ生成回路
31 映像・音響多重回路
32 送信データ多重化回路
33 送信回路
34 受信回路
35 受信データ分離回路
36 映像・音響分離回路
37 会議映像/心理状態データ合成回路
300,300’ 通信端末
400 映像音響情報蓄積サーバ

Claims (10)

  1. サーバ及び複数の端末を、ネットワークを介して接続可能な遠隔会議・教育システムであって、各端末は、
    音声、映像情報の入出力手段、生体情報の入力手段と、
    音声、表情・動作、生体情報のデータを実時間で抽出する手段と、
    音声、表情・動作、生体情報の抽出データから利用者の心理状態を実時間で推定する手段と、
    利用者自身の映像音響情報に加え心理状態データをサーバに実時間伝送し、当該サーバに前記映像音響情報と心理状態データを一時蓄積し、通信相手が任意の時間に取り出すことを可能にする手段と、そして、
    前記蓄積された対話相手の端末の映像音響情報と心理状態データを、ネットワークを介してサーバより受信し、映像音響情報及び対話相手の心理状態表示人工構造物を表示する手段と、
    を備えて構成されてなる遠隔会議・教育システム。
  2. 推定する利用者の心理状態の種類を予め設定し、音声、表情・動作、生体情報のデータごとに個々の前記心理状態に対応する判断基準値を蓄積記憶し、抽出された各時点の音声、表情・動作、生体情報のデータごとに前記心理状態の判断基準値との差分から一致指数を算出し、心理状態ごとに音声、表情・動作、生体情報のデータの一致指数を合算し、一致指数が最大の心理状態をその時点の心理状態と推定することを特徴とする請求項1の遠隔会議・教育システム。
  3. 遠隔地間での対話開始前に、各個人別に音声、表情・動作、生体情報のデータごとに各心理状態に対応する測定基準値を測定し、蓄積記憶することを特徴とする請求項1の遠隔会議・教育システム。
  4. 音声スペクトルの最大パワーレベルとその周波数、発話ピッチから心理状態を推定することを特徴とする請求項1の遠隔会議・教育システム。
  5. 顔画像の複数の特徴点の相対的移動変化量から心理状態を推定することを特徴とする請求項1の遠隔会議・教育システム。
  6. 顔画像の唇の左右端2点、右眉の左右端2点、左眉の左右端2点の相対的移動変化量から心理状態を推定することを特徴とする請求項5の遠隔会議・教育システム。
  7. 顔画像の複数の特徴点の変化量を1〜3秒間隔で算出することを特徴とする請求項5又は6の遠隔会議・教育システム。
  8. 脈拍数、皮膚温度、呼吸数の生体情報の変化量から心理状態を推定することを特徴とする請求項1の遠隔会議・教育システム。
  9. 生体情報の変化量を2〜10秒間隔で算出することを特徴とする請求項8の遠隔会議・教育システム。
  10. サーバ及び複数の端末を、ネットワークを介して接続可能な遠隔会議・教育システムであって、各端末は、
    映像情報の入出力手段、生体情報の入力手段と、
    表情・動作、生体情報のデータを実時間で抽出する手段と、
    表情・動作、生体情報の抽出データから利用者の心理状態を実時間で推定する手段と、
    利用者自身の映像音響情報に加え心理状態データ-をサーバに実時間伝送し、当該サーバに前記映像音響情報と心理状態データを一時蓄積し、通信相手が任意の時間に取り出すことを可能にする手段と、そして、
    前記蓄積された対話相手の端末の映像音響情報と心理状態データを、ネットワークを介してサーバより受信し、映像音響情報及び対話相手の心理状態表示人工構造物を表示する手段と、
    を備えて構成されてなる遠隔会議・教育システム。
JP2005076012A 2005-03-16 2005-03-16 遠隔会議・教育システム Expired - Fee Related JP4604173B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005076012A JP4604173B2 (ja) 2005-03-16 2005-03-16 遠隔会議・教育システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005076012A JP4604173B2 (ja) 2005-03-16 2005-03-16 遠隔会議・教育システム

Publications (2)

Publication Number Publication Date
JP2006262010A true JP2006262010A (ja) 2006-09-28
JP4604173B2 JP4604173B2 (ja) 2010-12-22

Family

ID=37100759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005076012A Expired - Fee Related JP4604173B2 (ja) 2005-03-16 2005-03-16 遠隔会議・教育システム

Country Status (1)

Country Link
JP (1) JP4604173B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008176816A (ja) * 2004-10-12 2008-07-31 Samsung Electronics Co Ltd 健康状態によるアバター映像の生成方法及び装置
JP2010183444A (ja) * 2009-02-06 2010-08-19 Fuji Xerox Co Ltd 情報処理装置及び音声補正プログラム
JP2010179034A (ja) * 2009-02-09 2010-08-19 Denso Corp 眠気検出装置,プログラムおよび眠気検出方法
JP2010531478A (ja) * 2007-04-26 2010-09-24 フォード グローバル テクノロジーズ、リミテッド ライアビリティ カンパニー 感情に訴える助言システム及び方法
JP2010540127A (ja) * 2007-10-03 2010-12-24 オタワ ヘルス リサーチ インスティチュート 1つ以上の臓器の経時的生理的パラメータ変動を監視するための方法および装置
JP2016131741A (ja) * 2015-01-20 2016-07-25 株式会社リコー 通信端末、面談システム、表示方法及びプログラム
JP2018084874A (ja) * 2016-11-21 2018-05-31 コニカミノルタ株式会社 会議システム、会議管理装置およびプログラム
JP2019198531A (ja) * 2018-05-17 2019-11-21 Cyberdyne株式会社 生体情報計測装置及び生体情報計測方法
US10788887B2 (en) 2017-12-05 2020-09-29 Fujitsu Limited Image generation program, image generation device, and image generation method
JP2021022909A (ja) * 2019-07-30 2021-02-18 株式会社リコー 情報処理装置、情報処理プログラム、情報処理システム、情報処理方法
WO2021210332A1 (ja) * 2020-04-14 2021-10-21 ソニーグループ株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP2022013123A (ja) * 2020-07-03 2022-01-18 株式会社シーエーシー コンピュータを介したコミュニケーションを実施するためのシステム、方法及びプログラム
JPWO2022137488A1 (ja) * 2020-12-25 2022-06-30

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6977463B2 (ja) 2017-10-06 2021-12-08 富士フイルムビジネスイノベーション株式会社 通信装置、通信システムおよびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04260291A (ja) * 1991-02-15 1992-09-16 Fujitsu Ltd 画像伝送方式
JPH09138767A (ja) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd 感情表現の通信装置
JP2002140697A (ja) * 2000-10-31 2002-05-17 Toshiba Corp コミュニケーション画像生成装置およびコミュニケーション装置およびコミュニケーション画像生成方法およびコミュニケーション情報処理方法およびプログラム
JP2003037826A (ja) * 2001-07-23 2003-02-07 Alpine Electronics Inc 代理画像表示装置およびテレビ電話装置
JP2004349851A (ja) * 2003-05-20 2004-12-09 Ntt Docomo Inc 携帯端末、画像通信プログラム、及び画像通信方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04260291A (ja) * 1991-02-15 1992-09-16 Fujitsu Ltd 画像伝送方式
JPH09138767A (ja) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd 感情表現の通信装置
JP2002140697A (ja) * 2000-10-31 2002-05-17 Toshiba Corp コミュニケーション画像生成装置およびコミュニケーション装置およびコミュニケーション画像生成方法およびコミュニケーション情報処理方法およびプログラム
JP2003037826A (ja) * 2001-07-23 2003-02-07 Alpine Electronics Inc 代理画像表示装置およびテレビ電話装置
JP2004349851A (ja) * 2003-05-20 2004-12-09 Ntt Docomo Inc 携帯端末、画像通信プログラム、及び画像通信方法

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008176816A (ja) * 2004-10-12 2008-07-31 Samsung Electronics Co Ltd 健康状態によるアバター映像の生成方法及び装置
US9101261B2 (en) 2004-10-12 2015-08-11 Samsung Electronics Co., Ltd. Method, medium, and apparatus generating health state based avatars
JP2010531478A (ja) * 2007-04-26 2010-09-24 フォード グローバル テクノロジーズ、リミテッド ライアビリティ カンパニー 感情に訴える助言システム及び方法
JP2010540127A (ja) * 2007-10-03 2010-12-24 オタワ ヘルス リサーチ インスティチュート 1つ以上の臓器の経時的生理的パラメータ変動を監視するための方法および装置
JP2010183444A (ja) * 2009-02-06 2010-08-19 Fuji Xerox Co Ltd 情報処理装置及び音声補正プログラム
JP2010179034A (ja) * 2009-02-09 2010-08-19 Denso Corp 眠気検出装置,プログラムおよび眠気検出方法
US8433095B2 (en) 2009-02-09 2013-04-30 Denso Corporation Drowsiness detector
JP2016131741A (ja) * 2015-01-20 2016-07-25 株式会社リコー 通信端末、面談システム、表示方法及びプログラム
JP2018084874A (ja) * 2016-11-21 2018-05-31 コニカミノルタ株式会社 会議システム、会議管理装置およびプログラム
US10788887B2 (en) 2017-12-05 2020-09-29 Fujitsu Limited Image generation program, image generation device, and image generation method
JP2019198531A (ja) * 2018-05-17 2019-11-21 Cyberdyne株式会社 生体情報計測装置及び生体情報計測方法
JP7132568B2 (ja) 2018-05-17 2022-09-07 Cyberdyne株式会社 生体情報計測装置及び生体情報計測方法
JP2021022909A (ja) * 2019-07-30 2021-02-18 株式会社リコー 情報処理装置、情報処理プログラム、情報処理システム、情報処理方法
JP7379907B2 (ja) 2019-07-30 2023-11-15 株式会社リコー 情報処理装置、情報処理プログラム、情報処理システム、情報処理方法
WO2021210332A1 (ja) * 2020-04-14 2021-10-21 ソニーグループ株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP2022013123A (ja) * 2020-07-03 2022-01-18 株式会社シーエーシー コンピュータを介したコミュニケーションを実施するためのシステム、方法及びプログラム
JPWO2022137488A1 (ja) * 2020-12-25 2022-06-30
WO2022137488A1 (ja) * 2020-12-25 2022-06-30 三菱電機株式会社 情報処理装置、表示制御システム、表示制御方法、及び表示制御プログラム
JP7427112B2 (ja) 2020-12-25 2024-02-02 三菱電機株式会社 情報処理装置、表示制御システム、表示制御方法、及び表示制御プログラム

Also Published As

Publication number Publication date
JP4604173B2 (ja) 2010-12-22

Similar Documents

Publication Publication Date Title
JP4604173B2 (ja) 遠隔会議・教育システム
US11688399B2 (en) Computerized intelligent assistant for conferences
US8243116B2 (en) Method and system for modifying non-verbal behavior for social appropriateness in video conferencing and other computer mediated communications
US9329677B2 (en) Social system and method used for bringing virtual social network into real life
US11341148B2 (en) Information processing system and information processing method to specify persons with good affinity toward each other
KR20220104769A (ko) 다수의 데이터 소스들을 사용한 스피치 전사
WO2004010414A1 (en) Method and apparatus for improving listener differentiation of talkers during a conference call
JP2002034936A (ja) 通信装置および通信方法
JP2023501728A (ja) 音声映像ストリームからのプライバシーに配慮した会議室でのトランスクリプション
EP3739573B1 (en) Information processing device, information processing method, and program
JP2016103081A (ja) 会話分析装置、会話分析システム、会話分析方法及び会話分析プログラム
US20160329050A1 (en) Meeting assistant
US20020197967A1 (en) Communication system with system components for ascertaining the authorship of a communication contribution
JP2011186521A (ja) 感情推定装置および感情推定方法
CN111989031B (zh) 远程医疗中症状的实时标注
JP7323098B2 (ja) 対話支援装置、対話支援システム、及び対話支援プログラム
JP2008242837A (ja) コミュニケーションの状況を管理する装置、方法およびプログラム
JP2019086858A (ja) 顧客応対システム及び顧客応対方法
JP6901190B1 (ja) 遠隔対話システム、遠隔対話方法及び遠隔対話プログラム
US10244013B2 (en) Managing drop-ins on focal points of activities
Otsuka Multimodal conversation scene analysis for understanding people’s communicative behaviors in face-to-face meetings
JP2004248125A (ja) 映像切り替え装置、映像切り替え方法、この方法のプログラムおよびこのプログラムを記録した記録媒体
JP6977463B2 (ja) 通信装置、通信システムおよびプログラム
JP2018063352A (ja) フレーム選択装置、フレーム選択方法及びプログラム
CN109559760A (zh) 一种基于语音信息的情感分析方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100907

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100907

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131015

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees