JP2000184345A - マルチモーダルコミュニケーション支援装置 - Google Patents

マルチモーダルコミュニケーション支援装置

Info

Publication number
JP2000184345A
JP2000184345A JP35520698A JP35520698A JP2000184345A JP 2000184345 A JP2000184345 A JP 2000184345A JP 35520698 A JP35520698 A JP 35520698A JP 35520698 A JP35520698 A JP 35520698A JP 2000184345 A JP2000184345 A JP 2000184345A
Authority
JP
Japan
Prior art keywords
user
information
video
analysis
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP35520698A
Other languages
English (en)
Inventor
Atsushi Chazono
篤 茶園
Kazuo Kunieda
和雄 國枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP35520698A priority Critical patent/JP2000184345A/ja
Publication of JP2000184345A publication Critical patent/JP2000184345A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

(57)【要約】 【課題】 分散型コミュニケーション環境において、参
加ユーザの共有情報に対し、注目する相手及び対象の注
目情報を共有情報に反映させて出力する。 【解決手段】 各通信端末1-1〜1-nの音声入力部11、映
像入力部12から入力されたユーザの音声情報、映像情報
から、ユーザの発言単語、視線方向等を検出した解析結
果が通信回線4を介して対話管理部3へ入力される。対
話管理部3は、各通信端末1-1〜1-nからの解析結果か
ら、各ユーザの話題、ユーザの視線等の対話状態を解析
し各通信端末1-1〜1-nへ入力する。注目情報解析伝達部
23は、対話管理部3からの解析結果と、現時点でのユー
ザの音声及び映像に関する解析結果から、各ユーザの注
目情報を検出し、出力制御信号を生成し注目情報伝達音
声生成部24及び注目情報伝達映像生成部25へ出力する。
このようにして、共有情報に対してユーザの注目情報を
反映したフィードバックを実現する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、コミュニケーショ
ン支援装置に関し、特にテレビ会議装置等の分散環境で
の参加ユーザ間のコミュニケーション支援に用いられる
コミュニケーション支援装置で、同時に且つ同一の情報
を、もしくは同一の情報に音声、映像などの加工を施し
た情報を出力することができる複数の端末の出力装置、
あるいは複数の端末で共有する少なくとも1台の出力装
置を有するコミュニケーション支援システムにおいて、
複数ユーザの注目情報を反映させた出力制御によるコミ
ュニケーション支援装置に関する。
【0002】
【従来の技術】従来、テレビ会議装置などに用いられる
コミュニケーション支援装置として、共通の表示画面を
複数の端末の表示装置に表示し、共通情報の表示(共有
情報表示)を妨げることなく、共有情報表示の指示手段
としてアイコンを設け、各ユーザのアイコン指示をユー
ザの注目状態として表示させるコミュニケーション支援
装置がある。広く一般に知られているコミュニケーショ
ン支援装置は、図13に示すように、通信回線4を介し
て複数の端末1−1〜1−nが接続され、例えば、対話
の対象となるドキュメントを共有情報として、各端末1
−1〜1−nの表示装置の表示画面上に表示させるとと
もに、全ての参加ユーザが各表示画面上の指示手段であ
る指示アイコンを用いて、共有情報に対する操作、指示
及び変更等の処理を行い、全ての表示画面上に、全ての
ユーザの指示アイコンをユーザの注目情報として表示し
ている。
【0003】このようなコミュニケーション支援装置を
改良した形態として、例えば、特開平9−231154
号公報が開示されている。この公報のコミュニケーショ
ン支援装置は、図14に示すように、通信回線4を介し
て、前述の従来技術と同様に、各端末1−1〜1−nの
全ての表示画面上にユーザの指示アイコンを表示する。
しかし、全てのユーザの指示アイコンを表示するのでは
なく、表示制御部5において、マイク等の音声入力装置
から検出される音声信号の音圧(音声レベル)によりユー
ザの能動度を検出する。そして、音声レベルが大きい場
合に能動度が高いと判断し、この能動度の高さに応じて
必要最小限のユーザの指示アイコンを選択し、これら選
択されたユーザの指示アイコンを注目情報として、共有
情報表示を妨げることなく表示するものである。
【0004】
【発明が解決しようとする課題】しかしながら、共有情
報を表示している表示画面上の指示手段として用意され
ている指示アイコンを表示するだけでは,例えば、指示
アイコンの動作が止まっている場合に、ユーザが指示ア
イコンで指し示されている表示画面上の位置に注目して
いるのか、若しくは話を聞いている際に手を休めている
ことで指示アイコンの動作が止まっているのかなどの、
ユーザが何に注目しているのかという状態を正確に把握
することができないという問題点がある。
【0005】また、共有情報への指示手段であるユーザ
の指示アイコンの表示は、全てのユーザに対して同一の
表示しか提供していない。このため、例えば、各ユーザ
が何を見たいのか、何を知りたいのかといった観点に応
じて、各ユーザ毎に共有情報への指示アイコンの表示の
方式を変更するなどして、各ユーザが必要としている情
報を中心に表示することができない。これにより、各ユ
ーザにとって不必要な情報が多く含まれた状態になって
しまい、必要としている情報の把握が容易ではないとい
う問題を生じる。
【0006】さらに、マイク等の音声入力装置により入
力されるユーザの音声の大きさをユーザの能動度として
検出し、能動度が高いと判断されたユーザの指示アイコ
ンを優先的に表示するという制御を行うことは、例え
ば、特定のユーザの指示アイコンの位置を知りたい場合
に、その特定のユーザの能動度が高いことが前提となっ
ている。このため、特定のユーザの注目情報を知りたい
にも関わらず、ユーザが注目情報を知りたいと思った時
点で、その特定のユーザの能動度が高いことを期待する
か、その都度どこに注目しているのかを問い合わせする
ような状況になり、ユーザが本当に知りたい注目情報を
常に把握できるとは限らないという問題もある。
【0007】さらに、相手ユーザの注目情報として表示
されている前述の指示アイコンの表示は、共有情報を表
示している画面に対して重畳表示されているだけであ
り、例えば、特定の指示アイコンが指し示している対象
に対して、話の流れに沿って再度その対象を指示するこ
となしに再利用することにより操作することができな
い。このため、ユーザは、再度その対象へ指示アイコン
を移動させ操作する必要が生じてしまい、ユーザにとっ
ては操作負担となり、円滑なコミュニケーションを図る
ことができないという問題も生じる。
【0008】本発明は、このような事情に鑑みてなされ
たものであり、その目的は、検出手段を工夫してユーザ
の注目情報を正確に把握し、且つ情報を正確に解析した
り再利用することにより、円滑なコミニュケーションを
実現することにある。
【0009】
【課題を解決するための手段】すなわち、本発明のコミ
ニュケーション支援装置は、ユーザの注目情報を正確に
把握できないという問題点に対しては、マイクなどの音
声入力装置から入力される音声情報から発言単語などを
検出し、且つカメラなどの映像入力装置から入力される
映像情報からユーザの視線などを検出することによっ
て、ユーザが共有情報のどの部分に、誰に、どのような
話題に注目しているのかなどを検出する。そして、これ
らの検出結果を共有情報に反映させることにより、注目
情報を正確に把握することができるようにする。
【0010】また、各ユーザにとって不必要な注目情報
が多く含まれて表示されることにより、ユーザにとって
必要な注目情報の把握が困難になるという問題点に対し
ては、ユーザの音声、映像から検出されるユーザ固有の
注目情報に応じて、共有情報へのフィードバックを生成
することによって、各ユーザが必要としている情報を中
心に出力することが出来るようにする。さらに、ユーザ
が本当に知りたい注目情報を常に把握できるとは限らな
いという問題点に対しては、ユーザの映像からユーザの
視線方向を検出するなどして、例えば、特定のユーザが
何に注目しているのかを知りたい場合には、ユーザは通
常の対話と同様にその相手ユーザへ視線を向けるなどを
することによって、特別な操作負担を生じることなし
に、相手ユーザの注目情報を把握することが出来るよう
にする。
【0011】さらに、相手ユーザの注目情報を再利用す
ることが出来ないという問題点に対しては、各ユーザの
発言内容や視線位置及び対象の指示などの情報を統合的
に解析することにより、どのユーザ間で対話が成立して
いるのかなどの状態を把握し、例えば、相手ユーザが共
有情報の表示画面上の対象を指示した場合に、ユーザは
再度指定することなく、「これは大きすぎるんじゃない
ですか」等の発言によって、ユーザがその対象を指示し
たり、その注目しているという情報を相手ユーザにフィ
ードバックすることが出来るようにする。
【0012】すなわち、請求項1に係るマルチモーダル
コミュニケーション支援装置は、複数の端末の出力装
置、あるいは複数の端末が共有する1以上の出力装置
に、同時に且つ同一の共有情報を出力可能であるととも
に、ユーザの注目情報を共有情報に反映させ出力するこ
とが可能なコミュニケーション支援装置において、注目
情報を検出するために、ユーザの音声を入力し音声信号
として出力するマイクなどの音声入力部と、ユーザの映
像を撮影し映像信号として出力するカメラなどの映像入
力部と、音声信号からユーザの発言している単語などを
識別し音声解析信号を出力する音声解析部と、映像信号
からユーザの視線などを検出し映像解析信号を出力する
映像解析部と、コミュニケーション支援装置を利用して
いる全てのユーザの音声解析信号および映像解析信号か
ら、各ユーザが他のどのユーザから視線を向けられた
り、話しかけられたりしているのかなどを解析し、対話
解析信号として出力する対話管理部と、音声解析信号、
映像解析信号および対話解析信号から各ユーザが誰の話
を聞いているのかなどの注目情報を検出し、この注目情
報に応じて音声出力制御信号および映像表示制御信号を
生成し出力する手段を有する注目情報解析伝達部と、音
声出力制御信号の内容に応じて、音声信号の音声レベ
ル、合成音声の生成などを制御し、音声信号として出力
する出力音声生成部と、映像表示制御信号の内容に応じ
て、映像データを読み出すなどの処理を制御し、映像信
号として出力する映像生成部とを備えていることを特徴
とする。
【0013】請求項2に係るマルチモーダルコミュニケ
ーション支援装置は、請求項1記載の支援装置におい
て、対話管理部が、複数ユーザごとに出力される音声解
析信号から、特定の単語に関する話題に参加しているユ
ーザが誰かなどを解析し、これを音声解析結果管理信号
として出力する音声解析結果管理部と、同じく複数ユー
ザごとに出力される映像解析信号からユーザが誰を見て
いるのか、また、誰から見られているのかなどを解析し
映像解析結果管理信号として出力する映像解析結果管理
部と、音声解析結果管理信号および映像解析結果管理信
号から統合的にユーザの対話状態を解析し対話解析信号
として出力する対話解析部とを備えていることを特徴と
する。
【0014】請求項3に係るマルチモーダルコミュニケ
ーション支援装置は、請求項1または請求項2記載の支
援装置において、注目情報伝達音声生成部が、注目情報
解析伝達部から出力される音声出力制御信号の内容に応
じて、コミュニケーション支援のための合成音声を生成
し出力する音声信号の音声レベルを調整するなどの制御
し、音声信号として出力する音声出力制御部と、合成音
声を生成し音声信号として出力する合成音声生成部と、
合成音声に多様な効果を施す場合に有用となる人物の音
声データ、各種の効果音データ等を蓄積する音声データ
蓄積部とを備えていることを特徴とする。
【0015】請求項4に係るマルチモーダルコミュニケ
ーション支援装置は、請求項1〜請求項3の何れか1項
記載の支援装置において、注目情報伝達映像生成部が、
注目領域の強調表示、関連情報の重畳表示などの各種の
映像効果を施すための画像データを蓄積する映像データ
蓄積部と、画像データを合成したり映像の特定箇所を拡
大したりするなどの処理を施し、映像信号として出力す
る映像合成部と、注目情報解析伝達部からの映像解析信
号の内容に応じて、映像データ蓄積部および映像合成部
とを制御する映像表示制御部とを備えていることを特徴
とする。
【0016】
【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して詳細に説明する。図1は、本発明の第
1の実施の形態であるマルチモーダルコミュニケーショ
ン支援装置の構成を示す図である。図1において、マル
チモーダルコミュニケーション支援装置は、ユーザの音
声や映像などの入力、複数ユーザ間の注目情報を反映し
た共有情報の出力を実現する通信端末1−1〜1−n
と、各ユーザの対話状態を管理する対話管理部3とが通
信回線4を介して接続されている。
【0017】ここで、注目情報とは、あるユーザ自身と
他のユーザの音声や映像などの状態や変化から、例え
ば、誰を見ているのか、共有情報中の何を見ているの
か、何を操作しているのか、または何を話しているのか
などを抽出した情報を統合することによって検出される
情報である。また、共有情報とは、複数のユーザによっ
て共有され、複数の出力装置に同時に出力可能な同一の
情報である。ただし、各通信端末1−1〜1−nへは、
共有情報に一切の加工をせずに出力する場合だけではな
く、注目情報を反映して共有情報を加工した上で出力す
る場合もあり得る。
【0018】通信端末1−1〜1−nは、音声入力部1
1、映像入力部12、音声出力部13、映像表示部1
4、通信制御部15および注目情報反映出力生成部2を
有する。音声入力部11は、マイクなどの音声入力装置
からユーザの音声情報を取り込み、音声信号101とし
て、注目情報反映出力生成部2内の音声解析部21、お
よび音声信号101と同一の音声信号102を通信制御
部15へ出力する。音声解析部21は、音声信号101
の振幅、周波数などの状態や変化などを利用することに
より、例えば、発言単語、発言時間、音声の音圧(音量)
である音声レベルなどを検出する機能を有している。特
定の発言単語を検出する方式としては、例えば、連続動
的計画法を利用した不特定話者の連続発話認識方法を用
いる。
【0019】また、音声レベルを算出する方式として
は、例えば、音声信号の振幅や周波数の変化を検出する
方法を用いる。音声解析部21は、検出した発言単語
を、例えば、特定の識別番号に変換したものを音声解析
信号として記述し、音声解析信号103として注目情報
解析伝達部23内の注目情報解析部231へ、および音
声解析信号103と同一の音声解析信号104として通
信制御部15へ出力する。これにより、あるユーザがど
のような話題に関する話をしているのかを特定でき、注
目情報の1つである発言単語に関連する情報を付加する
などした共有情報を他のユーザに出力することが可能と
なる。
【0020】一方、映像入力部12は、音声入力と同時
にCCDカメラなどの映像入力装置からユーザの映像情
報を取り込み、映像信号105として注目情報反映出力
生成部2内の映像解析部22へ出力し、さらに映像信号
105と同一の映像信号106として通信制御部15へ
出力する。
【0021】映像解析部22は,映像信号105の濃淡
や色彩の差とその変化などを利用することにより、例え
ば、ユーザの動作、視線、姿勢、位置、表情などを検出
する機能を有する。顔の位置や手の位置などを特定する
方式としては、例えば、画像から人物の肌色の領域を抽
出することで頭や手等の位置を検出する方法を用いる。
また、顔領域から眼、鼻、口などの顔の各部位を特定す
る方式としては、例えば、顔であると特定した肌色の領
域から、濃淡や色の差や変化、および眼、鼻、口などの
人物の顔の構造をモデルとして利用することにより部位
を特定する方法を用いる。さらに、ユーザの顔の向きを
特定する方式としては、例えば、顔の各部位の位置関係
を利用することにより特定する方法を用いる。さらに、
ユーザの視線方向を特定する方式としては、例えば、眼
であると特定された領域の中から画像の色彩や濃淡の差
や変化などから瞳孔の位置を特定する方法を用いる。
【0022】また、映像解析部22は、検出した視線方
向の変化を、例えば、ユーザが見ている画面上の座標値
に変換したものを映像解析信号として記述する。そし
て、映像解析信号107として注目情報解析伝達部23
内の注目情報解析部231へ出力し、さらに映像解析信
号107と同一の映像解析信号108として通信制御部
15へ出力する。これにより、あるユーザが共有情報の
何を見ているのかを特定でき、注目情報の1つである視
線方向を反映した共有情報を他のユーザに出力すること
が可能となる。
【0023】ここで,図1に示すマルチモーダルコミュ
ニケーション支援装置の各通信端末1−1〜1−nと対
話管理部3との間、および各通信端末1−1〜1−n間
の通信は、通信回線4を介してメッセージを利用し通信
している。そこで、通信される情報の伝送に用いられる
メッセージのフォーマットについて説明する。
【0024】図2は、伝送メッセージのフォーマットの
一例を示している。伝送メッセージは、伝送される情報
が音声情報なのか、映像情報なのか、音声解析情報なの
か、映像解析情報なのかあるいは対話解析情報なのかを
識別するための情報種別識別番号と、伝送される情報を
生成したユーザ(通信端末)を識別するため、もしくはど
のユーザに関する情報であるのかを識別するためのユー
ザ識別番号と、対話解析信号のように関連するユーザの
情報が必要な場合の任意の数の関連ユーザ識別番号と、
情報内容とによって構成されている。尚、伝送メッセー
ジは、固定長もしくは可変長のメッセージである。ま
た、伝送メッセージ内での、情報種別識別番号、ユーザ
識別番号、関連ユーザ識別番号、および情報内容の配置
は、図2の形には限定されることはなく、時間情報など
の他の情報が伝送メッセージ内に含まれる構成にしても
よい。
【0025】次に、図3は通信制御部15の詳細な構成
を示す図である。図1で示した各通信端末1−1〜1−
nの通信制御部15は、通信回線4を介して、伝送メッ
セージを各通信端末1−1〜1−nおよび対話管理部3
との間で送受信する機能を有する。図3において、通信
制御部15は、音声信号102、音声解析信号104、
映像信号106および映像解析信号108を伝送メッセ
ージに変換し送信メッセージ201としてメッセージ送
受信部152へ出力するメッセージ変換部151と、送
信メッセージ201を通信回線4を介して各通信端末1
−1〜1−n、および対話管理部3へ送信する機能を有
する。また、通信回線4を介して伝送されるメッセージ
を受信メッセージ202としてメッセージ分配出力部1
53へと出力する機能を有するメッセージ送受信部15
2と、受信メッセージ202を情報種別に応じて分配し
各信号へ変換し、音声信号109として注目情報反映出
力生成部2内の注目情報伝達音声生成部24へ出力し、
映像信号110として注目情報伝達映像生成部25へ出
力し、対話解析信号111として注目情報解析伝達部2
3内の注目情報解析部231へ出力する機能を有するメ
ッセージ分配出力部153とによって構成されている。
【0026】次に、図4は対話管理部3の詳細な構成を
示す図である。図4において、対話管理部3は,通信制
御部31、音声解析結果管理部32、映像解析結果管理
部33および対話解析部34とにより構成されている。
対話管理部3内の通信制御部31は、通信端末1−1〜
1−n内の通信制御部15と同様の構成及び機能を有し
ており、通信回線4を介して各通信端末1−1〜1−n
からメッセージとして、音声解析信号および映像解析信
号を受信し,受信したメッセージを分配し、音声解析信
号301として音声解析結果管理部32へ出力し、およ
び映像解析信号302として映像解析結果管理部33へ
出力する。また、対話解析部34からの対話解析信号3
03を通信回線4を介して、各通信端末1−1〜1−n
へメッセージとして送信する機能を有している。
【0027】音声解析結果管理部32は、各ユーザの音
声解析結果から、各ユーザが何の話題に関して話してい
るのか、誰と話しているのかなど分類管理する機能を有
している。例えば、音声解析信号301から、発言単語
別に分類し時間順に並べ替えて管理する。また、発言時
間に一定の時間枠を設けることで、一定時間内にどのユ
ーザが発言に参加しているのかを特定する。音声解析結
果管理部32は、発言単語別に分類管理した音声解析結
果を、例えば、単語の識別番号と参加ユーザの識別番号
とを音声解析結果管理信号304として記述し、対話解
析部34へ出力する。これにより、ある話題に参加して
いるユーザを特定することが可能である。
【0028】映像解析結果管理部33は、各ユーザの映
像解析結果から、各ユーザが何を見ているのか、誰を見
ているのか、何を操作しているのかなどを分類管理する
機能を有している。例えば、映像解析信号302から、
各ユーザの視線情報を相互に利用することで、あるユー
ザが他のどのユーザから視線を向けられているのかを管
理する。さらに、映像解析結果管理部33は、各ユーザ
がどのユーザから視線を向けられているのかを、例え
ば、ユーザの識別番号と、そのユーザに視線を向けてい
るユーザの識別番号とを、映像解析結果管理信号305
として記述し、対話解析部34へ出力する。これによ
り、各ユーザが他のどのユーザから注目されているの
か、視線を向けられているのかを把握することができ
る。
【0029】対話解析部34は、音声解析結果管理部3
2からの音声解析結果管理信号304、および映像解析
結果管理部33からの映像解析結果管理信号305か
ら、参加ユーザ間の対話状態を解析する機能を有する。
ここで対話状態とは、あるユーザと同じ話題に関して話
しているのは他のどのユーザであるのか、また、その同
一の話題に関して話している中で誰に視線を向けて話を
聞いているのか、もしくは話をしているのかなどの、ユ
ーザがどのような対話をしているのかという状態のこと
である。
【0030】対話状態は相手側からの視点に重点を置い
た注目情報という意味合いも有している。例えば、特開
平9−231154による従来技術では、発言内容が似
通っており、指示アイコンが近い場所に表示されている
場合には、実際には単に発言内容が似通っているだけで
違う人に注目していたり、違う場所を注目していたりす
る場合にも、対話が成立していると判断されがちにな
り、コミュニケーションを図る上で障害になる場合があ
る。
【0031】しかし、本発明の方式では、例えば、音声
解析結果管理信号304から、話題別の参加ユーザの情
報を、映像解析結果管理信号305から、ユーザ間で互
いに視線が合っており対面状態にあるユーザの情報を、
統合的に利用する。これによって、発言単語などから推
測される話題としては似通っており、ユーザ間で対話が
成立していると判断されがちな場合でも、対面状態にあ
るか否かによって実際の対話が成立しているか否かを判
断することが可能となる。よって、ユーザ間でコミュニ
ケーションを図る上で重要となる互いの対話状態の把握
を実現することができる。例えば、対話成立状態にある
ユーザの識別番号、ユーザの視線方向の数値情報、およ
びユーザの発言単語の識別番号を、対話解析信号303
として記述する。そして、この信号を通信制御部31へ
出力し、通信回線4を介して、各通信端末1−1〜1−
nへメッセージとして出力する。これにより、各ユーザ
の対話状態が把握でき、話題が似通ってはいても、実際
には同一のグループでの対話であるのか、異なるグルー
プでの対話であるのかを検出することが可能となり、円
滑なコミュニケーションを実現することができる。
【0032】次に、図5は注目情報反映出力生成部2内
の注目情報解析伝達部23の詳細な構成を示す図であ
る。注目情報解析伝達部23は、注目情報解析部231
と出力制御決定部232とから構成されている。注目情
報解析部231は、通信制御部15からの対話解析信号
111、音声解析部21からの音声解析信号103、お
よび映像解析部22からの映像解析信号107とから、
ユーザ自身、および他のユーザの注目情報を検出し、例
えば、どのような発言単語に注目しているのか、共有情
報の表示画面上のどの位置に注目しているのかなどを記
述した注目情報解析信号201を出力決定制御部232
へ出力する。
【0033】出力決定制御部232は、注目情報解析信
号201から注目情報を反映した音声によるフィードバ
ックを実現するための音声出力制御信号112を、注目
情報伝達音声生成部24内の音声出力制御部241へ出
力し、さらに、映像によるフィードバックを実現するた
めの映像表示制御命令信号113を、注目情報伝達映像
生成部25内の映像表示制御部251へ出力する。例え
ば、対話解析信号111から、ユーザがどのような話題
に関して話をしているのか、他のどのユーザから注目さ
れているのかなどを解析することが出来る。また、対話
解析信号111から検出される対話状態だけではなく、
現時点のユーザに関する音声解析信号103、および映
像解析信号107から、現在、ユーザが何を話している
のか、何を操作しているのか、誰を見ているのかなどを
特定することもできる。これにより、ユーザが現時点で
は注目していない場合でも、他のどのユーザから注目さ
れているのかなどを特定することも可能となる。
【0034】注目情報解析伝達部23は、注目情報解析
部231により検出される出力を制御するための情報で
ある注目情報解析信号201を、出力制御決定部232
において、例えば、発言単語の内容、合成音声を生成す
るか否か、生成する合成音声の内容、および音声レベル
などを音声出力制御信号112として記述する。そし
て、音声出力制御信号112を注目情報伝達音声生成部
24内の音声出力制御部241へ出力する。また、注目
している領域の位置情報やユーザを見ている他のユーザ
の識別番号、位置情報、注目情報伝達映像生成部25内
の映像蓄積部252から読み出す映像データの指定、お
よび拡大、縮小、変形などの映像効果を施すか否かなど
を映像表示制御信号113として記述し、この映像表示
制御信号113を注目情報伝達映像生成部25内の映像
表示制御部251へ出力する。これにより、ユーザが現
時点で注目している特定のユーザや対象に関する情報を
検出することが可能となり、ユーザの注目度合いに応じ
た音声、および映像によるフィードバックを利用したコ
ミュニケーション支援が実現可能となる。
【0035】次に、図6は注目情報伝達音声生成部24
の詳細な構成を示す図である。図6において、注目情報
伝達音声生成部24は、音声出力制御部241と、人工
の合成音声を生成する合成音声生成部242と、人物の
音声データ、各種の効果音データなどを蓄積管理してい
る音声データ蓄積部243とから構成されている。音声
出力制御部241は、注目情報解析伝達部23からの音
声出力制御信号112に応じて、通信制御部15からの
音声信号109の音声レベルを調整する。そして、音声
レベルを調整された音声信号109は、音声データ蓄積
部243に蓄積されている人物の音声データや各種の効
果音データなどを利用して、コミュニケーション支援の
ための合成音声を生成する合成音声生成部242によっ
て制御され、音声信号114として音声出力部13へ出
力される。
【0036】例えば、注目情報解析伝達部23で、ユー
ザAがユーザBと視線を合わせて対話しており、その一
方で、ユーザCがユーザAの方向を一定時間以上見てい
ると判断された場合には、ユーザCがずっと視線を向け
ているという情報を、合成音声としてユーザAへ出力す
る。また、注意喚起のために効果音を出力することも可
能である。これにより、あまりユーザが注目していなか
った他のユーザからのコミュニケーションの働きかけに
気づくことが可能となる。また、ユーザCからの注目情
報を音声ではなく、映像を利用してフィードバックする
ことも可能であるし、音声、および映像の両方を利用し
てフィードバックすることも可能である。
【0037】図7は注目情報伝達映像生成部25の詳細
な構成を示す図である。図7において、注目情報伝達映
像生成部25は、映像表示制御部251と、映像データ
を蓄積管理している映像データ蓄積部252と、映像合
成部253とによって構成されている。注目情報伝達映
像生成部25は、注目情報解析伝達部23からの映像表
示制御信号113に応じて、映像データ蓄積部252か
ら画像データを読み出し、映像信号として映像合成部2
53へ出力する。映像データ蓄積部252は、例えば、
相手ユーザの注目領域を強調表示するための指示矢印、
動作情報を持ったキャラクタなどの各種の画像データを
蓄積管理している。映像合成部253は、映像表示制御
部251からの制御信号に応じて、通信制御部15から
の映像信号110に、映像蓄積部252から読み出した
画像データを重畳表示する機能や、映像信号110を拡
大、縮小、および変形するなどの機能を有する。
【0038】映像合成部253は、映像表示制御部25
1からの制御信号に応じて、これらの機能を利用するこ
とにより合成映像を生成し、映像信号115として映像
表示部14へ出力する。例えば、注目している他のユー
ザが共有空間中のある対象を指示した場合に、どの対象
が指示されたのかを容易に理解できるように、対象に指
示矢印を重畳表示したり対象を枠で囲み点滅させるなど
の映像フィードバックを実現する。これにより、ユーザ
は相手が何を見ているのか、何に関して話しているのか
などを即座に把握することができ、ユーザ間での円滑な
コミュニケーションを実現することが可能となる。
【0039】図8は、本発明のマルチモーダルコミュニ
ケーション支援システムにおける画面例を示す図面であ
る。この図は、ユーザ301が共有情報の表示画面上の
ユーザ205の方向へ視線を向けており、ユーザ205
の発言内容に注意を払っている場合の画面例である。こ
の場合、ユーザ301が視線401を向けている先にい
る、ユーザ205の視線402の先にある対象への強調
枠201、その対象強調枠201に関しての補足情報2
02、ユーザ205自身の名前や所属などの補足情報2
03、およびユーザ205との対話における発言内容2
04などが共有情報に対してフィードバックされる。も
ちろん、音声を利用することによって、さらに、フィー
ドバック効果を高めることも可能である。
【0040】また、ユーザ301自身はユーザ206に
視線を向けてはいないが、例えば、ユーザ206がある
一定時間以上の間ユーザ301に視線403を向けてい
るようであれば、ユーザ206がユーザ301に対して
注目していると考えることができ、ユーザ206に関す
る補足情報207やユーザ206がユーザ301に視線
403を向けていることに対して、ユーザ301に注意
を促す音声208などがフィードバックされる。これに
より、ユーザ301は自身の注目情報に対するフィード
バック、さらに、自身に対しての注目情報のフィードバ
ックを適切に得ることが可能であり、ユーザ間で円滑な
コミュニケーションを図ることができる。また、ここで
視線方向401〜403は説明のために示したものであ
り、実際には表示されてはいない。しかし、視線方向4
01〜403を共有情報に対して反映させて出力するこ
とも可能である。
【0041】また,前述の注目情報に応じて出力された
共有情報への音声、特に、映像によるフィードバック
は、各ユーザによって2次利用することが可能である。
例えば、相手のユーザが話題にしている共有情報中の対
象に枠が重畳表示され点滅する等して強調表示されてい
る場合に、各ユーザは強調表示されている対象を再度指
示することなく、例えば、「このデザインはなかなかい
いですねぇ」などの発言から、同一の対象に注目してい
るという情報を相手の通信端末上の共有情報に反映させ
て出力することなどが可能となる。
【0042】ところで、上述した第1の実施の形態にお
いて、ユーザの注目情報を検出するために、マイクなど
の音声入力装置から入力される音声情報およびカメラな
どの映像入力装置から入力される映像情報を利用してい
るが、ユーザの注目情報を検出するために利用する情報
は、音声情報、映像情報に限られるものではない。例え
ば、共有情報の中のメニュー等の選択手段として、マウ
ス等のポインティングデバイスから入力されるメニュー
選択情報を、ユーザの注目情報の検出のための情報とし
て利用してもよい。
【0043】次に、本発明のマルチモーダルコミュニケ
ーション支援装置の第2の実施形態について説明する。
図9は、本発明の第2の実施の形態のマルチモーダルコ
ミュニケーション支援装置の構成を示す図である。第2
の実施の形態では、図1に示すマルチモーダルコミュニ
ケーション支援装置の対話管理部3を、各通信端末1−
1〜1−n内に設けている。すなわち、図9において、
対話管理部53を各通信端末1−1〜1−n内に設けて
いる。対話管理部53の機能及び構成は図1に示す対話
管理部3とほぼ同様であるが、図1に示す対話管理部3
内の通信制御部31に相当する機能を、図9に示す対話
管理部53内にではなく、各通信端末1−1〜1−n内
の通信制御部15により実現している。
【0044】図10は、図9に示す各通信端末1−1〜
1−n内の対話管理部53の詳細を示す図である。対話
管理部53は、音声解析結果管理部531と、映像解析
結果管理部532と、対話解析部533とによって構成
されている。前記音声解析結果管理部531、前記映像
解析結果管理部532の機能は、図1及び図4に示す対
話管理部3内の音声解析結果管理部32及び映像解析結
果管理部33と同様である。前記対話解析部533に関
しても、図1及び図4に示す対話管理部3内の対話解析
部34とほぼ同様であるが、対話解析信号205を各通
信端末1−1〜1−n内の注目情報解析伝達部54へ出
力する部分が異なる。
【0045】従って、各通信端末1−1〜1−nにおけ
る音声解析信号201、映像解析信号202は、通信制
御部15から通信回線4を介して、各通信端末1−1〜
1−nへと伝送される。そして、各通信端末1−1〜1
−n内の通信制御部15は、受信した音声解析信号20
3を対話管理部53内の音声解析結果管理部531へ出
力し、受信した映像解析信号204を対話管理部53内
の映像解析結果管理部532へと出力する。前記音声解
析結果管理部531は、各通信端末1−1〜1−nから
の音声解析結果信号203から発言単語別の参加ユーザ
などを解析し、音声解析結果管理信号301として対話
解析部533へと出力する。
【0046】また、前記映像解析結果管理部532は、
各通信端末1−1〜1−nからの映像解析結果信号20
4から視線が合っており対面状態にあるユーザなどを解
析し、映像解析結果管理信号302として対話解析部2
13へ出力する。対話解析部533は、前記音声解析結
果管理信号301と前記映像解析結果管理信号302か
ら、ユーザがどのような話題に関して話をしており、他
のどのユーザから視線を向けられているのかなどのユー
ザの対話状態を解析し、対話解析信号205として注目
情報解析伝達部54へと出力する。
【0047】このように、各通信端末1−1〜1−n内
に対話管理部53を設けることにより、図1に示す対話
管理部3が通信回線4を介して、各通信端末1−1〜1
−nから音声解析信号、映像解析信号を受け取り、前記
音声解析信号および前記映像解析信号から対話状態を解
析し、再び通信回線4を介して各通信端末1−1〜1−
nへ対話解析信号として出力する場合よりも、通信遅延
の影響が減少することによる応答性能の向上を実現させ
ることが可能となる。
【0048】次に、本発明のマルチモーダルコミュニケ
ーション支援装置の第3の実施形態について説明する。
図11は、本発明の第3の実施の形態であるマルチモー
ダルコミュニケーション支援装置の構成を示す図であ
る。図1に示すマルチモーダルコミュニケーション支援
装置においては、注目情報解析伝達部23から出力され
る音声出力制御信号112および映像表示制御信号11
3に応じて、注目情報伝達音声生成部24および注目情
報伝達映像生成部25により、音声出力および映像表示
の制御を実現することを可能としている。しかし、図1
に示す第1の実施形態では,これらの出力間での厳密な
同期制御は行っていない。ところが、図11に示す第3
の実施の形態では、図1に示すマルチモーダルコミュニ
ケーション支援システムの注目情報反映出力生成部2内
に、さらに、音声出力および映像表示の同期制御を実現
する機能を有する出力同期制御部64を付加した構成と
なっており、より効果的なフィードバックを実現するこ
とを可能とする。
【0049】図11に示す注目情報解析伝達部63は、
図1に示す注目情報解析伝達部23と同様の機能及び構
成を有しているが、例えば、音声出力もしくは映像表示
に関する情報種別識別番号、各制御信号を区別するため
の制御信号識別番号、制御内容、同期制御を行うか否か
に関する状態識別番号、および同期制御を行う場合の制
御信号識別番号などを記述した注目情報解析信号201
として出力同期制御部64へと出力する機能を有してい
る点が異なる。
【0050】出力同期制御部64は、注目情報解析伝達
部63から出力される注目情報解析信号201に応じ
て、同期制御を行う必要があるか否か、同期制御を行う
場合にどの制御信号との間で同期制御を実現するのかな
どを管理し制御する機能と、音声出力制御信号202と
して注目情報伝達音声生成部65へ出力し、映像表示制
御信号203として注目情報伝達映像生成部66へ出力
する機能とを有している。これにより、例えば、擬人化
キャラクタなどの映像表示と音声出力とを正確に同期さ
せることが可能となり、より効果的なフィードバックを
実現することにより円滑なコミュニケーションを実現す
ることを可能とする。
【0051】次に、本発明の第4の実施形態について説
明する。図12は、本発明の第4の実施の形態であるマ
ルチモーダルコミュニケーション支援装置の構成を示す
図である。第4の実施の形態では、図1に示すマルチモ
ーダルコミュニケーション支援装置と同様の機能及び構
成を有しているが、第1の実施の形態の構成に対して、
さらに、対話管理部3から出力される対話解析信号を蓄
積管理する機能を有する対話履歴蓄積部5を有している
点が異なる。
【0052】対話履歴蓄積部5は、対話管理部3におい
て出力される対話解析信号を蓄積管理する機能を有して
おり、例えば、蓄積している対話解析信号をユーザ別に
管理したり、時間により並べ替えて管理することなどに
より、ユーザ指定や時間指定などにより任意の対話解析
信号を逐次読み出すことが可能となる。これにより、対
話状態の遷移を把握することができ、現在の対話状態だ
けではなく、過去の対話状態を参照した上で注目情報を
解析することが可能となり、より対話の流れに沿った注
目情報のフィードバックを実現することで、さらに円滑
なコミュニケーションを図ることができる。また、図1
に示すマルチモーダルコミュニケーション支援装置の、
音声解析部21、映像解析部22、注目情報解析伝達部
23に関して、各解析信号の履歴を蓄積管理する部分を
付加する形態もあり得る。
【0053】ところで、上述した第2、第3、および第
4の実施の形態においても、第1の実施の形態の場合と
同様に、ユーザの注目情報を検出するための情報とし
て、マウスなどのポインティングデバイスから入力され
るメニュー選択情報を利用してもよい。
【0054】
【発明の効果】以上説明したように、本発明の第1の実
施の形態のマルチモーダルコミュニケーション支援装置
によれば、ユーザの注目情報、例えば、マイクなどの音
声入力装置から入力される音声から音声解析部で発言単
語を識別し、カメラなどの映像入力装置から入力される
映像から映像解析部でユーザが現在どの部分に視線を向
けているのかを検出し、対話管理部でユーザがどのよう
な話題に関して話をしており、誰から視線を向けられて
いるのかなどの対話状態を解析し、注目情報解析伝達部
でこれらの情報を利用して前記注目情報を検出し、それ
に応じた出力制御信号を生成して出力する。これによっ
て、出力音声生成部及び映像生成部を制御し、共有情報
に対して各ユーザの注目情報に応じた音声及び映像効果
を利用したフィードバックが可能である。しかも、ユー
ザの注目情報は、各ユーザ個別に検出されるものであ
り、各ユーザによって異なったフィードバックを実現す
ることが可能となる。
【0055】従って、ユーザがコミュニケーションを図
る上で重要な情報を、コミュニケーションを図る土台に
なっている共有情報を介して、もしくは共有情報に付加
することによって、各ユーザにフィードバックすること
が可能となる。特に、ユーザによって注目している情報
が異なっている場合が多々あるが、各ユーザに関して個
々の注目情報を検出しているので、各ユーザの注目して
いる情報に応じて各ユーザへフィードバックすることが
可能であり、他のユーザの注目情報に左右されることな
く適切なフィードバックを実現することができる。これ
により、多くのユーザが参加している場合にも、フィー
ドバックされる情報は煩雑になることはなく、各ユーザ
が注目している必要な情報に関するフィードバックを実
現することが可能となる。
【0056】また、本発明の第2の実施の形態のマルチ
モーダルコミュニケーション支援装置によれば、対話管
理部は、各ユーザの音声解析結果、もしくは各ユーザの
映像解析結果だけではなく、各ユーザの音声解析結果と
映像解析結果の両方を統合的に利用し解析することによ
り、例えば、各ユーザがどのような話題に関して話して
いるグループに属しているのか、しかも、そのグループ
内でユーザは誰から視線を向けられているのか、視線は
向けられていても視線を向けているユーザとは異なる話
題に関して話しているのかなどの対話状態を解析するこ
とが可能であり、ユーザの注目情報を検出する上で各ユ
ーザの対話状態の解析は重要な情報となる。
【0057】従って、各ユーザは自分が対話している状
態を維持したままで、特別なフィードバック制御を行わ
ずに、各ユーザの対話の進行に応じて、適宜フィードバ
ックを得ることが可能となる。これにより、各ユーザは
フィードバックを得るために、特別な操作をする必要が
なくなりコミュニケーションに専念することが可能とな
る。特に、テレビ会議のように各ユーザが分散している
ような環境では、各ユーザはコミュニケーションとは関
係ない部分の操作をすることで、相手の状態を把握する
ことが困難になることがあるが、各ユーザの対話状態を
利用して注目情報を検出し、対話状態および注目情報に
応じたフィードバックを、特別な操作なしに実現するこ
とにより、円滑なコミュニケーションを実現することが
可能となる。
【0058】また、第3、第4の実施の形態では,ユー
ザの注目情報に応じて、例えば、ユーザが視線を向けて
いる相手ユーザが何を見ているのか、どの対象に関して
話しているのかなどを、音声及び映像を利用した各ユー
ザへのフィードバックを実現することが可能である。し
かも、フィードバックする際には、単に合成音声を生成
し出力する、キャラクタなどの動画像と一緒に合成音声
を出力する、他にも音声でなく、例えば、文章を文字映
像として出力する、共有情報の特定箇所を強調するため
に枠などを重畳表示した上で点滅させるなどの各種の効
果を利用したフィードバックを実現することが可能であ
る。これにより、各ユーザは相手ユーザの注目情報が反
映された共有情報を介して、コミュニケーションを図る
ことが可能となる。
【0059】従って、各ユーザは共有情報に反映される
相手ユーザの注目状態を適宜把握しながら、また、その
注目情報を利用することで円滑なコミュニケーションを
実現することが可能となる。相手ユーザの注目情報を利
用するとは、例えば、相手ユーザが注目している対象が
フィードバック情報により把握可能であり、その対象を
ユーザが再度指定することなく、「これはなかなかいい
ですね」等の発言によって、ユーザがその対象を指示し
たり、注目しているという情報を相手ユーザにフィード
バックすることも可能となる。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態のマルチモーダル
コミュニケーション支援装置の構成を示す図。
【図2】 本発明の第1の実施の形態のマルチモーダル
コミュニケーション支援装置における伝送メッセージの
フォーマットの一例を示す図。
【図3】 図1にけるマルチモーダルコミュニケーショ
ン支援装置の構成の一部である通信制御部の詳細な構成
を示す図。
【図4】 図1にけるマルチモーダルコミュニケーショ
ン支援装置の構成の一部である対話管理部の詳細な構成
を示す図。
【図5】 図1にけるマルチモーダルコミュニケーショ
ン支援装置の構成の一部である注目情報解析伝達部の詳
細な構成を示す図。
【図6】 図1にけるマルチモーダルコミュニケーショ
ン支援装置の構成の一部である注目情報伝達音声生成部
の詳細な構成を示す図。
【図7】 図1にけるマルチモーダルコミュニケーショ
ン支援装置の構成の一部である注目情報伝達映像生成部
の詳細な構成を示す図。
【図8】 本発明のマルチモーダルコミュニケーション
支援装置の画面例を示す図。
【図9】 本発明の第2の実施の形態のマルチモーダル
コミュニケーション支援装置の構成を示す図。
【図10】 図9におけるマルチモーダルコミュニケー
ション支援装置の構成の一部である対話管理部の詳細な
構成を示す図。
【図11】 本発明の第3の実施の形態のマルチモーダ
ルコミュニケーション支援装置の構成を示す図。
【図12】 本発明の第4の実施の形態のマルチモーダ
ルコミュニケーション支援装置の構成を示す図。
【図13】 従来のコミュニケーション支援装置の構成
の一例を示す図。
【図14】 従来のコミュニケーション支援装置の構成
の他の例を示す図。
【符号の説明】
1−1〜1−n…通信端末、11…音声入力部、12…
映像入力部、13…音声出力部、14…映像表示部、1
5,31…通信制御部、101,102,109,11
4…音声信号、103,104…音声解析信号、10
5,106,110,115…映像信号、107,10
8…映像解析信号、111…対話解析信号、112…音
声出力制御信号、113…映像表示制御信号、2…注目
情報反映出力生成部、21…音声解析部、22…映像解
析部、23…注目情報解析伝達部、24…注目情報伝達
音声生成部、25…注目情報伝達映像生成部、3…対話
管理部、32…音声解析結果管理部、33…映像解析結
果管理部、34…対話解析部、4…通信回線
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C064 AA01 AA02 AB02 AC02 AC06 AC08 AC09 AC15 AD08 AD09 AD14 5E501 AA04 AA13 AB19 AC14 BA03 BA09 CA02 CA08 CC08 DA03 EA21 FA04 FA15 FA32 FA43 FA46 FB44

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 複数の端末の出力装置、もしくは複数の
    端末で共有する少なくとも1台の出力装置に、同時にか
    つ同一の共有情報を出力可能であるとともに、ユーザの
    注目情報を前記共有情報に反映させ出力することが可能
    なコミュニケーション支援装置において、 前記注目情報を検出するために、ユーザの入力する音声
    から単語を識別するなどの機能を有する音声解析部と、 ユーザの映像からユーザの視線などを検出する機能を有
    する映像解析部と、 前記コミュニケーション支援装置を利用している全ての
    ユーザ毎に出力され、且つ、前記音声解析部及び前記映
    像解析部の各々の解析結果から、各ユーザが他のどのユ
    ーザから視線を向けられているのか、話し掛けられてい
    るのかなどの注目情報を検出する要素となる対話の状態
    を解析する対話管理部と、 各ユーザの前記音声解析部、前記映像解析部及び前記対
    話管理部からの解析結果を統合し、各ユーザがどの相手
    ユーザの話を聞いており、その相手ユーザは何を見てい
    るのかなどの注目情報を検出し、さらに、該注目情報を
    前記共有情報に反映させるために、音声及び映像の制御
    信号を出力する注目情報解析伝達部と、 前記注目情報解析伝達部からの音声に関する制御信号に
    応じて、合成音声を生成するなどの機能を有する注目情
    報伝達音声生成部と、 前記注目情報解析伝達部からの映像に関する制御信号に
    応じて、相手ユーザの注目領域を強調表示するなどの機
    能を有する注目情報伝達映像生成部と、 を備えていることを特徴とするマルチモーダルコミュニ
    ケーション支援装置。
  2. 【請求項2】 前記対話管理部は、 前記端末を操作する各ユーザが入力する音声から発言単
    語、音声レベルなどを解析した音声解析信号と、 各ユーザの映像から共有情報中の注目位置等を解析した
    映像解析信号とから、 前記ユーザ間での対話を解析して対話解析信号として検
    出することを特徴とする請求項1記載のマルチモーダル
    コミュニケーション支援装置。
  3. 【請求項3】 前記注目情報解析伝達部は、 前記対話管理部から検出された対話解析信号と、各ユー
    ザの音声情報および映像情報との解析結果とから、 現時点での各ユーザの必要としている情報である注目情
    報を検出して、音声出力制御信号と映像表示制御信号と
    を生成することを特徴とする請求項1または請求項2記
    載のマルチモーダルコミュニケーション支援装置。
  4. 【請求項4】 前記注目情報は、 音声および映像により、前記共有情報を介して出力され
    るか、または前記共有情報に付加する形で出力され、 出力された前記注目情報は、各ユーザにより再利用が可
    能であることを特徴とする請求項1ないし請求項3の何
    れか1項記載のマルチモーダルコミュニケーション支援
    装置。
JP35520698A 1998-12-14 1998-12-14 マルチモーダルコミュニケーション支援装置 Pending JP2000184345A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35520698A JP2000184345A (ja) 1998-12-14 1998-12-14 マルチモーダルコミュニケーション支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35520698A JP2000184345A (ja) 1998-12-14 1998-12-14 マルチモーダルコミュニケーション支援装置

Publications (1)

Publication Number Publication Date
JP2000184345A true JP2000184345A (ja) 2000-06-30

Family

ID=18442573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35520698A Pending JP2000184345A (ja) 1998-12-14 1998-12-14 マルチモーダルコミュニケーション支援装置

Country Status (1)

Country Link
JP (1) JP2000184345A (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002152384A (ja) * 2000-11-09 2002-05-24 Victor Co Of Japan Ltd キャラクターデータ配信支援システム、ユーザー端末、ネットワークサービスサーバー及びキャラクターデータ配信方法
WO2003049439A1 (fr) * 2001-12-03 2003-06-12 Sony Corporation Systeme de traitement d'information de reseau, unite de creation d'information et procede de traitement d'information
JP2003189273A (ja) * 2001-12-20 2003-07-04 Sharp Corp 発言者識別装置及び該発言者識別装置を備えたテレビ会議システム
JP2004062756A (ja) * 2002-07-31 2004-02-26 Canon Inc 情報提示装置および情報処理方法
JP2004248125A (ja) * 2003-02-17 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> 映像切り替え装置、映像切り替え方法、この方法のプログラムおよびこのプログラムを記録した記録媒体
WO2007142533A1 (en) * 2006-05-26 2007-12-13 Tandberg Telecom As Method and apparatus for video conferencing having dynamic layout based on keyword detection
WO2011027475A1 (ja) * 2009-09-07 2011-03-10 株式会社東芝 テレビ会議装置
JP2012195644A (ja) * 2011-03-15 2012-10-11 Konica Minolta Business Technologies Inc 通信端末装置、通信制御方法およびプログラム
WO2016009864A1 (ja) * 2014-07-18 2016-01-21 ソニー株式会社 情報処理装置、表示装置、情報処理方法、プログラム、および情報処理システム
US9324325B2 (en) 2013-09-11 2016-04-26 International Business Machines Corporation Converting data between users during a data exchange session
JP2017068851A (ja) * 2015-09-30 2017-04-06 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2018077417A (ja) * 2016-11-11 2018-05-17 コニカミノルタ株式会社 表示システム、プログラムおよび表示制御方法
KR101879349B1 (ko) * 2015-06-24 2018-07-18 주식회사 브이터치 의사소통을 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
WO2019139101A1 (ja) * 2018-01-12 2019-07-18 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2019165495A (ja) * 2014-09-29 2019-09-26 アマゾン・テクノロジーズ・インコーポレーテッド ユーザ・インタラクション分析モジュール
JPWO2022079933A1 (ja) * 2020-10-14 2022-04-21

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002152384A (ja) * 2000-11-09 2002-05-24 Victor Co Of Japan Ltd キャラクターデータ配信支援システム、ユーザー端末、ネットワークサービスサーバー及びキャラクターデータ配信方法
WO2003049439A1 (fr) * 2001-12-03 2003-06-12 Sony Corporation Systeme de traitement d'information de reseau, unite de creation d'information et procede de traitement d'information
JP2003169306A (ja) * 2001-12-03 2003-06-13 Sony Corp ネットワーク情報処理システム、情報作成装置及び情報処理方法
JP2003189273A (ja) * 2001-12-20 2003-07-04 Sharp Corp 発言者識別装置及び該発言者識別装置を備えたテレビ会議システム
JP2004062756A (ja) * 2002-07-31 2004-02-26 Canon Inc 情報提示装置および情報処理方法
JP2004248125A (ja) * 2003-02-17 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> 映像切り替え装置、映像切り替え方法、この方法のプログラムおよびこのプログラムを記録した記録媒体
WO2007142533A1 (en) * 2006-05-26 2007-12-13 Tandberg Telecom As Method and apparatus for video conferencing having dynamic layout based on keyword detection
WO2011027475A1 (ja) * 2009-09-07 2011-03-10 株式会社東芝 テレビ会議装置
JP2012195644A (ja) * 2011-03-15 2012-10-11 Konica Minolta Business Technologies Inc 通信端末装置、通信制御方法およびプログラム
US9324325B2 (en) 2013-09-11 2016-04-26 International Business Machines Corporation Converting data between users during a data exchange session
US9542946B2 (en) 2013-09-11 2017-01-10 International Business Machines Corporation Converting data between users during a data exchange session
WO2016009864A1 (ja) * 2014-07-18 2016-01-21 ソニー株式会社 情報処理装置、表示装置、情報処理方法、プログラム、および情報処理システム
JP2019165495A (ja) * 2014-09-29 2019-09-26 アマゾン・テクノロジーズ・インコーポレーテッド ユーザ・インタラクション分析モジュール
KR101879349B1 (ko) * 2015-06-24 2018-07-18 주식회사 브이터치 의사소통을 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
JP2017068851A (ja) * 2015-09-30 2017-04-06 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2018077417A (ja) * 2016-11-11 2018-05-17 コニカミノルタ株式会社 表示システム、プログラムおよび表示制御方法
WO2019139101A1 (ja) * 2018-01-12 2019-07-18 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN111542876A (zh) * 2018-01-12 2020-08-14 索尼公司 信息处理装置、信息处理方法以及程序
JPWO2019139101A1 (ja) * 2018-01-12 2021-01-28 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP7276158B2 (ja) 2018-01-12 2023-05-18 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
US11837233B2 (en) 2018-01-12 2023-12-05 Sony Corporation Information processing device to automatically detect a conversation
JPWO2022079933A1 (ja) * 2020-10-14 2022-04-21
WO2022079933A1 (ja) * 2020-10-14 2022-04-21 住友電気工業株式会社 コミュニケーション支援プログラム、コミュニケーション支援方法、コミュニケーション支援システム、端末装置及び非言語表現プログラム
JP7193015B2 (ja) 2020-10-14 2022-12-20 住友電気工業株式会社 コミュニケーション支援プログラム、コミュニケーション支援方法、コミュニケーション支援システム、端末装置及び非言語表現プログラム
US11960792B2 (en) 2020-10-14 2024-04-16 Sumitomo Electric Industries, Ltd. Communication assistance program, communication assistance method, communication assistance system, terminal device, and non-verbal expression program

Similar Documents

Publication Publication Date Title
JP6992870B2 (ja) 情報処理システム、制御方法、およびプログラム
JP2000184345A (ja) マルチモーダルコミュニケーション支援装置
US8243116B2 (en) Method and system for modifying non-verbal behavior for social appropriateness in video conferencing and other computer mediated communications
US9412377B2 (en) Computer-implemented system and method for enhancing visual representation to individuals participating in a conversation
US9298704B2 (en) Language translation of visual and audio input
US20070285505A1 (en) Method and apparatus for video conferencing having dynamic layout based on keyword detection
US20050131744A1 (en) Apparatus, system and method of automatically identifying participants at a videoconference who exhibit a particular expression
CN108139988A (zh) 信息处理系统和信息处理方法
KR102412823B1 (ko) 번역 기능을 제공하는 실시간 양방향 온라인 회의 시스템
JP4077656B2 (ja) 発言者特定映像装置
McDonnell et al. “Easier or Harder, Depending on Who the Hearing Person Is”: Codesigning Videoconferencing Tools for Small Groups with Mixed Hearing Status
Furui Speech recognition technology in the ubiquitous/wearable computing environment
US20050131697A1 (en) Speech improving apparatus, system and method
JP2001249924A (ja) 対話型自動説明装置および対話型自動説明方法およびこの方法の実行プログラムを記録した記録媒体
JP6950708B2 (ja) 情報処理装置、情報処理方法、および情報処理システム
JP7197957B2 (ja) 反応解析システムおよび反応解析装置
CN115865875A (zh) 显示方法、显示装置以及显示系统
US20210136323A1 (en) Information processing device, information processing method, and program
JP2019176375A (ja) 動画出力装置、動画出力方法および動画出力プログラム
CN115359796A (zh) 数字人手语播报方法、装置、设备及存储介质
JP2009060220A (ja) コミュニケーションシステム及びコミュニケーションプログラム
Sawhney Contextual awareness, messaging and communication in nomadic audio environments
JP4385501B2 (ja) 顧客端末メッセージ出力システム
JP2004259198A (ja) 情報管理装置、情報管理システム、及びプログラム
JPH09327006A (ja) 双方向対話型システム

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030318