JP2018036871A - 情報処理サーバ、情報処理システム、端末装置、及びプログラム - Google Patents
情報処理サーバ、情報処理システム、端末装置、及びプログラム Download PDFInfo
- Publication number
- JP2018036871A JP2018036871A JP2016169691A JP2016169691A JP2018036871A JP 2018036871 A JP2018036871 A JP 2018036871A JP 2016169691 A JP2016169691 A JP 2016169691A JP 2016169691 A JP2016169691 A JP 2016169691A JP 2018036871 A JP2018036871 A JP 2018036871A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- user
- conversation
- call
- phrase
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
取得した前記関心度に基づいて、前記音声出力の音量を制御してもよい。
1. 第1の実施形態
1.1 情報処理システムの概略的な構成
1.2 端末装置の構成
1.2.1 ハードウェア構成
1.2.2 機能構成
1.2.3 ソフトウェア構成
1.3 情報管理サーバの構成
1.3.1 ハードウェア構成
1.3.2 機能構成
1.4 音声認識サーバの構成
1.4.1 ハードウェア構成
1.4.2 機能構成
1.5 処理の流れ
2. 第2の実施形態
2.1 情報管理サーバの構成
2.1.1 機能構成
2.2 処理の流れ
3. 第3の実施形態
3.1 端末装置の構成
3.1.1 機能構成
3.2 情報管理サーバの構成
3.2.1 機能構成
3.3 処理の流れ
4. 補足
<1.1 情報処理システムの概略的な構成>
本発明の第1の実施形態は、分散環境において、複数の遠隔地に存在する複数の人物の間での会話に使用される情報処理システムに関する。まず、図1を参照して、第1の実施形態に係る情報処理システムの概略的な構成を説明する。図1は、本実施形態に係る情報処理システムの概略的な構成の一例を示す説明図である。
カメラ11は、当該カメラ11が向いている方向(即ち、撮像方向)の領域を撮像する。センタオフィス10には、1台又は複数のカメラ11が設置される。そして、設置された各カメラ11は、それぞれの設置位置からセンタオフィス10の一部又は全体を撮像することができる。図1からわかるように、本実施形態に係る情報処理システムにおいては、センタオフィス10に設置された複数のカメラ11により、様々な位置からセンタオフィス10を撮像することができる。なお、本実施形態においては、カメラ11を通じて生成される撮像画像は、静止画像であってもよく、又は動画像(即ち映像)であってもよく、特に限定されるものではない。また、カメラ11は、例えば、自動で撮像方向を変えることができる。さらに、カメラ11は、例えば、ズーム機能を有する。当該ズーム機能は、光学ズーム機能であってもよく、又はデジタルズーム機能であってもよく、特に限定されない。
マイクロフォン13は、当該マイクロフォン13の周囲の音を集音する。センタオフィス10には、例えば、1台又は複数のマイクロフォン13が設置される。例えば、設置された各マイクロフォン13は、センタオフィス10内のそれぞれの設置位置の周囲の音を集音する。このように、本実施形態に係る情報処理システムでは、センタオフィス10に設置された複数のマイクロフォン13により、センタオフィス10内の様々な位置での音が集音される。
センサ15は、様々な種類のものを検知する様々な種類のセンサを含み得る。センタオフィス10には、例えば、1台又は複数のセンサ15が設置される。センサ15は、例えば、人物が座席にいるか否かを判定する座席センサであってもよい。当該座席センサは、各座席に設置され、押圧を検出することにより、各座席に人物が座っているか否かを判定する。また、センサ15は、例えば、座席等に設置された振動センサであってもよく、該当する座席に着席する人物に起因する振動を検出することにより、該当する座席に人物が座っているかを判定する。また、センサ15は、例えば、机下等に設置された人感センサであってもよく、当該人感センサは、該当する座席に着席する人物に起因する赤外線、超音波、可視光等の変化を検出することにより、該当する座席に人物が座っているかを判定する。
メディア配信サーバ17は、要求に応じて端末装置100等にメディア(例えば、音声、映像等)を配信する。
情報管理サーバ200は、本実施形態に係る情報処理システムにおいて用いられる様々な情報を管理する。即ち、情報管理サーバ200は、当該様々な情報を記憶し、適時に当該様々な情報を更新する。例えば、情報管理サーバ200は、上述したカメラ11、マイクロフォン13及びセンサ15に関するパラメータを管理する。具体的には、例えば、情報管理サーバ200は、カメラ11のパラメータとして、カメラ11の設置位置、撮像方向(例えば、カメラ11のレンズと垂直な方向)、ズーム率等の情報を記憶し、更新する。
音声認識サーバ201は、大規模な語句リストのデータを内蔵し、例えば情報管理サーバ200を介して、端末装置100やマイクロフォン13で取得された音声データを受信し、音声認識処理を行う。当該音声認識処理とは、上述の語句リストを用いて、受信した音声データに含まれる語句の抽出を行う処理のことである。そして、音声認識サーバ201は、音声認識処理の結果であるデータを上述の情報管理サーバ200へと送信する。なお、音声認識サーバ201は、仮想サーバやアプリケーションソフトウェアとして、上述の情報管理サーバ200、メディア配信サーバ17、後述するPBX40等の他のサーバ機器等により実現されてもよい。
LAN19は、センタオフィス10内の各装置を接続するネットワークである。また、LAN19は、外部ネットワーク30を介して、センタオフィス10内の各装置とセンタオフィス10外の装置とを接続する。LAN19及び外部ネットワーク30は、有線又は無線であることができ、例えば、インターネット、IP−VPN(Internet Protocol‐Virtual Private Network)、専用回線、又はWAN(Wide Area Network)、赤外線通信などの任意の通信ネットワークから構成される。
端末装置100は、ユーザにより使用される。例えば、端末装置100は、電話、メール等のコミュニケーションを行うための機能をユーザに提供する。端末装置100は、例えば、タブレット端末である。なお、端末装置100は、タブレット端末の代わりに、スマートフォン、PC(Personal Computer)、ディスプレイ付き電話機等の、表示機能及び通信機能を有する別の装置であってもよい。
ディスプレイ21は、様々な画面を表示する。例えば、ディスプレイ21は、カメラ11を通じて取得された撮像画像を含む画面を表示する。これにより、端末装置100のユーザを含む多数の人物が、ディスプレイ21を介してセンタオフィス10の様子を見ることができる。また、ディスプレイ21は、例えば、いずれかの音声も出力してもよい。具体的には、ディスプレイ21は、マイクロフォン13により集音される音声を出力してもよい。これにより、端末装置100のユーザを含む多数の人物が、ディスプレイ21を介してセンタオフィス10内の音を聞くことができる。
LAN23は、サテライトオフィス20(又はホームオフィス20)内の各装置を接続するネットワークである。また、LAN23は、外部ネットワーク30を介して、サテライトオフィス20内の各装置とサテライトオフィス20外の装置とを接続する。LAN23についても、有線又は無線であることができ、例えば、専用回線、赤外線通信などの任意の通信ネットワークから構成される。
PBX40は、外部ネットワーク30を介した装置間の通信を可能にする。PBX40は、例えば、H.323又はSIP(Session Initiation Protocol)に従って動作することができる。具体的には、例えば、PBX40は、通信用の識別情報(例えば、電話番号)とIP(Internet Protocol)アドレスとを、互いに対応付けて記憶する。そして、PBX40は、要求に応じて、通信用の識別情報をIPアドレスに変換し、当該IPアドレスを要求元に提供する。なお、PBX40は、上述のLAN19又はLAN23に接続されてもよい。
続いて、図2から図17を参照して、本実施形態に係る端末装置100の構成の一例を説明する。端末装置100は、先に説明したように、コミュニケーションを行うための機能をユーザに提供する装置である。
まず、図2を参照して、本実施形態に係る端末装置100のハードウェア構成の一例を説明する。図2は、本実施形態に係る端末装置100のハードウェア構成の一例を示すブロック図である。図2を参照すると、端末装置100は、CPU(central Processing Unit)801、ROM(Read Only Memory)803、RAM(Random Access Memory)805、バス807、記憶装置809、通信インターフェース811、カメラ813、マイクロフォン815、スピーカ817及びタッチパネル820を有する。
CPU801は、端末装置100における様々な処理を実行する。また、ROM803は、端末装置100における処理をCPU801に実行させるためのプログラム及びデータを記憶する。さらに、RAM805は、CPU801の処理の実行時に、プログラム及びデータを一時的に記憶する。
バス807は、CPU801、ROM803及びRAM805を相互に接続する。バス807には、さらに、後述する記憶装置809、通信インターフェース811、カメラ813、マイクロフォン815、スピーカ817及びタッチパネル820が接続される。バス807は、例えば、複数の種類のバスを含む。具体的には、バス807は、CPU801、ROM803及びRAM805を接続する高速バスと、当該高速バスよりも低速の1つ以上の別のバスを含んでもよい。
記憶装置809は、端末装置100内で一時的又は恒久的に保存すべきデータを記憶する。記憶装置809は、例えば、ハードディスク(Hard Disk)等の磁気記憶装置であってもよく、又は、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ(FLASH Memory)、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)及びPRAM(Phase change Random Access Memory)等の不揮発性メモリ(nonvolatile memory)であってもよい。
通信インターフェース811は、端末装置100の通信手段であり、ネットワークを介して(あるいは、直接的に)外部装置と通信する。通信インターフェース811は、無線通信用のインターフェースであってもよく、この場合には、例えば、通信アンテナ、RF(Radio Frequency)回路及びその他の通信処理用の回路を含んでもよい。また、通信インターフェース811は、有線通信用のインターフェースであってもよく、この場合には、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。
カメラ813は、被写体を撮像する。カメラ813は、例えば、光学系、撮像素子及び画像処理回路を含む。
マイクロフォン815は、周囲の音を集音する。マイクロフォン815は、周囲の音を電気信号へ変換し、当該電気信号をデジタルデータに変換する。
スピーカ817は、音声を出力する。スピーカ817は、デジタルデータを電気信号に変換し、当該電気信号を音声に変換する。
タッチパネル820は、タッチ検出面821及び表示面823を含む。
次に、本実施形態に係る端末装置100の機能構成の一例を説明する。図3は、本実施形態に係る端末装置100の機能構成の一例を示すブロック図である。図3を参照すると、端末装置100は、通信部110、入力部120、撮像部130、集音部140、表示部150、音声出力部160、記憶部170及び制御部180を有する。
通信部110は、他の装置と通信する。例えば、通信部110は、上述のLAN23に接続され、サテライトオフィス20内の各装置と通信する。また、通信部110は、上述の外部ネットワーク30及びLAN19を介して、センタオフィス10内の各装置と通信する。具体的には、例えば、通信部110は、カメラ11、マイクロフォン13、センサ15、メディア配信サーバ17、情報管理サーバ200及び音声認識サーバ201と通信する。なお、通信部110は、例えば、通信インターフェース811により実現され得る。
入力部120は、端末装置100のユーザによる入力を受け付ける。そして、入力部120は、入力結果を後述する制御部180へ提供する。例えば、入力部120は、表示画面におけるユーザにより指定される位置を検出する。より具体的には、入力部120は、タッチ検出面821により実現され、タッチパネル820におけるタッチ位置を検出する。そして、入力部120は、検出されたタッチ位置を制御部180へ提供する。
撮像部130は、被写体を撮像する。例えば、撮像部130は、端末装置100の正面方向の領域を撮像する。この場合には、撮像部130は、端末装置100のユーザを撮像することができる。撮像部130は、撮像結果(即ち、撮像画像)を制御部180に提供する。なお、撮像部130は、例えば、カメラ813により実現され得る。
集音部140は、端末装置100の周囲の音を集音する。例えば、集音部140は、端末装置100のユーザの声を集音することができる。集音部140は、集音結果(音声データ)を制御部180に提供する。なお、集音部140は、例えば、マイクロフォン815により実現され得る。
表示部150は、出力画像(表示画面)を表示する。表示部150は、制御部180による制御に応じて表示画面を表示する。なお、表示部150は、例えば、表示面823により実現され得る。
音声出力部160は、音声を出力する。音声出力部160は、制御部180による制御に応じて音声を出力する。なお、音声出力部160は、例えば、スピーカ817により実現され得る。
記憶部170は、端末装置100の動作のためのプログラム及びデータを記憶する。例えば、記憶部170は、実空間に対応する3次元仮想空間のデータを記憶する。具体的には、例えば、情報管理サーバ200が、センタオフィス10に対応する3次元仮想空間のデータを記憶しており、制御部180が、通信部110を介して、上記3次元仮想空間のデータを取得する。そして、記憶部170は、取得された当該3次元仮想空間のデータを記憶する。なお、記憶部170は、例えば、記憶装置809により実現され得る。
制御部180は、端末装置100の様々な機能を提供する。制御部180は、実空間情報提供部181、音声出力制御部182、位置取得部183、オブジェクト選択部185、ID取得部187、電話部189、会話オブジェクト選択部191、COMMリンク制御部193、及びCOMMワード制御部(発言語句オブジェクト制御部)195を含む。なお、制御部180は、例えば、CPU801、ROM803及びRAM805により実現され得る。以下に、制御部180の各機能部について説明する。
実空間情報提供部181は、実空間の情報を端末装置100のユーザに提供する。詳細には、実空間情報提供部181は、表示部150に、実空間の撮像画像の表示画面を表示させる。より具体的には、例えば、当該撮像画像は、実空間(センタオフィス10)内にあるカメラ11を通じて取得される撮像画像である。なお、当該撮像画像は、カメラ11により取得された撮像画像であってもよく、又は、カメラ11により取得された撮像画像を加工することにより生成された撮像画像であってもよい。また、上記表示画面は、当該撮像画像を一部又は全体に含む画面である。すなわち、実空間情報提供部181は、通信部110を介して、カメラ11の撮像画像を取得する。そして、実空間情報提供部181は、当該撮像画像を含む表示画面を生成し、表示部150に当該表示画面を表示させる。
図4は、本実施形態に係る俯瞰モードで表示される表示画面の一例を説明するための説明図である。詳細には、図4には、俯瞰モードの表示画面60が示されている。当該表示画面60は、俯瞰撮像画像61、ボタン画像63、プレゼンスアイコン65、吹き出し画像67及びマップ画像69を含む。
図5は、本実施形態に係る近接モードで表示される表示画面の一例を説明するための説明図である。詳細には、図5には、近接モードで表示される表示画面70が示されている。当該表示画面70は、近接撮像画像71、ボタン画像73及びマップ画像75を含む。
以上のように、実空間情報提供部181は、表示部150に実空間の撮像画像の表示画面を表示させることにより、実空間の視覚的な情報を提供する。さらに、実空間情報提供部181は、実空間の聴覚的な情報も提供してもよい。即ち、実空間情報提供部181は、音声出力部160に、実空間での集音により得られた音声データの音声を出力させてもよい。例えば、実空間情報提供部181は、ユーザにより選択されたカメラ11に近いマイクロフォン13を選択する。そして、実空間情報提供部181は、通信部110を介して、当該マイクロフォン13から、センタオフィス10での集音により得られた音声データを取得する。そして、実空間情報提供部181は、音声出力部160に、取得した音声データの音声を出力させてもよい。
音声出力制御部182は、制御部180が通信部110を介して取得したデータに基づいて、音声出力部160による音声出力を制御する。具体的には、音声出力制御部182は、上記データに基づいて、音声出力部160から出力される音声の音量を制御する。
位置取得部183は、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を取得する。より具体的には、例えば、入力部120が、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を検出すると、位置取得部183は、当該位置を取得する。そして、位置取得部183は、当該撮像画像内の位置をオブジェクト選択部185に提供する。
オブジェクト選択部185は、取得される撮像画像内の位置に基づいて、実空間に対応する3次元仮想空間に配置されたオブジェクトを選択する。例えば、位置取得部183が、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を取得すると、オブジェクト選択部185は、当該位置に基づいて、上記実空間に対応する3次元仮想空間に配置されたオブジェクトを選択する。詳細には、上記オブジェクトは、上記撮像画像内の上記位置に対応する上記3次元仮想空間内の3次元仮想位置に配置されたオブジェクトである。また、例えば、上記撮像画像は、表示画面に含まれる上記第2のモード(例えば、近接モード)の撮像画像である。例えば、位置取得部183が、カメラ11により生成された近接撮像画像71内の位置を取得すると、オブジェクト選択部185は、センタオフィス10に対応する3次元仮想空間に配置されたオブジェクトのうちの、上記位置に対応するオブジェクトを選択する。なお、オブジェクト選択部185は、例えば、センタオフィス10に対応する3次元仮想空間のデータを記憶部170から取得する。
以下、図8及び図9を参照して、3次元仮想空間90に1つのオブジェクト91が配置されている場合の3次元仮想空間90の具体例を説明する。図8は、センタオフィス10に対応する3次元仮想空間90の第1の例を説明するための説明図である。図8においては、センタオフィス10に対応する3次元仮想空間90が示されている。また、当該3次元仮想空間90には、オブジェクト91が配置されている。当該オブジェクト91は、人物(例えば、A氏)に対応する。そして、当該オブジェクト91は、センタオフィス10の当該人物(例えば、A氏)の座席の位置に対応する3次元仮想位置に配置される。即ち、上記人物が座席に座っている場合には上記人物が存在するであろう位置に対応する3次元仮想位置に、上記オブジェクト91が配置される。この例では、オブジェクト91は、円柱状のオブジェクトである。当該円柱状のオブジェクト91は、例えば、半径R及び高さHを伴う円柱のオブジェクトである。半径R及び高さHは、例えば、予め定められている。なお、3次元仮想空間90のデータには、各カメラ11に関連する情報も含まれている。例えば、各カメラ11に関連する情報は、各カメラ11の設置位置に対応する3次元仮想位置、撮像方向(例えば、カメラのレンズと垂直な方向)、画角等を含む。
また、例えば、3次元仮想空間90に配置されるオブジェクト91は、複数の状態のうちのいずれかの状態を示す状態情報に対応する。例えば、オブジェクト91は、人物に対応する。そして、オブジェクト91は、当該人物が座席に座っているか否かを示す状態情報(以下、「存否情報」と呼ぶ)に対応する。当該存否情報は、人物が座席に座っている状態、又は人物が座席に座っていない状態を示す。オブジェクト選択部185は、例えば、オブジェクト91に対応する人物が座席に座っているか否かの判定結果を、通信部110を介してセンサ15から取得する。そして、当該判定結果が存否情報となる。
また、3次元仮想空間90内に2つ以上のオブジェクト91が配置され得る。以下、2つのオブジェクト91が配置される場合の3次元仮想空間90の具体例を、図10を参照して説明する。図10は、センタオフィス10に対応する3次元仮想空間90の第2の例を説明するための説明図である。図10には、センタオフィス10に対応する3次元仮想空間90が示されている。また、当該3次元仮想空間90には、オブジェクト91A及びオブジェクト91Bが配置されている。オブジェクト91Aは、ある人物(例えば、A氏)に対応し、センタオフィス10の当該ある人物の座席の位置に対応する3次元仮想位置に配置される。また、オブジェクト91Bは、ある人物(例えば、B氏)に対応し、センタオフィス10の当該ある人物の座席の位置に対応する3次元仮想位置に配置される。図8の例と同様に、オブジェクト91は、半径R及び高さHを伴う円柱状のオブジェクトである。
会話オブジェクト選択部191は、後述する「COMMリンク」オブジェクトを選択する。位置取得部183が、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を取得すると、会話オブジェクト選択部191は、当該位置に基づいて、上記実空間に対応する3次元仮想空間に配置されたCOMMリンク(すなわち、会話イベントオブジェクト)を選択する。なお、COMMリンクは、例えば、通話に対応するオブジェクトであり、線分状の形状を持ち、その両端には、当該通話に関わる人物に対応するオブジェクト91等が位置する。当該COMMリンクの詳細については後述する。
ID取得部187は、選択される上記オブジェクト91に対応する識別情報を取得する。例えば、当該識別情報は、選択される上記オブジェクト91に対応する通信用の識別情報(以下、「通信用ID」と呼ぶ)である。当該通信用IDは、一例として電話番号が挙げられる。具体的には、例えば、オブジェクト選択部185が、オブジェクト91を選択すると、ID取得部187は、選択された当該オブジェクト91のオブジェクトIDを取得する。そして、オブジェクト選択部185は、通信部110を介して、オブジェクトIDを情報管理サーバ200へ送信し、オブジェクトIDに対応する通信用IDを取得する。当該通信用IDは、選択されたオブジェクト91に対応する人物の通信用IDである。当該通信用IDは、オブジェクト91に対応する人物(即ち、ユーザにより指定された撮像画像の位置に写っている人物)の通信装置の通信用IDである。そして、ID取得部187は、取得した通信用IDを後述する電話部189に提供する。
電話部189は、電話を行うための機能を提供する。例えば、電話部189は、ソフトフォンの機能を提供する。例えば、電話部189は、ID取得部187により提供される通信用IDを取得すると、当該通信用IDを用いて電話発信を行う。より具体的には、例えば、電話部189は、通信用IDを取得すると、通信部110を介して、当該通信用IDをPBX40に提供し、PBX40からIPアドレスを取得する。そして、電話部189は、当該IPアドレスを有する通信装置(即ち、着信先の通信装置)との間で、セッションを確立するための一連のシーケンスを実行する。このように、電話部189は、表示画面においてユーザにより指定された撮像画像内の位置に写る人物への電話のための電話発信を行う。即ち、電話部189は、当該人物の通信装置への電話発信を行う。
ここでは、表示画面の表示モードの遷移、すなわち、俯瞰モード、近接モード及び会話モードの遷移の具体例を、図13を参照して説明する。図13は、表示モードの遷移の一例を説明するための遷移図である。図13を参照すると、例えばソフトウェアの起動時において、カメラ11、マイクロフォン13、センサ15、情報管理サーバ200等との接続処理が行われると、表示モードは、俯瞰モード301になる(ENTRY)。
上述したように、例えば、実空間情報提供部181は、第1の表示モード(例えば、俯瞰モード)では、実空間の第1の領域が撮像された第1の撮像画像(例えば、俯瞰撮像画像61)を表示部150に表示させる。また、実空間情報提供部181は、第2の表示モード(例えば、近接モード)では、上記第1の領域よりも狭い第2の領域が撮像された第2の撮像画像(例えば、近接撮像画像71)を表示部150に表示させる。そして、上述した例では、実空間の第1の領域が撮像された第1の撮像画像は、第1のズーム率に対応する撮像画像であり、上記第1の領域よりも狭い第2の領域が撮像された第2の撮像画像は、上記第1のズーム率よりも大きい第2のズーム率に対応する撮像画像である。しかしながら、本実施形態においては、上記第1の撮像画像及び上記第2の撮像画像はこれに限られない。
また、上述した例では、表示モードが切り替えられる例を説明したが、本実施形態においては、表示画面はこれに限られない。例えば、表示モードの切り替えの代わりに、より自由な条件での撮像により撮像画像が取得され、当該撮像画像を含む表示画面が表示されてもよい。例えば、実空間の撮像画像は、複数のズーム率のうちの選択されたズーム率に対応する撮像画像であってもよい。この場合に、例えば、実空間情報提供部181は、入力部120を介してユーザにより指定されるズーム率を、通信部110を介してカメラ11に要求する。その結果、カメラ11は、ズーム率を要求に従って変更し、変更後のズーム率での撮像により生成された撮像画像を端末装置100に提供する。そして、実空間情報提供部181は、表示部150に、提供された撮像画像を含む表示画面を表示させる。そして、ユーザは、当該撮像画像内の位置を指定すると、位置取得部183は、当該位置を取得する。さらに、位置取得部183は、撮像画像内の当該位置をオブジェクト選択部185に提供する。これにより、ユーザは、細かいズーム率を指定して、所望の撮像画像を表示することができる。よって、ユーザは、撮像画像を用いて、特定の人物の位置をより指定しやすくなる。
COMMリンク制御部193は、「COMMリンク」オブジェクトに関する情報を情報管理サーバ200から受信し、当該COMMリンクの表示の制御等を行う。
COMMワード制御部195は、後述する「COMMワード」オブジェクトに関する情報を情報管理サーバ200から受信し、COMMワードの表示の制御を行う。また、COMMワード制御部195は、通信部110に、集音部140により提供される音声データを情報管理サーバ200へ送信させる。この時、COMMワード制御部195は、送信する音声データに、音声を発した人物に対応する通信用IDのデータを付与して送信してもよい。当該通信用IDを特定する処理は、端末装置100が、当該端末装置100のユーザとしてあらかじめ登録された人物に対応する通信用IDを選択したり、音声認識サーバ201が話者認識処理を行い音声データから発話人物を特定したりすることで実施してもよい。
次に、本実施形態に係る端末装置100のソフトウェア構成の一例を説明する。図17は、本実施形態に係る端末装置100のソフトウェア構成の一例を示すブロック図である。図17を参照すると、端末装置100は、OS(Operating System)840及び複数のアプリケーションソフトウェアを有する。そして、端末装置100は、アプリケーションソフトウェアとして、ソフトフォン851、超臨場感クライアント853及び電話発信制御機能855を含む。
OS840は、端末装置100を動作させるための基本的な機能を提供するソフトウェアである。OS840は、各アプリケーションソフトウェアを実行する。
ソフトフォン851は、端末装置100を用いて電話を行うためのアプリケーションソフトウェアである。電話部189は、例えば、ソフトフォン851により実現され得る。
超臨場感クライアント853は、実空間の情報を端末装置100に提供するためのアプリケーションソフトウェアである。超臨場感クライアント853は、実空間(例えば、センタオフィス10)にいる人物の状態を示す状態情報を取得し、OSを介してソフトフォン851に提供してもよい。そして、ソフトフォン851は、当該状態情報に基づいて、電話発信を制御してもよい。なお、実空間情報提供部181は、例えば、超臨場感クライアント853により実現され得る。
また、電話発信制御機能855は、表示画面内の撮像画像に写っている人物の通信装置の通信用IDを取得するアプリケーションソフトウェアである。電話発信制御機能855は、通信用IDを取得すると、OS840を介してソフトフォン851に提供する。そして、ソフトフォン851は、当該通信用IDを用いて、電話発信を行う。なお、位置取得部183、オブジェクト選択部185及びID取得部187は、電話発信制御機能855により実現され得る。
続いて、図18及び図19を参照して、本実施形態に係る情報管理サーバ200の構成の一例を説明する。情報管理サーバ200は、先に説明したように、本実施形態に係る情報処理システムにおいて用いられる様々な情報を管理する。
まず、図18を参照して、本実施形態に係る情報管理サーバ200のハードウェア構成の一例を説明する。図18は、本実施形態に係る情報管理サーバ200のハードウェア構成の一例を示すブロック図である。図18を参照すると、情報管理サーバ200は、CPU901、ROM903、RAM905、バス907、記憶装置909及び通信インターフェース911を有する。
CPU901は、情報管理サーバ200における様々な処理を実行する。また、ROM903は、情報管理サーバ200における処理をCPU901に実行させるためのプログラム及びデータを記憶する。さらに、RAM905は、CPU901の処理の実行時に、プログラム及びデータを一時的に記憶する。
バス907は、CPU901、ROM903及びRAMを相互に接続する。バス907には、さらに、記憶装置909及び通信インターフェース911が接続される。バス907は、例えば、複数の種類のバスを含む。一例として、バス907は、CPU901、ROM903及びRAM905を接続する高速バスと、当該高速バスよりも低速の1つ以上の別のバスを含んでもよい。
記憶装置909は、情報管理サーバ200内で一時的又は恒久的に保存すべきデータを記憶する。記憶装置909は、例えば、ハードディスク等の磁気記憶装置であってもよく、又は、EEPROM、フラッシュメモリ、MRAM、FeRAM及びPRAM等の不揮発性メモリであってもよい。
通信インターフェース911は、情報管理サーバ200が備える通信手段であり、ネットワークを介して(あるいは、直接的に)外部装置と通信する。通信インターフェース911は、無線通信用のインターフェースであってもよく、この場合には、例えば、通信アンテナ、RF回路及びその他の通信処理用の回路を含んでもよい。また、通信インターフェース911は、有線通信用のインターフェースであってもよく、この場合には、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。
次に、本実施形態に係る情報管理サーバ200の機能構成の一例を説明する。図19は、本実施形態に係る情報管理サーバ200の機能構成の一例を示すブロック図である。図19を参照すると、情報管理サーバ200は、通信部210、記憶部220及び制御部230を有する。
通信部210は、他の装置と通信する。例えば、通信部210は、LAN19に直接的に接続され、センタオフィス10内の各装置と通信する。具体的には、例えば、通信部210は、カメラ11、マイクロフォン13、センサ15、メディア配信サーバ17及び音声認識サーバ201と通信する。また、通信部210は、外部ネットワーク30及びLAN23を介して、サテライトオフィス20内の各装置と通信する。具体的には、例えば、通信部210は、端末装置100及びディスプレイ21と通信する。なお、通信部210は、例えば、通信インターフェース911により実現され得る。
記憶部220は、情報管理サーバ200の動作のためのプログラム及びデータを記憶する。とりわけ本実施形態では、記憶部220は、情報処理システムにおいて用いられる様々な情報を記憶する。
制御部230は、情報管理サーバ200の様々な機能を提供する。制御部230は、COMMリンク配信部(会話イベントオブジェクト配信部)231、抽出語句データ管理部232、重み付け演算部(重み付け処理部)233、COMMワード配信部(発言語句オブジェクト配信部)234、及び発言状況演算部235を含む。制御部230は、例えば、要求に応じて、情報処理システムにおいて用いられる様々な情報を提供する。具体的には、制御部230は、端末装置100による要求に応じて、3次元仮想空間90のデータ、人物関連情報、オブジェクトIDに対応する通信用ID、並びに、カメラ11、マイクロフォン13及びセンサ15に関するパラメータ等を提供する。また、例えば、制御部230は、本実施形態に係る情報処理システムにおいて用いられる様々な情報を適宜更新してもよい。制御部230は、自動で、又は手動による指示に応じて、当該情報を更新する。
COMMリンク配信部231は、COMMリンク86を生成するための情報を端末装置100等からから受信し、当該COMMリンク86の位置とサイズに関する演算、COMMリンク86の配信、COMMリンク86へのユーザ入力データの取得、を行う。詳細には、COMMリンク配信部231は、端末装置100からCOMMリンク86の基礎となる会話行動(通話動作)を通信部210を介して受信する。そして、COMMリンク配信部231は、当該端末装置100からの情報に基づいて、先に説明した3次元仮想空間90を用いて当該端末装置100を利用する話者に係るオブジェクト91を取得し、これらオブジェクト91をつなぐCOMMリンク86に係るデータを生成し、配信する。詳細には、COMMリンク配信部231は、先に説明したように、予め記憶部220に記憶された実空間に対応する3次元仮想空間90上における複数の人物のオブジェクト91を参照し、当該端末装置100から得られた会話行動の情報に基づき、当該会話行動に係る話者のオブジェクト91を選択する。そして、選択したオブジェクト91を結びつけるCOMMリンクを3次元仮想空間90上に生成する。
抽出語句データ管理部232は、端末装置100の通信部110から受信した音声データを取得し、音声認識サーバ201へ送信する。そして、抽出語句データ管理部232は、音声認識サーバ201から認識結果の語句データを受信し、当該語句の発言者の識別情報と対応させて管理する。なお、例えば、抽出語句データ管理部232は、語句に関するデータや当該語句の発言者の識別情報は記憶部220に記憶させてもよい。
重み付け演算部233は、抽出語句データ管理部232が管理する語句データを分析し、統計的な重み付け処理を行う。当該重み付けのための指標としては、たとえば、語句の会話における出現頻度(回数)(例えば、出現頻度が高いほど重みを大きくする)、語句の抽象度(例えば、具体性が高いほど重みを大きくする。具体的には、「料理」よりも、「フランス料理」という語句の方が具体性が高いこととなり、「フランス料理」よりも「ブッフブルキニョン(ブルゴーニュ風牛肉の赤ワイン煮)」の方がより具体性が高いこととなる。なお、抽象度を示す値は、例えば、抽出された語句とともに、音声認識サーバ201から供給される。)、語句の品詞カテゴリ(例えば、動詞よりも名詞の重みを大きくする)等の指標を用いる。また、端末装置100が、集音部140と電話部189とを用いて、音声データの取得時に当該音声データとともに通話音声(語句の発話)の音圧のデータも取得して情報管理サーバ200へ送信し、重み付け演算部233は、当該音圧データを重み付けのための指標として用いてもよい(例えば、大きな音圧レベルで発せられた語句ほど重みを大きくする)。
COMMワード配信部234は、抽出語句データ管理部232、重み付け演算部233、後述する発言状況演算部235から取得した、語句を含む語句データを用いて、当該語句を含むCOMMワード87を生成し、COMMワード87に係るデータを配信する。この際、COMMワード配信部234は、生成したCOMMワード87には、当該COMMワードに含まれる語句の発言者の識別情報が紐づける。また、COMMワード配信部234は、生成したCOMMワード87を記憶部220に記憶させてもよい。さらに、COMMワード配信部234は、重み付け演算部233による重みづけ処理の結果に応じて、配信してもよい。より具体的には、COMMワード配信部234は、重みづけ処理の結果(重みの値)と所定の閾値(所定の値)とを比較し、比較結果に基づいて、生成したCOMMワード87を配信してもよい。この場合、COMMワード配信部234は、COMMワード87に紐づけて重みづけ処理の結果のデータを配信してもよい。さらに、COMMワード配信部234は、後述する発言状況演算部235に算出されたCOMMワード87の位置情報をともに配信してもよい。
発言状況演算部235は、抽出語句データ管理部232が管理する語句データと、当該語句データに対応する識別情報データとを分析し、当該語句データが二者通話内の仮想的な場において、どのような位置(各発話者からの仮想的な距離)に存在するかを算出する。発言状況演算部235は、COMMリンク86の3次元仮想空間90内における位置と、COMMリンク86に対応するCOMMワード87の当該COMMリンク86に対する位置とを算出する。例えば、図15の例で説明すると、COMMワード87Iの語句「会議」が、人物Cも人物Dも同じくらいの回数(例えば、人物Cが10回、人物Dも10回)で発言されている場合には、COMMワード87I「会議」の位置は、例えば、COMMリンク86G上の「中点」となる。一方で、COMMワード87Jの語句「中止」は、人物Cが多く発言している(例えば、人物Cが5回、人物Dは0回)ことから、COMMワード87J「中止」の位置は、人物Cの近傍となる。さらに、COMMワード87Kの語句「開催」は、人物Dが多く発言している(たとえば、人物Cが1回、人物Dは6回)ことから、COMMワード87K「開催」の位置は、人物Dの近傍となる。そして、発言状況演算部は、算出した位置をCOMMワードに紐づけて、COMMワード配信部234に供給する。COMMワード配信部234は、当該位置情報をCOMMワード87とともに、端末装置100へ配信することから、端末装置100においては、当該位置情報に基づいて、COMMワード87が表示されることとなる。
続いて、図20及び図21を参照して、本実施形態に係る音声認識サーバ201の構成の一例を説明する。音声認識サーバ201は、先に説明したように、大規模な語句リストのデータを内蔵し、情報管理サーバ200を介して、端末装置100やマイクロフォン13で取得された音声データを受信し、音声データに対して音声認識処理を行って、認識結果のデータを情報管理サーバ200へと送信する。
図20を参照して、本実施形態に係る音声認識サーバ201のハードウェア構成の一例を説明する。図20は、本実施形態に係る音声認識サーバ201のハードウェア構成の一例を示すブロック図である。図20を参照すると、音声認識サーバ201は、CPU701、ROM703、RAM705、バス707、記憶装置709及び通信インターフェース711を備える。
CPU701は、音声認識サーバ201における様々な処理を実行する。また、ROM703は、音声認識サーバ201における処理をCPU701に実行させるためのプログラム及びデータを記憶する。また、RAM705は、CPU701の処理の実行時に、プログラム及びデータを一時的に記憶する。
バス707は、CPU701、ROM703及びRAM705を相互に接続する。バス707には、さらに、記憶装置709及び通信インターフェース711が接続される。バス707は、例えば、複数の種類のバスを含む。
記憶装置709は、音声認識サーバ201内で一時的又は恒久的に保存すべきデータ、例えば、語句データを記憶する。記憶装置709は、例えば、ハードディスク等の磁気記憶装置であってもよく、又は、EEPROM、フラッシュメモリ、MRAM、FeRAM及びPRAM等の不揮発性メモリであってもよい。
通信インターフェース711は、音声認識サーバ201が備える通信手段であり、ネットワークを介して(あるいは、直接的に)外部装置と通信する。通信インターフェース711は、無線通信用のインターフェースであってもよく、もしくは、有線通信用のインターフェースであってもよい。
次に、本実施形態に係る音声認識サーバ201の機能構成の一例を説明する。図21は、本実施形態に係る音声認識サーバ201の機能構成の一例を示すブロック図である。図21を参照すると、音声認識サーバ201は、通信部510、記憶部520及び制御部530を備える。
通信部510は、他の装置と通信する。例えば、通信部510は、LAN19に直接的に接続され、センタオフィス10内の各装置と通信する。具体的には、例えば、通信部510は、マイクロフォン13及び情報管理サーバ200と通信する。また、通信部510は、外部ネットワーク30及びLAN23を介して、サテライトオフィス20内の各装置と通信する。
記憶部520は、音声認識サーバ201の動作のためのプログラム及びデータを記憶する。詳細には、本実施形態では、記憶部520は、大規模な語句リストのデータを記憶する。
制御部530は、音声認識サーバ201の様々な機能を提供する。制御部530は、語句抽出部531及び語句データ生成部533を含む。
語句抽出部531は、記憶部520に記憶された語句リストを参照して、情報管理サーバ200を介して、端末装置100やマイクロフォン13から取得された音声データから語句を抽出する。語句抽出部531は、音声データを受け取ったら逐次、当該音声データから語句を抽出してもよく、もしくは、受け取った音声データの量が所定の量になった場合に(例えば、5分間分の会話に係る音声データ)、受け取った音声データから語句を抽出してもよい。また、語句抽出部531は、記憶部520にあらかじめ記憶された、語句を発話した話者に対応付けられた語句リストを用いて、語句の抽出を行ってもよい。このようにすることで、当該話者の発言する語句の傾向についての情報を蓄積し、語句抽出部531は、蓄積した情報を用いて、当該話者の発言の頻度が高い語句を優先的に抽出することができる。また、特定の語句は抽出されることがないように(業務に関係のない語句(例えば「ゲーム」等の語句))が抽出されることがないように、語句抽出部531による語句の抽出の際には、フィルタリングを行ってもよい。
語句データ生成部533は、語句抽出部531により抽出された語句の抽出(認識)結果のデータを生成し、通信部510を介して、情報管理サーバ200へ送信する。
続いて、図22を参照して、本実施形態に係る情報処理の例を説明する。図22は、本実施形態に係る情報処理の概略的な流れの一例を示すフローチャートである。図22には、ステップS401からステップS413までが含まれる。
位置取得部183は、実空間の撮像画像の表示画面において当該撮像画像内の位置がユーザにより指定されたかを判定する。より具体的には、例えば、位置取得部183は、近接撮像画像71内の位置をユーザにより指定されたかを判定する。上記位置が指定されていれば、処理はステップS403へ進む。一方、上記位置が指定されていない場合には、ステップS401を繰り返す。
位置取得部183は、ユーザにより指定される上記撮像画像内の位置を取得する。
オブジェクト選択部185は、実空間に対応する3次元仮想空間90のデータを記憶部170から取得する。
取得された上記撮像画像内の上記位置に基づいて、上記3次元仮想空間90に配置されたオブジェクト91を選択する。
ID取得部187は、選択された上記オブジェクト91に対応する通信用IDを着信側の通信用IDとして取得する。
ID取得部187は、発信側の通信用ID(即ち、端末装置100の通信用ID)を取得する。
電話部189は、着信側の通信用IDを用いて電話発信を行う。その後、電話部189は、電話のための様々な処理を実行し、処理は終了する。
ソフトフォン851の起動処理が実行される。これにより、ソフトフォン851が起動する。
ソフトフォン851に関する登録処理が実行される。例えば、ソフトフォン851の登録処理の1つとして、PBX40での登録(例えば、SIP REGISTRATION)が行われる。
超臨場感クライアント853の起動処理が実行される。例えば、超臨場感クライアント853において利用されるカメラ11、マイクロフォン13、センサ15、メディア配信サーバ17、情報管理サーバ200等が特定される。
超臨場感クライアント853の俯瞰モード処理が実行される。そして、一連の起動処理は終了する。
情報管理サーバ200を介して、端末装置100Cと端末装置100D間での二者通話が開始される。この二者通話の開始には、前述のステップS401からステップS413で説明した一連の情報処理が用いられていてもよい。
情報管理サーバ200は、端末装置100Cと端末装置100D間の二者通話における音声データから音声認識サーバ201が抽出した語句データを取得する。さらに、情報管理サーバ200は、取得した語句データを用いて、位置情報や統計的重み付けや発言状況を反映した重み付き語句データを生成する。
情報管理サーバ200は、端末装置100Cと端末装置100D間の二者通話に関する重み付き語句データを、端末装置100Uへ送信する。
端末装置100Uは、重み付き語句データを受信し、表示部150の画面上にCOMMリンク86とCOMMワード87を表示する。
端末装置100Uは、表示された端末装置100Cと端末装置100Dに対応するオブジェクト91をつなぐCOMMリンク86を指定するユーザ入力を取得する。
端末装置100Uは、上記COMMリンク86を指定するユーザ入力に関するデータ(例えば、前述の会話オブジェクトに対応する2以上の話者のオブジェクトID)を情報管理サーバ200へ送信する。
情報管理サーバ200は、上記COMMリンク86を指定するユーザ入力に関するデータを受信し、上記COMMリンク86に対応する端末装置100Cと端末装置100D間の二者通話のセッションに端末装置100Uとの通話を追加する。そして、端末装置100C、端末装置100D、端末装置100U間の三者通話のセッションが開始される。
次に、以下に説明する、本発明の第2の実施形態は、例えば分散オフィスのような分散環境と同室環境とが混在する環境において、ユーザが、既に通話を行っている複数の話者のいずれかの話者と同室環境内の位置に存在することを前提とした処理である。
<2.1.1 機能構成>
図25を参照して、本実施形態に係る情報管理サーバ200Aの機能構成の一例を説明する。図25は、本実施形態に係る情報管理サーバ200Aの機能構成の一例を示すブロック図である。当該情報管理サーバ200Aは、上述した第1の実施形態の情報管理サーバ200と同様に、通信部210、記憶部220、及び制御部230を有する。さらに、制御部230は、第1の実施形態と同様に、COMMリンク配信部231、抽出語句データ管理部232、重み付け演算部233、COMMワード配信部234、及び発言状況演算部235を含む。加えて、制御部230は、位置連動配信制御部236をさらに含む。従って、ここでは、第1の実施形態と同様の機能部の説明は省略し、位置連動配信制御部236についてのみ説明する。
位置連動配信制御部236は、既に行われている通話に対応する人物(話者)の位置と、当該通話に参加していない第三者ユーザの位置と、を比較し、当該第三者ユーザの端末装置100UへCOMMワード87を配信するか否かを制御する。より具体的には、位置連動配信制御部236は、上記通話の音声に係る人物(話者)の位置情報と、上記通話に関与していない端末装置100Uの位置情報とを比較し、両者の位置情報が所定の距離内、もしくは、同拠点の同室環境に共に存在する場合には、COMMワード87の生成又は配信に係る制御処理を中止する。
続いて、図26を参照して、本実施形態に係る情報処理の例を説明する。図26は、本実施形態に係る情報処理の概略的な流れの一例を示すフローチャートである。図26には、ステップS701からステップS707までが含まれており、ステップS701は、第1の実施形態の図24のステップS601の後に、開始される。
情報管理サーバ200は、端末装置100Cと端末装置100D間での二者通話が開始されたことを検知した場合には、次のステップS703へ進む。なお、情報管理サーバ200は、二者通話が開始されたことを検知していない場合には、ステップS701を繰り返す。
位置連動配信制御部236は、上記通話から抽出された語句データに係る語句を発話した人物の位置と、上記通話に関与していない端末装置100Uの位置(上記通話に参加していないユーザの位置)との間の距離を算出する。
位置連動配信制御部236は、ステップS703へ算出した距離を、あらかじめ定められた所定の距離と比較する。算出した距離が所定の距離よりも短い場合には、処理を終了する。一方、算出した距離が所定の距離よりも長い場合には、ステップS707へ進む。なお、所定の距離とは、例えば、話者とユーザとが同室に存在する場合に想定される両者の間の距離のことであり、もしくは、一方の話者が実空間上で発話した場合に、ユーザが当該発話の聞くことが可能な実空間上の位置と、上記話者との間の距離のことである。
図24のステップS603へ進む。すなわち、会話についての語句を抽出し、抽出した語句に対して重みづけを行う。
以下に説明する本発明の第3の実施形態は、既に開始された会話に対して、どの第三者ユーザが当該会話に関心を持っているかどうかを当該会話に関わる話者に示す。このようにすることで、同一環境で行われている会話のように、話者は関心を持っている第三者ユーザの存在に気が付き、当該会話に第三者ユーザを引き込むことができる。
<3.1.1 機能構成>
図27を参照して、本実施形態に係る端末装置100Aの機能構成の一例を説明する。図27は、本実施形態に係る端末装置100Aの機能構成の一例を示すブロック図である。図27を参照すると、端末装置100Aは、第1の実施形態に係る端末装置100と同様に、通信部110、入力部120、撮像部130、集音部140、表示部150、音声出力部160、記憶部170及び制御部180を有する。さらに、制御部180は、第1の実施形態と同様に、実空間情報提供部181、音声出力制御部182、位置取得部183、オブジェクト選択部185、ID取得部187、電話部189、会話オブジェクト選択部191、COMMリンク制御部193、及びCOMMワード制御部195を含む。加えて、制御部180は、会話関心度設定部196、話者関心比設定部197、及び、会話関心度通知部198をさらに含む。従って、ここでは、第1の実施形態と同様の機能部の説明は省略し、会話関心度設定部196、話者関心比設定部197、及び、会話関心度通知部198についてのみ説明する。
会話関心度設定部196は、ユーザの端末装置100Aへの入力から、後述する「会話関心度(関心度)」の設定入力を受け付け、その結果を表示部150へ表示させるとともに、当該会話関心度に関するデータを情報管理サーバ200へと送信する。ここで、「会話関心度」とは、本明細書においては、本実施形態に係る情報処理システム上で発生したある通話(会話)に対してユーザが感じた関心の度合い、を多段階で示すものである。多段階とは、例えば各段階の間隔を1きざみとして、0:全く関心がない〜9:非常に関心がある、の10段階でもよいし、0〜99の100段階でもよいし、さらにVisual Analogue Scaleのように無段階の連続的な尺度であってもよい。なお、ひとつの会話関心度は、ひとつの通話(会話)、すなわちひとつのCOMMリンク86に紐付き、さらに、当該COMMリンク86に係る1つ又は複数のCOMMワード87に対して紐づくことができる。
話者関心比設定部197は、ユーザの端末装置100Aへの入力から、後述する「話者関心比(関心度を比率)」の設定処理を行い、その結果を表示部150へ表示させるとともに、当該話者関心比に関するデータを後述する情報管理サーバ200Bへと送信する。また、話者関心比設定部197は、COMMワード制御部195が表示するCOMMワード87の話者別比率を変更させる。ここで、「話者関心比」とは、本明細書においては、本実施形態に係る情報処理システム上で発生したある通話における各話者(とその発話内容)に対してユーザが感じた会話関心度の高さの比率、を示すものである。例えば、話者関心比は、1つの会話の話者毎に0.0〜1.0の間の値をとり、さらに複数の話者の話者関心比の合計値は1.0となる。より具体的には、人物Eと人物Fとの二者の会話に対して、ユーザが関心を持った場合を例に説明する。ユーザは、上記会話に係るCOMMワード87の表示を見て、上記会話での人物Eの発言に対して、当該会話での人物Fの発言に比べて高い関心(詳細には、人物Eに対しては人物Fの4倍程度となる関心)を持っていると仮定する。このような場合、例えば、話者関心比は、当該会話に対する全体の会話関心度を1.0とすると、人物Eに対しては0.8、人物Fに対しては0.2として表現することができる。このように、ユーザが話者関心比を設定することにより、その設定比率に応じて、ユーザに対して、各話者に係るCOMMワード87(すなわち、話者の発言した語句)が表示部150の画面上に表示されることができる。
会話関心度通知部198は、情報管理サーバ200から会話関心度に関する情報を受信し、当該会話関心度に関する情報を、当該会話を行う人物の端末装置100の表示部150の画面上にプッシュ通知表示する。例えば、人物Cと人物Dが端末装置100Cと100D間で行っている二者通話に対し、ユーザの端末装置100Uが会話関心度を設定した場合には、端末装置100Cと100Dの各会話関心度通知部198は、後述する情報管理サーバ200Bから端末装置100Uで設定された会話関心度のデータを受信する。さらに、端末装置100Cと100Dの各会話関心度通知部198は、会話関心度の値の大きさに対応した注意喚起強度で、端末装置100Cと100Dの表示部150の画面上に、会話に関心を持つユーザの存在を知らせる通知を表示させる。ここで、上記通知は、例えばポップアップ形式のウィンドウ(表示)である。また、注意喚起強度は、上述の会話関心度に応じて設定され、会話関心度が大きいほど、注意喚起強度は大きくなる。上記通知の表示形態は、当該注意喚起強度に応じて変更される。具体的には、注意喚起強度が大きいほど、上記ポップアップ形式のウィンドウの表示の大きさが大きくなる。また、本実施形態においては、注意喚起強度に応じてウィンドウの表示の大きさを変更することに限定されるものではなく、ウィンドウの表示位置が変更されたり(画面の中央に近いほど注意喚起強度が大きい)、ウィンドウと背景とのコントラストを変更したり、ウィンドウの色、ウィンドウの表示アニメーション(動き)の種類等を変更してもよい。また、上記通知は、画面表示に限定されるものではなく、例えば、会話に関心を持つユーザの存在を知らせるサイン音等でもよく、この場合はサイン音の音量、周波数分布、リズム等を注意喚起強度に応じて変更してもよい。
<3.2.1 機能構成>
次に、図35を参照して、本実施形態に係る情報管理サーバ200Bの機能構成の一例を説明する。図35は、本実施形態に係る情報管理サーバ200Bの機能構成の一例を示すブロック図である。図35を参照すると、第1及び第2の実施形態の情報管理サーバ200と同様に、情報管理サーバ200Bは、通信部210、記憶部220及び制御部230を有する。さらに、制御部230は、第2の実施形態と同様に、COMMリンク配信部231、抽出語句データ管理部232、重み付け演算部233、COMMワード配信部234、発言状況演算部235、及び位置連動配信制御部236を含む。加えて、制御部230は、会話関心度制御部241をさらに含む。従って、ここでは、第1及び第2の実施形態と同様の機能部の説明は省略し、会話関心度制御部241についてのみ説明する。
会話関心度制御部241は、会話関心度に対応したCOMMワード87の提供情報量と、会話関心度に対応した通知の配信に係る処理を行う。詳細には、会話関心度制御部241は、関心度制御部242、表示体制御部243、関心会話情報量制御部244及び会話関心度通知送信部245を含む。
関心度制御部242は、ユーザの通話に対する会話関心度の入力を取得し、COMMリンク86に対して、取得した当該会話関心度と、上記ユーザのオブジェクトID(通信用ID(通信用識別情報))とを関連付ける。さらに、紐づけられた会話関心度は、COMMリンク86とともに、COMMリンク配信部231及び通信部210を介して、端末装置100に配信される。このようにすることで、COMMリンク86に対応する2以上の話者のオブジェクトIDが、当該ユーザのオブジェクトIDと関連付けられる。そして、本実施形態においては、1つのCOMMリンク86に関連付けられたオブジェクトIDを参照して制御を行うことにより、話者の端末装置100に対して、上記ユーザの存在の通知を行うことができる。また、関心度制御部242は、ユーザの話者関心比を取得して、COMMリンク86に対して、取得した話者関心比と、上記ユーザのオブジェクトID(通信用ID(通信用識別情報))とを関連付けてもよい。この場合にも、紐づけられた話者関心比は、COMMリンク86とともに、COMMリンク配信部231及び通信部210を介して、端末装置100に配信される。
表示体制御部243は、ユーザによる会話への会話関心度の入力操作が行われた場合には、当該ユーザに係る画面表示体98を生成する。さらに、表示体制御部243は、取得した会話関心度に基づいて、会話に対応するCOMMリンク86と画面表示体98との仮想的位置関係を決定する。詳細には、表示体制御部243は、ユーザによる会話への会話関心度の入力操作が行われた場合には、先に説明した3次元仮想空間90上に、当該ユーザに係る第三者オブジェクト94を配置する。この際、上記会話関心度に基づいて、3次元仮想空間90上のCOMMリンク86と第三者オブジェクト94との間の仮想的距離は決定される。さらに、表示体制御部243は、ユーザによる話者関心比の入力操作が行われて場合には、3次元仮想空間90において、COMMリンク86上の話者関心比に対応する位置に話者関心比反映位置96を配置する。
関心会話情報量制御部244は、会話関心度および話者関心比に基づいて、COMMワード配信部234を制御する。より具体的には、関心会話情報量制御部244は、COMMワード配信部234におけるCOMMワード87の配信の際に行う、COMMワード87に係る重みの数値と比較される所定の閾値を、会話関心度および話者関心比に基づいて、変更する。
会話関心度通知送信部245は、ユーザが設定した会話関心度(もしくは話者関心比)に対応した通知情報のデータを、会話関心度を設定されたCOMMリンク86の両端に位置するオブジェクト91の通信用IDに対応する端末装置100へ送信する。当該会話関心度に対応した通知情報のデータは、当該会話関心度や仮想的距離97の大きさ、当該会話関心度を設定した第三者ユーザの通信用ID、等を含む。
続いて、図36を参照して、本実施形態に係る情報処理の例を説明する。図36は、本実施形態に係る、会話関心度設定とCOMMワード87の通信情報量変更と通知処理との概略的な流れの一例を示すシーケンス図である。図36には、ステップS801からステップS843までが含まれている。なお、図36のステップS801からステップS807は、それぞれ図24のステップS601からステップS607と同様の処理であり、ここでは説明を省略する。従って、ステップS801、ステップS803、ステップS805、ステップS807を順次行った後、以下のステップS821を行うこととなる。
端末装置100Uは、表示された端末装置100Cと端末装置100Dに対応するオブジェクトをつなぐCOMMリンク86に対し、会話関心度や話者関心比を設定するユーザ入力を取得する。
端末装置100Uは、COMMリンク86に対して設定された会話関心度や話者関心比に関するデータを情報管理サーバ200Bへ送信する。
情報管理サーバ200Bは、上記COMMリンク86に対して設定された会話関心度や話者関心比に関するデータを受信し、上記COMMリンク86の識別情報と対応させデータ管理する。
情報管理サーバ200Bは、会話関心度や話者関心比の大きさに対応した情報量のCOMMワード87に関するデータを端末装置100Uへ送信する。
端末装置100Uは、受信した会話関心度や話者関心比の大きさに対応した情報量のCOMMワード87に関するデータを利用して、表示部150に表示するCOMMワード87の状態を変更させる。
情報管理サーバ200Bは、会話関心度に対応した通知情報のデータを端末装置100Cと100Dへ送信する。
端末装置100Cと100Dは、受信した会話関心度に対応した通知情報のデータを利用して、表示部150に会話関心度に対応した注意喚起強度で通知を表示させる。
端末装置100C(または100D)は、上記通知から第三者ユーザの存在に気づいた人物C(または人物D)による通話への引き込みの入力を取得する。
端末装置100Cは、上記通話への引き込みの入力に関するデータ(第三者ユーザの識別情報を含んでいてもよい)を情報管理サーバ200Bへ送信する。次に、ステップS809へ進む。
ステップS809及び、その後のステップS811は、それぞれ図24のステップS609、ステップS611と同様の処理であり、ここでは説明を省略する。なお、ステップS811とステップS841は、どちらか一方の処理が実行されればステップS843へ進んで構わない。
情報管理サーバ200Bは、上記通話引き込みの入力に関するデータ、もしくは、上記COMMリンク86を指定するユーザ入力に関するデータを受信する。そして、上記COMMリンク86に対応する端末装置100Cと端末装置100D間の二者通話のセッションに端末装置100Uの通話を新たに加わり、端末装置100C、端末装置100D、端末装置100U間の三者通話のセッションが開始される。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10 センタオフィス
11、813 カメラ
13、815 マイクロフォン
15 センサ
17 メディア配信サーバ
19、23 LAN
20 サテライトオフィス
21 ディスプレイ
30 外部ネットワーク
31 アイコン
40 PBX
50、55、56、57、58、59、60、62、66、70、80 表示画面
51、51A、51B、51Z 撮像画像
61 俯瞰撮像画像
63、63A、63B、73、83 ボタン画像
65、79C,79D、79E、79F プレゼンスアイコン
67 吹き出し画像
69、69A、69B、69Z、75 マップ画像
71 近接撮像画像
77、77A、77B、77C、77D、77E、77F 人物画像
81 相手側撮像画像
85 自分側撮像画像
86、86G2、86G3、86H2、86H3、86M2、86M3 COMMリンク
87、87I、87J、87K、87L COMMワード
90 3次元仮想空間
91、91A、91B、91C、91D、91E、91F オブジェクト
92、92C、92D、92E、92F、92U 3次元重心位置
93 仮想面
94、94U 第三者オブジェクト
96 96U 話者関心比反映位置
97 97U 仮想的距離
98、98U2、98U3、101、101U2、101U3、103、103U2、103U3 画面表示体
99 延長線
100、100A、100C、100D、100U 端末装置
105 尖端部
107 通知ウィンドウ
110、210、510 通信部
120 入力部
130 撮像部
140 集音部
150 表示部
160 音声出力部
170、220、520 記憶部
180、230、530 制御部
181 実空間情報提供部
182 音声出力制御部
183 位置取得部
185 オブジェクト選択部
187 ID取得部
189 電話部
191 会話オブジェクト選択部
193 COMMリンク制御部
195 COMMワード制御部
196 会話関心度設定部
197 話者関心比設定部
198 会話関心度通知部
200、200A、200B 情報管理サーバ
201 音声認識サーバ
231 COMMリンク配信部
232 抽出語句データ管理部
233 重みづけ演算部
234 COMMワード配信部
235 発言状況演算部
236 位置連動配信制御部
241 会話関心度制御部
242 関心度制御部
243 表示体制御部
244 関心会話情報量制御部
245 会話関心度通知送信部
531 語句抽出部
533 語句データ生成部
701、801、901 CPU
703、803、903 ROM
705、805、905 RAM
707、807、907 バス
709、809、909 記憶装置
711、811、911 通信インターフェース
817 スピーカ
820 タッチパネル
821 タッチ検出面
823 表示面
840 OS
851 ソフトフォン
853 超臨場感クライアント
855 電話発信制御機能
Claims (33)
- 通話に係る複数の話者の通信用識別情報を紐づける、前記通話に係る会話イベントオブジェクトを生成し、前記会話イベントオブジェクトに係るデータを配信する会話イベントオブジェクト配信部を備える、情報処理サーバ。
- 前記会話イベントオブジェクト配信部は、前記会話イベントオブジェクトに対するユーザの入力を取得し、前記会話イベントオブジェクトに紐づけられた前記複数の話者の通信用識別情報に、前記ユーザの通信用識別情報を関連付ける、
請求項1に記載の情報処理サーバ。 - 前記通話の音声データから抽出された語句に係る発言語句オブジェクトを生成し、前記発言語句オブジェクトに係るデータを配信する、発言語句オブジェクト配信部をさらに備える、
請求項1に記載の情報処理サーバ。 - 前記前記発言語句オブジェクトに対して重みづけ処理を行う重みづけ処理部をさらに備え、
前記発言語句オブジェクト配信部は、前記重みづけ処理の結果と所定の値とを比較し、比較結果に基づいて、前記発言語句オブジェクトに係るデータを配信する、
請求項3に記載の情報処理サーバ。 - 前記重みづけ処理部は、前記通話における前記語句の出現頻度に基づいて、前記重みづけ処理を行う、請求項4に記載の情報処理サーバ。
- 前記重みづけ処理部は、前記語句の抽象度に基づいて、前記重みづけ処理を行う、請求項4に記載の情報処理サーバ。
- 前記重みづけ処理部は、前記語句の品詞カテゴリに基づいて、前記重みづけ処理を行う、請求項4に記載の情報処理サーバ。
- 前記重みづけ処理部は、前記通話の音声データに含まれる前記語句の発話の音圧に係るデータに基づいて、前記重みづけ処理を行う、請求項4に記載の情報処理サーバ。
- 前記前記発言語句オブジェクト配信部は、前記発言語句オブジェクトに紐づけて、前記重みづけ処理の結果に係るデータを配信する、請求項4から8のいずれか1項に記載の情報処理サーバ。
- 前記発言語句オブジェクトに係る語句を発言した前記話者の位置に基づいて、前記発言語句オブジェクトの表示位置を決定し、決定した前記表示位置を配信する発言状況演算部をさらに備える、請求項3から9のいずれか1項に記載の情報処理サーバ。
- 前記発言語句オブジェクト配信部は、実空間における、前記通話に係る前記複数の話者のうちの1人の前記話者と、前記通話に参加していないユーザとの位置関係に基づいて、前記発言語句オブジェクトを配信する、請求項3に記載の情報処理サーバ。
- 前記会話イベントオブジェクト配信部は、実空間における、前記通話に係る前記複数の話者のうちの1人の前記話者と、前記通話に参加していないユーザとの位置関係に基づいて、前記会話イベントオブジェクトを配信する、請求項1に記載の情報処理サーバ。
- ユーザの前記通話に対する関心度の入力を取得し、前記会話イベントオブジェクトに対して、取得した前記関心度と、前記ユーザの通信用識別情報とを紐づける関心度制御部をさらに備える、
請求項1に記載の情報処理サーバ。 - 前記ユーザに係る表示体を生成し、取得した前記関心度に基づいて、前記会話イベントオブジェクトの位置と前記表示体との仮想的位置関係を決定する表示体制御部をさらに備える、
請求項13に記載の情報処理サーバ。 - 前記通話の音声データから抽出された語句に係る発言語句オブジェクトを生成し、前記発言語句オブジェクトに係るデータを配信する、発言語句オブジェクト配信部と、
前記前記発言語句オブジェクトに対して重みづけ処理を行う重みづけ処理部と、
をさらに備え、
前記発言語句オブジェクト配信部は、前記重みづけ処理の結果と、所定の値とを比較し、比較結果に基づいて、前記発言語句オブジェクトに係るデータを配信し、
前記所定の値は、取得した前記関心度に基づいて、変更される、
請求項13又は14に記載の情報処理サーバ。 - 前記関心度制御部は、前記ユーザの前記通話に係る複数の話者についての関心度の比率の入力を取得し、前記会話イベントオブジェクトに紐づけて、取得した前記関心度の比率に係るデータを配信する、請求項13又は14に記載の情報処理サーバ。
- 前記通話の音声データから抽出された語句に係る発言語句オブジェクトを生成し、前記発言語句オブジェクトに係るデータを配信する、発言語句オブジェクト配信部と、
前記前記発言語句オブジェクトに対して重みづけ処理を行う重みづけ処理部と、
をさらに備え、
前記発言語句オブジェクト配信部は、前記重みづけ処理の結果と、所定の値とを比較し、比較結果に基づいて、前記発言語句オブジェクトに係るデータを配信し、
前記所定の値は、取得した前記関心度及び前記関心度の比率に基づいて、変更される、
請求項16に記載の情報処理サーバ。 - 前記関心度制御部は、前記会話イベントオブジェクトに紐づけられた前記複数の話者の通信用識別情報に、前記通話に対して前記関心度を入力した前記ユーザの通信用識別情報を関連付ける、
請求項13から17のいずれか1項に記載の情報処理サーバ。 - 通話に係る複数の話者が存在する実空間に対応する3次元仮想空間を生成し、
前記通話に係る複数の話者の通信用識別情報のそれぞれに対応する複数のオブジェクトと、前記複数のオブジェクトを互いに紐づける、前記通話に係る会話イベントオブジェクトとを生成して、前記3次元仮想空間に配置する、
会話イベントオブジェクト配信部を備える、情報処理サーバ。 - ユーザの前記通話に対する関心度の入力を取得し、
前記ユーザに対応するユーザオブジェクトを前記3次元仮想空間に配置し、
取得した前記関心度に基づいて、前記3次元仮想空間における、前記会話イベントオブジェクトと前記ユーザオブジェクトとの間の仮想的距離を決定する、
表示体制御部をさらに備える、
請求項19に記載の情報処理サーバ。 - ユーザの前記通話に係る前記複数の話者についての関心度の比率の入力を取得し、
取得した前記関心度の比率に基づいて、生成した前記会話イベントオブジェクト上に、前記関心度の比率を示す基準点を配置する、
関心度制御部をさらに備える、
請求項19に記載の情報処理サーバ。 - 情報処理サーバと、複数の端末装置とを含む情報処理システムであって、
前記情報処理サーバは、通話に係る複数の話者の通信用識別情報を紐づける、前記通話に係る会話イベントオブジェクトを生成し、前記会話イベントオブジェクトに係るデータを、前記複数の端末装置に配信する、
情報処理システム。 - 通話に係る複数の話者の通信用識別情報を紐づける、前記通話に係る会話イベントオブジェクトを表示する表示部を備える、端末装置。
- 前記表示部は、前記通話の音声データから抽出された語句に係る発言語句オブジェクトを表示する、請求項23に記載の端末装置。
- 前記発言語句オブジェクトに対して行われた重みづけ処理の結果を取得して、前記重みづけ処理の結果と所定の値とを比較し、比較結果に基づいて、前記表示部を制御する、発言語句オブジェクト制御部をさらに備える、請求項24に記載の端末装置。
- 前記発言語句オブジェクトに対して行われた重みづけ処理の結果を取得して、前記重みづけ処理の結果に基づいて、前記発言語句オブジェクトの大きさ、色、コントラスト、表示位置のいずれか1つを制御する、発言語句オブジェクト制御部をさらに備える、請求項24に記載の端末装置。
- ユーザの前記通話に対する関心度を取得し、前記関心度に基づいて、前記通話に係る音声の出力を制御する音声出力制御部をさらに備える、請求項23から26のいずれか1項に記載の端末装置。
- ユーザによる、前記表示部に表示された前記ユーザに係るユーザオブジェクトに対する操作に基づいて、前記ユーザの前記通話に対する関心度を取得する会話関心度設定部をさらに備える、請求項23から26のいずれか1項に記載の端末装置。
- 前記ユーザオブジェクトの表示のために、前記ユーザの顔画像を取得する撮像部をさらに備える請求項28に記載の端末装置。
- ユーザの前記通話に対する関心度を取得したことに基づいて、前記ユーザの存在を示す通知を行う会話関心度通知部をさらに備える、請求項23から26のいずれか1項に記載の端末装置。
- 前記会話関心度通知部は、
前記ユーザの存在を示す通知表示を前記表示部に表示させ、
取得した前記関心度に基づいて、前記通知表示の大きさ、色、動き、コントラスト、表示位置のいずれか1つを制御する、
請求項30に記載の端末装置。 - 前記会話関心度通知部は、
前記ユーザの存在を示す音声出力を音声出力部に行わせ、
取得した前記関心度に基づいて、前記音声出力の音量を制御する、
請求項30に記載の端末装置。 - コンピュータを、
通話に係る複数の話者の通信用識別情報を紐づける、前記通話に係る会話イベントオブジェクトを生成し、前記会話イベントオブジェクトに係るデータを配信する会話イベントオブジェクト配信部として機能させるための、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016169691A JP6729193B2 (ja) | 2016-08-31 | 2016-08-31 | 情報処理サーバ、情報処理システム、端末装置、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016169691A JP6729193B2 (ja) | 2016-08-31 | 2016-08-31 | 情報処理サーバ、情報処理システム、端末装置、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018036871A true JP2018036871A (ja) | 2018-03-08 |
JP6729193B2 JP6729193B2 (ja) | 2020-07-22 |
Family
ID=61565271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016169691A Active JP6729193B2 (ja) | 2016-08-31 | 2016-08-31 | 情報処理サーバ、情報処理システム、端末装置、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6729193B2 (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020080510A (ja) * | 2018-11-14 | 2020-05-28 | 新日本無線株式会社 | コミュニケーションシステム |
EP3716038A1 (en) * | 2019-03-25 | 2020-09-30 | Nokia Technologies Oy | An apparatus, method, computer program or system for indicating audibility of audio content rendered in a virtual space |
JP2020170310A (ja) * | 2019-04-02 | 2020-10-15 | 富士通株式会社 | 会話分析装置、会話分析方法および会話分析プログラム |
WO2022145060A1 (ja) * | 2020-12-28 | 2022-07-07 | 株式会社日立システムズ | 情報処理システムおよび情報処理方法 |
WO2022180854A1 (ja) * | 2021-02-26 | 2022-09-01 | 株式会社I’mbesideyou | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム |
WO2022180856A1 (ja) * | 2021-02-26 | 2022-09-01 | 株式会社I’mbesideyou | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム |
WO2022180857A1 (ja) * | 2021-02-26 | 2022-09-01 | 株式会社I’mbesideyou | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム |
JP7150114B1 (ja) | 2021-09-02 | 2022-10-07 | 株式会社ドワンゴ | コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム |
WO2023088309A1 (zh) * | 2021-11-19 | 2023-05-25 | 北京有竹居网络技术有限公司 | 用于改写叙事性文本的方法、设备、装置和介质 |
WO2023100594A1 (ja) * | 2021-12-03 | 2023-06-08 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP7584996B2 (ja) | 2020-10-29 | 2024-11-18 | 京セラ株式会社 | 仮想イベントシステム、情報処理装置、出力制御方法及びプログラム |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07182365A (ja) * | 1993-12-24 | 1995-07-21 | Hitachi Ltd | マルチメディア会議録作成支援装置および方法 |
JP2000124901A (ja) * | 1998-10-12 | 2000-04-28 | Fuji Xerox Co Ltd | 電子会議システムおよび情報処理装置ならびに記録媒体 |
JP2004312730A (ja) * | 2003-04-02 | 2004-11-04 | Genesys Telecommunications Lab Inc | ダイナミックな音声およびウェブ会議のスケジューリング、ブリッジング、同期化、および管理のための方法および装置 |
JP2006191647A (ja) * | 1994-09-30 | 2006-07-20 | Orange Sa | ネットワークベースの知的支援機構 |
JP2006301972A (ja) * | 2005-04-20 | 2006-11-02 | Mihatenu Yume:Kk | 電子秘書装置 |
JP2010074245A (ja) * | 2008-09-16 | 2010-04-02 | Nippon Telegr & Teleph Corp <Ntt> | 通話接続制御方法,通話接続制御装置,通話接続制御プログラムおよびその記録媒体 |
US20120059880A1 (en) * | 2007-05-24 | 2012-03-08 | Dany Sylvain | Method and Apparatus for Managing Communication Between Participants in a Virtual Environment |
CN102843541A (zh) * | 2011-06-21 | 2012-12-26 | 米特尔网络公司 | 会议呼叫用户界面及其方法 |
JP2014204412A (ja) * | 2013-04-10 | 2014-10-27 | 沖電気工業株式会社 | 情報処理装置及びプログラム |
-
2016
- 2016-08-31 JP JP2016169691A patent/JP6729193B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07182365A (ja) * | 1993-12-24 | 1995-07-21 | Hitachi Ltd | マルチメディア会議録作成支援装置および方法 |
JP2006191647A (ja) * | 1994-09-30 | 2006-07-20 | Orange Sa | ネットワークベースの知的支援機構 |
JP2000124901A (ja) * | 1998-10-12 | 2000-04-28 | Fuji Xerox Co Ltd | 電子会議システムおよび情報処理装置ならびに記録媒体 |
JP2004312730A (ja) * | 2003-04-02 | 2004-11-04 | Genesys Telecommunications Lab Inc | ダイナミックな音声およびウェブ会議のスケジューリング、ブリッジング、同期化、および管理のための方法および装置 |
JP2006301972A (ja) * | 2005-04-20 | 2006-11-02 | Mihatenu Yume:Kk | 電子秘書装置 |
US20120059880A1 (en) * | 2007-05-24 | 2012-03-08 | Dany Sylvain | Method and Apparatus for Managing Communication Between Participants in a Virtual Environment |
JP2010074245A (ja) * | 2008-09-16 | 2010-04-02 | Nippon Telegr & Teleph Corp <Ntt> | 通話接続制御方法,通話接続制御装置,通話接続制御プログラムおよびその記録媒体 |
CN102843541A (zh) * | 2011-06-21 | 2012-12-26 | 米特尔网络公司 | 会议呼叫用户界面及其方法 |
JP2014204412A (ja) * | 2013-04-10 | 2014-10-27 | 沖電気工業株式会社 | 情報処理装置及びプログラム |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020080510A (ja) * | 2018-11-14 | 2020-05-28 | 新日本無線株式会社 | コミュニケーションシステム |
EP3716038A1 (en) * | 2019-03-25 | 2020-09-30 | Nokia Technologies Oy | An apparatus, method, computer program or system for indicating audibility of audio content rendered in a virtual space |
WO2020193269A1 (en) * | 2019-03-25 | 2020-10-01 | Nokia Technologies Oy | An apparatus, method, computer program or system for indicating audibility of audio content rendered in a virtual space |
JP7293816B2 (ja) | 2019-04-02 | 2023-06-20 | 富士通株式会社 | 会話分析装置、会話分析方法および会話分析プログラム |
JP2020170310A (ja) * | 2019-04-02 | 2020-10-15 | 富士通株式会社 | 会話分析装置、会話分析方法および会話分析プログラム |
JP7584996B2 (ja) | 2020-10-29 | 2024-11-18 | 京セラ株式会社 | 仮想イベントシステム、情報処理装置、出力制御方法及びプログラム |
WO2022145060A1 (ja) * | 2020-12-28 | 2022-07-07 | 株式会社日立システムズ | 情報処理システムおよび情報処理方法 |
WO2022180856A1 (ja) * | 2021-02-26 | 2022-09-01 | 株式会社I’mbesideyou | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム |
WO2022180857A1 (ja) * | 2021-02-26 | 2022-09-01 | 株式会社I’mbesideyou | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム |
WO2022180854A1 (ja) * | 2021-02-26 | 2022-09-01 | 株式会社I’mbesideyou | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム |
JP7150114B1 (ja) | 2021-09-02 | 2022-10-07 | 株式会社ドワンゴ | コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム |
WO2023032736A1 (ja) * | 2021-09-02 | 2023-03-09 | 株式会社ドワンゴ | コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム |
JP2023036147A (ja) * | 2021-09-02 | 2023-03-14 | 株式会社ドワンゴ | コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム |
WO2023088309A1 (zh) * | 2021-11-19 | 2023-05-25 | 北京有竹居网络技术有限公司 | 用于改写叙事性文本的方法、设备、装置和介质 |
WO2023100594A1 (ja) * | 2021-12-03 | 2023-06-08 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6729193B2 (ja) | 2020-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6729193B2 (ja) | 情報処理サーバ、情報処理システム、端末装置、及びプログラム | |
JP5559691B2 (ja) | 音声及びビデオ通信のための機能向上したインタフェース | |
CN101902356B (zh) | 使用图形连接隐喻管理通信会话的呼入请求的系统和方法 | |
WO2022086954A1 (en) | Methods and systems for simulating in-person interactions in virtual environments | |
JP6070783B2 (ja) | 情報処理装置、プログラム及び情報処理方法 | |
US20130174059A1 (en) | Communicating between a virtual area and a physical space | |
US9432621B2 (en) | Techniques for interfacing a user to an online meeting | |
JP4391691B2 (ja) | コンピュータネットワーク | |
CN106257355A (zh) | 设备控制方法和控制器 | |
US20160219147A1 (en) | Visual assistance systems and related methods | |
US11237794B2 (en) | Information processing device and information processing method | |
WO2013181026A1 (en) | Interfacing with a spatial virtual communications environment | |
JP6149474B2 (ja) | 情報処理装置及びプログラム | |
JP6575561B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20160316054A1 (en) | Communication device, method, and program | |
JP5529617B2 (ja) | 遠隔会議装置、遠隔会議方法、および遠隔会議プログラム | |
JP6787078B2 (ja) | 通信装置、方法およびプログラム | |
KR20200112157A (ko) | 인공지능을 가지는 음향 출력 장치 및 그 구동방법 | |
CN114926614B (zh) | 一种基于虚拟世界和现实世界的信息交互系统 | |
US11908059B2 (en) | Devices and related methods for providing environments | |
JP6540732B2 (ja) | 情報処理装置、情報処理方法、プログラム、及び、情報処理システム | |
JP2024011488A (ja) | 仮想空間におけるコミュニケーションシステム | |
JP6547467B2 (ja) | コミュニケーション支援装置、コミュニケーション支援方法、プログラムおよびコミュニケーション支援システム | |
JP2024011489A (ja) | 仮想空間システム | |
JP2023092307A (ja) | 端末装置、プログラム、及び端末装置の動作方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190327 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200408 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200615 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6729193 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |