JP2019220067A - 会議システム、会議サーバ及びプログラム - Google Patents

会議システム、会議サーバ及びプログラム Download PDF

Info

Publication number
JP2019220067A
JP2019220067A JP2018118778A JP2018118778A JP2019220067A JP 2019220067 A JP2019220067 A JP 2019220067A JP 2018118778 A JP2018118778 A JP 2018118778A JP 2018118778 A JP2018118778 A JP 2018118778A JP 2019220067 A JP2019220067 A JP 2019220067A
Authority
JP
Japan
Prior art keywords
conference
information processing
unit
workspace
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018118778A
Other languages
English (en)
Other versions
JP7047626B2 (ja
Inventor
ラチット ガラグ
Rachit Garg
ラチット ガラグ
一晃 金井
Kazuaki Kanai
一晃 金井
利行 前島
Toshiyuki Maejima
利行 前島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2018118778A priority Critical patent/JP7047626B2/ja
Priority to US16/448,811 priority patent/US11019116B2/en
Publication of JP2019220067A publication Critical patent/JP2019220067A/ja
Application granted granted Critical
Publication of JP7047626B2 publication Critical patent/JP7047626B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/765Media network packet handling intermediate

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】会議の参加者だけに限定してワークスペースを割当てることができる会議システム、会議サーバ及びプログラムを提供する。【解決手段】会議システム1において、グループ化部31は、パーソナルデバイス2A、・・・の特徴抽出部22により会議が開催される会議室に特有の情報から抽出された特徴をパーソナルデバイス毎に比較して、特徴が類似する複数のパーソナルデバイスをグループ化する。割当部32は、グループ化されたグループ毎に、複数のパーソナルデバイスがアクセス可能なワークスペース24を割当てる。そして、ワークスペースを割当てた複数のパーソナルデバイスに対して、ワークスペースに複数のパーソナルデバイスがアクセス可能とするためのワークスペースに関する情報を通知する。パーソナルデバイスは、ワークスペースに関する情報に基づいてパーソナルデバイスに割当てられたワークスペースにアクセスする。【選択図】図1

Description

本発明は、会議システム、会議サーバ及びプログラムに関する。
近年、会議に関連するワークスペースを提供するためのソフトウェアソリューションが多く登場している。ワークスペースとは、例えば、会議の参加者だけが参照可能な資料を共有することが可能な仮想的な空間のことであり、会議毎に会議の参加者に割当てられる。将来的には、会議に関連する各種の情報を共有するために、ワークスペースを提供可能なソフトウェアの使用が増加することが期待される。
ワークスペースを利用する会議の参加者は、会議の主催者が会議毎に作成する共通のワークスペースにアクセスする必要がある。しかし、現在は、会議の参加者が会議室に集まっていたとしても、各参加者が、会社ID又は電子メールアドレス等の参加者を識別するための情報を入力して、どのワークスペースにアクセス可能であるのか検索しなければならない。このため、会議の参加者がワークスペースにアクセスするまでの手間がかかっていた。そこで、会議の参加者を自動的に識別して、ワークスペースに自動的に参加することが可能な仕組みが望まれていた。
特許文献1には、会議参加者の近接を使用して会議への参加を開始する技術が開示されている。この技術では、ホストデバイス又は他のデバイスが、会議参加者の存在を検出すると、会議に参加するための招待状が会議参加者に送信される。
特許文献2には、発信側の端末から着信側の端末へ通話を要求する発信信号を検出すると、発信信号から、複数の端末が属するグループを識別するグループ識別子と、そのグループに属する端末のいずれかを識別する端末識別子とを抽出し、抽出されたグループ識別子及び端末識別子により識別可能な端末を着信側の端末として呼び出す技術が開示されている。
米国特許第9495663号明細書 特開2013−223019号公報
特許文献1及び2に開示された技術では、会議の参加者がワークスペースに自動的に参加するためには、会議室の中にホストデバイス(Bluetooth(登録商標)ビーコン、WiFi(登録商標)ルーターなどのトランシーバー)ような外部装置を置いて事前にセットアップする作業が必要となる。このため、会議室毎にホストデバイスを用意するための費用がかかる他、会議室にホストデバイスを設置する作業の手間がかかっていた。
また、会議参加者が使用するホストデバイスから発信される電波を検出することで、特定の会議室にいる会議参加者をワークスペースにアクセスさせる技術を用いると、他の会議室にいる第三者が使用するホストデバイスが発信する電波を検出することがある。例えば、会議には参加していない他の者が使用するホストデバイスから発信された電波信号を捕捉すると、第三者が使用するホストデバイスにもワークスペースが割り当てられる可能性がある。この場合、会議に参加していない第三者がワークスペースにアクセスすることで、会議の参加者だけで共有すべき資料が、第三者に漏洩する恐れがある。
また、会議の参加者のうち、何人かがビデオ会議システムにより会議室から離れた場所から参加する場合がある。このとき、会議室から離れた場所にいる参加者を特定することができず、この参加者はワークスペースに割当てられないので、会議資料を共有することができない。
本発明はこのような状況に鑑みて成されたものであり、会議の参加者だけに限定してワークスペースを割当てることを目的とする。
上述した目的のうち少なくとも一つを実現するために、本発明の一側面を反映した会議システムは、会議の参加者により用いられる情報処理装置毎に、会議が開催されるエリアに特有の情報を取得する情報取得部と、情報処理装置毎に取得された特有の情報から特徴を抽出する特徴抽出部と、特徴を情報処理装置毎に比較して、特徴が類似する複数の情報処理装置をグループ化するグループ化部と、グループ化されたグループ毎に、複数の情報処理装置がアクセス可能なワークスペースを割当て、ワークスペースを割当てた複数の情報処理装置に対して、ワークスペースに複数の情報処理装置がアクセス可能とするためのワークスペースに関する情報を通知する割当部と、を備え、情報処理装置は、ワークスペースに関する情報に基づいて情報処理装置に割当てられたワークスペースにアクセスする。
なお、上記の会議システムは本発明の一態様であり、本発明の一側面を反映した会議サーバ、プログラムについても、本発明の一側面を反映した会議システムと同様の構成を有する。
本発明によれば、会議が開催されるエリアに特有の情報から抽出した特徴が類似する複数の情報処理装置毎にワークスペースを割当てるため、会議に参加していない第三者が使用する情報処理装置がワークスペースにアクセスすることを防ぐことができる。また、会議の参加者が使用する情報処理装置は自動的にワークスペースにアクセス可能であるため、会議の参加者はセットアップ等の手間を掛けなくて済む。
上記した以外の課題、構成及び効果は、以下の実施の形態の説明により明らかにされる。
本発明の第1の実施の形態に係る会議システムの全体構成例を示すブロック図である。 本発明の第1の実施の形態に係る会議システムの全体処理の例を示すフローチャートである。 本発明の第1の実施の形態に係る会議室1にいる参加者が参加する会議において、参加者が使用するパーソナルデバイスにワークスペースが割当てられる処理の例を示すシーケンス図である。 本発明の第1の実施の形態に係るパーソナルデバイス毎に特徴抽出部が抽出したテキストデータの例を示す説明図である。 本発明の第1の実施の形態に係る会議室2にいる参加者が参加する会議において、参加者が使用するパーソナルデバイスにワークスペースが割当てられる処理の例を示すシーケンス図である。 本発明の第1の実施の形態に係るパーソナルデバイス毎に特徴抽出部が音声データから抽出したテキストデータの例を示す説明図である。 本発明の第1の実施の形態に係るグループ化部がタイムスタンプの近い特徴データをグループ化する処理の例を示す説明図である。 本発明の第1の実施の形態に係る類似度行列の構成例を示す説明図である。 本発明の第1の実施の形態に係る各パーソナルデバイスが割当てられるワークスペースの例を示す説明図である。 本発明の第2の実施の形態に係る会議システムの全体構成例を示すブロック図である。 本発明の第2の実施の形態に係る会議室1にいる参加者が参加する会議において、各参加者が使用するパーソナルデバイスにワークスペースが割当てられる処理の例を示すシーケンス図である。 本発明の第4の実施の形態に係るビデオ会議システムにより遠隔地から会議に参加する参加者がいた場合に割当てられるワークスペースの例を示す全体構成図である。 本発明の第5の実施の形態に係る音声アシスタント装置が設けられた会議室1の様子を表す会議システムの全体構成図である。 本発明の第1〜第5の実施の形態に係る計算機のハードウェア構成例を示すブロック図である。
以下、本発明を実施するための形態例について、添付図面を参照して説明する。本明細書及び図面において、実質的に同一の機能又は構成を有する構成要素については、同一の符号を付することにより重複する説明を省略する。
[第1の実施の形態]
始めに、本発明の第1の実施の形態に係る会議システムの構成例について説明する。
図1は、会議システム1の全体構成例を示すブロック図である。
会議システム1は、3台のパーソナルデバイス2A、2C、2E(情報処理装置の一例)と、パーソナルデバイス2A、2C、2Eに対してLAN(Local Area Network)等のネットワークNを介して接続される会議サーバ3(会議サーバの一例)とを備える。なお、会議サーバ3の処理により、パーソナルデバイス2A、2C、2Eで起動するプログラムが異なることを示すため、図中の左側と右側に同じパーソナルデバイス2A、2C、2Eを表す。
パーソナルデバイス2A、2C、2Eは、それぞれ会議の参加者10A、10C、10Eにより使用される。参加者10A、10C、10Eは、それぞれパーソナルデバイス2A、2C、2Eを持参して、会議が行われる共通の場所に集まる。本明細書において、例えば、ノートPC、タブレット、スマートフォン、スマートウォッチ等の電子機器を総称して「パーソナルデバイス」と呼ぶ。なお、スマートフォン、スマートウォッチは、主に会議参加者の音声を取得するために用い、スマートフォン、スマートウォッチにワークスペースが割当てられると、スマートフォン、スマートウォッチに関連付けられたノートPC、タブレット等がワークスペースにアクセスしてもよい。本明細書で用いられる各パーソナルデバイスの主要な構成はいずれも同じであるため、以下の説明で各パーソナルデバイスを区別しない場合には、「パーソナルデバイス2」と呼ぶ。また、参加者10A、10C、10Eを区別しない場合には、「参加者10」と呼ぶ。
パーソナルデバイス2Aの内部構成例について説明する。
パーソナルデバイス2Aでは、アプリケーション20が起動される。アプリケーション20は、情報取得部21、特徴抽出部22及び通信部23を備える。
アプリケーション20は、パーソナルデバイス2Aにプリインストールされたプログラムである。参加者10Aは、アプリケーション20にログインした状態である。アプリケーション20の制御により、情報取得部21、特徴抽出部22及び通信部23が動作する。
情報取得部21は、会議の参加者10A、10C、10Eにより用いられるパーソナルデバイス2毎に、会議が開催される会議室(エリアの一例)に特有の情報として、会議室にいる参加者10A、10C、10Eが発話した音声を変換した音声データを取得する。ここで、音声は、パーソナルデバイス2Aに内蔵されるマイクロフォンが集音したアナログデータである。このため、情報取得部21は、アナログデータをデジタル化した音声データに変換して、特徴抽出部22に音声データを出力する。
特徴抽出部22は、パーソナルデバイス2毎に取得された特有の情報から特徴を抽出する。ここで、特徴抽出部22は、情報取得部21から入力した音声データをテキストデータに変換し、このテキストデータを解析して、参加者10A、10C、10Eが発話した内容を表す音声の特徴を抽出する。音声の特徴は、テキストデータから抽出される所定期間の文字列により表される。
通信部23は、特徴抽出部22が抽出した音声の特徴を示す特徴データを、ネットワークNを通じて会議サーバ3に送信する。会議サーバ3にアクセス可能なURL(Uniform Resource Locator)等は、アプリケーション20が予め保持している。
会議室内でパーソナルデバイス2A、2C、2Eが置かれる位置により、話者が発話した内容の音量が変わるが、パーソナルデバイス2A、2C、2Eの情報取得部21が集音する音声と、特徴抽出部22が抽出する音声の特徴はいずれも同じか類似する。そして、パーソナルデバイス2C、2Eも通信部23を通じて会議サーバ3に音声の特徴データを送信する。
会議サーバ3は、会議毎に参加者10を特定し、会議で使用される資料等を閲覧可能なワークスペースをパーソナルデバイス2に割当てる機能を持つ。この会議サーバ3は、例えばクラウド化されたサービスであり、多数のパーソナルデバイス2が会議サーバ3との間で様々なデータを送受信することが可能である。そして、会議サーバ3は、ワークスペースへのアクセスを許可したパーソナルデバイス2が、会議サーバ3からパーソナルデバイス2に通知するワークスペースに関する情報を用いて会議サーバ3にアクセスした際に、このパーソナルデバイス2にワークスペースを提供する。この会議サーバ3は、グループ化部31、割当部32、通信部33及び記憶部34を備える。
グループ化部31は、特徴抽出部22により抽出された音声の特徴をパーソナルデバイス2毎に比較して、特徴が類似する複数のパーソナルデバイス2をグループ化する。ここで、グループ化部31は、特徴として抽出された文字列を、機械学習、又は文字列照合アルゴリズムによりパーソナルデバイス2毎に比較して、文字列が類似するパーソナルデバイス2をグループ化する。例えば、グループ化部31は、パーソナルデバイス2A、2C、2Eから受信した音声の特徴データを比較して、パーソナルデバイス2A、2C、2Eが同じ会議室で使用されているか判断する。グループ化部31は、パーソナルデバイス2A、2C、2Eが同じ会議室で使用されていると判断すると、パーソナルデバイス2A、2C、2Eをグループ化する。なお、本実施の形態では、グループ化部31は、文字列の特徴が類似するパーソナルデバイス2をグループ化するが、文字列の特徴が同一であるパーソナルデバイス2もグループ化することが可能である。
割当部32は、グループ化部31によりグループ化されたグループ毎に、複数のパーソナルデバイス2がアクセス可能なワークスペースを割当てる。例えば、割当部32は、グループ化部31によりグループ化されたパーソナルデバイス2に対して、参加者10A、10C、10Eが共通して資料を閲覧可能なワークスペースを割当てる。そして、割当部32は、ワークスペースにアクセス可能とするためのワークスペースに関する情報をパーソナルデバイス2A、2C、2Eに通知する。
通信部33は、ネットワークNを介してパーソナルデバイス2A、2C、2Eが備える通信部23と通信を行って、各種のデータを互いに送受信することが可能である。例えば、通信部33は、パーソナルデバイス2A、2C、2Eから特徴データを受信する。また、通信部33は、割当部32により通知されるワークスペースに関する情報をパーソナルデバイス2A、2C、2Eに送信する。
記憶部34は、通信部33が受信したパーソナルデバイス2A、2C、2Eの特徴データを記憶する。また、記憶部34は、グループ化部31が、各特徴データの類似性を判断するために参照する閾値も記憶する。
なお、図1では不図示とするが、他の会議に参加する参加者により使用されるパーソナルデバイス2からも音声の特徴データが送信される。この場合、通信部33は、他の会議に参加する参加者により使用されるパーソナルデバイス2から特徴データを受信し、グループ化部31が、他の会議に参加する参加者が使用するパーソナルデバイス2をグループ化する。そして、割当部32は、他の会議に参加する参加者が共通して資料を閲覧可能な別のワークスペースを割当て、他の会議に参加する参加者により使用されるパーソナルデバイス2に対して、割当部32が割当てたワークスペースに関する情報を通知する。
パーソナルデバイス2A、2C、2Eは、通信部23が会議サーバ3から受信した、ワークスペースに関する情報に基づいてパーソナルデバイス2A、2C、2Eに割当てられたワークスペースにアクセスすることが可能となる。ここで、パーソナルデバイス2A、2C、2Eは、ネイティブアプリケーション、又はウェブブラウザを経由して、割当部32により割当てられたワークスペースにアクセスするためのワークスペースアプリケーション24を起動する。ネイティブアプリケーションとは、パーソナルデバイス2A、2C、2E側で稼働するアプリケーションであり、図1に示すワークスペースアプリケーション24である。また、パーソナルデバイス2A、2C、2Eで表示されるウェブブラウザを通じてアクセスした会議サーバ3のサイト上で、ワークスペースアプリケーション24を起動することも可能である。パーソナルデバイス2A、2C、2Eは、ワークスペースアプリケーション24を通じてアクセスしたワークスペースに保管されている、会議で利用可能な会議情報(資料等)をパーソナルデバイス2A、2C、2Eに設けられた表示部に表示する。これにより会議の参加者はワークスペースから会議情報を閲覧することが可能となる。
図2は、会議システム1の全体処理の例を示すフローチャートである。
始めに、会議室にいる参加者10の誰かが発言を開始すると、パーソナルデバイス2は、内蔵のマイクロフォンを通じて情報取得部21が取得した音声を音声データに変換して録音する(S1)。なお、会議室にいる参加者10は、各自が少なくとも1台ずつパーソナルデバイス2を会議室に持ち込んでいるものとする。また、1人の参加者10が、複数台のパーソナルデバイス2(例えば、パーソナルコンピューター、スマートフォン)を持ち込んで、複数台のパーソナルデバイス2でアプリケーション20を起動していてもよい。
次に、特徴抽出部22は、録音された音声データから音声の特徴を抽出する(S2)。音声の特徴とは、例えば、会議の開始時に行われる挨拶の文言等を含むテキストデータである。そして、通信部23は、抽出した音声の特徴を含む特徴データを会議サーバ3に送信する(S3)。
会議サーバ3の通信部33は、特徴データを受信する(S4)。グループ化部31は、パーソナルデバイス2から受信した特徴データを、記憶部34に記憶される特徴データと比較する(S5)。最初に記憶部34に記憶される特徴データは、グループ化部31がパーソナルデバイス2から受信した特徴データと比較するための基準データとして用いられる。そして、グループ化部31は、全てのパーソナルデバイス2から送信された特徴データに対して、基準データとの比較を行う。この比較に際して、グループ化部31は、パーソナルデバイス2から受信した特徴データが、記憶部34に記憶される特徴データ(基準データ)と一致するか否かを判断する(S6)。特徴データは、複数の特徴データ、すなわち特徴データと基準データとの類似度が閾値を超えた場合に一致すると判断される。
ところで、最初に会議サーバ3が特徴データを受信した際、記憶部34には基準データが記憶されていない。このため、パーソナルデバイス2から受信した特徴データは、記憶部34に記憶される特徴データと一致しない。そこで、グループ化部31は、特徴データを送信したパーソナルデバイス2をグループ化せず、割当部32は、この特徴データを送信したパーソナルデバイス2に対して新しいワークスペースを割当てる(S7)。そして、最初に会議サーバ3が受信した特徴データを基準データとして記憶部34に記憶する。
その後、会議サーバ3が特徴データを受信することで、グループ化部31は、新たに受信した特徴データと、記憶部34に記憶した特徴データ(基準データ)を比較し、新たに特徴データを送信したパーソナルデバイス2をグループ化することが可能となる。そして、ステップS7にて新しいワークスペースに割当てられたパーソナルデバイス2の特徴データ(基準データ)と、後で会議サーバ3が受信した特徴データとが一致する場合、割当部32は、後で会議サーバ3に特徴データを送信したパーソナルデバイス2を、既存のワークスペースに割当てる(S8)。
その後、通信部33は、割当部32により割当てられたワークスペースに関する情報を、特徴データを送信したパーソナルデバイス2に送信する(S9)。ワークスペースに関する情報として、例えば、パーソナルデバイス2がワークスペースにアクセスするためのURL、ログイン情報等がある。パーソナルデバイス2は、会議サーバ3から受信したワークスペースに関する情報に基づいて、会議サーバ3に用意されたワークスペースにアクセスすることができる。
なお、会議サーバ3は、複数台のパーソナルデバイス2から送信された複数の特徴データを同時に受信することがある。この場合、会議サーバ3は、同時に受信した複数の特徴データを記憶部34に記憶しておき、グループ化部31が、これら複数の特徴データを比較して、特徴データが一致するか否かを判断する。そして、一致する場合には、複数の特徴データから選択した一つの特徴データを基準データとして記憶部34に記憶し、図2に示すフローチャートの処理を行う。
次に、参加者10A、10C、10Eが参加する会議で用いられるパーソナルデバイス2と、参加者10B、10D、10Eが参加する会議とで用いられるパーソナルデバイス2に対して、それぞれ異なるワークスペースが割当てられる処理の例について、図3〜図6を参照して説明する。参加者10A、10C、10Eは会議室1に集まり、参加者10B、10D、10Fは会議室2に集まってそれぞれの会議を行うものとする。図中では、参加者10A、10C、10Eが使用するパーソナルデバイス2をそれぞれ「デバイスA」、「デバイスC」、「デバイスE」と略記する。同様に、参加者10B、10D、10Fが使用するパーソナルデバイス2をそれぞれ「デバイスB」、「デバイスD」、「デバイスF」と略記する。
始めに、会議室1にいる参加者10A、10C、10EにワークスペースXが割当てられるまでの処理について説明する。
図3は、会議室1にいる参加者10A、10C、10Eが参加する会議において、各参加者が使用するパーソナルデバイス2A、2C、2EにワークスペースXが割当てられる処理の例を示すシーケンス図である。
始めに、パーソナルデバイス2A、2C、2Eがそれぞれアプリケーション20を開始する(S11A、S11C、S11E)。各パーソナルデバイス2のアプリケーション20が開始された後、会議室1の参加者の一人が「Hello, good evening everyone」と発話する。パーソナルデバイス2A、2C、2Eの情報取得部21がそれぞれ音声を取得し、音声データに変換する(S12A、S12C、S12E)。
そして、パーソナルデバイス2A、2C、2Eの特徴抽出部22がそれぞれ音声データから発話の特徴を抽出してテキストデータに変換する(S13A、S13C、S13E)。
ここで、特徴抽出部22により音声データから抽出されるテキストデータについて説明する。
図4は、パーソナルデバイス2毎に特徴抽出部22が抽出したテキストデータの例を示す説明図である。図4に示す表は、パーソナルデバイス2のデバイス名と、タイムスタンプ付きで抽出されたテキストデータの項目を備える。
デバイス名項目には、パーソナルデバイス2A、2C、2Eのデバイス名が格納される。
タイムスタンプ付きで抽出されたテキストデータの項目には、特徴抽出部22が音声データから発話の特徴としてテキストデータの抽出を開始した時点をTstartとし、テキストデータの抽出を終了した時点をTendとした区間内で抽出されたテキストデータの例が示される。
startとTendは、共に無音となった瞬間であるが、例えば、会議の開始から一定時間後にTstartとTendを設定しておき、発話の途中から特徴抽出部22がテキストデータを抽出してもよい。また、Tstartより前、Tendより後は、特徴抽出部22がテキストデータを抽出する必要がない区間であり、発話内容が限定されないため、図中に「something」と記載される。
この例では、パーソナルデバイス2Aの特徴抽出部22が音声データから「Hello good evening everyone」を抽出し、パーソナルデバイス2Cの特徴抽出部22が音声データから「Hello good evening everyone」を抽出し、パーソナルデバイス2Eの特徴抽出部22が音声データから「Hello good evening one」を抽出したことが示される。音声データから抽出された特徴データには、TstartとTendのタイムスタンプが付与される。
そして、参加者10B、10D、10Fが用いるパーソナルデバイス2側の特徴抽出部22は、音声−テキスト認識API(Application Programming Interface)を使用して、音声データをテキストデータに変換する。ただし、パーソナルデバイス2のスピーカからの距離、及び情報取得部21が取得する音声の品質によって、各パーソナルデバイス2の特徴抽出部22が音声データから抽出する単語はわずかに異なる。各パーソナルデバイス2の特徴抽出部22は、抽出した単語は、参加者10が文章を話す前後に発生する無音区間により区切った複数の単語のグループをテキストデータに変換し、さらに、テキストデータにタイムスタンプを添付して特徴データを作成する。そして、通信部23から会議サーバ3に特徴データが送信される。なお、特徴抽出部22は、無音区間で単語を区切らなくてもよく、予め定めた時刻で参加者10が話したときの音声をテキストデータに変換してもよい。
ここで、通信部23から会議サーバ3に送信される特徴データの形式を以下に示す。
参加者情報+テキストデータ+HHMMSS(Tstartの時分秒)+HHMMSS(Tendの時分秒)
参加者情報項目は、パーソナルデバイス2を特定する情報である。参加者情報には、例えば、アプリケーション20にログインしたときのログインID等が含まれる。
テキストデータ項目は、特徴抽出部22により音声データから所定期間分だけ抜き出したテキストデータの一部分である。
HHMMSS(Tstartの時分秒)は、特徴抽出部22がテキストデータを抜き出す所定期間の開始タイミングを表す。
HHMMSS(Tendの時分秒)は、特徴抽出部22がテキストデータを抜き出す所定期間の終了タイミングを表す。
再び図3の説明に戻る。
各パーソナルデバイス2の通信部23は、特徴抽出部22が抽出した特徴データを会議サーバ3に送信する(S14A、S14C、S14E)。会議サーバ3の通信部33は、各パーソナルデバイス2から送信された特徴データを受信する(S15)。
会議サーバ3のグループ化部31は、通信部33が各パーソナルデバイス2から受信した特徴データの類似性を判定し、特徴データを分類する(S16)。会議サーバ3は、参加者10が使用するパーソナルデバイス2が各会議室のどの位置に置かれているかを事前に知ることができないので、会議サーバ3に接続される全てのデバイスから受信するテキストデータの類似性を判定する必要がある。そこで、グループ化部31は、会議室1にいる参加者10が発話した内容を比較するために、多数のパーソナルデバイス2から送信された特徴データのうち、タイムスタンプが近いテキストデータを複数の特徴データから選択する。これによりグループ化部31は、タイムスタンプが近いテキストデータを比較対象とすることができるので、比較に要する時間を低減することができる。
次に、グループ化部31は、類似性が高い特徴データを送信したパーソナルデバイス2A、2C、2Eを1つのグループに分類し(グループ化)、割当部32は、このグループに固有のワークスペースXを割当てる(S17)。
そして、割当部32は、通信部33を通じて、パーソナルデバイス2A、2C、2Eに割当てたワークスペースXに関する情報を通知する(S18A、S18C、S18E)。パーソナルデバイス2A、2C、2Eは、割当部32から通知された情報に基づいてワークスペースXにアクセスし、資料等を表示することが可能となる。このため、会議の参加者10A、10C、10Eは、会議で用いられる資料を閲覧することができる。
次に、会議室2にいる参加者10B、10D、10FにワークスペースYが割当てられるまでの処理について説明する。
図5は、会議室2にいる参加者10B、10D、10Fが参加する会議において、各参加者が使用するパーソナルデバイス2B、2D、2FにワークスペースYが割当てられる処理の例を示すシーケンス図である。
図5に示すシーケンス図は、図3に示したシーケンス図とほぼ同じである。始めに、パーソナルデバイス2B、2D、2Fがそれぞれアプリケーション20を開始する(S11B、S11D、S11F)。会議室2にいる参加者10B、10D、10Fのうちの1人が、「Hello, let's start the meeting」と発話したとする。パーソナルデバイス2B、2D、2Fの情報取得部21がそれぞれ音声を取得し、音声データに変換する(S12B、S12D、S12F)。
そして、パーソナルデバイス2B、2D、2Fの特徴抽出部22がそれぞれ音声データから発話の特徴を抽出してテキストデータに変換する(S13B、S13D、S13F)。
図6は、パーソナルデバイス2毎に特徴抽出部22が音声データから抽出したテキストデータの例を示す説明図である。図6に示す表は、パーソナルデバイス2のデバイス名と、タイムスタンプ付きで抽出されたテキストデータの項目を備える。図6に示すこれらの項目は、図4に示した表の項目と同じである。
図6では、パーソナルデバイス2B、2Dの特徴抽出部22が音声データから「Hello let’s start the meeting」を抽出し、パーソナルデバイス2Fの特徴抽出部22が音声データから「Bello let’s start meeting」を抽出したことが示される。音声データから抽出された特徴データには、TstartとTendのタイムスタンプが付与される。
再び図5の説明に戻る。
各パーソナルデバイス2の通信部23は、特徴抽出部22が抽出した特徴データを通信部23が会議サーバ3に送信する(S14B、S14D、S14F)。会議サーバ3で行われるステップS15〜S16の処理は、図3に示した処理と同様であるため説明を省略する。そして、会議サーバ3のグループ化部31は、類似性が高い特徴データを送信したパーソナルデバイス2B、2D、2Fを1つのグループに分類し(グループ化)、割当部32は、このグループに対して、固有のワークスペースYを割当てる(S17)。
そして、割当部32は、通信部33を通じて、パーソナルデバイス2B、2D、2Fに割当てたワークスペースYに関する情報を通知する(S18B、S18D、S18F)。パーソナルデバイス2B、2D、2Fは、割当部32から通知された情報に基づいてワークスペースYにアクセスし、資料等を表示することが可能となる。このため、会議の参加者10B、10D、10Fは、会議で用いられる資料を閲覧することができる。
ここで、グループ化部31がテキストデータの類似性を判定する際に行われる処理について説明する。
図7は、グループ化部31がタイムスタンプの近い特徴データをグループ化する処理の例を示す説明図である。グループ化部31は、例えば、参加者10Aの特徴データを、他の参加者10の特徴データと比較する。
グループ化部31は、情報取得部21により音声が取得された時刻を表すタイムスタンプが付加された特徴を記憶部34に記憶し、他の情報取得部21により音声が取得された時刻を表すタイムスタンプが付加された特徴と、記憶部34に記憶され、タイムスタンプが近い特徴とを比較して類似度を求める。例えば、グループ化部31は、パーソナルデバイス2Aから受信した特徴データの一例である、タイムスタンプが付されたテキストデータからタイムスタンプを分離する。そして、グループ化部31は、テキストデータを語句単位に分解する。図中では、テキストデータを分解した語句を、語句1、語句2、…語句nと記載する。また、グループ化部31は、パーソナルデバイス2A以外の他のパーソナルデバイス2B〜2Nから受信した特徴データに含まれるテキストデータについても語句単位に分解する。
そして、グループ化部31は、パーソナルデバイス2Aから受信したタイムスタンプの近傍にあるテキストデータ、すなわち参加者10Aが発話したタイミングとほぼ同じタイミングで集音された音声のテキストデータを複数のテキストデータから選択する。なお、異なる会議室で発話されたタイミングがほぼ同じとなる場合もある。このため、グループ化部31は、パーソナルデバイス2Aから受信したテキストデータを分解した語句と、各パーソナルデバイス2から受信したテキストデータを分解した語句とを順に比較する。デバイス毎に各語句を比較した結果は、類似度係数X1〜XNとして、参加者10B〜10Nに対して決定される。類似度係数は、“0”〜“1”の範囲で値を取り得る。類似度係数が“0”に近いほど、テキストデータから特徴として抽出される文字列の語句が類似しておらず、類似度係数が“1”に近いほど文字列の語句が類似していることを表す。
同じ会議室にあるパーソナルデバイス2から会議サーバ3に送信されるテキストデータには、ほぼ同じタイムスタンプが添付される。このため、グループ化部31は、ほぼ同じタイムスタンプが添付されたテキストデータだけを特徴データから抽出し、比較すればよい。これにより、会議サーバ3側では、異なるタイミングで抽出された多数の特徴データのテキストデータを比較対象としなくてよく、グループ化部31がテキストデータを比較する処理の回数を減らすことができる。
ここで、会議室1で開催される会議1と、会議室2で開催される会議2にいるそれぞれの参加者10がほぼ同じ時刻に発話を開始し、かつ発話を終了したとする。この場合、グループ化部31は、タイムスタンプが近いテキストデータを比較対象とする。このため、グループ化部31は、会議室1、2にある各パーソナルデバイス2から受信した特徴データから同じ期間で発話された音声を表すテキストデータを抽出する。ここで、情報取得部21により集音された音声をテキストデータに変換するアルゴリズムの出力が不正確であっても、同じ会議室で話された音声は音韻的に非常に類似する。
このため、グループ化部31は、類似する文字列を参加者10が発話した部分として識別することが可能な文字列照合アルゴリズムを用いて、複数のテキストデータを照合し、発話内容の類似性を判定することができる。文字列照合アルゴリズムとして、例えば、Levenshtein距離などの文字列一致アルゴリズムが使用される。そして、グループ化部31は、タイムスタンプが近い全てのテキストデータの類似度を計算し、類似度行列を作成する。
ここで、グループ化部31がテキストデータの類似度を計算するために用いる類似度行列について説明する。
図8は、類似度行列の構成例を示す説明図である。この類似度行列は、会議室1にあるパーソナルデバイス2A、2C、2Eと、会議室2にあるパーソナルデバイス2B、2D、2Fを表す「A」〜「F」の符号をそれぞれ縦軸及び横軸に配置して構成される。縦軸及び横軸が交差するセルには、グループ化部31が、2つのパーソナルデバイス2間で比較したテキストデータから求めた類似度係数が格納される。
グループ化部31は、パーソナルデバイス2毎に特徴を比較した結果である類似度を格納する類似度行列を作成し、類似度が閾値よりも高いパーソナルデバイス2を、特徴が類似するパーソナルデバイス2としてグループ化する。例えば、会議室1には、パーソナルデバイス2A、2C、2Eがある。このため、類似度行列においてパーソナルデバイス2A、2Cが交差するセルの類似度係数が“0.85”であり、パーソナルデバイス2A、2Eが交差するセルの類似度係数が“0.9”であるため、類似度係数が非常に高い。このため、パーソナルデバイス2A、2C、2Eは一つのグループに含めることができる。
一方、会議室1にあるパーソナルデバイス2Aと、会議室2にあるパーソナルデバイス2Bとが交差するセルの類似度係数が“0.1”であり、パーソナルデバイス2A、2Dが交差するセルの類似度係数が“0.15”である。このため、パーソナルデバイス2A、2B、2Dは一つのグループに含めることができない。
このように同じ会議室にあるパーソナルデバイス2から受信した音声の類似度係数は高くなるが、異なる会議室にあるパーソナルデバイス2から受信した音声の類似度係数は低くなる。ここで、図8の各セルのうち、類似度係数が閾値(例えば、“0.5”)を超えるセルを斜線で塗りつぶして表現する。そして、グループ化部31は、閾値を超える類似度係数が格納されるセルにより特定されるパーソナルデバイス2A、2C、2Eをグループ化し、割当部32が、このグループにワークスペースXを割当てる。同様に、グループ化部31は、閾値を超える類似度係数が格納されるセルにより特定されるパーソナルデバイス2B、2D、2Fをグループ化し、割当部32が、このグループにワークスペースYを割当てる。
図9は、各パーソナルデバイス2に割当てられるワークスペースの例を示す説明図である。
上述したように会議サーバ3のグループ化部31は、図8に示した類似度行列により、閾値を超える類似度係数により特定されるパーソナルデバイス2をグループ化し、割当部32がグループ毎にワークスペースを割当てる。そして、割当部32が割当てたワークスペースは、各パーソナルデバイス2に通知される。これにより、パーソナルデバイス2A、2C、2EがワークスペースXにアクセスすることが可能となる。
<比較データのサイズと閾値>
このように各パーソナルデバイス2から受信した音声の類似度係数を求めるが、複数の会議室にあるパーソナルデバイス2から同時に取得された音声入力が同じ内容である可能性がある。音声入力が同じ内容であれば、異なる会議室にあるパーソナルデバイス2を同じグループと認識してしまう。
異なる会議室にあるパーソナルデバイス2を同じグループと認識させないようにするには、比較データを長くする必要がある。ここで会議サーバ3は、会議サーバ3に接続された全てのパーソナルデバイス2からほぼリアルタイムでデータを受信する。上述したように会議サーバ3が比較データの類似性を算出するには、特徴抽出部22がテキストデータを抜き出す所定期間の開始タイミング(Tstart)と終了タイミング(Tend)とを必要とする。
ただし、テキストデータから抜き出す文字列が長いと、グループ化部31が各パーソナルデバイス2から受信した文字列をマッチングする処理の負荷がかかる。また、グループ化部31は、マッチング処理が完了するまでグループを分類できず、割当部32がワークスペースを割当てることもできないため、各パーソナルデバイス2がワークスペースに追加されるまでの待ち時間も長くなる。さらに、グループ化部31が長い文字列をマッチングするには、会議サーバ3の計算能力を向上させなければならない。
ただし、グループ化部31が、文字列をマッチングして、類似性を判断するには、4〜5語程度の文字列で十分である。4〜5語の文字列は、2〜3秒間の音声入力に相当する。そして、閾値は、パーソナルデバイス2をグループに分類するために予め定義される値であり、図8の類似度行列の例で示したように“0.5”程度であればよい。グループ化部31が文字列を比較する時間は、会議サーバ3が受信したテキストデータから抜き出す文字列の長さに反比例する。このため、文字列を比較する時間が長ければ低い閾値であっても、グループ化部31は、パーソナルデバイス2をグループ化することが可能である。
以上説明した第1の実施の形態に係る会議システム1では、会議室にある複数のパーソナルデバイス2にて音声データから抽出された特徴部分を変換して作成された特徴データが会議サーバ3に送信される。会議サーバ3は、各パーソナルデバイス2から受信した特徴データから抽出したテキストデータのうち、類似性が高いテキストデータに基づいてグループ化されたパーソナルデバイス2にワークスペースを割当てる。そして、会議サーバ3は、ワークスペースに関する情報をパーソナルデバイス2に通知する。このため、パーソナルデバイス2は、会議サーバ3から受信したワークスペースに関する情報に基づいて、ワークスペースに自動的にアクセスすることが可能となる。
このようにパーソナルデバイス2は自動的にワークスペースにアクセスできるので、ワークスペースを割当てるために用いる特別な外部装置を会議室にセットアップしなくてよい。また、会議の参加者が、ワークスペースにアクセスするために割当てられたIDを検索したり、参加者に事前に送信された電子メールからワークスペースにアクセスするための会議のIDを検索したりする必要がない。このように会議の参加者は、手間を掛けることなく、パーソナルデバイス2が自動的にアクセスしたワークスペースを通じて、会議で用いられる資料等を共有することができる。
各会議室は壁等で仕切られているため、会議室内でパーソナルデバイス2が集音する音声は、会議室内の参加者が話す内容に限られる。ただし、複数の会議室で同時に行われた会議において、各会議で行われる開始の挨拶等が同じ場合もある。しかし、会議の経過と共に、各会議の参加者が話す内容は異なる。このため、会議サーバ3は、会議の開始から所定時間の経過後に取得した音声データを変換したテキストデータを比較することで会議毎に用いられているパーソナルデバイス2を正確にグループ分けすることができる。そして、会議に参加していない第三者がワークスペースにアクセスすることを防ぐことができる。
また、各パーソナルデバイス2から会議サーバ3に送信される特徴データのデータ量は非常に小さい。このため、特徴データを伝送するために必要となる、各パーソナルデバイス2と会議サーバ3との間のネットワークNの帯域幅を狭くすることができる。
[第2の実施の形態]
次に、本発明の第2の実施の形態に係る会議システム1Aについて説明する。第2の実施の形態に係る会議システム1Aでは、各パーソナルデバイス2が音声データを送信し、会議サーバ3が音声データから抽出した特徴部分をテキストデータに変換する処理を行う。
図10は、会議システム1Aの全体構成例を示すブロック図である。
会議システム1Aが備えるパーソナルデバイス2A、2C、2Eは、情報取得部21と通信部23を備える。
また、会議サーバ3は、グループ化部31、割当部32、通信部33、記憶部34に加えて、特徴抽出部35を備える。特徴抽出部35の機能は、上述した第1の実施の形態に係るパーソナルデバイス2が備える特徴抽出部22の機能と同様である。
本実施の形態に係るパーソナルデバイス2は、情報取得部21により取得された音声を変換した音声データをそのまま通信部23を通じて会議サーバ3に送信する。
会議サーバ3の特徴抽出部35は、通信部33が受信した音声データから特徴を抽出して特徴データを作成する。そして、グループ化部31が、特徴データに基づいてパーソナルデバイス2をグループ化し、割当部32がグループ化されたグループ毎にワークスペースを割当てる。
図11は、会議室1にいる参加者10A、10C、10Eが参加する会議において、各参加者が使用するパーソナルデバイス2A、2C、2EにワークスペースXが割当てられる処理の例を示すシーケンス図である。
始めに、パーソナルデバイス2A、2C、2Eがそれぞれアプリケーション20を開始する(S21A、S21C、S21E)。各パーソナルデバイス2のアプリケーション20が開始された後、会議室1の参加者の一人が「say」と発話する。パーソナルデバイス2A、2C、2Eの情報取得部21がそれぞれ音声を取得し、音声データに変換する(S22A、S22C、S22E)。そして、パーソナルデバイス2A、2C、2Eの通信部23は、音声データを会議サーバ3に送信する(S23A、S23C、S23E)。
ここで、パーソナルデバイス2A、2C、2Eから会議サーバ3に送信される音声データの形式の例を以下に示す。
音声データ+参加者情報
第2の実施の形態に係る会議システム1Aでは、パーソナルデバイス2A、2C、2Eから会議サーバ3には、会議中に情報取得部21が取得した音声を変換した音声データが送信され続ける。このため、音声データには、参加者情報が付与されるものの、HHMMSS(Tstartの時分秒)及びHHMMSS(Tendの時分秒)は付与されない。ただし、この会議システム1Aで情報取得部21が取得する音声の内容は、例えば、会議の開始時に会議の主催者が話すコメント等が適切である。このため、会議の開始時に、アプリケーション20に設けられるスタートボタン等を主催者又は参加者が押すことで、例えば、5秒間だけ音声データが会議サーバ3に送信される。
会議サーバ3の通信部33は、パーソナルデバイス2A、2C、2Eから音声データを受信する(S24)。次に、会議サーバ3の特徴抽出部35は、受信した各音声データから特徴データを抽出する(S25)。そして、会議サーバ3のグループ化部31は、各音声データから抽出した特徴データの類似性を判定し、特徴データを分類する(S26)。
次に、グループ化部31は、類似性が高い特徴データを送信したパーソナルデバイス2A、2C、2Eをグループ化し、割当部32は、グループ化されたパーソナルデバイス2A、2C、2EにワークスペースXを割当てる(S27)。割当部32は、通信部33を通じて、パーソナルデバイス2A、2C、2Eに割当てたワークスペースXに関する情報を通知する(S28A、S28C、S28E)。パーソナルデバイス2A、2C、2Eは、割当部32から通知された情報に基づいてワークスペースXにアクセスし、資料等を表示することが可能となる。
以上説明した第2の実施の形態に係る会議システム1Aでは、各パーソナルデバイス2が音声データから特徴データを抽出することなく、音声データのまま会議サーバ3に送信する。そして、会議サーバ3が音声データから特徴データを抽出する。ここで、音声データから特徴データを抽出する処理は、CPU資源を消費する。このため、パーソナルデバイス2よりも高性能なCPUを備える会議サーバ3が音声データから特徴データを抽出することで、パーソナルデバイス2の処理負荷を低減することが可能となる。
なお、会議に遅れた参加者が、会議の途中で会議室に入った場合には、例えば、会議に遅れた参加者が、アプリケーション20に設けられるスタートボタン等を押すことで、会議室にある全てのパーソナルデバイス2から会議サーバ3に音声データが5秒間送信される。そして、音声データが送信された期間における音声の特徴が一致していれば、会議サーバ3は、会議に遅れた参加者が使用するパーソナルデバイス2にワークスペースを割当てる。これにより、会議に遅れた参加者であってもワークスペースを利用することが可能となる。このように会議システム1Aは、会議の途中で参加者が会議室に入ったとしても、会議の進行を妨げることなく、遅れた参加者がワークスペースを利用するための処理を実行することができる。
[第3の実施の形態]
次に、本発明の第3の実施の形態に係る会議システム1について説明する。第3の実施の形態に係る会議システム1では、音声データからテキストデータ以外のデータを特徴データとして抽出する。本実施の形態では、例えば、図1に示した会議システム1により、パーソナルデバイス2が音声データから抽出した特徴データを会議サーバ3に送信する。
上述した第1及び第2の実施の形態において、音声データから抽出される特徴データはテキストデータであった。しかし、特徴データは、テキストデータだけに限定されない。なぜなら情報取得部21により集音された音声信号には、各パーソナルデバイス2を識別するために有用な多くの特徴を含むからである。
ここで、音声信号から特徴を抽出する機能は、大まかに低レベルの機能と高レベルの機能に分類することが可能である。
低レベルの機能としては、例えば、約20〜30ミリ秒の短いフレームから計算される短期スペクトル特性を用いて音声の特徴を抽出するものがある。MFCC(Mel-Frequency Cepstrum Coefficients)、LPCC(Linear Predictive Coding Coefficients)、LSF(Line Spectral frequencies)、PLP(Perceptual Linear Prediction)等の技術が、音声信号から特徴を抽出するために広く使用されている。このため、特徴抽出部22は、MFCC、LPCC、LSF、PLP等の技術を用いて音声信号から抽出した特徴を特徴データとして会議サーバ3に送信してもよい。そして、会議サーバ3は、パーソナルデバイス2から受信した特徴データに基づいて会議を識別し、パーソナルデバイス2をグループ分けすることができる。
高レベルの機能としては、例えば、話者が学習した習慣、話者が使用する特定の単語や個人言語(Idiolect)などのスタイルを用いて音声の特徴を抽出するものがある。パーソナルデバイス2は、例えば、会議の参加者が発話した時における、イディオム、セマンティクス、アクセント、発音などから抽出した特徴を特徴データとして会議サーバ3に送信してもよい。この場合においても、会議サーバ3は、パーソナルデバイス2から受信した特徴データに基づいて会議を識別し、パーソナルデバイス2をグループ分けすることができる。
以上説明した第3の実施の形態に係る会議システム1では、音声信号から特徴データを抽出する技術として、音声データをテキストデータに変換する以外の技術を用いる。このような技術を用いても、会議サーバ3は、ある会議室で行われる会議の特徴を、他の会議室で行われる会議の特徴と識別し、パーソナルデバイス2にワークスペースを割当てることが可能となる。
[第4の実施の形態]
次に、本発明の第4の実施の形態に係る会議システム1Bについて説明する。第4の実施の形態に係る会議システム1Bでは、会議室にいる参加者の他に、ビデオ会議システムにより会議に参加する参加者についても、会議室にいる参加者と同じワークスペースを割当てることを可能とする。
遠隔会議が行われている間、遠隔地にいる参加者のパーソナルデバイス2は会議室内にはない。このため、Bluetooth又はWifi等の無線の電波強度を利用してパーソナルデバイス2を使用する参加者が同じ会議に参加しているか否かを確認する従来の技術では、遠隔地にいる参加者が参加している会議を識別できない。ここで、遠隔地にいる参加者は、会議室で発話される音声を共有することで会議に参加している。このため、本実施の形態に係るパーソナルデバイス2は、ビデオ会議装置のスピーカーから放音される音声を集音して音声データに変換する。そして、会議サーバ3が、この音声データから抽出した特徴データを比較することで、参加者が参加している会議を特定することが可能となる。
図12は、ビデオ会議システムにより遠隔地から会議に参加する参加者がいた場合に割当てられるワークスペースの例を示す全体構成図である。ここでは、会議室1、会議室2で異なる会議が同時に開催されているものとする。そして、パーソナルデバイス2のうち、一部のパーソナルデバイス2が会議室1とは異なる会議室3に設けられ、会議が行われる会議室1と、異なる会議室3とがビデオ会議システムにより接続される。
具体的には、会議1が開催される会議室1に参加者10A、10Eがいる。この会議室1には、ビデオ会議アプリケーション41が起動されるビデオ会議装置4Aが設置されている。ビデオ会議アプリケーション41は、会議室1とは離れた場所にある会議室3にいる参加者10Cが使用するビデオ会議装置4Bでも起動されている。ビデオ会議装置4A、4Bは、それぞれマイクロフォン42及びスピーカー43を備える。
このため、情報取得部21によって会議室1で取得される会議室1の音声が、ビデオ会議システムを通じて会議室3で放音されると共に、会議室3の音声がビデオ会議システムを通じて会議室1で放音される。すなわち、会議室1に設置されるビデオ会議装置4Aは、マイクロフォン42が会議室1で集音した参加者10A、10Eの音声を音声データに変換して、会議室3に設置されたビデオ会議装置4Bに送信する。会議室3に設置されたビデオ会議装置4Bは、スピーカー43を通じて参加者10A、10Eの音声を放音する。逆に、会議室3に設置されたビデオ会議装置4Bは、マイクロフォン42が会議室3で集音した参加者10Cの音声を音声データに変換して、会議室に設置されたビデオ会議装置4Aに送信する。そして、会議室1に設置されたビデオ会議装置4Aは、スピーカー43を通じて参加者10Cの音声を放音する。
ビデオ会議アプリケーション41は、会議室1,3にいる参加者により発話された音声をそれぞれの会議室1,3にあるビデオ会議装置4A,4Bを通じて時間差なく放音する制御を行う。このため、パーソナルデバイス2A、2C、2Eの情報取得部21が同じタイミングで集音する音声はほぼ同じ内容である。そこで、パーソナルデバイス2A、2C、2Eの特徴抽出部22は、会議室1にあるパーソナルデバイス2A,2Eにより取得された音声、及び会議室3にあるパーソナルデバイス2Cにより取得された音声から特徴を抽出することが可能である。そして、通信部23は、特徴データを会議サーバ3に送信する。図12では、会議室1のパーソナルデバイス2が特徴データを会議サーバ3に送信する例が記載されているが、会議室3のパーソナルデバイス2が特徴データを会議サーバ3に送信してもよい。そして、会議サーバ3は、各パーソナルデバイス2から受信した特徴データを比較して、パーソナルデバイス2を分類し、ワークスペースを割当てる。
以上説明した第4の実施の形態に係る会議システム1Bでは、会議室から離れた場所にいる参加者が参加する会議であっても、会議室にいる参加者と会議室から離れた場所にいる参加者が使用するパーソナルデバイス2に同じワークスペースが割当てられる。このため、本実施の形態に係る会議システム1Bは、会議室に全ての参加者がいなくても、同じ会議に参加している参加者に割当てられたワークスペースを利用することが可能となる。
なお、ビデオ会議において、マイクロフォン42が、参加者が発話した音声を直接受信できない場合もある。例えば、遠隔地にいる参加者10Cがヘッドフォンを装着して会議室1で行われる会議の内容を聞いている場合、ヘッドフォンから放音される音声をパーソナルデバイス2Cの情報取得部21が集音することができない。この場合、パーソナルデバイス2Cには、ヘッドフォンから放音される音声を録音可能なコールレコーダーの機能を有するアプリケーションを起動しておき、ビデオ会議装置4Bとパーソナルデバイス2Cを接続する。これにより、ヘッドフォンがビデオ会議装置4Bに接続された場合であっても、パーソナルデバイス2のコールレコーダーのアプリケーションが会議室1,3で発生する音声を録音できる。そして、パーソナルデバイス2のアプリケーション20は、録音されたデータから特徴データを抽出し、会議サーバ3に特徴データを送信することが可能である。
なお、会議室にいる参加者が使用するいずれかのパーソナルデバイス2にてプリインストールしたビデオ会議アプリケーション41を起動してもよい。同じく、遠隔地にいる参加者10Cが使用するパーソナルデバイス2Cにプリインストールしたビデオ会議アプリケーション41を起動してもよい。これによりビデオ会議装置4A、4Bを用意しなくても、ビデオ会議を行うことが可能となる。
また、本実施の形態においても、会議サーバ3が特徴抽出部35を備える構成として、特徴抽出部35が音声データから発話の特徴を抽出してもよい。
[第5の実施の形態]
次に、本発明の第5の実施の形態に係る会議システム1Cについて説明する。第5の実施の形態に係る会議システム1Cでは、会議室に設けられた音声アシスタント装置により会議の円滑な進行を図ることができる。
近年、職場を対象とした音声アシスタント装置の開発が行われている。音声アシスタント装置は、一般的にAI(Artificial Intelligence)によって駆動される。そして、音声アシスタント装置の機能が増強されると、会議には会議のスケジューリング、参加者への通知、情報の推薦などのタスクを実行することによって参加者を支援する機能を有するようになると考えられる。このような会議支援を行う音声アシスタント装置であれば、会議の参加者も音声アシスタント装置を受入れやすくなる。そこで、音声アシスタント装置を会議室に設けた例について説明する。
図13は、音声アシスタント装置5が設けられた会議室1の様子を表す会議システム1Cの全体構成図である。
会議システム1Cを構成する情報処理装置の一部は、会議室1に設けられた音声アシスタント装置5であるとする。音声アシスタント装置5は、会議室1で開催される会議を支援するための情報を出力する会議支援装置の一例であり、会議の円滑な進行を支援することができる。音声アシスタント装置5は、会議中に発せられた音声を収集する他、同じ参加者により以前に開催された会議の情報を今回の会議の参加者に提供したり、次に開催される会議のスケジュールを調整したりする機能を有する。音声アシスタント装置5は、会議室内の音声を集音し、会議サーバ3に音声データを送信する機能を有する。
音声アシスタント装置5が収集した音声と、参加者のパーソナルデバイス2が収集した音声は同じであるため、会議サーバ3は、音声アシスタント装置5とパーソナルデバイス2が同じ会議室1にいると判断する。このため、会議サーバ3は、会議室1で行われる会議を支援するための情報を音声アシスタント装置5に送信する。音声アシスタント装置5は、割当部32により割当てられたワークスペースに応じて会議を支援するための情報を出力する。例えば、ワークスペースに参加者のスケジュールがリンクされていれば、音声アシスタント装置5は、参加者のスケジュールを参照して、会議の開催に適した情報を参加者に提供することが可能である。これにより、音声アシスタント装置5は、各参加者が会議を円滑に進めることが可能となるように音声により会議を支援することができる
以上説明した第5の実施の形態に係る会議システム1Cでは、会議室1に設けられた音声アシスタント装置5が会議の参加者に対して音声による会議の支援を行うことが可能である。このため、会議の参加者は、音声アシスタント装置5から支援された情報を利用して、会議を円滑に進めることが可能となる。
また、音声アシスタント装置5は、会議毎に自動的に割当てられたワークスペースにアクセスすることが可能である。このため、会議の参加者が、音声アシスタント装置5に対してワークスペースにアクセスするための設定等を行う必要がない。
次に、会議システム1,1A,1B,1Cの各装置を構成する計算機Cのハードウェア構成を説明する。
図14は、計算機Cのハードウェア構成例を示すブロック図である。
計算機Cは、いわゆるコンピュータとして用いられるハードウェアである。計算機Cは、バスC4にそれぞれ接続されたCPU(Central Processing Unit:中央処理装置)C1、ROM(Read Only Memory)C2、RAM(Random Access Memory)C3を備える。さらに、計算機Cは、表示装置C5、入力装置C6、不揮発性ストレージC7、ネットワークインターフェイスC8を備える。
CPU C1は、本実施の形態に係る各機能を実現するソフトウェアのプログラムコードをROM C2から読み出して実行する。RAM C3には、演算処理の途中に発生した変数やパラメーター等が一時的に書き込まれる。例えば、パーソナルデバイス2が備えるCPU C1がソフトウェアのプログラムコードを実行することにより、情報取得部21、特徴抽出部22の機能が実現される。同様に、会議サーバ3が備えるソフトウェアのプログラムコードを実行することにより、グループ化部31、割当部32、特徴抽出部35の機能が実現される。
表示装置C5は、例えば、液晶ディスプレイモニタであり、計算機Cで行われる処理の結果等を会議の参加者に表示する。入力装置C6には、例えば、キーボード、マウス等が用いられ、会議の参加者が所定の操作入力、指示を行うことが可能である。
不揮発性ストレージC7としては、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フレキシブルディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリ等が用いられる。この不揮発性ストレージC7には、OS(Operating System)、各種のパラメーターの他に、計算機Cを機能させるためのプログラムが記録されている。ROM C2、不揮発性ストレージC7は、CPU C1が動作するために必要なプログラムやデータ等を永続的に記録しており、計算機Cによって実行されるプログラムを格納したコンピュータ読取可能な非一過性の記録媒体の一例として用いられる。例えば、パーソナルデバイス2が備える不揮発性ストレージC7にはアプリケーション20を実行可能なプログラムが記録される。また、会議サーバ3が備える不揮発性ストレージC7により、記憶部34の機能が実現される。
ネットワークインターフェイスC8には、例えば、NIC(Network Interface Card)等が用いられ、端子が接続されたLAN、専用線等を介して各種のデータを装置間で送受信することが可能である。例えば、パーソナルデバイス2が備えるネットワークインターフェイスC8が通信部23の機能を実現する。同様に、会議サーバ3が備えるネットワークインターフェイスC8が通信部33の機能を実現する。
[変形例]
なお、近年のパーソナルデバイス2は、照度を計測可能な光センサを備えるものがある。このため、会議室に設けられた照明器具から発せられる所定期間における照明光の波長、又は照度の変化を特有の情報として光センサが計測した計測結果を会議毎の特徴として抽出してもよい。例えば、会議室毎に照明器具が異なっていれば、各照明器具から発せられる照明光の波長は会議室毎に異なる。また、プロジェクターによりスクリーンに資料を投影する際には、会議室の照明をオフにすることが多い。そこで、パーソナルデバイス2は、光センサにより計測される、会議室の照明がオフにされた前後の照度変化を会議室の特徴として抽出し、この特徴データを会議サーバ3に送信する。そして、会議サーバ3は、各パーソナルデバイス2から受信した特徴データが一致するパーソナルデバイス2を一つのグループとして分類し、ワークスペースを割当てることが可能である。このように会議室の照明光の波長、又は照度の変化を会議の特徴として用いることで、会議を開始する前に各パーソナルデバイス2に割当てたワークスペースにより、各パーソナルデバイス2が事前にワークスペースにアクセスしておくことが可能となる。
また、会議が開始されるエリアの一例として、壁等により仕切られる会議室を挙げたが、壁等がないオープンスペースで行われる打合せであってもよい。オープンスペースで行われる打合せの参加者は、互いに近い距離で発話するため、各参加者が持つパーソナルデバイス2が備える情報取得部21は、マイクロフォンを用いて参加者が発話した音声を集音できる。このため、各参加者が持つパーソナルデバイス2に対してワークスペースを割当てることも可能である。
また、特徴抽出部22が音声データを変換したテキストデータから特徴を抽出する処理は、例えば、情報取得部21がマイクロフォンにより集音した音声の音量が所定値を超えるような音声データを対象として行ってもよい。例えば、会議の参加者ではない第三者が会議室のドア越しにパーソナルデバイス2を近づけたとしても、会議室から漏れる音声の音量が所定値を超えないため、テキストデータから特徴を抽出する処理は行われない。これにより第三者がワークスペースにアクセスする事態を避けることができる。
また、本発明は上述した実施の形態に限られるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りその他種々の応用例、変形例を取り得ることは勿論である。
例えば、上述した実施の形態は本発明を分かりやすく説明するために装置及びシステムの構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、ここで説明した実施の形態の構成の一部を他の実施の形態の構成に置き換えることは可能であり、さらにはある実施の形態の構成に他の実施の形態の構成を加えることも可能である。また、各実施の形態の構成の一部について、他の構成の追加、削除、置換をすることも可能である。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
1…会議システム、2A〜2F…パーソナルデバイス、3…会議サーバ、4A,4B…ビデオ会議装置、5…音声アシスタント装置、20…アプリケーション、21…情報取得部、22…特徴抽出部、23…通信部、24…ワークスペースアプリケーション、31…グループ化部、32…割当部、33…通信部、34…記憶部、41…ビデオ会議アプリケーション、42…マイクロフォン、43…スピーカー

Claims (21)

  1. 会議の参加者により用いられる情報処理装置毎に、前記会議が開催されるエリアに特有の情報を取得する情報取得部と、
    前記情報処理装置毎に取得された前記特有の情報から特徴を抽出する特徴抽出部と、
    前記特徴を前記情報処理装置毎に比較して、前記特徴が類似する複数の前記情報処理装置をグループ化するグループ化部と、
    グループ化されたグループ毎に、複数の前記情報処理装置がアクセス可能なワークスペースを割当て、前記ワークスペースを割当てた複数の前記情報処理装置に対して、前記ワークスペースに複数の前記情報処理装置がアクセス可能とするための前記ワークスペースに関する情報を通知する割当部と、を備え、
    前記情報処理装置は、前記ワークスペースに関する情報に基づいて前記情報処理装置に割当てられた前記ワークスペースにアクセスする
    会議システム。
  2. 前記特有の情報は、前記参加者が発話した音声を前記情報取得部が取得して変換した音声データであり、
    前記特徴抽出部は、前記音声データをテキストデータに変換し、前記テキストデータから所定期間の文字列を前記特徴として抽出する
    請求項1に記載の会議システム。
  3. 前記グループ化部は、前記特徴として抽出された前記文字列を、機械学習、又は文字列照合アルゴリズムにより前記情報処理装置毎に比較して、前記文字列が類似する前記情報処理装置をグループ化する
    請求項2に記載の会議システム。
  4. 前記グループ化部は、前記情報処理装置毎に前記特徴を比較した結果である類似度を格納する類似度行列を作成し、前記類似度が閾値よりも高い前記情報処理装置を、前記特徴が類似する前記情報処理装置としてグループ化する
    請求項3に記載の会議システム。
  5. さらに、記憶部を備え、
    前記割当部は、前記情報取得部により前記音声が取得された時刻を表すタイムスタンプが付加された前記特徴を前記記憶部に記憶し、他の前記情報取得部により前記音声が取得された時刻を表すタイムスタンプが付加された前記特徴と、前記記憶部に記憶され、前記タイムスタンプが近い前記特徴とを比較して前記類似度を求める
    請求項4に記載の会議システム。
  6. 前記情報処理装置のうち、一部の前記情報処理装置が前記エリアと異なるエリアに設けられ、前記会議が行われる前記エリアと、前記異なるエリアとがビデオ会議システムにより接続され、
    前記情報取得部によって前記エリアで取得される前記音声が、前記ビデオ会議システムを通じて前記異なるエリアで放音されると共に、前記異なるエリアの前記音声が前記ビデオ会議システムを通じて前記エリアで放音され、
    前記特徴抽出部は、前記エリアにある前記情報処理装置により取得された前記音声、及び前記異なるエリアにある前記情報処理装置により取得された音声から前記特徴を抽出する
    請求項1〜5のいずれか一項に記載の会議システム。
  7. 前記情報処理装置のうち、一部の前記情報処理装置は、前記エリアに設けられ、前記エリアで開催される前記会議を支援するための情報を出力する会議支援装置であって、
    前記会議支援装置は、前記割当部により割当てられた前記ワークスペースに応じて前記会議を支援するための情報を出力する
    請求項1〜5のいずれか一項に記載の会議システム。
  8. 前記情報処理装置は、ネイティブアプリケーション、又はウェブブラウザを経由して、前記割当部により割当てられたワークスペースにアクセスするためのワークスペースアプリケーションを起動し、起動した前記ワークスペースアプリケーションからアクセスした前記ワークスペースを通じて、前記会議で利用可能な会議情報を前記情報処理装置に設けられた表示部に表示する
    請求項1〜7のいずれか一項に記載の会議システム。
  9. 前記情報処理装置は、前記情報取得部及び前記特徴抽出部を備え、
    前記情報処理装置にネットワークを介して接続され、クラウド化された会議サーバが、前記割当部を備える
    請求項8に記載の会議システム。
  10. 前記情報処理装置は、前記情報取得部を備え、
    前記情報処理装置にネットワークを介して接続され、クラウド化された会議サーバが、前記特徴抽出部及び前記割当部を備える
    請求項8に記載の会議システム。
  11. 前記特有の情報は、前記エリアの照明光の波長、又は照度であり、
    前記特徴抽出部は、所定期間における前記エリアの照明光の波長、又は前記照度の変化を前記特徴として抽出する
    請求項2に記載の会議システム。
  12. 前記エリアは、会議室である
    請求項1〜11のいずれか一項に記載の会議システム。
  13. 会議の参加者により用いられる情報処理装置により取得された前記会議が開催されるエリアに特有の情報から特徴を抽出する特徴抽出部と、
    前記特徴を前記情報処理装置毎に比較して、前記特徴が類似する複数の前記情報処理装置をグループ化するグループ化部と、
    グループ化されたグループ毎に、複数の前記情報処理装置がアクセス可能なワークスペースを割当て、前記ワークスペースを割当てた複数の前記情報処理装置に対して、前記ワークスペースに複数の前記情報処理装置がアクセス可能とするための前記ワークスペースに関する情報を通知する割当部と、を備える
    会議サーバ。
  14. 前記特有の情報は、前記参加者が発話した音声を前記情報処理装置が取得して変換した音声データであり、
    前記特徴抽出部は、前記音声データをテキストデータに変換し、前記テキストデータから所定期間の文字列を前記特徴として抽出する
    請求項13に記載の会議サーバ。
  15. 前記グループ化部は、前記特徴として抽出された前記文字列を、機械学習、又は文字列照合アルゴリズムにより前記情報処理装置毎に比較して、前記文字列が類似する前記情報処理装置をグループ化する
    請求項14に記載の会議サーバ。
  16. 前記グループ化部は、前記情報処理装置毎に前記特徴を比較した結果である類似度を格納する類似度行列を作成し、前記類似度が閾値よりも高い前記情報処理装置を、前記特徴が類似する前記情報処理装置としてグループ化する
    請求項15に記載の会議サーバ。
  17. さらに、記憶部を備え、
    前記割当部は、前記情報処理装置により前記音声が取得された時刻を表すタイムスタンプが付加された前記特徴を前記記憶部に記憶し、他の前記情報処理装置により前記音声が取得された時刻を表すタイムスタンプが付加された前記特徴と、前記記憶部に記憶され、前記タイムスタンプが近い前記特徴とを比較して前記類似度を求める
    請求項16に記載の会議サーバ。
  18. 前記情報処理装置のうち、一部の前記情報処理装置が前記エリアと異なるエリアに設けられ、前記会議が行われる前記エリアと、前記異なるエリアとがビデオ会議サーバにより接続され、
    前記情報処理装置によって前記エリアで取得される前記音声が、前記ビデオ会議サーバを通じて前記異なるエリアで放音されると共に、前記異なるエリアの前記音声が前記ビデオ会議サーバを通じて前記エリアで放音され、
    前記特徴抽出部は、前記エリアにある前記情報処理装置により取得された前記音声、及び前記異なるエリアにある前記情報処理装置により取得された音声から前記特徴を抽出する
    請求項13〜17のいずれか一項に記載の会議サーバ。
  19. 前記特有の情報は、前記エリアの照明光の波長、又は照度であり、
    前記特徴抽出部は、所定期間における前記エリアの照明光の波長、又は前記照度の変化を前記特徴として抽出する
    請求項13に記載の会議サーバ。
  20. 前記エリアは、会議室である
    請求項13〜19のいずれか一項に記載の会議サーバ。
  21. 会議の参加者により用いられる情報処理装置により取得された前記会議が開催されるエリアに特有の情報から特徴を抽出する手順と、
    前記特徴を前記情報処理装置毎に比較して、前記特徴が類似する複数の前記情報処理装置をグループ化する手順と、
    グループ化されたグループ毎に、複数の前記情報処理装置がアクセス可能なワークスペースを割当てる手順と、
    前記ワークスペースを割当てた複数の前記情報処理装置に対して、前記ワークスペースに複数の前記情報処理装置がアクセス可能とするための前記ワークスペースに関する情報を通知する手順と、を
    コンピューターに実行させるためのプログラム。
JP2018118778A 2018-06-22 2018-06-22 会議システム、会議サーバ及びプログラム Active JP7047626B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018118778A JP7047626B2 (ja) 2018-06-22 2018-06-22 会議システム、会議サーバ及びプログラム
US16/448,811 US11019116B2 (en) 2018-06-22 2019-06-21 Conference system, conference server, and program based on voice data or illumination light

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018118778A JP7047626B2 (ja) 2018-06-22 2018-06-22 会議システム、会議サーバ及びプログラム

Publications (2)

Publication Number Publication Date
JP2019220067A true JP2019220067A (ja) 2019-12-26
JP7047626B2 JP7047626B2 (ja) 2022-04-05

Family

ID=68980781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018118778A Active JP7047626B2 (ja) 2018-06-22 2018-06-22 会議システム、会議サーバ及びプログラム

Country Status (2)

Country Link
US (1) US11019116B2 (ja)
JP (1) JP7047626B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022080074A (ja) * 2020-11-17 2022-05-27 トヨタ自動車株式会社 情報処理システム、情報処理方法及びプログラム
JP2022128594A (ja) * 2021-02-23 2022-09-02 アバイア マネジメント エル.ピー. 通信セッション品質の単語ベース表現

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11557288B2 (en) * 2020-04-10 2023-01-17 International Business Machines Corporation Hindrance speech portion detection using time stamps
JP7354992B2 (ja) * 2020-11-19 2023-10-03 トヨタ自動車株式会社 発言評価システム、発言評価方法、及び、プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11219341A (ja) * 1998-01-30 1999-08-10 Fuji Xerox Co Ltd 協調作業支援システム
JP2004171526A (ja) * 2002-10-29 2004-06-17 Fuji Xerox Co Ltd 遠隔会議システム及び遠隔会議支援方法、並びにコンピュータ・プログラム
JP2016110253A (ja) * 2014-12-03 2016-06-20 株式会社リコー 情報処理システム、情報処理装置、情報提供方法及びプログラム
US20190116210A1 (en) * 2017-10-18 2019-04-18 International Business Machines Corporation Identifying or creating social network groups of interest to attendees based on cognitive analysis of voice communications

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5710591A (en) * 1995-06-27 1998-01-20 At&T Method and apparatus for recording and indexing an audio and multimedia conference
FR2799914B1 (fr) * 1999-10-14 2001-12-28 France Telecom Identification d'intervenant dans une telereunion
US7822607B2 (en) * 2005-08-26 2010-10-26 Palo Alto Research Center Incorporated Computer application environment and communication system employing automatic identification of human conversational behavior
US20100097226A1 (en) * 2008-10-22 2010-04-22 Leviton Manufacturing Co., Inc. Occupancy sensing with image and supplemental sensing
WO2010092913A1 (ja) * 2009-02-13 2010-08-19 日本電気株式会社 多チャンネル音響信号処理方法、そのシステム及びプログラム
WO2012042200A1 (en) * 2010-09-30 2012-04-05 British Telecommunications Public Limited Company Speech comparison
US8791977B2 (en) * 2010-10-05 2014-07-29 Fujitsu Limited Method and system for presenting metadata during a videoconference
US9495663B2 (en) 2011-01-19 2016-11-15 Cisco Technology, Inc. Automatic meeting invitation based on proximity
US8682973B2 (en) * 2011-10-05 2014-03-25 Microsoft Corporation Multi-user and multi-device collaboration
US20180032997A1 (en) * 2012-10-09 2018-02-01 George A. Gordon System, method, and computer program product for determining whether to prompt an action by a platform in connection with a mobile device
JP5425256B2 (ja) 2012-04-13 2014-02-26 株式会社Nttドコモ 交換機、交換方法、プログラムおよび通話システム
US9210269B2 (en) * 2012-10-31 2015-12-08 Cisco Technology, Inc. Active speaker indicator for conference participants
KR102215579B1 (ko) * 2014-01-22 2021-02-15 삼성전자주식회사 대화형 시스템, 디스플레이 장치 및 그 제어 방법
JP6276132B2 (ja) * 2014-07-30 2018-02-07 株式会社東芝 発話区間検出装置、音声処理システム、発話区間検出方法およびプログラム
US20170270930A1 (en) * 2014-08-04 2017-09-21 Flagler Llc Voice tallying system
KR20160035884A (ko) * 2014-09-24 2016-04-01 삼성전자주식회사 회의 진행 장치 및 회의 진행 방법
WO2016149338A1 (en) * 2015-03-16 2016-09-22 Kennesaw State University Research And Service Foundation, Inc. Unified enterprise mobile data collaboration
US10091260B2 (en) * 2015-03-23 2018-10-02 Adobe Systems Incorporated Copy and paste for web conference content
WO2016159938A1 (en) * 2015-03-27 2016-10-06 Hewlett-Packard Development Company, L.P. Locating individuals using microphone arrays and voice pattern matching
US10326760B2 (en) * 2017-03-22 2019-06-18 International Business Machines Corproation Privacy controls for sensitive discussions
US10217466B2 (en) * 2017-04-26 2019-02-26 Cisco Technology, Inc. Voice data compensation with machine learning
US10637898B2 (en) * 2017-05-24 2020-04-28 AffectLayer, Inc. Automatic speaker identification in calls
US10594748B2 (en) * 2017-11-07 2020-03-17 International Business Machines Corporation Establishing a conversation between intelligent assistants
US20190312917A1 (en) * 2018-04-05 2019-10-10 Microsoft Technology Licensing, Llc Resource collaboration with co-presence indicators
US11145299B2 (en) * 2018-04-19 2021-10-12 X Development Llc Managing voice interface devices

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11219341A (ja) * 1998-01-30 1999-08-10 Fuji Xerox Co Ltd 協調作業支援システム
JP2004171526A (ja) * 2002-10-29 2004-06-17 Fuji Xerox Co Ltd 遠隔会議システム及び遠隔会議支援方法、並びにコンピュータ・プログラム
JP2016110253A (ja) * 2014-12-03 2016-06-20 株式会社リコー 情報処理システム、情報処理装置、情報提供方法及びプログラム
US20190116210A1 (en) * 2017-10-18 2019-04-18 International Business Machines Corporation Identifying or creating social network groups of interest to attendees based on cognitive analysis of voice communications

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022080074A (ja) * 2020-11-17 2022-05-27 トヨタ自動車株式会社 情報処理システム、情報処理方法及びプログラム
JP7509008B2 (ja) 2020-11-17 2024-07-02 トヨタ自動車株式会社 情報処理システム、情報処理方法及びプログラム
JP2022128594A (ja) * 2021-02-23 2022-09-02 アバイア マネジメント エル.ピー. 通信セッション品質の単語ベース表現

Also Published As

Publication number Publication date
US20190394247A1 (en) 2019-12-26
JP7047626B2 (ja) 2022-04-05
US11019116B2 (en) 2021-05-25

Similar Documents

Publication Publication Date Title
JP7047626B2 (ja) 会議システム、会議サーバ及びプログラム
US12051410B2 (en) Method and apparatus to provide comprehensive smart assistant services
US10540971B2 (en) System and methods for in-meeting group assistance using a virtual assistant
US10685652B1 (en) Determining device groups
CN107112014B (zh) 在基于语音的系统中的应用焦点
US10217466B2 (en) Voice data compensation with machine learning
US10498673B2 (en) Device and method for providing user-customized content
TWI536365B (zh) 聲紋辨識
CN112331193B (zh) 语音交互方法及相关装置
CN109313897B (zh) 利用多个虚拟助理服务的通信
KR102508863B1 (ko) 전자 장치 및 상기 전자 장치로부터 수신된 데이터를 처리하는 서버
JP2008225191A (ja) 議事録作成方法、その装置及びそのプログラム
CN104462069A (zh) 语音翻译装置和语音翻译方法
KR102548365B1 (ko) 회의 기록 자동 생성 방법 및 그 장치
CN114391145A (zh) 具有自适应响应生成的ai驱动的个人助理
US10762906B2 (en) Automatically identifying speakers in real-time through media processing with dialog understanding supported by AI techniques
JP7427408B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US10861453B1 (en) Resource scheduling with voice controlled devices
JP2023553995A (ja) 単一の発話におけるデバイスまたはアシスタント固有ホットワードの組合せ
JP2017191531A (ja) コミュニケーションシステム、サーバ及びコミュニケーション方法
JP7400364B2 (ja) 音声認識システム及び情報処理方法
US20190066676A1 (en) Information processing apparatus
KR20200112481A (ko) 회의 제어를 위한 컴퓨터 프로그램, 전자 장치, 및 시스템
JP2014109998A (ja) 対話装置及びコンピュータ対話方法
JP2021018664A (ja) 情報処理システム、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210519

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220218

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220307

R150 Certificate of patent or registration of utility model

Ref document number: 7047626

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150