JP4458888B2 - 会議支援システム、議事録生成方法、およびコンピュータプログラム - Google Patents

会議支援システム、議事録生成方法、およびコンピュータプログラム Download PDF

Info

Publication number
JP4458888B2
JP4458888B2 JP2004083464A JP2004083464A JP4458888B2 JP 4458888 B2 JP4458888 B2 JP 4458888B2 JP 2004083464 A JP2004083464 A JP 2004083464A JP 2004083464 A JP2004083464 A JP 2004083464A JP 4458888 B2 JP4458888 B2 JP 4458888B2
Authority
JP
Japan
Prior art keywords
attendee
data
emotion
minutes
attendees
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004083464A
Other languages
English (en)
Other versions
JP2005277462A (ja
Inventor
公二 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2004083464A priority Critical patent/JP4458888B2/ja
Priority to US10/924,990 priority patent/US20050209848A1/en
Publication of JP2005277462A publication Critical patent/JP2005277462A/ja
Application granted granted Critical
Publication of JP4458888B2 publication Critical patent/JP4458888B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1831Tracking arrangements for later retrieval, e.g. recording contents, participants activities or behavior, network status
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42221Conversation recording systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/25Aspects of automatic or semi-automatic exchanges related to user interface aspects of the telephonic communication service
    • H04M2203/258Service state indications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/567Multimedia conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、会議の議事録を生成するシステムおよび方法に関する。
従来より、会議中の出席者の音声を録音し、音声認識処理によって会議録または議事録を生成する方法が提案されている。例えば、特許文献1に記載される方法によると、話者の発言をテキストデータに変換するとともに、発話の速さ、声の大きさ、および声の高さに基づいて話者の感情を推測することによって、議事録を生成する。これにより、話者がどのような状況で発話しているのかを、従来よりも容易に知ることができる。
特開2003−66991号公報
しかし、従来の方法では、議事録を見ることによって、話者の感情を知ることはできるが、その発言を聞いた周囲の出席者の感情を知ることは難しい。例えば、話者が「これに決定します。」という意見を発言したときに、他の出席者の感情は、その意見に対する発言がない限り、議事録に記録されない。よって、彼らがその意見に対してどのように考えているのかは分からない。また、発言が少ない出席者の考えを知ることも難しい。このように、従来の方法によって得られる議事録では、会議中の出席者の雰囲気や反応を詳しく知ることができない。
本発明は、このような問題点に鑑み、会議中の出席者の雰囲気および各人の反応を従来よりも詳しく知ることができる議事録を生成することを目的とする。
会議支援システムを、会議の出席者の顔の画像を入力する画像入力手段と、入力された前記画像に基づいて前記出席者ごとの感情を判別する感情判別手段と、前記出席者の音声を入力する音声入力手段と、入力された前記音声に基づいて、前記出席者の発言の内容を示すテキストデータを生成するテキストデータ生成手段と、入力された前記音声のパターンを分析することにより、前記発言を行った前記出席者である発言者を特定する発言者特定手段と、前記感情判別手段による判別結果前記テキストデータ生成手段によって生成された前記テキストデータ、および前記発言者特定手段によって特定された前記発言者に基づいて、前記発言の内容と当該発言を行った前記出席者と当該発言があったときの前記各出席者の感情とを記録した議事録を生成する議事録生成手段と、によって構成する。
または、会議で話し合う1つまたは複数の議題を示す議題情報を記憶する議題情報記憶手段と、前記議題情報に示される前記議題が前記テキストデータの中に含まれる回数を前記議題別にカウントし、前記議題のうち前記テキストデータの中に含まれる回数が最も多い議題を当該テキストデータに示される前記発言に係る議題であると判別する議題判別手段と、を設ける。前記議事録生成手段は、前記議題判別手段による判別結果に基づいて、前記発言に係る前記議題を記録した前記議事録を生成する。
さらに、前記議事録に基づいて、次のような事項を判別する。例えば、前記議事録に記録された、前記議題に係る前記発言があったときの前記出席者の前記感情が出現した回数を前記感情別にカウントし、前記感情のうち所定の感情が出現した回数の割合が所定の値以上である場合に当該出席者が当該議題に関心を持っていると判別する。または、前記議事録に記録された、前記発言があったときの当該発言を行った者以外の前記出席者の前記感情に基づいて、当該発言を行った前記出席者が中心人物であるか否かを判別する。
本発明によると、会議中の出席者の雰囲気および各人の反応を従来よりも詳しく知るための議事録を生成することができる。
請求項3の発明によると、会議で取り上げられた議題ごとに出席者の雰囲気および各人の反応をより詳しく知ることができる。
図1は遠隔会議システム100の全体的な構成の例を示す図、図2は会議支援システム1のハードウェア構成の例を示す図、図3は会議支援システム1の機能的構成の例を示す図である。
図1に示すように、遠隔会議システム100は、本発明に係る会議支援システム1、端末システム2A、2B、およびネットワーク4などによって構成される。会議支援システム1、端末システム2A、および端末システム2Bは、ネットワーク4を介して互いに接続されている。ネットワーク4として、インターネット、LAN(Local Area Network)、公衆回線、または専用線などが用いられる。
この遠隔会議システム100は、互いに離れた複数の場所で会議を行うために用いられる。以下、次のような目的のために、遠隔会議システム100が用いられる場合を例に説明する。(1)X社の社員は、顧客であるY社の社員と会議を行いたい。(2)X社の社員は、会議を円滑に進めることができるようにするためおよび今後のセールス活動などの参考にするために、会議の進捗具合に関する情報やY社の出席者に関する情報などを取得したい。(3)X社の社員は、Y社の社員に対して不快を与えそうな発言をカット(ブロック)したい。
端末システム2AはX社に設置され、端末システム2BはY社に設置されている。
端末システム2Aは、端末装置2A1、ディスプレイ2A2、およびビデオカメラ2A3などによって構成されている。ディスプレイ2A2およびビデオカメラ2A3は、端末装置2A1に接続されている。
ビデオカメラ2A3は、デジタルビデオカメラであって、会議に出席しているX社の社員の顔を撮影する。また、ビデオカメラ2A3にはマイクが設けられており、社員の発言の音声を集音する。ビデオカメラ2A3によって得られた映像および音声のデータは、端末装置2A1および会議支援システム1などを介して、Y社の端末システム2Bに届けられる。出席者が多数いる場合は、複数台のビデオカメラ2A3で撮影を行うようにしてもよい。
以下、会議に出席しているX社の社員を「X社の出席者」と記載し、会議に出席しているY社の社員を「Y社の出席者」と記載する。
ディスプレイ2A2は、例えばプラズマディスプレイなどの大型のディスプレイであって、Y社のビデオカメラ2B3で撮影された、Y社の出席者の顔の画像などを表示する。また、ディスプレイ2A2にはスピーカが設けられており、Y社の出席者の音声などを出力する。Y社の出席者の映像および音声のデータは、端末装置2A1によって受信される。つまり、端末装置2A1は、双方の映像および音声のデータの送受信を行うための装置である。端末装置2A1として、パーソナルコンピュータまたはワークステーションなどが用いられる。
端末システム2Bも、端末システム2Aと同様に、端末装置2B1、ディスプレイ2B2、およびビデオカメラ2B3などによって構成されている。ビデオカメラ2B3は、Y社の出席者の顔を撮影しおよび発言を集音する。ディスプレイ2B2は、X社の出席者の映像および音声を出力する。端末装置2B1は、双方の映像および音声のデータの送受信を行う。
このように、端末システム2Aおよび端末システム2Bは、それぞれ、X社の出席者の映像および音声のデータおよびY社の出席者の映像および音声のデータを互いに送信し合う。以下、端末システム2Aから送信(発信)される、映像のデータを「映像データ5MA」と記載し、音声のデータを「音声データ5SA」と記載する。また、端末システム2Bから送信(発信)される、映像のデータを「映像データ5MB」と記載し、音声のデータを「音声データ5SB」と記載する。
これらの映像データおよび音声データをリアルタイムで送受信することができるように、遠隔会議システム100では、例えば、ITU−T(国際電気通信連合電気通信標準化部門)などの機関が策定したテレビ電話またはテレビ会議に関する規格または勧告に基づくストリーミング技術を採用している。そこで、会議支援システム1、端末システム2A、および端末システム2Bには、係るストリーミング技術に対応した、データの送受信のためのハードウェアおよびソフトウェアが備えられている。また、ネットワーク4の通信プロトコルとして、ITU−Tの策定したRTP(Real-time Transport Protocol)およびRTCP(Real-time Transport Control Protocol)などが用いられる。
会議支援システム1は、図2に示すように、CPU1a、RAM1b、ROM1c、磁気記憶装置1d、ディスプレイ1e、マウスまたはキーボードなどの入力装置1f、および各種インタフェースなどによって構成される。
磁気記憶装置1dには、図3に示すような、データ受信部101、テキストデータ生成部102、感情判別部103、トピック判別部104、議事録生成部105、分析処理部106、データ送信部107、イメージ合成部108、音声ブロック処理部109、およびデータベース管理部1DBなどの機能を実現するためのプログラムおよびデータがインストールされている。これらのプログラムおよびデータは必要に応じてRAM1bにロードされ、CPU1aによってプログラムが実行される。図3の一部または全部の機能を、ハードウェアによって実現するようにしてもよい。
以下、会議支援システム1、端末システム2A、および端末システム2Bの処理内容などについて、さらに詳細に説明する。
図4はデータベース管理部1DBの構成の例を示す図、図5は発言テキストデータ6Hの例を示す図、図6は感情データ6Fの例を示す図、図7は目録データ6Dの例を示す図、図8はトピックデータ6Pの例を示す図、図9は議事録データGDTの例を示す図、図10は相手側の様子を示す画像GAおよび感情画像GBの表示例を示す図、図11は感情画像GBに用いられる記号の例を説明する図である。
図3のデータベース管理部1DBは、図4に示すように、動画音声データベースRC1、発言解析データベースRC2、会議目録データベースRC3、会議録データベースRC4、および分析結果データベースRC5などのデータベースを有し、これらのデータベースの管理を行う。データベースの内容については後に順次説明する。
データ受信部101は、端末システム2Aから発信された映像データ5MAおよび音声データ5SAおよび端末システム2Bから発信された映像データ5MBおよび音声データ5SBを受信する。受信されたこれらの映像データおよび音声データは、図4の動画音声データベースRC1に保存しておく。これにより、会議の映像および音声が記録(録画、録音)される。
テキストデータ生成部102は、受信された音声データ5SA、5SBに基づいて、図5のような、X社、Y社の出席者の発言の内容を示す発言テキストデータ6Hを生成する。係る生成処理は、例えば、次のようにして行われる。
まず、音声データ5SAに対して公知の音声認識処理を行い、テキストデータに変換する。テキストデータを1文(センテンス)ごとに区切っておく。例えば、所定の時間以上(例えば、1秒以上)発言が止まった場合に、区切りを入れて1つのセンテンスとする。または、発言者が変わった場合に、区切りを入れて1つのセンテンスとする。
センテンスごとに、そのセンテンスが発言された時刻を対応付ける。さらに、声紋分析を行うなどして、センテンスごとの発言者を識別する。ただし、ここでは、センテンスの発言者が具体的にどの出席者であるか、ということまで特定する必要はなく、あるセンテンスの発言者と他のセンテンスの発言者とが同一人物であるか否か、ということが区別できればよい。例えば、X社の出席者が3人である場合は、音声データ5SAより3種類の声のパターンが検出される。この場合は、「出席者XA」、「出席者XB」、「出席者XC」という仮の名前を作り、これらの仮の名前によってセンテンスごとの発言者が誰であるのかを識別すればよい。
これと並行して、音声データ5SBに対して、音声データ5SAの場合と同様に、音声認識処理、各センテンスと時刻とを対応付ける処理、および各センテンスの発言者を識別する処理を行う。
そして、音声データ5SA、5SBについての処理結果を1つに合わせ、時刻順に並べ替える。これにより、図5に示すような発言テキストデータ6Hが生成される。生成された発言テキストデータ6Hは、発言解析データベースRC2(図4参照)に保存しておく。
感情判別部103は、データ受信部101によって受信された映像データ5MA、5MBに基づいてX社、Y社の各出席者の、所定の時間ごと(例えば、1秒ごと)の感情を判別する。画像に基づいて人間の感情を判別する技術は、数多く提案されているが、例えば、次の公知技術文献1に記載される方法を用いればよい。
公知技術文献1:”福祉利用を目的とした顔画像からの感情データの復号技術に関する研究”,宮川道夫,電気通信普及財団調査報告書,No.17,第274頁〜第280頁,2002年

公知技術文献1に記載される方法によると、映像データに含まれるある時刻の画像(フレーム画像)とその前後の時刻のフレーム画像とに基づいて、各出席者の顔のオプティカルフローを算出する。これにより、各出席者の目の領域および口の領域の動きが求められる。そして、これらの領域の動き方に基づいて「笑い」、「悲しみ」、「驚き」、および「怒り」などの感情を判別する。
または、「笑い」および「怒り」などの感情ごとに各出席者の顔の表情のパターン画像をテンプレートとして予め用意しておき、フレーム画像より抽出された顔領域とテンプレートとをマッチングすることによって、感情を判別してもよい。顔領域の抽出方法は、上の公知技術技術1に記載されるようなオプティカルフロー法を用いてもよいし、次の公知技術文献2に記載される方法を用いてもよい。そのほか、出席者の鼻頭の熱を検知し、その検知結果に基づいて感情を判別する方法などを用いてもよい。
公知技術文献2:”温度画像を用いた発声時の表情認識”,池添史隆,胡玲琴,谷尻豊寿,吉冨康成,ヒューマンインタフェース学会論文誌,2004年6月,第19頁〜第27頁

感情の判別結果は、図6に示すように、出席者ごとに纏められ、判別のために用いられたフレーム画像の撮影時刻と対応付けられ、感情データ6Fとして発言解析データベースRC2(図4参照)に保存される。本実施形態では、「喜び」、「悲しみ」、「リラックス」、「怒り」、および「緊張」の5種類の感情を判別する。感情データ6Fの「1」〜「5」の値は、それぞれ、「喜び」、「悲しみ」、「リラックス」、「怒り」、および「緊張」を示している。
ところで、上記の方法によって発言テキストデータ6H(図5参照)と各出席者の感情データ6Fとを得ただけでは、発言テキストデータ6Hに示される各発言者(出席者)がどの感情データ6Fに対応するのかが分からない。そこで、会議が終わった後または会議中に、会議を主催するX社は、その対応関係を設定する必要がある。
または、会議の前に、各出席者の音声および顔画像のサンプルを予め取得しておき、対応付けを行っておいてもよい。例えば、出席者ごとに、氏名、声紋の特徴を表す声紋特徴データ、および表情(上記の5種類の感情)ごとの顔画像データを互いに対応付けてデータベースに用意しておく。そして、受信された映像データ5MA、5MBおよび音声データ5SA、5SBを、用意しておいた顔画像データまたは声紋特徴データとマッチングすることによって、話者を特定し、発言テキストデータ6Hに示される各発言者がどの感情データ6Fと対応するのかを知ることができる。
以下、図5の発言テキストデータ6Hおよび図6の感情データ6Fについてこのような対応付けがなされている(つまり、図5および図6の同名の出席者は同一人物である)ものとして、説明する。
図4の会議目録データベースRC3は、図7に示すような目録データ6Dを保存している。目録データ6Dは、会議で取り上げる題目およびトピックの一覧(目録、目次)を示している。本実施形態において、「題目」は大きなテーマ(大きな議題)を意味し、「トピック」はそのテーマに関する各論(小さな議題)を意味する。「キーワード」は、そのトピックに関連する語句(単語、フレーズ)である。
X社の出席者は、会議が始まる前に、端末装置2A1を操作するなどして、目録データ6Dを作成し、その目録データ6Dを会議目録データベースRC3に登録しておく。または、会議中または会議後に目録データ6Dを登録してもよい。ただし、目録データ6Dは、次に説明するトピックの判別処理のために必要なので、少なくとも、係る処理を開始までには登録しておかなければならない。
図3に戻って、トピック判別部104は、会議の全体の時間を所定の長さの時間ごとに区切り、その区切った時間(以下、「所定区間」と記載する。)ごとに、話し合われた内容がどのトピックに関するものであるのかを判別する。係る判別処理は、次のようにして行われる。
例えば、まず、会議の全体の時間を5分の所定区間に区切る。図5の発言テキストデータ6Hの中から、ある所定区間に発言されたセンテンスをすべて抽出する。抽出されたセンテンスに、目録データ6Dに示される各トピックの名称がそれぞれ幾つ含まれているかをカウントする。そして、最も多くカウントされたトピックを、その所定区間に話し合われたトピックであると判別する。なお、トピックの名称だけでなく「キーワード」に示される語句が幾つ含まれるかをもカウントすることによって、トピックの判別を行ってもよい。
このようにして、所定区間ごとのトピックの判別を行った結果、図8に示すようなトピックデータ6Pが得られる。なお、トピックデータ6Pにおいて「時刻」は所定区間の開始時刻を示している。トピックデータ6Pは、発言解析データベースRC2(図4参照)に保存される。
議事録生成部105は、発言テキストデータ6H(図5参照)、各出席者の感情データ6F(図6参照)、およびトピックデータ6Pに基づいて、次のような手順で会議の議事録を生成する。
まず、発言テキストデータ6Hに含まれるセンテンスごとに、各出席者の感情を求める。例えば、「会議を始めます。」というセンテンスは、15時20分0秒からの5秒の間に発言されている。そこで、その5秒間の感情を示す5つの値を、感情データ6Fより抽出する。抽出された5つの値のうち、出現頻度が最も多いものを選択する。例えば、出席者XAについては「5」が選択され、出席者YCについては「3」が選択される。
このようにして選択されたセンテンスごとの各出席者の感情を示す値、トピックデータ6Pの各値(レコード)、および発言テキストデータ6Hの各値(レコード)を、互いに時刻が一致するように結合する。これにより、図9に示すような議事録データGDTが生成される。生成された議事録データGDTは、会議録データベースRC4(図4参照)に保存しておく。
議事録データGDTを生成する処理は、会議の終了後に実行してもよいし、会議の進行と並行して実行してもよい。前者の場合は、データ送信部107は、生成された議事録データGDTをファイル化し、X社の出席者および所定の社員(例えば、X社の出席者の上司など)に電子メールなどによって配付する。
後者の場合は、会議の進行とともに議事録生成部105によって次々と生成されるデータを、すぐに端末装置2A1に送信する。本実施形態では、トピックの判別を5分単位で行っているので、5分間の分の議事録データGDTを逐次送信する。また、会議の終了後に完成した議事録データGDTファイル化し、X社の出席者および所定の社員に電子メールなどによって配付する。
そのほか、データ送信部107は、データ受信部101が受信した映像データ5MAおよび音声データ5SAを端末システム2Bに送信し、映像データ5MBおよび音声データ5SBを端末システム2Aに送信する。ただし、映像データ5MBは、イメージ合成部108によって次のような処理が施されてから送信される。
イメージ合成部108は、映像データ5MBに対してスーパーインポーズ処理を行って、図10に示すように、ビデオカメラ2B3で撮影された画像GAに現在の出席者の感情を示す感情画像GBを重ね合わせて合成する処理を行う。図10の例ではY社の出席者の感情を記号によって表示しているが、X社およびY社の両方の出席者の感情を表示してもよいし、「喜び」または「怒り」などの文字で表示してもよい。感情画像GBの記号がどのような感情を意味するのかは、図11で説明する通りである。
または、イメージ合成部108で重ね合わせの処理を行わずに映像データ5MBおよび感情画像GBの画像データを送信し、端末システム2Aで重ね合わせの処理を行うようにしてもよい。
これにより、会議の進行役は、出席者の感情がヒートアップしていることをすぐに把握することができ、休憩を取るなどして出席者の感情をコントロールし、会議を円滑に進めることができる。また、X社の提案についてのY社の出席者の反応をすぐに把握することができるので、従来よりも会議の成果が得やすくなる。
なお、本実施形態では、上に述べた(2)を目的としているので、X社に対してのみ感情画像GBを表示しているが、もちろん、Y社の出席者に対しても感情画像GBを表示するようにしてもよい。
会議中、話し合いが終わったトピックが再び取り上げられることがある。そうすると、会議が円滑に進まなくなってしまうおそれがある。例えば、図9の議事録データGDTによると、一旦話し合いが終わった「ストレージ」が15時51分頃に再び取り上げられていることが分かる。このような場合は、イメージ合成部108は、「トピックがループしています」などの注意を促すメッセージを重ね合わせる処理を、映像データ5MBに対して行ってもよい。
端末システム2A、2Bは、会議支援システム1から送信されてきた映像データおよび音声データに基づいて、相手の映像および音声を出力する。
〔会議終了後の分析処理〕
図12は分析処理部106の構成の例を示す図、図13は題目別感情分析データ71の例を示す図、図14はトピック別感情分析データ72の例を示す図、図15はキーマン判別処理の流れの例を説明するフローチャート、図16はあるトピックに関する議論の時間帯におけるY社の各出席者の感情の変化を示す図、図17は特性分析データ73の例を示す図、図18は個人別関心データ74の例を示す図、図19はトピック別関心データ75の例を示す図である。
図3の分析処理部106は、図12に示すように、題目別感情分析部161、トピック別感情分析部162、出席者特性分析部163、個人別関心分析部164、およびトピック別関心分析部165などによって構成され、図9の議事録データGDTなどに基づいて、上に述べた(2)および(3)の目的を達成するのに必要なデータを取得するための分析処理を行う。
題目別感情分析部161は、目録データ6D(図7)に示される題目ごとに、話し合いに掛かった時間および各出席者の感情などを、図13に示すように集計する(統計を取る)。話し合いに掛かった時間は、その題目に属するトピックに係るセンテンスのデータを議事録データGDTより抽出し、これらのセンテンスの発言時間を「時刻」の値に基づいて算出しそれを合計することによって、求めることができる。
出席者の感情は、次のような処理によって集計する。まず、議事録データGDTより抽出した、その題目に属するトピックに係るセンテンスのデータに基づいて、処理対象の出席者について、5種類の感情(「喜び」、「悲しみ」など)がそれぞれ何回表れたのかをカウントする。そして、各感情の出現率(5種類の感情の出現回数の合計に対する出現率)を算出する。
このような分析処理の結果、図13に示すような題目別感情分析データ71が、出席者ごとに生成される。同様に、X社の出席者全体の題目別感情分析データ71、Y社の出席者全体の題目別感情分析データ71、およびX社およびY社の出席者全体の題目別感情分析データ71も求めておいてもよい。これらの題目別感情分析データ71は、分析結果データベースRC5(図4参照)に保存しておく。
トピック別感情分析部162は、目録データ6D(図7)に示されるトピックごとに話し合いに掛かった時間および各出席者の感情などを集計し(統計を取り)、図14に示すようなトピック別感情分析データ72を求める。集計(統計)の方法は、題目別感情分析データ71を求める場合と基本的に同じであるので、説明を省略する。X社の出席者全体のトピック別感情分析データ72、Y社の出席者全体のトピック別感情分析データ72、およびX社およびY社の出席者全体のトピック別感情分析データ72も求めておいてもよい。これらのトピック別感情分析データ72は、分析結果データベースRC5に保存しておく。
出席者特性分析部163は、出席者がどのような特性を有しているのかを分析する処理を行う。本実施形態では、トピックごとに、Y社の出席者のうちの誰がキーマン(キーパーソン、中心人物)であるか、および、誰がそのキーマンに追従する追従者(小判鮫タイプ、イエスマン)であるかを、分析する。
キーマンの感情に変化が生じると、それに釣られて周囲にいる仲間の感情にも変化が生じる。例えば、キーマンがリラックスし、緊張し、喜び、または悲しむと、同じように、仲間もリラックスし、緊張し、喜び、または悲しむ。キーマンが怒ると、仲間は緊張してしまう。このような法則を用いて、図15に示すような手順でキーマンの分析を行う。
例えば、「ストレージ」というトピックのキーマンを分析する場合は、ストレージについて話し合われた時間帯のY社の出席者の感情の値を、図16に示すように抽出する(図15の#101)。
1人目の出席者(例えば、出席者YA)について、図16の抽出結果の中から感情が変化しているところを検出する(#102)。すると、丸数字1〜4のときに、出席者YAの感情が変化していることが分かる。
それぞれの直後に、他の出席者YB〜YEの感情がどのように変化しているかを検知し(#103)、上記の法則の通りに感情が変化した人数をカウントする(#104)。その結果、上記の法則の通りに感情が変化した人数が過半数以上である場合は(#105でYes)、出席者YAがキーマンである可能性が高いと推測し、出席者YAのカウンタCRAに1点を加算する(#106)。
例えば、丸数字1のときにおいて、出席者YAの感情は「1(喜び)」に変化しているが、その直後に感情が「1(喜び)」に変化した出席者は4人中1人だけである。よって、この場合は、カウンタCRAへの点数の加算は行わない。丸数字2において、出席者YAの感情は「4(怒り)」に変化しているが、その直後に感情が「5(緊張)」に変化した出席者は4人中3人である。よって、カウンタCRAに1点を加算する。このように、カウンタCRAによってカウントされる値は、出席者YAがキーマンである可能性の高さを示している。
2人目〜5人目(出席者YB〜YE)についても同様に、ステップ#102〜#106の処理を行い、カウンタCRB〜CREに点数を加算していく。
Y社の全出席者についてステップ#102〜#106が終わったら(#107でYes)、カウンタCRA〜CREを比較し、最も大きい値が格納されているカウンタを有する出席者をキーマンに決定する(#108)。または、キーマンが複数いる場合もあるので、所定の値以上または所定の割合以上の点数が格納されているカウンタを有するすべての出席者をキーマンに決定してもよい。
キーマンに追従する追従者の感情は、キーマンの感情に同調することが多い。特に、追従者は、キーマンが怒ると一緒になって怒る。そこで、このような法則を用いて、次のようにして追従者の分析を行う。
例えば、図15の処理を行った結果、「ストレージ」のトピックのキーマンが出席者YCであると判別されたとする。この場合は、出席者YCが怒った直後に他の4人の出席者YA、YB、YD、YEの感情がそれぞれどのように変化したのかを、図16の抽出データに基づいて検知する。そして、「4(怒り)」に変化した出席者のカウンタに1点を加算する。例えば、丸数字3のときに出席者YCの感情が「4(怒り)」に変化しているが、その直後に「4(怒り)」に変化したのは出席者YEだけである。よって、出席者YEのカウンタCSEに1点を加算する。出席者YA、YB、YDのカウンタCSA、CSB、CSDには加算しない。ほかにも出席者YCの感情が「4(怒り)」に変化しているところを調べ、他の4人の出席者の感情の変化に基づいてカウンタの加算処理を行う。
そして、カウンタCSA、CSB、CSD、CSEを比較し、最も大きい値が格納されているカウンタを有する出席者を追従者に決定する。または、追従者が複数いる場合もあるので、所定の値以上または所定の割合以上の点数が格納されているカウンタを有する出席者すべてを追従者に決定してもよい。
出席者特性分析部163は、以上説明したようにして、トピックごとに、Y社の出席者のうちの誰がキーマンであり誰が追従者であるかを分析する。分析結果は、図17に示すような特性分析データ73として分析結果データベースRC5(図4参照)に保存される。
一般に、出席者の中の最も上の役職の人が実質的なキーマンであるとは限らない。また、最も上の役職の人が実は追従者であることもあり得る。しかし、上に説明したように、出席者特性分析部163は、各出席者が互いにどのように影響し合っているかに基づいて特性分析データ73を生成する。よって、X社の出席者は、相手の肩書きや相手に対する先入観などに惑わされることなく、Y社の潜在的なキーマンおよび追従者を容易に推測することができる。
図12の個人別関心分析部164は、出席者がどのトピックに関心を有しているのかを分析する処理を行う。本実施形態では、Y社の各出席者が、どのトピックについて良い関心(肯定的な関心、感想)を持ち、どのトピックについて悪い関心(否定的な関心、感想)を持っているのかを、次のようにして分析する。
分析対象の出席者のトピック別感情分析データ72(図14参照)に基づいて、その出席者にとって肯定的な(良い)トピックと否定的な(悪い)トピックとを判別する。例えば、「喜び」および「リラックス」の割合が所定の割合(例えば、50%)以上であれば肯定的なトピックと判別し、「怒り」および「悲しみ」の割合が所定の割合(例えば、50%)以上であれば否定的なトピックと判別する。例えば、出席者YAのトピック別感情分析データ72が図14に示すような内容である場合は、出席者YAにとって、「ストレージ」および「人事システム」は否定的なトピックであり、「CTI」および「オンライン予約」は肯定的なトピックである、と判別する。
分析対象の出席者が肯定的なトピックについてそれぞれ何回発言したのかを、議事録データGDT(図9参照)より計数する。そして、発言の回数の多いものほど、肯定的な関心度が高いトピックであると判別する。同様に、否定的なトピックについてもそれぞれ発言回数を計数し、発言の回数の多いものほど、否定的な関心度が高いトピックであると判別する。このようにして、図18に示すような個人別関心データ74がY社の出席者ごとに得られる。
トピック別関心分析部165は、各トピックについて、出席者のうちの誰が最も肯定的な(良い)関心を持ち、誰が最も否定的な(悪い)関心を持っているのかを分析する。本実施形態では、Y社の出席者を対象に分析する。
例えば、「ストレージ」というトピックについて分析する場合は、「ストレージ」について話し合われた時間帯における感情が「喜び」または「リラックス」である割合が所定の割合以上である出席者を、各出席者のトピック別感情分析データ72(図14参照)に基づいて判別する。それらの出席者の「ストレージ」についての発言の回数を議事録データGDT(図9参照)より計数する。そして、発言回数が多い出席者ほど肯定的な関心度が高いと判別する。
同様に、「ストレージ」について話し合われた時間帯における感情が「怒り」または「悲しみ」である割合が所定の割合以上である出席者を判別し、それらの出席者のうち「ストレージ」に関する発言回数が多い出席者ほど否定的な関心度が高いと判別する。
このようにして、図19に示すようなトピック別関心データ75がトピックごとに得られる。
以上説明したように、議事録生成部105および分析処理部106の処理によって、議事録データGDT、題目別感情分析データ71、トピック別感情分析データ72、特性分析データ73、個人別関心データ74、およびトピック別関心データ75などのデータを生成することができる。
X社の出席者および関係者は、これらのデータに基づいて、会議の目的を達成することができたか否か、最も議論されたトピックは何か、各トピックにどれくらいの時間を費やしたか、Y社の反応がよかったトピックおよび反応が悪かったトピックは何か、同じトピックが何度もループするなどの非効率な部分がなかったか否か、および実質的な決定権を持っていそうな出席者(キーマン)は誰かなど、今回の会議に関して様々に考察することができる。そして、次回の会議を開催するまでに、それぞれのトピックについてどのように話し合いを進行すればよいか、誰をターゲットに話をしたほうがよいか、および慎重に話し合うべきであるトピック(危険なトピック)は何かなど、様々な対策を事前に立てておくことができる。
〔2回目以降の会議において効果的な処理〕
図20は相手側の様子を示す画像GAに感情画像GBおよび個人特性画像GCを重ね合わせて表示する例を示す図、図21は個人特性マトリックスGC’の例を示す図、図22はカット語句データ6Cの例を示す図である。次に、2回目以降の会議において特に効果的な処理について説明する。
図3のイメージ合成部108は、会議中に、X社の出席者からの要求に応じて、以前に開催された会議の議事録データGDTおよび題目別感情分析データ71〜トピック別関心データ75などの、会議録データベースRC4および分析結果データベースRC5に保存されている情報(データ)を、Y社の出席者の画像に重ね合わせる処理を行う。
例えば、「ストレージ」のキーマン、最も肯定的な考え(関心)を有する出席者、および最も否定的な考え(関心)を有する出席者を表示すべき旨の要求を受けると、図20に示すように、画像GAに個人特性画像GCを重ね合わせる処理を行う。
または、図20の個人特性画像GCの代わりに、図21に示すような、複数のトピックのキーマン、肯定的人物、および否定的人物を纏めた個人特性マトリックスGC’を画像GAに重ね合わせてもよい。出席者の人数が多い場合は、個人特性マトリックスGC’において、肯定的な関心度の高い出席者および否定的な関心度の高い出席者としてそれぞれの上位数人(例えば、3人)を示すようにしてもよい。なお、黒丸、白丸、および黒四角は、それぞれ、キーマン、肯定的人物、および否定的人物を意味する。
このように、個人特性画像GCまたは個人特性マトリックスGC’を表示することによって、X社の出席者にとって、Y社の出席者ごとの対策が練りやすくなる。例えば、否定的な考えを持っている者に対しては、会議が終わった後で個別に説明をするなどして、X社の意見や主張を理解してもらうことができる。また、感情画像GBと個人特性画像GCなどとを比較することによって、出席者の考え方が前回の会議からどのように変化したかを容易に推測することができる。
音声ブロック処理部109は、前に述べた(3)の目的(Y社の出席者に不快を与えそうな発言をカットすること)のために、所定の語句(単語、フレーズ)をカットする処理を音声データ5SAに対して施す。係る処理は、次のような手順で行われる。
X者の出席者は、図22に示すような、カットしたい語句の一覧であるカット語句データ6Cを予め用意しておく。カット語句データ6Cは、以前の会議の分析結果に基づいて自動的に生成するようにしてもよい。例えば、Y社の出席者の全員が否定的な関心を示したトピックまたはキーマンが否定的な関心を示したトピックが含まれるように、カット語句データ6Cを生成してもよい。または、X社の出席者が、端末装置2A1を操作して、Y社の競合他社の名前や、仲の悪い人の名前、または「何となく」というような曖昧な言い回しの語句などを、カット語句データ6Cに追加するようにしてもよい。
音声ブロック処理部109は、データ受信部101によって受信された音声データ5SAに、カット語句データ6Cに示される語句が含まれているかどうかをチェックする。含まれている場合は、その語句だけがカットされるように音声データ5SAを編集する。データ送信部107は、編集がなされた音声データ5SAを、Y社の端末システム2Bに送信する。
図23は会議支援システム1の全体的な処理の流れの例を説明するフローチャート、図24は映像音声中継処理の流れの例を説明するフローチャート、図25は議事録生成処理の流れの例を説明するフローチャート、図26は分析処理の流れの例を説明するフローチャートである。
次に、端末システム2Aと端末システム2Bとを中継する際の会議支援システム1の処理の流れを、フローチャートを参照して説明する。
図23において、X社の出席者は、会議が始まる前に、図7のような目録データ6Dおよび図22のようなカット語句データ6Cを用意し、図4の会議目録データベースRC3に登録しておく(#1)。なお、会議録の生成処理を会議後に実行するのであれば、目録データ6Dは、会議後に登録すればよい。
会議が始まると、端末システム2A、2Bから双方の映像および音声のデータが送信されてくる。会議支援システム1は、これらのデータを受信すると(#2)、X社の映像および音声のデータをY社に送信しY社の映像および音声のデータをX社に送信するための処理を行う(#3)。また、ステップ#3の処理と並行して、議事録を生成する処理を行う(#4)。ステップ#3の処理は、図24に示すような手順で行われる。
図20に示すように、Y社の映像(画像GA)に、Y社の出席者の感情を示す感情画像GBを重ね合わせる処理を行う(図24の#111)。Y社の出席者の感情は、並行して実行されるステップ#4の処理によって求められる(図25参照)。さらに、X社の出席者からの要求に応じて、以前の会議によって得られた資料のデータを画像GAに重ね合わせる処理を行う(#112)。例えば、図20および図21に示すように、個人特性画像GCまたは個人特性マトリックスGC’などを重ね合わせる。
ステップ#111、#112の処理と並行して、Y社の出席者に不快を与えそうな語句を、X社の音声よりカットする処理を行う(#113)。そして、これらの処理がなされた、X社の映像および音声のデータをY社の端末システム2Bに送信し、Y社の映像および音声のデータをX社の端末システム2Aに送信する(#114)。
図23のステップ#4の処理は、図25に示すような手順で行われる。X社、Y社のそれぞれの音声データに基づいてX社、Y社の出席者の発言をテキストデータ化する(図25の#121)。これと並行して、各センテンスの発言者を判別し(#122)、X社、Y社のそれぞれの映像データ(顔画像)に基づいてX社、Y社の出席者の感情を判別する(#123)。会議の全体の時間を所定の長さ(例えば、5分)の時間(所定区間)に区切り、その所定区間ごとに、話し合われた内容がどのトピックに関するものであるのかを判別する(#124)。
生成されたテキストデータ、発言者の判別結果、および各出席者の感情の判別結果をマッチングすることによって、図9の議事録データGDTを順次生成していく(#125)。なお、議事録データGDTを生成する処理は、会議の終了後に実行するようにしてもよい。ただし、図24のステップ#111において感情画像GBを重ね合わせる必要があるので、X社、Y社の出席者の感情を判別する処理(#124)は、会議の進行に合わせてリアルタイムに実行しなければならない。
図23に戻って、端末システム2A、2Bから映像および音声のデータが送信されてくる間(#5でNo)、ステップ#2〜#4の処理を繰り返す。
会議が終了して議事録データGDTが完成した後(#5でYes)、その議事録データGDTに基づいてY社の出席者などに関する分析の処理を行う(#6)。すなわち、図26に示すように、各出席者の感情についてトピックまたは題目ごとに統計を取り(#131)、トピックごとにキーマンおよびその追従者を判別し(#132)、トピックごとに肯定的な関心度の高い出席者および否定的な関心度の高い出席者を判別する(#133)。その結果、題目別感情分析データ71、トピック別感情分析データ72、特性分析データ73、個人別関心データ74、およびトピック別関心データ75(図13、図14、図17、図18、および図19参照)が生成される。
本実施形態によると、議事録が会議支援システム1によって自動的に作成されるので、記録係の出席者は会議中に議事録を取らなくてもよく、会議に集中することができる。会議支援システム1は、議事録を分析して、トピックごとに、キーマン、肯定的な関心や感想を持つ者、および否定的な関心や感想を持つ者を判別する。これにより、会議の進行役は、会議の進行の仕方や各出席者に対する対策などを容易に講じることができる。例えば、キーマンの嫌いなトピックについては、別の日に改めて説明するなどの対策を取ることができる。
顧客との会議、打合せ、または商談に限らず、自社内の会議などに遠隔会議システム100を使用することもできる。そうすると、自社の社員がどんなトピックについて関心を持っているのか、誰が潜在的なキーマンであるか、および誰と誰との意見が対立しているのか、などを容易に知ることができるので、プロジェクトメンバの選定などに好適に用いることができる。
本実施形態では、1つの発言について各出席者の感情をそれぞれ1つ求めたが、1つの発言中の感情を複数求めることによって感情の変化が分かるようにしてもよい。例えば、発言が始まった時刻、発言の中間の時刻、および発言が終わった時刻のそれぞれにおける感情を求め、議事録に記録してもよい。
本実施形態では、端末システム2A、2Bから受信した映像データおよび音声データを、必要に応じて画像合成または語句のカット処理などの加工処理を行い、相手側の端末システム2B、2Aに送信した。つまり、本実施形態では会議支援システム1は映像データおよび音声データを中継する処理を行ったが、次のような場合は、端末システム2A、2Bは、映像データおよび音声データのやり取りを、会議支援システム1を介さずに直接行ってもよい。
図3の音声ブロック処理部109による不快な語句のカット処理を行わない場合は、端末システム2A、2Bは、会議支援システム1および相手の端末システム2B、2Aに音声データを送信する。会議支援システム1は、端末システム2A、2Bより受信した音声データを、議事録データGDTの生成および各種分析のためだけに使用する。データ送信部107は、端末システム2A、2Bへの音声データの送信(中継)は行わない。その代わりに、端末システム2A、2Bは、相手の端末システム2B、2Aから直接送信されてくる音声データに基づいて、出席者の音声を出力する。
図10または図20に示すような画像の合成(重ね合わせ)の処理が必要ない場合または係る処理を端末システム2A、2Bで行う場合も同様に、端末システム2A、2Bは、会議支援システム1および相手の端末システム2B、2Aに映像データを送信する。会議支援システム1は、端末システム2A、2Bより受信した映像データを、議事録データGDTの生成および各種分析のためだけに使用する。データ送信部107は、端末システム2A、2Bへの映像データの送信(中継)は行わず、必要に応じて感情画像GB、個人特性画像GC、または個人特性マトリックスGC’(図21参照)などの画像データを送信する。その代わりに、端末システム2A、2Bは、相手の端末システム2B、2Aから直接送信されてくる映像データに基づいて出席者の様子を表示する。
本実施形態では、図11に示す5種類の感情についての判別を行ったが、「眠い」または「退屈」など、これ以外の感情について判別するようにしてもよい。また、「眠い」または「退屈」などの感情の出現度合いに基づいて、分析処理を行ってもよい。
図1の会議支援システム1を、複数のサーバ機などによって構成してもよい。例えば、会議支援システム1を、映像音声保存サーバ、自然言語処理サーバ、感情認識処理サーバ、ストリーミングサーバ、および分析サーバによって構成し、図3に示す各部の処理をこれらのサーバ機に分散して実行するようにしてもよい。
図27は会議システム100Bの全体的な構成の例を示す図、図28は端末装置31の機能的構成の例を示す図である。
本実施形態では、X社の社員およびY社の社員が互いに離れた場所で会議を行う場合を例に説明したが、本発明は1か所に集まって会議を行う場合にも適用可能である。この場合は、次に説明するように会議システム100Bを構成すればよい。
会議システム100Bは、図27に示すように、パーソナルコンピュータまたはワークステーションなどの端末装置31およびビデオカメラ32によって構成される。ビデオカメラ32は、会議の出席者全員の顔を撮影する。また、ビデオカメラ32には、マイクが設けられており、出席者の発言の音声を集音する。
端末装置31には、図28に示すようなデータ受信部131、テキストデータ生成部132、感情判別部133、トピック判別部134、議事録生成部135、分析処理部136、映像音声出力部137、イメージ合成部138、およびデータベース管理部3DBなどの機能を実現するためのプログラムおよびデータがインストールされている。
データ受信部131は、会議の様子を示す映像および音声のデータをビデオカメラ32より受信する。テキストデータ生成部132〜分析処理部136、イメージ合成部138、およびデータベース管理部3DBは、図3などで説明したテキストデータ生成部102〜分析処理部106、イメージ合成部108、およびデータベース管理部1DBと同様の処理を行う。
映像音声出力部137は、感情画像GB、個人特性画像GC、または個人特性マトリックスGC’(図20、図21参照)などが重ね合わされた映像(画像GA)をディスプレイに表示する。会議室が広い場合は、スピーカより音声を出力するようにしてもよい。また、所定の人数以上の出席者の感情が「怒り」になった場合やトピックが繰り返された(ループした)場合などに、注意を促す音声を出力するようにしてもよい。
その他、遠隔会議システム100、会議システム100B、会議支援システム1、端末システム2A、端末システム2Bの全体または各部の構成、処理内容、処理順序などは、本発明の趣旨に沿って適宜変更することができる。
以上説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)会議の複数の出席者の顔の画像を入力する画像入力手段と、
入力された前記画像に基づいて前記出席者ごとの感情を判別する感情判別手段と、
前記出席者の音声を入力する音声入力手段と、
入力された前記音声に基づいて、前記出席者の発言の内容を示すテキストデータを生成するテキストデータ生成手段と、
前記感情判別手段による判別結果および前記テキストデータ生成手段によって生成された前記テキストデータに基づいて、前記発言の内容と当該発言があったときの前記各出席者の感情とを記録した議事録を生成する議事録生成手段と、
を有することを特徴とする会議支援システム。 …… (1)
(付記2)
前記議事録生成手段は、前記発言が行われている時間帯に撮影された1つまたは複数の前記画像に基づいて前記感情を判別する、
付記1記載の会議支援システム。
(付記3)
前記議事録生成手段は、前記発言が開始された時刻に撮影された前記画像に基づいて前記感情を判別する、
付記1記載の会議支援システム。
(付記4)会議で話し合う1つまたは複数の議題を示す議題情報を記憶する議題情報記憶手段と、
前記議題情報および前記テキストデータに基づいて、前記発言が前記議題のうちのいずれに係るものであるかを判別する議題判別手段と、を有し、
前記議事録生成手段は、前記議題判別手段による判別結果に基づいて、前記発言に係る前記議題を記録した前記議事録を生成する、
付記1ないし付記3のいずれかに記載の会議支援システム。 …… (2)
(付記5)前記出席者が前記議題のうちのいずれの議題に関心を持っているかを前記議事録に基づいて判別する関心事判別手段を有する、
付記4記載の会議支援システム。 …… (3)
(付記6)前記関心事分析手段は、前記出席者が前記議題のうちのいずれの議題に関心を持っているかを、前記議題ごとにそれに係る前記発言があったときの当該出席者の感情の統計に基づいて判別する、
付記5記載の会議支援システム。
(付記7)前記議題について前記出席者のうちの誰が最も関心を持っているかを前記議事録に基づいて判別する関心度合判別手段を有する、
付記4ないし付記6のいずれかに記載の会議支援システム。
(付記8)前記関心度合判別手段は、前記議題について前記出席者のうちの誰が最も関心を持っているかを、当該議題に係る前記発言があったときの、前記出席者ごとの感情の統計に基づいて判別する、
付記7記載の会議支援システム。
(付記9)前記議題の中心人物を前記議事録に基づいて判別する中心人物判別手段を有する、
付記4ないし付記8のいずれかに記載の会議支援システム。
(付記10)前記中心人物判別手段は、前記議題の中心人物を、当該議題に係る前記発言があった直後の、当該発言を行った前記出席者以外の出席者の感情に基づいて判別する、
付記9のいずれかに記載の会議支援システム。
(付記11)前記議題の中心人物に追従する追従者を、当該議題に係る前記発言があった直後の、当該発言を行った前記出席者以外の出席者の感情に基づいて判別する、
付記9または付記10のいずれかに記載の会議支援システム。
(付記12)不快を与えそうな語句の一覧を記憶する語句一覧記憶手段と、
前記音声入力手段によって入力された音声から前記一覧に示される語句を消去する消去処理を行う語句消去手段と、
前記語句消去手段によって前記消去処理がなされた音声のデータを出力する音声出力手段と、を有する、
付記1ないし付記11のいずれかに記載の会議支援システム。
(付記13)前記画像入力手段によって入力された画像に、前記感情判別手段による判別結果を示す画像を合成する画像合成手段と、
前記画像合成手段によって合成された画像のデータを出力する画像出力手段と、を有する、
付記1ないし付記12のいずれかに記載の会議支援システム。
(付記14)互いに離れた複数の場所を中継して会議を行うための遠隔会議支援システムであって、
前記各場所から会議の出席者の顔の画像を入力する画像入力手段と、
入力された前記画像に基づいて前記出席者ごとの感情を判別する感情判別手段と、
前記出席者の音声を入力する音声入力手段と、
入力された前記音声に基づいて、前記出席者の発言の内容を示すテキストデータを生成するテキストデータ生成手段と、
前記感情判別手段による判別結果および前記テキストデータ生成手段によって生成された前記テキストデータに基づいて、前記発言の内容と当該発言があったときの前記各出席者の感情とを記録した議事録を生成する議事録生成手段と、
を有することを特徴とする遠隔会議支援システム。
(付記15)会議の議事録を生成する議事録生成方法であって、
会議の出席者の顔の画像を入力するステップと、
入力された前記画像に基づいて前記出席者ごとの感情を判別する感情判別処理を実行するステップと、
前記出席者の音声を入力するステップと、
入力された前記音声に基づいて、前記出席者の発言の内容を示すテキストデータを生成すステップと、
前記感情判別処理の結果および前記テキストデータに基づいて、前記発言の内容と当該発言があったときの前記各出席者の感情とを記録した議事録を生成するステップと、
を有することを特徴とする議事録生成方法。 …… (4)
(付記16)会議の議事録を生成するコンピュータに用いられるコンピュータプログラムであって、
会議の出席者の顔の画像を入力する処理と、
入力された前記画像に基づいて前記出席者ごとの感情を判別する感情判別処理と、
前記出席者の音声を入力する処理と、
入力された前記音声に基づいて、前記出席者の発言の内容を示すテキストデータを生成す処理と、
前記感情判別処理の結果および前記テキストデータに基づいて、前記発言の内容と当該発言があったときの前記各出席者の感情とを記録した議事録を生成する処理と、
をコンピュータに実行させるためのコンピュータプログラム。 …… (5)
本発明は、いわゆるASP(Application Service Provider)などのサービス事業者が企業、役所、または学校などの団体に会議中継サービスを提供ために好適に用いられる。係るサービスを提供するために、サービス事業者は、図1の会議支援システム1をネットワーク上に開設する。または、スタンドアロンタイプのシステムとして、図27の会議システム100Bを顧客に提供することもできる。
遠隔会議システムの全体的な構成の例を示す図である。 会議支援システムのハードウェア構成の例を示す図である。 会議支援システムの機能的構成の例を示す図である。 データベース管理部の構成の例を示す図である。 発言テキストデータの例を示す図である。 感情データの例を示す図である。 目録データの例を示す図である。 トピックデータの例を示す図である。 議事録データの例を示す図である。 相手側の様子を示す画像および感情画像の表示例を示す図である。 感情画像に用いられる記号の例を説明する図である。 分析処理部の構成の例を示す図である。 題目別感情分析データの例を示す図である。 トピック別感情分析データの例を示す図である。 キーマン判別処理の流れの例を説明するフローチャートである。 あるトピックに関する議論の時間帯におけるY社の各出席者の感情の変化を示す図である。 特性分析データの例を示す図である。 個人別関心データの例を示す図である。 トピック別関心データの例を示す図である。 相手側の様子を示す画像に感情画像および個人特性画像を重ね合わせて表示する例を示す図である。 個人特性マトリックスの例を示す図である。 カット語句データの例を示す図である。 会議支援システムの全体的な処理の流れの例を説明するフローチャートである。 映像音声中継処理の流れの例を説明するフローチャートである。 議事録生成処理の流れの例を説明するフローチャートである。 分析処理の流れの例を説明するフローチャートである。 会議システムの全体的な構成の例を示す図である。 端末装置の機能的構成の例を示す図である。
符号の説明
1 会議支援システム
31 端末装置(会議支援システム)
101、131 データ受信部(画像入力手段、音声入力手段)
102、132 テキストデータ生成部(テキストデータ生成手段)
103、133 感情判別部(感情判別手段)
104、134 トピック判別部(議題判別手段)
105、135 議事録生成部(議事録生成手段)
164 個人別関心分析部(関心事判別手段)
5MA、5MB 映像データ
6D 目録データ(議題情報)
6F 感情データ
6H 発言テキストデータ
6P トピックデータ
GDT 議事録データ
RC3 会議目録データベース(議題情報記憶手段)
YA〜YE 出席者

Claims (6)

  1. 会議の複数の出席者の顔の画像を入力する画像入力手段と、
    入力された前記画像に基づいて前記出席者ごとの感情を判別する感情判別手段と、
    前記出席者の音声を入力する音声入力手段と、
    入力された前記音声に基づいて、前記出席者の発言の内容を示すテキストデータを生成するテキストデータ生成手段と、
    入力された前記音声のパターンを分析することにより、前記発言を行った前記出席者である発言者を特定する発言者特定手段と、
    前記感情判別手段による判別結果前記テキストデータ生成手段によって生成された前記テキストデータ、および前記発言者特定手段によって特定された前記発言者に基づいて、前記発言の内容と当該発言を行った前記出席者と当該発言があったときの前記各出席者の感情とを記録した議事録を生成する議事録生成手段と、
    を有することを特徴とする会議支援システム。
  2. 会議で話し合う1つまたは複数の議題を示す議題情報を記憶する議題情報記憶手段と、
    前記議題情報に示される前記議題が前記テキストデータの中に含まれる回数を前記議題別にカウントし、前記議題のうち前記テキストデータの中に含まれる回数が最も多い議題を当該テキストデータに示される前記発言に係る議題であると判別する議題判別手段と、を有し、
    前記議事録生成手段は、前記議題判別手段による判別結果に基づいて、前記発言に係る前記議題を記録した前記議事録を生成する、
    請求項1記載の会議支援システム。
  3. 前記議事録に記録された、前記議題に係る前記発言があったときの前記出席者の前記感情が出現した回数を前記感情別にカウントし、前記感情のうち所定の感情が出現した回数の割合が所定の値以上である場合に当該出席者が当該議題に関心を持っていると判別する関心事判別手段を有する、
    請求項2記載の会議支援システム。
  4. 前記議事録に記録された、前記発言があったときの当該発言を行った者以外の前記出席者の前記感情に基づいて、当該発言を行った前記出席者が中心人物であるか否かを判別する中心人物判別手段を有する、
    請求項1記載の会議支援システム。
  5. 会議の議事録を生成する議事録生成方法であって、
    会議の出席者の顔の画像を入力するステップと、
    入力された前記画像に基づいて前記出席者ごとの感情を判別する感情判別処理を実行するステップと、
    前記出席者の音声を入力するステップと、
    入力された前記音声に基づいて、前記出席者の発言の内容を示すテキストデータを生成すステップと、
    入力された前記音声のパターンを分析することにより、前記発言を行った前記出席者である発言者を特定するステップと、
    前記感情判別処理の結果前記テキストデータ、および前記発言者に基づいて、前記発言の内容と当該発言を行った前記出席者と当該発言があったときの前記各出席者の感情とを記録した議事録を生成するステップと、
    を有することを特徴とする議事録生成方法。
  6. 会議の議事録を生成するコンピュータに用いられるコンピュータプログラムであって、
    会議の出席者の顔の画像を入力する処理と、
    入力された前記画像に基づいて前記出席者ごとの感情を判別する感情判別処理と、
    前記出席者の音声を入力する処理と、
    入力された前記音声に基づいて、前記出席者の発言の内容を示すテキストデータを生成す処理と、
    入力された前記音声のパターンを分析することにより、前記発言を行った前記出席者である発言者を特定する処理と、
    前記感情判別処理の結果前記テキストデータ、および前記発言者に基づいて、前記発言の内容と当該発言を行った前記出席者と当該発言があったときの前記各出席者の感情とを記録した議事録を生成する処理と、
    をコンピュータに実行させるためのコンピュータプログラム。
JP2004083464A 2004-03-22 2004-03-22 会議支援システム、議事録生成方法、およびコンピュータプログラム Expired - Fee Related JP4458888B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004083464A JP4458888B2 (ja) 2004-03-22 2004-03-22 会議支援システム、議事録生成方法、およびコンピュータプログラム
US10/924,990 US20050209848A1 (en) 2004-03-22 2004-08-25 Conference support system, record generation method and a computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004083464A JP4458888B2 (ja) 2004-03-22 2004-03-22 会議支援システム、議事録生成方法、およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2005277462A JP2005277462A (ja) 2005-10-06
JP4458888B2 true JP4458888B2 (ja) 2010-04-28

Family

ID=34987456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004083464A Expired - Fee Related JP4458888B2 (ja) 2004-03-22 2004-03-22 会議支援システム、議事録生成方法、およびコンピュータプログラム

Country Status (2)

Country Link
US (1) US20050209848A1 (ja)
JP (1) JP4458888B2 (ja)

Families Citing this family (179)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8272874B2 (en) * 2004-11-22 2012-09-25 Bravobrava L.L.C. System and method for assisting language learning
US8033831B2 (en) * 2004-11-22 2011-10-11 Bravobrava L.L.C. System and method for programmatically evaluating and aiding a person learning a new language
US8221126B2 (en) * 2004-11-22 2012-07-17 Bravobrava L.L.C. System and method for performing programmatic language learning tests and evaluations
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
JP5055781B2 (ja) * 2006-02-14 2012-10-24 株式会社日立製作所 会話音声分析方法、及び、会話音声分析装置
JP2007241130A (ja) * 2006-03-10 2007-09-20 Matsushita Electric Ind Co Ltd 声紋認識を利用するシステムと装置
JP2007318438A (ja) * 2006-05-25 2007-12-06 Yamaha Corp 音声状況データ生成装置、音声状況可視化装置、音声状況データ編集装置、音声データ再生装置、および音声通信システム
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
JP5225847B2 (ja) * 2006-09-08 2013-07-03 パナソニック株式会社 情報処理端末、音楽情報生成方法、およびプログラム
US20080183467A1 (en) * 2007-01-25 2008-07-31 Yuan Eric Zheng Methods and apparatuses for recording an audio conference
JP5212604B2 (ja) * 2007-01-29 2013-06-19 日本電気株式会社 リスク検知システム、リスク検知方法及びそのプログラム
JP4281819B2 (ja) * 2007-04-02 2009-06-17 ソニー株式会社 撮像画像データ処理装置、視聴情報生成装置、視聴情報生成システム、撮像画像データ処理方法、視聴情報生成方法
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
JP2009176032A (ja) 2008-01-24 2009-08-06 Sony Corp 情報処理装置および方法、並びにプログラム
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
JP2010141843A (ja) * 2008-12-15 2010-06-24 Brother Ind Ltd 会議システム、通信会議支援方法、会議端末装置及びプログラム
JP5332798B2 (ja) * 2009-03-26 2013-11-06 ブラザー工業株式会社 通信制御装置、通信制御方法、及び通信制御プログラム
JP5533854B2 (ja) * 2009-03-31 2014-06-25 日本電気株式会社 音声認識処理システム、および音声認識処理方法
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
TWI383376B (zh) * 2009-08-14 2013-01-21 Kuo Ping Yang 語音溝通方法及應用該方法之系統
JP5257330B2 (ja) * 2009-11-06 2013-08-07 株式会社リコー 発言記録装置、発言記録方法、プログラム及び記録媒体
US8560309B2 (en) * 2009-12-29 2013-10-15 Apple Inc. Remote conferencing center
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US8879761B2 (en) 2011-11-22 2014-11-04 Apple Inc. Orientation-based audio
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US20140081637A1 (en) * 2012-09-14 2014-03-20 Google Inc. Turn-Taking Patterns for Conversation Identification
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
WO2014097752A1 (ja) * 2012-12-19 2014-06-26 日本電気株式会社 価値可視化装置、価値可視化方法、及びコンピュータ読み取り可能な記録媒体
EP3809407A1 (en) 2013-02-07 2021-04-21 Apple Inc. Voice trigger for a digital assistant
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
AU2014233517B2 (en) 2013-03-15 2017-05-25 Apple Inc. Training an at least partial voice command system
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
KR101922663B1 (ko) 2013-06-09 2018-11-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
JP2016521948A (ja) 2013-06-13 2016-07-25 アップル インコーポレイテッド 音声コマンドによって開始される緊急電話のためのシステム及び方法
JP6179226B2 (ja) * 2013-07-05 2017-08-16 株式会社リコー 議事録生成装置、議事録生成方法、議事録生成プログラムおよび通信会議システム
AU2014306221B2 (en) 2013-08-06 2017-04-06 Apple Inc. Auto-activating smart responses based on activities from remote devices
JP6364775B2 (ja) * 2014-01-09 2018-08-01 サクサ株式会社 電子会議システム及びそのプログラム
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
JP6397250B2 (ja) * 2014-07-30 2018-09-26 Kddi株式会社 集中度推定装置、方法及びプログラム
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9672829B2 (en) * 2015-03-23 2017-06-06 International Business Machines Corporation Extracting and displaying key points of a video conference
JP2015165407A (ja) * 2015-03-25 2015-09-17 株式会社リコー ネットワークシステム
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10387548B2 (en) * 2015-04-16 2019-08-20 Nasdaq, Inc. Systems and methods for transcript processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
JP6428509B2 (ja) * 2015-06-30 2018-11-28 京セラドキュメントソリューションズ株式会社 情報処理装置、及び画像形成装置
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US9641563B1 (en) 2015-11-10 2017-05-02 Ricoh Company, Ltd. Electronic meeting intelligence
US11120342B2 (en) 2015-11-10 2021-09-14 Ricoh Company, Ltd. Electronic meeting intelligence
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10614418B2 (en) 2016-02-02 2020-04-07 Ricoh Company, Ltd. Conference support system, conference support method, and recording medium
JP7098875B2 (ja) * 2016-02-02 2022-07-12 株式会社リコー 会議支援システム、会議支援装置、会議支援方法及びプログラム
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US10614162B2 (en) * 2016-05-27 2020-04-07 Ricoh Company, Ltd. Apparatus, system, and method of assisting information sharing, and recording medium
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
JP6488453B2 (ja) * 2016-06-17 2019-03-27 株式会社ワンブリッジ プログラム及び情報伝達装置
US20170371496A1 (en) * 2016-06-22 2017-12-28 Fuji Xerox Co., Ltd. Rapidly skimmable presentations of web meeting recordings
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10510051B2 (en) 2016-10-11 2019-12-17 Ricoh Company, Ltd. Real-time (intra-meeting) processing using artificial intelligence
US10860985B2 (en) 2016-10-11 2020-12-08 Ricoh Company, Ltd. Post-meeting processing using artificial intelligence
US11307735B2 (en) 2016-10-11 2022-04-19 Ricoh Company, Ltd. Creating agendas for electronic meetings using artificial intelligence
US10572858B2 (en) 2016-10-11 2020-02-25 Ricoh Company, Ltd. Managing electronic meetings using artificial intelligence and meeting rules templates
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11080723B2 (en) * 2017-03-07 2021-08-03 International Business Machines Corporation Real time event audience sentiment analysis utilizing biometric data
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10389882B2 (en) 2017-07-21 2019-08-20 Brillio, Llc Artificial intelligence (AI)-assisted conference system
JP6977463B2 (ja) * 2017-10-06 2021-12-08 富士フイルムビジネスイノベーション株式会社 通信装置、通信システムおよびプログラム
US11030585B2 (en) 2017-10-09 2021-06-08 Ricoh Company, Ltd. Person detection, person identification and meeting start for interactive whiteboard appliances
US11062271B2 (en) 2017-10-09 2021-07-13 Ricoh Company, Ltd. Interactive whiteboard appliances with learning capabilities
US10553208B2 (en) 2017-10-09 2020-02-04 Ricoh Company, Ltd. Speech-to-text conversion for interactive whiteboard appliances using multiple services
US10552546B2 (en) 2017-10-09 2020-02-04 Ricoh Company, Ltd. Speech-to-text conversion for interactive whiteboard appliances in multi-language electronic meetings
US10956875B2 (en) 2017-10-09 2021-03-23 Ricoh Company, Ltd. Attendance tracking, presentation files, meeting services and agenda extraction for interactive whiteboard appliances
US10757148B2 (en) 2018-03-02 2020-08-25 Ricoh Company, Ltd. Conducting electronic meetings over computer networks using interactive whiteboard appliances and mobile devices
JP2020036282A (ja) * 2018-08-31 2020-03-05 沖電気工業株式会社 通信制御装置及び通信制御方法
JP7225631B2 (ja) * 2018-09-21 2023-02-21 ヤマハ株式会社 画像処理装置、カメラ装置、および画像処理方法
US11270060B2 (en) 2019-03-15 2022-03-08 Ricoh Company, Ltd. Generating suggested document edits from recorded media using artificial intelligence
US11080466B2 (en) 2019-03-15 2021-08-03 Ricoh Company, Ltd. Updating existing content suggestion to include suggestions from recorded media using artificial intelligence
US11720741B2 (en) 2019-03-15 2023-08-08 Ricoh Company, Ltd. Artificial intelligence assisted review of electronic documents
US11392754B2 (en) 2019-03-15 2022-07-19 Ricoh Company, Ltd. Artificial intelligence assisted review of physical documents
US11573993B2 (en) 2019-03-15 2023-02-07 Ricoh Company, Ltd. Generating a meeting review document that includes links to the one or more documents reviewed
US11263384B2 (en) 2019-03-15 2022-03-01 Ricoh Company, Ltd. Generating document edit requests for electronic documents managed by a third-party document management service using artificial intelligence
JP7279494B2 (ja) * 2019-04-23 2023-05-23 コニカミノルタ株式会社 会議支援装置、および会議支援システム
US11024328B2 (en) * 2019-04-24 2021-06-01 Microsoft Technology Licensing, Llc Generating a synopsis of a meeting
KR102061291B1 (ko) * 2019-04-25 2019-12-31 이봉규 5g 통신 기반 스마트 회의 시스템 및 로보틱 처리 자동화를 통한 회의 지원 방법
US11443554B2 (en) * 2019-08-06 2022-09-13 Verizon Patent And Licensing Inc. Determining and presenting user emotion
JP7316584B2 (ja) * 2019-08-07 2023-07-28 パナソニックIpマネジメント株式会社 オーグメンテーション画像表示方法およびオーグメンテーション画像表示システム
CN110635922A (zh) * 2019-09-26 2019-12-31 中国银行股份有限公司 会议记录设备及系统
JP7354813B2 (ja) * 2019-12-05 2023-10-03 富士通株式会社 検出方法、通知方法、検出プログラムおよび通知プログラム
JP2021111239A (ja) * 2020-01-14 2021-08-02 住友電気工業株式会社 提供システム、提供方法、提供装置、及びコンピュータプログラム
JP7448378B2 (ja) * 2020-03-11 2024-03-12 本田技研工業株式会社 車両乗合支援システム及び車両乗合支援方法
JP7213857B2 (ja) * 2020-10-23 2023-01-27 本田技研工業株式会社 会議支援装置、会議支援方法および会議支援プログラム
US11556718B2 (en) 2021-05-01 2023-01-17 International Business Machines Corporation Altering messaging using sentiment analysis

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5887069A (en) * 1992-03-10 1999-03-23 Hitachi, Ltd. Sign recognition apparatus and method and sign translation system using same
US5661787A (en) * 1994-10-27 1997-08-26 Pocock; Michael H. System for on-demand remote access to a self-generating audio recording, storage, indexing and transaction system
US5774591A (en) * 1995-12-15 1998-06-30 Xerox Corporation Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images
US5732216A (en) * 1996-10-02 1998-03-24 Internet Angles, Inc. Audio message exchange system
US5796948A (en) * 1996-11-12 1998-08-18 Cohen; Elliot D. Offensive message interceptor for computers
US5867494A (en) * 1996-11-18 1999-02-02 Mci Communication Corporation System, method and article of manufacture with integrated video conferencing billing in a communication system architecture
US6069940A (en) * 1997-09-19 2000-05-30 Siemens Information And Communication Networks, Inc. Apparatus and method for adding a subject line to voice mail messages
US6128397A (en) * 1997-11-21 2000-10-03 Justsystem Pittsburgh Research Center Method for finding all frontal faces in arbitrarily complex visual scenes
US6075550A (en) * 1997-12-23 2000-06-13 Lapierre; Diane Censoring assembly adapted for use with closed caption television
JP2002175538A (ja) * 2000-12-08 2002-06-21 Mitsubishi Electric Corp 似顔絵生成装置及び似顔絵生成方法及び似顔絵生成プログラムを記録した記録媒体及び通信用端末及び通信用端末による通信方法
US6964023B2 (en) * 2001-02-05 2005-11-08 International Business Machines Corporation System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
US20020106188A1 (en) * 2001-02-06 2002-08-08 Crop Jason Brice Apparatus and method for a real time movie editing device
US6585521B1 (en) * 2001-12-21 2003-07-01 Hewlett-Packard Development Company, L.P. Video indexing based on viewers' behavior and emotion feedback

Also Published As

Publication number Publication date
US20050209848A1 (en) 2005-09-22
JP2005277462A (ja) 2005-10-06

Similar Documents

Publication Publication Date Title
JP4458888B2 (ja) 会議支援システム、議事録生成方法、およびコンピュータプログラム
US20200228358A1 (en) Coordinated intelligent multi-party conferencing
US9437215B2 (en) Predictive video analytics system and methods
US7596498B2 (en) Monitoring, mining, and classifying electronically recordable conversations
US9330658B2 (en) User intent analysis extent of speaker intent analysis system
US8370142B2 (en) Real-time transcription of conference calls
US8791977B2 (en) Method and system for presenting metadata during a videoconference
US20150106091A1 (en) Conference transcription system and method
EP1798945A1 (en) System and methods for enabling applications of who-is-speaking (WIS) signals
US11514914B2 (en) Systems and methods for an intelligent virtual assistant for meetings
TWI795759B (zh) 線上會議系統
JP5030868B2 (ja) 会議音声録音システム
US20220231873A1 (en) System for facilitating comprehensive multilingual virtual or real-time meeting with real-time translation
JP2007241130A (ja) 声紋認識を利用するシステムと装置
JP4077656B2 (ja) 発言者特定映像装置
US20050131697A1 (en) Speech improving apparatus, system and method
JP7123448B1 (ja) 情報処理方法、コンピュータプログラム及び情報処理装置
WO2022137547A1 (ja) コミュニケーション支援システム
JP4069207B2 (ja) コミュニケーション装置
CN114566187A (zh) 具有会话后表示的系统、电子装置和相关方法
US20230291594A1 (en) Systems and Methods for Creation and Application of Interaction Analytics
US11799679B2 (en) Systems and methods for creation and application of interaction analytics
CN109559760A (zh) 一种基于语音信息的情感分析方法及系统
JP7169030B1 (ja) プログラム、情報処理装置、情報処理システム、情報処理方法、情報処理端末
JP7169031B1 (ja) プログラム、情報処理装置、情報処理システム、情報処理方法、情報処理端末

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100209

R150 Certificate of patent or registration of utility model

Ref document number: 4458888

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130219

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140219

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees