JP2018045208A - 会議支援システム、会議支援方法及びプログラム - Google Patents

会議支援システム、会議支援方法及びプログラム Download PDF

Info

Publication number
JP2018045208A
JP2018045208A JP2016182175A JP2016182175A JP2018045208A JP 2018045208 A JP2018045208 A JP 2018045208A JP 2016182175 A JP2016182175 A JP 2016182175A JP 2016182175 A JP2016182175 A JP 2016182175A JP 2018045208 A JP2018045208 A JP 2018045208A
Authority
JP
Japan
Prior art keywords
data
utterance
subtitle
control unit
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016182175A
Other languages
English (en)
Other versions
JP6677614B2 (ja
Inventor
平 芦川
Taira Ashikawa
平 芦川
布目 光生
Mitsuo Nunome
光生 布目
将之 芦川
Masayuki Ashikawa
将之 芦川
浩司 藤村
Koji Fujimura
浩司 藤村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2016182175A priority Critical patent/JP6677614B2/ja
Priority to US15/440,550 priority patent/US10304460B2/en
Publication of JP2018045208A publication Critical patent/JP2018045208A/ja
Application granted granted Critical
Publication of JP6677614B2 publication Critical patent/JP6677614B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/567Multimedia conference systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition

Abstract

【課題】複数の人が参加する会議の音声認識データから得られた文字列を含む表示データを見やすくする。【解決手段】実施形態の会議支援システムは、認識部と、分類部と、第1の字幕制御部と、第2の字幕制御部と、表示制御部と、を備える。認識部は、音声データに含まれる音声区間と非音声区間とを識別しながら、音声区間から音声を示すテキストデータを認識する。分類部は、テキストデータを、主要な発話を示す第1の発話データと、主要な発話以外を示す第2の発話データと、に分類する。第1の字幕制御部は、第1の発話データに対応する第1の音声区間の識別の終了を待たずに、第1の発話データを表示する。第2の字幕制御部は、第2の発話データに対応する第2の音声区間の識別が終了してから、第2の発話データを表示する第2の字幕データを生成する。表示制御部は、第1の字幕データ及び第2の字幕データの表示を制御する。【選択図】図2

Description

本発明の実施形態は会議支援システム、会議支援方法及びプログラムに関する。
会議に参加している参加者の発言を、音声認識技術を活用することにより、リアルタイムに文字列にする会議支援システムが、従来から知られている。音声認識技術により得られた文字列は、例えば各発話の開始時刻、または音声認識データの取得時刻等の時系列順に表示される。
特許第5381988号公報
しかしながら従来の技術では、複数の人が参加する会議の音声認識データから得られた文字列を含む表示データが見づらくなる場合があった。
実施形態の会議支援システムは、認識部と、分類部と、第1の字幕制御部と、第2の字幕制御部と、表示制御部と、を備える。認識部は、音声データに含まれる音声区間と非音声区間とを識別しながら、前記音声区間から音声を示すテキストデータを認識する。分類部は、前記テキストデータを、主要な発話を示す第1の発話データと、主要な発話以外を示す第2の発話データと、に分類する。第1の字幕制御部は、前記第1の発話データに対応する第1の音声区間の識別の終了を待たずに、前記第1の発話データを表示する。第2の字幕制御部は、前記第2の発話データに対応する第2の音声区間の識別が終了してから、前記第2の発話データを表示する第2の字幕データを生成する。表示制御部は、前記第1の字幕データ及び前記第2の字幕データの表示を制御する。
第1実施形態の会議支援システムの装置構成の例を示す図。 第1実施形態の会議支援システムの機能構成の例を示す図。 第1実施形態の音声認識データ及び分類データの例を示す図。 第1実施形態の表示データの例1を示す図。 図4Aの表示データを表すHTMLタグの例を示す図。 第1実施形態の表示データの例2を示す図。 図5Aの表示データを表すHTMLタグの例を示す図。 第1実施形態の表示データの例3を示す図。 図6Aの表示データを表すHTMLタグの例を示す図。 第1実施形態の表示データの例4を示す図。 図7Aの表示データを表すHTMLタグの例を示す図。 第1実施形態の表示データの例5を示す図。 図8Aの表示データを表すHTMLタグの例を示す図。 第1実施形態の表示データの例6を示す図。 図9Aの表示データを表すHTMLタグの例を示す図。 第1実施形態の表示データの例7を示す図。 図10Aの表示データを表すHTMLタグの例を示す図。 第1実施形態の表示データの例8を示す図。 図11Aの表示データを表すHTMLタグの例を示す図。 第1実施形態の表示データの例9を示す図。 図12Aの表示データを表すHTMLタグの例を示す図。 第1実施形態の表示データの例10を示す図。 図13Aの表示データを表すHTMLタグの例を示す図。 第1実施形態の表示データの例11を示す図。 図14Aの表示データを表すHTMLタグの例を示す図。 第1実施形態の会議支援方法の例を示すフローチャート。 第1実施形態の分類方法の例1を示すフローチャート。 第1実施形態の分類方法の例2を示すフローチャート。 第1実施形態の第1の発話データの処理方法の例を示すフローチャート。 第1実施形態の第2の発話データの処理方法の例を示すフローチャート。 第2実施形態の会議支援システムの装置構成の例を示す図。 第2実施形態の会議支援システムの機能構成の例を示す図。 第1及び第2実施形態のクライアント装置、音声認識サーバ装置及び会議支援サーバ装置のハードウェア構成の例を示す図。
以下、添付図面を参照して、会議支援システム、会議支援方法及びプログラムの実施形態について詳細に説明する。
(第1実施形態)
はじめに、第1実施形態の会議支援システムの装置構成の例について説明する。
[会議支援システムの装置構成]
図1は第1実施形態の会議支援システム100の装置構成の例を示す図である。第1実施形態の会議支援システム100は、マイク10a〜10c、クライアント装置20a〜20c、音声認識サーバ装置30及び会議支援サーバ装置40を備える。
クライアント装置20a〜20c、音声認識サーバ装置30及び会議支援サーバ装置40は、ネットワーク200を介して接続される。ネットワーク200の通信方式は有線方式であっても無線方式であってもよい。またネットワーク200は、有線方式と無線方式とを組み合わせて実現されていてもよい。
マイク10aは、会議の参加者Aさんの音声を含む音声データを取得すると、クライアント装置20aに当該音声データを入力する。同様に、マイク10bは、会議の参加者Bさんの音声を含む音声データを取得すると、クライアント装置20bに当該音声データを入力する。同様に、マイク10cは、会議の参加者Cさんの音声を含む音声データを取得すると、クライアント装置20cに当該音声データを入力する。
マイク10a〜10cは、例えば各話者に身に付けられたピンマイク型のマイクロフォンである。マイク10a〜10cは、音信号(アナログ信号)を音声データ(デジタル信号)に変換する。
クライアント装置20aは、マイク10aから音声データを受け付けると、当該音声データを、ネットワーク200を介して音声認識サーバ装置30に送信する。同様に、クライアント装置20bは、マイク10bから音声データを受け付けると、当該音声データを、ネットワーク200を介して音声認識サーバ装置30に送信する。同様に、クライアント装置20cは、マイク10cから音声データを受け付けると、当該音声データを、ネットワーク200を介して音声認識サーバ装置30に送信する。
以下、マイク10a〜10cを区別しない場合は、単にマイク10という。同様に、クライアント装置20a〜20cを区別しない場合は、単にクライアント装置20という。
音声認識サーバ装置30は、クライアント装置20から、ネットワーク200を介して音声データを受信すると、当該音声データを音声認識する。これにより音声認識サーバ装置30は、音声データに含まれる音声に対応するテキストデータを含む音声認識データを取得する。そして音声認識サーバ装置30は、音声認識データを、ネットワーク200を介して会議支援サーバ装置40に送信する。
会議支援サーバ装置40は、音声認識サーバ装置30から、ネットワーク200を介して音声認識データを受信すると、当該音声認識データから表示データを生成する。表示データは、例えばHTML(HyperText Markup Language)タグを使用して生成される。なお表示データの詳細については後述する。会議支援サーバ装置40は、表示データを、ネットワーク200を介してクライアント装置20a〜20cに送信する。
クライアント装置20a〜20cは、会議支援サーバ装置40から、ネットワーク200を介して表示データを受信すると、当該表示データを表示する。クライアント装置20a〜20cは、例えばウェブブラウザを使用して表示データを表示する。
なお図1の例では、会議の参加者が3人の場合を例にして説明しているが、会議の参加者の人数は3人に限られず任意でよい。
なお会議支援システム100の上述の装置構成は一例であり、会議支援システム100の装置構成を適宜、変更してもよい。例えば、音声認識サーバ装置30及び会議支援サーバ装置40を、1つのサーバ装置としてもよい。また例えば、クライアント装置20、音声認識サーバ装置30及び会議支援サーバ装置40を、1つの装置にしてもよい。
次に第1実施形態の会議支援システム100の機能構成の例について説明する。
[会議支援システムの機能構成]
図2は第1実施形態の会議支援システム100の機能構成の例を示す図である。第1実施形態の会議支援システム100は、記憶部101、取得部102、認識部103、分類部104、第1の字幕制御部105、第2の字幕制御部106及び表示制御部107を備える。
記憶部101はデータを記憶する。記憶部101は、例えばクライアント装置20、音声認識サーバ装置30及び会議支援サーバ装置40等の主記憶装置及び補助記憶装置により実現される。記憶部101に記憶されるデータは、例えば音声データ、音声認識データ、分類データ、字幕データ及び表示データ等である。なお記憶部101に記憶される各データの詳細については後述する。
取得部102は上述の音声データを取得すると、当該音声データを認識部103に入力する。取得部102は、例えば上述のマイク10a〜10cにより実現される。
認識部103は、取得部102から音声データを取得すると、当該音声データを音声認識することにより、上述の音声認識データを取得する。認識部103は、例えば上述の音声認識サーバ装置30により実現される。認識部103は、音声データ及び音声認識データを分類部104に入力する。
分類部104は、認識部103から音声データ及び音声認識データを受け付ける。そして分類部104は、音声データ及び音声認識データの少なくとも一方を使用して、テキストデータを、第1の発話と、第2の発話と、に分類する。なお分類部104による分類方法の詳細は後述する。分類部104は、例えば上述の音声認識サーバ装置30により実現される。
第1の発話(主発話)は、会議中の発話のうち、相槌または繰り返しではない主要な発話である。
第2の発話(副発話)は、会議中の主要でない発話を示す。第2の発話は、例えば「うん」、「はい」及び「なるほど」等の相槌である。
また例えば、第2の発話は、第1の発話に含まれる語句の繰り返す発話である。第1の発話に含まれる語句の繰り返す発話は、例えば第1の発話の内容を確認するために、聞き手が同じ語句を繰り返す場合の発話である。また例えば、第1の発話に含まれる語句の繰り返す発話は、第1の発話の発話者により発話された音声が、他の発話者に身に付けられたマイク10に入力されたことにより得られた同音の語句である(例えば後述の図3、テキストデータ153参照)。
以下、第1の発話に分類されたテキストデータを、第1の発話データという。また、第1の発話の発話者を、第1の発話者という。第1の発話者は、複数でもよい。同様に、第2の発話に分類されたテキストデータを、第2の発話データという。また、第2の発話の発話者を、第2の発話者という。第2の発話者は、複数でもよい。
ここで、音声認識データの例と、分類データの例について説明する。
<音声認識データ及び分類データの例>
図3は第1実施形態の音声認識データ及び分類データの例を示す図である。第1実施形態の音声認識データは、取得順、話者ID、発話開始時刻、テキストデータ及び認識状態を含む。また第1実施形態の分類データは、分類(第1の発話または第2の発話)を含む。
取得順は、音声認識データが取得された順番を示す。
話者IDは、話者を識別する識別情報である。USER−1は、Aさんを識別する話者IDである。USER−2は、Bさんを識別する話者IDである。USER−3は、Cさんを識別する話者IDである。
発話開始時刻は、発話が開始された時刻である。発話開始時刻0:00:00は、例えば会議の開始時刻を示す。図3の例では、例えば取得順が11のUSER−2のテキストデータの発話開始時刻は、0:00:40(会議の開始から40秒後)である。
テキストデータは、発話された音声を音声認識することにより得られた文字列である。
認識状態は、テキストデータの状態(確定または未確定)を示す。ここでテキストデータの認識状態について説明する。認識部103は、会議等の実環境下で音声を連続的に音声認識(連続音声認識)する場合、まず、音声区間と非音声区間とを識別する音声区間検出技術を用いて、音声区間と非音声区間とを識別する。音声区間は、音声が発話された区間である。非音声区間は、音声が発話されていない区間である。認識部103は、音声区間の識別を開始した場合には、音声区間の識別が終了するまで、音声認識を逐次的に行う。
未確定状態のテキストデータは、当該テキストデータが、音声区間の識別が終了する前までに得られたテキストデータである。一方、確定状態のテキストデータは、当該テキストデータが、一の音声区間の識別の開始から、当該音声区間の識別の終了までの間の音声に対応するテキストデータである。
図3の例では、例えば取得順が9のUSER−2のテキストデータの認識状態は、未確定であり、取得順が11のUSER−2のテキストデータの認識状態は、確定である。
分類データは、テキストデータの分類を示す。例えば取得順が2のUSER−1のテキストデータの分類は、第1の発話である。すなわち取得順が2のUSER−1のテキストデータは、第1の発話データである。
一方、取得順が3のUSER−2のテキストデータ151の分類は、第2の発話である。すなわち取得順が3のUSER−2のテキストデータ151は、第2の発話データである。テキストデータ151は、相槌の例である。
テキストデータ152は、第1の発話の内容を確認するために、聞き手が同じ語句を繰り返した発話の音声認識により得られた第2の発話データの例である。
テキストデータ153は、USER−1(Aさん)により発話されたテキストデータの一部154が、強く発音されたことにより、USER−2(Bさん)のマイク10bに入力された場合の例を示す。テキストデータ153と、テキストデータの一部154と、は表記が異なる。この理由は、認識部103が、テキストデータの一部154の発音から、最適な変換結果として、テキストデータ153を得ているためである。
なお第1の発話及び第2の発話に分類する方法の詳細は、フローチャートを用いて後述する(図16及び図17参照)。
図2に戻り、分類部104は、第1の発話データを含む音声認識データを、第1の字幕制御部105に入力する。また分類部104は、第2の発話データを含む音声認識データを、第2の字幕制御部106に入力する。
第1の字幕制御部105は、分類部104から、第1の発話データを含む音声認識データを受け付けると、第1の発話データに基づく字幕制御処理を行うことにより、第1の字幕データを生成(更新)する。第1の字幕制御部105は、例えば上述の会議支援サーバ装置40により実現される。
第2の字幕制御部106は、分類部104から、第2の発話データを含む音声認識データを受け付けると、第2の発話データに基づく字幕制御処理を行うことにより、第2の字幕データを生成(更新)する。第2の字幕制御部106は、例えば上述の会議支援サーバ装置40により実現される。
表示制御部107は、第1の字幕データ及び第2の字幕データを表示する表示制御処理を行う。表示制御部107は、例えば上述のクライアント装置20により実現される。
ここで、図3に例示した音声認識データ及び分類データを使用して、字幕制御処理及び表示制御処理により得られた表示データの例と、当該表示データを表すHTMLタグの例について説明する。なお字幕制御処理及び表示制御処理の詳細は、フローチャートを用いて後述する(図18及び図19参照)。
<表示データとHTMLタグの例>
図4Aは第1実施形態の表示データの例1を示す図である。図4Bは、図4Aの表示データを表すHTMLタグの例を示す図である。
第1の字幕制御部105は、図3に例示した取得順が1番の音声認識データから、第1の字幕データ201aを生成する。具体的には、第1の字幕制御部105は、取得順が1番の音声認識データに含まれるテキストデータ(第1の発話データ)の認識状態が未確定であり、かつ、USER−1(Aさん)の当該第1の発話データを表示する第1の字幕データがないので、第1の字幕データ201aを表すHTMLタグ301aを生成する。
図5Aは第1実施形態の表示データの例2を示す図である。図5Bは、図5Aの表示データを表すHTMLタグの例を示す図である。
第1の字幕制御部105は、図3に例示した取得順が2番の音声認識データを使用して、第1の字幕データ201aを、第1の字幕データ201bに更新する。具体的には、第1の字幕制御部105は、取得順が2番の音声認識データに含まれるテキストデータ(第1の発話データ)の認識状態が未確定であり、かつ、USER−1(Aさん)の当該第1の発話データを表示する第1の字幕データ201aがあるので、図4BのHTMLタグ301aを、図5BのHTMLタグ301bに更新する。
図6Aは第1実施形態の表示データの例3を示す図である。図6Bは、図6Aの表示データを表すHTMLタグの例を示す図である。
第2の字幕制御部106は、図3に例示した取得順が3番の音声認識データから、第2の字幕データ202aを生成する。具体的には、第2の字幕制御部106は、取得順が3番の音声認識データに含まれるテキストデータ151(第2の発話データ)の認識状態が確定であり、かつ、当該第2の発話データを表示する第2の字幕データがないので、HTMLタグ302aを生成する。
図6A及び図6Bに示すように、第1の発話データの表示形式(第1の表示形式)と、第2の発話データの表示形式(第2の表示形式)は異なる。図6Aの例では、会議中の発話のうち、主要な発話を示す第1の発話データが、左側に表示され、相槌または繰り返し等を示す第2の発話データが、右側に表示される。これにより表示データを見やすくすることができる。
図7Aは第1実施形態の表示データの例4を示す図である。図7Bは、図7Aの表示データを表すHTMLタグの例を示す図である。
第1の字幕制御部105は、図3に例示した取得順が4番の音声認識データを使用して、第1の字幕データ201bを、第1の字幕データ201cに更新する。具体的には、第1の字幕制御部105は、取得順が4番の音声認識データに含まれるテキストデータ(第1の発話データ)の認識状態が未確定であり、かつ、USER−1(Aさん)の当該第1の発話データを表示する第1の字幕データ201bがあるので、図6BのHTMLタグ301bを、図5BのHTMLタグ301cに更新する。
図8Aは第1実施形態の表示データの例5を示す図である。図8Bは、図8Aの表示データを表すHTMLタグの例を示す図である。
第2の字幕制御部106は、図3に例示した取得順が5番の音声認識データを使用して、第2の字幕データ202aを第2の字幕データ202bに更新する。具体的には、第2の字幕制御部106は、取得順が5番の音声認識データに含まれるテキストデータ152(第2の発話データ)の認識状態が確定であり、かつ、第2の字幕データ202aがあるので、図7BのHTMLタグ302aを、図8BのHTMLタグ302bに更新する。
図9Aは第1実施形態の表示データの例6を示す図である。図9Bは、図9Aの表示データを表すHTMLタグの例を示す図である。
第1の字幕制御部105は、図3に例示した取得順が6番の音声認識データを使用して、第1の字幕データ201cを、第1の字幕データ201dに更新する。具体的には、第1の字幕制御部105は、取得順が6番の音声認識データに含まれるテキストデータ(第1の発話データ)の認識状態が未確定であり、かつ、USER−1(Aさん)の当該第1の発話データを表示する第1の字幕データ201cがあるので、図8BのHTMLタグ301cを、図9BのHTMLタグ301dに更新する。
図10Aは第1実施形態の表示データの例7を示す図である。図10Bは、図10Aの表示データを表すHTMLタグの例を示す図である。
第2の字幕制御部106は、図3に例示した取得順が7番の音声認識データを使用して、第2の字幕データ202bを第2の字幕データ202cに更新する。具体的には、第2の字幕制御部106は、取得順が7番の音声認識データに含まれるテキストデータ153(第2の発話データ)の認識状態が確定であり、かつ、第2の字幕データ202bがあるので、図9BのHTMLタグ302bを、図10BのHTMLタグ302cに更新する。
図10Aに示すように、上述のテキストデータ151〜153は、第2の字幕データ202cとして、まとめて表示される。これにより取得順が6番のテキストデータを示す第1の字幕データ201dと、会議中の主要な発言ではないテキストデータ151〜153と、を含む表示データを見やすくすることができる。
図11Aは第1実施形態の表示データの例8を示す図である。図11Bは、図11Aの表示データを表すHTMLタグの例を示す図である。
第1の字幕制御部105は、図3に例示した取得順が8番の音声認識データを使用して、第1の字幕データ201dを、第1の字幕データ201eに更新する。具体的には、第1の字幕制御部105は、取得順が8番の音声認識データに含まれるテキストデータ(第1の発話データ)の認識状態が未確定であり、かつ、USER−1(Aさん)の当該第1の発話データを表示する第1の字幕データ201dがあるので、図10BのHTMLタグ301dを、図11BのHTMLタグ301eに更新する。
図12Aは第1実施形態の表示データの例9を示す図である。図12Bは、図12Aの表示データを表すHTMLタグの例を示す図である。
第1の字幕制御部105は、図3に例示した取得順が9番の音声認識データを使用して、第1の字幕データ201fを生成する。具体的には、第1の字幕制御部105は、取得順が9番の音声認識データに含まれるテキストデータ(第1の発話データ)の認識状態が未確定であり、かつ、USER−2(Bさん)の当該第1の発話データを表示する第1の字幕データがないので、第1の字幕データ201fを表すHTMLタグ301fを生成する。
図12Aに示されるように、第1の発話データは、発話者毎に表示される。一方、第2の発話データは、発話者毎に表示されない(まとめて表示される)。
図13Aは第1実施形態の表示データの例10を示す図である。図13Bは、図13Aの表示データを表すHTMLタグの例を示す図である。
第1の字幕制御部105は、図3に例示した取得順が10番の音声認識データを使用して、第1の字幕データ201eを、第1の字幕データ201gに更新する。具体的には、第1の字幕制御部105は、取得順が10番の音声認識データに含まれるテキストデータ(第1の発話データ)の認識状態が確定であり、かつ、USER−1(Aさん)の当該第1の発話データを表示する第1の字幕データ201gがあるので、図12BのHTMLタグ301eを、図13BのHTMLタグ301gに更新する。
図14Aは第1実施形態の表示データの例11を示す図である。図14Bは、図14Aの表示データを表すHTMLタグの例を示す図である。
第1の字幕制御部105は、図3に例示した取得順が11番の音声認識データを使用して、第1の字幕データ201fを、第1の字幕データ201hに更新する。具体的には、第1の字幕制御部105は、取得順が11番の音声認識データに含まれるテキストデータ(第1の発話データ)の認識状態が確定であり、かつ、USER−2(Bさん)の当該第1の発話データを表示する第1の字幕データ201fがあるので、図13BのHTMLタグ301fを、図14BのHTMLタグ301hに更新する。
上述の図4A〜図14Bの字幕制御処理及び表示制御処理により、表示制御部107は、第1の発話データを、第1の字幕データとしてリアルタイムに表示することができる。また、表示制御部107は、認識状態が確定している異なる発話者の第2の発話データを、第2の字幕データとして、まとめて表示することができる。
これにより、表示データが表示されるクライアント装置20の画面を有効に利用することができる。例えば、主要でない発話(第2の字幕データ)を表示するための表示データの更新により、会議中の主要な発話(第1の字幕データ)が短時間で流れてしまうこと(画面から見えなくなってしまうこと)を防ぐことができる。
[会議支援方法]
次に第1実施形態の会議支援方法の詳細について、フローチャートを参照して説明する。
図15は第1実施形態の会議支援方法の例を示すフローチャートである。はじめに、取得部102が、上述の音声データを取得する(ステップS1)。次に、認識部103が、ステップS1の処理により取得された音声データを音声認識することにより、上述のテキストデータを取得する(ステップS2)。
次に、分類部104が、ステップS2の処理により取得されたテキストデータを、第1の発話と、第2の発話と、に分類する分類処理を行う(ステップS3)。なお分類処理の詳細は、図16及び図17を参照して後述する。
テキストデータが第1の発話データである場合(ステップS4、Yes)、第1の字幕制御部105、及び、表示制御部107が、第1の発話データに基づく表示制御処理を行う(ステップS5)。なお第1の発話データに基づく表示制御処理の詳細は、図18を参照して後述する。
テキストデータが第1の発話データでない場合(ステップS4、No)、すなわちテキストデータが第2の発話データである場合、第2の字幕制御部106が、第2の発話データの認識状態が確定であるか否かを判定する(ステップS6)。
第2の発話データの認識状態が確定でない場合(ステップS6、No)、処理を終了する。
第2の発話データの認識状態が確定である場合(ステップS6、Yes)、第2の字幕制御部106、及び、表示制御部107が、第2の発話データに基づく表示制御処理を行う。なお第2の発話データに基づく表示制御処理の詳細は、図19を参照して後述する。
<分類方法の例1>
図16は第1実施形態の分類方法の例1を示すフローチャートである。図16のフローチャートは、上述の音声データを使用して、上述のテキストデータを分類する場合を示す。
はじめに、分類部104が、音声データの平均パワーが閾値(第1の閾値)以上であり、かつ、テキストデータに対応する音声データの音声区間(第1の音声区間)の長さが閾値(第2の閾値)以上であるか否かを判定する(ステップS21)。
音声データの平均パワーが閾値以上でない、または、テキストデータに対応する音声データの音声区間の長さが閾値以上でない場合(ステップS21、No)、分類部104は、当該テキストデータを第2の発話データに分類する(ステップS27)。
音声データの平均パワーが閾値以上であり、かつ、テキストデータに対応する音声データの音声区間の長さが閾値以上である場合(ステップS21、Yes)、分類部104は、当該音声データの特徴量を算出する(ステップS22)。特徴量は、話者を識別する情報である。特徴量は、例えば音声データを周波数分析することにより得られた特定の周波数帯域の平均パワーである。なお特徴量は、一般的な話者識別処理に用いられる特徴量であれば任意でよい。
次に、分類部104は、過去に該話者の第1の発話データがあるか否かを判定する(ステップS23)。
過去に該話者の第1の発話データがない場合(ステップS23、No)、分類部104は、ステップS22の処理により算出された音声データの特徴量を記憶する(ステップS25)。そして分類部104は、テキストデータを第1の発話データに分類する(ステップS26)。
過去に該話者の第1の発話データがある場合(ステップS23、Yes)、分類部104は、ステップS22で算出された特徴量と、過去の第1の発話データの特徴量の平均との差が閾値(第3の閾値)以下であるか否かを判定する(ステップS24)。
過去の第1の発話データの特徴量の平均との差が閾値以下の場合(ステップS24、Yes)、分類部104は、ステップS22の処理により算出された音声データの特徴量を記憶する(ステップS25)。そして分類部104は、テキストデータを第1の発話データに分類する(ステップS26)。
過去の第1の発話データの特徴量の平均との差が閾値以下でない場合(ステップS24、No)、分類部104は、テキストデータを第2の発話データに分類する(ステップS27)。
<分類方法の例2>
図17は第1実施形態の分類方法の例2を示すフローチャートである。図17のフローチャートは、上述の音声認識データを使用して、上述のテキストデータを分類する場合を示す。
はじめに、分類部104が、テキストデータに含まれる文字の数が閾値(第4の閾値)以下であるか否かを判定する(ステップS41)。
テキストデータに含まれる文字の数が閾値以下の場合(ステップS41、Yes)、分類部104は、当該テキストデータを第2の発話データに分類する(ステップS47)。
テキストデータに含まれる文字の数が閾値以下の場合でない場合(ステップS41、No)、当該テキストデータが、所定の相槌を示す相槌パターンデータと一致するか否かを判定する(ステップS42)。
相槌パターンデータは、所定の相槌を示すデータである。相槌パターンは、例えば「うん」、「へー」、「はい」及び「なるほど」等の事前に定められた文字列を含む正規表現パターンである。
相槌パターンデータと一致する場合(ステップS42、Yes)、分類部104は、テキストデータを第2の発話データに分類する(ステップS47)。
相槌パターンデータと一致しない場合(ステップS42、No)、分類部104は、テキストデータが、現在の第1の発話データ(後述のステップS45参照)に含まれるか否かを判定する(ステップS43)。
現在の第1の発話データに含まれる場合(ステップS43、Yes)、分類部104は、テキストデータを第2の発話データに分類する(ステップS47)。
現在の第1の発話データに含まれない場合(ステップS43、No)、分類部104は、テキストデータの形態素解析結果または構文解析結果が、所定の解析パターンデータに一致するか否かを判定する(ステップS44)。
所定の解析パターンデータは、所定の品詞パターン、及び、所定の構文パターンを示す。所定の品詞パターンは、例えば形態素解析により得られた情報が、名詞のみで構成されている等である。所定の構文パターンは、例えば構文解析により得られた情報が、主語及び述語の係り受け構造が成立していない等である。
所定の解析パターンデータに一致する場合(ステップS44、Yes)、分類部104は、テキストデータを第2の発話データに分類する(ステップS47)。すなわち所定の解析パターンデータに一致するテキストデータは、例えば上述のテキストデータ152等の繰り返しを示すテキストデータである。
所定の解析パターンデータに一致しない場合(ステップS44、No)、分類部104は、テキストデータを、現在の第1の発話データとして記憶する(ステップS45)。そして分類部104は、テキストデータを第1の発話データに分類する(ステップS46)。
なお分類部104は、上述のステップS41〜ステップS44の処理のうち、一部のステップの処理を省略してもよい。例えばステップS44の処理を省略してもよい。
また分類部104は、音声データを使用してテキストデータを分類する上述の図16に示す分類処理、及び、音声認識データを使用してテキストデータを分類する上述の図17に示す分類処理の少なくとも一方を実行してもよいし、両方を実行してもよい。分類部104は、両方の分類処理を実行した場合に、分類結果が異なる場合には、いずれか一方の分類結果を優先させる。優先させる分類結果は、例えば音声データを使用してテキストデータを分類する上述の図16に示す分類処理である。
<第1の発話データの処理方法の例>
図18は第1実施形態の第1の発話データの処理方法の例を示すフローチャートである。はじめに、第1の字幕制御部105が、分類部104から、処理対象の第1の発話データを受け付ける(ステップS61)。次に、第1の字幕制御部105は、該話者の未確定状態の第1の字幕データが存在するか否かを判定する(ステップS62)。
未確定状態の第1の字幕データが存在しない場合(ステップS62、No)、第1の字幕制御部105は、該話者の第1の字幕データを未確定状態で生成する(ステップS63)。そして表示制御部107が、第1の字幕データを表示する(ステップS65)。
未確定状態の第1の字幕データが存在する場合(ステップS62、Yes)、第1の字幕制御部105は、処理対象の第1の発話データにより、第1の字幕データを更新する(ステップS64)。そして表示制御部107が、第1の字幕データを表示する(ステップS65)。
次に、第1の字幕制御部105は、ステップS61の処理で受け付けた第1の発話データの認識状態が確定であるか否かを判定する(ステップS66)。
認識状態が確定でない場合(ステップS66、No)、処理は終了する。
認識状態が確定の場合(ステップS66、Yes)、第1の字幕制御部105は、該話者の第1の字幕データの字幕状態を、確定状態に設定する(ステップS67)。次に、第1の字幕制御部105は、表示されている第2の字幕データの字幕状態を、確定状態に設定する設定要求を第2の字幕制御部106に入力する(ステップS68)。これにより表示されている第2の字幕データの字幕状態が、第2の字幕制御部106により確定状態に設定される。
<第2の発話データの処理方法の例>
図19は第1実施形態の第2の発話データの処理方法の例を示すフローチャートである。はじめに、第2の字幕制御部106が、分類部104から、処理対象の第2の発話データを受け付ける(ステップS81)。次に、第2の字幕制御部106は、ステップS81の処理で受け付けた第2の発話データの認識状態が確定であるか否かを判定する(ステップS82)。
認識状態が確定でない場合(ステップS82、No)、処理は終了する。
認識状態が確定の場合(ステップS82、Yes)、第1の字幕制御部105は、該話者の未確定状態の第1の字幕データが存在するか否かを判定する(ステップS83)。具体的には、第1の字幕制御部105、認識状態が確定の場合に、第2の字幕制御部106から、該話者の未確定状態の第1の字幕データが存在するか否かを判定する判定要求を受け付けると、ステップS83の処理を実行する。
該話者の未確定状態の第1の字幕データが存在する場合(ステップS83、Yes)、第1の字幕制御部105が、該話者の第1の字幕データに処理対象の第2の発話データを追加する(ステップS84)。そして第1の字幕制御部105が、該話者の第1の字幕データの字幕状態を確定状態に設定する(ステップS85)。
該話者の未確定状態の第1の字幕データが存在しない場合(ステップS83、No)、第2の字幕制御部106が、未確定状態の第2の字幕データが存在するか否かを判定する(ステップS86)。
未確定状態の第2の字幕データが存在しない場合(ステップS86、No)、第2の字幕制御部106が、第2の字幕データを未確定状態で生成する(ステップS87)。そして表示制御部107が、第2の字幕データを表示する(ステップS89)。
未確定状態の第2の字幕データが存在する場合(ステップS86、Yes)、第2の字幕制御部106が、処理対象の第2の発話データにより、第2の字幕データを更新する(ステップS88)。そして表示制御部107が、第2の字幕データを表示する(ステップS89)。
なおステップS88の更新方法は、追加でも上書きでもよい。例えば上述の図10Aの例では、テキストデータ151に更に、テキストデータ153が追加される場合が示されている。なお更新方法が上書きの場合は、テキストデータ151に代えて、テキストデータ153が表示される。
また第2の字幕制御部106は、第2の字幕データを話者毎に更新せずに、話者に依らない最新の第2の発話データにより、第2の字幕データを更新してもよい。例えば、第2の字幕制御部106は、Bさんの第2の発話データよりも新しいCさんの第2の発話データにより、第2の字幕データを更新してもよい。
また第2の字幕制御部106は、特定の話者の第2の発話データのみを更新するようにしてもよい。すなわち表示制御部107が、特定の話者の第2の発話データのみを表示するようにしてもよい。
なお第1の字幕制御部105は、新規に第1の字幕データを生成することにより、既に表示されていた第1の字幕データがスクロールアウトした場合(表示画面内に収まらない場合)は、スクロールアウトした未確定状態の第1の字幕データの字幕状態を、確定状態に設定する。
同様に、第2の字幕制御部106は、新規に第2の字幕データを生成することにより、既に表示されていた第2の字幕データがスクロールアウトした場合は、スクロールアウトした未確定状態の第2の字幕データの字幕状態を、確定状態に設定する。
以上説明したように、第1実施形態の会議支援システム100では、認識部103が、音声データに含まれる音声区間と非音声区間とを識別しながら、音声区間から音声を示すテキストデータを認識する。分類部104が、テキストデータを、主要な発話を示す第1の発話データと、主要な発話以外を示す第2の発話データと、に分類する。第1の字幕制御部105が、第1の発話データに対応する第1の音声区間の識別の終了を待たずに、第1の発話データを表示する第1の字幕データを生成する。第2の字幕制御部106が、第2の発話データに対応する第2の音声区間の識別が終了してから、第2の発話データを表示する第2の字幕データを生成する。そして表示制御部107が、第1の字幕データ及び第2の字幕データの表示を制御する。
これにより第1実施形態の会議支援システム100によれば、複数の人が参加する会議の音声認識データから得られた文字列を含む表示データが表示された際でも、当該表示データが見づらくなることを防ぐことができる。
第1実施形態の会議支援システム100を、例えば聴覚障碍者(情報保障が必要な方)が参加する会議に利用することにより、聴覚障碍者が会議の内容を把握できるようにするためのサポートをすることができる。また例えば、第1実施形態の会議支援システム100を、会議中の会話の言語が母国語ではない参加者が参加する会議に利用することにより、当該参加者が会議の内容を把握できるようにするためのサポートをすることができる。
なお第1実施形態の説明では、第1の字幕データと第2の字幕データとを同一の表示画面に時系列に表示する場合について説明したが、第1の字幕データと第2の字幕データとを異なる表示画面に表示してもよい。例えば2つの表示装置を使用して、第1の字幕データを表示する表示画面と、第2の字幕データを表示する表示画面と、を分けることにより、第1の字幕データの表示形式と、第2の字幕データの表示形式を変えてもよい。
また第1実施形態の説明では、会議支援システム100の機能(図2参照)を、クライアント装置20、音声認識サーバ装置30及び会議支援サーバ装置40により実現する場合を例にして説明したが、会議支援システム100の機能を、1つの装置(コンピュータ)により実現してもよい。
(第2実施形態)
次に第2実施形態について説明する。第2実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
[会議支援システムの装置構成]
図20は第2実施形態の会議支援システム100の装置構成の例を示す図である。第2実施形態の会議支援システム100は、マイク10a〜10c、クライアント装置20、音声認識サーバ装置30、会議支援サーバ装置40及びミキサー50を備える。すなわち第2の実施形態では、ミキサー50が追加され、クライアント装置20が1つになっている点が、第1実施形態とは異なる。
ミキサー50は、マイク10a〜10cから受け付けられた3つの音声データを、1つの音声データにミキシングする。そしてミキサー50は、ミキシングされた1つの音声データをクライアント装置20に送信する。
クライアント装置20は、ミキサー50から音声データを受信すると、当該音声データを音声認識サーバ装置30に送信する。
音声認識サーバ装置30は、クライアント装置20から、ネットワーク200を介して、音声データを受信すると、当該音声データを使用して、話者を識別する話者識別処理と、当該話者の音声を認識する音声認識処理を行う。すなわち第2実施形態では、音声認識サーバ装置30が、話者識別処理を行う点が、第1実施形態とは異なる。
会議支援サーバ装置40は、音声認識サーバ装置30から、ネットワーク200を介して、音声認識データを受信すると、当該音声認識データから、例えばHTMLタグによる表示データを生成する。
クライアント装置20は、会議支援サーバ装置40から、ネットワーク200を介して表示データを受信すると、当該表示データを、例えばウェブブラウザを使用して表示する。
次に第2実施形態の会議支援システム100の機能構成の例について説明する。
[会議支援システムの機能構成]
図21は第2実施形態の会議支援システム100の機能構成の例を示す図である。第2実施形態の会議支援システム100は、記憶部101、取得部102、認識部103、分類部104、第1の字幕制御部105、第2の字幕制御部106、表示制御部107及び識別部108を備える。すなわち第2実施形態では、第1実施形態の機能構成に識別部108が更に追加されている点が、第1実施形態とは異なる。
取得部102は、複数の音声データをミキシングすることにより得られた1つの音声データを取得する。取得部102は、例えば上述のマイク10a〜10c、及び、ミキサー50により実現される。
識別部108は、取得部102から音声データを受け付けると、当該音声データから話者を識別する。識別部108は、例えば上述の音声認識サーバ装置30により実現される。
認識部103は、識別部108により識別された話者毎に、音声データを音声認識する。
分類部104、第1の字幕制御部105、第2の字幕制御部106及び表示制御部107の説明は、第1実施形態と同様なので省略する。
以上説明したように、第2実施形態の会議支援システム100によれば、複数のマイク10を接続したミキサー50により取得された音声データを使用しても、上述の第1実施形態と同様の効果が得られる。
最後に、第1及び第2実施形態のクライアント装置20、音声認識サーバ装置30及び会議支援サーバ装置40のハードウェア構成の例について説明する。
[ハードウェア構成の例]
図22は第1及び第2実施形態のクライアント装置20、音声認識サーバ装置30及び会議支援サーバ装置40のハードウェア構成の例を示す図である。第1及び第2実施形態のクライアント装置20、音声認識サーバ装置30及び会議支援サーバ装置40は、制御装置401、主記憶装置402、補助記憶装置403、表示装置404、入力装置405及び通信装置406を備える。制御装置401、主記憶装置402、補助記憶装置403、表示装置404、入力装置405及び通信装置406は、バス410を介して接続されている。
制御装置401は補助記憶装置403から主記憶装置402に読み出されたプログラムを実行する。主記憶装置402はROM(Read Only Memory)、及び、RAM(Random Access Memory)等のメモリである。補助記憶装置403はメモリカード、及び、HDD(Hard Disk Drive)等である。
表示装置404は情報を表示する。表示装置404は、例えば液晶ディスプレイである。入力装置405は、情報の入力を受け付ける。入力装置405は、例えばキーボード及びマウス等である。なお表示装置404及び入力装置405は、表示機能と入力機能とを兼ねる液晶タッチパネル等でもよい。通信装置406は他の装置と通信する。
第1及び第2実施形態のクライアント装置20、音声認識サーバ装置30及び会議支援サーバ装置40で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、メモリカード、CD−R、及び、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータ・プログラム・プロダクトとして提供される。
また第1及び第2実施形態のクライアント装置20、音声認識サーバ装置30及び会議支援サーバ装置40で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また第1及び第2実施形態のクライアント装置20、音声認識サーバ装置30及び会議支援サーバ装置40が実行するプログラムを、ダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
また第1及び第2実施形態のクライアント装置20、音声認識サーバ装置30及び会議支援サーバ装置40で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
第1及び第2実施形態のクライアント装置20、音声認識サーバ装置30及び会議支援サーバ装置40で実行されるプログラムは、上述の第1及び第2実施形態の会議支援システム100の機能構成のうち、プログラムにより実現可能な機能を含むモジュール構成となっている。
プログラムにより実現される機能は、制御装置401が補助記憶装置403等の記憶媒体からプログラムを読み出して実行することにより、プログラムにより実現される機能が主記憶装置402にロードされる。すなわちプログラムにより実現される機能は、主記憶装置402上に生成される。
なお第1及び第2実施形態の会議支援システム100の機能の一部又は全部を、IC(Integrated Circuit)等のハードウェアにより実現してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 マイク
20 クライアント装置
30 音声認識サーバ装置
40 会議支援サーバ装置
50 ミキサー
100 会議支援システム
101 記憶部
102 取得部
103 認識部
104 分類部
105 第1の字幕制御部
106 第2の字幕制御部
107 表示制御部
108 識別部
200 ネットワーク
401 制御装置
402 主記憶装置
403 補助記憶装置
404 表示装置
405 入力装置
406 通信装置
410 バス

Claims (11)

  1. 音声データに含まれる音声区間と非音声区間とを識別しながら、前記音声区間から音声を示すテキストデータを認識する認識部と、
    前記テキストデータを、主要な発話を示す第1の発話データと、主要な発話以外を示す第2の発話データと、に分類する分類部と、
    前記第1の発話データに対応する第1の音声区間の識別の終了を待たずに、前記第1の発話データを表示する第1の字幕データを生成する第1の字幕制御部と、
    前記第2の発話データに対応する第2の音声区間の識別が終了してから、前記第2の発話データを表示する第2の字幕データを生成する第2の字幕制御部と、
    前記第1の字幕データ及び前記第2の字幕データの表示を制御する表示制御部と、
    を備える会議支援システム。
  2. 前記表示制御部は、前記第1の字幕データを第1の表示形式により表示し、前記第2の字幕データを第2の表示形式により表示する、
    請求項1に記載の会議支援システム。
  3. 前記分類部は、前記音声データの平均パワーが第1の閾値以上であり、かつ、前記第1の音声区間の長さが第2の閾値以上である場合、前記テキストデータを第1の発話データに分類する、
    請求項1に記載の会議支援システム。
  4. 前記分類部は、前記音声データの平均パワーが第1の閾値以上であり、かつ、前記第1の音声区間の長さが第2の閾値以上であり、かつ、前記第1の音声区間に含まれる音声の特徴を示す特徴量と、過去に発話された第1の発話データの発話者の特徴を示す特徴量の平均と、の差が、第3の閾値以下である場合、前記テキストデータを第1の発話データに分類する、
    請求項1に記載の会議支援システム。
  5. 前記分類部は、前記テキストデータに含まれる文字の数が第4の閾値以下の場合、前記テキストデータを前記第2の発話データに分類する、
    請求項1に記載の会議支援システム。
  6. 前記分類部は、前記テキストデータが、所定の相槌を示す相槌パターンデータに一致する場合、前記テキストデータを前記第2の発話データに分類する、
    請求項1に記載の会議支援システム。
  7. 前記分類部は、前記テキストデータの形態素解析結果、または構文解析結果が所定の解析パターンに一致する場合、前記テキストデータを前記第2の発話データに分類する、
    請求項1に記載の会議支援システム。
  8. 前記第1の字幕制御部は、前記第1の字幕データを発話者毎に生成し、
    前記第2の字幕制御部は、前記第2の字幕データを発話者毎に生成しない、
    請求項1に記載の会議支援システム。
  9. 前記第1の字幕制御部は、前記第1の字幕データを、HTML(HyperText Markup Language)タグを使用して生成し、
    前記第2の字幕制御部は、前記第2の字幕データを、HTMLタグを使用して生成し、
    前記表示制御部は、ウェブブラウザである、
    請求項1に記載の会議支援システム。
  10. 音声データに含まれる音声区間と非音声区間とを識別しながら、前記音声区間から音声を示すテキストデータを認識するステップと、
    前記テキストデータを、主要な発話を示す第1の発話データと、主要な発話以外を示す第2の発話データと、に分類するステップと、
    前記第1の発話データに対応する第1の音声区間の識別の終了を待たずに、前記第1の発話データを表示する第1の字幕データを生成するステップと、
    前記第2の発話データに対応する第2の音声区間の識別が終了してから、前記第2の発話データを表示する第2の字幕データを生成するステップと、
    前記第1の字幕データ及び前記第2の字幕データの表示を制御するステップと、
    を含む会議支援方法。
  11. コンピュータを、
    音声データに含まれる音声区間と非音声区間とを識別しながら、前記音声区間から音声を示すテキストデータを認識する認識部と、
    前記テキストデータを、主要な発話を示す第1の発話データと、主要な発話以外を示す第2の発話データと、に分類する分類部と、
    前記第1の発話データに対応する第1の音声区間の識別の終了を待たずに、前記第1の発話データを表示する第1の字幕データを生成する第1の字幕制御部と、
    前記第2の発話データに対応する第2の音声区間の識別が終了してから、前記第2の発話データを表示する第2の字幕データを生成する第2の字幕制御部と、
    前記第1の字幕データ及び前記第2の字幕データの表示を制御する表示制御部、
    として実行させるためのプログラム。
JP2016182175A 2016-09-16 2016-09-16 会議支援システム、会議支援方法及びプログラム Active JP6677614B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016182175A JP6677614B2 (ja) 2016-09-16 2016-09-16 会議支援システム、会議支援方法及びプログラム
US15/440,550 US10304460B2 (en) 2016-09-16 2017-02-23 Conference support system, conference support method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016182175A JP6677614B2 (ja) 2016-09-16 2016-09-16 会議支援システム、会議支援方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018045208A true JP2018045208A (ja) 2018-03-22
JP6677614B2 JP6677614B2 (ja) 2020-04-08

Family

ID=61621280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016182175A Active JP6677614B2 (ja) 2016-09-16 2016-09-16 会議支援システム、会議支援方法及びプログラム

Country Status (2)

Country Link
US (1) US10304460B2 (ja)
JP (1) JP6677614B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101385A (ja) * 2017-12-08 2019-06-24 富士通株式会社 音声処理装置、音声処理方法及び音声処理用コンピュータプログラム
US11342002B1 (en) * 2018-12-05 2022-05-24 Amazon Technologies, Inc. Caption timestamp predictor

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006276754A (ja) * 2005-03-30 2006-10-12 Mitsubishi Electric Information Systems Corp オペレータ業務支援システム
JP2008512789A (ja) * 2004-09-10 2008-04-24 マイクロソフト コーポレーション 機械学習
JP2009031810A (ja) * 2008-09-29 2009-02-12 Mitsubishi Electric Information Systems Corp オペレータ業務支援システム
WO2009104332A1 (ja) * 2008-02-19 2009-08-27 日本電気株式会社 発話分割システム、発話分割方法および発話分割プログラム
JP2010217628A (ja) * 2009-03-18 2010-09-30 Kddi Corp 音声によってテキストを入力する音声認識処理方法及びシステム
JP2015169827A (ja) * 2014-03-07 2015-09-28 富士通株式会社 音声処理装置、音声処理方法および音声処理プログラム
JP2016119107A (ja) * 2016-01-18 2016-06-30 富士通株式会社 入力情報支援装置、入力情報支援方法および入力情報支援プログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001142487A (ja) 1999-11-11 2001-05-25 Sony Corp 音声データ入力システム
US8645137B2 (en) * 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
JP3894767B2 (ja) 2001-10-24 2007-03-22 シャープ株式会社 対話装置
KR100754384B1 (ko) * 2003-10-13 2007-08-31 삼성전자주식회사 잡음에 강인한 화자위치 추정방법 및 장치와 이를 이용한카메라 제어시스템
US8949266B2 (en) * 2007-03-07 2015-02-03 Vlingo Corporation Multiple web-based content category searching in mobile search application
US8180029B2 (en) 2007-06-28 2012-05-15 Voxer Ip Llc Telecommunication and multimedia management method and apparatus
JP4968147B2 (ja) * 2008-03-31 2012-07-04 富士通株式会社 通信端末、通信端末の音声出力調整方法
WO2010013371A1 (ja) 2008-07-28 2010-02-04 日本電気株式会社 対話音声認識システム、対話音声認識方法および対話音声認識用プログラムを格納する記憶媒体
US20100057452A1 (en) * 2008-08-28 2010-03-04 Microsoft Corporation Speech interfaces
US9009053B2 (en) * 2008-11-10 2015-04-14 Google Inc. Multisensory speech detection
US9858925B2 (en) * 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
JP2010282083A (ja) 2009-06-05 2010-12-16 Nippon Telegr & Teleph Corp <Ntt> 誤認識訂正装置、方法及びプログラム
US8473289B2 (en) * 2010-08-06 2013-06-25 Google Inc. Disambiguating input based on context
US8719006B2 (en) * 2010-08-27 2014-05-06 Apple Inc. Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis
US9262612B2 (en) * 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
JP5810946B2 (ja) * 2012-01-31 2015-11-11 富士通株式会社 特定通話検出装置、特定通話検出方法及び特定通話検出用コンピュータプログラム
US10096316B2 (en) * 2013-11-27 2018-10-09 Sri International Sharing intents to provide virtual assistance in a multi-person dialog
JP2014145838A (ja) * 2013-01-28 2014-08-14 Honda Motor Co Ltd 音響処理装置及び音響処理方法
WO2014197336A1 (en) * 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9613624B1 (en) * 2014-06-25 2017-04-04 Amazon Technologies, Inc. Dynamic pruning in speech recognition
JP6487650B2 (ja) 2014-08-18 2019-03-20 日本放送協会 音声認識装置及びプログラム
US10074360B2 (en) * 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10229687B2 (en) * 2016-03-10 2019-03-12 Microsoft Technology Licensing, Llc Scalable endpoint-dependent natural language understanding
JP6517718B2 (ja) 2016-03-11 2019-05-22 株式会社東芝 会議支援装置、会議支援方法、及び会議支援プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008512789A (ja) * 2004-09-10 2008-04-24 マイクロソフト コーポレーション 機械学習
JP2006276754A (ja) * 2005-03-30 2006-10-12 Mitsubishi Electric Information Systems Corp オペレータ業務支援システム
WO2009104332A1 (ja) * 2008-02-19 2009-08-27 日本電気株式会社 発話分割システム、発話分割方法および発話分割プログラム
JP2009031810A (ja) * 2008-09-29 2009-02-12 Mitsubishi Electric Information Systems Corp オペレータ業務支援システム
JP2010217628A (ja) * 2009-03-18 2010-09-30 Kddi Corp 音声によってテキストを入力する音声認識処理方法及びシステム
JP2015169827A (ja) * 2014-03-07 2015-09-28 富士通株式会社 音声処理装置、音声処理方法および音声処理プログラム
JP2016119107A (ja) * 2016-01-18 2016-06-30 富士通株式会社 入力情報支援装置、入力情報支援方法および入力情報支援プログラム

Also Published As

Publication number Publication date
US10304460B2 (en) 2019-05-28
US20180082688A1 (en) 2018-03-22
JP6677614B2 (ja) 2020-04-08

Similar Documents

Publication Publication Date Title
US10102859B2 (en) Conference support apparatus, conference support method, and computer program product
US11527233B2 (en) Method, apparatus, device and computer storage medium for generating speech packet
TW200900967A (en) Multi-mode input method editor
US11881209B2 (en) Electronic device and control method
US20150195378A1 (en) Information processing apparatus, server, information processing method, and information processing system
US11922929B2 (en) Presentation support system
JP7200533B2 (ja) 情報処理装置およびプログラム
JP6677614B2 (ja) 会議支援システム、会議支援方法及びプログラム
CN110908631A (zh) 情感交互方法、装置、设备及计算机可读存储介质
US11176943B2 (en) Voice recognition device, voice recognition method, and computer program product
EP3772733A1 (en) Method for recognizing voice and electronic device supporting the same
US11443738B2 (en) Electronic device processing user utterance and control method thereof
EP3010016B1 (en) Input information support apparatus, method for supporting input information, and input information support program
JP6296193B2 (ja) 入力情報支援装置、入力情報支援方法および入力情報支援プログラム
JP6112239B2 (ja) 入力情報支援装置、入力情報支援方法および入力情報支援プログラム
JP6172303B2 (ja) 入力情報支援装置、入力情報支援方法および入力情報支援プログラム
JP6538399B2 (ja) 音声処理装置、音声処理方法およびプログラム
CN112334923A (zh) 说明辅助装置以及说明辅助方法
WO2023026544A1 (ja) 情報処理装置、情報処理方法およびプログラム
EP3477634B1 (en) Information processing device and information processing method
KR102238973B1 (ko) 대화 데이터베이스를 이용한 대화문장 추천 방법 및 그것이 적용된 음성대화장치
KR20230083124A (ko) 난청환자 재활용 온라인 교육 콘텐츠 제공 방법 및 그 시스템
Athuljith et al. VOX: Voice of the Xtreme, an Augmentative and Alternative Communication Device
Clapp et al. The episodic encoding of spoken words in Hindi
KR20240048298A (ko) 속독 훈련 서비스 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200313

R151 Written notification of patent or utility model registration

Ref document number: 6677614

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151