JPWO2017038794A1 - 音声認識結果表示装置、音声認識結果表示方法、音声認識結果表示プログラム - Google Patents

音声認識結果表示装置、音声認識結果表示方法、音声認識結果表示プログラム Download PDF

Info

Publication number
JPWO2017038794A1
JPWO2017038794A1 JP2017538034A JP2017538034A JPWO2017038794A1 JP WO2017038794 A1 JPWO2017038794 A1 JP WO2017038794A1 JP 2017538034 A JP2017538034 A JP 2017538034A JP 2017538034 A JP2017538034 A JP 2017538034A JP WO2017038794 A1 JPWO2017038794 A1 JP WO2017038794A1
Authority
JP
Japan
Prior art keywords
keyword
recognition result
character string
client terminal
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017538034A
Other languages
English (en)
Other versions
JP6524242B2 (ja
Inventor
孝彦 中野
孝彦 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Publication of JPWO2017038794A1 publication Critical patent/JPWO2017038794A1/ja
Application granted granted Critical
Publication of JP6524242B2 publication Critical patent/JP6524242B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】過去に行われた一連の発話に関して、自動抽出されたキーワードをベースに、各時間帯の会話のテーマ、議題などを簡易な方法で確認することができる音声認識結果表示装置を提供することである。【解決手段】実施形態の音声認識結果表示装置は、音声データに対する音声認識処理の結果である音声テキストデータから、所定のタイミングで音声テキストデータに含まれる文字列を抽出するキーワード抽出手段と、音声テキストデータ、キーワード抽出手段で抽出した文字列を記録する記憶部と、クライアント端末からの音声認識結果の表示要求に基づき、クライアント端末から指定された所定時間における音声テキストデータから抽出した文字列を記憶部から検索するキーワード検索手段とを有し、キーワード検索手段で検索された文字列をキーワードとしてクライアント端末画面に表示する。【選択図】図1

Description

本発明の実施形態は音声認識結果表示装置、音声認識結果表示方法、音声認識結果表示プログラムに関する。
従来より、クライアント(スマートフォン、PCなど)端末から入力された音声データを音声認識してテキストに変換し、クライアント端末の表示画面に認識結果として表示する技術が提供されている。例えば会議等における発話を時系列に時間軸と共に表示したり、発話区間と無音区間を区別して表示する技術も提供されている。
特許第5685702号公報
本発明が解決しようとする課題は、過去に行われた一連の発話に関して、自動抽出されたキーワードをベースに、各時間帯の会話のテーマ、議題などを簡易な方法で確認することができる音声認識結果表示装置を提供することである。
実施形態の音声認識結果表示装置は、音声データに対する音声認識処理の結果である音声テキストデータから、所定のタイミングで音声テキストデータに含まれる文字列を抽出するキーワード抽出手段と、音声テキストデータ、キーワード抽出手段で抽出した文字列を記録する記憶部と、クライアント端末からの音声認識結果の表示要求に基づき、クライアント端末から指定された所定時間における音声テキストデータから抽出した文字列を記憶部から検索するキーワード検索手段とを有し、キーワード検索手段で検索された文字列をキーワードとしてクライアント端末画面に表示する。
第1の実施形態に係る音声認識結果表示システムの全体構成を示すブロック図。 第1の実施形態に係るユーザー端末の画面表示の一例を示す図。 第1の実施形態に係る音声データおよび関連情報の一例を示す図。 第1の実施形態に係る音声認識結果から抽出したキーワードの一例を示す図。 第1の実施形態に係るユーザー端末の画面に表示されるキーワード表示の一例を示す図。 第1の実施形態に係る音声認識結果から抽出したキーワードの一例を示す図。 第1の実施形態に係るユーザー端末の画面に表示されるキーワード表示の一例を示す図。 第1の実施形態に係る音声認識結果から抽出したキーワードの中から表示対象外とするキーワードの一例を示す図。 第1の実施形態に係るユーザー端末の画面に表示されるキーワード表示の一例を示す図。 第1の実施形態に係る音声認識結果表示システムの処理フローを示す図。 第1の実施形態に係るユーザー端末の画面に表示されるキーワード表示の一例を示す図。 第1の実施形態に係るユーザー端末の画面に表示される音声認識結果の一例を示す図。 第1の実施形態に係るユーザー端末の画面に表示される音声認識結果の一例を示す図。 第1の実施形態に係るユーザー端末の画面に表示される音声認識結果の一例を示す図。 第1の実施形態に係る声認識結果の音声テキストデータ表示処理のフロー示す図。 第1の実施形態に係るユーザー端末の画面に表示される音声認識結果の一例を示す図。
(第1の実施形態)
以下、本発明の第1の実施形態について図面を参照して説明する。
図1は第1の実施形態に係る音声認識結果表示システムの全体構成を示すブロック図である。図1に示すように、音声認識表示システムは、ユーザー端末(クライアント端末)100、音声認識結果表示装置200、音声認識サーバー300で構成され、それぞれネットワーク400を介して接続される。音声認識サーバー300は、入力部301、音声認識処理部302、出力部303を備え、ユーザー端末100から入力された音声データを音声認識結果表示装置200を介して受信し、音声認識処理部302で処理した音声認識結果(音声テキストデータ)を音声認識結果表示装置200に送信する。
ユーザー端末100は、例えばスマートフォン、タブレット、PC等であり、入出力部101、表示制御部102、表示部103を備える。入出力部101は図示しないマイクからの音声、表示部103に表示する音声認識結果の送信要求、当該要求に基づき画面表示された音声認識結果に対する表示切替え等の要求を音声認識結果表示装置200に送信する。表示部103は、入出力部101から音声認識結果表示装置200に送信した音声に対する認識結果を表示する。
入出力部101から音声認識結果表示装置200に送信される音声データは、発話者を特定するための識別情報及び発話時間と共に送信される。また、入出力部101から送信される表示部103に表示する音声認識結果の送信要求情報には、表示要求範囲を示す日時が含まれる。この表示要求範囲を示す日時は、図2に示すようなユーザー端末100を起動した際に表示される画面に対するユーザー(クライアント)操作に基づいて取得する。例えば、ユーザー端末100に内蔵される時計に基づき起動した時点を起点とする時間軸を表示し、表示された時間軸に対するユーザー操作に基づいて、表示要求範囲を示す日時を取得することができる。
図2はユーザー端末100が起動された時に表示される画面の一例である。図2に示す表示例において、画面500に表示されている時間軸501は、2015年7月31日の13時から15時となっており、ユーザーがポインタ502の操作で指定した時間は、14時となっている。ユーザー端末100はユーザーが14時を指定するポインタ502の操作に伴い、操作した時点で画面500に表示されている時間軸501から音声認識結果表示装置200に要求する表示要求範囲を特定し、表示要求範囲を特定する時間情報を入出力部101から音声認識結果装置200に送信する。図2の例においては、表示範囲を特定する時間情報は、2015年7月31日の13時から15時となる。尚、図2に示す時間軸501の表示範囲はユーザー端末100における操作により1日、半日、1時間等所定の範囲に切替えができる。図2では、ユーザー端末100における表示範囲に対する操作が2時間の例となっている。
表示制御部102は、入出力部101を介して音声認識結果表示装置200に送信要求した音声認識結果を表示部103に表示するために制御する。本実施形態では、音声認識結果表示装置200から表示対象情報として受信したキーワードや表示位置を示す情報に基づき表示内容や表示位置を調整し表示部103に表示する。
音声認識結果表示装置200は、音声データ入力部201、音声データ出力部202、キーワード抽出部203、キーワード重要度算出部204、記憶部205、キーワード検索部206を備える。
音声データ入力部201は、ユーザー端末100の入出力部101から送信された音声データを受信し、記憶部205に登録すると共に、音声認識サーバー300で音声認識処理をするために音声データを音声認識サーバー300に送信する。また、音声認識サーバー300の音声認識処理部302で処理された結果(音声テキストデータ)を受信し、記憶部205に登録する。
図3は、記憶部205に登録される音声データの登録例を示す図である。図3に示すように、ユーザー端末100から入力された音声データは発話者を特定するための識別情報及び発話時間と共に登録される。更に、音声認識サーバー300で認識処理された結果が対応付けて登録される。
音声データ出力部202は、音声データ入力部201を介して記憶部205に登録された音声データを、ユーザー端末100からの要求に応じて検索して取得し、ユーザー端末100に送信する。ユーザー端末100は、音声データを受信することで音声の再生が可能となる。
キーワード抽出部203は、記憶部205に登録された音声認識結果に含まれる文字列を抽出し、ユーザー端末100に表示するキーワードとなる文字列を特定する。抽出する文字列の品詞は、キーワードになり得る品詞であればよく、例えば名詞や動詞が該当する。
図4はキーワード抽出の結果を示す図である。キーワードとなる文字列の抽出は、予め設定された時間間隔(1日に1回、半日に1回、1時間に1回など)でキーワード抽出部203が実行する。キーワード抽出の実行結果は、図4に示すように、抽出した文字列をキーワードとし、抽出した時間と共に記憶部205に記録する。図4は2015年7月31日の13時から15時の間に抽出されたキーワードとなる文字列を記録した例である。図4に示すように、東京という文字列が2015年7月31日の13時5分に抽出されたことを示している。宿題という文字列は2015年7月31日の14時40分、設定という文字列は2015年7月31日の13時15分、教育という文字列は2015年7月31日の14時にそれぞれ抽出されたことを示している。例えば、東京という文字列がキーワード抽出部203の1回の実行動作で複数回抽出された場合は、都度記録するのではなく出現回数をカウントし、後述するキーワード重要度算出部205により重みに反映する。
また、キーワード抽出の検索範囲は上記のキーワード抽出部の実行のタイミングとの関係により、検索対象が1日分、半日分、1時間分等様々となる。
ここではキーワード抽出部203が記憶部205に登録された音声データの認識結果から自動的に文字列を抽出してキーワードを特定する方法を説明したが、ユーザーが予め特定のキーワードを登録し、キーワード抽出部203を実行した際に、ユーザーにより登録されたキーワードが含まれるか否かを検索し、上記と同様、キーワードの出現回数をカウントするようにしてもよい。
キーワード重要度算出部204は、キーワード抽出部203で抽出した文字列の出現回数に基づき重みを計算し、算出した結果を図4に示すように、抽出された文字列に対する重み付けとして設定する。この重み付けは、出現回数のみでなく例えば、キーワード抽出部203の処理において、所定時間分の音声データのうち1つの発話の中に同じ文字列が複数含まれている場合や、一人のユーザーの発話のみに含むのではなく、複数人の発話に同じ文字列が含まれる場合や、所定時間分の音声データの全てに同じ文字列が含まれる場合等、発話の中の出現場所も加味してもよい。出現頻度に基づき重み付けをすることで抽出した文字列の中から重要なキーワードの抽出が可能となる。尚、キーワードの抽出と同様に、重み付けについてもユーザーが設定するようにしてもよい。
記憶部205は、音声データ入力部201から入力された音声データ、音声認識サーバー300で処理された音声認識結果のテキストデータ、キーワード抽出部203で抽出されたキーワード、キーワード重要度算出部204等で算出した重みを記録する。
キーワード検索部206は、ユーザー端末100の入出力部101からの音声認識結果の表示要求に応じて、キーワード抽出部203で抽出したキーワードを検索し、その結果に基づきユーザー端末100の表示部103にキーワードを表示させる。キーワード検索部206は、ユーザー端末100の入出力部101から表示要求範囲を示す日時を受信すると、図4に示すキーワード抽出結果を参照し、ユーザー端末100から送信された表示要求範囲を示す日時と、キーワードが抽出された時間を比較し、ユーザー端末100から送信された表示要求範囲に含まれるキーワードを特定する。例えば、ユーザー端末100の入出力部101から、表示要求範囲として2015年7月31日の13時から15時を受信した場合を例に説明する。キーワード検索部206は、図4に示すキーワード抽出結果のキーワードが抽出された時間を参照し、2015年7月31日の13時から15時に含まれるキーワードとして、「東京」、「宿題」、「設定」、「教育」を特定する。そして、ユーザー端末100からの表示要求に対する結果として、キーワード、キーワード抽出時間、重みをユーザー端末100に送信する。ユーザー端末100の入出力部101が当該情報を受信し、表示制御部102が表示部103に表示する。
続いて、ユーザー端末100の表示部103に表示される音声認識結果の具体的な表示方法について説明する。
図5は、キーワード検索部206で検索した結果の表示例を示す図である。図5は上記のキーワード検索部206で、2015年7月31日の13時から15時を検索範囲として検索し、抽出された4つのキーワード(東京、宿題、設定、教育)を表示している。各キーワードは図4に示すように、キーワードに設定された重み値に基づき表示の大きさや表示の形式を変えて表示している。図4に示すように、4つのキーワードの重みは、「東京」が0.95、「宿題」が1.0、「設定」が0.3、「教育」が0.32となっている。ここでは、重みは0から1の間の数値を用いており、1に近い値ほど重要なキーワードであることを示しており、重み値が一番大きい「宿題」を他のキーワードと形式を変えて星形の形状で表示している。その他の3つのキーワードについては全て円形の形状で表示しているが、重み値に応じて円形の大きさを変えることで、重要度を変化させて表示している。表示の形状は一例であり、複数のキーワードの中から重要度が高いキーワードが特定できる表示であれば色を変えるなどの表示方法とすることができる。これらの表示方法は問わない。
また、各キーワードの表示位置については、図4に示すキーワードが抽出された時間に基づき決定する。図4の例では、「東京」は2015年7月31日の13時5分であり、図5に示すように13時5分付近に表示される。同様に「宿題」は2015年7月31日の14時40分付近に、「設定」は2015年7月31日の13時15分付近に、「教育」は2015年7月31日の14時付近に表示される。この表示から、2015年7月31日の13時から15時の発話には、キーワードとして宿題が含まれる発話が多く、かつ14時40分前後にキーワードとして宿題が含まれる発話が多いことが分かる。このように時間軸に沿って、キーワードを重要度に応じて表示形式を変えて表示することにより、各時間帯にどのようなキーワードを含んだ発話が行われたかを、簡単に俯瞰することができるようになる。
本実施形態では、音声認識結果表示装置200のキーワード抽出部203で音声データからキーワードを自動で抽出し、抽出されたキーワードをユーザー端末100に表示する例で説明したが、キーワードの数が多い場合は、ユーザー端末100の表示画面に表示できるキーワードの数が限られるため、重みの低いキーワードが画面に表示されない可能性がある。そこで、ユーザーが必要としないキーワードを表示対象から除く設定をユーザーができるようにしてもよい。その方法を簡単に図6から図9を参照して説明する。
図6はキーワード抽出の結果を示す図であり、登録されているキーワードは異なるが図4と同じキーワード抽出の結果である。図6に示すように抽出されたキーワードが5つ登録されているが、ユーザー端末100の表示部103の表示領域の関係から、図7に示すように表示できるキーワードが4つとなっている。そのため、一番重みの低いキーワードとなっている「設定」が表示されていない。ここで、図8に示すように表示対象から除外するキーワードを設定することで、重みが高い場合でも除外キーワードに登録されている場合は表示対象から除外し、代わりに表示ができなかった重みの高いキーワードを表示する。図9は、除外対象のキーワードとして遊びを登録した例であり、この除外設定に基づき、「遊び」の代わりに「設定」が表示されている。
ここで、図10を参照して本実施形態に係る音声認識結果表示システムの処理フローについて説明する。図10は、第1の実施形態に係る音声認識結果表示システムの処理フローを示す図である。
ユーザー端末100は、マイク等からのユーザーの発話(音声データ)を、発話者を特定する識別情報および発話時間と共に入出力部101から音声認識結果表示装置200に送信する(ステップS1)。音声認識結果表示装置200は音声データ入力部201で受信した音声データを音声認識サーバー300に送信すると共に、音声データ、発話者を特定する識別情報、発話時間を記憶部205に記録する(ステップS2)。音声認識サーバー300は入力部301で受信した音声データの認識処理を音声認識処理部302で実行し、認識結果のテキストデータを音声認識結果表示装置200に送信する(ステップS3)。音声認識結果表示装置200は音声認識サーバー300から受信した認識結果の音声テキストデータをステップS1で記録した音声データに対応付けて記録する(ステップS4)。音声認識結果表示装置200は、キーワード抽出部203で予め設定された時間間隔で記憶部205に記録されている音声テキストデータに含まれる文字列を検索する。検索結果として抽出した文字列を、当該文字列を抽出した時間と共に記憶部205に記録する。文字列の検索の過程で既に抽出し記録した文字列が検索された場合は出現回数をカウントし記録する(ステップS5)。音声認識結果表示装置200のキーワード重要度算出部204はステップS5で抽出した文字列に対して、文字列の出現頻度に基づき各文字列に対する重みを設定する(ステップS6)。
ユーザー端末100は、ユーザーによる、音声認識結果のキーワード表示要求操作に基づき、入出力部101から音声認識結果表示装置200に表示要求範囲を示す日時情報を含むキーワード検索要求を送信する(ステップS7)。音声認識結果表示装置200はユーザー端末100から受信したキーワード検索要求の表示要求範囲を示す日時に基づき、要求日時とステップS5の処理で記憶部205に記録した文字列(キーワード)を抽出した時間を比較して、要求日時の範囲内に抽出されたキーワードを特定する。そして、特定したキーワード、キーワードの抽出時間、ステップS6の処理で設定された重みをユーザー端末100に送信する(ステップS8)。ユーザー端末100は、入出力部101で音声認識結果表示装置200から受信したキーワードを、表示制御部102でキーワード抽出時間から表示位置を調整し、重みから表示の大きさを調整して、表示部203に表示する(ステップS9)。
次に、図10のフローチャートで説明した処理に基づきユーザー端末100の表示部103に表示された音声認識結果に対する表示切替えおよび他の表示方法について図11から図15を参照して説明する。
図11は、音声認識結果のキーワード表示の一例を示す図である。図12は、図11の表示に対するユーザー操作により、キーワードに対応する音声認識結果を付加した表示の一例を示す図である。
図11は音声認識結果表示装置200のキーワード検索部206で検索されたユーザー端末100からの要求に基づく検索の結果(キーワード)を表示している。具体的には、2015年7月31日の10時から12時における発話に含まれるキーワードが表示されたユーザー端末100の表示画面600である。キーワードとして金曜日、出張が表示され、ユーザーが操作するポインタ602は11時を示している。図11に示す表示画面600において、ユーザーによる時間軸601上のポインタ602の移動操作により、ポインタ602の時間軸上の位置が、随時、ユーザー端末100から音声認識結果表示装置200に送信される。音声認識結果装置200は図3に示す音声データと共に記憶部205に記録されている発話時間を参照し、ユーザー端末100から受信したポインタの示す時間に対する発話が存在する場合には、該発話を行ったユーザーの情報と発話内容がユーザー端末100に送信され、表示される。
この検索結果の表示例を図12に示している。
図12に示すように、表示制御部102は、ユーザー端末100が音声認識結果表示装置200から受信した検索結果の情報に基づいて制御し、表示部103に、キーワード(金曜日)を含む発話内容603を、発話された時間に対応する位置に表示する。発話内容には発話者、発話した時間、発話内容が表示される。表示内容は一例であり、発話内容に変えて要約を表示したり、その他の情報を表示するようにしてもよい。上記では、ポインタにより時間を選択して、該時間に行われた発話の情報を表示しているが、ユーザーが画面上のキーワードをタッチするなどにより選択することにより、ユーザー端末100が選択されたキーワードの情報を音声認識結果表示装置200に送信することができる。そして、音声認識結果表示装置200が、図3に示す音声データと共に記憶部205に記録されている音声認識結果(音声テキストデータ)から該キーワードを含む発話を検索し、ユーザー端末100に検索された発話に関する発話時間を含む情報を送信することにより、ユーザー端末100の画面の時間軸上に吹き出しなどの形式で発話の情報を表示してもよい。
ここでは1つの発話のみが表示されているが、検索の結果、複数の発話が検索された場合は、全ての発話内容が表示される。尚、ユーザーの操作により選択されなかったキーワードはグレーアウトで表示したり、選択されたキーワードをハイライトで表示するなど、選択されたキーワードと選択されなかったキーワードを区別して表示するようにしてもよい。
続いて、図13、図14を参照して他の表示例を説明する。図13、図14は音声認識結果のキーワード表示とあわせて、画面表示されている時間帯における発話量を表示する一例である。
図13、図14は音声認識結果表示装置200のキーワード検索部206でユーザー端末100からの要求に基づく検索結果(キーワード)を表示している。具体的には、2015年7月31日の13時から15時における発話に含まれるキーワードが表示されたユーザー端末100の表示画面600である。図5ではキーワードのみを表示する表示例を説明したが、図13ではユーザー端末100に表示されている時間軸(601)の範囲に含まれる発話数を三角形の高さを変化させて発話が多い時間帯を可視化している(発話数情報604)。また、図14は三角形の表示の代わりに折れ線グラフ(発話数情報605)を用いて各時間帯の発話数を表現している。発話数については、ユーザー端末100からのキーワード検索要求に対する音声認識結果表示装置200の処理において、キーワード検索部206で上述のキーワード検索と並行して、ユーザー端末100から受信した表示要求範囲を示す日時で、図3に示す音声データと共に記憶部205に記録されている発話時間を基に検索し、表示要求範囲に含まれる音声データのレコード数をカウントし、所定時間単位(例えば30分単位)のレコード数をユーザー端末100に送信する。ユーザー端末100は音声認識結果表示装置200から受信した情報に基づき、表示制御部102で調整した結果を表示部103に表示する。
ここで、図15を参照して本実施形態に係る音声認識結果の音声テキスト表示の処理フローについて説明する。図15は、第1の実施形態に係る音声認識結果表示の処理フローを示す図である。
ユーザー端末100は、表示部103に表示された音声認識結果表示装置200から取得したキーワードに対するユーザーの指定操作に伴い、音声認識結果装置200に指定キーワードと指定キーワードの表示位置に対応する日時を送信する(ステップS11)。音声認識結果表示装置200は、キーワード検索部206でユーザー端末100から受信した指定されたキーワードおよび日時に基づき、記憶部205に記録された当該日時に発話された音声データに対応する音声テキストデータから指定キーワードを含む音声テキストデータを検索する(ステップS12)。指定のキーワードが含まれる音声テキストデータを発話者、発話時間等、付随情報と共にユーザー端末100に送信する(ステップS13)。ユーザー端末100は、表示制御部102で音声認識結果表示装置200から受信した音声テキストデータを指定したキーワードを含むデータとして、表示位置を調整し、表示部103に表示された指定キーワードの近傍に表示する。
次に、図16を参照して他の表示例を説明する。図16は、過去のキーワードから目的のキーワードを検索するためのキーワード検索画面700の一例である。
図16の例では、画面上部に検索したいキーワードの入力エリア701と、縦軸として月単位の時間軸702a、横軸として時間単位の時間軸702bを含む表示エリア702と、が設けられている。画面を垂直方向にスクロールすることにより、表示対象の月を選択できる。また、画面のピンチイン/ピンチアウトにより、12時間表示/24時間表示を切り替えることができ、12時間表示中は水平方向にスクロールすることにより、表示時間帯(0〜12時/12〜24時)を切り替えることができる。
画面上部のキーワードの入力エリア701にキーワードを入力し、虫眼鏡アイコンをタッチすると、入力されたキーワード及び選択された表示要求範囲を示す月/時間を含む音声認識結果の表示要求が音声認識結果表示装置200に送信される。キーワード検索部206は、受信した音声認識結果の表示要求に基づいて、キーワード抽出部203によって抽出したキーワードの中から表示要求範囲内の該当するキーワードを検索し、検索結果をユーザー端末100に送信する。ユーザー端末100の入出力部101が検索結果を受信し、表示制御部102が図16に示すような画面を表示部103に表示する。
図16の例では、入力されたキーワード(図16の例では“出張”)が発話された月/時間の箇所に○印が表示されている。○印の大きさは、検索されたキーワードを含む発話の数を表現している。発話数が多いほど、円を大きくして表示し、発話数が少ないほど、小さな円を表示するように制御される。また、表示エリア702に表示された○印をタッチすると、図2のようなその時間帯のキーワード一覧が表示されるように構成することができる。
このように、本実施形態では、音声認識結果を時間帯毎に発話に含まれる文字列をキーワードとして表示することができ、どの時間帯にどのようなテーマ、話題に関する発話があったのかを容易に把握することができる。
また、本実施形態では、発話に含まれるキーワードの数(出現頻度)に応じて重み付けをすることで、キーワードの表示の大きさや形状を変えて表示することができ、表示されたキーワードに関する発話が集中した時間帯を容易に把握することができる。
また、本実施形態では、画面上の操作により表示されたキーワードが含まれる発話内容を表示することができるので、具体的な発話内容を容易に把握することができる。
また、本実施形態では、音声認識結果を時間帯毎に発話に含まれるキーワードの表示に加え、時間帯毎の発話数を表示することができ、会議等において活発に議論された時間帯を容易に把握することができる。
また、本実施形態では、表示対象とするキーワードをユーザーが設定することもできるため、表示領域との関係から表示できるキーワードの数に制約がある場合でも、必要なキーワードのみを表示することができる。
尚、本実施形態では、音声認識結果の表示制御をユーザー端末100で実行する構成で説明したが、音声認識結果表示装置200で実行してもよい。
なお、上記の実施形態に記載した手法は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、光磁気ディスク(MO)、半導体メモリなどの記憶媒体に格納して頒布することもできる。
ここで、この記憶媒体としては、プログラムを記憶でき、かつコンピュータが読み取り可能な記憶媒体であれば、その記憶形式は何れの形態であっても良い。
また、記憶媒体からコンピュータにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワークソフト等のMW(ミドルウェア)等が本実施形態を実現するための各処理の1部を実行しても良い。
さらに、本実施形態における記憶媒体は、コンピュータと独立した媒体に限らず、LANやインターネット等により伝送されたプログラムをダウンロードして記憶または1時記憶した記憶媒体も含まれる。
また、記憶媒体は1つに限らず、複数の媒体から本実施形態における処理が実行される場合も本実施形態における記憶媒体に含まれ、媒体構成は何れの構成であっても良い。
なお、本実施形態におけるコンピュータは、記憶媒体に記憶されたプログラムに基づき、本実施形態における各処理を実行するものであって、パソコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であっても良い。
また、本実施形態の各記憶装置は1つの記憶装置で実現しても良いし、複数の記憶装置で実現しても良い。
そして、本実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本実施形態の機能を実現することが可能な機器、装置を総称している。
尚、本発明の実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100…ユーザー端末
101…入出力部
102…表示制御部
103…表示部
200…音声認識結果表示装置
201…音声データ入力部
202…音声データ出力部
203…キーワード抽出部
204…キーワード重要度算出部
205…記憶部
206…キーワード検索部
300…音声認識サーバー
301…入力部
302…音声認識処理部
303…出力部
400…ネットワーク
500、600、700…音声認識結果表示画面
501、601…時間軸
502、602…操作ポインタ
603…発話情報
604、605…発話数情報

Claims (7)

  1. 音声データに対する音声認識処理の結果をクライアント端末画面に表示する音声認識結果表示装置であって、
    前記音声認識処理の結果である音声テキストデータから、所定のタイミングで前記音声テキストデータに含まれる文字列を抽出するキーワード抽出手段と、
    前記音声テキストデータと、前記キーワード抽出手段で抽出した前記文字列とを記録する記憶部と、
    前記クライアント端末からの音声認識結果の表示要求に基づき、前記クライアント端末から指定された所定時間における音声テキストデータから抽出された前記文字列を前記記憶部から検索するキーワード検索手段と、を有し、
    前記キーワード検索手段で検索された前記文字列をキーワードとして前記クライアント端末画面に表示することを特徴とする音声認識結果表示装置。
  2. 前記キーワード抽出手段で抽出された前記文字列の出現頻度に基づき、前記文字列に対する重みを算出するキーワード重要度算出手段を有し、
    前記記憶部は、前記キーワード重要度算出手段で算出された前記重みを前記文字列と紐付けて記録し、
    前記クライアント端末からの音声認識結果の表示要求に基づき、前記クライアント端末から指定された所定時間における音声テキストデータから前記キーワード検索手段で抽出した前記文字列を、前記重みに応じて形式を変えて前記クライアント端末画面に表示することを特徴とする請求項1に記載の音声認識結果表示装置。
  3. 前記クライアント端末画面に表示する前記重みに応じた形式は、大きさまたは色であることを特徴とする請求項2に記載の音声認識結果表示装置。
  4. 前記記憶部は、前記キーワード抽出手段で音声テキストデータから文字列を抽出した時間を記録し、前記クライアント端末からの音声認識結果の表示要求に基づき、前記クライアント端末から指定された所定時間における音声テキストデータから前記キーワード検索手段で抽出した前記文字列をキーワードとして前記文字列を抽出した時間に対応した位置に表示することを特徴とする請求項1乃至請求項3に記載の音声認識結果表示装置。
  5. 前記キーワード検索手段は、前記クライアント端末画面に表示されたキーワードの指定操作による音声認識結果の発話情報の表示要求に基づき、前記クライアント端末から指定されたキーワードを含む音声テキストデータを前記記憶部から検索し、検索した結果を前記クライアント端末画面の指定キーワードの近傍に前記音声テキストデータを表示することを特徴とする請求項1乃至請求項4に記載の音声認識結果表示装置。
  6. 音声データに対する音声認識処理の結果をクライアント端末画面に表示する音声認識結果表示方法であって、
    前記音声認識処理の結果である音声テキストデータから、所定のタイミングで前記音声テキストデータに含まれる文字列を抽出するステップと、
    前記音声テキストデータと、前記音声テキストデータから抽出した前記文字列とを記憶部に記録するステップと、
    前記クライアント端末からの音声認識結果の表示要求に基づき、前記クライアント端末から指定された所定時間における音声テキストデータから抽出された前記文字列を前記記憶部から検索するステップと、を有し、
    前記記憶部から検索された文字列をキーワードとして前記クライアント端末画面に表示することを特徴とする音声認識結果表示方法。
  7. 音声データに対する音声認識処理の結果をクライアント端末画面に表示する音声認識結果表示装置によって実行されるプログラムであって、
    前記音声認識処理の結果である音声テキストデータから、所定のタイミングで前記音声テキストデータに含まれる文字列を抽出するキーワード抽出機能と、
    前記音声テキストデータと、前記キーワード抽出手段で抽出した前記文字列とを記録する記録機能と、
    前記クライアント端末からの音声認識結果の表示要求に基づき、前記記録機能で記録された情報から、前記クライアント端末から指定された所定時間における音声テキストデータから抽出された前記文字列を検索するキーワード検索機能と、を有し、
    前記キーワード検索機能で検索された前記文字列をキーワードとして前記クライアント端末画面に表示させることを特徴とする音声認識結果表示プログラム。
JP2017538034A 2015-08-31 2016-08-30 音声認識結果表示装置、音声認識結果表示方法、音声認識結果表示プログラム Active JP6524242B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015171542 2015-08-31
JP2015171542 2015-08-31
PCT/JP2016/075271 WO2017038794A1 (ja) 2015-08-31 2016-08-30 音声認識結果表示装置、音声認識結果表示方法、音声認識結果表示プログラム

Publications (2)

Publication Number Publication Date
JPWO2017038794A1 true JPWO2017038794A1 (ja) 2018-01-25
JP6524242B2 JP6524242B2 (ja) 2019-06-05

Family

ID=58187612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017538034A Active JP6524242B2 (ja) 2015-08-31 2016-08-30 音声認識結果表示装置、音声認識結果表示方法、音声認識結果表示プログラム

Country Status (2)

Country Link
JP (1) JP6524242B2 (ja)
WO (1) WO2017038794A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6737398B2 (ja) 2017-03-24 2020-08-05 ヤマハ株式会社 重要単語抽出装置、関連会議抽出システム、及び重要単語抽出方法
JP7053824B2 (ja) * 2017-11-17 2022-04-12 Line株式会社 会話の流れ情報を提供するためのコンピュータプログラム及びシステム
JP6969040B2 (ja) * 2017-12-18 2021-11-24 一般社団法人 教育環境デザイン研究所 授業改善のためのネットワークシステム
WO2019130817A1 (ja) * 2017-12-25 2019-07-04 京セラドキュメントソリューションズ株式会社 情報処理装置及び発話解析方法
JP7098949B2 (ja) * 2018-02-14 2022-07-12 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
CN111970257B (zh) * 2020-08-04 2022-01-11 腾讯科技(深圳)有限公司 一种文稿显示控制方法、装置、电子设备和存储介质
JP6953597B1 (ja) * 2020-09-17 2021-10-27 ベルフェイス株式会社 情報処理装置、プログラム及び情報処理方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007358A (ja) * 2002-03-28 2004-01-08 Fujitsu Ltd 同期コンテンツ情報生成プログラム、同期コンテンツ情報生成装置および同期コンテンツ情報生成方法
JP2005064600A (ja) * 2003-08-15 2005-03-10 Toshiba Corp 情報処理装置、情報処理方法、およびプログラム
WO2006085565A1 (ja) * 2005-02-08 2006-08-17 Nippon Telegraph And Telephone Corporation 情報通信端末、情報通信システム、情報通信方法、情報通信プログラムおよびそれを記録した記録媒体
JP2006276754A (ja) * 2005-03-30 2006-10-12 Mitsubishi Electric Information Systems Corp オペレータ業務支援システム
JP2008009552A (ja) * 2006-06-27 2008-01-17 Nippon Telegr & Teleph Corp <Ntt> インデクス生成装置、インデクス生成方法およびインデクス生成プログラム
JP2014229075A (ja) * 2013-05-22 2014-12-08 キヤノン株式会社 文書情報に関連する音声情報を抽出するシステム
JP2014241016A (ja) * 2013-06-11 2014-12-25 株式会社東芝 インデックス作成装置、インデックス作成システム、インデックス作成方法、及び、インデックス作成プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007358A (ja) * 2002-03-28 2004-01-08 Fujitsu Ltd 同期コンテンツ情報生成プログラム、同期コンテンツ情報生成装置および同期コンテンツ情報生成方法
JP2005064600A (ja) * 2003-08-15 2005-03-10 Toshiba Corp 情報処理装置、情報処理方法、およびプログラム
WO2006085565A1 (ja) * 2005-02-08 2006-08-17 Nippon Telegraph And Telephone Corporation 情報通信端末、情報通信システム、情報通信方法、情報通信プログラムおよびそれを記録した記録媒体
JP2006276754A (ja) * 2005-03-30 2006-10-12 Mitsubishi Electric Information Systems Corp オペレータ業務支援システム
JP2008009552A (ja) * 2006-06-27 2008-01-17 Nippon Telegr & Teleph Corp <Ntt> インデクス生成装置、インデクス生成方法およびインデクス生成プログラム
JP2014229075A (ja) * 2013-05-22 2014-12-08 キヤノン株式会社 文書情報に関連する音声情報を抽出するシステム
JP2014241016A (ja) * 2013-06-11 2014-12-25 株式会社東芝 インデックス作成装置、インデックス作成システム、インデックス作成方法、及び、インデックス作成プログラム

Also Published As

Publication number Publication date
JP6524242B2 (ja) 2019-06-05
WO2017038794A1 (ja) 2017-03-09

Similar Documents

Publication Publication Date Title
WO2017038794A1 (ja) 音声認識結果表示装置、音声認識結果表示方法、音声認識結果表示プログラム
US11810554B2 (en) Audio message extraction
US11509726B2 (en) Encapsulating and synchronizing state interactions between devices
US9646609B2 (en) Caching apparatus for serving phonetic pronunciations
US20170277993A1 (en) Virtual assistant escalation
US9697871B2 (en) Synchronizing recorded audio content and companion content
US20150193379A1 (en) System and method for cognizant time-based reminders
US10599469B2 (en) Methods to present the context of virtual assistant conversation
CN107577385A (zh) 媒体环境中的智能自动化助理
CN103136326A (zh) 与媒体一起呈现评论的系统和方法
CN107680581A (zh) 用于名称发音的系统和方法
US11527251B1 (en) Voice message capturing system
TWI807428B (zh) 一同管理與語音檔有關的文本轉換記錄和備忘錄的方法、系統及電腦可讀記錄介質
JP5586754B1 (ja) 情報処理装置及びその制御方法、コンピュータプログラム
US8994774B2 (en) Providing information to user during video conference
CN104572716A (zh) 影音文件播放的系统及其方法
US20140278404A1 (en) Audio merge tags
WO2018043137A1 (ja) 情報処理装置及び情報処理方法
JP2013092912A (ja) 情報処理装置、情報処理方法、並びにプログラム
WO2023210340A1 (ja) 学習装置および学習方法
JPWO2019098036A1 (ja) 情報処理装置、情報処理端末、および情報処理方法
KR102446300B1 (ko) 음성 기록을 위한 음성 인식률을 향상시키는 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체
CN113241061B (zh) 语音识别结果的处理方法、装置、电子设备和存储介质
AU2017100208B4 (en) A caching apparatus for serving phonetic pronunciations
JP2023129020A (ja) 端末装置、情報処理方法、および情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20171018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190426

R150 Certificate of patent or registration of utility model

Ref document number: 6524242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150