JP2016118738A - 音声認識方法、音声認識装置及び音声認識プログラム - Google Patents

音声認識方法、音声認識装置及び音声認識プログラム Download PDF

Info

Publication number
JP2016118738A
JP2016118738A JP2014259768A JP2014259768A JP2016118738A JP 2016118738 A JP2016118738 A JP 2016118738A JP 2014259768 A JP2014259768 A JP 2014259768A JP 2014259768 A JP2014259768 A JP 2014259768A JP 2016118738 A JP2016118738 A JP 2016118738A
Authority
JP
Japan
Prior art keywords
information
slide
recognition
recognition result
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014259768A
Other languages
English (en)
Other versions
JP6342792B2 (ja
Inventor
大喜 渡邊
Hiroyoshi Watanabe
大喜 渡邊
滋 藤村
Shigeru Fujimura
滋 藤村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014259768A priority Critical patent/JP6342792B2/ja
Publication of JP2016118738A publication Critical patent/JP2016118738A/ja
Application granted granted Critical
Publication of JP6342792B2 publication Critical patent/JP6342792B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】要点の理解に役立つ音声認識結果を得る。【解決手段】音声受信部11がスライドを説明する音声データを入力し、スライド情報受信部17がスライドの文字情報であるスライド情報を入力し、強調判定部14が韻律認識部13の求めた韻律情報に基づいて強調区間を判定し、比較部19が音声認識部12による音声データの認識結果とスライド情報とを比較し、認識結果とスライド情報との類似度が高く、強調区間と判定された場合に、情報結合部18が認識結果に強調区間を示すタグを挿入する。これにより、講演者が強調して発言した部位が分かり、要点の理解に役立つ音声認識結果を得ることができる。【選択図】図1

Description

本発明は、音声を認識し、認識結果を加工する技術に関する。
講演や講義において音声認識を利用して講義内容の記録に活用する試みは広く行われている。例えば非特許文献1は、聴覚障碍者の情報保障を目的とし、音声認識を行って講義の内容をリアルタイムに文字として提示するシステムを開示している。また、最近では、スライドを聴講者に提示して講義を行うことも多いため、非特許文献2のように、講義のスライド情報を利用して言語モデルを適応させ、音声認識制度の向上を行うこともある。
六藤雄一、外4名、"特別支援学校ICTツール「こえみる」"、NTT技術ジャーナル、日本電信電話株式会社、2012年11月、第24巻、第11号、p.42−45 山崎裕紀、外4名、"講義音声認識における講義スライド情報の利用"、情報処理学会研究報告SLP,音声言語情報処理、一般社団法人情報処理学会、2006年12月22日、Vol.2006、No.136、p.221−226
しかしながら、従来の音声認識技術では音声認識結果として言語的な情報のみを返し、講演者が行った非言語的な情報は損なわれてしまっている。例えば、講演者が語気を強めて強調して発言した箇所などは発言内容の中でも特に重要性が高いと推測されるが、従来の音声認識技術では言語的な情報として発言内容のみを記録するため、音声認識された文章(以下、認識文とする)を講義後に読み返しても、講演者の口調などを読み取ることはできない。
また、講演者はスライドを操作し、スライドのページを送りながら説明をすることもあるが、講義後に認識文を読み返した場合に、どのスライドでどの発言が行われたのか、認識文とスライドを対応付けることが一見して分かりにくいといった問題があった。
そのため、従来の音声認識を使って作成された認識文を見返した際に、重要な発言が一見して分かりにくかったり、講義中の発言とスライドとの対応が分かりにくかったり、認識文を読んだだけでは内容の理解がはかどらないことがある。
本発明は、上記に鑑みてなされたものであり、要点の理解に役立つ音声認識結果を得ることを目的とする。
第1の本発明に係る音声認識方法は、コンピュータにより実行される音声認識方法であって、スライドの文字情報を入力するステップと、前記スライドを説明する音声情報を入力するステップと、前記音声情報を音声認識して認識結果を得るステップと、前記認識結果を前記文字情報と比較し、前記認識結果の前記文字情報に類似する部分に強調区間を設定するステップと、を有することを特徴とする。
上記音声認識方法において、前記音声情報から韻律情報を求め、当該韻律情報に基づいて前記認識結果から強調区間候補を決定するステップを有し、前記強調区間を設定するステップは、前記強調区間候補であって前記文字情報に類似する部分に前記強調区間を設定することを特徴とする。
上記音声認識方法において、前記認識結果を前記文字情報と比較し、前記文字情報に類似しない部分であって前記強調区間候補でない部分に削除可能区間を設定するステップを有することを特徴とする。
上記音声認識方法において、前記認識結果を得るステップでは文の区切りを認識し、前記スライドに対する操作情報を入力するステップと、前記文の区切りと前記操作情報に基づいて前記認識結果にページ区切りを設定するステップと、を有することを特徴とする。
第2の本発明に係る音声認識装置は、スライドの文字情報を入力する文字情報入力手段と、前記スライドを説明する音声情報を入力する音声情報入力手段と、前記音声情報を音声認識して認識結果を得る音声認識手段と、前記認識結果を前記文字情報と比較し、類似する部分に強調区間を設定する認識結果加工手段と、を有することを特徴とする。
第3の本発明に係る音声認識プログラムは、上記音声認識装置の各手段としてコンピュータを動作させることを特徴とする。
本発明によれば、要点の理解に役立つ音声認識結果を得ることができる。
本実施の形態における音声認識システムの構成を示す機能ブロック図である。 認識サーバにおける音声処理の流れを示すフローチャートである。 クライアントにおけるスライドに関する処理の流れを示すフローチャートである。 音声の認識結果、強調区間、スライドの操作データを結合する処理の流れを示すフローチャートである。 加工済認識文の例を示す図である。 本実施の形態における音声認識システムの出力結果を利用する認識文提示アプリケーションの構成を示す機能ブロック図である。 上記認識文提示アプリケーションが認識文を提示した様子を示す図である。 図7に示した認識文に対応するスライド資料を表示した様子を示す図である。
図1は、本実施の形態における音声認識システムの構成を示す機能ブロック図である。本音声認識システムは、認識サーバ1とクライアント3を備え、スライドを用いて講演する講演者の音声を認識し、講演者が強調して発言した強調区間やスライドのページ送りタイミングを音声認識結果に付与して出力するシステムである。以下、認識サーバ1とクライアント3について説明する。
クライアント3は、講演者がスライドを操作する装置であり、音声送信部31とスライド提示アプリケーション32を備える。
音声送信部31は、マイクロフォン33を接続し、講演者のスライドを説明する音声を入力して音声データを認識サーバ1に送信する。
スライド提示アプリケーション32は、スライド資料蓄積装置4からスライド資料を取得して提示するとともに、講演者からスライドに対する操作を受け付けてスライドを操作し、スライドに対する操作の情報である操作データと提示したスライドに記載された文字情報であるスライド情報を認識サーバ1に送信する。
認識サーバ1は、音声認識をする装置であり、音声受信部11、音声認識部12、韻律認識部13、強調判定部14、操作データ受信部15、操作バッファ16、スライド情報受信部17、情報結合部18、比較部19、およびスライド情報蓄積部20を備える。
音声受信部11は、音声データを受信し、受信した音声データを音声認識部12と韻律認識部13に送信する。
音声認識部12は、音響モデル、言語モデルを利用して音声データの文章認識を行い、認識結果を情報結合部18に送信する。音声認識部12は、音声データから文末などの文境界を判定し、文境界が存在する場合は認識結果に文境界の情報を含める。
韻律認識部13は、音声データから音声のパワー(強さ)・基本周波数(ピッチ)・スペクトル変化量(速さ)などの韻律情報を求め、求めた韻律情報を強調判定部14に送信する。
強調判定部14は、音声が強調区間であるか否かを判定する。強調区間の判定方法としては、例えば、参考文献1(日高浩太、外4名、“音声の感性情報に着目したマルチメディアコンテンツ要約技術”、インタラクション2003予稿集、一般社団法人情報処理学会、2003年、p.17−24)に開示されている技術を用いることができる。強調判定部14は、判定した強調区間の情報を情報結合部18に送信する。
操作データ受信部15は、操作データを受信し、操作バッファ16に格納する。操作データとしては、次のスライドに進めるページ送りの操作やアニメーションを開始させる操作のデータがある。
操作バッファ16は、音声の認識結果と操作データとを統合するタイミングを合わせるために操作データを一時的に格納する。
スライド情報受信部17は、スライド情報を受信し、スライド情報蓄積部20に格納する。
情報結合部18は、音声の認識結果と強調区間情報を受信し、認識結果の認識文とスライド情報蓄積部20に格納されたスライド情報とを比較部19に比較させて、認識文とスライド情報との類似度が高く、強調区間情報が強調区間であることを示す場合に強調区間を示すタグを認識結果に挿入する。このとき、情報結合部18は、強調区間情報を用いず、認識文とスライド情報との類似度が高い場合に強調区間を示すタグを認識結果に挿入してもよい。
比較部19は、認識文とスライド情報蓄積部20に格納されたスライド情報とを比較する。認識文とスライド情報は、TF−IDFなどで特徴語を抽出してから比較してもよいし、スライド情報で使われている語が認識文に含まれているか否かで比較してもよい。認識文に強調区間を設定するときに認識文とスライド情報を比較することで、受講者を注意する声などの講義の内容とは関係のない事柄を強調区間として判定することを防ぐ。
さらに、情報結合部18は、認識文のうち、スライド情報と類似しない、かつ、強調区間の含まれていない文に削除のタグを挿入してもよい。
また、情報結合部18は、操作バッファ16に操作データが格納されているか否かを調べ、操作データが存在する場合、かつ、認識文に文境界が含まれている場合は、認識文の文境界にページ区切りのタグを挿入する。ページ送り操作とアニメーション開始操作が認識可能なようにタグの種類を分けてもよい。
情報結合部18によりタグが付与された加工済認識文は、認識文受信装置5に送信され、認識文蓄積装置6に格納される。
認識サーバ1とクライアント3が備える各部は、演算処理装置、記憶装置等を備えたコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムは認識サーバ1とクライアント3が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。なお、本実施の形態では、認識サーバ1で音声認識処理を行ったが、クライアント3と同一装置上で音声認識処理を行ってもよい。
次に、本実施の形態における音声認識システムの動作について説明する。
まず、音声の処理について説明する。
図2は、認識サーバ1における音声処理の流れを示すフローチャートである。
音声受信部11が音声データを受信すると(ステップS11)、音声認識部12が音声データを音声認識するとともに(ステップS12)、韻律認識部13が音声データの韻律情報を求め(ステップS13)、強調判定部14が韻律情報に基づいて音声が強調区間であるか否かを判定する(ステップS14)。認識サーバ1は、音声データが入力される度にステップS11〜S14の処理を繰り返す。
音声認識部12による認識結果と強調判定部14による強調区間情報は情報結合部18に送信される。
続いて、スライドの処理について説明する。
図3は、クライアント3におけるスライドに関する処理の流れを示すフローチャートである。
まず、スライド資料がクライアント3に読み込まれたか否か判定する(ステップS21)。
スライド資料が読み込まれた場合は、クライアント3に読み込まれたスライド資料の文字情報をスライド情報として認識サーバ1に送信する(ステップS22)。
クライアント3に読み込まれたスライド資料は、スライド提示アプリケーション32により提示され、講演者によって操作される。
クライアント3は、スライド資料に対するページ送り操作やアニメーション開始操作が検出されたか否か判定する(ステップS23)。
ページ送り操作やアニメーション開始操作が検出された場合は、その操作データを認識サーバ1に送信する(ステップS24)。
クライアント3は、ステップS21〜S24の処理を繰り返し、提示されたスライド資料の文字情報を認識サーバ1に送信するとともに、スライドに対する操作データを認識サーバ1に送信する。
認識サーバ1は、クライアント3から受信したスライド情報をスライド情報蓄積部20に格納し、操作データを操作バッファに格納する。
続いて、音声の認識結果、強調区間、スライドの操作データを結合する処理について説明する。
図4は、音声の認識結果、強調区間、スライドの操作データを結合する処理の流れを示すフローチャートである。
情報結合部18は、音声の認識結果と強調区間情報を取得する(ステップS31)。
強調区間情報が強調区間であることを示しており、対応する認識結果の認識文がスライド情報と類似している場合(ステップS32,S33のいずれもYES)、認識文の強調区間を<e>タグで囲む(ステップS34)。
操作バッファに操作データが存在しており、認識文に文末情報が含まれている場合(ステップS35,S36のいずれもYES)、認識文の文末にページ区切りを示す<page#>タグ(#にはページ番号が入る)を入れて(ステップS37)、操作バッファ16をクリアする(ステップS38)。
情報結合部18は、音声の認識結果と強調区間情報を取得する度にステップS31〜S38の処理を繰り返し、認識結果に強調区間情報や操作データを反映させた加工済認識文を認識文受信装置5に送信し、認識文蓄積装置6に格納させる。
なお、上記の処理に加えて、認識文がスライド情報と類似するか否か、強調区間であるか否かを判定し、スライド情報と類似しない、かつ、強調区間の含まれていない認識文に削除可能な箇所を示す<del>タグを挿入する処理を行ってもよい。
図5に、加工済認識文の例を示す。上記で説明したように、本実施の形態では、HTMLやXML形式などのタグを用いて強調区間、ページ送りおよび削除箇所を認識結果内に記述した。強調区間は<e>タグで囲まれ、ページ送りに対応する文末には<page#>タグが挿入されている。また、削除する文は<del>タグで囲まれている。
次に、本実施の形態における音声認識システムの出力結果を利用する例について説明する。
図6は、本実施の形態における音声認識システムの出力結果を利用する認識文提示アプリケーションの構成を示す機能ブロック図である。同図に示す認識文提示アプリケーション7は、聴講者の保持するパーソナルコンピュータなどの端末上で動作する。
認識文提示アプリケーション7は、音声認識結果を提示する認識結果提示部71と音声認識結果に対応するスライドを表示するスライド内容表示部72を備える。
認識結果提示部71は、音声認識システムの出力結果である加工済認識文を格納した認識文蓄積装置6から認識文を取得して聴講者に提示する。認識文を提示した様子を図7に示す。同図では、強調区間に下線が引いてある。強調区間については、フォントを変える、太字にする、色を変えるなどの修飾を施し、強調区間であることが明示的にわかるようにする。また、同図では、ページ区切り箇所において段落を分けている。さらに、削除を示すタグで囲まれた部分は表示しない、もしくは、打ち消し線を付与する。
提示した認識文が操作(クリック)されたときは、認識結果提示部71は、操作された認識文に対応するスライドを表示するように、スライド呼び出し要求をスライド内容表示部72に送信する。あるいは、スライドバーなどが操作されて、提示している箇所が変わったときに、提示している認識文に対応するスライドを表示するように、スライド呼び出し要求をスライド内容表示部72に送信してもよい。
スライド内容表示部72は、認識結果提示部71からの指示に基づいて、スライド資料蓄積装置4から対応するスライド資料を取得して聴講者に提示する。スライド資料を提示した様子を図8に示す。図8では、図7に示した認識結果の上の段落の認識文に対応するスライド資料が表示されている。
以上説明したように、本実施の形態によれば、音声受信部11がスライドを説明する音声データを入力し、スライド情報受信部17がスライドの文字情報であるスライド情報を入力し、強調判定部14が韻律認識部13の求めた韻律情報に基づいて強調区間を判定し、比較部19が音声認識部12による音声データの認識結果とスライド情報とを比較し、認識結果とスライド情報との類似度が高く、強調区間と判定された場合に、情報結合部18が認識結果に強調区間を示すタグを挿入することにより、講演者が強調して発言した部位が分かり、要点の理解に役立つ音声認識結果を得ることができる。
本実施の形態によれば、認識結果とスライド情報とを比較した結果、認識結果がスライド情報に類似しておらず、強調区間と判定されていない部分に削除のタグを挿入することにより、講演内容とは関係のない発言を削除することが可能となる。
本実施の形態によれば、操作データ受信部15がスライドに対する操作データを受信し、音声認識部12が文末などの文境界を判定し、操作データが存在し、かつ、認識結果に文境界が含まれる場合に、ページ区切りのタグを挿入することにより、発言とスライドとの対応付けを分かりやすくできる。
1…認識サーバ
11…音声受信部
12…音声認識部
13…韻律認識部
14…強調判定部
15…操作データ受信部
16…操作バッファ
17…スライド情報受信部
18…情報結合部
19…比較部
20…スライド情報蓄積部
3…クライアント
31…音声送信部
32…スライド提示アプリケーション
33…マイクロフォン
4…スライド資料蓄積装置
5…認識文受信装置
6…認識文蓄積装置
7…認識文提示アプリケーション
71…認識結果提示部
72…スライド内容表示部

Claims (6)

  1. コンピュータにより実行される音声認識方法であって、
    スライドの文字情報を入力するステップと、
    前記スライドを説明する音声情報を入力するステップと、
    前記音声情報を音声認識して認識結果を得るステップと、
    前記認識結果を前記文字情報と比較し、前記認識結果の前記文字情報に類似する部分に強調区間を設定するステップと、
    を有することを特徴とする音声認識方法。
  2. 前記音声情報から韻律情報を求め、当該韻律情報に基づいて前記認識結果から強調区間候補を決定するステップを有し、
    前記強調区間を設定するステップは、前記強調区間候補であって前記文字情報に類似する部分に前記強調区間を設定することを特徴とする請求項1記載の音声認識方法。
  3. 前記認識結果を前記文字情報と比較し、前記文字情報に類似しない部分であって前記強調区間候補でない部分に削除可能区間を設定するステップを有することを特徴とする請求項2に記載の音声認識方法。
  4. 前記認識結果を得るステップでは文の区切りを認識し、
    前記スライドに対する操作情報を入力するステップと、
    前記文の区切りと前記操作情報に基づいて前記認識結果にページ区切りを設定するステップと、
    を有することを特徴とする請求項1乃至3のいずれかに記載の音声認識方法。
  5. スライドの文字情報を入力する文字情報入力手段と、
    前記スライドを説明する音声情報を入力する音声情報入力手段と、
    前記音声情報を音声認識して認識結果を得る音声認識手段と、
    前記認識結果を前記文字情報と比較し、類似する部分に強調区間を設定する認識結果加工手段と、
    を有することを特徴とする音声認識装置。
  6. 請求項5記載の音声認識装置の各手段としてコンピュータを動作させることを特徴とする音声認識プログラム。
JP2014259768A 2014-12-24 2014-12-24 音声認識方法、音声認識装置及び音声認識プログラム Active JP6342792B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014259768A JP6342792B2 (ja) 2014-12-24 2014-12-24 音声認識方法、音声認識装置及び音声認識プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014259768A JP6342792B2 (ja) 2014-12-24 2014-12-24 音声認識方法、音声認識装置及び音声認識プログラム

Publications (2)

Publication Number Publication Date
JP2016118738A true JP2016118738A (ja) 2016-06-30
JP6342792B2 JP6342792B2 (ja) 2018-06-13

Family

ID=56244213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014259768A Active JP6342792B2 (ja) 2014-12-24 2014-12-24 音声認識方法、音声認識装置及び音声認識プログラム

Country Status (1)

Country Link
JP (1) JP6342792B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113066485A (zh) * 2021-03-25 2021-07-02 支付宝(杭州)信息技术有限公司 一种语音数据处理方法、装置及设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002023716A (ja) * 2000-07-05 2002-01-25 Pfu Ltd プレゼンテーションシステムおよび記録媒体
JP2002222186A (ja) * 2001-01-24 2002-08-09 Sharp Corp 議事録作成装置及び方法並びにこれに利用される記憶媒体
JP2003066991A (ja) * 2001-08-22 2003-03-05 Seiko Epson Corp 音声認識結果出力方法および音声認識結果出力装置ならびに音声認識結果出力処理プログラムを記録した記録媒体
JP2004357092A (ja) * 2003-05-30 2004-12-16 Casio Comput Co Ltd 情報機器、デジタルカメラおよびデータ表示方法
JP2011065467A (ja) * 2009-09-17 2011-03-31 Sharp Corp 会議中継装置及びコンピュータプログラム
JP2011086123A (ja) * 2009-10-15 2011-04-28 Sharp Corp 情報処理装置、会議システム、情報処理方法及びコンピュータプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002023716A (ja) * 2000-07-05 2002-01-25 Pfu Ltd プレゼンテーションシステムおよび記録媒体
JP2002222186A (ja) * 2001-01-24 2002-08-09 Sharp Corp 議事録作成装置及び方法並びにこれに利用される記憶媒体
JP2003066991A (ja) * 2001-08-22 2003-03-05 Seiko Epson Corp 音声認識結果出力方法および音声認識結果出力装置ならびに音声認識結果出力処理プログラムを記録した記録媒体
JP2004357092A (ja) * 2003-05-30 2004-12-16 Casio Comput Co Ltd 情報機器、デジタルカメラおよびデータ表示方法
JP2011065467A (ja) * 2009-09-17 2011-03-31 Sharp Corp 会議中継装置及びコンピュータプログラム
JP2011086123A (ja) * 2009-10-15 2011-04-28 Sharp Corp 情報処理装置、会議システム、情報処理方法及びコンピュータプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113066485A (zh) * 2021-03-25 2021-07-02 支付宝(杭州)信息技术有限公司 一种语音数据处理方法、装置及设备
CN113066485B (zh) * 2021-03-25 2024-05-17 支付宝(杭州)信息技术有限公司 一种语音数据处理方法、装置及设备

Also Published As

Publication number Publication date
JP6342792B2 (ja) 2018-06-13

Similar Documents

Publication Publication Date Title
AU2017202111B2 (en) Speech recognition and translation terminal, method, and computer readable medium
CN107516511B (zh) 意图识别和情绪的文本到语音学习系统
US8594995B2 (en) Multilingual asynchronous communications of speech messages recorded in digital media files
US8386265B2 (en) Language translation with emotion metadata
US8548618B1 (en) Systems and methods for creating narration audio
US9070363B2 (en) Speech translation with back-channeling cues
CN110740275B (zh) 一种非线性编辑系统
US20160371234A1 (en) Reconciliation of transcripts
JP2012181358A (ja) テキスト表示時間決定装置、テキスト表示システム、方法およびプログラム
US20150254238A1 (en) System and Methods for Maintaining Speech-To-Speech Translation in the Field
WO2011033834A1 (ja) 音声翻訳システム、音声翻訳方法および記録媒体
KR20220130739A (ko) 스피치 인식
KR102020773B1 (ko) 음성합성엔진을 이용한 멀티미디어 음성인식 자동 평가시스템
US20190088258A1 (en) Voice recognition device, voice recognition method, and computer program product
JP6342792B2 (ja) 音声認識方法、音声認識装置及び音声認識プログラム
JP5713782B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5818753B2 (ja) 音声対話システム及び音声対話方法
JP2010128766A (ja) 情報処理装置、情報処理方法、プログラム及び記憶媒体
US7353175B2 (en) Apparatus, method, and program for speech synthesis with capability of providing word meaning immediately upon request by a user
JP2018128577A (ja) 要約文表示装置、要約文表示方法、及びプログラム
WO2020121638A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
KR20200053242A (ko) 차량용 음성 인식 시스템 및 그 제어 방법
JP2015207191A (ja) 外国語会話理解支援装置、外国語会話理解支援方法及びプログラム
KR101579905B1 (ko) 리터러시 향상을 위한 영어단어 디코딩 멀티미디어파일 생성시스템
KR102267579B1 (ko) 클라우드 기반의 음성 데이터 텍스트 변환 시스템 및 이의 실행 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180517

R150 Certificate of patent or registration of utility model

Ref document number: 6342792

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150