JP6707422B2 - 対話型解説付き音声提示装置およびそのプログラム - Google Patents
対話型解説付き音声提示装置およびそのプログラム Download PDFInfo
- Publication number
- JP6707422B2 JP6707422B2 JP2016160991A JP2016160991A JP6707422B2 JP 6707422 B2 JP6707422 B2 JP 6707422B2 JP 2016160991 A JP2016160991 A JP 2016160991A JP 2016160991 A JP2016160991 A JP 2016160991A JP 6707422 B2 JP6707422 B2 JP 6707422B2
- Authority
- JP
- Japan
- Prior art keywords
- commentary
- voice
- program
- instruction
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002452 interceptive effect Effects 0.000 title claims description 109
- 238000000605 extraction Methods 0.000 claims description 26
- 238000006243 chemical reaction Methods 0.000 claims description 22
- 230000003111 delayed effect Effects 0.000 claims description 14
- 230000002194 synthesizing effect Effects 0.000 claims description 8
- 230000001934 delay Effects 0.000 claims description 4
- 238000000034 method Methods 0.000 description 10
- 230000015572 biosynthetic process Effects 0.000 description 9
- 239000000284 extract Substances 0.000 description 9
- 238000003786 synthesis reaction Methods 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000001771 impaired effect Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 210000003423 ankle Anatomy 0.000 description 3
- 238000007429 general method Methods 0.000 description 3
- 230000003139 buffering effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
この解説放送は、ユーザ(特に視覚障害者)の聞き取りやすさのため、解説音声と番組音声とが同時に聞こえないように、番組音声の無音区間に解説音声を挿入している。
近年、このような解説放送を、短時間かつ低費用で実現するための技術が開発されている(例えば、特許文献1参照)。
特許文献1に記載の技術(以下、従来技術)は、番組音声において、無音区間を検出し、テキストデータの解説を音声合成した解説音声を無音区間の区間長に話速変換して付加する。これによって、従来技術は、番組音声と解説音声との出力の重複を防止している。
また、従来技術は、解説音声を付加する場合、すべての視覚障害者を対象として同じ解説音声を付加している。そのため、視覚障害者によっては、番組の内容の把握に必ずしも必要ではない冗長な解説音声が付加される場合がある。
そして、対話型解説付き音声提示装置は、テキスト取得手段によって、解説テキストを時刻情報に対応付けて記憶した外部サーバから、指示を入力した時刻に対応する解説テキストを取得する。
そして、対話型解説付き音声提示装置は、テキスト取得手段によって、番組の内容を記述した番組内容テキストを時刻情報に対応付けて記憶した外部サーバから、指示を入力した時刻に対応する番組内容テキストを取得する。
そして、対話型解説付き音声提示装置は、音声合成手段によって、解説テキストを解説音声に変換して出力する。このとき、対話型解説付き音声提示装置は、遅延制御手段によって、解説音声の出力が完了するまで番組音声を遅延させる。これによって、対話型解説付き音声提示装置は、番組音声を無音にした状態で解説音声を挿入することができ、番組音声と解説音声との出力の重複を防止することができる。
本発明によれば、ユーザが指示したタイミングで、解説音声を提示することができる。これによって、本発明は、ユーザが必要とするときだけ解説音声を提示することができる。
また、本発明によれば、解説音声の出力中に番組音声の出力を停止するため、解説音声と番組音声とが重ならず、ユーザに解説音声を聞き取りやすく提示することができる。
また、本発明によれば、番組音声の出力を停止した場合でも、その番組音声を遅延後、話速変換して提示するため、番組音声の内容を欠かすことなくユーザに提示することができる。
≪本発明の概要≫
まず、図1および図2を参照して、本発明の実施形態に係る対話型解説付き音声提示装置1の概要について説明する。
図1(a)は、対話型解説付き音声提示装置1,1Bが、スピーカSpを介して、ユーザUに番組音声を提示している例を示している。ここで、番組音声は、スポーツ番組の音声の例であって、「○○選手タイムです。」、「痛そうです。」等、番組映像に対応したアナウンサ、解説者等の音声である。この場合、アナウンサ等は、番組映像を表示装置(ディスプレイ)Dを介してユーザUが視認していることを前提として発話するため、番組映像の内容をすべて発話することがない。そのため、ユーザUが視覚障害者の場合、ユーザUは、番組の内容を把握することが困難になる。
ここで、ユーザUが、「痛そうです。」の音声の途中、あるいは、「痛そうです。」と「大丈夫でしょうか。」との間の非発話区間で、「何があったの?」という指示音声を発したとする。
その場合、対話型解説付き音声提示装置1,1Bは、図2(b)に示すように、「痛そうです。」の後の番組音声の提示を停止し、無音状態とし、「足首をひねりました。」の解説音声を挿入する。その後、対話型解説付き音声提示装置1は、番組音声の提示を再開する。このとき、対話型解説付き音声提示装置1,1Bは、「大丈夫でしょうか。」以降の音声を実際の番組音声の時刻に合わせるように、逐次話速変換する。
以下、対話型解説付き音声提示装置1,1Bの構成および動作について詳細に説明する。
〔対話型解説付き音声提示装置の構成〕
まず、図3を参照して、本発明の第1実施形態に係る対話型解説付き音声提示装置1の構成について説明する。
図3に示すように、対話型解説付き音声提示装置1は、コンテンツ入力手段10と、指示入力手段11と、解説付き音声生成手段12と、映像出力手段13と、音声出力手段14と、を備える。
なお、コンテンツ入力手段10は、必ずしも放送波を介してコンテンツを入力する必要はなく、VOD(ビデオオンデマンド)のように外部サーバ(不図示)から通信回線を介してコンテンツを入力することとしてもよい。
ここでは、指示入力手段11は、音声認識手段110と、指示音声データベース記憶手段111と、指示内容解析手段112と、を備える。
この音声認識手段110は、認識結果となる文字列(テキストデータ)を、指示内容解析手段112に出力する。
この指示音声データベース記憶手段111は、例えば、図4に示すように、「何があったの?」、「どうしたの?」等の同様の意味を表す複数の定型文に対して1つのメタデータ(ここでは、「内容」)を対応付けて記憶する。
また、図4の例では、「誰?」、「誰なの?」等に1つのメタデータ(人物)を対応付け、「どこ?」、「そこはどこ?」等の1つのメタデータ(場所)を対応付けている。
これによって、ユーザUの指示にバリエーションを持たせることができる。
なお、図4中の「人物」、「場所」、「内容」等のメタデータは、後記するテキスト取得手段121で、指示音声に対応する解説テキストを、解説データサーバ2から検索するためのデータである。
この指示内容解析手段112は、音声認識手段110から入力されるテキストデータに対応するメタデータを、図4に示したような指示音声データベースから探索する。そして、指示内容解析手段112は、探索結果となるメタデータを指示内容として、解説付き音声生成手段12(テキスト取得手段121)に出力する。
このように、指示入力手段11は、マイクMcを介して入力されたユーザUの指示音声の意味内容を解析し、対応するメタデータを、解説付き音声生成手段12に出力する。
ここでは、解説付き音声生成手段12は、時刻情報抽出手段120と、テキスト取得手段121と、遅延制御手段122と、音声遅延手段123と、話速変換手段124と、音声合成手段125と、を備える。
このテキスト取得手段121は、指示入力手段11からメタデータを入力することで、ユーザUから指示があった旨を検出する。そして、テキスト取得手段121は、指示の検出タイミングで、時刻情報抽出手段120から入力されたタイムコードの時刻のメタデータに対応する解説テキストを、ネットワーク(通信回線)Nを介して、解説データサーバ2から取得する。
また、テキスト取得手段121は、選択した解説テキストを遅延制御手段122および音声合成手段125に出力する。
この遅延制御手段122は、テキスト取得手段121から解説テキストを入力したタイミングで、音声遅延手段123に番組音声の遅延開始を指示する。
なお、音声遅延手段123は、遅延開始を指示されたタイミングで、番組音声について無音の検出を行い、最初の無音を検出した後の番組音声の出力を停止し、以降の番組音声を記憶することとする。これによって、音声遅延手段123は、番組音声の発話途中での出力停止を防止することができる。
この無音の検出手法は、一般的な手法を用いればよい。例えば、音声遅延手段123は、番組音声から音響特徴量の1つであるパワー(音の強さ、大きさ)を抽出し、そのパワーが、予め定めた閾値よりも小さくなった時点を無音区間の始まりとして検出する。
この話速変換手段124は、定倍速(例えば、2倍速)で話速変換を行うこととしてもよいし、可変速で話速変換を行うこととしてもよい。可変速で話速変換を行う場合、話速変換手段124は、例えば、遅延時間に応じて、2倍速から1倍速(等倍速)まで、可変に話速変換を行う。なお、可変速に話速変換を行う手法は一般的な手法を用いればよく、例えば、特開2007−298621号公報に記載されている公知の手法を用いることができる。
この音声合成手段125は、変換した解説音声を音声出力手段14に出力する。
なお、対話型解説付き音声提示装置1は、コンピュータを、図3に示した各手段として機能させるためのプログラム(対話型解説付き音声提示プログラム)で動作させることができる。
次に、図6を参照(構成については適宜図3参照)して、対話型解説付き音声提示装置1の動作について説明する。なお、ここでは、対話型解説付き音声提示装置1の主要動作であるユーザの指示に基づいて解説付き音声を提示する動作について説明する。
すなわち、対話型解説付き音声提示装置1は、テキスト取得手段121によって、指示(メタデータ)に対応する解説テキストを、解説データサーバ2から取得する(ステップS2)。
このとき、遅延制御手段122は、タイマにより、解説テキストの文字数に応じた読み上げ時間(出力時間)の計測を開始する(ステップS4)。
その後、対話型解説付き音声提示装置1は、音声出力手段14によって、ステップS5で変換された解説音声を出力する(ステップS6)。
そして、解説音声の出力完了または所定時間の経過後(ステップS7でYes)、対話型解説付き音声提示装置1は、音声遅延手段123によって、番組音声の遅延を停止し、バッファリングされている番組音声を順次読み出す(ステップS8)。
そして、対話型解説付き音声提示装置1は、音声出力手段14によって、ステップS9で話速変換された番組音声を出力する(ステップS10)。
〔対話型解説付き音声提示装置の構成〕
次に、図7を参照して、本発明の第2実施形態に係る対話型解説付き音声提示装置1Bの構成について説明する。なお、対話型解説付き音声提示装置1Bは、図3で説明した対話型解説付き音声提示装置1とは異なる解説データサーバ(外部サーバ)2Bを用いる。
解説データサーバ2Bは、コンテンツごとに、時刻情報(開始時刻、終了時刻)と、メタデータと、解説テキストを含んだ番組内容テキストと、を予め対応付けて記憶するものである。
すなわち、解説データサーバ2Bでは、番組音声と重複する内容を含んでおり、番組内容テキストは、番組音声としてどのような内容が発話されるのかを意識することなく、番組全体の内容を予め解説したデータである。例えば、近年、スポーツやオリンピック開催期間中に競技に関する試合状況を配信するサービスがあり、解説データサーバ2Bは、この試合状況等から予め作成しておくこととする。これによって、解説データサーバ2Bを容易に構築することができる。
そこで、対話型解説付き音声提示装置1Bは、図9に示すように、番組音声を音声認識し、番組音声テキストを生成する。そして、対話型解説付き音声提示装置1Bは、番組音声テキストには存在せず、解説データサーバ2Bの番組内容テキストのみに存在するテキストを解説テキストとして抽出する。図9の例では、対話型解説付き音声提示装置1Bは、「足首をひねりました。」を解説テキストとして抽出し、音声合成することで、解説音声を生成し提示する。
図7に示すように、対話型解説付き音声提示装置1Bは、コンテンツ入力手段10と、指示入力手段11と、解説付き音声生成手段12Bと、映像出力手段13と、音声出力手段14と、を備える。解説付き音声生成手段12B以外は、対話型解説付き音声提示装置1(図3)と同じものであるため、同一の符号を付して説明を省略する。
ここでは、解説付き音声生成手段12Bは、時刻情報抽出手段120と、テキスト取得手段121Bと、遅延制御手段122と、音声遅延手段123と、話速変換手段124と、音声合成手段125と、音声認識手段126と、差分抽出手段127と、を備える。テキスト取得手段121B、音声認識手段126および差分抽出手段127以外は、対話型解説付き音声提示装置1(図3)と同じものであるため、同一の符号を付して説明を省略する。
このテキスト取得手段121Bは、指示入力手段11からメタデータが入力されたタイミングで、ユーザUから指示があった旨を検出する。そして、テキスト取得手段121Bは、そのタイミングで、時刻情報抽出手段120から入力されたタイムコードの時刻のメタデータに対応する番組内容テキストを、ネットワークNを介して、解説データサーバ2Bから取得する。なお、テキスト取得手段121Bは、タイムコードの時刻に対応する番組内容テキストのみならず、当該時刻よりも所定時間(例えば、20秒)過去まで遡って番組内容テキストを取得することとしてもよい。これによって、解説テキストの取得漏れを防止することができる。
また、テキスト取得手段121Bは、図8に示す「内容」のように番組の内容を解説したメタデータについては、番組内容テキストを差分抽出手段127に出力する。
この音声認識手段126は、認識結果となるテキストデータ(番組音声テキスト)を、差分抽出手段127に出力する。
すなわち、差分抽出手段127は、テキスト取得手段121Bで取得した番組内容テキストから、番組音声テキストと一致するテキストを省いて、解説テキストを生成する。なお、テキストが一致するか否かは、必ずしも完全一致である必要はなく、類似度の度合いによって判定してもよい。この類似度は、例えば、レーベンシュタイン距離等を用いることができる。
これによって、差分抽出手段127は、番組音声では説明されていない解説音声となるテキストのみを抽出することができる。
この差分抽出手段127は、抽出した解説テキストを、音声合成手段125に出力する。
なお、対話型解説付き音声提示装置1Bは、コンピュータを、図7に示した各手段として機能させるためのプログラム(対話型解説付き音声提示プログラム)で動作させることができる。
次に、図10を参照(構成については適宜図7参照)して、対話型解説付き音声提示装置1Bの動作について説明する。なお、対話型解説付き音声提示装置1Bの基本的な動作は、図6に示した対話型解説付き音声提示装置1の動作と同じであるため、ここでは、相違点のみを説明する。
そして、対話型解説付き音声提示装置1Bは、ステップS3で、音声遅延手段123によって、番組音声の遅延(バッファリング)を開始した後、音声認識手段126によって、番組音声を音声認識し、番組音声テキストを生成する(ステップS30)。
そして、対話型解説付き音声提示装置1Bは、ステップS4以降の動作を行うが、これ以降は、対話型解説付き音声提示装置1の動作と同じであるため、説明を省略する。
以上、本発明の実施形態について説明したが、本発明は、これらの実施形態に限定されるものではない。
例えば、ここでは、対話型解説付き音声提示装置1,1Bは、ユーザUからの指示音声を解析することで、指示内容を特定した。
その場合、指示入力手段11を、図11に示す指示入力手段11Bとして構成すればよい。ここで、指示入力手段11Bは、ボタン押下検出手段113と、特定指示出力手段114と、を備える。
もちろん、リモコン装置Rcの複数のボタンのそれぞれに異なる指示を割り当てることで、押下されたボタンの種類によって、特定指示出力手段114は、異なるメタデータを解説付き音声生成手段12,12Bへの指示として出力することとしてもよい。
その場合、指示入力手段11を、図12に示す指示入力手段11Cとして構成すればよい。ここで、指示入力手段11Cは、ジェスチャ認識手段115と、特定指示出力手段116と、を備える。
このジェスチャ認識手段115におけるジェスチャ認識手法は、一般的な手法を用いればよく、例えば、特開2012−88881号公報に記載されている公知の手法を用いることができる。
もちろん、複数のジェスチャのそれぞれに異なる指示を割り当てることで、認識したジェスチャの種類によって、特定指示出力手段116は、異なるメタデータを解説付き音声生成手段12,12Bへの指示として出力することとしてもよい。
これによって、対話型解説付き音声提示装置1,1Bは、ユーザUの音声以外に、リモコン装置やジェスチャによって、指示を受け付けることができる。
10 コンテンツ入力手段
11 指示入力手段
110 音声認識手段(指示音声認識手段)
111 指示音声データベース記憶手段(指示音声DB記憶手段)
112 指示内容解析手段
12 解説付き音声生成手段
120 時刻抽出手段
121 テキスト取得手段
122 遅延制御手段
123 音声遅延手段
124 話速変換手段
125 音声合成手段
126 音声認識手段(番組音声認識手段)
127 差分抽出手段
13 映像出力手段
14 音声出力手段
2 解説データサーバ(外部サーバ)
Claims (8)
- 番組を視聴するユーザの指示により、番組音声に解説音声を挿入して提示する対話型解説付き音声提示装置であって、
時刻情報が付されている前記番組音声から、前記時刻情報を抽出する時刻情報抽出手段と、
前記ユーザからの指示を入力する指示入力手段と、
解説テキストを時刻情報に対応付けて記憶した外部サーバから、前記指示を入力した時刻に対応する解説テキストを取得するテキスト取得手段と、
前記解説テキストを解説音声に変換して出力する音声合成手段と、
前記解説音声の出力が完了するまで前記番組音声を遅延させる遅延制御手段と、
前記解説音声の出力後、前記遅延させた番組音声に付されている時刻情報が、前記時刻情報抽出手段で抽出する時刻情報と一致するように、前記遅延させた番組音声を話速変換して出力する話速変換手段と、
を備えることを特徴とする対話型解説付き音声提示装置。 - 番組を視聴するユーザの指示により、番組音声に解説音声を挿入して提示する対話型解説付き音声提示装置であって、
時刻情報が付されている前記番組音声から、前記時刻情報を抽出する時刻情報抽出手段と、
前記ユーザからの指示を入力する指示入力手段と、
前記番組の内容を記述した番組内容テキストを時刻情報に対応付けて記憶した外部サーバから、前記指示を入力した時刻に対応する前記番組内容テキストを取得するテキスト取得手段と、
前記番組音声を番組音声テキストに変換する音声認識手段と、
前記番組音声テキストと前記番組内容テキストとを比較して、前記番組内容テキストのみに含まれるテキストを解説テキストとして抽出する差分抽出手段と、
前記解説テキストを解説音声に変換して出力する音声合成手段と、
前記解説音声の出力が完了するまで前記番組音声を遅延させる遅延制御手段と、
前記解説音声の出力後、前記遅延させた番組音声に付されている時刻情報が、前記時刻情報抽出手段で抽出する時刻情報と一致するように、前記遅延させた番組音声を話速変換して出力する話速変換手段と、
を備えることを特徴とする対話型解説付き音声提示装置。 - 前記遅延制御手段は、前記解説テキストの文字数に予め定めた1文字あたりの読み上げ時間を乗算して、前記解説音声の出力時間を算出し、当該出力時間だけ、前記番組音声を遅延させることを特徴とする請求項1または請求項2に記載の対話型解説付き音声提示装置。
- 前記遅延制御手段は、前記出力時間が予め定めた時間よりも長い場合、前記出力時間を前記予め定めた時間とすることを特徴とする請求項3に記載の対話型解説付き音声提示装置。
- 前記指示入力手段は、前記ユーザの音声を音声認識して前記指示を入力することを特徴とする請求項1から請求項4のいずれか一項に記載の対話型解説付き音声提示装置。
- 前記指示入力手段は、前記ユーザが操作するリモコン装置の予め定めたボタンの押下を検出して前記指示を入力することを特徴とする請求項1から請求項4のいずれか一項に記載の対話型解説付き音声提示装置。
- 前記指示入力手段は、前記ユーザの予め定めたジェスチャを認識して前記指示を入力することを特徴とする請求項1から請求項4のいずれか一項に記載の対話型解説付き音声提示装置。
- コンピュータを、請求項1から請求項7のいずれか一項に記載の対話型解説付き音声提示装置の各手段として機能させるための対話型解説付き音声提示プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016160991A JP6707422B2 (ja) | 2016-08-19 | 2016-08-19 | 対話型解説付き音声提示装置およびそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016160991A JP6707422B2 (ja) | 2016-08-19 | 2016-08-19 | 対話型解説付き音声提示装置およびそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018028626A JP2018028626A (ja) | 2018-02-22 |
JP6707422B2 true JP6707422B2 (ja) | 2020-06-10 |
Family
ID=61248871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016160991A Active JP6707422B2 (ja) | 2016-08-19 | 2016-08-19 | 対話型解説付き音声提示装置およびそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6707422B2 (ja) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3998187B2 (ja) * | 2002-10-09 | 2007-10-24 | 日本放送協会 | コンテンツ解説データ生成装置、その方法及びそのプログラム、並びに、コンテンツ解説データ提示装置、その方法及びそのプログラム |
JP4594908B2 (ja) * | 2006-08-01 | 2010-12-08 | 日本放送協会 | 解説付加音声生成装置及び解説付加音声生成プログラム |
JP5426133B2 (ja) * | 2008-09-26 | 2014-02-26 | 株式会社東芝 | 音声出力装置、音声出力方法及びプログラム |
JP2011221237A (ja) * | 2010-04-08 | 2011-11-04 | Nec Corp | 音声出力装置、そのコンピュータプログラムおよびデータ処理方法 |
WO2012172610A1 (ja) * | 2011-06-16 | 2012-12-20 | 三菱電機株式会社 | 情報提供システム、受信装置及び情報管理サーバ |
US20140373082A1 (en) * | 2012-02-03 | 2014-12-18 | Sharp Kabushiki Kaisha | Output system, control method of output system, control program, and recording medium |
-
2016
- 2016-08-19 JP JP2016160991A patent/JP6707422B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018028626A (ja) | 2018-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109643549B (zh) | 基于说话者识别的语音识别方法和装置 | |
US11056104B2 (en) | Closed captioning through language detection | |
JP5104762B2 (ja) | コンテンツ要約システムと方法とプログラム | |
JP6172417B1 (ja) | 語学学習システム及び語学学習プログラム | |
WO2014141054A1 (en) | Method, apparatus and system for regenerating voice intonation in automatically dubbed videos | |
CN110867177A (zh) | 音色可选的人声播放系统、其播放方法及可读记录介质 | |
US20210343270A1 (en) | Speech translation method and translation apparatus | |
WO2020181133A1 (en) | System and method for simultaneous multilingual dubbing of video-audio programs | |
JP6654691B2 (ja) | 情報処理装置 | |
WO2023276539A1 (ja) | 音声変換装置、音声変換方法、プログラム、および記録媒体 | |
JP2012181358A (ja) | テキスト表示時間決定装置、テキスト表示システム、方法およびプログラム | |
CN114121006A (zh) | 虚拟角色的形象输出方法、装置、设备以及存储介质 | |
JP2011504624A (ja) | 自動同時通訳システム | |
KR100636386B1 (ko) | 실시간 비디오 음성 더빙 장치 및 그 방법 | |
JP2007328283A (ja) | 対話装置、プログラム、及び対話方法 | |
US11176943B2 (en) | Voice recognition device, voice recognition method, and computer program product | |
CN113160821A (zh) | 一种基于语音识别的控制方法及装置 | |
US20140129221A1 (en) | Sound recognition device, non-transitory computer readable storage medium stored threreof sound recognition program, and sound recognition method | |
JP6707422B2 (ja) | 対話型解説付き音声提示装置およびそのプログラム | |
KR101920653B1 (ko) | 비교음 생성을 통한 어학학습방법 및 어학학습프로그램 | |
JP2020140029A (ja) | 音声認識装置、音声認識方法及びプログラム | |
CN113450783B (zh) | 用于渐进式自然语言理解的系统和方法 | |
CN112423000B (zh) | 数据处理方法、装置、设备以及介质 | |
CN114514576A (zh) | 数据处理方法、装置和存储介质 | |
Sridhar et al. | A hybrid approach for Discourse Segment Detection in the automatic subtitle generation of computer science lecture videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190703 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200305 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200421 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200520 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6707422 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |