JP5246948B2 - 字幕ずれ補正装置、再生装置および放送装置 - Google Patents
字幕ずれ補正装置、再生装置および放送装置 Download PDFInfo
- Publication number
- JP5246948B2 JP5246948B2 JP2009079244A JP2009079244A JP5246948B2 JP 5246948 B2 JP5246948 B2 JP 5246948B2 JP 2009079244 A JP2009079244 A JP 2009079244A JP 2009079244 A JP2009079244 A JP 2009079244A JP 5246948 B2 JP5246948 B2 JP 5246948B2
- Authority
- JP
- Japan
- Prior art keywords
- phoneme
- subtitle
- caption
- string
- recognition result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
1. /sh/ /i/ /N/ /k/ /a/ /i/
2. /t/ /i/ /N/ /k/ /a/ /i/ ("/sh/"を"/t/"に置換)
3. /t/ /o/ /N/ /k/ /a/ /i/("/i/"を"/o/"に置換)
4. /t/ /o/ /k/ /a/ /i/("/N/"を削除して終了)
字幕変換音素列:cph[1],cph[2],・・・,cph[C]
認識結果音素列の最初の音素(rph[1])から最後の音素(rph[R])まで:
字幕変換音素列の最初の音素(cph[1])から最後の音素(cph[C])まで:
認識結果音素列の先頭r音素rph[1・・r]と
字幕変換音素列の先頭c音素cph[1・・c]との編集距離
d[r,c]=minimum(
d[r-1,c]+ins_cost(cph[c]), //音素の挿入
d[r,c-1]+del_cost(rph[r]), //音素の削除
d[r-1,c-1]+sub_cost(cph[c],rph[r]) //音素の置換
)
削除コスト:del_cost(rph[r])=常に1
置換コスト:sub_cost(cph[c],rph[r])=0(cph[c]=rph[r]の場合)
=1(cph[c]≠rph[r]の場合)
である。
(第1実施形態)
(A)まず、最初の字幕「こんにちわ」が得られた場合、以下の照合処理を行う。図7は、この場合の照合処理を示している。
(6-2)(6-1)以外の場合、字幕の仮終了時刻は、字幕の仮開始時刻に元の字幕の表示時間長を加えた時刻であると予測する。
(1)音声認識部21から認識結果音素列格納部22を介して、前回照合処理を行った時刻から現時刻までの音声に対応する認識結果音素列"/ch/ /i/ /h/ /a/ /a/ /s/ /a/"を取得する。また、音声認識部21に対して照合中間結果を破棄した後に現時刻以降の音声の照合を行うように指示する。
(2)前回照合に使用した認識結果音素列の後に、(1)で取得した認識結果音素列を追加する。
(3)前回照合に使用した字幕変換音素列と(2)の認識結果音素列を上記アルゴリズムに従って照合する(照合範囲1+照合範囲2)。この場合、音素列照合結果格納部26に保持されている照合中間結果を引き継ぎ継続して照合範囲2についての照合を行うことができる。音素列照合結果格納部26は、さらに照合範囲2についての照合中間結果を保持する。
(4)現時刻までの照合結果の中から、認識結果音素列との編集距離が最も近い、字幕変換音素列中の音素を見つける。
(5)(4)で見つけた音素から照合履歴を遡り、字幕の仮開始時刻を予測(更新)する。
(6)以下の基準に従い字幕の仮終了時刻を予測(更新)する。
(6-1)(4)で見つけた音素が字幕変換音素列の終了音素の場合、照合履歴を遡って字幕の終了時刻を予測し、仮終了時刻とする。
(6-2)(6-1)以外の場合、字幕の仮終了時刻は、字幕の仮開始時刻に元の字幕の表示時間長を加えた時刻であると予測される。
(1)今回取得した字幕に対応する字幕変換音素列"/a/ /s/ /a/ /n/ /o/ /GB/"を、前回照合に使用した字幕変換音素列の後に追加する(図9)。
(2)(1)の字幕変換音素列と前回照合に使用した認識結果音素列を上記アルゴリズムに従って照合する。ここで、認識結果音素列が追加されるまでは、照合範囲1+照合範囲2+照合範囲3が照合範囲となる。照合範囲3では、現時刻のT(sec)前からの認識結果音素列について照合を行う。この場合、音素列照合結果格納部26に保持されている照合中間結果を引き継ぎ継続して照合範囲3についての照合を行うことができる。音素列照合結果格納部26は、さらに照合範囲3についての照合中間結果を保持する。
(3)現時刻までの照合結果の中から、認識結果音素列との編集距離が最も近い、字幕変換音素列中の音素を見つける。
(4)(3)で見つけた音素から照合履歴を遡り、字幕の仮開始時刻を予測(更新)する。
(5)以下の基準に従い字幕の仮終了時刻を予測(更新)する。
(5-1)(4)で見つけた音素が字幕変換音素列の終了音素の場合、照合履歴を遡って字幕の終了時刻を予測し、仮終了時刻とする。
(5-2)(5-1)以外の場合、字幕の仮終了時刻は、字幕の仮開始時刻に元の字幕の表示時間長を加えた時刻であると予測する。
(1)現時刻までの照合結果の中から、認識結果音素列との編集距離が最も近い、字幕変換音素列中の音素を見つける。
(2)(1)で見つけた音素から照合履歴を遡り、字幕の仮開始時刻を予測(更新)する。
(3)新たに予測された字幕の仮開始時刻が現時刻のT(sec)前もしくはそれ以前なら、元の仮開始時刻即ち現時刻のT(sec)前を字幕開始時刻の確定値とする。
(1)現時刻までの照合結果の中から、認識結果音素列との編集距離が最も近い、字幕変換音素列中の音素を見つける。
(2)(1)で見つけた音素から照合履歴を遡り、字幕の仮終了時刻を予測(更新)する。
(3)新たに予測された字幕の仮終了時刻が現時刻のT(sec)前もしくはそれ以前なら、元の仮終了時刻即ち現時刻のT(sec)前を字幕終了時刻の確定値とする。
(第2実施形態)
(第3実施形態)
(第4実施形態)
(1)音声認識部21から認識結果音素列格納部22を介して、放送コンテンツ先頭から現時刻までの音声に対応する認識結果音素列を取得する。また、音声認識部21に対して照合中間結果を引き継ぎ継続して以降の音声の認識を行うよう指示する。
(2)前回照合に使用した認識結果音素列と(1)の認識結果音素列を先頭から比較し、両者が異なる最初の音素を検出する。
(3)前回照合に使用した字幕変換音素列と(1)の認識結果音素列を上記アルゴリズムに従って照合する。この場合、音素列照合結果格納部26に保持されている照合中間結果を引き継ぎ継続して(2)で検出した音素から照合を開始する。音素列照合結果格納部26は、このときの照合中間結果を保持する。
(4)現時刻までの照合結果の中から、認識結果音素列との編集距離が最も近い、字幕変換音素列中の音素を見つける。
(5)(4)で見つけた音素から照合履歴を遡り、字幕の仮開始時刻を予測(更新)する。
(6)以下の基準に従い字幕の仮終了時刻を予測(更新)する。
(6-1)(4)で見つけた音素が字幕変換音素列の終了音素の場合、照合履歴を遡って字幕の終了時刻を予測し、仮終了時刻とする。
(6-2)(6-1)以外の場合、字幕仮終了時刻は、字幕の仮開始時刻に元の字幕の表示時間長を加えた時刻であると予測する。
(第5実施形態)
(第6実施形態)
(第7実施形態)
挿入コスト:ins_cost(cph[c])=0
削除コスト:del_cost(rph[r])=α1(0<α1<1)
置換コスト:sub_cost(cph[c],rph[r])=α2((0<α2<1)
(第8実施形態)
(第9実施形態)
(第10実施形態)
挿入コスト:ins_cost(cph[c])=常に1
削除コスト:del_cost(rph[r])=1(rph[r]≠Qの場合)
=β1(rph[r]=Qの場合)
置換コスト:sub_cost(cph[c], rph[r])=0 (cph[c]=rph[r]の場合)
=1
(cph[c]≠rph[r]かつrph[r]≠Qの場合)
=β2
(cph[c]≠rph[r]かつrph[r]=Qの場合)
挿入コスト:ins_cost(cph[c])=0
削除コスト:del_cost(rph[r])=α1
置換コスト:sub_cost(cph[c],rph[r])=0(rph[r]=Qの場合)
=α2(rph[r]≠Qの場合)
(第11実施形態)
(第12実施形態)
(第13実施形態)
Claims (20)
- 放送コンテンツを受信しつつ、受信した放送コンテンツ中の音声を認識し、該音声に対応する認識結果音素列を生成する音声認識部と、
放送コンテンツの映像中の、1画面で表示される字幕を1単位とする各字幕に対応する音素列を生成するとともに、それらの音素列を連結して字幕変換音素列を生成する字幕変換音素列生成部と、
前記音声認識部により生成された認識結果音素列と前記字幕変換音素列生成部により生成された字幕変換音素列との間の編集距離に基づき字幕と音声を対応付けて、字幕の開始、終了時刻を決定する音素列照合部と、
前記音素列照合部により決定された字幕の開始、終了時刻に基づき、音声と字幕との間の時間的ずれを補正するずれ補正部を備え、
音素列照合部は、字幕受信時に、字幕と字幕受信時以前の音声との対応付けを行い、この結果から時間的ずれ補正後の字幕の開始、終了時刻を予測し、その後、予測された字幕の開始、終了時刻に至るまで一定時間ごとに、新たに受信した放送コンテンツ中の音声および字幕の情報を前回の対応付けで用いた音声および字幕の情報に追加しつつ字幕と音声との対応付けを行い、その結果から時間的ずれ補正後の字幕の開始、終了時刻を予測する処理を繰り返し行うことにより放送コンテンツを受信しつつ当該字幕の開始、終了時刻を決定することを特徴とする字幕ずれ補正装置。 - 前記音素列照合部は、字幕と字幕受信時以前の音声との対応付けの結果と字幕の開始時刻の予測値と放送コンテンツ受信時に取得した字幕の表示時間に基づいて時間的ずれ補正後の字幕の終了時刻を予測することを特徴とする請求項1に記載の字幕ずれ補正装置。
- 前記音素列照合部は、字幕と字幕受信時以前の音声との対応付けの結果と字幕の開始時刻の予測値と字幕文字列から推定した字幕に対応する音声長の予測値に基づいて時間的ずれ補正後の字幕の終了時刻を予測することを特徴とする請求項1に記載の字幕ずれ補正装置。
- 前記音素列照合部が時間的ずれ補正後の字幕の開始、終了時刻を予測する時に使用した認識結果音素列を保存しておき、前記音素列照合部は、時間的ずれ補正後の字幕の開始、終了時刻を予測する処理を繰り返す際には前回処理を行った時刻から現時刻までに前記音声認識部により生成された認識結果音素列を保存された認識結果音素列に結合して認識結果音素列を生成し、これにより生成された認識結果音素列と字幕変換音素列との間の編集距離に基づいて時間的ずれ補正後の字幕の終了時刻を予測することを特徴とする請求項1ないし3のいずれかに記載の字幕ずれ補正装置。
- 前記音素列照合部が時間的ずれ補正後の字幕の開始、終了時刻を予測する時に使用した認識結果音素列と前記音声認識部が認識した認識中間結果と前記音素列照合部が照合した照合中間結果を保存しておき、前記音声認識部は、時間的ずれ補正後の字幕の開始、終了時刻を予測する処理が繰り返される際には前回処理時に保存された認識中間結果を引き継いで前回処理を行った時刻から現時刻までの音声を認識して認識結果音素列を生成し、前記音素列照合部は、この認識結果音素列を保存された認識結果音素列に結合して認識結果音素列を生成し、これにより生成された認識結果音素列と前回処理時に保存された照合中間結果を用いて時間的ずれ補正後の字幕の終了時刻を予測することを特徴とする請求項1ないし3のいずれかに記載の字幕ずれ補正装置。
- 前記音素列照合部が時間的ずれ補正後の字幕の開始、終了時刻を予測する時に使用した認識結果音素列と前記音声認識部が認識した認識中間結果と前記音素列照合部が照合した照合中間結果を保存しておき、前記音声認識部は、時間的ずれ補正後の字幕の開始、終了時刻を予測する処理が繰り返される際には前回処理時に保存された認識中間結果を引き継いで前回処理を行った時刻から現時刻までの音声を認識して認識結果音素列を生成し、前記音素列照合部は、この認識結果音素列と最初に認識を開始した時刻から現時刻までの音声を認識した認識結果音素列とを比較し、異なった音素に遡って認識結果音素列と字幕変換音素列との間の編集距離を、保存された照合中間結果を用いて計算し、該編集距離に基づき音声と字幕の時間的ずれ幅を推定することを特徴とする請求項1ないし3のいずれかに記載の字幕ずれ補正装置。
- 前記ずれ補正部が音声と字幕の時間的ずれ幅を補正した後、該補正の時刻より予め定めた時刻以上前の音声区間に対応する字幕、その字幕に対応する認識結果音素列および字幕変換音素列、照合中間結果を破棄することを特徴とする請求項5または6に記載の字幕ずれ補正装置。
- 前記ずれ補正部が音声と字幕の時間的ずれ幅を補正した後、該補正の時刻より予め定めた時刻以上前の音声区間に対応する認識結果音素および字幕変換音素列、照合中間結果を破棄することを特徴とする請求項5または6に記載の字幕ずれ補正装置。
- 前記編集距離は、音素の挿入、削除、置換によって一方の音素列から他方の音素列へ変換するのに要する手順の回数に応じたコストを指標として定義されることを特徴とする請求項1ないし8のいずれかに記載の字幕ずれ補正装置。
- 前記編集距離は、音素ごとの音声認識性能を元に定められた、ある音素をある音素に置換する際に要するコスト、ある音素を挿入する際に要するコスト、ある音素を削除する際に要するコストを指標として定義されることを特徴とする請求項1ないし8のいずれかに記載の字幕ずれ補正装置。
- 前記字幕変換音素列生成部は、字幕の切れ目に文章の切れ目を表す擬似音素を加えた字幕変換音素列を生成し、前記音素列照合部は、前記擬似音素に対しては他の音素より小さいコストを与えて編集距離を計算することを特徴とする請求項9または10に記載の字幕ずれ補正装置。
- 前記字幕変換音素列生成部は、字幕を解析して得られる文章の切れ目に文章の切れ目を表す擬似音素を加えた字幕変換音素列を生成し、前記音素列照合部は、前記擬似音素に対しては他の音素より小さいコストを与えて編集距離を計算することを特徴とする請求項9または10に記載の字幕ずれ補正装置。
- 前記字幕変換音素列生成部は、字幕の切れ目と字幕を解析して得られる文章の切れ目に文章の切れ目を表す擬似音素を加えた字幕変換音素列を生成し、前記音素列照合部は、前記擬似音素に対しては他の音素より小さいコストを与えて編集距離を計算することを特徴とする請求項9または10に記載の字幕ずれ補正装置。
- 前記字幕変換音素列生成部は、字幕を解析して得られる文章の切れ目に文章の切れ目を表す擬似音素を加えた字幕変換音素列を生成し、前記音声認識部は、無音が一定時間継続する箇所に無音を表す擬似音素を加えた認識結果音素列を生成し、前記音素列照合部は、無音を表す擬似音素と文章の切れ目を表す擬似音素間のコストを0または小さい値とし、無音を表す擬似音素と他の音素間のコストを他と比較して大きな値として編集距離を計算することを特徴とする請求項9または10に記載の字幕ずれ補正装置。
- 前記音素列照合部は、前記認識結果音素列の先頭r音素と前記字幕変換音素列の先頭n音素(n=1〜C:Cは字幕変換音素列の全音素数)間の編集距離を計算し、該編集距離の中からその値が小さい上位N個を選択し、前記認識結果音素列の先頭r+1音素と前記字幕変換音素列間の編集距離を計算する際、字幕変換音素列の先頭n音素(n=1〜C)の中で、先に選択された上位N個の編集距離を用いて計算可能なものについてのみ編集距離を計算し、他については計算しないという処理を繰り返し実行し、認識結果音素列と字幕変換音素列間の編集距離を計算することを特徴とする請求項1ないし14のいずれかに記載の字幕ずれ補正装置。
- 前記音素列照合部は、前記認識結果音素列の先頭r音素と前記字幕変換音素列の先頭n音素(n=1〜C:Cは字幕変換音素列の全音素数)間の編集距離を計算し、該編集距離の中からそれが最小のもの、および最小のものとの差が予め定めた閾値内に収まるものを選択し、前記認識結果音素列の先頭r+1音素と前記字幕変換音素列間の編集距離を計算する際、字幕変換音素列の先頭n音素(n=1〜C)の中で、先に選択された編集距離を用いて計算可能なものについてのみ編集距離を計算し、他については計算しないという処理を繰り返し実行し、認識結果音素列と字幕変換音素列間の編集距離を計算することを特徴とする請求項1ないし14のいずれかに記載の字幕ずれ補正装置。
- 前記音素列照合部は、前記認識結果音素列の先頭r音素と前記字幕変換音素列の先頭n音素(n=1〜C:Cは字幕変換音素列の全音素数)間の編集距離を計算し、該編集距離の中からその値が最小となる字幕変換音素列の先頭m音素を選択し、前記認識結果音素列の先頭r+1音素と前記字幕変換音素列間の編集距離を計算する際に、前記認識結果音素列の先頭r+1音素と前記字幕変換音素列の先頭m-N音素(Nは一定の値)から先頭m+N音素との編集距離の中で、既に計算されている先頭r音素との編集距離を用いて計算可能なものについてのみ編集距離を計算し、他については計算しないという処理を繰り返し実行し、認識結果音素列と字幕変換音素列間の編集距離を計算することを請求項1ないし14のいずれかに記載の字幕ずれ補正装置。
- 請求項1ないし17のいずれかに記載された字幕ずれ補正装置と、
前記字幕ずれ補正装置により時間的ずれが補正された字幕を、受信した放送コンテンツ中の音声および映像と共に再生する再生手段を備えることを特徴とする再生装置。 - 請求項1ないし17のいずれかに記載された字幕ずれ補正装置と、
前記字幕ずれ補正装置により音声および映像との時間的ずれが補正された字幕を保存する字幕保存手段と、
入力されたキーワードに合致する部分の映像を、前記字幕保存手段に保存された字幕内の文字情報を元に検索する検索手段を備え、
前記検索手段により検索された部分の映像を再生することを特徴とする再生装置。 - 請求項1ないし17のいずれかに記載された字幕ずれ補正装置と、
前記字幕ずれ補正装置により時間的ずれが補正された音声、映像および字幕を放送番組として送信する送信手段を備えたことを特徴とする放送装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009079244A JP5246948B2 (ja) | 2009-03-27 | 2009-03-27 | 字幕ずれ補正装置、再生装置および放送装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009079244A JP5246948B2 (ja) | 2009-03-27 | 2009-03-27 | 字幕ずれ補正装置、再生装置および放送装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010233019A JP2010233019A (ja) | 2010-10-14 |
JP5246948B2 true JP5246948B2 (ja) | 2013-07-24 |
Family
ID=43048412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009079244A Active JP5246948B2 (ja) | 2009-03-27 | 2009-03-27 | 字幕ずれ補正装置、再生装置および放送装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5246948B2 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101030777B1 (ko) * | 2010-11-10 | 2011-05-25 | 김인송 | 스크립트 데이터 생성 방법 및 장치 |
WO2013038636A1 (ja) * | 2011-09-14 | 2013-03-21 | シャープ株式会社 | 表示装置及び録画再生装置 |
CN103064601B (zh) * | 2013-01-31 | 2015-10-07 | 广东欧珀移动通信有限公司 | 通过手势操作使视频画面与字幕同步的方法及移动终端 |
KR102140438B1 (ko) * | 2013-09-10 | 2020-08-04 | 주식회사 청담러닝 | 오디오 컨텐츠 및 텍스트 컨텐츠의 동기화 서비스를 위해 텍스트 데이터를 오디오 데이터에 매핑하는 방법 및 시스템 |
CN103634605B (zh) * | 2013-12-04 | 2017-02-15 | 百度在线网络技术(北京)有限公司 | 视频画面的处理方法及装置 |
CN107743268A (zh) * | 2017-09-26 | 2018-02-27 | 维沃移动通信有限公司 | 一种视频的编辑方法及移动终端 |
KR102085908B1 (ko) * | 2018-05-10 | 2020-03-09 | 네이버 주식회사 | 컨텐츠 제공 서버, 컨텐츠 제공 단말 및 컨텐츠 제공 방법 |
CN109379628B (zh) * | 2018-11-27 | 2021-02-02 | Oppo广东移动通信有限公司 | 视频处理方法、装置、电子设备及计算机可读介质 |
KR102267725B1 (ko) * | 2019-10-22 | 2021-06-22 | 주식회사 카카오 | 데이터베이스 구축 방법 및 장치 |
CN112735394B (zh) * | 2020-12-16 | 2022-12-30 | 青岛海尔科技有限公司 | 一种语音的语义解析方法及装置 |
JP7216771B2 (ja) * | 2021-06-09 | 2023-02-01 | 西日本電信電話株式会社 | 台本へのメタデータ付与装置、方法、およびプログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4210723B2 (ja) * | 1999-03-17 | 2009-01-21 | 独立行政法人情報通信研究機構 | 自動字幕番組制作システム |
JP4595098B2 (ja) * | 2001-02-15 | 2010-12-08 | 独立行政法人情報通信研究機構 | 字幕送出タイミング検出装置 |
JP2004302175A (ja) * | 2003-03-31 | 2004-10-28 | Fuji Television Network Inc | 音声認識システム、音声認識方法及び音声認識プログラム |
JP4113059B2 (ja) * | 2003-07-28 | 2008-07-02 | 株式会社東芝 | 字幕信号処理装置、字幕信号処理方法及び字幕信号処理プログラム |
JP2005286969A (ja) * | 2004-03-31 | 2005-10-13 | Sharp Corp | 記録再生装置、表示装置、及び字幕放送の字幕表示遅れ補正方法 |
JP4541781B2 (ja) * | 2004-06-29 | 2010-09-08 | キヤノン株式会社 | 音声認識装置および方法 |
JP2007047575A (ja) * | 2005-08-11 | 2007-02-22 | Canon Inc | パターンマッチング方法およびその装置、および音声情報検索システム |
-
2009
- 2009-03-27 JP JP2009079244A patent/JP5246948B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010233019A (ja) | 2010-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5246948B2 (ja) | 字幕ずれ補正装置、再生装置および放送装置 | |
KR101413327B1 (ko) | 오디오와 대응하는 텍스트 표기의 동기화를 수행하고 동기화의 확신 값을 결정하는 방법과 시스템 | |
US9002705B2 (en) | Interactive device that recognizes input voice of a user and contents of an utterance of the user, and performs a response corresponding to the recognized contents | |
US8311832B2 (en) | Hybrid-captioning system | |
JP5610197B2 (ja) | 検索装置、検索方法、及び、プログラム | |
JP5787780B2 (ja) | 書き起こし支援システムおよび書き起こし支援方法 | |
JPH11191000A (ja) | テキストを音声信号と整列する方法 | |
JP3834169B2 (ja) | 連続音声認識装置および記録媒体 | |
JP2012043000A (ja) | 検索装置、検索方法、及び、プログラム | |
US10304457B2 (en) | Transcription support system and transcription support method | |
JP2010230695A (ja) | 音声の境界推定装置及び方法 | |
JP5273844B2 (ja) | 字幕ずれ推定装置、字幕ずれ補正装置、再生装置および放送装置 | |
JP6327745B2 (ja) | 音声認識装置、及びプログラム | |
KR101747873B1 (ko) | 음성인식을 위한 언어모델 생성 장치 및 방법 | |
Lecouteux et al. | Imperfect transcript driven speech recognition | |
JP7326931B2 (ja) | プログラム、情報処理装置、及び情報処理方法 | |
WO2011007627A1 (ja) | 音声処理装置および方法ならびに記憶媒体 | |
JP2013050605A (ja) | 言語モデル切替装置およびそのプログラム | |
JP5243886B2 (ja) | 字幕出力装置、字幕出力方法及びプログラム | |
JP4595098B2 (ja) | 字幕送出タイミング検出装置 | |
KR20040061070A (ko) | 음성인식시스템에서의 음성인식장치 및 그 방법 | |
JP2001282779A (ja) | 電子化テキスト作成システム | |
JP2008026721A (ja) | 音声認識装置、音声認識方法、および音声認識用プログラム | |
JP5044791B2 (ja) | 字幕ずれ推定装置、補正装置および再生装置 | |
JP5074941B2 (ja) | 字幕出力装置、字幕出力方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121024 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130403 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130408 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5246948 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160419 Year of fee payment: 3 |