JP2013030963A - 映像字幕検出装置およびそのプログラム - Google Patents
映像字幕検出装置およびそのプログラム Download PDFInfo
- Publication number
- JP2013030963A JP2013030963A JP2011165367A JP2011165367A JP2013030963A JP 2013030963 A JP2013030963 A JP 2013030963A JP 2011165367 A JP2011165367 A JP 2011165367A JP 2011165367 A JP2011165367 A JP 2011165367A JP 2013030963 A JP2013030963 A JP 2013030963A
- Authority
- JP
- Japan
- Prior art keywords
- subtitle
- area
- caption
- screen
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 89
- 238000000605 extraction Methods 0.000 claims abstract description 62
- 238000009826 distribution Methods 0.000 claims abstract description 22
- 239000000284 extract Substances 0.000 abstract description 22
- 238000006243 chemical reaction Methods 0.000 abstract description 15
- 238000013507 mapping Methods 0.000 abstract 1
- 238000000034 method Methods 0.000 description 81
- 238000003860 storage Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 8
- 230000009466 transformation Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【解決手段】撮影映像データを取り込み、そのフレーム画像から検出した直線成分によって形成される矩形に基づいて、フレーム画像からテレビ画面領域を検出する幾何変換部12と、テレビ画面領域から画像のエッジを検出し、これらエッジの分布に基づいて、フレーム画像から副画面領域を推定する副画面領域推定部13と、副画面領域から時間方向の画素の変化を検出し、この画素の変化に基づいて字幕領域を推定する字幕領域推定部14と、撮影映像データを取り込んでフレーム画像から副画面領域を検出する副画面領域検出部17と、副画面領域から字幕領域を検出し、この字幕領域から字幕のテキストを抽出し、このテキストと現在時刻を示す時刻情報とを対応付けた字幕情報を生成して出力する字幕情報抽出部18とを備える。
【選択図】図1
Description
本発明は、上記課題を解決するためになされたものであり、番組映像と字幕映像とを含む映像から、容易に字幕のテキストを検出することができる、映像字幕検出装置およびそのプログラムを提供することを目的とする。
[3]上記[2]記載の映像字幕検出装置において、前記字幕情報抽出部は、前記第1のフレーム画像における字幕領域と前記第2のフレーム画像における字幕領域との比較に基づいて、字幕のテキストが静止しているか否かを判定し、前記字幕のテキストが静止している場合に、前記第1のフレーム画像における前記字幕領域から字幕のテキストを抽出することを特徴とする。
[4]上記[2]記載の映像字幕検出装置において、前記字幕情報抽出部は、前記字幕画面領域検出部が検出した前記字幕画面領域から第1のテキストを抽出し、この第1のテキストと、既に抽出された第2のテキストとの差分を抽出し、この差分を前記第2のテキストに追加することによって前記字幕のテキストを取得することを特徴とする。
[第1の実施の形態]
本発明の第1実施形態である映像字幕検出装置は、ビデオカメラから供給される撮影映像データを取り込み、この撮影映像データの画像処理を実行する。そのビデオカメラは、テレビジョン受像機に表示される、番組映像および字幕映像を含むテレビ映像(字幕付テレビ映像)を撮影する。映像字幕検出装置は、撮影映像データの画像処理を実行することによって字幕のテキストを含む字幕情報を生成し、この字幕情報を出力する。番組映像は、放送番組の映像である。字幕映像は、字幕のテキストの映像である。
図1は、第1実施形態である映像字幕検出装置の機能構成を示すブロック図である。同図に示すように、映像字幕検出装置10は、超解像処理部11と、幾何変換部(テレビ画面領域検出部)12と、副画面領域推定部(字幕画面領域推定部)13と、字幕領域推定部14と、モデル画像生成部15と、モデル画像記憶部16と、副画面領域検出部(字幕画面領域検出部)17と、字幕情報抽出部18とを備える。
字幕領域推定モードに設定された映像字幕検出装置10は、超解像処理部11と、幾何変換部12と、副画面領域推定部13と、字幕領域推定部14と、モデル画像生成部15と、モデル画像記憶部16とを動作させる。
また、字幕情報抽出モードに設定された映像字幕検出装置10は、超解像処理部11と、幾何変換部12と、モデル画像記憶部16と、副画面領域検出部17と、字幕情報抽出部18とを動作させる。
超解像処理部11は、毎フレームまたはあらかじめ決定された複数フレームおきに、高解像度フレーム画像を幾何変換部12に供給する。
モデル画像生成部15は、副画面領域推定部13が推定した副画面領域と、字幕領域推定部14が推定した字幕領域とに基づいてモデル画像を生成し、このモデル画像をモデル画像記憶部16に記憶させる。モデル画像は、幾何変換されたフレーム画像において、副画面領域と字幕領域とを特定するための参照画像(テンプレート画像)である。
モデル画像記憶部16は、モデル画像生成部15が生成したモデル画像を記憶する。
字幕情報抽出部18は、副画面領域検出部17が検出した副画面領域から字幕領域を検出し、この字幕領域から字幕のテキストを抽出するとともに現在時刻を計時し、テキストと現在時刻を示す時刻情報とを対応付けた字幕情報を生成し、この字幕情報を出力する。字幕情報抽出部18は、内部にバッファ(記憶部)を備えている。
また、図2において、フレーム画像20の下部に、x軸に平行でy軸方向にdの幅を有する帯状の副画面領域の一部分があるが、この領域は、主画面領域21に表示される番組映像のセーフティゾーンを確保するためのオフセット領域であり、字幕のテキストを表示させる領域ではない。
次に、副画面領域推定部13が実行する副画面領域の推定処理について説明する。副画面領域推定部13は、幾何変換部12から供給される、所定期間分の幾何変換されたフレーム画像を順次取り込み、各フレーム画像からエッジを検出する。例えば、副画面領域推定部13は、ソーベル(Sobel)フィルタを適用してフレーム画像からエッジを検出する。
副画面領域推定部13は、取り込んだ全フレーム画像から検出したエッジに基づいて、エッジの分布を示すエッジ平均画像を生成する。エッジ平均画像fedge_avgにおける座標(x,y)の画素値は、下記の式(1)として表わされる。
ただし、isは、字幕領域推定モードに設定されて動作する超解像処理部11が撮像映像データを取り込み開始したときのフレーム画像の番号である。また、ieは、字幕領域推定モードに設定されて動作する超解像処理部11が撮像映像データを取り込み終了するときのフレーム画像の番号である。また、fedge_avg iは、i番目のフレーム画像から検出されたエッジ画像である。
副画面領域推定部13は、エッジ平均画像fedge_avgのy軸方向のエッジ強度分布syを、下記の式(2)によって計算する。
ただし、Wはフレーム画像のx軸方向の幅、Hはフレーム画像のy軸方向の幅である。
副画面領域推定部13は、エッジ平均画像fedge_avgのy軸方向のエッジ強度分布syを、下記の式(4)によって計算する。
副画面領域推定部13は、エッジ平均画像fedge_avgのx軸方向のエッジ強度分布sxを、下記の式(6)によって計算する。
副画面領域推定部13は、エッジ平均画像fedge_avgのx軸方向のエッジ強度分布sxを、下記の式(8)によって計算する。
次に、ステップS3において、副画面領域推定部13は、取り込んだフレーム画像からエッジを検出する。
次に、副画面領域推定部13は、ステップS1の処理に戻す。
次に、ステップS5において、副画面領域推定部13は、エッジ平均画像の上部領域についての副画面領域の推定処理を実行する。
次に、ステップS6において、副画面領域推定部13は、エッジ平均画像fedge_avgの上部領域についての副画面領域の推定処理を実行する。
次に、ステップS7において、副画面領域推定部13は、エッジ平均画像fedge_avgの上部領域についての副画面領域の推定処理を実行する。
次に、ステップS8において、副画面領域推定部13は、エッジ平均画像fedge_avgの上部領域についての副画面領域の推定処理を実行する。
ステップS11において、副画面領域推定部13は、エッジ平均画像fedge_avgのy軸方向のエッジ強度分布syを計算する。
次に、ステップS12において、副画面領域推定部13は、エッジ強度分布sy(0≦y<(H/2))から、エッジ強度の最大値である最大エッジ強度値symaxを抽出し、この最大エッジ強度値symaxに対応するy座標値ytを計算する。
次に、ステップS13において、副画面領域推定部13は、副画面領域と主画面領域との境界線があるか否かを判定し、境界線があると判定した場合(S13:YES)はステップS14の処理に移し、境界線がないと判定した場合(S13:NO)は本フローチャートの処理を終了させる。
ステップS14において、副画面領域推定部13は、フレーム画像のy座標値が0からytまでの画像領域を上部領域として検出し、この上部領域の位置情報を内部の記憶部に記憶させる。
ステップS21において、副画面領域推定部13は、エッジ平均画像fedge_avgのy軸方向のエッジ強度分布syを計算する。
次に、ステップS22において、副画面領域推定部13は、エッジ強度分布sy((H/2)≦y<H)から、エッジ強度の最大値である最大エッジ強度値symaxを抽出し、この最大エッジ強度値symaxに対応するy座標値ytを計算する。
次に、ステップS23において、副画面領域推定部13は、副画面領域と主画面領域との境界線があるか否かを判定し、境界線があると判定した場合(S23:YES)はステップS24の処理に移し、境界線がないと判定した場合(S23:NO)は本フローチャートの処理を終了させる。
ステップS24において、副画面領域推定部13は、フレーム画像のy座標値がytからHまでの画像領域を下部領域として検出し、この下部領域の位置情報を内部の記憶部に記憶させる。
ステップS31において、副画面領域推定部13は、エッジ平均画像fedge_avgのx軸方向のエッジ強度分布sxを計算する。
次に、ステップS32において、副画面領域推定部13は、エッジ強度分布sx(0≦x<(W/2))から、エッジ強度の最大値である最大エッジ強度値sxmaxを抽出し、この最大エッジ強度値sxmaxに対応するx座標値xtを計算する。
次に、ステップS33において、副画面領域推定部13は、副画面領域と主画面領域との境界線があるか否かを判定し、境界線があると判定した場合(S33:YES)はステップS34の処理に移し、境界線がないと判定した場合(S33:NO)は本フローチャートの処理を終了させる。
ステップS34において、副画面領域推定部13は、フレーム画像のx座標値が0からxtまでの画像領域を左部領域として検出し、この上部領域の位置情報を内部の記憶部に記憶させる。
ステップS41において、副画面領域推定部13は、エッジ平均画像fedge_avgのx軸方向のエッジ強度分布sxを計算する。
次に、ステップS42において、副画面領域推定部13は、エッジ強度分布sx((W/2)≦x<W)から、エッジ強度の最大値である最大エッジ強度値sxmaxを抽出し、この最大エッジ強度値sxmaxに対応するx座標値xtを計算する。
次に、ステップS43において、副画面領域推定部13は、副画面領域と主画面領域との境界線があるか否かを判定し、境界線があると判定した場合(S43:YES)はステップS44の処理に移し、境界線がないと判定した場合(S43:NO)は本フローチャートの処理を終了させる。
ステップS44において、副画面領域推定部13は、フレーム画像のx座標値がxtからWまでの画像領域を右部領域として検出し、この右部領域の位置情報を内部の記憶部に記憶させる。
次に、字幕領域推定部14が実行する字幕領域の推定処理について説明する。字幕領域推定部14は、副画面領域推定部13が推定した副画面領域の上部領域、下部領域、左部領域、および右部領域それぞれ(以下、対象領域と呼ぶことがある)について、字幕領域が存在するか否か、ならびに、字幕領域が存在する場合に、その位置および範囲を推定する。例えば、字幕領域推定部14は、上部領域、下部領域、左部領域、右部領域の順に推定処理を実行する。
ただし、isは、字幕領域推定モードに設定されて動作する超解像処理部11が撮像映像データを取り込み開始したときのフレーム画像の番号である。また、ieは、字幕領域推定モードに設定されて動作する超解像処理部11が撮像映像データを取り込み終了するときのフレーム画像の番号である。また、fi(x,y)は、対象領域である。また、μx,yは、撮影映像データの取り込み期間における対象領域fi(x,y)の平均値である。
次に、ステップS52において、字幕領域推定部14は、対象領域における画素の時間方向についての画素値の変化のばらつき(分散)を計算する。
次に、ステップS53において、字幕領域推定部14は、分散に基づいて、対象領域を2つの領域(背景領域およびテキスト領域)に区分する。
ステップS55において、字幕領域推定部14は、字幕領域の位置情報を内部の記憶部に記憶させる。
次に、副画面領域検出部17が実行する副画面領域の検出処理について説明する。副画面領域検出部17は、モデル画像記憶部16からモデル画像を読み込み、また、幾何変換部12から供給される幾何変換されたフレーム画像を取り込む。副画面領域検出部17は、モデル画像を参照画像として、テンプレートマッチングによりフレーム画像から副画面領域を検出する。例えば、副画面領域検出部17は、フレーム画像と参照画像との一致度dbg(fi,m)を、下記の式(11)の差分二乗和の計算によって求める。
ただし、fiはi番目のフレーム画像、mはモデル画像である。また、Lは、モデル画像に含まれる背景領域の画素集合である。
ステップS61において、副画面領域検出部17は、モデル画像記憶部16からモデル画像を読み込む。
次に、ステップS62において、副画面領域検出部17は、幾何変換部12から供給される幾何変換されたフレーム画像を取り込む。
次に、ステップS63において、副画面領域検出部17は、モデル画像を参照画像として、テンプレートマッチング法によりフレーム画像と副画面領域との一致度を計算する。
次に、ステップS64において、一致度が閾値以下である場合(ステップS64:YES)、副画面領域検出部17は、フレーム画像に副画面領域が存在すると判定し、本フローチャートの処理を終了させる。一方、一致度が上記の閾値を超える場合(ステップS64:NO)、副画面領域検出部17は、ステップS62の処理に戻す。
字幕情報抽出部18は、副画面領域内の字幕領域において、字幕のテキストが所定時間静止しているか否かを判定する。例えば、字幕情報抽出部18は、最新のフレーム画像(現フレーム画像、第1のフレーム画像)と前回取り込んだフレーム画像(前フレーム画像、第2のフレーム画像)との一致度dtext(fi−1,fi)を、下記の式(12)の差分二乗和によって求める。
ただし、fi−1は(i−1)番目のフレーム画像(前フレーム画像)、fiはi番目のフレーム画像(現フレーム画像)である。また、Tは、モデル画像に含まれる字幕領域の画素集合である。
ただし、fprevは、テキスト有りフレーム画像である。
図11のステップS71において、文字情報抽出部18は、変数kを初期化する。この変数kは、字幕領域内のテキストが静止しているか否かを検出するために用いられるものである。
次に、ステップS72において、文字情報抽出部18は、幾何変換されたフレーム画像を取り込む。
次に、ステップS73において、文字情報抽出部18は、バッファから前フレーム画像を読み込む。
次に、ステップS74において、文字情報抽出部18は、テンプレートマッチング法によりフレーム画像と前フレーム画像との一致度を計算する。
次に、ステップS75において、一致度が閾値以下である場合(ステップS75:YES)、文字情報抽出部18はステップS77の処理に移し、一致度が上記の閾値を超える場合(ステップS75:NO)、文字情報抽出部18はステップS76の処理に移す。
一方、ステップS77において、文字情報抽出部18は、変数kに1を加算する。そして、ステップS78において、文字情報抽出部18は、変数kと閾値とを比較し、変数kがこの閾値よりも大きい場合は、図12のステップS79の処理に移し、変数kがその閾値以下である場合は、ステップS72の処理に戻す。
次に、ステップS80において、字幕情報抽出部18は、テンプレートマッチング法により現フレーム画像とテキスト有りフレーム画像との一致度を計算する。
次に、ステップS81において、一致度が閾値を超える場合(ステップS81:YES)、文字情報抽出部18はステップS82の処理に移し、一致度が上記の閾値以下である場合(ステップS81:NO)、文字情報抽出部18はステップS71の処理に戻す。
次に、ステップS83において、文字情報抽出部18は、字幕のテキストと現在時刻を示す時刻情報とを対応付け、字幕情報として出力する。
次に、文字情報抽出部18は、ステップS71の処理に戻す。
上述した第1の実施形態では、副画面領域の字幕領域に表示される字幕のテキストが、例えば、左方向に1字幕領域分スクロールされて所定時間静止することが繰り返されるものとした。本発明の第2実施形態は、字幕のテキストが静止することなく、連続してスクロールされる例である。
第2実施形態では、字幕情報抽出部18の動作が第1実施形態と異なる。
S101において、文字情報抽出部18は、幾何変換されたフレーム画像を所定フレーム(例えば、数秒間に相当するフレーム数)おきに取り込む。
次に、S102において、文字情報抽出部18は、字幕領域について文字認識処理を実行する。
次に、ステップS105において、文字情報抽出部18は、ステップS102の処理において抽出した文字情報と、ステップS104の処理においてバッファから読み込んだ文字情報との差分を抽出する。
次に、ステップS107において、文字情報抽出部18は、所定文字数分の文字情報がバッファに記憶された場合はステップS108の処理に移し、所定文字数分の文字情報がバッファに記憶されていない場合はステップS101に戻す。所定文字数は、例えば、一字幕領域に表示される文字数である。
次に、ステップS109において、文字情報抽出部18は、バッファの内容を削除し、ステップS101の処理に戻す。
このように構成したことにより、映像字幕検出装置10によれば、番組映像と字幕映像とを含む映像から、容易に字幕を検出しそのテキスト情報を取得することができる。
なお、図14(a)に示す画面構成は、図2のものと同一である。
11 超解像処理部
12 幾何変換部(テレビ画面領域検出部)
13 副画面領域推定部(字幕画面領域推定部)
14 字幕領域推定部
15 モデル画像生成部
16 モデル画像記憶部
17 副画面領域検出部(字幕画面領域検出部)
18 字幕情報抽出部
Claims (5)
- 番組映像および字幕映像を含むテレビ映像を撮影して得られた撮影映像データを取り込み、前記撮影映像データのフレーム画像から直線成分を検出し、前記直線成分によって形成される矩形に基づいて、前記フレーム画像からテレビ画面領域を検出するテレビ画面領域検出部と、
前記テレビ画面領域検出部が検出した前記テレビ画面領域から画像のエッジを検出し、前記画像のエッジの分布に基づいて、前記フレーム画像から前記字幕映像に対応する字幕画面領域を推定する字幕画面領域推定部と、
前記字幕画面領域推定部が推定した前記字幕画面領域から時間方向の画素の変化を検出し、前記画素の変化に基づいて字幕のテキストを含む字幕領域を推定する字幕領域推定部と、
前記撮影映像データを取り込み、前記字幕画面領域推定部が推定した前記字幕画面領域に基づいて、前記撮影映像データのフレーム画像から前記字幕画面領域を検出する字幕画面領域検出部と、
前記字幕画面領域検出部が検出した前記字幕画面領域を含むフレーム画像における、前記字幕領域推定部が推定した前記字幕領域から字幕のテキストを抽出し、前記字幕のテキストと現在時刻を示す時刻情報とを対応付けた字幕情報を生成し、前記字幕情報を出力する字幕情報抽出部と、
を備えることを特徴とする映像字幕検出装置。 - 前記字幕情報抽出部は、
前記字幕画面領域検出部が検出した前記字幕画面領域を含む第1のフレーム画像における、前記字幕領域推定部が推定した前記字幕領域と、前記第1のフレーム画像よりも前の時刻の第2のフレーム画像における前記字幕領域との比較に基づいて、前記第1のフレーム画像における前記字幕領域から字幕のテキストを抽出する
ことを特徴とする請求項1記載の映像字幕検出装置。 - 前記字幕情報抽出部は、
前記第1のフレーム画像における字幕領域と前記第2のフレーム画像における字幕領域との比較に基づいて、字幕のテキストが静止しているか否かを判定し、前記字幕のテキストが静止している場合に、前記第1のフレーム画像における前記字幕領域から字幕のテキストを抽出する
ことを特徴とする請求項2記載の映像字幕検出装置。 - 前記字幕情報抽出部は、
前記字幕画面領域検出部が検出した前記字幕画面領域から第1のテキストを抽出し、この第1のテキストと、既に抽出された第2のテキストとの差分を抽出し、この差分を前記第2のテキストに追加することによって前記字幕のテキストを取得する
ことを特徴とする請求項2記載の映像字幕検出装置。 - コンピュータを、
番組映像および字幕映像を含むテレビ映像を撮影して得られた撮影映像データを取り込み、前記撮影映像データのフレーム画像から直線成分を検出し、前記直線成分によって形成される矩形に基づいて、前記フレーム画像からテレビ画面領域を検出するテレビ画面領域検出部と、
前記テレビ画面領域検出部が検出した前記テレビ画面領域から画像のエッジを検出し、前記画像のエッジの分布に基づいて、前記フレーム画像から前記字幕映像に対応する字幕画面領域を推定する字幕画面領域推定部と、
前記字幕画面領域推定部が推定した前記字幕画面領域から時間方向の画素の変化を検出し、前記画素の変化に基づいて字幕のテキストを含む字幕領域を推定する字幕領域推定部と、
前記撮影映像データを取り込み、前記字幕画面領域推定部が推定した前記字幕画面領域に基づいて、前記撮影映像データのフレーム画像から前記字幕画面領域を検出する字幕画面領域検出部と、
前記字幕画面領域検出部が検出した前記字幕画面領域を含むフレーム画像における、前記字幕領域推定部が推定した前記字幕領域から字幕のテキストを抽出し、前記字幕のテキストと現在時刻を示す時刻情報とを対応付けた字幕情報を生成し、前記字幕情報を出力する字幕情報抽出部と、
して機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011165367A JP5677229B2 (ja) | 2011-07-28 | 2011-07-28 | 映像字幕検出装置およびそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011165367A JP5677229B2 (ja) | 2011-07-28 | 2011-07-28 | 映像字幕検出装置およびそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013030963A true JP2013030963A (ja) | 2013-02-07 |
JP5677229B2 JP5677229B2 (ja) | 2015-02-25 |
Family
ID=47787583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011165367A Expired - Fee Related JP5677229B2 (ja) | 2011-07-28 | 2011-07-28 | 映像字幕検出装置およびそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5677229B2 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016004332A (ja) * | 2014-06-13 | 2016-01-12 | オムロン株式会社 | モデル画像生成装置及びモデル画像生成方法 |
JP2016531512A (ja) * | 2013-12-04 | 2016-10-06 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | 動画画面の処理方法及び装置 |
JP2018085652A (ja) * | 2016-11-24 | 2018-05-31 | 株式会社東芝 | 情報取得装置及び情報取得方法 |
CN108769776A (zh) * | 2018-05-31 | 2018-11-06 | 北京奇艺世纪科技有限公司 | 标题字幕检测方法、装置及电子设备 |
CN109040825A (zh) * | 2018-10-29 | 2018-12-18 | 北京奇艺世纪科技有限公司 | 一种字幕截取方法及装置 |
CN109348289A (zh) * | 2018-11-15 | 2019-02-15 | 北京奇艺世纪科技有限公司 | 新闻节目的标题提取方法及装置 |
JP2019125202A (ja) * | 2018-01-17 | 2019-07-25 | 日本電信電話株式会社 | 検出装置、検出方法およびプログラム |
CN113873221A (zh) * | 2021-08-27 | 2021-12-31 | 深圳市九洲电器有限公司 | 字幕失真性检测方法、多媒体终端、服务器以及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001285716A (ja) * | 2000-01-24 | 2001-10-12 | Toshiba Corp | テロップ情報処理装置及びテロップ情報表示装置 |
US20020037104A1 (en) * | 2000-09-22 | 2002-03-28 | Myers Gregory K. | Method and apparatus for portably recognizing text in an image sequence of scene imagery |
JP2004064431A (ja) * | 2002-07-29 | 2004-02-26 | Sony Corp | 文字情報検出装置及び文字情報検出方法、並びにプログラム及び記録媒体 |
JP2007074091A (ja) * | 2005-09-05 | 2007-03-22 | Pioneer Electronic Corp | テロップ検出装置及び方法並びにレコーダ |
JP2009017325A (ja) * | 2007-07-06 | 2009-01-22 | Hitachi Ltd | テロップ文字領域抽出装置及び方法 |
JP2009206736A (ja) * | 2008-02-27 | 2009-09-10 | Nec Corp | 映像表示装置および映像表示方法 |
-
2011
- 2011-07-28 JP JP2011165367A patent/JP5677229B2/ja not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001285716A (ja) * | 2000-01-24 | 2001-10-12 | Toshiba Corp | テロップ情報処理装置及びテロップ情報表示装置 |
US20020037104A1 (en) * | 2000-09-22 | 2002-03-28 | Myers Gregory K. | Method and apparatus for portably recognizing text in an image sequence of scene imagery |
JP2004064431A (ja) * | 2002-07-29 | 2004-02-26 | Sony Corp | 文字情報検出装置及び文字情報検出方法、並びにプログラム及び記録媒体 |
JP2007074091A (ja) * | 2005-09-05 | 2007-03-22 | Pioneer Electronic Corp | テロップ検出装置及び方法並びにレコーダ |
JP2009017325A (ja) * | 2007-07-06 | 2009-01-22 | Hitachi Ltd | テロップ文字領域抽出装置及び方法 |
JP2009206736A (ja) * | 2008-02-27 | 2009-09-10 | Nec Corp | 映像表示装置および映像表示方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016531512A (ja) * | 2013-12-04 | 2016-10-06 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | 動画画面の処理方法及び装置 |
US9973793B2 (en) | 2013-12-04 | 2018-05-15 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for processing video image |
JP2016004332A (ja) * | 2014-06-13 | 2016-01-12 | オムロン株式会社 | モデル画像生成装置及びモデル画像生成方法 |
JP2018085652A (ja) * | 2016-11-24 | 2018-05-31 | 株式会社東芝 | 情報取得装置及び情報取得方法 |
JP2019125202A (ja) * | 2018-01-17 | 2019-07-25 | 日本電信電話株式会社 | 検出装置、検出方法およびプログラム |
CN108769776A (zh) * | 2018-05-31 | 2018-11-06 | 北京奇艺世纪科技有限公司 | 标题字幕检测方法、装置及电子设备 |
CN108769776B (zh) * | 2018-05-31 | 2021-03-19 | 北京奇艺世纪科技有限公司 | 标题字幕检测方法、装置及电子设备 |
CN109040825A (zh) * | 2018-10-29 | 2018-12-18 | 北京奇艺世纪科技有限公司 | 一种字幕截取方法及装置 |
CN109348289A (zh) * | 2018-11-15 | 2019-02-15 | 北京奇艺世纪科技有限公司 | 新闻节目的标题提取方法及装置 |
CN109348289B (zh) * | 2018-11-15 | 2021-08-24 | 北京奇艺世纪科技有限公司 | 新闻节目的标题提取方法及装置 |
CN113873221A (zh) * | 2021-08-27 | 2021-12-31 | 深圳市九洲电器有限公司 | 字幕失真性检测方法、多媒体终端、服务器以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP5677229B2 (ja) | 2015-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5677229B2 (ja) | 映像字幕検出装置およびそのプログラム | |
US9905031B2 (en) | Method and related apparatus for capturing and processing image data | |
AU2013276984B2 (en) | Display apparatus and method for video calling thereof | |
JP5450739B2 (ja) | 画像処理装置及び画像表示装置 | |
KR102124617B1 (ko) | 이미지 합성 방법 및 그 전자 장치 | |
CN108141568B (zh) | Osd信息生成摄像机、合成终端设备及共享系统 | |
CN105611373B (zh) | 视频图像处理方法及装置 | |
JP6622650B2 (ja) | 情報処理装置及びその制御方法、撮影システム | |
US20110169976A1 (en) | Efficient, user-friendly system to stream screens inside video using a mobile device | |
Visentini-Scarzanella et al. | Video jitter analysis for automatic bootleg detection | |
JP2007019671A (ja) | 画像通信システム及び画像処理プログラム | |
JP2013172446A (ja) | 情報処理装置、端末装置、撮像装置、情報処理方法、及び撮像装置における情報提供方法 | |
US9996743B2 (en) | Methods, systems, and media for detecting gaze locking | |
JP2012203823A (ja) | 画像認識装置 | |
CN113805824B (zh) | 电子装置以及在显示设备上显示图像的方法 | |
JP4898655B2 (ja) | 撮像装置及び画像合成プログラム | |
US10990802B2 (en) | Imaging apparatus providing out focusing and method for controlling the same | |
CN115334241B (zh) | 对焦控制方法、装置、存储介质及摄像设备 | |
KR101468347B1 (ko) | 이미지 내 가상 시각 정보를 식별하는 방법 및 장치 | |
US11195298B2 (en) | Information processing apparatus, system, method for controlling information processing apparatus, and non-transitory computer readable storage medium | |
CN105611380A (zh) | 视频图像处理方法及装置 | |
CN114647983A (zh) | 显示设备及基于人像的距离检测方法 | |
CN114092323A (zh) | 图像处理方法、装置、存储介质及电子设备 | |
Lee et al. | DCT-domain image registration techniques for compressed video | |
US20230306698A1 (en) | System and method to enhance distant people representation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141016 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5677229 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |