JP2013030963A - 映像字幕検出装置およびそのプログラム - Google Patents

映像字幕検出装置およびそのプログラム Download PDF

Info

Publication number
JP2013030963A
JP2013030963A JP2011165367A JP2011165367A JP2013030963A JP 2013030963 A JP2013030963 A JP 2013030963A JP 2011165367 A JP2011165367 A JP 2011165367A JP 2011165367 A JP2011165367 A JP 2011165367A JP 2013030963 A JP2013030963 A JP 2013030963A
Authority
JP
Japan
Prior art keywords
subtitle
area
caption
screen
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011165367A
Other languages
English (en)
Other versions
JP5677229B2 (ja
Inventor
Yoshihiko Kawai
吉彦 河合
Masahiro Shibata
正啓 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2011165367A priority Critical patent/JP5677229B2/ja
Publication of JP2013030963A publication Critical patent/JP2013030963A/ja
Application granted granted Critical
Publication of JP5677229B2 publication Critical patent/JP5677229B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】番組映像と字幕映像とを含む映像から、容易に字幕のテキストを検出する。
【解決手段】撮影映像データを取り込み、そのフレーム画像から検出した直線成分によって形成される矩形に基づいて、フレーム画像からテレビ画面領域を検出する幾何変換部12と、テレビ画面領域から画像のエッジを検出し、これらエッジの分布に基づいて、フレーム画像から副画面領域を推定する副画面領域推定部13と、副画面領域から時間方向の画素の変化を検出し、この画素の変化に基づいて字幕領域を推定する字幕領域推定部14と、撮影映像データを取り込んでフレーム画像から副画面領域を検出する副画面領域検出部17と、副画面領域から字幕領域を検出し、この字幕領域から字幕のテキストを抽出し、このテキストと現在時刻を示す時刻情報とを対応付けた字幕情報を生成して出力する字幕情報抽出部18とを備える。
【選択図】図1

Description

本発明は、映像字幕検出装置およびそのプログラムに関する。
国政選挙や大規模災害等に関する情報をテレビ視聴者に提供するため、放送局の放送機器は、本来の番組映像のフレームの大きさを若干縮小し、縮小されたフレーム画像の周囲の表示領域のうち一部分を字幕表示領域とし、番組映像と字幕映像とを合成しエンコード処理して得たコンテンツを放送することがある。字幕映像によって提供される字幕情報のテキストは、スクロールされたり一画面分同時に切り替えられたりして表示されるため、視聴者は、これらテキストを見逃したり、見たとしても忘れてしまうことがある。
テレビ画面に映る上記の映像をビデオカメラにより撮影すれば、字幕映像を記録し後で確認することができる。しかし、このようにして得られる字幕情報はあくまでも映像としての情報である。よって、撮影した映像から所望の字幕を確認するには手間がかかるため、字幕の検索効率が悪い。
また、従来、カメラによって撮影された画像から、映っている文字を認識する技術が知られている(例えば、非特許文献1参照)。
黄瀬浩一、大町真一郎、内田誠一、岩村雅一、「カメラを用いた文字認識・文書画像解析の現状と課題」、電子情報通信学会技術研究報告、社団法人電子情報通信学会、2005年3月、PRMU2004−246、p.85−90
しかしながら、上記技術では、前述したような番組映像に字幕映像が合成された映像、つまり、字幕以外にも様々な情報が多く含まれるテレビ画像から字幕のテキストを検出することができない。
本発明は、上記課題を解決するためになされたものであり、番組映像と字幕映像とを含む映像から、容易に字幕のテキストを検出することができる、映像字幕検出装置およびそのプログラムを提供することを目的とする。
[1]上記の課題を解決するため、本発明の一態様である映像字幕検出装置は、番組映像および字幕映像を含むテレビ映像を撮影して得られた撮影映像データを取り込み、前記撮影映像データのフレーム画像から直線成分を検出し、前記直線成分によって形成される矩形に基づいて、前記フレーム画像からテレビ画面領域を検出するテレビ画面領域検出部と、前記テレビ画面領域検出部が検出した前記テレビ画面領域から画像のエッジを検出し、前記画像のエッジの分布に基づいて、前記フレーム画像から前記字幕映像に対応する字幕画面領域を推定する字幕画面領域推定部と、前記字幕画面領域推定部が推定した前記字幕画面領域から時間方向の画素の変化を検出し、前記画素の変化に基づいて字幕のテキストを含む字幕領域を推定する字幕領域推定部と、前記撮影映像データを取り込み、前記字幕画面領域推定部が推定した前記字幕画面領域に基づいて、前記撮影映像データのフレーム画像から前記字幕画面領域を検出する字幕画面領域検出部と、前記字幕画面領域検出部が検出した前記字幕画面領域を含むフレーム画像における、前記字幕領域推定部が推定した前記字幕領域から字幕のテキストを抽出し、前記字幕のテキストと現在時刻を示す時刻情報とを対応付けた字幕情報を生成し、前記字幕情報を出力する字幕情報抽出部と、を備えることを特徴とする。
[2]上記[1]記載の映像字幕検出装置において、前記字幕情報抽出部は、前記字幕画面領域検出部が検出した前記字幕画面領域を含む第1のフレーム画像における、前記字幕領域推定部が推定した前記字幕領域と、前記第1のフレーム画像よりも前の時刻の第2のフレーム画像における前記字幕領域との比較に基づいて、前記第1のフレーム画像における前記字幕領域から字幕のテキストを抽出することを特徴とする。
[3]上記[2]記載の映像字幕検出装置において、前記字幕情報抽出部は、前記第1のフレーム画像における字幕領域と前記第2のフレーム画像における字幕領域との比較に基づいて、字幕のテキストが静止しているか否かを判定し、前記字幕のテキストが静止している場合に、前記第1のフレーム画像における前記字幕領域から字幕のテキストを抽出することを特徴とする。
[4]上記[2]記載の映像字幕検出装置において、前記字幕情報抽出部は、前記字幕画面領域検出部が検出した前記字幕画面領域から第1のテキストを抽出し、この第1のテキストと、既に抽出された第2のテキストとの差分を抽出し、この差分を前記第2のテキストに追加することによって前記字幕のテキストを取得することを特徴とする。
[5]上記の課題を解決するため、本発明の一態様であるプログラムは、コンピュータを、番組映像および字幕映像を含むテレビ映像を撮影して得られた撮影映像データを取り込み、前記撮影映像データのフレーム画像から直線成分を検出し、前記直線成分によって形成される矩形に基づいて、前記フレーム画像からテレビ画面領域を検出するテレビ画面領域検出部と、前記テレビ画面領域検出部が検出した前記テレビ画面領域から画像のエッジを検出し、前記画像のエッジの分布に基づいて、前記フレーム画像から前記字幕映像に対応する字幕画面領域を推定する字幕画面領域推定部と、前記字幕画面領域推定部が推定した前記字幕画面領域から時間方向の画素の変化を検出し、前記画素の変化に基づいて字幕のテキストを含む字幕領域を推定する字幕領域推定部と、前記撮影映像データを取り込み、前記字幕画面領域推定部が推定した前記字幕画面領域に基づいて、前記撮影映像データのフレーム画像から前記字幕画面領域を検出する字幕画面領域検出部と、前記字幕画面領域検出部が検出した前記字幕画面領域を含むフレーム画像における、前記字幕領域推定部が推定した前記字幕領域から字幕のテキストを抽出し、前記字幕のテキストと現在時刻を示す時刻情報とを対応付けた字幕情報を生成し、前記字幕情報を出力する字幕情報抽出部と、して機能させる。
本発明によれば、番組映像と字幕映像とを含む映像から、容易に字幕のテキストを検出することができる。
第1実施形態である映像字幕検出装置の機能構成を示すブロック図である。 同実施形態において、幾何変換部が出力する、幾何変換されたフレーム画像を模式的に表した図である。 図2に示したフレーム画像に基づいて、同実施形態におけるモデル生成部が生成したモデル画像を模式的に表した図である。 同実施形態において、副画面領域推定部が実行する副画面領域の推定処理の手順を示すフローチャートである。 同実施形態において、上部領域についての推定処理の手順を示すフローチャートである。 同実施形態において、下部領域についての推定処理の手順を示すフローチャートである。 同実施形態において、左部領域についての推定処理の手順を示すフローチャートである。 同実施形態において、右部領域についての推定処理の手順を示すフローチャートである。 同実施形態において、字幕領域推定部が実行する字幕領域推定処理の手順を示すフローチャートである。 同実施形態において、副画面領域検出部が実行する副画面領域の検出処理の手順を示すフローチャートである。 同実施形態において、文字情報抽出部が実行する、字幕情報の抽出処理の手順を示すフローチャートである。 同実施形態において、文字情報抽出部が実行する、字幕情報の抽出処理の手順を示すフローチャートである。 第2実施形態における文字情報抽出部が実行する、字幕情報の抽出処理の手順を示すフローチャートである。 フレーム画像における主画面領域および副画面領域の構成についての他の例である。 フレーム画像における主画面領域および副画面領域の構成についての他の例である。
以下、本発明を実施するための形態について、図面を参照して詳細に説明する。
[第1の実施の形態]
本発明の第1実施形態である映像字幕検出装置は、ビデオカメラから供給される撮影映像データを取り込み、この撮影映像データの画像処理を実行する。そのビデオカメラは、テレビジョン受像機に表示される、番組映像および字幕映像を含むテレビ映像(字幕付テレビ映像)を撮影する。映像字幕検出装置は、撮影映像データの画像処理を実行することによって字幕のテキストを含む字幕情報を生成し、この字幕情報を出力する。番組映像は、放送番組の映像である。字幕映像は、字幕のテキストの映像である。
映像字幕検出装置は、字幕領域推定モードに設定されて動作したのち、字幕情報抽出モードに設定されて動作する。映像字幕検出装置の内部の制御部が、これらのモード設定を行う。字幕領域推定モードに設定された映像字幕検出装置は、所定期間分、連続して撮影映像データを取り込み、フレーム画像において字幕のテキストが表示される領域(字幕領域)を推定する。また、字幕情報抽出モードに設定された映像字幕検出装置は、撮影映像データを取り込み、フレーム画像中の上記推定された字幕領域に出現するテキストを抽出してこのテキストを含む字幕情報を生成し、この字幕情報を出力する。
[1.映像字幕検出装置の構成]
図1は、第1実施形態である映像字幕検出装置の機能構成を示すブロック図である。同図に示すように、映像字幕検出装置10は、超解像処理部11と、幾何変換部(テレビ画面領域検出部)12と、副画面領域推定部(字幕画面領域推定部)13と、字幕領域推定部14と、モデル画像生成部15と、モデル画像記憶部16と、副画面領域検出部(字幕画面領域検出部)17と、字幕情報抽出部18とを備える。
字幕領域推定モードに設定された映像字幕検出装置10は、超解像処理部11と、幾何変換部12と、副画面領域推定部13と、字幕領域推定部14と、モデル画像生成部15と、モデル画像記憶部16とを動作させる。
また、字幕情報抽出モードに設定された映像字幕検出装置10は、超解像処理部11と、幾何変換部12と、モデル画像記憶部16と、副画面領域検出部17と、字幕情報抽出部18とを動作させる。
映像字幕検出装置10は、字幕付テレビ映像を撮影する、ビデオカメラ、ビデオカメラ機能付携帯電話機、ビデオカメラ機能付携帯情報端末等に外部接続されるか、内蔵されるものである。
超解像処理部11は、図示しない制御部から取り込み開始指示と取り込み終了指示とを受信する。超解像処理部11は、取り込み開始指示を受信したときから取り込み終了指示を受信するときまで、供給される撮影映像データを受信する。超解像処理部11は、撮影映像データを受信すると、この撮影映像データを構成する複数のフレーム画像を時系列に取り込み、各フレーム画像について超解像処理を実行し、画像の解像度を高めたフレーム画像である高解像度フレーム画像を生成する。超解像処理は、公知の超解像技術を適用した、フレーム画像の高解像度化処理である。超解像処理部11は、フレーム画像に対して超解像処理を実行することにより、当該フレーム画像の水平方向および垂直方向またはいずれか一方の解像度を高くする。このように超解像処理11を設けることによって、映像字幕検出装置10は、画像における字幕の文字の認識率を高めることができる。
超解像処理部11は、毎フレームまたはあらかじめ決定された複数フレームおきに、高解像度フレーム画像を幾何変換部12に供給する。
幾何変換部12は、超解像処理部11から供給される高解像度フレーム画像(以下、必要な場合を除き、フレーム画像という)を取り込み、このフレーム画像からテレビ画面の領域(テレビ画面領域)を検出する。テレビ画面は、テレビ映像が表示される領域である。例えば、テレビ画面の形状は矩形(長方形および正方形を含む)であることを前提とし、幾何変換部12は、例えば、ハフ変換による直線検出技術を適用してフレーム画像から複数の直線成分を検出し、これら直線成分によって形成される矩形(その相似形を含む)を検出し、この矩形の図形領域をテレビ画面領域とする。
そして、幾何変換部12は、検出したテレビ画面領域の形状歪みや画像における傾きをなくすようまたは軽減するよう、フレーム画像の幾何変換処理を実行し、幾何変換されたフレーム画像を副画面領域推定部13または副画面領域検出部17に供給する。映像字幕検出装置10が字幕領域推定モードに設定されている場合、幾何変換部12は、幾何変換されたフレーム画像を副画面領域推定部13に供給する。一報、映像字幕検出装置10が字幕情報抽出モードに設定されている場合、幾何変換部12は、幾何変換されたフレーム画像を副画面領域検出部17に供給する。テレビ画面領域の形状歪みや画像における傾きは、テレビジョン受像機の画面に対するビデオカメラの撮影方向が正対していない場合に生じるものである。
副画面領域推定部13は、幾何変換部12から供給される、所定期間分の幾何変換されたフレーム画像を順次取り込み、これらのフレーム画像に基づいてテレビ画面における副画面領域(字幕画面領域)の位置および範囲を推定する。副画面領域は、テレビ画面において、放送番組に関する番組映像を表示する領域を主画面領域(番組画面領域)とした場合の、この主画面領域を除く領域である。副画面領域推定部13は、内部に記憶部を備えている。副画面領域は、字幕領域を含む。主画面領域と副画面領域とを含むテレビ画面の具体例については後述する。また、副画面領域推定部13が実行する副画面領域の推定処理についても後述する。
字幕領域推定部14は、副画面領域推定部13が推定した副画面領域から字幕領域の位置および範囲を推定する。字幕領域推定部14は、内部に記憶部を備えている。
モデル画像生成部15は、副画面領域推定部13が推定した副画面領域と、字幕領域推定部14が推定した字幕領域とに基づいてモデル画像を生成し、このモデル画像をモデル画像記憶部16に記憶させる。モデル画像は、幾何変換されたフレーム画像において、副画面領域と字幕領域とを特定するための参照画像(テンプレート画像)である。
モデル画像記憶部16は、モデル画像生成部15が生成したモデル画像を記憶する。
副画面領域検出部17は、モデル画像記憶部16からモデル画像を読み込むとともに、幾何変換部12から供給される幾何変換されたフレーム画像を取り込む。そして、副画面領域検出部17は、モデル画像とフレーム画像とのマッチング処理を実行して、フレーム画像における副画面領域を検出する。
字幕情報抽出部18は、副画面領域検出部17が検出した副画面領域から字幕領域を検出し、この字幕領域から字幕のテキストを抽出するとともに現在時刻を計時し、テキストと現在時刻を示す時刻情報とを対応付けた字幕情報を生成し、この字幕情報を出力する。字幕情報抽出部18は、内部にバッファ(記憶部)を備えている。
図2は、幾何変換部12が出力する、幾何変換されたフレーム画像を模式的に表した図である。同図において、フレーム画像20は、主画面領域21と、副画面領域22とを含んで構成される。主画面領域21は、放送番組の番組映像を表示する領域である。副画面領域22は、字幕のテキストが表示される字幕領域を含む領域である。副画面領域22には、字幕のテキスト22a,22bが表示されている。フレーム画像20を構成する画素の位置は、左上端に対応する画素の位置を座標(0,0)とし、x軸方向(水平方向)とy軸方向(垂直方向)との二次元直交座標によって表わされる。同図に示すように、副画面領域22は、主画面領域21の周囲の一部分に設けられている。そして、副画面領域22において字幕のテキスト22bを含む上部領域と主画面領域21との境は、x軸に平行な境界線aとなっている。また、副画面領域22において字幕のテキスト22aを含む左部領域と主画面領域21との境は、y軸に平行な境界線bとなっている。
なお、本実施形態では、字幕のテキスト22bは、x軸の正方向とは反対方向、つまり左方向に1字幕領域分スクロールされたのち所定時間静止することが繰り返される。また、字幕のテキスト22aは、静止したままである。
また、図2において、フレーム画像20の下部に、x軸に平行でy軸方向にdの幅を有する帯状の副画面領域の一部分があるが、この領域は、主画面領域21に表示される番組映像のセーフティゾーンを確保するためのオフセット領域であり、字幕のテキストを表示させる領域ではない。
図3は、図2に示したフレーム画像20に基づいて、モデル生成部15が生成したモデル画像を模式的に表した図である。同図に示すように、モデル画像30は、副画面領域22における背景領域のテンプレート画像である背景領域参照画像31と、字幕のテキスト22bの字幕領域のテンプレート画像である字幕領域参照画像32とを有している。
[2.副画面領域の推定処理]
次に、副画面領域推定部13が実行する副画面領域の推定処理について説明する。副画面領域推定部13は、幾何変換部12から供給される、所定期間分の幾何変換されたフレーム画像を順次取り込み、各フレーム画像からエッジを検出する。例えば、副画面領域推定部13は、ソーベル(Sobel)フィルタを適用してフレーム画像からエッジを検出する。
副画面領域推定部13は、取り込んだ全フレーム画像から検出したエッジに基づいて、エッジの分布を示すエッジ平均画像を生成する。エッジ平均画像fedge_avgにおける座標(x,y)の画素値は、下記の式(1)として表わされる。
ただし、iは、字幕領域推定モードに設定されて動作する超解像処理部11が撮像映像データを取り込み開始したときのフレーム画像の番号である。また、iは、字幕領域推定モードに設定されて動作する超解像処理部11が撮像映像データを取り込み終了するときのフレーム画像の番号である。また、fedge_avg は、i番目のフレーム画像から検出されたエッジ画像である。
Figure 2013030963
副画面領域推定部13は、計算したエッジ平均画像fedge_avgを、例えば上部領域、下部領域、左部領域、および右部領域に区分し、領域ごとに画面領域を推定する。上部領域は、例えば、x軸に平行で、エッジ平均画像fedge_avgの中心位置を含む境界線よりも上側の領域である。下部領域は、例えば、x軸に平行で、エッジ平均画像fedge_avgの中心位置を含む境界線とこの境界線よりも下側との領域である。左部領域は、例えば、y軸に平行で、エッジ平均画像fedge_avgの中心位置を含む境界線よりも左側の領域である。右部領域は、例えば、y軸に平行で、エッジ平均画像fedge_avgの中心位置を含む境界線とこの境界線よりも右側との領域である。
副画面領域推定部13が上部領域から副画面領域を推定する処理について説明する。
副画面領域推定部13は、エッジ平均画像fedge_avgのy軸方向のエッジ強度分布sを、下記の式(2)によって計算する。
ただし、Wはフレーム画像のx軸方向の幅、Hはフレーム画像のy軸方向の幅である。
Figure 2013030963
副画面領域推定部13は、エッジ強度分布s(0≦y<(H/2))から、エッジ強度の最大値である最大エッジ強度値symaxを抽出し、この最大エッジ強度値symaxに対応するy座標値yを下記の式(3)によって計算する。
Figure 2013030963
副画面領域推定部13は、副画面領域と主画面領域との境界線があるか否かを判定し、境界線がある場合は、上部領域を検出する。具体的には、副画面領域推定部13は、最大エッジ強度値symaxがあらかじめ決定された閾値symaxthより大きく、且つ、最大エッジ強度値symaxに対応するy座標値yがあらかじめ決定された閾値yathよりも大きいか否かを判定する。副画面領域推定部13は、最大エッジ強度値symaxが閾値symaxthより大きく、且つ、最大エッジ強度値symaxに対応するy座標値yが閾値yathよりも大きいと判定した場合、フレーム画像のy座標値が0からyまでの画像領域を上部領域として検出する。そして、副画面領域推定部13は、検出した上部領域の位置情報を内部の記憶部に記憶させる。この位置情報とは、例えば、上部領域の4つの頂点の画素位置を示す座標値である。
次に、副画面領域推定部13が下部領域から副画面領域を推定する処理について説明する。
副画面領域推定部13は、エッジ平均画像fedge_avgのy軸方向のエッジ強度分布sを、下記の式(4)によって計算する。
Figure 2013030963
副画面領域推定部13は、エッジ強度分布s((H/2)≦y<H)から、最大エッジ強度値symaxを抽出し、この最大エッジ強度値symaxに対応するy座標値yを下記の式(5)によって計算する。
Figure 2013030963
副画面領域推定部13は、副画面領域と主画面領域との境界線があるか否かを判定し、境界線がある場合は、下部領域を検出する。具体的には、副画面領域推定部13は、最大エッジ強度値symaxがあらかじめ決定された閾値symaxthより大きく、且つ、最大エッジ強度値symaxに対応するy座標値yがあらかじめ決定された閾値ybthよりも大きいか否かを判定する。副画面領域推定部13は、最大エッジ強度値symaxが閾値symaxthより大きく、且つ、最大エッジ強度値symaxに対応するy座標値yが閾値ybthよりも大きいと判定した場合、フレーム画像のy座標値がyからHまでの画像領域を下部領域として検出する。そして、副画面領域推定部13は、検出した下部領域の位置情報を内部の記憶部に記憶させる。この位置情報とは、例えば、下部領域の4つの頂点の画素位置を示す座標値である。
次に、副画面領域推定部13が左部領域から副画面領域を推定する処理について説明する。
副画面領域推定部13は、エッジ平均画像fedge_avgのx軸方向のエッジ強度分布sを、下記の式(6)によって計算する。
Figure 2013030963
副画面領域推定部13は、エッジ強度分布s(0≦x<(W/2))から、エッジ強度の最大値である最大エッジ強度値sxmaxを抽出し、この最大エッジ強度値sxmaxに対応するx座標値xを下記の式(7)によって計算する。
Figure 2013030963
副画面領域推定部13は、副画面領域と主画面領域との境界線があるか否かを判定し、境界線がある場合は、左部領域を検出する。具体的には、副画面領域推定部13は、最大エッジ強度値sxmaxがあらかじめ決定された閾値sxmaxthより大きく、且つ、最大エッジ強度値sxmaxに対応するx座標値xがあらかじめ決定された閾値xathよりも大きいか否かを判定する。副画面領域推定部13は、最大エッジ強度値sxmaxが閾値sxmaxthより大きく、且つ、最大エッジ強度値sxmaxに対応するx座標値xが閾値xathよりも大きいと判定した場合、フレーム画像のx座標値が0からxまでの画像領域を左部領域として検出する。そして、副画面領域推定部13は、検出した左部領域の位置情報を内部の記憶部に記憶させる。この位置情報とは、例えば、左部領域の4つの頂点の画素位置を示す座標値である。
次に、副画面領域推定部13が右部領域から副画面領域を推定する処理について説明する。
副画面領域推定部13は、エッジ平均画像fedge_avgのx軸方向のエッジ強度分布sを、下記の式(8)によって計算する。
Figure 2013030963
副画面領域推定部13は、エッジ強度分布s((W/2)≦x<W)から、最大エッジ強度値sxmaxを抽出し、この最大エッジ強度値sxmaxに対応するx座標値xを下記の式(9)によって計算する。
Figure 2013030963
副画面領域推定部13は、副画面領域と主画面領域との境界線があるか否かを判定し、境界線がある場合は、右部領域を検出する。具体的には、副画面領域推定部13は、最大エッジ強度値sxmaxがあらかじめ決定された閾値sxmaxthより大きく、且つ、最大エッジ強度値sxmaxに対応するx座標値xがあらかじめ決定された閾値xbthよりも大きいか否かを判定する。副画面領域推定部13は、最大エッジ強度値sxmaxが閾値sxmaxthより大きく、且つ、最大エッジ強度値sxmaxに対応するx座標値xが閾値xbthよりも大きいと判定した場合、フレーム画像のx座標値がxからWまでの画像領域を右部領域として検出する。そして、副画面領域推定部13は、検出した右部領域の位置情報を内部の記憶部に記憶させる。この位置情報とは、例えば、上部領域の4つの頂点の画素位置を示す座標値である。
図4は、副画面領域推定部13が実行する副画面領域の推定処理の手順を示すフローチャートである。ステップS1において、副画面領域推定部13は、撮影映像データを取り込む所定期間内であるか否かを判別し、所定期間内である場合はステップS2の処理に移し、所定期間外である場合はステップS4の処理に移す。
ステップS2において、副画面領域推定部13は、幾何変換部12から供給される幾何変換されたフレーム画像を取り込む。
次に、ステップS3において、副画面領域推定部13は、取り込んだフレーム画像からエッジを検出する。
次に、副画面領域推定部13は、ステップS1の処理に戻す。
ステップS4において、副画面領域推定部13は、取り込んだ全フレーム画像から検出したエッジに基づいてエッジ平均画像fedge_avgを生成する。
次に、ステップS5において、副画面領域推定部13は、エッジ平均画像の上部領域についての副画面領域の推定処理を実行する。
次に、ステップS6において、副画面領域推定部13は、エッジ平均画像fedge_avgの上部領域についての副画面領域の推定処理を実行する。
次に、ステップS7において、副画面領域推定部13は、エッジ平均画像fedge_avgの上部領域についての副画面領域の推定処理を実行する。
次に、ステップS8において、副画面領域推定部13は、エッジ平均画像fedge_avgの上部領域についての副画面領域の推定処理を実行する。
図5は、ステップS5の上部領域についての推定処理の手順を示すフローチャートである。
ステップS11において、副画面領域推定部13は、エッジ平均画像fedge_avgのy軸方向のエッジ強度分布sを計算する。
次に、ステップS12において、副画面領域推定部13は、エッジ強度分布s(0≦y<(H/2))から、エッジ強度の最大値である最大エッジ強度値symaxを抽出し、この最大エッジ強度値symaxに対応するy座標値yを計算する。
次に、ステップS13において、副画面領域推定部13は、副画面領域と主画面領域との境界線があるか否かを判定し、境界線があると判定した場合(S13:YES)はステップS14の処理に移し、境界線がないと判定した場合(S13:NO)は本フローチャートの処理を終了させる。
ステップS14において、副画面領域推定部13は、フレーム画像のy座標値が0からyまでの画像領域を上部領域として検出し、この上部領域の位置情報を内部の記憶部に記憶させる。
図6は、ステップS6の下部領域についての推定処理の手順を示すフローチャートである。
ステップS21において、副画面領域推定部13は、エッジ平均画像fedge_avgのy軸方向のエッジ強度分布sを計算する。
次に、ステップS22において、副画面領域推定部13は、エッジ強度分布s((H/2)≦y<H)から、エッジ強度の最大値である最大エッジ強度値symaxを抽出し、この最大エッジ強度値symaxに対応するy座標値yを計算する。
次に、ステップS23において、副画面領域推定部13は、副画面領域と主画面領域との境界線があるか否かを判定し、境界線があると判定した場合(S23:YES)はステップS24の処理に移し、境界線がないと判定した場合(S23:NO)は本フローチャートの処理を終了させる。
ステップS24において、副画面領域推定部13は、フレーム画像のy座標値がyからHまでの画像領域を下部領域として検出し、この下部領域の位置情報を内部の記憶部に記憶させる。
図7は、ステップS7の左部領域についての推定処理の手順を示すフローチャートである。
ステップS31において、副画面領域推定部13は、エッジ平均画像fedge_avgのx軸方向のエッジ強度分布sを計算する。
次に、ステップS32において、副画面領域推定部13は、エッジ強度分布s(0≦x<(W/2))から、エッジ強度の最大値である最大エッジ強度値sxmaxを抽出し、この最大エッジ強度値sxmaxに対応するx座標値xを計算する。
次に、ステップS33において、副画面領域推定部13は、副画面領域と主画面領域との境界線があるか否かを判定し、境界線があると判定した場合(S33:YES)はステップS34の処理に移し、境界線がないと判定した場合(S33:NO)は本フローチャートの処理を終了させる。
ステップS34において、副画面領域推定部13は、フレーム画像のx座標値が0からxまでの画像領域を左部領域として検出し、この上部領域の位置情報を内部の記憶部に記憶させる。
図8は、ステップS8の右部領域についての推定処理の手順を示すフローチャートである。
ステップS41において、副画面領域推定部13は、エッジ平均画像fedge_avgのx軸方向のエッジ強度分布sを計算する。
次に、ステップS42において、副画面領域推定部13は、エッジ強度分布s((W/2)≦x<W)から、エッジ強度の最大値である最大エッジ強度値sxmaxを抽出し、この最大エッジ強度値sxmaxに対応するx座標値xを計算する。
次に、ステップS43において、副画面領域推定部13は、副画面領域と主画面領域との境界線があるか否かを判定し、境界線があると判定した場合(S43:YES)はステップS44の処理に移し、境界線がないと判定した場合(S43:NO)は本フローチャートの処理を終了させる。
ステップS44において、副画面領域推定部13は、フレーム画像のx座標値がxからWまでの画像領域を右部領域として検出し、この右部領域の位置情報を内部の記憶部に記憶させる。
[3.字幕領域の推定処理]
次に、字幕領域推定部14が実行する字幕領域の推定処理について説明する。字幕領域推定部14は、副画面領域推定部13が推定した副画面領域の上部領域、下部領域、左部領域、および右部領域それぞれ(以下、対象領域と呼ぶことがある)について、字幕領域が存在するか否か、ならびに、字幕領域が存在する場合に、その位置および範囲を推定する。例えば、字幕領域推定部14は、上部領域、下部領域、左部領域、右部領域の順に推定処理を実行する。
字幕領域推定部14は、対象領域における画素の時間方向についての変化を求める。例えば、字幕領域推定部14は、対象領域における画素の時間方向についての画素値の変化のばらつきを、分散σx,yを求める下記の式(10)によって計算する。
ただし、iは、字幕領域推定モードに設定されて動作する超解像処理部11が撮像映像データを取り込み開始したときのフレーム画像の番号である。また、iは、字幕領域推定モードに設定されて動作する超解像処理部11が撮像映像データを取り込み終了するときのフレーム画像の番号である。また、f(x,y)は、対象領域である。また、μx,yは、撮影映像データの取り込み期間における対象領域f(x,y)の平均値である。
Figure 2013030963
字幕領域推定部14は、式(10)により計算した分散σx,yに基づいて、対象領域を2つの領域に区分する。例えば、字幕領域推定部14は、分散σx,yに基づいて対象領域の全画素を、あらかじめ決定された閾値を基準にして二分し、さらに、判別分析法を適用してその閾値を最適化し、最終的に対象領域を2つの領域(背景領域およびテキスト領域)に区分する。判別分析法は、2クラス(背景領域のクラスおよびテキスト領域のクラス)に分離された対象領域について、各クラスのクラス内分散と2クラスについてのクラス間分散とを計算し、クラス内分散とクラス間分散との比に基づいて閾値を決定する方法である。
字幕領域推定部14は、テキスト領域の面積とあらかじめ決定された面積閾値とを比較する。そして、字幕領域推定部14は、推定したテキスト領域の面積が面積閾値よりも大きい場合は、その推定したテキスト領域を字幕領域として決定する。一方、字幕領域推定部14は、推定したテキスト領域の面積が面積閾値以下である場合は、対象領域内に字幕領域が存在しないと決定する。そして、字幕領域推定部14は、字幕領域の位置情報を内部の記憶部に記憶させる。この位置情報とは、例えば、字幕領域の4つの頂点の画素位置を示す座標値である。
図9は、字幕領域推定部14が実行する字幕領域推定処理の手順を示すフローチャートである。字幕領域推定部14は、副画面領域の上部領域、下部領域、左部領域、および右部領域それぞれについて、同図のフローチャートの処理を実行する。
ステップS51において、字幕領域推定部14は、副画面領域推定部13によって内部の記憶部に記憶された対象領域の位置情報を読み込む。
次に、ステップS52において、字幕領域推定部14は、対象領域における画素の時間方向についての画素値の変化のばらつき(分散)を計算する。
次に、ステップS53において、字幕領域推定部14は、分散に基づいて、対象領域を2つの領域(背景領域およびテキスト領域)に区分する。
次に、ステップS54において、字幕領域推定部14は、テキスト領域の面積とあらかじめ決定された面積閾値とを比較し、テキスト領域の面積が面積閾値よりも大きい場合(ステップS54:YES)は、テキスト領域を字幕領域として決定してステップS55の処理に移し、テキスト領域の面積が面積閾値以下である場合(ステップS54:NO)は、対象領域内に字幕領域が存在しないと決定して本フローチャートの処理を終了させる。
ステップS55において、字幕領域推定部14は、字幕領域の位置情報を内部の記憶部に記憶させる。
[4.副画面領域の検出処理]
次に、副画面領域検出部17が実行する副画面領域の検出処理について説明する。副画面領域検出部17は、モデル画像記憶部16からモデル画像を読み込み、また、幾何変換部12から供給される幾何変換されたフレーム画像を取り込む。副画面領域検出部17は、モデル画像を参照画像として、テンプレートマッチングによりフレーム画像から副画面領域を検出する。例えば、副画面領域検出部17は、フレーム画像と参照画像との一致度dbg(f,m)を、下記の式(11)の差分二乗和の計算によって求める。
ただし、fはi番目のフレーム画像、mはモデル画像である。また、Lは、モデル画像に含まれる背景領域の画素集合である。
Figure 2013030963
なお、テンプレートマッチングとして、上記の差分二乗和の他、絶対差分和、色ヒストグラム差分、ブロックマッチング差分等を用いてもよい。
副画面領域検出部17は、一致度dbg(f,m)とあらかじめ決定された閾値とを比較し、一致度dbg(f,m)が閾値以下である場合、i番目のフレーム画像に副画面領域が存在すると判定する。
図10は、副画面領域検出部17が実行する副画面領域の検出処理の手順を示すフローチャートである。
ステップS61において、副画面領域検出部17は、モデル画像記憶部16からモデル画像を読み込む。
次に、ステップS62において、副画面領域検出部17は、幾何変換部12から供給される幾何変換されたフレーム画像を取り込む。
次に、ステップS63において、副画面領域検出部17は、モデル画像を参照画像として、テンプレートマッチング法によりフレーム画像と副画面領域との一致度を計算する。
次に、ステップS64において、一致度が閾値以下である場合(ステップS64:YES)、副画面領域検出部17は、フレーム画像に副画面領域が存在すると判定し、本フローチャートの処理を終了させる。一方、一致度が上記の閾値を超える場合(ステップS64:NO)、副画面領域検出部17は、ステップS62の処理に戻す。
[5.字幕情報の抽出処理]
字幕情報抽出部18は、副画面領域内の字幕領域において、字幕のテキストが所定時間静止しているか否かを判定する。例えば、字幕情報抽出部18は、最新のフレーム画像(現フレーム画像、第1のフレーム画像)と前回取り込んだフレーム画像(前フレーム画像、第2のフレーム画像)との一致度dtext(fi−1,f)を、下記の式(12)の差分二乗和によって求める。
ただし、fi−1は(i−1)番目のフレーム画像(前フレーム画像)、fはi番目のフレーム画像(現フレーム画像)である。また、Tは、モデル画像に含まれる字幕領域の画素集合である。
Figure 2013030963
字幕情報抽出部18は、一致度dtext(fi−1,f)とあらかじめ決定された閾値とを比較し、一致度dtext(fi−1,f)が所定時間分連続して閾値以下である場合、字幕領域内の字幕のテキストが静止していると判定する。
字幕情報抽出部18は、字幕領域内の静止した字幕のテキストの内容が、前回抽出したテキストの内容と異なるか否かを判定する。例えば、字幕情報抽出部18は、現フレーム画像と、前回、テキストを抽出したときのフレーム画像(テキスト有りフレーム画像)との一致度dtext(fprev,f)を、下記の式(13)の差分二乗和によって求める。
ただし、fprevは、テキスト有りフレーム画像である。
Figure 2013030963
字幕情報抽出部18は、一致度dtext(fprev,f)とあらかじめ決定された閾値とを比較し、一致度dtext(fprev,f)が閾値を超える場合、字幕のテキストの内容が、前回抽出したテキストの内容と異なると判定する。
文字情報抽出部18は、最新のテキストが含まれる字幕領域について文字認識処理を実行し、その字幕領域から文字列データ(一文字の場合を含む)を抽出する。例えば、文字情報抽出部18は、最新のテキストが含まれる字幕領域から文字単位で領域(文字領域)を抽出し、この文字領域について様々なテンプレート文字とのマッチングを試行することによって、文字を認識する。そして、文字情報抽出部18は、その文字認識処理をテキスト内の全ての文字に対して実行し、文字列データを字幕のテキストとして抽出する。
文字情報抽出部18は、字幕のテキストと現在時刻を示す時刻情報とを対応付け、字幕情報として出力する。
図11および図12は、文字情報抽出部18が実行する、字幕情報の抽出処理の手順を示すフローチャートである。
図11のステップS71において、文字情報抽出部18は、変数kを初期化する。この変数kは、字幕領域内のテキストが静止しているか否かを検出するために用いられるものである。
次に、ステップS72において、文字情報抽出部18は、幾何変換されたフレーム画像を取り込む。
次に、ステップS73において、文字情報抽出部18は、バッファから前フレーム画像を読み込む。
次に、ステップS74において、文字情報抽出部18は、テンプレートマッチング法によりフレーム画像と前フレーム画像との一致度を計算する。
次に、ステップS75において、一致度が閾値以下である場合(ステップS75:YES)、文字情報抽出部18はステップS77の処理に移し、一致度が上記の閾値を超える場合(ステップS75:NO)、文字情報抽出部18はステップS76の処理に移す。
ステップS76において、文字情報抽出部18は、現フレーム画像をバッファに記憶させて、ステップS72の処理に戻す。
一方、ステップS77において、文字情報抽出部18は、変数kに1を加算する。そして、ステップS78において、文字情報抽出部18は、変数kと閾値とを比較し、変数kがこの閾値よりも大きい場合は、図12のステップS79の処理に移し、変数kがその閾値以下である場合は、ステップS72の処理に戻す。
図12のステップS79において、字幕情報抽出部18は、バッファからテキスト有りフレーム画像を読み込む。
次に、ステップS80において、字幕情報抽出部18は、テンプレートマッチング法により現フレーム画像とテキスト有りフレーム画像との一致度を計算する。
次に、ステップS81において、一致度が閾値を超える場合(ステップS81:YES)、文字情報抽出部18はステップS82の処理に移し、一致度が上記の閾値以下である場合(ステップS81:NO)、文字情報抽出部18はステップS71の処理に戻す。
ステップS82において、文字情報抽出部18は、字幕領域について文字認識処理を実行し、その字幕領域から文字列データ(一文字の場合を含む)を抽出する。
次に、ステップS83において、文字情報抽出部18は、字幕のテキストと現在時刻を示す時刻情報とを対応付け、字幕情報として出力する。
次に、文字情報抽出部18は、ステップS71の処理に戻す。
[第2の実施形態]
上述した第1の実施形態では、副画面領域の字幕領域に表示される字幕のテキストが、例えば、左方向に1字幕領域分スクロールされて所定時間静止することが繰り返されるものとした。本発明の第2実施形態は、字幕のテキストが静止することなく、連続してスクロールされる例である。
第2実施形態である映像字幕検出装置の機能構成は、第1実施形態である映像字幕検出装置10と同一であるため、各構成の説明を省略する。
第2実施形態では、字幕情報抽出部18の動作が第1実施形態と異なる。
図13は、第2実施形態における文字情報抽出部18が実行する、字幕情報の抽出処理の手順を示すフローチャートである。
S101において、文字情報抽出部18は、幾何変換されたフレーム画像を所定フレーム(例えば、数秒間に相当するフレーム数)おきに取り込む。
次に、S102において、文字情報抽出部18は、字幕領域について文字認識処理を実行する。
次に、S103において、文字情報抽出部18は、文字認識処理の結果に基づいて、字幕領域から文字情報(一文字または文字列の情報)を抽出した場合(S103:YES)はステップS104の処理に移し、文字情報を抽出しなかった場合(S103:NO)はステップS101の処理に戻す。
ステップS104において、文字情報抽出部18は、バッファに記憶されている文字情報を読み込む。
次に、ステップS105において、文字情報抽出部18は、ステップS102の処理において抽出した文字情報と、ステップS104の処理においてバッファから読み込んだ文字情報との差分を抽出する。
次に、ステップS106において、文字情報抽出部18は、差分の文字情報を、バッファの文字情報に追加して記憶させる。
次に、ステップS107において、文字情報抽出部18は、所定文字数分の文字情報がバッファに記憶された場合はステップS108の処理に移し、所定文字数分の文字情報がバッファに記憶されていない場合はステップS101に戻す。所定文字数は、例えば、一字幕領域に表示される文字数である。
ステップS108において、文字情報抽出部18は、字幕のテキストと現在時刻を示す時刻情報とを対応付け、字幕情報として出力する。
次に、ステップS109において、文字情報抽出部18は、バッファの内容を削除し、ステップS101の処理に戻す。
以上、詳述したとおり、本発明の第1実施形態および第2実施形態による映像字幕検出装置10は、テレビジョン受像機に表示される、番組映像と字幕映像とを含んだ字幕付テレビ映像を撮影したビデオカメラから供給される撮影映像データを取り込む。そして、映像字幕検出装置10は、撮影映像データのフレーム画像から字幕領域の位置および範囲を推定し、この字幕領域に表示される字幕のテキストを検出する。そして、映像字幕検出装置10は、字幕のテキストと現在時刻を示す時刻情報とを対応付けた字幕情報を生成し、この字幕情報を出力する。
このように構成したことにより、映像字幕検出装置10によれば、番組映像と字幕映像とを含む映像から、容易に字幕を検出しそのテキスト情報を取得することができる。
また、第1実施形態による映像字幕検出装置10は、副画面領域内の字幕領域において、字幕のテキストが所定時間静止しているか否かを判定し、テキストが静止していることを確認してテキストを抽出する。このように構成したことにより、映像字幕検出装置10は、例えば、一方向(例えば左方向)に1字幕領域分スクロールされたのち所定時間静止することが繰り返される字幕について、字幕が静止するたびにテキストを抽出するため、字幕の文字を漏らさず抽出することができる。
また、第2実施形態による映像字幕検出装置10は、所定フレームおきにフレーム画像を、取り込み文字認識処理を行って文字情報を取得し、この文字情報と既に取り込んである文字情報との差分を抽出する。そして、映像字幕検出装置10は、取り込み済みである文字情報に差分を追加する。このように構成したことにより、映像字幕検出装置10は、字幕のテキストが静止することなく、連続してスクロールされる字幕について、間欠的にテキストを抽出するため、字幕の文字を漏らさず抽出することができる。
なお、第1実施形態および第2実施形態では、フレーム画像における主画面領域および副画面領域の構成を、図2に示す構成とした。画面構成は、この例に限らず、例えば図14(a)〜(i)および図15(a)〜(d)に示すものとしてもよい。これら図14および図15の各図においては、オフセット領域の図示を省略している。
なお、図14(a)に示す画面構成は、図2のものと同一である。
また、上述した実施形態である映像字幕検出装置10の一部の機能をコンピュータで実現するようにしてもよい。この場合、その制御機能を実現するためのプログラム(映像字幕検出プログラム)をコンピュータ読み取り可能な記録媒体に記録し、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませて、このコンピュータシステムが実行することによって実現してもよい。なお、このコンピュータシステムとは、オペレーティング・システム(Operating System;OS)や周辺装置のハードウェアを含むものである。また、コンピュータ読み取り可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリカード等の可搬型記録媒体、コンピュータシステムに備えられる磁気ハードディスクやソリッドステートドライブ等の記憶装置のことをいう。さらに、コンピュータ読み取り可能な記録媒体とは、インターネット等のコンピュータネットワーク、および電話回線や携帯電話網を介してプログラムを送信する場合の通信回線のように、短時間の間、動的にプログラムを保持するもの、さらには、その場合のサーバ装置やクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでもよい。また上記のプログラムは、前述した機能の一部を実現するためのものであってもよく、さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせにより実現するものであってもよい。
以上、本発明の実施の形態について図面を参照して詳述したが、具体的な構成はその実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。
10 映像字幕検出装置
11 超解像処理部
12 幾何変換部(テレビ画面領域検出部)
13 副画面領域推定部(字幕画面領域推定部)
14 字幕領域推定部
15 モデル画像生成部
16 モデル画像記憶部
17 副画面領域検出部(字幕画面領域検出部)
18 字幕情報抽出部

Claims (5)

  1. 番組映像および字幕映像を含むテレビ映像を撮影して得られた撮影映像データを取り込み、前記撮影映像データのフレーム画像から直線成分を検出し、前記直線成分によって形成される矩形に基づいて、前記フレーム画像からテレビ画面領域を検出するテレビ画面領域検出部と、
    前記テレビ画面領域検出部が検出した前記テレビ画面領域から画像のエッジを検出し、前記画像のエッジの分布に基づいて、前記フレーム画像から前記字幕映像に対応する字幕画面領域を推定する字幕画面領域推定部と、
    前記字幕画面領域推定部が推定した前記字幕画面領域から時間方向の画素の変化を検出し、前記画素の変化に基づいて字幕のテキストを含む字幕領域を推定する字幕領域推定部と、
    前記撮影映像データを取り込み、前記字幕画面領域推定部が推定した前記字幕画面領域に基づいて、前記撮影映像データのフレーム画像から前記字幕画面領域を検出する字幕画面領域検出部と、
    前記字幕画面領域検出部が検出した前記字幕画面領域を含むフレーム画像における、前記字幕領域推定部が推定した前記字幕領域から字幕のテキストを抽出し、前記字幕のテキストと現在時刻を示す時刻情報とを対応付けた字幕情報を生成し、前記字幕情報を出力する字幕情報抽出部と、
    を備えることを特徴とする映像字幕検出装置。
  2. 前記字幕情報抽出部は、
    前記字幕画面領域検出部が検出した前記字幕画面領域を含む第1のフレーム画像における、前記字幕領域推定部が推定した前記字幕領域と、前記第1のフレーム画像よりも前の時刻の第2のフレーム画像における前記字幕領域との比較に基づいて、前記第1のフレーム画像における前記字幕領域から字幕のテキストを抽出する
    ことを特徴とする請求項1記載の映像字幕検出装置。
  3. 前記字幕情報抽出部は、
    前記第1のフレーム画像における字幕領域と前記第2のフレーム画像における字幕領域との比較に基づいて、字幕のテキストが静止しているか否かを判定し、前記字幕のテキストが静止している場合に、前記第1のフレーム画像における前記字幕領域から字幕のテキストを抽出する
    ことを特徴とする請求項2記載の映像字幕検出装置。
  4. 前記字幕情報抽出部は、
    前記字幕画面領域検出部が検出した前記字幕画面領域から第1のテキストを抽出し、この第1のテキストと、既に抽出された第2のテキストとの差分を抽出し、この差分を前記第2のテキストに追加することによって前記字幕のテキストを取得する
    ことを特徴とする請求項2記載の映像字幕検出装置。
  5. コンピュータを、
    番組映像および字幕映像を含むテレビ映像を撮影して得られた撮影映像データを取り込み、前記撮影映像データのフレーム画像から直線成分を検出し、前記直線成分によって形成される矩形に基づいて、前記フレーム画像からテレビ画面領域を検出するテレビ画面領域検出部と、
    前記テレビ画面領域検出部が検出した前記テレビ画面領域から画像のエッジを検出し、前記画像のエッジの分布に基づいて、前記フレーム画像から前記字幕映像に対応する字幕画面領域を推定する字幕画面領域推定部と、
    前記字幕画面領域推定部が推定した前記字幕画面領域から時間方向の画素の変化を検出し、前記画素の変化に基づいて字幕のテキストを含む字幕領域を推定する字幕領域推定部と、
    前記撮影映像データを取り込み、前記字幕画面領域推定部が推定した前記字幕画面領域に基づいて、前記撮影映像データのフレーム画像から前記字幕画面領域を検出する字幕画面領域検出部と、
    前記字幕画面領域検出部が検出した前記字幕画面領域を含むフレーム画像における、前記字幕領域推定部が推定した前記字幕領域から字幕のテキストを抽出し、前記字幕のテキストと現在時刻を示す時刻情報とを対応付けた字幕情報を生成し、前記字幕情報を出力する字幕情報抽出部と、
    して機能させるためのプログラム。
JP2011165367A 2011-07-28 2011-07-28 映像字幕検出装置およびそのプログラム Expired - Fee Related JP5677229B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011165367A JP5677229B2 (ja) 2011-07-28 2011-07-28 映像字幕検出装置およびそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011165367A JP5677229B2 (ja) 2011-07-28 2011-07-28 映像字幕検出装置およびそのプログラム

Publications (2)

Publication Number Publication Date
JP2013030963A true JP2013030963A (ja) 2013-02-07
JP5677229B2 JP5677229B2 (ja) 2015-02-25

Family

ID=47787583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011165367A Expired - Fee Related JP5677229B2 (ja) 2011-07-28 2011-07-28 映像字幕検出装置およびそのプログラム

Country Status (1)

Country Link
JP (1) JP5677229B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016004332A (ja) * 2014-06-13 2016-01-12 オムロン株式会社 モデル画像生成装置及びモデル画像生成方法
JP2016531512A (ja) * 2013-12-04 2016-10-06 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 動画画面の処理方法及び装置
JP2018085652A (ja) * 2016-11-24 2018-05-31 株式会社東芝 情報取得装置及び情報取得方法
CN108769776A (zh) * 2018-05-31 2018-11-06 北京奇艺世纪科技有限公司 标题字幕检测方法、装置及电子设备
CN109040825A (zh) * 2018-10-29 2018-12-18 北京奇艺世纪科技有限公司 一种字幕截取方法及装置
CN109348289A (zh) * 2018-11-15 2019-02-15 北京奇艺世纪科技有限公司 新闻节目的标题提取方法及装置
JP2019125202A (ja) * 2018-01-17 2019-07-25 日本電信電話株式会社 検出装置、検出方法およびプログラム
CN113873221A (zh) * 2021-08-27 2021-12-31 深圳市九洲电器有限公司 字幕失真性检测方法、多媒体终端、服务器以及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285716A (ja) * 2000-01-24 2001-10-12 Toshiba Corp テロップ情報処理装置及びテロップ情報表示装置
US20020037104A1 (en) * 2000-09-22 2002-03-28 Myers Gregory K. Method and apparatus for portably recognizing text in an image sequence of scene imagery
JP2004064431A (ja) * 2002-07-29 2004-02-26 Sony Corp 文字情報検出装置及び文字情報検出方法、並びにプログラム及び記録媒体
JP2007074091A (ja) * 2005-09-05 2007-03-22 Pioneer Electronic Corp テロップ検出装置及び方法並びにレコーダ
JP2009017325A (ja) * 2007-07-06 2009-01-22 Hitachi Ltd テロップ文字領域抽出装置及び方法
JP2009206736A (ja) * 2008-02-27 2009-09-10 Nec Corp 映像表示装置および映像表示方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285716A (ja) * 2000-01-24 2001-10-12 Toshiba Corp テロップ情報処理装置及びテロップ情報表示装置
US20020037104A1 (en) * 2000-09-22 2002-03-28 Myers Gregory K. Method and apparatus for portably recognizing text in an image sequence of scene imagery
JP2004064431A (ja) * 2002-07-29 2004-02-26 Sony Corp 文字情報検出装置及び文字情報検出方法、並びにプログラム及び記録媒体
JP2007074091A (ja) * 2005-09-05 2007-03-22 Pioneer Electronic Corp テロップ検出装置及び方法並びにレコーダ
JP2009017325A (ja) * 2007-07-06 2009-01-22 Hitachi Ltd テロップ文字領域抽出装置及び方法
JP2009206736A (ja) * 2008-02-27 2009-09-10 Nec Corp 映像表示装置および映像表示方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016531512A (ja) * 2013-12-04 2016-10-06 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 動画画面の処理方法及び装置
US9973793B2 (en) 2013-12-04 2018-05-15 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for processing video image
JP2016004332A (ja) * 2014-06-13 2016-01-12 オムロン株式会社 モデル画像生成装置及びモデル画像生成方法
JP2018085652A (ja) * 2016-11-24 2018-05-31 株式会社東芝 情報取得装置及び情報取得方法
JP2019125202A (ja) * 2018-01-17 2019-07-25 日本電信電話株式会社 検出装置、検出方法およびプログラム
CN108769776A (zh) * 2018-05-31 2018-11-06 北京奇艺世纪科技有限公司 标题字幕检测方法、装置及电子设备
CN108769776B (zh) * 2018-05-31 2021-03-19 北京奇艺世纪科技有限公司 标题字幕检测方法、装置及电子设备
CN109040825A (zh) * 2018-10-29 2018-12-18 北京奇艺世纪科技有限公司 一种字幕截取方法及装置
CN109348289A (zh) * 2018-11-15 2019-02-15 北京奇艺世纪科技有限公司 新闻节目的标题提取方法及装置
CN109348289B (zh) * 2018-11-15 2021-08-24 北京奇艺世纪科技有限公司 新闻节目的标题提取方法及装置
CN113873221A (zh) * 2021-08-27 2021-12-31 深圳市九洲电器有限公司 字幕失真性检测方法、多媒体终端、服务器以及存储介质

Also Published As

Publication number Publication date
JP5677229B2 (ja) 2015-02-25

Similar Documents

Publication Publication Date Title
JP5677229B2 (ja) 映像字幕検出装置およびそのプログラム
US9905031B2 (en) Method and related apparatus for capturing and processing image data
AU2013276984B2 (en) Display apparatus and method for video calling thereof
JP5450739B2 (ja) 画像処理装置及び画像表示装置
KR102124617B1 (ko) 이미지 합성 방법 및 그 전자 장치
CN108141568B (zh) Osd信息生成摄像机、合成终端设备及共享系统
CN105611373B (zh) 视频图像处理方法及装置
JP6622650B2 (ja) 情報処理装置及びその制御方法、撮影システム
US20110169976A1 (en) Efficient, user-friendly system to stream screens inside video using a mobile device
Visentini-Scarzanella et al. Video jitter analysis for automatic bootleg detection
JP2007019671A (ja) 画像通信システム及び画像処理プログラム
JP2013172446A (ja) 情報処理装置、端末装置、撮像装置、情報処理方法、及び撮像装置における情報提供方法
US9996743B2 (en) Methods, systems, and media for detecting gaze locking
JP2012203823A (ja) 画像認識装置
CN113805824B (zh) 电子装置以及在显示设备上显示图像的方法
JP4898655B2 (ja) 撮像装置及び画像合成プログラム
US10990802B2 (en) Imaging apparatus providing out focusing and method for controlling the same
CN115334241B (zh) 对焦控制方法、装置、存储介质及摄像设备
KR101468347B1 (ko) 이미지 내 가상 시각 정보를 식별하는 방법 및 장치
US11195298B2 (en) Information processing apparatus, system, method for controlling information processing apparatus, and non-transitory computer readable storage medium
CN105611380A (zh) 视频图像处理方法及装置
CN114647983A (zh) 显示设备及基于人像的距离检测方法
CN114092323A (zh) 图像处理方法、装置、存储介质及电子设备
Lee et al. DCT-domain image registration techniques for compressed video
US20230306698A1 (en) System and method to enhance distant people representation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141226

R150 Certificate of patent or registration of utility model

Ref document number: 5677229

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees