JP2013247611A - Closed caption broadcast output device, method and program - Google Patents
Closed caption broadcast output device, method and program Download PDFInfo
- Publication number
- JP2013247611A JP2013247611A JP2012121813A JP2012121813A JP2013247611A JP 2013247611 A JP2013247611 A JP 2013247611A JP 2012121813 A JP2012121813 A JP 2012121813A JP 2012121813 A JP2012121813 A JP 2012121813A JP 2013247611 A JP2013247611 A JP 2013247611A
- Authority
- JP
- Japan
- Prior art keywords
- closed caption
- video
- data
- area
- video data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、字幕放送を出力する技術に関する。 The present invention relates to a technique for outputting a caption broadcast.
テレビの字幕放送には、オープンキャプションとクローズドキャプションの2種類がある。オープンキャプションは、映像信号に予め含まれた状態で送信されるテロップ等の文字情報であり、受信機側でその表示非表示を選択等制御することはできない。これに対しクローズドキャプションは、映像信号とは別に同期的に送信される文字情報であることから、受信機であるデジタルテレビでその制御が可能であり、オンオフ操作に応じて映像に重ねて表示又は非表示することができる。 There are two types of TV subtitle broadcasting: open captions and closed captions. The open caption is character information such as a telop transmitted in a state included in the video signal in advance, and the display side cannot be selected or controlled on the receiver side. On the other hand, closed captions are character information that is transmitted synchronously separately from the video signal, and can be controlled by a digital television as a receiver. Can be hidden.
クローズドキャプションの表示方法は、放送波に含まれる字幕信号(クローズドキャプションデータ)内の文字表示情報(文字コード、フォントサイズ、文字色、表示位置等)に基づいて決定される。特にその表示位置は、映像にオープンキャプションが含まれる場合、そのオープンキャプションと重ならないように指定される。例えば、画面下部にオープンキャプションが含まれる映像の場合、クローズドキャプションを画面中央に表示するような位置座標が指定されている(非特許文献1参照)。 The closed caption display method is determined based on character display information (character code, font size, character color, display position, etc.) in the caption signal (closed caption data) included in the broadcast wave. In particular, the display position is designated not to overlap the open caption when the video includes an open caption. For example, in the case of a video in which an open caption is included in the lower part of the screen, a position coordinate that displays a closed caption in the center of the screen is designated (see Non-Patent Document 1).
また、字幕が生放送中にリアルタイム生成・送信されるような場合には、不適切な位置座標の指定により、それら2つのキャプションが重なることもある。このような場合、放送波に含まれる字幕信号を受信機側で受信したタイミングで、その時点の画像情報に対してOCR処理を行い、クローズドキャプションの表示位置を自動変更することにより、その重なりを回避することができる(特許文献1参照) In addition, when captions are generated and transmitted in real time during live broadcasting, these two captions may overlap due to an inappropriate designation of position coordinates. In such a case, at the timing when the subtitle signal included in the broadcast wave is received on the receiver side, OCR processing is performed on the image information at that time, and the display position of the closed caption is automatically changed, thereby overlapping the overlap. Can be avoided (see Patent Document 1)
しかしながら、それら2種類のキャプションの重なりを回避することにより、クローズドキャプションが映像中の重要領域(被写体の顔等)に重なってしまうため、視聴ユーザに対してかえって煩わしさを感じさせてしまうという問題があった。 However, by avoiding overlapping of these two types of captions, closed captions overlap important areas in the video (such as the face of the subject), which makes viewers feel more annoying. was there.
このような問題に対し、クローズドキャプションを表示する際に重要領域を考慮することも考えらえられる。しかし、同一内容のクローズドキャプションは一定時間継続して表示される(例えば、映像中で発話された内容や発せられた効果音が、その発話者が発話している間や効果音が続いている間、数秒間に渡って表示される)ことから、その時間内に表示される映像データのうち先頭フレーム内の重要領域への重畳は回避できるものの、図6に示すように、同時間内で重要領域Rが移動する(Ra→Rb→Rc)ことにより、クローズドキャプションCCが重要領域Rに重なってしまう可能性がある。 For such a problem, it is conceivable to consider an important area when displaying a closed caption. However, closed captions with the same content are displayed continuously for a certain period of time (for example, the content spoken in the video or the sound effect that was uttered while the speaker is speaking or the sound effect continues) Therefore, it is possible to avoid the superimposition on the important area in the first frame of the video data displayed within that time, but as shown in FIG. When the important region R moves (Ra → Rb → Rc), the closed caption CC may overlap the important region R.
本発明は、上記を鑑みてなされたものであり、その課題とするところは、クローズドキャプションと映像中の重要領域との重なりを確実に回避することにある。 The present invention has been made in view of the above, and it is an object of the present invention to reliably avoid the overlap between the closed caption and the important area in the video.
請求項1記載の字幕放送出力装置は、入力された映像データを記憶する映像記憶手段と、前記映像データ用のクローズドキャプションデータを記憶するクローズドキャプション記憶手段と、前記映像記憶手段から映像データを読み出して、同一内容のクローズドキャプションが表示される時間内の映像データから所定の重要領域とその移動域を算出し、それら以外の領域に前記クローズドキャプションを表示可能な表示位置を計算する映像解析手段と、前記クローズドキャプションの表示位置を用いて前記クローズドキャプションデータを再生成するクローズドキャプションデータ再生成手段と、再生成後のクローズドキャプションデータに基づくクローズドキャプションを前記映像データに合成した映像データを出力する映像・クローズドキャプション合成手段と、を有することを特徴とする。 The caption broadcast output device according to claim 1, wherein video storage means for storing input video data, closed caption storage means for storing closed caption data for the video data, and video data is read from the video storage means. Video analysis means for calculating a predetermined important area and its movement area from video data within a time period when closed captions having the same content are displayed, and calculating a display position where the closed caption can be displayed in other areas; A closed caption data regenerating unit that regenerates the closed caption data using the display position of the closed caption, and a video that outputs video data obtained by synthesizing the closed caption based on the regenerated closed caption data with the video data ·closed And having a Yapushon synthesizing means.
請求項2記載の字幕放送出力装置は、請求項1記載の字幕放送出力装置において、前記映像解析手段は、前記時間内の映像データから複数の処理対象フレームを決定する対象フレーム算出手段と、前記複数の処理対象フレームから前記重要領域をそれぞれ算出する重要領域算出手段と、算出された全ての重要領域を合算し、クローズドキャプション非表示領域とするクローズドキャプション非表示領域算出手段と、前記クローズドキャプション非表示領域以外の領域に前記クローズドキャプションを表示可能な表示位置を決定するクローズドキャプション新位置情報算出手段と、を有することを特徴とする。 The caption broadcast output device according to claim 2 is the caption broadcast output device according to claim 1, wherein the video analysis means includes target frame calculation means for determining a plurality of processing target frames from the video data within the time, and An important area calculating means for calculating each of the important areas from a plurality of processing target frames; a closed caption non-display area calculating means for adding all the calculated important areas as a closed caption non-display area; and the closed caption non-display. Closed caption new position information calculating means for determining a display position where the closed caption can be displayed in an area other than the display area.
請求項3記載の字幕放送出力方法は、コンピュータにより、入力された映像データを映像記憶手段に記憶する映像記憶ステップと、前記映像データ用のクローズドキャプションデータをクローズドキャプション記憶手段に記憶するクローズドキャプション記憶ステップと、前記映像記憶手段から映像データを読み出して、同一内容のクローズドキャプションが表示される時間内の映像データから所定の重要領域とその移動域を算出し、それら以外の領域に前記クローズドキャプションを表示可能な表示位置を計算する映像解析ステップと、前記クローズドキャプションの表示位置を用いて前記クローズドキャプションデータを再生成するクローズドキャプションデータ再生成ステップと、再生成後のクローズドキャプションデータに基づくクローズドキャプションを前記映像データに合成した映像データを出力する映像・クローズドキャプション合成ステップと、を有することを特徴とする。 The subtitle broadcast output method according to claim 3 is a video storage step of storing input video data in video storage means by a computer, and closed caption storage for storing the closed caption data for the video data in closed caption storage means. Reading out video data from the video storage means, calculating a predetermined important area and its moving area from video data within a time when the closed caption of the same content is displayed, and applying the closed caption to other areas A video analysis step for calculating a display position that can be displayed, a closed caption data regeneration step for regenerating the closed caption data using the display position of the closed caption, and a caption based on the closed caption data after the regeneration. And having video-closed caption synthesizing step of outputting the video data to over Zudo caption synthesized to the video data.
請求項4記載の字幕放送出力方法は、請求項3記載の字幕放送出力方法において、前記映像解析ステップは、前記時間内の映像データから複数の処理対象フレームを決定する対象フレーム算出ステップと、前記複数の処理対象フレームから前記重要領域をそれぞれ算出する重要領域算出ステップと、算出された全ての重要領域を合算し、クローズドキャプション非表示領域とするクローズドキャプション非表示領域算出ステップと、前記クローズドキャプション非表示領域以外の領域に前記クローズドキャプションを表示可能な表示位置を決定するクローズドキャプション新位置情報算出ステップと、を有することを特徴とする。 The subtitle broadcast output method according to claim 4 is the subtitle broadcast output method according to claim 3, wherein the video analysis step includes a target frame calculation step of determining a plurality of processing target frames from the video data within the time, and An important area calculating step for calculating the important areas from a plurality of processing target frames; a closed caption non-display area calculating step for adding all the calculated important areas to form a closed caption non-display area; and A closed caption new position information calculating step for determining a display position where the closed caption can be displayed in an area other than the display area.
請求項5記載の字幕放送出力プログラムは、請求項3又は4記載の字幕放送出力方法をコンピュータに実行させることを特徴とする。 A subtitle broadcast output program according to claim 5 causes a computer to execute the subtitle broadcast output method according to claim 3 or 4.
以上より、本発明によれば、同一内容のクローズドキャプションが表示される時間内の映像データから所定の重要領域とその移動域を算出し、それら以外の領域にクローズドキャプションを出力させるため、クローズドキャプションと映像中の重要領域との重なりを確実に回避することができる。 As described above, according to the present invention, a predetermined important area and its moving area are calculated from video data within the time when the closed caption of the same content is displayed, and the closed caption is output to other areas. And an important area in the video can be surely avoided.
本発明によれば、クローズドキャプションと映像中の重要領域との重なりを確実に回避することができる。 According to the present invention, it is possible to reliably avoid the overlap between the closed caption and the important area in the video.
本発明は、記憶手段に一旦記憶された映像データ及びクローズドキャプションデータを利用し、クローズドキャプション表示時間内に流れる映像の重要度が高い領域とその移動域を算出し、その領域を避けてクローズドキャプションを画面に出力することを主たる特徴とする。 The present invention uses the video data and the closed caption data once stored in the storage means, calculates a region where the importance of the video flowing within the closed caption display time and its moving region are calculated, and avoids the region by using the closed caption. Is the main feature.
以下、本発明を実施する一実施の形態について図面を用いて説明する。但し、本発明は多くの異なる様態で実施することが可能であり、本実施の形態の記載内容に限定して解釈すべきではない。 Hereinafter, an embodiment for carrying out the present invention will be described with reference to the drawings. However, the present invention can be implemented in many different modes and should not be construed as being limited to the description of the present embodiment.
図1は、本実施の形態に係る字幕放送出力装置100の機能ブロック構成を示す図である。本字幕放送出力装置100は、入力された映像データを記憶する映像記憶部11と、その映像データ用のクローズドキャプションデータを記憶するクローズドキャプション記憶部12と、同一内容のクローズドキャプションが表示される時間内の映像データから所定の重要領域とその移動域を算出し、それら以外の画面領域にクローズドキャプションを表示可能な表示位置を計算する映像解析部13と、計算されたクローズドキャプションの表示位置を用いてクローズドキャプションデータを再生成するクローズドキャプションデータ再生成部14と、再生成後のクローズドキャプションデータに基づくクローズドキャプションを映像データに合成した映像データを画面に出力する映像・クローズドキャプション合成部15と、を主に備える。
FIG. 1 is a diagram illustrating a functional block configuration of a caption
尚、本字幕放送出力装置100は、例えばデジタルテレビ上で動作可能であって、メモリ等の記憶手段、CPU等の計算・制御手段、モニタ等の画面表示手段を具備するコンピュータで実現できる。また、本装置100を構成する上記各機能部11〜15の処理はプログラムによって実行される。
Note that the caption
次に、字幕放送出力装置100の動作を説明する。
Next, the operation of the caption
最初に、映像記憶部11により、字幕放送出力装置100に入力された映像データが記憶され、クローズドキャプション記憶部12により、その映像データの入力と共に入力された当該映像データ用のクローズドキャプションデータが記憶される(ステップS101)。
First, the video data input to the subtitle
次に、映像解析部13により、映像記憶部11とクローズドキャプション記憶部12から映像データとクローズドキャプションデータがそれぞれ読み出され、同じ内容のクローズドキャプションが表示される時間(以下、CC区間)毎に各CC区間内の映像データから重要領域がそれぞれ算出され、その算出結果に基づいて各CC区間内でのクローズドキャプションの表示位置がそれぞれ決定される(ステップS102)。
Next, the
ここで、図2と図3を参照しながら本ステップの処理を以下詳述する。図2は、映像解析部13の機能ブロック構成を示す図である。図3は、映像解析部13の動作を説明する際の参照図である。
Here, the processing of this step will be described in detail with reference to FIG. 2 and FIG. FIG. 2 is a diagram illustrating a functional block configuration of the
まず、対象フレーム算出部13aにより、クローズドキャプション記憶部12から出力されたCC区間情報に基づいて各CC区間に対応するフレームが映像データから割り出され、その中から処理対象とされる複数のフレームが決定される(ステップS102−1)。尚、本処理対象フレームは、CC区間内の全てのフレームを対象としてもよいし、例えば1秒毎や0.5秒毎の各フレームを対象として選定してもよい。
First, the frame corresponding to each CC section is determined from the video data based on the CC section information output from the closed
次に、重要領域算出部13bにより、処理対象とされた複数のフレームから映像の重要度が高い領域がそれぞれ算出される(ステップS102−2)。尚、本重要領域は任意であるが、例えば、被写体の顔領域やオープンキャプションの表示領域が例とされる。
Next, the important
被写体の顔領域を算出する方法としては、例えば、顔の向きに応じた特徴量を抽出しておき、その特徴量を用いて入力画像内の領域と類似度計算を行い、その計算結果に基づいて入力画像内の顔領域を認識する方法がある(特開2009−157766号公報参照)。 As a method for calculating the face area of the subject, for example, a feature amount corresponding to the orientation of the face is extracted, the similarity is calculated with the region in the input image using the feature amount, and based on the calculation result There is a method for recognizing a face area in an input image (see JP 2009-157766 A).
また、オープンキャプションの表示領域を算出する方法としては、例えば、映像データ中の個々の文字表示シーンから文字らしさ特徴を計算し、その文字らしさ特徴に対応するパラメータセットを用いて文字を認識する方法がある(特開2007−164253号公報参照)。通常、オープンキャプションの表示位置は映像表示中に変化しないことから、例えば、画面枠から内側の一定幅内をその表示領域としてもよい。 Further, as a method of calculating the display area of the open caption, for example, a method of calculating character-like characteristics from individual character display scenes in video data and recognizing characters using a parameter set corresponding to the character-like characteristics (See JP 2007-164253 A). Normally, the display position of the open caption does not change during video display. For example, the display area may be within a certain width inside the screen frame.
尚、それら重要領域の算出方法は例であって、映像中に表示される特定の画像パターンを検出できる方法であればよい。 Note that these important area calculation methods are examples, and any method can be used as long as a specific image pattern displayed in the video can be detected.
次に、クローズドキャプション非表示領域算出部13cにより、処理対象フレーム毎に算出された全ての重要領域が合わせられ、クローズドキャプション非表示領域とされる(ステップS102−3)。
Next, the closed caption non-display
次に、クローズドキャプション新位置情報算出部13dにより、クローズドキャプション非表示領域以外の画像領域の中からクローズドキャプションを表示可能な位置座標が決定され、クローズドキャプション新位置情報としてCC区間情報と共にクローズドキャプションデータ再生成部14に送信される(ステップS102−4)。
Next, the closed caption new position
尚、その新たな位置座標を決定する方法は、クローズドキャプション非表示領域を避けるように表示可能であれば、その具体的方法は問わない。例えば、後述の図4や図5に示すように、予め指定された位置の上方もしくは下方に決定する方法等が考えられる。 The method for determining the new position coordinate is not particularly limited as long as it can be displayed so as to avoid the closed caption non-display area. For example, as shown in FIGS. 4 and 5 to be described later, a method of determining above or below a predetermined position is conceivable.
次に、図1に戻り、クローズドキャプションデータ再生成部14により、映像解析部13から出力されたクローズドキャプションの表示位置と、クローズドキャプション記憶部12から出力されたクローズドキャプションデータとを用いて、クローズドキャプションデータが再生成される(ステップS103)。
Next, returning to FIG. 1, the closed caption
具体的には、例えば、クローズドキャプションデータには文字表示情報(文字コード、フォントサイズ、文字色、表示位置等)が含まれることから、その文字表示情報内の表示位置が映像解析部13からの表示位置に更新される。
Specifically, for example, since the closed caption data includes character display information (character code, font size, character color, display position, etc.), the display position in the character display information is received from the
最後に、映像・クローズドキャプション合成部15により、再生成後のクローズドキャプションデータに基づいて表示されるクローズドキャプションが映像記憶部11から出力された映像データに合成され、その合成された新たな映像データが画面に出力される(ステップS104)。
Finally, the closed caption displayed based on the regenerated closed caption data is synthesized by the video / closed
以上説明した映像解析部13の処理は、字幕放送出力装置100内に映像データとクローズドキャプションデータを最初から最後まで全て記憶し終えてから開始してもよいし、それら各データの一部が記憶された際に所定のタイミングで逐次開始してもよい。
The processing of the
特に後者の場合、まず、映像記憶部11にT秒分の映像データを記録できる記憶域を設けておく。i番目のCC区間の開始点をSi秒、終止点をEi秒とすると、そのTの値をEi−Si≦Tとなるように設定すれば、時刻t=Eiの時にSiからEiの映像データが映像記憶部に記録11されていることになる。 Particularly in the latter case, first, a storage area capable of recording video data for T seconds is provided in the video storage unit 11. If the start point of the i-th CC section is Si seconds and the end point is Ei seconds, if the value of T is set so that Ei−Si ≦ T, the video data from Si to Ei at time t = Ei Is recorded 11 in the video storage unit.
そして、映像解析部13は、クローズドキャプション記憶部12から受け取ったi番目のCC区間情報をもとに時刻tがEiとなった時に、SiからEi内のフレームに対して上記の処理を開始する。
Then, when the time t becomes Ei based on the i-th CC section information received from the closed
この後者の方式を例えばデジタルテレビ放送に適用すると、通常、クローズドキャプションの表示時間は長くても10秒程度であるため、例えばT=15秒等と決めることができる。この場合、利用者は対象番組の終了を待つことなく、実際の放送時刻より15秒程度の遅れで映像中に含まれるテロップや被写体の顔部分等、映像の重要度が高い領域とその移動域を避けたクローズドキャプション表示により対象の番組映像を視聴することができる。 When this latter method is applied to, for example, digital television broadcasting, the closed caption display time is normally about 10 seconds at the longest, and therefore, for example, T = 15 seconds can be determined. In this case, the user can wait for the end of the target program without delaying the target program, and a region where the importance of the video is high, such as a telop or a face part of the subject included in the video with a delay of about 15 seconds from the actual broadcast time The target program video can be viewed with closed caption display that avoids the above.
以上説明した処理動作によれば、図4や図5に示すように、CC区間内において重要領域RがRa→Rb→Rcに移動しても、クローズドキャプションCCが当該重要領域Rに重畳することを回避することが可能となる。 According to the processing operation described above, as shown in FIGS. 4 and 5, even if the important region R moves from Ra → Rb → Rc in the CC section, the closed caption CC is superimposed on the important region R. Can be avoided.
すなわち、本実施の形態によれば、同一内容のクローズドキャプションが表示されるCC区間内の映像データから所定の重要領域とその移動域を算出し、それら以外の領域にクローズドキャプションを画面に出力させるので、クローズドキャプションと映像中の重要領域(人間の顔等の動きのある領域)との重なりを確実に回避することができる。 That is, according to the present embodiment, a predetermined important area and its moving area are calculated from video data in a CC section in which closed captions having the same content are displayed, and closed captions are output to the screen in other areas. Therefore, it is possible to reliably avoid the overlap between the closed caption and an important area (an area having movement such as a human face) in the video.
100…字幕放送出力装置
11…映像記憶部
12…クローズドキャプション記憶部
13…映像解析部
13a…対象フレーム算出部
13b…重要領域算出部
13c…クローズドキャプション非表示領域算出部
13d…クローズドキャプション新位置情報算出部
14…クローズドキャプションデータ再生成部
15…映像・クローズドキャプション合成部
S101〜S104、S102−1〜S102−4…ステップ
DESCRIPTION OF
Claims (5)
前記映像データ用のクローズドキャプションデータを記憶するクローズドキャプション記憶手段と、
前記映像記憶手段から映像データを読み出して、同一内容のクローズドキャプションが表示される時間内の映像データから所定の重要領域とその移動域を算出し、それら以外の領域に前記クローズドキャプションを表示可能な表示位置を計算する映像解析手段と、
前記クローズドキャプションの表示位置を用いて前記クローズドキャプションデータを再生成するクローズドキャプションデータ再生成手段と、
再生成後のクローズドキャプションデータに基づくクローズドキャプションを前記映像データに合成した映像データを出力する映像・クローズドキャプション合成手段と、
を有することを特徴とする字幕放送出力装置。 Video storage means for storing input video data;
Closed caption storage means for storing the closed caption data for the video data;
The video data is read from the video storage means, a predetermined important area and its moving area are calculated from the video data within the time when the closed caption of the same content is displayed, and the closed caption can be displayed in other areas Video analysis means for calculating the display position;
Closed caption data regenerating means for regenerating the closed caption data using the display position of the closed caption;
Video / closed caption synthesis means for outputting video data obtained by synthesizing the closed caption based on the closed caption data after regeneration with the video data;
A subtitle broadcast output device comprising:
前記時間内の映像データから複数の処理対象フレームを決定する対象フレーム算出手段と、
前記複数の処理対象フレームから前記重要領域をそれぞれ算出する重要領域算出手段と、
算出された全ての重要領域を合算し、クローズドキャプション非表示領域とするクローズドキャプション非表示領域算出手段と、
前記クローズドキャプション非表示領域以外の領域に前記クローズドキャプションを表示可能な表示位置を決定するクローズドキャプション新位置情報算出手段と、
を有することを特徴とする請求項1記載の字幕放送出力装置。 The video analysis means includes
Target frame calculation means for determining a plurality of processing target frames from the video data within the time;
Important area calculation means for calculating the important areas from the plurality of processing target frames, respectively;
A closed caption non-display area calculating means for adding all the calculated important areas and making it a closed caption non-display area;
Closed caption new position information calculating means for determining a display position where the closed caption can be displayed in an area other than the closed caption non-display area;
The subtitle broadcast output device according to claim 1, further comprising:
入力された映像データを映像記憶手段に記憶する映像記憶ステップと、
前記映像データ用のクローズドキャプションデータをクローズドキャプション記憶手段に記憶するクローズドキャプション記憶ステップと、
前記映像記憶手段から映像データを読み出して、同一内容のクローズドキャプションが表示される時間内の映像データから所定の重要領域とその移動域を算出し、それら以外の領域に前記クローズドキャプションを表示可能な表示位置を計算する映像解析ステップと、
前記クローズドキャプションの表示位置を用いて前記クローズドキャプションデータを再生成するクローズドキャプションデータ再生成ステップと、
再生成後のクローズドキャプションデータに基づくクローズドキャプションを前記映像データに合成した映像データを出力する映像・クローズドキャプション合成ステップと、
を有することを特徴とする字幕放送出力方法。 By computer
A video storage step for storing the input video data in the video storage means;
A closed caption storage step of storing the closed caption data for the video data in a closed caption storage means;
The video data is read from the video storage means, a predetermined important area and its moving area are calculated from the video data within the time when the closed caption of the same content is displayed, and the closed caption can be displayed in other areas A video analysis step for calculating the display position;
A closed caption data regeneration step for regenerating the closed caption data using a display position of the closed caption;
A video / closed caption synthesis step for outputting video data obtained by synthesizing the closed caption based on the closed caption data after regeneration with the video data;
A subtitle broadcast output method characterized by comprising:
前記時間内の映像データから複数の処理対象フレームを決定する対象フレーム算出ステップと、
前記複数の処理対象フレームから前記重要領域をそれぞれ算出する重要領域算出ステップと、
算出された全ての重要領域を合算し、クローズドキャプション非表示領域とするクローズドキャプション非表示領域算出ステップと、
前記クローズドキャプション非表示領域以外の領域に前記クローズドキャプションを表示可能な表示位置を決定するクローズドキャプション新位置情報算出ステップと、
を有することを特徴とする請求項3記載の字幕放送出力方法。 The video analysis step includes
A target frame calculation step of determining a plurality of processing target frames from the video data within the time; and
An important area calculation step of calculating the important areas from the plurality of processing target frames, respectively;
A closed caption non-display area calculating step for adding all the calculated important areas and setting it as a closed caption non-display area;
A closed caption new position information calculation step for determining a display position where the closed caption can be displayed in an area other than the closed caption non-display area;
The subtitle broadcast output method according to claim 3, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012121813A JP2013247611A (en) | 2012-05-29 | 2012-05-29 | Closed caption broadcast output device, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012121813A JP2013247611A (en) | 2012-05-29 | 2012-05-29 | Closed caption broadcast output device, method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013247611A true JP2013247611A (en) | 2013-12-09 |
Family
ID=49847052
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012121813A Pending JP2013247611A (en) | 2012-05-29 | 2012-05-29 | Closed caption broadcast output device, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013247611A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018519727A (en) * | 2015-11-06 | 2018-07-19 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | Method and device for displaying information on a video image |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009152807A (en) * | 2007-12-19 | 2009-07-09 | Sharp Corp | Digital broadcast receiver, digital broadcast receiving method, signal processing program, and program recording medium |
JP2010226351A (en) * | 2009-03-23 | 2010-10-07 | Fujitsu Ten Ltd | Video reproducing device |
-
2012
- 2012-05-29 JP JP2012121813A patent/JP2013247611A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009152807A (en) * | 2007-12-19 | 2009-07-09 | Sharp Corp | Digital broadcast receiver, digital broadcast receiving method, signal processing program, and program recording medium |
JP2010226351A (en) * | 2009-03-23 | 2010-10-07 | Fujitsu Ten Ltd | Video reproducing device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018519727A (en) * | 2015-11-06 | 2018-07-19 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | Method and device for displaying information on a video image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8875023B2 (en) | Thumbnail navigation bar for video | |
US20190289271A1 (en) | Touch optimized design for video editing | |
US20150381925A1 (en) | Smart pause for neutral facial expression | |
US8958686B2 (en) | Information processing device, synchronization method, and program | |
JP5239469B2 (en) | Information presenting apparatus and information presenting method | |
US20140355961A1 (en) | Using simple touch input to create complex video animation | |
US20140359448A1 (en) | Adding captions and emphasis to video | |
US8837912B2 (en) | Information processing apparatus, information processing method and program | |
CN104952471B (en) | A kind of media file synthetic method, device and equipment | |
US9966110B2 (en) | Video-production system with DVE feature | |
JP2014220724A (en) | Display controller, display control method and program | |
JP4504452B1 (en) | Video viewing apparatus, video playback control method, and recording / playback program | |
JP5067370B2 (en) | Reception device, display control method, and program | |
US20090214179A1 (en) | Display processing apparatus, control method therefor, and display processing system | |
CN105763923A (en) | Video and video template editing methods and device thereof | |
JP2010161493A (en) | Image display device and image display method | |
JP2014220722A (en) | Display controller, display control method and program | |
JP2013247611A (en) | Closed caption broadcast output device, method and program | |
JP5242762B2 (en) | Image reproducing apparatus, image reproducing method, and data structure | |
JP4539884B2 (en) | Reproducing apparatus, program, and method for constructing electronic screen | |
JP2009206986A (en) | Image output device and image output method | |
JP2009175467A (en) | Recording and reproducing device, and program | |
JP2009118204A (en) | Cm detection method and moving image reproduction apparatus using same | |
JP2013219639A (en) | Caption display device and program of the same | |
JP2014150314A (en) | Information processing device and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141017 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150924 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150929 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160209 |