JP2013247611A - Closed caption broadcast output device, method and program - Google Patents

Closed caption broadcast output device, method and program Download PDF

Info

Publication number
JP2013247611A
JP2013247611A JP2012121813A JP2012121813A JP2013247611A JP 2013247611 A JP2013247611 A JP 2013247611A JP 2012121813 A JP2012121813 A JP 2012121813A JP 2012121813 A JP2012121813 A JP 2012121813A JP 2013247611 A JP2013247611 A JP 2013247611A
Authority
JP
Japan
Prior art keywords
closed caption
video
data
area
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012121813A
Other languages
Japanese (ja)
Inventor
Misa Hirao
美佐 平尾
Yasuhiko Miyazaki
泰彦 宮崎
Takeshi Tono
豪 東野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012121813A priority Critical patent/JP2013247611A/en
Publication of JP2013247611A publication Critical patent/JP2013247611A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To securely avoid overlapping of a closed caption with an important area in an image.SOLUTION: A closed caption broadcast output device comprises: image storage means for storing inputted image data; closed caption storage means for storing closed caption data for the image data; image analysis means for reading the image data from the image storage means to calculate a predetermined important area and a moving area of the area from the image data within a period when a closed caption having the same content is displayed, to calculate a display position at which the closed caption can be displayed in an area other than these areas; closed caption data regeneration means for using the display position of the closed caption to regenerate the closed caption data; and image/closed caption combination means for outputting image data formed by combining a closed caption based on the regenerated closed caption data with the image data.

Description

本発明は、字幕放送を出力する技術に関する。   The present invention relates to a technique for outputting a caption broadcast.

テレビの字幕放送には、オープンキャプションとクローズドキャプションの2種類がある。オープンキャプションは、映像信号に予め含まれた状態で送信されるテロップ等の文字情報であり、受信機側でその表示非表示を選択等制御することはできない。これに対しクローズドキャプションは、映像信号とは別に同期的に送信される文字情報であることから、受信機であるデジタルテレビでその制御が可能であり、オンオフ操作に応じて映像に重ねて表示又は非表示することができる。   There are two types of TV subtitle broadcasting: open captions and closed captions. The open caption is character information such as a telop transmitted in a state included in the video signal in advance, and the display side cannot be selected or controlled on the receiver side. On the other hand, closed captions are character information that is transmitted synchronously separately from the video signal, and can be controlled by a digital television as a receiver. Can be hidden.

クローズドキャプションの表示方法は、放送波に含まれる字幕信号(クローズドキャプションデータ)内の文字表示情報(文字コード、フォントサイズ、文字色、表示位置等)に基づいて決定される。特にその表示位置は、映像にオープンキャプションが含まれる場合、そのオープンキャプションと重ならないように指定される。例えば、画面下部にオープンキャプションが含まれる映像の場合、クローズドキャプションを画面中央に表示するような位置座標が指定されている(非特許文献1参照)。   The closed caption display method is determined based on character display information (character code, font size, character color, display position, etc.) in the caption signal (closed caption data) included in the broadcast wave. In particular, the display position is designated not to overlap the open caption when the video includes an open caption. For example, in the case of a video in which an open caption is included in the lower part of the screen, a position coordinate that displays a closed caption in the center of the screen is designated (see Non-Patent Document 1).

また、字幕が生放送中にリアルタイム生成・送信されるような場合には、不適切な位置座標の指定により、それら2つのキャプションが重なることもある。このような場合、放送波に含まれる字幕信号を受信機側で受信したタイミングで、その時点の画像情報に対してOCR処理を行い、クローズドキャプションの表示位置を自動変更することにより、その重なりを回避することができる(特許文献1参照)   In addition, when captions are generated and transmitted in real time during live broadcasting, these two captions may overlap due to an inappropriate designation of position coordinates. In such a case, at the timing when the subtitle signal included in the broadcast wave is received on the receiver side, OCR processing is performed on the image information at that time, and the display position of the closed caption is automatically changed, thereby overlapping the overlap. Can be avoided (see Patent Document 1)

特開2004−208014号公報JP 2004-208014 A

門馬隆雄、外3名、「オフライン字幕制作実用システムにおける自動整形技術の開発」、2003年映像メディア学会冬季大会Takao Kadoma, 3 others, “Development of Automatic Formatting Technology for Offline Subtitle Production Practical System”, 2003 Video Media Society Winter Conference

しかしながら、それら2種類のキャプションの重なりを回避することにより、クローズドキャプションが映像中の重要領域(被写体の顔等)に重なってしまうため、視聴ユーザに対してかえって煩わしさを感じさせてしまうという問題があった。   However, by avoiding overlapping of these two types of captions, closed captions overlap important areas in the video (such as the face of the subject), which makes viewers feel more annoying. was there.

このような問題に対し、クローズドキャプションを表示する際に重要領域を考慮することも考えらえられる。しかし、同一内容のクローズドキャプションは一定時間継続して表示される(例えば、映像中で発話された内容や発せられた効果音が、その発話者が発話している間や効果音が続いている間、数秒間に渡って表示される)ことから、その時間内に表示される映像データのうち先頭フレーム内の重要領域への重畳は回避できるものの、図6に示すように、同時間内で重要領域Rが移動する(Ra→Rb→Rc)ことにより、クローズドキャプションCCが重要領域Rに重なってしまう可能性がある。   For such a problem, it is conceivable to consider an important area when displaying a closed caption. However, closed captions with the same content are displayed continuously for a certain period of time (for example, the content spoken in the video or the sound effect that was uttered while the speaker is speaking or the sound effect continues) Therefore, it is possible to avoid the superimposition on the important area in the first frame of the video data displayed within that time, but as shown in FIG. When the important region R moves (Ra → Rb → Rc), the closed caption CC may overlap the important region R.

本発明は、上記を鑑みてなされたものであり、その課題とするところは、クローズドキャプションと映像中の重要領域との重なりを確実に回避することにある。   The present invention has been made in view of the above, and it is an object of the present invention to reliably avoid the overlap between the closed caption and the important area in the video.

請求項1記載の字幕放送出力装置は、入力された映像データを記憶する映像記憶手段と、前記映像データ用のクローズドキャプションデータを記憶するクローズドキャプション記憶手段と、前記映像記憶手段から映像データを読み出して、同一内容のクローズドキャプションが表示される時間内の映像データから所定の重要領域とその移動域を算出し、それら以外の領域に前記クローズドキャプションを表示可能な表示位置を計算する映像解析手段と、前記クローズドキャプションの表示位置を用いて前記クローズドキャプションデータを再生成するクローズドキャプションデータ再生成手段と、再生成後のクローズドキャプションデータに基づくクローズドキャプションを前記映像データに合成した映像データを出力する映像・クローズドキャプション合成手段と、を有することを特徴とする。   The caption broadcast output device according to claim 1, wherein video storage means for storing input video data, closed caption storage means for storing closed caption data for the video data, and video data is read from the video storage means. Video analysis means for calculating a predetermined important area and its movement area from video data within a time period when closed captions having the same content are displayed, and calculating a display position where the closed caption can be displayed in other areas; A closed caption data regenerating unit that regenerates the closed caption data using the display position of the closed caption, and a video that outputs video data obtained by synthesizing the closed caption based on the regenerated closed caption data with the video data ·closed And having a Yapushon synthesizing means.

請求項2記載の字幕放送出力装置は、請求項1記載の字幕放送出力装置において、前記映像解析手段は、前記時間内の映像データから複数の処理対象フレームを決定する対象フレーム算出手段と、前記複数の処理対象フレームから前記重要領域をそれぞれ算出する重要領域算出手段と、算出された全ての重要領域を合算し、クローズドキャプション非表示領域とするクローズドキャプション非表示領域算出手段と、前記クローズドキャプション非表示領域以外の領域に前記クローズドキャプションを表示可能な表示位置を決定するクローズドキャプション新位置情報算出手段と、を有することを特徴とする。   The caption broadcast output device according to claim 2 is the caption broadcast output device according to claim 1, wherein the video analysis means includes target frame calculation means for determining a plurality of processing target frames from the video data within the time, and An important area calculating means for calculating each of the important areas from a plurality of processing target frames; a closed caption non-display area calculating means for adding all the calculated important areas as a closed caption non-display area; and the closed caption non-display. Closed caption new position information calculating means for determining a display position where the closed caption can be displayed in an area other than the display area.

請求項3記載の字幕放送出力方法は、コンピュータにより、入力された映像データを映像記憶手段に記憶する映像記憶ステップと、前記映像データ用のクローズドキャプションデータをクローズドキャプション記憶手段に記憶するクローズドキャプション記憶ステップと、前記映像記憶手段から映像データを読み出して、同一内容のクローズドキャプションが表示される時間内の映像データから所定の重要領域とその移動域を算出し、それら以外の領域に前記クローズドキャプションを表示可能な表示位置を計算する映像解析ステップと、前記クローズドキャプションの表示位置を用いて前記クローズドキャプションデータを再生成するクローズドキャプションデータ再生成ステップと、再生成後のクローズドキャプションデータに基づくクローズドキャプションを前記映像データに合成した映像データを出力する映像・クローズドキャプション合成ステップと、を有することを特徴とする。   The subtitle broadcast output method according to claim 3 is a video storage step of storing input video data in video storage means by a computer, and closed caption storage for storing the closed caption data for the video data in closed caption storage means. Reading out video data from the video storage means, calculating a predetermined important area and its moving area from video data within a time when the closed caption of the same content is displayed, and applying the closed caption to other areas A video analysis step for calculating a display position that can be displayed, a closed caption data regeneration step for regenerating the closed caption data using the display position of the closed caption, and a caption based on the closed caption data after the regeneration. And having video-closed caption synthesizing step of outputting the video data to over Zudo caption synthesized to the video data.

請求項4記載の字幕放送出力方法は、請求項3記載の字幕放送出力方法において、前記映像解析ステップは、前記時間内の映像データから複数の処理対象フレームを決定する対象フレーム算出ステップと、前記複数の処理対象フレームから前記重要領域をそれぞれ算出する重要領域算出ステップと、算出された全ての重要領域を合算し、クローズドキャプション非表示領域とするクローズドキャプション非表示領域算出ステップと、前記クローズドキャプション非表示領域以外の領域に前記クローズドキャプションを表示可能な表示位置を決定するクローズドキャプション新位置情報算出ステップと、を有することを特徴とする。   The subtitle broadcast output method according to claim 4 is the subtitle broadcast output method according to claim 3, wherein the video analysis step includes a target frame calculation step of determining a plurality of processing target frames from the video data within the time, and An important area calculating step for calculating the important areas from a plurality of processing target frames; a closed caption non-display area calculating step for adding all the calculated important areas to form a closed caption non-display area; and A closed caption new position information calculating step for determining a display position where the closed caption can be displayed in an area other than the display area.

請求項5記載の字幕放送出力プログラムは、請求項3又は4記載の字幕放送出力方法をコンピュータに実行させることを特徴とする。   A subtitle broadcast output program according to claim 5 causes a computer to execute the subtitle broadcast output method according to claim 3 or 4.

以上より、本発明によれば、同一内容のクローズドキャプションが表示される時間内の映像データから所定の重要領域とその移動域を算出し、それら以外の領域にクローズドキャプションを出力させるため、クローズドキャプションと映像中の重要領域との重なりを確実に回避することができる。   As described above, according to the present invention, a predetermined important area and its moving area are calculated from video data within the time when the closed caption of the same content is displayed, and the closed caption is output to other areas. And an important area in the video can be surely avoided.

本発明によれば、クローズドキャプションと映像中の重要領域との重なりを確実に回避することができる。   According to the present invention, it is possible to reliably avoid the overlap between the closed caption and the important area in the video.

字幕放送出力装置の機能ブロック構成を示す図である。It is a figure which shows the functional block structure of a caption broadcast output apparatus. 映像解析部の機能ブロック構成を示す図である。It is a figure which shows the functional block structure of a video analysis part. 映像解析部の動作を説明する際の参照図である。It is a reference figure at the time of explaining operation | movement of an image | video analysis part. 字幕放送出力例(クローズドキャプションが1つ)を示すである。It is a subtitle broadcast output example (one closed caption). 字幕放送出力例(クローズドキャプションが複数)を示すである。It is an example of subtitle broadcast output (multiple closed captions). 従来の字幕放送出力例を示すである。It is a conventional subtitle broadcast output example.

本発明は、記憶手段に一旦記憶された映像データ及びクローズドキャプションデータを利用し、クローズドキャプション表示時間内に流れる映像の重要度が高い領域とその移動域を算出し、その領域を避けてクローズドキャプションを画面に出力することを主たる特徴とする。   The present invention uses the video data and the closed caption data once stored in the storage means, calculates a region where the importance of the video flowing within the closed caption display time and its moving region are calculated, and avoids the region by using the closed caption. Is the main feature.

以下、本発明を実施する一実施の形態について図面を用いて説明する。但し、本発明は多くの異なる様態で実施することが可能であり、本実施の形態の記載内容に限定して解釈すべきではない。   Hereinafter, an embodiment for carrying out the present invention will be described with reference to the drawings. However, the present invention can be implemented in many different modes and should not be construed as being limited to the description of the present embodiment.

図1は、本実施の形態に係る字幕放送出力装置100の機能ブロック構成を示す図である。本字幕放送出力装置100は、入力された映像データを記憶する映像記憶部11と、その映像データ用のクローズドキャプションデータを記憶するクローズドキャプション記憶部12と、同一内容のクローズドキャプションが表示される時間内の映像データから所定の重要領域とその移動域を算出し、それら以外の画面領域にクローズドキャプションを表示可能な表示位置を計算する映像解析部13と、計算されたクローズドキャプションの表示位置を用いてクローズドキャプションデータを再生成するクローズドキャプションデータ再生成部14と、再生成後のクローズドキャプションデータに基づくクローズドキャプションを映像データに合成した映像データを画面に出力する映像・クローズドキャプション合成部15と、を主に備える。   FIG. 1 is a diagram illustrating a functional block configuration of a caption broadcast output apparatus 100 according to the present embodiment. The caption broadcast output apparatus 100 includes a video storage unit 11 that stores input video data, a closed caption storage unit 12 that stores closed caption data for the video data, and a time during which closed captions having the same content are displayed. A video analysis unit 13 that calculates a predetermined important area and its movement area from the video data in the image and calculates a display position where the closed caption can be displayed in the other screen areas, and the calculated display position of the closed caption are used. A closed caption data regeneration unit 14 that regenerates closed caption data, a video / closed caption synthesis unit 15 that outputs video data obtained by synthesizing closed caption data based on the closed caption data after regeneration to video data, Mainly with

尚、本字幕放送出力装置100は、例えばデジタルテレビ上で動作可能であって、メモリ等の記憶手段、CPU等の計算・制御手段、モニタ等の画面表示手段を具備するコンピュータで実現できる。また、本装置100を構成する上記各機能部11〜15の処理はプログラムによって実行される。   Note that the caption broadcast output apparatus 100 can be implemented on a digital television, for example, and can be realized by a computer including a storage unit such as a memory, a calculation / control unit such as a CPU, and a screen display unit such as a monitor. Moreover, the process of each said function part 11-15 which comprises this apparatus 100 is performed by a program.

次に、字幕放送出力装置100の動作を説明する。   Next, the operation of the caption broadcast output device 100 will be described.

最初に、映像記憶部11により、字幕放送出力装置100に入力された映像データが記憶され、クローズドキャプション記憶部12により、その映像データの入力と共に入力された当該映像データ用のクローズドキャプションデータが記憶される(ステップS101)。   First, the video data input to the subtitle broadcast output device 100 is stored by the video storage unit 11, and the closed caption data for the video data input together with the input of the video data is stored by the closed caption storage unit 12. (Step S101).

次に、映像解析部13により、映像記憶部11とクローズドキャプション記憶部12から映像データとクローズドキャプションデータがそれぞれ読み出され、同じ内容のクローズドキャプションが表示される時間(以下、CC区間)毎に各CC区間内の映像データから重要領域がそれぞれ算出され、その算出結果に基づいて各CC区間内でのクローズドキャプションの表示位置がそれぞれ決定される(ステップS102)。   Next, the video analysis unit 13 reads the video data and the closed caption data from the video storage unit 11 and the closed caption storage unit 12 respectively, and displays the same content of closed captions every time (hereinafter referred to as CC section). An important area is calculated from the video data in each CC section, and the display position of the closed caption in each CC section is determined based on the calculation result (step S102).

ここで、図2と図3を参照しながら本ステップの処理を以下詳述する。図2は、映像解析部13の機能ブロック構成を示す図である。図3は、映像解析部13の動作を説明する際の参照図である。   Here, the processing of this step will be described in detail with reference to FIG. 2 and FIG. FIG. 2 is a diagram illustrating a functional block configuration of the video analysis unit 13. FIG. 3 is a reference diagram for explaining the operation of the video analysis unit 13.

まず、対象フレーム算出部13aにより、クローズドキャプション記憶部12から出力されたCC区間情報に基づいて各CC区間に対応するフレームが映像データから割り出され、その中から処理対象とされる複数のフレームが決定される(ステップS102−1)。尚、本処理対象フレームは、CC区間内の全てのフレームを対象としてもよいし、例えば1秒毎や0.5秒毎の各フレームを対象として選定してもよい。   First, the frame corresponding to each CC section is determined from the video data based on the CC section information output from the closed caption storage unit 12 by the target frame calculation unit 13a, and a plurality of frames to be processed from among the frames. Is determined (step S102-1). The processing target frame may be all frames in the CC section, or may be selected for each frame every 1 second or 0.5 seconds, for example.

次に、重要領域算出部13bにより、処理対象とされた複数のフレームから映像の重要度が高い領域がそれぞれ算出される(ステップS102−2)。尚、本重要領域は任意であるが、例えば、被写体の顔領域やオープンキャプションの表示領域が例とされる。   Next, the important area calculation unit 13b calculates areas with high importance of the video from a plurality of frames to be processed (step S102-2). Although this important area is arbitrary, for example, a face area of a subject or an open caption display area is taken as an example.

被写体の顔領域を算出する方法としては、例えば、顔の向きに応じた特徴量を抽出しておき、その特徴量を用いて入力画像内の領域と類似度計算を行い、その計算結果に基づいて入力画像内の顔領域を認識する方法がある(特開2009−157766号公報参照)。   As a method for calculating the face area of the subject, for example, a feature amount corresponding to the orientation of the face is extracted, the similarity is calculated with the region in the input image using the feature amount, and based on the calculation result There is a method for recognizing a face area in an input image (see JP 2009-157766 A).

また、オープンキャプションの表示領域を算出する方法としては、例えば、映像データ中の個々の文字表示シーンから文字らしさ特徴を計算し、その文字らしさ特徴に対応するパラメータセットを用いて文字を認識する方法がある(特開2007−164253号公報参照)。通常、オープンキャプションの表示位置は映像表示中に変化しないことから、例えば、画面枠から内側の一定幅内をその表示領域としてもよい。   Further, as a method of calculating the display area of the open caption, for example, a method of calculating character-like characteristics from individual character display scenes in video data and recognizing characters using a parameter set corresponding to the character-like characteristics (See JP 2007-164253 A). Normally, the display position of the open caption does not change during video display. For example, the display area may be within a certain width inside the screen frame.

尚、それら重要領域の算出方法は例であって、映像中に表示される特定の画像パターンを検出できる方法であればよい。   Note that these important area calculation methods are examples, and any method can be used as long as a specific image pattern displayed in the video can be detected.

次に、クローズドキャプション非表示領域算出部13cにより、処理対象フレーム毎に算出された全ての重要領域が合わせられ、クローズドキャプション非表示領域とされる(ステップS102−3)。   Next, the closed caption non-display area calculation unit 13c combines all the important areas calculated for each processing target frame to form a closed caption non-display area (step S102-3).

次に、クローズドキャプション新位置情報算出部13dにより、クローズドキャプション非表示領域以外の画像領域の中からクローズドキャプションを表示可能な位置座標が決定され、クローズドキャプション新位置情報としてCC区間情報と共にクローズドキャプションデータ再生成部14に送信される(ステップS102−4)。   Next, the closed caption new position information calculation unit 13d determines the position coordinates where the closed caption can be displayed from the image area other than the closed caption non-display area, and the closed caption data together with the CC section information as the closed caption new position information. It is transmitted to the regeneration unit 14 (step S102-4).

尚、その新たな位置座標を決定する方法は、クローズドキャプション非表示領域を避けるように表示可能であれば、その具体的方法は問わない。例えば、後述の図4や図5に示すように、予め指定された位置の上方もしくは下方に決定する方法等が考えられる。   The method for determining the new position coordinate is not particularly limited as long as it can be displayed so as to avoid the closed caption non-display area. For example, as shown in FIGS. 4 and 5 to be described later, a method of determining above or below a predetermined position is conceivable.

次に、図1に戻り、クローズドキャプションデータ再生成部14により、映像解析部13から出力されたクローズドキャプションの表示位置と、クローズドキャプション記憶部12から出力されたクローズドキャプションデータとを用いて、クローズドキャプションデータが再生成される(ステップS103)。   Next, returning to FIG. 1, the closed caption data regenerating unit 14 uses the closed caption display position output from the video analysis unit 13 and the closed caption data output from the closed caption storage unit 12. Caption data is regenerated (step S103).

具体的には、例えば、クローズドキャプションデータには文字表示情報(文字コード、フォントサイズ、文字色、表示位置等)が含まれることから、その文字表示情報内の表示位置が映像解析部13からの表示位置に更新される。   Specifically, for example, since the closed caption data includes character display information (character code, font size, character color, display position, etc.), the display position in the character display information is received from the video analysis unit 13. Updated to display position.

最後に、映像・クローズドキャプション合成部15により、再生成後のクローズドキャプションデータに基づいて表示されるクローズドキャプションが映像記憶部11から出力された映像データに合成され、その合成された新たな映像データが画面に出力される(ステップS104)。   Finally, the closed caption displayed based on the regenerated closed caption data is synthesized by the video / closed caption synthesizing unit 15 with the video data output from the video storage unit 11, and the synthesized new video data. Is output to the screen (step S104).

以上説明した映像解析部13の処理は、字幕放送出力装置100内に映像データとクローズドキャプションデータを最初から最後まで全て記憶し終えてから開始してもよいし、それら各データの一部が記憶された際に所定のタイミングで逐次開始してもよい。   The processing of the video analysis unit 13 described above may be started after the video data and the closed caption data are completely stored from the beginning to the end in the caption broadcast output device 100, or a part of each data is stored. May be started sequentially at a predetermined timing.

特に後者の場合、まず、映像記憶部11にT秒分の映像データを記録できる記憶域を設けておく。i番目のCC区間の開始点をSi秒、終止点をEi秒とすると、そのTの値をEi−Si≦Tとなるように設定すれば、時刻t=Eiの時にSiからEiの映像データが映像記憶部に記録11されていることになる。   Particularly in the latter case, first, a storage area capable of recording video data for T seconds is provided in the video storage unit 11. If the start point of the i-th CC section is Si seconds and the end point is Ei seconds, if the value of T is set so that Ei−Si ≦ T, the video data from Si to Ei at time t = Ei Is recorded 11 in the video storage unit.

そして、映像解析部13は、クローズドキャプション記憶部12から受け取ったi番目のCC区間情報をもとに時刻tがEiとなった時に、SiからEi内のフレームに対して上記の処理を開始する。   Then, when the time t becomes Ei based on the i-th CC section information received from the closed caption storage unit 12, the video analysis unit 13 starts the above-described processing for the frames in Si to Ei. .

この後者の方式を例えばデジタルテレビ放送に適用すると、通常、クローズドキャプションの表示時間は長くても10秒程度であるため、例えばT=15秒等と決めることができる。この場合、利用者は対象番組の終了を待つことなく、実際の放送時刻より15秒程度の遅れで映像中に含まれるテロップや被写体の顔部分等、映像の重要度が高い領域とその移動域を避けたクローズドキャプション表示により対象の番組映像を視聴することができる。   When this latter method is applied to, for example, digital television broadcasting, the closed caption display time is normally about 10 seconds at the longest, and therefore, for example, T = 15 seconds can be determined. In this case, the user can wait for the end of the target program without delaying the target program, and a region where the importance of the video is high, such as a telop or a face part of the subject included in the video with a delay of about 15 seconds from the actual broadcast time The target program video can be viewed with closed caption display that avoids the above.

以上説明した処理動作によれば、図4や図5に示すように、CC区間内において重要領域RがRa→Rb→Rcに移動しても、クローズドキャプションCCが当該重要領域Rに重畳することを回避することが可能となる。   According to the processing operation described above, as shown in FIGS. 4 and 5, even if the important region R moves from Ra → Rb → Rc in the CC section, the closed caption CC is superimposed on the important region R. Can be avoided.

すなわち、本実施の形態によれば、同一内容のクローズドキャプションが表示されるCC区間内の映像データから所定の重要領域とその移動域を算出し、それら以外の領域にクローズドキャプションを画面に出力させるので、クローズドキャプションと映像中の重要領域(人間の顔等の動きのある領域)との重なりを確実に回避することができる。   That is, according to the present embodiment, a predetermined important area and its moving area are calculated from video data in a CC section in which closed captions having the same content are displayed, and closed captions are output to the screen in other areas. Therefore, it is possible to reliably avoid the overlap between the closed caption and an important area (an area having movement such as a human face) in the video.

100…字幕放送出力装置
11…映像記憶部
12…クローズドキャプション記憶部
13…映像解析部
13a…対象フレーム算出部
13b…重要領域算出部
13c…クローズドキャプション非表示領域算出部
13d…クローズドキャプション新位置情報算出部
14…クローズドキャプションデータ再生成部
15…映像・クローズドキャプション合成部
S101〜S104、S102−1〜S102−4…ステップ
DESCRIPTION OF SYMBOLS 100 ... Subtitle broadcast output device 11 ... Video storage part 12 ... Closed caption storage part 13 ... Video analysis part 13a ... Target frame calculation part 13b ... Important area calculation part 13c ... Closed caption non-display area calculation part 13d ... Closed caption new position information Calculation unit 14 ... Closed caption data regeneration unit 15 ... Video / closed caption composition unit S101 to S104, S102-1 to S102-4 ... Step

Claims (5)

入力された映像データを記憶する映像記憶手段と、
前記映像データ用のクローズドキャプションデータを記憶するクローズドキャプション記憶手段と、
前記映像記憶手段から映像データを読み出して、同一内容のクローズドキャプションが表示される時間内の映像データから所定の重要領域とその移動域を算出し、それら以外の領域に前記クローズドキャプションを表示可能な表示位置を計算する映像解析手段と、
前記クローズドキャプションの表示位置を用いて前記クローズドキャプションデータを再生成するクローズドキャプションデータ再生成手段と、
再生成後のクローズドキャプションデータに基づくクローズドキャプションを前記映像データに合成した映像データを出力する映像・クローズドキャプション合成手段と、
を有することを特徴とする字幕放送出力装置。
Video storage means for storing input video data;
Closed caption storage means for storing the closed caption data for the video data;
The video data is read from the video storage means, a predetermined important area and its moving area are calculated from the video data within the time when the closed caption of the same content is displayed, and the closed caption can be displayed in other areas Video analysis means for calculating the display position;
Closed caption data regenerating means for regenerating the closed caption data using the display position of the closed caption;
Video / closed caption synthesis means for outputting video data obtained by synthesizing the closed caption based on the closed caption data after regeneration with the video data;
A subtitle broadcast output device comprising:
前記映像解析手段は、
前記時間内の映像データから複数の処理対象フレームを決定する対象フレーム算出手段と、
前記複数の処理対象フレームから前記重要領域をそれぞれ算出する重要領域算出手段と、
算出された全ての重要領域を合算し、クローズドキャプション非表示領域とするクローズドキャプション非表示領域算出手段と、
前記クローズドキャプション非表示領域以外の領域に前記クローズドキャプションを表示可能な表示位置を決定するクローズドキャプション新位置情報算出手段と、
を有することを特徴とする請求項1記載の字幕放送出力装置。
The video analysis means includes
Target frame calculation means for determining a plurality of processing target frames from the video data within the time;
Important area calculation means for calculating the important areas from the plurality of processing target frames, respectively;
A closed caption non-display area calculating means for adding all the calculated important areas and making it a closed caption non-display area;
Closed caption new position information calculating means for determining a display position where the closed caption can be displayed in an area other than the closed caption non-display area;
The subtitle broadcast output device according to claim 1, further comprising:
コンピュータにより、
入力された映像データを映像記憶手段に記憶する映像記憶ステップと、
前記映像データ用のクローズドキャプションデータをクローズドキャプション記憶手段に記憶するクローズドキャプション記憶ステップと、
前記映像記憶手段から映像データを読み出して、同一内容のクローズドキャプションが表示される時間内の映像データから所定の重要領域とその移動域を算出し、それら以外の領域に前記クローズドキャプションを表示可能な表示位置を計算する映像解析ステップと、
前記クローズドキャプションの表示位置を用いて前記クローズドキャプションデータを再生成するクローズドキャプションデータ再生成ステップと、
再生成後のクローズドキャプションデータに基づくクローズドキャプションを前記映像データに合成した映像データを出力する映像・クローズドキャプション合成ステップと、
を有することを特徴とする字幕放送出力方法。
By computer
A video storage step for storing the input video data in the video storage means;
A closed caption storage step of storing the closed caption data for the video data in a closed caption storage means;
The video data is read from the video storage means, a predetermined important area and its moving area are calculated from the video data within the time when the closed caption of the same content is displayed, and the closed caption can be displayed in other areas A video analysis step for calculating the display position;
A closed caption data regeneration step for regenerating the closed caption data using a display position of the closed caption;
A video / closed caption synthesis step for outputting video data obtained by synthesizing the closed caption based on the closed caption data after regeneration with the video data;
A subtitle broadcast output method characterized by comprising:
前記映像解析ステップは、
前記時間内の映像データから複数の処理対象フレームを決定する対象フレーム算出ステップと、
前記複数の処理対象フレームから前記重要領域をそれぞれ算出する重要領域算出ステップと、
算出された全ての重要領域を合算し、クローズドキャプション非表示領域とするクローズドキャプション非表示領域算出ステップと、
前記クローズドキャプション非表示領域以外の領域に前記クローズドキャプションを表示可能な表示位置を決定するクローズドキャプション新位置情報算出ステップと、
を有することを特徴とする請求項3記載の字幕放送出力方法。
The video analysis step includes
A target frame calculation step of determining a plurality of processing target frames from the video data within the time; and
An important area calculation step of calculating the important areas from the plurality of processing target frames, respectively;
A closed caption non-display area calculating step for adding all the calculated important areas and setting it as a closed caption non-display area;
A closed caption new position information calculation step for determining a display position where the closed caption can be displayed in an area other than the closed caption non-display area;
The subtitle broadcast output method according to claim 3, further comprising:
請求項3又は4記載の字幕放送出力方法をコンピュータに実行させることを特徴とする字幕放送出力プログラム。   5. A closed caption broadcast output program for causing a computer to execute the closed caption broadcast output method according to claim 3.
JP2012121813A 2012-05-29 2012-05-29 Closed caption broadcast output device, method and program Pending JP2013247611A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012121813A JP2013247611A (en) 2012-05-29 2012-05-29 Closed caption broadcast output device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012121813A JP2013247611A (en) 2012-05-29 2012-05-29 Closed caption broadcast output device, method and program

Publications (1)

Publication Number Publication Date
JP2013247611A true JP2013247611A (en) 2013-12-09

Family

ID=49847052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012121813A Pending JP2013247611A (en) 2012-05-29 2012-05-29 Closed caption broadcast output device, method and program

Country Status (1)

Country Link
JP (1) JP2013247611A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018519727A (en) * 2015-11-06 2018-07-19 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Method and device for displaying information on a video image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009152807A (en) * 2007-12-19 2009-07-09 Sharp Corp Digital broadcast receiver, digital broadcast receiving method, signal processing program, and program recording medium
JP2010226351A (en) * 2009-03-23 2010-10-07 Fujitsu Ten Ltd Video reproducing device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009152807A (en) * 2007-12-19 2009-07-09 Sharp Corp Digital broadcast receiver, digital broadcast receiving method, signal processing program, and program recording medium
JP2010226351A (en) * 2009-03-23 2010-10-07 Fujitsu Ten Ltd Video reproducing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018519727A (en) * 2015-11-06 2018-07-19 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Method and device for displaying information on a video image

Similar Documents

Publication Publication Date Title
US8875023B2 (en) Thumbnail navigation bar for video
US20190289271A1 (en) Touch optimized design for video editing
US20150381925A1 (en) Smart pause for neutral facial expression
US8958686B2 (en) Information processing device, synchronization method, and program
JP5239469B2 (en) Information presenting apparatus and information presenting method
US20140355961A1 (en) Using simple touch input to create complex video animation
US20140359448A1 (en) Adding captions and emphasis to video
US8837912B2 (en) Information processing apparatus, information processing method and program
CN104952471B (en) A kind of media file synthetic method, device and equipment
US9966110B2 (en) Video-production system with DVE feature
JP2014220724A (en) Display controller, display control method and program
JP4504452B1 (en) Video viewing apparatus, video playback control method, and recording / playback program
JP5067370B2 (en) Reception device, display control method, and program
US20090214179A1 (en) Display processing apparatus, control method therefor, and display processing system
CN105763923A (en) Video and video template editing methods and device thereof
JP2010161493A (en) Image display device and image display method
JP2014220722A (en) Display controller, display control method and program
JP2013247611A (en) Closed caption broadcast output device, method and program
JP5242762B2 (en) Image reproducing apparatus, image reproducing method, and data structure
JP4539884B2 (en) Reproducing apparatus, program, and method for constructing electronic screen
JP2009206986A (en) Image output device and image output method
JP2009175467A (en) Recording and reproducing device, and program
JP2009118204A (en) Cm detection method and moving image reproduction apparatus using same
JP2013219639A (en) Caption display device and program of the same
JP2014150314A (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160209