JPH08317301A - Video output device - Google Patents

Video output device

Info

Publication number
JPH08317301A
JPH08317301A JP7122147A JP12214795A JPH08317301A JP H08317301 A JPH08317301 A JP H08317301A JP 7122147 A JP7122147 A JP 7122147A JP 12214795 A JP12214795 A JP 12214795A JP H08317301 A JPH08317301 A JP H08317301A
Authority
JP
Japan
Prior art keywords
data
subtitle
video
subtitles
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7122147A
Other languages
Japanese (ja)
Inventor
Katsumi Taniguchi
勝美 谷口
Shigeki Nagaya
茂喜 長屋
Takafumi Miyatake
孝文 宮武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP7122147A priority Critical patent/JPH08317301A/en
Publication of JPH08317301A publication Critical patent/JPH08317301A/en
Pending legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)

Abstract

PURPOSE: To transmit switching timing information to a user without disturbing the viewing of main video by deciding the presence/absence of subtitles from the feature values of subtitles by the divided areas of image data, performing the reduction/move processing of extracted subtitles and compositing them with the main video. CONSTITUTION: A main video input part 100 converts an analog video signal inputted from a video reproducing device 7 to a digital image signal 5-6. A subordinate video input part 200 converts an analog video signal inputted from a television tuner 8 to a digital image signal 5-7. A subtitle area extracting part 300 prepares a subtitle area signal 5-20 by detecting a subtitle area while using a luminance counting means by areas and an edge counting means by areas. A video control part 400 extracts the picture elements of subtitles from the subordinate video signal 5-7 and the subtitle area signal 5-20, the picture elements are thinned and reduced according to the designation of reduction, and the position of subtitles is moved according to the designation of place. This processed subtitle signal is composited with the main video signal 5-6 and outputted. Further, the format of subtitles is detected from the subtitle area signal 5-20 and when it is equal with the designation of user, the main video and the subordinate video are switched.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、裏番組の副映像を自動
監視することによって、視聴者が主映像の視聴中であっ
ても、副映像の重要シーンの見落とし防止を支援する映
像出力装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video output apparatus for automatically monitoring a sub-picture of a back program so as to support overlooking of important scenes of the sub-picture even when the viewer is watching the main picture. Regarding

【0002】[0002]

【従来の技術】近年、映像チャンネルの増加に伴い、映
像受信システム側で複数の映像を同一画面上に出力する
映像出力装置が増えつつある。
2. Description of the Related Art In recent years, with the increase of video channels, the number of video output devices for outputting a plurality of videos on the same screen on the video reception system side is increasing.

【0003】これらの映像出力装置における従来の映像
同時出力方式は、大きく次の三つに分類できる。第一の
方式として挙げられるのは、主映像中に副映像を縮小し
て表示する、いわゆる、ピクチャーインピクチャー方式
である。第二の方式は、映像の表示領域(画面)を二つ
に分割し、主映像と副映像を並べて表示する方式であ
る。第三の方式としてあげられるのは、副映像のかわり
に文字放送をスーパーインポーズで合成表示する方式で
ある。
Conventional video simultaneous output systems in these video output devices can be roughly classified into the following three types. The first method is a so-called picture-in-picture method in which a sub-picture is reduced and displayed in the main picture. The second method is a method of dividing the display area (screen) of the image into two and displaying the main image and the sub-image side by side. The third method is a method of superimposing and displaying a text broadcast instead of a sub-picture.

【0004】こうした装置のユーザの視聴形態は、重点
的に見ようとする映像チャンネルを主映像とし、気にな
るときだけ眺めたい映像チャンネルを副映像とする。例
えば、ドラマを主映像とし、スポーツ番組を副映像とす
る視聴形態が挙げられる。この場合、副映像であるスポ
ーツ番組にユーザの注意が注がれるのは、点数などのゲ
ームの状況確認や、得点シーン,好みの選手が登場する
シーン等である。
The viewing mode of the user of such a device is such that the video channel to be focused on is the main video and the video channel to be watched only when the user is interested is the sub-video. For example, there is a viewing mode in which a drama is the main video and a sports program is the sub video. In this case, the user's attention is paid to the sports program, which is the sub-picture, for checking the game situation such as points, scoring scenes, and scenes in which favorite players appear.

【0005】しかし、従来の映像出力方式では、ユーザ
の視聴形態を考えると様々な問題がある。
However, the conventional video output system has various problems in consideration of the viewing mode of the user.

【0006】まず、第一の方式では、副映像の表示領域
が小さい為、内容が確認しづらいという問題が生じる。
このため、せっかく副映像を同時に出力しても、肝心の
シーンを見落としやすく目的とする効果が充分に発揮で
きない。
First, in the first method, since the display area of the sub-picture is small, it is difficult to confirm the contents.
Therefore, even if the sub-pictures are output at the same time, it is easy to overlook the important scene and the desired effect cannot be fully exerted.

【0007】第二の方式では、表示領域を二分割するた
め主映像,副映像とも映像が歪んでしまうという問題が
ある。また、主映像を注視している場合に、副映像のシ
ーンの切り換わりや動きのため目移りして見にくくなる
という欠点がある。
In the second method, since the display area is divided into two, there is a problem that both the main image and the sub image are distorted. In addition, when watching the main video, there is a drawback in that the scenes of the sub-video are switched or moved so that the sub-picture becomes difficult to see.

【0008】第三の方式では、文字情報を副映像の代替
としており、副映像を直接見るものではない。また、こ
の方式では、文字放送の行われている番組に限定されて
しまうという問題がある。
In the third method, the character information is used as a substitute for the sub-picture, and the sub-picture is not viewed directly. In addition, this system has a problem that it is limited to programs in which teletext is being broadcast.

【0009】[0009]

【発明が解決しようとする課題】本発明が解決しようと
する課題は、主映像を小さくしたり、歪ませたり、ある
いは、注意をそらされる事なく主映像が視聴でき、か
つ、裏番組の重要シーンの見落しが防止できる映像出力
装置を提供することにある。
SUMMARY OF THE INVENTION The problem to be solved by the present invention is that the main video can be viewed without making the main video smaller, distorted, or distracted, and the importance of the back program. An object of the present invention is to provide a video output device capable of preventing a scene from being overlooked.

【0010】[0010]

【課題を解決するための手段】まず、字幕を抽出する方
法は、ディジタル画像データから区分領域別に字幕の特
徴量を抽出する手段と、該区分領域別の特徴量から領域
別の字幕の有無を判定する手段を提供する。
First, a method for extracting subtitles includes means for extracting a feature amount of a subtitle for each segmented region from digital image data, and presence or absence of subtitles for each region based on the feature amount for each segmented region. Provide a means to judge.

【0011】次に抽出した字幕を主映像に合成する方法
として、字幕領域内の字幕のみを抽出する字幕画素抽出
手段と、字幕を縮小する字幕縮小手段と字幕を移動する
字幕移動手段の二つの合成字幕の加工手段と、字幕を視
聴中の主映像と合成する映像合成手段を提供する。
Next, as a method of combining the extracted subtitles with the main video, there are two methods, that is, a subtitle pixel extracting means for extracting only the subtitles in the subtitle area, a subtitle reducing means for reducing the subtitles, and a subtitle moving means for moving the subtitles. Provided is a combined caption processing means and an image combining means for combining the caption with the main video being viewed.

【0012】また、主映像と副映像とを切り換える方法
として、字幕領域から字幕の書式を検出する書式検出手
段と、出力映像を切り換える映像切り換え手段を提供す
る。
Further, as a method of switching between the main video and the sub video, a format detecting means for detecting the format of the subtitle from the subtitle area and a video switching means for switching the output video are provided.

【0013】[0013]

【作用】まず、映像入力手段により入力された副映像
は、特徴抽出部により、区分領域別に特徴量が抽出さ
れ、字幕領域判定手段により、領域別の字幕の有無が判
定される。これによって、字幕の文字数が画面全体で少
ない場合でも、部分的な抽出が可能である。
In the sub-video input by the video input means, the feature extraction section extracts the feature amount for each divided area, and the subtitle area determination means determines the presence or absence of subtitles for each area. As a result, even if the number of subtitle characters is small on the entire screen, partial extraction is possible.

【0014】次に字幕画素抽出手段により、字幕有領域
から背景を取り除いて字幕のみを抽出する。抽出された
字幕は、字幕縮小手段及び字幕移動手段により加工さ
れ、画面の任意の場所に任意の大きさで表示される。最
後に、映像合成手段により、主映像と字幕を合成しディ
スプレイに表示する。このため、主映像の視聴を損なう
ことなく他映像の情報を入手することができ、ユーザに
主映像から副映像に切り換えるかどうかのきっかけを知
らせることができる。
Next, the subtitle pixel extracting means removes the background from the subtitle presence area to extract only the subtitle. The extracted subtitles are processed by the subtitle reducing unit and the subtitle moving unit, and displayed in any size on the screen at any size. Finally, the video synthesizing means synthesizes the main video and the subtitles and displays them on the display. Therefore, it is possible to obtain the information of other video without impairing the viewing of the main video, and to inform the user of whether or not to switch from the main video to the sub video.

【0015】合成表示のかわりに映像切り換えを行う場
合、まず書式検出手段により、抽出した字幕領域から書
式が検出される。次に映像切り換え手段により、検出し
た書式とユーザが指定した書式が一致するか判定し、一
致した場合、主映像と副映像が切り換えられる。これに
より、表示された字幕に注視することなく映像が切り換
わるため、重要シーンを見逃すことがない。
When video switching is performed instead of composite display, the format is first detected by the format detecting means from the extracted subtitle area. Next, the video switching means determines whether the detected format matches the format specified by the user, and if they match, the main video and the sub video are switched. As a result, the video is switched without paying attention to the displayed subtitles, so that important scenes are not missed.

【0016】[0016]

【実施例】図1は本発明の全体の処理のブロック図であ
る。主映像入力部100は映像再生装置7から送られた
映像信号を入力とする。映像信号はアナログデータであ
り、これをディジタル化して主画像データ5−6を出力
する。同じく、副映像入力部200はテレビチューナ8
から送られた映像信号を入力する。映像信号はアナログ
データであり、これをディジタル化して副画像データ5
−7を出力する。
1 is a block diagram of the overall processing of the present invention. The main video input unit 100 receives the video signal sent from the video playback device 7. The video signal is analog data, which is digitized to output main image data 5-6. Similarly, the sub-picture input unit 200 is the TV tuner 8
Input the video signal sent from. The video signal is analog data, which is digitized to generate sub-image data 5
Output -7.

【0017】字幕領域抽出部300は副画像データ5−
7を入力とする。そして、副画像データ5−7を処理し
て字幕領域データ5−20を出力する。字幕領域データ
5−20は区分領域別に字幕有無を抽出したデータであ
る。尚、字幕領域抽出部300の詳細は図6で説明する。
The subtitle area extraction unit 300 uses the sub-image data 5-
Input 7 Then, the sub image data 5-7 is processed and the subtitle area data 5-20 is output. The subtitle area data 5-20 is data in which the presence or absence of subtitles is extracted for each divided area. Details of the subtitle area extraction unit 300 will be described with reference to FIG.

【0018】映像制御部400は主画像データ5−6と
副画像データ5−7と字幕領域データ20の三つのデー
タを入力とする。そして、これらのデータから画像の合
成、または切り換える処理を行う。映像制御部400で
出力した表示画像データ5−29はディスプレイ1に出
力される。
The video control section 400 receives as input three data: main image data 5-6, sub-image data 5-7, and subtitle area data 20. Then, processing for combining or switching images from these data is performed. The display image data 5-29 output by the video control unit 400 is output to the display 1.

【0019】図2は映像制御部400の詳細を示した処
理ブロック図である。映像制御部400の処理は大きく
映像合成処理400−aと映像切り換え処理400−b
の二つに分けることができる。コントロール部410は
ユーザの指定に従い、映像合成処理400−aと映像切
り換え処理400−bのどちらの処理に制御を移すかを
スイッチする。
FIG. 2 is a processing block diagram showing details of the video control unit 400. The processing of the video control unit 400 is largely the video synthesizing processing 400-a and the video switching processing 400-b.
It can be divided into two. The control unit 410 switches which of the video compositing process 400-a and the video switching process 400-b is to be controlled according to the user's designation.

【0020】まず、映像合成処理400−aについて説
明する。字幕画素抽出部420は字幕領域データ5−2
0と副画像データ5−7を入力する。字幕領域データ5
−20で字幕有りと判定された領域中から字幕画素のみ
を抽出する。これにより、背景を取り除いた字幕画素デ
ータ5−21が出力される。尚、字幕画素抽出部420
の処理の詳細は図15で述べる。字幕縮小部430と字
幕移動部440は字幕画素データ5−21が合成する主
映像の視聴を妨げるのを防ぐ。字幕縮小部430は字幕
画素データ5−21を入力する。その時、字幕画素デー
タ5−21の字幕が大きく、縮小指定がある場合のみ字
幕画素を間引く。このように字幕を縮小したデータを字
幕画素データ5−21に入れ直す。字幕移動部440も
また字幕画素データ5−21を入力する。字幕画素デー
タ5−21の字幕が主映像の視聴を妨げ、移動指定があ
る場合のみ字幕画素を任意の位置に移す。これにより、
再度データを字幕画素データ5−21に入れ直す。
First, the image synthesizing process 400-a will be described. The subtitle pixel extraction unit 420 uses the subtitle area data 5-2.
0 and sub-image data 5-7 are input. Subtitle area data 5
Only subtitle pixels are extracted from the area determined to have subtitles at -20. As a result, the subtitle pixel data 5-21 with the background removed is output. The subtitle pixel extraction unit 420
The details of the process will be described with reference to FIG. The subtitle reduction unit 430 and the subtitle moving unit 440 prevent the main image combined by the subtitle pixel data 5-21 from being disturbed. The subtitle reduction unit 430 inputs the subtitle pixel data 5-21. At that time, caption pixels are thinned out only when the caption of the caption pixel data 5-21 is large and there is a reduction designation. The data obtained by reducing the caption in this way is re-inserted into the caption pixel data 5-21. The subtitle moving unit 440 also inputs the subtitle pixel data 5-21. The subtitle of the subtitle pixel data 5-21 hinders viewing of the main video, and the subtitle pixel is moved to an arbitrary position only when movement is designated. This allows
The data is put in the subtitle pixel data 5-21 again.

【0021】映像合成部450は主画像データ5−6と
字幕画素データ5−21を入力する。そして主画像デー
タ5−6と字幕画素データ5−21を合成し、表示画像
データ5−29として出力する。これにより副映像にど
のような字幕表示がなされても、主映像の視聴を妨げる
ことなく字幕を付加することができ、ユーザに主映像か
ら副映像に切り換えるかどうかのきっかけを知らせるこ
とができる。
The video synthesizing section 450 inputs the main image data 5-6 and the subtitle pixel data 5-21. Then, the main image data 5-6 and the subtitle pixel data 5-21 are combined and output as display image data 5-29. Thus, no matter what subtitles are displayed on the sub-video, subtitles can be added without disturbing the viewing of the main video, and the user can be informed of whether or not the main video is switched to the sub-video.

【0022】次に映像切り換え処理400−bの処理に
ついて説明する。まず、書式検出部460は字幕領域デ
ータ5−20を入力する。字幕領域データ5−20から
書式データ5−22を検出し出力とする。尚、書式検出
部460の処理の詳細は図16,図17で述べる。映像
切り換え部450は、主画像データ5−6と書式データ
5−22と副画像データ5−7を入力する。書式データ
5−22とユーザが指定していた書式と同じかを判定す
る。同じ書式であると判定した場合、副画像データ5−
21を表示画像データ5−29を代入して出力する。こ
れによりユーザは字幕を注視しなくても重要なシーンを
見逃すこともない。
Next, the image switching process 400-b will be described. First, the format detection unit 460 inputs the subtitle area data 5-20. Format data 5-22 is detected from the subtitle area data 5-20 and is output. Details of the processing of the format detection unit 460 will be described with reference to FIGS. 16 and 17. The video switching unit 450 inputs the main image data 5-6, the format data 5-22, and the sub image data 5-7. It is determined whether the format data 5-22 is the same as the format designated by the user. When it is determined that the formats are the same, the sub-image data 5-
21 is output by substituting the display image data 5-29. As a result, the user does not miss an important scene without paying attention to the subtitles.

【0023】図3は図2で説明した映像合成処理400
−aでの画像データのフローチャートである。字幕領域
抽出部300は副画像データ5−7を入力する。字幕領
域抽出部300は字幕を有する領域を抽出した字幕領域
データ5−20を出力する。字幕領域データ5−20は
字幕を含む領域は1、それ以外は0が代入されている。
字幕画素抽出部420は字幕領域データ5−20と副画
像データ5−7を入力する。字幕画素抽出部420は字
幕領域データ5−20の字幕有り領域中から字幕画素を
抽出する処理を行う。出力された字幕画素データ5−2
1の字幕画素には副画像データ5−7の画素値が入って
いる。それ以外の画素は黒の色値をが入っている。字幕
縮小部430は字幕画素データ5−21の字幕が大き
く、縮小指定のある場合のみ字幕画素を間引く。このよ
うに字幕を縮小したデータを字幕画素データ5−21に
入れ直す。字幕移動部440は字幕画素データ5−21
を入力する。字幕画素データ5−21の字幕が主映像の
視聴を妨げ、移動指定のある場合のみ字幕画素を任意の
位置に移し、再度字幕画素データ5−21に入れ直す。
FIG. 3 shows the video composition process 400 described with reference to FIG.
It is a flowchart of the image data in -a. The subtitle area extraction unit 300 inputs the sub-image data 5-7. The subtitle area extraction unit 300 outputs subtitle area data 5-20 in which an area having subtitles is extracted. In the subtitle area data 5-20, 1 is assigned to the area including the subtitle, and 0 is assigned to other areas.
The subtitle pixel extraction unit 420 inputs the subtitle area data 5-20 and the sub-image data 5-7. The subtitle pixel extraction unit 420 performs processing for extracting subtitle pixels from the subtitle area of the subtitle area data 5-20. Output subtitle pixel data 5-2
The subtitle pixel of 1 contains the pixel value of the sub-image data 5-7. The other pixels have a black color value. The caption reduction unit 430 thins out the caption pixels only when the caption of the caption pixel data 5-21 is large and there is a contraction designation. The data obtained by reducing the caption in this way is re-inserted into the caption pixel data 5-21. The subtitle moving unit 440 uses the subtitle pixel data 5-21.
Enter The subtitle of the subtitle pixel data 5-21 hinders viewing of the main video, moves the subtitle pixel to an arbitrary position only when movement is designated, and inserts the subtitle pixel data 5-21 again.

【0024】映像合成部450は主画像データ5−6と
字幕画素データ5−21を入力する。主画像データ5−
6と字幕画素データ5−21を合成し表示画像データ5
−29として出力する。出力された表示画像データ5−
29はディスプレイ1に表示される。これにより副映像
にどのような字幕表示されても主映像の視聴を妨げるこ
となく、字幕を付加することができ、ユーザに主映像か
ら副映像に切り換えるかどうかのきっかけを知らせるこ
とができる。
The video synthesizing section 450 inputs the main image data 5-6 and the subtitle pixel data 5-21. Main image data 5-
6 and subtitle pixel data 5-21 are combined to display image data 5
Output as -29. Output display image data 5-
29 is displayed on the display 1. This allows subtitles to be added without hindering viewing of the main video regardless of what subtitles are displayed on the sub video, and it is possible to inform the user of a trigger for switching from the main video to the sub video.

【0025】図4は図2で説明した映像合成処理400
−aで字幕合成したディスプレイ表示例を示す図であ
る。
FIG. 4 shows the video composition processing 400 described with reference to FIG.
It is a figure which shows the example of a display which synthesize | combined the subtitles in -a.

【0026】5−29−aの合成例は字幕合成処理40
0−aで字幕画素データ5−21に字幕加工処理を行っ
ていない。これにより、入力時の副画像データ5−7で
表示されていた字幕の位置で合成表示する。5−29−
bは初めに字幕縮小部420で字幕画素データ5−21
に字幕の縮小処理を行う。また、更に字幕移動部430で
字幕の移動処理を行い合成表示した例である。5−29
−cは字幕有領域の字幕画素データ5−21を液晶パネ
ル1−1に表示した例である。
An example of composition of 5-29-a is subtitle composition processing 40.
The subtitle processing is not performed on subtitle pixel data 5-21 at 0-a. As a result, composite display is performed at the position of the subtitle displayed in the sub image data 5-7 at the time of input. 5-29-
b is the subtitle pixel data 5-21 in the subtitle reduction unit 420 first.
Perform subtitle reduction processing. Further, in this example, subtitle moving processing is further performed by the subtitle moving unit 430 and combined display is performed. 5-29
-C is an example in which the subtitle pixel data 5-21 of the subtitled area is displayed on the liquid crystal panel 1-1.

【0027】図5は図2で説明した映像切り換え処理4
00−bでの画像データのフローチャートである。字幕
領域抽出部300は副画像データ5−7を入力する。字
幕領域抽出部300は字幕を有する領域を抽出した字幕
領域データ5−20を出力する。字幕領域データ5−2
0は字幕を含む領域は1、それ以外は0が代入されてい
る。書式検出部460は字幕領域データ5−20を入力
する。書式検出部460では字幕領域の配置状態からの書
式データ5−22を検出し出力する。映像切り換え部4
70は、主画像データ5−6と書式データ5−22と副
画像データ5−7を入力する。書式データ5−22とユ
ーザが指定していた書式が同じかを判定する。同じ書式
であると判定した場合、副画像データ5−21を表示画
像データ5−29に代入して出力する。出力した表示画
像データ5−29をディスプレイ1に表示する。
FIG. 5 shows the video switching process 4 described with reference to FIG.
It is a flowchart of the image data in 00-b. The subtitle area extraction unit 300 inputs the sub-image data 5-7. The subtitle area extraction unit 300 outputs subtitle area data 5-20 in which an area having subtitles is extracted. Subtitle area data 5-2
For 0, 1 is assigned to the area including subtitles, and 0 is assigned to other areas. The format detection unit 460 inputs the subtitle area data 5-20. The format detection unit 460 detects and outputs the format data 5-22 from the arrangement state of the subtitle area. Video switching unit 4
70 inputs the main image data 5-6, the format data 5-22, and the sub-image data 5-7. It is determined whether the format data 5-22 and the format designated by the user are the same. When it is determined that the formats are the same, the sub-image data 5-21 is substituted into the display image data 5-29 and output. The output display image data 5-29 is displayed on the display 1.

【0028】図6は字幕領域抽出部300の処理ブロッ
ク図である。図において、5−7は副映像入力部200
により変換されたディジタル画像データである。特徴抽
出部350は入力された画像の中から字幕の特徴を抽出
し、それを計数値として出力する。計数値には、領域別
輝度計数部600と領域別エッジ計数部700で計数さ
れた値の二種類がある。また本図で説明する処理は、画
面を区分領域に分割し、領域別に処理を行っている。
FIG. 6 is a processing block diagram of the subtitle area extracting unit 300. In the figure, 5-7 is a sub-picture input unit 200.
It is digital image data converted by. The feature extraction unit 350 extracts the feature of the subtitle from the input image and outputs it as a count value. There are two types of count values, that is, the values counted by the area-specific brightness counting section 600 and the area-specific edge counting section 700. Further, in the processing described in this figure, the screen is divided into divided areas and the processing is performed for each area.

【0029】領域別輝度計数部600は各領域内の高輝
度の画素を抽出してその個数を出力する。領域別エッジ
計数部700は、各領域内の隣接画素との色差の大きい
画素(以下は強エッジ)を抽出してその個数を出力す
る。字幕領域判定部800は領域別輝度計数部600と
領域別エッジ計数部700により得られた計数値を入力
とする。両方の計数値が一定の条件を満足するとき、領
域内に字幕が有ると判定する。字幕領域判定部800で
出力した字幕領域データ5−20は領域別の字幕有無の
1ビットデータである。字幕を含む領域にはデータに1
を代入し、それ以外には0を代入する。
The region-brightness counting section 600 extracts high-brightness pixels in each region and outputs the number thereof. The area-based edge counting unit 700 extracts pixels (hereinafter, strong edges) having a large color difference from the adjacent pixels in each area, and outputs the number. The subtitle area determination unit 800 receives as input the count values obtained by the area-based luminance counting section 600 and the area-based edge counting section 700. When both count values satisfy a certain condition, it is determined that there is a caption in the area. The subtitle area data 5-20 output by the subtitle area determination unit 800 is 1-bit data indicating the presence or absence of subtitles for each area. 1 for data in the area containing subtitles
Is assigned, and 0 is assigned to all other values.

【0030】本実施例の字幕判定は、字幕の特徴として
高輝度の画素と、強画素の両方をチェックしている。こ
のため、ライト照明の様なエッジがなくかつ高輝度の領
域。将棋盤のようにエッジは有るが輝度の低い領域は抽
出しないため、誤認識を減らす効果がある。さらに、字
幕の特徴を区分領域毎に判定するため、字幕文字数が画
面全体で少ない場合でも、部分的に抽出できる。
In the caption determination of this embodiment, both high-luminance pixels and strong pixels are checked as a feature of the caption. Therefore, there is no edge like light illumination and high brightness area. A region such as a shogi board that has edges but low luminance is not extracted, which has the effect of reducing erroneous recognition. Furthermore, since the characteristics of subtitles are determined for each divided area, even if the number of subtitle characters is small on the entire screen, partial extraction can be performed.

【0031】図7はプログラムとデータの説明図であ
る。図において、プログラム5−1は、図1の字幕の抽
出合成処理のコンピュータプログラムである。また、5
−2から5−29はプログラム5−1が参照するデータ
であって、その中で、5−2から5−5は抽出のための
予め設定しておくべきパラメータ、5−6から5−29
は一回あたりの処理に利用するワーク用のデータであ
る。
FIG. 7 is an explanatory diagram of programs and data. In the figure, a program 5-1 is a computer program for the subtitle extraction / synthesis processing of FIG. Also, 5
-2 to 5-29 are the data that the program 5-1 refers to, and among them, 5-2 to 5-5 are the parameters to be preset for extraction, 5-6 to 5-29.
Is data for work used for one-time processing.

【0032】以下、データを説明する。まず闘値5−
2,5−3は画像中から字幕の特徴量を抽出する際に使
用する闘値、闘値5−4,5−5は特徴量から字幕を判
定するための闘値であり、予め設定しておく。
The data will be described below. First, the threshold value 5-
2, 5-3 are thresholds used when extracting the feature amount of the subtitles from the image, and thresholds 5-4, 5-5 are thresholds for determining the subtitles from the feature amount, which are set in advance. Keep it.

【0033】主画像データ5−6は主映像変換装置10
によって変換した最新フレームのディジタル画像データ
であり、同じく副画像データ5−7は副映像変換装置1
0によって変換した最新フレームのディジタル画像デー
タであり、この画像データは処理のため赤画像データ5
−7−1,緑画像データ5−7−2,青画像データ5−
7−3の三種類の色成分データに分ける。
The main image data 5-6 is the main image conversion device 10.
The sub-image data 5-7 is digital image data of the latest frame converted by the sub-image conversion device 1.
It is the digital image data of the latest frame converted by 0. This image data is red image data 5 for processing.
-7-1, green image data 5-7-2, blue image data 5-
7-3 is divided into three types of color component data.

【0034】次に特徴抽出部350で作成する各種デー
タを説明する。輝度データ5−8は、画像データの中で
高輝度の画素を抽出した配列データである。横エッジデ
ータ5−9は画像の横方向の色差が大きい画素を抽出し
た配列データ,縦エッジデータ5−10は画像の縦方向
の色差が大きい画素を抽出した配列データである。前フ
レーム輝度データ5−11,前フレーム横エッジデータ
5−12,前フレーム縦エッジデータ5−13は、一時
的に現在処理中のフレームの1フレーム前の輝度データ
5−9,横エッジデータ5−10,縦エッジデータ5−
11を格納した配列データである。
Next, various data created by the feature extraction unit 350 will be described. The brightness data 5-8 is array data in which high brightness pixels are extracted from the image data. The horizontal edge data 5-9 is array data obtained by extracting pixels having a large color difference in the horizontal direction of the image, and the vertical edge data 5-10 is array data obtained by extracting pixels having a large color difference in the vertical direction of the image. The previous frame luminance data 5-11, the previous frame horizontal edge data 5-12, and the previous frame vertical edge data 5-13 are the luminance data 5-9 and horizontal edge data 5 one frame before the frame currently being processed temporarily. -10, vertical edge data 5-
11 is the array data in which 11 is stored.

【0035】輝度照合データ5−14は、輝度データ5
−8と前フレーム輝度データ5−11が共に高輝度の画
素を格納した配列データである。また、横エッジ照合デ
ータ5−15は、横エッジデータ5−9と前フレーム横
エッジデータ5−12が共に強エッジの画素を格納した
配列データである。同様に縦エッジ照合データ5−16
は縦エッジデータ5−10と前フレーム縦エッジデータ
5−13が共に強エッジの画素を格納した配列データで
ある。
The brightness collation data 5-14 is the brightness data 5
Both -8 and the previous frame brightness data 5-11 are array data in which high brightness pixels are stored. Further, the horizontal edge matching data 5-15 is array data in which the horizontal edge data 5-9 and the previous frame horizontal edge data 5-12 both store pixels of strong edges. Similarly, the vertical edge matching data 5-16
Is the array data in which the vertical edge data 5-10 and the previous frame vertical edge data 5-13 both store pixels of strong edges.

【0036】輝度領域データ5−17は、区分領域別に
輝度照合データ5−14の高輝度の画素数を計数した結
果を格納した配列データである。横エッジ領域データ5
−18は区分領域別に横エッジ照合データ5−15の強
エッジの画素数を計数した結果を格納した配列データで
ある。同様に縦エッジ領域データ5−19は区分領域別
に縦エッジ照合データ5−16の強エッジの画素数を計
数した結果を格納した配列データである。尚、区分領域
の個々のサイズは、字幕の文字が一つ入る程度のサイズ
が望ましい。本実施例では、画面を横に16分割、縦に
10分割している。
The brightness area data 5-17 is array data which stores the result of counting the number of high brightness pixels of the brightness matching data 5-14 for each divided area. Horizontal edge area data 5
-18 is array data in which the result of counting the number of pixels of the strong edge of the horizontal edge matching data 5-15 is stored for each divided area. Similarly, the vertical edge area data 5-19 is array data in which the result of counting the number of pixels of the strong edges of the vertical edge matching data 5-16 is stored for each divided area. In addition, it is desirable that each of the divided areas has a size such that one subtitle character is included therein. In this embodiment, the screen is divided into 16 horizontally and 10 vertically.

【0037】次に、字幕領域判定部400で作成するデ
ータを説明する。字幕領域データ5−20は区分領域別
に字幕の有無の判定結果を格納した配列データである。
また、字幕画素抽出部900で作成する字幕画素データ
5−21は字幕のみを抽出した画像データである。
Next, the data created by the subtitle area determining section 400 will be described. The subtitle area data 5-20 is array data that stores the result of determining the presence or absence of subtitles for each divided area.
Further, the subtitle pixel data 5-21 created by the subtitle pixel extraction unit 900 is image data in which only subtitles are extracted.

【0038】書式データ5−22は抽出した代表画像の
字幕の位置および方向データである。行カウントデータ
5−23は行単位に字幕有りと判定された領域の個数を
格納した配列データである。最大行カウントデータ5−
24は行カウントデータ5−23の領域の個数が最も多
い行の領域の個数を格納したデータである。最大行位置
データ5−25は最大行の行番号を格納したデータであ
る。同様に列カウントデータ5−26は列単位に字幕有
りと判定された領域の個数を格納した配列データであ
る。最大列カウントデータ5−27は列カウントデータ
5−26の値の最大値を格納したデータである。最大列
位置データ5−28は最大値を有する列の列番号を格納
したデータである。
The format data 5-22 is the position and direction data of the extracted subtitle of the representative image. The row count data 5-23 is array data that stores the number of areas determined to have captions on a row-by-row basis. Maximum row count data 5-
Reference numeral 24 is data in which the number of row areas having the largest number of row count data 5-23 is stored. The maximum row position data 5-25 is data that stores the row number of the maximum row. Similarly, the column count data 5-26 is array data that stores the number of regions determined to have captions on a column-by-column basis. The maximum column count data 5-27 is data that stores the maximum value of the column count data 5-26. The maximum column position data 5-28 is data that stores the column number of the column having the maximum value.

【0039】表示画像データ5−29は副画像データ5
−7に映像制御部400で映像合成、又は映像切り換え
の処理を行い、ディスプレイに表示するデータであり、
副画像データに字幕のない場合は、主画像データがその
まま表示画像データに移される。
The display image data 5-29 is the sub-image data 5
-7 is data to be displayed on the display after being subjected to image composition or image switching processing by the image control unit 400,
If the sub-image data does not have a subtitle, the main image data is transferred to the display image data as it is.

【0040】以下、図7を参照しながら、図6の領域別
輝度計数部600,領域別エッジ計数部700,字幕領
域判定部800,字幕画素抽出部900の処理手順をフ
ローチャートを用いて詳細に説明する。
Hereinafter, with reference to FIG. 7, the processing procedure of the area-specific luminance counting section 600, the area-specific edge counting section 700, the subtitle area determining section 800, and the subtitle pixel extracting section 900 of FIG. 6 will be described in detail using a flowchart. explain.

【0041】図8,図9,図10は領域別輝度計数部6
00の処理手順を示し、図11,図12,図13は領域
別エッジ計数部700の処理手順を示し、図14は字幕
領域判定部800の処理手順を示すフローチャートであ
る。
FIG. 8, FIG. 9, and FIG.
00, the processing procedure of the edge-by-area counting section 700 is shown in FIGS. 11, 12, and 13, and the processing procedure of the subtitle area determination section 800 is shown in FIG.

【0042】まず、領域別輝度計数部600の処理手順
を図8,図9,図10を参照して説明する。処理601
から処理609(図8)までは、入力画像中の高輝度の
画素を抽出する処理である。601では、処理602か
ら処理609で使用する、変数X,Yを0で初期化す
る。処理602は入力した副画像データ5−7の赤画像
データ5−7−1,緑画像データ5−7−2,青画像デ
ータ5−7−3の各色成分が闘値1以上の輝度であるか
を調べ、すべての色成分が闘値1以上の輝度であれば処
理603へ移り、なければ処理604へ移る。処理60
3では処理602で輝度を調べた画像上の位置と等しい
位置の輝度データ5−8の配列に1を書き込み、処理6
04では処理602で輝度を調べた画像上の位置と等し
い位置の輝度データ5−8の配列に0を書き込む。処理
605から処理609は上述の処理を全ての画素に対し
て行うためのアドレス更新処理である。すべての処理が
完了すると処理610に移る。
First, the processing procedure of the area-specific luminance counting section 600 will be described with reference to FIGS. 8, 9 and 10. Process 601
The process from the process 609 to the process 609 (FIG. 8) is a process of extracting a high-luminance pixel in the input image. In step 601, variables X and Y used in steps 602 to 609 are initialized to 0. In the process 602, each color component of the input red image data 5-7-1, green image data 5-7-2, and blue image data 5-7-3 of the sub-image data 5-7 has a luminance of a threshold value of 1 or more. If all the color components have luminances equal to or greater than the threshold value 1, the process proceeds to step 603, and if not, the process proceeds to step 604. Processing 60
In 3, the 1 is written in the array of the brightness data 5-8 at the position equal to the position on the image whose brightness is examined in the process 602, and the process 6
In 04, 0 is written in the array of the brightness data 5-8 at the position equal to the position on the image whose brightness is checked in the process 602. Processes 605 to 609 are address updating processes for performing the above-described process on all pixels. When all the processes are completed, the process moves to the process 610.

【0043】処理610から処理618(図9)まで
は、複数のフレームに渡り、高輝度が継続している画素
を抽出する処理である。処理610では、処理611か
ら処理618で使用する変数X,Yを0で初期化する。
処理611は輝度データ5−8と前フレーム輝度データ
5−11の値が共に1であるかどうかを調べ、共に1で
あるならば処理612へ、そうでなければ処理613へ
移る。処理612では処理611で調べた輝度データ上
の位置と等しい位置の輝度照合データ5−14の配列に
1を書き込み、処理613では処理611で調べた輝度
データ上の位置と等しい位置の輝度照合データ5−14
の配列に0を書き込む。処理614から処理618は上
述の処理を全ての画素に対して行うためのアドレス更新
処理である。すべての処理が完了すると処理619に移
る。
Processes 610 to 618 (FIG. 9) are processes for extracting pixels in which high brightness continues over a plurality of frames. In process 610, variables X and Y used in processes 611 to 618 are initialized to 0.
A process 611 checks whether the values of the brightness data 5-8 and the previous frame brightness data 5-11 are both 1, and if both are 1, the process proceeds to a process 612, and if not, the process proceeds to a process 613. In process 612, 1 is written in the array of the brightness collation data 5-14 at the position equal to the position on the brightness data checked in process 611, and in process 613, the brightness collation data at the position equal to the position on the brightness data checked in process 611. 5-14
Write 0 to the array. Processes 614 to 618 are address update processes for performing the above process on all pixels. When all the processes are completed, the process moves to process 619.

【0044】処理619から処理625(図9)まで
は、前フレーム輝度データ5−11の更新処理である。
処理619では、処理620から処理625で使用する
変数X,Yを0で初期化する。処理620では、前フレ
ーム輝度データに輝度データを代入する。処理621か
ら処理625は上述の処理を全ての画素に対して行うた
めのアドレス更新処理である。すべての処理が完了する
と処理626に移る。
Processes 619 to 625 (FIG. 9) are processes for updating the previous frame luminance data 5-11.
In process 619, variables X and Y used in processes 620 to 625 are initialized to 0. In process 620, the brightness data is substituted for the previous frame brightness data. Processes 621 to 625 are address update processes for performing the above process on all pixels. When all the processes are completed, the process moves to the process 626.

【0045】処理626から処理639(図10)まで
は、区分領域毎に高輝度の画素数を計数する処理であ
る。処理626では処理627から処理239で使用す
る変数i,j,Xb,Ybを0で初期化する。処理62
7は輝度照合データ5−14が1かどうかを調べ、1で
あれば処理628へ移り、そうでなければ処理629へ
移る。処理628では処理627で調べた輝度照合デー
タの位置が属する区分領域に該当する、輝度領域データ
5−17の配列に1を加える。処理629から処理63
9は上述の処理を全ての画素に対して行うためのアドレ
ス更新処理である。すべての処理が完了すると領域別の
輝度計数結果が輝度領域データ5−17に格納される。
Processes 626 to 639 (FIG. 10) are processes for counting the number of high-luminance pixels for each divided area. In process 626, variables i, j, Xb, and Yb used in processes 627 to 239 are initialized to 0. Process 62
7 checks whether or not the brightness collation data 5-14 is 1, and if 1 then moves to processing 628, and otherwise moves to processing 629. In process 628, 1 is added to the array of the brightness region data 5-17 corresponding to the segmented region to which the position of the brightness matching data checked in process 627 belongs. Process 629 to Process 63
Reference numeral 9 is an address update process for performing the above process on all pixels. When all the processes are completed, the brightness count result for each area is stored in the brightness area data 5-17.

【0046】次に、領域別エッジ計数部700の処理手
順を図11,図12,図13を参照して説明する。処理
701から処理712(図11)までは、縦および横の
強エッジの画素を抽出する処理である。処理701で
は、処理702から処理712で使用する変数X,Yを
0で初期化する。処理702は入力した画像データの赤
画像データ5−7−1,緑画像データ5−7−2,青画
像データ5−7−3の各色成分が横方向に闘値2以上の
色差があるかを調べ、すべての色データの色差が闘値2
以上であれば処理703へ移り、そうでなければ処理7
04へ移る。処理703では処理702で色差を調べた
画像中の位置と等しい位置の横エッジデータの配列に1
を書き込み、処理704では処理702で色差を調べた
画像中の位置と等しい位置の横エッジデータの配列に0
を書き込む。処理705から処理707では、同様に、
縦エッジデータを抽出する。処理708から処理712
は上述の処理を全ての画素に対して行うためのアドレス
更新処理である。すべての処理が完了すると処理713
に移る。
Next, the processing procedure of the edge-by-area counter 700 will be described with reference to FIGS. 11, 12, and 13. Processes 701 to 712 (FIG. 11) are processes for extracting pixels of strong vertical and horizontal edges. In process 701, variables X and Y used in processes 702 to 712 are initialized to 0. In the process 702, whether the color components of the red image data 5-7-1, green image data 5-7-2, and blue image data 5-7-3 of the input image data have a color difference of 2 or more in the horizontal direction. The color difference of all color data is 2
If it is above, the process proceeds to step 703, and if not, process 7
Move to 04. In process 703, 1 is added to the array of the horizontal edge data at the same position as the position in the image for which the color difference is checked in process 702.
In step 704, 0 is written in the array of horizontal edge data at the position equal to the position in the image for which the color difference is checked in step 702.
Write. In steps 705 to 707, similarly,
Extract vertical edge data. Steps 708 to 712
Is an address update process for performing the above process on all pixels. Processing 713 when all processing is completed
Move on to.

【0047】処理713から処理324(図12)まで
は、複数のフレームに渡り、強エッジが継続している画
素を抽出する処理である。処理713では、処理714
から処理724で使用する変数X,Yを0で初期化す
る。処理714は横エッジデータ5−9と前フレーム横
エッジデータ5−12の値が共に1であるかどうかを調
べ、共に1であるならば処理715へ、そうでなければ
処理716へ移る。処理715では処理714で調べた
横エッジデータ上の位置と等しい位置の横エッジ照合デ
ータ5−15の配列に1を書き込み、処理716では処
理714で調べた横エッジデータ上の位置と等しい位置
の横エッジ照合データ5−15の配列に0を書き込む。
同様に、縦エッジ照合データについて、処理717から
処理719で計算する。処理720から処理724は上
述の処理を全ての画素に対して行うためのアドレス更新
処理である。すべての処理が完了すると、処理725に
移る。
Processings 713 to 324 (FIG. 12) are processings for extracting pixels in which a strong edge continues over a plurality of frames. In the processing 713, the processing 714
The variables X and Y used in the process 724 are initialized to 0. A process 714 checks whether the values of the horizontal edge data 5-9 and the previous frame horizontal edge data 5-12 are both 1, and if both are 1, the process proceeds to a process 715, and if not, the process proceeds to a process 716. In process 715, 1 is written in the array of the horizontal edge collation data 5-15 at the position equal to the position on the horizontal edge data checked in process 714, and in process 716, the position equal to the position on the horizontal edge data checked in process 714 is written. Write 0 to the array of the lateral edge matching data 5-15.
Similarly, vertical edge matching data is calculated in processing 717 to processing 719. Processes 720 to 724 are address update processes for performing the above-described process on all pixels. When all the processes are completed, the process moves to process 725.

【0048】処理725から処理731(図12)まで
は、前フレーム横エッジデータ5−12および前フレー
ム縦エッジデータ5−13の更新処理である。処理72
5では、処理726から処理731で使用する変数X,
Yを0で初期化する。処理726は前フレーム横エッジ
データ5−15に横エッジデータ5−9を代入し、前フ
レーム縦エッジデータ5−13に縦エッジデータ5−1
0を代入する。処理727から処理731は上述の処理
を全ての画素に対して行うためのアドレス更新処理であ
る。すべての処理が完了すると処理732に移る。
Processes 725 to 731 (FIG. 12) are processes for updating the previous frame horizontal edge data 5-12 and the previous frame vertical edge data 5-13. Process 72
5, the variable X used in processing 726 to processing 731,
Initialize Y to 0. In the process 726, the horizontal edge data 5-9 is substituted into the previous frame horizontal edge data 5-15, and the vertical edge data 5-1 is added to the previous frame vertical edge data 5-13.
Substitute 0. Processes 727 to 731 are address update processes for performing the above-mentioned process on all pixels. When all the processes are completed, the process moves to the process 732.

【0049】処理732から処理748(図13)まで
は、区分領域毎に縦及び横の強エッジの画素数を計数す
る処理である。処理732では処理733から処理74
8で使用する変数i,j,Xb,Ybを0で初期化す
る。処理733は横エッジ照合データ5−15が1かど
うかを調べ、1であれば処理734へ移り、そうでなけ
れば処理735へ移る。処理734では処理733で調
べた横エッジ照合データの位置が属する区分領域に該当
する、横エッジ領域データ5−18の配列に1を加え
る。同様に、処理735と処理736で縦エッジ領域デ
ータを計算する。処理737から処理748は上述の処
理を全ての画素に対して行うためのアドレス更新処理で
ある。すべての処理が完了すると、領域別のエッジ計数
結果が、横エッジ領域データ5−18と縦エッジ領域デ
ータ5−19に格納される。
Processes 732 to 748 (FIG. 13) are processes for counting the number of pixels of vertical and horizontal strong edges for each divided area. In process 732, process 733 to process 74
The variables i, j, Xb, and Yb used in 8 are initialized to 0. A process 733 checks whether or not the horizontal edge collation data 5-15 is 1, and if it is 1, the process proceeds to a process 734, and if not, the process proceeds to a process 735. In process 734, 1 is added to the array of the horizontal edge region data 5-18 corresponding to the segmented region to which the position of the horizontal edge matching data checked in process 733 belongs. Similarly, in processing 735 and processing 736, vertical edge area data is calculated. Processes 737 to 748 are address update processes for performing the above-described process on all pixels. When all the processing is completed, the edge count result for each area is stored in the horizontal edge area data 5-18 and the vertical edge area data 5-19.

【0050】以上の処理により領域別に字幕の特徴抽出
が行われたことになる。
By the above processing, the feature extraction of subtitles is performed for each area.

【0051】次に、字幕領域判定部800の処理手順を
図14を参照して説明する。処理801から処理809
(図15)までは、区分領域別の字幕有無を判定する処
理である。処理801では処理802から処理809で
使用する変数Xb,Ybを0で初期化する。処理802
は輝度領域データが闘値3以上でかつ横エッジ領域デー
タが闘値3以上でかつ縦エッジ領域データが闘値3以上
であるかを調べ、三つの条件を満たせば処理803へ移
り、そうでなければ処理804へ移る。処理803では
処理802で調べた領域と等しい領域の字幕領域データ
5−20の配列に1を書き込み、処理804では処理8
02で調べた領域と等しい領域の字幕領域データ5−2
0の配列に0を書き込む。処理805から処理809は
上述の処理を全領域に対して行うためのアドレス更新処
理である。すべての処理が完了すると処理810に移
る。以上により領域別の字幕の有無が得られたことにな
る。
Next, the processing procedure of the subtitle area determination unit 800 will be described with reference to FIG. Process 801 to process 809
The process up to (FIG. 15) is the process of determining the presence or absence of subtitles for each divided area. In process 801, variables Xb and Yb used in processes 802 to 809 are initialized to 0. Process 802
Examines whether the luminance area data has a threshold value of 3 or more, the horizontal edge area data has a threshold value of 3 or more, and the vertical edge area data has a threshold value of 3 or more. If three conditions are satisfied, the process proceeds to step 803, and so on. If not, the process proceeds to process 804. In process 803, 1 is written in the array of the subtitle region data 5-20 in the same region as the region checked in process 802, and in process 804, process 8 is performed.
Subtitle area data 5-2 of an area equal to the area checked in 02.
Write 0s to the 0 array. Processes 805 to 809 are address update processes for performing the above-described process on all areas. When all the processes are completed, the process moves to process 810. By the above, the presence or absence of subtitles for each area is obtained.

【0052】以下、図7を参照しながら、図2の字幕画
素抽出部420,書式検出部460の処理手順をフロー
チャートを用いて詳細に説明する。図15は字幕画素抽
出部420の処理手順を示し、図16,図17は書式検
出部460の処理手順を示している。
The processing procedure of the subtitle pixel extraction unit 420 and the format detection unit 460 of FIG. 2 will be described in detail below with reference to FIG. 7 using a flowchart. FIG. 15 shows the processing procedure of the subtitle pixel extraction unit 420, and FIGS. 16 and 17 show the processing procedure of the format detection unit 460.

【0053】まず、字幕画素抽出部420を説明する。
処理420−1から処理420−16までは、1画素毎
に字幕であるかを調べ、字幕に相当する画素を抽出する
処理である。処理420−1では処理420−2から処
理420−16で使用する変数i,j,Xb,Ybを0
で初期化する。処理420−2は字幕領域データ5−2
0が1かどうかを調べ、1であれば処理420−3へ移
り、そうでなければ処理420−05へ移る。処理42
0−03では該当する画素の赤画像データ,青画像デー
タ,緑画像データが閾値1以上の輝度であるかを調べ、
三つとも閾値1以上であれば処理420−04へ移り、
そうでなければ処理420−05へ移る。処理420−
04では処理420−03で調べた画素位置の字幕画素
データに副画像データの値を代入する。処理420−0
5では処理420−03で調べた画素位置の字幕画素デ
ータに0を代入する。
First, the subtitle pixel extraction section 420 will be described.
Processes 420-1 to 420-16 are processes for checking each pixel for a subtitle and extracting pixels corresponding to the subtitle. In process 420-1, variables i, j, Xb, and Yb used in processes 420-2 to 420-16 are set to 0.
Initialize with. Process 420-2 is subtitle area data 5-2.
It is checked whether 0 is 1 or not, and if it is 1, the process proceeds to process 420-3, and if not, the process proceeds to process 420-05. Process 42
In 0-03, it is checked whether the red image data, the blue image data, and the green image data of the corresponding pixel have a brightness of threshold value 1 or more,
If all three are greater than or equal to the threshold value 1, the process proceeds to processing 420-04,
If not, the process proceeds to process 420-05. Process 420-
In 04, the value of the sub-image data is substituted for the subtitle pixel data at the pixel position checked in the process 420-03. Process 420-0
In 5, 0 is substituted for the subtitle pixel data at the pixel position checked in the process 420-03.

【0054】処理420−06から処理420−16は
上述の処理を全ての画素に対して行うためのアドレス更
新処理である。すべての処理が完了すると、副画像中の
字幕だけが抽出される。
Processes 420-06 to 420-16 are address update processes for performing the above-mentioned process on all pixels. When all the processing is completed, only the subtitles in the sub-image are extracted.

【0055】次に書式検出部460の説明をする。処理
460−1から処理460−7(図16)までは、字幕
領域データを行方向に投影する処理であり、同様に、処
理460−8から処理460−14(図16)までは、
字幕領域データを列方向に投影する処理である。行方向
の処理について詳細に説明する。処理460−1では、
処理460−2から処理460−7で使用する変数X
b,Ybを0で初期化する。処理460−2では行毎に
字幕有り領域の個数を加算している。処理460−3から
処理460−7はこの処理をすべての領域に対して行う
ためのアドレス更新処理である。すべての処理が完了す
ると処理460−8に移り、同様に列方向に投影する処
理を行う。列方向の処理が終わると処理460−15に
移る。以上の処理により、行カウントデータ5−23と
列カウントデータ5−26に、行および列方向の字幕有
り領域の個数が格納されることになる。
Next, the format detector 460 will be described. Processes 460-1 to 460-7 (FIG. 16) are processes for projecting subtitle region data in the row direction. Similarly, processes 460-8 to 460-14 (FIG. 16)
This is a process of projecting subtitle region data in the column direction. The processing in the row direction will be described in detail. In the process 460-1,
Variable X used in processing 460-2 to processing 460-7
b and Yb are initialized to 0. In process 460-2, the number of captioned areas is added for each row. Processes 460-3 to 460-7 are address update processes for performing this process on all areas. When all the processes are completed, the process proceeds to process 460-8, and similarly, the process of projecting in the column direction is performed. When the process in the column direction is completed, the process proceeds to process 460-15. Through the above processing, the number of subtitled areas in the row and column directions is stored in the row count data 5-23 and the column count data 5-26.

【0056】処理460−15から処理460−33
(図17)では、個々の領域の結果を統合して、最終的
に字幕有無の判断と字幕の位置および方向を求める処理
を行う。処理460−15は処理460−16から処理
460−25で使用する変数Xb,Ybを0で初期化す
る。処理460−16は行カウントデータの中で一番大
きい値を持つ行を調べるため、行カウントデータが最大
行カウントデータより大きいかを調べ、大きければ処理
460−17へ移り、小さければ処理460−19に移
る。処理460−17では最大行カウントデータを行カ
ウントデータの値に置き換え、処理460−18でその
時の行番号を最大行位置データに記憶しておく。処理4
60−19から処理460−20は以上の処理を全ての
行に対して行うためアドレス更新処理である。また、処
理46−21から処理460−25は、同様にして、最
大列カウントデータと最大列位置データを計算する。
Processes 460-15 to 460-33
In FIG. 17, the results of the individual areas are integrated, and the process of finally determining the presence or absence of subtitles and determining the position and direction of subtitles is performed. In process 460-15, variables Xb and Yb used in processes 460-16 to 460-25 are initialized to 0. Since the process 460-16 checks the line having the largest value in the line count data, it is checked whether the line count data is larger than the maximum line count data. If the line count data is larger, the process proceeds to process 460-17. If the line count data is smaller, the process 460- Move to 19. In process 460-17, the maximum line count data is replaced with the value of the line count data, and in process 460-18, the line number at that time is stored in the maximum line position data. Process 4
The processing from 60-19 to processing 460-20 is an address updating processing for performing the above processing on all the rows. Further, the processes 46-21 to 460-25 similarly calculate the maximum column count data and the maximum column position data.

【0057】処理460−26では最大行カウントデー
タが閾値4以上であるか、または最大列カウントデータ
が閾値4以上であるかどうかを調べ、条件を満足すれ
ば、字幕有りと判定し処理460−27へ、満足しなけ
れば、字幕無しと判定する。
In process 460-26, it is checked whether the maximum row count data is greater than or equal to the threshold value 4 or the maximum column count data is greater than or equal to the threshold value 4. If the conditions are satisfied, it is determined that captions are present, and the process 460- If 27 is not satisfied, it is determined that there is no subtitle.

【0058】字幕有りと判定されると、字幕が画像上で
縦の左書き,縦の右書き,横の上書き,横の下書きのい
ずれの書式であるか分類する。
When it is determined that there is a subtitle, it is classified whether the subtitle has a format of vertical left writing, vertical right writing, horizontal overwriting, or horizontal draft on the image.

【0059】まず、処理460−27では最大行カウン
トデータと最大列カウントデータを比較し、最大行カウ
ントデータが大きければ「横書き」と判定し処理460
−28に移り、最大列カウントデータが大きければ「縦
書き」と判定し処理460−31に移る。処理460−
28では最大行位置データが中央の行(本実施例では5
行目)以上であるかを調べ、以上であれば「上書き」と
判断し処理460−29へ移り、未満であれば「下書
き」と判断し処理460−30へ移る。そして処理46
0−29では書式データに「上横書き」を書き込み、処
理460−30では書式データに「下横書き」を書き込
む。一方、処理460−31では最大列位置データが中
央の列(本実施例では8列目)以上であるかを調べ、以
上であれば「右書き」と判断し処理460−32へ移
り、未満であれば「左書き」と判断し処理460−33
へ移る。処理460−32では書式データに「右縦書
き」を書き込み、処理460−33では書式データに
「左縦書き」を書き込む。
First, in processing 460-27, the maximum row count data and the maximum column count data are compared, and if the maximum row count data is large, it is determined to be "horizontal writing" and processing 460.
If the maximum column count data is large, it is determined to be "vertical writing" and the flow proceeds to processing 460-31. Process 460-
In 28, the maximum line position data is in the center line (5 in this embodiment).
(Line) It is checked whether it is more than or equal to it, and if it is greater than or equal to it, it is determined to be “overwrite” and the process proceeds to processing 460-29. And process 46
In 0-29, "upper horizontal writing" is written in the format data, and in processing 460-30, "lower horizontal writing" is written in the format data. On the other hand, in process 460-31, it is checked whether or not the maximum column position data is in the center column (8th column in this embodiment) or more. If it is, the right writing is determined and the process proceeds to process 460-32. If so, it is determined as “left writing” and processing 460-33.
Move to. In process 460-32, "right vertical writing" is written in the format data, and in process 460-33, "left vertical writing" is written in the format data.

【0060】以上の処理により字幕の書式が判定できる
ことになる。本実施例では縦横それぞれ二分割して書式
を判定しているが、分割数を増やせばさらに詳細に書式
を区別でき、また、字幕領域の数も計数しているため、
領域数が多いときには画面中の字幕の割合が大きく、領
域数が少ない時には画面中の字幕の割合が小さいという
書式の区別ができることは言うまでもない。
With the above processing, the subtitle format can be determined. In this embodiment, the format is determined by dividing it into two vertically and horizontally, but the format can be distinguished in more detail by increasing the number of divisions, and the number of subtitle areas is also counted.
It goes without saying that it is possible to distinguish the formats in which the proportion of subtitles in the screen is large when the number of areas is large, and the proportion of subtitles in the screen is small when the number of areas is small.

【0061】以上、字幕の特徴抽出部、および、字幕判
定部をフローチャートを用いて詳細に開示した。
The subtitle feature extraction section and subtitle determination section have been disclosed in detail above with reference to the flowcharts.

【0062】本字幕抽出例によれば、特徴抽出部によっ
て、ディジタル画像データから区分領域別に字幕が現わ
れているかどうかを判定しているので、字幕の文字数が
画面全体で少ない場合であっても、部分的な抽出が可能
である。また字幕領域判定部によって、字幕有無の情報
を行および列方向に投影して判断しているので、現われ
た字幕が縦書きか横書きであるかを区別することが可能
である。さらに、特徴抽出部は、各領域内に含まれる第
一の閾値以上の高輝度の画素の個数と、各領域内に含ま
れる第二の閾値以上であるエッジの個数を計数して、特
徴としているので、高い輝度の画面が現われただけでは
字幕と判断しない。また、エッジは、複数の方向につい
てそれぞれ求めており、文字部の複雑さを忠実に抽出す
ることができる。
According to the present subtitle extraction example, since the feature extraction unit determines whether or not subtitles appear for each divided area from the digital image data, even if the number of characters in the subtitles is small on the entire screen, Partial extraction is possible. Further, since the subtitle area determination unit projects the subtitle presence / absence information in the row and column directions to determine, it is possible to distinguish whether the appearing subtitle is vertical writing or horizontal writing. Further, the feature extraction unit counts the number of high-brightness pixels equal to or higher than the first threshold value included in each region and the number of edges equal to or higher than the second threshold value included in each region as a feature. Therefore, it is not judged as a subtitle only by the appearance of a screen with high brightness. Further, the edge is obtained for each of a plurality of directions, and the complexity of the character portion can be faithfully extracted.

【0063】[0063]

【発明の効果】本発明によれば、副映像から抽出した字
幕を視聴中の主映像と合成するため、文字放送が行われ
ていなくても副映像の代替となる文字情報が得られる。
また、合成する字幕のサイズと表示位置をユーザの任意
に変化させることが可能であり、主映像の視聴を阻害す
ることもない。
According to the present invention, since the subtitles extracted from the sub video are combined with the main video that is being viewed, it is possible to obtain text information that is a substitute for the sub video even if text broadcasting is not being performed.
In addition, the size and display position of the subtitles to be combined can be arbitrarily changed by the user, and viewing of the main video is not hindered.

【0064】更に、字幕の書式によって副映像を切り換
えて表示し、視聴できるようにするため、ユーザは字幕
を注視しなくても重要なシーンを見逃すことがない。
Further, since the sub-picture is switched and displayed depending on the subtitle format so that the subtitle can be viewed, the user does not miss an important scene without paying attention to the subtitle.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の全体の処理のブロック図。FIG. 1 is a block diagram of the overall processing of the present invention.

【図2】映像制御部400の詳細を示した処理ブロック
図。
FIG. 2 is a processing block diagram showing details of a video control unit 400.

【図3】図2で説明した映像合成処理400−aでの画
像データのフローチャート。
FIG. 3 is a flowchart of image data in the video compositing process 400-a described in FIG.

【図4】図2で説明した映像合成処理400−aで字幕
合成したディスプレイ表示例の説明図。
4 is an explanatory diagram of a display example in which captions are combined in the image combining process 400-a described in FIG.

【図5】図2で説明した映像切り換え処理400−bで
の画像データのフローチャート。
5 is a flowchart of image data in the video switching process 400-b described with reference to FIG.

【図6】字幕領域抽出部300の処理ブロック図。FIG. 6 is a processing block diagram of a subtitle area extraction unit 300.

【図7】プログラムとデータの説明図。FIG. 7 is an explanatory diagram of programs and data.

【図8】領域別輝度計数部600の処理手順を示したフ
ローチャート。
FIG. 8 is a flowchart showing a processing procedure of an area-brightness counting section 600.

【図9】領域別輝度計数部600の処理手順を示したフ
ローチャート。
FIG. 9 is a flowchart showing a processing procedure of an area-brightness counting section 600.

【図10】領域別輝度計数部600の処理手順を示した
フローチャート。
FIG. 10 is a flowchart showing a processing procedure of an area-brightness counting section 600.

【図11】領域別エッジ計数部700の処理手順を示し
たフローチャート。
FIG. 11 is a flowchart showing a processing procedure of the edge-by-region counting unit 700.

【図12】領域別エッジ計数部700の処理手順を示し
たフローチャート。
FIG. 12 is a flowchart showing a processing procedure of a region-based edge counting section 700.

【図13】領域別エッジ計数部700の処理手順を示し
たフローチャート。
FIG. 13 is a flowchart showing a processing procedure of a region-based edge counting section 700.

【図14】字幕領域判定部800の処理手順を示したフ
ローチャート。
FIG. 14 is a flowchart showing a processing procedure of a subtitle area determination unit 800.

【図15】字幕画素抽出部420の処理手順を示したフ
ローチャート。
FIG. 15 is a flowchart showing a processing procedure of a subtitle pixel extraction unit 420.

【図16】書式検出部460の処理手順を示したフロー
チャート。
FIG. 16 is a flowchart showing a processing procedure of a format detection unit 460.

【図17】書式検出部460の処理手順を示したフロー
チャート。
FIG. 17 is a flowchart showing the processing procedure of the format detection unit 460.

【符号の説明】[Explanation of symbols]

1…ディスプレイ、1−1…液晶パネル、7…主映像再
生装置、8…テレビチューナ、100…主映像入力部、
200…副映像入力部、300…字幕領域抽出部、40
0…映像制御部。
DESCRIPTION OF SYMBOLS 1 ... Display, 1-1 ... Liquid crystal panel, 7 ... Main image reproducing device, 8 ... TV tuner, 100 ... Main image input unit,
200 ... Sub-picture input section, 300 ... Subtitle area extraction section, 40
0 ... Video control unit.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】VTRやテレビチューナから複数の映像を
入力し、ディスプレイに合成出力する映像出力装置にお
いて、主映像を入力する第一手段と、副映像を入力する
第二手段と、映像を出力するユーザが指定した前記副映
像中から字幕情報を抽出する第三手段と、前記第三手段
により得られた字幕情報から前記副映像と前記主映像を
加工して出力する第四手段を具備することを特徴とする
映像出力装置。
1. A video output device for inputting a plurality of videos from a VTR or a TV tuner and synthesizing and outputting to a display, a first means for inputting a main video, a second means for inputting a sub-video, and a video output. A third means for extracting subtitle information from the sub-picture specified by the user, and a fourth means for processing and outputting the sub-picture and the main video from the sub-title information obtained by the third means. A video output device characterized by the above.
【請求項2】請求項1に記載の前記第三の手段は、領域
別に前記字幕の有無を判定する第五手段を具備する映像
出力装置。
2. The video output device according to claim 1, wherein the third means comprises a fifth means for judging the presence or absence of the subtitle for each area.
【請求項3】請求項1に記載の前記第四の手段は、前記
字幕有りと判定した領域の字幕画素を検出する第六手段
と、検出した前記字幕を縮小する第七手段と、これを移
動する第八手段と、前記主映像の任意の位置に合成する
第九手段を具備する映像出力装置。
3. The fourth means according to claim 1, further comprising: sixth means for detecting subtitle pixels in an area determined to have the subtitle; and seventh means for reducing the detected subtitle. A video output device comprising: an eighth means for moving and a ninth means for synthesizing the main video at an arbitrary position.
【請求項4】請求項1に記載の前記第四の手段は、前記
字幕有りと判定した領域から字幕書式を検出する第十手
段と、検出した書式がユーザの指定した書式と一致した
場合に、前記副映像を主映像に切り換えて表示する第十
一手段を具備する映像出力装置。
4. The fourth means according to claim 1, wherein the tenth means for detecting a subtitle format from the area determined to have the subtitle and the detected format coincides with a format designated by a user. A video output device comprising eleventh means for switching the sub video to the main video for display.
【請求項5】請求項4に記載の前記第十手段は、前記字
幕の縦書き,横書き、更に上下左右の表示位置を基に書
式を検出する映像出力装置。
5. The video output device according to claim 4, wherein the tenth means detects the format based on vertical and horizontal writing of the subtitles, and the display positions of up, down, left and right.
【請求項6】請求項2に記載の前記第五手段において、
前記字幕の有無の判定は、映像中の高輝度画素の個数と
エッジの個数とそれらが一定時間静止していることを条
件として判定する映像出力装置。
6. The fifth means according to claim 2,
A video output device for determining the presence or absence of subtitles on the condition that the number of high-brightness pixels and the number of edges in a video and those of them remain stationary for a certain period of time.
JP7122147A 1995-05-22 1995-05-22 Video output device Pending JPH08317301A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7122147A JPH08317301A (en) 1995-05-22 1995-05-22 Video output device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7122147A JPH08317301A (en) 1995-05-22 1995-05-22 Video output device

Publications (1)

Publication Number Publication Date
JPH08317301A true JPH08317301A (en) 1996-11-29

Family

ID=14828776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7122147A Pending JPH08317301A (en) 1995-05-22 1995-05-22 Video output device

Country Status (1)

Country Link
JP (1) JPH08317301A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10112834A (en) * 1996-10-04 1998-04-28 Nippon Telegr & Teleph Corp <Ntt> Video retrieving method and device therefor
JPH10304247A (en) * 1997-04-30 1998-11-13 Nippon Telegr & Teleph Corp <Ntt> Method for detecting video telop and device therefor
JPH10322595A (en) * 1997-05-16 1998-12-04 Nippon Telegr & Teleph Corp <Ntt> Method and device for detecting video telop
WO2004047430A1 (en) * 2002-11-15 2004-06-03 Thomson Licensing S.A. Method and apparatus for composition of subtitles
JP2005084157A (en) * 2003-09-05 2005-03-31 Nec Corp Device and method for character recognition, character emphasizing method, display device, and mobile equipment
KR100652467B1 (en) * 1998-09-03 2006-12-01 소니 가부시끼 가이샤 The movement judgment equipment, the method and the picture information change equipment
CN1317888C (en) * 2003-08-27 2007-05-23 三洋电机株式会社 Image signal processor and image display
CN1327707C (en) * 2003-05-17 2007-07-18 三星电子株式会社 Method of processing subtitle stream, reproducing apparatus and information storage medium thereof
WO2008018479A1 (en) * 2006-08-08 2008-02-14 Sony Corporation Receiver apparatus, display control method and program
CN100382577C (en) * 2003-09-30 2008-04-16 国际商业机器公司 Method and apparatus for analyzing subtitles in a video
WO2010041457A1 (en) 2008-10-10 2010-04-15 パナソニック株式会社 Picture output device and picture output method
JP2010252050A (en) * 2009-04-15 2010-11-04 Sharp Corp Video processor, video display device, and video processing method
US8363163B2 (en) 2002-11-15 2013-01-29 Thomson Licensing Method and apparatus for composition of subtitles

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10112834A (en) * 1996-10-04 1998-04-28 Nippon Telegr & Teleph Corp <Ntt> Video retrieving method and device therefor
JPH10304247A (en) * 1997-04-30 1998-11-13 Nippon Telegr & Teleph Corp <Ntt> Method for detecting video telop and device therefor
JPH10322595A (en) * 1997-05-16 1998-12-04 Nippon Telegr & Teleph Corp <Ntt> Method and device for detecting video telop
KR100652467B1 (en) * 1998-09-03 2006-12-01 소니 가부시끼 가이샤 The movement judgment equipment, the method and the picture information change equipment
US8537282B2 (en) 2002-11-15 2013-09-17 Thomson Licensing Method and apparatus for composition of subtitles
US8373800B2 (en) 2002-11-15 2013-02-12 Thomson Licensing Method and apparatus for composition of subtitles
US9749576B2 (en) 2002-11-15 2017-08-29 Thomson Licensing Method and apparatus for composition of subtitles
US9635306B2 (en) 2002-11-15 2017-04-25 Thomson Licensing Method and apparatus for composition of subtitles
US9595293B2 (en) * 2002-11-15 2017-03-14 Thomson Licensing Method and apparatus for composition of subtitles
CN100377582C (en) * 2002-11-15 2008-03-26 汤姆森许可贸易公司 Method and apparatus for composition of subtitles
US9503678B2 (en) 2002-11-15 2016-11-22 Thomson Licensing Method and apparatus for composition of subtitles
AU2003279350B2 (en) * 2002-11-15 2008-08-07 Interdigital Ce Patent Holdings Method and apparatus for composition of subtitles
US9462221B2 (en) 2002-11-15 2016-10-04 Thomson Licensing Method and apparatus for composition of subtitles
US20160211000A9 (en) * 2002-11-15 2016-07-21 Thomson Licensing Method and apparatus for composition of subtitles
US7852411B2 (en) 2002-11-15 2010-12-14 Thomson Licensing Method and apparatus for composition of subtitles
US8737810B2 (en) 2002-11-15 2014-05-27 Thomson Licensing Method and apparatus for cropping of subtitle elements
US8363163B2 (en) 2002-11-15 2013-01-29 Thomson Licensing Method and apparatus for composition of subtitles
WO2004047430A1 (en) * 2002-11-15 2004-06-03 Thomson Licensing S.A. Method and apparatus for composition of subtitles
US8432493B2 (en) 2002-11-15 2013-04-30 Thomson Licensing Method and apparatus for composition of subtitles
US8531609B2 (en) 2002-11-15 2013-09-10 Thomson Licensing Method and apparatus for composition of subtitles
CN1327707C (en) * 2003-05-17 2007-07-18 三星电子株式会社 Method of processing subtitle stream, reproducing apparatus and information storage medium thereof
CN1317888C (en) * 2003-08-27 2007-05-23 三洋电机株式会社 Image signal processor and image display
JP2005084157A (en) * 2003-09-05 2005-03-31 Nec Corp Device and method for character recognition, character emphasizing method, display device, and mobile equipment
JP4631258B2 (en) * 2003-09-05 2011-02-16 日本電気株式会社 Portable device
CN100382577C (en) * 2003-09-30 2008-04-16 国际商业机器公司 Method and apparatus for analyzing subtitles in a video
US8872975B2 (en) 2006-08-08 2014-10-28 Sony Corporation Receiving device, display controlling method, and program
WO2008018479A1 (en) * 2006-08-08 2008-02-14 Sony Corporation Receiver apparatus, display control method and program
US8482672B2 (en) 2008-10-10 2013-07-09 Panasonic Corporation Video output device and video output method
US8724027B2 (en) 2008-10-10 2014-05-13 Panasonic Corporation Video output device and video output method
WO2010041457A1 (en) 2008-10-10 2010-04-15 パナソニック株式会社 Picture output device and picture output method
JP2010252050A (en) * 2009-04-15 2010-11-04 Sharp Corp Video processor, video display device, and video processing method

Similar Documents

Publication Publication Date Title
EP0870401B1 (en) Television apparatus and method with provisions for displaying an auxiliary image of variable size
EP0945005B1 (en) Method and apparatus for positioning auxiliary information proximate an auxiliary image in a multi-image display
US20030189669A1 (en) Method for off-image data display
CN108777775B (en) Method for displaying a video stream according to a customized format
EP0662272B1 (en) Television receiver
US5500680A (en) Caption display controlling device and the method thereof for selectively scrolling and displaying a caption for several scenes
KR100548056B1 (en) Video signal processing apparatus providing independent image modification in a multi-image display
US20020118299A1 (en) Adjustable video display window
CN101617286A (en) The picture adjustment methods and the device that are used for image display
JPH08317301A (en) Video output device
US20170134822A1 (en) Informational banner customization and overlay with other channels
US20040100578A1 (en) Sub picture control apparatus and method for television receiver
CN100484210C (en) Method of video image processing
KR100253211B1 (en) Screen display control apparatus and method for display
JPH08140065A (en) Teletext receiver
JPH0614307A (en) Television image receiver with character broadcasting receiving function
KR930011593B1 (en) Tv left/right on-screen display method
KR20000034479A (en) Onscreen display device of a digital television receiver
KR19990050606A (en) Sub-screen playback method according to commercial broadcasting detection of multi-screen television
KR0163555B1 (en) Method and apparatus for controlling osd of the image processing system
KR100499505B1 (en) Apparatus for format conversion in digital TV
KR100292358B1 (en) Method for controlling displaying caption signal according to limitation condition
KR100697433B1 (en) Method and apparatus for processing caption of an image display device
JP2000341623A (en) Auxiliary display method for character picture on tv monitor and its device
KR100618227B1 (en) Method and apparatus for processing a caption of an image display device