JP2000350095A - Video processor - Google Patents

Video processor

Info

Publication number
JP2000350095A
JP2000350095A JP11160563A JP16056399A JP2000350095A JP 2000350095 A JP2000350095 A JP 2000350095A JP 11160563 A JP11160563 A JP 11160563A JP 16056399 A JP16056399 A JP 16056399A JP 2000350095 A JP2000350095 A JP 2000350095A
Authority
JP
Japan
Prior art keywords
video
signal
subtitles
block
subtitle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11160563A
Other languages
Japanese (ja)
Inventor
Shingo Kamiya
伸悟 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP11160563A priority Critical patent/JP2000350095A/en
Publication of JP2000350095A publication Critical patent/JP2000350095A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a video processor by which the display range of subtitles is detected and masking is executed only there by generating a mask image for covering blocks based on the density of specified color dots, which is decided to be the subtitles blocks, and compositing the mask image with the inputted image. SOLUTION: A signal fetching part 1 detects the 100% white dots, which seem to be subtitles telops and inputs the density information to a subtitles deciding part 2. The part 2 decides the block, where the subtitles are displayed based on density information inputted from the fetching part 1 and the timewise change situation of the density information and indicates a signal processing part 3 to generate a video signal for masking the area, where the subtitles blocks are distributed. The part 3 generates the mask image only for the subtitles areas, composites it with the video signal to be inputted and then outputs it to a monitor. Thus, the video where the subtitles telops are hidden by the mask image is displayed on the monitor.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、洋画などの映像
信号から字幕のテロップをマスクして見えなくする映像
処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video processing apparatus for masking a subtitle telop from a video signal such as a foreign image to make it invisible.

【0002】[0002]

【発明が解決しようとする課題】洋画などをビデオ化し
た映像で、吹き替えでなく原語のままの音声のものは、
一般的に画面の下部に字幕テロップが表示される。とこ
ろが、洋画から語学の学習をしようとするものにとって
は、字幕があると意識が字幕のほうに引き寄せられ言語
の会話に集中できなくなるという欠点があった。
SUMMARY OF THE INVENTION Video images of foreign films, etc., which are not dubbed but sound in their original language,
Generally, a caption telop is displayed at the bottom of the screen. However, for those who are trying to learn languages from foreign films, there is a drawback that if subtitles are present, their consciousness will be drawn to the subtitles and they will not be able to concentrate on language conversation.

【0003】そこで字幕をマスクする装置が考えられる
が、ビデオによって字幕が表示される範囲は一定でない
ため、予め適当なマスク範囲を決めておくことができ
ず、どのビデオでも字幕をマスクできる程度に広範囲の
マスク映像を生成するようにすると、その範囲が広くな
りすぎて映画そのものを楽しむことができなくなるとい
う欠点があった。
[0003] A device for masking subtitles is conceivable. However, since the range in which subtitles are displayed by video is not constant, it is not possible to determine an appropriate masking range in advance. When a wide range of mask images is generated, there is a disadvantage that the range becomes too wide to enjoy the movie itself.

【0004】この発明は、字幕の表示範囲を検出してそ
こだけマスクすることのできる映像処理装置を提供する
ことを目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a video processing device capable of detecting a subtitle display range and masking only the display range.

【0005】[0005]

【課題を解決するための手段】この発明は、ビデオ信号
として入力された映像の各ドットが字幕の表示色である
特定色であるかを検出するとともに、該映像を複数のブ
ロックに分割し、分割されたブロック毎に前記特定色の
ドットの密度を検出する特定色密度検出手段と、特定色
密度検出手段が所定の間隔で複数回検出した特定色のド
ットの密度に基づいて字幕を表示するブロックである字
幕ブロックを判定する字幕ブロック判定手段と、字幕ブ
ロックと判定されたブロックを覆うマスク映像を生成
し、このマスク映像を前記入力された映像に合成する合
成手段と、を備えたことを特徴とする。
SUMMARY OF THE INVENTION The present invention detects whether each dot of an image input as a video signal is a specific color which is a display color of a subtitle, and divides the image into a plurality of blocks. Specific color density detecting means for detecting the density of the specific color dot for each divided block; and displaying subtitles based on the density of the specific color dot detected a plurality of times at predetermined intervals by the specific color density detecting means. A subtitle block determining unit that determines a subtitle block that is a block, and a synthesizing unit that generates a mask video covering the block determined to be the subtitle block and synthesizes the mask video with the input video. Features.

【0006】字幕の表示色は、一般的には100%白で
あるが、これ以外の色であっても予め設定しておくこと
により、その表示色を検出することができる。映像をブ
ロックに分割して前記字幕の表示色である特定色の密度
を検出する。ブロックは、s×mドットの矩形に分割し
てもよく、1×mの線形に分割してもよい。線形に分割
するのはビデオ信号が走査線信号として入力されるた
め、メモリを使わずに実時間処理が可能であるからであ
る。また、1×1のドットを1ブロックとすることによ
り、ドット単位の処理も可能である。これもこの発明に
含まれる。
The display color of the caption is generally 100% white, but any other color can be detected by setting it in advance. The video is divided into blocks, and the density of a specific color, which is the display color of the caption, is detected. The blocks may be divided into rectangles of s × m dots or linearly of 1 × m. The linear division is performed because a video signal is input as a scanning line signal, so that real-time processing can be performed without using a memory. In addition, by making 1 × 1 dots into one block, dot-by-dot processing is also possible. This is also included in the present invention.

【0007】ビデオ信号の映像は動画映像であるため、
各ドットや各ブロックの色(輝度を含む)は時間ととも
に滑らかに変化する。しかし、字幕は必要に応じて表示
・消去される静止画映像であるため、表示中は色が変化
せず表示・消去タイミングには色が不連続に変化する。
これらの特徴に基づいてどのブロックが字幕を表示して
いる字幕ブロックであるかを判断し、その字幕ブロック
をマスクするマスク映像を生成して元の映像に合成す
る。これにより、予め字幕の表示エリアが判っていなく
ても適当な大きさのマスク映像を生成し、字幕をマスク
することががきる。
[0007] Since the video signal is a moving image,
The color (including luminance) of each dot and each block changes smoothly with time. However, since the subtitle is a still image that is displayed and deleted as needed, the color does not change during display, and the color changes discontinuously at the display and deletion timing.
Based on these characteristics, it is determined which block is the subtitle block displaying the subtitle, and a mask image for masking the subtitle block is generated and combined with the original image. This makes it possible to generate a mask image of an appropriate size and mask the subtitle even if the display area of the subtitle is not known in advance.

【0008】[0008]

【発明の実施の形態】図面を参照してこの発明の実施形
態である映像処理装置について説明する。図1は同映像
処理装置のブロック図である。この映像処理装置は、白
抜き(100%白)で表示された字幕を検出し、その表
示エリアを灰色のマスク画像でカバーするものである。
通常のビデオ映像は、常時色(明度を含む)が変動して
おり、その変化は連続的であるのに対し、字幕テロップ
は、一定時間静止して表示される静止がであり、表示開
始時と消去時には不連続に色が変化する。また、全く同
じ色(100%白)のドットが多く分布するのも通常の
ビデオ映像では稀なこととである。この映像処理装置
は、字幕テロップのこれらの特性を利用して字幕テロッ
プの表示エリアを割り出し、このエリアのみにマスク画
像を表示するものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A video processing apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram of the video processing device. This video processing device detects captions displayed in white (100% white) and covers the display area with a gray mask image.
In a normal video image, the color (including brightness) constantly fluctuates, and the change is continuous. On the other hand, the subtitle telop is a still image that is displayed for a fixed period of time. And the color changes discontinuously during erasure. Also, it is rare for ordinary video images that many dots of exactly the same color (100% white) are distributed. This video processing device determines a display area of a caption telop using these characteristics of a caption telop, and displays a mask image only in this area.

【0009】この装置は、信号取込部1、字幕判定部2
および信号処理部3で構成されている。映像信号は信号
取込部1および信号処理部3に入力されている。信号取
込部1は、字幕テロップと思われる100%白のドット
を検出してその密度情報を字幕判定部2に入力する。密
度情報は、画面全体を1〜複数ドットからなるブロック
に分割し、各ブロック毎に100%白のドットが占める
密度を割り出し、100%白のドットが一定以上の密度
で分布しているブロックに“1=候補ブロック”を割り
当て、それ以外のブロックに“0”を割り当てた情報で
ある。この実施形態では、1ブロックを縦方向1ドット
(1走査線)×横方向mドット(1走査線の総ドット数
のn分の1)で構成している。
This apparatus has a signal acquisition unit 1, a subtitle determination unit 2,
And a signal processing unit 3. The video signal is input to the signal capturing unit 1 and the signal processing unit 3. The signal capturing unit 1 detects a 100% white dot that is considered to be a caption telop, and inputs the density information to the caption determining unit 2. The density information is obtained by dividing the entire screen into blocks each including one to a plurality of dots, calculating the density occupied by 100% white dots for each block, and calculating the density of the blocks in which 100% white dots are distributed at a certain density or higher. This is information in which “1 = candidate block” is assigned and “0” is assigned to other blocks. In this embodiment, one block is composed of one dot in the vertical direction (one scanning line) × m dots in the horizontal direction (1 / n of the total number of dots in one scanning line).

【0010】字幕判定部2は、信号取込部1から入力さ
れた密度情報およびこの密度情報の時間的な変化状況な
どに基づいて字幕が表示されているブロックを判定し、
字幕ブロックが分布しているエリアをマスクする映像信
号を発生するように信号処理部3に指示する。信号処理
部3は、上記字幕エリアのみのマスク映像を生成し、こ
れを入力される映像信号に合成してモニタに出力する。
これによって字幕テロップがマスク映像に隠された映像
がモニタに表示される。
[0010] The subtitle determination unit 2 determines the block in which the subtitle is displayed based on the density information input from the signal acquisition unit 1 and the temporal change of the density information.
It instructs the signal processing unit 3 to generate a video signal that masks the area where the subtitle blocks are distributed. The signal processing unit 3 generates a mask image of only the above-mentioned subtitle area, combines this with a video signal to be input, and outputs it to a monitor.
As a result, an image in which the caption telop is hidden by the mask image is displayed on the monitor.

【0011】図2は信号取込部1のブロック図である。
図3、図4は、同信号取込部1の各部の信号を示す図で
ある。図2において、信号取込部1は、映像信号Vid
eoを入力してこれを比較器10、Hパルス生成部1
7、nパルス生成部18およびVパルス生成部19に入
力する。比較器10の比較入力端子にはしきい値電圧T
h1が供給されており、入力された映像信号がこのしき
い値電圧Th1よりも高いとき出力端子から“H”を出
力し、入力された映像信号がこのしきい値電圧Th1よ
りも低いとき出力端子から“L”を出力する。図3
(A),(B)に示すように、しきい値電圧Th1は1
00%白に近いレベルに設定されており、字幕や一部の
真っ白な映像の部分のみで“H”が出力される。一般的
な映像では、このような100%白のドットは多くない
ため、字幕の部分は、他の部分に比べて“H”の密度が
高くなっている。
FIG. 2 is a block diagram of the signal acquisition unit 1.
FIG. 3 and FIG. 4 are diagrams showing signals of each unit of the signal acquisition unit 1. In FIG. 2, the signal capturing unit 1 includes a video signal Vid
eo, which is input to the comparator 10, the H-pulse generator 1
7, input to the n-pulse generator 18 and the V-pulse generator 19. The comparison input terminal of the comparator 10 has a threshold voltage T
h1 is supplied, the output terminal outputs "H" when the input video signal is higher than the threshold voltage Th1, and outputs when the input video signal is lower than the threshold voltage Th1. "L" is output from the terminal. FIG.
As shown in (A) and (B), the threshold voltage Th1 is 1
The level is set to a level close to 00% white, and "H" is output only for subtitles and some pure white video portions. In a general video, there are not many such 100% white dots, and therefore, the subtitle portion has a higher “H” density than other portions.

【0012】比較器10の出力はスイッチ11を開閉す
る。すなわち、比較器10が“H”を出力するスイッチ
11がオンし、比較器10が“L”を出力している間は
スイッチ11はオフしている。スイッチ11はFETな
どからなる半導体スイッチであり0.1μS程度の応答
速度を有している。これにより、連続時間信号である映
像信号で約400ドット程度の水平分解能を得ることが
できる。比較器10の出力が“H”になりスイッチ11
がオンすると、平均化回路Cに定電流源9から電流が流
れ込む。平均化回路Cはコンデンサで構成されており、
スイッチ11がオンされる時間に応じた電荷が蓄積さ
れ、それに応じた端子間電圧を発生する(図4,参
照)。この電圧は比較器14に供給される。
The output of the comparator 10 opens and closes a switch 11. That is, the switch 11 from which the comparator 10 outputs “H” is turned on, and the switch 11 is off while the comparator 10 is outputting “L”. The switch 11 is a semiconductor switch composed of an FET or the like, and has a response speed of about 0.1 μS. This makes it possible to obtain a horizontal resolution of about 400 dots in a video signal that is a continuous time signal. The output of the comparator 10 becomes “H” and the switch 11
Turns on, current flows from the constant current source 9 into the averaging circuit C. The averaging circuit C is composed of a capacitor,
Charges corresponding to the time when the switch 11 is turned on are accumulated, and a voltage between terminals is generated according to the charge (see FIG. 4). This voltage is supplied to the comparator 14.

【0013】一方、Hパルス生成部17は、入力した映
像信号Videoから水平同期信号H.SYNCを検出
し、これと同期したパルス(Hパルス)を出力する(図
4参照)。nパルス生成部18は、Hパルス生成部1
7と同様に入力した映像信号Videoから水平同期信
号H.SYNCを検出し、この水平同期信号H.SYN
Cの時間間隔(1/1575秒)をn等分した間隔でパ
ルス(nパルス)を出力する(図4参照)。すなわ
ち、このnパルスは1走査線の時間をブロック毎に分割
するパルスである。また、Vパルス生成部19は垂直同
期信号V.SYNCを検出してこれを同期したパルス
(Vパルス)を出力する。
On the other hand, the H-pulse generator 17 converts the input video signal Video into a horizontal synchronization signal H.H. SYNC is detected, and a pulse (H pulse) synchronized with the SYNC is output (see FIG. 4). The n-pulse generation unit 18 is configured to
7 from the input video signal Video to the horizontal synchronization signal H.H. SYNC is detected, and the horizontal synchronizing signal H.SYNC is detected. SYN
Pulses (n pulses) are output at intervals obtained by equally dividing the time interval of C (1/1575 seconds) by n (see FIG. 4). That is, the n pulses are pulses that divide the time of one scanning line into blocks. Further, the V pulse generating unit 19 outputs the vertical synchronizing signal V.V. SYNC is detected and a pulse (V pulse) synchronized with this is output.

【0014】Hパルスは、後述のシフトレジスタ15に
ラッチパルスとして供給されるとともに、CPU21に
割込信号として入力される。Vパルスは、後述のPIO
16にフィールド区切り信号として入力される。また、
nパルスは、シフトレジスタ15にシフトパルスとして
供給される(図4)参照)とともに、ディレイ20を
介して前記平均化回路Cに並行に接続されているリセッ
トスイッチ13に出力される(図4参照)。ディレイ
20は、図4に示すようにnパルスのパルス幅程度のデ
ィレイであり、シフトレジスタ15が、nパルスをトリ
ガとして比較器14の出力をサンプリングするまで、平
均化回路Cのリセットを遅らせるためのものである。
The H pulse is supplied as a latch pulse to a shift register 15 described later, and is input to the CPU 21 as an interrupt signal. The V pulse is used for a PIO to be described later.
16 is input as a field delimiter signal. Also,
The n pulse is supplied to the shift register 15 as a shift pulse (see FIG. 4), and is output to a reset switch 13 connected in parallel to the averaging circuit C via a delay 20 (see FIG. 4). ). The delay 20 is a delay having a pulse width of about n pulses as shown in FIG. 4, and is used to delay the reset of the averaging circuit C until the shift register 15 samples the output of the comparator 14 using the n pulses as a trigger. belongs to.

【0015】平均化回路Cは、ブロック毎に“H”時間
に対応する電荷が蓄積され、この電荷に応じた電圧が出
力される(図4参照)。ブロックの時間が経過し、次
のブロックになるときリセットスイッチ13の閉成によ
って平均化回路Cはリセットされる。平均化回路Cの電
圧は比較器14に出力される。比較器14の比較入力端
子には、白ドットの密度に基づいてこのブロックを字幕
が表示されるブロックの可能性が高い候補ブロックを判
定するためのしきい値電圧Th2が供給されており、平
均化回路Cの入力電圧がこれより高くなったとき比較器
14は“H”信号を出力する(図4参照)。
The averaging circuit C accumulates charges corresponding to the "H" time for each block, and outputs a voltage corresponding to the charges (see FIG. 4). When the time of the block has elapsed and the next block is reached, the averaging circuit C is reset by closing the reset switch 13. The voltage of the averaging circuit C is output to the comparator 14. The comparison input terminal of the comparator 14 is supplied with a threshold voltage Th2 for determining a candidate block having a high possibility of a block displaying a caption based on the density of the white dot, and averaging the threshold voltage Th2. When the input voltage of the conversion circuit C becomes higher than this, the comparator 14 outputs an "H" signal (see FIG. 4).

【0016】シフトレジスタ15は、シフトパルス(n
パルス)が入力されたとき比較器14の出力をサンプリ
ングし、レジスタの内容をシフトする。こののち、リセ
ットスイッチ13にリセットパルス(ディレイ20でデ
ィレイされたnパルス)が入力されることにより平均化
回路Cの電荷は放電され、その出力電圧も比較器14の
出力もリセットされる。
The shift register 15 has a shift pulse (n
When a pulse is input, the output of the comparator 14 is sampled and the contents of the register are shifted. Thereafter, when a reset pulse (n pulses delayed by the delay 20) is input to the reset switch 13, the charge of the averaging circuit C is discharged, and the output voltage and the output of the comparator 14 are reset.

【0017】シフトレジスタ15はn段のシフトレジス
タであり、比較器10→スイッチ11→平均化回路C→
比較器14→シフトレジスタ15の系列は、映像信号V
ideoの1走査線の期間に上記動作をn回繰り返し実
行する。そして、n回の動作ののち、Hパルス生成部1
7からHパルスが入力されると、n段のシフトレジスタ
の値がnビットの信号としてPIO16に転送される。
同時にCPU21は、Hパルスによる割り込みに応じて
PIO16にラッチされたnビットの信号をRAM23
に取り込む。
The shift register 15 is an n-stage shift register, and includes a comparator 10 → a switch 11 → an averaging circuit C →
The sequence from the comparator 14 to the shift register 15 is the video signal V
The above operation is repeated n times during one scan line of the video. Then, after n operations, the H pulse generation unit 1
When an H pulse is input from 7, the value of the n-stage shift register is transferred to the PIO 16 as an n-bit signal.
At the same time, the CPU 21 outputs the n-bit signal latched in the PIO 16 in response to the interruption by the H pulse to the RAM 23.
Take in.

【0018】なお、Vパルス生成部19が出力するVパ
ルスもPIO16を介してCPU21に入力される。C
PU21は、Vパルスが入力されることにより、現在の
映像信号がV.SYNCの位置であることを知ることが
でき、これによりフィールド単位、フレーム単位の処理
が可能になる。
The V pulse output from the V pulse generator 19 is also input to the CPU 21 via the PIO 16. C
When the V pulse is input, the PU 21 changes the current video signal to the V.PU. It is possible to know that the position is a SYNC position, which enables processing in units of fields and frames.

【0019】図2において、PIO16が接続されてい
るCPU−BUSには、マイコン部としてCPU21、
RAM23のほかROM22、ハードディスク24が接
続されている。ROM22には、この装置を起動させる
ための起動プログラムなどが記憶されている。ハードデ
ィスク24には字幕判定用のプログラムが記憶されてお
り、起動時にRAM23に読み込まれる。このマイコン
部が図1の字幕判定部2に対応する。なお、プログラム
をROM化してしまえばハードディスク24は不要であ
る。
In FIG. 2, the CPU-BUS to which the PIO 16 is connected includes a CPU 21 as a microcomputer unit,
In addition to the RAM 23, a ROM 22 and a hard disk 24 are connected. The ROM 22 stores a start-up program for starting the apparatus. A subtitle determination program is stored in the hard disk 24, and is read into the RAM 23 at startup. This microcomputer section corresponds to the caption determination section 2 in FIG. It is to be noted that the hard disk 24 is unnecessary if the program is stored in a ROM.

【0020】図5のメモリ構成図、図6のフローチャー
ト、を参照してCPU21の字幕判定動作について説明
する。図5(A)において、RAM23には、n×48
3ビットのフレームメモリが20フレーム分設定されて
いる。各フレームメモリは、1走査線分のnブロックの
密度情報を1フレーム分記憶する記憶エリアである。N
TSC信号では1フレームの走査線数が525本である
が、このうち40本程度はブランキング期間であるた
め、縦方向は483で足りる。また、各フレームメモリ
はフレームポインタiで識別される。
The subtitle determination operation of the CPU 21 will be described with reference to the memory configuration diagram of FIG. 5 and the flowchart of FIG. In FIG. 5A, n × 48 is stored in the RAM 23.
A 3-bit frame memory is set for 20 frames. Each frame memory is a storage area for storing one block of density information of n blocks for one scanning line. N
In the TSC signal, the number of scanning lines in one frame is 525, but 483 is sufficient in the vertical direction because about 40 of them are in the blanking period. Each frame memory is identified by a frame pointer i.

【0021】図6において、この装置が起動されるとま
ずイニシャライズ動作を実行する(s1)。イニシャラ
イズ動作は、RAM23のクリア、同図のプログラムの
読み込み、フレームポインタiに1をセットするなどの
処理である。こののち、映像信号Videoが入力され
るまでs2で待機する。映像信号の入力はHパルスによ
る割り込みによって検出することができる。
In FIG. 6, when this apparatus is started, first, an initialization operation is executed (s1). The initialization operation is a process of clearing the RAM 23, reading the program shown in the figure, and setting 1 to the frame pointer i. After that, it waits at s2 until the video signal Video is input. The input of the video signal can be detected by interruption by the H pulse.

【0022】映像信号が入力されると、1フレーム分の
密度情報を取り込む(s3)。フレームのスタートは、
PIO16からのVパルスの入力などで判断することが
できる。Hパルスが入力されるごとにPIO16から1
走査線分の密度情報を取り込み、ブランキング期間を除
く全ての走査線の密度情報をフレームメモリに書き込ん
だのちs3の処理を終了する。
When a video signal is input, density information for one frame is fetched (s3). The start of the frame
The determination can be made by inputting a V pulse from the PIO 16 or the like. 1 every time the H pulse is input
The density information of the scanning lines is fetched, and the density information of all the scanning lines except the blanking period is written in the frame memory, and then the process of s3 is ended.

【0023】s3の処理を20フレーム分実行する(s
4)が、連続したフレームから取り込むのではなく、1
/2秒(15フレーム)程度の間隔をおいて(s6)、
取り込む。この取り込みののち、どのブロックが字幕を
表示する字幕ブロックであるかを判定する(s7)。こ
の判定は以下のようにして行う。映像信号は動画である
ため、各ブロック(ドット)の色(明度を含む)は時間
とともに連続的に変化する。これに対して、字幕は静止
状態で表示されているため、時間が経過しても同じよう
に100%白である。そして、字幕が消去されたときそ
のブロックの色が不連続に変化する。この不連続な変化
は画面全体が切り換わった場合と異なり字幕の部分のみ
である。また、字幕は一般的に横1行または縦1行に表
示されるものが多いため、ある区画に集中的に特定の色
(この場合は100%白)のブロックが発生する。この
ような特徴に基づいて、時系列のフレームメモリを検査
し、字幕ブロックを判定する(図5(B)参照)。字幕
のブロックが判定されると、図5(B)に示すように全
ての字幕ブロックをカバーする最小の矩形のエリアを決
定し、マスクエリアとする。ただし、同図に示すように
字幕ブロックと判定されたが他の字幕ブロックから孤立
しているものは偶然100%白であった映像部分である
としてこれを無視する。
The processing of s3 is executed for 20 frames (s
4), instead of capturing from consecutive frames,
At an interval of about 1/2 second (15 frames) (s6),
take in. After the capture, it is determined which block is a subtitle block for displaying subtitles (s7). This determination is performed as follows. Since the video signal is a moving image, the color (including brightness) of each block (dot) continuously changes with time. On the other hand, since the caption is displayed in a stationary state, the caption is similarly 100% white even after a lapse of time. When the subtitle is deleted, the color of the block changes discontinuously. This discontinuous change is only in the subtitle part, unlike the case where the entire screen is switched. Also, since subtitles are generally displayed in one horizontal line or one vertical line, blocks of a specific color (in this case, 100% white) are concentrated in a certain section. Based on such characteristics, a time-series frame memory is inspected to determine a subtitle block (see FIG. 5B). When the subtitle block is determined, as shown in FIG. 5B, the smallest rectangular area that covers all the subtitle blocks is determined and set as a mask area. However, as shown in the figure, a subtitle block that is determined as a subtitle block but is isolated from other subtitle blocks is ignored because it is a video portion that happened to be 100% white.

【0024】図6において、このマスクエリアをRAM
23に記憶し(s8)、信号処理部3に対してマスクエ
リアを指定する信号を出力して映像信号の処理を制御す
る(s9)。この制御は映像信号が入力されている間継
続される。
In FIG. 6, this mask area is stored in RAM
23 (s8), and outputs a signal specifying a mask area to the signal processing unit 3 to control the processing of the video signal (s9). This control is continued while the video signal is being input.

【0025】図7は信号処理部のブロック図である。ま
た、図8は信号処理部で処理された映像信号の画像の例
を示す図である。
FIG. 7 is a block diagram of the signal processing unit. FIG. 8 is a diagram illustrating an example of an image of a video signal processed by the signal processing unit.

【0026】映像信号Videoは、同期信号分離回路
31およびビデオスイッチ33の一方の入力端子に入力
される。ビデオスイッチ33は出力端子がモニタに接続
されており、他方の入力端子には、NTSCエンコーダ
32からマスク映像が入力される。
The video signal Video is input to one of the input terminals of the synchronizing signal separating circuit 31 and the video switch 33. An output terminal of the video switch 33 is connected to the monitor, and a mask image from the NTSC encoder 32 is input to the other input terminal.

【0027】前記CPU21はビデオチップ30に対し
て前記マスクエリアおよびマスク映像の色などを指示す
る。ビデオチップ30には同期信号分離回路31から
H.SYNC、垂直同期信号V.SYNCおよびサブキ
ャリア周波数fscが入力される。ビデオチップ30は、
この同期信号に基づき、指示されたマスクエリアの映像
信号を映像信号Videoと同期して発生する。この信
号は、上記指示された色のRGB信号であり、NTSC
エンコーダ32によって、NTSCのコンポジット信号
に変換されたのち、前記ビデオスイッチ33に入力され
る(図8(B)参照)。
The CPU 21 instructs the video chip 30 on the mask area and the color of the mask image. The video chip 30 receives the H.264 signal from the synchronization signal separation circuit 31. SYNC, vertical synchronization signal V. SYNC and subcarrier frequency f sc are input. The video chip 30
Based on the synchronization signal, a video signal of the designated mask area is generated in synchronization with the video signal Video. This signal is an RGB signal of the designated color,
After being converted into an NTSC composite signal by the encoder 32, it is input to the video switch 33 (see FIG. 8B).

【0028】ビデオチップ30は、また、透明信号YS
を出力する。この透明信号YSは、ビデオチップ30自
身が映像信号を作成していないときに出力される信号で
あり、上記マスクエリア以外のエリアで出力される。こ
のYS信号がビデオスイッチ33に切換信号として入力
される。YS信号が入力されているときは映像信号Vi
deoが出力端子に出力され、YS信号が入力されてい
ないときはNTSCエンコーダ32側のマスク映像が出
力端子に出力される。これにより、モニタに出力される
映像は字幕の部分がマスクされた図8(C)のような映
像となる。
The video chip 30 also has a transparent signal YS
Is output. This transparent signal YS is a signal output when the video chip 30 itself does not create a video signal, and is output in an area other than the mask area. This YS signal is input to the video switch 33 as a switching signal. When the YS signal is input, the video signal Vi
Deo is output to the output terminal, and when the YS signal is not input, the mask image of the NTSC encoder 32 is output to the output terminal. As a result, the video output to the monitor becomes a video as shown in FIG. 8C in which the subtitle portion is masked.

【0029】なお、この実施形態では、信号取込部をア
ナログ回路で構成したが、映像信号をディジタル化して
ディジタル回路で信号取込部を構成してもよい。
In this embodiment, the signal capturing section is constituted by an analog circuit. However, the signal capturing section may be constituted by a digital circuit by digitizing a video signal.

【0030】また、この実施形態では、ブロックを1×
mドットとしたが、複数の走査線にわたってブロックを
構成してもよい。また、上記フレームメモリの記憶内容
に基づいて複数走査線にわたるブロックを再構成するこ
とも可能である。
In this embodiment, the blocks are 1 ×
Although m dots are used, a block may be formed over a plurality of scanning lines. Further, it is also possible to reconstruct a block extending over a plurality of scanning lines based on the contents stored in the frame memory.

【0031】また、シフトレジスタ15から入力される
データは1ビットのデータであったが、白ドットの密度
に応じた多ビットのデータにしてもよい。
Although the data input from the shift register 15 is 1-bit data, it may be multi-bit data according to the density of white dots.

【0032】また、ブロックの大きさを1×1にすれば
ドット単位の判定となり、これも本願発明に含まれる。
If the size of the block is set to 1 × 1, it is determined in dot units, which is also included in the present invention.

【0033】また、この実施形態では、字幕テロップは
白ぬきで表示されるものとしたが、テロップの色は何色
でもよく、検出対象をその色に合わせればよい。
Further, in this embodiment, the subtitle telop is displayed without white, but the telop may be of any color, and the object to be detected may be matched to that color.

【0034】また、字幕テロップが出現するべきエリア
として予め画面の下部1/3のエリアなど、エリアを指
定しておくことによって、全く異なるエリアに出現した
候補エリアを排除することができ、判定を容易にするこ
とができるとともに、誤判定を無くすことができる。
By designating an area such as the lower third of the screen as an area where a caption telop should appear, a candidate area that appears in a completely different area can be excluded. This can facilitate the determination and eliminate erroneous determination.

【0035】なお、上記実施形態では、信号取込部1に
入力される映像信号と信号処理部3に入力される映像信
号は同じタイミングのものであり、字幕判定部2が字幕
のエリアを判定するまでの数秒〜10秒程度の間は、字
幕が表示されたままの映像がモニタに出力されることに
なる。そこで、信号処理部3の前段に、映像信号を数秒
〜10秒程度遅延させる遅延装置を設けることにより、
映像信号の最初から字幕を表示させるようにすることも
できる。
In the above embodiment, the video signal input to the signal capturing unit 1 and the video signal input to the signal processing unit 3 have the same timing, and the subtitle determination unit 2 determines the subtitle area. For a few seconds to about 10 seconds, the video with the subtitle displayed is output to the monitor. Therefore, by providing a delay device for delaying the video signal by several seconds to about 10 seconds in the preceding stage of the signal processing unit 3,
Captions can be displayed from the beginning of the video signal.

【0036】なお、この遅延装置の遅延時間と字幕判定
部2の判定時間とが完全に一致している必要はない。
It is not necessary that the delay time of the delay device and the determination time of the subtitle determination unit 2 completely match.

【0037】なお、字幕判定部は字幕エリアを検出した
のち完全に動作を停止してもよく、常時字幕の有無を判
定しており、字幕が長時間表示されていないと判断した
場合にはマスクを解除するなどの制御をするようにして
もよい。
The subtitle determination unit may stop the operation completely after detecting the subtitle area. The subtitle determination unit always determines the presence or absence of the subtitle. May be canceled.

【0038】[0038]

【発明の効果】以上のようにこの発明によれば、予め字
幕の表示エリアが判っていなくても、これを検出してマ
スク映像を合成して入力映像を表示することができるた
め、洋画などの字幕付きの映像を原語のみで楽しむこと
ができる。
As described above, according to the present invention, even if the display area of the caption is not known in advance, it is possible to detect the caption and synthesize the mask image to display the input image. You can enjoy videos with subtitles only in the original language.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施形態である映像処理装置のブロ
ック図
FIG. 1 is a block diagram of a video processing apparatus according to an embodiment of the present invention;

【図2】同映像処理装置の信号取込部の構成を示す図FIG. 2 is a diagram showing a configuration of a signal acquisition unit of the video processing device.

【図3】同信号取込部の比較器の動作を説明する図FIG. 3 is a diagram for explaining the operation of a comparator of the signal capturing unit;

【図4】同信号取込部の各部の信号を示す図FIG. 4 is a diagram showing a signal of each unit of the signal acquisition unit;

【図5】同字幕判定部のメモリ構成を示す図FIG. 5 is a diagram showing a memory configuration of the subtitle determination unit.

【図6】同映像処理装置の字幕判定部の動作を示すフロ
ーチャート
FIG. 6 is a flowchart showing the operation of a caption determination unit of the video processing device.

【図7】同映像処理装置の信号処理部のブロック図FIG. 7 is a block diagram of a signal processing unit of the video processing device.

【図8】同信号処理部で処理される映像信号の例を示す
FIG. 8 is a diagram showing an example of a video signal processed by the signal processing unit.

【符号の説明】[Explanation of symbols]

1…信号取込部、2…字幕判定部、3…信号処理部、4
…遅延回路、10…比較器、11…スイッチ、C…平均
化回路、12…定電流源、13…リセットスイッチ、1
4…比較器、15…(n段)シフトレジスタ、16…P
IO、17…Hパルス生成部、18…nパルス生成部、
19…Vパルス生成部、20…ディレイ、21…CP
U、22…ROM、23…RAM、24…ハードディス
ク、30…ビデオチップ、31…同期信号分離回路、3
2…NTSCエンコーダ、33…ビデオスイッチ
DESCRIPTION OF SYMBOLS 1 ... Signal acquisition part, 2 ... Caption judgment part, 3 ... Signal processing part, 4
... delay circuit, 10 ... comparator, 11 ... switch, C ... averaging circuit, 12 ... constant current source, 13 ... reset switch, 1
4 ... Comparator, 15 ... (n-stage) shift register, 16 ... P
IO, 17 ... H pulse generator, 18 ... n pulse generator,
19 V pulse generator, 20 delay, 21 CP
U, 22 ROM, 23 RAM, 24 hard disk, 30 video chip, 31 synchronization signal separation circuit, 3
2: NTSC encoder, 33: Video switch

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 ビデオ信号として入力された映像の各ド
ットが字幕の表示色である特定色であるかを検出すると
ともに、該映像を複数のブロックに分割し、分割された
ブロック毎に前記特定色のドットの密度を検出する特定
色密度検出手段と、 特定色密度検出手段が所定の間隔で複数回検出した特定
色のドットの密度に基づいて字幕を表示するブロックで
ある字幕ブロックを判定する字幕ブロック判定手段と、 字幕ブロックと判定されたブロックを覆うマスク映像を
生成し、このマスク映像を前記入力された映像に合成す
る合成手段と、 を備えた映像処理装置。
1. A method for detecting whether each dot of an image input as a video signal is a specific color which is a display color of a caption, dividing the image into a plurality of blocks, and performing the identification for each of the divided blocks. Specific color density detecting means for detecting the density of color dots; and determining a subtitle block which is a block for displaying subtitles based on the density of the specific color dots detected a plurality of times at predetermined intervals by the specific color density detecting means. A video processing apparatus comprising: a subtitle block determining unit; and a synthesizing unit that generates a mask video covering a block determined to be a subtitle block, and synthesizes the mask video with the input video.
JP11160563A 1999-06-08 1999-06-08 Video processor Pending JP2000350095A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11160563A JP2000350095A (en) 1999-06-08 1999-06-08 Video processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11160563A JP2000350095A (en) 1999-06-08 1999-06-08 Video processor

Publications (1)

Publication Number Publication Date
JP2000350095A true JP2000350095A (en) 2000-12-15

Family

ID=15717695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11160563A Pending JP2000350095A (en) 1999-06-08 1999-06-08 Video processor

Country Status (1)

Country Link
JP (1) JP2000350095A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004006569A1 (en) * 2002-07-09 2004-01-15 Televentions, Llc System and method for obscuring a portion of a displayed image
WO2006009105A1 (en) * 2004-07-20 2006-01-26 Matsushita Electric Industrial Co., Ltd. Video processing device and its method
JP2006135942A (en) * 2004-10-06 2006-05-25 Matsushita Electric Ind Co Ltd Transmitting device, reconstruction device, transmitting method and reconstruction method for broadcasts with hidden subtitles
JP2017526316A (en) * 2015-05-29 2017-09-07 小米科技有限責任公司Xiaomi Inc. Method, apparatus, program and recording medium for processing moving picture file identifier

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004006569A1 (en) * 2002-07-09 2004-01-15 Televentions, Llc System and method for obscuring a portion of a displayed image
WO2006009105A1 (en) * 2004-07-20 2006-01-26 Matsushita Electric Industrial Co., Ltd. Video processing device and its method
JPWO2006009105A1 (en) * 2004-07-20 2008-05-01 松下電器産業株式会社 Video processing apparatus and method
US7817856B2 (en) 2004-07-20 2010-10-19 Panasonic Corporation Video processing device and its method
JP4667381B2 (en) * 2004-07-20 2011-04-13 パナソニック株式会社 Video processing apparatus and method
JP2006135942A (en) * 2004-10-06 2006-05-25 Matsushita Electric Ind Co Ltd Transmitting device, reconstruction device, transmitting method and reconstruction method for broadcasts with hidden subtitles
JP4664173B2 (en) * 2004-10-06 2011-04-06 パナソニック株式会社 Transmitting apparatus, reproducing apparatus, and methods for subtitle concealment broadcasting
JP2017526316A (en) * 2015-05-29 2017-09-07 小米科技有限責任公司Xiaomi Inc. Method, apparatus, program and recording medium for processing moving picture file identifier
US9924226B2 (en) 2015-05-29 2018-03-20 Xiaomi Inc. Method and device for processing identification of video file

Similar Documents

Publication Publication Date Title
US6985185B1 (en) Dynamic range video camera, recording system, and recording method
CA1131348A (en) Television picture special effects system using digital memory techniques
KR0176261B1 (en) Video signal processing circuit
US5392069A (en) Image processing apparatus which can process a plurality of kinds of images having different aspect ratios
JP2001169199A (en) Circuit and method for correcting subtitle
JP2000350095A (en) Video processor
US8803996B2 (en) Image pickup apparatus for preventing unnatural motion of a motion image
KR100662413B1 (en) The display device for offering movie modes and method for controlling the same
JP2593721Y2 (en) Screen superimposition circuit
JPH09214847A (en) Video signal processor
US6441871B1 (en) Method for correcting amplitude of synchronizing signal of composite video signal and device therefor
GB2230675A (en) Synchronising component video signals
KR100225611B1 (en) Sports image effects apparatus
JP2667599B2 (en) Television receiver with multi-screen display function
JPH01264376A (en) Signal processing circuit capable of displaying plural pictures
JPH05336446A (en) Superimposed dialogue position detection system for wide aspect television
JPH09135461A (en) Clock generating circuit
JP2638948B2 (en) Motion detection circuit
KR100202542B1 (en) Luma/chroma signal separating circuit of image processor
KR950007873B1 (en) Apparatus and method for caption still control
JP2692501B2 (en) Circuit for moving character position of video signal
JPH09214846A (en) Video signal processor
JPH09181994A (en) Video signal processor
JPH11305746A (en) Processor and method for video signal processing
KR960002809Y1 (en) Screen expansion apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080430

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080626

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080722