JP2004208117A - Image quality deterioration detection system when compositing caption - Google Patents

Image quality deterioration detection system when compositing caption Download PDF

Info

Publication number
JP2004208117A
JP2004208117A JP2002376072A JP2002376072A JP2004208117A JP 2004208117 A JP2004208117 A JP 2004208117A JP 2002376072 A JP2002376072 A JP 2002376072A JP 2002376072 A JP2002376072 A JP 2002376072A JP 2004208117 A JP2004208117 A JP 2004208117A
Authority
JP
Japan
Prior art keywords
data
video signal
feature
image quality
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002376072A
Other languages
Japanese (ja)
Inventor
Eizo Katayama
英三 片山
Takashi Tachibana
高志 橘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Engineering Ltd
Original Assignee
NEC Engineering Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Engineering Ltd filed Critical NEC Engineering Ltd
Priority to JP2002376072A priority Critical patent/JP2004208117A/en
Publication of JP2004208117A publication Critical patent/JP2004208117A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that it is erroneously determined that image quality deterioration occurs when a caption such as a news flash is composited. <P>SOLUTION: A video signal (a) is inputted to a feature quantity data generating section 1, an area designating section 7 designates an area, and feature quantity data A representing an image feature is generated. The generated feature quantity data A is multiplexed with the video signal (a) by a data multiplexer section 2 and is sent as a video signal b to a broadcast facility 3. The video signal b is demultiplexed by a data demultiplexer section 8 into the video signal (a) and the feature quantity data A, and the video signal (a) is composited with caption data and then remultiplexed with the demultiplexed feature quantity data. In a monitoring part, the data demultiplexer section demultiplexes a video signal c into the feature quantity data A and the video signal c again, and the video signal c is inputted to a feature quantity data generating section 10. The feature quantity data generating section 10 generates second feature quantity data C from an image of the video signal c. The demultiplexed feature quantity data A and the generated feature quantity data C are inputted to a comparison section 5, and an alarm is outputted when a difference is detected between the feature quantity data A and the feature quantity data C. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、放送局における放送設備の画質劣化検知システムに関し、特に放送設備内で映像に字幕合成を施した場合に生ずる画質劣化の検知システムに関する。
【0002】
【従来の技術】
従来の監視システムについて図面を参照して簡潔に説明する。
(当社出願発明、特願2001−332445号「画質劣化検知方式」)
[入力部分]
映像信号aを特徴量データ生成部1に入力し、画像の特徴を表す特徴量データAを生成する。生成した特徴量データAは、映像信号aにデータ多重部2で多重され、映像信号bとして放送設備3に送られる。
【0003】
放送設備3においては、映像信号bに字幕を合成して映像信号b‘として監視部分に送出する。
[監視部分]
監視区間を通過した映像信号b‘をデータ分離部4に入力し、特徴量データAと映像信号a’に分離し、映像信号a‘を特徴量データ生成部10に入力する。
【0004】
特徴量データ生成部10はこの映像信号a‘の画像から特徴量データBを生成する。特徴データAと生成した特徴量データBを比較部5に入力し、比較部5では両特徴量データを比較して相違を検知した場合に画質劣化の発生を示すアラームを出力する。
またそれとは別に、映像部分に含まれている字幕等の文字成分を誤検出なく検出もれなく確実に検出する技術として、特開平6−178223号公報「映像信号の文字位置移動回路」に記載されるような技術が存在する。以下、この技術についても簡単に説明する。
【0005】
入力された映像信号は加算器に入力され、メモリより出力される映像信号もまた加算器に入力される。加算器は映像信号の輝度成分である輝度映像信号と、メモリより出力された1フィールド遅延された輝度映像信号とを加算して出力する。加算器より出力された信号は1/2係数器に入力されて1/2とされる。これにより輝度映像信号は平均値処理を施される。さらに1/2計数器より出力された平均値化された輝度信号は、メモリに入力されて繰り返し平均化することによって、字幕部分の文字成分が強調された輝度映像信号を得ることができる。この文字成分が強調された輝度映像信号をレベル比較器で比較することにより、謝りなく字幕部分の抽出が行うことができる。
【0006】
【発明が解決しようとする課題】
従来の技術においては、ニュース速報などの字幕を合成した場合、これを画質劣化が発生したと判断してしまう問題があった。つまり映像信号b‘から生成される特徴量データBは、映像信号bに字幕を合成した映像信号b’から生成されている分だけ、比較する特徴量データAと常に異なる部分を有しているため、厳密に言えば常に画質劣化と判定しアラームを発生してしまうこととなる。この比較判定の幅を緩めにすることで字幕程度は画質劣化と判定しないようにすることで対処可能だが、これは画質劣化判定の精度向上を阻害する一因となっていた。
【0007】
特に近年は台風情報や交通情報など、従前の字幕合成では伝えきれない文字情報を表示するために、画像を縮小し画面周縁部に形成されたL字状の部分に電光表示のように大量の文字情報を表示したり、あるいは文字情報を縦横に移動させながら表示するケースが増えている。このような場合、従来の画質劣化検知方法では、画像自体の劣化は起こっていないにも関わらず、全体的な画面としては著しく変わることから、字幕が表示されるたびに画質劣化のアラームを発生してしまうという誤動作を引き起こしてしまうこととなる。
【0008】
本発明の目的は、前述の問題点を解決すべく、画質劣化の監視区間にある放送設備でニュース速報などの字幕を合成した場合でも、監視ポイントで正しく画質劣化を検知するシステムを提供することにある。
【0009】
【特許文献1】
特開平6−178223号
【0010】
【課題を解決するための手段】
以上の課題を鑑みて、本発明の画質劣化検知システムは、
映像信号から第一の特徴量データを生成する第一特徴量データ生成手段と、前記映像信号のブランキング信号に前記第一特徴量データを多重化するデータ多重手段と、前記第一特徴量データが多重化された映像信号に字幕合成を行う字幕合成手段と、前記字幕合成された映像信号から前記第一特徴量データを分離するデータ分離手段と、前記字幕合成された映像信号から第二の特徴量データを生成する第二特徴量データ生成手段と、前記第一の特徴量データと前記第二の特徴量データを比較して画質劣化を検出する比較手段から構成される画質劣化検知システムにおいて、前記第一の特徴量データ生成手段および前記第二の特徴量データ生成手段に、それぞれ元となる映像信号の字幕が合成されない領域を指定する領域指定手段を備えたことを特徴としている。
【0011】
また、本発明の第二の構成例としては、前記監視区間の出力側にブランキング信号差し替え部を設け、前記特徴量データが多重化された映像信号の前記特徴量データを放送で使用する文字放送等のデータに差し替えることを特徴としている。
【0012】
【発明の実施の形態】
本発明の画質劣化検知システムの実施形態につき、図面を参照して詳細に説明する。
【0013】
図1は発明の形態を示す構成図である。従来の構成の特徴量データ生成部1に特徴量データを生成する領域を指定する領域指定部7を追加したことを特徴としている。領域指定部7により字幕が合成されない領域を選び、この領域を監視の対象にする。
【0014】
このように字幕合成を行った場合でも変化しない部分を監視することで正しく画像劣化検知を行うことができる(図2)。
【0015】
図1に示す実施の形態は、監視区間の前後で特徴量データを生成しそれを比較することで、監視区間で発生する画質劣化を検知するものである。監視区間には字幕合成部6が設けられ、入力映像にニュース速報など字幕を合成する。字幕は必要な場合にのみ合成し、その制御信号を字幕合成信号とする。
【0016】
続いて構成を入力部分、字幕部分、監視部分に分けて説明する。
[入力部分]
映像信号aを特徴量データ生成部1に入力し、字幕合成信号によって指示されるタイミングで字幕合成を行う際に、映像信号aの画像から領域指定部7で領域を指定して、画像の特徴を表す特徴量データAを生成する。この際、指定される領域は字幕が合成されていない領域とする。
【0017】
生成した特徴量データAは、映像信号aにデータ多重部2で多重され、映像信号bとして放送設備3に送られる。
[字幕部分]
字幕合成の方法によっては映像信号aに多重した特徴量データAを損なうおそれがある。そこで、以下の手順により多重した特徴量データAを一度分離してから字幕合成を行う。
【0018】
特徴量データAが多重された映像信号bは、字幕部分内のデータ分離部8に入力される。データ分離部8はこの映像信号bを映像信号aと特徴量データAとに分離し、映像信号aを字幕合成部6に、特徴量データAを後述するデータ多重部9へ送出する。
【0019】
字幕合成部6では、字幕合成信号によって指示されるタイミングで、映像信号aに字幕データを合成し、映像信号cとしてデータ多重部9に送出する。データ多重部9は、先にデータ分離部8で分離した特徴量データAを、字幕が合成された映像信号cに再度多重する。
【0020】
こうして映像信号cは字幕合成後も正しく特徴量データAが多重された映像信号となる。
[監視部分]
監視区間を通過した映像信号cをデータ分離部4に入力し、特徴量データAと映像信号cに分離し、映像信号cを特徴量データ生成部10に入力する。
【0021】
特徴量データ生成部10はこの映像信号cの画像から第二の特徴量データCを生成する。この際特徴量データCを生成する画像の領域は、監視部分内に設けられた領域指定部7で指定する。入力部分と同じく指定する領域は字幕が合成されない領域とする。分離した特徴データAと生成した特徴量データCを比較部5に入力し、比較部5では両特徴量データを比較して相違を検知した場合に画質劣化の発生を示すアラームを出力する。
【0022】
続いて図3〜図5に示すタイムチャートを用いて、本発明の動作につき、入力部分、字幕部分、監視部分ごとに説明する。
[入力部分](図3)
字幕合成信号は字幕合成の有無を示す。本例では映像信号aの12フレームから14フレームに字幕合成を行っている。映像信号aはフレーム毎に表されており、ここでは10〜19フレームまでを示している。
【0023】
特徴量生成処理11は、映像信号aからフレーム毎の特徴量データを生成する処理を行っている。また字幕合成信号8により12〜14フレームに字幕が合成されることを示している。これらのフレームでは特徴量データAを生成する領域を字幕が合成されない部分に変更する。特徴量多重処理12は、映像信号aに特徴量データAを合成する処理時間を示している。この時間内に映像信号aのブランキング信号などに特徴量データAを多重する。映像信号bは、映像信号aに特徴量データAを多重させた映像信号を示している。
【0024】
本例においては10〜19フレームの映像信号aに8〜17フレームの特徴量データAが多重されている。これは多重する特徴量データAが多重する映像信号aより2フレーム遅れていることを示している。
[字幕部分](図4)
字幕合成信号8は字幕合成の有無を示す。本例では映像信号bの12フレーム〜14フレームにかけて字幕合成を行っている。映像信号bはフレーム毎に表されており、ここでは10フレーム〜19フレームまでを示している。各フレームには8フレーム〜17フレームの特徴量データAが多重されており、このうち12フレーム〜14フレームの特徴量データAは、字幕が合成されない部分の領域から生成されている。
【0025】
特徴量分離処理13は、映像信号bからフレーム毎の特徴量データAを分離する処理時間を示している。映像信号bのフレーム入力終了時に、そのフレームから特徴量データAの分離処理を行っている。特徴量多重処理12は映像信号aに特徴量データAを再度合成する処理時間を示している。この時間内に映像信号aのブランキング信号に特徴量データAを多重する。
【0026】
映像信号cは、字幕部分から出力する映像信号を示している。本例では10フレーム〜19フレームの映像信号cに6〜15フレームの特徴量データAが多重されている。これは多重される特徴量データAが多重する映像信号cより4フレーム遅れていることを表している。
[監視部分](図5)
字幕合成信号10は字幕合成の有無を示す。本例では映像信号cの12フレーム〜14フレームに字幕合成を行っている。映像信号cはフレーム毎に表されており、ここでは10フレーム〜19フレームを示している。各フレームには6フレーム〜15フレームの特徴量データAが多重されている。このうち12フレーム〜14フレームには字幕が合成されている。また12フレーム〜14フレームの特徴量データAは、字幕が合成されない部分の領域から生成されている。
【0027】
特徴量生成処理部10は映像信号cからフレーム毎の特徴量データCを生成する処理時間を示している。映像信号cのフレーム入力終了時に、そのフレームの特徴量データCの生成処理を行っている。また、字幕合成信号10により12〜14フレームに字幕が合成されることを示している。これらのフレームでは特徴量データCを生成する領域を字幕が合成されない部分に変更する。
【0028】
特徴量キュー14は、生成した特徴量データCを一定期間保存する。図6では生成した特徴量データCを保存し、4フレーム後に取り出す様子を示している。
【0029】
特徴量分離処理13は、映像信号cからフレーム毎の特徴量データAを分離する処理時間を示している。映像信号cのフレーム入力終了時に、そのフレームから特徴量データAの分離処理を行う。
【0030】
分離された特徴量データAは、生成した特徴量データCより4フレーム遅れているので、特徴量キュー14で生成した特徴量データCも4フレーム分遅らせる処理を施す。
【0031】
特徴量比較処理15は、4フレーム遅延させた特徴量データCと、映像信号から分離した特徴量データAとの比較を行う。比較の結果不一致であれば、画質劣化の発生を示すアラームを出力する。
【0032】
また、本発明の別の実施形態として、画像部分全体を相似形に縮小し、画面周縁に形成されるL字状の枠に、電光表示のように縦横に移動しながら表示される文字情報を合成して使用する方法がある。この場合、監視部分において、監視対象となる縮小画面の映像信号c‘から特徴量データC’を生成し、これを拡大して得られる特徴量データC‘’と特徴量データAと比較することにより、画質劣化の判定を行う。
【0033】
【発明の効果】
以上説明してきたように本発明の字幕合成時における画質劣化検知システムは、画像の一部に字幕などを重畳したために、元の画像と比較した際にこれを画質劣化と判定してしまう誤動作を防止する効果を奏する。
【0034】
さらに本発明の画質劣化検知システムにおいては、画像全体を縮小し周囲に字幕を合成表示するような場合でも、元の画像と比較した際に正しく画像劣化を検知できるという効果を奏する。
【図面の簡単な説明】
【図1】本発明の画質劣化検知システムの一実施形態における構成を示すブロック図である。
【図2】比較部5における特徴量データAと特徴量データCの比較処理を示すイメージ図である。
【図3】本発明の入力部分における一連の動作を示すタイムチャートである。
【図4】本発明の字幕部分における一連の動作を示すタイムチャートである。
【図5】本発明の監視部分における一連の動作を示すタイムチャートである。
【図6】L字状の枠を合成した場合の、比較部5における特徴量データAと特徴量データC‘’の比較処理を示すイメージ図である。
【図7】従来の画質劣化検知システムの構成例を示すブロック図である。
【図8】従来例における特徴量データ比較処理を示すイメージ図である。
【符号の説明】
1 特徴量データ生成部
2 データ多重部
3 放送設備
4 データ分離部
5 比較部
6 字幕合成部
7 領域指定部
8 データ分離部
9 データ多重部
10 字幕合成信号
11 特徴量生成処理
12 特徴量多重処理
13 特徴量分離処理
14 特徴量キュー
15 特徴量比較処理
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a system for detecting image quality deterioration of broadcast equipment in a broadcasting station, and more particularly to a system for detecting image quality deterioration that occurs when subtitles are combined with video in a broadcast equipment.
[0002]
[Prior art]
A conventional monitoring system will be briefly described with reference to the drawings.
(Our patent application, Japanese Patent Application No. 2001-332445, "Image quality deterioration detection method")
[Input part]
The video signal a is input to the feature data generating unit 1 to generate feature data A representing the features of the image. The generated feature amount data A is multiplexed on the video signal a by the data multiplexing unit 2 and sent to the broadcasting equipment 3 as the video signal b.
[0003]
In the broadcasting equipment 3, the subtitle is synthesized with the video signal b and transmitted to the monitoring part as the video signal b '.
[Monitoring part]
The video signal b ′ that has passed through the monitoring section is input to the data separation unit 4, separated into feature data A and a video signal a ′, and the video signal a ′ is input to the feature data generation unit 10.
[0004]
The feature data generator 10 generates feature data B from the image of the video signal a ′. The feature data A and the generated feature amount data B are input to the comparing unit 5, and the comparing unit 5 compares the two feature amount data and outputs an alarm indicating occurrence of image quality deterioration when a difference is detected.
Separately, Japanese Patent Application Laid-Open No. 6-178223 discloses a technique for reliably detecting character components such as subtitles contained in a video portion without erroneous detection without fail. Such technologies exist. Hereinafter, this technique will be briefly described.
[0005]
The input video signal is input to the adder, and the video signal output from the memory is also input to the adder. The adder adds the luminance video signal, which is a luminance component of the video signal, to the luminance video signal output from the memory and delayed by one field, and outputs the result. The signal output from the adder is input to a 係数 coefficient unit and is halved. As a result, the luminance video signal is subjected to the average value processing. Further, the averaged luminance signal output from the 計数 counter is input to the memory and averaged repeatedly to obtain a luminance video signal in which the character component of the subtitle portion is emphasized. By comparing the luminance video signal in which the character component is emphasized with the level comparator, the subtitle portion can be extracted without apologetic.
[0006]
[Problems to be solved by the invention]
In the related art, when subtitles such as breaking news are combined, there is a problem that it is determined that image quality has deteriorated. That is, the feature amount data B generated from the video signal b 'has a part always different from the feature amount data A to be compared by the amount generated from the video signal b' obtained by combining subtitles with the video signal b. Therefore, strictly speaking, it is always determined that the image quality is degraded and an alarm is generated. This can be dealt with by making the width of the comparison judgment loose so as not to judge the subtitles as image quality deterioration. However, this is one factor that hinders the improvement of the accuracy of the image quality deterioration judgment.
[0007]
In particular, in recent years, in order to display character information that cannot be conveyed by conventional subtitle synthesis, such as typhoon information and traffic information, the image has been reduced and a large amount of L-shaped portions formed at the periphery of the screen, such as electric light displays, have been displayed. Increasingly, character information is displayed or displayed while moving the character information vertically and horizontally. In such a case, with the conventional image quality deterioration detection method, even though the image itself has not deteriorated, the overall screen is significantly changed, so an image quality deterioration alarm is generated every time the subtitle is displayed. This would cause a malfunction.
[0008]
SUMMARY OF THE INVENTION An object of the present invention is to provide a system for correctly detecting image quality degradation at a monitoring point even when subtitles such as breaking news are synthesized by broadcasting equipment in a monitoring section for image quality degradation in order to solve the above-described problem. It is in.
[0009]
[Patent Document 1]
JP-A-6-178223
[Means for Solving the Problems]
In view of the above problems, the image quality degradation detection system of the present invention
A first feature data generating unit for generating first feature data from the video signal; a data multiplexing unit for multiplexing the first feature data on a blanking signal of the video signal; and the first feature data. A subtitle synthesizing unit that performs subtitle synthesis on the multiplexed video signal, a data separation unit that separates the first feature amount data from the subtitle synthesized video signal, and a second An image quality degradation detection system comprising: a second feature amount data generating unit that generates feature amount data; and a comparing unit that compares the first feature amount data and the second feature amount data to detect image quality degradation. The first feature value data generating means and the second feature value data generating means each include an area designating means for designating an area where the subtitle of the original video signal is not combined It is characterized.
[0011]
Further, as a second configuration example of the present invention, a blanking signal replacing unit is provided on the output side of the monitoring section, and the feature amount data of the video signal in which the feature amount data is multiplexed is used for broadcasting. It is characterized by being replaced with data such as broadcast.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
An embodiment of an image quality deterioration detection system according to the present invention will be described in detail with reference to the drawings.
[0013]
FIG. 1 is a configuration diagram showing an embodiment of the present invention. The feature is that an area designating unit 7 for designating an area for generating feature quantity data is added to the feature quantity data generating unit 1 having a conventional configuration. A region where subtitles are not combined is selected by the region specifying unit 7, and this region is set as a monitoring target.
[0014]
By monitoring a portion that does not change even when subtitle synthesis is performed in this way, image deterioration detection can be performed correctly (FIG. 2).
[0015]
In the embodiment shown in FIG. 1, image quality deterioration occurring in a monitoring section is detected by generating feature amount data before and after a monitoring section and comparing the data. A subtitle synthesizing unit 6 is provided in the monitoring section, and synthesizes subtitles such as breaking news with the input video. Captions are synthesized only when necessary, and the control signal is used as a caption synthesis signal.
[0016]
Next, the configuration will be described separately for an input portion, a subtitle portion, and a monitoring portion.
[Input part]
When the video signal a is input to the feature data generation unit 1 and subtitle synthesis is performed at the timing specified by the subtitle synthesis signal, an area is specified by the area specifying unit 7 from the image of the video signal a, Is generated. At this time, the designated area is an area where subtitles are not combined.
[0017]
The generated feature amount data A is multiplexed on the video signal a by the data multiplexing unit 2 and sent to the broadcasting equipment 3 as the video signal b.
[Subtitle part]
Depending on the method of subtitle synthesis, the feature amount data A multiplexed on the video signal a may be damaged. Therefore, the subtitle synthesis is performed after the multiplexed feature amount data A is once separated according to the following procedure.
[0018]
The video signal b on which the feature data A is multiplexed is input to the data separation unit 8 in the subtitle part. The data separation unit 8 separates the video signal b into the video signal a and the feature data A, and sends the video signal a to the caption synthesis unit 6 and the feature data A to the data multiplexing unit 9 described later.
[0019]
The subtitle synthesizing unit 6 synthesizes subtitle data with the video signal a at the timing specified by the subtitle synthesizing signal, and sends out the video signal c to the data multiplexing unit 9. The data multiplexing unit 9 again multiplexes the feature amount data A separated by the data separation unit 8 onto the video signal c in which the subtitles are combined.
[0020]
Thus, the video signal c becomes a video signal in which the feature data A is multiplexed correctly even after the subtitle synthesis.
[Monitoring part]
The video signal c that has passed through the monitoring section is input to the data separation unit 4, separated into feature data A and the video signal c, and the video signal c is input to the feature data generation unit 10.
[0021]
The feature data generator 10 generates second feature data C from the image of the video signal c. At this time, the area of the image for generating the feature amount data C is specified by the area specifying unit 7 provided in the monitoring part. An area specified in the same manner as the input part is an area where subtitles are not combined. The separated feature data A and the generated feature amount data C are input to the comparing unit 5, and the comparing unit 5 compares the two feature amount data and outputs an alarm indicating occurrence of image quality deterioration when a difference is detected.
[0022]
Subsequently, the operation of the present invention will be described for each of the input part, the subtitle part, and the monitoring part with reference to the time charts shown in FIGS.
[Input part] (Fig. 3)
The caption synthesis signal indicates whether or not caption synthesis is performed. In this example, subtitles are synthesized from 12 frames to 14 frames of the video signal a. The video signal a is represented for each frame, and here, 10 to 19 frames are shown.
[0023]
The feature amount generation process 11 performs a process of generating feature amount data for each frame from the video signal a. It also shows that subtitles are synthesized in 12 to 14 frames by the subtitle synthesis signal 8. In these frames, the area in which the feature data A is generated is changed to a portion where subtitles are not combined. The feature amount multiplexing process 12 indicates a processing time for combining the feature amount data A with the video signal a. Within this time, the feature data A is multiplexed with the blanking signal of the video signal a. The video signal b is a video signal obtained by multiplexing the feature data A on the video signal a.
[0024]
In this example, 8 to 17 frames of feature data A are multiplexed on 10 to 19 frames of video signal a. This indicates that the multiplexed feature amount data A is delayed by two frames from the multiplexed video signal a.
[Subtitle part] (Fig. 4)
The caption synthesis signal 8 indicates the presence or absence of subtitle synthesis. In this example, subtitles are synthesized over 12 to 14 frames of the video signal b. The video signal b is represented for each frame. Here, 10 frames to 19 frames are shown. In each frame, eight to seventeen frames of feature data A are multiplexed, and among them, twelve to fourteen frames of feature data A are generated from an area where a subtitle is not combined.
[0025]
The feature amount separation process 13 indicates a processing time for separating the feature amount data A for each frame from the video signal b. At the end of the frame input of the video signal b, the feature amount data A is separated from the frame. The feature value multiplexing process 12 indicates a processing time for re-combining the feature value data A with the video signal a. Within this time, the feature data A is multiplexed with the blanking signal of the video signal a.
[0026]
The video signal c indicates a video signal output from the subtitle portion. In this example, 6 to 15 frames of feature data A are multiplexed on video signals c of 10 to 19 frames. This indicates that the multiplexed feature data A is delayed by 4 frames from the multiplexed video signal c.
[Monitoring part] (Fig. 5)
The caption synthesis signal 10 indicates whether or not caption synthesis is performed. In this example, subtitles are synthesized for 12 to 14 frames of the video signal c. The video signal c is represented for each frame, and here, 10 to 19 frames are shown. In each frame, feature amount data A of 6 to 15 frames are multiplexed. Subtitles are synthesized in 12 to 14 frames. In addition, the feature amount data A of the 12th to 14th frames is generated from a region where a subtitle is not combined.
[0027]
The feature amount generation processing unit 10 indicates a processing time for generating the feature amount data C for each frame from the video signal c. When the input of the frame of the video signal c is completed, the generation processing of the feature amount data C of the frame is performed. It also shows that subtitles are synthesized in 12 to 14 frames by the subtitle synthesis signal 10. In these frames, the area in which the feature amount data C is generated is changed to a portion where subtitles are not combined.
[0028]
The feature amount queue 14 stores the generated feature amount data C for a certain period. FIG. 6 shows a state in which the generated feature amount data C is stored and taken out after four frames.
[0029]
The feature amount separation processing 13 indicates a processing time for separating the feature amount data A for each frame from the video signal c. At the end of the input of the frame of the video signal c, a separation process of the feature data A from the frame is performed.
[0030]
Since the separated feature data A is delayed by four frames from the generated feature data C, the feature data C generated in the feature queue 14 is also delayed by four frames.
[0031]
The feature amount comparison processing 15 compares the feature amount data C delayed by four frames with the feature amount data A separated from the video signal. If the comparison results in a mismatch, an alarm indicating the occurrence of image quality degradation is output.
[0032]
Further, as another embodiment of the present invention, the entire image portion is reduced to a similar shape, and character information displayed while moving vertically and horizontally like an electronic display in an L-shaped frame formed on the periphery of the screen. There is a method of combining and using. In this case, in the monitoring part, feature amount data C ′ is generated from the video signal c ′ of the reduced screen to be monitored, and the feature amount data C ″ obtained by enlarging the feature amount data C ′ is compared with the feature amount data A. Is used to determine image quality degradation.
[0033]
【The invention's effect】
As described above, the image quality deterioration detection system according to the present invention when subtitles are synthesized has a malfunction in which, since subtitles and the like are superimposed on a part of an image, it is determined to be image quality deterioration when compared with the original image. It has the effect of preventing.
[0034]
Further, the image quality deterioration detection system of the present invention has an effect that, even when the entire image is reduced and subtitles are synthesized and displayed around the image, image deterioration can be correctly detected when compared with the original image.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image quality deterioration detection system according to an embodiment of the present invention.
FIG. 2 is an image diagram showing a comparison process between feature data A and feature data C in a comparison unit 5;
FIG. 3 is a time chart showing a series of operations in an input portion of the present invention.
FIG. 4 is a time chart showing a series of operations in a subtitle portion according to the present invention.
FIG. 5 is a time chart showing a series of operations in a monitoring part of the present invention.
FIG. 6 is an image diagram showing a comparison process between the feature data A and the feature data C ″ in the comparing unit 5 when an L-shaped frame is synthesized.
FIG. 7 is a block diagram illustrating a configuration example of a conventional image quality deterioration detection system.
FIG. 8 is an image diagram showing a feature amount data comparison process in a conventional example.
[Explanation of symbols]
REFERENCE SIGNS LIST 1 feature amount data generation unit 2 data multiplexing unit 3 broadcast equipment 4 data separation unit 5 comparison unit 6 subtitle synthesis unit 7 area designation unit 8 data separation unit 9 data multiplexing unit 10 subtitle synthesis signal 11 feature amount generation processing 12 feature amount multiplexing process 13 feature value separation process 14 feature value queue 15 feature value comparison process

Claims (6)

映像信号から第一の特徴量データを生成する第一特徴量データ生成手段と、前記映像信号のブランキング信号に前記第一特徴量データを多重化するデータ多重手段と、前記第一特徴量データが多重化された映像信号に字幕合成を行う字幕合成手段と、前記字幕合成された映像信号から前記第一特徴量データを分離するデータ分離手段と、前記字幕合成された映像信号から第二の特徴量データを生成する第二特徴量データ生成手段と、前記第一の特徴量データと前記第二の特徴量データを比較して画質劣化を検出する比較手段から構成される画質劣化検知システムにおいて、
前記第一の特徴量データ生成手段および前記第二の特徴量データ生成手段に、それぞれ元となる映像信号の字幕が合成されない領域を指定する領域指定手段を備えたことを特徴とする画質劣化検知システム。
A first feature data generating unit for generating first feature data from the video signal; a data multiplexing unit for multiplexing the first feature data on a blanking signal of the video signal; and the first feature data. A subtitle synthesizing unit that performs subtitle synthesis on the multiplexed video signal, a data separation unit that separates the first feature amount data from the subtitle synthesized video signal, and a second An image quality degradation detection system comprising: a second feature amount data generating unit that generates feature amount data; and a comparing unit that compares the first feature amount data and the second feature amount data to detect image quality degradation. ,
Image quality degradation detection, characterized in that the first feature value data generation means and the second feature value data generation means each include an area designating means for designating an area where subtitles of the original video signal are not combined. system.
前記監視区間の出力側にブランキング信号差し替え部を設け、前記特徴量データが多重化された映像信号の前記特徴量データを放送で使用する文字放送等のデータに差し替えることを特徴とする請求項1に記載の画質劣化検知システム。A blanking signal replacing unit is provided on an output side of the monitoring section, and the feature amount data of the video signal in which the feature amount data is multiplexed is replaced with data such as a text broadcast used in broadcasting. 2. The image quality deterioration detection system according to 1. 前記特徴量データは、画像を64分割(8×8分割)し、エリア毎の平均値を求め、YCbCrの信号に分離し、それぞれに8×8の2次元DCT変換を行って生成することを特徴とする請求項1又は2に記載の画質劣化検知システム。The feature amount data is generated by dividing an image into 64 (8 × 8), calculating an average value for each area, separating the signals into YCbCr signals, and performing an 8 × 8 two-dimensional DCT transform on each. The image quality degradation detection system according to claim 1 or 2, wherein 前記監視区間は、スイッチャ等を含む放送設備であることを特徴とする請求項1、2又は3に記載の画質劣化検知システム。The image quality deterioration detection system according to claim 1, wherein the monitoring section is a broadcast facility including a switcher or the like. 前記監視区間は、放送局の出力以降から放送波の受信までであることを特徴とする請求項1、2又は3に記載の画質劣化検知システム。The image quality deterioration detection system according to claim 1, wherein the monitoring interval is from output of a broadcast station to reception of a broadcast wave. 前記監視区間は、放送局の出力以降から中継箇所までであることを特徴とする請求項1、2又は3に記載の画質劣化検知システム。The image quality deterioration detection system according to claim 1, 2 or 3, wherein the monitoring section extends from after the output of the broadcasting station to a relay point.
JP2002376072A 2002-12-26 2002-12-26 Image quality deterioration detection system when compositing caption Pending JP2004208117A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002376072A JP2004208117A (en) 2002-12-26 2002-12-26 Image quality deterioration detection system when compositing caption

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002376072A JP2004208117A (en) 2002-12-26 2002-12-26 Image quality deterioration detection system when compositing caption

Publications (1)

Publication Number Publication Date
JP2004208117A true JP2004208117A (en) 2004-07-22

Family

ID=32813625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002376072A Pending JP2004208117A (en) 2002-12-26 2002-12-26 Image quality deterioration detection system when compositing caption

Country Status (1)

Country Link
JP (1) JP2004208117A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012100256A (en) * 2010-10-08 2012-05-24 Nippon Telegr & Teleph Corp <Ntt> Three-dimension-adapted-data-broadcast output apparatus, three-dimension-adapted-data-broadcast output method, and three-dimension-adapted-data-broadcast output program
JP2012109979A (en) * 2009-01-29 2012-06-07 Nec Corp Image identifier generation device
JP2013027041A (en) * 2011-07-14 2013-02-04 Lg Display Co Ltd Image processing method and stereoscopic image display device
CN111432205A (en) * 2020-04-17 2020-07-17 杭州趣维科技有限公司 Automatic testing method for video synthesis correctness

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012109979A (en) * 2009-01-29 2012-06-07 Nec Corp Image identifier generation device
JP2012100256A (en) * 2010-10-08 2012-05-24 Nippon Telegr & Teleph Corp <Ntt> Three-dimension-adapted-data-broadcast output apparatus, three-dimension-adapted-data-broadcast output method, and three-dimension-adapted-data-broadcast output program
JP2013027041A (en) * 2011-07-14 2013-02-04 Lg Display Co Ltd Image processing method and stereoscopic image display device
CN111432205A (en) * 2020-04-17 2020-07-17 杭州趣维科技有限公司 Automatic testing method for video synthesis correctness
CN111432205B (en) * 2020-04-17 2021-10-26 杭州小影创新科技股份有限公司 Automatic testing method for video synthesis correctness

Similar Documents

Publication Publication Date Title
EP1601192A2 (en) Video data processing apparatus
JP5615430B2 (en) Video information playback unit, video information playback device, and synchronization control method
US8724912B2 (en) Method, apparatus, and program for compressing images, and method, apparatus, and program for decompressing images
KR960030199A (en) Data multiplexer, data multiplexing method, data recording medium, data recorder, data demultiplexer and data demultiplexing method
US8432973B2 (en) Interpolation frame generation apparatus, interpolation frame generation method, and broadcast receiving apparatus
US20050179817A1 (en) Video signal display unit
US6573945B1 (en) Logo insertion on an HDTV encoder
US8363160B2 (en) Caption detection device, caption detection method, and pull-down signal detection apparatus
EP2257051B1 (en) Digital broadcast receiver and digital broadcast reception method
JP2004208117A (en) Image quality deterioration detection system when compositing caption
JP5012493B2 (en) VIDEO OUTPUT DEVICE, VIDEO OUTPUT METHOD, VIDEO OUTPUT PROGRAM, VIDEO PROCESSING SYSTEM, VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM
US20070268412A1 (en) Apparatus and method for detecting motion in continuous images
US20060215749A1 (en) Waveform display device
US5559558A (en) Apparatus and methodology for coding digital video signals to improve picture quality with minimal overhead
US20070008427A1 (en) Display apparatus and signal processing method thereof
EP1707003B1 (en) Arrangement for generating a 3:2 pull-down switch-off signal for a video compression encoder
JP3928485B2 (en) Video signal display device
KR20160014399A (en) Image data providing method, image data providing apparatus, image data receiving method, image data receiving apparatus and system thereof
JP2008259018A (en) Scene change detector
JP2004207882A (en) Test signal generating apparatus
KR20010108964A (en) Movement detection method for portion image
JP2005229578A (en) Picture signal display device
US8625026B2 (en) Apparatus and method for detecting video film with mix mode
KR100767861B1 (en) Apparatus and method for processing input video data in display device
JP2004282450A (en) Synchronous signal separation circuit

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051115

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20070125

A977 Report on retrieval

Effective date: 20070409

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070417

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070807