JP2007053604A - Video signal frame synchronization system - Google Patents

Video signal frame synchronization system Download PDF

Info

Publication number
JP2007053604A
JP2007053604A JP2005237426A JP2005237426A JP2007053604A JP 2007053604 A JP2007053604 A JP 2007053604A JP 2005237426 A JP2005237426 A JP 2005237426A JP 2005237426 A JP2005237426 A JP 2005237426A JP 2007053604 A JP2007053604 A JP 2007053604A
Authority
JP
Japan
Prior art keywords
frame
image quality
delay
frame synchronization
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005237426A
Other languages
Japanese (ja)
Other versions
JP4573301B2 (en
Inventor
Osamu Sugimoto
修 杉本
Ryoichi Kawada
亮一 川田
Atsushi Koike
淳 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2005237426A priority Critical patent/JP4573301B2/en
Publication of JP2007053604A publication Critical patent/JP2007053604A/en
Application granted granted Critical
Publication of JP4573301B2 publication Critical patent/JP4573301B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Synchronizing For Television (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Synchronisation In Digital Transmission Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video image frame synchronization system which is capable of performing frame synchronization without having to transmit video signals, while secondary data (side information), such as time codes, are superimposed on the video signals. <P>SOLUTION: Feature volume data extracted from video images of two families (systems A and B) are accumulated in the feature volume buffer (system A) 11, and the feature volume buffer (system B) 12 of an image quality monitoring terminal 6. A PSNR deducing unit 13 sets the image feature volume of a certain frame in one of the systems A and B as a reference, considers a frame delay difference between one and another frame as one frame in front and back, and obtains objective image qualities (Ppp, Ppc, Pcp, Pcc, Pnc, Pcn, and Pnn), when seven patterns of delay changes occur that are considered possible. A delay change detecting unit 14 decides the existence or nonexistence and the direction of delay change, and outputs a delay change volume determination value, based on the magnitude relation of the objective image quality on the seven patterns. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は映像信号のフレーム同期方式に関し、特に伝送路上の任意の2地点(例えば送信地点・受信地点)における画像特徴量データの伝送遅延等を補償し、両者の信号値の比較を可能とするための映像信号のフレーム同期方式に関する。   The present invention relates to a frame synchronization system for video signals, and in particular, compensates for transmission delay of image feature data at two arbitrary points (for example, transmission point / reception point) on a transmission path, and enables comparison of both signal values. The present invention relates to a frame synchronization method for video signals.

テレビ伝送の映像信号の品質評価のためのフレーム情報の同期を目的とした方式として、下記の特許文献1のように、各フレームの映像データと再生時刻の対応を表した情報(タイムコード)を伝送信号中に重畳し、この情報を伝送することにより2系統の信号同期を得る方式がある。   As a method for synchronizing frame information for quality evaluation of video signals for television transmission, information (time code) indicating correspondence between video data of each frame and reproduction time as in Patent Document 1 below. There is a method of obtaining signal synchronization of two systems by superimposing in a transmission signal and transmitting this information.

また、特許文献1の方式の画質評価・監視への応用法として、非特許文献1に示す勧告がある。非特許文献1は、特徴量抽出型伝送品質監視のフレームワークを示す勧告であるが、この中で、各フレームの映像データから抽出された画像特徴量データとフレーム再生時刻、または、各フレームに一意に割り振られるタイムコードとの関係を示した情報を別途データ回線で送出する形式が示されている。
特開2003−234726号公報 ITU-T勧告J.220 “Framework for remote monitoring of transmitted picture Signal-to-Noise ratio using spread-spectrum and orthogonal transform” (J.SSOT)
Further, as an application method of the method of Patent Document 1 to image quality evaluation / monitoring, there is a recommendation shown in Non-Patent Document 1. Non-Patent Document 1 is a recommendation indicating a framework for feature quantity extraction type transmission quality monitoring. Among these, image feature quantity data extracted from video data of each frame and frame playback time, or each frame A format in which information indicating a relationship with a uniquely assigned time code is separately transmitted over a data line is shown.
JP 2003-234726 A ITU-T Recommendation J.220 “Framework for remote monitoring of transmitted picture Signal-to-Noise ratio using spread-spectrum and orthogonal transform” (J.SSOT)

前記特許文献1,非特許文献1の手法により映像信号に重畳されたタイムコードを参照する場合、同一のタイムコードで同一のフレームの特徴量データであることが保証されるが、そもそもタイムコードを参照できるのは、業務用放送機器向けのデジタル映像信号を伝送している場合のみであり、アナログ信号や民生用の映像信号についてはタイムコードを利用できない。   When referring to the time code superimposed on the video signal by the method of Patent Document 1 and Non-Patent Document 1, it is ensured that the feature data of the same frame is the same time code. Reference can be made only when digital video signals for commercial broadcasting equipment are transmitted, and time codes cannot be used for analog signals and consumer video signals.

さらに、こうした放送局向けの業務用の信号規格を適用したとしても、伝送に圧縮符号化を伴う場合、多くの伝送機器(コーデック)は重畳されたタイムコードを消去してしまうため、圧縮の前後の画像をタイムコードを基に比較することは困難であった。   Furthermore, even when such a commercial signal standard for broadcasting stations is applied, when transmission is accompanied by compression encoding, many transmission devices (codecs) erase the superimposed time code, so before and after compression. It was difficult to compare these images based on the time code.

本発明の目的は、前記した従来技術の課題に鑑み、映像信号にタイムコードといった副次的データ(サイド情報)を重畳して伝送しなくても、フレーム同期を行うことができる映像信号のフレーム同期方式を提供することにある。   An object of the present invention is to provide a frame of a video signal that can perform frame synchronization without superimposing and transmitting secondary data (side information) such as a time code on the video signal in view of the above-described problems of the prior art. It is to provide a synchronization method.

前記した目的を達成するために、本発明は、2系統の映像信号の各フレームから画像特徴量を抽出する画像特徴量抽出手段と、一方の系統のあるフレームの画像特徴量を基準とした上で、他方のフレームとのフレーム遅延差を順次変更しながら該2系統の画像特徴量の比較に基づき各フレームの客観画質を求める客観画質演算手段と、前記客観画質が最大となる点を正しいフレーム遅延差として検出する遅延差検出手段とを具備し、該遅延差を小さくしてフレーム同期するようにした点に第1の特徴がある。   In order to achieve the above-described object, the present invention is based on image feature quantity extraction means for extracting an image feature quantity from each frame of two systems of video signals, and on the basis of the image feature quantity of a frame of one system. The objective image quality calculating means for obtaining the objective image quality of each frame based on the comparison of the image feature values of the two systems while sequentially changing the frame delay difference with the other frame, and the point where the objective image quality is maximized There is a first feature in that a delay difference detecting means for detecting as a delay difference is provided, and the delay difference is reduced to synchronize the frames.

また、前記客観画質演算手段は、前記一方の系統のあるフレームの画像特徴量を基準とした上で、他方のフレームとのフレーム遅延差を前後1フレームとし、可能性として考えられる遅延変化7パターンが発生した場合の客観画質を求め、前記遅延差検出手段は、該7パターンの客観画質大小関係に基づき、遅延変化の有無および方向を決定するようにした点に第2の特徴がある。   Further, the objective image quality calculation means sets the frame delay difference with the other frame as one frame before and after the image feature amount of a frame of the one system as a reference, and has seven possible delay change patterns. There is a second feature in that the objective image quality in the case of occurrence of the delay is obtained, and the delay difference detecting means determines the presence and the direction and the direction of the delay change based on the objective image quality relationship of the seven patterns.

本発明によれば、時刻情報やタイムコードといったサイド情報を特徴量データに加えて伝送しなくても、特徴量データの比較に基づく客観画質の測定のみから伝送路上の2系統の映像特徴量のフレーム同期が可能となる。また、サイド情報を利用しないため、タイムコードを重畳されない映像信号に対しても画質測定が可能となる。   According to the present invention, even if side information such as time information and time code is not transmitted in addition to the feature amount data, only the objective image quality measurement based on the comparison of the feature amount data can be used to determine the video feature amounts of the two systems on the transmission path. Frame synchronization is possible. Further, since side information is not used, it is possible to measure image quality even for a video signal on which no time code is superimposed.

また、特徴量抽出データの他にタイムコードや時刻情報を合わせて送出しなくてもよくなるため、特徴量抽出装置の実装規模が縮小される。また、タイムコード分の情報量が減るため、画質監視のためのデータ帯域を削減できる。   In addition, since it is not necessary to send the time code and time information together with the feature amount extraction data, the scale of mounting the feature amount extraction apparatus is reduced. In addition, since the amount of information for the time code is reduced, the data bandwidth for image quality monitoring can be reduced.

以下に、図面を参照して、本発明を詳細に説明する。図1は、本発明のフレーム同期方式が適用される特徴量抽出型の画質監視方式の構成を示すシステム図である。   Hereinafter, the present invention will be described in detail with reference to the drawings. FIG. 1 is a system diagram showing the configuration of a feature quantity extraction type image quality monitoring system to which the frame synchronization system of the present invention is applied.

図1は、1対1の映像伝送を想定しており、伝送路2の前後で圧縮符号化(エンコーダ1)と復号(デコーダ3)が適用される。画像特徴量の抽出装置4,5は符号化装置(エンコーダ1)の前段A点と復号装置(デコーダ3)の後段B点にそれぞれ設置されており、ベースバンド画像の各画素ブロックから任意のビット数の画像特徴量F[i],F[i]を抽出する。A点およびB点でそれぞれ抽出された画像特徴量F[i],F[i]は、監視回線7を経て画質監視端末6まで伝送された後、両者の比較が行われ、客観画質が測定される。そして、該客観画質に基づいてフレーム同期がなされる。 FIG. 1 assumes one-to-one video transmission, and compression encoding (encoder 1) and decoding (decoder 3) are applied before and after the transmission path 2. The image feature quantity extraction devices 4 and 5 are installed at the preceding stage A point of the encoding device (encoder 1) and the subsequent stage B point of the decoding device (decoder 3), respectively, and arbitrary bits from each pixel block of the baseband image. A number of image feature values F A [i] and F B [i] are extracted. The image feature values F A [i] and F B [i] extracted at the points A and B are transmitted to the image quality monitoring terminal 6 through the monitoring line 7 and then compared with each other to compare the objective image quality. Is measured. Then, frame synchronization is performed based on the objective image quality.

また、本発明を適用可能な別の映像伝送の形態として、図2に示すような1対多の伝送が挙げられる。送信画像はエンコーダ1で圧縮符号化された後、コンテンツ配信ネットワーク8に送出される。この場合は、1つの送信者に対して複数の受信者が存在しており、受信側のそれぞれの復号装置3a、3bの後段A,B点で画像の特徴量抽出4,5を行う。抽出された画像の特徴量F[i],F[i]は、監視回線7を経て画質監視端末6に送られる。画質監視端末6は、該特徴量F[i],F[i]を比較する。この場合も、各地点A,Bで抽出された画像特徴量は監視地点まで伝送され、そこで特徴量の比較に基づき客観画質が導出される。そして、該客観画質に基づいてフレーム同期がなされる。 Another video transmission mode to which the present invention can be applied is one-to-many transmission as shown in FIG. The transmission image is compressed and encoded by the encoder 1 and then sent to the content distribution network 8. In this case, there are a plurality of receivers for one sender, and image feature amounts extraction 4 and 5 are performed at the subsequent points A and B of the respective decoding devices 3a and 3b on the receiving side. The extracted image feature quantities F A [i] and F B [i] are sent to the image quality monitoring terminal 6 via the monitoring line 7. The image quality monitoring terminal 6 compares the feature amounts F A [i] and F B [i]. Also in this case, the image feature amount extracted at each of the points A and B is transmitted to the monitoring point, and the objective image quality is derived based on the comparison of the feature amount there. Then, frame synchronization is performed based on the objective image quality.

なお、画像特徴量抽出法の具体的な方法としては、特開2005−64679号公報「画像特徴量抽出方式および画質評価方式」などが挙げられる。この公報には、スペクトル拡散と直交変換を用いた特徴量抽出方式が開示されている。具体的には、伝送路上のA点、B点で抽出された同一の画像フレームにおける画像特徴量をF[i],F[i]とすると、そのフレームの客観画質PSNRは下記の(1)式で定義される。 In addition, as a specific method of the image feature quantity extraction method, Japanese Patent Laid-Open No. 2005-64679 “Image feature quantity extraction method and image quality evaluation method” can be cited. This publication discloses a feature quantity extraction method using spectrum spreading and orthogonal transformation. Specifically, if the image feature amounts in the same image frame extracted at points A and B on the transmission path are F A [i] and F B [i], the objective image quality PSNR of the frame is as follows ( 1) It is defined by the formula.

Figure 2007053604
Figure 2007053604

ここで、i はフレーム内の各画素ブロック(例えば、8画素×8ライン)に付与されたインデクス番号、Nはフレーム内の画素ブロックの総数である。なお、(1)図1ではA−B点間の映像信号伝送に遅延が発生する、図2ではエンコーダ1−A点間およびエンコーダ1−B点間で映像信号伝送に遅延が発生する、(2)特に図1ではA−B間で圧縮符号化が行われる、(3)A点から画質監視端末6までと、B点から画質監視端末6までの特徴量データ伝送遅延が異なる、などの理由により、一般に同一フレームの特徴量データは画質監視端末6には同時に到着しない。そのため、画質監視端末6では、受信した特徴量データをA,B地点の送信元を区別しながらフレーム単位でバッファに蓄積し、その後、バッファ内のどのデータが同一フレームのものかを検出しなければならない。 Here, i each pixel block in the frame (for example, 8 pixels × 8 lines) to an applied index number, N B is the total number of pixel blocks in a frame. (1) In FIG. 1, a delay occurs in video signal transmission between points A and B. In FIG. 2, a delay occurs in video signal transmission between encoders 1-A and between encoders 1-B. 2) Especially in FIG. 1, compression coding is performed between A and B. (3) The feature data transmission delay from point A to image quality monitoring terminal 6 is different from point B to image quality monitoring terminal 6 For the reason, the feature amount data of the same frame generally does not arrive at the image quality monitoring terminal 6 at the same time. Therefore, the image quality monitoring terminal 6 must store the received feature data in the buffer in units of frames while distinguishing the transmission sources of the points A and B, and then detect which data in the buffer is for the same frame. I must.

図3は、本発明による画質監視端末装置6の一実施形態のブロック図である。なお、図3において、図1、図2と同一の符号は、同一または同等物を示す。   FIG. 3 is a block diagram of an embodiment of the image quality monitoring terminal device 6 according to the present invention. In FIG. 3, the same reference numerals as those in FIGS. 1 and 2 denote the same or equivalent components.

図示されているように、画質監視端末装置6は、特徴量抽出装置(系統A)4で抽出された入力画像の特徴量を一時的に蓄積する特徴量バッファ(系統A)11、特徴量抽出装置(系統B)5で抽出された入力画像の特徴量を一時的に蓄積する特徴量バッファ(系統B)12、該特徴量バッファ(系統A)11および特徴量バッファ(系統B)12に蓄積された前フレーム特徴量と、現フレーム特徴量と、後フレーム特徴量とから客観画質を求める客観画質演算手段としてのPSNR推定部13,および該PSNR推定値から画像フレームの遅延差(変化)を検出する遅延差検出手段としての遅延変化検出部14とから構成されている。   As shown in the figure, the image quality monitoring terminal device 6 includes a feature amount buffer (system A) 11 for temporarily storing the feature amount of the input image extracted by the feature amount extraction device (system A) 4, and feature amount extraction. The feature quantity buffer (system B) 12 that temporarily stores the feature quantity of the input image extracted by the device (system B) 5, the feature quantity buffer (system A) 11, and the feature quantity buffer (system B) 12 are accumulated. PSNR estimation unit 13 serving as an objective image quality calculation means for obtaining an objective image quality from the previous frame feature value, the current frame feature value, and the subsequent frame feature value, and a delay difference (change) of the image frame from the PSNR estimate value. It comprises a delay change detecting unit 14 as a delay difference detecting means for detecting.

該画質監視端末装置6の動作の詳細は後述するが、該遅延変化検出部14からは遅延変化量決定値が出力されると共に、該遅延変化量決定値は前記特徴量バッファ(系統A)11および特徴量バッファ(系統B)12に送られる。これは、遅延変化(画像フレームの進みや遅れ)を検出した場合、バッファに蓄えられている各フレームの特徴量の並びを調整する(特徴量データを捨てる、または再度現フレームのデータを利用するなど)必要があるためである。   Although details of the operation of the image quality monitoring terminal device 6 will be described later, a delay change amount determination value is output from the delay change detection unit 14 and the delay change amount determination value is stored in the feature amount buffer (system A) 11. And sent to the feature amount buffer (system B) 12. This is because, when a delay change (advance or delay of an image frame) is detected, the arrangement of the feature values of each frame stored in the buffer is adjusted (the feature data is discarded or the current frame data is used again). Etc.) because it is necessary.

さて、バッファ内の同一フレームの位置関係は、一度検出すれば変化しないものではなく、映像機器でのフレームの破棄、繰り返し、戻り等の影響により、時間的に変化することが考えられるため、フレームごとの処理が必要となる。その一例を図4に示す。   Now, the positional relationship of the same frame in the buffer does not change once it is detected, but it may change over time due to the effects of frame discard, repetition, return, etc. Each process is required. An example is shown in FIG.

図4は、装置1、装置2を通過する2系統の映像信号のフレーム情報を示している。(Z,Z’) 、 (A,A’)、 (B,B’)、・・・の各フレームがそれぞれ一致すべきフレームであることを前提とする。ここで、装置2の側でだけフレームAが破棄され、その後それぞれの系統の映像信号から映像特徴量を抽出するような場合を考える。すると、フレーム(Z,Z’)まではなんらかの手法により特徴量データの同期が取得できていたとしても、以降のフレームからは特徴量データの並びにずれが生じてしまうため、同期が崩れてしまう。よって、常にこうしたフレーム順序の不整合に対応できるようにフレームごとの同期検出が必要となる。   FIG. 4 shows frame information of two systems of video signals passing through the devices 1 and 2. It is assumed that the frames (Z, Z ′), (A, A ′), (B, B ′),. Here, consider a case in which the frame A is discarded only on the device 2 side, and then video feature values are extracted from the video signals of the respective systems. Then, even if the synchronization of the feature amount data can be acquired by some method up to the frame (Z, Z ′), the alignment of the feature amount data is generated from the subsequent frames, so the synchronization is lost. Therefore, it is necessary to detect synchronization for each frame so as to always cope with such inconsistencies in the frame order.

本発明では2系統の映像信号の差分電力(MSE)に着目し、これが最小となる特徴量の組を同一フレームのデータとして検出する。これは、映像信号の性質として、同一シーン内でシーンチェンジがない場合、フレーム間差分電力はフレーム間隔が近接する程小さくなる(当然ながら同一フレームでは差分0である)という性質に基づくものである。実際には、2系統の映像は圧縮符号化などの伝送中の処理条件により完全に同一な信号ではないため、同一フレームの映像特徴量を比較した場合に差分0となることはないが、それでも前述の基本的な性質を有すると考えられるため、本発明では、差分電力のより小さい映像特徴量の組(また、これはPSNRが最大となる組と言い換えることができる)を選ぶことにより、同一フレームを検出する。   In the present invention, attention is paid to the differential power (MSE) between two systems of video signals, and a set of feature quantities that minimizes this is detected as data of the same frame. This is based on the property that the difference power between frames becomes smaller as the frame interval becomes closer (of course, the difference is 0 in the same frame) when there is no scene change in the same scene. . Actually, the two systems of video are not completely the same signal due to processing conditions during transmission such as compression coding, so the difference between the video features of the same frame will not be 0, but still Since it is considered to have the above-mentioned basic properties, in the present invention, it is the same by selecting a set of video feature quantities having a smaller differential power (which can be paraphrased as a set having the maximum PSNR). Detect frames.

以下に、図3の画質監視端末6の動作、すなわちフレーム同期のずれを検出のための手順を示す。   In the following, an operation of the image quality monitoring terminal 6 of FIG.

画質監視端末6の特徴量バッファ(系統A)11および特徴量バッファ(系統B)12に、2系統(系統A,B)の映像信号から抽出した特徴量データが蓄積され、これは、抽出元のフレーム順を損ねることなく系統ごとに分離されて蓄積される。また、同期を決定する対象のフレームを「現フレーム」とし、その直前のフレームを「前フレーム」、直後を「後フレーム」と呼ぶ。また、前フレームまでは適切な方法により同期が取得出来ているとする。   Feature quantity data extracted from video signals of two systems (systems A and B) is stored in the feature buffer (system A) 11 and the feature buffer (system B) 12 of the image quality monitoring terminal 6. Are separated and stored for each system without impairing the frame order. Also, a frame for which synchronization is determined is referred to as a “current frame”, a frame immediately before it is referred to as a “previous frame”, and a frame immediately after is referred to as a “back frame”. In addition, it is assumed that synchronization can be acquired up to the previous frame by an appropriate method.

ここで、A系統の前フレーム、現フレーム、後フレームの特徴量データを(Ap、 Ac、 An)、B系統を同様に (Bp、 Bc、 Bn) と表し、さらに、それぞれの組み合わせにより得られるPSNR値を図5のとおり記述する。なお、A系統の前フレームの特徴量データAPとB系統の後フレームの特徴量データBnとのPSNR値Ppn、A系統の後フレームの特徴量データAnとB系統の前フレームの特徴量データBnとのPSNR値Pnpは定義できるものの、他のPSNR値と異なり、フレーム間隔が2フレームの状態のPSNR値となるため、本発明ではこれらの値は使用しない。   Here, the feature value data of the previous frame, current frame, and subsequent frame of the A system are represented as (Ap, Ac, An), and the B system is represented as (Bp, Bc, Bn). The PSNR value is described as shown in FIG. The PSNR value Ppn between the feature data AP of the previous frame of the A system and the feature data Bn of the subsequent frame of the B system, the feature data An of the subsequent frame of the A system, and the feature data Bn of the previous frame of the B system. Although the PSNR value Pnp can be defined, unlike the other PSNR values, the frame interval is a PSNR value in a state of 2 frames. Therefore, these values are not used in the present invention.

Pxxと特徴量データのずれの関係は、図6のように表される。Ppp、 Pcc、 Pnnは、いずれもフレームずれのない状態でのPSNR値であり、PpcとPcnはA系統が1フレーム遅れたと仮定した場合のPSNR値、PcpおよびPncはA系統が1フレーム進んでいる場合のPSNR値である。換言すれば、前記Ppp、 Pcc、 Pnnは、それぞれある一方の系統と他方の系統の前1フレーム同士、ある一方の系統と他方の系統の現1フレーム同士、ある一方の系統と他方の系統の後1フレーム同士のPSNR値、PcpおよびPcnは、それぞれある一方の系統の現フレームと他方の系統の前1フレーム同士、ある一方の系統の現フレームと他方の系統の後1フレーム同士のPSNR値、PpcとPncは、それぞれある一方の系統の前1フレームと他方の系統の現フレーム同士、ある一方の系統の後1フレームと他方の系統の現フレーム同士のPSNR値ということができる。   The relationship between the deviation between Pxx and feature data is expressed as shown in FIG. Ppp, Pcc, and Pnn are all PSNR values when there is no frame shift. Ppc and Pcn are PSNR values assuming that the A system is delayed by one frame. PSNR value when In other words, Ppp, Pcc, and Pnn are respectively the previous one frame of one system and the other system, the current one frame of one system and the other system, the one frame of the other system, and the other system. The PSNR values of the next one frame, Pcp and Pcn are the PSNR values of the current frame of one system and the previous frame of the other system, the current frame of one system and the back frame of the other system, respectively. Ppc and Pnc can be said to be PSNR values of the previous frame of one system and the current frame of the other system, and the PSNR value of the subsequent frame of one system and the current frame of the other system, respectively.

前述の理由により、同期を得られている状態の PSNR値が最も高くなると考えられるため、前述の7つのPSNR値を比較し、最も高い値を示すPSNR値の組を探せばよい。この手順を図7のフローチャートに示す。   For the above-described reason, it is considered that the PSNR value in a state where synchronization is obtained is the highest. Therefore, the above-mentioned seven PSNR values may be compared to find a set of PSNR values showing the highest value. This procedure is shown in the flowchart of FIG.

図7では、前フレームの同期が確定していると前提しているため、A、B系統の前フレームの特徴量同士を比較することにより得られたPSNR値であるPppは高い値を示すと考えられる。そのため、まずA,B系統の現フレーム同士の特徴量を比較して得られたPccと、次フレーム同士の特徴量から得られるPnnを求め、これらとPppとの大小関係を求める(ステップS1)。PccおよびPnnは遅延量の変化がない場合を想定したPSNR値であるため、これらがPppより高い値を示している場合にはフレーム遅延は生じていないと判定できる。   Since it is assumed in FIG. 7 that the synchronization of the previous frame is confirmed, Ppp which is a PSNR value obtained by comparing the feature quantities of the previous frames of the A and B systems shows a high value. Conceivable. Therefore, first, Pcc obtained by comparing the feature values of the current frames of the A and B systems and Pnn obtained from the feature values of the next frames are obtained, and the magnitude relationship between these and Ppp is obtained (step S1). . Since Pcc and Pnn are PSNR values assuming that there is no change in the delay amount, it can be determined that no frame delay occurs when these values are higher than Ppp.

一方、Pppの方がPccまたはPnnより高い場合(ステップS1が肯定)には、遅延の変動の可能性があるため、ステップS2に進む。ステップS2では、A系統が1フレーム進んだ場合を想定したPcnと、B系統が1フレーム進んだと想定したPncを比較し、高いPSNR値を示した方に遅延が動いた可能性があると判断する。次に、PcnもしくはPncのうち値の高かったものとPcc(遅延なし前提のPSNR)を比較する(ステップS3,S5)。   On the other hand, if Ppp is higher than Pcc or Pnn (Yes in step S1), the process proceeds to step S2 because there is a possibility of delay variation. In step S2, Pcn assuming that the A system has advanced by one frame is compared with Pnc assuming that the B system has advanced by one frame, and there is a possibility that the delay has moved to the one showing a high PSNR value. to decide. Next, Pcc or Pnc having a higher value is compared with Pcc (PSNR based on no delay) (steps S3 and S5).

ここで、Pccの方がPcnよりも高かった場合(ステップS3が否定)またはPccの方がPncよりも高かった場合(ステップS5が否定)には、PccはPppよりは値が低かったものの、遅延が変動しているという前提のPSNRよりは高いという判定ができるため、遅延は変動なしとみなして当該フレームの判定を終了する。   Here, when Pcc is higher than Pcn (No in step S3) or Pcc is higher than Pnc (No in step S5), Pcc is lower than Ppp, Since it can be determined that the delay is higher than the PSNR on the premise that the delay fluctuates, it is determined that the delay does not fluctuate, and the determination of the frame ends.

逆に、Pcnの値がPccよりも高い場合(ステップS3が肯定)またはPncの値がPccよりも高い場合(ステップS5が肯定)には、遅延の変動が発生している可能性が高いと考えられる。そこで、最後に、図6のPcnと逆向きの遅延を前提としたPcp、またはPncと逆向きの遅延を前提としたPpcとの比較(ステップS4,S6)を行い、前提どおりPcnまたはPncの値のほうが高ければ(ステップS4,S6が肯定)、最終的に遅延が変動したと判定する。一方、PcnまたはPncの値のほうが低ければ(ステップS4,S6が否定)、ずれの方向が不確定であるので、保留の意味でフレーム遅延変化なしとする。なお、該保留にしても、図7の処理は毎フレームごとに繰り返されるので、何らの支障は生じない。   Conversely, if the value of Pcn is higher than Pcc (Yes in step S3) or if the value of Pnc is higher than Pcc (Yes in step S5), there is a high possibility that a delay variation has occurred. Conceivable. Therefore, finally, a comparison is made between Pcp and Ppc assuming reverse delay in FIG. 6 or Pnc and Ppc assuming reverse delay (steps S4 and S6). If the value is higher (Yes in steps S4 and S6), it is finally determined that the delay has changed. On the other hand, if the value of Pcn or Pnc is lower (No in steps S4 and S6), the direction of the shift is indeterminate, so that there is no frame delay change in the sense of deferment. Even if the suspension is made, the processing of FIG. 7 is repeated every frame, so that no trouble occurs.

以上のように、遅延変動を仮定して求められた7通りのPSNR値の大小関係が仮定どおりのものであれば、遅延の変動を検出している。なお、本発明では、1フレームに複数フレームの遅延変動は発生しないと前提しているが、仮に複数フレームが一度にずれた場合でも、前述の手順をカクフレームで繰り返せば、毎フレーム正しい方向に1フレームずつ補正をかけるため、最終的には同期は取得可能である。例えば、3フレームが一度にずれた場合には、3フレーム続けて上述の判定を行えば、正しい特徴量データの同期を行うことが可能である。また、シーンチェンジが起きてフレーム同期が不能になっても、いずれシーンチェンジのフレームを含まない同一シーンが訪れるので、該同一シーンに入った後に前記の補正がかけられるため、フレーム同期を行うことが可能になる。   As described above, if seven magnitudes of PSNR values obtained on the assumption of delay fluctuation are as assumed, fluctuation in delay is detected. In the present invention, it is assumed that a delay variation of a plurality of frames does not occur in one frame. However, even if a plurality of frames are shifted at a time, if the above procedure is repeated with a Kaku frame, each frame has a correct direction. Since the correction is performed frame by frame, the synchronization can be finally obtained. For example, when three frames are shifted at a time, it is possible to synchronize the correct feature amount data by performing the above determination for three frames in succession. Even if a scene change occurs and frame synchronization becomes impossible, the same scene that does not include the frame of the scene change will come, so the above correction will be applied after entering the same scene. Is possible.

本発明が適用される特徴量抽出型の画質監視方式の構成を示すシステム図である。It is a system diagram showing a configuration of a feature quantity extraction type image quality monitoring system to which the present invention is applied. 本発明が適用される特徴量抽出型の画質監視方式の他の構成を示すシステム図である。It is a system diagram showing another configuration of a feature quantity extraction type image quality monitoring system to which the present invention is applied. 図1、図2の画質監視端末の具体的構成を示すブロック図である。FIG. 3 is a block diagram illustrating a specific configuration of the image quality monitoring terminal of FIGS. 1 and 2. 映像機器において、フレーム破棄によりフレーム同期が損なわれる一例の説明図である。FIG. 11 is an explanatory diagram of an example in which frame synchronization is lost due to frame discard in a video device. A、B系統の各前、現、後フレームの組み合わせにより得られるPSNR値の説明図である。It is explanatory drawing of the PSNR value obtained by the combination of each front, present, and back frame of A and B systems. 図5を時系列で表した説明図である。It is explanatory drawing which represented FIG. 5 in the time series. 画質監視端末の遅延変化検出部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the delay change detection part of an image quality monitoring terminal.

符号の説明Explanation of symbols

4、5・・・特徴量抽出装置、6・・・画質監視端末、11,12・・・特徴量バッファ、13・・・PSNR推定部、14・・・遅延変化検出部。
4, 5 ... feature quantity extraction device, 6 ... image quality monitoring terminal, 11, 12 ... feature quantity buffer, 13 ... PSNR estimation section, 14 ... delay change detection section.

Claims (4)

2系統の映像信号の各フレームから画像特徴量を抽出する画像特徴量抽出手段と、
一方の系統のあるフレームの画像特徴量を基準とした上で、他方のフレームとのフレーム遅延差を順次変更しながら該2系統の画像特徴量の比較に基づき各フレームの客観画質を求める客観画質演算手段と、
前記客観画質が最大となる点を正しいフレーム遅延差として検出する遅延差検出手段とを具備し、
該遅延差を小さくしてフレーム同期することを特徴とする映像信号のフレーム同期方式。
Image feature amount extraction means for extracting an image feature amount from each frame of two video signals;
Objective image quality for obtaining the objective image quality of each frame based on the comparison of the image feature values of the two systems while sequentially changing the frame delay difference with the other frame, based on the image feature value of a frame of one system Computing means;
A delay difference detecting means for detecting a point at which the objective image quality is maximized as a correct frame delay difference;
A frame synchronization method for video signals, characterized in that the delay difference is reduced to perform frame synchronization.
請求項1に記載の映像信号のフレーム同期方式において、
前記客観画質演算手段は、前記一方の系統のあるフレームの画像特徴量を基準とした上で、他方のフレームとのフレーム遅延差を前後1フレームとし、可能性として考えられる遅延変化7パターンが発生した場合の客観画質を求め、
前記遅延差検出手段は、該7パターンの客観画質大小関係に基づき、遅延変化の有無および方向を決定することを特徴とする映像信号のフレーム同期方式。
The video signal frame synchronization method according to claim 1,
The objective image quality calculation means uses the image feature amount of a frame of one system as a reference, and sets a frame delay difference with the other frame as one frame before and after, and generates 7 possible delay change patterns. To obtain objective image quality
The video signal frame synchronization system, wherein the delay difference detecting means determines presence / absence and direction of delay change based on the objective image quality relationship of the seven patterns.
請求項1または2に記載の映像信号のフレーム同期方式において、
前記客観画質の尺度としてPSNR値を用いることを特徴とする映像信号のフレーム同期方式。
The video signal frame synchronization system according to claim 1 or 2,
A video signal frame synchronization method using a PSNR value as a measure of the objective image quality.
請求項1ないし3のいずれかに記載の映像信号のフレーム同期方式において、
前記画像特徴量の抽出方式として、スペクトル拡散と直交変換を用いた方式を用い、2系統の映像信号の差分電力(MSE)を推定することにより導出したPSNR値を用いることを特徴とする映像信号のフレーム同期方式。
In the frame synchronization system of the video signal according to any one of claims 1 to 3,
A video signal characterized by using a PSNR value derived by estimating a differential power (MSE) between two systems of video signals using a method using spread spectrum and orthogonal transformation as the image feature extraction method. Frame synchronization method.
JP2005237426A 2005-08-18 2005-08-18 Video signal frame synchronization method Expired - Fee Related JP4573301B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005237426A JP4573301B2 (en) 2005-08-18 2005-08-18 Video signal frame synchronization method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005237426A JP4573301B2 (en) 2005-08-18 2005-08-18 Video signal frame synchronization method

Publications (2)

Publication Number Publication Date
JP2007053604A true JP2007053604A (en) 2007-03-01
JP4573301B2 JP4573301B2 (en) 2010-11-04

Family

ID=37917744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005237426A Expired - Fee Related JP4573301B2 (en) 2005-08-18 2005-08-18 Video signal frame synchronization method

Country Status (1)

Country Link
JP (1) JP4573301B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016111492A (en) * 2014-12-05 2016-06-20 株式会社テレビ朝日 Terminal equipment, server device, and program
US9609179B2 (en) 2010-09-22 2017-03-28 Thomson Licensing Methods for processing multimedia flows and corresponding devices
CN112291593A (en) * 2020-12-24 2021-01-29 湖北芯擎科技有限公司 Data synchronization method and data synchronization device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184365A (en) * 1998-12-18 2000-06-30 Nippon Telegr & Teleph Corp <Ntt> Video image comparison monitor system
JP2002077949A (en) * 2000-08-25 2002-03-15 Kddi Corp Evaluating apparatus and remotely monitoring device for transmitting image quality
JP2003234726A (en) * 2002-02-08 2003-08-22 Kddi Corp Transmitter and receiver for frame synchronizing system, and frame synchronizing method
JP2004048579A (en) * 2002-07-15 2004-02-12 Sharp Corp Coding device and decoding device of moving image
JP2005064679A (en) * 2003-08-08 2005-03-10 Kddi Corp Image feature value extracting method and image quality evaluating method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184365A (en) * 1998-12-18 2000-06-30 Nippon Telegr & Teleph Corp <Ntt> Video image comparison monitor system
JP2002077949A (en) * 2000-08-25 2002-03-15 Kddi Corp Evaluating apparatus and remotely monitoring device for transmitting image quality
JP2003234726A (en) * 2002-02-08 2003-08-22 Kddi Corp Transmitter and receiver for frame synchronizing system, and frame synchronizing method
JP2004048579A (en) * 2002-07-15 2004-02-12 Sharp Corp Coding device and decoding device of moving image
JP2005064679A (en) * 2003-08-08 2005-03-10 Kddi Corp Image feature value extracting method and image quality evaluating method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9609179B2 (en) 2010-09-22 2017-03-28 Thomson Licensing Methods for processing multimedia flows and corresponding devices
JP2016111492A (en) * 2014-12-05 2016-06-20 株式会社テレビ朝日 Terminal equipment, server device, and program
CN112291593A (en) * 2020-12-24 2021-01-29 湖北芯擎科技有限公司 Data synchronization method and data synchronization device
CN112291593B (en) * 2020-12-24 2021-03-23 湖北芯擎科技有限公司 Data synchronization method and data synchronization device

Also Published As

Publication number Publication date
JP4573301B2 (en) 2010-11-04

Similar Documents

Publication Publication Date Title
US8320747B2 (en) Video quality estimation apparatus, video quality estimation method, frame type determination method, and recording medium
US8031770B2 (en) Systems and methods for objective video quality measurements
US8571109B2 (en) Block error compensating apparatus of image frame and method thereof
US20120201310A1 (en) Video quality estimation apparatus, video quality estimation method, and program
JP2008035357A (en) Video quality objective evaluation device
JP5099371B2 (en) Image quality evaluation method, image quality evaluation apparatus, and image quality evaluation program
US20070280129A1 (en) System and method for calculating packet loss metric for no-reference video quality assessment
CN101420606A (en) Image processing method and apparatus
JP4573301B2 (en) Video signal frame synchronization method
US20100026813A1 (en) Video monitoring involving embedding a video characteristic in audio of a video/audio signal
JP5450279B2 (en) Image quality objective evaluation apparatus, method and program
US9007525B2 (en) Audio and video communications apparatus and communications method thereof
EP2736261A1 (en) Method For Assessing The Quality Of A Video Stream
US9253467B2 (en) Method and apparatus for correcting errors in multiple stream-based 3D images
JP2003204561A (en) Apparatus for detecting image quality deterioration
US20080143874A1 (en) Video apparatus and method of measuring jitter/wander
JP5939884B2 (en) Error correction coding device
JP3838513B2 (en) Transmission image quality monitoring device
JP3838516B2 (en) Transmission image quality monitoring device
JP4666485B2 (en) Segment boundary matching method for audio signals
US8290284B2 (en) Error determination device and error determination method
JP2007043309A (en) Transmission image quality monitor
Lee et al. Video calibration for spatial-temporal registration with gain and offset adjustments
KR20060088691A (en) 3:2 pull-down method for film mode detection method
WO2009081675A1 (en) Interpolation frame generation apparatus, interpolation frame generation method, and broadcast receiving apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100811

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100812

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees