JP2010279014A - Synchronism verification method of stream data processing and stream data processing apparatus - Google Patents

Synchronism verification method of stream data processing and stream data processing apparatus Download PDF

Info

Publication number
JP2010279014A
JP2010279014A JP2009281918A JP2009281918A JP2010279014A JP 2010279014 A JP2010279014 A JP 2010279014A JP 2009281918 A JP2009281918 A JP 2009281918A JP 2009281918 A JP2009281918 A JP 2009281918A JP 2010279014 A JP2010279014 A JP 2010279014A
Authority
JP
Japan
Prior art keywords
data
synchronization
frame
compressed
expected value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009281918A
Other languages
Japanese (ja)
Inventor
Sei Sasaki
生 佐々木
Mika Minehisa
美香 峰久
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Electronics Corp
Original Assignee
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Electronics Corp filed Critical Renesas Electronics Corp
Priority to JP2009281918A priority Critical patent/JP2010279014A/en
Publication of JP2010279014A publication Critical patent/JP2010279014A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Circuits Of Receivers In General (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an AV synchronism verification method of stream data processing for AV synchronous reproduction of stream data. <P>SOLUTION: According to the AV synchronism verification method, in a state that AV synchronous control is invalidated (ST100), asynchronous data obtained by decoding stream data are compressed on a one-frame unit basis and sequentially captured as expected value data (ST200). Next, in a state that AV synchronous control is validated (ST300), synchronous data obtained by decoding stream data are compressed on a one-frame unit basis. The compressed synchronous data are collated with the expected value data (ST400). <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、デジタル放送(デジタルBS、デジタルCS、地上波デジタル等)で配信されるストリームデータを処理して外部出力するデジタル放送AVシステムに関する。さらに詳しくは、同期処理の定量的な検証を可能にするデジタル放送AVシステムに関する。   The present invention relates to a digital broadcasting AV system that processes stream data distributed by digital broadcasting (digital BS, digital CS, terrestrial digital, etc.) and outputs the processed data. More specifically, the present invention relates to a digital broadcast AV system that enables quantitative verification of synchronization processing.

デジタルAV放送システムにおいては、映像および音声データが多重化されたストリームデータがデジタル放送で配信されるが、その映像および音声を再生する際には、両者の再生タイミングを合わせるため、同期制御を実行する必要がある。
従来のデジタル放送システムにおけるAV同期検証については、視聴者の主観による評価に頼っていたので、個々の評価者により評価結果の違いが発生するなど、定量的な検証を行うことができなかった。
In a digital AV broadcasting system, stream data in which video and audio data are multiplexed is distributed by digital broadcasting. When the video and audio are played back, synchronization control is executed to match the playback timing of both. There is a need to.
The AV synchronization verification in the conventional digital broadcasting system relies on the subjective evaluation of the viewer, so that the quantitative verification cannot be performed, for example, the evaluation results differ depending on the individual evaluators.

映像と音声信号とを圧縮して記録再生する記録再生装置における音声信号と映像信号との同期検出をする手段については、例えば特許文献1に開示されている。
図10は、特許文献1に開示される従来例である。
特許文献1では、映像信号発生手段1はフレーム番号に対応した時刻がスーパーインポーズされた映像信号を発生し、映像信号圧縮手段2で例えばMPEG形式に圧縮される。
また、タイムコード発生手段3は、映像信号発生手段1で発生する映像信号に対応したタイムコード信号を発生する。
For example, Patent Document 1 discloses a means for detecting synchronization between an audio signal and a video signal in a recording / reproducing apparatus that compresses and records video and audio signals.
FIG. 10 is a conventional example disclosed in Patent Document 1. In FIG.
In Patent Document 1, the video signal generating unit 1 generates a video signal in which the time corresponding to the frame number is superimposed, and the video signal compressing unit 2 compresses the video signal into, for example, the MPEG format.
The time code generating means 3 generates a time code signal corresponding to the video signal generated by the video signal generating means 1.

タイムコード信号としては、音声信号帯域を有するアナログ信号に変調されているLTC(Longitudinal Time Code)信号が例として挙げられている。
このタイムコード信号は、音声信号圧縮手段4により例えばMPEGで帯域圧縮される。
この圧縮されたタイムコード信号のデータと帯域圧縮された映像信号とを合成手段5でインタリーブし、記録手段6でディスク媒体8に記録する。
An example of the time code signal is an LTC (Longitudinal Time Code) signal that has been modulated into an analog signal having an audio signal band.
This time code signal is band-compressed by, for example, MPEG by the audio signal compression means 4.
The compressed time code signal data and the band-compressed video signal are interleaved by the synthesizing means 5 and recorded on the disk medium 8 by the recording means 6.

再生手段7は、前記ディスク媒体8に記録されたデータを再生する。
再生された音声データを音声信号復元手段11で復元し、その出力からタイムコードをタイムコード読取手段12で読み取る。
また、時刻がスーパーインポーズされた映像は表示手段10で表示される。
したがって、表示された時刻とタイムコードとを比較することにより、AV同期の時間差を見積もることができる。
The reproducing means 7 reproduces the data recorded on the disk medium 8.
The reproduced audio data is restored by the audio signal restoration means 11, and the time code is read by the time code reading means 12 from the output.
In addition, the video with the superimposed time is displayed on the display means 10.
Therefore, the time difference of AV synchronization can be estimated by comparing the displayed time and the time code.

特開平08−172597号公報Japanese Patent Laid-Open No. 08-172597

上記特許文献1の構成では、記録再生装置における音声信号と映像信号との同期検出をするために、圧縮データ自体への仕掛けが必要である。
特許文献1のようにディスク媒体8にデータを圧縮記録してこれを再生する装置であれば、上記構成を適用できる。
しかし、デジタル放送のようにリアルタイムで提供されかつ符号自体が規格化されているストリームデータに関しては上記構成を適用できない。
In the configuration of the above-mentioned Patent Document 1, it is necessary to set the compressed data itself in order to detect the synchronization between the audio signal and the video signal in the recording / reproducing apparatus.
The above configuration can be applied to any apparatus that compresses and records data on the disk medium 8 and reproduces it as in Patent Document 1.
However, the above configuration cannot be applied to stream data that is provided in real time and has a standardized code as in digital broadcasting.

このようにデジタル放送コンテンツのようなストリームデータの処理においてその同期処理を定量的に検証する手段はなく、主観的な評価に頼らざるを得なかった。   As described above, there is no means for quantitatively verifying the synchronization processing in the processing of stream data such as digital broadcast content, and it has been necessary to rely on subjective evaluation.

本発明のストリームデータ処理装置の同期検証方法は、入力されたストリームデータを同期再生させるストリームデータ処理装置の同期検証方法であって、同期制御を無効にした状態で前記ストリームデータをデコードした非同期データを1フレーム単位でデータ圧縮するとともに順次取り込んで期待値データとし、次に、同期制御を有効にした状態で前記ストリームデータをデコードした同期データを1フレーム単位でデータ圧縮し、圧縮した同期データを前記期待値データと照合することを特徴とする。   The synchronization verification method for a stream data processing apparatus according to the present invention is a synchronization verification method for a stream data processing apparatus for synchronously reproducing input stream data, wherein asynchronous data obtained by decoding the stream data with synchronization control disabled Are compressed in units of one frame and sequentially taken as expected value data. Next, the synchronization data obtained by decoding the stream data with the synchronization control enabled is compressed in units of one frame. It collates with the expected value data.

このような構成において、同期を有効にした場合と無効にした場合とで上記データ圧縮値を取り込み比較する。これにより、評価対象であるデータ自体への加工が不要であるので、デジタル放送などのストリームデータ処理の同期検証が可能となる。   In such a configuration, the data compression value is captured and compared when the synchronization is enabled and disabled. Thereby, since it is not necessary to process the data to be evaluated, synchronization verification of stream data processing such as digital broadcasting can be performed.

本発明のデジタル放送AVシステムに係る第1実施形態を示す図。The figure which shows 1st Embodiment which concerns on the digital broadcast AV system of this invention. 同期処理検証の動作手順を示すフローチャート。The flowchart which shows the operation | movement procedure of synchronous process verification. 期待値を取得する工程の詳細な動作手順を示すフローチャート。The flowchart which shows the detailed operation | movement procedure of the process of acquiring an expected value. 圧縮データ同士を照合する工程の詳細な動作手順を示すフローチャート。The flowchart which shows the detailed operation | movement procedure of the process which collates compressed data. 同期無効時に取得した期待値データとしての圧縮データと同期有効時の映像圧縮データとを比較する様子を模式的に示す図。The figure which shows typically a mode that the compression data as expected value data acquired at the time of synchronization invalidity and the video compression data at the time of synchronization validity are compared. 第2実施形態のシステム構成を示す図。The figure which shows the system configuration | structure of 2nd Embodiment. 第2実施形態において、期待値データを取得する工程の動作手順を示すフローチャート。The flowchart which shows the operation | movement procedure of the process of acquiring expected value data in 2nd Embodiment. 第2実施形態において、AV同期有効モードにおける音声データと期待値データとを照合する工程の動作手順を示すフローチャート。The flowchart which shows the operation | movement procedure of the process which collates the audio | voice data and expected value data in AV synchronization effective mode in 2nd Embodiment. 第2実施形態の同期検証において、圧縮データ同士を照合する様子を模式的に示す図。The figure which shows typically a mode that compressed data are collated in the synchronous verification of 2nd Embodiment. 従来技術の構成を示す図。The figure which shows the structure of a prior art.

以下、図面を参照して本発明の実施の形態について説明する。
(第1実施形態)
図1は、本発明のデジタル放送AVシステム(ストリームデータ処理装置)に係る第1実施形態を示す図である。
なお、ストリームデータとしては、デジタル放送が例として挙げられるが、インターネットなど通信路を用いて配信されるストリームデータであってもよい。
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram showing a first embodiment according to a digital broadcast AV system (stream data processing apparatus) of the present invention.
The stream data may be digital broadcast as an example, but may be stream data distributed using a communication channel such as the Internet.

まず、通常モードにおいて、デジタル放送AVシステム100が多重化されたストリームデータを信号処理して出力する動作について説明する。
ストリームデータは、図示しない受信機等で受信され、データ入力部110に入力される。
データ入力部110は、多重分離部111と、映像バッファ112と、音声バッファ113と、を備える。
データ入力部110に入力されたストリームデータは、多重分離部111によって音声ストリームと映像ストリームとに分離される。
分離された音声ストリームと映像ストリームとはそれぞれ音声バッファ113と映像バッファ112とに順次蓄積される。
First, in the normal mode, an operation in which the digital broadcast AV system 100 processes and outputs multiplexed stream data will be described.
The stream data is received by a receiver or the like (not shown) and input to the data input unit 110.
The data input unit 110 includes a demultiplexing unit 111, a video buffer 112, and an audio buffer 113.
The stream data input to the data input unit 110 is separated into an audio stream and a video stream by the demultiplexing unit 111.
The separated audio stream and video stream are sequentially stored in the audio buffer 113 and the video buffer 112, respectively.

PTS読取部120は、映像バッファ112および音声バッファ113上のデータからPTS情報(Presentation Time Stamp:提示時刻情報)を取得する。
通常動作において、読み取られたPTS情報は、AV同期制御部140に送られる。
また、STCカウンタ130は、ストリームデータに付加されているPCR(Program Clock Reference)情報に基づいて設定され、システムクロックSTC(System Time Clock)をカウントする。
STCカウンタ130からのSTC情報は、通常モードにおいてはAV同期制御部140に送られる。
The PTS reading unit 120 acquires PTS information (Presentation Time Stamp) from data on the video buffer 112 and the audio buffer 113.
In the normal operation, the read PTS information is sent to the AV synchronization control unit 140.
The STC counter 130 is set based on PCR (Program Clock Reference) information added to the stream data, and counts a system clock STC (System Time Clock).
The STC information from the STC counter 130 is sent to the AV synchronization control unit 140 in the normal mode.

AV同期制御部140は、STC情報およびPTS情報に基づいて、音声再生出力と映像再生出力との同期をとるもので、音声信号処理部150および映像信号処理部160に復号開始命令および出力命令を与える。
このとき、AV同期制御部140は、PTS情報とSTC情報とを比較して、STCがPTSの時刻になった時点で再生を開始させる。
音声信号復号部151および映像信号復号部161は、復号開始命令を受けて復号を開始し、出力命令を受けて復号したデータを外部出力する。
通常動作ではこのようなAV同期制御が実行される。
The AV synchronization control unit 140 synchronizes the audio reproduction output and the video reproduction output based on the STC information and the PTS information, and sends a decoding start command and an output command to the audio signal processing unit 150 and the video signal processing unit 160. give.
At this time, the AV synchronization control unit 140 compares the PTS information with the STC information, and starts reproduction when the STC reaches the PTS time.
The audio signal decoding unit 151 and the video signal decoding unit 161 start decoding upon receiving a decoding start command, and externally output the decoded data upon receiving an output command.
In the normal operation, such AV synchronization control is executed.

次に、本発明に係るAV同期検証方法について説明する。
図2は、AV同期制御の検証を行う動作手順を示すフローチャートである。
AV同期制御の検証においては、まず、AV同期制御をオフにし(ST100)、期待値を取得する(ST200)。続いて、AV同期制御をONにし(ST300)、データ照合処理を行う(ST400)。
以下、順に説明する。
Next, an AV synchronization verification method according to the present invention will be described.
FIG. 2 is a flowchart showing an operation procedure for verifying AV synchronization control.
In the verification of AV synchronization control, first, AV synchronization control is turned off (ST100), and an expected value is acquired (ST200). Subsequently, AV synchronization control is turned on (ST300), and data collation processing is performed (ST400).
Hereinafter, it demonstrates in order.

まず、AV同期制御をオフ(ST100)にした状態(AV同期無効モード)で期待値データを取得する工程(ST200)について説明する。
AV同期制御の検証を行うための照合用の期待値データを取得するにあたり、AV同期制御部140によるAV同期制御を無効にしておく(ST100)。
そして、期待値データを取得する(ST200)。
図3は、期待値を取得する工程(ST200)の詳細な動作手順を示すフローチャートである。
ここでは、映像データ処理系を中心に説明するが、音声データ処理系についても同様に適用できることは後述する。
First, a process (ST200) of obtaining expected value data in a state where AV synchronization control is turned off (ST100) (AV synchronization invalid mode) will be described.
In obtaining expected value data for verification for verifying AV synchronization control, AV synchronization control by the AV synchronization control unit 140 is disabled (ST100).
Then, expected value data is acquired (ST200).
FIG. 3 is a flowchart showing a detailed operation procedure of the step (ST200) of obtaining the expected value.
The video data processing system will be mainly described here, but it will be described later that it can be similarly applied to the audio data processing system.

まず、検証対象となるストリーミングデータをデータ入力部110から入力する(ST201)。そして、このデータの1フレームごとに圧縮データを取得する(ST202)。
すなわち、ストリーミングデータは多重分離されたのち、映像バッファ112を経て、映像信号処理部160に送られる。そして、AV同期処理は無効であるので、待ち時間なく映像信号復号部161はデータを復号して外部出力する。
ここで、映像信号処理部160は、外部出力データを1フレーム単位で取り込んでデータ圧縮するデータ圧縮部162を備える。
First, streaming data to be verified is input from the data input unit 110 (ST201). Then, compressed data is acquired for each frame of this data (ST202).
That is, the streaming data is demultiplexed and then sent to the video signal processing unit 160 via the video buffer 112. Since the AV synchronization process is invalid, the video signal decoding unit 161 decodes the data and outputs it without waiting time.
Here, the video signal processing unit 160 includes a data compression unit 162 that takes in external output data in units of one frame and compresses the data.

データ圧縮部162は、映像信号復号部161から外部出力されるデータを1フレームごとに取り込んで圧縮する(ST202)。
なお、データ圧縮部162は、垂直同期信号(VSYNC)を参照することにより、1フレーム分のデータ量を判断する。
圧縮したデータは順次メモリ180に格納していく(ST203)。
The data compression unit 162 takes in the data output from the video signal decoding unit 161 for each frame and compresses it (ST202).
The data compression unit 162 determines the data amount for one frame by referring to the vertical synchronization signal (VSYNC).
The compressed data is sequentially stored in the memory 180 (ST203).

このとき、各データ圧縮値の取得に合わせ、1フレーム毎のPTS値をPTS読取部120によって取得し(ST204)、メモリ180へ格納する(ST205)。
これをフレーム毎に繰り返し行い、データ圧縮値とPTS値とを取得し、メモリ180へ蓄積する。
検証の対象となる全てのフレームのデータ取得が完了した後(ST206:YES)、外部記憶媒体200にデータ圧縮値および各データ圧縮値に対応するPTS値の格納を行なう(ST207)。
これにより、期待値データの取得が終了する。
At this time, the PTS value for each frame is acquired by the PTS reading unit 120 in accordance with the acquisition of each data compression value (ST204) and stored in the memory 180 (ST205).
This is repeated for each frame, and the data compression value and the PTS value are acquired and stored in the memory 180.
After the data acquisition of all the frames to be verified is completed (ST206: YES), the data storage value and the PTS value corresponding to each data compression value are stored in the external storage medium 200 (ST207).
Thereby, the acquisition of expected value data is completed.

次に、AV同期有効モードにおいて、映像データを前記期待値データに照合する工程について説明する(ST400)
期待値データを取得した後(ST200)、AV同期制御を有効にする(ST300)。そして、AV同期制御が有効の状態で得られる映像データと期待値データとの照合を行う(ST400)
Next, the process of collating video data with the expected value data in the AV synchronization valid mode will be described (ST400).
After obtaining the expected value data (ST200), the AV synchronization control is enabled (ST300). Then, the video data obtained in a state where the AV synchronization control is valid is collated with the expected value data (ST400).

図4は、AV同期有効モードにおける映像データと前記取得した期待値データとを照合する工程(ST400)の詳細な動作手順を示すフローチャートである。
まずは、予め取得しておいた期待値データを記憶媒体200上からメモリ180上へ展開を行なっておく(ST401)。そして、ストリーミングデータをデータ入力部110から入力する(ST402)。
このストリーミングデータは、期待値データの取得時に用いたデータと同じものである。
データの1フレームごとにデータ圧縮値を取得する(ST403)。すなわち、ストリーミングデータは多重分離されたのち、映像バッファ112を経て、映像信号処理部160に送られる。
FIG. 4 is a flowchart showing a detailed operation procedure of the step (ST400) of collating the video data in the AV synchronization effective mode with the acquired expected value data.
First, the expected value data acquired in advance is expanded from the storage medium 200 to the memory 180 (ST401). Then, the streaming data is input from the data input unit 110 (ST402).
This streaming data is the same as the data used when obtaining the expected value data.
A data compression value is acquired for each frame of data (ST403). That is, the streaming data is demultiplexed and then sent to the video signal processing unit 160 via the video buffer 112.

ここで、AV同期制御部140によるAV同期処理を有効にしているので、STCがPTSになるタイミングで映像信号復号部161からデータが復号されて外部出力される。
そして、データ圧縮部162は、映像信号復号部161から外部出力されるデータを1フレームごとに取り込んで圧縮し、圧縮データを取得する(ST403)。
取得された圧縮データは、AV同期検証部170に送られる。
Here, since the AV synchronization processing by the AV synchronization control unit 140 is validated, the data is decoded from the video signal decoding unit 161 at the timing when the STC becomes the PTS and output to the outside.
Then, the data compression unit 162 takes in the data output from the video signal decoding unit 161 for each frame, compresses the data, and obtains compressed data (ST403).
The acquired compressed data is sent to the AV synchronization verification unit 170.

また、同時に、AV同期検証部170は、メモリ180上に展開している期待値データとしての映像圧縮データを読み出す(ST404)。そして、AV同期検証部170は、取得した圧縮データを順次期待値データと比較していく(ST405)。
データ圧縮値の比較結果が一致すれば(ST405:YES)、そのフレームはOKであると判定とする。
At the same time, AV synchronization verification section 170 reads the compressed video data as expected value data developed on memory 180 (ST404). Then, AV synchronization verification section 170 sequentially compares the acquired compressed data with expected value data (ST405).
If the comparison results of the data compression values match (ST405: YES), it is determined that the frame is OK.

ここで、図5は、AV同期無効時に取得した期待値データとしての圧縮データとAV同期有効時の映像圧縮データとを比較する様子を模式的に示す図である。
図5において、AV同期無効時に取得した期待値データとしての圧縮データは、大文字のアルファベットで符号を表す。
また、AV同期有効時の映像圧縮データは、小文字のアルファベットで符号を表す。
図5の例で順にデータ照合を行うと、圧縮データ(a)、(b)、(c)、(d)は、期待値データとしての圧縮データ(A)、(B)、(C)、(D)にそれぞれ等しいため、OKであると判定する(ST406)。
Here, FIG. 5 is a diagram schematically showing a state in which compressed data as expected value data acquired when AV synchronization is disabled is compared with compressed video data when AV synchronization is enabled.
In FIG. 5, compressed data as expected value data acquired when AV synchronization is invalid represents a code with an uppercase alphabet.
In addition, the compressed video data when the AV synchronization is valid represents a code with a lower case alphabet.
When data collation is performed in order in the example of FIG. 5, the compressed data (a), (b), (c), and (d) are compressed data (A), (B), (C), Since each is equal to (D), it is determined to be OK (ST406).

一方、不一致の場合(ST405:NO)、フレームリピート/フレームスキップ/NGのいずれかが考えられる。
この場合には、現在の出力映像フレームに対応するSTC情報をSTCカウンタから取得する(ST408)。そして、取得したSTC値と期待値データとしてメモリ上に展開している該当データ圧縮値に相当するPTS値とを比較する(ST410)。
On the other hand, if they do not match (ST405: NO), one of frame repeat / frame skip / NG is conceivable.
In this case, STC information corresponding to the current output video frame is acquired from the STC counter (ST408). Then, the acquired STC value is compared with the PTS value corresponding to the corresponding data compression value expanded on the memory as expected value data (ST410).

この比較(ST410)の結果として、STC値が1フレーム分早い場合、フレームスキップが発生していると判断し、メモリ上に展開している期待値データを次フレームのデータとし(ST411)、再度、圧縮データと期待値データとの比較を行う(ST405)。   As a result of this comparison (ST410), if the STC value is earlier by one frame, it is determined that a frame skip has occurred, the expected value data developed on the memory is used as the next frame data (ST411), and again Then, the compressed data and the expected value data are compared (ST405).

図5に示す例でいうと、圧縮データ(e)と期待値データ(E)とは不一致である。
これは、AV同期有効時の映像データが1フレームスキップしていることによる。
圧縮データ(e)に対応するSTC値と期待値データ(E)に対応するPTSとを比較する。
STC値が1フレーム分早い場合、フレームスキップであるという判断ができる。
この場合、期待値データを次フレームにする。すなわち、期待値データ(F)を読み出して、圧縮データ(e)と比較する。
In the example shown in FIG. 5, the compressed data (e) and the expected value data (E) do not match.
This is because the video data when AV synchronization is valid skips one frame.
The STC value corresponding to the compressed data (e) is compared with the PTS corresponding to the expected value data (E).
If the STC value is one frame earlier, it can be determined that frame skipping has occurred.
In this case, the expected value data is set to the next frame. That is, the expected value data (F) is read and compared with the compressed data (e).

また、比較(ST410)の結果として、STC値が1フレーム分遅い場合、フレームリピートが発生していると判断し、メモリ上に展開している期待値データを前フレームのデータ圧縮値とし(ST412)、再度、圧縮データと期待値データとの比較を行う(ST405)。   If the STC value is delayed by one frame as a result of the comparison (ST410), it is determined that frame repeat has occurred, and the expected value data developed in the memory is used as the data compression value of the previous frame (ST412). ) Again, the compressed data is compared with the expected value data (ST405).

図5に示す例においては、前記の状態から順次データ照合を継続すると、圧縮データ(j)と期待値データ(K)とが不一致である。
これは、AV同期有効時の映像データが1フレームリピートしていることによる。
圧縮データ(j)に対応するSTC値と期待値データ(K)に対応するPTSとを比較する。
STC値が1フレーム分遅い場合、フレームリピートであるという判断ができる。この場合、期待値データを前フレームにする。すなわち、期待値データ(J)を読み出して、圧縮データ(j)と比較する。
In the example shown in FIG. 5, if data collation is continued sequentially from the above state, the compressed data (j) and the expected value data (K) do not match.
This is because the video data when AV synchronization is valid repeats one frame.
The STC value corresponding to the compressed data (j) is compared with the PTS corresponding to the expected value data (K).
If the STC value is delayed by one frame, it can be determined that the frame repeats. In this case, the expected value data is set to the previous frame. That is, the expected value data (J) is read and compared with the compressed data (j).

また、比較(ST410)の結果として、STC値とPTS値の差分が1フレーム以下の場合、スキップ/リピート動作しておらず、期待値不一致が発生したと判断し、NGと判定する(ST413)。   If the difference between the STC value and the PTS value is 1 frame or less as a result of the comparison (ST410), it is determined that the skip / repeat operation has not occurred and an expected value mismatch has occurred, and NG is determined (ST413). .

検証の対象となるストリーミングデータ全ての期待値照合が完了するまで(ST407:YES)、上記の処理を行う。   The above process is performed until the expected value collation of all the streaming data to be verified is completed (ST407: YES).

なお、上記説明では、映像データの処理の場合を例に説明したが、音声データについても同様に適用できる。
ただし、映像については、垂直同期タイミングで1フレーム分のデータ圧縮値が取得できるが、音声については、データ圧縮値の取得タイミングが、垂直同期でのタイミングと同期していない。
In the above description, the case of processing video data has been described as an example, but the same applies to audio data.
However, for video, the data compression value for one frame can be acquired at the vertical synchronization timing, but for audio, the data compression value acquisition timing is not synchronized with the timing at the vertical synchronization.

そこで、音声信号処理部150のデータ圧縮部152は、1フレーム分のデータ圧縮完了が判断できる機構を備える。
たとえば、オーディオストリームの各フレーム先頭に付加されるヘッダを解析してフレーム長を判断することが例として挙げられる。
これにより、映像データの処理の場合と同様に1フレームごとにデータ照合が可能になる。
Therefore, the data compression unit 152 of the audio signal processing unit 150 includes a mechanism that can determine the completion of data compression for one frame.
For example, the frame length is determined by analyzing the header added to the head of each frame of the audio stream.
Thereby, data collation can be performed for each frame as in the case of processing video data.

その他の処理は映像データの場合と同じであるので詳細は割愛する。
なお、音声データの同期検証は、映像データの同期検証と同時に実行してもよく、別々に実行してもよい。
Since the other processing is the same as that for video data, details are omitted.
Note that the synchronization verification of audio data may be performed simultaneously with the synchronization verification of video data, or may be performed separately.

このような構成を備える本実施形態によれば次の効果を奏することができる。
(1)本実施形態では、AV同期を有効にした場合と無効にした場合とで上記データ圧縮値を取り込み、互いに比較してデータ照合する。これにより、評価対象であるデータ自体への加工が不要である為、デジタル放送などのストリームデータ処理のAV同期検証が可能となる。
According to the present embodiment having such a configuration, the following effects can be obtained.
(1) In the present embodiment, the data compression value is taken in when AV synchronization is enabled and disabled, and the data is compared by comparing with each other. Thereby, since it is not necessary to process the data to be evaluated, AV synchronization verification of stream data processing such as digital broadcasting can be performed.

(2)予めAV同期無効の状態でデータ圧縮値とPTS値を期待値データとして取得していることで、AV同期有効化によるフレームスキップまたはフレームリピートであるかの判断を定量的に行うことができる。
そしてこれにより、AV同期有効時において期待動作によるスキップ/リピート動作であるかどうかを定量的に判断可能となる。
(2) By acquiring the data compression value and the PTS value as expected value data in a state in which AV synchronization is disabled in advance, it is possible to quantitatively determine whether the frame is skipped or frame repeat by enabling AV synchronization. it can.
Thus, it is possible to quantitatively determine whether or not the skip / repeat operation is an expected operation when AV synchronization is valid.

(3)データ照合にあたっては、従来技術のような時刻表示やタイムコードをデータに埋め込む必要がない。したがって、AV同期検証のための情報処理量を少なくすることができる。 (3) When collating data, there is no need to embed time display or time code in the data as in the prior art. Therefore, the amount of information processing for AV synchronization verification can be reduced.

(第2実施形態)
次に、本発明の第2実施形態について説明する。
上記第1実施形態では、AV同期無効時に取得した期待値データとしての圧縮データとAV同期有効時の圧縮データとを順次照合していくことによりストリームデータに対して定量的なAV同期検証を行うことができる点に利点があった。
第2実施形態では、AV同期不良の発生箇所を特定し、さらに、不具合要因の解析を容易にするための構成を採用している。
以下、第2実施形態について説明する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.
In the first embodiment, quantitative AV synchronization verification is performed on stream data by sequentially comparing compressed data as expected value data acquired when AV synchronization is disabled with compressed data when AV synchronization is enabled. There was an advantage in being able to.
In the second embodiment, a configuration for specifying a location where an AV synchronization failure has occurred and further facilitating analysis of the cause of the failure is employed.
Hereinafter, a second embodiment will be described.

図6は、第2実施形態のシステム構成を示す図である。
第1実施形態と同じ要素には同じ符号を付し、その説明を省略する。
第2実施形態において、音声信号処理部350は、音声信号復号部151から外部出力される音声データ(デコードデータ)をフレームごとに取り込んでいく音声データキャプチャ353を有している。
また、映像信号処理部360は、映像信号復号部161から外部出力される映像データをフレームごとに取り込んでいく映像データキャプチャ363を有している。
FIG. 6 is a diagram illustrating a system configuration of the second embodiment.
The same elements as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
In the second embodiment, the audio signal processing unit 350 includes an audio data capture 353 that takes in audio data (decoded data) output externally from the audio signal decoding unit 151 for each frame.
The video signal processing unit 360 includes a video data capture 363 that captures video data output from the video signal decoding unit 161 for each frame.

このような構成を備える第2実施形態におけるAV同期検証方法を説明する。
AV同期検証の全体的なフローは図2に示した第1実施形態のフローと同じであり、AV同期制御をオフ(ST100)にして期待値を取得し(ST200)、続いて、AV同期制御をON(ST300)にしてデータ照合処理を行う(ST400)。
An AV synchronization verification method according to the second embodiment having such a configuration will be described.
The overall flow of AV synchronization verification is the same as the flow of the first embodiment shown in FIG. 2, and AV synchronization control is turned off (ST100) to obtain an expected value (ST200), and then AV synchronization control is performed. Is turned on (ST300), and data collation processing is performed (ST400).

図7は、第2実施形態において、期待値データを取得する工程の動作手順を示すフローチャートである。
なお、第2実施形態では音声データ処理系を中心に説明するが、映像データ処理系についても同様に適用できる。
まず、検証対象となるストリーミングデータをデータ入力部110から入力し(ST501)、このデータの1フレームごとに圧縮データを取得する(ST502)点は、第1実施形態のST201、ST202に同様である。
すなわち、データ圧縮部152は、音声信号復号部151から外部出力される音声データを1フレームごとに取り込んで圧縮する(ST502)。
FIG. 7 is a flowchart showing an operation procedure of a process of obtaining expected value data in the second embodiment.
In the second embodiment, the audio data processing system will be mainly described. However, the second embodiment can be similarly applied to a video data processing system.
First, streaming data to be verified is input from the data input unit 110 (ST501), and compressed data is acquired for each frame of this data (ST502), as in ST201 and ST202 of the first embodiment. .
That is, the data compression unit 152 takes in and compresses the audio data output from the audio signal decoding unit 151 for each frame (ST502).

なお、音声データの変調方式としてはPCM(Pulse Code Modulation)が挙げられるが、これに限らず、各種の変調方式が採用できる。   In addition, although the modulation system of audio | voice data includes PCM (Pulse Code Modulation), not only this but various modulation systems are employable.

第2実施形態においては、圧縮データの取得と並行して、音声データ(非同期デコードデータ)を音声データキャプチャにより取得していく(ST503)。
すなわち、圧縮データとともに非圧縮の音声データ(非同期デコードデータ)も取得していく。
取得した音声圧縮データおよび音声データはメモリ380に格納していく(ST504)。
In the second embodiment, in parallel with the acquisition of compressed data, audio data (asynchronous decoded data) is acquired by audio data capture (ST503).
That is, uncompressed audio data (asynchronous decode data) is acquired together with the compressed data.
The acquired audio compression data and audio data are stored in the memory 380 (ST504).

圧縮データおよび音声データの取得に合わせ、1フレーム毎のPTS値をPTS読取部120によって取得し(ST505)、メモリ380へ格納する(ST506)。
これをフレーム毎に繰り返し行い、データ圧縮値、音声データおよびPTS値を取得し、メモリ380へ蓄積する。
検証の対象となる全てのフレームのデータ取得が完了した後(ST507:YES)、外部記憶媒体200にデータ圧縮値、音声データおよびPTS値を格納する(ST508)。
これにより、期待値データの取得が終了する。
Along with the acquisition of compressed data and audio data, the PTS value for each frame is acquired by the PTS reading unit 120 (ST505) and stored in the memory 380 (ST506).
This is repeated for each frame, and the data compression value, audio data, and PTS value are acquired and stored in the memory 380.
After data acquisition for all the frames to be verified is completed (ST507: YES), the data compression value, audio data, and PTS value are stored in the external storage medium 200 (ST508).
Thereby, the acquisition of expected value data is completed.

次に、AV同期有効モードにおいて、AV同期検証を実行する。
図8は、AV同期有効モードにおける音声データと前記取得した期待値データとを照合する工程の動作手順を示すフローチャートである。
まず、予め取得しておいた期待値データを記憶媒体200上からメモリ380上へ展開を行なっておく(ST601)。
すなわち、記憶媒体200に格納していた圧縮データ、音声データおよびPTS値をメモリ380に展開する。
Next, AV synchronization verification is executed in the AV synchronization valid mode.
FIG. 8 is a flowchart showing an operation procedure of a step of collating audio data with the acquired expected value data in the AV synchronization effective mode.
First, the expected value data acquired in advance is expanded from the storage medium 200 to the memory 380 (ST601).
That is, the compressed data, audio data, and PTS values stored in the storage medium 200 are expanded in the memory 380.

次に、期待値データの取得時に用いたデータと同じストリーミングデータをデータ入力部110から入力する(ST602)。
ストリーミングデータは多重分離された後、音声バッファ113を経て、音声信号処理部350に送られる。
AV同期制御部140によるAV同期処理を有効にしているので、STCの値とPTSの値とが一致するタイミングで音声信号復号部151から復号された音声データが外部出力される。
Next, the same streaming data as the data used when obtaining the expected value data is input from data input section 110 (ST602).
The streaming data is demultiplexed and then sent to the audio signal processing unit 350 via the audio buffer 113.
Since the AV synchronization processing by the AV synchronization control unit 140 is validated, the audio data decoded from the audio signal decoding unit 151 is externally output at the timing when the STC value and the PTS value match.

データ圧縮部162は、音声信号復号部161から外部出力される音声データを1フレームごとに取り込んで圧縮し、圧縮データを取得する(ST603)。
取得された圧縮データは、AV同期検証部170に送られる。
Data compression section 162 takes in and compresses audio data output from audio signal decoding section 161 for each frame, and acquires compressed data (ST603).
The acquired compressed data is sent to the AV synchronization verification unit 170.

同時に、音声データキャプチャは、音声データ(同期デコードデータ)を1フレームごとに取得していく(ST604)。   At the same time, in the audio data capture, audio data (synchronized decode data) is acquired for each frame (ST604).

同時に、AV同期検証部170は、メモリ380上に展開している期待値データとしての圧縮データを読み出す(ST605)。
そして、AV同期検証部170は、取得した圧縮データを順次期待値データと比較していく(ST606)。
データ圧縮値の比較結果が一致すれば(ST606:YES)、そのフレームはOKであると判定とする。
At the same time, AV synchronization verification section 170 reads compressed data as expected value data developed on memory 380 (ST605).
Then, AV synchronization verification section 170 sequentially compares the acquired compressed data with expected value data (ST606).
If the comparison results of the data compression values match (ST606: YES), it is determined that the frame is OK.

ここで、第2実施形態においては、OKと判定した場合、そのフレームについてST604で取得した音声データ(AV同期デコードデータ)は破棄してしまう(ST608)。
また、メモリ380に格納している期待値データの音声データ(非同期デコードデータ)も破棄する。
Here, in the second embodiment, if it is determined to be OK, the audio data (AV synchronous decode data) acquired in ST604 for the frame is discarded (ST608).
Also, the audio data (asynchronous decode data) of the expected value data stored in the memory 380 is discarded.

図9は、AV同期検証において圧縮データ同士を照合する様子を模式的に示す図である。
AV同期無効時には、期待値データとしての圧縮データと、それと同時に音声データを取得している。
また、AV同期有効時には、圧縮データとともに音声データを順次取得していく。
AV同期無効時に取得した期待値データとしての圧縮データは大文字のアルファベットで符号を表し、AV同期有効時の圧縮データは小文字のアルファベットで符号を表す。
図9の例で順にデータ照合を行うと、圧縮データ(a)から(h)は、期待値データとしての圧縮データ(A)から(H)にそれぞれ等しいため、OKであると判定する(ST606)。
そして、圧縮データと期待値データとの一致によりOKと判定したフレームについては、ST604で取得した音声データ、および、期待値として取得した音声データ(ST503)を破棄していく(ST608)。
FIG. 9 is a diagram schematically showing a state in which compressed data are collated in AV synchronization verification.
When AV synchronization is disabled, compressed data as expected value data and audio data are acquired at the same time.
When AV synchronization is valid, audio data is sequentially acquired together with the compressed data.
Compressed data as expected value data acquired when AV synchronization is disabled represents a code in uppercase alphabets, and compressed data when AV synchronization is enabled represents a code in lowercase alphabets.
When data collation is sequentially performed in the example of FIG. 9, since the compressed data (a) to (h) are equal to the compressed data (A) to (H) as expected value data, it is determined to be OK (ST606). ).
For frames determined to be OK due to the match between the compressed data and the expected value data, the audio data acquired in ST604 and the audio data (ST503) acquired as the expected value are discarded (ST608).

一方、不一致の場合(ST606:NO)、フレームリピート/フレームスキップ/NGのいずれかが考えられるところ、ST610からST615は第1実施形態のST408からST413に同様である。
すなわち、現在の出力フレームに対応するSTC情報と期待値データとしてメモリ上に展開しているPTS値とを比較し(ST612)、フレームスキップあるいはフレームリピートに応じて期待値データの読み出しを行う。
On the other hand, when there is a mismatch (ST606: NO), frame repeat / frame skip / NG can be considered, and ST610 to ST615 are the same as ST408 to ST413 of the first embodiment.
That is, the STC information corresponding to the current output frame is compared with the PTS value developed on the memory as expected value data (ST612), and the expected value data is read according to frame skip or frame repeat.

ここで、比較(ST612)の結果として、STC値とPTS値の差分が1フレーム以下の場合、スキップ/リピート動作していないことから、期待値データと圧縮データとの不一致発生と判断し、NGと判定する(ST615)。
このようにNGと判定した場合、第2実施形態においては、NG判定のフレームについて音声データを保存する。
例えば、図9に示すように、期待値としての圧縮データ(I)と検証過程で取得した圧縮データ(i)とが不一致であってNG判定である場合、圧縮データ(I)と圧縮データ(i)に対応する音声データをそれぞれメモリ380に保存する。
Here, as a result of the comparison (ST612), when the difference between the STC value and the PTS value is 1 frame or less, since the skip / repeat operation is not performed, it is determined that mismatch between the expected value data and the compressed data occurs, and NG (ST615).
When it is determined as NG in this way, in the second embodiment, audio data is stored for a frame for NG determination.
For example, as shown in FIG. 9, when the compressed data (I) as the expected value and the compressed data (i) acquired in the verification process are inconsistent and NG determination is made, the compressed data (I) and the compressed data ( Audio data corresponding to i) is stored in the memory 380, respectively.

検証の対象となるストリーミングデータ全ての期待値照合が完了するまで(ST609:YES)、上記の処理を行う。   The above process is performed until the expected value matching of all the streaming data to be verified is completed (ST609: YES).

期待値照合の完了後、メモリ380に保存された音声データがある場合は、外部記憶媒体200に書き出す。
そして、保存された音声データは、AV同期処理の不具合が生じた原因の解明に使用できる。
If there is audio data stored in the memory 380 after completion of the expected value collation, the audio data is written to the external storage medium 200.
The stored audio data can be used to elucidate the cause of the AV synchronization processing failure.

このような構成を備える第2実施形態によれば、次の効果を奏することができる。
本第2実施形態では、NG判定となったフレームに対応する音声データを保存している。
このようにAV同期不良があった箇所のデータを保存するので、不良箇所がすぐに特定できる。
これにより、改めて視聴評価を行ったり、一フレームずつビット単位で比較検討して不具合箇所の特定する場合に比べ、各段に時間を削減することができる。
さらに、不良箇所の特定とともにNG判定に対応するフレームの非圧縮データをそのまま保存しているので、このデータをそのまま使用してAV同期不良の要因解析などを即座に行うことができる。
According to 2nd Embodiment provided with such a structure, there can exist the following effects.
In the second embodiment, audio data corresponding to a frame that has been determined to be NG is stored.
As described above, since the data of the portion having the AV synchronization failure is stored, the failure portion can be immediately identified.
This makes it possible to reduce the time for each stage as compared with the case where the viewing evaluation is performed again or the defective portion is identified by comparing and examining each frame by bit.
Furthermore, since the uncompressed data of the frame corresponding to the NG determination is stored as it is together with the identification of the defective portion, the cause of AV synchronization failure can be immediately analyzed by using this data as it is.

また、OK判定のフレームについては音声データを破棄するので、データを記憶するためのメモリ容量を削減することができる。   Further, since the audio data is discarded for the OK determination frame, the memory capacity for storing the data can be reduced.

上記第2実施形態においては、OK判定の場合(ST607)には、そのフレームについてST604で取得した音声データ(AV同期デコードデータ)、および、メモリ380に格納している期待値データの音声データ(非同期デコードデータ)も破棄する場合を例示した。
これに対し、例えば、OK判定の場合(ST607)には、そのフレームについてのST604で取得した音声データ(同期デコードデータ)は保存せずに破棄するが、メモリ380に格納している期待値データの音声データ(非同期デコードデータ)は破棄せずに残したままにしておいてもよい。
ST604で取得した音声データ(同期デコードデータ)は、音声データキャプチャ353で取得した状態であり、単にメモリに書き込まないという処理によって簡単に破棄できる。一方、メモリ380に格納している期待値データの音声データ(非同期デコードデータ)については積極的に削除しなければならず、メモリ380制御に時間と手間がかかるので、残したままとしておいてもよい。
この場合でも、NG判定の場合(ST615)にはST604で取得した音声データ(同期デコードデータ)が保存されるので、これによりAV同期不良箇所の特定はできる。
In the second embodiment, in the case of OK determination (ST607), the audio data (AV synchronous decode data) acquired in ST604 for the frame and the audio data of the expected value data stored in the memory 380 ( An example of discarding (asynchronous decode data) is also illustrated.
On the other hand, for example, in the case of OK determination (ST607), the audio data (synchronized decode data) acquired in ST604 for the frame is discarded without being saved, but expected value data stored in the memory 380 The audio data (asynchronous decoded data) may be left without being discarded.
The audio data (synchronized decode data) acquired in ST604 is in the state acquired by the audio data capture 353, and can be easily discarded by simply not writing to the memory. On the other hand, the audio data (asynchronous decode data) of the expected value data stored in the memory 380 must be positively deleted, and it takes time and effort to control the memory 380. Good.
Even in this case, in the case of NG determination (ST615), since the audio data (synchronized decode data) acquired in ST604 is stored, it is possible to specify the AV synchronization failure location.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。   Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention.

1 映像信号発生手段、
2 映像信号圧縮手段、
3 タイムコード発生手段、
4 音声信号圧縮手段、
5 合成手段、
6 記録手段、
7 再生手段、
8 ディスク媒体、
10 表示手段、
11 音声信号復元手段、
12 タイムコード読取手段、
100 デジタル放送AVシステム、
110 データ入力部、
111 多重分離部、
112 映像バッファ、
113 音声バッファ、
120 PTS読取部、
130 STCカウンタ、
140 AV同期制御部、
150、350 音声信号処理部、
151 音声信号復号部、
152 データ圧縮部、
160、360 映像信号処理部、
161 映像信号復号部、
162 データ圧縮部、
170 AV同期検証部、
180、380 メモリ、
200 記憶媒体、
353 音声データキャプチャ、
363 映像データキャプチャ。
1 video signal generating means,
2 video signal compression means,
3 Time code generation means,
4 audio signal compression means,
5 synthesis means,
6 Recording means,
7 Reproduction means,
8 disk media,
10 display means,
11 audio signal restoration means,
12 Time code reading means,
100 digital broadcasting AV system,
110 Data input part,
111 demultiplexer,
112 video buffer,
113 audio buffer,
120 PTS reader,
130 STC counter,
140 AV synchronization control unit,
150, 350 audio signal processing unit,
151 voice signal decoding unit,
152 data compression unit,
160, 360 video signal processing unit,
161 video signal decoding unit,
162 data compression unit,
170 AV synchronization verification unit,
180, 380 memory,
200 storage media,
353 audio data capture,
363 Video data capture.

Claims (8)

入力されたストリームデータをAV同期再生させるストリームデータ処理のAV同期検証方法であって、
AV同期制御を無効にした状態で前記ストリームデータをデコードした非同期データを1フレーム単位でデータ圧縮するとともに順次取り込んで期待値データとし、
次に、AV同期制御を有効にした状態で前記ストリームデータをデコードした同期データを1フレーム単位でデータ圧縮し、
前記圧縮した同期データを前記期待値データと照合する
ことを特徴とするストリームデータ処理の同期検証方法。
An AV synchronization verification method for stream data processing for reproducing input stream data in AV synchronization,
Asynchronous data obtained by decoding the stream data with AV synchronization control disabled is compressed in units of one frame and sequentially taken as expected value data.
Next, synchronous data obtained by decoding the stream data with AV synchronization control enabled is compressed in units of one frame,
A method for verifying synchronization of stream data processing, comprising: comparing the compressed synchronization data with the expected value data.
請求項1に記載のストリームデータ処理のAV同期検証方法において、
前記非同期データの圧縮値の取得に合わせて1フレーム毎の提示時刻情報を取得し、
前記非同期データの圧縮値と前記提示時刻情報とを合わせて期待値データとする
ことを特徴とするストリームデータ処理のAV同期検証方法。
The AV data synchronization verification method for stream data processing according to claim 1,
Acquiring presentation time information for each frame in accordance with acquisition of the compressed value of the asynchronous data,
An AV synchronization verification method for stream data processing, wherein the compressed value of the asynchronous data and the presentation time information are combined into expected value data.
請求項2に記載のストリームデータ処理のAV同期検証方法において、
前記圧縮した同期データを前記期待値データと照合し、
両者が一致している場合はOKと判定して、次のフレーム同士の照合を行い、
両者が不一致の場合には、照合している同期データに対応するシステム時刻情報を取得して、同期データのシステム時刻情報と期待値データの提示時刻情報とを照合する
ことを特徴とするストリームデータ処理のAV同期検証方法。
The AV data synchronization verification method for stream data processing according to claim 2,
Collating the compressed synchronization data with the expected value data;
If both match, it is determined to be OK, the next frame is verified,
Stream data characterized in that, if they do not match, system time information corresponding to the synchronized data being collated is obtained, and the system time information of the synchronized data is collated with the presentation time information of the expected value data. AV synchronization verification method of processing.
請求項3に記載のストリームデータ処理のAV同期検証方法において、
前記同期データと前記期待値データとが不一致の場合に前記同期データのシステム時刻情報と前記期待値データの提示時刻情報とを照合した結果、
前記システム時刻情報が前記提示時刻情報よりも1フレーム分早い場合には、同期データがスキップしたと判断して、期待値データの次フレームを読み出し、この次フレームの期待値データと前記圧縮した同期データとを照合し、
前記システム時刻情報が前記提示時刻情報よりも1フレーム分遅い場合には、同期データがリピートしたと判断して、期待値データの前フレームを読み出し、この前フレームの期待値データと前記圧縮した同期データとを照合し、
前記システム時刻情報と前記提示時刻情報との差分が1フレーム以内の場合には、NGと判定する
ことを特徴とするストリームデータ処理のAV同期検証方法。
The AV data synchronization verification method for stream data processing according to claim 3,
As a result of collating system time information of the synchronization data and presentation time information of the expected value data when the synchronization data and the expected value data do not match,
If the system time information is one frame earlier than the presentation time information, it is determined that the synchronization data has been skipped, the next frame of expected value data is read, and the expected value data of the next frame and the compressed synchronization are read Match the data,
If the system time information is one frame later than the presentation time information, it is determined that the synchronization data has been repeated, and the previous frame of the expected value data is read, and the expected value data of the previous frame and the compressed synchronization are read Match the data,
An AV synchronization verification method for stream data processing, wherein, when the difference between the system time information and the presentation time information is within one frame, it is determined as NG.
請求項4に記載のストリームデータ処理のAV同期検証方法において、
前記非同期データの圧縮値の取得に合わせて、デコードされた非同期データを非圧縮のまま1フレーム毎に非同期デコードデータとして取得し、
前記非同期データの圧縮値、前記提示時刻情報および前記非同期デコードデータを合わせて期待値データとし、
同期制御を有効にした状態で前記ストリームデータをデコードした同期データを1フレーム単位でデータ圧縮するとともに、デコードされた同期データを非圧縮のまま1フレーム毎に同期デコードデータとして取得し、
前記OK判定の場合には、OK判定に対応するフレームの前記非同期デコードデータを破棄し、
前記NG判定の場合には、NG判定に対応するフレームの前記非同期デコードデータを保存する
ことを特徴とするストリームデータ処理のAV同期検証方法。
The AV data synchronization verification method for stream data processing according to claim 4,
In accordance with acquisition of the compressed value of the asynchronous data, the decoded asynchronous data is acquired as asynchronous decoded data for each frame without being compressed,
Combine the compressed value of the asynchronous data, the presentation time information and the asynchronous decoded data into the expected value data,
The synchronous data obtained by decoding the stream data with the synchronous control enabled is compressed in units of one frame, and the decoded synchronous data is acquired as the synchronous decoded data for each frame without being compressed.
In the case of the OK determination, the asynchronous decode data of the frame corresponding to the OK determination is discarded,
In the case of the NG determination, the asynchronous decoded data of the frame corresponding to the NG determination is stored.
請求項5に記載のストリームデータ処理のAV同期検証方法において、
前記OK判定の場合には、OK判定に対応するフレームの前記非同期デコードデータおよび同期デコードデータを破棄し、
前記NG判定の場合には、NG判定に対応するフレームの前記非同期デコードデータおよび同期デコードデータを保存する
ことを特徴とするストリームデータ処理のAV同期検証方法。
The AV data synchronization verification method for stream data processing according to claim 5,
In the case of the OK determination, the asynchronous decode data and the synchronous decode data of the frame corresponding to the OK determination are discarded,
In the case of the NG determination, the asynchronous decoding data and the synchronous decoding data of the frame corresponding to the NG determination are stored.
ストリームデータの提示時刻情報を読み取るPTS読取部と、システム時刻情報をカウントするSTCカウンタと、を備え、入力されたストリームデータを前記提示時刻情報と前記システム時刻情報とに基づいてAV同期再生させるストリームデータ処理装置であって、
外部出力信号を1フレーム単位でデータ圧縮するデータ圧縮部と、
AV同期無効モードにおいて前記データ圧縮部によって得た非同期データの圧縮値とこのデータ圧縮値に対応する提示時刻情報とを期待値データとして蓄積させ、AV同期有効モードにおいて前記データ圧縮部によって得た同期データの圧縮値を前記期待値データと照合するAV同期検証部と、を備える
ことを特徴とするストリームデータ処理装置。
A stream that includes a PTS reading unit that reads presentation time information of stream data, and an STC counter that counts system time information, and performs AV synchronized reproduction of the input stream data based on the presentation time information and the system time information A data processing device,
A data compression unit for compressing the external output signal in units of one frame;
The asynchronous data compression value obtained by the data compression unit in the AV synchronization invalid mode and the presentation time information corresponding to the data compression value are accumulated as expected value data, and the synchronization data obtained by the data compression unit in the AV synchronization valid mode is stored. A stream data processing apparatus comprising: an AV synchronization verification unit that compares a compressed value of data with the expected value data.
請求項7に記載のストリームデータ処理装置において、
外部出力信号を1フレーム単位で非圧縮のまま取得するデータキャプチャをさらに備える
ことを特徴とするストリームデータ処理装置。
The stream data processing apparatus according to claim 7,
A stream data processing apparatus, further comprising a data capture that acquires an external output signal in units of one frame without being compressed.
JP2009281918A 2009-04-27 2009-12-11 Synchronism verification method of stream data processing and stream data processing apparatus Pending JP2010279014A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009281918A JP2010279014A (en) 2009-04-27 2009-12-11 Synchronism verification method of stream data processing and stream data processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009107350 2009-04-27
JP2009281918A JP2010279014A (en) 2009-04-27 2009-12-11 Synchronism verification method of stream data processing and stream data processing apparatus

Publications (1)

Publication Number Publication Date
JP2010279014A true JP2010279014A (en) 2010-12-09

Family

ID=43425493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009281918A Pending JP2010279014A (en) 2009-04-27 2009-12-11 Synchronism verification method of stream data processing and stream data processing apparatus

Country Status (1)

Country Link
JP (1) JP2010279014A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117278439A (en) * 2023-11-23 2023-12-22 广东广宇科技发展有限公司 Communication quick verification method based on compression algorithm

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117278439A (en) * 2023-11-23 2023-12-22 广东广宇科技发展有限公司 Communication quick verification method based on compression algorithm
CN117278439B (en) * 2023-11-23 2024-02-09 广东广宇科技发展有限公司 Communication quick verification method based on compression algorithm

Similar Documents

Publication Publication Date Title
US20090010615A1 (en) Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program
US6798839B2 (en) Image processing device, television receiver and image reproducing device
JP2005312071A (en) Information storage medium with video data recorded thereon, and method and apparatus for recording and reproducing video data
US7430361B2 (en) Process and device for decoding MPEG pictures and for displaying them in rewind mode, video driver circuit and decoder box incorporating such a device
JP2010206593A (en) Image processing device, image processing method, and program
KR20060051064A (en) Recording apparatus and method, reproducing apparatus and method, and program
JP2010279014A (en) Synchronism verification method of stream data processing and stream data processing apparatus
JP5341952B2 (en) Video server and data recording / playback method
JP4327796B2 (en) Processing circuit for video signals including information such as subtitles
JP5094993B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, AND SYSTEM INTEGRATED CIRCUIT
US8340502B2 (en) Movie reproducing apparatus and method
US6556626B1 (en) MPEG decoder, MPEG system decoder and MPEG video decoder
JP5048944B2 (en) Moving image processing device
JP2007318368A (en) Apparatus and method for image processing
JP5517415B2 (en) Receiver
US20060018634A1 (en) Creating a DVD compliant stream directly from encoder hardware
JP2009147832A (en) Moving image recording apparatus, moving image reproduction apparatus, and program
JP2009218934A (en) Video reproducing device and video reproducing method
JP4991143B2 (en) Video processing apparatus and computer program
JP3861045B2 (en) Video signal recording apparatus, video signal recording method, and video signal recording program
US20150255119A1 (en) Display apparatus and method for editing and displaying recorded video content
KR100698185B1 (en) Apparatus and Method for recording / regeneration
US20080145021A1 (en) Apparatus for video recording and reproducing, and method for trick play of video
CN111699530A (en) Recording apparatus and recording method
JP2007036396A (en) Television content recording device and program thereof