WO2007080657A1 - 監視装置 - Google Patents

監視装置 Download PDF

Info

Publication number
WO2007080657A1
WO2007080657A1 PCT/JP2006/300795 JP2006300795W WO2007080657A1 WO 2007080657 A1 WO2007080657 A1 WO 2007080657A1 JP 2006300795 W JP2006300795 W JP 2006300795W WO 2007080657 A1 WO2007080657 A1 WO 2007080657A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
audio signal
audio
error
transmission
Prior art date
Application number
PCT/JP2006/300795
Other languages
English (en)
French (fr)
Inventor
Takahiro Hamada
Takuma Kawamura
Fuminori Watanabe
John Alexenko
Original Assignee
Gaintech Co. Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gaintech Co. Ltd. filed Critical Gaintech Co. Ltd.
Priority to JP2007553821A priority Critical patent/JP4932741B2/ja
Priority to EP06700938.1A priority patent/EP1973351B1/en
Priority to PCT/JP2006/300795 priority patent/WO2007080657A1/ja
Publication of WO2007080657A1 publication Critical patent/WO2007080657A1/ja
Priority to US12/121,562 priority patent/US20080211920A1/en
Priority to US12/209,058 priority patent/US20090013360A1/en
Priority to US12/348,808 priority patent/US7605843B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/004Diagnosis, testing or measuring for television systems or their details for digital television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/12Arrangements for observation, testing or troubleshooting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/09Arrangements for device control with a direct linkage to broadcast information or to broadcast space-time; Arrangements for control of broadcast-related services
    • H04H60/11Arrangements for counter-measures when a portion of broadcast information is unavailable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6156Network physical structure; Signal processing specially adapted to the upstream path of the transmission network
    • H04N21/6175Network physical structure; Signal processing specially adapted to the upstream path of the transmission network involving transmission via Internet

Definitions

  • the present invention relates to a monitoring device, and more particularly to a monitoring device suitable for monitoring a digital video Z audio signal.
  • Background Art Recent improvements in video processing technology have led to the launch of high-quality images such as high-definition television broadcasts.
  • digital video signals for high-definition broadcasting are often transmitted to each home via satellite broadcasting or cable TV networks.
  • errors may occur during transmission of video signals due to various causes. If an error occurs, it may cause problems such as video freeze, blackout, noise, and audio mute, and countermeasures are required.
  • the present applicant in Japanese Patent Application Laid-Open No. 2000-203, for example, the central processing terminal uses the first statistic based on the video signal (first signal) output from the transmission source.
  • the difference between the value and the second statistical value based on the video signal (second signal) output from the relay station or the transmission destination is taken, and if the difference is below the threshold value, it is determined to be normal.
  • a signal monitoring system that outputs a warning signal and issues a warning (alarm display or warning sound) is judged if a transmission error has occurred between the transmission source 10 and the relay station 20 To do.
  • the central terminal only takes the difference between the first statistical value and the second statistical value, and automatically determines the transmission abnormality based on the difference. As a result, there is a problem that sufficient analysis cannot be performed if any error occurs. Insufficient error analysis can lead to similar problems.
  • the present invention has been made in view of the problems of the prior art, and an object of the present invention is to provide a monitoring system capable of analyzing error contents when an error occurs.
  • the monitoring system of the present invention is a monitoring system for monitoring a video / audio signal transmitted from a transmission source to a transmission destination.
  • a step of transmitting the stored video / audio signal to a predetermined destination when it is determined that an error has occurred since the video / audio signal transmitted from the transmission source to the transmission destination is repeatedly stored for a predetermined time, the video / audio signal can be overwritten at a predetermined timing, for example. Less signal storage capacity is required.
  • the video / audio signal in which the error has occurred remains without being overwritten. Therefore, by transmitting this to a predetermined destination, Based on this, error analysis can be performed quickly and in detail.
  • video / audio signal generally means both a video signal (video signal) and an audio signal (audio signal), but in the present specification, it is a signal including at least one. It doesn't matter whether it is sufficient, raw data, or compressed data.
  • the second feature amount used for comparison and the stored video / audio signal are preferably transmitted from the transmission destination to the transmission source via the Internet.
  • the stored video / audio signal is preferably used for error analysis.
  • the error is preferably an image freeze phenomenon.
  • the error is preferably a blackout phenomenon.
  • the error is preferably an audio mute phenomenon.
  • the error is preferably a voice failure phenomenon.
  • the error is preferably a video / audio mismatch phenomenon.
  • the error is preferably an illegal frame phenomenon.
  • FIG. 1 is a conceptual diagram of an entire transmission system including a monitoring system according to the present embodiment.
  • FIG. 2 is a block diagram showing the configuration of the extraction devices 100X, 100A, and 10OB.
  • FIG. 3A is a diagram showing the feature amount extracted by the extraction apparatus 100X.
  • FIG. 3C is a diagram showing the feature amount extracted by the extraction device 10 OA or 100B.
  • FIG. 3B shows a value obtained by taking the difference between two feature quantities.
  • FIG. 4A is a diagram showing the feature amount extracted by the extraction apparatus 100X.
  • FIG. 1 is a conceptual diagram of an entire transmission system including a monitoring system according to the present embodiment.
  • FIG. 2 is a block diagram showing the configuration of the extraction devices 100X, 100A, and 10OB.
  • FIG. 3A is a diagram showing the feature amount extracted by the extraction apparatus 100X.
  • FIG. 3C is a diagram showing the feature amount extracted by the extraction device 10 OA or 100B.
  • FIG. 3B shows a value obtained by
  • FIG. 4C is a diagram showing the feature amount extracted by the extraction device 10 OA or 100B.
  • FIG. 4B is a diagram showing a value obtained by taking a difference between two feature amounts.
  • FIG. 5A is a diagram showing the feature amounts extracted by the extraction apparatus 100X.
  • FIG. 5C is a diagram showing the feature amount extracted by the extraction device 10 OA or 100B.
  • FIG. 5B shows a value obtained by taking the difference between two feature quantities.
  • FIG. 6A is a diagram showing the feature amount extracted by the extraction device 10 OX.
  • FIG. 6C is a diagram showing the feature amount extracted by the extraction device 10 OA or 100B.
  • FIG. 6B shows a value obtained by taking the difference between the two feature quantities.
  • FIG. 7A is a diagram showing the feature amounts extracted by the extraction apparatus 100X.
  • FIG. 7C is a diagram showing the feature amount extracted by the extraction device 10 OA or 100B.
  • FIG. 7B is a diagram showing a value obtained by taking the difference between two feature quantities.
  • FIG. 8A is a diagram showing the feature amounts extracted by the extraction apparatus 100X.
  • FIG. 8C is a diagram showing the feature amount extracted by the extraction device 10 OA or 100B.
  • FIG. 8B is a diagram showing a value obtained by taking the difference between two feature quantities.
  • FIG. 2 is a block diagram showing the configuration of the extraction devices 10 OX, 10 OA, and 10 OB.
  • the left and right audio signals AL and AR of the video and audio signals are input to the audio input units 101 and 102, and the signals output from the audio signals are input to the delay units 103 and 104, respectively, and calculated by the audio calculation unit 105.
  • the video signal VD out of the video / audio signal is input to the video input unit 108, and the signal output therefrom is input to the frame memories 109, 110, and 111.
  • the frame memory 109 stores the current frame
  • the frame memory 110 stores the previous frame
  • the frame memory 111 stores the previous frame.
  • Output signals from the frame memories 109, 110, 111 are input to the MC calculation unit 112, and the calculation results are output as video feature values (Motion).
  • an output signal from the frame memory 110 is input to the video calculation unit 119.
  • the calculation result of the video calculation unit 119 is output as a video feature (Video LeVeVideo Activity).
  • Video Level is an image frame Is the average value of the pixels included in the.
  • Video Activity when the variance is calculated for each small block included in the image, the average value of the pixels in the frame of this variance may be used, or simply the frame of the pixels included in the image frame.
  • the video / audio signal before being transmitted from the transmission source 10 is input to the extraction device 10 0 X that extracts the feature quantity (metadata) from the video and audio signal and is overwritten on the video server 20 IX for a predetermined time.
  • the extraction device 10 0 X that extracts the feature quantity (metadata) from the video and audio signal and is overwritten on the video server 20 IX for a predetermined time.
  • the previous video and audio signals transmitted to the transmission destinations 2 0 A and 2 0 B are respectively input to the extraction devices 1 0 0 A and 1 0 0 B for extracting the feature amounts, and the video server 2 0 1 A and 2 0 1 B are stored while being overwritten for a predetermined time (a step of repeatedly storing a video / audio signal transmitted from the transmission source to the transmission destination for a predetermined time).
  • the extracted feature quantities are transmitted from the terminals 2 0 0 A and 2 0 0 B to the terminal 2 0 0 X of the transmission source 1 0 via the Internet NT.
  • the terminal 2 0 0 X of the transmission source 1 0 compares the feature quantity extracted by the extraction device 1 0 0 X with the feature quantity transmitted from the terminals 2 0 0 A and 2 0 0 B in real time (transmitted).
  • the first feature value extracted from the video and audio signal before being transmitted and the second feature value extracted from the video and audio signal after transmission are compared in real time.) If there is an error, it is determined that an error has occurred (the step of determining that an error has occurred if there is a difference of a predetermined value or more between the first feature value and the second feature value).
  • the terminals 2 0 0 A and 2 0 0 B cut out the video and audio signals of the past 10 seconds from the current video server 2 0 1 A and 2 0 1 B.
  • the video clip is transmitted to the terminal 2 0 0 X of the transmission source 10 via the Internet I NT.
  • the stored video and audio signal is sent to a predetermined destination. °).
  • the operator of the transmission source 10 compares the video / audio signal transmitted from the terminals 2 0 0 A and 2 0 0 B to the terminal 2 0 OX with the video / audio signal stored in the video server 2 0 IX.
  • the cause of the error can be analyzed.
  • the feature quantity of the video / audio signal before transmission is transmitted from the terminal 2 0 X to the terminal 2 0 OA, 2 0 0 B via the Internet I NT, and the feature quantity is compared at the transmission destination. You can go. Next, more specific errors will be described.
  • FIG. 3A is a diagram showing the feature amount extracted by the extraction device 1 0 0 X
  • FIG. 3C is a diagram showing the feature amount extracted by the extraction device 1 0 OA or 1 0 0 B
  • FIG. 3B is a diagram showing a value obtained by taking the difference between two feature amounts, where the vertical axis represents motion [value] as the feature amount, and the horizontal axis represents time.
  • the motion [value] is low during the time tl to t2, but as shown in FIG. 3A.
  • the motion [value] is low during the time tl to t2, and the difference is zero (see FIG. 3B). This occurs because the transmitted video is a still image, and therefore it can be determined that the image freezing phenomenon has not occurred.
  • the motion [value] is low during the time t 3 to t 4
  • the time t 3 to t During [4] the motion [value] is high, and the difference exceeds the threshold TH1 (see Fig. 3B). This is because the image freeze phenomenon occurred for some reason in the transmitted video, and the malfunction occurred so that the terminal 200 X of the transmission source 10 that detected the phenomenon immediately sends a video clip.
  • the command is sent to the destination terminal 200A or 200B.
  • Fig. 4A is a diagram showing the feature values extracted by the extraction device 100X
  • Fig. 4C is a diagram showing the feature values extracted by the extraction device 10OA or 100B
  • Fig. 4B is two feature values.
  • the vertical axis represents Video Activity [value] as a feature amount
  • the horizontal axis represents time.
  • Video Activity [value] for example, the following variance A can be used.
  • V (x, y, z, t) U (x, y, z, t)
  • V (x, y, z, t) U (x, y, z, t)
  • the average value ave. V can be obtained by the following formula.
  • the blackout can be determined as follows. As shown in Fig. 4C, in the video based on the video and audio signal after transmission, the variance value is low during the time tl to t2, but as shown in Fig. 4A, the video before transmission Even in the video based on the audio signal, the variance value is low during the period from tl to t2, and the difference is zero (see Fig. 4B). This is because the transmitted video is For example, it is caused by the image of the starry sky, and therefore it can be determined that the image freeze phenomenon has not occurred.
  • the dispersion value is low during the time t3 to t4, whereas as shown in FIG. 4A.
  • the variance value is high during the period from t3 to t4, and the difference exceeds the threshold TH2 (see Fig. 4B). .
  • This is due to a blackout phenomenon that caused the screen to turn black for some reason in the transmitted video, and the terminal 2 0 0 X of the transmission source 10 0 that detected this immediately sends a video clip. Send a command to the destination terminal 2 0 0 A or terminal 2 0 0 B where the failure occurred.
  • FIG. 5A is a diagram showing the feature amount extracted by the extraction device 1 0 0 X
  • FIG. 5C is a diagram showing the feature amount extracted by the extraction device 1 0 OA or 1 0 0 B
  • FIG. 5B is a diagram showing a value obtained by taking the difference between two feature quantities.
  • the vertical axis represents Audio Level [value] as the feature quantity
  • the horizontal axis represents time. Note that the sampling of Audio Level [value] in the audio signal is preferably averaged at the frame frequency in the video signal. For example, in the case of a video signal of 30 frames per second, it is preferable to sample Audio Level [value] at 30 Hz.
  • FIG. 5A is a diagram showing the feature amount extracted by the extraction device 1 0 0 X
  • FIG. 5C is a diagram showing the feature amount extracted by the extraction device 1 0 OA or 1 0 0 B
  • FIG. 5B is a diagram showing a value obtained by taking the difference between two feature quantities.
  • the Audio Level [value] in the audio based on the transmitted video / audio signal, the Audio Level [value] is very low during the time tl to t2, As shown in Fig. 5, even in the audio based on the video / audio signal before transmission, the Audio Level [value] is low during the time tl to t 2 and the difference is zero (see Fig. 5B). ). This is the original audio / video signal before transmission. Therefore, it can be determined that the audio mute phenomenon has not occurred.
  • Fig. 5C in the case of audio based on the transmitted video / audio signal, time t 3 ⁇ ! ; While the Audio Level [value] is low during 4, the audio based on the video and audio signal before being transmitted, as shown in Fig.
  • FIG. 6A is a diagram showing the feature amount extracted by the extraction device 1 0 0 X
  • FIG. 6C is a diagram showing the feature amount extracted by the extraction device 1 0 OA or 1 0 0 B
  • FIG. 6B is a diagram showing a value obtained by taking the difference between two feature quantities.
  • the vertical axis represents Audio Level [value] as the feature quantity
  • the horizontal axis represents time. Note that the sampling of Audio Level [value] in the audio signal is preferably averaged at the frame frequency in the video signal.
  • the difference between the Audio Level [value] based on the video and audio signal after transmission and the Audio Level [value] based on the video and audio signal before transmission is taken, as shown in Fig.
  • the difference exceeds the threshold TH 4 between the time tl and t 2 and between the time t 3 and t 4. This is because, for example, noise is superimposed on the transmitted audio for some reason, resulting in an audio failure phenomenon.
  • the terminal 2 0 0 X of the transmission source 10 that detects this is immediately video. Send a clip Send a command to the destination 2 0 OA or 2 0 0 B
  • FIG. 7A is a diagram showing Audio Level [value] extracted by the extraction device 100 X corresponding to the video frame.
  • FIG. 7C is a diagram showing the Audio Level [value] extracted by the extraction device 1 00 A or 1 0 0 B.
  • Fig. 7B shows the advance / delay of audio with respect to time. Note that Audio Level [value] sampling in the audio signal is preferably averaged over the frame frequency in the video signal. Here, the rising edge of Audio Level [value] for the frame is detected and compared. As shown in Fig. 7B, at times tl and t3, the amount of audio delay with respect to the video exceeds the threshold TH5 +, and at time t2, the amount of audio advancement with respect to the video exceeds the threshold TH5 ⁇ . It is below.
  • the terminal 2 0 0 of the transmission source 10 0 that has determined that the video / audio inconsistency phenomenon has occurred by detecting either of the terminals 2 0 0 X immediately transmits the video clip. Command is sent to 0 A or terminal 2 0 0 B.
  • FIG. 8A is a diagram showing the feature amount extracted by the extraction device 1 0 0 X
  • FIG. 8C is a diagram showing the feature amount extracted by the extraction device 1 0 0 A or 1 0 0 B
  • FIG. 8B is a diagram showing a value obtained by taking the difference between two feature quantities.
  • the vertical axis represents the Video Activity [value] as the feature quantity (the above-mentioned variance may be used), and the horizontal axis represents the time. Represents. If the video based on the video and audio signal before transmission and the video based on the video and audio signal after transmission completely match, taking the difference in the statistics of the image values will result in zero. Mouth.
  • the difference exceeds a predetermined threshold.
  • the difference in the statistic of the pixel value exceeds the threshold TH 6 + during the time t 1 to t 2, and the pixel value is changed during the time t 3 to t 4.
  • the difference in statistics is below the threshold TH 6—.
  • a command to eliminate the deviation between the video signal and the audio signal is sent to the terminal 2 of the transmission source. 0 0 to the transmission destination terminal 2 0 OA or 2 0 0 B, and based on this, the transmission destination terminal 2 0 OA or 2 0 0 B transmits the video signal and the audio signal in the video / audio signal. It is possible to perform processing to eliminate the deviation.
  • Such commands can be sent collectively to the destination terminal using the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Monitoring And Testing Of Transmission In General (AREA)

Description

明細書 監視装置
技術分野 本発明は、 監視装置に関し、 特にデジタル ·ビデオ Zオーディオ信号の監視 に適した監視装置に関する。 背景技術 近年の映像処理技術の向上により、 ハイビジョンテレビ放送など高画質な映 像が放映されるようになってきている。 ここで、 ハイビジョン放送などにかか るデジタル映像信号は、 衛星放送やケーブル TVのネットワークを介して各家 庭に伝送されることが多い。 しかるに、 映像信号が伝送される間に、 種々の原 因によりエラーが生じることがある。 エラーが生じると、 映像のフリーズ、 ブ ラックアウト、 ノイズ、 音声ミュートなどの不具合を招く恐れあり、 その対策 が必要となっている。 これに対し本出願人は、 特開 2 0 0 3— 2 0 4 5 6 2において、 例えば中央 処理端末が、 伝送元から出力された映像信号 (第 1の信号) に基づく第 1の統 計値と、 中継局又は伝送先から出力された映像信号 (第 2の信号) に基づく第 2の統計値との差をとり、 その差が、 閾値を下回っていれば正常と判断し、 閾 値を上回っていれば、 伝送元 1 0と中継局 2 0との間で伝送異常が生じたと判 断して、 警報信号を出力し警報 (警報表示や警報音) を発する信号監視システ ムを開示する。 しかるに、 かかる信号監視システムの場合には、 中央端末が、 第 1の統計値 と第 2の統計値との差をとつて、 その差に基づいて自動的に伝送異常を判別す るのみであるため、 それだけでは、 いかなるエラーが生じたか十分な解析を行 えないという問題がある。 エラーの解析を十分に行えないと、 また同様なトラ ブルを招く恐れがある。 ここで、 エラ一を解析するためには、 送信された映像 信号を全て記憶した上で、 後から時間をかけて再生しながらチェックする必要 があるが、 そのためには映像音声信号を記憶する膨大な記憶容量と、 膨大なチ エック時間が必要とされる。 発明の開示 本発明は、 かかる従来技術の問題点に鑑みてなされたものであり、 エラーが 生じた場合に、 エラー内容を解析できる監視システムを提供することを目的と する。 本発明の監視システムは、 伝送元から伝送先へと伝送される映像音声信号を 監視する監視システムにおいて、
伝送元から伝送先へと伝送された映像音声信号を、 所定時間だけ繰り返し記 憶するステップと、
伝送される前の映像音声信号から抽出される第 1の特徴量と、 伝送された後 の映像音声信号から抽出される第 2の特徴量とをリアルタイムで比較するステ ップと、
前記第 1の特徴量と前記第 2の特徴量との間に所定値以上の差がある場合、 エラーが生じたと判定するステップと、
エラーが生じたと判定されたときは、 記憶された映像音声信号を所定の宛先 に送信するステップとを有することを特徴とする。 本発明の監視システムによれば、 伝送元から伝送先へと伝送された映像音声 信号を、 所定時間だけ繰り返し記憶するので、 例えば所定のタイミングで映像 音声信号を上書きするようにすれば、映像音声信号の記憶容量が少なくて済む。 またエラーが生じたと判定された時点では、 エラーの生じた映像音声信号は、 上書き等されることなく残存しているので、 これを所定の宛先に送信すること によって、 送信された映像音声信号に基づいて、 エラーの解析を迅速且つ詳細 に行うことができる。 なお、 「映像音声信号」 とは、 一般的には映像信号 (ビデ ォ信号) と音声信号 (オーディオ信号) の双方を含むものをいうが、 本明細書 中では少なくとも一方を含む信号であれば足り、 生データ、 圧縮データのいず れも問わない。 比較のために用いられる前記第 2の特徴量と、 前記記憶された映像音声信号 は、 インターネットを介して伝送先から伝送元に送信されると好ましい。 前記記憶された映像音声信号は、 エラーを解析するために用いられると好ま しい。 前記エラーは、 画像フリーズ現象であると好ましい。 前記エラーは、 ブラックアウト現象であると好ましい。 前記エラ一は、 音声ミュート現象であると好ましい。 前記エラーは、 音声不良現象であると好ましい。 前記エラーは、 映像音声不整合現象であると好ましい。 前記エラ一は、 不正フレーム現象であると好ましい。 前記第 1の特徴量と前記第 2の特徴量との間に、所定値以上の差がある場合、 伝送先に伝送された映像音声信号を補正すると好ましい。 図面の簡単な説明 図 1は、 本実施の形態にかかる監視システムを含む伝送システム全体の概念 図である。 図 2は、 抽出装置 100X, 100A、 10 OBの構成を示すブロック図で ある。 図 3Aは、抽出装置 100Xで抽出された特徴量を示す図である。図 3 Cは、 抽出装置 10 OA又は 100Bで抽出された特徴量を示す図である。図 3 Bは、 2つの特徴量の差分をとつた値を示す図である。 図 4Aは、抽出装置 100Xで抽出された特徴量を示す図である。図 4 Cは、 抽出装置 10 OA又は 100Bで抽出された特徴量を示す図である。図 4 Bは、 2つの特徴量の差分をとつた値を示す図である。 図 5 Aは、抽出装置 100Xで抽出された特徴量を示す図である。図 5 Cは、 抽出装置 10 OA又は 100Bで抽出された特徴量を示す図である。図 5 Bは、 2つの特徴量の差分をとつた値を示す図である。 図 6 Aは、抽出装置 10 OXで抽出された特徴量を示す図である。図 6 Cは、 抽出装置 10 OA又は 100Bで抽出された特徴量を示す図である。図 6 Bは、 2つの特徴量の差分をとつた値を示す図である。 図 7Aは、抽出装置 100Xで抽出された特徴量を示す図である。図 7 Cは、 抽出装置 10 OA又は 100Bで抽出された特徴量を示す図である。図 7 Bは、 2つの特徴量の差分をとつた値を示す図である。 図 8 Aは、抽出装置 100Xで抽出された特徴量を示す図である。図 8 Cは、 抽出装置 10 OA又は 100Bで抽出された特徴量を示す図である。図 8 Bは、 2つの特徴量の差分をとつた値を示す図である。 発明を実施するための最良の形態 以下、 実施の形態を参照して本発明を説明する。 図 1は、 本実施の形態にか かる監視システムを含む伝送システム全体の概念図である。 図 1において、 例 えば放送局などの伝送元 10から、 サテライト局などの伝送先 2 OA, 2 OB に、 オーディォ信号とビデオ信号とを含む映像音声信号が伝送されている場合 を考える。かかる映像音声信号の伝送は、通信衛星 Sを介して行う例を示すが、 光ファイバ一など様々な形態により伝送されて良い。 図 2は、 抽出装置 10 OX, 10 OA, 10 OBの構成を示すブロック図で ある。 映像音声信号のうち左右のオーディオ信号 AL、 ARは、 オーディオ入 力部 101, 102に入力され、 そこから出力された信号は、 各々ディレイ部 103, 104に入力され、 オーディオ演算部 105で演算された結果が、 音 声の特徴量 (Aud i o Le ve l、 Aud i o Ac t i v i t y) とし て出力され、 抽出装置 100X, 100Α、 100 Βから端末 200Χ、 20 OA, 200 Bに出力される。 ここで、 Audio Levelとは、画像の 1フレーム(例 えば 30フレーム/秒) に含まれる音声サンプリング (48 KHz) の値 (4 8000/30 = 1600個) の絶対値の平均値の値をさす。 又、 Audio Activity とは、 画像の 1フレーム (例えば 30フレーム/秒) に含まれる音声サンプリ ング (48 KHz) の値 (48000/30=1600個) の 2乗平均値の値を さす。 一方、 映像音声信号のうちビデオ信号 VDは、 ビデオ入力部 108に入力さ れ、 そこから出力された信号は、 フレームメモリ 109、 110、 111に入 力される。 フレームメモリ 109は現在のフレームを記憶し、 フレームメモリ 110は、 一つ前のフレームを記憶し、 フレームメモリ 111は、 2つ前のフ レームを記憶する。 フレームメモリ 109、 110, 111からの出力信号は、 MC演算部 11 2に入力され、 その演算結果が映像の特徴量 (Mo t i on) として出力され る。 一方、 フレームメモリ 110からの出力信号は、 ビデオ演算部 119に入 力される。 ビデオ演算部 119の演算結果は、 映像の特徴量 (V i d e o L e V e V i de o Ac t i v i t y) として出力される。 これらの出力 信号は、 映像の特徴量として、 抽出装置 100X, 100A, 100Bから端 末 200X、 20 OA, 200 Bに出力される。 ここで、 Motionとは、 画像フ レームを例えば、 8画素 X 8ラインサイズの小ブロックに分けて、 この小プロ ックごとに、 64画素の平均値と分散を求め、 Nフレーム前の同じ場所のプロ ックの平均値と分散値との差で表され、 画像の動きを示すものである。 但し、 Nは通常、 1、 2、 4のいずれかである。 又、 Video Levelとは、 画像フレーム に含まれる画素の値の平均値である。 更に、 Video Activityとしては、 画像に含 まれる小ブロックごとに分散を求めたとき、 この分散のフレーム内の画素の平 均値を用いても良いし、 単純に画像フレームに含まれる画素のフレーム内での 分散値を用いても良い。 次に、 本監視システムの動作について説明する。 伝送元 1 0から伝送される 前の映像音声信号は、 それから特徴量 (メタデータ) を抽出する抽出装置 1 0 0 Xに入力されると共に、 ビデオサーバ一 2 0 I Xに所定時間だけ上書きされ ながら記憶される。 一方、 伝送先 2 0 A、 2 0 Bに伝送された前の映像音声信号は、 それから特 徴量を抽出する抽出装置 1 0 0 A、 1 0 0 Bにそれぞれ入力されると共に、 ビ デォサーバー 2 0 1 A、 2 0 1 Bに所定時間だけ上書きされながら記憶される (伝送元から伝送先へと伝送された映像音声信号を、 所定時間だけ繰り返し記 憶するステツフ。)。抽出された特徴量は、端末 2 0 0 A、 2 0 0 Bからイン夕一 ネット I NTを介して、 伝送元 1 0の端末 2 0 0 Xに伝達される。 伝送元 1 0の端末 2 0 0 Xは、 抽出装置 1 0 0 Xが抽出した特徴量と、 端末 2 0 0 A, 2 0 0 Bから伝達された特徴量とをリアルタイムで比較し (伝送さ れる前の映像音声信号から抽出される第 1の特徴量と、 伝送された後の映像音 声信号から抽出される第 2の特徴量とをリアルタイムで比較するステツフ。)、所 定値以上の差がある場合には、 エラーが生じたと判断し (前記第 1の特徴量と 前記第 2の特徴量との間に所定値以上の差がある場合、 エラーが生じたと判定 するステップ)、インターネット I NTを介して端末 2 0 0 A, 2 0 0 Bに指令 を送信する。 端末 2 0 0 A、 2 0 0 Bは、 かかる指令に応じて、 ビデオサーバ 一 2 0 1 A、 2 0 1 Bより現時点から過去 1 0秒間の映像音声信号を切り取つ て、 そのビデオクリップをインターネット I NTを介して伝送元 1 0の端末 2 0 0 Xに送信する (エラーが生じたと判定されたときは、 記憶された映像音声 信号を所定の宛先に送信するステツフ °)。 伝送元 1 0の作業者は、 端末 2 0 0 A、 2 0 0 Bから端末 2 0 O Xに送信さ れた映像音声信号と、 ビデオサーバー 2 0 I Xに記憶されていた映像音声信号 とを比較して、 エラ一が生じた原因を解析することができる。 なお、 端末 2 0 0 Xからインタ一ネット I NTを介して、 端末 2 0 O A, 2 0 0 Bに、 伝送前 の映像音声信号にかかる特徴量を伝達し、 伝送先で特徴量の比較を行っても良 い。 次に、 より具体的なエラーについて説明する。
( 1 ) 画像フリーズ現象の検出
図 3 Aは、抽出装置 1 0 0 Xで抽出された特徴量を示す図であり,図 3 Cは、 抽出装置 1 0 O A又は 1 0 0 Bで抽出された特徴量を示す図であり、図 3 Bは、 2つの特徴量の差分をとつた値を示す図であり、縦軸は特徴量としての motion [値] を表し、 横軸は時間を表す。 ここで、 図 3 Cに示すように、 伝送された後の映像音声信号に基づく映像に おいては、 時間 t l〜t 2の間は、 motion [値] が低いが、 図 3 Aに示すよう に、 伝送される前の映像音声信号に基づく映像においても、 時間 t l〜t 2の 間は、 motion [値]が低くなつており、その差分はゼロである (図 3 B参照)。 これは、 伝送した映像が静止画であるために生じたものであり、 従って画像フ リーズ現象は生じていないと判断できる。 一方、 図 3 Cに示すように、 伝送された後の映像音声信号に基づく映像にお いては、 時間 t 3〜t 4の間は、 motion [値] が低いのに対し、 図 3 Aに示す ように、 伝送される前の映像音声信号に基づく映像においては、 時間 t 3〜t 4の間は、 motion [値] が高くなつており、 その差分は閾値 TH 1を超えてい る (図 3B参照)。 これは、伝送された映像において、何らかの原因により画像 フリーズ現象が生じたことによるものであり、 これを検出した伝送元 10の端 末 200 Xは、 直ちにビデオクリップを送信するように、 不具合が生じた伝送 先の端末 200A又は端末 200 Bに指令を送信する。
(2) ブラックアウト現象の検出
図 4Aは、抽出装置 100Xで抽出された特徴量を示す図であり,図 4Cは、 抽出装置 10 OA又は 100 Bで抽出された特徴量を示す図であり、図 4Bは、 2つの特徴量の差分をとつた値を示す図であり、 縦軸は特徴量としての Video Activity [値] を表し、 横軸は時間を表す。 この Video Activity [値] としては、 例えば以下の分散 Aを用いることができる。 伝送前後におけるビデオ信号 (バーチャルビデオ信号のような 3次元座標値 毎に値を持つ例とする、 但し z = 0とすれば通常の 2次元ビデオ信号になる) を考えたとき、 時刻 tにおける 3次元座標 (x、 y、 z) における伝送前のビ デォ信号を V (x、 y、 z、 t) とし、 時刻 tにおける 3次元座標 (x、 y、 z) における伝送後のビデオ信号を U (x、 y、 z、 t) とする。 ここで、 ビデオ信号を長い距離にわたって伝送すると、 信号の欠損、 ノイズ など様々な問題が生じる恐れがあるため、 必ずしも V (x、 y、 z、 t) =U (x、 y、 z、 t) とはならないが、 視聴者が気づかない程度のエラーであれ ば補正する必要はないといえる。 しかしながら、 ブラックアウト現象のような 不具合であれば、 対策が必要である。 ビデオ信号 V (x、 y、 z、 t) の特徴量としての分散 Aは、 以下の式で表 すことができる。
分散
Figure imgf000012_0001
又、 平均値 ave. Vは、 以下の式で得ることができる。
II
Figure imgf000012_0002
伝送前のビデオ信号 V (x、 y、 z、 t) と、伝送後のビデオ信号を U (x、 y、 z、 t) とについて、 それぞれ分散 Aを求めた上で、 その差分を取ること で、 以下のようにしてブラックアウトを判別できる。 図 4 Cに示すように、伝送された後の映像音声信号に基づく映像においては、 時間 t l〜t 2の間は、 分散値が低いが、 図 4Aに示すように、 伝送される前 の映像音声信号に基づく映像においても、 時間 t l〜t 2の間は、 分散値が低 くなつており、 その差分はゼロである (図 4B参照)。 これは、伝送した映像が 例えば星空等を映したものであるために生じたものであり、 従って画像フリー ズ現象は生じていないと判断できる。 一方、 図 4 Cに示すように、 伝送された後の映像音声信号に基づく映像にお いては、時間 t 3〜 t 4の間は、分散値が低いのに対し、図 4 Aに示すように、 伝送される前の映像音声信号に基づく映像においては、時間 t 3〜 t 4の間は、 分散値が高くなつており、 その差分は閾値 TH 2を超えている (図 4 B参照)。 これは、 伝送された映像において、 何らかの原因により画面が真っ黒になるブ ラックアウト現象が生じたことによるものであり、 これを検出した伝送元 1 0 の端末 2 0 0 Xは、 直ちにビデオクリップを送信するように、 不具合が生じた 伝送先の端末 2 0 0 A又は端末 2 0 0 Bに指令を送信する。
( 3 ) 音声ミュート現象の検出
図 5 Aは、抽出装置 1 0 0 Xで抽出された特徴量を示す図であり,図 5 Cは、 抽出装置 1 0 O A又は 1 0 0 Bで抽出された特徴量を示す図であり、図 5 Bは、 2つの特徴量の差分をとつた値を示す図であり、 縦軸は特徴量としての Audio Level [値]を表し、横軸は時間を表す。なお、オーディォ信号における Audio Level [値] のサンプリングは、 ビデオ信号におけるフレームの周波数で平均化され ると好ましい。例えば、 1秒間に 3 0フレームのビデオ信号の場合、 Audio Level [値] のサンプリングは 3 0 H zで行うと好ましい。 ここで、 図 5 Cに示すように、 伝送された後の映像音声信号に基づく音声に おいては、 時間 t l〜t 2の間は、 Audio Level [値] が非常に低いが、 図 5 A に示すように、 伝送される前の映像音声信号に基づく音声においても、 時間 t l〜t 2の間は、 Audio Level [値] が低くなつており、 その差分はゼロである (図 5 B参照)。 これは、 伝送される前の映像音声信号において、 元々の Audio Level [値] が低かったものであり、 従って音声ミュート現象は生じていないと 判断できる。 一方、 図 5 Cに示すように、 伝送された後の映像音声信号に基づく音声にお いては、 時間 t 3〜!; 4の間は、 Audio Level [値] が低いのに対し、 図 5 Aに 示すように、 伝送される前の映像音声信号に基づく音声においては、 時間 t 3 〜t 4の間は、 Audio Level [値] が高くなつており、 その差分は閾値 TH 3を 超えている (図 5 B参照)。 これは、伝送された音声において、何らかの原因に より音声が途切れる音声ミュート現象が生じたことによるものであり、 これを 検出した伝送元 1 0の端末 2 0 0 Xは、 直ちにビデオクリップを送信するよう に、不具合が生じた伝送先の端末 2 0 O A又は端末 2 0 0 Bに指令を送信する。
( 4 ) 音声不良現象の検出
図 6 Aは、抽出装置 1 0 0 Xで抽出された特徴量を示す図であり,図 6 Cは、 抽出装置 1 0 O A又は 1 0 0 Bで抽出された特徴量を示す図であり、図 6 Bは、 2つの特徴量の差分をとつた値を示す図であり、 縦軸は特徴量としての Audio Level [値]を表し、横軸は時間を表す。なお、オーディォ信号における Audio Level [値] のサンプリングは、 ビデオ信号におけるフレームの周波数で平均化され ると好ましい。 ここで、 伝送された後の映像音声信号に基づく Audio Level [値] と、 伝送さ れる前の映像音声信号に基づく Audio Level [値] との差分を取ったとき、 図 6 Bに示すように、 時間 t l〜t 2の間、 及び時間 t 3〜t 4の間は、 差分が閾 値 TH 4を超えている。 これは、 伝送された音声において、 何らかの原因によ りノイズ等が重畳され、 音声不良現象が生じたことによるものであり、 これを 検出した伝送元 1 0の端末 2 0 0 Xは、 直ちにビデオクリップを送信するよう に、不具合が生じた伝送先の端末 2 0 O A又は端末 2 0 0 Bに指令を送信する
( 5 ) 映像音声不整合現象の検出
図 7 Aは、ビデオフレームに対応して、抽出装置 1 0 0 Xで抽出された Audio Level [値] を示す図である。 図 7 Cは、 抽出装置 1 0 0 A又は 1 0 0 Bで抽出 された Audio Level [値] を示す図である。 図 7 Bは、 時間に対して音声の進み /遅れを示す図である。 なお、 オーディオ信号における Audio Level [値] のサ ンプリングは、 ビデオ信号におけるフレームの周波数で平均化されると好まし い。 ここでは、 フレームに対する Audio Level [値] の立ち上がりを検出して比較 する。 図 7 Bに示すように、 時間 t l、 t 3においては、 映像に対する音声の 遅れ量が閾値 TH 5 +を超えており、 時間 t 2においては、 映像に対する音声 の進み量が閾値 TH 5—を下回っている。 いずれかを検出することで、 映像音 声不整合現象が生じたと判断した伝送元 1 0の端末 2 0 0 Xは、 直ちにビデオ クリップを送信するように、 不具合が生じた伝送先の端末 2 0 0 A又は端末 2 0 0 Bに指令を送信する。
( 6 ) 不正フレーム現象の検出
図 8 Aは、抽出装置 1 0 0 Xで抽出された特徴量を示す図であり,図 8 Cは、 抽出装置 1 0 0 A又は 1 0 0 Bで抽出された特徴量を示す図であり、図 8 Bは、 2つの特徴量の差分をとつた値を示す図であり、 縦軸は特徴量としての Video Activity [値] (上述した分散を用いて良い) を表し、 横軸は時間を表す。 伝送される前の映像音声信号に基づく映像と、 伝送された後の映像音声信号 に基づく映像とが完全に一致している場合、 画像値の統計量の差分を取るとゼ 口になる。 ところが、 伝送された後の映像音声信号中に、 1フレームだけ異な る映像の信号が挿入されたような場合、 その差分が所定の閾値を超える。 図 8 Bに示すように、 時間 t 1〜 t 2の間において、 画素値の統計量の差分 が閾値 TH 6 +を超えており、 また時間 t 3〜 t 4の間においては、 画素値の 統計量の差分が閾値 TH 6—を下回っている。 いずれかを検出することで、 不 正フレーム現象が生じたと判断した伝送元 1 0の端末 2 0 0 Xは、 直ちにビデ ォクリップを送信するように、 不具合が生じた伝送先の端末 2 0 0 A又は端末 2 0 0 Bに指令を送信する。 なお、 伝送元 1 0においてエラーの解析が行われた後、 例えば、 映像音声不 整合現象が生じた場合には、 ビデオ信号とオーディォ信号とのズレをなくすよ うな指令を、 伝送元の端末 2 0 0 から、 伝送先の端末 2 0 O A又は 2 0 0 B へと送信し、 それに基づいて伝送先の端末 2 0 O A又は 2 0 0 Bが、 映像音声 信号において、 ビデオ信号とオーディオ信号とのズレをなくす処理を行うこと ができる。 かかる指令は、 インターネットを用いることで、 伝送先の端末に一 括して送信することができる。

Claims

請求の範囲
( 1 ) 伝送元から伝送先へと伝送される映像音声信号を監視する監視シ ステムにおいて、
伝送元から伝送先へと伝送された映像音声信号を、 所定時間だけ繰り返し記 憶するステップと、
伝送される前の映像音声信号から抽出される第 1の特徴量と、 伝送された後 の映像音声信号から抽出される第 2の特徴量とをリアルタイムで比較するステ ップと、
前記第 1の特徴量と前記第 2の特徴量との間に所定値以上の差がある場合、 エラーが生じたと判定するステップと、
エラーが生じたと判定されたときは、 記憶された映像音声信号を所定の宛先 に送信するステップとを有することを特徴とする監視システム。
( 2 ) 比較のために用いられる前記第 2の特徴量と、 前記記憶された映 像音声信号は、 インターネットを介して伝送先から伝送元に送信されることを 特徴とする請求項 1に記載の監視システム。
( 3 ) 前記記憶された映像音声信号は、 エラ一を解析するために用いら れることを特徴とする請求項 1又は 2に記載の監視システム。
( 4 ) 前記エラ一は、 画像フリーズ現象であることを特徴とする請求項 1〜 3のいずれかに記載の監視システム。
( 5 ) 前記エラーは、 ブラックアウト現象であることを特徴とする請求 項 1〜 4のいずれかに記載の監視システム。
(6) 前記エラーは、 音声ミュート現象であることを特徴とする請求項
1〜 5のいずれかに記載の監視システム。
(7) 前記エラーは、 音声不良現象であることを特徴とする請求項 1〜
6のいずれかに記載の監視システム。
(8) 前記エラ一は、 映像音声不整合現象であることを特徴とする請求 項 1〜 7のいずれかに記載の監視システム。
(9) 前記エラーは、 不正フレーム現象であることを特徴とする請求項 1〜 8のいずれかに記載の監視システム。
(10) 前記第 1の特徴量と前記第 2の特徴量との間に、 所定値以上の 差がある場合、 伝送先に伝送された映像音声信号を補正することを特徴とする 請求項 1〜 9のいずれかに記載の監視システム。
PCT/JP2006/300795 2006-01-13 2006-01-13 監視装置 WO2007080657A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2007553821A JP4932741B2 (ja) 2006-01-13 2006-01-13 監視装置
EP06700938.1A EP1973351B1 (en) 2006-01-13 2006-01-13 Monitor
PCT/JP2006/300795 WO2007080657A1 (ja) 2006-01-13 2006-01-13 監視装置
US12/121,562 US20080211920A1 (en) 2006-01-13 2008-05-15 Monitoring apparatus
US12/209,058 US20090013360A1 (en) 2006-01-13 2008-09-11 Monitoring apparatus
US12/348,808 US7605843B2 (en) 2006-01-13 2009-01-05 Monitoring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2006/300795 WO2007080657A1 (ja) 2006-01-13 2006-01-13 監視装置

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US10/587,709 A-371-Of-International US20080276290A1 (en) 2006-01-13 2006-01-13 Monitoring Apparatus
US58770908A Continuation 2006-01-13 2008-07-22
US12/348,808 Continuation US7605843B2 (en) 2006-01-13 2009-01-05 Monitoring apparatus

Publications (1)

Publication Number Publication Date
WO2007080657A1 true WO2007080657A1 (ja) 2007-07-19

Family

ID=38256073

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/300795 WO2007080657A1 (ja) 2006-01-13 2006-01-13 監視装置

Country Status (4)

Country Link
US (2) US20090013360A1 (ja)
EP (1) EP1973351B1 (ja)
JP (1) JP4932741B2 (ja)
WO (1) WO2007080657A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011089689A1 (ja) * 2010-01-20 2011-07-28 株式会社K-Will 監視装置
JP2015167345A (ja) * 2014-02-14 2015-09-24 ミハル通信株式会社 Catv監視装置およびcatv監視方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8462099B2 (en) * 2007-10-24 2013-06-11 Sharp Kabushiki Kaisha Display panel and display device
WO2010069375A1 (en) 2008-12-17 2010-06-24 Telefonaktiebolaget L M Ericsson (Publ) Method and apparatus for measuring audiovisual synchronisation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003134535A (ja) * 2001-10-30 2003-05-09 Nec Eng Ltd 画質劣化検知システム
JP2003298554A (ja) * 2002-04-02 2003-10-17 Hitachi Ltd データ配信における受信データの品質評価方法および装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5473361A (en) * 1993-01-19 1995-12-05 Tektronix, Inc. Cable television test and measurement system
US5982418A (en) * 1996-04-22 1999-11-09 Sensormatic Electronics Corporation Distributed video data storage in video surveillance system
JP3675122B2 (ja) * 1997-09-12 2005-07-27 株式会社日立国際電気 映像装置及び映像装置の状態監視方法並びに映像装置の状態監視を実行するためのプログラムを記録した記録媒体
US6246435B1 (en) * 1998-09-08 2001-06-12 Tektronix, Inc. In-service realtime picture quality analysis
US6496221B1 (en) * 1998-11-02 2002-12-17 The United States Of America As Represented By The Secretary Of Commerce In-service video quality measurement system utilizing an arbitrary bandwidth ancillary data channel
JP4403335B2 (ja) * 2000-04-17 2010-01-27 ソニー株式会社 ビデオ処理機器の保守支援システム
JP2002044609A (ja) * 2000-07-31 2002-02-08 Matsushita Electric Ind Co Ltd 映像記録装置および監視装置
US6943827B2 (en) * 2001-04-16 2005-09-13 Kddi Corporation Apparatus for monitoring quality of picture in transmission
CA2344930C (en) * 2001-04-23 2007-04-17 Leitch Technology International Inc. Data monitoring system
US7212498B2 (en) * 2001-05-30 2007-05-01 Intel Corporation Measurement of quality of service
JP2003204562A (ja) * 2001-07-19 2003-07-18 Kdd Media Will Corp 信号監視システム
US7154533B2 (en) * 2001-10-30 2006-12-26 Tandberg Telecom As System and method for monitoring and diagnosis of video network performance
JP2005064679A (ja) * 2003-08-08 2005-03-10 Kddi Corp 画像特徴量抽出方式および画質評価方式
CN100437506C (zh) 2005-05-24 2008-11-26 鸿富锦精密工业(深圳)有限公司 检测电视信号转换卡与计算机主机板的音频连接功能的方法
JP2006332839A (ja) * 2005-05-24 2006-12-07 Hitachi Kokusai Electric Inc 映像・音声収録・再生方法
US20070088516A1 (en) 2005-10-14 2007-04-19 Stephen Wolf Low bandwidth reduced reference video quality measurement method and apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003134535A (ja) * 2001-10-30 2003-05-09 Nec Eng Ltd 画質劣化検知システム
JP2003298554A (ja) * 2002-04-02 2003-10-17 Hitachi Ltd データ配信における受信データの品質評価方法および装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1973351A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011089689A1 (ja) * 2010-01-20 2011-07-28 株式会社K-Will 監視装置
JP5435597B2 (ja) * 2010-01-20 2014-03-05 株式会社K−Will 検出方法
JP2015167345A (ja) * 2014-02-14 2015-09-24 ミハル通信株式会社 Catv監視装置およびcatv監視方法

Also Published As

Publication number Publication date
US7605843B2 (en) 2009-10-20
EP1973351A4 (en) 2012-12-26
US20090102928A1 (en) 2009-04-23
JP4932741B2 (ja) 2012-05-16
JPWO2007080657A1 (ja) 2009-06-11
EP1973351A1 (en) 2008-09-24
US20090013360A1 (en) 2009-01-08
EP1973351B1 (en) 2015-12-30

Similar Documents

Publication Publication Date Title
US10186297B2 (en) Reference and non-reference video quality evaluation
US8885017B2 (en) Real-time process and technology using image processing to maintain and ensure viewer comfort during capture, live transmission, and post-production of stereoscopic 3D imagery
US20160165227A1 (en) Detection of audio to video synchronization errors
US7876355B2 (en) Video abnormality detection
US20130100152A1 (en) Method and apparatus for processing image display
US11825071B2 (en) Temporal alignment system and method
WO2007080657A1 (ja) 監視装置
US20100026813A1 (en) Video monitoring involving embedding a video characteristic in audio of a video/audio signal
US20170347139A1 (en) Monitoring Quality of Experience (QoE) at Audio/Video (AV) Endpoints Using a No-Reference (NR) Method
US8914823B2 (en) A/V parental lock apparatus and method
JP4620516B2 (ja) 画像比較方法、画像比較システム及びプログラム
CN116248940A (zh) 一种主备路节目音画不同步的检测方法及系统
US10783670B2 (en) Method for compression of 360 degree content and electronic device thereof
US20080276290A1 (en) Monitoring Apparatus
Babić et al. Real-time audio and video artifacts detection tool
US20080211920A1 (en) Monitoring apparatus
CN104394462A (zh) 一种音视频马赛克和拉条故障的识别方式
KR101576223B1 (ko) 방송 신호 모니터링 장치 및 방법
JP5435597B2 (ja) 検出方法
KR102540817B1 (ko) 머신러닝 기반 실시간 비디오 방송 품질 평가 방법, 장치 및 프로그램
US8154656B2 (en) Capture buffer control methodology for caption carriage switch
TW200733746A (en) Regional video compression processing method and the system thereof
JP2003204562A (ja) 信号監視システム
EP2346260A1 (en) Method for monitoring the synchronization between a video stream and at least one audio stream of a multimedia content
KR20120070839A (ko) 비주얼 리듬 정보 추출 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007553821

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2006700938

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 10587709

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2006700938

Country of ref document: EP