JP2006262205A - Encoder, codec method, and network transmission system - Google Patents

Encoder, codec method, and network transmission system Download PDF

Info

Publication number
JP2006262205A
JP2006262205A JP2005078195A JP2005078195A JP2006262205A JP 2006262205 A JP2006262205 A JP 2006262205A JP 2005078195 A JP2005078195 A JP 2005078195A JP 2005078195 A JP2005078195 A JP 2005078195A JP 2006262205 A JP2006262205 A JP 2006262205A
Authority
JP
Japan
Prior art keywords
codec
image
video
data
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005078195A
Other languages
Japanese (ja)
Inventor
Atsushi Sasa
敦 佐々
Toshihiro Aikawa
智弘 相川
Koji Masuda
浩司 桝田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2005078195A priority Critical patent/JP2006262205A/en
Publication of JP2006262205A publication Critical patent/JP2006262205A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an encoder, CODEC method and network transmission system for realizing a CODEC in a form suitable for a requested video in accordance with the type of the video by taking into consideration occurrence of image collapse caused by occurrence of a packet loss and a delay without securing a fixed line band since a line band fluctuates to cause deterioration or the like of a communication band when 1111047964827_1. html to communicate with and traffic increase in a line that does not guarantee the line band of a network line. <P>SOLUTION: The adoption of a DSP (digital signal processor) detects the optimization of multi-CODEC software for simultaneously executing CODEC processing of a plurality of formats and a band state of a best effort circuit to perform an adaptive shaping function for controlling a video distribution rate. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ネットワーク伝送システムに関わり、特に映像と音声のエンコーダ及びコーデック方法に関わる。   The present invention relates to a network transmission system, and more particularly to a video and audio encoder and codec method.

従来、JPEG( Joint Photographic Experts Group )形式のコーデックの方法が開発されている。この JPEG 形式のコーデックを使用したエンコーダを小型化し、カメラに内蔵してネットワークカメラとして製品化がされている。また、JPEG 形式のコーデックを使用したエンコーダをユニットに組込んで、カメラに外付けするためWEB エンコーダとしても用いられている。
また、JPEG 形式のコーデックの他に、MPEG( Moving Pictures Experts Group )形式(例えば、MPEG-2 や MPEG-4 )のコーデックを使用したエンコーダをネットワークカメラやWEB エンコーダに搭載した製品が用いられている(例えば、特許文献1参照。)。コーデックとは、圧縮と伸張をまとめて呼んだもの、あるいは、符号化( coding )と復号( decode )のことをいい、どのようにコーデックするかで、その形式がいくつか存在する。
Conventionally, a codec method of JPEG (Joint Photographic Experts Group) format has been developed. The encoder using this JPEG codec has been downsized and built into the camera as a network camera. In addition, an encoder using a JPEG codec is built into the unit, and it is also used as a WEB encoder to attach externally to the camera.
In addition to JPEG codecs, products that use MPEG (Moving Pictures Experts Group) format (for example, MPEG-2 and MPEG-4) codecs in network cameras and web encoders are used. (For example, refer to Patent Document 1). A codec is a combination of compression and decompression, or coding and decoding, and there are several formats depending on how the codec is coded.

特開2004−295835号公報JP 2004-295835 A

従来は、複数の形式のコーデックを映像の種類に応じて使い分け、映像の種類に適した形式のコーデックを行っていなかった。
本発明の目的は、映像の種類に応じて、要求された映像に適した形式のコーデックを実現するエンコーダ及びコーデック方法並びにネットワーク伝送システムを提供することにある。
本発明の他の目的は、複数の形式のコーデック処理を同時に実行するエンコーダ及びコーデック方法並びにネットワーク伝送システムであり、更に、伝送状態を検出し、最適な映像の配信レートを制御する配信方法及び配信システムを提供することにある。
更に、本発明の他の目的は、音声を同時に圧縮処理し、双方向音声通信が可能なエンコーダ及びコーデック方法並びにネットワーク伝送システムを提供することにある。
Conventionally, a plurality of formats of codecs are properly used according to the type of video, and a codec of a format suitable for the type of video has not been used.
An object of the present invention is to provide an encoder, a codec method, and a network transmission system that realize a codec of a format suitable for a requested video according to the type of video.
Another object of the present invention is an encoder, a codec method, and a network transmission system that simultaneously execute a plurality of types of codec processes, and further, a distribution method and distribution for detecting a transmission state and controlling an optimal video distribution rate. To provide a system.
Furthermore, another object of the present invention is to provide an encoder and codec method and a network transmission system capable of simultaneously compressing voice and performing two-way voice communication.

上記の目的を達成するため、本発明のエンコーダは、配信するデータの種類に応じて優先度を設け、優先度に応じて配信要求されたデータに適した形式のコーデックを実行する。   In order to achieve the above object, the encoder of the present invention provides a priority according to the type of data to be distributed, and executes a codec in a format suitable for the data requested for distribution according to the priority.

上記の目的を達成するため、本発明のコーデック方法は、配信するデータの種類に応じて優先度を設け、優先度に応じて配信要求されたデータに適した形式のコーデックを実行する。
上記の目的を達成するため、本発明のネットワーク伝送システムは、配信するデータの種類に応じて優先度を設け、優先度に応じて配信要求されたデータに適した形式のコーデックを実行する。
In order to achieve the above object, the codec method of the present invention provides a priority according to the type of data to be distributed, and executes a codec in a format suitable for the data requested to be distributed according to the priority.
In order to achieve the above object, the network transmission system of the present invention provides priority according to the type of data to be distributed, and executes a codec in a format suitable for the data requested for distribution according to the priority.

本発明により、複数の形式のコーデック処理を同時に実行するエンコーダ及びコーデック方法並びにネットワーク伝送システムを実現できた。そして更に、伝送状態を検出し、最適な映像の配信レートを制御する配信方法及び配信システムを実現した。   According to the present invention, an encoder, a codec method, and a network transmission system that simultaneously execute a plurality of types of codec processes can be realized. Furthermore, a distribution method and a distribution system for detecting a transmission state and controlling an optimal video distribution rate have been realized.

複数の形式のコーデック処理を行うネットワークカメラや WEB エンコーダについて、JPEG 形式のコーデックと MPEG-4 形式のコーデックの両方の機能を備えたマルチコーデック形式のネットワークカメラやWEB エンコーダについて説明する。
マルチコーデックは、ネットワーク型監視システム向けとして、圧縮効率が高く動画像監視に適したMPEG-4 形式と静止画像記録に適した JPEG 形式の両方式による同時画像圧縮機能と音声符号化機能をリアルタイムで実現する WEB エンコーダ機能である。
This section describes network cameras and web encoders that have both JPEG codec and MPEG-4 codec functions for network cameras and web encoders that process multiple formats of codecs.
Multi-codec is a network-type surveillance system with simultaneous compression and audio coding functions in both MPEG-4 format with high compression efficiency suitable for video surveillance and JPEG format suitable for still image recording in real time. This is the WEB encoder function to be realized.

JPEG 形式のコーデックや MPEG-4 形式のコーデックは、例えば、SH-4( RISC プロセッサ)のソフトウェアにより実現が可能である。しかしその他、より処理能力の高い DSP( Digital Signal Processor )を採用することにより、MPEG-4 と JPEG の同時処理をリアルタイムで実現し、両方式に対応したWEB エンコーダをマルチコーデックボードによって実現する。   The JPEG codec and the MPEG-4 codec can be realized by, for example, SH-4 (RISC processor) software. However, by adopting DSP (Digital Signal Processor) with higher processing capability, simultaneous processing of MPEG-4 and JPEG is realized in real time, and a web encoder that supports both systems is realized by a multi-codec board.

特に本発明は、DSP で複数の形式のコーデック処理を同時に実行するマルチコーデックソフトウェアの最適化とベストエフォート回線の帯域状況を検出し、映像の配信レートを制御する適応シェーピング機能を実現する。   In particular, the present invention realizes an adaptive shaping function for controlling the video distribution rate by optimizing multi-codec software that simultaneously executes a plurality of types of codec processing by the DSP and detecting the bandwidth situation of the best effort line.

高速ネットワークインフラの拡大やユビキタス社会の進展により、監視システム市場やセキュリティーシステム市場においてもネットワーク型システムへ移行が進んでいる。また、画像圧縮の形式として、JPEG 形式の他、更に圧縮効率が高く監視システムやセキュリティーシステムの動画像監視に適した MPEG-4 形式のニーズが高まってきた。   Due to the expansion of high-speed network infrastructure and the progress of ubiquitous society, the transition to network-type systems is also progressing in the surveillance system market and the security system market. In addition to the JPEG format, there is a growing need for an MPEG-4 format that has higher compression efficiency and is suitable for monitoring video in surveillance systems and security systems.

図1は、本発明の一実施例のネットワーク型監視システムの構成を示すブロック図である。11 はカメラ、12 はマイク・スピーカ部、14 は WEB エンコーダ、15 は記録装置、16 はネットワーク回線、17 は監視センタである。カメラ 11 は、例えば、ビデオカメラ、あるいは TV カメラ、等の2次元イメージセンサである。記録装置 15 は、例えば、DVD( Digital Versatile Disc )と HD( Hard Disk )を搭載したネットワークサーバである。ネットワーク回線 16 は、例えば、ADSL( Asymmetric Digital Subscriber Line )である。   FIG. 1 is a block diagram showing a configuration of a network type monitoring system according to an embodiment of the present invention. 11 is a camera, 12 is a microphone / speaker unit, 14 is a web encoder, 15 is a recording device, 16 is a network line, and 17 is a monitoring center. The camera 11 is a two-dimensional image sensor such as a video camera or a TV camera. The recording device 15 is a network server equipped with, for example, a DVD (Digital Versatile Disc) and an HD (Hard Disk). The network line 16 is, for example, ADSL (Asymmetric Digital Subscriber Line).

カメラ 11 は道路等の視野範囲内を撮像して取得した映像を映像信号としてWEB エンコーダ 14 に出力する。マイク・スピーカ部 12 のマイクは、周囲の音を集音し、電気信号に変換して WEB エンコーダ 14 に出力する。WEB エンコーダ 14 は、カメラ 11 から入力された映像信号を複数の形式のコーデックの映像データに変換して出力する。また、マイク・スピーカ部 12 のマイクから入力された音の電気信号をネットワーク回線 16 に配信する形式の音データに変換して出力する。変換された複数のコーデック形式に変換された映像データとネットワーク回線16 に配信する形式に変換された音データは、記録装置 15 とネットワーク回線 16 とに出力される。記録装置 15 は、入力されたデータをそれぞれ蓄積する。   The camera 11 captures an image obtained by capturing an image within a visual field range such as a road and outputs the image as a video signal to the WEB encoder 14. The microphone of the microphone / speaker unit 12 collects ambient sounds, converts them into electric signals, and outputs them to the web encoder 14. The web encoder 14 converts the video signal input from the camera 11 into video data of a plurality of codecs and outputs the video data. In addition, the electric signal of the sound input from the microphone of the microphone / speaker unit 12 is converted into sound data in a format to be distributed to the network line 16 and output. The converted video data converted into a plurality of codec formats and the sound data converted into a format to be distributed to the network line 16 are output to the recording device 15 and the network line 16. The recording device 15 stores the input data.

監視センタ 17 は、ネットワーク回線16 から映像データや音データを取込み、デコードして出力(映像再生や音再生)する機能を有し、所望のカメラやマイクからのデータを出力する端末を少なくとも1台持っている。
監視センタ 17 では、カメラが取得したライブ映像と音を再生するが、必要な時には、ネットワーク回線16 を介して WEB エンコーダ 14 に配信要求を出し、記録装置 15 から映像データや音データを取得することもできるし、ライブ映像や音を取得することもできる。また、マイク・スピーカ部 12 のスピーカは、ネットワーク回線16 から WEB エンコーダ 14 を介して入力された音の電気信号を音に変換して出力する。
また端末の表示画面を複数に分割して、複数のカメラからのライブ映像や記録装置からの映像を同時に複数出力するように切替えることもできる。
The monitoring center 17 has a function of capturing video data and sound data from the network line 16, decoding and outputting (video playback and sound playback), and at least one terminal that outputs data from a desired camera or microphone. have.
The monitoring center 17 plays the live video and sound acquired by the camera. When necessary, it sends a distribution request to the WEB encoder 14 via the network line 16 and acquires video data and sound data from the recording device 15. You can also get live video and sound. The speaker of the microphone / speaker unit 12 converts an electrical signal of sound input from the network line 16 via the WEB encoder 14 into sound and outputs the sound.
Further, the display screen of the terminal can be divided into a plurality of screens, and switching can be made so that a plurality of live images from a plurality of cameras and a plurality of images from a recording device are simultaneously output.

図1に示すように、例えば、道路監視におけるネットワーク型監視システムに必要な機能として、本発明の WEB エンコーダ及び WEB デコーダでは、動画で監視するモニタリング機能、定期的に道路状況を記録する機能、集音や拡声のための音声機能の3つが必要になる。これらの市場動向を踏まえ、動画像伝送に適した MPEG-4 形式、検索が容易など静止画像記録に適した JPEG 形式の両形式による同時画像圧縮機能と音声符号化(音声圧縮化)機能を搭載し、監視システムの主要機能である双方向音声通話機能や携帯電話への画像配信機能、各種カメラ制御やアラーム機能を全て搭載している。   As shown in FIG. 1, for example, as a function necessary for a network type monitoring system in road monitoring, the WEB encoder and WEB decoder of the present invention have a monitoring function for monitoring with a moving image, a function for periodically recording road conditions, Three sound functions for sound and loud sound are required. Based on these market trends, simultaneous MPEG-4 format suitable for moving image transmission and JPEG format suitable for still image recording such as easy search and audio encoding (audio compression) function are installed. The main functions of the surveillance system are the interactive voice call function, the image distribution function to mobile phones, various camera controls and alarm functions.

本発明において、製品のシリーズ展開が可能となるコーデックボードのプラットフォーム化を実現するため、コーデックボードの基板の大きさを、例えば小型名刺サイズ( 55 mm × 88 mm )とした。更に、名刺サイズの基板に DSP( Digital Signal Processor)を搭載し、ソフトウェアで同時圧縮処理を実現することで小型化した。   In the present invention, in order to realize the platform of the codec board that enables the series development of products, the size of the board of the codec board is, for example, a small business card size (55 mm × 88 mm). In addition, a digital signal processor (DSP) was mounted on a business card-sized board, and the software was made compact by realizing simultaneous compression processing.

しかし、能力の限られた DSP で MPEG-4 、JPEG 、音声の同時圧縮処理をリアルタイムで実現するには、DSP の能力を効率的に利用可能とするソフトウェアの最適化が必要になる。   However, in order to realize simultaneous compression processing of MPEG-4, JPEG, and audio in real time with a DSP with limited capabilities, it is necessary to optimize software that can efficiently use DSP capabilities.

一方、ネットワーク型監視システムでは、インターネット、イントラネット、専用回線などのあらゆる IP( Internet protocol )ネットワーク回線で映像を配信する。しかし、ネットワーク回線の回線帯域を保証しないベストエフォート型の回線では、通信する
1111047964827_0.html
やトラフィックが増えてくると、回線帯域が変動し、通信帯域の低下などが起こる。このため、一定の回線帯域を確保できずにパケットロスや遅延が発生し、画像の崩れを生じる。そこで、パケットロスを検出し、変動する回線帯域に適応した配信データレートになるよう、ダイナミックに制御する適応シェーピング機能が必要になる。
On the other hand, in the network type monitoring system, video is distributed through all IP (Internet protocol) network lines such as the Internet, an intranet, and a dedicated line. However, it communicates on the best-effort line that does not guarantee the bandwidth of the network line.
1111047964827_0.html
When traffic increases, the line bandwidth fluctuates and the communication bandwidth decreases. For this reason, a fixed line bandwidth cannot be secured, packet loss and delay occur, and image collapse occurs. Therefore, it is necessary to have an adaptive shaping function that detects packet loss and dynamically controls the distribution data rate to be adapted to the fluctuating line bandwidth.

図1において、WEB エンコーダ 14 は、カメラ 11 から入力されるアナログの映像信号と、マイク・スピーカ部 12 から入力される音声信号をデジタル信号に変換し、MPEG-4 、JPEG 、及び音声の圧縮処理(符号化処理)を同時に行う。そしてそれぞれの圧縮データ毎にネットワークプロトコルによるパケット化を行い、ネットワーク回線16 へ配信する。また、記録装置 15 に出力し、長時間の映像データや音声データを蓄積する。また更に、簡易保存用として、内蔵した電源がなくてもデータを保持できるリムーバルなメモリ(着脱可能なメモリ)への記録も可能である(後述する)。   In FIG. 1, a web encoder 14 converts an analog video signal input from the camera 11 and an audio signal input from the microphone / speaker unit 12 into a digital signal, and performs MPEG-4, JPEG and audio compression processing. (Encoding process) is performed simultaneously. Each compressed data is packetized by a network protocol and distributed to the network line 16. Further, it outputs to the recording device 15 and accumulates video data and audio data for a long time. Furthermore, for simple storage, recording to a removable memory (detachable memory) that can hold data even without a built-in power supply is possible (described later).

また、図1の監視センタ 17 では、ネットワーク回線16 からインタフェースを介して WEB デコーダが接続され、ネットワーク回線 16 を介して配信された映像データと音声データを伸張し、モニタやスピーカに出力する。
モニタは配信された映像データの映像を表示し、スピーカは配信された音声データを音に変換して出力する。
即ち、WEB デコーダは、ネットワークから受信した各圧縮データ(複数の形式で圧縮された映像データそれぞれと圧縮された音声データ)を伸張し、デジタル信号からアナログの映像信号及び音声信号に変換する。
Further, in the monitoring center 17 of FIG. 1, a WEB decoder is connected from the network line 16 via an interface, and the video data and audio data distributed via the network line 16 are decompressed and output to a monitor or a speaker.
The monitor displays the video of the distributed video data, and the speaker converts the distributed audio data into sound and outputs it.
That is, the WEB decoder decompresses each compressed data received from the network (video data compressed in a plurality of formats and compressed audio data), and converts the digital signal into an analog video signal and audio signal.

本発明のマルチコーデックは、次のような特長を有する。
(1)動画像監視と高精細画像記録を同時に実現する。
(2)音声双方向通話が可能である。
(3)回線帯域を保証しないベストエフォート回線でも受信画像のフリーズの発生やブロックノイズの発生を最小限に抑えることができる。
(4)回線障害時のバックアップとして、静止画記録が可能で電源がなくてもデータが保持できる着脱可能なメモリを装置内に装備し、簡易記録が可能である。
(5)外部アラームと定時取り込みによる画像の記録が可能である。
(6)携帯電話への静止画配信が可能である。
The multi-codec of the present invention has the following features.
(1) Realizing moving image monitoring and high-definition image recording simultaneously.
(2) Two-way voice communication is possible.
(3) It is possible to minimize the occurrence of freeze of received images and the occurrence of block noise even on a best effort line that does not guarantee the line bandwidth.
(4) As a backup in case of a line failure, a detachable memory capable of recording still images and holding data even when there is no power source is provided in the apparatus, and simple recording is possible.
(5) Images can be recorded by external alarm and scheduled capture.
(6) Still image distribution to mobile phones is possible.

本発明の主な機器構成の一実施例を図13に、本発明のネットワーク型監視システムの構成例を図2に示す。図13は、本発明の主な機器構成の一実施例を説明するための図である。また、図2は、本発明のネットワーク型監視システムの一実施例の構成を示すブロック図である。
映像配信系(サイト側)210 には、WEB エンコーダ 214 がある。WEB エンコーダ 214 は、電動雲台カメラ 211が接続されている。また、電動雲台カメラ 211 の他、図示しないが、アナログカメラや記録装置等の映像配信装置が接続可能である。また、WEB エンコーダを内蔵したネットワークカメラでも良い。
An example of the main equipment configuration of the present invention is shown in FIG. 13, and a configuration example of the network type monitoring system of the present invention is shown in FIG. FIG. 13 is a diagram for explaining an embodiment of the main device configuration of the present invention. FIG. 2 is a block diagram showing the configuration of an embodiment of the network type monitoring system of the present invention.
The video distribution system (site side) 210 has a web encoder 214. The web encoder 214 is connected to the electric pan head camera 211. In addition to the electric camera platform 211, although not shown, a video distribution device such as an analog camera or a recording device can be connected. A network camera with a built-in web encoder may also be used.

またWEB エンコーダ 214 には、マイク、スピーカ、及びアンプ部を少なくとも備えるマイク・スピーカ部 212 が結合され、映像表示系 230 側のマイク・スピーカ部 233 と結合され、映像配信系 210 側と映像表示系 230 側とは、ネットワーク回線 220 を介して双方向の音声通話を行う。
また、ネットワーク回線220 には、携帯電話 222 を結合することができるので、映像配信系 210 側と映像表示系 230 側は随時携帯電話 222 とも通話をすることができ、かつ映像配信系 210 側からの映像情報を携帯電話 222 配信することができる。配信する映像情報は、例えば、静止画像であるが、伝送能力に応じて、コマ落としの動画像等も可能である。
Further, the web encoder 214 is coupled with a microphone / speaker unit 212 having at least a microphone, a speaker, and an amplifier unit, and is coupled with a microphone / speaker unit 233 on the video display system 230 side, and the video distribution system 210 side and the video display system. A two-way voice call is made with the 230 side via the network line 220.
In addition, since the mobile phone 222 can be connected to the network line 220, the video distribution system 210 side and the video display system 230 side can talk to the mobile phone 222 at any time, and from the video distribution system 210 side. The video information can be distributed on the mobile phone 222. The video information to be distributed is, for example, a still image, but a frame-moving moving image or the like is also possible depending on the transmission capability.

映像表示系(監視側)230 には WEB デコーダ 232 とクライアント PC( Personal Computer )231 がある。WEB デコーダ 232 は、アナログの一般モニタでの表示や電源投入操作だけの簡単起動や常時モニタリングなどクライアント PC 231 より信頼性の要求される場合に用いる。クライアント PC 231 は監視画像をそれ自体のディスプレイに表示する。   The video display system (monitoring side) 230 includes a web decoder 232 and a client PC (personal computer) 231. The web decoder 232 is used when reliability is required from the client PC 231 such as display on an analog general monitor, simple start-up just by turning on the power, or continuous monitoring. The client PC 231 displays the monitoring image on its own display.

本発明の WEB エンコーダ 214 の構成と基本処理の一実施例を図3によって説明する。図3は、本発明の WEB エンコーダの構成を示すブロック図である。
図3において、WEB エンコーダ 214 は、圧縮処理を行うマルチコーデックボードユニット 300 と、圧縮データをネットワーク回線220 へ配信するネットワーク配信ボードユニット 350 で構成される。
An example of the configuration and basic processing of the WEB encoder 214 of the present invention will be described with reference to FIG. FIG. 3 is a block diagram showing the configuration of the WEB encoder of the present invention.
In FIG. 3, the web encoder 214 includes a multi-codec board unit 300 that performs compression processing and a network distribution board unit 350 that distributes compressed data to the network line 220.

マルチコーデックボードユニット 300 は、アナログ映像入力部 310 、アナログ音声入出力部 320 、マルチコーデック処理部 330 、圧縮データメモリ 340 で構成される。
アナログ映像入力部 310 では、電動雲台カメラ 211 からのアナログ映像信号を受信し、LPF(ローパスフィルタ)とアンプを経由後、A/D 変換部でデジタル映像信号に変換し、変換されたデジタル映像信号はフレームメモリに格納される。
The multi-codec board unit 300 includes an analog video input unit 310, an analog audio input / output unit 320, a multi-codec processing unit 330, and a compressed data memory 340.
The analog video input unit 310 receives an analog video signal from the motorized camera platform 211, passes through an LPF (low-pass filter) and an amplifier, and then converts it to a digital video signal at the A / D conversion unit. The signal is stored in the frame memory.

アナログ音声入出力部 320 は、マイク・スピーカ部 212 から出力されるアナログ音声信号をA/D 変換部でデジタル音声信号に変換し、マルチコーデック処理部 330 に出力する。また、ネットワーク回線 220 から受信した音声(双方向)にも対応する。
マルチコーデック処理部 330 では、画像取込み変換部でアナログ映像入力部 310 のフレームメモリからデジタル映像信号を読み出し、アナログ音声入出力部 320 からデジタル音声信号を受信し、MPEG-4 と JPEG 、及び音声信号の同時圧縮処理を行う。即ち、画像取込み変換部からの映像信号は MPEG-4 圧縮部と JPEG 圧縮部とでそれぞれ圧縮され、それぞれ、圧縮データメモリ 340 に出力される。また、音声信号は音声圧縮部で圧縮され、圧縮データメモリ 340 に出力される。
圧縮データメモリ 340 は、圧縮後の圧縮データを格納する。
The analog audio input / output unit 320 converts the analog audio signal output from the microphone / speaker unit 212 into a digital audio signal by the A / D conversion unit, and outputs the digital audio signal to the multi-codec processing unit 330. It also supports voice (two-way) received from the network line 220.
In the multi-codec processing unit 330, the image capturing / conversion unit reads the digital video signal from the frame memory of the analog video input unit 310, receives the digital audio signal from the analog audio input / output unit 320, MPEG-4, JPEG, and audio signal Simultaneous compression processing is performed. That is, the video signal from the image capture conversion unit is compressed by the MPEG-4 compression unit and the JPEG compression unit, respectively, and output to the compressed data memory 340, respectively. The audio signal is compressed by the audio compression unit and output to the compressed data memory 340.
The compressed data memory 340 stores the compressed data after compression.

ネットワーク配信ボードユニット 350 は、プロトコル処理部 351 とメモリ制御部 352 とで構成される。
プロトコル処理部 351 は、マルチコーデックボードユニット 300 の圧縮データメモリ 340 から各圧縮データを読み出し、ネットワークプロトコルによりネットワーク回線 220 に配信する。
メモリ制御部 352 は、センサーなどのアラーム信号等で JPEG を着脱可能なメモリ 353 に書込む処理を行う。
The network distribution board unit 350 includes a protocol processing unit 351 and a memory control unit 352.
The protocol processing unit 351 reads each compressed data from the compressed data memory 340 of the multi-codec board unit 300, and distributes it to the network line 220 by a network protocol.
The memory control unit 352 performs processing of writing JPEG into the removable memory 353 by an alarm signal from a sensor or the like.

本発明の WEB エンコーダの一実施例の仕様を図14に示す。以下、動画像伝送に適した MPEG-4 と、静止画像記録に適したJPEG の両形式による映像同時配信に関して、(1)ソフトウェアの最適化、及び(2)適応シェーピング機能の実現について説明する。   The specifications of one embodiment of the WEB encoder of the present invention are shown in FIG. The following describes (1) software optimization and (2) implementation of an adaptive shaping function for simultaneous video distribution in both MPEG-4 format suitable for moving image transmission and JPEG format suitable for still image recording.

(1)ソフトウェアの最適化
WEB エンコーダの特長である MPEG-4 、JPEG 、音声の圧縮処理を同時実行するマルチスク処理の最適化を行う。
マルチコーデックボードユニット(以後、コーデックボードと称す)は、DSP のソフトウェア処理により映像及び音声の圧縮処理を行い、外部に接続したネットワーク配信ボードユニット(以後、配信ボードと称す)に圧縮データを出力する。
(1) Software optimization
Optimizes multi-sk processing that simultaneously executes MPEG-4, JPEG, and audio compression processing, which is a feature of WEB encoders.
The multi-codec board unit (hereinafter referred to as codec board) performs video and audio compression processing by DSP software processing and outputs compressed data to an externally connected network distribution board unit (hereinafter referred to as distribution board) .

組み込み用途である DSP は PC で使用されるプロセッサに比べ、サイズが小さく、また使用部品点数を削減できるため機器内蔵に適しているが、処理能力が低くなる。
このような処理能力の低い DSP で効率よく複数の圧縮処理を実行するために、マルチコーデック用ソフトウェアのマルチタスク構成を用いる。その構成を図4によって説明する。図4は本発明のマルチタスク構成のコーデックボードのソフトウェア処理の一実施例の概要を説明するための模式図である。
The DSP for embedded use is smaller than the processor used on a PC and is suitable for built-in equipment because it can reduce the number of parts used, but the processing power is low.
In order to efficiently execute a plurality of compression processes with such a low-processing DSP, a multi-task configuration of multi-codec software is used. The configuration will be described with reference to FIG. FIG. 4 is a schematic diagram for explaining an outline of an embodiment of the software processing of the codec board having the multitask configuration of the present invention.

各タスクを実行する優先順位のつけ方において、基本的なつけ方は、圧縮データ出力処理側の優先度を高くすることである。これにより、タスク間のバッファにデータが蓄積されること無く、遅延時間を最小にすることができる。また、各圧縮方式の優先度は高いものから、音声圧縮、JPEG 圧縮、MPEG-4 圧縮の順にする。音声の圧縮処理時間は、30 ミリ秒( msec )相当の音声データの処理に対し 1 msec 程度と、JPEG 圧縮や MPEG-4 圧縮等の画像圧縮処理に比べ短いので、最優先で処理を行う。また、JPEG 圧縮は記録に使用するため、画像のフレーム抜けが許されない。したがって、音声の次に優先度を高くする。通常は全ての圧縮処理は必要な時間内に完了するが、複雑な画像の入力が続き MPEG-4 形式の圧縮処理時間が増大して、DSP の処理時間が不足した場合は、MPEG-4 の圧縮処理は後回しにし、一時的なフレーム抜けを許容する。
更に、画像取り込み変換処理の優先度を、JPEG や MPEG-4 関係の処理よりも上げ、取り込む画像データが欠落しないようにする。
以上のような基本的な考えにより、最終的なタスク優先度を決定した。
In setting priorities for executing each task, the basic method is to increase the priority on the compressed data output processing side. Thereby, the delay time can be minimized without accumulating data in the buffer between tasks. Also, from the highest priority of each compression method, audio compression, JPEG compression, and MPEG-4 compression are performed in this order. The audio compression processing time is about 1 msec for audio data processing equivalent to 30 milliseconds (msec), which is shorter than image compression processing such as JPEG compression and MPEG-4 compression. Also, since JPEG compression is used for recording, missing frames in the image are not allowed. Therefore, the priority is set next to the voice. Normally, all the compression processing is completed within the required time. However, if complicated image input continues and MPEG-4 format compression processing time increases and DSP processing time is insufficient, MPEG-4 The compression process is postponed to allow temporary frame loss.
Furthermore, the priority of the image capture conversion process is set higher than the JPEG and MPEG-4 related processes so that the captured image data is not lost.
Based on the above basic idea, the final task priority was determined.

以上が本発明のマルチタスク構成の一実施例であるが、MPEG-4 形式の圧縮処理時間の増大による処理量不足に対し対策した部分について更に詳細に述べる。
画像データ取り込み変換処理は、例えば、外部から 33 msec 間隔で入力される画像データ( 30 fps )を取り込む必要がある。しかし、入力画像の複雑さによる MPEG-4 圧縮処理時間の変動で、次の画像データ取り込み変換処理が開始できずに画像データが欠落することが発生する場合がある。
The above is one embodiment of the multi-task configuration of the present invention, but the part that has taken measures against the shortage of processing amount due to the increase in the compression processing time of the MPEG-4 format will be described in more detail.
In the image data capture conversion process, for example, it is necessary to capture image data (30 fps) input from the outside at intervals of 33 msec. However, the MPEG-4 compression processing time varies depending on the complexity of the input image, so that the next image data capture conversion process may not be started and image data may be lost.

図15に、実験により測定したタスク処理時間を取得し、画像データの複雑さとタスク処理時間の関係について表したものを示す。
図15(a) は、道路監視画像と ITU-R 評価画像である Diva with Noise の処理時間との関係を表し、図15(b) は道路監視画像、図15(c) は ITU-R 評価画像を示す。
FIG. 15 shows the relationship between the complexity of the image data and the task processing time obtained by acquiring the task processing time measured by the experiment.
Fig. 15 (a) shows the relationship between the road monitoring image and the processing time of Diva with Noise, which is the ITU-R evaluation image, Fig. 15 (b) is the road monitoring image, and Fig. 15 (c) is the ITU-R evaluation. Images are shown.

道路監視画像は、MPEG-4 形式と JPEG 形式の圧縮処理を同時に実行した場合、1フレーム期間の 33 msec 以内に処理が完了する。しかし、ITU-R 評価画像である Diva with Noise では、圧縮処理を同時に実行すると、33 msec 以内に処理が終わらない。このため、フレーム抜けが発生する。   The road surveillance image will be processed within 33 msec of one frame period when MPEG-4 format and JPEG format compression are executed simultaneously. However, Diva with Noise, which is an ITU-R evaluation image, does not finish within 33 msec when compression processing is executed simultaneously. For this reason, frame loss occurs.

この画像データ欠落について、その詳細を図5を用いて説明する。図5は、本発明の WEB エンコーダの一実施例の構成を示すブロック図である。
MPEG-4 と JPEG の処理タスクは、各々画像取り込み変換処理部と圧縮処理部が共通のタスクである。
MPEG-4 画像取り込み変換処理は、画像データを取り込み、画像サイズ変換などのフィルタ処理を実行する。また、MPEG-4 圧縮処理部は、画像データを圧縮し出力する。図5の割り込み処理・DMA 転送部の出力( OUT )は、Vsync 入力をトリガとする DMA 転送による画像データ転送である。この処理は、33 msec 周期の一定間隔で行われる。よって、DMA 転送が行われてから 33 msec 以内に画像データを読み出さないと、次の画像データで上書きされてしまう。
The details of the image data loss will be described with reference to FIG. FIG. 5 is a block diagram showing the configuration of an embodiment of the WEB encoder of the present invention.
The MPEG-4 and JPEG processing tasks are common to the image capture conversion processing unit and the compression processing unit, respectively.
The MPEG-4 image capture conversion processing captures image data and executes filter processing such as image size conversion. The MPEG-4 compression processing unit compresses and outputs the image data. The output (OUT) of the interrupt processing / DMA transfer unit in FIG. 5 is image data transfer by DMA transfer triggered by Vsync input. This process is performed at regular intervals of 33 msec period. Therefore, if the image data is not read within 33 msec after the DMA transfer, the next image data will be overwritten.

MPEG-4 画像取り込み変換処理部と MPEG-4 圧縮処理部は同一タスクであるので、2つはシーケンシャルに実行される。このため、圧縮処理時間が増加すると画像データの取り込みができず、フレーム抜けになる問題がある。
また、JPEG 処理タスクも上記の MPEG-4 処理タスクと同様の構成である。
ここで、処理時間の内訳は、例えば、図16に示すようになる。
Since the MPEG-4 image capture conversion processor and the MPEG-4 compression processor are the same task, the two are executed sequentially. For this reason, when the compression processing time increases, there is a problem that image data cannot be captured and a frame is lost.
The JPEG processing task has the same configuration as the above MPEG-4 processing task.
Here, the breakdown of the processing time is as shown in FIG. 16, for example.

図16に示すように、MPEG-4 と JPEG の画像取り込み変換処理は、画像の複雑さによらず一定である。MPEG-4 と JPEG で画像取り込み変換処理時間に違いがあるのは、図14の WEB エンコーダの仕様にあるように、MPEG-4 と JPEGで画像サイズが異なり、処理内容に違いがあるためである。
よって、フレーム抜けが発生するのは、画像取り込み変換処理が 33 msec の一定周期で実行できないためであり、原因は MPEG-4 圧縮処理時間が画像の複雑さにより増加するためである。一方、画像取り込み変換処理時間は画像の複雑さに影響されない。
As shown in FIG. 16, the MPEG-4 and JPEG image capture conversion processing is constant regardless of the complexity of the image. The difference in the image capture and conversion processing time between MPEG-4 and JPEG is because the image size is different between MPEG-4 and JPEG and the processing contents are different, as shown in the web encoder specification in Fig. 14. .
Therefore, frame loss occurs because the image capture conversion process cannot be executed at a fixed period of 33 msec, and the cause is that the MPEG-4 compression processing time increases due to the complexity of the image. On the other hand, the image capture conversion processing time is not affected by the complexity of the image.

MPEG-4 圧縮処理時間の増加で他の圧縮処理時間が不足し、JPEG のフレーム抜けが発生するときの動作を、図6のタイムチャートで説明する。横軸は、時刻の経過を示す。
(a) は、Vsync 信号が入力されるタイミングを示す図で、描かれている下矢印は、Vsync 信号の Vsync A 、Vsync B 、Vsync C 、Vsync D 、Vsync E が入力されるタイミングを示す。(b) は、フレームメモリ画像が格納されているタイミングを示す図で、枠で囲ったところがそれぞれ、Vsync 信号の Vsync A 、Vsync B 、Vsync C 、Vsync D 、Vsync E のトリガーによって、フレームメモリ画像 MA 、MB 、MC 、MD 、ME をそれぞれ格納している部分である。(c) は、MPEG-4 処理タスクが実行されているタイミングを示す図で、枠で囲った MPA 、MPB 、MPC 、MPD のところがそれぞれ、対応するフレームメモリ画像 MA 、MB 、MC 、MD を MPEG-4 形式のコーデックを実行しているタイミング部分である。(d) は、JPEG 処理タスクが実行されているタイミングを示す図で、枠で囲った JPB 、JPC のところがそれぞれ、対応するフレームメモリ画像 MB 、MC を JPEG 形式のコーデックを実行しているタイミング部分である。
The operation when an increase in MPEG-4 compression processing time causes other compression processing time to be insufficient and a JPEG frame loss occurs will be described with reference to the time chart of FIG. The horizontal axis shows the passage of time.
(a) is a diagram showing the timing at which the Vsync signal is input, and the drawn down arrows indicate the timing at which the Vsync signals Vsync A, Vsync B, Vsync C, Vsync D, and Vsync E are input. (b) shows the timing at which the frame memory image is stored, and the framed images are shown by the Vsync A, Vsync B, Vsync C, Vsync D, and Vsync E triggers of the Vsync signal, respectively. It is a part storing MA, MB, MC, MD, and ME, respectively. (c) shows the timing when the MPEG-4 processing task is executed. MPA, MPB, MPC, and MPD surrounded by a frame are the corresponding frame memory images MA, MB, MC, and MD, respectively. This is the timing part of executing a -4 format codec. (d) shows the timing when the JPEG processing task is executed. JPB and JPC surrounded by a frame are the timing parts where the corresponding frame memory images MB and MC are executed with the JPEG codec, respectively. It is.

図5と図6において、Vsync B が入力され、画像データがフレームメモリ画像に 画像データ MB として格納される。それによりMPEG-4 処理タスク MPB が実行される。ここで、次は JPEG 処理タスクが実行されるのだが、フレームメモリ画像 MB の画像が複雑で MPEG-4 処理タスク MPB の処理時間が増加すると、JPEG 処理タスク中にフレームメモリの画像データ MB が、画像データ MC に上書きされ、フレームメモリ画像 MB の JPEG 圧縮処理ができない。このため、JPEG のフレーム抜けが発生する。   5 and 6, Vsync B is input, and the image data is stored as image data MB in the frame memory image. As a result, the MPEG-4 processing task MPB is executed. Here, the JPEG processing task is executed next, but if the image of the frame memory image MB is complex and the processing time of the MPEG-4 processing task MPB increases, the image data MB of the frame memory is changed during the JPEG processing task. The image data MC is overwritten and JPEG compression of the frame memory image MB cannot be performed. For this reason, JPEG frame loss occurs.

そこで、画像データ取り込み処理を優先度の高いタスクとして独立させる。また、Vsync 入力間隔である 33 msec の一定間隔の画像取り込み変換処理と、処理時間が変動する圧縮処理をキューで接続する。この画像取り込み変換処理を独立させたタスク構成図を図7に示す。   Therefore, the image data capturing process is made independent as a high priority task. In addition, an image capture conversion process at a fixed interval of 33 msec, which is the Vsync input interval, and a compression process whose processing time varies are connected in a queue. FIG. 7 shows a task configuration diagram in which this image capture conversion processing is made independent.

図7は、本発明の他の実施例の画像取り込み変換処理を独立させたタスク構成を示す図である。
図7に示すように、画像取り込み変換処理を1つのタスクとして独立させることで圧縮処理による時間変動を吸収しフレーム抜けを防止できる。
また、変動時間を吸収するためのキューを画像取り込み変換処理と圧縮処理の間に置くことで、画像取り込み変換処理により画像サイズが変更された 320 × 240 画素などの縮小画像を格納する際のメモリ使用効率を向上させた。
このように、タスクの切り換えを Vsync をトリガとし、画像取り込み変換処理を 33 msec 間隔で実行することで、フレーム抜けを防止する。
FIG. 7 is a diagram showing a task configuration in which image capture conversion processing according to another embodiment of the present invention is made independent.
As shown in FIG. 7, by making the image capture conversion processing independent as one task, it is possible to absorb temporal fluctuations caused by the compression processing and prevent frame loss.
Also, by placing a queue for absorbing the fluctuation time between the image capture conversion process and the compression process, memory for storing reduced images such as 320 × 240 pixels whose image size has been changed by the image capture conversion process Improved usage efficiency.
In this way, task switching is triggered by Vsync and image capture conversion processing is executed at 33 msec intervals to prevent missing frames.

更に、タスク処理の切り換えについて最適化を行う実施例を説明する。
JPEG は、記録用でフレーム抜けが許されない。一方、動画像監視に用いる MPEG-4 は、高フレームレートのため、一時的なフレーム抜けが発生しても監視対象の把握に影響が少ない。そこで、JPEG 圧縮処理のタスク優先度をMPEG-4 より高くし、MPEG-4 圧縮処理中でも画像データ入力時にタスクを切り替え実行することにより、JPEG のフレーム抜けを防止した。
Furthermore, an embodiment for optimizing task processing switching will be described.
JPEG is used for recording and missing frames are not allowed. On the other hand, MPEG-4 used for moving image monitoring has a high frame rate, so even if a temporary frame loss occurs, there is little influence on grasping the monitoring target. Therefore, JPEG compression processing task priority is set higher than MPEG-4, and JPEG frame loss is prevented by switching tasks when inputting image data even during MPEG-4 compression processing.

その動作を、JPEG と MPEG-4 について、図8のタイムチャートで説明する。図8は、画像データ入力時のタスク切り替えによる動作を説明するための図である。横軸は、時刻の経過を示す。
(a) は、Vsync 信号が入力されるタイミングを示す図で、描かれている下矢印は、Vsync 信号の Vsync A 、Vsync B 、Vsync C 、Vsync D 、Vsync E が入力されるタイミングを示す。(b) は、フレームメモリ画像が格納されているタイミングを示す図で、枠で囲ったところがそれぞれ、Vsync 信号の Vsync A 、Vsync B 、Vsync C 、Vsync D 、Vsync E のトリガーによって、フレームメモリ画像 MA 、MB 、MC 、MD 、ME をそれぞれ格納している部分である。(c) は、JPEG 画像の取り込み処理が実行されているタイミングを示す図で、枠で囲った JWA のところが、対応するフレームメモリ画像 MA を取り込んでいる。(d) は、MPEG-4 画像の取り込み処理が実行されているタイミングを示す図で、枠で囲った MWA 、MWB 、MWC 、MWD のところが、対応するフレームメモリ画像 MA 、MB 、MC 、MD を取り込んでいる。
(e) は、JPEG 処理タスクが実行されているタイミングを示す図で、枠で囲った JDA のところが、対応するフレームメモリ画像 MA を JPEG 形式のコーデックを実行しているタイミング部分である。(f) は、MPEG-4 処理タスクが実行されているタイミングを示す図で、枠で囲った MDA 、MDB 、MDC 、MDD のところがそれぞれ、対応するフレームメモリ画像 MA 、MB 、MC 、MD を MPEG-4 形式のコーデックを実行しているタイミング部分である。
The operation will be described with reference to the time chart of FIG. 8 for JPEG and MPEG-4. FIG. 8 is a diagram for explaining an operation by task switching when image data is input. The horizontal axis shows the passage of time.
(a) is a diagram showing the timing at which the Vsync signal is input, and the drawn down arrows indicate the timing at which the Vsync signals Vsync A, Vsync B, Vsync C, Vsync D, and Vsync E are input. (b) shows the timing at which the frame memory image is stored, and the framed images are shown by the Vsync A, Vsync B, Vsync C, Vsync D, and Vsync E triggers of the Vsync signal, respectively. It is a part storing MA, MB, MC, MD, and ME, respectively. (c) shows the timing when JPEG image capture processing is executed. The frame memory image MA is captured at the JWA box surrounded by a frame. (d) shows the timing when the MPEG-4 image capture processing is executed. The MWA, MWB, MWC, and MWD enclosed in a frame are the corresponding frame memory images MA, MB, MC, and MD. It is taken in.
(e) shows the timing when the JPEG processing task is executed. The JDA framed by the frame is the timing part when the corresponding frame memory image MA is executed by the JPEG codec. (f) shows the timing at which the MPEG-4 processing task is executed. The MDA, MDB, MDC, and MDD enclosed in a frame are the corresponding frame memory images MA, MB, MC, and MD, respectively. This is the timing part of executing a -4 format codec.

図7と図8において、フレームメモリ画像 MA に対する JPEG 画像データ取り込み変換処理 JWA と MPEG-4 画像データ取り込み変換処理 MWA を実行後、優先度が高い JPEG 圧縮処理 JDA を実行する、次に、MPEG-4 圧縮処理 MDA を実行する。   7 and 8, JPEG image data import / conversion processing JWA and MPEG-4 image data import / conversion processing MWA for frame memory image MA are executed, then JPEG compression processing JDA with high priority is executed, then MPEG- 4 Execute compression processing MDA.

図5、図6と同様に、この時に入力された画像が複雑で MPEG-4 の圧縮処理時間が増加したとする。フレームメモリ画像 MB が画像取り込み変換処理部に入力されると、全ての処理を中断し、タスク切り替えにより優先順位が高い処理を実行する。
この場合、MPEG-4 画像取り込み変換処理 MWB の優先順位が高いので、MPEG-4 圧縮処理 MDA は中断され、フレームメモリ画像 MB に対する画像取り込み変換処理 MWB が実行される。その後、残りの時間で MPEG-4 圧縮処理 MDA の続きが行われる。取り込んだ画像データはキューに格納され、MPEG-4 圧縮処理 MDA が終了後、フレームメモリ画像 MB の圧縮処理が実行される。
As in FIG. 5 and FIG. 6, it is assumed that the image input at this time is complicated and the MPEG-4 compression processing time has increased. When the frame memory image MB is input to the image capture conversion processing unit, all processing is interrupted and processing with higher priority is executed by task switching.
In this case, since the priority order of the MPEG-4 image capture conversion processing MWB is high, the MPEG-4 compression processing MDA is interrupted, and the image capture conversion processing MWB for the frame memory image MB is executed. After that, MPEG-4 compression processing MDA is continued in the remaining time. The captured image data is stored in a queue, and after the MPEG-4 compression process MDA is completed, the frame memory image MB is compressed.

このように、タスクの切り換えを Vsync によるフレームメモリ画像の入力をトリガとし、画像取り込み変換処理を 33 msec 間隔で実行、かつ JPEG の処理を優先的に実行することで JPEG 画像のフレーム抜けを防止することができる。   In this way, task switching is triggered by the input of frame memory images via Vsync, image capture conversion processing is executed at 33 msec intervals, and JPEG processing is performed preferentially to prevent missing frames in JPEG images. be able to.

本発明のマルチコーデックの仕様に従った設定における各タスクの処理時間の一実施例を図17に示す。入力画像は、MPEG-4 の圧縮処理時間が極端に増大する複雑な画像である「Diva with Noise」を選んだ。1秒あたりの合計処理時間は 884.7 msec で、処理時間の余裕度は 12 %である。   FIG. 17 shows an example of the processing time of each task in the setting according to the multi-codec specification of the present invention. For the input image, we selected “Diva with Noise”, which is a complex image in which the MPEG-4 compression processing time increases extremely. The total processing time per second is 884.7 msec, and the margin of processing time is 12%.

次に、(2)適応シェーピング機能の実現
適応シェーピング機能の実現とは、ネットワーク回線帯域の変動に適応した映像配信及び配信レートの制御を行うことである。
Next, (2) Realization of the adaptive shaping function Realization of the adaptive shaping function is to perform video distribution and distribution rate control adapted to fluctuations in the network line bandwidth.

WEB エンコーダは、インターネット、イントラネット、専用回線などのあらゆる IP ネットワーク回線で映像(画像)を配信することが可能である。しかし、ストリーム(圧縮データ)配信を行った場合、WEB デコーダ側で画像のフレーム抜けが生じることがある。これは、MPEG-4 圧縮データのストリームは、各フレーム毎の圧縮データ量が変動し、平均レートは回線帯域内であっても、時間方向でバースト的にデータ量が大きく変動するため、回線帯域を一時的にオーバーする。   The WEB encoder can distribute video (images) over all IP network lines such as the Internet, intranet, and dedicated lines. However, when stream (compressed data) distribution is performed, frame loss may occur on the WEB decoder side. This is because the MPEG-4 compressed data stream fluctuates in the amount of compressed data for each frame, and even if the average rate is within the line bandwidth, the data amount greatly fluctuates in a burst direction in the time direction. Is temporarily exceeded.

このデータのバースト性は、平均レートが回線帯域内であっても、データ量が大きくなったときに回線帯域を超えてしまうことがある。そのため、ストリームデータを伝送しきれず、UDP パケットでは、パケットロスの原因になり、デコーダでは表示画像の崩れとなる。
この対策として、本発明では、図9に示すような一般にシェーピングと呼ばれる伝送方法を使用する。図9は、本発明のシェーピングによるストリーム伝送の一実施例を説明するための図である。
Even if the average rate is within the line bandwidth, the burstiness of the data may exceed the line bandwidth when the amount of data increases. As a result, stream data cannot be transmitted, UDP packets cause packet loss, and the decoder causes display image corruption.
As a countermeasure, the present invention uses a transmission method generally called shaping as shown in FIG. FIG. 9 is a diagram for explaining an embodiment of stream transmission by shaping according to the present invention.

図9に示すように、シェーピングは、バースト的なデータのパケット出力間隔を調整することで、時間軸方向で一定にし、回線でのパケットロスを防ぐ方法である。しかし、シェーピングの課題として、インターネットやイントラネットといった回線帯域が変動するベストエフォート型の回線では、平均レートが保証される回線帯域内であっても、一時的に回線帯域が伝送すべきデータ量を下回ることがありパケットロスが発生する。よってベストエフォート回線で使用する場合、シェーピングを行ってもパケットロスによる画像崩れが発生する。
そこで、本発明では、適応シェーピングを行う。この適応シェーピング機能は、ベストエフォート回線の帯域状況を検出し、ダイナミックに映像の配信レートを制御する機能である。本発明の適応シェーピング機能の一実施例の概要について図10を用いて説明する。
As shown in FIG. 9, shaping is a method for preventing packet loss on the line by adjusting the packet output interval of bursty data to make it constant in the time axis direction. However, as a shaping issue, in the best effort type line such as the Internet or an intranet where the line band fluctuates, the line band temporarily falls below the amount of data to be transmitted even within the line band where the average rate is guaranteed. Sometimes packet loss occurs. Therefore, when used on a best effort line, image corruption occurs due to packet loss even if shaping is performed.
Therefore, in the present invention, adaptive shaping is performed. This adaptive shaping function is a function that detects the bandwidth state of the best effort line and dynamically controls the video distribution rate. An outline of an embodiment of the adaptive shaping function of the present invention will be described with reference to FIG.

図10は、本発明の適応シェーピング機能の一実施例の概要を説明するための図である。
T2 秒間に1つのパケットしか通過できない状態のベストエフォート回線に対し、WEB エンコーダが T1 秒( T1 = T2 ÷ 2 )間隔でパケットを配信した場合、配信したパケットの半分のパケットが回線内で破棄され、WEB デコーダへ到着する。
そこで、WEB デコーダは、受信パケットがパケット毎に付けられたシーケンス番号に従い、到着していないパケットがあるか無いかを検出する。
FIG. 10 is a diagram for explaining the outline of an embodiment of the adaptive shaping function of the present invention.
When a web encoder delivers packets at T1 second (T1 = T2 ÷ 2) intervals for a best effort line that can only pass one packet per T2 seconds, half of the delivered packets are discarded within the line. To the web decoder.
Therefore, the WEB decoder detects whether there is a packet that has not arrived according to the sequence number assigned to each received packet.

到着していないパケットを検出した場合、WEB デコーダは、WEB エンコーダへパケットロス情報を通知する。これにより、WEB エンコーダは、WEB デコーダへ送ったパケットが正しく届いていないことを検出できる。WEB エンコーダは、その情報をもとにパケットの配信間隔を T1 秒から T2 秒に調整することで、WEB デコーダは配信された全てのパケットを受信することができる。   When detecting a packet that has not arrived, the WEB decoder notifies the WEB encoder of packet loss information. As a result, the WEB encoder can detect that the packet sent to the WEB decoder has not arrived correctly. The WEB encoder adjusts the packet distribution interval from T1 seconds to T2 seconds based on this information, so that the WEB decoder can receive all the distributed packets.

次にパケット配信間隔の調整方法について、図11を用いて説明する。
図11は、本発明のパケット配信間隔の調整方法による MPEG-4 ストリームの一実施例の状態を説明するための図である。
図11では、WEB エンコーダはエンコード処理後、ストリームをリングバッファに順次書込む。リングバッファが一周すると順次古いストリームは上書きされる。
Next, a method for adjusting the packet delivery interval will be described with reference to FIG.
FIG. 11 is a diagram for explaining the state of an embodiment of an MPEG-4 stream according to the packet delivery interval adjustment method of the present invention.
In FIG. 11, the WEB encoder sequentially writes the stream to the ring buffer after the encoding process. As the ring buffer goes around, older streams are overwritten sequentially.

書き込み単位は、MPEG-4 ストリームの VOP( Video Object Plane)単位である。VOP とは、MPEG-4 ストリームで1フレーム画像を表しており、基準画像 I−VOP( Intra - Video Object Plane )と差分画像 P-VOP( Predictive - Video Object Plane )の2種類がある。基準画像 I-VOP は、このデータだけで1フレームの画像をデコードすることができる。また、差分画像 P-VOP は、前回画像の情報との差分データであり、このデータだけでは正しくデコードできない。   The writing unit is MPEG-4 stream VOP (Video Object Plane) unit. The VOP represents one frame image in the MPEG-4 stream, and there are two types of reference image I-VOP (Intra-Video Object Plane) and difference image P-VOP (Predictive-Video Object Plane). The reference image I-VOP can decode an image of one frame only with this data. In addition, the difference image P-VOP is difference data with the information of the previous image, and this data alone cannot be decoded correctly.

図11は、MPEG-4 ストリームを表しており、1つの正方形が1つのフレームを表している。I と書かれている正方形がI-VOP 、P と書かれている正方形が P-VOP を表している。
奥から手前へと時間軸が進んでおり、一番手前が一番新しいフレームとなる。図11中の点線のフレームは、ロストフレームを表している。このロストフレーム以降の P-VOP 差分データから正常にデコードできず崩れた画像になり、次の I-VOP までのフレーム全てが正しく表示できない。
FIG. 11 represents an MPEG-4 stream, and one square represents one frame. The square written I represents I-VOP, and the square written P represents P-VOP.
The time axis advances from the back to the front, and the front is the newest frame. A dotted frame in FIG. 11 represents a lost frame. The P-VOP difference data after this lost frame cannot be correctly decoded and the image becomes corrupted, and all frames up to the next I-VOP cannot be displayed correctly.

しかし、I-VOP 直前の P-VOP は、ロストフレームとなっても他のフレームに影響を及ばさない。この特徴を利用して、回線帯域の変動で送りきれなかったデータを廃棄する時、I-VOP 直前のフレームから順に破棄することで、崩れた画像の配信を防いでいる。
このように、WEB エンコーダでは、回線帯域の変動に適応した配信データレートに制御する適応シェーピングを行い、パケットロスが発生した後、WEB デコーダ受信映像の画像崩れを最小限に抑えることができる。
However, the P-VOP immediately before the I-VOP does not affect other frames even if it becomes a lost frame. Utilizing this feature, when discarding data that could not be sent due to fluctuations in the line bandwidth, discarding the image from the frame immediately before the I-VOP prevents the delivery of corrupted images.
In this way, the WEB encoder performs adaptive shaping to control the distribution data rate adapted to the fluctuation of the line bandwidth, and after the packet loss occurs, it is possible to minimize image corruption of the WEB decoder received video.

本発明による WEB エンコーダと WEB デコーダの外観の一実施例を図12に示す。名刺サイズのマルチコーデックボードが、WEB エンコーダ、WEB デコーダそれぞれに実装されている。   An example of the appearance of the WEB encoder and WEB decoder according to the present invention is shown in FIG. A business card size multi-codec board is installed in each of the WEB encoder and WEB decoder.

以上述べたように、本発明によれば、ソフトウェアの最適化により、処理能力の限られた DSP で効率的な MPEG-4 、JPEG 、及び音声の同時圧縮処理をリアルタイムで実行するマルチコーデックと適応シェーピング機能を実現し、これにより、回線帯域が変動するベストエフォート回線でも、画像の崩れを最小限に抑える映像配信が可能となる。   As described above, according to the present invention, by software optimization, a multi-codec that can efficiently perform simultaneous MPEG-4, JPEG, and audio compression processing on a DSP with limited processing capability in real time is applied. By implementing a shaping function, video distribution that minimizes image collapse is possible even on a best-effort line where the line bandwidth varies.

上記実施例では、 MPEG-4 、JPEG 、及び音声のコーデックについてのべた。しかし、圧縮の形式やその数、ならびにそれらの組み合わせは、上記実施例に限らない。更に、上記システムにおいて、暗号化、マルチストリーム配信、または画像認識機能の少なくとも1つを組み合わせたソフトウェアコーデックや、更に高効率な H.264 コーデックを採用しても良い。   In the above embodiments, MPEG-4, JPEG, and audio codecs have been described. However, the compression format, the number thereof, and the combination thereof are not limited to the above embodiments. Further, in the above system, a software codec that combines at least one of encryption, multi-stream distribution, or image recognition functions, and a more efficient H.264 standard. A H.264 codec may be used.

本発明の一実施例のネットワーク型監視システムの構成を示すブロック図。The block diagram which shows the structure of the network type monitoring system of one Example of this invention. 本発明のネットワーク型監視システムの一実施例の構成を示すブロック図。The block diagram which shows the structure of one Example of the network type monitoring system of this invention. 本発明の WEB エンコーダの一実施例の構成を示すブロック図。The block diagram which shows the structure of one Example of the WEB encoder of this invention. 本発明のマルチタスク構成のコーデックボードのソフトウェア処理の一実施例の概要を説明するための模式図。The schematic diagram for demonstrating the outline | summary of one Example of the software processing of the codec board of the multitask structure of this invention. 本発明の WEB エンコーダの一実施例の構成を示すブロック図。The block diagram which shows the structure of one Example of the WEB encoder of this invention. 本発明の一実施例を説明するためのタイムチャート。The time chart for demonstrating one Example of this invention. 本発明の WEB エンコーダの一実施例の構成を示すブロック図。The block diagram which shows the structure of one Example of the WEB encoder of this invention. 本発明の一実施例を説明するためのタイムチャート。The time chart for demonstrating one Example of this invention. 本発明のシェーピングによるストリーム伝送の一実施例を説明するための図。The figure for demonstrating one Example of the stream transmission by shaping of this invention. 本発明の適応シェーピング機能の一実施例の概要を説明するための図。The figure for demonstrating the outline | summary of one Example of the adaptive shaping function of this invention. 本発明のパケット配信間隔の調整方法による MPEG-4 ストリームの一実施例の状態を説明するための図。The figure for demonstrating the state of one Example of the MPEG-4 stream by the adjustment method of the packet delivery interval of this invention. 本発明による WEB エンコーダと WEB デコーダの外観の一実施例を示す図。The figure which shows one Example of the external appearance of the WEB encoder and WEB decoder by this invention. 本発明の主な機器構成の一実施例を説明するための図。The figure for demonstrating one Example of the main apparatus structures of this invention. 本発明の WEB エンコーダの一実施例の仕様を示す図。The figure which shows the specification of one Example of the WEB encoder of this invention. 画像データの複雑さとタスク処理時間の関係について説明するための図。The figure for demonstrating the relationship between the complexity of image data, and task processing time. 画像データの複雑さとタスク処理時間の関係について説明するための図。The figure for demonstrating the relationship between the complexity of image data, and task processing time. 本発明のマルチコーデックの仕様に従った設定における各タスクの処理時間の一実施例を示す図。The figure which shows one Example of the processing time of each task in the setting according to the specification of the multi codec of this invention.

符号の説明Explanation of symbols

11:はカメラ、 12:マイク・スピーカ部、 14:WEB エンコーダ、 15:記録装置、 16:ネットワーク回線、 17:監視センタ、 210:映像配信系、 211:電動雲台カメラ、 212:マイク・スピーカ部、 214:WEBエンコーダ、 215:着脱可能なメモリ、 220:ネットワーク回線、 221:ブロードバンドネットワーク、 222:携帯電話、 230:映像表示系、 231:クライアントPC、 232:WEBデコーダ、 233:マイク・スピーカ部、 236:モニタ、 300:マルチコーデックボードユニット、 310:アナログ映像入力部、 320:アナログ音声入出力部、 330:マルチコーデック処理部、 340:圧縮データメモリ、 350:ネットワーク配信ボードユニット、 351:プロトコル処理部、 352:メモリ制御部。   11: Camera, 12: Microphone / speaker unit, 14: Web encoder, 15: Recording device, 16: Network line, 17: Monitoring center, 210: Video distribution system, 211: Electric pan head camera, 212: Microphone / speaker , 214: Web encoder, 215: Detachable memory, 220: Network line, 221: Broadband network, 222: Mobile phone, 230: Video display system, 231: Client PC, 232: Web decoder, 233: Microphone / speaker 236: Monitor, 300: Multi-codec board unit, 310: Analog video input unit, 320: Analog audio input / output unit, 330: Multi-codec processing unit, 340: Compression data memory, 350: Network distribution board unit, 351: Protocol processor, 352: Memory controller.

Claims (3)

配信するデータの種類に応じて優先度を設け、優先度に応じて配信要求されたデータに適した形式のコーデックを実行することを特徴とするエンコーダ。 An encoder characterized by providing a priority according to the type of data to be distributed and executing a codec in a format suitable for the data requested for distribution according to the priority. 配信するデータの種類に応じて優先度を設け、優先度に応じて配信要求されたデータに適した形式のコーデックを実行することを特徴とするコーデック方法。 A codec method characterized by providing a priority according to the type of data to be distributed and executing a codec in a format suitable for the data requested for distribution according to the priority. 配信するデータの種類に応じて優先度を設け、優先度に応じて配信要求されたデータに適した形式のコーデックを実行することを特徴とするネットワーク伝送システム。 A network transmission system characterized in that a priority is set according to the type of data to be distributed, and a codec in a format suitable for the data requested for distribution is executed according to the priority.
JP2005078195A 2005-03-17 2005-03-17 Encoder, codec method, and network transmission system Pending JP2006262205A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005078195A JP2006262205A (en) 2005-03-17 2005-03-17 Encoder, codec method, and network transmission system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005078195A JP2006262205A (en) 2005-03-17 2005-03-17 Encoder, codec method, and network transmission system

Publications (1)

Publication Number Publication Date
JP2006262205A true JP2006262205A (en) 2006-09-28

Family

ID=37100926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005078195A Pending JP2006262205A (en) 2005-03-17 2005-03-17 Encoder, codec method, and network transmission system

Country Status (1)

Country Link
JP (1) JP2006262205A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117481A1 (en) * 2019-12-09 2021-06-17 ソニーグループ株式会社 Data processing device, data processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117481A1 (en) * 2019-12-09 2021-06-17 ソニーグループ株式会社 Data processing device, data processing method, and program

Similar Documents

Publication Publication Date Title
US10009630B2 (en) System and method for encoding video content using virtual intra-frames
US8160129B2 (en) Image pickup apparatus and image distributing method
JP4153995B2 (en) Image decoding and encoding apparatus, image encoding apparatus and image decoding apparatus
US20090201949A1 (en) Information Processing Apparatus And Method, And Program
JP2008311831A (en) Moving image communication equipment, moving image communication system, and semiconductor integrated circuit for moving image communication
US9153127B2 (en) Video transmitting apparatus, video receiving apparatus, and video transmission system
JP2006508574A (en) Inserting I images upon request
US20070127437A1 (en) Medium signal transmission method, reception method, transmission/reception method, and device
US7558323B2 (en) Video data transmission method for changing transmission data amounts in accordance with a transmission speed and a transmission system therefor
JP4104577B2 (en) Image transmission apparatus, image transmission method, transmission system, and video surveillance system
US11410700B2 (en) Video playback buffer adjustment
JP2002262272A (en) Digital supervisory camera system and controller
JP2006262205A (en) Encoder, codec method, and network transmission system
KR100899666B1 (en) Dispersed multistreaming transmission apparatus
US20100037281A1 (en) Missing frame generation with time shifting and tonal adjustments
KR20060023418A (en) Network camera system with real-time pan/tilt/zoom control capability using hardware mpeg4 codec and v2oip
JP3883438B2 (en) Image transmission method and remote image monitoring system
JP2004349743A (en) Video stream switching system, method, and video image monitoring and video image distribution system including video stream switching system
KR20020070721A (en) Streaming device for moving picture
JP2003309847A (en) Image transmission method and image transmission apparatus
KR200370249Y1 (en) Network camera system with real-time pan/tilt/zoom control capability using hardware mpeg4 codec and v2oip
JP2003284044A (en) Remote control image monitoring system
KR20140072668A (en) Network camera server and method for processing video stream thereof
KR100352295B1 (en) The system for realtime transfering multimedia data
JP4196085B2 (en) Video signal encoding apparatus and video conference system using the same