JP3519722B2 - Data processing method and data processing device - Google Patents
Data processing method and data processing deviceInfo
- Publication number
- JP3519722B2 JP3519722B2 JP2002230040A JP2002230040A JP3519722B2 JP 3519722 B2 JP3519722 B2 JP 3519722B2 JP 2002230040 A JP2002230040 A JP 2002230040A JP 2002230040 A JP2002230040 A JP 2002230040A JP 3519722 B2 JP3519722 B2 JP 3519722B2
- Authority
- JP
- Japan
- Prior art keywords
- priority
- time
- data
- series data
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Communication Control (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、通信及び放送の分
野におけるデータ処理方法及びデータ処理装置に関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data processing method and a data processing device in the fields of communication and broadcasting.
【0002】[0002]
【従来の技術】従来より、自分が居る空間の風景の画像
中から、例えば人物画像を抽出し、その画像と相手側か
ら送られてきた人物画像と予め記憶されている相手側と
共通的に表示する仮想的な空間の画像と重畳して表示す
ることにより、相手が自分の前にいるという実在感を充
足し、臨場感のある映像通信を目指したものがある(特
公平4−24914号公報)。2. Description of the Related Art Conventionally, for example, a person image is extracted from an image of a landscape of a space where oneself is present, and the image and the person image sent from the other party are commonly used together with the other party stored in advance. By superimposing and displaying the image in the virtual space to be displayed, it is possible to satisfy the presence of the other person in front of the person and aim for a realistic image communication (Japanese Patent Publication No. 4-24914). Gazette).
【0003】特に、従来の技術では画像合成を行うため
の高速化、メモリーを低減する方法に関する発明が行わ
れている(例えば、特公平5−46592号公報:画像
合成装置)。In particular, in the prior art, an invention relating to a method for speeding up image synthesis and reducing memory has been made (for example, Japanese Examined Patent Publication No. 5-46592: Image synthesizer).
【0004】[0004]
【発明が解決しようとする課題】この様な従来の技術で
は、2次元の静止画や3次元のCGデータを合成する画
像合成を利用した通信システムが提案されていたが、複
数の動画や音声を同時に合成して表示させるシステムの
実現方法について、下記の観点からの具体的な議論が行
われていなかった。In such a conventional technique, there has been proposed a communication system utilizing image synthesis for synthesizing two-dimensional still images and three-dimensional CG data, but a plurality of moving images and voices have been proposed. There was no specific discussion from the following viewpoints on how to implement a system that simultaneously synthesizes and displays.
【0005】即ち、(A1)一つあるいは二つ以上の現
実の伝送路上においてソフト的に構築される複数の論理
的な伝送路を用いて、データと制御情報(データとは別
のパケットで伝送される、端末側の処理を制御するため
の情報)とが独立して伝送される環境下での画像や音声
の伝送(通信と放送)及び、その制御方法、(A2)送
信すべき画像や音声のデータに付加するヘッダ情報(本
発明のデータ管理情報に対応)の動的な変更方法、(A
3)送信のために付加するヘッダ情報(本発明の伝送管
理情報に対応)の動的な変更方法、(A4)複数の論理
的な伝送路を動的に多重化、分離して情報の伝送を行う
方法、(A5)プログラムやデータの読み込み、立ち上
げ時間を考慮した画像や音声の伝送方法、及び(A6)
ザッピングを考慮した画像や音声の伝送方法等の観点か
らの具体的な議論が行われていなかったという課題があ
った。That is, (A1) data and control information (data is transmitted in a packet different from data) by using a plurality of logical transmission lines constructed by software on one or more actual transmission lines. Information (information for controlling processing on the terminal side) which is transmitted independently, and transmission of images and voice (communication and broadcasting) under the environment, and its control method, (A2) images to be transmitted, A method of dynamically changing header information (corresponding to the data management information of the present invention) added to voice data, (A
3) A method of dynamically changing header information (corresponding to the transmission management information of the present invention) added for transmission, (A4) Dynamic multiplexing and separation of a plurality of logical transmission paths, and transmission of information Method, (A5) program and data reading, image and audio transmission method considering startup time, and (A6)
There was a problem that no specific discussion was made from the viewpoint of image and audio transmission methods that consider zapping.
【0006】一方、従来より、ネットワークへの伝送量
を動的に調整する方法としては、エンコードの方式を変
更する方式や、映像のフレームタイプに応じて、フレー
ム単位でデータを廃棄する方式が提案されている(秦泉
寺(じんぜんじ)浩史、田尻哲男、分散適応型VODシ
ステムの一検討、D−81、電子情報通信学会システム
ソサイエティ(1995))。On the other hand, conventionally, as a method of dynamically adjusting the transmission amount to the network, a method of changing the encoding method or a method of discarding data in frame units according to the frame type of video has been proposed. (Hiroshi Jinzenji, Tetsuo Tajiri, A Study on Distributed Adaptive VOD System, D-81, IEICE System Society (1995)).
【0007】エンコーダ側で処理量を調整する方式とし
ては、処理時間拘束のもとで画質の高い映像を提供でき
る動的演算量スケーラブルアルゴリズムが提案されてい
る(大迫 史典,矢島 由幸,小寺 博,渡辺 裕,島村
和典:動的演算量スケーラブルアルゴリズムによるソフ
トウェア画像符号化,電子情報通信学会論文誌 D−2,
Vol.80-D-2, No.2, pp.444-458(1997).)。As a method of adjusting the processing amount on the encoder side, a dynamic calculation amount scalable algorithm capable of providing a high-quality image under the processing time constraint has been proposed (Fuminori Ohsako, Yoshiyuki Yajima, Hiroshi Kodera, Yu Watanabe, Shimamura
Kazunori: Software Image Coding with Dynamic Complexity Scalable Algorithm, IEICE Transactions D-2,
Vol.80-D-2, No.2, pp.444-458 (1997).).
【0008】また、動画と音声の同期再生を実現した例
としては、MPEG1/MPEG2のシステムがある。As an example of realizing the synchronized reproduction of the moving image and the sound, there is an MPEG1 / MPEG2 system.
【0009】この様な従来の技術における、(B1)従
来方式の映像のフレームタイプに応じて映像を廃棄する
方式では、扱える情報の粒度が、単一のストリーム内で
あるため、複数のビデオストリームや複数のオーディオ
ストリームの取り扱いや、編集者の意図を反映させて、
重要なシーンカットを重点的にオーディオとともに同期
再生をさせることは困難であるという課題があった。
(B2)また、MPEG1/MPEG2では、ハードウ
ェアでの実現が前提であるため、デコーダは与えられた
ビットストリームをすべてデコードできることが前提と
なる。したがって、デコーダの処理能力を超えた場合の
対応方法が不定となる課題が有る。In such a conventional technique, (B1) in the conventional method of discarding video according to the frame type of the video, since the granularity of information that can be handled is within a single stream, a plurality of video streams Or handling of multiple audio streams and reflecting the editor's intention,
There was a problem that it was difficult to focus important scene cuts along with audio and perform synchronized playback.
(B2) In addition, since MPEG1 / MPEG2 is premised on realization by hardware, it is premised that the decoder can decode all the given bitstreams. Therefore, there is a problem that the method of dealing with the case where the processing capacity of the decoder is exceeded is undefined.
【0010】又一方、従来、動画像の伝送においては、
H.261(ITU−T Recommendatio
n H.261−Video codec for a
udiovisual services at px
64)などの方式を用いたものがあり、これまで、ハー
ドウェアにより実装されていた。このため、ハードウェ
ア設計時に、必要な性能の上限を考慮しているため指定
時間以内に復号化処理を完了できないという場合は、生
じなかった。On the other hand, in the conventional transmission of moving images,
H. 261 (ITU-T Recommendation
n H. 261-Video codec for a
audiovisual services at px
64) and the like, which have been implemented by hardware. For this reason, when the hardware design was performed, the upper limit of the required performance was taken into consideration, so that the case where the decoding process could not be completed within the specified time did not occur.
【0011】なお、ここで、指定時間とは、一枚の画像
を符号化したビットストリームの伝送に要する時間であ
る。この時間内に復号化できないと、超過した時間が遅
延となり、これが蓄積して大きくなると、送信側から受
信側までの遅延が大きくなりテレビ電話としての使用に
適しなくなる。このような状況は避けねばならない。Here, the designated time is the time required to transmit a bit stream obtained by encoding one image. If the decoding cannot be performed within this time, the excess time becomes a delay, and if it is accumulated and becomes large, the delay from the transmitting side to the receiving side becomes large and it becomes unsuitable for use as a videophone. This situation should be avoided.
【0012】また、通信相手が規格外のビットストリー
ムを生成しているために復号化処理を指定時間内に完了
できない場合には、動画像の伝送ができないという課題
があった。Further, there is a problem that the moving image cannot be transmitted when the decoding process cannot be completed within the designated time because the communication partner generates a non-standard bit stream.
【0013】上記の課題は、動画像だけではなく、音声
データにおいても発生する課題である。The above problem is a problem occurring not only in moving images but also in audio data.
【0014】ところが近年、インタネットやISDNの
普及という形でパーソナルコンピュータ(PC)でのネ
ットワーク環境が整備された結果、伝送速度が速くな
り、PCとネットワークを利用した動画像の伝送が可能
になってきた。ユーザからの動画像伝送に対する要求
も、とみに高まってきている。また、CPU性能の向上
により、ソフトウェアによる動画像の復号化が充分可能
となってきている。However, in recent years, as a result of the development of the network environment for personal computers (PCs) in the form of the spread of the Internet and ISDN, the transmission speed has increased, and moving images can be transmitted using the PC and the network. It was The demand for moving image transmission from users is also rapidly increasing. Further, the improvement of the CPU performance has made it possible to sufficiently decode a moving image by software.
【0015】しかしながら、パーソナルコンピュータに
おいては同じソフトウェアを、CPU、バス幅、アクセ
ラレータの有無など、装置構成の異なるコンピュータで
実行可能であるため、必要な性能の上限を予め考慮する
ことが困難であり、指定時間内に画像を復号化できない
場合が生じる。However, in a personal computer, the same software can be executed by computers having different device configurations such as a CPU, a bus width, and the presence or absence of an accelerator, so it is difficult to consider the upper limit of the required performance in advance. There are cases where the image cannot be decoded within the specified time.
【0016】また、受信装置の処理能力を越える長さの
動画像の符号化データが伝送された場合には指定時間内
の符号化が不可能となる。Further, when the encoded data of a moving image having a length exceeding the processing capability of the receiving device is transmitted, the encoding within the designated time becomes impossible.
【0017】課題(C1):指定時間内に画像を復号化
し、遅延を小さく抑える。Problem (C1): The image is decoded within a designated time, and the delay is kept small.
【0018】また、この課題C1の解決手段として、例
えば、波形データとして動画像を入力する場合であれ
ば、伝送されたビットストリームのうち一部を使用しな
いため、伝送路の実質使用効率が悪い、という問題が残
る場合もある。また、符号化方式によっては、前回の復
号画像をもとに今回の復号画像を生成するものがあるが
(Pピクチャなど)、前回の復号画像を完全に復元しな
い場合があるため、画質劣化が、時間とともに波及的に
大きくなるという問題もある。Further, as a means for solving this problem C1, for example, when a moving image is input as waveform data, a part of the transmitted bit stream is not used, so that the actual use efficiency of the transmission path is poor. In some cases, the problem of. Also, depending on the encoding method, there is one that generates the decoded image of this time based on the decoded image of the previous time (P picture, etc.), but since the decoded image of the previous time may not be completely restored, the image quality may deteriorate. However, there is also the problem that it will spread out over time.
【0019】課題(C2):伝送路の実質使用効率が悪
い。また、画質劣化が波及する。Problem (C2): The actual use efficiency of the transmission line is poor. In addition, the deterioration of image quality spreads.
【0020】また、ソフトウェアによる実装では、一回
の符号化処理に要する時間で画像のフレームレートが決
まるため、ユーザの指定したフレームレートが計算機の
処理限界を越えた場合には、指定に応えることができな
かった。In software implementation, since the frame rate of an image is determined by the time required for one encoding process, if the frame rate specified by the user exceeds the processing limit of the computer, the specification must be met. I couldn't.
【0021】課題(C3):ユーザの指示したフレーム
レートが、計算機の処理限界を越えると指定に応えられ
ない。Problem (C3): If the frame rate designated by the user exceeds the processing limit of the computer, the designation cannot be met.
【0022】本発明は、上記第1の従来技術の(A1)
〜(A6)の課題を考慮し、それらの課題の少なくとも
何れか一つを解決するデータ処理方法及びデータ処理装
置を提供することを目的とする。The present invention relates to the above-mentioned first prior art (A1).
It is an object of the present invention to provide a data processing method and a data processing device that solve at least any one of these problems (A6).
【0023】[0023]
【課題を解決するための手段】本発明は、符号化された
動画像または音声の時系列データの情報を転送する実際
の転送レートが目標転送レートを超える場合、前記符号
化された情報に付加されている、前記時系列データ間の
処理の優先度を示す時系列データ間優先度と前記動画像
の時系列データを構成するフレーム間の処理の優先度を
示す時系列データ内優先度とを用いて、時系列データを
転送する転送手段への前記情報の送信を間引いて行うこ
とを特徴とするデータ処理方法である。SUMMARY OF THE INVENTION The present invention is coded
If the actual transfer rate for transferring the information of the time-series data of the moving picture or sound exceeds the target transfer rate, it is added to the encoded information, between the time-series data
The time-series data priority indicating processing priority and the moving image
The priority of processing between the frames that make up the time series data
The time-series data is
In the data processing method, the transmission of the information to the transfer means for transferring is thinned out.
【0024】また本発明は、動画像または音声の時系列
データと、前記時系列データ間の処理の優先度を示す時
系列データ間優先度と前記動画像の時系列データを構成
するフレーム間の処理の優先度を示す時系列データ内優
先度とを対にして入力し、(1)前記時系列データの情
報が損なわれた場合は、前記時系列データ内優先度と前
記時系列データ間優先度とを用いて、その損なわれたデ
ータの再送を要求するために再送要求処理を行い、又
(2)前記時系列データが連続的に、又は高頻度で失わ
れた場合は、前記時系列データ内優先度と前記時系列デ
ータ間優先度とを用いて、処理優先度の高いデータにつ
いてのみ前記再送要求処理を行うことを特徴とするデー
タ処理方法である。[0024] Further, the present invention is, the time series of the moving image or voice
When showing the priority of processing between data and the time series data
Configure priority between sequence data and time-series data of the moving image
Priority in time series data indicating the priority of processing between frames
Enter the previous and pair, and (1) Information of the time series data
If the information is damaged, the priority in the time series data and the previous
Using the priority between time series data,
Resend request processing to request resending of data
(2) The time series data is lost continuously or at high frequency
If it is, the priority in the time series data and the time series data
Data with high processing priority using
Only when the data is retransmitted.
Data processing method .
【0025】また本発明は、動画像または音声の時系列
データと、前記時系列データ間の処理の優先度を示す時
系列データ間優先度と前記動画像の時系列データを構成
するフレーム間の処理の優先度を示す時系列データ内優
先度とをあわせて出力とし、前記時系列データの伝送量
に応じて、前記時系列データ内優先度と時系列データ間
優先度とに基づいて求めた処理優先度の高いデータを優
先して伝送することを特徴とするデータ処理方法であ
る。 [0025] The present invention, when showing the time-series data of a moving image or voice, the priority of the processing between said time-series data
Configure priority between sequence data and time-series data of the moving image
Together with time-series data in the priority showing the processing priority between frames and output that, depending on the transmission rate of the time series data, the time series data within a priority and between time series data
Data with high processing priority calculated based on
The data processing method is characterized in that the data is transmitted first .
【0026】また本発明は、動画像または音声の時系列
データの符号化処理を行う符号化処理手段に設けた優先
度付加部により前記時系列データの処理優先度を付加す
るとともに、符号化された動画像または音声の時系列デ
ータの情報に付加されている復号化されるべき若しくは
出力されるべき時期と転送処理開始からの経過時間とを
比較した結果、送信バッファへの符号化された情報の書
き込みが遅れていると判定した場合、前記符号化された
情報に付加されるべき、前記時系列データ間の処理の優
先度を示す時系列データ間優先度と前記動画像の時系列
データを構成するフレーム間の処理の優先度を示す時系
列データ内優先度とを用いて、前記符号化処理手段への
情報の送信を間引いて行うことを特徴とするデータ処理
方法である。The present invention also provides a time series of moving images or sounds.
Priority provided to the encoding processing means for encoding data
The processing priority of the time series data is added by the degree addition unit.
Time coded video or audio sequence.
Is added to the information of the data to be decrypted or
The time to be output and the elapsed time from the start of transfer processing
As a result of the comparison, the encoded information is written to the transmission buffer.
If it is determined that the imprinting is delayed, the coded
The processing priority between the time-series data that should be added to the information.
Priority between time series data indicating priorities and time series of the moving image
Time system indicating the priority of processing between frames that make up data
By using the priority in the column data,
Data processing characterized by thinning out information transmission
Is the way .
【0027】また本発明は、符号化された音声または I
フレームを含む動画像の時系列データの情報を転送する
実際の転送レートが目標転送レートを超える場合、前記
符号化された情報に付加されている、前記時系列データ
間の処理の優先度を示す時系列データ間優先度と前記動
画像の時系列データを構成するIフレーム間の処理の優
先度を示す時系列データ内優先度とを用いて、時系列デ
ータを転送する転送手段への前記情報の送信を間引いて
行うことを特徴とするデータ処理方法である。[0027] The present invention also encoded speech or I
Transfers time-series data information of moving images including frames
If the actual transfer rate exceeds the target transfer rate,
The time series data added to the encoded information
Between the time-series data indicating the priority of processing between
Superior processing of I-frames that make up image time-series data
Using the priority in the time series data that indicates the priority, the time series data
Decimate the transmission of said information to the transfer means for transferring the data
It is a data processing method characterized by performing .
【0028】また本発明は、音声またはIフレームを含
む動画像の時系列データと、前記時系列データ間の処理
の優先度を示す時系列データ間優先度と前記動画像の時
系列データを構成するIフレーム間の処理の優先度を示
す時系列データ内優先度とを対にして入力し、(1)前
記時系列データの情報が損なわれた場合は、前記時系列
データ内優先度と前記時系列データ間優先度とを用い
て、その損なわれたデータの再送を要求するために再送
要求処理を行い、又(2)前記時系列データが連続的
に、又は高頻度で失われた場合は、前記時系列データ内
優先度と前記時系列データ間優先度とを用いて、処理優
先度の高いデータについてのみ前記再送要求処理を行う
ことを特徴とするデータ処理方法である。[0028] Further, the present invention, including a voice or I frame
Time-series data of moving images and processing between the time-series data
Time-series data priority indicating the priority of and the time of the moving image
Indicates the priority of processing between I-frames that make up the series data
And in priority to time-series data entered in pairs, (1) if the information of the time-series data is compromised, the time series
Using in-data priority and time-series data priority
Te performs retransmission request processing in order to request retransmission of the compromised data, and (2) the time-based to column data continuously, or if lost at high frequency, the time-series data in
Using the priority and the time-series data priority, the processing priority is increased.
The resend request process is performed only for data with a high priority.
This is a data processing method characterized by the above.
【0029】[0029]
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照しながら説明する。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.
【0030】尚、ここで述べる実施の形態は、主に、上
述した課題(A1)〜(A6)の何れかを解決するもの
である。The embodiment described here mainly solves any of the problems (A1) to (A6) described above.
【0031】本発明で使用する「画像」としては、静止
画と動画の両方を含む。また、対象とする画像は、コン
ピュータ・グラフィックス(CG)のような2次元画像
とワイヤーフレーム・モデルから構成されるような3次
元の画像データであってもよい。The "image" used in the present invention includes both a still image and a moving image. Further, the target image may be three-dimensional image data such as a two-dimensional image such as computer graphics (CG) and a wire frame model.
【0032】図1は、本発明の実施の形態における画像
音声送受信装置の概略構成図である。FIG. 1 is a schematic configuration diagram of an image / voice transmitting / receiving apparatus according to an embodiment of the present invention.
【0033】同図において、情報を受信する受信管理部
11と情報を送信する伝送部13は、同軸ケーブル、C
ATV、LAN、モデム等の情報を伝送する手段であ
る。通信環境としては、インターネットのように、多重
化手段を意識せずに複数の論理的な伝送路が利用できる
通信環境であってもよいし、アナログ電話や衛星放送の
ように多重化手段を意識しなければならない通信環境で
あってもよい。In the figure, a reception management unit 11 for receiving information and a transmission unit 13 for transmitting information are coaxial cables, C
It is a means for transmitting information such as ATV, LAN, and modem. The communication environment may be a communication environment such as the Internet in which a plurality of logical transmission lines can be used without being aware of the multiplexing means, or an analog telephone or satellite broadcasting. It may be a communication environment that must be done.
【0034】また、端末の接続形態としては、TV電話
やTV会議システムのように端末間で双方向で映像や音
声を送受信する形態や、衛星放送やCATV、インター
ネット上での放送型の映像や音声放送の形態が挙げられ
る。本発明では、このような端末の接続形態について考
慮している。As the connection form of the terminals, bidirectional video and audio transmission / reception between the terminals such as a TV telephone and a TV conference system, satellite broadcasting, CATV, broadcasting type video on the Internet, The form of audio broadcasting may be mentioned. The present invention considers the connection form of such a terminal.
【0035】図1に示す分離部12は受信情報を解析
し、データと制御情報を分離する手段である。具体的に
は、送信のためにデータに付加された送信用のヘッダ情
報とデータとを分解したり、データ自身に付加されたデ
ータ制御用のヘッダとデータの中身を分解するための手
段である。画像伸張部14は受信した画像を伸張する手
段である。たとえば、H.261、H.263、MPE
G1/2、JPEGといった標準化された動画や静止画
の圧縮画像であってもよいし、そうでなくてもよい。The separating unit 12 shown in FIG. 1 is means for analyzing received information and separating data from control information. Specifically, it is a means for disassembling the transmission header information and data added to the data for transmission, or disassembling the data control header and data contents added to the data itself. . The image expansion unit 14 is a unit that expands the received image. For example, H.264. 261, H.264. 263, MPE
It may or may not be a standardized moving image such as G1 / 2 or JPEG or a compressed image of a still image.
【0036】図1に示す画像伸張管理部15は画像の伸
張状態を監視する手段である。たとえば、画像の伸張状
態を監視することで、受信バッファがオーバーフローを
起こしそうになった場合に、画像の伸張を行わずに、受
信バッファを空読みし、画像の伸張ができる状態になっ
た時点から、画像の伸張を再開させることができる。The image expansion management section 15 shown in FIG. 1 is means for monitoring the expansion status of an image. For example, by monitoring the image decompression state, when the receiving buffer is about to overflow, when the image is decompressed, the receiving buffer is idle-read and the image is decompressed. From, it is possible to resume the expansion of the image.
【0037】又、同図において、画像合成部16は、伸
張された画像を合成する手段である。合成方法に関して
は、JAVA(登録商標)、VRML、MHEGといっ
たスクリプト言語で、画像と画像の構造情報(表示位置
と表示時間(表示期間を含めてもよい))、画像同士の
グルーピングの方法、画像の表示のレイヤ(深さ)、そ
して、オブジェクトID(後述するSSRC)と、これ
らの属性の関係を記述することによって画像の合成方法
が定義できる。合成方法を記述したスクリプトはネット
ワークやローカルの記憶装置から入出力する。Further, in the figure, the image synthesizing section 16 is means for synthesizing the expanded images. As for the synthesizing method, in a scripting language such as JAVA (registered trademark), VRML, or MHEG, the structure information of the images (the display position and the display time (the display period may be included)), the method of grouping the images, and the image The image synthesizing method can be defined by describing the relationship between these attributes and the display layer (depth), the object ID (SSRC described later), and the like. The script describing the composition method is input / output from / to a network or a local storage device.
【0038】又、出力部17は、画像の合成結果を出力
するディスプレイやプリンターなどである。端末制御部
18はこれら各部を制御する手段である。なお、画像の
代わりに音声を伸張する構成であっても(画像伸張部を
音声伸張部に、画像伸張管理部を音声伸張管理部に、画
像合成部を音声合成部に変更することで対応できる)、
画像と音声の両方を伸張し、時間的に同期を保ちながら
合成、表示する構成であってもよい。The output unit 17 is a display, a printer or the like that outputs the image synthesis result. The terminal control unit 18 is means for controlling each of these units. It should be noted that even a configuration in which voice is expanded instead of an image (this can be achieved by changing the image expansion unit to the audio expansion unit, the image expansion management unit to the audio expansion management unit, and the image synthesis unit to the voice synthesis unit. ),
It is also possible to expand both the image and the sound and synthesize and display them while keeping the synchronization in time.
【0039】さらに、画像を圧縮する画像圧縮部、画像
圧縮部を管理する画像圧縮管理部、音声を圧縮する音声
圧縮部、音声圧縮部を管理する音声圧縮管理部を備える
ことにより、画像や音声の伝送も可能になる。Further, by providing an image compression unit for compressing an image, an image compression management unit for managing the image compression unit, an audio compression unit for compressing audio, and an audio compression management unit for managing the audio compression unit, an image and an audio can be obtained. Can also be transmitted.
【0040】図2は受信管理部11と分離部12とを示
す図である。FIG. 2 is a diagram showing the reception management unit 11 and the separation unit 12.
【0041】図1に示した受信管理部11にデータを受
信するデータ受信部101とデータを制御するための制
御情報を受信する制御情報受信部102と、分離部12
に伝送内容を解釈するための伝送構造(詳細は後述す
る)について記憶する伝送フォーマット記憶部103
と、伝送フォーマット記憶部103に記憶された伝送構
造に基づき伝送内容を解釈する伝送情報解釈部104で
各部を構成することで、データと制御情報を独立して受
信することが可能になるので、例えば、受信しながらの
受信画像や音声の削除や移動が容易になる。A data receiving unit 101 for receiving data, a control information receiving unit 102 for receiving control information for controlling data, and a separating unit 12 are shown in the reception management unit 11 shown in FIG.
A transmission format storage unit 103 that stores a transmission structure (details will be described later) for interpreting the transmission content.
By configuring each unit with the transmission information interpretation unit 104 that interprets the transmission content based on the transmission structure stored in the transmission format storage unit 103, it becomes possible to receive data and control information independently, For example, it becomes easy to delete or move a received image or voice while receiving.
【0042】前述したが、受信管理部11が対象とする
通信環境としては、インターネットのように、多重化手
段を意識せずに複数の論理的な伝送路が利用できる通信
環境(インターネット・プロファイル)であってもよい
し、アナログ電話や衛星放送のように多重化手段を意識
しなければならない通信環境(Rawプロファイル)で
あってもよい。しかし、利用者から見れば、論理的な伝
送路(ロジカルチャンネル)が複数個用意されている通
信環境を前提としている(たとえば、TCP/IPが使
える通信環境では「通信ポート」と呼ばれる表現が一般
に使われる)。As described above, the communication environment targeted by the reception management unit 11 is a communication environment (Internet profile) in which a plurality of logical transmission lines can be used without being conscious of the multiplexing means like the Internet. Or a communication environment (raw profile) such as analog telephone or satellite broadcasting in which the multiplexing means must be taken into consideration. However, from the user's point of view, it is premised on a communication environment in which a plurality of logical transmission paths (logical channels) are prepared (for example, in a communication environment in which TCP / IP can be used, an expression called “communication port” is generally used). used).
【0043】また、図2に示すように、受信管理部11
が受信する情報としては1種類以上のデータ用の伝送路
と、伝送するデータを制御するための制御用の論理的な
伝送路を1種類以上を想定している。データ伝送用の伝
送路を複数用意し、データ制御用の伝送路を1本だけ用
意してもよい。また、H.323でも利用されているR
TP/RTCPのように、データ伝送毎にデータ制御用
の伝送路を用意してもよい。さらに、UDPを使った放
送を考慮した場合、単一の通信ポート(マルチキャスト
アドレス)を使った通信形態であってもよい。Further, as shown in FIG. 2, the reception management unit 11
It is assumed that the information received by the device includes one or more types of data transmission lines and one or more types of control logical transmission lines for controlling the data to be transmitted. A plurality of transmission lines for data transmission may be prepared, and only one transmission line for data control may be prepared. In addition, H. R also used in 323
A transmission line for data control may be prepared for each data transmission like TP / RTCP. Further, in consideration of broadcasting using UDP, a communication mode using a single communication port (multicast address) may be used.
【0044】図3は、複数の論理的な伝送路を用いて画
像や音声の伝送、制御する方法について説明する図であ
る。伝送するデータ自身をES(エレメンタリー・スト
リーム)と呼び、ESとしては、画像であれば1フレー
ム分の画像情報や1フレームよりも小さいGOB単位や
マクロブロック単位の画像情報であってもよい。FIG. 3 is a diagram for explaining a method of transmitting and controlling images and sounds by using a plurality of logical transmission lines. The data itself to be transmitted is called an ES (elementary stream), and the ES may be image information for one frame, or image information for GOB units or macroblock units smaller than one frame.
【0045】音声であれば、利用者が決めた固定長の長
さであってよい。また、伝送するデータに付加するデー
タ制御用のヘッダ情報をAL(アダプテーション・レイ
ヤ情報)と呼ぶ。AL情報としては、データの処理可能
な開始位置であるかどうかを示す情報、データの再生時
刻を示す情報、データの処理の優先度を示す情報などが
あげられる。本発明のデータ管理情報は、AL情報に対
応する。なお、本発明で用いられるESとALはMPE
G1/2で定義されている内容と必ずしも合致しなくて
もよい。The voice may have a fixed length determined by the user. The header information for data control added to the data to be transmitted is called AL (adaption layer information). Examples of the AL information include information indicating whether or not the data processing start position is possible, information indicating the reproduction time of the data, information indicating the priority of the data processing, and the like. The data management information of the present invention corresponds to AL information. The ES and AL used in the present invention are MPE.
It does not necessarily have to match the contents defined in G1 / 2.
【0046】データの処理可能な開始位置であるかどう
かを示す情報は、具体的には2種類の情報があげられ
る。1つはランダムアクセスのためのフラグであり、例
えば、画像ならイントラフレーム(Iピクチャ)といっ
たように前後のデータに関係なく単独に読みとって再生
できることを示すための情報である。2つ目としては、
単に単独で読みとりが可能であることを示すためのフラ
グとして、アクセスフラグが定義できる。たとえば、画
像ならばGOB単位やマクロブロック単位の画像の先頭
であることを示す情報である。従って、アクセスフラグ
がなければデータの途中である。必ずしもデータの処理
可能な開始位置であるかどうかを示す情報としてランダ
ムアクセスのフラグと、アクセスフラグの両方が必要で
はない。As the information indicating whether or not the start position of the data can be processed, specifically, there are two types of information. One is a flag for random access, which is information indicating that an image can be independently read and reproduced regardless of preceding and following data such as an intra frame (I picture) for an image. Secondly,
An access flag can be defined as a flag that simply indicates that reading is possible. For example, in the case of an image, it is information indicating that it is the head of an image in GOB units or macroblock units. Therefore, if there is no access flag, it is in the middle of data. Both the random access flag and the access flag are not necessarily required as information indicating whether or not the data processing start position is possible.
【0047】TV会議システムのようなリアルタイム通
信では両方のフラグを付加しなくても問題が起こらない
場合もあるし、編集を簡単に行えるようにするためには
ランダムアクセスフラグは必要である。フラグが必要で
あるか、必要な場合でもどのフラグが必要かを通信路を
介してデータ転送前に決定しておいてもよい。In real-time communication such as a TV conference system, there may be no problem even if both flags are not added, and a random access flag is necessary to enable easy editing. Whether a flag is necessary or, if necessary, which flag is necessary may be determined before data transfer via the communication path.
【0048】データの再生時刻を示す情報は、画像と音
声の再生される時の時間同期の情報を示し、MEPG1
/2ではPTS(プレゼンテーション・タイムスタン
プ)と呼ばれる。TV会議システムのようなリアルタイ
ム通信では通常、時間同期に関しては考慮されていない
ため、必ずしも再生時刻を意味する情報は必要ない。必
要な情報としては、エンコードされたフレームの時間間
隔になるかもしれない。The information indicating the reproduction time of the data indicates the information of the time synchronization when the image and the sound are reproduced.
In / 2, it is called PTS (Presentation Time Stamp). In real-time communication such as a TV conference system, time synchronization is usually not taken into consideration, and thus information that means a reproduction time is not necessarily required. The necessary information may be the time intervals of encoded frames.
【0049】時間間隔を受信側で調整させることによっ
て、フレーム間隔の大きな変動は防げるが、再生間隔を
調整させることで遅延になる可能性もある。従って、エ
ンコードのフレーム間隔を示す時間情報も必要ないと判
断できる場合もある。By adjusting the time interval on the receiving side, a large fluctuation of the frame interval can be prevented, but there is a possibility of delay by adjusting the reproduction interval. Therefore, it may be determined that the time information indicating the encoding frame interval is not necessary.
【0050】データの再生時刻を示す情報は、PTSを
意味するのか、フレーム間隔を意味するのか、データの
再生時刻をデータ自身には付加しないということを通信
路を介してデータ転送前に決定して受信端末に通知し
て、決定されたデータ管理情報とともにデータを伝送し
てもよい。Before the data transfer through the communication path, it is determined whether the information indicating the data reproduction time means PTS or frame interval, and whether the data reproduction time is not added to the data itself. The data may be transmitted together with the determined data management information by notifying the receiving terminal.
【0051】データの処理の優先度を示す情報は、受信
端末の負荷やネットワークの負荷によって処理もしくは
伝送できない場合に、データの処理を中止させたり、伝
送を取りやめることによって受信端末の負荷やネットワ
ークの負荷を低減させることができる。The information indicating the priority of data processing is such that when the processing or transmission cannot be performed due to the load of the receiving terminal or the load of the network, the processing of the data is stopped or the transmission is stopped to reduce the load of the receiving terminal or the network. The load can be reduced.
【0052】受信端末では画像伸張管理部15で、ネッ
トワークでは、中継の端末やルータなどで処理すること
ができる。優先度の表現方法としては数値による表現や
フラグであってもよい。なお、データの処理の優先度を
示す情報のオフセット値を制御情報、もしくはデータと
ともにデータ管理情報(ALの情報)として伝送するこ
とで、受信端末の負荷やネットワークの負荷の急激な変
動に対して、あらかじめ画像や音声に割り当てている優
先度にオフセット値を加えることで、システムの動作状
況に応じた動的な優先度の設定が可能になる。In the receiving terminal, the image expansion management unit 15 can be used, and in the network, the relay terminal or router can be used. A numerical expression or a flag may be used as the priority expression method. By transmitting the offset value of the information indicating the priority of data processing as control information or data management information (AL information) together with the data, it is possible to prevent sudden changes in the load of the receiving terminal or the load of the network. By adding an offset value to the priorities assigned to images and sounds in advance, it becomes possible to dynamically set priorities according to the operating status of the system.
【0053】さらに、スクランブルの有無、コピーライ
トの有無、オリジナルかコピーかを識別するための情報
をデータとは別に、データの識別子(SSRC)ととも
に制御情報として送信することで、中継ノードでのスク
ランブルの解除などが容易になる。Further, information for identifying the presence / absence of scramble, the presence / absence of copyright, and the original or the copy are transmitted as control information together with the data identifier (SSRC) separately from the data, so that the scrambling at the relay node is performed. It will be easier to cancel.
【0054】なお、データの処理の優先度を示す情報
は、複数のビデオやオーディオのフレームの集合から構
成されるストリーム単位で付加してもよいし、ビデオや
オーディオのフレーム単位に付加してもよい。The information indicating the priority of data processing may be added in a stream unit composed of a set of a plurality of video or audio frames, or in a video or audio frame unit. Good.
【0055】H.263やG.723などの符号化方法
で、符号化された情報の過負荷時の処理の優先度を予め
決められた基準で決定し、符号化された情報と決定され
た優先度を対応づける優先度付加手段を送信端末装置に
備える(図54参照)。H. 263 and G.H. A priority adding unit that determines the priority of the processing of the encoded information when the information is overloaded by a predetermined criterion by using an encoding method such as 723, and associates the encoded information with the determined priority. To the transmitting terminal device (see FIG. 54).
【0056】図54は、映像と音声に優先度を付加する
優先度付加手段5201について説明する図である。FIG. 54 is a view for explaining the priority adding means 5201 for adding priority to video and audio.
【0057】即ち、同図に示す様に、符号化された映像
と音声の各データ(それぞれ映像符号化手段5202と
音声符号化手段5203が処理する)に対して、予め決
められた規則に基づき優先度を付加する。優先度を付加
する規則は、優先度付加規則5204に規則が格納され
ている。規則とは、Iフレーム(フレーム内符号化され
た映像フレーム)は、Pフレーム(フレーム間符号化さ
れた映像フレーム)よりも高い優先度付加するという規
則や、映像は音声よりも低い優先度を付加するという規
則である。また、この規則は利用者の指示により動的に
変更しても良い。That is, as shown in the figure, the encoded video and audio data (each processed by the video encoding means 5202 and the audio encoding means 5203) is based on a predetermined rule. Add priority. The rules for adding the priority are stored in the priority addition rule 5204. The rule is that an I frame (intra-frame coded video frame) has a higher priority than a P frame (inter-frame coded video frame), or that a video has a lower priority than audio. The rule is to add. Further, this rule may be dynamically changed according to a user's instruction.
【0058】優先度を付加する対象となるものは、たと
えば、画像であればシーンチェンジ、編集者や利用者が
指示した画像フレームやストリーム、音声であれば、有
音区間と無音区間である。Objects to which the priority is added are, for example, a scene change for an image, an image frame or stream designated by an editor or a user, and a voiced section and a silent section for a voice.
【0059】過負荷時の処理の優先度を定義する、画像
や音声フレーム単位の優先度の付加方法は、通信ヘッダ
へ付加する方法と符号化時にビデオやオーディオの符号
化されたビットストリームのヘッダに埋め込む方法が考
えられる。前者は、復号せずに優先度に関する情報を得
ることが可能であり、後者はシステムに依存せずにビッ
トストリーム単体で独立に扱うことが可能である。The priority adding method for defining the priority of the processing at the time of overload is the method of adding the priority to the image or audio frame unit, and the method of adding to the communication header and the header of the encoded bit stream of video or audio at the time of encoding. A method of embedding in The former can obtain information about the priority without decoding, and the latter can be handled independently by the bitstream alone without depending on the system.
【0060】通信ヘッダに優先度情報を付加する場合、
1つの画像フレーム(たとえば、フレーム内符号化され
たIフレーム、フレーム間符号化されたP、Bフレー
ム)が複数個の送信パケットに分割される場合、画像で
あれば単独の情報としてアクセス可能な画像フレームの
先頭部分を伝送する通信ヘッダのみに優先度を付加する
(同一の画像フレーム内で優先度が等しい場合、次のア
クセス可能な画像フレームの先頭が現れるまで、優先度
は変わらないものとすればよい)。When priority information is added to the communication header,
When one image frame (for example, intraframe-encoded I frame, interframe-encoded P, B frame) is divided into a plurality of transmission packets, if it is an image, it can be accessed as independent information. Priority is added only to the communication header that transmits the top part of the image frame (If the priority is the same in the same image frame, the priority does not change until the beginning of the next accessible image frame appears. do it).
【0061】なお、用途に合わせて、優先度が表現でき
る値の範囲(たとえば、時間情報を16ビットで表現す
るとか、32ビットで表現するとか)を可変にして、制
御情報でコンフィグレーションできるようにしてもよ
い。It is to be noted that the range of values in which the priority can be expressed (for example, time information is expressed in 16 bits or 32 bits) can be made variable according to the purpose of use, and can be configured by control information. You may
【0062】また、復号化装置では、受信された種々の
符号化された情報の過負荷時の優先度に従って、処理の
方法を決定する優先度決定手段を受信端末装置に備える
(図55参照)。Further, in the decoding device, the receiving terminal device is provided with the priority determining means for determining the processing method in accordance with the priorities of the various kinds of received coded information at the time of overload (see FIG. 55). .
【0063】図55は、映像と音声に付加された優先度
を解釈し、復号処理の可否を決定する優先度決定手段5
301について説明する図である。FIG. 55 is a priority determining means 5 for interpreting the priority added to video and audio and determining whether or not decoding processing is possible.
It is a figure explaining 301.
【0064】即ち、同図に示す様に、優先度は映像、音
声のストリーム毎に付加される優先度、映像もしくは音
声のフレーム毎に付加される優先度である。これらの優
先度はそれぞれ独立に用いてもよいし、フレーム優先度
とストリーム優先度とを対応付けて用いてもよい。優先
度決定手段5301は、これら優先度に応じて復号すべ
きストリームやフレームを決定する。That is, as shown in the figure, the priority is the priority added to each video or audio stream, and the priority added to each video or audio frame. These priorities may be used independently, or the frame priority and the stream priority may be used in association with each other. The priority determining means 5301 determines a stream or frame to be decoded according to these priorities.
【0065】端末での過負荷時の処理の優先度を決定す
る2種類の優先度を用いて、デコード処理を行なう。す
なわち、映像、音声といったビットストリーム間の相対
的優先度を定義するストリーム優先度(Stream Priorit
y;時系列間優先度)と、同一ストリーム内の映像フレ
ームといった復号処理単位間の相対的優先度を定義する
フレーム優先度(Frame Priority;時系列内優先度)を定
義する(図30)。Decoding processing is performed using two types of priorities that determine the processing priority when the terminal is overloaded. That is, Stream Priority (Stream Priority) which defines the relative priority between bit streams such as video and audio.
y; inter-time-series priority) and a frame priority (Frame Priority; intra-time-series priority) that defines a relative priority between decoding processing units such as video frames in the same stream (FIG. 30).
【0066】前者のストリーム優先度により複数のビデ
オやオーディオの取り扱いが可能になる。後者のフレー
ム優先度により映像のシーンチェンジや編集者の意図に
応じて、同一のフレーム内符号化された映像フレーム
(Iフレーム)でも異なる優先度の付加が可能になる。The former stream priority makes it possible to handle a plurality of videos and audios. The latter frame priority makes it possible to add different priorities even to the same intra-coded video frame (I frame) depending on the scene change of the video or the intention of the editor.
【0067】なお、ストリーム優先度を、画像や音声の
符号化もしくは復号化処理のオペレーティング・システ
ム(OS)での割り当て時間もしく処理の優先度に対応
付けて管理することで、OSレベルでの処理時間の管理
が可能となる。たとえば、マイクロソフト社のWind
ows95/NTでは5段階のOSレベルでの優先度の
定義ができる。符号化、復号化の手段をソフトウェアで
スレッドの単位で実現した場合、処理対象となるストリ
ームのストリーム優先度から、各スレッドに割り当てる
OSレベルでの優先度を決定することができる。The stream priority is managed in association with the allocation time or the processing priority of the operating system (OS) of the image or audio encoding or decoding process, and is managed at the OS level. The processing time can be managed. For example, Microsoft's Wind
With ows95 / NT, the priority can be defined at five levels of the OS level. When the encoding / decoding means is realized by software on a thread-by-thread basis, the OS-level priority assigned to each thread can be determined from the stream priority of the stream to be processed.
【0068】ここで述べた、フレーム優先度とストリー
ム優先度は、伝送媒体やデータ記録媒体へ適用が可能で
ある。例えば、伝送するパケットの優先度をアクセスユ
ニット優先度(Access Unit Priori
ty)と定義すると、Access Unit Pri
ority=Stream Priority−Fra
me Priorityといった、フレーム優先度と、
ストリーム優先度の関係式から、パケットの伝送に関す
る優先度、若しくは、端末による過負荷時の処理の優先
度を決定することが出来る。The frame priority and the stream priority described here can be applied to a transmission medium and a data recording medium. For example, the priority of a packet to be transmitted is set to access unit priority (Access Unit Priority).
ty) is defined as Access Unit Pri
ority = Stream Priority-Fra
frame priority, such as me Priority,
From the relational expression of the stream priority, it is possible to determine the priority relating to packet transmission or the priority of processing when the terminal is overloaded.
【0069】又、データ記録媒体としてフロッピー(登
録商標)ディスク、光ディスクなどを用いて行うことが
できる。また、記録媒体はこれに限らず、ICカード、
ROMカセット等、プログラムを記録できるものであれ
ば同様に実施することができる。さらに、データの中継
を行うルータやゲートウェイといった画像や音声の中継
装置を対象としてもよい。A floppy (registered trademark) disk, an optical disk or the like can be used as the data recording medium. The recording medium is not limited to this, but an IC card,
The same operation can be performed as long as the program can be recorded, such as a ROM cassette. Further, an image or voice relay device such as a router or gateway that relays data may be targeted.
【0070】具体的な優先度に関する利用方法として
は、受信端末が過負荷である場合に、処理すべき符号化
された情報の優先度の閾値を決定する優先度決定手段を
画像伸長管理部15や音声伸長管理部に具備し、表示さ
れるべき時刻(PTS)と現在までの処理開始からの経
過時間もしくは、復号されるべき時刻(DTS)と現在
までの処理開始からの経過時間を比較し、比較結果によ
り処理すべき符号化された情報の優先度の閾値を変化さ
せる(閾値を変化させるための情報としては、Iフレー
ムの挿入間隔、優先度の粒度を参考にしてもよい)。As a specific method of utilizing the priority, when the receiving terminal is overloaded, a priority determining means for determining the threshold of the priority of the encoded information to be processed is used as the image expansion management unit 15. It is provided in the audio decompression management unit and compares the time to be displayed (PTS) with the elapsed time from the start of processing up to the present or the time to be decoded (DTS) with the elapsed time from the start of processing up to the present. The threshold value of the priority of the encoded information to be processed is changed according to the comparison result (I-frame insertion intervals and the granularity of the priority may be referred to as the information for changing the threshold value).
【0071】図25(a)に示す例では、エンコード時
には、取り込まれたQCIF、CIFのサイズの画像を
エンコーダ(H.263)により、エンコードを行い、
エンコードされた情報とともに、復号する時刻(DT
S)、画像を表示する時刻を示すタイムスタンプ(PT
S)、過負荷時の処理の順序を示す優先度情報(CG
D、Computational Graceful
Degradation)、フレームタイプ、シーケン
ス番号(SN)を出力する。In the example shown in FIG. 25 (a), at the time of encoding, the captured image of the size of QCIF and CIF is encoded by the encoder (H.263).
Decoding time (DT
S), a time stamp (PT) indicating the time when the image is displayed
S), priority information (CG indicating the order of processing at the time of overload)
D, Computational Graceful
Degradation), frame type, and sequence number (SN) are output.
【0072】また、図25(b)に示す例では、音声も
マイクを通して録音され、エンコーダ(G.721)に
より、エンコードを行い、エンコードされた情報ととも
に、復号する時刻(DTS)、音声を再生する時刻を示
すタイムスタンプ(PTS)、優先度情報(CGD)、
シーケンス番号(SN)を出力する。Further, in the example shown in FIG. 25 (b), voice is also recorded through the microphone, encoded by the encoder (G.721), and the time of decoding (DTS) and voice are reproduced together with the encoded information. A time stamp (PTS) indicating the time to perform, priority information (CGD),
The sequence number (SN) is output.
【0073】デコード時には、図26に示す様に、画像
と音声は、それぞれ別々のバッファに渡され、画像と音
声はそれぞれのDTS(復号時刻)と現在の処理開始か
らの経過時間とを比較して、DTSの方が遅れていなけ
れば、画像と音声はそれぞれのデコーダ(H.263、
G.721)に渡される。At the time of decoding, as shown in FIG. 26, the image and the sound are passed to different buffers, and the image and the sound are compared with each DTS (decoding time) and the elapsed time from the start of the current processing. If the DTS is not delayed, the video and audio are decoded by their respective decoders (H.263,
G. 721).
【0074】図27の例では、エンコーダでの過負荷時
の優先度の付加方法について記している。画像はIフレ
ーム(フレーム内符号化された画像フレーム)は優先度
が「0」と「1」で高い優先度を割り当てている(数字
が大きいほど優先度が低い)。Pフレームは優先度が
「2」でIフレームよりも低い優先度を割り当ててい
る。Iフレームは、2段階の優先度を割り当てているた
め、デコードする端末の負荷が高い場合、優先度が
「0」のIフレームのみを再生するといったことができ
る。なお、優先度の付加方法に応じて、Iフレームの挿
入間隔を調整する必要がある。In the example of FIG. 27, the method of adding the priority when the encoder is overloaded is described. As for images, I-frames (intra-frame encoded image frames) are assigned high priorities with priorities “0” and “1” (the higher the number, the lower the priority). The P frame has a priority of “2” and is assigned a lower priority than the I frame. Since I-frames are assigned two levels of priority, it is possible to reproduce only I-frames with a priority of “0” when the load on the decoding terminal is high. Note that it is necessary to adjust the I-frame insertion interval according to the priority addition method.
【0075】図28の例は、過負荷時の受信端末での優
先度の決定方法について記した図である。廃棄するフレ
ームの優先度をCutOffPriorityよりも大きいと設定す
る。つまり、すべての画像フレームを処理の対象とす
る。画像フレームに付加される優先度の最大値は端末接
続時に送信側から受信側へ通知することにより、あらか
じめ知ることができる(ステップ101)。The example of FIG. 28 is a diagram showing a method of determining the priority at the receiving terminal at the time of overload. Set the priority of discarded frames to be higher than CutOffPriority. That is, all image frames are processed. The maximum value of the priority added to the image frame can be known in advance by notifying the receiving side from the transmitting side when the terminal is connected (step 101).
【0076】DTSと現在の処理開始からの経過時間を
比較して、経過時間の方が大きい場合(復号処理が間に
合っていない場合)、処理対象とすべき画像、音声の優
先度の閾値CutOffPriorityを引き下げ、処理を間引く
(ステップ102)、逆に処理開始からの経過時間の方
が小さい場合(復号処理が間に合っている場合)は、処
理できる対象の画像や音声を増やすために、優先度の閾
値CutOffPriorityを引き上げる(ステップ103)。When the elapsed time from the start of the current processing is compared with the DTS, and when the elapsed time is longer (when the decoding processing is not in time), the threshold CutOffPriority of the priority of the image and audio to be processed is set. If the elapsed time from the start of processing is shorter (when the decoding processing is in time), the threshold value of the priority is increased in order to increase the number of images and sounds to be processed. The CutOffPriority is raised (step 103).
【0077】1つ前の画像フレームがPフレームでスキ
ップされているならば処理は行わない。そうでなけれ
ば、画像フレーム(もしくは音声のフレーム)の優先度
に優先度のオフセット値を付加し、優先度の閾値と比較
し、閾値をこえていなければ、デコーダに復号すべきデ
ータを渡す(ステップ104)。If the previous image frame is skipped by P frames, no processing is performed. If not, the priority offset value is added to the priority of the image frame (or the audio frame), the threshold value of the priority is compared, and if the threshold value is not exceeded, the data to be decoded is passed to the decoder ( Step 104).
【0078】なお、優先度のオフセットは、マシンの性
能をあらかじめ調べ、受信端末へオフセットを通知して
おくという使い方(利用者が受信端末で指示してもよ
い)、複数のビデオとサウンドストリームのストリーム
単位の優先度を変更するという使い方(例えば、一番後
ろの背景はオフセット値をあげて処理を間引くようにす
る)ができる。Note that the priority offset is used in advance by checking the performance of the machine and notifying the receiving terminal of the offset (the user may instruct the receiving terminal) to use a plurality of video and sound streams. It can be used to change the priority of each stream (for example, the background value at the back is increased by an offset value so as to thin out the processing).
【0079】マルチストリームを対象とする場合、スト
リーム毎の優先度を付加し、画像や音声のデコードのス
キップ判定をしてもよい。加えて、リアルタイム通信に
おいてもH.263のTR(テンポラリーリファレン
ス)をDTSと同様にして取り扱い利用することで、端
末でのデコード処理が進んでいるか、遅れているかを判
定でき、上記で述べた同様のスキップ処理を実現するこ
とができる。When a multi-stream is targeted, the priority of each stream may be added and the skip determination of the decoding of the image or audio may be performed. In addition, even in real-time communication By handling and using the TR (temporary reference) of H.263 in the same manner as the DTS, it can be determined whether the decoding process in the terminal is advanced or delayed, and the same skip process described above can be realized. .
【0080】図29は、図28のアルゴリズムを実装し
て、優先度の時間変化を調べたものである。FIG. 29 is a diagram in which the algorithm of FIG. 28 is implemented and the change in priority with time is examined.
【0081】同図では、映像フレームに付加される優先
度の変化を示している。この優先度は端末が過負荷であ
る際の復号の可否を決定するための優先度であり、各フ
レーム毎に付加される。優先度は値が小さいほど優先度
が高い。同図の例では0が最も優先度が高い。優先度の
閾値が3であるとき、3よりも大きな値の優先度のフレ
ームは復号されずに廃棄され、3以下の値の優先度が付
加されているフレームは復号される。優先度による選択
的なフレームの廃棄を行うことで、端末の負荷を押さえ
ることが可能である。この優先度の閾値は、現在の処理
時刻と各フレームに付加される復号処理時間(DTS)
との関係から動的に決定してもよい。本手法は映像フレ
ームだけでなく、音声に対しても同様な要領で適用が可
能である。In the same figure, the change of the priority added to the video frame is shown. This priority is a priority for determining whether or not decoding is possible when the terminal is overloaded, and is added for each frame. The smaller the value of the priority, the higher the priority. In the example of the figure, 0 has the highest priority. When the priority threshold value is 3, frames with priority values greater than 3 are not decoded but discarded, and frames with priority values less than or equal to 3 are decoded. By selectively discarding frames according to priority, it is possible to reduce the load on the terminal. This priority threshold is the current processing time and the decoding processing time (DTS) added to each frame.
It may be dynamically determined from the relationship with. This method can be applied to not only video frames but also audio in a similar manner.
【0082】インターネットのような伝送路を考えた場
合、伝送途中で紛失した符号化された情報の再送が必要
な場合、再送すべき符号化された情報の優先度の閾値を
決定する再送要求優先度決定部を受信管理部11に備
え、優先度決定部が管理する優先度や、再送回数、情報
の損失率、フレーム内符号化されたフレームの挿入間
隔、優先度の粒度(たとえば、5段階の優先度など)の
情報をもとに、再送要求すべき符号化された情報に付加
された優先度の閾値を決定することで、受信端末で必要
とする画像や音声のみを再送要求することができる。再
送回数や情報の損失率が大きければ、再送すべき対象と
する情報の優先度を引き上げて、再送や損失率を低下さ
せる必要がある。また、優先度決定部で使用されている
優先度を知ることで、処理対象外の情報の伝送をなくす
ことができる。Considering a transmission line such as the Internet, when it is necessary to retransmit coded information that is lost during transmission, a retransmission request priority for determining a threshold value of the priority of coded information to be retransmitted The reception management unit 11 is provided with a degree determination unit, and the priority determined by the priority determination unit, the number of retransmissions, the information loss rate, the insertion interval of the intra-coded frame, and the granularity of the priority (for example, 5 levels). (Such as the priority of each), determine the priority threshold added to the coded information that should be retransmitted, and request only the image and audio that the receiving terminal needs. You can If the number of retransmissions and the loss rate of information are large, it is necessary to raise the priority of the information to be retransmitted and reduce the retransmission and loss rate. Further, by knowing the priority used in the priority determining unit, it is possible to eliminate the transmission of information that is not the processing target.
【0083】送信側端末に関しては、送信端末の情報の
目標転送レートよりも実際の転送レートが超える場合
や、送信バッファへの符号化された情報の書き込みが、
現在までの転送処理開始からの経過時間と符号化された
情報に付加されている復号もしくは表示される時刻とを
比較して、送信バッファへの情報の書き込みが遅れてい
る場合、符号化された情報に付加され、受信端末の優先
度決定部で利用される端末が過負荷時の優先度を用い
て、情報の送信を間引くことで、目標レートにあった画
像や音声の伝送が可能となる。また、受信側端末で行っ
ているような過負荷時の処理のスキップ機能を送信側端
末でも導入することで送信側端末の過負荷による破綻を
押さえることができる。Regarding the transmitting side terminal, when the actual transfer rate exceeds the target transfer rate of the information of the transmitting terminal, or when the encoded information is written in the transmission buffer,
If the writing of information to the transmission buffer is delayed by comparing the elapsed time from the start of the transfer process up to now with the decoding or display time added to the encoded information, it is encoded. A terminal added to the information and used by the priority determining unit of the receiving terminal can thin out the transmission of the information by using the priority at the time of overload, and thus it is possible to transmit the image and the audio that meet the target rate. . Further, by introducing a skip function for processing at the time of overload, which is performed in the receiving side terminal, in the transmitting side terminal as well, it is possible to suppress failure due to overloading of the transmitting side terminal.
【0084】上記で説明したALの情報を必要に応じ
て、必要な情報だけを伝送できるようにすることによっ
て、アナログ電話回線のような狭帯域の通信路には伝送
情報量を調節できるので有効である。実現方法として
は、送信側端末でデータ自身に付加するデータ管理情報
を予めデータ送信前に決定し、受信端末に使用するデー
タ管理情報を制御情報(たとえば、ランダムアクセスフ
ラグだけを使用するとか)として通知するとともに、受
信側端末では得られた制御情報をもとに、前記伝送フォ
ーマット記憶部103で記憶する伝送構造に関する情報
(どのALの情報を使用するか表している)を書き換え
ることにより、送信側で使用するALの情報(データ管
理情報)の組み替えが可能になる(図19〜図20参
照)。By enabling only the necessary information to be transmitted from the AL information described above, the amount of transmitted information can be adjusted in a narrow band communication path such as an analog telephone line, which is effective. Is. As an implementation method, the data management information to be added to the data itself at the transmitting terminal is determined in advance before data transmission, and the data management information to be used at the receiving terminal is used as control information (for example, using only the random access flag). At the same time as the notification, the receiving side terminal rewrites the information about the transmission structure stored in the transmission format storage unit 103 (which indicates which AL information is used) based on the obtained control information, thereby transmitting It is possible to rearrange the AL information (data management information) used on the side (see FIGS. 19 to 20).
【0085】図4は、送信すべき画像や音声のデータに
付加するヘッダ情報の動的な変更方法について説明する
図である。図の例では、伝送すべきデータ(ES)をデ
ータ片に分解し、得られたデータ片に、データの順序関
係を示すための識別情報(シーケンス番号)と、データ
片の処理可能な開始位置であるかどうかを示す情報(マ
ーカービット)と、データ片の転送に関する時間情報
(タイムスタンプ)とを、本発明の伝送管理情報に対応
するものとして、通信ヘッダの形でデータ片に付加して
いる。FIG. 4 is a diagram for explaining a method of dynamically changing header information added to image or audio data to be transmitted. In the example of the figure, the data (ES) to be transmitted is decomposed into data pieces, and the obtained data pieces have identification information (sequence number) for indicating the order relation of the data and the start position where the data pieces can be processed. Information indicating whether or not it is (marker bit) and time information (time stamp) regarding the transfer of the data piece are added to the data piece in the form of a communication header as corresponding to the transmission management information of the present invention. There is.
【0086】具体的な例としては、RTP(Realt
ime Transfer Protocol、RFC
1889)では上記のシーケンス番号、マーカービッ
ト、タイムスタンプ、オブジェクトID(SSRCと呼
ばれている)、バージョン番号などの情報を通信ヘッダ
として使用している。ヘッダ情報の項目の拡張は可能で
あるが、上記の項目は固定の項目として必ず付加され
る。しかし、複数の異なる符号化の画像や音声を複数、
同時に伝送する通信環境で、TV電話のようにリアルタ
イム通信とビデオ・オン・デマンドのように蓄積メディ
アの伝送が混在する場合、通信ヘッダの持つ意味合いが
異なり、識別する手段が必要である。As a concrete example, RTP (Realt
image Transfer Protocol, RFC
1889) uses information such as the above sequence number, marker bit, time stamp, object ID (called SSRC), and version number as a communication header. The header information items can be expanded, but the above items are always added as fixed items. However, multiple images and audios with different encodings,
In a simultaneous communication environment where real-time communication such as a TV phone and transmission of a storage medium such as video-on-demand are mixed, the meaning of the communication header is different and a means for identifying is required.
【0087】例えば、タイムスタンプの情報は、MPE
G1/2の場合は前述したように再生時刻であるPTS
を示すが、H.261やH.263ではエンコードされ
た時間間隔を表す。しかし、H.263を音声と同期を
とって処理を行いたい場合、タイムスタンプがPTSの
情報であることを示す必要がある。なぜならば、H.2
63の場合、タイムスタンプの情報は、エンコードされ
たフレーム間の時間間隔を示すのであって、1枚目のフ
レームのタイムスタンプはランダムであるとRTPで定
義されているからである。For example, the time stamp information is MPE.
In the case of G1 / 2, the playback time is PTS as described above.
, H. 261 and H.264. 263 represents the encoded time interval. However, H. When processing 263 in synchronization with voice, it is necessary to indicate that the time stamp is PTS information. Because H. Two
In the case of 63, the time stamp information indicates the time interval between encoded frames, and the time stamp of the first frame is defined by RTP as being random.
【0088】そこで、(a)タイムスタンプがPTSで
あるかないかを示すフラグを通信ヘッダ情報(通信ヘッ
ダの拡張が必要になる)もしくは、(b)H.263や
H.261のペイロードのヘッダ情報(つまり、ALの
情報)として付加する必要がある(この場合、ペイロー
ド情報の拡張が必要になる)。Therefore, (a) a flag indicating whether the time stamp is PTS or not is set in the communication header information (it is necessary to extend the communication header) or (b) H.264. 263 and H.264. It is necessary to add it as header information (that is, AL information) of the 261 payload (in this case, the payload information needs to be extended).
【0089】RTPのヘッダ情報として、データ片の処
理可能な開始位置であるかどうかを示す情報であるマー
カビットが付加されているが、ALの情報としても前述
したように、データに対してアクセスできる開始時点で
あることを示すアクセスフラグ、ランダムにデータに対
してアクセスすることができることを示すランダムアク
セスフラグを持たせたい場合がある。重複して、通信ヘ
ッダに持たせるのは効率が悪くなるため、ALのフラグ
を通信ヘッダで用意しているフラグで代用させる方法も
考えられる。As the RTP header information, a marker bit, which is information indicating whether the start position of the data piece can be processed, is added, and as the AL information, the data is accessed as described above. There is a case where it is desired to have an access flag indicating that it is a start time point and a random access flag indicating that data can be randomly accessed. Since it is inefficient to duplicately give it to the communication header, it is conceivable to substitute the flag prepared for the AL for the flag of AL.
【0090】(c)ALにフラグを付加せずに通信ヘッ
ダに付加しているヘッダでALのフラグを代用させるこ
とを示すフラグを通信ヘッダに新たに設けるか、通信ヘ
ッダのマーカービットはALのものと同じであると定義
することで、問題は解決される(ALに持たせるよりも
解釈が早くできことが期待できる)。つまり、マーカー
ビットがALのフラグと同じ意味を持つかどうかを示す
フラグである。この場合、通信ヘッダの改良もしくは、
拡張領域に記述することが考えられる。(C) A flag indicating that the AL flag is substituted by the header added to the communication header without adding the flag to AL is newly provided in the communication header, or the marker bit of the communication header is set to AL. Defining it to be the same thing solves the problem (expecting faster interpretation than having AL). That is, it is a flag indicating whether the marker bit has the same meaning as the flag of AL. In this case, improve the communication header, or
It is possible to describe it in the extension area.
【0091】逆に、(d)通信ヘッダのマーカビットの
意味をALに少なくともランダムアクセスフラグもしく
は、アクセスフラグのいずれかが存在することを意味す
るように解釈するようにしてもよい。この場合、従来と
は解釈の意味が変わったことを知るには通信ヘッダのバ
ージョン番号で対応できる。これ以外に、単純な方法と
しては、通信ヘッダもしくはALのヘッダにのみアクセ
スフラグやランダムアクセスフラグを設ければ処理は簡
単である(前者の場合、フラグを両方とも設ける場合も
考えられるが、通信ヘッダの新たな拡張が必要にな
る)。Conversely, (d) the meaning of the marker bit of the communication header may be interpreted to mean that at least either the random access flag or the access flag is present in AL. In this case, the version number of the communication header can be used to know that the meaning of the interpretation has changed. In addition to this, as a simple method, the process is simple if an access flag or a random access flag is provided only in the communication header or the AL header (in the former case, both flags may be provided, Requires new extension of header).
【0092】データ処理の優先度を示す情報をALの情
報として付加することは述べたが、通信ヘッダにデータ
の処理の優先度を付加することによって、データ処理の
優先度の処理の判定がネットワーク上においてもデータ
の中身を解釈せずに行うことが可能となる。なお、IP
v6の場合、RTPのレベルより下位のレイヤーで付加
することが可能である。Although it has been described that the information indicating the priority of the data processing is added as the information of the AL, the priority of the data processing is added to the communication header so that the determination of the processing of the priority of the data processing is performed by the network. Also in the above, it is possible to do without interpreting the contents of the data. IP
In the case of v6, it is possible to add at a layer lower than the RTP level.
【0093】RTPの通信ヘッダにデータの処理の有効
期間を示すためのタイマーもしくはカウンタを付加する
ことで、伝送されてくるパケットのある状態変化がどの
ように変化しているかを判断することができる。たとえ
ば、必要となるデコーダソフトウェアが、アクセス速度
の遅い記憶装置に記憶されている場合、デコーダが必要
になるという情報と、タイマーやカウンターにより、い
つの時点で必要になるかを判断することが可能になる。
この場合、用途によってはALの情報にタイマーやカウ
ンター、データの処理の優先度の情報は不要である。By adding a timer or counter for indicating the valid period of data processing to the communication header of RTP, it is possible to judge how a certain state change of the transmitted packet is changing. . For example, if the required decoder software is stored in a storage device with a slow access speed, the information that the decoder is needed and a timer or counter can be used to determine when it is needed. Become.
In this case, depending on the application, the AL information does not require a timer, a counter, or data processing priority information.
【0094】図5(a)〜図5(b)、と図6(a)〜
図6(d)は、AL情報の付加方法について説明する図
である。5 (a) to 5 (b) and 6 (a) to
FIG. 6D is a diagram illustrating a method of adding AL information.
【0095】図5(a)に示した様に、ALを伝送すべ
きデータの先頭にのみ付加するか、あるいは、図5
(b)に示した様に、伝送すべきデータ(ES)を1つ
以上のデータ片に分解した後のデータ片のそれぞれに付
加するかを通知する制御情報を、受信端末へ送付するこ
とにより伝送情報の取り扱い粒度を選択できるようにす
ることが可能になる。ALを細分化されたデータに対し
てつけることで、アクセス遅延が問題になるような場合
には有効である。As shown in FIG. 5A, AL is added only at the beginning of the data to be transmitted, or
As shown in (b), by sending control information to the receiving terminal, which notifies whether or not the data (ES) to be transmitted is decomposed into one or more data pieces and is added to each of the data pieces. It becomes possible to select the handling granularity of the transmission information. Attaching the AL to the fragmented data is effective when access delay is a problem.
【0096】前述したように、受信側でのデータ管理情
報の組み替えや、データ管理情報のデータへの配置方法
の変更が行われることを予め受信側端末に通知するため
に、フラグ、カウンター、タイマーのような表現方法を
用いて、ALの情報として用意したり、通信ヘッダとし
て用意して受信端末に通知することで、受信端末対応が
スムーズにできる。As described above, in order to notify the receiving side terminal in advance that the data management information on the receiving side is rearranged and the method of arranging the data management information in the data is changed, a flag, a counter, a timer are provided. By preparing as AL information or using as a communication header and notifying the receiving terminal by using the expression method as described above, the receiving terminal can be smoothly handled.
【0097】これまでの例ではRTPのヘッダ(又は、
通信ヘッダ)とALの情報の重複を回避する方法や、R
TPの通信ヘッダやALの情報を拡張する方法について
述べた。しかし、本発明は、必ずしもRTPである必要
はない。たとえば、UDPやTCPを使って独自の通信
ヘッダやAL情報を新たに定義してもよい。インターネ
ットプロファイルではRTPを使うことはあるが、Ra
wプロファイルではRTPのような多機能なヘッダは定
義されていない。AL情報と通信ヘッダに関する考え方
としては、次の4通りの考え方ができる(図6(a)〜
図6(d)参照)。In the above examples, the RTP header (or,
Communication header) and method to avoid duplication of AL information, R
The method of extending the communication header of TP and the information of AL has been described. However, the present invention does not necessarily have to be RTP. For example, a unique communication header or AL information may be newly defined using UDP or TCP. Ra may be used in Internet profile, but Ra
The w profile does not define a multifunctional header such as RTP. There are four ways of thinking about AL information and communication headers (Fig. 6 (a)-
See FIG. 6D).
【0098】(1)RTPとALで、既に割り当てられ
ているヘッダ情報が重複しないように、RTPのヘッダ
情報もしくはALの情報を修正、拡張する(とくにタイ
ムスタンプの情報が重複、タイマーやカウンター、デー
タの処理の優先度情報が拡張情報となる)。あるいは、
RTPのヘッダも拡張せず、ALの情報もRTPのもの
と重複していても考慮しない方法でもよい。これらに関
してはこれまでに示した内容に相当する。RTPは既に
一部、H.323で実用化されているので、互換性を保
ったRTPの拡張は有効である(図6(a)参照)。(1) The RTP header information or the AL information is corrected or expanded so that the header information already assigned to the RTP and the AL does not overlap (especially, the time stamp information is duplicated, the timer or counter, The data processing priority information is extended information). Alternatively,
The RTP header may not be expanded, and the AL information may be duplicated with that of the RTP and not considered. These are equivalent to the contents shown so far. RTP is already part of H.264. Since it has been put to practical use in H.323, the extension of RTP that maintains compatibility is effective (see FIG. 6A).
【0099】(2)RTPにこだわらずに、通信ヘッダ
を簡略にして(たとえば、シーケンス番号だけにすると
か)、残りをAL情報に多機能な制御情報として持たせ
る。また、AL情報で使用する項目を通信前に可変に設
定できるようにすることで、柔軟な伝送フォーマットが
規定できる(図6(b)参照)。(2) Regardless of RTP, the communication header is simplified (for example, only the sequence number is used), and the rest is included in the AL information as multifunctional control information. Further, by making it possible to variably set the items used in the AL information before communication, a flexible transmission format can be defined (see FIG. 6B).
【0100】(3)RTPにこだわらずに、ALの情報
を簡略にして(極端な例では、ALには情報を付加しな
い)、通信ヘッダにすべての制御情報を持たせる。通信
ヘッダとして頻繁によく参照されうるシーケンス番号、
タイムスタンプ、マーカービット、ペイロードタイプ、
オブジェクトIDに関しては固定のヘッダ情報としてお
き、データ処理の優先度情報、タイマー情報に関しては
拡張情報として、拡張情報が存在するどうかを示す識別
子を設けておいて、拡張情報が定義されていれば参照す
るようにしてもよい(図6(c)参照)。(3) Regardless of the RTP, the AL information is simplified (in the extreme example, no information is added to the AL), and the communication header has all the control information. Sequence numbers, which are often referenced as communication headers,
Time stamp, marker bit, payload type,
The object ID is set as fixed header information, the data processing priority information and the timer information are provided as extended information with an identifier indicating whether or not the extended information exists, and reference is made if the extended information is defined. You may do so (see FIG. 6C).
【0101】(4)RTPにこだわらず、通信ヘッダ、
ALの情報を簡略にして、これら通信ヘッダやAL情報
とは、別のパケットとして、フォーマットを定義して、
伝送する。例えば、ALの情報はマーカービット、タイ
ムスタンプ、オブジェクトIDだけ定義し、通信ヘッダ
もシーケンス番号だけを定義し、これらの情報とは別の
伝送パケット(第2のパケット)として、ペイロード情
報、データ処理の優先度情報、タイマー情報などを定義
し、伝送する方法も考えられる(図6(d)参照)。(4) Regardless of RTP, communication header,
By simplifying the AL information, the format is defined as a packet different from these communication header and AL information,
To transmit. For example, the AL information defines only marker bits, time stamps, and object IDs, the communication header defines only sequence numbers, and payload information, data processing as a transmission packet (second packet) different from these information. A method of defining priority information, timer information, etc., and transmitting the information can be considered (see FIG. 6D).
【0102】上記に示したように、用途や、既に画像や
音声に付加されているヘッダ情報を考慮すれば、用途に
あわせて、通信ヘッダ、ALの情報、データとは別に伝
送するパケット(第2のパケット)を自由に定義できる
(カスタイマイズできる)ようにするのが望ましい。As described above, in consideration of the purpose of use and the header information already added to the image and voice, the packet (the first one) to be transmitted separately from the communication header, the AL information, and the data is used in accordance with the purpose. It is desirable to be able to freely define (2 packets) (customize).
【0103】図7は、複数の論理的な伝送路を動的に多
重化、分離して情報の伝送を行う方法について説明する
図である。論理的な伝送路の数を節約するために、利用
者の指示もしくは論理的な伝送路の数に応じて、複数の
データもしくは制御情報を伝送するための論理的な伝送
路の情報の多重化を開始したり、終了させることが可能
な情報多重部を伝送部13に、多重化された情報を分離
する情報分離部を受信管理部11に設けることにより実
現できる。FIG. 7 is a diagram for explaining a method of dynamically multiplexing and separating a plurality of logical transmission lines to transmit information. In order to save the number of logical transmission lines, multiplex information of the logical transmission line for transmitting a plurality of data or control information according to a user's instruction or the number of logical transmission lines This can be realized by providing the transmission unit 13 with an information multiplexing unit capable of starting and ending the transmission, and the reception management unit 11 with an information demultiplexing unit for demultiplexing the multiplexed information.
【0104】なお、図7では情報多重部を“Group
MUX”とよんでおり、具体的にはH.223のよう
な多重化方式を用いればよい。このGroup MUX
は送受信端末で設けてもよいし、中継のルータや端末に
設けることによって、狭帯域通信路への対応や、Gro
up MUXをH.223で実現すればH.324と相
互接続できる。Note that, in FIG. 7, the information multiplexing unit is set to "Group".
MUX ", and specifically, a multiplexing method such as H.223 may be used. This Group MUX
May be provided at the transmission / reception terminal, or by being provided at a relay router or terminal, it is possible to support a narrow band communication path,
up MUX to H.264. H.223 if realized in H.223. Can be interconnected with 324.
【0105】情報多重部に関する制御情報(多重化制御
情報)を素早く取り出すために、情報多重部の制御情報
を情報多重部でデータと多重化して送信するのではな
く、多重化せずに別の論理的な伝送路で伝送すること
で、多重化による遅延を低減することができる。これに
伴って、情報多重部に関する制御情報をデータと多重化
して伝送するのか、データと多重化して送信するのでは
なく、多重化せずに別の論理的な伝送路で伝送するのか
を通知して伝送することで、従来の多重化と整合性を保
たせたり、多重化による遅延を低減させるかを利用者で
選択することが可能になる。ここで、情報多重部に関す
る多重化制御情報とは、例えば、情報多重部が、各デー
タに対して、どの様な多重化を行っているのかという、
多重化の内容を示す情報である。In order to quickly take out the control information (multiplexing control information) about the information multiplex section, the control information of the information multiplex section is not multiplexed with the data in the information multiplex section and is transmitted, but is not multiplexed and is transmitted separately. By transmitting on a logical transmission path, the delay due to multiplexing can be reduced. Along with this, it is notified whether the control information related to the information multiplexing unit is multiplexed with data and transmitted, or whether it is not multiplexed and transmitted with data but is transmitted through another logical transmission line without being multiplexed. Then, the user can select whether to maintain consistency with the conventional multiplexing or reduce the delay due to the multiplexing. Here, the multiplexing control information regarding the information multiplexing unit is, for example, what kind of multiplexing is performed by the information multiplexing unit for each data,
This is information indicating the content of multiplexing.
【0106】前述したように、同様に、少なくとも多重
化の開始と終了を通知する情報、多重化すべき論理的な
伝送路の組合せを通知するための情報、多重化に関する
制御情報(多重化制御情報)の伝送方法の通知を、フラ
グ、カウンタ、タイマーのような表現方法で、制御情報
として伝送、もしくはデータ管理情報としてデータとと
もに、受信側端末に伝送することで、受信側でのセット
アップの時間を短縮できる。また、前述したようにフラ
グ、カウンタ、タイマーを表現する項目はRTPの送信
ヘッダに設けてもよい。As described above, similarly, at least the information for notifying the start and end of the multiplexing, the information for notifying the combination of the logical transmission lines to be multiplexed, the control information on the multiplexing (the multiplexing control information) ) The transmission method notification is transmitted as control information or as data management information together with data by a representation method such as a flag, a counter, or a timer, and is transmitted to the receiving side terminal, so that the setup time at the receiving side is reduced. Can be shortened. Further, as described above, items representing flags, counters, and timers may be provided in the RTP transmission header.
【0107】複数個の情報多重部や情報分離部が存在す
る場合、情報多重部や情報分離部を識別するための識別
子とともに制御情報(多重化制御情報)を伝送すれば、
どの情報多重部に関する制御情報(多重化制御情報)か
を識別することができる。制御情報(多重化制御情報)
としては、多重化のパターンなどがあげられる。また、
情報多重部や情報分離部の識別子を乱数を用いて、端末
間で決定することで情報多重部の識別子を生成すること
ができる。たとえば、送受信端末間で決められた範囲で
の乱数を発生させ、大きい方の値を情報多重部の識別子
(識別番号)とすればよい。When there are a plurality of information multiplexing units or information demultiplexing units, if control information (multiplexing control information) is transmitted together with an identifier for identifying the information multiplexing units or information demultiplexing units,
It is possible to identify which information multiplexing unit is control information (multiplexing control information). Control information (multiplex control information)
Examples of such patterns include multiplexing patterns. Also,
It is possible to generate the identifier of the information multiplexing unit by determining the identifiers of the information multiplexing unit and the information separating unit between the terminals using random numbers. For example, a random number within a range determined between the transmitting and receiving terminals may be generated, and the larger value may be used as the identifier (identification number) of the information multiplexing unit.
【0108】情報多重部で多重化されたデータは、従
来、RTPで定義されているメディアタイプとは異なる
ため、RTPのペイロード・タイプに、情報多重部で多
重化された情報であることを示す情報(新たなメディア
タイプ、H.223を定義)を定義すればよい。Since the data multiplexed by the information multiplexing unit is different from the media type conventionally defined in RTP, it indicates that the payload type of RTP is the information multiplexed by the information multiplexing unit. Information (new media type, defining H.223) may be defined.
【0109】多重化されたデータに対するアクセス速度
を向上させる方法として、情報多重部で伝送もしくは記
録する情報を制御情報、データ情報の順に配置すること
で多重化された情報の解析を早くできることが期待でき
る。また、制御情報に付加するデータ管理情報で記述す
る項目は固定にし、データとは異なる識別子(ユニーク
なパターン)を付加して多重化することでヘッダ情報の
解析を早くできる。As a method for improving the access speed to the multiplexed data, it is expected that the information to be transmitted or recorded in the information multiplexing section will be arranged in the order of the control information and the data information so that the analysis of the multiplexed information can be speeded up. it can. Further, the items described in the data management information added to the control information are fixed, and an identifier (unique pattern) different from the data is added and multiplexed to speed up the analysis of the header information.
【0110】図8は放送番組の伝送手順について説明す
るための図である。論理的な伝送路の識別子と放送番組
の識別子の対応関係を放送番組の情報として制御情報を
伝送するか、放送番組の識別子をデータ管理情報(AL
情報)としてデータに付加して伝送することで複数の伝
送路で伝送されるデータがどの番組のために放送されて
いるのかを識別することが可能となる。また、データの
識別子(RTPではSSRC)と論理的な伝送路の識別
子(たとえば、LANのポート番号)との関係を制御情
報として受信側端末に伝送して、受信側端末では受信可
能であることを確認後(Ack/Reject)、対応するデー
タを伝送することにより、制御情報とデータを独立した
伝送路で伝送しても、データ間の対応関係がとれる。FIG. 8 is a diagram for explaining the transmission procedure of the broadcast program. The control information is transmitted using the correspondence between the logical transmission path identifier and the broadcast program identifier as the broadcast program information, or the broadcast program identifier is used as the data management information (AL
It is possible to identify for which program the data transmitted through a plurality of transmission paths is broadcast by adding the data as information and transmitting it. Further, the relation between the data identifier (SSRC in RTP) and the logical transmission line identifier (for example, LAN port number) is transmitted to the receiving side terminal as control information, and can be received by the receiving side terminal. After confirming (Ack / Reject), by transmitting the corresponding data, the correspondence between the data can be obtained even if the control information and the data are transmitted through independent transmission paths.
【0111】放送番組やデータに対して伝送の順序関係
を示す識別子と、放送番組やデータが情報として利用で
きる有効期限を示すためのカウンタもしくはタイマーの
情報とを組み合わせて、放送番組やデータに付加して伝
送することで、戻りチャンネルなしで放送が実現できる
(有効期限が過ぎそうになったら、不足の情報があって
も放送番組の情報やデータの再生を開始する)。単一の
通信ポートのアドレス(マルチキャストアドレス)を使
って、制御情報とデータに分離せずに放送する方法も考
えられる。An identifier indicating the order of transmission of broadcast programs and data, and counter or timer information for indicating the expiration date when the broadcast programs and data can be used as information are combined and added to the broadcast programs and data. By doing so, the broadcast can be realized without the return channel (when the expiration date is about to expire, reproduction of information and data of the broadcast program is started even if there is insufficient information). It is also possible to use a single communication port address (multicast address) to broadcast without separating control information and data.
【0112】なお、バックチャンネルを持たない通信の
場合、データの構造情報を受信端末が知ることができる
ように、制御情報はデータよりも十分、前もって伝送し
ておく必要がある。また、制御情報は一般には、パケッ
トロスのない信頼性の高い伝送チャンネルで伝送すべき
であるが、信頼性の低い伝送チャネルを用いる場合は周
期的に同じ伝送シーケンス番号を持った制御情報を繰り
返し伝送する必要がある。これはセットアップ時間に関
する制御情報を送る場合に限った話ではない。In the case of communication having no back channel, the control information needs to be transmitted well in advance of the data so that the receiving terminal can know the structure information of the data. In addition, control information should generally be transmitted on a highly reliable transmission channel without packet loss, but when using a less reliable transmission channel, control information with the same transmission sequence number is repeated periodically. Need to be transmitted. This is not limited to sending control information about setup time.
【0113】また、データ管理情報として付加可能な項
目(たとえば、アクセスフラグ、ランダムアクセスフラ
グ、データの再生時刻(PTS)、データ処理の優先度
情報など)を選択して、制御情報としてデータの識別子
(SSRC)とともにデータとは別の論理的な伝送路で
伝送するか、データとともにデータ管理情報(ALの情
報)として伝送するかを、データ送信前に送信側で決定
して、受信側に制御情報として通知して伝送することで
柔軟なデータの管理と伝送が可能となる。Further, items that can be added as data management information (for example, access flag, random access flag, data reproduction time (PTS), priority information of data processing, etc.) are selected, and data identifiers are used as control information. Before sending data, the sending side decides whether to send it along with (SSRC) through a logical transmission path different from data or as data management information (AL information) together with the data, and controls it to the receiving side. By notifying and transmitting as information, flexible management and transmission of data becomes possible.
【0114】これにより、ALには情報を付加せずにデ
ータ情報の伝送を行うことができるので、RTPを用い
て画像や音声のデータを伝送する際に、従来から定義さ
れているペイロードの定義を拡張する必要がなくなる。As a result, data information can be transmitted without adding information to the AL. Therefore, when transmitting image or audio data using RTP, the definition of the payload that has been conventionally defined is used. Eliminates the need to expand
【0115】図9(a)〜図9(b)は、プログラムや
データの読み込み、立ち上げ時間を考慮した画像や音声
の伝送方法を示す図である。特に、衛星放送や携帯端末
のように戻りチャンネルがなく一方向で、端末の資源が
限られている場合で、プログラムやデータが受信側端末
に存在して利用する場合、必要となるプログラム(例え
ば、H.263、MPEG1/2、音声のデコーダのソ
フトウェアなど)やデータ(たとえば、画像データや音
声のデータ)が、読み込みに時間がかかる記憶装置(た
とえば、DVD、ハードディスク、ネットワーク上のフ
ァイルサーバなど)に存在する場合に、予め必要となる
プログラムやデータを識別する識別子と、伝送されるス
トリームの識別子(たとえば、SSRCや、Logic
al Channel Number)、受信端末で必
要となる時点を推定するためのフラグ、カウンタ(カウ
ントアップ、ダウン)、タイマーのような表現方法で、
制御情報として受信、もしくはデータ管理情報としてデ
ータとともに受信することで、必要となるプログラムや
データのセットアップ時間の短縮が可能となる(図2
2)。FIGS. 9A and 9B are diagrams showing a method of transmitting an image and a sound in consideration of the reading of programs and data and the start-up time. In particular, when there is no return channel such as satellite broadcasting or a mobile terminal, and there is limited one-way resource of the terminal, and the program or data exists and is used in the receiving side terminal, the necessary program (for example, , H.263, MPEG1 / 2, audio decoder software, etc.) and data (eg image data and audio data) take time to read (eg DVD, hard disk, file server on network, etc.) ), An identifier for identifying a program or data required in advance and an identifier of a stream to be transmitted (for example, SSRC or Logic).
al Channel Number), a flag for estimating the time required by the receiving terminal, a counter (count up, down), a representation method such as a timer,
By receiving the control information or the data as the data management information together with the data, it is possible to shorten the setup time of the necessary programs and data (FIG. 2).
2).
【0116】一方、プログラムやデータが送信される場
合、プログラムやデータの受信端末での記憶先(たとえ
ば、ハードディスク、メモリー)、起動や読み込みにか
かる時間、端末の種類や記憶先と起動や読みとりにかか
る時間の対応関係(例えば、CPUパワー、記憶デバイ
スと平均的な応答時間の関係)、利用順序を示す情報と
ともにプログラムやデータを送信側から伝送すること
で、受信側端末で必要となるプログラムやデータを実際
に必要となる場合、プログラムやデータの記憶先や読み
出す時間に関してスケジューリングが可能となる。On the other hand, when a program or data is transmitted, the receiving destination of the program or data at the receiving terminal (for example, hard disk, memory), the time required for starting or reading, the type or storing destination of the terminal and starting or reading. By transmitting programs and data from the transmitting side together with such time correspondence (for example, CPU power, relationship between storage device and average response time), and information indicating the order of use, programs and data required by the receiving side terminal can be obtained. When data is actually needed, scheduling is possible with respect to the storage location of the program or data and the time of reading.
【0117】図10(a)〜図10(b)は、ザッピン
グ(TVのチャンネル切り替え)に対する対応方法につ
いて説明する図である。FIGS. 10A and 10B are views for explaining a method of dealing with zapping (TV channel switching).
【0118】従来からある映像を受信するだけの衛星放
送とは異なり、プログラムを受信端末で実行しなければ
ならないとき、プログラムの読み込みや立ち上がるまで
のセットアップの時間が大きな問題となる。これは、携
帯端末のように利用資源が限られる場合でも同じことが
いえる。Unlike the conventional satellite broadcasting which only receives a certain image, when the program has to be executed by the receiving terminal, there is a big problem in the setup time until the program is read and the program is started up. The same can be said when the use resources are limited like a mobile terminal.
【0119】解決策の1つとして、(a)利用者が視聴
するための主視聴部と、利用者が視聴している以外の番
組で、必要となるプログラムやデータが、読み込みに時
間がかかる記憶装置に存在する場合に、利用者が視聴し
ている番組以外の番組を受信端末が周期的に視聴する副
視聴部を備え、予め必要となるプログラムやデータを識
別する識別子と、受信端末で必要となる時点を推定する
ためのフラグ、カウンタ、タイマーといった情報と、番
組との対応関係を、制御情報(データとは別のパケット
で伝送される、端末処理を制御するための情報)として
受信、もしくはデータ管理情報(ALの情報)としてデ
ータとともに受信して、プログラムやデータの読み込み
を準備しておくことで、受信側端末でのセットアップ時
間が短縮できることが期待できる。As one of the solutions, (a) it takes a long time to read the necessary programs and data for the main viewing section for the user to watch and the programs other than the programs the user is watching. When present in the storage device, the receiving terminal is provided with a sub-viewing unit for allowing the receiving terminal to periodically watch a program other than the program being watched by the user, and an identifier for identifying a necessary program or data in advance and a receiving terminal Information such as flags, counters, and timers for estimating the required time point and the correspondence with programs are received as control information (information transmitted in a packet other than data and used for controlling terminal processing). Or, by receiving it together with the data as data management information (AL information) and preparing to read the program or data, the setup time at the receiving terminal can be shortened. There can be expected.
【0120】解決策の2つ目としては、複数個のチャン
ネルで放送される画像の見出し画像だけを放送する放送
チャンネルを設け、視聴者が視聴番組を切り替えること
で、必要となるプログラムやデータが、読み込みに時間
がかかる記憶装置に存在した場合、一旦、視聴したい番
組の見出し画像を選択して視聴者に提示するか、読み込
み中であることを提示するとともに、記憶装置から必要
となるプログラムやデータを読み込み、読み込み終了
後、視聴者が視聴したい番組を再開することで、セット
アップ時に発生する画面の停止が防止できる。ここでい
う見出し画像は、周期的に複数個のチャンネルで放送さ
れる番組をサンプリングした放送画像を指す。The second solution is to provide a broadcasting channel for broadcasting only index images of images broadcast on a plurality of channels so that the viewer can switch the viewing program so that necessary programs and data can be displayed. , If it exists in a storage device that takes a long time to read, it is necessary to temporarily select the heading image of the program to be viewed and present it to the viewer, or to indicate that the program is being read, and By reading the data and after the reading is completed, the viewer can restart the program he / she wants to watch, thereby preventing the screen from being stopped during the setup. The heading image here means a broadcast image obtained by sampling a program that is periodically broadcast on a plurality of channels.
【0121】また、タイマーは時間表現で、たとえば、
送信側から送られてくるデータストリームをデコードす
るのに必要なプログラムは現在からいつの時点で必要と
なるかを示す。カウンタは送受信端末間で決めた基本時
間単位で、何回目かを示す情報であればよい。フラグ
は、セットアップに必要な時間前に送出するデータもし
くは、制御情報(データとは別のパケットで伝送され
る、端末処理を制御する情報)とともに伝送して通知す
る。タイマー、カウンターともデータの中に埋め込んで
伝送してよいし、制御情報として伝送してもよい。A timer is a time expression, for example,
The program required to decode the data stream sent from the sender indicates when it is needed from the present. The counter may be information indicating the number of times in a basic time unit determined between the transmitting and receiving terminals. The flag is transmitted and notified together with data sent before the time required for setup or control information (information for controlling terminal processing, which is transmitted in a packet different from the data). Both the timer and the counter may be embedded in the data for transmission, or may be transmitted as control information.
【0122】さらに、セットアップ時間の決定方法とし
ては、例えば、クロックベースで動作しているISDN
のような伝送路を用いた場合、送信側端末から受信端末
でプログラムやデータが必要となる時点を通知するため
に、伝送管理情報として伝送の順序関係を識別するため
の送信シリアル番号を用いて、データ管理情報としてデ
ータとともに、もしくは、制御情報として受信端末に通
知することで、セットアップが行われる時刻の予測が可
能になる。また、インターネットのようにジッタや遅延
により、伝送時間が変動する場合は、RTCP(インタ
ーネットのメディア伝送プロトコル)で既に実現されて
いるような手段で、ジッタや遅延時間から、伝送の伝播
遅延を加味してセットアップ時間に付加しておけばよ
い。Further, as a method for determining the setup time, for example, ISDN operating on a clock basis is used.
When a transmission line such as the above is used, a transmission serial number for identifying the order relation of transmission is used as transmission management information in order to notify the time when a program or data is needed from the transmission side terminal to the reception terminal. By notifying the receiving terminal with the data as the data management information or as the control information, the time when the setup is performed can be predicted. If the transmission time varies due to jitter or delay like the Internet, the propagation delay of the transmission is added from the jitter or delay time by means already realized by RTCP (Internet media transmission protocol). Then add it to the setup time.
【0123】図11から図24は、実際に端末間で送受
信されるプロトコルの具体例を示す図である。11 to 24 are diagrams showing specific examples of protocols actually transmitted and received between terminals.
【0124】伝送フォーマットや伝送手続きはASN.
1で記述した。又、本伝送フォーマットは、ITUの
H.245をベースに拡張を行った。図11にもあるよ
うに、画像や音声のオブジェクトは階層構造をなしてい
てもよく、ここの例では、各オブジェクトIDは放送番
組の識別子(ProgramID)とオブジェクトID
(SSRC)の属性をもち、画像間の構造情報、合成方
法はJava,VRMLといったスクリプト言語で記述
する。The transmission format and the transmission procedure are ASN.
Described in 1. This transmission format is ITU H.264 standard. Expansion was performed based on 245. As shown in FIG. 11, the image and audio objects may have a hierarchical structure. In this example, each object ID is a broadcast program identifier (ProgramID) and an object ID.
It has an attribute of (SSRC), and the structure information between images and the composition method are described in a script language such as Java or VRML.
【0125】図11は、オブジェクト間の関係について
の例を示す図である。FIG. 11 is a diagram showing an example of the relationship between objects.
【0126】同図において、オブジェクトは、映像、音
声、CG、テキストなどのメディアである。同図の例で
は、オブジェクトは階層構造を成している。各オブジェ
クトは、プログラム番号(TVのチャンネルに相当、
“Program ID”)とオブジェクトを識別する
オブジェクト識別子“Object ID”を持つ。R
TP(インターネットで用いられるメディア伝送のプロ
トコル、Realtime Transfer Pro
tocol)で各オブジェクトを伝送する場合は、オブ
ジェクト識別子はSSRC(同期ソース識別子)に対応
させることで容易にオブジェクトの識別が可能である。
なお、オブジェクト間の構造記述はJAVA、VRML
といった記述言語で記述することが可能である。In the figure, the object is a medium such as video, audio, CG, and text. In the example shown in the figure, the objects have a hierarchical structure. Each object has a program number (corresponding to a TV channel,
“Program ID”) and an object identifier “Object ID” for identifying an object. R
TP (Media transmission protocol used on the Internet, Realtime Transfer Pro
When each object is transmitted by means of tocol), the object identifier can be easily identified by associating the object identifier with the SSRC (synchronization source identifier).
The structure description between objects is JAVA, VRML.
It is possible to describe in a description language such as.
【0127】これらのオブジェクトの伝送方法は2通り
考えられる。1つは放送型であり、送信側端末から一方
的に伝送する形態である。もう1つは送受信端末間(端
末A、端末B)でオブジェクトの伝送を行う形態(通信
型)も考えられる。There are two possible methods of transmitting these objects. One is a broadcast type, which is a mode of unilaterally transmitting from a transmitting side terminal. The other is a mode (communication type) in which an object is transmitted between transmitting / receiving terminals (terminal A, terminal B).
【0128】例えば、伝送方法としてはインターネット
の場合はRTPを用いることができる。制御情報は、T
V電話の規格ではLCNOと呼ばれる伝送チャンネルを
用いて伝送する。同図の例では伝送に複数の伝送チャン
ネルを用いているが、これらのチャンネルは同一の番組
チャンネル(Program ID)が割り当てられて
いる。For example, as the transmission method, RTP can be used in the case of the Internet. The control information is T
In the V telephone standard, transmission is performed using a transmission channel called LCNO. Although a plurality of transmission channels are used for transmission in the example of the figure, the same program channel (Program ID) is assigned to these channels.
【0129】図12は、本発明で述べた機能を実現する
ためのプロトコルの実現方法について説明する図であ
る。ここではTV電話の規格(H.324,H.32
3)で用いられる伝送プロトコル(H.245)を用い
て説明する。H.245の拡張を行うことで本発明で述
べた機能を実現する。FIG. 12 is a diagram for explaining a method for realizing a protocol for realizing the functions described in the present invention. Here, the videophone standard (H.324, H.32
This will be described using the transmission protocol (H.245) used in 3). H. The functions described in the present invention are realized by expanding 245.
【0130】同図の例で示した記述方法は、ASN.1
と呼ばれるプロトコル記述方式である。“Termin
al Capability Set”は端末の性能を
表現する。同図の例では、“mpeg4 Capabi
lity”と記した機能を従来からあるH.245に対
して拡張している。The description method shown in the example of FIG. 1
Is a protocol description method called. "Termin
“Al Capability Set” expresses the performance of the terminal. In the example of the figure, “mpeg4 Capabi”
The function described as “light” is extended from the existing H.245.
【0131】図13では、“mpeg4 Capabi
lity”は端末で同時に処理できる最大の映像の数
(“Max Number Of Video”)、最
大の音声の数(“Max Number Of Sou
nds”)、端末で実現できる最大の多重化機能の数
(“Max Number Of Mux”)を記して
いる。In FIG. 13, "mpeg4 Capabi" is displayed.
“Litity” is the maximum number of videos (“Max Number Of Video”) that can be processed simultaneously by the terminal, and the maximum number of audio (“Max Number Of Sou”).
nds ”) and the maximum number of multiplexing functions that can be realized by the terminal (“ Max Number Of Mux ”).
【0132】同図では、これらをまとめて、処理できる
最大のオブジェクト数(“Number Of Pro
cess Object”)として表現している。ま
た、通信ヘッダ(同図ではALと表現)の変更が可能で
あるかを記すフラグが記されている。この値が真である
とき通信ヘッダの変更が可能である。“MPEG4 C
apability”を用いて端末間で処理できるオブ
ジェクト数をお互いに通知する場合に、通知された側が
受け入れ(処理)可能であれば“MEPG4 Capa
bility Ack”を、そうでなければ“MEPG
4 Capability Reject”を、“ME
PG4 Capability”を送信してきた端末に
返す。In the figure, the maximum number of objects that can be processed (“Number of Pro
cess Object ”). Also, a flag is written to indicate whether the communication header (expressed as AL in the figure) can be changed. When this value is true, the communication header is changed. Yes, "MPEG4 C"
When notifying each other of the number of objects that can be processed between terminals using "ability", if the notified side can accept (process), "MEPG4 Capa"
"bility Ack", otherwise "MEPG
4 "Capability Reject"
PG4 Capability ”is returned to the sending terminal.
【0133】図14では、1つの伝送チャンネル(この
例ではLANの伝送チャンネル)を複数の論理的なチャ
ンネルで共有して使用するために複数の論理的なチャン
ネルを1つの伝送チャンネルに多重化する前述のGro
up MUXを使用するためのプロトコルの記述方法に
ついて示している。同図の例では、LAN(ローカルエ
リアネトワーク)の伝送チャンネル(“LAN Por
t Number”)に多重化手段(Group MU
X)を対応づけている。“Group MuxID”
は、多重化手段を識別するための識別子である。“Cr
eate Group Mux”を用いて端末間で多重
化手段を使用する場合にお互いに通知する場合に、通知
された側が受け入れ(使用)可能であれば“Creat
e Group Mux Ack”を、そうでなければ
“Create Group Mux Reject”
を、“Create Group Mux”を送信して
きた端末に返す。多重化手段の逆の動作を行う手段であ
る分離手段は、同様な方法で実現出来る。In FIG. 14, in order to share one transmission channel (LAN transmission channel in this example) with a plurality of logical channels, a plurality of logical channels are multiplexed into one transmission channel. Gro mentioned above
It shows how to describe the protocol for using up MUX. In the example of the figure, a transmission channel (“LAN Port”) of a LAN (local area network) is used.
t Number ”) to the multiplexing means (Group MU).
X) is associated. "Group MuxID"
Is an identifier for identifying the multiplexing means. "Cr
When notifying each other when using multiplexing means between terminals using "eate Group Mux", if the notified side can accept (use), "Create
e Group Mux Ack ", otherwise" Create Group Mux Reject "
Is returned to the terminal that has transmitted the "Create Group Mux". The demultiplexing means, which is a means for performing the reverse operation of the multiplexing means, can be realized by a similar method.
【0134】図15では、既に生成した多重化手段を消
去する場合について記述している。FIG. 15 describes the case of deleting the already generated multiplexing means.
【0135】図16では、LANの伝送チャンネルと複
数の論理的なチャンネルの関係について記述している。FIG. 16 describes the relationship between the LAN transmission channel and a plurality of logical channels.
【0136】LANの伝送チャンネルは“LAN Po
rt Number”で、複数の論理的なチャンネルは
“Logical Port Number”で記述す
る。The transmission channel of the LAN is "LAN Po
"rt Number" and a plurality of logical channels are described by "Logical Port Number".
【0137】同図の例では、1つのLANの伝送チャン
ネルに対して最大15個の論理的なチャンネルを対応づ
けることが可能である。In the example of the figure, a maximum of 15 logical channels can be associated with one LAN transmission channel.
【0138】尚、同図において、使用できるMUXの数
が、1個だけの場合は、GroupMux IDは、不
要である。又、Muxを複数使用する場合は、H.22
3の各コマンドに対してGroup Mux IDが必
要である。又、多重化と分離手段との間で用いられるポ
ートの対応関係を通知するためのフラグを設けても良
い。又、制御情報も多重化するか、別の論理的な伝送路
を介して伝送するかを選択出来るようにするためのコマ
ンドを設けても良い。In the figure, when the number of MUXs that can be used is only one, the GroupMux ID is unnecessary. When a plurality of Muxes are used, the H.264 standard is used. 22
A Group Mux ID is required for each command of 3. Also, a flag may be provided for notifying the correspondence of the ports used between the multiplexing and the demultiplexing means. In addition, a command may be provided so that the control information may be multiplexed or transmitted via another logical transmission path.
【0139】図14〜図16の説明では伝送チャンネル
はLANであるが、H.223、MPEG2のようにイ
ンターネットプロトコルを使わない方式でもよい。Although the transmission channel is LAN in the description of FIGS. A method that does not use the Internet protocol, such as 223 and MPEG2, may be used.
【0140】図17では、“Open Logical
Channel”は伝送チャンネルの属性を定義する
ためのプロトコル記述を示している。同図の例では、
H.245のプロトコルに対して、“MPEG4 Lo
gical ChannelParameters”を
拡張定義している。In FIG. 17, "Open Logical"
"Channel" indicates a protocol description for defining the attributes of the transmission channel. In the example of FIG.
H. For the H.245 protocol, "MPEG4 Lo"
"gicalChannelParameters" is extendedly defined.
【0141】図18では、LANの伝送チャンネルに対
して、プログラム番号(TVのチャンネルに相当)と、
プログラムの名前とを対応づけている(“MPEG4
Logical Cannel Parameter
s”)ことを示している。In FIG. 18, the program number (corresponding to the TV channel) for the LAN transmission channel,
Corresponds to the program name ("MPEG4
Logical Channel Parameter
s ″).
【0142】又、同図において、“Broadcast
Channel Program”は、LANの伝送
チャンネルとプログラム番号との対応付けを放送型で送
信する場合の記述方法である。同図の例では、最大10
23個の伝送チャンネルとプログラム番号の対応関係を
送付することが可能である。放送の場合は送信側から受
信側へ一方的に送信するだけであるため、これらの情報
を伝送中の損失を考慮して周期的に伝送する必要があ
る。Further, in the figure, "Broadcast"
"Channel Program" is a description method in the case of transmitting the correspondence between the LAN transmission channel and the program number in a broadcast type. In the example of FIG.
It is possible to send the correspondence between 23 transmission channels and program numbers. In the case of broadcasting, since it is only unilaterally transmitted from the transmitting side to the receiving side, it is necessary to periodically transmit these pieces of information in consideration of the loss during transmission.
【0143】図19では、プログラムとして伝送される
オブジェクト(例えば、映像、音声など)の属性につい
て記述している(“MPEG4 Object Cla
ssdefinition”)。プログラムの識別子
(“Program ID”)に対してオブジェクトの
情報(“Object Structure Elem
ent”)を対応付けている。最大で1023個のオブ
ジェクトを対応付けることが可能である。オブジェクト
の情報としては、LANの伝送チャンネル(“LAN
Port Number”)、スクランブルが使用され
ているか否かのフラグ(“Scramble Fla
g”)、端末が過負荷である場合の処理の優先度を変更
するためのオフセット値を定義するフィールド(“CG
D Offset”)、そして、伝送するメディア(映
像、音声など)のタイプを識別するための識別子(Me
dia Type)を記述する。In FIG. 19, the attributes of objects (eg, video, audio, etc.) transmitted as a program are described (“MPEG4 Object Cla”).
ssdefinition ”). The information of the object (“ Object Structure Elem ”with respect to the program identifier (“ Program ID ”)).
ent ”) is associated with each other. A maximum of 1023 objects can be associated with each other. Information on the objects includes LAN transmission channels (“ LAN ”).
Port Number "), a flag indicating whether scrambling is used (" Scramble Fla ")
g ”), a field defining an offset value for changing the processing priority when the terminal is overloaded (“ CG
D Offset ") and an identifier (Me) for identifying the type of media (video, audio, etc.) to be transmitted.
dia type) is described.
【0144】図20の例では、ES(ここでは1フレー
ム分の映像に相当するデータ列と定義する)の復号処理
を管理するためにAL(ここでは1フレーム分の映像を
復号するために必要な付加情報と定義する)が付加され
ている。ALの情報としては、(1)Random A
ccess Flag(単独で再生可能であるかどうか
を示すフラグ、フレーム内符号化された映像フレームで
あれば真である)、(2)Presentation
Time Stamp(フレームの表示時刻)、(3)
CGD Priority(端末が過負荷時に処理の優
先度を決定するための優先度の値)が定義されている。
これらの1フレーム分のデータ列を、RTP(インター
ネットで連続メディアを伝送するためのプロトコル,R
ealtime Transfer Protoco
l)を用いて伝送する場合の例を示している。“AL
Reconfiguration”は、上記のALで表
現できる最大値を変更するための伝送表現である。In the example of FIG. 20, in order to manage the decoding process of ES (here, it is defined as a data string corresponding to one frame of video), it is necessary to manage AL (here, to decode one frame of video). Defined as additional information). The AL information includes (1) Random A
access flag (a flag indicating whether or not reproduction is possible independently, true in the case of an intra-frame coded video frame), (2) Presentation
Time Stamp (frame display time), (3)
CGD Priority (priority value for determining processing priority when the terminal is overloaded) is defined.
These one-frame data strings are RTP (protocol for transmitting continuous media on the Internet, R
ealtime Transfer Protocol
An example in the case of transmitting using l) is shown. "AL
"Reconfiguration" is a transmission expression for changing the maximum value that can be expressed by the AL.
【0145】同図の例では、“Random Acce
ss Flag Max Bit”として、最大で2ビ
ットの表現が可能である。例えば0ならば、Rando
mAccess Flagは使用しない。2ならば最大
値は3である。In the example of the figure, "Random Acce"
A maximum of 2 bits can be expressed as “ss Flag Max Bit”. For example, if 0, Rando is used.
No mAccess Flag is used. If 2, the maximum value is 3.
【0146】尚、実数部と仮数部による表現を行っても
良い(例えば、3^6)。又、非設定時は、デフォルト
で決められた状態で動作することにしても良い。It is also possible to represent the real part and the mantissa part (for example, 3 ^ 6). When not set, it may be operated in a state determined by default.
【0147】図21では、“Setup Reques
t”は、セットアップ時間を送信するための伝送表現を
示している。プログラムを送信する前に“Setup
Request”は送信され、伝送される伝送チャンネ
ル番号(“LogicalChannel Numbe
r”)と、実行するプログラムID(“excute
Program Number”)、使用するデータI
D(“data Number”)、実行するコマンド
のID(“execute CommandNumbe
r”)を対応付けて受信端末へ送付する。また、別の表
現方法として、伝送チャンネル番号と対応付けて、実行
の許可のフラグ(“flag”)、あと何回Setup
Requestを受信したら実行するかを記したカウ
ンタ(“counter”)、あとどれくらいの時間で
実行するかを示すタイマー値(“timer”)であっ
てもよい。In FIG. 21, "Setup Requests"
"t" indicates a transmission expression for transmitting the setup time. Before transmitting the program, "Setup"
"Request" is a transmission channel number ("LogicalChannel Number") that is transmitted and transmitted.
r ”) and the program ID to be executed (“ excute ”
Program Number ”), data I to use
D (“data Number”), ID of the command to be executed (“execute CommandNumber”
r ") is sent to the receiving terminal in association with each other. As another expression method, the execution permission flag (" flag ") is associated with the transmission channel number, and how many more times the Setup is performed.
It may be a counter ("counter") indicating whether to execute the request when the Request is received, or a timer value ("timer") indicating how long the request is executed.
【0148】尚、要求予定のリクエストの例としては、
AL情報の書き換え、GroupMuxの立ち上がり時
間の確保などがあげられる。As an example of a request scheduled to be requested,
Examples include rewriting AL information and securing the rise time of GroupMux.
【0149】図22は、図20で説明したALの使用の
有無を送信端末から受信端末へ通知するための伝送表現
について説明する図である(“Control AL
definition”)。FIG. 22 is a diagram for explaining a transmission expression for notifying the use / non-use of the AL described in FIG. 20 from the transmitting terminal to the receiving terminal (“Control AL”).
definition ”).
【0150】同図において、“Random Acce
ss Flag Use”が真ならばRandom A
ccess Flagは使用する。そうでなければ使用
しない。このALの変更通知は制御情報としてデータと
は別の伝送チャンネルで伝送してもよいし、データとと
もに同一の伝送チャンネルで伝送してもよい。In the same figure, "Random Acce"
Random A if ss Flag Use ”is true
The ccess Flag is used. Otherwise do not use. This AL change notification may be transmitted as control information on a transmission channel different from that of the data, or may be transmitted together with the data on the same transmission channel.
【0151】尚、実行するプログラムとしては、デコー
ダプログラムなどがあげられる。又、セットアップのリ
クエストは、放送であっても通信であっても利用出来
る。又、制御情報としての項目を、ALの情報としてど
の項目を使用するかを上記のリクエストで受信端末に指
示する。又、同様に通信ヘッダにどの項目を、ALの情
報としてどの項目を、制御情報としてごの項目を使用す
るかを受信端末に指示出来る。As the program to be executed, there is a decoder program or the like. Further, the setup request can be used for broadcasting or communication. Further, the reception terminal is instructed by the above request which item is used as the control information and which is used as the AL information. Similarly, it is possible to instruct the receiving terminal which item is used in the communication header, which item is used as AL information, and which item is used as control information.
【0152】図23では、情報枠組み識別子(“hea
der ID”)を用いて、伝送するヘッダ情報(デー
タ管理情報、伝送管理情報、制御情報)の構造を送受信
端末間で用途に応じて変更するための伝送表現の例を示
している。In FIG. 23, the information framework identifier ("hea"
der ID ") is used to show an example of a transmission expression for changing the structure of header information (data management information, transmission management information, control information) to be transmitted between transmitting and receiving terminals according to the application.
【0153】同図において、“class ES he
ader”は、データと同じ伝送チャンネルで伝送され
るデータ管理情報や、伝送管理情報の伝送される情報の
構造を、情報枠組み識別子により送受信端末間で区別し
ている。In the figure, "class ES he"
“Ader” distinguishes the data management information transmitted on the same transmission channel as the data and the structure of information transmitted by the transmission management information between the transmitting and receiving terminals by the information framework identifier.
【0154】例えば“header ID”の値が0な
らば、buffer Size ESの項目だけ用い、
“header ID”の値が1ならば“reserv
ed”の項目を加えて用いる。For example, if the value of "header ID" is 0, only the item of buffer Size ES is used,
If the value of "header ID" is 1, then "reserv
"ed" item is added and used.
【0155】又、デフォルト識別子(“use Hea
der Extension”)を用いることでデフォ
ルトの形式の情報の枠組みを用いるか、用いないかを判
定する。“use Header Extensio
n”が真であれば、if文の内部の項目が用いられる。
これらの構造情報に関しては予め送受信端末間で取り決
められているものとする。なお、情報枠組み識別子とデ
フォルト識別子は、何れか一方を使用する構成であって
もよい。Also, the default identifier ("use Hea"
der Extension ") is used to determine whether to use the default information framework or not." use Header Extension "
If n "is true, the item inside the if statement is used.
It is assumed that the structural information is preliminarily agreed between the transmitting and receiving terminals. The information framework identifier and the default identifier may be configured to use either one.
【0156】図24では、“AL configura
tion”は、データとは異なる伝送チャンネルで伝送
される制御情報の構造を送受信端末間で用途に応じて変
更する場合の例を示している。情報枠組み識別子とデフ
ォルト識別子の使用方法は図23の場合と同じである。In FIG. 24, "AL configure"
“Tion” indicates an example in which the structure of control information transmitted on a transmission channel different from data is changed between the transmitting and receiving terminals according to the usage. The method of using the information framework identifier and the default identifier is shown in FIG. Same as the case.
【0157】本発明では、複数の動画や音声を同時に合
成して表示させるシステムの実現方法について、下記の
観点から具体的に述べた。In the present invention, a method of realizing a system for simultaneously synthesizing and displaying a plurality of moving images and sounds has been specifically described from the following viewpoints.
【0158】(1)複数の論理的な伝送路を用いて画像
や音声の伝送(通信と放送)及び、それらを制御する方
法。特に、制御情報とデータをそれぞれ、伝送する論理
的な伝送路を独立させて伝送する方法について述べた。(1) Image and audio transmission (communication and broadcasting) using a plurality of logical transmission paths and a method of controlling them. In particular, the method of transmitting control information and data independently of the logical transmission path has been described.
【0159】(2)送信すべき画像や音声のデータに付
加するヘッダ情報(ALの情報)の動的な変更方法。(2) A method of dynamically changing header information (AL information) added to image or audio data to be transmitted.
【0160】(3)送信のために付加する通信用のヘッ
ダ情報の動的な変更方法。(3) A method for dynamically changing header information for communication added for transmission.
【0161】具体的には、(2)と(3)に関しては、
ALの情報と通信用ヘッダで重複している情報について
統合して管理する方法や、ALの情報を制御情報として
伝送する方法について述べた。Specifically, regarding (2) and (3),
The method of integrating and managing the information duplicated in the AL information and the communication header and the method of transmitting the AL information as the control information have been described.
【0162】(4)複数の論理的な伝送路を、動的に多
重化、分離して情報の伝送を行う方法。(4) A method of dynamically multiplexing and separating a plurality of logical transmission lines to transmit information.
【0163】伝送路のチャンネル数を節約する方法、効
率的な多重化を実現する方法について述べた。The method of saving the number of channels in the transmission path and the method of realizing efficient multiplexing have been described.
【0164】(5)プログラムやデータの読み込み、立
ち上げ時間を考慮した画像や音声の伝送方法。様々な機
能、用途で見かけ上のセットアップ時間の短縮方法につ
いて述べた。(5) A method of transmitting an image and sound in which the program and data are read and the startup time is taken into consideration. Described how to shorten the apparent setup time for various functions and applications.
【0165】(6)ザッピングに対する画像や音声の伝
送方法。(6) A method of transmitting images and sounds for zapping.
【0166】尚、本発明は、2次元の画像合成だけに限
定されない。2次元の画像と3次元の画像を組み合わせ
た表現形式でもよいし、広視野画像(パノラマ画像)の
ように複数の画像を隣接するように画像合成するような
画像合成方法も含めてもよい。The present invention is not limited to two-dimensional image composition. An expression format in which a two-dimensional image and a three-dimensional image are combined may be used, or an image synthesizing method of synthesizing a plurality of images so that they are adjacent to each other such as a wide-field image (panoramic image) may be included.
【0167】また、本発明で対象としている通信形態
は、有線の双方向CATVやB−ISDNだけではな
い。例えば、センター側端末から家庭側端末への映像や
音声の伝送は電波(例えば、VHF帯、UHF帯)、衛
星放送で、家庭側端末からセンター側端末への情報発信
はアナログの電話回線やN−ISDNであってもよい
(映像、音声、データも必ずしも多重化されている必要
はない)。Further, the communication mode targeted by the present invention is not limited to the wired bidirectional CATV and B-ISDN. For example, video and audio are transmitted from the center side terminal to the home side terminal by radio waves (for example, VHF band, UHF band) or satellite broadcasting, and information is transmitted from the home side terminal to the center side terminal by an analog telephone line or N. It may be ISDN (video, audio and data do not necessarily have to be multiplexed).
【0168】また、IrDA、PHS(パーソナル・ハ
ンディー・ホン)や無線LANのような無線を利用した
通信形態であってもよい。さらに、対象とする端末は、
携帯情報端末のように携帯型の端末であっても、セット
トップBOX、パーソナルコンピュータのように卓上型
の端末であってもよい。なお、応用分野としては、TV
電話、多地点の監視システム、マルチメディアのデータ
ベース検索システム、ゲームなどが挙げられ、本発明は
受信端末だけではなく、受信端末に接続されるサーバや
中継の機器なども含まれる。Further, a communication form using radio such as IrDA, PHS (Personal Handy Phone) or wireless LAN may be used. Furthermore, the target terminal is
It may be a portable terminal such as a personal digital assistant, or a tabletop terminal such as a set-top box or a personal computer. In addition, as an application field, TV
Examples include a telephone, a multipoint monitoring system, a multimedia database search system, a game, and the like. The present invention includes not only a receiving terminal, but also a server or a relay device connected to the receiving terminal.
【0169】さらに、これまでの例ではRTPの(通
信)ヘッダとALの情報の重複を回避する方法や、RT
Pの通信ヘッダやALの情報を拡張する方法について述
べた。しかし、本発明は、必ずしもRTPである必要は
ない。たとえば、UDPやTCPを使って独自の通信ヘ
ッダやAL情報を新たに定義してもよい。インターネッ
トプロファイルではRTPを使うことはあるが、Raw
プロファイルではRTPのような多機能なヘッダは定義
されていない。AL情報と通信ヘッダに関する考え方と
しては、前述したように4通りの考え方ができる。Further, in the above examples, the method of avoiding the duplication of the RTP (communication) header and the AL information, and the RT
The method for expanding the P communication header and AL information has been described. However, the present invention does not necessarily have to be RTP. For example, a unique communication header or AL information may be newly defined using UDP or TCP. RTP may be used in Internet profile, but RAW
The profile does not define a multifunctional header such as RTP. There are four ways of thinking about AL information and communication headers, as described above.
【0170】このように、送信端末と受信端末で使用す
るデータ管理情報、伝送管理情報、制御情報の各情報の
枠組み(例えば、1番最初は、ランダムアクセスのフラ
グで1ビットのフラグ情報として割り当て、2番めはシ
ーケンス番号で16ビット割り当てるといった、付加す
る情報の順序とビット数をともなった情報の枠組み)を
動的に決定することで、状況に応じた情報の枠組みの変
更が可能になり、用途や伝送路に応じた変更ができる。As described above, the framework of each information of the data management information, the transmission management information, and the control information used by the transmitting terminal and the receiving terminal (for example, the first is a random access flag and is assigned as 1-bit flag information). It is possible to change the information framework according to the situation by dynamically determining the information framework with the order of the information to be added and the number of bits, such as allocating 16 bits for the second sequence number. It can be changed according to the application and transmission path.
【0171】尚、各情報の枠組みとしては、図6(a)
〜図6(d)において既に示したものあってもよいし、
RTPならば、データ管理情報(AL)はメディア毎の
ヘッダ情報(例えば、H.263ならH.263固有の
ビデオのヘッダ情報や、ペイロードのヘッダ情報)、伝
送管理情報はRTPのヘッダ情報で、制御情報はRTC
PのようなRTPを制御するような情報であってもよ
い。The frame of each information is shown in FIG.
~ It may be the one already shown in Fig. 6 (d),
In the case of RTP, the data management information (AL) is header information for each medium (for example, H.263-specific video header information and payload header information in H.263), and the transmission management information is RTP header information. Control information is RTC
It may be information that controls RTP such as P.
【0172】また、送受信端末間で予め設定されている
公知の情報の枠組みで、情報の送受信して処理するか、
否かを示すためのデフォルト識別子をデータ管理情報、
伝送管理情報、制御情報(データとは別のパケットで伝
送される、端末処理を制御する情報)に、それぞれ設け
ることで、情報の枠組みの変更が行われているかどうか
を知ることができ、変更が行なわれている時だけ、デフ
ォルト識別子をセットし、前述の図19〜図20に示し
たような方法で変更内容(たとえば、タイムスタンプ情
報を32ビットから16ビットに変更する)を通知する
ことで、情報の枠組み情報を変更しない場合でも不要に
コンフィグレーション情報を送信しなくても済む。In addition, whether information is transmitted / received and processed in a well-known information framework preset between transmission / reception terminals,
The default identifier for indicating whether or not the data management information,
By setting it in the transmission management information and control information (information that is transmitted in a packet different from the data and that controls terminal processing), it is possible to know whether the information framework has been changed. The default identifier is set and the change contents (for example, the time stamp information is changed from 32 bits to 16 bits) are notified by the method shown in FIGS. Thus, even if the information framework information is not changed, the configuration information need not be transmitted unnecessarily.
【0173】たとえば、データ管理情報の情報の枠組み
を変更したいときには、次の2つの方法が考えられる。
まず、データ自身にデータ管理情報の情報の枠組みの変
更方法を記述する場合、データ管理情報の情報の枠組み
に関して記述されたデータ内に存在する情報のデフォル
ト識別子(固定の領域、位置に書き込む必要がある)を
セットし、そのあとに情報の枠組みの変更内容に関して
記述する。For example, when it is desired to change the information framework of the data management information, the following two methods can be considered.
First, when describing the method of changing the information framework of the data management information in the data itself, it is necessary to write in the default identifier (fixed area, position) of the information existing in the data described regarding the framework of the information of the data management information. Set) and then describe changes to the information framework.
【0174】もう1つの方法として制御情報(情報枠組
み制御情報)にデータの情報の枠組みの変更方法を記述
して、データ管理情報における情報の枠組みを変更する
場合、制御情報に設けられたデフォルト識別子をセット
し、変更するデータ管理情報の情報の枠組みの内容を記
述し、ACK/Rejectで受信端末にデータ管理情
報の情報の枠組みが変更されたことを通知、確認してか
ら、情報の枠組みが変更されたデータを伝送する。伝送
管理情報、制御情報自身の情報の枠組みを変更する場合
も、同様に上記の2つの方法で実現できる(図23〜図
24)。As another method, when a method of changing the information framework of data is described in control information (information framework control information) and the framework of information in the data management information is modified, a default identifier provided in the control information. Set, describe the contents of the information framework of the data management information to be changed, notify the receiving terminal that the information framework of the data management information has been changed with ACK / Reject, and after confirming that the information framework Transmit modified data. Even when changing the information framework of the transmission management information and the control information itself, it can be realized by the above two methods (FIGS. 23 to 24).
【0175】より具体的な例としては、例えば、MPE
G2のヘッダ情報は固定であるが、MPEG2−TS
(トランスポート・ストリーム)のビデオ・ストリー
ム、オーディオ・ストリームを関係づけるプログラム・
マップテーブル(PSIで定義される)にデフォルト識
別子を設け、ビデオ・ストリーム、オーディオ・ストリ
ームの情報の枠組みの変更方法を記述したコンフィグレ
ーション・ストリームを定義しておくことで、デフォル
ト識別子がセットされていれば、まず、コンフィグレー
ション・ストリームを解釈してから、コンフィグレーシ
ョン・ストリームの内容に応じて、ビデオとオーディオ
のストリームのヘッダーを解釈することができる。コン
フィグレーションストリームは図23〜図24で示した
内容でよい。As a more specific example, for example, MPE
The header information of G2 is fixed, but MPEG2-TS
A program that associates (transport stream) video and audio streams
The default identifier is set by defining a default identifier in the map table (defined by PSI) and defining the configuration stream that describes how to change the information framework of the video stream and audio stream. With this, it is possible to first interpret the configuration stream, and then interpret the headers of the video and audio streams according to the contents of the configuration stream. The configuration stream may have the contents shown in FIGS.
【0176】尚、本発明の、伝送方法に関する及び/又
は伝送するデータの構造に関する内容(伝送フォーマッ
ト情報)は、上記実施の形態では、例えば、情報の枠組
みに対応している。The contents (transmission format information) relating to the transmission method and / or the structure of data to be transmitted according to the present invention correspond to, for example, the information framework in the above embodiments.
【0177】又、上記実施の形態では、変更しようとす
る、伝送方法に関する及び/又は伝送するデータの構造
に関する内容を伝送する場合を中心に述べたが、これに
限らず例えば、その内容の識別子のみを伝送する構成で
も勿論良い。この場合、送信装置としては、例えば、図
52に示す様に、(1)伝送方法に関する及び/又は伝
送するデータの構造に関する内容、又はその内容を示す
識別子を、伝送フォーマット情報として、前記伝送する
データの伝送路と同一の伝送路、又は、前記伝送路とは
別の伝送路を用いて伝送する伝送手段5001と、
(2)前記伝送方法に関する及び/又は伝送するデータ
の構造に関する内容と、その識別子とを複数種類格納す
る格納手段5002とを備え、前記識別子が、データ管
理情報、伝送管理情報又は、端末側の処理を制御するた
めの情報の内、少なくとも一つの情報の中に含まれてい
る画像・音声送信装置であってもよい。又、受信装置と
しては、例えば、図53に示す様に、上記画像・音声送
信装置から送信されてくる前記伝送フォーマット情報を
受信する受信手段5101と、前記受信した伝送フォー
マット情報を解釈する伝送情報解釈手段5102とを備
えた画像・音声受信装置であってもよい。更に、この画
像・音声受信装置は、前記伝送方法に関する及び/又は
伝送するデータの構造に関する内容と、その識別子とを
複数種類格納する格納手段5103を備え、前記伝送フ
ォーマット情報として前記識別子を受信した場合には、
前記識別子の内容を解釈する際に、前記格納手段に格納
されている内容を利用する構成であっても良い。Further, in the above-mentioned embodiment, the description has been centered on the case of transmitting the contents to be changed, to the transmission method and / or to the structure of the data to be transmitted, but the present invention is not limited to this. Of course, it may be configured to transmit only the data. In this case, for example, as shown in FIG. 52, the transmitting device transmits (1) the content related to the transmission method and / or the structure of the data to be transmitted, or the identifier indicating the content as the transmission format information. Transmission means 5001 for transmitting using the same transmission path as the data transmission path or a transmission path different from the transmission path;
(2) A storage unit 5002 that stores a plurality of types of contents relating to the transmission method and / or the structure of data to be transmitted and its identifier, wherein the identifier is data management information, transmission management information, or a terminal side The image / sound transmission device included in at least one of the information for controlling the process may be used. As the receiving device, for example, as shown in FIG. 53, receiving means 5101 for receiving the transmission format information transmitted from the image / audio transmitting device, and transmission information for interpreting the received transmission format information. It may be an image / sound receiving device including an interpreting unit 5102. Further, the image / sound receiving device is provided with a storage unit 5103 for storing a plurality of types of contents relating to the transmission method and / or the structure of data to be transmitted and its identifier, and receives the identifier as the transmission format information. in case of,
The content stored in the storage unit may be used when interpreting the content of the identifier.
【0178】さらに、具体的には、予め情報の枠組みを
複数、送受信端末で取り決めて用意しておき、それら複
数種類の情報の枠組みの識別と、複数種のデータ管理情
報、伝送管理情報、制御情報(情報枠組み制御情報)を
識別するための情報枠組み識別子をデータとともに、も
しくは、制御情報として伝送することで、複数種のデー
タ管理情報、伝送管理情報、制御情報の各情報を識別す
ることが可能となり、伝送すべきメディアの形式や伝送
路の太さに応じて各情報の情報の枠組みを自由に選択す
ることができる。尚、本発明の識別子は、上記情報の枠
組み識別子に対応する。More specifically, a plurality of information frameworks are prepared in advance by the transmitting and receiving terminals, and the plurality of kinds of information frameworks are identified and the plurality of kinds of data management information, transmission management information, control By transmitting an information framework identifier for identifying information (information framework control information) together with data or as control information, it is possible to identify each type of data management information, transmission management information, and control information. It becomes possible, and the information framework of each information can be freely selected according to the format of the medium to be transmitted and the thickness of the transmission path. The identifier of the present invention corresponds to the framework identifier of the above information.
【0179】これら情報の枠組み識別子、デフォルト識
別子は、伝送される情報の予め決められた固定長の領域
もしくは、位置に付加することで、受信側端末で、情報
の枠組みが変更されていても読み取り、解釈することが
できる。The information frame identifier and the default identifier are added to a predetermined fixed length area or position of the information to be transmitted, so that the receiving side terminal can read the information frame even if the information frame is changed. , Can be interpreted.
【0180】又、上述した実施の形態で述べた構成以外
に、複数個のチャンネルで放送される画像の見出し画像
だけを放送する放送チャンネルを設け、視聴者が視聴番
組を切り替えることで、必要となるプログラムやデータ
のセットアップに時間がかかる場合、一旦、視聴したい
番組の見出し画像を選択して視聴者に提示する構成とし
ても良い。Further, in addition to the configuration described in the above-mentioned embodiment, a broadcast channel for broadcasting only the index image of the images broadcast on a plurality of channels is provided so that the viewer can switch the viewing program. When it takes time to set up another program or data, the heading image of the program to be viewed may be once selected and presented to the viewer.
【0181】以上のように本発明によれば、送信端末と
受信端末で使用するデータ管理情報、伝送管理情報、制
御情報の各情報の枠組みを動的に決定することで、状況
に応じた情報の枠組みの変更が可能になり、用途や伝送
路に応じた変更ができる。As described above, according to the present invention, by dynamically determining the framework of each information of the data management information, the transmission management information, and the control information used by the transmitting terminal and the receiving terminal, the information according to the situation can be obtained. It is possible to change the framework of, and it is possible to change according to the application and transmission path.
【0182】また、送受信端末間で予め設定されている
公知の情報の枠組みで、情報の送受信して処理するか、
否かを示すためのデフォルト識別子をデータ管理情報、
伝送管理情報、制御情報に、それぞれ設けることで、情
報の枠組みの変更が行われているかどうかを知ることが
でき、変更が行なわれている時だけ、デフォルト識別子
をセットし、変更内容を通知することで、情報の枠組み
情報を変更しない場合でも不要にコンフィグレーション
情報を送信しなくても済む。[0182] In addition, whether information is transmitted / received and processed in a known information framework preset between transmitting / receiving terminals,
The default identifier for indicating whether or not the data management information,
By providing the transmission management information and the control information respectively, it is possible to know whether the information framework has been changed. Only when the change has been made, the default identifier is set and the changed contents are notified. Thus, even if the information framework information is not changed, unnecessary configuration information need not be transmitted.
【0183】さらに、予め情報の枠組みを複数、送受信
端末で取り決めて用意しておき、複数種のデータ管理情
報、伝送管理情報、制御情報を識別するための情報枠組
み識別子をデータとともに、もしくは、制御情報として
伝送することで、複数種のデータ管理情報、伝送管理情
報、制御情報の各情報を識別することが可能となり、伝
送すべきメディアの形式や伝送路の太さに応じて各情報
の情報の枠組みを自由に選択することができる。Further, a plurality of information frameworks are prepared in advance by the transmitting and receiving terminals, and an information framework identifier for identifying a plurality of types of data management information, transmission management information, and control information is provided together with the data or control. By transmitting it as information, it is possible to identify multiple types of data management information, transmission management information, and control information, and the information of each information according to the format of the medium to be transmitted and the thickness of the transmission path. The framework of can be freely selected.
【0184】これら情報枠組み識別子、デフォルト識別
子は、伝送される情報の予め決められた固定長の領域も
しくは、位置に付加することで、受信側端末で、情報の
枠組みが変更されていても読み取り、解釈することがで
きる。These information framework identifiers and default identifiers are added to a predetermined fixed-length area or position of information to be transmitted so that the receiving side terminal can read the information framework even if the information framework is changed. Can be interpreted.
【0185】以下、本発明の実施の形態について図面を
参照して説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0186】尚、ここでは、主に上述した課題(B1)
〜(B2)の何れか一つを解決するものである。Here, mainly, the above-mentioned problem (B1)
To (B2) are solved.
【0187】本発明で使用する「画像」の意味は静止画
と動画の両方を含む。また、対象とする画像は、コンピ
ュータ・グラフィックス(CG)のような2次元画像と
ワイヤーフレーム・モデルから構成されるような3次元
の画像データであってもよい。The term “image” used in the present invention includes both still images and moving images. Further, the target image may be three-dimensional image data such as a two-dimensional image such as computer graphics (CG) and a wire frame model.
【0188】図31は、本発明の実施の形態における画
像符号化、画像復号化装置の概略構成図である。FIG. 31 is a schematic configuration diagram of an image encoding / decoding device according to the embodiment of the present invention.
【0189】符号化された種々の情報を送信もしくは記
録する送信管理部4011は、同軸ケーブル、CAT
V、LAN、モデム等の情報を伝送する手段である。画
像符号化装置4101は、H.263、MPEG1/
2、JPEG、あるいは、ハフマン符号化といった画像
情報の符号化を行う画像符号部4012と、上記送信管
理部4011とを具備する構成である。又、画像復号化
装置4102は、符号化された種々の情報を受信する受
信管理部4013と、その受信された種々の画像情報の
復号を行う画像復号部4014と、復号された1つ以上
の画像を合成する画像合成部4015と、画像を出力す
るディスプレイやプリンターなどから構成される出力部
4016とを備えた構成である。The transmission management unit 4011 for transmitting or recording various encoded information is a coaxial cable, CAT
A means for transmitting information such as V, LAN, and modem. The image coding device 4101 uses the H.264 standard. 263, MPEG1 /
2, an image encoding unit 4012 that encodes image information such as JPEG or Huffman encoding, and the transmission management unit 4011. The image decoding device 4102 also includes a reception management unit 4013 that receives various encoded information, an image decoding unit 4014 that decodes the various received image information, and one or more decoded images. This is a configuration including an image combining unit 4015 that combines images and an output unit 4016 that includes a display, a printer, and the like that outputs images.
【0190】図32は、本発明の実施の形態における音
声符号化、音声復号化装置の概略構成図である。FIG. 32 is a schematic configuration diagram of a speech encoding / decoding apparatus according to the embodiment of the present invention.
【0191】音声符号化装置4201は、符号化された
種々の情報を送信もしくは記録する送信管理部4021
と、G.721、MPEG1オーディオといった音声情
報の符号化を行う音声符号部4022とを具備する構成
である。又、音声復号化装置4202は、符号化された
種々の情報を受信する受信管理部4023と、前記種々
の音声情報の復号を行う音声復号部4024と、復号さ
れた1つ以上の音声を合成する音声合成部4025と、
音声を出力する出力部4026とを備えた構成である。Speech encoding apparatus 4201 transmits and records various encoded information by transmission managing section 4021.
And G. 721, an audio encoding unit 4022 that encodes audio information such as MPEG1 audio. Also, the speech decoding apparatus 4202 synthesizes the reception management unit 4023 that receives various encoded information, the speech decoding unit 4024 that decodes the various speech information, and one or more decoded speeches. A voice synthesis unit 4025 that
It is the structure provided with the output part 4026 which outputs a sound.
【0192】音声や動画像の時系列データは、具体的に
は上記の各装置で、符号化、又は復号化される。The time-series data of voices and moving images are specifically coded or decoded by each of the above devices.
【0193】図31、図32とも、通信環境としてはイ
ンターネットのように多重化の手段を意識せずに複数の
論理的な伝送路が利用できる通信環境であってもよし、
アナログ電話や衛星放送のように多重化手段を意識しな
ければならない通信環境であってもよい。また、端末の
接続形態としては、TV電話やTV会議システムのよう
に端末間で双方向で映像や音声を送受信する形態や、衛
星放送やCATV、インターネット上での放送型の映像
や音声放送の形態が挙げられる。31 and 32, the communication environment may be a communication environment in which a plurality of logical transmission paths can be used without paying attention to the multiplexing means, such as the Internet.
It may be a communication environment such as an analog telephone or satellite broadcasting in which the multiplexing means must be taken into consideration. In addition, as a connection form of terminals, such as a TV phone and a TV conference system in which video and audio are bidirectionally transmitted and received between terminals, satellite broadcasting, CATV, broadcasting type video and audio broadcasting on the Internet. The form may be mentioned.
【0194】同様に、画像や音声の合成方法に関して
は、JAVA、VRML、MHEGといったスクリプト
言語で、画像・音声と画像・音声の構造情報(表示位置
や表示時間)、画像・音声同士のグルーピングの方法、
画像の表示のレイヤ(深さ)、そして、オブジェクトI
D(画像、音声といった個々のオブジェクトを識別する
ためのID)と、これらの属性の関係を記述することに
よって画像や音声の合成方法が定義できる。合成方法を
記述したスクリプトはネットワークやローカルの記憶装
置から得られる。Similarly, regarding a method of synthesizing images and voices, a script language such as JAVA, VRML, and MHEG is used to determine the structure information (display position or display time) of images / voices and the grouping of images / voices. Method,
Image display layer (depth) and object I
By describing the relationship between D (an ID for identifying an individual object such as image and sound) and these attributes, a method of synthesizing an image and sound can be defined. The script describing the composition method can be obtained from a network or a local storage device.
【0195】尚、画像符号化装置、画像復号化装置、音
声符号化装置、音声復号化装置を、それぞれ任意の個数
で、任意の組み合わせで送受信の端末を構成してもよ
い。Note that the transmission / reception terminal may be constituted by any number of image encoding devices, image decoding devices, audio encoding devices, and audio decoding devices in any combination.
【0196】図33(a)は、過負荷時の処理の優先度
を管理する優先度付加部、優先度決定部について説明す
る図である。H.263やG.723などの符号化方法
で、符号化された情報の過負荷時の処理の優先度を予め
決められた基準で決定し、符号化された情報と決定され
た優先度を対応づける優先度付加部4031を画像符号
化装置4101や音声符号化装置4201に備える。FIG. 33 (a) is a diagram for explaining the priority addition unit and the priority determination unit for managing the priority of the processing at the time of overload. H. 263 and G.H. A priority adding unit that determines the priority of the processing of the coded information when the coded information is overloaded by a predetermined criterion by using a coding method such as 723, and associates the coded information with the determined priority. 4031 is provided in the image encoding device 4101 and the audio encoding device 4201.
【0197】優先度の付加の基準は、たとえば、画像で
あればシーンチェンジ、編集者や利用者が指示した画像
フレームやストリーム、音声であれば、有音区間と無音
区間である。The criteria for adding the priority are, for example, a scene change in the case of an image, an image frame or stream instructed by an editor or a user, and a voiced section and a silent section in the case of voice.
【0198】過負荷時の処理の優先度を定義する優先度
の付加方法は、通信ヘッダへ付加する方法と符号化時に
ビデオやオーディオの符号化されるビットストリームの
ヘッダに埋め込む方法が考えられる。前者は、復号せず
に優先度に関する情報が得ることが可能であり、後者は
システムに依存せずにビットストリーム単体で独立に扱
うことが可能である。As a method of adding a priority which defines the priority of processing at the time of overload, a method of adding it to a communication header and a method of embedding it in the header of a bit stream of which video or audio is encoded at the time of encoding can be considered. The former can obtain information on the priority without decoding, and the latter can be handled independently by the bitstream independently of the system.
【0199】図33(b)に示したように、通信ヘッダ
に優先度情報を付加する場合、1つの画像フレーム(例
たとえば、フレーム内符号化されたIフレーム、フレー
ム間符号化されたP、Bフレーム)が複数個の送信パケ
ットに分割される場合、画像であれば単独の情報として
アクセス可能な画像フレームの先頭部分を伝送する通信
ヘッダのみに優先度を付加する(同一の画像フレーム内
で優先度が等しい場合、次のアクセス可能な画像フレー
ムの先頭が現れるまで、優先度は変わらないものとすれ
ばよい)。As shown in FIG. 33B, when priority information is added to the communication header, one image frame (for example, intra-frame coded I frame, inter-frame coded P, When a (B frame) is divided into a plurality of transmission packets, priority is added only to the communication header that transmits the head part of the accessible image frame as independent information in the case of an image (within the same image frame If the priorities are the same, the priorities should not change until the beginning of the next accessible image frame appears.)
【0200】また、復号化装置では、受信された種々の
符号化された情報の過負荷時の優先度に従って、処理の
方法を決定する優先度決定部4032を画像復号化装置
4102や音声復号化装置4202に備える。Further, in the decoding apparatus, the priority determining unit 4032 for determining the processing method is provided in the image decoding apparatus 4102 and the audio decoding in accordance with the priority of various received encoded information at the time of overload. The device 4202 is provided.
【0201】図34〜図36は、優先度を付加する粒度
について説明する図である。端末での過負荷時の処理の
優先度を決定する2種類の優先度を用いて、デコード処
理を行なう。34 to 36 are diagrams for explaining the granularity to which the priority is added. The decoding process is performed using two types of priorities that determine the priority of the process when the terminal is overloaded.
【0202】すなわち、映像、音声といったビットスト
リーム単位での過負荷時の処理の優先度を定義するスト
リーム優先度(Stream Priority;時系
列データ間優先度)と、同一ストリーム内の映像フレー
ムといったフレーム単位での過負荷時の処理の優先度を
定義するフレーム優先度(Frame Priorit
y;時系列データ内優先度)を定義する(図34参
照)。[0202] That is, stream priority (Stream Priority; priority between time series data) that defines the priority of processing at the time of overload in bit stream units such as video and audio, and frame units such as video frames in the same stream. Frame Priority (Frame Priority) that defines the priority of processing during overload in
y; priority within time-series data) is defined (see FIG. 34).
【0203】前者のストリーム優先度により複数のビデ
オやオーディオの取り扱いが可能になる。後者のフレー
ム優先度により映像のシーンチェンジや編集者の意図に
応じて、同一のフレーム内符号化された映像フレーム
(Iフレーム)でも異なる優先度の付加が可能になる。The former stream priority makes it possible to handle a plurality of videos and audios. The latter frame priority makes it possible to add different priorities even to the same intra-coded video frame (I frame) depending on the scene change of the video and the intention of the editor.
【0204】ストリーム優先度が表現する値の意味とし
ては、相対的な値として扱う場合と、絶対的な値として
扱う場合が考えられる(図35、図36参照)。The value represented by the stream priority may be treated as a relative value or as an absolute value (see FIGS. 35 and 36).
【0205】ストリーム優先度とフレーム優先度の取り
扱いが行なわれるのはネットワーク上であれば、ルータ
やゲートウェイといった中継端末、端末であれば、送信
端末と受信端末があげられる。The stream priority and the frame priority are handled on the network if they are relay terminals such as routers and gateways, and if they are terminals, they are transmission terminals and reception terminals.
【0206】絶対的な値と、相対的な値の表現方法は2
通り考えられる。1つは、図35で示した方法であり、
もう1つは図36で示した方法である。There are two ways to express absolute values and relative values.
You can think of it. One is the method shown in FIG.
The other is the method shown in FIG.
【0207】図35では、絶対的な値の優先度とは、編
集者や機械的に付加された画像ストリームや音声ストリ
ームが過負荷時に処理される(又は、処理されるべき)
順序をあらわす値である(実際のネットワークや端末の
負荷変動を考慮した値ではない)。相対的な値の優先度
は、端末やネットワークの負荷に応じて、絶対的な優先
度の値を変更するための値である。In FIG. 35, the absolute value priority means that an editor, a mechanically added image stream or audio stream is (or should be) processed when it is overloaded.
It is a value that represents the order (it is not a value that takes into account actual network and terminal load fluctuations). The relative value priority is a value for changing the absolute priority value according to the load of the terminal or the network.
【0208】優先度を相対的な値と、絶対的な値に分離
して管理することで、ネットワークの負荷の変動などに
応じて、送信側や中継装置で相対的な値だけを変更する
ことで、元来、画像や音声ストリームに付加されていた
絶対的な優先度を残したままで、ハードディスクやVT
Rへの記録が可能となる。このように絶対的な優先度の
値が記録されていれば、ネットワークの負荷変動などの
影響を受けていない形での映像や音声の再生が可能とな
る。なお、相対的な優先度や絶対的な優先度はデータと
は独立に制御チャンネルを通して伝送してもよい。By managing the priority by separating it into a relative value and an absolute value, it is possible to change only the relative value on the transmitting side or the relay device according to the fluctuation of the network load. Then, the absolute priority that was originally added to the image or audio stream remains, and the hard disk or VT
Recording on R becomes possible. If the absolute priority value is recorded in this way, it is possible to reproduce video and audio without being affected by network load fluctuations. The relative priority and the absolute priority may be transmitted through the control channel independently of the data.
【0209】同様に、図35では、ストリーム優先度よ
りも粒度を細かくして、過負荷時のフレームの処理の優
先度を定義するフレーム優先度を、相対的な優先度の値
として扱ったり、絶対的な優先度の値として扱うことも
可能である。たとえば、絶対的なフレーム優先度を符号
化された画像の情報内に記述し、ネットワークや端末の
負荷で変動を反映させるために、先の映像フレームに付
加した絶対的な優先度に対する相対的なフレーム優先度
を符号化された情報を伝送するための通信パケットの通
信ヘッダに記述することで、フレームレベルでも、オリ
ジナルの優先度を残しながらも、ネットワークや端末の
負荷に応じた優先度の付加が可能である。Similarly, in FIG. 35, the frame priority defining the processing priority of the frame at the time of overload is treated as a relative priority value by making the granularity finer than the stream priority. It is also possible to treat it as an absolute priority value. For example, the absolute frame priority is described in the information of the coded image, and the relative priority to the absolute priority added to the previous video frame is reflected in order to reflect the change due to the load of the network or the terminal. By describing the frame priority in the communication header of the communication packet for transmitting the encoded information, the priority is added according to the load of the network and the terminal at the frame level or while keeping the original priority. Is possible.
【0210】なお、相対的な優先度は、通信ヘッダでは
なくデータとは独立して制御チャネルでフレームとの対
応関係を記述して伝送してもよい。これにより、元来、
画像や音声ストリームに付加されていた絶対的な優先度
を残したままで、ハードディスクやVTRへの記録が可
能となる。The relative priority may be transmitted by describing the correspondence with the frame on the control channel independently of the data rather than the communication header. By this,
It is possible to record on the hard disk or VTR with the absolute priority added to the image or audio stream remaining.
【0211】一方、図35において、受信端末で記録を
行なわずに、ネットワークを介して伝送しながら受信端
末で再生を行なう場合、受信端末で絶対的な値と相対的
な値を分離して管理する必要がないため、送信側で予
め、フレーム、ストリームの両方のレベルの場合におい
ても、絶対値な優先度の値と相対的な優先度の値を送信
前に計算して絶対値のみを送ってもよい。On the other hand, in FIG. 35, when recording is not performed at the receiving terminal and reproduction is performed at the receiving terminal while transmitting through the network, the receiving terminal separates and manages absolute values and relative values. Since it is not necessary to do so, even in the case of both the frame and stream levels, the sending side calculates the absolute priority value and the relative priority value before sending and sends only the absolute value. May be.
【0212】図36において、絶対的な値の優先度と
は、Stream Priorityと、Frame
Priorityの関係から求められるフレーム間で一
意に決定される値である。相対的な値の優先度は、編集
者や機械的に付加された画像ストリームや音声ストリー
ムが過負荷時に処理される(又は、処理されるべき)順
序をあらわす値である。図36の例では、映像、音声の
各ストリームのフレーム優先度(relative;相
対値)とストリーム毎にストリーム優先度が付加されて
いる。In FIG. 36, absolute value priority means Stream Priority and Frame.
It is a value that is uniquely determined between frames that is obtained from the Priority relationship. The relative priority of a value is a value that represents the order in which an editor or a mechanically added image stream or audio stream is (or should be) processed when it is overloaded. In the example of FIG. 36, frame priorities (relative values) of video and audio streams and stream priorities are added to each stream.
【0213】絶対的なフレーム優先度(absolut
e;絶対値)は相対的なフレーム優先度と、ストリーム
優先度の和から求められる(即ち、絶対的なフレーム優
先度=相対的なフレーム優先度+ストリーム優先度)。
なお、この算出方法は減算したり、定数を掛け合わせる
ような方法でもよい。Absolute frame priority (absolute
e; absolute value) is calculated from the sum of relative frame priority and stream priority (that is, absolute frame priority = relative frame priority + stream priority).
Note that this calculation method may be a method of subtracting or multiplying by a constant.
【0214】絶対的なフレーム優先度は主としてネット
ワークで用いる。これはルータやゲイトウエイといった
中継装置で、Stream PriorityとFra
mePriorityとを加味してフレーム毎の優先度
を決定する必要が絶対値による表現では不要になるから
である。この絶対的なフレーム優先度を用いることで中
継装置でのフレームの廃棄などの処理が容易になる。The absolute frame priority is mainly used in the network. This is a relay device such as a router or gateway, and Stream Priority and Fra
This is because it is not necessary to determine the priority for each frame in consideration of the mePriority and the absolute value does not require it. By using this absolute frame priority, processing such as discarding frames in the relay device becomes easy.
【0215】一方、相対的なフレーム優先度は主として
記録、編集を行なう蓄積系への応用が期待できる。編集
作業では、複数の映像、音声ストリームを同時に扱うこ
とがある。そのような場合に、端末やネットワークの負
荷により再生できる映像ストリームやフレームの数には
限界が生じる可能性がある。On the other hand, the relative frame priority can be expected to be applied mainly to the storage system for recording and editing. In editing work, multiple video and audio streams may be handled simultaneously. In such a case, the number of video streams or frames that can be reproduced may be limited due to the load of the terminal or the network.
【0216】そのような場合に、Stream Pri
orityと、Frame Priorityとを分離
して管理しておくだけで、例えば、編集者が、優先的に
表示させたい、あるいは、ユーザが、見たいストリーム
のStream Priorityを変更するだけで、
絶対値の表現を行なっている時とは違い、FrameP
riorityをすべて計算し直す必要がない。このよ
うに用途に応じて、絶対的な表現、相対的な表現を使い
分ける必要がある。In such a case, Stream Pri
Priority and Frame Priority are separated and managed, for example, the editor prefers to display them preferentially, or the user changes the Stream Priority of the stream to be viewed,
FrameP is different from when absolute value is expressed.
There is no need to recalculate all rioritities. In this way, it is necessary to properly use the absolute expression and the relative expression according to the purpose.
【0217】また、ストリーム優先度の値を相対的な値
として用いるか、絶対的な値として用いるかを記述する
ことで、伝送時にも、蓄積する場合にも有効な優先度の
表現が可能となる。Also, by describing whether the stream priority value is used as a relative value or an absolute value, it is possible to express an effective priority both during transmission and during storage. Become.
【0218】図35の例では、ストリーム優先度に付随
して、ストリーム優先度が表現する値が絶対値である
か、相対値であるかを表現するフラグや識別子を設けて
区別する。フレーム優先度の場合は、通信ヘッダに相対
的な値が記述され、符号化されたフレーム内に絶対的な
値が記述されるため、フラグや識別子は不要である。In the example of FIG. 35, a flag and an identifier that indicate whether the value represented by the stream priority is an absolute value or a relative value are provided in association with the stream priority to make a distinction. In the case of the frame priority, the relative value is described in the communication header and the absolute value is described in the encoded frame, so that the flag and the identifier are unnecessary.
【0219】図36の例では、フレーム優先度が絶対値
であるか相対値であるかを識別するためのフラグもしく
は識別子を設けている。絶対値であれば、ストリーム優
先度と相対的なフレーム優先度から算出されている優先
度であるから、算出の処理を中継装置や端末で行なわな
い。また、受信端末では、算出式が端末間で既知である
場合、絶対的なフレーム優先度とストリーム優先度から
相対的なフレーム優先度を逆算することが可能である。
例えば、伝送するパケットの絶対的な優先度(Acce
ss Unit Priority)を、Access
Unit Priority=ストリーム優先度−フ
レーム優先度、という関係式から求めても良い。ここ
で、フレーム優先度は、ストリーム優先度を減算するこ
とから、劣後優先度と表現しても良い。In the example of FIG. 36, a flag or identifier for identifying whether the frame priority is an absolute value or a relative value is provided. If it is an absolute value, it is a priority calculated from the frame priority relative to the stream priority, and therefore the calculation process is not performed by the relay device or the terminal. Further, in the receiving terminal, when the calculation formula is known between the terminals, it is possible to calculate the relative frame priority backward from the absolute frame priority and the stream priority.
For example, the absolute priority (Acce
ss Unit Priority)
It may be obtained from a relational expression of “Unit Priority = Stream Priority−Frame Priority”. Here, the frame priority may be expressed as the subordination priority because the stream priority is subtracted.
【0220】さらに、1つ以上のストリーム優先度をT
CP/IPの論理チャンネル(LANのポート番号)を
流れるデータの処理の優先度に対応付けて、データの処
理を管理してもよい。Furthermore, one or more stream priorities may be set to T
The data processing may be managed in association with the processing priority of the data flowing through the CP / IP logical channel (LAN port number).
【0221】加えて、画像や音声は、文字もしくは制御
情報よりも低いストリーム優先度やフレーム優先度を割
り当てることで再送処理の必要が低減できることが期待
できる。これは画像や音声は一部分が失われても、問題
が発生しない場合も多いからである。In addition, it can be expected that the need for retransmission processing can be reduced for images and voices by assigning a stream priority or frame priority lower than that of characters or control information. This is because there is often no problem even if a part of the image or sound is lost.
【0222】図37は、多重解像度の画像データへ優先
度の割り当て方法について説明する図である。FIG. 37 is a diagram for explaining a method of assigning priorities to multiresolution image data.
【0223】1つのストリームが2つ以上の複数のサブ
ストリームから構成される場合、サブストリームにスト
リーム優先度の付加を行い、蓄積時もしくは伝送時に論
理和もしくは論理積の記述を行うことでサブストリーム
の処理方法の定義を行うことが可能である。When one stream is composed of two or more substreams, the stream priority is added to the substreams, and the logical sum or the logical product is described at the time of storage or transmission, so that the substreams are described. It is possible to define the processing method of.
【0224】ウェーブレットの場合、1つの映像フレー
ムを複数の異なる解像度の映像フレームに分解すること
が可能である。また、DCTベースの符号化方式でも高
周波の成分と低周波の成分に分割して符号化することで
異なる解像度の映像フレームへの分解は可能である。In the case of wavelet, one video frame can be decomposed into a plurality of video frames having different resolutions. Further, even in the DCT-based coding method, it is possible to decompose into video frames of different resolutions by dividing the high-frequency component and the low-frequency component for coding.
【0225】分解された一連の映像フレームから構成さ
れる複数個の映像ストリームに付加されるストリーム優
先度のほかに、映像のストリーム間の関係を記述するた
めにAND(論理積)とOR(論理和)で関係を定義す
る。具体的な使用方法は、ストリームAのストリーム優
先度が5であり、ストリームBのストリーム優先度が1
0である場合(数字の少ない方が優先度が高い)、優先
度によりストリームデータの廃棄ならば、ストリームB
の方は廃棄されるが、ストリーム間の関係記述を行なう
ことで、ANDの場合にはストリームBの優先度が閾値
の優先度よりも低くても、廃棄せずに伝送、処理するよ
うに定義しておく。In addition to the stream priority added to a plurality of video streams composed of a series of decomposed video frames, AND (logical product) and OR (logical Define the relationship with (sum). Specifically, the stream A has a stream priority of 5, and the stream B has a stream priority of 1.
If it is 0 (the smaller the number, the higher the priority), if the stream data is discarded due to the priority, the stream B
Is discarded, but by defining the relationship between streams, in the case of AND, even if the priority of stream B is lower than the priority of the threshold value, it is defined not to be discarded and to be transmitted and processed. I'll do it.
【0226】これにより、関連のあるストリームは廃棄
されずに処理できるようになる。ORの場合には逆に、
廃棄可能であると定義する。これまでと同様に、廃棄処
理は送受信端末でも行なっても、中継端末で行なっても
よい。As a result, the related stream can be processed without being discarded. Conversely, in the case of OR,
Defined as disposable. As in the past, the discarding process may be performed by the transmission / reception terminal or the relay terminal.
【0227】なお、関係記述のための演算子として、お
なじビデオクリップを24Kbpsと48Kbpsの別
のストリームに符号化した場合、どちらかを再生すれば
良いという場合がある(関係記述として排他的論理和E
X−OR)。As an operator for relational description, when the same video clip is encoded into another stream of 24 Kbps and 48 Kbps, either of them may be reproduced (exclusive OR as relational description). E
X-OR).
【0228】前者の優先度を10、後者を5としてある
場合、ユーザは優先度に基づいて後者を再生してもよい
し、優先度に従わずユーザは後者を選んでもよい。When the former priority is 10 and the latter is 5, the user may reproduce the latter based on the priority, or the user may select the latter without following the priority.
【0229】図38は通信ペイロードの構成方法につい
て説明する図である。FIG. 38 is a diagram for explaining the method of constructing the communication payload.
【0230】複数のサブストリームから構成される場
合、サブストリームに付加したストリーム優先度に応じ
て、たとえば優先度の高い順に、送信パケットを構成す
ることで送信パケットレベルでの廃棄が容易になる。ま
た、粒度を細かくして、フレーム優先度の高いオブジェ
クト同士の情報をひとつにまとめて通信パケットを構成
しても通信パケットレベルでの廃棄が容易になる。In the case of being composed of a plurality of substreams, it is easy to discard at the transmission packet level by composing the transmission packets in the order of higher priority according to the stream priority added to the substreams. Further, even if the granularity is made fine and the information of the objects having the high frame priority is collected into one to form the communication packet, the discarding at the communication packet level becomes easy.
【0231】なお、画像のスライス構造を通信パケット
に対応付けることでパケット落ちしたときの復帰が容易
である。つまり、動画像のスライス構造をパケットの構
造に対応付けることで、再同期のためのリシンクマーカ
ーが不要になる。スライス構造と通信パケットの構造が
一致していなければ、パケット落ちなどで情報が損失し
た場合、再同期ができるようにリシンクマーカー(復帰
する位置を知らせるための印)を付加する必要がある。By associating the slice structure of an image with a communication packet, it is easy to recover when a packet is dropped. That is, by associating the slice structure of a moving image with the structure of a packet, a resync marker for resynchronization becomes unnecessary. If the slice structure does not match the structure of the communication packet, it is necessary to add a resync marker (a mark for notifying the return position) so that resynchronization can be performed when information is lost due to a packet drop or the like.
【0232】これにあわせて、優先度の高い通信パケッ
トには高いエラープロテクションをかけることが考えら
れる。なお、画像のスライス構造とはGOBやMBとい
ったまとまった画像情報の単位をさす。In addition to this, it is conceivable that high error protection is applied to a communication packet having a high priority. The image slice structure is a unit of image information such as GOB and MB.
【0233】図39はデータを通信ペイロードへ対応づ
ける方法について説明する図である。ストリームやオブ
ジェクトの通信パケットへの対応付けの方法を制御情報
もしくはデータとともに伝送することで、通信状況や用
途に応じて任意のデータフォーマットが生成できる。た
とえば、RTP(Real time Transfe
r Protocol)では、扱う符号化毎にRTPの
ペイロードが定義されている。現行のRTPの形式は固
定である。H.263の場合、同図に示したように、M
ode AからMode Cの3つのデータ形式が定義さ
れている。H.263では、多重解像度の映像フォーマ
ットを対象とした通信ペイロードは定義されていない。FIG. 39 is a diagram for explaining a method of associating data with a communication payload. By transmitting a method of associating a stream or an object with a communication packet together with control information or data, it is possible to generate an arbitrary data format according to the communication situation or application. For example, RTP (Real time Transfer)
r Protocol), an RTP payload is defined for each encoding to be handled. The current RTP format is fixed. H. In the case of H.263, as shown in FIG.
Three data formats from ode A to mode C are defined. H. In H.263, a communication payload for a multi-resolution video format is not defined.
【0234】同図の例では、Layer No.と前述
の関係記述( AND、OR )を、Mode Aのデー
タフォーマットに追加して定義している。In the example of the figure, the Layer No. And the above-mentioned relational description (AND, OR) are added to the data format of Mode A and defined.
【0235】図40は、フレーム優先度、ストリーム優
先度と通信パケット優先度との対応について説明する図
である。FIG. 40 is a diagram for explaining the correspondence between frame priority, stream priority and communication packet priority.
【0236】又、同図は、伝送路で通信パケットに付加
される優先度を通信パケット優先度とし、ストリーム優
先度やフレーム優先度を、通信パケット優先度に対応さ
せる例である。[0236] Further, the figure shows an example in which the priority added to the communication packet on the transmission path is the communication packet priority, and the stream priority and the frame priority are associated with the communication packet priority.
【0237】通常、IPを利用した通信では、画像や音
声データに付加されたフレーム優先度やストリーム優先
度を下位のIPパケットの優先度にパケットに対応付け
てデータを伝送する必要がある。画像や音声データは分
割され、IPのパケットに分割されて伝送されるため優
先度の対応付けが必要がある。図の例では、ストリーム
優先度は0から3までの値をとり、フレーム優先度は0
から5までの値をとるため、上位のデータでは0から1
5までの優先度を取りうる。Normally, in communications using IP, it is necessary to transmit data by associating the frame priority and stream priority added to image and audio data with the priority of the lower IP packet and the packet. Image and audio data are divided and transmitted by being divided into IP packets for transmission, so it is necessary to associate priorities. In the illustrated example, the stream priority takes values from 0 to 3, and the frame priority is 0.
Since it takes a value from 5 to 5, it is 0 to 1 in the upper data.
It can take up to 5 priorities.
【0238】IPv6では優先度(4ビット)のうち0
から7までは輻輳制御されたトラフィックのために予約
されている、優先度のうち8から15までは実時間通信
トラフィックまたは輻輳制御されていないトラフィック
のために予約されている。優先度15は最も優先度が高
く、優先度8が最も優先度が低い。これはIPのパケッ
トのレベルでの優先度になる。In IPv6, 0 out of priority (4 bits)
Nos. 1 to 7 are reserved for congestion-controlled traffic, and Nos. 8 to 15 of the priorities are reserved for real-time communication traffic or non-congestion-controlled traffic. Priority 15 has the highest priority, and priority 8 has the lowest priority. This becomes the priority at the IP packet level.
【0239】IPを使ったデータの伝送では上位の0か
ら15までの優先度を下位のIPの優先度である8から
15までの優先度に対応付ける必要がある。対応付けは
上位の優先度の一部をクリッピングする方式でもよい
し、評価関数をもうけて対応付けてもよい。上位のデー
タと下位のIPの優先度の対応付けは、中継ノード(ル
ータやゲートウェイなど)、送受信端末で管理を行う。In data transmission using IP, it is necessary to associate the higher priority levels 0 to 15 with the lower level IP priority levels 8 to 15. The association may be performed by clipping a part of the higher priority, or by providing an evaluation function. The correspondence between the higher-order data and the lower-order IP priority is managed by a relay node (router, gateway, etc.) and a transmission / reception terminal.
【0240】なお、伝送手段はIPだけに限定されるわ
けではなく、ATMやMPEG2のTS(トランスポー
ト・ストリーム)のように廃棄可能かそうでないかのフ
ラグをもった伝送パケットを対象としてもよい。The transmission means is not limited to IP, and may be a transmission packet having a flag indicating whether it can be discarded or not, such as ATM (TS) (transport stream) of MPEG2. .
【0241】これまでに述べた、フレーム優先度とスト
リーム優先度は、伝送媒体やデータ記録媒体へ適用が可
能である。データ記録媒体としてフロッピーディスク、
光ディスクなどを用いて行うことができる。The frame priority and stream priority described so far can be applied to a transmission medium or a data recording medium. Floppy disk as data recording medium,
It can be performed using an optical disk or the like.
【0242】また、記録媒体はこれに限らず、ICカー
ド、ROMカセット等、プログラムを記録できるもので
あれば同様に実施することができる。さらに、データの
中継を行うルータやゲートウェイといった画像音声中継
装置を対象としてもよい。Further, the recording medium is not limited to this, and it can be implemented in the same manner as long as it can record the program such as an IC card and a ROM cassette. Furthermore, an image / audio relay device such as a router or gateway that relays data may be targeted.
【0243】加えて、Stream Priority
(時系列データ間優先度)や、Frame Prior
ity(時系列データ内優先度)の情報に基づいて再送
すべき時系列データを決定することで、優先的な再送処
理が可能となる。たとえば、優先度情報に基づいて受信
端末でデコードを行なっている場合、処理の対象外であ
るストリームやフレームの再送を防止することができ
る。In addition, Stream Priority
(Priority between time-series data) and Frame Priority
By determining the time-series data to be retransmitted based on the information of the “ity” (priority within time-series data), preferential retransmission processing becomes possible. For example, when the receiving terminal is decoding based on the priority information, it is possible to prevent the retransmission of the stream or frame that is not the target of the processing.
【0244】また、現在の処理対象となっている優先度
とは別に、再送回数と送信成功回数の関係から再送すべ
き優先度のストリームやフレームを決定してもよい。Further, in addition to the priority which is the current processing target, the stream or frame having the priority to be retransmitted may be determined from the relationship between the number of retransmissions and the number of successful transmissions.
【0245】一方、送信側の端末においても、Stre
am Priority(時系列データ間優先度)やF
rame Priority(時系列データ内優先度)
の情報に基づいて送信すべき時系列データを決定するこ
とで、優先的な送信処理が可能となる。たとえば、平均
転送レートや、再送回数に基づいて送信すべきストリー
ムやフレームの優先度を決定することで、ネットワーク
が過負荷である際にも適応的な映像や音声の伝送が可能
になる。On the other hand, the terminal on the transmitting side also has
am Priority (time-series data priority) and F
frame Priority (Priority within time series data)
By determining the time-series data to be transmitted on the basis of the information, the preferential transmission processing becomes possible. For example, by determining the priority of streams and frames to be transmitted based on the average transfer rate and the number of retransmissions, it is possible to adaptively transmit video and audio even when the network is overloaded.
【0246】なお、上記実施の形態は、2次元の画像合
成だけに限定したものではない。2次元の画像と3次元
の画像を組み合わせた表現形式でもよいし、広視野画像
(パノラマ画像)のように複数の画像を隣接するように
画像合成するような画像合成方法も含めてもよい。ま
た、本発明で対象としている通信形態は、有線の双方向
CATVやB−ISDNだけではない。たとえば、セン
ター側端末から家庭側端末への映像や音声の伝送は電波
(例えば、VHF帯、UHF帯)、衛星放送で、家庭側
端末からセンター側端末への情報発信はアナログの電話
回線やN−ISDNであってもよい(映像、音声、デー
タも必ずしも多重化されている必要はない)。また、I
rDA、PHS(パーソナル・ハンディー・ホン)や無
線LANのような無線を利用した通信形態であってもよ
い。The above embodiment is not limited to two-dimensional image composition. An expression format in which a two-dimensional image and a three-dimensional image are combined may be used, or an image synthesizing method of synthesizing a plurality of images so that they are adjacent to each other such as a wide-field image (panoramic image) may be included. Further, the communication mode targeted by the present invention is not limited to the wired bidirectional CATV and B-ISDN. For example, video and audio are transmitted from the center side terminal to the home side terminal by radio waves (for example, VHF band, UHF band) or satellite broadcasting, and information is transmitted from the home side terminal to the center side terminal through an analog telephone line or N. It may be ISDN (video, audio and data do not necessarily have to be multiplexed). Also, I
A communication form using wireless such as rDA, PHS (Personal Handy Phone) or wireless LAN may be used.
【0247】さらに、対象とする端末は、携帯情報端末
のように携帯型の端末であっても、セットトップBO
X、パーソナルコンピュータのように卓上型の端末であ
っても良い。Furthermore, even if the target terminal is a portable terminal such as a portable information terminal, the set top BO
It may be a desk-top type terminal such as X or a personal computer.
【0248】以上のように本発明によれば、複数のビデ
オストリームや複数のオーディオストリームの取り扱い
や、編集者の意図を反映させて、重要なシーンカットを
重点的にオーディオとともに同期再生をさせることが容
易となる。As described above, according to the present invention, it is possible to handle a plurality of video streams and a plurality of audio streams and to reflect the intention of the editor so that important scene cuts are mainly reproduced in synchronization with audio. Will be easier.
【0249】以下に本発明の実施の形態を図面を参照し
ながら説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0250】尚、ここで述べる実施の形態は、主に、上
述した課題(C1)〜(C3)の何れかを解決するもの
である。The embodiment described here mainly solves any of the problems (C1) to (C3) described above.
【0251】図41は第1の実施の形態である送信装置
の構成を示すものである。2101は画像入力端子であ
って、一枚の画像サイズは例えば縦144画素、横17
6画素である。2102は動画像符号化装置であって、
4つの構成要素1021,1022,1023,102
4から成る(Recommendation H.26
1参照)。FIG. 41 shows the configuration of the transmitting apparatus according to the first embodiment. An image input terminal 2101 has an image size of, for example, 144 pixels vertically and 17 pixels horizontally.
It has 6 pixels. 2102 is a moving picture coding device,
Four components 1021, 1022, 1023, 102
4 (Recommendation H.26
1).
【0252】1021は入力された画像をマクロブロッ
ク(縦16画素、横16画素の正方形領域)に分割し、
このブロックの符号化を、イントラ/インタどちらで符
号化するかを決定する切替器、1022は前回の符号化
結果から計算できるローカルデコード画像をもとに動き
補償画像を作成し、これと入力画像との差分を計算し、
結果をマクロブロック単位に出力する動き補償手段であ
って、動き補償には、処理時間の長いハーフペル動き補
償と処理時間の短いフルペル動き補償がある。1023
はそれぞれのマクロブロックに対してDCT変換を施す
直交変換手段、1024はこのDCT変換結果及び他の
符号化情報に対してエントロピー符号化を施すための可
変長符号化手段である。Reference numeral 1021 divides the input image into macroblocks (a square area of 16 pixels in the vertical direction and 16 pixels in the horizontal direction),
A switch 1022 for deciding whether to code this block by intra / inter is used to create a motion compensation image based on a locally decoded image that can be calculated from the previous coding result. And the difference between
A motion compensating unit that outputs the result in units of macroblocks. The motion compensation includes half-pel motion compensation having a long processing time and full-pel motion compensation having a short processing time. 1023
Is a orthogonal transform means for performing DCT transform on each macroblock, and 1024 is a variable length coding means for performing entropy coding on the DCT transform result and other coded information.
【0253】2103は計数手段であって、動画像符号
化装置2102の4つの構成要素の実行回数を計数し、
入力画像ごとに、結果を変換手段に出力する。この時、
動き補償手段1022からは、ハーフペルとフルペルの
2通りについてそれぞれの実行回数を計数する。Reference numeral 2103 denotes a counting means, which counts the number of executions of the four constituent elements of the moving picture coding apparatus 2102,
The result is output to the conversion means for each input image. At this time,
From the motion compensating means 1022, the number of times of execution is counted for each of the two types of half pels and full pels.
【0254】2104は変換手段であって、図42に示
すようなデータ列を出力する。2105は送信手段であ
って、動画像符号化装置2102からの可変長符号と、
変換手段2104からのデータ列を多重化して、一本の
データ列とし、データ出力端子2109に出力するもの
である。Reference numeral 2104 is a converting means for outputting a data string as shown in FIG. Reference numeral 2105 denotes a transmission means, which is a variable length code from the moving picture coding device 2102,
The data string from the conversion means 2104 is multiplexed into a single data string and output to the data output terminal 2109.
【0255】以上の構成により、受信装置に、必須処理
(切替器1021,直交変換手段1023,可変長符号
化手段1024)と非必須処理(動き補償手段102
2)の各実行回数を伝達することができる。With the above configuration, the receiving apparatus has essential processing (switch 1021, orthogonal transformation means 1023, variable length coding means 1024) and non-essential processing (motion compensation means 102).
It is possible to transmit the number of times of execution of 2).
【0256】次に、図48は、第2の実施の形態である
送信方法のフローチャートである。Next, FIG. 48 is a flow chart of the transmission method according to the second embodiment.
【0257】本実施の形態における動作が第1の実施の
形態と似ているので、対応する要素を付記しておく。8
01にて、画像を入力し(画像入力端子2101)、8
02にて画像をマクロブロックに分割する。以降、80
7の条件分岐により、すべてのマクロブロックに対する
処理を完了するまで、803から806までの処理を繰
りかえす。なお、803から806までの処理の回数
を、特定の変数に記録できるように、それぞれの処理を
実行した場合には、対応する変数を1だけインクリメン
トする。Since the operation of this embodiment is similar to that of the first embodiment, the corresponding elements will be added. 8
An image is input at 01 (image input terminal 2101), and 8
At 02, the image is divided into macroblocks. After that, 80
By the conditional branch of 7, the processing from 803 to 806 is repeated until the processing for all macroblocks is completed. When each process is executed, the corresponding variable is incremented by 1 so that the number of processes 803 to 806 can be recorded in a specific variable.
【0258】まず、803にて、処理対象のマクロブロ
ックをイントラ/インタどちらで符号化するかを判定す
る(切替器1021)。インタの場合は、804にて動
き補償を行う(動き補償手段1022)。その後、80
5,806にて、DCT変換、可変長符号化を、行う
(直交変換手段1023,可変長符号化手段102
4)。すべてのマクロブロックに対する処理を完了した
ら(807にてYesの時)、808にて、それぞれの
処理に対応する実行回数を示す変数を読み、図2に示す
ようなデータ列を生成し、このデータ列と符号とを多重
化し、出力する。以上の801から808までの処理
を、入力画像が続くかぎり、繰り返し実行する。First, at 803, it is determined whether the macroblock to be processed is to be coded intra / inter (switch 1021). In the case of inter, motion compensation is performed at 804 (motion compensation means 1022). Then 80
5, 806 performs DCT conversion and variable length coding (orthogonal transformation means 1023, variable length coding means 102).
4). When the processing for all the macroblocks is completed (when Yes in 807), in 808, the variable indicating the number of execution times corresponding to each processing is read and a data string as shown in FIG. 2 is generated, and this data is generated. The column and code are multiplexed and output. The above processing from 801 to 808 is repeatedly executed as long as the input image continues.
【0259】以上の構成により、各処理の実行回数を送
信することができる。With the above configuration, the number of times each process is executed can be transmitted.
【0260】次に、図43は第3の実施の形態である受
信装置の構成を示すものである。Next, FIG. 43 shows the configuration of the receiving apparatus according to the third embodiment.
【0261】同図において、307は第1の実施の形態
の送信装置の出力を入力するための入力端子、301は
第1の実施の形態の送信装置の出力をもとに可変長符号
とデータ列を逆多重化により取り出し出力する受信手段
であって、この時、一枚分のデータを受信するのに要し
た時間を計測しておき、これも出力するものとする。In the figure, 307 is an input terminal for inputting the output of the transmitter of the first embodiment, and 301 is a variable length code and data based on the output of the transmitter of the first embodiment. It is a receiving means for extracting and outputting a column by demultiplexing, and at this time, the time required to receive one sheet of data is measured and this is also output.
【0262】303は可変長符号を入力とする動画像の
復号化装置であって、5つの構成要素から成る。303
1は可変長符号からDCT係数及び他の符号化情報を取
り出すための可変長復号化手段、3032はDCT係数
に対して逆DCT変換処理を施す逆直交変換手段、30
33は切替器であって、マクロブロックごとに、イント
ラ/インタどちらで符号化されているかの符号化情報に
基づき、出力を上下に振りわける動作をする。3034
は動き補償手段であって、前回の復号画像と動きの符号
化情報とを用い、動き補償画像を作成し、この画像に逆
直交変換手段3032の出力を加算して出力する。30
35は実行時間計測手段であって、復号化装置303に
可変長符号が入力されてから画像の復号化及び出力を完
了するまでの実行時間を計測し、これを出力する。30
2は、受信手段301からのデータ列から各要素(可変
長復号化手段3031,逆直交変換手段3032,切替
器3033,動き補償手段3034)の実行回数と、実
行時間計測手段3035から実行時間とを受け取り、各
要素の実行時間を推定する推定手段である。Reference numeral 303 denotes a moving picture decoding device which receives a variable length code as an input, and is composed of five constituent elements. 303
Reference numeral 1 is a variable length decoding means for extracting the DCT coefficient and other encoded information from the variable length code, 3032 is an inverse orthogonal transformation means for performing an inverse DCT transformation process on the DCT coefficient, 30
Reference numeral 33 denotes a switch, which performs an operation of allocating the output to the upper and lower sides on the basis of the encoding information indicating whether the macroblock is encoded as intra or inter. 3034
Is a motion compensating means, which creates a motion compensating image using the previous decoded image and motion coding information, adds the output of the inverse orthogonal transforming means 3032 to this image, and outputs it. Thirty
Reference numeral 35 is an execution time measuring means, which measures the execution time from the input of the variable length code to the decoding device 303 to the completion of the decoding and output of the image, and outputs it. Thirty
2 is the number of executions of each element (variable length decoding means 3031, inverse orthogonal transformation means 3032, switcher 3033, motion compensation means 3034) from the data string from the reception means 301, and execution time from the execution time measurement means 3035. Is an estimation means for estimating the execution time of each element.
【0263】推定方法は、例えば、線型回帰を用いれ
ば、推定実行時間を目的変数y、各要素の実行回数を説
明変数x_iとすれば良い。この場合、回帰パラメタa
_iは、各要素の実行時間とみなせるであろう。また、
線型回帰の場合、過去のデータを充分多く蓄積しておく
必要があり、メモリを沢山消費することになるが、これ
を嫌う場合には、カルマンフィルタによる内部状態変数
の推定を利用しても良い。この場合、観測値が実行時
間、各要素の実行時間を内部状態変数とし、観測行列C
が各要素の実行回数でステップごとに変化する場合、と
考えれば良い。304は、フルペル動き補償の実行回数
を減らし、相当数だけハーフペル動き補償の実行回数を
増やすように、各要素の実行回数を変更する回数削減手
段である。この相当数の計算方法は、以下の通りであ
る。For example, if linear regression is used as the estimation method, the estimated execution time may be the objective variable y, and the number of executions of each element may be the explanatory variable x_i. In this case, the regression parameter a
_I can be regarded as the execution time of each element. Also,
In the case of linear regression, it is necessary to store a large amount of past data, which consumes a large amount of memory, but if this is disliked, estimation of internal state variables by a Kalman filter may be used. In this case, the observed value is the execution time, the execution time of each element is the internal state variable, and the observation matrix C
Can be considered as a case in which the number of executions of each element changes for each step. Reference numeral 304 denotes a number-of-times reducing means for changing the number of executions of each element so as to reduce the number of executions of full-pel motion compensation and increase the number of executions of half-pel motion compensation by a considerable number. The calculation method of this considerable number is as follows.
【0264】まず、推定手段302から各要素の実行回
数と推定実行時間とを受けとり、実行時間を予想する。
この時間が、受信手段301からのデータを受信するの
に要した時間を越える場合に、越えなくなるまで、フル
ペル動き補償の実行回数を増やし、ハーフペル動き補償
の実行回数を減らす。306は復号化画像の出力端子で
ある。First, the execution times are estimated by receiving the execution times and estimated execution times of each element from the estimating means 302.
If this time exceeds the time required to receive the data from the receiving means 301, the number of full-pel motion compensation executions is increased and the number of half-pel motion compensation executions is reduced until the time is not exceeded. A decoded image output terminal 306 is provided.
【0265】なお、動き補償手段3034は、符号化情
報からハーフペル動き補償を行うよう指示されている場
合であるが、ハーフペル動き補償の所定実行回数を越え
てしまった場合には、ハーフペルの動きを丸めて、フル
ペルの動きとして、フルペル動き補償を実行する。The motion compensating means 3034 is in the case where it is instructed to perform half-pel motion compensation from the coded information. However, when the number of times of execution of half-pel motion compensation is exceeded, half-pel motion is compensated. Round and perform full-pel motion compensation as full-pel motion.
【0266】以上にて説明した第1の実施の形態、第3
の実施の形態によれば、推定された各要素の実行時間か
ら復号化処理の実行時間を予測し、これが一枚分のデー
タを受信するのに要した時間(指定時間)を越えるよう
であれば、実行時間の長いハーフペルの動き補償を、フ
ルペルの動き補償で置き替える。これによって、実行時
間が指定時間を越えないようにでき、課題(C1)を解
決することができる。The first embodiment and the third embodiment described above
According to the embodiment of the present invention, the execution time of the decoding process is predicted from the estimated execution time of each element, and it seems that this exceeds the time (specified time) required to receive one sheet of data. For example, half-pel motion compensation, which has a long execution time, is replaced with full-pel motion compensation. As a result, the execution time can be prevented from exceeding the specified time, and the problem (C1) can be solved.
【0267】なお、受信装置でのIDCT計算におい
て、高周波成分を使用しないようにすることで、IDC
T計算の処理時間を減らすことができる。つまり、ID
CT計算のうち、低周波成分の計算を必須処理、高周波
成分の計算を非必須処理とみなして、IDCT計算の高
周波成分の計算回数を削減するようにしても良い。It should be noted that, in the IDCT calculation in the receiving device, by eliminating the use of high frequency components, the IDC
The processing time of T calculation can be reduced. That is, ID
Of the CT calculations, the calculation of the low frequency component may be regarded as an essential process and the calculation of the high frequency component may be regarded as a non-essential process, so that the number of calculations of the high frequency component in the IDCT calculation may be reduced.
【0268】次に、図49は、第4の実施の形態である
受信方法のフローチャートである。Next, FIG. 49 is a flowchart of the receiving method according to the fourth embodiment.
【0269】本実施の形態における動作が第3の実施の
形態と似ているので、対応する要素を付記しておく。ス
テップ901にて各要素の実行時間を表現する変数a_
iを初期化する(推定手段302)。902にて多重化
データの入力と、これに要する時間の計測を行う(受信
手段301)。903にてこの多重化データを、可変長
符号とデータ列とに分離し、出力する(受信手段30
1)。904にてデータ列(図2)から各実行回数を取
り出し、これらをx_iに設定する。905にて、各要
素の実行時間a_iと各実行回数x_iとから、実際の
実行回数を算出する(回数削減手段304)。906に
て、復号化処理の実行時間の計測を開始し、907にて
後述する復号化処理ルーチンを起動し、その後、908
にて復号化処理の実行時間の計測を終了する(動画像の
復号化装置303,実行時間計測手段3035)。90
8では、908での復号化処理の実行時間と905での
各要素の実際の実行回数とから各要素の実行時間を推定
し、a_iを更新する(推定手段302)。以上の処理
を入力される多重化データごとに実行する。Since the operation in this embodiment is similar to that in the third embodiment, the corresponding elements will be additionally described. At step 901, a variable a_ representing the execution time of each element
i is initialized (estimation means 302). At 902, multiplexed data is input and the time required for this is measured (reception means 301). At 903, this multiplexed data is separated into a variable length code and a data string and output (reception means 30.
1). At 904, each execution count is extracted from the data string (FIG. 2), and these are set to x_i. At 905, the actual number of executions is calculated from the execution time a_i of each element and each number of executions x_i (number reduction means 304). At 906, measurement of the execution time of the decryption process is started, at 907 a decryption process routine to be described later is started, and then at 908.
Then, the measurement of the execution time of the decoding process is finished (the moving image decoding device 303, the execution time measuring means 3035). 90
In 8, the execution time of each element is estimated from the execution time of the decoding processing in 908 and the actual number of executions of each element in 905, and a_i is updated (estimation means 302). The above processing is executed for each input multiplexed data.
【0270】また、復号化処理ルーチン907では、9
10にて可変長復号化を行い(可変長復号化手段303
1)、911にて逆直交変換を行い(逆直交変換手段3
032)、912にて、910での処理で取り出された
イントラ/インタの情報で分岐する(切替器303
3)。インタの場合は、913にて動き補償を施す(動
き補償手段3034)。この913にて、ハーフペル動
き補償の実行回数を計数しておき、これが905で求め
た実際の実行回数を越えた場合には、ハーフペル動き補
償をフルペル動き補償で置き替えて実行する。以上の処
理を、すべてのマクロブロックについて完了後(ステッ
プ914)、このルーチンを終了する。In the decryption processing routine 907, 9
Variable length decoding is performed at 10 (variable length decoding means 303
1) and 911 perform inverse orthogonal transform (inverse orthogonal transform means 3
032) and 912, the processing branches at the intra / inter information extracted in the processing at 910 (switch 303
3). In the case of inter, motion compensation is performed at 913 (motion compensation means 3034). In this step 913, the number of executions of half-pel motion compensation is counted, and if it exceeds the actual number of executions obtained in 905, half-pel motion compensation is replaced with full-pel motion compensation and executed. After the above processing is completed for all macroblocks (step 914), this routine ends.
【0271】以上にて説明した第2の実施の形態、第4
の実施の形態によれば、推定された各要素の実行時間か
ら復号化処理の実行時間を予測し、これが一枚分のデー
タを受信するのに要した時間(指定時間)を越えるよう
であれば、実行時間の長いハーフペルの動き補償を、フ
ルペルの動き補償で置き替える。これによって、実行時
間が指定時間を越えないようにでき、課題(C1)を解
決することができる。The second embodiment and the fourth described above
According to the embodiment of the present invention, the execution time of the decoding process is predicted from the estimated execution time of each element, and it seems that this exceeds the time (specified time) required to receive one sheet of data. For example, half-pel motion compensation, which has a long execution time, is replaced with full-pel motion compensation. As a result, the execution time can be prevented from exceeding the specified time, and the problem (C1) can be solved.
【0272】次に、図44は第5の実施の形態である受
信装置の構成を示すものである。Next, FIG. 44 shows the structure of a receiving apparatus according to the fifth embodiment.
【0273】本実施の形態のほとんどの構成要素は、第
2の実施の形態で説明したのと同じであり、2つの構成
要素の追加と、1つの構成要素の修正のみであるのでそ
の点を説明する。Most of the components of this embodiment are the same as those described in the second embodiment, and only two components are added and one component is modified. explain.
【0274】402は第2の実施の形態で説明した推定
手段302に推定の結果得た各要素の実行時間を、回数
制限手段304への出力とは別に、出力するよう修正し
たものである。408は送信手段であって、各要素の実
行時間から図45に示すようなデータ列を生成し、これ
を出力するものである。実行時間は、マイクロセコンド
を単位として、16bitで表現すれば最大で、約65
ミリセコンドを表現できるので、充分であろう。409
はこのデータ列を送信手段に送るための出力端子であ
る。Reference numeral 402 is a modification in which the execution time of each element obtained as a result of the estimation by the estimating means 302 described in the second embodiment is output separately from the output to the number-of-times limiting means 304. Reference numeral 408 denotes a transmission means, which generates a data string as shown in FIG. 45 from the execution time of each element and outputs this. The maximum execution time is about 65 when expressed in 16 bits in units of microseconds.
It's enough because you can express the millisecond. 409
Is an output terminal for sending this data string to the transmitting means.
【0275】また、この第5の実施の形態に対応する受
信方法は、図45に示すようなデータ列を生成するステ
ップを図48の808の直後に追加したもので良い。The receiving method corresponding to the fifth embodiment may have the step of generating a data string as shown in FIG. 45 added immediately after 808 in FIG.
【0276】次に、図46は第6の実施の形態である送
信装置の構成を示すものである。Next, FIG. 46 shows the structure of the transmitting apparatus according to the sixth embodiment.
【0277】本実施の形態のほとんどの構成要素は、第
1の実施の形態で説明したのと同じであり、2つの構成
要素の追加のみであるのでその点を説明する。606は
第3の実施の形態の受信装置の出力するデータ列を受信
するための入力端子、607はこのデータ列を受信し、
各要素の実行時間を出力する受信手段である。608
は、各要素の実行回数を求める決定手段であって、その
手順は以下の通りである。まず、画像中のすべてのマク
ロブロックについて、切替器1021での処理を行い、
この時点での切替器1021の実行回数を求める。ま
た、このあとの、動き補償手段1022、直交変換手段
1023,可変長符号化手段1024での実行回数は、
この時点までの処理結果によって、一意に決定できる。
そこで、これら実行回数と、受信手段607からの実行
時間を用いて、受信装置側での復号化に要する実行時間
を予測する。この予測復号化時間は、各要素の実行時間
と実行回数の積の、要素ごとの総和として、求まる。そ
して、予測復号化時間が、レートコントローラなどが指
定した今回の画像で発生すべき符号量(例えば16kb
its)の伝送に要する時間(例えば、伝送速度が64
kbit/secなら250msec)以上であれば、
復号化時間が伝送に要する時間を越えないように、フル
ペル動き補償の実行回数を増やし、ハーフペル動き補償
の実行回数を減らす(フルペル動き補償のほうが、実行
時間が短いので、これの回数を減らすことで実行時間を
小さくすることができる。)。Most of the constituent elements of this embodiment are the same as those described in the first embodiment, and only the addition of two constituent elements will be described. Reference numeral 606 denotes an input terminal for receiving a data string output by the receiving device of the third embodiment, and 607 receives this data string,
The receiving means outputs the execution time of each element. 608
Is a determining means for determining the number of times of execution of each element, and the procedure is as follows. First, the processing in the switch 1021 is performed for all macroblocks in the image,
The number of times the switch 1021 is executed at this point is calculated. Further, the number of executions in the motion compensation means 1022, the orthogonal transformation means 1023, and the variable length coding means 1024 after this is
It can be uniquely determined by the processing results up to this point.
Therefore, using the number of times of execution and the execution time from the receiving unit 607, the execution time required for decoding on the receiving device side is predicted. This predictive decoding time is obtained as the sum of the product of the execution time of each element and the number of executions for each element. Then, the predictive decoding time is the code amount (for example, 16 kb) to be generated in the current image designated by the rate controller or the like.
ts) transmission time (for example, transmission speed is 64
If it is more than 250 msec for kbit / sec),
Increase the number of executions of full-pel motion compensation and reduce the number of executions of half-pel motion compensation so that the decoding time does not exceed the time required for transmission. (Because full-pel motion compensation has a shorter execution time, reduce the number of times. You can reduce the execution time with.
【0278】なお、動画像の符号化装置2102は、決
定手段608の指定した実行回数に基づき、各処理を行
う。例えば、動き補償手1022は、指定されたハーフ
ペルの動き補償実行回数分だけ、ハーフペル動き補償を
実行完了すれば、その後は、フルペルの動き補償だけを
実行するようになる。The moving picture coding device 2102 performs each processing based on the number of executions designated by the determining means 608. For example, if the motion compensating hand 1022 completes the half-pel motion compensation for the designated number of times of half-pel motion compensation execution, then only the full-pel motion compensation will be performed.
【0279】また、ハーフペルの動き補償が、画像中に
一様にちらばるように、選択方法を工夫しても良い。た
とえば、まず、ハーフペルの動き補償を必要とするマク
ロブロックをすべて求め、この数(例えば12)をハー
フペルの動き補償実行回数(例えば4)で割った商
(3)を求め、ハーフペルの動き補償を必要とするマク
ロブロックの始めからの順序が、この商で割りきれるも
の(0,3,6,9)だけにハーフペルの動き補償を施
す、という方法でも良い。Also, the selection method may be devised so that the half-pel motion compensation is uniformly distributed in the image. For example, first, all macroblocks that require half-pel motion compensation are obtained, and this number (for example, 12) is divided by the number of half-pel motion compensation execution times (for example, 4) to obtain a quotient (3), and half-pel motion compensation is performed. It is also possible to apply the half-pel motion compensation only to those (0, 3, 6, 9) whose order from the beginning of the required macroblock is divisible by this quotient.
【0280】以上にて説明した第5の実施の形態、第6
の実施の形態によれば、推定された各要素の実行時間を
送信側に伝送し、送信側にて復号化処理の実行時間を予
測し、これが一枚分のデータを受信するのに要するであ
ろう時間(指定時間)を越えないように実行時間の長い
ハーフペルの動き補償を、フルペルの動き補償で置き替
える。これによって、送られた符号化情報のうち、ハー
フペル動き補償の情報が捨てられることなく、実行時間
が指定時間を越えないようにでき、課題(C2)を解決
することができる。The fifth embodiment and sixth embodiment described above
According to the embodiment of the present invention, the estimated execution time of each element is transmitted to the transmission side, the transmission side predicts the execution time of the decoding process, and this is required to receive one sheet of data. Replace the half-pel motion compensation, which has a long execution time, with full-pel motion compensation so as not to exceed the expected time (specified time). This makes it possible to prevent half-pel motion compensation information in the sent encoded information from being discarded, prevent the execution time from exceeding the specified time, and solve the problem (C2).
【0281】なお、非必須処理において、インターマク
ロブロック符号化を普通の動き補償、8x8動き補償、
オーバラップ動き補償の3つに分割しても良い。In the non-essential processing, inter-macroblock coding is performed with normal motion compensation, 8 × 8 motion compensation,
It may be divided into three parts of overlap motion compensation.
【0282】次に、図50は、第7の実施の形態である
送信方法のフローチャートである。Next, FIG. 50 is a flow chart of the transmission method according to the seventh embodiment.
【0283】本実施の形態における動作が第6の実施の
形態と似ているので、対応する要素を付記しておく。1
001にて、各処理の実行時間の初期値を設定する。8
01にて画像を入力し(入力端子2101)、にて画像
をマクロブロックに分割する。1002にて、すべての
マクロブロックについて、イントラ/インタどちらで符
号化するかを判定する(切替器1021)。この結果、
1005から806までの各処理の実行回数がわかるの
で、1003では、この実行回数と、各処理の実行時間
とから、実際の実行回数を算出する(決定手段60
8)。Since the operation in this embodiment is similar to that in the sixth embodiment, the corresponding elements will be additionally described. 1
At 001, the initial value of the execution time of each process is set. 8
An image is input at 01 (input terminal 2101), and the image is divided into macroblocks at. At 1002, it is determined which of the macroblocks is to be coded, intra / inter (switch 1021). As a result,
Since the number of executions of each process from 1005 to 806 is known, in 1003, the actual number of executions is calculated from this number of executions and the execution time of each process (determination means 60).
8).
【0284】以降、807の条件分岐により、すべての
マクロブロックに対する処理を完了するまで、1005
から806までの処理を繰りかえす。Thereafter, the conditional branch of 807 is performed until the processing for all macroblocks is completed until 1005
The processing from 1 to 806 is repeated.
【0285】なお、1005から806までの処理の回
数を、特定の変数に記録できるように、それぞれの処理
を実行した場合には、対応する変数を1だけインクリメ
ントする。まず、1005にて、1002での判定結果
に基き、分岐する(切替器1021)。インタの場合
は、804にて動き補償を行う(動き補償手段102
2)。ここで、ハーフペル動き補償の回数を計数してお
き、これが1003で求めた実際の実行回数を越えた場
合には、ハーフペル動き補償を実行せずかわりにフルペ
ル動き補償を実行する。その後、805,806にて、
DCT変換、可変長符号化を、行う(直交変換手段10
23,可変長符号化手段1024)。すべてのマクロブ
ロックに対する処理を完了したら(807にてYesの
時)、808にて、それぞれの処理に対応する実行回数
を示す変数を読み、図2に示すようなデータ列を生成
し、このデータ列と符号とを多重化し、出力する。10
04では、データ列を受信し、これから各処理の実行時
間を取り出し、設定する。When each process is executed so that the number of processes 1005 to 806 can be recorded in a specific variable, the corresponding variable is incremented by one. First, at 1005, the process branches based on the determination result at 1002 (switch 1021). In the case of inter, motion compensation is performed at 804 (motion compensation means 102).
2). Here, the number of times of half-pel motion compensation is counted, and if it exceeds the actual number of executions obtained in 1003, half-pel motion compensation is not executed but full-pel motion compensation is executed instead. After that, at 805 and 806,
DCT transform and variable length coding are performed (orthogonal transform means 10
23, variable length coding means 1024). When the processing for all the macroblocks is completed (when Yes in 807), in 808, the variable indicating the number of execution times corresponding to each processing is read and a data string as shown in FIG. 2 is generated, and this data is generated. The column and code are multiplexed and output. 10
In 04, the data string is received, and the execution time of each process is extracted and set.
【0286】以上の801から1004までの処理を、
入力画像が続くかぎり、繰り返し実行する。The above processing from 801 to 1004 is
Repeatedly executed as long as the input image continues.
【0287】以上にて説明した、第5の実施の形態の説
明部分の最後の「また」で始まるパラグラフと、第7の
実施の形態とによれば、推定された各要素の実行時間を
送信側に伝送し、送信側にて復号化処理の実行時間を予
測し、これが一枚分のデータを受信するのに要するであ
ろう時間(指定時間)を越えないように実行時間の長い
ハーフペルの動き補償を、フルペルの動き補償で置き替
える。これによって、送られた符号化情報のうち、ハー
フペル動き補償の情報が捨てられることなく、実行時間
が指定時間を越えないようにでき、課題(C2)を解決
することができる。According to the paragraph starting with “Mata” at the end of the explanation part of the fifth embodiment and the seventh embodiment described above, the estimated execution time of each element is transmitted. To the sender side, the sender side predicts the execution time of the decoding process, and the half-pel with a long execution time does not exceed the time (specified time) that would be required to receive one sheet of data. Replace motion compensation with full-pel motion compensation. This makes it possible to prevent half-pel motion compensation information in the sent encoded information from being discarded, prevent the execution time from exceeding the specified time, and solve the problem (C2).
【0288】次に、図47は第8の実施の形態である送
信装置の構成を示すものである。Next, FIG. 47 shows the structure of the transmitting apparatus according to the eighth embodiment.
【0289】本実施の形態のほとんどの構成要素は、第
1の実施の形態で説明したのと同じであり、4つの構成
要素の追加のみであるのでその点を説明する。Most of the constituent elements of this embodiment are the same as those described in the first embodiment, and only the addition of four constituent elements will be described.
【0290】7010は実行時間計測手段であって、符
号化装置2102に画像が入力されてから画像の符号化
及び符号の出力を完了するまでの実行時間を計測し、こ
れを出力する。706は、計数手段2103からのデー
タ列からの各要素(切替器1021、動き補償手段10
22、直交変換手段1023,可変長復号化手段102
4)の実行回数と、実行時間計測手段7010からの実
行時間とを受け取り、各要素の実行時間を推定する推定
手段である。推定方法は、第2の実施の形態の推定手段
302で説明したものと同じで良い。707はユーザか
らのフレームレート値を入力するための入力端子、70
8は、各要素の実行回数を求める決定手段であって、そ
の手順は以下の通りである。Reference numeral 7010 denotes an execution time measuring means, which measures the execution time from when the image is input to the encoding device 2102 to when the encoding of the image and the output of the code are completed, and outputs this. Reference numeral 706 denotes each element (switch 1021, motion compensation means 10) from the data string from the counting means 2103.
22, orthogonal transformation means 1023, variable length decoding means 102
It is an estimating means that receives the number of executions of 4) and the execution time from the execution time measuring means 7010 and estimates the execution time of each element. The estimation method may be the same as that described in the estimation means 302 of the second exemplary embodiment. Reference numeral 707 denotes an input terminal for inputting a frame rate value from the user, 70
Reference numeral 8 is a determining means for obtaining the number of times of execution of each element, and the procedure is as follows.
【0291】まず、画像中のすべてのマクロブロックに
ついて、切替器1021での処理を行い、この時点での
切替器1021の実行回数を求める。また、このあと
の、動き補償手段1022、直交変換手段1023,可
変長符号化手段1024での実行回数は、この時点まで
の処理結果によって、一意に決定できる。つぎに、この
実行回数と推定手段706からの各要素の推定実行時間
との積の、要素ごとの総和を求め予測符号化時間を算出
する。そして、予測符号化時間が、707からのフレー
ムレートの逆数から求まる一枚の画像の符号化に使用可
能な時間以上であれば、フルペル動き補償の実行回数を
増やし、ハーフペル動き補償の実行回数を減らす。First, the switch 1021 processes all macroblocks in the image, and the number of executions of the switch 1021 at this point is obtained. Further, the number of times of execution thereafter by the motion compensation means 1022, the orthogonal transformation means 1023, and the variable length coding means 1024 can be uniquely determined by the processing results up to this point. Next, the sum of the products of the number of executions and the estimated execution time of each element from the estimation means 706 is calculated for each element to calculate the predictive coding time. Then, if the predictive coding time is equal to or longer than the time that can be used to code one image obtained from the reciprocal of the frame rate from 707, the number of full-pel motion compensation executions is increased to determine the number of half-pel motion compensation executions. cut back.
【0292】この増減処理と予測符号化時間の算出と
を、予測符号化時間が使用可能な時間以下になるまで、
繰り返すことで、それぞれの実行回数を決定する。This increase / decrease processing and the calculation of the predictive coding time are repeated until the predictive coding time becomes less than or equal to the usable time.
By repeating, the number of times of execution is determined.
【0293】なお、動画像の符号化装置2102は、決
定手段608の指定した実行回数に基づき、各処理を行
う。例えば、動き補償手1022は、指定されたハーフ
ペルの動き補償実行回数分だけ、ハーフペル動き補償を
実行完了すれば、その後は、フルペルの動き補償だけを
実行するようになる。The moving picture coding device 2102 performs each processing based on the number of executions designated by the determining means 608. For example, if the motion compensating hand 1022 completes the half-pel motion compensation for the designated number of times of half-pel motion compensation execution, then only the full-pel motion compensation will be performed.
【0294】また、ハーフペルの動き補償が、画像中に
一様にちらばるように、選択方法を工夫しても良い。た
とえば、まず、ハーフペルの動き補償を必要とするマク
ロブロックをすべて求め、この数(例えば12)をハー
フペルの動き補償実行回数(例えば4)で割った商
(3)を求め、ハーフペルの動き補償を必要とするマク
ロブロックの始めからの順序が、この商で割りきれるも
の(0,3,6,9)だけにハーフペルの動き補償を施
す、という方法でも良い。Further, the selection method may be devised so that the half-pel motion compensation is uniformly distributed in the image. For example, first, all macroblocks that require half-pel motion compensation are obtained, and this number (for example, 12) is divided by the number of half-pel motion compensation execution times (for example, 4) to obtain a quotient (3), and half-pel motion compensation is performed. It is also possible to apply the half-pel motion compensation only to those (0, 3, 6, 9) whose order from the beginning of the required macroblock is divisible by this quotient.
【0295】以上示した第8の実施の形態によれば、各
処理の実行時間を推定し、この推定実行時間に基き、符
号化に要する実行時間を予め予測し、この予測符号化時
間が、フレームレートから決まる画像の符号化に使用可
能な時間以下になるように、実行回数を決定することに
より、課題(C3)を解決することができる。According to the eighth embodiment described above, the execution time of each process is estimated, the execution time required for encoding is predicted in advance based on this estimated execution time, and the predicted encoding time is The problem (C3) can be solved by determining the number of executions so that the time is equal to or less than the time that can be used for encoding the image determined by the frame rate.
【0296】なお、動き補償手段1022では、動きベ
クトルを検出するために、左右上下15画素の範囲のベ
クトルのうち、もっともSAD(画素ごとに差の絶対値
の和)を小さくするものを検出するフルサーチ動きベク
トル検出方法存在するが、これ以外に、3step動き
ベクトル検出方法というものもある(H.261のan
nex.に記述がある)。これは、上記の探索範囲にて
均等な配置関係の9点を選び、これのSAD最小の点を
選ぶ。次に、この点の近傍のせばめた範囲にて、再度、
9点を選び、SAD最小の点を選ぶ。このような処理を
もう一度実行するのが、3step動きベクトル検出方
法である。In order to detect the motion vector, the motion compensating means 1022 detects the vector having the smallest SAD (sum of absolute differences for each pixel) among the vectors in the range of 15 pixels on the left, right, upper and lower sides. There is a full search motion vector detection method, but there is also a 3step motion vector detection method (see H.261, an.
next. Described in). This is done by selecting nine points having an even arrangement relationship in the search range and selecting the point having the smallest SAD. Next, in the fitted range near this point,
Select 9 points and select the point with the smallest SAD. The 3step motion vector detection method is to execute such processing again.
【0297】これら2つの方法を、非必須処理方法とみ
なし、実行時間をそれぞれ推定し、推定実行時間にもと
づき、符号化に要する実行時間を予測し、この予測実行
時間がユーザ指定時間以下になるように、適宜、フルサ
ーチ動きベクトル検出方法の実行回数を減らし、かわり
に3step動きベクトル検出方法の実行回数を増やす
ようにしても良い。These two methods are regarded as non-essential processing methods, the execution times are estimated, the execution times required for encoding are predicted based on the estimated execution times, and the predicted execution times are less than the user-specified time. As described above, the number of executions of the full search motion vector detection method may be appropriately reduced, and the number of executions of the 3step motion vector detection method may be increased instead.
【0298】さらに、3step動きベクトル検出方法
以外に、もっと処理を簡略化した固定探索回数による動
きベクトル検出方法や、(0,0)動きベクトルのみを
結果として返す動きベクトル検出方法を併用しても良
い。Further, in addition to the 3step motion vector detection method, a motion vector detection method based on a fixed number of searches that further simplifies the process or a motion vector detection method that returns only a (0,0) motion vector as a result is used. good.
【0299】次に、図51は、第9の実施の形態である
送信方法のフローチャートである。[0299] Next, FIG. 51 is a flow chart of the transmission method according to the ninth embodiment.
【0300】本実施の形態における動作が第8の実施の
形態と似ているので、対応する要素を付記しておく。各
フローでの詳しい動作は、対応する要素の説明を参照の
こと。また、第2の実施の形態とほぼ同じであるので、
異なる点のみを説明する。Since the operation of this embodiment is similar to that of the eighth embodiment, the corresponding elements will be added. For detailed operations in each flow, refer to the corresponding element description. Also, since it is almost the same as the second embodiment,
Only the differences will be described.
【0301】1101にて各処理の実行時間の初期値を
変数a_iに設定する。また、1102にてフレームレー
トを入力する(入力端子707)。l103は、110
2でのフレームレート、各処理の実行時間a_i、100
2でのイントラ/インタ判定結果から求まる各処理の実
行回数、とから実際の実行回数を決定する(決定手段7
08)。1105,1106は、符号化処理の実行時間
を計測するためのものである。1104は、1106で
の実行時間と各処理の実際の実行回数とから各処理の実
行時間を推定し、変数a_iを更新する(推定手段70
6)。At 1101, the initial value of the execution time of each process is set in the variable a_i. The frame rate is input at 1102 (input terminal 707). 1103 is 110
2 frame rate, execution time of each process a_i, 100
The actual number of executions is determined from the number of executions of each process obtained from the intra / inter determination result in 2 (determination means 7
08). 1105 and 1106 are for measuring the execution time of the encoding process. 1104 estimates the execution time of each process from the execution time of 1106 and the actual number of executions of each process, and updates the variable a_i (estimation unit 70).
6).
【0302】以上示した第9の実施の形態によれば、各
処理の実行時間を推定し、この推定実行時間に基き、符
号化に要する実行時間を予め予測し、この予測符号化時
間が、フレームレートから決まる画像の符号化に使用可
能な時間以下になるように、実行回数を決定することに
より、課題(C3)を解決することができる。According to the ninth embodiment described above, the execution time of each process is estimated, the execution time required for encoding is predicted in advance based on this estimated execution time, and the predicted encoding time is The problem (C3) can be solved by determining the number of executions so that the time is equal to or less than the time that can be used for encoding the image determined by the frame rate.
【0303】なお、第2の実施の形態において、808
でのデータ列生成時に、図2に示すスタートコードの直
後に、2バイトの領域を追加し、ここに、符号の長さの
二進表現を追加しても良い。In the second embodiment, 808
At the time of generating the data string in, the 2-byte area may be added immediately after the start code shown in FIG. 2 and the binary representation of the code length may be added here.
【0304】さらに、第4の実施の形態において、90
2での多重化データの入力時にこの2バイトの領域から
符号の長さを抽出し、この符号長さと、符号の伝送速度
とから求まる符号の伝送時間を、905での実行回数計
算に用いるようにしても良い(符号の伝送時間を越えな
いように、ハーフペル動き補償の実行回数を減らす)。Furthermore, in the fourth embodiment, 90
At the time of inputting the multiplexed data in 2, the code length is extracted from this 2-byte area, and the code transmission time obtained from this code length and the code transmission speed is used for the execution count calculation in 905. However, the number of executions of half-pel motion compensation is reduced so that the code transmission time is not exceeded.
【0305】なお、第1の実施の形態において、210
4でのデータ列生成時に、図2に示すスタートコードの
直後に、2バイトの領域を追加し、ここに、符号の長さ
の二進表現を追加しても良い。In the first embodiment, 210
It is also possible to add a 2-byte area immediately after the start code shown in FIG. 2 at the time of generating the data string in 4, and add a binary representation of the code length here.
【0306】さらに、第3の実施の形態において、30
1での多重化データの入力時にこの2バイトの領域から
符号の長さを抽出し、この符号長さと、符号の伝送速度
とから求まる符号の伝送時間を、304での実行回数計
算に用いるようにしても良い(符号の伝送時間を越えな
いように、ハーフペル動き補償の実行回数を減らす)。Furthermore, in the third embodiment, 30
At the time of inputting the multiplexed data in 1, the code length is extracted from this 2-byte area, and the code transmission time obtained from this code length and the code transmission speed is used for the execution count calculation in 304. However, the number of executions of half-pel motion compensation is reduced so that the code transmission time is not exceeded.
【0307】また、第4の実施の形態において、909
直後に、ハーフペル動き補償の実際の実行回数を記録
し、これの最大値を算出する。そして、この最大値が充
分小さな値(例えば、2とか3)以下の場合には、ハー
フペル動き補償を使用しないことを示すデータ列(特定
のビットパターンから成るデータ列)を生成し、これを
送信しても良い。さらに、第2の実施の形態において、
808直後にて、このデータ列の受信有無を確認し、ハ
ーフペル動き補償を使用しないことを示すデータ列を受
信した場合には、808にて動き補償の処理を常にフル
ペル動き補償とするようにしても良い。Also, in the fourth embodiment, 909
Immediately after that, the actual number of times half-pel motion compensation is performed is recorded and the maximum value thereof is calculated. If this maximum value is less than a sufficiently small value (for example, 2 or 3), a data string (data string consisting of a specific bit pattern) indicating that half-pel motion compensation is not used is generated and transmitted. You may. Furthermore, in the second embodiment,
Immediately after 808, it is confirmed whether or not this data string is received, and if a data string indicating that half-pel motion compensation is not used is received, the motion compensation process is always set to full-pel motion compensation in 808. Is also good.
【0308】さらに、動き補償以外にも、この考えを適
用できる。たとえば、DCT計算で、高周波成分を使用
しないようにすることで、DCT計算の処理時間を減ら
すことができる。つまり、受信方法にて、IDCT計算
の実行時間の全体の実行時間に占める割合が一定値を越
える場合には、その旨を示すデータ列を送信側に伝送す
る。送信側では、このデータ列を受信した場合には、D
CT計算において低周波成分のみを計算し、高周波成分
はすべて0にしても良い。Further, this idea can be applied in addition to motion compensation. For example, by not using high frequency components in DCT calculation, the processing time of DCT calculation can be reduced. That is, in the receiving method, when the ratio of the execution time of the IDCT calculation to the total execution time exceeds a certain value, a data string indicating that fact is transmitted to the transmission side. On the transmitting side, when this data string is received, D
In the CT calculation, only the low frequency component may be calculated and all the high frequency components may be set to zero.
【0309】さらに、ここでは、画像を用いて実施の形
態を説明したが、画像以外の音声などに、上記の各方法
を適用しても良い。Further, although the embodiment has been described here using the image, each of the above methods may be applied to a sound other than the image.
【0310】また、第3の実施の形態において、303
4にて、ハーフペル動き補償の実際の実行回数を記録
し、これの最大値を算出する。そして、この最大値が充
分小さな値(例えば、2とか3)以下の場合には、ハー
フペル動き補償を使用しないことを示すデータ列(特定
のビットパターンから成るデータ列)を生成し、これを
送信しても良い。さらに、第1の実施の形態において、
ハーフペル動き補償を使用しないことを示すデータ列を
受信した場合には、1022での動き補償の処理を常に
フルペル動き補償とするようにしても良い。Also, in the third embodiment, 303
At 4, the actual number of executions of half-pel motion compensation is recorded and the maximum value thereof is calculated. If this maximum value is less than a sufficiently small value (for example, 2 or 3), a data string (data string consisting of a specific bit pattern) indicating that half-pel motion compensation is not used is generated and transmitted. You may. Furthermore, in the first embodiment,
When a data string indicating that half-pel motion compensation is not used is received, the motion compensation process at 1022 may always be full-pel motion compensation.
【0311】さらに、動き補償以外にも、この考えを適
用できる。たとえば、DCT計算で、高周波成分を使用
しないようにすることで、DCT計算の処理時間を減ら
すことができる。つまり、受信方法にて、IDCT計算
の実行時間の全体の実行時間に占める割合が一定値を越
える場合には、その旨を示すデータ列を送信側に伝送す
る。Further, this idea can be applied to other than motion compensation. For example, by not using high frequency components in DCT calculation, the processing time of DCT calculation can be reduced. That is, in the receiving method, when the ratio of the execution time of the IDCT calculation to the total execution time exceeds a certain value, a data string indicating that fact is transmitted to the transmission side.
【0312】送信側では、このデータ列を受信した場合
には、DCT計算において低周波成分のみを計算し、高
周波成分はすべて0にしても良い。On the transmitting side, when this data string is received, only low frequency components may be calculated in the DCT calculation, and all high frequency components may be set to zero.
【0313】さらに、ここでは、画像を用いて実施の形
態を説明したが、画像以外の音声などに、上記の方法を
適用しても良い。Furthermore, although the embodiment has been described here using images, the above method may be applied to sounds other than images.
【0314】以上説明したところから明らかなように、
例えば第1の実施の形態、第3の実施の形態によれば、
推定された各要素の実行時間から復号化処理の実行時間
を予測し、これが一枚分のデータを受信するのに要した
時間(指定時間)を越えるようであれば、実行時間の長
いハーフペルの動き補償を、フルペルの動き補償で置き
替える。これによって、実行時間が指定時間を越えない
ようにでき、課題(C1)を解決することができる。As is clear from the above description,
For example, according to the first embodiment and the third embodiment,
Predict the execution time of the decoding process from the estimated execution time of each element, and if this exceeds the time (specified time) required to receive one sheet of data, the half-pel with a long execution time Replace motion compensation with full-pel motion compensation. As a result, the execution time can be prevented from exceeding the specified time, and the problem (C1) can be solved.
【0315】また、例えば第5の実施の形態、第7の実
施の形態によれば、推定された各要素の実行時間を送信
側に伝送し、送信側にて復号化処理の実行時間を予測
し、これが一枚分のデータを受信するのに要するであろ
う時間(指定時間)を越えないように実行時間の長いハ
ーフペルの動き補償を、フルペルの動き補償で置き替え
る。これによって、送られた符号化情報のうち、ハーフ
ペル動き補償の情報が捨てられることなく、実行時間が
指定時間を越えないようにでき、課題(C2)を解決す
ることができる。Further, for example, according to the fifth and seventh embodiments, the estimated execution time of each element is transmitted to the transmission side, and the transmission side predicts the execution time of the decoding process. Then, half-pel motion compensation, which has a long execution time, is replaced with full-pel motion compensation so that this does not exceed the time (specified time) that would be required to receive one sheet of data. This makes it possible to prevent half-pel motion compensation information in the sent encoded information from being discarded, prevent the execution time from exceeding the specified time, and solve the problem (C2).
【0316】また、例えば第9の実施の形態によれば、
各処理の実行時間を推定し、この推定実行時間に基き、
符号化に要する実行時間を予め予測し、この予測符号化
時間が、フレームレートから決まる画像の符号化に使用
可能な時間以下になるように、実行回数を決定すること
により、課題(C3)を解決することができる。Further, for example, according to the ninth embodiment,
Estimate the execution time of each process, based on this estimated execution time,
Execution time required for encoding is predicted in advance, and the number of executions is determined so that the estimated encoding time is equal to or less than the time that can be used for encoding an image, which is determined by the frame rate. Can be resolved.
【0317】このように、本発明により、計算負荷が増
大してもゆるやかに品質を落とす機能(CGD:Comput
ational Graceful Degradation)を実現出来、実施に伴
う利益は非常に大である。As described above, according to the present invention, a function (CGD: Comput) for gradually lowering the quality even if the calculation load increases.
(Ational Graceful Degradation) can be realized, and the benefits of implementation are enormous.
【0318】又、以上述べてきた実施の形態の何れか一
つに記載の各ステップ(又は、各手段)の全部又は一部
のステップ(又は、各手段の動作)をコンピュータに実
行させるためのプログラムを記録した磁気記録媒体や、
光記録媒体などの記録媒体を作成し、その記録媒体を用
いてコンピュータにより上記と同様の動作を行っても良
い。Further, a computer is made to execute all or some of the steps (or means) described in any one of the embodiments described above or the operation of each means. A magnetic recording medium that records the program,
A recording medium such as an optical recording medium may be created and the same operation as described above may be performed by a computer using the recording medium.
【0319】[0319]
【発明の効果】以上説明したように、本発明によれば、
例えば、送信端末と受信端末で使用するデータ管理情
報、伝送管理情報、制御情報の各情報の枠組みを動的に
決定することで、状況に応じた情報の枠組みの変更が可
能になり、用途や伝送路に応じた変更ができる。As described above, according to the present invention,
For example, it is possible to change the information framework according to the situation by dynamically determining the framework of each data management information, transmission management information, and control information used by the transmitting terminal and the receiving terminal. It can be changed according to the transmission path.
【図面の簡単な説明】[Brief description of drawings]
【図1】本発明の実施例における画像音声送受信装置の
概略構成図FIG. 1 is a schematic configuration diagram of an image / sound transceiver according to an embodiment of the present invention.
【図2】受信管理部と分離部とを示す図FIG. 2 is a diagram showing a reception management unit and a separation unit.
【図3】複数の論理的な伝送路を用いて画像や音声の伝
送、制御する方法を示す図FIG. 3 is a diagram showing a method of transmitting and controlling images and sounds using a plurality of logical transmission paths.
【図4】送信すべき画像や音声のデータに付加するヘッ
ダ情報の動的な変更方法を示す図FIG. 4 is a diagram showing a method for dynamically changing header information added to image or audio data to be transmitted.
【図5】(a)〜(b):AL情報の付加方法を示す図5A to 5B are diagrams showing a method of adding AL information.
【図6】(a)〜(d):AL情報の付加方法の例を示
す図6A to 6D are diagrams showing an example of a method of adding AL information.
【図7】複数の論理的な伝送路を動的に多重化、分離し
て情報の伝送を行う方法を示す図FIG. 7 is a diagram showing a method of dynamically multiplexing and separating a plurality of logical transmission lines to transmit information.
【図8】放送番組の伝送手順を示す図FIG. 8 is a diagram showing a transmission procedure of a broadcast program.
【図9】(a):プログラム、データが受信端末にある
場合における、プログラムやデータの読み込み、立ち上
げ時間を考慮した画像や音声の伝送方法を示す図
(b):プログラム、データが送信される場合におけ
る、プログラムやデータの読み込み、立ち上げ時間を考
慮した画像や音声の伝送方法を示す図FIG. 9A is a diagram showing a method of transmitting an image or sound in consideration of a reading time of the program or data and a start-up time when the program or data is present in the receiving terminal, and FIG. 9B: The program or data is transmitted. Diagram showing the method of transmitting images and sound in consideration of the start-up time when reading programs and data when
【図10】(a)〜(b):ザッピングに対する対応方
法を示す図FIG. 10A to FIG. 10B are diagrams showing a method of dealing with zapping.
【図11】実際に端末間で送受信されるプロトコルの具
体例を示す図FIG. 11 is a diagram showing a specific example of a protocol that is actually transmitted and received between terminals.
【図12】実際に端末間で送受信されるプロトコルの具
体例を示す図FIG. 12 is a diagram showing a specific example of a protocol that is actually transmitted and received between terminals.
【図13】実際に端末間で送受信されるプロトコルの具
体例を示す図FIG. 13 is a diagram showing a specific example of a protocol that is actually transmitted and received between terminals.
【図14】実際に端末間で送受信されるプロトコルの具
体例を示す図FIG. 14 is a diagram showing a specific example of a protocol that is actually transmitted and received between terminals.
【図15】実際に端末間で送受信されるプロトコルの具
体例を示す図FIG. 15 is a diagram showing a specific example of a protocol that is actually transmitted and received between terminals.
【図16】実際に端末間で送受信されるプロトコルの具
体例を示す図FIG. 16 is a diagram showing a specific example of a protocol that is actually transmitted and received between terminals.
【図17】実際に端末間で送受信されるプロトコルの具
体例を示す図FIG. 17 is a diagram showing a specific example of a protocol that is actually transmitted and received between terminals.
【図18】実際に端末間で送受信されるプロトコルの具
体例を示す図FIG. 18 is a diagram showing a specific example of a protocol that is actually transmitted and received between terminals.
【図19】実際に端末間で送受信されるプロトコルの具
体例を示す図FIG. 19 is a diagram showing a specific example of a protocol that is actually transmitted and received between terminals.
【図20】実際に端末間で送受信されるプロトコルの具
体例を示す図FIG. 20 is a diagram showing a specific example of a protocol that is actually transmitted and received between terminals.
【図21】実際に端末間で送受信されるプロトコルの具
体例を示す図FIG. 21 is a diagram showing a specific example of a protocol that is actually transmitted and received between terminals.
【図22】実際に端末間で送受信されるプロトコルの具
体例を示す図FIG. 22 is a diagram showing a specific example of a protocol that is actually transmitted and received between terminals.
【図23】実際に端末間で送受信されるプロトコルの具
体例を示す図FIG. 23 is a diagram showing a specific example of a protocol that is actually transmitted and received between terminals.
【図24】実際に端末間で送受信されるプロトコルの具
体例を示す図FIG. 24 is a diagram showing a specific example of a protocol that is actually transmitted and received between terminals.
【図25】(a)〜(b):本発明のCGDのデモシス
テム構成図FIG. 25 (a)-(b): CGD demo system configuration diagram of the present invention
【図26】本発明のCGDのデモシステム構成図FIG. 26 is a block diagram of the CGD demo system of the present invention.
【図27】エンコーダでの過負荷時の優先度の付加方法
を示す図FIG. 27 is a diagram showing a method of adding a priority when an encoder is overloaded.
【図28】過負荷時の受信端末での優先度の決定方法に
ついて記した図FIG. 28 is a diagram describing a method of determining priority at a receiving terminal when overloaded.
【図29】優先度の時間変化を示す図FIG. 29 is a diagram showing a temporal change in priority.
【図30】ストリーム優先度とオブジェクト優先度を示
す図FIG. 30 is a diagram showing stream priority and object priority.
【図31】本発明の実施例における画像符号化、画像復
号化装置の概略構成図FIG. 31 is a schematic configuration diagram of an image encoding / decoding device according to an embodiment of the present invention.
【図32】本発明の実施例における音声符号化、音声復
号化装置の概略構成図FIG. 32 is a schematic configuration diagram of a voice encoding / decoding device according to an embodiment of the present invention.
【図33】(a)〜(b):過負荷時の処理の優先度を
管理する優先度付加部、優先度決定部を示す図FIG. 33 (a)-(b): Diagrams showing a priority addition unit and a priority determination unit for managing the priority of processing at the time of overload.
【図34】優先度を付加する粒度を示す図FIG. 34 is a diagram showing a granularity for adding a priority.
【図35】優先度を付加する粒度を示す図FIG. 35 is a diagram showing a granularity for adding a priority.
【図36】優先度を付加する粒度を示す図FIG. 36 is a diagram showing a granularity for adding a priority.
【図37】多重解像度の画像データへ優先度の割り当て
方法を示す図FIG. 37 is a diagram showing a method of assigning priorities to multi-resolution image data.
【図38】通信ペイロードの構成方法を示す図FIG. 38 is a diagram showing a configuration method of a communication payload.
【図39】データを通信ペイロードへ対応づける方法を
示す図FIG. 39 is a diagram showing a method of associating data with a communication payload.
【図40】オブジェクト優先度、ストリーム優先度と通
信パケット優先度との対応を示す図FIG. 40 is a diagram showing correspondence between object priority, stream priority, and communication packet priority.
【図41】本発明の第1の実施の形態における送信装置
の構成図FIG. 41 is a configuration diagram of a transmission device according to the first embodiment of the present invention.
【図42】第1の実施の形態の説明図FIG. 42 is an explanatory diagram of the first embodiment.
【図43】本発明の第3の実施の形態における受信装置
の構成図FIG. 43 is a configuration diagram of a reception device according to a third embodiment of the present invention.
【図44】本発明の第5の実施の形態における受信装置
の構成図FIG. 44 is a configuration diagram of a receiving device according to a fifth embodiment of the present invention.
【図45】第5の実施の形態の説明図FIG. 45 is an explanatory diagram of the fifth embodiment.
【図46】本発明の第6の実施の形態における送信装置
の構成図FIG. 46 is a configuration diagram of a transmission device according to a sixth embodiment of the present invention.
【図47】本発明の第8の実施の形態における送信装置
の構成図FIG. 47 is a configuration diagram of a transmission device according to an eighth embodiment of the present invention.
【図48】本発明の第2の実施の形態における送信方法
のフローチャートFIG. 48 is a flowchart of a transmission method according to the second embodiment of the present invention.
【図49】本発明の第4の実施の形態における受信方法
のフローチャートFIG. 49 is a flowchart of a receiving method according to the fourth embodiment of the present invention.
【図50】本発明の第7の実施の形態における送信方法
のフローチャートFIG. 50 is a flowchart of a transmission method according to the seventh embodiment of the present invention.
【図51】本発明の第9の実施の形態における送信方法
のフローチャートFIG. 51 is a flowchart of a transmission method according to the ninth embodiment of the present invention.
【図52】本発明の画像・音声送信装置の一例を示す構
成図FIG. 52 is a configuration diagram showing an example of an image / sound transmission device of the present invention.
【図53】本発明の画像・音声受信装置の一例を示す構
成図FIG. 53 is a block diagram showing an example of an image / sound receiving apparatus of the present invention.
【図54】本発明の画像・音声送信装置の映像と音声に
優先度を付加する優先度付加手段について説明する図FIG. 54 is a diagram for explaining priority adding means for adding priority to video and audio of the image / audio transmitting apparatus of the present invention.
【図55】本発明の画像・音声受信装置の映像と音声に
付加された優先度を解釈し、復号処理の可否を決定する
優先度決定手段について説明する図FIG. 55 is a diagram for explaining a priority determining unit that interprets the priority added to the video and audio of the image / audio receiving apparatus of the present invention and determines whether or not decoding processing is possible.
11 受信管理部 12 分離部 13 伝送部 14 画像伸長部 15 画像伸長管理部 16 画像合成部 17 出力部 18 端末制御部 301 受信手段 302 推定手段 303 動画像の復号化装置 304 回数削減手段 306 出力端子 307 入力端子 3031 可変長復号化手段 3032 逆直交変換手段 3033 切替器 3034 動き補償手段 3035 実行時間計測手段 4011 送信管理部 4012 画像符号部 4013 受信管理部 4014 画像復号部 4015 画像合成部 4016 出力部 4101 画像符号化装置 4102 画像復号化装置 11 Reception management unit 12 Separation part 13 Transmitter 14 Image decompression section 15 Image expansion management unit 16 Image composition section 17 Output section 18 Terminal control unit 301 Receiving means 302 Estimating means 303 Video decoding device 304 Number of times reduction means 306 output terminal 307 input terminal 3031 Variable length decoding means 3032 inverse orthogonal transform means 3033 Switch 3034 Motion compensation means 3035 Execution time measuring means 4011 Transmission management unit 4012 image coding unit 4013 Reception management unit 4014 Image decoding unit 4015 Image synthesizer 4016 Output section 4101 Image coding apparatus 4102 image decoding apparatus
───────────────────────────────────────────────────── フロントページの続き (31)優先権主張番号 特願平9−226027 (32)優先日 平成9年8月22日(1997.8.22) (33)優先権主張国 日本(JP) (31)優先権主張番号 特願平9−226045 (32)優先日 平成9年8月22日(1997.8.22) (33)優先権主張国 日本(JP) (31)優先権主張番号 特願平9−332101 (32)優先日 平成9年12月2日(1997.12.2) (33)優先権主張国 日本(JP) (56)参考文献 特開 平3−234139(JP,A) 特開 平6−14049(JP,A) 特開 昭55−4106(JP,A) 特開 平5−284187(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04L 29/08 H04L 13/08 H04N 7/24 ─────────────────────────────────────────────────── ─── Continuation of front page (31) Priority claim number Japanese Patent Application No. 9-226027 (32) Priority date August 22, 1997 (August 22, 1997) (33) Priority claim country Japan (JP) (31) Priority claim number Japanese Patent Application No. 9-226045 (32) Priority date August 22, 1997 (August 22, 1997) (33) Country of priority claim Japan (JP) (31) Priority claim number Japanese Patent Application No. 9-332101 (32) Priority date December 2, 1997 (December 2, 1997) (33) Priority claiming country Japan (JP) (56) Reference JP-A-3-234139 (JP, A) JP-A-6-14049 (JP, A) JP-A-55-4106 (JP, A) JP-A-5-284187 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) ) H04L 29/08 H04L 13/08 H04N 7/24
Claims (12)
データの情報を転送する実際の転送レートが目標転送レ
ートを超える場合、前記符号化された情報に付加されて
いる、前記時系列データ間の処理の優先度を示す時系列
データ間優先度と前記動画像の時系列データを構成する
フレーム間の処理の優先度を示す時系列データ内優先度
とを用いて、時系列データを転送する転送手段への前記
情報の送信を間引いて行うことを特徴とするデータ処理
方法。 Time series of 1. A coded moving image or sound
If the actual transfer rate for transferring the information of the data exceeds the target transfer rate, is added to the encoded information, time series showing the processing priority between said time-series data
Configure inter-data priority and time-series data of the moving image
A data processing method , wherein the transmission of the information to a transfer unit that transfers time-series data is thinned out by using the priority in time-series data indicating the priority of processing between frames .
データの情報を転送する実際の転送レートが目標転送レ
ートを超える場合、前記符号化された情報に付加されて
いる、前記時系列データ間の処理の優先度を示す時系列
データ間優先度と前記動画像の時系列データを構成する
フレーム間の処理の優先度を示す時系列データ内優先度
とを用いて、時系列データを転送する転送手段への前記
情報の送信を間引いて行う手段を有することを特徴とす
るデータ処理装置。 Time series wherein the encoded moving image or sound
If the actual transfer rate for transferring the information of the data exceeds the target transfer rate, is added to the encoded information, time series showing the processing priority between said time-series data
Configure inter-data priority and time-series data of the moving image
A data processing device comprising: means for thinning out transmission of the information to a transfer means for transferring time series data , using a priority in time series data indicating a priority of processing between frames .
記時系列データ間の処理の優先度を示す時系列データ間
優先度と前記動画像の時系列データを構成するフレーム
間の処理の優先度を示す時系列データ内優先度とを対に
して入力し、(1)前記時系列データの情報が損なわれ
た場合は、前記時系列データ内優先度と前記時系列デー
タ間優先度とを用いて、その損なわれたデータの再送を
要求するために再送要求処理を行い、又(2)前記時系
列データが連続的に、又は高頻度で失われた場合は、前
記時系列データ内優先度と前記時系列データ間優先度と
を用いて、処理優先度の高いデータについてのみ前記再
送要求処理を行うことを特徴とするデータ処理方法。3. A time-series data of a moving image or audio, before
Between time series data indicating the priority of processing between time series data
Frames constituting priority and time-series data of the moving image
In pairs and in priority time-series data indicating the priority of the processing between type, (1) if the information of the time-series data is compromised, the time series data and the time-series data in the priority
The inter-data priority is used to perform resend request processing to request resending of the damaged data, and (2) the time series data is lost continuously or at a high frequency. If we, before
The priority within the time series data and the priority between the time series data
Is used to perform the retransmission request processing only for data having a high processing priority.
記時系列データ間の処理の優先度を示す時系列データ間
優先度と前記動画像の時系列データを構成するフレーム
間の処理の優先度を示す時系列データ内優先度とを対に
して入力とし、(1)前記時系列データの情報が損なわ
れた場合は、前記時系列データ内優先度と前記時系列デ
ータ間優先度とを用いて、その損なわれたデータの再送
を要求するために再送要求処理を行い、又(2)前記時
系列データが連続的に、又は高頻度で失われた場合は、
前記時系列データ内優先度と前記時系列データ間優先度
とを用いて、処理優先度の高いデータについてのみ前記
再送要求処理を行う手段を有することを特徴とするデー
タ処理装置。4. A time-series data of moving picture or audio, before
Between time series data indicating the priority of processing between time series data
Frames constituting priority and time-series data of the moving image
When the time-series data priority indicating the priority of processing between is input as a pair, (1) when the information of the time-series data is lost, the time-series data priority and the time-series data priority are input.
Inter-data priority is used to perform a resend request process to request resending of the damaged data, and (2) the time
If the system column data is lost continuously, or high frequency,
Priority within the time series data and priority between the time series data
And a means for performing the resend request processing only for data having a high processing priority by using
記時系列データ間の処理の優先度を示す時系列データ間
優先度と前記動画像の時系列データを構成するフレーム
間の処理の優先度を示す時系列データ内優先度とをあわ
せて出力とし、前記時系列データの伝送量に応じて、前
記時系列データ内優先度と時系列データ間優先度とに基
づいて求めた処理優先度の高いデータを優先して伝送す
ることを特徴とするデータ処理方法。5. A time-series data of a moving image or audio, before
Between time series data indicating the priority of processing between time series data
Frames constituting priority and time-series data of the moving image
When combined with the priority sequence data indicating the priority of the processing between the output, according to the transmission amount of the time series data, prior to
Based on the priority within the time series data and the priority between the time series data.
A data processing method characterized in that data having a high processing priority obtained based on the above is preferentially transmitted.
記時系列データ間の処理の優先度を示す時系列データ間
優先度と前記動画像の時系列データを構成するフレーム
間の処理の優先度を示す時系列データ内優先度とをあわ
せて出力とし、前記時系列データの伝送量に応じて、前
記時系列データ内優先度と時系列データ間優先度とに基
づいて求めた処理優先度の高いデータを優先して伝送す
る手段を有することを特徴とするデータ処理装置。6. A time-series data of a moving image or audio, before
Between time series data indicating the priority of processing between time series data
Frames constituting priority and time-series data of the moving image
When combined with the priority sequence data indicating the priority of the processing between the output, according to the transmission amount of the time series data, prior to
Based on the priority within the time series data and the priority between the time series data.
A data processing apparatus comprising means for preferentially transmitting data having a high processing priority obtained based on the above.
化処理を行う符号化処理手段に設けた優先度付加部によ
り前記時系列データの処理優先度を付加するとともに、
符号化された動画像または音声の時系列データの情報に
付加されている復号化されるべき若しくは出力されるべ
き時期と転送処理開始からの経過時間とを比較した結
果、送信バッファへの符号化された情報の書き込みが遅
れていると判定した場合、 前記符号化された情報に付加されるべき、前記時系列デ
ータ間の処理の優先度を示す時系列データ間優先度と前
記動画像の時系列データを構成するフレーム間の処理の
優先度を示す時系列データ内優先度とを用いて、前記符
号化処理手段への情報の送信を間引いて行うことを特徴
とするデータ処理方法。 7. A code for time-series data of a moving image or sound.
By the priority addition unit provided in the encoding processing means for performing the encoding processing.
In addition to adding the processing priority of the time series data,
For information of time-series data of encoded moving images or audio
Any additional decoding or output that should be
The result of the comparison between the
As a result, writing encoded information to the send buffer is delayed.
If it is determined that the time-series data is to be added to the encoded information,
Prior to time series data indicating the priority of processing between data and
Of the processing between the frames that make up the time-series data of the motion picture
Using the priority in the time-series data indicating the priority,
Characterized by thinning out the transmission of information to the encoding processing means
Data processing method.
化処理を行う符号化処理手段に設けた優先度付加部によ
り前記時系列データの処理優先度を付加するとともに、
符号化さ れた動画像または音声の時系列データの情報に
付加されている復号化されるべき若しくは出力されるべ
き時期と転送処理開始からの経過時間とを比較した結
果、送信バッファへの符号化された情報の書き込みが遅
れていると判定した場合、 前記符号化された情報に付加されるべき、前記時系列デ
ータ間の処理の優先度を示す時系列データ間優先度と前
記動画像の時系列データを構成するフレーム間の処理の
優先度を示す時系列データ内優先度とを用いて、前記符
号化処理手段への情報の送信を間引いて行う手段を有す
ることを特徴とするデータ処理装置。 8. A code for time-series data of a moving image or sound
By the priority addition unit provided in the encoding processing means for performing the encoding processing.
In addition to adding the processing priority of the time series data,
For information of time-series data of encoded moving images or audio
Any additional decoding or output that should be
The result of the comparison between the
As a result, writing encoded information to the send buffer is delayed.
If it is determined that the time-series data is to be added to the encoded information,
Prior to time series data indicating the priority of processing between data and
Of the processing between the frames that make up the time-series data of the motion picture
Using the priority in the time-series data indicating the priority,
There is a means to thin out the transmission of information to the encryption processing means.
A data processing device characterized by the above.
む動画像の時系列データの情報を転送する実際の転送レ
ートが目標転送レートを超える場合、前記符号化された
情報に付加されている、前記時系列データ間の処理の優
先度を示す時系列データ間優先度と前記動画像の時系列
データを構成するIフレーム間の処理の優先度を示す時
系列データ内優先度とを用いて、時系列データを転送す
る転送手段への前記情報の送信を間引いて行うことを特
徴とするデータ処理方法。9. Includes encoded speech or I- frames.
The actual transfer record that transfers the time-series data information of the moving image.
If over preparative exceeds the target transfer rate, is added to the encoded information, Yu processing between said time-series data
Priority between time series data indicating priorities and time series of the moving image
When indicating the priority of processing between I-frames that make up data
Transfer the time series data using the priority in the series data
The data processing method is characterized by thinning out the transmission of the information to the transfer means .
号化処理を行う符号化処理手段に設けた優先度付加部に
より前記時系列データの処理優先度を付加するととも
に、符号化された動画像または音声の時系列データの情
報に付加されている復号化されるべき若しくは出力され
るべき時期と転送処理開始からの経過時間とを比較した
結果、送信バッファへの符号化された情報の書き込みが
遅れていると判定した場合、 前記符号化された情報に付加されるべき、前記時系列デ
ータ間の処理の優先度を示す時系列データ間優先度と前
記動画像の時系列データを構成するIフレーム間の処理
の優先度を示す時系列データ内優先度とを用いて、前記
符号化処理手段への情報の送信を間引いて行うことを特
徴とするデータ処理方法。 10. A mark of time series data of a moving image or sound.
In the priority addition section provided in the encoding processing means for performing the encoding processing.
With the addition of the processing priority of the time series data,
Information of the time-series data of encoded video or audio.
Has been added to the information to be decrypted or output
Compared the time when should be and the elapsed time from the start of transfer process
As a result, it is possible to write the encoded information to the transmission buffer.
When it is judged that the time-series delay has occurred, the time-series data to be added to the coded information is added.
Prior to time series data indicating the priority of processing between data and
Processing between I-frames that compose time-series data of moving images
Using the priority in time series data indicating the priority of
The feature is that transmission of information to the encoding processing means is thinned out.
Data processing method to collect.
時系列データと、前記時系列データ間の処理の優先度を
示す時系列データ間優先度と前記動画像の時系列データ
を構成するIフレーム間の処理の優先度を示す時系列デ
ータ内優先度とを対にして入力し、(1)前記時系列デ
ータの情報が損なわれた場合は、前記時系列データ内優
先度と前記時系列データ間優先度とを用いて、その損な
われたデータの再送を要求するために再送要求処理を行
い、又(2)前記時系列データが連続的に、又は高頻度
で失われた場合は、前記時系列データ内優先度と前記時
系列データ間優先度とを用いて、処理優先度の高いデー
タについてのみ前記再送要求処理を行うことを特徴とす
るデータ処理方法。11. Time-series data of a moving image including audio or I-frames and processing priority between the time-series data
Priority between time series data shown and time series data of the moving image
Time series data indicating the priority of processing between I-frames
Type in pairs and over data in priority (1) if the information of the time-series data is compromised, the time-series data in Yu
Sakido and using said time-series data between priority performs retransmission request processing retransmission to request the compromised data, and (2) the time-series data is continuously or frequently the time when lost, and the time-series data in priority
A data processing method, wherein the retransmission request processing is performed only on data having a high processing priority by using the priority between series data .
時系列データと、前記時系列データ間の処理の優先度を
示す時系列データ間優先度と前記動画像の時系列データ
を構成するIフレーム間の処理の優先度を示す時系列デ
ータ内優先度とをあわせて出力とし、前記時系列データ
の伝送量に応じて、前記時系列データ内優先度と時系列
データ間優先度とに基づいて求めた処理優先度の高いデ
ータを優先して伝送することを特徴とするデータ処理方
法。 12. Time-series data of a moving image including audio or I-frames and processing priority between the time-series data are set.
Priority between time series data shown and time series data of the moving image
Time series data indicating the priority of processing between I-frames
The priority of the time series data and the time series are output in accordance with the transmission amount of the time series data.
A data processing method characterized in that data having a high processing priority obtained based on the inter-data priority is preferentially transmitted.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002230040A JP3519722B2 (en) | 1997-03-17 | 2002-08-07 | Data processing method and data processing device |
Applications Claiming Priority (13)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6266797 | 1997-03-17 | ||
JP9-62667 | 1997-03-17 | ||
JP9-90640 | 1997-04-09 | ||
JP9064097 | 1997-04-09 | ||
JP17934297 | 1997-07-04 | ||
JP9-179342 | 1997-07-04 | ||
JP9-226045 | 1997-08-22 | ||
JP22604597 | 1997-08-22 | ||
JP9-226027 | 1997-08-22 | ||
JP22602797 | 1997-08-22 | ||
JP9-332101 | 1997-12-02 | ||
JP33210197 | 1997-12-02 | ||
JP2002230040A JP3519722B2 (en) | 1997-03-17 | 2002-08-07 | Data processing method and data processing device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP06558198A Division JP3516585B2 (en) | 1997-03-17 | 1998-03-16 | Data processing device and data processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003179664A JP2003179664A (en) | 2003-06-27 |
JP3519722B2 true JP3519722B2 (en) | 2004-04-19 |
Family
ID=27565027
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002230040A Expired - Lifetime JP3519722B2 (en) | 1997-03-17 | 2002-08-07 | Data processing method and data processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3519722B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106133828A (en) * | 2014-03-24 | 2016-11-16 | 索尼公司 | Code device and coded method, decoding apparatus and coding/decoding method and program |
US10129551B2 (en) | 2014-08-28 | 2018-11-13 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
-
2002
- 2002-08-07 JP JP2002230040A patent/JP3519722B2/en not_active Expired - Lifetime
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106133828A (en) * | 2014-03-24 | 2016-11-16 | 索尼公司 | Code device and coded method, decoding apparatus and coding/decoding method and program |
CN106133828B (en) * | 2014-03-24 | 2020-04-10 | 索尼公司 | Encoding device and encoding method, decoding device and decoding method, and storage medium |
US10129551B2 (en) | 2014-08-28 | 2018-11-13 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2003179664A (en) | 2003-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3516585B2 (en) | Data processing device and data processing method | |
KR100557103B1 (en) | Data processing method and data processing apparatus | |
EP3038367B1 (en) | Streaming encoded video data | |
US7006575B2 (en) | Picture and sound decoding apparatus picture and sound encoding apparatus and information transmission system | |
JPH07336462A (en) | Communication terminal and communication system | |
EP1090506A1 (en) | A method for transmitting video images, a data transmission system and a multimedia terminal | |
JP3448047B2 (en) | Transmitting device and receiving device | |
JP4102223B2 (en) | Data processing apparatus and data processing method | |
JP3519722B2 (en) | Data processing method and data processing device | |
KR100530919B1 (en) | Data processing method and data processing apparatus | |
JP2007221826A (en) | Receiving terminal and reception method | |
KR100530920B1 (en) | Image and voice transmitting apparatus and receiving apparatus | |
JP2006304309A (en) | Transmitter, receiver, and communication system | |
CN100473158C (en) | Method and apparatus for processing, transmitting and receiving dynamic image data | |
JP2004048657A (en) | Image/audio receiving apparatus | |
TW410298B (en) | Video/audio transmission apparatus, video/audio receiving apparatus, data processing apparatus, data processing method, data processing apparatus and data processing method, transmission method and apparatus for waveform data | |
Angelides et al. | Capabilities and Limitations of PC’s in the Networked Multimedia Environment | |
Murugan | Multiplexing H. 264/AVC Video with MPEG-AAC Audio |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040127 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040129 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080206 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090206 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100206 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100206 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110206 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120206 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130206 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130206 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140206 Year of fee payment: 10 |
|
EXPY | Cancellation because of completion of term |