JPH08186807A - Video conference communication terminal equipment - Google Patents

Video conference communication terminal equipment

Info

Publication number
JPH08186807A
JPH08186807A JP6337497A JP33749794A JPH08186807A JP H08186807 A JPH08186807 A JP H08186807A JP 6337497 A JP6337497 A JP 6337497A JP 33749794 A JP33749794 A JP 33749794A JP H08186807 A JPH08186807 A JP H08186807A
Authority
JP
Japan
Prior art keywords
video
moving image
signal
information
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6337497A
Other languages
Japanese (ja)
Inventor
Koji Oka
浩二 岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP6337497A priority Critical patent/JPH08186807A/en
Publication of JPH08186807A publication Critical patent/JPH08186807A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To attain the communication by providing plural motion image signal output means, a multiplex moving image CODEC means, a video monitor means and a transmission control means which are specific means respectively to the terminal equipment so as to multiplex plural video sources. CONSTITUTION: The terminal equipment is made up of a system control section 1, a ROM 2, a RAM 3, a clock circuit 4, an image processing section 5, a magnetic disk device 6, an operation display section 7, a voice CODEC 9, an audio control section 10, a multiplexing video CODEC 15, display control sections 16, 17, a video camera control section 18, a D-channel transmission control section 20, and a multiplexer/demultiplexer section 21 or the like. That is, the terminal equipment is provided with a communication function of sound information, a communication function of moving image information, a telewriting function, and a multiplexing communication function for the communication functions above and also with two sets of video camera equipments 11, 12, and video monitors 13, 14, that is, a function of multiplexing, communicating two systems of moving image information and displaying the result. Thus, plural motion image signals using plural video sources are multiplexed and the multiplexed signal is sent/received by one transmission means.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、少なくとも音声情報と
動画情報をやりとりする通信機能を備えたテレビ会議通
信端末装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video conference communication terminal device having at least a communication function for exchanging voice information and moving image information.

【0002】[0002]

【従来の技術】一般に、少なくとも音声情報と動画情報
をやりとりする通信機能を備えたテレビ会議通信端末装
置において、動画信号を符号化圧縮する符号化方法とし
ては、例えば、TTC標準JT−H.261の符号化方
式のように、1フレーム分の全部の画像を符号化するフ
レーム内符号化処理と、フレーム間の画像の差分(また
は、予測誤差)を形成して符号化するフレーム間符号化
処理を行って動画信号を符号化圧縮する高能率な符号化
方式が用いられている。
2. Description of the Related Art Generally, as a coding method for coding and compressing a moving picture signal in a video conference communication terminal apparatus having at least a communication function for exchanging voice information and moving picture information, for example, TTC standard JT-H. Intra-frame encoding processing for encoding all images for one frame and inter-frame encoding for forming and encoding a difference (or prediction error) between images between frames as in the encoding method of H.261. A highly efficient coding method for performing processing to code and compress a moving image signal is used.

【0003】ところで、このような符号化方式では、基
本的に1系統の動画信号のみを符号化圧縮するため、例
えば、テレビ会議通信端末装置で、メインカメラ装置の
映像とサブカメラ装置の映像を相手端末に送信しようと
すると、メインカメラ装置から出力される動画信号とサ
ブカメラ装置から出力される動画信号を切り換える必要
がありので、会議セッションが円滑に進行できないとい
う事態を生じることが考えられる。
By the way, in such an encoding method, since basically only one system of moving image signals is encoded and compressed, for example, in a video conference communication terminal device, an image of a main camera device and an image of a sub camera device are displayed. When trying to transmit to the partner terminal, it is necessary to switch between the moving image signal output from the main camera device and the moving image signal output from the sub camera device, which may cause a situation in which the conference session cannot proceed smoothly.

【0004】このように、複数の映像ソースを用いよう
とするには、例えば、会議通信を複数並列して実行し、
一方の会議通信呼ではメインカメラ装置を映像ソースと
して用い、他方の会議通信呼ではサブカメラ装置を映像
ソースとして用いることが考えられる。あるいは、送信
側でメインカメラ装置の動画信号とサブカメラ装置の動
画信号を合成した動画信号を形成し、その合成動画信号
を送信するということも考えられる。
As described above, in order to use a plurality of video sources, for example, a plurality of conference communications are executed in parallel,
It is possible to use the main camera device as a video source in one conference communication call and use the sub camera device as a video source in the other conference communication call. Alternatively, it is conceivable that the transmitting side forms a moving image signal that combines the moving image signal of the main camera device and the moving image signal of the sub camera device, and transmits the combined moving image signal.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、前者の
方法では、複数の回線を必要とするので、それだけ多く
の通信設備を必要とするので、装置コストおよび通信コ
ストが高くなるという不都合を生じることが考えられ
る。
However, the former method requires a plurality of lines and thus requires a large amount of communication equipment, which may cause a problem that the device cost and the communication cost increase. Conceivable.

【0006】また、後者の方法では、受信側で映像ソー
ス毎に動画信号を分離することが不可能であり、装置の
使い勝手が悪くなるおそれがある。
Further, in the latter method, it is impossible for the receiving side to separate the moving image signal for each image source, which may deteriorate the usability of the apparatus.

【0007】本発明は、かかる実情に鑑みてなされたも
のであり、複数の映像ソースを多重化して通信できるテ
レビ会議通信端末装置を提供することを目的としてい
る。
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a video conference communication terminal device capable of multiplexing and communicating a plurality of video sources.

【0008】[0008]

【課題を解決するための手段】本発明は、少なくとも音
声情報と動画情報をやりとりする通信機能を備えたテレ
ビ会議通信端末装置において、複数の動画信号を出力す
る複数の動画信号出力手段と、上記複数の動画信号出力
手段から出力される複数の動画信号を入力しておのおの
の動画信号に対応した符号化処理および符号化された動
画信号の復号化処理をそれぞれ多重的に処理する多重化
動画CODEC手段と、上記多重化動画CODEC手段
から出力される復号動画信号の映像を表示するビデオモ
ニタ手段と、テレビ会議通信の開始に先立って、相手端
末との間で動画信号の多重化能力を交換し、その交換し
た多重化能力に従って、テレビ会議通信動作中の上記多
重化動画CODEC手段の多重化処理を制御する伝送制
御手段を備えたものである。
The present invention provides a plurality of moving picture signal output means for outputting a plurality of moving picture signals in a video conference communication terminal device having at least a communication function for exchanging voice information and moving picture information. Multiplexed moving image CODEC for inputting a plurality of moving image signals output from a plurality of moving image signal output means and respectively performing multiplex processing of encoding processing corresponding to each moving image signal and decoding processing of the encoded moving image signal. Means, a video monitor means for displaying an image of the decoded moving picture signal outputted from the multiplexed moving picture CODEC means, and a moving picture signal multiplexing ability is exchanged with the other terminal prior to the start of the video conference communication. According to the exchanged multiplexing capability, transmission control means for controlling the multiplexing processing of the multiplexed moving image CODEC means during the video conference communication operation is provided. It is.

【0009】また、前記多重化動画CODEC手段は、
1フレーム分の全部の画像を符号化するフレーム内符号
化処理と、フレーム間の画像の差分を形成して符号化す
るフレーム間符号化処理を行って動画信号を符号化圧縮
するものであって、前記複数の動画信号を切換入力する
動画入力手段と、上記動画入力手段を介して入力される
動画信号を符号化圧縮する共通の符号化手段と、上記符
号化手段が形成した符号を復号化する復号化手段と、上
記復号化手段が形成した復号化動画信号を、上記複数の
動画信号のおのおのについて1フレーム分記憶する複数
の画像メモリ手段と、上記複数の動画信号のおのおのを
フレーム内符号化処理をするときには、上記動画入力手
段から入力した動画信号を上記符号化手段により符号化
圧縮して符号化情報を形成するとともに、上記複数の動
画信号のおのおのをフレーム間符号化処理するときに
は、上記複数の画像メモリ手段から読み出したおのおの
の動画信号に対応した復号化動画信号と、上記動画入力
手段から入力したおのおのの動画信号の差分を形成し、
その差分の動画信号を上記符号化手段により符号化圧縮
して符号化情報を形成する一方、それぞれの符号化情報
には、上記複数の動画信号のおのおのを識別する識別情
報を付加する符号化制御手段を備えたものである。
Further, the multiplexed moving image CODEC means is
An intra-frame encoding process for encoding all images for one frame and an inter-frame encoding process for forming and encoding an image difference between frames are performed to encode and compress a moving image signal. A moving picture input means for switching and inputting the plurality of moving picture signals, a common coding means for coding and compressing a moving picture signal input via the moving picture input means, and a code formed by the coding means for decoding Decoding means, a plurality of image memory means for storing the decoded moving image signal formed by the decoding means for one frame for each of the plurality of moving image signals, and an intra-frame code for each of the plurality of moving image signals. When performing the encoding process, the moving image signal input from the moving image input means is encoded and compressed by the encoding means to form encoded information, and each of the plurality of moving image signals is processed. When inter-frame coding, to form the difference of the plurality of images and decoding video signals corresponding to each of the video signals read out from the memory means, each of the video signal inputted from the video input means,
Encoding control is performed to encode the moving image signal of the difference by the encoding means to form encoded information, while adding the identification information for identifying each of the plurality of moving image signals to each encoded information. It is equipped with means.

【0010】また、前記符号化制御手段は、前記複数の
動画信号をおのおのに定められた時間毎でかつフレーム
単位に切り換えるようにしている。また、前記符号化制
御手段は、上記複数の動画信号をあらかじめ定められた
フレーム数毎に切り換えるようにしている。
Further, the encoding control means is adapted to switch the plurality of moving image signals at predetermined time intervals and in frame units. Further, the encoding control means switches the plurality of moving image signals for each predetermined number of frames.

【0011】また、前記多重化動画CODEC手段は、
前記符号化手段の逆変換を行って前記符号化情報を復号
化して復号化動画信号を形成する復号化手段と、上記復
号化手段が形成した復号化動画信号を、複数の動画信号
のおのおのについて1フレーム分記憶する複数の画像メ
モリ手段と、復号化する符号化情報に付加されている識
別情報に基づいて、おのおのの動画信号の符号化処理モ
ードを識別するとともに、上記識別情報がフレーム内符
号化処理をあらわしているときには、その動画信号に関
する符号化情報を上記復号化手段で復号化し、それによ
って得た復号化動画信号を出力復号化動画信号として出
力するとともに対応する上記複数の画像メモリ手段に記
憶し、上記識別情報符号化情報がフレーム間符号化処理
をあらわしているときには、その動画信号に関する符号
化情報を上記復号化手段で復号化するとともに、その動
画信号に対応する復号化動画信号を上記画像メモリ手段
より読み出し、その読み出した復号化動画信号と上記復
号化手段から出力された動画信号を加算した結果を出力
復号化動画信号として出力する復号化制御手段を備えた
ものである。
The multiplexed moving image CODEC means is
For each of a plurality of moving image signals, a decoding unit that performs an inverse transformation of the encoding unit to decode the encoded information to form a decoded moving image signal, and a decoded moving image signal formed by the decoding unit Based on the plurality of image memory means for storing one frame and the identification information added to the encoded information to be decoded, the encoding processing mode of each moving image signal is identified, and the identification information is the intra-frame code. When the encoding processing is represented, the encoding information relating to the moving image signal is decoded by the decoding means, the decoded moving image signal obtained thereby is output as an output decoded moving image signal, and the corresponding plurality of image memory means are provided. When the identification information encoded information represents interframe encoding processing, the encoded information related to the moving image signal is decoded. Decoding by the means, the decoded moving picture signal corresponding to the moving picture signal is read from the image memory means, and the result of adding the read decoded moving picture signal and the moving picture signal output from the decoding means is output and decoded. This is provided with a decoding control means for outputting as a converted moving image signal.

【0012】[0012]

【作用】したがって、複数の映像ソースによる複数の動
画信号を多重化して1つの伝送手段でやりとりすること
ができるので、複数の映像ソースを適用するテレビ会議
通信セッションを安価に、かつ、適切に実現することが
できる。
Therefore, since a plurality of video signals from a plurality of video sources can be multiplexed and exchanged by one transmission means, a video conference communication session applying a plurality of video sources can be realized inexpensively and appropriately. can do.

【0013】[0013]

【実施例】以下、添付図面を参照しながら、本発明の実
施例を詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

【0014】図1は、本発明の一実施例にかかるテレビ
会議通信端末装置を示している。このテレビ会議通信端
末装置は、ISDNの基本インタフェースを伝送路とし
て用いるものであり、音声情報の通信機能、動画情報の
通信機能、テレライティング機能、および、これらの通
信機能の多重化通信機能を備え、また、ISDNの基本
インタフェースに接続し、2つの情報チャネル(Bチャ
ネル)を用いたデータ通信が可能である。また、ビデオ
カメラ装置とビデオモニタ装置をそれぞれ2台備えてお
り、2系統の動画情報を多重化して通信し、表示する機
能を備えている。
FIG. 1 shows a video conference communication terminal device according to an embodiment of the present invention. This video conference communication terminal device uses a basic interface of ISDN as a transmission path, and is provided with a voice information communication function, a moving image information communication function, a telewriting function, and a multiplexing communication function of these communication functions. Also, data communication using two information channels (B channels) is possible by connecting to the ISDN basic interface. Further, each of the two video camera devices and the video monitor device is provided, and the video information of two systems is multiplexed and communicated and displayed.

【0015】同図において、システム制御部1は、この
テレビ会議通信端末装置の各部の制御処理、テレビ会議
通信の上位レイヤの処理、および、このテレビ会議通信
端末装置が備えている各種のアプリケーションプログラ
ムの実行処理などの各種制御処理を実行するものであ
り、ROM(リード・オンリ・メモリ)2は、システム
制御部1が実行する制御処理プログラムの一部や、制御
処理プログラムを実行するために必要な各種のデータな
どを記憶するものであり、RAM(ランダム・アクセス
・メモリ)3は、システム制御部1のワークエリアなど
を構成するものである。
In FIG. 1, the system control unit 1 controls the respective units of the video conference communication terminal device, processes of upper layers of the video conference communication, and various application programs provided in the video conference communication terminal device. The ROM (Read Only Memory) 2 is necessary for executing a part of the control processing program executed by the system control unit 1 and for executing the control processing program. RAM (random access memory) 3 constitutes a work area of the system control unit 1 and the like.

【0016】時計回路4は、現在日時情報を出力するた
めのものであり、画像処理部5は、画像データの変倍処
理や解像度変換処理などの各種画像処理を実行するもの
であり、磁気ディスク装置6は、システムソフトウェ
ア、複数のアプリケーションプログラム、および、多数
のユーザデータなどを記憶するためのものであり、操作
表示部7は、ユーザがこのテレビ会議通信端末装置を操
作するためのものである。
The clock circuit 4 is for outputting the current date and time information, and the image processing section 5 is for performing various image processing such as image data scaling processing and resolution conversion processing, and the magnetic disk. The device 6 is for storing system software, a plurality of application programs, a large number of user data, and the like, and the operation display unit 7 is for a user to operate the video conference communication terminal device. .

【0017】音声入出力装置8は、通話のための音声を
マイク入力するとともにスピーカ出力するためのもので
あり、音声入出力装置8からマイク入力されたアナログ
音声信号は音声CODEC9に出力され、また、音声入
出力装置8からスピーカ出力するアナログ音声信号は、
音声CODEC9から出力されて音声入出力装置8に加
えられている。
The voice input / output device 8 is for inputting a voice for a call with a microphone and outputting it with a speaker. An analog voice signal input from the voice input / output device 8 with a microphone is output to a voice CODEC 9, and , The analog audio signal output from the audio input / output device 8 through the speaker is
It is output from the audio CODEC 9 and added to the audio input / output device 8.

【0018】音声CODEC9は、ISDNのBチャネ
ルを用いてアナログ音声信号を伝送するためのアナログ
信号/デジタルデータの信号変換処理を行なうためのも
のである。また、音声制御部10は、音声入出力装置8
の動作を制御するためのものである。
The audio CODEC 9 is for performing signal conversion processing of analog signal / digital data for transmitting an analog audio signal using the B channel of ISDN. Further, the voice control unit 10 includes the voice input / output device 8
Is for controlling the operation of.

【0019】ビデオカメラ装置11,12は、このテレ
ビ会議通信端末装置のユーザ側の映像を撮影するための
ものであり、ビデオモニタ装置13,14は、2系統の
映像出力を独立して表示するためのものである。
The video camera devices 11 and 12 are for taking images of the user side of the video conference communication terminal device, and the video monitor devices 13 and 14 independently display the video outputs of two systems. It is for.

【0020】ビデオカメラ装置11,12から出力され
る2系統の動画信号は、多重化ビデオCODEC15の
映像信号入力端に加えられるとともに、表示制御部1
6,17の動画信号入力端に加えられている。ビデオカ
メラ制御部18は、ビデオカメラ装置11,12の撮影
オン/オフ、ズームイン/ズームアウト、および、パン
などの動作を制御するためのものである。
The two moving image signals output from the video camera devices 11 and 12 are applied to the video signal input terminal of the multiplexed video CODEC 15 and the display control unit 1 is also provided.
It is added to the video signal input terminals 6 and 17. The video camera control unit 18 is for controlling operations such as shooting on / off, zooming in / zooming out, and panning of the video camera devices 11 and 12.

【0021】多重化ビデオCODEC15は、ビデオカ
メラ装置11,12から入力した動画信号を、それぞれ
TTC標準JT−H.261の符号化方式で符号化圧縮
して多重化動画情報を形成するとともに、符号化圧縮さ
れた状態の多重化動画情報をおのおののビデオソース毎
に分離し、おのおののビデオソース毎の動画情報を復号
化して元の動画信号に変換するものである。
The multiplexed video CODEC 15 receives the moving image signals input from the video camera devices 11 and 12 from the TTC standard JT-H. The multiplex moving image information is encoded and compressed by the H.261 coding system, and the multiplex moving image information in the encoded and compressed state is separated for each video source to obtain the moving image information for each video source. It is for decoding and converting it into the original moving image signal.

【0022】表示制御部16,17は、ビデオモニタ装
置13,14にそれぞれ表示する画面の表示内容を制御
するものであり、システム制御部1からの指令により、
ビデオカメラ装置11,12から入力する動画信号の表
示画面情報、および、多重化ビデオCODEC15受信
動画信号の表示画面情報を形成し、それらの表示画面情
報を適宜に組み合わせた態様で、それぞれビデオモニタ
装置13,14の表示画面を構成する。
The display control units 16 and 17 control the display contents of the screens displayed on the video monitor devices 13 and 14, respectively.
Display screen information of moving image signals input from the video camera devices 11 and 12 and display screen information of the received moving image signal of the multiplexed video CODEC 15 are formed, and the display screen information is appropriately combined, and each is a video monitor device. The display screens 13 and 14 are configured.

【0023】ISDNインタフェース回路19は、IS
DNに接続するとともに、ISDNの基本インタフェー
スのレイヤ1の信号処理機能およびDチャネルの信号と
2つのBチャネルの信号の統合/分離機能を備えたもの
であり、Dチャネルの信号はDチャネル伝送制御部20
とやりとりし、また、2つのBチャネルの信号は多重化
/分離装置21とやりとりしている。
The ISDN interface circuit 19 is an IS
In addition to being connected to the DN, it is equipped with the layer 1 signal processing function of the ISDN basic interface and the integration / separation function of the D channel signal and the two B channel signals. The D channel signal is D channel transmission control. Part 20
In addition, the signals of the two B channels are exchanged with the multiplexer / demultiplexer 21.

【0024】Dチャネル伝送制御部20は、Dチャネル
のレイヤ2の信号処理機能、および、1つまたは2つの
Bチャネルを呼接続/解放するための呼制御処理機能を
備えたものである。
The D channel transmission control unit 20 has a layer 2 signal processing function of the D channel and a call control processing function for connecting / disconnecting one or two B channels.

【0025】多重化/分離装置21は、Bチャネルを用
いてやりとりする音声、動画、および、汎用データ(テ
レライティングデータなどのその他のデータ)などの複
数のメディアのデータを多重化し、TTC標準JT−
H.221に規定されているフレームデータを形成して
回線側に送出するとともに、受信したフレームデータに
多重化されている複数のメディアのデータを分離するも
のである。この多重化/分離装置21は、音声データを
音声CODEC9との間でやりとりし、動画データを多
重化ビデオCODEC15との間でやりとりし、また、
汎用データをシステム制御部1との間でやりとりしてい
る。
The multiplexer / demultiplexer 21 multiplexes data of a plurality of media such as voice, moving images, and general-purpose data (other data such as telewriting data) exchanged using the B channel, and the TTC standard JT. −
H. The frame data defined in 221 is formed and transmitted to the line side, and the data of a plurality of media multiplexed in the received frame data is separated. The multiplexer / demultiplexer 21 exchanges audio data with the audio CODEC 9, exchanges moving image data with the multiplexed video CODEC 15, and
General-purpose data is exchanged with the system control unit 1.

【0026】これらのシステム制御部1、ROM2、R
AM3、時計回路4、画像処理部5、磁気ディスク装置
6、操作表示部7、音声CODEC9、音声制御部1
0、多重化ビデオCODEC15、表示制御部16,1
7、ビデオカメラ制御部18、Dチャネル伝送制御部2
0、および、多重化/分離装置21は、内部バス21に
接続されており、これらの各要素関のデータのやりとり
は、主として、内部バス22を介して行われる。
These system control unit 1, ROM 2 and R
AM3, clock circuit 4, image processing unit 5, magnetic disk device 6, operation display unit 7, audio CODEC 9, audio control unit 1
0, multiplexed video CODEC 15, display control units 16 and 1
7, video camera control unit 18, D channel transmission control unit 2
0 and the multiplexer / demultiplexer 21 are connected to the internal bus 21, and data exchange between these respective elements is mainly performed via the internal bus 22.

【0027】図2は、多重化ビデオCODEC15の要
部の構成例を示している。なお、以下の説明において
は、n系統のビデオ信号の符号化復号化機能を備えたも
のについて述べているが、本実施例では、このうち2系
統のビデオ信号の符号化復号化機能を利用している。
FIG. 2 shows a structural example of the main part of the multiplexed video CODEC 15. In the following description, a system having an encoding / decoding function for n-system video signals is described, but in this embodiment, the encoding / decoding function for two-system video signals is used. ing.

【0028】同図において、n個のビデオ入力信号VI
1〜VInは、情報源符号器25に加えられている。情
報源符号器25は、おのおののビデオ入力信号VI1〜
VInを所定のタイミングで切り換えながら、TTC標
準JT−H.261の符号化方式の情報源符号化処理を
実行するものであり、その出力信号は、ビデオ信号多重
化符号器26に加えられている。
In the figure, n video input signals VI
1 to VIn have been added to the source encoder 25. The information source encoder 25 has the video input signals VI1 to VI1.
While switching VIn at a predetermined timing, the TTC standard JT-H. The information source coding process of the coding system of H.261 is executed, and its output signal is added to the video signal multiplexing encoder 26.

【0029】ビデオ信号多重化符号器26は、n個のビ
デオ入力信号VI1〜VInに対応し、TTC標準JT
−H.261の符号化方式の符号データを形成するもの
であり、その出力信号は、出力バッファ3を介し、多重
動画符号データVCaとして外部装置に出力される。
The video signal multiplexing encoder 26 corresponds to the n video input signals VI1 to VIn, and is a TTC standard JT.
-H. Code data of the H.261 coding system, and the output signal thereof is output to the external device via the output buffer 3 as the multiplexed moving image code data VCa.

【0030】また、制御部28は、情報源符号器25お
よびビデオ信号多重化符号器26の動作を制御して、ビ
デオ入力信号VI1〜VInのおのおのについて符号化
処理を行わせるものである。
The control unit 28 controls the operations of the information source encoder 25 and the video signal multiplex encoder 26 so that the video input signals VI1 to VIn are encoded.

【0031】また、出力バッファ27からは、制御部2
8に対して符号量などの情報が通知され、制御部28
は、この出力バッファ27から加えられる情報に基づい
て、情報源符号器25およびビデオ信号多重化符号器2
6の動作を制御する場合もある。
From the output buffer 27, the control unit 2
8 is notified of information such as the code amount, and the control unit 28
On the basis of the information added from the output buffer 27, the information source encoder 25 and the video signal multiplexing encoder 2
The operation of 6 may be controlled.

【0032】また、メモリ29は、ビデオ入力信号VI
1〜VInの切換制御などの基準となる情報などが記憶
される。また、このメモリ29の記憶内容は、システム
制御部1から適宜に参照/書き換えができるようになっ
ている。
The memory 29 also stores the video input signal VI.
Information that serves as a reference for switching control of 1 to VIn and the like is stored. Further, the contents stored in the memory 29 can be appropriately referred to / rewritten by the system controller 1.

【0033】また、入力バッファ30は、複数のビデオ
ソースの符号情報が含まれている多重動画符号データV
Cbを入力するものであり、その入力データは、ビデオ
信号多重化復号器31に加えられる。
Further, the input buffer 30 is a multiplexed moving image code data V containing code information of a plurality of video sources.
Cb is input, and the input data is added to the video signal multiplex decoder 31.

【0034】ビデオ信号多重化復号器31は、複数のビ
デオソースの符号情報に対して、それぞれTTC標準J
T−H.261の符号化方式の復号化処理を行うもので
あり、その出力信号は、情報源復号器32に加えられ
る。
The video signal multiplex decoder 31 receives the TTC standard J for each of the code information of a plurality of video sources.
T-H. It performs a decoding process of the H.261 coding system, and its output signal is added to the information source decoder 32.

【0035】情報源復号器32は、おのおののビデオソ
ースの符号データについて、TTC標準JT−H.26
1の符号化方式の情報源復号化処理を行うものであり、
この情報復号器8からは、n個のビデオ出力信号VO1
〜VOnが出力される。
The information source decoder 32 determines the TTC standard JT-H.264 for the coded data of each video source. 26
Which performs the information source decoding process of the encoding method of 1.
The information decoder 8 outputs n video output signals VO1.
~ VOn is output.

【0036】さて、この多重化ビデオCODEC15の
基礎になっているTTC標準JT−H.261の動画符
号化方式について、次に説明する。
Now, the TTC standard JT-H. The moving picture coding method of H.261 will be described next.

【0037】まず、TTC標準JT−H.261の動画
符号化方式では、動画情報としては、CIFとQCIF
の2種類のフォーマットが定められている。
First, the TTC standard JT-H. In the H.261 moving image coding system, CIF and QCIF are used as moving image information.
There are two types of formats defined.

【0038】CIF(Common Intermed
iate Format;共通中間フォーマット)形式
は、動画情報の基本フォーマットであり、このCIF
は、1秒間に29.97フレームの画面を表示し、輝度
成分(Y)については、1つのフレーム(画像フレー
ム)を288ラインで、かつ、1ラインを360画素か
ら構成するとともに、色差成分(Cb,Cr)について
は、1つのフレームを144ラインで、かつ、1ライン
を180画素から構成する。
CIF (Common Intermed)
The iate Format (Common Intermediate Format) format is a basic format of moving image information, and is a CIF.
Displays a screen of 29.97 frames per second, and for the luminance component (Y), one frame (image frame) is composed of 288 lines, one line is composed of 360 pixels, and the color difference component ( For Cb and Cr), one frame is made up of 144 lines and one line is made up of 180 pixels.

【0039】そして、そのフレームを、図3(a)に示
すように12個のGOB(Group Of Bloc
k)に分割し、おのおののGOBを、同図(b)に示す
ように、11×3の33個のマクロブロックに分割す
る。
Then, as shown in FIG. 3A, the frame is divided into 12 GOBs (Group Of Blocks).
k), and each GOB is divided into 33 macroblocks of 11 × 3 as shown in FIG.

【0040】さらに、1つのマクロブロックは、同図
(c)に示すように、輝度成分については、2×2の4
つのブロックに分割するとともに、色差成分については
1×1のブロックに分割する。したがって、輝度成分お
よび色差成分の1つのブロックは、同図(d)に示すよ
うに、それぞれ8画素×8ラインから構成される。
Further, as shown in FIG. 7C, one macroblock has 2 × 2 4 pixels for the luminance component.
The color difference component is divided into 1 × 1 blocks. Therefore, each block of the luminance component and the color difference component is composed of 8 pixels × 8 lines, as shown in FIG.

【0041】また、QCIF(Quater CIF)
は、図4に示すように、画素数をCIFの1/4に設定
したフォーマットである。なお、TTC標準JT−H.
261では、動画CODECは、少なくともQCIFを
取り扱える必要があると規定されており、さらに、CI
FとQCIFが対向した場合には、QCIFで通信する
ように規定されている。
QCIF (Quater CIF)
Is a format in which the number of pixels is set to 1/4 of CIF as shown in FIG. In addition, TTC standard JT-H.
261 stipulates that the moving image CODEC needs to handle at least QCIF.
When F and QCIF face each other, it is specified to communicate by QCIF.

【0042】この動画情報は、上述したようなフレーム
/GOB/マクロブロック/ブロックの階層構造に対応
しており、その一例を図5(a)〜(d)に示す。ま
た、この動画情報は、ビデオ信号多重化符号器26で形
成される。
This moving picture information corresponds to the hierarchical structure of frame / GOB / macroblock / block as described above, an example of which is shown in FIGS. The moving picture information is formed by the video signal multiplexing encoder 26.

【0043】まず、1フレームの動画情報は、同図
(a)に示すように、フレームの開始をあらわす所定ビ
ットパターンの20ビットデータからなるフレーム開始
符号PSC、フレームの順序番号をあらわすフレーム番
号TR、1フレーム全体に関する情報をあらわすタイプ
情報PTYPE、1ビットの拡張用データ挿入情報PE
I、1バイトの予備情報PSPARE、および、GOB
データからなる。ここで、拡張用データ挿入情報PEI
は少なくとも1つが含まれ、予備情報PSPAREは含
まれないことがある。また、フレーム開始符号PSC、
フレーム番号TR、タイプ情報PTYPE、拡張用デー
タ挿入情報PEI、および、予備情報PSPAREは、
フレームヘッダと呼ばれる。
First, the moving picture information of one frame is, as shown in FIG. 9A, a frame start code PSC consisting of 20-bit data of a predetermined bit pattern representing the start of the frame, and a frame number TR representing the sequence number of the frame. , Type information PTYPE that represents information about the entire frame, 1-bit extension data insertion information PE
I, 1-byte preliminary information PSPARE, and GOB
It consists of data. Here, the extension data insertion information PEI
May include at least one and the preliminary information PSPARE may not be included. Also, the frame start code PSC,
The frame number TR, the type information PTYPE, the extension data insertion information PEI, and the preliminary information PSPARE are
Called the frame header.

【0044】GOBデータは、各GOBについて、それ
ぞれ1つが配置される。1つのGOBデータは、同図
(b)に示すように、GOBデータの開始をあらわすG
OB開始符号GBSC、GOBの位置を示すGOB番号
GN、量子化特性の情報を示す量子化特性情報GQUA
NT、拡張用データ領域(予備情報)の有無を示す拡張
用データ挿入情報GEI、予備情報GSPARE、およ
び、マクロブロックデータからなる。ここで、拡張用デ
ータ挿入情報GEIは少なくとも1つが含まれ、予備情
報GSPAREは含まれないことがある。また、GOB
開始符号GBSC、GOB番号GN、量子化特性情報G
QUANT、拡張用データ挿入情報GEI、および、予
備情報GSPAREは、GOBヘッダと呼ばれる。
One GOB data is arranged for each GOB. One GOB data indicates the start of GOB data, as shown in FIG.
OB start code GBSC, GOB number GN indicating the position of GOB, and quantization characteristic information GQUA indicating information on the quantization characteristic.
NT, extension data insertion information GEI indicating presence / absence of extension data area (preliminary information), preliminary information GSPARE, and macroblock data. Here, the extension data insertion information GEI may include at least one and the preliminary information GSPARE may not be included. Also, GOB
Start code GBSC, GOB number GN, quantization characteristic information G
QUANT, extension data insertion information GEI, and spare information GSPARE are called GOB headers.

【0045】マクロブロックデータは、各マクロブロッ
クについて、それぞれ1つが配置される。ただし、フレ
ームのその部分に情報がない場合には、伝送されない。
One macroblock data is arranged for each macroblock. However, if there is no information in that part of the frame, it will not be transmitted.

【0046】1つのマクロブロックデータは、同図
(c)に示すように、マクロブロックの位置をあらわす
ためのマクロブロックアドレスMBA、マクロブロック
の種別およびどのデータ要素があらわれるのかを表示す
るためのタイプ情報MTYPE、量子化特性をあらわす
量子化特性情報MQUANT、動きベクトル情報MV
D、少なくとも1つの変換係数が伝送されるマクロブロ
ックであることをあらわす有意ブロックパターンCB
P、および、ブロックデータからなる。ここで、量子化
特性MQUANT、動きベクトル情報MVDおよび有意
ブロックパターンCBPは、タイプ情報MTYPEで指
示されたときにあらわれる。また、マクロブロックアド
レスMBA、タイプ情報MTYPE、量子化特性情報M
QUANT、動きベクトル情報MVD、および、有意ブ
ロックパターンCBPは、マクロブロックヘッダ呼ばれ
る。
One macroblock data is, as shown in FIG. 6C, a macroblock address MBA for indicating the position of the macroblock, a type of the macroblock, and a type for indicating which data element appears. Information MTYPE, quantization characteristic information MQUANT representing the quantization characteristic, motion vector information MV
D, a significant block pattern CB representing that it is a macroblock in which at least one transform coefficient is transmitted
It consists of P and block data. Here, the quantization characteristic MQUANT, the motion vector information MVD, and the significant block pattern CBP appear when instructed by the type information MTYPE. Also, the macro block address MBA, the type information MTYPE, the quantization characteristic information M
QUANT, motion vector information MVD, and significant block pattern CBP are called macroblock headers.

【0047】ブロックデータは、同図(d)に示すよう
に、例えば、そのブロックの画像データをDCT(離散
コサイン変換)処理して得られた変換係数データをあら
わす変換係数TCOEFF、および、ブロックの終了を
あらわすブロック終了符号EOBからなる。
As shown in FIG. 7D, the block data is, for example, a transform coefficient TCOEFF representing transform coefficient data obtained by performing DCT (discrete cosine transform) processing on the image data of the block, and a block coefficient. It is composed of a block end code EOB indicating the end.

【0048】そして、符号化処理は、マクロブロックを
単位として実行される。
The encoding process is executed in macroblock units.

【0049】さて、本実施例では、上述したように、n
個のビデオソースを別々の系として符号化するので、そ
れぞれのビデオソースを識別できる必要がある。そこ
で、本実施例では、拡張用データ挿入情報PEIに
「1」をセットするとともに、予備情報PSPAREに
ビデオソースの識別番号をセットすることで、おのおの
のビデオソース毎に符号データを識別できるようにす
る。
In the present embodiment, as described above, n
Since each video source is encoded as a separate system, it is necessary to be able to identify each video source. Therefore, in this embodiment, by setting "1" in the extension data insertion information PEI and setting the identification number of the video source in the preliminary information PSPARE, the code data can be identified for each video source. To do.

【0050】ここで、TTC標準JT−H.261によ
れば、現状では、予備情報PSPAREの用途を規定し
ておらず、したがって、拡張用データ挿入情報PEIの
値が「1」の場合には、復号化装置は、予備情報PSP
AREを捨てるように勧告している。本実施例では、こ
の予備情報PSPAREを用いて、ビデオソースの多重
化を実現できるようにしたものである。
Here, the TTC standard JT-H. According to H.261, at present, the usage of the preliminary information PSPARE is not defined, and therefore, when the value of the extension data insertion information PEI is “1”, the decoding device determines that the preliminary information PSPARE is used.
We advise you to discard the ARE. In this embodiment, by using this preliminary information PSPARE, multiplexing of video sources can be realized.

【0051】また、本実施例にかかるビデオ信号多重化
復号器31は、動画情報の拡張用データ挿入情報PEI
の値が「1」にセットされているフレームのデータにつ
いては、予備情報PSPAREにセットされているビデ
オソース識別情報の内容を判断して、そのフレームのデ
ータがいずれのビデオソースのものであるかを判断し、
その判断結果を情報源復号器32に通知する。
Further, the video signal multiplex decoder 31 according to the present embodiment uses the extension data insertion information PEI of the moving image information.
For the data of the frame in which the value of is set to "1", the content of the video source identification information set in the preliminary information PSPARE is determined to determine which video source the data of the frame belongs to. Judge,
The determination result is notified to the information source decoder 32.

【0052】それにより、情報源復号器32は、そのと
きに入力したフレームのデータがいずれのビデオソース
ものであるかを判断して、対応するビデオソースの復号
化処理を行い、対応するビデオ出力信号VO1〜VOn
を形成して出力する。
Accordingly, the information source decoder 32 determines which video source the data of the frame input at that time belongs to, decodes the corresponding video source, and outputs the corresponding video output. Signals VO1 to VOn
And output.

【0053】図6は、情報源符号器1の一例を示してい
る。
FIG. 6 shows an example of the information source encoder 1.

【0054】同図において、セレクタSL1は、制御部
28から出力される制御信号S1に基づいて、n個のビ
デオ入力信号VI1〜VInを切り換えるものであり、
その切換出力は、ビデオ入力信号VIとして、減算器D
F、切換器SW1の一方の切換入力端、および、セレク
タSL4の共通入力端に加えられている。
In the figure, the selector SL1 switches the n video input signals VI1 to VIn based on the control signal S1 output from the control section 28.
The switching output is the subtracter D as the video input signal VI.
F, one switch input terminal of the switch SW1, and the common input terminal of the selector SL4.

【0055】切換器SW1は、制御部28から加えられ
る制御信号S2に基づいて、減算器DFの出力、また
は、ビデオ入力信号VIを切り換えるものであり、その
出力は、変換器CVaに加えられている。変換器CVa
は、TTC標準JT−H.261の二次元DCT変換処
理を行うものであり、その出力信号は、量子化器QZa
に加えられている。
The switch SW1 switches the output of the subtractor DF or the video input signal VI on the basis of the control signal S2 applied from the control section 28, and its output is applied to the converter CVa. There is. Converter CVa
Of the TTC standard JT-H. 261 performs the two-dimensional DCT conversion process, and the output signal is the quantizer QZa.
Has been added to.

【0056】量子化器QZaは、制御部28から加えら
れる量子化ステップ値Sqに応じて、入力信号に対し所
定の量子化処理を実施するものであり、その出力信号
は、情報源符号データVSaとしてビデオ信号多重化符
号化器2に加えられるとともに、逆量子化器IQZaに
加えられている。
The quantizer QZa performs a predetermined quantization process on the input signal according to the quantization step value Sq added from the control unit 28, and the output signal thereof is the source code data VSa. Is added to the video signal multiplex encoder 2 as well as to the inverse quantizer IQZa.

【0057】逆量子化器IQZaは、制御部28から加
えられる量子化ステップ値Sqに応じて、情報源符号デ
ータVSaに対し、量子化器QZaの逆変換処理である
逆量子化処理を実施するものであり、その出力信号は、
逆変換器ICVaに加えられている。
The inverse quantizer IQZa performs an inverse quantization process, which is an inverse transform process of the quantizer QZa, on the information source code data VSa according to the quantization step value Sq added from the control unit 28. And its output signal is
It is added to the inverse converter ICVa.

【0058】逆変換器ICVaは、変換器CVaの逆変
換処理を行うものであり、したがって、逆変換器ICV
aの出力信号は、量子化器QZaの量子化誤差を含むも
のの、変換器CVaに入力されるビデオ入力信号VIに
相当する信号(以下、復号化ビデオ信号という)とな
る。この逆変換器ICVaから出力される復号化ビデオ
信号は、加算器SMaに加えられている。
The inverse converter ICVa performs the inverse conversion process of the converter CVa, and therefore, the inverse converter ICVa.
Although the output signal of a includes the quantization error of the quantizer QZa, it becomes a signal (hereinafter referred to as a decoded video signal) corresponding to the video input signal VI input to the converter CVa. The decoded video signal output from the inverse converter ICVa is added to the adder SMa.

【0059】加算器SMaの出力は、セレクタSL2の
共通接続端に加えられており、このセレクタSL2のn
個の出力端からの出力信号は、それぞれ画像メモリMP
a1〜MPanに加えられている。
The output of the adder SMa is added to the common connection terminal of the selector SL2, and n of the selector SL2 is added.
The output signals from the output terminals are respectively the image memory MP.
a1 to Mpan.

【0060】また、画像メモリMPa1〜MPanに
は、セレクタSL4を介して、ビデオ入力信号VI1〜
VInが加えられている。画像メモリMPa1〜MPa
nは、動き補償用可変遅延機能を持つ画像メモリであ
り、1フレーム分の復号化ビデオ信号をマクロブロック
単位に記憶し、その復号化ビデオ信号に基づいて次のフ
レームのビデオ信号を予測するとともに、復号化ビデオ
信号とビデオ入力信号VI1〜VInに基づいて動きベ
クトルを検出するものである。この検出された動きベク
トルに対応した動きベクトル信号SV1〜SVnは、ビ
デオ信号多重化符号器26に加えられている。
In addition, the video input signals VI1 to VI1 are sent to the image memories MPa1 to MPan via the selector SL4.
VIn has been added. Image memory MPa1 to MPa
n is an image memory having a variable delay function for motion compensation, which stores a decoded video signal for one frame in macroblock units and predicts the video signal of the next frame based on the decoded video signal. , A motion vector is detected based on the decoded video signal and the video input signals VI1 to VIn. The motion vector signals SV1 to SVn corresponding to the detected motion vector are added to the video signal multiplexing encoder 26.

【0061】画像メモリMPa1〜MPanから出力さ
れる予測ビデオ信号は、セレクタSL3の切換接続端に
加えられている。セレクタSL3の共通接続端の出力信
号は、ループ内フィルタFLaを介し、切換器SW2お
よび減算器DFに加えられている。
The predicted video signals output from the image memories MPa1 to Mpan are applied to the switching connection terminal of the selector SL3. The output signal of the common connection end of the selector SL3 is added to the switch SW2 and the subtractor DF via the in-loop filter FLa.

【0062】ここで、セレクタSL2、セレクタSL3
およびセレクタSL4は、セレクタSL1に連動して切
換動作し、また、切換器SW2は切換器SW1に連動し
て切換動作する。
Here, the selector SL2 and the selector SL3
The selector SL4 performs the switching operation in conjunction with the selector SL1, and the switch SW2 performs the switching operation in conjunction with the switch SW1.

【0063】以上の構成で、ビデオ入力信号VI1を符
号化する場合、制御部28は、まず、セレクタSL1,
SL2,SL3,SL4により、ビデオ入力信号VI1
に対応した切換接続端を選択させる。
When the video input signal VI1 is encoded with the above configuration, the control unit 28 firstly selects the selectors SL1 and SL1.
Video input signal VI1 by SL2, SL3, SL4
Select the switching connection end corresponding to.

【0064】この状態で、それぞれのフレーム内符号化
処理(INTRAモード)を行う場合、制御部28は、
切換器SW1,SW2をそれぞれ図の破線の状態に切換
接続する。これにより、セレクタSL1を介して入力さ
れたビデオ入力信号VI1は、変換器CVaにより二次
元DCT変換処理された後、量子化器QZaにより量子
化処理されて、ビデオ信号多重符号器26に情報源符号
データVSaとして出力される。
When each intra-frame coding process (INTRA mode) is performed in this state, the control section 28
The switching devices SW1 and SW2 are switched and connected to the states shown by the broken lines in the figure. As a result, the video input signal VI1 input through the selector SL1 is subjected to the two-dimensional DCT conversion process by the converter CVa, and then quantized by the quantizer QZa, so that the video signal multiplex encoder 26 receives the information source. It is output as coded data VSa.

【0065】また、それとともに、情報源符号データV
Saは、逆量子化器IQZaにより逆量子化変換され、
さらに、逆変換器ICVaにより二次元DCT逆変換処
理され、復号化ビデオ信号として、加算器SMaおよび
セレクタSL2を介し、画像メモリMPa1に加えられ
て、保存される。
Along with this, the source code data V
Sa is inversely quantized and converted by the inverse quantizer IQZa,
Further, the inverse converter ICVa performs a two-dimensional DCT inverse conversion process, and the decoded video signal is added to the image memory MPa1 via the adder SMa and the selector SL2 and stored.

【0066】次に、フレーム間符号化処理(INTER
モード)を行う場合、制御部28は、切換器SW1,S
W2をそれぞれ図の実線の状態に切換接続する。これに
より、画像メモリMPa1から出力される復号化ビデオ
信号は、セレクタSL3を介し、ループ内フィルタFL
aを通過した後に、減算器DFに加えられるとともに、
切換器SW2を介し、加算器SMaに加えられる。
Next, the interframe coding process (INTER
Mode), the control unit 28 controls the switch SW1, S1.
Each W2 is switched and connected to the state shown by the solid line in the figure. As a result, the decoded video signal output from the image memory MPa1 passes through the selector SL3 and the in-loop filter FL.
After passing through a, it is added to the subtractor DF and
It is added to the adder SMa via the switch SW2.

【0067】したがって、それ以降は、ビデオ入力信号
VI1と画像メモリMPa1から出力される次のフレー
ムの予測値との差分値が、変換器CVaにより二次元D
CT変換処理された後、量子化器QZaにより量子化処
理されて、ビデオ信号多重符号器2に情報源符号データ
VSaとして出力される。
Therefore, after that, the difference value between the video input signal VI1 and the predicted value of the next frame output from the image memory MPa1 is converted into a two-dimensional D value by the converter CVa.
After the CT conversion processing, the quantization processing is performed by the quantizer QZa and is output to the video signal multiplex encoder 2 as the information source code data VSa.

【0068】また、それとともに、情報源符号データV
Saは、逆量子化器IQZaにより逆量子化変換され、
さらに、逆変換器ICVaにより二次元DCT逆変換処
理され、復号化ビデオ信号として、加算器SMaおよび
セレクタSL2を介し、画像メモリMPa1に加えられ
て、保存される。
Along with this, the source code data V
Sa is inversely quantized and converted by the inverse quantizer IQZa,
Further, the inverse converter ICVa performs a two-dimensional DCT inverse conversion process, and the decoded video signal is added to the image memory MPa1 via the adder SMa and the selector SL2 and stored.

【0069】この動作が順次繰り返されて、ビデオ信号
VI1に関して情報源符号データが形成される。
This operation is sequentially repeated to form the source code data for the video signal VI1.

【0070】また、他のビデオ信号VI2〜VInにつ
いて符号化するときには、制御部28は、セレクタSL
1,SL2,SL3,SL4により、選択するビデオ入
力信号VI2〜VInに対応した切換接続端を選択させ
た状態で、上述したと同様の動作を行う。
When the other video signals VI2 to VIn are coded, the control section 28 selects the selector SL.
The same operation as described above is performed with the switching connection terminals corresponding to the selected video input signals VI2 to VIn being selected by 1, SL2, SL3 and SL4.

【0071】また、上述した符号化処理動作を行うと
き、制御部28は、それぞれの状態をあらわす種々の信
号をビデオ信号多重化符号器26に出力する。すなわ
ち、制御部28は、符号化モード(INTRAモード/
INTERモード)を識別するための識別フラグ信号S
P、そのフレームを伝送するか否かを指定するための伝
送/非伝送フラグ信号St、そのときに符号化している
ビデオ入力信号VI1〜VInを識別するためのビデオ
ソース識別信号Sbn、および、量子化ステップ値Sq
をビデオ信号多重化符号器2に出力する。また、ループ
内フィルタFLaは、この装置の動作設定によりオンオ
フされる。ループ内フィルタFLaは、オンオフ動作の
区別をあらわす信号Sfをビデオ信号多重化符号器26
に出力している。
Further, when the above-mentioned encoding processing operation is performed, the control unit 28 outputs various signals representing respective states to the video signal multiplex encoder 26. That is, the control unit 28 controls the encoding mode (INTRA mode /
Identification flag signal S for identifying the INTER mode)
P, a transmission / non-transmission flag signal St for designating whether or not to transmit the frame, a video source identification signal Sbn for identifying the video input signals VI1 to VIn being encoded at that time, and a quantum. Conversion step value Sq
Is output to the video signal multiplexing encoder 2. The in-loop filter FLa is turned on / off according to the operation setting of this device. The in-loop filter FLa uses the video signal multiplex encoder 26 to output the signal Sf indicating the on / off operation.
Is output to.

【0072】これにより、ビデオ信号多重化符号器26
は、そのときに入力している情報源符号データVSaお
よび有効な動きベクトル信号SV1〜SVnのビデオソ
ース番号、符号化モードの区別、ループ内フィルタFL
aのオンオフ状態を知り、上述したような符号情報を形
成する。
As a result, the video signal multiplexing encoder 26
Is the source code data VSa input at that time and the video source numbers of the valid motion vector signals SV1 to SVn, the coding mode discrimination, and the in-loop filter FL.
Knowing the on / off state of a, the code information as described above is formed.

【0073】図7は、情報源復号器8の一例を示してい
る。
FIG. 7 shows an example of the information source decoder 8.

【0074】同図において、逆量子化器IQZbは、ビ
デオ信号多重化復号器31から出力される情報源符号デ
ータVSbを、ビデオ信号多重化復号器31から出力さ
れる量子化ステップ値SSqに応じて、情報源符号器1
の量子化器QZaの逆変換処理である逆量子化処理を実
施するものであり、その出力信号は、逆変換器ICVb
に加えられている。
In the figure, the inverse quantizer IQZb outputs the source code data VSb output from the video signal multiplex decoder 31 according to the quantization step value SSq output from the video signal multiplex decoder 31. Information source encoder 1
Inverse quantization processing, which is the inverse conversion processing of the quantizer QZa, is performed, and its output signal is the inverse converter ICVb.
Has been added to.

【0075】逆変換器ICVbは、情報源符号器25の
変換器CVaの逆変換処理を行うものであり、その出力
信号は、加算器SMbを介し、ビデオ出力信号VOとし
て、セレクタSL11およびセレクタSL12の共通接
続端に加えられている。
The inverse converter ICVb performs an inverse conversion process of the converter CVa of the information source encoder 25, and its output signal is passed through the adder SMb as the video output signal VO to the selectors SL11 and SL12. Has been added to the common connection end of.

【0076】このセレクタSL2のn個の出力端からの
出力信号は、それぞれ画像メモリMPb1〜MPbnに
加えられている。また、画像メモリMPb1〜MPbn
には、ビデオ信号多重化復号器7から動きベクトル信号
SSV1〜SSVnがそれぞれ加えられている。
Output signals from the n output terminals of the selector SL2 are applied to the image memories MPb1 to MPbn, respectively. In addition, the image memories MPb1 to MPbn
Are added with motion vector signals SSV1 to SSVn from the video signal multiplexing decoder 7, respectively.

【0077】画像メモリMPb1〜MPbnは、動き補
償用可変遅延機能を持つ画像メモリであり、1フレーム
分の復号化ビデオ信号をマクロブロック単位に記憶し、
その復号化ビデオ信号および動きベクトル信号SSV1
〜SSVnに基づいて次のフレームのビデオ信号を予測
するものである。
The image memories MPb1 to MPbn are image memories having a variable delay function for motion compensation, and store a decoded video signal for one frame in macroblock units,
The decoded video signal and motion vector signal SSV1
~ The video signal of the next frame is predicted based on SSVn.

【0078】画像メモリMPb1〜MPbnから出力さ
れる予測ビデオ信号は、セレクタSL13の切換接続端
に加えられている。セレクタSL3の共通接続端の出力
信号は、ループ内フィルタFLaを介し、切換器SW1
1の一方の切換入力端に加えられている。切換器SW1
1の共通接続端の出力は、加算器SMbに加えられてい
る。
The predicted video signals output from the image memories MPb1 to MPbn are applied to the switching connection terminal of the selector SL13. The output signal of the common connection end of the selector SL3 is passed through the in-loop filter FLa and is output to the switch SW1.
One of the switching input terminals is added to one. Switch SW1
The output of the common connection terminal of 1 is added to the adder SMb.

【0079】ここで、セレクタSL11、セレクタSL
12およびセレクタSL13は、連動して切換動作する
ものであり、その切換動作は、ビデオ信号多重化復号器
7から出力されるビデオソース切換信号SSbにより制
御される。また、切換器SW1の切換動作は、ビデオ信
号多重化復号器7から出力される符号化モード(INT
RAモード/INTERモード)を識別するための識別
フラグ信号SSPにより制御される。
Here, the selector SL11 and the selector SL
12 and the selector SL13 perform a switching operation in conjunction with each other, and the switching operation is controlled by the video source switching signal SSb output from the video signal multiplexing decoder 7. The switching operation of the switch SW1 is performed by the encoding mode (INT) output from the video signal multiplex decoder 7.
It is controlled by an identification flag signal SSP for identifying the RA mode / INTER mode).

【0080】以上の構成で、ビデオ信号多重化復号器3
1は、多重動画符号化データVCbの拡張用データ挿入
情報PEIの値が「1」にセットされているフレームの
データについては、予備情報PSPAREにセットされ
ているビデオソース識別情報の内容を判断し、その内容
に対応したビデオソース切換信号SSbを出力する。こ
れにより、セレクタSL11,SL12,SL13は、
そのビデオソース切換信号SSbにより示されたビデオ
ソースに対応した切換接続端を選択する。
With the above configuration, the video signal multiplexing decoder 3
1 determines the content of the video source identification information set in the preliminary information PSPARE for the data of the frame in which the value of the extension data insertion information PEI of the multiplexed moving image coded data VCb is set to "1". , And outputs the video source switching signal SSb corresponding to the contents. As a result, the selectors SL11, SL12, SL13 are
The switching connection end corresponding to the video source indicated by the video source switching signal SSb is selected.

【0081】この状態で、INTRAモードの符号デー
タを復号化するときには、ビデオ信号多重化復号器31
は、INTRAモードに対応した値の識別フラグ信号S
SPを出力し、これにより、切換器SW11は図7の破
線の状態に切換接続する。
In this state, when decoding the INTRA mode code data, the video signal multiplex decoder 31 is used.
Is an identification flag signal S having a value corresponding to the INTRA mode.
SP is output, whereby the switch SW11 is switched and connected to the state shown by the broken line in FIG.

【0082】したがって、この場合には、ビデオ信号多
重化復号器31から出力される情報源符号データVSb
は、逆量子化器IQZaにより逆量子化変換され、さら
に、逆変換器ICVbにより二次元DCT逆変換処理さ
れ、逆変換器ICVbの出力信号は、加算器SMbを介
してビデオ出力信号VOとして出力され、そのビデオ出
力信号VOは、セレクタSL11を介し、ビデオ出力信
号VO1として出力される。また、このビデオ出力信号
VOは、セレクタSL12を介し、画像メモリMPb1
に加えられて、保存される。
Therefore, in this case, the information source code data VSb output from the video signal multiplex decoder 31.
Is inversely quantized by the inverse quantizer IQZa, and is further subjected to two-dimensional DCT inverse transformation by the inverse transformer ICVb. The output signal of the inverse transformer ICVb is output as the video output signal VO through the adder SMb. The video output signal VO is output as a video output signal VO1 via the selector SL11. Further, this video output signal VO is sent through the selector SL12 to the image memory MPb1.
Is added to and saved.

【0083】次に、INTERモードの符号データを復
号化するときには、ビデオ信号多重化復号器31は、I
NTERモードに対応した値の識別フラグ信号SSPを
出力し、これにより、切換器SW11は、図7の実線の
状態に切換接続する。また、ビデオ信号多重化符号器7
は、そのときの符号データに対応してフィルタオンオフ
信号SSfを出力し、これにより、ループ内フィルタF
Lbは、符号データの内容に応じてオンオフされる。
Next, when decoding the coded data in the INTER mode, the video signal multiplexing decoder 31
The identification flag signal SSP having a value corresponding to the NTER mode is output, whereby the switch SW11 is switched and connected to the state shown by the solid line in FIG. Also, the video signal multiplex encoder 7
Outputs a filter on / off signal SSf corresponding to the code data at that time, and thereby the in-loop filter F
Lb is turned on / off according to the content of the code data.

【0084】それによって、画像メモリMPb1から出
力されるビデオ出力信号は、セレクタSL13を介し、
ループ内フィルタFLbを通過した後に、切換器SW1
1を介し、加算器SMbに加えられる。
As a result, the video output signal output from the image memory MPb1 passes through the selector SL13,
After passing through the in-loop filter FLb, the switch SW1
It is added to the adder SMb via 1.

【0085】したがって、それ以降は、逆変換器ICV
bから出力される予測差分に対応した信号と、画像メモ
リMPb1から出力される次のフレームの予測値とが加
算された値が、ビデオ出力信号VOとして加算器SMb
から出力され、このビデオ出力信号VOは、セレクタS
L11を介し、ビデオ出力信号VO1として出力される
とともに、画像メモリMPb1に加えられて、保存され
る。
Therefore, after that, the inverse converter ICV
The value obtained by adding the signal corresponding to the prediction difference output from b and the prediction value of the next frame output from the image memory MPb1 is added as the video output signal VO to the adder SMb.
This video output signal VO is output from the selector S.
It is output as a video output signal VO1 via L11 and is also added to and saved in the image memory MPb1.

【0086】この動作が順次繰り返されて、ビデオ出力
信号VO1が形成されて、出力される。
This operation is sequentially repeated to form and output the video output signal VO1.

【0087】また、他のビデオソース番号が指定された
場合には、セレクタSL11,SL12,SL13によ
り、対応するビデオソースの切換接続端が選択され、上
述と同様の動作が行われる。
When another video source number is designated, the selector SL11, SL12, SL13 selects the corresponding switching connection end of the video source, and the same operation as described above is performed.

【0088】さて、ビデオソース番号(ビデオ入力信号
VI1〜VIn)の選択は、おのおのに定められた時間
毎でかつフレーム単位に切り換える態様で行うことがで
きる。その場合、図7に示したように、ビデオソース番
号毎に、切換時間を指定するタイマ値を記憶するビデオ
ソース別タイマテーブルを用いる。このビデオソース別
タイマテーブルは、外部装置よりメモリ29に記憶され
る。
The selection of the video source numbers (video input signals VI1 to VIn) can be performed at a predetermined time and in a frame unit. In that case, as shown in FIG. 7, a timer table for each video source that stores a timer value that specifies a switching time for each video source number is used. The timer table for each video source is stored in the memory 29 from an external device.

【0089】したがって、この場合には、図9(a),
(b)に示すように、所定時間を計時するシステムタイ
マの計時値が、おのおののビデオソース番号に対応して
記憶されたタイマ値に一致するまでの期間、そのビデオ
ソース番号に対応したビデオ入力信号VI1〜VInの
符号化処理を行う。
Therefore, in this case, as shown in FIG.
As shown in (b), during the period until the timed value of the system timer that measures a predetermined time matches the timer value stored corresponding to each video source number, the video input corresponding to that video source number is input. The signals VI1 to VIn are encoded.

【0090】この場合に、制御部28が実行するビデオ
ソース切換処理の一例を図10に示す。
FIG. 10 shows an example of the video source switching process executed by the control unit 28 in this case.

【0091】まず、システムタイマTSをクリアし(処
理101)、1フレーム分の処理を終了するまで待つ
(判断102のNOループ)。1フレーム分の処理が終
了して、判断102の結果がYESになるときには、メ
モリ5に記憶したビデオソース別タイマテーブルを参照
して、ビデオソースに対応したタイマ値TVを取り出し
(処理103)、システムタイマTSの値がタイマ値T
Vよりも大きくなっているかどうかを調べる(判断10
4)。
First, the system timer TS is cleared (process 101), and the process waits until the process for one frame is completed (NO loop of decision 102). When the processing for one frame is completed and the result of determination 102 is YES, the timer value TV corresponding to the video source is retrieved by referring to the timer table for each video source stored in the memory 5 (processing 103), The value of the system timer TS is the timer value T
Check if it is larger than V (decision 10
4).

【0092】判断104の結果がNOになるときには、
判断102に戻り、同一のビデオソースの符号化処理を
実行する。また、判断104の結果がYESになるとき
には、次のビデオソースに切り換えて(処理105)、
対応するビデオ入力信号を検出できるかどうかを調べる
(判断106)。判断106の結果がNOになるときに
は、処理105に戻り、別のビデオソースを試す。
When the result of determination 104 is NO,
Returning to the determination 102, the encoding process of the same video source is executed. When the result of determination 104 is YES, the video source is switched to the next video source (processing 105),
It is checked if the corresponding video input signal can be detected (decision 106). When the result of determination 106 is NO, the process returns to step 105 and another video source is tried.

【0093】判断106の結果がYESになるときに
は、システムタイマTSをクリアし(処理107)、判
断102に戻り、新たに選択したビデオソースに対する
処理を行う。
When the result of determination 106 is YES, the system timer TS is cleared (process 107), the process returns to determination 102, and the process for the newly selected video source is performed.

【0094】ここで、ビデオソース別タイマテーブルの
タイマ値としては、全てのビデオソース番号で同じ値を
設定する必要はない。例えば、形成される符号データの
データ量が大きい場合には、タイマ値をより大きくする
と、そのビデオソースの再生映像の画質を向上できる。
また、ビデオソースの種類により、適切な値を設定する
ことができる。例えば、静止画のようにあまり動きのな
い映像を撮影するビデオソースには、タイマ値として最
小値を設定することができる。
Here, it is not necessary to set the same value for all video source numbers as the timer value in the timer table for each video source. For example, when the amount of coded data to be formed is large, the image quality of the reproduced image of the video source can be improved by increasing the timer value.
Also, an appropriate value can be set depending on the type of video source. For example, a minimum value can be set as a timer value for a video source that shoots a video that does not move much like a still image.

【0095】また、図11に示すように、ビデオソース
番号毎に、連続して符号化するフレーム数をあらわす累
積フレーム値を記憶するビデオソース別累積フレーム値
テーブルを用いることもできる。このビデオソース別累
積フレーム値テーブルは、メモリ29に記憶される。
Further, as shown in FIG. 11, it is also possible to use a cumulative frame value table for each video source which stores a cumulative frame value representing the number of frames to be coded continuously for each video source number. The cumulative frame value table for each video source is stored in the memory 29.

【0096】この場合には、図12(a),(b)に示
すように、連続して符号化するフレーム数が、おのおの
のビデオソース番号に対応して記憶された累積フレーム
値に一致するまでの期間、そのビデオソース番号に対応
したビデオ入力信号VI1〜VInの符号化処理を行
う。
In this case, as shown in FIGS. 12 (a) and 12 (b), the number of frames to be continuously coded matches the accumulated frame value stored corresponding to each video source number. During the period up to, the video input signals VI1 to VIn corresponding to the video source number are encoded.

【0097】この場合に、制御部28が実行するビデオ
ソース切換処理の一例を図13に示す。
FIG. 13 shows an example of the video source switching process executed by the control unit 28 in this case.

【0098】まず、カウンタLSの値を0に初期設定し
(処理201)、1フレーム分の処理を終了するまで待
つ(判断202のNOループ)。1フレーム分の処理が
終了して、判断202の結果がYESになるときには、
カウンタLSの値を1つ増やし(処理203)、メモリ
5に記憶したビデオソース別累積フレーム値テーブルを
参照して、ビデオソースに対応した累積フレーム値LA
を取り出し(処理204)、カウンタLSの値が累積フ
レーム値LAよりも大きくなっているかどうかを調べる
(判断205)。
First, the value of the counter LS is initialized to 0 (process 201), and the process waits until the process for one frame is completed (NO loop of decision 202). When the processing for one frame ends and the result of the determination 202 is YES,
The value of the counter LS is incremented by 1 (process 203), the cumulative frame value LA for each video source is referenced by referring to the cumulative frame value table for each video source stored in the memory 5.
Is taken out (process 204), and it is checked whether the value of the counter LS is larger than the cumulative frame value LA (decision 205).

【0099】判断205の結果がNOになるときには、
判断202に戻り、同一のビデオソースの符号化処理を
実行する。また、判断205の結果がYESになるとき
には、次のビデオソースに切り換えて(処理206)、
対応するビデオ入力信号を検出できるかどうかを調べる
(判断207)。判断207の結果がNOになるときに
は、処理206に戻り、別のビデオソースを試す。
When the result of judgment 205 is NO,
Returning to the judgment 202, the encoding process of the same video source is executed. When the result of the determination 205 is YES, the video source is switched to the next video source (process 206),
It is checked whether the corresponding video input signal can be detected (decision 207). When the result of the determination 207 is NO, the process returns to the process 206 and another video source is tried.

【0100】判断207の結果がYESになるときに
は、カウンタLSの値を0に初期設定し(処理20
8)、判断202に戻り、新たに選択したビデオソース
に対する処理を行う。
When the result of the judgment 207 is YES, the value of the counter LS is initialized to 0 (process 20).
8) Then, the process returns to decision 202 and the process for the newly selected video source is performed.

【0101】ここで、ビデオソース別累積フレーム値テ
ーブルの累積フレーム値としては、全てのビデオソース
番号で同じ値を設定する必要はない。例えば、形成され
る符号データのデータ量が大きい場合には、累積フレー
ム値をより大きくすると、そのビデオソースの再生映像
の画質を向上できる。また、ビデオソースの種類によ
り、適切な値を設定することができる。例えば、静止画
のようにあまり動きのない映像を撮影するビデオソース
には、累積フレーム値として最小値を設定することがで
きる。
Here, it is not necessary to set the same value for all video source numbers as the cumulative frame value of the video source-specific cumulative frame value table. For example, when the data amount of the code data to be formed is large, the image quality of the reproduced image of the video source can be improved by increasing the cumulative frame value. Also, an appropriate value can be set depending on the type of video source. For example, a minimum value can be set as a cumulative frame value for a video source that shoots a video that does not move much like a still image.

【0102】また、符号化モードを考えると、INTR
Aモードの符号化処理による符号データ量は、INTE
Rモードの符号化処理による符号データ量よりも大きく
なることが予想される。
Considering the coding mode, INTR
The amount of code data by the A mode encoding process is INTE
It is expected that it will be larger than the code data amount by the R mode encoding process.

【0103】このような関係を利用したビデオソース切
換処理の一例を図14に示す。
FIG. 14 shows an example of the video source switching process utilizing such a relationship.

【0104】まず、いずれかのビデオソースを選択し
(処理301)、対応するビデオ入力信号を検出できる
かどうかを調べる(判断302)。判断302の結果が
NOになるときには、処理301に戻り、別のビデオソ
ースを試す。
First, one of the video sources is selected (process 301) and it is checked whether the corresponding video input signal can be detected (decision 302). When the result of determination 302 is NO, the process returns to step 301 and another video source is tried.

【0105】判断302の結果がYESになるときに
は、そのときの符号化モードがINTRAモードである
かどうかを調べ(判断303)、判断303の結果がY
ESになるときには、変数SAに所定値KAをセットし
(処理304)、判断303の結果がNOになるときに
は、変数SAに所定値KBをセットする(処理30
5)。
When the result of decision 302 is YES, it is checked whether the encoding mode at that time is the INTRA mode (decision 303), and the result of decision 303 is Y.
When ES, the predetermined value KA is set in the variable SA (process 304), and when the result of the judgment 303 is NO, the predetermined value KB is set in the variable SA (process 30).
5).

【0106】次いで、1フレーム分の処理を終了するま
で待つ(判断306のNOループ)。1フレーム分の処
理が終了して、判断306の結果がYESになるときに
は、変数SAの値を1つ減らし(処理307)、変数S
Aの値が「0」になったかどうかを調べ(判断30
8)、判断308の結果がNOになるときには、判断3
06に戻り、同一のビデオソースの符号化処理を実行す
る。
Then, the process waits until the processing for one frame is completed (NO loop of decision 306). When the processing for one frame is completed and the result of the determination 306 is YES, the value of the variable SA is decremented by 1 (processing 307) and the variable S is changed.
Check whether the value of A becomes "0" (decision 30
8) If the result of decision 308 is NO, then decision 3
Returning to 06, the same video source encoding process is executed.

【0107】また、判断308の結果がYESになると
きには、処理301に戻り、次のビデオソースを試す。
When the result of determination 308 is YES, the process returns to step 301 and the next video source is tried.

【0108】また、上述したビデオソース別タイマ値テ
ーブル、および、ビデオソース別累積フレーム値テーブ
ルの各要素の値を、動きベクトル信号の値に応じて段階
的に変更することもできる。
Further, the values of the respective elements of the above-mentioned video source-specific timer value table and video source-specific cumulative frame value table can be changed stepwise according to the value of the motion vector signal.

【0109】また、ビデオソースの種類に応じて、量子
化ステップ値や、CIF/QCIFの動画フォーマット
が規定されることがある。そのために、例えば、ビデオ
ソース番号と量子化ステップ値との関係をあらわしたビ
デオソース別量子化ステップ値テーブルや、ビデオソー
ス番号とCIF/QCIFの画像フォーマット種別の関
係をあらわしたビデオソース別フォーマットテーブルを
形成してメモリ29に記憶し、制御部28は、おのおの
のビデオソース番号に応じて、量子化ステップ値および
画像フォーマット種別を、情報源符号器25に設定する
とよい。
In addition, the quantization step value and the CIF / QCIF moving image format may be defined depending on the type of video source. Therefore, for example, a video source quantization step value table showing the relationship between the video source number and the quantization step value, and a video source format table showing the relationship between the video source number and the CIF / QCIF image format type Are stored in the memory 29, and the control unit 28 may set the quantization step value and the image format type in the information source encoder 25 in accordance with each video source number.

【0110】さて、テレビ会議通信端末装置では、Bチ
ャネルにおいては、TTC標準JT−H.221で規定
されるマルチフレーム形式でデータをやりとりする。
Now, in the video conference communication terminal device, in the B channel, the TTC standard JT-H. Data is exchanged in the multi-frame format defined by 221.

【0111】図15に示すように、1つのマルチフレー
ムMFLは、8個のサブマルチフレームSMF1〜SM
F8からなり、おのおののサブマルチフレームSMF1
〜SMF8は、それぞれ2つのフレームから構成されて
いる。すなわち、1つのマルチフレームMFLは、16
個のフレームFLM0〜FLM15からなる。
As shown in FIG. 15, one multi-frame MFL includes eight sub-multi-frames SMF1 to SM.
F8, each sub-multiframe SMF1
Each SMF8 is composed of two frames. That is, one multi-frame MFL has 16
Each frame FLM0 to FLM15.

【0112】それぞれのフレームFLM0〜FLM15
は、図16に示すように、80オクテットのデータから
なり、それらのオクテットをビット順に配置したそれぞ
れのビット位置は、サブチャネルSCH1〜SCH8を
構成している。
Each frame FLM0 to FLM15
As shown in FIG. 16, it consists of data of 80 octets, and the respective bit positions in which these octets are arranged in bit order form subchannels SCH1 to SCH8.

【0113】また、第1オクテット〜第8オクテットの
第8ビットは、フレーム同期信号(Frame Ali
gnment Signal)FASを構成し、第9オ
クテット〜第16オクテットの第8ビットは、ビットレ
ート割当信号(Bit rate Allocation
Signal)BASを構成する。すなわち、サブチ
ャネルSCH8は、第17オクテット〜第80オクテッ
トの第8ビットに割り当てられており、この部分は、応
用チャネルAC(Application Chann
el)と呼ばれることもある。また、サブチャネルSC
H8の第17〜第24オクテットには、データを暗号化
するためのキー情報などをやりとりするための暗号チャ
ネルのデータがセットされることがある(オプショ
ン)。
The eighth bit of the first octet to the eighth octet is the frame synchronization signal (Frame Ali).
The 8th bit of the 9th octet to the 16th octet constitutes a bit rate allocation signal (Bit rate Allocation).
Signal) BAS. That is, the sub-channel SCH8 is assigned to the eighth bit of the 17th octet to the 80th octet, and this portion is applied to the application channel AC (Application Channel).
el) is sometimes called. Also, sub-channel SC
In the 17th to 24th octets of H8, data of an encrypted channel for exchanging key information for encrypting data may be set (optional).

【0114】このようにして、フレーム同期信号FAS
は、1つのフレームFLM0〜FLM15に8ビット配
置されており、そのビット割り当ては、図17に示すよ
うに、マルチフレームMFLを単位として構成されてい
る。
In this way, the frame synchronization signal FAS
8 bits are arranged in one frame FLM0 to FLM15, and the bit allocation is configured in units of multi-frame MFL as shown in FIG.

【0115】すなわち、偶数フレームFLM0,FLM
2,…,FLM14の第2オクテット〜第8オクテット
と、それに続く奇数フレームFLM1,FLM3,…,
FLM15には、「00110111」なる8ビットの
データパターンからなる水平同期信号が配置され、奇数
フレームFLM1,FLM3,…,FLM11の第1オ
クテットには、「001011」なる6ビットのデータ
パターンからなる垂直同期信号が配置されている。
That is, even frames FLM0, FLM
2, ..., The second to eighth octets of the FLM 14, and the odd frames FLM1, FLM3 ,.
A horizontal synchronization signal composed of an 8-bit data pattern "001101111" is arranged in the FLM 15, and a vertical synchronization composed of a 6-bit data pattern "001011" is arranged in the first octet of the odd-numbered frames FLM1, FLM3, ..., FLM11. A sync signal is placed.

【0116】この水平同期信号と垂直同期信号を検出す
ることにより、1つのマルチフレームMFLの同期を検
出することができる。
By detecting the horizontal synchronizing signal and the vertical synchronizing signal, it is possible to detect the synchronization of one multi-frame MFL.

【0117】また、第0フレーム、第2フレーム、第4
フレーム、第6フレームおよび第8フレームの第1オク
テットのビットN1,N2,N3,N4,N5は、マル
チフレーム番号の表示に用いられる。このうち、ビット
N5は、マルチフレーム番号が使用されているか否かの
表示に用いられる。このように、マルチフレーム番号の
ために使用されるデータが4ビットなので、マルチフレ
ーム番号は0〜15までの値で降順に変化し、16マル
チフレーム毎に同じマルチフレーム番号があらわれる。
The 0th frame, the 2nd frame, the 4th frame
Bits N1, N2, N3, N4, N5 of the first octet of the frame, the sixth frame and the eighth frame are used to indicate the multi-frame number. Of these, the bit N5 is used to indicate whether or not the multiframe number is used. In this way, since the data used for the multi-frame number is 4 bits, the multi-frame number changes in descending order with a value of 0 to 15, and the same multi-frame number appears every 16 multi-frames.

【0118】また、第10フレーム、第12フレーム、
および、第13フレームの第1オクテットのビットL
1,L2,L3は、現在使用されているBチャネルのう
ち、そのフレームを運んでいるBチャネルの接続された
順番をあらわすコネクション番号を表示するために用い
られる。また、第15フレームの第1オクテットのビッ
トRは、将来の勧告のために確保(予約)されており、
その値には0がセットされる。
The tenth frame, the twelfth frame,
And bit L of the 1st octet of the 13th frame
1, L2, L3 are used to display the connection number indicating the order in which the B channels carrying the frame among the currently used B channels are connected. Also, the bit R of the first octet of the fifteenth frame is reserved (reserved) for future recommendation,
The value is set to 0.

【0119】また、第14フレームの第1オクテットの
ビットTEAは、データ端末装置の内部的な障害によ
り、データ伝送できない状態であることを表示するため
に用いられる。
The bit TEA of the first octet of the 14th frame is used to indicate that data transmission is impossible due to an internal failure of the data terminal device.

【0120】また、奇数フレームFLM1,FLM3,
…,FLM15の第3オクテットのビットAは、フレー
ム同期またはマルチフレーム同期が確立しているか、あ
るいは、同期はずれを生じているかを表示するために用
いられる。
Also, odd-numbered frames FLM1, FLM3
.., bit A of the third octet of the FLM 15 is used to indicate whether frame synchronization or multi-frame synchronization is established or out of synchronization.

【0121】また、奇数フレームFLM1,FLM3,
…,FLM15の第5オクテット、第6オクテット、第
7オクテット、および、第8オクテットのビットC1,
C2,C3,C4は、連続した2つのフレーム(すなわ
ち、サブマルチフレーム)のデータエラー検出(すなわ
ち、伝送路品質検出)のために参照されるCRC(巡回
冗長検査)符号を表示するためのものであり、この奇数
フレームFLM1,FLM3,…,FM15の第4オク
テットのビットEは、受信側で伝送エラーを検出したこ
とを表示するために用いられる。
Also, odd-numbered frames FLM1, FLM3
..., bit C1 of the fifth octet, sixth octet, seventh octet, and eighth octet of FLM15
C2, C3 and C4 are for displaying a CRC (Cyclic Redundancy Check) code that is referred to for data error detection (that is, channel quality detection) of two consecutive frames (that is, sub-multiframe). , And the bit E of the fourth octet of the odd frames FLM1, FLM3, ..., FM15 is used to indicate that a transmission error has been detected on the receiving side.

【0122】また、ビットレート割当信号BASは、図
18に示すように、偶数フレームFLM0,FLM2,
…,FLM14では、能力BASあるいはBASコマン
ドをあらわす8ビットデータが配置され、それに続く奇
数フレームFLM1,FLM3,…,FLM15には、
直前のフレームで送出した能力BASあるいはBASコ
マンドの値を誤り訂正するための二重誤り訂正符号が配
置される。
The bit rate allocation signal BAS is, as shown in FIG. 18, even-numbered frames FLM0, FLM2,
.., FLM14, 8-bit data representing the capability BAS or BAS command is arranged, and in the subsequent odd numbered frames FLM1, FLM3 ,.
A double error correction code for error correcting the value of the capability BAS or BAS command transmitted in the immediately preceding frame is arranged.

【0123】また、マルチフレームMFLのデータの送
信は、フレーム番号順に行なわれ、おのおののフレーム
FLM0〜FLM15は、図19に示すように、第1オ
クテットから第80オクテットのオクテット順序に送出
され、それぞれのオクテットは、第1ビットが最初に送
出される。
Further, the transmission of the data of the multi-frame MFL is performed in the order of the frame numbers, and the respective frames FLM0 to FLM15 are transmitted in the octet order from the 1st octet to the 80th octet as shown in FIG. The first bit of the octet is sent first.

【0124】すなわち、おのおののフレームFLM0〜
FLM15においては、第1オクテットの第1ビットが
最初に送出され、第80オクテットの第8ビットが最後
に送出される。
That is, each of the frames FLM0 to FLM0
In the FLM 15, the first bit of the first octet is transmitted first and the eighth bit of the 80th octet is transmitted last.

【0125】図20は、テレビ会議通信端末装置などの
オーディオビジュアル端末がBチャネルを用いてデータ
伝送するときに実行する伝送制御手順として適用するT
TC標準JT−H.242の一般的な手順例を示してい
る。なお、この場合、2つのBチャネルを用いて、端末
間で音声データ、汎用データ、および、動画データをや
りとりするときの伝送手順の一例を示している。
FIG. 20 is a T applied as a transmission control procedure executed when an audiovisual terminal such as a video conference communication terminal apparatus transmits data using the B channel.
TC standard JT-H. 242 shows an example of a general procedure of 242. In this case, an example of a transmission procedure for exchanging audio data, general-purpose data, and moving image data between terminals using two B channels is shown.

【0126】まず、発呼端末が宛先端末を発呼してDチ
ャネル上で呼設定手順を行い、1つのBチャネル(以
下、第1チャネルという)を確保し(フェーズA)、そ
の設定した第1チャネル上でPCM音声データ(A則ま
たはμ則、64Kbps)をセットしたフレームデータ
をやりとりしながらフレーム同期を行ない(フレームモ
ード)、フレーム同期が確立すると、相互に能力BAS
データおよびコマンドBASデータをやりとりし(フェ
ーズB1−1)、そのときに使用する伝送モードを決定
して、2つ目のBチャネルを確保するための付加呼設定
要求を開始する(フェーズB1−2)。
First, the calling terminal makes a call to the destination terminal and performs a call setup procedure on the D channel to secure one B channel (hereinafter referred to as the first channel) (Phase A). Frame synchronization is performed while exchanging frame data in which PCM voice data (A-law or μ-law, 64 Kbps) is set on one channel (frame mode), and when frame synchronization is established, mutual capability BAS
Data and command BAS data are exchanged (phase B1-1), the transmission mode to be used at that time is determined, and an additional call setup request for securing the second B channel is started (phase B1-2). ).

【0127】そして、伝送モードをそのときに相互に交
換した内容から、原則として、互いに共通なモードを、
例えば、所定の優先順位にしたがって選択し(フェーズ
B1−3)、発呼端末からその選択した動作モードで着
呼端末に機能を動作させるよう端末機能を指定するBA
Sコマンドを送信して、発呼端末と着呼端末の装置機能
に共通するパラメータを設定する(フェーズB2)。こ
れにより、第1チャネルでは、そのときに選択した伝送
モードに対応した、例えば、音声データ(16Kbp
s)のデータ伝送、および、動画像データ(46.4K
bps)のデータ伝送が行われる(フェーズC)。
From the contents of the exchange of the transmission modes at that time, in principle, the common modes are
For example, a BA which selects according to a predetermined priority order (Phase B1-3) and designates a terminal function from the calling terminal so that the called terminal operates the function in the selected operation mode.
The S command is transmitted to set parameters common to the device functions of the calling terminal and the called terminal (phase B2). As a result, in the first channel, for example, audio data (16 Kbp) corresponding to the transmission mode selected at that time is transmitted.
s) data transmission and moving image data (46.4K)
bps) data transmission is performed (phase C).

【0128】第1チャネルがフレームモードでデータ伝
送を開始すると、2つ目のBチャネル(以下、第2チャ
ネルという)についてDチャネル上で呼設定手順を行い
(フェーズCA)、第2チャネルが確立すると、第2チ
ャネルを使ってフレーム同期信号FASおよびビット割
当信号BASのみを含むフレームデータをやりとりして
フレーム同期およびマルチフレーム同期を確立し(フェ
ーズCB1−11)、次いで、第1チャネルと第2チャ
ネル間の同期を確立する(フェーズCB1−12)。
When the first channel starts data transmission in the frame mode, the call setup procedure is performed on the second B channel (hereinafter referred to as the second channel) on the D channel (phase CA), and the second channel is established. Then, frame data including only the frame synchronization signal FAS and the bit allocation signal BAS is exchanged using the second channel to establish frame synchronization and multi-frame synchronization (phase CB1-11), and then the first channel and the second channel. Synchronization between channels is established (phase CB1-12).

【0129】2つのBチャネルの同期が完了すると、発
呼端末側からBASコマンドを送出して伝送モードを設
定し(フェーズCB1−2)、その設定した内容に伝送
モードを切換え(フェーズCB1−3)、共通パラメー
タを設定する(フェーズCB3)。
When the synchronization of the two B channels is completed, the BAS command is sent from the calling terminal side to set the transmission mode (phase CB1-2), and the transmission mode is switched to the set contents (phase CB1-3). ), Common parameters are set (phase CB3).

【0130】このようにして、第2チャネルの初期化が
終了すると、それ以降は、第1チャネルでやりとりする
フレームデータ、および、第2チャネルでやりとりする
フレームデータが同期された状態で、2つのBチャネル
を用いて、例えば、音声データ、汎用データ、および、
動画データが、それぞれ58Kbps、6.4Kbps
および62.4Kbpsの伝送速度が割り当てられてデ
ータ伝送される(図21参照)。ここで、汎用データの
チャネルは、音声データ以外のC&Iモード(会議制御
機能)のデータ、例えば、C&I機能、テレライティン
グ通信機能、および、バルク転送機能(グループ4ファ
クシミリデータなど)のデータをやりとりするために用
いられる。
When the initialization of the second channel is completed in this way, after that, the frame data exchanged on the first channel and the frame data exchanged on the second channel are synchronized with each other. Using the B channel, for example, voice data, general data, and
Video data is 58 Kbps and 6.4 Kbps, respectively
And a data rate of 62.4 Kbps is assigned for data transmission (see FIG. 21). Here, the general-purpose data channel exchanges C & I mode (conference control function) data other than voice data, for example, C & I function, telewriting communication function, and bulk transfer function (group 4 facsimile data, etc.) data. Used for.

【0131】このようなデータ伝送を終了するときに
は、まず、第2チャネルから切断する。このとき、第1
チャネルのみで行なう音声データ伝送のために、共通モ
ードを設定するための手順が行われて(フェーズCD
1)、第2チャネルはフレームモードのモード0Fへの
モード切換えが行われる(フェーズCD2)。このとき
には、第1チャネルと第2チャネルが非同期であり、か
つ、第2チャネルではフレーム同期信号FASとビット
割当信号BASのみの伝送状態で呼が保持されている状
態であり、Dチャネルの呼切断解放手順により第2チャ
ネルの呼を解放できる状態になっている。
To end such data transmission, first, the second channel is disconnected. At this time, the first
For voice data transmission on the channel only, the procedure for setting the common mode is performed (Phase CD
1), the mode of the second channel is switched to the mode 0F of the frame mode (phase CD2). At this time, the first channel and the second channel are asynchronous, and the second channel is in a state in which the call is held in the transmission state of only the frame synchronization signal FAS and the bit allocation signal BAS, and the call of the D channel is disconnected. The call for the second channel can be released by the release procedure.

【0132】また、第1チャネルでは、フェーズCD1
およびフェーズCD2の間、フレームモードで音声デー
タと動画データが合計62.4Kbpsの伝送速度で伝
送されており、さらに、一方の端末のオペレータが通話
終了する場合は動画データの伝送を終了し、この動画デ
ータの伝送容量を含めて、全ての第1チャネルの伝送容
量を音声伝送に使用するためにモード0Fに切り換え
(フェーズD2)、この後、Dチャネルの呼切断解放手
順により第1チャネルの呼を解放できる状態になってい
る。
In the first channel, phase CD1
During the phase CD2, the audio data and the moving image data are transmitted at the total transmission rate of 62.4 Kbps in the frame mode. Further, when the operator of one terminal ends the call, the transmission of the moving image data is finished. In order to use all the transmission capacities of the first channel including the transmission capacity of the moving image data for voice transmission, the mode is switched to the mode 0F (phase D2), and then the call disconnection release procedure of the D channel is performed. Is ready to be released.

【0133】これにより、第1チャネルおよび第2チャ
ネルについて、Dチャネル上で呼切断解放手順が実行さ
れて(フェーズE)、2つの端末間のオーディオビジュ
アル伝送が終了する。
Thus, the call disconnection release procedure is executed on the D channel for the first channel and the second channel (phase E), and the audiovisual transmission between the two terminals is completed.

【0134】このように、テレビ会議通信端末装置など
のオーディオビジュアル端末では、最初に1つのBチャ
ネル(第1チャネル)を確保してフレームモードを確立
した後に、この第1チャネルで音声データと動画データ
の伝送速度の割り当てを行なって過渡的なモードでデー
タ伝送を行ないつつ、同時に互いに2つ目のBチャネル
(第2チャネル)の設定が可能ならば、Dチャネルの呼
設定手順により第2チャネルを確保する。そして、過渡
的なモードで伝送している第1チャネルと、新たに確保
した第2チャネルをチャネル同期させ、そのチャネル同
期が確立した時点で、音声データと動画データの伝送速
度の割り当てを再設定し、増大したBチャネルの伝送容
量を活用するために、音声データおよび動画データの符
号化則(符号化方式)を変更して、より高品質な音声デ
ータおよび動画データのやりとりを行なうようにしてい
る。
As described above, in an audiovisual terminal such as a video conference communication terminal device, one B channel (first channel) is first secured and a frame mode is established, and then audio data and a moving image are transmitted on this first channel. If the second B channel (second channel) can be set at the same time while assigning the data transmission rate and performing the data transmission in the transient mode, the second channel is set by the D channel call setup procedure. Secure. Then, the first channel transmitting in the transient mode and the newly secured second channel are channel-synchronized, and when the channel synchronization is established, the allocation of the transmission rate of the audio data and the moving image data is reset. However, in order to utilize the increased transmission capacity of the B channel, the coding rule (coding method) of audio data and moving image data is changed so that higher quality audio data and moving image data can be exchanged. There is.

【0135】また、データ伝送を終了するときには、い
ったん、第1チャネルと第2チャネルの両方を同期させ
た伝送路を使用していたモードから、第1チャネルだけ
を使用するモードへ変更する必要がある。そこで、ま
ず、音声データおよび動画データの各符号化則を第1チ
ャネルの62.4Kbpsの伝送容量に最適化する方式
に設定して第1チャネルのみの伝送モードに変更すると
ともに、第2チャネルは、第1チャネルとの同期状態を
停止するとともに、ユーザデータが空き伝送状態になっ
ているモード0Fに移行し、Dチャネルの呼切断解放手
順により呼を切断/解放する。また、第1チャネルは、
音声データと動画データの2種類のメディア伝送から、
音声データだけの伝送モードであるモード0Fへ変更し
た後、Dチャネルの呼切断解放手順により、呼を切断/
解放する。なお、第1チャネルは、音声データと動画デ
ータの2種類のメディア伝送へモードを切り換えずに、
モード0Fへ直接モード変更した後に、呼切断/解放す
ることもできる。また、呼切断解放手順で得た課金情報
などは、チャネル毎に管理する。
Further, when the data transmission is completed, it is necessary to once change the mode in which the transmission path in which both the first channel and the second channel are synchronized is used to the mode in which only the first channel is used. is there. Therefore, first, each encoding rule of audio data and moving image data is set to a method that optimizes the transmission capacity of the first channel of 62.4 Kbps, and the transmission mode of only the first channel is changed, while the second channel is , The state of synchronization with the first channel is stopped, the mode shifts to mode 0F in which user data is in an idle transmission state, and the call is disconnected / released by the call disconnection release procedure of the D channel. The first channel is
From two types of media transmission of audio data and video data,
After changing to mode 0F, which is a transmission mode for only voice data, the call is disconnected / released by the D channel call disconnection release procedure.
release. In addition, the first channel, without switching the mode to two types of media transmission of audio data and video data,
It is also possible to disconnect / release the call after directly changing the mode to the mode 0F. In addition, the billing information obtained in the call disconnection / release procedure is managed for each channel.

【0136】ここで、本実施例の場合、第1チャネルが
確立した段階で、図22に示すように、発呼側と着呼側
で能力BASを交換し、相手端末に対して、自端末の装
置機能を通知する。そして、発呼側は、そのときに交換
した能力値に基づいて、第1チャネル確立中の状態で使
用する機能を指定するBASコマンドを着呼側に送出
し、着呼側は、その指定された機能を受け付けるための
BASコマンドを発呼側に送出する。
Here, in the case of the present embodiment, when the first channel is established, as shown in FIG. 22, the capability BAS is exchanged between the calling side and the called side, and the own terminal is exchanged with the other terminal. Notify the device function of. Then, the calling side sends a BAS command designating a function to be used in the state in which the first channel is being established to the called side based on the capability value exchanged at that time, and the called side receives the designated value. The BAS command for accepting the function is sent to the calling side.

【0137】この場合、能力BASの交換は2回行わ
れ、最初の能力BAS交換時には、図23に示したよう
に、基本的な装置機能を通知し、また、次の能力BAS
交換時には、図24に示したように、多重化ビデオ能力
などの非標準的な機能も通知する。本実施例の場合に
は、2系統のビデオ信号の入出力系統を備えているの
で、ビデオ信号の多重化度を2として能力値が交換され
る。
In this case, the exchange of the capability BAS is performed twice. At the first exchange of the capability BAS, the basic device function is notified and the next capability BAS is exchanged, as shown in FIG.
At the time of exchange, as shown in FIG. 24, non-standard functions such as multiplexed video capability are also notified. In the case of the present embodiment, since two video signal input / output systems are provided, the capability values are exchanged with the video signal multiplexing degree being 2.

【0138】そして、付加呼設定が終了して、テレビ会
議通信セッションが実行されているときに、相手端末に
対して、2つのビデオソースのおのおのについて、画質
などを決定するビデオ設定をしようとする場合には、図
25(a)に示したような信号形式のBASコマンドを
相手端末に送出する。
Then, when the video call communication session is being executed after the setting of the supplementary call, a video setting for determining the image quality of each of the two video sources is attempted for the other terminal. In this case, the BAS command in the signal format as shown in FIG. 25A is sent to the partner terminal.

【0139】このBASコマンドにおけるビデオ設定情
報は、同図(b)に示したような情報要素をもつ。ここ
で、ビデオ別フレーム切替指示情報は、ビデオ1処理フ
レーム数情報およびビデオ2処理フレーム数情報を有効
にするか否かを指定するためのものであり、ビデオ1処
理フレーム数情報およびビデオ2処理フレーム数情報
は、相手端末に対し、ビデオソース番号1,2のビデオ
信号のフレームレート(フレーム数)を設定するための
ものである。
The video setting information in this BAS command has information elements as shown in FIG. Here, the video-specific frame switching instruction information is for designating whether or not the video 1 processing frame number information and the video 2 processing frame number information are valid, and the video 1 processing frame number information and the video 2 processing frame information. The frame number information is for setting the frame rate (the number of frames) of the video signals of the video source numbers 1 and 2 to the partner terminal.

【0140】また、ビデオ別量子化ステップ数切替情報
は、ビデオ1量子化ステップ数情報およびビデオ2量子
化ステップ数情報を有効にするか否かを指定するための
ものであり、ビデオ1量子化ステップ数情報およびビデ
オ2量子化ステップ数情報は、相手端末に対し、ビデオ
ソース番号1,2のビデオ信号の量子化ステップ数を設
定するためのものである。
The video-by-video quantization step number switching information is for designating whether or not the video 1 quantization step number information and the video 2 quantization step number information are valid. The step number information and the video 2 quantization step number information are for setting the number of quantization steps of the video signals of the video source numbers 1 and 2 to the partner terminal.

【0141】また、ビデオ別フレームモード切替指示情
報は、ビデオ1フレームモード情報およびビデオ2フレ
ームモード情報を有効にするか否かを指定するためのも
のであり、ビデオ1フレームモード情報およびビデオ2
フレームモード情報は、相手端末に対し、ビデオソース
番号1,2のビデオ信号のフレームモードをCIF/Q
CIFに設定するためのものである。
The video-specific frame mode switching instruction information is for designating whether the video 1 frame mode information and the video 2 frame mode information are valid or not.
As the frame mode information, the frame mode of the video signals of video source numbers 1 and 2 is CIF / Q
It is for setting to CIF.

【0142】例えば、図26(a)に示すように、相手
端末から受信しているビデオソース#1の画面をビデオ
モニタ装置13に表示し、ビデオソース#2の画面をビ
デオモニタ装置14に表示している状態で、ユーザが、
同図(b)に示すように、ビデオモニタ装置13の画面
内に、全画面の1/4程度の面積の子画面PPを設定
し、この子画面PPにビデオソース#2の画面を表示さ
せるように、指定した場合を考える。
For example, as shown in FIG. 26A, the screen of the video source # 1 received from the partner terminal is displayed on the video monitor device 13, and the screen of the video source # 2 is displayed on the video monitor device 14. While the user is
As shown in FIG. 7B, a child screen PP having an area of about ¼ of the entire screen is set in the screen of the video monitor device 13, and the screen of the video source # 2 is displayed on this child screen PP. So, let's consider the case where it is specified.

【0143】この場合、まず、子画面PPに表示させて
いるビデオソース#2の画面は、ビデオソース#1の画
面よりも表示面積が小さいので、元の画面が多少画質が
悪くとも、実用上は差し支えない程度の映像として、ユ
ーザには感知される。
In this case, first, the screen of the video source # 2 displayed on the child screen PP has a smaller display area than the screen of the video source # 1. The image is perceived by the user as an image of a level that does not cause any problem.

【0144】そこで、この場合、ビデオソース#2のビ
デオ信号のフレームモードを、画素数がCIFの1/4
であるQCIFに設定することができる。したがって、
この場合には、ビデオ1フレームモード情報およびビデ
オ2フレームモード情報を有効にすることを指定するデ
ータをセットしたビデオ別フレームモード切替指示情
報、フレームモードをCIFに設定するデータをセット
したビデオ1フレームモード情報、および、フレームモ
ードをQCIFに設定するデータをセットしたビデオ2
フレームモード情報を内容とする、ビデオ設定情報を含
んだBASコマンドを形成し、そのBASコマンドを相
手端末に対して送信する。
Therefore, in this case, the frame mode of the video signal of the video source # 2 is set to 1/4 of the pixel number of CIF.
Can be set to QCIF. Therefore,
In this case, video 1 frame mode switching instruction information in which data for designating that video 1 frame mode information and video 2 frame mode information are set, and video 1 frame in which data for setting frame mode to CIF are set Video 2 with mode information and data that sets the frame mode to QCIF
A BAS command including the video setting information having the frame mode information is formed, and the BAS command is transmitted to the partner terminal.

【0145】これにより、相手端末では、ビデオソース
#1のフレームモードをCIFに、また、ビデオソース
#2のフレームモードをQCIFに設定し、それ以降の
動画信号を送信する。
As a result, the partner terminal sets the frame mode of the video source # 1 to CIF and the frame mode of the video source # 2 to QCIF, and transmits the subsequent moving image signals.

【0146】また、例えば、ユーザが、ビデオソース#
1,#2の表示画面について画質の調整を操作した場
合、その調整内容をあらわすビデオ設定情報を形成し、
そのビデオ設定情報を含んだBASコマンドを形成し、
そのBASコマンドを相手端末に送信する。
Also, for example, if the user selects the video source #
When the image quality adjustment is operated on the display screens # 1 and # 2, video setting information representing the adjustment content is formed,
Form a BAS command containing the video setting information,
The BAS command is transmitted to the other terminal.

【0147】例えば、ユーザが「精細」方向に画質調整
を操作した場合には、そのビデオソースに対応した量子
化ステップ数を大きくする方向に、ビデオ1量子化ステ
ップ数情報およびビデオ2量子化ステップ数情報の内容
を設定する。
For example, when the user operates the image quality adjustment in the "fine" direction, the video 1 quantization step number information and the video 2 quantization step information are increased in the direction of increasing the quantization step number corresponding to the video source. Set the contents of the numerical information.

【0148】これにより、対応するビデオソースの符号
化段階で、量子化ステップ値が小さくなり、これによ
り、より精細な画質が得られる。
As a result, the quantization step value becomes small at the encoding stage of the corresponding video source, and thus a finer image quality can be obtained.

【0149】また、ユーザが「追従性よく」方向に画質
調整を操作した場合には、そのビデオソースに対応した
フレームレートを大きくする方向に、ビデオ1処理フレ
ーム数情報およびビデオ2処理フレーム数情報の内容を
設定する。
Further, when the user operates the image quality adjustment in the "good trackability" direction, the video 1 processing frame number information and the video 2 processing frame number information are set in the direction of increasing the frame rate corresponding to the video source. Set the contents of.

【0150】これにより、対応するビデオソースのフレ
ームレートが大きくなり、追従性の良好な画面が得られ
る。
As a result, the frame rate of the corresponding video source is increased, and a screen with good followability can be obtained.

【0151】図27は、ユーザにより画面操作がされた
場合のシステム制御部1の処理例を示している。
FIG. 27 shows an example of processing of the system control unit 1 when the screen is operated by the user.

【0152】まず、画面操作があるかどうかを監視して
おり(判断401のNOループ)、画面操作がされて判
断401の結果がYESになると、子画面を開く指示が
されたのかどうかを調べる(判断402)。
First, whether or not there is a screen operation is monitored (NO loop of decision 401), and if the result of decision 401 is YES due to the screen operation, it is checked whether or not there is an instruction to open a child screen. (Decision 402).

【0153】判断402の結果がYESになるときに
は、子画面を開くことが指定されたビデオモニタ装置1
3,14に対応した表示制御部16,17に対して、子
画面を形成することを指示するとともに、それ以外のビ
デオモニタ装置13,14に対応した表示制御部16,
17に対して、表示を停止することを指示する(処理4
03)。
When the result of the judgment 402 is YES, the video monitor device 1 instructed to open the child screen is displayed.
The display control units 16 and 17 corresponding to 3 and 14 are instructed to form a child screen, and the display control units 16 and 17 corresponding to the other video monitor devices 13 and 14
17 is instructed to stop the display (process 4)
03).

【0154】次いで、その子画面に表示されることが指
定されたビデオソースのフレームモードをQCIFに設
定するとともに、子画面の背景となる親画面に表示され
ることが指定されたビデオソースのフレームモードをC
IFに設定する内容の、上述したビデオ設定情報を形成
し、そのビデオ設定情報を含んだBASコマンドを形成
して(処理404)、そのBASコマンドを相手端末に
送信し(処理405)、判断401に戻る。
Next, the frame mode of the video source designated to be displayed on the child screen is set to QCIF, and the frame mode of the video source designated to be displayed on the parent screen which is the background of the child screen. To C
The above-mentioned video setting information having the contents set in the IF is formed, a BAS command including the video setting information is formed (process 404), the BAS command is transmitted to the partner terminal (process 405), and the determination 401 Return to.

【0155】また、画面操作の内容が子画面を開く操作
でなく、判断402の結果がNOになるときには、その
内容が画質調整であるかどうかを調べる(判断40
6)。判断406の結果がYESになるときには、その
画質調整の内容に対応して、上述したようなビデオ設定
情報を形成し、そのビデオ設定情報を含んだBASコマ
ンドを形成して(処理407)、処理405に進み、そ
の形成したBASコマンドを相手端末に送信した後に、
判断401に戻る。
When the content of the screen operation is not the operation of opening the child screen and the result of judgment 402 is NO, it is checked whether or not the content is image quality adjustment (decision 40).
6). When the result of determination 406 is YES, the above-mentioned video setting information is formed corresponding to the contents of the image quality adjustment, and the BAS command including the video setting information is formed (processing 407), and the processing is performed. After proceeding to 405 and transmitting the formed BAS command to the partner terminal,
Return to determination 401.

【0156】また、判断406の結果がNOになるとき
には、そのときに指定された画面操作の内容に対応した
画面操作処理を実行した後に(処理408)、判断40
1に戻る。
When the result of the judgment 406 is NO, after the screen operation processing corresponding to the contents of the screen operation designated at that time is executed (processing 408), the judgment 40 is made.
Return to 1.

【0157】図28は、相手端末からBASコマンドを
受信したときのシステム制御部1の処理例を示してい
る。
FIG. 28 shows a processing example of the system control unit 1 when a BAS command is received from the partner terminal.

【0158】まず、BASコマンドを受信することを監
視しており(判断501のNOループ)、BASコマン
ドを受信して判断501の結果がYESになるときに
は、そのBASコマンドの内容を解析し(処理50
2)、その内容がビデオ設定情報であるかどうかを調べ
る(判断503)。
First, the reception of the BAS command is monitored (NO loop of decision 501). When the BAS command is received and the result of decision 501 is YES, the contents of the BAS command are analyzed (process Fifty
2) It is checked whether the content is video setting information (decision 503).

【0159】判断503の結果がYESになるときに
は、指定された内容に、多重化ビデオCODEC15の
パラメータを設定して(処理504)、判断501に戻
る。また、判断503の結果がNOになるときには、B
ASコマンドの内容に対応した処理を実行して(処理5
05)、判断501に戻る。
When the result of judgment 503 is YES, the parameters of the multiplexed video CODEC 15 are set to the designated contents (process 504) and the process returns to judgment 501. When the result of determination 503 is NO, B
The process corresponding to the contents of the AS command is executed (process 5
05), and returns to the determination 501.

【0160】ところで、上述した実施例では、2系統の
ビデオ入出力系統を備えた場合について、本発明を説明
したが、3系統以上のビデオ入出力系統を備えた場合で
も、本発明を同様にして適用することができる。
By the way, in the above-mentioned embodiment, the present invention has been described in the case of having two video input / output systems. However, the present invention is similarly applied to the case of having three or more video input / output systems. Can be applied.

【0161】また、本発明は、テレビ会議通信端末装置
以外の他の動画通信端末装置についても同様にして適用
することができる。
Further, the present invention can be similarly applied to a moving picture communication terminal device other than the video conference communication terminal device.

【0162】[0162]

【発明の効果】以上説明したように、本発明によれば、
複数の映像ソースによる複数の動画信号を多重化して1
つの伝送手段でやりとりすることができるので、複数の
映像ソースを適用するテレビ会議通信セッションを安価
に、かつ、適切に実現することができるという効果を得
る。
As described above, according to the present invention,
Multiplexes multiple video signals from multiple video sources
Since it can be exchanged by one transmission means, there is an effect that a video conference communication session applying a plurality of video sources can be realized at low cost and appropriately.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例にかかるテレビ会議通信端末
装置の構成を示したブロック図。
FIG. 1 is a block diagram showing a configuration of a video conference communication terminal device according to an embodiment of the present invention.

【図2】本発明の一実施例にかかる多重化動画CODE
C装置を示したブロック図。
FIG. 2 is a multiplexed moving image CODE according to an embodiment of the present invention.
The block diagram which showed the C apparatus.

【図3】動画情報の信号形式の一例を示した概略図。FIG. 3 is a schematic diagram showing an example of a signal format of moving image information.

【図4】動画情報の信号形式の他の例を示した概略図。FIG. 4 is a schematic diagram showing another example of a signal format of moving image information.

【図5】動画情報のデータ形式の一例を示した概略図。FIG. 5 is a schematic diagram showing an example of a data format of moving image information.

【図6】情報源符号器の一例を示したブロック図。FIG. 6 is a block diagram showing an example of an information source encoder.

【図7】情報源復号器の一例を示したブロック図。FIG. 7 is a block diagram showing an example of an information source decoder.

【図8】ビデオソース別タイマ値テーブルの一例を示し
た概略図。
FIG. 8 is a schematic diagram showing an example of a timer value table for each video source.

【図9】ビデオソース切換の一例を示した概略図。FIG. 9 is a schematic diagram showing an example of video source switching.

【図10】ビデオソース切換処理の一例を示したフロー
チャート。
FIG. 10 is a flowchart showing an example of a video source switching process.

【図11】ビデオソース別累積フレーム値テーブルの一
例を示した概略図。
FIG. 11 is a schematic diagram showing an example of a cumulative frame value table for each video source.

【図12】ビデオソース切換の他の例を示した概略図。FIG. 12 is a schematic diagram showing another example of video source switching.

【図13】ビデオソース切換処理の他の例を示したフロ
ーチャート。
FIG. 13 is a flowchart showing another example of the video source switching process.

【図14】ビデオソース切換処理のさらに他の例を示し
たフローチャート。
FIG. 14 is a flowchart showing still another example of the video source switching process.

【図15】マルチフレームのフレーム構成の一例を示す
概略図。
FIG. 15 is a schematic diagram showing an example of a multi-frame frame configuration.

【図16】1つのフレームの信号構成の一例を示す概略
図。
FIG. 16 is a schematic diagram showing an example of a signal configuration of one frame.

【図17】フレーム調整信号の一例を示す概略図。FIG. 17 is a schematic diagram showing an example of a frame adjustment signal.

【図18】ビット割当信号の一例を示す概略図。FIG. 18 is a schematic diagram showing an example of a bit allocation signal.

【図19】信号の送出順序を説明するための概略図。FIG. 19 is a schematic diagram for explaining a signal transmission order.

【図20】TTC勧告JT−H.242の一般的な手順
例を示したタイムチャート。
FIG. 20: TTC Recommendation JT-H. The time chart which showed the example of the general procedure of 242.

【図21】2つのBチャネルを用いたデータ伝送におけ
る音声データ、汎用データ、および、動画データに対す
る伝送容量の割り当ての一例を示した概略図。
FIG. 21 is a schematic diagram showing an example of allocation of transmission capacities to audio data, general-purpose data, and moving image data in data transmission using two B channels.

【図22】付加呼設定の前に行う能力BASの交換と伝
送モードの設定手順の一例を示したタイムチャート。
FIG. 22 is a time chart showing an example of a procedure for exchanging a capability BAS and setting a transmission mode before setting an additional call.

【図23】初期能力情報交換の内容の一例を示した概略
図。
FIG. 23 is a schematic diagram showing an example of contents of initial capability information exchange.

【図24】次の能力情報交換の内容の一例を示した概略
図。
FIG. 24 is a schematic diagram showing an example of the contents of the next capability information exchange.

【図25】ビデオ設定のためのBASコマンドの内容の
一例を示した概略図。
FIG. 25 is a schematic diagram showing an example of the contents of a BAS command for video setting.

【図26】画面の切替の一例を示した概略図。FIG. 26 is a schematic diagram showing an example of screen switching.

【図27】画面操作時の処理の要部の一例を示したフロ
ーチャート。
FIG. 27 is a flowchart showing an example of a main part of a process when operating a screen.

【図28】BASコマンドを受信したときに行う処理の
要部の一例を示したフローチャート。
FIG. 28 is a flowchart showing an example of a main part of a process performed when a BAS command is received.

【符号の説明】[Explanation of symbols]

1 システム制御部 2 ROM(リード・オンリ・メモリ) 3 RAM(ランダム・アクセス・メモリ) 11,12 ビデオカメラ装置 13,14 ビデオモニタ装置 15 多重化ビデオCODEC 25 情報源符号器 26 ビデオ信号多重化符号器 28 制御部 29 メモリ 31 ビデオ信号多重化復号器 32 情報源復号器 SL1,SL2,SL3,SL11,SL12,SL1
3 セレクタ SW1,SW2,SW11 切換器 DF 減算器 CVa 変換器 QZa 量子化器 IQZa,IQZb 逆量子化器 ICVa 逆変換器 SMa,SMb 加算器 MPa1〜MPan,MPb1〜MPbn 画像メモリ FLa,FLb ループ内フィルタ
1 System Control Unit 2 ROM (Read Only Memory) 3 RAM (Random Access Memory) 11, 12 Video Camera Device 13, 14 Video Monitor Device 15 Multiplexed Video CODEC 25 Information Source Encoder 26 Video Signal Multiplexed Code 28 control unit 29 memory 31 video signal multiplex decoder 32 information source decoder SL1, SL2, SL3, SL11, SL12, SL1
3 selector SW1, SW2, SW11 switcher DF subtractor CVa converter QZa quantizer IQZa, IQZb inverse quantizer ICVa inverse converter SMa, SMb adder MPa1 to Mamp, MPb1 to MPbn image memory FLa, FLb loop filter

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 少なくとも音声情報と動画情報をやりと
りする通信機能を備えたテレビ会議通信端末装置におい
て、 複数の動画信号を出力する複数の動画信号出力手段と、 上記複数の動画信号出力手段から出力される複数の動画
信号を入力しておのおのの動画信号に対応した符号化処
理および符号化された動画信号の復号化処理をそれぞれ
多重的に処理する多重化動画CODEC手段と、 上記多重化動画CODEC手段から出力される復号動画
信号の映像を表示するビデオモニタ手段と、 テレビ会議通信の開始に先立って、相手端末との間で動
画信号の多重化能力を交換し、その交換した多重化能力
に従って、テレビ会議通信動作中の上記多重化動画CO
DEC手段の多重化処理を制御する伝送制御手段を備え
たことを特徴とするテレビ会議通信端末装置。
1. A video conference communication terminal device having at least a communication function for exchanging audio information and moving picture information, wherein a plurality of moving picture signal output means for outputting a plurality of moving picture signals and output from the plurality of moving picture signal output means. A plurality of moving image signals that have been input, and a multiplex moving image CODEC unit that multiplexes the encoding process corresponding to each moving image signal and the decoding process of the encoded moving image signals, and the above multiplexed moving image CODEC. The video monitor means for displaying the video of the decoded video signal output from the means and the other terminal exchange the video signal multiplexing capability with the other terminal, and according to the exchanged multiplexing capability. , The above-mentioned multiplexed moving image CO during video conference communication operation
A video conference communication terminal device comprising transmission control means for controlling the multiplexing process of the DEC means.
【請求項2】 前記多重化動画CODEC手段は、1フ
レーム分の全部の画像を符号化するフレーム内符号化処
理と、フレーム間の画像の差分を形成して符号化するフ
レーム間符号化処理を行って動画信号を符号化圧縮する
ものであって、 前記複数の動画信号を切換入力する動画入力手段と、 上記動画入力手段を介して入力される動画信号を符号化
圧縮する共通の符号化手段と、 上記符号化手段が形成した符号を復号化する復号化手段
と、 上記復号化手段が形成した復号化動画信号を、上記複数
の動画信号のおのおのについて1フレーム分記憶する複
数の画像メモリ手段と、 上記複数の動画信号のおのおのをフレーム内符号化処理
をするときには、上記動画入力手段から入力した動画信
号を上記符号化手段により符号化圧縮して符号化情報を
形成するとともに、上記複数の動画信号のおのおのをフ
レーム間符号化処理するときには、上記複数の画像メモ
リ手段から読み出したおのおのの動画信号に対応した復
号化動画信号と、上記動画入力手段から入力したおのお
のの動画信号の差分を形成し、その差分の動画信号を上
記符号化手段により符号化圧縮して符号化情報を形成す
る一方、それぞれの符号化情報には、上記複数の動画信
号のおのおのを識別する識別情報を付加する符号化制御
手段を備えたことを特徴とする請求項1記載のテレビ会
議通信端末装置。
2. The multiplexed moving image CODEC means performs an intra-frame encoding process for encoding all images for one frame and an inter-frame encoding process for forming and encoding a difference between images between frames. A moving picture input means for switching and inputting the plurality of moving picture signals, and a common coding means for coding and compressing a moving picture signal inputted through the moving picture input means. And a decoding means for decoding the code formed by the encoding means, and a plurality of image memory means for storing the decoded moving image signal formed by the decoding means for one frame for each of the plurality of moving image signals. And when performing intra-frame coding processing on each of the plurality of moving picture signals, the moving picture signal input from the moving picture input means is coded and compressed by the coding means to obtain coded information. When forming and performing inter-frame coding processing on each of the plurality of moving picture signals, a decoded moving picture signal corresponding to each moving picture signal read out from the plurality of image memory means and each input from the moving picture input means. While forming a difference between the moving image signals, and encoding and compressing the difference moving image signal by the encoding means to form encoded information, each encoded information identifies each of the plurality of moving image signals. 2. The video conference communication terminal device according to claim 1, further comprising encoding control means for adding identification information to the video conference communication terminal device.
【請求項3】 前記符号化制御手段は、前記複数の動画
信号をおのおのに定められた時間毎でかつフレーム単位
に切り換えることを特徴とする請求項2記載のテレビ会
議通信端末装置。
3. The video conference communication terminal device according to claim 2, wherein the encoding control means switches the plurality of moving image signals at predetermined time intervals and in frame units.
【請求項4】 前記符号化制御手段は、上記複数の動画
信号をあらかじめ定められたフレーム数毎に切り換える
ことを特徴とする請求項2記載のテレビ会議通信端末装
置。
4. The video conference communication terminal device according to claim 2, wherein the encoding control means switches the plurality of moving image signals for each predetermined number of frames.
【請求項5】 前記多重化動画CODEC手段は、 前記符号化手段の逆変換を行って前記符号化情報を復号
化して復号化動画信号を形成する復号化手段と、 上記復号化手段が形成した復号化動画信号を、複数の動
画信号のおのおのについて1フレーム分記憶する複数の
画像メモリ手段と、 復号化する符号化情報に付加されている識別情報に基づ
いて、おのおのの動画信号の符号化処理モードを識別す
るとともに、上記識別情報がフレーム内符号化処理をあ
らわしているときには、その動画信号に関する符号化情
報を上記復号化手段で復号化し、それによって得た復号
化動画信号を出力復号化動画信号として出力するととも
に対応する上記複数の画像メモリ手段に記憶し、上記識
別情報符号化情報がフレーム間符号化処理をあらわして
いるときには、その動画信号に関する符号化情報を上記
復号化手段で復号化するとともに、その動画信号に対応
する復号化動画信号を上記画像メモリ手段より読み出
し、その読み出した復号化動画信号と上記復号化手段か
ら出力された動画信号を加算した結果を出力復号化動画
信号として出力する復号化制御手段を備えたことを特徴
とする請求項2または請求項3または請求項4記載のテ
レビ会議通信端末装置。
5. The multiplexed moving image CODEC unit is formed by the decoding unit, which performs inverse conversion of the encoding unit to decode the encoded information to form a decoded moving image signal. Encoding processing of each moving image signal based on a plurality of image memory means for storing the decoded moving image signal for one frame for each of a plurality of moving image signals and the identification information added to the encoding information to be decoded. In addition to identifying the mode, when the identification information represents intra-frame encoding processing, the encoding information relating to the moving image signal is decoded by the decoding means, and the decoded moving image signal obtained thereby is output to the decoded moving image. When it is output as a signal and stored in the corresponding plurality of image memory means, and the identification information coding information represents interframe coding processing. The decoding means decodes the coded information relating to the moving picture signal, reads the decoded moving picture signal corresponding to the moving picture signal from the image memory means, and reads the decoded moving picture signal and the decoded moving picture signal. 5. The video conference communication terminal device according to claim 2, 3 or 4, further comprising decoding control means for outputting a result obtained by adding the moving picture signals output from the means as an output decoded moving picture signal. .
JP6337497A 1994-12-28 1994-12-28 Video conference communication terminal equipment Pending JPH08186807A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6337497A JPH08186807A (en) 1994-12-28 1994-12-28 Video conference communication terminal equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6337497A JPH08186807A (en) 1994-12-28 1994-12-28 Video conference communication terminal equipment

Publications (1)

Publication Number Publication Date
JPH08186807A true JPH08186807A (en) 1996-07-16

Family

ID=18309212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6337497A Pending JPH08186807A (en) 1994-12-28 1994-12-28 Video conference communication terminal equipment

Country Status (1)

Country Link
JP (1) JPH08186807A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7889864B2 (en) 2005-04-11 2011-02-15 Panasonic Corporation Data processing system and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7889864B2 (en) 2005-04-11 2011-02-15 Panasonic Corporation Data processing system and method

Similar Documents

Publication Publication Date Title
CA2159847C (en) Coded domain picture composition for multimedia communications systems
US5623312A (en) Compressed-domain bit rate reduction system
JPH07162830A (en) Control method for video conference communication equipment
US6313863B1 (en) Image communication apparatus and system
JPH0774830A (en) Multimedia information communication device
JPH08140099A (en) Coding device and method
JPH08186807A (en) Video conference communication terminal equipment
JP3927606B2 (en) Image communication apparatus and system, image receiving apparatus and received image data processing method
JP3521986B2 (en) Video encoding device
JPH07162831A (en) Control method for video conference communication equipment
JPH07298231A (en) Multi-point moving image communication system and its controller and moving communication terminal equipment
JPH09247644A (en) Multi-point controller and video conference communication terminal equipment
JPH09116882A (en) Audio visual communication equipment
JPH0723377A (en) Picture transmitter
JP3383447B2 (en) Conference communication terminal
JP3437191B2 (en) Terminal device and control method of terminal device
JPH07336461A (en) Picture communication equipment
JPH11239331A (en) Multi-point communications system
JPH09247643A (en) Multi-point video conference system
JPH07115627A (en) Pictorial communication terminal equipment
JPH0865649A (en) Multimedia terminal device
JPH09331510A (en) Multi-point controller and video conference communication terminal equipment
JPH05130601A (en) Multi-spot controller
JPH0746553A (en) Picture communication equipment and system therefor
JP3339949B2 (en) Control method of video conference communication terminal