KR20040015062A - 비디오회의시스템에 있어서 프레임 송수신 방법 및 장치 - Google Patents

비디오회의시스템에 있어서 프레임 송수신 방법 및 장치 Download PDF

Info

Publication number
KR20040015062A
KR20040015062A KR10-2003-7011772A KR20037011772A KR20040015062A KR 20040015062 A KR20040015062 A KR 20040015062A KR 20037011772 A KR20037011772 A KR 20037011772A KR 20040015062 A KR20040015062 A KR 20040015062A
Authority
KR
South Korea
Prior art keywords
video
frame
signal
picture
mcu
Prior art date
Application number
KR10-2003-7011772A
Other languages
English (en)
Inventor
치흐-렁 양
첸-유안 쿠오
Original Assignee
치흐-렁 양
첸-유안 쿠오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 치흐-렁 양, 첸-유안 쿠오 filed Critical 치흐-렁 양
Publication of KR20040015062A publication Critical patent/KR20040015062A/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 비디오회의를 위한 장치(14) 및 방법을 제공하는 발명으로서, 다수의 회의 참여자로부터 연속적으로 프레임을 수신하고, 비디오 채널 각각에 관한 정보(14A-14D)를 포함하는 개별 프레임을 다수의 참여자 각각에게 교대로 연속하여 송신하며, 본 발명은 임의의 소정 시점에 비디오회의 참여자 중 하나에 관한 새로운 화상데이터를 송신하기만 하는 방법 및 그 장치(14)이다.

Description

비디오회의시스템에 있어서 프레임 송수신 방법 및 장치{METHOD AND APPARATUS FOR CONTINUOUSLY RECEIVING FRAMES FROM A PLURALITY OF VIDEO CHANNELS AND FOR ALTERNATIVELY CONTINUOUSLY TRANSMITTING TO EACH OF A PLURALITY OF PARTICIPANTS IN A VIDEO CONFERENCE INDIVIDUAL FRAMES CONTAINING INFORMATION CONCERNING EACH OF SAID VIDEO CHANNELS}
기술분야
본 발명은 비디오회의에 관한 것이다. 보다 구체적으로는, 본 발명은 둘 이상의 참여자 각각으로부터 비디오신호를 연속적으로 수신하여 상기 비디오신호를 단일 복합신호로 합성하고, 상기 복합신호를 참여자 각각에 재송신하여 각 참여자가 다른 참여자와 함께 비디오 화면에서 자신을 동시에 볼 수 있도록 하는 비디오회의 장치를 현저히 단순화하여 비용을 감소시키는 비디오회의를 위한 방법 및 장치에 관한 것이다.
또한, 본 발명은 참여자로부터 비디오프레임을 수신하여, 필요시 상기 프레임과 함께 송신된 화상(picture)을 정의하는 픽셀도메인데이터를 전체적으로 또는 부분적으로 변경하지 않고서 상기 프레임의 헤더와 코드화된 도메인데이터를 변경하는 비디오회의 방법 및 장치에 관한 것이다.
또한, 본 발명은 참여자에게 한번에 하나의 비디오채널에서 새로운 정보만을 송신하는 비디오회의 방법 및 장치에 관한 것이다.
배경기술
비디오회의는 둘 이상의 참여자가 음성적으로 그리고 시각적으로 동시에 커뮤니케이션 하는 것을 가능하게 한다. 비디오회의를 가능하게 하는 장치의 사용은 비용, 대역폭제한, 호환성문제, 그리고 전화를 통해서 이루어진 전통적인 음성회의에 비해서 대면회의에 내재된 제한적인 장점 때문에 최근에서야 다소의 성장을 경험하고 있다.
호설정, 호제어와 오디오 및 비디오 코딩-디코딩 또는 코덱포맷을 위한 H.320, H.323, 그리고 H.324 엔빌로프-프로토콜(H.320은 ISDN 네트워크를 위한 프로토콜이고, H.323은 LAN 네트워크를 위한 프로토콜이며, H.324는 표준전화 또는 POTS 접속을 위한 프로토콜임)을 사용하는 비디오장치를 포함하는 많은 상업용 비디오회의시스템은 점대점 비디오회의만을 제공한다. 다지점 비디오회의는 MCU(multi-point control or conference unit)의 사용을 요구한다. MCU는 교환참여모드(switched presence mode)나 연속참여모드 (continuous presence mode)로 동작할 수 있다. 교환참여모드에서는, 하나의 비디오 스트림만이 선택되어 상기 오디오신호 또는 "의장" 교환제어에 기초하여 상기 모든 참여자들에게 송신된다. 연속참여모드에서는, 상기 MCU는 비디오회의의 각 참여자로부터 비디오신호를 수신하고, 상기 신호를 결합하여 단일 하이브리드 신호를 생성하고, 상기 하이브리드 신호를 다시 각 참여자에게 보낸다. 상기 하이브리드 신호는 각 참여자가 한 화면에서 분할된 화면을 사용하여 다른 참여자의 화상을 자신의 화상과 함께 실시간으로 볼 수 있도록 한다. MCU는 그 복잡한 구조와 거대한 계산능력 때문에 현재 보통중앙서버 상에 위치할 필요가 있다. 일부 MCU 시스템 공급자는 자신의 MCU 소프트웨어가 데스크탑 PC에서 운영될 수 있다고 주장한다. 그러나, 이와 같은 MCU 시스템은 분명히 상기 교환참여 다지점 작동만 지원하거나 각 참여자가 별도의 비디오회의 소프트웨어나 장치를 설치하도록 요구하는 전용포맷의 비디오 스트림을 생성한다.
종래의 MCU 시스템을 복잡하게 만들었던 몇몇 요인들은 다음과 같다.
1. 상기 H.263 코덱포맷은 상기 연속참여모드를 허용한다. 상기 연속참여모드에서, MCU는 상기 참여자로부터 4개의 비디오스트림을 수신하여 헤더를 약간 변경하고 그것들을 결합하지 않고 돌려보낸다. 각 참여자의 컴퓨터 또는 기타 장치는 모든 참여자의 화상을 보기 위해서 4개의 비디오스트림 모두를 디코드하여 디스플레이하는 것이 필요하다. 그러나, 상기 H.261 코덱 포맷은 상기 연속참여모드를 허용하지 않는다. 상기 H.261은 상기 H.263 비디오장치를 위해서 필요한 코덱 포맷이다. H.263은 선택사항인 코덱 포맷이다. 또한, H.263을 운영하는 일부 기존 시스템은 H.263 에서는 선택사항인 연속참여모드를 지원하지 않는다.
2. 대부분의 기존 비디오회의시스템은 점대점 비디오회의만을 제공한다.
3. MCU 시스템은 몇 개의 수신 비디오채널을 발신 비디오스트림을 수신하는 상기 장치에 의해서 디코드될 수 있는 단일 발신 비디오스트림으로 합성할 수 있는 경우에만 연속참여 다지점 비디오회의를 제공할 수 있다.
4. MCU 시스템이 몇 개의 수신 비디오채널을 합성할 때, 다음과 같은 문제가 일어난다:
a. 수신 스트림은 H.261 또는 H.263과 같은 상이한 코덱 포맷을 사용할 수 있다.
b. 수신 스트림이 동일한 코덱 포맷을 갖는다고 하더라도, 그것들은 I 화상이나 P 화상과 같은 상이한 화상타입을 가질 수 있다.
c. 수신 스트림이 동일한 코덱 포맷과 동일한 화상타입을 갖는다고 하더라도, 그것들은 각각 상이한 양자화기를 갖거나 이용할 수 있다. 이것은 DCT 계수의 조정을 필요하게 하며 동시에 에러를 유발한다.
d. 상기 각각의 비디오채널에서 각 비디오 프레임은 보통 상이한 시간에 도착한다. 상기 MCU가 각 비디오 채널로부터 프레임 또는 프레임들의 도착을 기다릴 때, 시간지연이 생긴다.
e. 상기 MCU가 각 비디오채널로부터 프레임 또는 프레임들을 기다리면, 상기 MCU의 작동은 사실상 가장 느린 프레임률을 갖는 채널에 의해서 제어된다.
f. 위에서 언급된 비동기 프레임율 문제를 해결하기 위한 기존 기술은 상기 보다 느린 채널을 이전의 이미지로 대체하여, 보다 빠른 채널은 갱신되는 반면 보다 느린 채널은 그대로 유지되도록 한다. 그러나 이러한 관례는 상기 이미지를 버퍼링하기 위해서 상당한 양의 메모리를 차지하며 그것은 각 이미지가 완전히 디코드되고 인코드되어야 함을 의미한다.
따라서, 종래 기술의 MCU 시스템에서 모든 다양한 문제를 피하면서 본질적으로 연속참여 다지점 비디오회의를 제공할 수 있는 개선된 비디오회의시스템을 제공하는 것이 상당히 바람직하다.
그러므로, 본 발명의 주된 목적은 개선된 비디오회의시스템을 제공하는 것이다.
본 발명의 추가적인 목적은 연속참여 다지점 비디오회의시스템을 제공하는 개선된 방법 및 장치를 제공하는 것이다.
또 다른 목적은 기존 다지점 비디오회의시스템을 현저히 단순화하고 비용을 감소시키는 개선된 연속참여 다지점 비디오회의시스템을 제공하는 것이다.
이것들과, 그 밖의 추가적이고 보다 구체적인 본 발명의 목적은 첨부된 도면과 결부시켜 이루어진 아래의 설명을 토대로 당업자에게 더욱 명확해질 것이다.
발명의 상세한 설명
도 1은 본 발명에 따른 비디오회의시스템에서 참여자의 화면을 도시하는 도면,
도 2는 상기 비디오 이미지의 상단 좌측 사분면이 변경되고 있을 때, 상기 비디오 이미지의 상단 우측 사분면이 변경되고 있을 때, 상기 이미지의 하단 좌측 사분면이 변경되고 있을 때, 그리고 상기 이미지의 하단 우측 사분면이 변경되고 있을 때 상기 발신 H.263 비디오스트림에 포함된 정보를 도시하는 도면,
도 3은 발신 H.261 CIF 비디오스트림의 상단 좌측 사분면에 대한 수신 QCIF 프레임을 도시하고 상기 발신 H.261 CIF 비디오스트림에 포함된 정보를 표시하고, 발신 H.261 CIF 비디오스트림의 상단 우측 사분면에 대한 수신 QCIF 프레임을 도시하고 상기 발신 H.261 CIF 비디오 프레임에 포함된 정보를 표시하고, 발신 H.261 CIF 비디오스트림의 좌측 하단에 대한 수신 QCIF 프레임을 도시하고 상기 발신H.261 CIF 비디오스트림에 포함된 정보를 표시하고, 그리고 발신 H.261 CIF 비디오스트림의 좌측 하단에 대한 수신 QCIF 프레임을 도시하고 상기 발신 H.261 CIF비디오스트림에 포함된 정보를 표시하는 도면,
도 4는 수신 H.262 QCIF 화상 프레임의 모션벡터데이터(MVD)가 상기 CIF 화상에서 다른 매크로블록(MB)을 참조하기 때문에 발신 H.263 CIF 프레임에 병합될 때 어떻게 재조정되어야 하는지를 도시하는 도면,
도 5는 수신 QCIF I 화상과 수신 QCIF P 화상으로부터 상기 H.263 포맷을 사용하여 생성된 CIF 비디오스트림에 포함된 정보를 도시하고,
도 6은 수신 QCIF 프레임 내의 그룹번호(GN)가 H.261로 부호화된 상기 QCIF 프레임이 H.261로 부호화된 발신 CIF 비디오스트림에 병합될 때 어떻게 변경되는지를 도시하는 다이어그램이다.
비디오회의 동안에, 비디오 데이터는 네트워크를 통해서 보내기 전에 패킷으로 분할된다. 패킷은 네트워크를 통해서 여행하는 독립된 개체이고 화상 프레임 하나 또는 일부를 포함한다. 각 패킷의 헤더는 당해 패킷이 프레임의 종단을 포함하고 있는지 여부와 같은 당해 패킷에 대한 정보를 제공한다. 이러한 프레임의 종단 패킷과 이전 패킷을 가지고 상기 MCU는 새로운 화상 프레임에 대한 모든 데이터를 얻는다. 그러므로, MCU는 상기 패킷 헤더만 읽으면 새로운 프레임이 비디오 채널에서 수신되는지를 구분할 수 있다. 또한, 비디오회의가 막 시작되었을 때, 임의의 비디오 패킷이 송신될 수 있기 전에, 어떤 종류의 비디오 코덱이 사용되는지와 같은 각 참여자의 성능을 점검하는 호설정 프로세스가 있다. 일단 상기 호설정이 이루어지면, 각 비디오 채널은 어떤 표준 코덱 포맷 즉, H.261 또는 H.263으로만 비디오스트림을 운반한다.
간략히, 본 발명에 의해서, 적어도 제1 및 제2 수신 비디오 채널로부터 프레임을 수신하고, 상기 제1 비디오스트림을 수신하고 상기 두개의 수신 비디오 채널로부터의 이미지를 포함하는 비디오 이미지를 생성하는 제1 설비장치에 적어도 제1 발신 비디오스트림 내의 개별 프레임을, 그리고 상기 제2 비디오스트림을 수신하고 상기 두개의 수신 비디오 채널로부터의 화상을 포함하는 비디오 이미지를 생성하는 제2 설비장치에 제2 발신 비디오 스트림내의 개별 프레임을 교대로 연속해서 송신하는 개선된 방법을 제공한다. 상기 방법은 이용 가능한 새로운 프레임이 있을 때 상기 새로운 프레임의 코덱 포맷을 적어도 상기 제1 설비장치의 포맷과 매칭시키는 단계; 상기 새로운 프레임의 코덱 포맷을 상기 제1 설비장치의 포맷과 매칭시킨 후, 필요하다면 상기 이용 가능한 프레임 내의 적어도 하나의 헤더와 부호화된 도메인데이터를 선택된 화상 포맷에 따라서 변경함으로써 정정된 프레임을 생성하는 단계; 새로운 프레임을 전혀 제공하지 않는 상기 비디오 채널을 위해서 상기 화상에 변화가 없음을 표시하는 정상상태 데이터를 생성하는 단계; 상기 생성된 정정프레임과 정상상태 데이터를 결합하여 상기 제1 발신 비디오스트림에 비디오 신호를 생성하는 단계를 포함한다. 상기 제1 설비장치는 상기 비디오 신호를 수신하고, 상기 정정프레임으로부터 생성되고 상기 채널 중 하나로부터의 화상을 포함하며, 상기 제1 설비장치에 의해서 상기 비디오 신호의 수신에 앞서 존재하는 상기 잔존하고 상기 비디오 신호내의 상기 정상상태 데이터를 기초로 변하지 않고 남아있는채널로부터의 화상을 포함하는 비디오 이미지를 생성한다.
본 발명의 또 하나의 실시예에서, 적어도 제1 및 제2 수신 비디오채널로부터 프레임을 수신하고, 상기 제1 비디오스트림을 수신하여 상기 수신 비디오채널 양자로부터의 화상을 포함하는 비디오 이미지를 생성하는 제1 설비장치로 적어도 제1 발신 비디오스트림내의 개별 프레임을, 그리고 상기 제2 비디오스트림을 수신하여 상기 수신 비디오채널 양자로부터의 화상을 포함하는 비디오 이미지를 생성하는 제2 설비장치로 적어도 제2 발신 비디오스트림내의 개별 프레임을 교대로 연속적으로 송신하는 개선된 장치를 제공한다. 상기 개선된 장치는, 이용 가능한 새 프레임이 있을 때 상기 새 프레임의 코덱포맷을 적어도 상기 제1 설비장치의 코덱포맷과 매칭시키는 장치; 상기 새 프레임의 코덱포맷이 상기 제1 설비장치의 코덱포맷과 매칭된 후, 필요하면 선택된 화상포맷에 따라서 새 프레임에 있는 적어도 하나의 헤더와 부호화된 도메인 데이터를 변경함으로써 개선된 프레임을 생성하는 장치; 상기 개선된 프레임과 상기 정상상태 데이터를 결합하여 상기 제1 발신 비디오 스트림내의 비디오신호를 생성하는 장치를 포함한다. 상기 제1 설비장치는 상기 비디오 신호를 수신하여, 상기 비디오신호 내의 상기 정정프레임으로부터 생성되고 상기 채널 중 하나로부터의 화상을 포함하며, 상기 제1 설비장치에 의한 상기 비디오 신호의 수신에 앞서 존재하고 상기 비디오 신호내의 상기 정상상태 데이터를 기초로 변하지 않고 남아있는 다른 채널로부터의 화상을 포함하는 비디오 이미지를 생성한다.
본 발명의 추가적인 실시예에서, 적어도 제1 및 제2 수신 비디오채널로부터프레임을 수신하고, 상기 제1 비디오스트림을 수신하여 상기 수신 비디오채널 양자로부터의 화상을 포함하는 비디오 이미지를 생성하는 제1 설비장치로 적어도 제1 발신 비디오스트림내의 개별 프레임을, 그리고 상기 제2 비디오스트림을 수신하여 상기 수신 비디오채널 양자로부터의 화상을 포함하는 비디오 이미지를 생성하는 제2 설비장치로 적어도 제2 발신 비디오스트림내의 개별 프레임을 교대로 연속적으로 송신하는 개선된 방법을 제공한다.
상기 개선된 방법은, 이용 가능한 새 프레임이 있을 때 상기 부호화된 도메인데이터를 완전히 디코딩하지 않고 상기 프레임 내의 상기 부호화된 도메인데이터를 사용하는 단계; 그리고, 필요하면 상기 제1 발신 비디오스트림 내의 비디오신호를 생성하기 위해서 적어도 하나의 헤더와 부호화된 도메인 데이터를 변경하는 단계를 포함한다. 상기 제1 설비장치는 상기 비디오 신호를 수신하여 비디오 이미지를 생성한다. 상기 비디오신호 내의 상기 정정프레임으로부터 생성되고 상기 채널 중 하나로부터의 화상을 포함하며, 상기 제1 설비장치에 의한 상기 비디오 신호의 수신에 앞서 존재하고 상기 비디오 신호내의 상기 정상상태 데이터를 기초로 변하지 않고 남아있는 다른 채널로부터의 화상을 포함하는 비디오 이미지를 생성한다. 상기 비디오 이미지는 상기 부호화된 도메인 데이터로부터 발생된 상기 채널 중 하나를 위한 화상을 포함한다.
이제 본 발명의 범위를 제한하는 수단이 아니고 그 동작과 용도를 설명할 목적으로 본 발명의 현재 발탁된 실시예를 설명하는 도면으로 관심을 전환하자. 몇 개의 도면에 걸쳐 참조문자가 대응하는 요소를 지칭하는 것처럼 여기서 이용되는용어 및 그 정의는 다음과 같다.
블록 : 블록은 비디오신택스에서 계층의 네 번째 레이어(layer)이다. 한 블록을 위한 데이터는 변환계수에 대한 부호어를 구성된다. 블록의 크기는 8 X 8 이다. 이 용어는 H.261 과 H.263 포맷 양자에서 사용된다.
색차 : 같은 광도를 갖는 선정된 기준색과 임의의 색 사이에서 양적인 측정에 의해서 결정된 차이, 상기 기준색은 지정된 색품질을 갖는다. 이 용어는 H.261, H.263 및 기타 코덱포맷과 관련하여 사용된다.
CIF : CIF 는 Common Intermediate Format을 약어를 나타낸다. CIF는 휘도가 수평라인 당 352 픽셀인 288 라인과 색차가 수평라인 당 176 픽셀인 144라인을 갖는 화상 포맷이다.
COD : COD 는 부호화된 매크로블록지시(coded macroblock indication)를 나타내며, H.263 코덱포맷과 관련하여 사용된다. 하나의 COD는 INTER 화상내의 매크로블록(MB)의 헤더에 있는 하나의 데이터 비트이다. 만일 상기 데이터 비트가 "1"로 설정되면, 더 이상의 정보는 송신되지 않고; 다시 말해서, 이 매크로블록과 관련되고 이것에 의해서 한정된 화상은 참여자의 화면상에서 변경되지 않고 똑같다.
부호화된 도메인 데이터 : 이것은 부호화 압축 데이터이다. 본 발명의 현재 선호된 실시예에서 상기 MCU 는 부호화된 도메인 QCIF 데이터를 받고 부호화된 도메인 CIF 데이터를 보낸다. 이 용어는 H.261, H.263 및 기타 코덱포맷과 관련하여 사용된다.
CPBY : CPBY 는 휘도에 대한 부호화된 블록 패턴(coded block pattern forluminance)를 나타내며, H.263 코덱 포맷과 관련하여 사용된다. 하나의 CPBY는 상기 매크로블록 내에 있는 데이터를 설명하는 매크로블록(MB)의 헤더에 있는 가변길이 부호어이다.
DCT : DCT 는 Discrete Cosine Transformation 의 약어를 나타낸다. 이 변환은 데이터를 압축하여 불필요한 정보를 제거하기 위해서 사용된다. DCT 는 참여자의 부호화장치에 의해서 사용된다. 이 용어는 H.261, H.263 및 기타 코덱포맷과 관련하여 사용된다.
프레임 : 프레임은 비디오 채널 또는 다른 비디오 스트림에서 연속적인 일련의 화상에 있는 하나의 디지털 화상이다. 이 용어는 H.261, H.263 및 기타 코덱포맷과 관련하여 사용된다.
프레임률 : 프레임률은 MCU가 수신하는 초당 프레임의 율이다. 상기 프레임률은 현재 통상 대략 초당 30 프레임이다. 이 용어는 H.261, H.263 및 기타 코덱포맷과 관련하여 사용된다.
GOB : GOB 는 블록의 그룹(group of block)을 나타낸다. 하나의 GOB는 비디오 신택스에서 계층의 두 번째 레이어이다. 이 용어는 H.261 및 H.263 코덱포맷과 관련하여 사용된다.
GN : GN 은 블록번호의 그룹(group of block number)을 나타낸다. 하나의 GN은 한 그룹의 블록에 대해서 H.261 헤더에서는 4비트, H.263 헤더에서는 5비트로 구성된다. H.261에서의 GN 만이 본 발명의 실행에서 사용된다. 상기 데이터 비트는 화상에서 상기 블록그룹의 위치, 즉 상단 좌측, 상단 우측, 하단 좌측, 하단 우측을 지시한다.
헤더(또는 헤더파일) : 헤더는 화상, 블록그룹, 매크로블록, 또는 정보블록의 시작에 포함된 정보이다. 상기 헤더는 상기 헤더에 후속하는 정보를 설명한다. 이 용어는 H.261 및 H.263 코덱포맷과 관련하여 사용된다.
수평성분 : 수평성분은 수평주사선에 대한 픽셀이다. 이 용어는 H.261 및 H.263 코덱포맷과 관련하여 사용된다.
H.261 코덱포맷 : 디지털 비디오 데이터를 코딩 및 디코딩하는 표준 포맷이다. 이 포맷은 ITU-T에 의해서 제공된다.
H.263 코덱포맷 : 디지털 비디오 데이터를 코딩 및 디코딩하는 표준 포맷이다. 이 포맷은 ITU-T에 의해서 제공된다.
IDCT : IDCT 는 역 불연속 코사인 변환(inverse discrete cosine transformation)을 나타낸다. IDCT는 상기 DCT를 반대로 하거나 디코딩하기 위해서 사용된다. 이 용어는 H.261 및 H.263 코덱포맷과 관련하여 사용된다.
INTRA : 이것은 I-화상 이다. 하나의 INTRA는 화상 또는 예측목적을 위한 기준 화상(들)을 갖지 않는 매크로블록 타입이다. 이 용어는 H.263 코덱포맷과 관련하여 사용된다.
INTER : 이것은 P-화상 이다. 하나의 INTER는 화상 또는 시간적으로 선행하는 기준 비디오 데이터를 갖는 매크로블록 타입이다. 이 용어는 H.263 코덱포맷과 관련하여 사용된다.
레이어(Layer) : 레이어는 비디오 신택스에서 계층의 한 레벨이며, 다량의디지털 데이터 또는 정보를 포함한다.
하위 레이어 : 하위레이어는 비디오 신택스의 한 레이어이며 상위 레이어의 일부이고 상기 화상 레이어보다 하위이다. 이 용어는 H.261 및 H.263 코덱포맷과 관련하여 사용된다.
휘도 : 단위 투영영역 당 소정의 방향에서 표면의 광도이다. 이 용어는 H.261, H.263, 및 다른 코덱포맷과 관련하여 사용된다.
매크로블록 : 매크로블록(MB)은 디지털 데이터 또는 정보이다. 매크로블록은 블록과 하나의 헤더를 포함한다. 이 용어는 H.261 및 H.263 코덱포맷과 관련하여 사용된다.
매핑 : 필요시 상기 비디오 신택스에 있는 헤더와 부호화된 도메인 데이터를 H.261 또는 H.263 QCIF 프레임을 위해 수정하여 상기 QCIF 프레임이 상기 CIF 프레임 영역의 1/4(또는 일부 다른 부분)에 상기 QCIF 데이터를 갖는 H.261 또는 H.263 프레임처럼 보이도록 하는 것이다. 비록 매핑이 헤더와 상기 부호화된 도메인 데이터와 같은 다른 정보를 변경 또는 변화시키더라도, 보통 비디오 장치의 참여자 화면에 생성된 참여자의 화상을 구성하는 픽셀을 정의하는 신호의 부분을 변경하지는 않는다. 이 용어는 H.261 및 H.263 코덱포맷과 관련하여 사용된다.
MB : 위에서 정의된 매크로블록을 나타낸다.
MBA : 매크로블록 어드레스를 나타낸다. MBA는 한 블록그룹내에서 MB의 위치를 지시하는 MB의 헤더에 있는 가변길이 부호어이다. 이 용어는 H.261 코덱포맷과 관련하여 사용된다.
MCBPC : 색차에 대한 매크로블록 타입과 부호화된 블록패턴을 가리키고, 매크로블록의 헤더에 있는 가변길이 부호어로 이루어진다. 이 용어는 H.263 코덱포맷과 관련하여 사용된다.
MCU : MCU는 다지점 제어(또는 회의)유닛(multi-point control(or conference) unit)를 나타낸다. 종래의 MCU는 교환참여형식이나 연속참여형식으로 동작할 수 있다. 상기 교환참여형식에서는, 상기 MCU는 하나 이상의 참여자로부터 비디오 비트스트림을 수신하고, 상기 비디오 비트스트림 중 하나만을 선택하여 그것을 비디오회의 각 참여자에게 동시에 송신한다. 상기 연속참여형식에서는, 상기 MCU가 하나 이상의 참여자로부터 비디오 비트스트림을 수신하고, 각 스트림을 비디오회의 각 참여자에게 분할스크린 포맷으로 동시에 송신한다. 본 발명의 실시에서 이용된 상기 MCU는 어떤 순간에도 하나의 수신 비디오신호 중 한 프레임과 상기 프레임에 추가된 몇몇 추가적인 데이터만을 송신함으로써 비디오회의 참여자에게 프레임의 재송신을 용이하게 한다. 이 용어는 H.261, H.263, 및 다른 코덱포맷과 관련하여 사용된다.
MVD : MVD는 모션 벡터 데이터(motion vector data)를 나타낸다. MVD는 상기 수식성분에 대한 가변길이 부호어가 뒤따르는 상기 수평성분에 대한 매크로블록의 헤더에 있는 가변길이 부호어이다. 이 용어는 H.263 코덱포맷과 관련하여 사용된다.
NOT COD : NOT COD 는 상기 COD가 "1"로 설정됨을 의미한다. 이 용어는 H.263 코덱포맷과 관련하여 사용된다.
비참조 화상(Non-reference picture) : 비참조 화상은 상기 MCU에 의해서 참여자로부터 수신된 생략된 화상 프레임이며, 상기 MCU에 의해서 생략되어 재송신되지 않는다. 상기 비참조 화상 프레임은 보통 상기 MCU에 의해서 방금 전에 송신된 프레임과 동일하거나 거의 동일하기 때문에 재송신되지 않는다. 이 용어는 H.261 및 H.263 코덱포맷과 관련하여 사용된다.
화상 : 화상은 비디오 신택스에서 첫 번째 레이어이다. 화상에 포함된 정보는 상기 GOB를 더한 헤더이다. 이 용어는 H.261 및 H.263 코덱포맷과 관련하여 사용된다.
점대점 기능 : 점대점 비디오회의에서는 단지 두 참여자만이 포함된다. 이와 같은 시스템은 첫 번째 사람의 화상이 두 번째 사람에게 또는 반대로 보내지는 것을 허용한다. 첫 번째 사람의 비디오는 두 번째 사람에게 보내지기 전에는 또 다른 사람의 비디오에 합성되지 않는다.
QCIF : QCIF는 Quarter-Common Intermediate Format의 약어이다. QCIF는 휘도가 176 x 144 픽셀을 갖고 색차는 88 x 72 픽셀을 갖는 화상 포맷이다.
양자기(quantizer) : 양자기는 상기 화상 데이터의 정확도를 지시하는 데이터이다.
TR : H.263 코덱포맷과 관련되어 사용될 때, 상기 TR은 화상 레이어의 헤더에 있는 8비트 데이터로 구성된다. 이 데이터는 이전에 송신된 화상 이후로 시간적으로 선행하는 기준 화상 헤더 내의 값을 생략되거나 기준이 아닌 화상의 수를 더한 것에 의해 화상 클럭주파수로 증가시켜서 생성된다.
비디오 신택스(syntax) : 비디오 신택스는 비디오 프레임을 설명하고 정의하는 디지털화된 데이터이다. 비디오 신택스는 비디오 프레임에 포함된 한정된 정보의 정렬이다. 상기 정보는 다음과 같은 네 개의 레이어를 갖는 계층적인 구조로 정렬된다.
화상
블록그룹(GOB)
매크로블록(MB)
블록
각 레이어는 헤더파일을 포함한다.
본 발명에 대한 본 실시예의 다음 설명에서는, 비디오회의에 네 명의 참여자가 있고 각 참여자는 본 발명에 따라서 제작된 MCU에 의해서 받은 비디오채널을 구비하는 비디오신호를 생성하는 비디오회의 장치를 갖는 것으로 가정한다. 당업자에 의해서 인식되는 바와 같이, 본 발명의 장치 및 방법은 비디오회의에 2명 이상의 참여자가 있을 때 이용될 수 있다. 본 발명의 장치 및 방법은 보통 3명 이상이 비디오회의에 참석할 때 이용된다.
본 발명의 비디오회의시스템에서, MCU는 발신 CIF 신호를 발생시킨다. MCU는 상기 발신 CIF 신호를 직교 사분면, 즉 상단좌측 사분면, 상단우측 사분면, 하단좌측 사분면, 하단우측 사분면으로 분할한다. 참여자로부터의 각 수신채널은 하나의 QCIF 신호를 구비한다. 각 채널은 상기 발신 CIF 신호의 직교 사분면 중 하나에 할당된다. 한 프레임이 상기 채널중 하나에 있는 상기 MCU에 도착할 때, 상기 프레임은 상기 MCU에 의해서 상기 채널을 위해서 예비되거나 선택된 발신 CIF신호의 직교사분면에 할당된다.
다양한 코덱포맷이 존재하고 본 발명에 병합될 수 있다는 것을 이해한다. 그러나, 다음 논의를 위해서 비디오회의의 각 참여자에 의해서 이용된 상기 비디오 장치는 H.261 또는 H.263 코덱포맷을 이용한다고 가정한다. 그리고 더욱 구체적으로는, 상기 수신 신호(10)(첫 번째 참여자로부터의)는 H.261 코덱포맷을 이용하고, 도 1에서 수신 신호(11)(두 번째 참여자로부터의), 수신 신호(12)(세 번째 참여자로부터의), 수신 신호(13)(네 번째 참여자로부터의)는 H.263 코덱포맷을 이용한다고 가정한다. 이것은 첫 번째 참여자를 위해서 상기 MCU에 의해서 생성된 발신 신호(14)(도 1)는 H.261 코덱포맷을 이용하고, 두 번째, 세 번째, 그리고 네 번째 참여자를 위해서 상기 MCU에 의해서 생성된 발신신호(14)는 H.263 코덱포맷을 이용할 것임을 의미한다.
MCU는 항상 기본적으로 상기 발신 CIF신호의 1/4 사분면을 갱신하고 있기 때문에, 본 발명의 MCU의 구조는 종래의 MCU에 비해서 단순해지고, 종래의 MCU에 비해서 본 발명의 MCU를 동작시키기 위해서 요구되는 계산능력이 현저하게 감소된다. 또한, 본 발명의 MCU는 종래의 MCU에 대비하여 부호화된 도메인 데이터(일반적으로 상기 부호화된 데이터를 도메인 데이터를 디코딩하지 않고)를 재정렬하는 것에만 작용하므로 본 발명의 MCU는 단지 소량의 메모리를 필요로 한다. 복잡성, 계산능력, 및 메모리 크기의 이러한 감소는 종래의 PC가 본 발명의 실행에서 사용되는 것을 가능하게 한다. 상술한 바와 같이, 본 실시예를 위해서, 비디오회의에 네 명의참여자가 있다고 가정한다. 첫 번째 참여자의 비디오 장치는 수신 QCIF 신호(10)을 구비하는 채널을 생성한다. 두 번째 참여자의 비디오 장치는 수신 QCIF 신호(11)를 구비하는 채널을 생성한다. 세 번째 참여자의 비디오 장치는 수신 QCIF 신호(12)를 구비하는 채널을 생성한다. 네 번째 참여자의 비디오 장치는 수신 QCIF 신호(13)를 구비하는 채널을 생성한다. QCIF 신호를 구비하는 채널을 생성하기 위해서 각 참여자에 의해서 사용된 카메라, 컴퓨터, CRT, 또는 다른 비디오 스크린, 및 기타 비디오 장치는 당업자에게는 잘 알려져 있으며 여기서는 상세하게 설명되지 않을 것이다.
상기 MCU는 상기 수신 QCIF 신호(10, 11, 12, 13)를 수신하고 그것들을 결합하여 발신 CIF신호(14)를 만든다. 도 1을 보라. 각 QCIF 신호는 디지털 프레임 또는 화상의 스트림을 구비한다. QCIF 신호(10)에 있는 디지털 프레임은 발신 CIF신호(14)의 상단좌측 사분면을 갱신하기 위해서 이용된다. QCIF 신호(11)에 있는 디지털 프레임은 발신 CIF신호(14)의 상단우측 사분면을 갱신하기 위해서 이용된다. QCIF 신호(12)에 있는 디지털 프레임은 발신 CIF신호(14)의 하단좌측 사분면을 갱신하기 위해서 이용된다. QCIF 신호(13)에 있는 디지털 프레임은 발신 CIF신호(14)의 하단우측 사분면을 갱신하기 위해서 이용된다. 본 발명에 대한 본 실시예에서, 상기 MCU에 의해서 새로운 CIF신호(14)가 생성될 때마다, 상기 새로운 CIF 신호는 기본적으로 상기 CIF 신호의 한 사분면의 화상을 변경시키기만 하는 정보를 포함한다. 당업자에 의해서 평가될 것이지만, 본 발명에 의하면 새로운 CIF 신호(14)가 생성될 때마다 상기 CIF 신호의 두 개 이상 사분면의 사진이 변경되도록 구성하는 것이 가능하다. 그러나, 본 발명의 실시예에서는, 새로운 CIF가 상기 MCU에 의해서 생성될 때마다, 상기 CIF의 한 사분면에 있는 화상만이 변경된다.
본 기술분야의 당업자에 의해서 인식될 수 있는 바와 같이, 각 수신 채널은 서브-QCIF 신호를 구비할 수 있고, 상기 발신 신호는 각 서브-QCIF 화상의 일부를 포함하는 QCIF 신호일 수 있다. 공지된 바와 같이, 서브-QCIF 신호는 QCIF 신호크기의 1/4이 아니다. 각 서브-QCIF 화상의 일부를 추출함으로써, 이 부분들을 합하면 QCIF 신호가 될 수 있다. 또는, 각 수신 채널은 CIF 신호를 포함할 수 있고 상기 발신 신호는 4CIF 신호일 수 있다. 또는, 각 수신 채널은 4CIF 신호를 포함할 수 있고 상기 발신 신호는 16CIF 신호 등이 될 수 있다. 또는, 다른 표준화된 또는 비표준의 화상 포맷이 채용될 수 있다. H.263의 연속참여모드에서, 기껏해야 4 개의 비디오 신호가 송신될 수 있다. 이것은 예를 들어 각각이 4개의 QCIF 화상을 포함하는 4개의 CIF 화상은 합해져서 16 참여자의 화상을 포함하는 하나의 4CIF가 될 수 있는 본 발명의 몇몇 가능한 실시예의 성능에 직접 대비된다. 또한, 다른 크기의 화상도 본 발명에 수용될 수 있다. 예를 들어, 하나의 발신 4CIF 신호는 그 상단좌측과 상단우측 사분면의 2개 수신 CIF신호를 포함하는 반면에, 그 하단좌측과 하단우측 사분면은 8개의 QCIF 신호를 포함할 수 있다.
하나의 신호(10)는 새로운 프레임 또는 화상을 신호(11, 12, 13)보다 더 높거나 낮은 레이트로 상기 MCU에 송신한다는 것을 알 수 있다. 상기 MCU는 기본적으로 선착순처리에 기초하여 동작하기 때문에, 이것은 상기 MCU의 동작을 변화시키지는 않는다. 예를 들어, 상기 MCU는 신호(10 ~ 13)로부터 프레임 또는 화상을 수신하자마자 프레임을 처리하고 CIF 신호(14)를 생성하여 각 참여자의 비디오장치에 송신한다. 그 다음 상기 MCU는 수신하는 다음 프레임을 처리하고 CIF 신호(14)를 생성하여 각 참여자의 비디오장치에 송신하는 것을 계속한다. 상기 참여자들 중 하나의 장치는 H.261포맷을 사용하고 나머지 참여자들의 장치는 H.263포맷을 사용하기 때문에, 상기 MCU가 신호(10 ~ 13) 중 하나에 의해서 프레임을 수신하여 처리할 때마다, 상기 MCU는 H.261 코덱포맷의 CIF신호(14)와 H.263 코덱포맷의 CIF신호(14) 양자를 생성한다.
만일 수신 QCIF 신호(10)가 H.261 코덱포맷이고 발신 CIF신호가 H.263 코덱포맷이면, 상기 MCU가 H.263 코덱포맷으로 발신 신호(14)를 발생시키고 있을 때, 상기 신호(10)로부터의 프레임은 H.261 코덱포맷에서 H.263 코덱포맷으로 변환된다. 마찬가지로, 수신 QCIF 신호(11 ~ 13)가 H.263 코덱포맷이고 발신 CIF신호가 H.261 코덱포맷이면, 상기 신호(11 ~ 13)로부터의 프레임은 상기 MCU가 H.261 코덱포맷의 발신 신호(14)를 발생시키고 있을 때 H.263 코덱포맷에서 H.261 코덱포맷으로 변환된다.
실시예
Ⅰ부 : H.263 코덱포맷으로 송신된 CIF신호
본 실시예의 이 부분에서는, 상기 MCU가 수신신호(10 ~ 13)를 처리하여 H.263 코덱포맷으로 발신신호(14)를 생성하고, 상기 발신신호(14)는 상술한 첫 번째, 두 번째, 및 세 번째 참여자에게 보내지는 것으로 가정한다.
상기 MCU는 상기 수신신호(10 ~ 13)를 모니터하고 신호(10 ~ 13) 중 하나로부터 새로운 프레임이 수신되기를 기다린다. 신호(10)는 새로운 QCIF 프레임을 상기 MCU에 송신하는 첫 번째 신호이다. 상기 MCU는 프레임의 코덱포맷을 H.261에서 H.263 으로 바꾸기 위해서 상기 QCIF 프레임의 헤더와 부호화된 도메인 데이터를 변경한다. 상기 변경된 헤더는 상기 프레임이 INTER 화상(즉, P화상)임을 지시한다. 상기 MCU는 상기 첫 번째 참여자의 비디오 화상을 한정하는 프레임내의 디지털 데이터(즉, 상기 부호화된 도메인 데이터)를 보유한다. 첫 번째 참여자의 비디오 화상을 한정하는 디지털 데이터가 상기 MCU에 의해서 재정렬되더라도, 상기 비디오 화상의 결과는 상기 MCU에 의해서 바뀌지 않거나 거의 바뀌지 않는다.
상기 MCU는 도 2에 도시된 발신 CIF신호(14A)를 준비한다. 먼저, CIF의 화상타입과 INTER(P 화상)의 화상코딩타입을 갖는 CIF 화상헤더가 생성된다. 그 다음, 적당한 시간적 기준이 상기 화상에 할당된다. 상기 시간적 기준은 비송신된 화상의 수를 지시한다. B(양방향보간법(bidirectional-interpolation))화상이 사용될 때, 상기 시간적 기준은 얼마나 많은 화상이 생략되는지 그리고 어떻게 상기 생략된 화상을 보간하는지를 지시한다. 본 발명의 방법은 B화상이 사용될 때 작동하지 않는다. 그러므로, 상기 시간적 기준은 각 화상에 대해서 1씩 증가된다. 상기 H.263 코덱포맷은 본 발명의 실시에서 현재 이용되지 않는 프레임 생략 특성을 포함하지 않는다.
QCIF 신호(10)에서 수신된 프레임은 발신 CIF신호(14)의 상단좌측 사분면에 할당되기 때문에, 상기 MCU는 신호(10)를 통해서 수신하는 QCIF신호를 H.261 코덱포맷에서 H.263 코덱포맷으로 변환함으로써 상기 MCU에 의해서 생성된 QCIF 프레임을 상기 발신 CIF 신호(14)의 상단좌측 사분면에 삽입한다. 상기 MCU는 CIF 신호(14A)의 상단좌측 및 상단 및 우측 사분에 대한 MB 헤더에 도 2의 CIF신호(14A)에 도시된 바와 같은 NOT COD를 지시하는 수 또는 "1"을 삽입한다.
상기 새로운 QCIF 프레임은 상단좌측 사분면에 있기 때문에, QCIF 프레임내의 처음부터 끝까지 각 GOB 데이터는 상기 CIF 화상내의 상이한 MVD를 참조할 수 있으므로 필요한 MVD 수정을 경험한다. 도 4에서 x 표시된 MB들 내의 MVD만이 변하지 않는다. 각 GOB는 상기 필요한 수정을 행한 후에, 상기 상단우측 사분면에 대한 11개의 MB 헤더(각각은 NOT COD를 명시하기 위해서 비트 "1"이 할당됨)와 링크되어 새로운 CIF GOB가 된다. 상기 하단좌측 및 하단우측 사분면에 대한 MB헤더의 각각은 NOT COD를 명시하기 위해서 비트 "1"로 채워진다.
도 2에는 결과적인 발신 CIF 신호(14A)가 도시되어 있다. 이 신호가 송신되고 참여자 2, 3, 4에 의해서 수신될 때, 이들 참여자의 비디오 장치는 도 14A의 상단좌측 사분면에 도시된 화상을 각 참여자의 CRT 또는 다른 화면의 각각에 보여진 비디오 화상의 상단좌측 사분면에 삽입한다. 상기 CRT 상의 나머지 사분면에 보여진 화상은 변하지 않는다.
상기 MCU는 CIF 신호(14A)를 참여자(2, 3, 4)로 송신한다. CIF신호(14A)를 송신한 후, 상기 MCU는 상기 수신 신호(10 ~ 13)를 순환순서(round-robin) 방식으로 다시 모니터한다. 신호(11)가 새로운 프레임을 포함하고 있는지 알기 위해서 체크된다. 신호(11)가 새로운 프레임을 포함하지 않으면, MCU는 계속 이동하여 채널(12)이 새로운 프레임을 포함하고 있는지를 계속해서 체크한다. 신호(11)가 새로운 프레임을 포함하면, 다음 절차가 이어진다.
상기 프레임은 이미 H.263 코덱포맷이므로, 상기 프레임을 H.261 코덱포맷으로부터 H.263 코덱포맷으로 바꿀 필요는 없다.
이 프레임은 INTRA 화상(I 화상)임을 알게된다. 상기 MCU는 그것을 INTER 또는 P 화상으로 변환한다.
상기 매크로블록 수준에서, MB 타입은 INTRA로 설정되거나 또는 양자기가 수정되면 INTRA + Q로 설정되고, COD가 추가된다. MCBPC는 상기 I화상을 위한 테이블로부터 상기 P화상을 위한 테이블로 이전된다. CBPY는 그 오리지널 값의 보수를 취한다. 필요한 경우 INTER 화상을 표시하기 위해서 헤더와 부호화된 도메인 데이터를 바꾸는 이 절차는 본 발명이 속하는 기술분야의 당업자에게 잘 알려져 있다.
상기 MCU는 도 2에 도시된 발신 CIF신호를 준비한다. 먼저, CIF 화상 타입과 INTER(P 화상)화상 코딩타입을 갖는 CIF 화상 헤더가 생성된다. 그 다음, 적당한 시간적 기준이 상기 화상에 할당된다. 상기 시간적 기준은 비송신된 화상의 수를 표시한다. 상기 시간적 기준은 본 발명의 방법에서 각 화상에 대해서 1씩 증가된다. 상기 H.263 코덱포맷은 본 발명의 실시에서 현재 이용되지 않는 프레임 생략특성을 포함한다.
QCIF 신호(11)에서 수신된 프레임은 발신 CIF 신호(14)의 상단우측 사분면에 할당되기 때문에, 상기 MCU는 신호(11)를 통해서 수신하는 QCIF I화상을 QCIF P 화상으로 둘 다 H.263 코덱포맷으로 변환함으로써 상기 MCU에 의해서 생성된 QCIF 프레임을 상기 발신 CIF 신호(14B)의 상단우측 사분면에 삽입한다. 상기 QCIF 프레임은 상단우측 사분면에 있기 때문에, QCIF 프레임 내의 처음부터 끝까지 모든 GOB 데이터는 상기 CIF 화상내의 상이한 MVD를 참조할 수 있으므로 필요한 MVD 수정을 경험한다. 각 GOB는 상기 필요한 MVD 수정을 경험한 후, 상기 상단좌측 사분면에 대한 11개의 MB 헤더(각각은 NOT COD를 명시하기 위해서 비트 "1"이 할당됨)와 링크되어 새로운 CIF GOB가 된다. 상기 하단좌측 및 하단우측 사분면에 대한 MB헤더 각각은 NOT COD를 명시하기 위해서 비트 "1"로 채워진다.
도 2에는 상기 결과인 발신 CIF 신호(14B)가 도시되어 있다. 이 신호가 송신되어 참여자(2, 3, 4)에 의해서 수신될 때, 참여자의 이들 비디오 장치는 도 14B의 상단우측 사분면에 도시된 화상을 각 참여자의 CRT 또는 다른 화면의 각각에 보여진 비디오 화상의 상단우측 사분면에 삽입한다. 상기 CRT 상의 나머지 사분면에 보여진 화상은 변하지 않는다.
상기 MCU는 CIF 신호(14B)를 참여자 2, 3, 4 로 송신한다.
상기 MCU는 새로운 수신 프레임을 위해서 상기 수신 신호(10 ~ 13)를 순환순서방식으로 다시 모니터한다. 상기 MCU는 신호(12)로부터 새로운 프레임을 수신한다.
신호(12)로부터 수신된 프레임은 이미 H.263 코덱포맷이므로, 상기 프레임을 H.261 코덱포맷에서 H.263 코덱포맷으로 바꿀 필요가 없다.
이 프레임은 INTER 화상(P 화상)임을 알게 된다. 그러므로, 상기 MCU는 P픽퍼 포맷으로 그것을 변환할 필요가 없다.
상기 MCU는 도 2에 도시된 발신 CIF 신호(14C)를 준비한다. 먼저, 먼저,CIF 화상 타입과 INTER(P 화상)화상 코딩타입을 갖는 CIF 화상 헤더가 생성된다. 그 다음, 적당한 시간적 기준이 상기 화상에 할당된다. 상기 시간적 기준은 비 송신된 화상의 수를 표시한다. 상기 시간적 기준은 본 발명의 방법에서 각 화상에 대해서 1씩 증가된다. 상기 H.263 코덱포맷은 본 발명의 실시에서 현재 이용되지 않는 프레임 생략특성을 포함한다.
상기 발신 CIF 신호의 상단좌측 및 상단우측 사분면에 대한 11개의 MB 헤더 각각은 NOT COD를 명시하기 위해서 비트 "1"로 채워진다. 그 다음, QCIF 신호(12)로부터 수신된 프레임은 발신 CIF신호(14)의 하단좌측 사분면에 할당되기 때문에, 상기 MCU는 신호(12)를 통해서 상기 MCU에 의해서 수신된 상기 QCIF 프레임을 상기 발신 CIF 신호(14C)의 하단좌측 사분면에 삽입한다. 상기 QCIF 프레임은 하단좌측 사분면에 있기 때문에, 상기 QCIF 프레임 내의 처음부터 끝까지 모든 GOB 데이터는 상기 CIF 화상내의 상이한 MVD를 참조할 수 있으므로 필요한 MVD 수정을 경험한다. 각 GOB는 상기 필요한 MVD 수정을 경험한 후, 상기 하단우측 사분면에 대한 11개 MB 헤더(각각은 NOT COD를 명시하기 위해서 비트 "1"이 할당됨)와 링크되어 새로운 CIF GOB가 된다. 도 2에는 상기 결과인 발신 CIF신호(14C)가 도시되어 있다. 이 신호가 참여자 2, 3, 4 에 의해서 송신되고 수신될 때, 이들 참여자의 비디오 장치는 도 14C의 하단좌측에 도시된 화상을 상기 참여자 CRT 또는 다른 화면의 각각에 보여진 비디오 화상의 하단좌측 사분면에 삽입한다. 상기 CRT의 나머지 사분면에 보여진 화상은 변하지 않고 그대로 있다.
상기 MCU는 CIF신호(14C)를 참여자 2, 3, 4 에게 송신한다.
상기 MCU는 새로운 수신 프레임을 위해서 순환순서 방식으로 상기 수신신호(10 ~ 13)를 다시 모니터한다. 상기 MCU는 새로운 프레임을 신호(13)로부터 수신한다.
신호(13)로부터 수신된 상기 프레임은 이미 H.263 코덱포맷이기 때문에, 상기 프레임을 H.261 코덱포맷에서 H.263 코덱포맷으로 변경할 필요가 없다.
이 프레임은 INETR 화상(P 화상)임을 알게된다. 그러므로, 상기 MCU는 이것을 P화상 포맷으로 변환할 필요가 없다.
상기 MCU는 도 2에 도시된 발신 CIF신호(14D)를 준비한다. 먼저, CIF의 화상타입과 INTER(P 화상)의 화상코딩타입을 갖는 CIF 화상헤더가 생성된다. 그 다음, 적당한 시간적 기준이 상기 화상에 할당된다. 상기 시간적 기준은 비송신된 화상의 수를 지시한다. 상기 시간적 기준은 본 발명의 방법에 있어서 각 화상에 대해서 1씩 증가된다. 상기 H.263 코덱포맷은 본 발명의 실시에서 현재 이용되지 않는 프레임 생략 특성을 포함한다.
상기 발신 CIF 신호의 상단좌측 및 상단우측 사분면에 대한 11개의 MB 헤더 각각은 NOT COD를 명시하기 위해서 비트 "1"로 채워진다. 그 다음, QCIF 신호(13)로부터 수신된 프레임은 발신 CIF신호(14)의 하단우측 사분면에 할당되기 때문에, 상기 MCU는 신호(13)를 통해서 상기 MCU에 의해서 수신된 상기 QCIF 프레임을 상기 발신 CIF 신호(14D)의 하단우측 사분면에 삽입한다. 상기 QCIF 프레임은 하단우측 사분면에 있기 때문에, 상기 QCIF 프레임 내의 처음부터 끝까지 모든 GOB 데이터는 상기 CIF 화상내의 상이한 MVD를 참조할 수 있으므로 필요한 MVD 수정을 경험한다.각 GOB는 상기 필요한 MVD 수정을 경험한 후, 상기 하단좌측 사분면에 대한 11개 MB 헤더(각각은 NOT COD를 명시하기 위해서 비트 "1"이 할당됨)와 링크되어 새로운 CIF GOB가 된다. 도 2에는 상기 결과인 발신 CIF신호(14D)가 도시되어 있다. 이 신호가 참여자(2, 3, 4)에 의해서 송신되고 수신될 때, 이들 참여자의 비디오 장치는 도 14D의 하단우측에 도시된 화상을 상기 참여자 CRT 또는 다른 화면의 각각에 보여진 비디오 화상의 하단우측 사분면에 삽입한다. 상기 CRT의 나머지 사분면에 보여진 화상은 변하지 않고 그대로 있다.
상기 MCU는 CIF신호(14D)를 참여자 2, 3, 4 에게 송신한다.
Ⅱ부 : H.261 코덱포맷으로 송신된 CIF신호
실시예의 이 부분에서는, 상기 MCU가 수신 신호(10 ~ 13)를 처리하여 H.261 코덱포맷인 발신 신호(14)를 생성하고, 상기 발신 신호(14)가 상기 식별된 제1참여자에게만 보내지는 것으로 가정한다.
상기 MCU는 새로운 수신 프레임을 위해서 순환순서 방식으로 상기 수신신호(10 ~ 13)를 다시 모니터한다. 신호(10)는 새로운 프레임(10A)을 상기 MCU에 송신할 첫 번째 신호이다.
상기 프레임은 이미 H.261 코덱포맷이기 때문에, 상기 MCU는 상기 프레임을 H.263 코덱포맷에서 H.261 코덱포맷으로 수정할 필요가 없다.
상기 MCU는 도 3에 도시된 발신 CIF신호(14E)를 준비한다. 먼저, 화상타입이 CIF인 CIF 화상헤더가 생성된다. 그 다음, 적당한 시간적 기준이 상기 화상에할당된다.
QCIF 신호(10)로부터 수신된 프레임은 발신 CIF신호(14E)의 상단좌측 사분면에 할당되기 때문에, 상기 MCU는 신호(10)를 통해서 상기 MCU에 의해서 수신된 상기 QCIF 프레임을 상기 발신 CIF 신호(14E)의 상단좌측 사분면에 삽입한다. 필요하면, 상기 QCIF 프레임에 대한 GNs은 도 6에 도시된 GNs에 대응하기 위해서 변경된다. H.261 코덱포맷인 QCIF프레임은 H.261 코덱포맷인 CIF 프레임의 상단좌측 사분면에 매칭되기 때문에 GNs(1, 3, 5)를 갖고, 상기 GNs는 변경될 필요가 없다.
상기 MCU는 신호(14E)의 상단우측 사분면을 각각이 정확한 GN(2, 4, 또는 6)을 포함하는 GOB헤더로 채운다. 각 GOB 내의 헤더에는 어떤 매크로 블록 데이터도 뒤따르지 않는다. 마찬가지로, 상기 MCU는 신호(14E)의 하단좌측 사분면을 각각이 정확한 GN(7, 9, 또는 11)을 포함하는 GOB헤더로 채운다. 마지막으로, 상기 MCU는 신호(14E)의 하단우측 사분면을 각각이 정확한 GN(8, 10, 또는 12)을 포함하는 GOB헤더로 채운다. 상기 하단우측 사분면에 대한 각 GOB 내의 헤더에는 어떤 매크로 블록 데이터도 뒤따르지 않는다. 적당한 GN을 갖는 GOB 헤더에 어떤 추가적인 매크로 블록도 뒤따르지 않을 때, 생략 MBA(skip MBA)가 표시되며, 이것은 참여자의 비디오 장치가 상기 특정 CIF신호(14E)를 수신할 때 상기 사분면의 화상이 참여자의 비디오 장치에 의해서 갱신되지 않음을 의미한다.
도 3에는 상기 결과인 발신 CIF신호(14E)가 도시되어 있다. 이 신호가 송신되어 참여자 1 에 의해서 수신될 때, 이 참여자의 비디오 장치는 상기 QCIF 프레임에 포함된 화상을 상기 참여자의 CRT 또는 다른 화면에 보여진 비디오 화상의 상단좌측 사분면에 삽입한다. 상기 참여자의 CRT의 나머지 사분면에 보여진 화상은 변하지 않고 그대로 있다.
CIF신호를 송신한 후, 상기 MCU는 상기 수신 신호(10 ~ 13)를 다시 모니터하고 새로운 프레임을 수신하기 위해서 기다린다. 상기 MCU는 신호(11)로부터 새로운 프레임(11A)을 수신한다.
상기 프레임은 H.263 코덱포맷이므로, 상기 MCU는 상기 코덱포맷을 H.261 코덱포맷으로 변경한다. 상기 H.263 코덱포맷이 H.261 코덱포맷으로 변경될 때, 상기 수신 화상이 I화상인지 또는 P화상인지는 중요하지 않다. 상기 MCU 는 상기 제2 참여자의 비디오 화상을 정의하는 프레임내에 디지털 데이터(즉, 상기 부호화된 도메인 데이터)를 보유한다. 비록 상기 제2 참여자의 비디오 화상을 정의하는 디지털 데이터가 상기 MCU에 의해서 재정렬되더라도, 그 결과 비디오 화상은 상기 MCU에 의해서 전혀 변경되지 않거나 거의 변경되지 않는다.
상기 MCU는 도 3에 도시된 발신 신호(14F)를 준비한다. 먼저, CIF 화상타입을 갖는 CIF 화상 헤더가 생성된다. 그 다음, 적당한 시간적 기준이 상기 화상에 할당된다.
QCIF신호(11A)로부터 수신된 프레임은 발신 CIF신호(14F)의 상단우측 사분면에 할당되기 때문에, 상기 MCU는 신호(11A)를 통해서 수신하는 상기 QCIF 화상을 H.263 코덱포맷에서 H.261 코덱포맷으로 변환함으로써 상기 MCU에 의해서 생성된 QCIF 프레임을 상기 발신 CIF 신호(14F)의 상단우측 사분면에 삽입한다. 상기 QCIF 프레임에 대한 GNs는 도 6에 도시된 GNs에 대응하여 변경된다. 상기 QCIF 프레임은 1, 3, 및 5의 GNs를 갖기 때문에, 이들 숫자는 상기 QCIF 프레임이 상기 발신 CIF 신호의 상단우측 사분면에 삽입되므로 2, 4, 및 6으로 변경된다. 상기 CIF 신호(14F)의 상단우측 사분면에 대한 GNs는 도 6에 도시된 바와 같이 2, 4, 6 임에 틀림없다.
상기 MCU는 신호(14F)의 상단좌측을 각각 정확한 GN(1, 3, 또는 5)을 포함하는 GOB헤더로 채운다. 각 GOB 내의 헤더에는 어떤 매크로 블록 데이터도 뒤따르지 않는다. 마찬가지로, 상기 MCU는 신호(14F)의 하단좌측 사분면을 각각이 정확한 GN(7, 9, 또는 11)을 포함하는 GOB헤더로 채운다. 상기 하단좌측의 각 GOB 내의 헤더에는 어떤 매크로 블록 데이터도 뒤따르지 않는다. 마지막으로, 상기 MCU는 CIF신호(14F)의 하단우측 사분면을 각각이 정확한 GN(8, 10, 또는 12)을 포함하는 GOB헤더로 채운다. 상기 하단우측 사분면에 대한 각 GOB 내의 헤더에는 어떤 매크로블록 데이터도 뒤따르지 않는다. 적당한 GN을 갖는 GOB 헤더에 어떤 추가적인 매크로 블록 데이터도 뒤따르지 않을 때, 생략 MBA가 표시되며, 이것은 참여자의 비디오 장치가 상기 특정 CIF신호(14F)를 수신할 때 상기 사분면의 화상이 참여자의 비디오 장치에 의해서 갱신되지 않음을 의미한다.
도 3에는 상기 결과인 발신 H.261 코덱포맷 CIF신호(14F)가 도시되어 있다. 이 신호가 송신되어 참여자 1에 의해서 수신될 때, 이 참여자의 비디오 장치는 상기 QCIF 프레임에 포함된 화상을 상기 참여자의 CRT 또는 다른 화면에 보여진 비디오 화상의 상단우측 사분면에 삽입한다. 상기 참여자의 CRT의 나머지 사분면에 보여진 화상은 변하지 않고 그대로 있다.
CIF신호(14F)를 송신한 후, 상기 MCU는 상기 수신 신호(10 ~ 13)를 다시 모니터하고 새로운 프레임을 수신하기 위해서 기다린다. 상기 MCU는 신호(12)로부터 새로운 프레임(12A)을 수신한다.
상기 프레임은 H.263 코덱포맷이므로, 상기 MCU는 상기 코덱포맷을 H.261 코덱포맷으로 변경한다. 상기 H.263 코덱포맷이 H.261 코덱포맷으로 변경될 때, 상기 수신 화상이 I화상인지 또는 P화상인지는 중요하지 않다. 상기 MCU 는 상기 제 3 참여자의 비디오 화상을 정의하는 프레임내에 디지털 데이터(즉, 상기 부호화된 도메인 데이터)를 보유한다. 비록 상기 제3 참여자의 비디오 화상을 정의하는 디지털 데이터가 상기 MCU에 의해서 재정렬되더라도, 그 결과 비디오 화상은 상기 MCU에 의해서 전혀 변경되지 않거나 거의 변경되지 않는다.
상기 MCU는 도 3에 도시된 발신 신호(14G)를 준비한다. 먼저, CIF 화상타입을 갖는 CIF 화상 헤더가 생성된다. 그 다음, 적당한 시간적 기준이 상기 화상에 할당된다.
QCIF신호(12A)로부터 수신된 프레임은 발신 CIF신호(14G)의 하단좌측 사분면에 할당되기 때문에, 상기 MCU는 신호(12A)를 통해서 수신하는 상기 QCIF 화상을 H.263 코덱포맷에서 H.261 코덱포맷으로 변환함으로써 상기 MCU에 의해서 생성된 QCIF 프레임을 상기 발신 CIF 신호(14G)의 하단좌측 사분면에 삽입한다. 상기 QCIF 프레임에 대한 GNs는 도 6에 도시된 GNs에 대응하여 변경된다. 상기 QCIF 프레임은 1, 3, 및 5의 초기 GNs를 갖기 때문에, 이들 숫자는 상기 QCIF 프레임이 상기 발신 CIF 신호의 하단좌측 사분면에 삽입되므로 7, 9, 및 11로 변경된다. 상기CIF 신호(14G)의 하단좌측 사분면에 대한 GNs는 도 6에 도시된 바와 같이 7, 9, 11 임에 틀림없다.
상기 MCU는 신호(14G)의 상단좌측을 각각 정확한 GN(1, 3, 또는 5)을 포함하는 GOB헤더로 채운다. 각 GOB 내의 헤더에는 어떤 매크로 블록 데이터도 뒤따르지 않는다. 마찬가지로, 상기 MCU는 신호(14G)의 상단우측 사분면을 각각이 정확한 GN(2, 4, 6)을 포함하는 GOB헤더로 채운다. 상기 상단우측의 각 GOB 내의 헤더에는 어떤 매크로 블록 데이터도 뒤따르지 않는다. 마지막으로, 상기 MCU는 CIF신호(14G)의 하단우측 사분면을 각각이 정확한 GN(8, 10, 또는 12)을 포함하는 GOB헤더로 채운다. 상기 하단우측 사분면에 대한 각 GOB 내의 헤더에는 어떤 매크로블록 데이터도 뒤따르지 않는다. 적당한 GN을 갖는 GOB 헤더에 어떤 추가적인 매크로 블록 데이터도 뒤따르지 않을 때, 생략 MBA가 표시되며, 이것은 참여자의 비디오 장치가 상기 특정 CIF신호(14G)를 수신할 때 상기 사분면의 화상이 참여자의 비디오 장치에 의해서 갱신되지 않음을 의미한다.
도 3에는 상기 결과인 발신 H.261 코덱포맷 CIF신호(14G)가 도시되어 있다. 이 신호가 송신되어 참여자 1 에 의해서 수신될 때, 이 참여자의 비디오 장치는 상기 QCIF 프레임에 포함된 화상을 상기 참여자 1의 CRT 또는 다른 화면에 보여진 비디오 화상의 하단좌측 사분면에 삽입한다. 상기 참여자의 CRT의 나머지 사분면에 보여진 화상은 변하지 않고 그대로 있다.
CIF신호(14G)를 송신한 후, 상기 MCU는 상기 수신 신호(10 ~ 13)를 다시 모니터하고 새로운 프레임을 수신하기 위해서 기다린다. 상기 MCU는 신호(13)로부터새로운 프레임(13A)을 수신한다.
상기 프레임은 H.263 코덱포맷이므로, 상기 MCU는 상기 코덱포맷을 H.261 코덱포맷으로 변경한다. 상기 H.263 코덱포맷이 H.261 코덱포맷으로 변경될 때, 상기 수신 화상이 I화상인지 또는 P화상인지는 중요하지 않다. 상기 MCU 는 상기 제 4 참여자의 비디오 화상을 정의하는 프레임내에 디지털 데이터(즉, 상기 부호화된 도메인 데이터)를 보유한다. 비록 상기 제4 참여자의 비디오 화상을 정의하는 디지털 데이터가 상기 MCU에 의해서 재정렬되더라도, 그 결과 비디오 화상은 상기 MCU에 의해서 전혀 변경되지 않거나 거의 변경되지 않는다.
상기 MCU는 도 3에 도시된 발신 신호(14H)를 준비한다. 먼저, CIF 화상타입을 갖는 CIF 화상 헤더가 생성된다. 그 다음, 적당한 시간적 기준이 상기 화상에 할당된다.
QCIF신호(13A)로부터 수신된 프레임은 발신 CIF신호(14H)의 하단우측 사분면에 할당되기 때문에, 상기 MCU는 신호(13A)를 통해서 수신하는 상기 QCIF 화상을 H.263 코덱포맷에서 H.261 코덱포맷으로 변환함으로써 상기 MCU에 의해서 생성된 QCIF 프레임을 상기 발신 CIF 신호(14H)의 하단우측 사분면에 삽입한다. 상기 QCIF 프레임에 대한 GNs는 도 6에 도시된 GNs에 대응하기 위해서 변경된다. 상기 QCIF 프레임은 1, 3, 및 5의 GNs를 갖기 때문에, 이들 숫자는 상기 QCIF 프레임이 상기 발신 CIF 신호의 하단우측 사분면에 삽입되므로 8, 10, 및 12로 변경된다. 상기 CIF 신호(14H)의 하단우측 사분면에 대한 GNs는 도 6에 도시된 바와 같이 8, 10, 12 임에 틀림없다.
상기 MCU는 신호(14G)의 상단좌측을 각각 정확한 GN(1, 3, 또는 5)을 포함하는 GOB헤더로 채운다. 각 GOB 내의 헤더에는 어떤 매크로 블록 데이터도 뒤따르지 않는다. 마찬가지로, 상기 MCU는 신호(14G)의 상단우측 사분면을 각각이 정확한 GN(2, 4, 6)을 포함하는 GOB헤더로 채운다. 상기 상단우측의 각 GOB 내의 헤더에는 어떤 매크로 블록 데이터도 뒤따르지 않는다. 마지막으로, 상기 MCU는 CIF신호(14G)의 하단우측 사분면을 각각이 정확한 GN(8, 10, 또는 12)을 포함하는 GOB헤더로 채운다. 상기 하단우측 사분면에 대한 각 GOB 내의 헤더에는 어떤 매크로블록 데이터도 뒤따르지 않는다. 적당한 GN을 갖는 GOB 헤더에 어떤 추가적인 매크로 블록 데이터도 뒤따르지 않을 때, 생략 MBA가 표시되며, 이것은 참여자의 비디오 장치가 상기 특정 CIF신호(14G)를 수신할 때 상기 사분면의 화상이 참여자의 비디오 장치에 의해서 갱신되지 않음을 의미한다.
상기 MCU는 신호(14H)의 상단좌측을 각각 정확한 GN(1, 3, 또는 5)을 포함하는 GOB헤더로 채운다. 각 GOB 내의 헤더에는 어떤 매크로 블록 데이터도 뒤따르지 않는다. 마찬가지로, 상기 MCU는 신호(14H)의 상단우측 사분면을 각각이 정확한 GN(2, 4, 6)을 포함하는 GOB 헤더로 채운다. 상기 상단우측의 각 GOB 내의 헤더에는 어떤 매크로 블록 데이터도 뒤따르지 않는다. 마지막으로, 상기 MCU는 CIF신호(14H)의 하단좌측 사분면을 각각이 정확한 GN(7, 9, 또는 11)을 포함하는 GOB 헤더로 채운다. 상기 상단좌측 사분면에 대한 각 GOB 내의 헤더에는 어떤 매크로 블록 데이터도 뒤따르지 않는다. 적당한 GN을 갖는 GOB 헤더에 어떤 추가적인 매크로 블록 데이터도 뒤따르지 않을 때, 생략 MBA가 표시되며, 이것은 참여자의 비디오 장치가 상기 특정 CIF신호(14H)를 수신할 때 상기 사분면의 화상이 참여자의 비디오 장치에 의해서 갱신되지 않음을 의미한다.
도 3에는 상기 결과인 발신 H.261 코덱포맷 CIF신호(14H)가 도시되어 있다. 이 신호가 송신되어 참여자 1 에 의해서 수신될 때, 이 참여자의 비디오 장치는 상기 QCIF 프레임에 포함된 화상을 상기 참여자 1 의 CRT 또는 다른 화면에 보여진 비디오 화상의 하단우측 사분면에 삽입한다. 상기 참여자의 CRT의 나머지 사분면에 보여진 화상은 변하지 않고 그대로 있다.
본 기술분야에 속하는 당업자에 의해서 인식될 수 있는 바와 같이, H.261 과 H.263 외의 다양한 코덱 포맷이 존재하고 본 발명에 의하면 복수의 참여자 사이에서 비디오회의 동안에 복수의 수신채널로부터 한 번에 한 프레임만 수신하고 송신하기 위해서 사용될 수 있다.
비디오회의의 각 참여자로부터 상기 MCU로 상기 QCIF(또는 다른) 신호를 송신하기 위해서 그리고 상기 MCU로부터 비디오회의의 참여자 중 선택된 자에게 CIF(또는 다른)신호를 송신하기 위해서 필요한 장치는 잘 알려져 있으며 여기서는 상세히 설명되지 않는다.
비디오회의 참여자의 화상을 CIF신호(14)의 사분면에 송신하는 대신에, 다른 정보가 송신될 수 있다. 예를 들면, 비디오 클립, 다큐먼트, 스프레드시트, 프레젠테이션이 CIF신호(14)에 통합될 수 있으며, 예를 들면, 비디오회의 참여자 중 하나의 화상 대신에 하단우측 사분면(또는 다른 사분면)에 나타난다.
본 발명이 속하는 기술분야의 당업자가 본 발명을 이용함에 있어서 이해될수 있는 용어로 본 발명을 설명하였으며, 본 발명에 대한 현재 바람직한 실시예와 최적의 형태를 설명했으므로 보호받고자 하는 내용을 특허청구범위에서 주장합니다.

Claims (3)

  1. 적어도 제1 및 제2 수신비디오채널로부터 프레임을 수신하고,
    적어도 제1 발신비디오스트림 내의 개별 프레임을 제1 비디오스트림을 수신하고 상기 수신비디오채널 양자로부터의 화상(picture)을 포함하는 비디오 이미지를 생성하는 제1 장치수단에 교대로 연속하여 송신하고,
    적어도 제2 발신 비디오스트림 내의 개별 프레임을 제2 비디오스트림을 수신하고 상기 수신비디오채널 양자로부터의 화상을 포함하는 비디오 이미지를 생성하는 제2 장치수단에 교대로 연속하여 송신하는 방법에 있어서,
    (a) 상기 제1 및 제2 장치수단 각각의 코덱포맷을 판정하는 단계;
    (b) 상기 수신비디오채널 중 하나가 이용 가능한 새로운 프레임을 갖는지를 판정하는 단계;
    (c) 단계(b)에서 이용 가능한 새로운 프레임이 존재하는 경우, 상기 새로운 프레임의 코덱포맷을 판정하는 단계;
    (d) 상기 이용 가능한 새로운 프레임의 코덱포맷을 적어도 상기 제1 장치수단의 코덱포맷과 일치시키는 단계;
    (e) 선택된 화상포맷에 일치하도록 필요시 상기 이용 가능한 프레임 내의 헤더와 부호화된 도메인 데이터를 변경하므로써 수정된 프레임을 생성하는 단계;
    (f) 임의의 새로운 프레임을 제공하지 않는 상기 비디오채널에 대해서 상기 화상에 변화가 없다는 것을 표시하는 정상상태데이터를 생성하는 단계;
    (g) (i) 단계(e)에서 생성된 상기 수정된 프레임과, (ii) 단계(f)에서 생성된 상기 정상상태 데이터를 결합하여 상기 제1 발신비디오스트림에 비디오신호를 생성하는 단계를 포함하고,
    상기 제1 장치수단은,
    상기 비디오신호를 수신하고,
    상기 비디오신호의 상기 수정된 프레임에서 생성된 상기 채널 중 하나에 대한 화상과, 상기 제1 장치수단에 의한 상기 비디오 신호의 수신 이전에 존재하고 상기 비디오신호의 상기 정상상태데이터를 기초로 변하지 않고 유지되는 다른 나머지 채널에 대한 화상을 포함하는 비디오 이미지를 생성하는 것을 특징으로 하는 프레임 송수신 방법.
  2. 적어도 제1 및 제2 수신비디오채널로부터 프레임을 수신하고,
    적어도 제1 발신비디오스트림 내의 개별 프레임을 제1 비디오스트림을 수신하고 상기 수신비디오채널 양자로부터의 화상을 포함하는 비디오 이미지를 생성하는 제1 장치수단에 교대로 연속하여 송신하고,
    적어도 제2 발신비디오스트림 내의 개별 프레임을 제2 비디오스트림을 수신하고 상기 수신비디오채널 양자로부터의 화상을 포함하는 비디오 이미지를 생성하는 제2 장치수단에 교대로 연속하여 송신하는 장치에 있어서,
    (a) 상기 제1 및 제2 장치수단 각각의 코덱포맷을 판정하는 수단;
    (b) 상기 수신비디오채널 중 하나가 이용 가능한 새로운 프레임을 갖는지를판정하는 수단;
    (c) 단계(b)에서 이용 가능한 새로운 프레임이 존재하는 경우, 상기 새로운 프레임의 코덱포맷을 판정하는 수단;
    (d) 상기 이용 가능한 새로운 프레임의 코덱포맷을 적어도 상기 제1 장치수단의 코덱포맷과 일치시키는 수단;
    (e) 선택된 화상포맷에 일치하도록 필요시 상기 이용 가능한 프레임 내의 헤더와 부호화된 도메인데이터를 변경하므로써 수정된 프레임을 생성하는 수단;
    (f) 임의의 새로운 프레임을 제공하지 않는 상기 비디오채널에 대해서 상기 화상에 변화가 없다는 것을 표시하는 정상상태데이터를 생성하는 수단;
    (g) (i) 단계(e)에서 생성된 상기 수정된 프레임과, (ii) 단계(f)에서 생성된 상기 정상상태데이터를 결합하여 상기 제1 발신비디오스트림에 비디오 신호를 생성하는 수단을 포함하고,
    상기 제1 장치수단은,
    상기 비디오신호를 수신하고,
    상기 비디오신호의 상기 수정된 프레임에서 발생된 상기 채널 중 하나에 대한 화상과, 상기 제1 장치수단에 의한 상기 비디오신호의 수신 이전에 존재하고 상기 비디오신호의 상기 정상상태데이터를 기초로 변하지 않고 유지되는 다른 나머지 채널에 대한 화상을 포함하는 비디오 이미지를 생성하는 수단인 것을 특징으로 하는 프레임 송수신 장치.
  3. 적어도 제1 및 제2 수신비디오채널로부터 프레임을 수신하고,
    적어도 제1 발신 비디오스트림 내의 개별 프레임을 제1 비디오스트림을 수신하여 상기 수신비디오채널 양자로부터의 화상을 포함하는 비디오 이미지를 생성하는 제1 장치수단에 교대로 연속하여 송신하고,
    적어도 제2 발신 비디오스트림 내의 개별 프레임을 제2 비디오스트림을 수신하여 상기 수신비디오채널 양자로부터의 화상을 포함하는 비디오 이미지를 생성하는 제2 장치수단에 교대로 연속하여 송신하는 방법에 있어서,
    (a) 상기 수신비디오채널 중 하나가 이용 가능한 새로운 프레임을 갖는지를 판정하는 단계;
    (b) 단계(a)에서 이용 가능한 새로운 프레임이 존재하는 경우, 상기 부호화된 도메인 데이터를 완전히 디코딩하지 않고 상기 프레임 내의 부호화된 도메인 데이터를 사용하여 상기 제1 발신비디오스트림내에 비디오신호를 생성하는 단계를 포함하고,
    상기 제1 장치수단은 상기 비디오신호를 수신하고 또한 비디오 이미지를 생성하고,
    상기 비디오 이미지는 상기 부호화된 도메인 데이터에서 생성된 상기 채널 중 하나에 대한 화상을 구비하는 것을 특징으로 하는 프레임 송수신 방법.
KR10-2003-7011772A 2001-07-16 2002-07-12 비디오회의시스템에 있어서 프레임 송수신 방법 및 장치 KR20040015062A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/906,459 US6535240B2 (en) 2001-07-16 2001-07-16 Method and apparatus for continuously receiving frames from a plurality of video channels and for alternately continuously transmitting to each of a plurality of participants in a video conference individual frames containing information concerning each of said video channels
US09/906,459 2001-07-16
PCT/US2002/022474 WO2003009593A1 (en) 2001-07-16 2002-07-12 Method and apparatus for continuously receiving frames from a plurality of video channels and for alternatively continuously transmitting to each of a plurality of participants in a video conference individual frames containing information concerning each of said video channels

Publications (1)

Publication Number Publication Date
KR20040015062A true KR20040015062A (ko) 2004-02-18

Family

ID=25422479

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2003-7011772A KR20040015062A (ko) 2001-07-16 2002-07-12 비디오회의시스템에 있어서 프레임 송수신 방법 및 장치

Country Status (9)

Country Link
US (1) US6535240B2 (ko)
EP (1) EP1407604A4 (ko)
JP (1) JP2004536529A (ko)
KR (1) KR20040015062A (ko)
CN (1) CN1244230C (ko)
AU (1) AU2002355089B2 (ko)
CA (1) CA2434325A1 (ko)
IL (1) IL156459A0 (ko)
WO (1) WO2003009593A1 (ko)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1217841A2 (en) * 2000-11-27 2002-06-26 Media Glue Corporation Bitstream separating and merging system, apparatus, method and computer program product
JP4612779B2 (ja) * 2001-06-14 2011-01-12 キヤノン株式会社 通信装置及び通信装置の映像表示制御方法
US7809021B2 (en) * 2002-07-10 2010-10-05 Solarflare Communications, Inc. Communication system and encoding method having low overhead
US7492387B2 (en) * 2002-08-05 2009-02-17 Chih-Lung Yang Implementation of MPCP MCU technology for the H.264 video standard
JP2004133733A (ja) * 2002-10-11 2004-04-30 Sony Corp 表示装置および方法、並びにプログラム
US7627629B1 (en) * 2002-10-30 2009-12-01 Cisco Technology, Inc. Method and apparatus for multipoint conferencing
US20050021620A1 (en) * 2003-05-30 2005-01-27 Todd Simon Web data conferencing system and method with full motion interactive video
US20050024486A1 (en) * 2003-07-31 2005-02-03 Viresh Ratnakar Video codec system with real-time complexity adaptation
US20050024487A1 (en) * 2003-07-31 2005-02-03 William Chen Video codec system with real-time complexity adaptation and region-of-interest coding
US20050099492A1 (en) * 2003-10-30 2005-05-12 Ati Technologies Inc. Activity controlled multimedia conferencing
US20050151836A1 (en) * 2004-01-09 2005-07-14 Ni Hong T. Video conferencing system
US20050207433A1 (en) * 2004-01-09 2005-09-22 Camelot Technology Associates Ltd. Video communication systems and methods
NO320115B1 (no) * 2004-02-13 2005-10-24 Tandberg Telecom As Anordning og fremgangsmate for a generere CP-bilder.
US7499969B1 (en) * 2004-06-25 2009-03-03 Apple Inc. User interface for multiway audio conferencing
US7584433B2 (en) * 2005-04-20 2009-09-01 Avp Ip Holding Co., Llc. Extendible and open camera connector system
CN1901668B (zh) * 2005-07-19 2012-05-23 腾讯科技(深圳)有限公司 多人视频数据显示处理方法及系统
US8670437B2 (en) * 2005-09-27 2014-03-11 Qualcomm Incorporated Methods and apparatus for service acquisition
US8229983B2 (en) 2005-09-27 2012-07-24 Qualcomm Incorporated Channel switch frame
WO2007122907A1 (ja) * 2006-03-29 2007-11-01 Matsushita Electric Industrial Co., Ltd. 画像コーデック装置
CA2783599C (en) * 2006-11-14 2013-06-25 Qualcomm Incorporated Systems and methods for channel switching
WO2008061211A2 (en) * 2006-11-15 2008-05-22 Qualcomm Incorporated Systems and methods for applications using channel switch frames
US8009200B2 (en) 2007-06-15 2011-08-30 Microsoft Corporation Multiple sensor input data synthesis
EP2009868B1 (en) * 2007-06-29 2016-09-07 Alcatel Lucent Method and system for improving the appearance of a person on the RTP stream coming from a media terminal
US8791189B2 (en) * 2008-01-15 2014-07-29 Sabic Innovative Plastics Ip B.V. Moldable polyester compositions, processes of manufacture, and articles thereof
US8168707B2 (en) * 2008-01-15 2012-05-01 Sabic Innovative Plastics Ip B.V. Moldable polyester compositions, processes of manufacture, and articles thereof
CN101251993B (zh) * 2008-01-25 2010-07-14 北大方正集团有限公司 一种监控多屏幕的方法及装置
US8320257B2 (en) * 2008-03-17 2012-11-27 Cisco Technology, Inc. Automatic testing of scheduled telepresence meetings
WO2010019250A2 (en) 2008-08-11 2010-02-18 Solarflare Communications, Inc. Method of synchronization for low power idle
US8208000B1 (en) * 2008-09-09 2012-06-26 Insors Integrated Communications Methods, systems and program products for managing video conferences
CN102246491B (zh) * 2008-10-08 2014-11-12 诺基亚公司 用于存储多源多媒体表示的系统和方法
US8461848B2 (en) 2008-12-10 2013-06-11 Marvell International Ltd. Cable diagnostics for Base-T systems
DE102010023954A1 (de) * 2010-06-16 2011-12-22 Siemens Enterprise Communications Gmbh & Co. Kg Verfahren und Vorrichtung zum Mischen von Videoströmen auf der Makroblock-Ebene
CN102123267A (zh) * 2011-03-15 2011-07-13 深圳市捷视飞通科技有限公司 一种交互式修改视频会议辅流的方法、装置和系统
JP6260101B2 (ja) 2012-05-01 2018-01-17 株式会社リコー 通信端末、起動方法及びプログラム
CN103856809A (zh) * 2012-12-03 2014-06-11 中国移动通信集团公司 一种多点同屏方法、系统及终端设备
CN104427295A (zh) * 2013-08-29 2015-03-18 中兴通讯股份有限公司 一种视频会议中处理视频的方法及终端
ITUB20153347A1 (it) * 2015-09-02 2017-03-02 Stefano Spattini Apparato per la videocomunicazione
US10728194B2 (en) * 2015-12-28 2020-07-28 Facebook, Inc. Systems and methods to selectively combine video streams
US20190297131A1 (en) * 2018-03-23 2019-09-26 Satori Worldwide, Llc System and Method for Querying and Updating a Live Video Stream Using a Structured Query Language

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5003532A (en) 1989-06-02 1991-03-26 Fujitsu Limited Multi-point conference system
SG42859A1 (en) 1991-07-18 1997-10-17 Ibm System and method for combining multiple composite video signals
DE69322532T2 (de) 1992-02-26 1999-04-29 Cirrus Logic Inc Digitale Verarbeitungseinheit für Videoschnitt
US5453780A (en) * 1994-04-28 1995-09-26 Bell Communications Research, Inc. Continous presence video signal combiner
US5548324A (en) 1994-05-16 1996-08-20 Intel Corporation Process, apparatus and system for displaying multiple video streams using linked control blocks
US5671377A (en) 1994-07-19 1997-09-23 David Sarnoff Research Center, Inc. System for supplying streams of data to multiple users by distributing a data stream to multiple processors and enabling each user to manipulate supplied data stream
US5583868A (en) 1994-07-25 1996-12-10 Microsoft Corporation Method and system for combining data from multiple servers into a single continuous data stream using a switch
US5691768A (en) 1995-07-07 1997-11-25 Lucent Technologies, Inc. Multiple resolution, multi-stream video system using a single standard decoder
US6147695A (en) 1996-03-22 2000-11-14 Silicon Graphics, Inc. System and method for combining multiple video streams
US6128649A (en) 1997-06-02 2000-10-03 Nortel Networks Limited Dynamic selection of media streams for display
WO1999035660A1 (en) 1998-01-08 1999-07-15 Streamgate, Inc. Video stream sharing
JPH11220711A (ja) 1998-02-03 1999-08-10 Fujitsu Ltd 多地点会議システム及び会議端末装置
KR100316639B1 (ko) 1998-05-22 2002-01-16 윤종용 다지점 영상회의 시스템 및 그에 따른 구현방법
US6141062A (en) 1998-06-01 2000-10-31 Ati Technologies, Inc. Method and apparatus for combining video streams
JP4247768B2 (ja) 1999-03-29 2009-04-02 ルーセント テクノロジーズ インコーポレーテッド 情報信号処理方法
US6381746B1 (en) 1999-05-26 2002-04-30 Unisys Corporation Scaleable video system having shared control circuits for sending multiple video streams to respective sets of viewers
US6611530B1 (en) 1999-09-21 2003-08-26 Hewlett-Packard Development Company, L.P. Video communication using multiple streams

Also Published As

Publication number Publication date
EP1407604A1 (en) 2004-04-14
CN1244230C (zh) 2006-03-01
CA2434325A1 (en) 2003-01-30
AU2002355089B2 (en) 2006-11-09
CN1496652A (zh) 2004-05-12
WO2003009593A1 (en) 2003-01-30
US20030020803A1 (en) 2003-01-30
IL156459A0 (en) 2004-01-04
JP2004536529A (ja) 2004-12-02
EP1407604A4 (en) 2004-09-29
US6535240B2 (en) 2003-03-18

Similar Documents

Publication Publication Date Title
KR20040015062A (ko) 비디오회의시스템에 있어서 프레임 송수신 방법 및 장치
US7616591B2 (en) Video conferencing system
AU2002355089A1 (en) Method and apparatus for continuously receiving frames from a pluarlity of video channels and for alternatively continuously transmitting to each of a plurality of participants in a video conference individual frames containing information concerning each of said video channels
US9554165B2 (en) Minimal decoding method for spatially multiplexing digital video pictures
US5453780A (en) Continous presence video signal combiner
US5764277A (en) Group-of-block based video signal combining for multipoint continuous presence video conferencing
JP3431373B2 (ja) マルチメディア通信システムのための符号化領域画像複合化
US6285661B1 (en) Low delay real time digital video mixing for multipoint video conferencing
US7720157B2 (en) Arrangement and method for generating CP images
US7245660B2 (en) Method and an apparatus for mixing compressed video
US20060146734A1 (en) Method and system for low-delay video mixing
US6560280B1 (en) Video transmission system
KR100275930B1 (ko) 화상회의 시스템에서 복수의 픽쳐를 하나의 화면에 표시하기 위한 화면 형성방법
JPH1028260A (ja) 映像データ伝送方法および多地点テレビ会議装置
KR0171483B1 (ko) 화상회의 시스템의 화면 분할 장치 및 방법
Loui et al. Coded-domain multipoint video bridging
JPH1028259A (ja) 通信装置

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid