KR101555855B1 - 다양한 참가 디바이스의 화상회의 방법 및 시스템 - Google Patents

다양한 참가 디바이스의 화상회의 방법 및 시스템 Download PDF

Info

Publication number
KR101555855B1
KR101555855B1 KR1020130064143A KR20130064143A KR101555855B1 KR 101555855 B1 KR101555855 B1 KR 101555855B1 KR 1020130064143 A KR1020130064143 A KR 1020130064143A KR 20130064143 A KR20130064143 A KR 20130064143A KR 101555855 B1 KR101555855 B1 KR 101555855B1
Authority
KR
South Korea
Prior art keywords
media
stream
interface
legacy
endpoint
Prior art date
Application number
KR1020130064143A
Other languages
English (en)
Other versions
KR20140016154A (ko
Inventor
아비쉐이 할라비
Original Assignee
폴리콤 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 폴리콤 인코포레이티드 filed Critical 폴리콤 인코포레이티드
Publication of KR20140016154A publication Critical patent/KR20140016154A/ko
Application granted granted Critical
Publication of KR101555855B1 publication Critical patent/KR101555855B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/74Address processing for routing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

새로운 유니버셜 브리지(UB)는 복수의 MRE과 LEP 사이의 멀티미디어 멀티포인트 컨퍼런스를 MRM, MCU 및 게이트웨이를 사용하지 않고 처리하고 실행할 수 있다. 또한, UB는 세션 및 각 회의참석자의 현 필요에 따라 리소스를 동적으로 할당하고 방출하도록 구성될 수 있다.

Description

다양한 참가 디바이스의 화상회의 방법 및 시스템{METHOD AND SYSTEM FOR CONDUCTING VIDEO CONFERENCES OF DIVERSE PARTICIPATING DEVICES}
본 발명은 오디오/비디오 통신에 관한 것이고 보다 상세하게는 다자간 오디오/비디오 회의에 관한 것이다.
본 발명은 전체 내용이 여기에 언급되어 통합된 2012년 7월 24일에 발행된 "Method and System for Conducting Continuous Presence Conference" 표제의 미국 특허 번호 8,228,363과 관련되어 있다.
또한, 본 발명은 전체 내용이 여기에 언급되어 통합된 2012년 6월 4일 출원된 "Method and System for Switching Between Video Streams in a Continuous Presence Conference" 표제의 미국 특허 출원 번호 13/487,703과 관련되어 있다.
다양한 멀티미디어 컨퍼런싱 장비의 성장과 함께 인터넷 프로토콜(IP) 네트워크상의 트래픽이 급속히 성장을 지속함에 따라, 보다 많은 사람이 이들의 통신 툴로서 멀티미디어 컨퍼런싱을 사용하고 있다. 오늘날, 멀티미디어 컨퍼런싱 통신은 레거시 멀티미디어 통신 방법 및 미디어 중계된 통신 방법의 새로운 기술의 2가지 타입의 통신 방법을 통해 전송될 수 있다. 여기에서 사용된 바와 같이, 용어, 멀티미디어 컨퍼런스, 비디오 컨퍼런스 및 오디오 컨퍼런스는 상호교환가능한 것으로 이해할 수 있고, 용어 비디오 컨퍼런스는 이들의 대표 용어로서 사용될 수 있다.
3 이상의 참가자 사이의 레거시 멀티포인트 컨퍼런스는 멀티포인트 컨트롤 유닛(MCU)을 필요로 한다. MCU는 엔드포인트로부터 다수의 채널을 수신하는 터미널에 또는 네트워크의 노드에 보통 위치된 컨퍼런스 제어 엔티티이다. 임의의 분류에 따라, MCU는 시청각 신호를 처리하고 이들을 접속된 채널 세트에 분배한다. MCU의 예는 폴리콤 인코포레이티드로부터 입수가능한 MGC-100, RMX® 2000을 포함한다(RMX는 폴리콤 인코포레이티드의 등록 상표이다). 레거시 엔드포인트(LEP)로 불릴 수 있는 터미널은 다른 LEP 또는 MCU와의 실시간 양방향 오디오 및/또는 시청각 통신을 제공할 수 있는, 네트워크상의 엔티티이다. LEP 및 MCU의 보다 온전한 정의는 ITU 웹사이트: www/itu.int에서 찾을 수 있는 H.320, H.324 및 H.323 규격과 같은 국제 전기 통신 연합("ITU") 규격에서 발견될 수 있다.
레거시 MCU로도 불리는 일반적인 MCU는 복수의 시청각 디코더, 인코더 및 미디어 결합기(오디오 믹서 및/또는 비디오 이미지 빌더)를 포함할 수 있다. 여기에 사용된 바와 같이, 용어 일반적인 MCU 및 레거시 MCU는 상호교환가능한 것으로 생각될 수 있다. MCU는 다양한 수의 참가자(LEP) 사이의 시청각 통신을 처리하도록 광대한 양의 처리력을 사용할 수 있다. 이러한 통신은 다양한 통신 프로토콜 및 압축 규격에 기초할 수 있고 상이한 타입의 LEP를 수반할 수 있다. MCU는 출력 스트림이 전송되고 있는 적어도 하나의 회의참석자의 LEP의 특성과 양립될 수 있는 오디오 또는 비디오의 적어도 하나의 단일 출력 스트림으로 복수의 입력 오디오 또는 비디오 스트림을 (각각) 결합할 필요가 있을 수 있다. 이러한 엔드포인트로부터 수신된 압축된 오디오 스트림은 디코딩되고 분석될 수 있어 어느 오디오 스트림이 컨퍼런스의 단일 오디오 스트림으로 혼합되기 위해 선택될 것인지를 결정할 수 있다. 여기에 사용된 바와 같이, 용어 디코드 및 압축해제는 상호교환가능한 것으로 이해해야 한다.
컨퍼런스는 각 출력 스트림이 레이아웃과 연관되어 있는 하나 이상의 출력 스트림을 가질 수 있다. 레이아웃은 이러한 출력 스트림을 수신하는 하나 이상의 회의참가자의 디스플레이상의 컨퍼런스의 출현을 정의한다. 레이아웃은 각 세그먼트가 특정 회의참가자(엔드포인트)에 의해 전송되는 비디오 입력 스트림과 연관될 수 있는 하나 이상의 세그멘트로 분할될 수 있다. 각 출력 스트림은 다수의 입력 스트림으로 구성될 수 있어서, 화면 분할(CP: continuous presence) 컨퍼런스를 얻을 수 있다. CP 컨퍼런스에서, 원격 단말기에서의 사용자는 컨퍼런스내의 다른 다수의 참가자를 동시에 관찰할 수 있다. 각 참가자는 각 세그먼트가 동일한 크기 또는 상이한 크기일 수 있는, 레이아웃의 세그먼트에 표시될 수 있다. 레이아웃의 세그먼트와 연관되고 표시되는 참가자의 선택은 동일한 세션에 참가하는 상이한 회의참석자 사이에서 다양할 수 있다.
공통 MCU는 각 입력 비디오 스트림을 온전한 프레임의 비압축된 비디오로 디코딩하고, 컨퍼런스와 연관된 복수의 비압축된 비디오 스트림을 관리하고, 각 출력 스트림이 회의참석자 또는 특정 레이아웃과 연관될 수 있는 복수의 출력 스트림을 구성 및/또는 관리할 필요가 있을 수 있다. 출력 스트림은 MCU와 연관된 비디오 출력 포트에 의해 생성될 수 있다. 비디오 출력 포트는 레이아웃 빌더 및 인코더를 포함할 수 있다. 레이아웃 빌더는 선택된 회의참석자로부터의 상이한 비압축된 비디오 프레임을 이들의 최종 크기로 수집하고 스케일링할 수 있고 이들을 레이아웃내의 이들의 세그먼트에 놓을 수 있다. 그후에, 구성된 비디오 프레임의 비디오는 인코더에 의해 인코딩되고 적합한 엔드포인트로 전송된다. 결과적으로, 복수의 화상회의를 처리하고 관리하는 단계는 과중하고 고비용의 계산 리소스를 필요로 하고 그래서 MCU는 보통 고비용이고 복잡한 제품이다. 공통 MCU는 여기에 내용이 언급되어 통합된 다수의 특허 및 특허 출원, 예를 들어, 미국 특허 6,300,973호, 6,496,216호, 5,600,646호 또는 5,838,664호에 개시되어 있다. 이러한 특허는 CP 컨퍼런스에 대한 비디오 출력 스트림을 생성하도록 사용될 수 있는 MCU내의 비디오 유닛의 동작을 개시하고 있다.
화상회의의 사용의 증가 추세에 따라, 구성된 CP 비디오 이미지를 갖는 복수의 컨퍼런싱 세션을 생성할 수 있는 저가의 MCU의 필요가 증가하게 되었다. 이러한 필요는 미디어 릴레이 컨퍼런싱(MRC)의 새로운 기술에 까지 이르게 된다.
MRC에서, 미디어 릴레이 MCU(MRM)는 각 참가하는 미디어 릴레이 엔드포인트(MRE)로부터 하나 이상의 스트림을 수신한다. MRM은 컨퍼런스의 다른 엔드포인트로부터 수신된 다수의 미디어 스트림 세트를 각 참가하는 엔드포인트에 중계한다. 각 수신하는 엔드포인트는 컨퍼런스의 혼합된 오디오는 물론, 레이아웃에 따라, 비디오 CP 이미지를 생성하도록 멀티플 스트림을 사용한다. 이러한 CP 비디오 및 혼합된 오디오는 MRE의 사용자에게 재생된다. MRE는 MRM으로부터 중계된 미디어를 수신하고 MRM로부터의 명령에 따라, 압축된 미디어를 전달하는 능력을 갖는 세션내의 회의참석자의 터미널일 수 있다. 여기에 사용된 바와 같이, 용어 엔드포인트는 MRE 또는 LEP 어느 하나를 나타낼 수 있다.
일부 MRC 시스템에서, 전송 MRE는 각 상이한 품질 레벨과 연관될 수 있는 2개 이상의 스트림으로 전송 MRE의 비디오 이미지를 전송한다. 이러한 시스템은 레이아웃에서의 상이한 세그먼트 크기, 각 수신 엔드포인트에 의해 사용된 상이한 해상도등을 제공하도록 복수의 스트림을 사용할 수 있다. 또한, 복수의 스트림이 패킷 손실을 극복하기 위해 사용될 수 있다. 품질 레벨은 프레임율, 해상도 및/또는 신호 대 잡음 비(SNR)등에서 상이할 수 있다.
오늘날, MRC는 점점 더 널리 사용되고 있다. 또한, 화상회의의 점점 더 많은 소스가 압축된 비디오의 품질에 의해 서로 상이한 복수의 스트림을 병렬로 전달한다. 이러한 품질 레벨은 몇가지 영역으로 표현될 수 있는데, 타임 영역(예를 들어, 초당 프레임), 공간 영역(예를 들어, HD 대 CIF) 및/또는 품질(예를 들어, 샤프니스)등이 있다. 멀티퀄리티 스트림에 사용될 수 있는 비디오 압축 규격은 H.264 AVC, H.264 annex G, MPEG-4등이다. H.264와 같은 압축 규격에 대한 보다 많은 정보는 ITU 웹사이트 www.itu.int 또는 www.mpeg.org에서 발견될 수 있다.
일반적인 비디오 압축 방법은 인트라 프레임 및 인터 프레임을 사용한다. 인트라 프레임은 비디오 시퀀스내의 임의의 다른 프레임과 관련없고 동일한 프레임내에만 포함된 정보와 관련되어 압축된 비디오 프레임이다. 인터 프레임은 비디오 시퀀스내의 하나 이상의 다른 프레임과 관련되어 있고, 동일한 프레임내에 포함된 정보와 관련되어 압축된 비디오 프레임이다.
멀티미디어 멀티포인트 컨퍼런싱 세션의 일부는 LEP를 회의참석자와 MRE를 갖는 회의참석자를 수반할 수 있다. 이러한 컨퍼런싱 세션은 게이트웨이, MCU 및 MRM을 필요로 한다.
게이트웨이는 하나 이상의 LEP 및 하나 이상의 MRE를 수반하는 멀티포인트 멀티미디어 컨퍼런싱을 제어하도록 구성될 수 있다. 게이트웨이는 MRM과 하나 이상의 LEP 사이의 중간 노드에 설치될 수 있다. 대안의 실시예에서, 게이트웨이는 MRM내에 내장될 수 있다. 또 다른 실시예에서, 게이트웨이는 LEP를 제어하는 공통 MCU에 또는 LEP에 추가될 수 있다.
MRM으로부터 LEP로의 방향에서, 게이트웨이는 MRM으로부터 중계된 복수의 오디오 스트림을 처리할 수 있고, 이들을 배열할 수 있고, 이러한 오디오 스트림을 디코딩하고 혼합할 수 있다. 혼합된 오디오 스트림은 목적지 LEP에 의해 사용된 오디오 압축 규격에 따라 인코딩될 수 있고 LEP로 전송될 수 있다. 유사한 방식으로, 수신된 하나 이상의 압축된 비디오 스트림은 게이트웨이에 의해 배열될 수 있고, 디코딩되고, CP 이미지로 구성될 수 있다. CP 이미지는 목적지 LEP에 의해 사용된 비디오 압축 규격에 따라 인코딩될 수 있고 LEP로 전송될 수 있다.
LEP로부터 MRM으로의 다른 방향에서, 게이트웨이는 비디오 스트림을 디코딩하고, (필요하다면) 하나 이상의 크기로 비디오 스트림을 스케일링하고, 세션에 참가하는 MRE에 의해 사용된 압축 규격에 따라 각 스케일링된 비디오 이미지를 압축하도록 구성될 수 있다. MRE의 필요에 따른 압축된 비디오 스트림은 MRM 쪽으로 전송된다. LEP로부터 수신된 압축된 오디오 스트림은 디코딩되고 그 에너지 레벨이 정해질 수 있다. 디코딩된 오디오는 MRE에 의해 사용된 압축 규격에 따라 압축될 수 있고, 오디오 에너지에 대한 표시 역시 추가될 수 있고, MRM의 필요에 따른 압축된 오디오가 MRM 쪽으로 전송될 수 있다.
LEP에 할당된 하나 이상의 ID, LEP에 할당된 레이아웃, 혼합되는 선택된 오디오 스트림 또는 제공된 스트림 및 이들의 세그먼트와 같은, MRM으로부터 수신된 컨트롤 및 시그널링 정보가 처리될 수 있고 게이트웨이에 의해 사용될 수 있다. 다른 시그널링 및 컨트롤, 예를 들어, 셀 설정 명령어가 변환되어 LEP로 전송될 수 있다. MRM, MRE 및 MRC와 레거시 컨퍼런싱 시스템 사이의 게이트웨이에 대해 보다 많이 알기를 원하는 독자는 그 전체 내용이 여기에 언급되어 통합된 미국 특허 8,228,363호를 참조할 수 있다.
동일한 멀티미디어 멀티포인트 컨퍼런싱 세션에 참가하는 MRE와 LEP 사이에 3개의 중간 노드(MRM, 게이트웨이 및 MCU)를 사용하면 MRE 또는 LEP 어느 하나의 타입의 엔드포인트를 사용하는 회의참석자의 경험에 부정적인 영향을 줄 수 있다. 사이에 게이트웨이를 사용하면 트래픽에 대한 레이턴시를 더하게 되고 미디어의 품질을 저하시키게 된다. 이러한 게이트웨이는 보통 추가 디코딩/스케일링/인코딩 동작을 추가한다. 디코딩, 스케일링 및 인코딩 동작은 지연시간을 더하고, 압축해제 및 압축 규격의 손실 성질로 인해 미디어의 품질을 저하시킨다.
또한, 공통 MCU에서, 보통 회의참석자 비디오 이미지 또는 보이스가 다른 회의참석자에 의해 제공되거나 청취되도록 선택되는지 여부에 관계없이 회의참석자가 세션에 접속되어 있는 한, 디코더 및 인코더가 회의참석자에게 할당된다. 이러한 할당 및 MRE와 KEP 사이의 컨퍼런스 세션을 처리하기 위한 3개의 중간 디바이스를 사용함으로 인해 고비용의 리소스를 필요하게 된다.
현 상황의 상술된 문제점들은 본 발명의 범위를 어떠한 방식으로든 제한하고자 하는 것은 아니다. 이러한 문제점들은 단지 설명을 위해 제공되었다.
새로운 유니버셜 브리지(UB)는 복수의 MRE과 LEP 사이의 멀티미디어 멀티포인트 컨퍼런스를 MRM, MCU 및 게이트웨이를 사용하지 않고 처리하고 실행할 수 있다. 또한, UB는 세션 및 각 회의참석자의 현 필요에 따라 리소스를 동적으로 할당하고 방출하도록 구성될 수 있다.
하나의 실시예에서, UB는 MCIF 트랜스포트 프로토콜(MCIFTP) 프레임에 내장된 압축된 미디어의 스트림, 반 압축된(semi-compressed) 미디어의 스트림 및 압축해제된 미디어의 스트림을 운반할 수 있는 미디어 공통 인터페이스(MCIF)를 포함할 수 있다. 각 MCIFTP 프레임은 스트림을 식별하는 ID 필드를 갖고 있는 MCIFTP 헤더를 가질 수 있다. 하나의 실시예에서, MCIF는 공유 메모일일 수 있다. 이러한 실시예에서, 스트림 ID는 메모리 주소 세트를 나타낼 수 있다. UB의 다른 실시예에서, MCIF는 멀티캐스트 라우팅 능력을 갖는 이더넷 스위치일 수 있다. UB의 이러한 실시예에서, 스트림 ID는 프레임의 이더넷 헤더내의 필드일 수 있다. UB의 또 다른 실시예에서, MCIF는 시분할 멀티플렉싱(TDM) 버스일 수 있다. 이러한 실시예에서, 스트림 ID는 타임 슬롯 넘버를 나타낼 수 있다. UB의 다른 예는 다른 타입의 MCIF를 사용할 수 있다.
반 압축은 ZIP, Lempel-Ziv-Welch(LZW), 무손실 JPEG 2000등과 같은 무손실 압축일 수 있다. 다른 실시예에서, 이러한 반 압축은 예를 들어, 무손실 섹션을 실행하지 않고, 부분 H.264 인코딩에 의해 구현될 수 있다.
UB의 하나의 실시예는 LEP 입력 네트워크 인터페이스 프로세서(LEPINIP)의 뱅크; MRE 입력 네트워크 인터페이스 프로세서(MREINIP)의 뱅크; 디코딩 모듈(DM)의 뱅크); 미디어 결합기 모듈(MCM)의 뱅크; 인코더 출력 모듈(EOM)의 뱅크; LEP 출력 네트워크 인터페이스 프로세서(LEPONIP); MRE 출력 네트워크 인터페이스 프로세서(MREONIP)의 뱅크; 및 컨트롤 모듈(CM)의 엘리먼트의 뱅크를 포함할 수 있다.
UB의 하나의 실시예는 예를 들어, 블레이드 컴퓨터와 같은, MCIF를 통해 접속된 다중 처리 유닛을 채용할 수 있다. 각 블레이드는 상기 뱅크로부터의 엘리먼트의 조합을 구현할 수 있다.
LEPINIP는 LEP로부터 수신된 압축된 미디어를 운반하는 인터넷 프로토콜(IP) 패킷의 스트림을 취득할 수 있다. 각 취득된 IP 패킷은 인터넷 프로토콜에 따라 처리될 수 있다. 일부 실시예에서, LEPINIP는 실시간 프로토콜(RTP) 및 실시간 컨트롤 프로토콜(RTCP)을 처리할 수 있다. RTP 및 RTCP 프로토콜에 대해 보다 많이 알기를 원하는 독자는 인터넷 엔지니어링 태스크 포스(IETF) 웹사이트 www.itef.org를 방문할 수 있다. 각 취득된 패킷의 미디어 페이로드는 LEPINIP에 의해 처리된 후에, MCIFTP에 따라 MCIF 프레임에 내장될 수 있고, LEP로부터 수신된 압축된 미디어를 운반하는 MCIFTP 프레임의 스트림은 MCIF 쪽으로 전송된다.
MREINIP는 MRE로부터 수신된 압축된 미디어를 운반하는 인터넷 프로토콜(IP) 패킷의 스트림을 취득할 수 있다. 각 취득된 IP 패킷은 관련 통신 프로토콜에 따라 처리될 수 있다. 각 취득된 패킷의 미디어 페이로드는 MREINIP에 의해 처리된 후에, MCIFIP에 따라 MCIF 프레임에 내장될 수 있고, LEP로부터 수신된 압축된 미디어를 운반하는 MCIFTP 프레임의 스트림은 MCIF 쪽으로 전송된다.
DM의 하나의 실시예는 압축된 미디어를 운반하는 MCIFTP 프레임의 스트림을 취득할 수 있다. DM은 MCIFTP 프레임의 스트림을 디코딩할 수 있고, 디코더 모듈 데이터 유닛(DMDU)을 MCIF로 운반하는 MCIFTP 프레임의 스트림을 전달할 수 있다. 일부 실시예에서, DM은 하나 이상의 스케일러를 포함할 수 있다. 각 스케일러는 디코딩된 이미지를 요청된 크기로 스케일링하고, 스케일링된 DMDU는 MCIFTP 프레임에 내장된다. 이러한 크기는 보통, 높이에 대한 폭(WxH)의, 각 방향에서 화소의 수만큼 정의될 수 있다.
UB의 일부 실시예에서, MCM은 DMDU를 운반하는 MCIFTP 프레임의 복수의 스트림을 취득할 수 있다. MCM은 MCIFTP 프레임의 복수의 스트림에 의해 운반되는 압축해제된 프레임을 CP 비디오 이미지로 결합할 수 있고, 적어도 하나의 LEP 쪽으로 타겟팅된 CP 비디오 이미지의 결합된 이미지를 운반하는 MCIFTP 프레임의 스트림을 전달할 수 있다. DM이 스케일러를 포함하지 않는 UB의 일부 실시예에서, MCM은 DMDU를 운반하는 MCIFTP 프레임의 각 취득된 스트림에 대한 스케일러를 포함할 수 있다. 이러한 스케일러는 취득된 스트림에 의해 운반되는 비디오 이미지의 크기를, 취득된 비디오 이미지가 배치되어야 하는 CP 비디오 이미지의 레이아웃내의 세그먼트의 적합한 크기로 스케일링한다.
EOM의 하나의 실시예는 DMDU를 운반하는 MCIFTP 프레임의 스트림을 취득할 수 있다. DMDU는 예를 들어, LEP로부터 전송되고 DM에 의해 디코딩되고 MRE로 타겟팅된 압축해제된 데이터 유닛일 수 있다. DMDU의 다른 소스는 CP 비디오 이미지의 압축해제된 데이터 유닛을 전달하는 MCM일 수 있다. EOM의 하나의 실시예는 DMDU를 운반하는 MCIFTP 프레임의 하나 이상의 스트림을 처리하고, 압축된 미디어를 운반하는 MCIFTP 프레임의 MCIF 스트림으로 전달할 수 있다. 복수의 블레이드 컴퓨터를 채용하는 UB의 일부 실시예에서, EOM은 다른 블레이드 컴퓨터 쪽으로 타겟팅된 DMDU를 운반하는 MCIFTP 프레임의 스트림을 반 압축할 수 있다.
압축 및 압축해제는 H.264 AVC, H.264 Annex G, MPEG-4등과 같은 압축 규격에 따라 이루어질 수 있고, 이러한 규격은 당업계에 주지되어 있고 더 이상 설명되지 않을 것이다. 미디어가 오디오인 일부 실시예에서, 오디오 압축 및 압축해제는 G.711, G.729, G722.1C, G.719 등과 같은 압축 규격에 따라 이루어질 수 있다. 압축 규격에 대한 보다 많은 정보는 ITU 웹사이트 www.itu.int 또는 www.mpeg.org에서 발견될 수 있다.
MREONIP의 하나의 실시예는 MRE 또는 LEP로부터 나온 압축된 미디어를 운반하는 MCIFTP 프레임의 하나 이상의 스트림을 취득할 수 있고, 이러한 하나 이상의 스트림을 RTP와 같은 관련 통신 프로토콜에 따라 처리할 수 있다. 압축된 미디어를 MRE로 전송하는데 사용될 수 있는 RTP의 하나의 실시예는 미국 특허 8,228,363호에 기술되어 있다. 압축된 미디어를 운반하는 IP 패킷은 하나 이상의 MRE 쪽으로 전송될 수 있다.
CM의 하나의 실시예는 복수의 LEP, MRE와 UB 사이의 통신 세션을 제어한다. 또한, CM은 MCIF로/로부터의 데이터 트래픽을 제어할 수 있고 각 스트림에 대해 ID를 할당할 수 있다. 또한, CM은 각 섹션에 필요한 리소스를 할당하고 관련 리소스를 관련 MRE 또는 LEP에 연관시킬 수 있다. UB의 일부 실시예에서, CM은 세션의 현 필요에 따라 리소스의 일부를 동적으로 할당하도록 구성될 수 있다.
본 발명의 다른 특징은 첨부된 도면 및 상세한 설명에 의해 명백할 것이다. 상술된 요약부분은 본 발명의 각 잠재적 실시예 또는 모든 특징을 요약하고자 하는 것이 아니고, 본 발명의 다른 특징 및 장점은 첨부된 도면 및 첨부된 청구범위와 상세한 설명을 통해 명백해질 것이다.
또한, 특정 실시예가 당업자에게 본 발명의 개념을 설명하기 위해 기술되었지만, 이러한 실시예는 다양한 수정 및 대안의 형태를 역시 포함한다. 따라서, 도면 및 설명은 본 발명의 범위를 제한하는 것은 아니다.
본 발명의 실시예는 다음의 도면과 함께 다음의 상세한 설명으로부터 보다 온전하게 이해될 것이다.
도 1은 다양한 신규의 전자 화상회의 시스템을 구비한 신규의 멀티미디어 컨퍼러싱 시스템(100)의 실시예를 도시하는 도면이다.
도 2는 중앙집중화된 유니버셜 브리지(centralized universal bridge, CUB)의 하나의 실시예의 관련 엘리먼트를 갖는 단순화된 블록도이다.
도 3은 분산 유니버셜 브리지(decentralized universal bridge, DCUB)의 하나의 실시예의 관련 엘리먼트를 갖는 단순화된 블록도이다.
도 4는 고용량 유니버셜 브리지(high volume universal bridge, HVUB)의 하나의 실시예의 관련 엘리먼트를 갖는 단순화된 블록도이다.
도 5a 및 도 5b는 CUB의 실시예에 의해 구현된 컨퍼런스 설정 방법(500)의 관련 액션을 설명하는 순서도를 도시하는 도면이다.
다수의 도면에서 동일한 부재번호는 동일한 부재를 나타내는 도면에, 본 발명의 상이한 실시예가 설명되어 있다. 편의를 위해, 동일한 그룹의 일부 부재만이 번호가 매겨져 있다. 도면의 목적은 상이한 실시예를 기술하기 위한 것이고 제조를 위한 것은 아니다. 따라서, 도면에 도시된 특징은 편의 및 이해를 위해서만 선택되었다. 또한, 본 발명에 사용된 언어는 주로 이해를 위해 선택되었고, 본 발명을 한정하려는 것은 아니다.
명세서에서 "하나의 실시예" 또는 "실시예"는 이러한 실시예에 관련하여 기술된 특정 특징, 구조, 또는 특성이 본 발명의 적어도 하나의 실시예에 포함된다는 것을 의미하고, "하나의 실시예" 또는 "실시예"를 여러번 언급하는 것은 모두 반드시 동일한 실시예를 언급하는 것이 아님을 이해해야 한다.
다음의 설명의 일부가 소프트웨어 또는 펌웨어와 관련되어 기록되었지만, 실시예는 여기에 기술된 특징 및 기능을 소프트웨어, 펌웨어, 및 하드웨어의 임의의 조합을 포함하는, 소프트웨어, 펌웨어 또는 하드웨어로 구현할 수 있다. 다음의 설명에서, 단어 "유닛", "엘리먼트", "모듈" 및 "로지컬 모듈"은 상호교환되어 사용될 수 있다. 유닛 또는 모듈로서 지정된 것은 독립형 유닛 또는 전용 또는 일체화된 모듈일 수 있다. 유닛 또는 모듈은 용이하게 제거되고 또 다른 유사한 유닛 또는 모듈로 대체될 수 있는 모듈러 또는 모듈러 특징을 가질 수 있다. 각 유닛 또는 모듈은 유닛 또는 모듈에 할당된 기능을 수행하도록 프로그램화된 하나 이상의 프로세서를 얻을 수 있는, 소프트웨어, 하드웨어, 및/또는 펌웨어중 어느 하나 또는 임의의 조합일 수 있다. 또한, 동일하거나 상이한 타입의 다수의 모듈은 단일 프로세서에 의해 구현될 수 있다. 로지컬 모듈의 소프트웨어는 읽기/쓰기 하드 디스크, CDROM, 플래시 메모리, ROM, 또는 다른 메모리 또는 저장매체등과 같은 컴퓨터 판독가능 매체에 구현될 수 있다. 특정 태스크를 수행하기 위해, 소프트웨어 프로그램이 필요한대로 적합한 프로세서에 설치될 수 있다. 여기에서 사용된 바와 같이, 용어 태스크, 방법, 프로세스는 상호교환되어 사용될 수 있다.
도 1은 본 발명의 하나의 실시예에 따른 신규의 멀티미디어 컨퍼런싱 시스템(100)을 설명한다. 시스템(100)은 네트워크(110), 하나 이상의 UB(120), 복수의 MRE(130), 및 복수의 LEP(140)를 포함할 수 있다. 네트워크(110)는 패킷 교환망, 회로 교환망 및 IP 네트워크, 또는 이들의 임의의 조합일 수 있지만 이에 제한되는 것은 아니다. 네트워크상의 멀티미디어 통신은 H.320, H.323, SIP와 같은 통신 프로토콜에 기초하고 있을 수 있지만 이에 제한되지 않고, 그리고 H.263, H.264, G.711, G.719와 같은 미디어 압축 규격을 사용할 수 있지만 이에 제한되는 것은 아니다. 여기에서 사용된 바와 같이, 용어 데이터 청크, 프레임 및 패킷은 상호교환되어 사용될 수 있는 것으로 이해될 수 있다.
각 MRE(130)는 실시간, 양방향 시청각 통신을 다른 MRE(130) 또는 UB(120)에 제공할 수 있다. MRE(130)는 UB(120)로부터의 명령에 따라 UB(120)로부터 중계된 압축 미디어(오디오 및/또는 비디오)를 수신하고 중계 압축된 미디어 데이터 청크를 전달하는 능력을 가진, 세션내의 회의참석자의 터미널일 수 있다. 릴레이 및 중계된 압축 미디어, 오디오 또는 비디오, 데이터 청크는 RTP 압축 미디어 데이터 청크일 수 있다. 각 MRE(130)는 릴레이 RTP 압축된 오디오 데이터 청크를 적합한 요구된 비트율 및 요구된 압축 규격으로 전송할 수 있다. 마찬가지로, 각 MRE(130)는 릴레이 RTP 압축된 비디오 데이터 청크를 적합한 요구된 크기, 비트율, 품질, 및 요구된 압축 규격으로 전송할 수 있다. 하나의 실시예에서, 각 MRE(130)은 릴레이 RTP 압축된 오디오 데이터 청크의 헤더 또는 익스텐션 헤더내의 필드에 오디오 에너지 지시를 내장함으로써 그 오디오 에너지의 지시를 전송하도록 구성될 수 있다.
CP 화상회의에서, MRE(130)는 선택된 회의참석자로부터 발생된 비디오 이미지의 데이터 청크의 복수의 중계된 RTP 압축된 비디오 스트림을 수신할 수 있다. 각 비디오 이미지는 이러한 이미지와 연관된 CP 이미지의 적합한 레이아웃 세그먼트에 끼워맞추어질 수 있다. MRE(130)는 수신된 중계된 RTP 압축된 비디오 스트림의 각각을 디코딩하고, 각 디코딩된 이미지를 레이아웃의 적합한 세그먼트에 놓음으로써 이러한 디코딩된 비디오 이미지를 CP 비디오 이미지로 결합할 수 있다. CP 비디오 이미지는 MRE(130)를 사용하고 있는 회의참석자에게 제공되기 위해 디스플레이에 전송될 수 있다.
또한, MRE(130)는 오디오 데이터 청크의 중계된 RTP 압축된 오디오 스트림을 수신할 수 있다. MRE(130)는 오디오 데이터 청크의 수신된 중계된 RTP 압축된 오디오 스트림을 디코딩하고, 상이한 디코딩된 오디오 스트림을 혼합하고, 이러한 혼합된 오디오를 MRE(130) 라우드스피커에 전달할 수 있다. 다른 예에서, MRE(130)는 UB(120)로부터의 명령에 따라 릴레이 RTP 압축된 오디오 및 비디오 데이터 청크를 전달할 수 있다.
LEP(140)는 다른 LEP(140)과 또는 (도 1에 도시되지 않은) MCU와의 실시간, 양방향 오디오 및/또는 오디오 비주얼 통신을 제공할 수 있는, 네트워크(110)상의 엔티티인 공통 화상회의 터미널이다.
UB(120)의 하나의 실시예는 MRM, 및/또는 MCU 및/또는 게이트웨이를 사용하지 않고 복수의 MRE(130)와 LEP(140) 사이의 멀티미디어 멀티포인트 컨퍼런스를 처리하고 행할 수 있다. 또한, UB(120)는 세션 및 각 회의참석자의 현 필요에 따라 동적으로 리소스를 할당하고 풀도록 구성될 수 있다.
UB(120)의 하나의 실시예는 중앙집중화된 UB(CUB)일 수 있다. CUB는 중앙집중화된 구조를 가질 수 있고 복수의 MRE(130)와 복수의 LEP(140) 사이의 네트워크(110)의 중간 노드에 위치될 수 있다. 다른 예에서, UB(120)는 중앙집중화된 구조를 갖는 분산된 UB(DCUB)일 수 있다. DCUB는 복수의 MRE(130)와 복수의 LEP(140) 사이의 네트워크(110)의 중간 노드에 위치된 복수의 처리 엔티티를 구비할 수 있다. DCUB의 일부 실시예에서, 각 처리 엔티티 또는 처리 엔티티의 그룹은 UB(120)의 기능의 일부를 실행할 수 있다. 또 다른 실시예에서, 복수의 처리 엔티티의 각각은 UB(120)의 전체 기능을 실행할 수 있고 복수의 처리 엔티티는 부하를 나눌 수 있다.
UB(120)의 실시예는 MCIFTP 프레임에 내장된 압축된 미디어의 스트림, 반압축된(semi-compressed) 미디어의 스트림 및 압축해제된 미디어의 스트림을 전달할 수 있는 MCIF를 포함할 수 있다. 각 MCIFTP 프레임은 스트림을 식별하는 ID 필드를 갖고 있는 MCIFTP 필드를 가질 수 있다. CUB에서, MCIF는 내부 공통 인터페이스일 수 있다. DCUB에서, MCIF는 내부 MCIF 및 외부 MCIF를 포함할 수 있다. 처리 엔티티의 내부 MCIF는 해당 처리 엔티티의 내부 모듈을 연결할 수 있고 외부 MCIF는 DCUB를 구성하는 복수의 처리 엔티티를 연결할 수 있다. MCIF 어댑터가 외부 MCIF 및 내부 MCIFT를 DCUB의 MCIF와 연관시키기 위해 사용될 수 있다.
UB(120)의 일부 실시예에서, 이러한 MCIF는 공유 메모리일 수 있다. 이러한 실시예에서, 스트림 ID는 메모리 주소의 세트를 나타낼 수 있다. UB(120)의 다른 실시예에서, MCIF는 멀티캐스트 라우팅 능력을 갖는 이더넷 스위치일 수 있다. UB(120)의 이러한 실시예에서, 스트림 ID는 프레임의 이더넷 헤더내의 필드일 수 있다. UB(120)의 또 다른 실시예에서, MCIF는 TDM 버스일 수 있다. 이러한 실시예에서, 스트림 ID는 타임 슬롯 넘버를 나타낼 수 있다. UB의 다른 실시예는 다른 타입의 공통 인터페이스 또는 상기 타입의 공통 인터페이스의 임의의 조합을 사용할 수 있다. UB(120)의 실시예의 동작에 대한 보다 많은 정보는 도 2 내지 도 5b와 관련하여 아래에 설명되어 있다.
도 2는 CUB(200)의 하나의 실시예의 관련 엘리먼트를 갖는 단순화된 블록도이다. CUB(200)는 MCIF(292); LEPINIP(210)의 뱅크; MREINIP(220)의 뱅크; LEPONIP(230)의 뱅크; MREONIP(240)의 뱅크; MRE 또는 LEP로/로부터의 시그널링 및 컨트롤 모듈(250)의 뱅크; DM(260)의 뱅크; MCM(270)의 뱅크; EOM(280)의 뱅크; 컨트롤 버스(294)를 통해 CUB(200)의 동작을 제어하는 CM(290)을 포함할 수 있다. 여기에 사용된 바와 같이, 용어 '뱅크'는 특정 타입으로부터의 복수의 리소스의 그룹을 나타낸다. 이러한 리소스의 각각은 필요한대로 CM(290)에 의해 할당될 수 있다. 각 할당된 리소스는 멀티미디어 멀티포인트 컨퍼런스에 현재 연결된 LEP 또는 MRE의 하나 이상과 연관되는 것은 물론 MCIF(292)를 통해 CUB(200)의 하나 이상의 내부 모듈과 연관될 수 있다.
LEPINIP(210)의 하나의 실시예는 LEP와 연관될 수 있고, 이러한 연관된 LEP(140)로부터 수신된 압축된 미디어를 전달하는 인터넷 프로토콜(IP) 패킷의 스트림을 취득할 수 있다. 이러한 압축된 미디어는 오디오 및/또는 비디오일 수 있다. 각 취득된 IP패킷은 예를 들어 인터넷 프로토콜에 따라 처리될 수 있다. 일부 실시예에서, LEPINIP(210)는 또한 RTP 및 RTCP 헤더를 처리할 수 있다. 각 취득된 패킷의 미디어 페이로드, 압축된 오디오 또는 압축된 비디오는 LEPINIP(210)에 의해 처리된 후에, MCIFTP에 따라 MCIF 프레임에 내장될 수 있고; LEP(140)로부터 수신된 압축된 미디어를 전달하는 MCIFTP 프레임의 스트림은 MCIF 쪽으로 전달된다.
LEP(140)가 화상회의에 참여할 때, CM(290)은 이러한 LEP로부터 수신된 압축된 비디오 스트림을 처리하기 위한 하나의 LEPINIP(210) 및 이러한 LEP로부터 수신된 압축된 오디오를 처리하기 위한 LEPINIP(210)를 할당할 수 있다. 각 LEPINIP(210)는 이러한 LEPINIP(210)에 의해 처리되는 수신된 압축 비디오 또는 오디오 스트림과 연관된 스트림 ID(SID)를 수신할 수 있다. CM(290)은 모든 SID 및 할당된 리소스의 맵 및 각 스트림을 적합한 리소스에 전송하는 방법에 대한 정보를 관리할 수 있다.
이러한 할당된 SID는 해당 스트림의 MCIFTP 프레임이 MCIF(292)를 이동하는 동안 이러한 MCIFTP 프레임을 마킹하기 위해 사용된다. MCIF를 이동하는 각 스트림에 대해 사용되는 마킹 기술은 MCIF(292)의 타입에 따라 다르다. 예를 들어, MCIF가 공유 메모리라면, LEPINIP(210)는 LEPINIP(210)가 예를 들어, 사이클릭 모드에서 각 수신된 압축된 데이터 청크를 기록(저장)할 수 있는 공유 메모리에 어드레스의 인터벌을 CM(292)으로부터 취할수 있다. MCIF(292)가 TDM 버스이라면, LEPINIP(210)는 이러한 SID에 연관된 타임 슬롯 넘버등을 취할 수 있다.
각 할당된 LEPINIP(210)는 CM(290)으로부터 수신된 정보에 기초하여, 압축된 미디어, 비디오 또는 오디오를 전달하기 위한 관련 LEP과의 RTP 커넥션 및, 이러한 RTP 커넥션에 관련된 실시간 컨트롤 프로토콜의 패킷을 전달하기 위한 RTCP 커넥션을 설정할 수 있다. 압축된 미디어를 전달하는 각 수신된 패킷은 RTP 커넥션을 통해, 압축된 미디어의 데이터 청크를 취득하기 위해 IP 프로토콜 및 RTP 프로토콜에 따라 처리된다. 그다음, 이러한 압축된 미디어 데이터 청크는 MCIF(292)의 구조에 따라 MCIFIP 프레임에서 구성되고 SID의 값은 MCIFIP 프레임의 헤더의 일부로서 추가될 수 있다. MCIFIP 프레임은 예를 들어, 버퍼를 통해 MCIF(292)에 전송될 수 있다. MCIF(292)가 공유 메모리라면, 각 MCIFIP 프레임은 예를 들어, 해당 SID에 할당된 공유 메모리의 섹션에 사이클릭 모드로 저장될 수 있다.
(도면에 도시되지 않은) 일부 실시예에서, LEPINIP(210)는 DM를 더 포함할 수 있다. 이러한 DM은 하나 이상의 스케일러를 포함할 수 있다. 이러한 실시예에서, RTP 커넥션을 통해 LEP로부터 발생된, 압축된 미디어를 전달하는 각 수신된 패킷은 압축된 미디어의 데이터 청크를 취득하기 위해 IP 프로토콜 및 RTP 프로토콜에 따라 처리된다. 이러한 압축된 미디어 데이터 청크는 그다음 DM에 의해 스케일링되거나 또는 스케일링 없이 디코팅될 수 있다. DMDU는 MCIF(292)의 구조에 따라 MCIFIP 프레임에 구성될 수 있고 SID의 값은 MCIFIP 프레임의 헤더의 일부로서 추가될 수 있다. DM이 하나 이상의 스케일러를 포함하는 실시예에서, SID는 스케일러와 연관될 수 있다. DMDU를 전달하는 MCIFIP 프레임은 버퍼를 통해 MCIF(292)에 전송될 수 있다. MCIF(292)가 공유 메모리라면, 각 MCIFIP 프레임은 해당 SID에 할당된 공유 메모리의 섹션에 사이클릭 모드로 저장될 수 있다.
DM를 포함하는 LEPINIP(210)의 대안의 실시예(도면에 도시되지 않음)에서, DM은 무손실 인코더를 더 포함할 수 있다. 무손실 인코더는 MCIF(292)를 통해 전송될 필요가 있는 압축되지 않은 디코딩된 미디어(오디오 또는 비디오)를 무손실 알고리즘을 사용하여 압축하기 위해 사용될 수 있다. 무손실 디코더는 DMDU를 수집하는 엘리먼트에 의해 사용될 수 있다. 무손실 디코더 및 인코더는 GZIP, Lempel-Ziv-Welch(LZW), 무손실 JPEG 2000등과 같은 무손실 압축 알고리즘을 사용할 수 있지만, 이에 제한되는 것은 아니다. 다른 실시예에서, 무손실 압축은 예를 들어, 무손실 섹션을 실행하는 일 없이 부분 H.264 인코딩에 의해 구현될 수 있다. 여기에 사용된 바와 같이, 용어 반압축 및 무손실 압축은 상호교환가능한 것으로 이해될 수 있다.
MREINIP(220)는 MRE(130)와 연관될 수 있고, 이러한 연관된 MRE(130)로부터 수신된 압축 미디어를 전달하는 IP 패킷의 스트림을 취득할 수 있다. 이러한 압축된 미디어는 오디오 및/또는 비디오일 수 있다. 각 취득된 IP 패킷은 예를 들어, 인터넷 프로토콜에 따라 처리될 수 있다. 각 취득된 패킷의 RTP 미디어 페이로드, 릴레이 RTP 압축된 오디오 또는 압축된 비디오 데이터 청크는 MREINIP(220)에 의해 처리된 후에, MCIFIP에 따라 MCIF 프레임에 내장될 수 있고; MRE(130)로부터 수신된 릴레이 RTP 압축된 미디어를 전달하는 MCIFIP 프레임의 스트림은 MCIF(292) 쪽으로 전송된다.
MRE(130)가 화상회의에 참여할 때, CM(290)은 이러한 MRE(130)로부터 수신된 압축된 비디오의 하나 이상의 스트림을 처리하기 위한 하나 이상의 MREINIP(220)를 할당할 수 있다. 각 압축된 비디오 스트림은 상이한 해상도(크기), 품질등을 가질 수 있다. 또한, 하나 이상의 MREINIP(220)는 MRE(130)로부터 수신된 하나 이상의 압축된 오디오 스트림을 처리하기 위해 할당될 수 있다. 각 MREINIP(220)는 MREINIP(220)에 의해 처리되는 수신된 압축 비디오 또는 오디오 스트림과 연관된 스트림 ID(SID)를 수신할 수 있다.
할당된 SID는 해당 스크림의 MCIFIP 프레임이 MCIF(292)를 통해 이동하는 동안 MCIFIP 프레임을 마킹하는데 사용된다. MCIF(292)를 통해 각 스트림을 전송하는 방법에 대한 정보는 MCIF(292)의 타입에 따라 다르다. 예를 들어, MCIF(292)가 공유 메모리라면, MREINIP(220)는 각 MCIFIP 프레임을 사이클릭 모드로 기록(저장)할 수 있는 공유 메모리내의 주소의 인터벌을 CM(290)으로부터 취할 수 있다. MCIF(292)가 TDM 버스라면, MREINIP(220)는 해당 SID에 연관된 타임 슬롯 넘버등을 취할 수 있다.
각 할당된 MREINIP(220)는 컨트롤 버스(294)를 통해 CM(290)으로부터 수신된 정보에 기초하여, 압축된 미디어, 비디오 또는 오디오를 전달하기 위한 관련 MRE(130)과의 RTP 커넥션 및, 이러한 RTP 커넥션과 관련된 실시간 제어 프로토콜의 패킷을 전달하기 위한 RTCP 커넥션을 설정할 수 있다. RTP 커넥션을 통해, 압축된 미디어를 전달하는 각 수신된 패킷은 압축된 미디어의 릴레이 RTP 데이터 청크를 취득하기 위해 IP 프로토콜에 따라 처리된다. 그다음, 이러한 RTP 압축된 미디어 데이터 청크는 MCIF(292)의 구조에 따라 MCIFTP 프레임에 구성될 수 있고 관련 SID의 값은 MCIFTP 프레임의 헤더의 부분으로서 추가될 수 있다. 이러한 MCIFTP 프레임은 예를 들어, 버퍼를 통해 MCIF(292)에 전송될 수 있다. MCIF(292)가 공유 메모리라면, 각 MCIFTP 프레임은 예를 들어, 해당 SID에 할당된 공유 메모리의 섹션에 사이클릭 모드로 저장될 수 있다. MCIF(292)가 이더넷 LAN이라면, 각 MCIFTP 프레임은 이더넷 헤더의 목적지 주소와 SID를 연관시킬 수 있다. 이더넷 LAN이 멀티캐스트 능력을 갖는 실시예에서, SID는 멀티캐스트 주소와 연관될 수 있다.
LEP(140)가 비디어 컨퍼런스에 참여할 때, CM(290)은 해당 LEP 쪽으로 전송되는 압축된 CP 비디오 이미지를 처리하기 위한 하나의 LEPONIP(230) 및 해당 LEP 쪽으로 전송되는 압축된 오디오 믹스를 처리하기 위한 하나의 LEPONIP(230)를 할당할 수 있다. 각 LEPONIP(230)는 관련 LEPONIP(230)에 의해 MCIF(292)로부터 취득될 필요가 있는 압축된 비디오 또는 오디오 MCIFTP 프레임과 연관된 SID를 수신할 수 있다. 각 할당된 LEPONIP(230)는 CM(290)으로부터 수신된 정보에 기초하여, 압축된 미디어, 비디오 E는 오디오를 전달하기 위한 관련 LEP(140)과의 RTP 커넥션, 및 이러한 RTP 커넥션에 관련된 실시간 컨트롤 프로토콜의 패킷을 전달하기 위한 RTCP 커넥션을 달성할 수 있다.
LEPONIP(230)는 관련 LEP(140)과 연관된 EOM(280)으로부터 수신된 압축된 미디어를 전달하는 MCIFTP의 스트림을 MCIF(292)로부터 취득할 수 있다. 압축된 미디어는 혼합된 오디오 또는 적합한 MCM(270)에 의해 생성된 CP 비디오 이미지일 수 있다. MCIF(292)로부터 적합한 MCIFTP 프레임을 취득하는데 사용되는 기술은 MCIF(292)의 타입에 따라 다르고 공유 메모리, TDM 버스, 이더넷등을 포함한다.
LEPONIP(230)는 각 취득된 MCIFTP 프레임내에 내장된 압축된 미디어를 검색하기 위해 각 취득된 MCIFTP 프레임을 처리할 수 있다. MCIFTP 프레임의 처리는 예를 들어, MCIFTP 프레임의 헤더를 제거하는 단계를 포함할 수 있다. 각 처리된 MCIFTP 프레임의 미디어 페이로드는 RTP 압축된 미디어 데이터 청크를 생성하도록 RTP를 따르도록 구성될 수 있다. 적합한 필드를 가진 RTP 헤더가 추가될 수 있다. RTP 헤더의 필드는 인코더, 시퀀스 넘버, 타임 스탬프등은 물론 미디어를 반영하는, 페이로드 타입(PT), 해당 스트림의 소스(SSRC)를 반영할 수 있다. RTP 데이터 청크는 IP 패킷내에 내장되도록 IP 프로토콜에 따라 처리될 수 있다. IP 헤더는 패킷에 추가될 수 있다. 헤더의 소스 IP 주소 및 포트는 관련 LEPONIP(230)를 반영할 수 있다. 목적지 IP 주소는 연관된 LEP(140) 및, 이러한 미디어 타입과 연관된 포트 넘버를 반영할 수 있다. IP 패킷은 연관된 LEP(140) 쪽으로 전송될 수 있다. 일부 실시예 또는 일부 세션에서, IP 패킷은 동일한 압축 규격 및 동일한 오디오 믹스, 또는 CP 비디오 이미지를 공유하는 복수의 LEP(140) 쪽으로 전송될 수 있다.
MRE(130)가 비디오 컨퍼런스에 참여할 때, CM(290)은 CP 비디오 이미지에 포함되도록 해당 MRE(130) 쪽으로 전송되는 중계된 RTP 압축된 비디오 이미지를 처리하기 위한 하나 이상의 MREONIP(240)를 할당할 수 있다. CUB(200)의 하나의 실시예에서, 제공된 MRE(130) 또는 LEP(140)의 중계된 RTP 압축된 비디오 데이터 청크는 CUB(200)와 관련 MRE(130) 사이의 단일 RTP 커넥션을 통해 전송될 수 있다. 이러한 실시예에서, 단일 MREONIP(240)는 해당 MRE(130) 쪽으로 전송된 CP 이미지의 압축된 비디오를 처리하기 위해 할당될 수 있다.
다른 실시예 CUB(200)에서, 각각 제공된 MRE(130) 또는 LEP(140)의 중계된 RTP 압축된 비디오 데이터 청크는 CUB(200)와 관련 MRE(130) 사이에 별개의 RTP 커넥션을 통해 전송될 수 있다. 이러한 실시예에서, 복수의 MREONIP(240)가 각 RTP 커넥션에 대해 하나씩, 중계된 압축된 비디오 스트림에 대해 할당될 수 있다. 각 MREONIP(240)는 제공된 MRE(130) 또는 LEP(140)중 하나에 의해 유래된 중계된 RTP 압축된 비디오 데이터 청크를 처리할 수 있다.
유사한 방식으로, 하나 이상의 MREONIP(240)는 해당 MRE(130) 쪽으로 전송되는 중계된 RTP 압축된 혼합된 오디오를 처리하기 위해 할당될 수 있다. 압축된 미디어(오디오/비디오)를 전달하는 각 RTP 커넥션에 대해, RTCP 커넥션은 RTP 커넥션에 관련된 실시간 컨트롤 프로토콜의 패킷을 전달하기 위해 달성될 수 있다.
할당 프로세스 동안, 각 할당된 MREONIP(240)는 CM(290)으로부터 SID 값에 대한 표시를 수신할 수 있다. 표시된 SID는 관련 MREONIP(240)에 의해 MCIF(292)로부터 취득될 필요가 있는 중계된 RTP 압축된 비디오/오디오 데이터 청크를 전달하는 MCIFTP와 연관될 수 있다. 표시된 SID는 중계된 RTP 압축된 비디오/오디오 데이터 청크를 전달하는 MCIFTP 프레임을 구성하는 관련 MCM(270)에 의해 사용될 수 있다.
MREONIP(240)는 CM(290)으로부터, MCIF(292)로부터 수집되는 하나 이상의 압축된 중계된 스트림의 SID 값을 취득할 수 있다. 스트림의 수는 CP 이미지 또는 혼합된 오디오의 중계된 압축 미디어가 단일 RTP 커넥션 또는 복수의 RTP 커넥션을 통해 전송되는지 여부에 달려 있다. 압축된 미디어를 전달하는 MCIFTP 프레임의 하나 이상의 스트림은 관련 MRE(130)와 연관된 MCM(270)으로부터 수신된다. 수신된 SID 값에 기초하여, MCIF(292)로부터 적합한 MCIFTP 프레임을 취득하는 것은 공유 메모리, TDM 버스, 이더넷 등의 MCIF(292)의 타입에 달려 있다.
MREONIP(240)의 실시예는 각 취득된 MCIFTP 프레임을 처리할 수 있고 이러한 프레임내에 내장된 압축된 미디어를 검색할 수 있다. MCIFTP 프레임을 처리하는 단계는 예를 들어, MCIFTP 프레임의 헤더를 제거하는 단계를 포함한다. 각 처리된 MCIFTP 프레임의 미디어 페이로드는 RTP 압축된 미디어 데이터 청크를 생성하기 위해 RTP와 대응하도록 구성될 수 있다. 적합한 필드를 가진 RTP 헤더가 추가될 수 있다. RTP 헤더의 필드는 인코더, 시퀀스 넘버, 타임 스탬프등은 물론 미디어를 반영하는 페이로드 타입(PT), 해당 스트림의 소스(SSRC)를 반영할 수 있다. RTP 데이터 청크는 IP 패킷내에 내장되도록 인터넷 프로토콜에 따라 처리될 수 있다. IP 헤더는 패킷에 추가될 수 있다. 헤더의 소스 IP 주소 및 포트는 관련 MREONIP(240)를 반영할 수 있다. 목적지 IP 주소는 연관된 MRE(130) 및, 이러한 미디어 타입과 연관된 포트 넘버를 반영할 수 있다. IP 패킷은 연관된 MRE(130) 쪽으로 전송될 수 있다. 일부 실시예 또는 일부 세션에서, IP 패킷은 동일한 압축 규격 및 동일한 오디오 믹스, 또는 CP 비디오 이미지를 공유하는 복수의 MRE(130) 쪽으로 전송될 수 있다.
MRE 또는 LEP로/로부터의 시그널링 및 컨트롤(250)의 하나의 실시예는 엔드포인트가 CUB(200)에 접속될 때 MRE(130) 또는 LEP(140)에 대해, CM(290)에 의해 할당될 수 있다. 시그널링 및 컨트롤 모듈(250)은 통신 세션을 달성하고 관련 엔드포인트를 컨퍼런스에 접속하기 위해 사용된다. CM(290)은 관련 시그널링 및 컨트롤 모듈(250)을 통해, 엔드포인트 및 관련 컨퍼런스 세션을 인증할 수 있다. 인증 후에, 엔드포인트의 타입, 압축 규격, 비트율 등을 정의하는 엔드포인트의 능력을 정의하기 위해 시작될 수 있다. 또한, 해당 엔드포인트에 대한 CP 비디오 이미지, 강요된 스피커 등을 기술하는 레이아웃이 정의될 수 있다. 협상은 예를 들어, H.323 또는 SIP에 기초할 수 있고, 이것은 당업계에 주지되어 있고 더 설명되지 않을 것이다.
3개의 타입의 미디어 프로세서는 CUB(200)에 포함될 수 있다. 제1 타입은 압축된 미디어, 오디오 또는 비디오를 디코딩하는(압축해제하는) 디코딩 모듈 DM(260)이다. 제2 타입은 MCIF(292)를 통해 하나 이상의 엔드포인트 쪽으로 전송되기 위해 2개 이상의 엔드포인트로부터 수신된 미디어를 결합된 미디어로 결합하는 MCM(270)이다. 오디오를 결합하는 MCM(270)은 하나 이상의 엔드포인트로부터 수신된 오디오를 혼합할 수 있다. 비디오를 결합하는 MCM(270)은 CP 이미지로 결합되기 위해 2개 이상의 제공된 엔드포인트로부터 수신된 비디오 이미지를 결합할 수 있다. 제3 타입의 미디어 프로세서는 디코딩된 미디어, 오디오 또는 비디오를 인코딩하는(압축해제하는) EOM(280)을 포함할 수 있다.
3개의 타입의 미디어 프로세서 DM(260), MCM(270) 및 EOM(280)의 각각은 MCIF 섹션 및 미디어 섹션의 2개의 섹션(도면에 도시되지 않음)을 포함할 수 있다. 3개의 타입의 미디어 프로세서중 MCIF 섹션은 유사할 수 있다. MCIF 섹션의 하나의 실시예는 MCIF(292)로부터 MCIFTP 프레임의 관련된 하나 이상의 스트림을 취득하고, MCIFTP 프레임의 헤더를 처리하고, 미디어 페이로드를 구성하고, 이러한 미디어 페이로드를 미디어 섹션 쪽으로 전달하도록 구성될 수 있다. 또 다른 방향으로, MCIF 섹션은 미디어 섹션으로부터 처리된 미디어 데이터를 취득하고, MCIFTP 프레임의 페이로드로서 미디어를 구성하고, MCIFTP 프레임의 하나 이상의 스트림을 마킹하기 위해 적합한 헤더를 추가하고 이러한 MCIFTP 프레임을 MCIF(292) 쪽으로 전달하도록 구성될 수 있다.
DM(260), MCM(270) 또는 EOM(280)의, 미디어 프로세서를 할당한 후에, 이러한 할당된 미디어 프로세서의 MCIF 섹션은 CM(290)으로부터 2개의 SID 값, 입력 SID 값 및 출력 SID 값을 수신할 수 있다. 이러한 입력 SID 값은 미디어 프로세서에 의해 처리되기 위해, 할당된 미디어 프로세서로의 입력으로서, MCIF(292)로부터 취득되는 압축된 미디어 MCIFTP 프레임의 스트림을 나타낼 수 있다. 출력 SID 값은 CUB(200)의 하나 이상의 내부 모듈 쪽으로 MCIF(292)를 통해 전달되는, 할당된 미디어 프로세서의 출력에서 처리되는 미디어 MCIFTP 프레임의 스트림을 나타낼 수 있다. SID의 타입 및 MCIFTP 프레임을 취득하고 MCIF(292)를 통해 전송하는 방식은 MCIF의 타입(공유 메모리, TDM 버스등)에 달려있고 이것은 상술되어 있고 더 이상 설명되지 않을 것이다.
CUB(200)의 하나의 실시예에서, DM(260)은 MCIF(292)를 통해 전송되고 MRE(130) 또는 LEP(140)로부터 각각 MREINIP(220) 또는 LEPINIP(21)를 통해 전달되는 MCIFTP 프레임의 각 압축된 이미어 스트림에 대해, CM(290)에 의해, 전체 세션에 대해 할당될 수 있다.
CUB(200)의 다른 실시예에서, DM(260)은 MCIF(292)를 통해 전송되고, LEP(140) 또는 MRE(130)중 하나 쪽으로 결합되고 전달될 CP 비디오 이미지로 현재 표현되는 LEPINIP(210)를 통해 LEP(140)로부터 수신된 MCIFTP 프레임의 각 압축된 미디어 스트림에 대해, CM(290)에 의해, 필요한대로 할당될 수 있다. DM(260)은 또한, MCIF(292)를 통해 전송되고, LEP(140)중 하나 쪽으로 결합되고 전달될 CP 비디오 이미지로 현재 표현되는 MREINIP(220)를 통해 MRE(130)로부터 수신된 MCIFTP 프레임의 각 압축된 미디어 스트림에 대해 할당될 수 있다. 이러한 실시예에서, DM(260)이 할당될 때마다, 인트라 프레임이 관련 MRE(130) 또는 LEP(140)로부터 요청될 수 있다.
할당된 DM(260)의 MCIF 섹션은 CM(290)으로부터 2개의 SID 값, 즉, MCIF(292)로부터 취득되는 압축된 미디어 MCIFTP 프레임의 스트림을 DM(260)에 의해 디코딩되는, 할당된 DM(260)으로의 입력으로서 표현할 수 있는 입력 SID 값; 그리고, MCM(270) 또는 EOM(280)중 하나 이상 쪽으로 MCIF(292)를 통해 전달되는, 할당된 DM(260)의 출력 스트림으로서, 디코팅된 미디어 MCIFTP 프레임의 스트림을 표현하는 출력 SID 값을 수신할 수 있다. DM(260)의 할당된 미디어 섹션은 입력 스트림을 할당된 DM(260)으로 압축하도록 사용되는 압축 규격을 따르도록 구성되어 있다. 이러한 압축 규격은 압축된 비디오에 대해서는 H.264, 또는 압축된 오디오에 대해서는 G.729일 수 있지만 이에 제한되는 것은 아니다.
동작 동안, DM(260)의 MCIF 섹션은 입력 SID 값과 연관된 압축된 미디어의 MCIFTP 프레임을 MCIF(292)로부터 취득할 수 있다. 각 프레임은 이들의 시퀀스 및 타임 스탬프에 따라 프레임을 구성하도록 처리될 수 있다. 프레임 헤더는 제거될 수 있고, 압축된 미디어 페이로드(오디오 또는 비디오)는 미디어 디코더인, DM(260)의 미디어 섹션 쪽으로 전달될 수 있다. 미디어 디코더는 관련 압축된 스트림의 타입에 따라, 압축된 미디어를 디코딩된 스트림, 오디오 또는 비디오로 디코딩한다. 압축된 오디오 또는 비디오의 디코딩은 당업계에 주지되어 있으므로 더 설명되지 않을 것이다. 관련 DM(260)에 의해 처리되는 미디어가 오디오인 경우에, DM(260)은 디코딩된 오디오 스트림의 오디오 에너지를 주기적으로 결정할 수 있고 컨트롤 커넥션(294)을 통해 이러한 파라미터를 CM(290)에 전달할 수 있다.
디코딩된 미디어 스트림은 할당된 DM(260)의 MCIF 섹셕으로 전송될 수 있다. MCIF 섹션은 디코딩된 미디어 스트림을, 해당 DM(260)에 할당된 출력 SID 값과 연관된 MCIFTP 프레임으로 배열할 수 있다. MCIFTP 프레임은 MCIF(292)의 타입에 따라 생성된다. MCIFTP 프레임은 MCIF(292)를 통해 DMDU의 MCIFTP 프레임을 전송하는 DM(260)의 출력 스트림으로서 전달될 수 있다.
CUB(200)의 일부 실시예에서, DM(260)의 비디오 섹션은 하나 이상의 스케일러를 포함할 수 있다. 각 스케일러는 디코딩된 이미지를 요청된 크기로 스케일링할 수 있다. 이러한 실시예에서, 복수의 출력 SID 값이 해당 DM(260)의 MCIF 섹션에 할당될 수 있다. 각 출력 SID 값은 스케일러와 연관될 수 있다. MCIF 섹션에서, 스케일링된 DMDU는 관련 출력 SID와 연관된 MCIFTP 프레임에 내장될 수 있고 별개의 스트림으로서 MCIF(292)로 전달될 수 있다. 각 스케일러의 출력 사이즈는 높이에 대한 폭(WxH)의, 각 방향에서 화소의 수만큼 정의될 수 있다. 비디오 이미지의 스케일러의 동작은 당업계에 주지되어 있고 더 이상 설명되지 않을 것이다.
CUB(200)의 실시예는 복수의 타입의 MCM(270)을 포함할 수 있다. MCM(270)의 타입은 미디어, 오디오 또는 비디오의 타입, 및 결합된 미디어가 타겟팅되는 엔드포인트의 타입, LEP(140) 또는 MRE(130)에 따라 다를 수 있다. 상술된 바와 같이, MCM(270)은 MCIF 섹션 및 미디어 섹션을 포함할 수 있다. MCM(270)의 MCIF 섹션은 할당된 입출력 SID 값의 상이한 수로, 상술된 것과 유사한 방식으로 동작할 수 있다. 할당된 MCM(270)의 MCIF 섹션은 복수의 입력 SID 값을 수신할 수 있다. 입력 SID 값의 각각은 예를 들어, 타겟팅된 엔드포인트에 의해 제공되거나 청취되도록, CM(290)에 의해 선택된 엔드포인트로부터 나오는 스트림을 나타낼 수 있다. 따라서, 입력 SID 값은 스피커가 변경되거나 제공된 회의참석자등이 변경될 때, 세션의 역학관계(dynamics)에 따라 컨퍼런스 세션 동안 변경될 수 있다. 현 할당된 입력 SID 값에 따라, MCIF 섹션은 MCIF(292)로부터, 선택된 스트림의 MCIFTP 프레임을 취득하고, 이렇게 취득된 프레임을 스트림에 구성하고, MCM(270)의 미디어 섹션에서 각 스트림의 미디어 페이로드를 미디어 결합기 쪽으로 전달한다.
다른 방향에서, MCM(270)의 미디어 섹션으로부터, 결합된 미디어의 하나 이상의 스트림은 MCM(270)의 MCIF 섹션에 의해 MCIFTP 프레임의 페이로드로서 구성될 수 있다. 적합한 출력 SID 값을 갖는 헤더가 결합된 미디어 페이로드로 더해질 수 있어서 MCIFTP 프레임을 생성하고, 이러한 MCIFTP 프레임은 MCIF(292)에 전달된다.
LEP(140) 쪽으로 타겟팅된 CP 비디오 이미지를 생성하도록 구성된 비디오 MCM(270)의 하나의 실시예는 현재 할당된 입력 SID 값에 기초하여, 비디오 DMDU를 전달하는 MCIFTP 프레임의 복수의 스트림을 취득할 수 있는 MCIF 섹션을 가질 수 있다. 비디오 DMDU의 취득된 MCIFTP 프레임은 복수의 비디오 DM(260)에 의해 MCIF(292)에 전달되었다. 각 비디오 DM(260)은 현재 선택된 제공된 LEP(140) 또는 MRE(130)와 연관되어 있다. 따라서, 특정 비디오 DM(260)에 의해 전달된 스트림의 출력 SID 값은 해당 스트림을 가리키는 비디오 MCM(270)의 입력 SID 값과 유사할 수 있다. CUB(200)의 다른 실시예에서, 특정 비디오 DM(260)에 의해 전달된 스트림의 출력 SID의 값과 이러한 스트림을 가리키는 MCM(270)의 입력 SID 값은 상이할 수 있다. 이러한 실시예에서, SID 전환 테이블은 이러한 2개의 상이한 SID 값을 연관시키기 위해 비디오 MCM(270)으로 렌더링될 수 있다. MCIF 섹션은 선택된 스트림의 수신된 MCIFTP 프레임을 처리할 수 있고, 취득된 프레임을 스트림에 구성할 수 있고, 각 스트림의 DMDU를 비디오 MCM(270)의 미디어 섹션에서 CP 이미지 빌더 쪽으로 전달할 수 있다.
CP 이미지 빌더는 선택된 비디오 이미지의 디코딩된 비디오 데이터를 CP 비디오 이미지로 결합하고, 디코딩된 CP 이미지 데이터 유닛의 스트림을 비디오 MCM(270)의 MCIF 섹션으로 전달할 수 있다. MCIF 섹션은 디코딩된 CP 이미지 데이터 유닛을 MCIFTP 프레임으로 구성할 수 있고, 할당된 출력 SID 값을 포함하는 헤더를 추가할 수 있고, MCIFTP 프레임의 스트림을 비디오 EOM(280)과 LEPONIP(230)를 통해 적어도 하나의 타겟팅된 LEP(140) 쪽으로 전달할 수 있다. 비디오 DM(260)이 스케일러를 포함하지 않는 CUB(200)의 일부 실시예에서, CP 이미지 빌더는 DMDU를 전달하는 MCIFTP 프레임의 각 선택된 스트림에 대한 스케일러를 포함할 수 있다. 이러한 스케일러는 각 선택된 스트림에 의해 전달되는 비디오 이미지의 크기를 취득된 비디오 이미지가 놓여야 하는 CP 비디오 이미지의 레이아웃내의 세그멘트의 적합한 사이즈로 스케일링한다. CP 이미지 빌더 및 스케일러의 동작은 당업계에 주지되어 있고 더 이상 설명되지 않을 것이다.
적어도 하나의 타겟팅된 LEP(140) 쪽으로 전송될 복수의 오디오 스트림을 혼합하도록 구성된 오디오 믹서 MCM(270)의 하나의 실시예는 디코딩된 오디오 데이터 유닛인, DMDU를 전하는 MCIFTP 프레임의 복수의 스트림을, 현제 할당된 입력 SID 값에 기초하여, 취득할 수 있는 MCIF 섹션을 가질 수 있다. 이렇게 취득된 DMDU의 MCIFTP 프레임은 복수의 오디오 DM(260)에 의해 MCIF(292)에 전달되었다. 각 오디오 DM(260)은 현재 선택된 청취된 LEP 또는 MRE와 연관되어 있다. 따라서, 특정 오디오 DM(260)에 의해 전달된 스트림의 출력 SID 값은 이러한 스트림을 가리키는 MCM(270)의 입력 SID 값과 유사할 수 있다. CUB(200)의 다른 실시예에서, 특정 오디오 DM(260)에 의해 전달된 오디오 스트림의 출력 SID의 값과 이러한 스트림을 가리키는 오디오 믹서 MCM(270)의 입력 SID 값은 상이할 수 있다. 이러한 실시예에서, SID 전환 테이블은 2개의 상이한 SID 값을 연관시키기 위해 MCM(270)에 렌더링될 수 있다. MCIF 섹션은 선택된 스트림의 수신된 MCIFTP 프레임을 처리할 수 있고, 이러한 취득된 프레임을 오디오 스트림에 구성할 수 있고, 각 오디오 스트림의 DMDU를 MCM(270)의 미디어 섹션에서 오디오 믹서 쪽으로 전달할 수 있다.
오디오 믹서는 선택된 오디오 스트림의 디코딩된 오디오 데이터를 디코딩된 혼합된 오디오에 혼합할 수 있고, 디코딩된 혼합된 오디오 데이터 유닛의 스트림을 오디오의 MCIF 섹션으로 전달할 수 있다. MCIF 섹션은 이러한 디코딩된 혼합된 오디오 데이터 유닛을 MCIFTP 프레임에 구성할 수 있고, 할당된 출력 SID 값을 포함하는 헤더를 더할 수 있고, 이러한 MCIFTP 프레임의 혼합된 오디오 스트림을 오디오 EOM(280) 및 LEPONIP(230)를 통해 적어도 하나의 타겟팅된 LEP(140) 쪽으로 전달할 수 있다. 오디오 믹서의 동작은 당업계에 주지되어 있고 더 이상 설명하지 않을 것이다.
MCM(270)의 또 다른 타입, 중계된 비디오 MCM(270)은 2개 이상의 선택된 릴레이 RTP 압축된 비디오 스트림을 하나 이상의 MRE(130) 쪽으로 전송되는 하나 이상의 중계된 RTP 압축된 비디오 스트림으로 전환하기 위해 사용될 수 있다. 각 MRE(130)는 수신된 전송된 하나 이상의 중계된 RTP 압축된 비디오 스트림으로부터 CP 비디오 이미지를 구축하고 제공할 수 있다.
중계된 비디오 MCM(270)의 하나의 실시예는 현재 할당된 입력 SID 값에 기초하여, 릴레이 RTP 압축된 비디오 데이터 청크를 전달하는 MCIFTP 프레임의 복수의 선택된 스트림을 취득하는 MCIF 섹션을 가질 수 있다. 취득된 릴레이 RTP 압축된 비디오 데이터 청크의 MCIFTP 프레임은 각각 현재 선택된 MRE(130)와 연관된 하나 이상의 MREINIP(230)에 의해 또는 각각 현재 선택된 LEO(130)와 연관된 하나 이상의 EOM(280)으로부터 MCIF(292)로 전달되었다. 따라서, 선택된 EOM(280) 또는 선택된 MREINIP(230)에 의해 전달된 스트림의 출력 SID 값은 이러한 스트림을 가리키는 중계된 비디오 MCM(270)의 입력 SID 값과 유사할 수 있다. CUB(200)의 다른 실시예에서, 선택된 EOM(280) 또는 MREINIP(230)에 의해 전달된 스트림의 출력 SID의 값과 이러한 스트림을 가리키는 중계된 비디오 MCM(270)의 입력 SID 값은 상이할 수 있다. 이러한 실시예에서, SID 전환 테이블은 2개의 상이한 SID 값을 연관시키기 위해, 중계된 비디오 MCM(270)에 렌더링될 수 있다. MCIF 섹션은 선택된 스트림의 수신된 MCIFTP 프레임을 처리할 수 있고, 스트림에 취득된 프레임을 구성할 수 있고, 각 스트림의 릴레이 RTP 압축된 비디오 데이터 청크를 중계된 비디오 MCM(270)의 미디어 섹션에서 세션 압축된 비디오 RTP 프로세서(SCVRP) 쪽으로 전달할 수 있다.
SCVRP는 중계된 비디오 MCM(270)의 MCIF 섹션으로부터 각 스트림의 릴레이 RTP 압축된 비디오 데이터 청크(RTP 헤더 및 압축된 비디오 페이로드)를 수신할 수 있다. SCVRP는 각 선택된 MRE(130) 또는 LEP(140)에 하나씩, 복수의 시퀀셜 메모리를 관리할 수 있다. SCVRP는 수신된 릴레이 RTP 압축된 비디오 데이터 청크의 헤더를 파싱할 수 있고 이것을 예를 들어, 그 프레임 넘버 또는 타임 스탬프에 따라 적합한 시퀀셜 메모리에 저장할 수 있다. 수시로, 이러한 섹션에 의해 사용된 프레임 레이트에 의존하여, CM(290)으로부터 수신된 시그널링 및 컨트롤 정보에 따라, SCVRP는 하나 이상의 시퀀셜 메모리의 그룹에 접근할 수 있고 이러한 선택된 엔드포인트의 그룹의 압축된 데이터를, 중계된 비디오 MCM(270)의 MCIF 섹션 쪽으로 전송되는 중계된 RTP 압축된 비디오 데이터 청크로 전환할 수 있다. SCVRP의 동작에 대해 보다 많이 알기를 원하는 독자는 미국 특허 제8,228,363을 읽을 수 있고, 그 내용은 여기에 언급되어 통합되어 있다.
중계된 비디오 MCM(270)의 MCIF 섹션은 중계된 RTP 압축된 비디오 데이터 청크를 MCIFTP 프레임으로 구성하고, 할당된 출력 SID 값을 포함하는 헤더를 더하고, MCIFTP 프레임의 스트림을 MREONIP(240)를 통해 적어도 하나의 타겟 MRE(130) 쪽으로 전달할 수 있다. CUB(200)의 다른 실시예에서, MCIF 섹션은 중계된 RTP 압축된 비디오 데이터 청크를 MCIFTP 프레임의 복수의 출력 스트림으로 구성할 수 있는데, 각 출력 스트림은 선택된 LEP(140) 또는 MRE(130)로부터 나오고 해당 선택된 엔드포인트(MRE(130) 또는 LEP(140))에 할당된 세그먼트의 스케일링된 크기로 비디오 이미지를 전달한다. 각 출력 스트림에 대해, MCIF 섹션은 해당 스트림에 대해, 할당된 출력 SID 값을 포함하는 헤더를 더할 수 있고, MCIFTP 프레임의 스트림을 MREONIP(240)를 통해 적어도 하나의 타겟 MRE 쪽으로 전달할 수 있다.
또 다른 타입의 MCM(270)은 중계된 오디오 MCM(270)으로 불릴 수 있다. 중계된 오디오 MCM(270)의 하나의 실시예는 2개 이상의 선택된 릴레이 RTP 압축된 오디오 스트림을 하나 이상의 MRE(130) 쪽으로 전송되는 하나 이상의 중계된 RTP 압축된 오디오 스트림으로 전환하기 위해 사용될 수 있다. 각 MRE(130)은 전송된 하나 이상의 중계된 RTP 압축된 오디오 스트림을 수신함으로써, 혼합된 오디오를 디코딩하고, 혼합하고 재생할 수 있다. 중계된 비디오 MCM(270)의 동작은 중계된 비디오 MCM(270)의 상기 설명으로부터 당업자에 의해 이해될 수 있고, 여기에서, 미디어는 비디오로부터 오디오로 변경되고 SCVRP는 세션 압축된 오디오 RTP 프로세서(SCARP)로 대체된다. SCARP의 동작에 대해 보다 많이 알기를 원하는 독자는 미국 특허 제8,228,363을 읽을 수 있고, 그 내용은 여기에 언급되어 통합되어 있다.
EOM(280)은 도 2에 설명된 CUB(200)의 실시예와 관련된 다른 미디어 프로세서이다. CUB(200)는 복수의 타입의 EOM(280)을 포함할 수 있다. EOM(280)의 타입은 오디오, 또는 비디오의 미디어의 타입, 그리고, LEP(140) 또는 MRE(130)의, 인코딩되는(압축되는) 미디어가 타겟팅되는 엔드포인트의 타입에 따라 다르다. 상술된 바와 같이, EOM(280)은 MCIF 섹션 및 미디어 섹션을 포함할 수 있다. EOM(280)의 MCIF 섹션은 추가 기능 및 할당된 입출력 SID 값의 상이한 수로써, 상술된 것과 유사한 방식으로 동작할 수 있다.
LEP(140)(타겟 LEP(140))와 연관된 할당된 EOM(280)의 MCIF 섹션은 이러한 LEP(140) 쪽으로 타겟팅되는 디코딩된 구성된 미디어를 전달하는 MCIFTP 프레임의 스트림을 나타내는 입력 SID 값을 수신할 수 있다. 이러한 스트림은 해당 LEP(140)와 관련된 MCM(270)에 의해 구성될 수 있다. MCM(270)은 비디오용 CP 비디오 이미지 빌더 또는 오디오용 오디오 믹서일 수 있다. 현재 할당된 입력 SID 값에 따라, MCIF 섹션은 MCIF(292)로부터, 선택된 스트림의 MCIFTP 프레임을 취득할 수 있고, 취득된 프레임을 구성하고, 디코딩된 결합된 미디어 페이로드를 EOM(280)의 미디어 섹션에서 미디어 인코더 쪽으로 전달할 수 있다. 오디오 스트림에 대해, 미디어 인코더는 타겟 LEP(140)에 의해 사용되는 오디오 압축 규격을 따를 수 있다. 오디오 압축 규격의 예는 G.711, G.729, G722.1C, G.719 등일 수 있다. 비디오용 미디어 인코더는 H.263, H.264와 같은 압축 규격을 따를 수 있지만 이에 제한되는 것은 아니다.
다른 방향에서, EOM(280)의 미디어 섹션으로부터의 압축된 미디어 스트림은 EOM(280)의 MCIF 섹션에 의해 MCIFTP 프레임의 페이로드로서 구성될 수 있다. 적합한 출력 SID를 갖는 헤더가 MCIFTP 프레임을 생성하기 위해, 인코딩된 미디어 페리로드에 더해질 수 있고, 이러한 MCIFTP 프레임은 MCIF(292)에 전달된다.
다른 타입의 EOM(280)이 LEP(140)에 의해 나온 미디어 스트림을 구성하기 위해 사용될 수 있고 MRE(130)로 전달될 필요가 있다. 이러한 EOM(280)은 어댑터 EOM(280)으로 불릴 수 있다. 2개의 타입의 어댑터 EOM(280)이 미디어 타입에 따라 사용될 수 있다. 입력 방향에서, 소스 LEP(140)의 오디오와 연관된 할당된 어댑터 EOM(280)의 MCIF 섹션은 이러한 소스 LEP(140)로부터 나온 디코딩된 오디오를 전달하는 MCIFTP 프레임의 스트림을 나타내는 입력 SID 값을 수신할 수 있다. 이러한 스트림은 이러한 소스 LEP(140)와 관련된 DM(260)에 의해 디코딩될 수 있다.
현재 할당된 입력 SID 값에 따라, MCIF 섹션은 MCIF(292)로부터, 선택된 디코딩된 스트림의 MCIFTP 프레임을 취득할 수 있고, 취득된 프레임을 구성하고, 디코딩된 오디오 페이로드는 어댑터 EOM(280)의 미디어 섹션에서 오디오 인코더 쪽으로 전달할 수 있다. 오디오 인코더는 하나 이상의 타겟팅된 MRE(130)에 의해 사용된 오디오 압축 규격을 따를 수 있다. 오디오 압축 규격의 예는 G.711, G.729, G.722.1C, G.719등을 포함할 수 있다. CUB(200)의 일부 실시예에서, DM(260) 및 EOM(280)은 스케일러블 오디오 코덱 디코더/인코더를 각각 포함할 수 있다. 스케일러블 오디오 코덱 디코더/인코더에 대해 보다 많이 알고 싶은 독자는 미국 특허 출원 공개 번호 2012/0004918를 참조할 수 있고, 그 전체 내용은 여기에 언급되어 통합되어 있다.
일부 실시예에서, MCIF 섹션은 오디오 스트림의 오디오 에너지의 지시를 수신할 수 있다. 이러한 지시는 관련 DM(260)으로부터 직접 또는 CM(290)으로부터 수신될 수 있다. MCIF 섹션은 또한 인코딩된 오디오 데이터 청크를 릴레이 RTP 압축된 오디오 데이터 청크의 스트림으로 전환하는데 필요한 추가 정보를 수신할 수 있다. 추가 정보는 시퀀스 넘버, 소스 ID, 타임 스탬프등을 포함할 수 있다. 다른 실시예에서, EOM(280)은 스트림의 오디오 에너지를 결정할 수 있다.
어댑터 EOM(280)의 MCIF 출력 센셕은 RTP 오디오 데이터 청크의 헤더에 추가 파라미터를 추가하고 내장시킴으로써 MRE(130)의 출력 오디오 RTP 프로세서와 유사한 방식으로 동작하도록 구성될 수 있다. 추가 파라미터는 시퀀스 넘버, 소스 ID, 타임 스탬프, 오디오 에너지 지시등을 포함할 수 있다. 그다음, 릴레이 RTP 압축된 오디오 데이터 청크는 어댑터 EOM(280)의 MCIF 섹션에 의해 MCIFTP 프레임의 페이로드로서 구성될 수 있다. 적합한 출력 SID 값을 갖는 헤더가 릴레이 RTP 압축된 오디오 데이터 청크 페이로드에 가산될 수 있어서 MCIFTP 프레임을 생성할 수 있고, 이러한 프레임은 MCIF(292)에 전달된다. 이러한 MCIFTP 프레임의 스트림은 타겟 하나 이상의 MRE(130)와 연관된 오디오 MCM(270)에 의해 MCIF(292)로부터 취득될 수 있다. MRE(130)에 대해 보다 많이 알기를 원하는 독자는 미국 특허 번호 제8,228,363을 참조할 수 있고, 그 전체 내용은 여기에 언급되어 통합되어 있다.
제2 타입의 어댑터 EOM(280)이 LEP(140)에 의해 나온 비디오 스트림을 구성하기 위해 사용될 수 있고 MRE(130)에 전달될 필요가 있다. 이러한 어댑터 EOM(280)은 소스 LEP(140)로부터 수신된 특정 크기의 디코딩된 비디오 이미지를 전달하는 각 DM(260)에 대해 할당될 수 있다. 따라서, 할당된 어댑터 EOM(280)의 MCIF 섹션은 해당 소스 LEP(140)로부터 나오고 디코딩되고 DM(260)에 의해 스케일링된 스케일링되고 디코딩된 비디오를 전달하는 MCIFTP 프레임의 스트림을 나타내는 입력 SID 값을 수신할 수 있다. 현재 할당된 입력 SID 값에 따라, MCIF 섹션은 MCIF(292)로부터, 선택된 스케일링된 디코딩된 비디오의 MCIFTP 프레임을 취득할 수 있고, 이러한 취득된 프레임을 구성할 수 있고, 디코딩된 스케일링된 비디오 페이로드를 어댑터 EOM(280)의 미디어 섹션에서 비디오 인코더 쪽으로 전달할 수 있다. 비디오 인코더는 하나 이상의 타겟 MRE(130)에 의해 사용된 비디오 압축 규격을 따를 수 있다. 비디오 압축 규격의 예는 H.263, H.264 등을 포함하고 있다. 추가로, MCIF 섹션은 인코딩된 비디오 데이터 청크를 릴레이 RTP 압축된 비디오 데이터 청크의 스트림으로 전환하는데 필요한 추가 정보를 수신할 수 있다. 이러한 추가 정보는 시퀀스 넘버, 소스 ID, 타임 스탬프, CP 비디오 이미지내의 세그먼트 넘버등을 포함할 수 있다.
어댑터 비디오 EOM(280)의 MCIF 출력 섹션은 추가 파라미터를 RTP 비디오 데이터 청크의 헤더내에 더하고 내장시킴으로써 MRE(130)의 출력 비디오 RTP 프로세서와 유사한 방식으로 동작하도록 구성될 수 있다. 추가 파라미터는 시퀀스 넘버, 소스 ID, 타임 스탬프, 세그먼트 넘버등을 포함할 수 있다. 다음으로, 릴레이 RTP 압축된 비디오 데이터 청크가 어댑터 EOM(280)의 MCIF 출력 섹션에 의해 MCIFTP 프레임의 페이로드로서 구성될 수 있다. 적합한 출력 SID 값을 갖는 헤더가 릴레이 RTP 압축된 비디오 데이터 청크 페이로드에 더해져 MCIFTP 프레임을 생성하고, 이러한 프레임은 MCIF(292)에 전달된다. MCIFTP 프레임의 이러한 스트림은 타겟 하나 이상의 MRE(130)와 연관된 비디오 MCM(270)에 의해 MCIF(292)로부터 취득될 수 있다.
CUB(200)의 다른 예는 상술된 것 이외의 추가 특정 기능을 CUB(200)의 모듈에 더할 수 있다. 예를 들어, CUB(200)의 일부 예에서, 비디오 DM(260)은 스케일러를 포함하지 않을 수 있고, 대신에, LEP(140)와 연관된 비디오 MCM(270)이 스케일러를 포함할 수 있고, MRE(130)와 연관된 비디오 EOM(280)도 스케일러를 가질 수 있다.
CUB(200)의 일부 실시예에서, MRE와 연관된 MCM(270) 또는 EOM(280)은 RTP 헤더를 재생된 RTP 헤더로 전환하도록 구성될 수 있다. CUB(200)의 다른 실시예에서, MREONIP(240)는 헤더 전환을 구현하도록 구성될 수 있다.
CM(290)의 하나의 실시예는 CUB(200)의 동작을 관리할 수 있다. CM(290)은 MRE(130) 또는 LEP(140)로부터 화상 회의 세션(다이얼-인 회의참석자)을 달성하도록 요청을 수신할 수 있다. 이러한 요청은 하나 이상의 시그널링 및 컨트롤 모듈(250)을 통해 수신될 수 있다. 대안으로, CM(290)은 관리 서버(도면에 도시되지 않음)로부터, 복수의 MRE(130) 및/또는 LEP(140) 사이의 컨퍼런싱 세션(다이얼 아웃 회의참석자)을 달성하도록 요청을 취득할 수 있다. 이러한 요청은 하나 이상의 시그널링 및 컨트롤 모듈(250)을 통해 이러한 엔드포인트와의 접속을 달성하도록 CUB(200)에 의해 사용되기 위해 다이얼 넘버의 리스트와 연관될 수 있다(다이얼 넘버는 IP 주소를 나타낼 수 있다). 일부 컨퍼런싱 세션은 다이얼 인 및 다이얼 아웃 회의참석자 모두를 포함할 수 있다. 엔드포인트와의 접속을 달성하는 것은 예를 들어, H.323 또는 SIP와 같은 주지된 규격을 따를 수 있다.
이러한 세션에 참여하는 각 엔드포인트, MRE(130) 또는 LEP(140)에 대해, CM(290)은 이러한 엔드포인트로부터 세션과 관련된 정보를 취득할 수 있다. 이러한 정보는 엔드포인트의 타입, 용량, 대역폭, 압축 규격, 비트 레이트등이 있고 이에 제한되지는 않는다. 이러한 엔드포인트와의 협상은 적합한 시그널링 및 컨트롤 모듈(250)을 통해 이루어질 수 있다. 취득된 정보에 기초하여, CM(290)은 해당 엔드포인트에 관련 내부 모듈을 할당할 수 있다. MRE(130)에 대해, CM(290)은 해당 MRE(130)로부터 취득된 (각 크기, 품질 레벨등에 대해 하나씩) 복수의 비디오 스트림으로부터 각 비디오 스트림에 대해 MREINIP(220)를 할당할 수 있고; 해당 MRE(130)으로부터 취득되는 (예를 들어, 각 품질 레벨에 대해 하나씩) 복수의 오디오 스트림으로부터 각 오디오 스트림에 대해 MREINIP(220)를 할당할 수 있고; MRE 디스플레이 유닛에 나타나는 CP 비디오 이미지와 관련된 비디오 이미지를 전달하는 비디오 스트림에 대해 각각, 하나 이상의 MREONIP(240)을 할당할 수 있고; MRE(130) 라우드스피커로부터 들리는 혼합된 오디오와 관련된 오디오를 전하는 오디오 스트림에 대해 하나 이상의 MREONIP(240)를 각각 할당할 수 있고; 하나 이상의 시그널링 및 컨트롤 모듈(250)등을 할당할 수 있다.
또한, CM(290)은 해당 MRE(130)로/로부터 미디어를 처리하기 위한 하나 이상의 미디어 프로세서 유닛을 할당할 수 있다. 예를 들어, 하나의 비디오 DM(260)이 해당 MRE(130)로부터 취득된 (각 크기, 품질 레벨등에 대해 하나씩) 복수의 비디오 스트림으로부터 각 비디오 스트림에 대해 할당될 수 있고; 하나의 오디오 DM(260)이 해당 MRE(130)로부터 취득된 (예를 들어, 각 품질 레벨에 하나씩) 복수의 오디오 스트림으로부터 각 오디오 스트림에 대해 할당될 수 있다. 할당된 비디오 또는 오디오 DM(260)은 관련 스트림을 압축하기 위해 사용된 압축 규격, 비트 레이트에 상응하도록 구성되어 있다.
하나 이상의 비디오 EOM(280)이 세션에 참가하는 LEP(140)와 연관된 비디오 DM(260)으로부터 취득된 스케일링된 디코딩된 비디오 이미지를 전하는 각 비디오 스트림에 대해 하나씩 할당될 수 있다. 하나 이상의 오디오 EOM(280)이 세션에 참가하는 LEP(140)와 연관된 오디오 DM(260)으로부터 취득된 특정 품질로, 디코딩된 오디오를 전달하는 각 디코딩된 오디오 스트림에 대해 하나씩, 할당될 수 있다. 오디오 및 비디오 MCM(270)은 해당 MRE(130)등 쪽으로 전송되는 오디오 및 비디오의 중계된 RTP 스트림을 구성하기 위해 MCIF(292)로부터 관련 압축된 오디오 및 비디오 스트림을 취득하도록 해당 MRE(130)에 할당될 수 있다.
유사한 방식으로, 하나 이상의 스케일러를 갖는 비디오 DM(260)이 LEP(140)로부터 취득된 비디오 스트림을 디코딩하기 위해 할당될 수 있고 오디오 DM(260)이 해당 LEP(140)로부터 취득된 오디오 스트림에 대해 할당될 수 있다. 할당된 비디오 및/또는 오디오 DM(260)이 관련 스트림을 압축하는데 사용된 압축 규격, 비트 레이트등에 상응하도록 구성되어 있다. 비디오 LEP MCM(270)이 LEP(140) 디스플레이 유닛에 나타나는 선택된 엔드포인트의 디코딩된 비디오 스트림으로부터 CP 비디오 이미지를 구축하도록 할당될 수 있다. 비디오 EOM(280)이 할당될 수 있어서, 이러한 할당된 LEP 비디오 MCM(270)에 의해 생성된 디코딩된 CP 비디오 이미지를 압축하여서, 해당 LEP(140) 쪽으로 전송되고 해당 LEP(140)의 디스플레이 유닛에 나타날 수 있다. 오디오 LEP MCM(270)이 LEP(140) 라우드스피커에서 들리도록, 선택된 디코딩된 오디오 스트림을 혼합하기 위해 할당될 수 있다. 오디오 EOM(280)이 해당 LEP(140)등과 연관된 오디오 MCM(270)으로부터 취득된, 혼합된 디코딩된 오디오 스트림을 압축하기 위해 할당될 수 있다.
일부 실시예에서, MRE(130) 또는 LEP(140)로/로부터 해당 미디어를 처리하기 위한 내부 리소스를 할당한 후에, 출력 SID 값이 할당된 내부 모듈중 하나에 의해 MCIF(292)에 전달되는 각 스트림에 할당될 수 있다. SID 값과 MCIF(292)의 할당 관리는 관리 및 컨트롤 테이블(MCT)을 사용함으로써 이루어질 수 있다. MCIF(292)의 SID 및 컨트롤의 타입은 MCIF(292)의 타입에 따라 다르다. MCIF(292)가 공유 메모리인 CUB(200)의 실시예에 대해, 출력 SID 값은 관련 내부 모듈이 그 출력 스트림의 MCIFTP 프레임을 기록(저장)할 수 있는 공유 메모리내의 주소의 인터벌을 나타낼 수 있다. 공유 메모리로부터의 기록 및 판독은 예를 들어, 사이클릭 모드로 될 수 있다. MCIF(292)로부터 스트림을 취득하기 위해, 이러한 스트림을 취득할 필요가 있는 각 내부 모듈은 MCIF(292)로 이러한 스트림을 전달하는 모듈에 의해 사용되는 출력 SID 값을 입력 SID로서 수신할 수 있다. 이러한 입력 SID 값에 기초하여, 관련 내부 모듈은 이러한 SID 값과 연관된 주소의 동일한 인터벌로부터 사이클릭 모드로 교대로 MCIFTP 프레임을 페칭할 수 있다.
CUB(200)의 다른 실시예에서, MCIF(292)는 TDM 버스일 수 있다. 이러한 실시예에서, 출력 SID 값은 해당 내부 모듈로부터의 각 MCIFTP 프레임이 MCIF(292)로 전송될 타임 슬롯 넘버를 나타낼 수 있다. MCIF(292)로부터 스트림을 취득하기 위해, 이러한 스트림을 취득할 필요가 있는 각 내부 모듈은 스트림을 MCIF(292)로 전달하는 모듈에 의해 사용된 출력 SID 값을 입력 SID로서 수신할 수 있다. 입력 SID 값에 기초하여, 관련 내부 모듈은 TDM 버스의 타임 슬롯과 연관된 MCIFTP 프레임을 페칭할 수 있다.
CUB(200)의 또 다른 실시예에서, MCIF는 멀티캐스트 라우팅 능력을 갖는 이더넷 스위치에 의해 제어되는 이더넷 네트워크일 수 있다. CUB(200)의 이러한 실시예에서, 출력 SID는 MCIFTP 프레임의 이더넷 헤더내의 필드일 수 있다. 출력 SID 값은 스트림에 대한 멀티캐스트 주소를 나타날 수 있다. MCIF(292)로부터 스트림을 취득하기 위해, 이러한 스트림을 MCIF(292)로부터 취득할 필요가 있는 각 내부 모듈은 입력 SID 값과 동일한 SID 값을 사용할 수 있다. 입력 SID 값에 기초하여, 관련 내부 모듈은 이더넷 스위치로부터 관련 MCIFTP 프레임을 취득할 수 있다. CUB(200)의 다른 예는 다른 타입의 MCIF 및 SID 또는 상기 예의 임의의 조합을 사용할 수 있다. 당업자는 본 발명의 범위가 MCIF(292)의 타입에 제한되지 않는다는 것을 이해할 것이다.
컨퍼런스 세션의 MCT의 하나의 실시예는 복수의 엔트리를 포함할 수 있다. 각 엔트리가 이러한 세션에 참가하는 MRE(130) 또는 LEP(140)와 연관될 수 있다. 각 엔트리는 복수의 필드와 연관될 수 있다. 이러한 필드는 다수의 섹션으로 분할될 수 있다. 제1 섹션은 엔드포인트 섹션으로 부를 수 있다. 이러한 엔드포인트 섹션의 필드는 엔드포인트 타입(MRE 또는 LEP), 각 스트림에 대한 IP 주소, 압축 규격 (오디오 및 비디오) 비트 레이트, 요청되는 CP 비디오 이미지의 레이아웃등과 같은 (하지만 이에 제한되지는 않는다) 엔드포인트와 관련된 정보를 포함할 수 있다. 일부 컨퍼런스에서, 엔드포인트 섹션의 필드는 엔드포인트(MRE(130) 또는 LEP(140))가 세션에 접속되어 있는 한, 변화 없이 남아 있다.
MCT의 제2 섹션은 입력 섹션으로 부를 수 있다. 입력 섹션은 해당 엔트리와 연관된 엔드포인트(MRE(130) 또는 LEP(140))로부터 수신된 입력과 관련된, 각 엔트리에 대한 복수의 필드를 포함할 수 있다. 해당 엔드포인트로부터의 수신된 압축된 미디어 스트림, 오디오 또는 비디오를 처리하도록 배치된 각 리소스에 대해 필드가 할당될 수 있다. LEP(140)의 엔트리에 속한 입력 섹션 필드는 예를 들어, 할당된 LEPINIP(210), DM(260), EOM(280)에 대한 정보를 포함할 수 있다. MRE(130)의 엔트리에 속한 입력 섹션 필드는 예를 들어, 할당된 하나 이상의 MREINIP(220), 하나 이상의 DM(260)에 대한 정보를 포함할 수 있다. 할당된 리소스와 관련된 다른 파라미터중에서, 필드중 일부에 저장된 정보는 MCIF(292)로 리소스에 의해 전송되는 MCIFTP 프레임의 스트림의 출력 SID 값을 포함할 수 있다. CUB(200)의 일부 실시예에서, 입력 섹션의 필드는 연관된 엔드포인트(MRE(130) 또는 LEP(140))가 세션에 접속되어 있는 한, 변화없이 남을 수 있다. CUB(200)의 다른 예에서, 입력 섹션의 필드의 일부는 세션의 역학관계에 따라 컨퍼런스 세션 동안 변경될 수 있다. 예를 들어, LEP(140) 또는 MRE(130)로부터 수신된 비디오 입력 스트림과 연관된 비디오 DM(260)은 엔드포인트(MRE(130) 또는 LEP(140))가 컨퍼런스의 CP 비디오 이미지의 일부로서 적어도 하나의 다른 LEP(140) 또는 MRE(130)의 디스플레이 유닛에 나타나도록 선택될 때만 할당될 수 있다.
MCT의 제3 섹션은 출력 섹션으로 부를 수 있다. 이러한 출력 섹션은 해당 엔트리와 연관된 엔드포인트(MRE(130) 또는 LEP(140)) 쪽으로 전송되는 출력 스트림과 관련된, 각 엔트리에 대한 복수의 필드를 포함할 수 있다. 필드는 해당 엔드포인트 쪽으로 타겟팅된 출력 미디어 스트림, 오디오 또는 비디오를 처리하도록 배치된 각 리소스에 대해 할당될 수 있다. LEP(140)의 엔트리에 속한 출력 섹션 필드는 예를 들어, 할당된 오디오 및 비디오 MCM(210), 오디오 및 비디오 EOM(280), 및 하나 이상의 LEPONIP(230)에 대한 정보를 포함할 수 있다. MRE(130)와 연관된 엔트리에 속한 출력 섹션 필드는 예를 들어, 할당된 오디오 및 비디오 MRE MCM(270), 하나 이상의 MREONIP(240)에 대한 정보를 포함할 수 있다. 할당된 리소스와 관련된 다른 파라미터중에서, 필드의 일부에 저장된 정보는 MCIF(292)로 리소스에 의해 전송되는 MCIFTP 프레임의 스트림의 출력 SID 값을 포함할 수 있다. CUB(200)의 일부 실시예에서, 출력 섹션의 필드는 연관된 엔드포인트(MRE(130) 또는 LEP(140))가 세션에 접속되어 있는 한, 변경되지 않고 남을 수 있다.
CUB(200)의 다른 실시예에서, 출력 센셕의 필드의 일부는 세션의 역학관계에 따라 컨퍼런스 세션 동안 변경될 수 있다. 예를 들어, LEP(140) 또는 MRE(130) 쪽으로 타겟팅된 비디오 출력 스트림과 연관된 비디오 MCM(270)은 엔드포인트에 제공되는 CP 레이아웃일 변경될 때 상이한 수의 스트림을 결합하도록 재구성될 수 있다. 수시로, MCT는 예를 들어, 엔드포인트가 컨퍼런스 세션에 참여하거나 떠날 때마다 변경될 수 있다.
MCT에 기초하여, CM(290)은 MCIF 라우팅 테이블(MRT)을 생성할 수 있다. MRT는 복수의 엔트리를 가질 수 있고; 각 엔트리는 CUB(200)의 할당된 내부 모듈의 입력과 연관될 수 있고, 이러한 내부 모듈에 대해 MCIF(292)로부터 MCIFTP 프레임의 어느 하나 이상의 스트림이 취득될 지를 정한다. MRT내의 엔트리는 DM(260)의 입력에 할당될 수 있고(오디오 또는 비디오); 이러한 엔트리와 연관된 필드는 예를 들어, LEPINIP(210) 또는 MREINIP(220)의 출력 SID 값을 포함할 수 있다. 다른 엔트리가 LEP(140)와 연관된 오디오 MCM(270)에 할당될 수 있다. 이러한 엔트리는 복수의 필드를 가질 수 있고, 각각의 필드는 관심의 LEP(140)의 라우드스피커를 통해 청취되고 혼합되도록 선택된 MRE(130) 또는 LEP(140)와 연관된 오디오 DM(270)과 관련된 출력 SID 값을 포함할 수 있다. 다른 엔트리가 오디오 EOM(280)의 입력에 할당될 수 있다. 이러한 엔트리와 연관된 필드는 EOM(280)과 연관된 LEP(140)에 타겟팅된 오디오 스트림을 혼합하는 오디오 MCM(270)의 출력 SID 값을 포함할 수 있다. 다른 엔트리가 LRPONIP(230)의 입력에 할당될 수 있다. 이러한 엔트리와 연관된 필드는 해당 LEPONIP(230)와 관련된 LEP(140)에 타겟팅된 혼합된 오디오 스트림을 인코딩하는 오디오 EOM(280)의 출력 SID 값을 포함할 수 있다. 유사한 방식으로, 복수의 필드를 갖는 추가 엔트리가 MRE(130) 쪽으로 타겟팅된 오디오 및 비디오 스트림은 물론 LEP(140) 쪽으로 비디오 스트림을 처리하도록 할당될 수 있다.
MRT는 갱신될 수 있고 CM(290)에 의해 제어될 수 있다. 수시로, CUB(200)의 각 내부 모듈은 MCIF(292)로부터 취득할 필요가 있는 MCIFTP 프레임의 스트림의 적합한 하나 이상의 SID를 알기 위해 MRT에 접근할 수 있다. 대안으로, 이러한 내부 모듈은 CM(290)에 의해 이러한 SID를 가지고 갱신될 수 있다. 입력 SID 값이 출력 SID 값에 더하여 사용되는 CUB(200)의 실시예에서, MRT는 해당 세션의 SID 전환 테이블로서 사용될 수 있다. 이러한 실시예에서, 각 엔트리는 관련 입력 SID 값에 연관될 수 있다. 내부 모듈이 필요할 때 동적으로 할당되는 실시예에서, MRT는 그에 따라 갱신될 수 있다.
컨퍼런스 세션 동안, CM(290)은 복수의 LEP(140) 사이의 화상회의를 제어하는 MC의 컨트롤 모듈의 공통 활동 및 복수의 MRE(130) 사이의 컨퍼런스 세션을 제어하기 위한 MRM의 컨트롤 모드의 공통 활동을 실행할 수 있다. 또한, CM(290)은 CUB(200)의 새로운 구조와 관련된 추가 기능을 제공할 수 있다. 예를 들어, 컨퍼런스 세션에 참가하는 복수의 MRE(130) 및 LEP(140)로부터 수신된 오디오 스트림의 오디오 에너지에 기초한 수십 밀리초(예를 들어, 10 내지 40 밀리초)의 인터벌 마다, CM(290)은 최고 오디오 에너지를 가지고 수개의 엔트포인트(예를 들어, 3개 내지 6개)의 그룹을 선택할 수 있다. 이러한 선택에 따라, 오디오 MCM(270) 및 오디오 EOM(280)의 입력과 관련된 MRT내의 엔트리의 필드가 이전의 것 대신에 새로 선택된 오디오 스트림과 관련된 출력 SID 값을 포함하도록 갱신될 수 있다.
유사한 방식으로, 수 초(예를 들어, 3초 내지 5초)의 주기마다, CM(290)은 어느 엔드포인트가 스피커로서 선택될 수 있는지를 결정할 수 있다. 스피커는 특정 퍼센트의 주기 동안(예를 들어, 이러한 주기에서 50-70%의 인터벌) 최고의 오디오 에너지를 갖는 엔드포인트일 수 있다. 선택된 스피커에 따라, 컨퍼런스 세션 참가자에 제공된 엔드포인트가 선택될 수 있다. 새로운 선택에 적응하기 위해, 비디오 MCM(270) 및 비디오 EOM(280)과 연관된 MRT내의 엔트리의 필드는 이전의 것 대신에 새로 선택된 비디오 스트림과 관련된 출력 SID 값을 포함하도록 갱신될 수 있다.
비디오 리소스가 필요할 때만 할당되는 CUB(200)의 실시예에서, LEP(140)가 CP 비디오 이미지에 제공되기 위해 선택될 때마다, 비디오 DM(260)은 해당 LEP(140)로부터 수신된 비디오 스트림을 디코딩하기 위해 할당될 수 있다. 이러한 디코딩은 적합한 스케일링을 포함할 수 있다. 이러한 실시예에서, 인트라 요청이 해당 LEP(140) 쪽으로 전송될 수 있다. 또한, 하나 이상의 EOM(280)이 해당 LEP(140)에 의해 나온 스케일링된 디코딩된 스트림을 압축하기 위해 할당될 수 있고 MRE(130)에 의해 CP 비디오 이미지로 구성되기 위해 MRE(130) 쪽으로 타겟팅된다. MRT내의 관련 필드는 이에 따라 갱신될 수 있다. 유사한 프로세스가 MRE(130)등이 제공되기 위해 선택될 때 반복될 수 있다.
도 3은 DCUB(300)의 하나의 실시예의 관련 엘리먼트를 갖는 단순화된 블록도이다. DCUB(300)는 하나 이상의 DCUB MRE 프로세서(DCUBMRE)(310)를 포함하는 MRE 섹션, 하나 이상의 DCUB LEP 프로세서(DCUBLEP)(320)를 포함하는 레거시 섹션 및 DCUB 컨트롤 모듈(DCUBCM)(330)을 포함하는 컨트롤 섹션의 3개의 섹션을 포함할 수 있다. DCUBMRE(310) 및 DCUBLEP(320)는 내부 MCIF(318 또는 328)를 포함할 수 있다. 3개의 섹션의 엘리먼트는 외부 MCIF(345)를 통해 서로 통신할 수 있다. 외부 MCIF(345)와 함께 복수의 내부 MCIF(318, 328)는 도 2의 설명에 상술된 MCIF(292)의 태스크를 구현할 수 있다.
외부 MCIF(345)는 이더넷(이에 제한되지는 않는다)과 같은 고용량의 근거리 네트워크(LAN)를 통해 MCIFTP 프레임을 전달할 수 있다. 외부 MCIF(345)의 다른 실시예는 예를 들어, IP 프로토콜을 따를 수 있다. 또한, 외부 MCIF(345)는 라우팅 디바이스와 연관될 수 있다. 외부 MCIF(345)가 이더넷 네트워크인 DCUB(300)의 실시예에서, 라우팅 디바이스는 예를 들어, 멀티캐스트 능력을 갖는 이더넷 스위치(340)일 수 있다. 이더넷 스위치(340)의 예는 Cisco® Catalyst® 3750-X 및 3560-X Series로부터의 스위치일 수 있지만 다른 스위치 역시 사용될 수 있다. 이더넷 스위치(340)는 DCUBCM(330)에 의해 제어될 수 있다. DCUBCM(330)로부터/로, 프로세싱 유닛 DCUBMRE(310) 및 DCUBLEP(320)의 각각으로/로부터의 커맨드 또는 상태 및 리포트는 컨트롤 통신 링크(342)를 통해 전송될 수 있다. 이러한 컨트롤 통신 링크(342)는 외부 MCIF(345)를 통해 전송될 수 있다.
DCUBMRE(310)의 하나의 실시예는 복수의 MREINIP(312), 복수의 MREONIP(314), 복수의 MRE MCM(316), 내부 MCIF(318), 및 MCIF 어댑터(319)를 포함할 수 있다. 각 DCUBMRE(310)는 MREINIP(312)와 MREONIP(314)를 통해 하나 이상의 MRE(130)와 통신할 수 있다. 내부 MCIF(318)는 내부 모듈(MREINIP(312), MREONIP(314), 및 MRE MCM(316))을 서로 접속시킬 수 있고 MCIF 어댑터(319)를 통해 외부 MCIF(345)에 접속시킬 수 있다.
각 MREINIP(312)는 MRE(130)와 연관될 수 있고 이러한 연관된 MRE(130)로부터 수신된 압축된 미디어를 전송하는 IP 패킷의 스트림을 취득할 수 있다. 이러한 압축된 미디어는 오디오 및/또는 비디오일 수 있다. 각 취득된 IP 패킷은 인터넷 프로토콜에 따라 처리될 수 있다. 각 취득된 패킷의 RTP 미디어 페이로드, 릴레이 RTP 압축된 오디오 또는 압축된 비디오 데이터 청크는 MREINIP(312)에 의해 처리된 후에, MCIFTP에 따라 MCIF 프레임에 내장될 수 있고, MRE(130)로부터 수신된 릴레이 RTP 압축된 미디어를 전송하는 MCIFTP 프레임의 스트림은 내부 MCIF(318) 쪽으로 전송된다. MREINIP(312)의 동작은 상술된 MREINIP(220)의 동작과 유사할 수 있으므로 더 이상 설명되지 않을 것이다.
각 MREONIP(314)는 하나 이상의 MRE(130)와 연관될 수 있다. MREONIP(314)의 하나의 실시예는 DCUBCM(330)로부터, 내부 MCIF(318)로부터 수집되는 하나 이상의 압축된 중계된 스트림의 SID 값을 취득할 수 있다. 스트림의 수는 CP 이미지 또는 혼합된 오디오의 중계된 압축된 미디어가 단일 RTP 커넥션 또는 복수의 RTP 커넥션을 통해 전송되는지에 따라 다르다. 압축된 미디어를 전송하는 MCIFTP 프레임의 하나의 스트림은 관련 하나 이상의 MRE(130)와 연관된 MRE MCM(316)으로부터 수신된다. 수신된 SID 값에 기초한, 내부 MCIF(318)로부터의 적합한 MCIFTP 프레임의 취득은 내부 MCIF(318), 공유 메메모리, TDM 버스, 이더넷등의 타입에 따라 다르다.
MREONIP(314)의 실시예는 각 취득된 MCIFTP 프레임을 처리할 수 있고 이러한 프레임내에 내장된 압축된 미디어를 검색할 수 있다. MCIFTP 프레임의 처리는 예를 들어, MCIFTP 프레임의 헤더를 제거를 포함할 수 있다. 각 처리된 MCIFTP 프레임의 미디어 페이로드는 RTP 압축된 미디어 데이터 청크를 생성하기 위해 RTP를 따르도록 구성될 수 있다. 적합한 필드를 가진 RTP 헤더가 추가될 수 있다. RTP 헤더의 필드는 인코더, 시퀀스 넘버, 타임 스탬프등은 물론 미디어를 반영하는 페이로드 타입(PT), 해당 스트림의 소스(SSRC)를 반영할 수 있다. RTP 데이터 청크는 IP 패킷내에 내장되도록 인터넷 프로토콜에 따라 처리될 수 있다. IP 헤더가 패킷에 추가될 수 있다. 헤더의 소스 IP 주소 및 포트는 관련 MREONIP(314)를 반영할 수 있다. 목적지 IP 주소는 연관된 MRE(130) 및, 이러한 미디어 타입과 연관된 포트 넘버를 반영할 수 있다. IP 패킷은 연관된 MRE(130) 쪽으로 전송될 수 있다. 일부 실시예 또는 일부 세션에서, IP 패킷은 동일한 압축 규격 및 동일한 오디오 믹스 또는 CP 비디오 이미지를 공유하는 복수의 MRE(240) 쪽으로 전송될 수 있다. MREONIP(314)의 동작은 상술된 MREONIP(240)의 동작과 유사하므로 더 이상 설명되지 않을 것이다.
MRE MCM(316)은 연관된 MREONIP(314)를 통해 하나 이상의 MRE(130) 쪽으로 전송되기 위해 2개 이상의 선택된 릴레이 RTP 압축된 비디오 스트림을 내부 MCIF(316)로부터 하나 이상의 중계된 RTP 압축된 비디오 스트림으로 전환하는데 사용될 수 있다. 이러한 MRE MCM(316)은 중계된 비디오 MRE MCM(316)으로 부를 수 있다. 각 MRE(130)는 수신된 이러한 전송된 하나 이상의 중계된 RTP 압축된 비디오 스트림으로부터 CP 비디오 이미지를 구축하고 제공할 수 있다. 중계된 비디오 MRE MCM(316)의 동작은 도 2와 함께 상술된 중계된 비디오 MCM(270)의 동작과 유사하므로, 중계된 비디오 MRE MCM(316)은 더 이상 설명되지 않을 것이다.
또 다른 MRE MCM(316)은 중계된 오디오 MRE MCM(316)으로 부를 수 있다. 중계된 오디오 MCM(316)은 관련 MREONIP(314)를 통해 하나 이상의 MRE(130) 쪽으로 전송되기 위해 2개 이상의 선택된 릴레이 RTP 압축된 오디오 스트림을, 내부 MCIF(316)로부터 하나 이상의 중계된 RTP 압축된 오디오 스트림으로 전환하는데 사용될 수 있다. 각 MRE(130)는 이러한 전송된 하나 이상의 중계된 RTP 압축된 오디오 스트림을 수신함으로써 오디오를 디코딩하고, 혼합하고 이러한 혼합된 오디오를 재생할 수 있다. 중계된 오디오 MRE MCM(316)의 동작은 도 2와 관련하여 상술된 중계된 오디오 MCM(270)의 동작과 유사하므로, 중계된 오디오 MRE MCM(316)는 더 이상 설명되지 않을 것이다.
내부 MCIF(318)는 MCIF(292)와 유사할 수 있다. MCIF(292)의 동작, MCIFTP 프레임 및 SID 값의 처리는 도 2와 관련하여 상술되어 있고 더 이상 설명되지 않을 것이다. MCIF 어댑터(319)가 내부 MCIF(318)와 외부 MCIF(345) 사이의 인터페이스를 위해 사용될 수 있다. MCIF 어댑터(319)는 DCUB(300)의 하나의 MCIF처럼 동작하도록 외부 MCIF(345)를 내부 MCIF(318)과 연관시킨다. MCIF 어댑터(319)의 동작은 내부 MCIF(318)의 타입과 외부 MCIF(345)의 타입에 따라 다르다.
DCUB(300)의 실시예에서, 내부 MCIF(318)는 공유 메모리일 수 있고, 외부 MCIF(345)는 예를 들어, 이더넷 네트워크일 수 있다. 이러한 실시예에서, MCIF 어댑터(319)는 MCIFTP 프레임의 각 프레임에 대해, SID 값, 소스 이더넷 주소 및 목적지 이더넷 주소를 취득할 수 있다. 내부 MCIF(318)로부터 외부 MCIF(345)로 전송되는 MCIFTP 프레임의 프레임에 대해, SID 값은 MCIF 어댑터(319)가 외부 MCIF(345) 쪽으로 전송되도록 MCIFTP 프레임을 사이클릭 모드에서 페칭할 수 있는 공유 메모리(내부 MCIF(318))에 주소의 인터벌을 표시할 수 있다. 관련 소스 이더넷 주소는 MCIFTP 프레임의 스트림을 생성하는 관련 내부 모듈 MREINIP(312) 또는 MRE MCM(316)와 DCUBMRE(310) 사이의 대응도를 표시할 수 있다. 연관된 목적지 이더넷 주소는 이러한 프레임이 전송되는 유닛내의 또 다른 DCUBMRE(310) 또는 DCUBLEP(320) 및 관련 내부 모듈을 표시할 수 있다. 이더넷 헤더에 적합한 SID 값과 이더넷 주소를 더한 후에, 이더넷 MCIFTP 프레임이 외부 MCIF(345)를 통해 그 목적지에 전송될 수 있다.
외부 MCIF(345)로부터 내부 MCIF(318)로 전송되는 MCIFTP 프레임의 스트림에 대해, SID 값은 MCIF 어댑터(319)가 외부 MCIF(345)로부터 수신되는 MCIFTP 프레임을 사이클릭 모드로 저장할 수 있는 공유 메모리(내부 MCIF(318))내의 주소의 인터벌을 표시할 수 있다. 관련 목적지 이더넷 주소는 이러한 SID 값과 연관될 수 있고, DCUBMRE(310)과, MCIFTP 프레임의 스트림의 타겟인 관련 내부 모듈 MREINIP(312) 또는 MRE MCM(316) 사이의 대응도를 나타낼 수 있다. 이더넷 헤더를 적합한 SID 값에 기초하여 처리한 후에, MCIFTP 프레임의 스트림은 이러한 SID 값과 연관된 공유 메모리(내부 MCIF(318))내의 주소의 인터벌에 사이클릭 모드로 저장될 수 있다.
DCUBLEP(320)는 복수의 LEPINIP(321), 복수의 LEPONIP(322), 복수의 LEP MCM(323), 복수의 EOM(324), 복수의 DM(325), 내부 MCIF(328) 및 MCIF 어댑터(3290를 포함할 수 있다. 각 DCUMLEP(320)는 LEPINIP(321)와 LEPONIP(322)를 통해 하나 이상의 LEP(140)과 통신할 수 있다. 내부 MCIF(328)은 DCUBLEP(320)의 내부 모듈을 서로 접속할 수 있고 MCIF 어댑터(329)를 통해 외부 MCIF(345)에 접속할 수 있다. 내부 MCIF(328)와 MCIF 어댑터(329)는 상술된, DCUBNRE(310)의 내부 MCIF(318)와 MCIF 어댑터(319)의 동작과 (각각) 유사한 방식으로 동작하므로, 더 이상 설명되지 않을 것이다.
LEPINIP(321), LEPONIP(322), EOM(324), 및 DM(325)은 도 2와 관련하여 상술된 LEPINIP(210), LEPONIP(230), EOM(280), 및 DM(260)과 (각각) 유사한 방식으로 동작하므로 더 이상 설명되지 않을 것이다.
DCUBLEP(320)는 복수의 무손실 디코더(LLP)(326), 복수의 무손실 인코더(LLE)(327)를 더 포함할 수 있다. LLP(326) 및 LLE(327)는 외부 MCIF(345)를 통해 또 다른 DCUBLEP(320) 또는 DCUBMRE(310) 쪽으로 전송될 필요가 있는, 압축되지 않은 디코딩된 미디어(오디오 또는 비디오)를 무손실 알고리즘을 사용하여 압축하기 위해 사용될 수 있다. 한 쌍의 LLE(327) 및 LLP(326)는 GZIP, Lempel-Ziv-Welch(LZW), 무손실 JPEG 2000등(하지만 이에 제한되지는 않는다)과 같은 무손실 압축 알고리즘을 실행할 수 있다. 다른 실시예에서, 이러한 무손실 압축은 예를 들어, 무손실 섹션을 실행하지 않고, 부분 H.264 인코딩에 의해 구현될 수 있다. 여기에 사용된 바와 같이, 용어 반(semi) 압축 및 무손실 압축은 서로 교환가능하다는 것을 이해해야 한다.
DCUBLEP(320)의 대안의 실시예에서, LLE(327) 및 LLP(326)는 MCIF 어댑터(329)의 실시예에 포함될 수 있다. 이러한 실시예에서, MCIF(328)로부터 외부 MCIF(345)로 MCIF 어댑터(329)를 통해 전송되는 MCIFTP 프레임의 페이로드는 외부 MCIF(345)를 통해 전달되도록 구성되기 전에 MCIF 어댑터(329)의 내부 LLE(345)에 의해 무손실로 압축될 수 있다. 다른 방향에서, 외부 MCIF(345)로부터 내부 MCIF(328)로 전송되는 MCIFTP 프레임의 페이로드는 내부 MCIF(328)를 통해 전달되도록 구성되기 전에 MCIF 어댑터(329)의 내부 LLD(326)에 의해 무손실로 압축해제될 수 있다.
DCUBCM(330)은 LEP 또는 MRE로/로부터의 복수의 시그널링 및 컨트롤 모듈(332) 그리고 메인 컨트롤러(334)를 포함할 수 있다. 시그널링 및 컨트롤 모듈(332)은 도 2와 관련하여 설명된 시그널링 및 컨트롤 모듈(250)와 유사한 방식으로 동작할 수 있다. 이러한 시그널링 및 컨트롤 모듈(332)은 통신 세션을 달성하고 관련 엔드포인트를 컨퍼런스에 접속하는데 사용될 수 있다. 메인 컨트롤러(334)는 관련 시그널링 및 컨트롤 모듈(332)을 통해, 엔드포인트 및 관련 컨퍼런스 세션을 인증할 수 있다. 인중 후에, 압축 규격, 비트 레이트등을 정하기 위해, 엔드포인트의 타입, 이러한 엔드포인트의 능력을 정하도록 협상 스테이지가 개시될 수 있다. 또한, 해당 엔드포인트를 위한 CP 비디오 이미지, 강요된 스피커등을 기술하는 레이아웃을 정할 수 있다. 이러한 협상은 예를 들어, H.323 또는 SID에 기초할 수 있고, 이러한 것들은 당업계에 주지되어 있고 더 이상 설명되지 않을 것이다.
메인 컨트롤러(334)는 DCUB(300)의 동작을 관리할 수 있다. 메인 컨트롤러(334)는 MRE(130) 또는 LEP(140)(다이얼-인 회의참석자)로부터 화상 회의 세션을 달성하는 요청을 수신할 수 있다. 이러한 요청은 하나 이상의 시그널링 및 컨트롤 모듈(332)를 통해 수신될 수 있다. 대안으로, 메인 컨트롤러(334)는 관리 서버(도면에 도시되지 않음)로부터 복수의 MRE(130) 및/또는 LEP(140) (다이얼 아웃 회의참석자) 사이의 컨퍼런싱 세션을 달성하는 요청을 취득할 수 있다. 이러한 요청은 하나 이상의 시그널링 및 컨트롤 모듈(332)을 통해 이러한 엔드포인트들과의 접속을 달성하도록 메인 컨트롤러(334)에 의해 사용되기 위해 다이얼 아웃 넘버(다이얼 넘버는 IP 주소를 나타낼 수 있다)의 리스트와 연관될 수 있다. 일부 컨퍼런싱 세션은 다이얼 인 및 다이얼 아웃 회의참석자 모두를 포함할 수 있다. 엔드포인트와의 접속을 달성하는 것은 예를 들어, H.323 또는 SID와 같은 주지된 규격을 따를 수 있다.
이러한 세션에 참여하는 각 엔드포인트, MRE(130) 또는 LEP(140)에 대하여, 메인 컨트롤러(334)는 해당 엔드포인트에 관련 내부 모듈을 할당할 수 있다. 메인 컨트롤러(334)는 DCUBMRE(310)를 해당 세션에 연관시킬 수 있고, 해당 MRE로부터 취득된 복수의 비디오 스트림으로부터의 각 비디오 스트림에 대한 MREINIP(312)(각 크기, 품질 레벨등에 대한 것); 해당 MRE(130)로부터 취득된 복수의 오디오 스트림으로부터의 각 오디오 스트림에 대한 MREINIP(312)(예를 들어, 각 품질 레벨에 대한 것); 각각, MRE(130)에 나타나는 CP 비디오 이미지와 관련된 비디오 이미지를 전달하는 비디오 스트림에 대한, 하나 이상의 MREONIP(314); 각각, MRE 라우드스피커로부터 청취되는 혼합된 오디오와 관련된 오디오를 전달하는 오디오 스트림에 대한, 하나 이상의 MREONIP(314)를 할당할 수 있다.
또한, 메인 컨트롤러(334)는 해당 MRE(130)로.로부터의 미디어를 처리하기 위한 하나 이상의 미디어 프로세서 유닛을 할당할 수 있다. 예를 들어, 하나의 비디오 DM(325)은 해당 MRE(130)로부터 취득된 복수의 비디오 스트림로부터의 각 비디오 스트림에 대해 할당될 수 있다(각 크기, 품질등에 대한 하나씩). 마찬가지로, 하나의 오디오 DM(325)이 해당 MRE(130)로부터 취득된 복수의 오디오 스트림로부터의 각 오디오 스트림에 대해 할당될 수 있다(예를 들어, 각 품질 레벨에 대해 하나씩). 이러한 할당된 비디오 또는 오디오 DM(325)은 관련 스트림을 압축하기 위해 사용되는 압축 규격, 비트 레이트등에 대응하도록 구성될 수 있다. 또한, 이러한 DM(325)은 해당 컨퍼런스 세션에 연관된 DCUBLEP(320)에 존재할 수 있다. 연관된 DM(325)에 도달하기 위해, 관련 MREINIP(312)로부터의 MCIFTP 프레임의 각 스트림은 내부 MCIF(318), MCIF 어댑터(319), 외부 MCIF(345), MCIF 어댑터(329) 및 내부 MCIF(328)를 통해 전송될 수 있다. 메인 컨트롤러(334)는 이러한 스트림에 SID 값과 이더넷 주소를 할당하도록 그리고, 이에 따라 이더넷 스위치(340) 및 2개의 MCIF 어댑터(319, 329)를 설정하도록 구성될 수 있다.
세션에 참가하는 LEP(140)와 연관된 비디오 DM(325)로부터 취득된 스케일링된 디코딩된 비디오 이미지를 전달하는 각 비디오 스트림에 대해 하나씩, 하나 이상의 비디오 EOM(324)이 메인 컨트롤러(334)에 의해 할당될 수 있고; 세션에 참가하는 LEP(140)와 연관된 오디오 DM(325)로부터 취득된 특정 품질의 디코딩된 오디오를 전달하는 각 디코딩된 오디오 스트림에 대해 하나씩, 하나 이상의 오디오 EOM(324)이 할당될 수 있다. MCIFTP 프레임의 압축된 스트림은 이러한 EOM(324)의 출력부에서, MCIF 어댑터(319, 329) 및 이더넷 스위치(340)는 물론 내외부 MCIF(318, 328, 345)를 통해 적합한 MRE MCM(316)으로 전송될 수 있다. 메인 컨트롤러(334)는 요청된 리소스, 요청된 SID 값 및 요청된 이더넷 소스 및 목적지 주소를 계속 할당하고 제어할 수 있다. 메인 컨트롤러(334)의 동작의 나머지는 도 2와 관련하여 상술된 CM(290)의 동작과 유사하므로 더 이상 설명되지 않을 것이다.
도 4는 고용량 유니버셜 브리지(HVUB)(400)의 실시예의 관련 엘리먼트를 갖는 단순화된 블록도이다. HVUB(400)는 고용량의 멀티미디어 컨퍼런스를 갖는 사이트에서 사용될 수 있다. HVUB(400)는 복수의 서브-고용량 유니버셜 브리지(SHVUB)(410), DCUB 컨트롤 모듈(DCUBCM)(450) 및, 라우팅 디바이스(440)를 갖고 있는 외부 MCIF(445)를 포함할 수 있다. 각 SHVUB(400) 및 DCUBCM(450)는 외부 MCIF(445)를 통해 서로 통신할 수 있다. HVUB(400)의 일부 실시예에서, DCUBCM(450)은 물론 SHVUB(410)의 각각은 블레이드 컴퓨터에 내장될 수 있다. 이러한 실시예에서, HVUB(400)는 수시로 하나 이상의 SHVUB(410)를 추가함으로써 확장될 수 있다.
SHVUB(410)는 LEPINIP(210), MREINIP(220), LEPONIP(230), MREONIP(240), DM(260), MCM(270), 및 EOM(280)과 같은, 도 2와 관련하여 상술된 CUB(200)의 내부 모듈과 유사한 내부 모듈을 포함할 수 있다. 이러한 모듈은 더 이상 설명되지 않을 것이다. 또한, SHVUB(410)는 내부 MCIF(412) 및 MCIF 어댑터(414)를 포함할 수 있다. 외부 MCIF(445)와 함께 내부 MCIF(412) 및 MCIF 어댑터(414)는 도 2와 관련하여 상술된 MCIF(292)의 태스크를 구현할 수 있다. 또한, 내부 MCIF(412), MCIF 어댑터(414), 외부 MCIF(445), 및 라우팅 디바이스(440)의 동작은 도 3과 관련하여 상술된 내부 MCIF(318, 328), MCIF 어댑터(319, 329), 외부 MCIF(345), 및 라우팅 디바이스(340)의 동작과 유사하므로, 더 이상 설명되지 않을 것이다. 외부 MCIF가 이더넷 프로토콜을 따르는 실시예에서, 라우팅 디바이스(340, 440)는 이더넷 스위치일 수 있다. 외부 MCIF(345 또는 445)가 IP를 따르는 다른 실시예에서, 라우팅 디바이스(340, 440)는 인터넷 라우터일 수 있다.
라우팅 디바이스(440), 외부 MCIF(445), 및 각각의 SHVUB(410)는 DCUBCM(450)에 의해 제어될 수 있다. 각각의 SHVUB(410)로/로부터의 DCUBCM(450)로부터/로의 커맨드 또는 상태 및 리포트는 제어 통신 링크(416)를 통해 전송될 수 있다. 이러한 제어 통신 링크(416)는 외부 MCIF(445)를 통해 전송될 수 있다.
DCUBCM(450)는 LEP 또는 MRE로/로부터의 복수의 시그널링 및 컨트롤 모듈(452) 및 메인 컨트롤러(454)를 포함할 수 있다. DCUBCM(450)의 동작은 도 3와 관련하여 상술된 DCUBCM(350)의 동작과 유사하므로 더 이상 설명되지 않을 것이다.
도 5a 및 도 5b는 하나의 실시예에 따른 CUB(200)의 CM(290)에 의해 구현될 수 있는 프로세스(500)를 설명하고 있다. 미소한 적응을 갖는 유사한 방법이 DCUBCM(330) 또는 DCUBCM(450)의 메인 컨트롤러(334 또는 454) 각각에 의해 사용될 수 있다. 방법(500)은 멀티미디어 컨퍼런스 세션의 시작에 또는 새로운 회의참석자가 기존의 멀티미디어 컨퍼런스에 참여할 때마다 블록(502)에서 시작될 수 있다. 도 5a는 설정 태스크를 설명하고, 도 5b는 컨퍼런스가 실행되는 동안 CM(290)의 관련 액션을 설명하고 있다.
태스크(500)는 예약된 세션의 개시의 지시를 시작할 때에 CM(290)에 의해 시작될 수 있다. 이러한 지시는 세션 프로파일을 포함할 수 있다. 이러한 세션 프로파일은 세션 지속시간, 다이얼-인 또는 다이얼-아웃 넘버, 압축 파라미터, CP 레이아웃, 엔드포인트의 타입등과 같은, 세션에 대한 정보를 포함할 수 있다. 이러한 지시는 도면에 도시되지 않은 관리 서버로부터 취득될 수 있다. 대안으로, 즉석 컨퍼런스는 가상 미팅룸으로의 다이얼 인 호출을 수신할 때에 블록(502)에서 시작될 수 있다. 컨퍼런스 프로파일 및 가상 미팅룸은 당업계에 주지되어 있고 더 이상 설명되지 않을 것이다. 이러한 기능에 대해 보다 많이 알기를 원하는 독자는 여기에 언급되어 그 내용이 통합된 미국 특허 제7,085,243, 7,310,320 및 7,830,824를 참조할 수 있다.
시작되면, 컨퍼런스 파라미터가 블록(504)에서 취득될 수 있다. 이러한 컨퍼런스 파라미터는 컨퍼런스 프로파일, 미팅룸 프로파일로부터 또는 호출 엔드포인트와 협상함으로써 취득될 수 있다. 이러한 취득된 컨퍼런스 파라미터에 기초하여, 세션이 활성인 동안 사용될 수 있는, 관리 및 제어 테이블(MCT), MCIF 라우팅 테이블(MRT)등과 같은 리소스가 블록(506)에서 할당될 수 있는데, 이에 제한되지는 않는다. 추가 리소스 및 MCT 및 MRT의 채움 단계가 블록(510)과 블록(518) 사이의 루프에서 각 MRE(130)에 대해, 그리고, 블록(520)과 블록(528) 사이의 다음의 루프에서 각 LEP(140)에 대해 이루어질 수 있다. 새로운 회의참석자가 세션에 참여하면, 관련 루프의 적합한 사이클이 MRE(130) 또는 LEP(140)의 엔드포인트의 타입에 기초하여 실행될 수 있다.
각 MRE(130)에 대해, 제1 루프의 사이클이 블록(510)에서 시작될 수 있다. 블록(512)에서, 수집된 정보에 기초하여, 입력 스트림의 수가 MRE로부터 수신된다. MRE(130)에 의해 제공된 CP 레이아웃, 및 MRE(130)에 의해 혼합되는 오디오 스트림의 수에 기초하여, 미디어 각 타입(오디오/비디오)에 대해 (MRE(130) 쪽으로 전송되는) 출력 스트림의 수가 결정된다. 스트림의 수는 해당 MRE(130)로부터/로 취득된/전송된 스트림의 상이한 크기(해상도), 상이한 프레임 레이트, 상이한 품질, 상이한 비트 레이트등의 수에 따라 다를 수 있다.
각 입력 스트림(오디오 또는 비디오)에 대해, 적합한 MREINIP(220) 및 DM(260)(오디오 또는 비디오)이 블록(514)에서 할당될 수 있다. 출력 SID 값이 각 MREINIP(220)에 대해 할당될 수 있다. 또한, 입력 SID 값 및 출력 SID 값이 각 DM(260)(오디오 또는 비디오)에 대해 할당될 수 있다. DM(260)은 LEP(140)에 의해 제공되는 CP 비디오 이미지를 구성하는데 필요한 압축된 비디오를 디코딩하기 위해 사용될 수 있고, 대안으로, DM(260)은 LEP(140)에 사용되는 오디오를 혼합하는데 필요한 오디오를 디코딩하기 위해 사용될 수 있다. 또한, 각 출력 스트림(오디오 또는 비디오)에 대해, 적합한 MREONIP(240) 및 MRE MCM(270)(오디오 또는 비디오)이 블록(514)에서 할당될 수 있다. 입력 SID 값은 각 MREONIP(240)에 대해 할당될 수 있다. 또한, 입력 SID 값 및 출력 SID 값이 각 MRE MCM(270)(오디오 또는 비디오)에 대해 할당될 수 있다.
블록(516)에서 각 엔트리가 각 할당된 리소스에 대해 MCT에 할당된다. 각 엔트리는 해당 세션 동안 리소스를 관리하기 위해 사용되는 복수의 필드를 포함할 수 있다. MREINIP(220) 또는 MREONIP(240)와 연관된 엔트리는 MREINIP(220) 또는 MREONIP(240)와 관련 스트림을 전송하는 관련 MRE 사이의 IP 커넥션과 관련된 정보, 입출력 SID 값등을 포함할 수 있다. DM(260)(오디오 또는 비디오)와 연관된 엔트리는 각 리소스에 대한, 관련 DM에 의해 사용된 압축과 관련된 정보, 해당 DM과 관련된 입출력 SID 값등을 포함할 수 있다. 또한, 블록(516)에서, 할당된 DM(260), MRE MCM(270), 및 MREONIP(240)의 각 입력 스트림에 대한 엔트리가 MRT(SID 전환 테이블)에 할당될 수 있다. 각 엔트리는 적어도 2개의 필드를 가질 수 있다. 제1 필드에, 해당 스트림의 입력 SID 값이 기록될 수 있다. 제2 필드에, 이러한 리소스에 의해 취득되는 스트림의 출력 SID 값이 기록될 수 있다. 이러한 필드는 세션의 역학관계에 따라 변경될 수 있다. 단일 SID 값이 사용되는 CUB(200)의 실시예에서, 오직 하나의 필드만이 입력 스트림의 각 엔트리를 위해 사용될 수 있다. 수시로, 이러한 필드의 값은 세션의 역학관계에 따라 갱신될 수 있다.
다음으로, 블록(518)에서, 하나 이상의 추가 MRE(130)가 이러한 세션에 참가하는는 여부가 판단된다. 만약 그러하다면, 방법(500)은 블록(510)으로 돌아가고 그 다음 MRE(130)에 대한 새로운 사이클의 루프를 시작한다. 만약 그러하지 않다면, 프로세스(500)는 이러한 세션에 참가하는 하나 이상의 LEP(140)를 처리하기 위해 블록(520)으로 진행한다.
각 참가하는 LEP(140)에 대해, 제2 루프의 사이클은 블록(520)에서 시작될 수 있다. 각 입력 스트림(오디오 또는 비디오)에 대해, 적합한 LEPINIP(210), DM(260)(오디오 또는 비디오), 및 (비디오 DM에 대한) 하나 이상의 스케일러가 블록(524)에서 할당될 수 있다. 또한, EOM(280)이 각 스케일링된 디코딩된 비디오에 대해 할당될 수 있다. EOM(280)은 관련 LEP(140)가 MRE(130)에 의해 제공되는 CP 이미지에 포함될 때 사용될 수 있다. 출력 SID 값은 각 LEPINIP(210)에 대해 할당될 수 있다. 또한, 입력 SID 값 및 출력 SID 값은 각 DM(260)(오디오 또는 스케일링된 비디오) 및 EOM(280)에 대해 할당될 수 있다. 또한, 해당 LEP(140) 쪽으로의 각 출력 스트림(오디오 또는 비디오)에 대해, 적합한 LEOONIP(230) 및 레거시 MCM(270)(오디오 또는 비디오)가 블록(524)에서 할당될 수 있다. 레거시 MCM(270)은 관련 CP 비디오 이미지를 구성하도록 구성될 수 있다. 적합한 크기의 프레임 메모리가 CP 비디오 이미지에 대해 할당될 수 있다. 프레임 메모리는 정해진 레이아웃등에 따라 세그먼트로 분할될 수 있다. 입력 SID 값이 각 LEPONIP(230)에 대해 할당될 수 있다. 또한, 입력 SID 값 및 출력 SID 값이 각 레거시 MCM(270)(오디오 또는 비디오)에 대해 할당될 수 있다.
블록(526)에서 해당 LEP(140)에 대한 각 할당된 리소스에 대해 MCT에 할당된다. 각 엔트리는 해당 섹션 동안 리소스를 관리하는데 필요한 복수의 필드를 포함할 수 있다. LEPINIP(210) 또는 MREONIP(230)와 연관된 엔트리는 LEPINIP(210) 및 MREONIP(230)과, 관련 스트림을 전송하는 관련 LEP(140) 사이의 IP 커넥션과 관련된 정보, 입출력 SID 값등을 포함할 수 있다. DM(260)(오디오 또는 비디오)과 연관된 엔트리는 각 리소스에 대한, 관련 LEP(1400에 의해 사용된 압축과 관련된 정보, 이러한 DM(260)과 관련된 입출력 SID 값등을 포함할 수 있다. 또한, 블록(526)에서, 할당된 DM(260), 레거시 MCM(270), 및 LEPONIP(230)의 각 입력 스트림에 대한 엔트리가 MRT(SID 전환 테이블)에 할당될 수 있다. 일부 실시예에서, 각 엔트리는 적어도 2개의 필드를 가질 수 있다. 제1 필드에, 해당 스트림의 입력 SID 값이 기록될 수 있다. 제2 필드에, 이러한 리소스에 의해 취득되는 스트림의 출력 SID 값이 기록될 수 있다. 이러한 필드는 세션의 역학관계에 따라 세션 동안 변경될 수 있다. 단일 SID 값이 사용되는 CUB(200)의 실시예에서, 단일 필드가 입력 스트림의 각 엔트리에 대해 사용될 수 있다. 수시로, 이러한 필드의 값은 세션의 역학관계에 따라 갱신될 수 있다.
다음으로, 블록(528)에서, 추가 LEP(140)가 세션에 참가하는지 여부를 판단한다. 만약 그러하다면, 방법(500)은 블록(520)으로 돌아가고 그 다음의 LEP에 대한 새로운 사이클의 루프를 시작한다. 만약 그러하지 않다면, 프로세서(500)는 진행중인 세션을 처리하기 위해 도 5b의 블록(530)으로 진행한다.
블록(530)에서, 헌재 비디오 설정 프로세스가 시작될 수 있다. 현 비디오 설정 프로세스는 2개의 내부 루프에서 처리될 수 있다. 제1 루프에서, 블록(540)으로부터 블록(550)으로, 세션에 참가하는 하나 이상의 MRE(130)의 설정이 처리될 수 있다. 제2 루프는, 블록(560)으로부터 블록(572)로, 세션에 참가하는 하나 이상의 LEP(1400의 현 비디오 설정을 다룬다. 현 비디오 설정 프로세스는 새로운 스피커, 새로운 참가자등과 같은 (이에 제한되지는 않는다) 컨퍼런스 세션에서의 변화에 응답하기 위해, 수초, 예를 들어, 1 내지 10초 마다 반복될 수 있다. 오디오를 다루기 위한 유사한 현 오디오 설정 프로세스(도면에 도시되지 않음)는 CM(290)에 의해 실행될 수 있다. 현 오디오 설정 프로세스는 혼합된 오디오를 컨퍼런스 세션에서의 변화에 적응시키는데 사용될 수 있다. 비디오 프로세스에 대조적으로, 현 오디오 설정 프로세스는 예를 들어, 수십 밀리초 내지 수백 밀리초 마다 고주파수에서 반복될 수 있다. 오디오 프로세스에서, 오디오 MCM(270)은 오디오 스트림을 혼합하기 위해 오디오 스트림을 처리한다.
루프의 사이클은, 각 MRE(130)에 대해, 해당 MRE(130)의 디스플레이에 나타날 현 CP 비디오 이미지에 어느 엔드포인트(MRE(130) 또는 LEP(140))가 나타날지를 블록(542)에서 결정함으로써 시작할 수 있다. 제공된 엔드포인트 그리고, 각 엔드포인트로부터의 비디오 이미지가 제공될 세그먼트의 선택은 상이한 기준에 기초할 수 있다. 사용되는 기준은 블록(504)에서 정해질 수 있다. 하나의 컨퍼런스 세션에서, 이러한 기준은 각 엔드포인트로부터 취득된 오디오의 에너지일 수 있다. 예를 들어, 스피커는 특정 기간(예를 들어, 1-10초)의 특정 퍼센트(예를 들어, 60-80%) 동안 최고의 오디오 에너지를 갖는 엔드포인트로서 정의될 수 있다. 다른 컨퍼런스 세션에서, 특정 엔드포인트가 강제로 스피커로 될 수 있다. 또 다른 컨퍼런스 세션에서, MRE(130)는 MRE(130)에 의해 제공될 선택된 엔드포인트등을 정의할 수 있다.
블록(548)에서, 해당 MRE(130)와 연관된 MCM(270)과 연관된 MRT내의 엔트리가 갱신될 수 있다. 이러한 갱신은 현재 제공된 엔드포인트의 선택, 현 스피커의 선택, 레이아웃 파라미터(각 세그먼트의 크기 및 위치)등에 기초할 수 있다. 이에 따라, 현재 제공된 하나 이상의 LEP(140)와 연관된 EOM(280)의 출력 SID 값은 물론, 현재 제공된 하나 이상의 MRE(130)와 연관된 MREINIP(240)의 출력 SID 값이 MRT의 관련 엔트리에 기록될 수 있다. 갱신된 MRT에 기초하여, MCM(270)은 제공된 MRE(130)로부터 수신된 릴레이 RTP 압축된 비디오 데이터 청크를 전달하는 적합한 MCIFTP 프레임의 스트림을 취득할 수 있다. 또한, MCM(270)은 적합한 DM(260)에 의해 적합한 크기로 디코딩되고 스케일링되고 EOM(280)에 의해 릴레이 RTP 압축된 비디오 데이터 청크로 압축된 후에, 선택된 LEP(140)로부터 나온 릴레이 RTP 압축된 비디오 데이터 청크를 전달하는 적합한 MCIFTP 프레임의 스트림을 취득할 수 있다. 다음으로, 추가 MRE(130)가 세션에 참가하는지 여부를 블록(550)에서 판단한다. 만약 그러하다면, 방법(500)은 블록(540)으로 돌아간다. 만약 그러하지 않다면, 세션 에 참가하는 각 LEP(140)에 대한 현재의 비디오 설정 프로세스를 처리하기 위해 제2 루프가 블록(560)에서 시작된다.
이러한 루프의 사이클은, 각 LEP(140)에 대해, 해당 LEP(140)의 디스플레이 제공될 현재의 CP 비디오 이미지에 어느 엔드포인트(MRE(130) 또는 LEP(140))가 제공될 지를 블록(562)에서 결정함으로써 시작할 수 있다. 제공된 엔드포인트, 그리고, 각 엔드포인트로부터의 비디오 이미지가 제공될 세그먼트의 선택은 블록(542)에서 상술된 선택과 유사하게 실행된다.
블록(568)에서, 해당 LEP(140)와 연관된 MCM(270)과 연관된 MRT내의 엔트리가 갱신될 수 있다. 이러한 갱신은 현재 제공된 엔드포인트의 선택, 현 스피커의 선택, 레이아웃 파라미터(각 세그먼트의 크기 및 위치)등에 기초할 수 있다. 이에 따라, 현재 제공된 하나 이상의 LEP(140) 및 MRE(130)와 연관된 DM(260)의 출력 SID 값이 MRT의 관련 엔트리에 기록될 수 있다. 갱신된 MRT에 기초하여, LEP MCM(270)은 디코딩되고 스케일링된 후에 제공된 LEP(140) 및 MRE(130)로부터 나온 DMDU를 전하는 적합한 MCIFTP 프레임의 스크림을 취득할 수 있다. 다음으로, 임의의 추가 LEP(140)가 세션에 참가하는지 여부가 블록(570)에서 판단된다. 만약 그러하다면, 방법(500)은 블록(560)으로 돌아간다. 만약 그러하지 않다면, 제공된 LEP 및 MRE로부터 인트라 프레임이 블록(572)에서 요청될 수 있다.
프로세스(500)는 블록(574)에서 예를 들어, 1 내지 10초의 수 초 대기할 수 있다. 대기 시간 후에 변화를 찾기 위해 세션의 현 상태가 블록(576)에서 체크될 수 있다. 변화는 세션에 참여하는 새로운 회의참석자, 레이아웃이 변하도록 세션을 떠나는 회의참석자, 새로운 스피커등일 수 있다. 블록(580)에서, 아무런 변화도 없다면, 프로세스(500)는 블록(574)로 돌아가고 수 초의 또 다른 시간 동안 대기한다. 블록(580)에서 새로운 스피커가 선택된다면, 프로세스(500)는 블록(540)으로 돌아가고 현 비디오 설정 프로세스를 반복한다. 블록(580)에서 새로운 엔드포인트가 세션에 참여한다면, 방법(500)은 처음부터 시작할 수 있고 블록(504)로 돌아가서, 새로운 엔드포인트의 관점에서 현 컨퍼런스 파라미터를 얻을 수 있다. 새로운 엔드포인트가 현재의 레이아웃, 압축 파라미터등에 영향을 줄 수 있다. 이러한 프로세스는 컨퍼런스 세션의 끝까지 계속될 수 있다.
본 발명의 상세한 설명 및 청구범위에서, "포함하다", "갖다" 등은 동사의 객체가 동시의 주체의 멤버, 컴포넌트, 엘리먼트, 또는 파트의 온전한 리스팅이 반드시 아니라는 것을 지시하도록 사용되었다.
상기 설명은 설명을 위한 것이 제한을 위한 것이 아니라는 것을 이해해야 한다. 상술된 장치, 시스템 및 방법은 단계의 순서 및 사용된 정확한 구현의 변화를 포함하여, 많은 방식으로 변화될 수 있다. 상술된 실시예는 상이한 특징을 포함하고, 이들 모두가 본 발명의 모든 실시예에서 필요한 것은 아니다. 본 발명의 일부 실시예는 이러한 특징의 일부만 또는 가능한 조합만을 사용하고 있다. 상술된 실시예의 특징의 상이한 조합이 당업자에게 가능할 것이다. 또한, 본 발명의 일부 실시예는 상이한 실시예와 연관되어 기술된 특징 엘리먼트의 조합에 의해 구현될 수 있다. 본 발명의 범위는 오직 다음의 청구범위 및 그 동등물에 의해서만 제한된다.

Claims (45)

  1. 멀티미디어 컨퍼런싱 시스템용 유니버셜 브리지로서,
    각각 스트림 식별자를 갖고 있는 트랜스포트 프레임의 스트림을 트랜스포트 프로토콜에 따라 운반하도록 구성된 인터페이스;
    상기 인터페이스에 연결되어 있는 미디어 릴레이 입력 프로세서로서, 미디어 릴레이 엔드포인트로부터 수신된 압축된 미디어를 운반하는 트랜스포트 프레임을 상기 인터페이스에 전달하도록 구성된 상기 미디어 릴레이 입력 프로세서;
    상기 인터페이스에 연결되어 있는 디코더 모듈로서, 압축된 미디어를 운반하는 트랜스포트 프레임의 스트림을 취득하고 디코더 모듈 데이터 유닛을 운반하는 트랜스포트 프레임의 스트림을 생성하도록 구성된 상기 디코더 모듈;
    상기 인터페이스에 연결되어 있는 제1 타입 미디어 결합기 모듈로서, 디코더 모듈 데이터 유닛을 운반하는 트랜스포트 프레임의 복수의 스트림을 레거시 엔드포인트 쪽으로 타겟팅된 결합된 미디어를 운반하는 트랜스포트 프레임의 스트림으로 결합하도록 구성된 상기 제1 타입 미디어 결합기 모듈;
    상기 인터페이스에 연결되어 있는 인코더 출력 모듈로서, 디코더 모듈 데이터 유닛을 운반하는 트랜스포트 프레임의 스트림을 취득하고 압축된 미디어를 운반하는 트랜스포트 프레임의 스트림을 생성하도록 구성된 상기 인코더 출력 모듈;
    상기 인터페이스에 연결되어 있는 미디어 릴레이 엔드포인트 출력 프로세서로서, 제1 미디어 릴레이 엔드포인트 또는 제1 레거시 엔드포인트에 의해 나온 압축된 미디어를 운반하는 트랜스포트 프레임의 하나 이상의 스트림을 취득하고 패킷의 하나 이상의 스트림을 제2 미디어 릴레이 엔드포인트 쪽으로 전달하도록 구성된 상기 미디어 릴레이 엔드포인트 출력 프로세서; 및
    상기 인터페이스로의/로부터의 데이터 트래픽을 제어하고 트랜스포트 프레임의 스트림에 대한 스트림 식별자를 할당하는 컨트롤 모듈을 포함하고,
    상기 컨트롤 모듈은 수시로, 취득된 제어 파라미터에 응답하여, 상기 디코더 모듈, 인코더 출력 모듈 및 제1 타입 미디어 결합기 모듈중 적어도 하나의 모듈을 할당하는 것을 특징으로 하는 유니버셜 브리지.
  2. 제1항에 있어서, 상기 인터페이스에 연결되어 있는 레거시 입력 프로세서로서, 레거시 엔드포인트로부터 수신된 압축된 미디어를 운반하는 트랜스포트 프레임을 상기 인터페이스에 전달하도록 구성된 상기 레거시 입력 프로세서를 더 포함하는 것을 특징으로 하는 유니버셜 브리지.
  3. 제2항에 있어서, 상기 레거시 입력 프로세서는 실시간 프로토콜 처리 유닛을 더 포함하는 것을 특징으로 하는 유니버셜 브리지.
  4. 제1항에 있어서, 상기 인터페이스에 연결되어 있는 레거시 입력 프로세서로서, 압축된 미디어를 운반하는 패킷을 레거시 엔드포인트로부터 수신하고 처리하도록 구성된 상기 레거시 입력 프로세서를 더 포함하고,
    상기 레거시 입력 프로세서는 상기 인터페이스에 전송되는 디코더 모듈 데이터 유닛을 운반하는 트랜스포트 프레임의 스트림으로, 압축된 미디어의 청크를 처리하도록 구성된 레거시 입력 프로세서 디코더 모듈을 포함하고,
    상기 레거시 입력 프로세서는 압축된 미디어의 데이터 청크를 상기 레거시 입력 프로세서 디코더 모듈로 전달하도록 구성된 것을 특징으로 하는 유니버셜 브리지.
  5. 제1항에 있어서, 상기 인터페이스에 연결되어 있는 제2 타입 미디어 결합기 모듈로서, 압축된 미디어를 운반하는 트랜스포트 프레임의 복수의 스트림을, 미디어 릴레이 엔드포인트 쪽으로 타겟팅된 결합된 미디어를 운반하는 트랜스포트 프레임의 스트림으로 결합하도록 구성된 상기 제2 타입 미디어 결합기 모듈을 더 포함하는 것을 특징으로 하는 유니버셜 브리지.
  6. 제5항에 있어서, 상기 압축된 미디어를 운반하는 트랜스포트 프레임의 복수의 스트림의 적어도 하나는 레거시 엔드포인트로부터 나오는 것을 특징으로 하는 유니버셜 브리지.
  7. 삭제
  8. 제1항에 있어서, 상기 디코더 모듈 데이터 유닛은 압축해제된 데이터 유닛인 것을 특징으로 하는 유니버셜 브리지.
  9. 제1항에 있어서, 상기 인코더 출력 모듈은 결합된 미디어를 운반하는 트랜스포트 프레임의 스트림을 취득하고, 압축된 결합된 미디어를 운반하는 트랜스포트 프레임의 스트림을 생성하는 것을 특징으로 하는 유니버셜 브리지.
  10. 제9항에 있어서, 상기 인터페이스에 연결되어 있는 레거시 출력 프로세서로서, 압축된 결합된 미디어를 운반하는 트랜스포트 프레임의 스트림을 취득하고 패킷을 레거시 엔드포인트 쪽으로 전달하도록 구성된 상기 레거시 출력 프로세서를 더 포함하는 것을 특징으로 하는 유니버셜 브리지.
  11. 제1항에 있어서, 상기 트랜스포트 프로토콜에 따른 트랜스포트 프레임이 실시간 프로토콜을 따르는 헤더를 포함하는 것을 특징으로 하는 유니버셜 브리지.
  12. 제1항에 있어서, 상기 미디어는 비디오이고 상기 제1 타입 미디어 결합기 모듈은 화면 분할(CP: continuous presence) 비디오 이미지를 구축하도록 구성된 것을 특징으로 하는 유니버셜 브리지.
  13. 제12항에 있어서, 상기 제1 타입 미디어 결합기 모듈은 상기 화면 분할 비디오 이미지를 구축하는 동안, 디코딩된 비디오 이미지를 요청된 해상도로 스케일링하도록 구성된 것을 특징으로 하는 유니버셜 브리지.
  14. 제1항에 있어서, 상기 미디어는 오디오이고 상기 제1 타입 미디어 결합기 모듈은 오디오 믹서인 것을 특징으로 하는 유니버셜 브리지.
  15. 제1항에 있어서, 상기 디코더 모듈은 디코딩된 비디오 이미지를 요청된 해상도로 스케일링하는 스케일러를 더 포함하는 것을 특징으로 하는 유니버셜 브리지.
  16. 제1항에 있어서, 상기 인코더 출력 모듈은 디코딩된 비디오 이미지를 요청된 해상도로 스케일링하는 스케일러를 포함하는 것을 특징으로 하는 유니버셜 브리지.
  17. 제1항에 있어서, 상기 인터페이스는 공유 메모리인 것을 특징으로 하는 유니버셜 브리지.
  18. 제17항에 있어서, 상기 트랜스포트 프로토콜에 따른 트랜스포트 프레임은 트랜스포트 프로토콜 헤더를 포함하고,
    상기 트랜스포트 프로토콜 헤더는 상기 스트림 식별자를 포함하고,
    상기 스트림 식별자는 메모리 주소의 세트를 나타내는 것을 특징으로 하는 유니버셜 브리지.
  19. 제1항에 있어서, 상기 인터페이스는 멀티캐스트 라우팅 능력을 갖는 스위치를 포함하는 것을 특징으로 하는 유니버셜 브리지.
  20. 제1항에 있어서, 압축된 미디어를 제2 미디어 릴레이 엔드포인트 쪽으로 운반하는 패킷은 상기 제2 미디어 릴레이 엔드포인트에서 화면 분할 비디오 이미지를 구축하는데 사용되는 것을 특징으로 하는 유니버셜 브리지.
  21. 제1항에 있어서, 상기 컨트롤 모듈은 하나 이상의 제어 파라미터에 응답하여 데이터 트래픽을 제어하고,
    상기 제어 파라미터는 상태 정보, 사용자 요청, 및 엔드포인트 파라미터중 하나 이상을 포함하는 것을 특징으로 하는 유니버셜 브리지.
  22. 제21항에 있어서, 상기 상태 정보는 하나 이상의 미디어 릴레이 엔드포인트 및 하나 이상의 레거시 엔드포인트로부터 수신된 오디오 스트림의 오디오 에너지를 포함하는 것을 특징으로 하는 유니버셜 브리지.
  23. 제1항에 있어서, 상기 컨트롤 모듈은 디코더 모듈, 인코더 출력 모듈 및 제1 타입 미디어 결합기 모듈중 적어도 하나의 모듈을 할당하는 것을 특징으로 하는 유니버셜 브리지.
  24. 멀티미디어 컨퍼런싱 시스템용 유니버셜 브리지 시스템으로서,
    트랜스포트 프로토콜에 따라 트랜스포트 프레임의 스트림을 운반하도록 구성된 제1 인터페이스;
    상기 제1 인터페이스에 접속된 컨트롤 모듈;
    상기 제1 인터페이스에 접속된 미디어 릴레이 프로세서로서, 제1 미디어 릴레이 엔드포인트로부터 수신된 압축된 미디어를 수신하고, 패킷의 하나 이상의 스트림을 제2 미디어 릴레이 엔드포인트 쪽으로 전달하고, 트랜스포트 프레임의 스트림을 상기 제1 인터페이스로 전달하고, 상기 제1 인터페이스로부터 트랜스포트 프레임의 스트림을 수신하도록 구성된 상기 미디어 릴레이 프로세서; 및
    상기 제1 인터페이스에 접속된 레거시 프로세서로서, 제1 레거시 엔드포인트로부터 수신된 압축된 미디어를 수신하고, 패킷의 하나 이상의 스트림을 제2 레거시 엔드포인트 쪽으로 전달하고, 트랜스포트 프레임의 스트림을 상기 제1 인터페이스로 전달하고, 상기 제1 인터페이스로부터 트랜스포트 프레임의 스트림을 수신하도록 구성된 상기 레거시 프로세서를 포함하고,
    상기 레거시 프로세서는,
    상기 트랜스포트 프로토콜에 따라 트랜스포트 프레임의 스트림을 운반하도록 구성된 제3 인터페이스;
    상기 제3 인터페이스에 연결된 레거시 엔드포인트 출력 프로세서로서, 상기 제1 미디어 릴레이 엔드포인트 및 제1 레거시 엔드포인트에 의해 나온 압축된 미디어를 운반하는 트랜스포트 프레임의 스트림을 취득하고 패킷의 하나 이상의 스트림을 상기 제2 레거시 엔드포인트 쪽으로 전달하도록 구성된 상기 레거시 엔드포인트 출력 프로세서; 및
    상기 제1 인터페이스 및 상기 제3 인터페이스에 연결된 제2 인터페이스 어댑터 모듈로서, 상기 제1 인터페이스와 상기 제3 인터페이스 사이에서 트랜스포트 프레임을 전달하도록 구성된 제2 인터페이스 어댑터 모듈을 포함하는 것을 특징으로 하는 유니버셜 브리지 시스템.
  25. 제24항에 있어서, 상기 미디어 릴레이 프로세서는,
    상기 트랜스포트 프로토콜에 따라 트랜스포트 프레임의 스트림을 운반하도록 구성된 제2 인터페이스;
    상기 제2 인터페이스에 연결된 미디어 릴레이 입력 프로세서로서, 상기 제1 미디어 릴레이 엔드포인트로부터 수신된 압축된 미디어를 운반하는 트랜스포트 프레임을 상기 제2 인터페이스로 전달하도록 구성된 상기 미디어 릴레이 입력 프로세서;
    상기 제2 인터페이스에 연결된 제1 타입 미디어 결합기 모듈로서, 압축된 미디어를 운반하는 트랜스포트 프레임의 복수의 스트림을, 미디어 릴레이 엔드포인트 쪽으로 타겟팅된 결합된 미디어를 운반하는 트랜스포트 프레임의 스트림으로 결합하도록 구성된 상기 제1 타입 미디어 결합기 모듈;
    상기 제2 인터페이스에 연결된 미디어 릴레이 엔드포인트 출력 프로세서로서, 상기 제1 미디어 릴레이 엔드포인트 및 제1 레거시 엔드포인트에 의해 나온 압축된 미디어로부터 상기 제1 타입 미디어 결합기 모듈에 의해 생성된 결합된 미디어를 운반하는 트랜스포트 프레임의 하나 이상의 스트림을 취득하도록 구성된 상기 미디어 릴레이 엔드포인트 출력 프로세서; 및
    상기 제1 인터페이스 및 제2 인터페이스에 연결된 제1 인터페이스 어댑터 모듈로서, 상기 제1 인터페이스와 상기 제2 인터페이스 사이에서 트랜스포트 프레임을 전달하도록 구성된 제1 인터페이스 어댑터 모듈을 포함하는 것을 특징으로 하는 유니버셜 브리지 시스템.
  26. 삭제
  27. 제24항에 있어서, 상기 레거시 프로세서는,
    상기 제3 인터페이스에 연결된 레거시 입력 프로세서로서, 상기 제1 레거시 엔드포인트로로부터 수신된 압축된 미디어를 운반하는 트랜스포트 프레임을 상기 제3 인터페이스로 전달하도록 구성된 상기 레거시 입력 프로세서를 더 포함하는 것을 특징으로 하는 유니버셜 브리지 시스템.
  28. 제27항에 있어서, 상기 레거시 프로세서는,
    상기 제3 인터페이스에 연결된 디코더 모듈로서, 압축된 미디어를 운반하는 트랜스포트 프레임의 스트림을 취득하고 디코더 모듈 데이터 유닛을 운반하는 트랜스포트 프레임의 스트림을 생성하도록 구성된 상기 디코더 모듈을 더 포함하는 것을 특징으로 하는 유니버셜 브리지 시스템.
  29. 제24항에 있어서, 상기 레거시 프로세서는,
    상기 제3 인터페이스에 연결된 레거시 입력 프로세서로서, 상기 제1 레거시 엔드포인트로부터 압축된 미디어를 수신하도록 구성된 상기 레거시 입력 프로세서를 더 포함하고, 상기 레거시 입력 프로세서는,
    상기 제3 인터페이스로 전송되기 위해 디코더 모듈 데이터 유닛을 운반하는 트랜스포트 프레임의 스트림으로, 압축된 미디어의 청크를 처리하도록 구성된 디코더 모듈을 더 포함하고,
    상기 레거시 입력 프로세서는 또한 압축된 미디어의 데이터 청크를 상기 디코더 모듈로 전달하도록 구성된 것을 특징으로 하는 유니버셜 브리지 시스템.
  30. 제24항에 있어서, 상기 레거시 프로세서는,
    상기 제3 인터페이스에 연결된 무손실 디코더로서, 상기 제1 인터페이스로부터 수신된 트랜스포트 프레임에서 운반되는 무손실 압축된 미디어를 무손실 기술을 사용하여 디코딩하도록 구성된 상기 무손실 디코더를 더 포함하는 것을 특징으로 하는 유니버셜 브리지 시스템.
  31. 제24항에 있어서, 상기 레거시 프로세서는,
    상기 제3 인터페이스에 연결된 무손실 인코더로서, 트랜스포트 프레임 내의 무손실 압축된 미디어를 상기 제1 인터페이스로 전달하기 위해, 압축해제된 미디어를 무손실 기술을 사용하여 압축하도록 구성된 상기 무손실 인코더를 더 포함하는 것을 특징으로 하는 유니버셜 브리지 시스템.
  32. 제24항에 있어서, 레거시 프로세서 제2 인터페이스 어댑터 모듈은,
    상기 제1 인터페이스로부터 수신된 트랜스포트 프레임에서 운반되는 압축된 미디어를 무손실 기술을 사용하여 디코딩하도록 구성된 무손실 디코더; 및
    트랜스포트 프레임 내의 무손실 압축된 미디어를 상기 제1 인터페이스로 전달하기 위해, 압축해제된 미디어를 무손실 기술을 사용하여 압축하도록 구성된 무손실 인코더를 포함하는 것을 특징으로 하는 유니버셜 브리지 시스템.
  33. 제24항에 있어서, 상기 레거시 프로세서는,
    상기 제3 인터페이스에 연결된 제2 타입 미디어 결합기 모듈로서, 디코더 모듈 데이터 유닛을 운반하는 트랜스포트 프레임의 복수의 스트림을 상기 제2 레거시 엔드포인트 쪽으로 타겟팅된 결합된 미디어를 운반하는 트랜스포트 프레임의 스트림으로 결합하도록 구성된 상기 제2 타입 미디어 결합기 모듈을 더 포함하는 것을 특징으로 하는 유니버셜 브리지 시스템.
  34. 제33항에 있어서, 상기 트랜스포트 프레임의 복수의 스트림중 적어도 하나는 미디어 릴레이 엔드포인트로부터 나온 디코더 모듈 데이터 유닛을 운반하는 것을 특징으로 하는 유니버셜 브리지 시스템.
  35. 제24항에 있어서, 상기 레거시 프로세서는,
    상기 제3 인터페이스에 연결된 인코더 모듈로서, 디코더 모듈 데이터 유닛을 운반하는 트랜스포트 프레임의 스트림을 취득하고, 압축된 미디어를 운반하는 트랜스포트 프레임의 스트림을 생성하도록 구성된 상기 인코더 모듈을 더 포함하는 것을 특징으로 하는 유니버셜 브리지 시스템.
  36. 제24항에 있어서, 복수의 미디어 릴레이 프로세서 및 복수의 레거시 프로세서를 포함하는 것을 특징으로 하는 유니버셜 브리지 시스템.
  37. 멀티미디어 컨퍼런싱 시스템용 유니버셜 브리지 시스템으로서,
    트랜스포트 프로토콜에 따라 트랜스포트 프레임의 스트림을 운반하도록 구성된 제1 인터페이스; 및
    미디어 릴레이 엔드포인트 및 레거시 엔드포인트에 통신 연결된 복수의 서브 브리지를 포함하고, 상기 복수의 서브 브리지의 각각은,
    소스 미디어 릴레이 엔드포인트로부터 압축된 미디어를 운반하는 패킷의 스트림을 수신하고,
    압축된 미디어를 운반하는 패킷의 스트림을 목적지 미디어 릴레이 엔드포인트 쪽으로 전달하고,
    압축된 미디어를 운반하는 패킷의 스트림을 소스 레거시 엔드포인트로부터 수신하고,
    압축된 미디어를 운반하는 패킷의 스트림을 목적지 레거시 엔드포인트 쪽으로 전달하고,
    상기 복수의 서브 브리지의 다른 서브 브리지로부터 나온 트랜스포트 프레임의 스트림을 상기 제1 인터페이스로부터 수신하고,
    상기 복수의 서브 브리지의 다른 서브 브리지로 타겟팅된 트랜스포트 프레임의 스트림을 상기 제1 인터페이스로 전달하도록 구성된 것을 특징으로 하는 유니버셜 브리지 시스템.
  38. 제37항에 있어서, 상기 제1 인터페이스에 접속된 컨트롤 모듈로서, 상기 복수의 서브 브리지를 제어하도록 구성된 상기 컨트롤 모듈을 더 포함하는 것을 특징으로 하는 유니버셜 브리지 시스템.
  39. 제37항에 있어서, 상기 복수의 서브 브리지의 각각은,
    트랜스포트 프로토콜에 따라 트랜스포트 프레임의 스트림을 운반하도록 구성된 제2 인터페이스;
    상기 제2 인터페이스에 연결된 미디어 릴레이 입력 프로세서로서, 소스 미디어 릴레이 엔드포인트로부터 수신된 압축된 미디어를 운반하는 트랜스포트 프레임을 상기 제2 인터페이스로 전달하도록 구성된 상기 미디어 릴레이 입력 프로세서;
    상기 제2 인터페이스에 연결된 레거시 입력 프로세서로서, 소스 레거시 엔드포인트로부터 수신된 압축된 미디어를 운반하는 트랜스포트 프레임을 상기 제2 인터페이스로 전달하도록 구성된 상기 레거시 입력 프로세서;
    상기 제2 인터페이스에 연결된 디코더 모듈로서, 압축된 미디어를 운반하는 트랜스포트 프레임의 스트림을 취득하고, 디코더 모듈 데이터 유닛을 운반하는 트랜스포트 프레임의 스트림을 생성하도록 구성된 상기 디코더 모듈;
    상기 제2 인터페이스에 연결된 미디어 결합기 모듈로서, 디코더 모듈 데이터 유닛을 운반하는 트랜스포트 프레임의 복수의 스트림을, 결합된 미디어를 운반하는 트랜스포트 프레임의 스트림으로 결합하도록 구성된 상기 미디어 결합기 모듈;
    상기 제2 인터페이스에 연결된 인코더 출력 모듈로서, 디코더 모듈 데이터 유닛 또는 결합된 미디어를 운반하는 트랜스포트 프레임의 스트림을 취득하고, 압축된 미디어를 운반하는 트랜스포트 프레임의 스트림을 생성하도록 구성된 상기 인코더 출력 모듈;
    상기 제2 인터페이스에 연결된 미디어 릴레이 출력 프로세서로서, 압축된 미디어를 운반하는 트랜스포트 프레임의 하나 이상의 스트림을 취득하고 패킷의 하나 이상의 스트림을 목적지 미디어 릴레이 엔드포인트 쪽으로 전달하도록 구성된 상기 미디어 릴레이 출력 프로세서;
    상기 제2 인터페이스에 연결된 레거시 출력 프로세서로서, 압축된 결합된 미디어를 운반하는 트랜스포트 프레임의 스트림을 취득하고 패킷을 목적지 레거시 엔드포인트 쪽으로 전달하도록 구성된 상기 레거시 출력 프로세서; 및
    상기 제1 인터페이스와 상기 제2 인터페이스 사이에서 트랜스포트 프레임을 통과시키도록 구성된 인터페이스 어댑터를 포함하는 것을 특징으로 하는 유니버셜 브리지 시스템.
  40. 멀티미디어 컨퍼런싱 시스템용 유니버셜 브리지를 구성하는 방법으로서,
    컨퍼런스에서의 미디어 릴레이 입력 스트림에 대해, 미디어 릴레이 입력 프로세서 및 디코더 모듈을 할당하는 단계;
    상기 컨퍼런스에서의 각 미디어 릴레이 엔드포인트에 대해 미디어 결합기 모듈 및 미디어 릴레이 출력 프로세서를 할당하는 단계;
    상기 컨퍼런스에서의 레거시 입력 스트림에 대해 레거시 입력 프로세서, 디코더 모듈, 스케일러 및 인코더 출력 모듈을 할당하는 단계;
    상기 컨퍼런스에서의 각 레거시 엔드포인트에 대해 미디어 결합기 모듈 및 레거시 출력 프로세서를 할당하는 단계;
    컨트롤 테이블 및 라우팅 테이블을 생성하는 단계;
    상기 컨퍼런스에서의 각 미디어 릴레이 엔드포인트 및 각 레거시 엔드포인트에 대한 엔트리를 상기 컨트롤 테이블에 할당하는 단계; 및
    각 미디어 릴레이 입력 스트림 및 각 레거시 입력 스트림에 대한 엔트리를 상기 라우팅 테이블에 할당하는 단계를 포함하는 것을 특징으로 하는 유니버셜 브리지 구성 방법.
  41. 삭제
  42. 제40항에 있어서,
    상기 컨퍼런스에서 미디어 릴레이 엔드포인트에 제공되는 현 화면 분할 이미지를 결정하는 단계; 및
    상기 미디어 릴레이 엔드포인트에 할당된 미디어 결합기 모듈이, 제공된 미디어 릴레이 엔드포인트에 상응하는 트랜스포트 프레임 및 제공된 레거시 엔드포인트에 상응하는 할당된 인코더 출력 모듈에 의해 산출된 트랜스포트 프레임을 취득할 수 있도록 상기 라우팅 테이블을 갱신하는 단계를 더 포함하는 것을 특징으로 하는 유니버셜 브리지 구성 방법.
  43. 제40항에 있어서,
    상기 컨퍼런스에서 레거시 엔드포인트에 제공되는 현 화면 분할 이미지를 결정하는 단계; 및
    상기 레거시 엔드포인트에 할당된 상기 미디어 결합기 모듈이, 제공된 미디어 릴레이 엔드포인트 및 제공된 레거시 엔드포인트와 연관된 디코더 모듈로부터 트랜스포트 프레임을 취득할 수 있도록 상기 라우팅 테이블을 갱신하는 단계를 더 포함하는 것을 특징으로 하는 유니버셜 브리지 구성 방법.
  44. 제40항에 있어서, 상기 컨퍼런스에서의 미디어 릴레이 입력 스트림에 대해, 미디어 릴레이 입력 프로세서 및 디코더 모듈을 할당하는 단계는 상기 미디어 릴레이 입력 스트림에 상응하는 화면 분할 이미지가 적어도 하나의 레거시 엔드포인트에 제공될 때 실행되는 것을 특징으로 하는 유니버셜 브리지 구성 방법.
  45. 제40항에 있어서, 상기 컨퍼런스에서의 레거시 입력 스트림에 대해 레거시 입력 프로세서, 디코더 모듈, 스케일러 및 인코더 출력 모듈을 할당하는 단계는 상기 레거시 입력 스트림에 상응하는 화면 분할 이미지가 적어도 하나의 미디어 릴레이 엔드포인트에 제공될 때 실행되는 것을 특징으로 하는 유니버셜 브리지 구성 방법.


KR1020130064143A 2012-07-30 2013-06-04 다양한 참가 디바이스의 화상회의 방법 및 시스템 KR101555855B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261677200P 2012-07-30 2012-07-30
US61/677,200 2012-07-30

Publications (2)

Publication Number Publication Date
KR20140016154A KR20140016154A (ko) 2014-02-07
KR101555855B1 true KR101555855B1 (ko) 2015-09-25

Family

ID=48628259

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130064143A KR101555855B1 (ko) 2012-07-30 2013-06-04 다양한 참가 디바이스의 화상회의 방법 및 시스템

Country Status (5)

Country Link
US (5) US20140028788A1 (ko)
EP (2) EP3197153B1 (ko)
JP (1) JP2014068339A (ko)
KR (1) KR101555855B1 (ko)
CN (1) CN103581610B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102546662B1 (ko) 2022-12-19 2023-06-22 (주)옴니스토리 공중교환전화망 통신 및 웹 실시간 통신 연동형 컨퍼런스 제공 시스템 및 그 방법

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10091461B2 (en) 2013-10-15 2018-10-02 Polycom, Inc. System and method for real-time adaptation of a conferencing system to current conditions of a conference session
US20150288926A1 (en) * 2014-04-03 2015-10-08 CafeX Communications Inc. Framework to support a hybrid of meshed endpoints with non-meshed endpoints
CN103957391A (zh) * 2014-05-23 2014-07-30 无锡矽太恒科电子有限公司 在可视对讲中多方通话时同时显示各方视频的方法及系统
US10283091B2 (en) * 2014-10-13 2019-05-07 Microsoft Technology Licensing, Llc Buffer optimization
KR101628071B1 (ko) 2014-10-21 2016-06-09 (주)해든브릿지 대규모 그룹통신 방법 및 시스템
KR101577986B1 (ko) 2015-03-24 2015-12-16 (주)해든브릿지 양방향 가상 현실 구현 시스템
JP6387972B2 (ja) * 2016-01-25 2018-09-12 ブラザー工業株式会社 通信方法、通信システム、及び、通信プログラム
CN107659415B (zh) * 2016-07-25 2021-05-18 中兴通讯股份有限公司 一种云会议的媒体资源管理方法及装置
CN107181928A (zh) * 2017-07-21 2017-09-19 苏睿 会议系统及数据传输方法
CN109391794A (zh) * 2017-08-10 2019-02-26 中兴通讯股份有限公司 视频会议多点控制方法、装置、存储介质和计算机设备
US10719394B2 (en) * 2017-10-25 2020-07-21 Innogrit Technologies Co., Ltd. Systems and methods for fast access of non-volatile storage devices
US10645035B2 (en) * 2017-11-02 2020-05-05 Google Llc Automated assistants with conference capabilities
KR102324609B1 (ko) * 2017-12-22 2021-11-10 한국전자통신연구원 다지점 영상회의 장치 및 그 제어 방법
US10841357B1 (en) * 2019-09-12 2020-11-17 Dialpad, Inc. Using transport layer protocol packet headers to encode application layer attributes in an audiovisual over internet protocol (AVoIP) platform
CN115335817A (zh) * 2020-03-27 2022-11-11 科乐美数码娱乐株式会社 影像分发系统、影像分发控制方法以及计算机程序

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010178340A (ja) * 2009-01-30 2010-08-12 Polycom Inc 常駐会議を行うための方法およびシステム

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5570363A (en) 1994-09-30 1996-10-29 Intel Corporation Transform based scalable audio compression algorithms and low cost audio multi-point conferencing systems
US5821986A (en) 1994-11-03 1998-10-13 Picturetel Corporation Method and apparatus for visual communications in a scalable network environment
US5838664A (en) 1997-07-17 1998-11-17 Videoserver, Inc. Video teleconferencing system with digital transcoding
US5600646A (en) 1995-01-27 1997-02-04 Videoserver, Inc. Video teleconferencing system with digital transcoding
US5862329A (en) * 1996-04-18 1999-01-19 International Business Machines Corporation Method system and article of manufacture for multi-casting audio visual material
JP2933132B2 (ja) * 1997-01-09 1999-08-09 日本電気株式会社 多地点テレビ会議制御装置及び画面合成符号化方法
US6141597A (en) 1997-09-08 2000-10-31 Picturetel Corporation Audio processor
AU3430199A (en) 1998-04-08 1999-11-01 British Telecommunications Public Limited Company Echo cancellation
US6453336B1 (en) 1998-09-14 2002-09-17 Siemens Information And Communication Networks, Inc. Video conferencing with adaptive client-controlled resource utilization
US6182031B1 (en) 1998-09-15 2001-01-30 Intel Corp. Scalable audio coding system
CA2395605C (en) 1999-12-22 2011-04-05 General Instrument Corporation Video compression for multicast environments using spatial scalability and simulcast coding
US6940826B1 (en) 1999-12-30 2005-09-06 Nortel Networks Limited Apparatus and method for packet-based media communications
US6300973B1 (en) 2000-01-13 2001-10-09 Meir Feder Method and system for multimedia communication control
US7830824B2 (en) 2000-03-01 2010-11-09 Polycom, Inc. System and method for providing reservationless third party meeting rooms
US7085243B2 (en) 2000-03-01 2006-08-01 Polycom Israel Ltd. System and method for providing reservationless conferencing
US6683909B1 (en) 2000-03-16 2004-01-27 Ezenial Inc. Macroblock parsing without processing overhead
US7158534B2 (en) * 2000-11-30 2007-01-02 Imajet Communications, Inc. Unified distributed architecture for a multi-point video conference and interactive broadcast systems
US7006456B2 (en) 2001-02-02 2006-02-28 Nortel Networks Limited Method and apparatus for packet-based media communication
EP1371225B1 (en) 2001-03-12 2014-08-13 Polycom, Inc. Video encoding and transporting method for concealing the effects of packet loss in multi-channel packet switched networks
US7133362B2 (en) 2001-11-14 2006-11-07 Microsoft Corporation Intelligent buffering process for network conference video
US7034860B2 (en) * 2003-06-20 2006-04-25 Tandberg Telecom As Method and apparatus for video conferencing having dynamic picture layout
US8659636B2 (en) * 2003-10-08 2014-02-25 Cisco Technology, Inc. System and method for performing distributed video conferencing
NO318911B1 (no) 2003-11-14 2005-05-23 Tandberg Telecom As Distribuert sammensetting av sanntids-media
US7084898B1 (en) * 2003-11-18 2006-08-01 Cisco Technology, Inc. System and method for providing video conferencing synchronization
US7139015B2 (en) * 2004-01-20 2006-11-21 Polycom, Inc. Method and apparatus for mixing compressed video
NO320115B1 (no) * 2004-02-13 2005-10-24 Tandberg Telecom As Anordning og fremgangsmate for a generere CP-bilder.
JP4559976B2 (ja) * 2005-01-17 2010-10-13 株式会社東芝 映像合成装置、映像合成方法及び映像合成プログラム
US8004542B2 (en) * 2005-01-17 2011-08-23 Kabushiki Kaisha Toshiba Video composition apparatus, video composition method and video composition program
US7920488B2 (en) * 2005-03-15 2011-04-05 Alcatel-Lucent Usa Inc. Method and apparatus for establishing a distributed conference bridge
US7593032B2 (en) 2005-07-20 2009-09-22 Vidyo, Inc. System and method for a conference server architecture for low delay and distributed conferencing applications
WO2007076486A2 (en) * 2005-12-22 2007-07-05 Vidyo, Inc. System and method for videoconferencing using scalable video coding and compositing scalable video conferencing servers
US8542266B2 (en) * 2007-05-21 2013-09-24 Polycom, Inc. Method and system for adapting a CP layout according to interaction between conferees
US8319820B2 (en) 2008-06-23 2012-11-27 Radvision, Ltd. Systems, methods, and media for providing cascaded multi-point video conferencing units
US20090323560A1 (en) * 2008-06-27 2009-12-31 Microsoft Corporation Customized Media Routing For Conferencing
US20100149301A1 (en) * 2008-12-15 2010-06-17 Microsoft Corporation Video Conferencing Subscription Using Multiple Bit Rate Streams
US8386266B2 (en) 2010-07-01 2013-02-26 Polycom, Inc. Full-band scalable audio codec
US8379642B2 (en) * 2010-04-26 2013-02-19 International Business Machines Corporation Multicasting using a multitiered distributed virtual bridge hierarchy

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010178340A (ja) * 2009-01-30 2010-08-12 Polycom Inc 常駐会議を行うための方法およびシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102546662B1 (ko) 2022-12-19 2023-06-22 (주)옴니스토리 공중교환전화망 통신 및 웹 실시간 통신 연동형 컨퍼런스 제공 시스템 및 그 방법

Also Published As

Publication number Publication date
KR20140016154A (ko) 2014-02-07
US11006075B2 (en) 2021-05-11
JP2014068339A (ja) 2014-04-17
EP3197153A3 (en) 2017-09-27
EP2693747A2 (en) 2014-02-05
US11503250B2 (en) 2022-11-15
EP3197153B1 (en) 2021-06-23
US20180343419A1 (en) 2018-11-29
EP2693747A3 (en) 2016-08-17
US20200007821A1 (en) 2020-01-02
CN103581610A (zh) 2014-02-12
US20160286168A1 (en) 2016-09-29
US20210235041A1 (en) 2021-07-29
US20140028788A1 (en) 2014-01-30
US10455196B2 (en) 2019-10-22
US10075677B2 (en) 2018-09-11
CN103581610B (zh) 2017-11-07
EP3197153A2 (en) 2017-07-26

Similar Documents

Publication Publication Date Title
KR101555855B1 (ko) 다양한 참가 디바이스의 화상회의 방법 및 시스템
US9215416B2 (en) Method and system for switching between video streams in a continuous presence conference
EP2214410B1 (en) Method and system for conducting continuous presence conferences
US9596433B2 (en) System and method for a hybrid topology media conferencing system
EP2987273B1 (en) Dynamic allocation of encoders
KR20130092509A (ko) 멀티-홉 rtp 스트림에서의 중요 패킷 손실 처리 시스템 및 방법
US20140225982A1 (en) Method and system for handling content in videoconferencing
EP2557780A2 (en) Method and system for switching between video streams in a continuous presence conference
JP2015192230A (ja) 会議システム、会議サーバ、会議方法及び会議プログラム
TWI491218B (zh) 媒體中繼視訊通信
US11102451B2 (en) Videoconferencing server for providing multi-screen videoconferencing by using a plurality of videoconferencing terminals and method therefor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180918

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190916

Year of fee payment: 5