KR20230041057A - 데이터 전송 방법 및 디바이스 - Google Patents

데이터 전송 방법 및 디바이스 Download PDF

Info

Publication number
KR20230041057A
KR20230041057A KR1020237005664A KR20237005664A KR20230041057A KR 20230041057 A KR20230041057 A KR 20230041057A KR 1020237005664 A KR1020237005664 A KR 1020237005664A KR 20237005664 A KR20237005664 A KR 20237005664A KR 20230041057 A KR20230041057 A KR 20230041057A
Authority
KR
South Korea
Prior art keywords
sub
client
slot
interface
flexe
Prior art date
Application number
KR1020237005664A
Other languages
English (en)
Inventor
윈레이 치
치웬 종
지갱 즈
카이 류
진펑 첸
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20230041057A publication Critical patent/KR20230041057A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L5/00Arrangements affording multiple use of the transmission path
    • H04L5/003Arrangements for allocating sub-channels of the transmission path
    • H04L5/0044Arrangements for allocating sub-channels of the transmission path allocation of payload
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/03Protocol definition or specification 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J3/00Time-division multiplex systems
    • H04J3/16Time-division multiplex systems in which the time allocation to individual channels within a transmission cycle is variable, e.g. to accommodate varying complexity of signals, to vary number of channels transmitted
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J3/00Time-division multiplex systems
    • H04J3/16Time-division multiplex systems in which the time allocation to individual channels within a transmission cycle is variable, e.g. to accommodate varying complexity of signals, to vary number of channels transmitted
    • H04J3/1605Fixed allocated frame structures
    • H04J3/1652Optical Transport Network [OTN]
    • H04J3/1658Optical Transport Network [OTN] carrying packets or ATM cells
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L5/00Arrangements affording multiple use of the transmission path
    • H04L5/003Arrangements for allocating sub-channels of the transmission path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/06Notations for structuring of protocol data, e.g. abstract syntax notation one [ASN.1]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/30Definitions, standards or architectural aspects of layered protocol stacks
    • H04L69/32Architecture of open systems interconnection [OSI] 7-layer type protocol stacks, e.g. the interfaces between the data link level and the physical level
    • H04L69/322Intralayer communication protocols among peer entities or protocol data unit [PDU] definitions
    • H04L69/324Intralayer communication protocols among peer entities or protocol data unit [PDU] definitions in the data link layer [OSI layer 2], e.g. HDLC
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J2203/00Aspects of optical multiplex systems other than those covered by H04J14/05 and H04J14/07
    • H04J2203/0001Provisions for broadband connections in integrated services digital network using frames of the Optical Transport Network [OTN] or using synchronous transfer mode [STM], e.g. SONET, SDH
    • H04J2203/0073Services, e.g. multimedia, GOS, QOS
    • H04J2203/0082Interaction of SDH with non-ATM protocols
    • H04J2203/0085Support of Ethernet

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Time-Division Multiplex Systems (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

본 출원은 서비스가 FlexE 기술에 기초하여 운반될 때 대역폭 낭비가 비교적 심각하다는 현재의 문제를 해결하도록, 데이터 전송 방법, 통신 장치, 네트워크 디바이스, 통신 시스템, 스토리지 매체(strorage medium) 및 컴퓨터 프로그램 물건을 제공한다. 또한, 본 출원에서, 미세-입도 서비스 프레임의 프레임 구조가 새롭게 정의되므로, 이더넷(영어: Ethernet, ETH) 인터페이스를 사용함으로써 시분할 다중화 모드에서 서비스 데이터가 전송될 수 있다. 따라서, 심지어 표준 FlexE 모드를 지원하지 않는 공통 이더넷 인터페이스가 이더넷 인터페이스의 대역폭을 효율적으로 사용할 수 있고, 대역폭 격리가 구현된다. 본 출원의 기술적 솔루션에 따르면, 채널 대역폭 활용이 크게 개선될 수 있고, 특히 로우-레이트 서비스가 운반될 때, 채널 대역폭 활용이 상당히 개선될 수 있고, 그로 인해 대역폭 낭비를 회피할 수 있다.

Description

데이터 전송 방법 및 디바이스
본 출원은 2020년 7월 25일에 "데이터 전송 방법 및 디바이스(DATA TRANSMISSION METHOD AND DEVICE)"라는 명칭으로 출원된 중국 특허 출원 번호 제 202010726636.X호와 2020년 7월 31일에 “데이터 전송 방법 및 디바이스(DATA TRANSMISSION METHOD AND DEVICE)”라는 명칭으로 출원된 중국 특허 출원 번호 제 202010761609.6호에 대한 우선권을 주장하고, 이러한 2건의 출원 모두 그 전체가 참조로 본원에 통합된다.
본 발명의 실시예는 통신 기술 분야에 관한 것으로, 특히 데이터 전송 방법 및 디바이스에 관한 것으로서, 더 구체적으로 이더넷 인터페이스(Ethernet interface) 또는 플렉서블 이더넷 인터페이스(flexible Ethernet interface)에서의 데이터 전송 방법 및 디바이스에 관한 것이다.
서비스 격리(service isolation) 및 네트워크 슬라이싱(network slicing)을 구현하기 위한 인터페이스 기술로서 플렉서블 이더넷(Flexible Ethernet, 영어: Flex Ethernet, FlexE)은 최근 급속도로 발전하고 있고, 주요 표준 기관(standards organizations)에 의해 널리 수용되고 있다. 광 인터넷 포럼(Optical Internet Forum: OIF)은 FlexE 표준을 발표하였다. FlexE 기술에서,(영어로 PHY로 지칭될 수 있는) 물리적 링크 계층으로부터 매체 액세스 제어(영어: Medium Access Control, MAC) 계층을 디커플링하도록, IEEE 802.3에 기초하여 (영어로 또한 FlexE 심(shim) 계층이라 지칭될 수 있는) 플렉서블 이더넷 프로토콜(protocol) 계층이 도입된다. 이러한 방식으로, 플렉서블 레이트 매칭(flexible rate matching)이 구현된다. 시분할 다중화(영어: Time Division Multiplexing, TDM) 분배 메커니즘(distribution mechanism)에 기초하여, Flex 심은 전송 파이프 대역폭(transmisstion pipe badnwidths)의 하드 격리(hard isolation)를 구현하도록, 슬롯에 기초하여 복수의 FlexE 클라이언트(영어: client)의 데이터를 복수의 서로 다른 서브채널(subchannels)로 분배하고 스케줄링한다. 하나의 서비스 데이터 스트림(service data stream)은 하나 이상의 슬롯에 할당될 수 있다. 이러한 방식으로, 다양한 레이트로의 서비스의 매칭(matching)이 구현된다.
종래의 FlexE 인터페이스 기술은 이더넷 인터페이스의 레이트가 고정되는 문제를 어느 정도까지 해결하고, 클라이언트 교차-연결(cross-connection) 기술은 패킷 포워딩(packet forwarding) 지연이 지나치게 긴 문제를 해결한다. 그러나, 로우-레이트(low-rate)(예를 들어, 10 Mbps) 서비스가 종래 기술에서 운반될 때, 상대적으로 심각한 채널 대역폭 낭비가 발생한다.
본 출원은 서비스가 FlexE 기술에 기초하여 운반될 때 대역폭 낭비가 비교적 심각하다는 현재의 문제를 해결하도록, 데이터 전송 방법, 통신 장치, 네트워크 디바이스, 통신 시스템, 스토리지 매체(strorage medium) 및 컴퓨터 프로그램 물건을 제공한다. 본 출원의 기술적 솔루션에 따르면, 채널 대역폭 활용이 크게 개선될 수 있고, 특히 로우-레이트 서비스(예를 들어, 메가비트 로우-레이트 서비스)가 운반될 때, 채널 대역폭 활용이 상당히 개선될 수 있고, 그로 인해 대역폭 낭비를 회피할 수 있다. 또한, 본 출원에서, 미세-입도(fine-granularity) 서비스 프레임의 프레임 구조가 새롭게 정의되므로, 이더넷(영어: Ethernet, ETH) 인터페이스를 사용함으로써 시분할 다중화 모드에서 서비스 데이터가 전송될 수 있다. 따라서, 심지어 표준 FlexE 모드를 지원하지 않는 공통 이더넷 인터페이스가 이더넷 인터페이스의 대역폭을 효율적으로 사용할 수 있고, 대역폭 격리가 구현된다.
제1 양상에 따르면, 본 출원은 제1 통신 장치에 의해 구현되는 데이터 전송 방법을 제공하고, 방법은:
제1 데이터 스트림을 발생시키는 단계를 포함하고, 제1 데이터 스트림은 복수의 데이터 코드 블록(code blocks)을 포함하고,
복수의 데이터 코드 블록은 복수의 제1 베이스 프레임을 포함하고, 각각의 제1 베이스 프레임은 베이스 프레임 페이로드(payload)를 포함하고, 베이스 프레임 페이로드는 베이스 프레임 오버헤드 및 복수의 서브-사용자(sub-user)(서브클라이언트(sub-client)) 서브-클라이언트 서브-슬롯 페이로드를 를 포함하고, 복수의 서브-클라이언트 서브-슬롯 페이로드는 복수의 제1 서브-클라이언트 서브-슬롯 페이로드를 포함하고, 복수의 제1 서브-클라이언트 서브-슬롯 페이로드는 제1 서브-클라이언트 인터페이스의 서비스 데이터를 포함하고; 및
제1 인터페이스를 사용함으로써 제1 데이터 스트림을 송신하는 단계를 포함한다.
임의선택적으로, 제1 인터페이스는 Z 개의 서브-클라이언트 인터페이스로 논리적으로 분할되고, Z 개의 서브-클라이언트 인터페이스는 제1 서브-클라이언트 인터페이스를 포함한다.
임의선택적으로, 제1 인터페이스는 FlexE 클라이언트 인터페이스이다.
임의선택적으로, 제1 인터페이스는 이더넷 인터페이스이다.
임의선택적으로, 제1 인터페이스는 제1 FlexE 클라이언트 인터페이스이고, 제1 통신 장치는 전송 측에서의 제1 FlexE 인터페이스를 더 포함하고, 제1 인터페이스를 사용함으로써 제1 데이터 스트림을 송신하는 단계는:
제1 FlexE 클라이언트 인터페이스와 제1 FlexE 인터페이스 사이의 슬롯 매핑(mapping) 관계에 기초하여 제1 FlexE 인터페이스를 사용함으로써 제1 데이터 스트림을 송신하는 단계를 포함하고, 제1 FlexE 인터페이스는 복수의 FlexE 클라이언트 인터페이스로 논리적으로 분할되고, 복수의 FlexE 클라이언트 인터페이스는 제1 FlexE 클라이언트 인터페이스를 포함한다.
임의선택적으로, 각각의 제1 베이스 프레임은 제1 코드 블록 및 제2 코드 블록을 더 포함하고, 제1 코드 블록은 제1 베이스 프레임의 프레임 헤더(frame header)를 표시하도록 사용되고, 제2 코드 블록은 제1 베이스 프레임의 프레임 트레일러(frame trailer)를 표시하도록 사용된다.
임의선택적으로, 제1 코드 블록은 S 코드 블록이고, 제2 코드 블록은 T 코드 블록이다.
임의선택적으로, 제1 코드 블록은 제1 표시 필드(indication field) 및 제1 데이터 필드를 포함하고, 제1 표시 필드는 프레임 헤더를 표시하도록 사용되고, 제1 데이터 필드는 베이스 프레임 페이로드의 일부 데이터를 운반하도록 사용된다.
임의선택적으로, 제2 코드 블록은 제2 표시 필드 및 제2 데이터 필드를 포함하고, 제2 표시 필드는 프레임 트레일러를 표시하도록 사용되고, 제2 데이터 필드는 베이스 프레임 페이로드의 일부 데이터를 운반하도록 사용된다.
임의선택적으로, 제1 코드 블록 및 제2 코드 블록의 포맷은 IEEE 802.3 표준에 정의되는 코드 블록 포맷에 따른다.
임의선택적으로, 베이스 프레임 오버헤드는 다음의 정보 중 하나 이상을 포함한다:
베이스 프레임의 시퀀스(sequence) 번호;
서브-클라이언트 서브-슬롯 매핑 테이블;
슬롯 조정 요청;
슬롯 조정 응답;
슬롯 유효성 표시(slot effectiveness indication);
관리 채널 정보; 또는
베이스 프레임 오버헤드 체크(check) 정보.
임의선택적으로, 제1 인터페이스는 시간 도메인(domain)에서 M 개의 서브-슬롯으로 분할되고, M 은 1 을 초과하는 정수이다.
임의선택적으로, M 개의 서브-슬롯 각각의 슬롯 대역폭은 P 이고, P 는 5 기가비트/s Gbp/s 미만이다.
임의선택적으로, M 개의 서브-슬롯은 X 개의 제1 베이스 프레임에서 균등하게 분배되고, 하나의 베이스 프레임은 M/X 개의 서브-슬롯이 스케줄링될 때마다 캡슐화되고(encapsulated), 각각의 베이스 프레임 페이로드는 M/X 개의 서브-클라이언트 서브-슬롯 페이로드를 포함하고, X 는 1을 초과하는 정수이다.
임의선택적으로, 제1 인터페이스의 전송 레이트는 N Gbp/s이고, N은 1 보다 크거나 같다.
임의선택적으로, 방법은:
제2 통신 장치에 의해 송신되는 제1 서브-클라이언트 서브-슬롯 매핑 테이블을 수신하는 단계를 더 포함하고, 제1 서브-클라이언트 서브-슬롯 매핑 테이블은 M 개의 서브-슬롯과 Z 개의 서브-클라이언트 인터페이스 사이의 제1 매핑 관계를 표시하도록 사용되고, 각각의 서브-클라이언트 인터페이스는 M 개의 서브-슬롯 중 적어도 하나에 매핑되고; 및
제1 서브-클라이언트 서브-슬롯 매핑 테이블을 저장하는 단계를 더 포함한다.
임의선택적으로, 제1 서브-클라이언트 서브-슬롯 매핑 테이블은 Z 개의 서브-사용자 식별자(identifiers)인 서브-클라이언트 ID를 M 개의 서브-슬롯 식별자인 서브-슬롯 ID에 매핑함으로써 제1 매핑 관계를 표시하고, Z 개의 서브-클라이언트 ID는 Z 개의 서브-클라이언트 인터페이스를 표시하도록 사용되고, M 개의 서브-슬롯 ID는 M 개의 서브-슬롯을 표시하도록 사용된다.
임의선택적으로, 제2 통신 장치는 제어 관리 디바이스이다.
임의선택적으로, 제2 통신 장치는 포워딩 장치이다.
임의선택적으로, 제1 서브-클라이언트 서브-슬롯 매핑 테이블은 베이스 프레임 오버헤드에서 운반되거나; 제1 서브-클라이언트 서브-슬롯 매핑 테이블은 M 개의 서브-슬롯 중 특정된(specified) 서브-슬롯에서 운반된다.
임의선택적으로, 제1 데이터 스트림은 이더넷 서비스를 운반하도록 사용된다.
임의선택적으로, 제1 데이터 스트림을 발생시키는 단계는:
물리적 코딩 서브계층(영어: Physical Coding Sublayer, PCS)으로부터 제1 이더넷 서비스 데이터 스트림을 획득하는 단계;
복수의 이더넷 서비스 슬라이스(slices)를 획득하도록 제1 이더넷 서비스 데이터 스트림을 슬라이싱하는 단계; 및
복수의 서브-클라이언트 서브-슬롯 페이로드로서 복수의 이더넷 서비스 슬라이스를 베이스 프레임 페이로드 내에 캡슐화하는 단계를 포함한다.
임의선택적으로, 제1 이더넷 서비스 데이터 스트림은 적어도 하나의 OAM 코드 블록을 포함한다.
임의선택적으로, 제1 이더넷 서비스 데이터 스트림은 복수의 64B/66B 코드 블록, 복수의 64B/65B 코드 블록 또는 복수의 256B/257B 코드 블록을 포함한다.
임의선택적으로, 제1 데이터 스트림은 고정 비트 레이트(영어: constant bit rate, CBR) 서비스를 운반하도록 사용된다.
임의선택적으로, 제1 데이터 스트림을 발생시키는 단계는:
복수 조각의 CBR 서비스 슬라이스 데이터를 획득하도록 제1 CBR 서비스 데이터 스트림을 슬라이싱하는 단계를 포함하고, 제1 CBR 서비스 데이터 스트림은 복수의 CBR 서비스 프레임을 포함하고;
복수의 CBR 서비스 슬라이스를 획득하도록 복수 조각의 CRB 서비스 슬라이스 데이터를 별도로 슬라이싱하고 캡슐화하는 단계를 포함하고, 각각의 CBR 서비스 슬라이스는 CBR 서비스 슬라이스 데이터 및 캡슐화 정보를 포함하고;
복수의 CBR 서비스 슬라이스에 기초하여 복수의 서브-클라이언트 서브-슬롯 페이로드를 획득하는 단계; 및
복수의 서브-클라이언트 서브-슬롯 페이로드를 베이스 프레임 페이로드 내에 캡슐화하는 단계를 포함한다.
임의선택적으로, 각각의 CBR 서비스 슬라이스의 슬라이스 입도는 i 개 비트이고, 복수의 CBR 서비스 프레임의 컨텐츠(content)는 제1 CBR 서비스 데이터 스트림이 슬라이스될 때 식별되지 않고, i 는 정수이다.
임의선택적으로, 각각의 CBR 서비스 슬라이스의 슬라이스 입도는 j 개의 완성 CBR 서비스 프레임이고, j 는 1 보다 크거나 같은 정수이다.
임의선택적으로, CBR 서비스 슬라이스는 CBR 서비스 슬라이스 데이터를 운반하도록 사용되는 제1 필드를 포함한다.
임의선택적으로, 캡슐화 정보는 제2 필드를 포함하고, 제2 필드는 클록(clock) 주파수 정보를 운반하도록 사용된다.
임의선택적으로, 캡슐화 정보는 제3 필드를 포함하고, 제3 필드는 동작, 관리 및 유지보수(영어 : operation, administration and maintenance: OAM) 정보를 운반하도록 사용된다.
임의선택적으로, 캡슐화 정보는 제4 필드를 포함하고, 제4 필드는 CBR 서비스 슬라이스의 시퀀스 번호를 운반하도록 사용된다.
임의선택적으로, CBR 서비스 슬라이스의 시퀀스 번호는 슬라이스 리어셈블리(reassembly)를 위해 사용된다.
임의선택적으로, 캡슐화 정보는 제5 필드를 포함하고, 제5 필드는 페이로드 길이 정보를 운반하도록 사용되고, 페이로드 길이 정보는 각각의 CBR 서비스 슬라이스에서 운반되는 CBR 서비스 슬라이스 데이터의 유효 길이이다.
임의선택적으로, 캡슐화 정보는 제6 필드를 포함하고, 제6 필드는 패딩 필드(padding field)이다.
임의선택적으로, 캡슐화 정보는 제7 필드를 포함하고, 제7 필드는 체크 정보를 운반하도록 사용된다.
임의선택적으로, 복수의 CBR 서비스 슬라이스에 기초하여 복수의 서브-클라이언트 서브-슬롯 페이로드를 획득하는 단계는:
제2 데이터 스트림을 획득하도록 복수의 CBR 서비스 슬라이스에 대한 이더넷 패킷 캡슐화를 수행하는 단계를 포함하고, 제2 데이터 스트림은 복수의 코드 블록을 포함하고; 및
복수의 서브-클라이언트 서브-슬롯 페이로드를 획득하도록 각각의 서브-클라이언트 서브-슬롯 페이로드의 길이에 기초하여 제2 데이터 스트림을 슬라이싱하는 단계를 포함한다.
임의선택적으로, 제2 데이터 스트림은 복수의 64B/66B 코드 블록, 복수의 64B/65B 코드 블록 또는 복수의 256B/257B 코드 블록을 포함한다.
임의선택적으로, 제1 데이터 스트림은 OAM 정보를 운반하도록 사용되는 복수의 OAM 코드 블록을 포함한다.
임의선택적으로, 복수의 CBR 서비스 슬라이스에 기초하여 복수의 서브-클라이언트 서브-슬롯 페이로드를 획득하는 단계는:
각각의 CBR 서비스 슬라이스를 서브-클라이언트 서브-슬롯 페이로드로서 직접 사용하는 단계를 포함한다.
임의선택적으로, 제1 데이터 스트림은 복수의 64B/66B 코드 블록, 복수의 64B/65B 코드 블록 또는 복수의 256B/257B 코드 블록을 포함한다.
임의선택적으로, 제1 서브-클라이언트 인터페이스는 제1 인터페이스의 W 개의 서브-슬롯에 매핑되고, 제1 데이터 스트림을 발생시키는 단계는:
복수의 제1 서브-클라이언트 서브-슬롯 페이로드를 W 개의 서브-슬롯에 각각 매핑하는 단계를 포함하고, W는 1 을 초과하는 정수이다.
임의선택적으로, 복수의 제1 서브-클라이언트 서브-슬롯 페이로드를 W 개의 서브-슬롯에 각각 매핑하는 단계는:
제1 서브-클라이언트 인터페이스와 W 개의 서브 슬롯 사이의 매핑 관계에 기초하여 그리고 제1 인터페이스의 슬롯 스케줄링 주기에 기초하여 W 개의 서브-슬롯을 순차적으로 스케줄링하는 단계를 포함한다.
임의선택적으로, 제1 통신 장치는 수신 측에서의 제2 서브-클라이언트 인터페이스를 포함하고, 제1 데이터 스트림을 발생시키는 단계는:
제2 서브-클라이언트 인터페이스의 복수의 제2 서브-클라이언트 서브-슬롯 페이로드를 획득하는 단계;
복수의 제1 서브-클라이언트 서브-슬롯 페이로드를 획득하도록 제2 서브-클라이언트 인터페이스와 제1 서브-클라이언트 인터페이스 사이의 서브-슬롯 교차-연결 관계에 기초하여 복수의 제2 서브-클라이언트 서브-슬롯 페이로드를 프로세싱하는 단계; 및
복수의 제1 서브-클라이언트 서브-슬롯 페이로드를 베이스 프레임 페이로드 내에 캡슐화하는 단계를 포함한다.
임의선택적으로, 제2 서브-클라이언트 인터페이스의 복수의 제2 서브-클라이언트 서브-슬롯 페이로드를 획득하는 단계는:
수신 측에서의 제2 인터페이스의 제3 데이터 스트림을 획득하고, 제2 서브-클라이언트 서브-슬롯 매핑 테이블에 기초하여 제3 데이터 스트림으로부터 복수의 제2 서브-클라이언트 서브-슬롯 페이로드를 디매핑(demapping)하는 단계를 포함하고, 제2 인터페이스는 시간 도메인에서 A 개의 서브-슬롯으로 분할되고, 제2 인터페이스는 B 개의 서브-클라이언트 인터페이스로 논리적으로 분할되고, B 개의 서브-클라이언트 인터페이스는 제2 서브-클라이언트 인터페이스를 포함하고, 제2 서브-슬롯 슬롯 테이블은 A 개의 서브-슬롯과 B 개의 서브-클라이언트 인터페이스 사이의 제2 매핑 관계를 표시하도록 사용되고, A 및 B 둘 다는 정수이다. A 의 값에 대해서는, 본 출원에서의 M 의 값의 관련된 설명을 참조한다.
임의선택적으로, 제2 인터페이스는 이더넷 인터페이스이다.
임의선택적으로, 제2 인터페이스는 제2 FlexE 클라이언트 인터페이스이다.
임의선택적으로, 제1 통신 장치는 수신 측에서의 제2 FlexE 인터페이스를 더 포함하고, 제3 데이터 스트림을 획득하는 단계는:
제2 FlexE 인터페이스의 제4 데이터 스트림을 획득하는 단계를 포함하고, 제2 FlexE 인터페이스는 복수의 FlexE 클라이언트 인터페이스로 논리적으로 분할되고, 복수의 FlexE 클라이언트 인터페이스는 제2 FlexE 클라이언트 인터페이스를 포함하고; 및
제2 FlexE 클라이언트 인터페이스와 제2 FlexE 인터페이스 사이의 슬롯 매핑 관계에 기초하여 제4 데이터 스트림으로부터 제3 데이터 스트림을 디매핑하는 단계를 포함하고, 제3 데이터 스트림은 복수의 제2 베이스 프레임을 포함하고, 복수의 제2 베이스 프레임은 복수의 제2 서브-클라이언트 서브-슬롯 페이로드를 포함한다.
제2 양상에 따르면, 본 출원은 제1 통신 장치를 제공하고, 제1 통신 장치는:
명령(instructions)을 저장하는 메모리(memory); 및
메모리에 연결되는 프로세서를 포함하고, 프로세서가 명령을 실행할 때, 제1 통신 장치는 제1 양상 중 임의의 하나에서의 방법 및 제1 양상의 가능한 구현을 수행하도록 가능해진다.
제3 양상에 따르면, 본 출원은 프로그램 또는 명령을 포함하는 컴퓨터-판독가능한 스토리지 매체(computer-readable storage medium)를 제공하고, 컴퓨터가 프로그램 또는 명령을 실행할 때, 컴퓨터는 제1 양상 중 임의의 하나에서의 방법 및 제1 양상의 가능한 구현을 수행하도록 가능해진다.
제4 양상에 따르면, 본 출원은 제1 양상 중 임의의 하나에서의 방법 및 제1 양상의 임의선택적 구현을 수행하도록 구성되는, 제1 통신 장치 및 제2 통신 장치를 포함하는 통신 시스템을 제공한다.
제5 양상에 따르면, 본 출원은 프로그램 또는 명령을 포함하는 프로그램 물건을 제공하고, 컴퓨터가 프로그램 또는 명령을 실행할 때, 컴퓨터는 제1 양상 중 임의의 하나에서의 방법 및 제1 양상의 가능한 구현을 수행하도록 가능해진다.
도 1은 플렉서블 이더넷 프로토콜에 기초한 FlexE 범용 아키텍처(general architecture)의 개략도이다;
도 2는 4 개의 물리적 링크 인터페이스(4 개의 PHY가 어그리게이트됨(aggregated))에 걸쳐 있는 FlexE 그룹의 슬롯 할당의 개략도이다;
도 3은 본 출원에 따른 FlexE 통신 시스템의 애플리케이션 시나리오의 개략도이다;
도 4는 본 출원에 따른 FlexE 기술을 사용함으로써 데이터를 전송하는 프로세스의 개략도이다;
도 5는 OIF IA-FLEXE-02.1 표준에 따른 100 GE 인터페이스의 오버헤드 프레임 및 오버헤드 멀티프레임(multiframe) 구조의 개략도이다;
도 6은 N 개의 100G PHY가 본딩될(bonded) 때 복수의 FlexE 클라이언트의 슬롯 할당의 개략도이다;
도 7은 본 출원에 따른 베이스 프레임 캡슐화 프로세스의 개략도이다;
도 8은 IEEE 802.3에서 정의되는 코드 블록 포맷이다;
도 9는 본 출원에 따른 서브-클라이언트 인터페이스에 기초하여 전송되는 데이터 구조의 개략도이다;
도 10은 본 출원에 따른 멀티프레임 캡슐화 포맷의 개략도이다;
도 11은 본 출원에 따른 멀티프레임 포맷을 묘사하는 개략도이다.
도 12는 본 출원에 따른 이더넷 서비스의 서브-클라이언트 서브-슬롯 페이로드를 획득하기 위한 방법의 개략적 흐름도이다;
도 13은 본 출원에 따른 CBR 서비스의 서브-클라이언트 서브-슬롯 페이로드를 획득하기 위한 방법의 개략적 흐름도이다;
도 14는 본 출원에 따른 CBR 서비스의 서브-클라이언트 서브-슬롯 페이로드를 획득하기 위한 특정 방법의 개략적 흐름도이다;
도 15는 본 출원에 따른 CBR 서비스의 서브-클라이언트 서브-슬롯 페이로드를 획득하기 위한 다른 특정 방법의 개략적 흐름도이다;
도 16은 본 출원에 따른 데이터 전송 방법의 개략도이다;
도 17은 본 출원에 따른 서브-클라이언트 서브-슬롯 매핑 테이블을 구성하기 위한 방법의 개략도이다;
도 18은 본 출원에 따른 서브-클라이언트 서브-슬롯 매핑 테이블을 구성하기 위한 다른 방법의 개략도이다;
도 19는 본 출원에 따른 서브-클라이언트 서비스 데이터 스트림을 송신하기 위한 방법의 개략도이다;
도 20a, 도 20b 및 도 20c는 본 출원에 따른 FlexE 인터페이스에 기초하여 이더넷 서비스를 전송하기 위한 방법의 개략도이다;
도 21a, 도 21b 및 도 21c는 본 출원에 따른 FlexE 인터페이스에 기초하여 CBR 서비스를 전송하기 위한 방법의 개략도이다;
도 22a, 도 22b 및 도 22c는 본 출원에 따른 이더넷 인터페이스에 기초하여 이더넷 서비스를 전송하기 위한 방법의 개략도이다;
도 23a, 도 23b 및 도 23c는 본 출원에 따른 이더넷 인터페이스에 기초하여 CBR 서비스를 전송하기 위한 방법의 개략도이다;
도 24은 본 출원에 따른 통신 장치 구조의 개략도이다;
도 25은 본 출원에 따른 통신 장치 구조의 개략도이다;
도 26은 본 출원에 따른 통신 장치 구조의 개략도이다;
도 27은 본 출원에 따른 통신 장치 구조의 개략도이다.
본 출원에서는 서로 다른 객체 사이를 구별하도록 "1", "2", "3", "4", "제1", "제2", "제3” 및 "제4"와 같은 서수가 사용되고, 복수의 객체의 순서를 제한하려는 것은 아니다. 추가로, 용어 “포함하다(include)” 및 “가지다(have)”는 배타적인 것이 아니다. 예를 들어, 일련의 단계 또는 유닛을 포함하는 프로세스, 방법, 시스템, 물건 또는 디바이스는 정렬된 단계 또는 유닛에 제한되지 않고, 정렬되지 않은 단계 또는 유닛을 더 포함할 수 있다.
본 출원에서, 용어 “이더넷 인터페이스(Ethernet interface)” 및 “ETH 인터페이스(ETH interface)”는 종종 상호교환가능하게 사용되고, 용어 “FlexE 인터페이스(FlexE interface)” 및 “플렉서블 이더넷 인터페이스(flexible Ethernet interface)”는 종종 상호교환가능하게 사용된다.
본 출원에서 FlexE에 관련되는 종래 기술에 대해, OIF에 의해 정의되는 FlexE 표준 IA OIF-FLEXE-01.0, IA OIF-FLEXE-02.0 또는 IA OIF-FLEXE02.1의 관련된 설명을 참조한다. 표준은 본 출원에 그 전체가 참조로 통합된다.
도 1은 플렉서블 이더넷 프로토콜에 기초한 FlexE 범용 아키텍처를 예시하는 개략도이다. 도 1에 도시된 바와 같이, FlexE 그룹은 4 개의 PHY를 포함한다. FlexE 클라이언트는 FlexE 그룹에서 특정된 슬롯(하나의 슬롯 또는 그 이상의 슬롯)에서 전송되는 클라이언트 데이터 스트림을 나타낸다. 하나의 FlexE 그룹은 복수의 FlexE 클라이언트를 운반할 수 있다. 하나의 FlexE 클라이언트는 (또한 MAC 클라이언트로 지칭될 수 있는) 하나 이상의 사용자 서비스 데이터 스트림에 대응할 수 있다. FlexE 심 계층은 FlexE 클라이언트로부터 MAC 클라이언트로의 데이터 적응 및 변환을 제공한다. FlexE는 PHY 본딩, 채널화 및 서브레이트(subrate)와 같은 기능을 구현하도록, PHY의 임의의 그룹에서의 임의의 복수의 서로 다른 FlexE 클라이언트의 매핑 및 전송을 지원할 수 있다. FlexE 심 계층으로부터 분배되고 매핑되는 하나 이상의 FlexE 클라이언트 데이터 스트림을 운반하기 위해 복수의 PHY가 (또한 영어로 FlexE group으로 지칭될 수 있는) 하나의 FlexE 그룹으로 함께 그룹핑된다. 100GE PHY를 일 예로서 사용하면, FlexE 심 계층은 FlexE 그룹에서의 각각의 100GE PHY를 20 개의 슬롯 데이터 베어러 채널(bearer channels)로 분할할 수 있고, 각 슬롯은 5 Gbps의 대역폭에 대응한다.
도 2는 4 개의 물리적 링크 인터페이스(4 개의 PHY가 어그리게이트됨)에 걸쳐 있는 FlexE 그룹의 슬롯 할당의 개략도이다. 도 2에 도시된 바와 같이, 각각의 PHY는 20 개의 슬롯을 가진다. 따라서, FlexE 그룹은 20x4 개의 슬롯을 가진다. 도 2에 도시된 바와 같이, 도 1에서의 4 개의 PHY를 포함하는 FlexE 그룹은 설명을 위한 예로서 사용되고, 4 개의 PHY는 PHY A(1201), PHY B(1202), PHY C(1203) 및 PHY D(1204)이다. FlexE 그룹은 (또한 영어로 calendar로 지칭될 수 있는) 슬롯 할당 테이블에 대응한다. FlexE 그룹에 포함되는 단일 물리적 링크에 대응하는 슬롯 매핑 테이블은 (영어로 sub-calendar로 지칭될 수 있는) 서브-슬롯 할당 테이블로 지칭될 수 있다. FlexE 캘린더는 하나 이상의 서브-캘린더를 포함할 수 있다. 각각의 서브-캘린더는 단일 물리적 링크에서의 20 개 슬롯(슬롯)이 대응하는 FlexE 클라이언트에 할당되는 방법을 표시할 수 있다. 다시 말해, 각각의 서브-캘린더는 단일 물리적 링크에서의 슬롯과 FlexE 클라이언트 사이의 대응 관계(correspondence)를 표시할 수 있다. 도 2에 도시된 바와 같이, 각각의 PHY는 도면에서 슬롯 0 내지 슬롯 19에 의해 나타나는 20 개의 슬롯에 대응할 수 있다. 도 2는 PHY A(1201), PHY B(1202), PHY C(1203) 및 PHY D(1204) 각각에 대응하는 20 개의 슬롯의 개략도이다.
도 3은 본 출원에 따른 FlexE 통신 시스템의 애플리케이션 시나리오의 개략도이다. 도 3에 도시된 바와 같이, FlexE 통신 시스템(100)은 네트워크 디바이스 1, 네트워크 디바이스 2, 사용자 장비 1 및 사용자 장비 2 를 포함한다. 네트워크 디바이스 1 은 중간 노드(intermediate node)일 수 있다. 이 경우에, 네트워크 디바이스 1 은 다른 네트워크 디바이스를 사용함으로써 사용자 장비 1에 연결된다. 네트워크 디바이스 1 은 에지 노드일 수 있다. 이 경우에, 네트워크 디바이스 1 은 사용자 장비 1 에 직접 연결된다. 네트워크 디바이스 1 은 중간 노드(intermediate node)일 수 있다. 이 경우에, 네트워크 디바이스 1 은 다른 네트워크 디바이스를 사용함으로써 사용자 장비 1에 연결된다. 대안적으로, 네트워크 디바이스 1 은 에지 노드일 수 있다. 이 경우에, 네트워크 디바이스 1 은 사용자 장비 1 에 직접 연결된다. 네트워크 디바이스 2 는 중간 노드(intermediate node)일 수 있다. 이 경우에, 네트워크 디바이스 2 는 다른 네트워크 디바이스를 사용함으로써 사용자 장비 2 에 연결된다. 대안적으로, 네트워크 디바이스 2 는 에지 노드일 수 있다. 이 경우에, 네트워크 디바이스 2 는 사용자 장비 2 에 직접 연결된다. 네트워크 디바이스 1 은 FlexE 인터페이스 1 을 포함하고, 네트워크 디바이스 2 는 FlexE 인터페이스 2 를 포함한다. FlexE 인터페이스 1 은 FlexE 인터페이스 2 의 근처에 있다. 각각의 FlexE 인터페이스는 전송 포트 및 수신 포트를 포함하고, 하나의 FlexE 인터페이스가 복수의 클라이언트를 운반할 수 있고, 논리적 인터페이스로서의 FlexE 인터페이스가 복수의 물리적 인터페이스를 포함할 수 있다는 점에서 종래의 이더넷 인터페이스와 서로 다르다. 도 3에 도시되는 포워드 경로에서의 서비스 데이터의 흐름 방향은 도 3에서 실선에 의해 도시된다. 리버스 경로(reverse path)에서의 서비스 데이터의 흐름 방향은 도 3에서 파선에 의해 도시된다. 본 발명의 본 실시예에서의 전송 경로는 포워드 경로인 것으로 가정하면, 전송 경로에서의 서비스 데이터의 흐름 방향은 사용자 장비 1 -> 네트워크 디바이스 1 -> 네트워크 디바이스 2 -> 사용자 장비 2 이다.
도 3은 단지 2 개의 네트워크 디바이스 및 2 개의 사용자 장비를 예시하는 것이 이해되어야 한다. 네트워크는 임의의 다른 수량의 네트워크 디바이스 및 사용자 장비를 포함할 수 있다. 이것은 본 출원의 본 실시예에 제한되지 않는다. 도 3에 도시되는 FlexE 통신 시스템은 단지 예시이고, 본 출원에 제공되는 FlexE 통신 시스템의 애플리케이션 시나리오는 도 3에 도시되는 시나리오에 제한되지 않는다. 본 출원에 제공되는 기술적 솔루션은 데이터 전송을 위해 FlexE 기술을 사용하는 모든 네트워크 시나리오에 적용가능하다.
도 4를 참조하면, 이하에서는 도 3에 도시되는 네트워크 디바이스 1 및 네트워크 디바이스 2 가 FlexE 기술을 사용함으로써 데이터를 전송하는 프로세스를 더 설명한다.
도 4에 도시된 바와 같이, FlexE 그룹을 형성하도록 PHY 1, PHY 2, PHY 3, 및 PHY 4가 본딩된다. 네트워크 디바이스 1 및 네트워크 디바이스 2 는 FlexE 그룹 인터페이스에 의해 연결되는데, 즉 FlexE 인터페이스 1 및 FlexE 인터페이스 2 에 의해 연결된다. FlexE 그룹 인터페이스는 또한 FlexE 인터페이스로 지칭될 수 있다. FlexE 그룹 인터페이스는 물리적 인터페이스의 그룹을 본딩함으로써 형성되는 논리적 인터페이스이다. FlexE 그룹 인터페이스는 총 6 개의 클라이언트를 운반한다: 클라이언트 1 내지 클라이언트 6. 클라이언트 1 및 클라이언트 2 의 데이터는 전송을 위해 PHY 1 에 매핑되고; 클라이언트 3 의 데이터는 전송을 위해 PHY 2 및 PHY 3 에 매핑되고; 클라이언트 4 의 데이터는 전송을 위해 PHY 3 에 매핑되고; 및 클라이언트 5 및 클라이언트 6 의 데이터는 전송을 위해 PHY 4 에 매핑된다. 본딩 기능을 구현하도록 서로 다른 FlexE 클라이언트가 FlexE 그룹에서 매핑되고 전송된다.
FlexE 그룹: FlexE 그룹은 또한 본딩 그룹으로 지칭될 수 있다. 각각의 FlexE 그룹에 포함되는 복수의 PHY는 논리적 본딩 관계를 가진다. 논리적 본딩 관계는 서로 다른 PHY가 물리적 연결 관계를 가지지 않을 수 있는 것을 의미한다. 따라서, FlexE 그룹에서의 복수의 PHY는 물리적으로 독립적일 수 있다. FlexE에서의 네트워크 디바이스는 하나의 FlexE 그룹에 어느 PHY가 포함되는지를 식별하도록 PHY의 번호를 사용함으로써 복수의 PHY의 논리적 본딩을 구현할 수 있다. 예를 들어, 각각의 PHY는 1 내지 254의 번호에 의해 식별될 수 있다. 0 및 255는 예약된(reserved) 번호이다. 하나의 PHY의 번호는 네트워크 디바이스에서의 하나의 인터페이스에 대응할 수 있다. 동일한 PHY를 식별하도록 2 개의 근처 네트워크 디바이스 사이에 동일한 번호가 사용되어야 한다. 하나의 FlexE 그룹에 포함되는 PHY의 번호는 반드시 연속적인 것은 아니다. 일반적으로, 2 개의 네트워크 디바이스 사이에 하나의 FlexE 그룹이 존재하지만, 본 출원은 2 개의 네트워크 디바이스 사이에 단지 하나의 FlexE 그룹의 존재에 제한되지 않는데, 즉, 대안적으로, 2 개의 네트워크 디바이스 사이에 복수의 FlexE 그룹이 존재할 수 있다. 적어도 하나의 클라이언트를 운반하도록 하나의 PHY가 사용될 수 있고, 하나의 클라이언트는 적어도 하나의 PHY에서 전송될 수 있다.
FlexE 클라이언트: FlexE 클라이언트는 네트워크의 다양한 사용자 인터페이스 또는 대역폭에 대응한다. FlexE 클라이언트는 (10 G, 40 G, nx25 G 및 심지어 비표준-레이트 데이터 스트림과 같은) 다양한 레이트에서 이더넷 MAC 데이터 스트림을 지원하도록 대역폭 요건에 기초하여 플렉서블하게 구성될 수 있다. 예를 들어, 데이터 스트림은 64b/66b 코딩 모드에서 FlexE 심 계층에 전송될 수 있다. 동일한 FlexE 그룹에 의해 송신되는 클라이언트는 동일한 클록을 공유해야 하고 이들 클라이언트는 할당된 슬롯 레이트에 기초하여 적응되어야 한다. 본 출원에서의 FlexE 클라이언트 인터페이스는 대응하는 FlexE 클라이언트의 서비스 데이터 스트림을 전송하도록 구성된다. FlexE 클라이언트 인터페이스는 논리적 인터페이스이다. 각각의 FlexE 클라이언트는 하나 이상의 FlexE 클라이언트 인터페이스로 논리적으로 분할될 수 있고, 각각의 FlexE 인터페이스는 시간 도메인에서의 복수의 슬롯으로 분할될 수 있고, 각각의 FlexE 클라이언트 인터페이스는 복수의 슬롯 중 적어도 하나를 점유(occupy)한다.
FlexE 심: FlexE 심은 종래의 이더넷 아키텍처에서 MAC 계층과 PHY 계층(PCS 서브계층) 사이에 삽입되는 추가적인 논리적 계층이고 캘린더의 슬롯 분배 메커니즘에 기초하여 FlexE 기술을 구현하기 위한 코어(core)이다. FlexE 심의 주된 기능은 동일한 클록에 기초하여 데이터를 슬라이싱하고 슬라이싱된 데이터를 사전-분할된 슬롯 내에 캡슐화하고, 그 후에 전송을 위해 사전구성된(preconfigured) 슬롯 할당 테이블에 기초하여 FlexE 그룹에서의 PHY에 슬롯을 매핑하는 것이다. 각각의 슬롯은 FlexE 그룹에서의 하나의 PHY에 매핑된다.
캘린더: 캘린더는 슬롯 할당 테이블이고 또한 슬롯 테이블로 지칭될 수 있다. FlexE 그룹은 캘린더에 대응한다. 하나의 FlexE 그룹에 포함되는 단일 물리적 링크(PHY)에 대응하는 슬롯 매핑 테이블은 서브-슬롯 할당 테이블(영어: sub-calendar) 로 지칭될 수 있다. FlexE 캘린더는 하나 이상의 서브-캘린더를 포함할 수 있다. 각각의 서브-캘린더는 단일 물리적 링크에서의 20 개 슬롯(영어로 slots으로 지칭될 수 있음)이 대응하는 FlexE 클라이언트에 할당되는 방법을 표시할 수 있다. 다시 말해, 각각의 서브-캘린더는 단일 물리적 링크에서의 슬롯과 FlexE 클라이언트 사이의 대응 관계를 표시할 수 있다. 현재 표준에 정의된 바와 같이, 2 개의 캘린더가 각각의 FlexE 오버헤드 프레임에 특정되고, 각각 현재 활성 슬롯 테이블(active slot table)(캘린더 A) 및 대기 슬롯 테이블(stanby slot table)(캘린더 B)이다.
FlexE는 물리적 인터페이스 전송을 위한 고정된 프레임 포맷을 구축(construct)하고 TDM 슬롯을 분할한다. 상술한 바와 같이, FlexE 심 계층은 오버헤드 프레임 및 오버헤드 멀티프레임을 정의함으로써 캘린더 작동 메커니즘(calendar working mechanism) 및 FlexE 그룹에서의 클라이언트와 슬롯 사이의 매핑 관계를 반영한다. 오버헤드 프레임은 또한 플렉서블 이더넷 오버헤드 프레임(영어: FlexE overhead frame)으로 지칭될 수 있고, 오버헤드 멀티프레임은 또한 플렉서블 이더넷 오버헤드 멀티프레임(영어: FlexE overhead Multiframe)으로 지칭될 수 있는 것이 주목되어야 한다. FlexE 심 계층은 오버헤드를 사용함으로써 대역-내 관리 채널(in-band management channel)을 제공하고, 2 개의 상호연결된 FlexE 인터페이스 사이의 구성 및 관리 정보의 전송을 지원하고, 자동-협상(auto-negotiation) 및 링크의 확립(establishment)을 구현한다.
FlexE의 각각의 PHY에서의 데이터는 FlexE 오버헤드(오버헤드 프레임, OH) 프레임의 코드 블록을 주기적으로 삽입함으로써, 예를 들어 1023x20 66b 페이로드 데이터 코드 블록의 간격에서 하나의 66 b 오버헤드 코드 블록 FlexE OH를 삽입함으로써 정렬된다. FlexE 구현 협정(Implementation Agreement)에 따르면, FlexE 그룹은 각각의 PHY에서의 미리 결정된(predetermined) 시간 간격에서 원격 PHY에 FlexE 오버헤드 프레임의 64b/66b 코드 블록을 송신하고, 8 개의 순차적으로 송신된 FlexE 오버헤드 프레임의 64b/66b 코드 블록은 하나의 FlexE 오버헤드 프레임이 된다. FlexE 클라이언트에 대응하는 데이터 스트림을 수신하고 송신하도록 2 개의 통신 디바이스가 동일한 슬롯 할당 테이블을 사용하는 것을 보장하도록, FlexE는 슬롯 할당 테이블을 운반하기 위해 오버헤드 프레임에서의 일부 필드를 정의하고, FlexE 오버헤드 프레임을 사용함으로써 슬롯 할당 테이블을 원격 통신 디바이스에서의 PHY에 동기화한다. 구체적으로, 도 5는 OIF IA-FLEXE-02.1 표준에 따른 100GE 인터페이스의 오버헤드 프레임 및 오버헤드 멀티프레임 구조의 개략도이다. 하나의 오버헤드 프레임은 8 개의 오버헤드 블록(영어: overhead blcok)을 가지고, 오버헤드 블록은 또한 오버헤드 슬롯(영어: overhead slot)으로 지칭될 수 있다. 각각의 오버헤드 블록은 64B/66B 코드 블록이고 1023x20 개의 블록의 간격에서 한번 나타나지만, 오버헤드 블록에 포함되는 필드는 서로 다르다. 오버헤드 프레임에서, 제1 오버헤드 블록은 제어 문자 “0X4B” 및 “O 코드(O code)” 문자 “0x5”를 포함하고, 데이터 전송 동안, 제1 오버헤드 프레임은 상호연결된 FlexE 인터페이스 사이의 “O 코드” 문자와 제어 문자를 매칭시킴으로써 결정된다. 32 개의 오버헤드 프레임은 하나의 오버헤드 멀티프레임이 된다.
전술한 설명에서, 플렉서블 이더넷 프로토콜에 기초하는 FlexE 범용 아키텍처 및 종래의 FlexE 기술에 기초하여 데이터를 전송하는 프로세스는 도 1 내지 도 5를 참조하여 설명된다. 현재의 OIF FlexE 표준은 50G/100G/200G/400G 인터페이스 프레임워크를 정의하고, 슬롯 사이클 주기(cycle period)에서 서로 다른 레이트의 FlexE 클라이언트 인터페이스에 N 개의 슬롯이 할당되고, 각각의 슬롯은 5 Gbps(이하에서 5G로 지칭됨) 입도의 슬롯 대역폭을 가진다. 따라서, N=인터페이스 레이트/5 Gbps이다. 예로서 100G PHY를 사용하면, 도 6에 도시된 바와 같이, 각각의 PHY는 20 개의 5G 슬롯을 포함하고, N 개의 PHY가 본딩될 때 총 Nx20 개의 5 G 슬롯이 존재한다. 따라서, 각각의 FlexE 클라이언트에 할당되는 대역폭은 5G의 정수배(integer multiple)이어야 하고, 최소 대역폭은 5G인데, 즉 적어도 하나의 슬롯이 할당된다. 도 6에서, 각각의 슬롯의 슬롯 대역폭은 5G이고, x 개의 슬롯은 FlexE 클라이언트 #1에 할당되고, y 개의 슬롯은 FlexE 클라이언트 #2에 할당되고, ..., z 개의 슬롯은 FlexE #M에 할당된다. 그러나, 현재 애플리케이션 계층에 많은 로우-레이트 서비스가 존재한다. 예를 들어, 은행의 현금 자동 인출기(영어: automatic teller machine, ATM) 서비스는 매우 작은 대역폭을 요구하고, 단지 100 Mbps를 요구할 수 있다. 이 경우에, 심지어 (단지 하나의 슬롯을 차지하는) 최소의 5G FlexE 클라이언트 채널이 서비스를 실행하도록 사용되는 경우에도, 4.9G의 대역폭이 낭비되고, 서비스 요건이 정확하게 매칭될 수 없다.
전술한 기술적 문제를 해결하도록, 본 출원은 종래의 FlexE 인터페이스 또는 공통 이더넷 물리적 인터페이스에 기초하여 미세-입도 서브-클라이언트 인터페이스를 재정의(redefine)한다. 가능한한 대역폭 낭비를 회피하도록, 각각의 서브-클라이언트 인터페이스의 인터페이스 레이트가 서로 다른 로우-레이트 서비스의 요건에 기초하여 플렉서블하게 설정될 수 있다. 추가로, 본 출원은 서브-슬롯 교차-연결 기술을 더 제공하고, 대역폭을 완전히 사용하는 것에 기초하여, 디바이스에서의 슬롯 교차-연결 기술에 기초하는 포워딩이 포워딩 지연을 효과적으로 감소시킬 수 있다.
본 출원에 제공되는 기술적 솔루션이 설명되기 전에, 본 출원에서의 기술적 솔루션의 이해의 편의를 위해, 본 출원에 사용되는 일부 기술적 용어가 간략하게 설명된다.
서브-슬롯: (또한 대형 슬롯 또는 상위-순서 슬롯(higher-order slot)으로 지칭될 수 있는) 종래의 FlexE 클라이언트 인터페이스에 대해 구성되는 슬롯 또는 공통 ETH 인터페이스의 대형 대역폭과 대조적으로, 서브-슬롯은 또한 하위-순서 슬롯(lower-order slot)으로 지칭될 수 있다. 표준 FlexE 클라이언트 인터페이스 또는 공통 ETH 인터페이스를 위해, 각각의 FlexE 클라이언트 인터페이스 또는 ETH 인터페이스는 시간 도메인에서 M 개의 서브-슬롯으로 분할되고, 각각의 서브-사용자 인터페이스는 데이터 전송을 위해 적어도 하나의 서브-슬롯의 대역폭을 점유한다.
FlexE 서브-심(sub-shim): 서브-슬롯 분배 메커니즘에 기초하여, 동일한 서브-클라이언트의 데이터가 슬라이스되고, 슬라이스된 데이터는 서브-슬롯 페이로드로서 사전-분할(pre-division)을 통해 획득되는 서브-슬롯(서브-슬롯) 내에 캡슐화된다. 그 후에 분할을 통해 획득된 각각의 서브-슬롯은 사전-획득된 서브-클라이언트 서브-슬롯 매핑 테이블에 기초하여 대응하는 FlexE 클라이언트 인터페이스에 매핑된다. 각각의 서브-슬롯은 하나의 FlexE 클라이언트 인터페이스에 매핑된다.
서브-사용자: 서브-클라이언트는 네트워크의 다양한 서브-사용자 인터페이스 또는 대역폭에 대응한다. FlexE 서브-클라이언트는 (10G, 40G, nx25G 및 심지어 비표준-레이트 데이터 스트림과 같은) 다양한 레이트에서 이더넷 MAC 데이터 스트림을 지원하도록 대역폭 요건에 기초하여 플렉서블하게 구성될 수 있다. 예를 들어, 데이터 스트림은 64b/66b 또는 64b/65b 트랜스코딩(transcoding) 또는 256b/257b 트랜스코딩 모드에서 FlexE 서브-심 계층에 전송될 수 있다.
서브-사용자 인터페이스: 서브-사용자 인터페이스는 서브-클라이언트 인터페이스이다. 서브-사용자 인터페이스는 또한 서브-슬롯 인터페이스, 하위-순서 서브-슬롯 인터페이스, 서브-슬롯 채널 또는 하위-순서 슬롯 채널로 지칭될 수 있다. 서브-사용자 인터페이스는 종래의 FlexE 클라이언트 인터페이스 또는 공통 이더넷 인터페이스에 상대적인 개념이다. 각각의 FlexE 클라이언트 인터페이스 또는 공통 이더넷 인터페이스는 복수의 서브-사용자 인터페이스로 논리적으로 분할되고, 시간 도메인에서 복수의 서브-슬롯으로 분할된다. 각각의 서브-사용자 인터페이스는 데이터 전송을 위해 적어도 하나의 서브-슬롯을 점유한다. 각각의 서브-슬롯의 슬롯 대역폭 입도는 일반적으로 5 Gbps 미만이고, 예를 들어, 10 Mbps 내지 100 Mbps의 임의의 값일 수 있으므로, 더 많은 로우-레이트 서비스가 운반되고 대역폭이 효과적으로 사용된다.
서브-클라이언트 서브-슬롯 페이로드: 서브-클라이언트 서브-슬롯 페이로드는 동일한 서브-클라이언트의 데이터를 슬라이싱함으로써 획득되는 데이터이다. 각각의 슬라이스는 서브-클라이언트 서브-슬롯 페이로드로서 사전-분할을 통해 획득되는 서브-슬롯(서브-슬롯) 내에 캡슐화된다.
서브-클라이언트 서브-슬롯 매핑 테이블: 서브-클라이언트 서브-슬롯 매핑 테이블은 또한 하위-순서 경로 슬롯 할당 테이블, 서브-클라이언트 서브-슬롯 할당 테이블, 또는 하위-순서 경로 슬롯 매핑 테이블로 지칭될 수 있다. 서브-클라이언트 서브-슬롯 매핑 테이블은 슬롯 포지션 및 각각의 서브-클라이언트 서브-인터페이스에 할당되는 슬롯의 수량을 식별하도록 사용된다.
베이스 프레임: 베이스 프레임은 본 출원에 제공되는 데이터 구조이고, 서로 다른 서브-클라이언트의 서비스 데이터 스트림을 운반하도록 사용된다. 각각의 베이스 프레임은 베이스 프레임 페이로드를 포함한다. 베이스 프레임 페이로드는 베이스 프레임 오버헤드 및 하위-순서 슬롯 페이로드(즉, 서브-클라이언트 서브-슬롯 페이로드)를 포함한다. 본 출원에서, 각각의 하위-순서 슬롯 페이로드는 동일한 길이, 예를 들어, Y 개 비트를 가진다. 각각의 하위-순서 슬롯 페이로드는 복수의 64b/66b 코드 블록일 수 있다. 데이터 전송 효율성을 더 개선하도록, 각각의 하위-순서 슬롯 페이로드는 복수의 64B/65B 코드 블록 또는 256B/257B 코드 블록일 수 있고, 복수의 64B/65B 코드 블록 또는 256B/257B 코드 블록은 트랜스코딩 알고리즘을 사용함으로써, PCS에 의해 인코딩되는 복수의 64B/66B 코드 블록을 트랜스코딩하고 압축함으로써 획득될 수 있고, 트랜스코딩 알고리즘은 예를 들어, 64B/65B 트랜스코딩 또는 256B/257B 트랜스코딩일 수 있다. 베이스 프레임 오버헤드는 오버헤드 정보를 전송하도록 사용되고, 오버헤드 정보는 다음의 정보 중 하나 이상을 포함할 수 있지만 이에 제한되는 것은 아니다:
베이스 프레임의 시퀀스 번호;
서브-클라이언트 서브-슬롯 매핑 테이블;
슬롯 조정 요청;
슬롯 조정 응답;
슬롯 유효성 표시;
관리 채널 정보; 및
오버헤드 체크 정보.
베이스 프레임의 시퀀스 번호는 전체 멀티프레임에서 베이스 프레임의 포지션(position)을 식별하도록 사용될 수 있다. 베이스 프레임에 포함되는 서브-슬롯의 번호는 포지션 정보에 기초하여 알려질 수 있다. 서브-클라이언트 서브-슬롯 매핑 테이블은 슬롯 포지션 및 각각의 하위-순서 경로에 할당되는 슬롯의 수량을 식별하도록 사용될 수 있다. 슬롯 조정 요청은 예를 들어, 서브-클라이언트의 슬롯을 조정하도록 사용되는 슬롯 조정 요청을 송신하도록 사용된다. 슬롯 조정 응답은 슬롯 조정 요청을 수신하는 것에 대한 응답이다. 슬롯 유효성 표시는 슬롯 조정이 유효하다는 것을 표시하도록 사용된다. 관리 메시지 채널은 네트워크 엘리먼트 관리 메시지를 전송하도록 사용될 수 있거나 서브-클라이언트 서브-슬롯 매핑 테이블 정보를 전송하도록 사용될 수 있다. 오버헤드 체크 정보는 베이스 프레임 오버헤드를 체크하도록 사용된다. 체크 알고리즘은 CRC 또는 BIP와 같은 비트 에러 검출 알고리즘(bit error detection algorithm)일 수 있지만 이에 제한되지는 않는다. 서브-클라이언트 서브-슬롯 페이로드는 서브-클라이언트 서브-슬롯 매핑 테이블에 기초하여 서로 다른 서브-클라이언트 인터페이스의 데이터를 운반하도록 사용된다. 각각의 베이스 프레임은 베이스 프레임 헤더의 한계를 정하기 위한 코드 블록 및 베이스 프레임 트레일러의 한계를 정하기 위한 코드 블록을 더 포함한다.
도 7은 본 출원에 따른 특정 베이스 프레임 캡슐화 포맷의 개략도이다. 그러나, 당업자는 도 7이 베이스 프레임 캡슐화 포맷에 대한 제한으로서 이해되어서는 안 된다는 것을 이해할 수 있다. 도 7에 도시된 바와 같이, IEEE 802.3에 정의되는 이더넷 프레임 포맷과의 호환성을 위해, 베이스 프레임이 /S/ 코드 블록, /D/ 코드 블록 및 /T/ 코드 블록을 사용함으로써 캡슐화된다. /S/ 코드 블록은 베이스 프레임의 프레임 헤더를 표시하도록 사용된다. /T/ 코드 블록은 베이스 프레임의 프레임 트레일러를 표시하도록 사용된다. (도 7 또는 도 8에 도시되는 블록 페이로드 필드와 같은) /D/ 코드 블록의 데이터 필드는 베이스 프레임 페이로드를 운반하도록 사용된다. /I/ 코드 블록은 베이스 프레임의 레이트 적응(rate adaptation)을 위해 사용될 수 있다. 특정 구현에서, 베이스 프레임에서의 각각의 코드 블록의 포맷은 예를 들어, 도 8에 도시된 바와 같이, IEEE802.3에서 정의되는 코드 블록 포맷을 따를 수 있다. 특정 구현에서, /S/ 코드 블록 및/또는 /T/ 코드 블록에서의 일부 또는 모든 데이터 필드(블록 페이로드, BP) 및 /D/ 코드 블록의 데이터 필드는 공동으로 베이스 프레임 페이로드를 운반하고, S 코드 블록에서의 BP는 임의선택적 필드이고, T 코드는 7 개의 코드 블록(T0 내지 T7)중 임의의 하나일 수 있다.
도 9는 본 출원에 따른 서브-사용자 인터페이스에 기초하여 전송되는 데이터 구조의 개략도이다. 도 9에 도시된 바와 같이, 그 대역폭이 Nx5G인 FlexE 클라이언트 인터페이스 또는 공통 ETH 인터페이스는 주기적 전송을 위해 M 개의 서브-슬롯 x로 분할된다. 다시 말해, 각각의 사이클 주기는 M 개의 서브-슬롯이다. 사이클 주기는 또한 서브-사용자 인터페이스의 서브-슬롯 스케줄링 주기 또는 서브-사용자 인터페이스의 슬롯 스케줄링 주기로 지칭될 수 있다. 특정 구현에서, M 개의 서브-슬롯은 X 개의 베이스 프레임에서 균등하게 분배되고, (M/X) 개의 하위-순서 슬롯이 각각의 베이스 프레임 페이로드에 로딩된다. 매 X 개의 베이스 프레임은 또한 하나의 멀티프레임으로서 정의될 수 있다. 각각의 사이클 주기에서, 하나의 멀티프레임이 전송된다. 특정 구현에서, 이더넷 패킷 전송 사양에 따르면, 멀티프레임의 길이는 9600 바이트와 같거나 작아야 한다.
본 출원에서, 각각의 FlexE 인터페이스는 복수의 FlexE 클라이언트 인터페이스로 논리적으로 분할될 수 있다. 하나의 FlexE 클라이언트 인터페이스는 복수의 FlexE 서브-클라이언트 인터페이스로 논리적으로 분할될 수 있고, 하나의 FlexE 클라이언트 인터페이스는 시간 도메인에서의 M 개의 서브-슬롯으로 분할될 수 있다. 서로 다른 대역폭을 가지는 FlexE 클라이언트 인터페이스 및 서로 다른 FlexE 서브-클라이언트 인터페이스의 대역폭을 위해, M 개가 플렉서블하게 구성될 수 있다. 예를 들어, 도 10은 본 출원에 따른 멀티프레임 캡슐화 포맷의 개략도이다. 도 10을 참조하면, 각각의 5G FlexE 클라이언트 인터페이스는 시간 도메인에서 480 개의 서브-슬롯(즉, M=480)으로 분할될 수 있다. 20 개의 베이스 프레임,즉 하나의 멀티프레임은 FlexE 클라이언트 인터페이스에서의 각각의 슬롯 스케줄링 주기에서 균등하게 분배된다(하나의 슬롯 스케줄링 주기는 480 개의 서브-슬롯임). 본 출원에서, 베이스 프레임은 영어로 fgDU라 명칭된다. 각각의 베이스 프레임은 24 개의 서브-슬롯을 포함한다. 특정 실시예에서, 각각의 서브-슬롯 페이로드는 8 개의 66b 압축된 코드 블록을 포함할 수 있다. 베이스 프레임을 위해, 캡슐화를 위한 /S/, /OH/ 및 /T/ 코드 블록에 더하여, 하나의 베이스 프레임은 197 66b 코드 블록을 포함할 수 있다. 레이트 적응을 위해, /I/ 코드 블록은 베이스 프레임 사이에 추가될 수 있거나, 일부 /I/ 코드 블록은 FlexE 클라이언트 인터페이스에서 전송되는 OAM 코드 블록으로 교체될 수 있다. /I/ 코드 블록, 즉, 아이들(idle) 코드 블록은 MAC 계층에서의 레이트 적응을 위해 사용된다.
특정 구현에서, 도 11은 본 출원에 따른 멀티프레임 포맷을 묘사하는 개략도이다. 도 11은 도 10에 도시되는 멀티프레임 구조를 더 설명하도록 사용될 수 있다. 도 11에 설명되는 미세-입도 슬롯 1 내지 미세-입도 슬롯 480은 서브-슬롯 1 내지 서브-슬롯 480에 대응한다.
도 11에 도시되는 바와 같이, 하나의 멀티프레임은 480 개의 서브-슬롯을 포함하고, 각각의 베이스 프레임은 24 개의 서브-슬롯을 포함하고, 각각의 서브-슬롯은 8 개의 66b 압축된 코드 블록, 즉 8 개의 65b 코드 블록을 포함한다. 코드 블록 압축 프로세스는 도 11에 도시된다. OAM 코드 블록이 주기적으로 66b 코드 블록 스트림에 삽입된 후에, 코드 블록 압축이 수행된다. 압축 후에, 각각의 서브-슬롯은 8 개의 65b 코드 블록을 포함한다. 특정 구현에서, 베이스 프레임 오버헤드에서의 일부 필드가 데이터를 운반하도록 사용될 수 있다. 예를 들어, 베이스 프레임 오버헤드에서 56 비트만 요구된다면, 각각의 기본 프레임 오버헤드의 나머지 8 개 비트는 데이터를 운반하도록 사용될 수 있다. 특정 구현에서, 프레임 트레일러를 식별하도록 사용되는 코드 블록에서의 제1 필드는 프레임 트레일러를 표시하도록 사용될 수 있고, 제2 필드는 데이터를 운반하도록 사용된다. 예를 들어, 도 11에 도시되는 T 코드 블록에서의 제어 문자는 프레임 트레일러를 표시하고, T 코드 블록에서의 BP 필드는 데이터를 운반하도록 사용될 수 있는데, 즉, T 코드 블록에서의 56 비트가 데이터를 운반하도록 사용될 수 있다. 따라서, 예를 들어, 도 11에 도시된 바와 같이, 베이스 프레임에서 서비스 데이터를 운반하도록 사용되는 비트의 수량은 24x(8x65b)=12480b=8b(OH에서의 8 개 나머지 비트)+194x64b+56b(T 코드 블록에서의 56 개 비트)와 같다.
도 12를 참조하여, 이하에서는 본 출원에 따른 이더넷 서비스의 서브-클라이언트 서브-슬롯 페이로드를 획득하기 위한 방법(100)을 설명한다. 방법은: PCS로부터 이더넷 서비스 데이터 스트림을 획득하는 단계; 복수의 이더넷 서비스 슬라이스를 획득하도록 제1 이더넷 서비스 데이터 스트림을 슬라이싱하는 단계; 및 복수의 서브-클라이언트 서브-슬롯 페이로드로서 복수의 이더넷 서비스 슬라이스를 사용하는 단계를 포함한다. 특정 예에서, 도 12에서의 S101 내지 S103을 참조하여, 이더넷 서비스 데이터 스트림을 획득하는 방법이 상세하게 설명되고, S104를 참조하여, 복수의 서브-클라이언트 서브-슬롯 페이로드를 획득하도록 이더넷 서비스 데이터 스트림을 슬라이스하는 방법이 설명된다.
S101. PCS는 MAC 계층 이더넷 패킷을 인코딩한다.
특정 구현에서, 도 12에 도시된 바와 같이, IEEE802.3에 정의되는 이더넷 계층화 모델(Ethernet layered model)을 참조하여, 각각의 하위-순서 경로, 즉 각각의 서브-클라이언트 인터페이스가 독립적 포트로서 고려되고 MAC 계층 및 PCS로 분할된다. MAC 계층은 서비스 패킷 캡슐화 및 체크 프로세싱을 구현하고, PCS는 MAC 계층 패킷, 즉 802.3 코딩 모드에서의 이더넷 서비스 데이터 스트림에 대한 64B/66B 코딩을 수행한다. 코딩된 코드 블록 스트림은 S 코드 블록, D 코드 블록, T 코드 블록 및 I 코드 블록(즉, 아이들 코드 블록, 또한 아이들 코드 블록이라 지칭됨)을 포함한다. 코드 블록 포맷은 IEEE802.3에 정의되는 표준 코드 블록 포맷을 따른다.
S102. 이더넷 서비스 데이터 스트림을 획득하도록, 하위-순서 경로 계층 OAM 코드 블록을 PCS에 의해 인코딩되는 코드 블록 스트림 내에 삽입한다. OAM 코드 블록은 OAM 정보를 전송하도록 사용된다. 예를 들어, OAM 코드 블록을 삽입하기 위해 코드 블록의 수량의 간격(예를 들어, 500) 또는 시간 간격(예를 들어, 3.3 ms)에서 근처의 /I/ 코드 블록이 선택될 수 있다.
특정 구현에서, OAM 정보는 예를 들어, OAM 메시지일 수 있다. ITU G.MTN 표준에 정의되는 MTN 경로 계층 OAM 포맷을 참조한다.
S103. 임의선택적으로, OAM 메시지가 삽입되는 64b/66b 코드 블록 스트림에 대한 압축 및 트랜스코딩을 수행한다.
특정 구현에서, 압축된 코드 블록 스트림은 복수의 64b/65b 코드 블록을 포함한다. 특정 구현에서, 압축된 코드 블록 스트림은 복수의 256b/257b 코드 블록을 포함한다.
코드 블록 스트림에 대한 압축 및 트랜스코딩을 수행하는 것은 하위-순서 경로에서 데이터를 운반하기 위한 효율성을 개선시킬 수 있다. 트랜스코딩 알고리즘은 256B/257B 트랜스코딩일 수 있다. 도 12는 64B/65B 트랜스코딩만을 도시하고, 256B/257B 트랜스코딩은 64B/65B 트랜스코딩과 유사하고, 상세는 다시 설명되지 않는다.
S104. 각각의 서브-클라이언트 서브-슬롯 페이로드의 길이(Y 개 비트)에 기초하여 (또한 코드 블록 스트림으로 지칭될 수 있는) 이더넷 서비스 데이터 스트림을 슬라이스한다. 각각의 서브-클라이언트 서브-슬롯 페이로드의 길이는 Z 개의 64b/66b 코드 블록일 수 있다. 트랜스코딩 및 압축이 수행되면, 길이는 대안적으로 Z 개의 트랜스코딩된 64b/65b 코드 블록 또는 Z 개의 트랜스코딩된 256b/257b 코드 블록일 수 있다. Y 및 Z는 둘 다 정수이다.
S104에서 슬라이싱 동작을 수행함으로써 획득되는 각각의 슬라이스는 서브-클라이언트 서브-슬롯 페이로드로서 베이스 프레임 페이로드 내에 캡슐화된다. 베이스 프레임의 관련된 포맷 및 베이스 프레임 페이로드에 대해서는, 전술한 설명을 참조한다. 상세는 본원에서 다시 설명되지 않는다.
도 13을 참조하면, 이하에서는 본 출원에 따른 고정 비트 레이트(constant bit rate, CBR) 서비스의 서브-클라이언트 서브-슬롯 페이로드를 획득하기 위한 방법(200)을 설명한다.
S201. 복수 조각의 CBR 서비스 슬라이스 데이터를 획득하도록 CBR 서비스 데이터 스트림을 슬라이스한다. 제1 CBR 서비스 데이터 스트림은 복수의 CBR 서비스 프레임을 포함한다.
CBR 서비스 데이터 스트림의 슬라이싱은 다음의 2 개 모드를 포함하지만 이에 제한되는 것은 아니다:
모드 1: 비트-투명(bit-transparent) 슬라이싱 모드.
비트 투명 슬라이싱 모드에서, 서비스 프레임의 컨텐츠는 식별되지 않고, 슬라이싱은 고정된 수량의 비트(예를 들어, i 개 비트)에 기초하여 수행된다.
모드 2: 프레임 슬라이싱 모드.
프레임 슬라이싱 모드에서, 서비스 프레임의 컨텐츠는 식별되어야 하고, 슬라이싱은 고정된 수량의 비트(예를 들어, i 개 비트)에 기초하여 수행된다.
S202. 복수의 CBR 서비스 슬라이스를 획득하도록 복수 조각의 CRB 서비스 슬라이스 데이터를 별도로 슬라이싱하고 캡슐화하고, 각각의 CBR 서비스 슬라이스는 CBR 서비스 슬라이스 데이터 및 캡슐화 정보를 포함한다.
특정 구현에서, 각각의 CBR 서비스 슬라이스는 CBR 서비스 슬라이스 데이터 및 캡슐화 정보를 운반하도록 각각 사용되는 복수의 필드를 포함한다.
특정 구현에서, CBR 서비스 슬라이스는 CBR 서비스 슬라이스 데이터를 운반하도록 사용되는 제1 필드를 포함한다.
특정 구현에서, 캡슐화 정보는 서로 다른 캡슐화 정보를 운반하도록 사용되는 제2 필드로부터 제7 필드까지 중 임의의 하나 이상의 필드를 포함한다.
제2 필드: 제2 필드는 클록 주파수 정보를 운반하도록 사용된다. 클록 주파수 정보는 예를 들어, 서비스의 클록 정보를 전송하도록 사용되는, 타임스탬프(timestamp)와 같은 정보를 포함할 수 있다.
제3 필드: 제3 필드는 동작, 관리 및 유지보수 OAM 정보를 운반하도록 사용된다.
제4 필드: 제4 필드는 CBR 서비스 슬라이스의 시퀀스 번호를 운반하도록 사용된다. CBR 서비스 슬라이스의 시퀀스 번호는 예를 들어, 슬라이스 리어셈블리를 위해 사용될 수 있다. CBR 서비스 슬라이스의 시퀀스 번호는 슬라이스 손실 검출 또는 무손실 보호를 위해 더 사용될 수 있다.
제5 필드: 제5 필드는 페이로드 길이 정보를 운반하도록 사용되고, 페이로드 길이 정보는 각각의 CBR 서비스 슬라이스에서 운반되는 CBR 서비스 슬라이스 데이터의 유효 길이이다.
제6 필드: 제6 필드는 패딩 필드이다. 그러나, 패딩 필드는 캡슐화된 서비스 슬라이스가 서브-슬롯 페이로드의 길이보다 더 짧을 때만 데이터 패딩을 위해 사용될 수 있다.
제7 필드: 제7 필드는 체크 정보를 운반하도록 사용된다. 체크 정보는 슬라이스 데이터에 대한 비트 에러 체크를 수행하도록 사용될 수 있다. 그러나, 본 출원은 슬라이스에서의 체크 정보의 의무적 포함으로 제한되는 것은 아니다. 체크 기능은 대안적으로 다른 방식으로, 예를 들어, 체크를 수행하도록 OAM을 사용하여 수행될 수 있다.
S203. 복수의 CBR 서비스 슬라이스에 기초하여 복수의 서브-클라이언트 서브-슬롯 페이로드를 획득한다.
특정 구현에서, 복수의 CBR 서비스 슬라이스는 복수의 서브-클라이언트 서브-슬롯 페이로드로서 직접 사용될 수 있는데, 즉 캡슐화 후에 획득되는 각각의 CBR 서비스 슬라이스의 길이 및 각각의 서브-클라이언트 서브-슬롯 페이로드는 동일하게 남아있으며, 예를 들어, 둘 다 Y 개 비트이다. 이하에서는 도 14를 참조하여 특정 예를 사용함으로써 이러한 방식을 설명한다.
다른 특정 구현에서, 복수의 CBR 서비스 슬라이스에 기초하여 복수의 서브-클라이언트 서브-슬롯 페이로드를 획득하는 단계는:
제2 데이터 스트림을 획득하도록 복수의 CBR 서비스 슬라이스에 대한 이더넷 패킷 캡슐화를 수행하는 단계를 포함하고, 제2 데이터 스트림은 복수의 코드 블록을 포함하고; 및
복수의 서브-클라이언트 서브-슬롯 페이로드를 획득하도록 각각의 서브-클라이언트 서브-슬롯 페이로드의 길이에 기초하여 제2 데이터 스트림을 슬라이싱하는 단계를 포함한다. 이하에서는 도 15를 참조하여 특정 예를 사용함으로써 이러한 구현을 설명한다.
도 14는 본 출원에 따른 CBR 서비스의 서브-클라이언트 서브-슬롯 페이로드를 획득하기 위한 방법의 개략도이다. 방법(1400)은 방법(200)을 구현하도록 구체적으로 사용될 수 있다. 방법은 다음의 단계를 포함한다.
S1401. 도 14에 도시되는 슬라이스에 대응하는 복수 조각의 CBR 서비스 슬라이스 데이터를 획득하도록 CBR 서비스 데이터를 슬라이스한다. 슬라이싱 모드는 상술한 모드 1 또는 모드 2이다.
S1402. 서비스 슬라이스 데이터의 각각의 조각을 캡슐화한다. 캡슐화 이후의 슬라이스 길이는 하위-순서 슬롯 페이로드 길이(예를 들어, Y 개 비트)와 동일하다. 캡슐화 정보는 다음의 정보 중 하나 이상을 포함한다:
CBR 서비스의 하위-순서 경로 계층에서 결함(fault) 검출 및 보호 동작을 위해 사용되는 OAM 정보(임의선택적);
시퀀스 번호(임의선택적);
서비스의 (타임스탬프와 같은) 클록 정보를 전송하도록 사용되는 클록 주파수 정보;
임의선택적인, 페이로드 길이 및 패딩, 캡슐화된 서비스 슬라이스가 하위-순서 슬롯 페이로드 길이보다 작으면, 데이터 패딩이 요구되고 유효 페이로드 길이가 식별됨; 및
슬라이스 데이터에 대한 비트 에러 체크를 수행하도록 사용되는 임의선택적인, 체크 필드, 체크 기능은 대안적으로 OAM을 사용함으로써 체크를 수행할 수 있음.
S1403. 슬라이싱된 데이터를 서브-클라이언트 서브-슬롯 페이로드로서 사용한다.
도 15는 본 출원에 따른 CBR 서비스의 서브-클라이언트 서브-슬롯 페이로드를 획득하기 위한 방법의 개략도이다. 방법(1500)은 방법(200)을 구현하도록 구체적으로 사용될 수 있다. 방법(1500)은 다음의 단계를 포함한다.
S1501. 도 15에 도시되는 서비스 슬라이스에 대응하는 복수의 조각의 CBR 서비스 슬라이스 데이터를 획득하도록 CBR 서비스 데이터를 슬라이싱한다. 슬라이싱 모드는 상술한 모드 1 또는 모드 2이다.
S1502. 슬라이스 데이터 블록을 캡슐화한다.
캡슐화 정보는 다음의 정보 중 하나 이상을 포함한다:
CBR의 하위-순서 경로 계층에서 결함 검출 및 보호 동작을 위해 사용되는 OAM 정보(임의선택적);
시퀀스 번호(임의선택적);
서비스의 (타임스탬프와 같은) 클록 정보를 전송하도록 사용되는 클록 주파수 정보;
임의선택적인, 페이로드 길이 및 패딩, 캡슐화된 서비스 슬라이스가 하위-순서 슬롯 페이로드 길이보다 작으면, 데이터 패딩이 요구되고 유효 페이로드 길이가 식별됨; 및
슬라이스 데이터에 대한 비트 에러 체크를 수행하도록 사용되는 임의선택적인, 체크 필드, 체크 기능은 대안적으로 OAM을 사용함으로써 체크를 수행할 수 있음.
S1503. 캡슐화된 CBR 서비스 슬라이스를 이더넷 패킷 내에 캡슐화하고, 코딩된 이더넷 코드 블록 스트림을 획득하도록 프레임 경계(예를 들어, 도 15에 도시되는 /S/ 코드 블록 및 /T/ 코드 블록) 및 프레임 갭 캡슐화(예를 들어, 도 15에 도시되는 /I/ 코드 블록)를 추가한다. 각각의 캡슐화된 CBR 서비스 슬라이스는 이더넷 데이터 스트림의 데이터 코드 블록으로서 사용된다. 이 단계의 특정 동작은 종래의 이더넷 패킷 프로세싱의 동작과 유사하다. 상세는 본원에서 다시 설명되지 않는다.
S1504. 하위-순서 경로 계층 OAM 코드 블록을 PCS에 의해 인코딩되는 이더넷 코드 블록 스트림 내에 삽입한다. OAM 코드 블록은 OAM 정보를 전송하도록 사용된다.
특정 구현에서, OAM 정보는 예를 들어, OAM 메시지일 수 있다. ITU G.MTN 표준에 정의되는 MTN 경로 계층 OAM 포맷을 참조한다.
S1505. 임의선택적으로, OAM 메시지가 삽입되는 64b/66b 코드 블록 스트림에 대한 압축 및 트랜스코딩을 수행한다.
특정 구현에서, 압축된 코드 블록 스트림은 복수의 64b/65b 코드 블록을 포함한다. 특정 구현에서, 압축된 코드 블록 스트림은 복수의 256b/257b 코드 블록을 포함한다.
코드 블록 스트림에 대한 압축 및 트랜스코딩을 수행하는 것은 하위-순서 경로에서의 데이터를 운반하기 위한 효율성을 개선시킬 수 있다. 트랜스코딩 알고리즘은 256b/257b 트랜스코딩일 수 있다. 도 12는 단지 64b/65b 트랜스코딩을 도시한다. 256B/257b 트랜스코딩은 원래 유사하기 때문에, 상세는 다시 설명되지 않는다.
S1506. 각각의 서브-클라이언트 서브-슬롯 페이로드의 길이(Y 개 비트)에 기초하여, OAM 코드 블록이 삽입되는 (또한 코드 블록 스트림으로 지칭될 수 있는) 이더넷 서비스 데이터 스트림을 슬라이싱한다. 각각의 서브-클라이언트 서브-슬롯 페이로드의 길이는 Z 개의 64B/ 66B 코드 블록일 수 있다. 슬라이싱 전에 트랜스코딩 및 압축이 수행되면, 길이는 대안적으로 Z 개의 트랜스코딩된 64B/ 65B 코드 블록 또는 Z 개의 트랜스코딩된 256B/ 257B 코드 블록일 수 있다. Y 및 Z는 둘 다 정수이다.
S1056에서 슬라이싱 동작을 수행함으로써 획득되는 각각의 슬라이스는 서브-클라이언트 서브-슬롯 페이로드로서 베이스 프레임 페이로드 내에 캡슐화된다. 베이스 프레임의 관련된 포맷 및 베이스 프레임 페이로드에 대해서는, 전술한 설명을 참조한다. 상세는 본원에서 다시 설명되지 않는다.
전술한 것은 본 출원에서 제공되는 베이스 프레임 캡슐화 포맷 및 캡슐화 프로세스를 설명하고, 또한 이더넷 서비스의 서브-클라이언트 서브-슬롯 페이로드 또는 CBR 서비스의 서브-클라이언트 서브-슬롯 페이로드를 획득하기 위한 방법을 설명한다. 이에 기초하여, 본 출원에 제공되는 데이터 전송 방법(1600)은 도 16을 참조하여 설명된다. 방법은 제1 통신 장치에 의해 수행되고, 제1 통신 장치는 제1 인터페이스를 포함한다. 방법은 다음의 단계를 포함한다.
S1601. 제1 데이터 스트림을 발생시키고, 제1 데이터 스트림은 복수의 데이터 코드 블록(code blocks)을 포함한다.
구체적으로, 복수의 데이터 코드 블록은 복수의 제1 베이스 프레임을 포함하고, 각각의 제1 베이스 프레임은 베이스 프레임 페이로드를 포함하고, 베이스 프레임 페이로드는 베이스 프레임 오버헤드 및 복수의 서브-클라이언트 서브-슬롯 페이로드를 포함하고, 복수의 서브-클라이언트 서브-슬롯 페이로드는 복수의 제1 서브-클라이언트 서브-슬롯 페이로드를 포함하고, 복수의 제1 서브-클라이언트 서브-슬롯 페이로드는 제1 서브-클라이언트 인터페이스의 서비스 데이터를 포함한다.
S1602. 제1 인터페이스를 사용함으로써 제1 데이터 스트림을 송신한다.
S1602에서, 각각의 베이스 프레임의 캡슐화 프로세스 및 캡슐화 포맷에 대해, 전술한 상세한 설명을 참조한다. 상세는 본원에서 다시 설명되지 않는다.
특정 구현에서, 제1 인터페이스는 시간 도메인에서의 M 개의 서브-슬롯으로 분할된다. M은 1보다 큰 정수이다. 더 많은 로우-레이트 서비스를 운반하도록, M 개의 서브-슬롯 각각의 슬롯 대역폭은 P이다. 바람직하게는, P는 5 기가비트/s Gbp/s 미만이다. 더 바람직하게, P는 1 Gbp/s와 같거나 작다. 더 바람직하게, P는 500 Mbp/s와 같거나 작다. 예를 들어, ATM 서비스를 운반하도록, P는 바람직하게는 100 Mbp/s와 같거나 작다. M의 특정 값에 대해, 전술한 설명을 참조한다. 상세는 본원에서 다시 설명되지 않는다.
특정 구현에서, 제1 인터페이스는 Z 개의 서브-클라이언트 인터페이스로 논리적으로 분할되고, Z 개의 서브-클라이언트 인터페이스는 제1 서브-클라이언트 인터페이스를 포함한다.
특정 구현에서, 제1 인터페이스는 FlexE 클라이언트 인터페이스이다. 제1 통신 장치는 전송 측 상의 제1 FlexE 인터페이스를 더 포함하고, S1602는 구체적으로:
제1 FlexE 클라이언트 인터페이스와 제1 FlexE 인터페이스 사이의 슬롯 매핑 관계에 기초하여 제1 FlexE 인터페이스를 사용함으로써 제1 데이터 스트림을 송신하는 단계를 포함하고, 제1 FlexE 인터페이스는 복수의 FlexE 클라이언트 인터페이스로 논리적으로 분할되고, 복수의 FlexE 클라이언트 인터페이스는 제1 FlexE 클라이언트 인터페이스를 포함한다.
특정 구현에서, 제1 인터페이스는 제1 FlexE 클라이언트 인터페이스이다.
특정 구현에서, 제1 인터페이스는 이더넷 인터페이스이다.
특정 구현에서, 제1 데이터 스트림은 이더넷 서비스를 운반하도록 사용된다.
특정 구현에서, 제1 데이터 스트림이 이더넷 서비스를 운반하도록 사용될 때, S1601에서의 제1 데이터 스트림을 발생시키는 단계는:
PCS로부터 제1 이더넷 서비스 데이터 스트림을 획득하는 단계;
복수의 이더넷 서비스 슬라이스를 획득하도록 제1 이더넷 서비스 데이터 스트림을 슬라이싱하는 단계; 및
복수의 서브-클라이언트 서브-슬롯 페이로드로서 복수의 이더넷 서비스 슬라이스를 베이스 프레임 페이로드 내에 캡슐화하는 단계를 포함한다.
전술한 단계의 특정 구현을 위해, 도 12를 참조하여 방법(100)의 상세한 설명을 참조한다. 상세는 본원에서 설명되지 않는다.
특정 구현에서, 제1 데이터 스트림은 CBR 서비스를 운반하도록 사용된다.
제1 데이터 스트림이 CBR 서비스를 운반하도록 사용될 때, S1601에서의 제1 데이터 스트림을 발생시키는 단계는:
특정 구현에서, 방법(1600)은: 복수 조각의 CBR 서비스 슬라이스 데이터를 획득하도록 제1 CBR 서비스 데이터 스트림을 슬라이싱하는 단계를 포함하고, 제1 CBR 서비스 데이터 스트림은 복수의 CBR 서비스 프레임을 포함하고;
복수의 CBR 서비스 슬라이스를 획득하도록 복수 조각의 CRB 서비스 슬라이스 데이터를 별도로 슬라이싱하고 캡슐화하는 단계를 포함하고, 각각의 CBR 서비스 슬라이스는 CBR 서비스 슬라이스 데이터 및 캡슐화 정보를 포함하고;
복수의 CBR 서비스 슬라이스에 기초하여 복수의 서브-클라이언트 서브-슬롯 페이로드를 획득하는 단계; 및
복수의 서브-클라이언트 서브-슬롯 페이로드를 베이스 프레임 페이로드 내에 캡슐화하는 단계를 포함한다.
특정 구현에서, 각각의 CBR 서비스 슬라이스의 슬라이스 입도는 i 개 비트이고, 복수의 CBR 서비스 프레임의 컨텐츠는 제1 CBR 서비스 데이터 스트림이 슬라이스될 때 식별되지 않고, i 는 정수이다.
특정 구현에서, 각각의 CBR 서비스 슬라이스의 슬라이스 입도는 j 개의 완성 CBR 서비스 프레임이고, j 는 1 보다 크거나 같은 정수이다.
특정 구현에서, CBR 서비스 슬라이스는 CBR 서비스 슬라이스 데이터를 운반하도록 사용되는 제1 필드를 포함한다.
특정 구현에서, 캡슐화 정보는 제2 필드를 포함하고, 제2 필드는 클록 주파수 정보를 운반하도록 사용된다.
특정 구현에서, 캡슐화 정보는 제3 필드를 포함하고, 제3 필드는 동작, 관리 및 유지보수 OAM 정보를 운반하도록 사용된다.
특정 구현에서, 캡슐화 정보는 제4 필드를 포함하고, 제4 필드는 CBR 서비스 슬라이스의 시퀀스 번호를 운반하도록 사용된다.
특정 구현에서, CBR 서비스 슬라이스의 시퀀스 번호는 슬라이스 리어셈블리를 위해 사용된다.
특정 구현에서, 캡슐화 정보는 제5 필드를 포함하고, 제5 필드는 페이로드 길이 정보를 운반하도록 사용되고, 페이로드 길이 정보는 각각의 CBR 서비스 슬라이스에서 운반되는 CBR 서비스 슬라이스 데이터의 유효 길이이다.
특정 구현에서, 캡슐화 정보는 제6 필드를 포함하고, 제6 필드는 패딩 필드이다.
특정 구현에서, 캡슐화 정보는 제7 필드를 포함하고, 제7 필드는 체크 정보를 운반하도록 사용된다.
특정 구현에서, 복수의 CBR 서비스 슬라이스에 기초하여 복수의 서브-클라이언트 서브-슬롯 페이로드를 획득하는 단계는:
제2 데이터 스트림을 획득하도록 복수의 CBR 서비스 슬라이스에 대한 이더넷 패킷 캡슐화를 수행하는 단계를 포함하고, 제2 데이터 스트림은 복수의 코드 블록을 포함하고; 및
복수의 서브-클라이언트 서브-슬롯 페이로드를 획득하도록 각각의 서브-클라이언트 서브-슬롯 페이로드의 길이에 기초하여 제2 데이터 스트림을 슬라이싱하는 단계를 포함한다.
특정 구현에서, 제2 데이터 스트림은 복수의 64b/66b 코드 블록, 복수의 64b/65b 코드 블록 또는 복수의 256b/257b 코드 블록을 포함한다.
특정 구현에서, 제1 데이터 스트림은 OAM 정보를 운반하도록 사용되는 복수의 OAM 코드 블록을 포함한다.
특정 구현에서, 복수의 CBR 서비스 슬라이스에 기초하여 복수의 서브-클라이언트 서브-슬롯 페이로드를 획득하는 단계는:
각각의 CBR 서비스 슬라이스를 서브-클라이언트 서브-슬롯 페이로드로서 직접 사용하는 단계를 포함한다.
특정 구현에서, 제1 데이터 스트림은 복수의 64b/66b 코드 블록, 복수의 64b/65b 코드 블록 또는 복수의 256b/257b 코드 블록을 포함한다.
CBR 서비스 데이터 스트림을 슬라이싱 및 캡슐화하고 복수의 서브-클라이언트 서브-슬롯 페이로드를 획득하는 특정 프로세스를 위해, 도 13 내지 도 15에 대응하는 방법(200), 방법(1400) 및 방법(1500)에서의 관련된 설명에 대한 참조가 이루어질 수 있다. 상세는 본원에서 다시 설명되지 않는다.
특정 구현에서, 방법은: 제2 통신 장치에 의해 송신되는 제1 서브-클라이언트 서브-슬롯 매핑 테이블을 수신하는 단계를 더 포함하고, 제1 서브-클라이언트 서브-슬롯 매핑 테이블은 M 개의 서브-슬롯과 Z 개의 서브-클라이언트 인터페이스 사이의 제1 매핑 관계를 표시하도록 사용되고, 각각의 서브-클라이언트 인터페이스는 M 개의 서브-슬롯 중 적어도 하나에 매핑되고; 및
제1 서브-클라이언트 서브-슬롯 매핑 테이블을 저장하는 단계를 더 포함한다.
특정 구현에서, 제1 서브-클라이언트 서브-슬롯 매핑 테이블은 Z 개의 서브-사용자 식별자인 서브-클라이언트 ID를 M 개의 서브-슬롯 식별자인 서브-슬롯 ID에 매핑함으로써 제1 매핑 관계를 표시하고, Z 개의 서브-클라이언트 ID는 Z 개의 서브-클라이언트 인터페이스를 표시하도록 사용되고, M 개의 서브-슬롯 ID는 M 개의 서브-슬롯을 표시하도록 사용된다.
특정 구현에서, 제2 통신 장치는 제1 통신 장치와 데이터 통신을 수행하는 포워딩 장치 또는 제어 관리 디바이스일 수 있다. 제어 관리 디바이스는 예를 들어, 네트워크 관리 디바이스 또는 제어기일 수 있다. 포워딩 장치는 예를 들어, 라우터, 스위치, 방화벽(firewall), 패킷 전송 네트워크(packet transmission network: PTN) 디바이스 또는 네트워크 디바이스에서의 보드와 같은, 포워딩을 위한 장치일 수 있다.
특정 구현에서, 제1 서브-클라이언트 서브-슬롯 매핑 테이블은 베이스 프레임 오버헤드에서 운반되거나; 제1 서브-클라이언트 서브-슬롯 매핑 테이블은 M 개의 서브-슬롯 중 특정된 서브-슬롯에서 운반된다.
특정 구현에서, 본 출원에서 제공되는 서브-클라이언트 서브-슬롯 매핑 테이블은 서브-슬롯 번호 및 서브-클라이언트 번호를 포함하고, 각각의 서브-클라이언트는 복수의 서브-슬롯에 매핑된다. 전술한 “매핑됨(mapped)”은 또한 구성됨이나 점유됨으로 이해될 수 있다. 다시 말해, 각각의 서브-클라이언트는 복수의 매핑된 서브-슬롯을 사용함으로써 데이터를 송신한다. 동일한 서브-클라이언트 서브-슬롯 매핑 테이블에 기초하여, 통신 중인 전송 엔드(end) 및 수신 엔드가 대응하는 서브-슬롯에서 전송되는 데이터를 송신하고 복원(또는 디매핑(demap))한다.
도 17 및 도 18을 참조하여, 이하에서는 제1 통신 장치에 의해 제1 서브-클라이언트 서브-슬롯 매핑 테이블을 획득하기 위한 방법의 흐름도를 설명하도록 예를 사용한다.
도 17은 본 출원에 따른 제어 관리 디바이스에 기초하여 서브-클라이언트 서브-슬롯 매핑 테이블을 구성하기 위한 방법의 개략도이다. 도 17에 도시된 바와 같이, 통신 중인 수신 엔드 및 전송 엔드 둘 다는 제어 관리 디바이스에 의해 구성된다.
도 18은 본 출원에 따른 데이터 경로에 기초하여 서브-클라이언트 서브-슬롯 매핑 테이블을 구성하기 위한 방법의 개략도이다. 도 17에 도시된 바와 같이, 제어 관리 디바이스는 전송 엔드의 서브-클라이언트 서브-슬롯 매핑 테이블만을 구성하고, 전송 엔드는 데이터 경로를 통해 수신 엔드에 서브-클라이언트 서브-슬롯 매핑 테이블을 전송한다. 서브-클라이언트 서브-슬롯 매핑 테이블은 베이스 프레임 오버헤드에서 정의되는 슬롯 테이블 전송 경로를 사용함으로써 데이터 경로에서 전송될 수 있거나, M 개의 서브-슬롯 중 특정 서브-슬롯이 전송을 위해 특정될 수 있다. FlexE 인터페이스의 경우에, 서브-클라이언트 서브-슬롯 매핑 테이블은 대안적으로 FlexE 오버헤드를 사용함으로써 전송될 수 있다. 데이터 경로에서 서브-클라이언트 서브-슬롯 매핑 테이블을 전송하는 모드는 본 출원에서 구체적으로 제한되지 않는다.
도 17에 대응하는 방법에서, 제1 통신 장치는 전송 엔드 장치일 수 있거나 수신 엔드 장치일 수 있다. 도 18에 대응하는 방법에서, 제1 통신 장치는 수신 엔드 장치로서 사용된다.
특정 구현에서, 제1 서브-클라이언트 인터페이스는 제1 인터페이스의 W 개의 서브-슬롯에 매핑되고, 제1 데이터 스트림을 발생시키는 단계는:
복수의 제1 서브-클라이언트 서브-슬롯 페이로드를 W 개의 서브-슬롯에 각각 매핑하는 단계를 포함하고, W는 1 을 초과하는 정수이다.
특정 구현에서, 복수의 제1 서브-클라이언트 서브-슬롯 페이로드를 W 개의 서브-슬롯에 각각 매핑하는 단계는:
제1 서브-클라이언트 인터페이스와 W 개의 서브-슬롯 사이의 매핑 관계에 기초하여 그리고 제1 인터페이스의 슬롯 스케줄링 주기에 기초하여 W 개의 서브-슬롯을 순차적으로 스케줄링하는 단계를 포함하고, 제1 서브-클라이언트 인터페이스와 W 개의 서브 슬롯 사이의 매핑 관계는 제1 서브-클라이언트 서브-슬롯 매핑 테이블에 기초하여 결정될 수 있다.
특정 구현에서, 제1 통신 장치는 수신 측에서의 제2 서브-클라이언트 인터페이스를 포함하고, 제1 데이터 스트림을 발생시키는 단계는:
제2 서브-클라이언트 인터페이스의 복수의 제2 서브-클라이언트 서브-슬롯 페이로드를 획득하는 단계;
복수의 제1 서브-클라이언트 서브-슬롯 페이로드를 획득하도록 제2 서브-클라이언트 인터페이스와 제1 서브-클라이언트 인터페이스 사이의 서브-슬롯 교차-연결 관계에 기초하여 복수의 제2 서브-클라이언트 서브-슬롯 페이로드를 프로세싱하는 단계; 및
복수의 제1 서브-클라이언트 서브-슬롯 페이로드를 베이스 프레임 페이로드 내에 캡슐화하는 단계를 포함한다.
본 구현에 관한 상세에 대해, 도 20a, 도 20b, 도 20c 내지 도 23a, 도 23b 및 도 23c에서의 중간 슬롯 교차-연결 디바이스(NE 2)의 다음의 상세한 설명을 참조한다.
특정 구현에서, 제2 서브-클라이언트 인터페이스의 복수의 제2 서브-클라이언트 서브-슬롯 페이로드를 획득하는 단계는:
수신 측에서의 제2 인터페이스의 제3 데이터 스트림을 획득하고, 및 제2 서브-클라이언트 서브-슬롯 매핑 테이블에 기초하여 제3 데이터 스트림으로부터 복수의 제2 서브-클라이언트 서브-슬롯 페이로드를 디매핑하는 단계를 포함하고, 제2 인터페이스는 시간 도메인에서 A 개의 서브-슬롯으로 분할되고, 제2 인터페이스는 B 개의 서브-클라이언트 인터페이스로 논리적으로 분할되고, B 개의 서브-클라이언트 인터페이스는 제2 서브-클라이언트 인터페이스를 포함하고, 제2 서브-슬롯 슬롯 테이블은 A 개의 서브-슬롯과 B 개의 서브-클라이언트 인터페이스 사이의 제2 매핑 관계를 표시하도록 사용되고, A 및 B 둘 다는 정수이다.
제3 데이터 스트림은 도 20a, 도 20b, 도 20c 내지 도 23a, 도 23b 및 도 23c에서의 중간 슬롯 교차-연결 디바이스(NE 2)에서의 상위-순서 경로, 즉 클라이언트 인터페이스 또는 이더넷 인터페이스로부터 획득되는 데이터 스트림에 대응한다.
특정 구현에서, 제2 인터페이스는 이더넷 인터페이스이다.
특정 구현에서, 제2 인터페이스는 제2 FlexE 클라이언트 인터페이스이다.
특정 구현에서, 제1 통신 장치는 수신 측에서의 제2 FlexE 인터페이스를 더 포함하고, 제3 데이터 스트림을 획득하는 단계는:
제2 FlexE 인터페이스의 제4 데이터 스트림을 획득하는 단계를 포함하고, 제2 FlexE 인터페이스는 복수의 FlexE 클라이언트 인터페이스로 논리적으로 분할되고, 복수의 FlexE 클라이언트 인터페이스는 제2 FlexE 클라이언트 인터페이스를 포함하고; 및
제2 FlexE 클라이언트 인터페이스와 제2 FlexE 인터페이스 사이의 슬롯 매핑 관계에 기초하여 제4 데이터 스트림으로부터 제3 데이터 스트림을 디매핑하는 단계를 포함하고, 제3 데이터 스트림은 복수의 제2 베이스 프레임을 포함하고, 복수의 제2 베이스 프레임은 복수의 제2 서브-클라이언트 서브-슬롯 페이로드를 포함한다.
제2 FlexE 인터페이스는 예를 들어, 도 20a, 도 20b 및 도 20c, 또는 도 21a, 도 21b 및 도 21c에 도시되는 수신-측 FlexE 인터페이스일 수 있다. 제4 데이터 스트림은 수신-측 FlexE 인터페이스에 의해 획득되는 데이터 스트림이다. 제3 데이터 스트림은 예를 들어, 도 21a, 도 21b 및 도 21c, 또는 도 22a, 도 22b 및 도 22c에 도시되는 상위-순서 경로 클라이언트-1에 대응하는 데이터 스트림일 수 있다.
도 19를 참조하면, 이하에는 본 출원에 제공되는 방법(1600)에서 제1 인터페이스를 사용함으로써 제1 데이터 스트림을 송신하기 위한 특정 방법(1900)을 설명하도록 일 예를 사용한다.
S1901. M 개의 서브-슬롯을 순차적으로 스케줄링한다. 제1 인터페이스(FlexE 클라이언트 인터페이스 또는 공통 ETH 인터페이스)는 FlexE 서브-심 계층을 사용함으로써 전송 엔드에서의 TDM 슬롯 스케줄러를 구성하고 M 개의 서브-슬롯을 순차적으로 스케줄링한다. TDM 슬롯 스케줄러는 주기적 스케줄링을 위한 하나의 슬롯 스케줄링 주기로서, 제1 인터페이스를 분할함으로써 획득되는 M 개의 서브-슬롯을 사용한다.
S1902. 서브-슬롯 스케줄링 시퀀스에 기초하여, 그리고 제1 서브-클라이언트 서브-슬롯 매핑 테이블에 기초하여, 제1 데이터 스트림에 포함되는 복수의 서로 다른 서브-클라이언트 서브-슬롯 페이로드를 대응하는 서브-클라이언트 인터페이스에 대응하는 서브-슬롯에 각각 매핑한다.
S1903. 베이스 프레임 캡슐화를 수행한다. 특정 구현에서, M 개의 서브-슬롯은 X 개의 베이스 프레임에서 균등하게 분배된다. 따라서, 하나의 베이스 프레임은 M/X 개의 서브-슬롯이 스케줄링될 때마다 캡슐화된다. 베이스 프레임 캡슐화의 프로세스를 위해, 전술한 상세한 설명을 참조한다. 상세는 본원에서 다시 설명되지 않는다.
S1904. 제1 인터페이스를 사용함으로써, 복수의 베이스 프레임을 포함하는 제1 데이터 스트림을 송신한다.
전술한 방법(1600)에서, 각각의 서브-클라이언트의 베이스 프레임 오버헤드 및 서브-슬롯 페이로드가 베이스 프레임 페이로드 내에 캡슐화되고, 이더넷 서비스 매핑 동안, 데이터 코드 블록으로서 /D/ 코드 블록 내에 캡슐화되기 때문에, 심지어 표준 FlexE 모드를 지원하지 않는 공통 이더넷 인터페이스는 본 출원에 의해 제공되는 방법을 사용함으로써 인터페이스에서의 대역폭 격리를 구현할 수 있다. 본 출원에 제공되는 방법에 따르면, 베이스 프레임 포맷이 재구축된다. 따라서, 이더넷 인터페이스 또는 플렉서블 이더넷 인터페이스에 관계없이, 다양한 레이트에서의 소형 대역폭이 대형 대역폭에서 더 플렉서블하게 구성될 수 있다. 복수의 플렉서블 대역폭 할당 솔루션은 서로 다른 레이트를 가지는 로우-레이트 서비스를 위해 제공될 수 있다. 이것은 대역폭 활용을 크게 개선시킨다.
방법(1600)에서, 제1 인터페이스는 이더넷 인터페이스 또는 플렉서블 이더넷 인터페이스일 수 있고, 공통 이더넷 서비스를 운반하도록 사용될 수 있거나, CBR 서비스를 운반하도록 사용될 수 있다. 기술적 솔루션의 애플리케이션 시나리오는 광범위하다. 이하에서는 도 20a, 도 20b 및 도 20c 내지 도 23a, 도 23b 및 도 23c를 참조하여 방법(1600)의 애플리케이션 시나리오를 설명하도록 특정 예를 사용한다. 도 20a, 도 20b 및 도 20c는 FlexE 인터페이스에 기초하여 이더넷 서비스를 전송하기 위한 방법의 개략적 흐름도이다. 도 21a, 도 21b 및 도 21c는 FlexE 인터페이스에 기초하여 CBR 서비스를 전송하기 위한 방법의 개략적 흐름도이다. 도 22a, 도 22b 및 도 22c는 이더넷 인터페이스에 기초하여 이더넷 서비스를 전송하기 위한 방법의 개략적 흐름도이다. 도 23a, 도 23b 및 도 23c는 이더넷 인터페이스에 기초하여 CBR 서비스를 전송하기 위한 방법의 개략도이다. 도 20a, 도 20b 및 도 20c 내지 도 23a, 도 23b 및 도 23c에서, 본 출원에서의 제1 통신 장치는 도 20a, 도 20b 및 도 20c 내지 도 24 중 임의의 하나에 도시되는 소스 서비스 액세스 디바이스(NE 1), 중간 슬롯 교차-연결 디바이스(NE 2) 또는 싱크 서비스 송신 디바이스(NE 3)일 수 있다. 대안적으로, 제1 통신 장치는 소스 서비스 액세스 디바이스(NE 1), 중간 슬롯 교차-연결 디바이스(NE 2) 또는 싱크 서비스 송신 디바이스(NE 3)에서의 보드일 수 있고, 도 20a, 도 20b 및 도 20c 내지 도 23a, 도 23b 및 도 23c에 대응하는 방법에서의 하나 이상의 동작을 수행하도록 구성된다.
도 20a, 도 20b 및 도 20c를 참조하여, 이하에서는 FlexE 인터페이스에 기초하여 이더넷 서비스를 전송하기 위한 방법을 간략하게 설명한다. 도 20a, 도 20b 및 도 20c에 도시된 바와 같이, FlexE-기반 통신 네트워크는 3 개 유형의 디바이스를 포함한다: 소스 서비스 액세스 디바이스(NE 1), 중간 슬롯 교차-연결 디바이스(NE 2) 및 싱크 서비스 송신 디바이스(NE 3).
소스 서비스 액세스 디바이스(NE 1): 수신 측은 이더넷 인터페이스이고, 전송 측은 FlexE 포트이다. 수신-측 포트가 이더넷 패킷을 수신한 후에, (VLAN, IP, MPLS 및 SR과 같은) 사이드패킷 계층 서비스 프로세싱을 수신하는 것이 먼저 완료되고; 및 그 후에 서로 다른 서비스 스트림이 이더넷 슬롯 매핑 프로세스에 따라 대응하는 하위-순서 경로(즉, 본 출원에서의 서브-클라이언트 인터페이스는 도 20a, 도 20b 및 도 20c에 도시되는 서브-클라이언트(1-1), ..., 서브-클라이언트(1-m)에 대응함)에 매핑되고, 그 후에 상위-순서 경로(즉, 본 출원에서의 FlexE 클라이언트 인터페이스는 도 20a, 도 20b 및 도 20c에 도시되는 클라이언트(1-1), ..., 클라이언트(1-n)에 대응함)에 로딩되고, 마지막으로 FlexE 인터페이스로부터 송출된다. 전술한 프로세스를 위해, 도 12에 대응하는 방법(100)의 관련된 설명을 참조한다. 먼저, 각각의 서브-클라이언트 서브-슬롯 페이로드가 발생되고; 그 후에 도 19에 대응하는 방법에 기초하여, 그리고 서브-클라이언트 서브-슬롯 매핑 테이블에 기초하여, 각각의 서브-클라이언트 서브-슬롯 페이로드는 TDM 슬롯 스케줄러에 의해 각각의 서브-클라이언트에 대응하는 각각의 서브-슬롯에 매핑된다; 그리고 그 후에 대응하는 베이스 프레임이 캡슐화되고 대응하는 Flex-클라이언트 인터페이스로부터 송출된다. 각각의 Flex-클라이언트 인터페이스와 대응하는 FlexE 인터페이스 사이의 매핑 프로세스는 종래의 구현이고 본원에서 상세하게 설명되지 않는다.
중간 슬롯 교차-연결 디바이스(NE 2): 수신 측 및 전송 측 둘 다는 FlexE 인터페이스이다. 먼저, FlexE 상위-순서 경로(즉, 본 출원에서의 FlexE 클라이언트 인터페이스가 도 20a, 도 20b 및 도 20c에 도시되는 클라이언트(1-1), ..., 클라이언트(1-n)에 대응함)로부터 수신되는 스트림은 서브-클라이언트 서브-슬롯 테이블에 기초하여 상위-순서 경로로부터 하위-순서 경로(즉, 서브-클라이언트 인터페이스가 도 20a, 도 20b 및 도 20c에 도시되는 서브-클라이언트(1-1), ..., 서브-클라이언트(1-m)에 대응함) 슬롯에 디매핑되고; 그 후에 하위-순서 슬롯 교차-연결은 서비스 스트림을 발신하는 하위-순서 경로(즉, 본 출원에서의 서브-클라이언트 인터페이스가 도 20a, 도 20b 및 도 20c에 도시되는 서브-클라이언트(2-1), ..., 서브-클라이언트(2-m)에 대응함)에 교차-연결하도록 수행되고; 및 그 후에 서비스 스트림은 발신하는 하위-순서 경로로부터 상위-순서 경로(즉, 본 출원에서의 FlexE 클라이언트 인터페이스가 도 20a, 도 20b 및 도 20c에 도시되는 클라이언트(2-1), ..., 클라이언트(2-n)에 대응함)에 로딩되고 전송 측 FlexE 인터페이스로부터 송출된다.
NE 2에서, 하위-순서 슬롯 교차-연결은 제1 서브-클라이언트 인터페이스의 복수의 제1 서브-클라이언트 서브-슬롯 페이로드를 획득하고, 그 후에 베이스 프레임 캡슐화를 수행하도록, 수신 측에서의 제2 서브-클라이언트 인터페이스(예를 들어, 도 20a, 도 20b 및 도 20c에서의 NE 2 디바이스에서의 서브-클라이언트(1-1))와 전송 측에서의 제1 서브-클라이언트 인터페이스(예를 들어, 도 20a, 도 20b 및 도 20c에 도시되는 서브-클라이언트(2-1)) 사이의 서브-슬롯 교차-연결 관계에 기초하여 제2 서브-클라이언트 인터페이스에서의 복수의 제2 서브-클라이언트 서브-슬롯 페이로드를 프로세스하는 것이다.
싱크 서비스 송신 디바이스(NE 3): 수신 측은 FlexE 포트이고, 전송 측은 이더넷 인터페이스이다. 먼저, FlexE 상위-순서 경로로부터 수신되는 스트림은 서브-클라이언트 서브-슬롯 매핑 테이블에 기초하여 상위-순서 경로로부터 하위-순서 경로 슬롯에 디매핑되고; 및 그 후에 이더넷 패킷은 이더넷 슬롯 디매핑 프로세스에 따라 복원되고 패킷 계층 서비스 프로세싱이 완료된 후에 전송-측 이더넷 인터페이스로부터 송출된다.
도 21a, 도 21b 및 도 21c를 참조하면, 이하에서는 FlexE 인터페이스에 기초하여 CBR 서비스를 전송하기 위한 방법을 간략하게 설명한다. 도 21a, 도 21b 및 도 21c에 도시되는 바와 같이, FlexE-기반 통신 네트워크는 3 개 유형의 디바이스를 포함한다: 소스 서비스 액세스 디바이스(NE 1), 중간 슬롯 교차-연결 디바이스(NE 2) 및 싱크 서비스 송신 디바이스(NE 3).
소스 서비스 액세스 디바이스(NE 1): 수신 측은 E1/E3/T1/T3/STM-N/FC와 같은 CBR 서비스 인터페이스이고, 전송 측은 FlexE 인터페이스이다. 수신-측 포트가 CBR 서비스 비트 스트림을 수신한 후에, CBR 서비스의 서브-클라이언트 서브-슬롯 페이로드가 도 13, 도 14 및 도 15 중 임의의 하나에서의 방법에 따라 획득되고; 및 그 후에 CBR 서비스의 복수의 획득된 서브-클라이언트 서브-슬롯 페이로드에 대응하는 서로 다른 CBR 서비스 스트림은 각각 대응하는 하위-순서 경로(즉, 본 출원에서의 서브-클라이언트 인터페이스는 도 21a, 도 21b 및 도 21c에 도시되는 서브-클라이언트(1-1), ..., 서브-클라이언트(1-m)에 대응함)에 매핑되고, 그 후에 상위-순서 경로(즉, 본 출원에서의 FlexE 클라이언트 인터페이스는 도 20a, 도 20b 및 도 20c에 도시되는 클라이언트(1-1), ..., 클라이언트(1-n)에 대응함)에 로딩되고, FlexE 인터페이스로부터 송출된다. 구체적으로, 도 19에 대응하는 방법에 기초하여, 그리고 서브-클라이언트 서브-슬롯 매핑 테이블에 기초하여, 각각의 CBR 서비스의 서브-클라이언트 서브-슬롯 페이로드가 TDM 슬롯 스케줄러에 의해 각각의 서브-클라이언트에 대응하는 서브-슬롯에 매핑될 수 있고, 그 후에 대응하는 베이스 프레임이 캡슐화되고 대응하는 Flex-클라이언트 인터페이스로부터 송출된다. 각각의 Flex-클라이언트 인터페이스와 대응하는 FlexE 인터페이스 사이의 매핑 프로세스는 기존의 구현이고 본원에서 상세하게 설명되지 않는다.
중간 슬롯 교차-연결 디바이스: 이것은 도 20a, 도 20b 및 도 20c에 도시되는 중간 슬롯 교차-연결 디바이스와 동일하다. 상세는 본원에서 설명되지 않는다.
싱크 서비스 송신 디바이스: 수신 측은 FlexE 인터페이스이고, 전송 측은 1/E3/T1/T3/STM-N/FC와 같은 CBR 서비스 인터페이스이다. FlexE 상위-순서 경로로부터 수신되는 서비스 스트림은 슬롯 테이블에 기초하여 상위-순서 경로로부터 하위-순서 경로 슬롯에 디매핑되고, 및 그 후에 CBR 서비스 비트 스트림은 CBR 슬롯 디매핑 프로세스에 따라 복원되고 전송-측 CBR 서비스 인터페이스로부터 송출된다.
FlexE 인터페이스가 CBR 서비스를 전송할 때, CBR 서비스의 슬라이싱, 캡슐화 및 베이스 프레임 캡슐화의 프로세스에 대해, 전술한 관련된 설명을 참조한다. 상세는 본원에서 다시 설명되지 않는다.
도 22a, 도 22b 및 도 22c를 참조하여, 이하에서는 이더넷 인터페이스에 기초하여 이더넷 서비스를 전송하기 위한 방법을 간략하게 설명한다.
도 22a, 도 22b 및 도 22c에서, FlexE-기반 통신 네트워크는 3 개 유형의 디바이스를 포함한다: 소스 서비스 액세스 디바이스(NE 1), 중간 슬롯 교차-연결 디바이스(NE 2) 및 싱크 서비스 송신 디바이스(NE 3).
도 22a, 도 22b 및 도 22c는 주로 네트워크-측 인터페이스가 FlexE 인터페이스라기 보다는 공통 이더넷 인터페이스라는 점에서 도 20a, 도 20b 및 도 20c와 서로 다르다.
소스 서비스 액세스 디바이스(NE 1): 수신 측은 이더넷 인터페이스이고, 전송 측은 이더넷 인터페이스이다. 수신-측 포트가 이더넷 패킷을 수신한 후에, (VLAN, IP, MPLS 및 SR와 같은) 패킷 계층 서비스 프로세싱이 먼저 완료되고, 도 12에 대응하는 방법에 따라 복수의 서브-클라이언트 서브-슬롯 페이로드가 획득된다. 그 후에 도 19에 도시되는 방법에 기초하여, 그리고 서브-클라이언트 서브-슬롯 매핑 테이블에 기초하여, 복수의 서브-클라이언트 서브-슬롯 페이로드가 슬롯에 매핑된다. 베이스 프레임이 캡슐화된 후에, 베이스 프레임은 대응하는 이더넷 인터페이스로부터 송출된다.
중간 슬롯 교차-연결 디바이스(NE 2): 수신 측 및 전송 측 둘 다는 이더넷 인터페이스이다. 먼저, 이더넷 인터페이스로부터의 스트림이 서브-클라이언트 서브-슬롯 테이블에 기초하여 하위-순서 경로(즉, 본 출원에서의 서브-클라이언트 인터페이스: 도 22a, 도 22b 및 도 22c에서의 서브-클라이언트(1-1), ..., 서브-클라이언트(1-m)) 슬롯에 디매핑되고; 그리고 그 후에 서비스 스트림을 발신하는 하위-순서 경로(즉, 본 출원에서의 서브-클라이언트 인터페이스: 도 22a, 도 22b 및 도 22c에 도시되는 서브-클라이언트(2-1), ..., 서브-클라이언트(2-m))에 교차-연결하도록 하위-순서 슬롯 교차-연결이 수행된다. 그 후에 도 19에 도시되는 방법에 기초하여, 그리고 서브-클라이언트 서브-슬롯 매핑 테이블에 기초하여, 복수의 서브-클라이언트 서브-슬롯 페이로드가 슬롯에 매핑된다. 베이스 프레임이 캡슐화된 후에, 베이스 프레임은 대응하는 이더넷 인터페이스로부터 송출된다.
NE 2에서, 하위-순서 슬롯 교차-연결은 제1 서브-클라이언트 인터페이스의 복수의 제1 서브-클라이언트 서브-슬롯 페이로드를 획득하고, 그 후에 베이스 프레임 캡슐화를 수행하도록, 수신 측에서의 제2 서브-클라이언트 인터페이스(예를 들어, 도 22a, 도 22b 및 도 22c에서의 NE 2 디바이스에서의 서브-클라이언트(1-1))와 전송 측에서의 제1 서브-클라이언트 인터페이스(예를 들어, 도 22a, 도 22b 및 도 22c에 도시된 서브-클라이언트(2-1)) 사이의 서브-슬롯 교차-연결 관계에 기초하여 제2 서브-클라이언트 인터페이스에서의 복수의 제2 서브-클라이언트 서브-슬롯 페이로드를 프로세스하는 것이다.
소스 서비스 송신 디바이스(NE 3): 수신 측은 이더넷 인터페이스이고, 전송 측은 이더넷 인터페이스이다. 먼저, 수신-측 이더넷 인터페이스로부터 수신되는 서비스 스트림은 서브-클라이언트 서브-슬롯 매핑 테이블에 기초하여 하위-순서 경로 슬롯에 디매핑되고; 그리고 그 후에 이더넷 패킷은 이더넷 슬롯 디매핑 프로세스에 따라 복원되고 패킷 계층 서비스 프로세싱이 완료된 후에 전송-측 이더넷 인터페이스로부터 송출된다.
도 23a, 도 23b 및 도 23c를 참조하여, 이하에서는 이더넷 인터페이스에 기초하여 CBR 서비스를 전송하기 위한 방법을 간략하게 설명한다.
도 23a, 도 23b 및 도 23c에서, FlexE-기반 통신 네트워크는 3 개 유형의 디바이스를 포함한다: 소스 서비스 액세스 디바이스(NE 1), 중간 슬롯 교차-연결 디바이스(NE 2) 및 싱크 서비스 송신 디바이스(NE 3).
소스 서비스 액세스 디바이스: 수신 측은 E1/E3/T1/T3/STM-N/FC와 같은 CBR 서비스 인터페이스이고, 전송 측은 이더넷 인터페이스이다. 수신-측 포트가 CBR 서비스 비트 스트림을 수신한 후에, CBR 서비스의 서브-클라이언트 서브-슬롯 페이로드가 도 13, 도 14 및 도 15 중 임의의 하나에서의 방법에 따라 획득되고; 그리고 그 후에 CBR 서비스의 복수의 획득된 서브-클라이언트 서브-슬롯 페이로드에 대응하는 서로 다른 CBR 서비스 스트림은 각각 대응하는 하위-순서 경로(즉, 본 출원에서의 서브-클라이언트 인터페이스: 도 23a, 도 23b 및 도 23c에 도시되는 서브-클라이언트(1-1), ..., 서브-클라이언트(1-m))에 각각 매핑된다. 도 19에 도시되는 방법에 기초하여, 그리고 서브-클라이언트 서브-슬롯 매핑 테이블에 기초하여, 복수의 서브-클라이언트 서브-슬롯 페이로드가 슬롯에 매핑된다. 베이스 프레임이 캡슐화된 후에, 베이스 프레임은 대응하는 이더넷 인터페이스로부터 송출된다.
중간 슬롯 교차-연결 디바이스: 이것은 도 22a, 도 22b 및 도 22c에 도시되는 중간 슬롯 교차-연결 디바이스와 동일하다. 상세는 본원에서 설명되지 않는다.
싱크 서비스 송신 디바이스: 수신 측은 플렉서블 이더넷 인터페이스이고, 전송 측은 1/E3/T1/T3/STM-N/FC와 같은 CBR 서비스 인터페이스이다. 먼저, 수신-측 이더넷 인터페이스로부터의 서비스 스트림은 서브-클라이언트 서브-슬롯 매핑 테이블에 기초하여 하위-순서 경로 슬롯에 디매핑되고; 그리고 그 후에 CBR 서비스 비트 스트림은 CBR 슬롯 디매핑 프로세스에 따라 복원되고 완료 후에 전송-측 CBR 서비스 인터페이스로부터 송출된다.
도 24를 참조하여, 이하에서는 본 출원의 본 실시예에 제공되는 통신 장치(700)를 설명한다. 통신 장치(700)는 도 3에 도시되는 네트워크 아키텍처에 적용될 수 있다. 예를 들어, 통신 장치(700)는 예를 들어, 본 출원에서의 네트워크 디바이스(1)(TX) 또는 네트워크 디바이스(2)(RX)일 수 있거나, 통신 장치(700)는 본 출원에서의 제1 통신 장치 또는 제2 통신 장치일 수 있다. 본 출원에서의 제1 통신 장치 및 제2 통신 장치는 집적(integral) 네트워크 디바이스일 수 있거나, 인터페이스 보드, 라인 카드, 더미 보드(dummy board) 또는 중앙 교차-연결 보드와 같은 네트워크 디바이스(1)에서의 보드일 수 있다. 대안적으로, 통신 장치(800)는 본 출원에서의 제어 관리 디바이스일 수 있고 제어 관리 디바이스에 의해 수행되는 다양한 동작을 수행한다. 통신 장치(700)는 도 6 내지 도 23a, 도 23b 및 도 23c 중 임의의 하나에 대응하는 실시예에서의 방법을 수행하도록 구성된다. 통신 장치(700)는 트랜시버 유닛(701) 및 프로세싱 유닛(702)을 포함한다. 트랜시버 유닛(701)은 송신 및 수신 동작을 수행하도록 구성되고, 프로세싱 유닛은 송신 및 수신과는 다른 동작을 수행하도록 구성된다. 예를 들어, 제1 통신 장치로서 통신 장치(700)가 도 16에 도시되는 방법(1600)을 수행할 때, 프로세싱 유닛(702)은 제1 데이터 스트림을 발생시키도록 구성되고, 트랜시버 유닛(701)은 제1 데이터 스트림을 송신하도록 구성될 수 있다.
도 25를 참조하여, 이하에서는 본 출원의 본 실시예에 제공되는 다른 통신 장치(800)를 설명한다. 통신 장치(800)는 도 3에 도시되는 네트워크 아키텍처에 적용될 수 있다. 예를 들어, 통신 장치(800)는 예를 들어, 본 출원에서의 네트워크 디바이스(1)(TX) 또는 네트워크 디바이스(2)(RX)일 수 있거나, 통신 장치(800)는 본 출원에서의 제1 통신 장치 또는 제2 통신 장치일 수 있다. 대안적으로, 통신 장치(800)는 본 출원에서의 제어 관리 디바이스일 수 있고 제어 관리 디바이스에 의해 수행되는 다양한 동작을 수행한다. 본 출원에서의 제1 통신 장치 및 제2 통신 장치는 집적 네트워크 디바이스일 수 있거나, 인터페이스 보드, 라인 카드, 더미 보드 또는 중앙 교차-연결 보드와 같은 네트워크 디바이스(1)에서의 보드일 수 있다. 통신 장치(800)는 도 6 내지 도 23a, 도 23b 및 도 23c 중 임의의 하나에 대응하는 실시예에서의 방법을 수행하도록 구성된다. 네트워크 장치(800)는 통신 인터페이스(801) 및 통신 인터페이스에 연결되는 프로세서(802)를 포함한다. 통신 인터페이스(801)는 송신 및 수신 동작을 수행하도록 구성되고, 프로세서(802)는 송신 및 수신과는 다른 동작을 수행하도록 구성된다. 예를 들어, 제1 통신 장치로서 통신 장치(800)가 도 16에 도시되는 방법(1600)을 수행할 때, 프로세싱 유닛(802)은 제1 데이터 스트림을 발생시키도록 구성되고, 통신 인터페이스(801)는 제1 데이터 스트림을 송신하도록 구성될 수 있다.
도 26을 참조하여, 이하에서는 본 출원의 본 실시예에 제공되는 다른 통신 장치(900)를 설명한다. 통신 장치(900)는 도 3에 도시되는 네트워크 아키텍처에 적용될 수 있다. 예를 들어, 통신 장치(900)는 예를 들어, 본 출원에서의 네트워크 디바이스(1)(TX) 또는 네트워크 디바이스(2)(RX)일 수 있거나, 통신 장치(900)는 본 출원에서의 제1 통신 장치 또는 제2 통신 장치일 수 있다. 대안적으로, 통신 장치(900)는 본 출원에서의 제어 관리 디바이스일 수 있고 제어 관리 디바이스에 의해 수행되는 다양한 동작을 수행한다. 본 출원에서의 제1 통신 장치 및 제2 통신 장치는 집적 네트워크 디바이스일 수 있거나, 인터페이스 보드, 라인 카드, 더미 보드 또는 중앙 교차-연결 보드와 같은 네트워크 디바이스(1)에서의 보드일 수 있다. 통신 장치(900)는 도 6 내지 도 23a, 도 23b 및 도 23c 중 임의의 하나에 대응하는 실시예에서의 방법을 수행하도록 구성된다. 통신 장치(900)는 메모리(901) 및 메모리에 연결되는 프로세서(902)를 포함한다. 메모리(901)는 명령을 저장하고, 프로세서(902)는 명령을 판독하므로, 통신 장치(900)는 도 6 내지 도 23a, 도 23b 및 도 23c 중 임의의 하나에 대응하는 실시예에서의 방법을 수행한다.
도 27을 참조하여, 이하에서는 본 출원의 본 실시예에 제공되는 다른 통신 장치(1000)를 설명한다. 통신 장치(800)는 도 3에 도시되는 네트워크 아키텍처에 적용될 수 있다. 예를 들어, 통신 장치(800)는 예를 들어, 본 출원에서의 네트워크 디바이스(1)(TX) 또는 네트워크 디바이스(2)(RX)일 수 있거나, 통신 장치(1000)는 본 출원에서의 제1 통신 장치 또는 제2 통신 장치일 수 있다. 대안적으로, 통신 장치(1000)는 본 출원에서의 제어 관리 디바이스일 수 있고 제어 관리 디바이스에 의해 수행되는 다양한 동작을 수행한다. 본 출원에서의 제1 통신 장치 및 제2 통신 장치는 집적 네트워크 디바이스일 수 있거나, 인터페이스 보드, 라인 카드, 더미 보드 또는 중앙 교차-연결 보드와 같은 네트워크 디바이스(1)에서의 보드일 수 있다. 통신 장치(800)는 도 6 내지 도 23a, 도 23b 및 도 23c 중 임의의 하나에 대응하는 실시예에서의 방법을 수행하도록 구성된다. 도 27에 도시된 바와 같이, 통신 장치(1000)는 프로세서(1010), 프로세서에 커플링되는 메모리(1020) 및 통신 인터페이스(1030)를 포함한다. 특정 구현에서, 메모리(1020)는 컴퓨터-판독가능한 명령을 저장하고, 컴퓨터-판독가능한 명령은 복수의 소프트웨어 모듈, 예를 들어, 송신 모듈(1021), 프로세싱 모듈(1022) 및 수신 모듈(1023)을 포함한다. 프로세서(1010)가 각각의 소프트웨어 모듈을 실행한 후에, 프로세서(1010)는 소프트웨어 모듈의 명령에 따라 대응하는 동작을 수행할 수 있다. 본 실시예에서, 소프트웨어 모듈에 의해 수행되는 동작은 실제로 소프트웨어 모듈의 명령에 따라 프로세서(1010)에 의해 수행되는 동작이다. 예를 들어, 제1 통신 장치로서 네트워크 장치(1000)가 도 16에 도시되는 방법을 수행할 때, 송신 모듈(1021)은 제1 데이터 스트림을 송신하도록 구성되고, 프로세싱 모듈(1022)은 제1 데이터 스트림을 발생시키도록 구성된다. 추가로, 메모리(1020)에서의 컴퓨터-판독가능한 명령을 실행한 후에, 프로세서(1010)는 컴퓨터-판독가능한 명령에 의해 명령된 바와 같이, 본 출원에서의 제1 통신 장치에 의해 수행될 수 있는 모든 동작을 수행할 수 있다. 예를 들어, 통신 장치(1000)가 제1 통신 장치로서 사용될 때, 통신 장치(1000)는 도 6 내지 도 23a, 도 23b 및 도 23c 중 임의의 하나에 대응하는 실시예에서의 제1 통신 장치에 의해 수행되는 방법을 수행할 수 있다.
본 출원에 언급되는 프로세서는 중앙 프로세싱 유닛(영어: central processing unit, 줄여서 CPU), 네트워크 프로세서(영어: network processor, 줄여서 NP) 또는 CPU와 NP의 조합일 수 있다. 대안적으로, 프로세서는 응용 주문형 집적 회로(영어: application-specific integrated circuit, 줄여서 ASIC), 프로그램가능한 논리 디바이스(영어: programmable logic device, 줄여서 PLD) 또는 그 조합일 수 있다. PLD는 복합 프로그램가능한 논리 디바이스(영어: complex programmable logic device, 줄여서 CPLD), 필드-프로그램가능한 게이트 어레이(영어: 필드-프로그램가능한 게이트 어레이, 줄여서 FPGA), 일반 어레이 논리(영어: generic array logic, 줄여서 GAL) 또는 그 임의의 조합일 수 있다. 프로세서(1010)는 하나의 프로세서일 수 있거나 복수의 프로세서를 포함할 수 있다. 본 출원에 언급되는 메모리는 휘발성 메모리(영어: volatile memory), 예를 들어 랜덤 액세스 메모리(영어: random-access memory, 줄여서 RAM)를 포함할 수 있다. 대안적으로, 메모리는 비-휘발성 메모리(영어: non-volatile memory), 예를 들어 판독-전용 메모리(영어: read-only memory, ROM 줄여서), 플래시 메모리(영어: flash memory), 하드 디스크 드라이브(영어: hard disk drive, 줄여서 HDD) 또는 고체-상태 드라이브(영어: solid-state drive, 줄여서 SSD)를 포함할 수 있다. 메모리는 전술한 유형의 메모리의 조합을 더 포함할 수 있다. 메모리는 하나의 메모리일 수 있거나 복수의 메모리를 포함할 수 있다.
본 출원의 실시예는 제1 통신 장치 및 제2 통신 장치를 포함하는 통신 시스템을 더 제공하고, 제1 통신 장치 또는 제2 통신 장치는 도 24 내지 도 27 중 임의의 하나에서의 통신 장치일 수 있고, 도 6 내지 도 23a, 도 23b 및 도 23c에 대응하는 실시예 중 임의의 하나에서의 방법을 수행하도록 구성된다. 통신 시스템은 본 출원에서의 제어 관리 디바이스를 더 포함할 수 있다.
본 출원은 컴퓨터 프로그램을 포함하는 컴퓨터 프로그램 물건을 더 제공한다. 컴퓨터가 컴퓨터 프로그램을 실행할 때, 컴퓨터는 도 6 내지 도 23a, 도 23b 및 도 23c에 대응하는 실시예 중 임의의 하나에서의 제1 통신 장치, 제2 통신 장치 또는 제어 관리 디바이스에 의해 수행되는 방법을 수행하도록 가능해진다.
본 출원은 컴퓨터 프로그램을 포함하는 컴퓨터 프로그램 물건을 더 제공한다. 컴퓨터가 컴퓨터 프로그램을 실행할 때, 컴퓨터는 도 6 내지 도 23a, 도 23b 및 도 23c에 대응하는 실시예 중 임의의 하나에서의 제1 통신 장치, 제2 통신 장치 또는 제어 관리 디바이스에 의해 수행되는 방법을 수행하도록 가능하다.
본 출원은 컴퓨터 명령을 포함하는 컴퓨터-판독가능한 매체를 제공한다. 컴퓨터가 컴퓨터 명령을 실행할 때, 컴퓨터는 도 6 내지 도 23a, 도 23b 및 도 23c에 대응하는 실시예 중 임의의 하나에서의 제1 통신 장치, 제2 통신 장치 또는 제어 관리 디바이스에 의해 수행되는 방법을 수행하도록 가능해진다.
당업자는 본 명세서에 개시되는 실시예에 설명되는 예와 조합하여 모듈 및 방법 동작이 전자 하드웨어 또는 컴퓨터 소프트웨어 및 전자 하드웨어의 조합에 의해 구현될 수 있는 것을 인식할 수 있다. 기능이 하드웨어로 수행되는지 소프트웨어로 수행되는지 여부는 기술 솔루션의 특정 애플리케이션 및 설계 제약 조건에 의존한다. 당업자는 각각의 특정 애플리케이션을 위해 서로 다른 방법을 사용함으로써 설명된 기능을 구현할 수 있다.
전술한 시스템, 장치 및 모듈의 상세한 작업 프로세스에 대해, 편의상 간략한 설명의 목적으로, 전술한 방법 실시예에서의 대응하는 프로세스를 참조하는 것이 당업자에 의해 명확하게 이해될 수 있고, 상세는 본원에서 다시 설명되지 않는다.
전술한 실시예의 전부 또는 일부는 소프트웨어, 하드웨어, 펌웨어 또는 이들의 조합을 사용함으로써 구현될 수 있다. 특정 구현 프로세스에서 소프트웨어가 사용될 때, 소프트웨어의 전부 또는 일부는 컴퓨터 프로그램 물건의 형태로 구체화될 수 있다. 컴퓨터 프로그램 물건은 하나 이상의 컴퓨터 명령을 포함한다. 컴퓨터 프로그램 명령이 컴퓨터에서 로딩되고 실행될 때, 본 출원의 실시예에 따른 절차 또는 기능은 전부 또는 부분적으로 발생된다. 컴퓨터는 범용(general-purpose) 컴퓨터, 전용(dedicated) 컴퓨터, 컴퓨터 네트워크 또는 다른 프로그램가능한 장치일 수 있다. 컴퓨터 명령은 컴퓨터-판독가능한 스토리지 매체에 저장될 수 있거나 컴퓨터-판독가능한 스토리지 매체로부터 다른 컴퓨터-판독가능한 스토리지 매체에 전송될 수 있다. 예를 들어, 컴퓨터 명령은 웹사이트, 컴퓨터, 서버 또는 데이터 센터로부터 유선(예를 들어, 동축 케이블, 광 섬유 또는 디지털 가입자 라인(digital subscriber line: DSL)) 또는 무선(예를 들어, 적외선, 라디오 또는 마이크로웨이브) 방식에서의 다른 웹사이트, 컴퓨터, 서버 또는 데이터 센터에 전송될 수 있다. 컴퓨터-판독가능한 스토리지 매체는 컴퓨터에 의해 액세스가능한 임의의 사용가능한 매체이거나 데이터 스토리지 디바이스일 수 있는데, 예를 들어 하나 이상의 사용가능한 매체를 통합하는 데이터 센터 또는 서버일 수 있다. 이용가능한 매체는 자기 매체(예를 들어, 플로피 디스크(floppy disk), 하드 디스크(hard disk) 또는 자기 테이프(magnetic tape), 광학 매체(optical medium)(예를 들어, DVD), 반도체 매체(예를 들어, 고체-상태 드라이브 Solid-State Drive(SSD))일 수 있다.
본 명세서에서의 실시예는 모두 점진적인 방식으로 설명되며, 실시예에서의 동일하거나 유사한 부분에 대해서는 이들 실시예를 참조하고, 각각의 실시예는 다른 실시예와의 차이점에 중점을 둔다. 특히, 장치 및 시스템 실시예는 기본적으로 방법 실시예와 유사하고, 따라서 간략하게 설명한다; 관련 부분에 대해서는 방법 실시예에서의 부분 설명을 참조한다.

Claims (49)

  1. 제1 통신 장치(communications apparatus)에 의해 구현되는 데이터 전송(data transmission) 방법으로서, 상기 방법은:
    제1 데이터 스트림(data stream)을 발생시키는(generating) 단계를 포함하고, 상기 제1 데이터 스트림은 복수의 데이터 코드 블록(code blocks)을 포함하고,
    상기 복수의 데이터 코드 블록은 복수의 제1 베이스 프레임(base frames)을 포함하고, 각각의 제1 베이스 프레임은 베이스 프레임 페이로드(payload)를 포함하고, 상기 베이스 프레임 페이로드는 베이스 프레임 오버헤드(overhead) 및 복수의 서브-클라이언트 서브-슬롯 페이로드(sub-client sub-slot payloads)를 포함하고, 상기 복수의 서브-클라이언트 서브-슬롯 페이로드는 복수의 제1 서브-클라이언트 서브-슬롯 페이로드를 포함하고, 상기 복수의 제1 서브-클라이언트 서브-슬롯 페이로드는 제1 서브-클라이언트 인터페이스(interface)의 서비스 데이터(service data)를 포함하고; 및
    제1 인터페이스를 사용함으로써 상기 제1 데이터 스트림을 송신하는 단계를 포함하는, 데이터 전송 방법.
  2. 제1항에 있어서,
    상기 제1 인터페이스는 Z 개의 서브-클라이언트 인터페이스로 논리적으로 분할되고, 상기 Z 개의 서브-클라이언트 인터페이스는 상기 제1 서브-클라이언트 인터페이스를 포함하고, Z 는 1 을 초과하는 정수인 것인, 데이터 전송 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 제1 인터페이스는 FlexE 클라이언트 인터페이스인 것인, 데이터 전송 방법.
  4. 제1항 또는 제2항에 있어서,
    상기 제1 인터페이스는 이더넷 인터페이스인 것인, 데이터 전송 방법.
  5. 제1항 또는 제2항에 있어서,
    상기 제1 인터페이스는 제1 FlexE 클라이언트 인터페이스이고, 상기 제1 통신 장치는 전송 측에서의 제1 FlexE 인터페이스를 더 포함하고, 제1 인터페이스를 사용함으로써 상기 제1 데이터 스트림을 송신하는 단계는:
    상기 제1 FlexE 클라이언트 인터페이스와 상기 제1 FlexE 인터페이스 사이의 슬롯 매핑 관계(slot mapping relationship)에 기초하여 상기 제1 FlexE 인터페이스를 사용함으로써 상기 제1 데이터 스트림을 송신하는 단계를 포함하고, 상기 제1 FlexE 인터페이스는 복수의 FlexE 클라이언트 인터페이스로 논리적으로 분할되고, 상기 복수의 FlexE 클라이언트 인터페이스는 상기 제1 FlexE 클라이언트 인터페이스를 포함하는 것인, 데이터 전송 방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    각각의 제1 베이스 프레임은 제1 코드 블록 및 제2 코드 블록을 더 포함하고, 상기 제1 코드 블록은 상기 제1 베이스 프레임의 프레임 헤더(frame header)를 표시하도록 사용되고, 상기 제2 코드 블록은 상기 제1 베이스 프레임의 프레임 트레일러(frame trailer)를 표시하도록 사용되는 것인, 데이터 전송 방법.
  7. 제6항에 있어서,
    상기 제1 코드 블록은 S 코드 블록이고, 상기 제2 코드 블록은 T 코드 블록인 것인, 데이터 전송 방법.
  8. 제6항 또는 제7항에 있어서,
    상기 제1 코드 블록은 제1 표시 필드(indication field) 및 제1 데이터 필드(data field)를 포함하고, 상기 제1 표시 필드는 상기 프레임 헤더를 표시하도록 사용되고, 상기 제1 데이터 필드는 상기 베이스 프레임 페이로드의 일부 데이터를 운반하도록 사용되는 것인, 데이터 전송 방법.
  9. 제6항 내지 제8항 중 어느 한 항에 있어서,
    상기 제2 코드 블록은 제2 표시 필드 및 제2 데이터 필드를 포함하고, 상기 제2 표시 필드는 상기 프레임 트레일러를 표시하도록 사용되고, 상기 제2 데이터 필드는 상기 베이스 프레임 페이로드의 일부 데이터를 운반하도록 사용되는 것인, 데이터 전송 방법.
  10. 제6항 내지 제9항 중 어느 한 항에 있어서,
    상기 제1 코드 블록 및 상기 제2 코드 블록의 포맷은 IEEE 802.3 표준에 정의되는 코드 블록 포맷에 따르는 것인, 데이터 전송 방법.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서,
    상기 베이스 프레임 오버헤드는 다음의 정보:
    상기 베이스 프레임의 시퀀스 번호(sequence number);
    서브-클라이언트 서브-슬롯 매핑 테이블(sub-client sub-slot mapping table);
    슬롯 조정 요청 정보(slot adjustment request information);
    슬롯 조정 응답 정보(slot adjustment response information);
    슬롯 유효성 표시 정보(slot effectiveness indication information);
    관리 채널 정보(management channel information); 및
    베이스 프레임 오버헤드 체크 정보(base frame overhead check information) 중 하나 이상을 포함하는 것인, 데이터 전송 방법.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서,
    상기 제1 인터페이스는 시간 도메인(time domain)에서 M 개의 서브-슬롯으로 분할되고, 상기 M 개의 서브-슬롯의 각각의 슬롯 대역폭은 P 이고, P 는 5 기가비트/s Gbp/s 미만이고, M 은 1 을 초과하는 정수인 것인, 데이터 전송 방법.
  13. 제12항에 있어서,
    상기 M 개의 서브-슬롯은 X 개의 제1 베이스 프레임에서 균등하게 분배되고, 하나의 베이스 프레임은 M/X 개의 서브-슬롯이 스케줄링될(scheduled) 때마다 캡슐화되고(encapsulated), 각각의 베이스 프레임 페이로드는 M/X 개의 서브-클라이언트 서브-슬롯 페이로드를 포함하고, X 는 1 을 초과하는 정수인 것인, 데이터 전송 방법.
  14. 제1항 내지 제13항 중 어느 한 항에 있어서,
    상기 제1 인터페이스의 전송 레이트(transmission rate)는 N Gbp/s이고, N 은 1 보다 크거나 같은 것인, 데이터 전송 방법.
  15. 제12항 또는 제13항에 있어서,
    상기 방법은:
    제2 통신 장치에 의해 송신되는 제1 서브-클라이언트 서브-슬롯 매핑 테이블(mapping table)을 수신하는 단계를 더 포함하고, 상기 제1 서브-클라이언트 서브-슬롯 매핑 테이블은 상기 M 개의 서브-슬롯과 상기 Z 개의 서브-클라이언트 인터페이스 사이의 제1 매핑 관계를 표시하도록 사용되고, 각각의 서브-클라이언트 인터페이스는 상기 M 개의 서브-슬롯 중 적어도 하나에 매핑되고; 및
    상기 제1 서브-클라이언트 서브-슬롯 매핑 테이블을 저장하는(saving) 단계를 더 포함하는, 데이터 전송 방법.
  16. 제15항에 있어서,
    상기 제1 서브-클라이언트 서브-슬롯 매핑 테이블은 Z 개의 서브-사용자 식별자(sub-user identifiers)인 서브-클라이언트 ID를 M 개의 서브-슬롯 식별자(sub-slot identifiers)인 서브-슬롯 ID에 매핑함으로써 상기 제1 매핑 관계를 표시하고, 상기 Z 개의 서브-클라이언트 ID는 상기 Z 개의 서브-클라이언트 인터페이스를 표시하도록 사용되고, 상기 M 개의 서브-슬롯 ID는 상기 M 개의 서브-슬롯을 표시하도록 사용되는 것인, 데이터 전송 방법.
  17. 제15항 또는 제16항에 있어서,
    상기 제2 통신 장치는 제어 관리 디바이스(control management device)인 것인, 데이터 전송 방법.
  18. 제15항 또는 제16항에 있어서,
    상기 제2 통신 장치는 포워딩 장치(forwarding apparatus)인 것인, 데이터 전송 방법.
  19. 제15항 내지 제18항 중 어느 한 항에 있어서,
    상기 제1 서브-클라이언트 서브-슬롯 매핑 테이블은 상기 베이스 프레임 오버헤드에서 운반되거나; 상기 제1 서브-클라이언트 서브-슬롯 매핑 테이블은 상기 M 개의 서브-슬롯 중 특정된(specified) 서브-슬롯에서 운반되는 것인, 데이터 전송 방법.
  20. 제1항 내지 제19항 중 어느 한 항에 있어서,
    상기 제1 데이터 스트림은 이더넷 서비스를 운반하도록 사용되는 것인, 데이터 전송 방법.
  21. 제20항에 있어서,
    상기 제1 데이터 스트림을 발생시키는 단계는:
    물리적 코딩 서브계층(physical coding sublayer)인 PCS로부터 제1 이더넷 서비스 데이터 스트림을 획득하는 단계;
    복수의 이더넷 서비스 슬라이스(slices)를 획득하도록 상기 제1 이더넷 서비스 데이터 스트림을 슬라이싱(slicing)하는 단계; 및
    상기 복수의 서브-클라이언트 서브-슬롯 페이로드로서 상기 복수의 이더넷 서비스 슬라이스를 상기 베이스 프레임 페이로드 내에 캡슐화하는 단계를 포함하는 것인, 데이터 전송 방법.
  22. 제21항에 있어서,
    상기 제1 이더넷 서비스 데이터 스트림은 복수의 64B/66B 코드 블록, 복수의 64B/65B 코드 블록 또는 복수의 256B/257B 코드 블록을 포함하는 것인, 데이터 전송 방법.
  23. 제1항 내지 제19항 중 어느 한 항에 있어서,
    상기 제1 데이터 스트림은 고정 비트 레이트(constant bit rate)인 CBR 서비스를 운반하도록 사용되는 것인, 데이터 전송 방법.
  24. 제23항에 있어서,
    상기 제1 데이터 스트림을 발생시키는 단계는:
    복수 조각(pieces)의 CBR 서비스 슬라이스 데이터를 획득하도록 제1 CBR 서비스 데이터 스트림을 슬라이싱하는 단계를 포함하고, 상기 제1 CBR 서비스 데이터 스트림은 복수의 CBR 서비스 프레임을 포함하고;
    복수의 CBR 서비스 슬라이스를 획득하도록 상기 복수 조각의 CRB 서비스 슬라이스 데이터를 별도로 슬라이싱하고 캡슐화하는 단계를 포함하고, 각각의 CBR 서비스 슬라이스는 상기 CBR 서비스 슬라이스 데이터 및 캡슐화 정보를 포함하고;
    상기 복수의 CBR 서비스 슬라이스에 기초하여 상기 복수의 서브-클라이언트 서브-슬롯 페이로드를 획득하는 단계; 및
    상기 복수의 서브-클라이언트 서브-슬롯 페이로드를 베이스 프레임 페이로드 내에 캡슐화하는 단계를 포함하는, 데이터 전송 방법.
  25. 제24항에 있어서,
    각각의 CBR 서비스 슬라이스의 슬라이스 입도(slice granularity)는 i 개 비트이고, 상기 복수의 CBR 서비스 프레임의 컨텐츠(content)는 상기 제1 CBR 서비스 데이터 스트림이 슬라이스될 때 식별되지 않고, i 는 정수인 것인, 데이터 전송 방법.
  26. 제24항에 있어서,
    각각의 CBR 서비스 슬라이스의 슬라이스 입도는 j 개의 완성 CBR 서비스 프레임이고, j 는 1 보다 크거나 같은 정수인 것인, 데이터 전송 방법.
  27. 제24항 내지 제26항 중 어느 한 항에 있어서,
    상기 CBR 서비스 슬라이스는 상기 CBR 서비스 슬라이스 데이터를 운반하도록 사용되는 제1 필드를 포함하는 것인, 데이터 전송 방법.
  28. 제24항 내지 제27항 중 어느 한 항에 있어서,
    상기 캡슐화 정보는 제2 필드를 포함하고, 상기 제2 필드가 클록 주파수 정보(clock frequency information)를 운반하도록 사용되는 것인, 데이터 전송 방법.
  29. 제24항 내지 제28항 중 어느 한 항에 있어서,
    상기 캡슐화 정보는 제3 필드를 포함하고, 상기 제3 필드는 동작(operation), 관리(administration) 및 유지보수(maintenance) OAM 정보를 운반하도록 사용되는 것인, 데이터 전송 방법.
  30. 제24항 내지 제29항 중 어느 한 항에 있어서,
    상기 캡슐화 정보는 제4 필드를 포함하고, 상기 제4 필드는 상기 CBR 서비스 슬라이스의 시퀀스 번호를 운반하도록 사용되는 것인, 데이터 전송 방법.
  31. 제30항에 있어서,
    상기 CBR 서비스 슬라이스의 시퀀스 번호는 슬라이스 리어셈블리(slice reassembly)를 위해 사용되는 것인, 데이터 전송 방법.
  32. 제24항 내지 제31항 중 어느 한 항에 있어서,
    상기 캡슐화 정보는 제5 필드를 포함하고, 상기 제5 필드는 페이로드 길이 정보를 운반하도록 사용되고, 상기 페이로드 길이 정보는 각각의 CBR 서비스 슬라이스에서 운반되는 CBR 서비스 슬라이스 데이터의 유효 길이(effective length)인 것인, 데이터 전송 방법.
  33. 제24항 내지 제32항 중 어느 한 항에 있어서,
    상기 캡슐화 정보는 제6 필드를 포함하고, 상기 제6 필드는 패딩 필드(padding field)인 것인, 데이터 전송 방법.
  34. 제24항 내지 제33항 중 어느 한 항에 있어서,
    상기 캡슐화 정보는 제7 필드를 포함하고, 상기 제7 필드는 체크 정보(check information)를 운반하도록 사용되는 것인, 데이터 전송 방법.
  35. 제24항 내지 제34항 중 어느 한 항에 있어서,
    상기 복수의 CBR 서비스 슬라이스에 기초하여 상기 복수의 서브-클라이언트 서브-슬롯 페이로드를 획득하는 단계는:
    제2 데이터 스트림을 획득하도록 상기 복수의 CBR 서비스 슬라이스에 대한 이더넷 패킷 캡슐화를 수행하는 단계를 포함하고, 상기 제2 데이터 스트림은 복수의 코드 블록을 포함하고; 및
    상기 복수의 서브-클라이언트 서브-슬롯 페이로드를 획득하도록 각각의 서브-클라이언트 서브-슬롯 페이로드의 길이에 기초하여 상기 제2 데이터 스트림을 슬라이싱하는 단계를 포함하는 것인, 데이터 전송 방법.
  36. 제35항에 있어서,
    상기 제2 데이터 스트림은 복수의 64B/66B 코드 블록, 복수의 64B/65B 코드 블록 또는 복수의 256B/257B 코드 블록을 포함하는 것인, 데이터 전송 방법.
  37. 제35항 또는 제36항에 있어서,
    상기 제1 데이터 스트림은 OAM 정보를 운반하도록 사용되는 복수의 OAM 코드 블록을 포함하는 것인, 데이터 전송 방법.
  38. 제24항 내지 제34항 중 어느 한 항에 있어서,
    상기 복수의 CBR 서비스 슬라이스에 기초하여 상기 복수의 서브-클라이언트 서브-슬롯 페이로드를 획득하는 단계는:
    각각의 CBR 서비스 슬라이스를 서브-클라이언트 서브-슬롯 페이로드로서 직접 사용하는 단계를 포함하는 것인, 데이터 전송 방법.
  39. 제1항 내지 제38항 중 어느 한 항에 있어서,
    상기 제1 데이터 스트림은 복수의 64B/66B 코드 블록, 복수의 64B/65B 코드 블록 또는 복수의 256B/257B 코드 블록을 포함하는 것인, 데이터 전송 방법.
  40. 제1항 내지 제39항 중 어느 한 항에 있어서,
    상기 제1 서브-클라이언트 인터페이스는 상기 제1 인터페이스의 W 개의 서브-슬롯에 매핑되고, 상기 제1 데이터 스트림을 발생시키는 단계는:
    상기 복수의 제1 서브-클라이언트 서브-슬롯 페이로드를 상기 W 개의 서브-슬롯에 각각 매핑하는 단계를 포함하고, W 는 1 을 초과하는 정수인 것인, 데이터 전송 방법.
  41. 제40항에 있어서,
    상기 복수의 제1 서브-클라이언트 서브-슬롯 페이로드를 상기 W 개의 서브-슬롯에 각각 매핑하는 단계는:
    상기 제1 서브-클라이언트 인터페이스와 상기 W 개의 서브-슬롯 사이의 매핑 관계에 기초하여 그리고 상기 제1 인터페이스의 슬롯 스케줄링 주기에 기초하여 상기 W 개의 서브-슬롯을 순차적으로 스케줄링하는 단계를 포함하는 것인, 데이터 전송 방법.
  42. 제1항 내지 제41항 중 어느 한 항에 있어서,
    상기 제1 통신 장치는 수신 측에서의 제2 서브-클라이언트 인터페이스를 포함하고, 상기 제1 데이터 스트림을 발생시키는 단계는:
    상기 제2 서브-클라이언트 인터페이스의 복수의 제2 서브-클라이언트 서브-슬롯 페이로드를 획득하는 단계;
    상기 복수의 제1 서브-클라이언트 서브-슬롯 페이로드를 획득하도록 상기 제2 서브-클라이언트 인터페이스와 상기 제1 서브-클라이언트 인터페이스 사이의 서브-슬롯 교차-연결 관계(sub-slot cross-connection relationship)에 기초하여 상기 복수의 제2 서브-클라이언트 서브-슬롯 페이로드를 프로세싱하는 단계; 및
    상기 복수의 제1 서브-클라이언트 서브-슬롯 페이로드를 상기 베이스 프레임 페이로드 내에 캡슐화하는 단계를 포함하는 것인, 데이터 전송 방법.
  43. 제42항에 있어서, 상기 제2 서브-클라이언트 인터페이스의 복수의 제2 서브-클라이언트 서브-슬롯 페이로드를 획득하는 단계는:
    상기 수신 측에서의 제2 인터페이스의 제3 데이터 스트림을 획득하고, 및 제2 서브-클라이언트 서브-슬롯 매핑 테이블에 기초하여 상기 제3 데이터 스트림으로부터 상기 복수의 제2 서브-클라이언트 서브-슬롯 페이로드를 디매핑(demapping)하는 단계를 포함하고, 상기 제2 인터페이스는 시간 도메인에서 A 개의 서브-슬롯으로 분할되고, 상기 제2 인터페이스는 B 개의 서브-클라이언트 인터페이스로 논리적으로 분할되고, 상기 B 개의 서브-클라이언트 인터페이스는 상기 제2 서브-클라이언트 인터페이스를 포함하고, 상기 제2 서브-슬롯 슬롯 테이블은 상기 A 개의 서브-슬롯과 상기 B 개의 서브-클라이언트 인터페이스 사이의 제2 매핑 관계를 표시하도록 사용되고, A 및 B 둘 다는 1 을 초과하는 정수인 것인, 데이터 전송 방법.
  44. 제43항에 있어서,
    상기 제2 인터페이스는 이더넷 인터페이스인 것인, 데이터 전송 방법.
  45. 제43항 또는 제44항에 있어서,
    상기 제2 인터페이스는 제2 FlexE 클라이언트 인터페이스인 것인, 데이터 전송 방법.
  46. 제45항에 있어서,
    상기 제1 통신 장치는 상기 수신 측에서의 제2 FlexE 인터페이스를 더 포함하고, 상기 제3 데이터 스트림을 발생시키는 단계는:
    상기 제2 FlexE 인터페이스의 제4 데이터 스트림을 획득하는 단계를 포함하고, 상기 제2 FlexE 인터페이스는 복수의 FlexE 클라이언트 인터페이스로 논리적으로 분할되고, 상기 복수의 FlexE 클라이언트 인터페이스는 상기 제2 FlexE 클라이언트 인터페이스를 포함하고; 및
    상기 제2 FlexE 클라이언트 인터페이스와 상기 제2 FlexE 인터페이스 사이의 슬롯 매핑 관계에 기초하여 상기 제4 데이터 스트림으로부터 상기 제3 데이터 스트림을 디매핑하는 단계를 포함하고, 상기 제3 데이터 스트림은 복수의 제2 베이스 프레임을 포함하고, 상기 복수의 제2 베이스 프레임은 상기 복수의 제2 서브-클라이언트 서브-슬롯 페이로드를 포함하는 것인, 데이터 전송 방법.
  47. 제1 통신 장치로서,
    명령(instructions)을 저장하는 메모리(memory); 및
    상기 메모리에 연결되는 프로세서(processor)를 포함하고, 상기 프로세서가 명령을 실행할 때, 상기 제1 통신 장치는 제1항 내지 제46항 중 어느 한 항에 따른 방법을 수행하도록 가능해지는 것인, 제1 통신 장치.
  48. 프로그램(program) 또는 명령(instructions)을 포함하는 컴퓨터-판독가능한 스토리지 매체(computer-readable storage medium)로서, 컴퓨터가 상기 프로그램 또는 명령을 실행할 때, 상기 컴퓨터는 제1항 내지 제46항 중 어느 한 항에 따른 방법을 수행하도록 가능해지는 것인, 컴퓨터-판독가능한 스토리지 매체.
  49. 통신 시스템으로서, 제47항에 따른 상기 제1 통신 장치 및 제2 통신 장치를 포함하고, 제1항 내지 제46항 중 어느 한 항에 따른 방법을 수행하도록 구성되는, 통신 시스템.
KR1020237005664A 2020-07-25 2021-07-12 데이터 전송 방법 및 디바이스 KR20230041057A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CN202010726636.X 2020-07-25
CN202010726636 2020-07-25
CN202010761609.6 2020-07-31
CN202010761609.6A CN113972997A (zh) 2020-07-25 2020-07-31 一种传输数据的方法和设备
PCT/CN2021/105642 WO2022022263A1 (zh) 2020-07-25 2021-07-12 一种传输数据的方法和设备

Publications (1)

Publication Number Publication Date
KR20230041057A true KR20230041057A (ko) 2023-03-23

Family

ID=79585014

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237005664A KR20230041057A (ko) 2020-07-25 2021-07-12 데이터 전송 방법 및 디바이스

Country Status (9)

Country Link
US (1) US20230155756A1 (ko)
EP (1) EP4178297A4 (ko)
JP (1) JP2023535750A (ko)
KR (1) KR20230041057A (ko)
CN (1) CN113972997A (ko)
BR (1) BR112023001387A2 (ko)
CA (1) CA3187237A1 (ko)
MX (1) MX2023001056A (ko)
WO (1) WO2022022263A1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109728948B (zh) * 2018-12-26 2022-05-13 苏州盛科通信股份有限公司 一种运营维护管理信息处理方法和装置
CN116566542A (zh) * 2022-01-29 2023-08-08 中兴通讯股份有限公司 业务数据承载方法、承载帧结构及业务处理设备
CN114584258B (zh) * 2022-02-15 2023-05-26 烽火通信科技股份有限公司 业务时延降低方法、装置、设备及可读存储介质
CN116996418A (zh) * 2022-04-26 2023-11-03 华为技术有限公司 报文的处理方法及装置
CN117354159A (zh) * 2022-06-28 2024-01-05 中兴通讯股份有限公司 切片方法、业务处理方法、通信节点及存储介质
CN117439702A (zh) * 2022-07-15 2024-01-23 中兴通讯股份有限公司 数据传输方法及装置、电子设备、计算机可读介质
CN115276905B (zh) * 2022-07-22 2024-02-13 南京南瑞信息通信科技有限公司 一种基于FlexE传输系统的小带宽业务传输方法
CN117640527A (zh) * 2022-08-09 2024-03-01 华为技术有限公司 通信方法、相关装置及计算机可读存储介质
CN115065439B (zh) * 2022-08-16 2022-11-11 中国信息通信研究院 一种spn网络恒定比特率业务传送方法和设备
CN115499085B (zh) * 2022-11-17 2023-04-07 之江实验室 一种灵活以太网小颗粒时隙分配方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108632886B (zh) * 2017-03-21 2020-11-06 华为技术有限公司 一种业务处理方法及装置
CN109818704B (zh) * 2017-11-21 2020-05-19 华为技术有限公司 数据传输方法和设备
CN115150020A (zh) * 2017-12-22 2022-10-04 瑞典爱立信有限公司 用于配置Flex以太网节点的方法和设备
EP3737110A4 (en) * 2018-02-09 2021-01-13 Huawei Technologies Co., Ltd. PROCESS AND DEVICE FOR PROCESSING SERVICE DATA IN AN OPTICAL TRANSPORT NETWORK
CN111107641B (zh) * 2019-12-11 2023-11-07 Ut斯达康通讯有限公司 FlexE业务处理方法、装置及电子设备

Also Published As

Publication number Publication date
MX2023001056A (es) 2023-02-16
EP4178297A4 (en) 2024-01-03
WO2022022263A1 (zh) 2022-02-03
BR112023001387A2 (pt) 2023-04-04
US20230155756A1 (en) 2023-05-18
EP4178297A1 (en) 2023-05-10
CA3187237A1 (en) 2022-02-03
CN113972997A (zh) 2022-01-25
JP2023535750A (ja) 2023-08-21

Similar Documents

Publication Publication Date Title
EP4178297A1 (en) Data transmission method, and device
CN109600188B (zh) 数据传输方法、传输设备和传输系统
US11316545B2 (en) Data transmission method, communications device, and storage medium
WO2018090856A1 (zh) 用于建立灵活以太网群组的方法和设备
KR102383297B1 (ko) 서비스 주파수를 투명하게 전송하기 위한 방법 및 디바이스
CN113452623B (zh) 基于FlexE传输业务流的方法及设备
WO2011057545A1 (zh) 传输多路业务的方法和装置
EP3716641A1 (en) Data transport method, device and system
KR20200103070A (ko) 데이터 송신 방법, 통신 디바이스, 및 저장 매체
US11412508B2 (en) Data transmission method and device
EP4117237A1 (en) Service flow adjustment method and communication device
WO2023109424A1 (zh) 一种数据传输的方法以及相关装置
US20230412446A1 (en) Method for Determining Transmission Slot and Related Apparatus
US11451420B2 (en) Data transmission method, communications device, and storage medium
WO2021073406A1 (zh) 一种业务数据的传输方法、相关设备以及数字处理芯片
CN115811388A (zh) 一种通信方法、相关装置以及存储介质
CN113472826A (zh) 一种业务承载、提取方法、数据交换方法及设备
CN113824660B (zh) 一种码流的透传方法和路由器
US20230396353A1 (en) Communication Method and Device, and Chip System
WO2023071249A1 (zh) 一种时隙协商方法及装置
WO2020114084A1 (zh) 一种报文转发方法和装置
CN117579220A (zh) 一种故障码块处理方法及装置
CN118054891A (zh) 时隙调整方法、通信装置及计算机可读存储介质
CN115603879A (zh) 一种数据传输方法及装置
CN118055076A (zh) 一种报文处理方法、信息处理方法及装置

Legal Events

Date Code Title Description
A201 Request for examination