KR102240140B1 - 전송 레이트 조정 방법 및 네트워크 장치 - Google Patents

전송 레이트 조정 방법 및 네트워크 장치 Download PDF

Info

Publication number
KR102240140B1
KR102240140B1 KR1020197016328A KR20197016328A KR102240140B1 KR 102240140 B1 KR102240140 B1 KR 102240140B1 KR 1020197016328 A KR1020197016328 A KR 1020197016328A KR 20197016328 A KR20197016328 A KR 20197016328A KR 102240140 B1 KR102240140 B1 KR 102240140B1
Authority
KR
South Korea
Prior art keywords
bandwidth
network device
adjustment
idle
padding
Prior art date
Application number
KR1020197016328A
Other languages
English (en)
Other versions
KR20190073569A (ko
Inventor
치웬 종
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20190073569A publication Critical patent/KR20190073569A/ko
Application granted granted Critical
Publication of KR102240140B1 publication Critical patent/KR102240140B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/0001Systems modifying transmission characteristics according to link quality, e.g. power backoff
    • H04L1/0002Systems modifying transmission characteristics according to link quality, e.g. power backoff by adapting the transmission rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J3/00Time-division multiplex systems
    • H04J3/02Details
    • H04J3/06Synchronising arrangements
    • H04J3/07Synchronising arrangements using pulse stuffing for systems with different or fluctuating information rates or bit rates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J3/00Time-division multiplex systems
    • H04J3/16Time-division multiplex systems in which the time allocation to individual channels within a transmission cycle is variable, e.g. to accommodate varying complexity of signals, to vary number of channels transmitted
    • H04J3/1605Fixed allocated frame structures
    • H04J3/1652Optical Transport Network [OTN]
    • H04J3/1658Optical Transport Network [OTN] carrying packets or ATM cells
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/0001Systems modifying transmission characteristics according to link quality, e.g. power backoff
    • H04L1/0006Systems modifying transmission characteristics according to link quality, e.g. power backoff by adapting the transmission format
    • H04L1/0007Systems modifying transmission characteristics according to link quality, e.g. power backoff by adapting the transmission format by modifying the frame length
    • H04L1/0008Systems modifying transmission characteristics according to link quality, e.g. power backoff by adapting the transmission format by modifying the frame length by supplementing frame payload, e.g. with padding bits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0056Systems characterized by the type of code used
    • H04L1/0071Use of interleaving
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/46Interconnection of networks
    • H04L12/4633Interconnection of networks using encapsulation techniques, e.g. tunneling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L27/00Modulated-carrier systems
    • H04L27/26Systems using multi-frequency codes
    • H04L27/2601Multicarrier modulation systems
    • H04L27/2647Arrangements specific to the receiver only
    • H04L27/2655Synchronisation arrangements
    • H04L27/2666Acquisition of further OFDM parameters, e.g. bandwidth, subcarrier spacing, or guard interval length
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0896Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/74Admission control; Resource allocation measures in reaction to resource unavailability
    • H04L47/748Negotiation of resources, e.g. modification of a request
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/16Central resource management; Negotiation of resources or communication parameters, e.g. negotiating bandwidth or QoS [Quality of Service]
    • H04W28/18Negotiating wireless communication parameters
    • H04W28/20Negotiating bandwidth
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J2203/00Aspects of optical multiplex systems other than those covered by H04J14/05 and H04J14/07
    • H04J2203/0001Provisions for broadband connections in integrated services digital network using frames of the Optical Transport Network [OTN] or using synchronous transfer mode [STM], e.g. SONET, SDH
    • H04J2203/0073Services, e.g. multimedia, GOS, QOS
    • H04J2203/0082Interaction of SDH with non-ATM protocols
    • H04J2203/0085Support of Ethernet

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Small-Scale Networks (AREA)
  • Communication Control (AREA)

Abstract

본 발명의 실시예는, 서비스가 노드의 업스트림 및 다운스트림 전송 채널에서의 서비스의 전송 레이트들 사이의 차이를 구성하고, 네트워크 노드 데이터 버퍼, 네트워크 노드 처리 지연 및 서비스 전송 지연이 감소될 수 있도록, 네트워크 노드의 업스트림 및 다운스트림 인터페이스 상의 전송 채널에서의 서비스의 전송 레이트에 대한 신속한 조정을 지원하기 위해, 전송 레이트 조정 방법 및 네트워크 장치를 개시한다. 본 발명의 실시예에서의 방법은, 네트워크 장치에 의해, 타깃 데이터 스트림을 획득하는 단계 ― 타깃 데이터 스트림은 제1 데이터 패킷을 포함하고, 제1 데이터 패킷은 적어도 2개의 비 유휴 유닛을 포함함 ―; 및 네트워크 장치에 의해, 네트워크 장치의 업스트림 및 다운스트림 인터페이스 상의 서비스의 전송 채널의 대역폭들 사이의 차이에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 삭제하는 단계 ― 패딩 유닛은 네트워크 장치의 업스트림 전송 채널의 대역폭과 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―를 포함한다.

Description

전송 레이트 조정 방법 및 네트워크 장치
본 발명은 통신 기술 분야에 관한 것으로, 구체적으로는 전송 레이트(transmission rate) 조정 방법 및 네트워크 장치에 관한 것이다.
삭제
플렉시블 이더넷(flexible Ethernet, FlexE)에서, 동기식 디지털 계층 구조 또는 광 전송 네트워크(SDH/OTN) 기술과 관련하여, FlexE 프레임 포맷이 플렉시블 이더넷 링크 그룹 FlexE 그룹 내의 각 물리적 인터페이스 상의 정보 전송을 위해 구성되고, 시간 분할 다중화(TDM) 시간슬롯 분할이 수행된다. SDH/OTN 바이트 인터리빙(byte interleaving)과 달리, FlexE의 TDM 시간슬롯 분할 입도(granularity)는 66 비트이며, 시간슬롯들 사이의 인터리빙은 66 비트 간격으로 수행된다. 예를 들어, 100-GE 물리 인터페이스의 경우, FlexE 프레임은 8개의 행을 포함하고, 각 행의 첫 번째 66b개의 블록의 위치는 FlexE 오버헤드 영역이며, 시간슬롯 분할을 위한 페이로드 영역은 오버 헤드 영역을 따른다. FlexE 프레임은 64/66b 비트 블록을 입도로 사용하고, 20×1023 64/66b 비트 블록 베어러 공간에 대응하며, 20개의 시간슬롯으로 분할된다. 각 시간슬롯의 대역폭은 약 5 Gbps (대략 100-GE 인터페이스의 대역폭을 20으로 나눈 값)이며, 명목상 레이트는 5 Gbps 미만이다.
FlexE 프레임은 물리 인터페이스의 부하(load) 용량을 사용하여 전송된다. 따라서, FlexE 서비스 시간슬롯의 실제 레이트는 물리 인터페이스의 레이트 특성에 의해 제약을 받는다. 예를 들어, 100-GE 물리 인터페이스의 인코딩되는 레이트는 66/64×100 Gbps = 103.125 Gbps이고, 100-GE 물리 인터페이스의 물리 인터페이스 레이트 편차는 +/-100 ppm이다. 이 경우, 실제 레이트는 103.125 Gbps+/-100 ppm이다. 다중 채널 정렬 코드 블록(1/16384)의 대역폭은 또한 기존의 다중 채널 병렬 100-GE 이더넷 인터페이스의 대역폭에서 제거될 필요가 있다. 따라서, 100G FlexE 프레임의 비트 레이트는 (16383/16384)×(66/64)×100Gbps+/-100 ppm이며, 100G FlexE 프레임의 페이로드 영역의 전체 레이트는 ((1023×20)/(1023×20+1))×(16383/16384)×(66/64)×100 Gbps+/-100 ppm이다. 각 시간슬롯의 레이트는 ((1023×1)/(1023×20+1))×(16383/16384)×(66/64)×100 Gbps+/-100 ppm이며, 이것은 (66/64)×5 Gbps와 다르다.
FlexE에서, 몇몇 물리 인터페이스는 플렉시블 이더넷 링크 그룹인 FlexE 그룹을 형성하기 위해 캐스케이드되고(cascaded) 번들링되도록(bundled) 허용되고, FlexE 그룹의 모든 시간슬롯은 몇몇의 이더넷 서비스를 제공하기 위한 몇몇의 전송 채널을 형성하기 위해 결합될 수 있다. 예를 들어, 2개의 시간슬롯은 10-GE 서비스를 제공하기 위한 하나의 전송 채널을 형성하도록 결합되고, 5개의 시간슬롯은 25-GE 서비스를 제공하기 위한 하나의 전송 채널을 형성하도록 결합되며, 30개의 시간슬롯은 150-GE 서비스를 제공하기 위한 하나의 전송 채널을 형성하도록 결합된다. 전송 채널을 통해 전달되는 서비스는 특정의 순차적으로 전송된 66b 코드 블록이다. 66b 코드 블록은 이더넷 MAC 데이터 스트림이 인코딩된 후에 생성된 원본의 64/66b 코드 블록 스트림과 일치한다. 50-GE 서비스와 같은 서비스의 전형적인 인코딩되는 레이트는 (66/64)×50 Gbps+/-100 ppm이다. 유휴 추가(idle addition) 또는 삭제(deletion)는 플렉시블 이더넷 링크 그룹인 FlexE 그룹에서 10개의 시간슬롯을 결합함으로써 형성된 전송 채널의 전송 레이트에 대한 구성(adapt)을 구현하기 위해 수행될 필요가 있다. 유휴 추가 또는 삭제는 주로 이더넷 그룹과 유휴(idle) 바이트에 대응하는 64/66b 코드 블록(8개의 유휴(idle) 바이트)의 수량 사이의 바이트의 수량을 조정한다.
기존의 IEEE 802.3 유휴 조정 메커니즘에서, 데이터 패킷에 대응하는 데이터 바이트 사이에는 유휴 바이트가 존재하도록 허용되지 않으며, 인코딩된 데이터 코드 블록들 사이에는 유휴 코드 블록이 존재하도록 허용되지 않는다. 이 경우, 시스템은, 노드의 업스트림 베어러 전송 채널에서의 서비스 레이트와 노드의 다운스트림 베어러 전송 채널에서의 서비스 레이트 사이에 비교적 큰 차이가 존재하는 경우를 구성하기 위해, 데이터 패킷 또는 데이터 패킷에 대응하는 수량의 64/66b 코드 블록을 버퍼링할 필요가 있다. 서비스 레이트 조정 및 구성을 구현하기 위해, FlexE는 IEEE 802.3 유휴 조정 메커니즘을 직접 사용한다. 예를 들어, 네트워크 노드의 업스트림 및 다운 스트림 FlexE 인터페이스 상의 서비스의 베어러 전송 채널의 시간슬롯의 대역폭 및 수량이 조정되고/증가된다. 업스트림 데이터 입력 레이트와 다운 스트림 데이터 출력 레이트 사이에 큰 차이가 존재하는 경우, 상당한 데이터 버퍼(buffer)가 사용될 필요가 있다. 결과적으로, 장치 복잡성 및 전송 지연(delay)이 증가된다. 현재, 이러한 유휴 추가 또는 삭제 레이트 조정 메커니즘은 서비스로부터 ODUflex로의 매핑 및 구성을 구현하기 위해 또한 OTN에도 적용된다. 이 경우, 서비스 레이트 조정 및 구성을 구현하고 서비스를 ODUflex에 매핑하기 위해, OTN은 또한 IEEE 802.3 유휴 조정 메커니즘을 직접 사용한다. 그러나, 베어러 전송 채널로서 작용하는 ODUflex의 대역폭을 서서히 조정하기 위한 메커니즘만이 서비스가 무손실임을 보장하기 위해 사용될 수 있다.
본 발명의 실시예는, 서비스의 업스트림 및 다운스트림 전송 채널의 레이트들 사이의 차이의 상이한 경우, 특히 서비스의 종단 간 전송 대역폭에 대해 신속한 조정이 수행되는 경우 업스트림 및 다운스트림 전송 채널의 레이트들 사이에 비교적 큰 차이가 있는 경우를 구성하기 위해, 서비스 데이터 스트림의 업스트림 및 다운스트림 번송 채널의 레이트들 사이의 차이에 기초하여 네트워크 노드에 대한 효율적인 유휴 추가 또는 삭제 기반의 레이트 조정을 수행하도록. 전송 레이트 조정 방법을 제공한다. 또한, 네트워크 노드 데이터 버퍼, 네트워크 노드 처리 지연 및 종단 간 서비스 전송 지연이 감소된다.
본 발명의 실시예의 제1 측면은 전송 레이트 조정 방법을 제공하며, 네트워크 장치에 의해, 타깃 데이터 스트림을 획득하는 단계 ― 상기 타깃 데이터 스트림은 제1 데이터 패킷을 포함하고, 상기 제1 데이터 패킷은 적어도 2개의 비 유휴 유닛(non-idle unit)을 포함함 ―; 및 대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 패딩 유닛을 삭제하는 단계 ― 상기 패딩 유닛은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―를 포함하고, 상기 대역폭들의 차이는 수행해야 하는 대역폭 조정의 값이다. 본 발명의 실시예에서, 상기 패딩 유닛은 비 유휴 유닛들 사이에 삽입되어 신속한 단계적 전송 레이트 조정을 구현할 수 있다.
본 발명의 실시예의 제1 측면을 참조한, 본 발명의 실시예의 제1 측면의 제1 구현예에서, 상기 네트워크 장치에 의해, 타깃 데이터 스트림을 획득하는 단계 후에, 상기 전송 레이트 조정 방법은, 대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 상기 대역폭 조정 값에 기초하여 상기 제1 데이터 패킷과 상기 제1 데이터 패킷의 인접 데이터 패킷 사이에 상기 패딩 유닛을 삽입하거나 또는 상기 제1 데이터 패킷과 상기 제1 데이터 패킷의 인접 데이터 패킷 사이에서 상기 패딩 유닛을 삭제하는 단계를 더 포함하며, 상기 패딩 유닛은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용되고, 상기 대역폭들 사이의 차이는 수행될 필요가 있는 대역폭 조정의 값이며, 상기 패딩 유닛은 신속한 단계식 전송 레이트 조정을 구현하기 위해 데이터 패킷들 사이에 삽입된다.
본 발명의 실시예의 제1 측면을 참조한, 본 발명의 실시예의 제1 측면의 제2 구현예에서, 수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 패딩 유닛을 삭제하는 단계는, 수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 미리 설정된 패딩 코드 블록을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 미리 설정된 패딩 코드 블록을 삭제하는 단계 ― 상기 미리 설정된 패딩 코드 블록은 코드 블록 유형 필드에 의해 지시되고, 상기 미리 설정된 패딩 코드 블록은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―를 포함하며, 상기 대역폭들 사이의 차이는 수행될 필요가 있는 대역폭 조정의 값이다. 본 발명의 실시예에서 구체적으로 설명된 바와 같이, 삽입되거나 또는 삭제된 패딩 유닛은 상기 미리 설정된 패딩 코드 블록이며, 본 발명의 실시예의 실현 가능성을 증가시킨다.
본 발명의 실시예의 제1 측면을 참조한, 본 발명의 실시예의 제1 측면의 제3 구현예에서, 수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 미리 설정된 패딩 코드 블록을 삭제하는 단계는, 수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 전형적인 유휴 코드 블록을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 전형적인 유휴 코드 블록을 삭제하는 단계 ― 상기 전형적인 유휴 코드 블록은 코드 블록 유형 필드에 의해 지시되고, 상기 전형적인 유휴 코드 블록은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―을 포함하며, 본 발명의 실시예에서 구체적으로 설명된 바와 같이, 삽입되거나 또는 삭제된 패딩 유닛은 상기 전형적인 유휴 코드 블록이며, 본 발명의 실시예의 실현 가능성을 증가시킨다.
본 발명의 실시예의 제1 측면 내지 제1 측면의 제3 구현예 중 어느 하나를 참조한, 본 발명의 실시예의 제1 측면의 제4 구현예에서, 상기 네트워크 장치에 의해, 타깃 데이터 스트림을 획득하는 단계 후에, 상기 전송 레이트 조정 방법은, 레이트 구성에 필요한 레이트 차이에 기초하여 상기 타깃 데이터 스트림 내에 패딩 유닛을 삽입하거나 또는 상기 타깃 데이터 스트림에서 패딩 유닛을 삭제하는 단계 ― 삽입되거나 또는 삭제되는 상기 패딩 유닛은 레이트 구성을 수행하는 데 사용되고, 상기 레이트 구성을 위한 레이트 차이는 대역폭들 사이의 차이보다 작음 ―를 더 포함하며, 삽입되거나 또는 삭제된 패딩 유닛은 속도 구성을 수행하는 데 사용된다. 본 발명의 실시예에서 설명된 바와 같이, 본 발명의 실시예에서의 레이트 조정 방식이 보다 다양해질 수 있도록, 패딩 유닛이 전송 레이트에 대한 약간의 조정 중에 삽입되거나 삭제된다.
본 발명의 실시예의 제1 측면 내지 제1 측면의 제3 구현예 중 어느 하나를 참조한, 본 발명의 실시예의 제1 측면의 제5 구현예에서, 상기 네트워크 장치에 의해, 타깃 데이터 스트림을 획득하는 단계 후에, 상기 전송 레이트 조정 방법은, 상기 패딩 유닛을 삭제하고, 다음의 네트워크 장치 또는 사용자 장치에게 상기 삭제 이후에 남아 있는 데이터 유닛을 전송하는 단계를 더 포함한다. 본 발명의 실시예에서 설명된 바와 같이, 모든 패딩 유닛들과 유휴 유닛들은 삭제되고, 데이터 유닛 만이 다음의 장치로 전송되며, 본 발명의 실시예의 실현 가능성 및 조작성을 증가시킨다.
본 발명의 실시예의 제2 측면은 네트워크 장치를 제공하며, 타깃 데이터 스트림을 획득하도록 구성된 획득 유닛 ― 상기 타깃 데이터 스트림은 제1 데이터 패킷을 포함하고, 상기 제1 데이터 패킷은 적어도 2개의 비 유휴 유닛(non-idle unit)을 포함함 ―; 및 대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 패딩 유닛을 삭제하도록 구성된 제1 조정 유닛 ― 상기 패딩 유닛은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―을 포함한다. 본 발명의 실시예에서, 상기 패딩 유닛은 신속한 단계식 전송 레이트 조정을 구현하기 위해 비 유휴 유닛들 사이에 삽입된다.
본 발명의 실시예의 제2 측면을 참조한, 본 발명의 실시예의 제2 측면의 제1 구현예에서, 상기 네트워크 장치는, 대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 상기 대역폭 조정 값에 기초하여 상기 제1 데이터 패킷과 상기 제1 데이터 패킷의 인접 데이터 패킷 사이에 상기 패딩 유닛을 삽입하거나 또는 상기 제1 데이터 패킷과 상기 제1 데이터 패킷의 인접 데이터 패킷 사이에서 상기 패딩 유닛을 삭제하도록 구성된 제2 조정 유닛을 더 포함한다. 본 발명의 실시예에서, 상기 패딩 유닛은 신속한 단계식 전송 레이트 조정을 구현하기 위해 데이터 패킷들 사이에 삽입된다.
본 발명의 실시예의 제2 측면을 참조한, 본 발명의 실시예의 제2 측면의 제2 구현예에서, 상기 제1 조정 유닛은, 수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 미리 설정된 패딩 코드 블록을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 미리 설정된 패딩 코드 블록을 삭제하도록 구성된 제1 조정 모듈 ― 상기 미리 설정된 패딩 코드 블록은 코드 블록 유형 필드에 의해 지시되고, 상기 미리 설정된 패딩 코드 블록은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―을 포함한다. 본 발명의 실시예에서 구체적으로 설명된 바와 같이, 삽입되거나 또는 삭제된 패딩 유닛은 상기 미리 설정된 패딩 코드 블록이며, 본 발명의 실시예의 실현 가능성을 증가시킨다.
본 발명의 실시예의 제2 측면을 참조한, 본 발명의 실시예의 제2 측면의 제2 구현예에서, 상기 제1 조정 유닛은, 수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 전형적인 유휴 코드 블록을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 전형적인 유휴 코드 블록을 삭제하도록 구성된 제2 조정 모듈 ― 상기 전형적인 유휴 코드 블록은 코드 블록 유형 필드에 의해 지시되고, 상기 전형적인 유휴 코드 블록은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―을 포함한다. 본 발명의 실시예에서 구체적으로 설명된 바와 같이, 삽입되거나 또는 삭제된 패딩 유닛은 상기 전형적인 유휴 코드 블록이며, 본 발명의 실시예의 실현 가능성을 증가시킨다.
본 발명의 실시예의 제2 측면 내지 제2 측면의 제3 구현예 중 어느 하나를 참조한, 본 발명의 실시예의 제2 측면의 제4 구현예에서, 상기 네트워크 장치는, 레이트 구성에 필요한 레이트 차이에 기초하여 상기 타깃 데이터 스트림 내에 패딩 유닛을 삽입하거나 또는 상기 타깃 데이터 스트림에서 패딩 유닛을 삭제하도록 구성된 제3 조정 유닛 ― 삽입되거나 또는 삭제되는 상기 패딩 유닛은 레이트 구성을 수행하는 데 사용되고, 상기 레이트 구성을 위한 레이트 차이는 대역폭들 사이의 차이보다 작음 ―을 더 포함한다. 본 발명의 실시예에서 설명된 바와 같이, 본 발명의 실시예에서의 레이트 조정 방식이 보다 다양해질 수 있도록, 패딩 유닛이 전송 레이트에 대한 약간의 조정 중에 삽입되거나 삭제된다.
본 발명의 실시예의 제2 측면 내지 제2 측면의 제3 구현예 중 어느 하나를 참조한, 본 발명의 실시예의 제2 측면의 제5 구현예에서, 상기 네트워크 장치는, 상기 패딩 유닛을 삭제하고, 다음의 네트워크 장치 또는 사용자 장치에게 상기 삭제 이후에 남아 있는 데이터 유닛을 전송하도록 구성된 처리 유닛을 더 포함한다. 본 발명의 실시예에서 설명된 바와 같이, 모든 패딩 유닛들과 유휴 유닛들은 삭제되고, 데이터 유닛 만이 다음의 장치로 전송되며, 본 발명의 실시예의 실현 가능성 및 조작성을 증가시킨다.
본 발명의 실시예의 제3 측면은 네트워크 장치를 제공한다. 네트워크 장치는 입력 인터페이스, 출력 인터페이스, 프로세서, 메모리 및 버스를 포함한다. 상기 입력 인터페이스, 상기 출력 인터페이스, 상기 프로세서 및 상기 메모리는 상기 버스를 사용하여 연결된다. 상기 입력 인터페이스는 업스트림 장치에 연결되고 입력 결과를 획득하도록 구성된다. 상기 출력 인터페이스는 다운스트림 장치에 연결되고 결과를 출력하도록 구성된다. 상기 프로세서는, 상기 메모리로부터 레이트 조정 프로그램을 호출하고, 상기 프로그램을 실행하도록 구성된다. 상기 메모리는 수신된 데이터 스트림 및 상기 레이트 조정 프로그램을 저장하도록 구성된다. 상기 네트워크 장치가 제1 측면 내지 제1 측면의 제5 구현예 중 어느 하나에 따른 전송 레이트 조정 방법을 수행할 수 있도록, 상기 프로세서는 상기 메모리 내의 프로그램 명령을 호출한다.
전술한 기술적 해결수단으로부터 본 발명의 실시예가 다음과 같은 이점을 갖는다는 것을 알 수 있다.
본 발명의 실시예에서 제공되는 기술적 해결수단에서, 네트워크 장치는 타깃 데이터 스트림을 획득하며, 여기서 타깃 데이터 스트림은 제1 데이터 패킷을 포함하고, 제1 데이터 패킷은 적어도 2개의 비 유휴 유닛을 포함하며; 대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있느느 대역폭 조정 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 삭제하며, 여기서 패딩 유닛은 네트워크 장치의 업스트림 전송 채널의 대역폭과 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용된다. 본 발명의 실시예는 네트워크 노드의 업스트림 및 다운스트림 인터페이스 상의 전송 채널에서의 서비스의 전송 레이트에 대한 신속한 조정을 지원할 수 있으므로, 서비스가 노드의 업스트림 및 다운스트림 전송 채널에서의 서비스의 전송 레이트들 사이의 차이를 구성할 수 있고, 또한 네트워크 노드 데이터 버퍼, 네트워크 노드 처리 지연 및 서비스 전송 지연이 감소될 수 있다.
도 1은 IEEE 802.3 유휴 추가 또는 삭제 메커니즘의 개략도이다.
도 2는 본 발명의 실시예에 따른 네트워크 구조의 개략도이다.
도 3은 본 발명의 실시예에 따른 전송 레이트 조정 방법의 실시예의 개략도이다.
도 4는 본 발명의 실시예에 따른 64/66b 인코딩에서의 코드 블록의 개략적인 구성도이다.
도 5는 본 발명의 실시예에 따른 전형적인 유휴 코드 블록의 개략적인 구성도이다.
도 6은 본 발명의 실시예에 따른 미리 설정된 패딩 코드 블록의 개략적인 구성도이다.
도 7은 본 발명의 실시예에 따른 데이터 패킷에 미리 설정된 패딩 코드 블록을 삽입하는 개략도이다.
도 8은 본 발명의 실시예에 따른 데이터 패킷에 전형적인 유휴 코드 블록을 삽입하는 개략도이다.
도 9는 본 발명의 실시예에 따른 제어 코드 블록의 개략적인 구상도이다.
도 10은 본 발명의 실시예에 따른 전형적인 종단 간 서비스 대역폭 조정 프로세스의 개략도이다.
도 11은 본 발명의 실시예에 따른 대역폭 조정의 구체적인 애플리케이션 시나리오이다.
도 12는 본 발명의 실시예에 따른 대역폭 조정의 또 다른 구체적인 애플리케이션 시나리오이다.
도 13은 본 발명의 실시예에 따른 CPRI의 복수의 물리 인터페이스 옵션의 개략도이다.
도 14는 본 발명의 실시예에 따른 ODUflex 독립 네트워킹의 개략도이다.
도 15는 본 발명의 실시예에 따른 FlexE 및 OTN 하이브리드 네트워킹의 개략도이다.
도 16은 본 발명의 실시예에 따른 네트워크 장치의 실시예의 개략도이다.
도 17은 본 발명의 실시예에 따른 네트워크 장치의 다른 실시예의 개략도이다.
도 18은 본 발명의 실시예에 따른 네트워크 장치의 다른 실시예의 개략도이다.
본 발명의 실시예들은, 서비스의 업스트림 및 다운스트림 전송 채널의 레이트 사이의 차이의 상이한 경우, 구체적으로, 서비스의 종단 간 전송 대역폭 상에서 급속한 조정이 수행되는 경우 업스트림 및 다운스트림 전송 채널의 레이트 사이에 비교적 큰 차이가 있는 경우에 적응하기 위해, 서비스 데이터 스트림의 업스트림 및 다운스트림 전송 채널의 레이트(rate) 사이의 차이에 기초하여 네트워크 노드 상에서 효율적인 유휴 추가 또는 삭제 기반 레이트 조정을 수행하도록, 전송 레이트 조정 방법을 제공한다. 또한, 네트워크 노드 데이터 버퍼, 네트워크 노드 처리 지연 및 종단 간 서비스 전송 지연이 감소된다.
당업자가 본 발명의 해결수단을 더 잘 이해하게 하기 위해, 이하에서 본 발명의 실시예에서 첨부된 도면을 참조하여 본 발명의 실시예를 설명한다.
본 발명의 명세서, 청구범위 및 첨부 도면에서, 용어 "제1", "제2", "제3", "제4"등(있는 경우)은 유사한 객체를 구별하기 위한 것이지만, 반드시 특정 순서 또는 시퀀스를 지시하는 것은 아니다. 이러한 방식으로 사용되는 용어들은 여기에서 서명되는 실시예가 여기에서 도시되거나 설명된 순서와 다른 순서로 구현될 수 있도록 적절한 환경에서 상호 교환 가능하다는 것을 이해해야 한다. 또한, 용어 "포함한다(include)" 또는 "포함한다(contain)" 및 임의의 다른 변형은 비 배타적인 포함을 커버하는 것을 의미한다. 예를 들어, 단계 또는 유닛의 목록을 포함하는 프로세스, 방법, 시스템, 제품 또는 장치는 반드시 명시적으로 나열된 단계 또는 유닛으로 제한되는 것은 아니지만, 명시적으로 나열되지 않거나 이러한 프로세스, 방법, 제품 또는 장치에 내재된 다른 단계 또는 유닛을 포함할 수 있다.
현재, IEEE 802.3 유휴 추가 또는 삭제 메커니즘은, 네트워크 노드의 업스트림 및 다운스트림 전송 채널 대역폭의 전송 레이트 사이의 차이를 구성하기 위해, 네트워크 노드(즉, 네트워크 장치)가 데이터 코드 블록을 포함하는 데이터 스트림에 대해 레이트 조정을 수행하는 경우에 사용된다. 업스트림 데이터 입력 레이트가 다운스트림 데이터 출력 레이트보다 훨씬 작은 경우, 패딩 유닛이 존재하지 않거나 또는 데이터 스트림에 포함된 데이터 코드 블록들 사이에 존재할 수 없다. 네트워크 노드는 데이터 코드 블록을 포함하는 데이터 스트림을 버퍼링할 필요가 있다. 데이터 스트림에서 상이한 데이터 패킷에 속하는 대응하는 데이터 코드 블록 그룹들 사이의 유휴 패딩 유닛이 추가되거나 삭제된다. 즉, 패딩 유닛이 삽입되거나 삭제된다. 이것은 거의 완전한 데이터 패킷을 버퍼링할 필요가 있다. 또한, 이러한 IEEE 802.3 기반 유휴 추가 또는 삭제 메커니즘은 인터페이스 상에서 64/66b 인코딩된 이더넷 서비스 데이터 스트림을 통해 전송 구성이 수행되는 경우 전송 레이트 조정을 구현하는 데만 적용할 수 있지만, 전송시 전송 레이트 조정을 구현하는 데 적용 할 수 없습니다 공통 공용 무선 인터페이스 CPRI, SDH 또는 OTN과 같은 TDM 서비스의 데이터 스트림 및 100 GE와 호환되지 않는 64/66b 인코딩을 사용하는 (8b/10b 인코딩을 사용하는 GE 서비스와 같은) 이더넷 서비스의 데이터 스트림을 통해 전송 구성이 수행되는 경우 전송 레이트 조정을 구현하는 데 적용할 수 없다.
CPRI는 전형적으로 2개의 인코딩 포맷: 64/66b 및 8b/10b의 데이터 스트림을 갖는다. 64/66b 인코딩 포맷의 CPRI 서비스 데이터 스트림은 단지 3개의 64/66b 인코딩 코드 블록 유형만을 갖는다. 16×256×n 바이트의 길이를 갖는 슈퍼프레임(superframe) 구조는 3가지 유형의 코드 블록, 즉 시작 코드 블록, 데이터 코드 블록 및 종료 코드 블록으로 인코딩된다. 예를 들어, 전송 레이트는 12165.12 Mbit/s이고, 64/66b 인코딩 CPRI 옵션 9가 사용되며, n=24이고, 슈퍼프레임 길이는 16×256×24=98304 바이트이다. 이 경우에, 거의 하나의 완전한 슈퍼프레임의 데이터는, 전송 레이트 조정을 구현하기 위해, 슈퍼프레임들 사이의(유사하게, 데이터 패킷들 사이의), 즉 IEEE 802.3 유휴 추가 또는 삭제 메커니즘에 따른 종료 코드 블록과 시작 코드 블록 사이의 유휴 코드 블록을 삽입하거나 삭제하기 위해 버퍼링될 필요가 있다. 8b/10b 인코딩 포맷의 CPRI 데이터 스트림은 64/66b 인코딩 포맷의 CPRI 데이터 스트림으로 변환되어야 한다. 인코딩 포맷이 없는 SDH, OTN 등을 포함하는 TDM 서비스 데이터 스트림이 64/66b 인코딩 포맷의 것으로 변환되는 경우, 단지 한 가지 유형의 코드 블록, 즉 데이터 코드 블록만이 존재할 수 있다. 즉, 시작 코드 블록 및 종료 코드 블록이 존재하지 않는다. 따라서, 기존의 IEEE 802.3 유휴 추가 또는 삭제 메커니즘은 레이트 조정을 구현하기 위해 종료 코드 블록과 시작 코드 블록 사이의 유휴 바이트에 대한 유휴 추가 또는 삭제를 수행하는 데 사용될 수 없다.
기존의 IEEE 802.3 유휴 추가 또는 삭제 메커니즘이 FlexE 시스템에 적용되는 경우, FlexE 시스템에서의 유휴 추가 또는 삭제 메커니즘이 도 1에 도시된다. 도 1은 IEEE 802.3 유휴 추가 또는 삭제 메커니즘의 개략도이다. 도 1에 도시된 바와 같이, 예를 들어, 노드의 다운스트림 전송 채널에서 서비스의 출력 레이트(Output Rate, OR)가 100 Gbps이고, 노드의 업스트림 전송 채널에서 서비스의 입력 레이트(Input Rate, IR)가 5 Gbps인 경우, 다운스트림 출력 레이트-업스트림 입력 레이트=OR-IR=100 Gbps-5 Gbps=95 Gbps이다. 최소 버퍼 크기 = MaxPacketLength×(OR-IR)/OR인 경우, 최소 버퍼 크기 = 0.95×76800=72960 비트=72.96 kB이다. 적어도 하나의 가장 긴 프레임을 버퍼링하는 것은 일반적으로 실제 사용으로 설정된다. 가장 긴 프레임 점보 프레임 크기=9.6kB=9.6×8×1000=76800 비트이고, 전송 지연(delay)=최소 버퍼 크기/OR=768 ns 내지 1 μs이다. 이것은 네트워크 노드가 각각의 서비스에 대해 그러한 버퍼 용량을 구비할 것을 요구하며, 따라서 장치에 대한 높은 요구사항을 낼 수 있다. 실제로 작은 버퍼 용량을 갖는 디자인이 일반적으로 사용된다. 따라서, FlexE에서, 상대적으로 큰 버퍼를 갖는 설계를 도입할 필요없이 단계적 서비스 대역폭 조정을 지원하기 위해 손실이 있는 서비스 조정이 허용된다.
IEEE 802.3 유휴 추가 또는 삭제 메커니즘이 OTN 시스템에 적용되는 경우, OTN ODUflex 대역폭 조정은 무손실 서비스 조정을 강조한다. 따라서, 네트워크 노드의 버퍼 용량이 고정된 값인 경우, ODUflex 대역폭의 용량 조정 레이트가 제한되고, 서비스의 업스트림 또는 다운스트림 베어러 전송 채널로서 서비스되는 ODUflex의 대역폭 또는 레이트가 증가되거나 또는 매우 느리게 감소될 필요가 있다. 이러한 방식은 복잡하고 시간 소모적이며, 서비스 대역폭에 대한 신속한 조정에 도움이 되지 않는다.
광 인터네트워킹 포럼 OEF의 FlexE 및 국제 전기 통신 연합-전기 통신 표준화 부문 ITU-T의 OTN (G.709)에 더하여, 본 발명의 실시예는 또한 서비스 대 인터페이스 전송 레이트 조정을 구현하기 위해 SDH/OTN과 같은 서비스 스트림에 유휴 바이트가 존재하지 않는 서비스 유형에 적용될 수 있다. 처음 두 개는 OTN에서 IMP 메커니즘이라고도 칭해지는 IEEE 802.3 유휴 추가 또는 삭제 메커니즘을 현재 사용한다. IMP의 설명은 두 가지 측면, 즉 서비스 전송 레이트 조정과 서비스 대 ODUflex 매핑 처리를 포함한. 현재, ODUflex의 무손실 대역폭 조정은 작은 기울기를 갖는 느린 조정이다. 본 발명의 실시예가 도입된 후에, 큰 기울기를 갖는 ODUflex의 단계적 및 신속한 무손실 대역폭 조정(증가 및 감소를 포함함)이 지원될 수 있다. OIF FlexE는 단계적 대역폭 조정을 현재 사용하지만, 무손실 조정 능력을 갖지는 않는다. 즉, 패킷 손실, 일시적인 서비스 중단 등을 포함하는 서비스 장애는 노드 버퍼 용량이 제한되는 경우에 야기될 수 있다. 본 발명의 실시예가 도입된 후에, 노드에 대한 높은 데이터 버퍼 요구사항이 없으므로, 노드에 대한 복잡성 요구사항을 크게 감소시킬 수 있으며, 또한 서비스 대역폭에 대한 단계적 무손실 조정이 지원될 수 있다.
본 발명의 실시예는 도 2에 도시된 네트워크 구조에 적용될 수 있다. 네트워크 구조에서, 소스 커스터머 장치(CE, Customer Equipment)는 데이터 패킷을 포함하는 FlexE 클라이언트 서비스를 소스 프로바이더 장치(PE, Provider equipment)로 전송한다. PE는 네트워크 노드이다. 본 발명의 실시예에서 제공되는 전송 레이트 조정 방법에 따르면, 종단 CE가 종단 PE로부터 FlexE 클라이언트 서비스를 획득할 수 있도록 네트워크 노드는 데이터 패킷을 포함하는 FlexE 클라이언트 서비스의 데이터 스트림을 처리하고 전달한다. FlexE 클라이언트 서비스의 역방향 전송 방향은 종단 CE에서 소스 CE까지이고, 현재 방향과 반대이다. 원칙은 동일하며, 상세한 것은 설명되지 않는다.
본 발명의 실시예에서의 최소 유닛의 데이터 구조는, 64/66b 코드 블록, 128/130b 코드 블록, 또는 8/10b 코드 블록과 같은, 인코딩 처리가 수행되는 코드 블록의 코드 블록 구조일 수 있거나, 또는 인코딩 처리가 수행되지 않고 데이터 또는 비-데이터(non-data)(비-데이터는 유휴 바이트를 포함함) 지시 정보, 또는 그들의 조합의 구조를 운반하는 바이트의 구조일 수 있다. 64/66b 코드 블록과 같은 코드 블록 구조에 대해, 64/66b 코드 블록에 대응하는 인코딩 전의 8 바이트의 데이터 바이트 유형들의 조합은 동기화 헤더 유형 및 64/66b 코드 블록의 코드 블록 유형에 의해 명확하게 지시된다. 그 조합은 모든 데이터 바이트 조합 또는 전체가 아닌 데이터 바이트 조합이다. 전체가 아닌 데이터 바이트 조합의 한 경우는 모든 8 바이트가 인코딩 전에 유휴 패딩 바이트이다. 즉, 64/66b 코드 블록의 동기화 헤더가 코드 블록이 데이터 코드 블록 또는 비 데이터 코드 블록인 것을 지시하는 데 사용된다. 인코딩 처리가 수행되지 않는 바이트의 조합 구조는 n 바이트의 조합일 수 있다. 그 조합은 n이 1인 경우에 1 바이트를 포함한다. 예를 들어, 1-Gbps 이더넷 GMII 인터페이스에서, 1 바이트는 하나의 유닛으로 사용되며, 일부 제어 정보는 바이트가 데이터 또는 비 데이터인 것을 지시하는 데 사용된다. 제어 바이트라고도 칭해지는 비 데이터 바이트는 실제 바이트의 내용에 기초하여 유휴 바이트 또는 다른 유형의 비 데이터 바이트로 분류될 수 있다. 다른 예를 들면, 10-Gbps 이더넷 XGMII 인터페이스에서, 4 바이트가 하나의 유닛으로 사용되고, 4 비트에 대한 정보가 XGMII의 4 바이트의 유형을 각각 지시하는 데 사용된다. 다른 예를 들면, 100-GE 이더넷 CGMII 인터페이스에서 8 바이트를 하나의 유닛으로 사용하는 바이트 조합 구조에서, 1 바이트, 즉 8 비트는 8 바이트 조합이 데이터 바이트 또는 비 데이터 바이트(또한 제어 바이트로 칭해짐) 조합 구조인 특정 경우를 지시하는 데 사용된다. 최소 유닛의 데이터 구조는 본 발명에서 제한되지 않는다. 이해를 용이하게 하기 위해, 이하의 실시예에서, 64/66b 코드 블록은 설명을 위한 최소 유닛의 데이터 구조 유닛으로 사용된다.
이를 고려하여, 본 발명의 실시예는 본 방법에 기초하는 전송 레이트 조정 방법 및 네트워크 장치를 제공한다. 전송 레이트 조정 방법은, 네트워크 노드에 의해, 타깃(target) 데이터 스트림을 획득하는 단계 ― 타깃 데이터 스트림은 제1 데이터 패킷을 포함하고, 제1 데이터 패킷은 적어도 2개의 비 유휴 유닛(non-idle unit)을 포함함 ―; 및 대역폭 조정이 수행될 필요가 있는 경우, 네트워크 노드가 노드의 업스트림 전송 채널로부터 다운스트림 전송 채널까지 통과하는 서비스의 전송 레이트에 대한 매칭을 수행할 수 있도록, 노드의 업스트림 및 다운스트림 전송 채널에서의 서비스의 속드들 사이의 요구사항 및 차이에 기초하여 서비스 데이터 유닛 시퀀스 스트림 내의 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 삭제하는 단계를 포함한다.
상기한 바와 같이, FlexE가 베어러 네트워크 전송 인터페이스로서 사용되는 경우, FlexE 인터페이스의 시간슬롯의 조합은 전송 채널로서 사용된다. 서비스 종단 간 전송 채널 연결을 형성하기 위해 복수의 전송 채널은 노드를 사용하여 직렬로 연결된다. 단계적 증가 또는 감소 조정은 일반적으로 서비스 종단 간 전송 채널 연결의 대역폭을 증가시키거나 또는 감소시키기 위해 수행되며, 구체적으로 베어러 네트워크가 서비스 종단 간 전송 채널 연결의 대역폭을 증가시키는 조정 및 베어러 네트워크가 서비스 종단 간 전송 채널 연결을 감소시키는 조정을 포함한다. 베어러 네트워크는 시작 네트워크 노드, 중간 네트워크 노드 및 종료 네트워크 노드와 같은 복수의 네트워크 노드를 포함한다. 대역폭이 증가되는 경우, 베어러 네트워크에서 종단 네트워크 노드의 다운스트림 전송 채널의 베어러 용량 대역폭은 먼저 단계적 방식으로 증가되고, 종단 네트워크 노드의 업스트림 전송 채널의 베어러 용량 대역폭은 그 후에 단계적 방식으로 증가되며; 종단 네트워크 노드가 조정을 완료한 후에, 베어러 네트워크의 나머지 네트워크 노드에 대한 업스트림 및 다운스트림 전송 채널의 서비스 베어러 용량 대역폭은 단계적으로 순방향으로 조정되며; 마지막으로, 베어러 네트워크의 각 노드에 대한 서비스의 업스트림 전송 채널 대역폭 및 다운스트림 전송 채널 대역폭은 거의 동일하지만, +/-100 ppm 차이가 존재하도록 허용된다. 대역폭이 감소되는 경우, 베어러 네트워크에서 시작 네트워크 노드의 업스트림 전송 채널의 서비스 베어러 용량 대역폭은 먼저 단계적 방식으로 감소되고, 시작 네트워크 노드의 다운스트림 전송 채널의 서비스 베어러 용량 대역폭은 다음으로 감소되고; 시작 네트워크 노드가 조정을 완료한 후에, 베어러 네트워크에서 나머지 네트워크 노드에 대한 업스트림 및 다운스트림 전송 채널의 서비스 베어러 용량 대역폭은 단계적으로 역으로 조정되며; 마지막으로, 베어러 네트워크에서 각 노드에 대한 업스트림 전송 채널 대역폭 및 다운스트림 전송 채널 대역폭은 거의 동일하지만, +/-100 ppm 차이가 존재하도록 허용된다. 네트워크 노드 에 대한 서비스의 다운스트림 채널 대역폭은 전술한 두 가지 경우 모두에서 업스트림 채널 대역폭보다 일시적으로 크다. 베어러 네트워크가 전체인 경우, 베어러 네트워크 내의 모든 인터페이스에 대한 전송 채널 대역폭은 중앙집중식 제어를 통해 조정될 수 있다. 네트워크 노드가 제어 신호를 수신하는 시간이 변하기 때문에, 일부 노드에 대한 서비스의 업스트림 채널 대역폭은 다운스트림 채널 대역폭보다 일시적으로 크거나, 업스트림 채널 대역폭은 다운스트림 채널 대역폭보다 일시적으로 작으며, 대역폭들 사이의 차이는 비교적 크다. 두 가지 경우는 본 발명의 본 실시예에서 개별적으로 설명된다.
본 발명의 본 실시예는 전체 베어러 네트워크가 각 노드에 대한 서비스의 업스트림 및 다운스트림 전송 채널 대역폭 사이의 차이를 구성하는 측면으로부터, 즉 종단 간 서비스 측면으로부터, 설명될 수 있거나, 또는 베어러 네트워크의 네트워크 노드가 업스트림 및 다운스트림 인터페이스에 대한 전송 채널의 대역폭을 조정하는 측면으로부터 설명될 수 있다. 네트워크 노드의 업스트림 및 다운스트림 전송 채널은 OTN 인터페이스의 ODUflex 또는 FlexE(flexible Ethernet) 인터페이스, 단일 전송 채널로 사용되는 기본 CPRI 인터페이스, 단일 전송 채널로 사용되는 기본 이더넷 인터페이스 등의 시간슬롯 조합일 수 있다. 여기에서는 더 이상의 예가 설명되지 않는다. 실제 사용에서, 다르게는, 전송 채널/네트워크 인터페이스는 ODUk/OTN 인터페이스, VC 컨테이너/SDH 인터페이스, 단일 전송 채널로서 사용되는 종래의 이더넷 Eth, IB, 또는 FC 인터페이스 등일 수 있다. 이것은 여기에서 구체적으로 제한되지 않는다.
이하에서는, 노드에 대한 업스트림 및 다운스트림 전송 채널에서의 서비스의 레이트 대역폭들 사이의 차이를 구성할 수 있도록, 네트워크가 서비스 종단 간 전송 채널 연결의 대역폭을 조정하고(증가시키거나 또는 감소시킨다), 노드가 서비스에 대해 유휴 추가 또는 삭제를 수행하고 그 서비스의 전송 레이트를 조정하는 두 가지 측면으로부터의 설명을 제공한다.
도 3을 참조하면, 소스 CE에 의해 종단 CE로 전송되는 서비스가 복수의 PE에서 전송되는 경우, 서비스는, FlexE 인터페이스 및 시간슬롯에 기초하여 두 노드 사이의 전송 채널을 구성하기 위해, 하나의 소스 PE, 하나 이상의 중간 PE 및 하나의 종단 PE를 통과할 수 있다. 복수의 전송 채널이 종단 간 서비스 전송 채널 연결을 형성하도록 직렬 연결되는 경우가 예로서 사용된다. 본 발명의이 실시예에서 전송 레이트 조정 방법의 실시예는 다음의 단계를 포함한다.
단계 301. 소스 노드는 타깃 데이터 스트림을 획득하며, 여기서 타깃 데이터 스트림은 제1 데이터 패킷을 포함하고, 제1 데이터 패킷은 적어도 2개의 비 유휴 코드 블록을 포함한다.
소스 노드는 타깃 데이터 스트림을 획득한다. 타깃 데이터 스트림은 원하는 정보를 운반하는 제1 데이터 패킷을 포함한다. 서비스 타깃 데이터 스트림은 본 실시예에서 FlexE 클라이언트 신호로서 사용되며, FlexE 인터페이스 상에 있는 시간슬롯 조합이자 또한 전송 채널로서 사용되는 시간슬롯 조합을 통해 운반되고 전송된다. 원하는 정보는 데이터 코드 블록, 시작 코드 블록, 종료 코드 블록 등을 포함하고, 데이터 코드 블록, 시작 코드 블록 및 종료 코드 블록은 비 유휴 코드 블록이고, 랜덤하게 삽입되거나 삭제될 수 없다. 제1 데이터 패킷은 데이터 패킷의 시작을 지시하는 데 사용되는 시작 코드 블록 및 데이터 패킷의 끝을 지시하는 데 사용되는 종료 코드 블록을 포함할 수 있다. 데이터 패킷은 서비스 정보를 운반하는 복수의 데이터 코드 블록을 더 포함할 수 있으며, 데이터 코드 블록은 시작 코드 블록과 종료 코드 블록 사이에 위치된다. 도 4에 도시된 바와 같이, 시작 코드 블록의 유형은 0x78일 수 있으며, 8가지 유형의 종료 코드 블록이 있을 수 있다. 패킷의 종료를 지시하는 8개의 코드 블록 유형은 0x87, 0x99, 0xAA, 0xB4, 0xCC, 0xD2, 0xE1 및 0xFF를 포함한다. 데이터 패킷은 0x78 유형의 시작 코드 블록 및 유형 0x87, 0x99, 0xAA, 0xB4, 0xCC, 0xD2, 0xE1 및 0xFF 중 임의의 하나의 종료 코드 블록을 포함할 수 있음을 알 수 있다.
단계 302. 소스 노드는 노드의 업스트림 및 다운스트림 인터페이스에 대한 전송 채널에서의 서비스의 대역폭 레이트들 사이의 차이에 기초하여 패딩 유닛을 타깃 데이터 스트림에 삽입하거나 또는 삭제하고, 타깃 데이터 스트림을 다운스트림 인터페이스 상의 전송 채널을 통해 중간 노드로 전송한다.
소스 노드의 업스트림 및 다운스트림 전송 채널의 대역폭 레이트들 사이의 차이는 매우 클 수 있다. 네트워크 노드의 다운 스트림 네트워크 인터페이스의 레이트가 네트워크 노드의 업스트림 네트워크 인터페이스의 레이트보다 크고 업스트림 및 다운스트림 인터페이스의 레이트들 사이의 차이가 특정 임계치보다 큰 경우, 예를 들어, 다운 스트림 전송 채널의 레이트가 업스트림 전송 채널의 레이트보다 큰 경우, 네트워크 노드는 업스트림 인터페이스로부터 타깃 데이터 스트림을 수신하고, 레이트 조정 및 구성 요구사항(업스트림 및 다운스트림 인터페이스의 레이트들 사이의 차이, 즉 다운 스트림 인터페이스의 레이트로부터 업스트림 인터페이스의 레이트를 뺌으로써 획득되는 차이)에 기초하여 패딩 유닛을 삽입하며, 타깃 데이터 스트림을 다운스트림으로 전송한다. 패딩 유닛은 데이터 패킷 내의 데이터 코드블록들 사이 또는 데이터 패킷들 사이의 코드 블록들 사이에 위치될 수 있고, 패딩 유닛은 네트워크 노드의 업스트림 및 다운스트림 인터페이스의 레이트들 사이의 차이를 구성하고 조정하는 데 사용된다. 구체적으로, 패딩 유닛이 삽입된 후에, 네트워크 노드의 업스트림 및 다운스트림 인터페이스 각각에 대한 전송 채널에서의 서비스의 레이트와 서비스의 레이트 사이의 차이가 제거되고, 서비스는 노드의 업스트림 및 다운스트림 인터페이스에 대한 전송 채널에서의 서비스의 레이트를 개별적으로 매칭시킬 수 있다. 예를 들어, 다운스트림 인터페이스의 레이트가 업스트림 인터페이스의 레이트보다 5 Gbps 큰 경우, 삽입된 패딩 유닛이 노드에 대한 업스트림 및 다운스트림 전송 채널에서의 서비스의 레이트들 사이의 5 Gbps의 차이를 구성할 수 있도록 패딩 유닛이 삽입된다. 네트워크 노드의 다운스트림 네트워크 인터페이스의 레이트가 네트워크 노드의 업스트림 네트워크 인터페이스의 레이트보다 작고 업스트림 및 다운스트림 인터페이스의 레이트들 사이의 차이가 특정 임계값보다 큰 경우, 네트워크 노드는 업스트림 인터페이스부터 타깃 데이터 스트림을 수신하고, 업스트림 및 다운스트림 레이트들 사이의 차이를 구성하기 위해 패딩 유닛의 특정 수량을 삭제하며, 타깃 데이터 스트림을 다운 스트림에게 전송한다. 예를 들어, 다운 스트림 인터페이스의 레이트가 업스트림 인터페이스의 레이트보다 5 Gbps 작은 경우, 삭제 후에 획득된 데이터 스트림이 다운스트림 인터페이스의 레이트를 구성할 수 있도록 5 Gbps의 패딩 유닛이 삭제된다.
소스 노드에 의해 삽입된 패딩 유닛은 미리 설정된 패딩 코드 블록 또는 전형적인 유휴 코드 블록일 수 있다. 전형적인 유휴 코드 블록은 IEEE 802.3에서 알려진 유휴 데이터 구조 유닛, 즉 알려진 유휴 코드 블록 또는 알려진 유휴 문자 조합이며, 미리 설정된 패딩 코드 블록은 알려진 유휴 구조로부터 코드 블록을 구별하기 위한 식별자 필드를 포함하는 코드 블록이다. 미리 설정된 패딩 코드 블록의 기능은 전형적인 유휴 코드 블록의 기능과 동일할 수 있고, 코드 블록들 모두는 레이트 조정을 수행하는 데 사용될 수 있다. 실제 적용에서, 서로 다른 처리 방법이 서로 다른 상황에 따라 사용될 수 있다. 본 실시예에서, 알려진 유휴 구조가 전형적인 유휴 코드 블록인 예가 설명을 위해 사용된다. 예를 들어, 삽입된 패딩 유닛이 미리 설정된 패딩 코드 블록과 전형적인 유휴 코드 블록을 모두 포함하는 경우, 미리 설정된 패딩 코드 블록은 데이터 패킷 내의 2개의 비 유휴 코드 블록들 사이에 삽입되고, 전형적인 유휴 코드 블록은 2개의 데이터 패킷들 사이에 삽입된다. 노드는 미리 설정된 패딩 코드 블록을 직접 삭제할 수 있으며, 미리 설정된 패딩 코드 블록이 데이터 코드 블록들 사이에 삽입되지 않는 것을 보장하기 위해 컨텍스트 코드 블록에 기초하여 삽입된 전형적인 유휴 코드 블록을 삭제할 수 있다. 전형적인 유휴 코드 블록의 코드 블록 구조는 도 5에 도시된다. 전형적인 유휴 코드 블록의 코드 블록 유형은 도 5에서 처음 4개의 0x1E 코드 블록 유형의 적어도 임의의 구조일 수 있거나, 또는 도 5에서 다섯 번째의 0x4B 코드 블록 유형의 반복된 시퀀스 순서 세트 코드 블록일 수 있다. 예를 들어, 미리 설정된 패딩 코드 블록의 코드 블록 구조는 도 6에 도시된 3개의 코드 블록 유형 중 어느 하나일 수 있고, 다른 형태의 구조는 하나씩 열거되지 않는다. 도 6에서 3개의 코드 블록 유형은 미리 설정된 식별자 필드를 포함한다. 식별자 필드는 도 5에서 전형적인 유휴 코드 블록의 필드와 다르다. 삽입된 패딩 유닛이 전형적인 유휴 코드 블록만을 포함하는 경우, 전형적인 유휴 코드 블록은 데이터 패킷 내의 2개의 비 유휴 코드 블록들 사이 또는 2개의 데이터 패킷들 사이에 전형적인 유휴 코드 블록을 삽입하는 것을 포함하여 임의의 위치에 삽입될 수 있다. 삽입된 전형적인 유휴 코드 블록은 도 5에 도시된 알려진 유휴 코드 블록의 처음 네가지 유형 일 수 있거나 또는 반복된 다섯 가지 유형의 알려진 유휴 코드 블록일 수 있다. 삭제된 패딩 유닛이 전형적인 유휴 코드 블록만을 포함하는 경우, 데이터 패킷 내의 전형적인 유휴 코드 블록 및 데이터 패킷들 사이의 전형적인 유휴 코드 블록을 포함하여, 임의의 위치의 전형적인 유휴 코드 블록이 삭제될 수 있다.
소스 노드의 다운스트림 인터페이스 상의 전송 채널의 대역폭 레이트는 소스 노드의 업스트림 인터페이스 상의 전송 채널의 대역폭 레이트보다 클 수 있음을 이해할 수 있다. 소스 노드는, 서비스가 노드의 업스트림 및 다운스트림 인터페이스 상의 전송 채널에서 서비스의 대역폭 레이트를 개별적으로 매칭할 수 있도록, 업스트림 및 다운스트림 인터페이스 상의 전송 채널에서 서비스의 대역폭 레이트들 사이의 차이를 보상하기 위해 특정 수량의 패딩 유닛을 타깃 데이터 스트림에 삽입한다. 반대로, 소스 노드의 다운스트림 인터페이스 상의 전송 채널의 대역폭 레이트는 소스 노드의 업스트림 인터페이스 상의 전송 채널의 대역폭 레이트보다 낮을 수 있다. 소스 노드는, 서비스가 업스트림 및 다운스트림 인터페이스 상의 전송 채널에서 서비스의 대역폭 레이트를 개별적으로 매칭할 수 있도록, 업스트림 및 다운스트림 인터페이스 상의 전송 채널에서 서비스의 대역폭 레이트들 사이의 차이를 구성하기 위해 타깃 데이터 스트림에서 특정 수량의 패딩 유닛을 삭제한다.
단계 303. 중간 노드는 업스트림 및 다운스트림 인터페이스 상의 전송 채널의 대역폭 레이트들 사이의 차이에 기초하여 패딩 유닛을 타깃 데이터 스트림에 삽입하거나 또는 삭제하고, 다운스트림 전송 채널을 통해 타깃 데이터 스트림을 다음의 중간 노드 또는 종단 노드로 전송한다.
네트워크 노드가 중간 노드인 경우, 중간 노드가 소스 노드 또는 이전의 중간 노드로부터 타깃 데이터 스트림을 획득한 후에, 그리고 중간 노드의 업스트림 및 다운스트림 인터페이스 상의 전송 채널의 대역폭 레이트들 사이의 차이가 매우 큰 경우, 중간 노드의 처리 프로세스는 단계 302와 유사하고, 상세한 것은 여기에서 다시 설명되지 않는다. 패딩 유닛이 미리 설정된 패딩 코드 블록인 경우, 다운 스트림 전송 채널의 대역폭 레이트가 업스트림 전송 채널의 대역폭 레이트보다 훨씬 클 경우, 중간 노드가 데이터 코드 블록들 사이에 미리 설정된 패딩 코드 블록을 삽입하는 프로세스가 도 7에 도시된다. 데이터 패킷을 포함하는 데이터 스트림을 수신한 후에, 중간 노드는 데이터 패킷 내의 비 유휴 코드 블록들 사이에 미리 설정된 패딩 코드 블록을 삽입한다. 패딩 유닛이 전형적인 유휴 코드 블록인 경우, 중간 노드가 비 유휴 코드 블록들 사이에 전형적인 유휴 코드 블록을 삽입하는 프로세스는 도 8에 도시된다. 데이터 패킷을 포함하는 데이터 스트림을 수신한 후에, 중간 노드는 데이터 패킷 내의 비 유휴 코드 블록들 사이에 전형적인 유휴 코드 블록을 삽입한다.
중간 노드의 다운스트림 인터페이스의 레이트가 중간 노드의 업스트림 인터페이스의 레이트보다 큰 경우, 중간 노드는 전송된 코드 블록 유형에 기초하여 삽입될 필요가 있는 패딩 유닛의 코드 블록 유형을 결정한다. 예를 들어, 이전에 전송된 코드 블록 유형이 데이터 코드 블록인 경우, 중간 노드는 미리 설정된 패딩 코드 블록을 삽입하여 미리 설정된 패딩 코드 블록을 전송하고, 미리 설정된 패딩 코드 블록의 구체적인 구조는 도 6에 도시된다. 중간 노드의 다운스트림 인터페이스의 레이트가 중간 노드의 업스트림 인터페이스의 레이트보다 작은 경우, 중간 노드는 업스트림 및 다운스트림 레이트들 사이의 특정 차이에 기초하여 타깃 데이터 스트림에서의 차이와 동일한 크기의 삭제 가능한 유닛을 삭제한다. 삭제 가능한 유닛은 이전에 삽입된 패딩 유닛일 수 있거나, 또는 타깃 데이터 스트림에서 이전에 알려진 유휴 코드 블록일 수 있다. 이전에 전송된 코드 블록 유형이 비 데이터 코드 블록 유형인 경우, 중간 노드는 유형이 이전에 전송된 코드 블록 유형과 일치하는 시퀀스 순서 세트 코드 블록을 삽입한다.
단계 304. 종단 노드는 업스트림 및 다운스트림 인터페이스의 레이트들 사이의 차이에 기초하여 패딩 유닛을 타깃 데이터 스트림에 삽입하거나 또는 삭제하고, 타깃 데이터에 수용 가능한 데이터 포맷에 기초하여 다운스트림 타깃 클라이언트 노드에게 서비스를 전송한다.
네트워크 노드가 종단 노드인 경우, 종단 노드는 중간 노드로부터 타깃 데이터 스트림을 수신한다. 본 발명에서의 유휴 추가 또는 삭제 작동이 서비스의 전송 레이트를 조정하는 데 사용되는 경우, 다운 스트림 타깃 클라이언트 노드를 수용할 수 있는 데이터 포맷에 대한 제약 및 제한이 더 고려될 필요가 있다. 예를 들어, 64/66b 인코딩 CPRI 서비스의 경우, 타깃 데이터 스트림에 삽입된 미리 설정된 패딩 코드 블록 또는 알려진 전형적인 유휴 코드 블록을 포함하여 모든 패딩 유닛이 삭제될 필요가 있다. 다른 예로서, 타깃 클라이언트 노드가 종래의 이더넷 인터페이스를 단일 전송 채널로서만 사용하여 서비스 데이터 스트림을 수신할 수 있는 경우, 기존의 전형적인 유휴 코드 블록만이 패딩 유닛으로서 작용하도록 허용되고 데이터 패킷들 사이에 위치될 필요가 있다. 미리 설정된 패딩 코드 블록 또는 알려진 전형적인 유휴 코드 블록을 포함하여 데이터 패킷의 비 유휴 코드 블록들 사이의 모든 패딩 유닛이 제거될 필요가 있다. 타깃 데이터 스트림이 서비스 데이터를 수신하기 위한 타깃 클라이언트 장치의 요구사항을 충족시킬 수 있도록, 데이터 패킷들 사이의 패딩 유닛이 조정된다. 타깃 클라이언트 장치가 특별한 데이터 포맷 요구사항을 가지지 않고 본 발명에서 중간 노드의 출력 포맷을 수신할 수 있는 경우, 종단 노드는, 종단 노드의 업스트림 및 다운스트림 인터페이스 상의 전송 채널의 대역폭 레이트들 사이의 차이를 구성할 수 있도록, 실제 요구 사항에 기초하여 타깃 데이터 스트림 내의 대응하는 패딩 유닛을 추가로 랜덤하게 삽입하거나 또는 삭제할 수 있으며, 특별한 처리가 수행될 필요는 없다.
본 발명의 본 실시예에서 설명된 바와 같이, 타깃 데이터 스트림을 수신한 후, 네트워크 노드는, 네트워크 노드의 업스트림 및 다운스트림 인터페이스 상의 전송 채널에서 서비스의 대역폭 레이트들 사이의 차이를 구성하고, 네트워크 노드 데이터 버퍼, 네트워크 노드 처리 지연 및 종단 간 서비스 전송 지연을 감소시키기 위해, 패딩 유닛을 타깃 데이터 스트림에 삽입하거나 또는 삭제하고, 서비스의 전송 레이트를 조정한다.
본 발명의 본 실시예에서, 도 9에 도시된 바와 같이, 도 9는 802.3 40-GE/100-GE 서비스 또는 이더넷 서비스가 FlexE 상에서 수행되거나 또는 이더넷 서비스가 OTN에서 수행되고, FC 서비스 및 IB 서비스와 같은 다른 서비스의 문자가 유사한 경우에 사용되는 바이트 형태 제어 문자(byte-form control character)를 도시한다. IDLE/LPI 문자 바이트는 코드 블록 유형이 0x1E 유형, 즉 8개의 연속되는 유휴 바이트인 코드 블록에서 C0 내지 C7에 대응된다. 시퀀스 순서 세트 코드 블록의 유형은 0x4B이고, O0=0x0이다. 시그널링 명령 세트 코드 블록의 유형은 0x4B이고, O0=0xF(FC 서비스를 위해 특별히 사용되며 이더넷 서비스에는 적용 가능하지 않음)이다. 이더넷 서비스의 64/66b 코드 블록 형태에서의 데이터 유닛의 경우, 0x1E 유형의 코드 블록은 삭제 가능한 코드 블록이다. 반복된 시퀀스 순서 세트 코드 블록의 유형이 0x4B이고, O0=0x0인 경우, 이러한 코드 블록은 또한 삭제될 수 있다. 다른 유형의 데이터 유닛의 경우, 한 문자 바이트가, 예를 들어, 최소 데이터 유닛인 경우, 추가 또는 삭제 객체는 기존의 전형적인 유휴 바이트 또는 기존의 미리 설정된 유휴 바이트이다. 다른 입도의 데이터 유닛에 대한 세부 사항은 설명되지 않는다.
삽입된 패딩 유닛이 미리 설정된 패딩 코드 블록과 전형적인 유휴 코드 블록을 모두 포함하는 경우, 미리 설정된 패딩 코드 블록이 미리 설정된 패딩 코드 블록을 알려진 유휴 구조와 구별하기 위한 식별자 필드를 포함하기 때문에, 미리 설정된 패딩 코드 블록이 비 유휴 코드 블록들 사이에 삽입되지 않는 것을 보장하기 위해 종단 노드는 미리 설정된 패딩 코드 블록을 직접 삭제할 수 있다. 삽입된 패딩 유닛이 미리 설정된 패딩 코드 블록을 포함하지 않으면, 종단 노드는 삽입된 전형적인 유휴 코드 블록을 컨텍스트 코드 블록에 기초하여 삭제한다. 구체적으로, 예를 들어, 현재의 전형적인 유휴 코드 블록이 이전의 시작 코드 블록과 다음의 종료 코드 블록 사이에 나타나는 경우, 컨텍스트 코드 블록에 기초하여, 현재의 전형적인 유휴 코드 블록이 데이터 패킷 내에 있는 것으로 결정되고, 기존 프로토콜에서의 유휴 요구사항을 충족시키지 못한다. 따라서, 현재의 전형적인 유휴 코드 블록은 삭제될 필요가 있다.
소스 CE에 의해 종단 CE로 전송된 서비스가 복수의 PE에서 전송되는 경우, 서비스는 다르게는 하나의 소스 PE 및 하나의 종단 PE(중간 노드를 제외함)를 통과할 수 있음에 유의해야 한다. 처리 단계는 전술한 실시예와 유사하며, 상세한 것은 여기에서 다시 설명되지 않는다.
다음은, 요구사항에 기초하여 종단 간 서비스를 위한 종단 간 전송 채널 연결의 대역폭을 조정하는 관점에서, 베어러 네트워크가 서비스를 위해 제공되는 종단 간 전송 채널 연결의 대역폭을 조정하는 실시예를 설명한다.
본 실시예가 OTN 서비스에 적용되고 서비스의 다운스트림 채널 대역폭이 서비스의 업스트림 채널 대역폭보다 일시적으로 큰 경우, 본 발명의 본 실시예는 도 10에 도시된 종단 간 서비스 전송 채널 연결의 대역폭을 조정하는 전형적인 프로세스 시나리오에 추가로 적용될 수 있다. 종단 간 서비스 대역폭 조정은 대역폭 증가 및 대역폭 감소의 두 가지 시나리오를 포함할 수 있다. 대역폭 조정이 수행되는 경우, 소스 노드와 종단 노드 사이의 모든 네트워크 노드 중 각각의 하나는 종단 간 서비스 대역폭 조정을 홉 단위로 구현하기 위해 다음의 네트워크 노드와 대역폭 조정 협상을 수행할 필요가 있다. 예를 들어, 소스 노드는 대역폭 조정 요청을 개시하고, 대역폭 조정 요청을 홉 단위로 다운스트림으로 전달한다. 종단 노드가 대역폭 조정 요청을 수신하여 업스트림으로 대역폭 조정 확인응답을 리턴하며, 또한 소스 노드가 대역폭 조정 확인응답을 수신한 후에, 대역폭 조정 동작이 수행 될 수 있는 것으로 판단된다.
통상적으로, 대역폭이 증가되는 경우, 전송 채널의 대역폭은 종단 노드에서 소스 노드로의 방향, 즉 다운스트림에서 업스트림으로의 방향으로 연속적으로 증가된다. 대역폭이 감소되는 경우, 전송 채널의 대역폭은 소스 노드로부터 종단 노드로의 방향, 즉 업스트림에서 다운스트림으로의 방향으로 연속적으로 감소된다. 따라서, 대역폭 조정 프로세스에서, 업스트림 전송 채널의 대역폭은 다운스트림 전송 채널의 대역폭보다 작을 수 있다. 즉, 다운스트림 전송 채널의 대역폭은 업스트림 전송 채널의 대역폭보다 클 수 있다. 중간 노드에서 유효한 패킷 데이터의 손실 또는 누적과 같은 문제가 발생하지 않으므로, 서비스가 무손실이 될 수 있다.
대역폭이 증가되는 경우, 특정 응용 시나리오가 도 11에 도시된다. 이더넷 서비스의 서비스 대역폭이 10 Gbps에서 50 Gbps로 증가하고, 현재의 이더넷 서비스 스트림 대역폭이 10 Gbps로서 기존의 10 GE와 동일한 것으로 가정한다. 이더넷 서비스를 지원하기 위해, 소스 CE로부터 PE 1까지의 채널의 대역폭은 플렉시블 이더넷에서 2개의 5 Gbps 시간슬롯의 대역폭의 합이며, PE 1에서 PE 2까지의 채널의 대역폭도 또한 플렉시블 이더넷에서 2개의 5 Gbps 시간슬롯의 대역폭의 합이다. PE 2에서 PE 3까지의 채널의 대역폭, PE 3에서 PE 4까지의 채널의 대역폭 및 PE 4에서 종단 CE까지의 채널의 대역폭은 각각 플렉시블 이더넷에서 2개의 5 Gbps 시간슬롯의 대역폭의 합이다. 그러나, 업스트림 및 다운스트림 채널 대역폭 사이에는 +/-100 ppm의 작은 차이가 있을 수 있다.
소스 CE는 먼저, 제1 홉 인터페이스를 사용하여, 제1 홉 전송 채널의 대역폭을 증가시키도록 네트워크에게 요청한다. 구체적으로, 현재, 소스 CE의 오버헤드 처리 유닛(overhead processing uni, OHPU)과 같은 관리 유닛은 제1 홉 전송 채널에서 제1 홉 인터페이스의 시그널링 채널을 사용하여 요청을 전송할 수 있다. PE 1 장치는 요청을 수신하고 다운스트림에서 PE 2로 요청을 전송한다. 요청은 순차적으로 출구(egress) PE 4로 전송된다. 출구 PE 4는 서비스 대역폭 증가 요청을 대응하는 종단 CE로 전달한다.
종단 CE가 증가에 동의하여 확인응답으로 응답한 후에, 출구 PE 4는 2개의 5 Gbps 시간슬롯에서 10개의 5 Gbps 시간슬롯까지 PE 4로부터 종단 CE로의 최종 홉 채널의 대역폭을 직접 조정한다. 따라서, 단계적 대역폭 조정은 출구 PE 4에서 종단 CE까지의 최종 홉 채널을 통해 구현된다. 이 경우, 출구 PE 4의 경우, 서비스의 업스트림 채널 대역폭은 10 Gbps이고, 다운스트림 채널 대역폭은 50 Gbps이며, 비교적 큰 차이가 있다. 이 경우, 출구 PE 4는 도 3에 도시된 실시예에서의 방법에 따라 서비스에 대한 레이트 조정을 수행할 필요가 있다. 그러나, 본 발명의 본 실시예에서 종단 CE가 유휴 조정 메커니즘과 호환될 수 없다면, 출구 PE 4는 IEEE 802.3 유휴 추가 또는 삭제 메커니즘에 따라 레이트 조정을 수행할 필요가 있다. 즉, 선택적인 조정 옵션은 규칙에 의해 제한된다. 이것은 출구 PE 4가 상대적으로 높은 데이터 버퍼 용량을 지원하는 설계를 필요로 한다.
출구 PE 4는 종료 채널에 대한 조정이 성공한 것을 알고, 다른 요인에 의한 제한이 없으면, 출구 PE 4는 PE 4의 업스트림에서 이전 노드 PE 3로부터의 대역폭 증가 요청에 대한 확인응답으로 응답할 수 있다. 확인응답이 PE 3에 도달한 후, PE 3은 PE 3에서 PE 4로의 서비스 채널에 대한 조정을 수행할 수 있다. PE 3은 2에서 10까지의 서비스의 다운스트림 채널에서 시간슬롯의 수량을 변경한다. 이 경우, 채널 대역폭은 10 Gbps에서 50 Gbps로 변경된다. 출구 PE 4는 50 Gbps의 10개의 시간슬롯을 갖는 업스트림 채널로부터 데이터를 수신한다. 이 경우, 출구 PE 4의 업스트림 및 다운스트림 서비스 채널 모두의 대역폭은 50 Gbps의 10개의 시간슬롯이다. 그러나, 업스트림과 다운스트림 채널의 대역폭들 사이에는 +/-100 ppm의 작은 차이가 있을 수 있다. PE 4는 도 3에 도시된 실시예에서의 방식으로 레이트 조정을 여전히 수행할 수 있거나, 또는 IEEE 802.3 유휴 추가 또는 삭제 메커니즘에 따라 레이트 조정을 수행할 수 있다. 이 경우, PE 3의 업스트림 채널의 대역폭은 10 Gbps이고, 다운스트림의 대역폭은 50 Gbps이며, 비교적 큰 차이가 있다. 따라서, 대역폭 조정은 도 3에 도시된 실시예에서의 방법에 따라 서비스에 대해 수행될 필요가 있다.
하나의 홉(hop) 채널을 제외한 마지막의 대역폭을 성공적으로 조정한 후, 다른 요인에 의해 제한이 없으면, PE 3는 PE 3의 업스트림에서 이전 노드 PE 2로부터의 대역폭 증가 요청에 대해 확인응답으로 대응할 수 있다. 확인응답이 PE 2에 도달한 후, PE 2는 PE 2에서 PE 3까지의 서비스 채널에 대한 조정을 수행할 수 있다. PE 2는 2에서 10까지의 서비스의 다운스트립 채널 내의 시간슬롯의 수량을 변경한다. 이 경우, 채널 대역폭은 10 Gbps에서 50 Gbps로 변경된다. PE 3은 50 Gbps의 10개의 시간슬롯을 갖는 채널로부터 데이터를 수신한다. 이 경우, PE 3의 업스트림 및 다운스트림 서비스 채널 모두의 대역폭은 50 Gbps의 10개의 시간슬롯이다. 그러나, 업스트림 및 다운스트림 채널의 대역폭들 사이에는 +/-100 ppm의 작은 차이가 있을 수 있다. PE 3은 도 3에 도시된 실시예에서의 방법에 따라 여전히 레이트 조정을 수행할 수 있거나, 또는 IEEE 802.3 유휴 추가 또는 삭제 메커니즘에 따라 레이트 조정을 수행할 수 있다. 이 경우, PE 2의 업스트림 채널의 대역폭은 10 Gbps이고, 다운스트림 채널의 대역폭은 50 Gbps이며, 비교적 큰 차이가 있다. 따라서, 도 3에 도시된 실시예에서의 방법에 따라 서비스에 대한 대역폭 조정이 수행될 필요가 있다. 유추하여, 종단 간 서비스의 경우, 대역폭 증가 조정은 다운스트림에서 업스트림까지 홉 단위로 두 장치 사이의 채널에 대해 구현된다.
입구(ingress) PE 1이 다운스트림 채널의 대역폭이 적절하게 조정된 것을 알게된 후, 다운스트림 채널에는 병목 현상이 없다. 즉, 소스 CE와 인입 PE 1 사이에만 병목 현상이 존재한다. 이 경우, 입구 PE 1은 소스 CE로부터의 대역폭 증가 요청에 대해 확인응답으로 대응할 수 있다. 확인응답을 수신한 후, 요구사항에 기초하여 종단 간 서비스 채널의 대역폭을 조정하기 위해, 소스 CE는 소스 CE의 다운스트림에서 출구 PE 4로의 서비스 채널의 대역폭을 50 Gbps로 즉시 조정할 수 있다.
소스 CE는 일반적으로 소스 CE의 다운스트림 채널 대역폭 레이트로 데이터 패킷을 자동으로 전송한다. 임의의 패킷이 있으면, 패킷이 연속적으로 전송되거나, 또는 패킷이 없으면, 알려진 유휴 구조 유닛이 전송되며, 레이트 조정은 패킷 전송 중에 소스 CE의 다운스트림 포트의 대역폭이 변경되더라도 수행될 필요가 없다.
대역폭이 감소되는 경우, 특정 응용 시나리오는 도 11에 도시된다. 이더넷 서비스의 서비스 대역폭이 50 Gbps에서 10 Gbps로 감소되고, 현재의 이더넷 서비스 스트림 대역폭이 50 Gbps로 종래의 50 GE와 동일한 것으로 가정한다. 이더넷 서비스를 지원하기 위해, 소스 CE로부터 PE 1까지의 채널의 대역폭은 플렉시블 이더넷에서 10개의 5 Gbps 시간슬롯의 대역폭의 합이며, PE 1에서 PE 2까지의 채널의 대역폭도 또한 플렉시블 이더넷에서 10개의 5 Gbps 시간슬롯의 대역폭의 합이다. PE 2에서 PE 3까지의 채널의 대역폭, PE 3에서 PE 4까지의 채널의 대역폭 및 PE 4에서 종단 CE까지의 채널의 대역폭은 각각 플렉시블 이더넷에서 10개의 5 Gbps 시간슬롯의 대역폭의 합이다. 그러나, 업스트림과 다운스트림 채널 대역폭 사이에는 +/-100 ppm의 작은 차이가 있을 수 있다.
소스 CE는 먼저 제1 홉 인터페이스를 사용하여 제1 홉 전송 채널의 대역폭을 감소시도록 네트워크에게 요청한다. 구체적으로, 현재, 소스 CE의 관리 유닛은 제1 홉 인터페이스의 시그널링 채널을 사용하여 요청을 전송할 수 있다. 입구 PE 1 장치는 요청을 수신한다. 입구 PE 1은 특별한 경우가 없다면 확인응답으로 대응할 수 있다.
PE 1이 감소에 동의하고 확인응답으로 대응한 후에, 소스 CE는 10개의 시간슬롯에서 2개의 시간슬롯으로 제1 홉 채널의 대역폭을 직접 조정한다. 즉, 대역폭이 50 Gbps에서 10 Gbps로 변경된다. 따라서, 단계적 대역폭 조정은 소스 CE에서 입구 PE 1까지의 제1홉 채널에 대해 구현된다. 소스 CE는 일반적으로 소스 CE의 다운스트림 채널 대역폭 레이트에서 데이터 패킷을 자동으로 전송한다. 임의의 패킷이 있으면 패킷이 연속적으로 전송되거나, 또는 패킷이 으면, 알려진 유휴 구조가 전송되며, 레이트 조정은 패킷 전송 중에 소스 CE의 다운스트림 포트의 대역폭이 변경되더라도 수행될 필요가 없다. 이 경우, 익부 PE 1의 경우, 서비스의 업스트림 채널 대역폭은 10 Gbps이고, 다운스트림 채널 대역폭은 50 Gbps이며, 비교적 큰 차이가 있다. 이 경우, 입구 PE 1은 도 3에 도시된 실시예에서의 방법에 따라 서비스에 대한 레이트 조정을 수행할 필요가 있다.
입구 PE 1은 소스 CE로부터 입구 PE 1까지의 채널에 대한 조정이 성공한 것을 알게 된다. 다른 요인에 의한 제약이 없다면, PE 1은 다음의 노드 PE 2에게 서비스 대역폭 감소 요청을 전송할 수 있다. 요청이 PE 2에 도착한 후, 특별한 경우가 없으면, PE 2는 PE 1에 대한 확인응답으로 대응할 수 있다.
확인응답을 수신한 후, PE 1은 PE 1의 다운스트림 서비스 채널에 대한 조정을 수행한다. PE 1은 10에서 2까지 서비스의 다운스트림 채널에서의 시간슬롯의 수량을 변경한다. 이 경우, 다운스트림 채널 대역폭은 50 Gbps에서 10 Gbps로 변경된다. PE 2는 50 Gbps의 10개의 시간슬롯을 갖는 업스트림 채널로부터 데이터를 수신한다. 이 경우, PE 1의 업스트림 및 다운스트림 서비스 채널 모두의 대역폭은 50 Gbps의 10개의 시간슬롯이다. 그러나, 업스트림과 다운스트림 채널의 대역폭들 사이에는 +/-100 ppm의 작은 차이가 있을 수 있다. PE 1은 여전히 도 3에 도시된 실시예에서의 방법에 따라 레이트 조정을 수행할 수 있거나, 또는 IEEE 802.3 유휴 추가 또는 삭제 메커니즘에 따라 레이트 조정을 수행할 수 있다. 이 경우, PE2의 업스트림 채널의 대역폭은 10 Gbps이고, 다운스트림의 대역폭은 50 Gbps이며, 비교적 큰 차이가 있다. 따라서, 도 3에 도시된 실시예에서의 방법에 따라 서비스에 대한 대역폭 조정이 수행될 필요가 있다. 유추하면, 종단 간 서비스의 경우, 대역폭 감소 조정은 업스트림에서 다운스트림까지 홉 단위로 두 장치 사이의 채널에 대해 구현된다.
출구 4의 업스트림 채널 대역폭이 적절하게 조정된 후에, PE 4는 다운스트림 종단 CE로부터 조정을 계속 요청할 수 있다. 그러나, 조정이 최종 채널에 대해 수행되기 전에 출구 PE 4의 업스트림 및 다운스트림 채널 사이에 명백한 차이가 존재한다. 레이트 조정은 도 3에 도시된 실시예에서의 방법에 따라 수행될 필요가 있다. 그러나, 종단 CE가 본 발명의 조정 메커니즘과 호환될 수 없다면, 출구 PE 4는 IEEE 802.3 유휴 추가 또는 삭제 메커니즘에 따라 레이트 조정을 수행할 필요가 있다. 즉, 제한을 위한 규칙이 있다. 이것은 출구 PE 4가 비교적 높은 데이터 버퍼 용량을 지원하는 설계를 필요로 한다.
선택적으로, 종래의 네트워크 장치와 같은 네트워크 노드는 삽입된 패딩 유닛을 식별할 수 없다. 종단 CE는 설명을 위한 예로서 사용된다. 종단 CE는 본 발명의 실시예에서 패딩 유닛을 식별할 수 없는 것으로 가정한다. 이 경우, 종단 CE의 최종 홉 네트워크 장치, 즉 종단 PE는 데이터 스트림 내의 모든 패딩 유닛을 삭제할 필요가 있다. 예를 들어, 64/66b 인코딩 CPRI 서비스의 경우, 미리 설정된 패딩 코드 블록 또는 알려진 전형적인 유휴 코드 블록을 포함하여 타깃 데이터 스트림에 삽입된 모든 패딩 유닛이 삭제될 필요가 있다. 예를 들어, 타깃 클라이언트 노드가 단지 종래의 이더넷 인터페이스를 단일 전송 채널로서만 사용함으로써 서비스 데이터 스트림을 수신할 수 있는 경우, 기존의 전형적인 유휴 코드 블록만이 패딩 유닛으로서 작용하도록 허용되고, 데이터 패킷들 사이에 위치될 필요가 있다.
선택적으로, 기존의 모든 알려진 유휴 코드 블록이 추가로 삭제될 수 있고, 미리 설정된 패딩 코드 블록 또는 알려진 전형적인 유휴 코드 블록을 포함하여 데이터 패킷 내의 비 유휴 코드 블록(non-idle code block)들 사이의 패딩 유닛이 제거될 필요가 있다. 종단 PE는 종단 CE에게 데이터 패킷만을 전송할 수 있다.
데이터 패킷이 전송될 필요가 없는 경우, 소스 CE는 패딩 유닛을 전송할 수 있다. 패딩 유닛은 미리 설정된 패딩 코드 블록 또는 전형적인 유휴 코드 블록일 수 있다. 종단 PE에 의해 수신된 데이터 스트림은 데이터 패킷을 포함할 수 있거나, 또는 패딩 유닛 등을 포함할 수 있다.
선택적으로, 조정 프로세스에서, 각각의 네트워크 장치 PE는 레이트 구성을 구현하기 위해 IEEE 802.3 유휴 추가 또는 삭제 메커니즘을 추가로 실행할 수 있다.
본 실시예는 OTN에 적용되며, 업스트림 채널의 대역폭이 다운스트림 채널의 대역폭보다 일시적으로 큰 예가 설명을 위해 사용된다. 실제로, 도 12에 도시된 바와 같이, 소스 CE와 종단 CE 사이의 베어러 네트워크가 전체인 경우, 베어러 네트워크 내의 채널 대역폭 조정은 중앙집중식 제어를 통해 수행된다. 대역폭 요청은 소스 CE에서 입구 PE 인터페이스로 전송되고, 입구 PE는 중앙집중식 제어기로 요청을 전달한다. 중앙집중식 제어기는 개별 조정을 위해 모든 PE들 사이의 채널을 동시에 제어할 수 있으며, 여기서 그 조정은 대역폭을 증가시키는 것과 대역폭을 감소시키는 것을 포함한다. 제어 신호가 전달되는 시간 및 제어 신호가 각 PE에 도달하는 시간이 변하기 때문에, PE들 사이의 채널의 대역폭은 완전히 순서없이 조정된다. 이 경우, 임의의 PE에 대하여, 다운스트림 채널의 대역폭은 업스트림 채널의 대역폭보다 클 수 있거나, 또는 업스트림 채널의 대역폭은 다운스트림 채널의 대역폭보다 클 수 있다.
다음, 대역폭을 증가시키는 예를 사용하여 설명한다. 입구 CE는, 입구 PE를 사용하여, 대역폭을 증가시키기 위해 네트워크에게 요청한다. 입구 PE는 네트워크의 중앙집중식 제어기에게 요청을 보고한다. 모든 다운스트림 노드에서 모든 두 개의 노드 사이의 채널의 대역폭이 적절히 증가되는 것을 보장하기 전에, 소스 CE에 대한 임의의 확인응답이 중단된다. 즉, 소스 CE로부터 유효한 데이터 패킷을 전송하기 위한 대역폭이 조정이 완료되기 전에 임의의 채널의 대역폭을 초과하지 않는 것이 보장된다.
특별한 경우가 없으면, 네트워크의 중앙집중식 컨트롤러는 모든 PE에 명령을 전송하고, PE 1, PE 2, PE 3, PE 4 및 PE 5는 대응하는 다운스트림 채널의 대역폭을 개별적으로 조정한다. 구체적으로는, 대역폭을 증가시킨다. 이렇게 하면 병렬로 모든 다운스트림 채널에 대한 조정을 동시에 조정할 수 있으므로, 다른 채널에 대한 조정에서의 성공을 기다릴 필요가 없다. 총 소요 시간은 비교적 짧다. 예를 들어, 베어러 네트워크 대역폭은 10 Gbps에서 50 Gbps로 증가된다. 명령을 수신하는 시퀀스는 PE 1, PE 5, PE 3, PE 2 및 PE 4이다. 이 경우, 전체 조정 프로세스는 7 단계로 이루어진다. 일부 네트워크 노드의 경우, 업스트림 채널 대역폭은 다운스트림 채널 대역폭보다 클 수 있다. 그러나, 다운스트림 중간 노드에 패킷 데이터 축적이 존재하지 않는다는 것이 보장될 수 있도록, CE-PE 1 채널의 대역폭은 최종적으로 증가되고, 실제로 베어러 네트워크에 진입하는 유효한 트래픽이 제한된다. 서로 다른 장치들 사이의 인터페이스 레이트가 다음의 표에 도시된다.
Figure 112019058031438-pct00001
예를 들어, 단계 2에서, PE 1-PE 2 채널의 대역폭만이 50 Gbps이다. 이 경우, PE 2의 업스트림 채널 대역폭은 PE 2의 다운스트림 채널 대역폭보다 크다. 그러나, 네트워크 입구에서 소스 CE의 유효한 서비스 트래픽은 필연적으로 10 Gbps 보다 작다. 이 경우, 다량의 유휴 패딩 유닛을 추가하기 위해, PE 1은 도 3에 도시된 실시예에서의 방법에 따라 서비스에 대한 레이트 조정을 수행하며, 여기서 패딩 이후의 레이트는 50 Gbps이다. 서비스는 PE 2로 전송된다. PE 2의 업스트림 채널 대역폭은 50 Gbps이고, PE 2의 다운스트림 채널 대역폭은 10 Gbps이다. 과도하게 삽입된 패딩 유닛을 삭제하기 위해, 레이트 조정이 도 3에 도시된 실시예에서의 방법을 사용하여 수행될 필요가 있다. 소스 CE의 입구 대역폭이 증가하지 않고 네트워크로 유입되는 유효한 서비스 데이터가 제한되어 있으면 베어러 네트워크의 모든 노드에서 유효한 데이터 축적이 발생되지 않는다.
반대의 프로세스에서, 대역폭이 감소되면, 유효한 서비스 트래픽을 제한하기 위해 소스 CE의 입구 채널 대역폭이 먼저 감소된 후, 다운스트림 채널의 대역폭이 병렬로 동시에 감소된다.
본 발명의 본 실시예는 CPRI 서비스, OTN 서비스 및 SDH 서비스를 포함하는 서비스 스트림에 유휴 바이트가 존재하지 않는 유형의 서비스에도 적용될 수 있음을 알아야 한다.
CPRI 서비스는 도 13에 도시된 복수의 물리 인터페이스 옵션을 갖는다.
CPRI 서비스가 64/66b 인코딩 포맷인 경우, 예를 들어, 인코딩 전에 CPRI 라인 비트 레이트 옵션 8의 레이트는 20x491.52 Mbit/s이고, 10-GE 서비스 대역폭보다 작다. 이 둘의 레이트 차이는 약 491.52 : 500이다. 플렉시블 이더넷 인터페이스의 경우, 2개의 5 Gbps 시간슬롯은 대략 10-GE 대역폭과 같다. 이러한 CPRI 레이트 옵션의 코드 블록 스트림은 다음과 같으며, 유휴 코드 블록을 포함하지 않는다.
Figure 112019058031438-pct00002
끝에서 끝까지의 모든 베어러 채널의 대역폭이 대략 10 Gbps인 것으로 가정한다. +/-100 ppm의 주파수 차이가 있더라도, 채널의 전체 대역폭은 CPRI의 대역폭보다 크다. 따라서, 도 3에 도시된 실시예에서의 방법에 따라 입구 PE 1에 대해 레이트 조정(주로 적절한 수량의 유휴 패딩 코드 블록을 삽입하는 것을 포함함)이 수행될 필요가 있고, 레이트 조정은 또한 도 3에 도시된 실시예에서의 방법에 따라 PE 2, PE 3 등에 대해 수행될 필요가 있다. 서로 다른 채널들 사이에 +/-100 ppm의 레이트 차이를 구성하기 위해, 삽입된 패딩 코드 블록이 적절하게 추가되거나 또는 삭제된다.
출구 PE로부터 종단 CE까지의 링크를 통해, 기본 CPRI 신호가 출력될 필요가 있는 경우, 모든 패딩 유닛이 완전히 삭제될 필요가 있고, 유효한 CPRI 데이터만이 원래의 데이터 포맷의 요구사항에 기초하여 전송된다. 즉, 삽입된 패딩 유닛을 포함하지 않는 기본 CPRI 데이터 스트림이 전송된다.
CPRI 서비스가 8/10b 인코딩 포맷인 경우, 예를 들어, CPRI 라인 비트 레이트 옵션 6은 먼저 8/10b 인코딩을 통해 도 13에서의 동일한 형태의 64/66b 코드 블록으로 변환될 수 있고, 그 후, 종단 간 전송이 5 Gbps 시간슬롯 채널을 사용하여 수행된다. 조정 프로세스는 CPRI 서비스가 64/66b 인코딩 포맷인 경우에 사용되는 전술한 조정 방식으로 수행되며, 상세한 것은 여기에서 설명되지 않는다.
OTN/SDH 서비스의 경우, OTN 또는 SDH 데이터는 일반적으로 바이트를 단위로 사용한다. 변환을 통해 64/66b 데이터 코드 블록을 획득하기 위해 8 바이트마다 하나의 동기화 헤더가 추가된다면, 모든 OTN/SDH 서비스는 다음과 같은 형식의 코드 블록 스트림으로 변환될 수 있다. 구체적으로는, 데이터 코드 블록만이 포함되며, 시작 코드 블록과 종료 코드 블록은 존재하지 않는다. 본 발명의 본 실시예에서의 조정 방식만이 데이터 코드 블록만을 포함하는 서비스 스트림에 대한 유휴 조정을 수행하는 데 사용될 수 있고, 기존의 IEEE 802.3 유휴 추가 또는 삭제 메커니즘은 적용 가능하지 않다. OTN/SDH 서비스의 코드 블록 스트림은 다음과 같다.
Figure 112019058031438-pct00003
전술한 것은 OTN/SDH 서비스로부터 코드 블록 스트림으로의 변환을 구현하고, 변환된 코드 블록 스트림은 FlexE 시간슬롯 그룹 또는 OTN ODUflex와 같은 채널에서 운반되고 전송될 수 있다. 임의의 베어러 채널의 대역폭이 OTN/SDH 서비스의 코드 블록 스트림의 순(net) 대역폭보다 크거나 같은 경우, 네트워크 노드는 다운스트림 베어러 채널의 대역폭에 기초하고 본 발명의 실시예에서의 방법에 따라 서비스의 데이터 스트림 내에 패딩 유닛을 추가하거나 또는 삭제할 수 있다.
다르게는, SDH/OTN 서비스는 SDH/OTN 프레임 포맷을 참조하여 64/66b 인코딩 포맷과 같은 다른 프레임 포맷의 데이터 스트림으로 변환될 수 있으며, 전술한 CPRI 서비스를 처리하는 방식을 참조하여 처리될 수 있다. 상세한 것은 여기에서 다시 설명되지 않는다.
전달 및 전송, 레이트 조정 및 구성, 그리고 업스트림 ODUflex로부터 다운스트림 ODUflex로의 OTN 서비스의 매핑에 대해, 도 14는 네트워크 노드의 업스트림 채널 및 다운스트림 채널 모두가 ODUflex인 경우를 도시한다. ODUflex는 서비스를 제공하기 위한 FlexE 시간슬롯 그룹과 유사하고, 둘 다 본 발명의 본 실시예에서 설명된 네트워크 노드에 대한 서비스의 업스트림 채널 및 다운스트림 채널이며, 서비스를 운반하기 위해 인터페이스들 사이의 채널로서 사용된다. 도 14는 종단 간 서비스를 위해 사용되는 모든 채널이 OTN ODUflex 채널인 경우를 도시한다. 네트워크 노드는 채널 내에서 서비스를 전환하고, 본 발명의 본 실시예에서의 방법을 사용하여 레이트 조정을 수행하거나, 또는 IEEE 802.3 유휴 추가 또는 삭제 메커니즘을 사용하여 레이트 조정을 수행할 수 있다. 도 3에 도시된 실시예에서의 방법이 사용된 후에, ODUflex 대역폭 조정은 단계적 조정을 구현할 수 있고 서비스가 무손실임을 보장할 수 있다. 구체적으로, ODUflex는 또한 통상의 ODUk일 수도 있다. 도 15는 FlexE 및 OTN 하이브리드 네트워킹을 도시한다. 하나의 네트워크 인터페이스는 ODUflex를 사용하고, 다른 네트워크 인터페이스는 플렉시블 이더넷 인터페이스의 시간슬롯 및 기본 CPRI 인터페이스를 포함한다. 실제 사용시, 다르게는, 네트워크 인터페이스는 ODUk/OTN 인터페이스, SDH 인터페이스, 종래의 이더넷 인터페이스 등일 수 있다. 이것은 여기에서 특별히 제한되지 않는다.
본 발명의 실시예에서의 전송 레이트 조정 방법은 상기에서 설명되었고, 본 발명의 실시예에서의 네트워크 장치는 아래에서 설명된다. 도 16을 참조하면, 본 발명의 본 실시예에서의 네트워크 장치의 실시예는 다음을 포함한다.
도 16은 본 발명의 실시예에 따른 네트워크 장치의 개략적인 구성도이다. 네트워크 장치(1600)에서의 비교적 큰 차이는 구성 또는 성능 차이로 인해 발생될 수 있다. 네트워크 장치(1600)는 하나 이상의 중앙 처리 유닛(CPU)(1610)(예를 들어, 하나 이상의 프로세서), 하나 이상의 메모리(1620) 및 애플리케이션 프로그램(1633) 또는 데이터(1632)를 저장하기 위한 하나 이상의 저장 매체(1630)(예를 들어, 하나 이상의 대용량 저장 장치)를 포함할 수 있다. 메모리(1620) 및 저장 매체(1630)는 일시적인 저장 또는 영구 저장을 위해 사용될 수 있다. 저장 매체(1630)에 저장된 프로그램은 하나 이상의 모듈(도면에 도시하지 않음)을 포함할 수 있으며, 각 모듈은 서버에 대한 일련의 명령 작동을 포함할 수 있다. 또한, 프로세서(1610)는 저장 매체(1630)와 통신하고, 네트워크 장치(1600)상에서 저장 매체(1630) 내의 일련의 명령 작동을 수행하도록 구성될 수 있다. 네트워크 장치(1600)는 하나 이상의 파워 서플라이(power supply)(1640), 하나 이상의 유무선 네트워크 인터페이스(1650), 하나 이상의 입출력 인터페이스(1660), 및/또는 Windows ServerTM, Mac OS XTM, UnixTM, LinuxTM 또는 FreeBSDTM과 같은 하나 이상의 운영 시스템(1631)을 더 포함할 수 있다. 당업자라면 도 16에 도시된 네트워크 장치의 구조가 네트워크 장치에 대한 제한을 구성하지 않으며, 네트워크 장치는 도면에 도시된 것보다 많거나 적은 부분, 또는 일부 부분의 조합, 또는 다르게 배치된 부분을 포함할 수 있다.
다음, 도 16을 참조하여 네트워크 장치의 각 구성 부분에 대하여 상세히 설명한다.
메모리(1620)는 소프트웨어 프로그램 및 모듈을 저장하도록 구성될 수 있고, 네트워크 장치의 다양한 기능적 애플리케이션 및 데이터 처리를 수행하기 위해 프로세서(1610)는 메모리(1620) 내에 저장된 소프트웨어 프로그램 및 모듈을 실행한다. 메모리(1620)는 주로 프로그램 저장 영역 및 데이터 저장 영역을 포함할 수 있다. 프로그램 저장 영역은 운영 시스템, 적어도 하나의 기능에 의해 요구되는 (사운드 재생 기능 또는 이미지 재생 기능과 같은) 애플리케이션 프로그램 등을 저장할 수 있다. 데이터 저장 영역은 네트워크 장치의 사용 등에 기초하여 생성된 (오디오 데이터 또는 전화 번호부와 같은) 데이터를 저장할 수 있다. 또한, 메모리(1620)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 예를 들어 적어도 하나의 자기 디스크 저장 장치, 플래시 메모리 장치 또는 다른 휘발성 고체 상태 저장 장치와 같은 비 휘발성 메모리를 더 포함할 수 있다. 본 발명의 본 실시예에서 제공된 레이트 전송 조정 메커니즘의 프로그램 및 수신된 데이터 스트림은 메모리(1620) 내에 저장되고, 프로그램 및 데이터 스트림이 사용될 필요가 있는 경우 메모리(1620)로부터 프로세서(1610)에 의해 호출된다.
프로세서(1610)는 네트워크 장치의 제어 센터이며, 특정 조정 메커니즘에 따라 전송 레이트를 조정할 수 있다. 프로세서(1610)는 다양한 인터페이스 및 라인을 사용하여 전체 네트워크 장치의 모든 부분에 연결되고, 메모리(1620)에 저장된 소프트웨어 프로그램 및/또는 모듈을 작동시키거나 또는 실행시킴으로써 그리고 메모리(1620)에 저장된 데이터를 호출함으로써 장치 및 데이터 처리의 다양한 기능을 수행한다.
선택적으로, 프로세서(1610)는 하나 이상의 처리 유닛을 포함할 수 있다.
본 발명의 본 실시예에서, 프로세서(1610)는 도 3의 단계 301 내지 단계 304를 수행하도록 구성되며, 상세한 것은 여기에서 다시 설명되지 않는다.
본 발명의 본 실시예에서, 입력 인터페이스(1650) 및 출력 인터페이스(1660)는 입출 및 출력을 위한 외부 장치를 제어하도록 구성된다. 프로세서(1610)는 네트워크 장치의 내부 버스를 사용하여 입력 인터페이스(1650) 및 출력 인터페이스(1660)에 연결된다. 프로세서(1610)와 업스트림 및 다운스트림 외부 장치 사이의 데이터 전송을 최종적으로 구현하기 위해, 입력 인터페이스(1650) 및 출력 인터페이스(1660)는 업스트림 및 다운스트림 외부 장치에 개별적으로 연결된다. 입력 인터페이스(1650) 및 출력 인터페이스(1660)를 통해 서로 다른 장치들 사이에 데이터가 전송될 수 있다. 서비스의 출력 레이트는 요구사항에 기초하여 대역폭을 변경하는 요구사항을 충족시키도록 신속하게 조정되며, 노드 데이터 버퍼, 노드 처리 지연 및 종단 간 전송 지연이 감소된다.
도 16은 하드웨어 처리의 관점에서 본 발명의 실시예에서의 네트워크 장치를 상세히 설명한다. 이하, 본 발명의 실시예에 따른 네트워크 장치를 모듈식 기능 엔티티의 관점에서 상세하게 설명한다. 도 17을 참조하면, 본 발명의 실시예에 따른 네트워크 장치의 실시예는,
타깃 데이터 스트림을 획득하도록 구성된 획득 유닛(1701) ― 타깃 데이터 스트림은 제1 데이터 패킷을 포함하고, 제1 데이터 패킷은 적어도 2개의 비 유휴 유닛을 포함함 ―; 및
대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 삭제하도록 구성된 제1 조정 유닛(1702) ― 패딩 유닛은 네트워크 장치의 업스트림 전송 채널의 대역폭과 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―
를 포함한다.
본 발명의 본 실시예에서, 타깃 데이터 스트림은 입력 인터페이스(1650)를 사용하여 업스트림 장치로부터 획득되고, 타깃 데이터 스트림은 메모리(1620)에 저장된다. 서비스의 업스트림 및 다운스트림 대역폭들 사이의 차이를 구성하기 위해 네트워크 인터페이스의 업스트림 및 다운스트림 레이트를 신속하게 조정하고, 네트워크 노드 데이터 버퍼, 네트워크 노드 처리 지연 및 종단 간 서비스 전송 지연을 감소시키기 위해, 프로세서(1610)는 메모리(1620) 내에 저장된 레이트 조정 프로그램을 호출하고, 출력 인터페이스(1660)를 사용하여 다운스트림 장치에게 처리된 타깃 데이터 스트림을 전송한다.
선택적으로, 네트워크 장치는,
대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 대역폭 조정의 값에 기초하여 제1 데이터 패킷과 제1 데이터 패킷의 인접 데이터 패킷 사이에 패딩 유닛을 삽입하거나 또는 삭제하도록 구성된 제2 조정 유닛(1703)
을 더 포함할 수 있다.
선택적으로, 제1 조정 유닛(1702)은,
수행될 필요가 있는 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 미리 설정된 패딩 코드 블록을 삽입하거나 또는 삭제하도록 구성된 제1 조정 모듈 ― 미리 설정된 패딩 코드 블록은 코드 블록 유형 필드에 의해 지시되고, 미리 설정된 패딩 코드 블록은 네트워크 장치의 업스트림 전송 채널의 대역폭과 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―
을 더 포함할 수 있다.
선택적으로, 제1 조정 유닛(1702)은,
수행될 필요가 있는 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 전형적인 유휴 코드 블록을 삽입하거나 또는 삭제하도록 구성된 제2 조정 모듈(17022) ― 전형적인 유휴 코드 블록은 코드 블록 유형 필드에 의해 지시되고, 전형적인 유휴 코드 블록은 네트워크 장치의 업스트림 전송 채널의 대역폭과 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―
을 더 포함할 수 있다.
본 발명의 본 실시예에서 설명된 바와 같이, 네트워크 노드가 타깃 데이터 스트림을 수신한 후에, 서비스의 업스트림 및 다운스트림 전송 채널의 레이트들 사이의 차이의 서로 다른 경우, 특히, 서비스의 종단 간 정송 대역폭에 대한 신속한 조정이 수행되는 경우 업스트림 및 다운스트림 전송 채널의 레이트들 사이에 비교적 큰 차이가 있는 경우를 구성하기 위해, 효율적인 유휴 추가 또는 삭제 기반 레이트 조정은 서비스 데이터 스트림의 업스트림 및 다운스트림 전송 채널의 레이트들 사이의 차이에 기반하여 네트워크 노드에 대해 수행된다. 또한, 네트워크 노드 데이터 버퍼, 네트워크 노드 처리 지연 및 종단 간 서비스 전송 지연이 감소된다.
도 18을 참조하면, 본 발명의 실시예에 따른 네트워크 장치의 다른 실시예는,
타깃 데이터 스트림을 획득하도록 구성된 획득 유닛(1701) ― 타깃 데이터 스트림은 제1 데이터 패킷을 포함하고, 제1 데이터 패킷은 적어도 2개의 데이터 유닛을 포함함 ―; 및
대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하도록 구성된 제1 조정 유닛(1702) ― 패딩 유닛은 네트워크 장치의 업스트림 전송 채널의 대역폭과 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―
를 포함한다.
선택적으로, 네트워크 장치는,
레이트 구성에 필요한 레이트 차이에 기초하여 타깃 데이터 스트림에 패딩 유닛을 삽입하거나 또는 삭제하도록 구성된 제3 구성 유닛(1704) ― 삽입되거나 또는 삭제된 패딩 유닛은 레이트 구성을 수행하는 데 사용되고, 레이트 구성에 대한 레이트 차이는 대역폭들 사이의 차이보다 작음 ―
을 더 포함할 수 있다.
선택적으로, 네트워크 장치는,
패딩 유닛을 삭제하고, 삭제 이후에 남아있는 데이터 유닛을 다음의 네트워크 장치 또는 사용자 장치에게 전송하도록 구성된 처리 유닛(1705)
을 더 포함할 수 있다.
본 발명의 본 실시예에서 설명된 바와 같이, 타깃 데이터 스트림을 수신한 후에, 네트워크 장치가 서비스의 업스트림 및 다운스트림 전송 채널의 레이트들 사이의 차이를 구성하기 위해, 네트워크 노드의 업스트림 및 다운스트림 레이트를 신속하게 조정하도록 서비스 데이터 스트림의 업스트림 및 다운스트림 전송 채널의 레이트들 사이의 차이에 기초하여 타깃 데이터 스트림에 패딩 유닛을 삽입하거나 또는 삭제한다. 또한, 네트워크 노드 데이터 버퍼, 네트워크 노드 처리 지연 및 종단 간 서비스 전송 지연이 감소된다.
편리하고 간단한 설명을 위해, 전술한 시스템, 장치 및 유닛의 상세한 작동 과정에 대해, 전술한 방법 실시예들에서의 대응하는 과정에 대한 참조가 이루어질 수 있고, 상세한 것이 설명되지는 않는다는 점이 당업자에 의해 명확하게 이해될 수 있다.
본 출원에서 제공되는 여러 실시예들에서, 개시된 시스템, 장치, 및 방법은 다른 방식들로 구현될 수 있다는 점이 이해되어야 한다. 예를 들어, 설명된 장치 실시예는 단지 예시적인 것이다. 예를 들어, 유닛 분할은 논리적 기능 분할일 뿐이며, 실제 구현에서는 다른 분할일 수 있다. 예를 들어, 복수의 유닛들 또는 컴포넌트들이 다른 시스템에 결합 또는 통합될 수 있거나, 또는 일부 특징들이 무시되거나 수행되지 않을 수 있다. 또한, 표시되거나 논의된 상호 결합 또는 직접 결합 또는 통신 연결은 일부 인터페이스들을 사용하여 구현될 수 있다. 장치들 또는 유닛들 사이의 사이의 간접 결합 또는 통신 연결은 전기적, 기계적, 또는 다른 형태로 구현될 수 있다.
별도의 부품으로 설명된 유닛들은 물리적으로 분리되어 있거나 분리되어 있지 않을 수 있으며, 유닛으로 표시되는 부품들은 물리적 유닛일 수도 있고 아닐 수도 있으며, 한 위치에 있을 수도 있고 복수의 네트워크 유닛에 분산될 수도 있다. 이러한 유닛들의 일부 또는 전부는 실시예들의 해결수단들의 목적들을 달성하기 위해 실제 요구들에 따라 선택될 수 있다.
또한, 본 발명의 실시예들에서의 기능 유닛들은 하나의 처리 유닛으로 통합될 수 있거나, 또는 유닛들 각각은 물리적으로 단독으로 존재할 수 있거나, 또는 둘 이상의 유닛들이 하나의 유닛으로 통합된다. 통합 유닛은 하드웨어 형태로 구현될 수 있거나, 또는 소프트웨어 기능 유닛의 형태로 구현될 수 있다.
통합 유닛이 소프트웨어 기능 유닛의 형태로 구현되고, 독립 제품으로서 판매되거나 사용될 때, 통합 유닛은 컴퓨터 판독가능 저장 매체에 저장될 수 있다. 이러한 이해에 기초하여, 본 발명의 기술적 해결수단들은 본질적으로, 또는 종래 기술에 기여하는 부분, 또는 기술적 해결수단들의 일부는 소프트웨어 제품의 형태로 구현될 수 있다. 컴퓨터 소프트웨어 제품은 저장 매체에 저장되고, (개인용 컴퓨터, 서버, 네트워크 장치일 수 있는) 컴퓨터 장치에, 본 발명의 실시예들에서 설명된 방법들의 단계들의 전부 또는 일부를 수행할 것을 명령하기 위한 여러 개의 명령들을 포함한다. 전술한 저장 매체는, USB 플래시 드라이브, 착탈식 하드 디스크, 리드 온리 메모리(ROM, Read-Only Memory), 랜덤 액세스 메모리(RAM, Random Access Memory), 자기 디스크, 또는 광 디스크와 같은, 프로그램 코드를 저장할 수 있는 임의의 매체를 포함한다.
전술한 실시예들은 단지 본 발명의 기술적 해결수단을 설명하기 위한 것이지, 본 발명을 제한하고자 하는 것은 아니다. 본 발명이 전술한 실시예들을 참조하여 상세하게 설명되었지만, 당업자는 전술한 실시예들에서 설명된 기술적 해결수단에 여전히 수정을 가할 수 있거나 또는 본 발명의 실시예의 기술적 해결수단의 사상 및 범위로부터 벗어남이 없이 본 발명의 일부 기술적 특징들에 대한 동등한 대체물을 만들 수 있음을 이해해야 한다.

Claims (13)

  1. 전송 레이트(transmission rate) 조정 방법으로서,
    네트워크 장치에 의해, 타깃 데이터 스트림을 획득하는 단계 ― 상기 타깃 데이터 스트림은 제1 데이터 패킷을 포함하고, 상기 제1 데이터 패킷은 적어도 2개의 비 유휴 유닛(non-idle unit)을 포함함 ―; 및
    대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 패딩 유닛을 삭제하는 단계 ― 상기 패딩 유닛은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―
    를 포함하고,
    상기 네트워크 장치에 의해, 타깃 데이터 스트림을 획득하는 단계 후에, 상기 전송 레이트 조정 방법은,
    대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 상기 대역폭 조정 값에 기초하여 상기 제1 데이터 패킷과 상기 제1 데이터 패킷의 인접 데이터 패킷 사이에 상기 패딩 유닛을 삽입하거나 또는 상기 제1 데이터 패킷과 상기 제1 데이터 패킷의 인접 데이터 패킷 사이에서 상기 패딩 유닛을 삭제하는 단계
    를 더 포함하는, 전송 레이트 조정 방법.
  2. 전송 레이트(transmission rate) 조정 방법으로서,
    네트워크 장치에 의해, 타깃 데이터 스트림을 획득하는 단계 ― 상기 타깃 데이터 스트림은 제1 데이터 패킷을 포함하고, 상기 제1 데이터 패킷은 적어도 2개의 비 유휴 유닛(non-idle unit)을 포함함 ―; 및
    대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 패딩 유닛을 삭제하는 단계 ― 상기 패딩 유닛은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―
    를 포함하고,
    수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 패딩 유닛을 삭제하는 단계는,
    수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 미리 설정된 패딩 코드 블록을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 미리 설정된 패딩 코드 블록을 삭제하는 단계 ― 상기 미리 설정된 패딩 코드 블록은 코드 블록 유형 필드에 의해 지시되고, 상기 미리 설정된 패딩 코드 블록은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―
    를 포함하는, 전송 레이트 조정 방법.
  3. 전송 레이트(transmission rate) 조정 방법으로서,
    네트워크 장치에 의해, 타깃 데이터 스트림을 획득하는 단계 ― 상기 타깃 데이터 스트림은 제1 데이터 패킷을 포함하고, 상기 제1 데이터 패킷은 적어도 2개의 비 유휴 유닛(non-idle unit)을 포함함 ―; 및
    대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 패딩 유닛을 삭제하는 단계 ― 상기 패딩 유닛은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―
    를 포함하고,
    수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 패딩 유닛을 삭제하는 단계는,
    수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 전형적인 유휴 코드 블록을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 전형적인 유휴 코드 블록을 삭제하는 단계 ― 상기 전형적인 유휴 코드 블록은 코드 블록 유형 필드에 의해 지시되고, 상기 전형적인 유휴 코드 블록은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―
    을 포함하는, 전송 레이트 조정 방법.
  4. 전송 레이트(transmission rate) 조정 방법으로서,
    네트워크 장치에 의해, 타깃 데이터 스트림을 획득하는 단계 ― 상기 타깃 데이터 스트림은 제1 데이터 패킷을 포함하고, 상기 제1 데이터 패킷은 적어도 2개의 비 유휴 유닛(non-idle unit)을 포함함 ―; 및
    대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 패딩 유닛을 삭제하는 단계 ― 상기 패딩 유닛은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―
    를 포함하고,
    상기 네트워크 장치에 의해, 타깃 데이터 스트림을 획득하는 단계 후에, 상기 전송 레이트 조정 방법은,
    레이트 구성에 필요한 레이트 차이에 기초하여 상기 타깃 데이터 스트림 내에 패딩 유닛을 삽입하거나 또는 상기 타깃 데이터 스트림에서 패딩 유닛을 삭제하는 단계 ― 삽입되거나 또는 삭제되는 상기 패딩 유닛은 레이트 구성을 수행하는 데 사용되고, 상기 레이트 구성을 위한 레이트 차이는 대역폭들 사이의 차이보다 작음 ―
    를 더 포함하는, 전송 레이트 조정 방법.
  5. 전송 레이트(transmission rate) 조정 방법으로서,
    네트워크 장치에 의해, 타깃 데이터 스트림을 획득하는 단계 ― 상기 타깃 데이터 스트림은 제1 데이터 패킷을 포함하고, 상기 제1 데이터 패킷은 적어도 2개의 비 유휴 유닛(non-idle unit)을 포함함 ―; 및
    대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 패딩 유닛을 삭제하는 단계 ― 상기 패딩 유닛은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―
    를 포함하고,
    상기 네트워크 장치에 의해, 타깃 데이터 스트림을 획득하는 단계 후에, 상기 전송 레이트 조정 방법은,
    상기 패딩 유닛을 삭제하고, 다음의 네트워크 장치 또는 사용자 장치에게 상기 삭제 이후에 남아 있는 데이터 유닛을 전송하는 단계
    를 더 포함하는, 전송 레이트 조정 방법.
  6. 네트워크 장치로서,
    타깃 데이터 스트림을 획득하도록 구성된 획득 유닛 ― 상기 타깃 데이터 스트림은 제1 데이터 패킷을 포함하고, 상기 제1 데이터 패킷은 적어도 2개의 비 유휴 유닛(non-idle unit)을 포함함 ―; 및
    대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 패딩 유닛을 삭제하도록 구성된 제1 조정 유닛 ― 상기 패딩 유닛은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―
    을 포함하고,
    상기 네트워크 장치는,
    대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 상기 대역폭 조정 값에 기초하여 상기 제1 데이터 패킷과 상기 제1 데이터 패킷의 인접 데이터 패킷 사이에 상기 패딩 유닛을 삽입하거나 또는 상기 제1 데이터 패킷과 상기 제1 데이터 패킷의 인접 데이터 패킷 사이에서 상기 패딩 유닛을 삭제하도록 구성된 제2 조정 유닛
    을 더 포함하는 네트워크 장치.
  7. 네트워크 장치로서,
    타깃 데이터 스트림을 획득하도록 구성된 획득 유닛 ― 상기 타깃 데이터 스트림은 제1 데이터 패킷을 포함하고, 상기 제1 데이터 패킷은 적어도 2개의 비 유휴 유닛(non-idle unit)을 포함함 ―; 및
    대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 패딩 유닛을 삭제하도록 구성된 제1 조정 유닛 ― 상기 패딩 유닛은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―
    을 포함하고,
    상기 제1 조정 유닛은,
    수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 미리 설정된 패딩 코드 블록을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 미리 설정된 패딩 코드 블록을 삭제하도록 구성된 제1 조정 모듈 ― 상기 미리 설정된 패딩 코드 블록은 코드 블록 유형 필드에 의해 지시되고, 상기 미리 설정된 패딩 코드 블록은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―
    을 포함하는, 네트워크 장치.
  8. 네트워크 장치로서,
    타깃 데이터 스트림을 획득하도록 구성된 획득 유닛 ― 상기 타깃 데이터 스트림은 제1 데이터 패킷을 포함하고, 상기 제1 데이터 패킷은 적어도 2개의 비 유휴 유닛(non-idle unit)을 포함함 ―; 및
    대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 패딩 유닛을 삭제하도록 구성된 제1 조정 유닛 ― 상기 패딩 유닛은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―
    을 포함하고,
    상기 제1 조정 유닛은,
    수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 전형적인 유휴 코드 블록을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 전형적인 유휴 코드 블록을 삭제하도록 구성된 제2 조정 모듈 ― 상기 전형적인 유휴 코드 블록은 코드 블록 유형 필드에 의해 지시되고, 상기 전형적인 유휴 코드 블록은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―
    을 포함하는, 네트워크 장치.
  9. 네트워크 장치로서,
    타깃 데이터 스트림을 획득하도록 구성된 획득 유닛 ― 상기 타깃 데이터 스트림은 제1 데이터 패킷을 포함하고, 상기 제1 데이터 패킷은 적어도 2개의 비 유휴 유닛(non-idle unit)을 포함함 ―; 및
    대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 패딩 유닛을 삭제하도록 구성된 제1 조정 유닛 ― 상기 패딩 유닛은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―
    을 포함하고,
    상기 네트워크 장치는,
    레이트 구성에 필요한 레이트 차이에 기초하여 상기 타깃 데이터 스트림 내에 패딩 유닛을 삽입하거나 또는 상기 타깃 데이터 스트림에서 패딩 유닛을 삭제하도록 구성된 제3 조정 유닛 ― 삽입되거나 또는 삭제되는 상기 패딩 유닛은 레이트 구성을 수행하는 데 사용되고, 상기 레이트 구성을 위한 레이트 차이는 대역폭들 사이의 차이보다 작음 ―
    을 더 포함하는 네트워크 장치.
  10. 네트워크 장치로서,
    타깃 데이터 스트림을 획득하도록 구성된 획득 유닛 ― 상기 타깃 데이터 스트림은 제1 데이터 패킷을 포함하고, 상기 제1 데이터 패킷은 적어도 2개의 비 유휴 유닛(non-idle unit)을 포함함 ―; 및
    대역폭 조정이 수행될 필요가 있는 경우, 수행될 필요가 있는 상기 대역폭 조정의 값에 기초하여 임의의 2개의 비 유휴 유닛들 사이에 패딩 유닛을 삽입하거나 또는 상기 임의의 2개의 비 유휴 유닛들 사이에서 패딩 유닛을 삭제하도록 구성된 제1 조정 유닛 ― 상기 패딩 유닛은 상기 네트워크 장치의 업스트림 전송 채널의 대역폭과 상기 네트워크 장치의 다운스트림 전송 채널의 대역폭 사이의 차이를 구성하는 데 사용됨 ―
    을 포함하고,
    상기 네트워크 장치는,
    상기 패딩 유닛을 삭제하고, 다음의 네트워크 장치 또는 사용자 장치에게 상기 삭제 이후에 남아 있는 데이터 유닛을 전송하도록 구성된 처리 유닛
    을 더 포함하는 네트워크 장치.
  11. 컴퓨터에 의해 실행될 때, 상기 컴퓨터가 제1항 내지 제5항 중 어느 한 항의 방법을 수행하도록 하는 명령을 포함하는 컴퓨터 판독 가능형 저장 매체.
  12. 삭제
  13. 삭제
KR1020197016328A 2016-12-23 2017-08-18 전송 레이트 조정 방법 및 네트워크 장치 KR102240140B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201611205246.8 2016-12-23
CN201611205246.8A CN108242969B (zh) 2016-12-23 2016-12-23 一种传输速率的调整方法及网络设备
PCT/CN2017/097999 WO2018113329A1 (zh) 2016-12-23 2017-08-18 一种传输速率的调整方法及网络设备

Publications (2)

Publication Number Publication Date
KR20190073569A KR20190073569A (ko) 2019-06-26
KR102240140B1 true KR102240140B1 (ko) 2021-04-13

Family

ID=62624358

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197016328A KR102240140B1 (ko) 2016-12-23 2017-08-18 전송 레이트 조정 방법 및 네트워크 장치

Country Status (6)

Country Link
US (2) US11082142B2 (ko)
EP (2) EP3905556A3 (ko)
JP (1) JP6946433B2 (ko)
KR (1) KR102240140B1 (ko)
CN (2) CN108242969B (ko)
WO (1) WO2018113329A1 (ko)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109586864B (zh) * 2017-09-28 2021-01-15 华为技术有限公司 数据传输方法、装置及系统
CN114553388A (zh) * 2018-03-13 2022-05-27 华为技术有限公司 一种补偿时延的方法和设备
CN114363184A (zh) * 2018-05-31 2022-04-15 华为技术有限公司 灵活以太网中调整传输通道的带宽方法和装置
CN110830153B (zh) 2018-08-07 2021-04-09 华为技术有限公司 接收码块流的方法、发送码块流的方法和通信装置
CN110830152B (zh) * 2018-08-07 2021-04-09 华为技术有限公司 接收码块流的方法、发送码块流的方法和通信装置
CN110932999A (zh) * 2018-09-20 2020-03-27 中国移动通信有限公司研究院 业务处理方法和设备
CN111147181B (zh) * 2018-11-02 2022-12-09 中兴通讯股份有限公司 业务发送方法、接收方法、装置及系统、存储介质
CN110149452A (zh) * 2019-03-27 2019-08-20 杭州叙简科技股份有限公司 一种降低网络丢包率提升通话声音效果的方法
CN117692099A (zh) 2019-06-04 2024-03-12 华为技术有限公司 一种以太网数据传输的方法和通信设备
CN110381071B (zh) * 2019-07-24 2021-05-28 新华三技术有限公司合肥分公司 一种报文传输方法、装置及发送方设备
CN112564851B (zh) * 2019-09-10 2022-03-08 华为技术有限公司 以太网链路速率切换的方法、装置及计算机可读存储介质
US20240089078A1 (en) * 2019-11-07 2024-03-14 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for communication between two communication devices
EP4049477B1 (en) * 2019-12-18 2023-03-29 Siemens Industry Software Inc. Transmission rate adaptation
CN114762274B (zh) * 2019-12-31 2024-04-09 华为技术有限公司 速率调节装置和方法
CN113452475B (zh) * 2020-03-28 2022-12-13 华为技术有限公司 数据传输方法、装置及相关设备
CN113938245A (zh) * 2020-07-13 2022-01-14 华为技术有限公司 一种速率适配方法及装置
CN112804078B (zh) * 2020-07-23 2022-03-18 中兴通讯股份有限公司 带宽调整方法、业务传输方法、网络设备和可读存储介质
CN116235435A (zh) * 2020-07-31 2023-06-06 华为技术有限公司 一种基于FlexE业务的带宽调整方法及网络设备
CN115699629A (zh) * 2020-09-02 2023-02-03 华为技术有限公司 一种数据传输方法及其设备
EP4254835A4 (en) * 2020-12-25 2024-01-24 Huawei Technologies Co., Ltd. DATA PROCESSING METHOD, DEVICE AND SYSTEM
CN112821985B (zh) * 2020-12-31 2021-11-30 珠海格力电器股份有限公司 编码器的控制方法及控制装置、伺服电机、编码器
CN113438142B (zh) * 2021-06-21 2023-06-20 京东方科技集团股份有限公司 一种通信方法、通信系统及储物系统
CN114866425B (zh) * 2022-03-17 2023-12-05 北京邮电大学 一种调整光业务单元连接的带宽的方法及装置
CN115189811B (zh) * 2022-07-12 2023-11-28 烽火通信科技股份有限公司 一种灵活以太网中网络时延优化的方法和装置
CN118041487A (zh) * 2022-11-07 2024-05-14 中兴通讯股份有限公司 64b/66b编码信号的处理方法、通信设备和存储介质
CN116847360B (zh) * 2022-12-30 2024-04-02 曲阜师范大学 一种非实时数据传输方法、装置及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1984043A (zh) 2006-06-07 2007-06-20 华为技术有限公司 基于带宽调整机制的流量控制方法及系统
CN101656588A (zh) * 2009-09-21 2010-02-24 中兴通讯股份有限公司 一种传输数据的方法及系统
CN103546229A (zh) 2012-07-09 2014-01-29 中兴通讯股份有限公司 Serdes速率匹配方法及装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09319672A (ja) * 1996-05-30 1997-12-12 Fuji Xerox Co Ltd データ伝送装置および方法
US5951637A (en) * 1997-05-07 1999-09-14 Intel Corporation Bandwidth reservation system
US8266266B2 (en) * 1998-12-08 2012-09-11 Nomadix, Inc. Systems and methods for providing dynamic network authorization, authentication and accounting
EP1137314A1 (en) * 2000-03-23 2001-09-26 Siemens Information and Communication Networks S.p.A. Telecommunication process and system handling data organized in cells of variable length
US7027461B1 (en) * 2000-07-20 2006-04-11 General Instrument Corporation Reservation/retry media access control
US7027394B2 (en) * 2000-09-22 2006-04-11 Narad Networks, Inc. Broadband system with traffic policing and transmission scheduling
JP3732412B2 (ja) * 2001-01-26 2006-01-05 日本電信電話株式会社 パケット通信方法及び通信装置、中継開始ノード装置及び中継開始方法、中継ノード装置及び中継方法、中継終了ノード装置及び中継終了方法
US6931011B2 (en) * 2001-01-31 2005-08-16 Telcordia Technologies, Inc. Method and systems for bandwidth management in packet data networks
US7656905B2 (en) * 2002-12-24 2010-02-02 Samir Sheth Apparatus and method for aggregation and transportation of gigabit ethernet and other packet based data formats
JP4110964B2 (ja) * 2002-12-25 2008-07-02 日本電気株式会社 伝送システムおよびデータ転送方法
CN100344103C (zh) * 2003-01-28 2007-10-17 华为技术有限公司 物理层的数据发送时隙在整个时域上均匀分布的方法
IL154739A0 (en) * 2003-03-04 2003-10-31 Bamboo Mediacasting Ltd Segmented data delivery over non-reliable link
GB2421091B (en) * 2004-12-07 2008-09-03 Hewlett Packard Development Co Central processor for a memory tag
US8155148B2 (en) * 2005-09-27 2012-04-10 Ciena Corporation Telecommunications transport methods and systems for the transparent mapping/demapping of client data signals
US8358987B2 (en) * 2006-09-28 2013-01-22 Mediatek Inc. Re-quantization in downlink receiver bit rate processor
CN101192953A (zh) * 2006-11-21 2008-06-04 中兴通讯股份有限公司 干扰环境下Ad hoc网络多媒体视频传输方法
US8160096B1 (en) * 2006-12-06 2012-04-17 Tadaaki Chigusa Method and system for reserving bandwidth in time-division multiplexed networks
CN101335751A (zh) * 2007-06-29 2008-12-31 华为技术有限公司 将以太网编码块映射到光传输网络传输的方法及装置
US7903550B2 (en) * 2007-07-27 2011-03-08 Silicon Image, Inc. Bandwidth reservation for data flows in interconnection networks
CN101299649B (zh) * 2008-06-19 2011-08-24 中兴通讯股份有限公司 基于通用成帧规程的多业务混合汇聚方法和装置
GB2454606C (en) * 2009-02-02 2017-01-25 Skype Ltd Method of transmitting data in a communication system
CN103973265B (zh) * 2009-06-09 2017-01-18 华为技术有限公司 一种ODUflex通道带宽的无损调整方法和光传送网
CN101651512B (zh) * 2009-09-24 2013-06-05 中兴通讯股份有限公司 一种实现数据业务透明传送的方法、系统及装置
CN102195859B (zh) * 2010-03-04 2015-05-06 中兴通讯股份有限公司 基于gfp的灵活光通道数据单元带宽调整方法及系统
CN102215153B (zh) * 2010-04-02 2014-11-05 华为技术有限公司 带宽调整方法及通信节点
CN102130787A (zh) * 2011-03-02 2011-07-20 华为技术有限公司 一种网管设备及其管理ODUflex帧的空闲时隙的方法
US9722723B2 (en) * 2012-09-13 2017-08-01 Tejas Networks Ltd. Dynamic hitless ODUflex resizing in optical transport networks
US10003546B1 (en) * 2012-11-19 2018-06-19 Cox Communications, Inc. Bandwidth override
US9654849B2 (en) * 2015-05-15 2017-05-16 Huawei Technologies Co., Ltd. System and method for photonic switching
CN104967571B (zh) * 2015-06-08 2018-08-24 新华三技术有限公司 一种带宽调整方法及装置
CN107579833B (zh) * 2016-07-05 2022-03-18 中兴通讯股份有限公司 一种为专线用户提速的方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1984043A (zh) 2006-06-07 2007-06-20 华为技术有限公司 基于带宽调整机制的流量控制方法及系统
CN101656588A (zh) * 2009-09-21 2010-02-24 中兴通讯股份有限公司 一种传输数据的方法及系统
CN103546229A (zh) 2012-07-09 2014-01-29 中兴通讯股份有限公司 Serdes速率匹配方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
비특허문헌

Also Published As

Publication number Publication date
CN113300810A (zh) 2021-08-24
EP3905556A2 (en) 2021-11-03
US20190288783A1 (en) 2019-09-19
WO2018113329A1 (zh) 2018-06-28
JP2020502927A (ja) 2020-01-23
US11082142B2 (en) 2021-08-03
CN108242969B (zh) 2021-04-20
EP3531594B1 (en) 2021-04-07
US20210359779A1 (en) 2021-11-18
JP6946433B2 (ja) 2021-10-06
US11750312B2 (en) 2023-09-05
CN113300810B (zh) 2023-03-10
EP3905556A3 (en) 2021-11-17
CN108242969A (zh) 2018-07-03
EP3531594A4 (en) 2019-12-04
KR20190073569A (ko) 2019-06-26
EP3531594A1 (en) 2019-08-28

Similar Documents

Publication Publication Date Title
KR102240140B1 (ko) 전송 레이트 조정 방법 및 네트워크 장치
US20210203588A1 (en) Data forwarding method and device
CN107612825B (zh) 建立灵活以太网路径的方法和网络设备
JP4169595B2 (ja) 可変長パケットを利用するポイントツーマルチポイント受動光ネットワーク
US20130128901A1 (en) Layer 1 frame construction
KR20200103077A (ko) 데이터 전송 방법, 통신 장치, 및 저장 매체
CN108965157B (zh) 数据传输方法、装置、设备及系统
CN107438028A (zh) 一种客户业务处理的方法和设备
KR20230041057A (ko) 데이터 전송 방법 및 디바이스
CN111095860A (zh) 时钟同步的方法和装置
JP2016509782A (ja) 物理レイヤレート整合および時分割複信のためのアイドル挿入
CN114915366A (zh) 一种通信方法、设备和芯片系统
JP2002223202A (ja) データ伝送方法及びそれを用いた伝送装置
US20060222007A1 (en) RPR ring network system
EP4287544A1 (en) Method for determining transmission time slot and related apparatus
JP7167345B2 (ja) データ伝送方法、通信機器、および記憶媒体
US7042845B1 (en) System and method for time division multiplexed switching of data using a high-speed packet switch
CN114598745A (zh) 通信方法及装置
US7408939B1 (en) Method and apparatus for transport of fractional datastreams over frame-based transport systems
US6980545B1 (en) Apparatus for routing asynchronous traffic in a circuit switched network
WO2020114084A1 (zh) 一种报文转发方法和装置
Yang et al. Channel statistical multiplexing in SDH/SONET networks
JP2008167385A (ja) ネットワークパケット伝送方法および装置
Tykhonova Multimedia QoS aware data transfer over the packet based network
WO2020107298A1 (zh) 传输通用服务传输转变编码的设备和方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant