KR101065857B1 - Tcp/ip 패킷-중심 와이어리스 전송 시스템 아키텍처 및 전송 방법 - Google Patents

Tcp/ip 패킷-중심 와이어리스 전송 시스템 아키텍처 및 전송 방법 Download PDF

Info

Publication number
KR101065857B1
KR101065857B1 KR1020097018628A KR20097018628A KR101065857B1 KR 101065857 B1 KR101065857 B1 KR 101065857B1 KR 1020097018628 A KR1020097018628 A KR 1020097018628A KR 20097018628 A KR20097018628 A KR 20097018628A KR 101065857 B1 KR101065857 B1 KR 101065857B1
Authority
KR
South Korea
Prior art keywords
packet
data
flow
network
wireless
Prior art date
Application number
KR1020097018628A
Other languages
English (en)
Other versions
KR20090110371A (ko
Inventor
제이콥 더블유. 조르젠슨
Original Assignee
말리부 네트웍스, 인코퍼레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US09/349,477 external-priority patent/US6862622B2/en
Application filed by 말리부 네트웍스, 인코퍼레이티드 filed Critical 말리부 네트웍스, 인코퍼레이티드
Priority claimed from PCT/US2000/018531 external-priority patent/WO2001005098A1/en
Publication of KR20090110371A publication Critical patent/KR20090110371A/ko
Application granted granted Critical
Publication of KR101065857B1 publication Critical patent/KR101065857B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/12Wireless traffic scheduling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W80/00Wireless network protocols or protocol adaptations to wireless operation
    • H04W80/02Data link layer protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W80/00Wireless network protocols or protocol adaptations to wireless operation
    • H04W80/04Network layer protocols, e.g. mobile IP [Internet Protocol]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W80/00Wireless network protocols or protocol adaptations to wireless operation
    • H04W80/06Transport layer protocols, e.g. TCP [Transport Control Protocol] over wireless

Abstract

패킷-중심 프로토콜을 통해 제1 데이터 네트워크로 통신하는 와이어리스 기지국; 상기 패킷-중심 프로토콜을 통해 상기 제1 데이터 네트워크로 통신하는 하나 또는 그 이상의 호스트 워크스테이션; 와이어리스 매체를 거쳐 상기 패킷-중심 프로토콜을 통해 공유 대역폭에 걸쳐 상기 와이어리스 기지국과 연결되는 하나 또는 그 이상의 가입자 고객 구내 장비(CPE) 스테이션; 및 제2 네트워크를 통해 상기 각각의 가입자 CPE 스테이션에 상기 패킷-중심 프로토콜을 통해 연결되는 하나 또는 그 이상의 가입자 워크스테이션을 포함하는 패킷-중심 와이어리스 점대다점 통신 시스템이 기재되어 있다. 패킷-중심 프로토콜은 TPC/IP(transmission control protocol/internet protocol)일 수 있다. 패킷-중심 프로토콜은 UDP/IP(user datagram protocol/internet protocol)일 수 있다. 시스템은 가입자 CPE 스테이션 사이에 공유 대역폭을 할당하기 위한 자원 할당 수단을 포함할 수 있다. 자원 할당은 최종사용자 QoS(quality of service)를 최적화하도록 수행된다.
Figure R1020097018628
통신 시스템, 와이어리스, 점대다점(point-to-multi-point), QoS, 프로토콜, 네트워크, TCP/IP, 패킷 교환, 자원 할당, 트래픽

Description

TCP/IP 패킷-중심 와이어리스 전송 시스템 아키텍처 및 전송 방법{TCP/IP PACKET-CENTRIC WIRELESS TRANSMISSION SYSTEM ARCHITECTURE AND METHOD THEREOF}
본 발명은 일반적으로 통신에 관한 것으로, 특히, QoS(Quality of Service) 인식 와이어리스 점대다점(point-to-multi-point : PtMP) 전송 시스템을 구현하기 위한 방법 및 시스템에 관한 것이다.
다음의 출원들이 공통적인 기재를 포함하고 있다.
1999년 7월 9일자 미국 특허 출원, "Quality of Service(QoS)-Aware Wireless Point to Multi-Point(PtMP) Transmission System Architecture," Attorney Docket No. A-21506.
1999년 7월 9일자 미국 특허 출원, "Method for Providing Dynamic Bandwidth Allocation Based on IP-Flow Characteristics in a Wireless Point to Multi-Point (PtMP) Transmission System," Attorney Docket No. A-21507.
1999년 7월 9일자 미국 특허 출원, "Method for Providing for Quality of Service (QoS) - Based Handling of IP-Flows in a Wireless Point to Multi-Point Transmission System," Attorney Docket No. A-21508.
1999년 7월 9일자 미국 특허 출원, "IP-Flow Identification in a Wireless Point to Multi-Point Transmission System," Attorney Docket No. A-21509.
1999년 7월 9일자 미국 특허 출원, "IP-Flow Characterization in a Wireless Point to Multi-Point (PtMP) Transmission System," Attorney Docket No. A-21510.
1999년 7월 9일자 미국 특허 출원, "IP-Flow Classification in a Wireless Point to Multi-Point (PtMP) Transmission System," Attorney Docket No. A-21511.
1999년 7월 9일자 미국 특허 출원, "IP-Flow Prioritization in a Wireless Point to Multi-Point (PtMP) Transmission System," Attorney Docket No. A-21512.
1999년 7월 9일자 미국 특허 출원, "Method of Operation for Providing for Service Level Agreement (SLA) Based Prioritization in a Wireless Point to Multi-Point (PtMP) Transmission System." Attorney Docket No. A-21513.
1999년 7월 9일자 미국 특허 출원, "Method for Transmission Control Protocol (TCP) Rate Control With Link-Layer Acknowledgments in a Wireless Point to Multi-Point (PtMP) Transmission System." Attorney Docket No. A-21514.
1999년 7월 9일자 미국 특허 출원, "Transmission Control Protocol/Internet Protocol (TCP/IP) - Centric QoS Aware Media Access Control (MAC) Layer in a Wireless Point to Multi-Point (PtMP) Transmission System," Attorney Docket No. A-21532.
1999년 7월 9일자 미국 특허 출원, "Use of Priority-Based Scheduling for the Optimization of Latency and Jitter Sensitive IP Flows in a Wireless Point to Multi-Point Transmission System," Attorney Docket No. A-21533.
1999년 7월 9일자 미국 특허 출원, "Time Division Multiple Access/ Time Division Duplex (TDMA/TDD) Access Method for a Wireless Point to Multi-Point Transmission System," Attorney Docket No. A-21534.
1999년 7월 9일자 미국 특허 출원, "Reservation Based Prioritization Method for Wireless Transmission of Latency and Jitter Sensitive IP_Flows in a Wireless Point to Multi-Point Transmission System," Attorney Docket No. A-21535.
1999년 7월 9일자 미국 특허 출원, "Translation of Internet-Prioritized Internet Protocol (IP)-Flows into Wireless System Resource Allocations in a Wireless Point to Multi-Point (PtMP) Transmission System," Attorney Docket No. A-21536.
1999년 7월 9일자 미국 특허 출원, "Method of Operation for the Integration of Differentiated services (Diff-serv) Marked IP-Flows into a Quality of Service (QoS) Priorities in a Wireless Point to Multi-Point (PtMP) Transmission System," Attorney Docket No. A-21539.
1999년 7월 9일자 미국 특허 출원, "Method for the Recognition and Operation of Virtual Private Networks (VPNs) over a Wireless Point to Multi-Point (PtMP) Transmission System," Attorney Docket No. A-21540.
1999년 7월 9일자 미국 특허 출원, "Time Division Multiple Access/Time Division Duplex (TDMA/TDD) Transmission Media Access Control (MAC) Air Frame," Attorney Docket No. A-21541.
1999년 7월 9일자 미국 특허 출원, "Application-Aware, Quality of Service(QoS) Sensitive, Media Access Control (MAC) Layer," Attorney Docket No. A-21542.
1999년 7월 9일자 미국 특허 출원, "Transmission Control Protocol/Internet Protocol (TCP/IP) Packet-Centric Wireless Point to Point (PtP) Transmission System Architecture," Attorney Docket No. A-21543.
1999년 7월 9일자 미국 특허 출원, "Transmission Control Protocol/Internet Protocol (TCP/IP) Packet-Centric Cable Point to Multi-Point (PtMP) Transmission System Architecture," Attorney Docket No. A-21547.
음성, 데이터 및 비디오 네트워크와 같은 통신 네트워크는 통상적으로 각각이 전송을 위한 트래픽 타입으로 주문 제작되고 있다. 예를 들면, 음성 트래픽은 지연(latency)에 매우 민감하지만 품질은 덜 중요하므로, 제한된 지연을 갖는 음성 트래픽을 전송하도록 음성 네트워크가 디자인된다. 한편, 예로, 스프레드시트(spreadsheet)와 같은 전형적인 데이터 트래픽은 지연에 민감하지 않지만 에러없는 전달이 요구된다. 통상적인 통신 네트워크는 허용가능한 최종사용자 서비스 품질(QoS)을 달성하기 위해 회선 교환(circuit switching)을 이용한다. 새로운 패킷 교환(packet switching)의 고 대역폭 데이터 네트워크의 출현에 따라, 상이한 타입의 트래픽이 데이터 네트워크를 통해 전송될 수 있다. 특히, 단일 광대역 통신 네트워크로의 개별적인 음성, 데이터 및 비디오 네트워크의 집중이 가능하게 되었다. 최종사용자의 만족도를 보장하기 위해, 전송될 여러 타입의 트래픽에 대한 QoS를 제공하는 것이 시스템에 요구되고 있다.
QoS 전달시에 와이어리스 네트워크(wireless networks)는 와이어라인(wireline) 상응부분에 비해 특별한 문제점이 존재한다. 예를 들면, 통상적으로 와이어리스 네트워크는 많은 이유로 인해 높은 비트 에러 레이트(bit error rates : BER)을 나타낸다. 또한, 통상적인 와이어리스 네트워크는 신뢰할 수 있는 통신 채널을 제공하기 위해 회선 교환의 접속을 구현한다. 그러나, 회선 교환 접속의 사용은, 노드 간에 트래픽이 계속해서 전달되는지에 상관없이, 통신 노드 사이의 대역폭을 할당한다. 따라서, 회선 교환 접속은 비효율적으로 통신 대역폭을 사용한다.
패킷 교환은 전형적인 회선 교환에 비해 가용한 대역폭을 보다 효과적으로 사용한다. 패킷 교환은 트래픽을 소위 "패킷"이라는 것으로 분해하고, 이것은 이후에 재결합하여 소스 노드로부터 목적지로 전송될 수 있다. 따라서, 대역폭의 각 부 분이 많은 소스와 목적지에 의해 공유되어 보다 효과적인 대역폭 사용을 산출하게 된다.
와이어라인 광대역 액세스 장치에 의해 전달되는 것과 비교될만한 QoS 능력을 제공할 수 있는 와이어리스 광대역 액세스 통신 시스템이 요구되고 있다. 통상적으로, 와이어리스 광대역 액세스 시스템 개발의 장애물 중 하나는, 광대역으로 자격을 승인하는데 충분한 대역폭을 전달하는 것과 동시에, 수락가능한 QoS 특성이 존재하지 않는 것이었다. 수락가능한 QoS 없이 와이어리스 매체를 통해 미처리(raw) 대역폭을 전달하는 것은 최종사용자에게 유익하지 못하다. 마찬가지로, 충분한 대역폭의 소비로 고 레벨의 QoS를 전달하는 것 역시 최종사용자에게 이익이 되지 못한다.
와이어리스 광대역 액세스 시스템을 제공하기 위한 종래의 시도는 와이어리스 시스템의 설계시에 유도 원리로서 QoS에 대해 충분한 우선순위를 승인하지 못하였고, 이것은 최적이하(sub-optimal)의 디자인을 초래한다. 인터넷, 패킷 교환 및 TCP/IP(transmission control protocol/internet protocol)가 보편적인 데이터 프로토콜로서 출현함으로써, 새로운 와이어리스 시스템 디자인의 필요성이 명백해지고 있다.
그리고, 진정한 QoS 능력을 가진 IP-중심 와이어리스 광대역 액세스 시스템이 요구되고 있다.
본 발명은 QoS(Quality of Service) 인식 와이어리스 점대다점(point-to-multi-point : PtMP) 전송 시스템을 구현하기 위한 방법 및 시스템을 제공하는 것을 목적으로 한다.
본 발명의 방법은 와이어리스 데이터 통신 네트워크에서의 데이터 패킷을 서비스 등급(classes of service)으로 구별하는 단계 - 여기서, 상기 구별 단계는 데이터 패킷이, 이전에 서비스 품질(QoS) 파라미터가 결정된, 하나 또는 그 이상의 이전에 수신된 데이터 패킷의 그룹의 일부인지 여부를 판단하기 위하여 데이터 패킷의 헤더를 분석하는 단계를 포함함 - 와, 상기 분석의 결과 수신된 데이터 패킷이 이전에 수신된 데이터 패킷의 그룹의 일부가 아닌 것으로 판단된 경우, 상기 데이터 패킷에 대한 서비스 품질 파라미터를 결정하기 위해서, 서비스 품질 매트릭스에 대하여 상기 데이터 패킷에 대해 결정된 서비스 등급을 매핑하는 단계와, 트래픽 정형(traffic shaping), 수락 제어(admission control), IP 순위(precedence), 및/또는 차등 정체 관리(differential congestion management) 중 적어도 하나를 이용하여, 상기 와이어리스 데이터 통신 네트워크에서 상기 서비스 등급을 구현하는 단계를 포함한다.
또한 본 발명은 패킷-중심 와이어리스 점대다점(point to multi-point) 통신 시스템에 관한 것으로서, 상기 통신 시스템은, 패킷-중심 프로토콜을 통해 제1 데이터 네트워크로 통신하는 와이어리스 기지국; 상기 패킷-중심 프로토콜을 통해 상기 제1 데이터 네트워크로 통신하는 하나 또는 그 이상의 호스트 워크스테이션; 와이어리스 매체를 거쳐 상기 패킷-중심 프로토콜을 통해 공유 대역폭에 걸쳐 상기 와이어리스 기지국과 연결되는 하나 또는 그 이상의 가입자 고객 구내 장비(CPE) 스테이션; 및 제2 네트워크를 통해 상기 각각의 가입자 CPE 스테이션에 상기 패킷-중심 프로토콜을 통해 연결되는 하나 또는 그 이상의 가입자 워크스테이션을 포함한다. 상기 패킷-중심 프로토콜은 전송 제어 프로토콜/인터넷 프로토콜(TCP/IP)이 될 수 있다. 또한, 상기 패킷-중심 프로토콜은 사용자 데이터그램 프로토콜/인터넷 프로토콜(UDP/IP)이 될 수 있다.
상기 시스템은 상기 가입자 CPE 스테이션 사이에서 공유 대역폭을 할당하기 위한 자원 할당 수단을 포함할 수 있다. 자원 할당은 최종사용자 서비스 품질(QoS)을 최적화하도록 수행된다. 상기 와이어리스 통신 매체는, RF 통신 매체; 케이블 통신 매체; 및 위성 통신 매체 중 적어도 하나를 포함할 수 있다. 상기 와이어리스 통신 매체는, TDMA(Time Division Multiple Access) 액세스 방법; TDMA/TDD(Time Division Multiple Access/Time Division Duplex) 액세스 방법; CDMA(Code Division Multiple Access) 액세스 방법; 및 FDMA(Frequency Division Multiple Access) 액세스 방법 중 적어도 하나를 포함하는 통신 액세스 방법을 더 포함할 수 있다.
상기 제1 데이터 네트워크는, 와이어라인 네트워크; 와이어리스 네트워크; LAN(Local Area Network); 및 WAN(Wide Area Network) 중 적어도 하나를 포함한다. 상기 제2 네트워크는, 와이어라인 네트워크; 와이어리스 네트워크; LAN; 및 WAN 중 적어도 하나를 포함한다.
상기 시스템은 상기 가입자 CPE 스테이션 사이에서 공유 대역폭을 할당하기 위한 자원 할당부(resource allocator)를 포함할 수 있다. 상기 자원 할당부는 최종사용자 서비스 품질(QoS)을 최적화한다. 상기 자원 할당부는 애플리케이션 인식 방식(application aware)이 될 수 있다.
본 발명은 QoS 인식 와이어리스 점대다점 통신 시스템에 관한 것으로서, 상기 시스템은, 제1 데이터 네트워크에 연결된 와이어리스 기지국; 상기 제1 데이터 네트워크에 연결된 하나 또는 그 이상의 호스트 워크스테이션; 패킷-중심 프로토콜을 이용하여 공유 대역폭을 통해 상기 와이어리스 기지국과 와이어리스 통신하는 하나 또는 그 이상의 가입자 CPE 스테이션; 제2 네트워크를 통해 상기 각각의 가입자 CPE 스테이션에 연결된 하나 또는 그 이상의 가입자 워크스테이션; 상기 가입자 스테이션 사이에서 공유 대역폭을 할당하는 자원 할당 장치를 포함한다. 자원 할당은 최종사용자 QoS를 최적화하기 위해 수행된다.
상기 자원 할당 수단은, 상기 공유 와이어리스 대역폭을 통한 IP 플로우를 분석하고 스케줄링하는 분석 및 스케줄링 장치를 포함하고, 상기 IP 플로우는 TCP/IP 플로우와 UDP/IP 플로우 중 적어도 하나를 포함한다.
상기 분석 및 스케줄링 장치는, 상기 IP 플로우를 식별하는 식별부(identifier); 상기 IP 플로우를 특징화하는 특징화부(characterizer); 및 상기 IP 플로우를 분류하는 분류부(classifier)를 포함하고, 여기서 상기 분석 및 스케줄링 장치는 상기 IP 플로우의 우선순위를 정하기 위한 우선순위화 장치를 포함한다.
상기 식별부는 패킷 헤더 필드를 분석하는 분석 장치; 및 새로운 IP 플로우 및 기존의 IP 플로우를 식별하는 식별 장치를 포함한다. 상기 분석 장치는, 상기 IP 플로우의 패킷을 버퍼링하는 버퍼링 장치; 상기 각각의 패킷의 패킷 헤더 필드로부터 데이터를 추출하는 데이터 추출 장치; 및 상기 패킷 헤더 필드를 분석하는 패킷 헤더 필드 분석 장치를 포함한다. 상기 데이터 추출 장치는, 상기 IP 플로우의 패킷이 IPv.4 또는 IPv.6인지 판단하기 위한 수단; 및 상기 패킷을 파싱(parsing)하기 위한 수단을 포함할 수 있다. 상기 패킷 헤더 필드 분석기는, 소스 애플리케이션 타입을 판단하기 위한 수단을 포함할 수 있으며, 이 수단은, 소스 애플리케이션 패킷 헤더 테이블로부터 소스 어드레스에 대해 소스 애플리케이션을 저장하고 검색하기 위한 수단; 서비스 타입(TOS) 패킷 헤더 필드로부터 소스 애플리케이션을 판단하기 위한 수단; 및 차별화된 서비스(DiffServ) 패킷 헤더 필드로부터 소스 애플리케이션을 판단하기 위한 수단 중 적어도 하나를 포함할 수 있다.
상기 특징화부는, 패킷이 임계 연령보다 더 오래되었는지 판단하기 위한 올더(older) 판단 수단; 상기 패킷의 연령에 근거하여 클라이언트 애플리케이션 IP 플로우 폐기를 예상하기 위한 수단; 새로운 IP 플로우에 대한 QoS 요건을 판단하기 위한 QoS 판단 수단; 및 상기 새로운 IP 플로우와 관련된 상기 가입자 CPE 스테이션에 대한 가입자 신분을 판단하기 위한 수단을 포함할 수 있다.
패킷이 임계 연령보다 더 오래되었는지 판단하기 위한 수단은, 상기 패킷의 연령을 판단하기 위해 존속 시간(TTL) 패킷 헤더 필드를 분석하기 위한 수단을 포함할 수 있다. 새로운 IP 플로우에 대한 QoS 요건을 판단하기 위한 수단은, 소스 어드레스; 목적지 어드레스; 및 UDP 포트 번호 중 적어도 하나에 근거하여 상기 QoS 요건을 판단한다. 상기 새로운 IP 플로우에 대한 QoS 요건을 판단하기 위한 수단은, IP 플로우 QoS 요건 테이블로부터 IP 플로우에 대한 QoS 요건을 저장하고 검색하기 위한 수단을 포함한다.
상기 분류부는 기존의 IP 플로우 중 하나의 패킷을 상기 IP 플로우 중 하나와 관련시키기 위한 수단을 포함할 수 있다. 상기 분류부는 상기 새로운 IP 플로우의 패킷을 QoS 분류 그룹으로 분류하기 위한 수단을 포함할 수 있다.
상기 새로운 IP 플로우의 패킷을 QoS 분류 그룹으로 분류하기 위한 수단은 상기 IP 플로우에 대해 QoS 분류 그룹을 판단하고 고려하기 위한 수단을 포함할 수 있다. 상기 새로운 IP 플로우의 패킷을 QoS 분류 그룹으로 분류하기 위한 수단은 상기 IP 플로우에 대해 선택적인 차별화된 서비스(DiffServ) 필드 우선순위 마킹(marking)을 고려하기 위한 수단을 포함할 수 있다. 상기 새로운 IP 플로우의 패킷을 QoS 분류 그룹으로 분류하기 위한 수단은 상기 IP 플로우에 대해 선택적인 서비스 타입(TOS) 필드 우선순위 마킹을 고려하기 위한 수단을 포함할 수 있다.
상기 우선순위화 장치는, 상기 IP 플로우에 대해 계층적 분류 기반 우선순위(HCBPs)를 고려하기 위한 수단을 포함할 수 있다. 상기 우선순위화 장치는, 상기 IP 플로우에 대해 가상 사설 네트워크(VPN) 우선순위를 고려하기 위한 수단을 포함 할 수 있다. 상기 우선순위화 장치는, 상기 IP 플로우에 대해 서비스 레벨 약정(SLA) 기반 우선순위를 고려하기 위한 수단을 포함할 수 있다. 상기 우선순위화 장치는, 상기 IP 플로우에 대해 TOS 우선순위를 고려하기 위한 수단을 포함할 수 있다. 또한, 상기 우선순위화 장치는 상기 IP 플로우에 대해 DiffServ 우선순위를 고려하기 위한 수단을 포함할 수 있다.
본 발명은 패킷-중심 와이어리스 점대다점(PtMP) 통신 시스템에 관한 것으로서, 상기 통신 시스템은, 제1 데이터 네트워크에 연결된 와이어리스 기지국; 상기 제1 데이터 네트워크에 연결된 하나 또는 그 이상의 호스트 워크스테이션; 패킷-중심 프로토콜을 이용하여 공유 대역폭을 통해 상기 와이어리스 기지국과 와이어리스 통신하는 하나 또는 그 이상의 가입자 CPE 스테이션; 제2 네트워크를 통해 상기 각각의 가입자 CPE 스테이션에 연결된 하나 또는 그 이상의 가입자 워크스테이션; 최종사용자 QoS를 최적화하고 상기 가입자 CPE 스테이션 사이에서 공유 대역폭을 할당하는 자원 할당 수단; 및 상기 공유 와이어리스 대역폭을 통해 인터넷 프로토콜(IP) 플로우를 분석하고 스케줄링하기 위한 수단을 포함하고, 상기 분석 수단은 IP 플로우를 식별하는 수단을 포함한다.
상기 IP 플로우는 TCP/IP 플로우가 될 수 있다. 상기 IP 플로우는 UDP/IP 플로우가 될 수 있다. 상기 식별 수단은 상기 IP 플로우 내의 하나 또는 그 이상의 패킷 헤더 필드를 분석하기 위한 분석 수단; 및 새로운 IP 플로우와 기존의 IP 플로우 사이를 구별하기 위한 구별 수단을 포함할 수 있다.
상기 분석 수단은 상기 가입자 CPE 스테이션으로부터 상기 와이어리스 기지 국까지의 업링크 와이어리스 접속을 위해 상기 가입자 CPE 스테이션에 위치될 수 있다. 상기 구별 수단은 상기 가입자 CPE 스테이션으로부터 상기 와이어리스 기지국까지의 업링크 와이어리스 접속을 위해 상기 가입자 CPE 스테이션에 위치될 수 있다.
상기 분석 수단은 상기 와이어리스 기지국으로부터 상기 가입자 CPE 스테이션까지의 다운링크 와이어리스 접속을 위해 상기 와이어리스 기지국에 위치될 수 있다. 상기 구별 수단은 상기 와이어리스 기지국으로부터 상기 가입자 CPE 스테이션까지의 다운링크 와이어리스 접속을 위해 상기 와이어리스 기지국에 위치될 수 있다.
패킷 헤더 필드를 분석하기 위한 수단은, 상기 IP 플로우의 패킷을 버퍼링하기 위한 수단; 상기 각각의 패킷의 패킷 헤더 필드로부터 데이터를 추출하기 위한 추출 수단; 및 상기 패킷 헤더 필드를 분석하기 위한 수단을 포함할 수 있다. 상기 각각의 패킷의 패킷 헤더 필드로부터 데이터를 추출하기 위한 수단은, 상기 패킷들이 패킷 버전 IPv.4 또는 IPv.6인지 판단하기 위한 수단; 및 상기 IP 플로우의 상기 패킷 헤더 필드를 파싱하기 위한 수단을 포함할 수 있다.
상기 분석 수단은 소스 애플리케이션 타입을 판단하기 위한 판단 수단을 포함할 수 있으며, 상기 판단 수단은, 소스 애플리케이션 패킷 헤더 테이블로/로부터 소스 애플리케이션 타입을 저장하고 검색하기 위한 수단; TOS 패킷 헤더 필드로부터 소스 애플리케이션을 판단하기 위한 수단; DiffServ 패킷 헤더 필드로부터 소스 애플리케이션을 판단하기 위한 수단; 및 직접 애플리케이션 콘딧(conduit)에 의해 제공되는 정보로부터 소스 애플리케이션을 판단하기 위한 수단을 포함할 수 있다.
본 발명은 패킷-중심 와이어리스 점대다점(PtMP) 통신 시스템에 관한 것으로서, 상기 통신 시스템은, 제1 데이터 네트워크에 연결된 와이어리스 기지국; 상기 제1 데이터 네트워크에 연결된 하나 또는 그 이상의 호스트 워크스테이션; 패킷-중심 프로토콜을 이용하여 공유 대역폭을 통해 상기 와이어리스 기지국과 와이어리스 통신하는 하나 또는 그 이상의 가입자 CPE 스테이션; 제2 네트워크를 통해 상기 각각의 가입자 CPE 스테이션에 연결된 하나 또는 그 이상의 가입자 워크스테이션; 최종사용자 QoS를 최적화하고 상기 가입자 CPE 스테이션 사이에서 공유 대역폭을 할당하는 자원 할당 수단; 및 상기 공유 와이어리스 대역폭을 통해 인터넷 프로토콜(IP) 플로우를 분석하고 스케줄링하기 위한 수단을 포함하고, 상기 분석 수단은 IP 플로우를 특징화하는 특징화 수단을 포함한다.
상기 특징화 수단은 패킷이 임계 연령보다 더 오래되었는지 판단하기 위한 수단을 포함할 수 있다. 상기 연령 판단 수단은 상기 패킷의 연령을 판단하기 위해 TTL 패킷 헤더 필드를 분석하기 위한 수단 또는 상기 패킷의 연령에 근거하여 애플리케이션 IP 플로우 폐기를 예상하기 위한 수단을 포함할 수 있다.
상기 특징화 수단은 상기 IP 플로우가 새로운 IP 플로우인 경우에 상기 IP 플로우에 대한 QoS 요건을 판단하기 위한 수단을 포함할 수 있다. 상기 특징화 수단은 상기 IP 플로우가 새로운 IP 플로우인 경우에 상기 IP 플로우와 관련된 상기 가입자 CPE 스테이션에 대해 가입자 CPE 신분을 판단하기 위한 수단을 포함할 수 있다. 상기 QoS 판단 수단은 소스 어드레스; 목적지 어드레스; 및 UDP 포트 번호 중 적어도 하나에 근거하여 QoS 요건을 판단하기 위한 수단을 포함할 수 있다. 상기 QoS 판단 수단은 IP 플로우 QoS 요건 테이블로부터 IP 플로우에 대한 요건을 저장하고 검색하기 위한 수단을 포함할 수 있다.
본 발명은 와이어리스 통신 시스템에 사용되는 IP 플로우 분류 시스템에 관한 것이며, 특히, IP 플로우 분류 시스템은 패킷-중심 와이어리스 점대다점 통신 시스템에서 IP 플로우를 그룹화한다.
상기 분류 시스템은 제1 데이터 네트워크에 연결된 와이어리스 기지국; 상기 제1 데이터 네트워크에 연결된 하나 또는 그 이상의 호스트 워크스테이션; 패킷-중심 프로토콜을 이용하여 공유 대역폭을 통해 상기 와이어리스 기지국과 와이어리스 통신하는 하나 또는 그 이상의 가입자 CPE 스테이션; 제2 네트워크를 통해 상기 각각의 가입자 CPE 스테이션에 연결된 하나 또는 그 이상의 가입자 워크스테이션; 최종사용자 QoS를 최적화하고 상기 가입자 CPE 스테이션 사이에서 공유 대역폭을 할당하는 자원 할당 장치; 및 상기 공유 와이어리스 대역폭을 통해 인터넷 프로토콜(IP) 플로우를 분석하고 스케줄링하는 분석 및 스케줄링 장치를 포함한다. 상기 분석 장치는 IP 플로우를 분류하는 IP 플로우 분류부를 포함한다.
일실시예에서, 상기 분류부는 기존의 IP 플로우의 패킷을 상기 IP 플로우와 관련시키기 위한 수단을 포함한다. 상기 분류부는 새로운 IP 플로우의 패킷을 QoS 분류 그룹으로 그룹화하기 위한 QoS 그룹화 장치를 포함할 수 있다. QoS 그룹화 장치는 상기 IP 플로우에 대해 QoS 분류 그룹을 판단하고 고려하는 판단 장치를 포함할 수 있다. 상기 QoS 그룹화 장치는 상기 IP 플로우에 대해 선택적인 DiffServ 필 드 우선순위 마킹을 고려하는 선택적인 차별화된 서비스(DiffServ) 장치를 포함할 수 있다. 상기 QoS 그룹화 장치는 상기 IP 플로우에 대해 선택적인 TOS 필드 우선순위 마킹을 고려하는 선택적인 TOS 장치를 포함할 수 있다.
본 발명은 와이어리스 점대다점(PtMP) 전송 시스템에서 IP-플로우 우선순위화를 제공한다. 상기 시스템은 제1 데이터 네트워크에 연결된 와이어리스 기지국; 상기 제1 데이터 네트워크에 연결된 하나 또는 그 이상의 호스트 워크스테이션; 패킷-중심 프로토콜을 이용하여 공유 대역폭을 통해 상기 와이어리스 기지국과 와이어리스 통신하는 하나 또는 그 이상의 가입자 CPE 스테이션; 제2 네트워크를 통해 상기 각각의 가입자 CPE 스테이션에 연결된 하나 또는 그 이상의 가입자 워크스테이션; 최종사용자 QoS를 최적화하고 상기 가입자 CPE 스테이션 사이에서 공유 대역폭을 할당하는 자원 할당부; 상기 자원 할당부에 연결되어, IP 플로우를 분석하는 IP 플로우 분석기; 및 상기 공유 와이어리스 대역폭을 스케줄링하는 IP 플로우 스케줄러를 포함하고, 상기 IP 플로우 스케줄러는 IP 플로우 우선순위화부를 포함한다.
본 발명의 일실시예에서, 상기 우선순위화부는 상기 IP 플로우의 HCBP 우선순위에 근거하여 상기 IP 플로우의 우선순위를 정하기 위한 HCBP 우선순위화부를 포함한다. 본 발명의 일실시예에서, 상기 HCBP 우선순위화부는 상기 HCBP 우선순위 각각에 대해 리미트를 설정하는 분류 기반 우선순위 리미트를 포함한다.
본 발명의 일실시예에서, 상기 우선순위화부는 그들의 소스가 VPN이 되는 것에 근거하여 상기 IP 플로우의 우선순위를 정하는 VPN 우선순위화부를 포함한다. 본 발명의 일실시예에서, 상기 VPN 우선순위화부는 특혜적인(preferential) 우선순위를 상기 모든 VPN IP 플로우에 허가한다. 본 발명의 다른 실시예에서, 상기 VPN 우선순위화부는 특정 IP 플로우 타입으로 이루어진 VPN 플로우 또는 VPN 타입으로부터 이루어진 상기 VPN IP 플로우에 특혜적인 우선순위를 허가한다. 본 발명의 일실시예에서, 상기 VPN의 타입은 디렉터리 인에이블드 네트워킹(DEN) 테이블 관리 스킴 타입을 포함한다.
본 발명의 일실시예에서, 상기 우선순위화부는 상기 IP 플로우의 가입자 소스의 SLA 레벨에 근거하여 상기 IP 플로우의 우선순위를 정하는 SLA 기반 우선순위화부를 포함한다. 본 발명의 일실시예에서, 상기 SLA 레벨은 예를 들어, 프리미엄 레벨, 표준 레벨 또는 밸류(value) 레벨을 포함한다. 본 발명의 일실시예에서, 상기 우선순위화부는 상기 IP 플로우의 패킷의 TOS 마킹에 근거하여 상기 IP 플로우의 우선순위를 정하는 TOS 우선순위화부를 포함한다.
본 발명의 일실시예에서, 상기 우선순위화부는 상기 IP 플로우의 패킷의 DiffServ 마킹에 근거하여 상기 IP 플로우의 우선순위를 정하는 DiffServ 우선순위화부를 포함한다.
본 발명의 일실시예에서, 상기 우선순위화부는 IP 플로우 우선순위에 근거하여 예약 정책 리미트를 설정하는 상기 공유 대역폭의 공정한 분배를 보장하는 가중된 공정한 우선순위(WFP) 우선순위화부를 포함한다.
본 발명은 패킷-중심 와이어리스 점대다점 통신 시스템에 관한 것으로서, 상기 시스템은 제1 데이터 네트워크에 연결된 와이어리스 기지국; 상기 제1 데이터 네트워크에 연결된 하나 또는 그 이상의 호스트 워크스테이션; 패킷-중심 프로토콜을 이용하여 공유 대역폭을 통해 상기 와이어리스 기지국과 와이어리스 통신하는 하나 또는 그 이상의 가입자 CPE 스테이션; 제2 네트워크를 통해 상기 각각의 가입자 CPE 스테이션에 연결된 하나 또는 그 이상의 가입자 워크스테이션; 최종사용자 QoS를 최적화하고 상기 가입자 CPE 스테이션 사이에서 공유 대역폭을 할당하는 자원 할당 방식; 및 상기 공유 와이어리스 대역폭을 통해 인터넷 프로토콜(IP) 플로우를 분석하고 스케줄링하기 위한 방식을 포함하고, 상기 스케줄링 방식은 SLA(service level agreement) 가입자에 대한 SLA의 우선순위에 근거하여 IP 플로우의 우선순위를 정하는 방법을 포함한다.
상기 시스템의 다른 특징은 상기 IP 플로우에 대해 상기 SLA를 분석하기 위한 방식과 하나 또는 그 이상의 가입자-정의 파라미터에 근거하여 상기 IP 플로우의 우선순위를 정하기 위한 방식을 포함한다. 상기 SLA 레벨은, 프리미엄 서비스 레벨; 표준 서비스 레벨; 및 밸류 서비스 레벨을 포함할 수 있다. 상기 시스템은 (1)상기 SLA 가입자들 사이의 상이한 트래픽 레이트; (2)상기 SLA 가입자에 대한 네트워크 가용성; (3)상기 SLA 가입자에 대한 증가된 대역폭; (4)상기 SLA 가입자에 대한 감소된 에러 레이트; (5)상기 SLA 가입자에 대한 지연 보증; 및 (6)상기 SLA 가입자에 대한 지터 보증을 제공하기 위해 다양한 SLA 레벨이 사용될 수 있도록 설계될 수 있다.
또한, 패킷-중심 와이어리스 점대다점 통신 시스템에 사용하기 위한 스케줄링 방법이 개시되어 있으며, 상기 시스템은 제1 데이터 네트워크에 연결된 와이어 리스 기지국; 상기 제1 데이터 네트워크에 연결된 하나 또는 그 이상의 호스트 워크스테이션; 패킷-중심 프로토콜을 이용하여 공유 대역폭을 통해 상기 와이어리스 기지국과 와이어리스 통신하는 하나 또는 그 이상의 가입자 CPE 스테이션; 제2 네트워크를 통해 상기 각각의 가입자 CPE 스테이션에 연결된 하나 또는 그 이상의 가입자 워크스테이션; 최종사용자 QoS를 최적화하고 상기 가입자 CPE 스테이션 사이에서 공유 대역폭을 할당하는 자원 할당 방식; 및 상기 공유 와이어리스 대역폭을 통해 인터넷 프로토콜(IP) 플로우를 분석하고 스케줄링하기 위한 방법을 포함하고, 상기 스케줄링 방법은 SLA 가입자에 대한 SLA의 우선순위에 근거하여 IP 플로우의 우선순위를 정하는 단계를 포함한다.
전술한 방법의 일실시예는 IP 플로우에 대한 SLA를 분석하는 단계를 포함할 수 있다. 다른 실시예는 하나 또는 그 이상의 가입자-정의 파라미터에 근거하여 상기 IP 플로우의 우선순위를 정하는 추가적인 단계를 포함한다. 이 방법은 프리미엄 서비스 레벨로 우선순위를 정하는 단계; 표준 서비스 레벨로 우선순위를 정하는 단계; 및 밸류 서비스 레벨로 우선순위를 정하는 단계를 포함할 수 있다.
본 발명은 QoS 인식 와이어리스 점대다점 통신 시스템에 관한 것으로서, 상기 시스템은 제1 데이터 네트워크에 연결된 와이어리스 기지국; 상기 제1 데이터 네트워크에 연결된 하나 또는 그 이상의 호스트 워크스테이션; 패킷-중심 프로토콜을 이용하여 공유 대역폭을 통해 상기 와이어리스 기지국과 와이어리스 통신하는 하나 또는 그 이상의 가입자 CPE 스테이션; 제2 네트워크를 통해 상기 각각의 가입자 CPE 스테이션에 연결된 하나 또는 그 이상의 가입자 워크스테이션; 및 IP 플로 우에 대해 최종사용자 QoS를 최적화하기 위해 상기 가입자 CPE 스테이션 사이에서 공유 대역폭을 할당하는 자원 할당 장치를 포함한다.
상기 자원 할당 장치는 상기 와이어리스 매체를 통한 전송을 위해 전송 프레임내의 데이터 패킷에 전송 프레임의 미래의 슬롯을 할당하기 위한 수단을 포함할 수 있다. 상기 할당 수단은, 진보형 예약 알고리즘을 적용하기 위한 수단; 상기 진보형 예약 알고리즘에 근거하여 미래의 전송 프레임에 인터넷 프로토콜(IP) 플로우의 제1 데이터 패킷을 위해 제1 슬롯을 예약하기 위한 수단; 및 상기 진보형 예약 알고리즘에 근거하여 상기 미래의 전송 프레임에 대해 시간적으로 차후의 전송 프레임에 상기 IP 플로우의 제2 데이터 패킷을 위해 제2 슬롯을 예약하기 위한 수단을 포함하고, 상기 제2 데이터 패킷은 상기 제1 슬롯에 상기 제1 데이터 패킷을 배치하는 것에 대해 등시성(isochronous) 방식으로 상기 제2 슬롯에 배치된다.
일실시예에서, 상기 제1 슬롯에서의 상기 제1 데이터 패킷의 배치와 상기 제2 슬롯에서의 상기 제2 데이터 패킷의 배치 사이에 주기적인 변화가 존재한다. 다른 실시예에서, 상기 제1 슬롯에서의 상기 제1 데이터 패킷의 배치와 상기 제2 슬롯에서의 상기 제2 데이터 패킷의 배치 사이에 주기적인 변화가 존재하지 않는다.
상기 자원 할당 장치는 상기 IP 플로우에 대해 HCBP를 고려하기 위한 수단을 포함할 수 있다. 상기 자원 할당 장치는 상기 IP 플로우에 대해 VPN 우선순위를 고려하기 위한 수단을 포함할 수 있다. 상기 자원 할당 장치는 상기 IP 플로우에 대해 SLA 기반 우선순위를 고려하기 위한 수단을 포함할 수 있다. 상기 자원 할당 장치는 상기 IP 플로우에 대해 TOS 우선순위를 고려하기 위한 수단을 포함할 수 있 다. 상기 자원 할당 장치는 상기 IP 플로우에 대해 DiffServ 우선순위를 고려하기 위한 수단을 포함할 수 있다.
본 발명은 월등한 서비스 품질을 가진 와이어리스 통신망을 제공한다. 와이어리스 통신망 시스템을 통한 전송을 위해 전송 프레임내의 데이터 패킷에 전송 프레임의 미래의 슬롯을 할당하기 위한 방법은, 진보형 예약 알고리즘을 적용하는 단계; 상기 진보형 예약 알고리즘에 근거하여 미래의 전송 프레임에 인터넷 프로토콜(IP) 플로우의 제1 데이터 패킷을 위해 제1 슬롯을 예약하는 단계; 및 상기 진보형 예약 알고리즘에 근거하여 상기 미래의 전송 프레임에 대해 시간적으로 차후의 전송 프레임에 상기 IP 플로우의 제2 데이터 패킷을 위해 제2 슬롯을 예약하는 단계를 포함하고, 상기 제2 데이터 패킷은 상기 제1 슬롯에 상기 제1 데이터 패킷을 배치하는 것에 대해 등시성 방식으로 상기 제2 슬롯에 배치된다.
일실시예에서, 상기 제1 슬롯에서의 상기 제1 데이터 패킷의 배치와 상기 제2 슬롯에서의 상기 제2 데이터 패킷의 배치 사이에 주기적인 변화가 존재한다. 다른 실시예에서, 상기 제1 슬롯에서의 상기 제1 데이터 패킷의 배치와 상기 제2 슬롯에서의 상기 제2 데이터 패킷의 배치 사이에 주기적인 변화가 존재하지 않는다.
상기 진보형 예약 알고리즘은 IP 플로우가 지터-민감형인지를 판단한다.
등시성 데이터 패킷은 통신 시스템에 제공된다. 상기 통신 시스템은 제1 데이터 네트워크에 연결된 와이어리스 기지국; 상기 제1 데이터 네트워크에 연결된 하나 또는 그 이상의 호스트 워크스테이션; 패킷-중심 프로토콜을 이용하여 공유 대역폭을 통해 상기 와이어리스 기지국과 와이어리스 통신하는 하나 또는 그 이상 의 가입자 CPE 스테이션; 제2 네트워크를 통해 상기 각각의 가입자 CPE 스테이션에 연결된 하나 또는 그 이상의 가입자 워크스테이션; 및 최종사용자 QoS를 최적화하고 상기 가입자 CPE 스테이션 사이에서 공유 대역폭을 할당하는 자원 할당 수단을 포함하고, 알고리즘에 근거하여 등시성 방식으로 IP 플로우의 하나 또는 그 이상의 연속되는 미래의 전송 프레임에 연속되는 슬롯을 예약하기 위해 진보형 예약 알고리즘이 IP 플로우에 적용된다. 상기 제1 슬롯에서의 상기 제1 데이터 패킷의 배치와 상기 제2 슬롯에서의 상기 제2 데이터 패킷의 배치 사이에 주기적인 변화가 존재할 수 있고 존재하지 않을 수도 있다. 상기 알고리즘은 IP 플로우가 지터-민감형인지 여부를 판단한다.
와이어리스 매체를 통한 전송을 위해 전송 프레임내의 데이터 패킷에 전송 프레임의 미래의 슬롯을 할당하기 위한 시스템은, 진보형 예약 알고리즘을 적용하기 위한 수단; 상기 알고리즘에 근거하여 미래의 전송 프레임에 인터넷 프로토콜(IP) 플로우의 제1 데이터 패킷을 위해 제1 슬롯을 예약하기 위한 수단; 및 상기 알고리즘에 근거하여 상기 미래의 전송 프레임에 대해 시간적으로 차후의 전송 프레임에 상기 IP 플로우의 제2 데이터 패킷을 위해 제2 슬롯을 예약하기 위한 수단을 포함하고, 상기 제2 데이터 패킷은 상기 제1 슬롯에 상기 제1 데이터 패킷을 배치하는 것에 대해 등시성 방식으로 상기 제2 슬롯에 배치된다. 이러한 배치는 주기적으로 행해질 수 있고 또는 그렇지 않을 수 있다. IP 플로우가 지터-민감형인지를 판단하기 위해 진보형 예약 알고리즘이 사용된다.
상기 시스템은 통신 시스템에서 등시성 데이터 패킷을 제공하며, 상기 통신 시스템은 제1 데이터 네트워크에 연결된 와이어리스 기지국; 상기 제1 데이터 네트워크에 연결된 하나 또는 그 이상의 호스트 워크스테이션; 패킷-중심 프로토콜을 이용하여 공유 대역폭을 통해 상기 와이어리스 기지국과 와이어리스 통신하는 하나 또는 그 이상의 가입자 CPE 스테이션; 제2 네트워크를 통해 상기 각각의 가입자 CPE 스테이션에 연결된 하나 또는 그 이상의 가입자 워크스테이션; 최종사용자 QoS를 최적화하고 상기 가입자 CPE 스테이션 사이에서 공유 대역폭을 할당하기 위한 자원 할당 수단을 포함하고, 또한, 상기 시스템은 IP 플로우에 진보형 예약 알고리즘을 적용하기 위한 수단; 및 상기 알고리즘에 근거하여 등시성 방식으로 상기 IP 플로우의 하나 또는 그 이상의 연속되는 미래의 전송 프레임에 연속되는 슬롯을 예약하기 위한 수단을 포함한다.
상기 연속되는 슬롯의 연속되는 예약 사이에 주기적인 변화를 제공할 수도 있고 제공하지 않을 수도 있으며, 상기 진보형 예약 알고리즘은 상기 IP 플로우가 지터-민감형인지를 판단한다.
본 발명은 월등한 서비스 품질을 가진 와이어리스 통신망 시스템을 제공한다. 인터넷-우선순위화된 IP-플로우를 와이어리스 대역폭 자원 할당으로 변환하는 시스템은 와이어리스 점대다점(PtMP) 전송 시스템을 포함하고, 상기 전송 시스템은 제1 데이터 네트워크에 연결된 와이어리스 기지국; 상기 제1 데이터 네트워크에 연결된 하나 또는 그 이상의 호스트 워크스테이션; 패킷-중심 프로토콜을 이용하여 공유 대역폭을 통해 상기 와이어리스 기지국과 와이어리스 통신하는 하나 또는 그 이상의 가입자 CPE 스테이션; 제2 네트워크를 통해 상기 각각의 가입자 CPE 스테이 션에 연결된 하나 또는 그 이상의 가입자 워크스테이션을 포함하고, 상기 가입자 CPE 스테이션 사이에서 공유 대역폭을 할당하는 자원 할당부는, IP-우선순위 패킷 헤더 IP 플로우 식별 정보를 식별하고 상기 IP 플로우를 분류하는 TCP/IP 및 UDP/IP 플로우(IP 플로우)의 분석기 및 상기 IP 우선순위 헤더 식별 정보를 고려하여 상기 IP 플로우의 우선순위를 정하는 IP 플로우 스케줄러를 포함한다.
상기 IP-우선순위 패킷 헤더 IP 플로우 식별 정보는 상기 IP 플로우에 대해 QoS 분류 그룹을 판단하고 고려하기 위한 수단을 포함한다. 상기 IP-우선순위 패킷 헤더 IP 플로우 식별 정보는 선택적인 TOS 필드 우선순위 마킹을 고려한다.
상기 TOS 필드 우선순위 마킹은 인터넷 엔지니어링 태스크 포스(IETF) RFC 1992b 및 IETF RFC 1349와 호환성이 있다. 상기 마킹은, 지연 최소화 마킹; 처리량 최대화 마킹; 신뢰성 최대화 마킹; 금융비용 최소화 마킹; 및 정상 서비스 마킹을 포함한다. 또한, 상기 시스템은 인터넷 엔지니어링 태스크 포스(IETF) RFC 2474 및 IETF RFC 2475와 호환성이 있는 것과 같은 선택적인 DiffServ 필드 우선순위 마킹을 고려하기 위해 상기 IP 플로우 식별 정보를 처리할 수 있다.
일실시예에서, 상기 IP-우선순위 패킷 헤더 IP 플로우 식별 정보는 자원 예약 프로토콜(RSVP) 메시지 및 객체를 고려하기 위한 수단을 포함한다. 상기 RSVP 프로토콜 메시지는, 경로 메시지; 예약(Resv) 메시지; 경로 해제 메시지; 예약 해제 메시지; 경로 에러 메시지; 및 확인 메시지를 포함할 수 있다. 다른 RSVP 프로토콜 객체는, null; session; RSVP_hop; time_value; style; flowspec; sender_template; sender_Tspec; Adspec; Error_Spec; Policy_data; Integrity; Scope; 및 Resv_Confirm을 포함할 수 있다. 상기 RSVP 마킹은 IETF RFC 2205와 호환성이 있다.
본 발명은 패킷-중심 와이어리스 점대다점 통신 시스템에 관한 것으로서, 상기 통신 시스템은 제1 데이터 네트워크에 연결된 와이어리스 기지국; 상기 제1 데이터 네트워크에 연결된 하나 또는 그 이상의 호스트 워크스테이션; 패킷-중심 프로토콜을 이용하여 공유 대역폭을 통해 상기 와이어리스 기지국과 와이어리스 통신하는 하나 또는 그 이상의 가입자 CPE 스테이션; 제2 네트워크를 통해 상기 각각의 가입자 CPE 스테이션에 연결된 하나 또는 그 이상의 가입자 워크스테이션; 최종사용자 QoS를 최적화하고 상기 가입자 CPE 스테이션 사이에서 공유 대역폭을 할당하는 자원 할당 수단; 및 상기 공유 와이어리스 대역폭을 통한 IP 플로우를 분석하고 스케줄링하기 위한 수단을 포함한다.
상기 스케줄링 수단은 VPN의 우선순위에 근거하여 IP 플로우의 우선순위를 정하기 위한 수단을 포함한다. 상기 시스템은 상기 IP 플로우에 대해 VPN 우선순위를 분석하거나 모든 VPN IP 플로우의 우선순위를 정하기 위한 수단을 포함한다. 상기 시스템은 하나 또는 그 이상의 가입자-정의 파라미터에 근거하여 상기 IP 플로우의 우선순위를 정하기 위한 수단을 포함할 수 있다. 상기 시스템에서, 상기 VPN은 DEN 테이블 관리 스킴을 포함할 수 있다. 상기 VPN은 점대점 터널링 프로토콜(PPTP)을 이용하여 구현될 수 있다.
또한, 전술한 것들을 달성하기 위한 방법이 포함된다.
본 발명은 패킷-중심 와이어리스 점대점(PtP) 통신 시스템에 관한 것으로서, 상기 통신 시스템은, 패킷-중심 프로토콜을 통해 제1 데이터 네트워크로 통신하는 와이어리스 기지국; 상기 패킷-중심 프로토콜을 통해 상기 제1 데이터 네트워크로 통신하는 하나 또는 그 이상의 호스트 워크스테이션; 와이어리스 매체를 거쳐 상기 패킷-중심 프로토콜을 통해 공유 대역폭에 걸쳐 상기 와이어리스 기지국과 연결되는 가입자 고객 구내 장비(CPE) 스테이션; 및 제2 네트워크를 통해 상기 각각의 가입자 CPE 스테이션에 상기 패킷-중심 프로토콜을 통해 연결되는 하나 또는 그 이상의 가입자 워크스테이션을 포함한다. 상기 패킷-중심 프로토콜은 전송 제어 프로토콜/인터넷 프로토콜(TCP/IP)이 될 수 있다. 또한, 상기 패킷-중심 프로토콜은 사용자 데이터그램 프로토콜/인터넷 프로토콜(UDP/IP)이 될 수 있다.
상기 시스템은 상기 가입자 CPE 스테이션 사이에서 공유 대역폭을 할당하기 위한 자원 할당 수단을 더 포함할 수 있다. 상기 자원 할당은 최종사용자 QoS를 최적화하도록 수행될 수 있다. 상기 와이어리스 통신 매체는, RF 통신 매체; 케이블 통신 매체; 및 위성 통신 매체 중 적어도 하나를 포함할 수 있다. 상기 와이어리스 통신 매체는, TDMA 액세스 방법; TDMA/TDD 액세스 방법; CDMA 액세스 방법; 및 FDMA 액세스 방법 중 적어도 하나를 포함하는 통신 액세스 방법을 더 포함할 수 있다.
상기 제1 데이터 네트워크는, 와이어라인 네트워크; 와이어리스 네트워크; LAN; 및 WAN 중 적어도 하나를 포함할 수 있다. 상기 제2 네트워크는, 와이어라인 네트워크; 와이어리스 네트워크; LAN; 및 WAN 중 적어도 하나를 포함할 수 있다.
본 발명은 패킷-중심 와이어리스 광대역 동축 케이블 통신 시스템에 관한 것 으로서, 상기 통신 시스템은, 패킷-중심 프로토콜을 통해 제1 데이터 네트워크로 통신하는 케이블 와이어리스 기지국; 상기 패킷-중심 프로토콜을 통해 상기 제1 데이터 네트워크로 통신하는 하나 또는 그 이상의 호스트 워크스테이션; 동축 케이블 통신 매체를 거쳐 상기 패킷-중심 프로토콜을 통해 공유 대역폭에 걸쳐 상기 와이어리스 기지국과 연결되는 하나 또는 그 이상의 가입자 고객 구내 장비(CPE) 스테이션; 및 제2 네트워크를 통해 상기 각각의 가입자 CPE 스테이션에 상기 패킷-중심 프로토콜을 통해 연결되는 하나 또는 그 이상의 가입자 워크스테이션을 포함한다. 상기 패킷-중심 프로토콜은 전송 제어 프로토콜/인터넷 프로토콜(TCP/IP)이 될 수 있다. 또한, 상기 패킷-중심 프로토콜은 사용자 데이터그램 프로토콜/인터넷 프로토콜(UDP/IP)이 될 수 있다.
상기 시스템은 상기 가입자 CPE 스테이션 사이에서 공유 대역폭을 할당하는 자원 할당부를 포함할 수 있다. 상기 자원 할당부는 최종사용자 QoS를 최적화할 수 있다. 상기 동축 케이블 통신 매체는 동축 케이블을 통한 RF 데이터 통신을 포함할 수 있으며, 하나 또는 그 이상의 케이블 모뎀이 상기 매체를 통해 전송되는 신호를 변조 및 복조한다. 상기 케이블 모뎀은 DOC/SYS에 합치될 수 있다. 상기 QoS 최적화된 케이블 자원 할당부 시스템은, IP 플로우 식별부; IP 플로우 특징화부; IP 플로우 분류부; 및 IP 플로우 우선순위화부를 포함할 수 있다. 상기 동축 케이블 통신 매체는, TDMA 액세스 방법; TDMA/TDD 액세스 방법; CDMA 액세스 방법; 및 FDMA 액세스 방법 중 적어도 하나를 포함하는 통신 액세스 방법을 더 포함할 수 있다. 상기 제1 데이터 네트워크는, 와이어라인 네트워크; 와이어리스 네트워크; LAN; 및 WAN이 될 수 있다. 상기 제2 네트워크는, 와이어라인 네트워크; 와이어리스 네트워크; LAN; 및 WAN 중 적어도 하나를 포함할 수 있다.
상기 자원 할당부는 애플리케이션-인식 방식이 될 수 있다. 상기 시스템은 점대점(PtP) 네트워크가 될 수 있다. 또한, 상기 시스템은 점대다점(PtMP) 네트워크가 될 수 있다.
본 발명은 패킷-중심 와이어리스 점대다점 통신 시스템에서 공유 와이어리스 대역폭을 할당하기 위한 방법에 관한 것으로서, 상기 방법은, 와이어리스 기지국과 하나 또는 그 이상의 가입자 CPE 스테이션 사이에서 상기 공유 대역폭을 할당하는 단계를 포함한다. 상기 방법은 상기 공유 대역폭을 동적으로 할당하는 단계를 포함할 수 있다. 상기 방법은, (1) 상기 가입자 CPE 스테이션으로부터 상기 와이어리스 기지국까지의 업링크 방향으로 상기 공유 대역폭의 상기 프레임을 할당하거나, (2) 상기 와이어리스 기지국으로부터 상기 가입자 CPE 스테이션까지의 다운링크 방향으로 상기 공유 대역폭의 상기 프레임을 할당하는 것과 같이, 프레임에 기초하여 상기 공유 대역폭을 할당하는 단계를 포함할 수 있다.
또한, 상기 방법은, 프레임내의 서브프레임에 기초하여 상기 공유 대역폭을 할당하는 단계, 상기 가입자 CPE 스테이션으로부터 상기 와이어리스 기지국까지의 업링크 방향으로 상기 공유 대역폭의 상기 서브프레임을 할당하는 단계, 상기 와이어리스 기지국으로부터 상기 가입자 CPE 스테이션까지의 다운링크 방향으로 상기 공유 대역폭의 상기 서브프레임을 할당하는 단계를 포함할 수 있다.
일실시예에서, 상기 방법은, 프레임내의 슬롯에 기초하여 상기 공유 대역폭 을 할당하는 단계, 상기 가입자 CPE 스테이션으로부터 상기 와이어리스 기지국까지의 업링크 방향으로 상기 공유 대역폭의 상기 슬롯을 할당하는 단계, 상기 와이어리스 기지국으로부터 상기 가입자 CPE 스테이션까지의 다운링크 방향으로 상기 공유 대역폭의 상기 슬롯을 할당하는 단계를 포함할 수 있다.
일실시예에서, 상기 방법은 프레임내의 서브슬롯에 기초하여 상기 공유 대역폭을 할당하는 단계를 포함한다. 또한, 상기 가입자 CPE 스테이션으로부터 상기 와이어리스 기지국까지의 업링크 방향으로 상기 공유 대역폭의 상기 서브슬롯을 할당하는 단계 및 상기 와이어리스 기지국으로부터 상기 가입자 CPE 스테이션까지의 다운링크 방향으로 상기 공유 대역폭의 상기 서브슬롯을 할당하는 단계를 포함한다.
또한, 상기 방법은, 하나 또는 그 이상의 제어 패킷에 상기 공유 대역폭을 할당하는 단계를 포함할 수 있다. 상기 방법은, 다운스트림 확인(acknowledgement) 슬롯을 할당하는 단계; 예약 요구 슬롯을 할당하는 단계; 연산 데이터 슬롯을 할당하는 단계; 업스트림 확인 슬롯을 할당하는 단계; 확인 요구 슬롯을 할당하는 단계; 프레임 디스크립터(descriptor) 슬롯을 할당하는 단계; 및 커맨드 및 제어 슬롯을 할당하는 단계를 포함한다.
또한, 상기 방법은, 하나 또는 그 이상의 패킷에 상기 공유 대역폭을 할당하는 단계를 포함할 수 있다. 상기 방법은, 업링크 방향으로 상기 공유 대역폭을 할당하는 단계; 및 다운링크 방향으로 상기 공유 대역폭을 할당하는 단계를 포함할 수 있다.
본 발명은 통신 시스템에서 QoS 인식 와이어리스 점대다점 통신을 제공하기 위한 방법에 관한 것으로서, 상기 통신 시스템은, 제1 데이터 네트워크에 연결된 와이어리스 기지국; 상기 제1 데이터 네트워크에 연결된 하나 또는 그 이상의 호스트 워크스테이션; 패킷-중심 프로토콜을 이용하여 공유 대역폭을 통해 상기 와이어리스 기지국과 와이어리스 통신하는 하나 또는 그 이상의 가입자 CPE 스테이션; 제2 네트워크를 통해 상기 각각의 가입자 CPE 스테이션에 연결된 하나 또는 그 이상의 가입자 워크스테이션을 포함한다.
본 발명의 방법은 최종사용자 QoS를 최적화하는 방식으로 상기 가입자 CPE 스테이션 사이에서 공유 대역폭을 할당하는 단계를 포함할 수 있다.
상기 방법은 상기 공유 와이어리스 대역폭에 걸쳐 IP 플로우를 분석하고 스케줄링하는 단계를 포함한다. 이 방법은 상기 IP 플로우를 식별하는 단계; 상기 IP 플로우를 특징화하는 단계; 상기 IP 플로우를 분류하는 단계; 및 상기 IP 플로우의 우선순위를 정하는 단계를 포함한다.
상기 식별 단계는, 패킷 헤더 필드를 분석하는 단계; 및 새로운 IP 플로우 및 기존의 IP 플로우를 식별하는 단계를 포함할 수 있다. 이 방법은 상기 IP 플로우의 패킷을 버퍼링하는 단계; 상기 각각의 패킷의 패킷 헤더 필드로부터 데이터를 추출하는 단계; 및 상기 패킷 헤더 필드를 분석하는 단계를 포함한다. 또한, 이 방법은 상기 IP 플로우의 패킷이 패킷 버전 IPv.4 또는 IPv.6인지 판단하는 단계; 및 상기 패킷을 파싱하는 단계를 포함한다. 또한, 이 방법은 소스 애플리케이션 타입을 판단하는 단계를 포함하고, 소스 애플리케이션 패킷 헤더 테이블로부터 소스 어드레스에 대해 소스 애플리케이션을 저장하고 검색하는 단계; TOS 패킷 헤더 필드 로부터 소스 애플리케이션을 판단하는 단계; 및 DiffServ 패킷 헤더 필드로부터 소스 애플리케이션을 판단하는 단계 중 적어도 하나를 포함한다. 상기 식별 단계는 IP 플로우 식별 데이터 테이블로/로부터 기존의 IP 플로우를 저장하고 검색하는 단계를 포함할 수 있다.
또한, 상기 방법은 패킷이 임계 연령보다 더 오래되었는지 판단하는 단계; 상기 패킷의 상기 연령에 근거하여 클라이언트 애플리케이션 IP 플로우 폐기를 예상하는 단계; 새로운 IP 플로우에 대해 QoS 요건을 판단하는 단계; 및 상기 새로운 IP 플로우와 관련된 상기 가입자 CPE 스테이션에 대해 가입자 신분을 판단하는 단계를 포함할 수 있다. 이 방법은 또한 상기 패킷의 연령을 판단하기 위해 TTL 패킷 헤더 필드를 분석하는 단계를 포함할 수 있다.
상기 방법은, 소스 어드레스; 목적지 어드레스; 및 UDP 포트 번호 중 적어도 하나에 근거하여 상기 새로운 IP 플로우에 대해 QoS 요건을 판단하는 단계를 포함할 수 있다.
상기 방법은 상기 새로운 IP 플로우의 상기 패킷을 QoS 분류 그룹으로 분류하는 단계를 포함할 수 있다. 또한, 이 방법은, 상기 IP 플로우에 대해 QoS 분류 그룹을 판단하고 고려하는 단계; 상기 IP 플로우에 대해 선택적인 DiffServ 필드 우선순위 마킹을 고려하는 단계; 상기 IP 플로우에 대해 선택적인 TOS 필드 우선순위 마킹을 고려하는 단계; 상기 IP 플로우에 대해 HCBP를 고려하는 단계; 상기 IP 플로우에 대해 VPN 우선순위를 고려하는 단계; 상기 IP 플로우에 대해 SLA 기반 우선순위를 고려하는 단계; 상기 IP 플로우에 대해 TOS 우선순위를 고려하는 단계; 및 상기 IP 플로우에 대해 DiffServ 우선순위를 고려하는 단계를 포함할 수 있다.
본 발명은 와이어리스 점대다점(PtMP) 전송 시스템에서 DiffServ 마킹된 IP 플로우를 QoS 우선순위로 통합하기 위한 방법에 관한 것으로서, 상기 시스템은, 제1 데이터 네트워크에 연결된 와이어리스 기지국; 상기 제1 데이터 네트워크에 연결된 하나 또는 그 이상의 호스트 워크스테이션; 패킷-중심 프로토콜을 이용하여 공유 대역폭을 통해 상기 와이어리스 기지국과 와이어리스 통신하는 하나 또는 그 이상의 가입자 CPE 스테이션; 제2 네트워크를 통해 상기 각각의 가입자 CPE 스테이션에 연결된 하나 또는 그 이상의 가입자 워크스테이션; 상기 가입자 CPE 스테이션 사이에서 공유 대역폭을 할당하는 자원 할당부를 포함한다. 본 발명의 방법은 DiffServ 마킹에 대해 IP 플로우를 분석하는 단계; 및 상기 DiffServ 마킹을 고려하여 상기 IP 플로우를 스케줄링하는 단계를 포함한다.
상기 IP 플로우는 TCP/IP 플로우; 및 UDP/IP 플로우 중 적어도 하나를 포함할 수 있다. 상기 분석 단계는, 상기 DiffServ 마킹을 가진 상기 IP 플로우를 식별하는 단계; 상기 DiffServ 마킹을 가진 상기 IP 플로우를 특징화하는 단계; 및 상기 DiffServ 마킹을 가진 상기 IP 플로우를 분류하는 단계를 포함할 수 있다. 상기 스케줄링 단계는 상기 DiffServ 마킹 및 다른 IP 우선순위 헤더 식별 정보를 고려하여 상기 IP 플로우의 우선순위를 정하는 단계를 포함할 수 있다. 상기 우선순위를 정하는 단계는 WFP를 포함할 수 있다.
상기 우선순위를 정하는 단계는, IP 플로우 계층적 분류 기반 우선순위에 근거하여 우선순위를 정하는 단계; SLA 분류 우선순위에 근거하여 우선순위를 정하는 단계; VPN 가입에 근거하여 우선순위를 정하는 단계; 및 VPN 가입 분류 우선순위에 근거하여 우선순위를 정하는 단계 중 적어도 하나를 포함할 수 있다.
상기 식별 단계는, 상기 IP 플로우 내의 하나 또는 그 이상의 패킷 헤더 필드를 분석하는 단계; 및 새로운 IP 플로우와 기존의 IP 플로우 사이를 구별하는 단계 중 적어도 하나를 포함할 수 있다. 패킷 헤더 필드를 분석하는 상기 단계는, 상기 IP 플로우의 패킷을 버퍼링하는 단계; 상기 각각의 패킷의 패킷 헤더 필드로부터 식별 정보를 추출하는 단계; 및 상기 패킷 헤더 필드로부터의 상기 식별 정보를 분석하는 단계 중 적어도 하나를 포함할 수 있다. 상기 추출 단계는, 상기 패킷이 패킷 버전 IPv.4 또는 IPv.6인지 판단하는 단계; 및 상기 IP 플로우의 상기 패킷 헤더 필드를 파싱하는 단계 중 적어도 하나를 포함할 수 있다. 상기 분석 단계는 소스 애플리케이션 타입을 판단하는 단계를 포함할 수 있다.
상기 분석 단계는 상기 DiffServ 필드 우선순위 마킹을 고려하는 단계를 포함할 수 있다. 상기 DiffServ 필드 우선순위 마킹은 IETF RFC 2474와 호환될 수 있다. 상기 DiffServ 필드 우선순위 마킹은 IETF RFC 2475와 호환될 수 있다.
상기 분류 단계는 기존의 IP 플로우의 패킷을 상기 기존의 IP 플로우와 관련시키는 단계를 포함할 수 있다. 상기 분류 단계는 새로운 IP 플로우의 패킷을 QoS 우선순위 분류로 그룹화하는 단계를 포함할 수 있다. 상기 그룹화하는 단계는 상기 IP 플로우에 대해 상기 DiffServ 마킹을 고려하는 단계를 포함할 수 있다. 상기 우선순위를 정하는 단계는 상기 IP 플로우에 대해 상기 DiffServ 마킹을 고려하는 단계를 포함할 수 있다.
이상에서 살펴본 바와 같이, 본 발명에 따르면 차등화 서비스의 구현이 가능하고, 실질적인 QoS 메커니즘의 동작 및 관리를 간편화할 수 있는 효과가 있다.
Ⅰ. 예시적인 환경
본 발명은 예시적인 환경의 관점으로 기술된다. 예시적인 환경은, 원격 통신 캐리어로부터 수신된, 예를 들면, IP 전화, 비디오, 데이터를 포함한 패킷화된 데이터 정보를 전송하기 위해 고정 무선 PtMP(point-to-multi-point) 커넥션을 사용한다. 여기서 사용된 바와 같이, 원격통신 캐리어는, 이 기술분야의 통상의 지식을 가진 자에게 인지된, ILECs, CLELs, IXCs, NGTs 및 ESPs(Enhanced Service Providers) 등의 US 자국 엔티티 뿐만 아니라, PTTs 및 NEs 등의 글로벌 엔티티를 포함할 수 있다. 또한, 여기서 사용된 바와 같이, 원격 통신 시스템은, 이 기술분야의 통상의 지식을 가진 자에게 인지된, ILECs, CLELs, IXCs, 및 ESPs(Enhanced Service Providers) 등과 같은 엔티티에 의해 사용되는 자국 시스템 뿐만 아니라 글로벌 시스템 포함할 수 있다.
바람직한 실시예에서, 트래픽이 WAN(wide area network) 커넥션으로부터 도달한다, 데이터 트래픽은 네트워크 라우터를 통해 데이터 네트워크로부터 수신되고, 인터넷 프로토콜(IP) 포맷으로부터, 예를 들면, PPP(point-to-point protocol) 로 복조될 수 있다. 네트워크 라우터는, 예를 들면, 라우팅 소프트웨어를 실행하는 SUN 워크스테이션과 같은 범용 컴퓨터, 또는 캘리포니아 산호세 소재의 CISCO사, 캘리포니아 알라메다 소재의 ASCEND사, 캘리포니아 알라메다 소재의 NETOPIA사 또는 캘리포니아 산타클라라 소재의 3COM사의 여러 모델과 같은 전용 라우팅 장치를 포함할 수 있다.
대안예에서, 원격 사용자와 조직 데이터 네트워크 사이의 "터널(tunnel)"을 생성하기 위해, PPTP(point-to-point tunneling protocol)와 같은 가상 사설 네트워킹 프로토콜이 사용될 수 있다. 터널은 네트워크 관리자가 서버(예, 윈도우 NT 서버)로부터 데이터 네트워크(예, 인터넷)까지의 가상 사설 네트워크의 확장을 가능하게 한다.
본 발명이 예시적인 환경의 관점으로 기재되어 있지만, 이러한 관점에서의 기재는 단지 예시적인 의도로 제공됨을 주목하여야 한다. 본 발명이 이러한 예시적인 환경 또는 상기의 장치 사이의 그러한 상호동작으로 제한되도록 의도되지는 않는다. 실제로, 다음의 설명을 읽은 후에, 이와 관련된 기술분야의 통상의 지식을 가진 자는 대안적인 환경에서 본 발명을 어떻게 구현하는지가 명백해질 것이다.
Ⅱ. 정의
아래의 표1은 통상적인 원격통신 기술을 정의하고 있다. 이들 용어는 본 발명의 나머지 설명을 통해 사용된다.
표1
Figure 112009054743826-pat00001
Figure 112009054743826-pat00002
Figure 112009054743826-pat00003
Ⅲ. 서론
A. 와이어리스 환경에서의 서비스 품질( QoS )
QoS의 개념은 데이터 네트워킹에서 가장 어렵고 가장 이해하기 어려운 주제 중의 하나이다. 데이터 네트워킹에서 통상적인 용어임에도 불구하고, QoS에 대한 많은 상이한 용법 및 정의가 존재하기 때문에, 명확하거나 양적인 용어에서의 정확한 의미에 관한 혼동을 가져온다. 또한, QoS에 관한 네트워크 성능 또는 장치의 비교를 충분히 가능하게 하는 수적인 양을 측정하거나 특정하기 위한 시도가 이루어질 때에 한층 더한 혼동이 일어난다.
일반적인 데이터 네트워킹에서의 QoS에 관한 혼동은 무선 데이터 통신에 적용될 때에 인가되어 확대된다. 무선 전송은 유선 전송보다 더 높은 고유의 BER(bit error rate)을 가진다. 무선 매체를 공유하는 다수의 사용자에 대한 PtMP 기술의 부가는, QoS가 특히 무선 데이터 통신에서 다수의 복잡한 요인을 제기하는 방식으로 정의되는 것이 바람직하게 만든다.
무선 데이터 통신에 적용되는 QoS에 대한 모호하지 않은 정의를 제공하기 위해, QoS가 해석을 위해 의미되는 문제점의 본질이 도움이 된다. 무선을 통한 데이터 통신의 많은 문제점은, 실제로 일부는 공유되지만, 무선 데이터 통신의 문제점과는 구별된다. 무선 광대역 액세스 시스템에 대하여, 품질 전달의 문제점은 유선 아날로그에 대한 문제점보다 다소 복잡하다. 그것의 유선 대응부분과 같이, 데이터의 무선 전달시에 부딪히는 문제점은, 예로, 저속 주변 액세스, 데이터 에러, "드롭-아웃(drop-outs)", 불필요한 재전송, 트래픽 혼잡, 불연속적인(out-of-sequence) 데이터 패킷, 대기 시간 및 지터(jitter)를 포함한다. 이들 문제에 덧붙여, 무선 전달은, 예를 들면, 높은 고유의 BER, 제한된 대역폭, 사용자 다툼, 무선 간섭 및 TCP 트래픽 레이트 관리를 포함하는 문제점을 추가한다.
데이터 네트워크에 대해 사용자 또는 가입자가 곤란을 겪는 많은 방식이 존재한다. 네트워크 곤란성의 하나는 네트워크 가용성(availability)의 결핍으로 인한 것이다. 사용되는 액세스 기술에 따라, 이것은 "모뎀 무응답(modem no-answer)" 상황, "네트워크 비지(network busy)" 상황 또는 네트워크 접속의 예상치 못한 "드롭(drop)"을 포함할 수 있다. 이러한 상황은 높은 QoS로 유지된다고 설명될 수 없을 것이다. 네트워크 접속이 수립된 후에, 느린 웹 페이지 로딩, 느린 파일 전송 또는 스트리밍 멀티미디어 애플리케이션에서의 질나쁜 음성/비디오 품질과 같이, 혼잡, 로컬 액세스 병목현상 및 네트워크 오류에 의해 야기된 느린 트래픽을 익스피리언스할 수 있다. 스트리밍 멀티미디어 애플리케이션에서의 나쁜 품질은, 높은 "지터" 또는 대기 시간에서의 크고 빠른 변화로 인해 초래될 수 있으며, 이것은 중단(interruption), 왜곡(distortion) 또는 세션 종료를 가져온다. 많은 다른 상황들이, 스프레드시트의 파일 전송에서와 같이, 일부 상황에서 치명적일 수 있는, 실제적인 데이터 에러를 초래할 수 있다. 데이터 통신 네트워크의 이러한 문제점이 최소화되거나 제거되는 것이 바람직하다.
1. 품질
데이터 네트워킹에서, 품질은 대개 신뢰할 수 있고 시기에 알맞은 방식으로 데이터를 전달하는 프로세스를 의미한다. 신뢰할 수 있고 시기에 알맞다는 것은 부가된 트래픽의 속성에 좌우된다. 이 용어들은 데이터 손실에서의 제한, 데이터 정 확성의 예상, 데이터 지연 변화의 제한(지터로 알려짐), 데이터 재전송의 제한, 및 데이터 패킷 순서 반전의 제한에 대한 기준을 포함할 수 있다. 따라서, QoS는 복잡한 개념이 되며, 이를 구현하기 위해 대응적으로 복잡한 메커니즘을 필요로 할 수 있다.
QoS는 상대적인 관점일 수 있으므로, 상이한 사용자에 대해서 상이한 의미를 가지게 된다. 때때로 웹 브라우징을 행하지만, FTP(file transfer protocol) 파일을 다운로드하거나 실시간 멀티미디어 세션을 행하지 않는 일시 사용자(casual user)는, 거대한 데이터베이스 또는 회계 파일의 많은 FTP 파일 다운로드, 빈번한 H.323 화상 회의 및 IP 전화 통화를 행하는 파워 사용자(power user)와는 상이한 정의의 QoS를 가질 수 있다. 또한, 어느 사용자는 높은 네트워크 가용성, 적은 지연 및 적은 지터에 대해 프리미엄 요금(즉, 소위 SLA(service level agreement)라고 하는)을 지불할 수 있고, 다른 사용자는 단지 가끔씩의 웹 서핑이나 단지 주말에 대해 낮은 요금을 지불할 수 있다. 따라서, 아마도 QoS를, 어떤 네트워크 성능 특성이 특정 사용자 및 그 사용자의 SLA에 가장 중요한지에 의해 정의되는, 연속체(continuum)로 이해하는 것이 가장 좋을 것이다. 최종사용자(end-user) 익스피리언스를 최대화하는 것은 와이어리스 QoS를 제공하는 필수 구성요소이다.
2. 서비스
데이터 네트워킹에서, 서비스는 네트워크의 하나의 단말로부터 다른 단말로의 접속 타입으로 정의될 수 있다. 예전에, 이것은 또한, 예로, IBM사의 시스템 네 트워크 아키텍처(SNA), Novell사의 IPX, Digital사의 DECnet와 같은, 특정 프로토콜로 정의될 수 있었다. 그러나, TCP/IP(즉, UDP(user datagram protocol)를 포함한)가 압도적인 프로토콜로 전개되었고, 가까운 장래에 이것이 지속될 것이라는 것이 명백하다. 따라서, 서비스는 특정 타입의 TCP/IP 접속 또는 전송으로 정의될 수 있다. 이러한 서비스 타입은, 예를 들면, FTP 파일 전송, 이메일 트래픽, HTTP(hypertext transfer protocol) 트래픽, H.323 화상회의 세션을 포함할 수 있다. 앞서 논의된 것과 같이 상이한 타입의 품질로 취급되는 것에 덧붙여, QoS 메커니즘은 이들 상이한 타입의 서비스로 취급되는 것이 바람직하다.
3. 메커니즘으로서의 QoS
QoS는 부족한 네트워킹, 전송 및 통신 자원을 적절한 레벨의 우선순위를 가진 네트워크 트래픽의 구별화된 클래스로 선택적으로 할당하기 위한 메커니즘으로 생각될 수 있다. 이상적으로는, 데이터 트래픽의 속성, 사용자의 요구, 네트워크의 상태, 및 트래픽 소스 및 목적지의 특성은 모두, QoS 메커니즘이 주어진 순간에 어떻게 동작하는지를 조절한다. 그러나, 최종적으로, QoS 메커니즘은, 사용자가 정의한 어떤 방법으로든, 사용자에게 최적의 서비스를 제공하는 방법으로 동작하는 것이 바람직하다.
a. 회선-교환 QoS
전화 회사에 의해 음성 트래픽을 위해 처음에 생성된 네트워크에서, 데이터 전송은 QoS의 회선-중심 정의에 대한 기준으로써 이루어졌다. 이 정의에서, QoS는 비동기성(asynchronous)(즉, 공통 클럭의 사용없이, 시작 및 정지 시퀀스를 통한 데이터 전송) 뿐만 아니라, 등시성(isochronous)(즉, 시간-민감형(time-sensitive) 음성 및 비디오에 대한 네트워크 대역폭의 시간에 맞는 액세스) 트래픽을 전송하기 위한 능력을 의미하였다. 회선-교환 QoS는 그것이 음성(도1a 참조)이든 데이터이든, 각 접속 또는 서비스에 대해 종단간(end-to-end) 회선을 전용함으로써 달성되었다. 회선-중심 QoS 메커니즘은 사용자에 의한 배타적인 사용을 위해 그 회선을 간단히 제공하는 것이었다. 물론, 이 방법은, 데이터가 세션의 모든 순간마다 실제로 전송되는지의 여부와는 상관없이, 세션의 전체 기간 동안에 단일 사용자에게, 그 회선, 그 회선과 관련된 모든 전송 채널, 및 전송 매체 자체를 전용한다. 일반적으로, 이 방식으로만 진정한 QoS가 달성될 수 있다고 믿어졌다. 따라서, 와이어리스 광대역 액세스 시스템에 대한 전형적인 디자인(도2a 참조) 역시 이 방법을 사용하여, 애플리케이션이나, 데이터가 주어진 순간에 실제로 전송되는지의 여부에 상관없이, 각각의 특정한 데이터 접속에 대해 와이어리스 무선 채널을 전용하였다. QoS에 대한 이러한 회선-중심 접근법은 장비의 비용 및 전송 매체 자체에 대한 이용률의 관점에서 상당히 비싼 것이다.
b. ATM ( Asynchronous Transfer Mode ) QoS
ATM 네트워킹을 이용하여, 전화 회사들은, 기존의 음성 회선 메커니즘과 유사한 방식으로 PVC(permanent virtual connections)(즉, 무한 사용을 위해 제공되는 VPC(virtual path connection) 또는 VCC(virtual channel connection)) 및 SVC(switched virtual connections)(즉, 최종사용자 또는 다른 네트워크로부터 수신된 시그널링 메시지에 기반한 요구에 따라 ATM 네트워크에 의해 수립된 종단점 사이의 논리적인 접속)의 수립을 가진 회선-중심 QoS 메커니즘의 제공을 지속할 수 있었다. 그러나, VBR(variable bit rate), CBR(constant bit rate), 및 UBR(unspecified bit rate)로 분류되는 트래픽을 제어하기 위해, 승인 방침(admission policy), 트래픽 형상화(shaping), 및 리키-버킷(leaky-buckets)과 같은 메커니즘을 포함한 몇몇 새로운 개념들이 요구되었다.
또한, 가상 회선은, 데이터 애플리케이션이나, 주어진 순간에 데이터가 전송되는지의 여부에 관계없이, 데이터 전송 세션에 대해 수립되는 것이었다. ATM이 광대역 네트워크 트래픽에 대한 QoS를 제공하지만, ATM 디자인의 근본적인 가정은, 와이어리스 매체의 높은 BER이 아닌, 와이어라인 네트워크의 낮은 BER 특성을 포함한다. ATM 메커니즘 및 와이어리스의 높은 고유 BER에 의해 전송되고 있는 트래픽 특성의 인식없이, 진정한 QoS가 제공될 수 없다. ATM QoS 메커니즘은 와이어리스 통신에 관련된 고유의 문제점을 부가하지 않는다.
c. 패킷-교환 QoS
패킷-교환은 혁명적인 데이터 통신으로, 종래의 회선-교환 및 ATM 네트워킹 개념 및 그들의 기존 QoS 메커니즘의 갱신이 요구된다. 패킷-교환 데이터 통신을 이용하면, 특정한 데이터 통신 세션에 대해 하나의 회선을 전용할 필요가 없다. 게다가, 패킷-교환의 장점은 경로 유연성 및 그에 대응하는 물리적인 네트워크의 병 행에 있다. 따라서, QoS 메커니즘은 기존의 회선-중심 QoS 메커니즘이 행하였던 동일한 방식으로 작동하지 않는다.
"적합한(adequate)" 대역폭을 간단히 제공하는 것은, 와이어리스 광대역 액세스 시스템은 물론, 패킷-교환 네트워크에 대해 충분한 QoS 메커니즘이 되지 못한다. 일부 IP-플로우가 "대역폭에 민감한(bandwidth-sensitive)" 것이지만, 다른 플로우는 지연 및/또는 지터에 민감하다. 실시간 또는 멀티미디어 플로우 및 애플리케이션은, 비록 그것이 수행하는데 엄청나게 비싸지 않지만, 쉽게 과도한 대역폭을 제공함으로써, 시간에 알맞은 동작을 보장할 수 없다. IP-중심 와이어리스 광대역 액세스 시스템에 대한 QoS 메커니즘이 트래픽의 세부화된 플로우마다의 요건을 인식하여, 최적의 방법으로 이들 플로우를 전달하는데 필요한 시스템 및 매체 자원을 할당하는 것이 바람직하다.
d. 요약 - QoS 메커니즘
궁극적으로, 최종사용자 익스피리언스는 QoS의 최종 결정 요인이다. IP-중심 와이어리스 광대역 액세스 시스템은 최종사용자 익스피리언스를 최대화할 수 있는 방법으로 시스템 및 매체 자원을 할당 및 조절한다. 웹 페이지 다운로드의 초기 화면과 같은 일부 애플리케이션에 대해, 데이터 전송 속도가 QoS의 최선의 척도이다. 스프레드시트의 다운로드 또는 업로드와 같은, 그 밖의 애플리케이션에 대해, QoS의 가장 좋은 척도는 전송 에러의 최소화일 수 있다. 일부 실시예에 대해, QoS의 최선의 척도는 속도 및 에러 모두의 최적화일 수 있다. 일부 실시예에 대해서는, 패킷의 적시 전달(timely delivery)이 QoS의 최선의 척도일 수 있다. 빠른 데이터 전송이 패킷의 적시 전달과 동일하지 않을 수 있다는 것을 주목해야 한다. 예를 들면, 이미 "너무 오래된(too old)" 데이터 패킷이 빠르게 전송될 수 있지만, 너무 오래됨으로써 사용자에게 필요없을 수 있다. 데이터 애플리케이션 자체의 속성과 요구된 최종사용자 익스피리언스가 QoS 메커니즘에 대해 가장 신뢰할 수 있는 기준을 제공할 수 있다. IP-중심 와이어리스 광대역 액세스 시스템이 각각의 특정한 IP 플로우에 대해 시스템 동작을 동적으로 최적화할 수 있는 QoS 메커니즘을 제공하는 것이 요구된다.
4. 서비스 보증( Service Guarantees ) 및 SLA( Service Level Agreements )
통신 서비스 제공자와 가입자 사이에 서비스 보증이 이루어질 수 있고 SLA(service level agreements)가 도입될 수 있는데, 이로써, 특정 레벨의 네트워크 가용성을 나타낼 수 있고, 액세스 요금이 그 특정 레벨에 기반할 수 있다. 불행하게도, 주어진 시간에서의 네트워크 가용성의 정도를 양적으로 나타내는 것은 어렵기 때문에, 이것은 서비스 성능의 다소 불완전한 척도가 된다. 데이터 전달 속도, 에러 레이트, 재전송, 지연 및 지터가 네트워크 가용성의 척도로 사용되지만, 이들 수량을 실시간으로 측정하는 것은 종래의 NSP(network service providers)의 능력을 초과하는 것일 수 있다.
NSP에 의해 요구되는 다른 레벨의 서비스 식별은 상이한 트래픽 레이트, 네트워크 가용성, 대역폭, 에러 레이트, 지연 및 지터 보증을 제공하는 SLA이다. SLA 를 제공할 수 있는 IP-중심 와이어리스 광대역 액세스 시스템이 제공되어, 서비스 공급자가 서비스 차별화 및 수익성에 대한 보다 많은 기회를 가질 수 있는 것이 바람직하다.
5. 서비스 및 QoS 의 분류
실질적인 QoS 메커니즘을 구현하기 위해, 시스템이 트래픽의 타입 또는 서비스 타입 사이를 차별화할 수 있도록 하여, 상이한 레벨의 시스템 자원이 이들 타입에 할당될 수 있도록 하는 것이 바람직하다. 시스템 및 매체 자원의 유사한 처리 또는 할당을 받을 수 있는 트래픽 타입을 그룹화하는 수단으로서 "서비스 클래스(classes of service)"를 말하는 것이 통상적이다.
현재, 차별화된 서비스 클래스를 구현하기 위해 와이어라인 네트워크 장치에서 사용될 수 있는 몇몇 방법들이 있다. 예시적인 방법은 트래픽 형상화(traffic shaping), 승인 제어, IP 우선순위(precedence), 및 차별적인 혼잡 관리 등을 포함한다. 트래픽을 서비스 클래스로 차별화하고, QoS 매트릭스에 대해 이 서비스 클래스를 매핑하여, QoS 메커니즘의 동작 및 관리를 간편화하기 위해, IP-중심 와이어리스 광대역 액세스 시스템이 이들 방법 모두를 사용하는 것이 바람직하다.
B. QoS IP -중심 와이어리스 환경
본 발명과 같은 PtMP 와이어리스 시스템에서, QoS 메커니즘이 와이어라인 네트워킹 뿐만 아니라 와이어리스 환경에 대해서도 대처하도록 요구된다. 앞서 논의 된 바와 같이, 와이어리스의 고유 BER이 조절되는 것이 바람직하다. 높은 BER은 효과적인 방식으로 수행되는 에러 검출, 정정 및 재전송을 필요로 할 수 있다. BER 조절 메커니즘은 또한, 대역폭 이용도의 불필요한 저하를 야기시키지 않도록 하기 위해, TCP/IP의 재전송 알고리즘을 이용하여 효과적으로 작동하는 것이 바람직하다. 와이어리스의 부가적인 문제점은 제한된 와이어리스 대역폭에 대한 사용자 간의 다툼이다. 무선 대역폭의 효과적인 할당을 어렵게 만들 수 있는, 간섭 및 노이즈를 받기 쉬운 무선 매체에서, 시스템이 다수의 사용자로부터 요구된 서비스를 조절하는 것이 바람직하다.
위에서 논의된 바와 같이, 회선-교환 및 ATM 데이터 네트워크로부터 패킷-교환 데이터 네트워크로의 변화는 QoS 메커니즘의 정의와 대립되었다. 본 발명은 패킷-교환 네트워크 트래픽을 위한 PtMP IP-중심 와이어리스 시스템에서 새로운 QoS 메커니즘을 제공한다. 시스템이 최적의 QoS 성능을 제공하기 위해, QoS 메커니즘에 대한 새로운 접근법을 포함하는 것이 요구된다. 시스템 아키텍처 및 디자인에 대한 기본적인 지침으로 QoS를 사용하는 것은, Teligent 및 Winsta에 의해 사용되는 것과 같은 전형적인 회선-중신 또는 ATM 셀 회선-중심 접근법으로 디자인된 현재의 와이어리스 광대역 액세스 시스템에 비해, 본 발명의 IP-중심 와이어리스 광대역 액세스 시스템의 중요하고 실질적이며 유익할 차이점을 구성한다.
C. IP -중심 와이어리스 광대역 액세스 QoS 큐잉
1. 관리 큐
큐잉(queuing)은 데이터 통신 플로우를 조정하는데 필요한, 공통적으로 받아들여지는 툴이다. 라우팅 결정을 위해, 패킷 헤더가 검사 또는 수정되기 위해, 또는 데이터 플로우가 적합한 포트에 출력되도록 하기 위해, 데이터 패킷이 큐잉되는 것이 바람직하다. 그러나, 큐잉은, 정의에 의해, 유익하지 못할 수 있는, 심지어 큐잉의 의미로 전부 무너뜨릴 수 있는 트래픽 스트림에서의 지연을 가져온다. 과도한 큐잉은, 그들의 유용한 시간 구조 이상으로 시간-민감형 패킷을 지연시킴으로써, 또는 RTT(Round Trip Time)를 증가시킴으로써, 트래픽 상에 유해한 효과를 가지게 되어, 수락할 수 없는 지터를 생성하거나, 또는 심지어 데이터 전송 메커니즘의 타임아웃(time-out)을 야기시키게 된다. 따라서, 실시간 세션과 같은 지연-민감형 트래픽에서 과도한 지연을 가져오지 않고, 큐잉이 지능적이고 절약적으로 사용되도록 요구된다.
TDMA(time division multiple access), FEC(forward error detection) 및 그 밖의 이러한 기술이 필요할 수 있는 와이어리스 환경에서, 큐잉은 단지 패킷 및 무선 프레임 처리를 가능하게 하도록 사용되는 것이 바람직하다. 그러나, 실시간 플로우의 경우에, 실시간 트래픽에 전체적으로 부가되는 지연은 약 20ms 이하로 유지되는 것이 바람직하다.
QoS-기반의 차별화된 서비스를 제공할 때에, 주요 QoS 메커니즘으로서 큐 관리를 사용하는 것은 와이어리스 광대역 시스템에 대한 간단하고 진보적인 방법이 된다. 그러나, 와이어리스 시스템은 대개 보다 대역폭이 제한되고, 이에 따라 와이어라인에 비해, 보다 지연에 대해 민감하다. 이 이유로, QoS-기반의 차별화된 서비 스는 간단한 큐잉이 수행할 수 있는 것 이상의 메커니즘으로써 제공되는 것이 바람직하다. 그러나, 일부 큐잉이 여전히 요구될 수 있고, 상이한 큐잉 방법이 이제 논의된다.
2. FIFO ( First in , First out ) 큐잉
FIFO 큐잉은 와이어라인 시스템과 같이 와이어리스 시스템에서, 다운스트림 데이터 채널이 일시적으로 혼잡하게 될 때에, 데이터 패킷의 버퍼링에 사용될 수 있다. 일시적인 혼잡이 폭주된 트래픽에 의해 야기되면, 데이터의 플로우를 혼잡한 통신 세그먼트로 평활화하기(smooth) 위해 적당한 깊이의 FIFO 큐가 사용될 수 있다. 그러나, 혼잡이 정도에서 심해지거나, 또는 기간에서 상대적으로 길어지면, FIFO 큐가 가득차고, 네트워크가, 패킷의 폐기, 즉 소위 "패킷-토싱(packet-tossing)"을 야기하는 추가 패킷을 수락할 수 없어짐에 따라, FIFO는 패킷의 폐기를 가져올 수 있다. 이것은 그 자체로 QoS에 유해한 영향을 가질 수 있지만, TCP 프로토콜이 적합한 시퀀스로 손실 패킷의 재전송을 야기함에 따라, 패킷의 폐기는 트래픽 플로우에 더 많은 문제를 야기할 수 있으며, 그 문제점을 더욱 악화시키게 된다. 폐기가 발생하기 전에 보다 많은 시간이 경과하도록 FIFO 버퍼의 사이즈를 증가시킴으로써, 패킷 폐기의 문제점이 최소화될 수 있다. 불행하게도, 결국, 패킷이 너무 오래되고, RTT(round-trip time)가 패킷이 쓸모없게 되는 지점까지 증가될 수 있을 만큼 FIFO가 커질 수 있고, 데이터 접속이 실질적으로 손실된다.
와이어리스 광대역 환경에서, FIFO 큐잉에 대한 요구는 부분적으로, 사용되 는 RF 액세스 방법의 타입에 의존한다. TDMA/TDD(time division multiple access/time division duplex)에 대하여, 전송을 위한 데이터 프레임의 구성을 위해 충분한 데이터를 수집하도록 데이터가 큐잉되는 것이 바람직할 수 있다. FDMA(frequency division multiple access) 및 CDMA(code-division multiple access)는 TDMA와 같이 "순서적(sequential)"이 아니기 때문에, FIFO 큐잉에 대해 적은 요건을 가진다. 그러나, 일반적으로 모든 와이어리스 액세스 기술에 대해, 노이즈와 간섭은 재전송을 초래하고, 이에 따라, 지연 및 결과적으로 QoS에 대한 역효과를 초래할 수 있는 요인이 된다.
FIFO 큐잉을 사용하면, 공유된 와이어리스 광대역 시스템이 모든 트래픽을 일정하게 지연시킬 수 있다. 이것은 "가장 공정한" 방법처럼 보일 수 있지만, 사용자에게 높은 QoS를 제공하는 것이 목표인 경우에는, 반드시 최선의 방법은 아니다. 상이한 타입의 큐 관리를 이용함으로써, 전체적인 QoS의 보다 나은 기초가 달성될 수 있다.
3. 우선순위 큐잉( Priority Queuing )
공유 와이어리스 광대역 환경은, 데이터가 RF 매체를 통해 전송됨에 따라, 압축된 대역폭 세그먼트를 포함할 수 있다. 따라서, 액세스 기술에 관계없이, 이들 시스템은 어느 정도 양의 큐잉을 필요로 할 수 있다. 그러나, FIFO 큐잉을 사용하는 것은, 트래픽의 타입 또는 우선순위에 관계없이, 모든 트래픽에 대해 일정한 지연을 초래할 수 있다. 대부분의 데이터 통신 환경은, 실시간 상호동작 데이터의 조 합, 파일 및 데이터 다운로드, 웹 페이지 액세스 등을 가진, 트래픽의 조합으로 구성될 수 있다. 일부 이러한 타입의 트래픽은 다른 것보다 지연 및 지터에 보다 민감하다. 우선순위 큐잉은 그들의 상대적인 우선순위 및 타입에 기반하여 큐 내의 데이터 패킷을 간단히 재배열하여, 지연 및 지터에 보다 민감한 트래픽으로부터의 데이터를 큐의 앞쪽으로 이동시킬 수 있다.
불행하게도, 다운링크 데이터 채널의 혼잡 또는 높은 우선순위 트래픽의 과잉에 의해 야기된 혼잡이 존재하는 경우, "버퍼 기아(buffer starvation)" 상태가 발생할 수 있다. 버퍼 공간의 대부분을 차지하는 높은 우선순위 패킷의 상대적인 양으로 인해, 보다 낮은 우선순위 패킷을 위한 여유 공간은 거의 남아있지 않는다. 시스템 자원이 높은 우선순위 패킷에 집중되는 동안에, 낮은 우선순위 패킷들은 상당한 지연을 겪을 수 있다. 낮은 우선순위 패킷이 긴 주기의 시간 동안에 버퍼에 보관되거나, 또는 전혀 버퍼에 도달하지 못하여, 이들 패킷에 대해 상당히 지연된 데이터 플로우를 초래하는 것에 추가로, 이들 낮은 우선순위 패킷에 대응하는 실제 애플리케이션이 중단되어 작동을 정지시킬 수도 있다. 이 큐잉 방법의 속성으로 인해, 전체적인 지연 및 지터, 및 낮은 우선순위 패킷에 대한 RTT는 예측할 수 없으므로, QoS에 대해 역효과를 가질 수 있다.
큐 사이즈가 작은 경우, 큐 내에서 재배열되는 데이터는 QoS에 대한 유리한 효과를 거의 가질 수 없다. 실제로, 큐를 재배열하는데 필요한 정보를 얻기 위해, 패킷 헤더를 검사하는데 필요한 처리는 그 자체로 데이터 스트림에 상당한 지연을 부가할 수 있다. 따라서, 특히 와이어리스 광대역 데이터 환경에 대해, 우선순위 큐잉은 QoS 메커니즘으로서 FIFO 큐잉보다 훨씬 나은 것은 아닐 수 있다.
4. 분류 기반 큐잉( Classed Based Queuing )
패킷의 클래스에 기반하여 패킷에 대한 큐 공간 및 시스템 자원을 할당함으로써, 버퍼 기아현상을 피할 수 있다. 각 클래스는 임의의 유사한 우선순위 및 타입을 가진 데이터 플로우를 포함하도록 정의될 수 있다. 모든 클래스는 서비스의 임의의 최소 레벨로 주어질 수 있으며, 따라서, 하나의 높은 우선순위 데이터 플로우가 모든 시스템 자원을 독점할 수 없게 된다. 분류 방법을 이용하여, 데이터 플로우는 완전히 멈추지 않기 때문에, 소스 애플리케이션은 트래픽 레이트에 관한 정보를 수신할 수 있고, 매끄러운 트래픽 플로우를 지원하는 TCP-중재(TCP-mediated) 전송 레이트 조정을 제공할 수 있다.
이 방법은 와이어리스 광대역 시스템에서 FIFO 큐잉보다 효과적일 수 있지만, 지연 및 지터-민감형 플로우는 여전히, 많은 양의 높은 우선순위 플로우에 의해 불리하게 영향받을 수 있다.
5. 가중 정당 큐잉( Weighted Fair Queuing )
가중 정당 큐잉(weighted fair queuing) 방법은 보증된 큐잉 자원을 가진 적은 양의 플로우를 제공하도록 시도할 수 있고, 그 후, 양 또는 우선순위에 관계없이, 나머지 플로우가 동일한 양의 자원을 가지도록 할 수 있다. 이것은 버퍼 기아현상을 방지할 수 있고, 다소 나은 지연 및 지터 성능을 가져올 수 있지만, RF 다 운링크 채널의 대역폭 가용성의 빠르게 변화시키는 면에서 안정된 성능을 달성하는데 어려울 수 있다.
높은 품질의 서비스를 제공하는 것은 간단한 큐 관리보다 더욱 복잡한 QoS 메커니즘을 필요로 할 수 있다.
D. IP -중심 와이어리스 광대역 액세스 QoS TCP / IP
1. TCP / IP
TCP/IP 프로토콜 스택이 인터넷을 통해 데이터를 전송하는 표준 방법이 되고 있고, 증가적으로, VPN(virtual private networks)에서 표준이 되고 있다. TCP/IP 프로토콜 스택은 IP(internet protocol) 뿐만 아니라, TCP(transmission control protocol), UDP(user datagram protocol) 및 ICMP(internet control message protocol)을 포함한다. TCP/IP 프로토콜 스택이 데이터 통신에 대한 표준 프로토콜인 것으로 가정함으로써, 와이어리스 광대역 데이터 환경에 대한 최적의 QoS 메커니즘의 생성이 보다 다루기 쉽다. 네트워크의 와이어라인 및 와이어리스 부분 모두를 포함하는, 네트워크의 전체 범위를 확장할 수 있는 QoS 메커니즘이 생성될 수 있다. 이들 메커니즘은 평이한 방식으로 TCP 레이트 제어 메커니즘과 통합할 수 있고, 네트워크의 와이어라인 및 와이어리스 부분 모두에 접합한 종단간(end-to-end) QoS 메커니즘을 제공할 수 있다. 물론, 혼잡하거나 또는 다른 전송 문제를 겪는 와이어라인 네트워크의 세그먼트는 와이어리스 QoS 메커니즘에 의해 해결될 수 없다. 그러나, 와이어리스 QoS 메커니즘은, 심한 와이어라인 네트워크 혼잡 또는 병목현 상이 없는 경우, 최종사용자 익스피리언스를 개선할 수 있는 방법으로 데이터 플로우를 최적화할 수 있다.
2. 클래스에 의한 차별화
데이터 트래픽은 위에서 논의된 바와 같이 서비스의 클래스에 기반하여 조정될 수 있다. 클래스에 의해 트래픽을 차별화하기 위해, 데이터 트래픽(또는 특정한 애플리케이션, 기능 또는 목적에 관련된 일련의 데이터 패킷)은 몇몇의 서비스 클래스 중의 하나로 분류될 수 있다. 차별화(differentiation)는 패킷 헤더에 포함된 일부 식별가능한 정보를 토대로 수행될 수 있다. 하나의 방법은, 특정 애플리케이션, 기능 또는 목적을 가진 패킷 플로우로부터 패킷과 다른 패킷을 관련시키고 특별하게 식별하도록 제공될 수 있는, 예로, IP 패킷 헤더내의 몇몇 아이템을 분석하는 것을 포함할 수 있다. 최소한으로, 소스 IP 어드레스, 소스 TCP 또는 UDP 포트, 목적지 IP 어드레스 및 목적지 IP 또는 UDP 포트가 패킷을 공통 플로우에 관련시키도록 제공될 수 있다, 즉, 패킷을 서비스 클래스로 분류하는데 사용될 수 있다.
제한되고 관리가능한 수의 서비스 클래스를 생성함으로써, 다수의 IP 플로우가 QoS 메커니즘에 의한 QoS 파라미터의 주어진 세트로 결합 및 조절될 수 있다. 이 클래스들은 결합된 와이어라인 및 와이어리스 네트워크 세그먼트에서 최적의 관리를 위해 공통적이고 유용한 특성을 제공하도록 정의될 수 있다.
3. 플로우별 차별화( Per - Flow Differentiation )
제한되고 분리된 서비스 클래스 세트는, QoS 메커니즘이 보다 덜 계산-집약적이고, 보다 적은 메모리를 사용하고, 훨씬 적은 상태 머신을 사용하여, 각각 개별적인 IP 플로우에 대해 독립적인 QoS 메커니즘(또는 파라미터 세트)를 가지는 것보다 나은 스케일능력을 가지도록 할 수 있다. 그러나, 예로, PtMP 와이어리스 광대역 액세스 시스템과 같은 네트워크 액세스 장치에서, 동시에 발생하는 IP 플로우의 전체 수는 통상적으로 1000 범위를 초과하지 않고, 이에 따라, 요구될 수 있는 처리 오버헤드의 양은, 서비스 클래스를 재분류하지 않고, 플로우별 QoS 차별화를 가능하게 할 수 있다. 그러나, IP 플로우의 서비스 클래스 통합은 마케팅, 과금 및 승인에 관련하여 장점을 제공한다.
본 발명 이전에, 플로우별 차별화는 와이어리스 환경(동축 케이블 및 위성 통신을 통해 전송되는 RF를 포함하는)에서 사용되지 않았었다.
4. 서비스 분류에 대한 IP 우선순위 사용
IETF(Internet Engineering Task Force) 1992b에 기재된 바와 같이, IP TOS(IP precedence bits in a type of service) 필드는 이론적으로, IP 플로우를 서비스 클래스로 분류하는 수단으로 사용될 수 있다. IETF RFC1349에서는 5개의 상이한 의미, 즉, 지연의 최소화, 처리량의 최대화, 신뢰성의 최대화, 금전적 비용의 최소화, 및 정상 서비스로 4-비트 정의의 세트를 제안하였다.
이 정의들은, 상이한 타입의 플로우를 차별화하여 자원이 적절히 할당되어 향상된 QoS를 가져오도록, 네트워크, 라우터 및 액세스 장치에 대해 중요하게 부가 될 수 있다. 그러나, 이 제안은 광범위하게 사용되지 못하였다. IETF에서의 몇몇 제안들이, 패킷의 네트워크 제어를 개선하기 위해, RSVP(resource reservation protocol)에 따라, 이 필드를 사용할 수 있었다.
TOS(type of service) 필드는 오랫동안 TCP/IP 스펙의 필수 구성요소였지만, 이 필드가 공통적으로 사용되지는 않는다. 소스 프로세서에 의해 설정되는 필드내의 적합한 비트가 없는 경우, 액세스 장치, 네트워크 및 네트워크 라우터는 QoS 메커니즘을 구현할 수 없다.
5. TCP -중재 전송 레이트 메커니즘( TCP - Mediated Transmission Rate Mechanisms )
TCP가 전송 레이트를 제어하는 방법은 IP-중심 와이어리스 QoS 메커니즘에 의해 통합 관리될 수 있다. TCP 메커니즘이 관리되지 않는 경우, 어떤 와이어리스 QoS 메커니즘은 와이어리스 대역폭 팩터에 의해 압도되거나 반격될 수 있다. TCP 전송 속도에 영향을 줄 수 있는 특정 와이어리스 팩터를 어드레싱하기 전에, TCP 전송 레이트 메커니즘의 검토가 요구된다.
TCP는, 패킷 손실이 발생할 때를 "센싱(sensing)"함으로써, 전송 레이트를 제어할 수 있다. TCP/IP는 최초에, 광섬유 라인을 통해 발견되는 것과 같은, 매우 낮은 고유 BER을 가진 와이어라인 환경에 대해 생성되었기 때문에, 비트 에러를 통한 손실이 아니라, 네트워크 혼잡으로 인한 패킷 손실이 TCP에 의해 가정된다. 이에 따라, TCP는 전송 레이트가 네트워크의 용량을 초과하였다고 가정하고, 전송 레 이트를 낮춤으로써 응답한다. 그러나, 와이어리스 링크 세그먼트에서의 패킷 손실은 본래, 혼잡때문이 아니라, 본질적으로 높은 BER에 의한 것이다. 그 차이점은 근거없는 것이 아니라고 판명된다.
TCP는 처음에 전송 레이트가 패킷 플로우의 시작점에서 경사되도록(ramp-up) 야기할 수 있고, 이것은 소위 저속-시작 모드(slow-start mode)라고 부른다. 그 비율은 패킷-수신 응답 메시지의 타임-아웃 또는 손실이 있을 때까지 계속 증가된다. 그리고 나서, TCP는 "백오프(back-off)"할 수 있고, 전송 윈도우 사이즈를 감소시키고, 상당히 낮은 속도에서 알맞은 순서로 손실된 패킷을 재전송 할 수 있다. 그리고 나서, TCP는 전송 레이트는 선형 방식으로 천천히 증가시킬 수 있는데, 이것은 혼잡-회피 모드(congestion-avoidance mode)로 불려질 수 있다.
다수의 사용자가 본 발명과 같이 와이어리스 무선 링크를 공유하는 경우, 매체의 고유의 높은 BER은 잠재적으로, 혼잡 회피 모드에서 비생산적인 TCP 재전송을 초래하는 빈번한 패킷 손실을 야기시킬 수 있다. 와이어리스 대역폭은 가치있는 것일 수 있기 때문에, IP-중심 와이어리스 QoS 메커니즘은, TCP 재전송 및 연속하여 발생하는 불필요한 전송 레이트의 "이중손해(whipsawing)"없이, 패킷 재전송을 제공하는 것이 바람직하다. 몇몇 다른 팩터에 따라, 이것은 IP-중심 와이어리스 MAC(media access control)층의 생성을 바람직하게 한다. IP-중심 MAC 계층의 기능 중의 하나는 TCP 시그널링 및 TCP 전송 속도의 불필요한 변경없이, 손실 패킷의 로컬 재전송을 중재하는 것이다. IP-중심 와이어리스 MAC 계층의 주요 업무는 순서에 맞고 효과적인 방법으로 와이어리스 매체에 대한 공유 액세스를 제공하는 것이다. 본 발명에 따른 MAC 계층, 캘리포니아 칼라바사스의 Malibu Networks Inc, 사의 PRIMMA(Proactive Reservation-based Intelligent Multimedia-aware Media Access)층은 또한, 예로, IP 플로우 타입, SLA 및 QoS 고찰을 기초로 와이어리스 매체를 통한 모든 패킷 전송을 스케줄링할 수 있다.
6. IP -중심 와이어리스 시스템에서의 TCP 혼잡 회피
a. 네트워크 혼잡 붕괴, 글로벌 동기화 및 IP -중심 와이어리스 TCP 혼잡 회피
와이어리스 전송의 고유의 높은 BER은 혼잡 붕괴(congestion collapse) 또는 글로벌 동기화 붕괴(global synchronization collapse)로 알려진 문제점의 발생이, 와이어라인 환경에서 보다 더 쉽게 일어나게 할 수 있다. 다수의 TCP 송신기가 패킷 손실로 인해 혼잡을 동시에 검출하는 경우, TCP 송신기는 모두, 그들의 전송 윈도우 사이즈를 줄이고 순간적으로 멈춤으로써, TCP 저속 시작 모드로 될 수 있다. 그리고 나서, 다수의 송신기는 모두 손실된 패킷을 동시에 재전송하려고 시도할 수 있다. 그들이 모두 다시 대략 동시에 전송을 시작할 수 있기 때문에, 혼잡이 생성될 가능성이 증가될 수 있고, 그 사이클이 모두 다시 시작할 수 있다.
와이어리스 환경에서, 버스트 노이즈의 발생은 많은 IP 스트림으로부터 동시에 패킷 손실을 야기할 수 있다. TCP 송신기의 TCP 전송 레이트 메커니즘은 패킷 손실이 혼잡에 의한 것으로 가정할 수 있고, 그들은 모두 동시에 백-오프할 수 있다. TCP 송신기들이 재시작할 때에, 그 송신기들은 대략 동시에 재시작할 수 있고, 와이어리스 링크 세그먼트에서 실제 혼잡을 생성할 수 있다. 이러한 주기적인 동작은 얼마간 계속될 수 있고, 예상치 못한 시스템 성능을 야기할 수도 있다. 이것은 부분적으로는, 보다 많은 패킷이 누락되도록 야기할 수 있고, 보다 많은 비생산적인 재전송을 야기할 수 있는 시스템 큐의 오버플로우로 인한 것일 수 있다. 이것은 안정성을 재수립하기 전에 많은 시간을 걸리게 할 수 있는 "경쟁(race)" 상태로 퇴보할 수 있고, 즉, 이것은 QoS에 대해 명백한 부정적 영향을 가질 수 있다.
와이어라인 환경에서, RED(random early detection)가 글로벌 동기화를 피하기 위해 사용될 수 있다. 혼잡 붕괴가 발생되기 전에 임의적으로 선택된 패킷 플로우로부터 패킷을 임의적으로 선택함으로써, 글로벌 동기화를 피할 수 있다. 큐는 감시될 수 있고, 큐 깊이가 설정된 한계를 초과하면, RED가 활성화되어, TCP 송신기의 전송 레이트 제어기를 비동기적으로 활성화시키게 된다. 이것은, 그렇지 않으면 붕괴 및 글로벌 동기화를 초래하게 되는 초기 혼잡을 피할 수 있다.
단지 임의적인 패킷 폐기 대신에, 폐기될 패킷은 패킷 우선순위 또는 타입에 대해 고려될 수 있다. 여전히 임의적이지만, 주어진 플로우에 대한 폐기 가능성은 패킷 우선순위 또는 타입에 의한 함수일 수 있다. 와이어리스 시스템에서, 스트리밍 오디오와 같은 실시간 IP 플로우, 및 보다 결정적인 패킷 Time-to-Live 파라미터를 가진 H.323 플로우의 UDP 패킷을 우선적으로 선택함으로써, 재전송 및 TCP 레이트 리셋에 관계없이 WRED(weighted random early detection)가 사용될 수 있다. 이 IP 플로우는 지연 및 지터에 보다 민감하고, 패킷 손실에 보다 덜 민감하다.
와이어리스 환경에서, 적합하게 설계된 MAC 계층을 이용하여, 그렇지 않으면 혼잡 붕괴 및 글로벌 동기화를 일으키는 BER에 의한 패킷 손실은, TCP 송신기에 의한 패킷의 불필요한 재전송 및 RED, 및 결과로서 생성되는 TCP 전송 레이트의 리셋없이, 본 발명에 따라 손실된 패킷의 로컬 재전송을 이용하여 최적으로 관리될 수 있다. IP-중심 와이어리스 시스템은 개별적으로, TCP 송신기가 손실된 패킷을 검출하여 전송 레이트의 불필요한 리셋에 따라 재전송을 시작하기 전에, 패킷 수신-응답을 전송함으로써, TCP 송신기의 TCP 전송 윈도우를 원격으로 관리한다. 이 IP-중심 와이어리스 시스템 TCP 전송 윈도우 관리자는, 와이어리스 매체를 통해 전송된 모든 패킷의 상태를 인식하기 위해, MAC 계층과 통신한다.
b. 프랙탈 자체-유사네트워크 트래픽 특성 대 네트워크 혼잡에 대한 푸아송 분포의 영향( The Effect of Fractal Self - Similar Network Traffic Characteristics vs . Poisson Distributions on Network Congestion )
통상적으로, 네트워크 트래픽이 푸아송 분포로 모델링될 수 있다고 여겨지고 있다. 이 분포를 이용하는 것은, 시스템 시뮬레이션을 통해, 푸아송 분포를 가진 수천개의 개별 트래픽 플로우의 합은 균일한 전체적인 네트워크 트래픽 분포를 초래한다는 결론을 이끈다. 다시 말해서, 전체적인 네트워크는 개별적인 트래픽 플로우의 버스트니스(burstness)를 "평균(average-out)"할 수 있다. 이 모델을 이용하여, 네트워크 혼잡 동작, 버스트 동작 및 동적인 트래픽 특성이 종래의 혼잡 회피 방법 생성, 네트워크 장치내의 큐 버퍼 사이즈의 설계 및 트래픽 및 용량 제한 예측에 사용되고 있다.
보다 최근의 연구는, TCP/IP-기반의 트래픽은 네트워크가 프랙탈(fractal) 또는 자체-유사(self-similar) 방식으로 동작하도록 야기한다고 주장하고 있다. 이 모델을 이용하면, 개별적인 트래픽 플로우의 버스트니스가 전체 네트워크에 대해 합계되면, 전체적인 네트워크가 버스티(bursty)하게 된다. 네트워크 트래픽 플로우의 버스티 속성은 네트워크의 플로우 스케일 및 모든 시간 스케일을 통해 볼 수 있다. 이것은, 본 발명에 따른 IP-중심 와이어리스 광대역 시스템 디자인 및 네트워크에서의 혼잡 회피 방법 디자인 모두에서 전체적으로 큰 의미를 가진다. 네트워크 동작에 대한 이러한 새로운 시각을 이용하여, 많은 경우에서의 네트워크 라우터, 교환기 및 전송 설비가 "불충분하게 설계(under-engineered)"되었다는 것이 명백해지고 있다. 이 불충분한 설계는 네트워크의 혼잡 동작을 더욱 악화시키고 있다.
IP-중심 와이어리스 시스템에 대한 의미는 로컬 혼잡 회피 방법에 대한 큐 버퍼 용량으로부터 범위를 설계한다. 와이어리스 시스템이 높은 고유 BER에 대해 부가적인 부하를 가지기 때문에, 로컬(와이어리스 매체 채널) 혼잡 회피 방법에 대한 네트워크-전체의 혼잡 동작의 영향이 적절히 측정되어 반전되어야 한다. 이 이유로, IP-중심 와이어리스 시스템의 혼잡 회피 알고리즘은, 최근까지 시스템 설계자에게 명백하거나 이용가능하지 않았던, 새로운 수학적 및 공학적 고찰을 이용하여, 트래픽 플로우를 최적화하도록 설계되는 것이 바람직하다. 이러한 고찰의 관점으로, IP-중심 와이어리스 시스템 설계는 매우 낮은 시스템 성능 특성을 초래하지 않고, 종래의 와이어라인 시스템 설계 방법을 이용하여 수행될 수 없다. 회선-중심 와이어리스 시스템의 전형적인 설계 방법을 이용하여, 대역폭 이용도, 실시간 멀티 미디어 품질 및 전체적인 시스템 QoS는 극적으로 보다 낮은 최종사용자 익스피리언스를 제공한다.
7. IP -중심 와이어리스 시스템에서의 애플리케이션-특정 플로우 제어
최종사용자에 의해 인지되는 높은 QoS 달성을 위해 각각이 상이한 대역폭, 지연 및 지터 요건을 가진, 데이터 플로우의 범위를 이용하여, IP-중심 와이어리스 시스템은 넓은 범위에 걸쳐 실시간으로 QoS 메커니즘 파라미터를 관리할 수 있는 것이 요구된다. QoS 메커니즘은, 특정한 애플리케이션에 대응하는 하나 또는 그 이상의 데이터 플로우가 명료한 방식으로 적합한 최종사용자로부터 스위치 온/오프되는 범위로 시스템 동작을 변경할 수 있어야 한다. 이 방법은 기본적인 애플리케이션의 실제적인 QoS 요건에 대한 고려없이, 종단간에 회로-중심 접속을 수립함으로써 높은 QoS를 달성하도록 요구되는 다른 QoS에 대비된다. 회선-특정이 아니라 애플리케이션-특정인 QoS 메커니즘을 제공하는, 본 발명을 이용함으로써, 부족한 와이어리스 대역폭이 확보되어, 각 애플리케이션 타입에 관련된 QoS 메커니즘에 의해 요구되는 곳으로 동적으로 할당될 수 있다.
E. QoS IP -중심 와이어리스 매체 액세스 제어
1. PRIMMA( Proactive Reservation - based Intelligent Multimedia - aware Media Access ) MAC 계층
본 발명의 PRIMMA MAC 계층은 IP-중심 와이어리스 QoS 메커니즘의 애플리케 이션 스위칭 기능을 제공한다. 각 IP 스트림의 QoS 요건 및 속성이 시스템의 다른 부분에 의해 결정되면, 이 정보는 PRIMMA MAC 계층에 전달되어, 각 애플리케이션의 IP 플로우가 올바른 우선순위 순서로 적합한 목적지에 스위칭될 수 있게 된다.
2. PRIMMA IP 프로토콜 스택 수직 시그널링
로컬 사용자의 CPE로부터 시작된 IP 스트림에 대해, 애플리케이션 속성에 관한 애플리케이션-레벨 정보가, IP 스트림에 대해 적합한 QoS 메커니즘 파라미터를 할당하기 위해 시스템에 의해 사용될 수 있다. 비-로컬 호스트로부터 시작된 IP 스트림에 대해서는, 적합한 QoS 메커니즘 파라미터를 구성하는데 사용하기 위한 IP 스트림에 관한 정보가 패킷 헤더로부터 추출될 수 있다. IP 스트림에 관한 정보는, 대역폭 예약 및 애플리케이션 스위칭을 위해, 애플리케이션층(즉, OSI 레벨 7)으로부터 PRIMMA MAC 계층(즉, OSI 레벨 2)으로, 프로토콜 스택 모델에서 "수직으로(vertically)" 전달된다. 이것은 프로토콜 스택의 각 층에 대해 격리 및 독립을 제공하여, 이로써, 스택의 개별 층에 대한 호환성의 정도를 다소 제한하는, 종래의 관행을 어기지만, 그 장점은 IP-중심 와이어리스 광대역 액세스 시스템에서 그 반대측면이 보다 중요하다.
3. PRIMMA IP 플로우 제어 및 애플리케이션 스위칭
IP-중심 와이어리스 시스템에서 각 IP 애플리케이션의 QoS 요건의 특정 세트에 기반하여, 애플리케이션들은, 와이어리스 매체를 통한 대역폭의 적합한 예약에 의해, "사전동작(proactive)" 방식으로 스위칭된다. 각 방향에서의 와이어리스 전송 프레임은 각 IP 플로우의 개별적인 QoS 요건에 의해 지시된 방식으로 구성된다. 와이어리스 전송 프레임을 구성하는데 QoS 요건을 이용함으로써, 시스템에 의해 제어되는 애플리케이션의 전체 범위에 걸쳐 최적의 QoS 성능이 발생할 수 있다. 예를 들면, 지연 및 지터-민감형 IP 전화, 그 밖의 H.323 IP 스트림, 및 실시간 오디오 및 비디오 스트림은 와이어리스 전송 프레임내의 최적의 배치를 위해 보다 높은 우선순위가 주어질 수 있다. 한편, 예를 들어, 초기 웹 페이지 전송과 같은 HTTP 트래픽은 특정한 애플리케이션 업무를 위해 보다 높은 대역폭 예약 우선순위가 주어질 수 있다. 예로, FTP(file transfer protocol) 파일 다운로드, 이메일 전송과 같은, 지연, 지터 또는 대역폭 요건이 없는 그 밖의 트래픽은 와이어리스 전송 프레임내의 시스템 자원 및 배치에 대해 보다 낮은 우선순위가 할당될 수 있다.
4. PRIMMA TCP 전송 레이트 에이전트
와이어리스 최종사용자는, 버스트 에러 이벤트를 얻기 쉬울 수 있는, 저속의 높은 BER 와이어리스 세그먼트에 의해, 고속의 낮은 BER 와이어라인 중심으로부터 분리된다. 와이어리스 세그먼트를 통과하는 TCP/IP 트래픽은, 중재없이, 전술된 글로벌 동기화 및 혼잡 붕괴를 생성할 수 있는, 빈번한 패킷 손실을 겪을 수 있다. 이에 따라, 본 발명의 IP-중심 와이어리스 시스템은, 와이어리스 세그먼트를 통해 패킷 손실을 모니터할 수 있고, 손실 패킷 응답을 재생성 및 전송함으로써, 원격의 TCP 전송 레이트 기능을 관리할 수 있는, TCP 전송 레이트 에이전트를 사용한다. PRIMMA MAC 계층은 와이어리스 매체를 통해 손실 패킷을 재전송할 수 있다.
IP-중심 와이어리스 TCP 전송 레이트 에이전트 또는 "보조수단(adjunct)"은 또한 필요할 때에 IP 플로우의 QoS 요건에 따라 IP 스트림을 흐름-제어할 수 있다. 모든 IP-중심 와이어리스 TCP 전송 레이트 에이전트 기능은 로컬 및 원격 호스트 및 애플리케이션 모두에 대해 명료할 수 있다.
F. 통신 네트워크
1. 음성 네트워크
a. 간단한 음성 네트워크
도1a는 하나 또는 그 이상의 LATA(local access and transport areas) 내에 LEC(local exchange carrier)를 제공하는 표준 통신 네트워크(100)의 개요를 도시한 블록도이다. 통신 네트워크(100)는 호출측(102)으로부터 피호출측(110)으로 스위칭 음성 접속을 제공할 수 있다. 도1a는 또한, 예로, 사설 라인에 의해 LEC 서비스에 다수 사용자 액세스를 제공할 수 있는 PBX(private branch exchange)(112)를 포함하도록 도시되어 있다. 호출측(102) 및 피호출측(110)은 통상의 전화 장비, 키 전화 시스템, PBX(112) 또는 호스트 컴퓨터에 의해 실행되는 애플리케이션일 수 있다. 네트워크(100)는 호출측(1020으로부터, 예를 들면, ISP(Internet service provider)(미도시)로의 데이터 접속으로서 모뎀 액세스에 사용될 수 있다. 네트워크(100)는 또한, 예로, 사설 데이터 네트워크로의 액세스에 사용될 수 있다. 예를 들면, 호출측(102)은, 예로, 다이얼-업(dial-up) 모뎀 접속을 통해 고용주의 사설 데이터 네트워크에 액세스하고 있는, 원거리 위치에서 노트북 컴퓨터로 작업하는 고용인일 수 있다.
도1a는 종단 오피스(end office : EO)(104, 108)를 포함한다. EO(104)는 호출측(102)으로부터 PSTN(public switched telephone network) 설비로 접속을 제공하기 때문에, 인입(ingress) EO라고 부른다. EO(108)는 PSTN 설비로부터 피호출측(110)으로 접속을 제공하기 때문에, 송출(egress) EO라고 부른다. 입구 EO(104) 및 출구 EO(108)에 추가하여, 통신 네트워크(100)에 관련된 PSTN 설비는 장거리 트래픽을 위해, 예로, 하나 또는 그 이상의 IXC(inter-exchange carriers)(106)에 액세스를 제공할 수 있는, POP(points of presence)(132, 134)에서의 액세스 중계(access tandem : AT)(미도시)를 포함하는데, 이는 도2a를 참조한다. 대안적으로, 이 기술분야의 통상의 지식을 가진 자에게는, IXC(106)는, 예를 들면, CLEC 또는 다른 ESP(enhanced service provider), GPOP(global point-of-presence) 또는 IP(intelligent peripheral)일 수 있다는 것이 이해될 것이다.
도1a는 또한 EO(104)에 연결된 PBX(112)를 포함한다. PBX(112)는 호출측(124, 126), 팩스(116), 클라이언트 컴퓨터(118)와 관련된 모뎀(130), 및 관련된 모뎀(130)을 통해 연결된 서버 컴퓨터(122)와 클라이언트 컴퓨터(120)를 구비한 LAN(local area network)(128)을 연결시킨다. PBX(112)는, 일반적으로 CPE(customer premises equipment)라고 부르는, 가입자측에 위치한 통신 장치의 일반적인 종류의 특정 예이다.
네트워크(100)는 또한 호 설정(setup) 및 호 해제(tear down)를 위한 CCIS(common channel interactive signaling) 네트워크를 포함한다. 특히, 도1은 SS7(Signaling System 7) 시그널링 네트워크(114)를 포함한다. 시그널링 네트워크(114)는 도2b를 참조하여 아래에서 다시 설명될 것이다.
b. 세부적인 음성 네트워크
도2a는 상이한 LATA에 위치한 가입자들 사이에 LEC 및 IXC 캐리어 서비스를 모두 제공하는, 표준 통신 네트워크(200)의 개요를 도시한 블록도이다. 통신 네트워크(200)는 보다 상세한 버전의 통신 네트워크(100)이다. 호출측(102a) 및 피호출측(110a)은 각각 EO 스위치(104a, 108a)에 연결되어 있다. 다시 말해서, 호출측(102a)은 제1 LATA 내의 입구 EO(104a)로 향해지고, 피호출측(110a)은 제2 LATA 내의 출구 EO(108a)로 향하여 있다. 상이한 LATA 내의 가입자들 간의 호는, 통상적으로 IXC로 라우팅되는 장거리 호이다. 미국에서의 IXC 예는 AT&T, MCI 및 Sprint를 포함한다.
통신 네트워크(200)는 AT(206, 08)를 포함한다. AT(206)은 POP(132a, 132b, 132c, 132d)에 접속을 제공한다. IXC(106a, 106b, 106c)는 POP(132a, 132b, 132c)(제1 LATA 내의)과 POP(134a, 134b, 134c)(제2 LATA 내의) 사이에 접속을 제공한다. CLEC(competitive local exchange carrier)(214)는 POP(132d)과 POP(134d) 사이에 선택적인 접속을 제공한다. 그리고, POP(134a, 134b, 134c, 134d)은 AT(208)에 연결되는데, 이것은 출구 EO(108a)에 접속을 제공한다. 피호출측(110a) 은 그것이 향해있는 EO(108a)로부터 호를 수신할 수 있다.
대안적으로, 이 기술분야의 통상의 지식을 가진 자에게는, AT(206)가, 예를 들면, CLEC, ESP, GPOP 또는 IP(intelligent peripheral)가 될 수 있다는 것이 이해될 것이다.
네트워크(200)는 또한 CLEC 스위치(104c)에 연결된 호출측(102c)을 포함한다. 미국에서의 1996 Telecommunications Act에 따르면, CLEC가 로컬 RPOC 영역 내에서 액세스를 위한 허가(permission)를 얻었다. RBOC는 이제 ILEC(incumbent local exchange carriers)라고 불려진다.
i. 고정 와이어리스 CLEC
네트워크(200)는 또한 고정 와이어리스 CLEC(209)를 포함한다. 예시적인 고정 와이어리스 CLEC는 버지니아주 비엔나의 Teligent Inc., Winstar Communications Inc., Advanced Radio Telecom Corp., BizTel unit of Teleport Communications Group Inc.가 있다. 고정 와이어리스 CLEC(209)는 가입자 송수신기 RF 타워(212)와 RF 링크를 통해 통신하는 와이어리스 송수신기/수신기 RF 타워(210)를 포함한다. 가입자 RF 타워(212)는 CPE 박스, PBX(112b)에 연결되도록 묘사되어 있다. PBX(112b)는 호출측(124b, 124b), 팩스(116b), 클라이언트 컴퓨터(118b) 및 관련된 모뎀(130b), 및 관련된 모뎀(130b)을 통해 연결된 서버 컴퓨터(122b)와 클라이언트 컴퓨터(120b)를 구비한 LAN(128b)을 연결시킨다.
네트워크(200)는 또한, 모두 EO(108a)에 연결된, 피호출측(110a), 팩 스(116a), 클라이언트 컴퓨터(118a) 및 관련된 모뎀(130a), 및 셀룰러 통신 RF 타워(202) 및 관련된 셀룰러 가입자 피호출측(204)을 포함한다.
EO(104a, 108a) 및 AT(206, 208)는 스위칭 계층구조의 부분이다. EO(104a)는 클래스5 오피스로 알려져 있고, AT(208)는 클래스 3/4 오피스 스위치이다. 수정된 최후의 판단에 따른 AT&T로부터의 RBOC(regional Bell Operating Companies)의 박탈 이전에, 오피스 분류는 U.S. PSTN 내의 그들의 계층적인 기능에 따라 오피스에 할당된 번호였다. 오피스 클래스는 전송 요건 및 다른 스위칭 센터에 대한 계층적 관계에 따른 전화 중앙 오피스 스위치의 기능적인 순위이다. 클래스1 오피스는 RC(Regional Center), 최상위 레벨 오피스, 또는 호를 완료하기 위한 "최후 수단 오피스(office of last resort)"로 알려져 있다. 클래스2 오피스는 SC(Sectional Center)로 알려져 있다. 클래스3 오피스는 PC(Primary Center)로 알려져 있다. 클래스4 오피스는, 오퍼레이터가 존재하면 TC(Toll Center), 그렇지 않으면 TP(Toll Point)로 알려져 있다. 클래스5 오피스는 EO(End Office), 즉 로컬 및 장거리 스위칭에 대해 최하위 레벨이고, 최종 가입자에게 가장 근접한 로컬 중앙 오피스이다. 하나의 센터가 계층구조에서 보다 낮은 하나 또는 그 이상의 센터로부터의 트래픽을 제어한다. 박탈(divestiture), 및 스위칭 오피스에서 보다 지능적인 소프트웨어로 인해, 이러한 명시들이 보다 덜 확정적이 되고 있다. 기술은 최종사용자에 대해 보다 가까운 기능으로 분포하여, 네트워크 계층구조 및 스위치 클래스의 통상적인 정의를 확산시키게 되었다.
ⅱ. ISP ( Internet Service Providers )에 대한 연결성( connectivity )
호출측(102a)으로부터 피호출측(110a)로 음성 커넥션을 제공하는 것에 추가하여, PSTN은 호출측(102a)에 ISP(즉, 클라이언트(118b)와 유사한)로의 데이터 접속을 제공할 수 있다.
네트워크(200)는 또한, 도1b를 참고하여 아래에서 다시 설명되는 바와 같이, 데이터 네트워크(142)에 연결된 서버 컴퓨터(122)를 포함할 수 있는 ISP(미도시)를 포함할 수 있다. 인터넷은 주지된, 데이터 링크에 의해 서로 연결된 몇몇 큰 네트워크를 포함하는 전세계적인 네트워크이다. 이 링크는, 예를 들면, ISDN(Integrated Digital Services Network), T1, T3, FDDI 및 SONET 링크를 포함할 수 있다. 대안적으로, 인터넷은, 예를 들면, 인트라넷과 같은, 다수의 LAN 및/또는 WAN을 연결하는 사설 네트워크일 수 있다. ISP는 클라이언트(118b)와 같은 가입자에게 인터넷 액세스 서비스를 제공할 수 있다.
ISP와의 접속을 수립하기 위해, 클라이언트(118b)는 모뎀(130b)에 연결된 호스트 컴퓨터를 이용할 수 있다. 모뎀은 호스트 컴퓨터로부터의 데이터를 LEC 설비로 전송하기 위한 형식(통상적으로 아날로그 형식)으로 변조할 수 있다. 통상적으로, LEC 설비는 입력되는 아날로그 신호를 디지털 형식으로 변환한다. 일실시예에서, 데이터는 PPP(point-to point protocol) 포맷으로 변환된다. (PPP는 컴퓨터가 표준 모뎀을 이용하여 인터넷과의 접속을 수립할 수 있게 하는 주지된 프로토콜이다. 이것은 고품질의 GUI(graphical user interfaces)를 지원한다.) 이 기술분야의 통상의 지식을 가진 자가 이해하는 바와 같이, 예로, TCP/IP 패킷 포맷, UDP/IP 패킷 포맷, ATM 셀 패킷 포맷, SLIP(serial line interface protocol) 프로토콜 포맷, PPP 프로토콜 포맷, PPTP(point-to-point tunneling protocol) 포맷, NETBEUI(NETBIOS extended user interface) 프로토콜 포맷, Appletalk 프로토콜 포맷, DECnet, BANYAN/VINES, IPX(internet packet exchange) 프로토콜 포맷, 및 ICMP(internet control message protocol) 프로토콜 포맷을 포함하는 다른 포맷들이 사용될 수 있다.
ⅲ. 통신 링크
여기서 설명되는 도1a, 2a 및 그 밖의 도면들은 통신 라인, 또는 네트워크 노드 또는 시스템들 사이의 논리적 접속으로 언급될 수 있는 라인을 포함하는데, 이것은 통신 캐리어 장치에 의해 물리적으로 구현된다. 이 캐리어 장치들은 회선들과, 예를 들면, DACS(digital access and cross-connect system), 재생기(regenerators), 텐덤, 구리선 및 광섬유 케이블을 포함하는, 회선들 간의 네트워크 노드를 포함한다. 이 기술분야의 통상의 지식을 가진 자에게는, 대안적인 통신 라인이 하나 또는 그 이상의 통신 시스템 장치를 연결하는데 사용될 수 있다는 것이 이해될 것이다. 또한, 여기서 정의된 바와 같이, 통신 캐리어는, 예를 들면, LEC, CLEC, IXC, ESP, GPOP와 같은 국제적인 서비스 제공자, 및 IP(intelligent peripheral)를 포함할 수 있다.
EO(104a)와 AT(206)는 트렁크에 의해 접속되어 있다. 트렁크는 AT를 EO에 접 속시킨다. 트렁크는 IMP(inter machine trunk)로 부를 수 있다. AT(208)와 EO(108a)는 IMP일 수 있는 트렁크에 의해 접속되어 있다.
도1a를 참조하면, EO(104)와 PBX(112)가 디지털 톤을 갖는 사설 라인에 의해 접속될 수 있다. 사설 라인은 또한, 예를 들면, ISP(미도시)를 EO(104)에 접속시킬 수 있다. 디지털 톤을 갖는 사설 라인은 모뎀 베이 또는 ISP에서의 액세스 변환 장치(access converter equipment)에 접속될 수 있다. 사설 라인의 예는 채널화된 T1 또는 ISDN PRI(primary rate interface)가 있다. ISP는 또한 파이프 또는 전용 통신 설비를 이용하여 인터넷에 연결될 수도 있다. 파이프는 전용 통신 설비일 수 있다. 사설 라인은 ISP로/로부터의 데이터 모뎀 트래픽을 제어할 수 있다.
트렁크는 스위칭된 음성 트래픽 및 데이터 트래픽을 제어할 수 있다. 예를 들면, 트렁크는 T1-T4 캐리어를 통해 전송된 디지털 신호 DS1-DS4를 포함할 수 있다. 표2는 각각의 디지털 신호, 채널 번호 및 대역폭 용량에 따른 통상적인 캐리어를 제공한다.
표2
Figure 112009054743826-pat00004
대안적으로, 트렁크는 OC(optical carriers)-1, OC-3 등과 같은 OC를 포함할 수 있다. 표3은 각각의 STS(synchronous transport signals), ITU 표시 및 대역폭 용량에 따른 통상적인 광학 캐리어를 제공한다.
표3
Figure 112009054743826-pat00005
나타난 바와 같이, 사설 라인은 데이터 모뎀 트래픽을 운반할 수 있는 접속이다. 사설 라인은 2개의 특정 포인트 사이의 고객의 이용에 특별히 전용되는 다이렉트 채널일 수 있다. 사설 라인은 임대된 라인으로 알려져 있다. 일실시예에서, 사설 라인은 ISDN/PRI 접속이다. ISDN PRI 접속은, 나머지 23개 채널이 베어러 또는 B 채널로 사용되는, T1상의 단일 신호 채널(데이터 또는 D 채널이라 부름)을 포함할 수 있다. (베어러 채널은 음성 및 데이터 정보를 운반하는 디지털 채널이다.) 다수의 ISDN PRI 라인이 사용되는 경우, 모든 라인에 대한 시그널링은 하나의 D 채널을 통해 운반되어, 베어러 채널만을 운반하는 나머지 라인은 비게 된다.
ⅳ. 통신 트래픽
통신 트래픽은 통신 캐리어의 네트워크 노드로부터 수신 및 전송될 수 있다. 통신 캐리어는, 예를 들면, LEC, CLEC, IXC 및 ESP를 포함할 수 있다. 일실시예에서, 이 트래픽은, 예를 들면, EO(104a)와 같은, 클래스5 스위치인 네트워크 노드로부터 수신되거나, 또는 AT(206)와 같은, 클래스 3/4 스위치로부터 수신될 수 있다. 대안적으로, 네트워크 시스템은 또한, 예를 들면, CLEC, ESP, 국제 GPOP, 또는 IP(intelligent peripheral)일 수도 있다.
음성 트래픽은, 예를 들면, 호출측(102a)과 피호출측(110a) 사이에 스위칭된 음성 접속으로 언급된다. 이것은 두 지점 간의 전용 경로 상에 있다는 것, 즉, 그것이 사용되는지의 여부에 관계없이 대역폭이 할당된다는 것을 주목할 필요가 있다. 스위칭 음성 접속은 호출측(102a)과 EO(104a) 사이에, 그 다음 AT(206)에, 그 다음 IXC(106a)와 같은 IXC의 네트워크를 통해 AT(208)에, 그리고, EO(108a)와 트렁크를 통해 피호출측(110a)으로 수립된다.
호출측(102a)은 음성 네트워크를 통해 서버로의 데이터 접속을 갖는 컴퓨터가 될 수 있다. 데이터 트래픽은, 예를 들면, 호출측(102a)(모뎀을 이용하여)과 ISP의 일부일 수 있는 서버(122b) 사이의 데이터 접속으로 언급된다. 데이터 접속은, 예로, 호출측(102a)과 EO(104a) 사이에, 그 다음 AT(206)에, 그 다음 CLEC(214)에, 그리고 고정 와이어리스 CLEC(209) 링크를 통해 PBX(112b)에, 서버(122b)에 관련된 모뎀(130b)으로 수립될 수 있다.
c. 시그널링 네트워크
도2b는 시그널링 네트워크(114)를 보다 상세하게 도시하고 있다. 시그널링 네트워크(114)는 호출측(102)과 피호출측(110) 사의의 호의 설정, 해제 및 감독을 제어하는데 사용되는 개별적인 네트워크이다. 주어진 예에서의 시그널링 네트워크(114)는 SS7 네트워크이다. 시그널링 네트워크(114)는 SSP(service switching points)(236, 238, 240, 242), STP(signal transfer points)(222, 224, 226, 228, 230, 232) 및 SCP(service control point)(234)를 포함한다.
SS7 네트워크에서, SSP는 SS7 기능을 제공하는 중추 스위치 부분이다. SSP는, 예를 들면, 음성 스위치와 SS7 스위치의 조합, 또는 음성 스위치에 접속된 컴퓨터일 수 있다. SSP는 프리미티브를 이용하여 스위치와 통신하고, SS7 네트워크를 통해 전송을 위한 패킷을 생성한다.
EO(104a, 108a) 및 AT(206, 208)는 SS7 시그널링 네트워크(114)에서 SSP(236, 238, 240, 242)로 각각 나타날 수 있다. 따라서, EO(104a, 108a)와 AT(206, 208) 사이의 접속(점선으로 나타낸)은 접속(254, 256, 258, 268)으로 표시될 수 있다. 이들 링크의 타입은 아래에 기재되어 있다.
STP는 SS7 네트워크에서 라우터로 동작하는데, 통상적으로 내부(in-place) 스위치에 대한 보조수단으로 제공된다. STP는 시작 SSP로부터 목적지 SSP까지 메시지를 라우팅한다. 구조적으로, STP는 통상적으로, 혼잡이나 오류 이벤트에서 리던던시(redundancy)를 제공하고 자원을 공유(즉, 부하 공유가 자동적으로 수행됨)하 기 위해 "쌍"으로 제공될 수 있다. 도2b에 도시된 바와 같이, STP는 시그널링 메시지의 계층적인 라우팅을 제공하기 위해, 계층 레벨로 배열될 수 있다. 예를 들면, 짝지어진 STP(222, 224)와 STP(226, 228)는 제1 계층 레벨에, 짝지어진 STP(230, 232)는 제2 계층 레벨에 있다.
SCP는 데이터베이스 기능을 제공한다. SCP는 SS7 네트워크에서, 특별한 서비스 번호(예, 800, 900 번)의 라우팅, 가입자 서비스에 관한 정보 저장, 통화 카드 확인 및 부정 방지 제공, 및 AIN(advanced intelligent network) 서비스 제공을 포함하는, 강화된 특징을 제공하는데 사용될 수 있다. SCP(234)는 짝지어진 STP(230, 232)에 접속된다.
SS7 네트워크에서, 상이한 네트워크 구성요소들 사이에 유일한 링크가 존재한다. 표4는 일반적인 SS7 링크에 대한 정의를 제공한다.
도2b를 참조하면, 짝지어진 STP 쌍들은 C 링크에 의해 접속된다. 예를 들면, STP(222, 224), 짝지어진 STP(226, 228), 및 짝지어진 STP(230, 232)는 C 링크(표시되지 않음)에 의해 접속된다. SSP(236, 238) 및 SSP(240, 242)는 F 링크(262, 264)에 의해 접속된다.
동일한 계층 레벨에 있는, 짝지어진 STP(222, 224)와 짝지어진 STP(226, 228)는 B 링크(270, 272, 244, 282)에 의해 접속된다. 상이한 계층 레벨에 있는, 짝지어진 STP(222, 224)와 짝지어진 STP(230, 232)는 D 링크(266, 268, 274, 276)에 의해 접속된다. 마찬가지로, 상이한 계층 레벨에 있는, 짝지어진 STP(226, 228)과 짝지어진 STP(230, 232)는 D 링크(278, 280, 246, 248)에 의해 접속된다.
SSP(236, 238)와 짝지어진 STP(222, 224)는 A 링크(254, 256)에 의해 접속된다. SSP(240, 242)와 짝지어진 STP(226, 228)은 A 링크(258, 260)에 의해 접속된다.
SSP(236, 238)는 또한 E 링크(미도시)에 의해, 짝지어진 STP(230, 232)에 접속된다. 마지막으로, 짝지어진 STP(230, 232)는 A 링크(250, 252)에 의해 SCP(234)에 접속된다.
SS7 네트워크 기술의 보다 상세한 설명에 대해, 리더(reader)는 Russell, Travis, Signaling System #7, McGraw-Hill, New York, NY 10020, ISBN 0-07-054991-5에 언급되고, 이것은 여기서 참조로서 포함되어 있다.
표4
SS7 링크 용어 정의
액세스(A) 링크 A 링크는 SSP를 STP에, 또는 SCP를 STP에 접속시키며, STP를 통해 네트워크 액세스 및 데이터베이스 액세스를 제공한다.
브릿지(B) 링크 B 링크는 짝지어진 STP를 다른 짝의 STP에 접속시킨다.
크로스(C) 링크 C 링크는 짝지어진 쌍에서 STP를 서로 접속시킨다. 정상적인 상태 동안에, 네트워크 관리 메시지만이 C 링크를 통해 전송된다.
사선(D) 링크 D 링크는 제1 계층 레벨에서의 짝지어진 STP를 제2 계층 레벨에서의 짝지어진 STP에 접속시킨다.
확장(E) 링크 E 링크는 SSP를 원격지의 짝지어진 STP에 접속시키고, 짝지어진 STP에 연결된 A 링크가 혼잡한 경우에 사용된다.
완전 연관된(F) 링크 F 링크는 SSP 사이에 너무 많은 트래픽이 존재하거나, STP로의 직접 접속이 불가능한 경우에, 로컬 SSP(바이패싱 STP) 사이에 직접 접속을 제공한다. F 링크는 호 설정 및 호 해제에 대해서만 사용된다.
d. SS7 시그널링 플로우
SS7 통신 네트워크에서 호를 개시하기 위해, 호출측은 입구 EO 스위치에 접속된 전화를 이용하여 피호출측 전화번호를 다이얼링한다. 전화번호는 호출측의 LEC의 입력 EO에서 전화로부터 SSP로 전달된다. 먼저, SSP는 임의 기준의 만족도에 기반하여 트리거 및 내부 라우팅 룰을 처리할 수 있다. 두 번째로, SSP는, 필요에 따라, 다른 EO 또는 AT에 대해 시그널링 메시지를 개시할 수 있다. 시그널링 정보는 SSP로부터 STP로 전달될 수 있는데, 이것은 입구 EO와 종단 EO, 또는 출구 EO 사이에 신호를 라우팅한다. 입구 EO는 피호출측의 전화번호에 의해 표시된 부분을 갖는다. 다이렉트 트렁킹(direct trunking)이 존재하지 않거나, 또는 다이렉트 트렁킹이 가득찬 경우, 호는 텐덤 스위치를 통해 EO들 사이에 다이렉트 접속으로 설정된다. 호가 장거리 호, 즉, 상이한 LATA에 위치한 호출측과 피호출측 사이의 호인 경우, 그 호는 IXC 스위치를 통해 접속된다. 이러한 장거리 호는 일반적으로 LATA간(inter-LATA) 호로 언급된다. LEC와 IXC는 함께 PSTN으로 언급된다.
로컬 전화 서비스 시장에서의 경쟁을 인정한, 1996 Telecommunications Act의 부분은, 로컬 교환 서비스 제공시에 CLEC가 ILEC와 경쟁하도록 허가하였다. 그러나, 이 경쟁은 여전히, 많은 양의 음성 및 데이터 통신을 제어하기 위해, 필요한 대역폭을 제공하지 못하였다. 이것은 LEC에 의해 사용되는 장비의 대역폭을 제한하는 회선 교환 기술의 한계, 및 부가 장비를 추가하기 위한 높은 비용으로 인한 것이다.
e. 회선-교환
회선 교환은 하나의 호에 대해 그 호의 기간 동안에 하나의 채널을 전용한다. 따라서, 회선 교환을 이용하면, 많은 양의 음성 호를 제어하기 위해 많은 양의 스위칭 대역폭이 요구된다. 이 문제점은, 음성 통신을 제어하기 위해 설계되었던 동일한 장치를 통해 데이터 통신을 수행하는 음성 회선의 사용에 의해 가중된다.
i. TDM ( Time Division Multiplexed ) 회선 교환
TDM 회선 교환은 접속 기간 동안에 2개의 연결된 장치 사이에 전용 회선 또는 풀-타임 접속을 생성한다. TDM은 대역폭을 일정 타임 슬롯으로 나누는데, 여기서, 각각이 가용한 일정 용량을 가진, 다수의 타임 슬롯이 존재할 수 있다. TDM 네트워크 상에서 각각 연결된 장치는 속도의 요구에 따라 하나 또는 그 이상의 타임 슬롯을 이용하여 대역폭의 일정 부분에 할당된다. 장치가 전송 모드일 때에, 데이터는, 처리 또는 변환과 같은 추가의 오버헤드없이, 그 타임 슬롯에 배치된다. 따라서, TDM은 전송될 트래픽에 대해 명료한 프로토콜이다. 그러나, 불행하게도, 장치가 데이터를 전송 중이지 않을 때에는, 타임 슬롯이 빈 상태로 남게 되고, 이로써, 대역폭 사용이 낭비된다. 네트워크 상의 보다 고속의 장치는 데이터를 전송하기 위해 감속되거나 또는 대기하여 병목될 수 있지만, 유휴상태로 있는 용량이 이 전송 기간 동안에 보다 높은 우선순위 장치에 할당될 수 없다. TDM은 오늘날의 구조에서 데이터 요구에 대한 기준이 되고 있는 데이터의 버스트에 그리 적합하지 못하다.
2. 데이터 네트워크
도1b는 데이터 네트워크(142)에 연결된 워크스테이션(144, 146)을 포함하는 예시적인 네트워크(148)를 도시하고 있다. 데이터 네트워크(142)는 다수의 LAN을 함께 연결하기 위한 WAN으로 동작할 수 있다. 네트워크(148)는, NIC(network interface cards), 및 예로, 이더넷 허브와 같은 허브를 포함하는, 배선에 의해 함께 연결된, 예로, 클라이언트 워크스테이션(138)과 서버(136)와 같은 다수의 호스트 컴퓨터를 포함하는 예시적인 LAN을 포함한다. LAN은 데이터 트래픽이 클라이언트(138)로부터 서버(136)로의, 워크스테이션(144, 146)에 대해 라우팅되도록 하는 네트워크 라우터(140)에 의해 데이터 네트워크(142)에 연결된다.
a. 패킷-교환
회선-교환된 접속을 통해 트래픽을 전송하는, 도1a 및 도2a를 참조하여 전술된 음성 네트워크(100, 200)와는 달리, 데이터 네트워크(148)는 패킷 교환을 이용하여 트래픽을 전송한다.
현재, 인터넷, 인트라넷, 및 컴퓨터를 상호연결하는 유사한 공중 또는 사설 데이터 네트워크는 일반적으로 패킷 교환 기술을 사용한다. 패킷 교환은 회선 교환보다 더욱 효과적인 통신 채널의 사용을 제공한다. 패킷 교환된 네트워크는, 예로, 디지털화된 음성, 데이터 및 비디오와 같은 여러 타입의 데이터를 포함할 수 있는, 정보의 패킷들을 전송한다. 패킷 교환에 따라, 많은 상이한 호들은, 채널이 하나의 호에 전용되는 대신에, 하나의 통신 채널을 공유할 수 있다. 음성 통화(호) 동안에, 예를 들면, 디지털화된 음성 정보는 단지 60%의 시간 동안만 통화자 사이에 전달되고, 나머지 40%의 시간에는 무음(silence)이 전송된다. 회선 교환 접속에 따르 면, 음성 호는, 무음으로 인해 미사용되는, 대역폭의 50%를 가질 수 있는 통신 채널을 묶어두었다. 데이터 호에 대해, 정보는 단지 10%의 시간에 두 컴퓨터 사이에 전송된다. 데이터 호에 대해, 그 채널 대역폭의 90%가 미사용될 수 있다. 반면, 패킷-교환 접속은 음성 호, 데이터 호 및 다른 가능한 호 정보가 동일한 채널을 통해 모두 전송되도록 한다.
패킷 교환은 매체 스트림을, 예를 들면, 패킷, 셀 또는 프레임으로 알려진 조각으로 분할한다. 그리고 나서, 각 패킷은 적합한 목적지에 전달하기 위해 어드레스 정보와 함께 인코딩되어 네트워크를 통해 전송될 수 있다. 패킷들은 목적지에서 수신되고, 매체 스트림은 수신측에 전달하기 위해 원래 형식으로 재조립된다. 이 과정은, 일반적으로 IP(Internet Protocol)이라고 부르는 중요한 통신 프로토콜을 이용하여 가능해 진다.
패킷-교환 네트워크에서, 송신기와 수신기 사이에 단일의 쪼개지지 않은 물리적인 접속이 존재하지 않는다. 많은 상이한 호로부터의 패킷들은 다른 전송과 네트워크 대역폭을 공유한다. 패킷들은 많은 상이한 라우팅을 통해 목적지 측으로 동시에 전송될 수 있고, 그 후에 수신단에서 재조립될 수 있다. 그 결과 회선-교환에 의해 달성될 수 있는 것보다, 훨씬 더 효과적으로 통신 네트워크 대역폭을 사용할 수 있다.
b. 라우터
데이터 네트워크(142)는 다수의 네트워크 라우터(140)를 포함할 수 있다. 네 트워크 라우터는 다수의 네트워크 사이에 정보를 라우팅하는데 사용된다. 라우터는 2 이상의 네트워크 사이에 인터페이스로 동작한다. 두 네트워크 사이에 몇몇 상이한 네트워크가 존재하더라도, 라우터는 두 네트워크 사이의 최선의 경로를 찾을 수 있다.
네트워크 라우터는 여러 네트워크 도메인을 기술하는 테이블을 포함할 수 있다. 도메인은 LAN 또는 WAN으로 생각될 수 있다. 정보는 네트워크 라우터를 통해 다수의 LAN 및/또는 WAN 사이에 전송될 수 있다. 라우터는 패킷을 보고, 패킷의 헤더 내의 목적지 어드레스로부터 패킷의 목적지 도메인을 판단한다. 라우터가 목적지 도메인에 직접 접속되지 않은 경우, 라우터는 그 라우터의 디폴트 라우터, 즉, 라우터 계층에서 보다 높은 라우터로 패킷을 라우팅할 수 있다. 각 라우터는 그것이 연결된 디폴트 라우터를 가지고 있기 때문에, 패킷은 일련의 라우터를 통해 패킷의 최종 목적지 어드레스를 가지는 목적지 호스트 및 목적지 도메인으로 전송될 수 있다.
c. LAN ( Local Area Networks ) 및 WAN( Wide Area Networks )
LAN은 호스트 컴퓨터내의 NIC(network interface cards)를 통해 상호접속된 다수의 호스트 컴퓨터로 생각될 수 있다. NIC은, 예를 들면, 구리선을 통해 접속되어, 호스트 컴퓨터들 사이에 통신을 가능하게 한다. LAN의 예로 이더넷 버스 네트워크, 이더넷 스위치 네트워크, 토큰링 네트워크, FDDI(fiber digital data interconnect) 네트워크 및 ATM 네트워크를 포함할 수 있다.
WAN은 넓은 영역에 걸쳐 호스트 컴퓨터에 접속하는 네트워크이다. 특정 LAN 상의 호스트 컴퓨터가 다른 LAN 상의 호스트 컴퓨터와 통신하기 위해, LAN과 WAN을 상호접속시키는 네트워크 인터페이스가 존재하여야 한다. 네트워크 인터페이스의 예로는 전술된 라우터가 있다.
다수의 LAN 및/또는 WAN을 상호접속하도록 설계된 네트워크가 인터넷(internet)(소문자 "i"인)으로 알려져 있다. 인터넷은 LAN과 WAN 모두를 포함하는 다수의 네트워크 사이에 데이터를 전송할 수 있다. 예를 들면, IP(internet protocol) 프로토콜을 통해, 하나의 LAN 상의 호스트 컴퓨터와 다른 LAN 상의 호스트 컴퓨터 사이에 통신이 발생한다. 인터넷은 2개 또는 그 이상의 네트워크를 상호접속하는 라우터를 포함할 수 있다.
"인터넷(Internet)"(대문자 "I"인)은 전세계에 걸쳐 네트워크를 상호접속하는 글로벌 인터넷(internet)이다. 인터넷(Internet)은 프로토콜 중 IP족을 통해 서로 통신하는 컴퓨터들의 글로벌 네트워크를 포함한다.
"internet"은 IP와 같은 인터넷 표준 및 인터넷 소프트웨어를 사용하는 사설 네트워크인 인터넷이다. 인터넷은 그 네트워크를 사용하는데 필요한 승인이 주어진 가입자에 의해 사용되도록 예약될 수 있다.
d. 스위칭 대 라우팅
라우팅은 IPX 또는 TCP/IP와 같은 프로토콜 상에서 중간의 네트워크 아키텍처 레벨에서 수행된다. 스위칭은 보다 낮은 레벨, 즉 OSI 모델의 2번째 층인 MAC 계층에서 수행된다.
e. TCP / IP 패킷-중심 대 ATM 회선-중심 데이터 네트워크
ATM(Asynchronous Transfer Mode)은 일정 크기의 셀 스위칭 회선-중심 데이터 네트워크이다. ATM은 VC(virtual circuits), VP(virtual paths) 및 TP(transmission paths)를 구현한다. ATM과 같은 회선-중신 네트워크는, 특정한 트래픽 타입에 대해 가상 회선을 전용함으로써 QoS를 제공하는, 소스와 목적지 노드 사이의 가상 회선을 설정한다.
일부 네트워크는 패킷-중심 네트워크이다. 회선-중심 네트워크와는 달리, 패킷-중심 네트워크는 패킷을 전송하기 위해 전용 회선을 사용하지 않는다. TCP/IP는 IP 네트워크 상의 여러 시스템들 사이에 전송되는 사용자 데이터의 패킷화를 수행한다. 큰 파일이 프로토콜 스택 아래로 전송될 때에, IP 기능은 데이터의 패킷화 및 분할(segmentation)을 책임진다. 그리고 나서, 데이터 링크로 전달하기 위해 헤더가 패킷상에 배치된다. 이 데이터의 라우팅 및 스위칭은 IP(즉, 네트워크)층에서 제어된다. IP는 어느 정도 둔한 프로토콜이다. 패킷이 매체를 통해 전송하도록 준비되면, IP는 특정한 채널을 통해 이 호를 특별히 라우팅하지 않는다. 대신에, 패킷상에 헤더를 배치하여, 네트워크가 그것을 처리하도록 한다. 따라서, 바깥쪽 범위의 패킷은 소스로부터 목적지까지 도달하기 위해 여러 라우팅을 취할 수 있다. 이것은, 패킷들이 데이터그램 형식이고 다른 프로토콜에서와 같이 연속적으로 번호가 매겨지지 않는다는 것을 의미한다. IP는 패킷을 목적지 네트워크 인터페이스에 전달하기 위해 최선의 시도를 수행하지만, 데이터가 도착할 것인지, 데이터가 에러에 안전한지, 및 그 경로를 따르는 노드들이 데이터 및 시퀀싱의 정확성에 관여하는지를 보장할 수 없고, 또는 복귀하여 전달 메커니즘에서 어떤 것이 잘못되었는지를 발신자에게 알린다. 패킷의 IP 라우팅에서, 패킷은 하나의 루프에서 네트워크를 따라 전송되어, IP가 임의 수의 "홉(hops)" 또는 네트워크 상에서 소위 "존속 시간(time to live)"을 허용하는 그 헤더 정보 내에 메커니즘을 가질 수 있다. 전달 불가능한 패킷이 네트워크 주위를 돌게하는 대신에, IP는 패킷이 네트워크 노드를 통해 전달되는 모든 시간을 감소시키는 카운터 메커니즘을 가진다. 그 카운터가 만료되면, 노드는 그 패킷을 폐기한다. IP와 함께 작동하는 것은, 신뢰할 수 있는 데이터 스트림이 전송 및 전달되는 것을 보장하기 위한 제어를 제공하는 TCP이다. 전송단에서, TCP는 IP 프로토콜층에 전달될 정보에 바이트 카운트 헤더를 덧붙이고, 이것을 패킷의 부분으로 캡슐화한다. 패킷이 도달하면, 수신측은 패킷을 재배열하고 그것의 정확성을 보장한다. 모든 IP 플로우가 정확하게 수신되지 않은 경우, 바이트 카운트의 긍정응답(acknowledgement) 또는 부정응답(nonacknowledgment) 메시지가 전송측으로 다시 전송되어, 전송측이 패킷 플로우의 나머지 부분에 채우는데 필요한 바이트를 재전송하도록 한다. TCP는 부정응답 패킷을 재전송할 때까지 추가의 패킷들을 버퍼링한다.
3. 비디오 네트워크
도1c는, 예를 들면, 케이블 텔레비전(CATV) 네트워크와 같은 종래의 비디오 네트워크(150)를 도시하고 있다. 비디오 네트워크(150)는 여러가지 비디오 캡처, 분배 링크 및 비디오 출력 모니터에 연결된 비디오 네트워크(160)를 포함할 수 있다. 비디오 입력 장치는, 예로, 회의 카메라(154, 158)를 포함할 수 있다. 비디오 출력 장치는, 예로, 텔레비전(152, 156)을 포함할 수 있다, 비디오 네트워크(160)는, 여러 비디오 신호를 다중화하기 위한 NTSC(national television standard code) 튜너 장비 및 CATV(coaxial cable television)와 같은 분배 링크 장비 및 여러가지 헤드 엔드(즉, 케이블의 제공단)를 포함할 수 있다. 표준 케이블 시스템은 그들이 이용가능한 거대한 양의 대역폭을 가진다.
CATV는 와이어리스 통신 방법이라는 것을 주의하여야 한다. 많은 비디오 신호의 주파수가 케이블을 따라 동시에 분포된다. 텔레비전 튜너는 특정한 주파수 또는 "주파수 대역"으로 튜닝함으로써, 특정 채널을 선택한다.
케이블 텔레비전 CATV 비디오 네트워크는 종종 단지 하나의 물리적인 케이블만을 포함하지만, 다수의 채널이 동시에 케이블상에 존재할 수 있다. 이것은 케이블의 주파수 스펙트럼을 공유하고, FDM(frequency division multiplexing)을 이용하여 상이한 주파수 범위를 상이한 채널에 할당함으로써 달성된다. 광대역 케이블 통신 시스템은 CATV 시스템과 같이 정확하게 동작할 수 있다. 이 FDM 기술에 대비되는 것은 주파수 대역으로 분할되는 것이 아니라, TDM(time-division multiplexing)을 이용하여 타임 슬롯으로 분할되는 케이블 분할이다. TDM을 이용하여, 각각의 전송 비디오국은 매우 짧은 주기의 시간 동안에 케이블의 전체 대역폭을 가질 수 있다. 케이블은 현재 750MHz까지 전달할 수 있다. FDM 기술은 채널을 많은 전용 논리적 채널로 분리하는데 사용될 수 있다. 신기술이 FDM 채널 내에서 TDMA(time division multiple access)를 가능하게 하고 있다.
케이블 시스템은 케이블을 통해 데이터 채널을 수립하기 위해 2개의 분리된 차원에 대해 다중화하도록 할 수 있다. 그 채널들은 FDM에 의해 분리될 수 있고, 그 후에, 주파수 대역에서 그 채널은 다수의 사용자들 간에 TDMA를 통해 공유될 수 있다. 광대역 케이블에서 가장 일반적인 TDMA 액세스 방법은 이더넷을 위해 XEROX에 의해 개발된 CSMA/CD이다.
단일 케이블을 이용하여, 중간분할 배열(midsplit arrangement)은 2-방향 동시 전송을 제공할 수 있다. 이것을 제공하기 위한 다른 방식은 이중 케이블 시스템을 사용하는 것이다. 본질적으로 아날로그 시그널링 방법이다. 예로, 비디오 카메라도 아날로그 장치이기 때문에, 비디오 카메라(또는 비디오 리코더)로부터의 신호는 RGB(red/green/blue) 포맷으로 광대역 케이블 채널상에 직접 전송될 수 있다.
G. 음성/데이터/비디오 네트워크의 집중( Convergence )
인터넷과 같은 패킷-교환 데이터 네트워크의 고유의 효율성을 인식하여, 최근에는, 집중된 패킷-교환 데이터 네트워크를 통한 음성, 데이터, 비디오 및 그밖의 정보의 전송 및 디지털화에 대해 주의가 집중되고 있다. 높은 QoS의 최종사용자 익스피리언스를 전달하기 위해, 데이터 네트워크는, 수락가능한 최종사용자 익스피리언스를 제공하기 위해, 알맞은 시간에 적합한 대역폭으로 상이한 타입의 정보를 전달하기 위한 메커니즘을 제공하고자 한다.
도2c는 데이터 네트워크를 통해 음성, 데이터 및 비디오 트래픽을 운반하는 예시적인 네트워크(286)가 도시되어 있다. 네트워크(286)는 EO(104b)에 연결된 호출측(102b)을 포함하고, 여기서, EO(104b)는 텔레포니 게이트웨이(288b)에 링크되어 있다. 네트워크(286)는 또한 EO(108c)에 연결된 피호출측(110c)을 포함하고, 여기서, EO(108c)는 텔레포니 게이트웨이(288c)에 링크되어 있다. EO(104b, 108c)와 텔레포니 게이트웨이(288b, 288c)는 시그널링 네트워크(114)에 링크될 수 있다. 텔레포니 게이트웨이(288b, 288c)는 또한 각각 라우터(140b, 140c)를 통해 데이터 네트워크(142)에 연결될 수 있다.
도2c를 계속 참조하면, 텔레포니 게이트웨이(288b, 288c)는 음성 트래픽 및 시그널링 정보를 데이터 네트워크(142)를 통해 전송하는데 적합한 형식으로 패킷화하는데 사용될 수 있다. 이 기술분야의 통상의 지식을 가진 자에게는, 텔레포니 게이트웨이(288b, 288c)는 호를 제어, 설정 및 해제하도록 설계된 여러가지 컴퓨터 장치를 포함할 수 있다는 것이 이해될 것이다. 데이터 네트워크를 통해 전달된 음성 호는, 예로, VoP(voice over packet), VoD(voice over data), VoIP(voice over internet protocol), VoATM(voice over asynchronous transfer mode), VoF(voice over frame)을 포함할 수 있다. 텔레포니 게이트웨이(288b, 288c)의 일례는, 예로, New Jersey, Parsippany의 Lucent, 및 Palo Alto의 CISCO와 같은 많은 벤더로부터 구입할 수 있는, MGCP(media gateway control protocol)을 따르는 게이트웨이이다. Colorado, Louisville의 Level 3 Communications를 포함한, SoftSwitch Consortium의 몇몇 회원 회사로부터 구입할 수 있는 소프트스위치와 같은, 그 밖의 네트워크 장치 또한, 예로, VoIP의 전송을 인에이블하는데 필요할 수 있다는 것을 주목하여야 한다.
네트워크(286)는 데이터 네트워크(142)에 연결된 다른 장치를 포함하도록 도시되었다. 먼저, H.323을 따르는 화상-회의 시스템(289)은 카메라(154g), 텔레비전(152g) 및 라우터(140g)를 포함하는 것으로 도시되어 있다. 두번째로, 클라이언트 워크스테이션(138a)와 서버(136a)를 포함하는 LAN(128a)은 네트워크 라우터(140a)를 통해 데이터 네트워크(142)에 연결되어 있다. 마찬가지로, 클라이언트 워크스테이션(138f)와 서버(136f)를 포함하는 LAN(128f)은 네트워크 라우터(140f)를 통해 데이터 네트워크(142)에 연결되어 있다.
데이터 네트워크(142)는 네트워크 라우팅 장치를 통해 소스 위치로부터 데이터 네트워크(142)에 연결된 목적지 위치로 정보 패킷의 라우팅을 제공할 수 있다. 예를 들면, 데이터 네트워크(142)는 텔레포니 게이트웨이(288b)로부터 텔레포니 게이트웨이(288c)로 음성 및 데이터 트래픽을 전송하기 위해 IP 패킷을 라우팅할 수 있다. 데이터 네트워크(142)는 모든 기술-인식(art-recognized) 패킷 중심 데이터 네트워크를 나타낸다. 하나의 주지된 데이터 네트워크로 글로벌 인터넷이 있다. 다른 예로는 사설 인트라넷, 패킷-교환 네트워크, 프레임 릴레이 네트워크, ATM 회선-중심 네트워크를 포함할 수 있다.
예시적인 실시예에서, 데이터 네트워크(142)는 IP 패킷-교환 네트워크가 될 수 있다. IP 네트워크와 같은 패킷-교환 네트워크는, 회선-교환 네트워크와는 달리, 패킷 교환 네트워크 내의 시작 위치와 종료 위치 사이에 전용 회선을 필요로 하지 않는다. 대신에, 패킷-교환 네트워크는 메시지를 정보 패킷으로 알려진 조각으로 분할한다. 그리고 나서, 이러한 패킷들은 패킷이 라우팅되어야 하는 목적지 어드레스를 지시하는 헤더와 함께 캡슐화될 수 있다. 그 후, 패킷-교환 네트워크는 패킷을 취하여, 패킷의 헤더에 포함된 목적지 어드레스에 의해 지시된 목적지로 라우팅한다.
라우터(140a, 140b, 140c, 140d, 140e, 140f, 140g)는, 예를 들면, 광섬유 링크 접속 및 구리선 접속과 같은, 물리적인 매체를 통해 서로 접속될 수 있다. 라우터(140a-g)는 상호간에 정보를 전송하고, 라우팅 프로토콜에 따라 서로 통신한다.
데이터 네트워크(142)는, 예로, IP 네트워크, ATM 가상 회선-중심 네트워크, 프레임 릴레이 네트워크, X.25 네트워크, 및 다른 종류의 LAN 및 WAN과 같은 데이터 네트워크를 이용하여 구현될 수 있다. 그 밖의 데이터 네트워크가, 예를 들면, FDDI, Fast Ethernet, 또는 SMDS 패킷 교환 네트워크와 같은 데이터 네트워크에 대해 상호 교환가능하게 사용될 수 있다. 프레임 릴레이 및 ATM은 접속-지향, 회선-중심 서비스이다. SMDS(switched multi-megabyte data service)는 45Mbps까지의 속도를 제공하는 접속-지향 대용량 패킷 서비스이다.
1. 예시적인 데이터 네트워크
a. ATM( Asynchronous Transfer Mode )
ATM은 고-대역폭(high-bandwidth)이고 저-지연(low-delay)인 고정-사이즈의 셀-기반 다중화 네트워크 기술이다. 대역폭 용량은 헤더와 페이로드 필드를 가진 53-바이트 셀로 분할된다. ATM은, 고정 길이 셀이 가변 사이즈 패킷보다 하드웨어에서 보다 쉽게 스위칭될 수 있어서, 임의의 환경에서 보다 빠른 전송을 가져올 수 있다는 생각으로 고정-길이 셀을 사용한다.
ATM 환경은 회선-중심 방식으로 가상 회선을 설정한다. 따라서, ATM은 SAR(segmentation and resequencing algorithm)을 이용하여 가변 길이의 IP 패킷 플로우를 고정 사이즈 셀로 분할한다.
각 ATM 셀은, 소위 셀의 "가상 회선"을 식별하는 5-바이트의 헤더 및 48-바이트의 페이로드 필드를 포함한다. ATM은 음성, 데이터 및 비디오 서비스의 고속 조합에 적합한 것으로 여겨진다. 현재, ATM 액세스는 622Mbps 또는 그 이상으로 빠른 속도로 수행될 수 있다. 최근, ATM은 매 해마다 최대 속도를 두배로 늘리고 있다.
ATM은 ITU-T(International Telecommunications union), ANSI(American National Standards Institute), ETSI 및 ATM Forum에 의해 표준화된 프로토콜로 정의된다. ATM은 전송 경로, 가상 경로 및 가상 채널을 포함하는 많은 구성 블록을 포함한다. ATM은 광범위한 통신 서비스를 위한 범용의 접속-지향 전송 모드로 설계된 셀 기반 스위칭 및 다중화 기술이다. ATM은 또한 ATM Forum에 의해 특징화된 바와 같이 사설 네트워크 기술 및 LAN에 사용될 수도 있다.
ATM은 직접 또는 적응층을 통한 접속-지향 트래픽, 또는 적응층 사용을 통한 접속없는 트래픽 모두를 제어한다. ATM 가상 접속은 CBR(constant bit rate) 또는 VBR(variable bit rate) 중 하나로 동작할 수 있다. ATM 네트워크로 전송된 각 ATM 셀은 출발지로부터 목적지까지 가상 회선-중심 접속을 수립하는 정보를 포함하는 작은 헤더를 포함한다. 모든 셀들은 이 가상 접속을 통해 순서적으로 전송된다. ATM은 PVC(permanent virtual connections) 또는 SVC(switched virtual connection) 중 하나를 제공한다. 전송 셀이, 데이터의 타임 슬롯이 STM(synchronous transfer mode)로 있도록 요구되는 것과 같이, 주기적일 필요가 없기 때문에, ATM은 비동기적이다.
ATM은 헤더 필드가 각각 고정-길이 페이로드를 덧붙이는 방법을 사용한다. ATM 헤더는 VC(virtual channel)를 식별한다. 따라서, 전송 준비된 데이터를 가진 호스트에 대해 타임 슬롯이 이용가능하다. 전송 준비된 호스트가 없는 경우, 빈(empty) 또는 유휴(idle) 셀이 전송된다.
ATM은 다중화 및 스위칭 방법을 정의하는 하나의 네트워크 아키텍처에 대해 표준화를 가능하게 한다. SONET(synchronous optical network)은 매우 고속의 비율로 물리적인 전송을 위한 기초를 제공한다. ATM은 또한, 지연 및 손실 성능에 따라, 상이한 타입의 트래픽에 대해 분리된 가상 회선을 제공함으로써, 애플리케이션 요건을 달리하는 다수의 QoS 클래스를 지원할 수 있다. ATM은 또한 이용가능한 대역폭에 대한 LAN과 같은 액세스를 지원할 수 있다.
셀들은, North American DS!, DS3 및 SONET, European, E1, E3 및 E4, ITU-T STM 표준, 및 여러가지 로컬 섬유 및 전기적인 전송 페이로드와 같은, 물리적인 전송 경로로 매핑된다. 모든 정보는 이들 고정-길이 셀을 통해 ATM 네트워크에서 다 중화 및 스위칭된다.
ATM 셀 헤더 필드는 셀 타입 및 우선순위를 식별하고, 6개 부분을 포함한다. ATM 셀 헤더는 GFC(generic flow control), VPI(virtual path identifier), VCI(virtual channel identifier), PT(payload type), CLP(call loss priority), HEC(header error check)를 포함한다. VPI와 VCI는 단지 지역적인 의미를 가지며, 목적지를 식별한다. GFC는 멀티플렉서가 ATM 단말의 속도를 제어하도록 한다. PT는 셀이 사용자 데이터, 시그널링 데이터 또는 유지 정보를 포함하는 지를 나타낸다. CLP는 셀의 상대적인 우선순위를 나타낸다. 즉, 혼잡 구간 동안에, 낮은 우선순위 셀은 높은 우선순위 셀 전에 폐기된다. HEC는 헤더내의 에러를 검출 및 정정한다.
ATM 셀 페이로드 필드는 에러 체크 또는 정정없이 그대로 네트워크를 통해 전달된다. ATM은, 페이로드에 대한 에러 체크 및 정정의 수행을 위해 보다 상위층 프로토콜에 의존한다. 예를 들면, TCP가 에러 정정 기능을 수행하는데 사용될 수 있다. 고정된 셀 사이즈는 ATM 스위치 및 멀티플렉서의 구현을 용이하게 하고, 고속으로 구현되도록 한다.
ATM을 사용할 때에, 긴 패킷은 많은 고정 길이 셀로 분리되기 때문에, 다른 패킷-교환 네트워크처럼 보다 긴 패킷이 보다 짧은 패킷을 지연시킬 수 없다. 이 특성은 ATM이, 음성 및 비디오와 같은 CBR 트래픽을, 동일한 네트워크 내에서, 매우 긴 패킷을 가질 수 있는, VBR 데이터 트래픽과 함께 운반하도록 한다.
ATM 스위치는 트래픽을 취하여, 이것은 고정-길이 셀로 분할하고, 그 셀을 물리적 매체를 통해 전송하기 위해 단일 비트 스트림으로 다중화한다. 일예로서, 음성, 비디오 및 데이터 트래픽을 포함하는, 상이한 종류의 트래픽이 ATM 네트워크를 통해 전송될 수 있다. 비디오 및 음성 트래픽은 매우 시간에 민감하기 대문에, 지연시간은 큰 변화를 가질 수 없다. 한편, 데이터는 접속-지향 또는 접속리스(connectionless) 모드로 전송될 수 있다. 두 경우에, 데이터는 음성 또는 비디오 트래픽과 지연시간에 민감하지 않다. 예로, 스프레드시트 데이터와 같은 데이터 트래픽은 정확한 전송을 요구한다. 따라서, ATM은 통상적으로, 음성, 비디오 및 데이터 트래픽 사이를 구별하여야 한다. 음성과 비디오 트래픽은 제한된 지연시간을 갖는 우선순위 및 보증된 전달을 요구한다. 집중된 데이터 네트워크에서, 데이터 트래픽은 음성 트래픽을 운반할 수 있으므로, 이것을 역시 시간-종속으로 만든다. 일실시예에서, ATM을 이용하여, 여러 타입의 트래픽은, 분리된 데이터, 음성 및 비디오 트래픽에 할당되는 VC(virtual circuits)를 이용하여, 단일 ATM VP(virtual path)를 통해 조합된다.
전송 경로는 하나 또는 그 이상의 VP를 포함할 수 있다. 각 VP는 하나 또는 그 이상의 VC를 포함할 수 있다. 따라서, 다수의 VC가 하나의 VP를 통해 트렁크될 수 있다. 스위칭은 전송 경로 VP 또는 VC 레벨에서 수행될 수 있다.
가상 채널 레벨로 스위칭하는 ATM의 능력은 전화통신 분야에서의 전화 스위치 또는 PBX의 동작과 유사하다. PBX 스위치에서, 트렁크 그룹에서 각 채널이 스위칭될 수 있다. VC 접속을 수행하는 장치는, 전화 스위치와 유사하기 때문에, 일반적으로 VC 스위치라고 부른다. VP를 접속시키는 ATM 장치는, 전송 네트워크와의 유사성에 의해, VP 크로스-커넥트(cross-connects)라고 언급된다. 이 유사성은 설명 을 위해 의도된 것이지만 문자 그대로 받아들여지면 안된다. ATM 셀-스위칭 머신은 VC만을 스위칭하고, VP만을 크로스-접속하도록 제한될 필요는 없다.
ATM층에서, 사용자는 VPC(virtual path connection) 또는 VCC(virtual channel connection) 중 하나의 선택이 제공된다. VPC는 VPI(virtual path identifier)값에 기반하여 스위칭된다. VPC의 사용자는, 그들이 동일한 루트를 따르기 때문에, VPI 내에 VCC를 간단하게 할당할 수 있다. VCC는 조합된 VPI와 VCI(virtual channel identifier)값에 따라 스위칭된다.
VPI와 VCI는 모두 네트워크를 통해 호를 라우팅하는데 사용된다. VPI와 VCI값은 특정한 TP(transmission path)에 대해 유일해야 한다.
데이터 네트워크(142)는, ATM 네트워크에 추가로, 많은 패킷-교환 데이터-타입 네트워크를 포함하는, 많은 다른 데이터-타입 네트워크 중의 하나일 수 있다.
b. 프레임 릴레이( Frame Relay )
대안적으로, 데이터 네트워크(142)는 프레임 릴레이 네트워크일 수 있다. 이 기술분야의 통상의 지식을 가진 자에게는, 프레임 릴레이 네트워크가 데이터 네트워크(142)로 사용될 수 있다는 것이 명백할 것이다. ATM 셀로 데이터를 전송하는 대신에, 데이터를 프레임으로 전송할 수 있다.
프레임 릴레이는 먼 위치 사이의 LAN-to-LAN 접속을 위해 대중화되고 있는 WAN에서 사용되는 패킷-교환 프로토콜이다. 이전에 프레임 릴레이 액세스는 약 1.5 Mbps에 달했었다. 오늘날, 소위 "고속" 프레임 릴레이는 약 45 Mbps를 제공한다. 이 속도는 여전히 ATM과 같은 다른 기술에 비해 상대적으로 느린 것이다.
프레임 릴레이 서비스는 간소화된 버전의 X.25 네트워크와 유사한 패킷-교환 형식을 적용한다. 패킷들은 길이가 변할 수 있는 프레임 형식이다. 이 방법의 중요한 장점은, 프레임 릴레이 네트워크가 실제적으로 데이터 프로토콜에 관련된 여러 사이즈의 데이터 패킷을 제공할 수 있다는 것이다. 프레임 네트워크는 완전히 프로토콜에 독립적이다. 데이터 네트워크(142)의 프레임 릴레이 네트워크 실시예는 긴 프로토콜 변환 과정을 수행하지 않으므로, 일부 대안적인 네트워크보다 빠르고 덜 비싼 스위칭을 제공하게 된다. 프레임 릴레이는 또한, 오늘날 이용가능한 신뢰할 수 있는 회선으로 설계되었기 때문에, 전형적인 X.25 네트워크보다 빠르고, 덜-엄밀한 에러 검출을 수행한다.
c. IP( Internet Protocol )
일실시예에서, 데이터 네트워크(142)는 ATM 네트워크를 통한 IP 네트워크일 수 있다. 이 기술분야의 통상의 지식을 가진 자에게는, 예로, 이더넷과 같은 다른 데이터 링크층을 통한 IP 네트워크가 데이터 네트워크(142)로 사용될 수 있다는 것이 명백할 것이다. 데이터를 고정 길이 ATM 회선-중심 셀로 전송하는 대신에, TCP에 의해 분할되는 가변 길이 IP 데이터그램 패킷-중심 패킷으로 데이터가 전송될 수 있다. IP 데이터 네트워크는, 예를 들면, SONET 광학 네트워크와 같은, 다수의 물리적인 네트워크 중 하나 위에 놓일 수 있다.
2. VPN( Virtual Private Networks )
VPN은, 사용될 때에는 전용 라인으로 보이지만, 실제로는 공중 네트워크에서처럼 모든 사용자 간에 공유되는 트렁크를 포함하는, 라인을 제공하는 통신 캐리어에 의해 동작되는 광역 통신 네트워크이다. VPN이 와이어라인 네트워크를 통한 서비스로 제공될 수 있는 것과 같이, VPN은 와이어리스 네트워크에 제공될 수 있다. VPN은 공중 네트워크 내에 사설 네트워크가 구성되도록 할 수 있다.
VPN은, 고객에게 WAN에 대한 안전하고 보장된 장-거리 대역폭을 제공하기 위해, 통신 캐리어에 의해 제공될 수 있다. VPN은 일반적으로 프레임 릴레이 또는 SMDS(switched multi-megabyte date service)를 선택 프로토콜로 사용하는데, 이것은 이 프로토콜들이 물리적인 위치에 상관없이 네트워크상에서 논리적으로 사용자 그룹을 정의하기 때문이다. ATM은, 보다 복잡한 애플리케이션을 제어하기 위해, 회사가 보다 높은 신뢰도와 보다 큰 대역폭을 필요로 하는 것과 같은, VPN 프로토콜로서 이점을 가진다. ATM을 사용하는 VPN은 전용 회선으로 설계되는 WAN과 같은 QoS와 동일한 가상 안정성을 가진 회사의 네트워크를 제공한다.
인터넷은, 훨씬 적은 비용으로, VPN에 대해 대안예, 즉, VPI(virtual private Internet)을 생성하고 있다. VPI는 회사가 인터넷을 통해 다른 LAN에 접속하도록 한다. 사용자는 VPN-스타일 네트워크 인증 및 암호화(encryption) 능력을 가진, 공유되고 안전한 인트라넷을 생성하는, 소프트웨어만의 또는 하드웨어-소프트웨어 조합을 설치한다. VPI는 대개 브라우저-기반 관리 인터페이스를 사용한다.
3. H.323 화상 회의
화상 회의에 대한 H.323 권고가 이제 간단히 설명될 것이다. H.323 표준은, 예를 들면, 인터넷을 포함하는, IP-기반 네트워크를 통한 오디오, 비디오 및 데이터 통신에 대한 기초를 제공한다. H.323 권고에 따라, 다수의 벤더로부터의 멀티미디어 제품 및 애플리케이션들이 상호동작하여, 사용자들이 호환성에 대한 걱정없이 통신할 수 있도록 한다. H.323은 미래의 LAN-기반 제품 멀티미디어 애플리케이션의 기초가 될 것이다.
H.323은 보장된 QoS를 제공하지 못하는, LAN을 통한 멀티미디어 통신에 대한 표준을 설정하는 ITU(International Telecommunications Union)로부터의 포괄적인 권고안이다. 이 네트워크들은 오늘날의 기업 데스크톱을 지배하고, 이더넷(Ethernet), 패스트 이더넷(Fast Ethernet) 및 토큰링(Token Ring) 네트워크 기술을 통한 패킷-교환 TCP/IP 및 IPX를 포함한다. 따라서, H.323 표준은 새롭고 광범위한 공동의, 멀티미디어 통신을 위한 LAN-기반 애플리케이션에 대한 중요한 구성 블록이다.
H.323 스펙은 ITU's Study Group 16에 의해 1996년에 승인되었다. 버전2가 1998년 1월에 승인되었다. 그 표준은 범위가 넓고, 단독형 장치 및 내장형 퍼스널 컴퓨터 기술 뿐만 아니라 두지점간(point-to-point) 및 다지점간(point-to-multipoint) 컨퍼런스를 모두 포함한다. H.323은 또한 호 제어, 멀티미디어 관리 및 대역폭 관리 뿐만 아니라 LAN과 다른 네트워크 간의 인터페이스를 수행한다.
H.323은 네트워크 범위를 가로질러 화상회의를 가능하게 하는 일련의 통신 표준의 일부분이다. H.32X로 알려진 이 시리즈는 H.320 및 H.324를 포함하는데, 이것은 각각 ISDN 및 PSTN 통신을 수행한다.
H.323 아키텍처는, 터미널, 게이트웨이, 게이트키퍼 및 MCU(multipoint control units)를 포함하는, 네트워크-기반 통신을 위한 4가지 주요 구성요소를 정의한다.
터미널은 실시간의 2방향 통신을 제공하는 LAN 상의 클라이언트 종단점(endpoint)이다. 모든 터미널들은 음성 통신을 지원한다. 여기서 음성과 데이터는 선택적이다. H.323은 상이한 오디오, 비디오, 및/또는 함께 작동하는 데이터 터미널에 필요한 동작 모드를 특정한다. H.323은 차세대 인터넷폰, 오디오 회의 터미널 및 화상 회의 기술의 표준이다.
모든 H.323 터미널은 H.245를 지원하는데, 이것은 채널 사용 및 능력을 협의하는데 사용된다. 3개의 다른 구성요소, 즉, 호 시그널링 및 호 설정을 위한 Q.931, 게이트키퍼와 통신하는데 사용되는 프로토콜인, RAS(Registration/Admission/Status) 호출 구성요소, 및 오디오 및 비디오 패킷을 배열하기 위한 RTP/RTCP에 대한 지원을 필요로 한다.
H.323 터미널에서의 선택적인 구성요소는 비디오 코덱(codec), T.120 데이터 회의 프로토콜 및 MCU 성능이다.
게이트웨이는 H.323 컨퍼런스에서 선택적인 요소이다. H.323 게이트웨이는 많은 서비스를 제공하는데, 가장 일반적으로 H.323 회의 종단점과 다른 터미널 타입 사이에서의 변환 기능이다. 이 기능은 전송 포맷들(즉, H.225.0 내지 H.221) 사 이, 및 통신 절차들(즉, H.245 내지 H.242) 사이의 변환을 포함한다. 또한, 게이트웨이는 오디오와 비디오 코덱 사이에 변환을 수행하고, LAN측 및 스위칭-회선 네트워크측 모두에 대한 호 설정 및 해제를 수행한다.
일반적으로, H.323 게이트웨이의 목적은 LAN 종단점의 특성을 SCN 종단점에 반영하거나 또는 그 역으로 반영하는 것이다. 게이트웨이의 주요 애플리케이션은 아날로그 PSTN 터미널로 링크를 수립하고, ISDN-기반 스위칭-회선 네트워크를 통한 원격 H.320-순응 터미널로 링크를 수립하고, PSTN 네트워크를 통한 원격 H.324-순응 터미널로 링크를 수립하는 것일 수 있다.
다른 네트워크에 대한 접속이 요구되지 않는 경우, 게이트웨이가 필요하지 않는데, 이것은 종단점이 동일한 LAN 상의 다른 종단점과 직접 통신하기 때문이다. 터미널은 H.245 및 Q.931 프로토콜을 이용하여 게이트웨이와 통신한다.
적합한 트랜스코더(transcoders)를 이용하여, H.323 게이트웨이 5806는 H.310, H.321, H.322 및 V.70을 따르는 터미널을 지원할 수 있다.
많은 게이트웨이 기능들은 설계자에게 맡겨진다. 예를 들면, 게이트웨이를 통해 통신할 수 있는 H.323 터미널의 실제 수는 표준화되어 있지 않다. 마찬가지로, SCN 접속의 수, 동시에 지원되는 독립적인 회의의 수, 오디오/비디오/데이터 변환 기능, 및 다지점 기능의 포함 등은 제조자에게 맡겨진다. H.323 게이트웨이 기술을 H.323 스펙에 포함시킴으로써, ITU는 H.323을 표준-기반 회의 종단점을 함께 유지하기 위한 수단으로 정하고 있다.
게이트키퍼는 H.323 인에이블 네트워크의 가장 중요한 구성요소이다. 이것은 그 구역 내의 모든 호에 대해 중심점으로 동작하고, 등록된 종단점으로 호 제어 서비스를 제공한다. 많은 방식에서, H.323 게이트키퍼는 가상 스위치로 동작한다.
게이트키퍼는 2가지 중요한 호 제어 기능을 수행한다. 첫번째는 RAS 스펙에 정의된 바와 같이, LAN으로부터 일명 터미널 및 게이트웨이에 대한 IP 또는 IPX로의 변환을 수행하는 것이다. 두번째 기능은 대역폭 관리인데, 이것 역시 RAS에 지시되어 있다. 예를 들면, 네트워크 관리자가 LAN 상의 동시 회의 수에 대한 임계값을 특정한 경우, 그 임계값에 도달하면 게이트키퍼는 그 이상의 접속을 거부할 수 있다. 이 효과는 전체 회의 대역폭을 전체 이용가능한 것의 일부 비율로 제한하는 것이다. 그 나머지 용량은 이메일, 파일 전송 및 다른 LAN 프로토콜을 위해 남겨둔다. 단일 게이트키퍼에 의해 관리될 수 있는 모든 터미널, 게이트웨이 및 MCU의 모음이 H.323 구역(Zone)으로 알려져 있다.
게이트키퍼의 선택적이지만 가변적 특징은 H.323 호를 라우팅하는 기능이다. 게이트키퍼를 통해 호를 라우팅함으로써, 보다 효과적으로 제어될 수 있다. 서비스 제공자는 그들의 네트워크를 통한 호에 대해 과금하기 위해 이 기능을 필요로 한다. 피호출측 종단점이 이용 불가한 경우, 이 서비스는 다른 종단점으로 호를 재-라우팅하는데 사용될 수도 있다. 또한, H.323 호를 라우팅할 수 있는 게이트키퍼는 다수의 게이트웨이 사이의 밸런싱(balancing)에 관한 결정을 도울 수 있다. 예를 들면, 호가 게이트키퍼를 통해 라우팅되는 경우, 그 게이트키퍼는 라우팅 로직에 기반하여 많은 게이트웨이 중의 하나에 그 호를 재-라우팅할 수 있다.
게이트키퍼는 H.323 종단점으로부터 논리적으로 분리되지만, 벤더는 게이트 키퍼의 기능을 게이트웨이 및 MCU의 물리적인 구현에 포함시킬 수 있다.
게이트키퍼는 H.323 시스템에서 요구되지 않는다. 그러나, 게이트키퍼가 존재하는 경우, 터미널은 게이트키퍼에 의해 제공된 서비스를 이용하여야 한다. RAS는 어드레스 변환, 승인 제어, 대역폭 제어 및 구역 관리로 이들을 정의한다.
게이트키퍼는 또한 다지점 접속에서 역할을 수행할 수 있다. 다지점 회의를 지원하기 위해, 사용자들은, 두지점간 회의에서, 두 터미널로부터 H.245 제어 채널을 수신하기 위해 게이트키퍼를 사용할 수 있다. 그 회의가 다지점으로 스위칭될 때에, 게이트키퍼는 H.245 제어 채널을 MC(multipoint controller)로 재지시할 수 있다. 게이트키퍼는 H.245 시그널링을 처리할 필요가 없고, 단지 터미널들 사이 또는 터미널과 MC 사이에 이것을 전달하면 된다.
게이트웨이를 포함한 LAN은 인입되는 E.164 어드레스를 전송 어드레스(Transport Addresses)로 변환하기 위해 게이트키퍼를 포함할 수 있다. 구역(Zone)은 그것의 게이트키퍼에 의해 정의되기 때문에, 내부 게이트키퍼를 포함하는 H.323 엔티티들은 내부 기능을 디스에이블하는 메커니즘을 필요로 하여, LAN 상에 게이트키퍼를 포함하는 다수의 H.323 엔티티가 존재할 때에, 그 엔티티들이 동일한 구역에 구성될 수 있게 한다.
MCU는 3개 또는 그 이상의 종단점 사이의 회의를 지원한다. H.323하에서, MCU는 필요한 MC 및 0 또는 그 이상의 MP(Multipoint Processors)로 구성된다. MC는 오디오 및 비디오 처리를 위한 공통 능력을 판단하기 위해, 모든 터미널들 사이에 H.245 협의를 조정한다. MC는 또한 오디오 및 비디오 스트림 중 어느 것이 멀티 캐스트되는지를 판단함으로써 회의 자원을 제어할 수 있다.
MC는 매체 스트림을 직접 취급하지 않는다. 이것은 오디오, 비디오, 및/또는 데이터 비트를 혼합, 스위칭 및 처리하는 MP에 맡겨진다. MC 및 MP 성능은 전용 구성요소로 존재하거나 또는 다른 H.323 구성요소의 일부일 수 있다.
본 발명은 RFC 1112, 1584와의 호환성, 멀티미디어, 원격회의, 데이터베이스, 분산 컴퓨팅, 실시간 작업그룹을 포함하는, 멀티캐스팅 애플리케이션의 인식 및 지원, 대역폭 유지, QoS 대기 성능 유지, IPv6 IGMP 및 IPv4 IGMP 멀티캐스트의 지원, 그룹 멤버십 질의, 그룹 멤버십 리포트 메시지 제공을 포함하는, 와이어리스 기지국(302)에 대한 멀티캐스트를 지원한다.
1998년 1월에 승인된 H.323 표준의 버전2는 버전1의 결함을 보완하여, Q.931, H.245, H.225 와 같은, 현재의 프로토콜과 전체적으로 새로운 프로토콜에 새로운 기능을 도입하고 있다. 가장 중요한 발전은 안전하고 빠른 호 설정, 보조 서비스 및 T.120/H.323 통합이다.
H. 패킷-중심 QoS -인식 와이어리스 PtMP 통신 시스템
1. 와이어리스 PtMP 통신 시스템
도2d는 라우터(140d)를 통해 데이터 네트워크(142)에 연결된 PtMP 와이어리스 네트워크(298)를 포함하는 네트워크(296)를 도시하고 있다. 네트워크(296)는 도2c의 네트워크(286)에 와이어리스 네트워크(298)를 더한 것을 포함한다는 것을 주목해야 한다. PtMP 와이어리스 네트워크(298)는 가입자 위치에서 CPE(customer premise equipment)가 공유 대역폭을 통한 와이어리스 접속을 이용하여 데이터 네트워크(142)에 연결된 여러가지 음성, 데이터 및 비디오 자원에 액세스할 수 있게 한다. 와이어리스 PtMP 네트워크(298)는 TCP/IP 패킷-중심(즉, 통신 IP 플로우를 전달할 때에 전용 회선이 생성되지 않는) 및 QoS-인식 패킷 교환 네트워크이다.
특히, PtMP 와이어리스 네트워크(298)는, 예로, 와이어라인 접속에 의해 라우터(140d)에 연결된 WAP(wireless access point)(290d)를 포함한다. WAP(190e)는 마찬가지로 와이어라인 접속에 의해 라우터(140e)에 연결될 수 있다. WAP(290d)는 하나 또는 그 이상의 와이어리스 송수신기 가입자 안테나(292d, 292e)를 가진, 예로, RF 통신과 같은 와이어리스 통신이다. 이 기술분야의 통상의 지식을 가진 자는, 예로, 마이크로파, 셀룰러, 확산 스펙트럼, PCS(personal communications systems) 및 위성과 같은, 여러가지 와이어리스 통신 방법이 사용될 수 있다는 것을 이해할 것이다.
대안의 실시예에서, RF 통신은 CATV의 동축 케이블을 통해 수립된다. 관련된 기술 분야의 통상의 지식을 가진 자가 이해하는 바와 같이, 동축 케이블은 RF파가 전파되는 도파관(waveguide)으로 동작한다. 따라서, RF 송수신기 가입자 안테나(292d)와 WAP(290d) 사이의 통신 링크는 동축 케이블이 될 수 있다. 따라서, 동축 케이블 접속은 와이어리스 접속과 유사하며, 본 발명에서 와이어리스 접속의 대안적인 형식으로 언급된다.
다른 대안적인 실시예에서, RF 통신은, 예로, 저-고도 궤도(LEO : low earth orbit) 위성 접속 또는 고-고도 궤도 위성과 같은, 위성 접속을 통해 수립된다. LEO 위성 접속의 예를 이용하여, WAP(290d) 송수신기 가입자 안테나(292d)는, 본 발명에 기재된 부가적인 기능을 가진, 위성 게이트웨이로 동작한다.
이 기술분야의 통상의 지식을 가진 자에게는 명백한 바와 같이, 본 발명은 PtMP 네트워크에 대해 기재되었지만. 본 발명은 두지점간(point-to-point) 네트워크 환경에도 동일하게 적용될 수 있다.
도3a를 참조하면, 본 발명의 일실시예에서, WAP(290d, 290e)은 와이어리스 기지국(302)에 연결되는데, 다음의 도면을 참조하여 아래에 보다 상세히 기재되는 바와 같이, 여기서, "IP 플로우" 트래픽은 큐잉, 분석, 특징화, 분류, 우선순위화 및 스케줄될 수 있다.
도3b를 참조하면, 본 발명의 일실시예에서, 안테나(292d, 292e)는 가입자 CPE 스테이션(294d, 294e)에 각각 연결된다(또한 CPE(294d, 294e)로 언급됨). 가입자 CPE 스테이션(294d, 294e)은 와이어라인 또는 와이어리스 접속을 통해 여러 다른 CPE 장치에 연결된다. 예를 들면, CPE 스테이션(290d, 290e)은 음성 호출측(124d, 124e, 126d, 126e), 팩스 머신(116d, 116e), 모니터(152d, 152e)와 카메라(154d, 154e)를 포함하는 화상 회의 장비, 클라이언트 컴퓨터(120d, 120e)와 서버(122d, 122e)를 포함하는 호스트 컴퓨터에 연결될 수 있다. PBX와 같은 많은 기존의 장치들은 CPE(294d, 294c)에 연결될 수 있다. 또한, 캘리포니아 산호세 소재의 CISCO System사의 자회사인 Selsius사로부터 상용되는 이더넷폰 및 그밖의 인터넷 어플라이언스와 같은 차세대 기술은 LAN을 통해 CPE(294d, 294e)에 연결될 수 있다. 그 밖의 화상 회의 장비와 H.323 회의 장비 역시 CPE(294d, 294e)에 연결될 수 있다.
본 발명의 일실시예에서, 안테나(292d, 292e)는 교대 또는 백업 와이어리스 통신 경로에 대해 WAP(290d, 290e)과 통신할 수 있다.
도3a를 참조하여, 본 발명의 PtMP 네트워크의 예시적인 투시도(300)가 도시되어 있다. 도면(300)은 가입자 위치(306a, 306b, 306c, 306d, 306e, 306f, 306g, 306h, 306i, 306j)를 가진 와이어리스 통신에서 나타나는 와이어리스 기지국(302)을 포함한다. 특히, 와이어리스 기지국(302)은 와이어리스 액세스 포인트(290d)를 통해 가입자 위치(306a-j)의 가입자 안테나(292a-j)와 통신한다.
와이어리스 기지국(302)은, 예로, 와이어라인 접속에 의해 네트워크 라우터(140d)에 인터페이스(320)로 연결된다. 네트워크 라우터(140d)는, 예로, 텔레포니 게이트웨이(288d)와 같은 데이터 네트워크(142) 상의 다른 노드로 트래픽을 라우팅하기 위해 여러 다른 네트워크 라우터(140b)를 포함하는 데이터 네트워크(142)에 연결된다.
도3b를 참조하여, 본 발명의 와이어리스 PtMP를 자세히 도시한 블록도(310)가 도시되어 있다. 도면(310)은 인터페이스(320)에서 데이터 네트워크(142)에 연결된 와이어리스 기지국(302)을 포함한다. 데이터 네트워크(142)에 연결된 라우터(140d) 및 텔레포니 게이트웨이(288d)는 다음에 EO(104ㅇ)에서 클래스5 CO(central office) 스위치에 연결된다. 텔레포니 게이트웨이(288b)는, 예로, 패킷을 TDM 표준 전화 신호로 변환함으로써, PSTN 설비에 대한 전화 트래픽을 종료할 수 있다. 와이어리스 기지국(302)은 안테나 WAP(290d, 292d)를 통해 가입자 위 치(306d)에서 와이어리스 CPE(294d)와 통신하도록 되어 있다. 이 기술분야의 통상의 지식을 가진 자에게는, 예로, 전화 장치가 없는 하나 또는 그 이상의 호스트 컴퓨터, 호스트 컴퓨터가 없는 하나 또는 그 이상의 전화, 하나 또는 그 이상의 호스트 컴퓨터와 하나 또는 그 이상의 전화 장치, 및 모니터와 카메라를 구비한 호스트 컴퓨터를 포함하는 하나 또는 그 이상의 H.323 케이블 화상 회의 플랫폼과 같은, 다른 구성의 CPE(294d)가 가능하다는 것이 명백할 것이다.
CPE(294d)는, 예로, 아날로그 전화인 몇몇 전화 장치(124d, 126d), 및 클라이언트(120d)와 서버(122d)를 구비한 호스트 컴퓨터와 함께 나타난다. 클라이언트(120d)와 서버(122d)는, 예로, 이더넷 LAN과 같은 LAN 접속, 또는 고속 데이터 접속을 제공하는 기존의 V.35 장치(322d)를 통해 CPE(294d)에 연결될 수 있다. 다른 인터넷 어플라이언스가 CPE(294d)에 연결될 수 있는 데이터 네트워크에 연결될 수 있다.
2. 네트워킹 프로토콜 스택 아키텍처 - WINAAR( Wireless IP Network Access Architecture )
도4는 본 발명의 와이어리스 IP 네트워크 액세스 아키텍처(SINNAR)(400)를 도시하고 있다. 아키텍처(400)는 패킷 교환되고 공유된 대역폭의 와이어리스 PtMP 접속을 통한 IP-중심 QoS를 지원하도록 강화된 버전의 TCP/IP 프로토콜 스택인 네트워킹 프로토콜 스택을 나타낸다. 네트워킹 프로토콜 스택은, 물리 계층(OSI 계층1)(402), 데이터링크 계층(OSI 계층2)(404), 네트워크 계층(OSI 계층3)(406, 408), 트랜스포트 계층(OSI 계층4)(410) 및 애플리케이션 계층(OSI 계층7)(412)를 포함하는 OSI(Open System Interconnect) 7 계층 네트워킹 프로토콜 스택 표준의 관점으로 기재될 것이다.
a. 물리 계층
예시적인 실시예에서, 물리 계층(402)은 몇몇 wASIC(wireless application specific integrated circuits), 즉, 규격 16QAM/QPSK(416) ASIC, 유해한 간섭을 최소화하거나 제거하기 위한 IMMUNE(Interference Mitigation and Multipath Negation)/RF(418) 알고리즘 ASIC, 및 주어진 주파수의 노이즈 레벨에 따라 주파수 레벨을 변경함으로써 데이터 링크 무결성을 최적화하는 동적이고 적응형인 멀티-채널 전송을 제공하기 위한 주파수 호핑(FH)(419) ASIC을 이용하여 구현될 수 있다. 물리 계층(402)은 RF 신호(415)를 포함할 수 있다.
b. 데이터 링크 계층
데이터 링크 계층(404)은 물리 계층(402)의 위에 놓여 있다. 데이터 링크 계층(404)은 도면(400)에서 MAC 계층부(414a) 및 PRIMMA(proactive reservation-based intelligent multi-media access) 기술부(414b, 414c)로 도시된 MAC(media access control) 계층(414)을 포함할 수 있다. 화살표(426, 428, 430)는 각각, "IP 플로우"의 IP 패킷을 분석 및 스케줄하기 위해, MAC 계층(414)이 데이터 및 멀티미디어 애플리케이션(425), TCP/UDP(427) 및 IP(429) 계층으로부터 헤더 정보를 판독 할 수 있다는 것을 나타낸다. IP 플로우의 IP 패킷은 IP 플로우의 QoS 요건을 판단하기 위해, 헤더 정보를 분석함으로써 식별되어, IP 플로우가 특징화, 분류, 표현, 우선순위화 및 스케줄될 수 있다.
c. 네트워크 계층
1. IP( Internet Protocol )
네트워크 계층(408)은 인터넷 프로토콜(IP)(429)이다. 아래에 다시 논의되고, 데이터 네트워크(142)에 관해 이미 전술된 바와 같이, IP는 정보 패킷을 어드레싱하기 위한 표준 프로토콜이다. 도7을 참조하면, IP 헤더 필드(702)는, 예로, 소스 및 목적지 IP 어드레스, IP TOS(type of service), IP TTL(time to live) 및 프로토콜 필드를 포함할 수 있다. IP는 네트워크 장애에 대해 보다 탄력성있는 데이터그램 프로토콜이지만, 순서적인 전달을 보장하지는 않는다. 라우터는 ICMP(Internet control message protocol)을 이용하여 다른 라우터에 에러 및 제어 메시지를 전송한다. ICMP는 또한, 사용자가 IP-어드레스 호스트의 왕복 지연(round trip delay) 및 도달가능성(reachability)을 검증하기 위해 "핑(ping)"(에코 패킷)을 전송할 수 있는 기능을 제공할 수 있다. 또다른 OSI 계층3 프로토콜은 데이터 링크 계층에 직접 인터페이스할 수 있는 ARP(address resolution protocol)이다. ARP는, 예로, 이더넷 MAC 어드레스와 같은 물리적인 어드레스를 IP 어드레스로 매핑시킨다.
2. IPv4 IPv6
네트워크 계층(408)의 IP(429)는, 예로, IP version 4(IPv4) 또는 IPv6일 수 있다. IPv6(종종 차세대 인터넷 프로토콜 또는 IPng라고 부르는)는 현재의 인터넷 프로토콜 버전인 IPv4의 역방향-호환가능 확장된 버전이다. IPv6는 인터넷의 성공으로 초래된 문제점(어드레스 공간 및 라우터 테이블의 런 아웃(runing out)과 같은)을 해결하도록 설계된다. IPv6는 또한 배선 안정성(circuiting security), 자동-구성(auto-configuration) 및 QoS와 유사한 실시간 서비스를 포함하는, 특징들이 부가되어야 한다. 증가된 인터넷 사용과 많은 가용 IP 어드레스의 할당은 증가된 어드레싱 용량에 대한 긴급 요구를 생성하였다. IPv4는 어드레스를 생성하기 위해 32-바이트 수를 사용하는데, 이것은 약 40억개의 구별되는 네트워크 어드레스를 제공할 수 있다. 반면, IPv6은 어드레스에 대해 128-바이트를 사용하는데, 이것은 훨씬 거대한 수의 가용한 어드레스를 제공한다.
3. RSVP( Resource Reservation Protocol )
네트워크 계층(408)의 IP(429)는 RSVP 강화기술을 가질 수 있다. QoS 특징을 가진 강화된 IPv4로 발전되어 RSVP는 네트워크 관리자가 애플리케이션의 대역폭 요건에 기반하여 대역폭을 할당하도록 전제된다. 기본적으로, RSVP는, 데이터, 비디오 및 오디오 트래픽의 실시간 전송에 대한 대역폭을 예약하기 위해 라우터에 신호를 보내도록 요구되는 새로운 통신 프로토콜이다. 접속별(per-connection)로 동작하는 RSVP는 네트워크에서 주어진 사용자의 우선순위를 일시적으로 상승시키는데 사용될 수 있다. RSVP는 특별 제어를 위한 애플리케이션 요건을 전달하기 위해 종단 사이에서 실행된다. RSVP는 클라이언트와 서버 사이의 세션을 식별하여, 자원 액세스시에 그것의 통신 우선순위를 승인하기 위해, 라우터에 그 세션을 제어하도록 요구한다. 세션이 완료되면, 그 세션에 예약된 자원은 자유롭게 사용될 수 있다.
RSVP는 불행히도 그 시그널링 스킴에서 단지 2 레벨의 우선순위만을 제공한다. 패킷들은 각 라우터 홉에서 낮거나 또는 높은 우선순위로 식별된다. 그러나, 혼잡한 네트워크에서는, 2-레벨 분류로는 충분하지 못하다. 또한, 하나의 라우터 홉에서 우선순위가 결정된 패킷은 다음의 홉에서 거부될 수 있다.
1997년의 IETF 표준에서 허용된 RSVP는 누가 대역폭을 수신할 것인지를 제어하지 않으며, 몇몇 사용자가 동시에 큰 블록의 대역폭을 요구할 때에 발생될 것에 관한 문제가 여전히 남아있다. 현재, 이 기술은 이 상황에 대해 선착순 처리로 설명하고 있다. IETF는 이 문제를 고려하기 위해 태스크 포스(task force)를 형성하고 있다.
RSVP가 특정 레벨의 서비스를 제공하기 때문에, 많은 사람들은 QoS와 프로토콜을 동일시한다. 예를 들면, CISCO사는 현재 IPv6-타입 QoS 특징을 전달하기 위해 IPv4-기반 네트워크 라우터 운영 시스템에서 RSVP를 사용한다. 그러나, RSVP는, 주어진 클라이언트/서버 접속 내에서 지원될 때만 유효하기 때문에, 단지 QoS 픽처의 작은 부분이다. RSVP는 애플리케이션의 지연 및 대역폭의 요구를 허용하지만, RSVP는 기업간에 QoS를 통합하는데 필요한 트래픽 플로우 관리를 가진 네트워크-범위 우선순위 또는 혼잡 제어를 제공하지 못한다. 또한, RSVP는 와이어리스 매체를 통한 패킷 전달에 관련된 특정한 시도를 어드레싱하지 않는다.
본 발명은 (1) RFC 2205와의 호환성, (2) 경로예약(Path) 메시지, 예약(Resv), 경로 해제(Path teardown) 메시지, 예약 해제 메시지, 경로 에러 메시지, 예약 에러 메시지 및 확인(Confirmation) 메시지를 포함하는, RSVP 메시지 인식 및 지원, (3) Null, Session, RSVP_Hop, Time_Values, Style, Flowspec, Sender_Template, Sender_Tspec, Adspec, Error_Spec, Policy_Data, Integrity 및 Scope, Resv_Confirm을 포함하는, RSVP 객체의 인식 및 지원, (4) 와이어리스 기지국(302)에서의 QoS 자원 할당을 위한 RSVP Flowspecs의 구성가능한 변환을 제공함으로써, RSVP를 지원한다.
본 발명은 (1) RFC 2474 및 2475 지원, (2) 인터넷의 코어내의 DiffServ, (3) 호스트 및 에지 네트워크에 대한 RSVP/int-serv, (4) DiffServ 호환성에 대한 승인 제어 능력, (5) 차별화된 서비스(DS)(DiffServ에 의한 사용에 지원되는 필드 마킹, 및 와이어리스 기지국(302) 자원 할당으로 변환), (6) 하나의 터널 세션에 대한 다수의 종단간 세션의 바인딩 지원을 제공함으로써, DiffServ 및 RSVP/int-serv의 지원을 제공한다.
4. RTP ( Real - time Transport Protocol ) 및 RTCP( Real - time Control Protocol )
트랜스포트 계층(410)의 TCP는 RTP 및 RTCP 강화기술을 가질 수 있다. RTP는 IETF의 오디오/비디오 트랜스포트 작업그룹에 의해 지지되는 인터넷에 대한 새로운 프로토콜이다. 도7을 참조하면, RTP 및 RTCP 헤더 필드(708)는 정보의 몇몇 서브 필드를 포함할 수 있다. RTP는 패킷-교환 네트워크를 통해 상호동작하는 음성 및 비디오의 실시간 전송을 지원한다. RTP는 컨텐츠 식별, 패킷 시퀀싱, 타이밍 재구성, 손실 검출 및 보안성을 제공하는 프로토콜이다. RTP에 따라, 데이터는 지연시간이 제한되어 하나 또는 그 이상의 목적지에 전달될 수 있다.
RTP, 및 인터넷 스트림 프로토콜 버전2(ST2)와 같은 그 밖의 인터넷 실시간 프로토콜은 데이터 전송의 효율성에 중점을 둔다. RTP 및 RTCP와 같은 다른 인터넷 실시간 프로토콜은, 지속적이고, 많은 양의 데이터를 교환하는 통신 세션을 위해 설계된다. RTP는 자원 예약 또는 QoS 제어를 처리하지 않는다. 대신에, RTP는 RSVP와 같은 자원 예약 프로토콜에 의존하여, 적합한 대역폭을 할당하기 위해 동적으로 통신을 수행한다.
RSVP는 네트워킹 장치가 온전한(unbroken) 멀티미디어 데이터 스트림을 운반하기 위한 대역폭을 예약하도록 하고, RTP는 IP 패킷이 데이터인지 또는 음성인지를 구별하는 헤더 및 시간 스탬프를 부가한다.
RTCP는 네트워크 상태를 분석하는 RTP에 대한 동반 프로토콜이다. RTCP는 RTP 데이터 소스와 세션 관계자에 대해 피드백을 제공하기 위해 멀티-캐스트(multi-cast) 방식으로 동작한다. RTCP는 사설 IP 네트워크에서 VoIP(voice-over-IP)의 데이터그램 전송을 포위하도록 적용될 수 있다. RTCP에 따라, 네트워크 전송에서 애플리케이션에 스파이크 또는 변화를 통지함으로써 네트워크 로드의 변 화를 조정할 수 있다. RTCP 네트워크 피드백을 이용하여, 텔레포니 소프트웨어는 저하된 접속에 응답하여 압축 알고리즘을 스위칭할 수 있다.
5. IP 멀티-캐스팅 프로토콜
네트워크 계층(408)의 IP(429)는 또한 멀티-캐스팅 프로토콜을 지원할 수 있다. 디지털 음성 및 비디오는 거대한 양의 데이터로 구성되는데, 이것은 본래의 컨텐츠의 품질을 유지하기 위해, 패킷으로 쪼개져서 시간에 맞는 방식 및 올바른 순서로 전달되어야 한다. 프로토콜의 발전은 다수의 수신자에게 컨텐츠를 전송하기 위한 효과적인 방법, 즉, 멀티-캐스팅으로 언급되는 전송에 중점을 두고 있다. 멀티-캐스팅은 일대다(one-to-many) 관계로 하나의 호스트로부터 다수의 호스트로의 메시지 브로드캐스팅을 수반한다. 네트워크 장치는 LAN, WAN 또는 인터넷 상의 워크스테이션 또는 PCS와 같은 다른 장치들 중 선택된 그룹에 메시지를 브로드캐스팅한다. 예를 들면, 라우터는 라우팅 테이블 갱신에 관한 정보를 네트워크내의 다른 라우터로 전송할 수 있다.
몇몇 프로토콜들이, 인터넷 프로토콜 자체에 대한 업그레이드를 포함하는, IP 멀티-캐스팅을 위해 구현되고 있다. 예를 들면, 최신 버전의 IP인 IPv6에서의 일부 변화는 단일-캐스트(점대점 통신), 임의 캐스트(장치 그룹의 가장 근접한 멤버와의 통신) 및 멀티-캐스트에 대해 상이한 형식의 어드레싱을 지원할 것이다. IP 멀티-캐스팅의 지원은, IGMP(Internet group management protocol), PIM(protocol-independent multi-cast) 및 DVMRP(distance vector multi-cast routing protocol) 을 포함한, 몇몇 프로토콜로부터 나타난다. 큐잉 알고리즘은, 비디오 또는 다른 멀티-캐스트 데이터 타입들이 시각적 또는 청각적인 왜곡이 없다고 추측되었을 때에 도달한다는 것을 확인하는데 사용될 수 있다.
RTP는 비디오 및 음성과 같은 데이터의 종단간 실시간 전달을 위해 설계된 IETF 드래프트이다. RTP는 예약시간(in-time) 전달, QoS 전달 또는 전달 순서에 대한 보장을 제공하지 않는 UDP(user datagram protocol)을 통해 동작한다. RTP는 믹서 및 변환기와 함께 동작하고, 암호화 및 보안성을 지원한다. RTCP는 네트워크 상태를 분석하는 RTP 정의의 일부분이다. RTCP는 서비스의 필수적인 감시를 제공하고 관련자에 관한 정보를 수집한다. RTP는 적합한 대역폭을 동적으로 할당하기 위해 RSVP와 통신한다.
인터넷 패킷은 통상적으로 선입력-선처리(first-come, first-serve :선착순)에 기초하여 이동한다. 네트워크가 혼잡하게 되면, RSVP는, 화상 회의와 같은 임의 타입의 트래픽이, 이메일과 같이 시간에 덜 민감한 트래픽 전에, 전달되도록 할 수 있다. RSVP는 상이한 요금으로 상이한 QoS를 제공함으로써, 인터넷의 요금 구조를 변화시킬 수 있었다. SLA를 이용하여, 상이한 QoS 레벨이 SLA 가입 레벨에 따라 CPE 위치국에서 사용자에게 제공될 수 있다.
RSVP 프로토콜은 특정한 데이터 스트림 또는 플로우에 대해 네트워크로부터 특정한 QoS를 요구하기 위해, 애플리케이션 대신에, 호스트에 의해 사용될 수 있다. 라우터는 요구된 서비스를 제공하는데 필요한 상태를 수립 및 유지하도록, QoS 제어 요구를 모든 필요한 네트워크 노드로 전달하기 위해 RSVP 프로토콜을 사용할 수 있다. RSVP 요구는 일반적으로, 필수적이지는 않지만, 데이터 경로를 따라 각 노드에 자원이 예약되도록 할 수 있다.
RSVP는 라우팅 프로토콜 자체는 아니다. RSVP는 현재 또는 미래의 단일-캐스트 및 멀티-캐스트 라우팅 프로토콜과 동작하도록 설계된다. RSVP 프로세스는 경로를 찾기 위해 로컬 라우팅 데이터베이스를 참조한다. 예를 들면, 멀티-캐스트의 경우에, 호스트는 멀티-캐스트 그룹에 조인하기 위해 IGMP 메시지를 전송하고, 그 그룹의 전달 경로를 따라 자원을 예약하기 위해 RSVP 메시지를 전송한다. 라우팅 프로토콜은 어디서 패킷이 진행되는지를 판단한다. RSVP는 그 경로를 따라 진행되는 패킷의 QoS 만을 고려한다. 본 발명은 공유 와이어리스 대역폭을 통해 사용자에게 QoS-인식 와이어리스 PtMP 액세스를 전달하고, 와이어리스 기지국의 대역폭을 통한 전송을 위해 수신된 IP 플로우 내의 패킷의 패킷 헤더 내에 제공된 우선순위 정보를 고려할 수 있다.
d. 네트워크 계층에서의 VPN 네트워크(예시적인 선택 프로토콜)
또한, 네트워크 계층(406)에, 아래에 논의되는, 예시적인 VPN(virtual private network) 프로토콜 PPP(point to point protocol)(420) 및 IPsec(422)가 도시되어 있다.
현재 VPN에 대해, 예를 들면, IPsec(IP security), PPTP(point-to-point tunneling protocol), L2F(layer 2 forwarding protocol) 및 L2TP(layer 2 tunneling protocol)과 같은 다수의 프로토콜 표준이 존재한다. IETF는 인터넷-기 반 VPN을 보장하기 위해 사용될 수 있는 IP에 대한 보안 구조를 제한하고 있다. IPsec 설비는, 트래픽이 인터넷에 진입함에 따라 이것을 암호화하고, 이것을 다른 단말에서 복호화함으로써, 키 렝스(key lengths) 및 키 에스크로(key escrow) 기술과 같은 많은 암호화 알고리즘을 벤더가 사용할 수 있도록 하면서, 조직의 방화벽 사이에 인터넷을 통해 사설 세션을 보장한다. IPsec의 목표는 회사가 최선의 방화벽, 암호화 및 TCP/IP 프로토콜 제품을 믹스앤매치(mix-and-match)하도록 하는 것이다.
IPsec는 인터넷을 통해 암호화된 데이터 스트림을 거쳐 2개의 LAN이 서로 링크되도록 설계된다.
1. PPTP( Point - to - Point Tunneling Protocol )
PPTP는 IPsec를 사용하기 보다는 VPN 보안성에 대해 교번적인 접근을 제공한다. 인터넷을 통해 암호화된 데이터 스트림을 거쳐 2개의 LAN이 서로 링크되도록 설계되는 IPsec와는 달리, PPTP는 사용자가 PPTP를 지원하는 ISP 또는 PPTP 서버에 의해 인터넷을 통해 조직의 네트워크에 접속하도록 한다. PPTP는 1996년 초반에 IETF에 대한 표준으로 제안되었다. 방화벽 벤더는 PPTP를 지원하게 되어 있다.
PPTP는 3Com, Ascend 및 US Robotics와 함께 Microsoft사에 의해 개발되었고, 현재 워싱턴 레드몬드 소재의 Microsoft Corporation사로부터 이용가능한, 업그레이드를 거친 WINDOW NT SERVER 4.0, WINDOWS NT WORKSTATION 4.0, WINDOWS 95 및 WINDOWS 98로 구현된다.
PPTP에서의 "터널링(tunneling)"은 메시지의 캡슐화를 참조하여, 메시지가 암호화되어 인터넷을 통해 전송될 수 있게 된다. 서버와 클라이언트 사이에 터널을 생성함으로써, PPTP는 처리 자원을 고정할 수 있다.
2. L2F ( Layer 2 Forwarding ) 프로토콜
Cisco사에 의해 개발된 L2F 프로토콜은, 인터넷, 또는 데이터 네트워크(112)와 같은 다른 TCP/IP 네트워크를 통해 전송하기 위해 다른 프로토콜을 TCP/IP 패킷에 캡슐화한다는 점에서 PPTP와 유사하다. PPTP와는 달리, L2F는, 네트워크 프로토콜 스택의 보다 낮은 레벨에서 실행되고, TCP/IP 라우팅 기능을 필요로 하지 않는, 특별한 L2F-순응 라우터(LAN 또는 WAN 기반구조로 변경이 필요할 수 있는)를 필요로 한다. L2F는 또한 PPTP에 기반하는 것 이상으로 사용자 이름 및 패스워드에 대한 추가적인 보안성을 제공한다.
3. L2TP( Layer 2 Tunneling Protocol )
L2TP는 L2F로부터의 스펙에 PPTP를 결합한다. 1997년 11월에, IETF는 L2TP 표준을 승인하였다. Cisco사는 L2TP를 자신의 인터넷 운영 체계 소프트웨어 안에 포함시키고 있고, Microsoft사는 WINDOWS NT 5.0에 포함시키고 있다. 단지 TCP/IP 통신만을 커버하는, IPsec를 통한 L2TP의 주요 장점은, L2TP가 다수의 프로토콜을 따를 수 있다는 것이다. L2TP는 또한 비-IP 네트워크를 통한 전송 능력을 제공한다. 그러나, L2TP는, 확실하게 VPN을 사용하기 위해 네트워크 운영자에 대해 중요 한 보안성 특징인 데이터 암호화를 무시한다.
4. IPsec
IPsec(422)의 보안성 암호화 특징을 이용하는 IP 플로우가 본 발명에 의해 지원된다. WINAAR 아키텍처(400)의 IPsec(422) 플로우의 통합이 도17a 및 도17b를 참조하여 다운링크 및 업링크 방향으로 아래에 설명되어 있다. 와이어리스 기지국(302)은, 와이어리스 기지국에 방화벽을 설치하고, 식별 분석 전에 패킷 패더 정보 및 데이터스트림을 암호화하지 않음으로써, IPsec 암호화된 스트림의 우선순위화를 지원한다. 와이어리스 전송 매체를 통해, 프레임 스트림은 이미 프레임 데이터의 암호화를 포함하고 주파수 호핑을 구현한다.
IPsec는, 예로, VPN 및 eCommerce 보안성에 대해 안전한 데이터 전송을 제공한다. IPsec는 RFC 2401-2407과 호환된다. IPsec는 IPv4 및 IPv6로 지원되고, 또한 IPsec 터널 모드로 지원된다. 와이어리스 기지국(302) 보안성 프로토콜 지원은 인증 헤더(AH : authentication header) 및 캡슐화 보안성 페이로드(ESP : encapsulating security payload)를 포함한다. 와이어리스 기지국(302)은 IPsec 인증(MD5), 암호화 알고리즘 및 자동 키 관리(IKE 및 ISAKMP/Oakley)를 지원한다. 와이어리스 기지국(302)은, 예로, 2개의 호스트 사이의 모든 트래픽에 대해 단일 암호화 터널 제공, 또는 호스트들 사이의 각 TCP 접속에 대해 분리된 암호화 터널 제공과 같은, 보안성 서비스의 선택가능한 세분성(granularity) 및 전송 모드 또는 터널 모드의 선택을 제공한다.
e. 트랜스포트 계층
1. TCP / IP UDP / IP
이미 논의된 바와 같이, IP는 오늘날 사용되는 주요 네트워킹 프로토콜이 되고 있다. 이 성공은 크게, TCP/IP 족의 프로토콜에 기반하는, 인터넷의 일부분이 된다. TCP/IP는 PC, 워크스테이션 및 서버를 접속하는 가장 일반적인 방법이다. TCP/IP는 데스크톱 운영 체제(예로, Microsoft사의 Windows 95 또는 Windows NT) 및 LAN 운영 체제를 포함하는, 많은 소프트웨어 제품의 일부로 포함된다.
지금까지 가장 널리 보급된 LAN 프로토콜은 Novell사의 NetWare NOS(network operating system)로부터의 IPX/SPX 이었다. 그러나, IPX/SPX는 TCP/IP에 대해 기반을 잃고 있다. Novell사는 현재 본래의 IP 지원을 NetWare 안에 포함시켜, TCP/IP 접속을 통해 그들은 운반할 때에 IPX 패킷을 캡슐화하기 위한 NetWare의 요구를 끝내게 한다. UNIX 및 Window NT 서버 모두는 TCP/IP를 사용할 수 있다. Banyan사의 VINES, IBM사의 OS/2 및 다른 LAN 서버 운영 체계도 역시 TCP/IP를 사용할 수 있다.
트랜스포트 계층(410)은 네트워킹 프로토콜의 표준 TCP/UDP/IP 프로토콜 족의 TCP 또는 UDP(427) 부분을 포함할 수 있다. 아래에서 다시 논의되고, 이미 위에서 데이터 네트워크(142)를 참조하여 간단히 언급된 바와 같이, TCP는 트래픽을 패킷으로 분할하고, 소스와 목적지 IP 어드레스 사이에 정보 패킷을 전송, 재조립 및 재전송하기 위한 표준 프로토콜이다. 이제, 도7을 참조하면, TCP 헤더 필드(706) 는, 예로, 소스 및 목적지 포트 번호, 윈도우 사이즈, 긴급 포인터, 플래그(SYN, ISN, PSH, RST, FIN) 및 최대 세그먼트 사이즈(MSS)를 포함할 수 있다. TCP 및 UDP 모두는 TCP/IP 호스트가 포트 번호를 통해 다수의 애플리케이션 간을 구별할 수 있는 능력을 제공한다. TCP는 애플리케이션에 대해 데이터의 신뢰할 수 있고 순서적인 전달을 제공할 수 있다. TCP는 또한 적응형 플로우 제어, 분할, 재조립 및 데이터 플로우의 우선순위화를 제공할 수 있다. UCP는 단지 응답되지 않은(unacknowledged) 데이터그램 능력을 제공한다. 최근에 정의된 RTP(real time protocol), RFC 1889는, 예를 들면, 멀티미디어 애플리케이션의 지원으로 실시간 능력을 제공할 수 있다.
TCP는 윈도우-기반 플로우 제어를 사용한다. 각 TCP 소스는, 각각의 연속적인 RTT(round-trip time) 동안에 얼마나 많은 패킷을 전송할 수 있는지를 판단하는, 동적으로 변화하는 전송 윈도우를 가진다. 최종 RTT에서 손실된 패킷이 없는 경우, TCP 소스는 그것의 전송 윈도우 증가를 계속할 수 있다. 혼잡이 검출되면, 소스 TCP는 그 전송을 감속시킨다. 즉, 증가적인 감소를 통해 "백-오프"한다. 소위 시간에 대한 TCP 윈도우의 증가 폭은 점점 길어지는 패킷의 버스트에 대응한다. TCP의 윈도우 플로우-제어 프로토콜은, 손실에 의해 종료되고, 빠른 백오프 주기가 뒤따를 때까지, 증가하는 처리량 및 버퍼 활용도에 대해 이 효과를 나타낸다.
TCP는 데이터 네트워크(142)를 통한 종단간 신뢰할 수 있는 데이터 전송을 제공하기 위해 IP를 통해 동작한다, TCP는 윈도우 사이즈 또는 세그먼트 사이즈를 동적으로 감소시킴으로써 전송 중의 응답되지 않은 데이터의 양을 제어한다. 모든 개입된 네트워크 요소들이 낮은 에러 레이트를 가지고, 보다 큰 패킷을 지원하며, 큰 윈도우 사이즈를 지원하기 위해 충분한 버퍼링을 가지는 경우, 증가된 윈도우 또는 세그먼트 사이즈값은 보다 높은 처리율을 달성한다는 점에서 그 역도 성립된다.
f. 애플리케이션 계층
애플리케이션 계층 7(412)은, 예로, TCP를 통한, HTTP, FTP, TELNET 원격 단말 로그인, 및 SMTP(simple mail transfer protocol), 및 USP를 통한 SNMP(simple network management protocol), RPC, NFS 및 TFTP와 같은 애플리케이션을 포함할 수 있다. 예로, 버지니아 레스톤 소재의 AOL사로부터 상용되는 NETSCAPE NAVIGATOR와 같은 월드 와이드 웹 브라우저, 뉴욕 아몬크 소재의 IBM사로부터 상용되는 LOTUS 123과 같은 스프레드시트 애플리케이션 프로그램, 또는 워싱턴 레드몬드 소재의 MICROSOFT사로부터 상용되는 MS NETMeeting과 같은 화상 원격 회의 프로그램과 같은, 다른 애플리케이션들이 네트워크 스택을 통해 실행될 수도 있다. 이러한 애플리케이션으로부터 전송된 패킷은 적합한 최종사용자 QoS를 달성하기 위해 특별한 처리 및 우선순위화를 필요로 할 수 있었다.
3. PRIMMA -시스템 IP 플로우 우선순위화( Prioritization )
a. 혼합된 IP 플로우의 스케줄링
도6은 혼합된 IP 플로우의 스케줄링을 나타낸 블록도(600)를 도시하고 있다. 블록도(600)는 와이어리스 기지국(302)의 스케줄링을 보여준다. 블록도(600)의 기능은 인터넷, VPN 및 실시간 IP 플로우의 PRIMMA 관리를 포함한다. 도3a를 참조하면, 와이어리스 IP 플로우는 네트워크 라우터(140d)를 통해 데이터 네트워크(142)로부터 와이어리스 기지국(302)의 인터페이스(320)로 들어오고 있다. IP 플로우는 안테나(290d)를 경유하는 와이어리스 기지국(302)으로부터 안테나(292d)를 경유하는 가입자 위치(306d)를 통해 전송하기 위해 스케줄링된다.
도6의 블록도(600)를 다시 참조하면, 여기에 도시된 기지국(320)과 와이어리스 기지국 안테나(290d) 사이의 다운링크 및 업링크 플로우이다. 여기에 기재된 바와 같이, IP 플로우는 소스로부터 목적지 호스트 컴퓨터로 전송되는 데이터의 일련의 관련 패킷을 말한다. 데이터 네트워크(142)(인터페이스(320)를 통한)로부터의 IP 플로우(630)는 인터넷 IP 플로우(608), VPN IP 플로우(610) 및 실시간 IP 플로우(612)를 포함한다. IP 플로우(630)는 다운링크 방향이다.
다운링크 IP 플로우 분석기(602)(이하, 다운링크 플로우 분석기(602))는 인터넷 IP 플로우(608), VPN IP 플로우(610) 및 실시간 IP 플로우(612)를 분석한다. IP 플로우 분석기(602)는 도8a 및 도15a를 참조하여 아래에 다시 설명된다. IP 분석기(602)는 패킷을 수신하여, 신규 또는 현재의 IP 플로우를 식별하기 위해 패킷 헤더 필드를 분석하다. IP 플로우 분석기(602)는 또한 패킷 헤더 필드 컨텐츠에 따라 IP 플로우에 대한 QoS 요건을 특징화할 수 있다. IP 플로우 분석기(602)는 IP 플로우를 분류하고, 주어진 패킷을 현재의 IP 플로우로부터의 다른 패킷과 관련시키고, IP 플로우를 유사한 QoS 요건과 함께 그룹화할 수 있다. IP 플로우 분석 기(602)는 또한 IP 플로우를 플로우 스케줄러에 제공할 수 있다.
다운링크 PRIMMA MAC IP 플로우 스케줄러(604)(이하, 다운링크 플로우 스케줄러(604))는 수신된 IP 플로우(608, 610, 612)를 다운링크 방향으로 전송하기 위해 스케줄링한다. 다운링크 플로우 스케줄러(604)는 상이한 클래스의 IP 플로우의 우선순위를 결정할 수 있다. 예를 들면, 스케줄러(604)는 지연-민감형 IP 플로우에 대해 다운링크 프레임내의 슬롯을 예약할 수 있고, FTP 타입 IP 플로우(608)에 대해, 스케줄러(604)는 파일 전송을 위해 많은 양의 대역폭을 할당할 수 있으며, 이메일 타입 IP 플로우(608)에 대해서는 보다 낮은 우선순위가 패킷에 승인될 수 있다. 와이어리스 대역폭 프레임 슬롯 할당의 우선순위화에서, 다운링크 플로우 스케줄러(604)는, 예로, IP 플로우(630)가, 기업 네트워크에 결합하는 원격 브랜치 오피스와 같은, VPN으로부터의 VPN IP 플로우(610)라는 사실을 고려할 수 있다. VPN으로부터의 모든 트래픽은 높은 우선순위가 승인될 수 있고, 특정한 타입의 VPN 트래픽은 특정한 서비스 레벨을 요구할 수 있다. 다운링크 플로우 스케줄러(604)는, 요구에 따라, CPE 가입자 위치(306)에서의 CPE(294)에 그들의 도착이 발생되도록 실시간 IP 플로우(6112)의 우선순위를 결정할 수 있다.
다운링크 PRIMMA MAC SAR(segmentation and resequencing) 및 프레이머(606)(이하, 다운링크 SAR 및 프레이머(606))는 수신된 IP 플로우의 데이터 패킷을 와이어리스 매체를 통해 CPE 가입자 위치(306)의 CPE(294)에 전송하기 위해 프레임으로 분할 및 프레임화한다. 예를 들면, IP 플로우(616, 624)는, CPE 가입자 위치(306d)의 CPE(294d) 및 가입자 안테나(292d)에 대한 와이어리스 매체를 통해 기지국 안테나(290d)를 경유하는. CPE 가입자 위치(306d)의 CPE(294d)로 송신될 수 있다. 본 발명에서, 와이어리스 매체라는 용어는 셀룰러 통신을 통한 RF 전송의 전파 뿐만 아니라, 위성 통신 및 케이블(예, 동축 케이블) 통신을 통한 RF 전송을 광범위하게 포함하도록 사용된다.
업링크 방향에서, CPE 가입자 위치(306d)의 CPE(294d)로부터의 IP 플로우(626)는 와이어리스 기지국 안테나(290d)에서 수신된다. IP 플로우(626)는 인터넷 IP 플로우(618), VPN IP 플로우(620) 및 실시간 IP 플로우(622)를 포함할 수 있다. 업링크 IP 플로우 분석기(632)(이하, 업링크 플로우 분석기(632))는 인터넷 IP 플로우(618), VPN IP 플로우(620) 및 실시간 IP 플로우(622)를 분석한다. 업링크 플로우 분석기(632)는 도8b 및 도15b를 참조하여 아래에 다시 설명된다. 일실시예에서, IP 플로우 분석기(632)의 기능은 CPE 가입자 위치(306d)의 CPE(294d)에서 발생하고, CPE(294d)가 업링크 슬롯을 스케줄하고자 하는 IP 플로우에 관한 정보를 포함하는, 데이터를 와이어리스 기지국(302)으로 전송하기 위한 요구를 전송한다.
업링크 PRIMMA MAC IP 플로우 스케줄러(634)(이하, 업링크 플로우 스케줄러(634))는 요구된 IP 플로우를 스케줄링할 수 있다. 일실시예에서, 스케줄러(634)의 기능은 CPE 가입자 위치(306d)의 CPE(294d)에서 수행될 수 있다. 다른 실시예에서, 스케줄러(634)의 기능은 와이어리스 기지국(302)에서 수행될 수 있다. 업링크 플로우 스케줄러(634)를 와이어리스 기지국에 배치하는 것의 장점은, 이것이 특히 점대다점 아키텍처에서 효율성을 제공한다는 것이다. CPE 가입자 위치(306)의 CPE(294)에 다수의 업링크 플로우 스케줄러를 배치하는 것보다, 기지국(302)에 집 중된 하나를 구비하는 것이 보다 효과적이다.
업링크 PRIMMA MAC SAR 및 프레이머(636)(이하, SAR 및 프레이머(636))는, IP 플로우의 데이터 패킷을, 와이어리스 매체를 통해 CPE 가입자 위치(306)의 CPE(294)로부터 와이어리스 기지국(302)으로 전송하고, 데이터 네트워크(142)를 통해 전송하기 위한 프레임으로 분할 및 프레임화할 수 있다. CPE 가입자 위치(306d)의 CPE(294d)로부터의 IP 플로우(626)는, 예로, RF 통신, 케이블 모뎀 및 위성 통신과 같은 와이어리스 매체를 통해, CPE 가입자 위치(306d)의 CPE(294d)에 연결된 가입자 안테나(292d)로부터 기지국 안테나(290d)로 전송될 수 있다.
b. 다운링크 업링크 서브프레임 우선순위화의 요약
도8a의 블록도(800)는 예시적인 다운링크 분석, 우선순위화 및 스케줄링 기능을 요약하고 있다. 마찬가지로, 도8b의 블록도(830)는 예시적인 업링크 분석, 우선순위화 및 스케줄링 기능을 요약하고 있다. 블록도(800, 830)는 도6의 블록도(600)의 기능을 보다 상세하게 도시한 것이다.
도8a의 블록도(800)에서, 공유 와이어리스 대역폭의 IP 플로우 우선순위화 및 스케줄링이 다운링크 경로 - 데이터 네트워크(142)-라우터(140d)-인터페이스(320)-와이어리스 기지국(302)-WAP(290d)-와이어리스 매체-와이어리스 송수신기 가입자 안테나(292d)-CPE 가입자 위치(306d)의 가입자 CPE 스테이션(294d) - 에서 어떻게 수행되는지를 도시하고 있다.
IP 플로우 분석기(602)는 다운링크 프레임 스케줄러에 대해 패킷을 식별, 특 징화, 분류 및 표현하는 기능을 수행한다. 데이터 패킷을 식별, 특징화, 분류 및 표현하는 기능은 도15a를 참조하여 설명된다.
식별 동작 동안에, 패킷 헤더 섹션내의 필드에 근거하여, 인입 IP 데이터 플로우의 데이터 패킷이 시스템에 알려진, 즉 "현재의 IP 플로우"인지, 또는 새로운 IP 데이터 플로우의 첫번째 데이터 패킷인지가 판단된다. 식별은 또한, 예로, 패킷 페이로드내의 정보의 타입을 추정하기 위해, 패킷의 소스를 판단하는 것을 포함할 수도 있다.
특징화 동작 동안에, 시스템에 사전에 알려지지 않은 새로운 데이터 패킷(새로운 IP 데이터 플로우의)은, IP 데이터 플로우에 대한 QoS 요건을 판단하고, IP 데이터 플로우를 수신할 가입자 CPE 스테이션을 식별하기 위해, 패킷 헤더 정보에 근거하여 특징화된다.
분류 동작 동안에, 새로운 IP 데이터 플로우는 통신 우선순위 클래스로 분류된다. 분류는 또한 유사한 특징을 갖는 상이한 IP 플로우로부터의 패킷을 하나의 클래스로 함께 그룹화하는 것을 포함할 수도 있다. IP 플로우(630)의 예시적인 분류 그룹화가 IP 클래스(810a-810g)로 도시되어 있다.
표현 동작 동안에, 새로운 IP 데이터 플로우가 초기화되고, 다운링크 플로우 스케줄러(604)에 표현된다.
다운링크 플로우 스케줄러는 IP 데이터 플로우의 데이터 패킷을, 클래스 큐 우선순위 및 일련의 룰을 이용하여 클래스 큐에 두고, 진보형 예약 알고리즘을 이용하여 와이어리스 매체를 통해 CPE 가입자 위치(306)의 가입자 CPE 스테이션(294) 으로의 전송을 위해 데이터 패킷을 스케줄링한다. 그 룰은, 예로, 계층적 분류-기반 우선순위화, VPN 디렉터리 인에이블 데이터 우선순위(예를 들어, DEN(directory enabled networking)) 및 SLA 우선순위에 근거하여 다운링크 플로우 스케줄러로의 입력에 의해 결정된다. 예로, 등시적 트래픽과 같은 스케줄링에 사용하는 진보형 예약 알고리즘은 도14를 참조하여 아래에서 설명된다.
SAR 및 프레이머(606)는 WAP(290d)으로부터 와이어리스 매체를 거쳐 와이어리스 송수신기 가입자 안테나(292)로의 와이어리스 전송을 위해 데이터 패킷을 분할하고 시퀀싱하며 프레임화한다. 블록도(800)에는 가입자 CPE 위치(306a-306e)에 위치한 가입자 CPE 스테이션(294a-e)(미도시)에 접속된, 예로, 가입자 워크스테이션(120d)(미도시)과 같은 장치 상에서 실행되는 다수의 가입자 애플리케이션(820a-820e)이 도시되어 있다. 각 가입자 CPE 위치(306)는 하나 또는 그 이상의 가입자 CPE 위치(294)를 수용할 수 있고, 각 가입자 CPE 스테이션(294)은 하나 또는 그 이상의 가입자 워크스테이션(120)으로/으로부터 하나 또는 그 이상의 IP 데이터 플로우를 수신 및 전송할 수 있다. 실제로, 하나의 CPE 스테이션에 접속된 각 애플리케이션은 다수의 IP 데이터 플로우를 수신 또는 전송할 수 있다.
도8a의 가입자 CPE 위치(360a)를 참조하면, CPE SAR 및 프레이머(814a)는 수신된 데이터를 재시퀀싱하여, CPE 플로우 스케줄러(816a) 및 CPE IP 플로우 분석기(818a)를 통해 가입자 애플리케이션(820a)으로 전송한다. CPE IP 플로우 스케줄러(816a-816e)는 업링크 트래픽에 대해 다운링크 플로우 스케줄러(604)와 동일할 기능을 수행할 수 있다. 마찬가지로, CPE IP 플로우 분석기(818a-818e)는 다운링크 플로우 분석기(602)와 동일한 기능을 수행한다.
본 발명의 일실시예에서, 다운링크 모드시, CPE IP 스케줄러(816a-816e) 및 CPE IP 플로우 분석기(818a-818e)는 아무 기능도 수행하지 않는다.
블록도(800)는 다운링크 경로에서 수행되는 논리적 기능을 도시하고 있는데, 이것은 이들 기능의 물리적 위치는 아닐 수 있다.
가입자 애플리케이션(820a-820e) 및 CPE SRA 및 프레이머(814a-814e)의 기능은 와이어리스 접속을 통해 와이어리스 기지국(302)에 접속된 실제 가입자 CPE 스테이션(294)에서 수행될 수 있다.
블록도(800)는 수신된 데이터 패킷을 우선순위 클래스 큐에 배치하기 위해, 다운링크 플로우 스케줄러(604)에 의해 사용되는 우선순위(812)의 예시적인 세트를 리스트한 것이다. 다음의 예시적인 우선순위, 즉 지연-민감형 UDP 우선권(812a), 높은 우선순위(812b), 중간 우선순위(812c), 초기 HTTP 스크린 우선순위(812d), 지연에 중립적인(latency-neutral) 우선순위, FTP, SMTP 및 그 밖의 이메일 트래픽 우선순위(812f) 및 낮은 우선순위(812g)로 리스트된다. 이 기술분야의 통상의 지식을 가진 자는, 최종사용자의 QoS 요건에 따라 많은 상이한 우선순위 클래스가 가능하다는 것을 이해할 것이다. 지연-민감형 UDP 우선순위 데이터는, 지터(즉, 시간 동기화가 중요함) 및 지연(즉, 역방향으로의 IP 데이터 플로우 사이의 시간 경과량)에 민감하기 때문에, 가장 높은 우선순위를 갖는 데이터를 말한다. 높은 우선순위(812b)는, 예로, 프리미엄 VPN 서비스 및 높은 우선순위 SLA 서비스를 말한다. 중간 우선순위(812c)는, 예로, 중요한 VPN 서비스 레벨 및 중간 레벨 SLA 서비스를 말한다. HTTP 스크린 우선순위(812d)는, 예를 들면, 초기 HTTP 스크린과 같은 HTTP 데이터의 다운로드를 말하는데, 이것은 인터넷 사용자가 그의 인터넷 세션에 대해 이용가능한 많은 양의 대역폭을 가진 것처럼 느끼도록 하는 것이 중요하다. 지연에 중립적인 우선순위(812e)는, 예로, 이메일 트래픽과 같이 지연에 중립적인 데이터를 말한다. FTP, SMTP 우선순위(812f) 데이터는 지연 및 지터에 민감하지 않지만, 전송 사이즈로 인해 정확하게 다운로드되어야 하는 많은 양의 대역폭을 필요로 하는 데이터를 포함한다. 마지막으로, 낮은 우선순위 데이터(812g)는, 하나의 네트워크 장치가 그것의 상태 정보를 24 시간을 기준으로 다른 네트워크 장치에 전송하는 시간과 같은, 긴 주기의 시간에 걸쳐 전송될 수 있는 데이터를 말한다.
도8b의 블록도(830)는 공유 와이어리스 대역폭의 IP 플로우 분석, 우선순위화 및 스케줄링이 업링크 경로 - 가입자 CPE 스테이션(294d) - 무선 송수신기 가입자 안테나(292d) - 와이어리스 매체 - WAP(290d) - 와이어리스 기지국(302) - 인터페이스(320) - 라우터(140d) - 데이터 네트워크(140) - 에서 어떻게 수행되는지를 도시하고 있다.
블록도(830)는 업링크 플로우 분석기(632), 업링크 플로우 스케줄러(634) 및 업링크 SAR 및 프레이머(636)를 포함한다. 이 구성요소들은 그 기능에서 다운링크 플로우 분석기(602), 다운링크 플로우 스케줄러(604) 및 다운링크 SAR 및 프레이머(616)와 유사하지만, 대신에, 가입자 CPE 스테이션(294)(가입자 CPE 위치(306a-306e)에서의)의 가입자 워크스테이션(120)으로부터 와이어리스 매체를 거쳐 전송되는 데이터 패킷을 분석, 스케줄링 및 시퀀싱하고, 이 데이터 패킷을 데이터 네트워 크(142)로 전송하기 위해 인터페이스(320)에 전송한다.
도8b에는 가입자 애플리케이션(820a-820e)이 도시되어 있는데, 이것은 도8a에 도시된 것과 동일하다. 또한, CPE IP 플로우 분석기(819a-819e), CPE IP 플로우 스케줄러(817a-817e) 및 CPE SAR 및 프레이머(815a-815e)가 도시되어 있다. 이 구성요소들은 가입자 애플리케이션(820a-820e), CPE IP 플로우 분석기(818a-818e), CPE IP 플로우 스케줄러(816a-816e) 및 CPE SAR 및 프레이머(814a-814e)와 유사하게 동작한다. 그러나, 이 구성요소들은, 가입자 CPE 스테이션(가입자 CPE 위치(306a-306e)에서의)으로부터 와이어리스 기지국(302)으로의 업링크 경로에서, 목적지 호스트 워크스테이션(136)(미도시)으로 라우팅하기 위해, IP 플로우를 분석, 스케줄링 및 전송한다.
기록된 다수의 애플리케이션은 가입자 CPE 위치(306a-306e)에서의 하나 또는 그 이상의 가입자 CPE 스테이션에 접속될 수 있다. 업링크 통신에 대해 일정 수의 대역폭 할당을 경합하는 다수의 애플리케이션 사이의 충돌을 막기 위해, 본 발명의 일실시예에서는 예약 스케줄링 시스템이 사용된다. 데이터 패킷에 대한 대역폭 할당은 프레임 슬롯으로 부르고, 도12a-12q, 도14, 도16a 및 도16b를 참조하여 아래에서 설명된다.
블록도(830)는 업링크 상에서 수행되는 논리 기능을 도시하고 있는데, 이것은 반드시 이들 기능의 물리적인 위치는 아니다.
일실시예에서, 예를 들면, 업링크에 대한 패킷을 식별하는 IP 플로우 분석기(632)의 분석 기능은 패킷을 특징화하여 분류하고, 바람직한 실시예에서는, CPE 가입자 위치(306a-306e)의 가입자 CPE 스테이션(294a-294e)에서의 CPE IP 플로우 분석기(819a-819e)에서 발생할 수 있다.
또한, 일실시예에서, 업링크 서브프레임 슬롯을 스케줄링하기 위한 CPE IP 플로우 스케줄러(817a-817f)의 기능은 와이어리스 접속을 통해 와이어리스 기지국(302)에 접속된 각각의 가입자 CPE 스테이션(294)에 대해 와이어리스 기지국(302)에서 수행될 수 있다.
이 실시예에서, 스케줄링 기능은 CPE 스테이션으로부터의 업링크 IP 플로우 예약 요구를 통해 와이어리스 기지국(302)에 제공된 분류 정보에 근거하여 와이어리스 기지국(302)의 업링크 플로우 스케줄러(634)에서 수행된다. 와이어리스 기지국(302)에 모든 스케줄링 기능을 배치함으로써, 전체 시스템 QoS가 스케줄링의 제어를 집중시킴으로써 최적화될 수 있다.
그러나, 다른 실시예에서, 이들 각각의 기능은 실제 가입자 CPE 스테이션에서 수행될 수 있다.
이 실시예의 예약 스케줄링 기능에서, 각 가입자 CPE 스테이션은, 업링크 경로에서 인터페이스(320)와의 통신이 허가되기 전에, TDMA 에어프레임의 RRB(reservation request block)를 이용하여 그것의 업링크 전송을 위해 프레임 슬롯의 예약을 요구하는데, 이것은 도12a-12o를 참조하여 아래에서 다시 설명된다. 예약 요구 후에, 업링크 플로우 스케줄러(634)는, 라인(640)에 의해 표시된 것과 같이, 요구 가입자 CPE 스테이션(294)으로, CPE 스테이션(294)이 소스 가입자 워크스테이션(120)으로부터 와이어리스 매체를 거쳐 그것의 업링크 데이터 패킷을 전송 하는데 사용할 수 있는 하나 또는 그 이상의 슬롯의 설명을 전송하는데, 이것은 데이터 네트워크(142)를 거쳐 목적지 호스트 워크스테이션(136)으로 지시된다.
c. 서비스 레벨 요구( Service Level Requests )
도9는 프레임 슬롯 스케줄링 및 자원 할당의 우선순위화시에 PRIMMA MAC IP 플로우 스케줄러(604)가 SLA(Service Level Agreement)를 어떻게 고려하는지를 도시하고 있다. 도9는 CPE 가입자 위치(306a, 306b, 306c, 306d)로부터 와이어리스 기지국(302)으로 전송되는 업링크 트래픽의 우선순위화를 포함하는 SLA-중재 IP 플로우 관리도(900)를 도시하고 있다. 예를 들면, 통신 서비스 가입자가 P1(902a), P2(904a), P3(906a), P4(908a)의 4개의 SLA 중 하나에 가입했다고 가정하자. 도시된 예에서, IP 플로우(902b)는 CPE 위치(306a)에 있는 가입자에게 전송되고, P1(902a)인 SLA 우선순위 레벨을 갖는다고 가정하자. 마찬가지로, IP 플로우(904b, 906b, 908b)는 각각, CPE 위치(306b, 306c, 306d)에 있는 가입자에게 전송되고, P2(904a, 906a, 908a)인 SLA 우선순위 레벨을 갖는다고 가정하자. 와이어리스 기지국(302)의 PRIMMA MAC 스케줄러(604, 634)는 가입자 CPE IP 플로우(902b, 904b, 906b, 908b)에 이용가능한 대역폭을 할당할 때에 SLA-기반 우선순위를 고려할 수 있다. 예시적인 도면에서, IP 플로우(902b)는 SLA 우선순위(902a)에 근거하여 프레임 슬롯(902c)이 할당될 수 있다. 프레임 슬롯(904c, 906c, 908c)는 SLA 우선순위를 고려하여 유사하게 스케줄링될 수 있다. 그 후에, 업링크되는 IP 플로우 트래픽은 데이터 네트워크(142) 상에 전송될 수 있다.
SLA-기반의 우선순위화는 여러 고객에게 차별화된 서비스를 제공하기 위해 통신 제공자에게 가치있는 수단을 제공할 수 있다. 예를 들면, 프리미엄 SLA 서비스 계약을 구입한 가입자로부터의 낮은 우선순위 트래픽은, 단지 밸류(value) 레벨 또는 저가의 SLA 서비스 우선순위에 가입한 가입자로부터의 높은 우선순위 트래픽보다 더 높은 우선순위로 스케줄링될 수 있다.
d. 헤더의 식별
도7은 IP 플로우 및 IP 플로우의 QoS 요건을 식별하는데 사용될 수 있는 패킷 헤더 필드 정보(700)를 도시하고 있다. 상세히 말하면, IP 헤더 필드(702)는, 예로, 애플리케이션 인식 우선 자원 할당 제공시에 사용하는 소스 및 목지 IP 어드레스, 패킷 또는 IP 플로우 분류시에 PRIMMA MAC을 돕는데 사용될 수 있는 필드인 IP 서비스 타입(TOS), 애플리케이션 패킷의 폐기를 예상하는데 사용될 수 있는 필드인 IP TTL(time to live) 및 IP 플로우 식별시에 사용될 수 있는 프로토콜 필드를 포함할 수 있다.
패킷 헤더 정보(700)는 또한 UDP 헤더 필드(704)를 포함한다. UDP 패킷 헤더 필드(704)에는 소스 및 목적지 포트 번호가 포함된다.
패킷 헤더 정보(700)는 또한 TCP 헤더 필드(706)를 포함한다. TPC 패킷 헤더 필드(706)에는 소스 및 목적지 포트 번호, TPC 슬라이딩 윈도우 사이즈, 긴급 포인터, SYN, ISN, PSH, FIM 플래그 및 최대 세그먼트 사이즈(MSS)가 포함된다.
패킷 헤더 정보(700)는 또한 실시간 프로토콜 RTP 및 RTCO 헤더 필드(708)를 포함한다.
이 기술분야의 통상의 지식을 가진 자에게는, IP 플로우 식별시에 다른 패킷 헤더 필드가 사용될 수 있다는 것이 명백할 것이다. 이 필드들은 예시적인 수단으로 주어진 것이며, 이용가능한 패킷 헤더 필드의 전체 리스트를 의미하지는 않는다. 예로, 차별화된 서비스에 관련된 IPv6로부터의 필드와 같은 다른 필드가 와이어리스 기지국(302)의 IP 플로우 분석기(602, 632)에서 이용될 수 있다.
e. TDMA MAC 에어 프레임( Air Frame )
도12a-12o는 예시적인 시간 도메인의 TDMA MAC 전송 에어 프레임을 도시하고 있다. 여기에 기재된 필드들은 단지 본 발명의 하나의 실시예를 말하며, 본 발명의 여러 구현예에 제한되지 않는다.
도12a는 전체적인 TDMA MAC 전송 에어 프레임을 도시하고 있다. 에어 프레임(1202)은 다운스트림 전송 서브프레임(1202) 및 업스트림 전송 서브프레임(1204)을 포함한다.
도12a의 TDMA MAC 에어 프레임은 업스트림 긍정응답 블록(UAB : upstream acknowledgment block)(1206), 긍정응답 요구 블록(ARB : acknowledgement request block)(1208), 프레임 디스크립터 블록(FDB : frame descriptor block)(1210), 데이터 슬롯 DS1(1212a), DS2(1212b), DS3(1212c), DS4(1212d), DS5(1212e), DS6(1212f), DS7(1212g), DS8(1212h), DS9(1212i), DS10(1212j), DS11(1212k), DSm(1212l), 다운스트림 긍정응답 블록(DAB: downstream acknowledgment block), 예약 요구 블록(RRB : reservation request block)(1216), UA1(1218a), UA2(1218b), UA3(1218c), UA4(1218d), UA5(1218e), UA6(1218f), UA7(1218g), UA8(1218h), UA9(1218i), UA10(1218j), UA11(1218k), UA12(1218l), UAm(1218m)을 포함한다.
여기에 기재된 실시예에서, 사용되는 TDMA의 타입은 TDMA/TDD(TDMA/time division duplex)이다. TDMA/TDD에서, 시간의 하나의 간격에 대해, 전송은 CPE 스테이션(294)으로부터 와이어리스 기지국(302)으로 되고. 다른 시간 예에서는, 전송은 와이어리스 기지국(302)으로부터 CPE 스테이션(294)으로 된다. 임의 수의 슬롯이 업링크 또는 다운링크에 대해 사용될 수 있다. 슬롯의 수는 업링크 및 다운링크 모두에 대해 동적으로 할당된다. 그러나, 대개 다운링크 데이터 레이트가 업링크 데이터 레이트보다 높기 때문에, 보다 많은 슬롯이 다운링크에 할당된다. 다운링크와 업링크 사이의 슬롯의 분배가 동적으로 할당되지만, 이 실시예에서, 하나의 프레임에 대한 슬롯의 전체 수는 고정된다.
발명자 Gillbert,Sheldon; Hadar,Rami; Klein,IsraelJ에 의해 "An Adaptive Time Division Duplexing Method and Apparatus for Dynamic Bandwidth Allocation Within a Wireless Communication System"으로 명칭된, 국제 공보 번호 제WO 99/26430호가 참조문헌 D1으로 제시되어 있고, 출원인 Ensemble Communications, Inc.은 와이어리스 통신 시스템에서 ATM 통신 링크 상의 전송을 듀플렉싱하기 위한 ATDD 방법을 공개하고 있다. 여기서, 타임 슬롯은 채널의 대역폭 요구에 근거하여 업링크 및 다운링크 전송에 대해 동적으로 할당된다.
또한, 발명자 Buchholz,Dale R.; Doss,William K.; Robbins, Karen E; Hamilton,R.Lee에 의해 "Method and Apparatus for Reducing the Likelihood of Contention and Resource Misallocation in a Packet Transmission System"으로 명칭된, 미국 특허 번호 제 5,493,569가 참조문헌 D6으로 제시되어 있고, 출원인 Motorola Inc.는, 패킷 전송에 대한 요구에 응답하여 자원이 이용가능할 때에 승인(grants)이 전송되는 패킷 전송 시스템을 공개하고 있다. 패킷 전송 자원이 이용가능하지 않을 때에는, 대신에 긍정응답(acknowledgment)가 전송된다. 긍정응답이 요구자에 의해 수신되면, 타이머가 중복 요구의 전송을 지연하도록 시작되어, 요구 트래픽 경합 및 자원의 부정할당 가능성을 줄일 수 있게 된다.
표5
MAC 에어 프레임 슬롯 블록/서브프레임 명칭 설명
0 1-8 DAB/업스트림 다운스트림 응답 요구 블록 이전의 다운스트림 서브프레임의 수신에 대한 가입자 CPE 스테이션으로부터 와이어리스 기지국으로의 응답
0 1-8 RRB/업스트림 예약 요구 블록 동적으로 조정가능한 경합 슬롯수를 이용한 이후 프레임에서의 전송 예약을 위한 가입자 CPE 스테이션으로부터의 요구
0 16까지 US1-US16/업스트림 업스트림 슬롯 전송 프레임당 가변수인, 업스트림 서브프레임에서의 데이터 슬롯(일실시예에서는 16까지임)
0 1-3 ODB/업스트림 연산 데이터 블록 프레임별로 가입자 CPE 스테이션에 의해 시퀀싱된 OA&MP 데이터
0 0 UAB/다운스트림 업스트림 응답 블록 이전의 서브프레임에서의 업스트림 슬롯의 수신에 대한 와이어리스 기지국으로부터 가입자 CPE 스테이션으로의 응답
0 0 ARB/다운스트림 응답 요구 블록 이전 서브프레임에서의 수신된 예약 요구의 가입자 CPE 요구의 응답
0 0 FD/다운스트림 현재 프레임에 대한 프레임 디스크립터 블록 다운스트림 전송 서브프레임의 컨텐츠 설명
0 16까지 DS1-DS16/다운스트림 다운스트림 슬롯 전송 프레임당 가변수인, 다운스트림 서브프레임에서의 데이터 슬롯(일실시예에서는 16까지임)
0 0 CCB/다운스트림 커맨드 및 제어 블록 프레임 및 프레임 동기별로 가입자에 의해 시퀀싱된 OA&MP 커맨드
도12b는 본 발명의 예시적인 TDMA/TDD 에어 프레임(1220)의 상징적인 도시이다. TDMA/TDD 에어 프레임 구조(1220)는, 예로, 16 슬롯 또는 32 슬롯이 될 수 있는, 프레임 사이즈(1228)의 프레임을 도시하고 있다. 이 기술분야의 통상의 지식을 가진 자에게는, 본 발명의 사상 및 범위에서 벗어나지 않는 한, 다른 수의 슬롯의 가진 프레임 구조(1220)가 사용될 수 있다는 것이 명백할 것이다. 프레임 구조(1220)는, 예로, 많은 TDMA 슬롯(1222a, 1222b, 1222c, 1222d)을 포함한다. 각 TDMA 슬롯(1222a-c)은 데이터 슬롯(1224a, 1224b, 1224c, 1224d)을 포함할 수 있는데, 이것은 제어 패킷(1226a) 또는 데이터 패킷(1226b-d)을 각각 포함할 수 있다.
본 실시예에서, 프레임 사이즈(1228)의 하나의 프레임 내의 모든 TDMA 슬롯(1222)의 합은 고정된다. 그러나, 본 발명의 자원 할당 방법을 이용하여, 업링크 방향에 대해 TDMA 슬롯(1222)의 전체 수의 서브세트를 동적으로 할당할 수 있는데, 여기서, 모든 업링크 TDMA 슬롯은 총체적으로 업링크 서브프레임 또는 업링크 전송 서브프레임(1204)으로 알려져 있고, 다운링크 방향에 대해 TDMA 슬롯(1222)의 전체 수의 서브세트를 동적으로 할당할 수 있는데, 여기서, 모든 다운링크 TDMA 슬롯은 총체적으로 다운링크 서브프레임 또는 다운링크 전송 서브프레임(1202)으로 알려져 있다. 본 발명의 자원 할당 방법을 이용하여, 주어진 업스트림 또는 다운스트림 방향에 대해 모든 TDMA 슬롯(1222)을 할당할 수 있다. 또한, 하나의 CPE 스테이션에 대해 모든 데이터 슬롯(1224)을 할당할 수 있다. 와이어리스 기지국(302)은 상태 머신을 구비하여, 그것과 접속되는(즉, 와이어리스 기지국(294)에 의해 인식되는 IP 플로우를 가진)각 CPE(294)의 상태를 인지한다.
다운스트림 전송 서브프레임(1202) 및 업스트림 전송 서브프레임(1204)은 아래에서 보다 상세히 설명된다.
1. 다운스트림 전송 서브프레임
도12c는 예시적인 다운스트림 전송 서브프레임(1202)을 도시하고 있다. 도12c의 다운스트림 전송 서브프레임은 송신기 소요 시간(1230), UAB(1206), ARB(1208), FDB(1210), 프레임별 가변 개수의 DS(예, 16)(1212), 및 커맨드 및 제어 블록(CCB : command and control block)(1232)을 포함한다. DS 전송(1212)은 DS1(1212a), DS2(1212b), DS3(1212c), DS4(1212d), DS5(1212e), DS6(1212f), DS7(1212g), DS8(1212h), DS9(1212i), DS10(1212j), DS11(1212k), DSm(1212l)을 포함한다.
도12d는 다운링크 전송 서브프레임(1202)의 예시적인 UAB(1206)를 도시하고 있다. 도12d의 다운스트림 전송 서브프레임은 UAB(1206), ARB(1208), FDS(1210), DS1(1212a), DS2(1212b), DS3(1212c), DS4(1212d), DS5(1212e), DS6(1212f), DS7(1212g), DS8(1212h), DS9(1212i), DS10(1212j), DS11(1212k), DSm(1212l) 및 CCB(1232)를 포함한다.
UAB(1206)는 서브슬롯 UAB1(1206a), UAB2(1206b), UAB3(1206c), UAB4(1206d), UAB5(1206e), UAB6(1206f), UAB7(1206g), UAB8(1206h)를 포함한다. UAB1(1206a)는 프리엠블(1234a), 가입자 ID(1234b), IP-플로우 식별자(1234c),슬롯 시퀀스 번호(1234d) 및 CRC(cyclical redundancy check)를 포함한다.
UAB 필드는, 업스트림 전송 서브스트림의 슬롯(US1-US16)이 수신되었다는, 와이어리스 기지국(302)에 의한 CPE 스테이션(294)으로의 긍정응답이다. 이하의 업스트림 전송 서브프레임의 논의를 참조하자.
UAB(1206)의 서브슬롯 UAB1(1206a)에서, 프리엠블(1234a)은 링크 무결성 목 적으로 사용되는 데이터를 포함하고, 가입자 ID(1234b)는 어떤 CPE 스테이션(294)이 예약 요구되었는지는 식별하고, IP-플로우 식별자(1234c)는 IP 데이터 플로우를 식별하고, QoS 데이터 클래스(1234a)는, CPE 스테이션(294)이 알려져 있는 경우, IP 데이터 플로우의 우선순위 클래스를 식별하고, IP-플로우 우선순위 및 타입(1234b)는 새로운 IP 데이터 플로우의 지시자이고, CRC(1234e)는 서브슬롯 RRB1(1216a)에 대한 에러 체킹을 제공한다.
도12e는 다운스트림 전송 서브프레임(1202)의 예시적인 ARB(1208)를 도시하고 있다. 도12e의 다운스트림 전송 서브프레임은 UAB(1206), ARB(1208), FDS(1210), DS1(1212a), DS2(1212b), DS3(1212c), DS4(1212d), DS5(1212e), DS6(1212f), DS7(1212g), DS8(1212h), DS9(1212i), DS10(1212j), DS11(1212k), DSm(1212l) 및 CCB(1232)를 포함한다.
ARB(1208)는 서브슬롯 ARB1(1208a), ARB2(1208b), ARB3(1208c), ARB4(1208d), ARB5(1208e), ARB6(1208f), ARB7(1208g), ARB8(1208h)를 포함한다. ARB1(1208a)는 프리엠블(1234a), 가입자 ID(1234b), IP-플로우 식별자(1234c),슬롯 시퀀스 번호(1234d) 및 CRC(cyclical redundancy check)를 포함한다.
ARB 필드는, 와이어리스 기지국(302)이 CPE 스테이션(294)으로부터의 업스트림 예약 요구를 수신하였다는, 와이어리스 기지국(302)에 의한 CPE 스테이션(294)으로의 긍정응답이다. 이하의 업스트림 전송 서브프레임의 논의를 참조하자.
ARB(1208)의 서브슬롯 ARB1(1208a)에서, 프리엠블(1234a)은 링크 무결성 목적으로 사용되는 데이터를 포함하고, 가입자 ID(1234b)는 어떤 CPE 스테이션(294)이 예약 요구되었는지는 식별하고, IP-플로우 식별자(1234c)는 IP 데이터 플로우를 식별하고, QoS 데이터 클래스(1234a)는, CPE 스테이션(294)이 알려져 있는 경우, IP 데이터 플로우의 우선순위 클래스를 식별하고, IP-플로우 우선순위 및 타입(1234b)는 새로운 IP 데이터 플로우의 지시자이고, CRC(1234e)는 서브슬롯 RRB1(1216a)에 대한 에러 체킹을 제공한다.
도12f는 다운스트림 전송 서브프레임(1202)의 예시적인 FDB(1210)를 도시하고 있다. 도12f의 다운스트림 전송 서브프레임은 UAB(1206), ARB(1208), FDS(1210), DS1(1212a), DS2(1212b), DS3(1212c), DS4(1212d), DS5(1212e), DS6(1212f), DS7(1212g), DS8(1212h), DS9(1212i), DS10(1212j), DS11(1212k), DSm(1212l) 및 CCB(1232)를 포함한다.
FDB(1210)는 다운스트림 전송 서브프레임의 슬롯(예, DS2-DS16)에 속하는 상세한 정보를 포함한다.
FDB(1210)는 프리엠블 서브슬롯(1236b), 다운스트림 슬롯수 서브슬롯(1236b), 업스트림 예약 1 에 대한 IP-플로우 ID 서브슬롯(1236c), 업스트림 예약 2 에 대한 IP-플로우 ID 서브슬롯(1236d), 업스트림 예약 n 에 대한 IP-플로우 ID 서브슬롯(1236e) 및 다음의 업스트림 서브프레임에 대한 경합 슬롯 카운트 서브 슬롯(1236f)을 포함한다.
FDB(1210)에서, 각 필드는 다음과 같이 정의된다. 프리엠블 서브슬롯(1236b)은 링크 무결성의 목적으로 사용되는 데이터를 포함하고, 다운스트림 슬롯수 서브슬롯(1236b)은 다운스트림 슬롯(DS)의 수를 포함하고, 업스트림 예약 1 에 대한 IP-플로우 ID 서브슬롯(1236c)은 DS1에 대한 IP 식별을 포함하고, 업스트림 예약 2 에 대한 IP-플로우 ID 서브슬롯(1236d)은 DS2에 대한 IP 식별을 포함하고, 업스트림 예약 n 에 대한 IP-플로우 ID 서브슬롯(1236e)은 DSm에 대한 IP 식별을 포함하고, 및 다음의 업스트림 서브프레임에 대한 경합 슬롯 카운트 서브슬롯(1236f)은 다음에 이용가능한 업스트림 서브프레임에 대한 카운트를 제공한다.
도12g는 예시적인 다운스트림 MAC PDU(payload data unit)을 도시하고 있다. 다운스트림 MAC PDU는 페이로드의 실제 구조에 관한 정보를 포함한다. 도12g의 다운스트림 MAC PDU는 MAC 링크된 시퀀스 번호(1238a)(MAC 링크-리스트 시퀀스 번호), 예약 요구 인덱스 번호(1238b)(다운스트림 IP 플로우에 대한 인덱스), 압축된 IP-플로우 식별자(1238c), 압축된 IP-플로우 우선순위 및 타입(1238d)(압축된 IP 플로우의 우선순위 및 타입 식별), 슬롯 페이로드(1238e)(다운스트림 데이터 슬롯내의 데이터량), 및 CRC(1234e)(에러 체킹 정보)를 포함한다.
도12h는 다운스트림 전송 서브프레임(1202)의 예시적인 CCB를 도시하고 있다. CCB는 프레임 및 프레임 동기별로 가입자 CPE 스테이션(294)에 의해 시퀀싱된 OAM&P를 포함한다. CCB(1232)는 모드 커맨드 서브슬롯(1240b)(CPE 스테이션이 어떤 모드를 취하는지의 선택을 포함하는), 프로파일 커맨드 서브슬롯(1240b)(모듈에 대한 패치와 같은, 특정 시스템 커맨드를 포함하는), 제어 데이터 인덱스 서브슬롯(1240c)(다운로드 위치 및 메모리 요건 또는 CPE 스테이션에 의해 다운로드 데이터에 요구되는 다른 정보를 포함하는), 데이터블록 1 서브슬롯(1240d)(특정 시스템 데이터를 포함하는), 데이터블록 2 서브슬롯(1240e)(특정 시스템 데이터를 포함하는), 데이터블록 n 서브슬롯(1240f)(특정 시스템 데이터를 포함하는), 및 CRC 서브슬롯(1234e)(에러 체킹 정보)을 포함한다.
2. 업스트림 전송 서브프레임
도12i는 예시적인 업스트림 전송 서브프레임(1204)을 도시하고 있다. 도12i의 업스트림 전송 서브프레임은 송신기 소요 시간(1230), DAB(1214), RRB(1216), 프레임당 가변 개수의 US(예, 16)(1218), 및 프레임별로 가입자에 의해 시퀀싱되는 가입자로부터의 OAM&P 데이터로 구성되는, 동작 데이터 블록(ODB: operations data block)(1242)을 포함한다. US 전송(1218)은 US1(1218a), US2(12182b), US3(1218c), US4(1218d), US5(1218e), US6(1218f), US7(1218g), US8(1218h), US9(1218i), US10(1218j), US11(1218k), US12(1218l), USn(1218m)을 포함한다.
도12k는 업스트림 서브프레임(1204)의 예시적인 RRB(1216)를 도시하고 있다. 도12k의 업스트림 전송 서브프레임은 또한 DAB(1214), RRB(1216), US1(1218a), US2(12182b), US3(1218c), US4(1218d), US5(1218e), US6(1218f), US7(1218g), US8(1218h), US9(1218i), US10(1218j), US11(1218k), US12(1218l), USn(1218m), 및 ODB(1242)를 포함한다.
RRB(1216)는 서브슬롯 RRB1(1216a), RRB2(1216b), RRB3(1216c), RRB4(1216d), RRB5(1216e), RRB6(1216f), RRB7(1216g), RRB8(1216h)를 포함한다. RRB1(1216a)는 프리엠블(1234a), 가입자 ID(1234b), IP-플로우 식별자(1234c), QoS 데이터 클래스(1244a), IP-플로우 우선순위 및 타입(1244b), 및 CRC(cyclical redundancy check)를 포함한다.
CPE 스테이션(294)은, 미래의 업링크 전송 서브프레임 내의 대역폭에 대해 CPE 스테이션(294)에 의해 요구되는, 예약 요구를 수행하기 위해, RRB(1216)의 서브슬롯(RRB1(1216a), RRB2(1216b), RRB3(1216c), RRB4(1216d), RRB5(1216e), RRB6(1216f), RRB7(1216g), RRB8(1216h)) 중의 하나를 사용한다. 2개의 CPE 스테이션(294d, 294e)이 RRB(1216)내의 동일한 서브슬롯에 액세스를 시도하는 경우 - 이것은 의사 난수 생성기가 동일한 서브슬롯의 선택할 때에 발생할 수 있음 -, "충돌"이 발생하고, 데이터는 와이어리스 기지국(302)에서 판독할 수 없다. 2개의 CPE 스테이션(294d, 294e)은 다시 시도하도록 요구된다.
예약 요구 슬롯은 IP 플로우 기반으로 제공될 수 있다. 모든 CPE 스테이션에 예약 요구를 할당하는 대신에, 예약된 수(예, 5)가 경합 슬롯으로 이용가능하게 될 수 있다. 예약 요구 슬롯의 수보다 훨씬 많은 수의 요구 가입자에 의해 충돌이 검출되는 경우, 할당된 슬롯이 추가의 RRB 슬롯을 제공하기 위해 동적으로 변경될 수 있다. (충돌은, 이더넷 상의 충돌 장치가 임의 시간에 재시도함으로써 버스 아키텍처를 통해 재전송을 시도하는, 이더넷에서의 CSMA/CD 충돌과 유사하다.)
본 발명의 무선 경합 방법은, 1970년도 초반에 N.Abramson에 의해 개발된 "Aloha"방법이 상세화된, 소위 비트-매핑 예약 프로토콜로 일컬어지는, L.Roberts에 의해 1972년에 개발된 "Slotted Aloha" 방법의 관점으로 구성된다. Slotted Aloha 방법과 같이, 본 발명은, 모든 지점에 데이터 전송을 허용하는 대신에, 데이터 전송에 대해 분리된 슬롯을 제공한다. 그러나, 데이터의 실제 "페이로드"를 전송하는 대신에, 본 발명은 실제 데이터 페이로드 컨텐츠를 설명하는 "예약 요구"만을 유리하게 전송한다. 또한, 예약 요구에 대한 슬롯의 수는 최근에 검출된 충돌 횟수에 따라 동적으로 변경될 수 있다.
지속(persistent) 및 비-지속(non-persistent) 모두에 대해, 와이어리스에서 이전에 사용된 많은 CSMA(Carrier Sense Multiple Access) 기술과는 달리, 본 발명은 가입자 CPE 스테이션(294d)이 전송 전에 캐리어(무선 채널)를 "감지(sense)"하도록 요구되지 않는다. 대신에, 가입자 CPE 스테이션(294d)은, 사전의 캐리어 센싱없이, 의사 난수 선택을 통해 전송할 "서브슬롯"을 선택한다. 충돌이 검출되는 경우, 가입자 CPE 스테이션(294d)은 의사 난수 프로세스를 이용하여 다음의 프레임에서 다시 시도할 것이다.
일부 예약 프로토콜에서 사용되는 바와 같이, 경합의 해결을 위해 비트-맵 프로토콜을 사용하는 대신에, 와이어리스 기지국은 예약 요구를 명시적으로 승인할 수 있다. 표준 비트-맵 프로토콜은, 모든 스테이션(station)이 모든 다른 스테이션으로부터의 신호를 수신하여, 전송의 후속 순서가 결과로서 생성되는 비트-맵 패턴으로부터 판단될 수 있도록 요구할 수 있다. 본 방법은 다른 CPE 가입자 스테이션(294d)으로부터 예약 요구 신호의 수신을 필요로 하지 않는다. 가시선 및 거리 요건이 존재할 수 있는, 보다 높은 주파수(예로, 2GHz 내지 30GHz와 같은)에서, 다른 CPE 가입자 스테이션(294d)의 전송의 수신에 대한 요구는 CPE 가입자 스테이션의 위치 및 거리를 과도하게 구속할 수 있기 때문에. 이것이 유리하다.
유익하게, 와이어리스 기지국(302)이 요구된 예약을 명시적으로 승인하도록 함으로써, 상대적인 또는 동적인 CPE 가입자 스테이션(294d)(또는 IP-플로우) 우선순위 팩터와 같은 다른 팩터가 고려될 수 있다. 따라서, 동적으로 조정가능한 경합 서브슬롯수 및 명시적인 와이어리스 기지국 승인 본 발명의 승인을 이용하는 본 발명의 예약 프로토콜은, 모든 이전 방법에 비해, QoS 요건에 응답하는 대역폭의, 무선(radio)과 같은 와이어리스 할당을 제공하는 보다 선택적인 수단을 허용한다.
RRB1(1216a)은, 프리엠블(1234a), 가입자 IP(1234b), IP-플로우 식별자(1234c), QoS 데이터 클래스(1244d), IP-플로우 우선순위 및 타입(1244b), 및 CRC(1234e)를 포함한다. RRB(1216)의 서브슬롯 RRB1(1216a)에서, 프리엠블(1234a)은 링크 무결성 목적으로 사용되는 데이터를 포함하고, 가입자 ID(1234b)는 어떤 CPE 스테이션(294)이 예약 요구되었는지는 식별하고, IP-플로우 식별자(1234c)는 IP 데 이터 플로우를 식별하고, QoS 데이터 클래스(1244a)는, CPE 스테이션(294)이 알려져 있는 경우, IP 데이터 플로우의 우선순위 클래스를 식별하고, IP-플로우 우선순위 및 타입(1244b)는 새로운 IP 데이터 플로우의 지시자이고, CRC(1234e)는 서브슬롯 RRB1(1216a)에 대한 에러 체킹을 제공한다. 선택적으로, CPE 스테이션(294)이 그것의 IP 데이터 플로우를 전송하는 데이터 패킷의 수를 포함하는, 추가의 필드가 서브슬롯 RRB1(1216a)에 제공될 수 있다.
도12j는 업스트림 전송 서브프레임(1204)의 예시적인 DAB(1214)를 도시하고 있는데, 여기서, CPE는 베이스로부터의 슬롯의 수신에 응답한다. DAB은 다운스트림 슬롯이 이전 프레임에서 수신되었다는, 가입자 CPE 스테이션(294)으로부터 와이어리스 기지국으로의 긍정응답이다.
DAB(1214)는 서브슬롯 DAB1(1214a), DAB2(1214b), DAB3(1214c), DAB4(1214d), DAB5(1214e), DAB6(1214f), DAB7(1214g), DAB8(1214h)를 포함한다. 서브슬롯 DAB1(1214a)는 프리엠블(1234a), 가입자 IP(1234b), IP-플로우 식별자(1234c), QoS 데이터 클래스(1244d), IP-플로우 우선순위 및 타입(1244b), 및 CRC(1234e)를 포함한다. (이 필드들은 RRB에 관해 설명된 것과 동일한 정보를 가진다).
도12l은 예시적인 MAC PDU 업스트림 슬롯을 도시하고 있다. 도12l의 MAC PDU 업스트림 슬롯은 CPE 링크-리스트 시퀀스 번호(1246), 예약 요구 인덱스 번호(1238b), 압축된 IP-플로우 식별자(1238c), 압축된 IP-플로우 우선순위 및 타 입(1238d), 슬롯 페이로드(1238e), 및 CRC(1234e)를 포함한다. 업스트림 MAC PDU는 다운스트림 MAC PDU와 유사하지만, 업스트림 서브프레임 페이로드 정보가 대신 사용된다.
도12m, 12n 및 12o는 예시적인 ODB(1242)를 상세하게 도시하고 있다. 이 필드는 와이어리스 기지국(302)과 CPE 스테이션(294) 사이의 접속에 관한 정보를 저장하는데 사용된다. ODB(1242)는 프리엠블(1234a)(링크 무결성 데이터를 포함하는), 가입자 ID(1234b)(어떤 CPE 스테이션(294)이 예약 수신을 수행하였는지를 식별), 시스템 상태(1248a)(CPE 스테이션(294)의 상태에 관한 정보), 성능 데이터(1248b)(버퍼 통계량, CPE 프로세서 성능 통계량, 시스템 상태), 안테나 데이터(1248c)(안테나에 속하는 정보), CRC(1234e)(에러 체킹 정보), 및 동기 패턴(1248d)(에러 체킹 정보)을 포함한다.
도12m을 참조하면, 시스템 상태 서브세트(1248a)는 시스템 모드(1250a)(CPE 스테이션의 모드, 예로, 커맨드 모드, 동작 모드, 또는 시스템 초기화 모드), 시스템 상태(1250b)(CPE 스테이션의 상태), 시스템 자원(1250a)(CPE 스테이션의 모드), 시스템 전력(1250b)(CPE 스테이션의 모드), 시스템 온도(1250a)(CPE 스테이션의 온도)를 포함한다. CPE 스테이션(294)은 그들의 정보를 전송하기 위해 ODB(1242)를 이용하여 순번을 취하도록 요구된다.
도12n을 참조하면, 성능 데이터(1248a)는 ComRepeat 수(1252a)(통신 시도의 반복수), FrameSlip 수(1252b)(손실된 프레임 수), WaitState 인덱스(1252c)(대기 상태에 대한 인덱스)를 포함한다.
f. 클래스-기반 프레임 우선순위화( Prioritization )의 실시예
도13은 블록도(1300)로서, 본 발명에 대한 일 실시예의 플로우 스케줄러가 스케줄 생성물에 작용하는 방식이 도시되어 있다. 블록도(1300)는: 플로우 스케줄러(604, 634)(다운링크 스케줄러(604) 및 업링크 스케줄러(634)의 조합임), 다운링크 전달 서브프레임(1202)(즉, 다음의 MAC 다운스트림 서브프레임), 업링크 전달 서브프레임(1204)(즉, 현재의 MAC 업스트림 서브프레임)을 포함한다. 블록도(1300)는 또한 후술하는 복수개의 다운스트림 구성요소를 포함한다: 다운스트림 예약 선입선출 큐(1322), 클래스 1 다운스트림 큐(1302), 클래스 2 다운스트림 큐(1304), 및 클래스 3 다운스트림 큐(1306). 블록도(1300)는 또한 후술하는 복수개의 업스트림 예약 구성요소를 포함한다: 현재의 업스트림 서브프레임(1344)(현재의 업스트림 서브프레임(1204)과 저장되려 함), 복수개의 이전의 업스트림 서브프레임(1346, 1348, 1350), 클래스 1 업스트림 예약 요구 큐(1308), 클래스 2 업스트림 예약 요구 큐(1310) 및 클래스 3 업스트림 예약 요구 큐(1312).
다운링크 경로에 있어서, IP 플로우 QoS 클래스 큐잉 프로세서(도15a 및 15b에 관하여 후술됨)는 복수개의 수신 데이터 패킷을 복수개의 클래스 1 패킷 플로우 큐(1324, 1326 및 1328), 복수개의 클래스 2 패킷 플로우 큐(1330, 1332 및 1334) 및 복수개의 클래스 3 패킷 플로우 큐(1336, 1338, 1340 및 1342)로 큐잉한다.
계층 클래스 기반 우선순위 프로세서로부터의 입력에 기초하여, VPN(Virtual Private Network) DEN(Directory Enabled) 데이터 테이블 및 SLA(Service Level Agreement) 우선순위 데이터 테이블(도15a 및 15b에 관하여 후술됨), 클래스 1, 클래스 2 및 클래스 3 패킷 플로우 큐는 클래스 1 다운스트림 큐(1302), 클래스 2 다운스트림 큐(1304) 및 클래스 3 다운스트림 큐(1306)에 각각 할당된다. 플로우 스케줄러(604, 634)는 이 복수개의 다운링크 데이터 패킷을 다운링크 전달 서브프레임(1202)에 배정한다.
일 실시예에 있어서, 부가적인 과정을 이용하여 지연 및 지터(jitter)를 감소시킨다. 예를 들어, 클래스 1 패킷 플로우 큐(1324)의 데이터 패킷이 지터-프리(jitter-free) 및 무지연 전송을 요구한다고 가정하면, 즉, 복수개의 패킷의 전송은 일정한 시간 간격을 갖고, 실시간으로 이루어져야 한다. 패킷 플로우 큐(1324)는 일 예로, 이후의 프레임 내에, 4개의 동일한 시간 스페이스 슬롯 예약을 하는데, 이는 클래스 1 다운스트림 큐(1302) 및 도14에 관하여 후술하는 바와 같다. 복수개의 예약은 다운스트림 예약 선입선출 큐(1322)에 피딩되고(fed), 플로우 스케줄러(604, 634)에 의해 이후의 다운스트림 프레임(1202) 상에 배정된다.
업링크 경로에 있어서, 예약은 복수개의 이후의 업스트림 슬롯이 와이어리스 기지국(302)에 와이어리스 매체를 통하여 복수개의 CPE 가입자 스테이션(294)로부터 수신한 현재의 업스트림 서브프레임(1204)의 일부로써 도달하도록 요구한다. 현재의 업스트림 서브프레임(1344)은 상술한 도8b의 설명에 대한 복수개의 업링크 패킷의 분석 및 배정을 위한 복수개의 예약 요구를 주기적으로 저장한다. 복수개의 이전의 업스트림 서브프레임(1346, 1348, 1350)은 복수개의 이후의 업스트림 서브프레임(1204) 내에 복수개의 업스트림 프레임 슬롯 배치를 대기하는 복수개의 업스 트림 예약 요구를 포함한다. RRBs(Reservation request blocks)는, 도12a 내지 도 12o를 참조하여 후술하는데, IP 플로우 식별자# 및 플로우의 클래스를 갖는 싱글 IP 플로우에 관한 몇 개의 슬롯에 대한 요구를 포함한다. 복수개의 업스트림 예약 요구(IP 플로우 및 클래스에 의한)는 클래스 1 업스트림 예약 요구 큐(1308), 클래스 2 업스트림 예약 요구 큐(1310) 및 클래스 3 업스트림 예약 요구 큐(1312) 상에 IP 플로우 QoS 클래스 큐잉 프로세서(도16a 및 16b에 관하여 후술됨)에 의해 큐잉된다. 플로우 스케줄러(604, 1566, 634 및 1666)는 이 복수개의 다운스트림 예약 및 복수개의 업스트림 예약 요구를 이용하여, 슬롯을 다음의 다운스트림 전달 서브프레임(1202) 및 업스트림 전달 서브프레임(1204) 내의 복수개의 데이터 패킷에 각각 할당한다.
도14는 진보형 예약 알고리즘의 실시예의 2차원 블록도(1400)이다. 도14는 MAC 서브프레임 스케줄러(1566, 1666), 현재의 프레임(n 1402)과 복수개의 이후의 프레임(n+1 1404, n+2 1406, n+3 1408, n+4 1410, n+5 1412, n+6 1414...n+x 1416)의 복수개의 프레임을 포함하는데, 각각의 프레임은 n, n+1, n+2...n+x 시간에 전달되는 복수개의 데이터 패킷의 프레임을 나타낸다. 각 프레임은 가변 길이 다운링크 서브프레임(1202) 및 가변 길이 업링크 서브프레임(1204)으로 분할된다. 다운링크 프레임(1202) 및 업링크 서브프레임(1204)의 길이는 함께 총 프레임의 길이를 이룬다.
각 프레임(n 1402)은 몇 개의 슬롯(1418-1478)을 포함한다. 복수개의 슬롯(1418-1446)은 다운링크 서브프레임(1202)을 구성하고, 복수개의 슬롯(1448- 1478)은 업링크 서브프레임(1204)을 구성한다. 일 실시예에 있어서, 복수개의 슬롯은 길이가 고정되는데, 각 슬롯은 하나의 데이터 패킷을 저장할 수 있다. 프레임 내의 프레임 슬롯의 총수는 항상 일정하다. 예를 들어, 주어진 프레임이 64개의 프레임 슬롯을 포함한다면, 상기 복수개의 슬롯은 동적으로 업링크 또는 다운링크 방향으로 배치될 수 있는데, 예를 들어 32개는 업 32개는 다운, 64개는 업 0개는 다운, 0개는 업 64개는 다운과 같이 배치된다. 블록도(1400)는 각 슬롯이 예를 들어 0.01ms와 같은 시간 값(즉, 슬롯-슬롯 사이의 시간 간격)을 갖고 각 프레임이 예를 들어 0.5ms와 같은 총 프레임 간격 시간 값(즉, 프레임-프레임 사이의 시간 간격)을 갖는 2차원 매트릭스로 가정할 수 있다.
본 발명에 있어서, 진보형 예약 알고리즘은 복수개의 이후의 슬롯을 복수개의 데이터 패킷에 패킷에 관한 IP 데이터 플로우의 우선순위에 기초하여 할당한다. 일례의 우선순위는 도8a 및 8b에 관해 상술한다. 시간-민감형 호출을 의미하는, 지터-민감형 호출에 대해, 동상(isochronous)(즉, 시간에 대한 위상에 있어서) 접속을 유지하는 것이 중요하다. 이러한 복수개의 신호에서, 데이터가 프레임 사이의 동일한 슬롯 내에, 혹은 프레임 사이에 주기적인 변화를 갖는 복수개의 슬롯 내에 분산되는 것이 중요하다. 예를 들어, 수직 예약(1480)은 각 프레임 내에서 다운링크 통신을 위한 동일한 슬롯에서 수신한 지터 민감성 신호를 나타낸다. 특히, 상기 신호는 복수개의 프레임(1402-1416) 내의 슬롯(1422)에 할당된다. 만약 프레임-프레임 간격이 0.5ms이면, 하나의 슬롯은 0.5ms 마다 IP 플로우를 제공할 것이다. 다른 일례와 같이, 대각선 예약(1482)은 순차적인 복수개의 프레임 사이의 한 주기씩 상이한 슬롯에서 수신한 지터-민감형 신호를 나타낸다. 특히, 상기 신호는, 프레임(1402) 내 슬롯(1440), 프레임(1404) 내 슬롯(1438),...프레임(1416) 내 슬롯(1426)에 할당되어 "대각선"을 생성한다. 만약 프레임-프레임 간격이 0.5ms이고 슬롯-슬롯 간격이 0.01ms이면, 하나의 슬롯은 매 0.5-0.01=0.49ms 마다 IP 플로우를 제공한다. 그러므로, 프레임 간격을 감소시키기 위하여, 양의 경사를 갖는 대각선 예약을 이용할 수 있다. 증가된 프레임 간격을 얻기 위해서는, 음의 경사를 갖는 대각선 예약, 예를 들어 음의 경사 대각선 업링크 예약(1486)을 한다. 대각선 예약(1482)은 또한 더 변화할 수도 있는데(즉, 가파른 또는 완만한 경사를 이용하여), 이는 바람직한 순차적 프레임 사이의 간격에 의존한다. 예약 패턴(1480, 1482, 1484 및 1486)은 지터-민감형 통신을 위한 유용한 패턴이다. 또한, 상술한 수직 예약(1486)은, 수직 예약(1480)과 유사하게, 업링크 방향으로의 지터-민감형 통신을 위해 유용하다.
지연-민감성에 관해서는, 하나 이상의 슬롯이 각 프레임에 보장될 수 있다. 예를 들어, 지연에 민감하나 지터에는 민감하지 않은 호출에 대하여, 각 프레임은 하나 이상의 슬롯을 통신을 위해 할당할 수 있다. 그러나, (복수개의) 슬롯은 지터-민감형 호출에서와는 달리, 프레임 사이가 주기적일 필요는 없다. 하나의 IP 플로우에 할당된 프레임당 슬롯의 수가 많을수록, IP 플로우에 대한 프레임 레이트 당 총 대역폭은 커진다.
지연에 덜 민감한 호출에 대해서는, 통신을 위하여 더 적은 수의 프레임당 슬롯이 할당되어도 좋다. 예를 들어, 지연에 덜 민감한 통신은 네 개의 프레임 마 다 하나의 슬롯이 보장된 대역폭을 수신할 수 있다. 지연에 좀더 덜 민감한 호출은, 예를 들어 매 열 개의 프레임당 하나의 슬롯을 수신할 수 있다.
이 원리를 이용하여, 진보형 예약 알고리즘은 슬롯을 최고 우선순위에서 최저 우선순위까지 할당될 수 있는데, 이 때, 이후의 복수개의 프레임 내에서 이용가능한 슬롯을 소진한다. 지터 및 지연에 모두 민감한 IP 데이터 플로우는 슬롯이 먼저 주기적으로 할당되고(예를 들어, 1480, 1482, 1484 및 1486의 패턴으로), 지연에 매우 민감한(그러나 지터에는 민감하지 않은) 플로우 등이 뒤따르고, 최종적으로 가장 지연에 민감하지 않은 플로우가 슬롯에 할당된다. 복수개의 IP 플로우의 다른 복수개의 클래스의 스케줄러(604, 634, 1566, 1666)에 의한 우선순위화는 도15a, 15b, 16a 및 16b를 참조하여 이하에 더 설명한다.
g. 다운링크 서브프레임 우선순위화
1. 개요
도15a 및 15b는 다운링크 방향에 대한 공유(shared) 와이어리스 대역폭의 분석 및 배정을 위한 로직 플로우 다이어그램의 예시도이다. 로직 플로우는, 와이어리스 기지국(302)에서, 와이어리스 매체를 통한 가입자 CPE 스테이션(294d)까지의 전달에 대해, 데이터 네트워크(140)에서 도착한 IP 플로우에 맞는 형식으로 된다. 도15a는 다운링크 IP 분석기(602)에 대한 로직 플로우 다이어그램(1500)의 예시도이다. 도15b는 다운링크 플로우 스케줄러(604)에 대한 로직 플로우 다이어그램(1560)의 예시도이다.
도15a 및 15b의 기능적 구성요소는 방법 모듈의 방식으로 설명되는데, 이는 물리적 유닛(예를 들어, 소프트웨어, 하드웨어 또는 그의 조합) 또는 논리 장치(예를 들어, 설명의 목적으로만 사용되는 것)로 볼 수도 있다. 당업자는 상기 복수개의 모듈이 실시예를 설명하기 위해서만 이용되고 그에 한정되지 않는다는 것을 주지할 것이다.
도15a의 다운링크 IP 플로우 분석기에 관한 로직 플로우 다이어그램(1500)의 예시도는 패킷 헤더 식별 구성요소(1502), 패킷 특성 구성요소(1504), 패킷 분류 구성요소(1506) 및 IP 플로우 표현 구성요소(1508)를 포함한다. 이들 구성요소의 기능은 이하에 상술한다.
일 실시예에 있어서, 다운링크 IP 플로우 분석기(602)는 물리적으로 와이어리스 기지국(302) 내에 위치하지만, 당업자에게는 와이어리스 기지국(302)에서 떨어져서 위치해 있어도 기능적으로 동일하다는 것이 알려져 있다.
도2d, 3a 및 3b는 독자가 다운링크 IP 플로우 분석기를 이해하는 데에 도움을 준다.
2. 서론
IP 플로우 분석기(602)는 복수개의 데이터 패킷을 다운링크 프레임 스케줄러(504)로 식별하고, 특징화하고, 분류 및 나타내는 기능을 수행한다. 데이터 패킷을 식별하고, 특징화하고, 분류 및 나타내는 기능은 각각 다운링크 IP 플로우 분석기(602)의 패킷 헤더 식별 구성요소(1502), 패킷 특징화 구성요소(1504), 패킷 분 류 구성요소(1506) 및 IP 플로우 표현 구성요소(1508)에 의해 수행된다.
패킷 헤더 식별 구성요소(1502)는 인커밍 IP 데이터 플로우의 데이터 패킷이 IP 플로우의 일부인지, 혹은 신규의 IP 데이터 플로우의 제1 데이터 패킷인지를, 패킷 헤더 섹션의 필드의 내용에 기초하여 결정한다. 패킷 헤더 식별 구성요소(1502) 또한, 예를 들어 패킷 헤더 필드 내용을 이용하여 패킷의 소스를 식별한다. 패킷 특징화 구성요소(1504)는 (신규의 IP 데이터 플로우의) 신규의 데이터 패킷을 특징화하여, IP 데이터 플로우를 위한 복수개의 QoS 요구를 결정하고, IP 데이터 플로우를 수신할 가입자 워크스테이션에 관련하여 가입자 CPE 스테이션을 식별한다. 패킷 분류 구성요소(1506)는 신규의 IP 데이터 플로우를 통신 우선순위 클래스로 분류하여, 유사한 타입의 IP 플로우끼리 패킷을 그룹화한다. IP 데이터 플로우 표현(1508)은 신규의 IP 데이터 플로우를 개시하고, 그것을 다운링크 플로우 스케줄러(604)에 나타낸다.
다운링크 플로우 스케줄러(604)는 IP 데이터 플로우의 복수개의 데이터 패킷을 한 클래스 큐에 위치시키고, 룰의 세트에 기초하여, 와이어리스 매체를 통해 가입자 CPE 스테이션으로의 전달을 위한 데이터 패킷을 배정하는데, 예를 들어, 진보형 예약 알고리즘을 이용한다. 룰들은 계층 클래스 기반 우선순위 프로세서 모듈(1574), VPN DEN 데이터 테이블(1572) 및 SLA 우선순위 데이터 테이블(1570)로부터 다운링크 플로우 스케줄러로의 입력에 의해 결정될 수 있다.
진보형 예약 알고리즘은 도14에 관하여 상기에 부가하여 설명된다.
3. 식별
패킷 헤더 식별 구성요소(1502)는 패킷 데이터에 기초하여 데이터 인터페이스(320)에서 데이터 네트워크(142)로부터 수신한 IP 플로우를 식별한다.
데이터 네트워크(142)로부터의 IP 플로우 패킷 스트림은, 다양한 IP 플로우(여기서 각 IP 플로우는 하나의 데이터 "호출"에 관한 것임)로부터의 패킷을 포함하고, 패킷 헤더 식별 구성요소(1502)에서 수신된다. IP 플로우는 디지털 정보의 어떤 형태, 예를 들어 패킷화된 음성, 영상, 음성, 데이터, 복수개의 IP 플로우, 복수개의 VPN 플로우 및 실시간 플로우를 포함하는 패킷화된 데이터를 포함할 수 있다. IP 플로우는 데이터 네트워크(142)를 통해, 예를 들어, 호스트 워크스테이션(136d)으로부터 전달되고, 와이어리스 기지국(320)의 인터페이스(302)에서 도착한다. 인터페이스(302)는 IP 플로우의 패킷을 패킷 헤더 식별 구성요소(1502)로 전달한다. 모듈(1510)에서, 수신된 패킷은 저장 영역으로 버퍼링된다. 모듈(1520)에서, 패킷 헤더 필드의 내용이 추출되고 파싱된다(parsed).
시스템에 알려진 복수개의 IP 플로우, 소위 "현재의 IP 플로우"에 대하여, 테이블 1526 내에 복수개의 엔트리가 있다. 만약 현재의 특징화 IP 데이터 호출이 있으면, IP 플로우는 시스템 내에 있다. 모듈(1522) 내에서, 현재의 IP 플로우 식별 테이블(1526)내의 하나의 엔트리에 입력된 패킷과 현재의 IP 플로우 호출 사이에 매치가 있는지가 결정된다. 만약 그러하면, IP 플로우는 시스템에 알려져 있고, 패킷 특징화 구성요소(1504)의 모듈(1530)로 경로를 제어한다.
그렇지 않으면, IP 플로우는 신규의 데이터 플로우를 의미하고, 이후에 모 듈(1524)로 경로를 제어하는데, 여기서 패킷 헤더 필드가 분석된다. 모듈(1524)은 패킷 헤더 소스 필드를 분석하고, 소스 애플리케이션 패킷 데이터 테이블(1528)로부터 소스 애플리케이션의 타입을 결정하여, 데이터 호출을 생성하거나 IP 패킷을 전달한다. 애플리케이션은 도2d에 관해 설명한 복수개의 애플리케이션 중 어느 것 또는 당업자에게 알려진 것이 될 수 있다. 일례들은 다른 클라이언트 워크스테이션(138f)으로부터의 FTP(File Transfer Protocol)다운로드, IP 음성 전화 호출(전화 게이트웨이(288b)를 통함), 호출기(124d)(모뎀을 통해 연결됨)로부터의 음성 전화 호출, 호스트 워크스테이션(136a)에 장착된 LAN(128a)으로부터의 이메일, 팩스 기계 호출 및 다중 호출기(124d 및 126d)(모뎀을 통해 연결됨)로부터의 컨퍼런스 호출 등을 포함한다. 만약 IP 플로우가 시스템에 알려져 있지 않으면, IP 플로우는 IP 플로우 식별 번호를 받고, 모듈(1526)로의 경로를 제어하는데, 여기서 IP 플로우 식별 번호는 현재의 IP 플로우 식별 테이블(1526)에 더해진다.
일단 타입 소스 애플리케이션이 패킷 헤더 정보에 의해, 또는 직접 애플리케이션 식별과 같은 다른 수단에 의해 결정되면, 패킷 특징화 구성요소(1504)의 모듈(1524)로부터 모듈(1532)로 경로를 제어한다. IP 플로우의 소스 애플리케이션의 타입을 식별하기 위하여, TOS(Type Of Service) 또는 DiffServ(Differentiated Service) 필드가 또한 분석될 수 있다.
4. 특징화
패킷 특징화 구성요소(1504)는 신규의 복수개의 IP 플로우를 특징화하고, 그 들을 분류를 위해 패킷 분류 구성요소(1506)로 통과시킨다.
현재의 IP 플로우에 대하여, 패킷 헤더 식별 구성요소(1502)의 모듈(1522)로부터 모듈(1530)로 경로를 제어한다. 만약 모듈(1522) 내에서, IP 데이터 플로우가 시스템에 알려져 있다고 결정하면, 모듈(1530) 내에서, 패킷이 오래되었는지(즉, 스태일(stale)한지)를 결정한다. 이것은 예를 들어, TTL 필드(IP 패킷 헤더 내의 필드)로부터 결정하는 과정 및 필드를 문턱 연령치와 비교하는 과정을 포함할 수 있다. 패킷이 오래된 것으로 결정되면, 그것은 버릴 수 있다. 패킷의 연령에 기초하여, 클라이언트 애플리케이션 폐기(discards)가 미리 일어날 수 있다. 그 밖에, 패킷 분류 구성요소(1506)의 모듈(1540)로 통과하도록 제어할 수 있다.
신규의 IP 플로우에 대하여, 패킷 헤더 식별 구성요소(1502)의 모듈(1524)로부터 모듈(1532)로 경로를 제어한다. 모듈(1524) 내에서 IP 플로우가 시스템에 알려지지 않은 것으로 결정되면, 모듈(1532) 내에서 애플리케이션에 대한 QoS 요구가 결정되는데, 이 때 복수개의 모듈(1524 및 1528) 내에서 식별된 소스 애플리케이션 정보를 이용한다. 모듈(1532)은 QoS 요구 테이블(1534) 내에서 식별된 소스 애플리케이션에 대한 QoS 요구를 찾아냄으로써 이 동작을 수행한다. 다른 복수개의 애플리케이션들은 적합한 단말-사용자 익스피리언스를 제공하기 위하여 다른 QoS 요구를 갖는다. 예를 들면, 대역폭 할당(즉, 대역폭의 적당한 양을 할당하는 것)은 FTP 파일 전송 다운로드를 수행하는 애플리케이션에게 중요한데, 여기서 지터(즉, 수신 데이터가 시간적으로 동기화됨) 및 지연(응답 사이의 시간 경과의 양)은 중요하지 않다. 반면에, 음성 전화 및 컨퍼런스 호출에는 지터 및 지연이 중요하지만, 대역 폭 할당은 중요하지 않다.
모듈(1532)에 의한 처리 후에, 모듈(1536) 내에서, 가입자 CPE IP 주소 테이블(1538)에서 찾은 데스티네이션 CPE 가입자 스테이션 ID는, IP 플로우를 위해 수행된다. 각 가입자 CPE 스테이션(294d)은 하나 이상의 애플리케이션을 가질 수 있는데, 하나 이상의 가입자 워크스테이션(120d) 상에서 구동하고, 각 가입자 CPE 스테이션(294d)에 다시 호밍한다(homed). 이에 관하여, IP 플로우는 하나 이상의 CPE 스테이션(294d)의 하나 이상의 가입자 워크스테이션 상에서 하나 이상의 애플리케이션을 가리킬 수 있다. 가입자 워크스테이션은 가입자 CPE 스테이션(294d)에 연결된 어떤 장치일 수 있다. 모듈(1536)은 테이블(1538)에서 IP 플로우를 찾아, 가입자 CPE 스테이션(294d)의 식별자를 결정하고, 이는 데이터 네트워크(142)로부터 복수개의 신규의 IP 플로우의 패킷을 수신할 것이다. 이후에 패킷 분류 구성요소(1506)의 모듈(1536)로부터 모듈(1542)로의 경로를 제어한다.
5. 분류
패킷 분류 구성요소(1506)는 IP 플로우를 분류하고, 표현을 위해 이를 플로우 표현 구성요소(1508)로 통과시킨다.
현재의 IP 플로우에 대하여, 패킷 특징화 구성요소(1504)의 모듈(1530)로부터 모듈(1540)로의 경로를 제어한다. 만약 모듈(1530) 내에서, 패킷이 오래되지 않았다고 결정되면, 모듈(1540) 내에서 패킷은 그 현재의 IP 플로우에 관한 것이다. 도15a에 도시된 바와 같이, 본원에 처리된 패킷은 시스템에 알려진 IP 플로우의 부 분으로 결정된다. 그러므로, 모듈(1532, 1536 및 1542)의 QoS 처리는 불필요한데, 이는 본 패킷의 복수개의 QoS 요구가 그 IP 플로우에 대한 것과 동일한 것으로 가정되기 때문이다. 다른 실시예에 있어서, 모든 패킷은 특징화되고 분류된다. 모듈(1540)로부터, 제어는 IP 플로우 표현(1508)의 모듈(1546)로 계속될 수 있다.
신규의 IP 플로우에 대하여, 패킷 특징화 구성요소(1504)의 모듈(1536)로부터 모듈(1542)로 경로를 제어한다. 모듈(1542) 내에서, 패킷은 QoS 클래스로 분류되는데, 이는 IP 플로우 QoS 클래스 테이블 모듈(1544)로 테이블 룩업을 수행함으로써 이루어지고, 여기서 QoS 클래스의 타입은 패킷의 QoS 요구에 따라 저장된다. 유사한 복수개의 IP 플로우(즉, 유사한 복수개의 QoS 요구를 갖는 복수개의 IP 플로우)는 모듈(1542) 내에서 그룹화 된다. 복수개의 패킷 및 복수개의 IP 플로우를 분류하는데 있어서, QoS 클래스 그룹화, 어떤 DiffServ 우선순위 생성, 및 어떤 TOS 우선순위 생성은 고려될 수 있다. 모듈(1542)로부터, IP 플로우 표현 구성요소(1508)의 모듈(1548)로 경로를 제어한다.
6. IP 플로우 표현
IP 플로우 표현 구성요소(1508)는 복수개의 IP 플로우 패킷을 다운링크 플로우 스케줄러(604)로 준비하고 나타낸다.
현재의 IP 플로우에 대하여, 패킷 분류 구성요소(1540)의 모듈(1540)로부터 모듈(1546)로의 경로를 제어한다. 모듈(1546) 내에서, 패킷은 관련된 현재의 IP 플로우 큐에 더해지는데, 이는 현재의 IP 플로우를 위한 큐이다. 모듈(1546)로부터, 다운링크 플로우 스케줄러(604)의 IP 플로우 QoS 클래스 큐잉 프로세서 모듈(1562)로 경로를 제어한다.
신규의 IP 플로우에 대하여, 패킷 분류 구성요소(1506)의 모듈(1542)로부터 모듈(1548)로 경로를 제어한다. 모듈(1548) 내에서, 이 신규의 IP 플로우는 표현을 위해 모듈(1552)로 개시될 수 있다. 모듈(1550) 내에서, IP 플로우 QoS 클래스는 프레임 스케줄러(604)에 나타나고, 적합한 클래스 큐 내에 위치하게 된다. 모듈(1552)은 IP 플로우(특히, 데이터 패킷) 및 IP 플로우 식별자를 다운링크 플로우 스케줄러(604)의 IP 플로우 QoS 클래스 큐잉 프로세서 모듈(1562)에 나타나게 한다.
7. 다운링크 플로우 스케줄러
도15b의 다운링크 플로우 스케줄러(604)에 대한 로직 플로우 다이어그램(1560)의 예시도는 IP 플로우 QoS 큐잉 프로세서 모듈(1562), MAC 다운링크 서브프레임 스케줄러 모듈(1566), 계층 클래스 기반 우선순위 프로세서 모듈(1574), VPN DEN 데이터 테이블 모듈(1572), SLA 우선순위 데이터 테이블(1570), CPE IP 플로우 큐 깊이 상태 프로세서(1582) 및 링크 계층 승인 프로세서 모듈(1578)을 포함한다.
도15b의 다운링크 플로우 스케줄러(604)는 또한 후술하는 QoS 클래스 큐를 포함한다: 클래스 1, 1564a; 클래스 2, 1564b; 클래스 3, 1564c; 클래스 4, 1564d; 클래스 5, 1564e; 클래스 6, 1564f; 및 복수개의 MAC 다운링크 서브프레임: 프레임 n, 1568a; 프레임 n+1, 1569b; 프레임 n+2, 1568c; 프레임 n+3, 1568d;...프레임 n+p, 1569k.
일 실시예에 있어서, 다운링크 플로우 스케줄러(604)는 물리적으로 와이어리스 기지국(302)에 위치하나, 당업자는 동일한 기능을 갖는 것이 와이어리스 기지국(302)에서 떨어져서 위치할 수 있음을 인지할 것이다.
다운링크 플로우 스케줄러(604)는 다운링크 서브프레임을 배정하는 데에 이용된다. 총 프레임은 복수개의 업링크 프레임을 전달하기 위한 업링크 부분(업링크 서브프레임이라 칭함), 및 복수개의 다운링크 프레임을 전달하기 위한 다운링크 부분(다운링크 서브프레임이라 칭함)으로 분할될 수 있다.
또한, 도15b에 도시된 것은 WAP 안테나, 와이어리스 매체(290d), RF 송수신 가입자 안테나(292d), 가입자 CPE 스테이션(294d) 및 가입자 워크스테이션(120d)이다. WAP 안테나(290d) 및 RF 송수신 가입자 안테나(292d)는 각각 와이어리스 기지국(302)(여기서 다운링크 플로우 스케줄러(604) 일 실시예로 갖추어짐)과 가입자 CPE 스테이션(294d) 사이에 와이어리스 접속을 제공하는데, 이로써, IP 플로우를 가입자 워크스테이션(120d)를 구동하는 애플리케이션으로 전송할 수 있다. WAP 안테나(290d)는 데이터 네트워크(142)를 위한 와이어리스 게이트웨이의 역할을 하고, RF 송수신 가입자 안테나는 가입자 CPE 스테이션(294d)을 위한 와이어리스 게이트웨이의 역할을 한다. 접속은 또한 도2d 및 3b에 도시되어 있다. IP 플로우 QoS 클래스 큐잉 프로세서 모듈(1562)은 IP 플로우 표현 구성요소(1508)로부터 복수개의 패킷을 받는다. 이후에 모듈(1562)은 복수개의 클래스 큐(1564a-1564f)를 생성하는 데, 이는 가변 수의 큐이고, 복수개의 패킷이 이들 클래스 큐 내에 위치한다. 어떻게 복수개의 패킷이 복수개의 클래스 큐(1564a-1564f)에 위치될 지는 모듈(1562)로의 입력에 의해 결정된다.
모듈(1562)은 계층 클래스 기반 우선순위 프로세서 모듈(1574), VPN DEN 데이터 테이블(1572) 및 SLA 우선순위 데이터 테이블(1570)으로부터 복수개의 입력을 수신할 수 있다. 모듈(1562)의 큐잉 기능은 이들 입력에 기초할 수 있다.
SLA 우선순위 데이터 테이블(1570)은 소정의 SLA를 이용하여 특정한 사용자들이 큐잉 기능에 영향을 주도록 할 수 있다. 사용자는, 예를 들어, 고품격 서비스를 받기 위해 부가적인 비용을 지불함으로써 더 높은 품질의 통신 서비스를 제공받을 수 있다. 모듈(1562)을 구동하는 알고리즘은 이러한 사용자들에게 전송되는 메시지의 큐잉 우선순위를 증가시킬 수 있다.
VPN DEN 데이터 테이블(1572) VPN 기능을 위해 비용을 지불한 단체를 위한 VPN에 대한 소정의 품질의 서비스를 위해 우선순위화를 제공할 수 있다. VPN은 당업자에게 개인 네트워크로 알려져 있는데, 네트워크 상에서 대역폭의 보장된 배정을 포함하고, 통신 서비스 제공자에 의해 제공된다. VPN DEN 데이터 테이블(1572)은 모듈(1562)이 사용자-구매 VPN을 위한 높은 품질의 서비스를 제공하도록 한다. SLA 우선순위 데이터 테이블(1570)에 있어서도, 큐잉 우선순위는 이러한 복수개의 VPN을 위해 증가될 수 있다. 예를 들면, 플레티넘 레벨 VPN의 복수개의 최저 우선순위 IP 플로우 클래스는 또한 높은 우선순위 브레스 레벨 VPN보다 더 높은 우선순위가 부여될 수 있었다.
SLA 우선순위 데이터 테이블(1570) 및 VPN DEN 데이터 테이블(1572)은 모두 OAM&P(Operation, Administration, maintenance and provisioning) 모듈(1108)로부터 입력을 수신한다. 이것은 오프라인을 유지하는 모듈로, 신규의 사용자들에 관한 관리 정보의 저장 및 개정, 또는 현재의 사용자들에 관한 정보의 갱신을 포함한다. 예를 들면, 사용자들의 SLA 우선순위 및 VPN 정보는 OAM&P 모듈(1108)로부터 갱신된다.
계층 클래스 기반 우선순위 프로세서 모듈(1574)은 계층 클래스 기반 큐잉의 원리 하에서 동작하는 모듈이다. 계층 클래스 기반 큐잉은 Sally Floyd 및 Van Jacobson에 의해 탄생된 것으로, 인터넷의 초기 구조로 여겨진다.
계층 클래스 기반 큐잉은 복수개의 에지 액세스 장치 라우터에서 다른 타입의 IP 플로우를 트리 구조를 사용하여 분류한다. 트리의 각 가지는 복수개의 IP 플로우의 다른 클래스를 나타내고, 각 클래스는 우선순위화 한정 양의 대역폭에 부여된다. 이러한 방식으로, 복수개의 플로우의 다른 클래스가 최소 대역폭을 보장받고, 이로써, 클래스 내의 어느 IP 데이터 플로우, 및 복수개의 IP 플로우의 어느 클래스도 모든 가용 대역폭을 독점할 수 없다. 본 발명은 우선화 특성을 부가하여, 클래스 기반 우선순위 예약이 계층 클래스 큐 개념을 이용하여 이루어지도록 하는데, 이는 도13 및 14에 관하여 설명한 바와 같다.
MAC 다운링크 서브프레임 스케줄러(1566)는 복수개의 패킷을 복수개의 클래스 큐(1564a-1564f)로 큐잉하는 프로세서 모듈이고, 복수개의 프레임 슬롯 예약이 복수개의 우선순위(1570, 1572 및 1574)에 기초하여 복수개의 서브프레임(1568a- 1568k)을 채우도록 할 수 있는데, 프레임의 개수는 가변적이다. 일 실시예에 있어서, 각 서브프레임은 복수개의 우선순위(1570, 1572 및 1574)에 따라 복수개의 각 클래스(1564a-1564f)로부터 소정의 수의 패킷까지 배정된다(채워진다). 다른 실시예에 있어서, 복수개의 서브프레임은 도13 및 14에 관하여 기술된 본 발명의 진보형 예약 알고리즘 방법에 따라 배정된다. 또 다른 실시예에 있어서, 복수개의 서브프레임은 공지된 복수개의 방법 및 본 발명의 진보형 예약 알고리즘 방법의 조합에 따라 배정된다.
복수개의 서브프레임은 이후에 와이어리스 매체를 통한 CPE 스테이션(294d)에 연결된 RF 송수신 가입자 안테나(292d)로의 와이어리스 전송을 위해 WAP 안테나(290d)로 보낼 수 있는데, 이때, CPE 가입자 로케이션(306d)에서 복수개의 서브프레임 내에 채워진 복수개의 패킷을 가입자 워크스테이션(120d)으로 보낼 수 있다. 복수개의 서브프레임은 최고 우선순위부터 최저 우선순위까지 배정될 수 있다.
HCBP(Hierarchical class-based priority) 프로세서 모듈(1574)은 입력으로 WAP 안테나(290d)로부터 배정되고 전송된 복수개의 서브프레임을 수신한다. 복수개의 패킷의 상태를 아는 채로 유지함으로써(즉, 복수개의 패킷이 보내진 것을 주지함으로써), HCBP 프로세서 모듈(1574)은 어느 클래스 큐로(1564a-1564f)부터 어느 패킷이 아직 배정되지 않았는지를 주지한다.
때때로, 패킷을 잃어버리는 데, 이것이 노이즈이다. 이러한 상황이 발생하면, 가입자 CPE 스테이션(294d)은 재전송 요구(1576)를 WAP(290d)으로 보내고, 요구를 ARQ(link layer acknowledgment) 프로세서(1578)로 전송한다. ARQ 프로세 서(1578)는 MAC 다운링크 서브프레임 스케줄러(1566)에게 이 상황을 알리고, 이후에, 재전송을 위해 복수개의 적합한 클래스 큐(1564a-1564f)로부터 복수개의 요구된 패킷을 재배정한다. ARQ 프로세서(1578)는 또한 가입자 CPE 스테이션(294d)으로부터의 긍정 응답을 기다리고, 이로써, 복수개의 데이터 패킷이 정확히 수신되었는지를 결정한다. 긍정 수신 응답을 수신한 후에야 MAC 다운링크 서브프레임 스케줄러(1566)는 패킷을 복수개의 클래스 큐(1564a-1564f)에서 제거한다.
각 가입자 CPE 스테이션(294d)은 IP 플로우 내의 복수개의 데이터 패킷을 수신하기 위한 한정된 양의 메모리를 갖는다. 예를 들어, 가입자 CPE 스테이션(294d)에 연결된 복수개의 장치(예를 들어, 가입자 워크스테이션(120d))가 복수개의 IP 데이터 플로우의 수신을 정지하면(예를 들어, 가입자 워크스테이션(120d)이 다운되면), CPE 가입자 스테이션(294d) 내의 복수개의 CPE 데이터 패킷 큐는 빠르게 채워진다. 이러한 경우에는, CPE 가입자 스테이션(294d)은 큐가 채워졌다는 것을 표시하는 CPE IP 플로우 큐 깊이 메시지(1580)를 전송하고, 이는 CPE IP 플로우 큐 깊이 상태 프로세서(1582)에 의해 수신된다. CPE 큐 깊이 프로세서(1582)는 MAC 다운링크 서브프레임 스케줄러(1566)에 이 상황을 알리고, 가입자 CPE 스테이션(294d)으로 향하는 복수개의 다운링크 서브프레임을 배정하는 것을 정지한다. 프로세서(1582)는 또한 메시지를 MAC 다운링크 서브프레임 스케줄러(1566)에 보내어, 특정한 복수개의 IP 플로우를 복수개의 클래스 큐(1564a-1564f)로부터 플러싱할(flush) 수 있다.
h. 업링크 서브프레임 우선순위화
1. 개요
도16a 및 16b는 업링크에 관한 로직 플로우 다이어그램의 예시도이다. 로직 플로우는 가입자 CPE 스테이션(294d)에 연결된 가입자 워크스테이션(120d)로부터의 복수개의 IP 패킷 플로우에 대한 공유 와이어리스 대역폭의 분석 및 배정에 관한 것으로, 와이어리스 매체를 통해 와이어리스 기지국(302)에 전송되고, 최종 호스트 워크스테이션(136a)으로의 전송을 위해 데이터 네트워크(142)상에 있게 된다. 도16a는 업링크 IP 플로우 분석기(632)에 관한 로직 플로우 다이어그램(1600)의 예시도이다. 도16b는 업링크 플로우 스케줄러(634)에 관한 로직 플로우 다이어그램(1660)의 예시도이다.
도16a 및 16b의 기능적 구성요소는 방법 모듈의 방식으로 설명되는데, 이는 물리적 유닛(예를 들어, 소프트웨어, 하드웨어 또는 그의 조합) 또는 논리 장치(예를 들어, 설명의 목적으로만 사용되는 것)로 볼 수도 있다. 당업자는 상기 복수개의 모듈이 실시예를 설명하기 위해서만 이용되고 그에 한정되지 않는다는 것을 주지할 것이다.
도16a의 업링크 IP 플로우 분석기에 관한 로직 플로우 다이어그램(1600)의 예시도는 패킷 헤더 식별 구성요소(1602), 패킷 특성 구성요소(1604), 패킷 분류 구성요소(1606) 및 IP 플로우 표현 구성요소(1608)를 포함한다. 이들 구성요소의 기능은 이하에 상술한다.
일 실시예에 있어서, 업링크 IP 플로우 분석기(632)는 물리적으로 와이어리 스 기지국(302) 내에 위치하지만, 당업자에게는 와이어리스 기지국(302)에서 떨어져서 위치해 있어도 기능적으로 동일하다는 것이 알려져 있다. 본 발명의 바람직한 실시예에 있어서, 업링크 IP 플로우 분석기(632)의 기능은 가입자 CPE 스테이션(294d)에서 수행되는데, 가입자 CPE 스테이션(294d)은 패킷/IP 플로우를 기지국(302)에 업링크하기 위해 업링크 예약 슬롯을 요구한다. IP 플로우 식별자, 패킷의 수 및 IP 플로우의 분류로 세분되는 RRB(Reservation Request Block) 요구 IP 플로우 분석기(632)에 의해 생성될 수 있고, 바람직하게는 와이어리스 기지국(302)에서 이후의 복수개의 업링크 서브프레임 슬롯 내 업링크 프레임 스케줄러(634)에 의해 배정되기 위하여 컨텐션(contention) RRB 슬롯을 통해 업링크 될 수 있다.
도2d, 3a 및 3b는 독자가 업링크 IP 플로우 분석기를 이해하는 데에 도움을 준다.
2. 서론
IP 플로우 분석기(632)는 복수개의 데이터 패킷을 업링크 프레임 스케줄러(634)로 식별하고, 특징화하고, 분류 및 나타내는 기능을 수행한다. 데이터 패킷을 식별하고, 특징화하고, 분류 및 나타내는 기능은 각각 업링크 IP 플로우 분석기(602)의 패킷 헤더 식별 구성요소(1602), 패킷 특징화 구성요소(1604), 패킷 분류 구성요소(1606) 및 IP 플로우 표현 구성요소(1608)에 의해 수행된다.
패킷 헤더 식별 구성요소(1602)는 인커밍 IP 데이터 플로우의 패킷이 시스템에 주지되어 있는지(즉, 현재의 IP 플로우인지), 혹은 신규의 IP 데이터 플로우의 제1 데이터 패킷인지를 결정하고, 패킷 헤더 섹션의 필드에 기초한 소스 애플리케이션을 결정한다. 식별 과정(1602)은 복수개의 패킷을 버퍼링하는 과정 및 복수개의 헤더 내용을 추출하는 과정 및 파싱하는 과정을 포함할 수 있다. 패킷 특징화 구성요소(1604)는 (신규의 IP 데이터 플로우의) 신규의 데이터 패킷을 특징화하여, 소스 애플리케이션에 기초하여 IP 데이터 플로우를 위한 복수개의 QoS 요구를 결정하고, IP 데이터 플로우를 수신할 가입자 CPE 스테이션을 식별한다. 패킷 분류 구성요소(1606)는 신규의 IP 데이터 플로우를 몇몇의 우선순위 클래스 중 하나로 분류한다. 분류 과정(1606)은 예를 들어, 유사한 복수개의 QoS 요구를 갖는 복수개의 패킷을 그룹화하는 과정을 포함할 수 있다 IP 데이터 플로우 표현(1608)은 신규의 IP 데이터 플로우를 개시하고, 그것을 업링크 플로우 스케줄러(634)에 나타낸다.
각 시간에 가입자 CPE 스테이션(294d)은 와이어리스 기지국(302)과 업링크 방향으로 통신을 시도하는데, 이는 업링크 서브프레임에 RRB를 삽입함에 의한 예약을 요구한다. 업링크 플로우 스케줄러(634)는 이후에 예약 요구를 이후의 업링크 서브프레임 내에 배정하고, 예약을 CPE 스테이션(294d)에 알린다. 다운링크 신호에 있어서, 바람직하게는 와이어리스 기지국(302)에 위치된 업링크 플로우 스케줄러(634)는 예약 슬롯을 특정한 이후의 프레임 내에 전송하여 요구한 가입자 CPE 스테이션(294d)이 그 업링크 데이터를 전송하도록 한다. 업링크 플로우 스케줄러(634)는 다운링크 플로우 스케줄러(604)가 다운링크에 있어서 이용한 것과 동일한 복수개의 파라미터에 기초하여 예약을 할당한다. 다시 말해서, 업링크 플로우 스케줄러(634)는 큐 클래스 세트 및 룰의 세트에 기초하여 예약 슬롯을 결정하고, 예를 들어, 진보형 예약 알고리즘을 이용하여, 가입자 CPE 스테이션(294d)으로부터 복수개의 업링크 전송을 위한 복수개의 예약을 배정한다. 룰들은 계층 클래스 기반 우선순위 프로세서 모듈(1674), VPN DEN 데이터 테이블(1672) 및 SLA 우선순위 데이터 테이블(1670)로부터 업링크 플로우 스케줄러(634)로의 입력에 의해 결정될 수 있다. 진보형 예약 알고리즘은 도14에 관하여 상기에 부가하여 설명된다.
3. 식별
패킷 헤더 식별 구성요소(1602)는 패킷의 헤더 내용에 기초하여 가입자 CPE 스테이션(294d)으로부터 수신한 IP 플로우를 식별한다.
복수개의 패킷의 스트림은, 또한 몇몇의 IP 플로우로부터의 복수개의 패킷으로 알려져 있으며(여기서 각 IP 플로우는 하나의 데이터 "호출"에 관한 것임), 패킷 헤더 식별 구성요소(1602)에서 수신된다. 일 실시예에 있어서의 IP 플로우는 하나 이상의 가입자 워크스테이션(120d)으로부터 가입자 CPE 스테이션(294d)으로 전송되는데, 워크스테이션은 데이터 네트워크(142)에 의해 와이어리스 기지국(302)에 연결된 복수개의 호스트 컴퓨터(136a)에 업링크하기 위한 것이다. 가입자 CPE 스테이션(294d)은 IP 플로우의 복수개의 데이터 패킷을 패킷 헤더 식별 구성요소(1602)의 패킷 버퍼 모듈(1610)에 전송할 수 있다. 일 실시예에 있어서, 패킷 헤더 식별 구성요소는 CPE 가입자 스테이션(294d) 내에 장착된다. 모듈(1610)에서, 수신된 패킷은 헤더 추출 모듈(1620)로의 전송을 위해 모듈저장 영역으로 버퍼링된다. 모듈(1620)에서, 복수개의 패킷 헤더 파일이 추출되고 파싱되어(parsed), 패킷 헤더 필드의 내용을 얻는다.
복수개의 관련된 필드는, 예를 들어, 소스, 도착지, 또한 현존한다면, 복수개의 TOS(Type Of Service) 및 DiffServe 생성물을 포함한다.
시스템에 알려진 복수개의 IP 플로우에 대해, 현재의 IP 플로우 식별 테이블(1626) 내에 복수개의 엔트리가 있다. 현재의 IP 데이터 호출의 IP 플로우의 이전의 패킷이 이미 식별되었으면, IP 플로우가 시스템 내에 있다. 모듈(1622) 내에서, 테이블(1626)내의 인커밍 IP 플로우와 하나의 엔트리 사이에 매치가 있는지가 결정된다. 만약 그러하면, IP 플로우는 시스템에 알려져 있고, 패킷 특징화 구성요소(1604)의 모듈(1630)로 경로를 제어한다.
IP 플로우가 시스템에 알려진 현재의 플로우가 아니면, IP 플로우는 신규의 데이터 플로우를 의미하고, 이후에 모듈(1624)로 경로를 제어하는데, 여기서 패킷 헤더 필드가 분석되어 IP 플로우의 소스 애플리케이션을 식별한다.
패킷 헤더 분석 모듈(1624)은 소스 애플리케이션 패킷 헤더 테이블(1628)로부터 소스 애플리케이션의 타입을 결정한다. 애플리케이션은 도2d에 관해 설명한 복수개의 애플리케이션 중 어느 것 또는 당업자에게 알려진 것이 될 수 있다. 일례들은 다른 클라이언트 워크스테이션(138f)으로부터의 FTP(File Transfer Protocol)다운로드, 호출기(124d)(모뎀을 통해 연결됨)로부터의 음성 전화 호출, 팩스 기계 호출 및 다중 호출기(124d 및 126d)(모뎀을 통해 연결됨)로부터의 컨퍼런스 호출 등을 포함한다. 만약 IP 플로우가 신규의 IP 플로우라면, 신규의 IP 플로우에 대한 식별 정보는 테이블(1626)에 더해지고, 패킷 특징화 구성요소(1604)의 모듈(1632) 로 모듈(1624)로부터의 경로를 제어한다.
4. 특징화
패킷 특징화 구성요소(1604)는 IP 플로우를 특징화하고, 분류를 위해 패킷 분류 구성요소(1606)로 통과시킨다.
IP 플로우가 현재의 IP 플로우라면, 패킷 헤더 식별 구성요소(1602)의 모듈(1622)로부터 모듈(1630)로 경로를 제어한다. 만약 모듈(1622) 내에서, IP 데이터 플로우가 시스템에 알려져 있다고 결정하면, 모듈(1630) 내에서, 패킷이 오래되었는지(즉, 스태일(stale)한지)를 결정한다. 이것은 예를 들어, 타임-투-리브 필드(IP 패킷 헤더 내의 필드)로부터 결정하는 과정 및 필드를 문턱 연령치와 비교하는 과정을 포함할 수 있다. 패킷이 오래된 것으로 결정되면, 그것은 버릴 수 있다. 모듈(1630)은 애플리케이션 패킷 폐기를 미리 행한다. 모듈(1630)로부터, 패킷 분류 구성요소(1606)의 모듈(1640)로 통과하도록 제어할 수 있다.
IP 플로우가 신규하다면, 패킷 헤더 식별 구성요소(1602)의 모듈(1624)로부터 모듈(1632)로 경로를 제어한다. 모듈(1624) 내에서 IP 플로우 애플리케이션에 관한 애플리케이션이 시스템에 알려지지 않은 것으로 결정되면, IP 플로우 QoS 요구 룩업 모듈(1632) 내에서 IP 플로우에 관련된 애플리케이션에 대한 QoS 요구가 결정된다. 모듈(1632)은 IP 플로우 QoS 요구 테이블(1634) 내에서 애플리케이션을 찾아냄으로써 이 동작을 수행한다. 다른 복수개의 애플리케이션들은 다른 요구를 갖는다. 예를 들면, 대역폭 할당(즉, 대역폭의 적당한 양을 할당하는 것)은 FTP 파 일 전송 다운로드를 수행하는 애플리케이션에게 중요한데, 여기서 지터(즉, 수신 데이터가 시간적으로 동기화됨) 및 지연(응답 사이의 시간 경과의 양)은 중요하지 않다. 반면에, 음성 전화 및 컨퍼런스 호출에는 지터 및 지연이 중요하지만, 대역폭 할당은 중요하지 않다.
모듈(1632)에 의한 처리 후에, 경로를 모듈(163b)로 제어한다. CPE 가입자 ID(identifier) 룩업 모듈(1536) 내에서, 가입자 CPE ID 룩업이 신규의 IP 데이터 플로우에 대하여 수행된다. 각 가입자 CPE 스테이션(294d)은 하나 이상의 애플리케이션을 가질 수 있는데, 하나 이상의 가입자 워크스테이션(120d) 상에서 구동하고, 각 가입자 CPE 스테이션(294d)에 다시 호밍한다(homed). 이에 관하여, 하나 이상의 가입자는 가입자 CPE 스테이션(294d)에서 또는 그곳으로 향하는 IP 플로우를 생성하거나 수신할 수 있다. 가입자 워크스테이션(120d)은 가입자 CPE 스테이션(294d)에 연결된 어떤 장치일 수 있다. 모듈(1636)은 IP 플로우에 대한 CPE 스테이션 식별자를 테이블(1638)에서 찾아, CPE ID를 RRB에 제공한다. 이후에 패킷 분류 구성요소(1606)의 모듈(1636)로부터 모듈(1648)로의 경로를 제어한다.
5. 분류
패킷 분류 구성요소(1606)는 IP 플로우를 분류하고, 표현을 위해 이를 플로우 표현 구성요소(1608)로 통과시킨다.
현재의 IP 플로우에 대하여, 패킷 특징화 구성요소(1604)의 모듈(1630)로부터 모듈(1640)로의 경로를 제어한다. 만약 모듈(1530) 내에서, 패킷이 오래되지 않 았다고 결정되면, 모듈(1640) 내에서 패킷은 그 IP 플로우에 관한 것이다. 도16a에 도시된 바와 같이, 본원에 처리된 패킷은 시스템에 알려진 IP 플로우의 부분으로 결정된다. 그러므로, 모듈(1632, 1636 및 1642)의 QoS 처리는 불필요한데, 이는 본 패킷의 복수개의 QoS 요구가 그 IP 플로우에 대한 것과 동일한 것으로 가정되기 때문이다.
신규의 IP 플로우에 대하여, 패킷 특징화 구성요소(1604)의 모듈(1636)로부터 모듈(1642)로 경로를 제어한다. 모듈(1642) 내에서, 패킷은 QoS 클래스로 분류 또는 그룹화되는데, 이는 IP 플로우 QoS 클래스 테이블 모듈(1644)로 테이블 룩업을 수행함으로써 이루어지고, 여기서 QoS 클래스의 타입은 패킷에 대한 QoS 요구에 따라 저장된다. 모듈(1642)로부터, IP 플로우 표현 구성요소(1608)의 모듈(1648)로 경로를 제어한다.
6. IP 플로우 표현
IP 플로우 표현 구성요소(1608)는 복수개의 IP 플로우 패킷을 다운링크 플로우 스케줄러(604)로 준비하고 나타낸다. 업링크 방향의 일 실시예에 있어서, RRB는 생성되고, 컨텐션 슬롯을 통해 와이어리스 기지국(302)으로 업링크되는데, 이는 IP 플로우 스케줄러(634)에 의해 배정되기 위함이다. 다른 실시예에 있어서, 스케줄러는 CPE 스테이션(294d)에 위치되고, 예약 요구는 필요하지 않다.
현재의 IP 플로우에 대하여, 패킷 분류 구성요소(1640)의 모듈(1640)로부터 모듈(1646)로의 경로를 제어한다. 모듈(1646) 내에서, 패킷은 관련된 현재의 IP 플 로우 큐에 더해지는데, 이는 현재의 IP 플로우를 위한 큐이다. 일 실시예에 있어서, 이는 RRB의 준비 과정을 포함할 수 있다. 모듈(1646)로부터, 업링크 플로우 스케줄러(634)의 모듈(1662)로 경로를 제어한다. 일 실시예에 있어서, 이는 CPE(294d)로부터 와이어리스 기지국(302)까지의 RRB의 업링크 과정을 포함할 수 있다.
신규의 IP 플로우에 대하여, 패킷 분류 구성요소(1606)의 모듈(1642)로부터 모듈(1648)로 경로를 제어한다. 개시 IP 플로우 모듈(1648) 내에서, 이 신규의 IP 플로우는 표현을 위해 모듈(1652)로 개시될 수 있다. 모듈(1652)은 IP 플로우(특히, 예약 요구 블록 데이터 패킷)를 업링크 플로우 스케줄러(634)의 모듈(1662)에 나타나게 한다. 모듈(1650) 내에서, IP 플로우에 대한 QoS 클래스는, 바람직하게는 RRB 내에 포함되어 스케줄러(634)에 나타나게 된다.
7. 다운링크 플로우 스케줄러
도16b의 업링크 플로우 스케줄러(634)에 대한 로직 플로우 다이어그램의 예시도는 IP 플로우 QoS 큐잉 프로세서 모듈(1662), MAC 업링크 서브프레임 스케줄러 모듈(1666), 계층 클래스 기반 우선순위 프로세서 모듈(1674), VPN DEN 데이터 테이블 모듈(1672), SLA 우선순위 데이터 테이블(1670), CPE IP 플로우 큐 깊이 상태 프로세서(1682) 및 링크 계층 응답 프로세서 모듈(1678)을 포함한다.
도16b의 업링크 플로우 스케줄러(634)는 또한 후술하는 QoS 클래스 큐를 포함한다: 클래스 1, 1664a; 클래스 2, 1664b; 클래스 3, 1664c; 클래스 4, 1664d; 클래스 5, 1664e; 클래스 6, 1664f; 및 복수개의 MAC 업링크 서브프레임: 프레임 n, 1668a; 프레임 n+1, 1669b; 프레임 n+2, 1668c; 프레임 n+3, 1668d;...프레임 n+p, 1669k.
일 실시예에 있어서, 업링크 플로우 스케줄러(634)는 물리적으로 와이어리스 기지국(302)에 위치하나, 당업자는 동일한 기능을 갖는 것이 와이어리스 기지국(302)에서 떨어져서 위치할 수 있음을 인지할 것이다. 예를 들면, 다른 실시예에 있어서, 업링크 플로우 스케줄러(634)는 CPE 스테이션(294d)에 위치하여, 다른 CPE 스테이션(294) 및 와이어리스 기지국(302)과 통신할 수 있다.
업링크 플로우 스케줄러(634)는 업링크 서브프레임을 배정하는 데에 이용된다. 총 프레임은 복수개의 업링크 프레임을 전송하기 위한 업링크 부분(업링크 서브프레임이라 칭함), 및 복수개의 다운링크 프레임을 전송하기 위한 다운링크 부분(다운링크 서브프레임이라 칭함)으로 분할될 수 있다.
또한, 도16b에 도시된 것은 WAP 안테나(290d), 와이어리스 매체, RF 송수신 가입자 안테나(292d), 가입자 CPE 스테이션(294d) 및 가입자 워크스테이션(120d)이다. WAP 안테나(290d) 및 RF 송수신 가입자 안테나(292d)는 각각 와이어리스 기지국(302)(여기서 업링크 플로우 스케줄러(634) 일 실시예로 갖추어짐)과 가입자 CPE 스테이션(294d) 사이에 와이어리스 접속을 제공하는데, 이로써, IP 플로우를 가입자 워크스테이션(120d)을 구동하는 애플리케이션으로 전송할 수 있다. WAP(290d)는 데이터 네트워크(142)를 위한 와이어리스 게이트웨이의 역할을 하고, RF 송수신 가입자 안테나(292d)는 가입자 CPE 스테이션(294d)을 위한 와이어리스 게이트웨이의 역할을 하여, IP 플로우 패킷 데이터를 업링크한다.
또한, 도16b에 도시된 것은 데이터 인터페이스(320)이고, 이는 업링크 플로우 스케줄러(634)로부터의 접속을 제공하는 데, 이는 업링크된 복수개의 IP 플로우 패킷을 데이터 네트워크(142)의 데이터 라우터(140d) 및 종착 호스트 컴퓨터(136a) 상에 보내기 위한 것이다. 접속은 또한 도2d 및 3b에 도시되어 있다.
이전의 프레임은 업링크 예약 요구를 포함하는 데, 이는 와이어리스 기지국에 의해 가입자 CPE 스테이션 294d로부터 수신된다. 이 시점에서, 예약 요구 블록은, 바람직하게는 CPE 스테이션(294d)에서 식별되고, 특징화되며, 분류되고, 나타내어지며, CPE(294d)에서 업링크 플로우 분석기(632)로부터 업링크 플로우 스케줄러(634)로 전송된다. 특히, 예약 요구 블록은 모듈(1650)로부터 IP 플로우 QoS 클래스 큐잉 프로세서 모듈(1662)로 나타낸다. 모듈(1662)은 MAC 업링크 서브프레임 스케줄러(1666)에게 예약을 알린다.
한편, MAC 업링크 서브프레임 스케줄러(1666)는 서브프레임 내에 슬롯을 사용하여, ARB(Acknowledgement request block)를 호출하는 요구의 수신에 응답한다. 일례로 이 예약을 위해 프레임, 슬롯, 및 IP 플로우 식별자를 운반하는 데에 이용되는 슬롯은 도12에 관하여 서술된다. 스케줄러(1666)는 이 예약 슬롯 내에서 CPE 식별 데이터를 전송하는데, 이때, 요구한 가입자 CPE 스테이션(294d)이, 이후의 (복수개의) 슬롯 및 (복수개의) 프레임으로, 요구된 데이터 패킷 IP 플로우 전송의 업링크를 위해 사용된다.
이후의 (복수개의) 슬롯 및 (복수개의) 프레임은, 예를 들어, 계층 클래스 기반 우선순위 프로세서 모듈(1674), VPN DEN 데이터 테이블(1672) 및 SLA 우선순위 데이터 테이블(1670)로부터의 입력에 기초하여 할당된다. 이 복수개의 구성요소 는, 다운링크 플로우 스케줄러(604)에 관해 기술된, 계층 클래스 기반 우선순위 프로세서 모듈(1574), VPN DEN 데이터 테이블(1572) 및 SLA 우선순위 데이터 테이블(1570)과 유사한 기능을 한다.
IP 플로우 QoS 클래스 큐잉 프로세서 모듈(1662)은 IP 플로우 표현 구성요소(1608)로부터 현재의 또는 신규의 IP 플로우의 복수개의 패킷을 받은 이후에, 이는 복수개의 클래스 큐(1664a-1664f)를 생성하는데, 이는 가변 수의 큐이고, 복수개의 패킷이 이들 클래스 큐 내에 위치한다. 바람직한 실시예에 있어서, 3개에서 10개 사이의 클래스가 있다. 이 복수개의 큐는 배정을 위해 복수개의 예약 요구 패킷을 유지한다. 복수개의 패킷은, 모듈(1662)로의 입력에 대한 예약 요구 블록의 내용에 따라 복수개의 클래스 큐(1564a-1564f)에 위치된다.
모듈(1662)은 계층 클래스 기반 우선순위 프로세서 모듈(1674), VPN DEN 데이터 테이블(1672) 및 SLA 우선순위 데이터 테이블(1670)으로부터 복수개의 입력을 수신한다. 모듈(1662)의 큐잉 기능은 이들 입력에 기초한다. 이들 구성요소는 다운링크 플로우 스케줄링 방법에 있어서 그 상반된 면으로 아날로그적인 기능을 한다. SLA 우선순위 데이터 테이블(1670) 및 VPN DEN 데이터 테이블(1672)은 OAM&P 모듈(1108)로부터의 입력을 수신한다. OAM&P 모듈(1108)은, 예를 들어, 가입자가 그 서비스 레벨 동의를 조정하거나 VPN 기술이 변화할 때, 우선순위를 갱신하는 것을 제공한다.
MAC 업링크 서브프레임 스케줄러(1666)는 요구를 복수개의 클래스 큐(1664a-1664f) 내에 큐잉하고, 복수개의 프레임(1668a-1668k) 내의 복수개의 슬롯의 예약을 배정하는 데, 이는 가변 수의 프레임이다. 일 실시예에 있어서, 각 프레임은 복수개의 클래스(1664a-1664f)의 각각으로부터 소정의 한정 수 또는 복수개의 패킷의 한정%까지 배정된다. 복수개의 요구는 도13에 도시된 바와 같이 배정될 수 있는데, 일정한 우선순위를 고려한다. 또다른 실시예에 있어서, 복수개의 프레임은 도14에 관하여 기술된 동상 타입 트래픽의 배정을 위한 본 발명의 진보형 예약 알고리즘 방법에 따라 배정된다. 또다른 실시예에 있어서, 복수개의 프레임은 공지된 방법 및 본 발명의 진보형 예약 알고리즘 방법의 조합에 따라 배정된다.
예약 슬롯 스케줄은 이후에 CPE 스테이션(294)으로 보내지는데, 이때, 예를 들어, 도12f의 1236g 및 1236h와 같은 복수개의 FDB 슬롯을 이용한다. 이후에 복수개의 업링크 슬롯은 CPE 스테이션(294d)에 의해 배정된 바와 같은 업링크 서브프레임으로 삽입될 수 있다. 상기 복수개의 프레임 슬롯은 이후에 CPE 스테이션(294d)으로부터 와이어리스 기지국(302)으로 전송되고, 복수개의 패킷으로 그들의 종착 주소로 보내어진다. 예를 들어, 와이어리스 기지국(302)으로부터, 복수개의 패킷은 호스트 컴퓨터(136a)로 데이터 네트워크(142)를 통하여 전송될 수 있다.
복수개의 업링크 패킷이 와이어리스 기지국(302)에 의해 수신된 후에, 와이어리스 기지국(302)은 UAB(Upstream Acknowledgement data Block) 메시지를 다시 전송 가입자 CPE 스테이션(294d)으로 보내어, 전송된 복수개의 데이터 패킷의 수신에 응답한다. 때때로, 와이어리스 매체 내의 노이즈 또는 다른 간섭을 통해 패킷을 잃어버린다. 이러한 상황이 발생하면, 가입자 CPE 스테이션(294d)은 UAB 데이터 응답이 수신되지 않았다고 결정하고, 그리고 이는 다른 업링크 예약 슬롯을 요구하는 재전송 요구를 WAP(290d)을 통해 와이어리스 기지국(302)으로 보내며, 요구를 ARQ(link layer acknowledgment) 프로세서(1678)로 전송한다. ARQ 프로세서(1678)는 MAC 업링크 서브프레임 스케줄러(1666)에게 재전송의 필요성을 알린다(즉, 업링크 패킷을 재전송하기 위한 프레임 슬롯 예약의 필요성). 가입자 CPE 스테이션(294d)은 또한 ARQ 프로세서(1678)로 업링크 전송 응답의 수신 실패에 관한 다른 복수개의 데이터 메시지를 보낸다. ARQ(1678)는 이러한 복수개의 메시지를 업링크 서브프레임 스케줄러(1666)로 전달한다. 한편, 업링크 서브프레임 스케줄러(1666)는 복수개의 적합한 클래스 큐(1664a-1664f)에서 요구된 업링크 예약을 재배정한다. 선택적으로, 다른 실시예에 있어서, 링크 계층 응답 프로세서(1678)는 또한 양의 UAB 응답을 가입자 CPE 스테이션(294d)으로 보내어, 복수개의 데이터 패킷이 정확하게 수신되었음을 표시한다. 그러므로 업링크 스케줄러(1666)는, 복수개의 첫 번째 예약을 배정하는 데에 부가하여, 복수개의 분실 패킷에 대한 재 예약을 배정할 수 있다.
각 가입자 CPE 스테이션(294d)은 CPE(294d)로부터 와이어리스 기지국(302)까지 업링크하는 슬롯의 예약을 기다리는 복수개의 가입자 워크스테이션(120d)으로부터 수신한 패킷을 큐잉할 수 있는 한정된 양의 메모리 공간을 갖는다. 예를 들어, 가입자 CPE 스테이션(294d)의 큐가 복수개의 업스트림 예약을 기다리는 패킷의 백업으로부터 가득차게 되면, 복수개의 IP 데이터 플로우는 잠재적으로 분실되거나, 또는 복수개의 패킷이 오래된 것이 된다. 이러한 경우에는, CPE 가입자 스테이션(294d)은 큐가 채워졌다는 것을 표시하는 CPE IP 플로우 큐 깊이 메시지(1680)를 전송하고, 이는 CPE IP 플로우 큐 깊이 상태 프로세서(1682)에 의해 수신된다. 프로세서(1682)는 MAC 다운링크 서브프레임 스케줄러(1666)에 이 상황을 알리고, 스케줄러는 예를 들어, 복수개의 IP 플로우의 우선순위를 가입자 CPE 스테이션(294d)에서 일시적으로 증가시켜, 백로그를 극복하게 하거나, 예를 들어, 큐 깊이 백로그가 받아들일 만한 레벨로 다시 감소할 때까지 부가적인 복수개의 다운링크 패킷을 CPE 스테이션(294d)에 보내는 것을 중단할 수 있다. 프로세서(1682)는 또한 메시지를 MAC 다운링크 서브프레임 스케줄러(1666)에 보내어, 복수개의 클래스 큐(1664a-1664f) 내에 가입자 CPE 스테이션(294d)으로부터의 복수개의 예약 요구를 플러싱할(flush) 수 있다.
4. TCP 종속 에이전트
TCP는 전형적인 네트워크에서 잘 수행되도록 튜닝된(tuned) 믿을만한 전송 프로토콜인데, 여기서 정체현상은 패킷 손실의 주요 원인이다. 그러나, 와이어리스 링크를 갖는 복수개의 네트워크는 비트-에러에 기인하여 치명적인 손실을 야기한다. 와이어리스 환경은 TCP에 의해 만들어진 많은 가정을 위반하는데, 이로 인해, 단말 대 단말 수행이 저하된다. 예로써, Balakrishnan, H., Seshan, S. 및 Katz, R. H.의 "Improving Reliable Transport and Handoff Performance in Cellular Wireless Networks", University of California at Berkeley, Berkeley, CA, USL에 있어서 인터넷을 통해 접근할 수 있는 http://www.cs.berkeley.edu/~ss/papers/winet/html/winet.html를 참조하는데, 이는 협대역 주파수 와이어리스 환경에 있어서 핸드오프 및 비트 에러를 직접 다루고 있으며, 그 내용은 참조자료로 첨부한다. 이 문제점에 전념하려는 시도는 이를 극복하기 위해 TCP를 조정하도록 하였다. 그러나, 이것은 이 도전을 극복하는 경제적인 방법이 아니다. TCP의 표준 동작의 변화를 요구하는 어떤 솔루션을 장착하는 것은 비실용적이다.
본 발명은 강화된 MAC 계층을 이용하여 TCP 종속 에이전트와 인터페이스하고, TCP 층 요구를 간섭하여, 복수개의 TCP 층을 전송의 소스 또는 종착 단말에서 조작함으로써, TCP 작동을 중간매개로의 와이어리스 링크를 포함하는 TCP/IP 전송의 소스 및 종착지에서 조정한다. 복수개의 패킷은 와이어리스 기지국에서 큐잉되어 수신 응답을 기다릴 수 있고, 기지국은 와이어리스 링크를 통과하여 지역 재전송을 수행하고, 높은 비트 에러 레이트에 기인한 패킷 손실을 극복할 수 있다. 와이어리스 링크를 통한 통신은 한정된 대역폭, 높은 지연, 높은 스포래딕(sporadic) 비트 에러 레이트 및 일시적 비접속에 의해 특징지어지고, 이는 네트워크 프로토콜 및 복수개의 애플리케이션에서 다루어져야만 한다.
TCP와 같은 복수개의 믿을만한 전송 프로토콜은 전형적인 와이어드 라인 네트워크를 위해 튜닝되었다. TCP는 정체현상에 의해 야기되는 단말-대-단말 지연 및 패킷 손실에 적합화됨으로써 이러한 네트워크 상에서 좋은 수행을 나타낸다. TCP는 계산된 소요시간 지연 및 평균 분산의 구동 평균을 유지하고, 그 응답이 평균으로 부터 네배 내에서 수신되지 않은 패킷을 재전송함으로써 의존성을 제공한다. 복수개의 와이어드 네트워크를 통한 상대적으로 낮은 비트 에러 레이트에 기인하여, 모든 패킷 손실은 바로 정체현상에 의해 야기되는 것으로 가정한다.
와이어리스 환경에서는 높은 비트 에러 레이트를 가지므로, TCP는 패킷 손실에 대하여 와이어드 환경에서와 같이 반응하는데, 즉, 복수개의 패킷을 재전송하기 전에, 전송 윈도우 크기를 떨어뜨리고, 정체현상 제어 또는 회피 메커니즘(즉, 느린 시작)을 가동시키며, 그 재전송 타이머를 리셋한다. 이들 방법은 링크의 대역폭 활용에 있어서 불필요한 감소를 낳고, 이에 의해 불량한 스루풋 및 매우 높은 작용적 지연의 형태로 수행에 있어서 치명적인 저하를 야기한다. 본 발명은 복수개의 패킷을 클래스 큐 내에 유지하여, 복수개의 가입자 CPE 스테이션으로부터 의 수신의 응답을 대기하도록 한다. 복수개의 응답되지 않은 데이터 슬롯은 이후에 재전송되는데, 이는 와이어리스 기지국이 가입자 CPE 스테이션으로의 지역 재전송을 수행하도록 함으로써 행한다. 복수개의 중복된 응답을 이용하여 패킷 손실을 식별하도록 하고, 손실이 감지되면 바로 지역 재전송을 수행함으로써, 와이어리스 기지국은 와이어리스 링크의 타고난 높은 비트 에러 레이트로부터 송신기를 보호할 수 있다. 특히, 매우 낮은 통신 품질 및 일시적 단절의 순간적 상황이 송신기로부터 사라질 수 있다.
CPE 가입자 호스트로부터 와이어리스 기지국 호스트까지의 데이터의 전송을 위해, 적중되지 않은 복수개의 패킷이 와이어리스 기지국에서 감지되고, 복수개의 부정응답이 그들을 위해 생성된다. 복수개의 부정 응답은 패킷을 CPE 가입자 호스 트(송신기)로부터 재전송하도록 요구할 수 있다. CPE 가입자 호스트는 부정 응답을 처리하고 관련된 복수개의 비적중 패킷을 재전송한다. 특히, 송신기 TCP 또는 송신기 TCP를 조정하는 것이 불필요한데, 이는 본 발명이 MAC 계층 내에서 TCP 형 기능에 해당하기 때문이다.
도5a는 가입자 호스트에서 소스 TCP로부터의 복수개의 IP 플로우를 기술하는 플로우(500)를 나타내는데, CPE 가입자 스테이션을 통한 전송을 위해 프로토콜 스택을 다운하고, 와이어리스 기지국을 향해 와이어리스 매체를 통하며, 일례의 TCP 종속 에이전트를 가진 와이어리스 기지국에서 프로토콜 스택을 업 및 통하고, 이후에 와이어라인 접속을 통하며, 프로토콜 스택을 종착지 호스트로 통하도록 한다. 종속 TCP 에이전트는 전송하는 TCP에서 TCP 슬라이딩 윈도우 알고리즘의 동작을 조정하고, PRIMMA(Proactive reservation-based intelligent multi-media access technology)에 따라, MAC는 본 발명에 따른 와이어리스 매체를 통하여 지역 재전송을 인에이블한다.
특히, 플로우(500)는 가입자 워크스테이션(120d)으로부터의 IP 패킷 플로우를 나타내는데, CPE 가입자 지역(360d)에서 CPE 가입자 스테이션(294d)을 통하고, 이후에 와이어리스 전송 매체를 통해 와이어리스 기지국(302)으로 향하며, 결국에는 데이터 네트워크(142)를 통한 와이어라인 링크를 통해 호스트 워크스테이션(136a)으로 향한다.
TCP 종속 에이전트(510e)는 전송이 확실하도록 보장하는데, 이는 TCP 슬라이딩 윈도우 알고리즘의 동작을 전송 TCP에서 조정하여, 윈도우를 와이어리스 매체에 적합하도록 하는 방식으로 이루어진다. TCP 종속 에이전트(510e)는 산업 표준 프로토콜에 의해 명백한 장점이 있는데, 에이전트(610e)는 클라이언트 가입자 워크스테이션(120d) 또는 호스트 워크스테이션(136a)의 표준 TCP/UDP 층의 조정을 요구하지 않기 때문이다.
플로우(500)는 애플리케이션 층(512a)으로부터 복수개의 IP 플로우를 포함하는데, TCP/UDP 층(510a)을 통해 프로토콜 스택을 다운하고, IP 층(508a)을 통하며, 이후에 PPP(Point-to-Point) 층(520a)을 통하고, 이후에 데이터 링크 이더넷(Ethernet) 층(504a)을 통하며, 이후에 10베이스티(10BaseT) 이더넷 NIC(Network interface card) 물리 층(502a)을 통하고, 와이어라인 접속을 통해 가입자 CPE(294d)의 10베이스티 이더넷 NIC 물리 층(502b)으로 향한다.
가입자 CPE(294d)는 NIC(502b)로부터 입력받은 복수개의 패킷을 플로우잉하는데, 그 프로토콜 스택을 이더넷 층(504b)을 통해 백업하고, PPP 층(520b 및 520c)을 통하며, PRIMMA MAC(504c)를 통하여 안테나(292d)를 포함하는 와이어리스 물리 층(502c)으로 향하도록 백다운하고, 이후에 와이어리스 매체를 통해 와이어리스 기지국(302)의 안테나(290d)로 향한다.
와이어리스 기지국(302)은 복수개의 패킷 IP 플로우를 물리 층(502d)에서 PRIMMA MAC 계층(504d)를 통해 안테나(290d)로부터 플로우잉하는데, PPP 층(520a)을 통하고, IP 층(508d)을 통해 TCP 종속 에이전트(510e)로 향하고, 이는 복수개의 IP 플로우를 IP 층(508d)을 통해 플로우 다운할 수 있게 하며, PPP 층(520e)을 통하고, WAN(Wide Area Network) 층(504e)을 통하며, 와이어라인 물리층(502e)을 통 하고, 인터페이스(320)를 통하며, 복수개의 라우터(140d)를 통해, 데이터 네트워크(142)를 통하고, 와이어라인 접속을 통해 WAN 호스트 워크스테이션(136a)의 와이어라인 층(502f)으로 향한다.
호스트 워크스테이션(136a)은 와이어라인 층(502f)으로부터 복수개의 IP 플로우를 흐르도록 하는데, 그 프로토콜 스택을 통해 WAN 층(504f)을 통하여 업하고, PPP 층(520f)을 통하며, IP 층(508f)을 통하고, TCP/UDP 층(510f)으로 및 애플리케이션 층(512f) 상으로 향한다.
복수개의 TCP/UDP 층(510a 및 510f)은 후술하는 전송 기능을 제공하도록 작동하는데, 이 기능은 예를 들어, 세그먼트 과정, 전송 윈도우를 관리하는 과정, 재시퀀싱 과정, 및 복수개의 분실 패킷 플로우의 재전송을 요구하는 과정이다. 일반적으로 복수개의 TCP 층(510a 및 510f)은 복수개의 패킷의 윈도우를 전송하고, 이후에 재전송을 위한 요구 또는 승인을 기다린다. TCP 슬라이딩 윈도우 알고리즘은 일반적으로 전송 플로우를 다양화하는데 사용되어 최적화된 전송을 제공하고, 재전송을 위한 복수개의 요구의 수신에 의해 정체현상을 감지하면 백오프한다. 불행히도, 와이어리스 환경에 있어서는, 높은 비트 에러 레이트에 기인하여, 모든 패킷이 종착 주소에 도착할 수 없게 되는데, 정체현상 때문이 아니라, 높은 비트 에러 레이트 때문이고, 그러므로 재전송 요구를 종착 IP 호스트로부터 소스로 촉구하게 된다. 느린 전송에 비해, TCP 종속 에이전트(510e)는 TCP 슬라이딩 윈도우 알고리즘의 동작을 조정하여 와이어리스를 통한 동작을 최적화한다. PRIMMA MAC 계층(504d)은 TCP 종속 에이전트(510e)와 교류하여, 에이전트가 예를 들어, 복수개의 재전송 요구를 간섭하도록 하는데, 이는 호스트(136a)가 의도한 가입자 워크스테이션(120d)의 TCP 층(510a)으로부터의 요구이고, 와이어리스 기지국이 재전송 요구를 호스트(136a)에 전달하는 대신에 바람직한 복수개의 패킷 또는 플로우를 가입자 워크스테이션(120d)에 재전송하도록 하는데, 이는 복수개의 패킷이 아직 PRIMMA(504d)의 큐에 저장되어 있을 수 있고, 수신의 응답이 가입자 CPE로부터 수신될 때까지는 버리지 않기 때문이다. 재전송은 본 발명에 따라 PRIMMA MAC데이터 링크 계층, 즉, 층 2에서 수행될 수 있기 때문에, TCP가 그 슬라이딩 윈도우 알고리즘을 백오프하도록 하는, 전송 소스 TCP를 통한 모든 방법으로 재전송을 요구하기보다는, 재전송은 기지국으로부터 CPE 가입자로 일어날 수 있다. 그러므로, 와이어리스 기지국(302)이 와이어리스 링크를 통해 수신이 응답될 때까지 재전송하도록 함으로써, 내재하는 높은 비트 에러 레이트가 극복될 수 있고, 동시에 적합한 TCP 윈도우를 유지할 수 있다.
다시, TCP 송신기는 복수개의 패킷의 TCP 슬라이딩 윈도우 블록을 재전송하고, 정체현상의 감지에 따라 윈도우의 크기를 바꾼다. TCP 송신기는 윈도우 내의 복수개의 패킷의 블록을 전송하고, 이후에 수신기로부터 응답을 기다린다. 전송이 부드러워지면, 즉, 정체현상이나 패킷의 분실이 없으면, 송신기 TCP는 전송 레이트를 올린다. 이러한 증가된 전송 레이트는 전송 TCP가 정체현상 또는 패킷 분실을 감지할 때까지 계속된다. 정체현상을 알게 되면, 전송 TCP는 전송을 멈추고, 복수개의 패킷의 더 작은 블록(즉, 더 작은 윈도우)을 백오프하고 전송한다.
TCP 종속 에이전트는 전송 TCP 및 그 전송 윈도우 알고리즘을 트리킹함으로 써(tricking) 일반적인 TCP 동작을 조정한다. TCP 종속 에이전트는 송신기가 손실을 알아차리는 것을 방지하는 데, 즉, 정체현상 인지를 수신하도록 하고, 수신 TCP로부터, 즉, 복제된 재전송 요구를 막음으로써 이를 가능하게 한다. 전송 TCP는 이러한 인지사항을 수신하지 않으므로, TCP 슬라이딩 윈도우를 조정하지 않고, 전송이 높은 레이트로 계속된다.
실제 정체현상이 일어난 경우에, 즉, TCP 종속 에이전트가 복수개의 패킷이 실제로 분실되었다는 것을 인지하면, TCP 종속 에이전트는 재전송 요구를 전송 TCP로 가도록 할 수 있다. 이는 장점을 갖는데, 본 발명의 MAC 링크 계층은 더 높은 복수개의 프로토콜 층에서 통신하고, 이는 애플리케이션 형, 전송 형 및 네트워크 형이다. 이 경우에 있어서, MAC 계층은 전송 층 형이기 때문에, PRIMMA MAC 계층(504d)은 TCP 종속 에이전트(510e)와 층 4에서 통신한다. MAC는, 와이어리스 기지국(302)에서 전송된 모든 패킷에 대하여 CPE 가입자 스테이션(294d)으로 보내진 와이어리스 전송의 수신의 응답을 요구하기 때문에, MAC 계층(504d)은 인터-TCP 층 통신, 즉, 재전송에 대한 요구가 클라이언트 컴퓨터 TCP로부터 보내진 것이, 분실 패킷이 와이어리스 전송에 있어서 분실되었기 때문, 혹은 실제 정체현상 때문에 생성되었는지를 안다.
만약 PRIMMA MAC(504d)가 504c에서 응답을 수신하지 않으면, 와이어리스 기지국(302)의 PRIMMA MAC(504d)는 분실 패킷의 내용을 가입자 CPE 스테이션(294d)으로 재전송할 수 있다. 만약 가입자 CPE 스테이션(294d)의 PRIMMA MAC(504c)는 수신을 응답하면서 재전송을 요구할 수 있으면, 실제 정체현상이 일어날 수 있고 와이 어리스 기지국(302)의 PRIMMA MAC(504d)는 TCP 종속 에이전트(510e)가 전송 요구를 호스트 워크스테이션(136a)의 전송 TCP(510f)로 보내도록 하여야 한다는 것을 인지하도록 할 수 있다.
그러므로, 본 발명의 TCP 종속 에이전트(510e) TCP 슬라이딩 윈도우 알고리즘의 동작을 조정할 수 있는데, 이는 와이어리스 매체에 적합한 방식이고, 수신기 및 송신기 호스트에서 상업적으로 가용한 복수개의 TCP 층(510a 및 510f)에 어떠한 변화도 요구하지 않는다. 일 실시예에 있어서, TCP 종속 에이전트(510e)는 전송(즉, 전송) 호스트 또는 클라이언트 어느 쪽에 있어서도 복수개의 TCP 층의 모든 조정에 대한 필요성을 없앤다. 다른 실시예에 있어서, 복수개의 호스트 및 클라이언트 TCP 층은 TCP 종속 에이전트에 의한 동작의 조정을 알지 못하는데, 즉, 이는 소스 및 종착 TCP 층에 명백하다. 다른 실시예에 있어서, TCP 종속 에이전트(510e)는 가입자 CPE 스테이션에 연결된 클라이언트 컴퓨터의 TCP 층과 데이터 네트워크에 연결된 호스트 워크스테이션의 TCP 층 사이에서 재전송 요구를 간섭한다.
도5B는 아웃고잉 TCP 스푸프(spoof) 기능을 수행하는 TCP 종속 에이전트의 기능적 서술을 포함하는 일 실시예의 기능적 플로우 다이어그램(522)을 나타낸다. 도5b 및 5a를 참조하면, 다이어그램(522)은 전송 호스트(136a)에서의 TCP 층(510f)이 패킷 데이터의 윈도우를 통해 가입자 워크스테이션(120d)으로 전송되고, 응답을 기다린다고 가정한다. 다이어그램(522)은 TCP 종속 에이전트(510e) 내 와이어리스 기지국(302)에서 아웃고잉 TCP 메시지의 수신과정을 나타내는데, 여기서 와이어리스 기지국(302)은 가입자 CPE 스테이션(294d)를 통해 가입자 워크스테이션(120d)으 로부터 수신된다.
단계(526)에 있어서, 아웃고잉 TCP 메시지(524)의 TCP 헤더 내용은 파싱되어(parsed), 가입자 워크스테이션(120d)으로부터 와이어리스 네트워크를 통해 전송 호스트(136a)로 전송된 메시지의 내용을 나타내게 된다.
단계(528)에 있어서, TCP 헤더 내용이 CPE 스테이션으로부터의 중복된 응답 메시지를 포함하고 있는지 여부가 결정된다. CPE 가입자 로케이션으로부터 복제된 응답 요구를 수신하는 것은 와이어리스 매체 내의 분실 메시지, 또는 실제 정체현상 문제를 표시할 수 있다. 만약 단계(528)에 있어서, TCP 패킷이 중복된 응답 메시지로 결정되면, 과정은 단계(532)로 계속될 수 있고, 그렇지 않으면, 과정은 단계(530)로 계속된다.
단계(530)에 있어서, 실제 정체현상이 있는 것으로 결정되는데, 즉, 이것은 와이어리스 링크 계층에서의 재전송 시도에 의해 야기된 중복된 응답 메시지가 아니다. 그러므로, 단계(530)에서는, TCP 메시지는 조정없이 TCP 종속(510e)을 통과하게 되고, 플로우(500)를 통해 도5a의 TCP 층(510f)으로 계속될 수 있다.
단계(532)에 있어서, 단계(528)에서 감지된 중복된 응답이 있었기 때문에, 패킷이 성공적으로 전송되었는지 아닌지가 결정된다. 단계(532)는 TCP 종속 에이전트(510e)와 PRIMMA MAC 계층(504d) 사이의 상호 통신을 통해 수행된다. 이것은 도4의 428줄에 나타낸 바와 같은 PRIMMA MAC 및 더 높은 층 프로토콜 사이의 상호작용의 일례이다. PRIMMA MAC 계층(504d)은 패킷이 와이어리스 기지국(302)에서 CPE 스테이션(294d)으로 성공적으로 전송되었는지를 식별할 수 있는데, 이는 도15b에 설 명된 바와 같이, 재전송(1576)에 대한 복수개의 요구는 ARQ 프로세서(1578)에서 CPE 스테이션(294d)으로부터 수신되어, MAC 다운링크 서브프레임 스케줄러(1566)로 향하는데, 스케줄러(1566)를 경계토록 하여 이후의 프레임(1568) 내의 분실 패킷을 재전송하도록 하기 때문이다. 만약 단계(532)에 있어서, 패킷은 성공적으로 전송된 것으로 결정되고, 상술한 바와 같이, 과정은 단계(530)로 계속될 수 있다. 그러나 패킷이 성공적으로 전송되지 않은 것으로 결정되면, 과정은 단계(534)로 계속된다.
단계(534)에 있어서, 패킷은 성공적으로 전속되지 못했기 때문에, TCP 종속 에이전트(510e)는 TCP 메시지(524)의 전송을 억제할 수 있는데, 이는 패킷이 와이어리스 매체 내에서 분실되었다고 가정되기 때문이다. 과정은 단계(536)로 계속될 수 있다.
단계(536)에서, TCP 종속 에이전트(510e)는 분실 패킷의 성공적인 링크 계층 전송이 링크 계층 응답 프로세서(1578)에서 수신되었다는 PRIMMA MAC(504d)로부터의 통지를 대기할 수 있다. 다음에, 처리는 단계(536)로부터 단계(538)로 계속될 수 있다.
단계(538)에서, 성공적인 PRIMMA MAC(504d) 링크 계층 전송의 응답을 수신하면, 정상적인 TCP 메시지가 다시 시작될 수 있다.
다른 단계(도시 안됨)에서, TCP 종속 에이전트 및 PRIMMA MAC 계층은 재전송 시도의 임계 횟수의 리미트를 설정할 수 있으며, 만일 임계치에 도달하면, 처리는 TCP 메시지가 수정없이 전달될 수 있도록 허용하기 위해 단계(530)로 계속될 수 있다.
도5c는 인입 TCP 스푸프(spoof) 기능을 수행하는 TCP 종속 에이전트(510e)의 예시적인 기능 설명을 포함하는 기능적인 흐름도(540)를 도시하고 있다. 도5c 및 도5a를 참조하면, 도면부호(540)는 송신측 가입자 워크스테이션(120d)에서의 TCP 계층(510a)이 패킷 데이터의 윈도우풀(windowful)을 호스트(136a)로 전송했고 그 응답을 대기하고 있는 것으로 가정한 것이다. 도면부호(544)는 와이어리스 기지국(302)에서 TCP 종속 에이전트(510e)에서의 인입 TCP 메시지(542)의 수신을 예시하고 있으며, 이 메시지는 호스트 워크스테이션(136a)으로부터 와이어리스 매체를 통한 전송을 위해 데이터 네트워크(142)를 통해 가입자 CPE(294d)를 거쳐 가입자 워크스테이션(120d)으로 전송된 것이다.
단계(544)에서, 호스트(136a)로부터 와이어리스 네트워크를 통해 송신측 가입자 워크스테이션(120d)을 향해 전송되는 메시지의 내용을 나타내기 위해 송출 TCP 메시지(542)의 TCP 헤더 내용이 파싱된다.
단계(546)에서, TCP 헤더 내용이 호스트(136a)로부터의 복제 응답 메시지를 포함하고 있는지 판단한다. 호스트로부터 복제 응답 메시지를 수신하면, 와이어리스 매체에서의 분실 메시지를 나타내거나 또는 실제적인 적체 문제를 나타낼 수 있다. 만일 단계(546)에서, TCP 패킷이 복제 응답 메시지인 것으로 판단이 이루어지면, 처리는 단계(550)로 계속되고, 그렇지 않으면 처리는 단계(548)로 계속될 수 있다.
단계(548)에서, 실제적인 적체가 존재하는 것으로, 즉 와이어리스 링크 계층에서의 재전송 시도에 의해 야기된 복제 응답 메시지가 아닌 것으로 판단이 이루어 진다. 그러므로, 단계(548)에서 TCP 메시지는 수정없이 TCP 종속 에이전트(510e)를 통해 전달될 수 있도록 허용되며, 플로우(500)를 통해 도5a의 TCP 계층(510a)로 진행될 수 있다.
단계(550)에서는, 단계(546)에서 검출된 복제 응답 메시지가 존재하기 때문에, 패킷이 성공적으로 전송되었는지 여부를 판단할 수 있다. 단계(550)는 TCP 종속 에이전트(510e)와 PRIMMA MAC 계층(504d) 사이의 상호통신을 통해 수행될 수 있다. 이것은 PRIMMA MAC와 도4의 라인(428)으로서 도시된 더 높은 계층 프로토콜들 사이의 상호작용의 예이다. PRIMMA MAC(504d)는 도16b에 도시된 바와 같이 CPE 스테이션(294)으로부터 와이어리스 기지국(302)으로 패킷이 성공적으로 전송되었는지 식별할 수 있으며, 미래의 프레임(1668)에서의 분실 패킷을 재전송하기 위해 스케줄러(1666)를 변경하는 재전송을 위한 요구가 링크 계층 응답(ARQ) 프로세서(1678)에서의 CPE 스테이션(294d)으로부터 MAC 다운링크 서브프레임 스케줄러(1666)로 수신되었는지 식별할 수 있다. 만일 단계(550)에서, 패킷이 성공적으로 전송된 것으로 판단이 이루어지면, 처리는 전술한 바와 같이 단계(548)로 계속될 수 있다. 그러나, 만일 패킷이 성공적으로 전송되지 않은 것으로 판단이 이루어지면, 처리는 단계(552)로 계속된다.
단계(552)에서는, 패킷이 성공적으로 전송되지 않았기 때문에, TCP 종속 에이전트(510e)는 TCP 메시지(542)의 전송을 억제시킬 수 있으며, 그 이유는 와이어리스 매체에서 패킷이 분실된 것으로 추정할 수 있기 때문이다. 다음에, 처리는 단계(554)로 계속될 수 있다.
단계(554)에서, TCP 종속 에이전트(510e)는 분실 패킷의 성공적인 링크 계층 재전송이 링크 계층 응답 프로세서(1678)에서 수신되었다는 PRIMMA MAC(504d)부터의 통지를 대기할 수 있다. 다음에, 처리는 단계(554)로부터 단계(556)로 계속될 수 있다.
단계(556)에서, 성공적인 PRIMMA MAC(504d) 링크 계층 재전송의 응답 메시지를 수신하면, 정상적인 TCP 메시지가 다시 시작될 수 있다.
다른 단계(도시 안됨)에서, TCP 종속 에이전트 및 PRIMMA MAC 계층은 재전송 시도의 임계 횟수의 리미트를 설정할 수 있으며, 만일 임계치에 도달하면, TCP 메시지가 수정없이 전달될 수 있도록 허용하기 위해 처리는 단계(548)로 계속될 수 있다.
5. 와이어리스 QoS 인식 PRIMMA MAC 하드웨어 아키텍처
도10은 PRIMMA MAC 하드웨어 아키텍처(1000)의 일실시예를 도시하고 있다. 이 아키텍처(1000)는 와이어라인 양방향 접속에 의해 WAN 인터페이스(320)에 연결된 데이터 네트워크(142)를 도시하고 있다.
WAN 인터페이스(320)는 양방향 데이터 프레임 FIFO(1002)에 양방향으로 링크되고, 이것은 세그먼테이션 및 리시퀀싱(SAR)(1004)과 QoS/SLA 룰(rules) 엔진 및 프로세서(1008)에 양방향으로 연결된다.
QoS/SLA 룰 엔진 및 프로세서(1008)는 또한 IP 플로우 버퍼(1014)와 플래시 RAM(1010)에 양방향으로 연결된다.
SAR(1004)은 IP 플로우 버퍼(1014), 플래시 RAM(1010), QoS/SLA 룰 엔진 및 프로세서(1008) 및 PRIMMA MAC 스케줄러 ASIC(1012)에 양방향으로 연결된다.
PRIMMA MAC 스케줄러 ASIC(1012)은 또한 RF 인터페이스(290), SRAM 무선 셀 버퍼(1018) 및 IP 플로우 버퍼(1014)에 양방향으로 연결된다.
6. 와이어리스 기지국 소프트웨어 구성
도11은 패킷-중심 와이어리스 점대다점 통신 시스템을 위한 예시적인 소프트웨어 구성을 도시하고 있다. 도11의 소프트웨어 구성은 와이어리스 트랜시버 및 RF ASIC 모듈(290), IP 플로우 제어 구성요소(1102), WAN 인터페이스 관리 구성요소(1104), QoS 및 SLA 운영 구성요소(1106), 시스템 및 OAM&P 구성요소(1108), 고객 빌링 및 로깅 구성요소(1110), 디렉터리 인에이블드 네트워킹(DEN:directory enabled networking) 구성요소(1112) 및 와이어리스 기지국(320)을 포함한다.
IP 플로우 제어 모듈(1102)은 전송 큐잉 제어 모듈(1102a), TCP 레이트 제어 및 서비스 분류 모듈(1102b), 와이어리스 PRIMMA MAC 계층 엔진(1102c) 및 IP 플로우 식별 및 분석 모듈(1102d)을 포함한다.
WAN 인터페이스 관리 구성요소(1104)는 WAN 입구/출구(ingress/egress) 큐잉 제어 모듈(1104a), WAN 인터페이스 포트(예, T1, T3, OC3 포트)(1104b), 방화벽(firewall) 및 보안 모듈(1104c) 및 WAN 트래픽 정형(shaping) 모듈(1104d)을 포함한다.
IP 플로우 제어 구성요소(1102) 및 WAN 인터페이스 관리 구성요소(1104)는 시스템의 "핵심부(core)"를 나타내며, 여기에 패킷 처리, MAC 계층 스케줄링, TCP 프록시 에이전트 및 WAN I/F 제어 기능들이 위치된다. 전술한 "비-핵심적인" 구성요소들의 동작의 대부분은 이들 핵심 구성요소를 지원하고 제어한다.
QoS 및 SLA 운영 구성요소(1106)는 QoS 성능 감시 및 제어 모듈(1106a), 서비스 레벨 약정 모듈(1106b), 정책 관리자 모듈(1106c) 및 암호화 운영 모듈(1106d)을 포함한다.
QoS 및 SLA 운영 구성요소(1106)는 특정 IP-플로우를 QoS 분류로 적절하게 그룹화하기 위해 시스템에 의해 요구된 정적 데이터를 제공한다. 통상적으로, 시스템을 설치하는 준비 단계 동안에, 서비스 제공자는 가입자 CPE 스테이션의 SLA 및 정책-기반 정보(예, 연산 시간 또는 피크 데이터 전송 레이트 허용오차 등)를 포함하여 가입자 CPE 스테이션(294)에 관한 관련 정보를 (원격으로) 다운로드하게 된다. 가입자 CPE 스테이션 또는 서비스 제공자에 특유한 것이 될 수 있는 암호 키 또는 "스트렌쓰(strengths)"도 역시 다운로드될 수 있다.
시스템 및 OAM&P 구성요소(1108)는 WAP을 위한 SNMP 프록시 클라이언트 모듈(1108a), CPE를 위한 SNMP 프록시 클라이언트 모듈(1108b) 및 시스템 연산, 운영, 관리 및 준비 모듈(1108c)을 포함한다.
시스템 및 OAM&P 구성요소(1108)는 원격 서비스 구성원 및 장비가 시스템을 감시, 제어, 서비스, 변경 및 수리할 수 있도록 한다. 시스템 성능 레벨은 자동적으로 감시될 수 있으며, 시스템 트랩 및 트레이스가 설정될 수 있다. 가입자 불만(complaints)은 OAM&P 구성요소(1108)에 의해 제어되는 원격 테스트 및 디버깅 서비스를 이용하여 해결될 수 있다. OAM&P 구성요소(1108)에서의 자동적인 경향 분석 기능의 결과로서, 시스템 용량 리미트가 감시될 수 있고, 추가적인 WAN 접속의 사전 준비가 이루어질 수 있다.
고객 빌링 및 로깅 모듈(1110)은 계정 로깅 및 데이터베이스 관리 모듈(1110a), 트랜잭션 질의 및 처리 제어 모듈(1110b), 빌링 및 계정 제어 모듈(1110c) 및 사용자 인증 모듈(1110d)을 포함한다.
고객 빌링 및 로깅 구성요소(1110)는 서비스 제공자로 하여금 시스템 내의 가입자와 관련된 계정, 빌링 및 트랜잭션 정보를 수신할 수 있도록 한다. 사용량에 근거하여 빌링하는 서비스 제공자를 위해, 누적 시스템 자원 이용 데이터가 수집될 수 있다. 특정 형태의 활동(예, 화상회의, 멀티캐스팅 등)에 대해서는, 특수한 빌링 데이터가 존재할 수 있으며, 이것은 수집되어 서비스 제공자에게 전송된다. 이 구성요소는 또한 가입자 인증 기능의 연산을 통해 가입자에 대한 시스템의 이용가능성을 제어한다. 일단 어떤 가입자가 시스템을 이용할 권한을 부여받으면, 서비스 제공자에 의해 새로운 가입자 인증 엔트리가 (원격으로) 만들어진다. 마찬가지로, 어떤 가입자는 서비스료 체납 또는 다른 이유로 인해 시스템에 대한 더 이상의 액세스가 거부될 수 있다. 또한, 서비스 제공자는 특정 계정-관련 트랜잭션에 대해 시스템에 원격으로 질의할 수 있다.
디렉터리 인에이블드 네트워킹(DEN) 구성요소(1112)는 DEN QoS 모듈(1112a), DEN 관리 및 준비 모듈(1112b), DEN IPSEC 모듈(1112c) 및 IP-기반 제어 및 운영 모듈(1112d)을 포함한다.
DEN 구성요소(1112)는 서비스 제공자에게 가입자의 DEN-기반 VPN의 연산에 관한 시스템 관련 정보에 대한 입력 수단을 제공한다. 시스템이 VPN을 이용하여 가입자에게 시스템 자원을 적절하게 할당하고, 이들 VPN의 인식 및 연산을 제공할 수 있도록 가입자 VPN이 초기화되어 준비될 필요가 있다. DEN 구성요소(1112)로부터의 데이터는 주체 가입자의 IP 플로우에 적절한 우선순위를 적용하기 위해 시스템에 의해 이용된다.
본 발명의 패킷-중심 와이어리스 기지국은 분산된 사이트들이 IP 플로우를 관리하는 방법에 대한 표준 구조를 제공하기 위해 DEN, MICROSOFT, INTEL 및 CISCO 표준을 지원한다. 본 발명은 원격 운영, 준비 및 관리를 허용하는 LDAP(lightweight directory access protocol)에 순응하는 방식으로 VPN 트래픽의 우선순위를 정한다(여기서, LDAP는 워싱턴 레드몬드의 MICROSOFT사로부터 입수할 수 있다). 또한, 본 발명은 LDAP 버전2에도 합치된다. 본 발명은 ITU/T에 의해 공표된 X.500 표준 및 RFC 1777에도 합치된다.
일실시예에서, DEN은 정책-기반 네트워크 관리, IPsec 호환성 네트워크 보안, 및 IPsec 기반 VPN을 제공한다. 와이어리스 기지국(302)의 DEN은 일반 정보 모델(CIM) 3.0에 호환성이 있도록 입안된다(사양이 완성된 이후). 와이어리스 기지국(302)은 원시적인 DEN 지원을 제공할 수 있으며, 예약 모델(즉, RSVP, 플로우에 의한 큐잉 등) 및 우선권/우선순위/차별화 모델(즉, 패킷 마킹)을 포함하는 디렉터리 기반 DEN QoS 메커니즘을 지원한다. 와이어리스 기지국(302)은 DEN 네트워크 정책 QoS의 지원을 계획할 수 있으며, DEN이 완료될 때까지 내부적인 QoS 및 네트워 크 확장을 지원할 수 있다.
7. IPsec 지원
IPsec는 도4를 참조하여 전술되었다. IPsec는 패킷을 암호화하는 표준 방법을 제공한다. VPN 터널 모드에서는, 전체 헤더가 인코딩, 즉 암호화될 수 있다. 본 발명이 패킷/IP 플로우의 식별 동안에 그 패킷-중심 QoS 인식 우선순위화를 구현할 수 있도록 하기 위해, 와이어리스 기지국은 패킷의 헤더 필드의 내용을 분석할 수 있어야 한다. 그러므로, 암호화되지 않은 패킷의 분석이 바람직하다.
본 발명은 와이어리스 매체를 통해 프레임을 전송하기 이전에 이미 데이터 스트림을 암호화하며, 따라서 암호화된 전송을 제공하기 위해 와이어리스 링크를 통해 IPsec가 실제적으로 사용될 필요는 없다. 서비스 제공자가 IPsec를 사용하는 것이 바람직하다고 인지하는 경우에, 헤더 및 페이로드 또는 단지 페이로드 데이터의 인증 및 보안 캡슐화를 위해 IPsec가 사용될 수 있다. IPsec는 통상적으로 방화벽에 통합된다. 만일 서비스 제공자가 본 발명과 IPsec를 구현하길 원하면, 본 발명은 방화벽 뒤에 구현되어야 한다. 즉, 방화벽이 와이어리스 기지국으로 이동될 수 있다. 이것은 패킷 헤더 필드에 대한 기지국 액세스를 제공할 수 있도록 기지국에서의 IPsec 스트림의 종료를 허용한다.
도17은 IPsec 암호화를 포함하는 다운링크 방향으로의 IP 플로우를 예시하고 있다. 도18은 본 발명의 IPsec 지원의 업링크 방향을 예시하고 있다.
도17은 소스 호스트 워크스테이션(136a)으로부터의 다운링크 방향 IP 플로우 를 묘사하는 다운링크 플로우(1700)를 도시하고 있는데, 이 플로우는 호스트 워크스테이션으로부터, 데이터 네트워크(142)에 연결된 와이어리스 기지국(302)을 통해 상향으로 전송하기 위해, IPsec를 지원하는 프로토콜 스택 하향으로, 암호화 계층을 통해, 그리고 와이어리스 링크를 통해 가입자 CPE(294d)로, 가입자 CPE(294d)에서의 프로토콜 스택을 통해 상향으로, 다음에 와이어라인 접속을 통해 데이터 네트워크(142)로, 그리고 프로토콜 스택을 통해 상향으로 이어져 가입자 위치(306d)에 있는 목적지 가입자 워크스테이션(120d)으로 향하게 된다.
특히, 플로우(1700)는 호스트 워크스테이션(136a)으로부터, 와이어리스 기지국(302)을 통해, 그리고 와이어리스 전송 링크를 통해 가입자 CPE(294d)로, 그리고 와이어라인 링크를 통해 가입자 워크스테이션(120d)으로 이어지는 IP 패킷 플로우를 도시하고 있다.
호스트 워크스테이션(136a)은 IP 플로우가 애플리케이션 계층(1712h)로부터 하향으로, TCP/IP 계층(1710h)을 통해 하향으로, 그리고 IP 계층(1708h)을 통해, 선택적인 PPP 계층(1706h)을 통해, 이더넷 계층(1705h)을 통해, 10BaseT 계층(1702h)을 통해 하향으로, 데이터 네트워크(142)를 통해 10BaseT 계층(1702g)으로, 그리고 이더넷(1704g)을 통해 상향으로, 프로토콜 스택 상향으로 선택적인 PPP 계층(1706g)을 통해 IP 계층(1708g,1708h)으로, 다시 인터넷 방화벽 및 IPsec 보안 게이트웨이(1706f)를 통해 하향으로, WAN 계층(1704f)을 통해 하향으로, 와이어라인 계층(1702f)과 데이터 네트워크(142)를 거쳐 와이어라인 물리 계층(1702e)으로 흐르도록 한다.
와이어리스 기지국(302)의 와이어라인 물리 계층(1702e)은 IP 플로우를, 프로토콜 스택 상향으로 WAN 계층(1704e)을 통해, IPsec 보안 게이트웨이(1706e) 방화벽을 통해 IP 네트워크 계층(1708e,1708d)으로, 그리고 암호화 계층(1706d) 및 PRIMMA MAC 계층(1704d)을 통해, 와이어리스 링크를 거쳐 가입자 CPE(294d)로 흐르도록 한다.
가입자 CPE(294d)는 패킷 IP 플로우를, 물리 와이어리스 계층(1702c)에서 안테나(292d)로부터 MAC 계층(1704c)을 통해 상향으로, 암호화 계층(1706c)을 통해, 그리고 IP 계층(1708b,1708c)을 통해, 선택적인 계층(1706b)을 통해 하향으로, 그리고 이더넷 계층(1704b)과 10BaseT 접속(1702b)을 거쳐 10BaseT 접속으로 흐르도록 한다.
가입자 워크스테이션(120d)은 IP 플로우를, 10BaseT 계층(1702a)으로부터 상향으로, 그 프로토콜 스택을 통해 상향으로 이더넷 계층(1704a)을 통해, 선택적인 PPP 계층(1706a)을 통해, 그리고 IP 계층(1708a)을 통해, TCP/UDP 계층(1710a)으로, 그리고 애플리케이션 계층(1712a)까지 흐르도록 한다.
도18은 CPE 위치(306d)에서 가입자 워크스테이션(120d)의 소스 TCP로부터, 가입자 스테이션(294d)에 연결된 이더넷을 통해, 그리고 와이어리스 매체를 통해 와이어리스 기지국(302)로 전송하기 위해 프로토콜 스택을 통해 하향으로, 그리고 IPsec를 지원하는 와이어리스 기지국(302)에서 프로토콜 스택을 통해 상향으로, 그리고 와이어라인 접속을 통해 데이터 네트워크(142)로, 그리고 프로토콜 스택을 통해 목적지 호스트로 흐르도록 한다.
특히, 플로우(1800)는 가입자 워크스테이션(120d)으로부터, 가입자 CPE(294d)를 통해, 그리고 와이어리스 전송 매체를 통해 와이어리스 기지국(302)로, 그리고 와이어라인 링크를 통해 호스트 워크스테이션(136a)으로 이어지는 IP 플로우 패킷을 도시하고 있다.
또한, 플로우(1800)는 애플리케이션 계층(1812a)으로부터, 프로토콜 스택을 통해 하향으로 TCP/UDP 계층(1810a)을 통해, 그리고 IP 계층(1808a) 및 선택적인 점대점(PPP) 계층(1806a)을 통해, 그리고 데이터 링크 이더넷 계층(1804a)을 통해, 10BaseT 이더넷 네트워크 인터페이스 카드(NIC) 물리 계층(1802a)을 통해, 그리고 와이어라인 접속을 통해 가입자 CPE(294d)의 10BaseT 이더넷 NIC 물리 계층(1802b)으로 흐르는 IP 플로우를 포함한다.
가입자 CPE(294d)는 NIC(1802b)로부터 들어오는 패킷을, 그 프로토콜 스택을 통해 상향으로 이더넷 계층(1804b)을 통해, 그리고 선택적인 PPP 계층(1806b)을 통해 IP 계층(1808b,1808c)으로, 그리고 인터넷 방화벽 및 IPsec 보안 게이트웨이(1806c)를 통해 하향으로, 그리고 PRIMMA MAC(1804c)를 통해 하향으로 안테나(292d)를 포함하는 와이어리스 물리 계층(1802c)으로, 그리고 RF 통신, 케이블 RF 및 위성 링크와 같은 와이어리스 매체를 통해 와이어리스 물리 계층(1802d)에 있는 와이어리스 기지국(302)의 안테나로 흐르도록 한다.
와이어리스 기지국(302)은 패킷 IP 플로우를, 물리 와이어리스 계층(1802d)의 안테나(290d)로부터 상향으로 MAC 계층(1804d)을 통해, 그리고 패킷을 캡슐화하고 암호화할 수 있는 IPsec 계층(1806d,1806e)을 통해 흐르도록 한다. IPsec 계 층(1806e)으로부터의 IP 플로우는 WAN 계층(1804e)을 통해 하향으로, 그리고 와이어라인 물리 계층(1802e)을 통해 데이터 네트워크(142)를 거쳐 흐를 수 있다.
와이어라인 물리 계층(1802f)은 IP 플로우를, 프로토콜 스택 상향으로 WAN 계층(1804f)을 통해, IPsec 보안 게이트웨이(1806f) 및 방화벽을 통해 IP 네트워크 계층(1808f,1808g)으로, 그리고 선택적인 PPP 계층(1806h)을 통해 하향으로 이더넷 계층(1804h)을 통해, 그리고 10BaseT 계층(1802g)을 통해 하향으로, 인터페이스(320)를 통해, 라우터(140d)를 거쳐, 데이터 네트워크(142)를 통해, 와이어라인 접속을 통해 호스트 워크스테이션(136a)의 10BaseT 물리 계층(1802h)으로 흐르도록 한다.
호스트 워크스테이션(136a)은 IP 플로우를, 10BaseT 계층(1802h)으로부터 상향으로, 그 프로토콜 스택을 통해 상향으로 이더넷 계층(1805h)을 통해, 선택적인 PPP 계층(1806h)을 통해, 그리고 IP 계층(1808h)을 통해 TCP/UDP 계층(1810h)을 거쳐 애플리케이션 계층(1812h)으로 흐르도록 한다.
IV . 결론
비록 본 발명의 다양한 실시예가 설명되었지만, 이것은 단지 예로서 제공된 것이며 제한하고자 한 것이 아니라는 것을 이해할 것이다. 그러므로, 본 발명의 범위는 전술한 실시예에 의한 제한되는 것이 아니라, 다음의 청구범위 및 그 균등물에 따라 정의되어야 한다.
도1a은 하나 또는 그 이상의 로컬 액세스 및 전송 영역 내에 로컬 교환 캐리어 서비스를 제공하는 표준 통신 네트워크의 개요를 도시한 블록도.
도1b는 데이터 네트워크에 연결된 워크스테이션을 포함하는 예시적인 네트워크를 도시한 도면,
도1c는 케이블 텔레비전(CATV) 네트워크와 같은 종래의 비디오 네트워크를 도시한 도면.
도2a는 상이한 로컬 액세스 및 전송 영역 내에 위치한 가입자들 사이에 로컬 교환 캐리어 및 상호교환 캐리어 모두를 제공하는 표준 통신 네트워크의 개요를 도시한 블록도.
도2b는 시그널링 네트워크를 상세히 도시한 도면.
도2c는 데이터 네트워크를 통해 음성, 데이터 및 비디오 트래픽을 운반하는 예시적인 네트워크를 도시한 도면.
도2d는 라우터를 통해 데이터 네트워크에 연결되는 점대다점 와이어리스 네트워크를 포함하는 네트워크를 도시한 도면.
도3a는 점대다점 네트워크의 예시적인 투시도를 도시한 도면.
도3b는 와이어리스 점대다점 네트워크를 상세히 도시한 블록도.
도4는 본 발명의 와이어리스 인터넷 프로토콜 네트워크 액세스 아키텍처를 도시한 도면.
도5a는 가입자 호스트로부터 와이어리스 기지국 및 와이어라인 접속을 통해 목적지 호스트로의 인터넷 프로토콜 플로우를 도시한 도면.
도5b는 송출 전송 제어 프로토콜 스푸프(spoof) 기능을 수행하는 전송 제어 프로토콜 보조 에이전트의 예시적인 기능 설명을 포함하는 기능 흐름도.
도5c는 인입 전송 제어 프로토콜 스푸프 기능을 수행하는 전송 제어 프로토콜 보조 에이전트의 예시적인 기능 설명을 포함하는 기능 흐름도.
도6은 혼합된 인터넷 프로토콜 플로우의 스케줄링을 나타낸 블록도.
도7은 인터넷 프로토콜 플로우 및 인터넷 프로토콜 플로우의 서비스 품질 요건을 식별하는데 사용될 수 있는 패킷 헤더 필드 정보를 도시한 도면.
도8a는 예시적인 다운링크의 분석, 우선순위화, 및 스케줄링 기능을 요약한 블록도.
도8b는 예시적인 업링크의 분석, 우선순위화, 및 스케줄링 기능을 요약한 블록도.
도9는 다운링크 플로우 스케줄러가 프레임 슬롯의 우선순위화 및 자원 할당의 스케줄링시에 서비스 레벨 약정(SLA)을 어떻게 고려하는지를 도시한 도면.
도10은 본 발명의 매체 액세스 제어 하드웨어 아키텍처의 실시예를 도시한 도면.
도11은 패킷-중심 와이어리스 점대다점 통신 시스템에 대한 예시적인 소프트웨어 구조.
도12a는 예시적인 TDMA MAC 에어 프레임을 도시한 도면.
도12b는 TDMA/TDD 에어 프레임에 대한 예시적인 구조를 도시한 도면.
도12c는 예시적인 다운스트림 전송 서브프레임을 도시한 도면.
도12d는 다운스트림 전송 서브프레임의 예시적인 업스트림 응답 블록 필드를 도시한 도면.
도12e는 다운스트림 전송 서브프레임의 예시적인 응답 요구 블록 필드를 도시한 도면.
도12f는 다운스트림 전송 서브프레임의 예시적인 프레임 디스크립터 블록 필드를 도시한 도면.
도12g는 다운스트림 전송 서브프레임의 예시적인 다운스트림 MAC 페이로드 데이터 유닛을 도시한 도면.
도12h는 다운스트림 전송 서브프레임의 예시적인 커맨드 및 제어 블록을 도시한 도면.
도12i는 예시적인 업스트림 전송 서브프레임을 도시한 도면.
도12j는 업스트림 전송 서브프레임의 예시적인 다운스트림 응답 블록 필드를 도시한 도면.
도12k는 업스트림 전송 서브프레임의 예시적인 예약 요구 블록을 도시한 도면.
도12l은 업스트림 전송 서브프레임의 예시적인 MAC 페이로드 데이터 유닛을 도시한 도면.
도12m. 12n, 12o는 업스트림 전송 서브프레임의 예시적인 동작 데이터 블록을 도시한 도면.
도13은 본 발명에 대해 예시적인 플로우 스케줄러가 어떻게 동작하는지를 도시한 도면.
도14는 진보형 예약 알고리즘의 예시적인 2-차원 블록도.
도15a는 다운링크 플로우 분석기에 대한 예시적인 논리 흐름도.
도15b는 다운링크 플로우 스케줄러에 대한 예시적인 논리 흐름도.
도16a는 업링크 플로우 분석기에 대한 예시적인 논리 흐름도.
도16b는 업링크 플로우 스케줄러에 대한 예시적인 논리 흐름도.
도17은 인터넷 프로토콜 보안성 암호화를 포함하는, 다운링크 방향에서의 인터넷 프로토콜 플로우를 도시한 도면.
도18은 인터넷 프로토콜 보안성 지원의 업링크 방향을 도시한 도면.

Claims (15)

  1. 와이어리스 네트워크에서 TCP 혼잡(TCP congestion)을 회피하기 위한 방법에 있어서,
    TCP 재전송을 호출하지 않고 상기 와이어리스 네트워크 내에서 데이터 패킷을 재전송하는 단계; 및
    상기 와이어리스 네트워크를 포함하는 와이어리스 데이터 전송 시스템에서, 패킷 수신 응답을 전송함으로써 패킷에 대한 TCP 전송 윈도우를 관리하는 단계―여기서, 패킷 수신 응답의 전송은 TCP 송신기가 손실 패킷을 검출하고 재전송을 초기화하고 패킷에 대한 전송 레이트를 리셋하기 전에 수행됨―를 포함하는
    방법.
  2. 제 1 항에 있어서,
    IP 데이터 플로우에 포함된 데이터 패킷을 재전송하기 전에 상기 IP 데이터 플로우에 대한 서비스 품질(QoS) 요건을 판단하는 단계; 및
    상기 재전송하는 단계 및 상기 관리하는 단계를 수행하는 MAC 계층으로 상기 판단 결과를 전달하는 단계를 더 포함하는
    방법.
  3. 제 2 항에 있어서,
    상기 서비스 품질 요건을 판단하는 단계는,
    현재의 IP 데이터 플로우 및 새로운 IP 데이터 플로우 중 하나로서 상기 IP 데이터 플로우를 식별하는 단계를 포함하는
    방법.
  4. 제 3 항에 있어서,
    상기 IP 데이터 플로우에 대한 서비스 품질(QoS) 요건을 판단하는 단계는,
    새로운 IP 데이터 플로우를 수신하기 위해 가입자 CPE(customer premises equipment) 스테이션을 판단하는 단계를 더 포함하는
    방법.
  5. 제 2 항에 있어서,
    상기 IP 데이터 플로우에 대한 서비스 품질(QoS) 요건을 판단하는 단계는,
    IP 데이터 플로우를 통신 우선순위 클래스로 분류하는 단계를 더 포함하는
    방법.
  6. 제 1 항에 있어서,
    상기 TCP 전송 윈도우를 관리하는 단계는,
    상기 패킷 수신 응답의 중복 전송을 검출하는 단계; 및
    상기 패킷의 재전송에 응답하는 상기 TCP 송신기로의 상기 중복 전송을 방지하는 단계를 포함하는
    방법.
  7. 제 1 항에 있어서,
    상기 TCP 전송 윈도우를 관리하는 단계는,
    상기 패킷 수신 응답의 중복 전송을 검출하는 단계; 및
    상기 패킷의 성공 전송에 응답하는 상기 TCP 송신기로의 상기 중복 전송을 허용하는 단계를 포함하는
    방법.
  8. 와이어리스 네트워크에서 TCP 혼잡(TCP congestion)을 회피하기 위한 시스템에 있어서,
    손실 패킷의 로컬 재전송을 이용하여 TCP 손실 패킷의 시그널링을 방지하고 TCP 전송 속도의 변경을 방지하는 와이어리스 MAC 계층; 및
    TCP 송신기가 손실 패킷을 검출하기 전에, 상기 손실 패킷을 검출하고 패킷 수신 응답을 전송하도록 구성되는 TCP 보조수단(adjunct) 계층을 포함하는
    시스템.
  9. 제 8 항에 있어서,
    상기 와이어리스 매체를 통해 전송된 패킷의 상태를 상기 MAC 계층과 통신하 는 TCP 전송 윈도우 관리자를 더 포함하는
    시스템.
  10. 제 8 항에 있어서,
    상기 MAC 계층은,
    상기 MAC 계층의 다운링크 플로우 스케줄러에 대해 데이터 패킷을 식별하고, 특징화하고, 제공하는 IP 플로우 분석기를 포함하는
    시스템.
  11. 제 10 항에 있어서,
    상기 IP 플로우 분석기는, 새로운 IP 데이터 플로우를 통신 우선순위 클래스로 분류하는
    시스템.
  12. 제 8 항에 있어서,
    상기 와이어리스 MAC 계층은, 기지국에 포함되는
    시스템.
  13. 제 12 항에 있어서,
    상기 와이어리스 MAC 계층에 대응하는 다른 와이어리스 MAC 계층은, CPE(Customer Premises Equipment) 스테이션에 포함되는
    시스템.
  14. 제 8 항에 있어서,
    상기 TCP 보조수단 계층은,
    상기 패킷 수신 응답의 중복 전송을 검출하고, 상기 패킷의 재전송에 응답하는 상기 TCP 송신기로의 상기 중복 전송을 방지하도록 구성되는
    시스템.
  15. 제 8 항에 있어서,
    상기 TCP 보조수단 계층은,
    상기 패킷 수신 응답의 중복 전송을 검출하고, 상기 패킷의 성공적인 전송에 응답하는 상기 TCP 송신기로의 상기 중복 전송을 허용하도록 구성되는
    시스템.
KR1020097018628A 1999-07-09 2000-07-07 Tcp/ip 패킷-중심 와이어리스 전송 시스템 아키텍처 및 전송 방법 KR101065857B1 (ko)

Applications Claiming Priority (31)

Application Number Priority Date Filing Date Title
US34947499A 1999-07-09 1999-07-09
US34948199A 1999-07-09 1999-07-09
US34947599A 1999-07-09 1999-07-09
US34948099A 1999-07-09 1999-07-09
US34947699A 1999-07-09 1999-07-09
US34947899A 1999-07-09 1999-07-09
US34785799A 1999-07-09 1999-07-09
US34947999A 1999-07-09 1999-07-09
US09/349,474 1999-07-09
US09/349,483 1999-07-09
US09/350,162 1999-07-09
US09/349,482 1999-07-09
US09/349,480 1999-07-09
US09/349,975 1999-07-09
US09/347,857 1999-07-09
US09/349,476 1999-07-09
US09/349,477 US6862622B2 (en) 1998-07-10 1999-07-09 Transmission control protocol/internet protocol (TCP/IP) packet-centric wireless point to multi-point (PTMP) transmission system architecture
US09/347,856 1999-07-09
US09/349,478 1999-07-09
US09/350,156 1999-07-09
US09/350,126 1999-07-09
US09/349,475 1999-07-09
US09/350,159 1999-07-09
US09/350,150 1999-07-09
US09/349,479 1999-07-09
US09/350,173 1999-07-09
US09/350,118 1999-07-09
US09/349,481 1999-07-09
US09/350,170 1999-07-09
US09/349,477 1999-07-09
PCT/US2000/018531 WO2001005098A1 (en) 1999-07-09 2000-07-07 Tcp/ip packet-centric wireless transmission system architecture

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020087028079A Division KR100946414B1 (ko) 1999-07-09 2000-07-07 Tcp/ip 패킷-중심 와이어리스 전송 시스템 아키텍처

Publications (2)

Publication Number Publication Date
KR20090110371A KR20090110371A (ko) 2009-10-21
KR101065857B1 true KR101065857B1 (ko) 2011-09-20

Family

ID=27578821

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097018628A KR101065857B1 (ko) 1999-07-09 2000-07-07 Tcp/ip 패킷-중심 와이어리스 전송 시스템 아키텍처 및 전송 방법

Country Status (2)

Country Link
KR (1) KR101065857B1 (ko)
BR (1) BR0012332A (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101831082B1 (ko) 2013-09-06 2018-02-21 브이아이디 스케일, 인크. 실시간 비디오 애플리케이션용 라우터를 위한 체감 품질 기반 큐 관리
KR101969365B1 (ko) * 2017-06-30 2019-04-16 국방과학연구소 Csma 기반의 반이중 무전기에서 채널 간섭을 회피하는 패킷 송수신 장치 및 그 방법
CN114615219B (zh) * 2020-11-24 2024-03-08 瑞昱半导体股份有限公司 网络接口装置、电子装置以及网络接口装置的操作方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5602836A (en) 1993-11-24 1997-02-11 Lucent Technologies Inc. Multiple access cellular communication with circular interleaving and reduced dropped-packet runlengths
EP0841763A1 (en) * 1996-10-25 1998-05-13 Nokia Mobile Phones Ltd. Method for radio resource control
WO1999026430A1 (en) * 1997-11-19 1999-05-27 Ensemble Communications, Inc. An adaptive time division duplexing method and apparatus for dynamic bandwidth allocation within a wireless communication system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5602836A (en) 1993-11-24 1997-02-11 Lucent Technologies Inc. Multiple access cellular communication with circular interleaving and reduced dropped-packet runlengths
EP0841763A1 (en) * 1996-10-25 1998-05-13 Nokia Mobile Phones Ltd. Method for radio resource control
WO1999026430A1 (en) * 1997-11-19 1999-05-27 Ensemble Communications, Inc. An adaptive time division duplexing method and apparatus for dynamic bandwidth allocation within a wireless communication system

Also Published As

Publication number Publication date
KR20090110371A (ko) 2009-10-21
BR0012332A (pt) 2002-07-02

Similar Documents

Publication Publication Date Title
KR100946414B1 (ko) Tcp/ip 패킷-중심 와이어리스 전송 시스템 아키텍처
US20180069668A1 (en) TRANSMISSION CONTROL PROTOCOL/INTERNET PROTOCOL (TCP/IP) PACKET-CENTRIC WIRELESS POINT TO MULTI-POINT (PtMP) TRANSMISSION SYSTEM ARCHITECTURE
USRE46206E1 (en) Method and computer program product for internet protocol (IP)—flow classification in a wireless point to multi-point (PTMP) transmission system
US6628629B1 (en) Reservation based prioritization method for wireless transmission of latency and jitter sensitive IP-flows in a wireless point to multi-point transmission system
US6640248B1 (en) Application-aware, quality of service (QoS) sensitive, media access control (MAC) layer
US6680922B1 (en) Method for the recognition and operation of virtual private networks (VPNs) over a wireless point to multi-point (PtMP) transmission system
KR100877633B1 (ko) Tcp/ip 패킷-중심 와이어리스 전송 시스템 아키텍처
KR101065857B1 (ko) Tcp/ip 패킷-중심 와이어리스 전송 시스템 아키텍처 및 전송 방법
KR100825502B1 (ko) Tcp/ip 패킷-중심 와이어리스 전송 시스템 아키텍처
KR100825507B1 (ko) Tcp/ip 패킷-중심 와이어리스 전송 시스템 아키텍처

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140828

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160629

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180628

Year of fee payment: 8