KR101159448B1 - 논리적 파티션들 사이의 네트워크 어댑트 리소스 할당 - Google Patents

논리적 파티션들 사이의 네트워크 어댑트 리소스 할당 Download PDF

Info

Publication number
KR101159448B1
KR101159448B1 KR1020107004315A KR20107004315A KR101159448B1 KR 101159448 B1 KR101159448 B1 KR 101159448B1 KR 1020107004315 A KR1020107004315 A KR 1020107004315A KR 20107004315 A KR20107004315 A KR 20107004315A KR 101159448 B1 KR101159448 B1 KR 101159448B1
Authority
KR
South Korea
Prior art keywords
partition
priority
resources
request
resource
Prior art date
Application number
KR1020107004315A
Other languages
English (en)
Other versions
KR20100066458A (ko
Inventor
티모시 제리 스킴
숀 마이클 람베스
리 안톤 젠델바흐
엘렌 마리 바우만
Original Assignee
인터내셔널 비지네스 머신즈 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인터내셔널 비지네스 머신즈 코포레이션 filed Critical 인터내셔널 비지네스 머신즈 코포레이션
Publication of KR20100066458A publication Critical patent/KR20100066458A/ko
Application granted granted Critical
Publication of KR101159448B1 publication Critical patent/KR101159448B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Computer And Data Communications (AREA)

Abstract

일 실시예에서, 네트워크 어댑터는 다수의 논리적 포트들로 멀티플렉싱된 물리적 포트를 가지며, 이 다수의 논리적 포트들은 디폴트 큐들을 갖는다. 상기 어댑터는 또한 다른 큐들을 갖는데, 이 큐들은 어떤 논리적 포트, 및 리소스들에 할당될 수 있으며, 이들 리소스들은 터플들을 큐들에 매핑한다. 상기 터플들은 상기 물리적 포트로부터 수신된 패킷들에서의 데이터로부터 유래된다. 상기 어댑터는 상기 수신된 터플 및 상기 리소스들에 기초하여 큐가 패킷을 수신하는지를 결정한다. 만약 상기 수신된 터플이 리소스에 매치한다면, 상기 어댑터는 상기 패킷을 대응하는 큐에 저장하고, 만약 매치하지 않는다면, 상기 어댑터는 상기 패킷을 상기 패킷에 의해 규정된 논리적 포트에 대한 디폴트 큐에 저장한다. 요청하는 파티션으롤부터 할당 요청을 수신하는 것에 응답하여, 만약 어떠한 리소스들도 아이들이 아니면, 리소스는 선택된 파티션에 이미 할당된 프리엠프션(preemption)에 대해 선택된다. 그런 다음 상기 선택된 리소스는 상기 요청하는 파티션에 할당된다.

Description

논리적 파티션들 사이의 네트워크 어댑트 리소스 할당{ALLOCATING NETWORK ADAPTER RESOURCES AMONG LOGICAL PARTITIONS}
본 발명은 일반적으로 논리적으로 파티션된 컴퓨터에서 다수의 파티션들 사이에 네트워크 어댑터의 리소스들을 할당하는 것과 관련된다.
1948년의 EDVAC 컴퓨터 시스템의 개발은 종종 컴퓨터 시대의 시작으로 인용된다. 그 이후로, 컴퓨터 시스템들은 매우 복잡한 디바이스들로 발전해 왔다. 컴퓨터 시스템들은 일반적으로 하드웨어(예, 반도체, 회로기판 등)와 소프트웨어(예, 컴퓨터 프로그램)의 조합을 포함한다. 반도체 공정 및 컴퓨터 아키텍쳐의 발전들은 컴퓨터 하드웨어의 성능이 더 높아지도록 강요함에 따라, 더 복잡한 컴퓨터 소프트웨어는 더 높은 성능의 하드웨어를 이용하도록 발전해 왔으며, 그 결과 단지 몇 년 전보다 훨씬 더 강력한 오늘날의 컴퓨터 시스템들을 가져왔다. 컴퓨터 기술에서의 한가지 발전은 병렬 처리(parallel processing) - 즉 병렬로 멀티 태스크들(multi tasks)을 수행하는 것 - 의 발전이다.
증가된 병렬 처리를 용이하게 하기 위해 많은 컴퓨터 소프트웨어 및 하드웨어 기술들이 개발되어 왔다. 하드웨어 관점에서 보면, 컴퓨터들은 증가된 작업 용량(workload capacity)을 제공하기 위해 다수의 마이크로프로세서들(multiple microprocessors)에 점점 더 의존하게 되었다. 소프트웨어 관점에서 보면, 멀티스레드의(multithreaded) 운영체계들 및 커널들이 개발되어, 컴퓨터 프로그램들이 멀티스레드들(multiple threads)에서 동시에 실행하는 것이 가능하게 되었고, 따라서, 멀티 태스크들이 확실하게 동시에 수행될 수 있게 되었다. 또한, 일부 컴퓨터들은 논리적 파티셔닝(logical partitioning)의 개념을 구현한다. 상기 논리적 파티셔닝 개념은 하나의 물리적 컴퓨터(physical computer)를 마치 물리적 컴퓨터의 다양한 리소스들을 갖는 다수의 독립적인 가상의 컴퓨터들 - 이를 논리적 파티션들이라 함 - 처럼 동작하도록 허용하며, 여기서의 여러 리소스들(예, 프로세서, 메모리, 어댑터, 및 입력/출력 디바이스)은 파티션 매니저(partition manager), 또는 하이퍼바이저(hypervisor)를 통해 여러 논리적 파티션들 사이에 할당된다. 각각의 논리적 파티션은 개별적인 운영체계를 실행하고, 사용자들의 관점에서 그리고 논리적 파티션에서 실행 중인 소프트웨어 어플리케이션들의 관점에서, 전부가 독립적인 컴퓨터로서 동작한다.
각각의 논리적 파티션은 컴퓨터의 한정된 리소스들에 대해 다른 논리적 파티션들과 필수적으로 경쟁하고 또한 각각의 논리적 파티션의 필요사항들(needs)도 시간에 따라 변할 수 있기 때문에, 논리적으로 파티션된 시스템에서의 한가지 해결해야할 과제는 리소스들을 파티션들에 동적으로 할당하여, 그 파티션들이 컴퓨터 시스템의 한정된 리소스들을 공유하도록 하는 것이다. 다수의 파티션들에 의해 종종 공유되는 하나의 리소스는 네트워크 어댑터(network adapter)이다. 네트워크 어댑터는 컴퓨터 시스템(및 그것을 공유하는 파티션들)을 네트워크에 연결하여, 파티션들이 다른 시스템들(이들은 또한 그 네트워크에 연결됨)과 통신할 수 있도록 한다. 네트워크 어댑터는 일반적으로 하나 또는 그 이상의 물리적 포트들 - 물리적 포트들 각각은 네트워크 어드레스를 가짐 - 을 통해 네트워크에 연결된다. 네트워크 어댑터는 그 네트워크 어댑터의 물리적 포트들을 통해 네트워크에 데이터의 패킷들을 송신하고, 만약 데이터의 패킷들이 네트워크 어댑터의 물리적 포트 어드레스를 가지고 있다면, 네트워크로부터 데이터의 패킷들을 수신한다.
많은 논리적 파티션들은 종종 액티브 상태(active)(이하에서는, '액티브(active)'로 표현함)이기 때문에, 다른 많은 세션들도 또한 주어진 네트워크 어댑터에 대해 동시에 액티브이다. 패킷들에 대해 요구되는 하이퍼바이저 처리(required hypervisor processing)가 감소되도록 하고 패킷들이 그것들을 기다리고 있는 파티션에서의 어플리케이션에 직접 라우트(route)되도록 하기 위해, 네트워크 어댑터는 패킷들의 인커밍 트래픽(incoming traffic)을 소팅(sort)하는 것이 바람직하다. 통상적으로 각각의 파티션은 네트워크 연결을 필요로 하지만(적어도 일시적으로는), 항상 물리적 포트의 전체 대역폭을 필요로 하지는 않기 때문에, 파티션들은 종종 물리적 포트를 공유한다. 이러한 공유는 네트워크 어댑터에 의해 구현되는데, 상기 네트워크 어댑터는 하나(또는 그 이상)의 물리적 포트를 다수의 논리적 포트들(multiple logical ports)(논리적 포트들 각각은 하나의 파티션(single partition)에 할당됨)로 멀티플렉싱(multiplexing)한다. 따라서, 각각의 논리적 파티션에게는 논리적 네트워크 어댑터(logical network adapter) 및 논리적 포트(logical port)가 할당된다. 그리고, 각각의 논리적 파티션은, 자신의 논리적 네트워크 어댑터 및 논리적 포트를 마치 그것이 전용의 독립형(dedicated stand-alone) 물리적 어댑터(physical adapter) 및 물리적 포트(physical port)인 것처럼 사용한다.
논리적 포트들을 사용하여 패킷들을 그것들의 타겟 파티션들로 라우트하는 것은 때로는 큐 페어들(queue pairs, QPs)을 통해 구현된다. 각각의 논리적 포트에게는 하나의 큐 페어(송신 큐(send queue) 및 수신 큐(receive queue)) - 이것들은 인커밍 패킷들의 디폴트 큐 페어(default queue pair)로 기능함 - 가 주어지거나 배정(assign)된다. 네트워크 어댑터가 네트워크로부터 하나의 패킷을 수신할 경우, 네트워크 어댑터는 타겟 논리적 포트 어드레스(target logical port address)의 룩업(lookup)을 수행하고, 그러한 논리적 포트 어드레스에 기초하여 인커밍 패킷을 적절한 큐 페어로 라우트한다.
일부 네트워크 어댑터들은 또한 패킷들의 디코드(decode) 및 소팅(sorting)을 가속화(accelerate)하기 위해 "퍼 커넥션 큐잉(per connection queuing)"으로 알려진 메커니즘을 제공한다. 네트워크 어댑터는 추가 큐 페어들을 할당하고, 인커밍 패킷들을 그 추가 큐 페어들에 배치할 수 있다. 매핑 테이블(mapping table)은 이러한 라우팅을 용이하게 하도록 한다. 상기 매핑 테이블에는 "터플(tuple)"이 있고 그 터플과 연관된 패킷들이 어느 큐 페어로 전달(deliver)되는지에 관한 표시가 있다. 터플은 다양한 네트워크와 목적지 어드레스들(destination addresses)의 조합으로서, 하나의 세션을 고유하게 식별한다. 터플의 사용은 네트워크 어댑터가 패킷들을 다른 큐 페어들 내로 자동으로 소팅하도록 허용하며, 그런 다음 파티션들이 먼저 장황한 전처리(preprocessing)(이 전처리는 장황할 수 있음)를 할 필요없이 즉시 처리를 시작하여 인커밍 패킷들을 소팅하도록 허용한다. 그러나, 문제는 네트워크 어댑터가 매핑 테이블에서 픽스된(fixed) 수의 레코드들(리소스들)만을 지원할 뿐이라는 것이고, 이들 리소스들이 논리적 파티션들 사이에 공유되어야 한다는 것이다.
리소스들을 공유하기 위한 현재의 첫 번째 기술은 파티션들에게 이용가능한 리소스들의 전용의(dedicated) 픽스된 할당이다. 이 기술은 종종 많은 리소스들이 미사용(unuse)될 것이라는 문제점을 갖고 있다. 왜냐하면, 예를 들어 주어진 파티션이 현재 액티브가 아니고, 아이들 상태(idle)(이하에서는, '아이들(idle)'로 표현함)이거나 상대적으로 덜 바쁜 상태(less busy)라서, 파티션이 그것의 리소스들의 전체 할당을 필요로 하지 않게 되기 때문이다. 그러나, 다른 파티션들은 더 바쁜 상태로 될 수 있고, 만약 아이들 리소스들이 그것들에 할당될 수만 있다면 그것들의 중요한 작업을 가속화하기 위해 그러한 아이들 리소스들을 사용할 수 있다.
리소스들을 공유하기 위한 현재의 두 번째 기술은 파티션들 변경(partitions change)의 요구들과 같이, 파티션들에 의한 리소스들의 사용을 모니터링하여 그 리소스들을 재배정(reassign)하려는 시도이다. 이 기술은 몇 가지 문제점들을 갖는다. 첫째, 이 기술은 리소스들의 현재 사용량에 관한 실시간(또는 적어도 시기적절한(timely)) 모니터링을 요한다. 둘째, 원하는 사용량(예, 파티션이 리소스들의 그것의 현재의 할당보다 더 많은 것을 원할 수 있음)이 또한 결정될 필요가 있고, 파티션들 각각과의 온고잉(ongoing) 통신을 요구할 수 있다. 셋째, 리소스 할당들에서의 변경들에 영향을 미칠 수 있기에 앞서 리소스 요구들이 다시 변경될 정도로 충분한 레이턴시(latency)가 존재할 수 있으므로, 일시적인 리소스 요구들에서 문제들이 발생할 수 있다. 넷째, 다른 파티션들에 배정된 리소스들의 상대적 값을 결정하는 것은 어렵다. 마지막으로, 다른 파티션들은 다른 목표들 및 다른 우선순위들을 가질 수 있기 때문에, 리소스들을 가장 효과적으로 할당하는 방법을 결정하는 것은 어렵다. 예를 들어, 하나의 파티션은 레이턴시를 감소시키기를 원할 수 있는 반면에, 또 다른 파티션은 처리율(throughput)을 증가시키기를 원할 수 있다. 또 다른 예로서, 하나의 파티션은 중요한 작업(valuable work)을 수행하기 위해 리소스를 사용할 수 있는 반면에, 또 다른 파티션은 덜 중요한 작업을 수행하거나 단지 그것의 리소스가 이용가능하기 때문에 그것을 이용하고, 그래서 그 리소스는 다른 파티션에서 더 잘 사용될 수도 있다.
본 발명의 제1 측면에 따른 방법이 제공되는데, 그 방법은, 제1 요청 파티션(first requesting partition)으로부터 제1 할당 요청(first allocation request)을 수신하는 단계 - 상기 제1 할당 요청은 터플 및 큐(queue)의 식별자(identifier)를 포함함 -; 복수의 리소스들 중에서 하나의 리소스를 선택하는 단계 - 상기 선택된 리소스는 선택된 파티션(selected partition)에 할당(allocate)됨 -; 및 상기 선택된 리소스를 상기 제1 요청 파티션에 할당하는 단계 - 상기 할당하는 단계는 상기 큐에 대한 상기 터플의 매핑(mapping of the tuple to the queue)을 상기 선택된 리소스 내에 저장하는 단계를 더 포함함 - 를 포함한다.
본 발명의 제2 측면에 따라, 명령들(instructions)로써 인코딩된 스토리지 매체가 제공되는데, 상기 명령들은 실행될 때, 제1 요청 파티션으로부터 제1 할당 요청을 수신하는 단계 - 상기 제1 할당 요청은 터플 및 큐의 식별자를 포함함 -; 복수의 리소스들 모두가 할당되는지를 결정하는 단계; 상기 결정에 응답하여, 상기 복수의 리소스들 중에서 하나의 리소스를 선택하는 단계 - 상기 선택된 리소스는 선택된 파티션에 할당됨 -; 및 상기 선택된 리소스를 상기 제1 요청 파티션에 할당하는 단계 - 상기 할당하는 단계는 상기 큐에 대한 상기 터플의 매핑을 상기 선택된 리소스에 저장하는 단계를 더 포함함 - 를 포함한다.
본 발명의 제3 측면에 따른 컴퓨터가 제공되는데, 상기 컴퓨터는 프로세서; 상기 프로세서에 통신상으로 연결된 메모리; 및 상기 프로세서에 통신상으로 연결된 네트워크 어댑터(network adapter)를 포함하되,
상기 메모리는 명령들을 인코딩하며, 상기 명령들은 상기 프로세서에 의해 실행될 때, 제1 요청 파티션으로부터 제1 할당 요청을 수신하는 단계 - 상기 제1 할당 요청은 터플 및 큐의 식별자를 포함함 -, 복수의 리소스들 모두가 할당되는지를 결정하는 단계, 상기 결정에 응답하여 상기 복수의 리소스들 중에서 하나의 리소스를 선택하는 단계 - 상기 선택된 리소스는 선택된 파티션에 할당됨 - 를 포함하고,
상기 네트워크 어댑터는 로직(logic) 및 상기 복수의 리소스들을 포함하고, 상기 로직은 상기 제1 큐에 대한 상기 터플의 매핑을 상기 선택된 리소스에 저장함에 의해 상기 선택된 리소스를 상기 제1 요청 파티션에 할당한다.
본 발명은 컴퓨터 소프트웨어로 구현될 수 있다.
바람직하게 모든 파티션들에 걸쳐 네트워크 어댑터의 이용가능한 리소스들을 더 효과적으로 이용하는 향상된 기술이 제공된다.
방법, 장치, 시스템 및 스토리지 매체가 제공된다. 일 실시예에서, 제1 할당 요청은 요청 파티션(requesting partition)으로부터 수신된다. 상기 제1 할당 요청은 터플, 큐의 식별자, 및 제1 우선순위(first priority)를 포함한다. 상기 제1 할당 요청을 수신하는 것에 응답하여, 만약 어떤 리소스들도 아이들(idle)이 아니라면, 선택된 파티션에 이미 할당된 리소스는 제2 우선순위로(at a second priority) 선택된다. 그런 다음 상기 선택된 리소스는 상기 요청 파티션에 할당된다. 상기 할당은 상기 큐에 대한 상기 터플의 매핑을 상기 선택된 리소스 내에 저장하는 단계를 포함한다. 일 실시예에서, 상기 리소스는, 다른 파티션들에 제2 우선순위로 - 여기서, 상기 제2 우선순위는 상기 할당된 리소스들의 가장 낮은 우선순위임 - 할당된 리소스들의 퍼센티지와 비교해서, 상기 할당 요청의 제1 우선순위가 상기 선택된 파티션에 대한 할당의 제2 우선순위보다 더 큰지를 결정함에 의해, 그리고 상기 선택된 파티션이 상기 제2 우선순위로 자신의 할당된 리소스들의 가장 큰 퍼센티지를 할당받는지를 결정함에 의해, 선택된다. 또 다른 실시예에서, 상기 리소스는, 상기 제1 우선순위가 현재 할당된 모든 리소스들의 우선순위들보다 낮거나 같은지를 결정함에 의해 그리고 상기 요청 파티션이 상기 제2 우선순위로 - 여기서, 상기 제2 우선순위는 상기 제1 우선순위와 일치함 - 할당된 리소스들의 선택된 파티션들의 상한(upper limit)의 퍼센티지보다 낮은 상기 제1 우선순위로 할당된 리소스들의 상한의 퍼센티지를 갖는지를 결정함에 의해, 선택된다. 이런 방법으로, 일 실시예에서, 리소스들은 더 효과적으로 파티션들에 할당되어, 패킷 처리의 성능을 증가시킨다.
이제 본 발명의 바람직한 실시예들이 단지 예로서 다음의 도면들을 참조하여 기술될 것이다.
도 1은 본 발명의 일 실시예를 구현하기 위한 시스템 예의 하이 레벨 블록도를 도시한다.
도 2는 본 발명의 일 실시예에 따른 네트워크 어댑터 예의 블록도를 도시한다.
도 3은 본 발명의 일 실시예에 따른 파티션 예의 블록도를 도시한다.
도 4는 본 발명의 일 실시예에 따른 구성 요구에 대한 데이터 구조 예의 블록도를 도시한다.
도 5는 본 발명의 일 실시예에 따른 리소스 한도들(resource limits)에 대한 데이터 구조 예의 블록도를 도시한다.
도 6은 본 발명의 일 실시예에 따른 구성 데이터에 대한 데이터 구조 예의 블록도를 도시한다.
도 7은 본 발명의 일 실시예에 따른 액티베이션 요청들(activation requests)에 대한 처리 예의 흐름도를 도시한다.
도 8은 본 발명의 일 실시예에 따른 할당 요청에 대한 처리 예의 흐름도를 도시한다.
도 9는 본 발명의 일 실시예에 따라 할당된 리소스가 프리엠프트(preempt)되어야 하는지의 여부를 결정하기 위한 처리 예의 흐름도를 도시한다.
도 10는 본 발명의 일 실시예에 따라 리소스의 할당을 프리엠프트(preempt)하기 위한 처리 예의 흐름도를 도시한다.
도 11은 본 발명의 일 실시예에 따라 리소스의 할당해제(deallocate)하기 위한 처리 예의 흐름도를 도시한다.
도 12는 본 발명의 일 실시예에 따라 패킷을 수신하기 위한 처리 예의 흐름도를 도시한다.
도 13은 본 발명의 일 실시예에 따라 파티션을 디액티베이트(deactivate)하기 위한 처리 예의 흐름도를 도시한다.
도 14는 본 발명의 일 실시예에 따라 저장된 할당 요청을 다루기 위한 처리 예의 흐름도를 도시한다.
그러나, 본 발명이 균등한 효과를 갖는 실시예들을 허용할 수 있으므로, 첨부된 도면들은 단지 본 발명의 실시예들을 설명하기 위한 것이므로 발명의 범위를 제한하는 것으로 고려되어서는 아니됨을 주목하자.
일 실시예에서, 네트워크 어댑터는 다수의 논리적 포트들로 멀티플렉싱된 물리적 포트를 갖는다. 각각의 논리적 포트는 디폴트 큐(default queue)를 갖는다. 상기 네트워크 어댑터는 또한 논리적 포트에 할당될 수 있는 추가 큐들(additional queues)을 갖는다. 상기 네트워크 어댑터는 터플들과 큐들 사이의 매핑들의 테이블 - 이는 리소스들로 알려짐 - 을 갖는다. 상기 터플들은 패킷들의 필드들에서 데이터의 조합으로부터 유래(derive)된다. 상기 네트워크 어댑터는 상기 디폴트 큐 또는 또 다른 큐가 상기 패킷에서의 터플 및 상기 테이블에서의 리소스들에 기초하여 패킷을 수신해야 하는지를 결정한다. 만약 상기 인커밍 패킷으로부터 유래된 터플이 상기 테이블에서의 하나의 터플과 매치한다면, 상기 네트워크 어댑터는 상기 터플에 대해 대응하는 규정된 큐로 상기 패킷을 라우트(route)한다. 만약 매치하지 않는다면, 상기 네트워크 어댑터는 상기 패킷에 의해 규정된 논리적 포트에 대한 디폴트 큐로 상기 패킷을 라우트한다. 파티션들은 하이퍼바이저에게 할당 요청들을 송신함에 의해 상기 큐들 및 상기 터플들에 대한 리소스들의 할당을 요청한다. 만약 어떤 리소스들도 아이들이 아니거나 미할당(unallocate)되지 않는다면, 이미 할당된 리소스가 선택되고 그것의 할당이 프리엠프트(preempt)되어, 상기 선택된 리소스는 상기 요청 파티션에 할당될 수 있다. 이러한 방법으로, 일 실시예에서, 리소스들은 더 효과적으로 파티션들에 할당되어, 패킷 처리의 성능을 증가시킨다.
도면들을 참조하면, 각각의 도면에서 유사한 참조부호들은 유사한 부분들을 표기한다. 도 1은 본 발명의 일 실시예에 따른 서버 컴퓨터 시스템(100)의 하이 레벨 블록도 표현을 도시한다. 서버 컴퓨터 시스템(100)은 하드웨어 관리 콘솔 컴퓨터 시스템(132) 및 클라이언트 컴퓨터 시스템(135)에 네트워크(130)를 통해 연결되어 있다. 여기서 "클라이언트" 및 "서버" 라는 용어는 단지 설명의 편의를 위해 사용되는 것이며, 다양한 실시예들에서 하나의 환경에서의 클라이언트로서 동작하는 컴퓨터 시스템이 또 다른 환경에서의 서버로서 동작할 수도 있고 그 반대의 경우일 수도 있다. 일 실시예에서, 컴퓨터 시스템들(100, 132, 135)의 하드웨어 컴포넌트들은 뉴욕(New York) 아몽크(Armonk)의 IBM사(International Business Machines Corporation)로부터 이용가능한 IBM® 시스템 i5 컴퓨터 시스템들에 의해 구현될 수 있다(여기서, IBM은 미국 또는 다른 국가들에서 IBM사의 등록상표임). 그러나, 당해 기술분야에서 숙련된 자라면 본 발명의 실시예들의 메커니즘들 및 장치를 적절한 컴퓨팅 시스템에 동일하게 적용할 수 있다는 것을 알 수 있을 것이다.
컴퓨터 시스템(100)의 주요 컴포넌트들은 하나 또는 그 이상의 프로세서들(101), 메인 메모리(102), 터미널 인터페이스(111), 스토리지 인터페이스(112), 입력/출력(I/O) 디바이스 인터페이스(113), 및 네트워크 어댑터(114)를 포함하는데, 이 모두는 메모리 버스(103), I/O 버스(104), 및 I/O 버스 인터페이스 유닛(105)을 통한 인터-컴포넌트 통신(inter-component communication)을 위해, 직접적으로 또는 간접적으로 통신상으로 결합된다.
컴퓨터 시스템(100)은 하나 또는 그 이상의 범용 프로그램가능 중앙처리장치(CPU)들(101A, 101B, 101C, 및 101D)를 포함하는데, 여기서는 일반적으로 프로세서(101)로 일컬어진다. 일 실시예에서, 컴퓨터 시스템(100)은 비교적 큰 시스템의 전형적인 다수의 프로세서들을 포함한다. 그러나, 다른 실시예에서 컴퓨터 시스템(100)은 이와는 다르게 하나의 CPU 시스템일 수 있다. 각각의 프로세서(101)는 메인 메모리(102)에 저장된 명령들을 실행하고 하나 또는 그 이상의 레벨들의 온보드 캐쉬(on-board cache)를 포함할 수 있다.
메인 메모리(102)는 데이터 및 프로그램들을 저장 또는 인코딩하기 위한 임의 접근 반도체 메모리(random-access semiconductor memory)이다. 또 다른 실시예에서, 메인 메모리(102)는 컴퓨터 시스템(100)의 전체 가상 메모리를 나타내고, 또한 네트워크(130)를 통해 연결되거나 컴퓨터 시스템(100)에 결합된 다른 컴퓨터 시스템들의 가상 메모리를 포함할 수 있다. 메인 메모리(102)는 개념적으로는 하나의 모놀리식(monolithic) 독립체이지만, 다른 실시예들에서 메인 메모리(102)는 더 복잡한 방식(예를 들어, 캐쉬들 및 다른 메모리 디바이스들의 체계(hierarchy))이다. 예를 들어, 메모리는 다수 레벨들의 캐쉬들에 존재할 수도 있고, 하나의 캐쉬가 명령들을 보유하고 또 다른 캐쉬가 비명령 데이터(non-instruction data) - 이는 프로세서 또는 프로세서들에 의해 사용됨 - 를 보유하도록, 이들 캐쉬들은 기능(function)에 의해 더 나눠질 수 있다. 나아가 메모리는 분산되고 다른 CPU들 또는 CPU들의 세트들과 연관될 수 있다(어떤 다양한 이른바 NUMA(non-uniform memory access) 컴퓨터 아키텍쳐들로 알려진 바와 같이).
메인 메모리(102)는 파티션들(150-1 및 150-2), 하이퍼바이저(152), 리소스 한도들(154), 및 구성 데이터(156)를 저장 또는 인코딩하고, 구성 데이터(156)는 다른 실시예들에서 다른 컴퓨터 시스템(100)에서의 메모리(102) 내에 포함되는 것으로 도시되고 있지만, 그것들 중 일부 또는 전부는 다른 컴퓨터 시스템들 상에 있을 수 있고 원격으로 - 예를 들어, 네트워크(130)를 통해 - 접근될 수 있다. 컴퓨터 시스템(100)은 컴퓨터 시스템(100)의 프로그램들이 마치 그것들이 다수의 작은 스토리지 독립체들에 접근하는 것 대신에 단지 큰 하나의 스토리지 엔티티에 접근하는 것처럼 동작하도록 허용하는 가상 어드레싱 메커니즘들을 사용할 수 있다. 따라서, 파티션들(150-1 및 150-2), 하이퍼바이저(152), 리소스 한도들(154), 및 구성 데이터(156)가 메인 메모리(102) 내에 포함되어 있는 것으로 도시되어 있지만, 이들 구성요소들은 반드시 모두 동시에 동일한 스토리지 디바이스에 포함될 필요는 없다. 나아가, 파티션들(150-1 및 150-2), 하이퍼바이저(152), 리소스 한도들(154), 및 구성 데이터(156)가 개별 독립체들인 것으로 도시되어 있지만, 다른 실시예들에서 그것들의 일부, 그것들의 일부의 부분들, 또는 그것들 모두가 함께 패키지될 수 있다.
파티션들(150-1 및 150-2)은 도 3을 참조하여 이하에서 더 기술된다. 하이퍼바이저(152)는 파티션들(150-1 및 150-2)을 액티베이트(activate)하고, 하드웨어 관리 콘솔(132)로부터의 요청들에 응답하여, 리소스 한도들(154) 및 구성 데이터(156)를 사용하여 리소스들을 파티션들(150-1 및 150-2)에 할당한다. 리소스 한도들(154)은 도 5를 참조하여 이하에서 더 기술된다. 구성 데이터(156)는 도 6을 참조하여 이하에서 더 기술된다.
일 실시예에서, 하이퍼바이저(152)는 프로세서(101) 상에서 실행될 수 있는 명령들 및 프로세서(101) 상에서 실행되는 명령들에 의해 인터프리트될 수 있는 표현들(statements)을 포함하여, 도 7, 8, 9, 10, 11, 12, 13 및 14를 참조하여 이하에서 더 기술되는 것과 같은 기능들을 수행한다. 또 다른 실시예에서, 하이퍼바이저(152)는 프로세서 기반의 시스템을 대신하거나 그것에 추가된 논리적 게이트들 또는 다른 하드웨어 디바이스들을 통해 하드웨어로 구현된다.
메모리 버스(103)는 프로세서(101), 메인 메모리(102), 및 I/O 버스 인터페이스 유닛(105) 사이에서 데이터를 전송하기 위한 데이터 통신 경로를 제공한다. I/O 버스 인터페이스 유닛(105)는 다양한 I/O 유닛들로 그리고 다양한 I/O 유닛들로부터 데이터를 전송하기 위한 시스템 I/O 버스(104)에 더 결합된다. I/O 버스 인터페이스 유닛(105)은 시스템 I/O 버스(104)를 통해 다수의 I/O 인터페이스 유닛들(111, 112, 113, 및 114) - 이는 또한 IO 프로세서들(IOPs) 또는 I/O 어댑터들(IOAs)로서 알려져 있음 - 과 통신한다. 시스템 I/O 버스(104)는 예를 들어, 산업 표준 PCI(Peripheral Component Interface) 버스, 또는 다른 적절한 버스 장비일 수 있다.
I/O 인터페이스 유닛들은 다양한 스토리지 및 I/O 디바이스들과의 통신을 지원한다. 예를 들어, 터미널 인터페이스 유닛(111)은 하나 또는 그 이상의 사용자 터미널들(121)의 부착(attachment)을 지원할 수 있는데, 이 하나 또는 그 이상의 사용자 터미널들(121)은 사용자 출력 디바이스들(예를 들어, 비디오 디스플레이 디바이스, 스피커, 및/또는 텔레비젼 세트) 및 사용자 입력 디바이스들(예를 들어, 키보드, 마우스, 키패드, 터치패드, 트랙볼, 버턴들, 라이트펜, 또는 다른 포인팅 디바이스)을 포함할 수 있다.
스토리지 인터페이스 유닛(112)은 하나 또는 그 이상의 DASD(direct access storage device)(125, 126, 및 127)(이는 전형적으로 회전하는 자기 디스크 드라이브 스토리지 디바이스들이나, 다르게는 호스트에 대해 하나의 큰 스토리지 디바이스로 보이도록 구성된 디스크 드라이브들의 어레이들을 포함하여 다른 디바이스들일 수 있음)의 부착(attachment)을 지원한다. 메인 메모리(102)의 내용들은 필요시 DASD들(125, 126, 및 127)에 저장되거나 DASD들(125, 126, 및 127)로부터 검색될 수 있다.
I/O 디바이스 인터페이스(113)는 다양한 다른 입력/출력 디바이스들, 프린터들 또는 팩스 머신들과 같은 다른 유형의 디바이스들로의 인터페이스를 제공한다. 네트워크 어댑터(114)는 컴퓨터 시스템(100)으로부터 다른 디지털 디바이스들 및 컴퓨터 시스템들(132 및 135)로 하나 또는 그 이상의 통신 경로들을 제공하며, 그러한 경로들은 예를 들어 하나 또는 그 이상의 네트워크들(130)을 포함할 수 있다.
메모리 버스(103)는 도 1에서, 프로세서들(101), 메인 메모리(102), 및 I/O 버스 인터페이스(105) 사이에서 직접적인 통신 경로를 제공하는 하나의 버스 구조로서 비교적 간단하게 도시되어 있지만, 실제 메모리 버스(103)는 다수의 다른 버스들 또는 통신 경로들을 포함할 수 있는데, 이러한 다른 버스들 및 통신 경로들은 다양한 형태들 - 예를 들어, 계층적인 점대점(point-to-point) 링크들, 스타 또는 웹 구성들, 다수의 계층적 버스들, 병렬 및 리던던트 경로들, 또는 그 밖의 적절한 유형의 구성 - 로 배열될 수 있다. 나아가, I/O 인터페이스(105) 및 I/O 버스(104)는 하나의 각각의 유닛들로 도시되어 있으나, 컴퓨터 시스템(100)은 사실상 I/O 버스 인터페이스 유닛들(105) 및/또는 다수의 I/O 버스들(104)을 포함할 수 있다. 다수의 I/O 인터페이스 유닛들 - 이것들은 다양한 I/O 디바이스들에 대해 실행 중인 다양한 경로들로부터 시스템 I/O 버스(104)를 분리함 - 이 도시되어 있으나, 다른 실시예들에서, I/O 디바이스들의 일부 또는 전부는 하나 또는 그 이상의 시스템 I/O 버스들에 직접적으로 연결된다.
다양한 실시예들에서, 컴퓨터 시스템(100)은 멀티 사용자(multi-user)의 "메인프레임" 컴퓨터 시스템, 단일 사용자(single-user) 시스템, 또는 서버 또는 유사 디바이스 - 이는 직접적인 사용자를 소수로 갖거나 갖지 않지만, 다른 컴퓨터 시스템들(클라이언트들)로부터 요청들을 수신함 - 일 수 있다. 다른 실시예들에서, 컴퓨터 시스템(100)은 개인용 컴퓨터, 휴대용 컴퓨터, 랩탑 또는 노트북 컴퓨터, PDA(Personal Digital Assistant), 타블렛 컴퓨터, 포켓 컴퓨터, 전화기, 페이저, 오토모바일(automobile), 텔리컨퍼런싱(teleconferencing) 시스템, 어플라이언스(appliance), 또는 다른 적절한 유형의 전자 디바이스로서 구현될 수 있다.
네트워크(130)는 적절한 네트워크 또는 네트워크들의 조합일 수 있고 컴퓨터 시스템(100), 하드웨어 관리 콘솔(132), 및 클라이언트 컴퓨터 시스템들(135)로/컴퓨터 시스템(100), 하드웨어 관리 콘솔(132), 및 클라이언트 컴퓨터 시스템들(135)로부터 데이터 및/또는 코드의 통신에 적합한 프로토콜을 지원할 수 있다. 다양한 실시예들에서, 네트워크(130)는 컴퓨터 시스템(100)에 직접적으로 또는 간접적으로 연결된 스토리지 디바이스 또는 스토리지 디바이스들의 조합을 나타낼 수 있다. 일 실시예에서, 네트워크(130)는 인피니밴드(Infiniband) 아키텍쳐를 지원할 수 있다. 또 다른 실시예에서, 네트워크(130)는 전화선 또는 케이블과 같은 하드와이어(hard-wired) 통신들을 지원할 수 있다. 또 다른 실시예에서, 네트워크(130)는 이더넷 IEEE 802.3 스펙을 지원할 수 있다. 또 다른 실시예에서, 네트워크(130)는 인터넷일 수 있고 IP(Internet Protocol)를 지원할 수 있다.
또 다른 실시예에서, 네트워크(130)는 LAN(local area network) 또는 WAN(wan area network)일 수 있다. 또 다른 실시예에서, 네트워크(130)는 핫스팟 서비스 제공자 네트워크일 수 있다. 또 다른 실시예에서, 네트워크(130)는 인트라넷일 수 있다. 또 다른 실시예에서, 네트워크(130)는 GPRS(General Packet Radio Service) 네트워크일 수 있다. 또 다른 실시예에서, 네트워크(130)는 FRS(Family Radio Service) 네트워크일 수 있다. 또 다른 실시예에서, 네트워크(130)는 적절한 셀룰러 데이터 네트워크 또는 셀 기반의 전파(radio) 네트워크 기술일 수 있다. 또 다른 실시예에서, 네트워크(130)는 IEEE 802.11B 무선 네트워크일 수 있다. 또 다른 실시예에서, 네트워크(130)는 적절한 네트워크 또는 네트워크들의 조합일 수 있다. 하나의 네트워크(130)가 도시되어 있지만, 다른 실시예들에서 다른 수의 네트워크들(동일 또는 다른 유형들의)이 제공될 수 있다. 클라이언트 컴퓨터 시스템(135)은 서버 컴퓨터 시스템(100)에 포함되는 것으로 위에서 이미 기술된 하드웨어 컴포넌트들의 일부 또는 전부를 포함할 수 있다. 클라이언트 컴퓨터 시스템(135)은 네트워크(130) 및 네트워크 어댑터(114)를 통해 파티션들(150-1 및 150-2)로 데이터의 패킷들을 보낸다. 다양한 실시예들에서, 데이터의 패킷들은 비디오, 오디오, 텍스트, 그래픽, 이미지, 프레임, 페이지, 코드, 프로그램, 또는 다른 적절한 데이터를 포함할 수 있다.
하드웨어 관리 콘솔(132)은 서버 컴퓨터 시스템(100)에 포함되는 것으로 위에서 이미 기술된 하드웨어 컴포넌트들의 일부 또는 전부를 포함할 수 있다. 특히, 하드웨어 관리 콘솔(132)은 I/O 디바이스(192) 및 프로세서(194)에 연결된 메모리(190)를 포함한다. 메모리(190)는 구성 매니저(198) 및 구성 요청(199)을 포함한다. 또 다른 실시예에서, 구성 매니저(198) 및 구성 요청(199)은 서버 컴퓨터 시스템(100)의 메모리(102)에 저장될 수 있고, 구성 매니저(198)는 프로세서(101) 상에서 실행될 수 있다. 구성 매니저(198)는 서버 컴퓨터 시스템(100)으로 구성 요청(199)을 보낸다. 구성 요청(199)은 도 4를 참조하여 이하에서 더 기술된다.
일 실시예에서, 도 7 및 13을 참조하여 이하에서 더 기술되는 바와 같은 기능들(functions)을 수행하기 위해, 구성 매니저(198)는 프로세서(194) 상에서 실행될 수 있는 명령들 또는 프로세서(194) 상에서 실행되는 명령들에 의해 인터프리트될 수 있는 표현들(statements)을 포함한다. 또 다른 실시예에서, 구성 매니저(198)는 프로세서 기반의 시스템을 대신하거나 부가된 논리적 게이트들 또는 다른 하드웨어 디바이스들을 통해 하드웨어로 구현된다.
도 1은 하이 레벨에서의 서버 컴퓨터 시스템(100)의 대표적인 주요 컴포넌트들, 네트워크(130), 하드웨어 관리 콘솔(132), 및 클라이언트 컴퓨터 시스템들(135)을 보여주고자 했으며, 여기서 개개의 컴포넌트들은 도 1에 도시된 것보다 더 복잡할 수 있으며, 도 1에 도시된 것들 이외의 컴포넌트들 또는 도 1에 도시된 것들에 부가된 컴포넌트들이 제공될 수 있으며, 그러한 컴포넌트들의 개수, 유형, 및 구성은 다양할 수 있다. 그러한 추가적인 복잡한 특징(complexity) 또는 추가적인 변형들(variations)의 몇몇의 구체적인 예들이 여기에 개시되는데, 그것은 반드시 그러한 변형들만인 것은 아니고 단지 예로서 제공되는 것임을 이해해야 한다.
도 1에 도시된 다양한 소프트웨어 컴포넌트들 및 발명의 다양한 실시예를 구현하는 것은, 다양한 컴퓨터 소프트웨어 어플리케이션들, 루틴들, 컴포넌트들, 프로그램들, 객체들, 모듈들, 데이터 구조들 등을 사용하는 것을 포함하여 많은 방법들로 구현될 수 있으며, 여기서는 앞으로 "컴퓨터 프로그램들" 또는 간단히 "프로그램들" 로 일컬어진다. 컴퓨터 프로그램들은 일반적으로 하나 또는 그 이상의 명령들을 포함하는데, 이 명령들은 서버 컴퓨터 시스템(100) 및/또는 하드웨어 관리 콘솔(132)에서의 다양한 메모리 및 스토리지 디바이스들에서 다양한 시기에 존재할 수 있고, 서버 컴퓨터 시스템(100) 및/또는 하드웨어 관리 콘솔(132)에서 하나 또는 그 이상의 프로세서들에 의해 읽혀서 실행될 때, 서버 컴퓨터 시스템(100) 및/또는 하드웨어 관리 콘솔(132)로 하여금 본 발명의 일 실시예의 다양한 측면들을 포함하는 단계들 또는 구성요소들을 실행하기에 필요한 단계들을 수행하도록 한다.
더욱이, 발명의 실시예들이 전체적으로 기능하는 컴퓨터 시스템들을 가지며 이후에는 그러한 전체적으로 기능하는 컴퓨터 시스템들의 맥락에서 기술될 것이지만, 발명의 다양한 실시예들은 다양한 형태들의 프로그램 제품으로서 분산될 수 있고, 그래서 발명은 실제로 그러한 분산을 수행하기 위해 사용되는 특정 유형의 신호 저장 매체에 관계없이 동일하게 적용된다. 이 실시예의 기능들을 한정하는 프로그램들은 다양한 실체적인(tangible) 신호 저장 매체(signal-bearing media) - 이는 프로세서(101 및 194)와 같은 프로세서 또는 프로세서들에 동작적으로 또는 통신상으로 (직접적으로 또는 간접적으로) 연결될 수 있음 - 를 통해 서버 컴퓨터 시스템(100) 및/또는 하드웨어 관리 콘솔(132)에 전달될 수 있다. 상기 신호 저장 매체는 다음의 것들을 포함할 수 있으나, 이러한 것으로 한정되는 것은 아니다.
(1) 논-리라이터블 스토리지 매체(non-rewriteable storage medium) - 예를 들어, CD-ROM 드라이브에 의해 읽기가능한 CD-ROM과 같이 컴퓨터 시스템 내에서 또는 컴퓨터 시스템에 부가된 읽기 전용 메모리 디바이스 - 상에 저장된 영구적인 정보.
(2) 리라이터블 스토리지 매체(rewriteable storage medium) - 예를 들어, 하드 디스크 드라이브(예, DASD 125, 126, 또는 127), 메인 메모리(102 또는 190), CD-RW, 또는 디스켓 - 상에 저장된 변경가능한 정보.
(3) 컴퓨터 또는 전화 네트워크 - 예, 네트워크(130) - 를 통해서와 같이 통신 매체에 의해 서버 컴퓨터 시스템(100) 및/또는 하드웨어 관리 콘솔(132)로 전송된 정보.
그러한 실체적인 신호 저장 매체는 본 발명의 기능들을 지시하는 컴퓨터 판독가능 및 실행가능한 명령들을 수행하거나 그것으로써 인코딩될 경우, 본 발명의 실시예를 나타낸다.
본 발명의 실시예들은 또한 클라이언트 회사, 비영리 조직, 정부 기관, 국제 조직 구조 등과의 서비스 업무의 일부로서 배포될 수 있다. 이들 실시예들의 측면들은 여기에 기술되는 방법들의 일부 또는 전부를 수행하기 위한 컴퓨터를 구성하는 것, 및 여기에 기술되는 방법들의 일부 또는 전부를 구현하는 컴퓨터 서비스들(예, 컴퓨터 판독가능 코드, 하드웨어, 및 웹 서비스들)을 배치(deploy)하는 것을 포함할 수 있다. 이들 실시예들의 측면들은 또한 클라이언트 회사를 분석하는 것, 상기 분석에 대응하는 권고들(recommendations)을 생성하는 것, 컴퓨터 판독가능 코드를 기존의 프로세스들, 컴퓨터 시스템들, 및 컴퓨팅 기반구조 내에 통합하는 것, 및 여기에 기술되는 방법들 및 시스템들의 사용을 계측하는 것(metering), 이들 방법들 및 시스템들에 관한 사용자들의 사용에 대해 사용자들에게 과금하는 것(billing)을 포함한다.
또한, 이후에 기술되는 다양한 프로그램들은 그것들이 발명의 특정 실시예로 구현되는 어플리케이션에 기초하여 식별될 수 있다. 그러나, 다음의 구체적인 프로그램 명명법은 단지 설명의 편의를 위한 것이므로, 발명의 실시예들은 그러한 명명법에 의해 식별 및/또는 암시되는 어떤 특정 어플리케이션에만 사용되는 것으로 한정되어서는 아니된다.
도 1에 도시된 예시적인 실시예들은 본 발명을 한정하려는 의도는 아니다. 사실상, 발명의 범위를 벗어남이 없이 다른 대체 하드웨어 및/또는 소프트웨어 환경들이 사용될 수 있다.
도 2는 발명의 일 실시예에 따른 네트워크 어댑터(114) 예의 블록도를 도시한다. 네트워크 어댑터(114)는 큐 페어들(210-1, 210-2, 210-10, 210-11, 210-12, 210-13, 210-14, 및 210-15)을 포함한다. 네트워크 어댑터(114)는 논리적 포트들(205-1, 205-2, 및 205-10)을 더 포함한다(연결된다). 네트워크 어댑터(114)는 리소스 데이터(215), 로직(220), 및 물리적 포트(225)를 더 포함한다(연결된다). 로직(220)은 물리적 포트(225), 리소스 데이터(215), 논리적 포트들(205-1, 205-2, 및 205-10) 및 큐 페어들(210-1, 210-2, 210-10, 210-11, 210-12, 210-13, 210-14, 및 210-15)에 연결된다.
다양한 실시예들에서, 큐 페어들(210-1, 210-2, 210-10, 210-11, 210-12, 210-13, 210-14, 및 210-15), 논리적 포트들(205-1, 205-2, 및 205-10), 및 리소스 데이터(215)는 메모리 로케이션들(memory locations) 및/또는 레지스터들(registers)을 통해 구현될 수 있다. 로직(220)은 로직 게이트들(logic gates), 모듈들(modules), 회로들, 칩들, 또는 다른 하드웨어 컴포넌트들에 의해 구현될 수 있는 하드웨어를 포함한다. 다른 실시예들에서, 로직(220)은 메모리에 저장되어 프로세서 상에서 실행되는 마이크로코드, 명령들, 또는 표현들(statements)에 의해 구현될 수 있다.
물리적 포트(225)는 네트워크 어댑터(114)와 다른 컴퓨터들 또는 디바이스들 - 이것들은 네트워크(130)의 일부를 형성함 - 사이의 물리적 인터페이스를 제공한다. 물리적 포트(225)는 플러그 또는 케이블이 연결된 아웃렛(outlet) 또는 장비의 다른 부분이다. 전기적으로는, 아웃렛을 구성하는 각각의 도전체들은 네트워크 어댑터(114)와 네트워크(130)의 디바이스들 사이에 신호 전송을 제공한다. 다양한 실시예들에서, 물리적 포트(225)는 숫포트(male port)(돌출된 핀들을 가짐) 또는 암포트(female port)(케이블의 상기 돌출된 핀들을 받아들이도록 설계된 리셉터클(receptacle)을 가짐)를 통해 구현될 수 있다. 다양한 실시예들에서, 물리적 포트(225)는 다양한 형태들(예를 들어, 원형, 직사각형, 정사각형, 사다리꼴(trapezoidal), 또는 다른 적절한 형태)을 가질 수 있다. 다양한 실시예들에서, 물리적 포트(225)는 직렬 포트 또는 병렬 포트일 수 있다. 직렬 포트는 하나의 와이어 페어(예, 접지 및 +/-)를 통해 한 번에 한 비트를 보내고 받는다. 병렬 포트는 각각의 와이어들의 세트를 통해 동시에 다수의 비트들을 보내고 받는다.
물리적 포트(225)가 네트워크(130)에 연결된 후, 네트워크 어댑터(114)는 전형적으로 "핸드쉐이킹(handshaking)" - 이 핸드쉐이킹은 두 개의 팩스 머쉰들이 연결을 이룰 때 발생하는 니고쉬에이션(negotiation)에 유사한 개념임 - 을 요구하는데, 여기서 전송 유형(transfer type), 전송률(transfer rate), 및 다른 필요한 정보는 심지어 데이터가 보내지기 전에 공유된다. 일 실시예에서, 물리적 포트(225)는 핫플러거블(hot-pluggable) - 이는 네트워크 어댑터(114)가 이미 파워온(전기 전력을 받아서) 되어 있는 동안 물리적 포트(225)가 플러그인될 수 있거나 네트워크(130)에 연결될 수 있다는 것을 의미함 - 상태이다. 일 실시예에서, 물리적 포트(225)는 플러그 앤 플레이 기능 - 이는 네트워크 어댑터(114)의 로직(220)이 핫플러깅(hot-plugging)이 수행되자마자 네트워크 어댑터(114) 및 그 연결되는 디바이스들이 자동적으로 핸드쉐이킹을 시작하도록 설계됨을 의미함 - 을 제공한다. 일 실시예에서, 특정 디바이스들을 위한 통신(정확한 신호들)을 허용하기 위해, 특정 소프트웨어(드라이버라 일컬어짐)는 네트워크 어댑터(114) 내로 로드되어야 한다.
물리적 포트(225)는 연관된 물리적 네트워크 어드레스를 갖는다. 물리적 포트(225)는 네트워크(130)로부터 패킷들을 수신하는데, 이러한 패킷들은 물리적 포트(225)의 물리적 네트워크 어드레스를 포함한다. 그런 다음, 로직(220)은 물리적 네트워크 어드레스가 패킷에서 규정된 논리적 포트로 그 패킷을 보내거나 라우트한다. 그리하여, 로직(220)은 다수의 논리적 포트들(205-1, 205-2, 및 205-10)을 생성하기 위해 하나의 물리적 포트(225)를 멀티플렉싱한다. 일 실시예에서, 논리적 포트들(205-1, 205-2, 및 205-10)은 논리적 이더넷 포트들이고, 각각은 구별되는 이더넷 MAC(Media Access Control) 어드레스를 갖는다. 각각의 파티션(운영체계 또는 어플리케이션)은 자신의 특정 논리적 포트의 단 하나의 소유자이고, 자신의 특정 논리적 포트에 대해 배타적인 접근을 갖는다. 그런 다음, 파티션(운영체계 인스턴스 또는 어플리케이션)은 그 파티션에 의해 소유되는 논리적 포트와 연관된 큐 페어로부터 패킷을 검색(retrieve)한다. 파티션이 패킷을 검색하는 큐 페어는 논리적 포트 또는 다른 큐 페어(210-11, 210-12, 210-13, 210-14, 또는 210-15) - 이는 로직(220)이 리소스 데이터(215)를 통해 그 논리적 포트에 임시로 할당한 것임 - 와 연관된 디폴트 큐 페어(210-1, 210-2, 또는 210-10)일 수 있다.
큐 페어들(210-1, 210-2, 210-10, 210-11, 210-12, 210-13, 210-14, 및 210-15)은 통신 링크들의 논리적 엔드포인트들이다. 큐 페어는 통신이 어플리케이션들과 디바이스들 사이에서 직접적인 메모리-대-메모리 전송들을 통해 달성되는 메모리 기반의 개념(abstraction)이다. 큐 페어는 작업 요청들(work requests, WR)의 송신 큐 및 수신 큐를 포함한다. 또 다른 실시예에서, 큐 페어 구성은 필요하지 않고, 송신 큐 및 수신 큐는 개별적으로 패키지될 수 있다. 각각의 작업 요청은 네트워크 어댑터(114)와 네트워크(130) 사이에서 데이터를 수신/송신하기 위해 등록된(registered) 버퍼들 내에 포인터들을 포함하는 메시지 트랜잭션(message transaction)을 위해 필요한 데이터를 포함한다.
일 실시예에서, 큐 페어 모델은 두 부류(two classes)의 메시지 트랜잭션들을 갖는다. 즉, 송신-수신 및 원격 DMA(Direct Memory Access)가 그것이다. 전송들을 실행하기 위해, 파티션(150-1 또는 150-2)에서의 어플리케이션 또는 운영 체계는 작업 요청을 구성하고, 그것을 파티션 및 논리적 포트에 할당된 큐 페어에 포스트(post)한다. 상기 포스팅 방법은 작업 요청을 적절한 큐 페어에 더(add)하고 네트워크 어댑터(114)의 로직(220)에게 펜딩 동작(pending operation)을 통지(notify)한다. 송신-수신 패러다임(paradigm)에서, 타겟 파티션 프리-포스트들(target partition pre-posts)은 인커밍 데이터가 배치될 메모리 영역들을 식별하는 작업 요청들을 수신한다. 소스 파티션(source partition)은 송신할 데이터를 식별하는 송신 작업 요청을 포스트한다. 소스 파티션 상의 각각의 송신 동작은 타겟 파티션 상의 수신 작업 요청을 소비(consume)한다. 이 기술에서, 파티션에서의 각각의 어플리케이션 또는 운영체계는 그 자신의 버퍼 스페이스를 관리하고 메시지 트랜잭션의 어느 단(end)도 피어(peer)의 등록된 버퍼들에 관한 분명한 정보를 갖지 않는다. 이와는 대조적으로, 원격 DMA 메시지들은 소스와 타겟 버퍼들 둘 다를 식별한다. 데이터는 타겟 파티션을 관여시키지 않고서 원격 어드레스 스페이스로 직접 쓰여지거나 원격 어드레스 스페이스로부터 직접 읽혀질 수 있다.
리소스 데이터(215)는 레코드들의 예(230, 232, 234, 236, 및 237)를 포함한다. 일 실시예에서, 리소스 데이터(215)의 서치들이 네트워크(130)로부터의 패킷들의 인커밍 스트림과 보조를 맞추기에 충분히 빠르게 완료될 수 있도록, 리소스 데이터(215)는 픽스된 크기 및 최대 수의 레코드들을 갖는다. 리소스 데이터(215)에서의 엔트리들 또는 레코드들(예, 레코드들(230, 232, 234, 236, 및 237))은 논리적 파티션들(150-1 및 150-2) 사이에 할당되는 리소스들이다. 레코드들(230, 232, 234, 236, 및 237) 각각은 리소스 식별자 필드(238), 연관 터플 필드(240), 연관 목적지 큐 페어 식별자 필드(242)를 포함한다. 리소스 식별자 필드(238)는 레코드, 또는 리소스를 식별한다. 터플 필드(240)는 일부 패킷(들)의 특성인 데이터를 포함하고, 다양한 실시예들에서, 일부 수신되거나 수신될 것으로 기되되는 패킷(들) 또는 패킷(들)의 필드들의 조합으로부터의 데이터를 포함할 수 있다. 다양한 실시예들에서, 터플(240)은 패킷(들)을 송신한 소스 컴퓨터 시스템(135)의 네트워크(예, IP 또는 인터넷 프로토콜 어드레스), 패킷(들)의 목적지의 네트워크 어드레스(예, IP 또는 인터넷 프로토콜 어드레스)(예, 물리적 포트(225)의 네트워크 어드레스), TCP/UDP(Transmission Control Protocol/User Datagram Protocol) 소스 포트, TCP/UDP 목적지 포트, 패킷(들)을 전송하기 위해 사용된 전송 프로토콜, 또는 패킷(들)의 목적지인 논리적 포트(205-1, 205-2, 또는 205-10)를 식별하는 논리적 포트 식별자를 포함할 수 있다.
목적지 큐 페어 식별자 필드(242)는 터플(240)에 의해 식별되는 패킷을 수신하기 위한 큐 페어를 식별한다. 그리하여, 리소스 데이터(215)에서의 레코드들(리소스들) 각각은 터플 필드(240)에서의 데이터와 목적지 큐 페어 필드(242)에서의 데이터 사이의 매핑(mapping) 또는 연관성(association)을 나타낸다. 만약 수신된 패킷으로부터 유래된 터플이 리소스 데이터(215)에서 레코드(리소스)에서의 터플(240)과 매치한다면, 로직(220)은 레코드(리소스)에서의 터플(240)과 연관된 대응하는 규정된 목적지 큐 페어에 패킷을 라우트, 송신, 또는 저장한다. 예를 들어, 만약 수신된 패킷으로부터 유래된 터플이 "터플 B" 라면, 로직(220)은 그 "터플 B"가 레코드(232)의 터플 필드(240)에 규정되어 있고, "큐 페어 E"가 레코드(232)에서의 대응하는 목적지 큐 페어 식별자 필드(242)에 규정되어 있다고 결정하고, 그래서 로직(220)은 큐 페어 E(210-12)에 그 수신된 패킷을 라우트, 송신, 또는 저장한다.
만약 인커밍 패킷으로부터 유래된 터플이 리소스 데이터(215)의 어떤 레코드(리소스)에서의 어떤 터플(240)과도 매치하지 않는다면, 로직(220)은 패킷에 규정된 논리적 포트와 연관된(또는 할당된) 디폴트 큐 페어에 그 패킷을 라우트, 송신, 또는 저장한다. 예를 들어, 큐 페어(210-1)는 논리적 포트(205-1)에 할당된 디폴트 큐 페어이고; 큐 페어(210-2)는 논리적 포트(205-2)에 할당된 디폴트 큐 페어이고; 큐 페어(210-10)는 논리적 포트(205-10)에 배정된 디폴트 큐 페어이다. 그리하여, 예를 들어, 만약 수신된 패킷으로부터 유래된 터플이 "터플 F" 라면, 로직(220)은 "터플 F"가 리소스 데이터(215)에서의 어떤 레코드(리소스)의 터플 필드(240)에 규정되어 있지 않다고 결정하고, 그래서 로직(220)은 수신된 패킷에 의해 규정된 논리적 포트에 배정된 디폴트 큐 페어인 큐 페어(210-1, 210-2, 또는 210-10)에 그 수신된 패킷을 라우트, 송신, 또는 저장한다.
도 3은 본 발명의 일 실시예에 따른 파티션 예(150)의 블록도를 도시한다. 파티션 예(150)는 파티션들(150-1 및 150-2)을 일반적으로 나타낸다. 파티션(150)은 운영 체계(305), 할당 요청(310), 및 어플리케이션(315)을 포함한다.
운영체계(305)는 프로세서(101) 상에서 실행가능한 명령들 또는 프로세서(101) 상에서 실행되는 명령들에 의해 인터프리트가능한 표현들(statements)을 포함한다. 운영체계(305)는 파티션되지 않은 컴퓨터의 운영체계와 많은 부분에서 동일한 방법으로 파티션(150)의 주 동작들을 제어한다. 운영체계(305)는 파티션(150)에 대한 기본 작업들을 수행하는데, 이러한 기본 작업들의 예로서는, 터미널(121)의 키보드로부터의 입력을 인식하는 것 및 터미널(121)의 디스플레이 스크린으로 출력을 송신하는 것이 있다. 운영체계(305)는 나아가 파일들 또는 데이터 객체들을 열고 닫을 수 있고, 스토리지 디바이스들(125, 126, 및 127)로부터 데이터를 읽고 스토리지 디바이스들(125, 126, 및 127)로 데이터를 쓸 수 있으며, 디스크 드라이브들 및 프린터들과 같은 주변 디바이스들을 제어한다.
나아가, 운영체계(305)는 멀티 사용자(multi-user), 멀티 처리(multiple-processing), 멀티 태스킹(multi-tasking), 및 멀티 스레딩 동작들(multi-threading operations)을 지원할 수 있다. 멀티 사용자 동작들에서, 운영 체계(305)는 다른 터미널들(121)에서의 두 개 또는 그 이상의 사용자들이 동시에(동시적으로(concurretly)) 어플리케이션들(315)을 실행하도록 허용할 수 있다. 멀티 처리 동작들에서, 운영체계(305)는 하나 이상의 프로세서(101) 상에서 어플리케이션들(315)을 실행하는 것을 지원할 수 있다. 멀티 태스킹 동작들에서, 운영체계(305)는 동시적으로 멀티 어플리케이션들(315)을 실행하는 것을 지원할 수 있다. 멀티 스레드 동작들에서, 운영체계(305)는 하나의 어플리케이션(315)의 다른 부분들 또는 다른 인스턴스들(instances)이 동시적으로 실행하는 것을 지원할 수 있다. 일 실시예에서, 운영체계(305)는 커널의 탑(top) 상에 존재하는, IBM사로부터 이용가능한 i5/OS® 운영체계를 사용하여 구현될 수 있다. 다양한 실시예들에서, 다른 파티션들의 운영체계들은 동일할 수 있거나 그것들의 일부 또는 전부가 다를 수도 있다.(i5/OS는 미국, 다른 국가들 또는 둘 모두에서 IBM사의 상표 또는 등록 상표이다)
어플리케이션들(315)은 사용자 어플리케이션들, 제3자 어플리케이션들(thrid party applications), 또는 OEM(Original Equipment Manufacture) 어플리케이션들일 수 있다. 다양한 실시예들에서, 어플리케이션들(315)은 프로세서(101) 상에서 실행 가능한 명령들 또는 프로세서(101) 상에서 실행되는 명령들에 의해 인터프리트가능한 표현들을 포함한다.
할당 요청(310)은 터플 필드(320), 큐 페어 식별자 필드(322), 우선순위 필드(priority field)(324), 서브-우선순위 필드(sub-priority field)(326), 및 요청 파티션 식별자 필드(328)를 포함한다. 터플 필드(320)는, 패킷 또는 패킷들의 세트 - 요청 파티션(150)은, 이러한 패킷 또는 패킷들의 세트에 대해 패킷들의 처리 성능이 증가하기를 원하고, 요청 파티션(150)은 하이퍼바이저가 네트워크 어댑터(114)에서의 리소스를 그러한 패킷(들)의 처리를 위해 요청 파티션(150)에 할당함에 의해 처리 성능을 증가시키기를 요청함 - 를 식별한다. 큐 페어 식별자 필드(322)는 할당 요청(310)을 송신하는 파티션(150)에 할당된 큐 페어를 식별한다.
우선순위 필드(324)는 이 파티션 또는 다른 파티션들이 송신할 수 있는 다른 할당 요청들과 비교하여, 할당 요청(310)의 상대적 우선순위를 식별한다. 만약 우선순위 필드(324)가 높은 우선순위 리소스를 규정한다면, 비록 하이퍼바이저(152)가 프리엠프트(preempt), 할당해제(deallocate), 또는 다른 파티션(할당이 더 낮은 우선순위를 갖는 파티션)으로부터 그 리소스를 버려야 함에도 불구하고, 하이퍼바이저(152)는 그 리소스를 그 파티션에 할당해야 한다. 서브-우선순위 필드(326)는, 동일 우선순위(324)를 갖도록 하는 이 파티션이 송신할 수 있는 다른 할당 요청들과 비교해서, 할당 요청(310)의 상대적 서브-우선순위를 식별한다. 서브-우선순위 필드(326)의 내용들은, 파티션 내에서 리소스 할당을 결정하기 위해 사용되고, 파티션(150)이 동일 파티션(150) 내에서 동일 우선순위 레벨(324)의 자신의 할당 요청들 사이에서 우선순위화(prioritize)하도록 허용한다. 각각의 파티션은 이 서브-우선순위(326)를 설정(set)하기 위해 어떤 기준을 사용할지를 독립적으로 결정한다. 요청 파티션 식별자 필드(328)는 할당 요청(310)을 송신하는 이 파티션(150)을 식별한다.
더 나은 성능을 제공하기 위해, 터플(320)에 의해 식별된 패킷들이 그것들의 증가된 처리의 속도를 필요로 한다고 결정하는 것에 응답하여, 파티션(150)의 어플리케이션(315) 또는 운영체계(305)는 하이퍼바이저(152)에 할당 요청(310)을 송신한다.
도 4는 본 발명의 일 실시예에 따라 구성 요청(199)을 위한 데이터 구조 예의 블록도를 도시한다. 구성 매니저(198)는, 할당 요청들(310)에 응답하여 하이퍼바이저(152)가 파티션들(150)에 할당하는 리소스들의 수를 제어 또는 제한하기 위해, 구성 요청들(199)을 하이퍼바이저(152)로 송신한다.
구성 요청(199)은 파티션 식별자 필드(402), 높은 우선순위 리소스들의 상한(upper limit) 필드(404), 중간 우선순위 리소스들의 상한 필드(406), 및 낮은 우선순위 리소스들의 상한 필드(408)를 포함한다. 파티션 식별자 필드(402)는 구성 요청(199)의 한도들(limits)(404, 406, 및 408)이 적용 또는 지시되는 파티션(150)을 식별한다.
높은 우선순위 리소스들의 상한 필드(404)는 높은 상대적 우선순위(가장 높은 우선순위) - 이러한 높은 상대적 우선순위는, 구성 매니저(198)가 하이퍼바이저(152)가 파티션 식별자 필드(402)에 의해 식별되는 파티션(150)에 할당하도록 허용하는 우선순위임 - 를 갖는 리소스들의 상한 또는 최대 수를 규정한다. 만약 그 파티션이 높은 우선순위(324)를 규정하는 할당 요청(310)을 송신하는 것을 통해 높은 우선순위의 리소스의 할당을 요청한다면, 높은 우선순위 리소스는 그 파티션에 할당되어야 하는 리소스이다. 도 4에 보여진 데이터 예에서, 구성 요청(199)은, 상한(404)에 의해 규정된 바와 같이, 파티션 식별자(402)에 의해 식별된 파티션이 최대로 하나의 가장 높은 우선순위 리소스를 할당하도록만 허용된다는 것을 규정한다.
중간 우선순위 리소스들의 상한 필드(406)는 중간의 상대적 우선순위 - 이러한 중간의 상대적 우선순위는, 구성 매니저(198)가 하이퍼바이저(152)가 파티션 식별자 필드(402)에 의해 식별된 파티션(150)을 할당하도록 허용하는 우선순위임 - 를 갖는 리소스들의 상한 또는 최대 수를 규정한다. 중간의 우선순위는 상기 높은 우선순위보다 더 낮거나, 덜 중요하다. 도 4에 도시된 데이터 예에서, 구성 요청(199)은, 상한(406)에 의해 규정된 바와 같이, 파티션 식별자(402)에 의해 식별된 파티션이 최대로 다섯 개의 중간의 우선순위 리소스들을 할당하도록만 허용된다는 것을 규정한다.
낮은 우선순위 리소스들의 상한 필드(408)는 낮은 상대적 우선순위 - 이러한 낮은 상대적 우선순위는, 구성 매니저(198)가 하이퍼바이저(152)가 파티션 식별자 필드(402)에 의해 식별된 파티션(150)을 할당하도록 허용하는 우선순위임 - 를 갖는 리소스들의 상한 또는 최대 수를 규정한다. 낮은 우선순위는 가장 낮은 우선순위이고 상기 중간의 우선순위보다 더 낮지만, 다른 실시예들에서, 어떤 적절한 정의들 및 상대적인 중요성을 갖는 어떤 수의 특성들이 사용될 수 있다. 도 4에 도시된 데이터 예에서, 구성 요청(199)은, 상한(408)에 의해 규정된 바와 같이, 파티션 식별자(402)에 의해 식별된 파티션이 최대로 여덟 개의 우선순위 리소스들을 할당하도록만 허용된다는 것을 규정한다.
도 5는 본 발명의 일 실시예에 따라, 리소스 한도들(154)에 대한 데이터 구조예의 블록도를 도시한다. 도 7을 참조하여 이하에서 더 설명되는 바와 같이, 하이퍼바이저(152)는, 만약 구성 요청들(199)이 기준을 충족시킨다면 하이퍼바이저(152)가 구성 매니저(198)로부터 수신하는 구성 요청들(199)(다양한 파티션들에 대한)로부터 리소스 한도들(154)에 데이터를 더(add)한다.
리소스 한도들(154)은 레코드들 예(505 및 510)를 포함하는데, 레코드들(505 및 510) 각각은 파티션 식별자 필드(515), 높은 우선순위 리소스들의 수에 관한 연관된 상한 필드(520), 중간 우선순위 리소스들의 수에 관한 연관된 상한 필드(525), 및 낮은 우선순위 리소스들의 수에 관한 연관된 상한 필드(530)를 포함한다.
파티션 식별자 필드(515)는 각각의 레코드와 연관된 파티션(150)을 식별한다.
높은 우선순위 리소스들의 수에 관한 상한 필드(520)는 높은 상대적 우선순위 - 이러한 높은 상대적 우선순위는, 구성 매니저(198)가 하이퍼바이저(152)가 파티션 식별자 필드(515)에 의해 식별된 파티션(150)에 할당하도록 허용하는 우선순위임 - 를 갖는 리소스들의 상한 또는 최대 수를 규정한다.
중간 우선순위 리소스들의 수에 관한 상한 필드(525)는 중간의 상대적 우선순위 - 이러한 중간의 상대적 우선순위는, 구성 매니저(198)가 하이퍼바이저(152)가 파티션 식별 필드(515)에 의해 식별된 파티션(150)에 할당하도록 허용하는 우선순위임 - 를 갖는 리소스들의 상한 또는 최대 수를 규정한다.
낮은 우선순위 리소스들의 수에 관한 상한 필드(530)는 낮은 상대적 우선순위 - 이러한 낮은 상대적 우선순위는, 구성 매니저(198)가 하이퍼바이저(152)가 파티션 식별자 필드(515)에 의해 식별된 파티션(150)에 할당하도록 허용하는 우선순위임 - 를 갖는 리소스들의 상한 또는 최대 수를 규정한다.
도 6은 발명의 일 실시예에 따른 구성 데이터(156)에 대한 데이터 구조 예의 블록도를 도시한다. 구성 데이터(156)는 할당된 리소스들(602) 및 저장된 할당 요청들(604)을 포함한다. 할당된 리소스들(602)은 파티션들(150)에 할당되었거나 아이들인 네트워크 어댑터(114)에서의 리소스들을 나타낸다. 할당된 리소스들(602)은 레코드들 예(606, 608, 610, 612, 614, 616, 618, 및 620)를 포함하고, 이들 각각은 리소스 식별자 필드(630), 파티션 식별자 필드(632), 우선순위 필드(634), 및 서브-우선순위 필드(636)를 포함한다.
리소스 식별자 필드(630)는 네트워크 어댑터(114)에서의 리소스를 식별한다. 파티션 식별자 필드(632)는, 할당 요청(130)에 응답하여 리소스 식별자 필드(630)에 의해 식별된 리소스가 할당된 파티션(150)을 식별한다. 즉, 파티션 식별자 필드(632)에 의해 식별된 파티션(150)은 리소스 식별자 필드(630)에 의해 식별된 리소스를 가지고 이를 배타적으로 사용하며, 다른 파티션들은 그 리소스를 사용 또는 접근하도록 허용되지 않는다. 우선순위 필드(634)는, 동일 또는 다른 파티션들에 대한 다른 리소스들의 다른 모든 할당들과 비교해서, 요청 파티션(632)에 대한 리소스(630)의 할당의 상대적 우선순위 또는 중요성을 식별한다. 우선순위 필드(634)는 리소스(630)의 요청을 할당한 할당 요청(310)의 우선순위(324)로부터 설정된다. 서브-우선순위 필드(636)는, 동일한 파티션(632)에 대한 다른 리소스들의 다른 모든 할당들과 비교해서, 요청 파티션(632)에 대한 리소스(630)의 할당의 상대적 우선순위 또는 중요성을 나타낸다. 서브-우선순위 필드(636)의 내용들은 그것의 할당을 요청한 할당 요청(310)의 서브-우선순위(326)로부터 설정된다. 서브-우선순위 필드(636)의 내용들은 하나의 파티션(632) 내에 리소스 할당을 결정하기 위해 사용되고, 파티션(632)이 동일한 파티션(632) 내에 그 동일한 우선순위 레벨(634)의 요청들의 요청들 사이에서 우선순위화하도록 허용한다. 각각의 파티션은 이 서브-우선순위(636)를 설정하기 위해 어떤 기준을 사용할지를 독립적으로 결정한다.
저장된 할당 요청들(604)은 레코드들 예(650 및 652)를 포함하는데, 이들 각각은 터플 필드(660), 큐 페어 식별자(662), 우선순위 필드(664), 서브-우선순위 필드(666), 및 요청 파티션 식별자 필드(668)를 포함한다. 레코드들(650 및 652) 각각은, 하이퍼바이저(152)가 또 다른, 더 높은 우선순위 할당 요청에 의해 프리엠프트된 할당을 일시적으로 수행하지 않거나 나타내지 않을 수 있는 할당 요청을 나타낸다. 따라서, 저장된 할당 요청들(604)은 현재 수행되지 않는 할당에 대한 요청들을 나타낸다.
터플 필드(660)는 패킷 또는 패킷들의 세트 - 요청 파티션(668)은, 이 패킷 또는 패킷들에 대해 패킷들의 처리 성능이 증가하기를 원하고, 요청 파티션(668)은 하이퍼바이저(152)가 그 패킷을 처리하기 위해 파티션(668)에 네트워크 어댑터(114)에서의 리소스를 할당함에 의해 처리 성능을 증가시키기를 요청함 - 를 식별한다. 큐 페어 식별자 필드(662)는 할당 요청(310)을 송신하는 파티션(668)에 할당되도록 요청되는 큐 페어를 식별한다.
우선순위 필드(664)는, 이 또는 다른 파티션들이 송신할 수 있는 다른 할당 요청들과 비교해서, 레코드의 할당 요청의 상대적 우선순위를 식별한다. 서브-우선순위 필드(666)는, 이 요청 파티션(668)이 송신할 수 있는 다른 할당 요청들과 비교해서, 그 할당 요청의 상대적 서브-우선순위를 식별한다. 서브-우선순위 필드(666)의 내용들은 파티션 내에서 리소스 할당을 결정하기 위해 사용되고, 하나의 파티션이 동일 파티션 내에서 동일 우선순위 레벨(664)의 요청들 사이에서 우선순위화하도록 허용한다. 각각의 파티션은 이러한 서브-우선순위(666)를 설정하기 위해 어떤 기준을 사용할지를 독립적으로 결정한다. 요청 파티션 식별자 필드(668)는 할당 요청을 송신한 파티션(150)을 식별한다.
도 7은 본 발명의 일 실시예에 따른 구성 및 액티베이션 요청들에 대한 처리 예의 흐름도를 도시한다. 제어는 블록 700에서 시작한다. 그런 다음 제어는 블록 705로 계속되고, 이 블록에서 구성 매니저(198)는 컴퓨터 시스템(100)으로 구성 요청(199)을 송신하고, 하이퍼바이저(152)는 구성 요청(199)을 수신한다. 구성 매니저(198)는 사용자 인터페이스 선택에 응답하여 I/O 디바이스(192)를 통해 또는 프로그램적인 기준(programmatic criteria)에 기초하여 구성 요청(199)을 송신할 수 있다. 구성 요청(199)을 수신하는 것에 응답하여, 하이퍼바이저(152)는 구성 데이터(156)의 할당된 리소스들(602)로부터 레코드들(606, 608, 610, 612, 614, 616, 618, 및 620)을 읽는다.
일 실시예에서, 하이퍼바이저(152)는 구성 요청(199)을 수신하는 한편 파티션 식별자 필드(402)에 의해 식별된 파티션(150)은 인액티브(inactive)이다. 만약 하이퍼바이저(152)가 구성 요청(199)을 수신하며 그 파티션이 액티브이면, 그 파티션이 인액티브인 다음 시간까지 하이퍼바이저(152)는 구성 요청(199)을 거절(reject)하거나 리소스 한도들(154)에 구성 요청(199)의 변경들을 적용하지 않는다. 그러나, 또 다른 실시예에서, 하이퍼바이저(152)는 어느 때나 동적으로 구성 요청들(199)을 수신 및 적용할 수 있다.
그런 다음 제어는 블록 710으로 계속되는데, 이 블록에서 구성 매니저(198)는 컴퓨터 시스템(100)의 하이퍼바이저(152)에 대한 액티베이션 요청(activation request)을 송신할 수 있다. 구성 매니저(198)는 I/O 디바이스(192)를 통한 사용자 인터페이스 선택에 응답하거나 프로그램적인 기준이 충족되는 것에 응답하여 액티베이션 요청을 송신할 수 있다. 하이퍼바이저(152)는 구성 매니저(198)로부터 액티베이션 요청을 수신하고, 이에 응답하여, 하이퍼파이저(152)는 액티베이션 요청에 의해 규정된 파티션(150)을 액티베이트(activate)한다. 파티션을 액티베이트하는 것(activating)은 메모리 및 하나 또는 그 이상의 프로세서들을 규정된 파티션(150)에 할당하는 것, 프로세서들(101) 중 적어도 하나 상에서 실행 중인 운영 체계(305)를 시작하는 것, 파티션(150)에 큐 페어를 할당하는 것, 프로세서들(101) 중 적어도 하나 상에서 실행 중인 파티션(150)의 하나 또는 그 이상의 어플리케이션들(315)을 선택적으로 시작하는 것을 포함한다. 하이퍼바이저(152)는 그 파티션에게 자신의 할당된 큐 페어의 식별자를 통지한다.
그런 다음 제어는 블록 715로 계속되는데, 이 블록에서 (구성 요청(199)을 수신하는 것에 응답하여 및/또는 액티베이션 요청을 수신하는 것에 응답하여) 하이퍼바이저(152)는 구성 요청(199)에서의 높은 우선순위 리소스들의 상한들(404) 플러스(+) 모든 파티션들에 대한 리소스 한계들(154)에서의 높은 우선순위 리소스들의 모든 상한들(520)의 합(sum)은 리소스 데이터(215)에서 리소스들의 총 수(레코드들의 총 또는 최대 수)보다 작거나 같다. 리소스 데이터(215)에서의 레코드들의 총 또는 최대 수는 네트워크 어댑터(114)에서의 할당가능한 리소스들의 총 수 또는 최대 수를 나타낸다.
만약 블록(715)에서의 결정이 참(true)이라면, 구성 요청(199)에서의 높은 우선순위 리소스들의 상한(404) 플러스(+) 모든 파티션들에 대한 리소스 한계들(154)에서의 높은 우선순위 리소스들의 모든 상한(520)의 합은 리소스 데이터(215)에서의 리소스들의 총 수(네트워크 어댑터(114)에서의 할당가능한 리소스들의 총 수)보다 작거나 같다. 그래서 제어는 계속해서 블록 720으로 계속되는데, 이 블록 720에서는 하이퍼바이저(152)는 구성 요청(199)으로부터의 데이터로써 레코드를 리소스 한도들(154)에 더(add)한다. 즉, 하이퍼바이저(152)는 구성 요청(199)으로부터 리소스 한계들(154)에서의 새로운 레코드에서의 파티션 식별자(515)에 파티션 식별자(402)를 카피하고, 구성 요청(199)으로부터 리소스 한계들(154)에서의 새로운 레코드에서의 높은 우선순위 리소스들(520)의 상한에 높은 우선순위 리소스들(404)의 상한을 카피하고, 구성 요청(199)으로부터 리소스 한계들(154)에서의 새로운 레코드에서의 중간 우선순위 리소스들(525)의 상한에 중간 우선순위 리소스들(406)의 상한을 카피하고, 구성 요청(199)으로부터 리소스 한계들(154)에서의 새로운 레코드에서의 낮은 우선순위 리소스들(530)의 상한에 낮은 우선순위 리소스들(408)의 상한을 카피한다.
그런 다음 제어는 블록 799로 계속되는데, 이 블록에서 도 7의 로직은 리턴한다. 만약 블록 715에서의 결정이 거짓(false)이라면, 높은 우선순위 리소스들(404)의 상한 플러스(+) 높은 우선순위 리소스들(520)의 상한 전부의 합은 리소스 데이터(215)에서의 리소스들의 총 수(레코드들의 총 수)보다 더 크고, 그래서 제어는 블록 730으로 계속되는데, 이 블록에서는 네트워크 어댑터(114)가 높은 우선순위 구성 요청을 충족시킬 정도의 충분한 리소스들을 갖지 않기 때문에 하이퍼바이저(152)는 구성 매니저(198)로 에러를 리턴한다. 블록 730의 에러 통지는, 구성 데이터(156)의 설정의 실패가 아니라 파티션 액티베이션의 실패를 나타낸다. 다른 방법으로 설명하자면, 리소스 한도들(154)은 현재의 모든 액티베이트되고 실행중인 파티션들을 반영하고, 파티션은 그것의 구성 요청(199)이 남은 이용가능한 리소스 한도들 내에 있으면 시작하도록 단지 허용된다(단지 액티브 상태로 된다). 그런 다음 제어는 블록 799로 계속되는데, 이 블록에서 도 7의 로직은 리턴한다.
도 8은 본 발명의 일 실시예에 따른 할당 요청을 위한 처리 예의 흐름도를 도시한다. 제어는 블록 800에서 시작한다. 그런 다음 제어는 블록 805로 계속되며, 이 블록에서 요청 파티션(150)(요청 파티션(150) 내에서의 운영 체계(305) 또는 어플리케이션(315))은 할당 요청(310)을 구성(build)하여 하이퍼바이저(152)에게 할당 요청(310)을 송신한다. 요청 파티션(150)은 패킷 또는 패킷들의 세트가 성능 가속화 또는 성능 증가를 필요로 한다는 것을 결정하는 것에 응답하여 할당 요청(310)을 구성하여 송신한다. 할당 요청(310)은 파티션에 할당된(블록 710에서 하이퍼바이저(152)에 의해 미리 할당된) 큐 페어(332), 파티션이 가속화하기를 원하는 패킷들을 식별하는 터플(320), 파티션이 할당하기를 원하는 리소스의 우선순위(324), 파티션(150)이 이 파티션(150)에 할당된 다른 리소스들과 비교한 할당하는 리소스의 서브-우선순위(326), 및 요청 파티션(150)의 파티션 식별자(328)를 식별한다. 하이퍼바이저(152)는 요청 파티션 식별자 필드(328)에 의해 식별된 요청 파티션(150)으로부터 할당 요청(310)을 수신한다.
그런 다음 제어는 블록 810으로 계속되는데, 이 블록에서는 할당 요청(310)을 수신하는 것에 응답하여, 하이퍼바이저(152)는 요청된 우선순위(324)로 이미 할당된(할당 요청(310)을 송신한 파티션(328)으로) 리소스들의 수가 그 우선순위(324)에서의 파티션(328)에 대한 상한(그 우선순위(324)에 대응하는 520, 525, 530)과 동일한지를 결정한다. 하이퍼바이저(152)는 파티션 식별자(328)에 매치하는 파티션 식별자(632)로써 그리고 우선순위(324)에 매치하는 우선순위(634)로써 할당된 리소스들(602)에서의 모든 레코드들을 카운트(모든 레코드들의 수를 결정)함에 의해 블록 810의 결정을 한다. 그런 다음 하이버파이저(152)는 파티션 식별자(328)에 매치하는 파티션 식별자(515)로 리소스 한도들(154)에서 레코드를 발견한다.
그런 다음 하이퍼바이저(152)는 우선순위(324)와 연관된 리소스 한도들(154)의 발견된 레코드에서 필드(520, 525, 또는 530)를 선택한다. 예를 들어, 만약 우선순위(324)가 높다면, 하이퍼바이저(152)는 발견된 레코드에서 높은 우선순위 필드(520)의 상한을 선택하고, 만약 우선순위(324)가 중간이라면, 하이퍼바이저(152)는 발견된 레코드에서 중간 우선순위 리소스들 필드(525)의 상한을 선택하고, 만약 우선순위(324)가 낮다면, 하이퍼바이저(152)는 발견된 레코드에서 낮은 우선순위 리소스들 필드(530)의 상한을 선택한다. 그런 다음 하이퍼바이저(152)는, 리소스 한계들(154)에서의 발견된 레코드에서 선택된 필드(520, 525, 또는 530)에서의 값을 할당된 리소스들(602)에서의 레코드들의 수의 카운트에 비교한다. 만약 그것들이 동일하다면, 블록 810의 결정은 참(true)이고, 동일하지 않다면, 그 결정은 거짓(false)이다.
만약 블록 810에서의 결정이 참이라면, 요청된 우선순위(324)로 이미 할당된(할당 요청(310)을 송신한 파티션(328)에) 리소스들의 수는 그 우선순위(324)에서의 파티션(328)에 대한 상한(520, 525, 또는 530)과 동일하고, 그래서 제어는 블록 815로 계속되고, 이 블록에서 파티션은 그러한 우선순위 레벨(324)에서의 리소스들의 한도(limit)를 할당받았기 때문에 하이퍼바이저(152)는 할당 요청(310)을 송신한 파티션으로 에러를 리턴한다. 그런 다음, 제어는 블록 899로 계속되고, 이 블록에서 도 8의 로직은 리턴한다.
만약 블록 810에서의 결정이 거짓이라면, 요청된 우선순위(324)로 이미 할당된(할당 요청(310)을 송신한 파티션(328)에) 리소스들의 수는 그 우선순위(324)에서의 파티션(328)에 대한 상한(우선순위(324)에 의존하는 520, 525, 또는 530)과 동일하지 않고, 그래서 요청 파티션(150)에 의한 추가 리소스들의 할당에 대한 요청이 하이퍼바이저(152)에 의해 고려될 것이고, 그래서 제어는 블록 820으로 계속되며, 이 블록에서 하이퍼바이저(152)는 아이들 리소스(어떤 파티션에게도 이미 할당되지 않은 리소스)는 할당된 리소스들(602)에 존재하는지를 결정한다. 하이퍼바이저(152)는 할당된 리소스들(602)에서 어떤 파티션에도 할당되지 않은 레코드를 서치(search)함에 의해, 예를 들어, 파티션 식별자(632)가 각각의 리소스(630)가 어떤 파티션에도 할당되지 않은, 또는 아이들(idle)임을 나타내는 레코드를 서치함에 의해, 블록 820의 결정을 한다. 도 6의 예에서, 레코드들(616, 618, 및 620)은 "리소스 F", "리소스 G", 및 "리소스 H"의 각각의 리소스들(630)이 아이들임을 나타내며, 이는 그것들이 어떤 파티션에도 할당되지 않는다는 것을 의미한다.
만약 블록 820에서의 결정이 참이라면, 네트워크 어댑터(114)에 아이들 리소스가 존재하고, 그래서 제어는 블록 825로 계속되는데, 이 블록에서 하이퍼바이저(152)는 할당 요청(310)에서 수신된 터플(320) 및 큐 페어(322)의 식별자들 및 발견한 아이들 리소스(630)의 식별자를 네트워크 어댑터(114)로 송신한다. 네트워크 어댑터(114)의 로직(220)은 터플(320) 및 큐 페어 식별자(322)를 수신하여 그것들을 및 리소스 데이터(215)에서의 레코드에서의 터플(240) 및 목적지 큐 페어 식별자(242) 각각에 저장한다. 나아가 네트워크 어댑터(114)의 로직(220)은 발견한 아이들 리소스(630)의 식별자에 매치하는 레코드에 대한 리소스 식별자를 생성하여 그 레코드에 리소스 식별자(238)를 저장한다. 리소스 데이터(215)에서의 레코드에 리소스 식별자(238), 터플(240), 및 큐 페어 식별자(242)를 저장함에 의해, 네트워크 어댑터(114)는 큐 페어 식별자(242)에 의해 식별된 큐 페어를 갖는 파티션(요청 파티션)에 그 레코드에 의해 표현된 리소스를 할당한다. 그리하여, 큐 페어에 대한 터플의 매핑은 그 선택된 리소스 내에 저장된다. 하이퍼바이저(152)는 그 리소스가 더 이상 아이들이 아니고 이제 그 요청 파티션에 할당된다는 것을 나타내기 위해 할당된 리소스들(602)에서의 파티션 식별자 필드(632)를 설정한다. 그런 다음 제어는 블록 899로 계속되고, 이 블록에서 도 8의 로직은 리턴한다.
만약 블록 820에서의 결정이 거짓이라면, 아이들 리소스는 네트워크 어댑터(114)에 존재하지 않고 네트워크 어댑터(114)에서의 모든 리소스들은 현재 파티션들에 할당되어 있으며, 그래서 제어는 블록 830으로 계속되는데, 이 블록에서 하이퍼바이저(152)는 할당(이 또는 또 다른 파티션에)이 프리엠프트(변경)될 수 있는 선택된 리소스가 존재하는지를 결정한다. 이는 이하에서 도 9를 참조하여 더 기술된다.
만약 블록 830에서의 결정이 참이라면, 할당이 프리엠프트될 수 있는 선택된 리소스가 존재하고, 그래서 제어는 블록 835로 계속되는데, 이 블록에서 하이퍼바이저(152)는 선택된 리소스의 할당을 프리엠프트하여 그 선택된 리소스를 요청 파티션에 할당한다. 이는 이하에서 도 10을 참조하여 더 기술된다. 그런 다음, 제어는 블록 899로 계속되는데, 이 블록에서 도 8의 로직은 리턴한다.
만약 블록 830에서의 결정이 거짓이라면, 할당이 프리엠프트될 수 있는 선택된 리소스는 존재하지 않고, 그래서 제어는 블록 840으로 계속되는데, 이 블록에서 하이퍼바이저(152)는 어떤 리소스도 요청 파티션에 할당함이 없이 요청(310)을 저장되는 요청들(604)에 저장하고 요청 파티션 식별자(328)에 의해 식별된 파티션(150)에 일시적인 실패(temporary failure)를 리턴한다. 그런 다음 제어는 블록 899로 계속되는데, 이 블록에서 도 8의 로직은 리턴한다.
도 9는 본 발명의 일 실시예에 따라 할당된 리소스가 프리엠프트되어야 하는지를 결정하기 위한 처리 예의 흐름도를 도시한다. 제어는 블록 900에서 시작한다. 그런 다음 제어는 블록 905로 계속되는데, 이 블록에서 하이퍼바이저(152)는 할당 요청(310)의 우선순위(324)가 또 다른 파티션(요청 파티션(328)과는 다른)에 할당된 리소스의 우선순위(634)(그 리소스로 하여금 미리 할당되도록 하는 요청의 우선순위) 보다 더 큰지(더 중요한지)를 결정한다. 만약 블록 905에서의 결정이 참이라면, 현재 할당 요청의 우선순위(324)는, 그 리소스로 하여금 또 다른 파티션에 할당되도록 하는(파티션 식별자(632)가 요청 파티션 식별자(328)와는 다른 할당된 리소스들(602)에서의 레코드에 의해 나타낸 바와 같이) 이전의(previous) 할당 요청의 우선순위(634)보다 더 크고(더 높거나 더 중요하고), 그래서, 제어는 블록 910으로 계속되는데, 이 블록에서 하이퍼바이저(152)는 할당된 리소스들(602) 내에서의 레코드들의 전부에서의 모든 우선순위들의 가장 낮은 우선순위 레벨(634)을 선택한다. 도 6의 예를 사용하여, 할당된 리소스들(602)의 가장 낮은 우선순위는, 레코드들(612 및 614)에서 나타낸 바와 같이, 중간 우선순위 레벨인데, 이는 레코드들의 높은 우선순위 레벨(606, 608, 및 610)보다 더 낮다.
그런 다음 제어는 블록 915로 계속되는데, 이 블록에서 하이퍼바이저(152)는 그 선택된 우선순위 레벨에서 할당된 리소스들(630)의 가장 큰 퍼센티지를 수신하는 파티션(632)을 선택한다. 도 6의 데이터 예를 사용하여, 파티션 B는 중간 우선순위 레벨에서 하나의 할당된 리소스(레코드 614에 나타낸 바와 같이) 그리고 높은 우선순위 레벨에서 하나의 할당된 리소스(레코드 610에 나타낸 바와 같이)를 갖기 때문에, 파티션 B는 중간의 우선순위 레벨로 할당된 리소스들의 50%를 수신한다. 이와는 대조적으로, 파티션 A는 중간 우선순위 레벨에서 하나의 할당된 리소스(레코드 612에 나타낸 바와 같이) 그리고 높은 우선순위 레벨에서 두 개의 할당된 리소스들(레코드 606 및 608)을 갖기 때문에, 파티션 A는 중간 우선순위 레벨로 자신의 전체 할당된 리소스들의 33%(모든 우선순위 레벨들에 걸쳐)를 수신한다. 따라서, 50%가 33%보다 더 크므로 파티션 B는 중간 우선순위 레벨로 전체 할당된 리소스들의 가장 큰 퍼센티지를 수신한다.
도 9를 다시 참조하면, 제어는 블록 920으로 계속되는데, 이 블록에서 하이퍼바이저(152)는, 선택된 파티션(632)에 할당되는 다른 리소스들과 비교해서, 가장 낮은 서브-우선순위(636)로 선택된 파티션(632)에 할당되는 리소스(630)를 선택한다. 그런 다음 제어는 블록 999로 계속되는데, 이 블록에서 도 9의 로직은 참(true)으로 리턴하고 도 9의 로직의 인보커(invoker)로 그 선택된 리소스를 리턴한다.
만약 블록 905에서의 결정이 거짓이라면, 할당 요청(310)의 우선순위(324)는 또 다른 파티션에 할당된 리소스의 우선순위(634)보다 더 크지 않고(더 높지 않거나 더 중요하지 않고)(파티션 식별자(632)가 요청 파티션 식별자(328)와는 다른 할당된 리소스들(602)에서의 레코드에 의해 나타낸 바와 같이), 할당 요청의 우선순위는 현재 할당된 모든 리소스들의 우선순위보다 낮거나 같고, 그래서 제어는 블록 925로 계속되는데, 이 블록에서 하이퍼바이저(152)는 요청 파티션(328)이 우선순위(634)로 선택된 파티션에 할당된 리소스들의 상한(525 또는 530)의 퍼센티지보다 더 낮은 퍼센티지의 상한(우선순위(324)로 할당된 리소스들의 상한(525 또는 530))을 갖는지를 결정하는데, 여기서 우선순위들(634 및 324)은 일치(identical), 동등(equal), 또는 같다(the same).
만약 블록 925에서의 결정이 참이라면, 요청 파티션(328)은 동일 우선순위(634)(우선순위 324와 동일한 우선순위)로 선택된 파티션에 할당된 리소스들의 상한(525 또는 530)의 퍼센티지보다 더 낮은 퍼센티지의 상한(우선순위(324)로 할당된 리소스들의 상한(525 또는 530))을 가지며, 그래서 제어는 블록 930으로 계속되는데, 이 블록에서 하이퍼바이저(152)는 가장 낮은 서브-우선순위(636)로 그 선택된 파티션에 할당된 리소스를 선택한다. 그런 다음 제어는 블록 999로 계속되는데, 이 블록에서 도 9의 로직은 참으로 리턴하고 도 9의 로직의 인보커(invoker)로 그 선택된 리소스를 리턴한다.
만약 블록 925에서의 결정이 거짓이라면, 요청 파티션(328)은 동일 우선순위(634)(우선순위 324와 동일한 우선순위)로 다른 파티션들 모두에 할당되는 리소스들의 상한(525 또는 530)의 퍼센티지보다 더 크거나 같은 퍼센티지의 상한(우선순위(324)로 할당된 리소스들의 상한(525 또는 530))을 가지며, 그래서 제어는 블록 935로 계속되는데, 이 블록에서 하이퍼바이저(152)는 요청 파티션(328)이 할당 요청(310)의 서브-우선순위(326)보다 더 낮은 서브-우선순위(636)로 할당된 리소스들(602)에 리소스를 미리 할당했는지를 결정한다.
만약 블록 935에서의 결정이 참이라면, 요청 파티션(328)은 할당 요청(310)의 서브-우선순위(326)보다 낮은 서브-우선순위(636)로 할당된 리소스들(602)에 리소스를 미리 할당했고, 그래서 제어는 블록 940으로 계속되는데, 이 블록에서 하이퍼바이저(152)는 가장 낮은 서브-우선순위(636)로 그 요청을 송신한 요청 파티션(328)에 이미 할당된(이전의 할당 요청을 통해 이미 할당된) 리소스를 선택한다. 그런 다음 제어는 블록 999로 계속되는데, 이 블록에서 도 9의 로직은 도 9의 로직의 인보커로 참을 리턴하고 그 선택된 리소스를 리턴한다. 여기서 인보커는 도 8의 로직이다.
만약 블록 935에서의 결정이 거짓이라면, 요청 파티션(328)은 할당 요청(310)의 서브-우선순위(326)보다 더 낮은 서브-우선순위(636)로 할당된 리소스들(602)에서의 리소스를 미리 할당하지 않으며, 그래서 제어는 블록 998로 계속되는데, 이 블록에서 도 9의 로직은 도 9의 인보커로 거짓을 리턴하고(미리 할당된 리소스는 프리엠프트되도록 허용되지 않음), 여기서 인보커는 도 8의 로직이다. 도 10은 본 발명의 일 실시예에 따른 리소스의 할당을 프리엠프트하기 위한 처리 예의 흐름도를 도시한다. 일 실시예에서, 이미 할당된 리소스의 프리엠프션(preemption)은 리소스 데이터(215)에서의 레코드(리소스)가 제1 터플 및 제1 목적지 큐 페어의 제1 매핑(제1 연관성)으로부터 제2 터플 및 제2 목적지 큐 페어로 제공하는 매핑을 변경하는 것을 포함한다. 다양한 실시예들에서, 제1 목적지 큐 페어 및 제2 목적지 큐 페어는 동일 또는 다른 큐 페어들일 수 있다.
제어는 블록 1000에서 시작한다. 그런 다음 제어는 블록 1005로 계속되는데, 이 블록에서 하이퍼바이저(152)는 네트워크 어댑터(114)에 삭제 요청(delete request)을 송신한다. 상기 삭제 요청은 선택된 리소스의 리소스 식별자를 포함하는데, 이 선택된 리소스는 프리엠프트된 리소스이다. 상기 선택된 리소스는 도 8의 블록 830에 대해 그리고 도 9의 로직에 대해 위에서 앞서 기술된 바와 같이 선택되었다.
그런 다음 제어는 블록 1010으로 계속되는데, 이 블록에서 네트워크 어댑터(114)는 하이퍼바이저(152)로부터 삭제 요청을 수신하고 그 수신된 리소스 식별자(리소스 식별자(238)가 그 삭제 요청의 리소스 식별자에 매치함)에 의해 식별되는 리소스 데이터(215)로부터 레코드를 삭제한다(또는 레코드로부터 터플(240) 및 목적지 큐 페어 식별자(242)에서의 데이터를 삭제한다). 그런 다음 제어는 블록 1015로 계속되는데, 이 블록에서 하이퍼바이저(152)는 할당된 리소스들(602)로부터 저장된 요청들(604)로 그 프리엠프트된 리소스 레코드(리소스 식별자(630)가 그 삭제 요청의 리소스 식별자에 매치하는 레코드)를 옮기는데(move), 저장된 요청들(604)은 그 선택된 리소스들을 할당해제(deallocate)한다.
그런 다음 제어는 블록 1020으로 계속되는데, 이 블록에서 하이퍼바이저(152)는 프리엠프트된 리소스의 리소스 식별자, 할당 요청(310)에 규정된 터플(320), 및 할당 요청(310)에 규정된 목적지 큐 페어 식별자(322)를 포함하는 애드 요청(add request)을, 네트워크 어댑터(114)로 송신한다. 그런 다음 제어는 블록 1025로 계속되는데, 이 블록에서 네트워크 어댑터(114)는 상기 애드 요청(add request)을 수신하여 리소스 데이터(215)에 새로운 레코드를 더하거나 저장한다. 여기서 상기 리소스 데이터(215)는 리소스 식별자(238)에 프리엠프트된 리소스의 리소스 식별자를 저장하고, 터플(240)에 할당 요청(310)에 규정된 터플(320)을 저장하고, 목적지 큐 페어 식별자(242)에 할당 요청에 규정된 목적지 큐 페어 식별자(322)를 저장한다. 여기서 상기 목적지 큐 페어 식별자(242)는 리소스 식별자(238)에 의해 식별된 리소스(레코드)를 목적지 큐 페어 식별자(242)에 의해 식별된 목적지 큐 페어를 갖는 요청 파티션에 할당하도록 작용(act)한다. 그리하여, 큐 페어에 대한 터플의 매핑(mapping of the tuple to the queue pair)은 선택된 리소스 내에 저장된다. 그런 다음, 제어는 블록 1099로 계속되며, 이 블록에서 도 10의 로직은 리턴한다.
도 11은 본 발명의 일 실시예에 따라 리소스 할당해제를 위한 처리 예의 흐름도를 도시한다. 제어는 블록 1100에서 시작한다. 그런 다음, 제어는 블록 1105로 계속되는데, 이 블록에서, 파티션(150)은, 그 파티션이 그 리소스를 사용하여 패킷들의 가속화된 수행을 위한 필요를 더 이상 갖지 않기 때문에, 하이퍼바이저(152)에게 리소스를 프리(free) 또는 할당해제하도록 요청한다. 상기 요청은 리소스의 리소스 식별자, 터플, 및/또는 요청 파티션의 식별자를 포함한다. 그런 다음, 제어는 블록 1107로 계속되는데, 이 블록에서 하이퍼바이저(152)는 상기 프리 리소스 요청(free resource request)에 의해 규정된 리소스가 할당된 리소스들(602)에 규정되는지를 결정한다.
만약 블록 1107에서의 결정이 참이라면, 프리 리소스 요청에 의해 규정된 리소스는 할당된 리소스들(602)에 있는데, 이는 리소스가 할당되어 있다는 것을 의미한다. 그래서 제어는 블록 1100으로 계속되는데, 이 블록에서 하이퍼바이저(152)는 할당된 리소스들(602)로부터 할당해제 요청(deallocate request)의 요청된 리소스 식별자에 매치하는 리소스 식별자(630)로 레코드를 제거하거나 레코드에 파티션 식별자(632)를 설정하여, 리소스 식별자(630)에 의해 식별된 리소스가 프리, 아이들, 할당해제, 또는 현재 어떤 파티션에도 할당되지 않은 상태라는 것을 나타낸다. 그런 다음, 제어는 블록 1115로 계속되는데, 이 블록에서 하이퍼바이저(152)는 네트워크 어댑터(114)에 삭제 요청을 송신한다. 삭제 요청은 할당해제 요청에 규정된 리소스 식별자를 규정한다. 그런 다음 제어는 블록 1120으로 계속되는데, 이 블록에서 네트워크 어댑터(114)는 삭제 요청을 수신하고 리소스 데이터(215)로부터 레코드를 삭제한다. 여기서, 리소스 데이터(215)는 상기 삭제 요청에 의해 규정된 리소스 식별자에 매치하는 리소스 식별자(238)를 포함한다. 그 리소스는 이제 할당해제된다.
그런 다음, 제어는 블록 1125로 계속되는데, 이 블록에서 하이퍼바이저(152)는 저장된 할당 요청들(604)이 적어도 하나의 저장된 요청을 포함하는지를 결정한다. 만약 블록 1125에서의 결정이 참이라면, 저장된 할당 요청들(604)이 리소스의 할당을 원하는 저장된 요청을 포함하고, 그래서 제어는 블록 1130으로 계속되는데, 이 블록에서 하이퍼바이저(152)는 저장된 요청을 발견하고 그것에 대해 리소스를 할당한다. 이는 이하에서 도 14를 참조하여 더 기술된다. 그런 다음, 제어는 블록 1199로 계속되는데, 이 블록에서 도 11의 로직은 리턴한다.
만약 블록 1125에서의 결정이 거짓이라면, 저장된 할당 요청들(604)은 저장된 요청을 포함하며, 그래서 제어는 블록 1199로 계속되는데, 이 블록에서 도 11의 로직은 리턴한다.
만약 블록 1107에서의 결정이 거짓이라면, 프리(할당해제) 리소스 요청에 의해 규정된 리소스가 할당된 리소스들(602)에 있지 않고, 그래서 제어는 블록 1135로 계속되는데, 이 블록에서 하이퍼바이저(152)는 터플(660) 및 파티션 식별자(668) - 이는 할당해제 요청에 의해 규정된 요청 파티션 식별자 및 터플에 매치함 - 로 저장된 요청들(604)에서 레코드를 발견하고 그 발견된 레코드를 저장된 요청들(604)로부터 제거한다. 그런 다음 제어는 블록 1199로 계속되는데, 이 블록에서 도 11의 로직은 리턴한다.
도 12는 본 발명의 일 실시예에 따라 네트워크로부터 패킷을 수신하기 위한 처리 예의 흐름도를 도시한다. 제어는 블록 1200에서 시작한다. 그런 다음 제어는 블록 1205로 계속되는데, 이 블록에서 네트워크 어댑터(114)에서의 물리적 포트(225)는 네트워크(130)으로부터 데이터의 패킷을 수신한다. 데이터의 수신된 패킷은 물리적 포트(225)의 네트워크 어드레스에 매치하는 물리적 포트 어드레스를 포함한다.
그런 다음 제어는 블록 1210으로 계속되는데, 이 블록에서 네트워크 어댑터(114)에서의 로직(220)은 그 수신된 패킷으로부터 터플을 읽거나 그 수신된 패킷에서의 데이터의 조합으로부터 터플을 생성한다. 그런 다음 제어는 블록 1215로 계속되는데, 이 블록에서 로직(220)은 리소스 데이터(215)에서 그 패킷에 있거나 그 패킷으로부터 생성된 터플에 매치하는 터플(240)을 서치(search)한다. 그런 다음, 제어는 블록 1220으로 계속되는데, 이 블록에서 로직(220)은 그 패킷에 있거나 그 패킷으로부터 생성된 터플에 매치하는 리소스 데이터(215)에서의 터플(240)이 발견되는지를 결정한다.
만약 블록 1220에서의 결정이 참이라면, 로직(220)은 그 패킷에서의 터플에 매치하는 터플(240)로 리소스 데이터(215)에서의 레코드(리소스)를 발견했는데, 이는 리소스가 그 패킷의 터플에 대해 할당되어 있다는 것을 의미한다. 그래서 제어는 블록 1225로 계속되는데, 이 블록에서 로직(220)은 그 발견된 터플(240)과 연관된 리소스 데이터 레코드로부터 목적지 큐 페어 식별자(242)를 읽는다. 그런 다음, 제어는 블록 1230으로 계속되는데, 이 블록에서 로직(220)은 그 패킷을 그 발견된 레코드(리소스)에서의 목적지 큐 페어 식별자(242)에 의해 식별된 큐 페어로 송신한다(그 큐 페어에 패킷을 저장한다).
그런 다음, 제어는 블록 1235로 계속되는데, 이 블록에서 리소스가 할당된 파티션(632)(수신된 터플(240)에 대한 리소스 식별자(238)에 매치하는 리소스 식별자(630)로 할당된 리소스들(602)의 레코드에서의 파티션(632))은 목적지 큐 페어 식별자(242)에 의해 식별된 큐 페어로부터 패킷을 검색(retrieve)한다. 그런 다음, 제어는 블록 1236으로 계속되는데, 이 블록에서, 파티션 식별자(632)에 의해 식별된 파티션(150)에서의 운영 체계(305)(또는 다른 코드)(또는 다른 코드)는, 상기 큐 페어가 할당되는 타겟 어플리케이션(315) 및/또는 타겟 어플리케이션(315)의 세션으로 그 타겟을 라우트하는데, 이 큐 페어는 목적지 큐 페어 식별자(242)에 의해 식별된다. 그런 다음 제어는 블록 1299로 계속되는데, 이 블록에서 도 12의 로직은 리턴한다.
만약 블록 1220에서의 결정이 거짓이라면, 로직(220)은 그 수신된 패킷에서의 터플(또는 그 수신된 패킷으로부터 생성된 터플)에 매치하는 리소스 데이터(215)에서 터플(240)을 찾지 않는다. 그래서 그 수신된 패킷의 터플에는 리소스가 할당되지 않았고, 그래서 제어는 블록 1240으로 계속되는데, 이 블록에서 로직(220)은 그 수신된 패킷에 의해 규정된 논리적 포트와 연관된, 또는 할당된 디폴트 큐 페어에 그 수신된 패킷을 송신(저장)한다.
그런 다음 제어는 블록 1245로 계속되는데, 이 블록에서 하이퍼바이저(152)는 패킷의 타겟 목적지인 파티션을 결정하고 그 파티션을 통지한다. 상기 통지에 응답하여, 상기 파티션(운영 체계(305))은 디폴트 큐로부터 그 패킷을 검색한다. 그런 다음 제어는 블록 1250으로 계속되는데, 이 블록에서 파티션 식별자(632)에 의해 식별된 파티션(150)에서의 운영 체계(305)(또는 다른 코드)는 그 패킷을 읽고, 그 패킷에서의 데이터로부터 타겟 어플리케이션(315) 및/또는 타겟 어플리케이션(315)의 세션을 결정한다. 일 실시예에서, 운영 체계(305)는 타겟 어플리케이션을 결정하기 위해, 그 타겟의 TCP/IP 스택(stack)을 읽는다. 그런 다음, 제어는 블록 1299로 계속되는데, 이 블록에서 도 12의 로직은 리턴한다.
일 실시예에서, 그 수신된 패킷에서 데이터를 인테로게이트(integrrogate)함으로써 타겟 어플리케이션 및/또는 세션을 결정하기 위한 블록 1250의 처리의 필요 때문에, 블록 1250의 처리는 블록 1236의 처리보다 더 늦다. 그래서 본 발명의 일 실시예(블록들 1225, 1230, 1235, 및 1236의 처리에 의해 예시됨)는, 목적지 큐 페어 식별자들(242)에 대한 터플들(240)의 매핑에 대해 그 리소스들의 선택적인 할당을 이용함에 의해 더 나은 성능을 제공한다.
도 13은 본 발명의 일 실시예에 따라, 파티션을 디액티베이트(deactivate) 하기 위한 처리 예의 흐름도를 도시한다. 제어는 블록 1300에서 시작한다. 그런 다음 제어는 블록 1305로 계속되고, 이 블록에서 하이퍼바이저(152)는 구성 매니저(198)로부터 디액티베이션 요청(deactivation request)을 수신하고, 그에 응답하여, 파티션(150)을 디액티베이트한다. 하이퍼바이저(152)는, 예를 들어, 프로세서(101) 상의 어플리케이션(315) 및 운영 체계(305)의 실행을 중지함에 의해 그리고 파티션(150)에 할당된 리소스들을 할당해제함에 의해, 파티션(150)을 디액티베이트할 수 있다.
제어는 블록 1307로 계속되는데, 이 블록에서 하이퍼바이저(152)는, 그 리소스가 아이들, 프리, 또는 할당해제 상태(예를 들어, 대응하는 리소스 필드(630)에 의해 식별된 리소스가 아이들이거나 현재 어떤 파티션에도 할당되지 않다는 것을 나타내기 위해 그 디액티베이트된 파티션을 규정한 레코드들에 대한 파티션 식별자 필드(632)를 변경함에 의해)라는 것을 나타내기 위해, 할당된 리소스들(602)에서 디액티베이트된 파티션에 할당된 모든 리소스들을 변경한다. 그런 다음 제어는 블록 1310으로 계속되는데, 이 블록에서 하이퍼바이저(152)는 저장된 요청들(604)로부터 디액티베이트된 파티션에 대한 모든 리소스 요청들을 제거한다. 예를 들어, 하이퍼바이저(152)는 요청 파티션 식별자 필드(668)에 디액티베이트된 파티션을 규정하는 저장된 할당들(604)에서의 모든 레코드들을 발견하여 저장된 할당 요청들(604)로부터 발견한 레코드들을 제거한다.
그런 다음, 제어는 블록 1315로 계속되는데, 이 블록에서 하이퍼바이저(152)는 리소스 한도들(154)로부터 디액티베이트된 파티션에 대한 모든 한도들(limits)을 제거한다. 예를 들어, 하이퍼바이저(152)는 파티션 식별자 필드(515)에서 디액티베이트된 파티션을 규정하는 리소스 한도들(154)에서 모든 레코드들을 발견하고 리소스 한도들(154)로부터 그러한 발견된 레코드들을 제거한다.
그런 다음, 제어는 블록 1317로 계속되는데, 이 블록에서 하이퍼바이저(152)는 그 디액티베이트된 파티션에 할당된 모든 리소스들을 규정하는 네트워크 어댑터(114)로 삭제 요청을 송신한다. 그런 다음, 제어는 블록 1320으로 계속되는데, 이 블록에서 네트워크 어댑터(114)는 삭제 요청을 수신하고, 리소스 식별자(238)가 그 디액티베이트된 파티션에 매치하는 파티션 식별자(632)로 할당된 리소스들(602)의 레코드들에서의 리소스 식별자(630)에 매치하는 리소스 데이터(215)로부터 레코드(들)을 삭제한다. 그런 다음 제어는 블록 1325로 계속되는데, 이 블록에서 하이퍼바이저(152)는 할당된 리소스들(602)이 아이들 리소스를 갖는지 그리고 저장된 할당 요청들(604)이 적어도 하나의 저장된 요청을 포함하는지(적어도 하나의 레코드를 갖는지)를 결정한다.
만약 블록 1325에서의 결정이 참이라면, 할당된 리소스들(602)은 아이들 리소스를 가지며 저장된 할당 요청들(604)은 적어도 하나의 저장된 요청을 포함하고, 그래서 제어는 블록 1330으로 계속되는데, 이 블록에서 하이퍼바이저(152)는 저장된 요청을 발견함에 의해 그리고 그것에 대해 리소스를 할당함에 의해 그 저장된 요청을 처리한다. 이는 이하에서 도 14를 참조하여 더 기술된다. 그런 다음 제어는, 위에서 이미 기술된 바와 같이, 블록 1325로 계속된다.
만약 블록 1325에서의 결정이 거짓이라면, 할당된 리소스들(602)이 아이들 리소스를 갖지 않거나 저장된 할당 요청들(604)이 저장된 요청을 포함하지 않는다. 그래서 제어는 블록 1399로 계속되는데, 이 블록에서 도 13의 로직은 리턴한다.
도 14는 본 발명의 일 실시예에 따라 저장된 할당 요청을 핸들링함에 의한 처리 예의 흐름도를 도시한다. 제어는 블록 1400에서 시작한다. 그런 다음 제어는 블록 1405로 계속되는데, 이 블록에서 하이퍼바이저(152)는 저장된 요청들(604)에서 가장 높은 우선순위 레벨(664)을 선택한다. (도 6의 예에서, 그 저장된 할당 요청들(604)에서의 모든 요청들의 가장 높은 우선순위 레벨은 "중간"(레코드 650에 나타낸 바와 같이)이고, 이는 레코드(652)의 "낮은" 우선순위보다 더 높다.
그런 다음, 제어는 블록 1410으로 계속되는데, 이 블록에서 하이퍼바이저(152)는 파티션(668)을 선택하는데, 이 파티션(668)은 그 선택된 가장 높은 우선순위 레벨로 할당된 리소스들의 상한(그 선택된 우선순위 레벨에 의존하여 520, 525, 또는 530)의 가장 낮은 퍼센티지를 갖는다. 도 5 및 6의 예에서, 파티션 A 및 파티션 B는 레코드들(612 및 614)에 나타낸 바와 같이 중간 우선순위 레벨에서 할당된 하나의 리소스를 가지며, 중간 우선순위 리소스들(525)의 파티션 A의 상한은 "5"이고(레코드 505에 나타낸 바와 같이), 한편 중간 우선순위 리소스들(525)의 파티션 B의 상한은 "2"이다(레코드 510에 나타낸 바와 같이). 그리하여, 파티션 A의 할당된 중간 우선순위 리소스들의 상한의 퍼센티지는 20%(1/5*100)인 한편, 파티션 B의 할당된 중간 우선순위 리소스들의 상한의 퍼센티지는 50%(1/2*100)이다. 그래서 파티션 A는 중간 우선순위 요청들에 의해 할당된 리소스들의 상한의 가장 낮은 퍼센티지를 갖는다(왜냐하면 20%<50% 이므로).
그런 다음 제어는 블록 1415로 계속되는데, 이 블록에서 하이퍼바이저(152)는 가장 높은 서브-우선순위(666)로 그 저장된 요청(선택된 파티션(668)에 의해 시작된)을 선택한다. 그런 다음 제어는 블록 1420으로 계속되는데, 이 블록에서 하이퍼바이저(152)는 아이들 리소스의 리소스 식별자, 그 선택되고 저장된 요청의 터플(660), 및 그 선택되고 저장된 요청의 목적지 큐 페어 식별자(662)를 포함하는 애드 요청(add request)을, 네트워크 어댑터(114)에 송신한다.
그런 다음 제어는 블록 1425로 계속되는데, 이 블록에서 네트워크 어댑터(114)는 상기 애드 요청을 수신하고 상기 애드 요청에 규정된 리소스 식별자(238), 터플(240), 및 목적지 큐 페어 식별자(242)를 포함하여 리소스 데이터(215)에 새로운 레코드를 더한다. 그런 다음 제어는 블록 1430으로 계속되는데, 이 블록에서 하이퍼바이저(152)는 저장된 요청들(604)로부터 그 선택되고 저장된 요청을 제거함에 의해 그리고, 리소스 식별자, 파티션 식별자, 우선순위, 및 서브-우선순위를 포함하는 할당된 리소스들(602)에 상기 저장된 요청으로부터의 리소스를 더함에 의해, 구성 데이터(156)를 갱신한다. 그런 다음 제어는 블록 1499로 계속되는데, 이 블록에서 도 14의 로직은 리턴한다.
본 발명의 예시적인 실시예들의 앞서의 상세한 설명에서, 첨부되는 도면들이 참조 - 여기서, 유사 참조번호들은 유사한 구성요소들을 나타냄 - 되었다. 이러한 첨부되는 도면들은 본 명세서의 일부를 이룬다. 그리고 이러한 첨부되는 도면들은 본 발명이 실시될 수 있는 구체적이고 예시적인 실시예들을 설명하기 위한 것으로 도시되었다. 이들 실시예들은 당해 기술 분야에서 숙련된 자들이 발명을 실시할 수 있도록 충분히 상세히 기술되었지만, 본 발명의 범위를 벗어나지 않고서 다른 실시예들이 이용될 수 있고, 논리적, 기계적, 전기적, 및 다른 변경들이 있을 수 있다. 앞서의 설명에서, 많은 구체적인 세부사항들은 본 발명의 실시예들에 대한 완전한 이해를 제공하고자 제시되었다. 그러나, 발명은 이들 구체적인 세부사항들 없이도 실시될 수 있다. 다른 경우들에 있어서, 발명을 모호하지 않도록 하기 위해 주지의 회로들, 구조들, 및 기술들은 상세히 도시되지 않았다.
본 명세서에서 사용되는, 다른 경우들의 "실시예" 라는 용어는 반드시 동일한 실시예를 일컫는 것은 아니지만, 그것들은 동일한 실시예를 일컬을 수도 있다. 여기에 예시되거나 기술되는 어떤 데이터 및 데이터 구조들은 단지 예들일 뿐이고, 다른 실시예들에서, 다른 데이터의 량, 데이터의 유형, 필드들의 수 및 유형, 필드 이름, 로우(row)의 수 및 유형, 에트리, 또는 데이터의 조직들이 사용될 수 있다. 또한, 어떤 데이터는 로직과 결합될 수도 있다. 그래서 개별 데이터 구조가 반드시 필요한 것은 아니다. 그러므로 앞서의 상세한 설명은 본 발명의 범위를 한정하려는 의미로 받아들여져서는 아니되며, 본 발명의 범위는 단지 첨부되는 청구항들에 의해 정의된다.

Claims (35)

  1. 제1 요청 파티션으로부터 제1 할당 요청을 수신하는 단계 - 상기 제1 할당 요청은 터플(tuple) 및 큐(queue)의 식별자(identifier)를 포함함 -;
    복수의 리소스들 중에서 하나의 리소스를 선택하는 단계 - 상기 선택된 리소스는 선택된 파티션에 할당되어 있음 -; 및
    상기 선택된 리소스를 상기 제1 요청 파티션에 할당하는 단계 - 상기 할당하는 단계는 상기 큐에 대한 상기 터플의 매핑을 상기 선택된 리소스 내에 저장하는 단계를 더 포함함 - 를 포함하는,
    방법.
  2. 청구항 1에서, 상기 제1 할당 요청은 제1 우선순위를 더 포함하며 - 상기 선택된 파티션은 제2 우선순위를 포함하는 제2 할당 요청을 송신함 -, 상기 선택하는 단계는,
    상기 제1 우선순위가 상기 제2 우선순위보다 더 큰지를 결정하는 단계; 및
    복수의 파티션들 중 다른 파티션에 상기 제2 우선순위로 할당된 리소스들의 퍼센티지와 비교해서, 상기 선택된 파티션이 상기 제2 우선순위로 할당된 리소스들의 가장 큰 퍼센티지를 할당받는지를 결정하는 단계를 더 포함하는,
    방법.
  3. 삭제
  4. 삭제
  5. 청구항 1에 있어서, 상기 제1 할당 요청은 제1 우선순위를 더 포함하며 - 여기서, 상기 선택된 파티션은 제2 우선순위를 포함하는 제2 할당 요청을 송신함 -, 상기 선택하는 단계는,
    상기 제1 우선순위가 현재 할당된 복수의 리소스들 모두의 우선순위들보다 작거나 같은지를 결정하는 단계; 및
    상기 제1 요청 파티션에서 상기 제1 우선순위로 할당된 복수의 리소스들의 수의 상한(upper limit)의 퍼센티지가 상기 선택된 파티션에서 상기 제2 우선순위로 할당된 복수의 리소스들의 수의 상한의 퍼센티지보다 더 낮은지를 결정하는 단계 - 상기 제1 우선순위 및 상기 제2 우선순위는 동일함 - 를 더 포함하는,
    방법.
  6. 삭제
  7. 청구항 1에 있어서, 상기 제1 할당 요청은 제1 우선순위를 더 포함하되, 상기 선택하는 단계는,
    상기 제1 우선순위가 현재 할당된 복수의 리소스들 모두의 우선순위들보다 작거나 같은지를 결정하는 단계;
    상기 제1 요청 파티션에서 상기 제1 우선순위로 할당된 복수의 리소스들의 수의 상한(upper limit)의 퍼센티지가 다른 모든 파티션들에서 상기 제1 우선순위로 할당된 복수의 리소스들의 수의 상한들의 퍼센티지보다 더 큰지를 결정하는 단계; 및
    상기 제1 요청 파티션에 이미 할당된 리소스들과 비교해서, 가장 낮은 서브-우선순위를 갖는 상기 선택된 리소스를 선택하는 단계를 더 포함하는,
    방법.
  8. 청구항 1에 있어서,
    네트워크로부터 패킷을 수신하는 단계;
    상기 패킷에서의 데이터가 상기 터플에 매치하는지를 결정하는 단계; 및
    상기 매핑에 의해 규정된 큐에 상기 패킷을 저장하는 단계를 더 포함하는,
    방법.
  9. 청구항 1에 있어서,
    상기 제1 요청 파티션으로부터 할당해제 요청을 수신하는 단계;
    복수의 저장된 요청들 중 제1의 저장된 요청 - 상기 제1의 저장된 요청은 제2 요청 파티션으로부터 미리 수신되었고 상기 복수의 리소스들 모두가 할당되어 프리엠프트(preempt)될 수 없을 때에 저장됨 - 을 선택하는 단계; 및
    상기 선택된 리소스를 상기 제2 요청 파티션에 할당하는 단계를 더 포함하는,
    방법.
  10. 삭제
  11. 청구항 1에 있어서,
    상기 요청 파티션이 제1 우선순위에서 할당하도록 허용되는 상기 복수의 리소스들의 수의 상한을 설정하는 단계를 더 포함하는,
    방법.
  12. 청구항 1에 있어서,
    복수의 리소스들 모두가 할당되어 있는지를 결정하는 단계를 포함하되, 여기서 복수의 리소스들 중에서 리소스를 선택하는 단계는 상기 결정하는 단계에 응답하는,
    방법.
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 컴퓨터에 있어서, 상기 컴퓨터는
    프로세서;
    상기 프로세서에 통신상으로 연결된 메모리; 및
    상기 프로세서에 통신상으로 연결된 네트워크 어댑터를 포함하되,
    상기 메모리는 명령들을 인코딩하며, 상기 명령들은 상기 프로세서에 의해 실행될 때, 제1 요청 파티션으로부터 제1 할당 요청을 수신하는 단계 - 상기 제1 할당 요청은 터플 및 큐의 식별자를 포함함 -, 복수의 리소스들 모두가 할당되어 있는지를 결정하는 단계, 상기 결정에 응답하여 상기 복수의 리소스들 중에서 하나의 리소스를 선택하는 단계 - 상기 선택된 리소스는 선택된 파티션에 할당되어 있음 - 를 포함하고,
    상기 네트워크 어댑터는 로직(logic) 및 상기 복수의 리소스들을 포함하며, 상기 로직은 제1 큐에 대한 상기 터플의 매핑을 상기 선택된 리소스 내에 저장함에 의해 상기 선택된 리소스를 상기 제1 요청 파티션에 할당하는,
    컴퓨터.
  25. 삭제
  26. 삭제
  27. 삭제
  28. 삭제
  29. 삭제
  30. 삭제
  31. 삭제
  32. 삭제
  33. 삭제
  34. 삭제
  35. 프로그램 코드 수단을 포함하는 컴퓨터 프로그램이 기록된 컴퓨터 판독가능 스토리지 매체에 있어서,
    상기 프로그램이 컴퓨터 상에서 실행될 때, 상기 프로그램 코드 수단은 청구항 1, 2, 5, 7, 8, 9, 또는 12 중 어느 한 항에 기재된 방법을 수행가능한,
    컴퓨터 판독가능 스토리지 매체.
KR1020107004315A 2007-08-24 2008-08-21 논리적 파티션들 사이의 네트워크 어댑트 리소스 할당 KR101159448B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/844,434 2007-08-24
US11/844,434 US20090055831A1 (en) 2007-08-24 2007-08-24 Allocating Network Adapter Resources Among Logical Partitions
PCT/EP2008/060919 WO2009027300A2 (en) 2007-08-24 2008-08-21 Allocating network adapter resources among logical partitions

Publications (2)

Publication Number Publication Date
KR20100066458A KR20100066458A (ko) 2010-06-17
KR101159448B1 true KR101159448B1 (ko) 2012-07-13

Family

ID=40332877

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020107004315A KR101159448B1 (ko) 2007-08-24 2008-08-21 논리적 파티션들 사이의 네트워크 어댑트 리소스 할당

Country Status (10)

Country Link
US (1) US20090055831A1 (ko)
EP (1) EP2191371A2 (ko)
JP (1) JP5159884B2 (ko)
KR (1) KR101159448B1 (ko)
CN (1) CN101784989B (ko)
BR (1) BRPI0815270A2 (ko)
CA (1) CA2697155C (ko)
IL (1) IL204237B (ko)
TW (1) TWI430102B (ko)
WO (1) WO2009027300A2 (ko)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7586936B2 (en) * 2005-04-01 2009-09-08 International Business Machines Corporation Host Ethernet adapter for networking offload in server environment
US8719831B2 (en) * 2009-06-18 2014-05-06 Microsoft Corporation Dynamically change allocation of resources to schedulers based on feedback and policies from the schedulers and availability of the resources
US8446824B2 (en) 2009-12-17 2013-05-21 Intel Corporation NUMA-aware scaling for network devices
KR20110094764A (ko) * 2010-02-17 2011-08-24 삼성전자주식회사 트랜잭션 기반 입출력 인터페이스를 제공하는 가상화 장치 및 방법
US8589941B2 (en) 2010-04-23 2013-11-19 International Business Machines Corporation Resource affinity via dynamic reconfiguration for multi-queue network adapters
US8468551B2 (en) * 2010-06-30 2013-06-18 International Business Machines Corporation Hypervisor-based data transfer
US9721215B2 (en) * 2010-06-30 2017-08-01 International Business Machines Corporation Enhanced management of a web conferencing server
US9411517B2 (en) * 2010-08-30 2016-08-09 Vmware, Inc. System software interfaces for space-optimized block devices
US9055003B2 (en) 2011-03-03 2015-06-09 International Business Machines Corporation Regulating network bandwidth in a virtualized environment
US8490107B2 (en) * 2011-08-08 2013-07-16 Arm Limited Processing resource allocation within an integrated circuit supporting transaction requests of different priority levels
KR101859188B1 (ko) 2011-09-26 2018-06-29 삼성전자주식회사 매니코어 시스템에서의 파티션 스케줄링 장치 및 방법
US9311122B2 (en) * 2012-03-26 2016-04-12 Oracle International Corporation System and method for providing a scalable signaling mechanism for virtual machine migration in a middleware machine environment
US9432304B2 (en) 2012-03-26 2016-08-30 Oracle International Corporation System and method for supporting live migration of virtual machines based on an extended host channel adaptor (HCA) model
WO2013184121A1 (en) * 2012-06-07 2013-12-12 Hewlett-Packard Development Company, L.P. Multi-tenant network provisioning
US9104453B2 (en) 2012-06-21 2015-08-11 International Business Machines Corporation Determining placement fitness for partitions under a hypervisor
CN103516536B (zh) * 2012-06-26 2017-02-22 重庆新媒农信科技有限公司 基于线程数量限制的服务器业务请求并行处理方法及系统
US20140007097A1 (en) * 2012-06-29 2014-01-02 Brocade Communications Systems, Inc. Dynamic resource allocation for virtual machines
US10581763B2 (en) 2012-09-21 2020-03-03 Avago Technologies International Sales Pte. Limited High availability application messaging layer
US9967106B2 (en) 2012-09-24 2018-05-08 Brocade Communications Systems LLC Role based multicast messaging infrastructure
GB2506195A (en) * 2012-09-25 2014-03-26 Ibm Managing a virtual computer resource
US20140105037A1 (en) 2012-10-15 2014-04-17 Natarajan Manthiramoorthy Determining Transmission Parameters for Transmitting Beacon Framers
US9052932B2 (en) * 2012-12-17 2015-06-09 International Business Machines Corporation Hybrid virtual machine configuration management
US9497281B2 (en) * 2013-04-06 2016-11-15 Citrix Systems, Inc. Systems and methods to cache packet steering decisions for a cluster of load balancers
US20160321118A1 (en) * 2013-12-12 2016-11-03 Freescale Semiconductor, Inc. Communication system, methods and apparatus for inter-partition communication
EP3085039B1 (en) * 2013-12-20 2019-02-20 Telefonaktiebolaget LM Ericsson (publ) Allocation of resources during split brain conditions
US9961011B2 (en) 2014-01-21 2018-05-01 Oracle International Corporation System and method for supporting multi-tenancy in an application server, cloud, or other environment
US10523709B2 (en) * 2014-09-26 2019-12-31 Oracle International Corporation System and method for dynamic security configuration in a multitenant application server environment
US9619349B2 (en) 2014-10-14 2017-04-11 Brocade Communications Systems, Inc. Biasing active-standby determination
US9942132B2 (en) * 2015-08-18 2018-04-10 International Business Machines Corporation Assigning communication paths among computing devices utilizing a multi-path communication protocol
CN107005495B (zh) 2017-01-20 2020-03-27 华为技术有限公司 用于转发数据包的方法、网卡、主机设备和计算机系统
CN106911831B (zh) * 2017-02-09 2019-09-20 青岛海信移动通信技术股份有限公司 一种终端的麦克风的数据处理方法和具有麦克风的终端
US11134297B2 (en) * 2017-12-13 2021-09-28 Texas Instruments Incorporated Video input port
JP6558817B1 (ja) * 2018-05-18 2019-08-14 Necプラットフォームズ株式会社 通信装置、通信装置の制御方法、及び、プログラム
US11609845B2 (en) * 2019-05-28 2023-03-21 Oracle International Corporation Configurable memory device connected to a microprocessor
US10785271B1 (en) * 2019-06-04 2020-09-22 Microsoft Technology Licensing, Llc Multipoint conferencing sessions multiplexed through port
CN111031140A (zh) * 2019-12-20 2020-04-17 支付宝(杭州)信息技术有限公司 资源结算方法及装置、电子设备、存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060221961A1 (en) * 2005-04-01 2006-10-05 International Business Machines Corporation Network communications for operating system partitions

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6587938B1 (en) * 1999-09-28 2003-07-01 International Business Machines Corporation Method, system and program products for managing central processing unit resources of a computing environment
AU7437600A (en) * 1999-09-28 2001-04-30 International Business Machines Corporation Workload management in a computing environment
JP2002202959A (ja) * 2000-12-28 2002-07-19 Hitachi Ltd 動的な資源分配をする仮想計算機システム
US6988139B1 (en) * 2002-04-26 2006-01-17 Microsoft Corporation Distributed computing of a job corresponding to a plurality of predefined tasks
US7299468B2 (en) * 2003-04-29 2007-11-20 International Business Machines Corporation Management of virtual machines to utilize shared resources
US7188198B2 (en) * 2003-09-11 2007-03-06 International Business Machines Corporation Method for implementing dynamic virtual lane buffer reconfiguration
US7702610B2 (en) * 2003-09-19 2010-04-20 Netezza Corporation Performing sequence analysis as a multipart plan storing intermediate results as a relation
US8098676B2 (en) * 2004-08-12 2012-01-17 Intel Corporation Techniques to utilize queues for network interface devices
US7835380B1 (en) * 2004-10-19 2010-11-16 Broadcom Corporation Multi-port network interface device with shared processing resources
US7797707B2 (en) * 2005-03-02 2010-09-14 Hewlett-Packard Development Company, L.P. System and method for attributing to a corresponding virtual machine CPU usage of a domain in which a shared resource's device driver resides
US7586936B2 (en) * 2005-04-01 2009-09-08 International Business Machines Corporation Host Ethernet adapter for networking offload in server environment
US7493515B2 (en) * 2005-09-30 2009-02-17 International Business Machines Corporation Assigning a processor to a logical partition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060221961A1 (en) * 2005-04-01 2006-10-05 International Business Machines Corporation Network communications for operating system partitions

Also Published As

Publication number Publication date
US20090055831A1 (en) 2009-02-26
KR20100066458A (ko) 2010-06-17
JP5159884B2 (ja) 2013-03-13
CA2697155A1 (en) 2009-03-05
CA2697155C (en) 2017-11-07
TWI430102B (zh) 2014-03-11
CN101784989A (zh) 2010-07-21
TW200915084A (en) 2009-04-01
WO2009027300A3 (en) 2009-04-16
JP2010537297A (ja) 2010-12-02
WO2009027300A2 (en) 2009-03-05
IL204237B (en) 2018-08-30
BRPI0815270A2 (pt) 2015-08-25
EP2191371A2 (en) 2010-06-02
IL204237A0 (en) 2011-07-31
CN101784989B (zh) 2013-08-14

Similar Documents

Publication Publication Date Title
KR101159448B1 (ko) 논리적 파티션들 사이의 네트워크 어댑트 리소스 할당
US10120726B2 (en) Hybrid virtual machine configuration management
US7613897B2 (en) Allocating entitled processor cycles for preempted virtual processors
CN115210693A (zh) 具有可预测时延的存储事务
CN107995129B (zh) 一种nfv报文转发方法和装置
CN102473106B (zh) 虚拟环境中的资源分配
US20070168525A1 (en) Method for improved virtual adapter performance using multiple virtual interrupts
CN117348976A (zh) 用于流处理的数据处理单元
US20070192518A1 (en) Apparatus for performing I/O sharing &amp; virtualization
US9063918B2 (en) Determining a virtual interrupt source number from a physical interrupt source number
CN101075198A (zh) 提供两级服务器虚拟化的方法和系统
CN108984327B (zh) 报文转发方法、多核cpu及网络设备
US20140115593A1 (en) Affinity of virtual processor dispatching
US10579416B2 (en) Thread interrupt offload re-prioritization
US9507637B1 (en) Computer platform where tasks can optionally share per task resources
CN1625735A (zh) 允许分区计算机系统的多个分区使用单个网络适配器的装置和方法
US9176910B2 (en) Sending a next request to a resource before a completion interrupt for a previous request
US10284501B2 (en) Technologies for multi-core wireless network data transmission
KR20240063189A (ko) 최적화된 서비스 기반 파이프라인 제공
US7979660B2 (en) Paging memory contents between a plurality of compute nodes in a parallel computer
US11928502B2 (en) Optimized networking thread assignment
US20230108001A1 (en) Priority-based scheduling with limited resources
CN110955533A (zh) 用于多连接消息接发端点的技术

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150527

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160527

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170526

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180528

Year of fee payment: 7