KR20120092579A - 통합 공유 리소스들을 가진 고밀도 멀티 노드 컴퓨터 - Google Patents

통합 공유 리소스들을 가진 고밀도 멀티 노드 컴퓨터 Download PDF

Info

Publication number
KR20120092579A
KR20120092579A KR1020127007997A KR20127007997A KR20120092579A KR 20120092579 A KR20120092579 A KR 20120092579A KR 1020127007997 A KR1020127007997 A KR 1020127007997A KR 20127007997 A KR20127007997 A KR 20127007997A KR 20120092579 A KR20120092579 A KR 20120092579A
Authority
KR
South Korea
Prior art keywords
nodes
node
computer system
fan
carrier board
Prior art date
Application number
KR1020127007997A
Other languages
English (en)
Other versions
KR101739157B1 (ko
Inventor
텅 엠. 응우엔
리차드 에이유
데이비드 응우엔
티파타트 첸나바신
나자프 리즈비
데이비드 브레들리
매튜 험프리스
Original Assignee
어드밴스드 그린 컴퓨팅 머신즈-아이피, 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 어드밴스드 그린 컴퓨팅 머신즈-아이피, 리미티드 filed Critical 어드밴스드 그린 컴퓨팅 머신즈-아이피, 리미티드
Publication of KR20120092579A publication Critical patent/KR20120092579A/ko
Application granted granted Critical
Publication of KR101739157B1 publication Critical patent/KR101739157B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • G06F9/44505Configuring for program initiating, e.g. using registry, configuration files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/18Packaging or power distribution
    • G06F1/181Enclosures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/18Packaging or power distribution
    • G06F1/183Internal mounting support structures, e.g. for printed circuit boards, internal connecting means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/18Packaging or power distribution
    • G06F1/189Power distribution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/20Cooling means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/38Information transfer, e.g. on bus
    • G06F13/40Bus structure
    • G06F13/4063Device-to-bus coupling
    • G06F13/4068Electrical coupling
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/20Modifications to facilitate cooling, ventilating, or heating
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Power Engineering (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Thermal Sciences (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Sources (AREA)
  • Multi Processors (AREA)
  • Cooling Or The Like Of Electrical Apparatus (AREA)

Abstract

멀티 노드 컴퓨터 시스템은 복수의 노드들, 시스템 제어 유닛 및 캐리어 보드를 포함한다. 복수의 노드들 각각은 프로세서 및 메모리를 포함한다. 시스템 제어 유닛은 전력 관리, 냉각, 워크로드 프로비저닝, 네이티브 스토리지 서빙, 및 I/O에 대한 책임이 있다. 캐리어 보드는 시스템 패브릭 및 복수의 전기 커넥션들을 포함한다. 전기 커넥션들은 전력, 관리 제어들, 시스템 제어 유닛 및 복수의 노드들 간의 시스템 연결, 및 사용자 기반 구조에 대한 외부 네트워크 커넥션을 복수의 노드들에 제공한다. 시스템 제어 유닛 및 캐리어 보드는 복수의 노드들에 대한 통합 공유 리소스들을 제공한다. 멀티 노드 컴퓨터 시스템은 싱글 인클로저(single enclosure)로 제공된다.

Description

통합 공유 리소스들을 가진 고밀도 멀티 노드 컴퓨터{HIGH DENSITY MULTI NODE COMPUTER WITH INTEGRATED SHARED RESOURCES}
관련 출원들에 대한 상호 참조
본 출원은 2009년 8월 28일에 출원된, 미국 임시 특허 출원 제61/238,084호, 위임 문서 번호 PCUBE-P001.PRO에 대한 우선권을 주장한다.
기술 분야
본 발명은 일반적으로 컴퓨터 시스템들에 관한 것으로, 특히, 전력, 공간 및 냉각 면에서 향상된, 서브-5W 저전력 프로세서들을 포함하는 가전 제품들로부터의 컴포넌트들을 사용하는, 네트워크-중심 컴퓨터 아키텍처들에 관한 것이다.
페이퍼리스(paperless) 기술의 인기와 장점들이 증가함에 따라, 데이터 센터들의 사용을 통한 디지털 정보 저장 및 정보 관리가, 거의 틀림없이 상업, 통신, 교육, 및 정부 기능의 본질적인 부분으로 부각되었다. 데이터 센터, 또는 서버 팜(server farm)은 데이터 처리, 데이터 저장, 통신 및 인터넷 연결에 필요한 컴퓨터 시스템들을 제공한다. 데이터 센터들은 어디에나 있게 되었고, 몇 가지 예를 들자면, 은행, 엔터테인먼트, 언론 매체들, 첨단 기술 산업, 대학, 및 정부 기관들에서 발견된다. 상술된 바 및 그와 유사한 다른 것들은 상거래, 정보 관리, 통신, 데이터 처리 요구 사항들을 원조하기 위해 이러한 데이터 센터들을 운영 또는 사용한다.
페이퍼리스 기술의 인기와 장점들이 증가함에 따라, 데이터 센터들의 사용도 또한 증가해 왔다. 다수의 요인들 중 몇 가지만 열거하자면, 은행에서의 전자 거래의 사용 증가, 인터넷 통신 및 엔터테인먼트의 인기, 전자 의료 기록들의 사용의 증가, 및 전자 상거래에서 보여지는 성장에 따라 데이터 센터들에 대한 수요들도 증가하고 있다. 회의에 대한 EPA 보고에 따르면, 2000년부터, 컴퓨터 리소스들에 대한 요구 사항이 증가함으로 인해, 서버들 및 서버들을 지원하는 파워 및 냉각 기반 구조에 의해 사용되는 에너지가 5배 증가된 것으로 추정됨과 함께, 데이터 센터 서버들의 수가 상당히 증가했다. EPA 보고는, 에너지 사용의 이러한 5배의 증가는, 새로운 데이터 센터들의 구성과 연관된 비용 뿐만 아니라 현재 데이터 센터 기능의 확장에 필요한 기업비의 추가는 말할 것도 없고, 이러한 증가된 전력 요구 사항을 충족시키는데 필요한 현재 파워 그리드에 대한 압박이 추가됨과 함께, 에너지 비용들의 증가, 전기 발생들로부터 수반되는 온실 가스 방출들의 증가를 의미한다고 언급한다.
따라서, 사회의 모든 분야들에서 향상된 에너지 효율에 대한 관심의 증가와 함께, 데이터 센터들의 에너지 효율을 개선하는데 대한 관심도 또한 증가해 왔다. 에너지 효율 해결책들을 제공하는 수개의 새로운 기술들은 블레이드 서버들(blade servers) 및 조정 냉각(adaptive cooling)을 포함한다. IDC(International Data Corporation)에 따라, 블레이드 서버 선적은 2013년까지 전 세계 서버 선적들의 40%를 초과할 것이다. 그러나, 모든 향상들은 증가 및 진화하고 있다. 전력 소비를 2000년도 수준으로 줄이기 위해, 시스템 기술 및 아키텍처의 새로운 돌파구들이 필요함이 명백하다.
본 발명의 일 실시예에서, 멀티 노드 컴퓨터 시스템은 복수의 노드들, 시스템 제어 유닛 및 캐리어 보드를 포함한다. 복수의 노드들 각각은 프로세서 및 메모리를 포함한다. 시스템 제어 유닛은 전력 관리, 냉각 제어, 워크로드 프로비저닝(workload provisioning), 네이티브 스토리지 서빙, 및 I/O에 대한 책임이 있다. 캐리어 보드는 시스템 패브릭 및 복수의 전기 커넥션들을 포함한다. 전기 커넥션들은 전력, 관리 제어들, 시스템 제어 유닛 및 복수의 노드들 간의 시스템 연결, 및 사용자 기반 구조에 대한 외부 네트워크 커넥션을 복수의 노드들에게 제공한다. 시스템 제어 유닛 및 캐리어 보드는 복수의 노드들에 대한 통합 공유 리소스들을 제공한다. 멀티 노드 컴퓨터 시스템은 싱글 인클로저(single enclosure)로 제공된다.
본 발명의 다른 실시예에서, 멀티 노드 컴퓨터 시스템은 싱글-시스템 전원을 더 포함한다. 캐리어 보드는 복수의 전기 커넥션들을 더 포함하고, 복수의 노드들은, 각각의 전기 커넥션에 대해 각각, 캐리어 보드에 배열된다. 전원은 복수의 노드들에 단일 전압 레벨을 제공하고, 각각의 노드는 전압을 개별적으로 변환한다.
본 발명의 다른 실시예에서, 복수의 노드들은 제1 노드들의 행 및 제2 노드들의 행으로 캐리어 보드에 수직으로 배열된다. 제1 노드들의 행은 제2 노드들의 행과 상이하게 배향된다. 노드들의 행은 노드들 간에 채널들을 형성한다. 복수의 채널들은 복수의 영역들로 분할되며, 각각의 영역은 적어도 하나의 채널을 포함한다. 복수의 팬들은 강제로 채널들 아래로 공기를 향하게 함으로써 복수의 노드들을 냉각시키기 위해 팬-강제 통풍을 제공하며, 각각의 팬은 적어도 하나의 영역에 대한 팬-강제 통풍을 제공한다.
본 발명의 다른 실시예에서, 멀티 노드 컴퓨터 시스템의 한 노드는: 5 미만의 와트를 필요로 하는 프로세서; 메모리; 메모리 제어기; I/O 칩셋; 시스템 인터커넥트; 및 서비스 프로세서를 더 포함한다. 노드는 50 미만의 와트를 사용하며, 독립적으로 동작할 수 없다. 노드는 싱글 인클로저의 멀티 노드 컴퓨터 시스템의 복수의 노드들 중 하나로서 캐리어 보드에 연결된다. 각각의 노드는 개별 인클로저를 갖지 않는다.
도 1은 본 발명의 일 실시예에 따른 멀티 노드 컴퓨터를 도시한 간소화된 블록도이다.
도 2는 본 발명의 일 실시예에 따른 나노컴퓨트 유닛(NCU; NanoCompute Unit)을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 2-칩 나노컴퓨트 유닛(NCU)을 도시한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 시스템 제어 유닛(SCU)을 도시한 블록도이다.
도 5는 본 발명의 일 실시예에 따른 2-칩 시스템 제어 유닛(SCU)을 도시한 블록도이다.
도 6은 본 발명의 일 실시예에 따른 나노컴퓨트 센터 소프트웨어 디자인/아키텍처 구현을 도시한 블록도이다.
도 7은 본 발명의 일 실시예에 따른 그린머신 캐리어 보드(GMC)를 도시한 블록도이다.
도 8a는 본 발명의 일 실시예에 따른 20-NCU 그린머신 구현의 3D 분해도이다.
도 8b는 본 발명의 일 실시예에 따른, 종래 기술의 전원 분배 구현을 도시한 블록도이다.
도 8c는 본 발명의 일 실시예에 따른 단일 전압 소스 분배 구현을 도시한 블록도이다.
도 8d 및 도 8e는, 본 발명의 일 실시예에 따른 나노컴퓨트 유닛들 간에 냉각 채널들을 생성하기 위한 나노컴퓨트 유닛들의 배치를, 각각 도시한 측면도 및 상면도이다.
도 9는 본 발명의 일 실시예에 따른 업그레이드 가능 NCU를 포함하는 랩탑 컴퓨터를 도시한다.
도 10은 본 발명의 일 실시예에 따른 홈 게이트웨이 기기로서 그린머신의 축소된 버전을 도시한다.
도 11은 본 발명의 일 실시예에 따른 12개의 그린머신들의 랙-프레임 팩키지(rack-frame packaging)의 3D 도면을 도시한다.
도 12a-12d는 본 발명의 일 실시예에 따른 그린머신 메모리-기반 패브릭 아키텍처 구현을 도시한다.
본 발명의 양호한 실시예들에 대한 참조는 이제부터 상세히 이루어질 것이며, 그 일례들은 첨부 도면들에 도시되어 있다. 본 발명이 양호한 실시예들과 관련해서 기술되지만, 본 발명을 이러한 실시예들로 한정하려는 의도가 아님을 알 것이다. 그와는 반대로, 본 발명은 첨부된 청구항들에 의해 정의된 본 발명의 원리 및 범위 내에 포함될 수 있는 대안들, 변경들 및 동등물들을 포함하도록 의도된다. 또한, 본 발명의 실시예들의 이하의 상세한 설명에서, 다수의 특정 세부 사항들이 본 발명의 철저한 이해를 위해 기술된다. 그러나, 본 발명이 이러한 특정 세부 사항들 없이 실행될 수도 있음을 당업자는 알 것이다. 다른 실례들에서, 널리 공지된 방법들, 프로시져들, 컴포넌트들, 및 회로들은 본 발명의 실시예들의 양상들을 불필요하게 모호하게 하지 않도록 상세히 기술되지 않았다.
표기법 및 명명법
이하의 상세한 설명들 중 일부분들은 프로시져들, 단계들, 논리 블록들, 프로세싱, 및 컴퓨터 메모리 내의 데이터 비트들에 대한 오퍼레이션들의 다른 상징적인 표현들이라는 면에서 제시된다. 이러한 설명 및 표현들은 당업자에게 작업의 실체를 가장 효율적으로 전달하기 위해 데이터 프로세싱 분야의 당업자에 의해 사용되는 수단이다. 프로시져, 컴퓨터 실행 단계, 논리 블록, 프로세스 등이 여기에 있으며, 일반적으로, 희망하는 결과를 야기하는 단계들 또는 명령들의 일관된 시퀀스로 간주된다. 단계들은 물리적인 양들의 물리적인 조작들을 필요로 한다. 통상, 반드시는 아니지만, 이러한 양들은 컴퓨터 시스템에서 저장, 전송, 결합, 비교, 및 조작될 수 있는 전기 또는 자기 신호들의 형태를 취한다. 주로 일반적인 용도를 이유로, 이러한 신호들을 비트들, 값들, 요소들, 심볼들, 문자들, 항들, 숫자들 등으로서 언급하는 것이 때로는 편리하다고 증명되었다.
그러나, 이러한 용어들 및 유사한 용어들은 전부 적합한 물리적인 양들과 연관되며, 단지 이러한 양들에 적용되기에 편리한 라벨들임을 명심해야만 한다. 이하의 설명으로부터 명백한 바와 같이 달리 특별히 지시되지 않는 한, 본 발명에 걸쳐, "프로세싱(processing)" 또는 "액세스(accessing)" 또는 "실행(executing)" 또는 "저장(storing)" 또는 "렌더링(rendering)" 등의 용어들을 사용하는 설명들은 컴퓨터 시스템의 레지스터들 및 메모리들 및 다른 컴퓨터 판독 가능 매체 내의 물리적인 (전자적) 양들로서 표현된 데이터를 컴퓨터 시스템 메모리들 또는 레지스터들 또는 다른 정보 스토리지, 송신 또는 디스플레이 장치들 내의 물리적인 양들로서 유사하게 표현된 다른 데이터로 조작 및 변형하는, 컴퓨터 시스템(예를 들어, 도 1의 멀티 노드 컴퓨터 시스템(10)), 또는 유사한 전자 계산 장치의 동작 및 프로세스들과 관련됨을 알 것이다. 컴포넌트가 수개의 실시예들에서 나타날 때, 동일한 참조 부호들의 사용은, 컴포넌트가 원래의 실시예에서 도시된 바와 동일한 컴포넌트임을 의미한다.
최근 40년 동안, 컴퓨팅 아키텍처들의 파동이 있었다. 메인프레임으로부터 미니-컴퓨터들로, RISC 워크스테이션들 및 서버들로, 현 x86 시스템들로: 각각의 새로운 파동은 성능, 가격 및 전력의 현저한 향상들로 안내했다. 아이폰TM, 넷북, 모바일 인터넷 디바이스(MID), 및 디지털 비디오 카메라 등의 저전력 프로세서 및 플래시 메모리 표적화 가전 제품들에 대한 기술 개발에 들어간 막대한 투자를 생각하면, 다음 파동은 이러한 기본적인 가전 제품들의 기술들에 기초할 것임이 명백해지고 있다.
그린머신(GreenMachine)
그린머신TM 멀티 노드 컴퓨터 시스템은 현재 컴퓨터 아키텍처들에 대한 전력, 공간 및 냉각의 10배 이상의 향상을 목표로 하는 I/O 및 네트워크-중심 아키텍처이다. 멀티 노드 컴퓨터 시스템은 복수의 노드들을 포함하며, 각각의 노드는 각각의 사용자에 대한 것이다. 단독 사용자는 한번에 단일 노드 또는 수개의 노드들을 사용/제어할 수 있다. 각각의 노드는 개별 노드들의 기능들에 의해 정의된 랜덤 액세스 메모리 및 개별 프로세싱 리소스들을 포함한다. 그린머신의 (각각의 노드의) 프로세싱 서브시스템은 스마트 폰들/모바일 인터넷 디바이스, 및 플래시 메모리 기술로 된 저 전력 프로세서들의 타입에 기초한다. 초기 표적 시장은, I/O, 저전력 요구 사항들, 및 계산 성능으로 인해, 클라우드 컴퓨팅이다. 그린머신은 또한 씬 클라이언트/가상 데스크탑, 데이터베이스, 데이터 웨어하우스, 비즈니스 인텔리전스 및 비즈니스 분석, 및 고성능 계산(HPC)을 포함해서 다른 주요 수직들(verticals)로 전개될 수 있다.
도 1은 본 발명의 일 실시예에 따른 멀티 노드 컴퓨터 시스템(10)을 도시한다. 각각의 그린머신 멀티 노드 컴퓨터 시스템(10)은, 그린머신 캐리어TM(GMC)(600)라고 하는 듀얼 리던던트 확장 축소 가능 시스템 패브릭을 사용해서 캐리어 보드를 통해 상호 연결되는, 나노컴퓨트 유닛들TM(NCUs)(100)이라고 하는 모듈 기본 구성 요소들로 이루어진다. NCU들(100)은 멀티 노드 컴퓨터 시스템의 개별 노드들이다. 본 발명에서, 각각의 노드는 물리적으로 별개인 자신의 프로세서 및 메모리를 가진 "개별" 컴퓨터 시스템으로서 동작하며, 후술되는 바와 같이, 다른 리소스들(예를 들어, 전력, 냉각, I/O 등)은 노드들 간에 공유된다. 시스템 제어 유닛(SCU)(300)이라고 하는 관리 서브시스템은 전력 관리, 냉각, 워크로드 프로비저닝, 네이티브 스토리지 서빙, 및 I/O에 대한 책임이 있다. GMC(600)는 전력, 관리 제어들, SCU(300) 및 NCU들(100) 간의 시스템 연결, 및 사용자 기반 구조에 대한 외부 네트워크 커넥션을 제공한다. SCU(300) 및 GMC(600)는 복수의 NCU들(100)에 대한 통합 공유 리소스들을 제공한다.
그린머신 멀티 노드 컴퓨터 시스템(10)과 외관상 유사함을 특징으로 하는 2가지 타입들의 기존의 컴퓨터 시스템들이 있다. 블레이드 서버들의 클러스터들은 시스템 패브릭들을 통해 연결된 모듈 계산 기본 구성 요소들로 구성되고, 종종 관리 서브시스템을 포함한다. 그러나, 그린머신(10)은 1) 개별적으로 하우징된 컴포넌트들의 컬렉션인 것에 비해, 모든 기본 구성 요소들이 싱글 인클로저 내에 하우징되고; 2) 전체 그린머신 인클로저가 동등하게 장치된 블레이드 시스템의 전력, 공간 및 비용의 일부를 필요로 한다는 점에서 고유하게 상이하다. 덜 흔한 멀티 노드 컴퓨터들은 또한 싱글 인클로저 내부의 다수의 모듈 계산 요소들로 구성될 수 있다. 그러나, 그린머신 멀티 노드 컴퓨터(10) 및 기존의 멀티 노드 컴퓨터들 간에 몇몇 차이점들이 있다. 첫째로, 그린머신(10)은 외부 케이블류 및 추가 스위치들을 필요로 하지 않으면서 GMC(600) 내의 다수의 NCU들(100)을 상호 연결하는 메카니즘들을 포함한다. 또한, 그린머신(10)은 노드들의 동작 및 사용을 용이하게 하는 관리 서브시스템들을 포함한다. 마지막으로, 그린머신(10)은 전력 및 공간을 덜 소비하면서, 현재 어느 다른 멀티 노드 컴퓨터에 비해 수배의 수의 노드들을 포함한다. 그린머신(10)은 작은 전력, 공간, 및 비용 범위의 피처들 및 기능을 제공하는 제1 멀티 노드 컴퓨터이다.
또한 그린머신(10)이 다수의 사용자들에 대한 가상 환경들을 사용해서 종래의 컴퓨터 시스템들을 향유한다는 수개의 장점들이 있다. 가상 컴퓨터로서 총 프로세싱 리소스들의 분할된 부분이 아니라, 개별 NCU(100)가 그린머신 하의 각각의 사용자에게 제공되기 때문에, 일관성 및 향상된 결함 분리가 존재한다. 사용자들의 수와 무관하게, 그린머신(10)에서 사용자들에게 이용가능한 프로세싱 리소스들은 변하지 않지만, 가상 컴퓨팅 환경을 사용하는 사용자에게 이용가능한 리소스들은 사용자들의 종합 프로세싱 요구 사항들에 기초하여 변할 수 있다. 또한, 프로세서가 가상 컴퓨팅 환경에서 실패한다면, 다수의 사용자들은 영향을 받을 수 있지만, 그린머신 시스템(10)에서는, NCU(100)가 실패할 때, 오직 단독 사용자만이 영향을 받는다.
그린머신(10)의 각종 컴포넌트들들(예를 들어, NCU들(100), SCU(200), 및 GMC(600))은 이제부터 더 상세히 기술될 것이다. 그린머신(10)의 컴포넌트의 상세한 설명에 이어, 그린머신의 아키텍처, 물리적 어셈블리, 효율적인 냉각 구현, 및 싱글-소스 전원 분배가 기술될 것이며, 다른 그린머신 실시예들의 설명이 이어질 것이다.
나노컴퓨트 유닛( NCU )
도 2는 본 발명의 일 실시예에 따른 나노컴퓨트 유닛(NCU)(100)을 도시한다. NCU(100)는 메인 프로세서(102), 메모리 제어기(104), 랜덤 액세스 메모리(105), 칩셋(106), 시스템 인터커넥트(108), 및 서비스 프로세서(110)를 포함한다. 다른 실시예에서, 코-프로세서(112)(예를 들어, 그래픽 프로세서 유닛 및 부동 소수점 산술 연산 장치) 및/또는 네트워크 프로세서(114)는 NCU 메인 프로세서(102)를 오프로드하고 애플리케이션 성능을 강화하기 위해 포함될 수 있다. NCU(100)는 프로세서 독립적이다. NCU(100)는 인텔의 아톰TM 및 ARM 프로세서들 등의 서브-5W 프로세서들을 지원한다. 칩셋(106)은 메인 프로세서(102)를 메모리(104)에 연결한다. 서비스 프로세서(110)는 원격 클라이언트 장치들, 예를 들어, 키보드, 마우스, 및 DVD/CD ROM 등을 위한 비디오 및 USB를 시스템 콘솔 액세스에 제공한다. 네트워크 인터커넥트는 이더넷 네트워크 인터페이스(NIC)를 통해 구현된다. 이더넷 네트워크 인터페이스는 네트워크 프로세서(114)를 선택적으로 포함한다. 네트워크 프로세서(114)는 네트워크 프로토콜 오프로드 엔진으로 NCU 메인 프로세서(102)를 오프로드한다. 신뢰성을 위해, 이더넷 네트워크 인터페이스에서 적어도 2개의 고속 시스템 인터페이스들(1Gbps 이상)이 각각의 NCU(100)에 장치된다. 이러한 인터페이스들은 네트워크 인터커넥트들(예를 들어, 이더넷) 또는 I/O 인터커넥트들(예를 들어, PCIe)일 수 있다. 서비스 프로세서(110)는 시스템 제어 유닛(SCU)(300)에 연결되고 전용 네트워크 인터페이스 또는 IPMB를 통해 IPMI 2.0 관리를 제공한다. NCU(100)를 위한 KVM 및 USB 방향 조정(redirection)이 서비스 프로세서(110)에서 전용 네트워크 인터페이스를 통해 제공된다. 서비스 프로세서(110)는 그린머신 캐리어(600)를 통해 외부 네트워크들에 연결하는 단일 전용 네트워크 인터페이스를 가진 내장 이더넷 제어기를 포함한다. 표준 컴퓨터처럼, 각각의 NCU(100)는 자신의 동작 시스템 인스턴스를 실행한다. 원격 클라이언트 장치들과 결합해서, 각각의 NCU(100)는 멀티 노드 컴퓨터 시스템(10)의 싱글 노드로서 작용한다. 그린머신(10)의 밖 외부에 어떠한 NCU(100) 로컬 커넥션들도 또한 어떠한 I/O 포트들로 노출되지 않는다.
(예를 들어, 통합 전원, 팬들, 및 스토리지...가 부족하여) 독립형 컴퓨터로서 독립적으로 작용할 수 없다; 독립형 컴퓨터들 또는 다수의 서버 블레이드 구성들과 달리, 베어본 NCU(100)는 저 와트 요구 사항 임계값을 향유한다. 서브-5W 프로세서들을 사용해서, 프로세서들에 대한 프로세싱 요구 사항들이 더 감소된 채로, 각각의 개별 NCU(100)는 35-50 와트 보다 더 많은 와트를 사용하지 않는다.
현재 경향은 가전 제품 파동을 부채질하고 있는 고밀도 프로세스 기술들(예를 들어, 32nm)을 이용하는 메인 프로세서에 메모리 제어기 등의 주요 칩셋 기능들을 통합시키는 것이다. NCU는 단일 칩 또는 2-칩 솔루션으로서 구현될 수 있다. 도 3은 본 발명의 일 실시예에 따른 2-칩 NCU(200)를 도시한다. NCU(200)는 메모리 제어기(104), 랜덤 액세스 메모리(105), 및 GPU(112)를 메인 프로세서(102)와 통합시키는 제1 칩(210), 및 NCU(200)의 나머지 컴포넌트들이 I/O 칩셋(106), 서비스 프로세서(110), 시스템 인터커넥트(108), 및 네트워크 프로세서(114)를 포함하는 제2 칩(220)으로 통합되는 2-칩 솔루션으로서 구현된다. 제2 칩은 또한 부트 디바이스(예를 들어, 하드 드라이브 또는 다른 기억 매체)에 연결된 I/O 칩셋(106)을 통해, 또는 서비스 프로세서(110)의 네트워크 인터페이스를 통해 원격 부트 디바이스에 연결된 네트워크 프로세서에 의해, 부트 서포트를 제공한다.
시스템 제어 유닛( SCU )
시스템 제어 유닛(SCU)은 전력 관리, 냉각 제어, 워크로드 프로비저닝, 네이티브 스토리지 서빙, 및 I/O에 대한 책임이 있다. SCU는 나노컴퓨트 센터(NCC; NanoCompute Center)라고 하는 커스텀 시스템 펌웨어를 실행한다. 도 4는 본 발명의 일 실시예에 따른 시스템 제어 유닛(300)을 도시한다. SCU(300)는 메인 프로세서(302), 메모리 제어기(304), 랜덤 액세스 메모리(305), 칩셋(306), 및 시스템 인터커넥트(308)를 포함한다. 다른 구현에서, 서비스 프로세서(310)가 또한 제공된다. 다른 구현에서, 네트워크 프로세서(312)는 NCU 메인 프로세서(102)를 오프로드하고 애플리케이션 성능을 강화하기 위해 포함될 수 있다. 네트워크 오프로딩은 애플리케이션 성능을 간접적으로 강화한다. 네트워크 오프로딩은 SCU가 공유 스토리지 등의 서비스들을 NCU들에 제공하는 것을 돕는다. 더 높은 품질의 서비스는 애플리케이션 성능을 향상시킬 것이다. 또한, SCU(300)는 I/O 칩셋(106)(예를 들어, SATA)를 통해 내부 기억 인터페이스들을, I/O 칩셋(106)에 배치된 직렬 포트를 통해 시스템 스위치 패브릭 관리 인터페이스들을, 네트워크 프로세서(114)의 네트워크 인터페이스들을 통해 고속 기억 네트워크 인터페이스들을, I/O 칩셋(106)(예를 들어, 비디오, USB 등)을 통해 외부적으로 액세스 가능한 I/O 포트들을 제공한다.
현재 경향은 가전 제품 파동을 부채질하고 있는, 고밀도 프로세스 기술들(예를 들어, 32nm)을 이용해서, 메인 프로세서에 메모리 제어기를 통합시키는 등 주요 칩셋 기능들을 통합시키는 추세이다. 따라서, SCU는 단일 칩 또는 2-칩 솔루션으로서 구현될 수 있다. 도 5에 도시된 바와 같이, SCU(400)는 메모리 제어기(304) 및 랜덤 액세스 메모리(305)를 메인 프로세서(302)와 통합시키는 제1 칩(410), 및 SCU(400)의 나머지 컴포넌트들은 칩셋(306), 서비스 프로세서(310), 시스템 인터커넥트(308), 및 네트워크 프로세서(312)를 포함하는 제2 칩(420)으로 통합되는 2-칩 솔루션으로서 구현될 수 있다. 제2 칩(420)은 또한 부트 서포트를 제공한다.
나노컴퓨트 센터( NCC )
SCU(300)는 나노컴퓨트 센터TM(NCC)라고 하는 커스텀 시스템 펌웨어를 실행한다. 서브-컴포넌트들 뿐만 아니라 메인 소프트웨어 및 펌웨어 컴포넌트들은, 본 발명의 일 실시예에 따라, 도 6에 도시되어 있다. 소프트웨어 및 펌웨어 컴포넌트들 및 서브-컴포넌트들은 NCC를 위해 특별히 개발된 소프트웨어 뿐만 아니라 오픈 소스, 제삼자 소프트웨어를 포함한다. 나노컴퓨트 센터는 BASH/SSHD 유틸리티들, 아파치(Apache) Httpd 서버; 커맨드 라인 인터페이스(CLI); 그래픽 사용자 인터페이스(GUI); CentOS 5 리눅스 + 나노컴퓨트 센터; 및 NCC 코어를 포함한다. NCC 코어는 이하의 모듈들: NCC, SCU 및 NCU Config 파일/객체, NanoBlade 부트; NCU 인터페이스/액세스; NCU 업데이트들; SCU 업데이트들; 및 NBC/섀시 매니저를 포함한다. NanoBlade 부트는 논리적 볼륨 매니저(LVM); DHCP 서버 및 iSCSI-SCST 타겟을 포함한다. iSCSI-SCST 타겟은 애플리케이션들 및 운영 체제를 포함하는 NCU 소프트웨어와 통신한다. NCU 인터페이스/액세스는 IPMI 클라이언트 및 KVM/vMedia 클라이언트를 포함하고, 상기 클라이언트들은 둘 다 NCU 펌웨어의 서비스 프로세서들과 통신한다. NCU 업데이트들은 업데이트 디렉터 및 메인터넌스 OS를 포함하며, 메인터넌스 OS는 NCU 펌웨어의 BIOS 및 옵션 ROM과 통신한다. SCU 업데이트들은 펌웨어 도구들, 및 Image dd/Grub 애플리케이션을 포함한다. 펌웨어 도구들은 GM 펌웨어의 SCU BIOS와 통신하고, Image dd/Grub 애플리케이션은 CentOS 5 리눅스 + 나노컴퓨트 센터와 통신한다. NBC/섀시 매니저는 스위치 매니저 및 섀시 매니저를 포함하고, 스위치 매니저는 GM 펌웨어의 스위치 EEPROM/SDK와 통신한다.
그린머신 캐리어( GMC )
NCU들(100) 및 SCU(300)는 GMC(600)에서, 전기 커넥션들을 포함하여, 슬롯들에 물리적으로 플러그 인된다. 각각의 슬롯은 전력, 관리 제어들, SCU(300) 및 NCU들(100) 간의 시스템 연결, 및 사용자 기반 구조에 대한 외부 네트워크 커넥션을 제공한다. 도 7에 도시된 바와 같이, 3-스위치 구현은 복수의 NCU들(100) 및 SCU(300)와의 시스템 연결을 위한 2개의 고속 스위치 패브릭들 S1, S2, 및 서비스 프로세서 네트워크를 위한 스위치 패브릭 S3을 포함한다. 3개의 스위치 패브릭들 S1, S2, S3은 물리 층들(PHY)을 통해 Gig-Es(기가비트 이더넷, 종종 1000 베이스-T로 공지됨) 및 10g 이더넷과의 다른 연결을 제공한다. 물리 층들은 스위치 패브릭들 S1, S2, S3 및 고속 네트워크 커넥션들 간에 인터페이스를 제공한다.
기업 견고성을 위해, 관리 프로세서(604)는 GMC 스위치 패브릭들 S1, S2, S3을 제어한다. 관리 프로세서(604)는 자신의 펌웨어를 운영하고, QoS, ACL, 및 다른 패브릭 정책들을 구성할 수 있다. SCU(300) 상의 SCU 시스템 스위치 관리 인터페이스는 GMC 스위치 관리 프로세서(604)에 연결된다.
시스템 스위치 패브릭 관리 인터페이스들은 간단한 RS232 또는 네트워크 인터페이스(예를 들어, 이더넷), 또는 I/O 버스 인터페이스(예를 들어, PCI, PCIe)로 구현될 수 있으며, 상기 인터페이스들 중 어느 인터페이스라도 관리 프로세서(604)에 연결된다. SCU(300)의 I/O 칩셋(306)에 연결하는 SCU 관리 버스는 NCU 서비스 프로세서들(110)에 연결하는 IPMB 멀티 마스터 모드에서 동작한다.
따라서, 그린머신(10)은 싱글 데스크탑/서버 사이즈 인클로저의 멀티 노드 컴퓨터의 노드들을 위한 내장 고 대역폭, 리던던트 인터커넥션들을 제공한다. 네트워크에서 노드들을 상호 연결하기 위해 추가 외부 케이블류 및 스위치들을 필요로 하는 표준 멀티 노드 컴퓨터들과 달리, 그린머신(10)은 인클로저 내부에서 GMC(600)에서 듀얼 리던던트 스위치 패브릭 S1, S2를 통합한다. 각각의 그린머신(10)은 다른 그린머신들(10) 및 외부 네트워크들에 직접 연결하기 위해 고속 외부 업링크 포트들(예를 들어, Gig-Es 및 10G SFP+)을 더 포함한다.
그린머신(10)은 싱글 데스크탑/서버 인클로저의 멀티 노드 컴퓨터의 원격 클라이언트 액세스를 제공한다. 전형적인 멀티 노드 컴퓨터의 각각의 노드는 자신의 키보드, 마우스, 및 비디오 포트들을 포함한다. 이들은 개별 외부 장치들에 연결되거나, 또는 외부 스위치들을 통해 종합된다. 그린머신(10)은 하이 엔드 서버들 및 블레이드 시스템들에서만 통상 발견되는 원격 관리 기술들을 고유하게 통합한다. 각각의 NCU(100)는, 또한 그린머신(10)에 내부에 있는, 전용 스위치 패브릭 S3에 연결된 KVM-오버-IP 마이크로컨트롤러를 포함한다. 마이크로컨트롤러는 비디오 및 USB를 압축해서, 데스크탑들, 랩탑들, 또는 씬 클라이언트들 등의 장치들이 마치 국부적인 것처럼 NCU들(100)들에 액세스하고 상호 작용할 수 있게 한다. 이러한 디자인은 GM에 연결된 모니터, 키보드, 및 주변 장치들의 단일 집합이 모든 NCU들(100)에 액세스할 수 있게 한다.
그린머신 레이아웃
그린머신(10) 아키텍처의 고유한 장점들(예를 들어, 전례없는 전력, 공간, 및 계산 효율)은 고밀도 멀티 컴퓨터 시스템 팩키징의 결과이다. 도 8a는 20-NCU 그린머신(10) 구현을 도시한다. NCU들(100) 및 SCU(300)는, 서로 동일한 면에서 통상 수평으로 배치된 종래의 멀티 노드 컴퓨터들의 보드들과 달리, 하부 면 방향에서, GMC 보드(600)에 수직으로 플로그 인된 카드들로서 나타난다. 블레이드 서버들과 달리, 모든 그린머신 카드들(100, 300)은 대략 표준 데스크탑 컴퓨터의 크기로 싱글 섀시(718)에 포함된다. NCU들(100)은 개별 인클로저를 갖지 않는다. 따라서, 각각의 카드(100)는 인접 카드들(100)로부터 오직 수 cm들 만큼 떨어져 이격될 수 있다. 본 발명의 일 실시예에서, 각각의 카드(100)는 인접 카드들(100)로부터 대략 2 cm 멀리 있다. 다수의 수직 배향 CPU 카드들의 기계적 하니스(702)는 각각의 카드(100)에 대한 개별 인클로저들의 부재시 강성을 제공한다. 카드들(100)은 동일한 섀시(718) 내에 포함된 냉각, 전력, 네트워킹, 및 스토리지 서브시스템들을 공유한다. 이러한 고유한 방식을 통해 고밀도 팩킹을 제공하는 것 외에, 그린머신(10) 디자인은 NCU들(100)과 케이블 없는 연결 및 도구 없는 서비스를 제공한다. 후술되는 바와 같이, 단일 전원(716)은 모든 그린머신 컴포넌트들에 단일 전압을 분배하고, 섀시(718) 내의 로우-RPM 팬들(708)은 섀시(718)에 고정된 프론트 베젤(720)을 통해 공기를 끌어 당기는 팬들로, 매우 효율적인 냉각을 제공한다. 마지막으로, 기계적 하니스(702) 위에 제공된 탑 커버(722), GMC(600)에서 네트워크 및 I/O 커넥션들에 대한 액세스를 제공하는 백 패널(724)은, 섀시(718)와 함께, 싱글 인클로저로 전체 그린머신 멀티 노드 컴퓨터 시스템(10)을 밀봉한다.
효율적인 공유 스토리지
다른 실시예에서, 그린머신은 싱글 데스크탑/서버 사이즈 인클로저의 멀티 노드 컴퓨터에서 동적으로 재구성 가능하며 매우 효율적인 통합 스토리지 설비를 제공한다. 표준 멀티 노드 컴퓨터들, 블레이드 서버들, 및 다른 기존 타입들의 컴퓨터들은 노드에 대한 고정된 방향-연결 스토리지, 또는 유연하게 할당된 외부 스토리지를 지원한다. 그린머신은 싱글 인클로저의 멀티 노드 시스템의 고유한 피처로, 인클로저의 NCU들(100)에 대한 iSCSI 스토리지 서버로서 SCU(300)를 사용해서 동적 내부 스토리지 구성을 가능케 한다. 도 8a에 도시된 바와 같이, SCU(300)는 디스크들의 어레이(706)에 직접 연결되고, 그로부터 논리적 볼륨들(나노 디스크들)을 생성해서 NCU들(100)에 할당할 수 있다. 그린머신(10)은 COW(Copy-On-Write) 나노 디스크 클론 기술을 통해 NCU들(100) 간에 공유하는 물리적 스토리지의 효율을 과감하게 개선한다. 이 기술은, 다수의 NCU들(100)이 유사한 운영 체제들 및 애플리케이션들을 운영할 때, 디스크 공간 사용 및 액세스 성능을 최적화한다. SCU(300)가 생성하는 각각의 나노 디스크의 경우, 다수의 NCU들(100)들로부터의 액세스를 선택적으로 허용할 수 있다. 각각의 NCU(100)는 전용 비공유 리소스인 것처럼 나노 디스크에 액세스할 수 있다. 각각의 허가 NCU(100)의 경우, SCU(300)는 원래의 나노 디스크로 이루어진 가상 기억 장치 및 훨씬 더 작은 기록 가능 볼륨을 생성한다. NCU(100)가 데이터를 기록할 때, SCU(300)는 변경된 데이터 블록들을 기록 가능 볼륨으로 전향한다. NCU(100)가 데이터를 판독할 때, 필요한 경우, SCU(300)는 원래의 나노 디스크 및 기록 가능 볼륨들의 조합으로부터 데이터를 제공한다. 또한, SCU(300)는 고체 상태 디스크들(706)의 특징들에 최적화된 알고리즘들을 사용한다.
싱글-소스 전력 분배
상술된 장점들은 싱글 데스크탑/서버 인클로저의 멀티 노드 컴퓨터(10)에 대한 효율적인 공유 전력 분배 방식을 통해 더 향상된다. 그린머신 멀티 노드 컴퓨터(10)는 전원들 및 AC-DC 변환들의 수를 감소시키고, 시스템에 걸친 전력 회로의 길이를 최적화함으로써 다른 시스템 디자인들에서는 실현될 수 없는 우수한 전력 효율을 달성한다. 인클로저에 대한 단일(또는 리던던시의 경우 2개의) 전원이 모든 NCU들(100), SCU(300) 및 GMC(600)의 컴포넌트들에 단일 시스템 전압을 제공한다. 이러한 균일한 전압은 각각의 개별 로드 시점에서 전력 변환을 겪는다. 도 8b에 도시된 바와 같이, 단일 전원(716)은 각각의 NCU(100)에 단일 시스템 전압을 제공하며, DC-DC 변환기(730)는 각각의 NCU(100)에 대한 로드 시점에서 단일 전압을 변환한다.
도 8c는 다수의 전압 레벨들을 시스템 컴포넌트들에 분배하는 전원을 사용하는 종래의 종래 기술의 시스템 디자인을 도시한다. 시스템 컴포넌트들(756)에 제공된 복수의 시스템 전압들(754)(예를 들어, 3.3V 및 5V 레인들)을 가진 전형적인 ATX 형태 인자 전원(752)을 사용하는 것은, 각각의 레일(754)에 대한 전력 소요량에 따라 변하는, 전원(752)의 각각의 레일에 의해 서빙되는 로드들의 수에 대한 결과적으로 생긴 필요한 제한을 요구한다. 다시 말해서, 결과적으로 전력 소비가 증가되는, 다수의 ATX 전원들(752)은, 도 8b에 도시된 바와 같이, 본 발명의 단일 전원 보다는, 20-NCU(100) 그린머신(10)에 전력을 제공할 필요가 있다.
그린머신 전력 효율
그린머신(10)은 필요한 때만 컴포넌트들에 예비 전력을 제공함으로써 전력 소모를 더 감소시킨다. 이 예비 전력 방식은 마이크로컨트롤러에 의해 동작되는 파워 FET들을 포함하는 관리 서브시스템(604)에 의해 가능하다. 그린머신(10)은 또한 각각의 NCU(100)에 실시간 클록 백업 배터리를 제공하는 대신, 마이크로컨트롤러들을 사용해서 각각의 NCU(100)에서 실시간 클록들을 동기화함으로써, CMOS 배터리들 등의 잡다한 전원 장치들을 제거한다.
그린머신은 또한 싱글 데스크탑/서버 인클로저의 멀티 노드 컴퓨터(10)에 대한 고급 전력 관리를 더 제공한다. 그린머신(10)은, 데스크탑/워크스테이션 사이즈 멀티 노드 시스템들이 효율적으로 이익을 얻을 수 있는 형태로 하이 엔드 블레이드 시스템들에서만 미리 발견된 전력 관리 기능들을 압축(compact)한다. 이는 그린머신(10)에 콤팩트 SCU(300) 보드를 내장함으로써 달성되어서, 전력 공유, 전력 시퀀싱, 및 최적화를 지능적으로 조정할 수 있다.
극도로 효율적인 냉각
다른 실시예에서, 그린머신(10)은 싱글 데스크탑/서버 사이즈 인클로저의 멀티 노드 컴퓨터에 대한 극도로 효율적인 냉각 디자인을 제공한다. 도 8a, 8d 및 8e에 도시된 바와 같은 그린머신(10)의 구현의 물리적인 디자인은 인클로저의 모든 카드들(100)을 적절히 냉각시키기 위해 최소 수의 저비용이고 조용한 로우-RPM 팬들(708)을 가능케 한다. 빽빽히 팩킹된 NCU들(100)은 추가 덕팅(ducting)의 필요 없이 얇은 자연 환기 채널들(710)의 행들을 형성한다. 공기 채널들(710)은 2 cm 넓이이고, NCU들(100) 간의 간격을 나타낸다. 냉각 채널들(710)은 NCU들(100)을 지나서 냉각 채널들(710)을 통해 흐르는 공기의 실제적인 층들을 제공하기 위해 NCU들(100)의 행들 간에 형성된다. 또한, 도 8a에 도시된 바와 같이, NCU들(100)은, 제1 행의 NCU들(100)이 다음 행의 NCU들(100)에게 쉽게 열을 전달하지 않도록 하는 방향으로 카드들(100)의 2개의 행들 간에 플립된다. 각각의 채널(710)의, 도 8d 및 8e에 도시된, 로우 프로파일 히트 싱크들(low profile heat sinks)(712)은 더 많은 공기 흐름, 더 차가운 공기 흐름, 덕팅(ducting) 또는 히트 파이핑(heat piping)에서 사용되는 추가 재료들, 또는 상술된 바 전부를 필요로 하는 다른 기계적 디자인들에 비해, 중요한 컴포넌트들로부터 멀리 열을 효과적으로 끌어 당기기 위해 전체 볼륨의 공기 흐름을 가능케 한다. 최적 양의 공기 분자들이 히트 싱크 표면들(712)에 효율적으로 접촉할 수 있기에, 로우 프로파일 히트 싱크들(712)을 가진 냉각 채널들(710)은 매우 효율적인 냉각 환경을 제공한다.
GMC(600) 상의 마이크로컨트롤러는 또한 그린머신(10)의 냉각의 효율을 최적화한다. 마이크로컨트롤러는, 모든 냉각 채널(710)에 위치한 온도 센서들(714)을 판독하고, 독립적인 채널들(710), 또는 채널들(710)의 영역들 Z1, Z2를 각각 서빙하는 다수의 팬들(708)을 제어할 수 있다. 센서들(714)은 NCU들(100) 자체에 위치하거나, GMC(600) 상의 각각의 NCU(100) 슬롯 가까이에 위치할 수 있다. 최고 정확성을 위해, 온도 센서들(714)은 직접 NCU들(100)에 배치된다.
이러한 극도로 효율적인 냉각 디자인은 다수의 독립 냉각/영역들 및 팬들(714)을 제어하는 단일 냉각 서브시스템을 특징으로 하지 않는 표준 멀티 노드, 데스크탑, 서버, 또는 워크스테이션 냉각 디자인들과 상이하다. 내부 영역을 영역들 Z1, Z2로 분할함으로써, 마이크로컨트롤러는, 특정 영역 Z1, Z2의 냉각 채널들(710)의 온도 센서들(714)에 기초하여, 특정 영역 Z1, Z2의 냉각 요구 사항들을 충족시키기 위해 개별 팬들(708)의 RPM을 증가시키고, 할당된 영역들 Z1, Z2의 냉각 요구 사항들이 허용하는 대로 다른 팬들(708)의 RPM을 낮춤으로써 그린머신(10)의 냉각을 효율적으로 제어할 수 있다.
잡음 감소
다른 실시예에서, 그린머신(10)은 싱글 데스크탑/서버 사이즈 인클로저의 멀티 노드 컴퓨터에 대한 잡음 감소를 제공한다. 표준 멀티 노드 컴퓨터들, 서버들, 및 블레이드 시스템들은 통상 데이터 센터들을 위한 것으로, 따라서, 그 디자인들은 잡음 감소에 별 노력을 하지 않는다. NCU들(100)의 고밀도가 잡음의 불가피한 증가를 암시하지만, 그린머신(10) 디자인은 조용한 단일 데스크탑의 것으로 잡음을 고유하게 감소시키는 특성들을 특징으로 한다. 주위 온도 25℃에서 줄잡아 추산된 시뮬레이션에서, 잡음 레벨은 40 dB 미만이었다. 주위 온도 40℃의 다른 시뮬레이션에서, 잡음 레벨은 대략 55 dB로 증가되었다. 얇은 공기 채널들(710)은 효율을 최적화할 뿐만 아니라 공기 터뷸런스를 감소시킨다. 독립적인 영역들 Z1, Z2은 필요한 경우에만 냉각 시스템이 개별 팬들(708)의 속도를 증가시킬 수 있게 한다. 최종적으로, 공유 전원(716)은 필요한 팬들(708)의 전체 수를 감소시킨다. 종합적으로, 이러한 속성들은 그린머신(10)이 다른 컴퓨터 아키텍처들이 적합하지 않은 잡음에 민감한 환경들에서 사용될 수 있게 한다.
그린머신 클러스터 계산
다른 실시예에서, 그린머신(10)은 싱글 데스크탑/서버 사이즈 인클로저의 멀티 노드 컴퓨터의 고성능 클러스터 프로세싱 기능들을 제공한다. 멀티 노드 컴퓨터들을 포함해서, 유사한 물리적인 크기, 전력 소비, 또는 비용을 갖는 다른 시스템들과 달리, 그린머신(10)은 단일 소형 인클로저 내에 포함된 고성능 계산 클러스터로서 사용될 수 있다. 이는, 고 대역폭 네트워크 패브릭, 및 클러스터링된 소프트웨어 기술을 통합한, 모듈 나노컴퓨트 유닛들(100)의 디자인을 통해 달성된다. 상술된 바와 같이, 각각의 NCU(100)는 그래픽, 비디오 및 부동 소수점 오프로드를 위해 내장된 GPU(112); 및 통신 및 스토리지 네트워크 오프로드를 위해 내장된 네트워크 프로세서(114)를 선택적으로 포함한다. 이 컴포넌트들은 각각의 NCU(100)의 효율을 최대화하기도 하지만, 또한 복수의 NCU들(100)을 사용하는 고성능 클러스터 컴퓨팅에도 이상적이다. 각각의 NCU(100)는 내장된 GPU(112)를 선택적으로 갖는다. 내장된 GPU들(112)은 CUDA 또는 OpenCL을 통해 부동 오프로드를 위한 로우 레벨 서포트들을 제공한다.
다른 그린머신 구현들:
그린머신 디자인은 구조적 장점들을 더 최대화하는 추가 변형들로 적용될 수 있다. 도 9-12는 상기 장점들을 더 최대돠하는 수개의 가능한 변형들을 도시한다.
도 9에 도시된 바와 같이, NCU(100)는 재사용가능 그린 랩탑 컴퓨터(900)를 위한 모듈식, 업그레이드 가능 프로세싱 서브시스템으로서 구현될 수 있다. 작은 크기로 인해, 개별 NCU(100)는 노트북 컴퓨터 인클로저(900)로 다시 팩키징될 수 있다. 이러한 팩키징은 노트북 컴퓨터(900)의 주요 컴포넌트들이 케이스, 스크린, 키보드, 및 포트들을 재사용하면서 업그레이드될 수 있게 한다.
도 10에 도시된 바와 같이, NCU들(100)은 홈 게이트웨이 기기등의 특정 애플리케이션들에 대한 다른 구성들로 다시 팩키징될 수 있다. 이는 상술된 장점들이 특정 작업량들 및 목적들을 위해 한층 더욱 정교하게 최적화될 수 있게 한다.
도 11에 도시된 바와 같이, 데이터 센터 기반 구조의 다수의 그린머신들을 위한 랙-프레임 팩키징 아키텍처가 구현될 수 있다. 6개의 그린머신들이 랙 측면에 대한 전력 분배 및 하부-상부 공기 냉각 디자인으로 3×2 행 배열로 팩키징될 수 있다. 도 11은 3×2 행 배열을 사용해서, 표준 31.5 인치 랙을 위해 구성된 12개의 GM들을 도시하며, 각각의 레벨은 6개의 그린머신들을 포함한다. 랙의 오픈 섀시 구조는 도시되지 않는다.
그린머신(10)의 저 에너지 요구 사항들은, 각종 가전 제품들에서, 그린머신들(10)이 배터리로 전력을 공급 받는 추가 구성들을 가능케 한다. 컴포넌트 선택 및 전력 관리로 인한 저 전력 손실 외에, 그린머신 전력 분배 디자인은, 전기 자동차들 및 다른 애플리케이션 성능들을 위한 배터리 연구에 들어간 막대한 투자를 이용해서, 랩탑 컴퓨터들의 외부의 시스템 디자인이 배터리를 통해 전력을 공급받을 수 있게 할 수 있다. 배터리 팩은 그린머신 전원 모듈들과 동일한 공간에 맞도록 디자인되거나 또는 랩탑과 유사한 외부 부착 배터리 스테이션일 수 있다. 배터리 전원 그린머신은 태양/대체 에너지 충전, 피크 에너지 사용의 최적화, 증가된 내고장성, 및 휴대성을 활용할 수 있다.
PCIe -기반 메모리 패브릭
다른 실시예에서, 그린머신(10)은 동적 멀티 노드 컴퓨터 시스템을 위한 PCIe-기반 메모리 패브릭으로 구현될 수 있다. 이더넷 네트워크 패브릭을 PCIe 메모리 패브릭으로 대체하는 것은 싱글 인클로저의 컴퓨터 시스템의 고유한 피처이다. 이는, NCU들(100) 및 장치들 간의 모든 타입들의 통신의 더 높은 대역폭 및 낮은 레이턴시를 가능케 한다. 또한, 추가 리소스 공유, 전력 절약, 및 비용 최적화를 가능케 한다.
도 12a-12d에 도시된 바와 같이, 메모리 패브릭(1200) 통합 그린머신은 시스템 관리 및 제어를 위한 통합 SCU(300); 인스트림 프로세싱(예를 들어, 메모리 복사, 암호화, 자동 데이터 이동)을 위한 내장 패브릭 프로세서들(1202); NCU들(100)을 위한 패브릭 프로세서들(1202)을 통한 확장된 메모리 서포트; 동기화를 위한 아토믹 콤플렉스(atomic complex; AC) 로크 설비(1204); 계층적 및 이종 메모리 기반 구조를 위한 자동 데이터 이동; 노드 간 통신을 위한 TCP/IP 메모리-기반 설비(1206)(TCP/IP 메모리-기반 설비(1206)가 메모리 패브릭을 사용할 수 있도록, 각각의 NCU(100)에 의해 사용되는 소프트웨어 드라이버에 의해 구현됨); 물리적인 I/O 장치 공유를 위한 가상 I/O (1208) 구현(예를 들어, VNIC들, VHBA들...); 및 원격 씬 클라이언트들을 위한 NCU 네이티브 I/O 콘솔(1210) 트래픽(비디오, USB, 오디오)을 포함한다. PCIe 메모리 패브릭(1200)은 어느 한 타입의 생활 필수품 컴퓨터 시스템에 고유한 이하의 피처들: 동적 멀티 프로세서 노드(DMP)로 다수의 하드웨어 캐시 코히런스 NCU들(100)을 종합하기 위한 클록 및 전력 분배 디자인, 및 다수의 NCU들(100)을 DMP 노드로 종합하기 위한 반사 메모리 메카니즘을 가능케 하는데 사용될 수 있다.
또한, 도 12d에 도시된 바와 같이, 로크-스텝 듀얼 NCU 탠덤 내고장성 노드 구성(TFT), 및 트리플 NCU 리던던트 내고장성 노드 구성의 클록 동기화가 구현될 수 있다. NCU들(100)의 사용에 내재하는 비용-절약 및 효율은 NCU 리던던트 내고장성 구성들에 이용되고, 2개의 NCU들(100)(듀얼) 또는 3개의 NCU들(100)(트리플)이 리던던트 내고장성을 구현하는데 사용된다. 2개의 또는 3개의 NCU들(100)이 결과를 처리한 후에 패브릭 프로세서들(1202)에 의한 투표를 통해, 프로세싱 결함들 또는 오류들이 식별 및 폐기되어서, 오직 정확한 결과만이 메모리(1208)에 송신될 수 있다.
다른 실시예에서, 그린머신(10)은 멀티 노드 컴퓨터 시스템의 동적 분배 스토리지 서포트를 위한 가상 로컬 스토리지를 포함할 수 있다. PCI 장치들(실제 또는 가상)이 다수의 NCU들(100)에 연결될 수 있는 PCIe 메모리 패브릭(1200)을 사용함으로써, 중심, 공유, 가상, 및 네트워크 스토리지(상술됨)의 사용은 가상 로컬 디스크들을 제공하는 것으로 확장될 수 있다. 이는 더 큰 운영 체제 지원, 더 높은 성능, 및 감소된 복잡성의 장점을 가진다. 또한, 캐시, 플래시 메모리들, 및 표준 HDD들; 및 외부 스토리지(iSCSI, FC)를 포함하는 이종 스토리지 계층들 등의 가상 및 공유 스토리지의 고유한 지원 및 사용을 가능케 한다. 그린머신 구현은 액세스 레이턴시 및 성능을 최적화하기 위해 스토리지 레벨들 간에 데이터를 이동함으로써 완전한 격리; 안전한 클라이언트 액세스; 및 자동 데이터 이동을 특징으로 한다.
다른 실시예에서, 그린머신은 싱글 인클로저의 컴포넌트들 내의 시스템 로드 밸런싱을 위한 하이버네이션/체크포인트/리스타트 기술의 사용을 포함할 수 있다. 하이버네이션, 체크포인트, 및 리스타트 기술들은 하이 엔드 내고장성 시스템들에서, 또는 개별 프로세싱 작업들이 며칠이 걸릴 수 있는 고성능 컴퓨팅 클러스터들에서 통상 사용된다. 그린머신 아키텍처는, 이러한 기술이 그린머신 멀티 노드 컴퓨터 시스템(10)을 위한 하이버네이션/체크포인트/리스타트 기술의 고유한 채택을 요구하지 않으면서 다수의 작업량들을 지원하는 동적 리소스 할당을 위해 단일 자립 머신 내에서 유용하게 할 수 있다. 이러한 구현에서, SCU(300)는 유휴 NCU들(100)을 검출하고 그 상태를 체크포인트한다. 작업량은 절약되거나 또는 차후에 다른 NCU(100)로 이동될 수 있다. SCU(300)는, 또한, 체크포인트된 이미지와 함께, MAC 어드레스들 등의 하드웨어 아이덴티티들을 이동한다. 하드웨어 어드레스 재배치는 펌웨어 관리에 의해 또는 어드레스 가상 현실화에 의해 달성될 수 있다.
다른 실시예에서, 그린머신은 싱글 인클로저를 넘어서게 조정될 수 있다. 이러한 조정은: 다수의 그린머신들을 지원하는 NCC; 오류 복구 및 결함 포함; 및 도메인 분할을 포함한다.

Claims (49)

  1. 컴퓨터 시스템으로서,
    프로세서 및 메모리를 포함하는 복수의 노드들 - 상기 복수의 노드들은 멀티 노드 컴퓨터 시스템의 노드들임 - ;
    시스템 제어 유닛; 및
    시스템 패브릭 및 복수의 전기 커넥션들을 포함하는 캐리어 보드
    를 포함하고,
    상기 전기 커넥션들은, 전력, 관리 제어들, 상기 시스템 제어 유닛과 상기 복수의 노드들 간의 시스템 연결, 및 사용자 기반 구조에 대한 외부 네트워크 커넥션을 상기 복수의 노드들 각각에 제공하며, 상기 시스템 패브릭은 상기 시스템 연결을 제어하는 적어도 2개의 고속 스위치들 및 서비스 프로세서 네트워크를 위한 제3 스위치를 포함하고,
    상기 시스템 제어 유닛 및 상기 캐리어 보드는 상기 복수의 노드들에 대한 통합 공유된 리소스들(integrated, shared resources)을 제공하며, 상기 컴퓨터 시스템은 싱글 인클로저(single enclosure)로 제공되는
    컴퓨터 시스템.
  2. 제1항에 있어서,
    상기 시스템 제어 유닛은 전력 관리, 냉각, 워크로드 프로비저닝(workload provisioning), 네이티브 스토리지 서빙(native storage serving), 및 I/O를 제어하는, 컴퓨터 시스템.
  3. 제1항에 있어서,
    상기 시스템 패브릭은 듀얼 리던던트 확장 축소 가능 시스템 패브릭(dual redundant scalable system fabric)인, 컴퓨터 시스템.
  4. 제1항에 있어서,
    상기 복수의 노드들은 상기 캐리어 보드에서 수직으로 위치하며, 상기 캐리어 보드는 외부 케이블링 없이 상기 복수의 노드들 연결을 제공하는, 컴퓨터 시스템.
  5. 제4항에 있어서,
    상기 복수의 노드들에 대한 강성(rigidity)을 제공하는 기계적 하니스(mechanical harness)를 더 포함하고,
    상기 복수의 노드들은 개별 인클로저들을 갖지 않으며, 상기 기계적 하니스는 상기 복수의 노드들 위에 접촉해서 위치하는, 컴퓨터 시스템.
  6. 제1항에 있어서,
    하나의 노드는 싱글 칩으로서 통합되는, 컴퓨터 시스템.
  7. 제1항에 있어서,
    하나의 노드는 제1 칩 및 제2 칩으로서 통합되는, 컴퓨터 시스템.
  8. 제1항에 있어서,
    각각의 노드는 서브-5 와트 프로세서를 더 포함하는, 컴퓨터 시스템.
  9. 제1항에 있어서,
    각각의 노드는 나노컴퓨트 유닛(NanoCompute Unit)인, 컴퓨터 시스템.
  10. 제1항에 있어서,
    각각의 노드는 50 와트 미만을 필요로 하는, 컴퓨터 시스템.
  11. 제1항에 있어서,
    각각의 노드는 35-50 와트를 필요로 하는, 컴퓨터 시스템.
  12. 제1항에 있어서,
    싱글-시스템 전원을 더 포함하고,
    상기 전원은 상기 복수의 노드들에 단일 전압 레벨을 제공하며, 각각의 노드는 개별적으로 전압을 변환하는, 컴퓨터 시스템.
  13. 제12항에 있어서,
    각각의 노드는 전력 변환기를 더 포함하는, 컴퓨터 시스템.
  14. 제12항에 있어서,
    상기 단일 전압 레벨은 12 볼트인, 컴퓨터 시스템.
  15. 제1항에 있어서,
    상기 복수의 노드들은 제1 노드들의 행 및 제2 노드들의 행으로 상기 캐리어 보드에 수직으로 배열되고, 상기 제1 노드들의 행은 상기 제2 노드들의 행과 상이하게 배향되는(orientated), 컴퓨터 시스템.
  16. 제15항에 있어서,
    상기 제1 노드들의 행은 상기 제2 노드들의 행에 비해 방향이 180°로 플립되는, 컴퓨터 시스템.
  17. 제15항에 있어서,
    상기 노드들의 행들은 상기 노드들 간에 복수의 채널들을 형성하고, 상기 복수의 채널들은 복수의 영역들로 분할되며, 각각의 영역은 적어도 하나의 채널을 포함하고, 복수의 팬들은 강제로 채널들 아래로 공기를 향하게 함으로써 상기 복수의 노드들을 냉각시키기 위한 팬-강제 통풍(fan-forced air)을 제공하며, 각각의 팬은 적어도 하나의 영역에 대한 팬-강제 통풍을 제공하는, 컴퓨터 시스템.
  18. 제17항에 있어서,
    3개의 로우-RPM 팬(low-RPM fan)들은 상기 팬-강제 통풍을 제공하는, 컴퓨터 시스템.
  19. 제17항에 있어서,
    마이크로컨트롤러를 더 포함하고, 상기 마이크로컨트롤러는 상기 복수의 팬들의 각각의 팬의 RPM을 개별적으로 제어하는, 컴퓨터 시스템.
  20. 제19항에 있어서,
    상기 복수의 채널들의 각각의 채널의 온도 센서를 더 포함하고, 각각의 온도 센서는 상기 마이크로컨트롤러에 온도 측정값을 전달하고, 상기 마이크로컨트롤러는 상기 복수의 채널들의 온도들에 기초하여 상기 복수의 팬들의 각각의 팬의 RPM을 제어하는, 컴퓨터 시스템.
  21. 제20항에 있어서,
    상기 마이크로컨트롤러는 대응하는 상기 적어도 하나의 영역의 각각의 온도 센서로부터의 종합된 온도 측정값들에 기초하여 상기 복수의 팬들의 각각의 팬의 RPM을 제어하는, 컴퓨터 시스템.
  22. 제17항에 있어서,
    상기 인클로저의 정면의 베젤은 상기 복수의 팬들에 공기를 안내하는, 컴퓨터 시스템.
  23. 제17항에 있어서,
    상기 노드들은 상기 복수의 채널들의 복수의 로우 프로파일 히트 싱크들(low profile heat sinks)을 더 포함하고,
    상기 복수의 로우 프로파일 히트 싱크들 및 상기 복수의 노드들의 간격은 상기 팬-강제 통풍을 위해 상기 복수의 채널들을 통하는 저 난기류 경로(low turbulence path)를 제공하며, 상기 팬-강제 통풍은 상기 복수의 노드들을 효율적으로 냉각시키는, 컴퓨터 시스템.
  24. 제17항에 있어서,
    상기 멀티 노드 컴퓨터 시스템의 잡음 레벨은 40 dB 미만인, 컴퓨터 시스템.
  25. 컴퓨터 시스템으로서,
    프로세서 및 메모리를 포함하는 복수의 노드들 - 상기 복수의 노드들은 멀티 노드 컴퓨터 시스템의 노드들임 - ;
    시스템 제어 유닛;
    싱글-시스템 전원; 및
    복수의 전기 커넥션들을 포함하는 캐리어 보드
    를 포함하고,
    상기 복수의 노드들은, 각각의 전기 커넥션에 대해 각각, 상기 캐리어 보드에 배열되며, 상기 전원은 상기 복수의 노드들에 단일 전압 레벨을 제공하고, 각각의 노드는 상기 전압을 개별적으로 변환하며,
    상기 시스템 제어 유닛 및 상기 캐리어 보드는 상기 복수의 노드들에 대한 통합 공유된 리소스들을 제공하며, 상기 컴퓨터 시스템은 싱글 인클로저로 제공되는
    컴퓨터 시스템.
  26. 제25항에 있어서,
    각각의 노드는 전력 변환기를 더 포함하는, 컴퓨터 시스템.
  27. 제25항에 있어서,
    상기 단일 전압 레벨은 12 볼트인, 컴퓨터 시스템.
  28. 제25항에 있어서,
    백업 싱글-소스 전원을 더 포함하는, 컴퓨터 시스템.
  29. 제25항에 있어서,
    상기 시스템 제어 유닛 및 캐리어 보드는 예비 전력(standby power)을 제공하고, 상기 예비 전력은 오직 요구될 때만 제공되는, 컴퓨터 시스템.
  30. 노드로서,
    5 와트 미만을 필요로 하는 프로세서;
    메모리;
    메모리 제어기;
    I/O 칩셋;
    시스템 인터커넥트; 및
    서비스 프로세서
    를 포함하고,
    상기 노드는 50 와트 미만을 사용하며, 상기 노드는 독립적으로 동작할 수 없으며, 상기 노드는 싱글 인클로저의 멀티 노드 컴퓨터 시스템의 복수의 노드들 중 하나로서 캐리어 보드에 연결되는, 노드.
  31. 제30항에 있어서,
    상기 노드는 개별 인클로저를 갖지 않는, 노드.
  32. 제30항에 있어서,
    GPU, 및 부동 소수점 산술 연산 장치를 포함하는 코-프로세서; 및
    네트워크 프로세서
    를 더 포함하는, 노드.
  33. 제30항에 있어서,
    상기 노드는 나노컴퓨트 유닛인, 노드.
  34. 제30항에 있어서,
    상기 노드의 컴포넌트들은 싱글 칩으로 통합되는, 노드.
  35. 제30항에 있어서,
    상기 메인 프로세서 및 상기 메모리 제어기는 제1 칩으로 통합되고, 상기 시스템 인터커넥트, I/O 칩셋, 및 서비스 프로세서는 제2 칩으로 통합되는, 노드.
  36. 제35항에 있어서,
    상기 제1 칩은 코-프로세서를 더 포함하고, 상기 제2 칩은 네트워크 프로세서를 더 포함하는, 노드.
  37. 컴퓨터 시스템으로서,
    프로세서 및 메모리를 포함하는 복수의 노드들 - 상기 복수의 노드들은 멀티 노드 컴퓨터 시스템의 노드들임 - ;
    시스템 제어 유닛; 및
    상기 복수의 노드들에 대한 복수의 전기 커넥션들을 포함하는 캐리어 보드
    를 포함하고,
    상기 복수의 노드들은 제1 노드들의 행 및 제2 노드들의 행으로 상기 캐리어 보드에 수직으로 배열되며, 상기 제1 노드들의 행은 상기 제2 노드들의 행과 상이하게 배향되고,
    상기 노드들의 행들은 상기 노드들 간에 채널들을 형성하며, 복수의 채널들은 복수의 영역들로 분할되고, 각각의 영역은 적어도 하나의 채널을 포함하며, 복수의 팬들은 강제로 채널들 아래로 공기를 향하게 함으로써 상기 복수의 노드들을 냉각시키기 위한 팬-강제 통풍을 제공하고, 각각의 팬은 적어도 하나의 영역에 대한 팬-강제 통풍을 제공하며,
    상기 시스템 제어 유닛 및 상기 캐리어 보드는 상기 복수의 노드들에 대한 통합 공유된 리소스들을 제공하고, 상기 컴퓨터 시스템은 싱글 인클로저로 제공되는
    컴퓨터 시스템.
  38. 제37항에 있어서,
    상기 복수의 팬들은 3개의 로우-RPM 팬들을 포함하는, 컴퓨터 시스템.
  39. 제37항에 있어서,
    상기 멀티 노드 컴퓨터 시스템의 잡음 레벨은 40 dB 미만인, 컴퓨터 시스템.
  40. 제37항에 있어서,
    상기 제1 노드들의 행은 상기 제2 노드들의 행에 비해 방향이 180°로 플립되는, 컴퓨터 시스템.
  41. 제37항에 있어서,
    마이크로컨트롤러는 상기 복수의 팬들의 각각의 팬의 RPM을 개별적으로 제어하는, 컴퓨터 시스템.
  42. 제41항에 있어서,
    상기 복수의 채널들의 각각의 채널의 온도 센서는 상기 마이크로컨트롤러에 온도 측정값을 전달하고, 상기 마이크로컨트롤러는 상기 복수의 채널들의 온도들에 기초하여 상기 복수의 팬들의 각각의 팬의 RPM을 제어하는, 컴퓨터 시스템.
  43. 제42항에 있어서,
    상기 마이크로컨트롤러는 대응하는 상기 적어도 하나의 영역의 각각의 채널의 각각의 온도 센서로부터의 종합된 온도 측정값들에 기초하여 상기 복수의 팬들의 각각의 팬의 RPM을 제어하는, 컴퓨터 시스템.
  44. 제37항에 있어서,
    상기 인클로저의 정면의 베젤은 공기를 상기 복수의 팬들에 안내하는, 컴퓨터 시스템.
  45. 제37항에 있어서,
    상기 노드들은 상기 복수의 채널들의 복수의 로우 프로파일 히트 싱크들을 더 포함하고, 상기 복수의 로우 프로파일 히트 싱크들 및 상기 복수의 노드들의 간격은 상기 팬-강제 통풍을 위해 상기 복수의 채널들을 통하는 저 난기류 경로를 제공하며, 상기 팬-강제 통풍은 상기 복수의 노드들을 효율적으로 냉각시키는, 컴퓨터 시스템.
  46. 컴퓨터 시스템으로서,
    프로세서 및 메모리를 포함하는 복수의 노드들 - 상기 복수의 노드들은 멀티 노드 컴퓨터 시스템의 노드들이며, 각각의 노드는 50 와트 미만을 필요로 하고, 상기 복수의 노드들은 독립적으로 동작할 수 없으며, 상기 복수의 노드들은 개별 인클로저들을 갖지 않음 - ;
    시스템 제어 유닛 - 상기 시스템 제어 유닛은 전력 관리, 냉각, 워크로드 프로비저닝, 네이티브 스토리지 서빙, 및 I/O 커넥션들을 상기 복수의 노드들에 제공함 - ;
    싱글-시스템 전원; 및
    캐리어 보드
    를 포함하고,
    상기 캐리어 보드는,
    시스템 패브릭, 및
    복수의 전기 커넥션들 - 상기 전기 커넥션들은 전력, 관리 제어들, 상기 시스템 제어 유닛과 상기 복수의 노드들 간의 시스템 연결, 및 사용자 기반 구조에 대한 외부 네트워크 커넥션을 상기 복수의 노드들 각각에 제공하며, 상기 시스템 패브릭은 시스템 연결을 제공하는 적어도 2개의 고속 스위치들, 및 서비스 프로세서 네트워크를 위한 제3 스위치를 포함함 -
    을 포함하고,
    상기 전원은 상기 복수의 노드들에 단일 전압 레벨을 제공하고, 각각의 노드는 상기 전압을 변환하며,
    상기 복수의 노드들은 제1 노드들의 행 및 제2 노드들의 행으로 상기 캐리어 보드에 수직으로 배열되고, 상기 제1 노드들의 행은 상기 제2 노드들의 행과 상이하게 배향되며, 상기 노드들의 행들은 상기 노드들 간에 채널들을 형성하고, 복수의 채널들은 복수의 영역들로 분할되며, 한 영역은 적어도 하나의 채널을 포함하고, 복수의 팬들은 강제로 채널들 아래로 공기를 향하게 함으로써 상기 복수의 노드들을 냉각시키기 위해 팬-강제 통풍을 제공하며, 각각의 팬은 적어도 하나의 영역에 대한 팬-강제 통풍을 제공하고,
    상기 시스템 제어 유닛 및 상기 캐리어 보드는 상기 복수의 노드들에 대한 통합 공유된 리소스들을 제공하며, 상기 컴퓨터 시스템은 싱글 인클로저로 제공되는
    컴퓨터 시스템.
  47. 제46항에 있어서,
    상기 멀티 노드 컴퓨터 시스템은 그린머신(GreenMachine)인, 컴퓨터 시스템.
  48. 제46항에 있어서,
    NCU는 나노컴퓨트 유닛인, 컴퓨터 시스템.
  49. 제46항에 있어서,
    상기 캐리어 보드는 그린머신 캐리어인, 컴퓨터 시스템.
KR1020127007997A 2009-08-28 2010-07-07 통합 공유 리소스들을 가진 고밀도 멀티 노드 컴퓨터 KR101739157B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US23808409P 2009-08-28 2009-08-28
US61/238,084 2009-08-28
US12/634,441 US9442540B2 (en) 2009-08-28 2009-12-09 High density multi node computer with integrated shared resources
US12/634,441 2009-12-09
PCT/US2010/041219 WO2011031373A2 (en) 2009-08-28 2010-07-07 High density multi node computer with integrated shared resources

Publications (2)

Publication Number Publication Date
KR20120092579A true KR20120092579A (ko) 2012-08-21
KR101739157B1 KR101739157B1 (ko) 2017-06-08

Family

ID=43626763

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127007997A KR101739157B1 (ko) 2009-08-28 2010-07-07 통합 공유 리소스들을 가진 고밀도 멀티 노드 컴퓨터

Country Status (6)

Country Link
US (2) US9442540B2 (ko)
JP (1) JP2013503385A (ko)
KR (1) KR101739157B1 (ko)
CN (1) CN102576337B (ko)
TW (1) TWI460660B (ko)
WO (1) WO2011031373A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170044011A (ko) * 2015-10-02 2017-04-24 인피니언 테크놀로지스 오스트리아 아게 데이터센터 전력 아키텍처를 위한 전력 관리 기법

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120159090A1 (en) * 2010-12-16 2012-06-21 Microsoft Corporation Scalable multimedia computer system architecture with qos guarantees
TWM415339U (en) * 2011-04-28 2011-11-01 Caswell Inc Integration device for network computation, safety and network storage
WO2011127854A2 (zh) * 2011-05-17 2011-10-20 华为技术有限公司 Kvm数据传输的方法、业务板及系统
US20140229764A1 (en) * 2011-10-28 2014-08-14 Theodore F. Emerson Management of a computer
US11521139B2 (en) * 2012-09-24 2022-12-06 Amazon Technologies, Inc. Providing system resources with secure containment units
TWI478538B (zh) * 2012-11-28 2015-03-21 Inventec Corp 伺服器系統
US20140149715A1 (en) * 2012-11-28 2014-05-29 Los Alamos National Security, Llc Scalable and programmable computer systems
WO2015163865A1 (en) * 2014-04-23 2015-10-29 Hewlett-Packard Development Company, L.P. Backplane interface sets
CN104125292A (zh) * 2014-08-06 2014-10-29 曙光信息产业(北京)有限公司 一种数据处理装置、云服务器及其使用方法
US9886264B2 (en) * 2014-12-09 2018-02-06 Xiaomi Inc. Method and device for upgrading firmware
CN104660997B (zh) * 2015-02-12 2018-09-04 江苏中科羿链通信技术有限公司 面向服务的多源异构视频监控适配方法和系统
US20160246721A1 (en) * 2015-02-19 2016-08-25 Qualcomm Incorporated Role based cache coherence bus traffic control
CN105005547B (zh) * 2015-06-25 2017-08-25 浪潮电子信息产业股份有限公司 一种基于numa的多路服务器完全物理分区方法
CN105630723A (zh) * 2015-12-22 2016-06-01 中国电子科技集团公司第三十二研究所 基于异构处理器平台的管理架构及其管理方法
US10101799B2 (en) * 2016-04-01 2018-10-16 Quanta Computer Inc. System and method for smart power clamping of a redundant power supply
US10390114B2 (en) 2016-07-22 2019-08-20 Intel Corporation Memory sharing for physical accelerator resources in a data center
CN106292909A (zh) * 2016-08-01 2017-01-04 合肥奇也信息科技有限公司 一种集成共享资源的高密度多节点计算机系统
EP3523721A1 (en) * 2016-10-05 2019-08-14 Kaleao Limited Hyperscale architecture
US10341255B2 (en) * 2016-10-28 2019-07-02 Hewlett Packard Enterprise Development Lp Switch resource manager
TWI620075B (zh) * 2016-11-23 2018-04-01 財團法人資訊工業策進會 用於雲端巨量資料運算架構之伺服器及其雲端運算資源最佳化方法
TWI737970B (zh) * 2019-03-18 2021-09-01 神雲科技股份有限公司 伺服器機櫃
CN110096366B (zh) * 2019-05-10 2022-03-04 苏州浪潮智能科技有限公司 一种异构内存系统的配置方法、装置及服务器
US10881030B1 (en) 2019-07-31 2020-12-29 Hewlett Packard Enterprise Development Lp Electrical and liquid cooling midplane
JP7052929B2 (ja) * 2019-10-02 2022-04-12 三菱電機株式会社 情報処理装置及び通信切替方法
US11418931B2 (en) 2020-04-06 2022-08-16 Dell Products, Lp Method and apparatus for operating a thin client across a 5G infrastructure
US11109122B1 (en) 2020-06-30 2021-08-31 Microsoft Technology Licensing, Llc Using free-space optics to interconnect a plurality of computing nodes
US11202378B1 (en) * 2020-07-30 2021-12-14 Baidu Usa Llc Modular infrastructure for compute and storage clusters
RU2748454C1 (ru) * 2020-10-02 2021-05-25 Федеральное государственное унитарное предприятие "Научно-исследовательский институт "Квант" Реконфигурируемая вычислительная система с многоуровневой подсистемой мониторинга и автоматическим управлением
US11832033B2 (en) 2020-11-03 2023-11-28 Microsoft Technology Licensing, Llc Efficiently interconnecting computing nodes to enable use of high-radix network switches
US11539453B2 (en) 2020-11-03 2022-12-27 Microsoft Technology Licensing, Llc Efficiently interconnecting a plurality of computing nodes to form a circuit-switched network
CN112888258B (zh) * 2021-01-25 2022-09-02 福建国青电力科技有限公司 一种便于安装维护的iscu-p系列智能开关控制器
US11438224B1 (en) 2022-01-14 2022-09-06 Bank Of America Corporation Systems and methods for synchronizing configurations across multiple computing clusters

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU1587592A (en) * 1991-03-18 1992-10-21 Echelon Corporation Networked variables
US6266740B1 (en) * 1998-07-31 2001-07-24 Emc Corporation Device sequencing and placement protection using a digital signature
US20030236745A1 (en) * 2000-03-03 2003-12-25 Hartsell Neal D Systems and methods for billing in information management environments
JP4175788B2 (ja) * 2001-07-05 2008-11-05 株式会社日立製作所 ボリューム制御装置
US20030093510A1 (en) * 2001-11-14 2003-05-15 Ling Cen Method and apparatus for enumeration of a multi-node computer system
US6836813B1 (en) 2001-11-30 2004-12-28 Advanced Micro Devices, Inc. Switching I/O node for connection in a multiprocessor computer system
GB2387456B (en) * 2002-04-12 2005-12-21 Sun Microsystems Inc Configuring computer systems
US6826036B2 (en) * 2002-06-28 2004-11-30 Hewlett-Packard Development Company, L.P. Modular power distribution system for use in computer equipment racks
US20040107375A1 (en) * 2002-12-02 2004-06-03 Edward Anglada System and method for switching clock sources
US6801769B1 (en) * 2003-03-12 2004-10-05 The Boeing Company Modular aircraft information network system and an associated method of packaging the same
US7143279B2 (en) * 2003-05-29 2006-11-28 Intel Corporation Dynamic BIOS execution and concurrent update for a blade server
US7051215B2 (en) * 2003-06-13 2006-05-23 Intel Corporation Power management for clustered computing platforms
US20050091215A1 (en) * 2003-09-29 2005-04-28 Chandra Tushar D. Technique for provisioning storage for servers in an on-demand environment
JP4244319B2 (ja) * 2003-12-17 2009-03-25 株式会社日立製作所 計算機システム管理プログラム,記録媒体,ならびに計算機システム管理システムおよびそのための管理装置および記憶装置
JP4451687B2 (ja) * 2004-03-22 2010-04-14 株式会社日立製作所 ストレージシステム
CN2715218Y (zh) * 2004-06-07 2005-08-03 鸿富锦精密工业(深圳)有限公司 扩充卡固定装置
US6978332B1 (en) * 2004-07-02 2005-12-20 Motorola, Inc. VXS multi-service platform system with external switched fabric link
US20060114923A1 (en) * 2004-11-29 2006-06-01 Overgaard Mark D Disaggregated star platform management bus architecture system
US7307837B2 (en) * 2005-08-23 2007-12-11 International Business Machines Corporation Method and apparatus for enforcing of power control in a blade center chassis
US7643307B2 (en) * 2005-09-29 2010-01-05 International Business Machines Corporation Fail safe redundant power supply in a multi-node computer system
JP5111754B2 (ja) * 2005-11-14 2013-01-09 株式会社日立製作所 記憶制御システム
US7272002B2 (en) * 2005-11-16 2007-09-18 Adc Dsl Systems, Inc. Auxiliary cooling methods and systems for electrical device housings
US8014388B2 (en) * 2006-04-11 2011-09-06 Cisco Technology, Inc. Using a dual purpose physical layer interface for a flexible chassis-based server
JP4749255B2 (ja) * 2006-07-03 2011-08-17 株式会社日立製作所 複数種類の記憶デバイスを備えたストレージシステムの制御装置
CN100562833C (zh) * 2006-09-04 2009-11-25 曙光信息产业(北京)有限公司 一种用于刀片服务器的io扩展模块
JP2008077325A (ja) * 2006-09-20 2008-04-03 Hitachi Ltd ストレージ装置及びストレージ装置に対する設定方法
US7481679B1 (en) * 2006-11-01 2009-01-27 Emc Corporation Electrical connector and circuit card assembly
JP5020601B2 (ja) * 2006-11-10 2012-09-05 株式会社日立製作所 アクセス環境構築システム及び方法
US8739148B2 (en) * 2007-02-09 2014-05-27 Elster Electricity, Llc Automated meter reading system
JP5379956B2 (ja) * 2007-03-19 2013-12-25 株式会社日立製作所 ストレージ装置及び記憶領域配置方法
US7538453B1 (en) * 2007-03-23 2009-05-26 Emc Corporation Fan power supply system
US20080278912A1 (en) * 2007-05-09 2008-11-13 Dean Zavadsky Thermal management systems and methods for electronic components in a sealed enclosure
US8670241B2 (en) * 2007-06-13 2014-03-11 Hewlett-Packard Development Company, L.P. Blade device enclosure
US8230145B2 (en) * 2007-07-31 2012-07-24 Hewlett-Packard Development Company, L.P. Memory expansion blade for multiple architectures
JP4995015B2 (ja) * 2007-09-13 2012-08-08 株式会社日立製作所 仮想計算機の実行可否検査方法
CN101431432A (zh) * 2007-11-06 2009-05-13 联想(北京)有限公司 刀片服务器
CN101441506B (zh) * 2007-11-20 2011-05-11 中兴通讯股份有限公司 一种刀片服务器系统及其功耗管理方法
US8051316B2 (en) * 2008-06-09 2011-11-01 Dell Products L.P. System and method for managing power supply units
CN101304543A (zh) * 2008-06-17 2008-11-12 华为技术有限公司 双面插背板
US8245053B2 (en) * 2009-03-10 2012-08-14 Dell Products, Inc. Methods and systems for binding a removable trusted platform module to an information handling system
US20120011319A1 (en) * 2010-07-01 2012-01-12 Infinidat Ltd. Mass storage system and method of operating thereof
US20130346667A1 (en) * 2012-06-21 2013-12-26 Jonathan Stroud Serial port access system and method in a computing system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170044011A (ko) * 2015-10-02 2017-04-24 인피니언 테크놀로지스 오스트리아 아게 데이터센터 전력 아키텍처를 위한 전력 관리 기법

Also Published As

Publication number Publication date
TW201216164A (en) 2012-04-16
KR101739157B1 (ko) 2017-06-08
US9442540B2 (en) 2016-09-13
CN102576337B (zh) 2015-12-16
CN102576337A (zh) 2012-07-11
TWI460660B (zh) 2014-11-11
JP2013503385A (ja) 2013-01-31
US20110055844A1 (en) 2011-03-03
US10467021B2 (en) 2019-11-05
WO2011031373A2 (en) 2011-03-17
WO2011031373A3 (en) 2011-05-05
US20170052801A1 (en) 2017-02-23

Similar Documents

Publication Publication Date Title
KR101739157B1 (ko) 통합 공유 리소스들을 가진 고밀도 멀티 노드 컴퓨터
US20230208731A1 (en) Techniques to control system updates and configuration changes via the cloud
Shuja et al. Survey of techniques and architectures for designing energy-efficient data centers
US20180357108A1 (en) Physical partitioning of computing resources for server virtualization
Kant Data center evolution: A tutorial on state of the art, issues, and challenges
US20200125503A1 (en) Adaptive fabric allocation for local and remote emerging memories based prediction schemes
US10637733B2 (en) Dynamic grouping and repurposing of general purpose links in disaggregated datacenters
US20200097428A1 (en) Dynamic component communication using general purpose links between respectively pooled together of like typed devices in disaggregated datacenters
JP2023533445A (ja) メモリモジュールの温度に基づくクラウドコンピューティングシステムにおけるメモリ割り当ておよびメモリ書き込みリダイレクト
US20200097414A1 (en) Dynamic memory-based communication in disaggregated datacenters
Felter et al. On the performance and use of dense servers
US20200099664A1 (en) Maximizing resource utilization through efficient component communication in disaggregated datacenters
Quintero et al. IBM Power Systems 775 for AIX and Linux HPC solution
US20230078518A1 (en) Systems and methods for collapsing resources used in cloud deployments
Lim Disaggregated memory architectures for blade servers
CN103207762A (zh) 存储虚拟化系统
US10831698B2 (en) Maximizing high link bandwidth utilization through efficient component communication in disaggregated datacenters
Roozbeh Toward Next-generation Data Centers: Principles of Software-Defined “Hardware” Infrastructures and Resource Disaggregation
US20200097328A1 (en) Efficient component communication through accelerator switching in disaggregated datacenters
US20200097427A1 (en) Efficient component communication through protocol switching in disaggregated datacenters
US20240078196A1 (en) Cxl persistent memory module link topology
US11314455B2 (en) Mapping of RAID-CLI requests to vSAN commands by an out-of-band management platform using NLP
US11347435B2 (en) One-touch migration of virtual assets
US20240028406A1 (en) Ihs (information handling system) mesh architecture for circuit optimization
Roozbeh Toward Next-generation Data Centers

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant