KR100464350B1 - 통신 시스템에서 로드 공유 그룹을 이용한 분산된 호 처리및 업그레이드 시스템 및 방법 - Google Patents

통신 시스템에서 로드 공유 그룹을 이용한 분산된 호 처리및 업그레이드 시스템 및 방법 Download PDF

Info

Publication number
KR100464350B1
KR100464350B1 KR20020087497A KR20020087497A KR100464350B1 KR 100464350 B1 KR100464350 B1 KR 100464350B1 KR 20020087497 A KR20020087497 A KR 20020087497A KR 20020087497 A KR20020087497 A KR 20020087497A KR 100464350 B1 KR100464350 B1 KR 100464350B1
Authority
KR
South Korea
Prior art keywords
call
application
server application
call processing
backup
Prior art date
Application number
KR20020087497A
Other languages
English (en)
Other versions
KR20030058927A (ko
Inventor
데이비드앨런콜린스
로이씨고스웨
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US10/038,878 external-priority patent/US6947752B2/en
Priority claimed from US10/038,872 external-priority patent/US7366521B2/en
Priority claimed from US10/039,186 external-priority patent/US6862453B2/en
Priority claimed from US10/038,879 external-priority patent/US6917819B2/en
Priority claimed from US10/100,494 external-priority patent/US20030176163A1/en
Priority claimed from US10/174,338 external-priority patent/US7308491B2/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20030058927A publication Critical patent/KR20030058927A/ko
Application granted granted Critical
Publication of KR100464350B1 publication Critical patent/KR100464350B1/ko

Links

Landscapes

  • Mobile Radio Communication Systems (AREA)
  • Telephonic Communication Services (AREA)

Abstract

본 발명은 N 개의 호 접속 응용 노드(CAN)들을 포함하는 소정의 스위치를 이용하기 위하여, 상기 N 개의 CAN들중 다른 CAN들에서 실행되는 소정의 주 호 처리 및 백업 호 처리를 포함하는 다수의 호 처리 서버 어플리케이션들을 업그레이드하는 방법에 관한 것으로서, 주-백업 호 처리를 포함하는 제1 호 처리 서버 어플리케이션에서 조작할 수 있는 중지 명령을 수신하는 과정과; 상기 중지 명령의 수신에 응답하여, 상기 제1 주 호 처리에 영향을 받지 않도록 상기 제1 호 처리를 억제하는 과정과; 상기 제1 백업 호 처리를 제1 호 처리 서버 어플리케이션의 새로운 주 호 처리로 재설정하는 과정과; 제1 CAN에 위치한 제2 백업 호 처리를 소정의 다른 CAN으로 이동하는 과정과; 및 상기 제1 CAN에서 업그레이드된 제1 호 처리 서버 어플리케이션을 초기화 하는 과정을 포함하는 것을 특징으로 한다.

Description

통신 시스템에서 로드 공유 그룹을 이용한 분산된 호 처리 및 업그레이드 시스템 및 방법{SYSTEM AND METHOD FOR DISTRIBUTED CALL PROCESSING AND ON-LINE UPGRADE USING LOAD SHARING GROUPS IN A TELECOMMUNICATION SYSTEM}
본 발명은 통신 시스템의 교환기에 있어서, 로드 공유 그룹을 이용한 분산된 호 처리 및 업그레이드 시스템 및 방법에 관한 것이다.
현재 전세계적으로 셀룰라 폰 및 다른 무선 장치들을 사용하는 사람들은 3억 이상 된다. 상기와 같은 무선 장치들을 상당 비율은 '데이터 파이프(data pipe)'로서 사용된다(즉, 음성 트래픽이 주된 기능이 아니다). 미국 내에서 셀룰라 서비스는 셀룰라 서비스 제공자들, 지역적 벨 회사들 및 국제적 장거리 통신사들에 의해 제공된다. 강화된 경쟁은 인구의 대부분을 수용할 수 있는 장소에서 셀룰라 서비스의 가격을 낮추고 있다.
셀룰라 폰들의 현 세대는 주로 가입자 장치(또는 무선 장치) 및 상기 무선네트워크와 연결된 또다른 부분 간의 음성 교환을 위해 주로 사용된다. 보다 적은 수의 무선 장치들은 셀룰라/무선 모뎀들을 갖춘 휴대용 개인 정보 단말기(Personal Digital Assistants; PDA)들과 같은 데이터 장치들이다. 현 세대 무선 장치를 위한 대역폭은 전형적으로 수십 kbps(kilobits per second)로 제한되기 때문에, 현 세대 무선 장치를 위한 상기 응용들은 비교적 제한된다. 그러나, 이러한 것은 각 무선 장치들에 활용되는 대 용량의 대역폭(즉, 125 kbps 이상)을 가지는 종종 '3G' 무선 /셀룰라 통신으로 불리는 다음 세대(또는 3세대)의 셀룰라/무선 기술에서는 바뀌어질 것으로 예상된다. 더 높은 데이터 비율이 무선 장치들에 대한 인터넷 응용들을 훨씬 더 일반적으로 되게 할 수 있다. 예를 들면, 3G 셀 폰(또는 3G 모뎀을 갖춘 PC)은 인터넷에서 웹사이트를 검색하고, 그래픽들을 전송 및 수신하며, 스트리밍 오디오 및 비디오 프로그램등과 같은 것들을 실행할 수 있다. 3G 셀룰라 시스템들에서 처리되는 보다 높은 비율의 무선 트래픽은 인터넷 프로토콜(IP)이 될 것이며, 전통적인 음성 트래픽은 적은 비율이 될 것이다.
인터넷 프로토콜(IP) 네트워크에 대한 실시간 스트리밍 멀티미디어 컨텐츠는 최근 증가하는 일반적 응용이 되고 있다. 상기에서 언급했듯이, 3G 무선 네트워크들은 무선 장치들로 스트리밍 데이터(비디오 및 오디오 둘다)실시간으로 제공할 것이다. 주문형 뉴스, 실시간 TV 중계, 비디오 회의, 실시간 라디오 중계(Broadcast.com 과 같은)등과 같은 넓은 범위의 무선 상호간 및 비상호간 멀티미디어 인터넷 어플리케이션들은 무선 장치로 '실시간(real time)' 데이터 스트리밍을 제공할 것이다. 비실시간으로 먼저 가져와져서 나중에 재생시키는 '다운로드된' 비디오 파일과는 달리, 실시간(또는 스트리밍) 데이터 어플리케이션들은 실시간으로 신호(비디오 또는 오디오)를 복호화하여 재생하는 수신기로, 네트워크를 통해 스트리밍 데이터 신호를 부호화하여 전송하기 위한 데이터 소스를 필요로 한다.
통상적인 이동국은 전형적으로 많은 수의 데이터 처리기들 및 관련 메모리들을 포함하는 주 처리기(MPU)에 의해 제어되는 큰 교환 장치를 포함하며, 흔히 주문형 반도체(ASIC)칩으로 구성된다. 이러한 각각의 상기 주 처리기들은 단일 호의 제어 신호들의 흐름을 제어하는 호 처리 클라이언트 어플리케이션을 포함한다. 각 호 처리 클라이언트 어플리케이션은 많은 수의 호에 대한 제어 신호들의 흐름을 제어하는 호 처리 서버 어플리케이션과 교대로 통신한다.
그러므로, 폰 호출 동안 발생하는 특별한 상황에서(예컨대, 콜 셋업, 3방향 호의 요청, 호 단절 등등), 상기 상황에 따른 제어 신호들은 이동국으로부터 교환기(MSC)에 있는 호 처리 클라이언트 어플리케이션으로 전달된다. 이때, 상기 호 처리 클라이언트 어플리케이션은 상기 제어 신호들을 상기 호 처리 서버 어플리케이션으로 전달한다. 상기 호 처리 서버 어플리케이션은 실제적으로 제어 신호들에 의해 요청된 호 처리 서비스를 수행한다.
불행히도 대용량의 시스템들에서는 상기 호 처리 서버 어플리케이션들 주변에 병목 현상이 발생할 수 있다. 각 호 처리 클라이언트 어플리케이션은 상기 호 처리 서버 어플리케이션을 실행하고 있는 서버 하드웨어의 특정 부분과 통신해야 한다. 대용량 시스템에서 폰 호출에서의 시작 및 종료 상황들이 본질적으로 무작위로(random) 발생하기 때문에, 일부 서버들은 한계 용량에 가까워져 병목 현상들이유발되고, 반면에 다른 서버들은 여전히 적절한 양의 대역폭을 가지게 된다. 더욱이, 서버 하드웨어의 특정 부분에서의 시스템 장애는 상기 장애 시스템의 호 처리 서버 어플리케이션에 의해 처리되는 모든 호 처리들의 손실을 초래한다.
예컨대, 일반적인 호 처리 어플리케이션들에서, 할당된 트렁크 선로는 호 상태 데이터와 연결된다. 새로운 호출이 발생하면, 소정의 대기 트렁크 선로는 트렁크 대기 목록 서버를 이용하여 할당되며, 그런다음 상기 호 상태 데이터와 연결된다. 상기 할당된 트렁크 선로는 상기 호출이 종료되면 해제된다. 대기 및 할당된 트렁크 선로들과 상기 관련된 데이터를 관리하는 일반적인 방법은 상기 할당을 유지하고 트렁크 선로들을 해제하며 상기 할당된 데이터의 독출 및 기록을 지원하는 단일 서버를 이용했다. 이러한 방법은 단일 점에서의 장애를 나타낸다. 단일 서버들은 백업 서버들의 사용으로 개선되었으며, 상기 주 서버에서 장애가 발생되면, 백업 서버가 복구한다. 그러나, 이러한 방법은 시스템 성능이 있어서 병목 현상을가져오며, 수용능력이 나빠지게 된다. 점점 더 많은 호 트래픽이 하나의 스위치에 의해 처리될 때, 단일 서버의 수행 능력도 따라서 감소한다.
한편, 새로운 호출이 시작될 때(기술적인 용어로 "originated"라고 함), 상기 호출의 모든 수행시간 동안 상기 호를 고유하게 식별할 필요가 있다. 상기 고유한 식별자를 호 식별자(call identity)로 부르며, 상기 호 식별자는 고유한 수이다. 만약, 소정의 상황들이 상기 호출의 수행기간 동안에 발생한다면(예컨대, 트리거의 응답, 다양한 중지, 행업(hang-up) 등등), 상기 각 상황들은 특정 호를 제어하는 소정의 호 처리 어플리케이션으로 전달된다. 상기 호 식별 값은 상기 상황들을 적절한 호 처리 어플리케이션에 위치시키고 전송시키는데 사용된다. 통상적인 시스템들은 하나의 호 식별 값을 할당하기 위하여 하나의 단일 서버를 사용한다. 이전까지의 서버는 요청될 때에 소정의 수를 할당하며 상기 수를 사용 중인 것으로 표시한다. 상기 호출 절차가 종료될 때, 상기 호 식별값은 해제되며 상기 서버에 의해 비할당된 값으로 표시된다. 그런다음, 상기 값은 다른 호출 상황에 재사용된다. 유용성을 높이기 위하여, 상기 서버는 장애 발생시 복구할 수 있는 백업 데이터를 가진다. 그러나, 이러한 접근 방법은 병목 현상을 겪게 되며, 수용능력이 나빠지게 된다.
또한, 통신 시스템에서의 각 사용자들을 위해 상기 사용자의 고객 프로파일(profile)을 구성하는 데이터 집합이 존재한다. 소정 고객 프로파일은 상기 사용자의 이름 및 주소, 상기 사용자가 사용하도록 인증된 통신 시스템 서비스들, 고객 과금 정보 등과 같은 정보를 포함한다. 소정의 사용자가 이동국(셀 폰과 같은)을 켰을 때, 교환기(Mobile Switching Center; 이하 'MSC')는 상기 사용자가 호출할 것을 예상하고, 상기 고객의 프로파일 정보를 메모리에 저장한다. 많은 양의 고객 프로파일 데이터를 메모리에 로드하는 데는 시간이 소요되므로, 상기 고객 프로파일 데이터는 상기 이동국이 켜지는 순간에 메모리로 로드된다. 고객 프로파일 데이터의 완전한 세트는 가입자 데이터베이스(Subscriber Database; SDB)로 언급된다.
상기 교환기(MSC)는 국제 이동국 고유 번호(International Mobile Station Identification; 이하 'IMSI') 또는 임시 이동국 고유 번호(Temporary MobileStation Identification; 이하 'TMSI')를 상기 이동국에 할당한다. 활동상태와 관련된 데이터에 대해, 상기 교환기(MSC)는 패킷 기반 TMSI(이하 'P-TMSI')를 상기 이동국에 할당한다. 가입자 데이터베이스(SDB)는 상기 교환기에서 상기 이동국에 할당하는 상기 고유 번호(IMSI, TMSI 또는 P-TMSI)와 관련된다.
사용자가 이동국(즉, 셀 폰)으로부터 호출을 할 때, 상기 호출은 등록을 위해 상기 교환기(MSC)로 보내진다. 상기 교환기(MSC)는 가입자 데이터베이스(SDB) 서버로 정보를 전송하거나, 상기 서버로부터 정보를 받을 수 있다. 상기 가입자 데이터베이스(SDB) 서버는 이동국으로부터 상기 교환기로 전송된 등록 메시지를 수신할 수 있다. 상기 가입자 데이터베이스(SDB) 서버는 자신의 할당된 홈 위치 등록기(Home Location Register; HLR)를 통해 이동국을 등록한다. 또한, 상기 가입자 데이터베이스(SDB) 서버는 각 이동국에 대한 서비스 프로파일들을 저장할 수 있다. 또한, 상기 가입자 데이터베이스(SDB) 서버는 호출 신호 입력동안 임시 라우팅 번호(예컨대, IMSI)를 얻기 위하여, 교환기에 접속할 수 있다.
이전 시스템들은 주-백업 형태로 배치되는 단일 가입자 데이터베이스(SDB)서버를 사용한다. 상기 주-백업 형태는 단일 장애가 상기 가입자 데이터베이스(SDB) 서버를 못쓰게 하는 위험을 줄인다. 그러나, 이러한 단순 주-백업 배열은 심각한 문제를 나타낸다. 먼저, 상기 집중된 가입자 데이터베이스(SDB) 서버는 상기 시스템에서 잠재적 병목현상이 일어날 수 있다. 상기 가입자 데이터베이스(SDB) 서버의 용량은 발생되는 수요를 감당할 만큼 충분하지 않을 수 있다. 둘째로, 상기 집중된 가입자 데이터베이스(SDB) 서버에 대한 접속 시간이 실시간 어플리케이션에 대해너무 느리다는 점에서 성능 문제가 제기될 수 있다. 셋째, 상기 집중된 가입자 데이터베이스(SDB) 서버에 메모리 제약이 있을 수 있다. 상기 집중된 가입자 데이터베이스(SDB) 서버가 유지할 수 있는 가입자 수에는 제한이 있게 된다. 상기 가입자 데이터베이스(SDB) 서버는 더 많은 가입자들이 상기 시스템에 추가될 만큼 그리 큰 용량이 아니다. 마지막으로, 집중된 가입자 데이터베이스(SDB) 서버와 관련된 비용은 중요하다.
또한, 현재 서비스를 끊지 않고 통상의 교환기에서 상기 호 처리 서버 어플리케이션들을 업그레이드하는 것을 극히 복잡하다. 일부 종래 시스템에서, 소정의 소프트웨어 업그레이드를 수행하는 것은 상기 교환기에서 완전한 여분의(2중의) 하드웨어를 필요로 한다. 상기 여분의 구성요소들은 활성된 측과 비활성된 측으로 구분된다. 상기 분할(활성과 비활성 측들을 교환함으로써)을 관리하고, 상기 시스템의 두 부분을 단일 시스템으로 병합하는 처리를 관리하는 것은 복잡한 제어 소프트웨어를 필요로한다. 상기 여분의 하드웨어는 종래 교환기에 상당한 비용을 추가하게 되며, 상기 복잡한 제어 소프트웨어는 개발에 막대한 비용이 들며, 복잡한 구조로 인해 장애가 발생하기 쉬우며, 관리하기에 어려움이 많다.
그러므로, 무선 네트워크 장치 및 서비스들의 개선이 요구된다. 특히, 높은 호 밀집 상황 동안에서 높은 신뢰도를 가지며 병목현상을 최소화시킬 수 있는 교환기가 요구된다. 보다 구체적으로, 교환기 및 다른 유사한 교환 장치에 사용되는 개선된 호 처리 구조, 개선된 트렁크 대기 리스트 서버 구조, 개선된 호 식별 서버 구조, 개선된 가입자 데이터베이스(SDB) 서버 구조가 요구된다.
또한, 여분의 하드웨어 사용을 필요로하지 않으며, 복잡하고 고가의 제어 소프트웨어의 요구없이 온라인으로 업그레이드 될 수 있는 교환기가 요구된다.
상기한 바와 같은 종래 기술의 문제점을 해결하기 위한 본 발명의 목적은 통신 시스템에서 로드 공유 그룹을 이용하여 요청된 호를 분산 처리하고, 용이하게 업그레이드할 수 있는 시스템 및 방법을 제공함에 있다.
본 발명의 바람직한 제1 실시예에 따라, 상기 스위치는 1)상기 호 접속들 중 하나와 연결된 각 호 처리 클라이언트 어플리케이션들을 실행할 수 있는 주 처리 장치와, 2) 다수의 호 처리 서버 어플리케이션 중 제1 어플리케이션이 N 개의 호 접속 응용 노드들 중 제1 노드에서 실행되고, 상기 N 개의 호 접속 응용 노드들 중에서 상기 제1 노드와 구분된 제2 노드에서 실행되는 상기 다수의 호 처리 서버 어플리케이션들 중 유사한 제2 어플리케이션과 연관되며, 상기 제1 및 제2 호 처리 서버 어플리케이션들은 제1 로드 공유 그룹 서버 어플리케이션을 구성하여, 상기 호 처리 서버 어플리케이션들을 실행할 수 있는 N 개의 호 접속 응용 노드들을 포함하며, 상기 각 호 처리 클라이언트 어플리케이션이 상기 제1 로드 공유 그룹 서버 어플리케이션으로 호 처리 서비스 요청을 전송하면, 상기 제1 로드 공유 그룹 서버 어플리케이션은 로드 분산 알고리즘에 따라 상기 요청된 호 처리 서비스를 수행하기 위하여 상기 제1 및 제2 호 처리 서버 어플리케이션들 중 하나를 선택한다.
본 발명의 제1 실시예에 따라서, 상기 로드 분산 알고리즘은 상기 제1 및 제2 호 처리 서버 어플리케이션들 사이에서 교대로 새로운 호 처리 서비스 요청들을 분배한다.
본 발명의 제1 실시예에 따라서, 상기 로드 분산 알고리즘은 상기 제1 호 처리 서버 어플리케이션 중 현재 진행중인 로드와 상기 제2 호 처리 서버 어플리케이션 중 현재 진행중인 로드에 따라 새로운 호 처리 서비스 요청들을 분배한다.
본 발명의 제1 실시예에 따라서, 상기 로드 분산 알고리즘은 상기 제2 호 처리 서버 어플리케이션 중 상기 현재 진행중인 로드와 동일한 바로 다음 레벨에서 상기 제1 호 처리 서버 어플리케이션 중 상기 현재 진행중인 로드를 유지하기 위하여 상기 새로운 호 처리 서비스 요청들을 분배한다.
본 발명의 제1 실시예에 따라서, 상기 제1 호 처리 서버 어플리케이션은 제1 주-백업 그룹 서버 어플리케이션을 구성하고, 상기 제1 주-백업 그룹 서버 어플리케이션은 상기 제1 호 접속 응용 노드에서 실행되는 제1 주 호 처리 및 상기 제1 주 호 처리와 연결된 제1 백업 호 처리를 포함한다.
본 발명의 제1 실시예에 따라서, 상기 제1 주 호 처리와 연관된 호 상태 정보는 상기 제1 주 식별자 서버 어플리케이션과 연관된 상기 제1 백업 호 처리에 반영된다.
본 발명의 제1 실시예에 따라서, 상기 제1 백업 호 처리는 상기 제1 호 접속 응용 노드에 위치한다.
본 발명의 제1 실시예에 따라서, 상기 제1 백업 호 처리는 상기 제1 호 접속 응용 노드와 구별된 소정의 호 접속 응용 노드에 위치한다.
본 발명의 제1 실시예에 따라서, 상기 제2 호 처리 서버 어플리케이션은 제2주-백업 그룹 서버 어플리케이션을 구성하고, 상기 제2 주-백업 그룹 서버 어플리케이션은 상기 제2 호 접속 응용 노드에서 실행되는 제2 주 호 처리 어플리케이션 및 상기 제2 주 호 처리와 연결된 제2 백업 호 처리를 포함한다.
본 발명의 제1 실시예에 따라서, 상기 제2 주 호 처리와 연관된 호 상태 정보는 상기 제2 주 호 처리와 연결된 상기 제2 백업 호 처리에 반영된다.
본 발명의 제1 실시예에 따라서, 상기 제2 백업 호 처리는 상기 제2 호 접속 응용 노드에 위치한다.
본 발명의 제1 실시예에 따라서, 상기 제2 백업 호 처리는 상기 제2 호 접속 응용 노드와 구별된 소정의 호 접속 응용 노드에 위치한다.
상기한 바와 같은 종래 기술의 문제점을 해결하기 위한 본 발명의 다른 목적은 스위치와 연결된 다수의 중계 선로들에서 호출하는 장치들과 호출되는 장치들간의 호 연결들을 처리하는 스위치를 제공함에 있다.
본 발명의 바람직한 제2 실시예에 따라, 상기 스위치는 1)상기 호 접속들 중 하나와 연결된 각 호 처리 클라이언트 어플리케이션들을 실행할 수 있는 주 처리 장치와, 2) 다수의 호 처리 서버 어플리케이션 중 제1 어플리케이션이 N 개의 호 접속 응용 노드들 중 제1 노드에서 실행되고, 상기 N 개의 호 접속 응용 노드들 중에서 상기 제1 노드와 구분된 제2 노드에서 실행되는 상기 다수의 호 처리 서버 어플리케이션들 중 유사한 제2 어플리케이션과 연관되며, 상기 제1 및 제2 호 처리 서버 어플리케이션들은 제1 로드 공유 그룹 서버 어플리케이션을 구성하여, 상기 호 처리 서버 어플리케이션들을 실행할 수 있는 N 개의 호 접속 응용 노드들을 포함하며, 상기 각 호 처리 클라이언트 어플리케이션이 상기 제1 로드 공유 그룹 서버 어플리케이션으로 호 처리 서비스 요청을 전송하면, 상기 제1 로드 공유 그룹 서버 어플리케이션은 로드 분산 알고리즘에 따라 상기 요청된 호 처리 서비스를 수행하기 위하여 상기 제1 및 제2 호 처리 서버 어플리케이션들 중 하나를 선택한다.
본 발명의 제2 실시예에 따라서, 상기 로드 분산 알고리즘은 상기 제1 및 제2 호 처리 서버 어플리케이션들 사이에서 교대로 새로운 호 처리 서비스 요청들을 분배한다.
본 발명의 제2 실시예에 따라서, 상기 로드 분산 알고리즘은 상기 제1 호 처리 서버 어플리케이션 중 현재 진행중인 로드와 상기 제2 호 처리 서버 어플리케이션 중 현재 진행중인 로드에 따라 새로운 호 처리 서비스 요청들을 분배한다.
본 발명의 제2 실시예에 따라서, 상기 로드 분산 알고리즘은 상기 제2 호 처리 서버 어플리케이션 중 상기 현재 진행중인 로드와 동일한 바로 다음 레벨에서 상기 제1 호 처리 서버 어플리케이션 중 상기 현재 진행중인 로드를 유지하기 위하여 상기 새로운 호 처리 서비스 요청들을 분배한다.
본 발명의 제2 실시예에 따라서, 상기 제1 호 처리 서버 어플리케이션은 제1 주-백업 그룹 서버 어플리케이션을 구성하고, 상기 제1 주-백업 그룹 서버 어플리케이션은 상기 제1 호 접속 응용 노드에서 실행되는 제1 주 호 처리 및 상기 제1 주 호 처리와 연결된 제1 백업 호 처리를 포함한다.
본 발명의 제2 실시예에 따라서, 상기 제1 주 호 처리와 연관된 호 상태 정보는 상기 제1 주 식별자 서버 어플리케이션과 연관된 상기 제1 백업 호 처리에 반영된다.
본 발명의 제2 실시예에 따라서, 상기 제1 백업 호 처리는 상기 제1 호 접속 응용 노드에 위치한다.
본 발명의 제2 실시예에 따라서, 상기 제1 백업 호 처리는 상기 제1 호 접속 응용 노드와 구별된 소정의 호 접속 응용 노드에 위치한다.
본 발명의 제2 실시예에 따라서, 상기 제2 호 처리 서버 어플리케이션은 제2 주-백업 그룹 서버 어플리케이션을 구성하고, 상기 제2 주-백업 그룹 서버 어플리케이션은 상기 제2 호 접속 응용 노드에서 실행되는 제2 주 호 처리 어플리케이션 및 상기 제2 주 호 처리와 연결된 제2 백업 호 처리를 포함한다.
본 발명의 제2 실시예에 따라서, 상기 제2 주 호 처리와 연관된 호 상태 정보는 상기 제2 주 호 처리와 연결된 상기 제2 백업 호 처리에 반영된다.
본 발명의 제2 실시예에 따라서, 상기 제2 백업 호 처리는 상기 제2 호 접속 응용 노드에 위치한다.
본 발명의 제2 실시예에 따라서, 상기 제2 백업 호 처리는 상기 제2 호 접속 응용 노드와 구별된 소정의 호 접속 응용 노드에 위치한다.
상기한 바와 같은 종래 기술의 문제점을 해결하기 위한 본 발명의 또 다른 목적은 스위치와 연결된 중계선들에서 호출하는 장치들과 호출되는 장치들간의 호 연결들을 처리하는 스위치와 연결되어 호 접속에 대한 호 식별값들을 할당하는 제어기를 제공함에 있다.
본 발명의 바람직한 제3 실시예에 따라, 상기 제어기는 호 연결들에서 호 고유값들을 할당하는 다수의 식별자 서버 어플리케이션들을 실행하는 N개의 호 접속 응용 노드(Call Application Node; CAN)들을 포함한다.
상기 다수의 식별자 서버 어플리케이션들 중에서 제1 어플리케이션은 상기 N개의 호 접속 응용 노드들 중에서 제1 접속 응용 노드를 실행하며, 상기 제1 호 접속 응용 노드와 구분된 상기 N개의 호 접속 응용 노드들 중 제2 접속 응용 노드와 연결된다.
상기 제1 및 제2 고유 서버 어플리케이션들은 로드 공유 그룹 서버 어플리케이션을 형성하며, 상기 로드 공유 그룹 서버 어플리케이션은 스위치에서 실행되는 새로운 호 처리로부터 요청된 하나의 호 식별자를 받아서, 로드 분산 알고리즘에 따라 호 식별자 요청과 관련된 새로운 호 접속에 호 식별값을 할당하기 위하여 제1 및 제2 식별자 서버 어플리케이션들 중에서 하나를 선택한다.
본 발명의 제3 실시예에 따라서, 상기 제1 식별자 서버 어플리케이션은 제1 인접 범위를 가지는 호 식별값을 할당하고, 상기 제2 식별자 서버 어플리케이션은 상기 제1 인접 범위와 다른 제2 인접 범위를 가지는 호 식별값을 할당한다.
본 발명의 제3 실시예에 따라서, 상기 로드 분산 알고리즘은 상기 제1 식별자 서버 어플리케이션 중 현재 진행중인 로드와 상기 제2 식별자 서버 어플리케이션 중 현재 진행중인 로드에 따라 새로운 호 식별자 요청들을 분배한다.
본 발명의 제3 실시예에 따라서, 상기 로드 분산 알고리즘은 상기 제1 및 제2 식별자 서버 어플리케이션들 사이에서 교대로 새로운 호 식별자 요청들을 분배한다.
본 발명의 제3 실시예에 따라서, 상기 로드 분산 알고리즘은 상기 제1 식별자 서버 어플리케이션 중 현재 진행중인 로드와 상기 제2 식별자 서버 어플리케이션 중 현재 진행중인 로드에 따라 새로운 호 식별자 요청들을 분배한다.
본 발명의 제3 실시예에 따라서, 상기 로드 분산 알고리즘은 상기 제2 식별자 서버 어플리케이션 중 상기 현재 진행중인 로드와 동일한 바로 다음 레벨에서 상기 제1 식별자 서버 어플리케이션 중 상기 현재 진행중인 로드를 유지하기 위하여 상기 새로운 호 식별자 요청들을 분배한다.
본 발명의 제3 실시예에 따라서, 상기 제1 식별자 서버 어플리케이션은 제1 주-백업 그룹 서버 어플리케이션을 구성하고, 상기 제1 주-백업 그룹 서버 어플리케이션은 상기 제1 호 접속 응용 노드에서 실행되는 제1 주 식별자 서버 어플리케이션 및 상기 제1 주 식별자 서버 어플리케이션과 연결된 제1 백업 식별자 서버 어플리케이션을 포함한다.
본 발명의 제3 실시예에 따라서, 상기 제1 주 식별자 서버 어플리케이션과 연관된 호 상태 정보는 상기 제1 주 식별자 서버 어플리케이션과 연결된 상기 제1 백업 식별자 서버 어플리케이션에 반영된다.
본 발명의 제3 실시예에 따라서, 상기 제1 백업 식별자 서버 어플리케이션은 상기 제1 호 접속 응용 노드에 위치한다.
본 발명의 제3 실시예에 따라서, 상기 제1 백업 식별자 서버 어플리케이션은 상기 제1 호 접속 응용 노드와 구별된 소정의 호 접속 응용 노드에 위치한다.
본 발명의 제3 실시예에 따라서, 상기 제2 식별자 서버 어플리케이션은 제2주-백업 그룹 서버 어플리케이션을 구성하고, 상기 제2 주-백업 그룹 서버 어플리케이션은 상기 제2 호 접속 응용 노드에서 실행되는 제2 주 식별자 서버 어플리케이션 및 상기 제2 주 식별자 서버 어플리케이션과 연결된 제2 백업 식별자 서버 어플리케이션을 포함한다.
본 발명의 제3 실시예에 따라서, 상기 제2 주 식별자 서버 어플리케이션과 연관된 호 상태 정보는 상기 제2 주 식별자 서버 어플리케이션과 연결된 상기 제2 백업 식별자 서버 어플리케이션에 반영된다.
본 발명의 제3 실시예에 따라서, 상기 제2 백업 식별자 서버 어플리케이션은 상기 제2 호 접속 응용 노드에 위치한다.
본 발명의 제3 실시예에 따라서, 상기 제2 백업 식별자 서버 어플리케이션은 상기 제2 호 접속 응용 노드와 구별된 소정의 호 접속 응용 노드에 위치한다.
상기한 바와 같은 종래 기술의 문제점을 해결하기 위한 본 발명의 또 다른 목적은 통신 시스템에서 가입자 데이터베이스(SDB) 정보를 빠르고 효과적으로 분산 및 접속하기 위한 개선된 장치 및 방법을 제공함에 있다.
본 발명의 상기 목적을 구현하기 위하여, 소정의 스위치와 연결된 다수의 트렁크 선로들에서 호출하는 장치들과 호출받는 장치들 사이에 호 접속들을 처리할 수 있는 스위치를 제공한다.
본 발명의 바람직한 제4 실시예에 따라, 상기 스위치는 1) 상기 호 접속들 중 하나와 연결되는 상기 각 호 처리 어플리케이션들을 실행할 수 있는 주 처리 장치; 및 2) 제1 가입자 데이터베이스 서버 어플리케이션이 N 개의 호 접속 응용 노드들 중 제1 노드에서 실행되고, 상기 N 개의 호 접속 응용 노드들 중에서 상기 제1 노드와 구분된 제2 노드에서 실행되는 상기 다수의 호 처리 서버 어플리케이션들 중 유사한 제2 가입자 데이터베이스 서버 어플리케이션과 연관되며, 상기 제1 및 제2 호 처리 서버 어플리케이션들이 가입자 데이터베이스 로드 공유 그룹 서버 어플리케이션을 구성하여, 소정의 가입자 데이터베이스를 호 접속에 연결하는 상기 다수의 가입자 데이터베이스 서버 어플리케이션들을 실행할 수 있는 N 개의 호 접속 응용 노드들을 포함하며, 상기 각 호 처리 클라이언트 어플리케이션이 상기 가입자 데이터베이스 로그 공유 그룹 서버 어플리케이션으로 소정의 가입자 데이터베이스 서비스 요청을 전송하면, 상기 가입자 데이터베이스 로드 공유 그룹 서버 어플리케이션은 로드 분산 알고리즘에 따라 상기 요청된 가입자 데이터베이스 서비스를 수행하기 위하여 상기 제1 및 제2 가입자 데이터베이스 서버 어플리케이션들 중 하나를 선택한다.
본 발명의 제4 실시예에 따라서, 상기 로드 분산 알고리즘은 상기 제1 및 제2 가입자 데이터베이스 서버 어플리케이션들 사이에서 교대로 새로운 가입자 데이터베이스 서비스 요청들을 분배한다.
본 발명의 제4 실시예에 따라서, 상기 로드 분산 알고리즘은 상기 제1 가입자 데이터베이스 서버 어플리케이션 중 현재 진행중인 로드와 상기 제2 가입자 데이터베이스 서버 어플리케이션 중 현재 진행중인 로드에 따라 새로운 가입자 데이터베이스 서비스 요청들을 분배한다.
본 발명의 제4 실시예에 따라서, 상기 로드 분산 알고리즘은 상기 제2 가입자 데이터베이스 서버 어플리케이션 중 상기 현재 진행중인 로드와 동일한 바로 다음 레벨에서 상기 제1 가입자 데이터베이스 서버 어플리케이션 중 상기 현재 진행중인 로드를 유지하기 위하여 상기 새로운 가입자 데이터베이스 서비스 요청들을 분배한다.
본 발명의 제4 실시예에 따라서, 상기 제1 가입자 데이터베이스 서버 어플리케이션은 제1 주-백업 그룹 서버 어플리케이션을 구성하고, 상기 제1 주-백업 그룹 서버 어플리케이션은 상기 제1 호 접속 응용 노드에서 실행되는 제1 주 가입자 데이터베이스 서버 어플리케이션 및 상기 제1 주 가입자 데이터베이스 서버 어플리케이션과 연결된 제1 백업 가입자 데이터베이스 서버 어플리케이션을 포함한다.
본 발명의 제4 실시예에 따라서, 상기 제1 주 가입자 데이터베이스 서버 어플리케이션과 연관된 호 상태 정보는 상기 제1 주 가입자 데이터베이스과 연관된 상기 제1 백업 가입자 데이터베이스 서버 어플리케이션에 반영된다.
본 발명의 제4 실시예에 따라서, 상기 제1 백업 가입자 데이터베이스 서버 어플리케이션은 상기 제1 호 접속 응용 노드에 위치한다.
본 발명의 제4 실시예에 따라서, 상기 제1 백업 가입자 데이터베이스 서버 어플리케이션은 상기 제1 호 접속 응용 노드와 구별된 소정의 호 접속 응용 노드에 위치한다.
본 발명의 제4 실시예에 따라서, 상기 제2 가입자 데이터베이스 서버 어플리케이션은 제2 주-백업 그룹 서버 어플리케이션을 구성하고, 상기 제2 주-백업 그룹 서버 어플리케이션은 상기 제2 호 접속 응용 노드에서 실행되는 제2 주 가입자 데이터베이스 어플리케이션 및 상기 제2 주 가입자 데이터베이스 서버 어플리케이션과 연결된 제2 백업 가입자 데이터베이스 서버 어플리케이션을 포함한다.
본 발명의 제4 실시예에 따라서, 상기 제2 주 가입자 데이터베이스 서버 어플리케이션과 연관된 호 상태 정보는 상기 제2 주 가입자 데이터베이스 서버 어플리케이션과 연결된 상기 제2 백업 가입자 데이터베이스 서버 어플리케이션에 반영된다.
본 발명의 제4 실시예에 따라서, 상기 제2 백업 가입자 데이터베이스 서버 어플리케이션은 상기 제2 호 접속 응용 노드에 위치한다.
본 발명의 제4 실시예에 따라서, 상기 제2 백업 가입자 데이터베이스 서버 어플리케이션은 상기 제2 호 접속 응용 노드와 구별된 소정의 호 접속 응용 노드에 위치한다.
상기한 바와 같은 종래 기술의 문제점을 해결하기 위한 본 발명의 또 다른 목적은, N 개의 호 접속 응용 노드들(CANs)을 포함하는 스위치에서에서, 상기 N 개의 CAN들 중에서 다른 CAN들에서 실행되는 주 호 처리 및 백업 호 처리를 포함하는 다수의 호 처리 서버 어플리케이션들을 업그레이드 하는 방법을 제공함에 있다.
본 발명의 바람직한 제5 실시예에 따라, 상기 방법은 1) 제1 CAN에서 실행되는 제1 주 호 처리 및 제2 CAN에서 실행되는 제1 백업 호 처리를 포함하는 제1 호 처리 서버 어플리케이션을 업그레이드 할 수 있도록 중지 명령을 수신하는 과정과; 2) 상기 중지 명령의 수신에 응답하여, 제1 호 처리 서버 어플리케이션과 연결된 장래 호 트래픽이 더 이상 제1 CAN에서 상기 제1 주 호 처리에 영향을 받지 않도록상기 제1 호 처리를 억제하는 과정과; 3) 상기 제1 호 처리 서버 어플리케이션에 의해 처리되는 기 존재하는 호들과 관련된 모든 장래 호 트래픽이 상기 전송하는 어플리케이션의 직접적인 인식 또는 관련 없이 상기 제2 CAN에서 상기 재설정된 제1 백업 호 처리에 영향을 받도록 상기 제1 백업 호 처리를 제1 호 처리 서버 어플리케이션의 새로운 주 호 처리로 재설정하는 과정과; 4) 제2 호 처리 서버 어플리케이션과 연결되고 상기 제1 CAN에 위치한 제2 백업 호 처리를 소정의 다른 CAN으로 이동하는 과정과; 및 5) 업그레이드된 제1 호 처리 서버 어플리케이션의 업그레이드된 제1 주 호 처리가 상기 제1 CAN에서 실행되고, 상기 업그레이드된 제1 호 처리 서버 어플리케이션의 업그레이드된 제1 백업 호 처리를 상기 제1 CAN에 생성하기 위하여, 상기 제1 CAN에서 업그레이드된 제1 호 처리 서버 어플리케이션을 초기화 하는 과정을 포함한다.
본 발명의 제5 실시예에 따라서, 상기 방법은 상기 제1 CAN으로부터 억제된 제1 주 호 처리를 제거하는 과정을 더 포함한다.
본 발명의 제5 실시예에 따라서, 상기 방법은 새로운 호들과 관련된 장래 호 트래픽이 상기 재설정된 제1 백업 호 처리에 영향을 받지 않도록 하는 과정을 더 포함한다.
본 발명의 제5 실시예에 따라서, 상기 방법은 모든 기 존재하는 호들이 종료될 때, 상기 재설정된 제1 백업 호 처리를 상기 제2 CAN으로부터 제거하는 과정을 더 포함한다.
본 발명의 제5 실시예에 따라서, 상기 업그레이드된 제1 주 호 처리는 상기업그레이드된 제1 호 처리 서버 어플리케이션들을 포함하는 제1 로드 공유 그룹 서버 어플리케이션과 연결된다.
본 발명의 제5 실시예에 따라서, 상기 제1 로드 공유 그룹 서버 어플리케이션은 새로운 호들과 관련된 새로운 호 트래픽을 조절(throttling) 메카니즘의 제어에 따라 상기 업그레이드된 제1 주 호 처리로 지정한다.
본 발명의 제5 실시예에 따라서, 상기 조절 메카니즘은 처음에 상기 업그레이드된 제1 주 호 처리에 영향을 받아 비교적 적은 양의 새로운 호 트래픽을 야기시킨다.
본 발명의 제5 실시예에 따라서, 상기 조절 메카니즘은 점진적으로 상기 업그레이드된 제1 주 호 처리에 영향을 받아 증가된 양의 새로운 호 트래픽을 야기시킨다.
상기에서 본 발명의 특징과 기술적 장점들을 대략적으로 약술하였으며, 이하 본 발명의 상세한 설명을 통해 상기 기술 분야의 당업자들에게 보다 잘 이해될 것이다. 본 발명에서 추가적인 특징들이나 장점들은 본 발명의 청구항의 목적을 형성하는 하기에 설명될 것이다. 상기 당업자들은 본 발명의 동일한 목적을 수행하기 위하여 다른 구조로 수정하거나, 설계하기 위한 기초로 공개된 개념과 특정 실시예를 쉽게 사용할 수 있다. 또한, 상기 당업자들은 그러한 동일한 구조가 본 발명의 사상과 범위를 확장시킨 형태에서 벗어나지 않는다는 것을 알아야 할 것이다.
도 1은 본 발명에 따른 무선 네트워크를 도시한 도면.
도 2는 본 발명에 따른 교환기를 도시한 도면.
도 3은 본 발명에 따른 교환기에서 그룹 서비스들을 사용하는 분산된 호 처리를 수행하는 부분들을 도시한 도면.
도 4a는 본 발명의 제1실시예에 따른 서버 측 내부의 그룹 처리 계층들을 도시한 도면.
도 4b는 본 발명의 제1실시예에 따른 클라이언트 측 내부의 클라이언트 처리 구조를 도시한 도면.
도 4c는 본 발명의 제1실시예에 따른 로드 공유 클라이언트 측 처리의 내부 구조를 도시한 도면.
도 4d는 본 발명의 제2실시예에 따른 클라이언트 측 내부의 클라이언트 처리 구조를 도시한 도면.
도 4e는 본 발명의 제2실시예에 따른 로드 공유 클라이언트 측 처리의 내부 구조를 도시한 도면.
도 5는 본 발명의 제2실시예에 따른 적어도 하나의 로드 공유 그룹을 포함하는 제어 장치의 동작을 나타내는 흐름도.
도 6은 본 발명의 제4실시예에 따른 로드 공유 그룹을 이용한 가입자 데이터베이스 처리 절차를 나타내는 흐름도.
도 7은 본 발명에 따른 로드 공유 그룹을 이용한 온라인 업그레이드 처리 절차를 나타내는 흐름도.
도 8a 내지 8k는 본 발명에 따른 온라인 업그레이드 절차를 수행 시, 교환기에서의 호 접속 응용 노드들의 변화의 흐름을 나타낸 도면.
이하 첨부된 도1 내지 도 8을 참조하여 본 명세서에서 기재된 본 발명의 목적을 구현하기 위하여 사용된 다양한 실시예들은 단지 실시예로서 표현된 것이며 본 발명의 범위를 제한하고자 함이 아니다. 본 발명의 목적들이 소정의 적절히 배치된 어떠한 통신 네트워크에서도 적용될 수 있음은 당해 기술분야의 사람들에게 이해되어질 것이다.
이하 설명에서, 다양한 분산된 호 처리 기능들을 수행하는 그룹 서비스 구조는 무선 통신 네트워크의 교환기에서 수행된다. 이러한 설명은 단지 실시의 방법으로서 기술된 것이지 본 발명의 적용 범위를 제한하기 위하여 상기와 같이 구성하는 것은 아니다. 당해분야에 기술자들은 후술될 상기 그룹 서비스 구조가 많은 다양한 스위치들 및 라우터 등을 포함하는 다른 형태의 통신 장비들에도 적용될 수 있을 것으로 이해할 것이다.
도 1은 본 발명의 일실시예에 따른 전형적인 무선 네트워크(100)를 나타낸 도면이다.
무선 네트워크(100)는 각각이 기지국(101, 102 또는 103)들 중 하나를 포함하고 있는 다수의 셀 사이트(121 내지 123)들을 포함한다.
상기 기지국들(101 내지 103)은 다수의 이동국(MS; 111 내지 114)과 통신하며, 예컨대 상기 통신은 코드 분할 다중 접속(CDMA) 채널에 의해서 이루어진다. 상기 이동국들(111 내지 114)은 소정의 적절한 무선 장치들이며, 통상적으로 셀룰라 무선전화기, PCS 핸드셋 장치, PDA(Personal digital assistants), 휴대용 컴퓨터, 계량 장치들을 포함한다. 본 발명은 이동 장치들에만 한정되지 않으며, 고정된 무선 단말들을 포함하는 다른 유형의 접속 단말들에도 사용될 수 있다. 그러나, 단순화하기 위하여 이후에는 이동 단말들에 대해서만 설명되어질 것이다.
상기 도 1의 점선부분은 기지국들(101 내지 103)이 위치한 곳에서의 셀(121 내지 123)들의 대략적인 영역을 나타낸다. 상기 셀들은 예시로서 대략적으로 원형으로 보여지며, 이것은 단지 설명을 위해서이다. 상기 셀들은 선택되어지는 상기 셀 환경 및 자연적이고 인위적인 장애물들에 따라서 일정치 않은 다른 모양들을 형성한다.
상기 기술분야에서 잘 알려진 바와 같이, 셀(121 내지 123)들은 다수의 섹터(미도시)들로 구성되며, 각 섹터는 상기 기지국에 결합된 방향성 안테나에 의해 설명될 수 있다. 도 1의 구현은 상기 셀의 중심부에 기지국이 있음을 도시한다. 변형된 구현들은 상기 섹터들의 구석에 상기 방향성 안테나들을 위치시킨다. 본 발명의 시스템은 어떤 하나의 셀 사이트 구성으로 제한하지 않는다.
본 발명의 일실시예에 있어서, 기지국(101 내지 103)들은 하나의 기지국 제어기(BSC)와 하나 이상의 기지국 서브시스템(BTS)들을 포함한다. 기지국 제어기(BSC) 및 기지국 서브시스템(BTS)들은 해당 분야의 당업자에게 잘 알려져 있다. 기지국 제어기는 무선 통신 네트워크에서 특정 셀들에 대한 상기 기지국들을 포함하는 무선 통신 자원들을 관리하는 장치이다. 상기 장치는 에어컨, 히터, 전원공급기, 전화선 접속장치 및 RF 송/수신기들을 포함할 수 있다. 본 발명의 동작을 설명함에 있어 단순하고 분명하게 설명하기 위하여, 각 셀들(121 내지 123)에 속한 상기 기지국 서브시스템(BTS) 및 각 기지국 서브시스템과 연결된 상기 기지국 제어기는 각각 일괄적으로 BS들(101 내지 103)로 표현되었다.
각 BS들(101 내지 103)은 각 BS들 및 공중 전화 교환망(PSTN; 미도시) 간에 음성 및 데이터 신호들을 제1 통신 중계 선로(131), 교환기(MSC; 140) 및 제2 통신 중계 선로(132)를 통해 전송한다. 또한, 제1 통신 중계 선로(131)는 상기 제1 통신 중계 선로를 통해 MSC(140) 및 BS들(101 내지 103) 및 제2 통신 중계 선로를 통해 MSC(140) 및 인터넷 또는 PSTN 간의 음성 및 데이터 회로들을 통해 접속을 설정하는데 사용되는 MSC(140) 및 BS들(101 내지 103)간의 제어 신호들을 전송하는 연결 통로를 제공한다. 본 발명의 일실시예들에 있어서, 제1 통신 중계 선로(131)의 각 데이터 링크는 몇몇의 다른 데이터 링크들일 수 있으며, 상기 각 데이터 링크는 BS들(101, 102 또는 103)중의 하나를 MSC(140)에 연결시킨다.
중계 선로들(131, 132)은 T1, 광 링크, 네트워크 패킷 백본 연결 또는 소정의 다른 데이터 연결 유형을 포함하는 하나 이상의 적절한 연결 수단으로 구성된다. 당해 기술분야의 당업자들은 전송 선로(131 및 132)로의 연결들이 아날로그 음성 대역 신호들의 전송을 위한 전송 통로, PCM(Pulse code modulated) 포맷으로 전송되는 음성 신호들의 전송을 위한 디지털 통로, 인터넷 프로토콜(IP) 포맷으로 전송되는 음성 신호들을 위한 디지털 통로, ATM(Asynchronous Transfer mode) 포맷에서 음성 시그날의 전송을 위한 디지털 통로 또는 다른 적절한 연결 전송 프로토콜에 의한 전송 통로로 이해할 것이다.
도 2는 본 발명의 일실시예에 따른 통상적인 교환기(MSC; 140)를 보다 구체적으로 도시한 도면이다. 상기 교환기(140)는 다른 장치들간의 연결네트워크(Interconnecting Network; 200)를 포함한다. 상기 연결 네트워크(200)는 스위치 구조(205) 및 스위치 제어기(210)로 구성되며, 상기 스위치 구조 및 스위치 제어기(210)는 함께 전송 선로(131 및 132)에서 통신 회로들 사이의 교환 경로들을 제공한다. 상기 교환기(140)는 무선 네트워크(100)의 가입자들과 PSTN 및 인터넷과 같은 외부 네트워크 간의 서비스들 및 호환성을 제공한다. 상기 MSC(140)와 같은 교환기들은 해당 기술분야의 당업자들에게 잘 알려져 있다.
무선 네트워크 가입자들이 자신의 이동 단말기 혹은 고정된 접속 단말기를 켰을 때, 공중 인터페이스를 통한 무선 메시지들은 상기 이동국(또는 고정된 접속 단말)이 상기 네트워크에 접속하고 있음을 상기 기지국에 알린다. 그러나, 접속은 중계 선로들(131 및 132)에서의 음성 또는 데이터 트래픽(traffic) 전송 회로들에서 자동으로 이루어지지는 않는다. 상기 PSTN 또는 인터넷으로의 음성 또는 데이터 트래픽 접속은 상기 가입자가 호 요청을(예컨대, 전화번호를 다이얼링하는 것)하거나 인터넷에 접속하기 전까지는 요구되지 않는다.
그러나, 심지어 폰이 대기상태일 때에도, 상기 가입자를 인증하거나 과금 정보를 모으거나 가입자에게 이용가능한 서비스들을 확인하거나 이동국의 수용력들을 결정하는 등의 기능을 수행하기 위하여, 상기 가입자(즉, 가입자 데이터)에 대한 소정의 정보가 복구되어, 상기 기지국 또는 교환기(140) 또는 둘다에 각각 저장된다. 또한, 상기와 같은 기능을 수행할 필요가 있는 상기 제어 신호들(음성 또는 데이터 트래픽과 대비하여)은 중계 선로(131 및 132)들로 전송된다. 상기 가입자 데이터가 교환기(140)의 메모리에 저장된 후에, 상기 이동국이 여전히 동작중인 동안에도, 상기 데이터는 상기 가입자 또는 다른 장치에 의해 초기화되는 호 처리 클라이언트(CPC) 어플리케이션들의 다양성에 의해 사용이 가능해진다.
예들 들면, 이동국(111)이 먼저 온(on) 되면, 상기 이동국(111)에 대해 교환기(140)에서 호 처리가 시작되며, 가입자 데이터(예컨대, 과금 정보)가 호 처리 또는 특정 유형의 호 서비스들을 제공하는 다른 호 어플리케이션들에 의해 접속될 수 있는 교환기(140)에 저장된다. 만약 상기 가입자가 이동국(111)을 통해 전화 번호를 다이얼링하거나, 이동국(111)에 접속하고자 하는 상기 PSTN으로부터 호출이 수신되면, 상기 이동국(111)에 대한 상기 호 처리가 제1 중계 선로(131)에서 상기 중계 선로들 중 하나로, 제2 중계 선로(132)에서 상기 중계 선로들 중 하나로 호 연결의 설정을 처리한다. 교환기(140)에서 실행된 상기 이동국(111) 호 처리는 상기 호출 및 이동국(111)과 관련된 모든 상태 정보를 포함하며, 이동국(111)에 의해 요구되는 3방향 호출, 음성 메일, 호 단락 등과 같은 절차를 포함하는 모든 다른 어플리케이션들을 처리한다.
많은 양의 호 트래픽을 처리하기 위하여, 많은 호 접속 응용 노드(CAN)들을 통해 교환기(111)에 의해 수행되는 많은 활성 호 처리들과 호 서비스 어플리케이션들을 분산시킬 필요가 있다. 상기 호 서비스들은 소정의 가입자 데이터베이스, 선택되는(혹은 선택되지 않는) 회선, 선로들, 복구 및 유지되는 호 식별 정보 등등을 입력시키기 위한 어플리케이션을 포함해야 한다. 본 발명은 높은 신뢰도 및 잉여 수단으로 호 접속 응용 노드(CAN)들을 횡단하여 다중화하는 호 처리들 및 호 서비스 어플리케이션들을 분산하는 방법 및 장치들을 제공한다. 이것은 호 트래픽이 교환기(140)의 호 처리 용량을 증가시키기 위하여 분산되는 잉여 서버들의 분산된 네트워크에 의해 수행된다. 상기 분산된 서버의 잉여는 서비스를 요청한 상기 호 처리 클라이언트 어플리케이션들과 상기 서비스를 제공하는 호 처리 서버 어플리케이션들 둘다에 명백하다. 또한, 상기 잉여는 상기 클라이언트 및 서버 어플리케이션들의 복잡성을 감소시킨다.
도 3은 본 발명에 따른 그룹 서비스들을 사용하는 분산된 호 처리를 수행하는 전형적인 교환기(140)에서의 보다 상세하게 선택된 부분들을 도시한다. 상기 교환기(140)는 주 처리기(MPU; 310), 제1 시스템 관리 노드(SYSMGR 1), 추가된 제2 시스템 관리 노드(SYSMGR 2), 및 마스터 데이터베이스(320)를 포함한다. 또한, 상기 교환기(140)는 CAN1, CAN2 및 CAN3를 포함하는 다수의 호 접속 응용 노드(Call Application Node; 이하 'CAN'이라 한다.)들, 및 상기 CAN1 내지 CAN3와 연결된 다수의 로컬 저장 장치들(SDs), 즉 SD1, SD2 및 SD3를 포함한다. 마스터 데이터베이스(320)는 데이터베이스들, 소프트웨어 이미지들, 서버 통계들, 로그인 데이터 등의 정보를 저장하기 위하여 주 소프트웨어 저장장소로 이용될 수 있다. SD1 내지 SD3에는 로컬 켑슐(local capsule)들 및 일시적 데이터 등의 정보가 저장될 수 있다.
각각의 제1 및 제2 시스템 관리 노드 및 CAN1 내지 CAN3은 초기 시작 또는 재부팅 후에 적절한 소프트웨어 및 구성 데이터로 각 노드를 초기화하는 구성 관리(Configuration management; CM) 처리를 수행한다. 또한, 각 노드는 소정의 처리가 실패되었는지 여부를 결정하기 위하여 소프트웨어를 로드하고, 프로세스들을추적하는 노드 감시(Node Monitor; NM) 처리를 수행한다. 제1 및 제2 시스템 관리 노드는 제1 임의 프로세스(P1)를 수행하며, 또한 제1 시스템 관리 노드는 제2 임의 프로세스(P2)를 수행한다.
또한, 본 발명에 따라, 제1 내지 제3 호 접속 응용 노드(CAN1 내지 CAN3)들은 주 처리기(310)내의 제1 및 제n 호 처리 클라이언트(CPC) 어플리케이션들(즉, CPC APP1 내지 CPC APPn)에서 분산 그룹 서비스들로 이용되는 주 처리 및 백업 처리로 조직화되는 다수의 호 처리(Call Process; CP) 서버 어플리케이션들을 실행한다. 상기 N 개의 호 접속 응용 노드들(즉, CAN1 내지 CAN3)은 더 많은 호 접속 응용 노드들을 단순히 추가함으로써 규모확장과 잉여능력을 제공하는 소정의 처리기와 메모리를 포함하는 분리된 계산 노드들이다.
상기 주 처리기(310)내의 각 N개의 호 처리 클라이언트(CPC) 어플리케이션들(즉, CPC APP1 내지 CPP APPn)은 이동국과 연관된 제어 신호 및 단일 호와 관련된 메시지를 처리한다. 상기 각 CPC APP1 내지 CPC APPn은 로드 공유 그룹과 세션을 설정하고, 상기 호를 주(primary) 및 백업(backup) 그룹 호 처리 서버 어플리케이션들(CP1, CP2 또는 CP3) 중에서 특정 하나로 할당한다. 선택된 호 처리 서버 어플리케이션은 실제적으로 상기 호 처리 클라이언트 어플리케이션에 의해 요청된 상기 호 처리 서비스들/기능들을 수행한다.
상기 도시된 실시예에서, 세 개의 호 처리 서버 어플리케이션, 즉, CP1, CP2 및 CP3이 실행되고 있다. 상기 프로세스들 각각은 주처리 그룹 및 백업 처리 그룹으로 존재한다. 그러므로, CP1은 주 처리 CP1(P) 및 백업 처리 CP1(B)로 존재한다.마찬가지로, CP2는 주 처리 CP2(P) 및 백업 처리 CP2(B)로, CP3는 주 처리 CP3(P) 및 백업 처리 CP3(B)로 존재한다. 도시된 실시예에서, CP1(P) 및 CP1(B)는 다른 호 접속 응용 노드들(즉, CAN1 및 CAN2)에 위치한다. 이것은 엄격한 요건은 아니다.(즉, CP1(P) 및 CP1(B)가 동일한 호 접속 응용 노드(즉, CAN1)에 위치하여도 상기 주 처리 CP1(P)의 소프트웨어 실패에 대해 동일한 신뢰도 및 잉여를 제공한다.) 그러나, 본 발명의 상술한 실시예에서, 주 처리와 백업 처리는 다른 호 접속 응용 노드들에 위치하여 소프트웨어 잉여 뿐만아니라 하드웨어 잉여도 제공한다. 그러므로, CP1(P) 및 CP1(B)는 CAN1 및 CAN2에, CP2(P) 및 CP2(B)는 CAN2 및 CAN3에, 그리고 CP3(P) 및 CP3(B)는 CAN3 및 CAN1에 위치한다.
상기 CP1, CP2 및 CP3는 함께 로드 공유 목적을 위한 초그룹(supergroup)을 형성한다. 그러므로, CP1(P) 및 CP1(B), CP2(P) 및 CP2(B), 그리고 CP3(P) 및 CP3(B)는 점선으로 경계를 표시한 제1 로드 공유 그룹(LSG1)의 부분이다. 추가적으로, CAN1 내지 CAN3는 세 개의 다른 로드 공유 그룹, 즉 LSG2, LSG3 및 LSG4를 동시에 사용한다. LSG2는 두 개의 중계 대기 목록(trunk idle list; TIL) 서버 어플리케이션, 즉 TIL1 및 TIL2를 포함한다. TIL1은 CAN2에 주 처리 TIL1(P)로 존재하며, CAN3에 백업처리 TIL(B)로 존재한다. TIL2는 CAN3에 주 처리 TIL2(P)로 존재하며, CAN2에 백업 처리 TIL2(B)로 존재한다. 마찬가지로, LSG3는 CAN1에 두 개의 식별자 서버(Identity Server; IS) 어플리케이션, 즉, IS1 및 IS2를 포함한다. IS1은 CAN1에 주 처리 IS1(P)로 존재하며, CAN2에 백업 처리 IS1(B)로 존재한다. IS2는 CAN2에는 주 처리 IS2(P)가 CAN1에는 백업 처리 IS2(B)가 존재한다. 마지막으로,LSG4는 두 개의 가입자 데이터베이스(subscriber database; SDB) 서버 어플리케이션, 즉 SDB1 및 SDB2로 구성된다. SDB1는 CAN2에 주 처리 SDB1(P)가 CAN3에 백업 처리 SDB1(B)가 존재하며, SDB2는 CAN3에 주 처리 SDB2(P)가 CAN2에 백업 처리 SDB2(B)가 존재한다.
그룹 서비스는 연산 네트워크에서 분산 소프트웨어 대상들의 그룹을 조직화하는 프레임워크(framework)를 제공한다. 상기 각 소프트웨어 대상은 하나의 서비스를 제공한다. 추가적으로, 그룹 서비스 프레임워크는 그룹 맴버쉽을 결정하고, 오류가 난 상황에서 어떤 반응을 취하여야될 지를 결정하며, 상기 그룹에 대한 회원 및 클라이언트들 사이의 유니캐스트(Unicast), 다중 전송 및 그룹 전송을 제어함에 있어서 강화된 기능을 제공한다. 소정의 그룹은 상기 그룹에 의해 제공되는 상기 서비스들의 동작들을 강화하기 위한 수단을 이용한다. 이러한 몇가지 수단들은 높은 서비스 활용능력을 위한 주-백업을 포함하며, 소정의 네트워크 내에서 서비스들의 로딩을 분산시키기 위한 로드 공유를 포함한다.
CP1 내지 CP3, IS1 및 IS2, 및 TIL1 및 TIL2와 같은 호 처리 서버 어플리케이션들은 CPC APP1 내지 CPC APPn과 같은 클라이언트 어플리케이션에 의해 요청된 서비스들을 제공하는 연산 네트워크 내에 위치한다. 도 3에 도시된 바와 같이, 상기 호 처리 서버 어플리케이션들은 주-백업 그룹의 1+1 유형으로 배열된 주-백업 그룹들로 조직화된다. 이러한 주-백업 그룹들의 수는 배수로 되며, 정확한 수는 사용되는 처리들 및/또는 연산 노드들의 수에 따라 측정된다. 상기 모든 주-백업 그룹들은 각각이 하나의 단일 로드 공유 그룹(예컨대, LSG1, LSG2, LSG3, LSG4)의 구성원이다.
상기 호 처리 클라이언트 어플리케이션들 CPC APP1 내지 CPC APPn들이 상기 호 처리 서버 어플리케이션 CP1, CP2 및 CP3에 관해서 클라이언트들인 반면, 하나의 서버 어플리케이션은 또 다른 서버 어플리케이션에 관해 하나의 클라이언트일 수 있다. 특히, 상기 호 처리 서버 어플리케이션 CP1 내지 CP3은 상기 중계 대기 목록 서버 어플리케이션들(TIL1 및 TIL2), 상기 가입자 대이터베이스 서버 어플리케이션들(SDB1 및 SDB2) 및 상기 식별자 서버 어플리케이션들(IS1 및 IS2)에 관해 클라이언트들이 된다.
하나의 클라이언트 어플리케이션은 상기 로드 공유 그룹과 하나의 인터페이스를 설정한다. 하나의 새로운 호출 지시가 상기 클라이언트 어플리케이션에 의해 전달될 경우, 상기 클라이언트 어플리케이션은 하나의 클라이언트 측 로드 공유 처리에 따라서 상기 로드 공유 그룹과 하나의 세션을 설정한다. 상기 초기화 처리는 연속적으로 연결(round-robin)된다(즉, 각각의 CAN에 순차적인 순서로 새로운 호들을 분배). 그러나, 다른 처리들은 상기 다른 주-백업 그룹들의 실제적인 로딩을 고려할 수 있다.
상기 클라이언트 어플리케이션은 상기 새로운 호에 상기 세션을 할당하고, 상기 호와 관련된 메시지들을 상기 세션 대상으로 전송한다. 또한, 상기 클라이언트 어플리케이션은 상기 주-백업 그룹과 설정된 상기 세션을 통해 상기 주-백업 그룹으로부터 메시지들을 받는다. 상기 주-백업 처리 그룹 중 상기 주 처리(예컨대, CP1(P))만이 상기 로드 공유 그룹(예컨대, LSG1)에 결합된다. 다양한 원인으로 인해, 상기 주 처리를 포함하는 상기 어플리케이션은 서비스로부터 제거될 수 있다. 상기 서버 어플리케이션은 상기 로드 공유 그룹을 남겨둠으로써 소정의 새로운 호들을 받아들이지 않도록 결정될 수 있다. 그러나, 상기 클라이언트 어플리케이션들은 존재하는 셀들에 대한 상기 주-백업 그룹과 함께 여전히 자신의 세션을 유지한다. 상기 한짝의 주 처리가 실패한다면 새로운 호 트래픽이 유실될 수 있기 때문에 상기와 같은 동작이 이루어진다. 새로운 호들은 상기 로드 공유 그룹을 남겨두면 상기 주-백업 그룹으로 분배되지 않는다.
만약 상기 로드 공유 그룹 중 하나의 구성원이 있는 상기 주-백업 그룹 중 주 처리가 실패한다면, 상기 백업 구성원은 상기 주 처리 구성원이 실패하였다(또는 남아있다)는 사실을 통보 받고, 주 구성원의 역할을 떠맡게 된다. 이러한 역할의 책임은 반드시 상기 서버 어플리케이션에 의해 수행된다. 상기 주 처리 구성원이 실패하거나 남겨진 것을 상기 백업 구성원에게 알리는 것은 그룹 서비스의 책임이다.
온라인 소프트웨어 업그레이드 처리의 부분에 대하여, 주-백업 그룹들을 포함하는 하나 이상의 어플리케이션들이 서비스로부터 제거되고, 지워져서, 소정의 새로운 버전의 소프트웨어 코드를 사용하여 백업을 가져온다. 만약 상기 그룹들의 인터페이스가 변하지 않는다면, 상기 그룹들은 상기 존재하는 로드 공유 그룹과 결합한다. 최초 시작될 때, 상기 클라이언트 인터페이스가 특정 주-백업 그룹들에 대해 상기 호 트래픽을 조절하는 것이 필요하다. 상기 트래픽 조절은 0%(무 호)에서 100% 까지의 변화율로 표현된다. 스케쥴링 알고리즘에 따라 스케줄되는 모든 새로운 호들은 이러한 세션에 의해 조정된다. 상기 조절 인자(Throttling factor)는 상기 로드 공유 그룹과 결합하는 소정의 주-백업 그룹에 대해서는 100%까지 초기화된다. 소프트웨어가 온라인으로 업그레이드되는 동안, 상기 조절 인자는 상기 새로운 소프트웨어 버전에 대해 상기 무 호출 경우로 시작되도록 적용된다. 상기 로드 공유 그룹에 대한 소정의 클라이언트 어플리케이션은 하나의 특정 주-백업 그룹과 하나의 세션을 설정할 수 있다. 그런다음, 상기 클라이언트는 소정의 시간에서 상기 조절 인자를 변화시킨다. 상기 조절 인자가 변할 때, 모든 클라이언트 세션 인터페이스들은 상기 변화된 조절 인자를 다중처리하여 받는다. 상기 조절 인자가 증가할 때, 새로운 소프트웨어 버전을 가지는 상기 호 처리 서버 어플리케이션들은 증가되는 양의 호 트래픽을 받는다.
상기 클라이언트 어플리케이션들로부터 상기 호 처리 서버 주-백업 그룹으로 호 처리 통신하는 것은 매우 높은 양의 호들을 지원해야 한다. 상기 그룹 소프트웨어는 멀티캐스트 프로토콜(단순히 IP 멀티캐스트) 및 추가적으로 유니캐스트(unicast) 프로토콜을 구성하는 내부 전송을 이용한다. 상기 유니캐스트 프로토콜은 TCP/IP, SCTP, 또는 다른 전송 프로토콜이 될 수도 있다. 상기 멀티캐스트 프로토콜은 맴버쉽, 상태 변화 및 오류 검출과 관련된 내부적 구성원의 통신들을 위해 사용된다. 유니캐스트 전송이 없을 경우, 상기 멀티캐스트 프로토콜은 클라이언트/서버 통신 스트림(stream)으로 사용된다. 상기 유니캐스트가 제공된 경우, 클라이언트들과 서버들 사이에 고속 스트림이 제공될 수 있다. 상기 스트림은 항상 주-백업 그룹의 주 처리로 연결되며, 상기 호 처리 클라이언트 어플리케이션및 상기 호 처리(예컨대, CP1, CP2, CP3, TIL1, TIL2, IS1, IS2) 모두에 명백하다.
상기에서 언급한대로, 상기 호 처리 접속 응용 노드들(CANs)에서의 상기 호 처리들은 하나의 로드 공유 그룹으로 조직화된다. 각 호 처리(예컨대, CP1, CP2, CP3, TIL1, TIL2, IS1, IS2)는 자체적으로 하나의 주-백업 그룹이다.
상기 주-백업 그룹의 두 구성요소가 상기 서비스를 제공하지만 단지 상기 그룹의 주 구성요소만이 메시지들을 수신하여 실질적인 상기 서비스를 제공한다. 상기 그룹의 한 구성원이 상기 주 구성원(primary)으로 선택되면, 상기 그룹에 대한 하나 이상의 인터페이스 스트림들을 등록한다. 각 스트림은 소정의 호 처리 서비스에 대해 분리된 인터페이스이다.
교환기(140)에서 상기 호 처리 클라이언트 어플리케이션(예컨대, CPC APP1, CPC APP2)은 새로운 호 지시를 받고, 상기 새로운 호를 처리함에 있어, 하나의 호 접속 응용 노드(즉, 서버 접속 응용 노드)와 하나의 인터페이스를 선택하기 위하여 상기 그룹 서비스를 사용한다. 상기 각 서버(CAN)에서의 호 처리는 하나의 로드 공유 그룹의 한 구성원이며, 소정의 특정 호 접속 응용 노드(CAN)가 상기 호 처리 클라이언트 어플리케이션의 예상으로부터 라운드-로빈(round-robin)알고리즘을 사용하여 선택된다. 선택된 상기 특정 주-백업 그룹에 대해 하나의 세션이 상기 호 처리 클라이언트 어플리케이션으로 되돌려진다. 상기 세션이 상기 주-백업 호 처리 서버 그룹과 설정되면, 상기 호 처리 클라이언트 어플리케이션은 특정 구성 요소를 열고(하나의 주-백업 그룹에 인터페이스를 표시함), 하나의 세션 인터페이스를 획득한다. 각 호 처리 서버는 상기 새로운 호와 관련된 하나의 메시지를 상기 세션인터페이스에 전송한다. 상기 호와 관련된 소정의 계속적인 처리가 상기 동일한 세션 대상에 전송된다.
상기 호 처리 서버(즉, 주-백업 그룹)는 비동기적인 메시지들을 하나 이상의 설정된 스트림 인터페이스들을 사용하여 상기 세션으로 전송할 수도 있다. 상기 호 처리 서버 그룹의 주 구성원은 상기 처리들을 받는다. 상기 백업 그룹 구성원은 처리들을 받지 않는다. 상기 주 구성원은 상기 백업 구성원에게 갱신 정보를 전송한다. 상기 주 그룹 구성원은 갱신 자료들이 상기 백업 그룹 구성원으로 전송될 시기를 결정한다. 상기 주 구성원은 하나의 호출이 응답되었을 때 갱신 데이터들을 보내기 시작한다. 상기 호출이 응답되기에 앞서, 상기 호출은 하나의 일시적인 호로 정의된다. 상기 호출이 응답된 후에야 상기 호출은 하나의 안정된 호로 정의된다.
만약 상기 주 그룹 구성원에 장애가 발생한 다면, 상기 백업 그룹 구성원은 새로운 주 구성원이 된다. 상기 장애 기간(주 구성원이 실패하고, 백업 구성원이 새로운 주 구성원으로 바뀔 때 까지의 기간)동안, 모든 임시적인 호 정보는 손실될 수 있다. 모든 안정적인 호 정보는 상기 백업 구성원에 의해 유지되어야 한다. 그러나, 만약 상기 백업 정보가 갱신 데이터를 받지 못한다면, 소정의 안정적인 호 정보가 손실될 수 있다.
발전적으로, 상기 본 발명은 상기 시스템의 수용 능력에 따른 제한이 없으며, 상기 시스템 크기는 상기 주-백업 그룹 서버 어플리케이션들과 호 처리 클라이언트 어플리케이션들로부터 숨겨진다. 본 발명은 상기 시스템에서 소정의 단일 장애 시점을 제거한다. 상기 시스템 내에 어떠한 장애는 상기 시스템 유용성과 성능에 영향을 주지 않을 것이다.
새로운 호 접속 응용 노드들(CANs)과 추가적인 주-백업 그룹 서버 어플리케이션들(예컨대, CP1, CP2, CP3, TIL1, TIL2, IS1, IS2)은 상기 로드 공유 그룹들에 동적으로 추가될 수 있으며, 새로운 호 트래픽 서비스를 시작할 수 있다. 호 처리 클라이언트 어플리케이션들은 새로운 서버들의 추가에 의해 영향을 받지 않는다. 만약 하나의 서버에 장애가 발생하면, 백업이 상기 로드에 대한 책임을 떠맡는다. 이것은 각 셀의 서비스에 대한 높은 능력을 제공하고 버려진 호들을 최소화시킨다.
<제1 실시예>
도 4a는 본 발명의 제1 실시예에 따른 서버측 내부 그룹 처리 구조를 도시한 도면이다. 도 4b는 본 발명의 제1 실시예에 따른 클라이언트 측 내부의 클라이언트 처리 구조를 도시한 도면이다. 도 4c는 본 발명의 제1 실시예에 따른 로드 공유 클라이언트 측 처리의 내부 구조를 도시한 도면이다.
몇가지 어플리케이션들이 주-백업 그룹을 만들고, 상기 주-백업 그룹과 연결된다. 상기 작업은 도 4a에 도시된 상기 대상들(objects)을 포함하는 상기 서버 측 처리를 만든다. 상기 그룹 처리는 클라이언트들로부터의 요청들을 분배하고, 상기 그룹에서 상기 주 구성원의 분배된 선택에 참가하고, 그룹 맴버쉽을 유지하며, 그룹 구성원의 오류들을 감시한다. 몇가지 어플리케이션들은 하나의 그룹 적용 대상(group adaptor objcet)을 사용하여 상기 로드 공유 그룹의 대리 구성원으로서 로드 공유 그룹을 연결한다. 상기 그룹 적용 대상은 상기 로드 공유 그룹과 연결하기 전에 상기 주-백업 그룹의 이름으로 시작한다.
클라이언트 어플리케이션들은 상기 로드 공유 그룹과 하나의 클라이언트 인터페이스를 설정하고, 하나의 세션을 개설함으로써 시작한다. 상기 하나의 세션을 개설하는 동작은 상기 로드 공유 그룹의 구성원들 중 하나를 선택하기 위하여 하나의 클라이언트 측 로드 공유 처리(policy)를 이용한다. 상기 내부 로드 공유 클라이언트 처리 구조는 도 4c에 도시된다. 상기 세션 대상 자체는 하나의 특정 주-백업 그룹과 연결하는 하나의 클라이언트 측 처리를 인캡슐레이트(encapsulate)한다. 상기 클라이언트 처리의 내부 구조는 도 4b에 도시된다.
호 처리 클라이언트 어플리케이션은 상기 선택된 서버(하나의 주-백업 그룹 내의 상기 주 구성원)와 통신한다. 상기 주 구성원은 상기 호 처리 클라이언트 어플리케이션으로부터 메시지들을 받을 때, 상기 주(primary) 호 처리는 상기 일치하는 백업 호 처리로 상태 갱신 정보들을 전송한다. 만약 상기 주(primary) 호 처리가 실패하면, 상기 백업 호 처리는 자동적으로 새로운 주 구성원으로 선택된다. 상기 새로운 주 구성원에 상기 장애 기간 동안, 상기 호 처리 클라이언트 어플리케이션은 상기 장애의 표시를 받고, 상기 새로운 주 호 처리가 메시지를 받을 준비가 될 때가지 재전송한다. 이러한 동작은 장애 기간 동안에 상기 유실된 메시지 트래픽(traffic)을 최소화한다. 일단 상기 호 처리 클라이언트 어플리케이션이 상기 세션을 끝내면, 상기 호 처리 클라이언트 어플리케이션은 상기 세션을 해제한다.
"PBUNIGroupPolicy 그룹 처리"는 하기의 내부 구성원을 가진다.
1) PBUNIConfiguration - 상기 그룹 처리 이름을 "PBUNI"로 식별하며, 상기처리 동안 상기 통신 스텍(stack)을 위한 QoS 요청을 특정짓는다.
2) PolicyGroupMembership - 상기 그룹에 대해 상기 맴버쉽을 유지하고 추가하는 새로운 구성원들에게 하나의 맴버쉽 프로토콜을 제공하며, 남겨진 구성원들을 제거하고, 장애 발생한 구성원들을 "FAILED"로 표시한다.
3) PBPolicyEventNotification - ⅰ) 하나의 구성원이 상기 그룹과 연결할 때(recovered), ⅱ) 상기 그룹을 남겨둘 때(left), ⅲ) 장애발생 시(failed). 또는 ⅳ) 상태가 변할 때 등과 같은 사건 통지에 대한 반응을 제공한다.
4) PBMemberStateControl - 그룹 구성원들의 연결, 종료 및 장애의 상황에서 주 구성원 선택을 위한 상태 기구을 가진다. 이러한 계층의 각 지역적 요구들은 어떤 구성원이 주 구성원인지를 결정한다. 네트워크 분할까지 동시에 주 구성원이 하나 이상 되는 것이 가능하다.
5) PBSessionControl - 하나의 주-백업 그룹에 대한 호 처리 클라이언트 어플리케이션들과 상기 그룹 구성원들간에 상기 세션 설정을 제어한다.
6) PBPolicyIOControl - 그룹 구성원들을 멀티캐스팅하여 전송하는 상기 주-백업 처리 동작을 제공한다.
7) GroupSendProtocol - 상기 그룹의 다른 구성원들과 상기 그룹의 클라이언트들에게 전송하기 위한 상기 그룹 구성원 프로토콜을 제공한다.
8) UnicastGroupInterface - 하나의 그룹 맴버가 위치하는 각 캡슐(capsule)에 분리된 인터페이스들을 제공하는 하나의 그룹 인터페이스이다.
"PBUNIClientPolicy"는 유니캐스트 링크가 상기 그룹과 통신하는 데 있어 하나의 주-백업 클라이언트 처리이다. 일반적인 전송은 단지 주 구성원에게만 전송되며, 상기 백업 구성원(들)에게 여분으로 전송되지는 않는다. 상기 "PBUNIClientPolicy"는 다음 구성원들을 가진다.
1) ClientMembershipView - 상기 그룹 맴버쉽 중 하나의 지역적 관점을 제공하며, "GroupMembershipView"와는 달리 그룹 맴버쉽에 연결된 프로토콜에 참가하지 않는다.
2) PBUNIClientPolicyIO - 상기 주 구성원과 연결된 유니캐스트를 통해 입출력(I/O)을 조정한다.
3) GroupSendProtocol - 상기 그룹의 다른 구성원들과 클라이언트들에게 전송하는 상기 그룹 구성원 프로토콜을 제공한다.
4) ClientSessionControl - 그룹 구성원들과 함께 상기 클라이언트측에서 세션들을 관리한다.
5) PBUNIClientStateControl - 구성원이 하나의 주-백업 그룹에서 주 구성원이 되는 하나의 지역적 관점을 유지한다.
6) ClientSessionControl - 그룹 구성원들과 상기 클라이언트 측에서 세션들을 관리한다.
7) UnicastGroupInterface - 하나의 그룹 구성원이 위치하는 각 캡슐(capsule)과 분리된 인터페이스들을 제공한다.
"LSIClientPolicy"는 자체적으로 그룹들을 형성하는 그룹 구성원들에 대한 로드 공유 처리이다. 상기 "LSIClientPolicy"는 소정 구성원에 대한 하나의 세션이개설될 때, 구성원들에 대한 클라이언트 측 라운드 로빈(round-robin) 선택을 제공한다. 각 세션은 특정 그룹에 대해 하나의 그룹 인터페이스를 제공한다. 상기 "LSIClientPolicy"는 또한 각 세션에 대해 메시지 조정의 지원을 제공한다. 상기 조정(throttling)은 0%(메시지 없음)부터 100%(라운드-로빈 스케줄을 사용하여 정상적으로 선택된 모든 메시지들이 전송된다.)까지 변할 수 있다. 상기 "LSIClientPolicy"는 상기 기본적 "ClientPolicy"에 속한 것에 우선한다(override). 상기 "LSIClientPolicy"는 다음 구성원들을 포함한다.
1) LSIClientNotification - 상기 ClientPolicy 알림 및 사건들의 지역적 알림을 통보한다.
2) LSIClientSessionControl - 라운드-로빈(round-robin) 알고리즘을 사용하여 하나의 세션을 되돌린다. 상기 제공된 세션은 또다른 그룹과 연결된다. 상기 "LSISessionControl"은 각 개설 세션 요청에 대해 하나의 세션을 선택하는 진행 식별자(running index)를 가진다. 상기 "LSISessionControl"은 "Member Known"으로 불리는 알려진 인터페이스들의 목록을 가진다. 상기 "Member Known"은 Member ID에 의해 표시되는 소정의 지도이며, 실제적인 세션을 포함하는 "SessionCount"대상을 포함한다. 그리고, 하나의 참조값은 상기 세션 사건에 대한 사용자 수를 계산한다. 상기 알려진 세션들은 심지어 상기 그룹을 떠난 구성원들을 통해서 유지된다. 구성원들이 상기 그룹을 떠날 때, 이용가능한 상태로부터 제거되지만 알려진 상태로 남는다. 이러한 절차는 비록 그들이 상기 로드 공유 그룹을 떠나더라도 클라이언트들이 계속해서 상기 그룹 인터페이스를 사용하도록 한다.
3) GroupSendProtocol - 상기 그룹의 다른 구성원들과 클라이언트들에게 전송할 수 있는 상기 그룹 구성원 프로토콜을 제공한다.
4) GroupInterface - 상기 그룹 인터페이스들에 의해 이용되는 상기 멀티캐스트 및/또는 유니캐스트 프로토콜 스택(stack)(들)에 대한 인터페이스 구조이다.
5) ClientPolicyIO - 클라이언트 입/출력(I/O)을 조정하는 책임을 가진다.
6) ClientStateControl - 상기 그룹의 상황 상태를 조절하며, 복구한다.
<제2 실시예>
본 발명의 제2 실시예에 따른 서버측 내부 그룹 처리 구조 및 클라이언트 측 내부의 클라이언트 처리 구조는 각각 상기 제1 실시예에서 도시된 도 4a 및 도 4b와 동일한다. 따라서, 상기 구조들의 설명은 생략하기로 한다.
한편, 도 4d는 본 발명의 제2 실시예에 따른 로드 공유 클라이언트 측 처리의 내부 구조를 도시한 도면이다.
"MappedResourceClientPolicy"는 자체적으로 그룹들을 형성하는 그룹 구성원들에 대한 로드 공유 처리이다. 상기 "MappedResourceClientPolicy"는 소정 구성원에 대한 하나의 세션이 개설될 때, 구성원들에 대한 클라이언트 측 라운드 로빈(round-robin) 선택을 제공한다. 각 세션은 특정 그룹에 대해 하나의 그룹 인터페이스를 제공한다. 상기 "MappedResourceClientPolicy"는 또한 각 세션에 대해 메시지 조정의 지원을 제공한다. 상기 조정(throttling)은 0%(메시지 없음)부터 100%(라운드-로빈 스케줄을 사용하여 정상적으로 선택된 모든 메시지들이 전송된다.)까지 변할 수 있다. 상기 "MappedResourceClientPolicy"는상기 기본적 "ClientPolicy"에 속한 것을 우선한다. 상기 "MappedResourceClientPolicy"는 다음 구성원들을 포함한다.
1) ClientEventNotification - 상기 ClientPolicy 알림 및 사건들의 지역적 알림을 통보한다.
2) ResourceClientSessionControl - 라운드-로빈(round-robin) 알고리즘을 사용하여 하나의 세션을 되돌린다. 상기 제공된 세션은 또다른 그룹과 연결된다. 상기 "ResourceClientSessionControl"은 각 개설 세션 요청에 대해 하나의 세션을 선택하는 진행 식별자(running index)를 가진다. 상기 "ResourceClientSessionControl"은 "Member Known"으로 불리는 알려진 인터페이스들의 목록을 가진다. 상기 "Member Known"은 Member ID에 의해 표시되는 소정의 지도이며, 실제적인 세션을 포함하는 "SessionCount" 대상을 포함한다. 그리고, 하나의 참조값은 상기 세션 사건에 대한 사용자 수를 계산한다. 상기 알려진 세션들은 심지어 상기 그룹을 떠난 구성원들을 통해서 유지된다. 구성원들이 상기 그룹을 떠날 때, 이용가능한 상태로부터 제거되지만 알려진 상태로 남는다. 이러한 절차는 비록 그들이 상기 로드 공유 그룹을 떠나더라도 클라이언트들이 계속해서 상기 그룹 인터페이스를 사용하도록 한다.
3) GroupSendProtocol - 상기 그룹의 다른 구성원들과 클라이언트들에게 전송할 수 있는 상기 그룹 구성원 프로토콜을 제공한다.
4) GroupInterface - 상기 그룹 인터페이스들에 의해 이용되는 상기 멀티캐스트 및/또는 유니캐스트 프로토콜 스택(stack)(들)에 대한 인터페이스 구조이다.
5) ClientPolicyIO - 클라이언트 입/출력(I/O)을 조정하는 책임을 가진다.
6) ClientStateControl - 상기 그룹의 상황 상태를 조절하며, 복구한다.
도 4e는 본 발명의 제2 실시예에 따라서, 트렁크 대기 목록 서버 측 처리의 내부 구조를 나타낸 도면이다. "ResourceGroupPolicy"는 "GroupPolicy"이며, "ResourceSessionControl", "ResourcePolicyIOControl", "ResourceGroupConfiguration", "PolicyGroupMembership", "GroupSendProtocol", "PBMemberStateControl", "GSInterface", 및 "PBPolicyEventNotification" 을 포함한다. 이것은 상기 슈퍼 그룹에 대한 서버 측 구조이다.
상기 트렁크 대기 목록(Trunk Idle List; TIL) 그룹은 각 그룹 자체가 주-백업 그룹(이하 "PBG member")인 슈퍼 그룹이다. 상기 TIL에 연결하는 제1 PBG 구성원은 리더로 선정되고, 어떠한 트렁크 목록 자원들이 관리되어야 하는지를 찾아내고 각 다른 PBG 구성원에 대한 트렁크 대기 목록 임무를 할당하는 일이 부과된다. 그런 다음, 상기 TIL 그룹의 리더 구성원은 상기 TIL 그룹에게 관리되어야 할 트렁크 그룹들의 목록을 알린다. 각 새로운 PBG 구성원이 상기 그룹에 연결할 때, 관리할 트렁크 그룹들의 범위가 할당된다. 각 트렁크 그룹은 트렁크 선로들의 가변 번호를 포함한다. 상기 리더 PBG 구성원은 각 새로운 PBG 구성원에게 각 할당된 트렁크 그룹에 있는 트렁크 선로들의 수를 알려준다.
상기 TIL 그룹에 대한 소정의 클라이언트 어플리케이션은 소정의 호 발생을 가리키는 사건(event)을 받는다. 호 발생은 특정 트렁크 그룹내에 있는 특정 트렁크로 넘어 온다. 상기 클라이언트 TIL 인터페이스는 사용중인 트렁크 그룹내에서 트렁크 선로를 할당하거나 표시한다. 자원을 관리하는 특정 PBG 구성원의 위치는 상기 클라이언트에 명백하다. 상기 연결된 호가 호출되는 부분을 특정할 때, 소정의 트렁크 그룹은 계산되고, 상기 TIL 클라이언트 인터페이스를 통해 신뢰성 있는 PBG 구성원이 상기 트렁크 그룹 내에서 소정의 트렁크를 할당하도록 요청받는다. 상기 호출이 종료될 때, 상기 클라이언트 어플리케이션은 상기 트렁크 그룹 및 상기 호의 모든 측면에 대한 트렁크 선로들을 특정화함으로써 발생 및 종료에 대한 상기 트렁크 선로들을 해제한다.
모든 경우에서, 상기 클라이언트 어플리케이션은 PBG 트렁크 대기 목록 서버 어플리케이션이 특정 트렁크 그룹들을 처리하고 있다는 것을 알지 못한다. 이러한 것은 추가적인 서버들이 소정 시간에 추가되도록 한다. 그러므로, 상기 시스템은 소정 수의 서버들로 확장될 수 있다. 각 구성원이 주-백업 쌍을 구성하고, 상태 데이터의 할당 및 해제가 연속적으로 상기 백업에 갱신되기 때문에, 본 발명에 따른트렁크 대기 목록 로드 공유 그룹은 소정의 하나의 PBG 구성원에 대해 단일 서버 장애에 견딜 수 있다.
도 5는 본 발명의 일실시예에 따른 도 3에서 도시된 로드 공유 그룹(LSG2)을 포함하는 제어 장치(505)의 동작을 나타내는 흐름도이다. 전형적인 제어 장치(505)는 도시된 바와 같이 CAN2 및 CAN3를 포함하는 스위치인 교환기(140)에 연결되는 트렁크 선로들의 처리 상태를 감시하도록 작동하며, 상기 각 CAN은 하나 이상의 트렁크 대기 목록 서버 어플리케이션(예컨대, TIL1 및 TIL2)을 실행하고, 상기 트렁크 선로들 중의 하나를 호 정보들에 할당한다. 상술한 바와 같이, LSG2는 TIL1 및 TIL2를 구성하고, 상기 TIL1은 CAN2에서 주 처리인 TIL1(P)로서 실행하고, CAN3에서는 백업 처리 TIL1(B)를 실행한다. 그리고, TIL2는 CAN3에서 주 처리인 TIL2(P)를 실행하고, CAN2에서는 백업 처리 TIL2(B)을 실행한다.
본 발명의 목적을 위하여, MSC(140)가 상기 MSC(140)과 연결된 다수의 트렁크 선로들(131 및 132)에서 호출하는 그리고, 호출되는 장치 이동국(MS; 111 내지 114) 사이의 호 접속들을 처리하도록 동작하고 있는 것을 가정한다(최초 단계; 상기 전화 트렁크 선로들에서 전화 호출들이 발생하고 종료하고 있다). 상기 전화 트렁크 라인들은 가변적인 트렁크 그룹들로 조직화되며, 각 트렁크 그룹은 가변적인 트렁크 선로들을 가진다. 특정 트렁크 그룹내에서 전화 호출이 발생되면, 상기 트렁크 라인은 사용중인 것으로 적절히 표시된다. 실제적으로 연결되는 상기 전화 호출에 대해, 특정 트렁크 그룹내에 최종 트렁크 라인이 할당되고 그와 같이 표시된다. 수정 상태 정보는 할당된 트렁크 선로들이 다른 발생한 전화 호출들을 종료시키지 않는 것을 보장한다.
상기 도시된 바에 따라, LSG2는 교환기(140)에서 실행하는 호 처리(예컨대, CP1 내지 CP3)로부터 트렁크 선로 할당 요청을 받는다. 예를 들면, 이동국 113은 이동국 112와의 전화 호출을 요청하여, 기지국(102)으로 하여금 교환기(140)에서 모두 실행되는 CP1 내지 CP3 중의 하나를 경유하여 LSG2로부터 소정의 트렁크 선로 할당을 요청하도록 한다. 바람직한 실시예에 따라, 소정의 트렁크 선로를 할당하기 위하여, 호 처리(예컨대, CP1 내지 CP3)는 적절히 할당되는 연결된 트렁크 선로로부터 특정 서브그룹을 구체화하거나, 상기 서브그룹과 특정 트렁크 선로를 얻기 위하여 특정 채널을 구체화한다.
상기 할당 요청에 대한 책임이 있는 LSG2는 트렁크 대기 목록 서버 어플리케이션들(단계 515; 예컨대, TIL1(P) 또는 TIL2(P)) 중 하나를 선택하여, 소정의 트렁크 선로를 상기 트렁크 선로 할당 요청과 연결된 호 접속에 대해 할당하도록 처리한다. 예를 들면, LSG2는 각각 CAN2 및 CAN3에서 실행하는 TIL1(P) 및 TIL2(P) 중 하나를 선택하고, 교환기(113)로부터 받은 상기 트렁크 선로 할당 요청과 관련된 호 접속에 소정의 트렁크 선로를 교대로 할당한다. 이동국 112가 이용 가능하다고 가정하면, 상기 전화 호 접속은 기지국 102를 경유하는 이동국 113 및 기지국 101/103을 경유하는 이동국 112 사이에서 이루어진다. 실시예에 따라서, LSG2(즉, TIL1(P) 또는 TIL2(P) 중 하나를 경유하여)는 상기 트렁크 선로를 할당하고, 상기 채널을 다른 관련된 데이터에 따른 상기 호 처리(예컨대, CP1 내지 CP3)로 반환한다.
상기 전화 호출의 종료에 응답하여, LSG2는 상기 트렁크 대기 목록 서버 어플리케이션들(즉, TIL1(P) 또는 TIL2(P)) 중 하나를 이용하여 상기 트렁크 선로를 해제(단계 525)한다. 바람직한 실시예에 따라서, LSG2(즉, TIL1(P) 또는 TIL2(P) 중 하나를 경유하여)는 상기 채널을 특정함으로써 상기 트렁크 선로를 해제하고, 상기 트렁크 대기 목록을 상기 트렁크 선로가 사용중이 아닌 것으로 표시되도록 수정한다.
상기 트렁크 대기 목록은 메모리에 저장되며, 바람직하게는 트렁크 대기 목록 상태에 따른 백업을 저장하여 장애 상황시에 현 할당 목록은 손실되지 않는다. 만약 상기 할당 목록 일부가 손실되면, 알려진 메모리 관리 기구들은 상기 대기 목록 상태 정보를 복구하기 위하여 적절하게 이용된다. 상기 트렁크 대기 목록은 호 처리에 대한 효율 및 신뢰도를 높이기 위하여 다중 처리들이 횡으로 분산되고, 나아가 상기 트렁크 대기 목록 할당 조직이 작은 시스템 형태 및 큰 시스템 형태에 대해 확장 가능하도록 한다.
바람직하게, 상기 트렁크 대기 목록에 대한 분산된 구성원 서버들은 관리하기에 유연한 범위의 트렁크 그룹들로 할당되며, 구성원 서버들은 상기 구성원 서버들 또는 가용한 자원들(예컨대, 트렁크 그룹, 트렁크 선로 또는 다른 자원들의 추가, 삭제 등등)의 추가, 삭제 또는 다른 종류의 수정(예컨대, 시스템 업그레이드, 분할, 장애 등등)으로서 실시간으로 트렁크 그룹들의 범위를 결정하기 위하여 적절하게 배열된다.
상기해보면, 각 서버 어플리케이션은 자신에게 할당된 트렁크 그룹들과 각 트렁크 그룹내에서 관련된 트렁크 선로들을 유지하도록 동작한다. 상기 서버 어플리케이션이 특정 트렁크 선로 할당 요청을 수신하면, 상기 트렁크 선로는 할당된 것으로 표시된다. 상기 서버 어플리케이션이 소정의 특정 트렁크 그룹(종료되는 호들에 대해)내에서 소정의 트렁크 선로에 대한 요청을 받으면, 상기 서버 어플리케이션은 상기 특정 트렁크 그룹 내에서 선택적으로 대기 트렁크 선로를 할당한다. 또한, 상기 서버 어플리케이션은 특정 트렁크 그룹내에서 특정 트렁크를 해제하도록 요청받는다.
본 발명의 한가지 중요한 측면은 가변의 서버 그룹들이 Mapped Resource Group(MRG)에 참가하도록 허용하는 그룹 처리의 제공이다. 상기 그룹 처리는 주 및 백업 그룹 서버 둘다 상기 MRG에 연결하도록 허용하며, 클라이언트 어플리케이션들이 트렁크 선로들을 효과적으로 할당 및 해제할 수 있도록 특정 트렁크 그룹들을 관리하는 특정 서버들로의 매핑을 제공한다. 상기 그룹 처리는 서버 형태의 명백함을 클라이언트 어플리케이션들에게 제공하여, 상기 장애와 같은 상황에서 서버 어플리케이션들이 추가, 제거, 유지 또는 보상되도록 한다. 형태 변화가 발생할 때, 상기 MRG 처리는 가용한 서버들 중에서 선택된 서버들을 횡단으로 신뢰성있게 자동적으로 트렁크 그룹을 재분배하여, 상기 제어 장치가 단일 장애를 피하고, 트렁크 선로들의 할당에 대해 성능 효율적 체계를 제공하기 위하여, 소정 통신 네트워크에 횡단하여 서버들을 분배한다. 나아가, 서버 및 클라이언트 어플리케이션들 둘다로부터 적절히 감추어짐으로써 시스템에서 용량의 제한이 없어지게 된다. 또한, 단일 장애가 발생하지 않으며, 상기 시스템 내의 장애가 시스템 용량 및 성능에 영향을 주지 않는다.
<제 3실시예>
본 발명의 제3 실시예에 따른 서버측 내부 그룹 처리 구조, 클라이언트 측 내부의 클라이언트 처리 구조 및 로드 공유 클라이언트 측 처리의 내부 구조는 각각 상기 제1 실시예에서 도시된 도 4a 내지 도 4c와 동일한다. 따라서, 상기 구조들의 설명은 생략하기로 한다.
본 발명의 제3 실시예에 따라, 교환기(140)는 상기 교환기(140)와 무선 네트워크(100)에서 동일 서버들의 분산된 셋을 제공하기 위하여 상기 그룹 서비스 접근 방법을 이용한다. 상기에서 언급한 바와 같이, IS1 및 IS2는 CPC APP1 내지 CPC APPn과 같은 다양한 클라이언트 어플리케이션들에 의해 요청된 서비스들을 제공하는 식별자 서버(identity server; IS) 어플리케이션들이다. 상기 IS1 및 IS2 서버 어플리케이션들은 사용된 프로세스들 및/또는 연산 노드들(CANs)의 수에 따라 크기가 결정되는 주-백업 그룹들로 조직화된다. 상기 IS1 및 IS2 서버 어플리케이션들은 LSG3라고 하는 로드 공유 그룹의 구성원들이다. 호 처리 서버 어플리케이션들(CP1 내지 CP3)은 LSG3 및 상기 IS1 및 IS2 서버 어플리케이션들과 관련하여 클라이언트들이다. 각 호 식별자 서버 어플리케이션(예컨대, IS1, IS2)는 주-백업 그룹 서버 어플리케이션의 부분이다.
일반화하여 말하면, 본 발명은 호 식별자들(call identities)의 총 범위 내에서 호 식별자들의 범위를 관리하는 N개의 호 식별자의 집합(제한이 없는)을 사용한다. 전형적으로 호 식별자는 14자리 수이다. 그러므로, 예를들어 10개의 서버에 대해서 각 호 식별자 서버 어플리케이션(예컨대, IS1, IS2)은 총 호 식별자 범위 중 열번째를 관리한다. 새로운 호가 발생하면 상기 LSG3 식별자 서버 로드 공유 그룹에 대한 클라이언트 어플리케이션은 식별자(identity)를 요청한다. 그런다음, 상기 식별자 로드 공유 그룹에 대한 상기 클라이언트 처리(Client Policy)는 하나 이상의 이하 기준에 따라 최소의 로드된 서버 어플리케이션을 선택한다. 1) 이용 가능한 서버들의 전체 목록중 하나에 대해 클라이언트 측 라운드-로빈 선택을 사용한다. 2) 더 낮은 CPU 이용 및/또는 메모리 이용과 같은 최소의 로드된 서버 어플리케이션을 선택한다.
일단 하나의 서버가 선택되면, 상기 서버(예컨대, LS1)는 관리하는 범위내에서 상기 호 식별값(identity number)들 중 하나를 할당한다. 상기 호 식별값은 이후로 상기 호를 식별하는데 사용된다. 상기 호가 종료되면, 상기 호 식별값은 각 서버가 하나의 고정된 범위의 값들을 관리할 때, 상기 호 식별자 자체로부터 적절한 서버를 위치시킴으로써 해제된다. 그런다음, 상기 서버 어플리케이션은 상기값을 비할당으로 표시하여 이용 가능한 수를 만든다.
상기 MPU(210)에서의 클라이언트 어플리케이션이 하나의 호 처리 어플리케이션을 선택할 때, 상기 호 처리 어플리케이션이 실행하는 첫 번째 작업은 소정의 호 식별값을 할당하기 위하여 상기 식별자 서버 그룹에 대해 클라이언트의 역할을 한다는 점에서 상기 호 분산 서버 어플리케이션과 관련된다.
본 발명의 바람직한 실시예에 따라, 이용 가능한 호 식별값의 형태상 범위가 있다. 상기 식별자 서버 로드 공유 그룹(즉, LSG3)이 시작될 때, IS1 또는 IS2는 "Leader"로 선택되고, 상기 이용가능한 서버의 각각에 대해 상기 호 식별값의 서브셋(subset)들을 할당한다. 상기 각 IS1 및 IS2 그룹 서버 어플리케이션들은 호 식별값들의 근접한 범위를 관리한다.
소정의 클라이언트 어플리케이션(예컨대, CP1, CP2, CP3)이 상기 식별자 서버 로드 공유 그룹에 접속할 때, 상기 클라이언트 어플리케이션 클라이언트 처리는 자원 참조 테이블(Resource Reference Table)로 주어진다. 상기 자원 참조 테이블은 상기 특정 서버에 대해 인터페이스로 연결된 호 식별값의 범위에 따라 조직화된 룩업 테이블(look-up table)이다. 상기 테이블 내용들은 서버 형태 변화에 따라 상기 LSG3 식별자 서버 로드 공유 그룹에 의해 자동으로 갱신된다.
하나의 호가 시작될 때, 호 식별자가 상기 클라이언트 인터페이스에 할당된다. LSG3 클라이언트 처리는 상기 IS1 및 IS2 서버들로부터 로딩 인자들을 받는다. 새로운 호 식별자가 할당될 때, LSG3 클라이언트 처리는 상기 서버의 로딩을 고려하여 최근 로드된 상기 서버를 선택한다. 상기 네트워크의 소정 클라이언트 어플리케이션은 지금 각 클라이언트 어플리케이션이 상기 호 식별값을 가지고 있는 한 할당된 데이터로부터 읽거나 상기 데이터로 기록한다. 상기 클라이언트 어플리케이션은 단지 상기 호 식별자를 특정지으며, 상기 IS1 또는 IS2 서버에 대한 인터페이스가 복귀된다. 그런다음, 상기 클라이언트 어플리케이션은 상기 연결된 데이터를 독출 또는 기록하거나 상기 호 식별값을 해제한다.
<제 4실시예>
본 발명의 제4 실시예에 따른 서버측 내부 그룹 처리 구조, 클라이언트 측 내부의 클라이언트 처리 구조 및 로드 공유 클라이언트 측 처리의 내부 구조는 각각 상기 제1 실시예에서 도시된 도 4a 내지 도 4c와 동일한다. 따라서, 상기 구조들의 설명은 생략하기로 한다.
통신 시스템에서의 각 사용자들을 위해 상기 사용자의 고객 프로파일(profile)를 구성하는 데이터 집합이 존재한다. 소정 고객 프로파일은 상기 사용자의 이름 및 주소, 상기 사용자가 사용하도록 인증된 통신 시스템 서비스들, 고객 과금 정보 등과 같은 정보를 포함한다. 소정의 사용자가 이동국(셀 폰과 같은)을 켰을 때, 교환기(Mobile Switching Center; 이하 "MSC"는 상기 사용자가 호출할 것을 예상하고, 상기 고객의 프로파일 정보를 메모리에 저장한다. 많은 양의 고객 프로파일 데이터를 메모리에 로드하는 데는 시간이 소요되므로, 상기 고객 프로파일 데이터는 상기 이동국이 켜지는 순간에 메모리로 로드된다. 고객 프로파일 데이터의 완전한 세트는 가입자 데이터베이스(Subscriber Database; SDB)로 언급된다.
상기 교환기(MSC)는 국제 이동국 고유 번호(International Mobile Station Identification; 이하 "IMSI" 또는 임시 이동국 고유 번호(Temporary Mobile Station Identification; 이하 "TMSI"를 상기 이동국에 할당한다. 활동상태와 관련된 데이터에 대해, 상기 교환기(MSC)는 패킷 기반 TMSI(이하 P-TMSI"를 상기 이동국에 할당한다. 가입자 데이터베이스(SDB)는 상기 교환기에서 상기 이동국에 할당하는 상기 고유 번호(IMSI, TMSI 또는 P-TMSI)와 관련된다.
사용자가 이동국(즉, 셀 폰)으로부터 호출을 할 때, 상기 호출은 등록을 위해 상기 교환기(MSC)로 보내진다. 상기 교환기(MSC)는 가입자 데이터베이스(SDB) 서버로 정보를 전송하거나, 상기 서버로부터 정보를 받을 수 있다. 상기 가입자 데이터베이스(SDB) 서버는 이동국으로부터 상기 교환기로 전송된 등록 메시지를 수신할 수 있다. 상기 가입자 데이터베이스(SDB) 서버는 자신의 할당된 홈 위치 등록기(Home Location Register; HLR)를 통해 이동국을 등록한다. 또한, 상기 가입자 데이터베이스(SDB) 서버는 각 이동국에 대한 서비스 프로파일들을 저장할 수 있다. 또한, 상기 가입자 데이터베이스(SDB) 서버는 호출 신호 입력동안 임시 라우팅 번호(예컨대, IMSI)를 얻기 위하여, 교환기에 접속할 수 있다.
이전 시스템들은 주-백업 형태로 배치되는 단일 가입자 데이터베이스(SDB)서버를 사용한다. 상기 주-백업 형태는 단일 장애가 상기 가입자 데이터베이스(SDB) 서버를 못쓰게 하는 위험을 줄인다. 그러나, 이러한 단순 주-백업 배열은 심각한 문제를 나타낸다. 먼저, 상기 집중된 가입자 데이터베이스(SDB) 서버는 상기 시스템에서 잠재적 병목현상이 일어날 수 있다. 상기 가입자 데이터베이스(SDB) 서버의 용량은 발생되는 수요를 감당할 만큼 충분하지 않을 수 있다. 둘째로, 상기 집중된 가입자 데이터베이스(SDB) 서버에 대한 접속 시간이 실시간 어플리케이션에 대해 너무 느리다는 점에서 성능 문제가 제기될 수 있다. 셋째, 상기 집중된 가입자 데이터베이스(SDB) 서버에 메모리 제약이 있을 수 있다. 상기 집중된 가입자 데이터베이스(SDB) 서버가 유지할 수 있는 가입자 수에는 제한이 있게 된다. 상기 가입자 데이터베이스(SDB) 서버는 더 많은 가입자들이 상기 시스템에 추가될 만큼 그리 큰 용량이 아니다. 마지막으로, 집중된 가입자 데이터베이스(SDB) 서버와 관련된 비용은 중요하다.
본 발명의 제4 실시예는 가입자 데이터베이스(SDB) 정보를 빠르고 효율적으로 분산 및 접속하기 위하여 그룹 서비스 프레임워크를 사용함으로써 종래 시스템과 관련된 이러한 문제점들을 해결한다. 상기 그룹 서비스 프레임워크는 가입자 데이터베이스(SDB) 서버들의 분산된 셋을 제공한다. 특히, 교환기(140)는 로드 공유그룹 LSG4를 구성한다. 로드 공유 그룹 LSG4는 가입자 데이터베이스(SDB) 서버 어플리케이션 SDB1 및 가입자 데이터베이스(SDB) 서버 어플리케이션 SDB2를 포함한다. SDB1은 주 어플리케이션 SDB1(P) 및 백업 어플리케이션 SDB1(B)로 구성된다. 마찬가지로, SDB2는 주 어플리케이션 SDB2(P) 및 백업 어플리케이션 SDB2(B)로 구성된다. 상기 주 어플리케이션 SDB1(P) 및 SDB2(P)는 SDB 슈퍼 그룹을 형성한다. 각 SDB 서버 어플리케이션 SDB1 및 SDB2는 연속적인 범위의 IMSI 번호들이 할당된다.
소정 호 처리 어플리케이션(CPA)이 새로운 IMSI 번호를 가지는 호출을 받을 때, 상기 호 처리 어플리케이션(CPA)은 상기 IMSI 번호를 특정화하는 소정의 세션을 개설한다. 상기 적절한 그룹 서비스 클라이언트 처리(Group Service Client Policy)는 특정 가입자 데이터베이스(SDB) 서버 어플리케이션(예컨대, SDB1)에 연결된 인덱스를 계산하기 위하여 상기 IMSI 번호를 이용한다. 상기 그룹 서비스 클라이언트 처리는 상기 호 처리 어플리케이션(CPA)에게 상기 적절한 가입자 데이터베이스(SDB) 서버 어플리케이션에 대한 인터페이스를 주기 위하여 상기 호 처리 어플리케이션(CPA)에 상기 인덱스를 전송한다. 그런다음, 상기 호 처리 어플리케이션(CPA)은 상기 적절한 가입자 데이터베이스(SDB)로부터 사용자 엔트리를 기록하거나 독출할 수 있다.
비록 상기 제4 실시예가 단지 두 개의 가입자 데이터베이스(SDB) 서버 어플리케이션들, SDB1 및 SDB2를 기술하였을 지라도, 본 발명은 두 개의 가입자 데이터베이스(SDB) 서버 어플리케이션들을 사용하는 것으로 제한되서는 안된다. 상기 가입자 데이터베이스(SDB) 그룹의 부분이 되는 가입자 데이터베이스(SDB) 서버 어플리케이션들의 수에는 제한이나 제약이 없다.
각 주된 가입자 데이터베이스(SDB) 서버 어플리케이션은 하나의 백업 가입자 데이터베이스(SDB) 서버 어플리케이션을 가지고 있다. 상기 가입자 데이터베이스(SDB) 그룹 서비스 프레임워크는 상기 백업 가입자 데이터베이스(SDB) 서버 어플리케이션들에 상태 정보의 갱신들을 제공할 수 있다. 만약 주 가입자 데이터베이스(SDB) 서버 어플리케이션에 장애가 발생하면, 본 발명은 상기 장애를 감지하여, 자동적으로 새로운 주 가입자 데이터베이스(SDB) 서버 어플리케이션(이전에 백업 가입자 데이터베이스(SDB) 서버 어플리케이션이었던)으로 바꾼다. 장애는 호 처리 어플리케이션(CPA)들 또는 다른 클라이언트 어플리케이션들에 명백하다.
그러므로, 본 발명의 상기 제4 실시예는 통신 네트워크에서 분산된 가입자 데이터베이스(SDB)를 작동함에 있어 확장가능한 장치 및 방법을 제공한다. 상기 본 발명에서 가입자 데이터베이스(SDB)는 단일 장애점을 가지지 않는다. 본 발명의 상기 가입자 데이터베이스(SDB)는 또한 발생하는 성능 병목현상을 허락하지 않는다.
도 6은 본 발명의 바람직한 제4 실시예에 따른 상기 단계들의 흐름도이다. 상기 방법의 단계들은 일반적으로 참조 번호 600번으로 기록된다. 각 다수의 가입자 데이터베이스(SDB) 서버 어플리케이션은 연속된 범위의 IMSI 번호가 할당(단계 605)된다. 호 처리 어플리케이션(CPA)은 새로운 IMSI 번호로 호를 받으며, 상기 IMSI 번호를 특정화하는 소정의 세션을 설정(단계 610)한다. 상기 적절한 그룹 서비스 클라이언트 처리는 특정 가입자 데이터베이스(SDB) 서버 어플리케이션에 연결된 소정의 인덱스를 계산하기 위하여 상기 IMSI 번호를 사용(단계 615)한다. 그런 다음, 그룹 서비스 클라이언트 처리는 상기 인덱스를 상기 호 처리 어플리케이션(CPA)에게 상기 적절한 가입자 데이터베이스(SDB) 서버 어플리케이션에 대한 인터페이스를 주기 위하여 상기 호 처리 어플리케이션(CPA)에 상기 인덱스를 전송(단계 620)한다.
그런 다음, 교환기(140)은 상기 주 가입자 데이터베이스(SDB)서버 어플리케이션이 온라인 상태인지를 결정(단계 625)한다. 만약 상기 주 가입자 데이터베이스(SDB) 서버 어플리케이션이 온라인 상태이면, 상기 호 처리 어플리케이션(CPA)은 상기 적절한 가입자 데이터베이스(SDB)로부터 사용자 엔트리를 기록하거나 독출(단계 630)한다.
만약, 상기 주 가입자 데이터베이스(SDB) 서버 어플리케이션이 온라인 상태가 아니라면(즉, 장애가 발생되면), 교환기(140)는 상기 백업 가입자 데이터베이스(SDB) 서버 어플리케이션을 사용(단계 635)한다. 그런 다음, 상기 호 처리 어플리케이션(CPA)은 상기 적절한 가입자 데이터베이스(SDB)로부터 사용자 엔트리를 기록하거나 독출(단계 630)한다.
<제5 실시예>
본 발명의 제5 실시예에 따라서, 제1 내지 제3 호 접속 응용 노드들(즉, CAN1 내지 CAN3)의 잉여 구조와 교환기(140)에서 주-백업 그룹 서버 어플리케이션들의 사용은 교환기에서 진행중인 서비스의 중단 없이 상기 호 처리 서버 어플리케이션들을 업그레이드 하는 유일한 방법을 제공한다. 본 발명의 제5 실시예에 따라서, 각 CAN1 내지 CAN3에서의 각각의 주-백업 그룹 서버는 소정 대상 호 접속 응용 노드의 분할을 가져오기 위하여 부드럽게 중단되어야 한다. 이때, 상기 대상 호 접속 응용 노드는 새로운 주-백업 그룹 서버 어플리케이션 소프트웨어로 업그레이드될 수 있으며, 상기 업그레이드된 소프트웨어는 점진적으로 온라인 상태가 되어, 소정의 조정 메카니즘을 사용하여 로드 공유 그룹들과 결합한다. 일단 상기 업그레이드된 소프트웨어가 시험되고, 완전히 작동 가능하면, 상기 절차는 모든 호 접속 응용 노드들이 업그레이드 될 때까지 계속해서 다음 대상 호 접속 응용 노드들에서 반복된다.
도 7은 본 발명에 따라, 교환기(140)에서 주-백업 그룹 서버 어플리케이션들을 분할 및 온라인 업그레이드하는 것을 도시한 흐름도(700)이다. 먼저, 제1 시스템 관리 노드는 업그레이드될 제1 대상 호 접속 응용 노드(예컨대, CAN1)를 자동으로(또는, 보수 직원의 수동에 의해서) 지정(단계 705)한다. 상기 제1 대상 호 접속 응용 노드에서 주-백업 그룹 호 처리 서버 어플리케이션의 각 주 호 처리 CPx(P)는 사용불가로 되고, 소정의 다른 호 접속 응용 노드(예컨대, CAN2)에서 상기 주 호 처리에 대응되는 백업 호 처리 CPx(B)가 새로운 주 호 처리가 된다. 이러한 점에서, 상기 새로운 주 호 처리는 백업 과정 없이 진행된다. 그러나, 어떠한 새로운 호 트래픽도 상기 새로운 주 호 처리로 전송되지 않는다. 그러므로, 상기 CPx 주-백업 그룹은 결국 존재하는 호들이 단절될 때, 중지(단계 710)된다.
상기 제1 대상 호 어플리케이션이 다른 호 접속 응용 노드들에서 실행되는주 호 처리들과 관련된 하나 이상의 백업 호 처리들을 호스트할 수 있으므로, 본 발명은 다음으로 상기 제1 대상 호 접속 응용 노드에서 모든 백업 호 처리들 CPy(B)를 다른 호 접속 응용 노드들로 옮긴다(단계 715). 상기 제1 대상 호 접속 응용 노드는 이제 모든 주 호 처리들 및 백업 호 처리들에 대해 자유롭다. 상기 제1 대상 호 접속 응용 노드는 이제 새로운 분할이며, 상기 남아있는 호 어플리케이션은 예전 분할의 일부이다.
다음으로, 상기 주 호 처리 CPx(P)*에 대한 상기 업그레이드된 소프트웨어는 인스톨되고 상기 백업 호 처리 CPx(B)*는 상기 제1 대상 호 접속 응용 노드에서 생성된다. 그런다음, 이러한 새로운 주-백업 그룹 호 처리 서버 어플리케이션은 상기 적절한 로드 공유 그룹(즉, LSG1)과 연결된다. 이러한 점에서, 상기 새로운 주 서버 어플리케이션은 트래픽 없이 수신하게 된다. 이후에, 증가된 양의 새로운 호 트래픽은 업그레이드된 주-백업 그룹 CPx*이 100%로 작동될 때 까지, 기술자에 의해 제어(또는 상기 시스템 관리자에 의해 알고리즘화하여 제어)되는 조절 메카니즘을 사용하여 업그레이드된 주 호 처리 CPx(P)*로 전송(단계 720)된다.
그런 다음, 단계 705, 710, 715 및 720들이 제2 대상 호 접속 응용 노드(예컨대, CAN2)에서 반복되어, 소정의 업그레이드된 주 호 처리 CPz(P)* 및 업그레이드된 백업 호 처리 CPz(B)*가 초기화(생성)되어 상기 제2 대상 호 접속 응용 노드에서 작동(단계 725)된다. 상기 제2 대상 호 접속 응용 노드는 이제 상기 제1 대상 호 접속 응용 노드에 따라서 상기 새로운 분할의 일부이다.
마지막으로, 상기 소프트웨어 관리 어플리케이션은 상기 주 및 백업 호 처리들이 동일한 호 접속 응용 노드들에서 진행되지 않도록 상기 백업 호 처리들 CPx(B)* 및 CPz(B)*의 위치를 교환(단계 730)한다. 그런 다음, 상기 업그레이드 과정은 모든 남아있는 호 접속 응용 노드들이 새로운 분할과 연결되고 이전 분할(상기 이전 소프트웨어를 포함하여)이 존재하지 않을 때 까지, 다른 호 접속 응용 노드들로 계속된다.
도 8a 내지 8k는 상기 도 7에서 도시된 상기 호 접속 응용 노드들이 분할 및 온라인 업그레이드 절차를 수행할 때, 전형적인 교환기에서의 상기 호 접속 응용 노드들의 변화의 흐름을 나타낸 도면이다.
도 8a는 교환기(140)에서 CAN1 내지 CAN3의 초기 모습이다.
도 8b를 참조하면, CAN1에 있는 주 호 처리 CP1(P)는 종료되고, CAN2에서 상기 관련된 백업 호 처리 CP1(B)가 새로운 주 호 처리 CP1(P)가 된다. 이제, 새로운 트래픽이 CAN2에 있는 CP1(P)로 진행된다. 또한, 상기 백업 호 처리 CP3(B)는 CAN2로 이동된다.
도 8c를 참조하면, 새로 업데이트된 주 호 처리 CP1(P)*는 CAN1에서 초기화되며, 새로 업데이트된 백업 호 처리 CP1(B)*는 CAN1에서 생성된다. 이제, 새로 업데이트된 주-백업 그룹 호 처리 서버 어플리케이션 CP1* 이 완전히 기능을 할 때까지, 새로운 호 트래픽이 주 호 처리 CP1(P)*으로 증가적으로 진행될 수 있다.
도 8d를 참조하면, CAN2에서 상기 이전 호 처리 CP1(P)는 모든 존재하는 호들을 종료하여 완전히 중지된다.
도 8e를 참조하면, CAN2에서 주 호 처리 CP2(P)는 중지되고, CAN3에서 상기관련된 백업 호 처리 CP2(B)는 새로운 주 호 처리 CP2(P)가 된다. 이제, 새로운 트래픽은 CAN3에 있는 CP2(P)로 진행된다. 또한, 상기 백업 호 처리 CP3(B)는 CAN3로 이동된다.
도 8f를 참조하면, 새로 업데이트된 주 호 처리 CP2(P)*는 CAN2에서 초기화되며, 새로 업데이트된 백업 호 처리 CP2(B)*는 CAN2에서 생성된다. 이제, 새로 업데이트된 주-백업 그룹 호 처리 서버 어플리케이션 CP2* 가 완전히 기능을 할 때까지, 새로운 호 트래픽이 주 호 처리 CP2(P)* 로 증가적으로 진행될 수 있다.
도 8g를 참조하면, CAN3에서 상기 이전 호 처리 CP2(P)는 모든 존재하는 호들을 종료하여 완전히 중지된다.
도 8h를 참조하면, 상기 백업 호 처리들 CP1(B)* 및 CP2(B)*는 CAN1 및 CAN2에서의 위치들을 서로 바꾼다.
도 8i를 참조하면, CAN3에서 주 호 처리 CP3(P)는 상기 로드 공유 그룹을 남겨둠으로써 새로운 호들에 대해 단절된다. 상기 주 호 처리 CP3(P) 및 관련된 백업 처리 CP3(P)는 모든 존재하는 호 트래픽이 끝난 후 종료된다.
도 8j를 참조하면, 새로 업데이트된 주 호 처리 CP3*는 CAN3에서 초기화되며, 새로 업데이트된 백업 호 처리 CP3(B)*는 CAN3에서 생성된다. 이제, 새로 업데이트된 주-백업 그룹 호 처리 서버 어플리케이션 CP3* 가 완전히 기능을 할 때까지, 새로운 호 트래픽이 주 호 처리 CP3(P)* 로 증가적으로 진행될 수 있다.
도 8k를 참조하면, 상기 백업 호 처리들 CP1(B)*, CP2(B)*, 및 CP3(B)*의 위치들은 도 8a에 도시된 원래의 형태를 취하기 위하여 CAN1, CAN2, 및 CAN3로 회전된다.
비록 본 발명에서 구체적으로 설명하였지만, 해당 분야의 숙련된 당업자들에 의해 본 발명의 사상과 범위로부터 벗어나지 않고 가장 넓은 형태로 다양한 변화, 대체 및 개조가 가능하다.
상술한 바와 같은 본 발명은, 무선 네트워크 장치 및 서비스들을 개선하여, 높은 호 밀집 상황 동안에서 높은 신뢰도를 가지며 병목현상을 최소화시킬 수 있는 교환기를 제공한다. 즉, 교환기 및 다른 유사한 교환 장치에 사용되는 분산된 호 처리 구조, 분산된 트렁크 대기 리스트 서버, 분산된 호 식별 서버, 분산된 가입자 데이터베이스(SDB) 서버를 구현하여, 보다 빠르고 효율적으로 접속할 수 있다는 장점이 있다.
또한, 본 발명에 따른 분산 처리되는 교환기는 여분의 하드웨어 사용을 필요로하지 않으며, 복잡하고 고가의 제어 소프트웨어의 요구없이 온라인으로 업그레이드 할 수 있는 장점이 있다..

Claims (51)

  1. 소정의 영역내에서 다수의 이동국들과 통신할 수 있는 다수의 기지국들과, 호 접속 프로세스를 처리하는 호 접속 응용 노드를 포함하는 이동통신 시스템에 있어서,
    상기 호 접속 응용 노드는 상기 호 접속들 중 하나와 연결된 각 호 처리 클라이언트 어플리케이션들을 실행할 수 있는 주 처리 장치와, 다수의 서버 어플리케이션으로 구성되고, 상기 다수의 서버 어플리케이션 중 제1 어플리케이션이 N개의 호 접속 응용 노드들 중 제1 노드에서 실행되고, 상기 N개의 호 접속 응용 노드들 중에서 상기 제1 노드와 구분된 제2 노드에서 실행되는 상기 다수의 서버 어플리케이션들 중 유사한 제2 어플리케이션과 연관되며, 상기 제1 및 제2 서버 어플리케이션들이 로드 공유 그룹 서버 어플리케이션을 구성하여 상기 서버 어플리케이션들을 실행할 수 있는 N개의 호 접속 응용 노드들을 포함하며,
    상기 각 호 처리 클라이언트 어플리케이션이 상기 로드 공유 그룹 서버 어플리케이션으로 소정의 서비스 요청을 전송하면, 상기 로드 공유 그룹 서버 어플리케이션은 로드 분산 알고리즘에 따라 상기 요청된 서비스를 수행하기 위하여 상기 제1 및 제2 서버 어플리케이션들 중 하나를 선택하는 것을 특징으로 하는 상기 시스템.
  2. 제1항에 있어서,
    상기 로드 공유 그룹 서버 어플리케이션을 형성하는 서버 어플리케이션은 상기 호 처리 클라이언트의 호 처리 요청에 따라 호 처리 서비스를 수행하는 호 처리 서버 어플리케이션인 것을 특징으로 하는 상기 시스템.
  3. 제1항에 있어서,
    상기 로드 공유 그룹 서버 어플리케이션을 형성하는 서버 어플리케이션은 트렁크 선로 할당 요청과 연결된 새로운 호 접속에 소정의 트렁크 선로를 할당하는 트렁크 대기 목록 서버 어플리케이션인 것을 특징으로 하는 상기 시스템.
  4. 제1항에 있어서,
    상기 로드 공유 그룹 서버 어플리케이션을 형성하는 서버 어플리케이션은 호 식별자 요청과 연결된 새로운 호 접속에 소정의 호 식별값을 할당하는 식별자 서버 어플리케이션인 것을 특징으로 하는 상기 시스템.
  5. 제1항에 있어서,
    상기 로드 공유 그룹 서버 어플리케이션을 형성하는 서버 어플리케이션은 상기 호 처리 클라이언트의 요청에 따라 가입자 데이터베이스 서비스를 수행하는 가입자 데이터베이스 서버 어플리케이션인 것을 특징으로 하는 상기 시스템.
  6. 제1항에 있어서,
    상기 로드 분산 알고리즘은 상기 제1 및 제2 서버 어플리케이션들 사이에서 교대로 새로운 호 처리 서비스 요청들을 분배하는 것을 특징으로 하는 상기 시스템.
  7. 제1항에 있어서,
    상기 로드 분산 알고리즘은 상기 제1 서버 어플리케이션 중 현재 진행중인 로드와 상기 제2 서버 어플리케이션 중 현재 진행중인 로드에 따라 새로운 서비스 요청들을 분배하는 것을 특징으로 하는 상기 시스템.
  8. 제7항에 있어서,
    상기 로드 공유 알고리즘은 상기 제1 서버 어플리케이션의 상기 현재 로드를 상기 제2 서버 어플리케이션 중 현재 로드와 실질적으로 동일한 레벨로 유지하기 위하여 상기 새로운 서비스 요청들을 분배하는 것을 특징으로 하는 상기 시스템.
  9. 제1항에 있어서,
    상기 제1 서버 어플리케이션은 제1 주-백업 그룹 서버 어플리케이션을 구성하고, 상기 제1 주-백업 그룹 서버 어플리케이션은 상기 제1 호 접속 응용 노드에서 실행되는 제1 주 처리 및 상기 제1 주 처리와 연결된 제1 백업 처리를 포함하는 것을 특징으로 하는 상기 시스템.
  10. 제9항에 있어서,
    상기 제1 주 처리와 연관된 호 상태 정보는 상기 제1 주 처리와 연관된 상기 제1 백업 처리에 반영되는 것을 특징으로 하는 상기 시스템.
  11. 제10항에 있어서,
    상기 제1 백업 처리는 상기 제1 호 접속 응용 노드에 위치하는 것을 특징으로 하는 상기 시스템.
  12. 제10항에 있어서,
    상기 제1 백업 처리는 상기 제1 호 접속 응용 노드와 구별된 소정의 호 접속 응용 노드에 위치하는 것을 특징으로 하는 상기 시스템.
  13. 제1항에 있어서,
    상기 제2 서버 어플리케이션은 제2 주-백업 그룹 서버 어플리케이션을 구성하고, 상기 제2 주-백업 그룹 서버 어플리케이션은 상기 제2 호 접속 응용 노드에서 실행되는 제2 주 처리 및 상기 제2 주 서버 어플리케이션과 연결된 제2 백업 처리를 포함하는 것을 특징으로 하는 상기 시스템.
  14. 제13항에 있어서,
    상기 제2 주 처리와 연관된 호 상태 정보는 상기 제2 주 처리와 연결된 상기 제2 백업 처리에 반영되는 것을 특징으로 하는 상기 시스템.
  15. 제14항에 있어서,
    상기 제2 백업 처리는 상기 제2 호 접속 응용 노드에 위치하는 것을 특징으로 하는 상기 시스템.
  16. 제14항에 있어서,
    상기 제2 백업 처리는 상기 제2 호 접속 응용 노드와 구별된 소정의 호 접속 응용 노드에 위치하는 것을 특징으로 하는 상기 시스템.
  17. 제3항에 있어서,
    상기 트렁크 대기 목록 서버 어플리케이션 중 제1 트렁크 대기 목록 서버 어플리케이션은 상기 제1 트렁크 대기 목록 서버 어플리케이션과 연결된 적어도 하나의 트렁크 그룹으로부터 트렁트 선로들을 할당하고, 상기 제2 트렁크 대기 목록 서버 어플리케이션은 상기 제2 트렁크 대기 목록 서버 어플리케이션과 연결된 적어도 하나의 트렁크 그룹으로부터 트렁크 선로들을 할당하는 것을 특징으로 하는 상기 시스템.
  18. 제17항에 있어서,
    상기 로드 분산 알고리즘은 새로운 트렁크 선로 할당 요청들을 상기 트렁크 선로 할당 요청들과 연결된 소정의 트렁크 그룹에 따라서 상기 제1 및 제2 트렁크 대기 목록 서버 어플리케이션에 분배하는 것을 특징으로 하는 상기 시스템.
  19. 제4항에 있어서,
    상기 식별자 서버 어플리케이션 중 제1 식별자 서버 어플리케이션은 제1 인접 범위를 가지는 호 식별값을 할당하고, 상기 제2 식별자 서버 어플리케이션은 상기 제1 인접 범위와 다른 제2 인접 범위를 가지는 호 식별값을 할당하는 것을 특징으로 하는 상기 시스템.
  20. 무선 네트워크에서의 사용을 위하여, 소정의 영역내에서 다수의 이동국들과 통신할 수 있는 다수의 기지국들과, 호 접속 프로세스를 처리하는 호 접속 응용 노드를 포함하고, 상기 호 접속들 중 하나와 관련된 호 처리 어플리케이션들을 실행하며, 상기 호 접속 응용 노드와 연결된 가입자 데이터베이스를 제공하는 방법에 있어서,
    교환기 내에서 다수의 가입자 데이터베이스 서버 어플리케이션들을 실행할수 있는 N 개의 호 접속 응용 노드들을 제공하는 과정과,
    상기 N 개의 호 접속 응용 노드들 중 제1 노드에서 제1 가입자 데이터베이스 서버 어플리케이션을 실행하는 과정과,
    상기 N 개의 호 접속 응용 노드들 중 상기 제1 노드와 구별된 제2 노드에서 제2 가입자 데이터베이스 서버 어플리케이션을 실행하여, 상기 제1 및 제2 가입자 데이터베이스 서버 어플리케이션은 하나의 가입자 데이터베이스 로드 공유 그룹 서버 어플리케이션을 형성하는 과정과,
    소정의 호 처리 어플리케이션으로부터 상기 가입자 데이터베이스 로드 공유 그룹 서버 어플리케이션으로 소정의 가입자 데이터베이스 서비스 요청을 전송하는 과정과,
    상기 요청된 가입자 데이터베이스 서비스 요청을 수행하기 위하여, 상기 가입자 데이터베이스 로드 공유 그룹 서버 어플리케이션에서 상기 제1 및 제2 가입자 데이터베이스 서버 어플리케이션 중 하나를 선택하는 과정과,
    소정의 로드 분산 알고리즘에 따라서 상기 요청된 가입자 데이터베이스 서비스 요청을 실행하는 과정을 포함하는 것을 특징으로 하는 상기 방법.
  21. 제20항에 있어서,
    상기 제1 및 제2 호 처리 서버 어플리케이션들 사이에서 교대로 새로운 가입자 데이터베이스 서비스 요청들을 분배하는 과정을 더 포함하는 것을 특징으로 하는 상기 방법.
  22. 제20항에 있어서,
    상기 제1 가입자 데이터베이스 서버 어플리케이션 중 현재 진행중인 로드와 상기 제2 가입자 데이터베이스 서버 어플리케이션 중 현재 진행중인 로드에 따라새로운 가입자 데이터베이스 서비스 요청들을 분배하는 과정을 더 포함하는 것을 특징으로 하는 상기 방법.
  23. 제22항에 있어서,
    상기 제2 가입자 데이터베이스 서버 어플리케이션 중 상기 현재 진행중인 로드와 동일한 바로 다음 레벨로 상기 제1 가입자 데이터베이스 서버 어플리케이션 중 상기 현재 진행중인 로드를 유지하기 위하여 상기 새로운 가입자 데이터베이스 서비스 요청들을 분배하는 과정을 더 포함하는 것을 특징으로 하는 상기 방법.
  24. 제20항에 있어서,
    상기 제1 가입자 데이터베이스 서버 어플리케이션은 제1 주-백업 그룹 서버 어플리케이션을 구성하고, 상기 제1 주-백업 그룹 서버 어플리케이션은 상기 제1 호 접속 응용 노드에서 실행되는 제1 주 가입자 데이터베이스 서버 어플리케이션 및 상기 제1 주 가입자 데이터베이스 서버 어플리케이션과 연결된 제1 백업 가입자 데이터베이스 서버 어플리케이션을 포함하는 것을 특징으로 하는 상기 방법.
  25. 제24항에 있어서,
    상기 제1 주 가입자 데이터베이스 서버 어플리케이션과 연관된 호 상태 정보는 상기 제1 주 가입자 데이터베이스 서버 어플리케이션과 연관된 상기 제1 백업 가입자 데이터베이스 서버 어플리케이션에 반영되는 것을 특징으로 하는 상기 방법.
  26. 제25항에 있어서,
    상기 제1 백업 가입자 데이터베이스 서버 어플리케이션은 상기 제1 호 접속 응용 노드에 위치하는 것을 특징으로 하는 상기 방법.
  27. 제25항에 있어서,
    상기 제1 백업 가입자 데이터베이스 서버 어플리케이션은 상기 제1 호 접속 응용 노드와 구별된 소정의 호 접속 응용 노드에 위치하는 것을 특징으로 하는 상기 방법.
  28. 제20항에 있어서,
    상기 제2 벡업 가입자 데이터베이스 서버 어플리케이션은 제2 주-백업 그룹 서버 어플리케이션을 구성하고, 상기 제2 주-백업 그룹 서버 어플리케이션은 상기제2 호 접속 응용 노드에서 실행되는 제2 주 가입자 데이터베이스 서버 어플리케이션 및 상기 제2 주 가입자 데이터베이스 서버 어플리케이션과 연결된 제2 백업 가입자 데이터베이스 서버 어플리케이션을 포함하는 것을 특징으로 하는 상기 방법.
  29. 제28항에 있어서,
    상기 제2 주 가입자 데이터베이스 서버 어플리케이션과 연관된 호 상태 정보는 상기 제2 주 가입자 데이터베이스 서버 어플리케이션과 연결된 상기 제2 백업 가입자 데이터베이스 서버 어플리케이션에 반영되는 것을 특징으로 하는 상기 방법.
  30. 제29항에 있어서,
    상기 제2 백업 가입자 데이터베이스 서버 어플리케이션은 상기 제2 호 접속 응용 노드에 위치하는 것을 특징으로 하는 상기 방법.
  31. 제29항에 있어서,
    상기 제2 백업 가입자 데이터베이스 서버 어플리케이션은 상기 제2 호 접속 응용 노드와 구별된 소정의 호 접속 응용 노드에 위치하는 것을 특징으로 하는 상기 방법.
  32. N 개의 호 접속 응용 노드(CAN)들을 포함하는 소정의 스위치를 이용하기 위하여, 상기 N 개의 CAN들중 다른 CAN들에서 실행되는 소정의 주 호 처리 및 백업 호 처리를 포함하는 다수의 호 처리 서버 어플리케이션들을 업그레이드하는 방법에 있어서,
    제1 호 접속 응용 노드에서 실행되는 제1 주 호 처리 및 제2 호 접속 응용 노드에서 실행되는 제1 백업 호 처리를 포함하는 제1 호 처리 서버 어플리케이션에서 조작할 수 있는 중지 명령을 수신하는 과정과;
    상기 중지 명령의 수신에 응답하여, 제1 호 처리 서버 어플리케이션과 연결된 장래 호 트래픽이 더 이상 제1 호 접속 응용 노드에서 상기 제1 주 호 처리에 영향을 받지 않도록 상기 제1 호 처리를 억제하는 과정과;
    상기 제1 호 처리 서버 어플리케이션에 의해 처리되는 기 존재하는 호들과 관련된 모든 장래 호 트래픽이 상기 제2 호 접속 응용 노드에서 상기 재설정된 제1 백업 호 처리에 지시되도록 상기 제1 백업 호 처리를 제1 호 처리 서버 어플리케이션의 새로운 주 호 처리로 재설정하는 과정과;
    제2 호 처리 서버 어플리케이션과 연결되고 상기 제1 호 접속 응용 노드에 위치한 제2 백업 호 처리를 소정의 다른 호 접속 응용 노드로 이동하는 과정과; 및
    업그레이드된 제1 호 처리 서버 어플리케이션의 업그레이드된 제1 주 호 처리가 상기 제1 호 접속 응용 노드에서 실행되고, 상기 업그레이드된 제1 호 처리 서버 어플리케이션의 업그레이드된 제1 백업 호 처리를 상기 제1 호 접속 응용 노드에 생성하기 위하여, 상기 제1 호 접속 응용 노드에서 업그레이드된 제1 호 처리 서버 어플리케이션을 초기화 하는 과정을 포함하는 것을 특징으로 하는 상기 방법.
  33. 제32항에 있어서,
    상기 제1 호 접속 응용 노드으로부터 억제된 제1 주 호 처리를 제거하는 과정을 더 포함하는 것을 특징으로 하는 상기 방법.
  34. 제33항에 있어서,
    새로운 호들과 관련된 장래 호 트래픽이 상기 재설정된 제1 백업 호 처리에 영향을 받지 않도록 하는 과정을 더 포함하는 것을 특징으로 하는 상기 방법.
  35. 제34항에 있어서,
    모든 기 존재하는 호들이 종료될 때, 상기 재설정된 제1 백업 호 처리를 상기 제2 호 접속 응용 노드로부터 제거하는 과정을 더 포함하는 것을 특징으로 하는 상기 방법.
  36. 제32항에 있어서,
    상기 업그레이드된 제1 주 호 처리는 상기 업그레이드된 제1 호 처리 서버 어플리케이션들을 포함하는 제1 로드 공유 그룹 서버 어플리케이션과 연결되는 것을 특징으로 하는 상기 방법.
  37. 제36항에 있어서,
    상기 제1 로드 공유 그룹 서버 어플리케이션은 새로운 호들과 관련된 새로운 호 트래픽을 조절(throttling) 메카니즘의 제어에 따라 상기 업그레이드된 제1 주 호 처리로 지정하는 것을 특징으로 하는 상기 방법.
  38. 제37항에 있어서,
    상기 조절 메카니즘은 처음에 상기 업그레이드된 제1 주 호 처리에 영향을 받아 비교적 적은 양의 새로운 호 트래픽을 야기시키는 것을 특징으로 하는 상기 방법.
  39. 제38항에 있어서,
    상기 조절 메카니즘은 점진적으로 상기 업그레이드된 제1 주 호 처리에 영향을 받아 증가된 양의 새로운 호 트래픽을 야기시키는 것을 특징으로 하는 상기 방법.
  40. 제32항에 있어서,
    상기 수신된 중지 명령이 자동으로 상기 스위치에 의해 생성되는 것을 특징으로 하는 상기 방법.
  41. 제32항에 있어서,
    상기 수신된 중지 명령이 상기 스위치의 운전자에 의해 생성되는 것을 특징으로 하는 상기 방법.
  42. 다수의 호 처리 서버 어플리케이션들을 실행하는 N 개의 호 접속 응용 노드들을 포함하는 소정의 통신 스위치 시스템에 있어서,
    상기 각 호 처리 서버 어플리케이션은 상기 N 개의 호 접속 응용 노드들 중 다른 호 접속 응용 노드들에서 실행되는 소정의 주 호 처리 및 백업 호 처리를 포함하며, 상기 스위치는 상기 다수의 호 처리 서버 어플리케이션을 업그레이드 할 수 있는 소정의 업그레이드 프로세스를 실행하는 것을 특징으로 하며,
    상기 업그레이드 프로세스는, 제1 호 접속 응용 노드에서 실행되는 제1 주 호 처리 및 제2 호 접속 응용 노드에서 실행되는 제1 백업 호 처리를 포함하는 제1 호 처리 서버 어플리케이션에서 조작할 수 있는 중지 명령을 수신하는 과정과;
    상기 중지 명령의 수신에 응답하여, 제1 호 처리 서버 어플리케이션과 연결된 장래 호 트래픽이 더 이상 제1 호 접속 응용 노드에서 상기 제1 주 호 처리에 영향을 받지 않도록 상기 제1 호 처리를 억제하는 과정과;
    상기 제1 호 처리 서버 어플리케이션에 의해 처리되는 기 존재하는 호들과 관련된 모든 장래 호 트래픽이 상기 제2 호 접속 응용 노드에서 상기 재설정된 제1 백업 호 처리에 지시되도록 상기 제1 백업 호 처리를 제1 호 처리 서버 어플리케이션의 새로운 주 호 처리로 재설정하는 과정과;
    제2 호 처리 서버 어플리케이션과 연결되고 상기 제1 호 접속 응용 노드에 위치한 제2 백업 호 처리를 소정의 다른 호 접속 응용 노드로 이동하는 과정과; 및
    업그레이드된 제1 호 처리 서버 어플리케이션의 업그레이드된 제1 주 호 처리가 상기 제1 호 접속 응용 노드에서 실행되고, 상기 업그레이드된 제1 호 처리 서버 어플리케이션의 업그레이드된 제1 백업 호 처리를 상기 제1 호 접속 응용 노드에 생성하기 위하여, 상기 제1 호 접속 응용 노드에서 업그레이드된 제1 호 처리 서버 어플리케이션을 초기화 하는 과정을 포함하는 것을 특징으로 하는 상기 시스템.
  43. 제42항에 있어서,
    상기 통신 스위치에서 상기 업그레이드 과정은, 상기 제1 호 접속 응용 노드로부터 억제된 제1 주 호 처리를 제거하는 과정을 더 포함하는 것을 특징으로 하는 상기 시스템.
  44. 제43항에 있어서,
    상기 통신 스위치에서 상기 업그레이드 과정은, 새로운 호들과 관련된 장래 호 트래픽이 상기 재설정된 제1 백업 호 처리에 영향을 받지 않도록 하는 과정을 더 포함하는 것을 특징으로 하는 상기 시스템.
  45. 제44항에 있어서,
    상기 통신 스위치에서 상기 업그레이드 과정은, 모든 기 존재하는 호들이 종료될 때, 상기 재설정된 제1 백업 호 처리를 상기 제2 호 접속 응용 노드로부터 제거하는 과정을 더 포함하는 것을 특징으로 하는 상기 시스템.
  46. 제42항에 있어서,
    상기 통신 스위치에서 상기 업그레이드된 제1 주 호 처리는 상기 업그레이드된 제1 호 처리 서버 어플리케이션들을 포함하는 제1 로드 공유 그룹 서버 어플리케이션과 연결되는 것을 특징으로 하는 상기 시스템.
  47. 제46항에 있어서,
    상기 통신 스위치에서 상기 제1 로드 공유 그룹 서버 어플리케이션은 새로운 호들과 관련된 새로운 호 트래픽을 조절(throttling) 메카니즘의 제어에 따라 상기 업그레이드된 제1 주 호 처리로 지정하는 것을 특징으로 하는 상기 시스템.
  48. 제47항에 있어서,
    상기 통신 스위치에서 상기 조절 메카니즘은 처음에 상기 업그레이드된 제1 주 호 처리에 영향을 받아 비교적 적은 양의 새로운 호 트래픽을 야기시키는 것을 특징으로 하는 상기 시스템.
  49. 제48항에 있어서,
    상기 통신 스위치에서 상기 조절 메카니즘은 점진적으로 상기 업그레이드된제1 주 호 처리에 영향을 받아 증가된 양의 새로운 호 트래픽을 야기시키는 것을 특징으로 하는 상기 시스템.
  50. 제42항에 있어서,
    상기 통신 스위치에서 상기 수신된 중지 명령이 자동으로 상기 스위치에 의해 생성되는 것을 특징으로 하는 상기 시스템.
  51. 제42항에 있어서,
    상기 통신 스위치에서 상기 수신된 중지 명령이 상기 스위치의 운전자에 의해 생성되는 것을 특징으로 하는 상기 시스템.
KR20020087497A 2001-12-31 2002-12-30 통신 시스템에서 로드 공유 그룹을 이용한 분산된 호 처리및 업그레이드 시스템 및 방법 KR100464350B1 (ko)

Applications Claiming Priority (12)

Application Number Priority Date Filing Date Title
US10/038,878 US6947752B2 (en) 2001-12-31 2001-12-31 System and method for distributed call processing using load sharing groups
US10/038,872 US7366521B2 (en) 2001-12-31 2001-12-31 Distributed identity server for use in a telecommunication switch
US10/039,186 2001-12-31
US10/038,878 2001-12-31
US10/039,186 US6862453B2 (en) 2001-12-31 2001-12-31 System and method for distributed call processing using a distributed trunk idle list
US10/038,879 US6917819B2 (en) 2001-12-31 2001-12-31 System and method for providing a subscriber database using group services in a telecommunication system
US10/038,879 2001-12-31
US10/038,872 2001-12-31
US10/100,494 2002-03-18
US10/100,494 US20030176163A1 (en) 2002-03-18 2002-03-18 System and method for on-line upgrade of call processing software using load sharing groups
US10/174,338 2002-06-18
US10/174,338 US7308491B2 (en) 2002-03-18 2002-06-18 System and method for on-line upgrade of call processing software using group services in a telecommunication system

Publications (2)

Publication Number Publication Date
KR20030058927A KR20030058927A (ko) 2003-07-07
KR100464350B1 true KR100464350B1 (ko) 2005-01-03

Family

ID=27671290

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20020087497A KR100464350B1 (ko) 2001-12-31 2002-12-30 통신 시스템에서 로드 공유 그룹을 이용한 분산된 호 처리및 업그레이드 시스템 및 방법

Country Status (2)

Country Link
KR (1) KR100464350B1 (ko)
CN (1) CN100548072C (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100785393B1 (ko) 2006-11-08 2007-12-13 에스케이 텔레콤주식회사 호 우회 전환 시스템 및 그 방법

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100983133B1 (ko) * 2004-02-04 2010-09-20 엘지에릭슨 주식회사 소프트스위치에서 응용 서버의 부하 밸런싱 방법
CN100574308C (zh) * 2005-05-12 2009-12-23 中国科学院计算技术研究所 一种多节点智能网络应用服务系统中的远程设备访问方法
KR100778340B1 (ko) * 2006-12-07 2007-11-22 한국전자통신연구원 라우터 시스템에서의 소프트웨어 업그레이드에 따른 포워딩정보 테이블 관리 장치 및 그 방법
CN102395124B (zh) * 2008-06-07 2014-02-19 华为技术有限公司 呼叫切换、建立方法及装置
EP3037970A1 (en) * 2008-08-08 2016-06-29 Amazon Technologies, Inc. Providing executing programs with reliable access to non-local block data storage

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100785393B1 (ko) 2006-11-08 2007-12-13 에스케이 텔레콤주식회사 호 우회 전환 시스템 및 그 방법

Also Published As

Publication number Publication date
KR20030058927A (ko) 2003-07-07
CN100548072C (zh) 2009-10-07
CN1434648A (zh) 2003-08-06

Similar Documents

Publication Publication Date Title
US6917819B2 (en) System and method for providing a subscriber database using group services in a telecommunication system
US7356577B2 (en) System and method for providing an online software upgrade in load sharing servers
JP6988004B2 (ja) 集中型ユニットと分散型ユニットのアーキテクチャにおける通信方法および通信デバイス
US7379419B2 (en) Apparatus and method for performing an online software upgrade of resource servers
CN113596191B (zh) 一种数据处理方法、网元设备以及可读存储介质
CN1316860A (zh) 在无线通信服务网络中消息处理过程中的动态负载平衡
KR20010006035A (ko) 개방형 시스템 상호 접속 환경에서 통신을 위한 방법, 통신 망 및 서비스 액세스 인터페이스
US7308491B2 (en) System and method for on-line upgrade of call processing software using group services in a telecommunication system
US7463610B2 (en) System and method for providing an online software upgrade
KR20030046321A (ko) 이동 통신 네트워크에서 분산 처리 프로세서부를 제공하는장치 및 방법
US6862453B2 (en) System and method for distributed call processing using a distributed trunk idle list
EP2955973B1 (en) Mobile communication system, method of controlling operation thereof, and node used for the system
KR100464350B1 (ko) 통신 시스템에서 로드 공유 그룹을 이용한 분산된 호 처리및 업그레이드 시스템 및 방법
US7480244B2 (en) Apparatus and method for scalable call-processing system
US6947752B2 (en) System and method for distributed call processing using load sharing groups
US20030176163A1 (en) System and method for on-line upgrade of call processing software using load sharing groups
US20050182763A1 (en) Apparatus and method for on-line upgrade using proxy objects in server nodes
US7366521B2 (en) Distributed identity server for use in a telecommunication switch
US20050198022A1 (en) Apparatus and method using proxy objects for application resource management in a communication network
CN114430415B (zh) 一种智能控制系统
US11838150B2 (en) Leveraging a virtual router to bridge between an underlay and an overlay
US20230336996A1 (en) Universal unlock microservice system and method
US20240048963A1 (en) Blockchain-based system that records the states of 5g end user mobile devices using the distributed ledger
US20240064042A1 (en) Leveraging a virtual router to bridge between an underlay and an overlay
CN114449583A (zh) 一种5g核心网负载均衡优化方法

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121129

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20131128

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20141127

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20151127

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20161129

Year of fee payment: 13

LAPS Lapse due to unpaid annual fee