KR101910537B1 - 서비스 처리 방법, 시스템 및 장치 - Google Patents

서비스 처리 방법, 시스템 및 장치 Download PDF

Info

Publication number
KR101910537B1
KR101910537B1 KR1020167013280A KR20167013280A KR101910537B1 KR 101910537 B1 KR101910537 B1 KR 101910537B1 KR 1020167013280 A KR1020167013280 A KR 1020167013280A KR 20167013280 A KR20167013280 A KR 20167013280A KR 101910537 B1 KR101910537 B1 KR 101910537B1
Authority
KR
South Korea
Prior art keywords
service
master device
processing
slave
remaining
Prior art date
Application number
KR1020167013280A
Other languages
English (en)
Other versions
KR20160073409A (ko
Inventor
지안빙 쟈오
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20160073409A publication Critical patent/KR20160073409A/ko
Application granted granted Critical
Publication of KR101910537B1 publication Critical patent/KR101910537B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/78Architectures of resource allocation
    • H04L47/781Centralised allocation of resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/0654Management of faults, events, alarms or notifications using network fault recovery
    • H04L41/0668Management of faults, events, alarms or notifications using network fault recovery by dynamic selection of recovery network elements, e.g. replacement by the most appropriate element after failure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1012Server selection for load balancing based on compliance of requirements or conditions with available server resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명의 실시예는 비디오 감시 시스템에 적용되는, 서비스 처리 방법, 시스템, 및 장치를 개시한다. 서비스 처리 방법은, 리소스 풀 내의 마스터 장치에 의해 서비스 처리 요청을 수신하는 단계, 마스터 장치에 의해 서비스에 의해 요청된 리소스를 결정하고, 리소스 풀 내의 각 슬레이브 장치의 잔여 리소스에 따라, 서비스에 의해 요청된 리소스를 만족하는 슬레이브 장치를 결정하는 단계, 및 마스터 장치에 의해, 처리를 위해 대응하는 슬레이브 장치에 서비스를 할당하는 단계를 포함하고, 마스터 장치 및 슬레이브 장치는 모두 비디오 감시 프런트 엔드 장치이다. 마스터 장치는 프런트 엔드 장치 내에 있고 미리 설정된 임계값을 슬레이브 장치로서 만족하는 잔여 리소스를 갖는 장치를 결정하고, 마스터 장치 및 슬레이브 장치는 리소스 풀을 형성한다. 본 발명의 실시예는 많은 양의 벡 엔드 서버 시스템을 줄일 수 있고, 분산 시스템의 구조를 단순하게 할 수 있다.

Description

서비스 처리 방법, 시스템 및 장치{SERVICE PROCESSING METHOD, SYSTEM AND DEVICE}
본 출원은 2013년 10월 29일자로 중국 특허청에, ‘서비스 처리 방법, 시스템 및 장치법’의 명칭으로 출원된 중국출원번호 제201310526368.7호의 우선권을 주장하며, 이 문헌은 전체로서 본 명세서에 통합된다.
본 발명은, 통신 분야에 관한 것으로서, 보다 상세하게는, 통신 장치, 베이스 밴드 유닛, 및 통신 방법에 관한 것이다.
본 발명은 컴퓨터 기술 분야에 관련된 것으로서, 보다 상세하게는, 서비스 처리 방법, 시스템 및 장치에 관한 것이다.
대체로, 종래 분산 처리 시스템에서 복수의 분산 장치가 시스템 프런트 엔드(front end)에 배치되어 있다. 예로서, 비디오 감시 시스템을 사용하여, 비디오를 캡처하고 비디오 스트림을 전송하도록, 복수의 IPC 카메라(IPCs)가 시스템 프런트 엔드에 배치된다. 대체로, 이러한 IPCs 가 물리적 공간에서 대량 및 분포 특징을 이룬다. 또한, 각 IPC는, 자신의 비디오 캡처, 단순 처리, 및 스트림 전송을 제외하고, 낮은 분석 및 처리 성능을 갖는다. 각 IPC는, 예를 들어, 복잡한 지능형 분석 및 트랜스 코딩과 같은 연산-집약적 기능(computation-intensive function)을 독립적으로 완료하지 못한다. 따라서, 복잡한 연산을 완료하도록, 전용 서버가 시스템의 백 엔드(back end)에 배치될 필요가 있다.
대체로, 시스템 벡 엔드의 서버는 서버 적층 방식에서 중앙 집중 또는 분산 처리 방법 및 고강도 처리(high-intensity processing) 방식을 이용하여 복잡한 연산을 완료한다.
백 엔드 서버의 많은 양의 존재는 전체 처리 시스템의 복잡한 구조를 야기하고, 전체 시스템은 비용, 공간, 및 유지 등의 측면에서 사용자를 압박한다.
본 발명의 실시예는 많은 양의 벡 엔드 서버 시스템을 줄일 수 있고, 분산 시스템의 구조를 단순하게 할 수 있는 서비스 처리 방법, 시스템 및 장치를 제공한다.
상술한 기술적 문제를 해결하기 위해 본 발명의 실시에는 이하의 기술적 해결 방법을 개시한다.
제1 측면에 따르면, 비디오 감시 시스템에 적용되는 서비스 처리 방법이 제공되고, 이러한 서비스 처리 방법은, 리소스 풀 내의 마스터 장치에 의해, 서비스 처리 요청을 수신하는 단계; 상기 마스터 장치에 의해, 서비스에 의해 요청된 리소스를 결정하고, 상기 리소스 풀 내의 각 슬레이브 장치의 잔여 리소스에 따라, 상기 서비스에 의해 요청된 리소스를 만족하는 슬레이브 장치를 결정하는 단계; 및 상기 마스터 장치에 의해, 처리를 위해 대응하는 슬레이브 장치에 상기 서비스를 할당하는 단계를 포함하고, 상기 마스터 장치 및 슬레이브 장치는 모두 비디오 감시 프런트 엔드(front end) 장치이고, 상기 마스터 장치는, 상기 프런트 엔드 장치 내에 있으면서 잔여 리소스가 미리 설정된 임계값을 만족하는 장치를 상기 슬레이브 장치로서 결정하고, 상기 마스터 장치 및 상기 슬레이브 장치가 상기 리소스 풀을 형성한다.
전술한 제1 측면을 참조하면, 제1 구현 가능한 방식에서, 상기 마스터 장치가, 상기 프런트 엔드 장치 내에 있으면서 잔여 리소스가 미리 설정된 임계값을 만족하는 장치를 상기 슬레이브 장치로서 결정하고, 상기 마스터 장치 및 상기 슬레이브 장치가 상기 리소스 풀을 형성하는 것은, 각 프런트 엔드 장치에 의해, 미리 설정된 잔여 성능 기준에 따라, 상기 프런트 엔드 장치의 잔여 리소스를 대응하는 잔여 처리 성능값으로 변환하고, 상기 잔여 처리 성능값을 상기 마스터 장치에 보고하는 단계; 상기 마스터 장치에 의해, 잔여 처리 성능값이 미리 설정된 성능 임계값을 만족하는 장치를 상기 슬레이브 장치로서 결정하는 단계; 및 상기 마스터 장치 및 상기 슬레이브 장치를 사용하여 상기 리소스 풀을 형성하는 단계를 포함한다.
전술한 제1 측면을 참조하면, 제2 구현 가능한 방식에서, 상기 마스터 장치에 의해, 상기 서비스에 의해 요청된 리소스를 결정하고, 리소스 풀 내의 각 슬레이브 장치의 잔여 리소스에 따라, 서비스에 의해 요청된 리소스를 만족하는 슬레이브 장치를 결정하는 단계는, 상기 마스터 장치에 의해, 상기 서비스에 의해 요청된 여러 처리 성능에 따라, 상기 서비스를 복수의 서브-서비스로 분할하고, 상기 슬레이브 장치의 잔여 처리 성능 및 상기 복수의 서브-서비스를 완료하기 위해 사용될 필요가 있는 대응하는 처리 성능의 값에 따라, 상기 복수의 서브-서비스의 처리를 완료하기 위해 대응하는 수량의 슬레이브 장치를 할당하는 단계를 포함한다.
전술한 제1 측면 및 제2 구현 가능한 방식을 참조하면, 제3 구현 가능한 방식에서, 상기 마스터 장치에 의해, 처리를 위해 상기 대응하는 슬레이브 장치에 서비스를 할당하는 단계는, 상기 마스터 장치에 의해, 대응하는 서브-서비스를 할당된 각 슬레이브 장치에 전송하는 단계; 상기 마스터 장치에 의해, 상기 비디오 감시 시스템 내의 비디오 저장 모듈로 상기 할당된 슬레이브 장치의 리스트, 및 상기 리스트 내의 각 슬레이브 장치와 상기 서브-서비스 사이의 할당 대응관계를 전송하는 단계; 상기 마스터 장치에 의해, 할당된 각 슬레이브 장치에 의해 보고된 처리 결과를 수신하는 단계-상기 할당된 각 슬레이브 장치는 비디오 데이터 획득 요청을 상기 비디오 저장 모듈에 전송하여 상기 서브-서비스 처리를 위해 요청된 비디오 스트림을 획득하고, 대응하는 비디오 처리를 수행하며, 상기 처리 결과를 상기 마스터 장치에 전송함-; 및 상기 마스터 장치에 의해, 할당된 각 슬레이브 장치에 의해 보고된 상기 처리 결과를 합하는 단계를 포함한다.
전술한 제1 측면 및 제1 구현 가능한 방식을 참조하면, 제4 구현 가능한 방식에서, 상기 마스터 장치가 상기 슬레이브 장치의 각 잔여 처리 성능값이 상기 미리 설정된 성능 임계값보다 작은 것으로 결정한 경우, 상기 리소스 풀에서 상기 슬레이브 장치를 제거하는 단계를 더 포함한다.
전술한 제1 측면 및 제1 내지 제4 구현 가능한 방식을 참조하면, 제5 구현 가능한 방식에서, 상기 마스터 장치가 결함이 있을 때, 상기 슬레이브 장치로부터 유휴(idle) 슬레이브 장치를 재선택하고, 상기 선택된 슬레이브 장치를 마스터 장치로서 사용하는 단계를 더 포함한다.
제2 측면에 따르면, 비디오 감시 시스템에 적용되는 서비스 처리 시스템이 제공되고, 이러한 서비스 처리 시스템은, 마스터 장치 및 슬레이브 장치를 포함하고, 상기 마스터 장치 및 슬레이브 장치는 리소스 풀을 형성하며, 상기 마스터 장치 및 슬레이브 장치는 모두 비디오 감시 프런트 엔드(front end) 장치이며, 상기 마스터 장치는, 상기 프런트 엔드 장치 내에 있으면서 잔여 리소스가 미리 설정된 임계값을 만족하는 장치를 상기 슬레이브 장치로서 결정하고, 상기 마스터 장치는, 서비스 처리 요청을 수신하고, 서비스에 의해 요청된 리소스를 결정하고, 상기 리소스 풀 내의 각 슬레이브 장치의 잔여 리소스에 따라 상기 서비스에 의해 요청된 리소스를 만족하는 슬레이브 장치를 결정하고, 처리를 위해 상기 서비스를 대응하는 상기 슬레이브 장치에 할당하도록 구성된다.
전술한 제2 측면을 참조하면, 제1 구현 가능한 방식에서, 상기 마스터 장치가, 상기 프런트 엔드 장치 내에 있으면서 잔여 리소스가 미리 설정된 임계값을 만족하는 장치를 상기 슬레이브 장치로서 결정하는 것은, 각 프런트 엔드 장치에 의해, 미리 설정된 잔여 성능 기준에 따라, 상기 프런트 엔드 장치의 잔여 리소스를 대응하는 잔여 처리 성능값으로 변환하고, 상기 잔여 처리 성능값을 상기 마스터 장치에 보고하며, 상기 마스터 장치에 의해, 잔여 처리 성능값이 미리 설정된 성능 임계값을 만족하는 프런트 엔드 장치를 상기 슬레이브 장치로서 결정하고, 상기 마스터 장치 및 상기 슬레이브 장치를 사용하여 상기 리소스 풀을 형성하는 것으로 구현된다.
전술한 제2 측면을 참조하면, 제2 구현 가능한 방식에서, 상기 마스터 장치가, 상기 서비스에 의해 요청된 리소스를 결정하고, 리소스 풀 내의 각 슬레이브 장치의 잔여 리소스에 따라, 서비스에 의해 요청된 리소스를 만족하는 슬레이브 장치를 결정하는 것은, 상기 마스터 장치에 의해, 상기 서비스에 의해 요청된 여러 처리 성능에 따라, 상기 서비스를 복수의 서브-서비스로 분할하고, 상기 슬레이브 장치의 잔여 처리 성능 및 상기 복수의 서브-서비스를 완료하기 위해 사용될 필요가 있는 대응하는 처리 성능의 값에 따라, 상기 복수의 서브-서비스의 처리를 완료하기 위해 대응하는 수향의 슬레이브 장치를 할당하는 것으로 구현된다.
전술한 제2 측면 및 제1 구현 가능한 방식을 참조하면, 제3 구현 가능한 방식에서, 상기 마스터 장치가 처리를 위해 상기 서비스를 슬레이브 장치에 할당하는 것은, 상기 마스터 장치에 의해, 대응하는 서브-서비스를 할당된 각 슬레이브 장치에 전송하고, 상기 마스터 장치에 의해, 상기 비디오 감시 시스템 내의 비디오 저장 모듈에 상기 할당된 슬레이브 장치의 리스트 및, 상기 리스트 내의 각 슬레이브 장치와 상기 서브-서비스 사이의 할당 대응관계를 전송하며, 상기 마스터 장치에 의해, 할당된 각 슬레이브 장치에 의해 보고된 처리 결과를 수신하고 -상기 할당된 각 슬레이브 장치는 비디오 데이터 획득 요청을 상기 비디오 저장 모듈에 전송하여 서브-서비스를 처리하기 위해 요청된 비디오 스트림을 획득하고, 대응하는 비디오 처리를 수행하며, 상기 마스터 장치에 상기 처리 결과를 전송함-, 상기 마스터 장치에 의해, 상기 할당된 각 슬레이브 장치에 의해 보고된 처리 결과를 합하는 것으로 구현된다.
전술한 제2 측면 및 제1 구현 가능한 방식을 참조하면, 제4 구현 가능한 방식에서, 상기 마스터 장치는, 추가로, 상기 슬레이브 장치의 각 잔여 처리 성능값이 상기 미리 설정된 성능 임계값보다 낮은 것으로 결정된 때, 상기 슬레이브 장치를 상기 리소스 풀에서 제거하도록 구성된다.
전술한 제2 측면 및 제1 내지 제4 구현 가능한 방식을 참조하면, 제5 구현 가능한 방식에서, 상기 마스터 장치가 결함이 있을 때, 상기 슬레이브 장치로부터 유휴(idle) 슬레이브 장치가 재선택되어 마스터 장치로서 사용된다.
제3 측면에 따르면, 비디오 감시 시스템에 적용되는 비디오 감시 프런트 엔드(front end) 장치가 제공되고, 이러한 비디오 감시 프런트 엔드 장치는, 비디오 데이터를 캡처하도록 구성된 비디오 캡처 유닛; 상기 비디오 감시 프런트 엔드 장치가 마스터 장치일 때, 서비스 처리 요청을 수신하고, 상기 비디오 감시 프런트 엔드 장치가 슬레이브 장치 일 때, 상기 마스터 장치에 의해 할당된 서비스를 수신하도록 구성된 수신 유닛; 상기 비디오 감시 프런트 엔드 장치의 잔여 리소스를 상기 마스터 장치에 전송하도록 구성된 잔여 리소스 피드백 유닛; 상기 비디오 감시 프런트 엔드 장치가 상기 마스터 장치일 때, 프런트 엔드 장치 내에 있으면서 잔여 리소스가 미리 설정된 임계값을 만족하는 장치를 상기 슬레이브 장치로서 결정하도록 구성된 슬레이브 장치 결정 유닛; 및 상기 비디오 감시 프런트 엔드 장치가 상기 마스터 장치일 때, 상기 서비스 처리 요청에 따라, 상기 서비스에 의해 요청된 리소스를 결정하고, 리소스 풀 내의 각 슬레이브 장치의 잔여 리소스에 따라, 상기 서비스에 의해 요청된 리소스를 만족하는 슬레이브 장치를 결정하며, 처리를 위해 상기 서비스에 대응하는 상기 슬레이브 장치를 할당하고, 상기 비디오 감시 프런트 엔드 장치가 상기 슬레이브 장치 일 때, 상기 마스터 장치에 의해 할당된 상기 서비스를 처리하도록 구성된 처리 유닛을 포함하고, 상기 마스터 장치는 비디오 감시 프런트 엔드 장치이며, 상기 마스터 장치 및 상기 슬레이브 장치는 상기 리소스 풀을 형성한다.
전술한 제3 측면을 참조하면, 제1 구현 가능한 방식에서, 상기 잔여 리소스 피드백 유닛의 구체적 동작은, 미리 설정된 잔여 성능 기준에 따라, 상기 비디오 r감시 프런트 엔드 장치의 잔여 리소스를 대응하는 잔여 처리 성능값으로 변환하고, 상기 잔여 처리 성능값을 상기 마스터 장치의 슬레이브 장치 결정 유닛에 보고하는 것을 포함하고, 상기 마스터 장치의 슬레이브 장치 결정 유닛은 잔여 처리 성능값이 미리 설정된 성능 임계값을 만족하는 프런트 엔드 장치를 상기 슬레이브 장치로서 결정하도록 구성된다.
전술한 제3 측면을 참조하면, 제2 구현 가능한 방식에서, 상기 비디오 감시 프런트 엔드 장치가 마스터 장치일 때, 상기 처리 유닛의 구체적 동작은, 상기 서비스에 의해 요청된 여러 처리 성능에 따라, 상기 서비스를 다수의 서브-서비스로 분할하고, 상기 슬레이브 장치의 잔여 처리 성능 및 상기 복수의 서브-서비스를 완료하기 위해 사용될 필요가 있는 대응하는 처리 성능의 값에 따라, 상기 복수의 서브-서비스의 처리를 완료하기 위해 대응하는 수량의 슬레이브 장치를 할당하고, 할당된 각 슬레이브 장치에 대응하는 서브-서비스를 전송하며, 상기 비디오 감시 시스템 내의 비디오 저장 모듈에 상기 할당된 슬레이브 장치의 리스트, 및 상기 리스트 내의 각 슬레이브 장치와 상기 서브-서비스 사이의 할당 대응관계를 전송하고, 할당된 각 슬레이브 장치에 의해 보고된 처리 결과를 수신하며 -상기 할당된 각 슬레이브 장치는 상기 비디오 저장 모듈에 비디오 데이터 획득 요청을 전송하여 서브-서비스 처리를 위해 요청된 비디오 스트림을 획득하고, 대응하는 비디오 처리를 수행하며, 상기 마스터 장치에 상기 처리 결과를 전송함-, 할당된 각 슬레이브 장치에 의해 보고된 상기 처리 결과를 합하는 것을 포함한다.
전술한 제3 측면 및 제1 구현 가능한 방식을 참조하면, 제3 구현 가능한 방식에서, 상기 비디오 감시 프런트 엔드 장치가 상기 마스터 장치일 때, 상기 처리 유닛은, 추가로, 상기 슬레이브 장치의 각 잔여 처리 성능값이 상기 미리 설정된 임계값보다 낮은 것으로 결정될 때, 상기 슬레이브 장치를 상기 리소스 풀에서 제거하도록 구성된다.
전술한 제3 측면 및 제1 내지 제3 구현 가능한 방식을 참조하면, 제4 구현 가능한 방식에서, 상기 비디오 감시 프런트 엔드 장치가 상기 마스터 장치일 때, 상기 처리 유닛은 추가로, 상기 마스터 장치가 결함이 있을 때, 상기 슬레이브 장치로부터 유휴(idle) 슬레이브 장치를 재선택하여 상기 선택된 슬레이브 장치를 마스터 장치로서 사용하도록 구성된다.
본 발명의 기술적 해결 방법 또는 종래 기술을 더욱 명확하게 설명하기 위해 이하 간단히 실시 형태 또는 종래 기술을 설명하기 위해 요구되는 첨부 도면을 소개한다. 당업자는 창의적 노력 없이, 첨부된 도면에서 다른 도면을 유도할 수 있음은 여전히 명백하다.
도 1은 본 발명에 따른 서비스 처리 방법의 실시예의 흐름도이다.
도 2는 본 발명에 따른 리소스 풀을 형성의 구현에 대한 흐름도이다.
도 3은 본 발명에 따른 IPC 트립와이어(tripwire) 탐지에서 처리 과정의 개략적 다이어그램이다.
도 4는 본 발명에 따른 IPC를 사용하여 수행되는 비디오 다이제스트 분석(video digest analysis)의 처리 과정의 개략적 다이어그램이다.
도 5는 본 발명에 따른 서비스 처리 시스템의 구조 다이어그램이다.
발명의 실시예에서의 기술적 해결 방법을 당업자가 잘 이해하고, 본 발명의 목적, 특징, 및 장점을 명확히 하기 위해, 추가로, 첨부된 도면을 참조하여 본 발명의 기술적 해결 방법을 상세하게 설명한다.
먼저, 본 발명에 따른 서비스 처리 방법을 설명한다.
도 1을 참조하면, 도 1은 본 발명에 따른 서비스 처리 방법의 실시예의 흐름도이다. 서비스 처리 방법은 비디오 감시 시스템에 적용되고, 서비스 처리 과정은 구체적으로 이하를 포함한다.
단계(101): 리소스 풀 내의 마스터 장치는 서비스 처리 요청을 수신한다.
종래 기술에서, 대체로, 분산 시스템의 프런트 엔드(front end)에 다수의 프런트 엔드 장치가 배치되어 있다. 프런트 엔드 장치는 클라이언트와 연결되어 있고, 사용자에 의해 착수된 서비스 처리 요청을 수신하고 단순한 데이터 처리를 수행하는데 사용된다. 복잡한 분석 및 연산 처리는 프런트 엔드 장치에 연결된 백-엔드(back-end) 전용서버에 의해 완료된다.
그러나 실질적 어플리케이션 시나리오에서, 프런트 엔드 장치가 단순한 데이터 처리 이후에 사용될 수 있는 잔여 리소스가 여전히 존재하다는 것이 연구를 통해 발견되었다. 그러나 이러한 프런트 엔드 장치의 잔여 리소스는 실제로 사용되지 않고 버려진다.
비디오 감시 시스템은 일 예로서 사용된다. 프런트 엔드 IPC가 정상적으로 동작할 때, CPU의 사용량 범위는 10%에서 30%이고, 사용 가능한 메모리는 일반적으로 100MB이며, 네트워크 대역폭 이용률은 10% 미만이고, 대체로 오디오-비디오 코딩 및 디코딩 리소스의 50%가 사용된다. CPU 사용량 한계의 70%에서, 대역폭 이용률은 80%이고, 인코딩 및 디코딩 리소스의 100%가 사용되며, 사용 가능한 메모리는 약 10MB이다. 각 프런트 엔드 장치는 사용 가능한 실질적인 유휴 리소스(idle resource)를 갖고 있다는는 것을 알 수 있다.
본 발명의 실시예에서, 분산 시스템 내의 프런트 엔드 장치의 잔여 리소스는 전부 사용된다. 서비스 처리 수행을 위한 이러한 잔여 리소스를 사용은 시스템 백 엔드 서버를 줄일 수 있다. 구체적으로, 프런트 엔드 장치로부터 선택되어 마스터 장치로서 사용되는 장치는 프런트 엔드 장치에서 미리 설정된 임계값을 슬레이브 장치로서 만족하는 잔여 리소스를 갖는 장치를 결정하고, 마스터 장치 및 슬레이브 장치는 리소스 풀을 형성한다.
서비스 처리가 수행될 필요가 있을 때, 사용자는 마스터 장치에 서비스 처리 요청을 착수시킨다.
단계(102): 마스터 장치는 서비스에 의해 요청된 리소스를 결정하고, 리소스 풀 내의 각 슬레이브 장치의 잔여 리소스에 따라, 서비스에 의해 요청된 리소스를 만족하는 슬레이브 장치를 결정한다.
이 단계에서, 서비스 처리 요청을 수신한 후, 마스터 장치는 서비스 처리 과정을 위해 요청된 리소스를 결정할 필요가 있다. 그 이후에, 마스터 장치는 결정된 슬레이브 장치의 잔여 리소스의 합이 서비스 처리 과정을 위해 요청된 리소스를 만족할 때까지 서비스 처리를 수행하도록, 리소스 풀 내의 각 슬레이브 장치의 잔여 리소스 상황에 따라, 리소스 요청 사항을 만족하는 슬레이브 장치를 결정한다.
단계(103): 마스터 장치는 처리를 위해 대응하는 슬레이브 장치에 서비스를 할당한다.
이 단계에서, 서비스 처리를 수행하기 위해 슬레이브 장치를 결정한 후, 대응하는 슬레이브 장치에 서비스를 할당하여 대응하는 슬레이브 장치가 구체적 서브시 처리 동작을 수행할 수 있게 할 수 있다.
본 발명의 실시예에 따르면, 마스터 장치는 분산 시스템의 프런트 엔드 장치로부터 결정되고, 마스터 장치는 프런트 엔드 장치 내에서 미리 설정된 임계값을 슬레이브 장치로서 만족하는 잔여 리소스를 갖는 장치를 결정한다. 이후에, 마스터 장치 및 슬레이브 장치는 리소스 풀을 형성한다. 서비스 처리 요청을 수신한 때, 마스터 장치는 서비스에 의해 요청된 리소스 및 리소스 풀 내의 각 슬레이브 장치의 잔여 리소스에 따라, 서비스에 의해 요청된 리소스를 만족하는 슬레이브 장치를 결정하여 대응하는 슬레이브 장치에 처리를 위해 서비스를 할당할 수 있다. 리소스 풀을 설정함으로써, 프런트 엔드 장치의 잔여 리소스는 전부 사용될 수 있고, 슬레이브 장치는 서비스 처리 동작을 수행하기 위해 잔여 리소스를 사용할 수 있다. 이러한 방식으로 서비스 동작을 수행하는 시스템 백 엔드 서버는 별도로 배치될 필요가 없고, 시스템 백 엔드 서버의 처리가 취소되므로 분산 시스템의 구조는 단순화될 수 있다.
본 발명의 실시예에서, 도 2에 나타난, 마스터 장치가 프런트 엔드 장치 내에서 미리 설정된 임계값을 슬레이브 장치로서 만족하는 잔여 리소스를 갖는 장치를 결정하는 구체적 구현 방식 및 마스터 장치와 슬레이브 장치가 리소스 풀을 형성하는 구체적 구현 방식은 이하의 단계를 포함할 수 있다.
단계(201): 각 프런트 엔드 장치는, 미리 설정된 잔여 성능 기준에 따라, 프런트 엔드 장치의 잔여 리소스를 대응하는 잔여 처리 성능값으로 변환하고, 잔여 처리 성능값을 마스터 장치에 보고한다.
단계(202): 마스터 장치는 잔여 처리 성능값이 미리 설정된 성능 임계값을 만족하는 장치를 슬레이브 장치로서 결정한다.
단계(203): 마스터 장치 및 슬레이브 장치는 리소스 풀을 형성한다.
이러한 구현 방식에서, 마스터 장치를 제외한 모든 프런트 엔드 장치는 자기의 잔여 리소스 상태를 마스터 장치에 보고할 필요가 있다. 구체적으로, 각 프런트 엔드 장치는, 자신의 미리 설정된 잔여 성능 기준에 따라, 자신의 잔여 리소스를 대응하는 성능의 값을 나타내는 데 사용되는 대응하는 잔여 처리 성능값으로 변환할 수 있고, 마스터 장치에 잔여 처리 성능값을 보고할 수 있다. 마스터 장치는 각 프런트 엔드 장치에 의해 보고된, 각 프런트 엔드 장치의 잔여 처리 성능 데이터 및 미리 설정된 성능 임계값을 비교하여, 잔여 처리 성능값이 미리 설정된 성능 임계값을 만족하는 장치를 슬레이브 장치로서 결정하고, 슬레이브 장치를 리소스 풀에 추가한다.
비디오 감시 장치는 일 예로서 사용된다. 비디오 감시 공통 관리 소프트웨어에 추가로, 분산 처리 관리 소프트웨어 또한 IPC에 배치되고, 로컬 장치의 리소스를 수집하고 보고 할 수 있는 소프트웨어(에이전트 모듈로 정의됨.)가 설치된다. 마스터 장치는 각 IPC 클러스터로부터 선택될 수 있고, 마스터 장치는 각 IPC의 잔여 리스에 대한 통계를 수집하는 데 사용될 수 있다. 또한, 마스터 장치는 IPC를 대신하여 외부-도메인 장치일 수 있고, 그것은 단지 장치 내의 통계 분석 모듈 설치만이 필요하다.
리소스 관리는 마스터 장치-슬레이브 방식을 채용한다. 에이전트 모듈은 로컬 장치의 잔여 리소스 정보의 수집과 마스터 장치에 보고에만 책임이 있다. 마스터 장치는 중앙에서 모든 리소스 장치를 관리하고, IPC를 리소스 풀에 추가하고, 리소스 풀에서 IPC를 제거하며, 서비스 할당에만 책임이 있다.
각 IPC의 에이전트 모듈은, 사용자 정의 잔여 성능 기준에 따라, IPC의 잔여 연산 성능(Ci)을 잔여 연산 성능값으로 변환하고, 유사하게, 잔여 메모리 성능을 값(Mo)으로 변환하며, 잔여 네트워크 대역폭 처리 성능을 값(Wp)으로 변환하고, 잔여 인코딩 성능을 값(Bj)으로 변환하며, 잔여 디코딩 성능을 값(Dk)으로 변환하고, 잔여 인크립션(encryption) 성능을 값(El)으로 변환하며, 잔여 디크립션(decryption) 성능을 값(DEm)으로 변환하고, 잔여 저장 성능을 값(Sq)으로 변환한다. 그 이후에 이러한 성능 데이터는 메시지 내에서 마스터 장치로 전송된다.
마스터 장치는 각 IPC 장치의 리소스 분산 상황에 따라 모델링을 수행하고, 관리할 수 있도록, 별도로 각 IPC 장치의 각 리소스, 예를 들어 연산 리소스 인코딩 및 디코딩 리소스, 저장 리소스, 인크립션 및 디크립션 리소스 상황의 리스트를 작성한다.
마스터 장치는, 연산된, 각 서비스 장치의 잔여 사용 가능한 성능 및 각 미리 설정된 성능 임계값을 비교함으로써, 서비스 장치를 리소스 풀에 추가할 것인지 결정한다. 규칙은 이하와 같다. 사용 가능한 잔여 성능이 성능 임계값보다 높으면, 서비스 장치는 리소스 풀에 추가될 수 있다. 구체적으로, 일단 하나의 성능 임계값이 만족하면, IPC는 리소스 풀에 추가될 수 있는 것으로 설정될 수 있다. 그러나 사용 가능한 모든 잔여 성능이 대응하는 성능 임계값보다 낮으면, IPC가 리소스 풀에 추가되는 것이 허용되지 않는다.
상이한 시나리오에서의 구성을 위해, 각 성능 임계값은 디폴트값에 의한 테스트 경험 값의 세트를 사용하거나, 일부 전형적인 값이 제공될 수 있다. 서비스 장치의 잔여 리소스 상태를 보고하기 위해, 서비스 장치는 마스터 장치에 고정된 간격으로 메시지를 전송하는 것으로 설정될 수 있다. 마스터 장치가 서비스 장치로부터 어떤 메시지도 수신하지 않는 경우, 마스터 장치는 리소스 풀에서 서비스 장치를 제거할 수 있다.
다음 리스트는 잔여 처리 성능을 연산하는 가능한 방식이다.
(1) 잔여 연산 성능(벤치마크 표준(benchmark standards) 내의 아이템을 사용하여 측정됨.): (1 - CPU%)*벤치마크(benchmark)
(2) 잔여 인코딩 및 디코딩 성능: (전체)코덱 프레임의 수량 - (사용된)코덱 프레임의 수량
(3) 잔여 인크립션 및 디크립션 성능: (전체)인크립션 프레임의 수량 - (사용된)인크립션 프레임 수량
(4) 잔여 저장 성능: (전체)저장 성능 프레임의 수량 - (사용된)저장 성능 프레임
(5) 잔여 네트워크 대역폭 처리 성능: (전체) 대역폭 - (사용된)대역폭
(6) 잔여 메모리 성능: (전체)메모리 - (사용된)메모리
성능 세트 레이어는, 마스터 장치에 배치되어 잔여 물리적 리소스가 논리 성능 리소스로 분류되고, 잔여 연산 성능 세트, 잔여 인코딩 및 디코딩 성능 세트, 잔여 인크립션 및 디크립션 성능 세트, 잔여 저장 세트, 잔여 네트워크 대역폭 성능 세트, 및 잔여 메모리 성능 세트 등을 포함할 수 있다. 성능 세트 레이어는, 다수의 IPC의 여러 잔여 성능 정보로부터 변환된 대응하는 잔여 성능값을 수집한다.
잔여 연산 성능의 사용의 예로서, 연산 성능 데이터는 이하의 수학식을 만족하는, 다수의 IPC 기반의 합 방식으로 획득된다.
Figure 112016048156869-pct00001
Nc는 n 개의 IPC 각각의 잔여 연산 성능을 나열함으로써 획득되는 잔여 연산 성능값이고, Ca는 연산 성능의 기준(기준으로서 하나의 프레임을 처리하기 위해 사용되는 연산 성능을 사용함)이며, Ci는 각 IPC에 의해 보고된 잔여 연산 성능이다.
상이한 서비스에 따라, 분석된 서비스에 의해 사용될 필요가 있는 각 성능 세트의 값 및 계산식은 이하의 수학식과 같다.
Figure 112016048156869-pct00002
Ca, Ba, Da, Ea, DEa, Sa, Ma, 및 Wa 각각은 각 성능의 잔여 성능 기준 값이다. 기준 값의 계수들은 성능이 사용되지 않는 것을 나타내는 0일 수 있다. 서비스에 의해 요구되는 각 성능은 수학식 2에 따른 차감에 의해 획득될 수 있다. 서비스에 의해 요구되는 각 성능의 공칭 값은 수학식 3에 따른 차감에 의해 획득될 수 있다.
또한, 리소스 풀의 서비스 성능은 이하의 수학식과 같다.
Figure 112016048156869-pct00003
Nc, Nb, ND,…. 는 나열 이후의 리소스 풀의 전체 성능값이고, i, j, k,…. 는 서비스를 완료하기 위해 사용될 필요가 있는 모든 대응하는 성능의 수량이다. Pn은 각 서비스 처리 성능이다. 이러한 방법으로, 각 서비스에 대해 리소스 풀 내에서 처리될 수 있는 비디오의 수량이 획득될 수 있다.
추가로, 마스터 장치는, 서비스에 의해 요구되는 여러 처리 성능에 따라, 서비스를 복수의 서브-서비스로 분할하고, 슬레이브 장치의 잔여 처리 성능에 따라, 복수의 서브-서비스를 완료하기 위해 사용될 필요가 있는 대응하는 처리 성능의 값을 할당하여 복수의 서브-서비스의 처리를 완료할 수 있다.
구체적으로, 마스터 장치는 대응하는 서브-서비스를 각 할당된 슬레이브 장치에 전송한다. 마스터 장치는 비디오 감시 시스템 내의 비디오 저장 모듈에 할당된 슬레이브 장치의 리스트 및, 리스트 내의 각 슬레이브 장치와 서브-서비스 사이의 할당 대응관계를 전송한다. 마스터 장치는 할당된 각 슬레이브 장치에 의해 보고된 처리 결과를 수신한다. 서브-서비스 처리를 위해 요구되는 비디오 스트림을 획득하도록, 할당된 각 슬레이브 장치는 비디오 데이터 획득 요청을 비디오 저장 모듈에 전송하고, 대응하는 비디오 처리를 수행하며, 처리 결과를 마스터 장치에 전송한다. 마지막으로, 마스터 장치는 할당된 각 슬레이브 장치에 의해 보고된 처리 결과를 합한다.
마스터 장치는 주로 리소스를 스케줄링하는 데 사용되며, 마스터 장치를 결정하는 것은 다양한 방식이 있을 수 있다는 것을 알 수 있다. 예를 들어, 처음 시작하는 장치가 마스터 장치로서 사용되고, 이러한 장치는 리소스 풀에 나중에 추가된 장치에 대한 리소스 스케줄링을 수행한다.
처리 과정에서, 마스터 장치가 예외 등에 의해 일시 중단되면, 리소스 풀의 유휴(idle) 슬레이브 장치들 중 하나가 선출 방식으로 재-선출되어 마스터 장치가 될 수 있다. 다수의 선출 방식이 존재하며, 본 발명의 실시예에서 구체적으로 제한하지 않는다. 당업자는 실제 어플리케이션 시나리오에 따라 구체적 설정을 수행할 수 있다. 예를 들어, 가장 높은 성능을 갖는 CPU가 마스터 장치로 선출될 수 있다.
또한, 장치 백업은 마스터 장치에 대해 수행될 수 있고, 핫 백업(hot backup) 또는 콜드 백업(cold backup)을 포함할 수 있다. 마스터 장치의 백업 횟수는 사용자에 의해 구성될 수 있다. 핫 백업이 수행될 때, 데이터는 동시에 백업 된다. 콜드 백업이 수행될 때, 마스터 장치가 데미지 또는 다른 이유로 중지하면, 콜드 백업 장치는 각 슬레이브 장치에 명령을 전송하여 리소스 정보 및 관리 리소스를 획득한다.
구체적 어플리케이션 시나리오에서, 리소스 풀의 저장 용량이 불충분한 경우를 피하기 위해, 저장 장치는 리소스 풀 내의 IPC 장치에 연결된 세트일 수 있고, 저장 장치는 리소스 풀에 직접 추가될 수 있거나 리소스 풀의 외부에 배치될 수 있다.
본 발명의 기술적 해결 수단의 이해를 돕기 위해, 구체적인 어플리케이션 시나리오를 사용하여 기술적 해결수단을 이하 상세히 설명한다.
제1 어플리케이션 시나리오는 IPC 트립와이어(tripwire) 탐지이다. 구체적 처리 과정은 도 3에 나타나 있다.
단계(301): 사용자는 클라이언트 유닛(CU)을 사용하여 트립와이어 탐지과정을 시작한다.
단계(302): 클라이언트 유닛(CU)은 트립와이어 탐지 서비스를 리소스 풀의 마스터 장치에 전달한다.
단계(303): 마스터 장치는 서비스의 크기 및 유형을 분석하고, 대응하는 슬레이브 장치의 수량을 계산하고 스케줄링 한다.
구체적으로, 마스터 장치는, 서비스에 의해 요청된 여러 처리 성능에 따라, 서비스를 복수의 서브-서비스로 분할할 수 있고, 그 후에 슬레이브 장치의 잔여 처리 성능 및 서비스를 완료하기 위해 사용될 필요가 있는 대응하는 각 성능의 값에 따라, 각 서브-서비스의 처리를 완료할 수 있는 슬레이브 장치를 할당한다. 그 후에 서브-서비스를 실행하는 슬레이브 장치에 대응하는 서브-서비스를 할당한다. 대응하는 성능은, 잔여 연산 성능, 잔여 인코딩 및 디코딩 성능, 잔여 인크립션 및 디크립션 성능, 잔여 저장 성능, 잔여 네트워크 대역폭 성능, 및 잔여 메모리 성능 등을 포함한다.
단계(304): 마스터 장치는 대응하는 서브-서비스를 대응하는 슬레이브 장치 내의 에이전트 모듈에 전송한다.
할당된 슬레이브 장치의 리소스 합이 모든 리소스의 합을 만족할 때까지, 리소스 요구사항을 만족하는 슬레이브 장치는 각 에이전트 모듈에 의해 보고되고 마스터 장치에 의해 유지된 리소스 리스트의 시퀀스 번호 순서로 할당되고, 이에 대응하여 슬레이브 장치는 그 다음 서비스 할당을 위해 슬레이브 장치의 리스트에서 제외된다.
단계(305): 서브-서비스를 수신하는 에이전트 모듈은 제어 처리 모듈에 의해 처리될 필요가 있는 서브-서비스를 IPC 내의 제어 처리 모듈에 전송한다.
단계(306): IPC가 비디오 저장 모듈에 접근하고 요청된 비디오 데이터를 획득하도록, 마스터 장치는 서비스를 실행하는 슬레이브 장치 리스트 및, 리스트 내의 각 슬레이브 장치와 서브-서비스 사이의 할당 대응관계를 비디오 저장 모듈에 보고한다.
단계(307): IPC는 제어 모듈을 사용하여, 비디오 데이터 획득 요청을 비디오 저장 모듈에 전송하여 서브-서비스 처리를 위해 요구된 비디오 스트림을 획득한다.
단계(308): 비디오 저장 모듈은 대응하는 비디오 스트림 IPC의 제어 모듈에 전송한다.
구체적으로, 제어 모듈은 시간대별로 비디오 스트림을 대응하는 서비스 장치로 운반한다.
단계(309): 제어 모듈은 비디오 스트림을 수신하고, 비디오 처리를 수행한다.
단계(310): 제어 모듈은 처리 결과(알람 정보, 분석 결과 등을 포함함)를 에이전트 모듈에게 전송한다.
단계(311): 에이전트 모듈은 IPC의 처리 결과를 마스터 장치에 보고한다.
단계(312): 마스터 장치는 각 IPC에 의해 보고된 처리 결과를 합한다.
마스터 장치는 처리 결과 내에서 운반된 비디오 시간대 순서에 따라 처리 결과의 순서를 유지할 수 있다.
단계(313): 마스터 장치는 요약 정보를 클라이언트 유닛(CU)에 보고한다.
단계(314): 사용자가 클라이언트 유닛을 사용하여 트립와이어 탐지를 볼 때, 비디오 스트림 획득 요청이 비디오 저장 모듈로 전송된다.
단계(315): 비디오 저장 모듈은 요청된 비디오 스트림을 클라이언트 유닛에 전송한다.
단계(316): 클라이언트 유닛은 비디오 스트림을 획득하고, 비디오 스트림 및 마스터 장치에 의해 보고된 트레일(trail)과 같은 알람 데이터를 사용하여 이미지 어셈블리(image assembly)를 수행한다.
단계(317): 클라이언트 유닛은 어셈블리 결과를 표시한다.
전술한 실행 과정에서, 각 서비스에 대한 리소스 풀 내에서 처리될 수 있는 비디오의 수량, 즉, Pn에 따라, 비디오의 수량이 Pn 보다 적은, 제공된 스트림은 각 서비스에 대한 리소스 풀 내에서 처리될 수 있다. IPC 리소스가 리소스 풀에서 제거될 때, 마스터 장치는 다른 IPC 리소스 장치를 스케줄링하고 새롭게 추가된 리소스 장치에 비디오 스트림을 재전송할 책임이 있다. 비디오 스트림이 수신될 때 발생하는 중단을 피하기 위해, 실시간 비디오 리소스에 대한 실시간 스트림은 일시적으로 메모리에 저장될 필요가 있고, 지속 기간은 마스터 장치에 의해 통지될 수 있다. 지속 기간은 보통 리소스의 최대 기간이다. 따라서, 새롭게 추가된 IPC에 전송된 비디오 스트림의 일부를 전송하기 위해, 전송된 비디오 스트림의 일부의 데이터는 메모리 버퍼로부터 전송될 수 있다.
다른 어플리케이션 시나리오는 IPC를 사용하는 비디오 다이제스트 분석(video digest analysis)이다. 구체적 처리 과정은 도 4에 나타나 있다.
단계(401): 사용자는 사용자 클라이언트(CU)를 사용하여 비디오 다이제스트 분석 과정을 시작한다.
단계(402): 클라이언트 유닛(CU)은 리소스 풀의 마스터 장치에 비디오 다이제스트 분석 서비스를 운반한다.
단계(403): 마스터 장치는 서비스의 크기 및 유형을 분석하고, 대응하는 슬레이브 장치의 수량을 계산하고 스케줄링한다.
유사하게, 마스터 장치는 서비스에 의해 요청된 여러 처리 성능에 따라, 서비스를 복수의 서브-서비스로 분할하고, 그 후, 슬레이브 장치의 잔여 처리 성능 및 서비스를 완료하기 위해 사용될 필요가 있는 대응하는 성능의 수량에 따라, 각 서브-서비스의 처리를 완료할 수 있는 슬레이브 장치를 할당할 수 있다. 그 후, 서브-서비스를 실행하는 슬레이브 장치에 대응하는 서브-서비스를 할당할 수 있다. 대응하는 성능은 잔여 연산 성능, 잔여 저장 성능, 잔여 네트워크 대역폭 성능, 잔여 메모리 성능등을 포함한다.
단계(404): 마스터 장치는 대응하는 서브-서비스를 대응하는 슬레이브 장치의 에이전트 모듈에 전송한다.
단계(405): 서브-서비스를 수신한 에이전트 모듈은 IPC 내의 제어 모듈에서 처리될 필요가 있는 서브-서비스를 IPC 내의 제어 모듈로 전송한다.
단계(406): IPC가 비디오 저장 모듈에 접속하고 요청된 비디오 데이터를 획득하도록, 마스터 장치는 서비스를 실행하는 슬레이브 장치의 리스트 및 각 슬레이브 장치와 서브-서비스 사이의 할당 대응관계를 비디오 저장 모듈에 보고한다.
단계(407): IPC는, 제어 모듈을 사용하여, 비디오 데이터 획득 요청을 비디오 저장 모듈에 전송하여 서브-서비스에 의해 요청된 비디오 스트림을 획득한다.
단계(408): 비디오 저장 모듈은 대응하는 비디오 스트림을 IPC의 제어 모듈에 전송한다.
단계(409): 제어 모듈은 비디오 스트림을 수신하고 비디오 다이제스트 분석 처리를 수행한다.
단계(410): 제어 모듈은 비디오 다이제스트 분석 결과를 에이전트 모듈에 전송한다.
단계(411): 제어 모듈은 비디오 다이제스트 분석 결과를 비디오 저장 모듈에 저장한다.
단계(412): 에이전트 모듈은 IPC의 비디오 다이제스트 분석 결과를 마스터 장치에 보고한다.
단계(413): 마스터 장치는 각 IPC에 의해 보고된 비디오 다이제스트 분석 결과를 합한다.
단계(414): 마스터 장치는 비디오 다이제스트 요약 정부를 클라이언트 유닛에 보고한다.
단계(415): 클라이언트 유닛을 사용하여, 사용자가 비디오 다이제스트를 볼 때, 비디오 다이제스트 휙득 요청은 비디오 저장 모듈에 전송된다.
단계(416): 비디오 저장 모듈은 요청된 비디오 다이제스트 스트림을 클라이언트 유닛에 전송한다.
전술한 어플리케이션 시나리오에서, IPC 리소스 풀은 세트이고 IPC는 리소스 불 내에서 마스터 장치 및 슬레이브 장치로 구분된다. 서비스 처리 요청을 수신한 때, 마스터 장치로서 서브하는 IPC는, 서비스에 의해 요청된 리소스 및 리소스 풀에서 슬레이브 장치로서 서브하는 각 IPC이 잔여 리소스에 따라, 서비스에 의해 요청된 리소스를 만족하는 슬레이브 장치를 결정하여, 마스터 장치는 처리를 위해 대응하는 슬레이브 장치에 서비스를 할당할 수 있다. 프런트 엔드 IPC 장치의 잔여 리소스는 리소스 풀을 세팅함으로써 충분히 사용될 수 있고, 슬레이브 장치 IPC는 서비스 처리 동작을 수행하기 휘 애 잔여 리소스를 사용한다. 이러한 방식으로 서비스 동작을 수행하는 시스템 백 엔드 서버는 별도로 배치될 필요가 없고, 시스템 백 엔드 서버의 처리가 취소되므로 분산 시스템의 구조는 단순화될 수 있다.
구체적 구현 과정에서, 마스터 장치가, 프런트 엔드 장치 내에 있으면서, 잔여 리소스가 미리 설정된 임계값을 만족하는 장치를 슬레이브 장치로서 결정하는 것을 구현하는 동작은 이하를 포함한다.
각 프런트 엔드 장치에 의해, 미리 설정된 잔여 성능 기준에 따라, 프런트 엔드 장치의 잔여 리소스를 대응하는 잔여 처리 성능값으로 변환하고, 잔여 처리 성능값을 마스터 장치에 보고하는 것, 마스터 장치에 의해, 잔여 처리 성능값이 미리 설정된 성능 임계값을 만족하는 장치를 슬레이브 장치로서 결정하는 것, 및 마스터 장치 및 슬레이브 장치를 사용하여 리소스 풀을 형성하는 것을 포함한다.
전술한 구현 방식에서, 마스터 장치를 제외한 모든 프런트 엔드 장치는 자신의 잔여 리소스 상태를 마스터 장치에 보고할 필요가 있다. 구체적으로, 각 프런트 엔드 장치는, 자신의 미리 설정된 잔여 성능 기준에 따라, 자신의 잔여 리소스를 대응하는, 성능의 값을 나타내기 위해 사용되는 잔여 처리 성능값으로 변환하고, 잔여 처리 성능값을 마스터 장치에 보고할 수 있다. 마스터 장치는 각 프런트 엔드 장치의, 각 프런트 엔드 장치에 의해 보고된 잔여처리 성능 데이터와 미리 설정된 성능 임계값을 비교하고, 미리 설정된 성능 임계값을 슬레이브 장치로서 만족하는 잔여 처리 성능을 갖는 프런트 엔드 장치를 결정하여 리소스 풀에 슬레이브 장치를 추가한다.
추가로, 마스터 장치는 서비스에 의해 요청된 여러 처리 성능에 따라, 서비스를 복수의 서브-서비스로 분할하고, 슬레이브 장치의 잔여 처리 성능 및 복수의 서브-서비스를 완료하기 위해 사용될 필요가 있는 대응하는 처리 성능의 값에 따라, 대응하는 슬레이브 장치의 수량을 할당하여 복수의 서브-서비스 처리를 완료한다.
그 이후에, 마스터 장치는 대응하는 서브-서비스를 할당된 각 슬레이브 장치에 전송한다. 마스터 장치는 비디오 감시 시스템 내의 비디오 저장 모듈에 할당된 슬레이브 장치의 리스트 및, 리스트 내의 각 슬레이브 장치와 서브-서비스 사이의 할당 대응관계를 비디오 감시 시스템 내의 비디오 저장 모듈에 전송한다. 마스터 장치는 할당된 각 슬레이브 장치에 의해 보고된 처리 결과를 수신한다. 할당된 각 슬레이브 장치는 서브-서비스 처리를 위해 요청된 비디오 스트림을 획득하도록, 비디오 데이터 획득 요청을 비디오 저장 모듈에 전송하고, 대응하는 비디오 처리를 수행하며, 마스터 장치에 처리 결과를 전송한다. 마지막으로, 마스터 장치는 할당된 각 슬레이브 장치에 의해 보고된 처리 결과를 합한다.
비디오 감시 시스템은 예로서 사용된다. 비디오 감시를 위한 공통 관리 소프트웨어에 추가로, 비디오 감시 시스템이 전술한 서비스 처리 시스템의 기술적 해결 수단을 사용할 때, 또한, 분산 처리 관리 소프트웨어는 IPC에 배치되고, 로컬 장치의 리소스를 수집하고 보고할 수 있는 소프트웨어(에이전트 모듈로 정의됨.)가 설치된다. 마스터 장치는 각 IPC 클러스터(cluster)로부터 선택될 수 있고, 마스터 장치는 각 IPC의 잔여 리소스에 대한 통계를 수집하는데 사용된다. 또한, 마스터 장치는 IPC를 대신하여 외부-도메인 장치일 수 있고, 그것은 단지 장치 내의 통계 분석 모듈 설치만이 필요하다.
리소스 관리는 마스터 장치-슬레이브 방식을 채용한다. 에이전트 모듈은 로컬 장치의 잔여 리소스 정보의 수집과 마스터 장치에 보고에만 책임이 있다.
각 IPC의 에이전트 모듈은, 사용자 정의 잔여 성능 기준에 따라, IPC의 잔여 연산 성능(Ci)을 잔여 연산 성능값으로 변환하고, 유사하게, 잔여 메모리 성능을 값(Mo)으로 변환하며, 잔여 네트워크 대역폭 처리 성능을 값(Wp)으로 변환하고, 잔여 인코딩 성능을 값(Bj)으로 변환하며, 잔여 디코딩 성능을 값(Dk)으로 변환하고, 잔여 인크립션(encryption) 성능을 값(El)으로 변환하며, 잔여 디크립션(decryption) 성능을 값(DEm)으로 변환하고, 잔여 저장 성능을 값(Sq)으로 변환한다. 그 이후에 이러한 성능 데이터는 메시지 내에서 마스터 장치로 전송된다.
마스터 장치는 각 IPC 장치의 리소스 분산 상황에 따라 모델링을 수행하고, 관리할 수 있도록, 별도로 각 IPC 장치의 각 리소스, 예를 들어 연산 리소스 인코딩 및 디코딩 리소스, 저장 리소스, 인크립션 및 디크립션 리소스 상황의 리스트를 작성한다.
마스터 장치는, 연산된, 각 서비스 장치의 잔여 사용 가능한 성능 및 각 미리 설정된 성능 임계값을 비교함으로써, 서비스 장치를 리소스 풀에 추가할 것인지 결정한다. 규칙은 이하와 같다. 사용 가능한 잔여 성능이 성능 임계값보다 높으면, 서비스 장치는 리소스 풀에 추가될 수 있다. 구체적으로, 일단 하나의 성능 임계값이 만족하면, IPC는 리소스 풀에 추가될 수 있는 것으로 설정될 수 있다. 그러나 사용 가능한 모든 잔여 성능이 대응하는 성능 임계값보다 낮으면, IPC가 리소스 풀에 추가되는 것이 허용되지 않는다.
상이한 시나리오에서의 구성을 위해, 각 성능 임계값은 디폴트값에 의한 테스트 경험 값의 세트를 사용하거나, 일부 전형적인 값이 제공될 수 있다. 서비스 장치의 잔여 리소스 상태를 보고하기 위해, 서비스 장치는 마스터 장치에 고정된 간격으로 메시지를 전송하는 것으로 설정될 수 있다. 마스터 장치가 서비스 장치로부터 어떤 메시지도 수신하지 않는 경우, 마스터 장치는 리소스 풀에서 서비스 장치를 제거할 수 있다.
마스터 장치는 주로 리소스를 스케줄링하는 데 사용되며, 마스터 장치를 결정하는 것은 다양한 방식이 있을 수 있다는 것을 알 수 있다. 예를 들어, 처음 시작하는 장치가 마스터 장치로서 사용되고, 이러한 장치는 리소스 풀에 나중에 추가된 장치에 대한 리소스 스케줄링을 수행한다.
처리 과정에서, 마스터 장치가 예외 등에 의해 일시 중단되면, 리소스 풀의 유휴(idle) 슬레이브 장치들 중 하나가 선출 방식으로 재-선출되어 마스터 장치가 될 수 있다. 복수의 선출 방식이 존재하며, 본 발명의 실시예에서 구체적으로 제한하지 않는다. 당업자는 실제 어플리케이션 시나리오에 따라 구체적 설정을 수행할 수 있다. 예를 들어, 가장 높은 성능을 갖는 CPU가 마스터 장치로 선출될 수 있다.
또한, 장치 백업은 마스터 장치에 대해 수행될 수 있고, 핫 백업(hot backup) 또는 콜드 백업(cold backup)을 포함할 수 있다. 마스터 장치의 백업 횟수는 사용자에 의해 구성될 수 있다. 핫 백업이 수행될 때, 데이터는 동시에 백업 된다. 콜드 백업이 수행될 때, 마스터 장치가 데미지 또는 다른 이유로 중지하면, 콜드 백업 장치는 각 슬레이브 장치에 명령을 전송하여 리소스 정보 및 관리 리소스를 획득한다.
본 발명은 추가로 비디오 감시 시스템에 적용되는 비디오 감시 프런트 엔드 장치의 실시예를 제공하고, 비디오 감시 프런트 엔드 장치는 구체적으로, 비디오 캡처 유닛, 수신 유닛, 잔여 리소스 피드백 유닛, 슬레이브 장치 결정 유닛, 및 처리 유닛을 포함한다.
비디오 캡처 유닛은 비디오 데이터를 캡처하도록 구성된다.
수신 유닛은 비디오 감시 프런트 엔드 장치가 마스터장치일 때, 서비스 처리 요청을 수신하고, 비디오 감시 프런트 엔드 장치가 슬레이브 장치일 때, 마스터 장치에 의해 할당된 서비스를 수신하도록 구성된다.
잔여 리소스 피드백 유닛은 비디오 감시 프런트 엔드 장치의 잔여 리소스를 마스터 장치에 전송하도록 구성된다.
슬레이브 장치 결정 유닛은 비디오 감시 프런트 엔드 장치가 마스터 장치 일 때, 프런트 엔드 장치 내에 있으면서, 잔여 리소스가 미리 설정된 임계값을 만족하는 장치를 슬레이브 장치로서 결정하도록 구성된다.
처리 유닛은 비디오 감시 프런트 엔드 장치가 마스터장치일 때, 서비스 처리 요청에 따라, 서비스에 의해 요청된 리소스를 결정하고, 리소스 풀 내의 각 슬레이브 장치의 잔여 리소스에 따라, 서비스에 의해 요청된 리소스를 만족하는 슬레이브 장치를 결정하며, 처리를 위해 서비스를 대응하는 슬레이브 장치에 할당한다. 처리 유닛은 비디오 감시 프런트 엔드 장치가 슬레이브 장치 일 때, 마스터 장치에 의해 할당된 서비스를 처리한다.
마스터 장치는 비디오 감시 프런트 엔드 장치이고, 마스터 장치 및 슬레이브 장치는 리소스 풀을 형성한다.
전술한 비디오 감시 프런트 엔드 장치가 적용될 때, 마스터 장치는 프런트 엔드 장치로부터 결정되고, 마스터 장치는 프런트 엔드 장치 내에 있으면서, 잔여 리소스가 미리 설정된 임계값을 만족하는 장치를 슬레이브 장치로서 결정한다. 그 이후에, 마스터 장치 및 슬레이브 장치는 리소스 풀을 형성한다. 서비스 처리 요청을 수신한 때, 마스터 장치는, 서비스에 의해 요청된 리소스 및 리소스 풀 내의 각 슬레이브 장치의 잔여 리소스에 따라, 서비스에 의해 요청된 리소스를 만족하는 슬레이브 장치를 결정하여, 마스터 장치는 처리를 위해 대응하는 슬레이브 장치에 서비스를 할당할 수 있다. 프런트 엔드 IPC 장치의 잔여 리소스는 리소스 풀을 세팅함으로써 충분히 사용될 수 있고, 슬레이브 장치 IPC는 서비스 처리 동작을 수행하기 휘 애 잔여 리소스를 사용한다. 이러한 방식으로 서비스 동작을 수행하는 시스템 백 엔드 서버는 별도로 배치될 필요가 없고, 시스템 백 엔드 서버의 처리가 취소되므로 분산 시스템의 구조는 단순화될 수 있다.
구체적으로, 잔여 리소스 피드백 유닛의 구체적 구현 방식은, 미리 설정된 잔여 성능 기준에 따라, 프런트 엔드 장치의 잔여 리소스를 대응하는 잔여 처리 성능값으로 변환하는 것 및 잔여 처리 성능값을 마스터 장치의 슬레이브 장치 결정 유닛에 보고하는 것으로 구현되고, 마스터 장치의 슬레이브 장치 결정 유닛은 각 비디오 프런트 엔드 장치에 의해 보고된 잔여 처리 성능값을 수신하고, 잔여 처리 성능값이 미리 설정된 성능 임계값을 만족하는 장치를 슬레이브 장치로서 결정하도록 구성된 것이다.
비디오 감시 프런트 엔드 장치가 마스터장치일 때, 처리 유닛의 구체적 구현 방식은 이하의 동작을 포함한다.
서비스에 의해 요청된 여러 처리 성능에 따라, 서비스를 복수의 서브-서비스로 분할하는 것, 슬레이브 장치의 잔여 처리 성능 및 복수의 서브-서비스를 완료하기 위해 사용될 필요가 있는 대응하는 처리 성능에 따라 복수의 서브-서비스를 완료하기 위해 대응하는 슬레이브 장치의 수량을 결정하는 것, 비디오 감시 시스템 내의 비디오 저장 모듈에 할당된 슬레이브 장치의 리스트 및, 리스트 내의 슬레이브 장치와 버스-서비스 사이의 할당 대응관계를 비디오 감시 시스템 내의 비디오 저장 모듈에 전송하는 것, 할당된 각 슬레이브 장치로부터 보고된 처리 결과를 수신하는 것, 및 할당된 각 슬레이브 장치에 의해 보고된 처리 결과를 합하는 것을 포함한다. 각 할당된 슬레이브 장치는, 비디오 데이터 획득 요청을 비디오 저장 모듈에 전송하여, 서브-서비스 처리를 위해 요청된 비디오 스트림을 획득하고 대응하는 비디오 처리를 수행하고, 처리 결과를 마스터 장치에 전송한다.
또한, 비디오 감시 프런트 엔드 장치가 마스터장치일 때, 처리 유닛은 추가로, 슬레이브 장치의 잔여 처리 성능값이 미리 설정된 성능 임계값보다 낮다고 결정될 때, 리소스 풀에서 그 슬레이브 장치를 제거하도록 구성된다.
비디오 감시 프런트 엔드 장치가 마스터장치일 때, 처리 유닛은, 추가로, 마스터 장치가 결함이 있을 때, 슬레이브 장치로부터 유휴(idle) 슬레이브 장치를 재선택하고, 선택된 슬레이브 장치를 마스터 장치로서 사용하도록 구성된다.
당업자는 본 명세서에 설명된 실시 예에 기재된 실시예와 함께, 유닛 및 알고리즘 단계가 전자 하드웨어, 컴퓨터 소프트웨어, 전자 하드웨어의 조합으로 구현될 수 있다는 것을 알 수 있다. 기능이 하드웨어 또는 소프트웨어에 의해 수행되는지는 특정 응용 프로그램 및 기술적 해결 수단의 설계 제약 조건에 따라 달라진다. 당업자는 각각의 구체적 어플리케이션에 대해 설명된 기능을 실현하기 위해 다른 방법을 사용할 수 있지만, 이러한 구현은 본 발명의 범위를 넘어서는 것으로 간주하여서는 안된다.
편리하고 간단한 설명의 목적으로, 전술 한 시스템, 장치 및 유닛의 상세한 동작 프로세스, 기준이 전술한 실시예의 방법에 대응하는 프로세스로 제작될 수 있다는 것은 당업자에 의해 분명히 이해될 수 있다. 상세한 사항은 다시 설명하지 않는다.
본 발명에서 제공되는 여러 실시 예에서, 개시된 시스템, 장치 및 방법은 다른 방식으로 구현될 수 있다는 것을 이해해야 한다. 예를 들어, 설명된 장치의 실시예는 단지 예시이다. 예를 들어, 유닛 부문은 단순히 논리적 기능 부문이며, 실제 구현에서 다른 부분일 수 있다. 예를 들어, 복수의 유닛 또는 구성 요소가 결합 되거나 다른 시스템에 통합될 수 있고, 일부 기능은 무시되거나 수행되지 않을 수 있다. 또한, 표시되거나 논의된, 상호 커플 링, 직접 커플 링, 또는 통신 접속은 어떤 인터페이스를 사용하여 구현될 수 있다. 장치들 또는 유닛들 간의 간접 커플 링 또는 통신 접속은 전자 기계적 또는 다른 형태로 구현될 수 있다.
별도의 부분으로서 설명된 유닛 또는 물리적으로 분리되거나 분리되지 않을 수 있고, 유닛으로 표시된 부분은 물리적 유닛이거나 유닛이 아닐 수 있고, 하나의 위치에 위치하거나 복수의 네트워크 유닛에 분산 위치할 수 있다. 유닛의 일부 또는 전부는 실시 예의 기술적 해결수단의 목적을 달성하기 위한 실제의 요구에 따라 선택될 수 있다.
또한, 본 발명의 실시예에서 기능 유닛은 하나의 프로세싱 유닛에 통합될 수도 있고, 각 유닛은 단독으로 물리적으로 존재할 수 있으며, 2개 이상의 유닛이 하나의 유닛으로 통합될 수 있다.
기능이 소프트웨어 기능 유닛의 형태로 구현되어 판매되거나 독립 제품으로 사용되는 경우, 기능은 컴퓨터 판독 가능한 기억 매체에 저장될 수 있다. 이러한 이해를 바탕으로, 본질적으로, 본 발명이나 종래 기술에 기여하는 부분의 기술적 해결 수단 또는 기술적 해결 수단의 일부는 소프트웨어 제품의 형태로 구현될 수 있다. 컴퓨터 소프트웨어 제품은 저장 매체에 저장되고, 컴퓨터 장치(개인용 컴퓨터, 서버, 또는 네트워크 장치일 수 있다.) 또는 프로세서가 본 발명의 실시예에서 설명된 방법의 단계 중 일부 또는 전부를 수행하도록 지시하는 여러 가지 명령을 포함한다. 전술한 기억 매체는 USB 플래시 드라이브, 이동식 하드 디스크, ROM( Read-Only Memory), RAM(Random Access Memory), 자기 디스크, 광디스크 등과 같은, 프로그램 코드를 저장할 수 있는 모든 매체를 포함한다.
전술 한 설명은 단지 본 발명의 특정 구현 방식이지만, 본 발명의 보호 범위를 제한하고자 하는 것은 아니다. 본 발명에 기재된 기술적 범위 내에서 당업자에게 쉽게 파악되는 모든 변형 또는 교체는 본 발명의 보호 범위 내에 포함한다. 따라서, 본 발명의 보호 범위는 특허 청구 범위의 보호 범위에 따른다.

Claims (17)

  1. 비디오 감시 시스템에 적용되는 서비스 처리 방법으로서,
    상기 비디오 감시 시스템은 마스터 장치와 복수의 슬레이브 장치를 포함하고, 상기 마스터 장치와 상기 복수의 슬레이브 장치는 리소스 풀(resource pool)을 형성하며, 상기 서비스 처리 방법은,
    리소스 풀 내의 마스터 장치에 의해, 서비스 처리 요청을 수신하는 단계;
    상기 마스터 장치에 의해, 서비스에 의해 요청된 리소스를 결정하고, 상기 리소스 풀 내의 각 슬레이브 장치의 잔여 리소스에 따라, 상기 서비스에 의해 요청된 리소스를 만족하는 슬레이브 장치를 결정하는 단계; 및
    상기 마스터 장치에 의해, 처리를 위해 대응하는 슬레이브 장치에 상기 서비스를 할당하는 단계
    를 포함하고,
    상기 마스터 장치에 의해, 상기 서비스에 의해 요청된 리소스를 결정하고, 리소스 풀 내의 각 슬레이브 장치의 잔여 리소스에 따라, 서비스에 의해 요청된 리소스를 만족하는 슬레이브 장치를 결정하는 단계는,
    상기 마스터 장치에 의해, 상기 서비스에 의해 요청된 여러 처리 성능에 따라, 상기 서비스를 복수의 서브-서비스로 분할하고, 상기 슬레이브 장치의 잔여 처리 성능 및 상기 복수의 서브-서비스를 완료하기 위해 사용될 필요가 있는 대응하는 처리 성능의 값에 따라, 상기 복수의 서브-서비스의 처리를 완료하기 위해 대응하는 수량의 슬레이브 장치를 할당하는 단계를 포함하는,
    서비스 처리 방법.
  2. 제1항에 있어서,
    비디오 감시 프런트 엔드 장치인 마스터 장치가, 비디오 감시 프런트 엔드 장치들 중에서 잔여 리소스가 미리 설정된 임계값을 만족하는 하나의 장치를 슬레이브 장치로 결정하는 단계를 더 포함하는 서비스 처리 방법.
  3. 제2항에 있어서,
    상기 비디오 감시 프런트 엔드 장치인 마스터 장치가, 비디오 감시 프런트 엔드 장치들 중에서 잔여 리소스가 미리 설정된 임계값을 만족하는 하나의 장치를 슬레이브 장치로 결정하는 단계가,
    각 프런트 엔드 장치에 의해, 미리 설정된 잔여 성능 기준에 따라, 상기 프런트 엔드 장치의 잔여 리소스를 대응하는 잔여 처리 성능값으로 변환하고, 상기 잔여 처리 성능값을 상기 마스터 장치에 보고하는 단계;
    상기 마스터 장치에 의해, 잔여 처리 성능값이 미리 설정된 성능 임계값을 만족하는 장치를 상기 슬레이브 장치로서 결정하는 단계; 및
    상기 마스터 장치 및 상기 슬레이브 장치를 사용하여 상기 리소스 풀을 형성하는 단계
    를 포함하는, 서비스 처리 방법.
  4. 제1항에 있어서,
    상기 마스터 장치에 의해, 처리를 위해 상기 대응하는 슬레이브 장치에 서비스를 할당하는 단계는,
    상기 마스터 장치에 의해, 대응하는 서브-서비스를 할당된 각 슬레이브 장치에 전송하는 단계;
    상기 마스터 장치에 의해, 상기 비디오 감시 시스템 내의 비디오 저장 모듈로 상기 할당된 슬레이브 장치의 리스트, 및 상기 리스트 내의 각 슬레이브 장치와 상기 서브-서비스 사이의 할당 대응관계를 전송하는 단계;
    상기 마스터 장치에 의해, 할당된 각 슬레이브 장치에 의해 보고된 처리 결과를 수신하는 단계-상기 할당된 각 슬레이브 장치는 비디오 데이터 획득 요청을 상기 비디오 저장 모듈에 전송하여 상기 서브-서비스 처리를 위해 요청된 비디오 스트림을 획득하고, 대응하는 비디오 처리를 수행하며, 상기 처리 결과를 상기 마스터 장치에 전송함-; 및
    상기 마스터 장치에 의해, 할당된 각 슬레이브 장치에 의해 보고된 상기 처리 결과를 합하는 단계를 포함하는,
    서비스 처리 방법.
  5. 제3항에 있어서,
    상기 마스터 장치가 상기 슬레이브 장치의 각 잔여 처리 성능값이 상기 미리 설정된 성능 임계값보다 작은 것으로 결정한 경우, 상기 리소스 풀에서 상기 슬레이브 장치를 제거하는 단계를 더 포함하는 서비스 처리 방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 마스터 장치가 결함이 있을 때, 상기 슬레이브 장치로부터 유휴(idle) 슬레이브 장치를 재선택하고, 상기 선택된 슬레이브 장치를 마스터 장치로서 사용하는 단계를 더 포함하는 서비스 처리 방법.
  7. 비디오 감시 시스템으로서,
    상기 비디오 감시 시스템은 마스터 장치와 복수의 슬레이브 장치를 포함하고, 상기 마스터 장치와 상기 복수의 슬레이브 장치는 리소스 풀(resource pool)을 형성하며, 상기 마스터 장치는,
    비디오 데이터를 캡처하도록 구성된 비디오 캡처 유닛;
    서비스 처리 요청을 수신하도록 구성된 수신 유닛; 및
    상기 서비스 처리 요청에 따라, 상기 서비스에 의해 요청된 리소스를 결정하고, 리소스 풀 내의 각 슬레이브 장치의 잔여 리소스에 따라, 상기 서비스에 의해 요청된 리소스를 만족하는 슬레이브 장치를 결정하며, 처리를 위해 상기 서비스에 대응하는 상기 슬레이브 장치를 할당하고, 상기 비디오 감시 프런트 엔드 장치가 상기 슬레이브 장치 일 때, 상기 마스터 장치에 의해 할당된 상기 서비스를 처리하도록 구성된 처리 유닛
    을 포함하고,
    상기 처리 유닛은 구체적으로, 상기 서비스에 의해 요청된 여러 처리 성능에 따라, 상기 서비스를 복수의 서브-서비스로 분할하고, 상기 슬레이브 장치의 잔여 처리 성능 및 상기 복수의 서브-서비스를 완료하기 위해 사용될 필요가 있는 대응하는 처리 성능의 값에 따라, 상기 복수의 서브-서비스의 처리를 완료하기 위해 대응하는 수량의 슬레이브 장치를 할당하며, 각각의 할당된 슬레이브 장치에 대응하는 서브-서비스를 송신하도록 구성되며,
    각각의 슬레이브 장치는,
    비디오 데이터를 캡처하도록 구성된 비디오 캡처 유닛;
    다른 비디오 감시 프런트 엔드 장치인 마스터 장치에 의해 할당되는 서비스를 수신하도록 구성된 수신 유닛;
    상기 다른 비디오 감시 프론트 엔드 장치인 마스터 장치에 의해 할당되는 서비스를 처리하도록 구성된 처리 유닛; 및
    상기 다른 비디오 감시 프런트 엔드 장치인 마스터 장치에 잔여 리소스를 송신하도록 구성된 잔여 리소스 피드백 유닛
    을 포함하는, 비디오 감시 시스템.
  8. 제7항에 있어서,
    상기 잔여 리소스 피드백 유닛은 구체적으로,
    미리 설정된 잔여 성능 기준에 따라, 상기 비디오 감시 프런트 엔드 장치의 잔여 리소스를 대응하는 잔여 처리 성능값으로 변환하고,
    상기 잔여 처리 성능값을 상기 다른 비디오 감시 프론트 엔트 장치인 마스터 장치의 슬레이브 장치 결정 유닛에 보고하는 것을 포함하고,
    상기 마스터 장치의 슬레이브 장치 결정 유닛은 잔여 처리 성능값이 미리 설정된 성능 임계값을 만족하는 프런트 엔드 장치를 슬레이브 장치로서 결정하도록 구성된, 비디오 감시 시스템.
  9. 제7항에 있어서,
    상기 마스터 장치의 처리 유닛은 구체적으로,
    상기 비디오 감시 시스템 내의 비디오 저장 모듈에 상기 할당된 슬레이브 장치의 리스트, 및 상기 리스트 내의 각 슬레이브 장치와 상기 서브-서비스 사이의 할당 대응관계를 전송하고,
    할당된 각 슬레이브 장치에 의해 보고된 처리 결과를 수신하며 - 상기 할당된 각 슬레이브 장치는 상기 비디오 저장 모듈에 비디오 데이터 획득 요청을 전송하여 서브-서비스 처리를 위해 요청된 비디오 스트림을 획득하고, 대응하는 비디오 처리를 수행하며, 상기 마스터 장치에 상기 처리 결과를 전송함 -,
    할당된 각 슬레이브 장치에 의해 보고된 상기 처리 결과를 합하도록 추가로 구성되는,
    비디오 감시 시스템.
  10. 제8항에 있어서,
    상기 마스터 장치의 처리 유닛은, 추가로,
    상기 슬레이브 장치의 각 잔여 처리 성능값이 상기 미리 설정된 임계값보다 낮은 것으로 결정될 때, 상기 슬레이브 장치를 상기 리소스 풀에서 제거하도록 구성된, 비디오 감시 시스템.
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
KR1020167013280A 2013-10-29 2014-10-29 서비스 처리 방법, 시스템 및 장치 KR101910537B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201310526368.7 2013-10-29
CN201310526368.7A CN104580338B (zh) 2013-10-29 2013-10-29 一种业务处理方法、系统及设备
PCT/CN2014/089759 WO2015062492A1 (zh) 2013-10-29 2014-10-29 一种业务处理方法、系统及设备

Publications (2)

Publication Number Publication Date
KR20160073409A KR20160073409A (ko) 2016-06-24
KR101910537B1 true KR101910537B1 (ko) 2018-10-22

Family

ID=53003355

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167013280A KR101910537B1 (ko) 2013-10-29 2014-10-29 서비스 처리 방법, 시스템 및 장치

Country Status (6)

Country Link
US (2) US10805231B2 (ko)
EP (1) EP3048774B1 (ko)
JP (1) JP6239107B2 (ko)
KR (1) KR101910537B1 (ko)
CN (1) CN104580338B (ko)
WO (1) WO2015062492A1 (ko)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9467507B2 (en) * 2011-01-03 2016-10-11 Verizon Patent And Licensing Inc. Wireless network cloud computing resource management
US10120904B2 (en) * 2014-12-31 2018-11-06 Cloudera, Inc. Resource management in a distributed computing environment
CN107423129A (zh) * 2016-05-23 2017-12-01 中兴通讯股份有限公司 一种分布式系统的资源配置方法及装置
US10873540B2 (en) * 2016-07-06 2020-12-22 Cisco Technology, Inc. Crowd-sourced cloud computing resource validation
US10360606B2 (en) 2016-07-19 2019-07-23 Cisco Technology, Inc. Crowd-sourced cloud computing in a multiple resource provider environment
CN107786619A (zh) * 2016-08-31 2018-03-09 中兴通讯股份有限公司 媒体服务器调度方法、装置及系统
CN106452992B (zh) * 2016-09-19 2020-02-11 新华三技术有限公司 一种远端多归属组网的实现方法及装置
CN106682590B (zh) * 2016-12-07 2023-08-22 浙江宇视科技有限公司 一种监控业务的处理方法以及服务器
WO2018103042A1 (en) 2016-12-08 2018-06-14 Zhejiang Dahua Technology Co., Ltd. Methods and systems for video synopsis
WO2018161341A1 (zh) * 2017-03-10 2018-09-13 深圳市博信诺达经贸咨询有限公司 基于云技术的安防监控实现的方法及装置
CN107493199A (zh) * 2017-08-31 2017-12-19 郑州云海信息技术有限公司 一种分布式集群管理方法及系统
CN107453929B (zh) * 2017-09-22 2020-02-14 中国联合网络通信集团有限公司 集群系统自构建方法、装置及集群系统
CN108073894A (zh) * 2017-11-17 2018-05-25 杭州中威电子股份有限公司 一种分布式人脸特征计算方法
CN108052384B (zh) * 2017-12-27 2022-01-18 联想(北京)有限公司 一种任务处理方法、服务平台及电子设备
CN108579076A (zh) * 2018-04-16 2018-09-28 武汉康慧然信息技术咨询有限公司 家庭娱乐中心中虚拟现实算力增强方法
CN108769118B (zh) * 2018-04-23 2022-01-21 网宿科技股份有限公司 一种分布式系统中主节点的选取方法及装置
CN108600008B (zh) * 2018-04-24 2021-12-17 致云科技有限公司 服务器管理方法、服务器管理装置及分布式系统
US10681716B2 (en) 2018-05-07 2020-06-09 ENK Wireless, Inc. Systems/methods of providing increased wireless capacity, vehicular safety, electrical power wirelessly, and device control responsive to geographic position
US11100796B2 (en) 2018-05-07 2021-08-24 ENK Wireless, Inc. Systems/methods of improving vehicular safety
US11075740B2 (en) 2018-05-07 2021-07-27 ENK Wireless, Inc. Systems/methods of communications using a plurality of cooperative devices
CN110557679B (zh) * 2018-06-01 2021-11-19 中国移动通信有限公司研究院 一种视频内容识别方法、设备、介质和系统
CN108984465B (zh) * 2018-06-06 2021-08-20 华为技术有限公司 一种消息传输方法及设备
CN109040686B (zh) * 2018-08-22 2020-12-01 苏宁云计算有限公司 一种物联网摄像系统中的软件部署方法及物联网摄像系统
CN109614242B (zh) * 2018-12-20 2023-07-14 深圳市网心科技有限公司 一种计算能力共享方法、装置、设备及介质
CN109976907B (zh) * 2019-03-11 2021-08-31 百度在线网络技术(北京)有限公司 任务分配方法和系统、电子设备、计算机可读介质
CN110650312B (zh) * 2019-09-06 2021-03-16 佳都新太科技股份有限公司 基于图像监控系统的扩容方法及装置
CN112529761A (zh) * 2019-09-18 2021-03-19 珠海格力电器股份有限公司 基于视频图像识别的并发请求的处理方法及存储介质
CN112787840B (zh) * 2019-11-11 2022-07-22 华为技术有限公司 一种实现业务功能部署的方法、装置和系统
CN111555903A (zh) * 2020-03-26 2020-08-18 浙江口碑网络技术有限公司 一种数据通信的方法及装置
CN111445213A (zh) * 2020-03-31 2020-07-24 乌鲁木齐众维汇联信息科技有限公司 园区企业孵化服务的网络管理系统
CN111953932A (zh) * 2020-06-30 2020-11-17 视联动力信息技术股份有限公司 数据处理方法、装置、终端设备和存储介质
CN112333447A (zh) * 2020-11-02 2021-02-05 上海网达软件股份有限公司 音视频转码方法、装置、设备及存储介质
CN112799799A (zh) * 2020-12-29 2021-05-14 杭州涂鸦信息技术有限公司 数据消费方法及装置
RU2771211C1 (ru) * 2021-07-12 2022-04-28 Акционерное общество "Научно-исследовательский институт "Субмикрон" (АО "НИИ "Субмикрон") Вычислительная система с холодным резервом
US20230222692A1 (en) * 2022-01-07 2023-07-13 Johnson Controls Tyco IP Holdings LLP Systems and methods for sharing analytical resources in a camera network
CN115348322B (zh) * 2022-07-11 2023-07-18 深圳市九洲电器有限公司 数据处理方法、组网设备及计算机可读存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5349682A (en) * 1992-01-31 1994-09-20 Parallel Pcs, Inc. Dynamic fault-tolerant parallel processing system for performing an application function with increased efficiency using heterogeneous processors
US5774668A (en) * 1995-06-07 1998-06-30 Microsoft Corporation System for on-line service in which gateway computer uses service map which includes loading condition of servers broadcasted by application servers for load balancing
JP2001117887A (ja) * 1999-10-14 2001-04-27 Nec Corp 分散型アプリケーションサーバシステム,サービス方法および記録媒体
US6687651B2 (en) * 2002-01-10 2004-02-03 Fujitsu Network Communications, Inc. Real time estimation of equivalent bandwidth utilization
CN1251111C (zh) * 2002-12-31 2006-04-12 联想(北京)有限公司 基于系统级诊断信息的负载衡量方法
JP3977765B2 (ja) * 2003-03-31 2007-09-19 富士通株式会社 グリッドコンピューティングを用いたシステムにおけるリソース提供方法,そのシステムにおける監視装置およびその監視装置用プログラム
US7937406B2 (en) * 2003-09-11 2011-05-03 Oracle America, Inc. Mechanism for automatically establishing a resource grid
JP2007264794A (ja) 2006-03-27 2007-10-11 Fujitsu Ltd 並列分散処理プログラム及び並列分散処理システム
US7590666B2 (en) * 2006-06-16 2009-09-15 Microsoft Corporation Predicting capacity consumption in a memory component
WO2008127372A2 (en) * 2006-12-05 2008-10-23 Qualcomm Incorporated Apparatus and methods of a zero single point of failure load balancer
WO2010005869A2 (en) * 2008-07-10 2010-01-14 Heins, Douglas, B. Method and apparatus for utility computing in ad-hoc and configured peer-to peer networks
JP5507136B2 (ja) * 2009-07-09 2014-05-28 株式会社日立製作所 管理装置及び方法並びに計算機システム
US8830245B2 (en) 2010-12-14 2014-09-09 Amazon Technologies, Inc. Load balancing between general purpose processors and graphics processors
CN102752574B (zh) 2011-04-18 2015-01-28 中兴通讯股份有限公司 一种视频监控系统及方法
CN102541640B (zh) * 2011-12-28 2014-10-29 厦门市美亚柏科信息股份有限公司 一种集群gpu资源调度系统和方法
CN103248659B (zh) * 2012-02-13 2016-04-20 北京华胜天成科技股份有限公司 一种云计算资源调度方法和系统
CN102638456B (zh) 2012-03-19 2015-09-23 杭州海康威视数字技术股份有限公司 基于云计算的海量实时视频码流智能分析方法及其系统
KR101515977B1 (ko) * 2012-10-24 2015-05-06 주식회사 케이티 Ip 카메라를 이용하는 클라우드 환경의 영상 감시 시스템 및 영상 감시 방법

Also Published As

Publication number Publication date
KR20160073409A (ko) 2016-06-24
US11362961B2 (en) 2022-06-14
JP6239107B2 (ja) 2017-11-29
US10805231B2 (en) 2020-10-13
JP2016535340A (ja) 2016-11-10
EP3048774A4 (en) 2016-10-19
US20200403933A1 (en) 2020-12-24
US20160241486A1 (en) 2016-08-18
WO2015062492A1 (zh) 2015-05-07
CN104580338B (zh) 2018-09-07
EP3048774A1 (en) 2016-07-27
EP3048774B1 (en) 2018-05-30
CN104580338A (zh) 2015-04-29

Similar Documents

Publication Publication Date Title
KR101910537B1 (ko) 서비스 처리 방법, 시스템 및 장치
CN106375420B (zh) 一种基于负载均衡的服务器集群智能监控系统及方法
US10021401B2 (en) Analytic tool for managing distributed statistically multiplexed systems and method for using same
CN106302565B (zh) 业务服务器的调度方法及系统
CN108062499B (zh) 一种人脸识别的方法、系统及平台
JP4893649B2 (ja) 帯域制御サーバ及び帯域制御プログラム並びに監視システム
US9197687B2 (en) Prioritized blocking of on-demand requests
EP3361703B1 (en) Load balancing method, related device and system
CN102739554B (zh) 一种数据管控平台及其数据管控方法
CN106470123B (zh) 日志收集方法、客户端、服务器和电子设备
CN103944830A (zh) 计算机系统
CN110944146B (zh) 智能分析设备资源调整方法及装置
CN107995017B (zh) 一种上行带宽分配方法、装置及系统
CN115150473A (zh) 一种资源调度方法、装置及存储介质
WO2018099090A1 (zh) 从云计算系统中确定主调度器的方法及装置
CN110740293A (zh) 一种数据传输方法、系统、装置及计算机存储介质
CN102377662B (zh) 一种视频监控中面向带宽适应的路由缓存协商方法和系统
WO2015168834A1 (zh) 虚拟网络功能中网络资源的分配方法、编排器及管理器
CN113079062B (zh) 一种资源调整方法、装置、计算机设备和存储介质
CN104767964A (zh) 视频存储控制和优化的方法及其装置、视频监控系统
CN112040090A (zh) 视频流处理方法、装置、电子设备和存储介质
CN114245067A (zh) 一种数据传输控制方法、装置、设备及可读存储介质
CN113190347A (zh) 一种边缘云系统及任务管理方法
CN101997720A (zh) 跨区域监控流量点播的方法及视频管理服务器
CN111953932A (zh) 数据处理方法、装置、终端设备和存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant