KR20200084707A - 태스크 분산 처리를 관리하는 마스터 장치, 태스크를 처리하는 태스크 처리 장치, 및 그 동작 방법 - Google Patents

태스크 분산 처리를 관리하는 마스터 장치, 태스크를 처리하는 태스크 처리 장치, 및 그 동작 방법 Download PDF

Info

Publication number
KR20200084707A
KR20200084707A KR1020190000889A KR20190000889A KR20200084707A KR 20200084707 A KR20200084707 A KR 20200084707A KR 1020190000889 A KR1020190000889 A KR 1020190000889A KR 20190000889 A KR20190000889 A KR 20190000889A KR 20200084707 A KR20200084707 A KR 20200084707A
Authority
KR
South Korea
Prior art keywords
task
processing
task processing
information
processing device
Prior art date
Application number
KR1020190000889A
Other languages
English (en)
Inventor
김경래
엄현상
최석원
남윤성
신현일
원영민
Original Assignee
삼성전자주식회사
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 서울대학교산학협력단 filed Critical 삼성전자주식회사
Priority to KR1020190000889A priority Critical patent/KR20200084707A/ko
Priority to US16/585,364 priority patent/US11354156B2/en
Publication of KR20200084707A publication Critical patent/KR20200084707A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5044Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/20Handling requests for interconnection or transfer for access to input/output bus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer And Data Communications (AREA)
  • Hardware Redundancy (AREA)

Abstract

다양한 실시예에 따른, 복수 개의 태스크 처리 장치 각각의 태스크 처리를 관리하는 마스터 장치는, 통신 회로 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 복수 개의 태스크 처리 장치 중 제 1 태스크 처리 장치로부터, 상기 제 1 태스크 처리 장치에서 사용 중인 제 1 실시간 자원 정보를 획득하도록, 상기 통신 회로를 제어하고, 상기 복수 개의 태스크 처리 장치 중 제 2 태스크 처리 장치로부터, 상기 제 2 태스크 처리 장치에서 사용 중인 제 2 실시간 자원 정보를 획득하도록, 상기 통신 회로를 제어하고, 상기 복수 개의 태스크 처리 장치 중 적어도 하나로 분배되어야 하는 분배 대상 태스크의 처리에 대한 정보를 획득하고, 상기 분배 대상 태스크의 처리에 대한 정보에 기반하여 상기 분배 대상 태스크가 처리됨으로써 확인되는, 상기 분배 대상 태스크의 처리에 요구되는 자원양을 획득하고, 상기 제 1 실시간 자원 정보, 상기 제 2 실시간 자원 정보, 및 상기 분배 대상 태스크의 처리에 요구되는 자원양에 기반하여, 상기 제 1 태스크 처리 장치 및 상기 제 2 태스크 처리 장치 중 상기 분배 대상 태스크를 분배할 태스크 처리 장치를 상기 제 1 태스크 처리 장치로 확인하고, 상기 제 1 태스크 처리 장치로, 상기 분배 대상 태스크의 처리에 대한 정보를 송신하도록, 상기 통신 회로를 제어하도록 설정될 수 있다. 그 밖의 다양한 실시예가 가능하다.

Description

태스크 분산 처리를 관리하는 마스터 장치, 태스크를 처리하는 태스크 처리 장치, 및 그 동작 방법{MASTER DEVICE FOR MANAGING DISTRIBUTED PROCESSING OF TASK, TASK PROCESSING DEVICE FOR PROCESSING TASK AND METHOD FOR OPERATING THEREOF}
본 문서는, 태스크 분산 처리를 관리하는 마스터 장치, 태스크를 처리하는 태스크 처리 장치, 및 그 동작 방법에 관한 것이다.
근자에 들어서, 엣지 컴퓨팅(edge computing) 기술에 대한 연구가 활발하게 진행되고 있다. 엣지 컴퓨팅은, 복수 개의 태스크를, 중앙 집중형 서버가 수행하지 않고, 복수 개의 태스크 처리 장치들, 즉 엣지가 수행하도록 하는 기술을 의미할 수 있다. 기존의 중앙 집중형 클라우드 컴퓨팅에 비하여, 처리 속도가 증가할 뿐만 아니라, 데이터 분산에 의한 보안성도 증대되어, 엣지 컴퓨팅에 따른 분산 처리 시스템이 각광받고 있다.
분산 처리 시스템은, 복수 개의 태스크 처리 장치를 포함할 수 있다. 처리가 요구되는 태스크는, 복수 개의 태스크 처리 장치 중 적어도 하나에 의하여 수행될 수 있다. 예를 들어, 장치 제조 공장 시스템은, 장치 제조 공정을 제어할 뿐만 아니라, 제조된 장치에 대한 불량 판정을 수행하거나, 또는 제조된 장치의 성능 검사를 수행할 수 있다. 장치 제조 공장 시스템은, 장치 제조, 불량 판정, 성능 검사 등의 다양한 태스크를 수행하기 위한 복수 개의 태스크 처리 장치를 포함할 수 있다. 복수 개의 태스크 처리 장치들 각각은, 발생되는 다양한 태스크를 분배받아 처리할 수 있다. 예를 들어, 태스크를 분배받은 태스크 처리 장치는, 태스크에 의하여 지정되는 입력 장치(예: 센서, 또는 성능 검사 장치)로부터 입력 정보를 획득하고, 입력 정보를 처리할 수 있다. 태스크 처리 장치는, 처리 결과를 출력할 수 있으며, 이에 따라 공정에서 요구되는 불량 판정, 또는 성능 검사가 수행될 수 있다. 태스크의 분배는 마스터 장치에 의하여 수행될 수 있다.
분산 처리 시스템의 마스터 장치는, 복수 개의 태스크 처리 장치 중, 태스크를 처리할 태스크 처리 장치를 결정할 수 있다. 마스터 장치는, 특정 태스크 처리 장치에 과도한 연산이 집중되지 않도록, 태스크를 처리할 태스크 처리 장치를 결정할 수 있다. 특정 태스크 처리 장치에 과도한 연산이 집중되면, 해당 태스크 처리 장치의 처리 속도가 저하되며, 이에 따라 전체 태스크 처리의 처리 속도가 저하될 수 있다. 이에 따라, 특정 태스크 처리 장치에 과도한 연산이 집중되지 않도록 하는 태스크 분배 방식에 대한 연구가 활발하게 진행되고 있다.
마스터 장치는, 복수 개의 태스크 처리 장치들 각각에 기 분배된 태스크의 개수에 대한 정보에 기반하여, 신규 태스크를 분배할 태스크 처리 장치를 결정할 수 있다. 마스터 장치는, 복수 개의 태스크 처리 장치들 각각에 대하여 태스크 수행 최대 개수를 설정할 수 있으며, 이미 최대 개수의 태스크를 기 수행중인 태스크 처리 장치는 신규 태스크를 처리할 장치로 선택하지 않는다.
하지만, 기 분배된 태스크의 개수에 기반하여, 태스크 분배를 결정하는 경우에는, 많은 유휴 자원을 가지는 태스크 처리 장치가 분배로부터 제외되며, 적은 유휴 자원을 가지는 태스크 처리 장치가 신규 태스크를 분배받을 가능성이 존재한다. 예를 들어, 기 분배된 태스크의 개수가 적기는 하지만, 해당 태스크의 자원 소모 정도가 큰 경우에는, 유휴 자원이 적음에도 불구하고 태스크 처리 장치가 신규 태스크를 분배받을 수도 있다. 해당 태스크 처리 장치에서는, 복수 개의 태스크들에 의한 자원 경합도가 높을 수 있으며, 이에 따라 해당 태스크 처리 장치의 처리 속도가 저하될 수 있으며, 이는 곧 시스템 전반의 처리 속도 저하에 귀결될 수 있다.
다양한 실시예는, 상술한 문제점 또는 다른 문제점을 해결하기 위하여 안출된 것으로, 태스크 처리 장치들로부터 실시간 자원 정보를 획득하여, 실시간 자원 정보에 기반하여 태스크를 분배할 태스크 처리 장치를 확인하는 마스터 장치 및 그 동작 방법을 제공할 수 있다. 아울러, 다양한 실시예는, 실시간 자원 정보를 마스터 장치로 보고하는 태스크 처리 장치 및 그 동작 방법을 제공할 수 있다.
다양한 실시예에 따른, 복수 개의 태스크 처리 장치 각각의 태스크 처리를 관리하는 마스터 장치는, 통신 회로 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 복수 개의 태스크 처리 장치 중 제 1 태스크 처리 장치로부터, 상기 제 1 태스크 처리 장치에서 사용 중인 제 1 실시간 자원 정보를 획득하도록, 상기 통신 회로를 제어하고, 상기 복수 개의 태스크 처리 장치 중 제 2 태스크 처리 장치로부터, 상기 제 2 태스크 처리 장치에서 사용 중인 제 2 실시간 자원 정보를 획득하도록, 상기 통신 회로를 제어하고, 상기 복수 개의 태스크 처리 장치 중 적어도 하나로 분배되어야 하는 분배 대상 태스크의 처리에 대한 정보를 획득하고, 상기 분배 대상 태스크의 처리에 대한 정보에 기반하여 상기 분배 대상 태스크가 처리됨으로써 확인되는, 상기 분배 대상 태스크의 처리에 요구되는 자원양을 획득하고, 상기 제 1 실시간 자원 정보, 상기 제 2 실시간 자원 정보, 및 상기 분배 대상 태스크의 처리에 요구되는 자원양에 기반하여, 상기 제 1 태스크 처리 장치 및 상기 제 2 태스크 처리 장치 중 상기 분배 대상 태스크를 분배할 태스크 처리 장치를 상기 제 1 태스크 처리 장치로 확인하고, 상기 제 1 태스크 처리 장치로, 상기 분배 대상 태스크의 처리에 대한 정보를 송신하도록, 상기 통신 회로를 제어하도록 설정될 수 있다.
다양한 실시예에 따른, 복수 개의 태스크 처리 장치 각각의 태스크 처리를 관리하는 마스터 장치의 동작 방법은, 상기 복수 개의 태스크 처리 장치 중 제 1 태스크 처리 장치로부터, 상기 제 1 태스크 처리 장치에서 사용 중인 제 1 실시간 자원 정보를 획득하도록, 상기 마스터 장치의 통신 회로를 제어하는 동작, 상기 복수 개의 태스크 처리 장치 중 제 2 태스크 처리 장치로부터, 상기 제 2 태스크 처리 장치에서 사용 중인 제 2 실시간 자원 정보를 획득하도록, 상기 통신 회로를 제어하는 동작, 상기 복수 개의 태스크 처리 장치 중 적어도 하나로 분배되어야 하는 분배 대상 태스크의 처리에 대한 정보를 획득하는 동작, 상기 분배 대상 태스크의 처리에 대한 정보에 기반하여 상기 분배 대상 태스크가 처리됨으로써 확인되는, 상기 분배 대상 태스크의 처리에 요구되는 자원양을 획득하는 동작, 상기 제 1 실시간 자원 정보, 상기 제 2 실시간 자원 정보, 및 상기 분배 대상 태스크의 처리에 요구되는 자원양에 기반하여, 상기 제 1 태스크 처리 장치 및 상기 제 2 태스크 처리 장치 중 상기 분배 대상 태스크를 분배할 태스크 처리 장치를 상기 제 1 태스크 처리 장치로 확인하는 동작, 및 상기 제 1 태스크 처리 장치로, 상기 분배 대상 태스크의 처리에 대한 정보를 송신하도록, 상기 통신 회로를 제어하는 동작을 포함할 수 있다.
다양한 실시예에 따른, 복수 개의 태스크 처리 장치 각각의 태스크 처리를 관리하는 마스터 장치는, 통신 회로 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 복수 개의 태스크 처리 장치 중 제 1 태스크 처리 장치로부터, 상기 제 1 태스크 처리 장치에서 사용 중인 제 1 실시간 자원 정보를 획득하도록, 상기 통신 회로를 제어하고, 상기 복수 개의 태스크 처리 장치 중 제 2 태스크 처리 장치로부터, 상기 제 2 태스크 처리 장치에서 사용 중인 제 2 실시간 자원 정보를 획득하도록, 상기 통신 회로를 제어하고, 상기 복수 개의 태스크 처리 장치 중 적어도 하나로 분배되어야 하는 분배 대상 태스크의 처리에 대한 정보를 획득하고, 상기 제 1 실시간 자원 정보, 및 상기 제 2 실시간 자원 정보를 이용하여, 상기 분배 대상 태스크를 수행할 경우 예상되는 상기 제 1 태스크 처리 장치에서의 자원 경합도가 상기 분배 대상 태스크를 수행할 경우 예상되는 상기 제 2 태스크 처리 장치에서의 자원 경합도보다 낮은 것에 기반하여, 상기 분배 대상 태스크를 분배할 태스크 처리 장치를 상기 제 1 태스크 처리 장치로 확인하고, 상기 제 1 태스크 처리 장치로, 상기 분배 대상 태스크의 처리에 대한 정보를 송신하도록, 상기 통신 회로를 제어하도록 설정될 수 있다.
다양한 실시예에 따라서, 태스크 처리 장치들로부터 실시간 자원 정보를 획득하여, 실시간 자원 정보에 기반하여 태스크를 분배할 태스크 처리 장치를 확인하는 마스터 장치 및 그 동작 방법이 제공될 수 있다. 아울러, 다양한 실시예에 따라서, 실시간 자원 정보를 마스터 장치로 보고하는 태스크 처리 장치 및 그 동작 방법이 제공될 수 있다. 이에 따라, 시스템 전체의 자원 경합도가 경감되도록 태스크가 분배될 수 있어, 시스템의 태스크 처리 속도가 증가할 수 있다.
도 1은 다양한 실시예에 따른 태스크 처리 시스템을 도시한다.
도 2a는 다양한 실시예에 따른 마스터 장치, 태스크 처리 장치, 및 센서 장치의 동작을 설명하기 위한 흐름도를 도시한다.
도 2b는 다양한 실시예에 따른 마스터 장치, 태스크 처리 장치, 및 센서 장치의 동작을 설명하기 위한 흐름도를 도시한다.
도 2c는 다양한 실시예에 따른 태스크 처리 장치별 자원 사용에 대한 예시를 도시한다.
도 3은 다양한 실시예에 따른 태스크 처리를 설명하기 위한 도면을 도시한다.
도 4는 다양한 실시예에 따른 마스터 장치, 태스크 처리 장치, 및 센서 장치들을 도시한다.
도 5는 다양한 실시예에 따른 태스크의 처리 알고리즘을 설명하는 도면을 도시한다.
도 6은 다양한 실시예에 따른 마스터 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 7은 다양한 실시예에 따른 엣지 관리 방법을 설명하기 위한 도면을 도시한다.
도 8a는 다양한 실시예에 따른 프로파일링 결과에 기반한 태스크 분배를 설명하는 도면을 도시한다.
도 8b는 다양한 실시예에 따른 마스터 장치의 동작을 설명하기 위한 흐름도를 도시한다.
도 9a는 다양한 실시예에 따른 마스터 장치, 태스크 처리 장치, 및 센서 장치의 동작을 설명하기 위한 흐름도를 도시한다.
도 9b는 다양한 실시예에 따른 유휴 자원 및 태스크 처리 예상 자원을 설명하기 위한 도면을 도시한다.
도 10a는 다양한 실시예에 따른 마스터 장치, 태스크 처리 장치, 및 센서 장치의 동작을 설명하기 위한 흐름도를 도시한다.
도 10b는 다양한 실시예에 따른 마스터 장치, 태스크 처리 장치, 및 센서 장치의 동작을 설명하기 위한 흐름도를 도시한다.
도 11은 다양한 실시예에 따른 GPU 이용 여부를 확인하는 태스크 스케줄러를 설명하기 위한 도면을 도시한다.
도 12는 다양한 실시예에 따른 GPU 이용 여부를 확인하는 마스터 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 13은 다양한 실시예에 따른 마스터 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 14는 다양한 실시예에 따른 마스터 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 15는, 다양한 실시예에 따른, 태스크 재분배를 수행하는 마스터 장치를 설명하기 위한 도면을 도시한다.
도 16은 다양한 실시예에 따른 마스터 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 17은 다양한 실시예에 따른 마스터 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 18은 다양한 실시예에 따른 마스터 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 19a는 다양한 실시예에 따른 복수 태스크 처리 장치의 태스크 수행을 설명하기 위한 도면들을 도시한다.
도 19b는 다양한 실시예에 따른 복수 태스크 처리 장치의 태스크 수행을 설명하기 위한 도면들을 도시한다.
도 1은 다양한 실시예에 따른 태스크 처리 시스템을 도시한다 . 마스터 장치(100)는, 프로세서(101) 및 통신 회로(103)를 포함할 수 있다. 태스크 처리 장치(110)는, 프로세서(111) 및 통신 회로(113)를 포함할 수 있다. 태스크 처리 장치(120)는, 프로세서(121) 및 통신 회로(123)를 포함할 수 있다. 센서 장치(140)는, 센서(141) 및 통신 회로(143)를 포함할 수 있다. 센서 장치(150)는, 센서(151) 및 통신 회로(153)를 포함할 수 있다. 도 1에서는, 태스크 처리 장치들(110,120) 및 센서 장치들(140,150)의 개수가 각각 2개인 것과 같이 도시되어 있지만, 이는 설명의 편의를 위한 것이며, 태스크 처리 장치들의 개수 및 센서 장치들의 개수에는 제한이 없다.
프로세서(101)는, 마스터 장치(100)에 의하여 수행되는 동작을 처리할 수 있다. 마스터 장치(100)에 포함된 메모리(미도시)에는, 동작 수행을 위한 인스트럭션(instruction)이 저장될 수 있으며, 프로세서(101)는 인스트럭션을 수행하여 다양한 동작을 수행하거나, 또는 다른 하드웨어가 동작을 수행하도록 제어할 수 있다. 본 문서 전반에서, 마스터 장치(100)가 특정 동작을 수행하는 것은 프로세서(101)에 의하여 특정 동작이 수행되거나, 또는 프로세서(101)가 마스터 장치(100)에 포함된 구성 요소, 또는 마스터 장치(100)와 유/무선으로 연결된 다른 장치가 특정 동작을 수행하도록 제어하는 것을 의미할 수 있다. 또는, 특정 동작을 수행하기 위한 인스트럭션이 마스터 장치(100)에 포함된 메모리(미도시)에 저장되었음을 의미할 수도 있다.
프로세서(101)는, 하나 이상의 CPU(central processing unit), 또는 하나 이상의 GPU(graphics processing unit) 중 적어도 하나를 포함할 수 있다. 프로세서(101)가 CPU 및 GPU를 포함하는 경우에는, 프로세서(101)는, 연산 집약적인 연산은 GPU에 할당하고, 나머지 코드를 CPU에서 처리하는 GPU 가속 컴퓨팅을 수행할 수 있다. 이를, 프로세서(101)가 GPGPU(general purpose computing on graphics processing unit)을 수행한다고 표현할 수도 있다. 프로세서(101)는, CPU 및 GPU를 모두 포함하는 경우에도, 선택적으로 CPU만을 이용하여 연산을 수행하거나, 선택적으로 GPU만을 이용하여 연산을 수행하거나, 또는 선택적으로 GPU 가속 컴퓨팅을 수행할 수도 있다. 상술한 프로세서(101)의 종류는, 마스터 장치(100)가 범용 컴퓨터 또는 특수 목적 컴퓨터로 구현된 경우의 예시일 뿐이다. 마스터 장치(100)의 구현 형태에는 제한이 없으며, 이에 따라 더욱 상세하게 후술할 태스크 분배를 결정하기 위한 동작(또는, 인스트럭션)을 수행할 수 있다면 프로세서(101)의 종류에도 제한이 없다.
통신 회로(103)는, 태스크 처리 장치들(110,120), 또는 센서 장치들(140,150)과 데이터를 송/수신할 수 있다 . 통신 회로(103)는, 유선 또는 무선으로 태스크 처리 장치들(110,120), 또는 센서 장치들(140,150)과 데이터를 송/수신할 수 있다. 통신 회로(103)은 마스터 장치(100)와 외부 전자 장치(예: 태스크 처리 장치들(110,120) 또는 센서 장치들(140,150) )간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다.
통신 회로(103)은 프로세서(101)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 또는, 통신 회로(103)는, 프로세서(101)의 제어 하에 동작할 수도 있다. 일실시예에 따르면, 통신 회로(103)은 무선 통신 회로(예: 셀룰러 통신 회로, 근거리 무선 통신 회로, 또는 GNSS(global navigation satellite system) 통신 회로) 또는 유선 통신 회로(예: LAN(local area network) 통신 회로, 또는 전력선 통신 회로)을 포함할 수 있다. 이들 통신 회로 중 해당하는 통신 회로는 제 1 네트워크 (예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 회로들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 회로는 가입자 식별 모듈에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크 또는 제 2 네트워크와 같은 통신 네트워크 내에서 확인 및 인증을 수행할 수 있다.
통신 회로(103)는, 직접적으로 프로세서(101)로부터 데이터를 수신하여, 이를 외부 전자 장치(예: 태스크 처리 장치들(110,120))로 유선으로 전달할 수도 있으며, 이 경우에는 통신 회로(103)는 입출력 인터페이스로 구현될 수도 있다. 통신 회로(103)가 입출력 인터페이스로 구현되는 경우에, 프로세서(101)는 입출력 인터페이스를 통하여 외부 전자 장치(예: 태스크 처리 장치들(110,120) 또는 센서 장치들(140,150))로부터의 데이터를 수신할 수도 있다. 다양한 실시예에서, 마스터 장치(100)는, 태스크 전자 장치들(110,120) 전체와 유선 또는 무선으로 데이터를 송수신할 수 있다. 또는, 마스터 장치(100)는, 태스크 전자 장치들(110,120) 중 일부와는 유선으로 데이터를 송수신하고, 나머지 일부와는 무선으로 데이터를 송수신하도록 구현될 수도 있다. 다양한 실시예에서, 마스터 장치(100)는, 센서 장치들(140,150) 전체와 유선 또는 무선으로 데이터를 송수신할 수 있다. 또는, 마스터 장치(100)는, 센서 장치들(140,150) 중 일부와는 유선으로 데이터를 송수신하고, 나머지 일부와는 무선으로 데이터를 송수신하도록 구현될 수도 있다. 프로세서(101) 및 통신 회로(103)는, 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다. 본 문서에서의 “통신 회로”는, 무선 통신을 위한 RF 회로와 안테나뿐만 아니라, 유선 통신을 위한 입출력 인터페이스를 의미할 수 있다.
태스크 처리 장치(110)의 프로세서(111)는, 하나 이상의 CPU, 또는 하나 이상의 GPU 중 적어도 하나를 포함할 수 있다. 태스크 처리 장치(120)의 프로세서(121)는, 하나 이상의 CPU, 또는 하나 이상의 GPU 중 적어도 하나를 포함할 수 있다. 태스크 처리 장치(110)의 프로세서(111)는 태스크 처리 장치(120)의 프로세서(121)와 동일하게 구현될 수도 있거나, 또는 상이하게 구현될 수도 있다. 예를 들어, 태스크 처리 장치(110)의 프로세서(111)는 하나 이상의 CPU를 포함하도록 구현될 수 있으며, 태스크 처리 장치(120)의 프로세서(121)는 하나 이상의 CPU 및 하나 이상의 GPU를 포함하도록 구현될 수 있다. 또는, 태스크 처리 장치(110)의 프로세서(111) 및 태스크 처리 장치(120)의 프로세서(121)의 구현 형태가 동일하다 하더라도, 프로세서(111) 및 프로세서(121)의 성능이 상이할 수도 있다. 태스크 처리 장치(110)의 통신 회로(113) 및 태스크 처리 장치(120)의 통신 회로(123)는, 마스터 장치(100)의 통신 회로(103)의 통신 방식에 따라 구현될 수 있다. 통신 회로(113) 또는 통신 회로(123) 중 적어도 하나는 태스크 수행 결과를 외부 전자 장치로 전달할 수도 있다. 통신 회로(113) 또는 통신 회로(123)는 태스크 수행 결과를 마스터 장치(100)로 출력할 수도 있으며, 또는 출력 포트(port)로 전달할 수도 있다.
센서 장치(140)의 통신 회로(143) 및 센서 장치(150)의 통신 회로(153)는, 마스터 장치(100)의 통신 회로(103)의 통신 방식에 따라 구현될 수 있다. 센서 장치(140)의 센서(141)는 태스크의 입력 데이터를 센싱할 수 있으며, 센서 장치(150)의 센서(151)는 태스크의 입력 데이터를 센싱할 수 있다. 센서(141) 또는 센서(151) 중 적어도 하나는 예를 들어, 공장에서 제조된 장치를 촬영할 수 있는 카메라로 구현될 수 있다. 센서(141) 또는 센서(151) 중 적어도 하나는, 제조된 장치의 다양한 성능을 측정할 수 있는 장치일 수도 있으며, 센싱 데이터의 종류에는 제한이 없으며, 센서의 종류에도 제한이 없다.
다양한 실시예에서, 마스터 장치(100) 및 태스크 처리 장치들(110,120)은 엣지(edge) 컴퓨팅 시스템을 구성할 수 있으며, 이에 따라 마스터 장치(100)가 마스터 엣지(master edge)로 명명될 수 있으며, 또는 태스크 처리 장치들(110,120)이 엣지로 명명될 수도 있다.
도 2a는 다양한 실시예에 따른 마스터 장치, 태스크 처리 장치, 및 센서 장치의 동작을 설명하기 위한 흐름도를 도시한다 .
다양한 실시예에 따라서, 마스터 장치(100)는, 201 동작에서, 태스크 처리 장치(110)로부터 실시간 자원(resource) 정보를 획득할 수 있다. 실시간 자원 정보는, 태스크 처리 장치(110)의 자원의 현재 사용량과 연관된 정보를 포함할 수 있다. 예를 들어, 태스크 처리 장치(110)의 실시간 자원 정보는, CPU의 자원과 관련된 데이터인LLC(last level cache) hit ratio 또는 메인 메모리 밴드위쓰(main memory bandwidth) 중 적어도 하나를 포함할 수 있다. LLC hit ratio는 태스크 처리 장치(110)의 하나 이상의 CPU가 공유하는 말단 캐시(LLC) 내 데이터 재사용율일 수 있으며, 메인 메모리 밴드위쓰는, 하나 이상의 CPU가 공유하는 말단 캐시에서 발생하는 메모리에 초당 요청하는 대역폭일 수 있다. LLC hit ratio 및 메인 메모리 밴드위쓰는 예시적인 것일 뿐, CPU 사용율 등의 태스크 처리 장치(110)의 자원 사용량을 실시간으로 나타낼 수 있는 정보라면, 제한이 없음을 당업자는 용이하게 이해할 것이다. 예를 들어, 태스크 처리 장치(110)의 실시간 자원 정보는, GPU의 자원과 관련된 데이터인 GPU occupancy 또는 GPU 메모리 밴드위쓰 중 적어도 하나를 포함할 수 있다. GPU occupancy는, 사용중인 GPU 스레드(thread) 그룹 수를 태스크 처리 장치(110) 내 최대 사용 가능한 GPU 스레드 그룹 수로 나눈 값일 수 있다. GPU 메모리 밴드위쓰는 GPU 내 모든 스레드 그룹들의 메모리에 대한 초당 요청 대역폭을 나타낼 수 있다. GPU occupancy 및 GPU 메모리 밴드위쓰는 예시적인 것일 뿐, GPU 사용율 등의 태스크 처리 장치(110)의 자원 사용량을 실시간으로 나타낼 수 있는 정보라면, 제한이 없음을 당업자는 용이하게 이해할 것이다. 203 동작에서, 마스터 장치(100)는, 태스크 처리 장치(120)로부터 실시간 자원 정보를 획득할 수 있다. 임의의 태스크 처리 장치가 CPU만을 포함하는 경우에는, CPU 사용의 실시간 사용량과 연관된 정보만을 마스터 장치(100)로 전달할 수 있다. 임의의 태스크 처리 장치가 CPU 및 GPU를 포함하는 경우에는, CPU 사용의 실시간 사용량과 연관된 정보 및 GPU 사용의 실시간 사용량과 연관된 정보를 마스터 장치(100)로 전달할 수 있다.
태스크 처리 장치들(110,120)은 주기적으로 실시간 자원 정보를 마스터 장치(100)로 보고할 수 있거나, 또는 지정된 이벤트가 검출되면, 즉 비주기적으로 자원 정보를 마스터 장치(100)로 보고할 수도 있다. 또는, 마스터 장치(100)는, 태스크 분배가 요청되는 시점에서 태스크 처리 장치들(110,120)에게 실시간 자원 정보를 요청할 수도 있으며, 태스크 처리 장치들(110,120)은 요청에 대한 응답으로 실시간 자원 정보를 마스터 장치(100)로 전달할 수도 있다.
205 동작에서, 마스터 장치(100)는, 태스크 처리에 관한 정보를 획득할 수 있다. 태스크 처리에 관한 정보는, 예를 들어 태스크 데스크립터(task descriptor)로 표현될 수 있으며, 태스크 데스크립터는, 태스크를 수행하는데 필요한 정보로, 입력 데이터에 대한 정보, 입력 데이터를 획득할 수 있는 출처에 대한 정보, 태스크의 처리 알고리즘에 대한 정보, 처리 결과를 출력하는 주소에 대한 정보 등의 다양한 정보를 포함할 수 있다. 태스크 데스크립터에 대하여서는, 더욱 상세하게 후술하도록 한다. 분산 처리 시스템에서는, 복수 개의 태스크가 수행되어야 할 필요가 있으며, 이에 따라 복수 개의 태스크 각각에 대응하는 복수 개의 태스크 처리에 관한 정보가 마스터 장치(100)에 의하여 획득될 수 있다.
207 동작에서, 마스터 장치(100)는, 실시간 자원 정보들에 기반하여, 태스크 처리에 관한 정보를 전달할 태스크 처리 장치를 확인할 수 있다. 태스크 처리에 관한 정보를 획득한 태스크 처리 장치가 태스크 처리에 관한 정보를 이용하여 태스크를 처리하므로, 이는 곧 마스터 장치(100)가 태스크를 분배할 태스크 처리 장치를 확인한다고 표현될 수도 있다. 마스터 장치(100)는, 실시간 자원 정보, 예를 들어 LLC hit ratio, 메인 메모리 밴드위쓰, GPU occupancy, 또는 GPU 메모리 밴드위쓰 중 적어도 하나와 연관된 확인 조건을 저장할 수 있다. 마스터 장치(100)는, 태스크 처리 장치들로부터 획득한 실시간 자원 정보를 확인 조건에 적용할 수 있으며, 적용 결과에 기반하여 어느 하나의 태스크 처리 장치를 선택할 수 있다. 예를 들어, 마스터 장치(100)는, 태스크 처리 장치들 중 자원 사용량이 가장 낮은 태스크 처리 장치를, 태스크 처리에 관한 정보를 전달할 태스크 처리 장치로 확인할 수 있다. 예를 들어, 마스터 장치(100)는, 태스크 처리 장치들 각각의 LLC hit ratio, 메인 메모리 밴드위쓰, GPU occupancy, 또는 GPU 메모리 밴드위쓰 중 적어도 하나를, 서로 비교할 수 있으며, 비교 결과에 기반하여 가장 자원 사용량이 낮은 태스크 처리 장치를 확인할 수 있다. 마스터 장치(100)는, 상술한 파라미터 이외에도 다른 파라미터(예: CPU 사용율 등)을 더 이용하거나, 또는 다른 파라미터를 이용하여 태스크 처리 장치를 확인할 수도 있다. 마스터 장치(100)는, 태스크 처리 장치들 중 유휴 자원이 가장 많이 확보된 것으로 확인된 태스크 처리 장치를, 태스크 처리에 관한 정보를 전달할 태스크 처리 장치로 확인할 수 있다. 마스터 장치(100)는, 실시간 자원 정보에 기반하여, 태스크 처리 장치들 각각의 자원 경합도를 확인할 수 있으며, 자원 경합도가 가장 낮은 것으로 확인된 태스크 처리 장치를, 태스크 처리에 관한 정보를 전달할 태스크 처리 장치로 확인할 수도 있다. 또 다른 실시예에서, 마스터 장치(100)는, 태스크 처리에 관한 정보에 기반하여 태스크의 처리에 요구되는 정보를 더 확인하고, 이를 실시간 자원 정보와 함께 이용하여 태스크 처리에 관한 정보를 전달할 태스크 처리 장치를 확인할 수도 있으며, 이에 대하여서는 더욱 상세하게 후술하도록 한다.
209 동작에서, 마스터 장치(100)는, 확인된 태스크 처리 장치로, 태스크 처리에 관한 정보를 전달할 수 있다. 예를 들어, 마스터 장치(100)가 태스크 처리 장치(110)를 확인한 것을 상정하도록 한다. 태스크 처리 장치(110)는, 획득한 태스크 처리에 관한 정보에 기반하여 태스크를 생성할 수 있다. 태스크는, 워크 로드(work load) 등의 표현으로 대체되어 표현될 수도 있다. 211 동작에서, 태스크 처리 장치(110)는, 태스크에 기반하여, 센서 장치(150)로부터 센싱 데이터를 획득할 수 있다. 예를 들어, 태스크 처리에 관한 정보에는, 입력 데이터의 출처에 대한 정보(예: 센서 장치(150)의 식별 정보, 또는 센서 장치(150)의 주소 정보)가 포함될 수 있으며, 태스크 처리 장치(110)는, 입력 데이터의 출처에 대한 정보를 이용하여 센서 장치(150)로부터 센싱 데이터를 획득할 수 있다. 213 동작에서, 태스크 처리 장치(110)는, 센싱 데이터를 이용하여 태스크 처리하여, 처리 결과를 출력할 수 있다.
상술한 바와 같이, 마스터 장치(100)는 태스크 처리 장치들(110,120)의 실시간 자원 정보에 기반하여 신규 태스크를 분배할 수 있어, 특정 태스크 처리 장치에 과도한 연산이 집중되지 않으며, 특정 태스크 처리 장치의 자원 경합도가 과도하게 상승하지 않을 수 있다.
도 2b는 다양한 실시예에 따른 마스터 장치, 태스크 처리 장치, 및 센서 장치의 동작을 설명하기 위한 흐름도를 도시한다 . 도 2b의 실시예는 도 2c를 참조하여 상세하게 설명하도록 한다. 도 2c는 다양한 실시예에 따른 태스크 처리 장치별 자원 사용에 대한 예시를 도시한다. 도 2b의 동작 중 도 2a에서 상세하게 설명이 된 동작에 대하여서는, 간략하게 기재하기로 한다.
다양한 실시예에 따라서, 마스터 장치(100)는 마스터 장치(100)는, 221 동작에서 태스크 처리 장치(110)로부터 실시간 자원 정보를 획득할 수 있으며, 223 동작에서 태스크 처리 장치(120)로부터 실시간 자원 정보를 획득할 수 있다. 225 동작에서, 마스터 장치(100)는, 태스크 처리에 관한 정보를 획득할 수 있다.
227 동작에서, 마스터 장치(100)는, 태스크 처리 장치들(110,120)의 유휴 자원량을 확인할 수 있다. 예를 들어, 마스터 장치(100)는, 수신한 실시간 자원 정보들에 기반하여 태스크 처리 장치들(110,120) 각각의 유휴 자원량을 확인할 수 있다. 229 동작에서, 마스터 장치(100)는, 유휴 자원량에 기반하여, 자원 경합이 최소화될 수 있는 태스크 처리에 관한 정보를 전달할 태스크 처리 장치를 확인할 수 있다. 예를 들어, 마스터 장치(100)는 태스크 처리 장치들(110,120) 중 유휴 자원양이 가장 높은 장치를 태스크 처리에 관한 정보를 전달할 태스크 처리 장치로서 확인할 수 있다. 예를 들어, 마스터 장치(100)는, 태스크 처리 장치들(110,120) 별 유휴 자원양에 대한 정보를 관리할 수 있다. 예를 들어, 도 2c를 참조하면, 태스크 처리 장치(110)의 자원 정보(280)는 최대 자원 가용량(A) 및 실시간 사용 자원량(B)을 포함할 수 있으며, 태스크 처리 장치(120)의 자원 정보(290)는 최대 자원 가용량(C) 및 실시간 사용 자원량(B)을 포함할 수 있다. 유휴 자원량에 대한 정보는, 태스크 처리 장치들(110,120)로부터 획득한 파라미터(예: LLC hit ratio, 메인 메모리 밴드위쓰, GPU occupancy, 또는 GPU 메모리 밴드위쓰 중 적어도 하나)로부터 직접 확인될 수도 있거나, 또는 획득한 파라미터를 연산처리하여 확인될 수도 있다 . 도 2c의 자원 정보들(280,290)은 단순히 유휴 자원량의 개념을 설명하기 위하여 도시된 것일 뿐, 마스터 장치(100)는 유휴 자원량과 연관된 다양한 파라미터를 관리할 수 있다. 유휴 자원량은 단순히 설명의 편의를 위한 것으로, 마스터 장치(110)는, 태스크 처리 장치들(110,120)로부터 획득한 파라미터를 이용하여 곧바로 태스크 처리 장치를 확인할 수도 있다. 예를 들어, GPU occupancy는 전체 GPU 중 이용중인 GPU에 대한 비율에 관한 것으로, 마스터 장치(100)는, GPU occupancy가 가장 낮은 태스크 처리 장치를 태스크를 분배할 태스크 처리 장치로 확인할 수 있다. 도 2c 상의, “A”, “B”, “C”등의 단위는, LLC hit ratio, 메인 메모리 밴드 위쓰, GPU occupancy, 또는 GPU 메모리 밴드 위쓰 중 어느 하나이거나, 또는 LLC hit ratio, 메인 메모리 밴드 위쓰, GPU occupancy, 또는 GPU 메모리 밴드 위쓰 중 적어도 하나에 기반하여 도출될 수 있다.
마스터 장치(100)는, 예를 들어 유휴 자원량이 더 높은 태스크 처리 장치(110)를, 태스크 처리에 관한 정보를 전달한 태스크 처리 장치로서 확인할 수 있다. 태스크 처리 장치(110) 및 태스크 처리 장치(120)가, 동일한 크기의 자원양을 사용한다 하더라도, 마스터 장치(100)는, 유휴 자원량이 더 높은 태스크 처리 장치(110)를 선택할 수 있다. 유휴 자원량이 높다는 것은, 태스크를 신규 분배받았을 때에 자원 경합도가 더 낮을 것을 의미할 수 있으므로, 마스터 장치(100)는, 유휴 자원량이 높은 태스크 처리 장치에, 우선적으로 태스크를 분배할 수 있다.
또 다른 실시예에서, 마스터 장치(100)는, 태스크 처리에 요구되는 자원양을 프로파일링을 통하여 확인하고, 이를 추가적으로 이용하여 태스크 처리에 관한 정보를 전달할 태스크 처리 장치를 확인할 수도 있으며, 이에 대하여서는 더욱 상세하게 후술하도록 한다.
도 3은 다양한 실시예에 따른 태스크 처리를 설명하기 위한 도면을 도시한다.
태스크 처리 장치(110)는, 태스크 처리에 관한 정보의 예시인 태스크 데스크립터(310)를 마스터 장치(110)로부터 획득할 수 있다. 태스크 데스크립터(310)는, 입력 정보(311), 처리 정보(312), 및 출력 정보(313)를 포함할 수 있다. 입력 정보(311)는, 입력 데이터에 연관된 정보, 또는 입력 장치 식별 정보 중 적어도 하나를 포함할 수 있다. 처리 정보(312)는, 입력 데이터에 대한 처리 알고리즘을 포함할 수 있다. 출력 정보(313)는, 출력 장치 식별 정보(323)를 포함할 수 있다. 예를 들어, 태스크 데스크립터(310)는, 입력 정보(311)를 이용한 입력 커맨드, 처리 알고리즘의 커맨드, 및 출력 정보(313)로의 출력에 대한 출력 커맨드를 포함하는 코드로 구현될 수 있다.
태스크 처리 장치(110)는, 태스크 데스크립터(310)에 기반하여 태스크(320)를 생성할 수 있다. 프로세서(111)는, 태스크(320)를 처리할 수 있다. 프로세서(111)는, 태스크(320)에 포함된 코드들을 실행할 수 있다. 예를 들어, 프로세서(111)는, 입력 장치 식별 정보를 포함하는 제 1 코드(321)를 실행할 수 있다. 제 1 코드(321)의 실행에 따라, 프로세서(111)는, 입력 커넥터(115)를 통하여 센서 장치(140)로부터 센싱 데이터를 획득할 수 있다. 예를 들어, 태스크 처리 장치(110)가 센서 장치(140)와 유선 연결된 경우에, 프로세서(111)는 입력 커넥터(115)를 통하여 센싱 데이터를 획득할 수 있다. 만약, 태스크 처리 장치(110)가 센서 장치(140)와 무선으로 통신을 수행하는 경우에는, 프로세서(111)는 통신 회로(113)를 통하여 센싱 데이터를 획득할 수 있음을 전술하였다. 프로세서(111)는, 입력 데이터를 처리하기 위한 처리 알고리즘을 포함하는 제 2 코드(322)를 실행할 수 있다. 프로세서(111)는, 출력 장치 식별 정보(323)를 포함하는 제 3 코드(323)를 실행할 수 있다. 프로세서(111)는, 처리 알고리즘 수행에 따라 획득한 처리 결과를 출력 커넥터(116)를 통하여 외부 포트로 전달할 수 있다. 예를 들어, 태스크 처리 장치(110)가 외부 포트와 유선 연결된 경우에, 프로세서(111)는 출력 커넥터(116)를 통하여 처리 결과를 전달할 수 있다. 만약, 태스크 처리 장치(110)가 외부 포트와 무선으로 통신을 수행하는 경우에는, 프로세서(111)는 통신 회로(113)를 통하여 처리 결과를 전달할 수도 있다.
도 4는 다양한 실시예에 따른 마스터 장치, 태스크 처리 장치, 및 센서 장치들을 도시한다.
마스터 장치(410)(예: 마스터 장치(100))는, 태스크 스케줄러(task scheduler)(411)를 포함할 수 있으며, 태스크 스케줄러(411)는 태스크 풀(task pool)(412) 및 엣지 매니저(edge manager)(420)를 포함할 수 있다. 태스크 스케줄러(411)는, 복수 개의 태스크 데스크립터들(413,414,415)을 포함할 수 있으며, 태스크 데스크립터(413)는, 전술한 바와 같이, 입력 정보(416), 처리 정보(417), 및 출력 정보(418)를 포함할 수 있다. 엣지 매니저(420)는, 451 동작에서, 태스크 풀(412)에서 태스크 데스크립터 하나를 읽을 수 있다. 엣지 매니저(420)는, 452 동작에서, 읽은 태스크 데스크립터를 전달할 엣지, 즉 태스크 처리 장치를 선택할 수 있다. 상술한 바와 같이, 엣지 매니저(420)는, 연결된 엣지들에 대한 정보(421,422,423)에 대한 정보를 관리할 수 있다. 엣지 매니저(420)는, 엣지들 각각으로부터의 실시간 자원 정보를 획득할 수 있다. 엣지 매니저(420)는, 실시간 자원 정보에 기반하여 읽은 태스크 데스크립터를 전달할 엣지를 선택할 수 있다. 예를 들어, 엣지 매니저(420)는 엣지 A(430)를 태스크 데스크립터를 전달할 엣지로서 선택할 수 있다. 엣지 A(430)는, 기존에 생성한 태스크들(435,436)를 처리 중일 수 있다. 엣지 A(430)는 기존에 생성한 태스크들(435,436)의 처리에 의한 실시간 자원 정보를 마스터 장치(410)로 전달할 수 있다.
엣지 A(430)는, 획득한 태스크 데스크립터에 기반하여 태스크(431)를 생성할 수 있으며, 태스크(431)를 처리할 수 있다. 도 3에서 설명한 바와 같이, 엣지 A(430)는 입력 커넥터(432)를 통하여 센서 장치(441,442)로부터 센싱 데이터를 획득할 수 있다. 아울러, 엣지 A(430)는, 태스크(435,436)의 처리를 위하여 센서 장치(443,444)로부터 센싱 데이터를 획득할 수 있다. 엣지 A(430)는, 태스크(431,435,436)를 처리하여 출력 커넥터(434)를 통하여 외부 포트로 전달할 수 있다.
엣지는, 예시로서의 제 1 태스크(460)를 처리할 수 있다. 제 1 태스크(460)는, 동일 주기의 제품 단면 이미지를 입력받는 코드(461), 손상 여부 판정 코드(462), 및 번호 5555 포트로 출력하는 코드(463)를 포함할 수 있다. 다양한 예시에서, 엣지는, 제품의 좌/우/상/하/전/후면 이미지를 센서 장치로부터 획득할 수 있다. 엣지는, 조명의 위치를 변경하면서 촬영된 이미지를 획득할 수도 있다. 공정에 따라 하나의 제품에 대하여 촬영되는 이미지의 개수, 크기, 생성 방식이 상이할 수도 있다. 손상 여부 판정 코드(462)는, 다양한 이미지의 분석을 통하여 제품 내에 손상이 발생하는지를 확인할 수 있는 적어도 하나의 코드를 포함할 수 있다.
제 2 태스크(470)는, 동일 주기의 기기 상태와 연관된 텍스트 입력받는 코드(471), 상태 이상 확인 코드(472), 및 번호 5557 포트로 출력하는 코드(473)를 포함할 수 있다. 텍스트는, 예를 들어 로그 데이터일 수 있다. 로그 데이터는, 예를 들어 제조되는 제품이 아닌 제조 기기와 연관된 로그데이터로, 제조 기기인 절삭기의 절삭에 소요된 시간, 절삭기 온도, 절삭기 회전 속도, 검사기 기판 온도, 검사기에서 발생한 알람 정보 등을 포함할 수 있다. 정보의 종류마다 생성되는 주기가, 예를 들어 100ms, 1s, 2s, 5s로 상이할 수 있다. 상태 이상 확인 코드(472)는, 예를 들어 제조 기기의 이동 평균 등을 활용하여 절삭기 노화 수준 분석, 교체 시점 예상, 사전에 고장 예측, 실패여부를 감지 및 경고하는 코드를 포함할 수 있다.
도 5는 다양한 실시예에 따른 태스크의 처리 알고리즘을 설명하는 도면을 도시한다.
다양한 실시예에 따른 태스크 처리 장치(예: 태스크 처리 장치(110))는, 마스터 장치(100)로부터 태스크 데스크립터를 획득할 수 있다. 태스크 데스크립터는, 제조 제품의 불량 여부를 판정하기 위한 태스크를 설명할 수 있다. 태스크 처리 장치는, 태스크 데스크립터에 기반하여 태스크를 처리할 수 있다. 태스크 처리 장치는, 태스크 데스크립터의 입력 장치 식별 정보(또는, 주소 정보)에 대응하는 카메라로부터 이미지를 획득할 수 있다. 태스크는, 카메라의 식별 정보(또는, 주소 정보)로부터 이미지를 획득하기 위한 코드를 포함할 수 있으며, 코드 실행에 따라 태스크 처리 장치는 이미지(510)를 획득할 수 있다. 카메라는, 제조 제품의 일면을 촬영한 이미지(510)를 획득하여, 이를 태스크 처리 장치로 전달할 수 있다. 제조 제품의 일면에는, 제조 공정 중에 생긴 스크래치가 생길 수 있다. 이미지(510)는, 제조 제품의 일면 상에 생긴 스크래치들에 대응하는 오브젝트들(511,512)이 포함될 수 있다.
태스크는, 이미지(510)의 입력 데이터를 처리하여 불량 여부의 출력 데이터를 출력하기 위한 처리 알고리즘에 대응하는 적어도 하나의 코드를 포함할 수 있다. 적어도 하나의 코드 실행에 따라, 태스크 처리 장치는, 획득한 이미지(510)에 대하여 그레이 스케일링(예: RGB로부터 Grey로의 스케일링)을 수행할 수 있으며, 이에 따라 그레이 스케일링된 이미지(520)가 획득될 수 있다. 그레이 스케일링된 이미지(520)에는 스크래치들에 대응하는 오브젝트들(521,522)이 포함될 수 있다. 적어도 하나의 코드 실행에 따라, 태스크 처리 장치는, 그레이 스케일링된 이미지(520)에 대하여 리사이즈(예: 4000 X 500 사이즈로부터 2000 X 250으로의 리사이즈)를 수행할 수 있으며, 이에 따라 리사이즈된 이미지(530)가 획득될 수 있다. 리사이즈된 이미지(530)에는 스크래치들에 대응하는 오브젝트들(521,522)기 포함될 수 있다. 적어도 하나의 코드 실행에 따라, 태스크 처리 장치는, 리사이즈된 이미지(530)로부터 의심 부위(531,532,533)를 추출할 수 있다. 다양한 실시예에서, 태스크 처리 장치는, 미리 지정된 범위에 대응하는 의심 부위(531,532,533)를 추출할 수도 있으며, 또는 리사이즈된 이미지(530)에 대한 분석 결과에 기반하여 의심 부위(531,532,533)를 추출할 수도 있다. 적어도 하나의 코드 실행에 따라, 태스크 처리 장치는, 의심부위에 대하여 이미지 분류 알고리즘을 적용할 수 있다. 이미지 분류 알고리즘은, 입력된 이미지에 스크래치가 포함된지 여부를 출력 데이터로 출력할 수 있다. 이미지 분류 알고리즘은, 입력 데이터에 포함된 오브젝트(521,522)가 스크래치인지 여부를 확인할 수 있는 알고리즘일 수 있다. 이미지 분류 알고리즘은, 제품 능력에 영향을 줄 수 있는 다양한 스크래치 이미지 데이터베이스에, 머신 러닝(machine learning) 또는 딥 러닝(deep-learning) 등의 다양한 학습 알고리즘을 적용한 결과에 기반하여 획득될 수 있다. 이미지 분류 알고리즘은 갱신될 수도 있다. 예를 들어, 알고리즘의 라이브러리 버전이 변경되거나, 파라미터 값이 수정되거나, 학습 알고리즘의 신경망 구조가 변경되거나, 학습 알고리즘의 적용 대상의 데이터베이스가 변경된 경우, 이미지 분류 알고리즘 또한 갱신될 수 있다. 이 경우에는, 태스크 데스크립터 또한 갱신될 수 있다. 또는, 태스크에는, 객체 인식 알고리즘, 또는 비정상 검출 알고리즘 등이 포함될 수도 있으며, 이러한 인식/검출 알고리즘 또한 다양한 학습 알고리즘에 기반하여 획득될 수 있다. 태스크 처리 장치는, 예를 들어 오브젝트(521)가 스크래치인 것으로 확인할 수 있으며, 이에 따라 태스크 처리 장치는, 해당 제조 제품이 불량한 것을 나타내는 처리 결과를 출력할 수 있다. 예를 들어, 태스크 처리 장치는, 제품의 구성 요소의 불량 여부, 부품 조립 여부 등의 다양한 태스크 처리 결과를 확인할 수도 있다.
도 6은 다양한 실시예에 따른 마스터 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다.
다양한 실시예에 따라서, 마스터 장치(100)는, 601 동작에서, 복수 개의 태스크 처리 장치 각각의 속성을 확인할 수 있다. 복수 개의 태스크 처리 장치 각각의 속성은, 복수 개의 태스크 처리 장치 각각의 프로세서의 종류를 나타낼 수 있다. 예를 들어, 태스크 처리 장치의 속성은, 프로세서가 CPU 단독으로 구현된 것을 나타내거나, 또는 프로세서가 CPU 및 GPU로 구현된 것을 나타낼 수 있다.
603 동작에서, 마스터 장치(100)는, 복수 개의 태스크 처리 장치 각각의 실시간 자원 정보를 획득할 수 있다. 상술한 바와 같이, 마스터 장치(100)는, 주기적 또는 비주기적으로 복수 개의 태스크 처리 장치 각각의 실시간 자원 정보를 획득할 수 있다. 복수 개의 태스크 처리 장치 중 제 1 그룹의 태스크 처리 장치는 CPU만을 포함할 수 있으며, 제 2 그룹의 태스크 처리 장치는 CPU 및 GPU를 포함할 수 있다. 마스터 장치(100)는, 제 1 그룹의 태스크 처리 장치로부터 CPU의 자원과 연관된 LLC hit ratio 또는 메인 메모리 밴드위쓰 중 적어도 하나를 획득할 수 있다. 마스터 장치(100)는, 제 2 그룹의 태스크 처리 장치로부터 CPU의 자원과 연관된 LLC hit ratio 또는 메인 메모리 밴드위쓰 중 적어도 하나와, GPU의 자원과 연관된 GPU occupancy 또는 GPU 메모리 밴드위쓰 중 적어도 하나를 수신할 수 있다.
605 동작에서, 마스터 장치(100)는, 태스크 처리에 관한 정보를 획득할 수 있다. 607 동작에서, 마스터 장치(100)는, 복수 개의 태스크 처리 장치 각각의 속성 및 실시간 자원 정보에 기반하여, 태스크 처리에 관한 정보를 전달할 태스크 처리 장치를 확인할 수 있다. 예를 들어, 마스터 장치(100)는, 태스크를 CPU 및 GPU를 모두 포함한 태스크 처리 장치에 우선하여 분배할 수 있다. 마스터 장치(100)는, CPU 및 GPU를 모두 포함한 태스크 처리 장치들 중, 자원 경합도가 가장 낮은 태스크 처리 장치에 태스크를 분배할 수 있다. CPU 및 GPU를 모두 포함한 태스크 처리 장치들의 자원 경합도가 높은 경우, 또는 유휴 자원이 적은 경우에, 마스터 장치(100)는, CPU만을 포함하는 태스크 처리 장치에 태스크를 분배할 수 있다.
도 7은 다양한 실시예에 따른 엣지 관리 방법을 설명하기 위한 도면을 도시한다.
마스터 장치(100)는, 태스크 처리 장치를 GPU를 지원하는 GPU Edge 그룹(710) 및 GPU를 지원하지 않는 Non-GPU Edge 그룹(720)으로 구분하여 관리할 수 있다. 상술한 바와 같이, 마스터 장치(100)는, 태스크 처리 장치 각각의 속성을 확인할 수 있으며, 확인된 속성에 기반하여 태스크 처리 장치들을 양 그룹들로 구분할 수 있다. 예를 들어, 마스터 장치(100)는, GPU Edge A(711)가 GPU를 지원하는 속성 정보에 기반하여, GPU Edge A(711)를 GPU Edge 그룹(710)으로 관리할 수 있다. 마스터 장치(100)는, Non-GPU Edge A(721)가 GPU를 지원하지 않는 속성 정보에 기반하여, Non-GPU Edge A(721)를 Non-GPU Edge 그룹(720)으로 관리할 수 있다. 마스터 장치(100)는, GPU Edge A(711)의 실시간 자원 정보를 획득하여 관리할 수 있으며, Non-GPU Edge A(721)의 실시간 자원 정보를 획득하여 관리할 수 있다. 예를 들어, 마스터 장치(100)는, GPU Edge A(711)의 엣지 전체의 실시간 자원 정보를 관리하고, Non-GPU Edge A(721)의 엣지 전체의 실시간 자원 정보를 획득하여 관리할 수 있다 .
또는, 마스터 장치(100)는, GPU Edge A(711)에서 처리중인 태스크(713)의 LLC hit ratio(714), 메인 메모리 밴드위쓰(715), GPU occupancy(716), 및 GPU 메모리 밴드위쓰(717)를 관리할 수 있다. 태스크 처리 장치는, 엣지 전체의 실시간 자원 정보를 마스터 장치(100)로 전달할 수도 있으며, 또는 엣지 내에서 처리 중인 태스크 별 실시간 자원 정보를 마스터 장치(100)로 전달할 수 있다. 마스터 장치(100)는, GPU Edge A(711)에서 처리중인 또 다른 태스크(718)의 실시간 자원 정보를 관리할 수도 있다. 마스터 장치(100)는, Non-GPU Edge A(721)에서 처리중인 태스크(721)의 LLC hit ratio(723) 및 메인 메모리 밴드위쓰(724)를 관리할 수 있다.
마스터 장치(100)는, 엣지 별 속성에 기반하여 태스크를 분배할 수 있다. 다양한 실시예에서, 마스터 장치(100)는, 분배할 태스크가 GPU용인지 또는 CPU 용인지 여부를 확인할 수 있으며, 확인 결과 및 엣지 별 속성에 기반하여 태스크를 분배할 수도 있으며, 이에 대하여서는 더욱 상세하게 후술하도록 한다.
도 8a는 다양한 실시예에 따른 프로파일링 결과에 기반한 태스크 분배를 설명하는 도면을 도시한다 . 도 4와 관련하여 설명된 구성 요소에 대하여서는, 간략하게 설명하도록 한다.
도 8a를 참조하면, 마스터 장치(800)(예: 마스터 장치(100))는, 태스크 스케줄러(810) 및 태스크 매니저(816)를 포함할 수 있다. 태스크 풀(811)에는 태스크 데스크립터(812)가 저장될 수 있다. 태스크 데스크립터(812)에는, 태스크의 입력 정보(813), 처리 정보(814), 및 출력 정보(815)가 포함될 수 있다.
다양한 실시예에 따른 마스터 장치(800)는, 태스크 데스크립터(812)에 대응하는 태스크(821)를, 처리해 본 이후, 태스크 처리에 요구되는 정보를 확인할 수 있다. 마스터 장치(800)는 태스크 처리 결과에 기반하여 태스크 분배를 수행할 수 있으며, 이에 따라 태스크를 처리하여 태스크 처리에 요구되는 정보를 확인하는 과정을 태스크 프로파일링이라고 명명할 수 있다.
예를 들어, 마스터 장치(800)는, 831 동작에서, 스케줄링 전에 태스크 데스크립터를 프로파일링 엣지(profiling edge)(820)에 전달할 수 있다. 프로파일링 엣지(820)는, CPU 및 GPU를 모두 포함할 수 있다. 프로파일링 엣지(820)는, 하나의 실시예에서는 마스터 장치(800)에 포함될 수 있다. 또는, 프로파일링 엣지(820)는, 마스터 장치(800)의 외부 장치로서, 마스터 장치(800)와 데이터 입출력이 가능한 장치일 수 있다. 예를 들어, 프로파일링 엣지(820)는, 태스크 처리 장치들 중 CPU 및 GPU를 모두 포함하는 장치일 수 있다. 또는, 프로파일링 엣지(820)는, 프로파일 전용의 엣지일 수도 있다.
프로파일링 엣지(820)는, 획득한 태스크 데스크립터에 기반하여 태스크(821)를 처리할 수 있다. 프로파일링 엣지(820)는, 특정 시간 동안 CPU를 이용하여 태스크(821)를 수행할 수 있으며, 또한 특정 시간 동안 CPU 및 GPU를 모두 이용하여 태스크(821)를 수행할 수 있다. 프로파일링 엣지(820)는, 처리 결과에 기반하여 태스크(821)의 처리에 요구되는 정보를 확인할 수 있다. 예를 들어, 태스크(821)의 처리에 요구되는 정보는, CPU만 이용한 경우의 LLC hit ratio, 메인 메모리 밴드위쓰를 포함하는 CPU 엣지 테스트 정보(822)를 포함할 수 있다. 태스크(821)의 처리에 요구되는 정보는, GPU 및 CPU를 이용한 경우의 LLC hit ratio, 메인 메모리 밴드위쓰, GPO occupancy, 및 GPU 메모리 밴드위쓰를 포함하는 GPU 엣지 테스트 정보(823)를 포함할 수 있다. CPU만을 이용하는 경우의 CPU의 LLC hit ratio 및 메인 메모리 밴드위쓰는, CPU 및 GPU를 모두 이용하는 경우의 CPU의 LLC hit ratio 및 메인 메모리 밴드위쓰와 상이할 수 있다. CPU 및 GPU를 모두 이용하여, GPU 가속 컴퓨팅을 수행하는 경우에는, 연산 집약적인 연산은 GPU가 수행하고, 나머지 코드가 CPU에서 처리될 수 있다. 한편, CPU만으로 태스크를 수행하는 경우에는, 모든 연산을 CPU에서 처리된다. 이에 따라, GPU 및 CPU를 모두 이용하여 태스크 프로파일링을 수행한 결과에 따라 확인된 CPU LLC hit ratio나 메인 메모리 밴드위쓰는, CPU만을 지원하는 태스크 처리 장치에 대한 태스크 분배시에는, 프로파일링 데이터로써 부적합하다. 이에 따라, 프로파일링 엣지(820)는 CPU 및 GPU를 이용한 태스크 프로파일링뿐만 아니라, CPU만을 이용한 태스크 프로파일링도 수행할 수 있다. CPU 엣지 테스트 정보(822)는, 태스크를 CPU만을 지원하는 태스크 처리 장치들 중 하나를 선택하는 경우에 이용될 수 있다. 아울러, GPU 엣지 테스트 정보(823)는, 태스크를 GPU를 지원하는 태스크 처리 장치들 중 하나를 선택하는 경우에 이용될 수 있다.
프로파일링 엣지(820)는, 태스크(821)의 처리에 요구되는 정보를 마스터 장치(800)에 전달할 수 있으며, 마스터 장치(800)는 이를 프로파일 데이터(824)로서 저장할 수 있다. 마스터 장치(800)에 프로파일링 엣지(820)가 포함되거나, 또는 마스터 장치(800)가 직접 태스크 프로파일링을 수행하는 경우에는, 마스터 장치(800)는 태스크(821)의 처리에 요구되는 정보를 확인하여, 이를 프로파일 데이터(824)로서 저장할 수 있다.
마스터 장치(800)는, 예를 들어 833 동작에서, 태스크 데스크립터(812)에 프로파일 데이터(824)를 갱신할 수도 있다. 834 동작에서, 태스크 매니저(816)는 프로파일링된 데이터를 바탕으로 태스크 스케줄링을 진행할 수 있다. 예를 들어, 태스크 매니저(816)는, 태스크 처리 장치들로부터 실시간 자원 정보를 획득할 수 있다. 태스크 매니저(816)는, 태스크 처리 장치들 각각의 실시간 자원 정보 및 프로파일 데이터(824)를 이용하여, 태스크 데스크립터(812)를 전달할 태스크 처리 장치를 선택할 수 있다. 태스크 매니저(816)는, 태스크를 분배할 경우의 자원 경합도가 가장 낮을 것으로 예측되는 태스크 처리 장치에 태스크를 분배할 수 있다. 예를 들어, 태스크 매니저(816)는, 태스크 처리 장치들의 실시간 자원 정보를 확인하고, 프로파일 데이터(824)를 적용한 경우의 태스크 처리 장치들 각각의 자원 사용량, 유휴 자원량, 또는 자원 경합도 중 적어도 하나의, 자원 경합도를 나타낼 수 있는 파라미터를 확인할 수 있다. 태스크 매니저(816)는, 자원 경합도가 가장 낮을 것으로 예측되는 태스크 처리 장치에 태스크를 분배할 수 있다.
태스크 매니저(816)는, 상술한 바와 같이, CPU만을 지원하는 태스크 처리 장치 및 GPU를 지원하는 태스크 처리 장치를 구분하여 관리할 수 있다. 태스크 매니저(816)가, CPU만을 지원하는 태스크 처리 장치 중 하나에 태스크를 분배하고자 하는 경우에, 태스크 매니저(816)는 CPU 엣지 테스트 정보(822)에 기반하여 태스크 처리 장치를 선택할 수 있다. 태스크 매니저(816)가 GPU를 지원하는 태스크 처리 장치 중 하나에 태스크를 분배하고자 하는 경우에, 태스크 매니저(816)는 GPU 엣지 테스트 정보(823)에 기반하여 태스크 처리 장치를 선택할 수 있다.
프로파일링은, 예를 들어 지정된 시간 동안 수행될 수 있다. 또는, 프로파일링은, 제조 공정에 대한 태스크에 대하여서는 제품 단위를 기준으로 수행될 수 있다. 프로파일링의 시간, 단위에 대하여서는 제한이 없다.
도 8b는 다양한 실시예에 따른 마스터 장치의 동작을 설명하기 위한 흐름도를 도시한다.
851 동작에서, 다양한 실시예에 따른 마스터 장치(100)는, 태스크 처리에 관한 정보를 획득할 수 있다. 853 동작에서, 마스터 장치(100)는, 태스크 프로파일링을 수행하여 CPU 환경에서의 처리에 요구되는 자원에 대한 제 1 정보(예: 도 8a의 CPU 엣지 테스트 정보(822))를 확인할 수 있다. 예를 들어, 마스터 장치(100)는, CPU 및 GPU를 모두 포함하는 경우에도, 태스크 프로파일링에서 요구되는 연산을 GPU에 분배하지 않고, CPU에 의하여서만 수행할 수 있다. 855 동작에서, 마스터 장치(100)는, 태스크 프로파일링을 수행하여 CPU 및 GPU 환경에서의 처리에 요구되는 자원에 대한 제 2 정보(예: 도 8a의 GPU 엣지 테스트 정보(823))를 확인할 수 있다. 마스터 장치(100)는, 태스크 프로파일링에서 요구되는 연산을 CPU 및 GPU를 모두 이용하여 수행할 수 있으며, CPU 환경에서의 처리에 요구되는 자원에 대한 제 2 정보를 확인할 수 있다. 한편, 상술한 바와 같이, 태스크 프로파일링은 외부 장치에 의하여 수행될 수도 있으며, 이 경우에는 마스터 장치(100)는, 태스크 처리에 관한 정보를 외부 장치로 전송하며, 이에 대한 응답으로 제 1 정보 및 제 2 정보를 포함하는 태스크 처리에 요구되는 정보를 수신할 수도 있다. 마스터 장치(100)는, 외부 장치로, CPU만을 이용한 태스크 처리 및 CPU 및 GPU를 모두 이용한 태스크 처리를 명령할 수 있다. 또는, 마스터 장치(100)가 태스크 프로파일링을 요청하면, 외부 장치(즉, 프로파일링 엣지)가, 태스크를 CPU만을 이용한 처리, GPU만을 이용한 처리를 수행하여 각각에 의하여 확인된 제 1 정보 및 제 2 정보를 마스터 장치(100)로 전달하도록 설정될 수도 있다.
857 동작에서, 마스터 장치(100)는, 태스크의 프로파일링 결과가 GPU 이용 조건을 만족하는지 여부를 확인할 수 있다. 마스터 장치(100)는, 태스크가 처리시 많은 연산량을 요구하는 경우에 GPU를 이용할 것으로 확인할 수 있다. 예를 들어, 마스터 장치(100)는, 태스크 프로파일링 결과, GPU occupancy가 임계 GPU occupancy를 초과하는 경우에, 태스크의 프로파일링 결과가 GPU 이용 조건을 만족하는 것으로 확인할 수 있다. 또는, 마스터 장치(100)는, GPU 메모리 밴드위쓰가 임계 GPU 메모리 밴드위쓰를 초과하는 경우에, 태스크의 프로파일링 결과가 GPU 이용 조건을 만족하는 것으로 확인할 수 있다. 한편, 상술한 GPU occupancy 및 GPU 메모리 밴드위쓰 각각을 기반으로 한 GPU 이용 조건의 만족 여부 확인은 단순히 예시적인 것으로, 마스터 장치(100)는 태스크 처리시 요구되는 연산량과 연관된 파라미터라면 제한 없이 이용하여, 태스크 처리 시에 GPU를 이용할 지 여부를 확인할 수 있다.
GPU 이용 조건이 만족되지 않은 것으로 확인되면, 859 동작에서, 마스터 장치(100)는, 제 1 정보 및 제 1 그룹 태스크 처리 장치의 실시간 자원 정보에 기반하여, 제 1 그룹 태스크 처리 장치 중 적어도 하나를 선택할 수 있다. 제 1 그룹 태스크 처리 장치는, CPU만을 지원하는 태스크 처리 장치의 그룹일 수 있다. 예를 들어, 마스터 장치(100)는, CPU만을 지원하는 제 1 그룹 태스크 처리 장치들의 실시간 자원 정보와 제 1 정보에 기반하여, 제 1 그룹 태스크 처리 장치들 중 태스크를 추가 처리할 경우, 사용량이 가장 낮거나, 유휴 사용량이 가장 크거나, 자원 경합도가 가장 낮을 것으로 예상되는 태스크 처리 장치를 선택할 수 있다. 861 동작에서, 마스터 장치(100)는, 선택된 태스크 처리 장치로 태스크 처리에 관한 정보를 전달할 수 있다.
GPU 이용 조건이 만족된 것으로 확인되면, 863 동작에서, 마스터 장치(100)는, 제 2 정보 및 제 2 그룹 태스크 처리 장치의 실시간 자원 정보에 기반하여, 제 2 그룹 태스크 처리 장치 중 적어도 하나를 선택할 수 있다. 제 2 그룹 태스크 처리 장치는, GPU를 지원하는 태스크 처리 장치의 그룹일 수 있다. 예를 들어, 마스터 장치(100)는, GPU를 지원하는 제 2 그룹 태스크 처리 장치들의 실시간 자원 정보와 제 2 정보에 기반하여, 제 2 그룹 태스크 처리 장치들 중 태스크를 추가 처리할 경우, 사용량이 가장 낮거나, 유휴 사용량이 가장 크거나, 자원 경합도가 가장 낮을 것으로 예상되는 태스크 처리 장치를 선택할 수 있다. 865 동작에서, 마스터 장치(100)는, 선택된 태스크 처리 장치로 태스크 처리에 관한 정보를 전달할 수 있다.
도 9a는 다양한 실시예에 따른 마스터 장치, 태스크 처리 장치, 및 센서 장치의 동작을 설명하기 위한 흐름도를 도시한다 .
다양한 실시예에 따라서, 마스터 장치(100)는, 901 동작에서, 태스크 처리에 관한 정보를 획득할 수 있다. 903 동작에서, 마스터 장치(100)는, 획득한 태스크 처리에 관한 정보에 기반하여 태스크를 처리할 수 있다. 태스크는, 예를 들어 센서 장치(150)로부터 입력 데이터를 획득하는 코드를 포함할 수 있다. 905 동작에서, 마스터 장치(100)는, 태스크 처리 과정 중에서, 센서 장치(150)로부터 센싱 데이터를 획득할 수 있다. 907 동작에서, 마스터 장치(100)는, 센싱 데이터를 이용하여 태스크 처리하여, 처리에 요구되는 자원에 대한 정보를 확인할 수 있다.
909 동작에서, 마스터 장치(100)는 태스크 처리 장치(110)로부터 실시간 자원 정보를 획득할 수 있다. 911 동작에서, 마스터 장치(100)는, 태스크 처리 장치(120)로부터 실시간 자원 정보를 획득할 수 있다. 913 동작에서, 마스터 장치(100)는, 실시간 자원 정보들 및 태스크 처리에 요구되는 자원에 대한 정보에 기반하여, 태스크 처리에 관한 정보를 전달할 태스크 처리 장치를 확인할 수 있다. 예를 들어, 마스터 장치(100)는, 태스크 처리에 예상되는 자원양보다 유휴 자원이 큰 장치를 우선적으로 선택할 수 있다. 도 9b는 다양한 실시예에 따른 유휴 자원 및 태스크 처리 예상 자원을 설명하기 위한 도면을 도시한다. 예를 들어, 도 9b에서와 같이, 마스터 장치(100)는 세 개의 태스크 처리 장치들의 자원에 대한 정보(921,922,923)를 관리할 수 있다. 도 2c와 관련하여 설명한 바와 같이, 도 9b의 자원에 대한 정보(921,922,923)는 단순히 유휴 자원량의 개념을 설명하기 위하여 도시된 것일 뿐, 마스터 장치(100)는 유휴 자원량과 연관된 다양한 파라미터를 관리할 수 있다. 도 9b 상의, “A”, “B”, “C”, “D”, “E”등의 단위는, LLC hit ratio, 메인 메모리 밴드 위쓰, GPU occupancy, 또는 GPU 메모리 밴드 위쓰 중 어느 하나이거나, 또는 LLC hit ratio, 메인 메모리 밴드 위쓰, GPU occupancy, 또는 GPU 메모리 밴드 위쓰 중 적어도 하나에 기반하여 도출될 수 있다.
마스터 장치(100)는, 태스크 프로파일링 결과에 따라 태스크 처리에 요구되는 자원양을 나타내는 정보(924)를 확인할 수 있다. 예를 들어, 태스크 처리에 요구되는 자원양이 E인 것을 상정하도록 한다. 마스터 장치(100)는, 예를 들어 제 2 태스크 처리 장치의 자원에 대한 정보(922)에 의하여 확인된 유휴 자원량은 태스크 처리에 요구되는 자원양보다 작은 것을 확인할 수 있다. 마스터 장치(100)는, 제 2 태스크 처리 장치를 태스크를 분배할 태스크 처리 장치의 후보로부터 제외시킬 수 있다. 마스터 장치(100)는, 태스크를 분배한 경우의 제 1 태스크 처리 장치의 자원 정보(921) 및 제 3 태스크 처리 장치의 자원 정보(923)를 예측할 수 있다. 마스터 장치(100)는, 예측 결과에 기반하여 자원 경합도가 가장 낮을 것으로 예상되는 태스크 처리 장치를 선택할 수 있다. 또는, 마스터 장치(100)는, 유휴 자원이 가장 큰 태스크 처리 장치를 선택할 수도 있다.
915 동작에서, 마스터 장치(100)는, 확인된 태스크 처리 장치로, 태스크 처리에 관한 정보를 전달할 수 있다. 예를 들어, 태스크 처리 장치(110)가 선택된 것을 상정하도록 하며, 마스터 장치(100)는 태스크 처리 장치(110)로 태스크 처리에 관한 정보를 전달할 수 있다. 태스크 처리 장치(110)는, 태스크 처리에 관한 정보에 기반하여 태스크를 처리할 수 있다. 917 동작에서, 태스크 처리 장치(110)는, 센서 장치(150)로부터 센싱 데이터 획득할 수 있다. 919 동작에서, 태스크 처리 장치(110)는, 센싱 데이터를 이용하여 태스크 처리하여, 처리 결과를 출력할 수 있다.
도 10a는 다양한 실시예에 따른 마스터 장치, 태스크 처리 장치, 및 센서 장치의 동작을 설명하기 위한 흐름도를 도시한다 .
다양한 실시예에 따라서, 마스터 장치(100)는, 1001 동작에서, 태스크 처리에 관한 정보를 획득할 수 있다. 마스터 장치(100)는, 복수 개의 태스크 처리 장치들 중 태스크 프로파일링을 수행할 태스크 처리 장치를 선택할 수 있다. 예를 들어, 마스터 장치(100)는, 복수 개의 태스크 처리 장치들의 실시간 자원 사용에 기반하여 태스크 프로파일링을 수행할 태스크 처리 장치를 선택할 수 있다. 마스터 장치(100)는, 실시간 자원 사용이 가장 적은 태스크 처리 장치를 선택할 수 있다. 또는, 마스터 장치(100)는, CPU 및 GPU를 포함하는 태스크 처리 장치를 선택할 수 있다. 예를 들어, 마스터 장치(100)는, CPU 및 GPU를 포함하는 태스크 처리 장치들 중 실시간 자원 사용이 가장 적은 태스크 처리 장치를 선택할 수 있다 . 예를 들어, 마스터 장치(100)는 태스크 처리 장치(120)를 태스크 프로파일링을 수행할 태스크 처리 장치로 선택한 것을 상정하도록 한다. 1003 동작에서, 마스터 장치(100)는, 태스크 프로파일링 수행을 태스크 처리 장치(120)에 지시할 수 있다. 마스터 장치(100)는, 태스크 처리에 관한 정보, 즉 태스크 데스크립터를 태스크 처리 장치(120)로 전달할 수 있다.
1005 동작에서, 태스크 처리 장치(120)는, 태스크를 처리를 위하여 센서 장치(150)로부터 센싱 데이터를 획득할 수 있다. 1007 동작에서, 태스크 처리 장치(120)는, 센싱 데이터를 이용하여 태스크 처리하여, 처리에 요구되는 자원에 대한 정보를 확인할 수 있다. 태스크 처리 장치(120)는, 이미 기분배받은 태스크를 처리 중인 경우에, 프로파일링을 위한 태스크를 함께 처리할 수 있다. 이 경우에는, 태스크 처리 장치(120)는, 태스크 별로 처리에 요구되는 정보를 확인할 수 있으며, 이에 따라 프로파일링 대상 태스크 처리에 요구되는 정보를 마스터 장치(100)로 전달할 수 있다. 또는, 태스크 처리 장치(120)는, 기분배받아 처리중인 태스크의 처리를 중단하고, 프로파일링을 위한 태스크를 처리할 수도 있다. 태스크 처리 장치(120)는 태스크 프로파일링 결과에 기반하여 태스크 처리에 요구되는 자원에 대한 정보를 확인할 수 있다. 1009 동작에서, 태스크 처리 장치(120)는, 처리에 요구되는 자원에 대한 정보를 마스터 장치(100)로 전달할 수 있다.
1011 동작에서, 마스터 장치(100)는, 태스크 처리 장치(110)로부터 실시간 자원 정보를 획득할 수 있다. 1013 동작에서, 마스터 장치(100)는, 태스크 처리 장치(120)로부터 실시간 자원 정보를 획득할 수 있다. 1015 동작에서, 마스터 장치(100)는, 실시간 자원 정보들 및 태스크 처리에 요구되는 자원에 대한 정보에 기반하여, 태스크 처리에 관한 정보를 전달할 태스크 처리 장치를 확인할 수 있다. 상술한 바와 같이, 마스터 장치(100)는, 태스크 분배 시 유휴 자원량이 가장 크거나, 또는 자원 경합도가 가장 낮은 태스크 처리 장치를 선택할 수 있다. 예를 들어, 마스터 장치(100)는, 태스크 처리 장치(110)를 태스크 처리를 위한 정보를 전달할 태스크 처리 장치로서 확인할 수 있다.
1017 동작에서, 마스터 장치(100)는, 확인된 태스크 처리 장치(110)로, 태스크 처리에 관한 정보를 전달할 수 있다. 태스크 처리 장치(110)는, 태스크 처리에 관한 정보에 기반하여 태스크를 처리할 수 있다. 1019 동작에서, 태스크 처리 장치(110)는, 센서 장치(150)로부터 센싱 데이터를 획득할 수 있다. 1021 동작에서, 태스크 처리 장치(110)는, 센싱 데이터를 이용하여 태스크 처리하여, 처리 결과를 출력할 수 있다.
도 10b는 다양한 실시예에 따른 마스터 장치, 태스크 처리 장치, 및 센서 장치의 동작을 설명하기 위한 흐름도를 도시한다 .
1031 동작에서, 마스터 장치(100)는, 태스크 처리에 관한 정보를 획득할 수 있다. 1033 동작에서, 마스터 장치(100)는, 지정된 태스크 분배 기준에 기반하여 태스크 처리에 관한 정보를 분배할 수 있다. 예를 들어, 마스터 장치(100)는, 태스크 프로파일링을 수행하기 이전이기 때문에, 무작위로 태스크를 분배할 수 있다. 또는, 마스터 장치(100)는, 태스크 처리 장치들의 실시간 자원 정보에 기반하여, 태스크를 분배할 수 있다. 예를 들어, 마스터 장치(100)가 태스크 처리 장치(120)에 태스크를 분배한 것을 상정하도록 한다.
1035 동작에서, 태스크 처리 장치(120)는, 센서 장치(150)로부터 센싱 데이터를 획득할 수 있다. 1037 동작에서, 태스크 처리 장치(120)는, 센싱 데이터를 이용하여 태스크 처리하여, 처리에 요구되는 자원에 대한 정보를 확인할 수 있다. 1039 동작에서, 태스크 처리 장치(120)는, 처리에 요구되는 자원에 대한 정보를 마스터 장치(100)로 전달할 수 있다.
1041 동작에서, 마스터 장치(100)는, 태스크 처리 장치(110)로부터 실시간 자원 정보를 획득할 수 있다. 1043 동작에서, 마스터 장치(100)는, 태스크 처리 장치(120)로부터 실시간 자원 정보를 획득할 수 있다. 1045 동작에서, 마스터 장치(100)는, 실시간 자원 정보들 및 태스크 처리에 요구되는 자원에 대한 정보에 기반하여, 태스크 처리에 관한 정보를 재분배할 수 있다. 예를 들어, 마스터 장치(100)는, 태스크 처리가 수행되는 경우, 태스크 처리 장치(110)의 자원 경합도가 태스크 처리 장치(120)의 자원 경합도보다 낮은 것으로 예상할 수 있다. 마스터 장치(100)는, 태스크 처리 장치(110)로 태스크 처리에 관한 정보를 재분배할 수 있다. 만약, 태스크 처리가 수행되는 경우, 태스크 처리 장치(120)의 자원 경합도가 태스크 처리 장치(110)의 자원 경합도보다 낮을 것으로 예상되면, 마스터 장치(100)는 태스크 처리 장치(120)가 계속하여 태스크를 수행하도록 할 수 있다.
1047 동작에서, 태스크 처리 장치(110)는, 센서 장치(150)로부터 센싱 데이터를 획득할 수 있다. 1049 동작에서, 태스크 처리 장치(110)는, 센싱 데이터를 이용하여 태스크 처리하여, 처리 결과를 출력할 수 있다.
도 11은 다양한 실시예에 따른 GPU 이용 여부를 확인하는 태스크 스케줄러를 설명하기 위한 도면을 도시한다.
다양한 실시예에 따른 태스크 스케줄러(1110)는, 태스크 풀(1111) 및 엣지 매니저(1120)를 포함할 수 있다. 태스크 풀(1111)에는 태스크 데스크립터(1112)가 저장될 수 있다. 태스크 데스크립터(1112)는 프로파일 데이터(1113)를 포함할 수 있다. 프로파일 데이터(1113)는, 예를 들어 CPU 단독 환경에서의 태스크 프로파일링 결과에 기반한 제 1 정보(예: CPU 엣지 테스트 정보(822)) 및 제 2 정보(예: GPU 엣지 테스트 정보(823))를 포함할 수 있다. 1131 동작에서, 엣지 매니저(1120)는 스케줄링할 태스크 데스크립터(1112)를 선택할 수 있다.
엣지 매니저(1120)는, 1132 동작에서, 스케줄링할 태스크가 연산 집중형 태스크(computational intensive task)인지 판별할 수 있다. 엣지 매니저(1120)는, 스케줄링할 태스크가 연산 집중형 태스크라고 판별되면, 해당 태스크를 GPU를 지원하는 태스크 처리 장치에 분배할 수 있다. 예를 들어, 엣지 매니저(1120)는, 도 12의 동작을 수행하여 연산 집중형 태스크인지 여부를 확인할 수 있다. 엣지 매니저(1120)는, 1133 동작에서, 연산 집중형 태스크인지 여부에 기반하여 엣지를 선택할 수 있다. 엣지 매니저(1120)는, GPU 엣지 그룹(1121) 및 비-GPU 엣지 그룹(1123)을 구분하여 관리할 수 있다. 엣지 매니저(1120)는, GPU를 지원하는 엣지(예: GPU 엣지 A(1122))의 실시간 자원 정보를 관리할 수 있다. 엣지 매니저(1120)는, GPU를 지원하는 엣지 별 처리 중인 태스크 별 실시간 자원 정보를 관리할 수도 있다. 엣지 매니저(1120)는, GPU를 지원하지 않는 엣지(예: 비-GPU 엣지(A)(1124))의 실시간 자원 정보를 관리할 수 있다. 엣지 매니저(1120)는, 비-GPU 엣지 별 처리 중인 태스크 별 실시간 자원 정보를 관리할 수도 있다. 스케줄링할 태스크가 연산 집중형 태스크인 것으로 확인되면, 엣지 매니저(1120)는 GPU 엣지 그룹(1121) 중 하나의 엣지에 태스크를 분배할 수 있다. 예를 들어, 엣지 매니저(1220)는 GPU 엣지 그룹(1121)의 엣지들 중, 태스크 분배 시 자원 경합도가 가장 낮을 것으로 예측되는 엣지를 선택할 수 있다. 스케줄링할 태스크가 연산 집중형 태스크가 아닌 것으로 확인되면, 엣지 매니저(1120)는 비-GPU 엣지 그룹(1123) 중 하나의 엣지에 태스크를 분배할 수 있다. 예를 들어, 엣지 매니저(1120)는 비-GPU 엣지 그룹(1123)의 엣지들 중, 태스크 분배 시 자원 경합도가 가장 낮을 것으로 예측되는 엣지를 선택할 수 있다. 1134 동작에서, 엣지 매니저(1120)는 선택된 엣지에 태스크 데스크립터를 전달하여 태스크를 실행할 수 있도록 한다.
도 12는 다양한 실시예에 따른 GPU 이용 여부를 확인하는 마스터 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다.
다양한 실시예에 따른 마스터 장치(100)는, 1201 동작에서 프로파일 데이터를 획득할 수 있다. 프로파일 데이터(profile data)는, CPU 엣지 테스트 데이터 및 GPU 엣지 테스트 데이터를 포함할 수 있다. CPU 엣지 테스트 데이터는 CPU 단독 환경에서의 태스크 프로파일링 결과 확인된 데이터이며, GPU 엣지 테스트 데이터는 CPU 및 GPU 환경에서의 태스크 프로파일링 결과 확인된 데이터일 수 있다. CPU 엣지 테스트 데이터는, CPU 단독 환경에서의 LLC hit ratio(CL), CPU 단독 환경에서의 메인 메모리 밴드위쓰(CM)을 포함할 수 있다. GPU 엣지 테스트 데이터는, GPU 및 CPU 환경에서의 CPU의 LLC hit ratio(GL), GPU 및 CPU 환경에서의 메인 메모리 밴드위쓰(GM), GPU 및 CPU 환경에서의 GPU occupancy(GO), GPU 및 CPU 환경에서의 GPU 메모리 밴드위쓰(GG)를 포함할 수 있다.
1203 동작에서, 마스터 장치(100)는, GPU occupancy(G0)가 임계 GPU occupancy(threshold_GO)를 초과하는지 여부를 확인할 수 있다. GPU occupancy(G0)가 임계 GPU occupancy(threshold_GO)를 초과하는 것으로 확인되면, 마스터 장치(100)는, 1205 동작에서, GPU 및 CPU 환경에서의 메인 메모리 밴드위쓰(GM)가 CPU 단독 환경에서의 메인 메모리 밴드위쓰(CM)을 초과하는 지 여부를 확인할 수 있다. GPU 및 CPU 환경에서의 메인 메모리 밴드위쓰(GM)가 CPU 단독 환경에서의 메인 메모리 밴드위쓰(CM)을 초과하는 경우, 해당 태스크가 연산 집중형 태스크로 확인할 수 있다. GPU occupancy(G0)가 임계 GPU occupancy(threshold_GO)를 초과하지 않는 것으로 확인되거나, GPU 및 CPU 환경에서의 메인 메모리 밴드위쓰(GM)가 CPU 단독 환경에서의 메인 메모리 밴드위쓰(CM)을 초과하지 않는 것으로 확인되면, 마스터 장치(100)는, 해당 태스크가 연산 집중형 태스크가 아닌 것으로 확인할 수 있다. 한편, 1203 동작 및 1205 동작에서의 파라미터 및 파라미터 비교 조건은 단순히 예시적인 것이며, 연산 집중형 태스크인지 여부를 확인하기 위한 파라미터 및 대응하는 비교 조건에는 제한이 없다. 아울러, 도 13에서는 1203 동작 및 1205 동작의 2회의 조건 만족 여부 판단에 기반하여, 태스크가 연산 집중형 태스크인지 여부를 확인하였지만 이 또한 예시적인 것으로, 비교를 위한 조건의 개수에는 제한이 없으며, 단일 조건 만족 여부로 연산 집중형 태스크인지 여부가 판단될 수도 있다.
해당 태스크가 연산 집중형 태스크인 것으로 확인되면, 마스터 장치(100)는, 1207 동작에서, GPU 엣지 그룹에 태스크를 우선 배치할 수 있다. 마스터 장치(100)는 프로파일 데이터 내의 GPU 및 CPU 환경에서의 GPU occupancy(GO) 및 GPU 및 CPU 환경에서의 GPU 메모리 밴드위쓰(GG)에 대응하는 자원 사용량보다 큰 유휴 자원을 가지는 엣지 중 가장 큰 유휴 자원을 가지는 GPU 엣지를 선택할 수 있다. 즉, 마스터 장치(100)는, 프로파일 데이터 내의 GPU 및 CPU 환경에서의 GPU occupancy(GO) 및 GPU 및 CPU 환경에서의 GPU 메모리 밴드위쓰(GG)에 대응하는 자원 사용량보다 큰 유휴 자원을 가지는 엣지 중 자원 경합도가 가장 낮을 것으로 예상되는 엣지를 선택할 수 있다. 만약, GPU 및 CPU 환경에서의 GPU occupancy(GO) 및 GPU 및 CPU 환경에서의 GPU 메모리 밴드위쓰(GG)에 대응하는 자원 사용량보다 큰 유휴 자원을 가지는 엣지가 확인되지 않으면, 1211 동작에서, 마스터 장치(100)는 지정된 파라미터 순서에 기반하여 엣지를 선택할 수 있다. 예를 들어, 마스터 장치(100)는, GPU 및 CPU 환경에서의 GPU occupancy(GO)에 기반하여 확인된 유휴 자원량이 가장 높은 엣지를 선택하거나, GPU 및 CPU 환경에서의 GPU 메모리 밴드위쓰(GG)에 기반하여 확인된 유휴 자원량이 가장 높은 엣지를 선택하거나, GPU 및 CPU 환경에서의 메인 메모리 밴드위쓰(GM)에 기반하여 확인된 유휴 자원량이 가장 높은 엣지를 선택하거나, GPU 및 CPU 환경에서의 CPU의 LLC hit ratio(GL)에 기반하여 확인된 유휴 자원량이 가장 높은 엣지를 선택할 수 있다. 여기에서 우선 순위가, GPU 및 CPU 환경에서의 GPU occupancy(GO), GPU 및 CPU 환경에서의 GPU 메모리 밴드위쓰(GG), GPU 및 CPU 환경에서의 메인 메모리 밴드위쓰(GM), GPU 및 CPU 환경에서의 CPU의 LLC hit ratio(GL) 순으로 설정될 수 있으나, 이는 단순히 예시적인 것이다.
해당 태스크가 연산 집중형 태스크이 아닌 것으로 확인되면, 마스터 장치(100)는, 1209 동작에서, 비-GPU 엣지 그룹에 태스크를 우선 배치할 수 있다. 마스터 장치(100)는, 프로파일 데이터 내의 CPU 단독 환경에서의 LLC hit ratio(CL) 및 CPU 단독 환경에서의 메인 메모리 밴드위쓰(CM)에 대응하는 자원 사용량보다 큰 유휴 자원을 가지는 엣지 중 가장 큰 유휴 자원을 가지는 비-GPU 엣지를 선택할 수 있다. 즉, 마스터 장치(100)는, 프로파일 데이터 내의 CPU 단독 환경에서의 LLC hit ratio(CL) 및 CPU 단독 환경에서의 메인 메모리 밴드위쓰(CM)에 대응하는 자원 사용량보다 큰 유휴 자원을 가지는 엣지 중 자원 경합도가 가장 낮을 것으로 예상되는 엣지를 선택할 수 있다. 만약, CPU 단독 환경에서의 LLC hit ratio(CL) 및 CPU 단독 환경에서의 메인 메모리 밴드위쓰(CM)에 대응하는 자원 사용량보다 큰 유휴 자원을 가지는 엣지가 확인되지 않으면, 1213 동작에서, 마스터 장치(100)는 지정된 파라미터 순서에 기반하여 엣지를 선택할 수 있다. 예를 들어, 마스터 장치(100)는, CPU 단독 환경에서의 메인 메모리 밴드위쓰(CM)에 기반하여 확인된 유휴 자원량이 가장 높은 엣지를 선택하거나, CPU 단독 환경에서의 LLC hit ratio(CL)에 기반하여 확인된 유휴 자원량이 가장 높은 엣지를 선택할 수 있다. 여기에서 우선 순위가, CPU 단독 환경에서의 메인 메모리 밴드위쓰(CM), CPU 단독 환경에서의 LLC hit ratio(CL) 순으로 설정될 수 있으나, 이는 단순히 예시적인 것이다.
도 13은 다양한 실시예에 따른 마스터 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다.
다양한 실시예에 따라서, 마스터 장치(100)는, 1301 동작에서, 태스크 프로파일링을 통한 태스크 처리에 요구되는 자원에 대한 정보를 확인할 수 있다. 마스터 장치(100)는, 태스크 프로파일링을 수행하여 태스크 처리에 요구되는 자원에 대한 정보를 확인하거나, 또는 태스크 프로파일링을 수행한 외부 장치로부터 태스크 처리에 요구되는 자원에 대한 정보를 획득할 수 있다. 1303 동작에서, 마스터 장치(100)는, 복수 개의 태스크 처리 장치들로부터 획득한 실시간 자원 정보들 및 태스크 처리에 요구되는 자원에 대한 정보에 기반하여, 태스크 처리에 관한 정보를 전달할 태스크 처리 장치를 확인할 수 있다. 1305 동작에서, 마스터 장치(100)는, 태스크 처리에 관한 정보를 확인된 태스크 처리 장치로 전달할 수 있다.
1307 동작에서, 마스터 장치(100)는 프로파일링 재수행 이벤트가 발생한지 여부를 확인할 수 있다. 예를 들어, 마스터 장치(100)는, 기설정된 주기에 따라 프로파일링을 재수행할 수 있다. 예를 들어, 마스터 장치(100)는, 태스크 수행 시간 또는 태스크 수행의 자원 사용량이 증가하는 경우, 프로파일링 재수행할 것으로 확인할 수 있다. 예를 들어, 마스터 장치(100)는, 태스크의 처리 알고리즘, 또는 입/출력 정보 중 적어도 하나가 변경됨에 따라 프로파일링을 재수행할 것으로 확인할 수 있다. 상술한 바와 같이, 태스크의 라이브러리 버전이 변경되거나, 파라미터 값이 수정되거나, 학습 알고리즘의 신경망 구조가 변경되거나, 학습 알고리즘의 적용 대상의 데이터베이스가 변경된 경우, 태스크 데스크립터가 갱신될 수 있으며, 태스크 데스크립터 갱신에 기반하여 마스터 장치(100)는 프로파일리을 재수행할 수 있다.
프로파일링 재수행 이벤트가 발생한 것으로 확인되면, 마스터 장치(100)는, 1309 동작에서, 태스크 프로파일링을 통한 태스크 처리에 요구되는 자원에 대한 정보를 갱신할 수 있다. 1311 동작에서, 마스터 장치(100)는, 복수 개의 태스크 처리 장치들로부터 획득한 실시간 자원 정보들 및 갱신된 태스크 처리에 요구되는 자원에 대한 정보에 기반하여, 태스크 처리에 관한 정보를 전달할 태스크 처리 장치를 확인할 수 있다. 1313 동작에서, 마스터 장치(100)는, 태스크 처리에 관한 정보를 확인된 태스크 처리 장치로 전달할 수 있다.
도 14는 다양한 실시예에 따른 마스터 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다 .
다양한 실시예에 따라서, 마스터 장치(100)는, 1401 동작에서, 복수 개의 태스크 처리 장치들 중 적어도 하나의 태스크 처리 장치에 태스크를 분배할 수 있다. 마스터 장치(100)는, 태스크 처리 장치들로부터의 실시간 자원 정보에 기반하여 적어도 하나의 태스크 처리 장치에 태스크를 분배할 수 있다. 마스터 장치(100)는, 프로파일 데이터를 더 이용하여 태스크를 분배할 수도 있다. 이에 따라, 태스크 처리 장치는, 태스크를 분배받아 처리할 수 있다. 1403 동작에서, 마스터 장치(100)는, 복수 개의 태스크 처리 장치들 각각으로부터 실시간 자원 정보를 획득할 수 있다.
1405 동작에서, 마스터 장치(100)는, 태스크 재분배 조건이 만족되는지 여부를 확인할 수 있다. 예를 들어, 마스터 장치(100)는, 태스크 처리 장치의 자원 경합도가 지정된 값을 초과하는 것에 기반하여 태스크 재분배를 수행할 수 있다. 예를 들어, 마스터 장치(100)는, 태스크 처리 장치의 유휴 자원량이 임계 유휴 자원량 미만인 것에 기반하여 태스크 재분배를 수행할 수 있다. 예를 들어, 마스터 장치(100)는, 태스크 처리 장치의 자원 사용량의 변경량이 임계 변경량을 초과하는 것에 기반하여 태스크 재분배를 수행할 수 있다 .
1407 동작에서, 마스터 장치(100)는, 복수 개의 태스크 처리 장치들 중 태스크 처리를 수행할 태스크 처리 장치 재결정할 수 있다. 마스터 장치(100)는, 재분배하고자 하는 태스크의 프로파일 데이터에 기반하여, 복수 개의 태스크 처리 장치들 중 태스크 처리를 수행할 태스크 처리 장치를 재결정할 수 있다. 1409 동작에서, 마스터 장치(100)는, 재결정된 태스크 처리 장치로 태스크 처리에 관한 정보를 전달하고, 기존의 태스크 처리 장치로 태스크 수행 중지 명령을 전달할 수 있다.
도 15는, 다양한 실시예에 따른, 태스크 재분배를 수행하는 마스터 장치를 설명하기 위한 도면을 도시한다.
도 15를 참조하면, 마스터 장치(1500)(예: 마스터 장치(100))는, 태스크 스케쥴러(1501)를 포함할 수 있으며, 태스크 스케줄러(1501)는 엣지 매니저(1502)를 포함할 수 있다. 엣지 매니저(1502)는, 1511 동작에서, 특정 엣지의 CPU/GPU 자원 사용량 데이터를 수집할 수 있다. 엣지는 마스터 장치(1500)로 실시간 자원 정보를 송신할 수 있으며, 이에 따라 엣지 매니저(1502)의 특정 엣지의 CPU/GPU 자원 사용량 데이터를 수집할 수 있다. 예를 들어, 엣지 매니저(1502)는, 특정 엣지의 LLC hit ratio, 메인 메모리 밴드위쓰, GPU occupancy, 또는 GPU 메모리 밴드위쓰 중 적어도 하나를 획득할 수 있다.
1512 동작에서, 엣지 매니저(1512)는 해당 엣지의 CPU/GPU 자원 경합 여부를 판단할 수 있다. 마스터 장치(1500)는, LLC hit ratio, 메인 메모리 밴드위쓰, GPU occupancy, 또는 GPU 메모리 밴드위쓰 중 적어도 하나의 변경량에 기반하여, 해당 엣지에서 자원 경합이 발생한 지 여부를 확인할 수 있다. 예를 들어, 마스터 장치(1500)는, LLC hit ratio, 메인 메모리 밴드위쓰, GPU occupancy, 또는 GPU 메모리 밴드위쓰 중 적어도 하나의 변경량의 크기가 임계 변경량을 초과하는 경우에, 해당 엣지에서 자원 경합이 발생한 것으로 확인할 수 있다. 파라미터의 변경량에 기반하여 자원 경합이 발생한지 여부를 확인하는 과정은 도 16을 참조하여 더욱 상세하게 후술하도록 한다 . 또는, 다양한 실시예에서, 마스터 장치(1500)는, 획득한 CPU/GPU 자원 사용량 데이터로부터 자원 경합 여부를 판단할 수 있다. 예를 들어, 마스터 장치(1500)는, LLC hit ratio, 메인 메모리 밴드위쓰, GPU occupancy, 또는 GPU 메모리 밴드위쓰 중 적어도 하나와 연관된 자원 경합 여부를 판단하기 위한 조건을 저장할 수 있다. 마스터 장치(1500)는, 해당 엣지로부터 수신한 정보가 저장된 조건을 만족하는지 여부를 확인할 수 있으며, 저장된 조건이 만족되는 것에 기반하여 해당 엣지에서 자원 경합이 발생한 것으로 확인할 수 있다. 또는, 마스터 장치(1500)는, LLC hit ratio, 메인 메모리 밴드위쓰, GPU occupancy, 또는 GPU 메모리 밴드위쓰 중 적어도 하나에 기반하여, 유휴 자원량, 또는 자원 경합도를 확인할 수 있으며, 유휴 자원량이 임계 유휴 자원량 미만이거나, 또는 자원 경합도가 임계 자원 경합도를 초과하면, 해당 엣지에서 자원 경합이 발생한 것으로 확인할 수 있다 .
1513 동작에서, 엣지 매니저(1502)는, 해당 엣지에서 재배치할 태스크를 선택할 수 있다. 예를 들어, 엣지 매니저(1502)는, 해당 엣지로부터, 엣지 전체의 실시간 자원 정보뿐만 아니라, 엣지에서 처리중인 태스크 각각의 실시간 자원 정보를 획득할 수 있다. 엣지 매니저(1502)는, 자원 사용량이 큰 순서대로 적어도 하나의 태스크를, 재배치할 태스크로서 확인할 수 있다. 엣지 매니저(1502)는, 해당 엣지에서 자원 경합이 발생하지 않을 정도로 태스크를 재배치할 것을 결정할 수 있다. 1514 동작에서, 엣지 매니저(1514)는 재배치 태스크가 계산 집중형 태스크인지 판별할 수 있다. 엣지 매니저(1514)는, 1515 동작에서, 자원 경합 해소를 위하여 태스크 재배치(migration)을 수행할 수 있다. 엣지 매니저(1514)는, 계산 집중형 태스크인지 여부에 기반하여, 해당 태스크를 GPU 엣지 그룹 또는 비-GPU 엣지 그룹 중 어느 하나에 재배치할 수 있다. 아울러, 엣지 매니저(1514)는, 해당 태스크 재배치시 자원 경합이 발생하지 않을 것으로 예상되는 엣지를 태스크를 재배치할 엣지로 확인할 수 있다.
엣지 매니저(1502)는, 예를 들어, 엣지 B(1540)를 태스크를 재배치할 엣지로 판단할 수 있다. 엣지 매니저(1502)는, 기존에 태스크를 수행하던 엣지 A(1530)에는 태스크 정지 명령을 전달할 수 있다. 아울러, 엣지 매니저(1502)는, 신규 엣지 B(1540)에는 태스크 데스크립터를 전달할 수 있다. 1516 동작에서, 태스크 정지 명령을 획득한 엣지 A(1530)는 태스크의 처리를 정지할 수 있다. 1517 동작에서, 태스크 데스크립터를 획득한 엣지 B(1540)는 태스크를 실행할 수 있다.
도 16은 다양한 실시예에 따른 마스터 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다.
다양한 실시예에 따른 마스터 장치(100)는, 1601 동작에서 엣지 별로 데이터를 확인할 수 있다. 마스터 장치(100)는, 특정 엣지의 데이터 변화량, 예를 들어 실시간 자원 정보의 변화량을 확인할 수 있다. 예를 들어, 마스터 장치(100)는, 해당 엣지 전체의 LLC hit ratio의 변화량(Diff_EL), 해당 엣지 전체의 메인 메모리 밴드위쓰 변화량(Diff_EM), 해당 엣지 전체의 GPU occupancy 변화량(Diff_EO), 및 해당 엣지 전체의 GPU 메모리 밴드위쓰 변화량(Diff_EG)를 확인할 수 있다. 마스터 장치(100)는, 태스크를 특정 엣지로 분배하기 이전의 파라미터를 확인하고, 태스크를 특정 엣지로 분배한 이후의 파라미터를 확인하여 데이터 변화량을 확인할 수 있다. 또는, 마스터 장치(100)는, 특정 엣지로부터 데이터 변화량 자체를 보고받을 수도 있다 .
마스터 장치(100)는, 특정 엣지 전체가 아닌, 특정 엣지 내에서 처리 중인 적어도 하나의 태스크 각각의 데이터 변화량 및 태스크별 가장 최근의 데이터를 확인할 수 있다. 예를 들어, 마스터 장치(100)는, 해당 엣지에서 처리중인 태스크 각각의 LLC hit ratio의 변화량(Diff_TL), 해당 엣지 에서 처리중인 태스크 각각의 메인 메모리 밴드위쓰 변화량(Diff_TM), 해당 엣지 에서 처리중인 태스크 각각의 GPU occupancy 변화량(Diff_TO), 및 해당 엣지 에서 처리중인 태스크 각각의 GPU 메모리 밴드위쓰 변화량(Diff_TG)를 확인할 수 있다. 아울러, 마스터 장치(100)는, 태스크별 가장 최근의 데이터인, LLC hit ration(TL), 메인 메모리 밴드위쓰(TM), GPU occupancy(TO), GPU 메모리 밴드위쓰(TG)를 확인할 수 있다. 한편, 만약 마스터 장치(100)가 CPU만을 지원하는 엣지로부터 데이터를 획득하는 경우에는, CPU와 연관된 LLC hit ratio 및 메인 메모리 밴드위쓰와 연관된 정보와 변화량 정보를 확인할 수 있다.
1605 동작에서, 마스터 장치(100)는, 특정 엣지 전체의 LLC hit ratio의 변화량(Diff_EL)이 제 1 임계값(threshold 1)을 초과하는 지 여부를 확인할 수 있다. 만약, 특정 엣지 전체의 LLC hit ratio의 변화량(Diff_EL)이 제 1 임계값(threshold 1)을 초과하지 않으면, 마스터 장치(100)는, 1607 동작에서, 특정 엣지 전체의 LLC hit ratio의 변화량(Diff_EL)에 대한 추가 분석은 제외할 수 있다. 이 경우, 마스터 장치(100)는, 1609 동작에서, 특정 엣지 전체의 메인 메모리 밴드위쓰의 변화량(Diff_EM)이 제 2 임계값(threshod 2)를 초과하는지 여부를 확인할 수 있다. 만약, 특정 엣지 전체의 메인 메모리 밴드위쓰의 변화량(Diff_EM)이 제 2 임계값(threshold 2)을 초과하지 않으면, 마스터 장치(100)는, 1609 동작에서, 특정 엣지 전체의 메인 메모리 밴드위쓰의 변화량(Diff_EM)에 대한 추가 분석은 제외할 수 있다. 이 경우, 마스터 장치(100)는, 1613 동작에서, 특정 엣지 전체의 GPU occupancy의 변화량(Diff_EO)이 제 3 임계값(threshod 3)를 초과하는지 여부를 확인할 수 있다. 만약, 특정 엣지 전체의 GPU occupancy의 변화량(Diff_EO)이 제 3 임계값(threshold 3)을 초과하지 않으면, 마스터 장치(100)는, 1615 동작에서, 특정 엣지 전체의 메인 메모리 밴드위쓰의 변화량(Diff_EM)에 대한 추가 분석은 제외할 수 있다. 이 경우, 마스터 장치(100)는, 1617 동작에서, 특정 엣지 전체의 GPU 메인 메모리의 변화량(Diff_EG)이 제 4 임계값(threshod 4)를 초과하는지 여부를 확인할 수 있다. 만약, 특정 엣지 전체의 GPU 메인 메모리의 변화량(Diff_EG)이 제 4 임계값(threshold 4)을 초과하지 않으면, 마스터 장치(100)는, 1617 동작에서, 특정 엣지 전체의 메인 메모리 밴드위쓰의 변화량(Diff_EM)에 대한 추가 분석은 제외할 수 있다. 한편, 도 16에서의 판단 순서는 예시적인 것이며, 또한 판단을 위한 데이터 중 적어도 하나가 생략이 가능할 수도 있다.
1605 동작에서, 특정 엣지 전체의 LLC hit ratio의 변화량(Diff_EL)이 제 1 임계값(threshold 1)을 초과하는 것으로 확인되면, 마스터 장치(100)는, 1621 동작에서, LLC hit ratio의 변화량(Diff_TL)이 가장 높은 태스크를 선택할 수 있다. 1609 동작에서, 특정 엣지 전체의 메인 메모리 밴드위쓰의 변화량(Diff_EM)이 제 2 임계값(threshod 2)를 초과하는 것으로 확인되면, 마스터 장치(100)는, 1623 동작에서, 메인 메모리 밴드위쓰의 변화량(Diff_TM)이 가장 높은 태스크를 선택할 수 있다. 1613 동작에서, 특정 엣지 전체의 GPU occupancy의 변화량(Diff_EO)이 제 3 임계값(threshod 3)를 초과하는 것으로 확인되면, 1625 동작에서, 마스터 장치(100)는, GPU occupancy의 변화량(Diff_TO)가 가장 높은 태스크를 선택할 수 있다. 1617 동작에서, 특정 엣지 전체의 GPU 메인 메모리의 변화량(Diff_EG)이 제 4 임계값(threshod 4)를 초과하는 것으로 확인되면, 마스터 장치(100)는, 1629 동작에서, GPU 메인 메모리의 변화량(Diff_TG)이 가장 높은 태스크를 선택할 수 있다.
마스터 장치(100)는, 선택된 태스크가 연산 집중형 태스크인지 여부를 확인할 수 있다. 마스터 장치(100)는, 선택된 태스크의 가장 최근 데이터 중 적어도 일부(예: TG, GO)에 기반하여, 선택된 태스크가 연산 집중형 태스크인지 여부를 확인할 수 있다. 만약, 선택된 태스크가 연산 집중형 태스크인 것으로 확인되면, 마스터 장치(100)는, 1631 동작에서, 선택된 태스크를 GPU 엣지 그룹의 엣지에 우선 배치할 수 있다. 1631의 유휴 자원량 고려한 GPU 엣지 선택 및 1635의 우선 순위에 기반한 엣지 선택에 대하여서는, 도 13의 1307 및 1311에서 상세하게 설명하였으므로, 여기에서의 더 이상의 설명은 생략하도록 한다. 만약, 선택된 태스크가 연산 집중형 태스크가 아닌 것으로 확인되면, 마스터 장치(100)는, 1633 동작에서, 선택된 태스크를 비-GPU 엣지 그룹의 엣지에 우선 배치할 수 있다. 1633의 유휴 자원량 고려한 비-GPU 엣지 선택 및 1637의 우선 순위에 기반한 엣지 선택에 대하여서는, 도 13의 1309 및 1313에서 상세하게 설명하였으므로, 여기에서의 더 이상의 설명은 생략하도록 한다.
도 17은 다양한 실시예에 따른 마스터 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다 .
다양한 실시예에 따라서, 마스터 장치(100)는, 1701 동작에서, 복수 개의 태스크 처리 장치들 각각으로부터 실시간 자원 정보를 획득할 수 있다. 1703 동작에서, 마스터 장치(100)는, 복수 개의 태스크 처리 장치들 각각으로부터 실시간 자원 정보에 기반하여 자원 경합과 연관된 정보를 확인할 수 있다. 1705 동작에서, 마스터 장치(100)는, 복수 개의 태스크 처리 장치들 각각의 자원 경합과 연관된 정보에 기반하여, 복수 개의 태스크 처리 장치들 중 태스크 재분배를 수행할 제 1 태스크 처리 장치 및 대상 태스크를 확인할 수 있다. 1707 동작에서, 마스터 장치(100)는, 복수 개의 태스크 처리 장치들의 실시간 자원 정보 및 대상 태스크에 대한 정보에 기반하여, 복수 개의 태스크 처리 장치들 중 태스크를 재분배 받을 제 2 태스크 처리 장치를 확인할 수 있다. 1709 동작에서, 마스터 장치(100)는, 제 1 태스크 처리 장치로 대상 태스크 수행 중단 명령 전달할 수 있다. 제 1 태스크 처리 장치는, 태스크 수행 중단 명령에 기반하여 기 수행중이던 태스크 수행을 중단할 수 있다. 1711 동작에서, 마스터 장치(100)는, 대상 태스크의 태스크 처리에 관한 정보를 제 2 태스크 처리 장치로 전달할 수 있다. 제 2 태스크 처리 장치는, 태스크 수행을 개시할 수 있으며, 이에 따라 태스크 재배치가 수행될 수 있다.
도 18은 다양한 실시예에 따른 마스터 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다 . 도 18의 실시예는 도 19a 및 19b를 참조하여 더욱 상세하게 설명하도록 한다. 도 19a는 다양한 실시예에 따른 복수 태스크 처리 장치의 태스크 수행을 설명하기 위한 도면들을 도시한다. 도 19b는 다양한 실시예에 따른 복수 태스크 처리 장치의 태스크 수행을 설명하기 위한 도면들을 도시한다.
다양한 실시예에 따라서, 마스터 장치(100)는, 1901 동작에서, 복수 개의 태스크 처리 장치들로부터 실시간 자원 정보를 획득할 수 있다. 1903 동작에서, 마스터 장치(100)는, 태스크 처리에 관한 정보를 획득할 수 있다. 1905 동작에서, 마스터 장치(100)는, 실시간 자원 정보에 기반하여, 복수 개의 태스크 처리 장치들로부터 적어도 2개의 태스크 처리 장치를 선택할 수 있다. 예를 들어, 마스터 장치(100)는, 태스크를 처리할 경우에 임계 자원 경합도 미만의 자원 경합도를 가지는 적어도 2개의 태스크 처리 장치를 선택할 수 있다. 1907 동작에서, 마스터 장치(100)는, 선택된 장치들에게 태스크 처리에 관한 정보를 전달할 수 있다. 태스크 처리에 관한 정보를 획득한 적어도 2 개의 태스크 처리 장치들은, 태스크 처리를 수행할 수 있다.
예를 들어, 도 19a에서와 같이, 태스크가 하나의 센서 장치(140)로부터 센싱 데이터를 처리하는 태스크일 수 있다. 마스터 장치(100)는, 태스크 처리 장치(110) 및 태스크 처리 장치(120)에 태스크를 분배할 것으로 결정할 수 있다. 마스터 장치(100)는, 센서 장치(140)로부터의 센싱 데이터들 중 적어도 일부(1901)는 태스크 처리 장치(110)에 의하여 처리되도록 제어하며, 나머지 일부(1902)는 태스크 처리 장치(120)에 의하여 처리되도록 제어할 수 있다.
예를 들어, 도 19b에서와 같이, 태스크는 복수 개의 센서 장치들(140,150)로부터 센싱 데이터를 처리하는 태스크일 수 있다. 마스터 장치(100)는, 태스크 처리 장치(110)는 센서 장치(140)로부터의 센싱 데이터(1911)를 처리하도록 제어하며, 태스크 처리 장치(120)는 센서 장치(150)로부터의 센싱 데이터(1912)를 처리하도록 제어할 수도 있다.
본 문서에 개시된 다양한 실시예들에 따른 마스터 장치 또는 태스크 수행 장치는 다양한 형태의 장치가 될 수 있다. 마스터 장치 또는 태스크 수행 장치는, 예를 들면, 컴퓨터 장치, 휴대용 통신 장치 (예: 스마트폰), 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 마스터 장치 또는 태스크 수행 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나",“A 또는 B 중 적어도 하나,”"A, B 또는 C," "A, B 및 C 중 적어도 하나,”및 “A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 마스터 장치 또는 태스크 수행 장치) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리 또는 외장 메모리)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램)로서 구현될 수 있다. 예를 들면, 기기(예: 마스터 장치 또는 태스크 수행 장치)의 프로세서는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체 는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (20)

  1. 복수 개의 태스크 처리 장치 각각의 태스크 처리를 관리하는 마스터 장치에 있어서,
    통신 회로; 및
    적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
    상기 복수 개의 태스크 처리 장치 중 제 1 태스크 처리 장치로부터, 상기 제 1 태스크 처리 장치에서 사용 중인 제 1 실시간 자원 정보를 획득하도록, 상기 통신 회로를 제어하고,
    상기 복수 개의 태스크 처리 장치 중 제 2 태스크 처리 장치로부터, 상기 제 2 태스크 처리 장치에서 사용 중인 제 2 실시간 자원 정보를 획득하도록, 상기 통신 회로를 제어하고,
    상기 복수 개의 태스크 처리 장치 중 적어도 하나로 분배되어야 하는 분배 대상 태스크의 처리에 대한 정보를 획득하고,
    상기 분배 대상 태스크의 처리에 대한 정보에 기반하여 상기 분배 대상 태스크가 처리됨으로써 확인되는, 상기 분배 대상 태스크의 처리에 요구되는 자원양을 획득하고,
    상기 제 1 실시간 자원 정보, 상기 제 2 실시간 자원 정보, 및 상기 분배 대상 태스크의 처리에 요구되는 자원양에 기반하여, 상기 제 1 태스크 처리 장치 및 상기 제 2 태스크 처리 장치 중 상기 분배 대상 태스크를 분배할 태스크 처리 장치를 상기 제 1 태스크 처리 장치로 확인하고,
    상기 제 1 태스크 처리 장치로, 상기 분배 대상 태스크의 처리에 대한 정보를 송신하도록, 상기 통신 회로를 제어하도록 설정된 마스터 장치.
  2. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 분배 대상 태스크의 처리에 요구되는 자원양을 획득하는 동작의 적어도 일부로,
    상기 분배 대상 태스크의 처리에 대한 정보에 기반하여 상기 분배 대상 태스크를, 상기 적어도 하나의 프로세서에 의하여 처리하여, 상기 분배 대상 태스크의 처리에 요구되는 자원양을 획득하거나, 또는,
    상기 복수 개의 태스크 처리 장치 또는 외부 전자 장치 중 적어도 하나로, 상기 분배 대상 태스크의 처리에 대한 정보를 제공하고, 상기 복수 개의 태스크 처리 장치 또는 상기 외부 전자 장치 중 적어도 하나가 상기 분배 대상 태스크의 처리에 대한 정보에 기반하여 상기 분배 대상 태스크를 처리함으로써 확인된 상기 분배 대상 태스크의 처리에 요구되는 자원양을 획득하도록, 상기 통신 회로를 제어하도록 설정된 마스터 장치.
  3. 제 2 항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 분배 대상 태스크의 처리에 대한 정보에 기반하여 상기 분배 대상 태스크를 처리하여 상기 분배 대상 태스크의 처리에 요구되는 자원양을 획득하는 동작의 적어도 일부로,
    상기 적어도 하나의 프로세서 중 적어도 하나의 CPU만을 이용하여, 상기 분배 대상 태스크를 처리하여, 상기 분배 대상 태스크의 처리에 요구되는 제 1 자원양을 획득하고,
    상기 적어도 하나의 프로세서 중 상기 적어도 하나의 CPU와 적어도 하나의 GPU를 이용하여, 상기 분배 대상 태스크를 처리하여, 상기 분배 대상 태스크의 처리에 요구되는 제 2 자원양을 획득하도록 설정된 마스터 장치.
  4. 제 3 항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 분배 대상 태스크의 처리에 대한 정보에 기반하여 상기 분배 대상 태스크를 처리하여 상기 분배 대상 태스크의 처리에 요구되는 자원양을 획득하는 동작의 적어도 일부로,
    상기 분배 대상 태스크의 처리에 요구되는 상기 제 2 자원양의 적어도 일부가 지정된 조건을 만족하는 것에 기반하여, 상기 분배 대상 태스크를 GPU를 포함하는 태스크 처리 장치로 분배하고,
    상기 분배 대상 태스크의 처리에 요구되는 상기 제 2 자원양의 적어도 일부가 상기 지정된 조건을 만족하지 않는 것에 기반하여, 상기 분배 대상 태스크를 GPU를 포함하지 않는 태스크 처리 장치로 분배하도록 설정된 마스터 장치.
  5. 제 4 항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 분배 대상 태스크를 GPU를 포함하는 태스크 처리 장치로 분배하는 동작의 적어도 일부로, 상기 제 2 자원양, 상기 제 1 실시간 자원 정보, 및 상기 제 2 실시간 자원 정보에 기반하여, GPU를 포함하는 태스크 처리 장치들 중 상기 분배 대상 태스크를 분배할 태스크 처리 장치를 확인하고,
    상기 분배 대상 태스크를 상기 GPU를 포함하지 않는 태스크 처리 장치로 분배하는 동작의 적어도 일부로, 상기 제 1 자원양, 상기 제 1 실시간 자원 정보, 및 상기 제 2 실시간 자원 정보에 기반하여, GPU를 포함하지 않는 태스크 처리 장치들 중 상기 분배 대상 태스크를 분배할 태스크 처리 장치를 확인하도록 설정된 마스터 장치.
  6. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 분배 대상 태스크의 처리에 요구되는 자원양에 확인 재 수행 이벤트를 검출함에 기반하여, 상기 분배 대상 태스크의 처리에 요구되는 갱신된 자원양을 확인하고,
    상기 제 1 태스크 처리 장치로부터, 상기 제 1 태스크 처리 장치에서 사용 중인 제 3 실시간 자원 정보를 획득하도록, 상기 통신 회로를 제어하고,
    상기 제 2 태스크 처리 장치로부터, 상기 제 2 태스크 처리 장치에서 사용 중인 제 4 실시간 자원 정보를 획득하도록, 상기 통신 회로를 제어하고,
    상기 분배 대상 태스크의 처리에 요구되는 갱신된 자원양, 상기 제 3 실시간 자원 정보, 및 상기 제 4 실시간 자원 정보에 기반하여, 상기 제 1 태스크 처리 장치 및 상기 제 2 태스크 처리 장치 중 상기 분배 대상 태스크를 분배할 태스크 처리 장치를 재확인하도록 설정된 마스터 장치.
  7. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 제 1 태스크로 상기 분배 대상 태스크의 처리에 대한 정보를 송신한 이후에, 상기 제 1 태스크 처리 장치로부터, 상기 제 1 태스크 처리 장치에서 사용 중인 제 5 실시간 자원 정보 및 상기 제 1 태스크 처리 장치에서 처리 중인 적어도 하나의 태스크에 의한 사용 정보를 획득하도록, 상기 통신 회로를 제어하고,
    상기 제 5 실시간 자원 정보를 이용하여 상기 제 1 태스크 처리 장치에서 자원 경합이 발생한 것으로 확인함에 기반하여, 상기 복수 개의 태스크 처리 장치에서 사용 중인 실시간 사용 정보 및 상기 적어도 하나의 태스크에 의한 사용 정보를 이용하여 확인된 제 2 태스크 수행 장치로, 상기 적어도 하나의 태스크 중 적어도 일부를 재분배하도록 설정된 마스터 장치.
  8. 제 7 항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 제 5 실시간 자원 정보를 이용하여 상기 제 1 태스크 처리 장치에서 자원 경합이 발생한 것으로 확인하는 과정의 적어도 일부로,
    상기 제 5 실시간 자원 정보 중 적어도 일부와, 상기 제 5 실시간 자원 정보 획득 이전에 획득된 실시간 자원 정보의 적어도 일부 사이의 차이를 이용하여, 상기 제 1 태스크 처리 장치에서 상기 자원 경합이 발생한 것으로 확인하거나, 또는,
    상기 제 5 실시간 자원 정보 중 적어도 일부를 이용하여, 상기 제 1 태스크 처리 장치에서 상기 자원 경합이 발생한 것으로 확인하도록 설정된 마스터 장치.
  9. 제 7 항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 제 2 태스크 수행 장치로, 상기 적어도 하나의 태스크 중 적어도 일부를 재분배하는 동작의 적어도 일부로,
    상기 적어도 하나의 태스크에 의한 사용 정보, 또는 상기 적어도 하나의 태스크에 의한 사용 정보의 변화량 중 적어도 하나에 기반하여, 상기 적어도 하나의 태스크 중 상기 적어도 일부를 재분배할 것으로 확인하도록 설정된 마스터 장치.
  10. 제 7 항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 제 2 태스크 수행 장치로, 상기 적어도 하나의 태스크 중 상기 적어도 일부를 재분배하는 동작의 적어도 일부로,
    상기 적어도 하나의 태스크 중 상기 적어도 일부의 실시간 자원 정보에 대응하는 자원 사용량보다 큰 유휴 자원양을 가지는 태스크 처리 장치 중, 상기 적어도 하나의 태스크 중 상기 적어도 일부를 처리 시 가장 낮은 자원 경합도를 가질 것으로 예상되는 상기 제 2 태스크 수행 장치를 선택하도록 설정된 마스터 장치.
  11. 제 7 항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 제 1 태스크 처리 장치로, 상기 적어도 하나의 태스크 중 상기 적어도 일부의 처리를 중단하는 신호를 송신하도록, 상기 통신 회로를 제어하고,
    상기 제 2 태스크 처리 장치로, 상기 적어도 하나의 태스크 중 상기 적어도 일부의 처리를 위한 정보를 송신하도록, 상기 통신 회로를 제어하도록 설정된 마스터 장치.
  12. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 분배 대상 태스크를 분배할 태스크 처리 장치를 상기 제 1 태스크 처리 장치로 확인하는 동작의 적어도 일부로,
    상기 분배 대상 태스크를 수행할 경우 예상되는 상기 제 1 태스크 처리 장치에서의 자원 경합도가 상기 분배 대상 태스크를 수행할 경우 예상되는 상기 제 2 태스크 처리 장치에서의 자원 경합도보다 낮은 것에 기반하여, 상기 분배 대상 태스크를 분배할 태스크 처리 장치를 상기 제 1 태스크 처리 장치로 확인하도록 설정된 마스터 장치.
  13. 제 1 항에 있어서,
    상기 제 1 실시간 자원 정보, 및 상기 제 2 실시간 자원 정보는, CPU 사용량 정보 및 GPU 사용량 정보 중 적어도 하나를 포함하고,
    상기 CPU 사용량 정보는, LLC hit ratio 또는 메인 메모리 밴드위쓰 중 적어도 하나에 기반하여 결정되고, 상기 GPU 사용량 정보는, GPU occupancy 또는 GPU 메모리 밴드위쓰 중 적어도 하나에 기반하여 결정되는 마스터 장치.
  14. 복수 개의 태스크 처리 장치 각각의 태스크 처리를 관리하는 마스터 장치의 동작 방법에 있어서,
    상기 복수 개의 태스크 처리 장치 중 제 1 태스크 처리 장치로부터, 상기 제 1 태스크 처리 장치에서 사용 중인 제 1 실시간 자원 정보를 획득하도록, 상기 마스터 장치의 통신 회로를 제어하는 동작;
    상기 복수 개의 태스크 처리 장치 중 제 2 태스크 처리 장치로부터, 상기 제 2 태스크 처리 장치에서 사용 중인 제 2 실시간 자원 정보를 획득하도록, 상기 통신 회로를 제어하는 동작;
    상기 복수 개의 태스크 처리 장치 중 적어도 하나로 분배되어야 하는 분배 대상 태스크의 처리에 대한 정보를 획득하는 동작;
    상기 분배 대상 태스크의 처리에 대한 정보에 기반하여 상기 분배 대상 태스크가 처리됨으로써 확인되는, 상기 분배 대상 태스크의 처리에 요구되는 자원양을 획득하는 동작;
    상기 제 1 실시간 자원 정보, 상기 제 2 실시간 자원 정보, 및 상기 분배 대상 태스크의 처리에 요구되는 자원양에 기반하여, 상기 제 1 태스크 처리 장치 및 상기 제 2 태스크 처리 장치 중 상기 분배 대상 태스크를 분배할 태스크 처리 장치를 상기 제 1 태스크 처리 장치로 확인하는 동작; 및
    상기 제 1 태스크 처리 장치로, 상기 분배 대상 태스크의 처리에 대한 정보를 송신하도록, 상기 통신 회로를 제어하는 동작
    을 포함하는 마스터 장치의 동작 방법.
  15. 제 14 항에 있어서,
    상기 분배 대상 태스크의 처리에 요구되는 자원양을 획득하는 동작은,
    상기 분배 대상 태스크의 처리에 대한 정보에 기반하여 상기 분배 대상 태스크를, 상기 마스터 장치의 적어도 하나의 프로세서에 의하여 처리하여, 상기 분배 대상 태스크의 처리에 요구되는 자원양을 획득하는 동작, 또는,
    상기 복수 개의 태스크 처리 장치 또는 외부 전자 장치 중 적어도 하나로, 상기 분배 대상 태스크의 처리에 대한 정보를 제공하고, 상기 복수 개의 태스크 처리 장치 또는 상기 외부 전자 장치 중 적어도 하나가 상기 분배 대상 태스크의 처리에 대한 정보에 기반하여 상기 분배 대상 태스크를 처리함으로써 확인된 상기 분배 대상 태스크의 처리에 요구되는 자원양을 획득하도록, 상기 통신 회로를 제어하는 동작
    을 포함하는 마스터 장치의 동작 방법.
  16. 제 14 항에 있어서,
    상기 분배 대상 태스크의 처리에 요구되는 자원양에 확인 재 수행 이벤트를 검출함에 기반하여, 상기 분배 대상 태스크의 처리에 요구되는 갱신된 자원양을 확인하는 동작;
    상기 제 1 태스크 처리 장치로부터, 상기 제 1 태스크 처리 장치에서 사용 중인 제 3 실시간 자원 정보를 획득하도록, 상기 통신 회로를 제어하는 동작;
    상기 제 2 태스크 처리 장치로부터, 상기 제 2 태스크 처리 장치에서 사용 중인 제 4 실시간 자원 정보를 획득하도록, 상기 통신 회로를 제어하는 동작; 및
    상기 분배 대상 태스크의 처리에 요구되는 갱신된 자원양, 상기 제 3 실시간 자원 정보, 및 상기 제 4 실시간 자원 정보에 기반하여, 상기 제 1 태스크 처리 장치 및 상기 제 2 태스크 처리 장치 중 상기 분배 대상 태스크를 분배할 태스크 처리 장치를 재확인하는 동작
    을 포함하는 마스터 장치의 동작 방법.
  17. 제 14 항에 있어서,
    상기 제 1 태스크로 상기 분배 대상 태스크의 처리에 대한 정보를 송신한 이후에, 상기 제 1 태스크 처리 장치로부터, 상기 제 1 태스크 처리 장치에서 사용 중인 제 5 실시간 자원 정보 및 상기 제 1 태스크 처리 장치에서 처리 중인 적어도 하나의 태스크에 의한 사용 정보를 획득하도록, 상기 통신 회로를 제어하는 동작; 및
    상기 제 5 실시간 자원 정보를 이용하여 상기 제 1 태스크 처리 장치에서 자원 경합이 발생한 것으로 확인함에 기반하여, 상기 복수 개의 태스크 처리 장치에서 사용 중인 실시간 사용 정보 및 상기 적어도 하나의 태스크에 의한 사용 정보를 이용하여 확인된 제 2 태스크 수행 장치로, 상기 적어도 하나의 태스크 중 적어도 일부를 재분배하는 동작
    을 더 포함하는 마스터 장치의 동작 방법.
  18. 제 17 항에 있어서,
    상기 제 1 태스크 처리 장치로, 상기 적어도 하나의 태스크 중 상기 적어도 일부의 처리를 중단하는 신호를 송신하도록, 상기 통신 회로를 제어하는 동작, 및
    상기 제 2 태스크 처리 장치로, 상기 적어도 하나의 태스크 중 상기 적어도 일부의 처리를 위한 정보를 송신하도록, 상기 통신 회로를 제어하는 동작
    을 더 포함하는 마스터 장치의 동작 방법.
  19. 제 14 항에 있어서,
    상기 분배 대상 태스크를 분배할 태스크 처리 장치를 상기 제 1 태스크 처리 장치로 확인하는 동작은,
    상기 분배 대상 태스크를 수행할 경우 예상되는 상기 제 1 태스크 처리 장치에서의 자원 경합도가 상기 분배 대상 태스크를 수행할 경우 예상되는 상기 제 2 태스크 처리 장치에서의 자원 경합도보다 낮은 것에 기반하여, 상기 분배 대상 태스크를 분배할 태스크 처리 장치를 상기 제 1 태스크 처리 장치로 확인하는 마스터 장치의 동작 방법.
  20. 복수 개의 태스크 처리 장치 각각의 태스크 처리를 관리하는 마스터 장치에 있어서,
    통신 회로; 및
    적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
    상기 복수 개의 태스크 처리 장치 중 제 1 태스크 처리 장치로부터, 상기 제 1 태스크 처리 장치에서 사용 중인 제 1 실시간 자원 정보를 획득하도록, 상기 통신 회로를 제어하고,
    상기 복수 개의 태스크 처리 장치 중 제 2 태스크 처리 장치로부터, 상기 제 2 태스크 처리 장치에서 사용 중인 제 2 실시간 자원 정보를 획득하도록, 상기 통신 회로를 제어하고,
    상기 복수 개의 태스크 처리 장치 중 적어도 하나로 분배되어야 하는 분배 대상 태스크의 처리에 대한 정보를 획득하고,
    상기 제 1 실시간 자원 정보, 및 상기 제 2 실시간 자원 정보를 이용하여, 상기 분배 대상 태스크를 수행할 경우 예상되는 상기 제 1 태스크 처리 장치에서의 자원 경합도가 상기 분배 대상 태스크를 수행할 경우 예상되는 상기 제 2 태스크 처리 장치에서의 자원 경합도보다 낮은 것에 기반하여, 상기 분배 대상 태스크를 분배할 태스크 처리 장치를 상기 제 1 태스크 처리 장치로 확인하고,
    상기 제 1 태스크 처리 장치로, 상기 분배 대상 태스크의 처리에 대한 정보를 송신하도록, 상기 통신 회로를 제어하도록 설정된 마스터 장치.

KR1020190000889A 2019-01-03 2019-01-03 태스크 분산 처리를 관리하는 마스터 장치, 태스크를 처리하는 태스크 처리 장치, 및 그 동작 방법 KR20200084707A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190000889A KR20200084707A (ko) 2019-01-03 2019-01-03 태스크 분산 처리를 관리하는 마스터 장치, 태스크를 처리하는 태스크 처리 장치, 및 그 동작 방법
US16/585,364 US11354156B2 (en) 2019-01-03 2019-09-27 Master device for managing distributed processing of task by using resource information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190000889A KR20200084707A (ko) 2019-01-03 2019-01-03 태스크 분산 처리를 관리하는 마스터 장치, 태스크를 처리하는 태스크 처리 장치, 및 그 동작 방법

Publications (1)

Publication Number Publication Date
KR20200084707A true KR20200084707A (ko) 2020-07-13

Family

ID=71405124

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190000889A KR20200084707A (ko) 2019-01-03 2019-01-03 태스크 분산 처리를 관리하는 마스터 장치, 태스크를 처리하는 태스크 처리 장치, 및 그 동작 방법

Country Status (2)

Country Link
US (1) US11354156B2 (ko)
KR (1) KR20200084707A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022092458A1 (ko) * 2020-10-29 2022-05-05 삼성전자 주식회사 전자 장치 및 전자 장치에서 태스크 수행을 위한 장치를 결정하는 방법

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11762684B2 (en) * 2012-01-30 2023-09-19 Workfusion, Inc. Distributed task execution
US10990356B2 (en) * 2019-02-18 2021-04-27 Quantum Lock Technologies LLC Tamper-resistant smart factory
CN114489963A (zh) * 2020-11-12 2022-05-13 华为云计算技术有限公司 人工智能应用任务的管理方法、系统、设备及存储介质
US11853810B2 (en) * 2021-01-07 2023-12-26 International Business Machines Corporation Edge time sharing across clusters via dynamic task migration based on task priority and subtask result sharing
CN114579401B (zh) * 2022-02-28 2024-07-09 北京字节跳动网络技术有限公司 一种任务检测方法、装置、电子设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060224773A1 (en) 2005-03-31 2006-10-05 International Business Machines Corporation Systems and methods for content-aware load balancing
US20160378570A1 (en) * 2015-06-25 2016-12-29 Igor Ljubuncic Techniques for Offloading Computational Tasks between Nodes
KR101794696B1 (ko) 2016-08-12 2017-11-07 서울시립대학교 산학협력단 이기종 프로세싱 타입을 고려한 태스크 스케쥴링 방법 및 분산 처리 시스템
US20190007258A1 (en) * 2017-06-29 2019-01-03 Cisco Technology, Inc. Workload placement and resource allocation for media production data center
JP6969282B2 (ja) * 2017-10-25 2021-11-24 富士通株式会社 情報処理装置、情報処理システムおよび情報処理方法
TWI641951B (zh) * 2017-11-20 2018-11-21 宏碁股份有限公司 動態分派工作及提供資源的方法、裝置及其系統

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022092458A1 (ko) * 2020-10-29 2022-05-05 삼성전자 주식회사 전자 장치 및 전자 장치에서 태스크 수행을 위한 장치를 결정하는 방법

Also Published As

Publication number Publication date
US11354156B2 (en) 2022-06-07
US20200218567A1 (en) 2020-07-09

Similar Documents

Publication Publication Date Title
KR20200084707A (ko) 태스크 분산 처리를 관리하는 마스터 장치, 태스크를 처리하는 태스크 처리 장치, 및 그 동작 방법
CN109254842B (zh) 分布式流式系统的资源管理方法、装置及可读存储介质
CN109783157B (zh) 一种算法程序加载的方法及相关装置
CN108205469B (zh) 一种基于MapReduce的资源分配方法及服务器
US11544113B2 (en) Task scheduling for machine-learning workloads
US20150154054A1 (en) Information processing device and method for assigning task
CN111897660B (zh) 模型部署方法、模型部署装置及终端设备
CN111191777A (zh) 一种神经网络处理器及其控制方法
CN109727376B (zh) 生成配置文件的方法、装置及售货设备
CN110298615B (zh) 用于选择仓库中的货品的方法、装置、介质和计算设备
US20140244846A1 (en) Information processing apparatus, resource control method, and program
US20170193541A1 (en) Agricultural products processing center adaptive analysis system and processing method thereof
US9983911B2 (en) Analysis controller, analysis control method and computer-readable medium
CN102622274B (zh) 计算机装置及其中断任务分配方法
CN107634978B (zh) 一种资源调度方法及装置
CN108833532B (zh) 基于物联网的服务处理方法、装置和系统
CN107870818B (zh) 多核处理器中断动态响应方法及存储介质
US20140047454A1 (en) Load balancing in an sap system
CN114238157A (zh) 工作量证明的获取装置、方法、电子设备、存储介质
CN113238852A (zh) 一种任务分配方法、装置、电子设备及存储介质
US8561075B2 (en) Load balancing servers
US8677028B2 (en) Interrupt-based command processing
KR20160134994A (ko) 모듈형 plc 시스템의 인터럽트 처리 방법
KR101952221B1 (ko) 캐시 부스팅과 경과시간 최소화를 통한 효율적인 멀티태스킹 그래픽처리장치
US11593178B2 (en) ML-to-ML orchestration system and method for system wide information handling system (IHS) optimization

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right