KR20230116583A - 뉴럴 네트워크 제어 방법 및 장치 - Google Patents

뉴럴 네트워크 제어 방법 및 장치 Download PDF

Info

Publication number
KR20230116583A
KR20230116583A KR1020220013697A KR20220013697A KR20230116583A KR 20230116583 A KR20230116583 A KR 20230116583A KR 1020220013697 A KR1020220013697 A KR 1020220013697A KR 20220013697 A KR20220013697 A KR 20220013697A KR 20230116583 A KR20230116583 A KR 20230116583A
Authority
KR
South Korea
Prior art keywords
neural networks
neural network
combination
neural
inference
Prior art date
Application number
KR1020220013697A
Other languages
English (en)
Inventor
김종석
송현오
정연우
Original Assignee
삼성전자주식회사
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 서울대학교산학협력단 filed Critical 삼성전자주식회사
Priority to KR1020220013697A priority Critical patent/KR20230116583A/ko
Priority to US17/979,962 priority patent/US20230244910A1/en
Publication of KR20230116583A publication Critical patent/KR20230116583A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Abstract

뉴럴 네트워크 제어 방법 및 장치가 개시된다. 일 실시 예에 따른 뉴럴 네트워크 제어 방법은 복수의 해상도의 이미지들에 대응하여 학습된, 복수의 뉴럴 네트워크들 획득하는 단계, 상호 의존 정보량의 합이 최소가 되는 뉴럴 네트워크들의 조합을 선별하는 단계, 및 입력 데이터에 대한 추론이 수행되도록 복수의 뉴럴 네트워크들을 설정하는 단계를 포함할 수 있다.

Description

뉴럴 네트워크 제어 방법 및 장치{METHOD AND APPARATUS FOR CONTROLLING NEURAL NETWORKS}
아래의 개시는 뉴럴 네트워크 제어 방법 및 장치에 관한 것이다.
최근 다양한 분야에서 학습 기반의 딥러닝 모델이 이용되고 있으며, 딥러닝 모델에 관한 연구가 활발히 진행되고 있다. 학습 데이터의 크기 및 딥러닝 모델의 학습 및/또는 연산을 위한 GPU와 같은 컴퓨팅 리소스의 발전으로 모델의 사이즈가 증가하면서, 추론의 정확도가 상당히 개선되는 한편, 연산을 위하여 많은 양의 컴퓨팅 리소스를 요구하거나, 추론 속도가 길어지고 있다. 모바일 디바이스와 같은 컴퓨팅 리소스가 제한되는 경량 디바이스에서 직접 대규모의 딥러닝 모델의 학습 및 추론을 수행하기 어려운 문제가 있다. 이에, 적은 양의 컴퓨팅 리소스를 이용하여 학습 및 추론을 수행하거나, 추론 속도를 단축하기 위하여 딥러닝 모델의 추론의 정확도를 유지하면서 경량화하는 기술의 필요성이 증가하고 있다.
아래 실시 예들을 통해 컴퓨팅 리소스가 제한되는 장치에서 추론 시간의 지연 없이 뉴럴 네트워크를 이용한 추론 연산을 수행하는 기술을 제공할 수 있다.
아래 실시 예들을 통해 별도의 학습 연산을 요구하거나 추가적인 저장 공간을 요구하지 않고, 다양한 장치의 하드웨어 사양 및 요구되는 추론 시간 조건에 적합한 뉴럴 네트워크를 제공하는 기술을 제공할 수 있다.
다만, 기술적 과제는 상술한 기술적 과제들로 한정되는 것은 아니며, 또 다른 기술적 과제들이 존재할 수 있다.
일 측에 따른 뉴럴 네트워크를 이용하여 추론 연산을 수행하는 장치의 적어도 하나의 프로세서에 의하여 수행되는 뉴럴 네트워크 제어 방법은 복수의 해상도의 이미지들에 대응하여 학습된, 복수의 뉴럴 네트워크들을 획득하는 단계; 상기 복수의 뉴럴 네트워크들의 이용에 관한 제한 조건에 기초하여, 상호 의존 정보(mutual information)량의 합이 최소가 되는 상기 뉴럴 네트워크들의 조합을 선별하는 단계; 및 상기 선별된 조합에 기초하여, 입력 데이터에 대한 추론이 수행되도록 상기 복수의 뉴럴 네트워크들을 설정하는 단계를 포함한다.
상기 뉴럴 네트워크들의 조합을 선별하는 단계는 상기 조합의 크기에 관한 제한 조건에 기초하여, 상기 뉴럴 네트워크들의 조합들 중 일부를 후보로 추출하는 단계; 상기 후보로 추출된 조합 각각에 대응하여, 해당 조합 내 뉴럴 네트워크의 쌍의 상호 의존 정보량의 합을 계산하는 단계; 및 상기 후보로 추출된 조합 중 상기 계산된 상호 의존 정보량의 합이 최소인 조합을 선별하는 단계를 포함할 수 있다.
상기 뉴럴 네트워크 제어 방법은 상기 복수의 뉴럴 네트워크들을 이용한 추론 시간에 관한 제한 조건에 기초하여, 상기 선별된 조합에 포함된 뉴럴 네트워크 중 크기가 작은 일부를 추출하는 단계를 더 포함할 수 있다.
상기 복수의 뉴럴 네트워크들의 이용에 관한 제한 조건은 상기 조합에 포함된 뉴럴 네트워크의 개수를 제한하는 조건; 상기 조합에 포함된 뉴럴 네트워크의 크기를 제한하는 조건; 및 상기 조합에 포함된 뉴럴 네트워크를 이용한 추론 시간을 제한하는 조건 중 적어도 하나를 포함할 수 있다.
상기 뉴럴 네트워크 제어 방법은 상기 장치의 상태 정보를 수신하는 단계; 및 상기 수신된 장치의 상태 정보에 기초하여, 상기 제한 조건을 설정하는 단계를 더 포함할 수 있다.
상기 장치의 상태 정보는 상기 장치의 유형에 관한 정보, 상기 장치의 하드웨어 사양에 관한 정보 상기 장치에서 요구하는 추론 연산의 속도에 관한 정보 및 상기 장치에서 요구하는 추론 연산의 정확도에 관한 정보 중 적어도 하나를 포함할 수 있다.
상기 복수의 뉴럴 네트워크들을 설정하는 단계는 상기 복수의 뉴럴 네트워크들 중 상기 선별된 조합에 포함된 뉴럴 네트워크를 활성화시키는 단계를 포함할 수 있다.
상기 뉴럴 네트워크 제어 방법은 상기 선별된 조합에 포함된 뉴럴 네트워크를 학습 데이터에 기초하여 재학습시키는 단계를 더 포함할 수 있다.
상기 복수의 뉴럴 네트워크들을 설정하는 단계는 상기 조합에 포함된 제1 뉴럴 네트워크에 기초하여, 상기 입력 데이터에 대한 추론 연산을 수행하는 단계; 및 상기 제1 뉴럴 네트워크에 기초한 추론 연산이 수행되지 않는 동안 상기 조합에 포함된 제2 뉴럴 네트워크에 기초하여, 상기 입력 데이터에 대한 추론 연산을 수행하는 단계를 포함할 수 있다.
상기 복수의 뉴럴 네트워크들을 획득하는 단계는 상기 복수의 뉴럴 네트워크 각각을 서로 다른 해상도의 이미지에 기초하여 학습시키는 단계; 및 상기 복수의 해상도의 이미지들에 기초하여, 상기 복수의 뉴럴 네트워크들 전체를 학습시키는 단계 중 적어도 하나를 포함할 수 있다.
일 측에 따른 뉴럴 네트워크를 이용하여 추론 연산을 수행하는 장치의 적어도 하나의 프로세서에 의하여 수행되는 뉴럴 네트워크 제어 방법은 복수의 해상도의 이미지들에 대응하여 학습된 복수의 뉴럴 네트워크들 중 상호 의존 정보(mutual information)량에 기초하여 선별된 상기 뉴럴 네트워크들의 조합을 획득하는 단계; 및 추론 시간에 관한 제한 조건에 기초하여, 입력 데이터에 대한 추론이 수행되도록 상기 선별된 조합 내 뉴럴 네트워크를 설정하는 단계를 포함한다.
상기 선별된 뉴럴 네트워크들의 조합은 상기 복수의 뉴럴 네트워크들의 이용에 관한 제한 조건에 기초하여 추출된 상기 뉴럴 네트워크들의 조합들 중 상호 의존 정보량의 합이 최소인 조합을 포함할 수 있다.
일 측에 따른 뉴럴 네트워크를 이용하여 추론 연산을 수행하는 장치는 복수의 해상도의 이미지들에 대응하여 학습된, 복수의 뉴럴 네트워크들을 획득하고, 상기 복수의 뉴럴 네트워크들의 이용에 관한 제한 조건에 기초하여, 상호 의존 정보(mutual information)량의 합이 최소가 되는 상기 뉴럴 네트워크들의 조합을 선별하며, 상기 선별된 조합에 기초하여, 입력 데이터에 대한 추론이 수행되도록 상기 복수의 뉴럴 네트워크들을 설정하는, 적어도 하나의 프로세서를 포함한다.
상기 장치는 상기 획득된 복수의 뉴럴 네트워크들을 저장하는 메모리를 더 포함할 수 있다.
상기 프로세서는, 상기 뉴럴 네트워크들의 조합을 선별함에 있어서, 상기 조합의 크기에 관한 제한 조건에 기초하여, 상기 뉴럴 네트워크들의 조합들 중 일부를 후보로 추출하고, 상기 후보로 추출된 조합 각각에 대응하여, 해당 조합 내 뉴럴 네트워크의 쌍의 상호 의존 정보량의 합을 계산하며, 상기 후보로 추출된 조합 중 상기 계산된 상호 의존 정보량의 합이 최소인 조합을 선별할 수 있다.
상기 프로세서는, 상기 복수의 뉴럴 네트워크들을 이용한 추론 시간에 관한 제한 조건에 기초하여, 상기 선별된 조합에 포함된 뉴럴 네트워크 중 크기가 작은 일부를 추출할 수 있다.
상기 프로세서는, 상기 장치의 상태 정보를 수신하고, 상기 수신된 장치의 상태 정보에 기초하여, 상기 제한 조건을 설정할 수 있다.
상기 프로세서는, 상기 복수의 뉴럴 네트워크들을 설정함에 있어서, 상기 복수의 뉴럴 네트워크들 중 상기 선별된 조합에 포함된 뉴럴 네트워크를 활성화시킬 수 있다.
상기 프로세서는, 상기 선별된 조합에 포함된 뉴럴 네트워크를 학습 데이터에 기초하여 재학습시킬 수 있다.
상기 프로세서는, 상기 복수의 뉴럴 네트워크들을 설정함에 있어서, 상기 조합에 포함된 제1 뉴럴 네트워크에 기초하여, 상기 입력 데이터에 대한 추론 연산을 수행하고, 상기 제1 뉴럴 네트워크에 기초한 추론 연산이 수행되지 않는 동안 상기 조합에 포함된 제2 뉴럴 네트워크에 기초하여, 상기 입력 데이터에 대한 추론 연산을 수행할 수 있다.
상기 프로세서는, 상기 복수의 뉴럴 네트워크들을 획득함에 있어서, 상기 복수의 뉴럴 네트워크 각각을 서로 다른 해상도의 이미지에 기초하여 학습시키는 동작; 및 상기 복수의 해상도의 이미지들에 기초하여, 상기 복수의 뉴럴 네트워크들 전체를 학습시키는 동작 중 적어도 하나를 수행할 수 있다.
일 측에 따른 뉴럴 네트워크를 이용하여 추론 연산을 수행하는 장치는 복수의 해상도의 이미지들에 대응하여 학습된 복수의 뉴럴 네트워크들 중 상호 의존 정보(mutual information)량에 기초하여 선별된 상기 뉴럴 네트워크들의 조합을 획득하고, 추론 시간에 관한 제한 조건에 기초하여, 입력 데이터에 대한 추론이 수행되도록 상기 선별된 조합 내 뉴럴 네트워크를 설정하는, 적어도 하나의 프로세서를 포함한다.
도 1은 일 실시 예에 따른 뉴럴 네트워크(neural network) 제어 방법의 동작 흐름도이다.
도 2는 일 실시 예에 따른 서로 다른 해상도의 이미지에 기초하여 학습된 복수의 뉴럴 네트워크들을 설명하기 위한 도면이다.
도 3은 일 실시 예에 따른 상호 의존 정보량의 합이 최소인 조합을 선별하는 단계를 구체적으로 설명하기 위한 도면이다.
도 4 및 도 5는 일 실시 예에 따른 장치의 상태 정보에 따라 선별된 조합에서 일부 뉴럴 네트워크를 추출하는 동작을 설명하기 위한 도면들이다.
도 6은 일 실시 예에 따른 장치에서 뉴럴 네트워크에 기초하여 입력 데이터의 특징 표현을 출력하는 추론 연산을 수행하기 위한 GPU의 사용률(utilization)을 도시한 도면이다.
도 7은 일 실시 예에 따른 뉴럴 네트워크 제어 방법의 활용 시나리오를 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 장치의 구성의 예시도이다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 일 실시 예에 따른 뉴럴 네트워크(neural network) 제어 방법의 동작 흐름도이다.
도 1을 참조하면, 일 실시 예에 따른 뉴럴 네트워크 제어 방법은 복수의 해상도의 이미지들에 대응하여 학습된, 복수의 뉴럴 네트워크들 획득하는 단계(110), 상호 의존 정보량의 합이 최소가 되는 뉴럴 네트워크들의 조합을 선별하는 단계(120), 및 입력 데이터에 대한 추론이 수행되도록 복수의 뉴럴 네트워크들을 설정하는 단계(130)를 포함할 수 있다. 일 실시 예에 따른 뉴럴 네트워크 제어 방법은 뉴럴 네트워크를 이용하여 추론 연산을 수행하는 장치의 적어도 하나의 프로세서에 의하여 수행될 수 있다. 장치는 복수의 뉴럴 네트워크들을 저장하며, 복수의 뉴럴 네트워크들 중 적어도 일부를 이용하여 추론 연산을 수행하는 장치로, 예를 들어 모바일 디바이스, 퍼스널 컴퓨터 및/또는 가전 제품을 포함할 수 있다. 일 실시 예에 따른 장치의 구체적인 구성은 이하에서 상술한다.
일 실시 예에 따른 단계(110)에서 획득되는 뉴럴 네트워크는 이미지 처리에 관한 뉴럴 네트워크를 포함할 수 있다. 예를 들어, 이미지 처리에 관한 뉴럴 네트워크는 얼굴 인식, 객체 인식 및/또는 객체 검출을 위한 뉴럴 네트워크를 포함할 수 있다.
일 실시 예에 따른 복수의 뉴럴 네트워크들 각각은 서로 다른 해상도의 이미지에 기초하여 학습된 뉴럴 네트워크를 포함할 수 있다. 다시 말해, 각 뉴럴 네트워크의 학습에 이용되는 이미지의 해상도는 서로 다를 수 있다. 예를 들어, 도 2를 참조하면, 획득된 복수의 뉴럴 네트워크들은 서로 다른 해상도의 이미지들(201, 202, 203, 204, 205)에 기초하여 학습된 5개의 뉴럴 네트워크들(210, 220, 230, 240, 250)을 포함할 수 있다. 제1 뉴럴 네트워크(210)는 제1 해상도의 이미지(201)에 기초하여 학습될 수 있으며, 제2 뉴럴 네트워크(220)는 제1 해상도와 다른 제2 해상도의 이미지(202)에 기초하여 학습될 수 있다. 학습에 이용되는 이미지의 해상도가 클수록 뉴럴 네트워크의 크기는 클 수 있다. 예를 들어, 도 2를 참조하면, 이미지(201)의 해상도가 가장 크고, 이미지(205)의 방향으로 갈수록 해상도가 낮아질 때, 이미지(201)를 이용하여 학습된 뉴럴 네트워크(210)의 크기가 가장 크고, 이미지(205)를 이용하여 학습된 뉴럴 네트워크(250)의 크기가 가장 작을 수 있다. 각 해상도의 이미지를 이용하여 학습된 뉴럴 네트워크들(210, 220, 230, 240, 250)은 입력된 이미지들(201, 202, 203, 204, 205)에 대응하는 특징 표현들(F1, F2, F3, F4, F5)을 출력할 수 있다.
일 실시 예에 따른 단계(110)는 복수의 뉴럴 네트워크 각각을 서로 다른 해상도의 이미지에 기초하여 학습시키는 단계 및 복수의 해상도의 이미지들에 기초하여, 복수의 뉴럴 네트워크들 전체를 학습시키는 단계 중 적어도 하나를 포함할 수 있다.
일 예로, N개의 뉴럴 네트워크들은 아래의 수학식 1과 같이 각 뉴럴 네트워크에 대응하는 손실 함수의 합이 최소가 되도록 학습될 수 있다.
수학식 1에서, L(Fi; θi)는 뉴럴 네트워크 i에 대응하는 손실 함수, Fi는 뉴럴 네트워크 i에서 출력된 특징 표현, θi는 뉴럴 네트워크 i의 파라미터에 해당할 수 있다.
또 일 예로, N개의 뉴럴 네트워크들은 아래의 수학식 2와 같이 각 뉴럴 네트워크에 대응하는 손실 함수의 합과 전체 뉴럴 네트워크들에 대응하는 손실 함수의 합이 최소가 되도록 학습될 수 있다.
수학식 2에서, L([F1,…, FN]; θ1:N)은 전체 뉴럴 네트워크들에 대응하는 손실 함수에 해당할 수 있다.
일 실시 예에 따른 단계(120)는 복수의 뉴럴 네트워크들의 이용에 관한 제한 조건에 기초하여, 상호 의존 정보(mutual information)량의 합이 최소가 되는 뉴럴 네트워크들의 조합을 선별하는 단계를 포함할 수 있다.
상호 의존 정보(mutual information) 혹은 상호 의존 정보량은 두 개의 랜덤 변수의 상호 의존 정도를 나타내는 척도로, 하나의 랜덤 변수에서 다른 랜덤 변수를 관찰함으로써 획득되는 정보의 정량화된 양을 의미할 수 있다. 두 개의 이산 확률 변수 X와 Y의 상호 의존 정보량은 아래의 수학식 3과 같이 정의될 수 있다.
수학식 3에서, p(x, y)는 X와 Y의 결합 분포 함수, p(x)는 X의 주변 분포 함수, p(y)는 Y의 주변 분포 함수에 해당할 수 있다.
연속 확률 변수 사이의 상호 의존 정보량은 아래의 수학식 4와 같이 정의될 수 있다.
일 실시 예에 따르면, 뉴럴 네트워크들의 조합의 상호 의존 정보량의 합은 조합에 포함된 뉴럴 네트워크들의 가능한 쌍(pair)들의 상호 의존 정보량 값들의 합에 해당할 수 있다. 뉴럴 네트워크 쌍의 상호 의존 정보량은 하나의 뉴럴 네트워크에서 출력된 특징 표현과 다른 하나의 뉴럴 네트워크에서 출력된 특징 표현 사이의 상호 의존 정보량에 해당할 수 있다. 일 예로, 상호 의존 정보량의 합이 최소가 되는 뉴럴 네트워크들의 조합을 선별하는 문제는 수학식 5와 같이 나타낼 수 있다.
수학식 5에서, S는 획득된 복수의 뉴럴 네트워크들 중 적어도 하나의 뉴럴 네트워크를 포함하는 뉴럴 네트워크의 조합, I(Fi; Fj)는 조합 내 어느 하나의 뉴럴 네트워크에 대응하는 특징 표현(Fi) 및 조합 내 다른 하나의 뉴럴 네트워크에 대응하는 특징 표현(Fj)의 상호 의존 정보량에 해당할 수 있다.
일 실시 예에 따르면, 뉴럴 네트워크 쌍의 상호 의존 정보량은 특징 공간에 대응하는 확률 분포 공간에서 랜덤 변수에 대응하는 특징 표현들 사이에서 상호 의존 정보량을 계산하는 방법에 따라 계산될 수 있다. 일 예로, 제1 뉴럴 네트워크에서 출력된 제1 특징 표현과 제2 뉴럴 네트워크에서 출력된 제2 특징 표현의 상호 의존 정보량은 제1 특징 표현으로부터 제2 특징 표현이 복원될 확률이 클수록 큰 값으로 계산될 수 있다. 이 외에도 뉴럴 네트워크 쌍의 상호 의존 정보량은 랜덤 변수 사이의 상호 의존 정보량을 계산하는 다양한 방법에 기초하여 획득될 수 있다.
일 실시 예에 따르면, 상호 의존 정보량의 합이 최소가 되는 뉴럴 네트워크들의 조합은 복수의 뉴럴 네트워크들의 이용에 관한 제한 조건에 기초하여 결정될 수 있다. 일 예로, 복수의 뉴럴 네트워크들의 이용에 관한 제한 조건은 조합에 포함된 뉴럴 네트워크의 개수를 제한하는 조건, 조합에 포함된 뉴럴 네트워크의 크기를 제한하는 조건 및 조합에 포함된 뉴럴 네트워크를 이용한 추론 시간을 제한하는 조건 중 적어도 하나를 포함할 수 있다. 이하에서, '복수의 뉴럴 네트워크들의 이용에 관한 제한 조건'은 간략하게 '제한 조건'으로 지칭될 수 있다.
일 실시 예에 따른 뉴럴 네트워크 제어 방법은 장치의 상태 정보를 수신하는 단계 및 수신된 상태 정보에 기초하여, 제한 조건을 설정하는 단계를 더 포함할 수 있다. 제한 조건은 장치의 상태 정보에 기초하여 설정될 수 있다. 일 실시 예에 따른 단계(120)는 장치의 상태 정보에 기초하여 설정된 제한 조건에 기초하여 상호 의존 정보량의 합이 최소가 되는 뉴럴 네트워크들의 조합을 선별하는 단계를 포함할 수 있다.
일 실시 예에 따르면, 장치의 상태 정보는 장치의 유형에 관한 정보, 장치의 하드웨어 사양에 관한 정보, 장치에서 요구하는 추론 연산의 속도에 관한 정보 및 장치에서 요구하는 추론 연산의 정확도에 관한 정보 중 적어도 하나를 포함할 수 있다.
일 예로, 장치의 유형에 관한 정보는 해당 장치가 스마트 폰인지, 퍼스널 컴퓨터인지, TV인지, 냉장고인지와 같은 장치의 종류를 지시하는 정보 및/또는 해당 장치의 모델명을 지시하는 정보를 포함할 수 있다. 수신된 장치의 유형에 적합한 제한 조건이 설정될 수 있다. 예를 들어, 스마트 폰의 모델에 따라, 고성능의 스마트 폰 모델인 경우 완화된 제한 조건이 설정될 수 있으며, 저성능의 스마트 폰 모델인 경우 강화된 제한 조건이 설정될 수 있다. 일 예로, 수신된 장치의 유형에 적합한 제한 조건은 장치의 유형 별 미리 정해진 제한 조건을 저장한 테이블을 참조하여 설정될 수 있다.
또 일 예로, 장치의 하드웨어 사양에 관한 정보는 장치의 물리적 성능에 관한 정보, 장치의 가용 컴퓨팅 리소스의 양을 지시하는 정보 및/또는 장치의 배터리 잔여량을 지시하는 정보를 포함할 수 있다. 장치의 하드웨어 사양에 관한 정보에 기초하여 해당 장치에서 처리할 수 있는 연산량에 따라 제한 조건이 설정될 수 있다. 예를 들어, 장치의 배터리 잔여량이 특정 임계치 이하인 경우, 추론 시간을 짧게 제한하는 제한 조건 혹은 조합에 포함되는 뉴럴 네트워크의 개수 혹은 크기를 작은 크기로 제한하는 제한 조건이 설정될 수 있다.
또 일 예로, 장치에서 요구하는 추론 연산의 속도에 관한 정보는 장치에서 추론 연산을 빠르게 처리해야 하는 긴급한 상황인지 여부를 지시하는 정보를 포함할 수 있으며, 장치에서 요구하는 추론 연산의 정확도에 관한 정보는 장치의 보안 등급에 따른 추론 연산의 정확도를 지시하는 정보를 포함할 수 있다. 추론 연산의 속도와 정확도는 서로 트레이드 오프 관계에 해당할 수 있다. 다시 말해, 장치에서 요구하는 추론 연산의 속도가 높을수록 추론 연산의 정확도는 감소될 수 있으며, 장치에서 요구하는 추론 연산의 정확도가 높을수록 추론 연산의 속도는 증가될 수 있다. 예를 들어, 실시간으로 추론 연산을 수행하여야 하는 긴급한 상황인 경우, 추론 연산을 정확하게 처리하는 것보다 빠르게 처리하는 것에 가중을 두어 추론 연산을 빠르게 처리하기 위하여 추론 시간을 짧게 제한하는 제한 조건이 설정될 수 있다. 또 예를 들어, 장치의 보안 등급이 높은 경우, 추론 연산을 빠르게 처리하는 것보다 정확히 처리하는 것에 가중을 두어, 뉴럴 네트워크의 개수 혹은 크기를 크게 제한하는 제한 조건이 설정될 수 있다.
일 실시 예에 따른 뉴럴 네트워크 제어 방법은 선별된 조합에 포함된 뉴럴 네트워크를 학습 데이터에 기초하여 재학습시키는 단계를 더 포함할 수 있다. 선별된 조합에 포함된 뉴럴 네트워크를 재학습시키는 단계는 조합을 선별하는 단계(120) 이후에 수행될 수 있다. 조합에 포함된 뉴럴 네트워크는 이미 학습된 뉴럴 네트워크에 해당하므로, 재학습 단계는 생략될 수도 있다.
일 실시 예에 따른 뉴럴 네트워크들의 조합을 선별하는 단계(120)는 조합의 크기에 관한 제한 조건에 기초하여, 뉴럴 네트워크들의 조합들 중 일부를 후보로 추출하는 단계, 후보로 추출된 조합 각각에 대응하여, 해당 조합 내 뉴럴 네트워크의 쌍의 상호 의존 정보량의 합을 계산하는 단계 및 후보로 추출된 조합 중 상기 계산된 상호 의존 정보량의 합이 최소인 조합을 선별하는 단계를 포함할 수 있다. 일 예로, 조합의 크기에 관한 제한 조건은 조합에 포함된 뉴럴 네트워크의 개수를 제한하는 조건 및/또는 조합에 포함된 뉴럴 네트워크의 크기를 제한하는 조건을 포함할 수 있다.
일 실시 예에 따른 뉴럴 네트워크 제어 방법은 상호 의존 정보량의 합이 최소인 조합을 선별하는 단계 이후에 복수의 뉴럴 네트워크들을 이용한 추론 시간에 관한 제한 조건에 기초하여, 선별된 조합에 포함된 뉴럴 네트워크 중 크기가 작은 일부를 추출하는 단계를 더 포함할 수 있다.
예를 들어, 도 3을 참조하면, 조합의 크기에 관한 제한 조건이 조합에 포함된 뉴럴 네트워크의 개수를 M개로 제한하는 조건(311)인 경우, M개의 뉴럴 네트워크를 포함하는 조합 중 상호 의존 정보량의 합이 최소인 조합 S = [n1,…,nm]가 선별(310)될 수 있다. 일 실시 예에 따르면, 조합의 크기에 관한 제한 조건은 조합에 포함된 뉴럴 네트워크의 크기를 특정 범위로 제한하는 조건을 포함할 수도 있으며, 이 경우 조합에 포함된 뉴럴 네트워크의 크기의 합이 특정 범위 내인 조합 중 상호 의존 정보량의 합이 최소인 조합이 선별될 수 있다.
일 실시 예에 따르면, 선별된 조합 S에 대하여 재학습 단계(320)가 수행될 수 있다. 재학습 단계(320)는 조합 S에 포함된 뉴럴 네트워크들에 대하여 학습을 다시 수행하는 것으로, 생략될 수도 있으며, 단계(330) 이후에 추출된 일부 뉴럴 네트워크에 대하여 재학습 단계가 수행될 수도 있다.
일 실시 예에 따르면, 선별된 조합 S에 포함된 뉴럴 네트워크 [n1,…,nm]이 크기의 내림차순에 해당할 때, 선별된 조합 S에서 일부를 추출하기 위한 k를 설정하는 추론 시간에 관한 제한 조건(331)에 기초하여, 조합 S에서 일부 뉴럴 네트워크 S' = [nk,…,nm]가 추출(330)될 수 있다. 추론 시간에 관한 제한 조건이 지시하는 추론 시간이 짧을수록 혹은 추론 속도가 높을수록 k의 값은 큰 값으로 설정될 수 있다.
일 실시 예에 따르면, 장치의 상태 정보에 따라, 추론 시간에 관한 제한 조건이 다르게 설정될 수 있으며, 추출되는 뉴럴 네트워크의 개수는 서로 상이할 수 있다. 예를 들어, 도 4를 참조하면, 조합의 크기에 관한 조건에 기초하여 상호 의존 정보량이 최소인 제1 뉴럴 네트워크(410), 제3 뉴럴 네트워크(420) 및 제5 뉴럴 네트워크(430)를 포함하는 조합이 선별될 수 있다. 상술한 바와 같이, 장치의 상태 정보에 기초하여 추론 시간에 관한 제한 조건이 설정될 수 있다. 설정된 추론 시간에 관한 제한 조건에 기초하여, 선별된 조합에서 적어도 일부의 뉴럴 네트워크가 추출될 수 있다. 예를 들어, 도 5를 참조하면, 조합에 포함된 제1 뉴럴 네트워크(510), 제3 뉴럴 네트워크(520) 및 제5 뉴럴 네트워크(530) 중 제1 장치(501)에 대응하여 제1 뉴럴 네트워크(510), 제3 뉴럴 네트워크(520) 및 제5 뉴럴 네트워크(530)가 추출될 수 있고, 제2 장치(502)에 대응하여 제3 뉴럴 네트워크(520) 및 제5 뉴럴 네트워크(530)가 추출될 수 있으며, 제3 장치(503)에 대응하여 제5 뉴럴 네트워크(530)가 추출될 수 있다. 제1 장치(501)는 제1 뉴럴 네트워크(510), 제3 뉴럴 네트워크(520) 및 제5 뉴럴 네트워크(530) 각각에서 입력 데이터에 대응하여 출력된 특징 표현들(511)에 기초하여 추론 연산을 수행할 수 있다. 제2 장치(502)는 제3 뉴럴 네트워크(520) 및 제5 뉴럴 네트워크(530) 각각에서 입력 데이터에 대응하여 출력된 특징 표현들(512)에 기초하여 추론 연산을 수행할 수 있으며, 제3 장치(503)는 제5 뉴럴 네트워크(530)에서 입력 데이터에 대응하여 출력된 특징 표현(513)에 기초하여 추론 연산을 수행할 수 있다. 동일한 장치에 대해서도 장치에서 수신되는 배터리 잔여량과 같은 상태 정보에 따라 제한 조건이 다르게 설정될 수 있으며, 추출되는 뉴럴 네트워크의 개수가 다르게 결정될 수 있다.
일 실시 예에 따른 복수의 뉴럴 네트워크들을 설정하는 단계(130)는 복수의 뉴럴 네트워크들 중 선별된 조합에 포함된 뉴럴 네트워크를 활성화시키는 단계를 포함할 수 있다. 다시 말해, 선별된 조합에 포함된 뉴럴 네트워크만 이용하여 추론 연산이 수행될 수 있도록 선별된 조합에 포함된 뉴럴 네트워크가 활성화될 수 있다. 일 실시 예에 따르면, 장치는 활성화된 뉴럴 네트워크를 이용하여 입력 데이터에 대한 추론 연산을 수행할 수 있다.
일 실시 예에 따른 복수의 뉴럴 네트워크들을 설정하는 단계(130)는 선별된 조합에 포함된 제1 뉴럴 네트워크에 기초하여, 입력 데이터에 대한 추론 연산을 수행하는 단계 및 제1 뉴럴 네트워크에 기초한 추론 연산이 수행되지 않는 동안 선별된 조합에 포함된 제2 뉴럴 네트워크에 기초하여, 입력 데이터에 대한 추론 연산을 수행하는 단계를 포함할 수 있다. 뉴럴 네트워크에 기초한 추론 연산은 입력 데이터를 뉴럴 네트워크에 인가하여 특징 표현을 출력하는 연산을 포함할 수 있다.
예를 들어, 도 6은 장치에서 뉴럴 네트워크에 기초하여 입력 데이터의 특징 표현을 출력하는 추론 연산을 수행하기 위한 GPU의 사용률(utilization)을 도시한다. 도 6을 참조하면, 장치의 GPU에서 제1 뉴럴 네트워크에 기초하여 특징 표현 F1을 출력하는 추론 연산이 수행되지 않는 동안(601), 제3 뉴럴 네트워크에 기초하여 특징 표현 F3을 출력하는 추론 연산을 수행하고, GPU에서 제1 뉴럴 네트워크 및 제2 뉴럴 네트워크에 기초한 추론 연산이 수행되지 않는 동안(602) 제5 뉴럴 네트워크에 기초하여 특징 표현 F5를 출력하기 위한 추론 연산을 수행함으로써, 복수의 뉴럴 네트워크들에 기초한 추론 연산을 병렬적으로 수행할 수 있다.
일 실시 예에 따르면, 단계(110) 및 단계(120)는 서버 혹은 외부 장치에서 수행될 수도 있다. 선별된 조합의 뉴럴 네트워크가 장치에 장착될 수 있으며, 선별된 조합의 뉴럴 네트워크가 장착된 장치는 단계(130)를 수행할 수 있다.
일 예로, 뉴럴 네트워크를 이용하여 추론 연산을 수행하는 장치의 적어도 하나의 프로세서에 의하여 수행되는 뉴럴 네트워크 제어 방법은 복수의 해상도의 이미지들에 대응하여 학습된 복수의 뉴럴 네트워크들 중 상호 의존 정보(mutual information)량에 기초하여 선별된 상기 뉴럴 네트워크들의 조합을 획득하는 단계 및 추론 시간에 관한 제한 조건에 기초하여, 입력 데이터에 대한 추론이 수행되도록 선별된 조합 내 뉴럴 네트워크를 설정하는 단계를 포함할 수 있다.
일 실시 예에 따른 선별된 뉴럴 네트워크들의 조합은 복수의 뉴럴 네트워크들의 이용에 관한 제한 조건에 기초하여 추출된 뉴럴 네트워크들의 조합들 중 상호 의존 정보량의 합이 최소인 조합을 포함할 수 있다. 상호 의존 정보량의 합이 최소인 조합인 서버 혹은 외부 장치에 의해 선별될 수 있으며, 뉴럴 네트워크 제어 방법을 수행하는 장치는 서버 혹은 외부 장치로부터 선별된 조합을 획득할 수 있다.
일 실시 예에 따르면, 선별된 조합 내 뉴럴 네트워크를 설정하는 단계는 뉴럴 네트워크를 이용한 추론 시간에 관한 제한 조건에 기초하여, 선별된 조합에 포함된 뉴럴 네트워크 중 크기가 작은 일부를 추출하는 단계를 포함할 수 있다. 상술한 바와 같이, 장치는 추출된 일부 뉴럴 네트워크를 추론 연산에 이용될 수 있도록 활성화하고, 나머지 뉴럴 네트워크는 비활성화할 수 있다.
도 7은 일 실시 예에 따른 뉴럴 네트워크 제어 방법의 활용 시나리오를 설명하기 위한 도면이다.
도 7을 참조하면, 일 실시 예에 따른 뉴럴 네트워크 제어 방법은 장치(예를 들어, 휴대폰)의 잠금 해제를 위한 얼굴 인식 기능에 활용될 수 있다. 장치의 얼굴 인식 기능은 얼굴 이미지에 기초하여 얼굴을 인식하도록 학습된 뉴럴 네트워크에 의해 구현될 수 있다. 장치는 얼굴 인식을 위한 뉴럴 네트워크를 획득 및 저장할 수 있다. 장치에 저장된 얼굴 인식을 위한 뉴럴 네트워크는 복수의 해상도의 얼굴 이미지들에 기초하여 얼굴을 인식하도록 학습된 복수의 뉴럴 네트워크들을 포함할 수 있다.
일 실시 예에 따른 장치는 잠금 해제 요청을 수신(710)할 수 있다. 예를 들어, 잠금 해제 요청은 잠금이 설정된 상태에서 장치의 이미지 센서를 통해 수신되는 얼굴 이미지 및/또는 사용자로부터 입력된 잠금 해제 요청을 포함할 수 있다.
일 실시 예에 따른 잠금 해제 요청을 수신한 장치는 보안 등급을 판단(720)할 수 있다. 장치의 보안 등급은 제한 조건 설정을 위한 장치의 상태 정보의 일 예에 해당할 수 있다. 예를 들어, 장치의 보안 등급은 장치가 재부팅된 경우에는 '상', 잠금 해제 후 미리 정해진 임계 시간이 지나거나, 잠금 해제가 실패된 경우에는 '중', 잠금 해제 후 임계 시간이 지나기 전인 경우에는 '하'로 판단될 수 있다.
일 실시 예에 따르면, 판단된 보안 등급에 기초하여, 장치는 뉴럴 네트워크의 조합 선별을 위한 제한 조건을 설정할 수 있다. 일 예로, 보안 등급이 높을수록 정확도에 가중을 두고, 보안 등급이 낮을수록 추론 속도에 가중을 두어 제한 조건이 설정될 수 있다. 예를 들어, 보안 등급이 '상'인 경우, 장치에 저장된 얼굴 인식을 위한 뉴럴 네트워크 전체를 이용하도록 제한 조건이 설정될 수 있다. 또 예를 들어, 보안 등급이 '중'인 경우, 조합에 포함되는 뉴럴 네트워크의 개수를 2개로 제한하도록 제한 조건이 설정될 수 있다. 또 예를 들어, 보안 등급이 '하'인 경우, 조합에 포함되는 뉴럴 네트워크의 개수를 1개로 제한하도록 제한 조건이 설정될 수 있다.
일 실시 예에 따르면, 장치는 설정된 제한 조건에 기초하여, 상호 의존 정보량이 최소가 되는 뉴럴 네트워크의 조합을 선별할 수 있다. 예를 들어, 보안 등급이 '상'인 경우, 뉴럴 네트워크 전체를 포함하는 조합이 선별될 수 있으며, 전체 뉴럴 네트워크에서 출력된 입력 데이터에 대한 특징 표현들 [F1, F2, F3, F4, F5]에 기초하여, 얼굴 인식이 수행(731)될 수 있다. 보안 등급이 '중'인 경우, 2개의 뉴럴 네트워크를 포함하는 조합 중 상호 의존 정보량이 최소인 조합이 선별될 수 있으며, 조합에 포함된 뉴럴 네트워크에서 출력된 입력 데이터에 대한 특징 표현들[F1, F2]에 기초하여, 얼굴 인식이 수행(732)될 수 있다. 보안 등급이 '하'인 경우, 조합에 포함되는 뉴럴 네트워크의 개수가 1개로 제한되어, 두 뉴럴 네트워크 사이에 계산되는 상호 의존 정보량을 계산할 수 없으므로, 전체 뉴럴 네트워크 중 크기가 작은 뉴럴 네트워크에서 출력된 입력 데이터에 대한 특징 표현 F5에 기초하여, 얼굴 인식이 수행(733)될 수 있다.
일 실시 예에 따르면, 장치는 얼굴 인식 수행 결과에 기초하여, 잠금 해제 여부를 판단(740)할 수 있다. 일 예로, 인식된 얼굴이 등록된 사용자의 얼굴인 것으로 판단된 경우 잠금을 해제하는 것으로 판단될 수 있고, 인식된 얼굴이 등록된 사용자의 얼굴이 아닌 것으로 판단된 경우 잠금을 해제하지 않는 것으로 판단될 수 있다.
도 8은 일 실시예에 따른 장치의 구성의 예시도이다.
도 8을 참조하면, 장치(800)는 프로세서(801), 메모리(803) 및 입출력 장치(805)를 포함할 수 있다. 일 실시 예에 따른 장치(800)는 도 1 내지 도 7을 통하여 전술한 네트워크 제어 방법을 수행하는 장치를 포함할 수 있다. 다시 말해, 장치(800)는 뉴럴 네트워크를 이용하여 추론 연산을 수행하는 장치로, 예를 들어 모바일 디바이스, 퍼스널 컴퓨터 및/또는 가전 제품을 포함할 수 있다. 상술한 바와 같이, 뉴럴 네트워크는 복수의 해상도의 이미지들에 기초하여 학습된 이미지 처리에 관한 복수의 뉴럴 네트워크들을 포함할 수 있으며, 예를 들어 복수의 뉴럴 네트워크들은 객체 검출, 객체 인식, 및 얼굴 인식과 같은 이미지 처리에 관한 뉴럴 네트워크를 포함할 수 있다.
일 실시 예에 따른 프로세서(801)는 도 1 내지 도 7을 통하여 전술한 적어도 하나의 동작을 수행할 수 있다. 예를 들어, 프로세서(801)는 복수의 해상도의 이미지들에 대응하여 학습된, 복수의 뉴럴 네트워크들 획득하는 동작, 상호 의존 정보량의 합이 최소가 되는 뉴럴 네트워크들의 조합을 선별하는 동작 및 입력 데이터에 대한 추론이 수행되도록 복수의 뉴럴 네트워크들을 설정하는 동작 중 적어도 하나를 수행할 수 있다.
또 예를 들어, 프로세서(801)는 복수의 해상도의 이미지들에 대응하여 학습된 복수의 뉴럴 네트워크들 중 상호 의존 정보량에 기초하여 선별된 상기 뉴럴 네트워크들의 조합을 획득하는 동작 및 추론 시간에 관한 제한 조건에 기초하여, 입력 데이터에 대한 추론이 수행되도록 상기 선별된 조합 내 뉴럴 네트워크를 설정하는 동작 중 적어도 하나를 수행할 수 있다. 복수의 해상도의 이미지들에 대응하여 학습된, 복수의 뉴럴 네트워크들 획득하는 동작 및 상호 의존 정보량의 합이 최소가 되는 뉴럴 네트워크들의 조합을 선별하는 동작은 외부 장치 혹은 서버에 의해 수행될 수 있다.
일 실시 예에 따른 메모리(803)는 휘발성 메모리 또는 비휘발성 메모리일 수 있으며, 도 1 내지 도 7을 통하여 전술한 뉴럴 네트워크 제어 방법에 관한 데이터를 저장할 수 있다. 일 예로, 메모리(803)는 뉴럴 네트워크 제어 방법의 수행 과정에서 발생한 데이터 혹은 뉴럴 네트워크 제어 방법을 수행하기 위하여 필요한 데이터를 저장할 수 있다. 예를 들어, 메모리(803)는 복수의 해상도의 이미지들에 기초하여 학습된 복수의 뉴럴 네트워크들을 저장할 수 있으며, 복수의 뉴럴 네트워크들의 이용에 관한 제한 조건의 설정을 저장할 수 있다.
일 실시 예에 따른 장치(800)는 입출력 장치(805)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다. 예를 들어, 장치(800)는 입출력 장치(805)를 통해 입력 이미지를 수신할 수 있으며, 뉴럴 네트워크에 기초한 추론 연산의 결과를 출력할 수 있다.
일 실시 예에 따르면, 메모리(803)는 도 1 내지 도 7을 통하여 전술한 뉴럴 네트워크 제어 방법이 구현된 프로그램을 저장할 수 있다. 프로세서(801)는 메모리(803)에 저장된 프로그램을 실행하고, 장치(800)를 제어할 수 있다. 프로세서(801)에 의하여 실행되는 프로그램의 코드는 메모리(803)에 저장될 수 있다.
일 실시 예에 따른 장치(800)는 도시되지 않은 다른 구성 요소들을 더 포함할 수 있다. 예를 들어, 장치(800)는 통신 모듈을 더 포함할 수 있다. 통신 모듈은 네트워크를 통해 장치(800)가 다른 전자 기기 또는 다른 서버와 통신하기 위한 기능을 제공할 수 있다. 또 예를 들어, 장치(800)는 트랜시버(transceiver), 각종 센서, 데이터베이스 등과 같은 다른 구성 요소들을 더 포함할 수도 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 저장할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (23)

  1. 뉴럴 네트워크를 이용하여 추론 연산을 수행하는 장치의 적어도 하나의 프로세서에 의하여 수행되는 뉴럴 네트워크 제어 방법에 있어서,
    복수의 해상도의 이미지들에 대응하여 학습된, 복수의 뉴럴 네트워크들을 획득하는 단계;
    상기 복수의 뉴럴 네트워크들의 이용에 관한 제한 조건에 기초하여, 상호 의존 정보(mutual information)량의 합이 최소가 되는 상기 뉴럴 네트워크들의 조합을 선별하는 단계; 및
    상기 선별된 조합에 기초하여, 입력 데이터에 대한 추론이 수행되도록 상기 복수의 뉴럴 네트워크들을 설정하는 단계
    를 포함하는,
    뉴럴 네트워크 제어 방법.
  2. 제1항에 있어서,
    상기 뉴럴 네트워크들의 조합을 선별하는 단계는
    상기 조합의 크기에 관한 제한 조건에 기초하여, 상기 뉴럴 네트워크들의 조합들 중 일부를 후보로 추출하는 단계;
    상기 후보로 추출된 조합 각각에 대응하여, 해당 조합 내 뉴럴 네트워크의 쌍의 상호 의존 정보량의 합을 계산하는 단계; 및
    상기 후보로 추출된 조합 중 상기 계산된 상호 의존 정보량의 합이 최소인 조합을 선별하는 단계
    를 포함하는,
    뉴럴 네트워크 제어 방법.
  3. 제2항에 있어서,
    상기 복수의 뉴럴 네트워크들을 이용한 추론 시간에 관한 제한 조건에 기초하여, 상기 선별된 조합에 포함된 뉴럴 네트워크 중 크기가 작은 일부를 추출하는 단계
    를 더 포함하는,
    뉴럴 네트워크 제어 방법.
  4. 제1항에 있어서,
    상기 복수의 뉴럴 네트워크들의 이용에 관한 제한 조건은
    상기 조합에 포함된 뉴럴 네트워크의 개수를 제한하는 조건;
    상기 조합에 포함된 뉴럴 네트워크의 크기를 제한하는 조건; 및
    상기 조합에 포함된 뉴럴 네트워크를 이용한 추론 시간을 제한하는 조건
    중 적어도 하나를 포함하는,
    뉴럴 네트워크 제어 방법.
  5. 제1항에 있어서,
    상기 장치의 상태 정보를 수신하는 단계; 및
    상기 수신된 장치의 상태 정보에 기초하여, 상기 제한 조건을 설정하는 단계
    를 더 포함하는,
    뉴럴 네트워크 제어 방법.
  6. 제5항에 있어서,
    상기 장치의 상태 정보는
    상기 장치의 유형에 관한 정보, 상기 장치의 하드웨어 사양에 관한 정보 상기 장치에서 요구하는 추론 연산의 속도에 관한 정보 및 상기 장치에서 요구하는 추론 연산의 정확도에 관한 정보 중 적어도 하나를 포함하는,
    뉴럴 네트워크 제어 방법.
  7. 제1항에 있어서,
    상기 복수의 뉴럴 네트워크들을 설정하는 단계는
    상기 복수의 뉴럴 네트워크들 중 상기 선별된 조합에 포함된 뉴럴 네트워크를 활성화시키는 단계
    를 포함하는,
    뉴럴 네트워크 제어 방법.
  8. 제1항에 있어서,
    상기 선별된 조합에 포함된 뉴럴 네트워크를 학습 데이터에 기초하여 재학습시키는 단계
    를 더 포함하는,
    뉴럴 네트워크 제어 방법.
  9. 제1항에 있어서,
    상기 복수의 뉴럴 네트워크들을 설정하는 단계는
    상기 조합에 포함된 제1 뉴럴 네트워크에 기초하여, 상기 입력 데이터에 대한 추론 연산을 수행하는 단계; 및
    상기 제1 뉴럴 네트워크에 기초한 추론 연산이 수행되지 않는 동안 상기 조합에 포함된 제2 뉴럴 네트워크에 기초하여, 상기 입력 데이터에 대한 추론 연산을 수행하는 단계
    를 포함하는,
    뉴럴 네트워크 제어 방법.
  10. 제1항에 있어서,
    상기 복수의 뉴럴 네트워크들을 획득하는 단계는
    상기 복수의 뉴럴 네트워크 각각을 서로 다른 해상도의 이미지에 기초하여 학습시키는 단계; 및
    상기 복수의 해상도의 이미지들에 기초하여, 상기 복수의 뉴럴 네트워크들 전체를 학습시키는 단계
    중 적어도 하나를 포함하는,
    뉴럴 네트워크 제어 방법.
  11. 뉴럴 네트워크를 이용하여 추론 연산을 수행하는 장치의 적어도 하나의 프로세서에 의하여 수행되는 뉴럴 네트워크 제어 방법에 있어서,
    복수의 해상도의 이미지들에 대응하여 학습된 복수의 뉴럴 네트워크들 중 상호 의존 정보(mutual information)량에 기초하여 선별된 상기 뉴럴 네트워크들의 조합을 획득하는 단계; 및
    추론 시간에 관한 제한 조건에 기초하여, 입력 데이터에 대한 추론이 수행되도록 상기 선별된 조합 내 뉴럴 네트워크를 설정하는 단계
    를 포함하는,
    뉴럴 네트워크 제어 방법.
  12. 제11항에 있어서,
    상기 선별된 뉴럴 네트워크들의 조합은
    상기 복수의 뉴럴 네트워크들의 이용에 관한 제한 조건에 기초하여 추출된 상기 뉴럴 네트워크들의 조합들 중 상호 의존 정보량의 합이 최소인 조합을 포함하는,
    뉴럴 네트워크 제어 방법.
  13. 하드웨어와 결합되어 제1항 내지 제12항 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
  14. 뉴럴 네트워크를 이용하여 추론 연산을 수행하는 장치에 있어서,
    복수의 해상도의 이미지들에 대응하여 학습된, 복수의 뉴럴 네트워크들을 획득하고,
    상기 복수의 뉴럴 네트워크들의 이용에 관한 제한 조건에 기초하여, 상호 의존 정보(mutual information)량의 합이 최소가 되는 상기 뉴럴 네트워크들의 조합을 선별하며,
    상기 선별된 조합에 기초하여, 입력 데이터에 대한 추론이 수행되도록 상기 복수의 뉴럴 네트워크들을 설정하는,
    적어도 하나의 프로세서
    를 포함하는,
    장치.
  15. 제14항에 있어서,
    상기 획득된 복수의 뉴럴 네트워크들을 저장하는 메모리
    를 더 포함하는,
    장치.
  16. 제14항에 있어서,
    상기 프로세서는,
    상기 뉴럴 네트워크들의 조합을 선별함에 있어서,
    상기 조합의 크기에 관한 제한 조건에 기초하여, 상기 뉴럴 네트워크들의 조합들 중 일부를 후보로 추출하고,
    상기 후보로 추출된 조합 각각에 대응하여, 해당 조합 내 뉴럴 네트워크의 쌍의 상호 의존 정보량의 합을 계산하며,
    상기 후보로 추출된 조합 중 상기 계산된 상호 의존 정보량의 합이 최소인 조합을 선별하는,
    장치.
  17. 제16항에 있어서,
    상기 프로세서는,
    상기 복수의 뉴럴 네트워크들을 이용한 추론 시간에 관한 제한 조건에 기초하여, 상기 선별된 조합에 포함된 뉴럴 네트워크 중 크기가 작은 일부를 추출하는,
    장치.
  18. 제14항에 있어서,
    상기 프로세서는,
    상기 장치의 상태 정보를 수신하고,
    상기 수신된 장치의 상태 정보에 기초하여, 상기 제한 조건을 설정하는,
    장치.
  19. 제14항에 있어서,
    상기 프로세서는,
    상기 복수의 뉴럴 네트워크들을 설정함에 있어서,
    상기 복수의 뉴럴 네트워크들 중 상기 선별된 조합에 포함된 뉴럴 네트워크를 활성화시키는,
    장치.
  20. 제14항에 있어서,
    상기 프로세서는,
    상기 선별된 조합에 포함된 뉴럴 네트워크를 학습 데이터에 기초하여 재학습시키는,
    장치.
  21. 제14항에 있어서,
    상기 프로세서는,
    상기 복수의 뉴럴 네트워크들을 설정함에 있어서,
    상기 조합에 포함된 제1 뉴럴 네트워크에 기초하여, 상기 입력 데이터에 대한 추론 연산을 수행하고,
    상기 제1 뉴럴 네트워크에 기초한 추론 연산이 수행되지 않는 동안 상기 조합에 포함된 제2 뉴럴 네트워크에 기초하여, 상기 입력 데이터에 대한 추론 연산을 수행하는,
    장치.
  22. 제14항에 있어서,
    상기 프로세서는,
    상기 복수의 뉴럴 네트워크들을 획득함에 있어서,
    상기 복수의 뉴럴 네트워크 각각을 서로 다른 해상도의 이미지에 기초하여 학습시키는 동작; 및
    상기 복수의 해상도의 이미지들에 기초하여, 상기 복수의 뉴럴 네트워크들 전체를 학습시키는 동작
    중 적어도 하나를 수행하는
    장치.
  23. 뉴럴 네트워크를 이용하여 추론 연산을 수행하는 장치에 있어서,
    복수의 해상도의 이미지들에 대응하여 학습된 복수의 뉴럴 네트워크들 중 상호 의존 정보(mutual information)량에 기초하여 선별된 상기 뉴럴 네트워크들의 조합을 획득하고,
    추론 시간에 관한 제한 조건에 기초하여, 입력 데이터에 대한 추론이 수행되도록 상기 선별된 조합 내 뉴럴 네트워크를 설정하는,
    적어도 하나의 프로세서
    를 포함하는,
    장치.


KR1020220013697A 2022-01-28 2022-01-28 뉴럴 네트워크 제어 방법 및 장치 KR20230116583A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220013697A KR20230116583A (ko) 2022-01-28 2022-01-28 뉴럴 네트워크 제어 방법 및 장치
US17/979,962 US20230244910A1 (en) 2022-01-28 2022-11-03 Method and apparatus with neural network control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220013697A KR20230116583A (ko) 2022-01-28 2022-01-28 뉴럴 네트워크 제어 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20230116583A true KR20230116583A (ko) 2023-08-04

Family

ID=87432172

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220013697A KR20230116583A (ko) 2022-01-28 2022-01-28 뉴럴 네트워크 제어 방법 및 장치

Country Status (2)

Country Link
US (1) US20230244910A1 (ko)
KR (1) KR20230116583A (ko)

Also Published As

Publication number Publication date
US20230244910A1 (en) 2023-08-03

Similar Documents

Publication Publication Date Title
KR102486699B1 (ko) 영상 인식 방법, 영상 검증 방법, 장치, 및 영상 인식 및 검증에 대한 학습 방법 및 장치
KR102562320B1 (ko) 비트 연산 기반의 뉴럴 네트워크 처리 방법 및 장치
AU2020368222B2 (en) Adding adversarial robustness to trained machine learning models
CN113408743A (zh) 联邦模型的生成方法、装置、电子设备和存储介质
CN111062475A (zh) 用于对神经网络的参数进行量化的方法和装置
KR102655950B1 (ko) 뉴럴 네트워크의 고속 처리 방법 및 그 방법을 이용한 장치
KR102570070B1 (ko) 일반화된 사용자 모델을 이용한 사용자 인증 방법 및 장치
CN114270349A (zh) 用于加固机器学习模型的学习输入预处理
KR20200076461A (ko) 중첩된 비트 표현 기반의 뉴럴 네트워크 처리 방법 및 장치
KR102261833B1 (ko) 인증 방법 및 장치, 및 인식기 학습 방법 및 장치
KR20200110064A (ko) 변환 모델을 이용한 인증 방법 및 장치
KR20200114233A (ko) 사용자 이용 패턴을 신경망 알고리즘으로 분석하여 다음 어플리케이션을 예측하는 모바일 디바이스 메모리 관리 장치 및 방법
KR20200052417A (ko) 타겟 디바이스의 추론 모듈 선택 장치 및 방법
US10108513B2 (en) Transferring failure samples using conditional models for machine condition monitoring
KR20230108075A (ko) 객체 인식 방법 및 장치
CN110765843A (zh) 人脸验证方法、装置、计算机设备及存储介质
KR20170057118A (ko) 오브젝트 인식 방법 및 장치, 인식 모델 학습 방법 및 장치
KR20220065209A (ko) 다양한 품질의 영상을 인식하는 방법 및 장치
KR20220008035A (ko) 위조 지문 검출 방법 및 장치
KR20230116583A (ko) 뉴럴 네트워크 제어 방법 및 장치
US20230325651A1 (en) Information processing apparatus for improving robustness of deep neural network by using adversarial training and formal method
KR102507189B1 (ko) 멜트다운 취약점을 이용한 인공신경망 추출 방법
KR20210156538A (ko) 뉴럴 네트워크를 이용한 데이터 처리 방법 및 데이터 처리 장치
EP4318318A1 (en) Information processing device for improving quality of generator of generative adversarial network (gan)
KR102507855B1 (ko) 고속 연산이 가능한 딥러닝 신경망 장치