KR102219904B1 - 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법 - Google Patents

딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법 Download PDF

Info

Publication number
KR102219904B1
KR102219904B1 KR1020180161012A KR20180161012A KR102219904B1 KR 102219904 B1 KR102219904 B1 KR 102219904B1 KR 1020180161012 A KR1020180161012 A KR 1020180161012A KR 20180161012 A KR20180161012 A KR 20180161012A KR 102219904 B1 KR102219904 B1 KR 102219904B1
Authority
KR
South Korea
Prior art keywords
class
neural network
deep learning
network structure
operator
Prior art date
Application number
KR1020180161012A
Other languages
English (en)
Other versions
KR20200072910A (ko
Inventor
김인중
박천명
윤성결
최은서
Original Assignee
한동대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한동대학교 산학협력단 filed Critical 한동대학교 산학협력단
Priority to KR1020180161012A priority Critical patent/KR102219904B1/ko
Publication of KR20200072910A publication Critical patent/KR20200072910A/ko
Application granted granted Critical
Publication of KR102219904B1 publication Critical patent/KR102219904B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법에 관한 것이다.
본 발명은 딥러닝 연산 요소에 해당하는 연산자, 손실함수, 최적화모듈 중 적어도 하나를 선택하는 단계와, 딥러닝 프레임워크에서 제공하는 선택된 요소를 추상화하는 클래스를 상속받아 새로운 클래스의 연산부를 구현하는 단계와, 상기 새로운 클래스를 기존의 뉴럴 네트워크 구조에 추가하는 단계를 포함한다.

Description

딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법{Method for extending neural network structure using the deep learning framework}
본 발명은 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법에 관한 것이다.
딥러닝은 최근 활발한 연구가 이루어지고 있을 뿐 아니라 산업계에서도 많은 주목을 받고 있다. 딥러닝은 복잡하고 어려운 문제들을 해결하면서 아주 정교하고 세밀한 작업들을 수행할 수 있게 해준다. 그러나 점점 더 복잡해지고 있는 딥러닝 솔루션을 쉽게 구축할 수 있도록 딥러닝 프레임워크가 다양해지고 있으며 프레임워크마다 고유의 기능과 목적이 있어 개발자가 원하는 목적에 따라 선택해서 사용 가능하다.
종래의 딥러닝 프레임워크들은 파이썬 환경을 중심으로 설계되어 응용시스템 개발이 편리하다는 장점이 있으나, 사용자가 프레임워크 자체를 수정 및 확장하거나 모바일 등 다양한 환경에 이식하기 쉽지 않다는 문제점이 있다.
선행기술로는 공개특허 제10-2016-0063965호(뉴럴 네트워크 구조 확장 방법, 디맨션 리덕션 방법, 및 그 방법을 이용한 장치)가 있으며, 선택된 노드의 연결가중치들에 기초하여 새로운 노드의 연결 가중치들을 설정하여 새로운 노드를 뉴럴네트워크에 연결하여 확장하는 방법을 개시하고 있을 뿐이다.
본 발명이 해결하고자 하는 과제는 새로운 딥러닝 알고리즘을 고안하였을 때 연산부만을 구현하여 기존의 뉴럴 네트워크 구조에 적용이 가능한 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법를 제공할 수 있다.
본 발명의 실시예에 따른 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법은, 딥러닝 연산 요소에 해당하는 연산자, 손실함수, 최적화모듈 중 적어도 하나를 선택하는 단계와, 딥러닝 프레임워크에서 제공하는 선택된 요소를 추상화하는 클래스를 상속받아 새로운 클래스의 연산부를 구현하는 단계와, 상기 새로운 클래스를 기존의 뉴럴 네트워크 구조에 추가하는 단계를 포함한다.
본 발명에 의하면 사용자에게 뉴럴네트워크의 구성 요소에 대한 다양한 알고리즘 적용 및 확장이 가능한 클래스 구조를 지원할 수 있다.
도 1은 본 발명의 실시예에 따른 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법을 설명하는 순서도이다.
도 2는 본 발명의 실시예에 따른 새로운 클래스의 연산부를 구현하는 방법을 설명하는 순서도이다.
도 3은 본 발명의 실시예에 따른 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법을 적용한 뉴럴 네트워크 구조를 설명하기 위한 구성도이다.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.
본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에서 상세하게 설명하고자 한다. 그러나 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 본 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 본 명세서에 첨부된 도면들을 참조하여 본 발명의 실시 예들을 상세히 설명한다.
도 1은 본 발명의 실시예에 따른 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법을 설명하는 순서도이다.
도 1을 참조하면, 컴퓨터 시스템에 의해 수행되는 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법은 먼저 딥러닝 연산 요소에 해당하는 연산자, 손실함수, 최적화모듈 중 적어도 하나를 선택한다(S101). 본 발명에서 활용한 딥러닝 프레임워크는 데이터를 표현하기 위한 텐서 및 쉐이프 클래스, 신경망 연산 지원을 위한 오퍼레이터 클래스, 모듈 클래스, 학습을 위한 손실함수 클래스, 신경망 모델을 표현하기 위한 뉴럴 네트워크 클래스를 포함한다.
상기 텐서 및 쉐이프(Tensor & Shape) 클래스는 최대 5차원의 Tensor Data를 저장, 관리하며 모든 신경망 연산은 Tensor에 대해 수행할 수 있다. Tensor의 내부에는 모든 데이터를 1차원 배열의 형태로 저장하지만, shape 클래스를 이용하여 외부로는 최대 5차원까지의 인터페이스를 제공할 수 있다.
상기 오퍼레이터(Operator) 클래스는 순전파와 역전파를 수행하는 저수준 연산을 포함하며, 각 연산의 결과 값을 각 객체의 멤버 변수로 저장할 수 있다. 저장된 결과는 연결된 다른 Operator나 Loss Function의 피연산자로 사용할 수 있다. 또한, 사용자는 Operator 클래스를 상속받아 새로운 연산자를 정의할 수 있다.
상기 모듈(Module) 클래스는 복잡한 신경망 모델을 Operator 클래스만을 이용하여 구현하는 것이 불편하여 만들어진 고수준 연산 클래스이다. 복수의 Operator들을 그래프 구조로 조합하여 정의하며, Operator와 다른 Module와 재귀적 구조로 구성이 가능하다.
상기 손실함수(Loss Function) 클래스는 손실 함수를 표현하고, 최적화(Optimizer ) 클래스는 경사도 벡터를 이용하여 파라미터를 최적화 하는 알고리즘을 표현할 수 있다. 사용자가 직접 새로운 알고리즘을 정의할 수 있다.
상기 뉴럴 네트워크(Neural Network) 클래스는 신경망 모델을 표현하기 위한 클래스로 Operator와 Module를 조합하여 신경망 모델을 구성하고 모델 학습의 전반적인 기능을 제공할 수 있다. 구체적으로 사용자는 뉴럴 네트워크 클래스를 이용해 오퍼레이터 클래스와 레이어로 구성된 그래프 형태의 신경망 모델을 정의할 수 있다. 뉴럴네트워크 클래스는 너비 우선 탐색(breadth-first search)을 통해 순전파 및 역전파 연산 순서를 자동으로 결정할 수 있다. 또한, 연산을 진행하는 연산자와 파라미터를 관리할 수 있다. 옵티마이저에게 파라미터들을 리스트형태로 전달할 수 있고, 학습을 진행하는 동안 중간 결과들을 조회, 수정, 초기화가 가능하다. 나아가, 호스트 메모리와 GPU 메모리 간 데이터 동기화를 비롯하여 신경망의 연산이 GPU에서 동작하기 하는 기능을 자동으로 수행할 수 있다. 마지막으로, 뉴럴 네트워크 클래스는 모델의 학습 및 검증 작업을 위해 학습 및 테스트 함수를 제공할 수 있다. 학습 함수는 순전파 및 역전파 연산, 파라미터 최적화를 포함하고, 테스트 함수는 순전파 연산만을 수행하며, 모델을 검증, 평가하거나 실제 문제에 적용하는데 사용될 수 있다.
본 발명의 딥러닝 프레임워크는 사용자가 새로운 알고리즘을 적용하기 용이하도록 코드와 API의 일관성을 확보하여 사용자가 쉽게 자신만의 연산자와 신경망계층을 쉽게 구현이 가능하다 또한 고성능 계싼을 위해 GPU를 이용하여 많은 계산을 빠르게 수행할 수 있도록 설계하였다. GPU연산은 cuDNN을 이용하여 구현할 수 있고, 호스트 메모리와 GPU 메모리 간 동기화를 자동으로 수행하여 사용자의 편의를 증진시켰다.
이후에, 딥러닝 프레임워크에서 제공하는 선택된 요소를 추상화하는 클래스를 상속받아 새로운 클래스의 연산부를 구현한다(S103). 이후에 새로운 클래스를 기존의 뉴럴 네트워크 구조에 추가한다(S105).
즉, 본 발명은 새로운 클래스의 연산부만을 구현하여 보다 간편하게 사용자에게 뉴럴네트워크의 구성 요소에 대한 다양한 알고리즘 적용 및 확장이 가능한 클래스 구조를 지원할 수 있다.
도 2는 본 발명의 실시예에 따른 새로운 클래스의 연산부를 구현하는 방법을 설명하는 순서도이다.
도 2를 참조하면, 새로운 클래스의 연산부를 구현하는 단계는, 외부에서 입력값으로 받은 요소를 정하여 생성자를 정의한다(S201).
이후에 생성된 상기 생성자에서 받은 입력값의 요소 중 입력 데이터를 상속하고 있는 선택된 연산 요소를 추상화하는 클래스의 데이터 필드에 저장한다(S203)
상기 생성자에서 받은 입력값, 추가 파라미터의 정보를 사용하여 추출한 출력값 및 기울기의 벡터를 선택된 요소를 추상화하는 클래스의 데이터 필드에 저장한다(S205)
상기 선택된 연산 요소를 추상화하는 클래스에서 구현되지 않는 순전파 및 역전파 연산을 구현한다(S207). 이때, 순전파 및 역전파는 선택된 연산 요소를 추상화하는 클래스의 데이터필드에 저장된 입력값, 출력값, 기울기벡터 중 적어도 하나에 기초하여 구현할 수 있다.
도 3은 본 발명의 실시예에 따른 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법을 적용한 뉴럴 네트워크 구조를 설명하기 위한 구성도이다.
도 3을 참조하면, 본 발명의 실시예에 따른 뉴럴 네트워크 구조는 입력(301)과 출력(321)이 존재하는 딥러닝 연산 요소들로 이루어진 뉴럴 네트워크 구조를 구현할 수 있도록 설계되어 있다. 뉴럴 네트워크 구조는 입력과 출력에 따라 각 요소들이 연결 리스트의 형태로 연결되어 있으며, 각 요소들간에 필요한 정보를 공유한다.
제1요소(303, 317)는 종래의 딥러닝 요소(CPU)로 정의되고, 제2요소(305, 307, 311)는 종래의 딥러닝 연산 요소(GPU)로 정의되고, 제3요소(309, 315)는 새롭게 구현한 딥러닝 요소(CPU)로 정의되고, 제4요소(313)는 새로운 연산이 적용된 딥러닝 요소(GPU)로 정의될 수 있다.
제1요소(303)과 제2요소(305)는 각각 입력과 그 입력을 사용하는 연산 요소라는 관계를 지니며, 연산 요소에 해당하는 제4요소(313)은 제3요소(309)의 결과값과 기울기 벡터 공간을 사용해서 연산을 진행하거나 연산 결과를 저장한다.
뉴럴 네트워크 구조의 경우는 순전파 연산과 역전파 연산을 위해 요소를 순서대로 실행한다. 이 때 연산 장치는 그 우선순위에 따라 CPU 연산과 GPU 연산 중 하나를 자동 선택하여 실행한다. 예컨대, 제3요소(309)의 경우 CPU 연산만 구현되어 있고, 제4요소(313)의 경우는 GPU 연산만 구현되어 있다고 했을 때, 제3요소(309)의 경우는 자동으로 CPU 연산이 실행되고, 제4요소(313)의 경우는 자동으로 GPU 연산이 실행될 수 있다.
제4요소(313)가 CPU연산과 GPU 연산 모두를 지원할 경우는 장치가 실행되는 환경에 따라 우선순위가 높은 연산을 취사 선택한다.
발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.
없음

Claims (4)

  1. 컴퓨터 시스템에 의해 수행되는 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법은,
    딥러닝 연산 요소에 해당하는 연산자, 손실함수, 최적화모듈 중 적어도 하나를 선택하는 단계;
    딥러닝 프레임워크에서 제공하는 선택된 요소를 추상화하는 클래스를 상속받아 새로운 클래스의 연산부를 구현하는 단계; 및
    상기 새로운 클래스를 기존의 뉴럴 네트워크 구조에 추가하는 단계를 포함하고,
    상기 딥러닝 프레임워크는 데이터를 표현하기 위한 텐서 및 쉐이프 클래스, 신경망 연산 지원을 위한 오퍼레이터 클래스, 모듈 클래스, 학습을 위한 손실함수 클래스, 신경망 모델을 표현하기 위한 뉴럴 네트워크 클래스를 포함하되,
    상기 오퍼레이터 클래스는 순전파와 역전파를 수행하는 저수준 연산을 포함하되, 각 연산의 결과 값을 각 객체의 멤버 변수로 저장하고, 저장된 결과는 연결된 다른 오퍼레이터나 손실함수의 피연산자로 사용하되, 오퍼레이터 클래스를 상속받아 새로운 연산자를 정의하고,
    상기 뉴럴 네트워크 클래스는 너비 우선 탐색(breadth-first search)을 통해 순전파 및 역전파 연산 순서를 자동으로 결정하고, 연산을 진행하는 연산자와 파라미터를 관리하는 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법.
  2. 제1항에 있어서,
    상기 새로운 클래스의 연산부를 구현하는 단계는,
    외부에서 입력값으로 받은 요소를 정하여 생성자를 정의하는 단계; 및
    생성된 상기 생성자에서 받은 입력값의 요소 중 입력 데이터를 상속하고 있는 선택된 연산 요소를 추상화하는 클래스의 데이터 필드에 저장하는 단계를 포함하는 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법.
  3. 제2항에 있어서,
    상기 생성자에서 받은 입력값, 추가 파라미터의 정보를 사용하여 추출한 출력값 및 기울기의 벡터를 선택된 요소를 추상화하는 클래스의 데이터 필드에 저장하는 단계; 및
    상기 선택된 연산 요소를 추상화하는 클래스에서 구현되지 않는 순전파 및 역전파 연산을 구현하는 단계를 더 포함하는 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법.
  4. 제3항에 있어서,
    상기 순전파 및 역전파 연산을 구현하는 단계는,
    상기 선택된 연산 요소를 추상화하는 클래스의 데이터필드에 저장된 입력값, 출력값, 기울기벡터 중 적어도 하나에 기초하여 구현하는 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법.
KR1020180161012A 2018-12-13 2018-12-13 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법 KR102219904B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180161012A KR102219904B1 (ko) 2018-12-13 2018-12-13 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180161012A KR102219904B1 (ko) 2018-12-13 2018-12-13 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법

Publications (2)

Publication Number Publication Date
KR20200072910A KR20200072910A (ko) 2020-06-23
KR102219904B1 true KR102219904B1 (ko) 2021-02-24

Family

ID=71137897

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180161012A KR102219904B1 (ko) 2018-12-13 2018-12-13 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법

Country Status (1)

Country Link
KR (1) KR102219904B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023121263A1 (ko) * 2021-12-22 2023-06-29 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017073000A1 (ja) * 2015-10-29 2017-05-04 株式会社Preferred Networks 情報処理装置及び情報処理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0738186B2 (ja) * 1989-03-13 1995-04-26 シャープ株式会社 自己拡張形ニユーラル・ネットワーク
JPH0822446A (ja) * 1994-07-11 1996-01-23 Matsushita Electric Ind Co Ltd ニューラルネットワーク回路

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017073000A1 (ja) * 2015-10-29 2017-05-04 株式会社Preferred Networks 情報処理装置及び情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"An Adaptive Structure Neural Networks with application to EEG Automatic Seizure Detection", NEURAL NETWORKS vol.9 no.7(pp. 1223-1240), October 1996

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023121263A1 (ko) * 2021-12-22 2023-06-29 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법

Also Published As

Publication number Publication date
KR20200072910A (ko) 2020-06-23

Similar Documents

Publication Publication Date Title
US10713582B2 (en) Methods and systems for quantum computing
JP7308003B2 (ja) 非集中的な分散型深層学習
CN110058922B (zh) 一种提取机器学习任务的元数据的方法、装置
US10949337B1 (en) Utilizing neural network and artificial intelligence models to select and execute test cases in a software development platform
US11620564B2 (en) CSP-based quantum circuit modeling
US20140282180A1 (en) Reference nodes in a computational graph
CN108292374A (zh) 训练表示为计算图的神经网络
US11175895B2 (en) Code generation and simulation for graphical programming
CN108710949A (zh) 用于创建机器学习建模模板的方法及系统
US20170315803A1 (en) Method and apparatus for generating a refactored code
CN111160551A (zh) 计算图执行方法、计算机设备及存储介质
WO2022048557A1 (zh) Ai模型的训练方法、装置、计算设备和存储介质
TW201308210A (zh) 高度平行式處理作業的登錄和執行
KR20200037602A (ko) 인공 신경망 선택 장치 및 방법
US20220114429A1 (en) Method and device for generating operation data and related product
US20200122039A1 (en) Method and system for a behavior generator using deep learning and an auto planner
CN112328301B (zh) 维护运行环境一致性的方法、装置、存储介质及电子设备
KR20200080819A (ko) 인공 신경망의 상용화 서비스 제공 방법
US20200257982A1 (en) Categorical feature encoding for property graphs by vertex proximity
US20220058490A1 (en) Method of constructing network model for deep learning, device, and storage medium
McClenny et al. TensorDiffEq: scalable multi-GPU forward and inverse solvers for physics informed neural networks
CN112070202B (zh) 一种融合图的生成方法、生成装置和计算机可读存储介质
CN111966361A (zh) 用于确定待部署模型的方法、装置、设备及其存储介质
CN115756478A (zh) 计算图的算子自动融合方法及相关产品
KR102219904B1 (ko) 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant