KR20200037602A - 인공 신경망 선택 장치 및 방법 - Google Patents
인공 신경망 선택 장치 및 방법 Download PDFInfo
- Publication number
- KR20200037602A KR20200037602A KR1020180117029A KR20180117029A KR20200037602A KR 20200037602 A KR20200037602 A KR 20200037602A KR 1020180117029 A KR1020180117029 A KR 1020180117029A KR 20180117029 A KR20180117029 A KR 20180117029A KR 20200037602 A KR20200037602 A KR 20200037602A
- Authority
- KR
- South Korea
- Prior art keywords
- neural network
- artificial neural
- library
- selecting
- information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Machine Translation (AREA)
Abstract
본 발명의 실시예에 따른 인공 신경망 선택 장치에 의해 수행되는 인공 신경망 선택 방법은, 단말의 하드웨어 자원에 대한 정보를 수집하는 단계, 하드웨어 자원에 대한 정보에 기초하여 인공 신경망 모델을 선택하는 단계, 하드웨어 자원에 대한 정보에 기초하여 인공 신경망 모델에 적용하기 위한 라이브러리를 선택하는 단계, 및 선택된 인공 신경망 모델을 사용하여 단말에서 딥러닝을 수행시키되, 딥러닝을 위해 선택된 라이브러리를 호출하도록 하는 단계를 포함한다.
Description
본 발명은 인공 신경망 추론 프레임워크에 관한 것이다. 보다 상세하게는, 하드웨어 자원에 최적화된 인공 신경망을 사용할 수 있게 하는 인공 신경망 추론 프레임워크를 적용한 인공 신경망 선택 장치 및 방법에 관한 것이다.
딥러닝은 인간 뇌의 구조를 모사한 인공 신경망을 활용하여 높은 정확도로 데이터를 처리하는 것으로, 딥러닝은 빅 데이터를 이용해 인공 신경망의 뉴런 간 가중치를 정하는 학습 단계와 인공 신경망을 사용해 새로운 데이터를 처리 및 분석하는 추론 단계로 나뉜다. 학습 단계는 주로 빅 데이터가 저장된 데이터 센터에서 다수의 서버를 사용하여 실행되는 반면, 추론 단계는 애플리케이션의 종류에 따라 실행되는 위치가 결정된다.
딥러닝이 일반 사용자용 애플리케이션에 활용된다면, 추론 단계는 사용자의 단말에서 실행이 된다. 딥러닝 학습과 추론을 위한 다양한 인공 신경망 모델들이 개발되어 사용되고 있으며, 각기 서로 다른 계산량, 속도, 정확도 등의 특징을 갖는다.
하지만, 사용자의 단말은 데이터 센터와 같이 하드웨어 자원의 성능이 일정 수준 이상 보장될 수 없고, 하드웨어 자원의 성능이 단말 별로 천차만별이어서 모든 사용자의 단말에 특정 인공 신경망을 사용하여 딥러닝을 수행하는 데에 한계가 존재하는 문제점이 있었다.
더욱이, 기존의 인공 신경망 모델은 특정 제조사의 하드웨어 자원만을 지원하는 경우가 있으므로 다른 종류의 하드웨어 또는 다른 벤더의 하드웨어에 적용하기 어렵다는 문제점이 있었다.
관련하여, 선행기술문헌인 한국등록특허 제10-1845769호에서는 자동차의 특정 부위를 검출하기 위해 미리 결정된 알렉스넷(AlexNet)을 사용하여 입력 영상에서 특징을 추출하고 추출된 특징에서 자동차의 후면을 탐색하는 자동차 후면 시스템을 기재하고 있습니다.
따라서 상술된 문제점을 해결하기 위한 기술이 필요하게 되었다.
한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 명세서에서 개시되는 실시예들은 사용자 단말에 최적화된 인공 신경망을 사용하여 추론을 수행하도록 하는 인공 신경망 추론 프레임워크가 적용된 인공 신경망 선택 장치 및 방법을 제시하는데 목적이 있다.
본 명세서에서 개시되는 실시예들은 다양한 종류의 하드웨어에서 하드웨어의 제약없이 추론이 가능한 인공 신경망 추론 프레임워크가 적용된 인공 신경망 선택 장치 및 방법을 제시하는데 목적이 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시예에 따르면, 인공 신경망 선택 장치는, 단말의 하드웨어 자원에 대한 정보에 기초하여 딥러닝을 위한 인공 신경망과 라이브러리를 선택하여 상기 단말에 대해 딥러닝을 수행하도록 제어하는 제어부, 및 상기 인공 신경망과 상기 라이브러리에 대한 정보를 저장하는 저장부를 포함하고, 상기 제어부는, 상기 단말의 하드웨어 자원에 대한 정보를 수집하는 하드웨어 자원 정보 수집부, 상기 하드웨어 자원에 대한 정보에 기초하여 인공 신경망 모델을 선택하는 인공 신경망 모델 선택부, 상기 하드웨어 자원에 대한 정보에 기초하여 상기 인공 신경망 모델에 적용하기 위한 라이브러리를 선택하는 라이브러리 선택부, 및 선택된 인공 신경망 모델을 사용하여 상기 단말에서 딥러닝을 수행시키되, 딥러닝을 위해 선택된 라이브러리를 호출하도록 하는 딥러닝부를 포함한다.
다른 실시예에 따르면, 인공 신경망 선택 장치에 의해 수행되는 인공 신경망 선택 방법은, 단말의 하드웨어 자원에 대한 정보를 수집하는 단계, 상기 하드웨어 자원에 대한 정보에 기초하여 인공 신경망 모델을 선택하는 단계, 상기 하드웨어 자원에 대한 정보에 기초하여 상기 인공 신경망 모델에 적용하기 위한 라이브러리를 선택하는 단계, 및 선택된 인공 신경망 모델을 사용하여 상기 단말에서 딥러닝을 수행시키되, 딥러닝을 위해 선택된 라이브러리를 호출하도록 하는 단계를 포함한다.
또 다른 실시예에 따르면, 인공 신경망 선택 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체로서, 인공 신경망 선택 장치에 의해 수행되는 인공 신경망 선택 방법은, 단말의 하드웨어 자원에 대한 정보를 수집하는 단계, 상기 하드웨어 자원에 대한 정보에 기초하여 인공 신경망 모델을 선택하는 단계, 상기 하드웨어 자원에 대한 정보에 기초하여 상기 인공 신경망 모델에 적용하기 위한 라이브러리를 선택하는 단계, 및 선택된 인공 신경망 모델을 사용하여 상기 단말에서 딥러닝을 수행시키되, 딥러닝을 위해 선택된 라이브러리를 호출하도록 하는 단계를 포함한다.
또 다른 실시예에 따르면, 인공 신경망 선택 장치에 의해 수행되며, 인공 신경망 선택 장치에 기재된 방법을 수행하기 위해 매체에 저장된 프로그램으로서, 단말의 하드웨어 자원에 대한 정보를 수집하는 단계, 상기 하드웨어 자원에 대한 정보에 기초하여 인공 신경망 모델을 선택하는 단계, 상기 하드웨어 자원에 대한 정보에 기초하여 상기 인공 신경망 모델에 적용하기 위한 라이브러리를 선택하는 단계, 및 선택된 인공 신경망 모델을 사용하여 상기 단말에서 딥러닝을 수행시키되, 딥러닝을 위해 선택된 라이브러리를 호출하도록 하는 단계를 포함한다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 사용자 단말에 최적화된 인공 신경망을 사용하여 추론을 수행하도록 하는 인공 신경망 추론 프레임워크가 적용된 인공 신경망 선택 장치 및 방법을 제시할 수 있다.
또한, 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 다양한 종류의 하드웨어에서 하드웨어의 제약없이 추론이 가능한 인공 신경망 추론 프레임워크가 적용된 인공 신경망 선택 장치 및 방법을 제시할 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시예에 따른 인공 신경망 추론 프레임워크를 적용한 인공 신경망 선택 장치를 도시한 블록도이다.
도 2는 일 실시예에 따른 인공 신경망 추론 프레임워크를 도시한 블록도이다.
도 3은 일 실시예에 따른 라이브러리가 저장된 저장부를 도시한 도면이다.
도 4는 일 실시예에 따른 인공 신경망과 라이브러리를 선택하는 동작을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 인공 신경망 추론 프레임워크가 적용된 인공 신경망 선택 동작을 도시한 순서도이다.
도 2는 일 실시예에 따른 인공 신경망 추론 프레임워크를 도시한 블록도이다.
도 3은 일 실시예에 따른 라이브러리가 저장된 저장부를 도시한 도면이다.
도 4는 일 실시예에 따른 인공 신경망과 라이브러리를 선택하는 동작을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 인공 신경망 추론 프레임워크가 적용된 인공 신경망 선택 동작을 도시한 순서도이다.
아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고, 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐 아니라, '그 중간에 다른 구성을 사이에 두고 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.
이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.
도 1은 일 실시예에 따른 인공 신경망 추론 프레임워크를 적용한 인공 신경망 선택 장치를 도시한 블록도이다.
도 1을 참조하면, 인공 신경망 선택 장치(100)는 네트워크를 통해 원격지의 서버에 접속하거나, 다른 전자 장치 또는 서버와 연결 가능한 전자 장치로 구현되거나 서버로 구현될 수 있다.
이때, 전자 장치는 컴퓨터나 휴대용 단말기, 텔레비전, 웨어러블 디바이스(Wearable Device) 등으로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop)등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant),GSM(Global System for Mobile communications), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet), 스마트폰(Smart Phone), 모바일WiMAX(Mobile Worldwide Interoperability for Microwave Access) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, 텔레비전은 IPTV(Internet Protocol Television), 인터넷 TV(Internet Television), 지상파 TV, 케이블 TV 등을 포함할 수 있다. 나아가 웨어러블 디바이스는 예를 들어, 시계, 안경, 액세서리, 의복, 신발 등 인체에 직접 착용 가능한 타입의 정보처리장치로서, 직접 또는 다른 정보처리장치를 통해 네트워크를 경유하여 원격지의 서버에 접속하거나 타 단말과 연결될 수 있다.
인공 신경망 선택 장치(100)는 입출력부(110), 통신부(120), 저장부(130) 및 제어부(140)를 포함할 수 있다.
입출력부(110)는 사용자로부터 입력을 수신하기 위한 입력부와, 작업의 수행 결과 또는 인공 신경망 선택 장치(100)의 상태 등의 정보를 표시하기 위한 출력부를 포함할 수 있다. 예를 들어, 입출력부(110)는 사용자 입력을 수신하는 조작 패널 및 화면을 표시하는 디스플레이 패널 등을 포함할 수 있다.
구체적으로, 입력부는 키보드, 물리 버튼, 터치 스크린, 카메라 또는 마이크 등과 같이 다양한 형태의 사용자 입력을 수신할 수 있는 장치들을 포함할 수 있다. 또한, 출력부는 디스플레이 패널 또는 스피커 등을 포함할 수 있다. 다만, 이에 한정되지 않고 입출력부(110)는 다양한 입출력을 지원하는 구성을 포함할 수 있다.
통신부(120)는 다른 디바이스 또는 네트워크와 유무선 통신을 수행할 수 있다. 이를 위해, 통신부(120)는 다양한 유무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들어, 통신 모듈은 칩셋(chipset)의 형태로 구현될 수 있다.
통신부(120)가 지원하는 무선 통신은, 예를 들어 Wi-Fi(Wireless Fidelity), Wi-Fi Direct, 블루투스(Bluetooth), UWB(Ultra Wide Band) 또는 NFC(Near Field Communication) 등일 수 있다. 또한, 통신부(120)가 지원하는 유선 통신은, 예를 들어 USB 또는 HDMI(High Definition Multimedia Interface) 등일 수 있다. 상술된 통신은 예시일 뿐이며, 인공 신경망 선택 장치(100)가 통신을 수행할 수 있도록 하는 각종 통신 기법이 가능하다.
저장부(130)는 파일, 애플리케이션, 및 프로그램 등과 같은 다양한 종류의 데이터가 설치 및 저장될 수 있다. 저장부(130)에 저장된 데이터는 후술될 제어부(140)에 의해 액세스되어 이용되거나, 또는 제어부(140)에 의해 새로운 데이터가 저장될 수 있다. 또한 저장부(130)는 제어부(140)에 의해 실행될 수 있는 프로그램을 저장할 수 있다. 일 실시예에 따르면, 저장부(130)에는 복수의 인공 신경망 또는 인공 신경망의 딥러닝을 위한 복수의 라이브러리가 저장될 수 있으며, 인공 신경망 추론 프레임워크의 적용 또는 구현을 위한 프로그램이 저장될 수 있다. 또한, 저장부(130)에는 단말의 하드웨어 자원에 대한 정보에 기초하여 가장 높은 정확도를 제공할 수 있는 인공 신경망과 라이브러리를 선택하고, 선택된 인공 신경망을 사용하여 단말에서 딥러닝을 수행하도록 하는 프로그램이 저장될 수 있다.
한편, 제어부(140)는 인공 신경망 선택 장치(100)의 전체적인 동작을 제어하며, CPU 등과 같은 프로세서를 포함할 수 있다. 제어부(140)는 입출력부(110)를 통해 수신한 유저 입력에 대응되는 동작을 수행하도록 인공 신경망 선택 장치(100)에 포함된 다른 구성들을 제어할 수 있다.
본 실시예에 따르면, 제어부(140)는 인공 신경망 추론 프레임워크(141)를 포함할 수 있다. 제어부(140)는 인공 신경망 추론 프레임워크(141)를 사용하여 하드웨어 자원에 최적화된 신경망과 라이브러리를 선택할 수 있다.
이를 상세히 살펴보면, 제어부(140)는 하드웨어 자원에 대한 정보를 수집할 수 있다. 예를 들어, 하드웨어 자원은 딥러닝을 수행할 장치, 즉 단말에 대한 하드웨어 자원의 정보를 수집할 수 있다.
제어부(140)는 수집된 하드웨어 자원에 대한 정보에 기초하여 딥러닝을 수행할 인공 신경망과 딥러닝을 수행시키기 위한 라이브러리를 선택할 수 있다. 이후, 제어부(140)는 딥러닝의 수행을 위해 선택된 라이브러리를 호출하고, 선택된 인공 신경망을 호출된 라이브러리를 사용하여 해당 하드웨어 자원, 즉 단말에서 딥러닝을 수행하도록 할 수 있다.
한편, 인공 신경망 선택 장치(100)는 하드웨어 자원에 대한 정보를 수집하기 위해 하나 이상의 단말과 연결되거나 통신할 수 있다.
하기에서는 도 2를 참조하여, 인공 신경망 추론 프레임워크(141)의 구조를 상세히 설명하기로 한다.
도 2는 일 실시예에 따른 인공 신경망 추론 프레임워크를 도시한 블록도이다.
도 2를 참조하면, 인공 신경망 추론 프레임워크(141)는 하드웨어 자원 정보 수집부(210), 인공 신경망 선택부(220), 라이브러리 선택부(230), 및 딥러닝부(240)를 포함할 수 있다.
하드웨어 자원 정보 수집부(210)는 하드웨어 자원에 대한 정보를 수집할 수 있다. 하드웨어 자원 정보 수집부(210)는 인공 신경망, 즉 인공 신경망을 이용하여 딥러닝을 수행할 장치, 즉 단말(예를 들어, 휴대 단말(스마트폰, 태블릿 등), 노트북, 데스크탑 PC, 서버 등)에 대한 하드웨어 자원의 정보를 수집할 수 있다. 예를 들어, 하드웨어 자원은 프로세서(예를 들어, 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU) 디지털 신호 처리기(DSP), 필드 프로그래머블 게이트 어레이(FPGA), 및 메모리 등과 같이 단말을 구성하는 하드웨어 부품 또는 소자를 의미할 수 있다.
하드웨어 자원 정보 수집부(210)는 하드웨어 자원 각각에 대한 모델명, 제조사, 스펙(spec), 및 특이 사항에 대한 정보를 수집할 수 있다. 여기서, 특이 사항은 예를 들어, 해당 하드웨어에서 사용이 허용되거나 불가능한 소프트웨어 또는 라이브러리에 대한 정보 등을 포함할 수 있다.
인공 신경망 선택부(220)는 하드웨어 자원에 대한 정보를 사용하여 하드웨어 자원의 연산 성능과 메모리 용량을 확인할 수 있다. 이를 통해, 인공 신경망 선택부(220)는 복수의 인공 신경망 모델 중에서 하나의 신경망을 선택할 수 있다. 예를 들어, 복수의 인공 신경망 모델은 알렉스넷(AlexNet), 구글넷(GoogleNet), 브이지지넷(VGGNet) 및 레스넷(ResNet) 등을 포함할 수 있다. 이와 같은 복수의 인공 신경망 모델 각각은 딥러닝 시에 서로 다른 정확도, 측정 수행 시간, 메모리 사용량을 갖는다.
따라서, 인공 신경망 선택부(220)는 복수의 인공 신경망 모델의 성능 비교를 통해 하드웨어 자원에서 최적의 성능을 갖는 인공 신경망을 선택할 수 있다. 인공 신경망 선택부(220)는 복수의 인공 신경망 각각에 대해 딥러닝 시 필요로 하는 하드웨어 자원에 대한 점유율 또는 사용률을 예측하고, 예측된 정보를 사용하여 인공 신경망을 선택할 수도 있다. 또한, 인공 신경망 선택부(220)는 딥러닝에 따른 결과값에 대한 정확도가 높은 인공 신경망을 선택할 수도 있다.
라이브러리 선택부(230)는 하드웨어 자원에 대한 정보를 사용하여 딥러닝 시 필요한 라이브러리를 선택할 수 있다. 여기서, 라이브러리는 딥러닝 과정에 필요한 모든 연산을 함수로 구현한 데이터의 집합이며, 딥러닝 시 호출되어 사용되는 데이터이다.
라이브러리 선택부(230)는 복수의 라이브러리 중에서 선택된 인공 신경망의 딥러닝에 필요한 라이브러리를 결정할 수 있다. 만약, 라이브러리 선택부(230)는 복수의 라이브러리 중에서 해당 하드웨어 자원에 적합한 라이브러리를 결정하지 못한 경우, 공통 라이브러리를 선택할 수 있다. 여기서, 공통 라이브러리는 범용 라이브러리로서 다양한 하드웨어 자원에서 사용될 수 있다. 예를 들어, 공토 라이브러리는 개방형 컴퓨팅 언어(OpenCL)를 사용하여 작성되며, 이종 시스템을 대상으로 하는 병렬 프로그래밍을 위한 국제 표준으로, 다양한 하드웨어에서 사용될 수 있다.
라이브러리 선택부(230)는 적절한 라이브러리를 선택하지 못하는 경우, 공통 라이브러리를 선택할 수 있다.
딥러닝부(240)는 하드웨어 자원, 즉 단말에서 선택된 인공 신경망을 사용하여 딥러닝을 수행할 수 있도록 한다. 이때, 딥러닝부(240)는 딥러닝을 위해 선택된 라이브러리를 호출할 수 있다. 딥러닝부(240)는 다양한 추론 수행에 필요한 연산을 최적의 라이브러리와 인공 신경망을 사용하여 수행할 수 있다.
이를 통해, 인공 신경망 추론 프레임워크(141)는 다양한 종류의 단말을 하나의 프레임워크를 사용하여 인공 신경망 추론을 지원할 수 있으며, 특정 하드웨어에 특화되지 않아 하드웨어에 따른 제약을 받지 않고 일반 사용자용 애플리케이션에 쉽게 적용할 수 있다.
특히, 인공 신경망 추론 프레임워크(141)는 서버와 달리 하드웨어 자원의 제약(예를 들어, 연산 성능, 메모리 용량 등의 자원의 한계)이 존재하는 사용자 단말에서 딥러닝을 효율적으로 수행할 수 있게 한다.
인공 신경망 추론 프레임워크(141)는 하드웨어 자원에 대한 정보를 이용하기 때문에 프로세서나 FPGA와 같은 가속 부품에 최적화될 수 있다.
도 3은 일 실시예에 따른 라이브러리가 저장된 저장부를 도시한 도면이다.
도 3을 참조하면, 저장부(130)는 복수의 라이브러리(310, 320, 330)을 포함할 수 있다. 여기서, 공통 라이브러리(310)는 범용 라이브러리로서 인공 신경망 추론 프레임워크(141)에서 적합한 라이브러리를 선택하지 못하는 경우, 선택될 수 있다.
저장부(130)는 제 1 라이브러리(320) 내지 제 N 라이브러리(330)를 포함할 수 있다. 예를 들어, 제 1 라이브러리(320) 내지 제 N 라이브러리(330)는 씨유디엔엔(cuDNN)(예를 들어 쿠다 기반의 심층 신경망) 라이브러리, 딥스트립(DeepStrem) 라이브러리, 젯팩(JetPack) 라이브러리, 텐서알티(TensorRT) 라이브러리, 쿠다(CUDA) 라이브러리 등과 같이 다양한 라이브러리들 중 하나일 수 있다.
저장부(130)는 인공 신경망 프레임워크(141)에서 단말의 딥러닝을 위해 선택된 신경망의 구동을 위해 신경망과 함께 선택된 라이브러리를 해당 단말로 제공할 수 있다.
도 4는 일 실시예에 따른 인공 신경망과 라이브러리를 선택하는 동작을 설명하기 위한 도면이다.
도 4를 참조하면, 인공 신경망 선택 장치(100)는 하드웨어 자원에 대한 정보를 수집할 수 있다.
인공 신경망 선택 장치(100)는 단말에서 딥러닝을 위한 인공 신경망 선택을 위한 후보 인공 신경망으로, 예를 들어, 레스넷(ResNet)(411), 알렉스넷(AlexNet)(412), 구글넷(GoogleNet)(413), 및 지지넷(VGGNet)(414)을 사용할 수 있다. 또한, 인공 신경망 선택 장치(100)는 단말에서 딥러닝을 위한 라이브러리 선택을 위한 후보 라이브러리로, 예를 들어, 공통 라이브러리(421), 씨유디엔엔(cuDNN) 라이브러리(422), 젯팩(JetPack) 라이브러리(423) 및 텐서알티(TensorRT) 라이브러리(424)를 사용할 수 있다.
첫 번째로, 인공 신경망 선택 장치(100)는 제 1 단말에서 하드웨어 자원에 대한 정보로서, NVDIA Tesla P100 GPU(엔비디아 테슬라 P100 그래픽 처리 장치)에 대한 정보를 수집할 수 있다. 여기서, 제 1 단말의 NVDIA Tesla P100 GPU는 연산 능력이 높은 하드웨어 자원이다. 또한, 인공 신경망 선택 장치(100)는 제 1 단말에서 하드웨어 자원에 대한 정보로서, 메모리 용량(예를 들어, 16GB)을 추가로 확인할 수 있다.
예를 들어, 인공 신경망 선택 장치(100)는 연산 성능과 메모리 용량을 확인할 수 있으며, 연산 성능과 메모리 용량이 높아 후보 인공 신경망을 모두 적용 가능한 것으로 판단할 수 있다. 따라서, 인공 신경망 선택 장치(100)는 정확도가 가장 높은 신경망인 레스넷(ResNet)(411)을 선택(401)할 수 있다.
또한, 인공 신경망 선택 장치(100)는 제 1 단말에서 엔비디아(NVIDA)의 cuDNN 라이브러리(422)에 의해 지원되는 GPU를 사용하기 때문에 라이브러리를 cuDNN 라이브러리(422)를 선택(402)할 수 있다.
인공 신경망 선택 장치(100)는 제 1 단말에서 딥러닝 시 레스넷(ResNet)(411)을 사용하여 딥러닝을 수행할 수 있으며, 딥러닝을 위해 cuDNN 라이브러리(422)를 호출하도록 할 수 있다.
두 번째로, 인공 신경망 선택 장치(100)는 제 2 단말에서 하드웨어 자원에 대한 정보로서, 인텔 i7-6700 CPU(중앙 처리 장치)에 대한 정보를 수집할 수 있다. 여기서, 제 2 단말의 인텔 i7-6700 CPU는 연산 능력이 NVDIA Tesla P100 GPU에 비해 다소 낮은 하드웨어 자원이다. 또한, 인공 신경망 선택 장치(100)는 제 2 단말에서 하드웨어 자원에 대한 정보로서, 메모리 용량(예를 들어, 1GB)를 추가로 확인할 수 있다.
예를 들어, 인공 신경망 선택 장치(100)는 연산 성능과 메모리 용량을 확인할 수 있으며, 연산 성능과 메모리 용량이 제 1 기기보다 낮은 제 2 기기에서는 ResNet(411)나 VGCNet(414)를 사용하기에 부적합하다고 판단할 수 있다. 따라서, 인공 신경망 선택 장치(100)는 나머지 AlexNet(412)와 GoogleNet(413) 중에서 상대적으로 정확도가 높은 GoogleNet(413)을 선택(403)할 수 있다.
또한, 인공 신경망 선택 장치(100)는 멀티코어 CPU에 적합한 TensorRT(424)를 선택(404)할 수 있다.
인공 신경망 선택 장치(100)는 제 2 단말에서 딥러닝 시 GoogleNet(413)을 사용하여 딥러닝을 수행할 수 있으며, 딥러닝을 위해 TensorRT(424)를 호출하도록 할 수 있다.
도 5는 일 실시예에 따른 인공 신경망 추론 프레임워크가 적용된 인공 신경망 선택 동작을 도시한 순서도이다.
도 5를 참조하면, 인공 신경망 선택 장치(100)는 딥러닝을 수행할 단말로부터 하드웨어 자원에 대한 정보를 수집할 수 있다(S510). 인공 신경망 선택 장치(100)는 인공 신경망의 딥러닝을 위한 프로세서 또는 메모리와 같은 하드웨어 자원에 대한 정보를 수집할 수 있으며, 필요에 따라 단말을 구성하는 다양한 하드웨어 자원에 대한 정보를 수집할 수 있다. 이를 통해, 인공 신경망 선택 장치(100)는 하드웨어 자원으로부터 해당 단말의 연산 성능과 메모리 용량을 계산할 수 있다.
인공 신경망 선택 장치(100)는 하드웨어 자원에 대한 정보에 기초하여 인공 신경망 모델을 선택할 수 있다(S520). 인공 신경망 선택 장치(100)는 하드웨어 자원이 허용(예를 들어, 연산 성능과 메모리 용량)하는 범위 내에서 가장 높은 정밀도를 갖는 인공 신경망을 선택할 수 있다.
인공 신경망 선택 장치(100)는 선택된 인공 신경망의 딥러닝을 위한 라이브러리를 선택할 수 있다(S530). 인공 신경망 선택 장치(100)는 하드웨어 자원을 기준으로 최적의 성능, 즉 가장 높은 정밀도를 제공하는 라이브러리를 선택할 수 있다. 한편, 인공 신경망 선택 장치(100)는 선택된 인공 신경망의 딥러닝을 위한 적합한 라이브러리가 선택할 수 없는 경우, 공통 라이브러리를 선택할 수 있다.
인공 신경망 선택 장치(100)는 해당 단말에서 선택된 인공 신경망과 선택된 라이브러리를 이용하여 딥러닝을 수행할 수 있다. 이때, 인공 신경망 선택 장치(100)는 단말에서 선택된 인공 신경망을 사용하여 딥러닝 시 선택된 라이브러리를 호출하도록 할 수 있다.
본 실시예에 따른, 인공 신경망 선택 장치(100)는 인공 신경망을 이용하여 딥러닝 추론을 가능하게 하는 프레임워크를 이용하여, 딥러닝을 이용하거나 인공 신경망 애플리케이션을 개발하여 사용하는 모든 분야에 활용될 수 있다.
본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.
구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.
뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다.
또한 본 발명의 일실시예에 따르는 인공 신경망 선택 방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다.
따라서 본 발명의 일실시예에 따르는 인공 신경망 선택 방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.
여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다.
또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다.
그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 인공 신경망 선택 장치
110: 입출력부
120: 통신부 130: 저장부
140: 제어부 141: 인공 신경망 추론 프레임워크
210: 하드웨어 자원 정보 수집부 220: 인공 신경망 결정부
230: 라이브러리 선택부 240: 딥러닝부
120: 통신부 130: 저장부
140: 제어부 141: 인공 신경망 추론 프레임워크
210: 하드웨어 자원 정보 수집부 220: 인공 신경망 결정부
230: 라이브러리 선택부 240: 딥러닝부
Claims (10)
- 단말의 하드웨어 자원에 대한 정보에 기초하여 딥러닝을 위한 인공 신경망과 라이브러리를 선택하여 상기 단말에 대해 딥러닝을 수행하도록 제어하는 제어부; 및
상기 인공 신경망과 상기 라이브러리에 대한 정보를 저장하는 저장부를 포함하고,
상기 제어부는,
상기 단말의 하드웨어 자원에 대한 정보를 수집하는 하드웨어 자원 정보 수집부;
상기 하드웨어 자원에 대한 정보에 기초하여 인공 신경망 모델을 선택하는 인공 신경망 모델 선택부;
상기 하드웨어 자원에 대한 정보에 기초하여 상기 인공 신경망 모델에 적용하기 위한 라이브러리를 선택하는 라이브러리 선택부; 및
상기 인공 신경망 모델을 사용하여 상기 단말에서 딥러닝을 수행시키되, 상기 딥러닝을 위해 선택된 라이브러리를 호출하도록 하는 딥러닝부를 포함하는 인공 신경망 선택 장치. - 제 1 항에 있어서,
상기 하드웨어 자원 정보 수집부는,
상기 하드웨어 자원에 대한 정보로부터 상기 단말의 연산 성능과 메모리 용량을 확인하는 인공 신경망 선택 장치. - 제 2 항에 있어서,
상기 인공 신경망 모델 선택부는,
복수의 인공 신경망 모델을 비교하고, 상기 연산 성능과 메모리 용량을 만족하는 인공 신경망 중에서 비교 결과 정밀도가 가장 높은 인공 신경망을 선택하는 인공 신경망 선택 장치. - 제 1 항에 있어서,
상기 라이브러리 선택부는,
상기 인공 신경망 모델에 적용 가능한 연산 라이브러리가 존재하지 않는 경우, 공통 라이브러리를 선택하는 인공 신경망 선택 장치. - 인공 신경망 선택 장치에 의해 수행되는 인공 신경망 선택 방법에 있어서,
단말의 하드웨어 자원에 대한 정보를 수집하는 단계;
상기 하드웨어 자원에 대한 정보에 기초하여 인공 신경망 모델을 선택하는 단계;
상기 하드웨어 자원에 대한 정보에 기초하여 상기 인공 신경망 모델에 적용하기 위한 라이브러리를 선택하는 단계; 및
선택된 인공 신경망 모델을 사용하여 상기 단말에서 딥러닝을 수행시키되, 상기 딥러닝을 위해 선택된 라이브러리를 호출하도록 하는 단계를 포함하는 인공 신경망 선택 방법. - 제 5 항에 있어서,
상기 하드웨어 자원에 대한 정보를 수집하는 단계는,
상기 하드웨어 자원에 대한 정보로부터 상기 단말의 연산 성능과 메모리 용량을 확인하는 단계를 포함하는 인공 신경망 선택 방법. - 제 6 항에 있어서,
상기 인공 신경망 모델을 선택하는 단계는,
복수의 인공 신경망 모델을 비교하고, 상기 연산 성능과 메모리 용량을 만족하는 인공 신경망 중에서 비교 결과 정밀도가 가장 높은 인공 신경망을 선택하는 단계를 포함하는 인공 신경망 선택 방법. - 제 5 항에 있어서,
상기 인공 신경망 모델에 적용하기 위한 라이브러리를 선택하는 단계는,
상기 인공 신경망 모델에 적용 가능한 연산 라이브러리가 존재하지 않는 경우, 공통 라이브러리를 선택하는 단계를 포함하는 인공 신경망 선택 방법. - 제 5 항에 기재된 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.
- 영상 복원 장치에 의해 수행되며, 제 5 항에 기재된 방법을 수행하기 위해 매체에 저장된 컴퓨터 프로그램.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180117029A KR102277172B1 (ko) | 2018-10-01 | 2018-10-01 | 인공 신경망 선택 장치 및 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180117029A KR102277172B1 (ko) | 2018-10-01 | 2018-10-01 | 인공 신경망 선택 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200037602A true KR20200037602A (ko) | 2020-04-09 |
KR102277172B1 KR102277172B1 (ko) | 2021-07-14 |
Family
ID=70275845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180117029A KR102277172B1 (ko) | 2018-10-01 | 2018-10-01 | 인공 신경망 선택 장치 및 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102277172B1 (ko) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113900734A (zh) * | 2021-10-11 | 2022-01-07 | 北京百度网讯科技有限公司 | 一种应用程序文件配置方法、装置、设备及存储介质 |
WO2022114655A1 (ko) * | 2020-11-26 | 2022-06-02 | (주)심플랫폼 | 클라우드 기반 디바이스 인공지능 설정 시스템 및 방법 |
KR20220078834A (ko) * | 2020-12-04 | 2022-06-13 | 한국전자기술연구원 | 온디바이스 ai 수행을 위한 대용량 스트림 데이터 처리 방법 |
US20220188609A1 (en) * | 2020-12-16 | 2022-06-16 | Plantronics, Inc. | Resource aware neural network model dynamic updating |
WO2022177162A1 (ko) * | 2021-02-18 | 2022-08-25 | 삼성전자주식회사 | 어플리케이션의 모델 파일을 초기화하는 프로세서 및 이를 포함하는 전자 장치 |
US11521339B2 (en) * | 2020-06-10 | 2022-12-06 | Snap Inc. | Machine learning in augmented reality content items |
WO2023038300A1 (ko) * | 2021-09-10 | 2023-03-16 | 삼성전자 주식회사 | 인공지능 서비스를 제공하는 디바이스 및 그 동작 방법 |
WO2023068849A1 (ko) * | 2021-10-20 | 2023-04-27 | 삼성전자 주식회사 | 디스플레이 장치 및 그 동작 방법 |
KR102661026B1 (ko) * | 2022-12-21 | 2024-04-25 | 한국과학기술원 | 동적 리소스 적응형 딥러닝 모델 추론 방법 및 상기 방법을 수행하는 딥러닝 모델 추론 장치 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101137107B1 (ko) * | 2003-12-09 | 2012-07-02 | 마이크로소프트 코포레이션 | 그래픽 처리 유닛을 사용해 기계 학습 기술들의 처리를가속화하고 최적화하는 시스템 및 방법 |
KR20150050689A (ko) * | 2013-10-30 | 2015-05-11 | 삼성전자주식회사 | 데이터 분산 처리 시스템의 병목 현상 분석 장치 및 방법 |
KR20160143512A (ko) * | 2015-06-04 | 2016-12-14 | 더 보잉 컴파니 | 머신 러닝을 위한 진보된 분석 기반시설 |
JP2017508210A (ja) * | 2014-02-07 | 2017-03-23 | サイランス・インコーポレイテッドCylance Inc. | 識別のためのアンサンブル機械学習を利用するアプリケーション実行コントロール |
KR101845769B1 (ko) * | 2017-03-21 | 2018-04-06 | 경남대학교 산학협력단 | Cnn을 이용한 자동차 후면 검출 시스템 및 그 방법 |
JP2018092614A (ja) * | 2016-12-01 | 2018-06-14 | 富士通株式会社 | データベースのための畳み込みニューラルネットワークモデルの決定装置及び決定方法 |
KR20180084289A (ko) * | 2017-01-16 | 2018-07-25 | 한국전자통신연구원 | 희소 파라미터를 사용하는 압축 신경망 시스템 및 그것의 설계 방법 |
-
2018
- 2018-10-01 KR KR1020180117029A patent/KR102277172B1/ko active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101137107B1 (ko) * | 2003-12-09 | 2012-07-02 | 마이크로소프트 코포레이션 | 그래픽 처리 유닛을 사용해 기계 학습 기술들의 처리를가속화하고 최적화하는 시스템 및 방법 |
KR20150050689A (ko) * | 2013-10-30 | 2015-05-11 | 삼성전자주식회사 | 데이터 분산 처리 시스템의 병목 현상 분석 장치 및 방법 |
JP2017508210A (ja) * | 2014-02-07 | 2017-03-23 | サイランス・インコーポレイテッドCylance Inc. | 識別のためのアンサンブル機械学習を利用するアプリケーション実行コントロール |
KR20160143512A (ko) * | 2015-06-04 | 2016-12-14 | 더 보잉 컴파니 | 머신 러닝을 위한 진보된 분석 기반시설 |
JP2018092614A (ja) * | 2016-12-01 | 2018-06-14 | 富士通株式会社 | データベースのための畳み込みニューラルネットワークモデルの決定装置及び決定方法 |
KR20180084289A (ko) * | 2017-01-16 | 2018-07-25 | 한국전자통신연구원 | 희소 파라미터를 사용하는 압축 신경망 시스템 및 그것의 설계 방법 |
KR101845769B1 (ko) * | 2017-03-21 | 2018-04-06 | 경남대학교 산학협력단 | Cnn을 이용한 자동차 후면 검출 시스템 및 그 방법 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11521339B2 (en) * | 2020-06-10 | 2022-12-06 | Snap Inc. | Machine learning in augmented reality content items |
WO2022114655A1 (ko) * | 2020-11-26 | 2022-06-02 | (주)심플랫폼 | 클라우드 기반 디바이스 인공지능 설정 시스템 및 방법 |
KR20220078834A (ko) * | 2020-12-04 | 2022-06-13 | 한국전자기술연구원 | 온디바이스 ai 수행을 위한 대용량 스트림 데이터 처리 방법 |
US20220188609A1 (en) * | 2020-12-16 | 2022-06-16 | Plantronics, Inc. | Resource aware neural network model dynamic updating |
WO2022177162A1 (ko) * | 2021-02-18 | 2022-08-25 | 삼성전자주식회사 | 어플리케이션의 모델 파일을 초기화하는 프로세서 및 이를 포함하는 전자 장치 |
WO2023038300A1 (ko) * | 2021-09-10 | 2023-03-16 | 삼성전자 주식회사 | 인공지능 서비스를 제공하는 디바이스 및 그 동작 방법 |
CN113900734A (zh) * | 2021-10-11 | 2022-01-07 | 北京百度网讯科技有限公司 | 一种应用程序文件配置方法、装置、设备及存储介质 |
CN113900734B (zh) * | 2021-10-11 | 2023-09-22 | 北京百度网讯科技有限公司 | 一种应用程序文件配置方法、装置、设备及存储介质 |
WO2023068849A1 (ko) * | 2021-10-20 | 2023-04-27 | 삼성전자 주식회사 | 디스플레이 장치 및 그 동작 방법 |
KR102661026B1 (ko) * | 2022-12-21 | 2024-04-25 | 한국과학기술원 | 동적 리소스 적응형 딥러닝 모델 추론 방법 및 상기 방법을 수행하는 딥러닝 모델 추론 장치 |
Also Published As
Publication number | Publication date |
---|---|
KR102277172B1 (ko) | 2021-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102277172B1 (ko) | 인공 신경망 선택 장치 및 방법 | |
US20230334368A1 (en) | Machine learning platform | |
JP6324388B2 (ja) | コンピューティング・デバイスについてのセキュアな識別およびセキュアな識別方法 | |
US10515056B2 (en) | API for resource discovery and utilization | |
JP2020512611A (ja) | ブロックチェーンを基にしたデータ処理方法および装置 | |
KR102193404B1 (ko) | 상호작용 개발 환경으로부터의 소프트웨어 아티팩트의 점진적 컴파일링 기법 | |
KR102108460B1 (ko) | 상품 벡터를 이용한 상품 분류 방법 및 장치 | |
US20160077831A1 (en) | Accurate and performant code design using memoization | |
WO2015183851A1 (en) | Combining compute tasks for a graphics processing unit | |
CN104050001A (zh) | 基于Android系统的资源处理方法、装置和设备 | |
US20190138511A1 (en) | Systems and methods for real-time data processing analytics engine with artificial intelligence for content characterization | |
US9471299B1 (en) | Updating code within an application | |
KR102116395B1 (ko) | 애플리케이션 테스트 방법 및 장치 | |
US20230247102A1 (en) | Addressing previous client device technology in online platforms | |
US11093041B2 (en) | Computer system gesture-based graphical user interface control | |
CN110088750B (zh) | 在静态网页中提供场境功能的方法和系统 | |
JP2018508081A (ja) | 入力シリアルの処理方法、装置、デバイス及び不発揮性コンピュータ記憶媒体 | |
WO2016168026A1 (en) | Technologies for mining temporal patterns in big data | |
EP3314560B1 (en) | Transmitting application data for on-device demos | |
US20180088930A1 (en) | Updating code within an application | |
US20230196087A1 (en) | Instance adaptive training with noise robust losses against noisy labels | |
CN111309323B (zh) | 参数初始化方法、装置和电子设备 | |
CN118451413A (zh) | 基于人工智能的集成框架 | |
US20160224258A1 (en) | Generating computer programs for use with computers having processors with dedicated memory | |
KR20180120968A (ko) | 메모리의 쓰기를 제어하는 뉴럴네트워크 수행 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |