KR20170130775A - System and method for performing deep learning - Google Patents
System and method for performing deep learning Download PDFInfo
- Publication number
- KR20170130775A KR20170130775A KR1020160061404A KR20160061404A KR20170130775A KR 20170130775 A KR20170130775 A KR 20170130775A KR 1020160061404 A KR1020160061404 A KR 1020160061404A KR 20160061404 A KR20160061404 A KR 20160061404A KR 20170130775 A KR20170130775 A KR 20170130775A
- Authority
- KR
- South Korea
- Prior art keywords
- mobile terminal
- job
- request
- task
- terminal
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/22—Microcontrol or microprogram arrangements
- G06F9/28—Enhancement of operational speed, e.g. by using several microcontrol devices operating in parallel
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline, look ahead
- G06F9/3885—Concurrent instruction execution, e.g. pipeline, look ahead using a plurality of independent parallel functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- H04W4/008—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
Abstract
Description
본원은 모바일 네트워크 환경에서의 분산 컴퓨팅 기반의 딥러닝 수행 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for performing deep-running based on distributed computing in a mobile network environment.
딥러닝(Deep Learning)은 다층구조 형태의 신경망을 기반으로 하는 기계학습(machine learning)의 한 분야로, 다량의 데이터로부터 높은 수준의 추상화 모델을 구축하는 기법을 의미한다.Deep Learning is a field of machine learning based on a neural network in the form of a multi-layered structure, which means a technique for constructing a high-level abstraction model from a large amount of data.
최근에는 통신기술의 발달에 의하여 딥러닝을 통해 학습할 수 있는 데이터의 양이 빠른 속도로 증가하였으며, 이러한 학습 데이터의 증가와 빅데이터(Big Data) 시대의 도래 및 알고리즘 모델의 크기 증가 등의 이유로 광역 딥러닝(Large scale deep learning) 기술 구현이 요구되고 있다.In recent years, the amount of data that can be learned through deep learning has been rapidly increased due to the development of communication technology. Due to the increase in learning data, the arrival of the Big Data era, and the increase in the size of the algorithm model Large scale deep learning technology is required to be implemented.
종래에는 광역 딥러닝 시스템을 구축하기 위해 고가의 대규모 서버 장치 또는 고성능의 컴퓨터 장치가 필요하였기 때문에, 종래의 딥러닝 시스템을 구축하기 위해서는 고가의 원가 투자가 필요하였다. Conventionally, in order to construct a wide-area deep learning system, an expensive large-scale server device or a high-performance computer device was required. Therefore, expensive expensive investment was required to construct a conventional deep learning system.
또한, 종래의 병렬 컴퓨팅(parallel computing) 기술은 각 서버 장치 또는 컴퓨팅 장치의 성능을 향상시킴으로써 데이터의 처리 속도를 향상시키는 것에 초점이 맞춰져 있었기 때문에, 광역 딥러닝의 구현에 필요한 방대한 양의 빅데이터(Big Data)를 처리하는 데에는 한계가 있었다.Further, since the conventional parallel computing technology has been focused on improving the processing speed of data by improving the performance of each server device or the computing device, a large amount of large data Big Data).
본원의 배경이 되는 기술은 한국등록특허공보 제10-1332840호(등록일: 2013.11.19)에 개시되어 있다.The background technology of the present application is disclosed in Korean Patent Registration No. 10-1332840 (date of registration: 2013.11.19).
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 분산 모바일 네트워크를 기반으로 모바일 단말기를 활용한 광역 딥러닝(Large scale deep learning)을 구현할 수 있는 딥러닝 수행 시스템 및 방법을 제공하려는 것을 목적으로 한다.It is an object of the present invention to provide a deep learning system and method capable of realizing a large scale deep learning using a mobile terminal based on a distributed mobile network do.
또한, 본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 네트워크를 기반으로 상호 연결되어 있는 복수의 모바일 단말기를 활용하여 분산 처리를 수행함으로써, 방대한 양의 빅데이터를 보다 효율적으로 처리할 수 있는 딥러닝 수행 시스템 및 방법을 제공하려는 것을 목적으로 한다.In addition, the present invention has been made to solve the above-mentioned problems of the prior art, and it is an object of the present invention to provide a mobile terminal capable of efficiently processing a large amount of big data by performing distributed processing using a plurality of mobile terminals connected to each other based on a network And to provide a deep running performing system and method.
다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.It is to be understood, however, that the technical scope of the embodiments of the present invention is not limited to the above-described technical problems, and other technical problems may exist.
상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 모바일 네트워크 환경에서의 딥러닝(Deep Learning) 수행 시스템은, 복수의 작업에 대응하는 복수의 작업 요청을 생성하고, 상기 복수의 작업 요청 중 제1작업 요청을 전송하는 제1모바일 단말 및 상기 제1모바일 단말로부터 상기 제1작업 요청을 수신하고, 상기 제1작업 요청에 대응하는 제1작업을 수행하여 상기 제1작업의 수행 결과 데이터를 상기 제1모바일 단말로 전송하는 제2모바일 단말을 포함할 수 있다.According to an aspect of the present invention, there is provided a deep learning system for performing a deep learning in a mobile network environment, the method comprising: generating a plurality of job requests corresponding to a plurality of jobs; A first mobile terminal that transmits a first job request among the job requests of the first mobile terminal and a second mobile terminal that receives the first job request from the first mobile terminal and performs a first job corresponding to the first job request, And a second mobile terminal for transmitting the resultant data to the first mobile terminal.
또한, 상기 제1모바일 단말은 상기 복수의 작업 중 제2작업을 수행하고, 상기 제2작업은 상기 제1작업의 수행 결과 데이터에 종속되거나 상기 제1작업과 병렬처리 될 수 있다.In addition, the first mobile terminal may perform a second one of the plurality of jobs, and the second job may be dependent on data of a result of performing the first job or may be processed in parallel with the first job.
또한, 상기 제1모바일 단말은 상기 복수의 작업 중 제2작업을 수행하고, 상기 딥러닝 수행 시스템은, 상기 제1모바일 단말로부터 상기 제1작업의 수행 결과 데이터 및 상기 제2작업의 수행 결과 데이터를 수신하는 서버 단말을 더 포함할 수 있다.In addition, the first mobile terminal performs a second task out of the plurality of tasks, and the deep learning performing system further comprises: data of execution results of the first task and data of execution results of the second task from the first mobile terminal The server terminal may further include:
또한, 본원의 일 실시예에 따른 딥러닝 수행 시스템은, 상기 복수의 작업 요청 중 제3작업 요청을 수신하고, 상기 제3작업 요청에 대응하는 제3작업을 수행하여 상기 제3작업의 수행 결과 데이터를 전송하는 제3모바일 단말을 더 포함할 수 있다.In addition, the deep learning performing system according to an embodiment of the present invention may further include: a third task request receiving unit for receiving a third task request among the plurality of task requests, performing a third task corresponding to the third task request, And a third mobile terminal for transmitting the data.
또한, 상기 제1모바일 단말과 상기 제3모바일 단말 간의 네트워크 환경에 따라 상기 제3모바일 단말은 상기 제3작업 요청을 상기 제1모바일 단말 또는 상기 서버 단말 중 어느 하나로부터 수신하고, 상기 제3작업의 수행 결과 데이터를 상기 제1모바일 단말 또는 상기 서버 단말 중 어느 하나로 전송할 수 있다.The third mobile terminal may receive the third operation request from either the first mobile terminal or the server terminal depending on the network environment between the first mobile terminal and the third mobile terminal, To the first mobile terminal or the server terminal.
또한, 상기 제1모바일 단말과 상기 제3모바일 단말이 동일 와이파이(wi-fi) 네트워크 또는 블루투스(Bluetooth) 네트워크로 연결 가능한 경우, 상기 제3모바일 단말은 상기 제3작업 요청을 상기 제1모바일 단말로부터 수신하고, 상기 제3작업의 수행 결과 데이터를 상기 제1모바일 단말로 전송할 수 있다.When the first mobile terminal and the third mobile terminal are connectable via the same Wi-Fi network or a Bluetooth network, the third mobile terminal transmits the third operation request to the first mobile terminal And transmit the resultant data of the third operation to the first mobile terminal.
또한, 상기 제1모바일 단말과 상기 제3모바일 단말이 동일 와이파이(wi-fi) 네트워크 또는 블루투스(Bluetooth) 네트워크로 연결 가능하지 않은 경우, 상기 제3모바일 단말은 상기 제3작업 요청을 상기 서버 단말로부터 수신하고, 상기 제3작업의 수행 결과 데이터를 상기 서버 단말로 전송할 수 있다.If the first mobile terminal and the third mobile terminal can not be connected to the same Wi-Fi network or a Bluetooth network, the third mobile terminal may transmit the third operation request to the server terminal And transmit the execution result data of the third job to the server terminal.
또한, 상기 제1모바일 단말은 상기 복수의 작업 각각을 수행하기 위한 복수의 프로세서(processor)를 포함할 수 있다.In addition, the first mobile terminal may include a plurality of processors for performing each of the plurality of jobs.
또한, 상기 제2모바일 단말은 상기 제1작업의 수행에 필요한 복수의 서브(sub)-작업 요청을 생성하고, 상기 복수의 서브-작업 요청 중 제1서브 작업 요청을 전송하고, 상기 딥러닝 수행 시스템은, 상기 제2모바일 단말로부터 상기 제1서브 작업 요청을 수신하고, 상기 제1서브 작업 요청에 대응하는 제1서브 작업을 수행하여 상기 제1서브 작업의 수행 결과 데이터를 상기 제2모바일 단말로 전송하는 제4모바일 단말을 더 포함할 수 있다.In addition, the second mobile terminal may generate a plurality of sub-task requests necessary for performing the first task, transmit a first sub-task request among the plurality of sub-task requests, The system may further comprise a second mobile terminal for receiving the first sub-work request from the second mobile terminal, performing a first sub-task corresponding to the first sub-work request, To the first mobile terminal.
한편, 본원의 일 실시예에 따른 모바일 네트워크 환경에서의 딥러닝(Deep Learning) 수행 방법은, (a) 제1모바일 단말이 복수의 작업에 대응하는 복수의 작업 요청을 생성하고, 상기 복수의 작업 요청 중 제1작업 요청을 전송하는 단계 및 (b) 제2모바일 단말이 상기 제1모바일 단말로부터 상기 제1작업 요청을 수신하고, 상기 제1작업 요청에 대응하는 제1작업을 수행하여 상기 제1작업의 수행 결과 데이터를 상기 제1모바일 단말로 전송하는 단계를 포함할 수 있다.Meanwhile, a method of performing Deep Learning in a mobile network environment according to an embodiment of the present invention includes: (a) generating a plurality of job requests corresponding to a plurality of jobs by a first mobile terminal; (B) receiving, by the second mobile terminal, the first task request from the first mobile terminal and performing a first task corresponding to the first task request, And transmitting performance result data of the first task to the first mobile terminal.
또한, 본원의 일 실시예에 따른 모바일 네트워크 환경에서의 딥러닝(Deep Learning) 수행 방법은, (c) 상기 제1모바일 단말이 상기 복수의 작업 중 제2작업을 수행하는 단계를 더 포함하고, 상기 제2작업은 상기 제1작업의 수행 결과 데이터에 종속되거나 병렬처리 될 수 있다.Further, a method of performing Deep Learning in a mobile network environment according to an exemplary embodiment of the present invention further includes the step of (c) the first mobile terminal performing a second task among the plurality of tasks, The second job may be subordinate or parallel to the result data of the first job.
또한, 본원의 일 실시예에 따른 모바일 네트워크 환경에서의 딥러닝(Deep Learning) 수행 방법은, (d) 제3모바일 단말이 상기 복수의 작업 요청 중 제3작업 요청을 수신하고, 상기 제3작업 요청에 대응하는 제3작업을 수행하여 상기 제3작업의 수행 결과 데이터를 전송하는 단계를 더 포함할 수 있다.(D) a third mobile terminal receives a third task request among the plurality of task requests, and the third task is a third task, Performing a third job corresponding to the request, and transmitting the resultant data of the third job.
또한, 상기 (d) 단계에서, 상기 제1모바일 단말과 상기 제3모바일 단말 간의 네트워크 환경에 따라, 상기 제3모바일 단말은 상기 제3작업 요청을 상기 제1모바일 단말 또는 서버 단말 중 어느 하나로부터 수신하고, 상기 제3작업의 수행 결과 데이터를 상기 제1모바일 단말 또는 상기 서버 단말 중 어느 하나로 전송할 수 있다.According to a network environment between the first mobile terminal and the third mobile terminal, in step (d), the third mobile terminal transmits the third operation request from either the first mobile terminal or the server terminal And transmit the resultant data of the third job to either the first mobile terminal or the server terminal.
한편, 본원의 일 실시예에 따른 모바일 네트워크 환경에서의 딥러닝(Deep Learning) 수행을 위한 제1모바일 단말은, 복수의 작업 각각을 수행하기 위한 복수의 프로세서, 상기 복수의 작업에 대응하는 복수의 작업 요청을 생성하는 작업 요청 생성부, 상기 복수의 작업 요청 중 제1작업 요청을 제2모바일 단말에 전송하는 작업 요청 전송부 및 상기 제2모바일 단말로부터 상기 제1작업 요청에 대응하는 제1작업의 수행 결과 데이터를 수신하는 작업 결과 수신부를 포함할 수 있다.Meanwhile, a first mobile terminal for performing Deep Learning in a mobile network environment according to an embodiment of the present invention includes a plurality of processors for performing each of a plurality of jobs, a plurality of processors corresponding to the plurality of jobs, A job request transmitting unit for transmitting a first job request among the plurality of job requests to a second mobile terminal and a second job corresponding to the first job request from the second mobile terminal, And a task result receiving unit that receives the task execution result data.
또한, 상기 복수의 프로세서는 상기 제1작업을 수행하는 제1프로세서 및 상기 복수의 작업 중 제2작업을 수행하는 제2프로세서를 포함하고, 상기 제1프로세서의 작업 수행 결과는 상기 제2모바일 단말로부터 수신한 상기 제1작업의 수행 결과 데이터에 의해 대체 가능하고, 상기 제2작업은 상기 제1작업의 수행 결과 데이터에 종속되거나 병렬처리 될 수 있다.The plurality of processors may include a first processor that performs the first task and a second processor that performs a second task of the plurality of tasks, And the second job may be subordinate to or processed in parallel with the execution result data of the first job.
또한, 본원의 일 실시예에 따른 제1모바일 단말은, 상기 제1모바일 단말과 상기 제2모바일 단말 간의 네트워크 환경 상태를 판단하는 통신부를 더 포함하고, 상기 통신부의 판단 결과, 상기 제1모바일 단말과 상기 제2모바일 단말이 동일 와이파이(wi-fi) 네트워크 또는 블루투스(Bluetooth) 네트워크로 연결 가능한 경우, 상기 작업 요청 전송부는 상기 제1작업 요청을 적어도 제2모바일 단말에 전송하고, 상기 작업 결과 수신부는 상기 제2모바일 단말로부터 상기 제1작업 요청에 대응하는 제1작업의 수행 결과 데이터를 수신할 수 있다.The first mobile terminal according to an embodiment of the present invention further includes a communication unit for determining a network environment state between the first mobile terminal and the second mobile terminal, And if the second mobile terminal can be connected to the same Wi-Fi network or a Bluetooth network, the work request transmission unit transmits the first work request to at least the second mobile terminal, From the second mobile terminal, performance result data of the first job corresponding to the first job request.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described task solution is merely exemplary and should not be construed as limiting the present disclosure. In addition to the exemplary embodiments described above, there may be additional embodiments in the drawings and the detailed description of the invention.
전술한 본원의 과제 해결 수단에 의하면, 분산 모바일 네트워크를 기반으로 모바일 단말기를 이용한 광역 딥러닝(Large scale deep learning) 수행 시스템을 구현함으로써, 방대한 양의 빅데이터를 보다 효율적으로 처리할 수 있다.According to the present invention, a large scale deep learning performance system using a mobile terminal based on a distributed mobile network is implemented, so that a large amount of big data can be processed more efficiently.
또한, 전술한 본원의 과제 해결 수단에 의하면, 복수의 모바일 단말기의 분산, 병렬 처리를 이용한 딥러닝 수행 시스템을 구현함으로써, 저가의 비용으로 보다 신속하게 방대한 양의 빅데이터를 보다 효율적으로 처리할 수 있다.According to the above-mentioned problem solving means of the present invention, by implementing a deep running performing system using distributed and parallel processing of a plurality of mobile terminals, it is possible to more efficiently process a large amount of big data more quickly at a low cost have.
도 1a는 본원의 일 실시예에 따른 딥러닝 수행 시스템의 구성을 개략적으로 나타낸 도면이다.
도 1b는 본원의 다른 일 실시예에 따른 딥러닝 수행 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 본원의 일 실시예에 따른 딥러닝 수행 시스템에서 제1 모바일 단말의 구성을 개략적으로 나타낸 도면이다.
도 3은 본원의 일 실시예에 따른 딥러닝 수행 시스템에서 제1 모바일 단말에 포함된 복수의 프로세서의 예를 나타낸 도면이다.
도 4는 본원의 일 실시예에 따른 딥러닝 수행 방법에 대한 개략적인 동작 흐름도이다.FIG. 1A is a schematic view illustrating a configuration of a deep running performing system according to an embodiment of the present invention. FIG.
1B is a diagram schematically illustrating a configuration of a deep running performing system according to another embodiment of the present invention.
2 is a diagram schematically illustrating a configuration of a first mobile terminal in a deep learning performing system according to an embodiment of the present invention.
3 is a diagram illustrating an example of a plurality of processors included in a first mobile terminal in a deep learning performing system according to an embodiment of the present invention.
4 is a schematic operation flow diagram of a method of performing deep-run according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. It should be understood, however, that the present invention may be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In the drawings, the same reference numbers are used throughout the specification to refer to the same or like parts.
본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when an element is referred to as being "connected" to another element, it is intended to be understood that it is not only "directly connected" but also "electrically connected" or "indirectly connected" "Is included.
본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.It will be appreciated that throughout the specification it will be understood that when a member is located on another member "top", "top", "under", "bottom" But also the case where there is another member between the two members as well as the case where they are in contact with each other.
본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, when an element is referred to as "including " an element, it is understood that the element may include other elements as well, without departing from the other elements unless specifically stated otherwise.
본원은 분산 모바일 네트워크를 기반으로 광역 딥러닝(Large scale deep learning)을 구현할 수 있는 딥러닝 수행 시스템 및 방법에 관한 것으로서, 모바일 단말기로 효율적인 광역 딥러닝 구조를 구축할 수 있다.The present invention relates to a deep-running performing system and method capable of implementing large-scale deep learning based on a distributed mobile network, and an efficient wide-area deep-learning structure can be constructed with a mobile terminal.
도 1a는 본원의 일 실시예에 따른 딥러닝 수행 시스템의 구성을 개략적으로 나타낸 도면이다.FIG. 1A is a schematic view illustrating a configuration of a deep running performing system according to an embodiment of the present invention. FIG.
도 1a를 참조하면, 본원의 일 실시예에 따른 딥러닝 수행 시스템(100)은 서버 단말(1)과 복수의 모바일 단말(10, 20, 30, 40, 50)을 포함할 수 있다. 다만, 본 발명의 딥러닝 수행 시스템(100)의 구성이 반드시 도 1a에 도시된 바와 같이 한정되는 것은 아니며, 실시예에 따라 딥러닝 수행 시스템(100)은 서버 단말(1)을 포함하지 않을 수 있으며, 제1 모바일 단말(10)이 서버 단말(1)의 역할 또는 기능의 일부 또는 전부를 수행할 수 있다. 또한, 본 발명의 딥러닝 수행 시스템(100)에 포함되는 모바일 단말의 수는 2개 이상으로 다양하다.Referring to FIG. 1A, a deep running
예를 들어, 각 모바일 단말은 스마트폰(Smartphone), 스마트패드(SmartPad), 스마트 TV, 태블릿 PC등과 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000 단말, CDMA(Code Division Multiple Access)-2000 단말, W-CDMA(W-Code Division Multiple Access) 단말, Wibro(Wireless Broadband Internet) 단말 같은 데이터 처리가 가능한 모든 종류의 무선 통신 장치 중 어느 하나일 수 있다.For example, each mobile terminal may be a personal communication system (PCS), a global system for mobile communication (GSM), a personal digital cellular (PDC), a personal digital assistant (PDS), a smart pad, (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication) -2000 terminal, CDMA (Code Division Multiple Access) -2000 terminal, W-CDMA And a Broadband Internet) terminal, which are capable of processing data.
딥러닝 수행 시스템(100)은 모바일 네트워크 환경에서 딥러닝을 수행할 수 있으며, 복수의 모바일 단말(10, 20, 30, 40, 50) 각각은 복수의 처리를 병렬적으로 처리하는 멀티 스레드(multi-thread) 기능을 수행할 수 있다.Deep
제1 모바일 단말(10)은 멀티 스레드 처리가 가능함에 따라, 복수의 작업(제1 작업, 제2 작업, 제3 작업 등)을 병렬적으로 처리할 수 있다. 본 발명에 있어서의 '작업'은 특정 데이터의 처리, 딥러닝 또는 빅데이터를 수집, 구축, 처리하기 위해 필요한 데이터의 수집, 처리, 연산, 교환 등의 일련의 컴퓨팅 처리 또는 프로세스의 일부 또는 전부를 의미하는 것일 수 있다. 본 발명의 일 실시예에 따르면, 제1 모바일 단말(10)은 복수의 작업에 대응하는 복수의 작업 요청(request 1, request 2, request 3)을 생성하고, 복수의 작업 요청 중 제1 작업 요청(request 1)을 제2 모바일 단말(20)로 전송할 수 있다. 예를 들어, 제1모바일 단말(10)은 자신의 식별자, 제1작업 요청의 식별자, 제1작업 수행 기한에 관한 정보, 제1모바일 단말(10)과 제2모바일 단말(20) 간의 네트워크 종류 및 상태 정보 중 적어도 일부를 포함하는 신호 또는 데이터 패킷을 제2모바일 단말(20)로 전송할 수 있다. As the first
이때, 제1 모바일 단말(10)은 제2 모바일 단말(20)과의 네트워크 환경 상태를 판단한 후, 네트워크 환경 상태에 따라 제1 작업 요청(request 1)을 제2 모바일 단말(20)로 전송할 수 있다. 예를 들어, 제2 모바일 단말(20)이 제1 모바일 단말(10)과 동일 네트워크로 연결 가능한 상태인 경우, 제1 모바일 단말(10)은 제1 작업 요청(request 1)를 제2 모바일 단말(20)로 직접 전송할 수 있다. 반면 제2 모바일 단말(20)이 제1 모바일 단말(10)과 동일 네트워크로 연결 가능하지 않은 상태인 경우, 제1 모바일 단말(10)은 제1 작업 요청(request 1)를 제2 모바일 단말(20)로 전송하지 않고, 제1 모바일 단말(10)과 동일 네트워크로 연결 가능한 제3 모바일 단말(30)로 제1 작업 요청(request 1)를 전송할 수도 있다. 이와 같이, 본 발명의 일 실시예에 따르면, 제1모바일 단말(10)은 주변 단말과의 네트워크 연결 상태에 따라 작업 요청의 전송 여부, 작업 요청의 전송 대상 또는 전송하는 작업 요청의 종류를 결정할 수 있다.At this time, the first
도 1의 일 실시예에서는, 제1 모바일 단말(10)이 제2 모바일 단말(20) 및 제3 모바일 단말(30)과 동일 네트워크(101)로 연결 가능한 상태이고, 제2 모바일 단말(20)이 제4 모바일 단말(40) 및 제5 모바일 단말(50)과 다른 동일 네트워크(102)로 연결 가능한 상태인 경우로 가정한다.1, the first
또한, 본원의 딥러닝 수행 시스템(100)에서 적용되는 네트워크(101, 102)는 일예로 동일한 AP(access point)를 통한 와이파이(wi-fi) 네트워크, 블루투스(Bluetooth) 네트워크, BLE(BLUETOOTH LOW ENERGY) 네트워크 또는 NFC(Near Field Communication) 네트워크 등을 포함할 수 있으며, 반드시 이에 한정된 것은 아니다.In addition, the
제1 모바일 단말(10)이 제2 모바일 단말(20)로 제1 작업 요청(request 1)을 전송한 경우, 제2 모바일 단말(20)은 제1 모바일 단말(10)로부터 제1 작업 요청을 수신하고, 제1 작업 요청에 대응하는 제1 작업을 수행하여 제1 작업의 수행 결과 데이터(answer 1)를 제1 모바일 단말(10)로 전송할 수 있다. 이처럼, 제1 모바일 단말(10)이 제1 작업에 대한 요청을 제2 모바일 단말(20)로 전송하고, 그에 대응하는 제1 작업의 수행 결과 데이터를 제2 모바일 단말(20)로부터 수신하기까지의 과정은 제1 작업의 처리 과정이라 할 수 있다.When the first
또한, 제1 모바일 단말(10)은 복수의 작업(제1 작업, 제2 작업, 제3 작업 등) 중 제2 작업에 대해서는 직접 수행할 수 있다. 제1 모바일 단말(10)은 자체 구비된 프로세서를 통해 제2 작업을 수행할 수 있다. 이는 후술하여 보다 자세히 설명하기로 한다. Also, the first
또한, 제2 작업은 제2 모바일 단말(20)로부터 전송된 제1 작업의 수행 결과 데이터에 종속되거나 제1 작업과 병렬처리될 수 있다. 제2 작업이 제1 작업의 수행 결과 데이터에 종속된다라 함은, 제1 모바일 단말(10)이 제2 모바일 단말(20)로부터 제1 작업의 수행 결과 데이터를 수신한 이후에 제2 작업이 수행됨을 의미할 수도 있고, 또는, 제1 작업의 수행 결과 데이터를 바탕으로 제2 작업이 수행됨을 의미할 수도 있다. 또한, 제2 작업은 제1 작업의 수행 여부와 관계 없이, 제1 작업의 처리와 동시에 병렬적으로 처리될 수 있다.In addition, the second job may be dependent on the result data of the first job transmitted from the second
제1 모바일 단말(10)은 복수의 작업에 대한 수행을, 동일 네트워크로 연결된 모바일 단말들을 통해 수행하거나 제1 모바일 단말(10) 내에 구비된 복수의 프로세서를 통해 수행할 수도 있다. 보다 자세히 살펴보면 다음과 같다.The first
제1 모바일 단말(10)은 복수의 작업 각각을 수행하기 위한 복수의 프로세서(processor)를 포함할 수 있다. 예를 들어, 복수의 작업으로서 제1 작업, 제2 작업, 제3 작업, 제4 작업 등이 존재하는 경우, 제1 모바일 단말(10)은 제1 작업을 수행하는 제1 프로세서, 제2 작업을 수행하는 제2 프로세서, 제3 작업을 수행하는 제3 프로세서, 제4 작업을 수행하는 제4 프로세서 등을 포함할 수 있다. 예를 들어, 상기 제1 프로세서 내지 제4프로세서는 CPU, GPU, MPP, MCU 등 데이터를 처리할 수 있는 다양한 프로세스 중 어느 하나일 수 있다. 제1 모바일 단말(10)은 복수의 작업인 제1 작업 내지 제4 작업 전체를 제1 프로세서 내지 제4 프로세서를 통해 수행할 수 있으나, 일부의 작업은 네트워크로 연결된 다른 모바일 단말을 통해 분산 처리할 수 있다. 또한, 본 발명의 딥러닝 수행 시스템(100)의 제1모바일 단말(10)은 단일 프로세서(예를 들어, 제1프로세서)가 수행하는 제1작업의 일부를 다른 모바일 단말에 분산 요청하여 작업 결과를 수신할 수 있다. 이하에서는 복수의 작업 중 일부 작업이 다른 모바일 단말에 의하여 수행되는 예를 살펴보기로 한다.The first
일예로, 제1 모바일 단말(10)은 제1 작업 내지 제4 작업을 병렬처리로 수행하되, 제1 작업은 제1 모바일 단말(10)이 제1 작업에 대응하는 제1 작업 요청을 제2 모바일 단말(20)로 전송한 후, 제2 모바일 단말(20)로부터 제1 작업의 수행 결과 데이터를 수신함으로써 수행할 수 있다. 또한, 제2 작업은, 제1 모바일 단말(10) 내의 제2 프로세서에 의하여 수행될 수 있다. 또한, 제3 작업은 제1 모바일 단말(10)이 제3 작업에 대응하는 제3 작업 요청을 제3 모바일 단말(30)로 전송한 후, 제3 모바일 단말(30)로부터 제3 작업의 수행 결과 데이터를 수신함으로써 수행할 수 있다. 또한, 제4 작업은, 제1 모바일 단말(10) 내에 제4 프로세서에 의하여 수행할 수 있다. (물론, 제4작업은 제2작업 또는 제3작업과 마찬가지로 다른 모바일 단말에 의해 수행되고, 제1모바일 단말(10)이 그 결과만을 수신할 수 있다.) 또한, 상기에 기술한 실시예는 본원의 이해를 돕기 위한 하나의 실시예일 뿐, 다른 실시예의 경우, 제1 모바일 단말(10)은 복수의 작업 전체를 다른 모바일 단말에 의하여 수행할 수 있다. For example, the first
예를 들어, 제1작업은 특정 위치의 교통량 정보의 수집, 제2작업은 교통 정보의 종합 처리, 제3작업은 교통 사고 정보의 수집, 제4작업은 종합 교통 정보의 출력 작업일 수 있다. 즉, 제1모바일 단말(10)은 직접 교통량 정보 및 교통 사고 정보를 수집하지 않고 다른 모바일 단말들로부터 데이터를 수신하여 교통 정보의 종합 처리 및 출력 작업을 수행할 수 있다. 이와 같이, 본 발명의 딥러닝 수행 시스템(100)에 따르면 다양한 종류의 작업을 복수의 모바일 단말을 통해 분산 처리 함으로써, 보다 방대한 양의 빅데이터를 보다 정확하고 신속하게 처리할 수 있다.For example, the first job may be a collection of traffic volume information at a specific location, the second job may be a comprehensive processing of traffic information, the third job may be a collection of traffic accident information, and the fourth job may be a composite traffic information output job. That is, the first
본 발명의 일 실시예에 따르면, 제1 모바일 단말(10)은 각 모바일 단말과의 네트워크 상태, 각 모바일 단말의 종류, 처리 능력, 예상되는 결과 데이터의 크기, 각 모바일 단말기에 구비되어 있는 프로세서의 종류 중 적어도 일부의 정보를 고려하여 작업 요청과 그 대상 모바일 단말을 결정할 수 있다. 예를 들어, 제1모바일 단말(10)과 제2모바일 단말(20)이 다른 종류의 단말이거나 프로세서를 구비하고 있는 경우, 작업 요청 전송 및 수신을 위한 추가의 작업이 필요할 것이다.According to an embodiment of the present invention, the first
이처럼, 본원은 제1 모바일 단말(10)이 복수의 작업 중 일부 작업을 자체 프로세서를 통해 병렬처리하고, 복수의 작업 중 나머지 작업을 다른 모바일 단말을 통해 처리하도록 함으로써, 빅데이터를 보다 효율적으로 처리할 수 있는 광역 딥러닝을 구현할 수 있다. 이와 같이, 본 발명의 딥러닝 수행 시스템(100)에 따르면, 모바일 단말들 간의 마스터/슬레이브(master/slave) 구조를 형성함으로써, 마스터 모바일 단말(예를 들어, 제1모바일 단말(10))이 복수의 슬레이브 모바일 단말(예를 들어, 제2모바일 단말(20), 제3모바일 단말(30))에 작업 요청을 수행하고, 슬레이브 모바일 단말의 프로세서 또는 리소스를 활용하여 작업 결과만을 수신함으로써, 딥러닝 수행을 위한 처리 속도를 향상시킴과 동시에 마스터 모바일 단말의 작업 연산량을 최소화할 수 있다.As described above, the present invention allows the first
또한, 제1 모바일 단말(10)이 멀티 스레드를 통해 복수의 작업에 대응하는 작업 요청을 다른 모바일 단말들로 분산하여 요청하는 방식은 다른 모바일 단말(20, 30, 40, 50) 각각에도 동일한 논리로 적용될 수 있다. In addition, the way in which the first
앞서 말한 바와 같이, 제2 모바일 단말(20)은 제1 모바일 단말(10)로부터 제1 작업 요청(request 1)을 수신하고, 제1 작업 요청에 대응하는 제1 작업을 수행하여 제1 작업의 수행 결과 데이터(answer 1)를 제1 모바일 단말(10)로 전송할 수 있다. 또한, 제2모바일 단말(20)은 제1작업의 수행에 필요한 복수의 서브(sub)-작업 요청(sub_request 1, sub_request 2, sub_request 3 등)을 생성할 수 있다. 이후, 제2 모바일 단말(20)은 복수의 서브 작업 요청 중 제1서브 작업 요청(sub_request 1)은 제4 모바일 단말(40)로 전송하고, 제2 서브 작업 요청(sub_request 2)는 제5 모바일 단말(50)로 전송할 수 있다. 또한, 제2 모바일 단말(20)은 제4 모바일 단말(40)로부터 제1 서브 작업의 수행 결과 데이터(sub_answer 1) 및 제5 모바일 단말(50)로부터 제2 서브 작업의 수행 결과 데이터(sub_answer 2)를 수신할 수 있다. 이와 같이, 각 모바일 단말과 작업 요청은 계층적(hierarchy) 구조 또는 다단계의 레이어(layer) 구조를 형성함으로써, 방대한 양의 데이터 처리를 보다 세분화하여 수행할 수 있으며, 다양한 정보를 수집할 수 있다.As described above, the second
이처럼, 제2 모바일 단말(20)은, 어느 한 모바일 단말(제1 모바일 단말(10))로부터 전송된 제1 작업 요청에 대응하여 제1 작업을 수행함과 동시에, 또 다른 단말들(예를 들어, 제4 모바일 단말(40), 제5 모바일 단말(50))로 복수의 서브 작업 요청 중 일부의 작업 요청을 보낼 수도 있고, 복수의 서브 작업 요청 중 나머지 작업 요청을 제2 모바일 단말(20) 내에 자체 구비된 복수의 프로세서를 통해 수행할 수 있다. 이와 같이, 마스터 모바일 단말과 슬레이브 모바일 단말의 역할 또는 롤(role)은 상대적 개념으로서, 각 모바일 단말이 마스터 모바일 단말과 슬레이브 모바일 단말의 역할을 수행할 수 있다.As such, the second
제4 모바일 단말(40) 및 제5 모바일 단말(50)은 제2 모바일 단말(20)과 동일 네트워크(102)로 연결 가능한 상태일 수 있다. 이때, 동일 네트워크로 연결 가능한 상태라 함은, 제4 모바일 단말(40) 및 제5 모바일 단말(50)이 제2 모바일 단말(20)과 동일한 AP(access point) 환경이거나 블루투스 통신이 가능한 거리에 위치한 것을 의미할 수 있다.The fourth
또한, 제4 모바일 단말(40)은 제2모바일 단말(20)로부터 제1서브 작업 요청을 수신하고, 제1서브 작업 요청에 대응하는 제1서브 작업을 수행하여 제1서브 작업의 수행 결과 데이터를 제2모바일 단말(20)로 전송할 수 있다. 제5 모바일 단말(50)은 제2모바일 단말(20)로부터 제2서브 작업 요청을 수신하고, 제2서브 작업 요청에 대응하는 제2서브 작업을 수행하여 제2서브 작업의 수행 결과 데이터를 제2모바일 단말(20)로 전송할 수 있다. In addition, the fourth
한편, 제3 모바일 단말(30)은 복수의 작업 요청 중 제3 작업 요청을 수신하고, 제3 작업 요청에 대응하는 제3 작업을 수행하여 제3 작업의 수행 결과 데이터를 전송할 수 있다. 이때, 제3 모바일 단말(30)은 제1 모바일 단말(10)과 제3 모바일 단말(30) 간의 네트워크 환경에 따라, 제3 작업 요청을 제1 모바일 단말(10) 또는 서버 단말(1) 중 어느 하나로부터 수신할 수 있고, 제3 작업의 수행 결과 데이터를 제1 모바일 단말(10) 또는 서버 단말(1) 중 어느 하나로 전송할 수 있다. 이는 도 1a 내지 도 1b를 참조하여 보다 쉽게 이해될 수 있다.Meanwhile, the third
도 1a는 제1 모바일 단말(10)과 제3 모바일 단말(30)이 동일 네트워크(101)로 연결 가능한 상태의 예를 나타내고, 도 1b는 본원의 다른 일 실시예에 따른 딥러닝 수행 시스템의 구성을 개략적으로 나타낸 도면으로서, 제1 모바일 단말(10)과 제3 모바일 단말(30)이 동일 네트워크로 연결 가능하지 않은 경우의 예를 나타낸다.1A shows an example of a state where a first
도 1a의 경우, 제1 모바일 단말(10)과 제3 모바일 단말(30)이 동일 네트워크(101)로 연결 가능한 경우, 예를 들어, 제1 모바일 단말(10)과 제3 모바일 단말(30)이 동일 와이파이 네트워크나 동일 블루투스 네트워크에 속해있는 경우, 제3 모바일 단말(30)은 제3 작업 요청(request 3)을 제1 모바일 단말(10)로부터 수신하고, 제3 작업의 수행 결과 데이터(answer 3)를 제1 모바일 단말(10)로 전송할 수 있다.1A, when the first
도 1b의 경우, 제1 모바일 단말(10)과 제3 모바일 단말(30)이 동일 네트워크(101)로 연결 가능하지 않은 경우, 예를 들어, 제1 모바일 단말(10)과 제3 모바일 단말(30)이 동일 와이파이 네트워크나 동일 블루투스 네트워크에 속해있지 않은 경우, 제3 모바일 단말(30)은 제3 작업 요청을 서버 단말(1)로부터 수신하고, 제3 작업의 수행 결과 데이터를 서버 단말(1)로 전송할 수 있다.1B, when the first
예를 들어, 제3모바일 단말(30)과 서버 단말(1)은 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등을 통해 작업 요청과 작업 수행 결과 데이터를 송수신할 수 있다.For example, the third
서버 단말(1)은 제1 모바일 단말(10)로부터 작업의 수행 결과 데이터를 수신할 수 있다. 예를 들어, 본 발명의 일 실시예에 따르면, 서버 단말(1)은 제1모바일 단말(10)로부터 제1 작업의 수행 결과 데이터 내지 제3 작업의 수행 결과 데이터를 수신할 수 있다. 다만, 앞서 언급한 바와 같이, 서버 단말(1)은 반드시 필요한 것은 아니며, 마스터 모바일 단말이 서버 단말(1)과 동일한 역할을 수행할 수 있다.The server terminal (1) can receive the result data of the operation from the first mobile terminal (10). For example, according to an embodiment of the present invention, the
동일 네트워크에 속해있는 복수의 모바일 단말 간(예를 들어, 네트워크 1(101)에 속해있는 제1 모바일 단말(10)과 제2 모바일 단말(20) 간)에는 작업 요청이 서버 단말(10)을 통하지 않고 직접(direct) 전송될 수 있으나, 동일 네트워크에 속해있지 않은 모바일 단말(예를 들어, 제1 네트워크(101)에 속해있지 않은 제3 모바일 단말(30))은 서버 단말(1)로부터 작업 요청을 수신할 수 있다. 즉, 서버 단말(1)은 특정 네트워크(예를 들어, 네트워크 1(101), 네트워크 2(102))에 속해있지 않은 모바일 단말(예를 들어, 제3 모바일 단말(30))로 작업 요청을 전송할 수 있다.A work request is transmitted to the
서버 단말(1)은 복수의 작업 요청 중 적어도 일부의 작업 요청을 복수의 모바일 단말로 전송할 수 있으며, 이후 복수의 모바일 단말로부터 적어도 일부 작업의 수행 결과 데이터를 수신할 수 있다.The
또한, 서버 단말(1)은 복수의 모바일 단말(10, 20, 30, 40, 50)의 정보(예를 들어, 식별정보 등)를 저장할 수 있으며, 서버 단말(1)은 복수의 모바일 단말 각각으로부터 전송된 작업 수행 결과 데이터를 각 모바일 단말의 식별정보와 함께 저장할 수 있다.The
도 2는 본원의 일 실시예에 따른 딥러닝 수행 시스템에서 제1 모바일 단말의 구성을 개략적으로 나타낸 도면이고, 도 3은 본원의 일 실시예에 따른 딥러닝 수행 시스템에서 제1 모바일 단말에 포함된 복수의 프로세서의 예를 나타낸 도면이다.FIG. 2 is a diagram schematically illustrating a configuration of a first mobile terminal in a deep learning performing system according to an embodiment of the present invention. FIG. 3 is a block diagram of a deep learning system according to an embodiment of the present invention. FIG. 2 is a diagram showing an example of a plurality of processors. FIG.
도 2 내지 도 3을 참조하면, 제1 모바일 단말(10)은 복수의 프로세서(11), 작업 요청 생성부(12), 작업 요청 전송부(13), 작업 결과 수신부(14) 및 통신부(15)를 포함할 수 있다.2 to 3, the first
복수의 프로세서(11)는 복수의 작업 각각을 수행할 수 있다. 예를 들어, 복수의 작업으로서 제1 작업, 제2 작업, 제3 작업 등이 있는 경우, 복수의 프로세서(11)는 제1 작업을 수행하는 제1 프로세서(11a), 제2 작업을 수행하는 제2 프로세서(11b), 제3 작업을 수행하는 제3 프로세서(11c) 등을 포함할 수 있다. 상기 복수의 작업은 딥러닝 수행 또는 빅데이터의 수집을 위해 상호 종속되거나 병렬처리될 수 있는 데이터의 수집, 연산, 처리 등을 포함한다.A plurality of
복수의 작업 각각은 복수의 프로세서(11)에 의하여 수행될 수 있고, 또는 다른 모바일 단말(20, 30, 40, 50 등)에 의하여 수행될 수도 있다.Each of the plurality of operations may be performed by the plurality of
일예로 제1 작업은 제1 모바일 단말(10)의 제1 프로세서(11a)에 의하여 수행되지 않고, 제2 모바일 단말(20)에 의하여 수행될 수 있다. 다시 말해, 제1 모바일 단말(10)이 제1 작업에 대응하는 제1 작업 요청을 제2 모바일 단말(20)로 전송하면, 제2 모바일 단말(20)은 제1 작업 요청에 대응하는 제1 작업을 수행한 후 제1 작업의 수행 결과 데이터를 제1 모바일 단말(10)로 전송할 수 있다. 이에 따라 제1 작업은 제2 모바일 단말(20)에 의하여 수행될 수 있다.For example, the first task may be performed by the second
또한, 제1 작업은 제1 프로세서(11a)에 의하여 수행될 수 있으며, 이때, 제1 프로세서(11a)에 의하여 산출된 제1 작업의 수행 결과는 제2 모바일 단말(20)로부터 수신한 제1 작업의 수행 결과 데이터에 의하여 대체될 수 있다.In addition, the first task may be performed by the first processor 11a. In this case, the result of the first task calculated by the first processor 11a may be the first task performed by the first
제2 프로세서(11b)는 제2 작업을 수행할 수 있으며, 이때 제2 작업은 제1 작업의 수행 결과 데이터에 종속되거나 벙렬처리될 수 있다. 다시 말해, 제2 작업 수행 시, 제2 프로세서(11b)는 제2 모바일 단말(20)로부터 수신한 제1 작업의 수행 결과 데이터를 고려하여 제2 작업을 수행할 수도 있고, 또는, 제2 작업의 수행 결과 데이터를 수신한 이후에 제2 작업을 수행할 수 있다. 바람직하게는, 제2 작업은 제1 작업과 병렬적으로 처리될 수 있다. 뿐만 아니라, 제3 작업, 제4 작업 등 복수의 작업 각각은 병렬처리될 수 있다.The
작업 요청 생성부(12)는 복수의 작업에 대응하는 복수의 작업 요청을 생성할 수 있다. 일예로, 작업 요청 생성부(12)는 제1 작업에 대응하는 제1 작업 요청, 제2 작업에 대응하는 제2 작업 요청, 제3 작업에 대응하는 제3 작업 요청 등을 생성할 수 있다. 예를 들어, 작업 요청은 제1모바일 단말(10)의 식별자, 각 작업 요청의 식별자, 각 작업 수행 기한에 관한 정보 등을 포함할 수 있다.The job
작업 요청 전송부(13)는 복수의 작업 요청 중 일부를 다른 모바일 단말에 전송할 수 있다. 일예로 앞서 설명한 바와 같이, 복수의 작업 요청(제1 작업 요청 내지 제3 작업 요청 등) 중 제1 작업 요청은 제2 모바일 단말(20)로 전송될 수 있고, 제2 작업 요청은 다른 모바일 단말로 전송되지 않고 제1 모바일 단말(10) 내의 프로세서에 의하여 제2 작업이 수행될 수 있으며, 제3 작업 요청은 제3 모바일 단말(30)로 전송될 수 있다.The work
작업 요청 전송부(13)는 각 모바일 단말과의 네트워크 상태, 각 모바일 단말의 종류, 처리 능력, 예상되는 결과 데이터의 크기, 각 모바일 단말기에 구비되어 있는 프로세서의 종류 중 적어도 일부의 정보를 고려하여 전송 대상 작업 요청과 대상 모바일 단말을 결정할 수 있다The task
작업 결과 수신부(14)는 다른 모바일 단말로부터 각 작업 요청에 대응하는 작업 수행 결과 데이터를 수신할 수 있다. 예를 들어, 작업 결과 수신부(14)는 제2 모바일 단말(20)로부터 제1 작업 요청에 대응하는 제1 작업의 수행 결과 데이터를 수신할 수 있다. 또한, 작업 결과 수신부(14)는 제3 모바일 단말(20)로부터 제3 작업 요청에 대응하는 제3 작업의 수행 결과 데이터를 수신할 수 있다.The work
통신부(15)는 제1 모바일 단말(10)과 다른 모바일 단말(예를 들어, 제2 모바일 단말(20)) 간의 네트워크 환경 상태를 판단할 수 있다. 예를 들어, 통신부(15)의 판단 결과, 제1모바일 단말(10)과 제2모바일 단말(20)이 동일 와이파이(wi-fi) 네트워크 또는 블루투스(Bluetooth) 네트워크로 연결 가능한 경우, 작업 요청 전송부(13)는 제1작업 요청을 적어도 제2모바일 단말(20)에 전송하고, 작업 결과 수신부(14)는 제2모바일 단말(20)로부터 제1작업 요청에 대응하는 제1작업의 수행 결과 데이터를 수신할 수 있다.The
또한, 작업 요청 전송부(13)는 통신부(15)를 통한 네트워크 환경 상태의 판단 결과에 따라, 작업 요청을 복수의 모바일 단말 중 어떤 모바일 단말로 전송할 것인지 결정할 수 있다. 예를 들어, 도 1a와 같이, 제1 모바일 단말(10)과 제3 모바일 단말(30)이 동일 네트워크(101)로 연결 가능한 경우, 제1 모바일 단말(10)의 작업 요청 전송부(13)는 제3 모바일 단말(20)로 제3 작업 요청을 전송하고, 작업 결과 수신부(14)는 제3 모바일 단말(20)로부터 제3 작업의 수행 결과 데이터를 수신할 수 있다. 한편, 도1b와 같이, 제1 모바일 단말(10)과 제3 모바일 단말(30)이 동일 네트워크로 연결 가능하지 않은 경우, 제3 모바일 단말(30)은 서버 단말(1)로부터 제3 작업 요청을 수신하고, 제3 작업의 수행 결과 결과 데이터를 서버 단말(1)로 전송할 수 있다.The work
또한, 작업 요청 전송부(13)는 도1a와 같이, 제2 모바일 단말(20)과 제3 모바일 단말(30)이 제1 모바일 단말(10)과 동일 네트워크(101)로 연결 가능한 상태인 경우, 제1 모바일 단말(10)의 작업 요청 전송부(13)는 전송하고자 하는 작업의 속성과 작업을 수신하는 모바일 단말의 속성을 고려하여 작업 요청을 전송할 수 있다.When the second
다시 말해, 작업 요청 전송부(13)가 제1 작업 요청을 제2 모바일 단말(20)로 전송하고, 제3 작업 요청을 제3 모바일 단말(30)로 전송할지 여부는 해당 작업의 속성(예를 들어, 데이터 크기, 필요 프로세서 등)과 모바일 단말의 속성(예를 들어, 모바일 단말의 성능, 구비하고 있는 프로세서, 모바일 단말 간의 동종/이종 여부 등)에 기초하여 결정될 수 있다.In other words, whether or not the job
도 2에 일예로 도시된 제1 모바일 단말(10)의 개략적인 구성은 제1 모바일 단말(10)에만 적용되는 것이 아니고, 다른 모바일 단말들, 즉 제2 모바일 단말(20) 내지 제5 모바일 단말(50)에도 동일하게 적용될 수 있다.The schematic configuration of the first
이러한 본원의 일 실시예에 따른 딥러닝 수행 시스템(100)은 복수의 모바일 단말(10, 20, 30, 40, 50 등) 각각에 멀티 스레드를 적용하여 분산 처리 시스템을 구현할 수 있다. 이때, 복수의 모바일 단말 각각마다 프로세서가 상이할 수 있다.The deep
또한, 앞서 설명한 바와 같이, 본원의 일 실시예에 따른 딥러닝 수행 시스템(100)에서 복수의 모바일 단말은 마스터와 슬레이브 구조로 형성될 수 있다. 도 1a와 같은 경우, 제1 모바일 단말(10)이 마스터이고, 제2 모바일 단말(20) 내지 제5 모바일 단말(50)이 슬레이브일 수 있다. 딥러닝 수행 시스템(100)의 마스터 단말은 슬레이브 단말인 제2 모바일 단말(20) 내지 제5 모바일 단말(50)의 리소스를 활용하여 데이터를 수집할 수 있다. 또한, 마스터 단말인 제1 모바일 단말(10)은 슬레이브 단말을 학습시켜 슬레이브 단말들로부터 학습된 데이터를 수집할 수 있다. 마스터 단말인 제1 모바일 단말(10)은 자신이 필요한 정보, 업무(task) 지정 관련 요청(즉, 작업 요청) 및 명령 등을 슬레이브 단말로 전송한 후, 슬레이브 단말로부터 상기 요청 및 명령에 대응하는 데이터(즉, 작업 수행 결과 데이터, 학습된 데이터)를 수신할 수 있다.Also, as described above, in the deep
달리 표현하여, 본원의 일 실시예에 따른 딥러닝 수행 시스템(100)은 복수의 모바일 단말을 통해, 훈련 데이터를 분열 및 분열된 데이터를 병렬처리할 수 있다. 이때, 복수의 단말 각각은 하나의 모델을 수행할 수 있다. 본원의 일 실시예에 따르면, 제1 모바일 단말(10)은 처리할 데이터를 제공하는 서버, 즉 서버 단말(1)일 수 있고, 나머지 제2 모바일 단말(20) 내지 제5 모바일 단말(50)은 제1 모바일 단말(10)이 제공한 작업(task)을 수행하는 클라이언트(client)일 수 있다. 이러한 구조를 통해 본원의 일 실시예에 따른 딥러닝 수행 시스템(100)은 모바일 단말기로 효율적인 광역 딥러닝 구조를 구축할 수 있다.In other words, the deep
이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, the operation flow of the present invention will be briefly described based on the details described above.
도 4는 본원의 일 실시예에 따른 딥러닝 수행 방법에 대한 개략적인 동작 흐름도이다.4 is a schematic operation flow diagram of a method of performing deep-run according to an embodiment of the present invention.
도 4에 도시된 딥러닝 수행 방법은 앞서 설명된 딥러닝 수행 시스템(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 앞서 설명된 딥러닝 수행 시스템(100)에 대하여 설명된 내용은 도 4에도 동일하게 적용될 수 있다.4 can be performed by the deep-running
도 4를 참조하면, 본원의 일 실시예에 따른 모바일 네트워크 환경에서의 딥러닝(Deep Learning) 수행 방법은, 단계S410에서 제1모바일 단말(10)이 복수의 작업에 대응하는 복수의 작업 요청을 생성하고, 복수의 작업 요청 중 제1작업 요청을 제2모바일 단말(20)로 전송할 수 있다. Referring to FIG. 4, a method of performing Deep Learning in a mobile network environment according to an embodiment of the present invention includes the steps of, in step S410, determining whether a first
다음으로, 단계S420에서는 제2모바일 단말(20)이 제1모바일 단말(10)로부터 제1작업 요청을 수신하고, 제1작업 요청에 대응하는 제1작업을 수행하여 제1작업의 수행 결과 데이터를 제1모바일 단말(10)로 전송할 수 있다.Next, in step S420, the second
다음으로, 단계S430에서는 제1모바일 단말(10)이 복수의 작업 중 제2작업을 수행할 수 있다. 이때, 제2작업은 제1작업의 수행 결과 데이터에 종속되거나 병렬처리 될 수 있다.Next, in step S430, the first
다음으로, 단계S440에서는 제3모바일 단말(30)이 복수의 작업 요청 중 제3작업 요청을 수신하고, 제3작업 요청에 대응하는 제3작업을 수행하여 제3작업의 수행 결과 데이터를 전송할 수 있다.Next, in step S440, the third
이때, 단계S440에서는, 제1모바일 단말(10)과 제3모바일 단말(30) 간의 네트워크 환경에 따라, 제3모바일 단말(30)이 제3작업 요청을 제1모바일 단말(10) 또는 서버 단말(1) 중 어느 하나로부터 수신하고, 제3작업의 수행 결과 데이터를 제1모바일 단말(10) 또는 서버 단말(1) 중 어느 하나로 전송할 수 있다.At this time, in step S440, the third
상술한 설명에서, 단계 S410 내지 S440은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있으며, 동시에 수행될 수도 있다.In the above description, steps S410 to S440 may be further divided into further steps or combined into fewer steps, according to embodiments of the present disclosure. In addition, some of the steps may be omitted as necessary, the order of the steps may be changed, or may be performed at the same time.
본원의 일 실시 예에 따른 딥러닝 수행 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The deep learning method according to an exemplary embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and configured for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
또한, 전술한 딥러닝 수행 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.Furthermore, the above-described method of conducting deep-processing can also be implemented in the form of a computer program or an application executed by a computer stored in a recording medium.
전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those of ordinary skill in the art that the foregoing description of the embodiments is for illustrative purposes and that those skilled in the art can easily modify the invention without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.
본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included within the scope of the present invention.
100: 딥러닝 수행 시스템
10, 20, 30, 40, 50: 모바일 단말100: Deep running system
10, 20, 30, 40, 50: mobile terminal
Claims (17)
복수의 작업에 대응하는 복수의 작업 요청을 생성하고, 상기 복수의 작업 요청 중 제1작업 요청을 전송하는 제1모바일 단말; 및
상기 제1모바일 단말로부터 상기 제1작업 요청을 수신하고, 상기 제1작업 요청에 대응하는 제1작업을 수행하여 상기 제1작업의 수행 결과 데이터를 상기 제1모바일 단말로 전송하는 제2모바일 단말,
을 포함하는 딥러닝 수행 시스템.1. A system for performing Deep Learning in a mobile network environment,
A first mobile terminal for generating a plurality of job requests corresponding to a plurality of jobs and transmitting a first job request among the plurality of job requests; And
A second mobile terminal for receiving the first job request from the first mobile terminal, performing a first job corresponding to the first job request and transmitting the resultant data of the first job to the first mobile terminal, ,
The deep running performance system comprising:
상기 제1모바일 단말은 상기 복수의 작업 중 제2작업을 수행하고,
상기 제2작업은 상기 제1작업의 수행 결과 데이터에 종속되거나 상기 제1작업과 병렬처리 되는 것인, 딥러닝 수행 시스템.The method according to claim 1,
Wherein the first mobile terminal performs a second one of the plurality of operations,
Wherein the second job is dependent on data of a result of performing the first job or is processed in parallel with the first job.
상기 제1모바일 단말은 상기 복수의 작업 중 제2작업을 수행하고,
상기 딥러닝 수행 시스템은,
상기 제1모바일 단말로부터 상기 제1작업의 수행 결과 데이터 및 상기 제2작업의 수행 결과 데이터를 수신하는 서버 단말,
을 더 포함하는 것인, 딥러닝 수행 시스템.The method according to claim 1,
Wherein the first mobile terminal performs a second one of the plurality of operations,
The deep-running performing system includes:
A server terminal for receiving the execution result data of the first job and the execution result data of the second job from the first mobile terminal,
Further comprising: < RTI ID = 0.0 > a < / RTI >
상기 복수의 작업 요청 중 제3작업 요청을 수신하고, 상기 제3작업 요청에 대응하는 제3작업을 수행하여 상기 제3작업의 수행 결과 데이터를 전송하는 제3모바일 단말,
을 더 포함하는 딥러닝 수행 시스템.The method of claim 3,
A third mobile terminal for receiving a third job request among the plurality of job requests, performing a third job corresponding to the third job request and transmitting result data of the third job,
Further comprising:
상기 제1모바일 단말과 상기 제3모바일 단말 간의 네트워크 환경에 따라 상기 제3모바일 단말은 상기 제3작업 요청을 상기 제1모바일 단말 또는 상기 서버 단말 중 어느 하나로부터 수신하고, 상기 제3작업의 수행 결과 데이터를 상기 제1모바일 단말 또는 상기 서버 단말 중 어느 하나로 전송하는 것인, 딥러닝 수행 시스템.5. The method of claim 4,
Wherein the third mobile terminal receives the third task request from either the first mobile terminal or the server terminal according to a network environment between the first mobile terminal and the third mobile terminal, And transmits result data to either the first mobile terminal or the server terminal.
상기 제1모바일 단말과 상기 제3모바일 단말이 동일 와이파이(wi-fi) 네트워크 또는 블루투스(Bluetooth) 네트워크로 연결 가능한 경우, 상기 제3모바일 단말은 상기 제3작업 요청을 상기 제1모바일 단말로부터 수신하고, 상기 제3작업의 수행 결과 데이터를 상기 제1모바일 단말로 전송하는 것인, 딥러닝 수행 시스템.6. The method of claim 5,
When the first mobile terminal and the third mobile terminal are connectable via the same Wi-Fi network or a Bluetooth network, the third mobile terminal receives the third operation request from the first mobile terminal And transmits the resultant data of the third operation to the first mobile terminal.
상기 제1모바일 단말과 상기 제3모바일 단말이 동일 와이파이(wi-fi) 네트워크 또는 블루투스(Bluetooth) 네트워크로 연결 가능하지 않은 경우, 상기 제3모바일 단말은 상기 제3작업 요청을 상기 서버 단말로부터 수신하고, 상기 제3작업의 수행 결과 데이터를 상기 서버 단말로 전송하는 것인, 딥러닝 수행 시스템.6. The method of claim 5,
When the first mobile terminal and the third mobile terminal can not be connected to the same Wi-Fi network or Bluetooth network, the third mobile terminal receives the third operation request from the server terminal And transmits the resultant data of the third operation to the server terminal.
상기 제1모바일 단말은 상기 복수의 작업 각각을 수행하기 위한 복수의 프로세서(processor)를 포함하는 것인, 딥러닝 수행 시스템. The method according to claim 1,
Wherein the first mobile terminal comprises a plurality of processors for performing each of the plurality of tasks.
상기 제2모바일 단말은 상기 제1작업의 수행에 필요한 복수의 서브(sub)-작업 요청을 생성하고, 상기 복수의 서브-작업 요청 중 제1서브 작업 요청을 전송하고,
상기 딥러닝 수행 시스템은,
상기 제2모바일 단말로부터 상기 제1서브 작업 요청을 수신하고, 상기 제1서브 작업 요청에 대응하는 제1서브 작업을 수행하여 상기 제1서브 작업의 수행 결과 데이터를 상기 제2모바일 단말로 전송하는 제4모바일 단말,
을 더 포함하는 딥러닝 수행 시스템.The method according to claim 1,
Wherein the second mobile terminal generates a plurality of sub-task requests necessary for performing the first task, transmits a first sub-task request of the plurality of sub-task requests,
The deep-running performing system includes:
Receiving the first sub-work request from the second mobile terminal, performing a first sub-task corresponding to the first sub-work request, and transmitting execution result data of the first sub-task to the second mobile terminal The fourth mobile terminal,
Further comprising:
(a) 제1모바일 단말이 복수의 작업에 대응하는 복수의 작업 요청을 생성하고, 상기 복수의 작업 요청 중 제1작업 요청을 전송하는 단계; 및
(b) 제2모바일 단말이 상기 제1모바일 단말로부터 상기 제1작업 요청을 수신하고, 상기 제1작업 요청에 대응하는 제1작업을 수행하여 상기 제1작업의 수행 결과 데이터를 상기 제1모바일 단말로 전송하는 단계,
를 포함하는 딥러닝 수행 방법.A method for performing Deep Learning in a mobile network environment,
(a) generating a plurality of job requests corresponding to a plurality of jobs by a first mobile terminal, and transmitting a first one of the plurality of job requests; And
(b) a second mobile terminal receives the first job request from the first mobile terminal, performs a first job corresponding to the first job request, and transmits execution result data of the first job to the first mobile terminal Transmitting to the terminal,
Gt;
(c) 상기 제1모바일 단말이 상기 복수의 작업 중 제2작업을 수행하는 단계,
를 더 포함하고,
상기 제2작업은 상기 제1작업의 수행 결과 데이터에 종속되거나 병렬처리 되는 것인, 딥러닝 수행 방법.11. The method of claim 10,
(c) the first mobile terminal performing a second one of the plurality of tasks,
Further comprising:
Wherein the second job is dependent on or is processed in parallel with the result data of the execution of the first job.
(d) 제3모바일 단말이 상기 복수의 작업 요청 중 제3작업 요청을 수신하고, 상기 제3작업 요청에 대응하는 제3작업을 수행하여 상기 제3작업의 수행 결과 데이터를 전송하는 단계,
를 더 포함하는 딥러닝 수행 방법.12. The method of claim 11,
(d) receiving a third job request among the plurality of job requests, performing a third job corresponding to the third job request, and transmitting performance result data of the third job,
Further comprising the step of:
상기 (d) 단계에서,
상기 제1모바일 단말과 상기 제3모바일 단말 간의 네트워크 환경에 따라, 상기 제3모바일 단말은 상기 제3작업 요청을 상기 제1모바일 단말 또는 서버 단말 중 어느 하나로부터 수신하고, 상기 제3작업의 수행 결과 데이터를 상기 제1모바일 단말 또는 상기 서버 단말 중 어느 하나로 전송하는 것인, 딥러닝 수행 방법.13. The method of claim 12,
In the step (d)
Wherein the third mobile terminal receives the third task request from any one of the first mobile terminal or the server terminal according to a network environment between the first mobile terminal and the third mobile terminal, And transmits result data to either the first mobile terminal or the server terminal.
복수의 작업 각각을 수행하기 위한 복수의 프로세서;
상기 복수의 작업에 대응하는 복수의 작업 요청을 생성하는 작업 요청 생성부;
상기 복수의 작업 요청 중 제1작업 요청을 제2모바일 단말에 전송하는 작업 요청 전송부; 및
상기 제2모바일 단말로부터 상기 제1작업 요청에 대응하는 제1작업의 수행 결과 데이터를 수신하는 작업 결과 수신부,
를 포함하는 제1모바일 단말.1. A first mobile terminal for performing Deep Learning in a mobile network environment,
A plurality of processors for performing each of a plurality of jobs;
A job request generating unit for generating a plurality of job requests corresponding to the plurality of jobs;
A job request transmitting unit for transmitting a first job request among the plurality of job requests to a second mobile terminal; And
A task result receiver for receiving performance result data of a first task corresponding to the first task request from the second mobile terminal,
And a second mobile terminal.
상기 복수의 프로세서는 상기 제1작업을 수행하는 제1프로세서 및 상기 복수의 작업 중 제2작업을 수행하는 제2프로세서를 포함하고,
상기 제1프로세서의 작업 수행 결과는 상기 제2모바일 단말로부터 수신한 상기 제1작업의 수행 결과 데이터에 의해 대체 가능하고,
상기 제2작업은 상기 제1작업의 수행 결과 데이터에 종속되거나 병렬처리 되는 것인, 제1모바일 단말.15. The method of claim 14,
Wherein the plurality of processors include a first processor that performs the first task and a second processor that performs a second task of the plurality of tasks,
Wherein the job execution result of the first processor is replaceable by the execution result data of the first job received from the second mobile terminal,
Wherein the second job is dependent or parallel to the result data of the first job.
상기 제1모바일 단말과 상기 제2모바일 단말 간의 네트워크 환경 상태를 판단하는 통신부,
를 더 포함하고,
상기 통신부의 판단 결과, 상기 제1모바일 단말과 상기 제2모바일 단말이 동일 와이파이(wi-fi) 네트워크 또는 블루투스(Bluetooth) 네트워크로 연결 가능한 경우, 상기 작업 요청 전송부는 상기 제1작업 요청을 적어도 제2모바일 단말에 전송하고, 상기 작업 결과 수신부는 상기 제2모바일 단말로부터 상기 제1작업 요청에 대응하는 제1작업의 수행 결과 데이터를 수신하는 것인, 제1모바일 단말.15. The method of claim 14,
A communication unit for determining a network environment state between the first mobile terminal and the second mobile terminal,
Further comprising:
If it is determined that the first mobile terminal and the second mobile terminal can be connected to the same Wi-Fi network or a Bluetooth network as a result of the determination, 2 mobile terminal, and the operation result receiving unit receives the execution result data of the first operation corresponding to the first operation request from the second mobile terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160061404A KR101818936B1 (en) | 2016-05-19 | 2016-05-19 | System and method for performing deep learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160061404A KR101818936B1 (en) | 2016-05-19 | 2016-05-19 | System and method for performing deep learning |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170130775A true KR20170130775A (en) | 2017-11-29 |
KR101818936B1 KR101818936B1 (en) | 2018-01-17 |
Family
ID=60812223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160061404A KR101818936B1 (en) | 2016-05-19 | 2016-05-19 | System and method for performing deep learning |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101818936B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190072900A (en) | 2017-12-18 | 2019-06-26 | 한밭대학교 산학협력단 | Apparatus and method for wireless location using deep learning |
KR20190082645A (en) | 2017-12-31 | 2019-07-10 | 주식회사 포스코아이씨티 | Artificial intelligence system for real-time training and calling and processing method thereof |
KR20190109658A (en) | 2018-03-08 | 2019-09-26 | 주식회사 에스엘이노베이션스 | Marketing promotion system and method of combined fin-tech using Distributed Deep Learning |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200009435A (en) | 2018-07-19 | 2020-01-30 | 삼성전자주식회사 | Method of managing data representation for deep learning, method of processing data for deep learning and deep learning system performing the same |
-
2016
- 2016-05-19 KR KR1020160061404A patent/KR101818936B1/en active IP Right Grant
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190072900A (en) | 2017-12-18 | 2019-06-26 | 한밭대학교 산학협력단 | Apparatus and method for wireless location using deep learning |
KR20190082645A (en) | 2017-12-31 | 2019-07-10 | 주식회사 포스코아이씨티 | Artificial intelligence system for real-time training and calling and processing method thereof |
KR20190109658A (en) | 2018-03-08 | 2019-09-26 | 주식회사 에스엘이노베이션스 | Marketing promotion system and method of combined fin-tech using Distributed Deep Learning |
Also Published As
Publication number | Publication date |
---|---|
KR101818936B1 (en) | 2018-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Imitation learning enabled task scheduling for online vehicular edge computing | |
Hou et al. | Reliable computation offloading for edge-computing-enabled software-defined IoV | |
Luo et al. | Resource scheduling in edge computing: A survey | |
Xu et al. | Intelligent offloading for collaborative smart city services in edge computing | |
Ai et al. | Edge computing technologies for Internet of Things: a primer | |
Tang et al. | An offloading method using decentralized P2P-enabled mobile edge servers in edge computing | |
EP2994831B1 (en) | Method and apparatus for the virtualization of resources using a virtualization broker and context information | |
Aazam et al. | Cloud of things (CoT): cloud-fog-IoT task offloading for sustainable internet of things | |
KR101818936B1 (en) | System and method for performing deep learning | |
Waheed et al. | A comprehensive review of computing paradigms, enabling computation offloading and task execution in vehicular networks | |
WO2017106110A1 (en) | Publish-subscribe message transformation | |
Giang et al. | On building smart city IoT applications: a coordination-based perspective | |
Dou et al. | Blockchain-based mobility-aware offloading mechanism for fog computing services | |
Ergen et al. | Edge on wheels with OMNIBUS networking for 6G technology | |
Nkenyereye et al. | Software-defined vehicular cloud networks: architecture, applications and virtual machine migration | |
Li et al. | Integrating NFV and ICN for advanced driver-assistance systems | |
Xu et al. | Design of oneM2M-based fog computing architecture | |
Namiot et al. | On open source mobile sensing | |
Young et al. | Dynamic collaboration of centralized & edge processing for coordinated data management in an IoT paradigm | |
Phung et al. | onevfc—a vehicular fog computation platform for artificial intelligence in internet of vehicles | |
Gaurav et al. | A survey on computation resource allocation in IoT enabled vehicular edge computing | |
Whaiduzzaman et al. | Pefc: Performance enhancement framework for cloudlet in mobile cloud computing | |
Zhou et al. | Computing offloading strategy in mobile edge computing environment: A comparison between adopted frameworks, challenges, and future directions | |
Danba et al. | Toward collaborative intelligence in IoV systems: Recent advances and open issues | |
CN107360235A (en) | A kind of task immigration method based on reliability classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |