KR20200038775A - Method and apparatus for learning neural network using multi channel image - Google Patents

Method and apparatus for learning neural network using multi channel image Download PDF

Info

Publication number
KR20200038775A
KR20200038775A KR1020180118416A KR20180118416A KR20200038775A KR 20200038775 A KR20200038775 A KR 20200038775A KR 1020180118416 A KR1020180118416 A KR 1020180118416A KR 20180118416 A KR20180118416 A KR 20180118416A KR 20200038775 A KR20200038775 A KR 20200038775A
Authority
KR
South Korea
Prior art keywords
neural network
artificial neural
learning
image
combined image
Prior art date
Application number
KR1020180118416A
Other languages
Korean (ko)
Other versions
KR102273334B1 (en
Inventor
이준목
추연학
윤기욱
Original Assignee
라온피플 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라온피플 주식회사 filed Critical 라온피플 주식회사
Priority to KR1020180118416A priority Critical patent/KR102273334B1/en
Publication of KR20200038775A publication Critical patent/KR20200038775A/en
Application granted granted Critical
Publication of KR102273334B1 publication Critical patent/KR102273334B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

Provided are a method and a device for training an artificial neural network by using a multi-channel image. The device for training an artificial neural network by using a multi-channel image can comprise: a control part that merges at least one training image used in training an artificial neural network, and trains the artificial neural network based on the generated merged image; and a memory storing the at least one training image.

Description

다 채널 이미지를 이용한 인공신경망 학습 방법 및 장치{METHOD AND APPARATUS FOR LEARNING NEURAL NETWORK USING MULTI CHANNEL IMAGE}METHOD AND APPARATUS FOR LEARNING NEURAL NETWORK USING MULTI CHANNEL IMAGE}

본 명세서에서 개시되는 실시예들은 다 채널 이미지를 이용한 인공신경망 학습 방법 및 장치에 관한 것으로, 보다 상세하게는 다수의 이미지를 하나의 다 채널 이미지로 결합하여 인공신경망에 학습하는 방법 및 장치에 관한 것이다.Embodiments disclosed herein relates to a method and apparatus for learning an artificial neural network using a multi-channel image, and more particularly, to a method and apparatus for learning an artificial neural network by combining a plurality of images into one multi-channel image. .

최근 들어 컴퓨팅 기술의 발전에 따라 인공신경망의 기술이 발전하였으며, 인공신경망을 다양한 분야에서 응용하고 있다.Recently, with the development of computing technology, the technology of artificial neural networks has been developed, and artificial neural networks are applied in various fields.

기존 제조업부분에서 제품의 생산라인에서 불량을 찾기 위해 사람이 직접 불량을 판단하였으나, 인공신경망을 이용한 머신비전을 이용하여 제품의 불량여부를 판단하는 기술이 발전하고 있다. In the existing manufacturing sector, a person directly judged a defect in order to find a defect in the product production line, but a technique for determining whether a product is defective is developed using machine vision using an artificial neural network.

이를 위해, 같은 물건을 동일한 위치에서 광학조건(조명, 초점 거리 등)을 바꿔가면서 촬영하여 특수한 광학 조건에서만 나타나는 특징(스크래치, 얼룩 등)을 찾아내도록 이미지를 생성하고, 생성된 여러 장의 이미지를 이용하여 인공신경망을 학습시켜야 한다. To this end, the same object is photographed while changing the optical conditions (lighting, focal length, etc.) at the same location to create an image that finds features (scratches, stains, etc.) that appear only in special optical conditions, and uses the generated multiple images You have to learn artificial neural networks.

이때, 인공신경망에 대해 다양한 이미지를 통해 특징을 인식시키기 위해서는 광학조건에 따라 인공신경망에 이미지를 학습시켜 결과를 취합해야 한다.At this time, in order to recognize the features of the artificial neural network through various images, it is necessary to collect images by learning the images in the artificial neural network according to optical conditions.

하지만, 이러한 방법은 여러 개의 인공신경망을 학습시키는데 많은 시간이 걸리는 문제점이 있으며, 여러 개의 인공신경망을 동시에 동작시켜야 하므로 컴퓨팅 파워가 기하급수적으로 높아지는 문제점이 있다.However, this method has a problem in that it takes a lot of time to learn several artificial neural networks, and there is a problem in that computing power increases exponentially because several artificial neural networks must be operated simultaneously.

또한, 각각의 인공신경망의 학습 결과를 분석하고 최종적인 결과로 어떻게 취합할 것인지 결정하는데 많은 시간이 필요하다는 문제점이 있다.In addition, there is a problem that it takes a lot of time to analyze the learning results of each artificial neural network and decide how to collect them as a final result.

관련하여 선행기술 문헌인 한국특허공개번호 제10-2000-0087346 호는 인터넷 인공지능 학습 및 관리 방법에 관한 것으로 특히 인터넷을 통하여 선생과 학습자를 등록시키고 선생은 사용하고자 하는 문제출제와 시험문제를 만들어 사용할 수 있으며, 학습자는 문제데이터 베이스에 수록된 문제를 출제받아 학습하고 그 학습 결과를 정밀하게 평가받은 내용을 얻을 뿐, 상술된 문제점을 해결할 수 없다. In relation to this, Korean Patent Publication No. 10-2000-0087346, which is a prior art document, relates to a method for learning and managing artificial intelligence of the Internet, and in particular, registers teachers and learners through the Internet, and the teacher creates questions and test questions to be used. It can be used, and the learner receives the questions contained in the problem database and learns them, and only obtains the contents that have been accurately evaluated the learning results, and cannot solve the above-mentioned problems.

따라서 상술된 문제점을 해결하기 위한 기술이 필요하게 되었다.Therefore, a technique for solving the above-described problems is needed.

한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.On the other hand, the above-mentioned background technology is the technical information acquired by the inventor for the derivation of the present invention or acquired in the derivation process of the present invention, and is not necessarily a known technology disclosed to the general public before filing the present invention. .

본 명세서에서 개시되는 실시예들은, 다 채널 이미지를 이용한 인공신경망을 학습하는 방법 및 장치를 제시하는데 목적이 있다.The embodiments disclosed herein have an object to provide a method and apparatus for learning an artificial neural network using a multi-channel image.

본 명세서에서 개시되는 실시예들은, 다수의 학습 이미지를 하나의 다 채널이미지로 취합하는 인공신경망을 학습하는 방법 및 장치를 제시하는데 목적이 있다. The embodiments disclosed herein have an object to provide a method and apparatus for learning an artificial neural network that aggregates multiple learning images into a single multi-channel image.

본 명세서에서 개시되는 실시예들은, 학습 이미지의 다양한 채널의 특징을 자동으로 학습하는 인공신경망을 학습하는 방법 및 장치를 제시하는데 목적이 있다.  The embodiments disclosed herein have an object to present a method and apparatus for learning an artificial neural network that automatically learns characteristics of various channels of a learning image.

본 명세서에서 개시되는 실시예들은, 선행 학습시에 사용된 이미지의 차원과 추가 학습 시에 이용되는 이미지의 차원이 상이하여도 선행 학습된 인공신경망의 파라미터를 추가 학습 시에 이용되는 이미지의 차원에 맞도록 제어하여 학습을 수행하는 인공신경망을 학습하는 방법 및 장치를 제시하는데 목적이 있다. In the embodiments disclosed in the present specification, even if a dimension of an image used in prior learning differs from a dimension of an image used in additional learning, the parameters of the pre-trained artificial neural network are set to the dimension of the image used in additional learning. It is an object of the present invention to provide a method and apparatus for learning an artificial neural network that performs learning by controlling to fit.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시예에 따르면, 다 채널 이미지를 이용한 인공신경망 학습 장치에 있어서, 상기 인공신경망의 학습에 이용되는 적어도 하나의 학습이미지를 병합하여 결합이미지를 생성하고, 생성된 결합이미지를 기초로 상기 인공신경망을 학습시키는 제어부 및 상기 적어도 하나의 학습이미지를 저장하는 메모리를 포함할 수 있다. As a technical means for achieving the above-described technical problem, according to an embodiment, in an artificial neural network learning apparatus using a multi-channel image, a combined image is generated by merging at least one learning image used for learning of the artificial neural network. And, based on the generated combined image may include a control unit for learning the artificial neural network and a memory for storing the at least one learning image.

다른 실시예에 따르면, 인공신경망학습장치가 다 채널 이미지를 이용한 인공신경망을 학습시키는 방법에 있어서, 상기 인공신경망의 학습에 이용되는 적어도 하나의 학습이미지를 병합하여 결합이미지를 생성하는 단계 및 생성된 결합이미지를 기초로 상기 인공신경망을 학습시키는 단계를 포함할 수 있다. According to another embodiment, in a method for an artificial neural network learning apparatus to learn an artificial neural network using a multi-channel image, generating a combined image by merging at least one learning image used for learning the artificial neural network And learning the artificial neural network based on the combined image.

또 다른 실시예에 따르면, 인공신경망학습방법을 수행하는 프로그램이 기록된 컴퓨터 판독이 가능한 기록매체로서, 상기 인공신경망의 학습에 이용되는 적어도 하나의 학습이미지를 병합하여 결합이미지를 생성하는 단계 및 생성된 결합이미지를 기초로 상기 인공신경망을 학습시키는 단계를 포함할 수 있다.According to another embodiment, a computer-readable recording medium in which a program for performing an artificial neural network learning method is recorded, generating and combining a combined image by combining at least one learning image used for learning the artificial neural network And learning the artificial neural network based on the combined image.

다른 실시예에 따르면, 인공신경망학습장치에 의해 수행되며, 인공신경망학습방법을 수행하기 위해 기록매체에 저장된 컴퓨터프로그램으로서, 상기 인공신경망의 학습에 이용되는 적어도 하나의 학습이미지를 병합하여 결합이미지를 생성하는 단계 및 생성된 결합이미지를 기초로 상기 인공신경망을 학습시키는 단계를 포함할 수 있다.According to another embodiment, a computer program performed by an artificial neural network learning apparatus and stored in a recording medium to perform an artificial neural network learning method, wherein at least one learning image used for learning the artificial neural network is merged to form a combined image. It may include a step of generating and learning the artificial neural network based on the generated combined image.

전술한 과제 해결 수단 중 어느 하나에 의하면, 다 채널 이미지를 이용한 인공신경망 학습 방법 및 장치를 제시할 수 있다. According to any one of the above-described problem solving means, an artificial neural network learning method and apparatus using a multi-channel image may be presented.

전술한 과제 해결 수단 중 어느 하나에 의하면, 다수의 학습 이미지를 하나의 다 채널이미지로 결합함으로써 각 이미지에 대한 데이터의 손실없이 인공신경망을 학습시킬 수 있는 인공신경망 학습 방법 및 장치를 제시할 수 있다. According to any one of the above-described problem solving means, by combining a plurality of learning images into a single multi-channel image, it is possible to present an artificial neural network learning method and apparatus capable of learning an artificial neural network without losing data for each image. .

전술한 과제 해결 수단 중 어느 하나에 의하면, 학습 이미지의 다양한 채널의 특징이 결합된 하나의 결합이미지를 통해 동시에 복수의 학습 이미지를 빠르게 학습이 가능한 인공신경망 학습 방법 및 장치를 제시할 수 있다. According to any one of the above-described problem solving means, it is possible to present an artificial neural network learning method and apparatus capable of rapidly learning a plurality of learning images simultaneously through one combined image combining characteristics of various channels of the learning image.

전술한 과제 해결 수단 중 어느 하나에 의하면, 선행 학습시에 사용된 이미지의 차원과 추가 학습 시에 이용되는 이미지의 차원이 상이하여도 선행 학습된 인공신경망의 파라미터를 제어하여 차원이 상이한 이미지의 학습이 가능한 인공신경망 학습 방법 및 장치를 제시할 수 있다. According to any one of the above-described problem solving means, even if the dimension of the image used in the prior learning and the dimension of the image used in the additional learning are different, the parameters of the pre-trained artificial neural network are controlled to learn images having different dimensions. This possible artificial neural network learning method and apparatus can be presented.

개시되는 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 개시되는 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtained in the disclosed embodiments are not limited to the above-mentioned effects, and other effects not mentioned are apparent to those skilled in the art to which the embodiments disclosed from the following description belong. It can be understood.

도 1은 일 실시예에 따른 인공신경망학습장치를 도시한 블록도이다.
도 2는 일 실시예에 따른 인공신경망학습방법을 설명하기 위한 순서도이다.
1 is a block diagram showing an artificial neural network learning apparatus according to an embodiment.
2 is a flow chart for explaining an artificial neural network learning method according to an embodiment.

아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고, 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, various embodiments will be described in detail with reference to the accompanying drawings. The embodiments described below may be embodied in various different forms. In order to more clearly describe the features of the embodiments, detailed descriptions of the matters well known to those skilled in the art to which the following embodiments pertain are omitted. In the drawings, parts irrelevant to the description of the embodiments are omitted, and like reference numerals are assigned to similar parts throughout the specification.

명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 ‘직접적으로 연결’되어 있는 경우뿐 아니라, ‘그 중간에 다른 구성을 사이에 두고 연결’되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.Throughout the specification, when a component is "connected" to another component, this includes not only "directly connected" but also "connected with other components in between". In addition, when a configuration is said to "include" a configuration, this means that unless otherwise stated, other configurations may be excluded and other configurations may be further included.

이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings.

다만 이를 설명하기에 앞서, 아래에서 사용되는 용어들의 의미를 먼저 정의한다. Before explaining this, however, the meanings of terms used below are defined first.

‘채널’은 이미지상의 각 픽셀의 벡터값을 구성하는 성분으로 각 픽셀은 성격에 따라 적어도 하나의 채널로 구성될 수 있다. 'Channel' is a component constituting the vector value of each pixel on the image, and each pixel may be composed of at least one channel according to characteristics.

‘인공신경망’은 생물 신경계의 고도의 정보처리기구를 공학적으로 모방해서 입력과 출력을 상호간에 상세히 관련지어 복잡한 제어를 하는 정보처리기술로 스위치나 각 센서 등에서 신호를 보내는 입력 레이어, 그 정보를 바탕으로 입력과 출력의 우선순위를 정하면서 상호관계를 조정하는 은닉 레이어, 이것을 바탕으로 필요한 제어량을 산출해서 출력하는 출력 레이어로 구성된 3종류의 뉴론(신경세포) 모델이 복수로 연결된 네트워크이다.'Artificial neural network' is an information processing technology that complexly controls inputs and outputs in detail by engineeringly imitating the advanced information processing mechanism of the biological nervous system, and based on the input layer that sends signals from switches or sensors. It is a network in which three types of neuron (neural cell) models are composed of a hidden layer that adjusts the mutual relationship while prioritizing inputs and outputs, and an output layer that calculates and outputs the necessary control amount based on this.

그리고 인공신경망을 구성하는 각 ‘레이어’는 적어도 하나의 ‘노드’로 구성될 수 있다. 그리고 각 레이어의 노드는 다음 레이어의 노드와의 연결관계를 형성할 수 있다.In addition, each 'layer' constituting the artificial neural network may be composed of at least one 'node'. And the nodes of each layer can form a connection relationship with the nodes of the next layer.

‘파라미터’는 인공신경망의 학습을 통해 결정되는 값으로 인공신경망을 구성하는 레이어 또는 노드의 연결관계가 제어될 수 있다.The 'parameter' is a value determined through learning of the artificial neural network, and a connection relationship between layers or nodes constituting the artificial neural network may be controlled.

한편, 이하에서 인공신경망은 사전에 학습이미지를 이용한 학습이 수행되어 파라미터 값이 결정된 것을 가정한다. Meanwhile, in the following description, it is assumed that the artificial neural network is determined by performing learning using a learning image in advance.

위에 정의한 용어 이외에 설명이 필요한 용어는 아래에서 각각 따로 설명한다.In addition to the terms defined above, terms that require explanation will be described separately below.

이하에서 설명할 인공신경망학습장치(10)는 예를 들어 머신 비전을 이용한 검사장치에 결합 또는 연결되어 획득된 이미지를 이용하여 물체를 검사하거나 측정할 수 있도록 인공신경망을 학습시킬 수 있다. The artificial neural network learning apparatus 10 to be described below may train an artificial neural network to inspect or measure an object using an image obtained by being coupled to or connected to an inspection device using, for example, a machine vision.

여기서 머신 비전이란, 물체를 검사하거나 측정하기 위해, 사람이 육안으로 판단하던 기존의 방식을 대신하여, 카메라(시각 인식), CPU, SW를 통해 산업을 자동화 시켜주는 것을 의미한다.Here, machine vision means to automate the industry through cameras (visual recognition), CPUs, and SWs, in order to inspect or measure objects, in place of existing methods that humans judge with the naked eye.

즉, 인공신경망학습장치(10)는 머신 비전용 카메라를 통해 획득된 이미지를 인공신경망이 인식할 수 있도록 적어도 하나의 학습 이미지를 이용하여 인공신경망을 학습시킬 수 있다. That is, the artificial neural network learning apparatus 10 may train the artificial neural network by using at least one learning image so that the artificial neural network can recognize the image acquired through the machine non-dedicated camera.

그리고 학습된 인공신경망은 카메라에 의해 획득된 이미지로부터 객체의 패턴(pattern)을 매칭하거나, 점, 선 또는 면을 피팅(fitting)하거나, 컬러를 구분하거나, 대상을 측정(gauging)하기도 하고, 로봇 가이드를 위해 위치정보를 제공하거나, 객체에 표시된 1D, 2D 바코드를 판독하거나 광학문자판독(OCR)을 수행하기도 한다. 이러한 과정을 통해 물체가 검사, 측정 또는 판독되어 산업의 자동화가 구현될 수 있다.And the learned artificial neural network matches the pattern of the object from the image acquired by the camera, fits points, lines or faces, distinguishes colors, or measures objects (gauging). It provides location information for guides, reads 1D and 2D barcodes displayed on objects, or performs optical character reading (OCR). Through this process, an object can be inspected, measured, or read to realize industrial automation.

도 1은 일 실시예에 따른 인공신경망학습장치(10)를 설명하기 위한 구성도이다.1 is a configuration diagram for explaining an artificial neural network learning apparatus 10 according to an embodiment.

인공신경망학습장치(10)은 네트워크(N)를 통해 원격지의 서버에 접속하거나, 타 단말 및 서버와 연결 가능한 컴퓨터나 휴대용 단말기, 텔레비전, 웨어러블 디바이스(Wearable Device) 등으로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop)등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), GSM(Global System for Mobile communications), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet), 스마트폰(Smart Phone), 모바일 WiMAX(Mobile Worldwide Interoperability for Microwave Access) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, 텔레비전은 IPTV(Internet Protocol Television), 인터넷 TV(Internet Television), 지상파 TV, 케이블 TV 등을 포함할 수 있다. 나아가 웨어러블 디바이스는 예를 들어, 시계, 안경, 액세서리, 의복, 신발 등 인체에 직접 착용 가능한 타입의 정보처리장치로서, 직접 또는 다른 정보처리장치를 통해 네트워크를 경유하여 원격지의 서버에 접속하거나 타 단말과 연결될 수 있다.The artificial neural network learning apparatus 10 may be embodied as a computer or a portable terminal, a television, a wearable device, or the like that connects to a remote server through a network N or connects to other terminals and servers. Here, the computer includes, for example, a laptop equipped with a web browser (WEB Browser), a desktop (desktop), a laptop (laptop), and the like, and the portable terminal is, for example, a wireless communication device that guarantees portability and mobility. , PCS (Personal Communication System), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), GSM (Global System for Mobile communications), IMT (International Mobile Telecommunication) -2000, CDMA (Code All kinds of handhelds such as Division Multiple Access (2000), W-Code Division Multiple Access (W-CDMA), Wireless Broadband Internet (Wibro), Smart Phone, Mobile Worldwide Interoperability for Microwave Access (WiMAX), etc. (Handheld) -based wireless communication device. In addition, the television may include Internet Protocol Television (IPTV), Internet Television (TV), terrestrial TV, and cable TV. Furthermore, the wearable device is a type of information processing device that can be directly worn on the human body, for example, a watch, glasses, accessories, clothing, shoes, etc., or connects to a remote server through a network directly or through another information processing device or other terminal. And can be connected.

도 1 을 참조하면, 일 실시예에 따른 인공신경망학습장치(10)는, 입출력부(110), 제어부(120), 통신부(130) 및 메모리(140)를 포함할 수 있다.Referring to FIG. 1, the artificial neural network learning apparatus 10 according to an embodiment may include an input / output unit 110, a control unit 120, a communication unit 130, and a memory 140.

입출력부(110)는 사용자로부터 입력을 수신하기 위한 입력부와, 작업의 수행 결과 또는 인공신경망학습장치(10)의 상태 등의 정보를 표시하기 위한 출력부를 포함할 수 있다. 예를 들어, 입출력부(110)는 사용자 입력을 수신하는 조작 패널(operation panel) 및 화면을 표시하는 디스플레이 패널(display panel) 등을 포함할 수 있다.The input / output unit 110 may include an input unit for receiving input from a user, and an output unit for displaying information such as a result of performing a task or a state of the artificial neural network learning apparatus 10. For example, the input / output unit 110 may include an operation panel for receiving user input, a display panel for displaying the screen, and the like.

구체적으로, 입력부는 키보드, 물리 버튼, 터치 스크린, 카메라 또는 마이크 등과 같이 다양한 형태의 사용자 입력을 수신할 수 있는 장치들을 포함할 수 있다. 또한, 출력부는 디스플레이 패널 또는 스피커 등을 포함할 수 있다. 다만, 이에 한정되지 않고 입출력부(110)는 다양한 입출력을 지원하는 구성을 포함할 수 있다.Specifically, the input unit may include devices capable of receiving various types of user input, such as a keyboard, a physical button, a touch screen, a camera, or a microphone. Also, the output unit may include a display panel or a speaker. However, the present invention is not limited thereto, and the input / output unit 110 may include a configuration supporting various input / output.

제어부(120)는 인공신경망학습장치(10)의 전체적인 동작을 제어하며, CPU 등과 같은 프로세서를 포함할 수 있다. 제어부(120)는 입출력부(110)를 통해 수신한 사용자 입력에 대응되는 동작을 수행하도록 인공신경망학습장치(10)에 포함된 다른 구성들을 제어할 수 있다.The control unit 120 controls the overall operation of the artificial neural network learning device 10, and may include a processor such as a CPU. The control unit 120 may control other components included in the artificial neural network learning apparatus 10 to perform an operation corresponding to a user input received through the input / output unit 110.

예를 들어, 제어부(120)는 메모리(140)에 저장된 프로그램을 실행시키거나, 메모리(140)에 저장된 파일을 읽어오거나, 새로운 파일을 메모리(140)에 저장할 수도 있다.For example, the controller 120 may execute a program stored in the memory 140, read a file stored in the memory 140, or store a new file in the memory 140.

이러한, 제어부(120)는 인공신경망의 학습에 이용되는 적어도 하나의 학습이미지를 병합하여 결합이미지를 생성할 수 있다. The controller 120 may generate a combined image by merging at least one learning image used for learning of an artificial neural network.

실시예에 따라 제어부(120)는 적어도 하나의 학습이미지가 포함된 파일에서 인공신경망에 학습시킬 적어도 하나의 학습이미지를 추출할 수 있다. According to an embodiment, the controller 120 may extract at least one learning image to be trained in the artificial neural network from a file including at least one learning image.

예를 들어, 제어부(120)는 복수의 학습이미지가 포함된 파일에서 사용자의 입력에 기초하여 학습이미지를 추출할 수 있고, 추출된 학습이미지의 개수와 각 학습이미지가 컬러(Color) 또는 그레이스케일(Grayscale) 인지 여부를 식별할 수 있다.For example, the controller 120 may extract a learning image from a file including a plurality of learning images based on user input, and the number of extracted learning images and each learning image may be color or grayscale. (Grayscale) can be identified.

그리고 실시예에 따라, 제어부(120)는 추출된 적어도 하나의 학습이미지의 채널 수를 식별할 수 있다. Also, according to an embodiment, the controller 120 may identify the number of channels of the extracted at least one learning image.

하나의 실시예에 따라, 적어도 하나의 학습이미지가 픽셀 포맷(pixel format)인 경우, 제어부(120)는 적어도 하나의 학습이미지 별로 각 학습이미지상의 픽셀값을 구성하는 채널 수를 식별할 수 있다. According to an embodiment, when at least one learning image is in a pixel format, the controller 120 may identify the number of channels constituting a pixel value on each learning image for each at least one training image.

예를 들어, 제어부(120)는 학습이미지상의 픽셀값을 기초로 학습이미지의 채널인 RGB 채널과 투명도를 나타내는 알파채널 등을 식별하여 학습이미지의 채널 수를 식별할 수 있다. For example, the controller 120 may identify the number of channels of the learning image by identifying an RGB channel, which is a channel of the learning image, and an alpha channel indicating transparency, based on the pixel values on the learning image.

다른 실시예에 따라, 적어도 하나의 학습이미지가 플래이너 포맷(planar format)인 경우, 제어부(120)는 적어도 하나의 학습이미지 별로 각 학습이미지의 플래이너의 수를 통해 채널 수를 식별할 수 있다. According to another embodiment, when the at least one learning image is in a planar format, the controller 120 may identify the number of channels through the number of planners of each learning image for each at least one training image.

예를 들어, 제어부(120)는 학습이미지상의 R채널의 플래이너, G채널이 플래이너와 B 채널의 플래이너를 식별할 수 있다. For example, the controller 120 may identify a planner of an R channel on a learning image, a planar of a G channel, and a planner of a B channel.

이때, 제어부(120)는 상술된 실시예의 이미지 포맷형식 외의 다른 이미지 포맷형식에 대해서도 채널의 수를 식별할 수 있다. 예를 들어, 제어부(120)는 이미지의 메타데이터에 기초하여 이미지의 포맷형식을 식별할 수 있고, 식별된 포맷형식에 따라 데이터를 구성하는 채널을 식별하여 학습이미지의 채널 수를 식별할 수 있다. At this time, the controller 120 may identify the number of channels for other image format formats other than the image format format of the above-described embodiment. For example, the controller 120 may identify the format format of the image based on the metadata of the image, and identify the channels constituting the data according to the identified format format, thereby identifying the number of channels of the learning image. .

이후, 제어부(120)는 적어도 하나의 학습이미지 각각의 채널을 병합하여 다 채널의 결합이미지를 생성할 수 있다. Thereafter, the controller 120 may generate a multi-channel combined image by merging each channel of at least one learning image.

예를 들어, 제어부(120)는 제 1 학습이미지상의 제 1 픽셀의 3개 채널 각각에 대한 값 (1, 4, 6) 과 제 2 학습이미지상의 제 1 픽셀의 3개 채널 각각에 대한 값 (5, 7, 10)을 병렬적으로 결합하여 6개의 채널에 대한 정보로 구성된 제 1 픽셀값 (1, 4, 6, 5, 7, 10)을 포함하는 결합이미지를 생성할 수 있다.For example, the controller 120 may have values (1, 4, 6) for each of the 3 channels of the first pixel on the first learning image and values for each of the 3 channels of the first pixel on the second learning image ( 5, 7, 10) can be combined in parallel to generate a combined image including first pixel values (1, 4, 6, 5, 7, 10) composed of information about 6 channels.

또는 예를 들어, 제어부(120)는 제 1 학습이미지의 R채널 플래이너와 제 2 학습이미지의 R채널 플래이너를 결합하여 하나의 R채널 플래이너를 포함하는 결합이미지를 생성할 수 있다.Alternatively, for example, the controller 120 may combine the R channel planner of the first learning image and the R channel planner of the second learning image to generate a combined image including one R channel planner.

이를 통해, 제어부(120)는 복수의 학습이미지 각각의 채널별 데이터가 손실되지 않은 결합이미지를 생성할 수 있다.Through this, the controller 120 may generate a combined image in which data for each channel of each of the plurality of learning images is not lost.

그리고 제어부(120)는 인공신경망에 결합이미지를 학습시킬 수 있으며, 실시예에 따라, 결합이미지의 채널 수에 따라 인공신경망을 재구성할 수 있다. In addition, the controller 120 may train the combined image to the artificial neural network, and according to an embodiment, may reconstruct the artificial neural network according to the number of channels of the combined image.

예를 들어, 제어부(120)는 인공신경망에 입력레이어에 입력가능한 채널의 수와 결합이미지의 채널 수를 비교하여 결합이미지가 입력가능하도록 인공신경망의 크기를 재구성할 수 있다.For example, the controller 120 may reconstruct the size of the artificial neural network so that the combined image can be input by comparing the number of channels input to the input layer with the artificial neural network and the number of channels of the combined image.

이때, 제어부(120)는 재구성 전 인공신경망의 기 설정된 파라미터를 재구성된 인공신경망에 이용할 수 있다. At this time, the controller 120 may use a preset parameter of the artificial neural network before reconstruction to the reconstructed artificial neural network.

예를 들어, 제어부(120)는 재구성 전 인공신경망의 기 설정된 파라미터를 재구성된 인공신경망과 대응되는 파라미터에 이용할 수 있으며, 기 설정된 파라미터와 대응되지 않은 추가 파라미터는 랜덤한 초기화 값을 입력할 수 있다. For example, the controller 120 may use a preset parameter of the artificial neural network before reconstruction for a parameter corresponding to the reconstructed artificial neural network, and additional parameters not corresponding to the preset parameter may input a random initialization value. .

그리고 제어부(120)는 재구성된 인공신경망에 결합이미지를 학습시킬 수 있으며, 결합이미지의 학습을 통해 상기 재구성된 인공신경망의 파라미터를 설정할 수 있다.In addition, the controller 120 may train the combined image on the reconstructed artificial neural network, and may set the parameters of the reconstructed artificial neural network through learning of the combined image.

예를 들어, 제어부(120)는 재구성된 인공신경망에 결합이미지를 입력할 수 있고, 결합이미지를 이용한 재구성된 인공신경망의 학습과정을 통해 재구성된 인공신경망의 파라미터 중 재구성 전 인공신경망의 기 설정된 파라미터를 갱신하거나 또는 추가 파라미터를 설정할 수 있다. For example, the controller 120 may input a combined image into the reconstructed artificial neural network, and among the parameters of the reconstructed artificial neural network through a learning process of the reconstructed artificial neural network using the combined image, a preset parameter of the artificial neural network before reconstruction. You can update or set additional parameters.

이를 통해, 기존 학습된 인공신경망을 재구성하여 추가로 학습을 시킴으로써 인공신경망의 모든 파라미터를 새롭게 설정하는 것이 아니어서 학습시간을 단축시킬 수 있다. Through this, it is possible to shorten the learning time by not reconfiguring all the parameters of the artificial neural network by reconfiguring the existing learned artificial neural network for further learning.

이후, 제어부(120)는 결합이미지가 학습된 인공신경망에 입력된 이미지를 인식할 수 있다. Thereafter, the controller 120 may recognize the image input to the artificial neural network where the combined image has been learned.

예를 들어, 인공신경망의 입력 채널 수가 이미지의 채널 수와 상이하면, 제어부(120)는 이미지 인식에 실패하였음을 알리는 에러메시지를 출력할 수 있다. For example, if the number of input channels of the artificial neural network is different from the number of channels of the image, the controller 120 may output an error message indicating that image recognition has failed.

또는 예를 들어, 인공신경망의 입력 채널 수가 이미지의 채널 수와 동일하면, 제어부(120)는 이미지를 인공신경망의 입력레이어에 채널 별로 데이터를 입력할 수 있고, 인공신경망에 의해 인식된 결과를 출력할 수 있다. Or, for example, if the number of input channels of the artificial neural network is the same as the number of channels of the image, the controller 120 may input data for each channel into the input layer of the artificial neural network, and output a result recognized by the artificial neural network. can do.

통신부(130)는 다른 디바이스 또는 네트워크와 유무선 통신을 수행할 수 있다. 이를 위해, 통신부(130)는 다양한 유무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들어, 통신 모듈은 칩셋(chipset)의 형태로 구현될 수 있다.The communication unit 130 may perform wired / wireless communication with other devices or networks. To this end, the communication unit 130 may include a communication module supporting at least one of various wired and wireless communication methods. For example, the communication module may be implemented in the form of a chipset.

통신부(130)가 지원하는 무선 통신은, 예를 들어 Wi-Fi(Wireless Fidelity), Wi-Fi Direct, 블루투스(Bluetooth), UWB(Ultra Wide Band) 또는 NFC(Near Field Communication) 등일 수 있다. 또한, 통신부(130)가 지원하는 유선 통신은, 예를 들어 USB 또는 HDMI(High Definition Multimedia Interface) 등일 수 있다.The wireless communication supported by the communication unit 130 may be, for example, Wi-Fi (Wireless Fidelity), Wi-Fi Direct, Bluetooth (Bluetooth), UWB (Ultra Wide Band), or NFC (Near Field Communication). In addition, the wired communication supported by the communication unit 130 may be, for example, USB or HDMI (High Definition Multimedia Interface).

메모리(140)에는 파일, 어플리케이션 및 프로그램 등과 같은 다양한 종류의 데이터가 설치 및 저장될 수 있다. 제어부(120)는 메모리(140)에 저장된 데이터에 접근하여 이를 이용하거나, 또는 새로운 데이터를 메모리(140)에 저장할 수도 있다. 또한, 제어부(120)는 메모리(140)에 설치된 프로그램을 실행할 수도 있다. Various types of data such as files, applications, and programs may be installed and stored in the memory 140. The controller 120 may access and use data stored in the memory 140, or may store new data in the memory 140. Also, the control unit 120 may execute a program installed in the memory 140.

이러한 메모리(140)는 적어도 하나의 학습이미지를 포함하는 파일을 저장할 수 있다. The memory 140 may store a file including at least one learning image.

도 2 는 일 실시예에 따른 인공신경망학습방법을 설명하기 위한 순서도이다. 2 is a flowchart illustrating an artificial neural network learning method according to an embodiment.

도 2 에 도시된 실시예에 따른 인공신경망학습방법은 도 1 에 도시된 인공신경망학습장치(10)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하에서 생략된 내용이라고 하더라도 도 1 에 도시된 인공신경망학습장치(10)에 관하여 이상에서 기술한 내용은 도 2에 도시된 실시예에 따른 인공신경망학습방법에도 적용될 수 있다.The artificial neural network learning method according to the embodiment shown in FIG. 2 includes steps that are processed in time series in the artificial neural network learning apparatus 10 shown in FIG. 1. Therefore, even if omitted below, the contents described above with respect to the artificial neural network learning apparatus 10 shown in FIG. 1 can be applied to the artificial neural network learning method according to the embodiment shown in FIG. 2.

우선, 인공신경망학습장치(10)는 인공신경망의 학습에 이용되는 적어도 하나의 학습이미지를 병합하여 결합이미지를 생성할 수 있다(S2001). First, the artificial neural network learning apparatus 10 may generate a combined image by merging at least one learning image used for learning of an artificial neural network (S2001).

이를 위해, 인공신경망학습장치(10)는 적어도 하나의 학습이미지를 획득할 수 있고, 각 학습이미지 별로 채널 수를 식별할 수 있다.To this end, the artificial neural network learning apparatus 10 may acquire at least one learning image, and may identify the number of channels for each learning image.

예를 들어, 인공신경망학습장치(10)는 적어도 하나의 학습이미지가 포함된 파일로부터 유저의 입력에 따라 인공신경망에 학습시킬 학습이미지를 추출할 수 있고, 추출된 학습이미지의 메타데이터 기초로 학습이미지의 포맷형식을 식별할 수 있다. 그리고 인공신경망학습장치(10)는 식별된 학습이미지의 포맷형식에 따라 데이터의 배열 방식을 카운팅하여 학습이미지의 채널 수를 식별할 수 있다. For example, the artificial neural network learning apparatus 10 may extract a learning image to be trained into the artificial neural network according to a user's input from a file including at least one learning image, and learn based on metadata of the extracted learning image The format of the image can be identified. Also, the artificial neural network learning apparatus 10 may identify the number of channels of the learning image by counting the arrangement of data according to the format format of the identified learning image.

그리고 인공신경망학습장치(10)는 적어도 하나의 학습이미지 각각의 채널을 병렬적으로 결합하여 다 채널의 결합이미지를 생성할 수 있다.In addition, the artificial neural network learning apparatus 10 may generate a multi-channel combined image by combining each channel of at least one learning image in parallel.

예를 들어, 인공신경망학습장치(10)는 픽셀 포맷의 2 개의 학습이미지에 대해 제 1 학습이미지의 3개 채널인 RGB 값과 제 2 학습이미지의 4개 채널인 CMYK 값을 결합하여, 7개 채널을 갖는 결합이미지를 생성할 수 있다. For example, the artificial neural network learning apparatus 10 combines RGB values, which are three channels of the first learning image, and CMYK values, which are four channels of the second learning image, for two training images of the pixel format, and generates seven. A combined image with channels can be created.

그리고 인공신경망학습장치(10)는 결합이미지의 채널의 수에 기초하여 인공신경망의 재구성 여부를 판단할 수 있고(S2002), 결합이미지의 채널 수와 인공신경망의 입구의 채널수가 상이하면 인공신경망을 재구성할 수 있다(S2003).And the artificial neural network learning apparatus 10 may determine whether to reconstruct the artificial neural network based on the number of channels of the combined image (S2002), and if the number of channels of the combined image and the number of channels at the entrance of the artificial neural network is different, It can be reconstructed (S2003).

이를 위해, 인공신경망학습장치(10)는 기 학습된 인공신경망에 S2001단계에서 생성된 결합이미지가 입력될 수 있는지 판단할 수 있고, 결합이미지의 채널 수에 따라 인공신경망을 재구성할 수 있다. To this end, the artificial neural network learning apparatus 10 may determine whether the combined image generated in step S2001 can be input to the pre-trained artificial neural network, and reconstruct the artificial neural network according to the number of channels of the combined image.

실시예에 따라 인공신경망의 입력레이어에 입력가능한 채널의 수가 결합이미지의 채널 수 미만이면, 인공신경망학습장치(10)는 인공신경망의 크기를 확장하는 재구성을 하여 입력레이어에 결합이미지의 채널이 입력되도록 할 수 있다.According to an embodiment, when the number of channels that can be input to the input layer of the artificial neural network is less than the number of channels of the combined image, the artificial neural network learning apparatus 10 reconstructs to expand the size of the artificial neural network, and the channel of the combined image is input to the input layer. It can be done.

이때, 인공신경망학습장치(10)는 S2003단계에서 재구성된 인공신경망의 파라미터 중 인공신경망의 기 설정된 파라미터를 이용할 수 있다.At this time, the artificial neural network learning apparatus 10 may use a preset parameter of the artificial neural network among parameters of the artificial neural network reconstructed in step S2003.

예를 들어, 인공신경망학습장치(10)는 인공신경망의 크기를 확장하는 재구성을 수행하면서 기존 인공신경망의 파라미터를 이용할 수 있다. 그리고 재구성된 인공신경망에 추가된 추가 파라미터의 경우, 인공신경망학습장치(10)는 후술할 결합이미지의 학습을 통해 추가 파라미터의 값을 설정할 수 있다. For example, the artificial neural network learning apparatus 10 may use parameters of an existing artificial neural network while performing reconstruction to expand the size of the artificial neural network. In addition, in the case of additional parameters added to the reconstructed artificial neural network, the artificial neural network learning apparatus 10 may set values of additional parameters through learning of a combined image to be described later.

다른 실시예에 따라 인공신경망의 입력레이어에 입력가능한 채널의 수가 결합이미지의 채널 수 이상이면, 인공신경망학습장치(10)는 인공신경망의 크기를 축소하는 재구성하거나 또는 결합이미지의 채널 수를 변환하여 입력레이어에 결합이미지의 채널이 입력되도록 할 수 있다.According to another embodiment, if the number of channels that can be input to the input layer of the artificial neural network is greater than or equal to the number of channels of the combined image, the artificial neural network learning apparatus 10 reconstructs to reduce the size of the artificial neural network or converts the number of channels of the combined image. The channel of the combined image can be input to the input layer.

예를 들어, 인공신경망학습장치(10)는 인공신경망의 크기를 축소하여 일부의 파라미터를 삭제하거나 또는 결합이미지에 무의미한 값인 0으로 구성된 더미 채널을 병합하여 인공신경망에 입력할 수 있다.For example, the artificial neural network learning apparatus 10 may reduce the size of the artificial neural network to delete some parameters, or merge a dummy channel consisting of 0, which is a meaningless value in the combined image, and input the artificial neural network.

그리고 인공신경망학습장치(10)는 S2003 단계에서 재구성된 인공신경망을 S2001단계에서 생성된 결합이미지를 이용하여 학습시킬 수 있다(S2004).In addition, the artificial neural network learning apparatus 10 may train the artificial neural network reconstructed in step S2003 using the combined image generated in step S2001 (S2004).

예를 들어, 인공신경망학습장치(10)는 S2002 단계에서 재구성된 인공신경망에 결합이미지를 입력하여 학습을 수행하도록 할 수 있으며, 학습을 통해 재구성된 인공신경망의 파라미터 중 상기 기 설정된 파라미터를 제외한 추가 파라미터를 결합이미지의 학습을 통해 설정할 수 있다.For example, the artificial neural network learning apparatus 10 may input a combined image to the reconstructed artificial neural network in step S2002 to perform learning, and add the parameters of the artificial neural network reconstructed through learning, except for the preset parameter. The parameters can be set through learning the combined image.

한편, 인공신경망학습장치(10)는 학습이 완료된 인공신경망을 통해 이미지를 인식시킬 수 있다. Meanwhile, the artificial neural network learning apparatus 10 may recognize an image through an artificial neural network in which learning is completed.

이를 위해, 인공신경망학습장치(10)는 인식시킬 이미지의 채널 수를 식별하고, S2004단계에서 인공신경망에 학습된 결합이미지의 채널 수와 동일한지 여부를 식별할 수 있다. To this end, the artificial neural network learning apparatus 10 may identify the number of channels of the image to be recognized and identify whether the number of channels of the combined image learned in the artificial neural network in step S2004 is the same.

예를 들어 채널 수가 상이하면, 인공신경망학습장치(10)는 이미지 입력에 대한 에러 메시지를 출력할 수 있다. For example, if the number of channels is different, the artificial neural network learning apparatus 10 may output an error message for image input.

또는 예를 들어 채널 수가 동일하면, 인공신경망학습장치(10)는 이미지를 인공신경망의 입력레이어를 통해 입력할 수 있고, 인공신경망에 의해 인식된 결과값을 제공할 수 있다. Or, for example, if the number of channels is the same, the artificial neural network learning apparatus 10 may input an image through an input layer of the artificial neural network, and provide a result value recognized by the artificial neural network.

S2001단계 내지 S2004단계를 통해 인공신경망학습장치(10)은 머신 비전용 카메라를 통해 획득된 이미지를 이용하여 물체를 검사하거나 측정할 수 있도록 인공신경망을 학습시킬 수 있고, 인공신경망이 머신 비전용 카메라를 통해 획득된 이미지로부터 객체의 패턴(pattern)을 매칭하거나, 점, 선 또는 면을 피팅(fitting)하거나, 컬러를 구분하거나, 대상을 측정(gauging)하기도 하고, 로봇 가이드를 위해 위치정보를 제공하거나, 객체에 표시된 1D, 2D 바코드를 판독하거나 광학문자판독(OCR)을 수행하기도 한다. 이러한 과정을 통해 물체가 검사, 측정 또는 판독되어 산업의 자동화가 구현될 수 있도록 할 수 있다.Through steps S2001 to S2004, the artificial neural network learning apparatus 10 may train an artificial neural network to inspect or measure an object using an image acquired through a machine non-dedicated camera, and the artificial neural network is a machine non-dedicated camera. Match the object's pattern from the image obtained through, fitting points, lines or faces, distinguishing colors, gauging objects, and providing location information for robot guides Or, it may read 1D and 2D barcodes displayed on objects or perform optical character reading (OCR). Through this process, objects can be inspected, measured, or read to enable industrial automation.

이상의 실시예들에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.The term '~ unit' used in the above embodiments means software or hardware components such as a field programmable gate array (FPGA) or ASIC, and '~ unit' performs certain roles. However, '~ wealth' is not limited to software or hardware. The '~ unit' may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors. Thus, as an example, '~ unit' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, attributes, and procedures. , Subroutines, segments of program patent code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays, and variables.

구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.The functionality provided within components and '~ units' may be combined into a smaller number of components and '~ units', or separated from additional components and '~ units'.

뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다.In addition, the components and '~ unit' may be implemented to play one or more CPUs in the device or secure multimedia card.

도 2 를 통해 설명된 실시예에 따른 인공신경망학습방법은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는, 컴퓨터로 판독 가능한 매체의 형태로도 구현될 수 있다. 이때, 명령어 및 데이터는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터 기록 매체일 수 있는데, 컴퓨터 기록 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다.예를 들어, 컴퓨터 기록 매체는 HDD 및 SSD 등과 같은 마그네틱 저장 매체, CD, DVD 및 블루레이 디스크 등과 같은 광학적 기록 매체, 또는 네트워크를 통해 접근 가능한 서버에 포함되는 메모리일 수 있다. The artificial neural network learning method according to the embodiment described with reference to FIG. 2 may also be implemented in the form of a computer-readable medium that stores instructions and data executable by a computer. At this time, instructions and data may be stored in the form of program code, and when executed by a processor, a predetermined program module may be generated to perform a predetermined operation. Also, the computer-readable medium can be any available medium that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may be a computer recording medium, which is volatile and non-volatile implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. It can include both volatile, removable and non-removable media. For example, computer recording media are magnetic storage media such as HDDs and SSDs, optical recording media such as CDs, DVDs and Blu-ray Discs, or are accessible over a network. It may be a memory included in the server.

또한 도 2 를 통해 설명된 실시예에 따른 인공신경망학습방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다. In addition, the artificial neural network learning method according to the embodiment described with reference to FIG. 2 may be implemented as a computer program (or computer program product) including instructions executable by a computer. The computer program includes programmable machine instructions processed by a processor and may be implemented in a high-level programming language, object-oriented programming language, assembly language, or machine language. . In addition, the computer program may be recorded on a tangible computer-readable recording medium (eg, memory, hard disk, magnetic / optical medium, or solid-state drive (SSD), etc.).

따라서 도 2 를 통해 설명된 실시예에 따른 인공신경망학습방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다. Therefore, the artificial neural network learning method according to the embodiment described with reference to FIG. 2 may be implemented by executing a computer program as described above by a computing device. The computing device may include at least a portion of a processor, a memory, a storage device, a high-speed interface connected to the memory and a high-speed expansion port, and a low-speed interface connected to the low-speed bus and the storage device. Each of these components is connected to each other using various buses, and may be mounted on a common motherboard or mounted in other suitable ways.

여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다. Here, the processor is capable of processing instructions within the computing device, such as for displaying graphical information for providing a graphical user interface (GUI) on an external input or output device, such as a display connected to a high-speed interface. Examples include instructions stored in memory or storage devices. In other embodiments, multiple processors and / or multiple buses may be used with multiple memories and memory types as appropriate. In addition, the processor may be implemented as a chipset formed by chips including a plurality of independent analog and / or digital processors.

또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다. Memory also stores information within computing devices. In one example, the memory may be comprised of volatile memory units or a collection thereof. As another example, the memory may be composed of non-volatile memory units or a collection thereof. The memory may also be other types of computer readable media, such as magnetic or optical disks.

그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다. And the storage device can provide a large storage space for the computing device. The storage device may be a computer readable medium or a configuration including such a medium, and may include, for example, devices within a storage area network (SAN) or other configurations, and may include floppy disk devices, hard disk devices, optical disk devices, Or a tape device, flash memory, or other similar semiconductor memory device or device array.

상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above-described embodiments are for illustration only, and those skilled in the art to which the above-described embodiments belong can easily be modified into other specific forms without changing the technical idea or essential characteristics of the above-described embodiments. You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 명세서를 통해 보호 받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.The scope to be protected through the present specification is indicated by the claims, which will be described later, rather than the detailed description, and should be interpreted to include all modified or modified forms derived from the meaning and scope of the claims and equivalent concepts thereof. .

10: 인공신경망학습장치
110: 입력부
120: 제어부
130: 통신부
140: 메모리
10: Artificial neural network learning device
110: input unit
120: control unit
130: communication unit
140: memory

Claims (12)

다 채널 이미지를 이용한 인공신경망 학습 장치에 있어서,
상기 인공신경망의 학습에 이용되는 적어도 하나의 학습이미지를 병합하여 결합이미지를 생성하고, 생성된 결합이미지를 기초로 상기 인공신경망을 학습시키는 제어부; 및
상기 적어도 하나의 학습이미지를 저장하는 메모리를 포함하는, 인공신경망학습장치.
In the artificial neural network learning apparatus using a multi-channel image,
A control unit for generating a combined image by merging at least one learning image used for learning the artificial neural network, and learning the artificial neural network based on the combined image; And
And a memory for storing the at least one learning image.
제 1 항에 있어서,
상기 제어부는,
상기 적어도 하나의 학습이미지 별로 각 학습이미지의 채널을 식별하고, 식별된 채널을 병렬적으로 결합하여 다 채널의 결합이미지를 생성하는, 인공신경망학습장치.
According to claim 1,
The control unit,
An artificial neural network learning apparatus that identifies a channel of each learning image for each of the at least one learning image, and combines the identified channels in parallel to generate a multi-channel combined image.
제 1 항에 있어서,
상기 제어부는,
상기 결합이미지의 채널 수에 따라 상기 인공신경망의 기 설정된 파라미터를 이용하여 상기 인공신경망을 재구성하는, 인공신경망학습장치.
According to claim 1,
The control unit,
An artificial neural network learning apparatus for reconstructing the artificial neural network using preset parameters of the artificial neural network according to the number of channels of the combined image.
제 3 항에 있어서,
상기 제어부는,
상기 기 설정된 파라미터를 포함하는 재구성된 인공신경망에 상기 결합이미지를 학습시키는, 인공신경망학습장치.
The method of claim 3,
The control unit,
An artificial neural network learning apparatus for learning the combined image on a reconstructed artificial neural network including the preset parameter.
제 4 항에 있어서,
상기 제어부는,
상기 결합이미지의 학습을 통해 상기 재구성된 인공신경망의 파라미터를 설정하는, 인공신경망학습장치.
The method of claim 4,
The control unit,
An artificial neural network learning apparatus for setting parameters of the reconstructed artificial neural network through learning of the combined image.
인공신경망학습장치가 다 채널 이미지를 이용한 인공신경망을 학습시키는 방법에 있어서,
상기 인공신경망의 학습에 이용되는 적어도 하나의 학습이미지를 병합하여 결합이미지를 생성하는 단계; 및
생성된 결합이미지를 기초로 상기 인공신경망을 학습시키는 단계를 포함하는, 인공신경망학습방법.
In the method of learning the artificial neural network using the multi-channel image artificial neural network learning device,
Generating a combined image by merging at least one learning image used for learning the artificial neural network; And
And learning the artificial neural network based on the generated combined image.
제 6 항에 있어서,
상기 결합이미지를 생성하는 단계는,
상기 적어도 하나의 학습이미지 별로 각 학습이미지의 채널을 식별하는 단계; 및
식별된 채널을 병렬적으로 결합하여 다 채널의 결합이미지를 생성하는 단계를 포함하는, 인공신경망학습방법.
The method of claim 6,
The step of generating the combined image,
Identifying a channel of each learning image for each of the at least one learning image; And
And combining the identified channels in parallel to generate a multi-channel combined image.
제 6 항에 있어서,
상기 인공신경망을 학습시키는 단계는,
상기 결합이미지의 채널 수에 따라 상기 인공신경망의 기 설정된 파라미터를 이용하여 상기 인공신경망을 재구성하는 단계를 포함하는, 인공신경망학습방법.
The method of claim 6,
The step of learning the artificial neural network,
And reconstructing the artificial neural network using preset parameters of the artificial neural network according to the number of channels of the combined image.
제 8 항에 있어서,
상기 인공신경망학습방법은,
상기 기 설정된 파라미터를 포함하는 재구성된 인공신경망에 상기 결합이미지를 학습시키는 단계를 더 포함하는, 인공신경망학습방법.
The method of claim 8,
The artificial neural network learning method,
And learning the combined image on a reconstructed artificial neural network including the preset parameter.
제 9 항에 있어서,
상기 결합이미지를 학습하는 단계는,
상기 결합이미지의 학습을 통해 상기 재구성된 인공신경망의 파라미터를 설정하는 단계를 포함하는, 인공신경망학습방법.
The method of claim 9,
The step of learning the combined image,
And setting parameters of the reconstructed artificial neural network through learning of the combined image.
제 6 항에 기재된 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium on which a program for performing the method according to claim 6 is recorded. 인공신경망학습장치에 의해 수행되며, 제 6 항에 기재된 방법을 수행하기 위해 매체에 저장된 컴퓨터 프로그램.
A computer program carried out by an artificial neural network learning device and stored in a medium to perform the method according to claim 6.
KR1020180118416A 2018-10-04 2018-10-04 Method and apparatus for learning neural network using multi channel image KR102273334B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180118416A KR102273334B1 (en) 2018-10-04 2018-10-04 Method and apparatus for learning neural network using multi channel image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180118416A KR102273334B1 (en) 2018-10-04 2018-10-04 Method and apparatus for learning neural network using multi channel image

Publications (2)

Publication Number Publication Date
KR20200038775A true KR20200038775A (en) 2020-04-14
KR102273334B1 KR102273334B1 (en) 2021-07-06

Family

ID=70291463

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180118416A KR102273334B1 (en) 2018-10-04 2018-10-04 Method and apparatus for learning neural network using multi channel image

Country Status (1)

Country Link
KR (1) KR102273334B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102296644B1 (en) 2020-05-07 2021-09-01 전북대학교산학협력단 Apparatus and method for generating noise-free image by removing preset attributes on a single image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101709085B1 (en) * 2015-12-16 2017-02-23 서강대학교산학협력단 Shot Boundary Detection method and apparatus using Convolutional Neural Networks
KR20180092453A (en) * 2017-02-09 2018-08-20 한국기술교육대학교 산학협력단 Face recognition method Using convolutional neural network and stereo image
KR101891631B1 (en) * 2018-03-07 2018-08-27 (주)크레아소프트 Image learnig device, image analysis system and method using the device, computer readable medium for performing the method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101709085B1 (en) * 2015-12-16 2017-02-23 서강대학교산학협력단 Shot Boundary Detection method and apparatus using Convolutional Neural Networks
KR20180092453A (en) * 2017-02-09 2018-08-20 한국기술교육대학교 산학협력단 Face recognition method Using convolutional neural network and stereo image
KR101891631B1 (en) * 2018-03-07 2018-08-27 (주)크레아소프트 Image learnig device, image analysis system and method using the device, computer readable medium for performing the method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
A New Channel Boosted Convolutional Neural Network using Transfer Learning. Asifullah Khan, Anabia Sohail, Amna Ali. arXiv. 2018.05.20.* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102296644B1 (en) 2020-05-07 2021-09-01 전북대학교산학협력단 Apparatus and method for generating noise-free image by removing preset attributes on a single image

Also Published As

Publication number Publication date
KR102273334B1 (en) 2021-07-06

Similar Documents

Publication Publication Date Title
TWI718573B (en) Apparatus and method for inspecting for defects
CN110599492B (en) Training method and device for image segmentation model, electronic equipment and storage medium
US10599399B2 (en) Mobile user interface design testing tool
Wang et al. Track-a-worm, an open-source system for quantitative assessment of C. elegans locomotory and bending behavior
KR102486230B1 (en) Method and system for quality inspection of new product using deep learning
WO2022105608A1 (en) Rapid face density prediction and face detection method and apparatus, electronic device, and storage medium
KR102141302B1 (en) Object detection method based 0n deep learning regression model and image processing apparatus
US11829848B2 (en) Adding negative classes for training classifier
KR102042168B1 (en) Methods and apparatuses for generating text to video based on time series adversarial neural network
KR20170049380A (en) Tag processing method and device
KR102599977B1 (en) Method and apparatus for processing information, electronic device, computer-readable storage media and computer program stored in media
CN103685851A (en) Signal processing apparatus, signal processing method, output apparatus, output method, and program
Yuan et al. Optical flow training under limited label budget via active learning
KR102273334B1 (en) Method and apparatus for learning neural network using multi channel image
KR102271418B1 (en) Method and system for auto training for product inspection
KR102252590B1 (en) Method and apparatus for setting test environment based on machine learning environment
JP7416071B2 (en) Judgment device and judgment program
KR20200095767A (en) Method and apparatus for identifying object using multi- cameras
KR102368193B1 (en) Method and apparatus for verifying voice recognition using voice synthesis
KR102252591B1 (en) Method and apparatus for compensating output of a display panel
CN113554045A (en) Data set manufacturing method, device, equipment and storage medium
JP7344501B1 (en) Program, method, information processing device, system
KR20200057813A (en) Method for detecting medicinal products and apparatus thereof
WO2022172469A1 (en) Image inspection device, image inspection method, and trained model generation device
CN115393846B (en) Blood cell identification method, device, equipment and readable storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant