KR20220060722A - Image data labelling apparatus and method thereof - Google Patents

Image data labelling apparatus and method thereof Download PDF

Info

Publication number
KR20220060722A
KR20220060722A KR1020200146624A KR20200146624A KR20220060722A KR 20220060722 A KR20220060722 A KR 20220060722A KR 1020200146624 A KR1020200146624 A KR 1020200146624A KR 20200146624 A KR20200146624 A KR 20200146624A KR 20220060722 A KR20220060722 A KR 20220060722A
Authority
KR
South Korea
Prior art keywords
image data
labeling
neural network
artificial neural
image
Prior art date
Application number
KR1020200146624A
Other languages
Korean (ko)
Other versions
KR102537943B1 (en
Inventor
조창환
Original Assignee
조창환
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 조창환 filed Critical 조창환
Priority to KR1020200146624A priority Critical patent/KR102537943B1/en
Publication of KR20220060722A publication Critical patent/KR20220060722A/en
Application granted granted Critical
Publication of KR102537943B1 publication Critical patent/KR102537943B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

An image data labeling apparatus including a memory to store an artificial neural network and a processor includes an image collecting unit, an image processing unit, and an object labeling unit. The image collecting unit collects first image data. The image processing unit generates first fake image data based on the first image data. The object labeling unit trains the artificial neural network based on the first image data and the first fake data, classifies a pixel region in the first image data, based on the trained artificial neural network, and performs labeling for an object, based on the classified pixel region. When the image collecting unit collects second image data, the object labeling unit re-trains the artificial neural network, in which a feature and a weight of the artificial neural network, which are determined when learning the first image data, are alternatively provided, while employing, as input values, second fake image data generated based on the first image data, the fake image data, the second image data, and the second image data.

Description

이미지 데이터 라벨링 학습 방법 및 그 장치{IMAGE DATA LABELLING APPARATUS AND METHOD THEREOF}Image data labeling learning method and apparatus {IMAGE DATA LABELLING APPARATUS AND METHOD THEREOF}

이러한 실시예는 대량의 데이터를 수집, 분류, 가공하는 데이터 라벨링(Labelling)에 능동 학습(Active Learning)을 수행하는 이미지 데이터 라벨링 학습 방법 및 그 장치에 관한 것이다.This embodiment relates to an image data labeling learning method and apparatus for performing active learning in data labeling for collecting, classifying, and processing a large amount of data.

일반적으로, 데이터 라벨링 작업은 머신 러닝(Machine Learning, ML)의 모델링 작업이나 딥 러닝(Deep learning, DL)의 모델링 작업 전에 학습 데이터에 특정 값을 부여 해주는 것이다. 이러한 데이터 라벨링 작업은, AI(Artificial Intelligence) 산업의 기본이기도 하지만, 기업에서 AI 산업의 발전을 이루기 위한 핵심 요소로 인식된다. 종래 데이터 라벨링 작업은 사람이 직접 수행하여 비용이 많이 들고 시간이 오래 걸리는 단점이 있었다. 또한, 자동 데이터 라벨링 작업을 수행한다 하더라도, 이미지를 분류할 때 최소 수천, 수만 장의 이미지가 요구된다. 이렇게 대용량의 데이터 라벨링 작업은 시간을 포함한 많은 비용이 들고, 라벨링에 필요한 이미지가 많아질수록, 일관되고 정확한 라벨링 작업이 어려워진다.In general, the data labeling task is to assign a specific value to the training data before the modeling work of machine learning (ML) or the modeling work of deep learning (DL). Although this data labeling work is the basis of the AI (Artificial Intelligence) industry, it is recognized as a key factor for achieving the development of the AI industry in companies. Conventional data labeling has a disadvantage in that it is costly and takes a long time to be performed by a person. In addition, even if automatic data labeling is performed, at least thousands or tens of thousands of images are required to classify images. Labeling such a large amount of data is costly, including time, and as more images are required for labeling, consistent and accurate labeling becomes difficult.

본 발명은 상술한 바와 같은 문제점을 해결하기 위한 것으로, 전처리로 사용되는 데이터 라벨링 작업에 필요한 데이터가 최소한으로 요구하고, 동시에 라벨링의 작업 시간의 단축을 가능하게 하고, 동시에 라벨링의 정확도를 높일 수 있는 이미지 데이터 라벨링 학습 방법 및 그 장치에 관한 것이다.The present invention is to solve the problems described above, and requires the minimum data required for data labeling operation used as preprocessing, and at the same time enables the reduction of the labeling operation time, and at the same time increases the labeling accuracy. It relates to a method and apparatus for learning image data labeling.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 따라, 인공 신경망을 저장한 메모리와 프로세서를 포함하는 이미지 데이터 라벨링 학습 장치는 제1 이미지 데이터를 수집하는 이미지 수집부; 상기 제1 이미지 데이터에 기초하여 제1 페이크 이미지 데이터를 생성하는 이미지 가공부; 및 상기 제1 이미지 데이터 및 상기 제1페이크 이미지 데이터에 기초하여 상기 인공 신경망을 학습시키고, 상기 학습된 인공 신경망에 기초하여 상기 제1 이미지 데이터 내 픽셀의 영역을 구분하고, 구분된 픽셀 영역에 기초하여 객체에 라벨링을 수행하는 객체 라벨링부;를 포함하고, 상기 이미지 수집부가 제2 이미지 데이터를 수집하면, 객체 라벨링부는 상기 제1 이미지 데이터, 상기 페이크 이미지 데이터, 상기 제2 이미지 데이터, 및 상기 제2 이미지 데이터에 의해서 생성된 제2 페이크 이미지 데이터를 입력값으로, 제1 이미지 데이터의 학습 시 결정된 인공 신경망의 특징값(Feature) 및 웨이트(Weight)가 교번된 인공 신경망을 다시 학습시킨다.According to an embodiment of the present invention for solving the above problems, an image data labeling learning apparatus including a memory and a processor storing an artificial neural network includes: an image collecting unit for collecting first image data; an image processing unit generating first fake image data based on the first image data; and training the artificial neural network based on the first image data and the first fake image data, classifying a pixel region in the first image data based on the learned artificial neural network, and based on the divided pixel region and an object labeling unit for labeling the object, and when the image collecting unit collects second image data, the object labeling unit includes the first image data, the fake image data, the second image data, and the second image data. Using the second fake image data generated by the second image data as an input value, the artificial neural network in which the feature values and the weights of the artificial neural network determined when the first image data is learned are alternately trained again.

상기 이미지 가공부는, 상기 제1 이미지 데이터에 포함된 객체에 대한 주석(annotation) 좌표 데이터가 유지된 페이크 이미지 데이터를 생성할 수 있다.The image processing unit may generate fake image data in which annotation coordinate data for an object included in the first image data is maintained.

상기 이미지 가공부는, 상기 주석 좌표 데이터가 포함된 상기 페이크 이미지 데이터를 복수 개 생성할 수 있다.The image processing unit may generate a plurality of the fake image data including the annotation coordinate data.

상기 객체 라벨링부는, 상기 제2 이미지 데이터에 기초하여 상기 인공 신경망을 학습하면, 상기 제1 이미지 데이터 및 상기 제1 페이크 이미지 데이터의 일부 영역을 입력값으로, 상기 인공 신경망을 학습시킬 수 있다.When learning the artificial neural network based on the second image data, the object labeling unit may train the artificial neural network using the first image data and a partial region of the first fake image data as input values.

상기 객체 라벨링부는, 인터넷 네트워크를 통해 자동 이미지 검색을 수행하고, 상기 자동 이미지 검색에 기초하여 판단된 상기 객체의 종류를 판단하고, 상기 판단된 객체의 종류에 기초하여 상기 객체에 라벨링을 수행할 수 있다.The object labeling unit may perform an automatic image search through the Internet network, determine the type of the object determined based on the automatic image search, and label the object based on the determined type of the object. there is.

상기 객체 라벨링부는, 상기 제1 이미지 데이터에 포함된 컬러 데이터 및 깊이 데이터에 기초하여 상기 제1 이미지 데이터 내 픽셀의 영역을 구분하고, 구분된 픽셀 영역에 기초하여 객체에 라벨링을 수행할 수 있다.The object labeling unit may classify a pixel area in the first image data based on color data and depth data included in the first image data, and perform labeling on the object based on the divided pixel area.

미리 저장된 객체의 카테고리 정보에 기초하여 상기 객체 라벨링부가 부여한 라벨링의 정확도를 산출하고, 산출된 정확도에 기초하여 상기 인공 신경망의 상기 특징값 및 상기 웨이트를 조정하는 라벨링 검수부;를 더 포함할 수 있다.It may further include; a labeling inspection unit that calculates the accuracy of the labeling given by the object labeling unit based on the category information of the object stored in advance, and adjusts the feature value and the weight of the artificial neural network based on the calculated accuracy. .

본 발명에 의하면, 데이터 라벨링 작업에 필요한 데이터가 최소한으로 요구하고, 동시에 라벨링의 작업 시간의 단축을 가능하게 하고, 동시에 라벨링의 정확도를 높일 수 있다. According to the present invention, the data required for the data labeling operation is required to a minimum, and at the same time, it is possible to shorten the operation time of the labeling, and at the same time, it is possible to increase the accuracy of the labeling.

본 발명의 효과들은 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 일 실시예에 따른 이미지 데이터 라벨링 학습 방법 및 그 장치의 기능을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 이미지 데이터의 영역을 구분하여 라벨링을 수행한 결과물의 예시를 도시한 도면이다.
도 3은 개시된 이미지 데이터 라벨링 학습 장치의 각 구성과 구성의 동작을 설명하기 위한 도면이다.
도 4 및 도 5는 이미지 데이터의 라벨링 학습 방법에 대한 순서도이다.
1 is a diagram for explaining a function of an image data labeling learning method and an apparatus according to an embodiment.
2 is a diagram illustrating an example of a result of performing labeling by dividing an area of image data according to an embodiment.
3 is a view for explaining each configuration of the disclosed image data labeling learning apparatus and the operation of the configuration.
4 and 5 are flowcharts for a method for learning labeling of image data.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention belongs It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims.

본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. have meaning Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in an embodiment of the present invention, an ideal or excessively formal meaning is not interpreted as

본 발명의 실시예를 설명하기 위한 도면에 개시된 형상, 크기, 비율, 각도, 개수 등은 예시적인 것이므로 본 발명이 도시된 사항에 한정되는 것은 아니다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. 본 명세서 상에서 언급된 '포함한다', '갖는다', '이루어진다' 등이 사용되는 경우 '~만'이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별히 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함한다.The shapes, sizes, proportions, angles, numbers, etc. disclosed in the drawings for explaining the embodiments of the present invention are illustrative and the present invention is not limited to the illustrated matters. In addition, in describing the present invention, if it is determined that a detailed description of a related known technology may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. When 'including', 'having', 'consisting', etc. mentioned in this specification are used, other parts may be added unless 'only' is used. When a component is expressed in the singular, cases including the plural are included unless otherwise explicitly stated.

구성 요소를 해석함에 있어서, 별도의 명시적 기재가 없더라도 오차 범위를 포함하는 것으로 해석한다.In interpreting the components, it is construed as including an error range even if there is no separate explicit description.

위치 관계에 대한 설명일 경우, 예를 들어, '~상에', '~상부에', '~하부에', '~옆에' 등으로 두 부분의 위치 관계가 설명되는 경우, '바로' 또는 '직접'이 사용되지 않는 이상 두 부분 사이에 하나 이상의 다른 부분이 위치할 수도 있다.In the case of a description of the positional relationship, for example, when the positional relationship of two parts is described as 'on', 'on', 'on', 'beside', etc., 'right' Alternatively, one or more other parts may be positioned between two parts unless 'directly' is used.

소자(elements) 또는 층이 다른 소자 또는 층"위(on)"로 지칭되는 것은 다른 소자 바로 위에 또는 중간에 다른 층 또는 다른 소자를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Reference to an element or layer “on” another element or layer includes any intervening layer or other element directly on or in the middle of another element. Like reference numerals refer to like elements throughout.

도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 도시된 것이며, 본 발명이 도시된 구성의 크기 및 두께에 반드시 한정되는 것은 아니다.The size and thickness of each component shown in the drawings are illustrated for convenience of description, and the present invention is not necessarily limited to the size and thickness of the illustrated component.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다. Each feature of the various embodiments of the present invention may be partially or wholly combined or combined with each other, and as those skilled in the art will fully understand, technically various interlocking and driving are possible, and each embodiment may be implemented independently of each other, It may be possible to implement together in a related relationship.

이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the working principle and embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 일 실시예에 따른 이미지 데이터 라벨링 학습 방법 및 그 장치의 기능을 설명하기 위한 도면이다.1 is a view for explaining the function of the image data labeling learning method and the apparatus according to an embodiment.

이미지 데이터 라벨링 장치(100)는, 수집되는 이미지(101)에 객체를 인식한다. 도 1을 참조하면, 수집된 이미지(101)에서 인식된 객체는 사람일 수 있다. 이미지 데이터 라벨링 장치(100)는 인식된 객체에 박스(bounding box)를 생성한 이미지(102)를 생성하고, 인식된 객체에 대한 정보를 삽입할 수 있는 라벨링을 생성한 이미지(103)를 생성함으로써, 이미지 데이터에 라벨링을 수행한다. The image data labeling apparatus 100 recognizes an object in the collected image 101 . Referring to FIG. 1 , the object recognized in the collected image 101 may be a person. The image data labeling apparatus 100 generates an image 102 in which a box (bounding box) is created in a recognized object, and an image 103 in which a labeling that can insert information about the recognized object is generated. , labeling the image data.

라벨링을 수행한 이미지는 머신 러닝(ML) 또는 딥 러닝(DL)에 입력되는 입력값이다. 머신 러닝 또는 딥 러닝(200)는 라벨링에 포함된 정보를 이용하여 자율 주행이나 그 밖의 다양한 AI 산업에 필요한 동작이나 결과를 출력할 수 있다.The image that has been labeled is an input value that is input to machine learning (ML) or deep learning (DL). The machine learning or deep learning 200 may output actions or results required for autonomous driving or other various AI industries by using the information included in the labeling.

한편, 도 1에서 도시한 이미지는 입력되는 이미지는 게임 영상의 일부이나, 이미지 데이터가 이에 한정되는 것은 아니며, 픽셀로 정의된 다양한 이미지 데이터이면 충분하고, 다른 것에 제한되지 않는다.On the other hand, as for the image shown in FIG. 1, the input image is a part of the game image, but the image data is not limited thereto, and various image data defined in pixels is sufficient, and is not limited thereto.

도 2는 일 실시예에 따른 이미지 데이터의 영역을 구분하여 라벨링을 수행한 결과물의 예시를 도시한 도면이다.2 is a diagram illustrating an example of a result of performing labeling by dividing an area of image data according to an embodiment.

이미지 데이터의 라벨링을 위해서는 이미지 분할(Image Segmentation)을 수행할 필요가 있다. 이미지 분할은 AI의 분류(Classification) 또는 객체 탐색(Object Detection)과 구분된다. In order to label image data, it is necessary to perform image segmentation. Image segmentation is distinguished from AI classification or object detection.

구체적으로 분류(Classification)는 이미지 데이터가 주어졌을 때, 이미지 데이터가 어떤 사진인지, 또는 어떤 객체를 대표하는지 판단하는 문제이다. 따라서 각각의 다른 고양이가 포함된 복수 개의 이미지 데이터가 입력되더라도 분류는 복수 개의 이미지 데이터를 고양이에 대한 이미지 데이터라고 분류해야 한다.Specifically, classification is a problem of determining what kind of photo or object the image data represents when given image data. Therefore, even if a plurality of image data including different cats is input, the classification should classify the plurality of image data as image data of a cat.

객체 탐색(Object Detection)은 객체의 분류뿐만 아니라 객체가 이미지 데이터 내에 어느 위치에 있는지 bounding box를 통해 찾는다. 즉, 객체 탐색(Object Detection)은 Localization을 수행해야 한다.Object detection not only classifies objects, but also finds where objects are located in image data through a bounding box. In other words, object detection should perform localization.

이미지 분할(Image Segmentation)은 이미지 데이터 내의 영역을 분할해서 각 객체에 맞게 클래스를 결정하는 것이다. 구체적으로 이미지 분할은 도 2에서 도시된 Semantic segmentation 및 Panoptic segmentation이 있다.Image segmentation is to determine a class for each object by segmenting an area within the image data. Specifically, image segmentation includes semantic segmentation and panoptic segmentation shown in FIG. 2 .

Semantic segmentation은 이미지 데이터 내에 복수 명의 사람, 나무 및 건물이 있다면, '사람', '나무' 및 '건물'로 클래스를 구분하고, 복수 개의 사람을 같은 클래스로 배경인 나무 및 건물과 구분하여 인식하는 것이다. 따라서 Semantic segmentation에서 복수 명의 사람은 각각의 객체가 아닌 하나의 동일 클라스(보라색)으로 인식된다.If there are multiple people, trees, and buildings in image data, semantic segmentation classifies classes into 'people', 'trees' and 'buildings', and recognizes multiple people as the same class from trees and buildings in the background. will be. Therefore, in semantic segmentation, a plurality of people are recognized as one and the same class (purple), not as individual objects.

Panoptic segmentation은 같은 클래스의 '사람'이라도 그 위치 별로 다른 사람임을 구분할 수 있다. 즉, Panoptic segmentation은 이미지 데이터 내에 각 픽셀별로 객체가 있는지 또는 객체가 없는지 여부를 판단하여 객체 인식을 수행한다. Panoptic segmentation can distinguish 'people' of the same class as different people according to their location. That is, panoptic segmentation performs object recognition by determining whether there is an object or no object for each pixel in the image data.

개시된 일 실시예에서 이미지 데이터 라벨링 방법은 Panoptic segmentation을 수행할 수 있다. 이를 위해서 이미지 데이터 라벨링 방법은 이미지 데이터 내에 픽셀 값이 어떤 클래스에 속하는지 분류하는 bounding box를 생성하거나, 각 픽셀의 분류된 클래스를 예측 마스크 (mask)에 픽셀 단위로 기록하거나, 이미지 내에 특징점을 검출(Keypoint detection)하거나, 이미지 데이터 상에 픽셀을 3D표면에 매핑하는 DensePose 및 Semantic Segmenatation을 종합적으로 사용할 수 있다.In the disclosed embodiment, the image data labeling method may perform panoptic segmentation. To this end, the image data labeling method creates a bounding box that classifies which class a pixel value in the image data belongs to, records the classified class of each pixel in a pixel unit in a prediction mask, or detects a feature point in the image. (Keypoint detection) or DensePose and Semantic Segmentation, which map pixels on image data to a 3D surface, can be used comprehensively.

개시된 이미지 데이터 라벨링 방법은 Panoptic segmentation으로 구분된 객체에 정보를 삽입한 라벨링을 생성하고, 도 2와 같은 이미지 어노테이션(Annotation)을 수행한다.The disclosed image data labeling method generates labeling by inserting information into an object divided by panoptic segmentation, and performs image annotation as shown in FIG. 2 .

한편, 이러한 데이터 라벨링 방법을 수행하기 위해서는 전술한 방법에 필요한 대용량의 이미지 데이터가 필요하고, 사용되는 인공 신경망의 학습에 필요한 데이터가 수집되어야 한다. 이하에서 설명하는 이미지 데이터 라벨링 방법은, 학습에 필요한 데이터의 최소화 방안 및 최소한의 데이터에도 불구하고, 데이터 라벨링 방법의 정확도를 높이는 방안에 대해 구체적으로 설명한다.On the other hand, in order to perform such a data labeling method, a large amount of image data required for the above-described method is required, and data necessary for learning the artificial neural network used must be collected. In the image data labeling method described below, a method for minimizing data required for learning and a method for increasing the accuracy of the data labeling method despite the minimum data will be described in detail.

도 3은 개시된 이미지 데이터 라벨링 학습 장치의 각 구성과 구성의 동작을 설명하기 위한 도면이다.3 is a view for explaining each configuration of the disclosed image data labeling learning apparatus and the operation of the configuration.

개시된 이미지 데이터 라벨링 학습 장치(100)는 하드웨어적으로, 이미지 데이터 및 각종 프로그램을 저장하는 메모리(미도시)와 저장된 프로그램을 동작시키는 프로세서(미도시)를 포함한다. 특히, 개시된 이미지 데이터 라벨링 학습 장치(100)는 학습에 필요한 인공 신경망을 저장하고 있으며, 프로세서가 인공 신경망을 학습시키고, 학습된 인공 신경망이 다시 메모리에 저장된다. 만약 이미지 데이터가 수집되면, 프로세서는 학습된 인공 신경망을 통해 이미지 데이터에 라벨링을 생성(추론)한다.The disclosed image data labeling learning apparatus 100 includes, in hardware, a memory (not shown) for storing image data and various programs, and a processor (not shown) for operating the stored programs. In particular, the disclosed image data labeling learning apparatus 100 stores the artificial neural network required for learning, the processor trains the artificial neural network, and the learned artificial neural network is again stored in the memory. If image data is collected, the processor generates (infers) a label on the image data through the trained artificial neural network.

한편, 이미지 데이터 라벨링 학습 장치(100)는 전술한 하드웨어적 구성을 소프트웨어적으로 표현할 수 있다. 도 3을 참조하면, 이미지 데이터 라벨링 학습 장치(100)는 이미지 수집부(110), 이미지 가공부(120), 객체 라벨링부(130) 및 라벨링 검수부(140)을 포함한다.On the other hand, the image data labeling learning apparatus 100 may express the above-described hardware configuration in software. Referring to FIG. 3 , the image data labeling learning apparatus 100 includes an image collection unit 110 , an image processing unit 120 , an object labeling unit 130 , and a labeling inspection unit 140 .

구체적으로 이미지 수집부(110)는 이미지 데이터를 수집한다. 이미지 데이터는 도 1에서 전술한 것과 같이, 픽셀 값으로 구성된 데이터일 수 있다. 이미지 수집부(110)는 유, 무선 통신 인터페이스를 통해 외부로부터 이미지 데이터를 수신하거나, 미리 저장된 이미지 데이터를 사용할 수도 있다.Specifically, the image collecting unit 110 collects image data. The image data may be data composed of pixel values, as described above with reference to FIG. 1 . The image collection unit 110 may receive image data from the outside through a wired/wireless communication interface, or may use pre-stored image data.

이미지 가공부(120)는 수집된 이미지 데이터에 기초하여 복수 개의 페이크 이미지 데이터를 생성한다. 복수 개의 페이크 이미지는 이미지 수집부(110)가 수집한 이미지 데이터에 기초하여 생성될 수 있다. 예를 들어 이미지 가공부(120)는 날씨 조건을 변경시킨 페이크 이미지 데이터를 생성할 수 있다. 다만, 이미지 가공부(120)는 페이크 이미지 데이터를 생성하더라도, 원본 이미지 데이터 내에 주석(annotation) 좌표 데이터는 유지시킨다.The image processing unit 120 generates a plurality of fake image data based on the collected image data. A plurality of fake images may be generated based on the image data collected by the image collecting unit 110 . For example, the image processing unit 120 may generate fake image data obtained by changing weather conditions. However, even if the image processing unit 120 generates the fake image data, the annotation coordinate data is maintained in the original image data.

이미지 가공부(120)가 적어도 하나 이상의 페이크 이미지 데이터를 생성하면, 객체 라벨링부(130)는 수집된 이미지 데이터 및 페이크 이미지를 입력값으로, 인공 신경망을 학습시킨다. When the image processing unit 120 generates at least one or more fake image data, the object labeling unit 130 uses the collected image data and the fake image as input values to train the artificial neural network.

구체적으로 객체 라벨링부(130)는 이미지 데이터 및 생성한 복수 개의 페이크 이미지 데이터를 인공 신경망의 학습 데이터로 사용한다. 또한, 객체 라벨링부(130)는 이미지 데이터의 일부 영역 및 페이크 이미지 데이터의 일부 영역만을 학습 데이터로 사용할 수 있다. Specifically, the object labeling unit 130 uses the image data and the generated plurality of fake image data as training data of the artificial neural network. Also, the object labeling unit 130 may use only a partial region of the image data and a partial region of the fake image data as training data.

객체 라벨링부(130)는 이미지 데이터를 누적시켜 입력 데이터로 사용할 수 있다. 예를 들어 도 3에서 도시된 바와 같은 게임 영상이 이미지 데이터(이하 제1 이미지 데이터)로 입력될 수 있다. 객체 라벨링부(130)는 복수 개의 페이크 이미지 데이터가 생성될 수 있으나, 이러한 페이크 이미지 데이터만으로 인공 신경망의 정확도가 낮을 수도 있다. 따라서 객체 라벨링부(130)는 제1 이미지 데이터에 대한 라벨링을 수행한 후, 제1 이미지 데이터를 폐기하지 않고 메모리에 저장한다.The object labeling unit 130 may accumulate image data and use it as input data. For example, a game image as shown in FIG. 3 may be input as image data (hereinafter, first image data). The object labeling unit 130 may generate a plurality of fake image data, but the accuracy of the artificial neural network may be low only with such fake image data. Therefore, after labeling the first image data, the object labeling unit 130 stores the first image data in the memory without discarding it.

후에 객체 라벨링부(130)는 게임 영상이 아닌 다른 영상을 이미지 데이터(이하 제2 이미지 데이터)로 수신할 수 있다. 이미지 수집부(110)가 제2 이미지 데이터를 수집하면, 객체 라벨링부(103)는 제1 이미지 데이터, 제1 이미지 데이터의 페이크 이미지 데이터, 제2 이미지 데이터, 및 제2 이미지 데이터에 의해서 생성된 제2 페이크 이미지 데이터를 입력값으로, 인공 신경망을 학습시킨다. 또한, 객체 라벨링부(130)는 제1 이미지 데이터의 학습 시 결정된 인공 신경망의 특징 값(Feature) 및 웨이트(Weight)가 교번시켜 인공 신경망을 다시 학습시킴으로써, 최소한의 데이터만으로도 인공 신경망이 라벨링을 수행할 수 있도록 학습시킬 수 있다.Afterwards, the object labeling unit 130 may receive an image other than the game image as image data (hereinafter referred to as second image data). When the image collecting unit 110 collects the second image data, the object labeling unit 103 generates the first image data, the fake image data of the first image data, the second image data, and the second image data. An artificial neural network is trained using the second fake image data as an input value. In addition, the object labeling unit 130 re-learns the artificial neural network by alternating the feature values and weights of the artificial neural network determined during learning of the first image data, so that the artificial neural network performs labeling with minimal data. can learn to do it.

한편, 객체 라벨링부(130)가 사용하는 인공 신경망은 다양할 수 있다. 예를 들어 객체 라벨링부(130)가 사용하는 신경망은 CNN(Convolution Neural Network)을 포함할 수 있다. CNN은 입력된 이미지 데이터를 특징 값(Features)을 포함한 특징 맵(Feature map)으로 생성하는 특징 러닝(Feature learning)과 생성된 특징 맵을 입력값으로 라벨링을 수행하는 뉴런 네트워크로 구성될 수 있다. 여기서 뉴런 네트워크는 멀티-레이어 퍼셉트론(multi-layer perceptron)으로 구성될 수 있으며, 퍼셉트론은 입력값에 가중치(weight)를 곱하고, 바이어스(bias)와 더한 후, 변형된 입력값을 전달함수(transfer function 또는 activation function)으로 구성될 수 있다. 즉, 퍼셉트론은 전달함수의 역치값을 만족하는 변형된 입력값만을 출력값으로 출력한다. Meanwhile, the artificial neural network used by the object labeling unit 130 may vary. For example, the neural network used by the object labeling unit 130 may include a Convolution Neural Network (CNN). The CNN can be composed of a feature learning that generates input image data as a feature map including feature values and a neuron network that labels the generated feature map as an input value. Here, the neuron network may be composed of a multi-layer perceptron, which multiplies an input value by a weight, adds a bias, and then transfers the transformed input value to a transfer function. or activation function). That is, the perceptron outputs only the transformed input value that satisfies the threshold value of the transfer function as an output value.

객체 라벨링부(130)는 이미지 데이터 및 페이크 이미지 데이터를 기초로 인공 신경망을 학습시킬 때, 전술한 인공 신경망의 특징 값과 웨이트를 교번하여 사용함으로써, 최소한의 데이터만으로도 인공 신경망이 라벨링을 수행할 수 있도록 학습시킬 수 있다.When the object labeling unit 130 trains the artificial neural network based on image data and fake image data, by alternately using the above-described feature values and weights of the artificial neural network, the artificial neural network can perform labeling with minimal data. can be taught to

한편, 객체 라벨링부(130)가 사용하는 인공 신경망은 반드시 CNN이 아닐 수 있으며, CNN의 변형례인 FCN(Fully Convolution Model) 등 다양한 실시예를 포함할 수 있다. 또한, 객체 라벨링부(130)는 반드시 특징 값 또는 웨이트를 포함하는 퍼셉트론 이외에 다른 뉴런 네트워크 구조를 포함하는 인공 신경망을 통해 라벨링을 수행할 수도 있다.On the other hand, the artificial neural network used by the object labeling unit 130 may not necessarily be a CNN, and may include various embodiments such as a fully convolutional model (FCN), which is a modification of CNN. In addition, the object labeling unit 130 may perform labeling through an artificial neural network including a neural network structure other than the perceptron necessarily including feature values or weights.

다시 도 3을 참조하면, 객체 라벨링부(130)는 학습된 인공 신경망을 통해 수집된 이미지 데이터 내의 픽셀 영역을 구분(localization, 131)하고, 구분된 픽셀 영역에 기초하여 이미지 데이터 내에 포함된 객체에 라벨링을 수행한다.Referring back to FIG. 3 , the object labeling unit 130 differentiates (localization, 131) a pixel region in the image data collected through the learned artificial neural network, and on the basis of the divided pixel region, the object included in the image data. perform labeling.

객체 라벨링부(130)가 라벨링을 수행하는 방법은 다양할 수 있다. 객체 라벨링부(130)는 도 2에서 전술한 Panoptic Segmentation을 사용하면서, 이미지 데이터에 포함된 깊이 데이터(132), 컬러 데이터(134) 및 자동 이미지 검색(133) 을 통해 라벨링을 수행할 수 있다. Methods for the object labeling unit 130 to perform labeling may vary. The object labeling unit 130 may perform labeling through the depth data 132 , the color data 134 , and the automatic image search 133 included in the image data while using the Panoptic Segmentation described above in FIG. 2 .

구체적으로 객체 라벨링부(130)는 깊이 데이터(132) 및 컬러 데이터(134)에 기초하여 이미지 데이터 내에 배경과 객체를 구분할 수 있다. 예를 들어 이미지 데이터가 시간적으로 연속하는 프레임을 포함하는 데이터라면, 객체 라벨링부(130)는 기준이 되는 현재 이미지 데이터를 기준으로 이전 이미지 데이터를 변환(Warping)한다. 객체 라벨링부(130)는 변환된 이전 이미지와 현재 이미지를 확률 알고리즘을 기초로 융합하여, 이미지 데이터 내에 깊이 데이터를 추정하여, 객체와 구분되는 배경 모델이 무엇인지 추정할 수 있다.Specifically, the object labeling unit 130 may distinguish a background and an object in the image data based on the depth data 132 and the color data 134 . For example, if the image data is data including temporally continuous frames, the object labeling unit 130 warps previous image data based on current image data as a reference. The object labeling unit 130 may fuse the converted previous image and the current image based on a probability algorithm, estimate depth data in the image data, and estimate what is a background model that is distinguished from the object.

객체와 배경이 구분되면, 객체 라벨링부(130)는 객체의 정보를 수집하기 위해서 자동 이미지 검색(133)을 수행할 수 있다. 예를 들어 객체 라벨링부(130)는 인터넷 네트워크에 사용자들이 이미지를 업로드하면서 카테고리로 연결한 데이터를 라벨링 정보로 사용할 수 있다. When the object and the background are distinguished, the object labeling unit 130 may perform an automatic image search 133 to collect information on the object. For example, the object labeling unit 130 may use as labeling information data connected to categories while users upload images to the Internet network.

전술한 각종 데이터에 기초하여 객체가 판단되면(135), 객체 라벨링부(130)는 객체마다 라벨링을 수행(136)한다.When the object is determined based on the above-described various data (135), the object labeling unit 130 performs labeling for each object (136).

객체 라벨링부(130)가 사용하는 라벨링 방법은 전술한 방법 이외에도 다양할 수 있다. 즉, 개시된 이미지 데이터 라벨링 학습 장치(100)는 이미지 데이터를 가공시켜 페이크 이미지 데이터 및 인공 신경망의 학습에 필요한 데이터를 누적시키고, 인공 신경만의 학습 시, 이전 학습 결과에 사용되는 특징 값 및 웨이트를 교번해서 사용하면 충분하며, 라벨링을 수행하는 방법에는 제한이 없다.The labeling method used by the object labeling unit 130 may be various in addition to the above-described method. That is, the disclosed image data labeling learning apparatus 100 processes image data to accumulate fake image data and data necessary for learning of an artificial neural network, and when learning only artificial neurons, the feature values and weights used for previous learning results are alternated It is enough to use it, and there is no limit to how to perform labeling.

객체 라벨링부(130)가 객체 라벨링을 수행한 후, 라벨링 검수부(140)는 라벨링된 이미지 데이터를 검토한다.After the object labeling unit 130 performs object labeling, the labeling inspection unit 140 reviews the labeled image data.

구체적으로 라벨링 검수부(140)는 라벨링의 정확도를 산출한다(141). 예를 들어 라벨링 검수부(140)는 수집된 이미지 데이터에 대해 사용자가 입력한 라벨링 값을 미리 저장하고, 이를 객체 라벨링부(130)가 생성한 라벨링 결과와 비교할 수 있다. 또한, 라벨링 검수부(140)는 인터넷 네트워크를 통해 자동 이미지 검색을 수행하고, 자동 이미지 검색 결과에서 도출되는 객체의 종류에 기초하여 객체 라벨링부(130)가 생성한 라벨링과 비교할 수 있다. 산출된 정확도는 인공 신경망의 에러율에 대응될 수 있으며, 이는 인공 신경망의 특징 값(Features)와 웨이트(Weight)를 조정하는데 사용될 수도 있다.Specifically, the labeling inspection unit 140 calculates the accuracy of the labeling (141). For example, the labeling inspection unit 140 may pre-store the labeling value input by the user for the collected image data, and compare it with the labeling result generated by the object labeling unit 130 . In addition, the labeling inspection unit 140 may perform an automatic image search through the Internet network, and may compare it with the labeling generated by the object labeling unit 130 based on the type of object derived from the automatic image search result. The calculated accuracy may correspond to an error rate of the artificial neural network, which may be used to adjust features and weights of the artificial neural network.

도 4 및 도 5는 이미지 데이터의 라벨링 학습 방법에 대한 순서도이다. 중복되는 설명을 피하기 위해서 이하 함께 설명한다.4 and 5 are flowcharts for a method for learning labeling of image data. In order to avoid overlapping descriptions, they will be described together below.

개시된 일 실시예에 따른 이미지 데이터 라벨링 학습 방법은 제1 이미지 데이터를 수집한다(300).The image data labeling learning method according to the disclosed embodiment collects first image data ( 300 ).

여기서 제1 이미지 데이터는 라벨링이 수행되는 대표적인 영상의 집합을 의미한다. 즉, 제2 이미지 데이터는 제1 이미지 데이터의 라벨링 검수가 끝난 후에 이미지 수집부(110)에서 수집될 수 있는 영상이다.Here, the first image data means a set of representative images on which labeling is performed. That is, the second image data is an image that can be collected by the image collecting unit 110 after the labeling inspection of the first image data is finished.

이미지 데이터 라벨링 학습 방법은 복수 개의 제1 페이크 이미지 데이터를 생성한다(310).The image data labeling learning method generates a plurality of first fake image data ( 310 ).

페이크 이미지 데이터는 제1 이미지 데이터에 기초하여 생성될 수 있으나, 객체에 대한 라벨링을 수행하기 위해서 주석 좌표 데이터는 유지된다.The fake image data may be generated based on the first image data, but the annotation coordinate data is maintained in order to label the object.

이미지 데이터 라벨링 학습 방법은 제1 이미지 데이터 및 제1 페이크 이미지 데이터에 기초하여 미리 저장된 인공 신경망을 학습한다(320).The image data labeling learning method learns a pre-stored artificial neural network based on the first image data and the first fake image data ( 320 ).

인공 신경망이 학습되는 방법은 도 5에서 설명한다(A). A method for learning the artificial neural network will be described with reference to FIG. 5 (A).

이미지 데이터 라벨링 학습 방법은 학습된 인공 신경망에 제1 이미지 데이터를 입력한다(330).In the image data labeling learning method, first image data is input to the learned artificial neural network ( 330 ).

객체 라벨링부(130)에 포함된 인공 신경망은 제1 이미지 데이터의 픽셀 값에 기초하여 영역을 구분하고, 객체 라벨링을 수행한다(340).The artificial neural network included in the object labeling unit 130 classifies regions based on pixel values of the first image data and performs object labeling ( 340 ).

일 실시예로 이미지 데이터 라벨링 학습 방법은 Localization 및 Panoptic segmentation을 통해 객체를 구분한다. 다른 실시예로 이미지 데이터 라벨링 학습 방법은 컬러 데이터 및 깊이 데이터에 기초하여 제1 이미지 데이터 내 픽셀의 영역을 구분하고, 구분된 픽셀 영역에 기초하여 객체에 라벨링을 수행할 수도 있다.In an embodiment, the image data labeling learning method classifies objects through localization and panoptic segmentation. In another embodiment, the image data labeling learning method may classify a pixel area in the first image data based on color data and depth data, and perform labeling on an object based on the divided pixel area.

객체가 구분되면, 이미지 데이터 라벨링 학습 방법은 구분된 객체에 정보를 삽입한다. 일 실시예로 이미지 데이터 라벨링 학습 방법은 인터넷 네트워크를 통해 자동 이미지 검색을 수행하고, 자동 이미지 검색에 기초하여 판단된 객체의 종류를 판단하고, 상기 판단된 객체의 종류에 기초하여 객체에 라벨링을 수행할 수 있다. When an object is identified, the image data labeling learning method inserts information into the classified object. In an embodiment, the image data labeling learning method performs automatic image search through an Internet network, determines the type of object determined based on automatic image search, and performs labeling on the object based on the determined type of object can do.

라벨링이 수행되면, 이미지 데이터 라벨링 학습 방법은 라벨링 검수 및 인공 신경망을 조정한다(350).When the labeling is performed, the image data labeling learning method adjusts the labeling check and the artificial neural network ( 350 ).

구체적으로 이미지 데이터 라벨링 학습 방법은 미리 저장된 객체의 카테고리 정보에 기초하여 객체 라벨링부(130)가 부여한 라벨링의 정확도를 산출하고, 산출된 정확도에 기초하여 인공 신경망의 특징 값 및 웨이트를 조정함으로써, 인공 신경망의 정확도를 높일 수 있다.Specifically, the image data labeling learning method calculates the labeling accuracy given by the object labeling unit 130 based on the category information of the object stored in advance, and adjusts the feature value and weight of the artificial neural network based on the calculated accuracy. The accuracy of the neural network can be improved.

도 5를 참조하면, 이미지 데이터 라벨링 학습 방법은 제1 이미지 데이터 및 페이크 이미지 데이터를 입력 값으로 사용하는 것 이외에 제1 이미지 데이터 및 페이크 이미지 데이터를 누적시켜 인공 신경망을 학습시킨다. Referring to FIG. 5 , the image data labeling learning method trains an artificial neural network by accumulating first image data and fake image data in addition to using the first image data and fake image data as input values.

이미지 데이터 라벨링 학습 방법은 제2 이미지 데이터를 수집한 후(400), 제2 이미지 데이터에 기초하여 생성한 제2 페이크 이미지 데이터를 생성한다(410). 또한, 이미지 데이터 라벨링 학습 방법은 제1 이미지 데이터 및 제1 페이크 이미지 데이터를 제2 이미지 데이터의 학습 데이터로 사용할 수도 있다(411). 또한, 이미지 데이터 라벨링 학습 방법은 제1 이미지 데이터를 이용하여 인공 신경망을 학습시킬 때 사용한 특징 값 및 웨이트를 교번시켜 인공 신경망을 다시 학습시킨다(412).In the image data labeling learning method, after collecting the second image data ( 400 ), second fake image data generated based on the second image data is generated ( 410 ). In addition, the image data labeling learning method may use the first image data and the first fake image data as learning data of the second image data ( 411 ). Also, in the image data labeling learning method, the artificial neural network is trained again by alternating the feature values and weights used when learning the artificial neural network using the first image data ( 412 ).

인공 신경망이 학습(420)되면, 도 4와 같이 이미지 데이터 라벨링 학습 방법은 제2 이미지 데이터를 인공 신경망에 입력시키고(430), 제2 이미지 데이터 내에 픽셀 값에 기초하여 영역을 구분하고, 객체 라벨링을 수행한다(440). When the artificial neural network is trained (420), as shown in FIG. 4, the image data labeling learning method inputs second image data to the artificial neural network (430), classifies regions based on pixel values in the second image data, and object labeling is performed (440).

이미지 데이터 라벨링 학습 방법은 라벨링이 수행되면, 제2 이미지 데이터에 포함된 라벨링을 검수하고, 산출된 정확도에 기초하여 인공 신경망을 조정한다(450).In the image data labeling learning method, when labeling is performed, the labeling included in the second image data is inspected, and the artificial neural network is adjusted based on the calculated accuracy ( S450 ).

이를 통해서 이미지 데이터 라벨링 학습 방법은 최소한의 입력 데이터 및 라벨링 검수를 통해서 방대한 데이터와 시간 및 비용이 소요되는 전처리를 효율적으로 수행할 수 있다.Through this, the image data labeling learning method can efficiently perform pre-processing that requires a large amount of data, time and cost through minimal input data and labeling inspection.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although embodiments of the present invention have been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and various modifications may be made within the scope without departing from the technical spirit of the present invention. . Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

100: 이미지 데이터 라벨링 학습 장치 110: 이미지 수집부
120: 이미지 가공부 130: 객체 라벨링부
140: 라벨링 검수부 200: ML, DL
100: image data labeling learning device 110: image collection unit
120: image processing unit 130: object labeling unit
140: labeling inspection unit 200: ML, DL

Claims (7)

인공 신경망을 저장한 메모리와 상기 인공 신경망을 동작시키는 프로세서를 포함하는 이미지 데이터 라벨링 학습 장치에 있어서,
제1 이미지 데이터를 수집하는 이미지 수집부;
상기 제1 이미지 데이터에 기초하여 제1 페이크 이미지 데이터를 생성하는 이미지 가공부; 및
상기 제1 이미지 데이터 및 상기 제1페이크 이미지 데이터에 기초하여 상기 인공 신경망을 학습시키고, 상기 학습된 인공 신경망에 기초하여 상기 제1 이미지 데이터 내 픽셀의 영역을 구분하고, 구분된 픽셀 영역에 기초하여 객체에 라벨링을 수행하는 객체 라벨링부;를 포함하고,
상기 이미지 수집부가 제2 이미지 데이터를 수집하면, 객체 라벨링부는 상기 제1 이미지 데이터, 상기 페이크 이미지 데이터, 상기 제2 이미지 데이터, 및 상기 제2 이미지 데이터에 의해서 생성된 제2 페이크 이미지 데이터를 입력값으로, 제1 이미지 데이터의 학습 시 결정된 인공 신경망의 특징값(Feature) 및 웨이트(Weight)가 교번된 인공 신경망을 다시 학습시키는 이미지 데이터 라벨링 학습 장치.
In an image data labeling learning apparatus comprising a memory storing an artificial neural network and a processor operating the artificial neural network,
an image collecting unit for collecting first image data;
an image processing unit generating first fake image data based on the first image data; and
training the artificial neural network based on the first image data and the first fake image data, classifying a pixel area in the first image data based on the learned artificial neural network, and based on the divided pixel area Including; an object labeling unit for performing labeling on the object;
When the image collection unit collects second image data, the object labeling unit receives second fake image data generated by the first image data, the fake image data, the second image data, and the second image data as input values. , an image data labeling learning apparatus for re-learning an artificial neural network in which feature values and weights of the artificial neural network determined during learning of the first image data are alternated.
제 1항에 있어서,
상기 이미지 가공부는,
상기 제1 이미지 데이터에 포함된 객체에 대한 주석(annotation) 좌표 데이터가 유지된 페이크 이미지 데이터를 생성하는 이미지 데이터 라벨링 학습 장치.
The method of claim 1,
The image processing unit,
Image data labeling learning apparatus for generating fake image data in which annotation coordinate data for an object included in the first image data is maintained.
제 2항에 있어서,
상기 이미지 가공부는,
상기 주석 좌표 데이터가 포함된 상기 페이크 이미지 데이터를 복수 개 생성하는 이미지 데이터 라벨링 학습 장치.
3. The method of claim 2,
The image processing unit,
Image data labeling learning apparatus for generating a plurality of the fake image data including the annotation coordinate data.
제 1항에 있어서,
상기 객체 라벨링부는,
상기 제2 이미지 데이터에 기초하여 상기 인공 신경망을 학습하면, 상기 제1 이미지 데이터 및 상기 제1 페이크 이미지 데이터의 일부 영역을 입력값으로, 상기 인공 신경망을 학습시키는 이미지 데이터 라벨링 학습 장치.
The method of claim 1,
The object labeling unit,
When the artificial neural network is learned based on the second image data, the image data labeling learning apparatus for learning the artificial neural network using the first image data and a partial region of the first fake image data as input values.
제 1항에 있어서,
상기 객체 라벨링부는,
인터넷 네트워크를 통해 자동 이미지 검색을 수행하고, 상기 자동 이미지 검색에 기초하여 판단된 상기 객체의 종류를 판단하고, 상기 판단된 객체의 종류에 기초하여 상기 객체에 라벨링을 수행하는 이미지 데이터 라벨링 학습 장치.
The method of claim 1,
The object labeling unit,
Image data labeling learning apparatus for performing an automatic image search through an Internet network, determining the type of the determined object based on the automatic image search, and performing labeling on the object based on the determined type of the object.
제 1항에 있어서,
상기 객체 라벨링부는,
상기 제1 이미지 데이터에 포함된 컬러 데이터 및 깊이 데이터에 기초하여 상기 제1 이미지 데이터 내 픽셀의 영역을 구분하고, 구분된 픽셀 영역에 기초하여 객체에 라벨링을 수행하는 이미지 데이터 라벨링 학습 장치.
The method of claim 1,
The object labeling unit,
Image data labeling learning apparatus for classifying a pixel area in the first image data based on color data and depth data included in the first image data, and performing labeling on an object based on the divided pixel area.
제 1항에 있어서,
미리 저장된 객체의 카테고리 정보에 기초하여 상기 객체 라벨링부가 부여한 라벨링의 정확도를 산출하고, 산출된 정확도에 기초하여 상기 인공 신경망의 상기 특징 값 및 상기 웨이트를 조정하는 라벨링 검수부;를 더 포함하는 이미지 데이터 라벨링 학습 장치.
The method of claim 1,
Image data further comprising: a labeling inspection unit that calculates the labeling accuracy given by the object labeling unit based on the category information of the object stored in advance, and adjusts the feature value and the weight of the artificial neural network based on the calculated accuracy Labeling learning device.
KR1020200146624A 2020-11-05 2020-11-05 Image data labelling apparatus and method thereof KR102537943B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200146624A KR102537943B1 (en) 2020-11-05 2020-11-05 Image data labelling apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200146624A KR102537943B1 (en) 2020-11-05 2020-11-05 Image data labelling apparatus and method thereof

Publications (2)

Publication Number Publication Date
KR20220060722A true KR20220060722A (en) 2022-05-12
KR102537943B1 KR102537943B1 (en) 2023-05-30

Family

ID=81590444

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200146624A KR102537943B1 (en) 2020-11-05 2020-11-05 Image data labelling apparatus and method thereof

Country Status (1)

Country Link
KR (1) KR102537943B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102483521B1 (en) * 2022-07-06 2023-01-02 주식회사 에이트테크 A waste material discrimination system based on hyperspectral images
KR102568037B1 (en) * 2022-11-23 2023-08-18 세종대학교산학협력단 Pipe recognition model generation method and apparatus, method and system for determining pipe abnormal area using the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190198156A1 (en) * 2017-12-21 2019-06-27 International Business Machines Corporation Medical Image Classification Based on a Generative Adversarial Network Trained Discriminator
JP2020123830A (en) * 2019-01-30 2020-08-13 京セラドキュメントソリューションズ株式会社 Image processing apparatus, image reading device, image forming apparatus, image processing method, and image processing program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190198156A1 (en) * 2017-12-21 2019-06-27 International Business Machines Corporation Medical Image Classification Based on a Generative Adversarial Network Trained Discriminator
JP2020123830A (en) * 2019-01-30 2020-08-13 京セラドキュメントソリューションズ株式会社 Image processing apparatus, image reading device, image forming apparatus, image processing method, and image processing program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Connor Shorten and Taghi M. Khoshgoftaar, "A survey on Image Data Augmentation for Deep Learning," Journal of Big Data (2019.07.06.)* *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102483521B1 (en) * 2022-07-06 2023-01-02 주식회사 에이트테크 A waste material discrimination system based on hyperspectral images
WO2024010123A1 (en) * 2022-07-06 2024-01-11 주식회사 에이트테크 Hyperspectral image-based waste material discrimination system
KR102568037B1 (en) * 2022-11-23 2023-08-18 세종대학교산학협력단 Pipe recognition model generation method and apparatus, method and system for determining pipe abnormal area using the same

Also Published As

Publication number Publication date
KR102537943B1 (en) 2023-05-30

Similar Documents

Publication Publication Date Title
US11763550B2 (en) Forming a dataset for fully-supervised learning
Li et al. Localizing and quantifying damage in social media images
CN111275688B (en) Small target detection method based on context feature fusion screening of attention mechanism
US10474713B1 (en) Learning method and learning device using multiple labeled databases with different label sets and testing method and testing device using the same
US11676365B2 (en) Explainable artificial intelligence (AI) based image analytic, automatic damage detection and estimation system
EP3620980B1 (en) Learning method, learning device for detecting lane by using cnn and testing method, testing device using the same
EP3644236B1 (en) Cnn-based learning method, learning device for selecting useful training data and test method, test device using the same
US11640714B2 (en) Video panoptic segmentation
CN110163236A (en) The training method and device of model, storage medium, electronic device
CN104573669A (en) Image object detection method
EP3620958B1 (en) Learning method, learning device for detecting lane through lane model and testing method, testing device using the same
KR20220060722A (en) Image data labelling apparatus and method thereof
CN113673607A (en) Method and device for training image annotation model and image annotation
EP4174766A1 (en) Generating segmentation masks for training a semantic segmentation model
Gurari et al. Predicting foreground object ambiguity and efficiently crowdsourcing the segmentation (s)
US20210365746A1 (en) Method of classificating outlier in object recognition and device and robot of classifying thereof
CN114120057A (en) Confusion matrix generation method based on Paddledetection
Fujita et al. Fine-tuned Surface Object Detection Applying Pre-trained Mask R-CNN Models
Liu et al. Peaks Fusion assisted Early-stopping Strategy for Overhead Imagery Segmentation with Noisy Labels
Harini et al. A novel static and dynamic hand gesture recognition using self organizing map with deep convolutional neural network
Jakob et al. Extracting training data for machine learning road segmentation from pedestrian perspective
Singh et al. Deep Learning-based Rice Leaf Disease Diagnosis using Convolutional Neural Networks
Ahuja et al. Object Detection and classification for Autonomous Drones
KR102480062B1 (en) Method for generate training data through 3D object recognition and synthesizing into virtual space, and computer program recorded on record-medium for executing method therefor
KR102599196B1 (en) Method for estimate job cost of work on generating training data, and computer program recorded on record-medium for executing method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant