WO2023106515A1 - 인공신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치 및 방법 - Google Patents

인공신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치 및 방법 Download PDF

Info

Publication number
WO2023106515A1
WO2023106515A1 PCT/KR2022/003812 KR2022003812W WO2023106515A1 WO 2023106515 A1 WO2023106515 A1 WO 2023106515A1 KR 2022003812 W KR2022003812 W KR 2022003812W WO 2023106515 A1 WO2023106515 A1 WO 2023106515A1
Authority
WO
WIPO (PCT)
Prior art keywords
neural network
learning
artificial neural
image
label
Prior art date
Application number
PCT/KR2022/003812
Other languages
English (en)
French (fr)
Inventor
이종혁
김형석
Original Assignee
전북대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전북대학교산학협력단 filed Critical 전북대학교산학협력단
Publication of WO2023106515A1 publication Critical patent/WO2023106515A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation

Definitions

  • the present invention relates to an apparatus and method for obtaining a label for learning an artificial neural network, which can produce and provide a precise domain label for learning an artificial neural network with optimal efficiency.
  • Semi-supervised learning showed improved performance of the model by using the remaining unlabeled images with only some reference labels. However, since only reference labels for some data exist in general during the learning process, it is difficult to produce precise results with the trained network.
  • the weak map method can be used when labels for other domains have been created, but it is difficult to apply when it is difficult to create labels for other domains.
  • semi-supervised and weak-supervised neural networks have complex model structures, and some use pre-trained models to improve performance.
  • pre-trained models it is not easy to apply pre-trained models to agricultural data because there are not many artificial neural networks trained on agricultural data that can improve learning performance.
  • the neural network will have the ability to recognize the shape of an object.
  • the artificial neural network can show that it has recognized the object by displaying the area of the object at the location of the object in the image. .
  • the part where humans must intervene is a labeling task that displays only the area of an object in an arbitrary image including the object.
  • This labeling task is usually performed manually by humans, and in order to obtain a high-performance artificial neural network, a large-scale image labeling task is required. Since the quality and quantity of this label image have a great influence on the recognition performance of the learning artificial neural network, the area of the object must be precisely marked. However, there is a problem in that a lot of time and money are required to accurately express an object.
  • the present invention is a new method for artificial neural network learning that enables precision region labels for object regions used in artificial neural network-based image recognition to be produced with minimal time and cost. It is intended to provide a label acquisition device and method.
  • M is a natural number of 2 or more learning images for artificial neural network learning
  • L is a natural number of 2 or more verification for artificial neural network verification.
  • an image acquisition unit that acquires an image; For each of the M training images, after generating n complementary labels and 1 reference label corresponding to each training image, each training image is used as an input image, and 1 reference label and n auxiliary labels corresponding thereto are generated.
  • a learning data generation unit configured to construct M learning data sets by repeatedly performing an operation of generating learning data sets as learning target images; For each of the L verification images, after creating a precision manual label corresponding to each verification image, repeating the operation of generating a verification data set with each verification image as an input image and the corresponding precision manual label as a verification target image a verification data generating unit configured to perform L verification data sets; The operation of SO-MT (Single output-Multi Targets) training of the artificial neural network using M training data sets is repeatedly performed, and the artificial neural network is SO-ST (Single Output-Single Target) for L verification data sets An artificial neural network learning unit that repeatedly performs an operation to be learned; The artificial neural network verifies the predictive performance of the artificial neural network by calculating and analyzing the difference between the output prediction value for each verification image of the L verification data set and the precise manual label for each learning repetition period of the artificial neural network and determines whether to end learning.
  • SO-MT Single output-Multi Targets
  • Neural network learning termination determination unit and acquiring M precision region labels by sequentially inputting M training images into the learned artificial neural network, and at the same time acquiring L precision manual labels corresponding to each of the L verification images as L precision region labels.
  • a semi-automatic precision region label acquisition device for artificial neural network learning including a region label acquisition unit.
  • the image acquisition unit temporarily acquires (M+L) images, randomly selects M images and sets them as M training images, and sets the remaining L images as L verification images.
  • the learning data generation unit may generate each auxiliary label according to an image processing-based automatic labeling method or a pre-learned artificial neural network prediction-based method for the purpose of object region recognition, and the image processing-based automatic labeling method is a threshold-based labeling method. , and an edge-based labeling method.
  • the artificial neural network prediction-based method is characterized in that an output image obtained by sequentially applying M learning images to a pre-developed artificial neural network for the purpose of object region recognition is used as a labeling image.
  • the learning data generation unit may generate reference labels according to a non-precise labeling method that allows a user to manually set an imprecise area using a computer software tool, and the non-precise labeling method includes a bounding box labeling method and a polygon labeling method. method, a circular labeling method, and an elliptical labeling method.
  • the artificial neural network learning unit sequentially selects one training data set and uses n + 1 reference labels and auxiliary labels as one input image and a corresponding learning target image SO -SO that repeatedly performs MT learning, and for L verification data sets, selects one verification data set sequentially and uses one precision manual label as one input image and a corresponding training target image for learning - It is characterized in that ST learning is repeatedly performed.
  • the artificial neural network learning termination determining unit calculates an average Intersection over Union (IOU) based on the output of the artificial neural network for the L verification data and the precise manual label created manually, and ends learning if the calculated IOU value is less than a preset value. However, if not, it is characterized in that the artificial neural network learning unit additionally performs SO-MT and SO-ST learning based on a new image.
  • IOU Intersection over Union
  • a plurality of label images are applied as targets to an artificial neural network outputting a single image and learned, and in the SO-ST learning, one label image is applied to an artificial neural network outputting a single image. It is characterized in that it is applied to the target and learned.
  • the precise region label obtaining unit may not perform parameter update of the artificial neural network when obtaining a precise region label corresponding to a training image through the artificial neural network that has been trained.
  • the precision area label acquisition unit additionally performs an AND operation with a reference label corresponding to each training data for M precision area labels obtained for each of the M pieces of training data among (M+L) precision area labels, It is characterized in that it further includes a function of taking only a part included in the area corresponding to the area of the reference label among the precision area label areas as the final precision area label.
  • M is a natural number of 2 or more training images for artificial neural network learning and L (L is a natural number of 2 or more) verification for artificial neural network verification.
  • SO-MT Single output-Multi Targets
  • the operation of SO-MT (Single output-Multi Targets) training of the artificial neural network using M training data sets is repeatedly performed, and the artificial neural network is SO-ST (Single Output-Single Target) for L verification data sets
  • the artificial neural network verifies the predictive performance of the artificial neural network by calculating and analyzing the difference between the output prediction value for each verification image of the L verification data set and the precise manual label for each learning repetition period of the artificial neural network and determines whether to end learning.
  • Neural network training end determination step and acquiring M precision region labels by sequentially inputting M training images into the learned artificial neural network, and at the same time acquiring L precision manual labels corresponding to each of the L verification images as L precision region labels.
  • a semi-automatic precision region label acquisition method for artificial neural network learning including a region label acquisition step is provided.
  • the artificial neural network after generating n supplementary labels and one reference label from one training image, and then repeatedly learning the artificial neural network using SO-MT (Single output-Multi Targets) method, the artificial neural network can generate n complementary labels.
  • a label and one reference label are synthesized to have the effect of predicting the precision area label image.
  • FIG. 1 is a diagram for explaining an apparatus for obtaining a label for learning an artificial neural network according to an embodiment of the present invention.
  • FIGS. 2 to 5 are views for explaining labeling methods according to an embodiment of the present invention.
  • FIG. 6 is a diagram for explaining a data structure for learning and verifying an artificial neural network according to an embodiment of the present invention.
  • FIG. 7 is a diagram for explaining an optimal learning end point according to an embodiment of the present invention.
  • FIG 8 and 9 are views for explaining a method for learning and using an artificial neural network according to an embodiment of the present invention.
  • block diagrams herein are to be understood as representing conceptual views of exemplary circuits embodying the principles of the present invention.
  • all flowcharts, state transition diagrams, pseudo code, etc. are meant to be tangibly represented on computer readable media and represent various processes performed by a computer or processor, whether or not the computer or processor is explicitly depicted. It should be.
  • FIG. 1 is a diagram for explaining an apparatus for obtaining a label for learning an artificial neural network according to an embodiment of the present invention.
  • the device 100 includes an image input unit 110, a learning data generator 121, a verification data generator 122, an artificial neural network 130, and an artificial neural network learning unit 140. , an artificial neural network learning termination determination unit 150, a precision region label acquisition unit 160, and the like.
  • the image input unit 110 acquires M (M is a natural number greater than or equal to 2) training images for learning the artificial neural network and L (L is a natural number greater than or equal to 2) verification images for verifying the artificial neural network.
  • M images are randomly selected and set as M training images, and the remaining L images are set as L verification images.
  • the learning data generation unit 121 For each of the M training images, the learning data generation unit 121 generates n complementary labels and one reference label corresponding to each training image, and then takes each training image as an input image and generates one corresponding training image.
  • M training data sets are formed by repeatedly performing an operation of generating training data sets using the reference label and n auxiliary labels as learning target images.
  • the verification data generation unit 122 For each of the L verification images, the verification data generation unit 122 creates precise manual labels corresponding to each verification image, and then verifies each verification image as an input image and uses the precise manual label corresponding thereto as a learning target image. The operation of generating data sets is repeatedly performed to form L verification data sets.
  • the manual label designation method with very high precision may be implemented by a method in which a user precisely draws a boundary line of an object region, but is not limited thereto.
  • the artificial neural network 130 is implemented as a U-net-based neural network, which uses all of the complementary label image, the reference label image, and precise manual label as targets, using automatic labeling methods by computer, non-precise labeling methods, and precise manual labeling methods.
  • the predictive characteristics of the labeling method are repeatedly accumulated and learned, and when the learning is completed, all of these predictive characteristics are reflected to have the effect of predicting the precision region label.
  • the artificial neural network learning unit 140 sequentially selects one training data set and uses n+1 reference labels and auxiliary labels as one input image and a corresponding learning target image.
  • SO-MT Single output-Multi Targets
  • SO-MT learning is repeatedly performed. At this time, SO-MT learning is to apply a plurality of label images as targets to an artificial neural network outputting a single image and learn them.
  • SO-ST Single Output-Single Target
  • the artificial neural network learning completion determination unit 150 calculates and analyzes the difference between the output prediction value for each verification image of the L verification data sets and the precise manual label for each learning iteration section of the artificial neural network 130, and calculates and analyzes the artificial neural network Verifies prediction performance and decides whether to end learning.
  • IOU Intersection over Union
  • the precision region label acquisition unit 160 acquires M precision region labels by sequentially inputting M training images to the trained artificial neural network, and at the same time, L precision manual labels corresponding to each of the L verification images. It is acquired as a precise area label.
  • (M+L) precision region labels corresponding to M training images and L verification images are obtained and provided.
  • the semi-automatic precision region label acquisition device for artificial neural network learning characterized in that the parameter update of the artificial neural network is not performed.
  • FIGS. 2 to 5 are views for explaining labeling methods according to an embodiment of the present invention.
  • the supplementary label of the present invention may be generated according to an automatic labeling method based on image processing such as a threshold-based labeling method or an edge-based labeling method, or a pre-learned artificial neural network prediction-based method for object region recognition.
  • the threshold-based labeling method calculates and analyzes color distributions of objects and backgrounds in an image to obtain thresholds for distinguishing objects and backgrounds, and automatically labels object regions based on the thresholds.
  • the edge-based labeling method is a method of binarizing an image as shown in FIG. 3, detecting an edge, and automatically labeling an object area based on the edge detection result.
  • the artificial neural network prediction-based method sequentially applies M training images to a pre-developed artificial neural network for the purpose of recognizing an object region, and then uses the resulting image as one of auxiliary labels.
  • one reference label corresponding to one training image may be generated according to a non-precise labeling method that allows a user to manually set an imprecise area using a computer software tool.
  • the non-precise labeling method is a bounding box labeling method in which an operator designates an object area in a bounding box shape as shown in FIG. 4 (a), and an operator designates an object area in a polygonal shape as shown in FIG. It may be any one of a polygonal labeling method, a circular labeling method in which an operator designates an object area in a circular shape, and an elliptical labeling method in which an operator designates an object area in an elliptical shape.
  • the operator precisely specifies the object area in the image. As shown in FIG. 5, the operator precisely tracks the boundary line of the object area through the area setting tool of the image processing program It may be implemented in a method or the like, but is not necessarily limited thereto.
  • FIG. 6 is a diagram for explaining a data structure for learning and verifying an artificial neural network according to an embodiment of the present invention.
  • L verification data are further provided in addition to the M training data sets, and the optimal learning end time can be determined through the L verification data.
  • the verification data of the present invention is a precise labeling manually created to be used for verification, and it is used only for verification and is a waste of time to throw away, so it is involved in learning.
  • the present invention has a feature of additionally providing L verification data and using it as dual-purpose data to be used for learning as well as for determining the optimal learning end point.
  • FIG 8 and 9 are views for explaining a method for learning and using an artificial neural network according to an embodiment of the present invention.
  • M training data sets and L verification data sets are created and stored for artificial neural network learning (S1).
  • the artificial neural network learning unit 140 first selects one of the M learning data sets (S2).
  • SO-MT learning is repeatedly performed using n+1 reference labels and auxiliary labels as one input image and a corresponding learning target image (S3).
  • the training data set contains 1 input image, 3 complementary labels, and 1 reference label, (input image + complementary label 1), (input image + complementary label 2), (input image + complementary label) 3)
  • input image + complementary label 1 input image
  • input image + complementary label 2 input image + complementary label
  • input image + complementary label 3 input image + complementary label 3
  • the artificial neural network learning end determining unit 150 sequentially selects L verification data whenever the artificial neural network learning unit 140 completes SO-MT learning using the currently selected training data set, and selects one input image and SO-ST (Single Output-Single Target) learning, which uses precise manual labels as learning target images corresponding thereto, is repeatedly performed (S4).
  • SO-ST Single Output-Single Target
  • the precision region label acquisition unit 160 acquires M precise region labels by sequentially inputting M training images to the trained artificial neural network, and at the same time L verification images. L precise manual labels corresponding to each are obtained and stored as L precise area labels. That is, a label for artificial neural network learning is acquired using the artificial neural network that has been trained, and stored in an internal memory or provided to an external device (S8).
  • the precision region label acquisition unit 160 of the present invention ANDs the M precision region labels obtained for each M training data among the (M+L) precision region labels with the reference label corresponding to each training data. By additionally performing the operation, only the part included in the area corresponding to the reference label area among the precision area label areas can be taken as the final precision area label.
  • output outside the reference label may occur due to generalization characteristics of the artificial neural network or inaccuracies of auxiliary labels.
  • the standard label is a label manually created by a person, and has a characteristic of defining a range in which output must not be output otherwise.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 인공신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치 및 방법에 관한 발명으로, 하나의 학습 영상으로부터 n개의 보완 레이블들과 1개의 기준 레이블을 생성한 후, 이들을 타겟으로 SO-MT 방식으로 인공신경망을 반복 학습시킴으로써, 인공신경망이 n개의 보완 레이블들과 1개의 기준 레이블을 합성하여 정밀영역 레이블 영상을 예측하는 효과를 가질 수 있다. 또한, 학습 영상에 대응되는 정밀 레이블 영상을 검증 데이터로 획득 및 이용하여 인공신경망의 예측 성능을 검증한 후, 이에 기반하여 학습 종료 여부를 결정할 수 있도록 함으로써, 인공신경망의 학습 횟수 과잉 또는 과부족 현상의 발생을 사전 차단할 수 있다.

Description

인공신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치 및 방법
본 발명은 인공신경망 학습을 위한 정밀영역 레이블을 최적의 효율로 제작 및 제공할 수 있도록 하는 인공신경망 학습을 위한 레이블 획득 장치 및 방법에 관한 것이다.
인공신경망은 대용량의 학습 데이터를 반복 학습시키는 것을 기본 가정으로 하고 있기 때문에, 데이터가 부족한 상황에서 인공신경망을 학습시키는 것은 매우 어렵고 모델의 일반화를 저해하는 오버-피팅(over-fitting)과 같은 현상이 일어나기 쉽다. 또한 모델의 검증에 필요한 데이터도 충분하지 않아 학습된 모델을 신뢰하기 어렵다.
많은 상황에서 학습 조건이 이상적이지 않기 때문에 데이터가 부족한 상황에서도 모델을 효과적으로 학습시키는 방법들이 제안되어왔다. 준지도 학습(Semi supervised learning)은 입력 데이터 자체의 특성을 이용하거나 주어진 일부 레이블(label)을 활용하며 약지도 학습(weakly supervised learning)은 다른 도메인의 정답을 이용한다.
준지도 학습은 일부 기준 레이블만으로 나머지 언레이블드 이미지를 이용하여 모델의 성능향상을 보였다. 그러나 일반적으로 학습과정에서 일부 데이터에 대한 기준 레이블만 존재하기 때문에 학습된 네트워크로 정밀한 결과물을 생성하기는 어렵다. 약지도 방식은 다른 도메인의 레이블이 작성되어 있는 경우 활용이 가능하고 다른 도메인의 레이블 제작이 어려운 경우 적용이 어렵다.
단일 물체의 레이블을 생성하고자 할 때 이미지 레벨의 레이블링이나 픽셀 레벨의 레이블링을 수행하는 것은 쉽지 않다.
또한 준지도, 약지도 신경망들은 복잡한 모델 구조를 가지고 있고 성능 향상을 위해 일부는 사전 훈련된 모델을 사용한다. 그러나 학습 성능을 향상시킬 수 있는 농업 데이터를 학습시킨 인공신경망이 많지 않기 때문에 농업 데이터에 사전 훈련된 모델을 적용하는 것은 쉽지 않다.
한편, 객체를 영상을 통해서 인식하기 위해서는 다양한 배경에서의 다양한 각도, 다양한 크기의 객체 모습을 인식할 수 있어야 한다. 이를 위해서는 여러 상황에서 촬영한 영상에서 객체의 범위만을 지정해서 인공신경망에 알려줘야 한다. 이렇게 객체가 범위를 영역으로 지정해 주는 일을 정밀 영역 레이블링이라고 한다.
인공신경망 입력에 특정 객체와 배경이 포함된 영상을 인가하고, 학습 목표 영상으로 특정객체가 위치하는 영역을 표시해 주어 인공신경망을 학습시키고, 이런 학습을 그 객체가 포함된 다양한 영상에서 학습시키면, 인공신경망은 객체의 형상을 인식하는 능력을 갖게 된다.
이렇게 학습이 완료된 인공신경망에 동일한 객체가 포함된 학습에 사용되지 않은 영상을 입력으로 인가하면, 인공신경망은 그 영상 중에서 그 객체의 위치에 해당 객체의 영역을 표시해 줌으로써 그 객체를 인식했음을 보여줄 수 있다.
이와 같은 과정에서 인간이 개입해야 하는 부분은 객체가 포함된 임의의 영상에서 객체의 영역만을 표시해 주는 레이블링 작업이다.
이 레이블링 작업은 보통 인간의 수작업에 의해 수행되고, 고성능의 인공신경망을 얻기 위해서는 대규모의 영상에 대한 레이블링 작업이 필요하게 된다. 이 레이블 영상의 질과 양은 학습하는 인공신경망의 인식성능에 큰 영향을 주기 때문에 객체의 영역을 정밀하게 표시해 줘야 한다. 그러나 객체를 정밀하게 표현해 주려면 많은 시간과 비용이 필요하다는 문제가 있다.
이에 상기와 같은 문제점을 해결하기 위한 것으로서, 본 발명은 인공 인공신경망 기반 영상 인식에 사용되는 객체 영역들에 대한 정밀영역 레이블을 최소한의 시간과 비용으로 제작할 수 있도록 하는 새로운 방식의 인공신경망 학습을 위한 레이블 획득 장치 및 방법을 제공하고자 한다.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 해결하기 위한 수단으로서, 본 발명의 일 실시 형태에 따르면, 인공신경망 학습을 위한 M(M은 2 이상의 자연수)개의 학습 영상과 인공신경망 검증을 위한 L(L은 2 이상의 자연수)개의 검증 영상을 획득하는 영상 획득부; M개의 학습 영상 각각에 대해, 각 학습 영상에 대응되는 n개의 보완 레이블들과 1개의 기준 레이블을 생성한 후, 각 학습 영상을 입력영상으로 하고 이에 대응하는 1개의 기준 레이블과 n개의 보조레이블들을 학습 타겟 영상으로 하는 학습 데이터 셋트를 생성하는 동작을 반복 수행하여 M개의 학습 데이터 셋트를 구성하는 학습 데이터 생성부; L개의 검증 영상 각각에 대해, 각 검증 영상에 대응되는 정밀 수작업 레이블을 작성한 후, 각 검증 영상을 입력영상으로 하고 이에 대응하는 정밀 수작업 레이블을 검증 타겟 영상으로 하는 검증 데이터 셋트를 생성하는 동작을 반복 수행하여 L개의 검증 데이터 셋트를 구성하는 검증 데이터 생성부; M개의 학습 데이터 셋트를 이용하여 인공신경망을 SO-MT(Single output-Multi Targets) 학습시키는 동작을 반복 수행하고, L개의 검증 데이터 셋트에 대해서도 상기 인공신경망을 SO-ST(Single Output-Single Target) 학습시키는 동작을 반복 수행하는 인공신경망 학습부; 상기 인공신경망의 학습 반복 구간마다 L개의 검증 데이터 셋트의 각 검증 영상에 대한 출력 예측값과 정밀 수작업 레이블과의 차이값을 산출 및 분석하여 상기 인공신경망의 예측 성능을 검증하고 학습 종료 여부를 결정하는 인공신경망 학습종료 판단부; 및 학습 완료된 상기 인공신경망에 M개의 학습 영상을 순차적으로 입력하여 M개의 정밀영역 레이블을 획득하고, 이와 동시에 L개의 검증 영상 각각에 대응되는 L개의 정밀 수작업 레이블을 L개의 정밀영역 레이블로 획득하는 정밀영역 레이블 획득부를 포함하는 인공신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치를 제공한다.
상기 영상 획득부는 (M+L)개의 영상을 일시 획득한 후, M개의 영상을 랜덤 선택하여 M개의 학습 영상으로 설정하고, 나머지 L개의 영상은 L개의 검증 영상으로 설정하는 것을 특징으로 한다.
상기 학습 데이터 생성부는 보조레이블 각각을 영상 처리 기반의 자동 레이블링 방법이나 물체 영역인식 목적으로 기 학습된 인공 신경망 예측기반 방법에 따라 생성할 수 있으며, 상기 영상 처리 기반의 자동 레이블링 방법은 임계치 기반 레이블링 방법, 및 에지 기반 레이블링 방법인 것을 특징으로 한다.
상기 인공 신경망 예측 기반 방법은 물체 영역인식을 목적으로 기 개발된 인공신경망에 M개의 학습 영상을 순차적으로 인가하여 획득한 출력 영상을 레이블링 영상으로 사용하는 것을 특징으로 한다.
상기 학습 데이터 생성부는 기준레이블을 사용자가 컴퓨터 소프트웨어 툴을 활용하여 수작업 방식으로 비정밀 영역을 설정하도록 하는 비 정밀 레이블링 방법에 따라 생성할 수 있으며, 상기 비 정밀 레이블링 방법은 경계박스 레이블링 방법, 다각형 레이블링 방법, 원형 레이블링 방법, 타원형 레이블링 방법 중 어느 하나 인 것을 특징으로 한다.
상기 인공신경망 학습부는 M개의 학습데이터 셋트에 대해서는, 하나의 학습데이터 셋트를 순차적으로 선택하여 1 개의 입력영상과 이에 대응하는 학습 타겟 영상으로 n+1개의 기준레이블 및 보조레이블을 사용하여 학습시키는 SO-MT 학습을 반복 수행하고, L개의 검증 데이터 셋트에 대해서는, 하나의 검증 데이터 셋트를 순차적으로 선택하여 1 개의 입력영상과 이에 대응하는 학습 타겟 영상으로 1 개의 정밀수작업 레이블을 사용하여 학습시키는 SO-ST 학습을 반복 수행하는 것을 특징으로 한다.
상기 인공신경망 학습종료 판단부는 상기 L 개의 검증 데이터에 대한 인공신경망의 출력과 수작업 방식으로 작성된 정밀 수작업 레이블에 기반하여 평균 IOU(Intersection over Union)를 산출하고, IOU 산출치가 기 설정치 이하이면 학습을 종료하되, 그렇지 않으면 상기 인공신경망 학습부가 새로운 영상에 기반한 SO-MT 및 SO-ST 학습을 추가 수행하도록 하는 것을 특징으로 한다.
그리고 상기 장치는 상기 SO-MT 학습은 단일 영상이 출력되는 인공신경망에 다수의 레이블 영상이 타겟으로 인가되어 학습되게 하고, 상기 SO-ST 학습은 단일 영상이 출력되는 인공신경망에 하나의 레이블 영상이 타겟으로 인가되어 학습되게 하는 것인 것을 특징으로 한다.
상기 정밀영역 레이블 획득부는 학습 완료된 상기 인공신경망을 통해 학습 영상에 대응되는 정밀영역 레이블을 획득하는 경우, 상기 인공신경망의 파라미터 업데이트는 수행하지 않는 것을 특징으로 한다.
상기 정밀영역 레이블 획득부는 (M+L) 개의 정밀 영역레이블들 중 M 개의 각 학습데이터에 대해서 얻은 M 개의 정밀 영역 레이블에 대해서는 각 학습데이터에 대응하는 기준레이블과의 AND 연산을 추가적으로 수행함으로써, 각 정밀 영역 레이블 영역 중 기준 레이블의 영역에 해당되는 영역에 포함되는 부분만을 최종 정밀영역 레이블로 취하는 기능을 더 포함하는 것을 특징으로 한다.
상기 과제를 해결하기 위한 수단으로서, 본 발명의 다른 실시 형태에 따르면, 인공신경망 학습을 위한 M(M은 2 이상의 자연수)개의 학습 영상과 인공신경망 검증을 위한 L(L은 2 이상의 자연수)개의 검증 영상을 획득하는 영상 획득 단계; M개의 학습 영상 각각에 대해, 각 학습 영상에 대응되는 n개의 보완 레이블들과 1개의 기준 레이블을 생성한 후, 각 학습 영상을 입력영상으로 하고 이에 대응하는 1개의 기준 레이블과 n개의 보조레이블들을 학습 타겟 영상으로 하는 학습 데이터 셋트를 생성하는 동작을 반복 수행하여 M개의 학습 데이터 셋트를 구성하는 학습 데이터 생성 단계; L개의 검증 영상 각각에 대해, 각 검증 영상에 대응되는 정밀 수작업 레이블을 작성한 후, 각 검증 영상을 입력영상으로 하고 이에 대응하는 정밀 수작업 레이블을 검증 타겟 영상으로 하는 검증 데이터 셋트를 생성하는 동작을 반복 수행하여 L개의 검증 데이터 셋트를 구성하는 검증 데이터 생성 단계; M개의 학습 데이터 셋트를 이용하여 인공신경망을 SO-MT(Single output-Multi Targets) 학습시키는 동작을 반복 수행하고, L개의 검증 데이터 셋트에 대해서도 상기 인공신경망을 SO-ST(Single Output-Single Target) 학습시키는 동작을 반복 수행하는 인공신경망 학습 단계; 상기 인공신경망의 학습 반복 구간마다 L개의 검증 데이터 셋트의 각 검증 영상에 대한 출력 예측값과 정밀 수작업 레이블과의 차이값을 산출 및 분석하여 상기 인공신경망의 예측 성능을 검증하고 학습 종료 여부를 결정하는 인공신경망 학습종료 판단 단계; 및 학습 완료된 상기 인공신경망에 M개의 학습 영상을 순차적으로 입력하여 M개의 정밀영역 레이블을 획득하고, 이와 동시에 L개의 검증 영상 각각에 대응되는 L개의 정밀 수작업 레이블을 L개의 정밀영역 레이블로 획득하는 정밀영역 레이블 획득 단계를 포함하는 인공신경망 학습을 위한 반자동 정밀영역 레이블 획득 방법을 제공한다.
본 발명은 하나의 학습 영상으로부터 n개의 보완 레이블과 1개의 기준 레이블을 생성한 후, 이들을 타겟으로 SO-MT(Single output-Multi Targets) 방식으로 인공신경망을 반복 학습시킴으로써, 인공신경망이 n개의 보완 레이블과 1개의 기준 레이블을 합성하여 정밀영역 레이블 영상을 예측하는 효과를 가질 수 있도록 한다.
또한 학습 영상에 대응되는 정밀 레이블 영상을 검증 데이터로 획득 및 이용하여 인공신경망의 예측 성능을 검증한 후, 이에 기반하여 학습 종료 여부를 결정할 수 있도록 함으로써, 인공신경망의 학습 횟수 과잉 또는 과부족 현상의 발생을 사전 차단할 수 있도록 한다.
도 1은 본 발명에 일 실시예에 따른 인공신경망 학습을 위한 레이블 획득 장치를 설명하기 위한 도면이다.
도 2 내지 도 5는 본 발명의 일 실시예에 따른 레이블링 방법들을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 인공신경망 학습 및 검증을 위한 데이터 구조를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 최적의 학습 종료 시점을 설명하기 위한 도면이다.
도 8 및 도 9는 본 발명에 일 실시예에 따른 인공신경망 학습 및 이용 방법을 설명하기 위한 도면이다.
이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.
또한, 본 발명의 원리, 관점 및 실시예들 뿐만 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.
따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.
도 1은 본 발명에 일 실시예에 따른 인공신경망 학습을 위한 레이블 획득 장치를 설명하기 위한 도면이다.
도 1을 참조하면, 본 발명에 따른 장치(100)는 영상 입력부(110), 학습 데이터 생성부(121), 검증 데이터 생성부(122), 인공신경망(130), 인공신경망 학습부(140), 인공신경망 학습종료 판단부(150), 정밀영역 레이블 획득부(160) 등을 포함한다.
영상 입력부(110)는 인공신경망 학습을 위한 M(M은 2 이상의 자연수)개의 학습 영상과 인공신경망 검증을 위한 L(L은 2 이상의 자연수)개의 검증 영상을 획득한다.
보다 상세하게는 (M+L)개의 영상을 일시 획득한 후, M개의 영상을 랜덤 선택하여 M개의 학습 영상으로 설정하고, 나머지 L개의 영상은 L개의 검증 영상으로 설정하도록 한다.
학습 데이터 생성부(121)는 M개의 학습 영상 각각에 대해, 각 학습 영상에 대응되는 n개의 보완 레이블들과 1개의 기준 레이블을 생성한 후, 각 학습 영상을 입력영상으로 하고 이에 대응하는 1개의 기준 레이블과 n개의 보조레이블들을 학습 타겟 영상으로 하는 학습 데이터 셋트를 생성하는 동작을 반복 수행하여 M개의 학습 데이터 셋트를 구성한다.
검증 데이터 생성부(122)는 L개의 검증 영상 각각에 대해, 각 검증 영상에 대응되는 정밀 수작업 레이블을 작성한 후, 각 검증 영상을 입력영상으로 하고 이에 대응하는 정밀 수작업 레이블을 학습 타겟 영상으로 하는 검증 데이터 셋트를 생성하는 동작을 반복 수행하여 L개의 검증 데이터 셋트를 구성한다.
이때, 정밀도가 매우 높은 수작업 레이블 지정 방법은 사용자가 객체 영역 경계 라인을 정밀 드로잉하는 방법 등으로 구현될 수 있으나, 이에 한정될 필요는 없다.
인공신경망(130)은 U-net 계열의 신경망으로 구현되며, 이는 보완 레이블 영상, 기준 레이블 영상, 정밀 수작업 레이블 모두를 타겟으로 이용하여 컴퓨터에 의한 자동 레이블링 방법들, 비 정밀 레이블링 방법들, 정밀 수작업 레이블링 방법의 예측 특성을 반복적으로 누적 학습하여, 학습 완료시에는 이들의 예측 특성이 모두 반영하여 정밀영역 레이블을 예측하는 효과를 가질 수 있게 된다.
인공신경망 학습부(140)는 M개의 학습데이터 셋트에 대해서는, 하나의 학습데이터 셋트를 순차적으로 선택하여 1 개의 입력영상과 이에 대응하는 학습 타겟 영상으로 n+1개의 기준레이블 및 보조레이블을 사용하여 학습시키는 SO-MT(Single output-Multi Targets) 학습을 반복 수행한다. 이때, SO-MT 학습은 단일 영상이 출력되는 인공신경망에 다수의 레이블 영상이 타겟으로 인가되어 학습되게 하는 것이다.
또한 L개의 검증 데이터 셋트에 대해서는, 하나의 검증 데이터 셋트를 순차적으로 선택하여 1 개의 입력영상과 이에 대응하는 학습 타겟 영상으로 1 개의 정밀수작업 레이블을 사용하여 학습시키는 SO-ST(Single Output-Single Target) 학습을 반복 수행한다. 이때, SO-ST 학습은 단일 영상이 출력되는 인공신경망에 하나의 레이블 영상이 타겟으로 인가되어 학습되게 하는 것인 것을 특징으로 하는
인공신경망 학습종료 판단부(150)는 인공신경망(130)의 학습 반복 구간마다 L개의 검증 데이터 셋트의 각 검증 영상에 대한 출력 예측값과 정밀 수작업 레이블과의 차이값을 산출 및 분석하여 상기 인공신경망의 예측 성능을 검증하고 학습 종료 여부를 결정한다.
보다 상세하게는, L 개의 검증 데이터에 대한 인공신경망의 출력과 수작업에 의해 작성된 정밀 수작업 레이블에 대한 평균 IOU(Intersection over Union)로 산출한다. 그리고 평균 IOU이 기 설정치 이하이면 학습을 종료하고, 기 설정치 보다 크면, 인공신경망 학습부(140)을 통해 인공신경망 학습이 또 다시 반복 수행되도록 한다.
정밀영역 레이블 획득부(160)는 학습 완료된 인공신경망에 M개의 학습 영상을 순차적으로 입력하여 M개의 정밀영역 레이블을 획득하고, 이와 동시에 L개의 검증 영상 각각에 대응되는 L개의 정밀 수작업 레이블을 L개의 정밀영역 레이블로 획득하도록 한다.
즉, M개의 학습 영상과 L개의 검증 영상 각각에 대응되는 (M+L)개의 정밀영역 레이블을 획득 및 제공하도록 한다. 다만, 이때에는 인공신경망의 파라미터 업데이트는 수행하지 않는 것을 특징으로 하는 인공 신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치.
도 2 내지 도 5는 본 발명의 일 실시예에 따른 레이블링 방법들을 설명하기 위한 도면이다.
본 발명의 보완 레이블은 임계치 기반 레이블링 방법, 에지 기반 레이블링 방법 등과 같은 영상 처리 기반의 자동 레이블링 방법이나 물체 영역인식 목적으로 기 학습된 인공 신경망 예측기반 방법에 따라 생성될 수 있다.
임계치 기반 레이블링 방법은 도 2와 같이 영상내 물체와 배경의 색상 분포도를 산출 및 분석하여 물체와 배경 구분을 위한 임계치를 획득하고, 이를 기반으로 객체 영역으로 자동으로 레이블하도록 하는 방법이다.
에지 기반 레이블링 방법은 도 3과 같이 영상을 이진화처리한 후 에지 검출하고, 에지 검출 결과를 기반으로 객체 영역으로 자동으로 레이블하도록 하는 방법이다.
인공 신경망 예측 기반 방법은 물체 영역 인식을 목적으로 기 개발된 인공신경망에 M개의 학습 영상을 순차적으로 인가한 후, 그 결과로 얻은 영상을 보조레이블들 중의 하나로 사용하도록 것이다.
물론, 상기의 보완 레이블 생성 방법 이외에 객체 영역의 자동 지정이 가능한 모든 방법이 이용될 수 있음은 당연할 것이다. 다만, 본 발명에서는 사용이 쉬운 그 일부를 사용하였다.
그리고 1개의 학습 영상에 대응되는 1개의 기준 레이블은 사용자가 컴퓨터 소프트웨어 툴을 활용하여 수작업 방식으로 비정밀 영역을 설정하도록 하는 비 정밀 레이블링 방법에 따라 생성될 수 있다.
비 정밀 레이블링 방법은 도 4의 (a)와 같이 작업자가 경계박스(bounding box) 형태로 객체 영역을 지정하는 경계박스 레이블링 방법, 도 4의 (b)와 같이 작업자가 다각형 형태로 객체 영역을 지정하는 다각형 레이블링 방법, 작업자가 원형 형태로 객체 영역을 지정하는 원형 레이블링 방법, 작업자가 타원형 형태로 객체 영역을 지정하는 타원형 레이블링 방법 등 중 어느 하나일 수 있으나, 이에 한정될 필요는 없다.
반면, 검증 데이터 생성용 수작업 레이블링 방법은 작업자가 영상내 객체 영역을 정밀하게 지정하는 것으로, 도 5에서와 같이 영상 처리 프로그램의 영역 설정 도구 등을 통해 작업자가 객체 영역의 경계 라인을 직접 정밀 트래킹하는 방법 등으로 구현될 수 있으나, 이에 한정될 필요는 없다.
도 6은 본 발명의 일 실시예에 따른 인공신경망 학습 및 검증을 위한 데이터 구조를 설명하기 위한 도면이다.
도 6에 도시된 바와 같이, 본 발명에서는 M개의 학습 데이터 셋트 이외에 L개의 검증 데이터를 더 구비하고, L개의 검증 데이터를 통해 최적의 학습 종료 시점을 결정할 수 있도록 한다.
도 7에 도시된 바와 같이 학습 횟수가 과잉하거나 과부족한 경우, 인공 신경망이 특정 레이블 셋트에 편중하여 학습되는 문제가 발생함으로써, 본 발명에서는 L개의 검증 데이터를 통해 인공 신경망이 최상의 예측 성능을 가지는 시점을 파악하고, 해당 시점에서 학습이 종료될 수 있도록 한다.
다만, 본 발명의 검증 데이터는 검증용으로 사용하기 위해서 수작업으로 작성한 정밀한 레이블링으로, 검증용으로만 사용하고 버리기에는 아까운 영상이기 때문에 학습에도 참여시키고 있습니다.
즉, 본 발명에서는 L 개의 검증 데이터를 추가 구비하고, 이를 최적의 학습 종료 시점을 결정하기 위한 목적 뿐 아니라 학습에도 이용되도록 하는 이중 목적의 데이터로 활용하도록 하는 특징을 가진다.
도 8 및 도 9는 본 발명에 일 실시예에 따른 인공신경망 학습 및 이용 방법을 설명하기 위한 도면이다.
먼저, 인공신경망 학습을 위해 M개의 학습 데이터 셋트와 L개의 검증 데이터 셋트를 생성 및 저장한다(S1).
그리고 인공신경망 학습이 요청되면, 인공신경망 학습부(140)는 M개의 학습 데이터 셋트 중 어느 하나를 먼저 선택한다(S2).
그리고 현재 선택된 학습 데이터 셋트에 기반하여, 1 개의 입력영상과 이에 대응하는 학습 타겟 영상으로 n+1개의 기준레이블 및 보조레이블을 사용하여 학습시키는 SO-MT 학습을 반복 수행하도록 한다(S3).
예를 들어, 학습 데이터 셋트에 1개의 입력 영상과 3개의 보완 레이블과 1개의 기준 레이블이 포함된다면, (입력 영상 + 보완 레이블 1), (입력 영상 + 보완 레이블 2), (입력 영상 + 보완 레이블 3), (입력 영상 + 기준 레이블)을 순차적으로 이용하여 인공신경망(130)의 출력 영상과 학습 타겟 영상간 영상 차이에 따라 인공신경망(130)의 파라미터를 조정하는 동작을 4번째 걸쳐 반복 수행한다.
그리고 인공신경망 학습종료 판단부(150)는 인공신경망 학습부(140)가 현재 선택된 학습 데이터 셋트를 이용한 SO-MT 학습을 완료할 때마다, L개의 검증 데이터를 순차적으로 선택하면서, 1 개의 입력영상과 이에 대응하는 학습 타겟 영상으로 정밀 수작업 레이블을 사용하여 학습시키는 SO-ST(Single Output-Single Target) 학습을 반복 수행한다(S4).
참고로, 일반적인 학습의 경우에 있어서의 학습종료 여부 판단을 위한 검증에서는 학습된 신경망이 학습되지 않은 일반 데이터에 대한 적용여부가 중요하므로, 검증데이터에 대해서는 파라미터 변경에 의한 신경망 학습을 하지 않으나, 본 발명에 있어서는 일반화보다는 검증데이터 자체 데이터에 대한 충실한 영역레이블 생성이 중요한 관심사이고, 또한 검증용 데이터의 타겟(Target)은 수작업에 대한 정밀한 레이블로서 학습에 귀중한 자료이므로 학습종료 여부 판단용에 그치지 않고, 학습(파라미터 변경)에까지 활용하는 것을 특징으로 한다. 그리고 검증 데이터에 대한 인공신경망의 출력 영상들과 정밀 수작업 레이블 영상에 기반하여 평균 IOU(Intersection over Union)를 계산한다(S5).
만약, 평균 IOU가 기 설정치 이상이면(S7), 인공신경망(130)이 정밀 레이블 영상에 일치되는 영상을 예측하였다고 간주하여 학습을 종료하고, 그렇지 않으면 새로운 데이터 셋트를 선택 및 이용하여 상기의 SO-MT 및 SO-ST 학습을 반복 수행하도록 한다(S6).
단계 S6을 통해 인공신경망 학습 완료가 확인되면, 정밀영역 레이블 획득부(160)는 학습 완료된 인공신경망에 M개의 학습 영상을 순차적으로 입력하여 M개의 정밀영역 레이블을 획득하고, 이와 동시에 L개의 검증 영상 각각에 대응되는 L개의 정밀 수작업 레이블을 L개의 정밀영역 레이블로 획득 및 저장한다. 즉, 학습 완료된 인공신경망을 이용하여 인공신경망 학습을 위한 레이블을 획득하여 내부 메모리에 저장하거나, 또는 외부 장치에 제공하도록 한다(S8).
더하여 본 발명의 정밀영역 레이블 획득부(160)는 (M+L) 개의 정밀 영역레이블들 중 M 개의 각 학습데이터에 대해서 얻은 M 개의 정밀 영역 레이블에 대해서는 각 학습데이터에 대응하는 기준레이블과의 AND 연산을 추가적으로 수행함으로써, 각 정밀 영역 레이블 영역 중 기준 레이블의 영역에 해당되는 영역에 포함되는 부분만을 최종 정밀영역 레이블로 취할 수도 있도록 한다.
참고로, 1개의 기준 레이블과 n 개의 보조레이블들을 인공신경망에 학습시켜보면, 인공신경망의 일반화 특성이나 보조레이블들의 부정확성 등으로 인하여, 기준 레이블 밖에도 출력이 나오는 경우가 발생할 수 있다.
그러나 기준 레이블은 사람이 수작업에 의해 작성한 레이블로서, 그 밖에는 절대로 출력이 나와서는 안 되는 범위를 규정하는 특징이 있다.
이에 본 발명에서는 M 개의 정밀 영역 레이블 각각을 기준 레이블과 AND 연산시킴으로써, M 개의 정밀 영역 레이블 중에서 기준 레이블 범위 이내에 속하는 정밀 영역 레이블들만이 최종 정밀영역 레이블로 선별 이용될 수 있도록 한다.
이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.

Claims (11)

  1. 인공신경망 학습을 위한 M(M은 2 이상의 자연수)개의 학습 영상과 인공신경망 검증을 위한 L(L은 2 이상의 자연수)개의 검증 영상을 획득하는 영상 획득부;
    M개의 학습 영상 각각에 대해, 각 학습 영상에 대응되는 n개의 보완 레이블들과 1개의 기준 레이블을 생성한 후, 각 학습 영상을 입력영상으로 하고 이에 대응하는 1개의 기준 레이블과 n개의 보조레이블들을 학습 타겟 영상으로 하는 학습 데이터 셋트를 생성하는 동작을 반복 수행하여 M개의 학습 데이터 셋트를 구성하는 학습 데이터 생성부;
    L개의 검증 영상 각각에 대해, 각 검증 영상에 대응되는 정밀 수작업 레이블을 작성한 후, 각 검증 영상을 입력영상으로 하고 이에 대응하는 정밀 수작업 레이블을 검증 타겟 영상으로 하는 검증 데이터 셋트를 생성하는 동작을 반복 수행하여 L개의 검증 데이터 셋트를 구성하는 검증 데이터 생성부;
    M개의 학습 데이터 셋트를 이용하여 인공신경망을 SO-MT(Single output-Multi Targets) 학습시키는 동작을 반복 수행하고, L개의 검증 데이터 셋트에 대해서도 상기 인공신경망을 SO-ST(Single Output-Single Target) 학습시키는 동작을 반복 수행하는 인공신경망 학습부;
    상기 인공신경망의 학습 반복 구간마다 L개의 검증 데이터 셋트의 각 검증 영상에 대한 출력 예측값과 정밀 수작업 레이블과의 차이값을 산출 및 분석하여 상기 인공신경망의 예측 성능을 검증하고 학습 종료 여부를 결정하는 인공신경망 학습종료 판단부; 및
    학습 완료된 상기 인공신경망에 M개의 학습 영상을 순차적으로 입력하여 M개의 정밀영역 레이블을 획득하고, 이와 동시에 L개의 검증 영상 각각에 대응되는 L개의 정밀 수작업 레이블을 L개의 정밀영역 레이블로 획득하는 정밀영역 레이블 획득부를 포함하는 인공신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치.
  2. 제1항에 있어서, 상기 영상 획득부는
    (M+L)개의 영상을 일시 획득한 후, M개의 영상을 랜덤 선택하여 M개의 학습 영상으로 설정하고, 나머지 L개의 영상은 L개의 검증 영상으로 설정하는 것을 특징으로 하는 인공신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치.
  3. 제1항에 있어서, 상기 학습 데이터 생성부는
    보조레이블 각각을 영상 처리 기반의 자동 레이블링 방법이나 물체 영역인식 목적으로 기 학습된 인공 신경망 예측기반 방법에 따라 생성할 수 있으며,
    상기 영상 처리 기반의 자동 레이블링 방법은 임계치 기반 레이블링 방법, 및 에지 기반 레이블링 방법인 것을 특징으로 하는 인공신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치.
  4. 제3항에 있어서, 상기 인공 신경망 예측 기반 방법은
    물체 영역인식을 목적으로 기 개발된 인공신경망에 M개의 학습 영상을 순차적으로 인가하여 획득한 출력 영상을 레이블링 영상으로 사용하는 것을 특징으로 하는 인공신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치.
  5. 제1항에 있어서, 상기 학습 데이터 생성부는
    기준레이블을 사용자가 컴퓨터 소프트웨어 툴을 활용하여 수작업 방식으로 비정밀 영역을 설정하도록 하는 비 정밀 레이블링 방법에 따라 생성할 수 있으며,
    상기 비 정밀 레이블링 방법은
    경계박스 레이블링 방법, 다각형 레이블링 방법, 원형 레이블링 방법, 타원형 레이블링 방법 중 어느 하나 인 것을 특징으로 하는 인공신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치.
  6. 제1항에 있어서, 상기 인공신경망 학습부는
    M개의 학습데이터 셋트에 대해서는, 하나의 학습데이터 셋트를 순차적으로 선택하여 1 개의 입력영상과 이에 대응하는 학습 타겟 영상으로 n+1개의 기준레이블 및 보조레이블을 사용하여 학습시키는 SO-MT 학습을 반복 수행하고,
    L개의 검증 데이터 셋트에 대해서는, 하나의 검증 데이터 셋트를 순차적으로 선택하여 1 개의 입력영상과 이에 대응하는 학습 타겟 영상으로 1 개의 정밀수작업 레이블을 사용하여 학습시키는 SO-ST 학습을 반복 수행하는 것을 특징으로 하는 인공 신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치.
  7. 제1항에 있어서, 상기 인공신경망 학습종료 판단부는
    상기 L 개의 검증 데이터에 대한 인공신경망의 출력과 수작업 방식으로 작성된 정밀 수작업 레이블에 기반하여 평균 IOU(Intersection over Union)를 산출하고, IOU 산출치가 기 설정치 이하이면 학습을 종료하되, 그렇지 않으면 상기 인공신경망 학습부가 새로운 영상에 기반한 SO-MT 및 SO-ST 학습을 추가 수행하도록 하는 것을 특징으로 하는 인공 신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치.
  8. 제6항 또는 제7항에 있어서,
    상기 SO-MT 학습은 단일 영상이 출력되는 인공신경망에 다수의 레이블 영상이 타겟으로 인가되어 학습되게 하고,
    상기 SO-ST 학습은 단일 영상이 출력되는 인공신경망에 하나의 레이블 영상이 타겟으로 인가되어 학습되게 하는 것인 것을 특징으로 하는 인공 신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치.
  9. 제1항에 있어서, 상기 정밀영역 레이블 획득부는
    학습 완료된 상기 인공신경망을 통해 학습 영상에 대응되는 정밀영역 레이블을 획득하는 경우, 상기 인공신경망의 파라미터 업데이트는 수행하지 않는 것을 특징으로 하는 인공 신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치.
  10. 제1항에 있어서, 상기 정밀영역 레이블 획득부는
    (M+L) 개의 정밀 영역레이블들 중 M 개의 각 학습데이터에 대해서 얻은 M 개의 정밀 영역 레이블에 대해서는 각 학습데이터에 대응하는 기준레이블과의 AND 연산을 추가적으로 수행함으로써, 각 정밀 영역 레이블 영역 중 기준 레이블의 영역에 해당되는 영역에 포함되는 부분만을 최종 정밀영역 레이블로 취하는 기능을 더 포함하는 것을 특징으로 하는 인공 신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치.
  11. 반자동 정밀영역 레이블 획득 장치의 인공신경망 학습을 위한 반자동 정밀영역 레이블 획득 방법에 있어서,
    인공신경망 학습을 위한 M(M은 2 이상의 자연수)개의 학습 영상과 인공신경망 검증을 위한 L(L은 2 이상의 자연수)개의 검증 영상을 획득하는 영상 획득 단계;
    M개의 학습 영상 각각에 대해, 각 학습 영상에 대응되는 n개의 보완 레이블들과 1개의 기준 레이블을 생성한 후, 각 학습 영상을 입력영상으로 하고 이에 대응하는 1개의 기준 레이블과 n개의 보조레이블들을 학습 타겟 영상으로 하는 학습 데이터 셋트를 생성하는 동작을 반복 수행하여 M개의 학습 데이터 셋트를 구성하는 학습 데이터 생성 단계;
    L개의 검증 영상 각각에 대해, 각 검증 영상에 대응되는 정밀 수작업 레이블을 작성한 후, 각 검증 영상을 입력영상으로 하고 이에 대응하는 정밀 수작업 레이블을 검증 타겟 영상으로 하는 검증 데이터 셋트를 생성하는 동작을 반복 수행하여 L개의 검증 데이터 셋트를 구성하는 검증 데이터 생성 단계;
    M개의 학습 데이터 셋트를 이용하여 인공신경망을 SO-MT(Single output-Multi Targets) 학습시키는 동작을 반복 수행하고, L개의 검증 데이터 셋트에 대해서도 상기 인공신경망을 SO-ST(Single Output-Single Target) 학습시키는 동작을 반복 수행하는 인공신경망 학습 단계;
    상기 인공신경망의 학습 반복 구간마다 L개의 검증 데이터 셋트의 각 검증 영상에 대한 출력 예측값과 정밀 수작업 레이블과의 차이값을 산출 및 분석하여 상기 인공신경망의 예측 성능을 검증하고 학습 종료 여부를 결정하는 인공신경망 학습종료 판단 단계; 및
    학습 완료된 상기 인공신경망에 M개의 학습 영상을 순차적으로 입력하여 M개의 정밀영역 레이블을 획득하고, 이와 동시에 L개의 검증 영상 각각에 대응되는 L개의 정밀 수작업 레이블을 L개의 정밀영역 레이블로 획득하는 정밀영역 레이블 획득 단계를 포함하는 인공신경망 학습을 위한 반자동 정밀영역 레이블 획득 방법.
PCT/KR2022/003812 2021-12-08 2022-03-18 인공신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치 및 방법 WO2023106515A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0174677 2021-12-08
KR1020210174677A KR102389369B1 (ko) 2021-12-08 2021-12-08 인공신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2023106515A1 true WO2023106515A1 (ko) 2023-06-15

Family

ID=81437263

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/003812 WO2023106515A1 (ko) 2021-12-08 2022-03-18 인공신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치 및 방법

Country Status (2)

Country Link
KR (1) KR102389369B1 (ko)
WO (1) WO2023106515A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102515935B1 (ko) * 2022-08-25 2023-03-30 주식회사 비브스튜디오스 신경망 모델을 위한 학습 데이터 생성 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101879735B1 (ko) * 2017-03-15 2018-07-18 (주)넥셀 자동적인 학습데이터 생성 방법 및 장치와 이를 이용하는 자가 학습 장치 및 방법
KR20200074940A (ko) * 2017-11-16 2020-06-25 삼성전자주식회사 약한 지도 학습에 기초한 뉴럴 네트워크의 계층적 학습 방법 및 장치
KR20200094608A (ko) * 2019-01-30 2020-08-07 삼성전자주식회사 이미지를 처리하기 위한 방법 및 그에 따른 장치
KR102208676B1 (ko) * 2020-06-17 2021-01-27 주식회사 카카오뱅크 신경망 학습을 위한 학습 데이터 레이블링 방법 및 이를 수행하는 시스템
KR20210067442A (ko) * 2019-11-29 2021-06-08 엘지전자 주식회사 객체 인식을 위한 자동 레이블링 장치 및 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102141163B1 (ko) 2020-05-06 2020-08-04 국방과학연구소 Sar 영상 생성을 위한 뉴럴 네크워크 학습 방법 및 장치.

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101879735B1 (ko) * 2017-03-15 2018-07-18 (주)넥셀 자동적인 학습데이터 생성 방법 및 장치와 이를 이용하는 자가 학습 장치 및 방법
KR20200074940A (ko) * 2017-11-16 2020-06-25 삼성전자주식회사 약한 지도 학습에 기초한 뉴럴 네트워크의 계층적 학습 방법 및 장치
KR20200094608A (ko) * 2019-01-30 2020-08-07 삼성전자주식회사 이미지를 처리하기 위한 방법 및 그에 따른 장치
KR20210067442A (ko) * 2019-11-29 2021-06-08 엘지전자 주식회사 객체 인식을 위한 자동 레이블링 장치 및 방법
KR102208676B1 (ko) * 2020-06-17 2021-01-27 주식회사 카카오뱅크 신경망 학습을 위한 학습 데이터 레이블링 방법 및 이를 수행하는 시스템

Also Published As

Publication number Publication date
KR102389369B1 (ko) 2022-04-21

Similar Documents

Publication Publication Date Title
CN108701234A (zh) 车牌识别方法及云系统
CN108124487A (zh) 云端抄表方法及装置
WO2023106515A1 (ko) 인공신경망 학습을 위한 반자동 정밀영역 레이블 획득 장치 및 방법
WO2020091421A1 (ko) 네트워크 플랫폼을 적용한 자율주행차량 시뮬레이터
WO2021225360A1 (en) Method for performing on-device learning of machine learning network on autonomous vehicle by using multi-stage learning with adaptive hyper-parameter sets and device using the same
WO2015182904A1 (ko) 관심객체 검출을 위한 관심영역 학습장치 및 방법
WO2019054593A1 (ko) 기계학습과 이미지 프로세싱을 이용한 지도 제작 장치
WO2021095991A1 (ko) 불량 이미지 생성 장치 및 방법
WO2018143486A1 (ko) 딥러닝 분석을 위한 모듈화시스템을 이용한 컨텐츠 제공 방법
WO2020017829A1 (ko) 노이즈 패턴을 이용한 차량 번호판 이미지 생성 방법 및 그 장치
WO2022114653A1 (ko) 데이터 경계 도출 시스템 및 방법
CN113554355B (zh) 基于人工智能的道路工程施工管理方法与系统
CN108205708A (zh) 一种新型可扩展的深度学习系统及数据识别方法
CN109740527B (zh) 一种视频帧中图像处理方法
WO2014092265A1 (ko) 문법 오류 정정 시스템 및 이를 이용한 문법 오류 정정 방법
WO2021132829A1 (ko) 머신러닝을 이용한 태양광패널 설치용 지붕 가장자리 이미지 추출 방법
WO2023282454A1 (ko) Ai 학습을 위한 임플란트 클래스 분류 방법
Sokic et al. Simple computer vision system for chess playing robot manipulator as a project-based learning example
WO2017003240A1 (ko) 영상 변환 장치 및 그 영상 변환 방법
CN110728661A (zh) 基于随机生成样本的图像畸变评价网络训练方法及装置
CN109063732B (zh) 基于特征交互和多任务学习的图像排序方法及系统
CN111126493A (zh) 深度学习模型的训练方法、装置、电子设备及存储介质
WO2019225799A1 (ko) 딥러닝 생성 모델을 이용한 사용자 정보 삭제 방법 및 장치
WO2015141871A1 (ko) 능동형 다차원 건설 공정 관리 방법
WO2021261905A1 (ko) 영상 분석 기반 작업 동작 인식 및 생산량 측정 장치와 그 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22904355

Country of ref document: EP

Kind code of ref document: A1