KR20220125008A - Rollback and Deep Learning Method for Rapid Adaptive Object Detection - Google Patents

Rollback and Deep Learning Method for Rapid Adaptive Object Detection Download PDF

Info

Publication number
KR20220125008A
KR20220125008A KR1020210028872A KR20210028872A KR20220125008A KR 20220125008 A KR20220125008 A KR 20220125008A KR 1020210028872 A KR1020210028872 A KR 1020210028872A KR 20210028872 A KR20210028872 A KR 20210028872A KR 20220125008 A KR20220125008 A KR 20220125008A
Authority
KR
South Korea
Prior art keywords
rollback
learning
eer
samples
data
Prior art date
Application number
KR1020210028872A
Other languages
Korean (ko)
Other versions
KR102462226B1 (en
Inventor
이필규
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020210028872A priority Critical patent/KR102462226B1/en
Publication of KR20220125008A publication Critical patent/KR20220125008A/en
Application granted granted Critical
Publication of KR102462226B1 publication Critical patent/KR102462226B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

The present invention relates to a rollback deep learning method for fast adaptive object detection. In the rollback deep learning method for fast adaptive object detection, by utilizing active learning (AL) and rollback-based semi-supervised learning (SSL), the AL can select more informative and representative samples that measure uncertainty and variability, and the SSL divides the selected streaming image samples into bins, wherein each bin repeatedly transmits identification information of EER and CNN models to the next bin until convergence and integration with an EER rollback learning algorithm are achieved. The EER model provides fast short-term myopic adaptation, and the CNN model provides gradual long-term performance improvement, which can overcome noisy and biased labels in various data distributions.

Description

신속 적응형 객체 감지를 위한 롤백 딥 러닝 방법 {Rollback and Deep Learning Method for Rapid Adaptive Object Detection}Rollback and Deep Learning Method for Rapid Adaptive Object Detection

본 발명은 신속 적응형 객체 감지를 위한 롤백 딥 러닝 방법에 관한 것으로서, 더욱 상세하게는 스트리밍 객체 감지시 학습 성능을 향상시키기 위해 롤백 학습 기반의 EER과 ASSL을 결합하여 신뢰할 수 있는 레이블 추정 및 성능을 향상시킬 수 있는 신속 적응형 객체 감지를 위한 롤백 딥 러닝 방법에 관한 것이다.The present invention relates to a rollback deep learning method for rapid adaptive object detection, and more particularly, to improve the learning performance when detecting streaming objects, reliable label estimation and performance by combining rollback learning-based EER and ASSL It relates to a rollback deep learning method for fast adaptive object detection that can be improved.

최근 인공 지능과 머신 러닝에서 주목할 만한 발전이 있었다. 패턴 분류 기술, 패턴 추출 및 패턴에서 습득한 지식을 기반으로 예측을 하는 작업은 특히 복잡하고 변화하는 실제 세계에서 여전히 어려운 문제이다. 객체 감지는 컴퓨터 비전의 중요한 하위 영역 중 하나이다. 지난 몇 년 동안 딥 러닝 기술은 Krischesky 등이 2012년에 장벽을 깬 이후 많은 컴퓨터 비전 분야에 성공적으로 적용되었다. 대부분의 성능 향상은 간단한 정적 데이터 분포를 가정하여 올바르게 레이블링된 대규모 데이터 세트의 가용성에 의존한다. 그러나 실제 세계의 기본 분포는 매우 다양하고 불균형하며 시스템을 재구축하려면 어렵고 시간이 많이 걸리는 노동과 노력이 필요하다. 또한 일부 수집된 샘플은 편향되거나 잘못 표시되는 경향이 있으며 성능 저하로 이어질 수 있다. 완전히 레이블링된 재교육(retraining)은 비용과 시간 제약으로 인해 실제로는 불가능하지만 레이블이 없는 데이터를 수집하는 것은 상대적으로 저렴하다. 레이블이 지정된 데이터와 레이블이 없는 데이터를 모두 활용할 수 있다면 매우 실용적인 가치가 될 수 있다. 레이블이 없는 데이터를 레이블링된 데이터와 함께 사용할 수 있도록 하는 반지도 학습(SSL)은 학습 성능을 크게 향상시킬 수 있다. Recently, there have been notable advances in artificial intelligence and machine learning. Pattern classification techniques, pattern extraction, and the task of making predictions based on knowledge acquired from patterns remain challenging, especially in the complex and changing real world. Object detection is one of the important sub-areas of computer vision. In the past few years, deep learning techniques have been successfully applied in many computer vision fields since Krischesky et al broke the barrier in 2012. Most performance gains depend on the availability of large datasets that are correctly labeled assuming a simple static data distribution. However, the underlying distribution in the real world is highly variable and disproportionate, and rebuilding the system requires difficult and time-consuming labor and effort. Also, some collected samples are prone to bias or misrepresentation and may lead to poor performance. Fully labeled retraining is practically impossible due to cost and time constraints, but collecting unlabeled data is relatively inexpensive. Being able to utilize both labeled and unlabeled data can be of great practical value. Semi-supervised learning (SSL), which allows unlabeled data to be used with labeled data, can significantly improve learning performance.

능동학습(AL)은 준지도 학습의 특별한 경우로 생각할 수 있다. 능동학습(AL)은 모델 성능을 최적화하기 위해 알 수 없는 데이터의 레이블을 얻기 위해 Oracle에 대한 최소 쿼리를 사용한다. 능동학습(AL) 프로세스에서 성공적인 모델 수렴을 위해서는 대부분의 경우 숙련된 전문가의 직관이 중요하다. 인적 레이블링은 노동 집약적이고 시간 소모적이며 오류가 발생하기 쉬우므로 항상 많은 비용이 필요하다. 따라서 일반적인 인간의 노력을 효과적으로 활용하는 방법은 능동학습(AL) 연구의 주요 관심사 중 하나이다. 능동학습(AL)의 장점은 레이블이 없는 각 샘플의 잠재력을 고려하여 레이블이 없는 샘플을 탐색하는 것이다. 능동학습(AL)은 수동적인 방식으로 레이블링된 데이터에 의존하는 대신 최소 레이블링 비용으로 가장 유익한 샘플을 탐색하기 위해 선택적 샘플링을 사용한다. 능동학습(AL)에서 트레이닝 데이터의 레이블링 노력은 기존의 지도학습 방법과 비교할 때 많이 감소한다. 레이블이 지정되지 않은 데이터 샘플에 레이블이 지정되면 순방향 학습 조작에 사용되지만 잡음이 있는 샘플 또는 레이블이 있는 경우 모델의 성능 저하로 이어질 수 있다. 레이블이 잘못 지정된 샘플 또는 이상치의 노이즈는 일반화 능력 구축에 부정적인 영향을 미친다. 또한 그것은 부정적인 영향을 미칠 수 있으며, 이에 최근 모델 일반화 능력 향상을 위해 양방향 능동학습(BDAL;Bi-Directional Active Learning)이 제안되었다. 양방향 능동학습(BDAL)은 EER 기반 불확실성 공식을 기반으로 순방향 및 역방향 학습 프로세스를 결합하고 단방향 노력에 비해 우수한 성능을 달성하였다. 그러나 BDAL은 여전히 데이터 선택에서 다시 실행하고 데이터 레이블링에서 실행 취소하는 데 시간이 많이 걸리며 변화하는 스트리밍 데이터 환경에서 사용할 수 없으므로 빠른 적응 학습 기능이 필요하다. 레이블이 약한 비디오의 모션 정보는 고정밀 개체 제안을 학습하는 데 사용할 수 있다. Krishna 등은 후보 객체 인식과 약한지도 학습을 통합하면 탐지 성능이 향상됨을 보여준다. CNN과 같은 심층 신경망(Deep Neural Networks)은 일반화 기능을 제공하는 가장 강력한 계층형 학습 네트워크 중 하나이며 30 년 동안 그렇게 해왔다. 그러나 심층 신경망의 느린 수렴은 여전히 매우 어려운 문제이며 특히 실시간 데이터 스트림에서 중요한 장애물이다. Active learning (AL) can be thought of as a special case of semi-supervised learning. Active learning (AL) uses minimal queries to Oracle to obtain labels for unknown data to optimize model performance. In most cases, the intuition of experienced experts is important for successful model convergence in the active learning (AL) process. Human labeling is always costly as it is labor intensive, time consuming and error prone. Therefore, how to effectively utilize general human effort is one of the main concerns of active learning (AL) research. The advantage of active learning (AL) is that it explores unlabeled samples, taking into account the potential of each unlabeled sample. Active learning (AL) uses selective sampling to search for the most informative samples with minimal labeling cost instead of relying on labeled data in a passive way. In active learning (AL), the labeling effort of training data is greatly reduced compared to the existing supervised learning method. When unlabeled data samples are labeled, they are used for forward learning operations, but can lead to poor performance of the model if there are noisy samples or labels. Noise from mislabeled samples or outliers negatively impacts generalization ability building. In addition, it can have a negative effect, so Bi-Directional Active Learning (BDAL) has been recently proposed to improve model generalization ability. Bidirectional active learning (BDAL) combines forward and backward learning processes based on EER-based uncertainty formulas and achieves superior performance compared to unidirectional efforts. However, BDAL is still time-consuming to redo in data selection and undo in data labeling, and cannot be used in a changing streaming data environment, so it needs fast adaptive learning capabilities. Motion information from weakly labeled videos can be used to learn high-precision object suggestions. Krishna et al. show that integrating candidate object recognition with weak supervised learning improves detection performance. Deep Neural Networks such as CNNs are one of the most powerful hierarchical learning networks that provide generalization capabilities and have been doing so for 30 years. However, the slow convergence of deep neural networks is still a very difficult problem and a significant obstacle, especially in real-time data streams.

ASSL이라고 하는 AL과 SSL의 결합은 다양한 데이터 분포에서 객체 감지 성능을 효율적으로 개선하여 대규모 레이블 데이터 세트와 긴 학습 시간이 필요한 CNN 접근 방식의 한계를 극복 할 수 있다. 최근 증분 ASSL 접근 방식이 제안되었으며 CNN의 지식 전달 능력과 증분 학습으로 인해 시변 문제를 효율적으로 처리 할 수 있음을 보여준다. 그러나 AL과 SSL이 결합된 방법은 여전히 긴 CNN 딥 러닝 단계를 필요로 하며 빠른 적응 학습 기능을 충족하기 위해 사소한 양의 트레이닝 시간을 소비한다. The combination of AL and SSL, called ASSL, can efficiently improve object detection performance in various data distributions, overcoming the limitations of CNN approaches that require large-scale label data sets and long training times. Recently, an incremental ASSL approach has been proposed and shows that CNN can efficiently handle time-varying problems due to its knowledge transfer ability and incremental learning. However, the combined method of AL and SSL still requires a long CNN deep learning step and consumes a trivial amount of training time to meet the fast adaptive learning function.

이상과 관련하여 참고문헌 1 내지 3이 제안된 바 있다.References 1 to 3 have been proposed in relation to the above.

참고문헌 1: 한국등록특허 제10-2174048호Reference 1: Korean Patent No. 10-2174048 참고문헌 2: 한국등록특허 제10-1990123호Reference 2: Korean Patent No. 10-1990123 참고문헌 3: 한국등록특허 제10-1882743호Reference 3: Korean Patent No. 10-1882743

따라서 이러한 종래기술들의 문제 및 한계들을 해결하기 위한 것으로서 본 발명은 실제 다양한 불균형한 데이터 분포에서 노이즈가 많고 편향된 레이블을 극복 할 수 있는 신속 적응형 객체 감지를 위한 롤백 딥 러닝 방법을 제공하는데 그 목적이 있다.Therefore, in order to solve the problems and limitations of the prior art, the present invention provides a rollback deep learning method for rapidly adaptive object detection that can overcome noisy and biased labels in various unbalanced data distributions. have.

이와 같은 기술적 과제를 해결하기 위해 본 발명은; The present invention in order to solve this technical problem;

능동학습(AL)을 통해 입력 데이터 스트림에서 불확실성과 다양성을 측정하는 스트리밍 이미지 샘플을 선택하는 제1단계; 및 준 지도 학습(SSL)을 통해 상기 선택한 스트리밍 이미지 샘플을 빈(Bin)으로 나누고 각 빈(Bin)은 EER 롤백 학습 알고리즘과의 수렴될 때까지 EER 및 CNN 모델의 식별 정보를 다음 빈으로 반복적으로 전송하는 제2단계;를 포함하는 것을 특징으로 하는 신속 적응형 객체 감지를 위한 롤백 딥 러닝 방법을 제공한다. a first step of selecting streaming image samples that measure uncertainty and diversity in an input data stream through active learning (AL); And through semi-supervised learning (SSL), the selected streaming image sample is divided into bins, and each bin repeats the identification information of EER and CNN models to the next bin until convergence with the EER rollback learning algorithm. A second step of transmitting; provides a rollback deep learning method for fast adaptive object detection, characterized in that it includes.

이때 상기 제1단계는 데이터 샘플 배치가 수집되고 공동 샘플링 알고리즘에 의해 공동 샘플링을 통해 스트리밍 이미지 샘플을 선택하는 단계인 것을 특징으로 한다. In this case, the first step is characterized in that a batch of data samples is collected and a step of selecting streaming image samples through joint sampling by a joint sampling algorithm.

그리고 상기 제2단계는 롤백 기능이 있는 준 지도 학습(SSL) 알고리즘을 통해 EER 기반으로 순방향 학습(forward learning) 및 롤백 학습(rollback learning)하여 샘플의 재선택 및 레이블 재지정하는 것을 특징으로 한다. And the second step is characterized in that the sample is reselected and relabeled by performing forward learning and rollback learning based on EER through a semi-supervised learning (SSL) algorithm with a rollback function.

또한 상기 롤백 학습(rollback learning)은 상기 빈(Bin)에서 샘플 제거, 레이블 변경 및 재선택하는 것을 특징으로 한다.In addition, the rollback learning (rollback learning) is characterized in that the sample removal, label change and reselection in the bin (Bin).

본 발명에 따르면, 노이즈가 많은 데이터 분포가 있는 경우 ERR기반 롤백 학습과 CNN 객체 감지기를 위한 빈 기반 SSL을 결합함으로서 실제 다양한 불균형한 데이터 분포에서 노이즈가 많고 편향된 레이블을 극복하면서도 기존의 최첨단 탐지기에 비해 더 높은 정확도를 달성하고 사람의 노력도 줄일 수 있다. According to the present invention, by combining ERR-based rollback learning and bin-based SSL for CNN object detectors when there is a noisy data distribution, it overcomes noisy and biased labels in actual various unbalanced data distributions, but compared to the existing state-of-the-art detectors. It can achieve higher accuracy and reduce human effort.

특히 본 발명은 빠른 단기 근시 적응을 지원하고 CNN은 점진적인 장기 성능 향상을 기대할 수 있어 고속 피드 포워드 네트워크 및 익스트림 학습 기계와 협력하여 적응 형 및 개선 된 딥 러닝 아키텍처를 구축하여 잡음이 많은 데이터 분포에서보다 유연하고 빠른 적응형 학습 시퀀스를 달성할 수 있다.In particular, the present invention supports fast short-term myopia adaptation, and CNN can expect a gradual long-term performance improvement, so that it can work with high-speed feed-forward networks and extreme learning machines to build adaptive and improved deep learning architectures to perform better in noisy data distributions. A flexible and fast adaptive learning sequence can be achieved.

도 1은 본 발명에 따른 신속 적응형 객체 감지를 위한 롤백 딥 러닝 방법을 설명하기 위해 (a) 순방향 딥 러닝만 사용하는 빈 기반 SSL과 (b) 순방향 딥 러닝과 결합 된 순방향 재선택, 롤백 제거 및 롤백 재지정으로 구성된 EER 롤백 학습의 정보 흐름 스냅 샷이다.
도 2는 본 발명에 따른 신속 적응형 객체 감지를 위한 롤백 딥 러닝 아키텍처를 도시한 도면이다.
도 3은 Adam과 SGD 옵티마이저를 사용하여 학습율을 다르게 한 실험 결과 그래프이다.
도 4는 롤백 기반 ASSL의 정보 흐름도이다.
도 5는 레이블링 결과가 있는 노이즈가 많은 이미지 샘플을 도시한 도면이다.
도 6은 노이즈가 많은 로컬 이미지를 사용하여 본 발명(EER-ASSL)의 평균 정밀도(AP)로 측정한 성능 비교 그래프이다.
도 7은 의자, 소파 및 테이블의 로컬 데이터 세트에 대한 IASSL의 탐지 결과를 도시한 도면이다.
도 8은 벤치 마크 데이터 세트에 대한 mAP 측정시 최첨단 객체 감지기와 본 발명(EER-ASSL)의 성능을 비교한 그래프이다.
Figure 1 is to explain the rollback deep learning method for fast adaptive object detection according to the present invention, (a) bean-based SSL using only forward deep learning and (b) forward reselection combined with forward deep learning, rollback removal and an information flow snapshot of EER rollback learning consisting of rollback redirection.
2 is a diagram illustrating a rollback deep learning architecture for fast adaptive object detection according to the present invention.
3 is a graph of experimental results obtained by varying learning rates using Adam and the SGD optimizer.
4 is an information flow diagram of a rollback-based ASSL.
5 is a diagram illustrating a noisy image sample with a labeling result.
6 is a performance comparison graph measured by the average precision (AP) of the present invention (EER-ASSL) using a noisy local image.
7 is a diagram showing the detection results of IASSL for a local data set of a chair, a sofa, and a table.
8 is a graph comparing the performance of the state-of-the-art object detector and the present invention (EER-ASSL) when measuring mAP for a benchmark data set.

이하, 본 발명에 따른 신속 적응형 객체 감지를 위한 롤백 딥 러닝 방법을 첨부한 도면을 참고로 하여 상세히 기술되는 실시 예에 의하여 그 특징들을 이해할 수 있을 것이다. Hereinafter, the features of the rollback deep learning method for fast adaptive object detection according to the present invention will be understood by the embodiments described in detail with reference to the accompanying drawings.

이에 앞서 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Prior to this, the terms or words used in the present specification and claims should not be construed as being limited to conventional or dictionary meanings, and the inventor appropriately defines the concept of the term in order to best describe his invention. It should be interpreted as meaning and concept consistent with the technical idea of the present invention based on the principle that it can be done.

따라서, 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들은 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. Accordingly, the embodiments described in this specification and the configurations shown in the drawings are only the most preferred embodiment of the present invention, and do not represent all of the technical spirit of the present invention, so at the time of the present application, they can be replaced It should be understood that various equivalents and modifications may exist.

본 발명에 따른 신속 적응형 객체 감지를 위한 롤백 딥 러닝 방법은 객체 감지를 위한 신속 적응형 학습 프레임 워크인 EER 학습과 딥 러닝 SSL 알고리즘을 결합한 방식(EER-ASSL)을 제안한다. 본 발명은 BDAL(Bi-Directional Active Learning)과 마찬가지로 도 1의 (b)에서와 같이 레이블링된 데이터 세트에서 의심스러운 데이터 샘플을 검사하면 롤백 학습이 수행되어 재선택 또는 레이블 재지정 메커니즘을 통해 모델을 재구축한다. 롤백 빈(Bin) 기반 SSL에서 선택한 배치 샘플은 여러 빈으로 분할되고 각 빈은 빠른 적응을 위해 CNN 딥 러닝 및 EER 기반 롤백 학습에 대한 차별적 지식을 반복적으로 전달한다. 이때 롤백 학습 방법은 빈 기반 SSL에 내장되어 불균형 분포에서 잡음이 있는 불확실한 샘플의 영향을 신속하게 제거한다. 수렴이 이루어질 때까지 위의 과정이 반복된다. 본 발명에서 제안하는 방식(EER-ASSL)의 특징은 다음과 같다.The rollback deep learning method for rapid adaptive object detection according to the present invention proposes a method (EER-ASSL) that combines EER learning, which is a rapid adaptive learning framework for object detection, and a deep learning SSL algorithm. In the present invention, like BDAL (Bi-Directional Active Learning), when a suspicious data sample is inspected in a labeled data set as in FIG. rebuild In rollback bin-based SSL, a selected batch sample is split into multiple bins, and each bin iteratively conveys differential knowledge of CNN deep learning and EER-based rollback learning for fast adaptation. In this case, the rollback learning method is built into bin-based SSL to quickly remove the influence of noisy, uncertain samples from an unbalanced distribution. The above process is repeated until convergence is achieved. The characteristics of the method (EER-ASSL) proposed in the present invention are as follows.

우선 본 발명의 ERR-ASSL은 변화하는 환경에서 효율적인 객체 감지를 위한 신속 적응형 학습 프레임 워크를 제공한다. 이 방법은 대부분의 최첨단 탐지 기술에 채택한 정적 데이터 분포의 가정에 의존하지 않는다. EER 롤백 학습과 CNN 딥 러닝을 결합하여 수렴될 때까지 현재 빈에서 다음 빈으로 모델의 동적 차별적 지식을 전송한다. 따라서 본 발명의 ERR-ASSL은 알려지지 않은 데이터 분포에서 노이즈가 많고 편향된 레이블을 극복할 수 있다. 여기서 EER 모델은 빠른 단기 적응을 가능하게 하고 CNN 모델은 점진적인 장기 성능 향상을 제공하는데 도움이 된다.First, the ERR-ASSL of the present invention provides a fast adaptive learning framework for efficient object detection in a changing environment. This method does not rely on the assumption of static data distribution employed by most state-of-the-art detection techniques. It combines EER rollback learning with CNN deep learning to transfer the dynamic differential knowledge of the model from the current bin to the next until convergence. Therefore, the ERR-ASSL of the present invention can overcome noisy and biased labels in an unknown data distribution. Here, the EER model enables fast short-term adaptation and the CNN model helps to provide a gradual long-term performance improvement.

그리고 본 발명의 ERR-ASSL에서 EER를 사용하는 롤백 학습 방법은 이상값을 제거하거나 레이블이 잘못된 샘플을 다시 레이블링하여 차별적 기능을 효과적으로 활용한다. 이는 신속 적응형 학습 기능을 제공하는 반면, 도 1의 (a)에서와 같은 단방향 레이블링 및 양방향 접근 방식은 데이터 선택 및 학습 프로세스에서 실행 취소에 시간 소모적인 재실행이 필요하다. 본 발명의 EER 기반 ASSL은 EER의 근시 적응형 학습기능을 효과적으로 활용하고 딥 러닝 객체 감지기의 긴 학습시간의 단점을 극복한다.In addition, the rollback learning method using EER in ERR-ASSL of the present invention effectively utilizes the differential function by removing outliers or re-labeling mislabeled samples. While this provides a fast adaptive learning function, the one-way labeling and two-way approach as in Fig. 1(a) requires time-consuming redo to undo in the data selection and learning process. The EER-based ASSL of the present invention effectively utilizes the myopic adaptive learning function of the EER and overcomes the shortcomings of the long learning time of the deep learning object detector.

아울러 본 발명의 ERR-ASSL 방법은 Pascal VOC 2007, 2012, MS COCO 벤치 마크 데이터 셋 및 로컬 데이터 셋을 사용하여 Faster RCNN , SSD300 및 YOLOv2 와 같은 최첨단 탐지 방법과 비교되는 것으로 오류 수를 대폭 줄이고 잘못된 객체 감지율을 개선한다.In addition, the ERR-ASSL method of the present invention is compared with state-of-the-art detection methods such as Faster RCNN , SSD300 and YOLOv2 using Pascal VOC 2007, 2012, MS COCO benchmark data set and local data set. improve the detection rate.

이하에서는 본 발명과 관련된 최신 관련 작업에 대해 간략하게 설명하고 본 발명의 시스템 개요를 상세히 설명하며 이후 본 발명의 EER-ASSL 알고리즘에 대한 세부 정보를 언급하며 그 결과를 보여주고 이후 결론을 설명한다.Hereinafter, the latest related work related to the present invention will be briefly described, the system overview of the present invention will be described in detail, and then detailed information about the EER-ASSL algorithm of the present invention will be mentioned, the results will be shown, and the conclusion will be described later.

우선 본 발명과 관련된 최신 관련 작업을 살펴본다. First, a look at the latest related work related to the present invention.

먼저 ASSL(Active Semi-Supervised Learning)에 관하여 살펴본다. 많은 경우 레이블링된 데이터 세트가 제공되고 고정 될 것으로 예상하지만, 항상 그런 것은 아니다. 전문 오라클 또는 알고리즘 레이블을 사용하고 능동학습(AL)을 사용하면 레이블링된 데이터 세트가 변경 될 수 있다. 능동학습(AL)은 노이즈가 많은 데이터를 제거하고 더 많은 데이터 유형에 올바르게 레이블링을 할 수 있다. 능동학습(AL)은 더 적은 양의 데이터에 레이블링해야 할 때 중요한 역할을 하고 알고리즘은 레이블링할 시기와 레이블을 지정하지 않을 시기를 결정할 수 있다. Zhu 등은 SSL(Semi-Supervised Learning)과 능동학습(AL;Active Learning)의 효과적인 결합 아이디어를 2003년에 처음 소개했다. 그는 레이블이 없는 데이터가 고조파 에너지 최소화 기능의 위험을 최소화할 수 있도록 AL과 함께 가우스 랜덤 필드 모델을 적용했다. 풀 기반(pool-based) 능동 학습 또는 선택적 샘플링을 사용하여 쿼리 선택 수를 최소화할 수 있다. AL과 SSL을 함께 결합하면 레이블링된 데이터와 레이블이 없는 데이터를 모두 활용하여 분류 성능을 향상시킬 수 있다. Tong과 Koller 등은 SVM의 버전 공간 크기를 줄이는 유시한 연구를 진행한 바 있다. Cohn 등은 분산 성분을 줄여 추정 된 일반화 오류를 최소화한다. 쿼리가 선택되면 이러한 능동학습 방법의 대부분은 많은 양의 레이블링 되지 않은 데이터를 악용할 가능성이 없다. 일부 연구자들은 트레이닝 단계에서 SSL(Semi-Supervised Learning)을 적용했다. Chaloner와 Verdinelli는 베이지안 접근법을 1995년에 적용했다. Gaussian 랜덤 필드는 SSL과 AL의 조합으로 인해 조화로운 기능에 잘 어울린다. ASSL은 쿼리 지점을 효율적으로 추정한 다음 모호한 샘플을 무작위로 선택하고 예상되는 일반화 오류를 추정할 수 있기 때문에 ASSL에는 많은 장점이 있다. 더 나은 레이블 선택 기준은 샘플 분포의 모호성과 불균형을 제거하고 불완전한 레이블링 및 선택 편향을 극복하면서 객체 탐지기를 트레이닝 할 수 있다.First, let's look at ASSL (Active Semi-Supervised Learning). In many cases, it is expected that labeled data sets will be provided and fixed, but this is not always the case. Using specialized oracle or algorithm labels and using active learning (AL) can change the labeled dataset. Active learning (AL) can remove noisy data and label more data types correctly. Active learning (AL) plays an important role when smaller amounts of data need to be labeled, and algorithms can decide when to label and when not to label. Zhu et al. first introduced the idea of an effective combination of SSL (Semi-Supervised Learning) and Active Learning (AL) in 2003. He applied a Gaussian random field model with AL so that unlabeled data can minimize the risk of harmonic energy minimization functions. Pool-based active learning or selective sampling can be used to minimize the number of query choices. Combining AL and SSL together can leverage both labeled and unlabeled data to improve classification performance. Tong and Koller et al. conducted a similar study to reduce the version space size of SVM. Cohn et al. minimize the estimated generalization error by reducing the variance component. Once the query is chosen, most of these active learning methods are unlikely to exploit large amounts of unlabeled data. Some researchers applied SSL (Semi-Supervised Learning) during the training phase. Chaloner and Verdinelli applied the Bayesian approach in 1995. Gaussian random fields are well suited for harmonious functions due to the combination of SSL and AL. ASSL has many advantages because it can efficiently estimate query points, then randomly select an ambiguous sample and estimate the expected generalization error. Better label selection criteria can train object detectors while eliminating ambiguities and imbalances in sample distribution and overcoming incomplete labeling and selection bias.

다음으로 EER(Expected Error Reduction)은 유지 기반(retaining-based) 능동학습(AL)을 기반으로 새 샘플에 레이블링할 때 선택 기준으로 일반화 오류를 줄인다. 이 방법의 효과는 텍스트 분류 응용 프로그램에서 입증되었다. 이론적 근거는 미래의 일반화 오류를 최소화하는 샘플을 선택하는 것이다. 레이블링 되지 않은 풀은 테스트 분포를 나타내며 검증 세트로 사용된다. 레이블링되지 않은 샘플의 레이블에 대한 지식이 없기 때문에 EER은 평균 사례 , 최악 사례 또는 최고 사례의 관점에서 평균 사례 잠재적 손실을 추정한다. 이러한 EER은 현재 모델의 최대 변경으로 이어지는 샘플을 선택하여 예상 오류 모델의 변경을 탐색한다. 유사한 접근 방식은 출력 분산을 최소화하려는 분산 감소 방법에서 찾을 수 있다. 분산 및 로지스틱 회귀를 채택한 후 로지스틱 회귀에 대한 예상 분산 감소 방법으로 확장된다. 최소 최대보기 활성 학습에서 최악의 경우 기준은 새 샘플에 레이블링한 후 목적 함수를 최소화하는 샘플을 선택하도록 조정된다. 이 방법은 목적 함수를 계산할 때 레이블이 없는 모든 데이터를 고려하여 확장된다. 그러나 EER 기반 재교육 접근 방식은 모든 레이블링되지 않은 데이터와 가능한 모든 레이블을 탐색하기 때문에 많은 계산이 필요하다.Next, Expected Error Reduction (EER) reduces the generalization error as a selection criterion when labeling new samples based on retaining-based active learning (AL). The effectiveness of this method has been demonstrated in text classification applications. The rationale is to choose samples that minimize future generalization errors. The unlabeled pool represents the test distribution and serves as the validation set. Since there is no knowledge of the labels of unlabeled samples, EER estimates the average case potential loss in terms of average case, worst case, or best case. Such an EER explores changes in the predicted error model by selecting samples that lead to the largest change in the current model. A similar approach can be found in variance reduction methods that seek to minimize output variance. After adopting variance and logistic regression, it is extended to the expected variance reduction method for logistic regression. In minimum-maximum active learning, the worst-case criterion is adjusted to select the sample that minimizes the objective function after labeling a new sample. This method is extended to consider all unlabeled data when calculating the objective function. However, the EER-based retraining approach requires a lot of computation because it explores all unlabeled data and all possible labels.

이하 도 2를 참고로 본 발명의 시스템 개요를 상세히 설명한다. Hereinafter, a system overview of the present invention will be described in detail with reference to FIG. 2 .

본 발명을 위한 시스템은 신속 적응형 객체 감지를 위한 롤백 딥 러닝 방법의 구현을 위해 공동 샘플링과 EER-ASSL로 구성된다. 본 발명에서 제안된 방법(EER-ASSL)은 EER 방법의 신속한 모델링 기능과 CNN의 정밀하고 점진적인 학습 기능을 통합한다. 본 발명에서 제안된 방법(EER-ASSL)은 AL 알고리즘의 탐색 기능과 롤백 기능이 있는 bin 기반 SSL 알고리즘의 단계별 활용을 이용한다. 이 방법은 교육 시간뿐만 아니라 비용이 많이 드는 인적 노력을 최소화하는 동시에 적응형 학습 프로세스에서 고품질 레이블 데이터 세트와 고정밀 객체 탐지기를 유지한다. 불확실성, 다양성 및 신뢰도 기준을 고려한 공동 샘플링 방법은 중복성이 낮은 보다 정보적이고 신뢰할 수 있는 샘플을 선택할 수 있다. 불확실성 기준은 잡음이 있거나 중복 된 샘플의 선택을 유발할 수 있으므로 클러스터링 기반 중복 제거 알고리즘에 다양성 기준이 적용된다. 본 발명에서 공동 샘플링 기반 AL 학습 알고리즘은 롤백 빈 기반 SSL 알고리즘과 통합된다. 동적으로 변화하는 환경에서 신속한 적응형 객체 감지를 위한 EER-ASSL의 간략한 스케치가 도 2에 도시된다. 한 번에 하나의 이미지가 아닌 이미지 스트림의 불확실성과 다양성 샘플링을 기반으로 샘플 배치가 선택된다. 공동 샘플링 후 샘플링된 배치 스트림은 롤백 SSL 알고리즘을 위해 빈(Bin)으로 나뉜다. 이미지 빈의 샘플은 레이블링되지 않은 샘플이며 CNN 검출기와 EER 기반 롤백 학습 방법을 모두 사용하는 빈 기반 SSL에 의해 의사(pseudo) 레이블링된다. 그러나 의사(pseudo) 데이터 세트에는 올바르지 않게 레이블링된 샘플들 뿐만 아니라 불균형 데이터 분포에서 편향된 레이블도 포함한다. 이러한 샘플은 유해한 영향을 미치고 더 나은 객체 감지기를 구축하는 데 어떠한 기여도하지 않기 때문에 잡음이 있는 샘플은 신뢰 샘플에서 제외되어야 한다. 본 발명에서 제안된 EER 기반 학습 방법은 재선택 및 레이블 재지정을 통해보다 유익한 샘플링 및 학습을 하도록 빠른 순방향 학습(forward learning) 및 롤백 학습(rollback learning)을 위해 채택되었다.The system for the present invention consists of joint sampling and EER-ASSL for the implementation of a rollback deep learning method for fast adaptive object detection. The method proposed in the present invention (EER-ASSL) integrates the rapid modeling function of the EER method and the precise and progressive learning function of the CNN. The method (EER-ASSL) proposed in the present invention uses the step-by-step utilization of the bin-based SSL algorithm with the search function and rollback function of the AL algorithm. This method minimizes training time as well as costly human effort while maintaining high-quality label datasets and high-precision object detectors in the adaptive learning process. Co-sampling methods that take into account uncertainty, variability, and reliability criteria can select more informative and reliable samples with less redundancy. Since the uncertainty criterion can lead to the selection of noisy or duplicate samples, the diversity criterion is applied to the clustering-based deduplication algorithm. In the present invention, the joint sampling based AL learning algorithm is integrated with the rollback bean based SSL algorithm. A simplified sketch of EER-ASSL for fast adaptive object detection in a dynamically changing environment is shown in FIG. 2 . Sample batches are selected based on the uncertainty and diversity sampling of the image stream rather than one image at a time. After co-sampling, the sampled batch stream is divided into bins for the rollback SSL algorithm. The samples in the image bins are unlabeled samples and are pseudo-labeled by bin-based SSL using both CNN detector and EER-based rollback learning methods. However, the pseudo-data set contains not only samples that are incorrectly labeled, but also labels that are biased from an unbalanced data distribution. Since these samples have a detrimental effect and do not contribute in any way to building a better object detector, noisy samples should be excluded from the reliable samples. The EER-based learning method proposed in the present invention was adopted for fast forward learning and rollback learning to enable more informative sampling and learning through reselection and relabelling.

다음으로 본 발명에서 제안된 방법(EER-ASSL)의 학습을 설명한다.Next, learning of the method (EER-ASSL) proposed in the present invention will be described.

본 발명에서는 EER 모델과 미세 조정된 CNN 모델의 트레이닝을 위해 매우 제한된 수의 레이블링된 데이터를 사용한다. 미세 조정된 CNN 모델 및 EER 모델은 제한된 레이블링된 데이터 샘플을 사용하여 구축된다. 앙상블 네트워크는 CNN 감지기와 EER 모델로 구성되어 객체 감지를 수행한다. 증분 ASSL이 채택되어 입력 데이터 스트림에서 데이터 샘플 배치가 수집되고 공동 샘플링 알고리즘에 의해 선택적으로 샘플링된다. 선택된 샘플은 이미지 캡처 품질에 따라 배치 및 빈의 크기가 결정되는 빈으로 분할된다. CNN 및 EER 앙상블에 의해 처음 레이블링된 데이터 세트와 의사 트레이닝 데이터 세트는 새로운 CNN 및 EER 모델을 트레이닝하는 데 사용된다. 즉, 다음 빈 주기를 위해 모델을 업데이트하는 데 사용된다. 새로운 EER 모델은 필요한 경우 빈에서 샘플 제거, 레이블 변경 및 재선택하는 것으로 구성된 롤백 학습 프로세스에 포함된다. 빈 기반 증분 학습은 샘플 재선택을 위한 순방향 학습과 제거 및 레이블 재지정을 위한 롤백 학습과 통합되어 처리된다(도 3 참조). 새로운 CNN 모델은 새로운 공동 샘플링 과정에서도 사용된다. 이 과정은 수렴될 때까지 반복된다.In the present invention, we use a very limited number of labeled data for training the EER model and the fine-tuned CNN model. Fine-tuned CNN models and EER models are built using limited labeled data samples. The ensemble network consists of a CNN detector and an EER model to perform object detection. Incremental ASSL is employed so that batches of data samples are collected from the input data stream and selectively sampled by a joint sampling algorithm. The selected sample is divided into bins whose batch and bin size are determined according to the image capture quality. The dataset initially labeled by the CNN and EER ensemble and the pseudo-training dataset are used to train new CNN and EER models. That is, it is used to update the model for the next empty cycle. The new EER model is involved in a rollback learning process, which consists of removing samples from bins, changing labels, and reselecting them if necessary. Bin-based incremental learning is processed by integrating forward learning for sample reselection and rollback learning for removal and relabeling (see Fig. 3). The new CNN model is also used in the new joint sampling process. This process is repeated until convergence.

우선 EER 순방향 학습(forward learning) 프로세서를 설명한다. 본 발명에서는 패턴 분류 문제에서 제안되고 사용된 EER 방법을 채택한다. EER 방법의 목적은 향후 단계에서 일반화 오류를 최소화하는 샘플을 선택하는 것이다. 테스트 데이터를 미리 사용할 수 없기 때문에 스트리밍 데이터 세트의 일부가 향후 오류를 추정하기 위한 유효성 검사 데이터 세트로 사용된다. 레이블링되지 않은 데이터 세트의 실제 레이블은 알 수 없으며 향후 오류는 레이블이 없는 데이터에 대한 예상 로그 손실을 사용하여 대략적으로 추정된다.

Figure pat00001
은 레이블링된 트레이닝 데이터 세트를 나타내고,
Figure pat00002
은 레이블이 없는 데이터 세트이다(
Figure pat00003
). 만약 선택한 샘플 x가 y로 레이블링되고 LD에 추가되면,
Figure pat00004
로 표시된다.
Figure pat00005
는 LD의 EER모델과
Figure pat00006
Figure pat00007
를 나타낸다. 가장 유익한 데이터 샘플은 레이블링되지 않은 데이터 세트를 사용하여 예상 엔트로피를 최소화하여 예상 오류 감소를 극대화하는 것으로 가정한다. 레이블링되지 않은 데이터 세트에서 가장 유익한 데이터 샘플이 다음의 방정식 (1)을 충족하는 샘플로 선택된다.First, an EER forward learning processor will be described. In the present invention, the EER method proposed and used in the pattern classification problem is adopted. The purpose of the EER method is to select samples that minimize the generalization error in future steps. Because test data is not available in advance, a portion of the streaming data set is used as a validation data set to estimate future errors. The true label of the unlabeled data set is unknown, and future errors are roughly estimated using the expected log loss for unlabeled data.
Figure pat00001
represents the labeled training data set,
Figure pat00002
is an unlabeled data set (
Figure pat00003
). If the selected sample x is labeled y and added to LD,
Figure pat00004
is displayed as
Figure pat00005
is the EER model of LD and
Figure pat00006
of
Figure pat00007
indicates It is assumed that the most informative data samples use unlabeled data sets to minimize expected entropy to maximize expected error reduction. The most informative data sample in the unlabeled data set is chosen as the sample satisfying the following equation (1).

Figure pat00008
Figure pat00008

여기서 C는 객체 클래스를 나타내고, 첫 번째 항

Figure pat00009
은 현재 모델의 레이블 정보를 나타내고 두 번째 항은 모델
Figure pat00010
의 레이블이 없는 데이터 UD에 대한 예상 엔트로피의 합이다. 위 방정식 (1)은 직렬 모드 학습 프로세스를 공식화하는 반면 새 모델은 UD에서 각 새 데이터 샘플의 레이블링 직후에 업데이트된다. 그러나 학습의 철저한 반복은 실제로 무거운 계산 오버 헤드로 인해 어려움을 겪는다. 본 발명에서는 레이블이 없는 스트림 데이터 세트를 배치로 나누고, 각 배치는 도 3과 같이 UD에서 레이블이 없는 전체 데이터 샘플을 처리하는 대신 빈으로 분할된다.where C denotes the object class, the first term
Figure pat00009
represents the label information of the current model and the second term is the model
Figure pat00010
is the sum of the expected entropy for the unlabeled data UD of Equation (1) above formalizes the serial mode learning process, whereas the new model is updated immediately after labeling of each new data sample in the UD. However, exhaustive iterations of learning actually suffer from heavy computational overhead. In the present invention, the unlabeled stream data set is divided into batches, and each batch is divided into bins instead of processing the entire unlabeled data sample in the UD as shown in FIG. 3 .

롤백 SSL에서 레이블링되지 않은 데이터 샘플의 빈이 각 학습 단계에 사용된다. 시간 단계 i의 경우 방정식 (1)은 빈(bin)

Figure pat00011
를 고려하여 다음의 방정식 (2)와 같이 다시 작성된다.In rollback SSL, a bean of unlabeled data samples is used for each training step. For time step i, equation (1) is bin
Figure pat00011
Taking into account, it is rewritten as the following equation (2).

Figure pat00012
Figure pat00012

여기서 첫 번째 항은 현재 모델의 레이블 정보를 나타내고, 두 번째 항은 레이블이 없는 데이터 빈(bin)

Figure pat00013
에서 모델
Figure pat00014
에 대한 예상 엔트로피의 합이다. 공동 샘플링을 적용한 후 방정식 (2)를 반복적으로 적용하는 빈(bin) 데이터 세트에 대한 유사 레이블 집합
Figure pat00015
을 결정할 수 있다. 그러나
Figure pat00016
의 각 데이터 샘플에 대한 모델을 빌드하려면 여전히 많은 계산 오버 헤드가 필요하다. 따라서 방정식 (2)는 다음의 방정식 (3)과 같이 유사 레이블링된 집합
Figure pat00017
의 선택된 샘플에 대한 모델을 구축하여 근사치를 구한다.Here, the first term represents the label information of the current model, and the second term is an unlabeled data bin.
Figure pat00013
model from
Figure pat00014
is the sum of the expected entropy for . A set of pseudo-labels for a bin data set iteratively applying Equation (2) after applying co-sampling
Figure pat00015
can be decided But
Figure pat00016
It still requires a lot of computational overhead to build a model for each data sample in Therefore, equation (2) is a pseudo-labeled set as in equation (3)
Figure pat00017
It is approximated by building a model for a selected sample of

Figure pat00018
Figure pat00018

여기서 첫 번째 항은 레이블링된 의사 집합

Figure pat00019
의 선택된 샘플에 대한 현재 모델의 레이블 정보를 나타내고, 두 번째 항은 가중치 모델
Figure pat00020
과 레이블링 되지 않은 데이터
Figure pat00021
에 대한 예상 엔트로피의 합이다.where the first term is the labeled pseudoset
Figure pat00019
represents the label information of the current model for the selected sample of
Figure pat00020
and unlabeled data
Figure pat00021
is the sum of the expected entropy for .

선택한 샘플

Figure pat00022
레이블이
Figure pat00023
이고 LD에 추가 된 경우
Figure pat00024
로 표시된다. 방정식 (1)을 사용하여 레이블이 없는 전체 데이터 샘플에 대한 모델을 빌드하는 대신 모델을 한번 빌드한다는 것을 알 수 있다. EER 순방향 학습 프로세스는 CNN 검출기에 의해 실패한 빈의 재교육을 위한
Figure pat00025
의 재선택 알고리즘에 사용된다. 현재 레이블링된 데이터 세트에 추가 된 재 선택된 샘플과 결합 된 데이터 세트는 bin 기반 SSL 단계에 대한 CNN 모델을 유지하는 데 사용된다.selected sample
Figure pat00022
label
Figure pat00023
and added to LD
Figure pat00024
is displayed as Using Equation (1), we can see that we build the model once instead of building the model over the entire unlabeled data sample. The EER forward learning process is designed for retraining of failed bins by the CNN detector.
Figure pat00025
used in the reselection algorithm of The dataset combined with the reselected samples added to the current labeled dataset is used to maintain the CNN model for the bin-based SSL phase.

다음으로 EER 롤백 학습(Rollback learning) 프로세서를 설명한다. 이 프로세서의 목표는 현재 모델을 방해하는 가장 불확실한 레이블링 된 샘플을 조사하고 가장 불확실한 샘플을 대체하거나 최근에 의사 레이블링된 샘플을 다시 레이블링하는 새 샘플을 선택하는 것이다. 롤백 학습을 위해 EER 추정을 사용하여 의사 레이블링된 데이터 샘플에 대한 예상 엔트로피를 최소화한다. 계산 시간을 고려할 때 레이블링되지 않은 전체 데이터 세트를 고려하지 않고 가장 최근의 유사 레이블 데이터 세트만 검사한다. 롤백 프로세스에서는 최근 의사 레이블링 된 샘플에서 제거 또는 레이블을 재지정할 후보 샘플을 찾는다. 롤백 학습 프로세스는 롤백 샘플의 레이블을 다시 지정하거나 이웃에서 다시 선택하여 롤백 샘플의 레이블 인증을 수행한다. 롤백 학습은 1) 제거 프로세스와 2) 레이블 재지정 프로세스의 두 가지 유형으로 나뉜다.Next, the EER rollback learning processor will be described. The goal of this processor is to examine the most uncertain labeled samples that interfere with the current model and select new samples that either replace the most uncertain samples or relabel the recently pseudo-labeled samples. For rollback learning, we use EER estimation to minimize the expected entropy for pseudo-labeled data samples. When considering the computation time, only the most recent similarly labeled data set is examined without considering the entire unlabeled data set. The rollback process looks for candidate samples to be removed or relabeled from the most recent pseudo-labeled samples. The rollback learning process performs label authentication of the rollback samples by either relabeling the rollback samples or reselecting them from their neighbors. Rollback learning is divided into two types: 1) the removal process and 2) the relabel process.

우선 제거 프로세스를 살펴보면, 제거 롤백 프로세스는 롤백 샘플이 EER 모델을 방해하는 것으로 의심되기 때문에 레이블링된 데이터 세트에 추가된 현재 의사 데이터 세트에서 데이터 샘플을 제거하여 데이터 샘플의 나쁜 영향을 취소하는 것이다. 이전에 레이블링된 데이터 세트를 사용하는 모델은 마지막 레이블링된 데이터 세트보다 더 안정적일 것으로 예상되므로 모델을 업데이트하는 데 사용된다. 롤백 학습을 제거하는 동안 롤백 샘플의 영향은 모델의 의사 데이터 세트에서 제거된다. 제거 롤백 프로세스는 의사 레이블링된 데이터 세트에서 신뢰할 수 없는 샘플을 삭제하고 신뢰할 수없는 샘플이 감지된다. 롤백 제거 프로세스는 다음의 방정식 (4), (5)와 같이 구성된다.First, looking at the removal process, the removal rollback process is to undo the bad effects of the data samples by removing them from the current pseudo-data set added to the labeled dataset because the rollback samples are suspected to interfere with the EER model. Models using the previously labeled data set are expected to be more stable than the last labeled data set, so they are used to update the model. While removing rollback training, the influence of rollback samples is removed from the model's pseudo-dataset. The removal rollback process deletes untrusted samples from the pseudo-labeled data set and untrusted samples are detected. The rollback removal process is composed of the following equations (4) and (5).

Figure pat00026
Figure pat00026

여기서

Figure pat00027
Figure pat00028
을 제거한 후 레이블링된 데이터 세트를 나타낸다. 방정식 (4)는 실제로 계산할 수 없는 많은 계산 시간이 필요하기 때문에 롤백 샘플,
Figure pat00029
은 레이블링되지 않은 전체 데이터 세트의 샘플 대신 현재 단계의 의사 레이블링된 데이터 샘플에서 선택된다. 트레이닝 데이터 세트는 LD에서
Figure pat00030
로 롤백하고 현재 기능 공간의 이웃에서 새 샘플을 대체한다. 제거로 인해 레이블링되지 않은 데이터 세트에 대한 엔트로피를 최소화하는 제거할 레이블링된 샘플 풀을 찾으며, 다른 유사 레이블링된 샘플은 재선택 프로세스에서 다시 선택된다. 제거를 위한 롤백 샘플은 다음과 같이 분류 모델인 방정식 (6)을 사용하여 마지막 의사 레이블링된 샘플의 빈에서만 선택된다.here
Figure pat00027
silver
Figure pat00028
represents the labeled data set after removing . Equation (4) requires a lot of computation time that cannot be calculated in practice, so the rollback sample,
Figure pat00029
is chosen from pseudo-labeled data samples of the current stage instead of samples from the entire unlabeled data set. The training data set is from LD.
Figure pat00030
rolls back to and replaces the new sample in the neighborhood of the current feature space. A pool of labeled samples to be removed is found that minimizes entropy for the unlabeled data set due to removal, and other similarly labeled samples are reselected in the reselection process. Rollback samples for removal are selected only from the bins of the last pseudo-labeled sample using Equation (6), which is a classification model as follows.

Figure pat00031
Figure pat00031

여기서

Figure pat00032
은 재선택 프로세스를 위해 제거할 롤백 샘플을 나타낸다. 선택한 롤백 샘플이 각각
Figure pat00033
에 의해 의사 레이블링된
Figure pat00034
이고 LD에서 제거 된 경우 집합 차이
Figure pat00035
으로 표시된다.here
Figure pat00032
represents the rollback samples to be removed for the reselection process. Each of the selected rollback samples
Figure pat00033
Physician labeled by
Figure pat00034
and the set difference if removed from LD
Figure pat00035
is displayed as

다음으로 레이블 재지정 프로세스를 살펴보면

Figure pat00036
에서 선택한 레이블 재지정 샘플이 LD에 업데이트되거나 추가된다. 만약 롤백 학습 레이블 재지정 프로세스 후 롤백 샘플의 레이블이 변경되면 순방향 학습 레이블이 새 레이블로 대체된다. 이러한 방식으로 포워드 레이블링 오류가 수정된다. 만약 새 레이블이 정방향 학습 레이블과 동일하면 롤백 샘플이 새 샘플로 처리되고, LD에 추가될 것이다. 부스팅에 대한 유사한 아이디어가 논의되며, 잘못된 레이블이 붙은 샘플 후보가 더 집중 될 것이다. 한 샘플에 대한 레이블 재지정 롤백 학습은 다음의 방정식 (7)과 유사한 공식에 따라 수행된다.Next, take a look at the relabeling process:
Figure pat00036
The selected relabeling sample is updated or added to the LD. If the label of the rollback sample is changed after the rollback learning relabeling process, the forward learning label is replaced with the new label. In this way, forward labeling errors are corrected. If the new label is the same as the forward learning label, the rollback sample will be treated as a new sample and added to the LD. Similar ideas for boosting are discussed, and sample candidates with false labels will be more concentrated. The relabel rollback learning for one sample is performed according to a formula similar to the following equation (7).

Figure pat00037
Figure pat00037

여기서

Figure pat00038
Figure pat00039
에 의해 할당된 의사 레이블링된
Figure pat00040
를 나타낸다. Z는 다음에 의해 계산된 정규화 계수이다.here
Figure pat00038
Is
Figure pat00039
pseudo-labeled assigned by
Figure pat00040
indicates Z is the normalization coefficient calculated by

Figure pat00041
Figure pat00041

레이블이 재지정된 각 후보에 대한 모델 계산의 계산 오버 헤드를 고려하여 다음과 같이

Figure pat00042
의 레이블이 재지정된 후보 풀 측면에서 아래의 방정식 (8)에서와 같이 레이블 재지정 롤백 학습 프로세스를 공식화한다.Taking into account the computational overhead of calculating the model for each relabeled candidate,
Figure pat00042
In terms of the relabeled candidate pool of , we formulate the relabel rollback learning process as in equation (8) below.

Figure pat00043
Figure pat00043

여기서

Figure pat00044
Figure pat00045
에 의해 할당된 의사 레이블링된
Figure pat00046
를 나타낸다. Z는 다음에 의해 계산된 정규화 계수이다.here
Figure pat00044
Is
Figure pat00045
pseudo-labeled assigned by
Figure pat00046
indicates Z is the normalization coefficient calculated by

Figure pat00047
Figure pat00047

이하에서는 본 발명에 따른 방법(EER-ASSL)의 알고리즘을 설명한다.Hereinafter, the algorithm of the method (EER-ASSL) according to the present invention will be described.

본 발명에서 제안하는 EER-ASSL의 주요 작업은 공동 샘플링 기반 AL과 롤백 빈 기반 SSL로 구성된다. AL 프로세스에서 데이터 샘플의 배치는 입력 데이터 스트림에서 수집되며, 최소한의 중복성을 가진 정보 샘플에 대한 공동 샘플링 알고리즘에 의해 처리되며 빈으로 분할된다. 롤백 SSL에서 EER 기반 롤백 학습과 빈 기반 SSL은 빠른 적응 학습을 위해 결합된다. 제한된 레이블링된 샘플은 CNN 모델 및 EER 모델을 초기화하는 데 사용된다. 모델은 빈 기반 증분 SSL 체계에서 학습된다. CNN 모델 학습에서 성능 기준을 위반하면 빠른 롤백 학습을 위해 EER 방법이 활성화된다. 신뢰할 수 있는 레이블링된 데이터 세트의 볼륨은 유사 레이블링된 데이터 샘플을 추가하여 증가한다. 확대 된 LD는 다음 CNN 및 EER 모델을 구축하는 데 사용된다. 이 과정은 수렴 될 때까지 반복된다. EER 롤백 모델은 빠른 단기 적응을 제공하고 CNN 검출기 모델은 각각 점진적인 장기 성능 향상을 제공한다는 것을 알 수 있다.

Figure pat00048
는 공동 샘플링 후 현재 배치에서 채굴 된 샘플을 나타낸다. 여기서는 롤백 빈 기반 SSL 알고리즘에 중점을 둔다.
Figure pat00049
는 빈 기반 SSL의 기밀 배치 데이터 세트를 나타내며 기밀 배치 데이터 세트의 컨테이너로 사용된다.
Figure pat00050
의 카디널리티가 신뢰 매개변수
Figure pat00051
가 되면 신뢰 표본 선택 프로세스가 중지된다.
Figure pat00052
Figure pat00053
을 만족하는 샘플로 초기화된다. 기밀 샘플링 전략은
Figure pat00054
에서 샘플을 선택하고
Figure pat00055
을 사용하여 현재 딥 피처 공간의 거리 메트릭에 따라
Figure pat00056
에 추가한다. 여기서
Figure pat00057
는 딥 피쳐 공간에서 두 샘플
Figure pat00058
Figure pat00059
간의 유클리드 거리이다. CNN은
Figure pat00060
에 있는 기밀 샘플의 빈 시퀀스를 사용하여 다시 트레이닝 된다. 기밀 샘플은 빈으로 분할되고
Figure pat00061
으로 표시된 빈 풀에 저장된다. 각 롤백 빈 기반 SSL 단계에서 신뢰도 점수는 현재 CNN 감지기에 의해 의사 샘플에 할당된다. 레이블링된 데이터
Figure pat00062
은 각각 처음에 CNN 검출기 모델
Figure pat00063
및 EER 모델
Figure pat00064
을 초기화하는데 사용된다.
Figure pat00065
은 검증 데이터를 사용하여
Figure pat00066
에 의해 계산된다. 각 빈에 대해 각각
Figure pat00067
를 사용하여 CNN 모델
Figure pat00068
을 세운다.
Figure pat00069
Figure pat00070
에 의해 계산 된 빈 점수 중 최대 정확도 즉,
Figure pat00071
를 나타낸다. 만약 성능이 향상 즉
Figure pat00072
이면,
Figure pat00073
Figure pat00074
를 업데이트하여 다음 단계로 이동한다. 시간 단계 i에서 각 빈에 대해
Figure pat00075
Figure pat00076
를 사용하여 CNN 모델
Figure pat00077
을 세우고, 세 가지 사례인 사례 1)
Figure pat00078
, 사례 2)
Figure pat00079
및 사례 3)
Figure pat00080
로 나뉜다. 여기서
Figure pat00081
은 탐사 가능성에 대한 허용 한계이다.The main work of EER-ASSL proposed in the present invention consists of joint sampling-based AL and rollback bean-based SSL. In the AL process, batches of data samples are collected from the input data stream, processed by a joint sampling algorithm for information samples with minimal redundancy, and partitioned into bins. In rollback SSL, EER-based rollback learning and bean-based SSL are combined for fast adaptive learning. Restricted labeled samples are used to initialize the CNN model and the EER model. The model is trained on a bean-based incremental SSL scheme. In CNN model training, if the performance criterion is violated, the EER method is activated for fast rollback learning. The volume of reliable labeled data sets is increased by adding similarly labeled data samples. The enlarged LD is then used to build CNN and EER models. This process is repeated until convergence. It can be seen that the EER rollback model provides fast short-term adaptation and the CNN detector model provides progressive long-term performance improvement, respectively.
Figure pat00048
represents the samples mined in the current batch after co-sampling. The focus here is on the rollback bean-based SSL algorithm.
Figure pat00049
represents the confidential batch data set of bean-based SSL and is used as a container for the confidential batch data set.
Figure pat00050
The cardinality of the trust parameter
Figure pat00051
, the confidence sample selection process is stopped.
Figure pat00052
Is
Figure pat00053
It is initialized to a sample that satisfies Confidential sampling strategy
Figure pat00054
select a sample from
Figure pat00055
according to the distance metric in the current deep feature space using
Figure pat00056
add to here
Figure pat00057
are two samples in deep feature space.
Figure pat00058
Wow
Figure pat00059
is the Euclidean distance between CNN
Figure pat00060
It is retrained using an empty sequence of confidential samples in Confidential samples are divided into bins and
Figure pat00061
It is stored in an empty pool marked with . At each rollback bean-based SSL step, a confidence score is assigned to the pseudo-sample by the current CNN detector. labeled data
Figure pat00062
Each is initially a CNN detector model
Figure pat00063
and EER models
Figure pat00064
used to initialize
Figure pat00065
using the validation data
Figure pat00066
is calculated by each for each bin
Figure pat00067
CNN model using
Figure pat00068
set up
Figure pat00069
silver
Figure pat00070
The maximum accuracy among the blank scores computed by
Figure pat00071
indicates If the performance improves i.e.
Figure pat00072
back side,
Figure pat00073
and
Figure pat00074
update to go to the next step. For each bin at time step i
Figure pat00075
and
Figure pat00076
CNN model using
Figure pat00077
, and three cases, Case 1)
Figure pat00078
, case 2)
Figure pat00079
and case 3)
Figure pat00080
is divided into here
Figure pat00081
is an acceptable limit for exploration possibilities.

사례 1: 다음 단계를 위한 최상의 빈을 얻고

Figure pat00082
Figure pat00083
;
Figure pat00084
을 업데이트한다. 선택한 빈을 제거하면 빈 풀
Figure pat00085
이 줄어드는 것을 알 수 있다.Case 1: Get the best bean for the next step
Figure pat00082
and
Figure pat00083
;
Figure pat00084
update If you remove the selected bean, the empty pool
Figure pat00085
It can be seen that this decreases.

사례 2: 다음 하위 단계를 수행한다. 1) 방정식 (7)을 사용한 롤백 학습 프로세스를 사용하여

Figure pat00086
에서 제거 샘플을 찾고, 2) 레이블 재지정 샘플을 찾고 방정식 (5)를 기반으로 한 롤백 학습 프로세스를 사용하여
Figure pat00087
에서 새 레이블을 할당하고, 방정식 (3)에 기반한 EER 순방향 학습 프로세스를 사용하여 재선택하여
Figure pat00088
을 업데이트한다. Case 2: Perform the following substeps. 1) using the rollback learning process using equation (7)
Figure pat00086
find the sample removed from, 2) find the relabel sample and use a rollback learning process based on equation (5)
Figure pat00087
by assigning a new label from , and reselecting using the EER forward learning process based on equation (3)
Figure pat00088
update

위의 정방향 롤백 학습 프로세스는

Figure pat00089
또는
Figure pat00090
조건을 만족하기 전 또는 시간 제한까지 반복한다. 만약 조건
Figure pat00091
이 충족되면,
Figure pat00092
Figure pat00093
를 업데이트한다.The forward rollback learning process above is
Figure pat00089
or
Figure pat00090
Repeat before the condition is satisfied or until the time limit. if condition
Figure pat00091
When this is met,
Figure pat00092
Wow
Figure pat00093
update

사례 3: Oracle은

Figure pat00094
의 레이블링된 데이터를 잘못 레이블하고
Figure pat00095
을 업데이트한다. Case 3: Oracle
Figure pat00094
incorrectly label the labeled data of
Figure pat00095
update

사례 2의 롤백 프로세스는 Oracle 레이블링 단계를 현저하게 줄일 수 있다.

Figure pat00096
는 시간 t에서
Figure pat00097
Figure pat00098
의 트레이닝에 사용되는 트레이닝 데이터 세트
Figure pat00099
을 세우는데 사용된다. 이 과정은 수렴 될 때까지 반복된다. 마지막으로 롤백 빈 기반 SSL은 두 가지 모델 f 및 g와 확장된 레이블 데이터 세트 LD를 생성한다. EER 기반 롤백 학습과 빈 기반 SSL을 결합하면 동적으로 변화하는 환경에서 노이즈가 있는 스트리밍 샘플에서도 신속 적응형 객체 감지기를 얻을 수 있다. 롤백 빈 기반 SSL 알고리즘은 아래의 알고리즘 1에 요약된다.The rollback process in Case 2 can significantly reduce the Oracle labeling step.
Figure pat00096
is at time t
Figure pat00097
and
Figure pat00098
training data set used for training in
Figure pat00099
used to build This process is repeated until convergence. Finally, rollback bean-based SSL produces two models f and g and an extended label data set LD. Combining EER-based rollback learning with bean-based SSL yields fast adaptive object detectors even on noisy streaming samples in dynamically changing environments. The rollback bean based SSL algorithm is summarized in Algorithm 1 below.

Figure pat00100
Figure pat00100

이하, 본 발명에 따른 방법(EER-ASSL) 등의 실험 예를 설명한다.Hereinafter, experimental examples such as the method (EER-ASSL) according to the present invention will be described.

본 발명에 따른 방법(EER-ASSL)은 PASCAL VOC 및 로컬 데이터 세트와 같은 벤치 마크 데이터 세트를 사용하여 광범위한 실험을 수행하고 성능을 Faster RCNN, SSD300 및 YOLOv2와 같은 최첨단 감지기 기술과 비교한다. 실험적 구현은 cuDNN 및 Tensorflow을 갖는 단일 NVIDIA TITAN X가 있는 단일 서버를 사용하여 수행되었다. 실험 설정을 Darknet-19 CNN 모델으로 사용했으며 기본 감지기는 최첨단 객체 감지기인 YOLOv2이다.The method according to the present invention (EER-ASSL) performs extensive experiments using benchmark data sets such as PASCAL VOC and local data sets and compares the performance with state-of-the-art detector technologies such as Faster RCNN, SSD300 and YOLOv2. The experimental implementation was performed using a single server with a single NVIDIA TITAN X with cuDNN and Tensorflow. The experimental setup was used as a Darknet-19 CNN model, and the default detector is YOLOv2, a state-of-the-art object detector.

<벤치 마크 데이터 세트><benchmark data set>

- PASCAL VOC 데이터 세트: 유명한 PASCAL VOC 벤치 마크에는 Pascal VOC 2007 및 2012의 두 가지 버전이 있다. Pascal VOC 2007은 총 9963 개의 이미지(train/validation/test)로 구성된 20개의 클래스와 24,640 개의 주석이 달린 객체로 구성된다. Pascal VOC 2012에는 27,450 개의 주석이 달린 객체가 포함 된 11,530 개의 이미지 (train/validation/test)가 있는 20 개의 클래스가 있다. YOLOv2 모델은 PASCAL VOC 2007 데이터 세트와 PASCAL VOC 2012 데이터 세트를 사용하여 트레이닝 되었다. Pascal VOC 2007 데이터 세트에는 사람, 동물, 차량, 실내의 네 가지 수퍼 클래스가 있다. 본 발명의 실험은 실내 환경(예: 병, 의자, 식탁, 화분, 소파 및 TV 모니터)의 개체 등급에 초점을 맞추었다.- PASCAL VOC data set: There are two versions of the famous PASCAL VOC benchmark, Pascal VOC 2007 and 2012. Pascal VOC 2007 consists of 20 classes with a total of 9963 images (train/validation/test) and 24,640 annotated objects. Pascal VOC 2012 has 20 classes with 11,530 images (train/validation/test) containing 27,450 annotated objects. The YOLOv2 model was trained using the PASCAL VOC 2007 data set and the PASCAL VOC 2012 data set. There are four superclasses in the Pascal VOC 2007 data set: people, animals, vehicles, and indoors. The experiments of the present invention focused on the class of subjects in the indoor environment (eg bottles, chairs, tables, flowerpots, sofas and TV monitors).

- 로컬 데이터 세트: 450개의 의자 이미지, 450개의 화분 이미지, 450개 개찰구 이미지 및 450 개의 테이블 이미지 데이터 세트가 로컬 영역에서 선택된다. 본 발명은 416 ×416 픽셀의 입력 이미지 해상도를 사용한다. 12개의 의자 이미지를 초기 레이블 데이터 샘플로 사용했다. 98개의 이미지가 무작위로 선택되어 유효성 검사 데이터 세트에 사용된다. 각 클래스의 나머지 340개 이미지는 실험을 위해 레이블링되지 않은 데이터 세트에 사용되었다. PASCAL VOC 데이터 세트를 사용하여 트레이닝 할 때, 로컬 데이터 세트는 YOLOv2에서 매우 열악한 감지 결과를 생성한다. - Local data set: 450 chair images, 450 flowerpot images, 450 turnstile images and 450 table image data sets are selected from the local area. The present invention uses an input image resolution of 416 x 416 pixels. Twelve chair images were used as initial label data samples. 98 images were randomly selected and used for the validation data set. The remaining 340 images from each class were used in the unlabeled data set for the experiment. When training using the PASCAL VOC data set, the local data set produces very poor detection results in YOLOv2.

<실험 매개 변수 설정><Setting experimental parameters>

본 발명의 객체 감지 방법은 PASCAL VOC 챌린지 평가를 사용했다. 이것은 균일한 간격의 리콜 레벨 세트에 걸쳐 정밀도를 평균하여 아래의 방정식 (10)의 평균 정밀도가 계산되는 경우에 적용된다. 아래의 방정식 (10)은 평균 정밀도에 관한 식이다. The object detection method of the present invention used PASCAL VOC challenge assessment. This applies if the average precision in equation (10) below is calculated by averaging the precision over a set of evenly spaced recall levels. Equation (10) below is the expression for average precision.

Figure pat00101
Figure pat00101

여기서

Figure pat00102
은 r보다 큰 모든 재현율에 대해 최대 정밀도를 취하는 보간 정밀도이다. 본 발명 등에서는 실측 자료와 예측이라는 두 경계 사이의 중첩을 계산하기 위해 IoU (Intersection over Union)를 사용한다. 도 7에서와 같이 적색 경계 박스는 Ground Truth, 검은색 경계 박스는 EER-ASSL, 노란색 경계 박스는 YOLOv2 VOC 모델을 나타낸다. 실험에서 IoU 임계 값은 0.5(IOU => 0.5)로 미리 정의된 것으로 간주한다. 예측 성능이 임계값을 초과하면 올바른 것으로 간주하고 그렇지 않으면 잘못된 것으로 간주된다. 최상의 성능을 얻기 위해 기울기 기반 최적화 방법 Adam과 SGD(stochastic gradient descent)를 적용한다. 이 두 옵티마이저에 대해 학습률 0.001을 선택한다. 그러나 SGD 옵티마이저는 도 3에서 볼 수 있듯이 500 epoch의 Adam에 비해 실험에서 훨씬 느리다.here
Figure pat00102
is the interpolation precision taking the maximum precision for all recalls greater than r. In the present invention and the like, Intersection over Union (IoU) is used to calculate the overlap between two boundaries, namely, actual data and prediction. As shown in FIG. 7 , the red bounding box represents Ground Truth, the black bounding box represents EER-ASSL, and the yellow bounding box represents the YOLOv2 VOC model. In the experiment, the IoU threshold is assumed to be predefined as 0.5 (IOU => 0.5). If the prediction performance exceeds the threshold, it is considered correct, otherwise it is considered incorrect. To get the best performance, we apply the gradient-based optimization method Adam and stochastic gradient descent (SGD). We choose a learning rate of 0.001 for these two optimizers. However, the SGD optimizer is much slower in the experiment compared to Adam at 500 epochs, as shown in FIG. 3 .

도 3은 Adam 및 SGD 최적화 프로그램을 사용하여 로컬 데이터 세트를 트레이닝하는 동안 다양한 학습율(Learning Rate)의 실험 결과를 나타낸다. 본 발명은 학습률 0.001이 더 높고 안정적인 성능을 가지므로 학습률이 0.01 및 0.001 인 Adam 옵티마이저를 선택한다. 트레이닝 과정은 1 단계와 2 단계와 같은 여러 단계로 나뉜다. SGD와 Adam 최적화 프로그램은 서로 다른 수의 빈을 트레이닝하는 데 사용되었다. 두 단계의 경우 총 빈 수는 20개이다. 이 실험은 Adam 옵티마이저가 AP가 더 높은 SGD 옵티마이저보다 더 빠른 (시간)수렴을 가지고 있음을 보여준다. 이러한 이유로 학습율이 0.001 인 Adam 최적화 프로그램을 선택했다. 레이블링된 전체 데이터 세트를 두 단계로 나누었다. 1단계에서 매개 변수 조합은 불확실성, 다양성 및 신뢰도 [0.8, 0.8, 0.8]이다. 성능에 따라 매개 변수 조합을 [0.8, 0.6, 0.8] 또는 [0.8, 0.8, 0.6]으로 변경한다.3 shows experimental results of various learning rates while training a local data set using Adam and the SGD optimizer. Since the present invention has a higher learning rate of 0.001 and stable performance, we select the Adam optimizer with learning rates of 0.01 and 0.001. The training process is divided into several stages, such as stage 1 and stage 2. The SGD and Adam optimizers were used to train different numbers of bins. For both steps, the total number of bins is 20. This experiment shows that the Adam optimizer has faster (time) convergence than the SGD optimizer with higher AP. For this reason, the Adam optimizer with a learning rate of 0.001 was chosen. The full labeled data set was divided into two steps. The parameter combinations in step 1 are uncertainty, variability and reliability [0.8, 0.8, 0.8]. Change the parameter combination to [0.8, 0.6, 0.8] or [0.8, 0.8, 0.6] depending on the performance.

<본 발명에 따른 방법(EER-ASSL)의 실험 효과><Experimental effect of the method according to the present invention (EER-ASSL)>

본 발명에서 제안한 EER-ASSL, IASSL 및 단순 SSL의 성능은 도 4에서 비교된다. 모든 실험에 대한 불확실성, 다양성 및 신뢰도를 위해 협업 샘플링 매개 변수는 [0.8, 0.6, 0.8]로 설정된다. Adam 옵티마이저는 학습율 0.001로 사용되었다. EER-ASSL이 증분 ASSL에 비해 훨씬 향상된 성능을 가지고 있음을 알 수 있다. 단순 SSL의 성능은 거의 향상되지 않았다.The performance of EER-ASSL, IASSL, and simple SSL proposed in the present invention is compared in FIG. 4 . For uncertainty, variability, and reliability for all experiments, the collaborative sampling parameters are set to [0.8, 0.6, 0.8]. The Adam optimizer was used with a learning rate of 0.001. It can be seen that EER-ASSL has much improved performance compared to incremental ASSL. Simple SSL's performance improved little.

<노이즈가 있는 로컬 이미지 테스트><Test local image with noise>

도 6의 로컬 노이즈 이미지를 사용하여 노이즈 이미지에서 훨씬 개선된 EER-ASSL, IASSL 및 ICL(Iterative Cross learning)을 비교했다. ICL은 이미지 분류 성능으로 테스트되는 반면 EER-ASSL은 경계 박스 위치와 클래스 레이블이 모두 노이즈가 있는 객체 감지 성능으로 평가된다. Adam Optimizer의 학습율은 0.001로 설정된다. 실험 결과는 도 3과 같다. 처음에는 EER-ASSL이 노이즈 데이터의 영향을 받는 낮은 성능(AP)을 보여 주지만 첫 번째 단계의 4 번째 빈 이후에는 다른 방법보다 성능이 우수하다. 실험 결과는 도 7에 반영되어 있다. EER-ASSL은 다양한 조명 변화에서 뛰어난 성능을 보여준다. 도 7은 의자, 소파 및 테이블의 로컬 데이터 세트에 대한 IASSL의 탐지 결과로서, 모든 경우에 적색 경계 박스는 실측 자료, 검은색 경계 박스는 EER-ASSL, 노란색 경계 박스는 YOLOv2 VOC 모델을 나타낸다.The much improved EER-ASSL, IASSL, and Iterative Cross Learning (ICL) were compared in the noisy image using the local noise image of FIG. 6 . ICL is tested for image classification performance, while EER-ASSL is evaluated for object detection performance where both the bounding box location and class label are noisy. The learning rate of the Adam Optimizer is set to 0.001. The experimental results are shown in FIG. 3 . At first, EER-ASSL shows low performance (AP) affected by noise data, but after the 4th bin of the first stage, it outperforms other methods. The experimental results are reflected in FIG. 7 . EER-ASSL shows excellent performance in various lighting changes. 7 shows the detection results of IASSL for the local data sets of chairs, sofas, and tables. In all cases, the red bounding box represents the actual data, the black bounding box represents EER-ASSL, and the yellow bounding box represents the YOLOv2 VOC model.

<본 발명에 따른 방법(EER-ASSL)과 최첨단 기술과의 비교><Comparison between the method according to the present invention (EER-ASSL) and the state-of-the-art technology>

본 발명에 따른 방법(EER-ASSL)은 여러 첨단 객체 탐지기와 비교된다. 4 개의 개체 각각에는 100 개의 레이블링된 데이터 샘플과 300 개의 레이블링 되지 않은 데이터 샘플이 있으며, 공정한 평가를 위해 로컬 의자, 소파 및 테이블 이미지가 PASCAL VOC 테스트 데이터와 혼합되었다. 탐지기는 공정한 평가를 위해 동일한 벤치마크 데이터 세트와 로컬 데이터 세트로 트레이닝 되었다. 하기의 표 1은 각 열이 벤치마크 데이터와 로컬 데이터의 구성 비율을 나타내는 비교 결과를 보여준다.The method according to the invention (EER-ASSL) is compared with several advanced object detectors. Each of the four subjects had 100 labeled and 300 unlabeled data samples, and for fair evaluation, local chair, sofa and table images were mixed with PASCAL VOC test data. The detectors were trained on the same benchmark data set and local data set for fair evaluation. Table 1 below shows the comparison results in which each column represents the composition ratio of benchmark data and local data.

표 1. mAP 측정 측면에서 최첨단 객체 감지기와 EER-ASSL의 성능 비교Table 1. Comparison of performance of state-of-the-art object detectors and EER-ASSL in terms of mAP measurements

Figure pat00103
Figure pat00103

YOLOv2는 ImageNet 1000 클래스 분류 데이터 세트를 사용하여 네트워크를 트레이닝 시킨 다음 탐지를 수행하기 위해 네트워크를 수정한다. 이 공동 트레이닝 분류 및 감지 데이터는 소파 또는 개찰구와 같이 각 클래스에 대해 100개의 이미지로 제한되는 로컬 데이터 세트보다 훨씬 크다. 결과적으로 로컬 학습 데이터를 줄이면 실험에서 YOLOv2 모델에 큰 영향을 주지 않는 반면에 본 발명의 EER-ASSL 모델은 이미 로컬 데이터를 채택했으며 구성 데이터 비율이 50% 이상이면 EER-ASSL은 추가열 (10,90) 및 (25,75)에서 볼 수 있는 다른 최첨단 방법을 능가한다. YOLOv2 trains a network using the ImageNet 1000 class classification dataset and then modifies the network to perform detection. This joint training classification and detection data is much larger than the local data set, which is limited to 100 images for each class, such as a sofa or a turnstile. As a result, reducing the local training data does not significantly affect the YOLOv2 model in the experiment, whereas the EER-ASSL model of the present invention has already adopted the local data, and when the proportion of the constituent data is more than 50%, the EER-ASSL adds additional columns (10,90 ) and (25,75) outperform other state-of-the-art methods.

mAP 측면에서 EER-ASSL과 Faster RCNN, SSD 300 및 YOLOv2와 같은 최첨단 객체 감지기를 비교한 결과는 하기의 표 2와 같다. 실험은 Fast RCNN 및 Faster RCNN을 사용한 점진적 학습을 고려하여 이전 작업과 유사하게 수행되었다. 마찬가지로 본 발명은 로컬 및 벤치 마크 데이터 세트를 모두 사용하여 기준 감지기를 YOLOv2로 사용한다. PASCAL VOC 2007 테스트 데이터와 로컬 데이터가 모두 사용된다. 공동 샘플링 매개 변수는 불확실성, 다양성 및 신뢰도에 대해 각각 0.8, 0.6 및 0.8로 설정된다. EER-ASSL은 다른 객체 탐지기보다 크게 향상되었다. Table 2 below shows the results of comparing the state-of-the-art object detectors such as EER-ASSL and Faster RCNN, SSD 300 and YOLOv2 in terms of mAP. Experiments were performed similarly to the previous work, considering progressive learning using Fast RCNN and Faster RCNN. Similarly, the present invention uses both local and benchmark data sets as the reference detector as YOLOv2. Both PASCAL VOC 2007 test data and local data are used. The joint sampling parameters are set to 0.8, 0.6 and 0.8 for uncertainty, variability and reliability, respectively. EER-ASSL is a significant improvement over other object detectors.

표 2. 로컬 데이터 세트의 mAP 측정시 EER-ASSL 성능Table 2. EER-ASSL performance in mAP measurements on local data sets

Figure pat00104
Figure pat00104

상기 표 2는 로컬 테스트 데이터 세트에 대한 최신 방법의 평균 정밀도를 요약한다. 본 발명에서 제안한 EER-ASSL 방법은 유사한 환경에서 소파 또는 개찰구와 같은 새로운 객체(물체)를 사용하여 더 높은 mAP 결과에서 성능 향상을 보여준다. 표 2에 표시된 것처럼 EER-ASSL 방법의 적응형 속성은 로컬 데이터 세트 및 해당 환경에서 더 빠른 계산 속도로 탐지 성능을 크게 향상시킨다.Table 2 above summarizes the average precision of the state-of-the-art method on the local test data set. The EER-ASSL method proposed in the present invention shows performance improvement at higher mAP results by using a new object (object) such as a sofa or a ticket gate in a similar environment. As shown in Table 2, the adaptive properties of the EER-ASSL method significantly improve the detection performance with faster computational speed on local data sets and corresponding environments.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형 가능한 것으로, 본 발명의 보호범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and variations are possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains. The scope of protection should be interpreted by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

Claims (4)

능동학습(AL)을 통해 입력 데이터 스트림에서 불확실성과 다양성을 측정하는 스트리밍 이미지 샘플을 선택하는 제1단계; 및
준 지도 학습(SSL)을 통해 상기 선택한 스트리밍 이미지 샘플을 빈(Bin)으로 나누고 각 빈(Bin)은 EER 롤백 학습 알고리즘과의 수렴될 때까지 EER 및 CNN 모델의 식별 정보를 다음 빈으로 반복적으로 전송하는 제2단계;를 포함하는 것을 특징으로 하는 신속 적응형 객체 감지를 위한 롤백 딥 러닝 방법.
a first step of selecting streaming image samples that measure uncertainty and diversity in an input data stream through active learning (AL); and
Through semi-supervised learning (SSL), the selected streaming image sample is divided into bins, and each bin repeatedly transmits the identification information of EER and CNN models to the next bin until convergence with the EER rollback learning algorithm. A rollback deep learning method for fast adaptive object detection comprising a second step.
제 1항에 있어서,
상기 제1단계는 데이터 샘플 배치가 수집되고 공동 샘플링 알고리즘에 의해 공동 샘플링을 통해 스트리밍 이미지 샘플을 선택하는 단계인 것을 특징으로 하는 신속 적응형 객체 감지를 위한 롤백 딥 러닝 방법.
The method of claim 1,
The rollback deep learning method for rapid adaptive object detection, characterized in that the first step is a step in which a batch of data samples is collected and a streaming image sample is selected through joint sampling by a joint sampling algorithm.
제 1항에 있어서,
상기 제2단계는 롤백 기능이 있는 준 지도 학습(SSL) 알고리즘을 통해 EER 기반으로 순방향 학습(forward learning) 및 롤백 학습(rollback learning)하여 샘플의 재선택 및 레이블 재지정하는 것을 특징으로 하는 신속 적응형 객체 감지를 위한 롤백 딥 러닝 방법.
The method of claim 1,
The second step is fast adaptive, characterized in that the sample is reselected and relabeled by performing forward learning and rollback learning based on EER through a semi-supervised learning (SSL) algorithm with a rollback function. A rollback deep learning method for object detection.
제 1항에 있어서,
상기 롤백 학습(rollback learning)은 상기 빈(Bin)에서 샘플 제거, 레이블 변경 및 재선택하는 것을 특징으로 하는 신속 적응형 객체 감지를 위한 롤백 딥 러닝 방법.
The method of claim 1,
The rollback learning is a rollback deep learning method for fast adaptive object detection, characterized in that sample removal, label change, and reselection from the bin.
KR1020210028872A 2021-03-04 2021-03-04 Rollback and Deep Learning Method for Rapid Adaptive Object Detection KR102462226B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210028872A KR102462226B1 (en) 2021-03-04 2021-03-04 Rollback and Deep Learning Method for Rapid Adaptive Object Detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210028872A KR102462226B1 (en) 2021-03-04 2021-03-04 Rollback and Deep Learning Method for Rapid Adaptive Object Detection

Publications (2)

Publication Number Publication Date
KR20220125008A true KR20220125008A (en) 2022-09-14
KR102462226B1 KR102462226B1 (en) 2022-11-03

Family

ID=83279165

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210028872A KR102462226B1 (en) 2021-03-04 2021-03-04 Rollback and Deep Learning Method for Rapid Adaptive Object Detection

Country Status (1)

Country Link
KR (1) KR102462226B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101882743B1 (en) 2017-04-17 2018-08-30 인하대학교 산학협력단 Efficient object detection method using convolutional neural network-based hierarchical feature modeling
KR101990123B1 (en) 2018-10-31 2019-06-18 (주)제이엘케이인스펙션 Image analysis apparatus and method
KR102174048B1 (en) 2019-04-01 2020-11-04 인하대학교 산학협력단 Incremental Deep Learning for Robust Object Detection in Unknown Cluttered Environments

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101882743B1 (en) 2017-04-17 2018-08-30 인하대학교 산학협력단 Efficient object detection method using convolutional neural network-based hierarchical feature modeling
KR101990123B1 (en) 2018-10-31 2019-06-18 (주)제이엘케이인스펙션 Image analysis apparatus and method
KR102174048B1 (en) 2019-04-01 2020-11-04 인하대학교 산학협력단 Incremental Deep Learning for Robust Object Detection in Unknown Cluttered Environments

Also Published As

Publication number Publication date
KR102462226B1 (en) 2022-11-03

Similar Documents

Publication Publication Date Title
Diallo et al. Deep embedding clustering based on contractive autoencoder
Ding et al. Real-time anomaly detection based on long short-Term memory and Gaussian Mixture Model
Rhee et al. Active and semi-supervised learning for object detection with imperfect data
US20190318256A1 (en) Method, apparatus and system for estimating causality among observed variables
Shou et al. Object detection in medical images based on hierarchical transformer and mask mechanism
CN111667027B (en) Multi-modal image segmentation model training method, image processing method and device
Bhanja et al. Deep learning-based integrated stacked model for the stock market prediction
CN106056627A (en) Robustness object tracking method based on local identification sparse representation
Yao et al. Object localization and edge refinement network for salient object detection
Lukyanenko et al. Developmental stage classification of embryos using two-stream neural network with linear-chain conditional random field
Liu et al. Deep learning-based image target detection and recognition of fractal feature fusion for BIOmetric authentication and monitoring
Ahmed et al. EER-ASSL: Combining rollback learning and deep learning for rapid adaptive object detection
KR102462226B1 (en) Rollback and Deep Learning Method for Rapid Adaptive Object Detection
KR102272921B1 (en) Hierarchical object detection method for extended categories
Li et al. Active learning with sampling by joint global-local uncertainty for salient object detection
ElAdel et al. Fast DCNN based on FWT, intelligent dropout and layer skipping for image retrieval
Chen et al. Learning meta-adversarial features via multi-stage adaptation network for robust visual object tracking
Liu et al. A learning-based system for predicting sport injuries
Liu et al. Learning region-guided scale-aware feature selection for object detection
CN113744209A (en) Heart segmentation method based on multi-scale residual U-net network
CN114496278A (en) Data processing method, system, equipment and medium for intestinal flora transplantation matching
Mahmood Khan et al. COVID-19 lung infection detection using deep learning with transfer learning and ResNet101 features extraction and selection
Widyadhana et al. Development Of Video Based Action Recognition System For Item Taking From Shelf
Zhang et al. Multi-scale enhanced active learning for skeleton-based action recognition
Liu et al. Peaks Fusion assisted Early-stopping Strategy for Overhead Imagery Segmentation with Noisy Labels

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right