KR20220088033A - 영상 레이블링 평가 방법 및 서버 - Google Patents

영상 레이블링 평가 방법 및 서버 Download PDF

Info

Publication number
KR20220088033A
KR20220088033A KR1020200178659A KR20200178659A KR20220088033A KR 20220088033 A KR20220088033 A KR 20220088033A KR 1020200178659 A KR1020200178659 A KR 1020200178659A KR 20200178659 A KR20200178659 A KR 20200178659A KR 20220088033 A KR20220088033 A KR 20220088033A
Authority
KR
South Korea
Prior art keywords
model
image
labeling
labeling data
processor
Prior art date
Application number
KR1020200178659A
Other languages
English (en)
Inventor
이정훈
Original Assignee
애자일그로스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 애자일그로스 주식회사 filed Critical 애자일그로스 주식회사
Priority to KR1020200178659A priority Critical patent/KR20220088033A/ko
Publication of KR20220088033A publication Critical patent/KR20220088033A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 서버에 의해 수행되는 영상 레이블링 평가 방법에 있어서, 제1 모델을 기반으로 언레이블된 영상에 대한 자동 레이블링 데이터를 자동 생성하는 단계, 전문가로부터 상기 영상에 대한 수동 레이블링 데이터를 획득하는 단계, 제2 모델을 기반으로 상기 자동 및 수동 레이블링 데이터 간의 일치율을 판단하는 단계 및 상기 판단된 일치율을 기반으로 상기 제1 모델 및 제2 모델 중 어느 하나의 리워드를 부여하는 단계를 포함할 수 있다.

Description

영상 레이블링 평가 방법 및 서버{Method and Server for Video Labeling Evaluation}
본 발명은 본 발명은 영상에 대해 레이블링을 수행하고 이를 평가하는 방법에 관한 것이다.
최근 들어 글로벌 데이터 주석 도구 시장 규모가 2019년에 4억 달러로 평가되었으며, 자동차, 소매 및 의료 부문에서 이미지 데이터 어노테이션 툴의 사용 증가로 인해 2020년부터 2027년까지 연평균 26.9% 성장이 예상되고 있다.
글로벌 데이터 수집 및 라벨링 시장 규모는 2019년에 10억 달러로 평가되었으며 2020년부터 2027년까지 연평균 26.0% 성장할 것으로 예상됨. 주요 기술분야로는 소셜 미디어 모니터링, 사진 컬렉션 자동구성, 안전한 자율주행, 로봇공학 및 드론, 사람추적을 구현한 보안시스템, 의료 영상을 이용한 질병 감지 등 다양한 분야를 포함하고 있다.
데이터 유형에 따른 데이터 수집 및 라벨링 시장은 텍스트, 이미지/비디오 및 오디오로 분류되며, 이미지/비디오 시장이 상당한 속도로 성장할 것으로 예상되는데, 이는 의료, 자동차, 미디어 및 엔터테인먼트 산업에서 컴퓨터비전 수요가 증가했기 때문이다. 특히 의료 영상 경우 이미지 라벨링이 중요한 기술로 떠오르고 있다.
따라서, 라벨링되지 않은 데이터에 대해 전문가의 개입이 없이도 정확도가 높은 라벨링을 자동으로 할 수 있는 방안이 필요하다.
대한민국 등록특허공보 제10-2185777호
상술한 바와 같은 문제점을 해결하기 위한 본 발명은 딥러닝 모델을 이용하여 영상에 대한 레이블링 데이터를 생성하고, 생성된 레이블링 데이터에 대해 전문가가 생성한 레이블링 데이터와의 비교를 통해 평가하는 방법을 제공하는 것을 그 목적으로 한다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명에 따른 서버에 의해 수행되는 영상 레이블링 평가 방법에 있어서, 제1 모델을 기반으로 언레이블된 영상에 대한 자동 레이블링 데이터를 자동 생성하는 단계, 전문가로부터 상기 영상에 대한 수동 레이블링 데이터를 획득하는 단계, 제2 모델을 기반으로 상기 자동 및 수동 레이블링 데이터 간의 일치율을 판단하는 단계 및 상기 판단된 일치율을 기반으로 상기 제1 모델 및 제2 모델 중 어느 하나의 리워드를 부여하는 단계를 포함할 수 있다.
또한, 레이블된 영상을 기반으로 상기 제1 모델을 학습하는 단계, 상기 학습된 제1 모델의 크로스엔트로피 계층의 손실율을 획득하는 단계 및 상기 손실율이 기 설정된 임계값 보다 작아질 때까지 상기 제1 모델을 학습하는 단계를 더 포함할 수 있다.
또한, 상기 학습 단계에서 상기 손실율이 상기 임계값 보다 작아진 시점일 때의 상기 제1 모델의 파라미터 값은, 상기 학습 단계가 종료된 후에 상기 제1 모델에 적용될 파라미터 값으로 결정될 수 있다.
또한, 언레이블된 신규 영상을 상기 학습된 제1 모델을 기반으로 학습하여 상기 신규 영상에 대한 신규 자동 레이블링 데이터를 산출하는 단계를 더 포함할 수 있다.
또한, 상기 제1 모델에 제공하는 리워드는 이하의 수식 1을 기반으로 산출되고, 상기 제2 모델에 제공하는 리워드는 이하의 수식 2를 기반으로 산출될 수 있다.
[수식 1]
Figure pat00001
(여기서, Ez는 제1 모델에 대한 모든 임의 입력에 대한 예상 값이고, D(G(z))는 가짜 인스턴스(제1 모델이 생성하는 자동 레이블링 데이터 전체 픽셀의 분산값)가 실제일 확률에 대한 제2 모델의 추정치)
[수식 2]
Figure pat00002
(여기서, Ex는 모든 실제 데이터 인스턴스에 대한 예상 값이고, D(x)는 실제 데이터 인스턴스(전문가가 작업한 수동 레이블링 데이터 전체 픽셀의 분산값)가 실수일 확률에 대한 제2 모델의 추정치)
또한, 상술한 과제를 해결하기 위한 본 발명에 따른 레이블링 평가를 수행하는 서버에 있어서, 언레이블된 영상과 전문가로부터 상기 영상에 대한 수동 레이블링 데이터를 획득하는 획득부 및 제1 모델을 기반으로 상기 영상에 대한 자동 레이블링 데이터를 자동 생성하고, 제2 모델을 기반으로 상기 수동 및 자동 레이블링 데이터 간의 일치율을 판단하고, 상기 판단된 일치율을 기반으로 상기 제1 모델 및 제2 모델 중 어느 하나에 리워드를 부여하는 프로세서를 포함할 수 있다.
또한, 상기 프로세서는, 레이블된 영상을 기반으로 상기 제1 모델을 학습하고, 상기 학습된 제1 모델의 크로스엔트로피 계층의 손실율을 획득하고, 상기 손실율이 기 설정된 임계값 보다 작아질 때까지 상기 제1 모델을 학습할 수 있다.
또한, 상기 프로세서는, 상기 학습 단계에서 상기 손실율이 상기 임계값 보다 작아진 시점일 때의 상기 제1 모델의 파라미터 값을, 상기 학습 단계가 종료된 후에 상기 제1 모델에 적용될 파라미터 값으로 결정할 수 있다.
또한, 상기 프로세서는, 언레이블된 신규 영상을 상기 학습된 제1 모델을 기반으로 학습하여 상기 신규 영상에 대한 신규 자동 레이블링 데이터를 산출할 수 있다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.
상기와 같은 본 발명에 따르면, 딥러닝 모델을 이용하여 영상에 대한 레이블링 데이터를 생성하고, 생성된 레이블링 데이터에 대해 전문가가 생성한 레이블링 데이터와의 비교를 통해 평가하는 방법을 제공함으로써 딥러닝 모델의 학습 신뢰도를 높일 수 있는 효과가 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명에 따른 영상 레이블링 평가를 위한 서버를 개략적으로 나타낸 블록도이다.
도 2는 본 발명에 따른 영상 레이블링 평가하는 서버가 구동되는 것을 개략적으로 나타낸 도면이다.
도 3은 본 발명에 따른 서버의 프로세서에서 영상 레이블링 평가를 수행하는 과정에 대한 흐름도이다.
도 4는 본 발명에 따른 서버의 프로세서가 제1 모델에서 생성된 자동 레이블링 데이터에 대해 리워드가 부여되지 않는 상태가 기 설정된 횟수를 초과할 경우 제1 모델을 학습시키는 과정을 나타낸 흐름도이다.
도 5는 본 발명에 따른 서버에서 영상 레이블링 평가하는 전체 과정을 개략적으로 나타낸 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않은 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
설명에 앞서 본 명세서에서 사용하는 용어의 의미를 간략히 설명한다. 그렇지만, 용어의 설명은 본 명세서의 이해를 돕기 위한 것이므로, 명시적으로 본 발명을 한정하는 사항으로 기재하지 않은 경우에 본 발명의 기술적 사상을 한정하는 의미로 사용하는 것이 아님을 주의해야 한다.
도 1은 본 발명에 따른 영상 레이블링 평가를 위한 서버(10)를 개략적으로 나타낸 블록도이다.
도 2는 본 발명에 따른 영상 레이블링 평가하는 서버(10)가 구동되는 것을 개략적으로 나타낸 도면이다.
이하, 도 1 내지 도 2를 통해 본 발명에 따른 영상 레이블링 평가하기 위한 서버(10)에 대해서 설명하도록 한다. 여기서, 서버(10)는 로컬의 컴퓨팅 장치로도 구현될 수 있다.
서버(10)는 딥러닝 모델을 이용하여 영상에 대한 레이블링 데이터를 생성하고, 생성된 레이블링 데이터에 대해 전문가가 생성한 레이블링 데이터와의 비교를 통해 평가하는 방법을 제공함으로써 딥러닝 모델의 학습 신뢰도를 높일 수 있는 효과를 가질 수 있다.
서버(10)는 획득부(110), 메모리(120) 및 프로세서(130)를 포함할 수 있다. 여기서, 서버(10)는 도 1에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수도 있다.
획득부(110)는 언레이블된 영상과 전문가로부터 상기 영상에 대한 수동 레이블링 데이터를 획득하는 획득할 수 있다.
획득부(110)는 상기 영상 또는 전문가가 수행한 상기 영상에 대한 수동 레이블링 데이터에 대해 외부 장치(미도시), 메모리(120) 등을 통해 획득할 수 있다.
메모리(120)는 생성적 적대 신경망(GAN, Generative Adversarial Network 이하, GAN이라고 명칭함)과 상기 GAN에 포함되는 제1 모델과 제2 모델을 저장할 수 있다. 여기서, 상기 GAN에는 1 모델과 제2 모델을 포함하여 구성될 수도 있으나 반드시 이에 한정되지 않는다.
먼저, 제1 모델은 컨볼루션 뉴럴 네트워크(CNN, Convolutional Neural Network)일 수 있으며, 상기 컨볼루션 뉴럴 네트워크는 영상의 각 영역에 대해 복수의 필터를 적용하여 특징맵(Feature Map)를 만들어 내는 컨볼루션 층(Convolution Layer)과 상기 특징맵을 공간적으로 통합함으로써 위치나 회전의 변화에 불변하는 특징을 추출할 수 있도록 하는 통합층(Pooling Layer)을 번갈아 수차례 반복하는 구조로 형성될 수 있다. 이를 통해, 점, 선, 면 등의 낮은 수준의 특징에서부터 복잡하고 의미 있는 높은 수준의 특징까지 다양한 수준의 특징을 추출해낼 수 있다.
여기서, 컨볼루션 층은 입력 영상의 각 패치에 대하여 필터와 국지 수용장(Local Receptive Field)의 내적에 비선형 활성 함수(Activation Function)를 취함으로써 특징맵(Feature Map)를 구할 수 있다. 다른 네트워크 구조와 비교하여, 컨볼루션 뉴럴 네트워크는 희소한 연결성(Sparse Connectivity)과 공유된 가중치(Shared Weights)를 가진 필터를 사용하는 특징을 가질 수 있다. 이러한 연결구조는 학습할 모수의 개수를 줄여주고, 역전파 알고리즘을 통한 학습을 효율적으로 만들어 결과적으로 예측 성능을 향상시킬 수 있다.
통합 층(Pooling Layer 또는 Sub-sampling Layer)은 이전 컨볼루션 층에서 구해진 특징맵의 지역 정보를 활용하여 새로운 특징맵을 생성할 수 있다. 일반적으로 통합 층에 의해 새로 생성된 특징맵은 원래의 특징맵보다 작은 크기로 줄어드는데, 대표적인 통합 방법으로는 특징맵 내 해당 영역의 최대값을 선택하는 최대 통합(Max Pooling)과 특징맵 내 해당 영역의 평균값을 구하는 평균 통합(Average Pooling) 등이 있을 수 있다. 통합 층의 특징맵은 일반적으로 이전 층의 특징맵보다 입력 영상에 존재하는 임의의 구조나 패턴의 위치에 영향을 적게 받을 수 있다. 즉, 통합층은 입력 영상 혹은 이전 특징맵에서의 노이즈나 왜곡과 같은 지역적 변화에 보다 강인한 특징을 추출할 수 있게 되고, 이러한 특징은 분류 성능에 중요한 역할을 할 수 있다. 또 다른 통합 층의 역할은, 깊은 구조상에서 상위의 학습 층으로 올라갈수록 더 넓은 영역의 특징을 반영할 수 있게 하는 것으로서, 특징 추출 층이 쌓이면서, 하위 층에서는 지역적인 특징을 반영하고 상위 층으로 올라 갈수록 보다 추상적인 전체 영상의 특징을 반영할 수 있다.
이상으로, 제1 모델은 컨볼루션 뉴럴 네트워크일 수 있으나 컨볼루션 뉴럴 네트워크(CNN)에 한정되지 아니하고, 다양한 구조의 신경망으로 형성될 수 있다.
다음으로, 제2 모델은 상기 수동 및 자동 레이블링 데이터 간의 일치율을 판단하는 알고리즘으로 구성될 수 있으며, 다양한 구조의 신경망으로 형성될 수 있다.
또한, 메모리(120)는 언레이블된 영상과 전문가로부터 상기 영상에 대한 수동 레이블링 데이터를 저장할 수 있다.
또한, 메모리(120)는 상기 서버(10)의 다양한 기능을 지원하는 정보를 저장할 수 있다. 메모리(120)는 상기 서버(10)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 상기 서버(10)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버(미도시)로부터 다운로드 될 수 있다. 또한, 이러한 응용 프로그램 중 적어도 일부는, 상기 서버(10)의 기본적인 기능을 위하여 존재할 수 있다. 한편, 응용 프로그램은, 메모리(120)에 저장되어 프로세서(130)에 의하여 상기 서버(10)의 동작(또는 기능)을 수행하도록 구동될 수 있다.
프로세서(130)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 상기 서버(10)의 전반적인 동작을 제어할 수 있다. 프로세서(130)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(120)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
프로세서(130)는 메모리(120)에 저장된 응용 프로그램을 구동하기 위하여, 도 1과 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(130)는 상기 응용 프로그램의 구동을 위하여, 상기 서버(10)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작 시킬 수 있다.
도 2를 보면, 프로세서(130)는 상기 GAN에서 제1 모델을 기반으로 상기 언레이블된 영상에 대한 자동 레이블링 데이터를 자동 생성하고, 전문가로부터 상기 영상에 대한 수동 레이블링 데이터를 획득할 수 있다.
프로세서(130)는 상기 GAN에서 제2 모델을 기반으로 상기 수동 및 자동 레이블링 데이터 간의 일치율을 판단하고, 상기 판단된 일치율을 기반으로 상기 제1 모델 및 제2 모델 중 어느 하나에 리워드를 부여할 수 있다.
구체적으로, 프로세서(130)는 상기 판단된 일치율이 기 설정된 기준값 이상인 경우, 상기 제1 모델에서 생성한 자동 레이블링 데이터가 상기 전문가로부터 획득한 수동 레이블링 데이터와 차이가 적은 것으로 판단하여 상기 제1 모델에 리워드를 제공할 수 있다. 여기서, 제1 모델에 제공하는 리워드는 이하의 [수식 1]을 기반으로 산출될 수 있다.
[수식 1]
Figure pat00003
(여기서, Ez는 제1 모델에 대한 모든 임의 입력에 대한 예상 값이고, D(G(z))는 가짜 인스턴스(제1 모델이 생성하는 자동 레이블링 데이터 전체 픽셀의 분산값)가 실제일 확률에 대한 제2 모델의 추정치)
또는, 프로세서(130)는 상기 판단된 일치율이 기 설정된 기준값 미만인 경우, 상기 제1 모델에서 생성한 자동 레이블링 데이터가 상기 전문가로부터 획득한 수동 레이블링 데이터와 차이가 커서 제2 모델의 판단하기 쉬운 상태인 것으로 판단하여 상기 제2 모델에 리워드를 제공할 수 있다. 여기서, 제2 모델에 제공하는 리워드는 이하의 [수식 2]을 기반으로 산출될 수 있다.
[수식 2]
Figure pat00004
(여기서, Ex는 모든 실제 데이터 인스턴스에 대한 예상 값이고, D(x)는 실제 데이터 인스턴스(전문가가 작업한 수동 레이블링 데이터 전체 픽셀의 분산값)가 실수일 확률에 대한 제2 모델의 추정치)
프로세서(130)는 제1 모델에서 생성된 자동 레이블링 데이터에 대해 리워드가 부여되지 않는 상태가 기 설정된 횟수를 초과할 경우, 상기 제1 모델에 대한 별도의 학습을 수행할 수 있다.
또한, 프로세서(130)는 제2 모델에 대해 리워드가 부여되지 않는 상태가 기 설정된 횟수를 초과할 경우, 상기 제2 모델에 대한 별도의 학습을 수행할 수 있다.
여기서, 제1 모델 및 제2 모델에 대한 학습 방법은 두 가지로 나뉠 수 있는데 반드시 이에 한정되는 것은 아니다.
일 예로, 프로세서(130)는 레이블된 영상을 기반으로 상기 제1 모델을 학습할 수 있다. 프로세서(130)는 상기 학습된 제1 모델의 크로스엔트로피 계층의 출력값인 손실율을 획득할 수 있다. 프로세서(130)는 상기 손실율이 기 설정된 임계값 일 예로, '0' 보다 작아질 때까지 상기 제1 모델을 학습할 수 있다.
다른 예로, 프로세서(130)는 레이블링 실력이 차이가 있는 복수의 전문가로부터 수동 레이블링 데이터를 획득하고, 이를 기반으로 제1 모델을 학습할 수 있다. 여기서, 복수의 전문가는, 제1 및 제2 전문가를 포함할 수 있다.
구체적으로, 프로세서(130)는 상기 제1 전문가로부터, 상기 제1 전문가가 상기 제1 모델에 기 설정된 횟수 이상 리워드가 부여되도록 하는 제1 수동 레이블링 데이터에 대한 레이블 정보를 획득할 수 있다. 제1 전문가는 레이블링 실력이 낮은 초급 전문가일 수 있다.
여기서, 프로세서(130)는 초급 전문가로부터 획득한 제1 수동 레이블링 데이터와 제1 모델의 자동 레이블링 데이터에 대해 제2 모델을 통해 일치율을 판단하여 상기 제1 모델에 리워드를 부여하도록 유도할 수 있다.
즉, 프로세서(130)는 초급 전문가로부터 획득한 상기 제1 수동 레이블링 데이터가 상기 제1 모델의 자동 레이블링 데이터와의 일치도가 높을 확률이 큰 경우이므로, 상기 제2 모델에서 판단한 일치도가 높을 것이기 때문에 상기 제1 수동 레이블링 데이터를 이용하여 상기 제1 모델에 리워드가 부여되도록 유도할 수 있다.
상기 리워드는, 상기 제1 모델의 크로스엔트로피 계층에서 출력되는 0과 1 사이의 값인 손실율(Loss)일 수 있다. 따라서, 프로세서(130)는 상기 손실율을 리워드로 부여받은 제1 모델에 대한 최적의 파라미터(θ)를 결정할 수 있다.
프로세서(130)는 상기 학습 단계에서 상기 손실율이 상기 임계값 보다 작아진 시점일 때의 상기 제1 모델의 파라미터 값에 대해 상기 학습 단계가 종료된 후에 상기 제1 모델에 적용될 파라미터 값으로 결정할 수 있다.
또한, 프로세서(130)는 제2 모델에서 판단된 일치율을 기반으로 상기 제2 모델에 리워드가 부여되지 않는 상태일 경우, 상기 제2 모델에 대한 별도의 학습을 수행할 수 있다. 여기서, 학습 방법은 두 가지로 나뉠 수 있는데 반드시 이에 한정되는 것은 아니다.
일 예로, 프로세서(130)는 상기 제2 모델을 학습할 수 있다. 프로세서(130)는 상기 학습된 제2 모델의 크로스엔트로피 계층의 출력값인 손실율을 획득할 수 있다. 프로세서(130)는 상기 손실율이 기 설정된 임계값 일 예로, '0.5'보다 작아질 때까지 상기 제2 모델을 학습할 수 있다.
다른 예로, 프로세서(130)는 레이블링 실력이 차이가 있는 복수의 전문가로부터 수동 레이블링 데이터를 획득하고, 이를 기반으로 제2 모델을 학습할 수 있다. 여기서, 복수의 전문가는, 제1 및 제2 전문가를 포함할 수 있다.
구체적으로, 프로세서(130)는 상기 제2 전문가로부터, 상기 제2 전문가가 상기 제2 모델에 기 설정된 횟수 이상 리워드가 부여되도록 하는 제2 수동 레이블링 데이터에 대한 레이블 정보를 획득할 수 있다. 상기 제2 전문가는 레이블링 실력이 높은 고급 전문가일 수 있다.
여기서, 프로세서(130)는 고급 전문가로부터 획득한 수동 레이블링 데이터와 제1 모델의 자동 레이블링 데이터를 제2 모델을 통해 일치율을 판단하여 상기 제2 모델에 리워드를 부여하도록 유도될 수 있다.
즉, 프로세서(130)는 고급 전문가로부터 획득한 상기 제2 수동 레이블링 데이터가 상기 제1 모델의 자동 레이블링 데이터와의 일치도가 낮을 확률이 큰 경우이므로, 상기 제2 모델에서 판단한 일치율이 낮을 것이기 때문에 상기 제2 수동 레이블링 데이터를 이용하여 상기 제2 모델에 리워드가 부여되도록 유도할 수 있다.
상기 리워드는, 상기 제2 모델의 크로스엔트로피 계층에서 출력되는 0과 1 사이의 값인 손실율(Loss)일 수 있다. 따라서, 프로세서(130)는 상기 손실율을 리워드로 부여받은 제2 모델에 대한 최적의 파라미터(θ)를 결정할 수 있다.
프로세서(130)는 상기 학습 단계에서 상기 손실율이 상기 임계값 보다 작아진 시점일 때의 상기 제2 모델의 파라미터 값에 대해 상기 학습 단계가 종료된 후에 상기 제2 모델에 적용될 파라미터 값으로 결정할 수 있다.
프로세서(130)는 언레이블된 신규 영상을 상기 학습된 제1 모델 또는 제2 모델을 기반으로 학습하여 상기 신규 영상에 대한 신규 자동 레이블링 데이터를 산출할 수 있다. 이후, 프로세서(130)는 상기 신규 자동 레이블링 데이터와 수동 레이블링 데이터 간의 일치율을 판단할 수 있다. 여기서, 상기 일치율을 기 설정된 통과값 이상일 수 있다. 상기 통과값은 바로 사용 가능한 수준의 레이블링 능력을 갖춘 제1 모델과 제2 모델을 포함하는 GAN에 대한 평가 기준일 수 있다.
이하, 도 3 내지 4에서 영상 레이블링을 평가하는 서버(10)의 프로세서(130) 동작은 도 1 내지 도 2를 통해 설명한 서버(10)의 프로세서(130)에 대한 내용과 발명의 카테고리만 다를 뿐, 동일한 내용이므로 상세한 내용은 생략하도록 한다.
도 3은 본 발명에 따른 서버(10)의 프로세서(130)에서 영상 레이블링 평가를 수행하는 과정에 대한 흐름도이다. 여기서, 프로세서(130)의 동작은 서버(10)에서 수행 가능하다.
프로세서(130)는 제1 모델을 기반으로 언레이블된 영상에 대한 자동 레이블링 데이터를 자동 생성할 수 있다(S301). 여기서, 언레이블된 영상은 다양한 종류의 영상을 의미할 수 있다.
프로세서(130)는 전문가로부터 상기 영상에 대한 수동 레이블링 데이터를 획득할 수 있다(S302). 여기서, 상기 전문가는 상기 영상에 대해 전문적인 지식을 보유한 사람으로 상기 영상의 객체 또는 배경 등에 레이블링을 생성할 수 있다.
프로세서(130)는 제2 모델을 기반으로 상기 자동 및 수동 레이블링 데이터 간의 일치율을 판단할 수 있다(S303). 여기서, 제2 모델은 상기 수동 및 자동 레이블링 데이터 간의 일치율을 판단하는 알고리즘으로 구성될 수 있으며, 다양한 구조의 신경망으로 형성될 수 있다.
프로세서(130)는 상기 판단된 일치율을 기반으로 상기 제1 모델 및 제2 모델 중 어느 하나의 리워드를 부여할 수 있다(S304). 여기서, 리워드는 상기 제1 모델 및 제2 모델의 크로스엔트로피 계층에서 출력되는 0과 1 사이의 값인 손실율(Loss)일 수 있다.
구체적으로, 프로세서(130)는 상기 판단된 일치율이 기 설정된 기준값 이상인 경우, 상기 제1 모델에서 생성한 자동 레이블링 데이터가 상기 전문가로부터 획득한 수동 레이블링 데이터와 차이가 적은 것으로 판단하여 상기 제1 모델에 리워드를 제공할 수 있다.
또한, 프로세서(130)는 상기 판단된 일치율이 기 설정된 기준값 미만인 경우, 상기 제1 모델에서 생성한 자동 레이블링 데이터가 상기 전문가로부터 획득한 수동 레이블링 데이터와 차이가 커서 제2 모델의 판단하기 쉬운 상태인 것으로 판단하여 상기 제2 모델에 리워드를 제공할 수 있다.
도 3은 단계 S301 내지 단계 S304을 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 3에 기재된 순서를 변경하여 실행하거나 단계 S301 내지 단계 S304 중 하나 이상의 단계를 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 3은 시계열적인 순서로 한정되는 것은 아니다.
도 4는 본 발명에 따른 서버(10)의 프로세서(130)가 제1 모델에서 생성된 자동 레이블링 데이터에 대해 리워드가 부여되지 않는 상태가 기 설정된 횟수를 초과할 경우 제1 모델을 학습시키는 과정을 나타낸 흐름도이다. 여기서, 프로세서(130)의 동작은 서버(10)에서 수행 가능하다.
프로세서(130)는 레이블된 영상을 기반으로 상기 제1 모델을 학습할 수 있다(S401). 여기서, 레이블된 영상은 적어도 하나의 영상일 수 있으며, 전문가가 상기 적어도 하나의 영상에 대해 레이블링을 수행한 영상일 수 있다.
프로세서(130)는 상기 학습된 제1 모델의 크로스엔트로피 계층의 손실율을 획득할 수 있다(S402). 여기서, 손실율(Loss)은 제1 모델의 크로스엔트로피 계층에서 출력될 수 있다.
프로세서(130)는 상기 손실율이 기 설정된 임계값 보다 작아질 때까지 상기 제1 모델을 학습할 수 있다(S403). 여기서, 기 설정된 임계값은 사용자가 임의로 설정한 값일 수 있다.
도 4는 단계 S401 내지 단계 S403을 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 4에 기재된 순서를 변경하여 실행하거나 단계 S401 내지 단계 S403 중 하나 이상의 단계를 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 4는 시계열적인 순서로 한정되는 것은 아니다.
이상에서 전술한 도 3과 도 4의 본 발명에 따른 방법은, 하드웨어인 서버와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
도 5는 본 발명에 따른 서버(10)에서 영상 레이블링 평가하는 전체 과정을 개략적으로 나타낸 도면이다.
도 5를 보면, 서버(10)는 첫 번째 단계로, 복수의 레이블링 이미지로 학습된 제2 모델(식별자)을 통해 생성된 제1 정책함수와 하이퍼 파라미터를 랜덤으로 설정하여 제1 모델로(생성자)부터 생성된 제2 정책함수로부터 파라미터 값을 도출할 수 있다.
여기서, 제1 정책함수에 따라 제2 모델(식별자)의 크로스엔트로피 계층에서 출력되는 제1 값(손실율, Loss)은 [수식 3]의 제1 부분(501)이고, 제1 모델(생성자)의 크로스엔트로피 계층에서 출력되는 제2 값(손실율, Loss)은 [수식 3]의 제2 부분(502)일 수 있다. 또한, 상기 [수식 3]의 제3 부분(503)은 제1 값과 제2 값을 통해 도출한 파라미터 값(θ)일 수 있다.
[수식 3]
Figure pat00005
(argmax: 최대값, N, M: 전체 개수, D(x)는 실제 데이터 인스턴스 x가 실수일 확률에 대한 제2 모델의 추정치)
[수식 3]의 제1 정책함수(p*(x))에 따라 제2 모델(식별자)의 크로스엔트로피 계층에서 출력되는 값(손실율, Loss)과 제2 정책함수(pθ(x))에 따라 제1 모델(생성자)의 크로스엔트로피 계층에서 출력되는 값(손실율, Loss)을 더하는 방식을 교차 크로스 엔트로피라고, 두 개를 더한 값(ψ)이 최대가 되는 지점은 0.5이며 이는 정보량이 최대로 분산되었다는 의미이며 손실율(Loss) 값이 줄어들었다고 볼 수 있다. 또한, 왼쪽과 오른쪽 각각의 제1 및 제2 값 둘 중에 하나가 1에 수렴하면 균형이 깨져서 모델 붕괴현상이 생길 수 있다. 이런 경우 제1 모델(생성자)이나 제2 모델(식별자)을 다시 훈련시켜 균형을 맞출 수 있다.
이후, 서버(10)는 두 번째 단계로, 도출된 파라미터를 제1 모델(생성자)에 적용하여 첫 번째 단계를 반복하여 제1 모델(생성자)을 학습시킴으로써 최적의 파라미터를 도출할 수 있다.
여기서, 하이퍼 파라미터는 사람이 조절할 수 있는 값을 의미할 수 있고, 파라미터는 신경망이 학습하면서 자동으로 정해지는 값을 의미할 수 있다. 도 5에서, 상기 파라미터 값은 세타(θ)일 수 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
10: 서버
110: 획득부
120: 메모리
130: 프로세서

Claims (10)

  1. 서버에 의해 수행되는 영상 레이블링 평가 방법에 있어서,
    제1 모델을 기반으로 언레이블된 영상에 대한 자동 레이블링 데이터를 자동 생성하는 단계;
    전문가로부터 상기 영상에 대한 수동 레이블링 데이터를 획득하는 단계;
    제2 모델을 기반으로 상기 자동 및 수동 레이블링 데이터 간의 일치율을 판단하는 단계; 및
    상기 판단된 일치율을 기반으로 상기 제1 모델 및 제2 모델 중 어느 하나의 리워드를 부여하는 단계;
    를 포함하는 레이블링 평가 방법.
  2. 제1 항에 있어서,
    레이블된 영상을 기반으로 상기 제1 모델을 학습하는 단계;
    상기 학습된 제1 모델의 크로스엔트로피 계층의 손실율을 획득하는 단계; 및
    상기 손실율이 기 설정된 임계값 보다 작아질 때까지 상기 제1 모델을 학습하는 단계;를 더 포함하는, 레이블링 평가 방법.
  3. 제2 항에 있어서,
    상기 학습 단계에서 상기 손실율이 상기 임계값 보다 작아진 시점일 때의 상기 제1 모델의 파라미터 값은,
    상기 학습 단계가 종료된 후에 상기 제1 모델에 적용될 파라미터 값으로 결정되는, 레이블링 평가 방법.
  4. 제2 항에 있어서,
    언레이블된 신규 영상을 상기 학습된 제1 모델을 기반으로 학습하여 상기 신규 영상에 대한 신규 자동 레이블링 데이터를 산출하는 단계;를 더 포함하는, 레이블링 평가 방법.
  5. 제1 항에 있어서,
    상기 제1 모델에 제공하는 리워드는 이하의 수식 1을 기반으로 산출되고,
    상기 제2 모델에 제공하는 리워드는 이하의 수식 2를 기반으로 산출되는,
    [수식 1]
    Figure pat00006

    (여기서, Ez는 제1 모델에 대한 모든 임의 입력에 대한 예상 값이고, D(G(z))는 가짜 인스턴스가(제1 모델이 생성하는 자동 레이블링 데이터 전체 픽셀의 분산값) 실제일 확률에 대한 제2 모델의 추정치)
    [수식 2]
    Figure pat00007

    (여기서, Ex는 모든 실제 데이터 인스턴스에 대한 예상 값이고, D(x)는 실제 데이터 인스턴스(전문가가 작업한 수동 레이블링 데이터 전체 픽셀의 분산값)가 실수일 확률에 대한 제2 모델의 추정치)
    레이블링 평가 방법.
  6. 영상 레이블링 평가를 수행하는 서버에 있어서,
    언레이블된 영상과 전문가로부터 상기 영상에 대한 수동 레이블링 데이터를 획득하는 여러 게 획득부; 및
    제1 모델을 기반으로 상기 영상에 대한 자동 레이블링 데이터를 자동 생성하고, 제2 모델을 기반으로 상기 수동 및 자동 레이블링 데이터 간의 일치율을 판단하고, 상기 판단된 일치율을 기반으로 상기 제1 모델 및 제2 모델 중 어느 하나에 리워드를 부여하는 프로세서;
    를 포함하는 서버.
  7. 제6 항에 있어서,
    상기 프로세서는,
    레이블된 영상을 기반으로 상기 제1 모델을 학습하고,
    상기 학습된 제1 모델의 크로스엔트로피 계층의 손실율을 획득하고,
    상기 손실율이 기 설정된 임계값 보다 작아질 때까지 상기 제1 모델을 학습하는, 서버.
  8. 제7 항에 있어서,
    상기 프로세서는,
    상기 학습 단계에서 상기 손실율이 상기 임계값 보다 작아진 시점일 때의 상기 제1 모델의 파라미터 값을, 상기 학습 단계가 종료된 후에 상기 제1 모델에 적용될 파라미터 값으로 결정하는, 서버.
  9. 제7 항에 있어서,
    상기 프로세서는,
    언레이블된 신규 영상을 상기 학습된 제1 모델을 기반으로 학습하여 상기 신규 영상에 대한 신규 자동 레이블링 데이터를 산출하는, 레이블링 평가 방법.
  10. 컴퓨터와 결합하여, 제1항 내지 제5항 중 어느 한 항의 방법을 실행시키기 위해 컴퓨터 판독가능 기록매체에 저장된 프로그램.
KR1020200178659A 2020-12-18 2020-12-18 영상 레이블링 평가 방법 및 서버 KR20220088033A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200178659A KR20220088033A (ko) 2020-12-18 2020-12-18 영상 레이블링 평가 방법 및 서버

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200178659A KR20220088033A (ko) 2020-12-18 2020-12-18 영상 레이블링 평가 방법 및 서버

Publications (1)

Publication Number Publication Date
KR20220088033A true KR20220088033A (ko) 2022-06-27

Family

ID=82246840

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200178659A KR20220088033A (ko) 2020-12-18 2020-12-18 영상 레이블링 평가 방법 및 서버

Country Status (1)

Country Link
KR (1) KR20220088033A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102185777B1 (ko) 2020-06-18 2020-12-02 호서대학교 산학협력단 컴퓨터를 이용한 딥러닝과 plsi 기반 이미지객체의 의미관계 인식방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102185777B1 (ko) 2020-06-18 2020-12-02 호서대학교 산학협력단 컴퓨터를 이용한 딥러닝과 plsi 기반 이미지객체의 의미관계 인식방법

Similar Documents

Publication Publication Date Title
Wang et al. Detect globally, refine locally: A novel approach to saliency detection
US10740865B2 (en) Image processing apparatus and method using multi-channel feature map
EP3620956B1 (en) Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same
DE102018115440A1 (de) Techniken zum Trainieren tiefer neuronaler Netzwerke
US10311337B1 (en) Method and device for providing integrated feature map using ensemble of multiple outputs from convolutional neural network
KR20200022739A (ko) 데이터 증강에 기초한 인식 모델 트레이닝 방법 및 장치, 이미지 인식 방법 및 장치
US20140348420A1 (en) Method and system for automatic selection of one or more image processing algorithm
US20170032246A1 (en) Method for training an artificial neural network
US20210406695A1 (en) Systems and Methods for Training an Autoencoder Neural Network Using Sparse Data
KR102073388B1 (ko) 이미지에 작가의 화풍을 적용하여 제공하는 방법, 서버 및 프로그램
KR102343849B1 (ko) 모션 궤적의 특징 처리 방법, 장치 및 컴퓨터 저장 매체
CN112215280A (zh) 一种基于元骨干网络的小样本图像分类方法
CN108090498A (zh) 一种基于深度学习的纤维识别方法及装置
CN111783997B (zh) 一种数据处理方法、装置及设备
JP2023507248A (ja) 物体検出および認識のためのシステムおよび方法
CN109978058B (zh) 确定图像分类的方法、装置、终端及存储介质
Goodrich et al. Reinforcement learning based visual attention with application to face detection
KR20220088033A (ko) 영상 레이블링 평가 방법 및 서버
CN114841887B (zh) 一种基于多层次差异学习的图像恢复质量评价方法
CN113963428B (zh) 模型训练方法、遮挡检测方法、系统、电子设备及介质
WO2021235247A1 (ja) 学習装置、生成方法、推論装置、推論方法、およびプログラム
US11074507B1 (en) Method for performing adjustable continual learning on deep neural network model by using selective deep generative replay module and device using the same
CN112133100B (zh) 一种基于r-cnn的车辆检测方法
KR102340387B1 (ko) 뇌 연결성 학습 방법 및 이를 위한 시스템
CN110852394B (zh) 数据处理方法及装置、计算机系统以及可读存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal