KR102002024B1 - 객체 라벨링 처리 방법 및 객체 관리 서버 - Google Patents

객체 라벨링 처리 방법 및 객체 관리 서버 Download PDF

Info

Publication number
KR102002024B1
KR102002024B1 KR1020180155863A KR20180155863A KR102002024B1 KR 102002024 B1 KR102002024 B1 KR 102002024B1 KR 1020180155863 A KR1020180155863 A KR 1020180155863A KR 20180155863 A KR20180155863 A KR 20180155863A KR 102002024 B1 KR102002024 B1 KR 102002024B1
Authority
KR
South Korea
Prior art keywords
image
label
recognized
labeling
extracted
Prior art date
Application number
KR1020180155863A
Other languages
English (en)
Inventor
노원석
송호석
이두식
Original Assignee
주식회사 아임클라우드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아임클라우드 filed Critical 주식회사 아임클라우드
Priority to KR1020180155863A priority Critical patent/KR102002024B1/ko
Application granted granted Critical
Publication of KR102002024B1 publication Critical patent/KR102002024B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Abstract

본 발명의 일 실시예에 따르면, 객체 관리 서버에서, 객체의 라벨링을 자동으로 처리하기 위한 방법에 있어서, (a) 제1 이미지에서 라벨이 설정되지 않은 제1 객체가 인식되면, 상기 제1 이미지에서 인식된 제1 객체를 추출하는 단계; (b) 상기 제1 객체가 미리 설정된 값 이상으로 추출되면, 상기 제1 객체의 라벨을 설정하는 단계; 및 (c) 제2 이미지에서 상기 제1 객체가 인식되면, 상기 제2 이미지에서 인식된 제1 객체에 대한 라벨링을 처리하는 단계를 포함하는, 객체 라벨링 처리 방법이 제공된다.

Description

객체 라벨링 처리 방법 및 객체 관리 서버{METHOD FOR PROCESSING LABELING OF OBJECT AND OBJECT MANAGEMENT SERVER}
본 발명은 객체 라벨링 처리 방법 및 객체 관리 서버에 관한 것으로, 더욱 상세하게는, 최초 입력된 일부의 이미지를 분석하여, 라벨이 설정되지 않은 객체에 대한 라벨이 설정되면, 추후 입력된 이미지에서 인식되는 객체에 대해, 라벨링을 자동으로 처리하는 객체 라벨링 처리 방법 및 객체 관리 서버에 관한 것이다.
이미지 분석 기술이 발전함에 따라, 이미지 내에서 객체를 인식하기 위한 다양한 방식이 등장하고 있으며, 이미지 내에서 인식된 객체를 통해 다양한 서비스를 제공하고자 하는 니즈도 증가하고 있는 추세이다.
이러한 이미지 내에서 인식된 객체는 각각 식별되기 위해 라벨이 설정되어야만 하는데, 각각의 객체에 대한 라벨을 설정하는 과정에 있어, 사용자가 일일이 확인하여 라벨을 설정해야 하기 때문에, 라벨 설정 작업을 하는데 있어서 소요되는 시간이 길어질 수 밖에 없다.
또한, 다수의 이미지에서 인식되는 객체에 대해 라벨링을 처리하는 경우, 이미지 별로 객체에 대한 라벨링 처리 작업이 각각 수행되기 때문에, 동일한 객체에 대해 다른 라벨링으로 처리되거나, 상이한 객체에 동일한 라벨링으로 처리되어, 객체의 라벨링 처리에 대한 정확도가 떨어지는 문제도 있다.
따라서, 객체의 라벨 설정 및 라벨링 처리 과정에 대해 정확도를 보장하면서 사용자 편의성을 증대시켜, 생산성을 향상시키고자 하는 요구가 증대되고 있으며, 상술한 문제점들을 해결할 수 있는 방안이 시급한 실정이다.
본 발명은 전술한 종래기술의 문제점을 해결하기 위한 것으로, 최초 입력된 일부의 이미지를 분석하여, 라벨이 설정되지 않은 객체에 대한 라벨이 설정되면, 추후 입력된 이미지에서 인식되는 객체에 대해, 라벨링을 자동으로 처리하는 객체 라벨링 처리 방법 및 객체 관리 서버를 제공하는 것을 목적으로 한다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
상술한 목적을 달성하기 위한 본 발명의 일 실시예에 따르면, 객체 관리 서버에서, 객체의 라벨링을 자동으로 처리하기 위한 방법에 있어서, (a) 제1 이미지에서 라벨이 설정되지 않은 제1 객체가 인식되면, 상기 제1 이미지에서 인식된 제1 객체를 추출하는 단계; (b) 상기 제1 객체가 미리 설정된 값 이상으로 추출되면, 상기 제1 객체의 라벨을 설정하는 단계; 및 (c) 제2 이미지에서 상기 제1 객체가 인식되면, 상기 제2 이미지에서 인식된 제1 객체에 대한 라벨링을 처리하는 단계를 포함하는, 객체 라벨링 처리 방법이 제공된다.
상기 (a) 단계는, 상기 제1 객체가 미리 설정된 값 이상으로 추출되지 않으면, 상기 제2 이미지에서 인식된 제1 객체를 더 추출하는 단계를 포함하며, 상기 (c) 단계는, 제3 이미지에서 상기 제1 객체가 인식되면, 상기 제3 이미지에서 인식된 제1 객체에 대한 라벨링을 처리하는 단계를 포함할 수 있다.
상기 (a) 단계는, 상기 제1 이미지에서 라벨이 기 설정된 제2 객체가 인식되면, 상기 제1 이미지에서 인식된 제1 객체 및 제2 객체를 분류하여 추출하는 단계를 포함할 수 있다.
상기 (b) 단계는, 상기 제1 객체에 대한 태그 정보를 획득하고, 상기 태그 정보를 통해 상기 제1 객체의 라벨이 학습되도록 처리하고, 상기 학습된 라벨을 이용하여 상기 제1 객체에 대한 라벨을 설정하는 단계를 포함할 수 있다.
상술한 목적을 달성하기 위한 본 발명의 다른 실시예에 따르면, 객체의 라벨링을 자동으로 처리하기 위한 객체 관리 서버에 있어서, 제1 이미지에서 제1 객체가 인식되면, 상기 제1 객체의 라벨이 설정되었는지 여부를 확인하고, 상기 제1 객체의 라벨이 설정되어 있지 않은 것으로 확인되면, 상기 제1 이미지에서 인식된 제1 객체를 추출하는 객체 분석부; 상기 제1 객체가 미리 설정된 값 이상으로 추출되면, 상기 제1 객체의 라벨을 설정하는 라벨 설정부; 및 제2 이미지에서 상기 제1 객체가 인식되면, 상기 제2 이미지에서 인식된 제1 객체에 대한 라벨링을 처리하는 라벨링 처리부를 포함하는, 객체 관리 서버가 제공된다.
상기 객체 분석부는, 상기 제1 객체가 미리 설정된 값 이상으로 추출되지 않으면, 상기 제2 이미지에서 인식된 제1 객체를 더 추출하며, 상기 라벨링 처리부는, 제3 이미지에서 상기 제1 객체가 인식되면, 상기 제3 이미지에서 인식된 제1 객체에 대한 라벨링을 처리할 수 있다.
상기 객체 분석부는, 상기 제1 이미지에서 라벨이 기 설정된 제2 객체가 인식되면, 상기 제1 이미지에서 인식된 제1 객체 및 제2 객체를 분류하여 추출할 수 있다.
상기 라벨 설정부는, 상기 제1 객체에 대한 태그 정보를 획득하고, 상기 태그 정보를 통해 상기 제1 객체의 라벨이 학습되도록 처리하고, 상기 학습된 라벨을 이용하여 상기 제1 객체에 대한 라벨을 설정할 수 있다.
본 발명의 일 실시예에 따르면, 최초 입력된 일부의 이미지에 대해서만 분석하여 객체의 라벨을 설정해주면, 추후 입력된 이미지에서 인식되는 객체에 대해서는 자동으로 라벨링을 처리할 수 있으므로, 객체의 라벨 설정 및 라벨링 처리 과정을 수행하는데 있어, 정확도를 보장하면서 사용자 편의성도 증대시킬 수 있다.
본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.
도 1은 본 발명의 일 실시예에 따른 객체 관리 시스템을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 객체 관리 서버의 구성을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 객체의 라벨링을 자동으로 처리하는 과정을 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 라벨링이 설정되지 않은 객체에 대한 라벨링을 설정하는 과정을 도시한 도면이다.
이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.
이하 첨부된 도면을 참고하여 본 발명의 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 객체 관리 시스템을 도시한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 객체 관리 시스템은 통신망을 통해 서로 통신 가능한 사용자 단말(100), 객체 관리 서버(200) 및 데이터 관리 서버(300)를 포함할 수 있다.
먼저, 통신망은 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있다. 근거리 통신망(LAN: Local Area Network), 도시권 통신망(MAN: Metropolitan Area Network), 광역 통신망(WAN: Wide Area Network) 등 다양한 통신망으로 구성될 수 있다.
사용자 단말(100)은 휴대폰, 스마트폰, PDA(Personal Digital Assistant), PMP(Po rtable Multimedia Player), 태블릿 PC 등과 같이 무선 통신망을 통하여 외부 서버와 연결될 수 있는 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있으며, 이 외에도 데스크탑 PC, 태블릿 PC, 랩탑 PC, 셋탑 박스를 포함하는 IPTV와 같이, 네트워크를 통하여 외부 서버와 연결될 수 있는 통신 장치도 포함할 수 있다.
사용자 단말(100)은 정보를 표시하기 위한 디스플레이 장치, 정보를 입력하기 위한 인터페이스 장치 등을 포함할 수 있다.
사용자 단말(100)은 라벨이 설정되지 않은 객체에 대한 태그 정보가 요청되면, 태그 정보의 요청 메시지를 화면에 표시할 수 있으며, 인터페이스 장치를 통해 태그 정보가 입력되면, 입력된 태그 정보를 객체 관리 서버(200)로 전송하여, 태그 정보를 통해 객체의 라벨이 학습되도록 지원할 수 있다.
객체 관리 서버(200)는 특정 이미지 내에서 객체를 인식할 수 있으며, 이미지에서 인식된 객체를 추출할 수 있다.
객체 관리 서버(200)는 객체 추출 시, 이미지에서 인식된 객체의 라벨이 설정되었는지 여부를 확인할 수 있으며, 라벨이 설정된 객체와 라벨이 설정되지 않은 객체를 분류하여 추출할 수 있다.
객체 관리 서버(200)는 이미지에서 라벨이 설정되지 않은 객체가 인식되면, 라벨이 설정되지 않은 객체를 추출한 후, 추출된 객체에 대한 라벨을 설정할 수 있다.
객체 관리 서버(200)는 객체의 라벨 설정 시, 이미지에서 추출된 객체가 미리 설정된 값 이상으로 추출되면, 객체의 라벨을 설정할 수 있다
객체 관리 서버(200)는 이미지에서 추출된 객체가 미리 설정된 값 이상으로 추출되지 않으면, 다른 이미지에서 인식된 객체를 더 추출할 수 있다.
객체 관리 서버(200)는 이미지에서 라벨이 설정된 객체가 인식되면, 라벨이 설정된 객체를 추출한 후, 추출된 객체에 대한 라벨링을 처리할 수 있다.
데이터 관리 서버(300)는 다수의 이미지 정보, 이미지에 설정된 메타 정보, 이미지에서 추출된 객체 정보, 객체에 설정된 라벨 정보 등을 데이터베이스에 저장하여 관리할 수 있다.
데이터 관리 서버(300)는 빅데이터 플랫폼 형식으로 구현되어, 이미지 정보, 객체 정보, 라벨 정보 등 다양한 정보를 객체 관리 서버(200)로 제공할 수 있다.
본 발명의 일 실시예에 따르면, 객체 관리 서버(200)와 데이터 관리 서버(300)는 각각의 별도 서버로 구현될 수 있지만, 하나의 통합 서버에서 객체 관리 서버(200)의 기능과 데이터 관리 서버(300)의 기능을 모두 수행할 수도 있다.
도 2는 본 발명의 일 실시예에 따른 객체 관리 서버(200)의 구성을 도시한 블록도이다.
도 2를 참조하면, 객체 관리 서버(200)는 이미지 획득부(210), 객체 분석부(220), 라벨 설정부(230) 및 라벨링 처리부(240)를 포함할 수 있다.
먼저, 이미지 획득부(210)는 사용자 단말(100), 데이터 관리 서버(300), 별도의 데이터베이스 등 다양한 방식을 통해 입력되는 이미지 정보를 획득할 수 있다.
이미지 획득부(210)는 복수의 이미지 정보를 획득할 수 있는데, 예를 들어, 제1 이미지 정보, 제2 이미지 정보 및 제3 이미지 정보를 한꺼번에 획득할 수 있으며, 제1 이미지 정보, 제2 이미지 정보 및 제3 이미지 정보를 순차적으로 각각 획득할 수 있다.
객체 분석부(220)는 이미지 획득부(210)에서 획득된 이미지 정보를 분석하여, 이미지 내에서 객체를 인식할 수 있다.
예를 들어, 객체 분석부(220)는 사이즈, 해상도, 유형 등을 분석하여, 이미지에 객체가 포함되어 있는지 여부를 확인하는 과정을 통해, 이미지에 포함된 객체를 인식할 수 있다.
객체 분석부(220)는 이미지에서 인식된 객체를 추출할 수 있으며, 예를 들어, RCNN(Regions with Convolutional Neural Network), Yolo V3 등 다양한 알고리즘을 통해 이미지에서 객체를 인식하고 추출할 수 있다.
객체 분석부(220)는 이미지에서 인식된 객체의 라벨이 설정되었는지 여부를 확인할 수 있으며, 라벨이 기 설정된 객체와 라벨이 설정되지 않은 객체를 분류하여 추출할 수 있다.
예를 들어, 제1 이미지에 라벨이 설정되지 않은 상태의 제1 객체와 라벨이 기 설정되어 있는 상태의 제2 객체가 포함되어 있는 경우, 객체 분석부(220)는 제1 이미지에서 제1 객체 및 제2 객체를 인식할 수 있으며, 제1 객체 및 제2 객체에 대한 라벨 설정 여부를 확인하여, 라벨이 설정되지 않은 제1 객체와 라벨이 기 설정된 제2 객체를 분류하여 추출할 수 있다.
즉, 객체 분석부(220)는 제1 이미지에서 라벨이 설정되지 않은 제1 객체가 인식되면, 제1 객체의 라벨이 설정되었는지 여부를 확인할 수 있으며, 제1 객체의 라벨이 설정되어 있지 않은 것으로 확인되면, 제1 이미지에서 인식된 제1 객체를 라벨이 설정되지 않은 객체로 분류하여 추출할 수 있다.
또한, 객체 분석부(220)는 제1 이미지에서 라벨이 기 설정된 제2 객체가 인식되면, 제2 객체의 라벨이 설정되었는지 여부를 확인할 수 있으며, 제2 객체의 라벨이 설정되어 있는 것으로 확인되면, 제1 이미지에서 인식된 제2 객체를 라벨이 설정된 객체로 분류하여 추출할 수 있다.
객체 분석부(220)는 제1 이미지에서 인식된 제1 객체를 라벨이 설정되지 않은 객체로 추출한 결과, 제1 객체가 미리 설정된 값 이상으로 추출되지 않으면, 제2 이미지에서 인식된 제1 객체를 더 추출할 수 있다.
구체적으로, 라벨이 설정되지 않은 제1 객체는 미리 설정된 값 이상으로 추출되어야만 라벨이 설정될 수 있는데, 객체 분석부(220)는 제1 이미지에서 제1 객체를 추출한 후, 추출된 제1 객체의 수가 설정값 보다 작은 것으로 확인되면, 제1 이미지 이외의 다른 이미지인 제2 이미지 정보를 분석하여, 제2 이미지에서 제1 객체를 더 추출할 수 있다.
예를 들어, 제1 이미지 및 제2 이미지에 제1 객체가 포함되어 있고, 설정값이 2로 미리 설정되어 있는 경우, 객체 분석부(220)는 제1 이미지에서 제1 객체를 추출한 후, 추출된 제1 객체의 수가 1로 설정값 2 보다 작으므로, 제2 이미지에서 제1 객체를 더 추출할 수 있다.
라벨 설정부(230)는 제1 객체가 미리 설정된 값 이상으로 추출되면, 제1 객체의 라벨을 설정할 수 있다.
즉, 제1 객체가 설정값 이상으로 추출될 때까지 객체 분석부(220)는 제1 이미지, 제2 이미지, 제3 이미지 등에서 제1 객체를 추출할 수 있으며, 제1 객체가 설정값 이상으로 추출되면, 라벨 설정부(230)는 제1 객체의 라벨을 설정할 수 있다.
라벨 설정부(230)는 라벨 설정 시, 제1 객체에 대한 태그 정보를 획득할 수 있으며, 태그 정보를 통해 제1 객체의 라벨이 학습되도록 처리할 수 있으며, 학습된 라벨을 이용하여 제1 객체에 대한 라벨을 설정할 수 있다.
구체적으로, 라벨 설정부(230)는 라벨이 설정되지 않은 제1 객체에 대한 태그 정보를 요청할 수 있는데, 예를 들어, 태그 정보의 요청을 사용자 단말(100)로 전송할 수 있다.
라벨 설정부(230)는 제1 객체에 대한 태그 정보가 사용자 단말(100)을 통해 입력되면, 사용자 단말(100)로부터 태그 정보를 획득할 수 있으며, 획득된 태그 정보를 통해, 제1 객체의 라벨이 학습되도록 처리할 수 있다. 이 때, 라벨 설정부(230)는 딥러닝 방식을 이용하여, 제1 객체의 라벨이 학습되도록 처리할 수 있다.
라벨 설정부(230)는 제1 객체의 라벨에 대한 학습이 처리되면, 학습된 라벨을 이용하여 제1 객체에 대한 라벨을 설정할 수 있다.
라벨링 처리부(240)는 이미지에서 인식된 객체가 라벨이 설정되어 있는 것으로 확인되면, 객체에 설정된 라벨 정보를 이용하여 객체에 대한 라벨링을 처리할 수 있다.
예를 들어, 제1 이미지에서 라벨이 기 설정된 제2 객체가 인식되면, 라벨링 처리부(240)는 제1 이미지에서 인식된 제2 객체에 대한 라벨링을 처리할 수 있다.
제1 이미지에서 라벨이 설정되지 않은 제1 객체가 인식되어, 제1 객체에 대한 라벨이 설정된 후, 제2 이미지에서 제1 객체가 인식되면, 라벨링 처리부(240)는 제1 객체에 대한 라벨링을 처리할 수 있다.
도 3은 본 발명의 일 실시예에 따른 객체의 라벨링을 자동으로 처리하는 과정을 도시한 도면이다.
먼저, S301 단계에서, 이미지 획득부(210)는 사용자 단말(100), 데이터 관리 서버(300), 별도의 데이터베이스 등 다양한 방식을 통해 이미지 정보가 입력되면, 입력되는 이미지 정보를 획득할 수 있다.
이미지 획득부(210)는 복수의 이미지 정보가 입력되면, 제1 이미지 정보, 제2 이미지 정보, 제3 이미지 정보 등 순차적으로 각각의 이미지 정보를 획득할 수 있으며, 입력된 복수의 이미지 정보를 한꺼번에 획득할 수 있다.
이미지 획득부(210)에서 제1 이미지 정보를 획득한 후, S302 단계에서, 객체 분석부(220)는 제1 이미지 정보를 분석하여, 제1 이미지에서 객체를 인식할 수 있다.
이후, S303 단계에서, 객체 분석부(220)는 제1 이미지에서 인식된 객체에 대해, 라벨이 설정되었는지 여부를 확인할 수 있으며, 라벨이 기 설정된 객체와 라벨이 설정되지 않은 객체를 분류할 수 있다.
S303 단계에서, 제1 이미지에서 인식된 제2 객체가 라벨이 설정된 것으로 확인되면, S307 단계에서, 객체 분석부(220)는 라벨이 설정된 설정 객체인 제2 객체를 추출할 수 있으며, S308 단계에서, 라벨링 처리부(240)는 제1 이미지에서 인식된 제2 객체에 대한 라벨링을 처리할 수 있다.
S303 단계에서, 제1 이미지에서 인식된 제1 객체가 라벨이 설정되지 않은 것으로 확인되면, S304 단계에서, 객체 분석부(220)는 라벨이 설정되지 않은 미설정 객체인 제1 객체를 추출할 수 있다.
이후, S305 단계에서, 객체 분석부(220)는 미설정 객체인 제1 객체의 수와 미리 설정된 값인 설정값을 비교하여 확인할 수 있다.
S305 단계에서, 제1 객체가 설정값 이상으로 추출되어, 제1 객체의 수가 설정값 이상으로 확인되면, S306 단계에서, 라벨 설정부(230)는 제1 객체의 라벨을 설정할 수 있으며, S308 단계에서, 라벨링 처리부(240)는 제1 이미지에서 인식된 제1 객체에 대한 라벨링을 처리할 수 있다.
예를 들어, 제1 이미지에 제1 객체가 2개 포함되어 있으며, 설정값이 2로 미리 설정되어 있는 경우, 제1 이미지에서 제1 객체가 2개 추출되어, 제1 객체의 수가 설정값 이상으로 확인되므로, 라벨 설정부(230)는 제1 객체의 라벨을 설정하고, 라벨링 처리부(240)는 제1 이미지에서 인식된 제1 객체에 대한 라벨링을 처리할 수 있다.
제1 객체의 라벨 설정 이후, S301 단계에서, 제2 이미지가 입력되면, 객체 분석부(220)는 제2 이미지에서 제1 객체를 인식할 수 있는데, 이 때에는, 제1 객체의 라벨이 설정되어 있으므로, S303 단계를 수행한 후, S307 단계 및 S308 단계를 수행할 수 있다. 즉, 라벨링 처리부(240)는 제1 객체에 대한 라벨 설정 과정이 수행되지 않아도, 제2 이미지에서 제1 객체가 인식되는대로, 제2 이미지에서 인식된 제1 객체에 대한 라벨링을 자동으로 처리할 수 있다.
S305 단계에서, 제1 객체가 설정값 이상으로 추출되지 않아, 제1 객체의 수가 설정값 이상으로 확인되지 않으면, S301 단계에서, 이미지 획득부(210)는 제2 이미지 정보를 획득할 수 있으며, S302 단계에서, 객체 분석부(220)는 제2 이미지에서 제1 객체를 인식할 수 있으며, S303 단계에서, 제1 객체의 라벨이 설정되지 않은 상태이므로, S304 단계를 수행한 후, S305 단계가 다시 수행될 수 있다.
즉, 제1 객체가 설정값 이상으로 추출될 때까지, S305 단계, S301 단계, S302 단계, S303 단계, S304 단계가 반복적으로 수행될 수 있는데, 예를 들어, 제1 이미지에서 제1 객체를 추출한 후, 제1 객체가 설정값 이상으로 추출되지 않으면, 제2 이미지에서도 제1 객체를 더 추출할 수 있다.
제1 이미지 및 제2 이미지에서 추출된 제1 객체의 수가 설정값 이상으로 추출되면, 제1 객체의 라벨이 설정될 수 있으며, 제1 객체의 라벨 설정 이후, S301 단계에서, 제3 이미지가 입력되면, 객체 분석부(220)는 제3 이미지에서 제1 객체를 인식할 수 있으며, 제1 객체의 라벨이 설정되어 있으므로, , S303 단계를 수행한 후, S307 단계 및 S308 단계를 수행하여, 제3 이미지에서 제1 객체가 인식되는대로, 제3 이미지에서 인식된 제1 객체에 대한 라벨링을 자동으로 처리할 수 있다.
도 4는 본 발명의 일 실시예에 따른 라벨링이 설정되지 않은 객체에 대한 라벨링을 설정하는 과정을 도시한 도면이다.
먼저, 객체 분석부(220)는 제1 이미지 정보를 분석하여, 도 4의 (a)에 도시된 바와 같이, 제1 이미지에서 제1 객체(401), 제2 객체(402) 및 제3 객체(403)를 인식할 수 있다.
이후, 객체 분석부(220)는 제1 객체(401), 제2 객체(402) 및 제3 객체(403)에 대해, 객체 별로 라벨이 설정되었는지 여부를 확인할 수 있으며, 제1 객체(401)에는 "동그라미" 라벨이 설정되어 있고, 제2 객체(402)에는 "세모" 라벨이 설정되어 있고, 제3 객체(403)에는 라벨이 설정되어 있지 않으므로, 제1 객체(401), 제2 객체(402)를 라벨이 설정된 객체로 분류하여 추출하고, 제3 객체(403)를 라벨이 설정되지 않은 객체로 분류하여 추출할 수 있다.
이후, 객체 분석부(220)는 제3 객체(403)가 미리 설정된 값 이상으로 추출되었는지 확인하여, 제3 객체(403)가 설정값 이상으로 추출되면, 제3 객체(403)에 대한 라벨이 설정될 수 있으며, 제3 객체(403)가 설정값 이상으로 추출되지 않으면, 객체 분석부(220)는 제2 이미지 정보를 더 분석하여, 도 4의 (b)에 도시된 바와 같이, 제2 이미지에서 제4 객체(404), 제2 객체(402) 및 제3 객체(403)를 인식할 수 있다.
이후, 객체 분석부(220)는 제2 이미지에서 제4 객체(404), 제2 객체(402)를 라벨이 설정된 객체로 분류하여 추출하고, 제3 객체(403)를 라벨이 설정되지 않은 객체로 분류하여 더 추출할 수 있다.
이후, 객체 분석부(220)는 제3 객체(403)가 미리 설정된 값 이상으로 추출되었는지 다시 확인하여, 제3 객체(403)가 설정값 이상으로 추출되면, 제3 객체(403)에 대한 라벨이 설정될 수 있으며, 제3 객체(403)가 설정값 이상으로 추출되지 않으면, 객체 분석부(220)는 제3 이미지 정보를 더 분석하여, 도 4의 (c)에 도시된 바와 같이, 제3 이미지에서 제1 객체(401), 제4 객체(404) 및 제3 객체(403)를 인식할 수 있다.
이후, 객체 분석부(220)는 제3 이미지에서 제1 객체(401), 제4 객체(404)를 라벨이 설정된 객체로 분류하여 추출하고, 제3 객체(403)를 라벨이 설정되지 않은 객체로 분류하여 더 추출할 수 있다.
이후, 객체 분석부(220)는 제3 객체(403)가 미리 설정된 값 이상으로 추출되었는지 다시 확인할 수 있으며, 제3 객체(403)는 도 4의 (d)에 도시된 바와 같이, 제1 이미지, 제2 이미지 및 제3 이미지에서 추출되어, 추출된 제3 객체(403)의 수가 3인데, 설정값이 3인 경우, 제3 객체(403)의 수가 설정값 이상이므로, 라벨 설정부(230)는 제3 객체(403)에 대한 라벨을 설정할 수 있다.
제1 이미지, 제2 이미지 및 제3 이미지에서 추출된 제3 객체(403)에 대한 라벨이 "십자"로 설정된 경우, 라벨링 처리부(240)는 제1 이미지, 제2 이미지 및 제3 이미지 각각에 포함된 제3 객체(403)의 라벨이 "십자"로 설정되도록, 라벨링을 처리할 수 있다.
제3 객체(403)에 대한 라벨 설정 이후, 제4 이미지에서 제3 객체(403)가 인식되면, 라벨링 처리부(240)는 제4 이미지에서 인식된 제3 객체(403)에 대한 라벨링을 자동으로 처리할 수 있다.
이와 같이, 본 발명의 일 실시예에 따르면, 최초 입력된 일부의 이미지에 대해서만 분석하여 객체의 라벨을 설정해주면, 추후 입력된 이미지에서 인식되는 객체에 대해서는 자동으로 라벨링을 처리할 수 있으므로, 객체의 라벨 설정 및 라벨링 처리 과정을 수행하는데 있어, 정확도를 보장하면서 사용자 편의성도 증대시킬 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100 : 사용자 단말
200 : 객체 관리 서버
210 : 이미지 획득부
220 : 객체 분석부
230 : 라벨 설정부
240 : 라벨링 처리부
300 : 데이터 관리 서버
401 : 제1 객체
402 : 제2 객체
403 : 제3 객체
404 : 제4 객체

Claims (8)

  1. 객체 관리 서버에서, 객체의 라벨링을 자동으로 처리하기 위한 방법에 있어서,
    (a) 제1 이미지에서 인식된 객체에 대해, 라벨이 설정되었는지 여부를 확인하여, 상기 제1 이미지에서 라벨이 설정되지 않은 제1 객체가 인식되면, 상기 제1 이미지에서 인식된 제1 객체를 추출하고, 상기 제1 이미지에서 라벨이 기 설정된 제2 객체가 인식되면, 상기 제1 객체 및 상기 제2 객체를 분류하여 추출하며, 상기 제1 이미지에서 인식된 제2 객체에 대한 라벨링을 처리하는 단계;
    (b) 상기 제1 객체가 미리 설정된 값 이상으로 추출되지 않으면, 상기 제1 객체가 미리 설정된 값 이상으로 추출될 때까지, 제2 이미지에서 인식된 제1 객체를 더 추출하고, 상기 제1 객체가 미리 설정된 값 이상으로 추출되면, 상기 제1 객체의 라벨을 설정하는 단계; 및
    (c) 제3 이미지에서 상기 제1 객체가 인식되면, 상기 제3 이미지에서 인식된 제1 객체에 대한 라벨링을 처리하는 단계를 포함하는, 객체 라벨링 처리 방법.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 (b) 단계는,
    상기 제1 객체에 대한 태그 정보를 획득하고, 상기 태그 정보를 통해 상기 제1 객체의 라벨이 학습되도록 처리하고, 상기 학습된 라벨을 이용하여 상기 제1 객체에 대한 라벨을 설정하는 단계를 포함하는, 객체 라벨링 처리 방법.
  5. 객체의 라벨링을 자동으로 처리하기 위한 객체 관리 서버에 있어서,
    제1 이미지에서 인식된 객체에 대해 라벨이 설정되었는지 여부를 확인하고, 상기 제1 이미지에서 인식된 제1 객체의 라벨이 설정되어 있지 않은 것으로 확인되면, 상기 제1 이미지에서 인식된 제1 객체를 추출하고, 상기 제1 이미지에서 라벨이 기 설정된 제2 객체가 인식되면, 상기 제1 객체 및 제2 객체를 분류하여 추출하고, 상기 제1 객체가 미리 설정된 값 이상으로 추출되지 않으면, 상기 제1 객체가 미리 설정된 값 이상으로 추출될 때까지, 제2 이미지에서 인식된 제1 객체를 더 추출하는 객체 분석부;
    상기 제1 객체가 미리 설정된 값 이상으로 추출되면, 상기 제1 객체의 라벨을 설정하는 라벨 설정부; 및
    상기 제1 이미지에서 상기 제2 객체가 인식되면, 상기 제1 이미지에서 인식된 제2 객체에 대한 라벨링을 처리하고, 제3 이미지에서 상기 제1 객체가 인식되면, 상기 제3 이미지에서 인식된 제1 객체에 대한 라벨링을 처리하는 라벨링 처리부를 포함하는, 객체 관리 서버.
  6. 삭제
  7. 삭제
  8. 제5항에 있어서,
    상기 라벨 설정부는,
    상기 제1 객체에 대한 태그 정보를 획득하고, 상기 태그 정보를 통해 상기 제1 객체의 라벨이 학습되도록 처리하고, 상기 학습된 라벨을 이용하여 상기 제1 객체에 대한 라벨을 설정하는, 객체 관리 서버.
KR1020180155863A 2018-12-06 2018-12-06 객체 라벨링 처리 방법 및 객체 관리 서버 KR102002024B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180155863A KR102002024B1 (ko) 2018-12-06 2018-12-06 객체 라벨링 처리 방법 및 객체 관리 서버

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180155863A KR102002024B1 (ko) 2018-12-06 2018-12-06 객체 라벨링 처리 방법 및 객체 관리 서버

Publications (1)

Publication Number Publication Date
KR102002024B1 true KR102002024B1 (ko) 2019-07-22

Family

ID=67469133

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180155863A KR102002024B1 (ko) 2018-12-06 2018-12-06 객체 라벨링 처리 방법 및 객체 관리 서버

Country Status (1)

Country Link
KR (1) KR102002024B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102154953B1 (ko) * 2020-03-31 2020-09-10 김은정 반지 치수 자동 측정 장치 및 방법
KR20210048058A (ko) 2019-10-23 2021-05-03 삼성에스디에스 주식회사 심층 신경망 학습 장치 및 방법
KR102337070B1 (ko) * 2021-07-12 2021-12-08 (주)에이아이매틱스 이상 데이터 자동 검출 및 자동 라벨링 기술을 이용한 학습 데이터베이스 구축 방법 및 시스템
KR102365370B1 (ko) * 2021-05-17 2022-02-23 주식회사농심 매대 정보 산출 시스템
KR102385033B1 (ko) * 2021-02-23 2022-04-11 주식회사 포스로직 이미지의 연결 요소 객체 추출 및 라벨링 방법
KR20220077439A (ko) * 2020-12-02 2022-06-09 울산과학기술원 객체 검색 모델 및 그 학습 방법
KR20220090203A (ko) * 2020-12-22 2022-06-29 주식회사 에스원 딥 러닝 객체 검출 및 추적 기반 자동 데이터 라벨링 방법 및 이를 이용한 자동 데이터 라벨링 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022419A (ja) * 2010-07-13 2012-02-02 Yahoo Japan Corp 学習データ作成装置、学習データ作成方法及びプログラム
KR20150123968A (ko) * 2008-03-03 2015-11-04 에이브이오 유에스에이 홀딩 2 코포레이션 트래킹, 인덱싱 및 서치를 위한 물체 매칭 방법 및 장치
KR20150143304A (ko) * 2014-06-12 2015-12-23 오므론 가부시키가이샤 화상 인식 장치 및 화상 인식 장치에의 특징량 데이터 등록 방법
KR101879735B1 (ko) * 2017-03-15 2018-07-18 (주)넥셀 자동적인 학습데이터 생성 방법 및 장치와 이를 이용하는 자가 학습 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150123968A (ko) * 2008-03-03 2015-11-04 에이브이오 유에스에이 홀딩 2 코포레이션 트래킹, 인덱싱 및 서치를 위한 물체 매칭 방법 및 장치
JP2012022419A (ja) * 2010-07-13 2012-02-02 Yahoo Japan Corp 学習データ作成装置、学習データ作成方法及びプログラム
KR20150143304A (ko) * 2014-06-12 2015-12-23 오므론 가부시키가이샤 화상 인식 장치 및 화상 인식 장치에의 특징량 데이터 등록 방법
KR101879735B1 (ko) * 2017-03-15 2018-07-18 (주)넥셀 자동적인 학습데이터 생성 방법 및 장치와 이를 이용하는 자가 학습 장치 및 방법

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210048058A (ko) 2019-10-23 2021-05-03 삼성에스디에스 주식회사 심층 신경망 학습 장치 및 방법
US11574185B2 (en) 2019-10-23 2023-02-07 Samsung Sds Co., Ltd. Apparatus and method for training deep neural network
KR102154953B1 (ko) * 2020-03-31 2020-09-10 김은정 반지 치수 자동 측정 장치 및 방법
KR20220077439A (ko) * 2020-12-02 2022-06-09 울산과학기술원 객체 검색 모델 및 그 학습 방법
KR102619275B1 (ko) * 2020-12-02 2024-01-02 울산과학기술원 객체 검색 모델 및 그 학습 방법
KR20220090203A (ko) * 2020-12-22 2022-06-29 주식회사 에스원 딥 러닝 객체 검출 및 추적 기반 자동 데이터 라벨링 방법 및 이를 이용한 자동 데이터 라벨링 시스템
KR102537695B1 (ko) 2020-12-22 2023-05-26 주식회사 에스원 딥 러닝 객체 검출 및 추적 기반 자동 데이터 라벨링 방법 및 이를 이용한 자동 데이터 라벨링 시스템
KR102385033B1 (ko) * 2021-02-23 2022-04-11 주식회사 포스로직 이미지의 연결 요소 객체 추출 및 라벨링 방법
KR102365370B1 (ko) * 2021-05-17 2022-02-23 주식회사농심 매대 정보 산출 시스템
KR102337070B1 (ko) * 2021-07-12 2021-12-08 (주)에이아이매틱스 이상 데이터 자동 검출 및 자동 라벨링 기술을 이용한 학습 데이터베이스 구축 방법 및 시스템

Similar Documents

Publication Publication Date Title
KR102002024B1 (ko) 객체 라벨링 처리 방법 및 객체 관리 서버
US10762387B2 (en) Method and apparatus for processing image
CN109284729B (zh) 基于视频获取人脸识别模型训练数据的方法、装置和介质
US11270099B2 (en) Method and apparatus for generating facial feature
CN109740018B (zh) 用于生成视频标签模型的方法和装置
CN109034069B (zh) 用于生成信息的方法和装置
CN109919244B (zh) 用于生成场景识别模型的方法和装置
CN105740402A (zh) 数字图像的语义标签的获取方法及装置
CN109947989B (zh) 用于处理视频的方法和装置
JP2021532434A (ja) 顔特徴抽出モデル訓練方法、顔特徴抽出方法、装置、機器および記憶媒体
CN110084317B (zh) 用于识别图像的方法和装置
CN111931859B (zh) 一种多标签图像识别方法和装置
CN111680491B (zh) 文档信息的抽取方法、装置和电子设备
CN110941978A (zh) 一种未识别身份人员的人脸聚类方法、装置及存储介质
CN112766284A (zh) 图像识别方法和装置、存储介质和电子设备
CN109816023B (zh) 用于生成图片标签模型的方法和装置
CN109064464B (zh) 用于检测电池极片毛刺的方法和装置
CN111160410A (zh) 一种物体检测方法和装置
CN110895811A (zh) 一种图像篡改检测方法和装置
CN113963186A (zh) 目标检测模型的训练方法、目标检测方法及相关装置
CN113269730B (zh) 图像处理方法、装置、计算机设备及存储介质
CN113033552B (zh) 文本识别方法、装置和电子设备
CN115376137A (zh) 一种光学字符识别处理、文本识别模型训练方法及装置
CN111291758B (zh) 用于识别印章文字的方法和装置
CN110334763B (zh) 模型数据文件生成、图像识别方法、装置、设备及介质

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant