KR102615510B1 - Device for detecting the localization of object, method for detecting the localization of object and computer program stored in a recording medium to execute the method - Google Patents
Device for detecting the localization of object, method for detecting the localization of object and computer program stored in a recording medium to execute the method Download PDFInfo
- Publication number
- KR102615510B1 KR102615510B1 KR1020210085271A KR20210085271A KR102615510B1 KR 102615510 B1 KR102615510 B1 KR 102615510B1 KR 1020210085271 A KR1020210085271 A KR 1020210085271A KR 20210085271 A KR20210085271 A KR 20210085271A KR 102615510 B1 KR102615510 B1 KR 102615510B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- learning
- channel
- area
- artificial intelligence
- Prior art date
Links
- 238000004590 computer program Methods 0.000 title claims description 5
- 238000000034 method Methods 0.000 title description 34
- 230000004807 localization Effects 0.000 title 2
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 82
- 238000001514 detection method Methods 0.000 claims abstract description 68
- 238000006243 chemical reaction Methods 0.000 claims abstract description 25
- 230000006870 function Effects 0.000 claims description 39
- 238000012549 training Methods 0.000 claims description 34
- 230000009466 transformation Effects 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 13
- 230000001131 transforming effect Effects 0.000 claims description 5
- 230000007423 decrease Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 18
- 239000000284 extract Substances 0.000 description 10
- 238000007796 conventional method Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
개시된 발명의 일 실시예에 따른 비지도 학습 기반의 객체 위치 검출 방법은, (a) 변환 이미지 생성부에 의하여, 학습용 이미지를 변환하여 변환 이미지를 생성하는 단계; (b) 객체 추출부에 의하여, 상기 학습용 이미지로부터 제1 객체 영역을 추출하고, 상기 변환 이미지로부터 제2 객체 영역을 추출하는 단계; 및 (c) 인공지능 학습부에 의하여, 상기 제1 객체 영역과 상기 제2 객체 영역을 비교하여 인공지능 모델을 학습하는 단계;를 포함할 수 있다.An unsupervised learning-based object location detection method according to an embodiment of the disclosed invention includes the steps of: (a) converting a learning image by a conversion image generator to generate a conversion image; (b) extracting a first object area from the learning image and extracting a second object area from the converted image by an object extractor; and (c) learning an artificial intelligence model by comparing the first object area and the second object area by an artificial intelligence learning unit.
Description
본 발명은 이미지상 객체의 추가적인 위치 관련 정보에 기초하여 객체의 위치를 검출하는 성능을 개선할 수 있는 비지도 학습 기반의 객체 위치 검출 방법 및 객체 위치 검출 장치에 관한 것이다.The present invention relates to an unsupervised learning-based object location detection method and object location detection device that can improve the performance of detecting the location of an object based on additional location-related information of the object in the image.
기계 학습(Machine Learning)의 한 방법으로서 지도 학습(Supervised Learning)은 이미지에서의 객체 위치를 검출하기 위한 바운딩 박스(bounding box), 세그먼테이션을 사람의 주석 작업에 의하여 컨볼루션 뉴럴 네트워크(CNN: Convolution Neural Network)로 학습하는 방법이다. 그러나, 정확한 주석을 얻기 위해 사람의 큰 노동력을 필요로 한다는 문제가 있다.As a method of machine learning, supervised learning uses a convolution neural network (CNN) to detect object locations in images by using bounding boxes and segmentation through human annotation. It is a method of learning through a network. However, there is a problem that a large amount of human labor is required to obtain accurate annotations.
또다른 기계 학습 방법으로서 비지도 학습(Unsupervised Learning)은 인공 레이블을 분류하기 위하여 분류 손실 함수(classification loss function)를 이용하여 인공지능 모델을 훈련시키는 자가 지도 학습을 적용한다. 그러나, 비지도 학습은 타겟과 관련된 정보를 인공지능 모델이 학습하기 때문에 배경까지 활성화가 되어 학습의 성능을 낮춘다는 문제가 발생할 수 있다.Unsupervised Learning, another machine learning method, applies self-supervised learning to train an artificial intelligence model using a classification loss function to classify artificial labels. However, in unsupervised learning, since the artificial intelligence model learns information related to the target, the background may be activated, lowering the learning performance.
또한, 기존의 대조 표현 학습은 이미지를 신경망을 통하여 특징 벡터로 인코딩하는데, 특징 벡터에는 공간 정보가 포함되어 있지 않기 때문에 손실 함수가 객체만을 커버하지 않고 차별적인 부분에 집중하거나 배경을 과도하게 커버한다는 문제가 있다. 따라서, 새로운 대조 손실 함수를 이용하여 보다 효율적인 객체의 위치를 검출할 수 있는 방법이 필요하다.In addition, existing contrast expression learning encodes images into feature vectors through a neural network, but since feature vectors do not contain spatial information, the loss function does not cover only the object, but focuses on discriminatory parts or excessively covers the background. there is a problem. Therefore, a method that can detect the location of an object more efficiently using a new contrast loss function is needed.
본 발명은 학습용 이미지상 객체의 위치 관련 정보를 추가적으로 포함하고 있는 변환 이미지에 기초하여 객체의 전체 영역을 커버할 수 있으며, 학습용 이미지의 차별적인 부분에만 집중하거나 배경 영역을 과도하게 커버하지 않을 수 있어서 객체의 위치를 정확하게 검출할 수 있는 객체 인식 시스템, 객체 인식 방법 및 컴퓨터 프로그램을 제공하기 위한 것이다.The present invention can cover the entire area of the object based on a converted image that additionally contains information related to the location of the object in the learning image, and does not focus on only the discriminatory part of the learning image or excessively cover the background area. The purpose is to provide an object recognition system, object recognition method, and computer program that can accurately detect the location of an object.
또한, 본 발명은 인공지능 모델에 대한 학습 횟수가 적더라도 종래의 객체 위치 검출 기술보다 이미지 상에서의 객체 위치를 정확하게 검출할 수 있는 비지도 학습 기반의 객체 위치 검출 장치, 객체 위치 검출 방법 및 컴퓨터 프로그램을 제공하기 위한 것이다.In addition, the present invention provides an unsupervised learning-based object location detection device, object location detection method, and computer program that can more accurately detect the object location on an image than conventional object location detection technology even if the number of learning times for the artificial intelligence model is small. It is intended to provide.
개시된 발명의 일 측면에 따른 비지도 학습 기반의 객체 위치 검출 방법은, (a) 변환 이미지 생성부에 의하여, 학습용 이미지를 변환하여 변환 이미지를 생성하는 단계; (b) 객체 추출부에 의하여, 상기 학습용 이미지로부터 제1 객체 영역을 추출하고, 상기 변환 이미지로부터 제2 객체 영역을 추출하는 단계; 및 (c) 인공지능 학습부에 의하여, 상기 제1 객체 영역과 상기 제2 객체 영역을 비교하여 인공지능 모델을 학습하는 단계;를 포함할 수 있다.An unsupervised learning-based object location detection method according to one aspect of the disclosed invention includes the steps of: (a) converting a learning image by a conversion image generator to generate a conversion image; (b) extracting a first object area from the learning image and extracting a second object area from the converted image by an object extractor; and (c) learning an artificial intelligence model by comparing the first object area and the second object area by an artificial intelligence learning unit.
또한, 상기 (c) 단계는: 상기 인공지능 학습부에 의하여, 상기 학습용 이미지에서 상기 제1 객체 영역을 제외한 제1 배경 영역과 상기 변환 이미지에서 상기 제2 객체 영역을 제외한 제2 배경 영역을 비교하여 상기 인공지능 모델을 학습하는 단계;를 포함할 수 있다.In addition, step (c) is: comparing, by the artificial intelligence learning unit, a first background area excluding the first object area in the learning image and a second background area excluding the second object area in the converted image. It may include a step of learning the artificial intelligence model.
또한, 상기 (c) 단계는: 상기 제1 객체 영역과 상기 제2 객체 영역의 유사성을 분석하고, 상기 제1 배경 영역과 상기 제1 객체 영역의 차이를 분석하여 손실 함수를 연산하는 단계; 및 상기 손실 함수가 감소하도록 상기 인공지능 모델을 학습하는 단계;를 포함할 수 있다.In addition, step (c) includes: analyzing the similarity between the first object area and the second object area, analyzing the difference between the first background area and the first object area, and calculating a loss function; and learning the artificial intelligence model to reduce the loss function.
또한, 상기 (b) 단계는: (b1) 상기 학습용 이미지를 구성하는 복수개의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널인 제1 채널에 기초하여 상기 제1 객체 영역을 추출하는 단계; 및 (b2) 상기 변환 이미지를 구성하는 복수개의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널인 제2 채널에 기초하여 상기 제2 객체 영역을 추출하는 단계;를 포함할 수 있다.In addition, step (b) is: (b1) extracting the first object area based on the first channel, which is a channel containing relatively more information about the recognized object among the plurality of channels constituting the learning image. ; and (b2) extracting the second object area based on a second channel, which is a channel containing relatively more information about the recognized object among the plurality of channels constituting the converted image.
또한, 상기 (b1) 단계는: 상기 학습용 이미지의 채널을 구성하는 픽셀이 상기 인식된 객체의 정보를 포함하는 픽셀인지 판단하는 단계; 상기 학습용 이미지의 채널에 대하여 상기 객체의 정보를 포함하는 픽셀의 개수를 결정하는 단계; 및 상기 픽셀의 개수에 기초하여 상기 복수개의 학습용 이미지의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널을 상기 제1 채널로 결정하는 단계;를 포함하고, 상기 (b2) 단계는: 상기 변환 이미지의 채널을 구성하는 픽셀이 상기 인식된 객체의 정보를 포함하는 픽셀인지 판단하는 단계; 상기 변환 이미지의 채널에 대하여 상기 객체의 정보를 포함하는 픽셀의 개수를 결정하는 단계; 및 상기 픽셀의 개수에 기초하여 상기 복수개의 변환 이미지의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널을 상기 제2 채널로 결정하는 단계;를 포함할 수 있다.In addition, step (b1) includes: determining whether a pixel constituting a channel of the learning image is a pixel containing information about the recognized object; determining the number of pixels containing information about the object for a channel of the training image; and determining, as the first channel, a channel containing relatively more information about the recognized object among the channels of the plurality of training images based on the number of pixels. Step (b2) includes: determining whether a pixel constituting a channel of the converted image contains information about the recognized object; determining the number of pixels containing information about the object for a channel of the converted image; and determining, as the second channel, a channel containing relatively more information about the recognized object among channels of the plurality of converted images based on the number of pixels.
또한, 객체 추출부에 의하여, 상기 인공지능 모델을 이용하여 입력 이미지로부터 상기 제1 객체 영역을 추출하는 단계; 및 상기 추출된 제1 객체 영역을 기초로 상기 입력 이미지에서의 객체 위치를 결정하는 단계;를 더 포함할 수 있다.Additionally, extracting the first object area from the input image using the artificial intelligence model by an object extractor; and determining an object location in the input image based on the extracted first object area.
또한, 상기 (a) 단계는: 상기 변환 이미지 생성부에 의하여, 상기 학습용 이미지를 미리 정해진 각도로 회전시켜 상기 변환 이미지를 생성하는 단계;를 포함할 수 있다.In addition, step (a) may include: generating the converted image by rotating the learning image at a predetermined angle, by the converted image generator.
또한, 상기 (a) 단계는: 상기 변환 이미지 생성부에 의하여, 상기 학습용 이미지를 확대하거나 축소하여 상기 변환 이미지를 생성하는 단계;를 포함할 수 있다.Additionally, step (a) may include: generating the converted image by enlarging or reducing the learning image by the converted image generator.
또한, 상기 (a) 단계는: 상기 변환 이미지 생성부에 의하여, 상기 학습용 이미지를 대칭 변환하여 상기 변환 이미지를 생성하는 단계;를 포함할 수 있다.In addition, step (a) may include: generating the converted image by symmetrically converting the learning image by the converted image generator.
개시된 발명의 일 측면에 따른 컴퓨터 프로그램은, 상기 비지도 학습 기반의 객체 위치 검출 방법을 실행시키도록 컴퓨터로 판독 가능한 기록매체에 저장될 수 있다.A computer program according to one aspect of the disclosed invention may be stored in a computer-readable recording medium to execute the unsupervised learning-based object location detection method.
개시된 발명의 일 측면에 따른 비지도 학습 기반의 객체 위치 검출 장치는, 학습용 이미지를 변환하여 변환 이미지를 생성하도록 구성되는 변환 이미지 생성부; 상기 학습용 이미지로부터 제1 객체 영역을 추출하고, 상기 변환 이미지로부터 제2 객체 영역을 추출하도록 구성되는 객체 추출부; 및 상기 제1 객체 영역과 상기 제2 객체 영역을 비교하여 인공지능 모델을 학습하도록 구성되는 인공지능 학습부;를 포함할 수 있다.An unsupervised learning-based object location detection device according to one aspect of the disclosed invention includes a conversion image generator configured to convert a learning image to generate a conversion image; an object extraction unit configured to extract a first object area from the learning image and a second object area from the converted image; and an artificial intelligence learning unit configured to learn an artificial intelligence model by comparing the first object area and the second object area.
또한, 상기 인공지능 학습부는, 상기 학습용 이미지에서 상기 제1 객체 영역을 제외한 제1 배경 영역과 상기 변환 이미지에서 상기 제2 객체 영역을 제외한 제2 배경 영역을 비교하여 상기 인공지능 모델을 학습하도록 구성될 수 있다.In addition, the artificial intelligence learning unit is configured to learn the artificial intelligence model by comparing a first background area excluding the first object area in the learning image and a second background area excluding the second object area in the converted image. It can be.
또한, 상기 인공지능 학습부는: 상기 제1 객체 영역과 상기 제2 객체 영역의 유사성을 분석하고, 상기 제1 배경 영역과 상기 제1 객체 영역의 차이를 분석하여 손실 함수를 연산하고; 그리고 상기 손실 함수가 감소하도록 상기 인공지능 모델을 학습하도록 구성될 수 있다.In addition, the artificial intelligence learning unit: analyzes the similarity between the first object area and the second object area, analyzes the difference between the first background area and the first object area, and calculates a loss function; And it may be configured to learn the artificial intelligence model so that the loss function decreases.
또한, 상기 객체 추출부는: 상기 학습용 이미지를 구성하는 복수개의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널인 제1 채널에 기초하여 상기 제1 객체 영역을 추출하고; 그리고 상기 변환 이미지를 구성하는 복수개의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널인 제2 채널에 기초하여 상기 제2 객체 영역을 추출하도록 구성될 수 있다.In addition, the object extractor: extracts the first object area based on a first channel, which is a channel containing relatively more information about the recognized object among the plurality of channels constituting the learning image; Additionally, the second object area may be extracted based on a second channel, which is a channel containing relatively more information about the recognized object among the plurality of channels constituting the converted image.
또한, 상기 객체 추출부는: 상기 학습용 이미지의 채널을 구성하는 픽셀이 상기 인식된 객체의 정보를 포함하는 픽셀인지 판단하고; 상기 학습용 이미지의 채널에 대하여 상기 객체의 정보를 포함하는 픽셀의 개수를 결정하고; 상기 픽셀의 개수에 기초하여 상기 복수개의 학습용 이미지의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널을 상기 제1 채널로 결정하고; 상기 변환 이미지의 채널을 구성하는 픽셀이 상기 인식된 객체의 정보를 포함하는 픽셀인지 판단하고; 상기 변환 이미지의 채널에 대하여 상기 객체의 정보를 포함하는 픽셀의 개수를 결정하고; 그리고 상기 픽셀의 개수에 기초하여 상기 복수개의 변환 이미지의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널을 상기 제2 채널로 결정하도록 구성될 수 있다.In addition, the object extractor: determines whether a pixel constituting a channel of the learning image is a pixel containing information about the recognized object; determining the number of pixels containing information about the object for a channel of the training image; determining a channel containing relatively more information about a recognized object among channels of the plurality of training images as the first channel based on the number of pixels; determining whether a pixel constituting a channel of the converted image is a pixel containing information about the recognized object; determine the number of pixels containing information about the object for a channel of the converted image; And, based on the number of pixels, a channel containing relatively more information about the recognized object among channels of the plurality of converted images may be determined as the second channel.
또한, 프로세서;를 더 포함하고, 상기 객체 추출부는, 상기 인공지능 모델을 이용하여 입력 이미지로부터 상기 제1 객체 영역을 추출하도록 구성되고, 상기 프로세서는, 상기 추출된 제1 객체 영역을 기초로 상기 입력 이미지에서의 객체 위치를 결정하도록 구성될 수 있다.In addition, it further includes a processor, wherein the object extraction unit is configured to extract the first object area from the input image using the artificial intelligence model, and the processor is configured to extract the first object area based on the extracted first object area. It may be configured to determine an object location in an input image.
또한, 상기 변환 이미지 생성부는, 상기 학습용 이미지를 미리 정해진 각도로 회전시켜 상기 변환 이미지를 생성하도록 구성될 수 있다.Additionally, the converted image generator may be configured to generate the converted image by rotating the learning image at a predetermined angle.
또한, 상기 변환 이미지 생성부는, 상기 학습용 이미지를 확대하거나 축소하여 상기 변환 이미지를 생성하도록 구성될 수 있다.Additionally, the converted image generator may be configured to generate the converted image by enlarging or reducing the learning image.
또한, 상기 변환 이미지 생성부는, 상기 학습용 이미지를 대칭 변환하여 상기 변환 이미지를 생성하도록 구성될 수 있다.Additionally, the converted image generator may be configured to symmetrically transform the learning image to generate the converted image.
개시된 발명의 일 측면에 따르면, 학습용 이미지 및 변환 이미지에 기초하여 이미지상 객체의 전체 영역을 커버할 수 있고, 학습용 이미지의 차별적인 부분에만 집중하지 않으면서도 배경 영역을 과도하게 커버하지 않도록 인공지능 모델을 학습하여 객체의 위치를 정확하게 검출할 수 있다.According to one aspect of the disclosed invention, an artificial intelligence model can cover the entire area of the object in the image based on the training image and the converted image, and does not excessively cover the background area while not focusing only on the discriminatory part of the training image. By learning, the location of the object can be accurately detected.
또한, 본 발명의 실시예에 의하면, 인공지능 모델에 대한 학습 횟수가 적더라도 종래의 객체 위치 검출 기술보다 이미지 상에서의 객체 위치를 정확하게 검출하여 객체 위치 검출 성능을 높일 수 있다.In addition, according to an embodiment of the present invention, even if the number of training sessions for the artificial intelligence model is small, object location detection performance can be improved by detecting the object location on the image more accurately than conventional object location detection technology.
도 1은 일 실시예에 따른 객체 위치 검출 장치의 구성도이다.
도 2는 일 실시예에 따른 비지도 학습 방법을 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 손실 함수를 연산하는 방법을 도시한 도면이다.
도 4는 일 실시예에 따라 복수개의 채널 중 일부 채널에 기초하여 객체 영역을 추출하는 것을 설명하기 위한 도면이다.
도 5는 일 실시예에 따라 복수개의 채널 중 일부 채널에 기초하여 객체 영역을 추출하는 것을 설명하기 위한 또다른 도면이다.
도 6은 일 실시예에 따라 입력 이미지에서의 객체 위치를 결정하는 과정을 도시한 도면이다.
도 7은 일 실시예에 따른 객체 위치 검출 결과와 종래의 객체 위치 검출 결과를 나타낸 도면이다.
도 8은 일 실시예에 따른 객체 위치 검출 방법의 순서도이다.
도 9는 일 실시예에 따른 객체 위치 검출 방법이 종래의 객체 위치 검출 방법에 비해 개선된 정도를 나타낸 표이다.
도 10은 일 실시예에 따라 복수개의 채널 중 일부 채널을 결정하는 기준을 설명하기 위한 도면이다.
도 11은 일 실시예에 따라 복수개의 채널 중 일부 채널을 결정하는 기준을 설명하기 위한 또다른 도면이다.
도 12는 다양한 입력 이미지 변환에 대하여 일 실시예에 따른 위치 검출 방법이 종래의 위치 검출 방법에 비하여 개선된 정도를 나타낸 표이다.1 is a configuration diagram of an object location detection device according to an embodiment.
Figure 2 is a diagram for explaining an unsupervised learning method according to an embodiment.
Figure 3 is a diagram illustrating a method of calculating a loss function according to one embodiment.
FIG. 4 is a diagram illustrating extracting an object area based on some channels among a plurality of channels according to an embodiment.
FIG. 5 is another diagram illustrating extracting an object area based on some channels among a plurality of channels according to an embodiment.
FIG. 6 is a diagram illustrating a process for determining an object location in an input image according to an embodiment.
Figure 7 is a diagram showing object position detection results according to one embodiment and conventional object position detection results.
Figure 8 is a flowchart of an object location detection method according to an embodiment.
Figure 9 is a table showing the degree of improvement of the object position detection method according to an embodiment compared to the conventional object position detection method.
FIG. 10 is a diagram for explaining criteria for determining some channels among a plurality of channels according to an embodiment.
FIG. 11 is another diagram for explaining criteria for determining some channels among a plurality of channels according to an embodiment.
Figure 12 is a table showing the degree to which the position detection method according to an embodiment is improved compared to the conventional position detection method for various input image transformations.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 개시된 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '~부'라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '~부'가 하나의 구성요소로 구현되거나, 하나의 '~부'가 복수의 구성요소들을 포함하는 것도 가능하다.Like reference numerals refer to like elements throughout the specification. This specification does not describe all elements of the embodiments, and general content or overlapping content between the embodiments in the technical field to which the disclosed invention pertains is omitted. The term '~unit' used in the specification may be implemented as software or hardware, and depending on the embodiments, multiple '~units' may be implemented as one component, or one '~unit' may be implemented as a plurality of components. It is also possible to include elements.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Additionally, when a part "includes" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary.
제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.Terms such as first and second are used to distinguish one component from another component, and the components are not limited by the above-mentioned terms.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly makes an exception.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.The identification code for each step is used for convenience of explanation. The identification code does not explain the order of each step, and each step may be performed differently from the specified order unless a specific order is clearly stated in the context. there is.
이하 첨부된 도면들을 참고하여 개시된 발명의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the operating principle and embodiments of the disclosed invention will be described with reference to the attached drawings.
도 1은 일 실시예에 따른 객체 위치 검출 장치의 구성도이며, 도 2는 일 실시예에 따른 비지도 학습 방법을 설명하기 위한 도면이다.FIG. 1 is a configuration diagram of an object location detection device according to an embodiment, and FIG. 2 is a diagram for explaining an unsupervised learning method according to an embodiment.
도 1을 참조하면, 본 발명의 실시예에 따른 객체 검출 장치(100)는 변환 이미지 생성부(110), 객체 추출부(120), 인공지능 학습부(130), 프로세서(140), 메모리(150)를 포함할 수 있다.Referring to FIG. 1, the
객체 위치 검출 장치(100)는 객체를 포함하는 학습용 이미지(200) 또는 입력 이미지(300)에서 객체를 인식하고 이미지상에서 인식된 객체의 위치를 결정할 수 있다.The object
학습용 이미지(200)는 이미지 데이터의 형태로 객체 검출 장치(100)에 입력될 수 있다. 학습용 이미지(200)는 일 실시예에 따른 객체 검출 방법의 비지도 학습에 이용되는 이미지일 수 있다.The
비지도 학습(Unsupervised Learning)이란 기계 학습의 일종으로서, 데이터가 어떻게 구성되어 있는지를 알아내는 학습 중 한 종류일 수 있다. 비지도 학습은 지도 학습(Supervised Learning) 또는 강화 학습(Reinforcement Learning)과는 달리 입력값에 대한 목표값이 주어지지 않을 수 있다.Unsupervised learning is a type of machine learning and can be a type of learning that finds out how data is structured. Unlike supervised learning or reinforcement learning, unsupervised learning may not be given a target value for the input value.
변환 이미지 생성부(110)는 학습용 이미지(200)를 변환하여 변환 이미지(400)를 생성하도록 구성될 수 있다.The converted
이때, 변환 이미지 생성부(110)는 학습용 이미지(200)를 미리 정해진 각도로 회전시켜 변환 이미지(400)를 생성하도록 구성될 수 있다.At this time, the converted
예를 들어, 변환 이미지 생성부(110)는 학습용 이미지(200)를 시계 방향으로 90도 회전시켜 변환 이미지(400)를 생성하거나, 학습용 이미지(200)를 반시계 방향으로 90도 회전시켜 변환 이미지(400)를 생성할 수 있으나, 학습용 이미지(200)를 회전시키는 각도가 90도에 한정되는 것은 아니다.For example, the converted
변환 이미지 생성부(110)는 학습용 이미지(200)를 확대하거나 축소하여 변환 이미지(400)를 생성하도록 구성될 수 있다.The converted
예를 들어, 변환 이미지 생성부(110)는 학습용 이미지(200)의 크기를 2배 확대하여 변환 이미지(400)를 생성하거나, 학습용 이미지(200)의 크기를 절반으로 축소하여 변환 이미지(400)를 생성할 수 있으나, 학습용 이미지(200)를 확대 또는 축소시키는 스케일(scale)이 이에 한정되는 것은 아니다.For example, the converted
변환 이미지 생성부(110)는 학습용 이미지(200)를 대칭 변환하여 변환 이미지(400)를 생성하도록 구성될 수 있다.The converted
전술한 바와 같이 변환 이미지 생성부(110)는 학습용 이미지(200)를 회전, 확대, 축소 및 대칭 변환의 방법으로 변환하여 변환 이미지(400)를 생성할 수 있으나, 학습용 이미지(200)를 변환시켜 변환 이미지(400)를 생성하는 방법이 이에 한정되는 것은 아니며, 다양한 변환 방법이 이용될 수 있다.As described above, the
객체 추출부(120)는 학습용 이미지(200)로부터 제1 객체 영역(201)을 추출하고, 변환 이미지(400)로부터 제2 객체 영역(401)을 추출하도록 구성될 수 있다.The
객체 추출부(120)는 딥러닝 기반의 객체 검출 기술에 기초하여 이미지로부터 객체 영역을 인식하는 인코더일 수 있다.The
딥러닝 기반의 객체 검출 기술은 이미지로부터 추출되는 객체 영역의 특징(feature)을 데이터를 기반으로 학습한다. 이때, 이미지로부터 특징(feature)을 추출하는 방식을 학습하기 위해 여러 단계의 컨볼루션 계층(convolution layer)을 쌓은 CNN(Convolutional Neural Networks) 구조가 활용될 수 있으나 이에 한정되는 것은 아니다.Deep learning-based object detection technology learns the features of object areas extracted from images based on data. At this time, a CNN (Convolutional Neural Networks) structure that stacks several stages of convolution layers can be used to learn how to extract features from images, but is not limited to this.
도 2를 참조하면, 인공지능 학습부(130)는 제1 객체 영역(201)과 제2 객체 영역(401)을 비교하여 인공지능 모델을 학습하도록 구성될 수 있다.Referring to FIG. 2, the artificial
즉, 인공지능 학습부(130)는 변환되기 전의 학습용 이미지(200)에서 추출된 객체 영역과 변환된 후의 변환 이미지(400)에서 추출된 객체 영역을 비교하여 인공지능 모델을 학습할 수 있다.That is, the artificial
객체 추출부(120)는 학습용 이미지(200)와 변환 이미지(400)에 대해서 각각 개별적으로 객체를 추출할 수 있다. 따라서, 제1 객체 영역(201)과 제2 객체 영역(401)이 반드시 일치하는 것은 아닐 수 있다. 하지만, 제2 객체 영역(401)은 학습용 이미지(200)가 일정한 방식의 변환 과정을 거쳐 생성된 변환 이미지(400)로부터 추출된 것이므로 제1 객체 영역(201)과 어느정도 일치하는 경향을 가질 수 있다. 구체적으로, 제2 객체 영역(401)을 역변환하여 생성된 영역은 제1 객체 영역(201)과 어느정도 일치하는 형태의 객체 영역일 수 있다.The
예를 들어, 변환 이미지(400)가 학습용 이미지(200)를 시계 방향으로 90도 회전시켜 생성된 이미지일 경우, 제2 객체 영역(401)을 반시계 방향으로 90도 회전시켜 생성된 영역은 제1 객체 영역(201)과 어느정도 일치하는 형태의 객체 영역일 수 있다.For example, if the converted image 400 is an image created by rotating the
만약 객체 위치 검출 장치(100)의 성능이 뛰어나다면 변환되기 전의 이미지인 학습용 이미지(200)에서 객체를 인식하든, 변환된 후의 이미지인 변환 이미지(400)에서 객체를 인식하든 거의 일치하는 영역을 제1 객체 영역(201) 및 제2 객체 영역(401)으로 추출할 것이다. 따라서 일 실시예에 따른 인공지능 학습부(130)는 학습을 반복할수록 제1 객체 영역(201)과 제2 객체 영역(401)이 서로 유사한 영역이 되도록 인공지능 모델을 학습할 수 있다.If the performance of the object
인공지능 학습부(130)는 제1 배경 영역(202)과 제2 배경 영역(402)을 비교하여 인공지능 모델을 학습하도록 구성될 수 있다.The artificial
제1 배경 영역(202)은 학습용 이미지(200)에서 제1 객체 영역(201)이 제외된 영역일 수 있다. 또한, 제2 배경 영역(402)은 변환 이미지(400)에서 제2 객체 영역(401)이 제외된 영역일 수 있다.The first background area 202 may be an area in which the first object area 201 is excluded from the
즉, 인공지능 학습부(130)는 변환되기 전의 학습용 이미지(200)에서 추출된 배경 영역과 변환된 후의 변환 이미지(400)에서 추출된 배경 영역을 비교하여 인공지능 모델을 학습할 수 있다.That is, the artificial
제2 배경 영역(402)은 학습용 이미지(200)가 일정한 방식의 변환 과정을 거쳐 생성된 변환 이미지(400)로부터 추출된 것이므로 제1 배경 영역(202)과 어느정도 일치하는 경향을 가질 수 있다. 구체적으로, 제2 배경 영역(402)을 역변환하여 생성된 영역은 제1 배경 영역(202)과 어느정도 일치하는 형태의 객체 영역일 수 있다.Since the second background area 402 is extracted from the converted image 400 generated through a certain conversion process of the
예를 들어, 변환 이미지(400)가 학습용 이미지(200)를 시계 방향으로 90도 회전시켜 생성된 이미지일 경우, 제2 배경 영역(402)을 반시계 방향으로 90도 회전시켜 생성된 영역은 제1 배경 영역(202)과 어느정도 일치하는 형태의 객체 영역일 수 있다.For example, if the converted image 400 is an image created by rotating the
만약 객체 위치 검출 장치(100)의 성능이 뛰어나다면 거의 일치하는 영역을 제1 배경 영역(202) 및 제2 배경 영역(402)으로 추출할 것이다. 따라서 일 실시예에 따른 인공지능 학습부(130)는 학습을 반복할수록 제1 배경 영역(202)과 제2 배경 영역(402)이 서로 유사한 영역이 되도록 인공지능 모델을 학습할 수 있다.If the object
인공지능 학습부(130)는 학습용 데이터를 통해, 학습용 이미지(200)의 특징을 입력 변수로 설정하고 이미지에서의 객체의 위치를 출력 변수로 설정하여 인공지능 모델을 학습하도록 구성될 수 있다.The artificial
학습용 이미지(200)의 특징은 해당 학습용 이미지(200)에 대한 다양한 특징을 나타내는 정보일 수 있다. 예를 들어, 학습용 이미지(200)의 특징은 해당 학습용 이미지(200)의 각 픽셀 단위에서의 색상, 명도 등에 대한 정보일 수 있다.The characteristics of the
인공지능 모델을 학습하는 것은 기계 학습(Machine Learning) 방식을 통한 학습일 수 있다. 기계 학습이란 다수의 파라미터로 구성된 모델을 이용하며, 주어진 데이터로 파라미터를 최적화하는 것을 의미할 수 있다. 인공지능 학습부(130)는 입력에 따라 인공지능 모델을 통해 최종적으로 나온 결과물(output)인 출력들을 이용하여 인공지능 모델을 학습할 수 있다. 인공지능 모델은 메모리(150)에 저장될 수 있다.Learning an artificial intelligence model can be done through machine learning. Machine learning can mean using a model composed of multiple parameters and optimizing the parameters with given data. The artificial
변환 이미지 생성부(110), 객체 추출부(120), 인공지능 학습부(130)는 객체 위치 검출 장치(100)에 포함된 복수개의 프로세서(140) 중 어느 하나의 프로세서(140)를 포함할 수 있다. 또한, 지금까지 설명된 본 발명의 실시예 및 앞으로 설명할 실시예에 따른 객체 인식 방법은, 프로세서(140)에 의해 구동될 수 있는 프로그램의 형태로 구현될 수 있다.The
여기서 프로그램은, 프로그램 명령, 데이터 파일 및 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 프로그램은 기계어 코드나 고급 언어 코드를 이용하여 설계 및 제작된 것일 수 있다. 프로그램은 상술한 부호 수정을 위한 방법을 구현하기 위하여 특별히 설계된 것일 수도 있고, 컴퓨터 소프트웨어 분야에서 통상의 기술자에게 기 공지되어 사용 가능한 각종 함수나 정의를 이용하여 구현된 것일 수도 있다. 전술한 정보 표시 방법을 구현하기 위한 프로그램은, 프로세서(140)에 의해 판독 가능한 기록매체에 기록될 수 있다. 이때, 기록매체는 메모리(150)일 수 있다.Here, the program may include program instructions, data files, and data structures, etc., singly or in combination. Programs may be designed and produced using machine code or high-level language code. The program may be specially designed to implement the above-described method for modifying the code, or may be implemented using various functions or definitions known and available to those skilled in the art in the field of computer software. A program for implementing the above-described information display method may be recorded on a recording medium readable by the
메모리(150)는 전술한 동작 및 후술하는 동작을 수행하는 프로그램을 저장할 수 있으며, 메모리(150)는 저장된 프로그램을 실행시킬 수 있다. 프로세서(140)와 메모리(150)가 복수인 경우에, 이들이 하나의 칩에 집적되는 것도 가능하고, 물리적으로 분리된 위치에 마련되는 것도 가능하다. 메모리(150)는 데이터를 일시적으로 기억하기 위한 S램(Static Random Access Memory, S-RAM), D랩(Dynamic Random Access Memory) 등의 휘발성 메모리를 포함할 수 있다. 또한, 메모리(150)는 제어 프로그램 및 제어 데이터를 장기간 저장하기 위한 롬(Read Only Memory), 이피롬(Erasable Programmable Read Only Memory: EPROM), 이이피롬(Electrically Erasable Programmable Read Only Memory: EEPROM) 등의 비휘발성 메모리를 포함할 수 있다.The
프로세서(140)는 각종 논리 회로와 연산 회로를 포함할 수 있으며, 메모리(150)로부터 제공된 프로그램에 따라 데이터를 처리하고, 처리 결과에 따라 제어 신호를 생성할 수 있다.The
도 3은 일 실시예에 따른 손실 함수를 연산하는 방법을 도시한 도면이다.Figure 3 is a diagram illustrating a method of calculating a loss function according to one embodiment.
도 3을 참조하면, 인공지능 학습부(130)는 제1 객체 영역(201)과 제2 객체 영역(401)의 유사성을 분석하고, 제1 배경 영역(202)과 제1 객체 영역(201)의 차이를 분석하여 손실 함수를 연산할 수 있다.Referring to FIG. 3, the artificial
[방정식 1][Equation 1]
구체적으로, [방정식 1]을 참조하면, Mfg는 이미지의 배경 영역을 산출하기 위하여 객체 영역을 마킹하는데 이용되는 인자이고, A는 attention map으로서 이미지에서 각 픽셀별로 객체 영역으로 인식된 정도를 나타내는 임베딩 값일 수 있다. Mfg는 각 픽셀에 대해서 1에서 A를 차감한 값(1-A)이 미리 정해진 임계값(θbg)을 초과하면 1로 설정될 수 있으며, 각 픽셀에 대해서 1에서 A를 차감한 값(1-A)이 미리 정해진 임계값(θbg) 이하이면 0으로 설정될 수 있다.Specifically, referring to [Equation 1], Mfg is a factor used to mark the object area to calculate the background area of the image, and A is an attention map, an embedding that indicates the degree to which each pixel in the image is recognized as an object area. It can be a value. Mfg can be set to 1 if the value obtained by subtracting A from 1 for each pixel (1-A) exceeds a predetermined threshold value θbg, and the value obtained by subtracting A from 1 for each pixel is 1-A. If A) is less than or equal to a predetermined threshold value (θbg), it may be set to 0.
[방정식 2][Equation 2]
[방정식 2]를 참조하면, Abg는 background attention map으로서 객체 영역이 마킹이 된 상태의 이미지에 대응되는 임베딩 인자일 수 있다. Abg는 각 픽셀에 대해서 1에서 A를 차감한 값(1-A)에 각 픽셀 별 Mfg값을 곱하여 산출할 수 있다. 결과적으로 Abg는 이미지에서 객체 영역이 제외되어 배경 영역을 나타내는 맵일 수 있다.Referring to [Equation 2], Abg is a background attention map and may be an embedding factor corresponding to an image in which the object area is marked. Abg can be calculated by subtracting A from 1 for each pixel (1-A) and multiplying the Mfg value for each pixel. As a result, Abg may be a map representing the background area by excluding the object area from the image.
[방정식 3][Equation 3]
[방정식 3]을 참조하면, 는 일 실시예에 따른 손실함수일 수 있다. 구체적으로, 는 트리플렛 손실(Triplet Loss)을 나타내는 함수일 수 있다.Referring to [Equation 3], may be a loss function according to one embodiment. Specifically, May be a function representing triplet loss.
트리플렛 손실은 앵커(anchor)를 positive input 및 negative input과 비교하는 인공 신경 네트워크에 대한 손실 함수(loss function)일 수 있다. 이때 앵커 인풋(anchor input) 과 positive input 사이의 거리(distance)는 최소화되어야 하며, 앵커 인풋(anchor input) 과 negative input과의 거리(distance)는 최대가 되도록 하는 것이 바람직할 수 있다. 트리플렛 손실은 워드 임베딩(word embeddings), 벡터 학습, 행렬 학습과 같은 임베딩 학습의 목적으로 유사성을 학습하는데 이용될 수 있다. 트리플렛 손실 함수(Triplet Loss Function)는 [방정식 3]과 같은 형태의 유클리디안 거리 함수(Euclidean Distance Function)의 형태를 할 수 있다.Triplet loss can be a loss function for an artificial neural network that compares an anchor with positive and negative inputs. At this time, it may be desirable to minimize the distance between the anchor input and the positive input, and to maximize the distance between the anchor input and the negative input. Triplet loss can be used to learn similarity for the purpose of embedding learning, such as word embeddings, vector learning, and matrix learning. The triplet loss function may take the form of a Euclidean distance function such as [Equation 3].
학습용 이미지(200)에 대한 임베딩 값인 Aorig 및 변환 이미지(400)에 대한 임베딩 값인 Atf는 positive input에 해당하는 임베딩 값일 수 있다.Aorig, which is an embedding value for the
Aorig2tf는 Aorig에 대하여 학습용 이미지(200)에 가해진 변환과 동일한 변환을 했을 때 생성되는 임베딩 값일 수 있다. Atf2orig는 Atf에 대하여 학습용 이미지(200)에 가해진 변환의 역변환을 했을 때 생성되는 임베딩 값일 수 있다. 이러한 Atf2orig 및 Aorig2tf는 앵커 인풋(anchor input)에 해당하는 임베딩 값일 수 있다. Abg는 negative inpout에 해당하는 임베딩 값일 수 있다.Aorig2tf may be an embedding value generated when the same transformation as the transformation applied to the
인공지능 학습부(130)는 손실 함수가 감소하도록 인공지능 모델을 학습할 수 있다. 즉, 인공지능 학습부(130)는 일 실시예에 따른 트리플렛 손실 함수()가 최소화되도록 학습을 수행할 수 있다.The artificial
즉, 인공지능 학습부(130)는 Atf2orig와 Aorig 사이의 거리(distance)가 최소가 되고, Atf2orig와 Abg와의 거리(distance)는 최대가 되도록 학습을 반복하여 수행할 수 있다. 또한, 인공지능 학습부(130)는 Aorig2tf와 Atf 사이의 거리(distance)가 최소가 되고, Aorig2tf와 Abg와의 거리(distance)는 최대가 되도록 학습을 반복하여 수행할 수 있다.That is, the artificial
결과적으로, 인공지능 학습부(130)는 앵커 인풋(anchor input) 과 positive input 사이의 거리(distance)는 최소화하고, 앵커 인풋(anchor input) 과 negative input과의 거리(distance)를 최대화하여 손실 함수가 감소하도록 인공지능 모델을 학습할 수 있다.As a result, the artificial
도 4는 일 실시예에 따라 복수개의 채널 중 일부 채널에 기초하여 객체 영역을 추출하는 것을 설명하기 위한 도면이며, 도 5는 일 실시예에 따라 복수개의 채널 중 일부 채널에 기초하여 객체 영역을 추출하는 것을 설명하기 위한 또다른 도면이다.FIG. 4 is a diagram illustrating extracting an object area based on some of a plurality of channels according to an embodiment, and FIG. 5 is a diagram illustrating extracting an object area based on some of a plurality of channels according to an embodiment. This is another drawing to explain what to do.
도 4를 참조하면, 기존의 객체 위치 검출 방법은 학습용 이미지(200)를 구성하는 복수개의 채널 전부에 대해서 풀링(Pooling)을 수행하여 객체 영역을 추출했다. 즉, 종래의 방법은 각 채널에 포함된 객체의 정보와 상관없이 단순히 각 채널들에 대한 객체 추출 결과를 평균 내어 최종적으로 객체 영역을 추출하였다.Referring to FIG. 4, the existing object location detection method extracts the object area by performing pooling on all of the plurality of channels constituting the
이러한 기존의 방식은 객체의 정보가 다른 채널에 비하여 다소 적게 포함된 채널에 대해서도 다른 채널과 동일한 비중을 두어 객체 영역을 추출하게 되므로 객체의 주변 배경에 대해서도 잘못된 인식을 수행할 수 있다는 문제가 있었다.This existing method extracts the object area by giving the same weight to other channels even for channels that contain slightly less object information than other channels, so there is a problem that it may perform incorrect recognition of the surrounding background of the object.
도 4 및 도 5를 참조하면, 일 실시예에 따른 객체 추출부(120)는 학습용 이미지(200)를 구성하는 복수개의 채널들 중 일부 채널인 제1 채널에 기초하여 제1 객체 영역(201)을 추출할 수 있다. 제1 채널은 복수개의 채널들 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널일 수 있다.Referring to FIGS. 4 and 5, the
또한, 객체 추출부(120)는 변환 이미지(400)를 구성하는 복수개의 채널들 중 일부 채널인 제2 채널에 기초하여 제2 객체 영역(401)을 추출할 수 있다. 제2 채널은 복수개의 채널들 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널일 수 있다.Additionally, the
즉, 객체 추출부(120)는 복수개의 채널들 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널에 대해 상대적으로 많은 가중치를 부여하고, 인식된 객체의 정보가 상대적으로 적게 포함된 채널에 대해 상대적으로 적은 가중치를 부여하여 평균을 내는 방식으로 객체의 영역을 추출할 수 있다.That is, the
결과적으로, 일 실시예에 따른 객체 위치 검출 방법은 객체의 정보가 상대적으로 많이 포함된 채널에 보다 높은 가중치를 두어 객체 영역을 추출할 수 있어서, 종래의 기술에 비하여 주변 배경을 객체로 인식하는 오류가 적게 발생할 수 있다는 효과가 있다.As a result, the object location detection method according to one embodiment can extract the object area by placing a higher weight on the channel containing relatively more information about the object, resulting in an error in recognizing the surrounding background as an object compared to the conventional technology. This has the effect of reducing the occurrence of .
학습용 이미지(200) 및 변환 이미지(400)는 복수개의 픽셀로 구성될 수 있다. 이때 일부 픽셀은 이미지에 포함된 객체의 정보를 포함하는 픽셀이고, 일부 픽셀은 객체의 정보를 전혀 포함하지 않은 주변 배경에 대한 픽셀일 수 있다.The
객체 추출부(120)는 학습용 이미지(200)의 채널을 구성하는 픽셀이 인식된 객체의 정보를 포함하는 픽셀인지 판단하고, 해당 학습용 이미지(200)의 채널에 대하여 객체의 정보를 포함하는 픽셀의 개수를 결정할 수 있다.The
객체 추출부(120)는 픽셀의 개수에 기초하여 복수개의 학습용 이미지(200)의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널을 제1 채널로 결정할 수 있다.The
이때, 제1 채널을 결정하는 방식은 복수개의 채널들 중 객체의 정보를 포함하는 픽셀의 개수가 많은 상위 몇 퍼센트의 채널들을 제1 채널로 결정하는 방식일 수 있다.At this time, a method of determining the first channel may be a method of determining the top few percent of channels with a large number of pixels containing object information among a plurality of channels as the first channel.
예를 들어, 채널의 개수가 4이고, 미리 설정된 비율 값이 50% 라면 객체 추출부(120)는 4개의 채널 중 객체의 정보를 포함하는 픽셀의 개수가 가장 많은 채널과 두번째로 많은 채널, 즉 2개의 채널을 제1 채널로 결정할 수 있다.For example, if the number of channels is 4 and the preset ratio value is 50%, the
한편, 전술한 방식은 학습용 이미지(200)에서 객체를 추출하는 과정만이 아니라 변환 이미지(400)에서 객체를 추출하는 과정에서도 사용될 수 있다.Meanwhile, the above-described method can be used not only in the process of extracting an object from the
객체 추출부(120)는 변환 이미지(400)의 채널을 구성하는 픽셀이 인식된 객체의 정보를 포함하는 픽셀인지 판단하고, 변환 이미지(400)의 채널에 대하여 객체의 정보를 포함하는 픽셀의 개수를 결정할 수 있다.The
또한, 객체 추출부(120)는 픽셀의 개수에 기초하여 복수개의 변환 이미지(400)의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널을 제2 채널로 결정할 수 있다.Additionally, the
한편, 제1 채널 및 제2 채널을 결정하는 방식이 반드시 복수개의 채널들 중 객체의 정보를 포함하는 픽셀의 개수가 많은 상위 몇 퍼센트의 채널들을 제1 채널 및 제2 채널로 결정하는 방식으로 한정되는 것은 아니며, 복수개의 채널들 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널에 대해 상대적으로 많은 가중치를 부여하여 평균을 내는 방식으로 객체의 영역을 추출할 수 있다면 어떠한 방식이 사용되더라도 상관없다.Meanwhile, the method of determining the first channel and the second channel is limited to determining the top few percent of channels with the largest number of pixels containing object information among a plurality of channels as the first channel and the second channel. It does not matter which method is used as long as the area of the object can be extracted by assigning a relatively large weight to the channel containing relatively more information about the recognized object among the plurality of channels and averaging it. .
도 6은 일 실시예에 따라 입력 이미지에서의 객체 위치를 결정하는 과정을 도시한 도면이다.FIG. 6 is a diagram illustrating a process for determining an object location in an input image according to an embodiment.
도 6을 참조하면, 객체 추출부(120)는 인공지능 모델을 이용하여 입력 이미지(300)로부터 제1 객체 영역(201)을 추출하도록 구성될 수 있다. 즉, 객체 추출부(120)는 학습용 이미지(200)에 기초하여 학습된 인공지능 모델을 통하여 실제로 사용자가 객체의 위치를 알고자 하는 입력 이미지(300)로부터 객체 영역을 추출할 수 있다.Referring to FIG. 6, the
프로세서(140)는 추출된 제1 객체 영역(201)을 기초로 입력 이미지(300)에서의 객체 위치를 결정할 수 있다. 이때, 프로세서(140)는 제1 객체 영역(201)을 기초로 입력 이미지(300) 상에 바운딩 박스(Bounding box)를 생성하고, 바운딩 박스의 좌표에 기초하여 입력 이미지(300)에서의 객체 위치를 결정할 수 있다.The
도 7은 일 실시예에 따른 객체 위치 검출 결과와 종래의 객체 위치 검출 결과를 나타낸 도면이다.Figure 7 is a diagram showing object position detection results according to one embodiment and conventional object position detection results.
도 7을 참조하면, 인공지능 모델을 학습하지 않은 상태(0 epoch), 인공지능 모델을 10번 학습한 상태(10 epoch) 및 인공지능 모델을 40번 학습한 상태(40 epoch) 별로 객체 위치 검출을 수행했을 때 종래의 객체 위치 검출 방법(Baseline) 및 본 발명의 객체 위치 검출 방법(Ours)에 따른 객체 위치 검출 결과를 확인할 수 있다.Referring to Figure 7, object location detection for each state in which the artificial intelligence model was not trained (0 epoch), the artificial intelligence model was trained 10 times (10 epochs), and the artificial intelligence model was trained 40 times (40 epochs). When performing, you can check the object position detection results according to the conventional object position detection method (Baseline) and the object position detection method of the present invention (Ours).
적색 박스(red box)는 미리 정해진 객체 위치의 정답(ground truth)을 나타낸 바운딩 박스일 수 있다.A red box may be a bounding box indicating the ground truth of a predetermined object location.
녹색 박스(green box)는 종래의 객체 위치 검출 방법 및 본 발명의 객체 위치 검출 방법에 따라 검출된 객체의 위치를 나타낸 바운딩 박스일 수 있다.The green box may be a bounding box indicating the location of the object detected according to the conventional object location detection method and the object location detection method of the present invention.
도 7을 참조하면, 인공지능 모델을 학습하지 않은 상태에서도 본 발명의 객체 위치 검출 방법(Ours)이 종래의 방법(Baseline)보다 정답에 가까운 객체 위치를 검출해낸 것을 확인할 수 있다. 즉, 본 발명의 객체 위치 검출 방법(Ours)은 객체의 주변 배경을 객체로 잘못 인식하는 오류가 덜 일어나는 것을 확인할 수 있다.Referring to Figure 7, it can be seen that the object location detection method (Ours) of the present invention detects an object location that is closer to the correct answer than the conventional method (Baseline) even without learning an artificial intelligence model. In other words, it can be confirmed that the object location detection method (Ours) of the present invention causes fewer errors in misrecognizing the surrounding background of an object as an object.
이는 본 발명의 객체 위치 검출 방법의 경우 종래의 방법과 달리 단순히 각 채널들에 대한 객체 추출 결과를 평균 내어 최종적으로 객체 영역을 추출한 것이 아니라 객체의 정보가 상대적으로 많이 포함된 채널에 보다 높은 가중치를 두어 객체 영역을 추출하였기 때문에 나타난 결과일 수 있다.In the case of the object location detection method of the present invention, unlike the conventional method, the final object area is not extracted by simply averaging the object extraction results for each channel, but rather a higher weight is assigned to the channel containing relatively more object information. This may be the result because two object areas were extracted.
인공지능 모델을 10번 학습한 상태 및 인공지능 모델을 40번 학습한 상태에서는 본 발명의 객체 위치 검출 방법(Ours)이 정답에 가까운 객체 위치를 보다 정확하게 검출한 것을 확인할 수 있다.It can be seen that the object location detection method (Ours) of the present invention more accurately detected the object location close to the correct answer in the state where the artificial intelligence model was learned 10 times and the artificial intelligence model was learned 40 times.
이상에서 설명된 구성요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성요소들의 상호 위치는 시스템의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.At least one component may be added or deleted in response to the performance of the components described above. Additionally, it will be easily understood by those skilled in the art that the mutual positions of the components may be changed in response to the performance or structure of the system.
도 8은 일 실시예에 따른 객체 위치 검출 방법의 순서도이다. 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 구성이 추가되거나 삭제될 수 있음은 물론이다.Figure 8 is a flowchart of an object location detection method according to an embodiment. This is only a preferred embodiment for achieving the purpose of the present invention, and of course, some components may be added or deleted as needed.
도 8을 참조하면, 변환 이미지 생성부(110)는 학습용 이미지(200)를 변환하여 변환 이미지(400)를 생성할 수 있다(1001). 이때, 변환 이미지 생성부(110)는 학습용 이미지(200)를 미리 정해진 각도로 회전시키거나, 확대하거나, 축소하거나, 대칭 변환하는 방식 중 하나의 방식으로 변환 이미지(400)를 생성할 수 있다.Referring to FIG. 8, the converted
객체 추출부(120)는 학습용 이미지(200)를 구성하는 복수개의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널인 제1 채널에 기초하여 제1 객체 영역(201)을 추출할 수 있다(1002).The
이때, 객체 추출부(120)는 학습용 이미지(200)의 채널을 구성하는 픽셀이 인식된 객체의 정보를 포함하는 픽셀인지 판단하고, 학습용 이미지(200)의 채널에 대하여 객체의 정보를 포함하는 픽셀의 개수를 결정하고, 픽셀의 개수에 기초하여 복수개의 학습용 이미지(200)의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널을 제1 채널로 결정할 수 있다.At this time, the
객체 추출부(120)는 변환 이미지(400)를 구성하는 복수개의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널인 제2 채널에 기초하여 제2 객체 영역(401)을 추출할 수 있다(1003).The
이때, 객체 추출부(120)는 변환 이미지(400)의 채널을 구성하는 픽셀이 인식된 객체의 정보를 포함하는 픽셀인지 판단하고, 변환 이미지(400)의 채널에 대하여 객체의 정보를 포함하는 픽셀의 개수를 결정하고, 픽셀의 개수에 기초하여 복수개의 변환 이미지(400)의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널을 제2 채널로 결정할 수 있다.At this time, the
인공지능 학습부(130)는 제1 객체 영역(201)과 제2 객체 영역(401)의 유사성을 분석할 수 있다(1004). 또한, 인공지능 학습부(130)는 제1 배경 영역(202)과 제1 객체 영역(201)의 차이를 분석할 수 있다(1005).The artificial
인공지능 학습부(130)는 전술한 분석 결과에 기초하여 손실 함수를 연산할 수 있다(1006). 이때, 인공기능 학습부가 연산하는 손실 함수는 트리플렛 손실 함수일 수 있다.The artificial
인공지능 학습부(130)는 손실 함수가 감소하도록 인공지능 모델을 학습할 수 있다(1007). 이때, 인공지능 학습부(130)는 트리플렛 손실 함수가 감소하도록 인공지능 모델을 반복하여 학습할 수 있다.The artificial
본 발명의 실시예에 따른 비지도 학습 기반의 객체 위치 검출 방법의 성능을 검증하기 위하여, 객체 위치 검출 실험을 진행하였다.In order to verify the performance of the unsupervised learning-based object location detection method according to an embodiment of the present invention, an object location detection experiment was conducted.
도 9는 일 실시예에 따른 객체 위치 검출 방법이 종래의 객체 위치 검출 방법에 비해 개선된 정도를 나타낸 표이다.Figure 9 is a table showing the degree of improvement of the object position detection method according to an embodiment compared to the conventional object position detection method.
도 9를 참조하면, 입력 이미지(300)에 대하여 회전 변환을 수행하여 객체의 위치를 검출했을 때, 종래의 방법에 사용되는 손실 함수()만을 연산하고 손실 함수를 감소시키는 방식(Baseline)보다 본 발명에 따른 트리플렛 손실 함수()를 연산하고 트리플렛 손실 함수를 감소시키는 방식 및 학습용 이미지(200)의 채널 별로 가중치를 다르게 부여하는 방식()을 모두 사용하는 방법(Ours(full))이 객체의 위치를 더 잘 검출하는 것을 확인할 수 있다.Referring to FIG. 9, when the position of the object is detected by performing rotation transformation on the
구체적으로, 객체 위치의 정답(ground truth)을 나타내는 바운딩 박스와 검출된 객체의 위치를 나타내는 바운딩 박스가 겹치는 비율이 30% 이상인 경우는 종래의 방법(Baseline)은 총 실험 횟수 중 96.75%였으나, 본 발명의 경우 총 실험 횟수 중 97.30% 임을 확인할 수 있다.Specifically, when the overlap ratio between the bounding box representing the ground truth of the object location and the bounding box representing the location of the detected object is more than 30%, the conventional method (Baseline) was 96.75% of the total number of experiments, but this In the case of invention, it can be confirmed that it is 97.30% of the total number of experiments.
또한, 객체 위치의 정답(ground truth)을 나타내는 바운딩 박스와 검출된 객체의 위치를 나타내는 바운딩 박스가 겹치는 비율이 70% 이상인 경우는 종래의 방법(Baseline)은 총 실험 횟수 중 28.66%에 불과하지만, 본 발명의 경우 총 실험 횟수 중 38.64%인 것을 확인할 수 있다.In addition, when the overlap ratio between the bounding box representing the ground truth of the object location and the bounding box representing the location of the detected object is more than 70%, the conventional method (Baseline) only accounts for 28.66% of the total number of experiments. In the case of the present invention, it can be confirmed that it is 38.64% of the total number of experiments.
도 9를 참조하면, 단순히 본 발명에 따른 트리플렛 손실 함수()를 연산하는 방법만 사용하는 객체 위치 검출 방법보다 종래의 방법에 사용되는 손실 함수()를 연산하는 방법 및 학습용 이미지(200)의 채널 별로 가중치를 다르게 부여하는 방법()을 모두 중첩적으로 이용하는 객체 위치 검출 방법의 성능이 뛰어난 것을 확인할 수 있다.Referring to Figure 9, simply the triplet loss function according to the present invention ( The loss function ( ) and a method of assigning different weights to each channel of the learning image 200 ( ) It can be seen that the performance of the object location detection method that uses both overlapping methods is excellent.
도 10은 일 실시예에 따라 복수개의 채널 중 일부 채널을 결정하는 기준을 설명하기 위한 도면이며, 도 11은 일 실시예에 따라 복수개의 채널 중 일부 채널을 결정하는 기준을 설명하기 위한 또다른 도면이다.FIG. 10 is a diagram for explaining criteria for determining some channels among a plurality of channels according to an embodiment, and FIG. 11 is another diagram for explaining criteria for determining some channels among a plurality of channels according to an embodiment. am.
도 10 및 도 11을 참조하면, 복수개의 채널들 중에서, 객체의 정보를 포함하는 픽셀의 개수가 많은 상위 몇 퍼센트의 채널들을 제1 채널 밀 제2 채널로 결정할지 미리 설정할 수 있다.Referring to FIGS. 10 and 11 , among a plurality of channels, it is possible to set in advance what percentage of channels with the highest number of pixels containing object information will be determined as the first channel or the second channel.
이때, 실험 결과에 의하면 객체의 정보를 포함하는 픽셀의 개수가 많은 상위 70%의 채널들이 제1 채널 밀 제2 채널로 결정되도록 설정하는 것이 가장 효과적으로 객체의 위치를 검출하는 것을 확인할 수 있다.At this time, according to the experimental results, it can be confirmed that setting the top 70% of channels with the largest number of pixels containing object information to be determined as the first channel and the second channel most effectively detects the location of the object.
도 12는 다양한 입력 이미지 변환에 대하여 일 실시예에 따른 위치 검출 방법이 종래의 위치 검출 방법에 비하여 개선된 정도를 나타낸 표이다.Figure 12 is a table showing the degree to which the position detection method according to an embodiment is improved compared to the conventional position detection method for various input image transformations.
도 12를 참조하면, 변환 이미지(400)를 생성할 때 이용되는 변환 방법에 관계없이, 본 발명에 따른 객체 위치 검출 방법(Ours)이 종래의 방법(Base)보다 객체의 위치를 검출하는 성능이 뛰어난 것을 확인할 수 있다.Referring to FIG. 12, regardless of the conversion method used when generating the converted image 400, the object location detection method (Ours) according to the present invention has better performance in detecting the location of the object than the conventional method (Base). You can see that it is excellent.
구체적으로, 회전 변환(Rotation), 확대 또는 축소하는 변환(Scale), 픽셀 단위로 이동시키는 변환(Translation), 가로 대칭 변환(Hflip), 세로 대칭 변환(Vflip) 등의 변환 방법 중 어느 방법을 이용하여 변환 이미지(400)를 생성하더라도 본 발명에 따른 객체 위치 검출 방법(Ours)이 종래의 방법(Base)보다 객체의 위치를 검출하는 성능이 뛰어난 것을 확인할 수 있다.Specifically, use any of the following transformation methods: rotation, enlargement or reduction (Scale), pixel-wise movement (Translation), horizontal symmetry transformation (Hflip), or vertical symmetry transformation (Vflip). Even when the converted image 400 is generated, it can be confirmed that the object position detection method (Ours) according to the present invention has better performance in detecting the position of the object than the conventional method (Base).
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As described above, the disclosed embodiments have been described with reference to the attached drawings. A person skilled in the art to which the present invention pertains will understand that the present invention can be practiced in forms different from the disclosed embodiments without changing the technical idea or essential features of the present invention. The disclosed embodiments are illustrative and should not be construed as limiting.
100: 객체 위치 검출 장치
110: 변환 이미지 생성부
120: 객체 추출부
130: 인공지능 학습부
140: 프로세서
150: 메모리
200: 학습용 이미지
201: 제1 객체 영역
202: 제1 배경 영역
300: 입력 이미지
400: 변환 이미지
401: 제2 객체 영역
402: 제2 배경 영역100: Object location detection device
110: Conversion image creation unit
120: Object extraction unit
130: Artificial Intelligence Learning Department
140: processor
150: memory
200: Image for training
201: first object area
202: first background area
300: input image
400: converted image
401: Second object area
402: Second background area
Claims (20)
(b) 객체 추출부에 의하여, 상기 학습용 이미지로부터 제1 객체 영역을 추출하고, 상기 변환 이미지로부터 제2 객체 영역을 추출하는 단계; 및
(c) 인공지능 학습부에 의하여, 상기 제1 객체 영역과 상기 제2 객체 영역을 비교하여 인공지능 모델을 학습하는 단계;를 포함하고,
상기(c) 단계는:
상기 인공지능 학습부에 의하여, 상기 학습용 이미지에서 상기 제1 객체 영역을 제외한 제1 배경 영역과 상기 변환 이미지에서 상기 제2 객체 영역을 제외한 제2 배경 영역을 비교하여 상기 인공지능 모델을 학습하는 단계;
상기 제1 객체 영역과 상기 제2 객체 영역의 유사성을 분석하고, 상기 제1 배경 영역과 상기 제1 객체 영역의 차이를 분석하여 손실 함수를 연산하는 단계; 및
상기 손실 함수가 감소하도록 상기 인공지능 모델을 학습하는 단계;를 포함하고,
상기 인공지능 모델을 학습하는 단계는:
상기 학습용 이미지에 대한 임베딩 값에 상기 학습용 이미지에 가해진 변환과 동일한 변환을 했을 때 생성되는 임베딩 값과 상기 제1 배경 영역의 이미지에 대응되는 임베딩 값과의 거리가 최대가 되도록 하여 상기 손실 함수가 감소하도록 상기 인공지능 모델을 학습하는 단계; 및
상기 변환 이미지에 대한 임베딩 값에 상기 학습용 이미지에 가해진 변환의 역변환을 했을 때 생성되는 임베딩 값과 상기 제2 배경 영역의 이미지에 대응되는 임베딩 값과의 거리가 최대가 되도록 하여 상기 손실 함수가 감소하도록 상기 인공지능 모델을 학습하는 단계를 포함하는, 비지도 학습 기반의 객체 위치 검출 방법.(a) converting the learning image to generate a converted image by a converted image generator;
(b) extracting a first object area from the learning image and extracting a second object area from the converted image by an object extractor; and
(c) learning an artificial intelligence model by comparing the first object area and the second object area by an artificial intelligence learning unit,
Step (c) above is:
Learning the artificial intelligence model by comparing, by the artificial intelligence learning unit, a first background area excluding the first object area in the learning image and a second background area excluding the second object area in the converted image. ;
calculating a loss function by analyzing similarity between the first object area and the second object area and analyzing a difference between the first background area and the first object area; and
Including; learning the artificial intelligence model to reduce the loss function,
The steps for learning the artificial intelligence model are:
The loss function is reduced by ensuring that the distance between the embedding value generated when the same transformation as the transformation applied to the training image is performed on the embedding value for the training image and the embedding value corresponding to the image of the first background area is maximized. learning the artificial intelligence model to do so; and
The loss function is reduced by maximizing the distance between the embedding value generated when the transformation applied to the learning image is inversely transformed to the embedding value for the transformed image and the embedding value corresponding to the image of the second background area. An unsupervised learning-based object location detection method, including the step of learning the artificial intelligence model.
상기 (b) 단계는:
(b1) 상기 학습용 이미지를 구성하는 복수개의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널인 제1 채널에 기초하여 상기 제1 객체 영역을 추출하는 단계; 및
(b2) 상기 변환 이미지를 구성하는 복수개의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널인 제2 채널에 기초하여 상기 제2 객체 영역을 추출하는 단계;를 포함하는 비지도 학습 기반의 객체 위치 검출 방법.According to paragraph 1,
Step (b) above is:
(b1) extracting the first object area based on a first channel, which is a channel containing relatively more information about the recognized object among the plurality of channels constituting the learning image; and
(b2) extracting the second object area based on a second channel, which is a channel containing relatively more information about the recognized object among the plurality of channels constituting the converted image; Object location detection method.
상기 (b1) 단계는:
상기 학습용 이미지의 채널을 구성하는 픽셀이 상기 인식된 객체의 정보를 포함하는 픽셀인지 판단하는 단계;
상기 학습용 이미지의 채널에 대하여 상기 객체의 정보를 포함하는 픽셀의 개수를 결정하는 단계; 및
상기 픽셀의 개수에 기초하여 상기 복수개의 학습용 이미지의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널을 상기 제1 채널로 결정하는 단계;를 포함하고,
상기 (b2) 단계는:
상기 변환 이미지의 채널을 구성하는 픽셀이 상기 인식된 객체의 정보를 포함하는 픽셀인지 판단하는 단계;
상기 변환 이미지의 채널에 대하여 상기 객체의 정보를 포함하는 픽셀의 개수를 결정하는 단계; 및
상기 픽셀의 개수에 기초하여 상기 복수개의 변환 이미지의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널을 상기 제2 채널로 결정하는 단계;를 포함하는 비지도 학습 기반의 객체 위치 검출 방법.According to paragraph 4,
Step (b1) above is:
determining whether a pixel constituting a channel of the learning image is a pixel containing information about the recognized object;
determining the number of pixels containing information about the object for a channel of the training image; and
and determining, as the first channel, a channel containing relatively more information about the recognized object among the channels of the plurality of training images based on the number of pixels,
Step (b2) above is:
determining whether a pixel constituting a channel of the converted image is a pixel containing information about the recognized object;
determining the number of pixels containing information about the object for a channel of the converted image; and
Based on the number of pixels, determining a channel containing relatively more information about the recognized object among the channels of the plurality of converted images as the second channel.
객체 추출부에 의하여, 상기 인공지능 모델을 이용하여 입력 이미지로부터 상기 제1 객체 영역을 추출하는 단계; 및
상기 추출된 제1 객체 영역을 기초로 상기 입력 이미지에서의 객체 위치를 결정하는 단계;를 더 포함하는 비지도 학습 기반의 객체 위치 검출 방법.According to paragraph 1,
Extracting, by an object extraction unit, the first object area from the input image using the artificial intelligence model; and
An unsupervised learning-based object location detection method further comprising: determining an object location in the input image based on the extracted first object area.
상기 (a) 단계는:
상기 변환 이미지 생성부에 의하여, 상기 학습용 이미지를 미리 정해진 각도로 회전시켜 상기 변환 이미지를 생성하는 단계;를 포함하는 비지도 학습 기반의 객체 위치 검출 방법.According to paragraph 1,
Step (a) above is:
An unsupervised learning-based object location detection method comprising: generating the transformed image by rotating the learning image at a predetermined angle, by the transformed image generator.
상기 (a) 단계는:
상기 변환 이미지 생성부에 의하여, 상기 학습용 이미지를 확대하거나 축소하여 상기 변환 이미지를 생성하는 단계;를 포함하는 비지도 학습 기반의 객체 위치 검출 방법.According to paragraph 1,
Step (a) above is:
An unsupervised learning-based object location detection method comprising: generating the converted image by enlarging or reducing the learning image by the converted image generator.
상기 (a) 단계는:
상기 변환 이미지 생성부에 의하여, 상기 학습용 이미지를 대칭 변환하여 상기 변환 이미지를 생성하는 단계;를 포함하는 비지도 학습 기반의 객체 위치 검출 방법.According to paragraph 1,
Step (a) above is:
An unsupervised learning-based object location detection method comprising: generating the transformed image by symmetrically transforming the learning image by the transformed image generator.
상기 학습용 이미지로부터 제1 객체 영역을 추출하고, 상기 변환 이미지로부터 제2 객체 영역을 추출하도록 구성되는 객체 추출부; 및
상기 제1 객체 영역과 상기 제2 객체 영역을 비교하여 인공지능 모델을 학습하도록 구성되는 인공지능 학습부;를 포함하고,
상기 인공지능 학습부는:
상기 학습용 이미지에서 상기 제1 객체 영역을 제외한 제1 배경 영역과 상기 변환 이미지에서 상기 제2 객체 영역을 제외한 제2 배경 영역을 비교하여 상기 인공지능 모델을 학습하고;
상기 제1 객체 영역과 상기 제2 객체 영역의 유사성을 분석하고, 상기 제1 배경 영역과 상기 제1 객체 영역의 차이를 분석하여 손실 함수를 연산하고;
상기 손실 함수가 감소하도록 상기 인공지능 모델을 학습하도록 구성되고;
상기 학습용 이미지에 대한 임베딩 값에 상기 학습용 이미지에 가해진 변환과 동일한 변환을 했을 때 생성되는 임베딩 값과 상기 제1 배경 영역의 이미지에 대응되는 임베딩 값과의 거리가 최대가 되도록 하여 상기 손실 함수가 감소하도록 상기 인공지능 모델을 학습하고; 그리고
상기 변환 이미지에 대한 임베딩 값에 상기 학습용 이미지에 가해진 변환의 역변환을 했을 때 생성되는 임베딩 값과 상기 제2 배경 영역의 이미지에 대응되는 임베딩 값과의 거리가 최대가 되도록 하여 상기 손실 함수가 감소하도록 상기 인공지능 모델을 학습하는, 비지도 학습 기반의 객체 위치 검출 장치.a conversion image generator configured to generate a conversion image by converting the learning image;
an object extraction unit configured to extract a first object area from the learning image and a second object area from the converted image; and
It includes an artificial intelligence learning unit configured to learn an artificial intelligence model by comparing the first object area and the second object area,
The artificial intelligence learning department:
learning the artificial intelligence model by comparing a first background area excluding the first object area in the training image with a second background area excluding the second object area in the converted image;
Analyzing the similarity between the first object area and the second object area, analyzing the difference between the first background area and the first object area, and calculating a loss function;
configured to learn the artificial intelligence model so that the loss function decreases;
The loss function is reduced by ensuring that the distance between the embedding value generated when the same transformation as the transformation applied to the training image is performed on the embedding value for the training image and the embedding value corresponding to the image of the first background area is maximized. learning the artificial intelligence model to do so; and
The loss function is reduced by maximizing the distance between the embedding value generated when the transformation applied to the training image is inversely transformed to the embedding value for the transformed image and the embedding value corresponding to the image of the second background area. An unsupervised learning-based object location detection device that learns the artificial intelligence model.
상기 객체 추출부는:
상기 학습용 이미지를 구성하는 복수개의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널인 제1 채널에 기초하여 상기 제1 객체 영역을 추출하고; 그리고
상기 변환 이미지를 구성하는 복수개의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널인 제2 채널에 기초하여 상기 제2 객체 영역을 추출하도록 구성되는, 비지도 학습 기반의 객체 위치 검출 장치.According to clause 12,
The object extraction unit:
extracting the first object area based on a first channel, which is a channel containing relatively more information about the recognized object among the plurality of channels constituting the learning image; and
An unsupervised learning-based object location detection device configured to extract the second object area based on a second channel, which is a channel containing relatively more information about the recognized object among the plurality of channels constituting the converted image.
상기 객체 추출부는:
상기 학습용 이미지의 채널을 구성하는 픽셀이 상기 인식된 객체의 정보를 포함하는 픽셀인지 판단하고;
상기 학습용 이미지의 채널에 대하여 상기 객체의 정보를 포함하는 픽셀의 개수를 결정하고;
상기 픽셀의 개수에 기초하여 상기 복수개의 학습용 이미지의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널을 상기 제1 채널로 결정하고;
상기 변환 이미지의 채널을 구성하는 픽셀이 상기 인식된 객체의 정보를 포함하는 픽셀인지 판단하고;
상기 변환 이미지의 채널에 대하여 상기 객체의 정보를 포함하는 픽셀의 개수를 결정하고; 그리고
상기 픽셀의 개수에 기초하여 상기 복수개의 변환 이미지의 채널 중 인식된 객체의 정보가 상대적으로 많이 포함된 채널을 상기 제2 채널로 결정하도록 구성되는, 비지도 학습 기반의 객체 위치 검출 장치.According to clause 15,
The object extraction unit:
Determine whether a pixel constituting a channel of the learning image is a pixel containing information about the recognized object;
determining the number of pixels containing information about the object for a channel of the training image;
determining a channel containing relatively more information about a recognized object among channels of the plurality of training images as the first channel based on the number of pixels;
determining whether a pixel constituting a channel of the converted image is a pixel containing information about the recognized object;
determine the number of pixels containing information about the object for a channel of the converted image; and
An unsupervised learning-based object location detection device configured to determine a channel containing relatively more information about a recognized object among channels of the plurality of converted images as the second channel based on the number of pixels.
프로세서;를 더 포함하고,
상기 객체 추출부는,
상기 인공지능 모델을 이용하여 입력 이미지로부터 상기 제1 객체 영역을 추출하도록 구성되고,
상기 프로세서는,
상기 추출된 제1 객체 영역을 기초로 상기 입력 이미지에서의 객체 위치를 결정하도록 구성되는, 비지도 학습 기반의 객체 위치 검출 장치.According to clause 12,
It further includes a processor;
The object extraction unit,
Configured to extract the first object area from the input image using the artificial intelligence model,
The processor,
An unsupervised learning-based object location detection device configured to determine an object location in the input image based on the extracted first object area.
상기 변환 이미지 생성부는,
상기 학습용 이미지를 미리 정해진 각도로 회전시켜 상기 변환 이미지를 생성하도록 구성되는, 비지도 학습 기반의 객체 위치 검출 장치.According to clause 12,
The converted image generator,
An unsupervised learning-based object location detection device configured to generate the transformed image by rotating the learning image at a predetermined angle.
상기 변환 이미지 생성부는,
상기 학습용 이미지를 확대하거나 축소하여 상기 변환 이미지를 생성하도록 구성되는, 비지도 학습 기반의 객체 위치 검출 장치.According to clause 12,
The converted image generator,
An unsupervised learning-based object location detection device configured to generate the converted image by enlarging or reducing the learning image.
상기 변환 이미지 생성부는,
상기 학습용 이미지를 대칭 변환하여 상기 변환 이미지를 생성하도록 구성되는, 비지도 학습 기반의 객체 위치 검출 장치.According to clause 12,
The converted image generator,
An unsupervised learning-based object location detection device configured to generate the transformed image by symmetrically transforming the learning image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210085271A KR102615510B1 (en) | 2021-06-30 | 2021-06-30 | Device for detecting the localization of object, method for detecting the localization of object and computer program stored in a recording medium to execute the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210085271A KR102615510B1 (en) | 2021-06-30 | 2021-06-30 | Device for detecting the localization of object, method for detecting the localization of object and computer program stored in a recording medium to execute the method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230003769A KR20230003769A (en) | 2023-01-06 |
KR102615510B1 true KR102615510B1 (en) | 2023-12-19 |
Family
ID=84924044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210085271A KR102615510B1 (en) | 2021-06-30 | 2021-06-30 | Device for detecting the localization of object, method for detecting the localization of object and computer program stored in a recording medium to execute the method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102615510B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102631427B1 (en) * | 2022-10-31 | 2024-01-30 | (주)케어마인드 | Method for preprocess images to predict recovery information for affected area |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100793288B1 (en) * | 2007-05-11 | 2008-01-14 | 주식회사 코아로직 | Image processing apparatus and method thereof |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180130925A (en) * | 2017-05-30 | 2018-12-10 | 국방과학연구소 | Artificial intelligent device generating a learning image for machine running and control method thereof |
KR20200003444A (en) * | 2018-07-02 | 2020-01-10 | 삼성전자주식회사 | Method and device to build image model |
KR20200063304A (en) * | 2018-11-19 | 2020-06-05 | 한국과학기술원 | Method for training detection of object |
-
2021
- 2021-06-30 KR KR1020210085271A patent/KR102615510B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100793288B1 (en) * | 2007-05-11 | 2008-01-14 | 주식회사 코아로직 | Image processing apparatus and method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20230003769A (en) | 2023-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11430259B2 (en) | Object detection based on joint feature extraction | |
CN111444881B (en) | Fake face video detection method and device | |
Gupta et al. | Synthetic data for text localisation in natural images | |
Adam et al. | Robust fragments-based tracking using the integral histogram | |
US8606022B2 (en) | Information processing apparatus, method and program | |
Lei et al. | Region-enhanced convolutional neural network for object detection in remote sensing images | |
WO2014205231A1 (en) | Deep learning framework for generic object detection | |
US8036468B2 (en) | Invariant visual scene and object recognition | |
KR102174658B1 (en) | Apparatus and method for recognizing activity and detecting activity duration in video | |
CN111832581B (en) | Lung feature recognition method and device, computer equipment and storage medium | |
CN112418278A (en) | Multi-class object detection method, terminal device and storage medium | |
JP6756406B2 (en) | Image processing equipment, image processing method and image processing program | |
KR102508067B1 (en) | Apparatus and Method for Generating Learning Data for Semantic Image Segmentation Based On Weak Supervised Learning | |
EP4246458A1 (en) | System for three-dimensional geometric guided student-teacher feature matching (3dg-stfm) | |
KR20220009757A (en) | Deep learning based anchor-free object detection method and apparatus | |
KR102615510B1 (en) | Device for detecting the localization of object, method for detecting the localization of object and computer program stored in a recording medium to execute the method | |
Lin et al. | Region-based context enhanced network for robust multiple face alignment | |
KR102537947B1 (en) | Method and device for detecting object location based on weak supervised learning | |
Lee et al. | Enhancement for automatic extraction of RoIs for bone age assessment based on deep neural networks | |
Lu et al. | Detection of image seam carving using a novel pattern | |
CN113807218B (en) | Layout analysis method, device, computer equipment and storage medium | |
CN113705511A (en) | Gesture recognition method and device | |
Škoviera et al. | Object recognition in clutter color images using Hierarchical Temporal Memory combined with salient-region detection | |
Li et al. | RepF-Net: Distortion-aware Re-projection Fusion Network for Object Detection in Panorama Image | |
KR102418476B1 (en) | Method of operating parking control system that precisely performs reading of license plates and readings of counterfeiting and contamination by using two-dimensional image data and three-dimensional depth data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |