KR20190130423A - 동영상 내 작은 물체를 실시간으로 세분화하는 방법 및 장치 - Google Patents

동영상 내 작은 물체를 실시간으로 세분화하는 방법 및 장치 Download PDF

Info

Publication number
KR20190130423A
KR20190130423A KR1020180055117A KR20180055117A KR20190130423A KR 20190130423 A KR20190130423 A KR 20190130423A KR 1020180055117 A KR1020180055117 A KR 1020180055117A KR 20180055117 A KR20180055117 A KR 20180055117A KR 20190130423 A KR20190130423 A KR 20190130423A
Authority
KR
South Korea
Prior art keywords
image
frame
divided
divided images
foreground
Prior art date
Application number
KR1020180055117A
Other languages
English (en)
Other versions
KR102565849B1 (ko
Inventor
김광용
박상준
엄기문
이창은
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020180055117A priority Critical patent/KR102565849B1/ko
Priority to US16/203,417 priority patent/US10825185B2/en
Publication of KR20190130423A publication Critical patent/KR20190130423A/ko
Application granted granted Critical
Publication of KR102565849B1 publication Critical patent/KR102565849B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 영상에서 물체를 세분화(object segmentation)하는 방법 및 장치에 대한 것으로 보다 상세하게는 입력 받은 영상의 화면이 두 개 이상으로 분할되고, 이를 결합하여 하나의 영상을 생성하되 분할된 영상 각각에 영상 세분화(Segmentation) 알고리즘을 적용하는 것을 포함한다.

Description

동영상 내 작은 물체를 실시간으로 세분화하는 방법 및 장치{A method and Apparatus for segmentation small objects of moving pictures in real-time}
본 발명은 동영상 내 물체 세분화(object segmentation)에 관한 기술 분야로서, 동영상 내 작은 물체들을 실시간으로 세분화하는 방법에 관한 것이다.
정지 영상 또는 동영상에서 전경 내 존재하는 물체(예: 인물, 자동차, 동물 등)의 경계선(boundary) 내부를 세분화하는 기술로서 물체 세분화(object segmentation) 또는 시멘틱 세분화(Segmentation) 기술에 해당한다.
Convolutional Neural Network (CNN)에 기반한 이미지 세분화 알고리즘은 의미 영역을 세분화 할 때 큰 성공을 보여 주며, 특히, 완전 컨볼루션 네트워크 (FCN:Fully Convolutional Network)는 기존의 CNN 기반 분류 아키텍처를 세분화 아키텍처로 수정하여 시멘틱 세분화 문제에 우수한 세분화 능력을 보인다.
그러나 FCN은 기본적으로 선형 보간 방법을 통해 픽셀 단위의 레이블 맵을 만들기 때문에 거친 세분화화 결과를 생성하므로 작은 물체를 세분화하기가 어렵다.
그래서 물체 경계에 대해 국부적인 세부 사항을 보존하는 세밀한 세분화 결과를 얻어내려면 CRF(Conditional Random Field) 알고리즘을 사후 보정을 위해 추가 사용해야 한다. 이때 사용되는 많은 하이퍼 매개 변수를 사용해야 하는데 세밀한 세분화화 결과를 얻으려면 이러한 매개 변수를 신중하게 수작업으로 수행해야 하는 단점이 있다.
또한 사후 처리는 높은 계산 비용을 필요로 하며 예로 해상도 500 Х 500 이미지 내의 물체를 세분화하는 데 0.5초 정도가 걸릴 정도로 세분화 처리 속도가 느리다.
거친 세분화화 문제를 해결하고자 디컨벌루션(Deconvolution) 네트워크를 사용하는 방법이 제안되었으나 네트워크 구조가 여러 개의 레이어와 매개 변수로 구성되어 학습 속도가 너무 느리다는 단점이 있다.
이와 같이 종래의 물체 세분화 및 시멘틱 세분화 기술은 작은 물체에 대해서 세밀히 세분화하기가 어렵고 네트워크 레이어가 너무 깊고 많아서 학습 속도가 너무 느리며 동영상 내 전경 속의 물체를 세밀하게 세분화하면서 실시간으로 처리하기가 어렵다.
이와 같은 문제를 해결하기 위해 동영상 내 전경 속의 작은 물체를 세분화하면서 연속으로 재생되는 동영상 프레임들에서 물체들을 실시간으로 세분화하기 위한 방법을 제안한다.
본 발명은 물체를 세밀하게 세분화 처리하는 방법 및 장치를 제공하는데 목적이 있다.
본 발명은 동영상 내 전경 속의 물체를 실시간으로 영상 세분화 처리하는 방법 및 장치를 제공하는데 목적이 있다.
본 발명은 작은 물체에 대해 영상 세분화 처리하는 방법 및 장치를 제공하는데 목적이 있다.
본 발명은 빠른 속도로 영상 세분화를 처리하는 방법 및 장치를 제공하는데 목적이 있다.
본 발명은 효율적으로 영상 세분화를 처리하는 방법 및 장치를 제공하는데 목적이 있다.
본 발명은 효율적으로 객체를 검출하는 방법 및 장치를 제공하는데 목적이 있다.
본 발명은 효율적으로 객체를 인식하는 방법 및 장치를 제공하는데 목적이 있다.
본 발명은 효율적으로 객체를 추적하는 방법 및 장치를 제공하는데 목적이 있다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 따라, 영상에서 물체를 세분화(object segmentation)하는 방법을 제공할 수 있다. 이 때 영상에서 물체를 세분화하는 방법은 영상을 입력 받는 단계, 입력 받은 영상의 화면이 두 개 이상으로 분할되는 단계, 두 개 이상으로 분할된 영상 각각을 결합하여 다시 하나의 영상으로 생성하는 단계를 포함한다.
이 때 화면이 분할된 영상들은 화면 간 일부 중첩된 부분이 있도록 분할되며, 분할된 영상 각각에 영상 세분화(Segmentation) 알고리즘을 적용하고, 세분화 알고리즘이 적용된 분할 영상들을 결합하여 입력 받은 영상과 동일한 크기의 영상을 생성할 수 있다.
또한, 다음의 실시예들은 영상에서 물체를 세분화(object segmentation)하는 방법 및 장치에서 공통으로 적용될 수 있다.
본 발명의 일 실시예에 따라, 입력 받은 영상의 제 1 프레임 및 제 2 프레임에서 제 1 프레임은 제 2 프레임보다 시간상으로 우선하는 프레임이 될 수 있다. 이 때 제 1 프레임 및 제 2 프레임 각각에 포함된 제 1 오브젝트를 파악하고, 제 1 프레임 및 제 2 프레임 각각에 포함된 제 1 오브젝트 간의 교차범위가 계산될 수 있다.
본 발명의 일 실시예에 따라, 제 1 프레임은 세분화 알고리즘이 적용된 분할 영상들을 결합하여 생성된 영상이고, 제 2 프레임은 입력 받은 영상이 될 수 있다.
본 발명의 일 실시예에 따라, 입력 받은 영상의 제 1 프레임 및 제 2 프레임은 시간상 입력 받은 영상의 연속되는 두 프레임이 될 수 있다.
본 발명의 일 실시예에 따라, 픽셀 단위의 데이터 연관 (Data association) 매칭으로 제 1 프레임 및 제 2 프레임 각각에 포함된 제 1 오브젝트 간의 교차범위를 판단할 수 있다.
본 발명의 일 실시예에 따라, 계산된 제 1 오브젝트 간의 교차 범위가 제 1 임계치 이상인 경우 제 2 프레임의 제 1 오브젝트를 전경 영역으로 판단할 수 있다. 또한 계산된 제 1 오브젝트 간의 교차 범위가 제 1 임계치 보다 작은 경우, 제 2 프레임의 제 1 오브젝트를 전경 영역에서 삭제할 수 있다.
본 발명의 일 실시예에 따라, 영상 세분화 알고리즘은 완전 컨볼루션 네트워크(Fully Convolutional Network)가 될 수 있다
본 발명의 일 실시예에 따라, 분할된 영상 각각에 영상 세분화(Segmentation) 알고리즘을 적용하는 경우, 데이터 셋(Data Set)으로 미세조정(Fine-tuning)을 학습할 수 있다.
본 발명의 일 실시예에 따라, 데이터 셋은 학습용 영상과 기준 목표 영상(Ground Truth)으로 구성되어 있으며, 기준 목표 영상은 학습용 영상의 전경 영역과 배경 영역이 흑백으로 분리되어 표현된 영상이 될 수 있다.
본 발명의 일 실시예에 따라, 데이터 셋을 이용한 선행학습(Pre-training)을 통해 완전 컨볼루션 네트워크(Fully Convolutional Network)를 학습할 수 있다.
본 발명의 일 실시예에 따라, 영상에서 물체를 세분화(object segmentation)하는 장치를 제공할 수 있다. 영상에서 물체를 세분화하는 장치는 영상 입력부 및 영상 입력부를 제어하는 제어부를 포함할 수 있다.
이 때 제어부는 영상을 입력 받고, 입력 받은 영상의 화면을 두 개 이상으로 분할하고, 두 개 이상으로 분할된 영상 각각을 결합하여 다시 하나의 영상으로 생성할 수 있다.
본 발명의 일 실시예에 따라, 화면이 분할된 영상들은 화면 간 일부 중첩된 부분이 있도록 분할되며, 분할된 영상 각각에 영상 세분화(Segmentation) 알고리즘을 적용하고, 세분화 알고리즘이 적용된 분할 영상들을 결합하여 입력 받은 영상과 동일한 크기의 영상을 생성할 수 있다.
본 발명에 의하면 물체를 세밀하게 세분화 처리하는 방법 및 장치를 제공할 수 있다.
본 발명에 의하면 동영상 내 전경 속의 물체를 실시간으로 영상 세분화 처리하는 방법 및 장치를 제공할 수 있다.
본 발명에 의하면 작은 물체에 대해 영상 세분화 처리하는 방법 및 장치를 제공할 수 있다.
본 발명에 의하면 빠른 속도로 영상 세분화를 처리하는 방법 및 장치를 제공할 수 있다.
본 발명에 의하면 효율적으로 영상 세분화를 처리하는 방법 및 장치를 제공할 수 있다.
본 발명에 의하면 효율적으로 객체를 검출하는 방법 및 장치를 제공할 수 있다.
본 발명에 의하면 효율적으로 객체를 인식하는 방법 및 장치를 제공할 수 있다.
본 발명에 의하면 효율적으로 객체를 추적하는 방법 및 장치를 제공할 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 영상에서 물체를 세분화(object segmentation)하는 방법에 대한 흐름도이다.
도 2는 입력 받은 영상의 화면이 분할된 영상을 나타낸 도면이다.
도 3은 분할된 화면에 세분화 알고리즘을 적용한 결과를 나타내는 도면이다.
도 4는 분할된 영상이 하나로 결합된 결과를 나타내는 도면이다.
도 5는 학습용 데이터 셋(Set)의 구성을 나타낸 도면이다.
도 6은 영상 세분화를 적용하여 전경 영역과 배경 영역으로 분리하는 과정을 나타낸 흐름도이다.
도 7은 ILSVRC 학습 데이터 셋을 이용한 FCN 학습에 대한 도면이다.
도 8은 Pre-training을 통한 파라미터 초기화에 대한 도면이다.
도 9는 학습용 데이터 셋을 이용한 Fine-tuning을 나타내는 도면이다.
도 10은 전경 영역의 검출 및 오류 보정에 관한 흐름도이다.
도 11은 전경 영역 검출 및 오류 보정에 대한 도면이다.
도 12는 전경 영역 추적 방법에 대한 도면이다.
도 13은 영상에서 물체를 세분화(object segmentation)하는 장치에 대한 도면이다.
이하에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
본 발명의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 발명에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 발명에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 발명에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 발명의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다.
본 발명에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시예도 본 발명의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 발명의 범위에 포함된다.
본 발명은 동영상 내 물체 세분화(object segmentation)에 관한 기술 분야로서, 동영상 내 작은 물체들을 실시간으로 세분화하는 방법에 관한 것이다. 보다 상세하게는 종래의 물체 세분화(Segmentation) 및 시멘틱 세분화 기술은 다수의 작은 물체에 대해서 세밀히 세분화하기가 어렵고 네트워크 레이어가 너무 깊고 많아서 학습 속도가 너무 느리며 동영상 내 전경 속의 물체를 세밀하게 세분화하면서 실시간으로 처리하기가 어렵기 때문에 이와 같은 문제를 해결하기 위해 전경 내 다수의 작은 물체를 세밀히 세분화하고 연속 재생되는 동영상 프레임 내의 작은 물체들을 실시간으로 세분화하기 위한 방법을 제안하고자 함이다.
이하, 첨부한 도면을 참조하여 본 발명의 실시 예들에 대해서 설명한다.
도 1은 영상에서 물체를 세분화(object segmentation)하는 방법에 대한 흐름도이다.
도 1을 참고하면, 물체를 세분화하는 장치는 영상을 입력 받고(S110), 입력 받은 영상의 화면을 분할(S120) 한다. 분할된 영상 각각에 세분화 알고리즘을 적용(S130)하고, 분할된 영상은 하나의 영상으로 결합(S140)된다. 결합된 영상에서 전경 영역은 검출 및 추적(S150)된다. 결합된 영상에서 전경 영역에 대한 오류 판정 및 보정(S160)이 수행된다. 영상이 종료되면 절차를 종료하나, 영상이 진행되는 경우 영상을 결합하는 단계(S140)로 돌아가 물체를 세분화하는 과정을 반복(S170)한다.
도 2는 입력 받은 영상의 화면이 분할된 영상을 나타낸 도면이다. 분할된 영상에 세분화 알고리즘을 적용하기 위해, 입력 영상(210)을 분할한다.
이 때, 입력 이미지(210)의 해상도 및 입력 이미지내의 전경 영역은 일정 크기에 해당되어야 한다. 보다 상세하게는, 입력 영상(210)의 해상도가 큰 경우, 예를 들어 1920 X 1080 이미지인 경우는 세분화 결과가 불량으로 도출될 수 있다. 또한 입력 이미지(210) 내 물체의 크기가 작은 경우에도 세분화하고자 하는 물체의 크기가 작아져서 물체 영역 세분화 결과가 불량이 될 수 있다.
입력 받은 영상이 분할(220)될 때, 영상은 일부 영역이 중첩되도록 분할될 수 있다. 분할된 화면의 개수는 사용자가 지정할 수 있으며, 2보다 같거나 큰 값이 될 수 있다.
도 2를 참고할 때, 입력 받은 아이스 하키 경기영상(210)은 4개의 작은 영상(220)으로 분리되었다.
도 3은 분할된 화면에 세분화 알고리즘을 적용한 결과를 나타내는 도면이다.
세분화하고자 하는 입력 영상(310)은 다수 개의 작은 크기 영상(320)으로 분할된다. 그 후 작은 크기의 영상들을 일부 중첩한 후 중첩된 작은 영상들 단위 각각에 영상 세분화(Segmentation) 알고리즘을 적용한다. 일 실시예에 따른 영상 세분화 알고리즘은 완전 컨볼루션 네트워크(FCN, Fully Convolutional Network)가 될 수 있고, Convolutional Neural network도 될 수 있다. 이 때, FCN 기반 세분화(Segmentation) 알고리즘은 정확성과 빠른 수행 속도를 가진바 본 발명에서 영상 세분화(Segmentation) 알고리즘으로 사용될 수 있다. 영상 세분화 알고리즘, 특히 FCN을 적용하여 전경 물체 영역을 세분화한 영상(330)을 생성할 수 있다.
이 때, 입력 영상이 여러 개의 사이즈가 작은 영상으로 분할되고, 이때 분할된 영상들 간 중첩(overlap)이 발생하도록 하였으므로, 전경 물체 영역은 세밀하게 세분화가 가능하다.
도 4는 분할된 영상이 하나로 결합된 결과를 나타내는 도면이다.
분할된 영상(410)이 하나의 결합된 영상으로 통합(420)된다. 이때, 분할된 영상(410)은 도 2 및 3의 과정을 통해 FCN이 적용되어 물체가 세분화된 영상에 해당된다.
이 때 하나의 결합된 영상으로 통합(420)된 영상은 입력 받은 영상, 즉 원본 영상과 동일한 크기의 영상일 수 있다.
이 때, 원본 영상을 사용하는 대신 작은 영상의 크기를 조정하기 때문에 크기가 조정된 작은 영상 내의 물체 영역의 크기가 원본 영상 내의 물체 영역 크기보다 크다. 보다 상세하게는, 분할된 작은 영상 내에서 전경 물체가 차지하고 있는 비율이 원본 영상 내 에서 전경 물체가 차지하고 있는 비율보다 크다. 따라서, 입력 받은 영상(원본)에 바로 FCN을 적용하여 전경 물체를 세분화하는 것이 아닌바, 세밀한 전경 물체 세분화가 가능하다.
도 5는 학습용 데이터 셋(Set)의 구성을 나타낸 도면이다.
학습용 데이터 셋(Set)(510)은 학습용 영상(520)과 기준 목표 영상(Ground Truth)(530)의 데이터가 쌍으로 구성되어 있다. 학습용 데이터 셋(Set)(510)을 이용하여 FCN 미세 조정(Fine- tuning)을 학습할 수 있다.
학습용 영상(520)은 정지 영상일 수도 있으나, 연속적인 이미지 프레임일 수도 있다.
기준 목표 영상(530)은 학습용 영상(520)이 배경 영역(532)과 전경 영역(534)으로 구분된 영상일 수 있다. 이 때, 기준 목표 영상(530)은 전경 영역(534)과 배경 영역(532)이 구분되어 흑백으로 처리된 영상에 해당될 수 있다.
학습용 데이터 셋(510)은 FCN을 학습하기 위해서 수만 개의 셋(Set)이 필요하다. 다만, 학습용 데이터 셋(510)이 수만 개의 셋으로 구비되는 것은 현실적으로 불가능하므로 Pre-training(선행 학습)을 통해 FCN을 학습할 수 있다. 이 때, 일 실시 예에 따라 학습 데이터 셋(510)은 총 6천장이 될 수 있고, 학습 데이터 셋(510)을 사용하여 FCN을 미세 조정(Fine- tuning) 학습할 수 있다.
본 발명의 일 실시예에 따라, 학습용 데이터 셋(510)은 ILSVRC 등을 이용하여 사용될 수 있다.
도 5를 참고하면, 학습용 영상(510)은 아이스 하키 경기 영상이고, 기준 목표 영상(Ground Truth)은 학습용 아이스 하키 경기 영상을 배경과 전경 영역(아이스하키 선수 영역)으로 분리하여 흑백으로 처리한 영상에 해당된다.
도 6는 영상 세분화를 적용하여 전경 영역과 배경 영역으로 분리하는 과정을 나타낸 흐름도이다.
도 7은 ILSVRC 학습 데이터 셋을 이용한 FCN 학습에 대한 도면이고, 도 8는 Pre-training을 통한 파라미터 초기화에 대한 도면이고, 도 9은 학습용 데이터 셋을 이용한 Fine-tuning을 나타내는 도면이다.
도 6는 도 1의 '분할된 영상 각각에 세분화 알고리즘 적용'(S130) 및 도 3의 분할된 영상(320)을 FCN이 적용된 영상(330)으로 변환하는 과정에 대한 구체적인 설명에 해당한다.
학습용 데이터 셋이 생성(S610)되고, 입력 받은 영상이 분할(S620, S630)된다. 도 7은 해당 과정과 관련된 결과 화면을 나타내며, 구체적으로는 ILSVRC 학습 데이터 셋을 이용한 FCN 학습에 대한 도면에 해당된다.
학습용 데이터 셋을 이용하여 입력 받은 영상에 대해 선행학습(Pre-training)(S640)을 하고, Pre-training을 통해 파라미터가 초기화 (S650)된다. 도 8은 해당 과정과 관련된 결과 화면을 나타내며, 구체적으로는 Pre-training을 통한 파라미터 초기화를 나타낸 도면에 해당된다.
그 후 입력 받은 영상은 미세 조정(Fine- tuning)(S660)된다. 도 9는 해당 과정과 관련된 결과 화면을 나타내며, 학습용 데이터 셋을 이용하여 Fine-tuning된 결과물을 나타낸 도면에 해당된다.
그 후 입력 받은 영상의 전경 물체 영역 및 배경 영역이 분리된 영상을 생성(S670)한다.
도 10은 전경 영역의 검출 및 오류 보정에 관한 흐름도이다.
도 10의 과정은 도 1의 '전경 영역 검출 및 추적'(S150) 및 '전경 영역 오류 판정 및 보정'(S160)하는 단계에 대한 상세한 설명이다.
현재 프레임(이하 제 2 프레임으로 명한다.) 영상이 입력(S1010) 되고, 과거 프레임(이하 제 1 프레임으로 명한다.) 영상이 입력 된 후(S1020), 전경 물체 영역 및 배경 영역 분리(물체 세분화)(S1030)가 수행된다.
제 1 프레임 및 제 2 프레임은 입력 받은 영상의 프레임을 지칭할 수 있다. 이 때 제 1 프레임은 상기 제 2 프레임보다 시간상으로 우선하는 프레임을 의미한다. 제 1 프레임과 제 2 프레임은 시간상으로 연속하는 프레임일 수 있으나, 일정 시간의 차이가 존재하는 프레임일 수 있다.
제 1 오브젝트는 프레임상에서 추적되는 특정한 물체가 될 수 있다. 이는 전경 물체가 될 수 있다. 다만, 오류 판정 및 보정에 의해 전경 물체 또는 배경 물체로 분류될 수 있다.
제 1 임계치는 제 1 프레임과 제 2 프레임간 비교된 전경영역 교차범위에 해당되는 값으로서 사용자가 정한 임의의 수이다. 보다 상세하게는, 제 1 임계치는 사용자가 제 2 프레임에서도 해당 영역을 전경 영역으로 인정할 수 있을 정도로 제 1 프레임 및 제 2 프레임 간 전경영역이 교차되는 범위에 해당하는 값에 해당될 수 있다.
제 1 프레임 및 제 2 프레임 각각에 포함된 제 1 오브젝트를 파악(S1040)한다. 그 후 제 1 프레임 및 제 2 프레임 각각에 포함된 제 1 오브젝트 간의 교차범위를 계산(S1050)한다. 계산된 교차 범위가 제 1 임계치 이상인지 판단(S1060)한다.
도 11은 전경 영역 검출 및 오류 보정에 대한 도면이다.
전경 영역 오류를 수정하기 위해 영상 프레임간 추적 후 거짓 긍정(False positive) 기반 전경 영역 오류 판정 및 보정을 수행한다.
제 1 프레임에서 전경 물체 영역 검출결과(1110) 및 제 2 프레임에서 전경 물체 영역 검출 결과(1120)간의 비교를 통해 전경 영역 추적을 수행한다. 보다 상세하게는 매 프레임마다 전경 물체 영역이 세분화 되면 픽셀 단위의 데이터 연관(data association) 방법의 관점에서 전경 물체 영역 추적을 할 수 있다.
도 12는 전경 영역 추적 방법에 대한 도면이다.
전경 물체를 판단하기 위해 두 인접 프레임간의 전경 물체의 교차 범위를 비교한다. 즉 제 1 프레임 영상에 존재하는 전경 물체 영역(1210)과 제 2 프레임 영상에 존재하는 전경 물체 영역(1220)을 판단한다. 그리고 전경 물체의 영역 중 특정 IoU (Intersection of Union)영역(1230)을 확인한다.
이 때, IoU (Intersection of Union)영역(1230)은 제 1 프레임과 제 2 프레임간 전경영역의 교차범위에 해당될 수 있다. 보다 상세하게는, 제 1 프레임과 제 2 프레임간 전경영역 중 교차범위가 전체 전경영역 중 차지하고 있는 비율로 표현될 수 있다. 이하 청구범위에서는 제 1 프레임 및 제 2 프레임 각각에 포함된 상기 제 1 오브젝트 간의 교차범위라고 명한다.
해당 IoU(1230)와 제 1 임계치의 크기를 비교한다. IoU와 제 1 임계치의 크기를 비교하여, IoU의 크기가 제 1 임계치보다 크거나 같은 영역에 대해서만 전경 물체 영역으로 판정한다. 그렇지 않으면 False positive(거짓 긍정)으로 간주되어 최종 물체 세분화 영역 결과에서 제거하고 다음 프레임으로 추적하면서 판정 및 보정 반복 수행하게 된다.
예를 들어, 현재 프레임인 268번째 프레임(제 2 프레임)에서 아이스 하키 선수 영역으로서 잘못 세분화 된 영역을 포함하고 있는 경우, 전경 영역 추적 및 보정이 수행된다. 이전 프레임인 267번째 프레임(제 1 프레임)의 선수 영역이 배경으로 세분화 되었기 때문에 현재 프레임 268번째 영역(제 2 프레임)을 거짓 긍정으로 간주하고 이 부분을 전경 물체 영역에서 제거하게 된다.
이 때 일 실시예로, 인접한 두 프레임이 아닌 연속된 일정 프레임 시간 간격 존재하는 경우에도 적용할 수 있다. 보다 상세하게는 t 시간 프레임과 t+a 시간 프레임간의 비교를 수행할 수 있다. 이 때 a 는 일정 프레임 길이 시간이 경과한 것을 의미한다.
양 프레임의 비교를 통해 IoU(Intersection of Union) 값이 임계치보다 큰 영역으로 판정되면 전경 물체 영역으로 판단하도록 확장할 수 있다. 즉, 연속적으로 전경 물체 영역인지를 비교하여 전경 물체 영역 여부 판정 확장 가능하다.
도 13은 영상에서 물체를 세분화(object segmentation)하는 장치에 대한 도면이다.
영상에서 물체를 세분화하는 장치에는 입력부(1310)와 영상 입력부를 제어하는 제어부(1320)이 포함된다.
제어부(1320)는 영상을 입력 받고, 입력 받은 영상의 화면을 두 개 이상으로 분할하고, 두 개 이상으로 분할된 영상 각각을 결합하여 다시 하나의 영상으로 생성한다. 화면이 분할된 영상들은 화면 간 일부 중첩된 부분이 있도록 분할되며, 제어부(1320)는 분할된 영상 각각에 영상 세분화(Segmentation) 알고리즘을 적용하고, 세분화 알고리즘이 적용된 분할 영상들을 결합하여 입력 받은 영상과 동일한 크기의 영상을 생성한다.
입력 받은 영상의 제 1 프레임 및 제 2 프레임에서 제 1 프레임은 제 2 프레임보다 시간상으로 우선하는 프레임이 될 수 있다.
제어부(1320)는 제 1 프레임 및 제 2 프레임 각각에 포함된 제 1 오브젝트를 파악하고, 제 1 프레임 및 제 2 프레임 각각에 포함된 제 1 오브젝트 간의 교차범위를 계산할 수 있다.
보다 상세하게는 제어부(1320)는 픽셀 단위의 데이터 연관 (Data association) 매칭으로 제 1 프레임 및 제 2 프레임 각각에 포함된 상기 제 1 오브젝트 간의 교차범위를 판단할 수 있다.
이 때, 계산된 제 1 오브젝트 간의 교차 범위가 제 1 임계치 이상인 경우 제 2 프레임의 제 1 오브젝트를 전경 영역으로 판단할 수 있다. 또한 계산된 제 1 오브젝트 간의 교차 범위가 제 1 임계치 보다 작은 경우 제 2 프레임의 제 1 오브젝트를 전경 영역에서 삭제할 수 있다.
일 실시예로, 영상 세분화 알고리즘은 완전 컨볼루션 네트워크(Fully Convolutional Network)가 될 수 있다.
제어부(1320)는 분할된 영상 각각에 영상 세분화(Segmentation) 알고리즘을 적용하는 경우, 데이터 셋(Data Set)으로 미세조정(Fine-tuning)을 학습할 수 있다.
이 때 데이터 셋은 학습용 영상과 기준 목표 영상(Ground Truth)으로 구성되어 있으며, 기준 목표 영상은 학습용 영상의 전경 영역과 배경 영역이 흑백으로 분리되어 표현된 영상이 될 수 있다. 일 실시예로, 데이터 셋을 이용한 선행학습(Pre-training)을 통해 완전 컨볼루션 네트워크(Fully Convolutional Network)를 학습할 수 있다.
본 발명은 픽셀 단위의 data association(데이터 연관) 방법을 사용하므로 세분화 속도 측면에서 가장 효율적인 발명이 될 수 있다. 또한 시간에 따른 전경 물체 영역 추적을 통해 잘못된 전경 물체 영역을 False positive(거짓 긍정) 판정에 따라 제거하는 간단한 계산 알고리즘을 사용하기 때문에 영상 프레임내 작은 물체 영역을 실시간으로 세분화 할 수 있다.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위 뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.
1310: 입력부
1320: 제어부

Claims (20)

  1. 영상에서 물체를 세분화(object segmentation)하는 방법에 있어서,
    영상을 입력 받는 단계;
    상기 입력 받은 영상의 화면이 두 개 이상으로 분할되는 단계; 및
    상기 두 개 이상으로 분할된 영상 각각을 결합하여 다시 하나의 영상으로 생성하는 단계;
    를 포함하되,
    상기 화면이 분할된 영상들은 화면 간 일부 중첩된 부분이 있도록 분할되며,
    상기 분할된 영상 각각에 영상 세분화(Segmentation) 알고리즘을 적용하고,
    상기 세분화 알고리즘이 적용된 분할 영상들을 결합하여 상기 입력 받은 영상과 동일한 크기의 영상을 생성하는 것
    을 특징으로 하는 물체를 세분화하는 방법.
  2. 제 1항에 있어서
    상기 입력 받은 영상의 제 1 프레임 및 제 2 프레임에서
    상기 제 1 프레임은 상기 제 2 프레임보다 시간상으로 우선하는 프레임이고,
    상기 제 1 프레임 및 제 2 프레임 각각에 포함된 제 1 오브젝트를 파악하고,
    상기 제 1 프레임 및 제 2 프레임 각각에 포함된 제 1 오브젝트 간의 교차범위를 계산하는 것을 특징으로 하는 물체를 세분화하는 방법.
  3. 제 2항에 있어서
    상기 제 1 프레임은 상기 세분화 알고리즘이 적용된 분할 영상들을 결합하여 생성된 영상이고,
    상기 제 2 프레임은 상기 입력 받은 영상인 것을 특징으로 하는 물체를 세분화하는 방법.
  4. 제 2항에 있어서
    상기 입력 받은 영상의 제 1 프레임 및 제 2 프레임은 시간상 상기 입력 받은 영상의 연속되는 두 프레임인 것을 특징으로 하는 물체를 세분화하는 방법.
  5. 제 2 항에 있어서
    픽셀 단위의 데이터 연관 (Data association) 매칭으로
    상기 제 1 프레임 및 제 2 프레임 각각에 포함된 상기 제 1 오브젝트 간의 교차범위를 판단하는 것을 특징으로 하는 물체를 세분화하는 방법.
  6. 제 2 항에 있어서
    상기 계산된 제 1 오브젝트 간의 교차 범위가 제 1 임계치 이상인 경우
    상기 제 2 프레임의 상기 제 1 오브젝트를 전경 영역으로 판단하는 것을 특징으로 하는 물체를 세분화하는 방법.
  7. 제 2 항에 있어서
    상기 계산된 제 1 오브젝트 간의 교차 범위가 제 1 임계치 보다 작은 경우
    상기 제 2 프레임의 상기 제 1 오브젝트를 전경 영역에서 삭제하는 것을 특징으로 하는 물체를 세분화하는 방법.
  8. 제 1항에 있어서
    상기 영상 세분화 알고리즘은 완전 컨볼루션 네트워크(Fully Convolutional Network)인 것을 특징으로 하는 물체를 세분화하는 방법.
  9. 제 1항에 있어서
    상기 분할된 영상 각각에 영상 세분화(Segmentation) 알고리즘을 적용하는 경우,
    데이터 셋(Data Set)으로 미세조정(Fine-tuning)을 학습하는 것을 특징으로 하는 물체를 세분화하는 방법.
  10. 제 9항에 있어서
    상기 데이터 셋은 학습용 영상과 기준 목표 영상(Ground Truth)으로 구성되어 있으며,
    상기 기준 목표 영상은 상기 학습용 영상의 전경 영역과 배경 영역이 흑백으로 분리되어 표현된 영상인 것을 특징으로 하는 물체를 세분화하는 방법.
  11. 제 9항에 있어서
    상기 데이터 셋을 이용한 선행학습(Pre-training)을 통해
    완전 컨볼루션 네트워크(Fully Convolutional Network)를 학습하는 것을 특징으로 하는 물체를 세분화하는 방법.
  12. 영상에서 물체를 세분화(object segmentation)하는 장치에 있어서,
    영상 입력부; 및
    상기 영상 입력부를 제어하는 제어부;를 포함하되,
    상기 제어부는
    영상을 입력 받고,
    상기 입력 받은 영상의 화면이 두 개 이상으로 분할되고,
    상기 두 개 이상으로 분할된 영상 각각을 결합하여 다시 하나의 영상으로 생성하되,
    상기 화면이 분할된 영상들은 화면 간 일부 중첩된 부분이 있도록 분할되며,
    상기 분할된 영상 각각에 영상 세분화(Segmentation) 알고리즘을 적용하고,
    상기 세분화 알고리즘이 적용된 분할 영상들을 결합하여 상기 입력 받은 영상과 동일한 크기의 영상을 생성하는 것
    을 특징으로 하는 물체를 세분화하는 장치.
  13. 제 12항에 있어서
    상기 입력 받은 영상의 제 1 프레임 및 제 2 프레임에서
    상기 제 1 프레임은 상기 제 2 프레임보다 시간상으로 우선하는 프레임이고,
    상기 제 1 프레임 및 제 2 프레임 각각에 포함된 제 1 오브젝트를 파악하고,
    상기 제 1 프레임 및 제 2 프레임 각각에 포함된 제 1 오브젝트 간의 교차범위를 계산하는 것을 특징으로 하는 물체를 세분화하는 장치.
  14. 제 13항에 있어서
    픽셀 단위의 데이터 연관 (Data association) 매칭으로
    상기 제 1 프레임 및 제 2 프레임 각각에 포함된 상기 제 1 오브젝트 간의 교차범위를 판단하는 것을 특징으로 하는 물체를 세분화하는 장치.
  15. 제 13 항에 있어서
    상기 계산된 제 1 오브젝트 간의 교차 범위가 제 1 임계치 이상인 경우
    상기 제 2 프레임의 상기 제 1 오브젝트를 전경 영역으로 판단하는 것을 특징으로 하는 물체를 세분화하는 장치.
  16. 제 13 항에 있어서
    상기 계산된 제 1 오브젝트 간의 교차 범위가 제 1 임계치 보다 작은 경우
    상기 제 2 프레임의 상기 제 1 오브젝트를 전경 영역에서 삭제하는 것을 특징으로 하는 물체를 세분화하는 장치.
  17. 제 12항에 있어서
    상기 영상 세분화 알고리즘은 완전 컨볼루션 네트워크(Fully Convolutional Network)인 것을 특징으로 하는 물체를 세분화하는 장치.
  18. 제 12항에 있어서
    상기 분할된 영상 각각에 영상 세분화(Segmentation) 알고리즘을 적용하는 경우,
    데이터 셋(Data Set)으로 미세조정(Fine-tuning)을 학습하는 것을 특징으로 하는 물체를 세분화하는 장치.
  19. 제 18항에 있어서
    상기 데이터 셋은 학습용 영상과 기준 목표 영상(Ground Truth)으로 구성되어 있으며,
    상기 기준 목표 영상은 상기 학습용 영상의 전경 영역과 배경 영역이 흑백으로 분리되어 표현된 영상인 것을 특징으로 하는 물체를 세분화하는 장치.
  20. 제 19항에 있어서
    상기 데이터 셋을 이용한 선행학습(Pre-training)을 통해
    완전 컨볼루션 네트워크(Fully Convolutional Network)를 학습하는 것을 특징으로 하는 물체를 세분화하는 장치.
KR1020180055117A 2018-05-14 2018-05-14 동영상 내 작은 물체를 실시간으로 세분화하는 방법 및 장치 KR102565849B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180055117A KR102565849B1 (ko) 2018-05-14 2018-05-14 동영상 내 작은 물체를 실시간으로 세분화하는 방법 및 장치
US16/203,417 US10825185B2 (en) 2018-05-14 2018-11-28 Method and apparatus for performing segmentation of small objects within moving pictures in real-time

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180055117A KR102565849B1 (ko) 2018-05-14 2018-05-14 동영상 내 작은 물체를 실시간으로 세분화하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20190130423A true KR20190130423A (ko) 2019-11-22
KR102565849B1 KR102565849B1 (ko) 2023-08-11

Family

ID=68463694

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180055117A KR102565849B1 (ko) 2018-05-14 2018-05-14 동영상 내 작은 물체를 실시간으로 세분화하는 방법 및 장치

Country Status (2)

Country Link
US (1) US10825185B2 (ko)
KR (1) KR102565849B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12008737B2 (en) 2020-08-07 2024-06-11 Nanotronics Imaging, Inc. Deep learning model for noise reduction in low SNR imaging conditions

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10628919B2 (en) * 2017-08-31 2020-04-21 Htc Corporation Image segmentation method and apparatus
US10706503B2 (en) * 2018-03-13 2020-07-07 Disney Enterprises, Inc. Image processing using a convolutional neural network
US20200137380A1 (en) * 2018-10-31 2020-04-30 Intel Corporation Multi-plane display image synthesis mechanism
JP7082587B2 (ja) * 2019-03-20 2022-06-08 株式会社日立製作所 画像処理装置、画像処理方法及び画像処理システム
CN110033463B (zh) * 2019-04-12 2021-06-04 腾讯科技(深圳)有限公司 一种前景数据生成及其应用方法、相关装置和系统
US11891067B2 (en) * 2019-12-11 2024-02-06 Electronics And Telecommunications Research Institute Vehicle control apparatus and operating method thereof
CN112001939B (zh) * 2020-08-10 2021-03-16 浙江大学 基于边缘知识转化的图像前景分割算法
CN112491999B (zh) * 2020-11-18 2022-10-11 成都佳华物链云科技有限公司 一种数据上报方法及装置
CN112927231B (zh) * 2021-05-12 2021-07-23 深圳市安软科技股份有限公司 车身污垢检测模型的训练方法、车身污垢检测方法及装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7085401B2 (en) * 2001-10-31 2006-08-01 Infowrap Systems Ltd. Automatic object extraction
US8233676B2 (en) * 2008-03-07 2012-07-31 The Chinese University Of Hong Kong Real-time body segmentation system
US9584814B2 (en) * 2014-05-15 2017-02-28 Intel Corporation Content adaptive background foreground segmentation for video coding
KR101648208B1 (ko) 2015-09-08 2016-08-12 김동기 고해상도 영상을 이용한 객체 인식 및 추적 방법 및 장치
KR102565485B1 (ko) 2016-01-11 2023-08-14 한국전자통신연구원 도시 거리 검색 서비스 제공 서버 및 방법
KR102433391B1 (ko) 2016-01-14 2022-08-17 한국전자통신연구원 음식 검색 서비스 제공 장치 및 방법
KR101803471B1 (ko) 2016-02-15 2017-12-01 성균관대학교 산학협력단 컨볼루션 신경망 기반의 영상 패턴화를 이용한 딥러닝 시스템 및 이를 이용한 영상 학습방법
KR101828340B1 (ko) 2016-06-28 2018-02-12 동국대학교 산학협력단 객체 추출 방법 및 그 장치
KR101830512B1 (ko) 2016-07-08 2018-02-20 전자부품연구원 Dl과 pde을 복합 적용하여 최적화한 영상 세그먼테이션 방법 및 시스템
US10671855B2 (en) * 2018-04-10 2020-06-02 Adobe Inc. Video object segmentation by reference-guided mask propagation

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Jian Ren, "Computer aided analysis of prostate histopathology images to support a refined Gleason grading system",Proceedings Volume 10133, Medical Imaging 2017: Image Processing(2017.02.24.)* *
Olaf Ronneberger, "U-Net: Convolutional Networks for Biomedical Image Segmentation", MICCAI 2015: Medical Image Computing and Computer-Assisted Intervention(2015.11.18.)* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12008737B2 (en) 2020-08-07 2024-06-11 Nanotronics Imaging, Inc. Deep learning model for noise reduction in low SNR imaging conditions

Also Published As

Publication number Publication date
US10825185B2 (en) 2020-11-03
KR102565849B1 (ko) 2023-08-11
US20190347804A1 (en) 2019-11-14

Similar Documents

Publication Publication Date Title
KR20190130423A (ko) 동영상 내 작은 물체를 실시간으로 세분화하는 방법 및 장치
US10194203B2 (en) Multimodal and real-time method for filtering sensitive media
CN112990191B (zh) 一种基于字幕视频的镜头边界检测与关键帧提取方法
KR100997064B1 (ko) 멀티-모드 관심-영역 비디오 오브젝트 세그먼트화
KR100983204B1 (ko) 인터-모드 관심-영역 비디오 오브젝트 세그먼트화
US8280165B2 (en) System and method for segmenting foreground and background in a video
EP2457214B1 (en) A method for detecting and adapting video processing for far-view scenes in sports video
US9444977B2 (en) Method and device for adaptive noise measurement of a video signal
KR100853954B1 (ko) 비디오 화상의 분할-기반의 강조 수행 시스템 및 방법
US11710315B2 (en) Method, electronic apparatus and storage medium for detecting a static logo of a video
CN105678732A (zh) 一种点球、角球和任意球关键帧的检测方法和装置
WO2021073066A1 (zh) 图像处理方法及装置
US20170011528A1 (en) Method for controlling tracking using a color model, corresponding apparatus and non-transitory program storage device
Raj et al. Feature based video stabilization based on boosted HAAR Cascade and representative point matching algorithm
CA3061908C (en) Ball trajectory tracking
CN112598691A (zh) 图像处理装置、图像处理方法和存储介质
CN115294162A (zh) 目标识别方法、装置、设备及存储介质
Zhang et al. Online action detection in streaming videos with time buffers
Zin et al. Background modeling using special type of Markov Chain
WO2020115565A1 (en) Ball trajectory tracking
KR101374380B1 (ko) 소형 디스플레이 기기에서 비디오 영상의 효과적인 시각화를 위한 정적 관심 영역 검출 장치 및 방법
Chuprov et al. Are industrial ml image classifiers robust to withstand adversarial attacks on videos?
Ogawa et al. A robust and fast object tracking method using a dynamic mask and an adaptive search
CN115035151B (zh) 梳状失真的检测方法、装置、计算机设备及存储介质
Karakostas et al. Explaining and verifying the robustness of Visual Object Trackers to noise

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant