KR102285039B1 - 다중 클래스화를 이용한 샷 경계 검출 방법 및 장치 - Google Patents
다중 클래스화를 이용한 샷 경계 검출 방법 및 장치 Download PDFInfo
- Publication number
- KR102285039B1 KR102285039B1 KR1020190165768A KR20190165768A KR102285039B1 KR 102285039 B1 KR102285039 B1 KR 102285039B1 KR 1020190165768 A KR1020190165768 A KR 1020190165768A KR 20190165768 A KR20190165768 A KR 20190165768A KR 102285039 B1 KR102285039 B1 KR 102285039B1
- Authority
- KR
- South Korea
- Prior art keywords
- frame
- type
- cut
- boundary detection
- image
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 56
- 238000013145 classification model Methods 0.000 claims abstract description 34
- 238000012549 training Methods 0.000 claims description 25
- 238000000034 method Methods 0.000 claims description 21
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 230000002123 temporal effect Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 2
- 230000007704 transition Effects 0.000 abstract description 14
- 238000005516 engineering process Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 238000001914 filtration Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G06K9/00711—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G06T5/002—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/142—Edging; Contouring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
실시예들은 프레임을 다중 클래스화함으로써 보다 향상된 정확도를 갖는 샷 경계 검출 기술을 제공할 수 있다. 보다 구체적으로, 실시예들은 영상에 포함된 샷들 사이의 전환에 기초하여 샷들 사이의 경계를 지시하는 컷과 관련된 프레임의 유형을 분류하는 분류모델에 따라, 복수의 프레임들을 컷과 무관한 프레임에 대응하는 제1 유형, 컷의 이전 프레임에 대응하는 제2 유형 및 컷의 이후 프레임에 대응하는 제3 유형 중 어느 하나로 분류하여, 영상 내 적어도 하나의 컷을 검출하는 단계를 포함한다.
Description
아래 실시예들은 영상에 포함된 샷들 사이의 전환에 기초하여 샷들 사이의 경계를 지시하는 컷을 검출하는 방법 및 장치에 관한 것이다.
디지털 영상 기술 및 인터넷 등 통신 기술의 발달로 디지털 동영상 저작물의 생산 및 보급이 증가하고 있다. 디지털 영상 데이터의 효과적인 기록 및 검색을 가능하게 하기 위해서는 영상 이미지의 정보를 이용하는 것이 효율적이므로, 영상을 분할하고 색인하는 파싱(parsing) 기능이 요구된다. 영상은 영상의 기본 단위인 샷(shot)으로 분할될 수 있는데, 샷이란 영상 제작자의 편집을 거치지 않은 연속적인 카메라 이동으로 얻어진 가장 작은 단위의 영상 데이터를 의미한다. 샷은 매치컷(match cut), 디졸브(dissolve), 페이드(fade), 와이프(wipe) 등과 같은 여러 가지 장면 변환 기법으로 연결되어 있으며, 이러한 샷과 샷의 경계를 컷이라고 지칭할 수 있다. 영상에서 샷의 경계, 즉 컷을 검출하는 기술은 영상의 분할 및 색인을 가능하게 하는 기술로, 영상 데이터를 효과적으로 관리하고 영상 내용에 기반한 검색을 위한 핵심적인 기술이다.
현재까지 경계 검출을 위한 많은 연구가 진행되었고, 최근에는 샷이 전환되면서 변경되는 영상 이미지의 특징에 기초하여 머신러닝 기술로 샷 경계를 검출하는 기술이 다양하게 개발되고 있다. 머신러닝을 이용하면서 샷 경계 검출의 정확도가 개선되었으나, 효과적인 영상 데이터 관리를 위한 보다 정확한 샷 경계 검출 기술이 요구되고 있다.
실시예들은 기존의 샷 경계 검출 기술을 개선하여 프레임을 다중 클래스화함으로써 보다 향상된 정확도를 갖는 샷 경계 검출 기술을 제공할 수 있다.
보다 구체적으로, 기존의 기술은 프레임을 컷과 무관한 프레임 및 컷에 해당하는 프레임 유형으로 분류하여 머신러닝을 이용한 샷 경계 검출 기술을 제공하고 있었으나, 실시예들은 컷에 해당하는 프레임을 컷의 이전 프레임, 컷의 이후 프레임으로 다중 클래스화함으로써 기존의 기술보다 개선된 샷 경계 검출 기술을 제공할 수 있다.
일 측에 따른 샷 경계 검출 방법은 복수의 프레임들을 포함하는 영상을 입력받는 단계; 상기 영상을 프레임 단위로 나누는 단계; 상기 영상에 포함된 샷들 사이의 전환에 기초하여 상기 샷들 사이의 경계를 지시하는 컷과 관련된 프레임의 유형을 분류하는 분류모델에 따라, 상기 복수의 프레임들을 컷과 무관한 프레임에 대응하는 제1 유형, 컷의 이전 프레임에 대응하는 제2 유형 및 컷의 이후 프레임에 대응하는 제3 유형 중 어느 하나로 분류하는 단계; 및 상기 분류모델로부터 프레임 순서대로 출력되는 유형들의 시퀀스에 기초하여, 상기 영상 내 적어도 하나의 컷을 검출하는 단계를 포함한다.
상기 제2 유형은 컷의 직전 프레임에 대응하고, 상기 제3 유형은 컷의 직후 프레임에 대응할 수 있다.
상기 컷을 검출하는 단계는 상기 시퀀스로부터, 상기 제2 유형의 프레임 및 상기 제2 유형의 프레임 뒤에 인접한 상기 제3 유형의 프레임을 포함하는 프레임 페어(pair)를 추출하는 단계; 및 상기 프레임 페어에 포함된 두 프레임들 중 적어도 하나를 상기 컷에 대응하는 적어도 하나의 프레임으로 검출하는 단계를 포함할 수 있다.
상기 컷을 검출하는 단계는 상기 컷을 위하여 미리 정의된 유형 패턴에 기초하여, 상기 시퀀스 내 적어도 하나의 제2 유형이나 적어도 하나의 제3 유형이 노이즈인지 여부를 판단하는 단계; 및 상기 판단 결과에 기초하여 상기 적어도 하나의 제2 유형이나 상기 적어도 하나의 제3 유형을 상기 제1 유형으로 변경함으로써, 상기 노이즈를 제거하는 단계를 포함할 수 있다.
상기 복수의 프레임들에는 시간적 순서에 따라 인덱스 번호가 부여된 것을 특징으로 할 수 있다.
상기 컷을 검출하는 단계는 상기 시퀀스로부터, 상기 제2 유형의 프레임 및 상기 제2 유형의 프레임 뒤에 인접한 상기 제3 유형의 프레임을 포함하는 프레임 페어(pair)를 추출하는 단계; 및 상기 프레임 페어에 포함된 두 프레임들 중 적어도 하나의 인덱스 번호를 출력하는 단계를 포함할 수 있다.
상기 분류모델은 신경망을 포함하고, 상기 신경망의 파라미터들은 트레이닝 영상에 기초하여, 상기 트레이닝 영상의 프레임 이미지로부터 상기 트레이닝 영상의 프레임 유형을 추정하도록 학습(training)된 것을 특징으로 할 수 있다.
일 측에 따른 샷 경계 검출 장치는 영상 내 샷들 사이의 경계를 지시하는 컷과 관련된 프레임의 유형을 분류하는 분류모델을 저장하는 메모리; 및 상기 분류모델에 따라 입력 영상에 포함된 복수의 프레임들을 컷과 무관한 프레임에 대응하는 제1 유형, 컷의 직전 프레임에 대응하는 제2 유형 및 컷의 직후 프레임에 대응하는 제3 유형 중 어느 하나로 분류하고, 상기 분류모델로부터 프레임 순서대로 출력되는 유형들의 시퀀스에 기초하여 상기 입력 영상 내 적어도 하나의 컷을 검출하는 적어도 하나의 프로세서를 포함한다.
상기 프로세서는 상기 시퀀스로부터, 상기 제2 유형의 프레임 및 상기 제2 유형의 프레임 뒤에 인접한 상기 제3 유형의 프레임을 포함하는 프레임 페어(pair)를 추출하고, 상기 프레임 페어에 포함된 두 프레임들 중 적어도 하나를 상기 컷에 대응하는 적어도 하나의 프레임으로 검출할 수 있다.
상기 프로세서는 상기 컷을 위하여 미리 정의된 유형 패턴에 기초하여, 상기 시퀀스 내 적어도 하나의 제2 유형이나 적어도 하나의 제3 유형이 노이즈인지 여부를 판단하고, 상기 판단 결과에 기초하여 상기 적어도 하나이 제2 유형이나 상기 적어도 하나의 제3 유형을 상기 제1 유형으로 변경함으로써, 상기 노이즈를 제거할 수 있다.
상기 프로세서는 상기 시퀀스로부터, 상기 제2 유형의 프레임 및 상기 제2 유형의 프레임 뒤에 인접한 상기 제3 유형의 프레임을 포함하는 프레임 페어(pair)를 추출하고, 상기 프레임 페어에 포함된 두 프레임들 중 적어도 하나의 인덱스 번호를 출력할 수 있다.
도 1은 일 실시예에 따른 영상의 구조 및 용어를 설명하기 위한 도면.
도 2는 일 실시예에 따른 샷 경계 검출 기술이 구현된 장치를 도시한 도면.
도 3은 일실시예에 따른 분류모델의 생성을 위한 학습기의 구성을 도시한 도면.
도 4는 일실시예에 따른 샷 경계 검출 방법의 전체적인 흐름을 도시한 도면.
도 5는 일 실시예에 따른 다중 프레임 유형을 설명하는 도면.
도 6은 일 실시예에 따른 컷 검출 기법을 설명하는 도면.
도 7a 및 도 7b는 일 실시예에 따른 컷 검출 기법을 기존 컷 검출 기법과 비교하기 위한 도면들.
도 2는 일 실시예에 따른 샷 경계 검출 기술이 구현된 장치를 도시한 도면.
도 3은 일실시예에 따른 분류모델의 생성을 위한 학습기의 구성을 도시한 도면.
도 4는 일실시예에 따른 샷 경계 검출 방법의 전체적인 흐름을 도시한 도면.
도 5는 일 실시예에 따른 다중 프레임 유형을 설명하는 도면.
도 6은 일 실시예에 따른 컷 검출 기법을 설명하는 도면.
도 7a 및 도 7b는 일 실시예에 따른 컷 검출 기법을 기존 컷 검출 기법과 비교하기 위한 도면들.
본 명세서에서 개시되어 있는 특정한 구조적 또는 기능적 설명들은 단지 기술적 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 실시예들은 다양한 다른 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.
제1 또는 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 이해되어야 한다. 예를 들어 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~간의에"와 "바로~간의에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일 실시예에 따른 영상의 구조 및 용어를 설명하기 위한 도면이다.
도 1을 참조하면, 영상(video)은 복수의 샷(shot)들을 포함할 수 있고, 각각의 샷은 복수의 프레임(frame)들을 포함할 수 있다. 보다 구체적으로, 샷이란 카메라의 연속적인 촬영으로 얻어진 영상 데이터로, 예를 들어 카메라의 프레이밍 및 움직임을 통하여 촬영된 일련의 장면(scene)을 포함할 수 있다. 샷은 영상 제작자의 편집을 거치지 않은 상태의 영상 데이터를 포함할 수 있다.
프레임은 영상을 구성하는 정지된 이미지 한 장을 의미한다. 또한, 컷이란 인접한 두 개의 샷의 경계를 의미하는 것으로 인접한 두 샷 중 시간순서 상 앞에 위치한 샷을 구성하는 마지막 프레임과 뒤에 위치한 샷을 구성하는 첫번째 프레임의 경계에 해당한다. 이하에서 컷은 '샷 경계' 또는 '샷의 경계'로 지칭될 수 있다.
도 2는 일 실시예에 따른 샷 경계 검출 기술이 구현된 장치를 도시한 도면이다. 도 2를 참조하면, 샷 경계 검출 장치는 입력부(200), 분류부(210) 및 검출부(220)를 포함한다. 샷 경계 검출 장치의 구성들은 프로세서에 의하여 구현될 수 있으며, 도 2에 도시된 입력부(200), 분류부(210) 및 검출부(220)의 구성은 일실시예에 따른 장치의 구성의 예시에 불과한 것으로 복수의 프로세서에서 구현될 수도 있다.
일실시예에 따른 샷 경계 검출 장치는 샷 경계 검출의 대상이 되는 영상을 입력받아 프레임 단위로 나누고, 각각의 프레임을 영상의 화면 전환에 기초한 분류모델에 따라 복수의 유형들로 분류할 수 있다. 복수의 유형들은 컷과 무관한 프레임에 대응하는 유형(이하, 제1 유형), 컷의 이전 프레임에 대응하는 유형(이하, 제2 유형) 및 컷의 이후 프레임에 대응하는 유형(이하, 제3 유형)을 포함할 수 있다. 샷 경계 검출 장치는 각각의 프레임을 세 가지 유형 중 어느 하나로 분류함으로써 샷 경계를 검출할 수 있다.
일실시예에 따를 때, 제2 유형은 컷의 직전 프레임에 대응될 수 있고, 제3 유형은 컷의 직후 프레임에 대응될 수 있다. 도 5를 참조하면, 예를 들어, 분류모델로부터 시간 순서대로 출력되는 유형들의 시퀀스 상에서 컷(503)의 직전에 위치한 프레임(501)은 제2 유형에 해당할 수 있고, 컷의 직후에 위치한 프레임(502)은 제3 유형에 해당할 수 있으며, 그 외의 프레임은 제1 유형에 해당할 수 있다.
실시예에 따를 때, 입력부(200)는 샷 경계 검출의 대상이 되는 영상을 입력받아 영상을 프레임 단위로 나누어 분류부(210)에 전달하는 구성에 해당할 수 있다. 예를 들어, 입력부(200)는 복수의 프레임으로 구성된 샷 검출을 위한 입력 영상(201)을 프레임 단위로 나누어 복수의 프레임들의 시계열적인 시퀀스를 분류부(210)에 전달할 수 있다. 일실시예에 따를 때, 복수의 프레임들에는 시간적 순서에 따라 인덱스 번호가 부여될 수 있다. 예를 들어, 영상을 구성하는 시계열적 프레임 시퀀스에서 첫번째 프레임의 인덱스 번호는 1이 부여되고, 두번째 프레임의 인덱스 번호는 2가 부여되며, 마지막 프레임의 인덱스 번호는 영상을 구성하는 프레임의 개수인 N이 부여될 수 있다.
실시예에 따를 때, 분류부(210)는 입력부(200)에서 프레임 시퀀스를 전달받아 시퀀스를 구성하는 복수의 프레임을 미리 정해진 분류모델(202)에 따라 미리 정의된 유형으로 분류하고, 프레임 시퀀스를 유형 정보와 함께 검출부(220)에 전달할 수 있다. 예를 들어, 분류부(210)는 입력 영상(201)에 포함된 샷들 사이의 전환에 기초하여 샷들 사이의 경계를 지시하는 컷과 관련된 프레임의 유형을 분류하는 분류모델에 따라 입력부(200)에서 전달받은 프레임들 각각을 제1 유형, 제2 유형 및 제3 유형 중 어느 하나로 분류하고, 프레임 시퀀스에 프레임의 유형 정보를 결합하여 검출부(220)에 전달할 수 있다.
이하에서 상술하겠으나, 분류모델(202)은 트레이닝 영상에 기초하여, 트레이닝 영상의 프레임 이미지로부터 트레이닝 영상의 프레임 유형을 추정하도록 학습(training)된 신경망을 포함할 수 있다. 분류모델(202)은 메모리에 저장될 수 있으며, 분류부(210)를 구성하는 프로세서에 의하여 접근(access)될 수 있다.
실시예에 따를 때, 검출부(220)는 분류부(210)에서 전달받은 시퀀스에 기초하여 영상 내 적어도 하나의 컷을 검출하는 구성에 해당할 수 있다. 일실시예에 따를 때, 검출부(220)는 시퀀스로부터, 제2 유형의 프레임(이하, 제1 프레임) 및 제2 유형의 프레임 뒤에 인접한 제3 유형의 프레임(이하, 제2 프레임)을 포함하는 프레임 페어(pair)를 추출하고, 프레임 페어에 포함된 제1 프레임 및 제2 프레임 중 적어도 하나를 컷에 대응하는 적어도 하나의 프레임으로 검출할 수 있다.
검출부(220)의 컷 검출 결과에 따른 출력 정보에는 실시예에 따라 제1 프레임의 인덱스 번호 및 제2 프레임의 인덱스 번호 중 어느 하나 및/또는 제1 프레임의 인덱스 번호와 제2 프레임의 인덱스 번호의 페어가 포함될 수 있다. 예를 들어, 인덱스 번호가 y인 프레임(이하, y 프레임)이 제2 유형의 프레임에 해당하고, y 프레임 뒤에 인접한 인덱스 번호가 y+1인 프레임(이하, y+1 프레임)이 제3 유형의 프레임에 해당하는 경우, 검출부에서 y 프레임과 y+1 프레임을 포함하는 페어를 컷으로 추출하고, 인덱스 번호의 페어 (y, y+1)을 컷 검출 결과로 출력할 수 있다
이와 같이 검출부(220)는 컷 검출에 있어서 제2 유형의 프레임 뒤에 제3 유형의 프레임이 인접하였는지 판단함으로써, 노이즈를 용이하게 제거할 수 있다. 예를 들어, 제2 유형 또는 제3 유형으로 분류된 프레임에 해당하지만, 제2 유형의 프레임과 제3 유형의 프레임이 연속적으로 위치하지 않는 경우 노이즈로 필터링될 수 있다. 노이즈 필터링에 관한 것은 이하에서 상술한다.
도 3은 일실시예에 따른 분류모델(202)의 생성을 위한 학습기의 구성을 도시한 도면이다.
도 3을 참조하면, 학습데이터 생성부(300)는 외부에서 학습을 위한 데이터를 입력받아 학습 데이터를 생성하는 구성에 해당할 수 있다. 학습기의 학습 데이터(303)는 학습을 위한 입력 영상(301)을 구성하는 프레임 및 프레임의 유형 정보(302)를 포함할 수 있다. 프레임의 유형 정보는 제1 유형, 제2 유형 및 제3 유형 중 어느 하나에 해당할 수 있다.
분류모델(330)은 다양한 종류의 신경망을 포함할 수 있다. 신경망의 파라미터들은 학습 데이터(303)에 기초하여, 학습을 위한 입력 영상(301)의 프레임 이미지로부터 트레이닝 영상의 프레임 유형을 추정하도록 학습(training)된 것에 해당할 수 있다. 분류모델은 메모리에 저장되어 샷 경계 검출의 대상에 해당하는 입력 영상의 프레임을 분류하기 위해 이용될 수 있다.
영상의 프레임을 분류모델에 따라 분류하기 위해 프레임의 이미지로부터 추출한 특징 벡터를 이용할 수 있다. 특징 추출부(310)는 프레임 이미지에서 적어도 하나 이상의 특징에 의해 특징 벡터를 추출하는 구성에 해당할 수 있다. 특징 벡터를 추출하기 위한 이미지의 특징으로는 옵티컬 플로우, 색 히스토그램 등이 포함될 수 있으며 이에 한정되지 않는다.
일 실시예에 따르면, 분류모델(330)은 학습 데이터(303)의 프레임 이미지로부터 추출된 특징 벡터에 기초하여 해당 프레임 이미지의 유형을 추정한다. 학습기는 분류모델(303)의 출력을 학습 데이터(303)의 프레임 유형과 비교하여, 분류모델(303)을 학습시키기 위한 로스(loss)를 결정한다. 학습기는 역-전파(back-propagation) 학습 기법에 따라, 로스를 이용하여 분류모델(303)의 파라미터들을 학습시킨다.
도 2에는 도시되지 않았으나, 도 2의 입력부와 분류부 사이에 특징 추출부가 더 포함될 수 있다. 특징 추출부는 도 3의 학습 과정에서 이용된 것과 동일한 방식으로 프레임으로부터 특징을 추출하여 특징 벡터를 생성할 수 있다.
도 4는 일실시예에 따른 샷 경계 검출 방법의 전체적인 흐름을 도시한 도면이다. 도 4를 참조하면, 일실시예에 따른 샷 경계 검출 방법은 샷 경계 검출의 대상이 되는 입력 영상을 프레임 단위로 나누는 단계(400), 분류 모델에 따라 프레임을 제1 유형, 제2 유형 및 제3 유형 중 어느 하나로 분류하는 단계(410), 제2 유형으로 분류된 프레임 직후에 제3 유형으로 분류된 프레임이 위치한 경우를 검출하는 단계(420) 및 컷으로 검출된 프레임의 인덱스 번호를 출력하는 단계(430)를 포함할 수 있다.
일실시예에 따른 샷 경계 검출의 대상이 되는 영상을 입력 받아 프레임 단위로 분할하는 단계(400)에서 샷 경계 검출의 대상이 되는 입력 영상은 복수의 프레임을 포함하는 영상에 해당할 수 있다. 일실시예에 따를 때 단계(400)는 영상을 프레임 단위로 나누는 경우에 있어서, 각각의 프레임에 프레임의 시간적 순서에 따른 인덱스 번호를 부여하는 단계를 포함할 수 있다.
일실시예에 따른 분류모델에 따라 프레임을 컷과 무관한 프레임(제1 유형), 컷의 이전 프레임(제2 유형), 컷의 이후 프레임(제3 유형)으로 분류하는 단계(410)에서 분류모델은 신경망을 포함할 수 있다. 전술한 것과 같이, 신경망의 파라미터들은 트레이닝 영상에 기초하여, 트레이닝 영상의 프레임 이미지로부터 트레이닝 영상의 프레임 유형을 추정하도록 학습(training)된 것에 해당할 수 있다. 일실시예에 따른 분류모델은 영상에 포함된 샷들 사이의 전환에 기초하여 샷들 사이의 경계를 지시하는 컷과 관련된 프레임의 유형을 분류하는 분류모델에 해당할 수 있다.
일실시예에 따른 제2 유형으로 분류된 프레임의 바로 다음에 제3 유형으로 분류된 프레임이 나오는 경우를 검출하는 단계(420)는 컷에 대응하는 프레임을 검출하는 단계를 포함할 수 있다. 도 5를 참조할 때, 실시예에 따른 컷은 시계열적으로 나열된 프레임 시퀀스에서 제2 유형의 프레임(501) 직후에 제3 유형의 프레임(502)이 인접해 있는 경우, 제2 유형의 프레임(501)과 제3 유형의 프레임(502)의 경계를 지시하는 '컷(Cut)'(503)에 해당할 수 있다. 구체적인 실시예에 따를 때, 컷에 대응하는 프레임을 검출하는 단계(420)는 제2 유형의 프레임 및 제2 유형의 프레임 뒤에 인접한 제3 유형의 프레임을 포함하는 프레임 페어(pair)를 추출하는 단계 및 프레임 페어에 포함된 두 프레임들 중 적어도 하나를 컷에 대응하는 적어도 하나의 프레임으로 검출하는 단계를 포함할 수 있다. 예를 들어, 도 5를 참조할 때, 제2 유형의 프레임(501) 뒤에 인접한 제3 유형의 프레임(502)을 포함하는 프레임 페어(504)를 추출하고, 프레임 페어에 포함된 제2 유형의 프레임(501) 및 제3 유형의 프레임(502)을 컷에 대응하는 프레임으로 검출할 수 있다.
일실시예에 따른 제2 유형으로 분류된 프레임의 바로 다음에 제3 유형으로 분류된 프레임이 나오는 경우를 검출하는 단계(420)는 노이즈를 필터링하는 단계를 포함할 수 있다. 일 실시예에 따르면, 프레임의 유형을 세분화하여 분류함으로써, 노이즈를 용이하게 검출하는 기술을 제공할 수 있다. 보다 구체적으로, 제2 유형으로 분류된 프레임의 바로 다음에 제3 유형으로 분류된 프레임이 검출되는 경우를 제외하고, 나머지 경우를 노이즈로 필터링할 수 있다. 예를 들어, 제3 유형의 프레임이 후에 인접하지 아니한 제2 유형의 프레임 및 제2 유형의 프레임이 전에 인접하지 아니한 제3 유형의 프레임 등이 노이즈로 필터링될 수 있다.
도 6을 참조하면, 제2 유형의 프레임(610, 620, 621, 651)은 제3 유형의 프레임이 후에 인접하지 아니한 제2 유형의 프레임에 해당하여 노이즈로 필터링되고, 제3 유형의 프레임은(630, 640, 641, 650) 제2 유형의 프레임이 전에 인접하지 아니한 제3 유형의 프레임에 해당하여 노이즈로 필터링될 수 있다.
다시 도 4를 참조하면, 구체적인 실시예에 따를 때, 제2 유형으로 분류된 프레임의 바로 다음에 제3 유형으로 분류된 프레임이 나오는 경우를 검출하는 단계(420)는 컷을 위하여 미리 정의된 유형 패턴에 기초하여 프레임의 시퀀스 내 적어도 하나의 제2 유형이나 적어도 하나의 제3 유형이 노이즈인지 여부를 판단하는 단계 및 판단 결과에 기초하여 적어도 하나의 제2 유형이나 적어도 하나의 제3 유형을 제1 유형으로 변경함으로써, 노이즈를 제거하는 단계를 포함할 수 있다. 컷을 위하여 미리 정의된 유형 패턴은 프레임의 시퀀스 상에서 제2 유형의 프레임 뒤에 제3 유형의 프레임이 인접한 패턴을 포함할 수 있다.
이와 같이 프레임을 제1 유형, 제2 유형 및 제3 유형 중 어느 하나로 분류하여 미리 정의된 유형 패턴에 기초하여 노이즈를 필터링함으로써 컷 검출의 정확도를 개선할 수 있다.
도 7a 및 도 7b는 일 실시예에 따른 컷 검출 기법을 기존 컷 검출 기법과 비교하기 위한 도면들이다. 도 7a는 프레임을 샷 전환이 발생한 직후의 프레임 및 그 외 프레임 중 어느 하나로 분류하는 이진 분류에 기초한 기존 샷 경계 검출 기술을 이용한 컷 검출 성공 및 실패 예시를 도시한다. 도 7a를 참조하면, 기존 기술에 의하면 샷 전환이 발생한 직후의 프레임으로 분류된 프레임과 직전 프레임의 경계가 컷에 해당한다. 예를 들어, 도 7a의 예시에서 실제 샷 경계의 다음에 위치한 프레임이 샷 전환이 발생한 직후의 프레임으로 분류된 경우 컷이 올바르게 검출되는 경우(700)가 된다. 이와 같은 기존 기술에서는 샷의 전환이 발생한 이후의 프레임에서 연속적으로 샷 전환이 발생한 직후의 프레임으로 분류되는 경우(710) 및 샷 전환이 없는 프레임에서 샷 전환이 발생한 직후의 프레임으로 분류되는 경우(720) 컷이 아닌 경계(711, 721)를 컷으로 잘못 검출하게 된다.
일실시예에 따를 때, 도 7b를 참조하면, 샷 전환이 발생한 이후의 프레임에서 연속적으로 컷의 이후 프레임에 대응하는 제3 유형으로 분류하는 경우(730), 샷 전환이 없는 프레임을 컷의 이전 프레임에 대응하는 제2 유형으로 분류하는 경우(740) 또는 컷의 이후 프레임에 대응하는 제3 유형으로 분류하는 경우(750)는 컷을 위해 미리 정의된 유형 패턴을 이용하여 판단할 때, 노이즈로 판단되므로 컷으로 검출되지 않는다.
따라서 실시예는 기존 기술과 달리 프레임을 제1 유형, 제2 유형 및 제3 유형으로 다중 클래스화함으로써, 노이즈 필터링을 통해 정확한 샷 경계를 검출할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
Claims (15)
- 샷 경계 검출 방법에 있어서,
복수의 프레임들을 포함하는 영상을 입력받는 단계;
상기 영상을 프레임 단위로 나누는 단계;
분류모델에 기초하여, 상기 복수의 프레임들 각각의 유형을 컷- 상기 컷은 상기 영상에 포함된 샷들 사이의 경계를 지시함 -과 무관한 프레임에 대응하는 제1 유형, 컷의 이전 프레임에 대응하는 제2 유형 및 컷의 이후 프레임에 대응하는 제3 유형 중 어느 하나로 추정하는 단계;
상기 유형이 추정된 복수의 프레임들의 시퀀스에 기초하여, 상기 제2 유형의 프레임 및 상기 제2 유형의 프레임 뒤에 인접한 상기 제3 유형의 프레임을 포함하는 프레임 페어(pair)를 추출하는 단계; 및
상기 추출된 프레임 페어에 기초하여, 상기 영상 내 컷을 검출하는 단계
를 포함하고,
상기 분류모델은 유형 정보- 상기 유형 정보는 상기 제1 유형, 상기 제2 유형 및 상기 제3 유형 중 어느 하나에 해당함 -를 포함하는 트레이닝 영상의 프레임에서 특징 벡터를 추출하고, 상기 추출된 특징 벡터에 기초하여 상기 트레이닝 영상의 프레임을 분류하여 상기 유형 정보를 출력하도록 학습된,
샷 경계 검출 방법.
- 제1항에 있어서,
상기 제2 유형은 컷의 직전 프레임에 대응하고,
상기 제3 유형은 컷의 직후 프레임에 대응하는,
샷 경계 검출 방법.
- 제1항에 있어서,
상기 컷을 검출하는 단계는
상기 프레임 페어에 포함된 두 프레임들 중 적어도 하나를 상기 컷에 대응하는 적어도 하나의 프레임으로 검출하는 단계
를 포함하는
샷 경계 검출 방법.
- 제1항에 있어서,
상기 프레임 페어를 추출하는 단계는
상기 컷을 위하여 미리 정의된 유형 패턴에 기초하여, 상기 시퀀스 내 적어도 하나의 제2 유형이나 적어도 하나의 제3 유형이 노이즈인지 여부를 판단하는 단계; 및
상기 판단 결과에 기초하여 상기 적어도 하나의 제2 유형이나 상기 적어도 하나의 제3 유형을 상기 제1 유형으로 변경함으로써, 상기 노이즈를 제거하는 단계
를 더 포함하는
샷 경계 검출 방법.
- 제1항에 있어서,
상기 복수의 프레임들에는 시간적 순서에 따라 인덱스 번호가 부여된 것을 특징으로 하는
샷 경계 검출 방법.
- 제5항에 있어서,
상기 컷을 검출하는 단계는
상기 프레임 페어에 포함된 두 프레임들 중 적어도 하나의 인덱스 번호 를 출력하는 단계
를 포함하는
샷 경계 검출 방법.
- 제1항에 있어서,
상기 분류모델은 신경망을 포함하고,
상기 신경망의 파라미터들은
상기 트레이닝 영상의 프레임을 상기 분류모델에 입력하여 획득된 상기 트레이닝 영상의 프레임 유형의 추정 결과 및 상기 트레이닝 영상의 프레임에 대응하는 상기 유형 정보에 기초하여 결정된 로스(loss)를 이용하여 학습(training)된 것을 특징으로 하는,
샷 경계 검출 방법.
- 샷 경계 검출 장치에 있어서,
분류모델에 기초하여, 입력 영상에 포함된 복수의 프레임들 각각의 유형을 컷- 상기 컷은 상기 영상에 포함된 샷들 사이의 경계를 지시함 -과 무관한 프레임에 대응하는 제1 유형, 컷의 직전 프레임에 대응하는 제2 유형 및 컷의 직후 프레임에 대응하는 제3 유형 중 어느 하나로 추정하고,
상기 유형이 추정된 복수의 프레임들의 시퀀스에 기초하여 상기 제2 유형의 프레임 및 상기 제2 유형의 프레임 뒤에 인접한 상기 제3 유형의 프레임을 포함하는 프레임 페어(pair)를 추출하며,
상기 추출된 프레임 페어에 기초하여, 상기 영상 내 컷을 검출하는,
적어도 하나의 프로세서; 및
유형 정보- 상기 유형 정보는 상기 제1 유형, 상기 제2 유형 및 상기 제3 유형 중 어느 하나에 해당함 -를 포함하는 트레이닝 영상의 프레임에서 특징 벡터를 추출하고, 상기 추출된 특징 벡터에 기초하여 상기 트레이닝 영상의 프레임을 분류하여 상기 유형 정보를 출력하도록 학습된 상기 분류모델을 저장하는 메모리
를 포함하는
샷 경계 검출 장치.
- 제8항에 있어서,
상기 제2 유형은 컷의 직전 프레임에 대응하고,
상기 제3 유형은 컷의 직후 프레임에 대응하는,
샷 경계 검출 장치.
- 제8항에 있어서,
상기 프로세서는
상기 컷을 검출함에 있어서,
상기 프레임 페어에 포함된 두 프레임들 중 적어도 하나를 상기 컷에 대응하는 적어도 하나의 프레임으로 검출하는,
샷 경계 검출 장치.
- 제8항에 있어서,
상기 프로세서는
상기 프레임 페어를 추출함에 있어서,
상기 컷을 위하여 미리 정의된 유형 패턴에 기초하여, 상기 시퀀스 내 적어도 하나의 제2 유형이나 적어도 하나의 제3 유형이 노이즈인지 여부를 판단하고,
상기 판단 결과에 기초하여 상기 적어도 하나이 제2 유형이나 상기 적어도 하나의 제3 유형을 상기 제1 유형으로 변경함으로써, 상기 노이즈를 제거하는,
샷 경계 검출 장치.
- 제8항에 있어서,
상기 복수의 프레임들에는 시간적 순서에 따라 인덱스 번호가 부여된 것을 특징으로 하는
샷 경계 검출 장치.
- 제12항에 있어서,
상기 프로세서는
상기 샷을 검출함에 있어서,
상기 프레임 페어에 포함된 두 프레임들 중 적어도 하나의 인덱스 번호를 출력하는,
샷 경계 검출 장치.
- 제8항에 있어서,
상기 분류모델은 신경망을 포함하고,
상기 신경망의 파라미터들은
상기 트레이닝 영상의 프레임을 상기 분류모델에 입력하여 획득된 상기 트레이닝 영상의 프레임 유형의 추정 결과 및 상기 트레이닝 영상의 프레임에 대응하는 상기 유형 정보에 기초하여 결정된 로스(loss)를 이용하여 학습(training)된 것을 특징으로 하는
샷 경계 검출 장치.
- 하드웨어와 결합되어 제1항 내지 제7항 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190165768A KR102285039B1 (ko) | 2019-12-12 | 2019-12-12 | 다중 클래스화를 이용한 샷 경계 검출 방법 및 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190165768A KR102285039B1 (ko) | 2019-12-12 | 2019-12-12 | 다중 클래스화를 이용한 샷 경계 검출 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210074742A KR20210074742A (ko) | 2021-06-22 |
KR102285039B1 true KR102285039B1 (ko) | 2021-08-03 |
Family
ID=76600587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190165768A KR102285039B1 (ko) | 2019-12-12 | 2019-12-12 | 다중 클래스화를 이용한 샷 경계 검출 방법 및 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102285039B1 (ko) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101820673B1 (ko) * | 2010-06-04 | 2018-01-23 | 삼성전자주식회사 | 멀티 스레드 방식을 기반으로 하는 3d 디스플레이를 위한 비디오 처리 방법 |
US20180239964A1 (en) | 2014-09-08 | 2018-08-23 | Google Llc | Selecting and presenting representative frames for video previews |
-
2019
- 2019-12-12 KR KR1020190165768A patent/KR102285039B1/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101820673B1 (ko) * | 2010-06-04 | 2018-01-23 | 삼성전자주식회사 | 멀티 스레드 방식을 기반으로 하는 3d 디스플레이를 위한 비디오 처리 방법 |
US20180239964A1 (en) | 2014-09-08 | 2018-08-23 | Google Llc | Selecting and presenting representative frames for video previews |
Also Published As
Publication number | Publication date |
---|---|
KR20210074742A (ko) | 2021-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111327945B (zh) | 用于分割视频的方法和装置 | |
EP3008696B1 (en) | Tracker assisted image capture | |
US11294754B2 (en) | System and method for contextual event sequence analysis | |
US9031280B2 (en) | Temporal-correlations-based mode connection | |
CN110795595A (zh) | 基于边缘计算的视频结构化存储方法、装置、设备及介质 | |
CN114041165A (zh) | 一种视频相似检测的方法、装置及设备 | |
US11062455B2 (en) | Data filtering of image stacks and video streams | |
KR101840167B1 (ko) | 클라우드 상에서 멀티 카메라 간의 핸드오버를 통한 관심 객체의 연계추적 장치 및 그 방법 | |
CN112434178B (zh) | 图像分类方法、装置、电子设备和存储介质 | |
US11756301B2 (en) | System and method for automatically detecting and marking logical scenes in media content | |
KR20190120489A (ko) | 영상 인식 장치 및 방법 | |
CN109753884A (zh) | 一种基于关键帧提取的视频行为识别方法 | |
CN111428589A (zh) | 一种渐变转场的识别方法及系统 | |
KR102127855B1 (ko) | 검출 반복성을 최대화 하는 특징점 선별방법 | |
Ramachandra et al. | Perceptual metric learning for video anomaly detection | |
CN108369640A (zh) | 用于控制场景的捕获图像的图像处理以调适捕获图像的方法、装置或计算机程序 | |
KR102039244B1 (ko) | 반딧불 알고리즘을 이용한 데이터 클러스터링 방법 및 시스템 | |
KR102504321B1 (ko) | 온라인 행동 탐지 장치 및 방법 | |
CN114187558A (zh) | 一种视频场景识别方法、装置、计算机设备及存储介质 | |
KR102285039B1 (ko) | 다중 클래스화를 이용한 샷 경계 검출 방법 및 장치 | |
KR102215285B1 (ko) | 키 프레임 선택 방법 및 이를 수행하는 장치들 | |
KR101362768B1 (ko) | 객체 검출 방법 및 장치 | |
KR102646430B1 (ko) | 분류기를 학습시키는 방법 및 이를 이용한 예측 분류 장치 | |
WO2022204619A1 (en) | Online detection for dominant and/or salient action start from dynamic environment | |
CN110807793B (zh) | 一种基于孪生网络的目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |