KR101195613B1 - 동영상의 주제별 분할장치 및 방법 - Google Patents

동영상의 주제별 분할장치 및 방법 Download PDF

Info

Publication number
KR101195613B1
KR101195613B1 KR1020060073770A KR20060073770A KR101195613B1 KR 101195613 B1 KR101195613 B1 KR 101195613B1 KR 1020060073770 A KR1020060073770 A KR 1020060073770A KR 20060073770 A KR20060073770 A KR 20060073770A KR 101195613 B1 KR101195613 B1 KR 101195613B1
Authority
KR
South Korea
Prior art keywords
subject
frames
face
person
thumbnail image
Prior art date
Application number
KR1020060073770A
Other languages
English (en)
Other versions
KR20070017068A (ko
Inventor
김정배
황두선
김지연
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020060073770A priority Critical patent/KR101195613B1/ko
Publication of KR20070017068A publication Critical patent/KR20070017068A/ko
Application granted granted Critical
Publication of KR101195613B1 publication Critical patent/KR101195613B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

동영상의 주제별 분할장치 및 방법이 개시된다. 동영상의 주제별 분할장치는 복수의 프레임으로 구성되는 비디오 시퀀스에서 인물 정보를 이용하여 복수의 키 프레임을 검출하고, 검출된 키프레임들을 각 주제의 시작 샷으로 결정하는 시작 샷 결정부; 및 상기 각 주제의 시작 샷을 이용하여 주제 리스트를 생성하는 주제 리스트 생성부로 이루어진다.
영상, 주제, 분할, 인물

Description

동영상의 주제별 분할장치 및 방법 {Apparatus and method for partitioning moving image according to topic}
도 1은 뉴스 동영상에서 주제별 분할의 예를 보여주는 도면,
도 2는 본 발명에 따른 동영상의 주제별 분할장치의 구성을 나타내는 블럭도,
도 3은 도 2에 도시된 시작 샷 결정부의 세부적인 구성을 보여주는 블럭도,
도 4a 내지 도 4c는 도 3에 도시된 각 구성요소의 동작을 설명하기 위한 도면,
도 5는 도 3에 있어서 전처리부의 세부적인 구성을 보여주는 블럭도,
도 6a는 도 3에 도시된 얼굴검출부의 세부적인 구성을 설명하는 블럭도이고, 도 6b는 적분 영상을 구성하는 방법을 설명하는 도면,
도 7은 도 3에 도시된 얼굴검출부에서 사용되는 서브 윈도우의 예를 설명하는 도면,
도 8a 및 도 8b는 도 6a에 도시된 분류부에서 사용되는 특징의 예를 보여주는 도면,
도 9는 도 3에 도시된 얼굴검출부에서 얼굴검출을 위하여 프레임영상을 분할한 예를 보여주는 도면,
도 10은 도 3에 도시된 얼굴검출부의 동작을 설명하는 흐름도,
도 11은 도 3에 있어서 키 프레임 결정부의 세부적인 구성을 보여주는 블럭도,
도 12는 도 11에 있어서 옷 정보 추출부의 동작을 설명하는 도면,
도 13은 뉴스 장르인 경우 본 발명에 따라 시작 샷으로 결정된 키 프레임의 예들을 보여주는 도면,
도 14는 교육 장르인 경우 본 발명에 따라 시작 샷으로 결정된 키 프레임의 예들을 보여주는 도면, 및
도 15는 정보/교양 장르인 경우 본 발명에 따라 시작 샷으로 결정된 키 프레임의 예들을 보여주는 도면이다.
본 발명은 동영상 분할에 관한 것으로서, 특히 검출되는 주요 인물에 기반하여 주제별로 고속으로 동영상을 분할하기 위한 장치 및 방법에 관한 것이다.
비디오 및 오디오 압축 기술을 포함하는 디지털 신호처리 기술의 발달로 인하여 사용자들은 원하는 멀티미디어 콘텐츠를 원하는 시점에 원하는 부분만을 검색하고 브라우징할 수 있게 되었다. 비선형적인 멀티미디어 콘텐츠 브라우징(non-linear multimedia content browsing)과 검색을 위하여 가장 기본이 되는 기술은 샷 분할(shot segmentation) 기법과 샷 클러스터링(shot clustering) 기법이며, 이 두가지 기술은 멀티미디어 콘텐츠를 구조적으로 분석하는데 있어서 가장 핵심이 되는 기술이다.
비디오에서 샷은 방해(interruption)없이 하나의 카메라로부터 얻어진 비디오 프레임들의 시퀀스를 의미하며, 이는 비디오를 분석하거나 구성하는 가장 기본이 되는 단위이다. 여기서, 샷은 단일 프레임 또는 복수의 프레임이 될 수 있으나, 여기서는 단일 프레임을 예로 들기로 한다. 또한, 비디오에는 장면(scene)이 존재하는데, 여기서 장면은 이야기 전개 또는 비디오 구성에 있어서 의미적인 구성요소이며, 통상 하나의 장면 내에는 복수의 샷이 존재한다. 이러한 샷과 장면의 개념은 비디오 뿐만 아니라 오디오 프로그램에도 동일하게 적용할 수 있다.
궁극적으로 멀티미디어 콘텐츠 인덱싱 기법은 콘텐츠에 존재하는 샷/장면 단위의 구조적인 정보를 추출하고, 각각의 구조 단위별로 그 세그먼트를 대표할 수 있는 키 프레임 등과 같은 주요 특징요소를 추출하여 멀티미디어 콘텐츠에 대한 구조적인 정보를 인덱싱하고, 이벤트의 발생, 시청각 오브젝트의 등장, 오브젝트의 상태, 배경 등에 대한 의미적인 정보를 시간축 상에 기술하는 방식으로 인덱싱하여 사용자가 원하는 부분을 쉽게 브라우징하거나 검색할 수 있도록 하는데 그 목적이 있다.
그런데, 멀티미디어 콘텐츠 인덱싱 기법과 관련된 종래기술에서는 장면 전환에 의한 세그먼트 분할시, 너무 많은 세그먼트로 분할하기 때문에 요약의 결과를 전달하는데 어려움이 있었다. 또한, 내용의 유사성에 기반하여 세그먼트들을 분할하는 것이 아니라, 단일 정보, 예를 들면 칼라의 유사성을 가지고 멀티미디어 콘텐 츠를 요약함으로써 정확한 세그먼트의 시작을 검출하기 어려운 단점이 있다. 또한, 특정 장르의 특징을 이용하여 멀티미디어 콘텐츠를 요약하기 때문에 방송형태 혹은 장르가 바뀌는 경우 요약 생성이 어려운 단점이 있다. 또한, 멀티미디어 콘텐츠 요약시 계산량의 과다로 인하여 낮은 사양의 프로세서를 탑재하는 모바일 폰, PDA(Personal Digital Assistant), 혹은 디지털 카메라와 같은 임베디드 시스템(embedded system)에는 적용하기 어려운 단점이 있다.
본 발명이 이루고자 하는 기술적 과제는 검출되는 주요 인물에 기반하여 주제별로 고속으로 동영상을 분할하기 위한 장치 및 방법을 제공하는데 있다.
상기 기술적 과제를 달성하기 위하여 본 발명에 따른 동영상의 주제별 분할장치는 복수의 프레임으로 구성되는 비디오 시퀀스에서 인물 정보를 이용하여 복수의 키 프레임을 검출하고, 검출된 키프레임들을 각 주제의 시작 샷으로 결정하는 시작 샷 결정부; 및 상기 각 주제의 시작 샷을 이용하여 주제 리스트를 생성하는 주제 리스트 생성부를 포함한다.
상기 기술적 과제를 달성하기 위하여 본 발명에 따른 동영상의 주제별 분할방법은 복수의 프레임으로 구성되는 비디오 시퀀스에서 인물 정보를 이용하여 복수의 키 프레임을 검출하고, 검출된 키프레임들을 각 주제의 시작 샷으로 결정하는 단계; 및 상기 각 주제의 시작 샷을 이용하여 주제 리스트를 생성하는 단계를 포함한다.
상기 동영상의 주제별 분할방법은 바람직하게는 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체로 구현할 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세하게 설명하기로 한다.
도 1은 뉴스 동영상에서 주제별 분할의 예를 보여주는 도면이다. 주제별로 분할된 챕터 1 내지 챕터 25를 살펴보면, 각 챕터는 주요 인물이 등장하는 키 프레임으로 설정되는 시작 샷과 내용을 뒷받침하는 자료화면 즉, 에피소드 부분으로 구성된다.
도 2는 본 발명에 따른 동영상의 주제별 분할장치의 구성을 나타내는 블럭도로서, 시작 샷 결정부(210) 및 주제 리스트 생성부(230)를 포함하여 이루어지며, 검출되는 주요 인물에 기반하여 동영상을 주제별로 분할하기 위한 것이다.
도 2를 참조하면, 시작 샷 결정부(210)에서는 복수의 프레임으로 구성되는 비디오 시퀀스에서 인물 정보를 이용하여 복수의 키 프레임을 검출하고, 검출된 키프레임들을 각 주제의 시작 샷으로 결정한다. 특히, 각 키 프레임에는 주요 인물이 등장하는 것이 바람직하다. 또한, 시작 샷 검출은 매 장면 단위로 수행되는 것이 바람직하나, 반드시 이에 한정되지는 않는다.
주제 리스트 생성부(230)에서는 시작 샷 결정부(210)에서 결정된 각 주제의 시작 샷을 이용하여 주제 리스트를 생성한다. 이때, 각 장면에서 검출된 시작 샷들을 취합하여 주제 리스트를 생성하는 것이 바람직하다. 또한, 바람직하게는 현재 주제의 시작 샷과 다음 주제의 시작 샷 사이에 존재하는 프레임들은 현재 주제 의 에피소드로 구성하여, 주제 리스트의 각 시작 샷에 부가된다.
도 3은 도 2에 도시된 시작 샷 결정부(210)의 세부적인 구성을 보여주는 블럭도로서, 전처리부(310), 얼굴검출부(330), 및 키 프레임 결정부(350)를 포함하여 이루어진다.
도 3을 참조하면, 전처리부(310)에서는 하나의 동영상을 구성하는 비디오 시퀀스를 입력으로 하여 장면전환을 검출하여 현재 장면에 속하는 프레임들을 결정하고, 해당 동영상의 EPG(Electronic Program Guide) 신호를 입력으로 하여 주요 인물의 수를 결정한다. EPG 신호에는 도 4a에 도시된 바와 같이 방송시간 뿐만 아니라 프로그램의 장르, 제목, 감독 이름, 등장 인물 이름, 줄거리 등과 같은 정보가 포함될 수 있다.
얼굴검출부(330)에서는 전처리부(310)로부터 결정되는 현재 장면에 속하는 각 프레임에서 얼굴을 검출한다. 주요 인물은 통상 정면을 바라보고 있으므로 바람직하게는 정면 얼굴을 검출한다. 이때, 각 프레임에서 얼굴의 갯수와는 상관없이 얼굴이 존재하는지 유무만 판단할 수 있다. 얼굴검출을 위해서는 공지된 다양한 알고리즘을 적용할 수 있다.
키 프레임 결정부(350)에서는 얼굴검출부(330)에서 얼굴이 검출된 프레임에 대하여 옷 정보를 추출하여 옷 정보에 대응하는 인물별로 프레임들을 클러스터링하고, 주요 인물이 포함된 프레임을 키 프레임 즉, 주제의 시작 샷으로 결정한다. 하나의 동영상에서 주요 인물의 옷 정보는 거의 변하지 않으므로 옷 정보를 인물별 클러스터링에 사용한다. 전처리부(310)에서 결정된 주요 인물의 수를 고려하여, 클러스터링 결과 생성되는 다수의 클러스터 중에서 포함된 프레임의 수가 상대적으로 적은 클러스터는 제거한다. 그 이유는 주요 인물의 등장 횟수는 다른 출연자들에 비하여 많기 때문이다. 키 프레임 결정부(350)에서는 인물 클러스터링 결과, 예를 들면 도 4b에 도시된 키 프레임을 결정하여 도 4c에 도시된 바와 같은 주제 리스트를 생성하는데 사용된다. 한편, 뉴스 장르, 교육 장르, 정보/교양 장르에 대하여 키 프레임 결정부(350)에 의해 결정된 키 프레임의 예는 도 13 내지 도 15에 도시된 바와 같다.
도 5는 도 3에 있어서 전처리부(310)의 세부적인 구성을 보여주는 블럭도로서, 프레임영상 입력부(510), 썸네일영상 생성부(530), 장면전환 검출부(550), EPG 해석부(570) 및 주요 인물수 결정부(590)를 포함하여 이루어진다.
도 5를 참조하면, 프레임영상 입력부(510)에서는 비디오 시퀀스에서 추출되는 각 프레임영상을 순차적으로 입력한다.
썸네일영상 생성부(530)에서는 프레임영상 입력부(510)로부터 제공되는 W×H 사이즈의 원본 프레임영상에 대하여 일정한 간격으로 화소를 샘플링함으로써 사이즈가 축소된 w×h 사이즈의 썸네일영상(thumbnail image)을 생성한다. 이에 따르면, 원본 프레임영상을 사용하는 경우보다 썸네일영상을 사용할 경우 얼굴검출부(230)에서의 얼굴검출시 고속 처리가 가능해진다.
장면전환 검출부(550)에서는 이전 프레임영상을 저장하고 있으며, 연속되는 두 프레임영상, 즉 현재 프레임영상과 이전 프레임영상간의 칼라 히스토그램에 대한 유사도를 산출하고, 산출된 유사도가 일정한 문턱치보다 작을 경우 현재 프레임 에서 장면전환이 검출된 것으로 판단한다. 여기서, 유사도(Sim(Ht, Ht +1)는 다음 수학식 1에서와 같이 산출될 수 있다.
Figure 112006056130588-pat00001
여기서, Ht 는 이전 프레임영상의 칼라 히스토그램, Ht +1 은 현재 프레임영상의 칼라 히스토그램을 나타내고, N은 히스토그램 레벨을 나타낸다.
EPG 해석부(570)에서는 하나의 동영상에 포함된 EPG 신호를 해석한다. 주요 인물수 결정부(59)에서는 EPG 해석부(570)에서의 해석결과에 근거하여 주요 인물수를 결정한다.
도 6a는 도 3에 도시된 얼굴검출부(330)의 세부적인 구성을 설명하는 블럭도로서, 썸네일영상 재구성부(610), 서브윈도우 발생부(630), 및 분류부(650)를 포함하여 이루어진다.
도 6a를 참조하면, 썸네일영상 재구성부(610)는 전처리부(310)로부터 제공되는 현재 장면에 속하는 각 프레임영상에 대한 썸네일영상에서 각 점에서의 적분영상(integral image)을 구하여 썸네일영상을 재구성한다. 여기서, 적분영상을 구하는 방법을 도 6b를 참조하여 설명하기로 한다.
도 6b를 참조하면, 썸네일영상에서 네 개의 영역들(A, B, C 및 D)을 포함하고, 네 개의 점들(a, b, c 및 d)이 지정되는 경우를 예를 들기로 한다. 점(a)의 적분영상이란, 점(a)의 왼쪽 윗 부분에 존재하는 화소값들의 합을 의미한다. 즉, 점(a)의 적분영상은 영역(A)에 포함되는 화소들의 화소값들의 합을 의미한다. 여기서, 화소값이란, 화소의 휘도레벨이 될 수 있다. 또한, 점(a)의 적분제곱영상은 점(a)의 왼쪽 윗 부분에 존재하는 화소값들의 제곱들의 합을 의미한다. 즉, 점(a)의 적분제곱영상은 영역(A)에 포함되는 화소들의 화소값들의 제곱들의 합을 의미한다. 이와 같은 적분영상이란 개념을 도입할 경우, 영상의 임의의 영역에 대한 화소값들의 합을 구하는 것이 편리해진다. 즉, 적분영상을 이용할 경우, 후술할 분류부(670)에서 수행되는 분류동작을 고속으로 처리할 수 있다. 예를 들어, 영역(D) 내부에 존재하는 화소값들의 합(S(D))은 다음 수학식 2와 같이 구해질 수 있다.
Figure 112006056130588-pat00002
여기서, ii(d)는 점(d)의 적분영상을 의미하고, ii(b)는 점(b)의 적분영상을 의미하고, ii(c)는 점(c)의 적분영상을 의미하고, ii(a)는 점(a)의 적분영상을 각각 나타낸다.
썸네일영상 재구성부(610)는 상기 수학식 2에서와 같이 산출되는 각 점에서의 적분영상을 이용하여 썸네일영상을 재구성한다. 여기서, 썸네일 재구성부(610)는 옵션으로 구비될 수 있다.
서브윈도우 발생부(630)는 썸네일영상 재구성부(610)에서 재구성된 썸네일영 상을 분할하여 서브윈도우를 발생시킨다. 여기서, 서브윈도우의 사이즈는 미리 결정될 수 있으며 일정한 비율로 증가될 수도 있다. 즉, 서브윈도우는 초기에 소정 사이즈, 예를 들면 20 × 20 화소의 사이즈로 설정되고, 설정된 사이즈를 갖는 서브 윈도우에 의해 전체 영상을 분할한다. 그 후, 서브윈도우의 사이즈를 예를 들면 1.2배 증가시키고, 증가된 사이즈를 갖는 서브윈도우에 의해 전체 영상을 다시 분할한다. 이와 같은 방식으로 서브윈도우의 사이즈가 전체 영상의 사이즈와 동일해질 때까지, 서브윈도우의 사이즈를 증가시키면서 영상을 분할할 수 있다. 서브윈도우 발생부(630)에서 발생되는 서브윈도우들은 서로 중첩될 수도 있다. 도 7의 참조번호 710, 730, 및 750은 서브윈도우 발생부(630)에서 발생되는 서브윈도우의 예들을 나타낸다.
분류부(650)는 n개의 스테이지(S1 내지 Sn)가 캐스케이드로 연결된 구조일 수 있다. 여기서, 각 스테이지(S1 내지 Sn)는 심플특징에 기반한 분류기를 이용하여 얼굴검출을 수행하는데, 예를 들면 제1 스테이지(S1)는 4~5개의 분류기를 사용하고, 제2 스테이지(S2)는 15~20개의 분류기를 사용하는 등, 후단으로 갈수록 사용되는 분류기의 수가 증가되는 구조이다.
각 스테이지는 복수개의 분류기에 대한 가중치 합(weighted sum)으로 이루어져 가중치 합의 부호에 따라서 얼굴검출 성공여부를 판단하는데, 각 스테이지는 다음 수학식 3과 같이 나타낼 수 있다.
Figure 112006056130588-pat00003
여기서, cm은 분류기의 가중치를 나타내고, fm(x)는 분류기의 출력을 나타내는 것으로서, 각 분류기는 하나의 심플 특징과 문턱값으로 구성되어, fm(x)의 값으로 -1 또는 1의 값을 출력한다.
분류부(650)에 있어서 제1 스테이지(S1)는 서브윈도우 발생부(630)로부터 제공되는 k번째 서브윈도우를 입력으로 하여 얼굴검출을 시도하고, 얼굴검출에 실패하면 k번째 서브윈도우는 비얼굴로 결정하고, 얼굴검출에 성공하면 k번째 서브윈도우영상을 제2 스테이지(S2)로 제공한다. 마지막 스테이지(Sn)에서 k번째 서브윈도우에서 얼굴검출에 성공하면 k번째 서브윈도우를 얼굴로 결정한다. 한편, 각 분류기와 가중치 선택에는 아다부스트(Adaboost)에 기반한 학습알고리즘을 사용할 수 있다. 아다부스트 알고리즘에 의하면 대형 특징 세트로부터 몇개의 중요한 시각적인 특징을 선택하여 매우 효율적인 분류기를 생성한다. 이와 같은 케스케이드로 연결된 스테이지 구조에 따르면 비얼굴인 경우에는 작은 수의 심플 특징을 사용하여 결정할 수 있으므로 제1 스테이지 또는 제2 스테이지 등과 같은 초기 단계에서 바로 리젝트시키고, 다음 (k+1)번째 서브윈도우를 입력받아 얼굴검출을 시도할 수 있으므로 전체적인 얼굴검출 처리속도를 향상시킬 수 있다.
도 8a는 분류부(650)에 포함되는 각 분류기에서 사용되는 에지 심플특 징(811,812) 및 라인 심플특징(813,814,815,816)을 나타낸다. 각 심플특징은 2개 또는 3개의 흰색 또는 검은색 사각형으로 이루어진다. 각 분류기는 심플특징에 따라서, 흰색 사각형내에 위치하는 화소값의 합을 검은색 사각형내에 위치하는 화소값의 합으로부터 감산하여, 감산된 결과값을 심플특징에 대응하는 문턱값과 비교한다. 감산된 결과값과 문턱값과의 비교결과에 따라서 1 또는 -1의 값을 출력한다. 도 8b는 1개의 흰색 사각형과 2개의 검은색 사각형으로 이루어진 라인 심플특징(821) 혹은 1개의 흰색 사각형과 1개의 검은색 사각형으로 이루어진 에지 심플특징(823)을 이용하여 눈 부분을 검출하는 예를 보여준다. 라인 심플특징을 이용하는 경우, 눈 영역이 콧등 영역보다 더 어둡다는 측면을 고려하여 눈 영역과 콧등 영역간의 화소값의 차이를 측정한다. 에지 심플특징을 이용하는 경우, 눈 영역이 뺨 영역보다 더 어둡다는 측면을 고려하여 눈 영역과 뺨 위쪽 영역간의 계조값의 차이를 측정한다. 이와 같이 얼굴을 검출하기 위한 심플특징은 매우 다양하게 존재할 수 있다.
도 9는 도 3에 도시된 얼굴검출부(330)에서 고속 얼굴검출을 위하여 프레임영상을 분할한 예를 보여주는 도면으로서, 썸네일영상 재구성부(610)에 썸네일영상을 입력하기 이전에 얼굴이 존재할 가능성에 따라서 프레임영상을 영역 Ⅰ 내지 영역 Ⅴ(910, 930, 950, 970, 990)로 분할한다. 여기서, 각 영역의 분할 위치는 실험 혹은 시뮬레이션을 통해 통계적으로 구해질 수 있다. 대체적으로 영역 Ⅰ(910)이 얼굴(900)이 위치할 가능성이 가장 큰 영역에 해당하므로, 썸네일영상 재구성부(610)에 영역 I(910)에서부터 영역 Ⅳ(970)까지 순차적으로 제공한다.
도 10은 도 3에 도시된 얼굴검출부(330)의 동작을 설명하는 흐름도이다.
도 10을 참조하면, 1011 단계에서는 영역 Ⅰ(910)에 대한 적분영상을 생성하여 영역 Ⅰ(910)을 재구성한다. 1013 단계에서는 영역 Ⅰ(910)에 대하여 적분영상으로 재구성된 영상에서 서브윈도우를 발생시킨다. 1015 단계에서는 발생된 서브윈도우에서 얼굴검출이 성공하였는지를 판단하고, 얼굴검출이 성공한 서브윈도우로 얼굴이 포함된 프레임영상을 구성한다. 1017 단계에서는 1015 단계에서의 판단결과 발생된 서브윈도우에서 얼굴검출이 실패한 경우 영역 Ⅰ(910)에 대한 서브윈도우의 발생이 종료되었는지를 판단하고, 영역 Ⅰ(910)에 대한 서브윈도우의 발생이 종료되지 않은 경우 1013 단계로 복귀하고, 영역 Ⅰ(910)에 대한 서브윈도우의 발생이 종료된 경우 1031 단계로 이행한다.
1031 단계에서는 영역 Ⅱ(930)에 대한 적분영상을 생성하여 영역 Ⅱ(930)를 재구성한다. 1033 단계에서는 영역 Ⅰ(910) 및 영역 Ⅱ(930)에 대하여 적분영상으로 재구성한 영상에서 서브윈도우를 발생시킨다. 이때, 영역 Ⅰ(910)에만 위치한 서브윈도우는 제외시킴이 바람직하다. 1035 단계에서는 발생된 서브윈도우에서 얼굴검출이 성공하였는지를 판단하고, 얼굴검출이 성공한 서브윈도우로 얼굴이 포함된 프레임영상을 구성한다. 1037 단계에서는 1035 단계에서의 판단결과 발생된 서브윈도우에서 얼굴검출이 실패한 경우 영역 Ⅰ(910) 및 영역 Ⅱ(930)에 대한 서브윈도우의 발생이 종료되었는지를 판단하고, 영역 Ⅰ(910) 및 영역 Ⅱ(930)에 대한 서브윈도우의 발생이 종료되지 않은 경우 1033 단계로 복귀하고, 영역 Ⅰ(910) 및 영역 Ⅱ(930)에 대한 서브윈도우의 발생이 종료된 경우 1051 단계로 이행한다.
1051 단계에서는 영역 Ⅲ(950)에 대한 적분영상을 생성하여 영역 Ⅲ(950)을 재구성한다. 1053 단계에서는 영역 Ⅰ(910), 영역 Ⅱ(930), 및 영역 Ⅲ(950)에 대하여 적분영상으로 재구성한 영상에서 서브윈도우를 발생시킨다. 이때, 영역 Ⅰ(910) 및 영역 Ⅱ(930)에만 위치한 서브윈도우는 제외시킴이 바람직하다. 1055 단계에서는 발생된 서브윈도우에서 얼굴검출이 성공하였는지를 판단하고, 얼굴검출이 성공한 서브윈도우로 얼굴이 포함된 프레임영상을 구성한다. 1057 단계에서는 1055 단계에서의 판단결과 발생된 서브윈도우에서 얼굴검출이 실패한 경우 영역 Ⅰ(910), 영역 Ⅱ(930), 및 영역 Ⅲ(950)에 대한 서브윈도우의 발생이 종료되었는지를 판단하고, 영역 Ⅰ(910), 영역 Ⅱ(930), 및 영역 Ⅲ(950)에 대한 서브윈도우의 발생이 종료되지 않은 경우 1053 단계로 복귀하고, 영역 Ⅰ(910), 영역 Ⅱ(930), 및 영역 Ⅲ(950)에 대한 서브윈도우의 발생이 종료된 경우 1071 단계로 이행한다.
1071 단계에서는 영역 Ⅳ(970)에 대한 적분영상을 생성하여 영역 Ⅳ(970)를 재구성한다. 이때, 영역 Ⅰ(910), 영역 Ⅱ(930) 및 영역 Ⅲ(950)에만 위치한 서브윈도우는 제외시킴이 바람직하다. 1073 단계에서는 영역 Ⅰ(910), 영역 Ⅱ(930), 영역 Ⅲ(950), 및 영역 Ⅳ(970)에 대하여 적분영상으로 재구성한 영상의 서브윈도우를 발생시킨다. 1075 단계에서는 발생된 서브윈도우에서 얼굴검출이 성공하였는지를 판단하고, 얼굴검출이 성공한 서브윈도우로 얼굴이 포함된 프레임영상을 구성한다. 1077 단계에서는 1075 단계에서의 판단결과 발생된 서브윈도우에서 얼굴검출이 실패한 경우 영역 Ⅰ(910), 영역 Ⅱ(930), 영역 Ⅲ(950), 및 영역 Ⅳ(970)에 대한 서브윈도우의 발생이 종료되었는지를 판단하고, 영역 Ⅰ(910), 영역 Ⅱ(930), 영역 Ⅲ(950), 및 영역 Ⅳ(970)에 대한 서브윈도우의 발생이 종료되지 않은 경우 1073 단계로 복귀하고, 영역 Ⅰ(910), 영역 Ⅱ(930), 영역 Ⅲ(950), 및 영역 Ⅳ(970)에 대한 서브윈도우의 발생이 종료된 경우 해당 썸네일영상을 얼굴이 포함되지 않은 프레임영상으로 결정한다.
상기 1011 단계, 1031 단계, 1051 단계 및 1071 단계는 썸네일영상 재구성부(610)에서, 상기 1013 단계, 1033 단계, 1053 단계 및 1073 단계는 서브윈도우 발생부(630)에서, 상기 1015 및 1017 단계, 1035 및 1037 단계, 1055 및 1057 단계, 1075 및 1077 단계는 분류부(650)에서 각각 수행됨이 바람직하다.
도 11은 도 3에 있어서 키 프레임 결정부(350)의 세부적인 구성을 보여주는 블럭도로서, 옷정보 추출부(1110), 인물 클러스터링부(1130), 및 주요인물 결정부(1150)를 포함하여 이루어진다.
도 11을 참조하면, 옷정보 추출부(1110)는 얼굴검출부(330)에서 얼굴이 검출된 프레임영상에 대하여 옷정보, 예를 들면 옷의 칼라에 대한 히스토그램을 추출한다. 여기서, 얼굴검출부(330)에서 검출된 얼굴영역(도 12의 1210)을 기준으로 하여 설정되는 일정한 검출영역(1230)에 대하여 옷의 칼라에 대한 히스토그램을 추출한다. 옷의 칼라에 대한 히스토그램을 추출하는 이유는 하나의 동영상에서 주요 인물인 경우 통상적으로 동일한 옷을 입고 등장하기 때문이다.
인물 클러스터링부(1130)는 옷정보 추출부(1110)에서 추출되는 옷의 칼라에 대한 히스토그램을 입력으로 하여, 얼굴이 검출된 프레임영상들을 클러스터링하여 복수의 클러스터를 생성한다. 이때, 동일한 옷의 칼라에 대한 히스토그램을 가지는 프레임영상을 동일한 인물이 포함된 프레임영상으로 판단한다.
주요인물 결정부(1150)는 인물 클러스터링부(1130)로부터 제공되는 복수의 클러스터 중에서, 전처리부(310)로부터 제공되는 주요인물의 수를 고려하여 주요인물이 포함된 클러스터를 선택한다. 여기서, 주요인물의 수가 1인 경우에는 가장 많은 프레임영상이 포함된 하나의 클러스터를 선택하고, 주요인물의 복수인 경우에는 포함된 프레임영상이 많은 순서대로 클러스터들을 선택한다. 선택된 클러스터에 포함된 프레임영상들은 각 주제의 키 프레임으로서 시작 샷을 구성하게 된다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
상술한 바와 같이 본 발명에 따른 동영상의 주제별 분할장치 및 방법은, 인 물 기반의 고속 연산 알고리즘을 채택하여 동영상을 주제별로 분할함으로써 낮은 사양의 프로세서를 탑재하는 모바일폰, PDA, 디지털 카메라 등과 같은 임베디드 시스템에서도 용이하게 적용할 수 있는 장점이 있다.
또한, 본 발명에 따른 동영상의 주제별 분할장치 및 방법은, 뉴스 장르, 교육 장르, 정보/교양 장르 등과 같이 다수개의 주제별로 편집된 모든 동영상에도 적용할 수 있는 장점이 있다.
또한, 본 발명에 따른 동영상의 주제별 분할장치 및 방법은 임베디드 시스템 뿐만 아니라 블루 레이(Blue-ray) 디스트 레코더 혹은 DCM(Digital Contents Management)용 홈 서버 등과 같은 다양한 제품에 적용되어 사용자의 편의성을 증대시킬 수 있다.
본 발명에 대해 상기 실시예를 참고하여 설명하였으나, 이는 예시적인 것에 불과하며, 본 발명에 속하는 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (21)

  1. 복수의 프레임으로 구성되는 비디오 시퀀스에서 인물 정보를 이용하여 복수의 키 프레임을 검출하고, 검출된 키프레임들을 각 주제의 시작 샷으로 결정하는 시작 샷 결정부; 및
    상기 각 주제의 시작 샷을 이용하여 주제 리스트를 생성하는 주제 리스트 생성부를 포함하는 것을 특징으로 하는 동영상의 주제별 분할장치.
  2. 제1 항에 있어서, 상기 시작 샷 결정부는 상기 비디오 시퀀스에 포함된 주요 인물의 옷 정보를 이용하여 상기 키 프레임들을 검출하는 것을 특징으로 하는 동영상의 주제별 분할장치.
  3. 제1 항에 있어서, 상기 주제 리스트 생성부는 현재 주제의 시작 샷과 다음 주제의 시작 샷 사이에 존재하는 프레임들은 현재 주제의 에피소드로 구성하여, 주제 리스트의 각 시작 샷에 부가하는 것을 특징으로 하는 동영상의 주제별 분할장치.
  4. 제1 항에 있어서, 상기 시작 샷 결정부는
    상기 비디오 시퀀스에 포함된 프레임들 중에서 장면 변환을 검출하여 각 장면에 속하는 프레임들을 결정하고, 상기 비디오 시퀀스에 등장하는 주요 인물의 수 를 구하는 전처리부;
    상기 전처리부에서 결정된 각 장면에 속하는 프레임들로부터 얼굴을 검출하고, 얼굴이 검출되는 프레임들을 결정하는 얼굴검출부; 및
    상기 주요 인물의 수를 고려하여, 상기 얼굴이 검출된 프레임들을 상기 주요 인물에 따라서 클러스터링하여 키프레임들을 결정하는 키프레임 결정부로 이루어지는 것을 특징으로 하는 동영상의 주제별 분할장치.
  5. 제4 항에 있어서, 상기 전처리부는 현재 프레임과 이전 프레임간의 산출되는 유사도를 이용하여 상기 장면 변환을 검출하는 것을 특징으로 하는 동영상의 주제별 분할장치.
  6. 제4 항에 있어서, 상기 전처리부는 EPG 신호로부터 상기 주요 인물의 수를 구하는 것을 특징으로 하는 동영상의 주제별 분할장치.
  7. 제4 항에 있어서, 상기 전처리부는
    입력되는 프레임의 썸네일 영상을 생성하는 썸네일 영상 생성부;
    인접하는 프레임의 상기 썸네일 영상들간의 칼라 히스토그램의 유사도를 이용하여 장면 전환을 검출하는 장면전환 검출부; 및
    해석된 EPG 신호로부터 상기 주요인물의 수를 결정하는 주요 인물수 결정부로 이루어지는 것을 특징으로 하는 동영상의 주제별 분할장치.
  8. 제4 항에 있어서, 상기 얼굴검출부는
    입력되는 프레임의 썸네일 영상에 대하여 적분영상을 생성하고, 상기 적분영상을 이용하여 썸네일영상을 재구성하는 썸네일영상 재구성부;
    재구성된 썸네일영상에 대하여 서브윈도우를 발생시키는 서브윈도우 발생부;
    상기 서브윈도우가 얼굴을 포함하는지 여부를 분류하는 분류부로 이루어지는 것을 특징으로 하는 동영상의 주제별 분할장치.
  9. 제8 항에 있어서, 상기 얼굴검출부는
    입력되는 프레임의 썸네일 영상을 얼굴이 포함될 가능성이 가장 많은 영역을 포함하여 복수개의 영역으로 분할하고, 상기 얼굴이 포함될 가능성이 가장 많은 영역부터 순차적으로 상기 썸네일영상 재구성부로 제공하는 것을 특징으로 하는 동영상의 주제별 분할장치.
  10. 제4 항에 있어서, 상기 키프레임 결정부는
    얼굴이 검출된 프레임에서 옷정보를 추출하는 옷정보 추출부;
    상기 옷정보 추출부에서 추출된 옷정보를 기반으로 하여 인물 클러스터링을 수행하는 인물 클러스터링부; 및
    상기 주요 인물의 수를 고려하여, 상기 인물 클러스터링부에서 클러스터링된 복수의 클러스터들 중에서 상기 주요 인물에 해당하는 클러스터를 선택하고, 선택 된 각 클러스터에 포함된 프레임들을 각 주제의 키프레임으로 제공하는 주요 인물 결정부로 이루어지는 것을 특징으로 하는 동영상의 주제별 분할장치.
  11. 제10 항에 있어서, 상기 옷정보는 옷의 칼라 히스토그램인 것을 특징으로 하는 동영상의 주제별 분할장치.
  12. 복수의 프레임으로 구성되는 비디오 시퀀스에서 인물 정보를 이용하여 복수의 키 프레임을 검출하고, 검출된 키프레임들을 각 주제의 시작 샷으로 결정하는 단계; 및
    상기 각 주제의 시작 샷을 이용하여 주제 리스트를 생성하는 단계를 포함하는 것을 특징으로 하는 동영상의 주제별 분할방법.
  13. 제12 항에 있어서, 상기 시작 샷 결정단계는 상기 비디오 시퀀스에 포함된 주요 인물의 옷 정보를 이용하여 상기 키 프레임들을 검출하는 것을 특징으로 하는 동영상의 주제별 분할방법.
  14. 제12 항에 있어서, 상기 주제 리스트 생성단계는 현재 주제의 시작 샷과 다음 주제의 시작 샷 사이에 존재하는 프레임들은 현재 주제의 에피소드로 구성하여, 주제 리스트의 각 시작 샷에 부가하는 것을 특징으로 하는 동영상의 주제별 분할방법.
  15. 제12 항에 있어서, 상기 시작 샷 결정단계는
    상기 비디오 시퀀스에 포함된 프레임들 중에서 장면 변환을 검출하여 각 장면에 속하는 프레임들을 결정하고, 상기 비디오 시퀀스에 등장하는 주요 인물의 수를 구하는 단계;
    상기 각 장면에 속하는 프레임들로부터 얼굴을 검출하고, 얼굴이 검출되는 프레임들을 결정하는 단계; 및
    상기 주요 인물의 수를 고려하여, 상기 얼굴이 검출된 프레임들을 상기 주요 인물에 따라서 클러스터링하여 키프레임들을 결정하는 단계로 이루어지는 것을 특징으로 하는 동영상의 주제별 분할방법.
  16. 제15 항에 있어서, 상기 장면 전환은, 입력되는 프레임의 썸네일 영상을 생성하고, 인접하는 프레임의 상기 썸네일 영상들간의 칼라 히스토그램의 유사도를 이용하여 검출하는 것을 특징으로 하는 동영상의 주제별 분할방법.
  17. 제15 항에 있어서, 상기 주요 인물의 수는 EPG 신호를 해석하여 구하는 것을 특징으로 하는 동영상의 주제별 분할방법.
  18. 제15 항에 있어서, 상기 얼굴검출단계는
    입력되는 프레임의 썸네일 영상에 대하여 적분영상을 생성하고, 상기 적분영 상을 이용하여 썸네일영상을 재구성하는 단계;
    재구성된 썸네일영상에 대하여 서브윈도우를 발생시키는 단계;
    상기 서브윈도우가 얼굴을 포함하는지 여부를 분류하는 단계로 이루어지는 것을 특징으로 하는 동영상의 주제별 분할방법.
  19. 제18 항에 있어서, 상기 얼굴검출단계는
    입력되는 프레임의 썸네일 영상을 얼굴이 포함될 가능성이 가장 많은 영역을 포함하여 복수개의 영역으로 분할하고, 상기 얼굴이 포함될 가능성이 가장 많은 영역부터 순차적으로 상기 썸네일영상 재구성단계로 제공하는 단계를 더 구비하는 것을 특징으로 하는 동영상의 주제별 분할방법.
  20. 제15 항에 있어서, 상기 키프레임 결정단계는
    얼굴이 검출된 프레임에서 옷정보를 추출하는 단계;
    상기 추출된 옷정보를 기반으로 하여 인물 클러스터링을 수행하는 단계; 및
    상기 주요 인물의 수를 고려하여, 상기 클러스터링된 복수의 클러스터들 중에서 상기 주요 인물에 해당하는 클러스터를 선택하고, 선택된 각 클러스터에 포함된 프레임들을 각 주제의 키프레임으로 제공하는 단계로 이루어지는 것을 특징으로 하는 동영상의 주제별 분할방법.
  21. 복수의 프레임으로 구성되는 비디오 시퀀스에서 인물 정보를 이용하여 복수 의 키 프레임을 검출하고, 검출된 키프레임들을 각 주제의 시작 샷으로 결정하는 단계; 및
    상기 각 주제의 시작 샷을 이용하여 주제 리스트를 생성하는 단계를 포함하는 동영상의 주제별 분할방법을 실행시킬 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020060073770A 2005-08-04 2006-08-04 동영상의 주제별 분할장치 및 방법 KR101195613B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060073770A KR101195613B1 (ko) 2005-08-04 2006-08-04 동영상의 주제별 분할장치 및 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020050071507 2005-08-04
KR1020060073770A KR101195613B1 (ko) 2005-08-04 2006-08-04 동영상의 주제별 분할장치 및 방법

Publications (2)

Publication Number Publication Date
KR20070017068A KR20070017068A (ko) 2007-02-08
KR101195613B1 true KR101195613B1 (ko) 2012-10-29

Family

ID=43650936

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060073770A KR101195613B1 (ko) 2005-08-04 2006-08-04 동영상의 주제별 분할장치 및 방법

Country Status (1)

Country Link
KR (1) KR101195613B1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100804678B1 (ko) * 2007-01-04 2008-02-20 삼성전자주식회사 비디오 인물별 신 분류 방법 및 그 시스템
KR100827846B1 (ko) 2007-10-18 2008-05-07 (주)올라웍스 동영상에 포함된 특정 인물을 검색하여 원하는 시점부터재생하기 위한 방법 및 시스템
KR101501244B1 (ko) * 2008-09-26 2015-03-10 동부대우전자 주식회사 썸네일 생성 방법
US9799376B2 (en) 2014-09-17 2017-10-24 Xiaomi Inc. Method and device for video browsing based on keyframe
KR102247184B1 (ko) * 2014-10-17 2021-05-03 주식회사 케이티 동영상 썸네일 추출 방법, 장치 및 동영상 제공 시스템
KR102235386B1 (ko) * 2017-07-07 2021-04-01 삼성에스디에스 주식회사 장면전환 검출 장치 및 방법
KR102131751B1 (ko) * 2018-11-22 2020-07-08 에스케이텔레콤 주식회사 인식 메타 정보를 이용한 구간 구분 정보 처리 방법 및 이를 지원하는 서비스 장치

Also Published As

Publication number Publication date
KR20070017068A (ko) 2007-02-08

Similar Documents

Publication Publication Date Title
US8316301B2 (en) Apparatus, medium, and method segmenting video sequences based on topic
US7555149B2 (en) Method and system for segmenting videos using face detection
Gao et al. Unsupervised video-shot segmentation and model-free anchorperson detection for news video story parsing
US8195038B2 (en) Brief and high-interest video summary generation
US7184100B1 (en) Method of selecting key-frames from a video sequence
Gunsel et al. Temporal video segmentation using unsupervised clustering and semantic object tracking
US6928233B1 (en) Signal processing method and video signal processor for detecting and analyzing a pattern reflecting the semantics of the content of a signal
Rasheed et al. Scene detection in Hollywood movies and TV shows
US8467610B2 (en) Video summarization using sparse basis function combination
Truong et al. Scene extraction in motion pictures
KR101195613B1 (ko) 동영상의 주제별 분할장치 및 방법
KR100717402B1 (ko) 멀티미디어 데이터의 장르를 판단하는 장치 및 방법
JP2002232840A (ja) 動画要約方法
Jiang et al. A new method to segment playfield and its applications in match analysis in sports video
Asim et al. A key frame based video summarization using color features
De Avila et al. VSUMM: An approach for automatic video summarization and quantitative evaluation
JP2009123095A (ja) 映像解析装置及び映像解析方法
Yang et al. Key frame extraction using unsupervised clustering based on a statistical model
US11636676B2 (en) Method and apparatus for extracting color scheme from video
WO1999051022A1 (en) Method of selecting key-frames from a video sequence
Kim et al. Automatic color scheme extraction from movies
KR20050033075A (ko) 비디오 이미지들의 시퀀스에서 콘텐트 속성을 검출하는 유닛 및 방법
Zhu et al. Automatic scene detection for advanced story retrieval
Zhang Intelligent keyframe extraction for video printing
Liu et al. Brief and high-interest video summary generation: evaluating the AT&T labs rushes summarizations

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150916

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160921

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170918

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180917

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190910

Year of fee payment: 8