KR20160027651A - Method and apparatus for indexing moving picture - Google Patents

Method and apparatus for indexing moving picture Download PDF

Info

Publication number
KR20160027651A
KR20160027651A KR1020140115936A KR20140115936A KR20160027651A KR 20160027651 A KR20160027651 A KR 20160027651A KR 1020140115936 A KR1020140115936 A KR 1020140115936A KR 20140115936 A KR20140115936 A KR 20140115936A KR 20160027651 A KR20160027651 A KR 20160027651A
Authority
KR
South Korea
Prior art keywords
image
frame
title
key frame
title area
Prior art date
Application number
KR1020140115936A
Other languages
Korean (ko)
Other versions
KR102150543B1 (en
Inventor
김봉모
박규희
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020140115936A priority Critical patent/KR102150543B1/en
Publication of KR20160027651A publication Critical patent/KR20160027651A/en
Application granted granted Critical
Publication of KR102150543B1 publication Critical patent/KR102150543B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding

Abstract

The present invention relates to a method and apparatus for indexing a video. The method for indexing the video comprises the following steps: extracting edge component images of each image frame from a plurality of image frames included in a video; individually selecting title areas of first and second image frames from the image frames by using the edge component images; and selecting at least any one from the first and second image frames as a key frame according to a result of comparing the selected title areas. Accordingly, even if a position of the title area, which may include text information, is changed in a screen, the present invention can adaptively deal with a circumstance thereof and can index the text information.

Description

동영상 색인 방법 및 장치{METHOD AND APPARATUS FOR INDEXING MOVING PICTURE}METHOD AND APPARATUS FOR INDEXING MOVING PICTURE [0001]

본 발명은 동영상 색인 방법 및 장치에 관한 것으로, 동영상에서 색인을 위해 키프레임을 선정하는 방법 및 장치에 관한 것이다.The present invention relates to a moving picture indexing method and apparatus, and more particularly, to a method and apparatus for selecting a key frame for indexing in moving pictures.

일반적으로, 방송 컨텐츠의 색인은 각 프레임에서 핑거프린트(finger print)를 획득하여 이를 기반으로 메타 데이터를 생성하며, 메타 데이터를 데이터베이스에 추가하여 이 정보를 기반으로 하여 영상의 검색이 가능하도록 한다.In general, an index of broadcast contents is obtained by acquiring a finger print in each frame, generating metadata based on the finger print, adding metadata to the database, and searching for the image based on the information.

그런데, 이처럼 핑거프린트를 이용하는 경우에는 프레임을 올바르게 분류하기 위해 복잡한 연산이 동반되며, 유사한 장면을 정확하게 분류하는 핑거프린트 알로리즘의 개발이 어려운 문제가 있다.However, in the case of using the fingerprint as described above, there is a problem that it is difficult to develop a finger print algorithm that accurately classifies similar scenes, complicated operations are performed to correctly classify the frames.

종래 기술로서, 대한민국 공개특허공보 제10-2011-0039744호(공개일자 2011년 04월 20일)에는 영상 탐색 방법이 제시되었다.As a conventional technique, Korean Patent Laid-Open Publication No. 10-2011-0039744 (published on Apr. 20, 2011) discloses an image search method.

하지만, 이러한 종래 기술은 동영상에서 텍스트 정보를 포함하고 있는 위치가 고정된 경우에만 효과적으로 적용할 수가 있으며, 텍스트 정보가 시간 흐름에 따라 변화되는 경우에는 디폴트값을 변경하거나 사용자가 이를 수정하여 입력하여야만 한다. 즉, 다양한 형식을 가지는 각종 동영상에 적응적으로 대처하지 못하는 문제점이 있었다.However, such a conventional technique can be effectively applied only when the position including the text information in the moving picture is fixed. When the text information changes with time, the user must change the default value or input the corrected value . That is, there is a problem in that it can not adaptively cope with various videos having various formats.

본 발명의 실시예에 따르면, 동영상에 포함된 복수의 영상 프레임에서 타이틀 영역을 자동으로 선정한 후에 이를 비교하여 색인을 위한 키프레임을 선정하는 동영상 색인 방법 및 장치를 제공한다.According to an embodiment of the present invention, there is provided a video indexing method and apparatus for automatically selecting a title region in a plurality of video frames included in a moving image and then comparing the selected title region and selecting a key frame for indexing.

본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to those mentioned above, and another problem to be solved can be clearly understood by those skilled in the art from the following description.

본 발명의 일 관점에 따른 동영상 색인 방법은, 동영상에 포함된 복수의 영상 프레임에서 각 영상 프레임의 에지 성분 영상을 추출하는 단계와, 복수의 상기 에지 성분 영상을 이용하여 상기 복수의 영상 프레임 중에서 제 1 영상 프레임과 제 2 영상 프레임의 타이틀 영역을 각각 선정하는 단계와, 상기 선정된 타이틀 영역을 비교한 결과에 따라 상기 제 1 영상 프레임과 상기 제 2 영상 프레임 중에서 적어도 어느 하나를 키프레임으로 선정하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a moving image indexing method comprising: extracting an edge component image of each image frame in a plurality of image frames included in a moving image; Selecting at least one of the first image frame and the second image frame as a key frame according to a result of comparing the selected title area with the title area of the first image frame and the second image frame, Step < / RTI >

본 발명의 다른 관점에 따른 동영상 색인 장치는, 동영상에 포함된 복수의 영상 프레임에서 각 영상 프레임의 에지 성분 영상을 추출하는 에지 추출부와, 복수의 상기 에지 성분 영상을 이용하여 상기 복수의 영상 프레임 중에서 제 1 영상 프레임과 제 2 영상 프레임의 타이틀 영역을 각각 선정하는 타이틀 선정부와, 상기 선정된 타이틀 영역을 비교한 결과에 따라 상기 제 1 영상 프레임과 상기 제 2 영상 프레임 중에서 적어도 어느 하나를 키프레임으로 선정하는 프레임 선정부를 포함할 수 있다.According to another aspect of the present invention, there is provided an apparatus for indexing moving images, comprising: an edge extracting unit for extracting an edge component image of each image frame in a plurality of image frames included in a moving image; A title selection unit for selecting a title area of a first image frame and a second image frame from among the first image frame and the second image frame according to a result of comparing the selected title area, And a frame selection unit for selecting a frame.

본 발명의 실시예에 의하면, 동영상에 포함된 복수의 영상 프레임에서 타이틀 영역을 자동으로 선정한 후에 이를 비교하여 색인을 위한 키프레임을 선정한다. 그리고, 선정된 키프레임의 타이틀 영역 이미지, 키프레임을 이용한 썸네일 또는 타이틀 영역에서 인식된 텍스트 등의 색인 정보를 선정된 키프레임에 대응하여 지정할 수 있다.According to an embodiment of the present invention, a title area is automatically selected from a plurality of image frames included in moving images, and then a key frame for an index is selected by comparing the title areas. Index information such as a title area image of the selected key frame, a thumbnail using the key frame, or a text recognized in the title area can be specified in correspondence with the selected key frame.

따라서, 텍스트 정보를 포함할 수 있는 타이틀 영역의 위치가 동영상의 화면 내에서 변경되더라도 적응적으로 대처하여 색인 처리할 수 있는 효과가 있다.Therefore, even if the position of the title area, which can include the text information, is changed within the screen of the moving picture, it can adaptively cope with the indexing process.

도 1은 본 발명의 실시예에 따른 동영상 색인 장치의 블록 구성도이다.
도 2는 본 발명의 실시예에 따른 동영상 색인 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 실시예에 따른 동영상 색인 결과 화면의 예시도이다.
1 is a block diagram of a moving image indexing apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating a moving image indexing method according to an embodiment of the present invention.
FIG. 3 is an exemplary view of a video index result screen according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions in the embodiments of the present invention, which may vary depending on the intention of the user, the intention or the custom of the operator. Therefore, the definition should be based on the contents throughout this specification.

본 발명의 실시예에 따른 동영상 색인 방법 및 장치를 이용하여 색인 처리를 할 수 있는 방송 컨텐츠 등과 같은 동영상 파일에는 타이틀 영역 내에 타이틀이 포함된 경우가 많다. 예컨대, 도 3에 예시한 바와 같이 타이틀 영역(307)은 동영상 화면(301)의 좌측 상단 부근에 배치될 수 있다. 이러한 타이틀 영역(307)에 포함되어 표시되는 타이틀은 예컨대 문자와 이미지로 구성될 수 있으며, 화면의 프레임 전환이 발생하는 경우에도 변화가 적고 형태를 유지하는 특징을 갖고 있다. 이러한 타이틀 영역 내의 타이틀은 방송 프로그램명이나 프로그램 내에서의 코너명 등을 포함하여 콘텐츠가 어떤 내용을 담고 있는 것인지를 알 수 있게 하는 역할을 수행하기에, 이러한 타이틀 영역에서 인식된 정보는 해당 위치에 대응하는 색인 정보로 활용할 수 있으며, 본 발명의 실시예는 이러한 색인 처리를 효율적으로 수행할 수 있는 동영상 색인 방법 및 장치를 제공한다.A moving picture file such as a broadcast content which can be indexed using the moving picture indexing method and apparatus according to the embodiment of the present invention often includes a title in the title area. For example, as illustrated in FIG. 3, the title area 307 may be disposed near the upper left of the moving picture screen 301. The title displayed in the title area 307 can be composed of, for example, a character and an image, and has a feature that the change is small and the form is maintained even when a frame change of the screen occurs. The title in the title area plays a role of knowing what content the content contains, including a broadcast program name and a corner name in the program, so that the information recognized in the title area is stored in the corresponding position And can be utilized as corresponding index information. The embodiment of the present invention provides a video indexing method and apparatus capable of efficiently performing such index processing.

도 1은 본 발명의 실시예에 따른 동영상 색인 장치의 블록 구성도이다.1 is a block diagram of a moving image indexing apparatus according to an embodiment of the present invention.

이에 나타낸 바와 같이 실시예에 따른 동영상 색인 장치(100)는 에지 추출부(110), 타이틀 선정부(120), 프레임 선정부(130), 색인부(140) 등을 포함한다.The moving image indexing apparatus 100 according to the embodiment includes an edge extracting unit 110, a title selecting unit 120, a frame selecting unit 130, an indexing unit 140, and the like.

에지 추출부(110)는 입력되는 동영상 파일(10)에 포함된 복수의 영상 프레임에서 각 영상 프레임의 에지 성분 영상을 추출한다.The edge extracting unit 110 extracts an edge component image of each image frame in a plurality of image frames included in the input moving image file 10.

타이틀 선정부(120)는 에지 추출부(110)에 의해 추출된 복수의 에지 성분 영상을 이용하여 복수의 영상 프레임에서 각각 타이틀 영역을 선정한다. 이러한 타이틀 선정부(120)는 시간 순서에 따라 제 1 영상 프레임에 인접된 복수의 영상 프레임을 대상으로 에지 성분 영상을 비교하여 타이틀 영역을 선정하며, 시간 순서에 따라 제 2 영상 프레임에 인접된 복수의 영상 프레임을 대상으로 에지 성분 영상을 비교하여 타이틀 영역을 선정할 수 있다.The title selecting unit 120 selects a title area in each of a plurality of image frames using a plurality of edge component images extracted by the edge extracting unit 110. [ The title selecting unit 120 selects a title area by comparing edge component images of a plurality of image frames adjacent to the first image frame according to a time order, It is possible to select the title area by comparing the edge component images with respect to the image frames.

이러한, 타이틀 선정부(120)는 픽셀 가중치 지도(pixel weight map) 필터링, 누적 영상 필터링, 연결 컴포넌트 레이블링 연산(connected component labeling) 등을 이용하여 타이틀 영역을 선정할 수 있다.The title selection unit 120 may select a title area using pixel weight map filtering, cumulative image filtering, and connected component labeling.

프레임 선정부(130)는 타이틀 선정부(120)에 의해 선정된 타이틀 영역을 비교한 결과에 따라 복수의 영상 프레임 중에서 색인에 위한 키프레임을 선정한다. 연속된 제 1 영상 프레임과 제 2 영상 프레임 중에서 적어도 어느 하나를 키프레임으로 선정할 수 있다.The frame selecting unit 130 selects a key frame for an index from a plurality of image frames according to the result of comparing the title areas selected by the title selecting unit 120. [ At least one of the first and second image frames may be selected as a key frame.

이러한 프레임 선정부(130)는 타이틀 영역의 종횡비 비교 또는 유클리디안 거리를 비교하여 키프레임을 선정할 수 있다.The frame selection unit 130 can compare the aspect ratio of the title area or the Euclidean distance to select a key frame.

색인부(140)는 프레임 선정부(130)에 의해 선정된 키프레임에서 인식된 색인 정보를 프로그레스바(progress bar)의 대응 위치에 지정한다.The index unit 140 designates the index information recognized in the key frame selected by the frame selection unit 130 at the corresponding position of the progress bar.

도 2는 본 발명의 실시예에 따른 동영상 색인 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a moving image indexing method according to an embodiment of the present invention.

이에 나타낸 바와 같이 실시예에 따른 동영상 색인 방법은, 입력되는 동영상 파일에 포함된 복수의 영상 프레임에서 각 영상 프레임의 에지 성분 영상을 추출하는 단계(S201 내지 S205)를 포함한다.As described above, the moving image indexing method according to the embodiment includes steps (S201 to S205) of extracting an edge component image of each image frame from a plurality of image frames included in the input moving image file.

그리고, 추출된 복수의 에지 성분 영상을 이용하여 복수의 영상 프레임에서 각각 타이틀 영역을 선정하는 단계(S207)를 더 포함한다. 여기서, 연속된 제 1 영상 프레임과 제 2 영상 프레임에 대해 각각 타이틀 영역을 선정할 수 있다.The method further includes the step (S207) of selecting a title area in each of the plurality of image frames using the extracted plurality of edge component images. Here, the title area can be selected for each of the first image frame and the second image frame.

이어서, 선정된 타이틀 영역을 비교한 결과에 따라 복수의 영상 프레임 중에서 색인에 위한 키프레임을 선정하는 단계(S209)를 더 포함한다. 여기서, 연속된 제 1 영상 프레임과 제 2 영상 프레임 중에서 적어도 어느 하나를 키프레임으로 선정할 수 있다.Next, a step (S209) of selecting a key frame for an index from a plurality of image frames according to a result of comparing the selected title areas. Here, at least one of the first image frame and the second image frame may be selected as a key frame.

다음으로, 선정된 키프레임에서 인식된 색인 정보를 프로그레스바의 대응 위치에 지정하는 단계(S211 및 S213)를 더 포함한다.Next, the method further includes steps (S211 and S213) of designating the index information recognized in the selected key frame to the corresponding position of the progress bar.

도 3은 본 발명의 실시예에 따른 동영상 색인 결과 화면의 예시도이다.FIG. 3 is an exemplary view of a video index result screen according to an embodiment of the present invention.

이에 나타낸 바와 같이 동영상 화면(301)에 대응하여 배치되는 프로그레스바(303)의 대응 위치에 색인 정보(305)를 지정 및 표시할 수 있다.The index information 305 can be designated and displayed at the corresponding position of the progress bar 303 arranged corresponding to the moving picture screen 301 as shown in FIG.

이하, 도 1 내지 도 3를 참조하여 본 발명의 실시예에 따른 동영상 색인 장치에 의해 수행되는 동영상 색인 방법에 대해 자세히 살펴보기로 한다.Hereinafter, a video indexing method performed by the video indexing apparatus according to an embodiment of the present invention will be described in detail with reference to FIG. 1 to FIG.

먼저, 동영상 파일(10)이 동영상 색인 장치(100)에 입력(S201)되면 에지 추출부(110)는 동영상 파일(10)에 포함된 복수의 영상 프레임을 추출하며(S203), 추출된 각 영상 프레임의 에지 성분 영상을 추출한다(S205).First, when the moving picture file 10 is input to the moving picture indexing apparatus 100 (S201), the edge extracting unit 110 extracts a plurality of picture frames included in the moving picture file 10 (S203) The edge component image of the frame is extracted (S205).

여기서, 영상 프레임의 에지 성분 영상을 추출하는 것은 종국에는 영상 프레임 내의 타이틀 영역(307)을 선정하기 위한 것이며, 이는 영상에 포함된 타이틀은 에지 성분이 풍부한 특성이 있기 때문이다. 예컨대, 에지 성분 영상을 추출하기 위해 DoG(Difference of Gaussian) 에지 검출법, 소벨(sobel) 에지 검출법, 프리윗(prewitt) 에지 검출법, 해리스(harris) 에지 검출법 등을 이용할 수 있다.Here, extracting the edge component image of the image frame is for selecting the title area 307 in the image frame, because the title included in the image has a feature rich in edge components. For example, a Difference of Gaussian (DoG) edge detection method, a Sobel edge detection method, a prewitt edge detection method, a Harris edge detection method, and the like can be used to extract an edge component image.

이어서, 타이틀 선정부(120)는 에지 추출부(110)에 의해 추출된 복수의 에지 성분 영상을 이용하여 복수의 영상 프레임에서 각각 타이틀 영역(307)을 선정한다. 이때, 연속된 제 1 영상 프레임과 제 2 영상 프레임에 대해 각각 타이틀 영역(307)을 선정할 수 있다.Next, the title selecting unit 120 selects the title area 307 in each of the plurality of image frames using the plurality of edge component images extracted by the edge extracting unit 110. [ At this time, the title area 307 can be selected for each of the first image frame and the second image frame.

여기서, 타이틀 선정부(120)는 시간 순서에 따라 제 1 영상 프레임에 인접된 복수의 영상 프레임을 대상으로 에지 성분 영상을 비교하여 타이틀 영역(307)을 선정하며, 시간 순서에 따라 제 2 영상 프레임에 인접된 복수의 영상 프레임을 대상으로 에지 성분 영상을 비교하여 타이틀 영역(307)을 선정할 수 있다(S207).Here, the title selecting unit 120 may compare the edge component images of a plurality of image frames adjacent to the first image frame according to the time order to select the title area 307, The title region 307 can be selected by comparing the edge component images with respect to a plurality of image frames adjacent to the edge component image (S207).

이러한, 타이틀 선정부(120)는 픽셀 가중치 지도 필터링, 누적 영상 필터링 또는 연결 컴포넌트 레이블링 연산을 이용하여 타이틀 영역(307)을 선정할 수 있다. 예컨대, DoG 에지 검출법을 통해 획득된 에지 성분 영상에는 본 발명에서 필요한 타이틀뿐만 아니라 일반 자막과 배경들도 포함되어 있는데, 이를 제거하기 위해서 픽셀 가중치 지도 필터링과 누적 영상 필터링을 활용하게 된다. 픽셀 가중치 지도는 타이틀의 위치 정보를 이용한다. 타이틀은 어느 정도 긴시간동안에 고정 위치에서 노출이 되는데, 현재 프레임 DoG와 이전 프레임 DoG 값의 픽셀 바이 픽셀(pixel by pixel) 차이를 이용해 가중치 지도를 생성하는 것이다. 누적 영상 필터링은 영상의 시간적인 정보를 이용하는 것인데, 타이틀의 경우에 시간 변화가 발생하여도 값이 일정하게 유지가 되는 특성이 있다. 이에 반하여 배경은 변화되는 특징이 있기 때문에 누적 영상 필터링을 적용하면 배경을 효율적으로 제거할 수 있다. 연결 컴포넌트 레이블링 연산은 일예로 8-neighbor 정보를 이용하여 컴포넌트의 크기가 너무 작거나 큰 것들을 필터링하는 작업을 수행한다.The title selection unit 120 may select the title area 307 using pixel weighted map filtering, cumulative image filtering, or connected component labeling operations. For example, edge component images obtained through the DoG edge detection method include not only titles required in the present invention, but also general subtitles and backgrounds. In order to remove them, pixel weight map filtering and cumulative image filtering are utilized. The pixel weight map uses the position information of the title. The title is exposed at a fixed position for a relatively long period of time, generating a weight map using the difference between the current frame DoG and the pixel by pixel of the previous frame DoG value. Cumulative image filtering is based on temporal information of an image. In the case of a title, the value is kept constant even if a time change occurs. On the other hand, since the background is changed, it is possible to efficiently remove the background by applying the cumulative image filtering. The connected component labeling operation performs an operation of filtering the components whose sizes are too small or too large using 8-neighbor information, for example.

그리고, 프레임 선정부(130)는 타이틀 선정부(120)에 의해 선정된 타이틀 영역(307)을 비교한 결과에 따라 복수의 영상 프레임 중에서 색인에 위한 키프레임을 선정한다. 이때, 연속된 제 1 영상 프레임과 제 2 영상 프레임 중에서 적어도 어느 하나를 키프레임으로 선정할 수 있다.The frame selecting unit 130 selects a key frame for an index from a plurality of image frames according to a result of comparing the title area 307 selected by the title selecting unit 120. [ At this time, at least one of the first image frame and the second image frame may be selected as a key frame.

이러한 프레임 선정부(130)에서 키프레임을 선정하기 위해서는 복수의 영상 프레임에서 선정된 타이틀 영역(307)들을 비교하여 변화가 생기는 것을 인식하여야 한다. 여기서, 프레임 선정부(130)는 타이틀 영역(307)의 종횡비(aspect ratio) 비교 또는 유클리디안 거리를 비교하여 키프레임을 선정할 수 있다.In order to select a key frame in the frame selection unit 130, it is necessary to recognize that a change occurs by comparing the selected title regions 307 in a plurality of image frames. Here, the frame selecting unit 130 may compare the aspect ratio of the title area 307 or the Euclidean distance to select a key frame.

여기서, 동영상 파일(10)의 연속된 프레임에서 타이틀 영역(307)이 변화되는 시점이면 뒤 쪽에 위치하는 영상 프레임이 키프레임으로 선정될 것이기에, 순방향 동영상의 경우에는 제 1 영상 프레임과 제 2 영상 프레임 중에서 제 2 영상 프레임이 키프레임으로 선정된다. 하지만, 역방향 동영상에서는 제 1 영상 프레임이 키프레임으로 선정된다. 또, 전체 동영상에 대해 색인하지 않고 몇 군데만 간헐적으로 색인 처리를 하는 경우라면 제 1 영상 프레임과 제 2 영상 프레임의 타이틀 영역(307)이 서로 다른 경우에 모두 키프레임으로 선정할 수도 있다(S209).Here, when the title area 307 is changed in the continuous frame of the moving picture file 10, the image frame located at the rear side will be selected as the key frame. Therefore, in the case of the forward moving picture, The second image frame is selected as the key frame. However, in the backward moving image, the first image frame is selected as a key frame. In a case where indexing is not performed for the entire moving image but only a few indexes are intermittently indexed, the key frame may be selected as a key frame when the title area 307 of the first image frame is different from that of the second image frame (S209 ).

예컨대, 방송 콘텐츠의 타이틀은 종횡비가 약 5:2 수준으로 넓이가 폭보다 2배 이상 긴 형태를 보인다. 넓이는 자막의 길이에 따라 가변적이고 폭도 이에 영향을 받게 된다. 이런 특징을 이용해 종횡비가 일정 수준 이상 차이가 나는 경우에는 변화 발생으로 처리하며, 그렇지 않을 때는 변화 발생 없음으로 처리한다. 또, 타이틀의 글씨는 일정한 밝기 값(intensity)을 가지나 배경은 장면 변화에 따라 달라지는 특성이 있다. 이에 타이틀 영역(307)들의 평균값, 분산값, 히스토그램 값을 특징으로 사용하여 후보군 간의 유클리디안 거리(euclidean distance)를 계산해 이 수치가 일정 수준 이상이면 변화 발생으로 처리하며, 그렇지 않을 때는 변화 발생 없음으로 처리한다.For example, the title of the broadcast content has an aspect ratio of about 5: 2, which is two times longer than the width. The width is variable depending on the length of the subtitles and the width is affected by it. If the aspect ratio difference is more than a certain level by using this feature, it is treated as a change occurrence. Otherwise, it is treated as no change occurrence. In addition, the title has a constant brightness value, but the background has a characteristic that changes depending on the scene change. The euclidean distance between the candidate regions is calculated using the average value, variance value, and histogram value of the title regions 307, and if the number is greater than or equal to a certain level, the change occurs. Otherwise, no change occurs Lt; / RTI >

다음으로, 색인부(140)는 프레임 선정부(130)에 의해 선정된 키프레임에서 타이틀 영역(307)의 이미지, 키프레임을 이용한 썸네일, 타이틀 영역(307)에서 인식된 텍스트 등의 정보를 추출하며, 인식 및 추출된 정보를 동영상 파일(10)의 색인 정보로 활용한다(S211). 그리고, 이렇게 인식된 색인 정보를 키프레임에 대응하여 지정한다. 이로써, 도 3에 예시한 바와 같이 동영상 화면(310)에 대응하여 배치되는 프로그레스바(303)의 대응 위치에 색인 정보(305)를 지정 및 표시할 수 있다(S213).Next, the indexing unit 140 extracts information such as an image of the title area 307, a thumbnail using the key frame, and a text recognized in the title area 307 in the key frame selected by the frame selecting unit 130 And uses the recognized and extracted information as index information of the moving picture file 10 (S211). Then, the index information thus recognized is designated corresponding to the key frame. Thus, the index information 305 can be designated and displayed at the corresponding position of the progress bar 303 arranged corresponding to the moving picture screen 310 as illustrated in FIG. 3 (S213).

앞서 설명한 바와 같이, 본 발명의 실시예에 따르면 동영상에 포함된 복수의 영상 프레임에서 타이틀 영역을 자동으로 선정한 후에 이를 비교하여 색인을 위한 키프레임을 선정하며, 선정된 키프레임에서 인식된 색인 정보를 해당 키프레임에 대응하여 지정한다. 따라서, 텍스트 정보를 포함할 수 있는 타이틀 영역의 위치가 동영상의 화면 내에서 변경되더라도 적응적으로 대처하여 색인 처리할 수 있다.As described above, according to the embodiment of the present invention, a title area is automatically selected from a plurality of image frames included in a moving image, and then a key frame for an index is selected by comparing the title area. Then, And designates corresponding to the key frame. Accordingly, even if the position of the title area, which can include the text information, is changed within the screen of the moving picture, it can adaptively cope with the indexing process.

본 발명에 첨부된 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of the steps of the flowcharts appended to the present invention may be performed by computer program instructions. These computer program instructions may be loaded into a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus so that the instructions, which are executed via a processor of a computer or other programmable data processing apparatus, Lt; / RTI > These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory It is also possible to produce manufacturing items that contain instruction means for performing the functions described in each step of the flowchart. Computer program instructions may also be stored on a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible for the instructions to perform the processing equipment to provide steps for executing the functions described in each step of the flowchart.

또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments, the functions mentioned in the steps may occur out of order. For example, the two steps shown in succession may in fact be performed substantially concurrently, or the steps may sometimes be performed in reverse order according to the corresponding function.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

본 발명의 실시예에 따르면, 동영상에 포함된 복수의 영상 프레임에서 타이틀 영역을 자동으로 선정한 후에 이를 비교하여 색인을 위한 키프레임을 선정한다. 따라서, 텍스트 정보를 포함할 수 있는 타이틀 영역의 위치가 화면 내에서 변경되더라도 적응적으로 대처하여 색인 처리할 수 있다.According to an embodiment of the present invention, a title area is automatically selected from a plurality of image frames included in moving images, and then a key frame for indexing is selected by comparing the title areas. Therefore, even if the position of the title area, which can include the text information, is changed within the screen, it can adaptively cope with the index process.

이러한 본 발명은 방송 컨텐츠 등을 포함하는 각종 동영상에 대한 색인 처리가 필요한 산업기술분야에 널리 이용할 수 있다.The present invention can be widely used in an industrial technology field that requires index processing for various moving pictures including broadcast contents and the like.

100 : 동영상 색인 장치 110 : 에지 추출부
120 : 타이틀 선정부 130 : 프레임 선정부
140 : 색인부
100: Moving picture indexing device 110:
120: Title selection part 130: Frame selection part
140: index part

Claims (6)

동영상에 포함된 복수의 영상 프레임에서 각 영상 프레임의 에지 성분 영상을 추출하는 단계와,
복수의 상기 에지 성분 영상을 이용하여 상기 복수의 영상 프레임 중에서 제 1 영상 프레임과 제 2 영상 프레임의 타이틀 영역을 각각 선정하는 단계와,
상기 선정된 타이틀 영역을 비교한 결과에 따라 상기 제 1 영상 프레임과 상기 제 2 영상 프레임 중에서 적어도 어느 하나를 키프레임으로 선정하는 단계를 포함하는 동영상 색인 방법.
Extracting an edge component image of each image frame from a plurality of image frames included in the moving image,
Selecting a title region of a first image frame and a title region of a second image frame among the plurality of image frames using a plurality of the edge component images,
And selecting at least one of the first image frame and the second image frame as a key frame according to a result of comparing the selected title area.
제 1 항에 있어서,
상기 키프레임에 대응하여, 상기 키프레임에서 인식된 색인 정보를 지정하는 단계를 더 포함하는 동영상 색인 방법.
The method according to claim 1,
And specifying index information recognized in the key frame corresponding to the key frame.
제 2 항에 있어서,
상기 색인 정보는 상기 키프레임의 타이틀 영역 이미지, 상기 키프레임을 이용한 썸네일 또는 상기 타이틀 영역에서 인식된 텍스트 중에서 적어도 어느 하나인 것을 특징으로 하는 동영상 색인 방법.
3. The method of claim 2,
Wherein the index information is at least one of a title area image of the key frame, a thumbnail using the key frame, or text recognized in the title area.
동영상에 포함된 복수의 영상 프레임에서 각 영상 프레임의 에지 성분 영상을 추출하는 에지 추출부와,
복수의 상기 에지 성분 영상을 이용하여 상기 복수의 영상 프레임 중에서 제 1 영상 프레임과 제 2 영상 프레임의 타이틀 영역을 각각 선정하는 타이틀 선정부와,
상기 선정된 타이틀 영역을 비교한 결과에 따라 상기 제 1 영상 프레임과 상기 제 2 영상 프레임 중에서 적어도 어느 하나를 키프레임으로 선정하는 프레임 선정부를 포함하는 동영상 색인 장치.
An edge extracting unit for extracting an edge component image of each image frame from a plurality of image frames included in the moving image;
A title selecting unit for selecting a title area of a first image frame and a second image frame from among the plurality of image frames using the plurality of edge component images,
And a frame selecting unit for selecting at least one of the first image frame and the second image frame as a key frame according to a result of comparing the selected title area.
제 4 항에 있어서,
상기 키프레임에 대응하여, 상기 키프레임에서 인식된 색인 정보를 지정하는 색인부를 더 포함하는 동영상 색인 장치.
5. The method of claim 4,
And an indexing unit for specifying index information recognized in the key frame corresponding to the key frame.
제 5 항에 있어서,
상기 색인 정보는 상기 키프레임의 타이틀 영역 이미지, 상기 키프레임을 이용한 썸네일 또는 상기 타이틀 영역에서 인식된 텍스트 중에서 적어도 어느 하나인 것을 특징으로 하는 동영상 색인 장치.

6. The method of claim 5,
Wherein the index information is at least one of a title area image of the key frame, a thumbnail using the key frame, or a text recognized in the title area.

KR1020140115936A 2014-09-02 2014-09-02 Method and apparatus for indexing moving picture KR102150543B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140115936A KR102150543B1 (en) 2014-09-02 2014-09-02 Method and apparatus for indexing moving picture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140115936A KR102150543B1 (en) 2014-09-02 2014-09-02 Method and apparatus for indexing moving picture

Publications (2)

Publication Number Publication Date
KR20160027651A true KR20160027651A (en) 2016-03-10
KR102150543B1 KR102150543B1 (en) 2020-09-01

Family

ID=55538984

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140115936A KR102150543B1 (en) 2014-09-02 2014-09-02 Method and apparatus for indexing moving picture

Country Status (1)

Country Link
KR (1) KR102150543B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112818984A (en) * 2021-01-27 2021-05-18 北京奇艺世纪科技有限公司 Title generation method and device, electronic equipment and storage medium
CN113747222A (en) * 2021-09-07 2021-12-03 湖南五凌电力科技有限公司 Picture synchronous transmission method and system based on edge calculation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050034536A (en) * 2003-10-09 2005-04-14 삼성전자주식회사 A method for tracking the disappearance of detected logos within digital video signals
KR20080040462A (en) * 2006-11-03 2008-05-08 삼성전자주식회사 Method for automatically changing into high definition broadcasting and the broadcasting receiving apparatus thereof
KR20110039744A (en) * 2009-10-12 2011-04-20 엘지전자 주식회사 Method for searching image signal and display system enabling of the method
KR20120123995A (en) * 2011-05-02 2012-11-12 삼성전자주식회사 Method for surveying watching of video content, Broadcasting receiving apparatus and Server thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050034536A (en) * 2003-10-09 2005-04-14 삼성전자주식회사 A method for tracking the disappearance of detected logos within digital video signals
KR20080040462A (en) * 2006-11-03 2008-05-08 삼성전자주식회사 Method for automatically changing into high definition broadcasting and the broadcasting receiving apparatus thereof
KR20110039744A (en) * 2009-10-12 2011-04-20 엘지전자 주식회사 Method for searching image signal and display system enabling of the method
KR20120123995A (en) * 2011-05-02 2012-11-12 삼성전자주식회사 Method for surveying watching of video content, Broadcasting receiving apparatus and Server thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112818984A (en) * 2021-01-27 2021-05-18 北京奇艺世纪科技有限公司 Title generation method and device, electronic equipment and storage medium
CN112818984B (en) * 2021-01-27 2023-10-24 北京奇艺世纪科技有限公司 Title generation method, device, electronic equipment and storage medium
CN113747222A (en) * 2021-09-07 2021-12-03 湖南五凌电力科技有限公司 Picture synchronous transmission method and system based on edge calculation

Also Published As

Publication number Publication date
KR102150543B1 (en) 2020-09-01

Similar Documents

Publication Publication Date Title
CN106254933B (en) Subtitle extraction method and device
US10506110B2 (en) Image processing apparatus, control method, and storage medium
RU2637989C2 (en) Method and device for identifying target object in image
US9549121B2 (en) Image acquiring method and electronic device
CN111091091A (en) Method, device and equipment for extracting target object re-identification features and storage medium
JP2005339547A (en) Apparatus and method for extracting character from image, and medium which records computer readable code for realizing method for extracting character from image
US9424653B2 (en) Method and apparatus for identifying a representative area of an image
US10115216B2 (en) Display control apparatus, display control method, and program
US20150319373A1 (en) Method and device to compose an image by eliminating one or more moving objects
US10460494B2 (en) Control method and storage medium
US10965885B2 (en) Clothes and accessories fitting method, display system and computer-readable recording medium thereof
KR102150543B1 (en) Method and apparatus for indexing moving picture
CN112822394B (en) Display control method, display control device, electronic equipment and readable storage medium
CN113225451A (en) Image processing method and device and electronic equipment
JP2021111228A (en) Learning device, learning method, and program
US9489727B2 (en) Method for generating a preferred image by replacing a region of a base image
US9886767B2 (en) Method, apparatus and computer program product for segmentation of objects in images
KR101822443B1 (en) Video Abstraction Method and Apparatus using Shot Boundary and caption
Li et al. An integration text extraction approach in video frame
CN108810568B (en) News segmentation method and device
CN113760429A (en) Control method and control device
CN108551584B (en) News segmentation method and device
KR102180478B1 (en) apparatus AND method for DETECTING CAPTION
CN113010815A (en) Display method and electronic device
Jaiswal et al. Automatic image cropping using saliency map

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant