KR101745370B1 - Method and system for providing image information with main frame - Google Patents

Method and system for providing image information with main frame Download PDF

Info

Publication number
KR101745370B1
KR101745370B1 KR1020100127369A KR20100127369A KR101745370B1 KR 101745370 B1 KR101745370 B1 KR 101745370B1 KR 1020100127369 A KR1020100127369 A KR 1020100127369A KR 20100127369 A KR20100127369 A KR 20100127369A KR 101745370 B1 KR101745370 B1 KR 101745370B1
Authority
KR
South Korea
Prior art keywords
image
image frame
frame
video
main
Prior art date
Application number
KR1020100127369A
Other languages
Korean (ko)
Other versions
KR20120066159A (en
Inventor
김미연
최문일
정학진
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020100127369A priority Critical patent/KR101745370B1/en
Publication of KR20120066159A publication Critical patent/KR20120066159A/en
Application granted granted Critical
Publication of KR101745370B1 publication Critical patent/KR101745370B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/434Query formulation using image data, e.g. images, photos, pictures taken by a user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 동영상에 포함된 영상 이미지에 대한 정보를 제공하는 방법 및 시스템에 관한 것으로서, 보다 상세하게는, 동영상 콘텐츠에 대하여 설정된 메인 영상 프레임을 이용하여 동영상에 포함된 영상 이미지에 대한 정보를 제공하는 방법 및 시스템에 관한 것이다.
영상 정보 제공 서버가 메인 영상 프레임을 이용하여 영상 정보를 제공하는 방법은 (a) 동영상 콘텐츠에 포함된 하나 이상의 영상 프레임 중에서 장면 전환에 기초하여 하나 이상의 메인 영상 프레임을 추출하는 단계, (b) 사용자 단말로부터 클릭 이벤트가 발생한 영상 프레임의 정보 및 영상 프레임 내의 위치 좌표 정보를 수신하는 단계, (c) 상기 영상 프레임의 정보에 매칭되는 메인 영상 프레임을 획득하는 단계, (d) 상기 획득한 메인 영상 프레임으로부터 상기 위치 좌표 정보에 매칭되는 영상 이미지를 획득하는 단계 및 (e) 상기 획득한 영상 이미지에 매칭되는 속성 정보를 상기 사용자 단말로 전송하는 단계를 포함할 수 있다.
The present invention relates to a method and system for providing information on a video image included in a moving picture, and more particularly, to a method and system for providing information on a video image included in a moving picture using a main video frame set for the moving picture content ≪ / RTI >
A method of providing image information using a main image frame includes the steps of: (a) extracting one or more main image frames based on a scene change from one or more image frames included in the moving image content; (b) (C) obtaining a main image frame matched with the information of the image frame, (d) acquiring a main image frame corresponding to the information of the image frame, And (e) transmitting attribute information matched with the acquired image image to the user terminal. According to another aspect of the present invention,

Description

메인 영상 프레임을 이용한 영상 정보 제공 방법 및 시스템{METHOD AND SYSTEM FOR PROVIDING IMAGE INFORMATION WITH MAIN FRAME}TECHNICAL FIELD [0001] The present invention relates to a method and system for providing image information using a main image frame,

본 발명은 동영상에 포함된 영상 이미지에 대한 정보를 제공하는 방법 및 시스템에 관한 것으로서, 보다 상세하게는, 동영상 콘텐츠에 대하여 설정된 메인 영상 프레임을 이용하여 동영상에 포함된 영상 이미지에 대한 정보를 제공하는 방법 및 시스템에 관한 것이다.
The present invention relates to a method and system for providing information on a video image included in a moving picture, and more particularly, to a method and system for providing information on a video image included in a moving picture using a main video frame set for the moving picture content ≪ / RTI >

인터넷 기술의 발달에 따라 인터넷 망을 통해 제공되는 콘텐츠의 종류가 증가하고 있으며, 특히 IPTV 서비스 등과 같이 인터넷 망을 통하여 동영상 콘텐츠의 제공하는 서비스가 널리 보급되고 있다.With the development of the Internet technology, the kinds of content provided through the Internet network are increasing, and in particular, the services provided by the video content through the Internet network such as the IPTV service are becoming widespread.

또한, 일방적으로 사용자에게 동영상 콘텐츠를 제공하던 종래의 서비스와는 달리 인터넷 망을 통하여 사용자와 신호를 주고받으며 사용자의 요청에 따라 특정 정보를 제공하는 양방향 서비스가 가능해지면서, 단순히 동영상 콘텐츠만을 제공하는 것이 아니라, 동영상 콘텐츠에 관련된 정보를 사용자에게 제공하는 서비스도 점차 이용되고 있다.In addition, unlike a conventional service that provides video content to a user unilaterally, it is possible to provide a bidirectional service for exchanging signals with a user via an Internet network and providing specific information according to a request of a user, In addition, services for providing information related to video contents to users are gradually being used.

종래의 기술에서, 이처럼 동영상 콘텐츠에 관련된 정보, 특히 동영상 내에 등장하는 물건, 배우, 건물 등에 대한 정보를 제공하기 위하여, 동영상 콘텐츠의 영상 프레임에 포함된 사물 또는 사람에 매칭되는 관련 정보, 상세 정보 등의 속성 정보를 동영상 콘텐츠에 포함된 모든 영상 프레임에 대하여 설정하였다.In the related art, in order to provide information related to video contents, in particular, information about objects, actors, buildings, etc. appearing in moving pictures, related information matching information on objects or persons included in video frames of moving picture contents, detailed information Is set for all video frames included in the video contents.

최근 사용자에게 제공되는 동영상 콘텐츠는 짧게는 수분에서 길게는 수시간의 재생 시간을 가지므로, 동영상 콘텐츠는 매우 많은 양의 영상 프레임을 포함할 수 있다.Recently, video content provided to a user has a short playback time from several minutes to several hours, so that the video content may include a very large amount of image frames.

따라서, 종래의 기술에 따라 동영상 콘텐츠에 포함된 영상 이미지에 대한 속성 정보를 제공하기 위하여 많은 양의 영상 프레임에 대하여 일일이 속성 정보를 설정하여야 하므로, 이러한 설정 작업을 위하여 시간, 비용 등의 자원 소모가 크다는 문제점이 있었다.
Accordingly, in order to provide attribute information for a video image included in moving image contents according to the related art, attribute information must be set for a large amount of image frames. Therefore, resource consumption such as time and cost There was a problem of being large.

본 발명의 일 실시예는 모든 영상 프레임에 대하여 속성 정보를 설정하는 것이 아니라, 영상 프레임 중에서 장면이 급격히 전환되는 메인 영상 프레임을 추출하고, 사용자에 의해 클릭 이벤트가 발생한 경우, 클릭 이벤트가 발생된 영상 프레임에 매칭되는 메인 영상 프레임에서 영상 이미지를 검색하여, 검색된 영상 이미지의 속성 정보를 제공하여 속성 정보 제공을 위하여 소모되는 자원을 최소화할 수 있는 방법 및 시스템을 제공하고자 한다.
In the embodiment of the present invention, not the attribute information is set for all image frames, but a main image frame in which a scene is rapidly switched among image frames is extracted, and when a click event is generated by a user, A method and system for searching for a video image in a main video frame matching a frame and providing attribute information of the retrieved video image to minimize resources consumed for providing attribution information.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면은 (a) 동영상 콘텐츠에 포함된 하나 이상의 영상 프레임 중에서 장면 전환에 기초하여 하나 이상의 메인 영상 프레임을 추출하는 단계, (b) 사용자 단말로부터 클릭 이벤트가 발생한 영상 프레임의 정보 및 영상 프레임 내의 위치 좌표 정보를 수신하는 단계, (c) 상기 영상 프레임의 정보에 매칭되는 메인 영상 프레임을 획득하는 단계, (d) 상기 획득한 메인 영상 프레임으로부터 상기 위치 좌표 정보에 매칭되는 영상 이미지를 획득하는 단계 및 (e) 상기 획득한 영상 이미지에 매칭되는 속성 정보를 상기 사용자 단말로 전송하는 단계를 포함하는 영상 정보 제공 서버가 메인 영상 프레임을 이용하여 영상 정보를 제공하는 방법을 제공할 수 있다.According to a first aspect of the present invention, there is provided a method for processing a moving image, comprising the steps of: (a) extracting one or more main image frames based on scene change from one or more image frames included in moving image content; (C) obtaining a main image frame matched with the information of the image frame, (d) acquiring a main image frame corresponding to the information of the image frame, And (e) transmitting attribute information matched with the obtained image to the user terminal, wherein the image information providing server uses the main image frame Thereby providing a method of providing image information.

본 발명의 제 1 측면에서, 상기 (a) 단계는 (a1) 상기 동영상 콘텐츠에 포함된 제 1 영상 프레임 및 상기 제 1 영상 프레임에 대하여 시간적으로 연속하는 제 2 영상 프레임을 미리 설정된 수의 블록으로 분할하는 단계, (a2) 상기 제 1 영상 프레임의 블록 및 상기 제 1 영상 프레임의 블록에 대응하는 제 2 영상 프레임의 블록의 픽셀에 기초하여 상기 제 1 영상 프레임의 블록 및 상기 제 2 영상 프레임의 블록의 차이를 산출하는 단계, (a3) 상기 대응하는 블록의 차이가 미리 설정된 제 1 임계 값 이상인 블록의 개수를 산출하는 단계 및 (a4) 상기 산출한 블록의 개수가 미리 설정된 제 2 임계 값 이상인 경우, 상기 제 2 영상 프레임을 메인 영상 프레임으로 설정하는 단계를 포함할 수 있다.In the first aspect of the present invention, the step (a) includes: (a1) a first image frame included in the moving image content and a second image frame temporally continuous with respect to the first image frame, (A2) a block of the first image frame and a block of the second image frame based on the pixels of the block of the first image frame and the block of the second image frame corresponding to the block of the first image frame, (A3) calculating a number of blocks having a difference of the corresponding block equal to or greater than a predetermined first threshold value, and (a4) calculating the number of blocks having a difference of at least a predetermined second threshold , And setting the second image frame as a main image frame.

또한, 본 발명의 제 1 측면에서, 상기 (a2) 단계는 (a21) 상기 제 1 영상 프레임의 블록 및 상기 제 2 영상 프레임의 블록 각각의 픽셀 값의 분포도를 포함하는 히스토그램을 산출하는 단계 및 (a22) 상기 산출한 히스토그램에 기초하여 상기 제 1 영상 프레임의 블록 및 상기 제 2 영상 프레임의 블록의 차이를 산출하는 단계를 포함할 수 있다.In addition, in the first aspect of the present invention, the step (a2) includes the steps of (a21) calculating a histogram including a distribution of pixel values of each of the blocks of the first image frame and the blocks of the second image frame, and a22) calculating a difference between the block of the first image frame and the block of the second image frame based on the calculated histogram.

또한, 본 발명의 제 1 측면에서, 상기 (a2) 단계는 (a23) 상기 제 1 영상 프레임의 블록의 픽셀 값들과 상기 제 2 영상 프레임의 블록의 픽셀 값들을 각각 비교하는 단계 및 (a24) 상기 비교 결과에 기초하여 상기 제 1 영상 프레임의 블록 및 상기 제 2 영상 프레임 블록의 픽셀 차이를 산출하는 단계를 포함할 수 있다.(A2) comparing pixel values of a block of the first image frame and pixel values of a block of the second image frame, respectively, and (a24) comparing the pixel values of the block of the first image frame with the pixel values of the block of the second image frame, And calculating a pixel difference between the first image frame and the second image frame based on the comparison result.

또한, 본 발명의 제 1 측면에서, 상기 (a) 단계는 (a5) 상기 추출한 메인 영상 프레임에 포함된 영상 이미지 중에서 영상 이미지 데이터베이스에 미리 저장된 이미지에 매칭되는 영상 이미지를 추출하는 단계, (a6) 상기 추출된 영상 이미지를 상기 추출된 영상 이미지에 매칭되는 이미지에 매핑시키고, 상기 추출된 영상 이미지의 위치 좌표를 상기 메인 영상 프레임에 매칭하여 등록하는 단계를 포함할 수 있다.In the first aspect of the present invention, the step (a) includes the steps of: (a5) extracting a video image matched with an image previously stored in a video image database among video images included in the extracted main video frame; Mapping the extracted video image to an image matched to the extracted video image, and registering the position coordinates of the extracted video image to match the main video frame.

또한, 본 발명의 제 2 측면은 동영상 콘텐츠로부터 장면 전환을 기초로 하나 이상의 영상 프레임에 매칭되는 메인 영상 프레임을 추출하고, 상기 메인 영상 프레임으로부터 영상 이미지를 추출하는 메인 영상 프레임 관리부, 사용자 단말로부터 수신한 클릭 이벤트 정보에 포함된 클릭 이벤트가 발생한 영상 프레임 정보에 매칭되는 메인 영상 프레임으로부터 상기 클릭 이벤트 정보에 포함된 클릭 이벤트가 발생한 위치 좌표에 매칭되는 영상 이미지를 획득하는 영상 이미지 매칭부 및 상기 획득한 영상 이미지에 매칭되는 속성 정보를 검색하고, 상기 검색한 속성 정보를 상기 사용자 단말로 전송하는 속성 정보 제공부를 포함하는 메인 영상 프레임을 이용한 영상 정보 제공 시스템을 제공할 수 있다.
According to a second aspect of the present invention, there is provided a mobile communication system including a main image frame management unit for extracting a main image frame matched with one or more image frames based on a scene change from a moving image content and extracting a video image from the main image frame, An image image matching unit for obtaining a video image matched with a positional coordinate at which a click event included in the click event information is generated from a main video frame matched with video frame information generated by a click event included in one click event information, And an attribute information providing unit for searching attribute information matching the video image and transmitting the retrieved attribute information to the user terminal.

전술한 본 발명의 과제 해결 수단에 의하면, 동영상 콘텐츠를 구성하는 영상 프레임 중에서 장면 전환을 기준으로 장면이 급격히 전환되는 영상 프레임을 메인 프레임으로 설정하고, 사용자의 클릭 이벤트가 발생한 영상 프레임에 매칭되는 메인 프레임에 대하여 클릭 이벤트가 발생한 위치 좌표에 해당하는 영상 이미지가 존재하는지 여부를 판단하여 클릭된 위치에 해당하는 영상 이미지의 속성 정보를 사용자에게 제공할 수 있다.According to an embodiment of the present invention, an image frame in which a scene is rapidly switched based on scene transition among image frames constituting a moving image content is set as a main frame, and a main frame, It is possible to determine whether there is a video image corresponding to the position coordinates at which a click event occurs in the frame, and provide attribute information of the video image corresponding to the clicked position to the user.

이처럼 전술한 본 발명의 과제 해결 수단에 의하면, 동영상 콘텐츠의 전체 영상 프레임이 아니라 유사한 장면에 해당하는 하나 이상의 영상 프레임을 대표하는 메인 영상 프레임에 대하여만 속성 정보를 부여하고, 사용자에 의해 클릭 이벤트가 발생한 영상 프레임을 대표하는 메인 영상 프레임을 이용하여 클릭된 위치의 영상 이미지를 획득하여 속성 이미지를 제공하므로, 영상 프레임에 속성 정보를 부여하기 위하여 필요한 자원을 최소화하면서도, 동일한 속성 정보를 사용자에게 제공할 수 있다.
According to the present invention, attribute information is provided only for a main image frame representing at least one image frame corresponding to a similar scene, not for a whole image frame of the moving image content, The main image frame representative of the generated image frame is used to acquire the image of the clicked position to provide the attribute image so that the same attribute information can be provided to the user while minimizing the resources required for assigning the attribute information to the image frame .

도 1은 본 발명의 일 실시예에 따른 메인 영상 프레임을 이용한 영상 정보 제공 시스템의 구성을 도시한 도면,
도 2는 본 발명의 일 실시예에 따른 메인 영상 프레임을 이용한 영상 정보 제공 방법에서 영상 정보 제공 서버가 영상 정보를 사용자 단말에 제공하는 방법의 흐름을 도시한 순서도,
도 3은 본 발명의 일 실시예에 따른 메인 영상 프레임을 이용한 영상 정보 제공 방법에서 동영상 콘텐츠로부터 메인 영상 프레임을 추출하는 방법의 흐름을 도시한 순서도,
도 4는 본 발명의 일 실시예에 따른 하나 이상의 영상 프레임에 매칭되는 메인 영상 프레임 및 메인 영상 프레임에 포함된 영상 이미지를 도시한 도면,
도 5는 본 발명의 일 실시예에 따른 메인 영상 프레임을 이용한 영상 정보 제공 시스템에서 영상 정보 제공 서버의 구성을 도시한 도면.
1 is a view illustrating a configuration of an image information providing system using a main image frame according to an embodiment of the present invention;
2 is a flowchart illustrating a method of providing image information to a user terminal in a method of providing image information using a main image frame according to an embodiment of the present invention.
3 is a flowchart illustrating a method of extracting a main image frame from a moving image content in a method of providing image information using a main image frame according to an exemplary embodiment of the present invention.
FIG. 4 illustrates a main image frame and an image included in a main image frame, which are matched with one or more image frames according to an exemplary embodiment of the present invention.
5 is a diagram illustrating a configuration of an image information providing server in an image information providing system using a main image frame according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.

도 1은 본 발명의 일 실시예에 따른 메인 영상 프레임을 이용한 영상 정보 제공 시스템의 구성을 도시한 도면이다.1 is a block diagram of a system for providing image information using a main image frame according to an embodiment of the present invention.

사용자 단말(100)은 네트워크를 통해 동영상 콘텐츠 제공 서버(300)로부터 동영상 콘텐츠를 제공받아 제공받은 동영상 콘텐츠를 출력하여 사용자에게 제공한다. 사용자 단말(100)은 출력 중인 동영상 콘텐츠에 대한 클릭 이벤트를 사용자로부터 수신하고, 클릭 이벤트가 발생한 영상 프레임의 정보 및 클릭된 위치 좌표 정보를 영상 정보 제공 서버(200)로 전송하여 클릭된 이미지에 대한 속성 정보를 요청한다.The user terminal 100 receives the video content from the video content providing server 300 via the network and outputs the received video content to the user. The user terminal 100 receives the click event of the video content being output from the user, transmits the information of the video frame in which the click event occurs and the clicked position coordinate information to the video information providing server 200, Request attribute information.

사용자 단말(100)은 동영상 플레이 모드에서 동영상 콘텐츠를 출력하여 사용자에게 제공할 수 있으며, 사용자의 요청에 따라 동영상 플레이 모드에서 정보 제공 모드로 전환하고, 정보 제공 모드에서 사용자의 클릭 이벤트가 발생할 수 있다.The user terminal 100 may output the video content in the video play mode and provide the video content to the user. In response to the user's request, the user terminal 100 switches from the video play mode to the information providing mode, .

사용자 단말(100)은, 데스크탑, 노트북, 셋탑박스 등 통신 기능 및 영상 제공 기능을 수행할 수 있는 단말을 포함할 수 있다.The user terminal 100 may include a terminal capable of performing a communication function and a video providing function such as a desktop, a notebook, and a set-top box.

영상 정보 제공 서버(200)는 동영상 콘텐츠 제공 서버(300)로부터 동영상 콘텐츠, 즉 동영상의 영상 프레임 정보를 수신하고, 다수의 영상 프레임 중에서 하나 이상의 영상 프레임을 대표할 수 있는 메인 영상 프레임을 추출한다.The image information providing server 200 receives the moving image content, that is, the image frame information of the moving image from the moving image content providing server 300, and extracts a main image frame that can represent at least one image frame among the plurality of image frames.

메인 영상 프레임은 특정 장면에 대한 하나 이상의 영상 프레임을 대표하는 프레임이며, 장면이 전환하는 경우 최초의 영상 프레임이 전환된 장면에 포함되는 하나 이상의 영상 프레임에 대한 메인 영상 프레임으로 설정될 수 있다.The main image frame is a frame representing one or more image frames for a specific scene and may be set as a main image frame for one or more image frames included in the scene in which the first image frame is switched when the scene is switched.

영상 정보 제공 서버(200)는 메인 영상 프레임에 포함된 영상 이미지를 추출하고, 추출된 영상 이미지의 좌표 정보와 추출된 영상 이미지에 매칭되는 속성 정보를 매핑하여 데이터베이스에 저장한다.The image information providing server 200 extracts a video image included in the main video frame, maps the coordinate information of the extracted video image and attribute information matched to the extracted video image, and stores the mapped information in a database.

영상 이미지에 매칭되는 속성 정보는, 해당 영상 이미지의 상세 정보를 포함할 수 있다. 예를 들어 영상 이미지가 특정 배우 또는 인물인 경우, 속성 정보는 해당 배우의 상세 프로필 등을 포함할 수 있으며, 영상 이미지가 자동차에 대한 이미지인 경우, 속성 정보는 해당 자동차의 명칭, 가격, 성능, 제조사 등의 상세 정보를 포함할 수 있다.The attribute information matching the video image may include detailed information of the video image. For example, if the video image is a specific actor or a person, the attribute information may include a detailed profile of the actor, etc. If the video image is an image for a car, the attribution information includes the name, Manufacturer, and the like.

영상 정보 제공 서버(200)는 사용자 단말(100)로부터 속성 정보 요청을 수신하고, 속성 정보 요청과 함께 수신한 영상 프레임 정보 및 위치 좌표 정보에 매칭되는 속성 정보를 검색하여 검색된 속성 정보를 사용자 단말(100)에 제공한다.The image information providing server 200 receives the attribute information request from the user terminal 100, searches the attribute information matching the image frame information and the position coordinate information received together with the attribute information request, 100).

이처럼 본 발명은 동영상 콘텐츠에 포함된 영상 프레임 전체에 대하여 영상 이미지를 추출하고 속성 정보를 부여하는 것이 아니라, 장면마다 해당 장면을 대표할 수 있는 메인 영상 프레임을 추출하고, 추출된 메인 영상 프레임에 대하여만 영상 이미지를 추출하고 속성 정보를 부여하고, 사용자로부터 클릭 이벤트가 발생하는 경우, 메인 영상 프레임을 이용하여 속성 정보를 제공하므로, 속성 정보 제공을 위한 데이터베이스를 보다 용이하게 구축할 수 있다.As described above, according to the present invention, a main image frame that can represent a corresponding scene is extracted for each scene, instead of extracting a video image and attribute information for the entire video frame included in the video content, Only the video image is extracted and the attribute information is given. When a click event occurs from the user, the attribute information is provided using the main image frame, so that the database for providing attribute information can be constructed more easily.

도 2는 본 발명의 일 실시예에 따른 메인 영상 프레임을 이용한 영상 정보 제공 방법에서 영상 정보 제공 서버가 영상 정보를 사용자 단말에 제공하는 방법의 흐름을 도시한 순서도이다.2 is a flowchart illustrating a method of providing image information to a user terminal in a method of providing image information using a main image frame according to an exemplary embodiment of the present invention.

단계(S105)에서, 영상 제공 서버는 동영상 콘텐츠 제공 서버로부터 수신한 동영상 콘텐츠로부터 하나 이상의 메인 영상 프레임을 추출한다. 전술한 바와 같이 메인 영상 프레임은 하나 이상의 영상 프레임을 포함하는 영상 프레임 그룹을 대표할 수 있다. 영상 프레임 그룹은 시간의 흐름에 따라 장면 전환을 기준으로 설정될 수 있으며, 영상 프레임 그룹의 최초 영상 프레임이 메인 영상 프레임으로 설정될 수 있다.In step S105, the image providing server extracts one or more main image frames from the moving image contents received from the moving image contents providing server. As described above, the main image frame may represent an image frame group including one or more image frames. The video frame group may be set based on scene transition according to the time, and the first video frame of the video frame group may be set as the main video frame.

예를 들어, 동영상 콘텐츠에서 거리를 포함하는 장면에서 방을 포함하는 장면으로 전환되는 경우, 방을 포함하는 장면 형성하는 하나 이상의 영상 프레임이 하나의 영상 프레임 그룹을 형성할 수 있으며, 거리에서 방으로 전환되는 최초의 영상 프레임이 해당 영상 프레임 그룹의 메인 영상 프레임으로 설정될 수 있다.For example, when moving from a scene including a distance to a scene including a room in the video content, one or more image frames forming a scene including a room may form one image frame group, The first video frame to be switched can be set as the main video frame of the video frame group.

단계(S110)에서, 영상 제공 서버는 단계(S105)에서 추출한 메인 영상 프레임으로부터 영상 이미지를 추출하고, 추출한 영상 이미지의 좌표 정보를 메인 영상 프레임 데이터베이스(도시 생략)에 저장한다.In step S110, the image providing server extracts the image image from the main image frame extracted in step S105, and stores the coordinate information of the extracted image image in the main image frame database (not shown).

즉, 영상 제공 서버는 메인 영상 프레임에 포함된 영상 이미지 중에서 영상 이미지 데이터베이스에 미리 저장된 이미지에 매칭되는 영상 이미지를 추출하고, 추출한 영상 이미지에 매칭되는 영상 이미지 데이터베이스의 이미지를 추출한 영상 이미지에 매핑시킨다.That is, the image providing server extracts a video image matching the image stored in the video image database among the video images included in the main video frame, and maps the image of the video image database matching the extracted video image to the extracted video image.

영상 제공 서버는 영상 이미지 데이터베이스의 이미지에 매핑된 메인 영상 프레임의 영상 이미지의 위치 좌표를 메인 영상 프레임 데이터베이스에 저장한다.The image providing server stores the positional coordinates of the image image of the main image frame mapped to the image of the image image database in the main image frame database.

영상 제공 서버는 메인 영상 프레임으로부터 추출한 영상 이미지를 미리 구축된 영상 이미지 데이터베이스(도시 생략)에 저장된 영상 이미지와 비교하여 매칭되는 이미지를 획득할 수 있다.The image providing server can compare the image extracted from the main image frame with the image image stored in the built-up image database (not shown) to acquire a matching image.

예를 들어 영상 제공 서버는 메인 영상 프레임으로부터 가방에 대한 이미지를 추출하고, 추출한 이미지를 영상 이미지 데이터베이스에 저장된 하나 이상의 영상 이미지와 비교하여 매칭되는 가방 이미지를 획득할 수 있다.For example, the image providing server may extract an image of the bag from the main image frame, and compare the extracted image with one or more image images stored in the image image database to obtain a matching bag image.

영상 제공 서버는 영상 이미지 데이터베이스로부터 매칭되는 이미지가 획득된 메인 영상 프레임의 영상 이미지를 형성하는 외곽의 좌표 정보를 획득하고, 메인 영상 프레임의 영상 이미지, 영상 이미지 데이터베이스의 매칭되는 이미지 및 영상 이미지의 외곽의 좌표 정보를 매핑(mapping)하여 메인 영상 프레임 데이터베이스에 저장할 수 있다.The image providing server acquires the coordinate information of the outer frame forming the video image of the main image frame from which the matching image is obtained from the image image database, and acquires the image of the main image frame, the matching image of the image image database, Can be mapped and stored in the main image frame database.

영상 제공 서버는 영상 이미지를 형성하는 외곽을 미리 설정된 다각형 형태로 구성할 수 있으며, 다각형의 외곽의 좌표 정보를 영상 이미지의 외곽의 좌표 정보로 설정하여 저장할 수 있다.The image providing server can configure an outline forming a video image in a preset polygonal shape, and can store coordinate information of the outline of the polygon as coordinate information of the outline of the video image.

즉, 도 4에 도시된 바와 같이, 영상 제공 서버는 동영상 콘텐츠의 하나 이상의 영상 프레임을 장면 별로 하나 이상의 영상 프레임 그룹(410, 420 및 430)으로 구분할 수 있으며, 각각의 영상 프레임 그룹(410, 420 및 430)에 대하여 영상 프레임 그룹을 대표할 수 있는 메인 영상 프레임(411, 421 및 431)을 설정할 수 있다.4, the image providing server may classify one or more image frames of the moving image content into one or more image frame groups 410, 420 and 430 for each scene, and each of the image frame groups 410 and 420 And 430, main image frames 411, 421, and 431 that can represent image frame groups can be set.

또한, 영상 제공 서버는 각각의 메인 영상 프레임(411, 421 및 431)에 대하여 영상 이미지(412)를 추출할 수 있으며, 추출된 영상 이미지(412)를 영상 이미지 데이터베이스(260)의 이미지(261)에 매칭시켜 매칭 정보를 메임 프레임 데이터베이스에 저장할 수 있다.The image providing server can extract a video image 412 for each main video frame 411, 421 and 431 and output the extracted video image 412 to the image 261 of the video image database 260. [ And store the matching information in the main frame database.

이처럼 영상 제공 서버는 모든 영상 프레임에 대하여 속성 정보에 매칭되는 영상 이미지를 추출하는 것이 아니라, 하나 이상의 영상 프레임과 영상에 등장하는 사물 또는 인물의 위치가 유사한 메인 영상 프레임을 추출하고, 추출한 메인 영상 프레임에 대하여만 속성 정보를 설정하므로, 속성 정보를 제공하기 위한 데이터베이스 구축에 소요되는 자원을 최소화할 수 있다.As described above, the image providing server extracts a main image frame having a similar position of an object or a character appearing in the image with one or more image frames, instead of extracting the image image matched with the attribute information of all the image frames, The resource required to construct the database for providing the attribute information can be minimized.

단계(S115)에서, 영상 제공 서버는 사용자 단말로부터 사용자에 의해 발생한 클릭 이벤트의 정보를 수신한다.In step S115, the image providing server receives the information of the click event generated by the user from the user terminal.

사용자 단말에서 클릭 이벤트는 특정한 모드 상태에서 발생할 수 있다. 즉, 동영상 출력을 목적으로 하는 동영상 플레이 모드에서는 사용자에 의해 클릭이 수행되더라도 사용자 단말은 이러한 클릭을 영상 속성 정보를 제공하기 위한 클릭 이벤트로 인식하지 않으며, 사용자에 의해 정보 제공 모드 상태로 설정된 상태에서 수행된 클릭만을 영상 속성 정보 제공을 위한 클릭 이벤트로 인식할 수 있다.A click event at the user terminal may occur in a specific mode. That is, in the video play mode for video output, the user terminal does not recognize such a click as a click event for providing the video attribute information, even if the user clicks the video, Only clicks performed can be recognized as click events for providing image attribute information.

따라서, 사용자가 동영상 플레이 모드에서 실수로 동영상의 일부분을 클릭한 경우에도, 사용자의 의도에 반하여 영상 이미지의 속성 정보가 제공되는 것을 방지할 수 있다.Accordingly, even when the user accidentally clicks a part of the moving picture in the moving picture play mode, attribute information of the moving image can be prevented from being provided against the intention of the user.

이처럼 영상 제공 서버는 사용자 단말이 동영상 콘텐츠를 제공하기 위한 동영상 플레이 모드를 정보 제공 모드로 변환하였는지 여부를 모니터링하고, 정보 제공 모드 상태에서 사용자의 클릭 이벤트가 발생하였는지 여부를 모니터링하여 클릭 이벤트의 정보를 수신할 수 있다.In this way, the image providing server monitors whether or not the user terminal has converted the video play mode for providing the video contents into the information providing mode, monitors whether or not the user's click event has occurred in the information providing mode state, .

클릭 이벤트 정보는 사용자에 의해 클릭 이벤트가 발생할 당시에 출력된 영상 프레임의 정보, 클릭된 위치의 좌표 정보 등을 포함할 수 있다.The click event information may include information of the image frame output at the time of the occurrence of the click event by the user, coordinate information of the clicked position, and the like.

단계(S120)에서, 영상 제공 서버는 사용자 단말로부터 수신한 클릭 이벤트 정보로부터 클릭 이벤트가 발생할 당시에 출력된 영상 프레임의 정보, 클릭된 위치의 좌표 정보를 획득한다.In step S120, the image providing server obtains the information of the image frame outputted at the time of the occurrence of the click event, and the coordinate information of the clicked position, from the click event information received from the user terminal.

단계(S125)에서, 영상 제공 서버는 단계(S120)에서 획득한 영상 프레임 정보에 매칭되는 메인 영상 프레임을 검색한다. 즉, 영상 제공 서버는 사용자에 의해 클릭 이벤트가 발생한 영상 프레임이 속하는 영상 프레임 그룹을 검색하고, 검색된 영상 프레임 그룹에 매칭되는 메인 영상 프레임을 검색한다.In step S125, the image providing server searches for a main image frame matched with the image frame information acquired in step S120. That is, the image providing server searches the image frame group to which the image frame in which the click event occurred by the user belongs, and searches for the main image frame matched with the searched image frame group.

단계(S130)에서, 영상 제공 서버는 단계(S125)에서 검색된 메인 영상 프레임에 단계(S120)에서 획득한 위치 좌표 정보에 해당하는 영상 이미지가 존재하는지 여부를 판단한다.In step S130, the image providing server determines whether a video image corresponding to the position coordinate information acquired in step S120 exists in the main image frame retrieved in step S125.

즉, 영상 제공 서버는 단계(S125)에서 검색된 메인 영상 프레임 내에서 단계(S120)에서 획득한 위치 좌표 정보에 해당하는 위치에 단계(S110)에서 설정된 영상 이미지가 존재하는지 여부를 판단한다.That is, the image providing server determines whether a video image set in step S110 exists in a position corresponding to the position coordinate information acquired in step S120 in the main image frame retrieved in step S125.

전술한 바와 같이, 영상 제공 서버는 단계(S105)에서 급격한 장면 전환을 기준으로 하나 이상의 영상 프레임을 포함하는 하나 이상의 영상 프레임 그룹으로 동영상 콘텐츠를 구분하고, 각각의 영상 프레임 그룹마다 메인 영상 프레임을 설정한다.As described above, in step S105, the image providing server classifies the video content into at least one video frame group including at least one video frame based on the sudden scene change, and sets a main video frame for each video frame group do.

따라서, 메인 영상 프레임은 해당하는 영상 프레임 그룹 내의 다른 영상 프레임과 유사한 장면을 포함하며, 영상 내의 사물, 사람 등의 위치도 유사할 수 있다.Accordingly, the main image frame includes scenes similar to other image frames in the corresponding image frame group, and positions of objects, people, and the like in the image may be similar.

따라서, 영상 제공 서버는 클릭 이벤트가 발생한 영상 프레임에 매칭되는 메인 영상 프레임 내의 클릭 이벤트가 발생한 위치에 매칭되는 속성 정보가 설정된 영상 이미지를 검색하여, 사용자에게 속성 정보를 제공할 수 있는 영상 이미지가 존재하는지 여부를 판단한다.Accordingly, the image providing server searches for a video image in which attribute information matched with the position where the click event occurs in the main video frame matched with the video frame in which the click event occurs, and a video image capable of providing attribute information to the user exists Or not.

단계(S135)에서, 단계(S130)에서 메인 영상 프레임 내에 클릭된 위치에 해당하는 영상 이미지가 존재하는 것으로 판단한 경우, 영상 제공 서버는 검색된 영상 이미지에 매칭되는 속성 정보를 검색하고, 검색된 속성 정보를 사용자 단말로 전송하여 사용자에게 제공한다.If it is determined in step S135 that there is a video image corresponding to the clicked position in the main video frame in step S130, the video providing server searches for the attribute information matched with the searched video image, And transmits it to the user terminal and provides it to the user.

따라서, 사용자는 동영상 콘텐츠를 시청하는 도중에 동영상 콘텐츠에 등장하는 관심 사물 또는 인물을 클릭함으로써 관심 사물 또는 인물에 대한 속성 정보, 즉 관련 정보를 제공받을 수 있다.Accordingly, the user can receive the attribute information about the object of interest or the related information, that is, related information, by clicking on the object or the person appearing in the video content during the viewing of the video content.

도 3은 본 발명의 일 실시예에 따른 메인 영상 프레임을 이용한 영상 정보 제공 방법에서 동영상 콘텐츠로부터 메인 영상 프레임을 추출하는 방법의 흐름을 도시한 순서도이다.3 is a flowchart illustrating a method of extracting a main image frame from moving image contents in a method of providing image information using a main image frame according to an exemplary embodiment of the present invention.

단계(S205)에서, 영상 제공 서버는 동영상 콘텐츠에 포함된 제 k 영상 프레임과 제 k+1 영상 프레임을 N개의 블록으로 분할한다. 즉, 영상 제공 서버는 동영상 콘텐츠를 구성하는 영상 프레임 중 연속되는 두 개의 영상 프레임을 미리 설정된 개수의 블록으로 분할한다.In step S205, the image providing server divides the kth image frame and the (k + 1) th image frame included in the moving image content into N blocks. That is, the image providing server divides two consecutive image frames among the image frames constituting the moving image content into a predetermined number of blocks.

단계(S210)에서, 영상 제공 서버는 n의 값을 1로 설정하고, 단계(S215)에서, 영상 제공 서버는 제 k 영상 프레임의 제 n 블록 및 제 k+1 영상 프레임의 제 n 블록 각각의 픽셀 값의 분포도를 나타내는 히스토그램을 각각 산출한다.In step S210, the image providing server sets the value of n to 1, and in step S215, the image providing server obtains the value of n in each of the n-th block of the k-th image frame and the n-th block of the And a histogram representing a distribution of pixel values are respectively calculated.

즉, 영상 제공 서버는 연속되는 두 개의 영상 프레임의 동일한 위치의 블록의 픽셀 값의 분포도에 대한 히스토그램을 각각 산출한다.That is, the image providing server calculates the histogram of the distribution of the pixel values of the blocks in the same position of two consecutive image frames.

단계(S220)에서, 영상 제공 서버는 단계(S215)에서 산출한 제 k 영상 프레임의 제 n 블록의 히스토그램 및 제 k+1 영상 프레임의 제 n 블록의 히스토그램의 차이가 미리 설정된 임계 값 이상인지 여부를 판단한다.In step S220, the image providing server determines whether the difference between the histogram of the n-th block of the k-th image frame and the histogram of the n-th block of the (k + 1) -th image frame calculated in step S215 is greater than or equal to a preset threshold value .

즉, 영상 제공 서버는 제 k 영상 프레임의 제 n 블록의 픽셀 값의 분포도와 제 k+1 영상 프레임의 제 n 블록의 픽셀 값의 분포도가 미리 설정된 임계 값 이상인지 여부를 판단한다.That is, the image providing server determines whether the distribution of the pixel values of the n-th block of the k-th image frame and the distribution of the pixel values of the n-th block of the (k + 1) th image frame are equal to or greater than a preset threshold value.

단계(S225)에서, 단계(S220)에서 제 k 영상 프레임의 제 n 블록의 히스토그램 및 제 k+1 영상 프레임의 제 n 블록의 히스토그램의 차이가 미리 설정된 임계 값 이상인 것으로 판단된 경우, 영상 제공 서버는 제 k 영상 프레임의 제 n 블록의 픽셀 값의 합산된 값 및 제 k+1 영상 프레임의 제 n 블록의 픽셀 값의 합산된 값의 차이를 산출한다.If it is determined in step S225 that the difference between the histogram of the n-th block of the k-th image frame and the histogram of the n-th block of the (k + 1) -th image frame is equal to or greater than a preset threshold value in step S220, Calculates the difference between the sum of the pixel values of the nth block of the kth image frame and the sum of the pixel values of the nth block of the (k + 1) th image frame.

단계(S230)에서, 영상 제공 서버는 단계(S225)에서 산출한 제 k 영상 프레임의 제 n 블록의 픽셀 값의 합산 값 및 제 k+1 영상 프레임의 제 n 블록의 픽셀 값의 합산 값의 차이가 미리 설정된 임계 값 이상인지 여부를 판단한다.In step S230, the image providing server calculates the difference between the sum of the pixel values of the n-th block of the k-th image frame calculated in step S225 and the sum of the pixel values of the n-th block of the (k + 1) Is equal to or greater than a preset threshold value.

단계(S235)에서, 단계(S225)에서 제 k 영상 프레임의 제 n 블록의 픽셀 값의 합산 값 및 제 k+1 영상 프레임의 제 n 블록의 픽셀 값의 합산 값의 차이가 미리 설정된 임계 값 이상인 것으로 판단된 경우, 영상 제공 서버는 제 k 영상 프레임과 제 k+1 영상 프레임 사이의 상이한 블록의 개수를 나타내는 m의 값을 1만큼 증가시킨다.If the difference between the sum of the pixel values of the n-th block of the k-th image frame and the sum of the pixel values of the n-th block of the (k + 1) -th image frame is greater than or equal to a preset threshold value in step S225 The image providing server increases the value of m indicating the number of different blocks between the kth image frame and the (k + 1) th image frame by one.

즉, 제 k 영상 프레임의 제 n 블록과 제 k+1 영상 프레임의 제 n 블록의 픽셀 값의 분포도를 나타내는 히스토그램의 차이가 임계 값 이상이고, 제 k 영상 프레임의 제 n 블록의 픽셀 값의 합과 제 k+1 영상 프레임의 제 n 블록의 픽셀 값의 합의 차이가 미리 설정된 임계 값 이상인 경우, 영상 제공 서버는 제 k 영상 프레임의 제 n 블록과 제 k+1 영상 프레임의 제 n 블록이 상이하다고 판단할 수 있다.That is, when the difference between the histograms showing the distribution of the pixel values of the n-th block of the k-th image frame and the n-th block of the k + 1-th image frame is equal to or more than the threshold value, And the n-th block of the (k + 1) -th image frame is equal to or greater than a preset threshold value, the image providing server determines that the n-th block of the k- .

단계(S240)에서, 영상 제공 서버는 제 k 영상 프레임 및 제 k+1 영상 프레임의 분할된 N개의 블록에 대하여 모두 비교가 수행되었는지 여부를 판단한다. 즉, 영상 제공 서버는 제 k 영상 프레임의 N개의 블록 및 제 k+1 영상 프레임의 N개의 블록이 상이한지 여부에 대한 판단을 모두 수행하였는지 여부를 판단한다.In step S240, the image providing server determines whether all of the N blocks of the k-th image frame and the (k + 1) -th image frame are compared. That is, the image providing server determines whether all the N blocks of the kth image frame and the N blocks of the (k + 1) th image frame are different or not.

단계(S245)에서, 단계(S240)에서 제 k 영상 프레임 및 제 k+1 영상 프레임의 분할된 N개의 블록에 대한 비교가 모두 수행되지 않은 것으로 판단되는 경우, 영상 제공 서버는 제 k 영상 프레임 및 제 k+1 영상 프레임의 블록의 식별 값 n의 값을 1만큼 증가 시키고, 제 k 영상 프레임 및 제 k+1 영상 프레임의 제 n 블록에 대하여 단계(S215) 내지 단계(S235)를 수행한다.If it is determined in step S245 that all of the N blocks of the k-th image frame and the (k + 1) -th image frame are not compared in step S240, the image providing server transmits the k- The value of the identification value n of the block of the (k + 1) -th image frame is incremented by 1, and the steps (S215) to (S235) are performed for the n-th block of the k-th image frame and the (k + 1) th image frame.

단계(S250)에서, 단계(S240)에서 제 k 영상 프레임 및 제 k+1 영상 프레임의 분할된 N개의 블록에 대한 비교가 모두 수행된 것으로 판단된 경우, 영상 제공 서버는 제 k 영상 프레임과 제 k+1 영상 프레임 사이의 상이한 블록의 개수의 값인 m의 값이 미리 설정된 임계 값 이상인지 여부를 판단한다.If it is determined in step S250 that all of the N blocks of the k-th image frame and the (k + 1) -th image frame have been compared in step S240, it is determined whether the value of m, which is the value of the number of different blocks between k + 1 image frames, is equal to or greater than a predetermined threshold value.

즉, 영상 제공 서버는 제 k 영상 프레임 및 제 k+1 영상 프레임이 미리 설정된 개수 이상의 상이한 블록을 갖는지 여부를 판단한다.That is, the image providing server determines whether the kth image frame and the (k + 1) th image frame have a predetermined number or more of different blocks.

단계(S255)에서, 제 k 영상 프레임과 제 k+1 영상 프레임 사이의 상이한 블록의 개수의 값인 m의 값이 미리 설정된 임계 값 이상인 것으로 판단된 경우, 영상 제공 서버는 제 k+1 영상 프레임을 메인 영상 프레임으로 설정한다.If it is determined in step S255 that the value of m, which is the value of the number of different blocks between the k-th image frame and the (k + 1) -th image frame, is equal to or greater than a preset threshold value, Set to the main video frame.

즉, 제 k 영상 프레임과 제 k+1 영상 프레임 사이의 상이한 블록의 개수의 값인 m의 값이 미리 설정된 임계 값 이상인 경우, 영상 제공 서버는 제 k 영상 프레임에 대하여 제 k+1 영상 프레임에서 급격한 장면 전환이 발생한 것으로 판단하고, 장면 전환된 최초의 영상 프레임인 제 k+1 영상 프레임을 메인 영상 프레임으로 설정할 수 있다.That is, when the value of m, which is the value of the number of different blocks between the k-th image frame and the (k + 1) -th image frame, is equal to or greater than a preset threshold value, It is determined that the scene change has occurred, and the (k + 1) -th image frame, which is the first image frame that has been scene-switched, can be set as the main image frame.

단계(S260)에서, 영상 제공 서버는 동영상 콘텐츠의 모든 영상 프레임에 대하여 전후 영상 프레임의 블록 분할 및 블록 비교를 수행하였는지 여부를 판단한다. 즉, 영상 제공 서버는 동영상 콘텐츠의 모든 영상 프레임에 대하여 단계(S205) 내지 단계(S255)를 적용하였는지 여부를 판단한다.In step S260, the image providing server determines whether or not block segmentation and block comparison of forward and backward image frames are performed on all image frames of the moving image contents. That is, the image providing server determines whether steps S205 to S255 are applied to all the image frames of the moving image contents.

동영상 콘텐츠의 모든 영상 프레임에 대하여 전후 영상 프레임의 블록 분할 및 블록 비교를 수행한 것으로 판단되는 경우, 영상 제공 서버는 메인 영상 프레임 설정 수행을 종료한다.If it is determined that the block division and the block comparison of the previous and next image frames are performed for all the image frames of the moving image content, the image providing server ends the main image frame setting.

또한, 단계(S265)에서는, 단계(S260)에서 동영상 콘텐츠의 일부 영상 프레임에 대하여만 전후 영상 프레임의 블록 분할 및 블록 비교를 수행한 것으로 판단되는 경우, 영상 제공 서버는 영상 프레임의 식별 값 k의 값을 1만큼 증가시키고, 단계(S205) 내지 단계(S255)를 수행한다.In step S265, if it is determined in step S260 that the block segmentation and the block comparison of the forward and backward image frames are performed only on a part of the image frame of the moving image content, The value is incremented by 1, and steps S205 to S255 are performed.

도 5는 본 발명의 일 실시예에 따른 메인 영상 프레임을 이용한 영상 정보 제공 시스템에서 영상 정보 제공 서버의 구성을 도시한 도면이다.5 is a diagram illustrating a configuration of an image information providing server in an image information providing system using a main image frame according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 영상 정보 제공 서버(200)는 메인 영상 프레임 관리부(210), 영상 이미지 매칭부(220), 속성 정보 제공부(230), 이벤트 정보 수신부(240), 메인 영상 프레임 데이터베이스(250), 영상 이미지 데이터베이스(260) 및 속성 정보 데이터베이스(270)를 포함한다.The image information providing server 200 according to an embodiment of the present invention includes a main image frame managing unit 210, an image image matching unit 220, an attribute information providing unit 230, an event information receiving unit 240, A database 250, a video image database 260, and an attribute information database 270.

메인 영상 프레임 관리부(210)는 콘텐츠 제공 서버(도시 생략)로부터 제공 받은 동영상 콘텐츠를 분석하여 메인 영상 프레임을 추출하고, 추출한 메인 영상 프레임의 정보를 추출한 메인 영상 프레임에 매칭되는, 즉 동일한 또는 유사한 장면에 해당하는 하나 이상의 영상 프레임의 정보에 매핑하여 메인 영상 프레임 데이터베이스(250)에 저장한다.The main image frame management unit 210 analyzes a moving image content provided from a content providing server (not shown) and extracts a main image frame. The main image frame managing unit 210 extracts a main image frame, And stores it in the main image frame database 250. The main image frame database 250 includes a plurality of image frames.

메인 영상 프레임 관리부(210)는 연속하는 2개의 영상 프레임, 즉 이전 영상 프레임과 현재 영상 프레임을 N개의 블록으로 분할하고, 각각의 영상 프레임의 대응하는 블록의 픽셀 값을 비교하여 장면 전환 여부를 판단한 후, 대응하는 블록의 픽셀 값의 차이가 임계 값 이상인 블록의 개수가 미리 설정된 개수 이상인 경우, 이전 영상 프레임으로부터 현재 영상 프레임으로 장면이 전환된 것으로 판단하고, 현재 영상 프레임을 메인 영상 프레임으로 설정할 수 있다.The main image frame management unit 210 divides the two consecutive image frames, that is, the previous image frame and the current image frame into N blocks, compares the pixel values of the corresponding blocks of the respective image frames, If it is judged that the scene has been switched from the previous image frame to the current image frame and the current image frame is set as the main image frame if the number of blocks having the difference of the pixel value of the corresponding block is equal to or greater than the predetermined number have.

메인 영상 프레임 관리부(210)는 메인 영상 프레임으로부터 영상 이미지를 추출하여 영상 이미지 데이터베이스(260)에 저장된 이미지와 매칭시키고, 추출된 영상 이미지, 매칭된 이미지 및 영상 이미지의 위치 좌표를 매핑하여 메인 영상 프레임 데이터베이스(250)에 저장한다.The main image frame management unit 210 extracts a video image from the main video frame and matches the video image with an image stored in the video image database 260. The main video frame management unit 210 maps the extracted video image, And stores it in the database 250.

메인 영상 프레임 관리부(210)는 이벤트 정보 수신부(240)로부터 클릭 이벤트 정보를 수신하고, 클릭 이벤트 정보에 포함된 영상 프레임 정보 및 클릭된 위치의 좌표 정보를 이용하여 클릭 이벤트가 발생한 영상 프레임에 매칭되는 메인 영상 프레임을 검색하고, 검색된 메인 영상 프레임의 정보를 영상 이미지 매칭부(220)로 전송한다.The main image frame management unit 210 receives the click event information from the event information receiving unit 240 and generates a video image by matching the video frame information included in the click event information and the coordinate information of the clicked position The main image frame is searched and information of the searched main image frame is transmitted to the image image matching unit 220.

영상 이미지 매칭부(220)는 메인 영상 프레임 관리부(210)로부터 수신한 메인 영상 프레임 정보를 이용하여 메인 영상 프레임에 대하여 매칭되어 저장된 영상 이미지 중 클릭 이벤트 정보에 포함된 클릭된 위치의 좌표를 포함하는 영상 이미지를 검색한다.The image image matching unit 220 includes coordinates of the clicked position included in the click event information among the image images stored in the main image frame matching the main image frame using the main image frame information received from the main image frame management unit 210 Search the video image.

영상 이미지 매칭부(220)는 클릭된 위치의 좌표를 포함하는 영상 이미지의 정보를 영상 이미지 데이터베이스(260)로부터 획득하고, 획득한 영상 이미지의 식별 정보를 속성 정보 제공부(230)로 전송한다.The image image matching unit 220 acquires the image information including the coordinates of the clicked position from the image image database 260 and transmits the identification information of the acquired image image to the attribute information providing unit 230.

속성 정보 제공부(230)는 영상 이미지 매칭부(220)로부터 획득한 영상 이미지 식별 정보를 이용하여 식별 정보에 매칭되는 속성 정보를 속성 정보 데이터베이스(270)로부터 획득하고, 획득한 속성 정보를 클릭 이벤트를 발생시킨 사용자 단말(도시 생략)로 전송하여 사용자에게 제공한다.The attribute information providing unit 230 acquires attribute information matched with the identification information from the attribute information database 270 using the image image identification information acquired from the image matching unit 220, To a user terminal (not shown) that has generated the data and provides the data to the user.

속성 정보 제공부(230)는 클릭 이벤트를 발생시킨 사용자 단말의 식별 정보를 이벤트 정보 수신부(240)로부터 획득하여, 속성 정보를 사용자 단말로 전송할 수 있다.The attribute information providing unit 230 may obtain the identification information of the user terminal that generated the click event from the event information receiving unit 240 and may transmit the attribute information to the user terminal.

이벤트 정보 수신부(240)는 사용자 단말에서 발생한 클릭 이벤트 정보를 수신하고, 클릭 이벤트 정보에 포함된 클릭 이벤트가 발생한 영상 프레임의 정보 및 클릭된 위치 좌표 정보를 메인 영상 프레임 관리부(210) 및 영상 이미지 매칭부(220)로 전송하고, 클릭 이벤트를 발생시킨 사용자 단말의 정보를 속성 정보 제공부(230)로 전송한다.The event information receiving unit 240 receives the click event information generated in the user terminal, and outputs the information of the image frame where the click event included in the click event information and the clicked position coordinate information to the main image frame management unit 210 and the image image matching (220), and transmits the information of the user terminal that generated the click event to the attribute information providing unit (230).

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. One embodiment of the present invention may also be embodied in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.While the methods and systems of the present invention have been described in connection with specific embodiments, some or all of those elements or operations may be implemented using a computer system having a general purpose hardware architecture.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

100 : 사용자 단말
200 : 영상 정보 제공 서버
300 : 동영상 콘텐츠 제공 서버
410, 420 및 430 : 영상 프레임 그룹
411, 421 및 431 : 메인 영상 프레임
100: user terminal
200: a video information providing server
300: Video content providing server
410, 420 and 430: image frame group
411, 421 and 431: main picture frame

Claims (9)

영상 정보 제공 서버가 메인 영상 프레임을 이용하여 영상 정보를 제공하는 방법에 있어서,
(a) 동영상 콘텐츠에 포함된 하나 이상의 영상 프레임 중에서 장면 전환에 기초하여 하나 이상의 메인 영상 프레임을 추출하는 단계,
(b) 상기 메인 영상 프레임으로부터 영상 이미지를 추출하고, 상기 추출한 영상 이미지의 좌표 정보와 상기 추출한 영상 이미지에 매칭되는 속성 정보를 데이터베이스에 저장하는 단계,
(c) 사용자 단말로부터 상기 메인 영상 프레임 외의 영상 프레임을 클릭하는 클릭 이벤트가 발생한 영상 프레임의 정보 및 영상 프레임 내의 위치 좌표 정보를 수신하는 단계,
(d) 상기 영상 프레임의 정보에 매칭되는 메인 영상 프레임을 획득하는 단계,
(e) 상기 메인 영상 프레임에 상기 수신한 위치 좌표 정보에 해당하는 영상 이미지가 존재하는지 여부를 판단하는 단계,
(f) 상기 수신한 위치 좌표 정보에 해당하는 영상 이미지가 존재하는 것으로 판단된 경우, 상기 획득한 메인 영상 프레임으로부터 상기 위치 좌표 정보에 매칭되는 영상 이미지를 획득하는 단계 및
(g) 상기 획득한 영상 이미지에 매칭되는 속성 정보를 상기 사용자 단말로 전송하는 단계
를 포함하는 영상 정보 제공 방법.
A method of providing image information using a main image frame,
(a) extracting one or more main image frames based on scene change from one or more image frames included in the moving image content,
(b) extracting a video image from the main video frame, storing coordinate information of the extracted video image and attribute information matched to the extracted video image in a database,
(c) receiving information of an image frame in which a click event occurs in which a user clicks an image frame other than the main image frame and position coordinate information in the image frame,
(d) acquiring a main image frame matched with the information of the image frame,
(e) determining whether a main image frame has a video image corresponding to the received position coordinate information,
(f) acquiring an image image matching the position coordinate information from the acquired main image frame when it is determined that there is a video image corresponding to the received position coordinate information; and
(g) transmitting attribute information matching the obtained image to the user terminal
And providing the image information.
제 1 항에 있어서,
상기 (a) 단계는,
(a1) 상기 동영상 콘텐츠에 포함된 제 1 영상 프레임 및 상기 제 1 영상 프레임에 대하여 시간적으로 연속하는 제 2 영상 프레임을 미리 설정된 수의 블록으로 분할하는 단계,
(a2) 상기 제 1 영상 프레임의 블록 및 상기 제 1 영상 프레임의 블록에 대응하는 제 2 영상 프레임의 블록의 픽셀에 기초하여 상기 제 1 영상 프레임의 블록 및 상기 제 2 영상 프레임의 블록의 차이를 산출하는 단계,
(a3) 상기 대응하는 블록의 차이가 미리 설정된 제 1 임계 값 이상인 블록의 개수를 산출하는 단계 및
(a4) 상기 산출한 블록의 개수가 미리 설정된 제 2 임계 값 이상인 경우, 상기 제 2 영상 프레임을 메인 영상 프레임으로 설정하는 단계
를 포함하는 것인 영상 정보 제공 방법.
The method according to claim 1,
The step (a)
(a1) dividing a first image frame included in the moving image content and a second image frame temporally continuous with respect to the first image frame into a predetermined number of blocks,
(a2) calculating a difference between a block of the first image frame and a block of the second image frame based on a pixel of the block of the first image frame and a pixel of the block of the second image frame corresponding to the block of the first image frame, Calculating,
(a3) calculating a number of blocks in which the difference between the corresponding blocks is equal to or greater than a predetermined first threshold value, and
(a4) setting the second image frame as a main image frame when the number of the calculated blocks is equal to or larger than a preset second threshold value
The method comprising the steps of:
제 2 항에 있어서,
상기 (a2) 단계는,
(a21) 상기 제 1 영상 프레임의 블록 및 상기 제 2 영상 프레임의 블록 각각의 픽셀 값의 분포도를 포함하는 히스토그램을 산출하는 단계 및
(a22) 상기 산출한 히스토그램에 기초하여 상기 제 1 영상 프레임의 블록 및 상기 제 2 영상 프레임의 블록의 차이를 산출하는 단계
를 포함하는 것인 영상 정보 제공 방법.
3. The method of claim 2,
The step (a2)
(a21) calculating a histogram including a distribution of pixel values of a block of the first image frame and a block of the second image frame, and
(a22) calculating a difference between the block of the first image frame and the block of the second image frame based on the calculated histogram
The method comprising the steps of:
제 2 항에 있어서,
상기 (a2) 단계는,
(a23) 상기 제 1 영상 프레임의 블록의 픽셀 값들과 상기 제 2 영상 프레임의 블록의 픽셀 값들을 각각 비교하는 단계 및
(a24) 상기 비교 결과에 기초하여 상기 제 1 영상 프레임의 블록 및 상기 제 2 영상 프레임 블록의 픽셀 차이를 산출하는 단계
를 포함하는 것인 영상 정보 제공 방법.
3. The method of claim 2,
The step (a2)
(a23) comparing pixel values of a block of the first image frame and pixel values of a block of the second image frame, and
(a24) calculating a pixel difference between the block of the first image frame and the block of the second image frame based on the comparison result
The method comprising the steps of:
제 1 항에 있어서,
상기 (a) 단계는,
(a5) 상기 추출한 메인 영상 프레임에 포함된 영상 이미지 중에서 영상 이미지 데이터베이스에 미리 저장된 이미지에 매칭되는 영상 이미지를 추출하는 단계,
(a6) 상기 추출된 영상 이미지를 상기 추출된 영상 이미지에 매칭되는 이미지에 매핑시키고, 상기 추출된 영상 이미지의 위치 좌표를 상기 메인 영상 프레임에 매칭하여 등록하는 단계
를 포함하는 것인 영상 정보 제공 방법.
The method according to claim 1,
The step (a)
(a5) extracting a video image matched with an image stored in the video image database among the video images included in the extracted main video frame,
(a6) mapping the extracted video image to an image matched with the extracted video image, and registering the position coordinates of the extracted video image with the main video frame and registering
The method comprising the steps of:
메인 영상 프레임을 이용한 영상 정보 제공 시스템에 있어서,
동영상 콘텐츠로부터 장면 전환을 기초로 하나 이상의 영상 프레임에 매칭되는 메인 영상 프레임을 추출하고, 상기 메인 영상 프레임으로부터 영상 이미지를 추출하고, 상기 메인 영상 프레임으로부터 영상 이미지를 추출하고, 상기 추출한 영상 이미지의 좌표 정보와 상기 추출한 영상 이미지에 매칭되는 속성 정보를 데이터베이스에 저장하는 메인 영상 프레임 관리부,
사용자 단말로부터 상기 메인 영상 프레임 외의 영상 프레임을 클릭하는 클릭 이벤트가 발생한 영상 프레임의 정보 및 영상 프레임 내의 위치 좌표 정보를 수신하는 이벤트 정보 수신부,
상기 사용자 단말로부터 수신한 영상 프레임 정보에 매칭되는 메인 영상 프레임으로부터 상기 위치 좌표 정보에 매칭되는 영상 이미지를 획득하는 영상 이미지 매칭부 및
상기 획득한 영상 이미지에 매칭되는 속성 정보를 검색하고, 상기 검색한 속성 정보를 상기 사용자 단말로 전송하는 속성 정보 제공부
를 포함하고,
상기 영상 정보 제공 시스템은 상기 메인 영상 프레임에 상기 수신한 위치 좌표 정보에 해당하는 영상 이미지가 존재하는지 여부를 판단하고,
상기 수신한 위치 좌표 정보에 해당하는 영상 이미지가 존재하는 것으로 판단된 경우, 상기 위치 좌표 정보에 매칭되는 영상 이미지를 획득하는 것인, 영상 정보 제공 시스템.
A video information providing system using a main video frame,
Extracting a main image frame matching one or more image frames based on a scene change from the video content, extracting a video image from the main video frame, extracting a video image from the main video frame, A main image frame management unit for storing information and attribute information matched to the extracted image image in a database,
An event information receiving unit for receiving information of an image frame in which a click event occurs in which a user clicks an image frame other than the main image frame from the user terminal and position coordinate information in the image frame,
An image image matching unit for acquiring an image image matched with the position coordinate information from a main image frame matched with the image frame information received from the user terminal;
Searching attribute information matched with the acquired image image, and transmitting the searched attribute information to the user terminal,
Lt; / RTI >
Wherein the video information providing system determines whether a video image corresponding to the received position coordinate information exists in the main video frame,
And acquires a video image matched with the position coordinate information when it is determined that there is a video image corresponding to the received position coordinate information.
제 6 항에 있어서,
상기 메인 영상 프레임 관리부는 시간적으로 연속하는 제 1 영상 프레임 및 제 2 영상 프레임을 미리 설정된 개수의 블록으로 분할하고, 상기 제 1 영상 프레임의 블록 및 상기 제 1 영상 프레임의 블록에 대응하는 제 2 영상 프레임의 블록의 차이가 미리 설정된 임계 값 이상인 경우, 상기 제 2 영상 프레임을 메인 프레임으로 설정하는 것인 영상 정보 제공 시스템.
The method according to claim 6,
Wherein the main image frame management unit divides the temporally successive first and second image frames into a predetermined number of blocks and generates a second image frame corresponding to a block of the first image frame and a second image corresponding to a block of the first image frame And sets the second image frame as a main frame when the difference of the blocks of the frame is equal to or greater than a preset threshold value.
제 7 항에 있어서,
상기 메인 영상 프레임 관리부는, 상기 제 1 영상 프레임의 블록의 픽셀 값의 분포도를 포함하는 제 1 히스토그램 및 상기 제 2 영상 프레임의 블록의 픽셀 값의 분포도를 포함하는 제 2 히스토그램의 차이가 미리 설정된 임계 값 이상인 경우, 상기 제 2 영상 프레임을 메인 프레임으로 설정하는 것인 영상 정보 제공 시스템.
8. The method of claim 7,
Wherein the main image frame management unit includes a first histogram including a distribution map of pixel values of the first image frame and a second histogram including a distribution of pixel values of blocks of the second image frame, Value, the second image frame is set as a main frame.
제 7 항에 있어서,
상기 메인 영상 프레임 관리부는, 상기 제 1 영상 프레임의 블록의 픽셀 값의 합계 및 상기 제 2 영상 프레임의 블록의 픽셀 값의 합계의 차이가 미리 설정된 임계 값 이상인 경우, 상기 제 2 영상 프레임을 메인 프레임으로 설정하는 것인 영상 정보 제공 시스템.
8. The method of claim 7,
Wherein the main image frame management unit manages the second image frame in the main frame if the difference between the sum of the pixel values of the blocks of the first image frame and the sum of the pixel values of the blocks of the second image frame is equal to or greater than a preset threshold value, Is set to " 0 ".
KR1020100127369A 2010-12-14 2010-12-14 Method and system for providing image information with main frame KR101745370B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100127369A KR101745370B1 (en) 2010-12-14 2010-12-14 Method and system for providing image information with main frame

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100127369A KR101745370B1 (en) 2010-12-14 2010-12-14 Method and system for providing image information with main frame

Publications (2)

Publication Number Publication Date
KR20120066159A KR20120066159A (en) 2012-06-22
KR101745370B1 true KR101745370B1 (en) 2017-06-09

Family

ID=46685588

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100127369A KR101745370B1 (en) 2010-12-14 2010-12-14 Method and system for providing image information with main frame

Country Status (1)

Country Link
KR (1) KR101745370B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102247184B1 (en) * 2014-10-17 2021-05-03 주식회사 케이티 Video thumbnail extraction method and server and video provision system
KR102054211B1 (en) * 2017-12-11 2019-12-10 경희대학교 산학협력단 Method and system for video retrieval based on image queries
CN109783680B (en) * 2019-01-16 2021-03-23 北京旷视科技有限公司 Image pushing method, image acquisition device and image processing system
KR102180194B1 (en) * 2019-12-12 2020-11-18 문희열 System for real-time mapping information of image contents having position information

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090097546A1 (en) * 2007-10-10 2009-04-16 Chang-Hyun Lee System and method for enhanced video communication using real-time scene-change detection for control of moving-picture encoding data rate

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090097546A1 (en) * 2007-10-10 2009-04-16 Chang-Hyun Lee System and method for enhanced video communication using real-time scene-change detection for control of moving-picture encoding data rate

Also Published As

Publication number Publication date
KR20120066159A (en) 2012-06-22

Similar Documents

Publication Publication Date Title
US20170212893A1 (en) Categorization of Digital Media Based on Media Characteristics
US8769556B2 (en) Targeted advertisement based on face clustering for time-varying video
CN107846561B (en) Method and system for determining and displaying contextually targeted content
JP6833842B2 (en) Optimized media fingerprint retention to improve system resource utilization
US8494231B2 (en) Face recognition in video content
US20190332897A1 (en) Systems and methods for object detection
US20130148898A1 (en) Clustering objects detected in video
CN110309795A (en) Video detecting method, device, electronic equipment and storage medium
CN104426841A (en) Method for arranging background image, and correlation server and system
JP2001155169A (en) Method and system for dividing, classifying and summarizing video image
KR101745370B1 (en) Method and system for providing image information with main frame
JP2017182628A (en) Augmented reality user interface application device and control method
CN111444822B (en) Object recognition method and device, storage medium and electronic device
CN112291634A (en) Video processing method and device
JP7103229B2 (en) Suspiciousness estimation model generator
CN114390368B (en) Live video data processing method and device, equipment and readable medium
JP2007318688A (en) Video information exchange method, server device, and client device
CN117459662B (en) Video playing method, video identifying method, video playing device, video playing equipment and storage medium
KR20180025754A (en) Display apparatus and control method thereof
US20140010521A1 (en) Video processing system, video processing method, video processing apparatus, control method of the apparatus, and storage medium storing control program of the apparatus
CN114286198B (en) Video association method, device, electronic equipment and storage medium
CN112333182B (en) File processing method, device, server and storage medium
US20210295056A1 (en) Method, apparatus, electronic device, and computer storage medium for video processing
KR100934499B1 (en) Guidance information provision method and device
KR101260817B1 (en) Method for enhancing feature points of digital contents for supporting robust detection and tracking, and computer readable recording medium for the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant