KR101541495B1 - Apparatus, method and computer readable recording medium for analyzing a video using the image captured from the video - Google Patents

Apparatus, method and computer readable recording medium for analyzing a video using the image captured from the video Download PDF

Info

Publication number
KR101541495B1
KR101541495B1 KR1020120089860A KR20120089860A KR101541495B1 KR 101541495 B1 KR101541495 B1 KR 101541495B1 KR 1020120089860 A KR1020120089860 A KR 1020120089860A KR 20120089860 A KR20120089860 A KR 20120089860A KR 101541495 B1 KR101541495 B1 KR 101541495B1
Authority
KR
South Korea
Prior art keywords
frame
image
frames
video
search
Prior art date
Application number
KR1020120089860A
Other languages
Korean (ko)
Other versions
KR20140023660A (en
Inventor
박근한
정유진
Original Assignee
네이버 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사 filed Critical 네이버 주식회사
Priority to KR1020120089860A priority Critical patent/KR101541495B1/en
Priority to JP2013145141A priority patent/JP6280323B2/en
Priority to US13/940,984 priority patent/US9305215B2/en
Publication of KR20140023660A publication Critical patent/KR20140023660A/en
Application granted granted Critical
Publication of KR101541495B1 publication Critical patent/KR101541495B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/40Data acquisition and logging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 동영상으로부터 캡쳐된 화면 이미지를 네트워크를 통해 수집하고, 수집된 각 이미지와 관련된 정보를 분석하기 위한 캡쳐된 이미지를 이용한 동영상 분석 장치에 관한 것으로, 특히 복수의 프레임들로 구성된 동영상으로부터 적어도 하나의 프레임을 추출하는 비디오 프레임 추출부; 상기 비디오 프레임 추출부를 통해 추출된 각 프레임의 특징을 수치화하는 추출 프레임 수치화부; 적어도 하나의 수집된 검색 대상 이미지의 특징을 수치화하는 이미지 수치화부; 수치화한 값들에 의해 상기 검색 대상 이미지를 상기 복수의 프레임들로부터 추출된 적어도 하나의 프레임과 비교하는 이미지 비교 검색부; 및 상기 비교 결과, 상기 검색 대상 이미지와 일치하는 프레임이 존재할 경우, 상기 일치하는 프레임에 상기 수집된 검색 대상 이미지의 관련 정보를 매핑하여 데이터베이스에 저장하는 검색 결과 처리부를 포함한다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image analyzing apparatus using a captured image for collecting a screen image captured from a moving picture through a network and analyzing information related to the collected images, A video frame extracting unit for extracting a frame of the video frame; An extraction frame quantization unit for quantizing characteristics of each frame extracted through the video frame extraction unit; An image quantization unit for quantifying a characteristic of at least one collected object image to be searched; An image comparison search unit for comparing the search target image with at least one frame extracted from the plurality of frames by numerical values; And a search result processing unit for mapping the related information of the acquired search target image to the matching frame and storing the same in a database when there is a frame matching the search target image as a result of the comparison.

Figure R1020120089860
Figure R1020120089860

Description

캡쳐된 이미지를 이용한 동영상 분석 장치, 방법 및 컴퓨터 판독 가능한 기록 매체{APPARATUS, METHOD AND COMPUTER READABLE RECORDING MEDIUM FOR ANALYZING A VIDEO USING THE IMAGE CAPTURED FROM THE VIDEO}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image analyzing apparatus, a method, and a computer readable recording medium using a captured image.

본 발명은 동영상으로부터 캡쳐된 이미지를 분석하기 위한 장치에 관한 것으로, 보다 상세하게는 동영상으로부터 캡쳐된 화면 이미지를 네트워크를 통해 수집하고, 수집된 각 이미지와 관련된 정보를 분석하기 위한 캡쳐된 이미지를 이용한 동영상 분석 장치, 방법 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다.The present invention relates to an apparatus for analyzing images captured from a moving image, and more particularly to a system and method for capturing a screen image captured from a moving image through a network and using a captured image for analyzing information associated with the collected images. A moving picture analyzing apparatus, a method, and a computer-readable recording medium.

일반적으로 인터넷은 전세계 어디서나, 누구나 접속하고자 하는 상대편 컴퓨터에 TCP/IP 라는 공통의 프로토콜을 적용하여 자유롭게 연결하여 사용할 수 있도록 구성된 개방형 네트워크로서, 기본적인 문자정보의 전달은 물론 압축기술의 발전과 더불어 멀티미디어 정보의 전달에 이용되는 등 전자우편, 파일전송, WWW(World Wide Web) 등의 다양한 서비스를 이용할 수 있다.In general, the Internet is an open network configured to freely connect and use a common protocol called TCP / IP to a remote computer to be accessed anywhere in the world and to anyone. It is an open network that not only transmits basic character information but also develops compression technology, And various services such as e-mail, file transfer, and World Wide Web (WWW), which are used for delivering the service, can be used.

이와 같은 인터넷은 국내를 비롯하여 세계적으로 사용이 급격하게 증가하면서 기존 산업의 전 부분에 걸쳐 효율성과 생산성 제고를 위한 전략적인 도구로서 중요성이 급속히 증대되고 있으며, 인터넷을 통한 새로운 비즈니스 기회가 지속적으로 창출됨은 물론, 그 영역도 확장되고 있는 추세로서 인터넷을 이용한 사업자들도 점점 더 증가하고 있다.As the use of the internet has rapidly increased in Korea and the world, the importance of the Internet has been rapidly increasing as a strategic tool for improving efficiency and productivity throughout the existing industries. As a result, new business opportunities through the Internet have been continuously created As the area is expanding, the number of Internet-based operators is also increasing.

한편, 최근에는 스마트폰 등과 같은 디지털 장비의 확산으로 개인의 동영상 콘텐츠(예컨대, UCC(User Created Contents))가 대량으로 생산되고 있으며, TV 방송과 영화 콘텐츠 등도 VOD(Video on demand) 서비스 등을 통해 웹에서 시청하는 것이 일반화되고 있다.Meanwhile, in recent years, a large amount of individual video contents (for example, UCC (User Created Contents)) has been produced due to the proliferation of digital devices such as smart phones and the like. TV broadcasts and movie contents are also transmitted through VOD It is becoming common to watch on the web.

이러한 동영상 콘텐츠의 원활한 소비를 위해서는 원하는 콘텐츠에 대한 검색과 브라우징이 가능하도록 특정 장면에 대한 정보를 포함하는 다양한 동영상 메타(meta) 정보가 필요하다. 예컨대, 현재 동영상 검색이나 서비스에서는 동영상의 제목과 날짜, 조회수 등 동영상에 관련된 텍스트 형태의 메타 정보를 주로 사용하고 있으며, 해당 동영상의 조회수 등을 이용해 동영상의 인기도를 파악하고 있는 실정이다. In order to smoothly consume such video contents, various video meta information including information on a specific scene is required to enable searching and browsing of a desired content. For example, in the current video search or service, meta information of a text type related to a moving picture such as title, date, and number of views of a moving picture is mainly used, and the popularity of the moving picture is grasped by using the number of views of the moving picture.

그러나, 이와 같이 텍스트 형태의 메타 정보만을 활용하여 동영상을 검색하는 방법으로는 실제로 해당 동영상 내에서 어떤 장면이 놓치지 말고 봐야 할 인기있는 장면인지 알 수 없으며, 직접 동영상에 링크를 걸어 포스팅을 하는 경우를 제외하고는 외부(예컨대, 다른 웹사이트들)에서 이 동영상에 대해 어떤 이야기를 얼마나 하고 있는지를 파악할 수 없다.However, as a method of searching for a moving picture by utilizing only the meta information in the form of text, it is impossible to know what kind of scene is actually a popular scene to be missed in the moving image. In the case of posting by linking to a moving image Except, you can not figure out how much you are talking about this video from outside (e.g., other websites).

또한, 사용자들은 동영상 그 자체가 아닌 동영상으로부터 캡쳐된 특정 화면 이미지를 웹상에 업로드 하고, 이를 통해 해당 동영상 콘텐츠 정보에 대해서 페이스북이나 트위터 등과 같은 SNS(Social Network Service) 사이트 또는 자신의 블로그나 홈페이지에서 다른 사용자들과 이야기를 나누는 경우가 빈번하게 발생하고 있다.In addition, users upload a specific screen image captured from a video, not a video itself, to the web, and use the SNS (Social Network Service) site such as Facebook, Twitter, I often talk to other users.

특히, 저작권이 있거나 로그인하여야 재생 가능한 콘텐츠에 대해서는 직접 해당 콘텐츠를 웹사이트 등에 포스팅하여 첨부하기 어려우며, 이야기하고 싶은 동영상의 특정 장면에 대한 고유 URL을 취득하는 것도 쉽지 않기 때문에, 뉴스에서도 해당 동영상 대신 방송이나 영화의 특정 장면만을 캡쳐하여 기사로 활용하고 있다.Particularly, it is difficult to post the content directly to a website or the like for content that is copyrighted or reproducible by login, and it is not easy to acquire a unique URL for a specific scene of a video to be talked about. Therefore, And captures only certain scenes of a movie and uses it as an article.

이와 같이 동영상으로부터 캡쳐된 이미지와 함께 유통되는 동영상에 관련된 풍부한 메타 정보를 포함하는 정보들은 해당 동영상과 직접 연결되지 못하고 있는 실정이다.In this way, information including rich meta information related to a moving image that is distributed along with an image captured from a moving image can not be directly connected to the moving image.

한편, 이러한 동영상 콘텐츠에 대한 관련 정보를 제공하기 위한 기술로서 대한민국등록특허공보 제10-0857381호 "컨텐츠 서비스 시스템 및 방법(엔에이치엔(주))"(문헌 1)에는 동영상 저작물에서 출처 정보를 생성하여 데이터베이스에 저장하고, 장면 데이터와의 유사도를 산출하여 출처를 추출할 수 있는 컨텐츠 서비스 방법이 개시된다. On the other hand, as a technique for providing relevant information on such video contents, source information is generated from a moving picture production in Korean Patent Registration No. 10-0857381 entitled " Content Service System and Method (NHN Co., Ltd.) " A content service method capable of storing source data in a database and calculating a similarity with scene data and extracting a source.

그러나, 이러한 종래의 방법들은 단순히 동영상에 대한 메타 정보만을 제공할 뿐, 주요 장면들이 캡쳐된 이미지에 대한 관련 정보들을 제공하지 못하는 한계가 있다.However, these conventional methods merely provide meta information about a moving picture, and there is a limitation in that the main scenes can not provide relevant information about the captured image.

따라서, 동영상으로부터 캡쳐된 각 이미지에 대한 각종 관련 정보들을 효과적으로 제공함으로써 동영상의 활용도를 높일 수 있는 방법의 필요성이 요구되고 있다.Accordingly, there is a need for a method for effectively utilizing various related information about each image captured from a moving image, thereby improving the utilization of the moving image.

[문헌 1] 대한민국등록특허공보 제10-0857381호 컨텐츠 서비스 시스템 및 방법(엔에이치엔(주)) 2008.09.01[Patent Document 1] Korean Patent Registration No. 10-0857381 Content Service System and Method (NHN Co., Ltd.) 2008.09.01

본 발명의 목적은 동영상으로부터 추출된 각 프레임과 외부 웹사이트 등을 통해 수집된 캡쳐된 이미지를 비교함으로써, 해당 동영상에 대한 다양한 메타 정보를 제공할 수 있는 캡쳐된 이미지를 이용한 동영상 분석 장치, 방법 및 컴퓨터 판독 가능한 기록 매체를 제공함에 있다.An object of the present invention is to provide a moving image analysis apparatus and method using a captured image that can provide various meta information about a moving image by comparing each frame extracted from the moving image with captured images collected through an external web site, And a computer readable recording medium.

또한, 본 발명의 다른 목적은 동영상으로부터 추출된 각 프레임과 외부 웹사이트 등을 통해 수집된 캡쳐된 이미지를 비교함으로써, 해당 이미지가 포함된 뉴스, 블로그, SNS 포스트 등의 정보를 분석할 수 있는 캡쳐된 이미지를 이용한 동영상 분석 장치, 방법 및 컴퓨터 판독 가능한 기록 매체를 제공함에 있다.It is another object of the present invention to provide a capture apparatus and a capture apparatus capable of analyzing information such as news, a blog, an SNS post, and the like, by comparing each frame extracted from a moving image with a captured image collected through an external website, And a computer-readable recording medium.

또한, 본 발명의 또 다른 목적은 동영상으로부터 추출된 각 프레임과 외부 웹사이트 등을 통해 수집된 캡쳐된 이미지를 비교함으로써, 해당 동영상에서 어떤 프레임이 가장 많은 화제가 되었으며, 어떤 동영상 콘텐츠가 SNS에서 인기를 끌었는지와 같은 소셜 랭킹을 분석할 수 있는 캡쳐된 이미지를 이용한 동영상 분석 장치, 방법 및 컴퓨터 판독 가능한 기록 매체를 제공함에 있다.It is another object of the present invention to provide a method and system for comparing a captured image obtained through a video from an external web site with a captured image, A method for analyzing a moving image using the captured image, and a computer-readable recording medium.

상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특유의 효과를 달성하기 위한, 본 발명의 특징적인 구성은 하기와 같다.In order to achieve the above-described object of the present invention and to achieve the specific effects of the present invention described below, the characteristic structure of the present invention is as follows.

본 발명의 일 측면에 따르면, 캡쳐된 이미지를 이용한 동영상 분석 장치는, 복수의 프레임들로 구성된 동영상으로부터 적어도 하나의 프레임을 추출하는 비디오 프레임 추출부; 상기 비디오 프레임 추출부를 통해 추출된 각 프레임의 특징을 수치화하는 추출 프레임 수치화부; 적어도 하나의 수집된 검색 대상 이미지의 특징을 수치화하는 이미지 수치화부; 수치화한 값들에 의해 상기 검색 대상 이미지를 상기 복수의 프레임들로부터 추출된 적어도 하나의 프레임과 비교하는 이미지 비교 검색부; 및 상기 비교 결과, 상기 검색 대상 이미지와 일치하는 프레임이 존재할 경우, 상기 일치하는 프레임에 상기 수집된 검색 대상 이미지의 관련 정보를 매핑하여 데이터베이스에 저장하는 검색 결과 처리부를 포함한다.According to an aspect of the present invention, a moving image analyzing apparatus using a captured image includes: a video frame extracting unit extracting at least one frame from a moving image composed of a plurality of frames; An extraction frame quantization unit for quantizing characteristics of each frame extracted through the video frame extraction unit; An image quantization unit for quantifying a characteristic of at least one collected object image to be searched; An image comparison search unit for comparing the search target image with at least one frame extracted from the plurality of frames by numerical values; And a search result processing unit for mapping the related information of the acquired search target image to the matching frame and storing the same in a database when there is a frame matching the search target image as a result of the comparison.

바람직하게는, 상기 장치는, 상기 비디오 프레임 추출부를 통해 추출된 복수의 연속된 프레임들 중에서 복수의 프레임들 간의 이미지 차이가 미리 설정된 일정 범위 이내에 해당할 경우, 상기 복수의 프레임들 중 선택된 하나의 프레임을 대표 프레임으로 결정하는 대표 프레임 추출부를 더 포함하고, 상기 추출 프레임 수치화부는 상기 대표 프레임 추출부를 통해 결정된 대표 프레임에 대해 수치화하여 데이터베이스에 저장한다.Preferably, when the image difference between a plurality of frames among a plurality of consecutive frames extracted through the video frame extracting unit falls within a preset predetermined range, the apparatus selects a frame of a selected one of the plurality of frames, As a representative frame, and the extracted frame quantization unit digitizes the representative frame determined through the representative frame extraction unit and stores the numerical value in a database.

바람직하게는, 상기 대표 프레임 추출부는, 상기 복수의 프레임들에 대해 프레임간 그레이 히스토그램의 차이값이 일정값 이하일 경우, 상기 복수의 프레임들 중 선택된 하나의 프레임을 대표 프레임으로 결정한다.Preferably, the representative frame extractor determines a selected one of the plurality of frames as a representative frame when the difference value of the inter-frame gray histogram for the plurality of frames is less than a predetermined value.

바람직하게는, 상기 대표 프레임 추출부는, 미리 설정된 시간마다 적어도 하나의 프레임을 대표 프레임으로 결정한다.Preferably, the representative frame extracting unit determines at least one frame as a representative frame every predetermined time.

바람직하게는, 상기 추출 프레임 수치화부는, 각 프레임의 불변점을 수치화한 후, 미리 정의한 클러스터(cluster)값으로 변환시킨 비쥬얼 단어의 빈도수로 나타낸다.Preferably, the extracted frame quantization unit quantizes the invariant points of each frame, and then expresses the invariant points of each frame by the frequency of visual words converted into cluster values that are defined in advance.

바람직하게는, 상기 이미지 수치화부는, 각 이미지의 불변점을 수치화한 후, 미리 정의한 클러스터(cluster)값으로 변환시킨 비쥬얼 단어의 빈도수로 나타낸다.Preferably, the image quantization unit quantizes the invariant points of each image, and then expresses the constants by frequency numbers of visual words converted into cluster values defined in advance.

바람직하게는, 상기 이미지 비교 검색부는, 상기 각 프레임의 비쥬얼 단어와 상기 각 이미지의 비쥬얼 단어를 비교하여 동일한 비쥬얼 단어가 미리 설정된 개수 이상이거나 가장 많을 경우 해당 프레임과 이미지가 일치하는 것으로 결정한다.Preferably, the image comparison / search unit compares the visual word of each frame with the visual word of each image, and determines that the corresponding image matches the visual word if the number of visual words is equal to or greater than a predetermined number.

바람직하게는, 상기 검색 대상 이미지의 관련 정보는, 상기 수집된 이미지가 포스팅된 출처, 상기 이미지의 소셜 네트워크 서비스 상의 리트릿 수, 댓글 수, 추천 수 및 평가 정보 중에서 선택된 어느 하나 이상이다.Preferably, the related information of the search target image is at least one selected from the source where the collected image is posted, the number of retrits on the social network service of the image, the number of comments, the recommendation number and the evaluation information.

바람직하게는, 상기 장치는, 상기 검색 결과 처리부에 의해 저장된 검색 결과로부터 특정 동영상에 대한 각 프레임에 대한 통계값을 자동으로 산출하여 분석 결과를 생성하는 결과 분석 처리부를 더 포함한다.Preferably, the apparatus further includes a result analysis processing unit for automatically calculating a statistical value for each frame of the specific moving image from the search result stored by the search result processing unit and generating an analysis result.

바람직하게는, 상기 결과 분석 처리부는, 결과 분석 요청에 따라 특정 동영상의 각 프레임에 대해 동영상 내의 해당 이미지를 참조한 뉴스, 블로그, SNS 사이트에서의 인용 횟수 및 해당 링크 정보 중에서 선택된 어느 하나를 제공한다.Preferably, the result analysis processing unit provides any one selected from news, a blog, a number of citations in an SNS site, and corresponding link information for each frame of a specific video in response to a result analysis request.

바람직하게는, 상기 결과 분석 처리부는, 결과 분석 요청에 따라 특정 동영상의 각 프레임에 대해 동영상 내의 해당 이미지를 참조한 뉴스, 블로그, SNS 사이트에서의 인용 횟수로부터 각 프레임의 랭킹을 산출하여 제공한다.Preferably, the result analysis processing unit calculates and provides ranking of each frame from the number of citations in news, blog, and SNS site referring to the corresponding image in the video for each frame of the specific video according to the result analysis request.

본 발명의 다른 측면에 따르면, 캡쳐된 이미지를 이용한 동영상 분석 방법은, 복수의 프레임들로 구성된 동영상으로부터 적어도 하나의 프레임을 추출하는 단계; 상기 추출된 프레임의 특징을 수치화하는 단계; 적어도 하나의 수집된 검색 대상 이미지의 특징을 수치화하는 단계; 수치화한 값들에 의해 상기 검색 대상 이미지를 상기 복수의 프레임들로부터 추출된 적어도 하나의 프레임과 비교하는 단계; 및 상기 비교 결과, 상기 검색 대상 이미지와 일치하는 프레임이 존재할 경우, 상기 일치하는 프레임에 상기 수집된 검색 대상 이미지의 관련 정보를 매핑하여 데이터베이스에 저장하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of analyzing moving images using a captured image, comprising: extracting at least one frame from a moving image composed of a plurality of frames; Digitizing a feature of the extracted frame; Quantifying characteristics of at least one collected retrieval object image; Comparing the search target image with at least one frame extracted from the plurality of frames by numerical values; And mapping the related information of the acquired search target image to the matching frame if there is a frame matching the search target image as a result of the comparison, and storing the mapped related information in the database.

바람직하게는, 상기 프레임을 추출하는 단계 이후에, 상기 추출된 복수의 연속된 프레임들 중에서 복수의 프레임들 간의 이미지 차이가 미리 설정된 일정 범위 이내에 해당할 경우, 상기 복수의 프레임들 중 선택된 하나의 프레임을 대표 프레임으로 결정하는 단계를 더 포함하고, 상기 추출된 프레임의 특징을 수치화하는 단계는 상기 결정된 대표 프레임에 대해 수치화한다.Preferably, if the image difference between the plurality of frames among the extracted plurality of consecutive frames falls within a preset predetermined range, the step of extracting the selected one of the plurality of frames, As a representative frame, and the step of digitizing the feature of the extracted frame digitizes the determined representative frame.

바람직하게는, 상기 대표 프레임으로 결정하는 단계는, 상기 복수의 프레임들에 대해 프레임간 그레이 히스토그램의 차이값이 일정값 이하일 경우, 상기 복수의 프레임들 중 선택된 하나의 프레임을 대표 프레임으로 결정한다.Preferably, when the difference value of the inter-frame gray histogram for the plurality of frames is equal to or smaller than a predetermined value, the step of determining as the representative frame determines the selected one frame among the plurality of frames as a representative frame.

바람직하게는, 상기 대표 프레임으로 결정하는 단계는, 미리 설정된 시간마다 적어도 하나의 프레임을 대표 프레임으로 결정한다.Preferably, the step of determining as the representative frame determines at least one frame as a representative frame every predetermined time.

바람직하게는, 상기 추출된 프레임의 특징을 수치화하는 단계는, 각 프레임의 불변점을 수치화한 후, 미리 정의한 클러스터(cluster)값으로 변환시킨 비쥬얼 단어의 빈도수로 나타낸다.Preferably, the step of quantizing the characteristics of the extracted frame is performed by expressing the constants of each frame as numerical values and then expressing the frequency of the visual words converted into a cluster value defined in advance.

바람직하게는, 상기 검색 대상 이미지의 특징을 수치화하는 단계는, 각 이미지의 불변점을 수치화한 후, 미리 정의한 클러스터(cluster)값으로 변환시킨 비쥬얼 단어의 빈도수로 나타낸다.Preferably, the step of digitizing the feature of the image to be searched for is performed by expressing the invariant points of the respective images, and then expressing the constants of the images by the frequency of the visual words converted into the cluster values defined in advance.

바람직하게는, 상기 비교하는 단계는, 상기 각 프레임의 비쥬얼 단어와 상기 각 이미지의 비쥬얼 단어를 비교하여 동일한 비쥬얼 단어가 미리 설정된 개수 이상이거나 가장 많을 경우 해당 프레임과 이미지가 일치하는 것으로 결정한다.Preferably, the comparison step compares the visual word of each frame with the visual word of each image, and determines that the corresponding image matches the corresponding visual word if the number of visual words is equal to or greater than a predetermined number.

바람직하게는, 상기 검색 대상 이미지의 관련 정보는, 상기 수집된 이미지가 포스팅된 출처, 상기 이미지의 소셜 네트워크 서비스 상의 리트릿 수, 댓글 수, 추천 수 및 평가 정보 중에서 선택된 어느 하나 이상이다.Preferably, the related information of the search target image is at least one selected from the source where the collected image is posted, the number of retrits on the social network service of the image, the number of comments, the recommendation number and the evaluation information.

바람직하게는, 상기 데이터베이스에 저장하는 단계 이후에, 상기 저장된 검색 결과로부터 특정 동영상에 대한 각 프레임에 대한 통계값을 자동으로 산출하여 분석 결과를 생성하는 단계를 더 포함한다.Preferably, the method further includes the step of automatically calculating a statistical value for each frame of a specific moving image from the stored search result to generate an analysis result after the step of storing in the database.

바람직하게는, 상기 분석 결과를 생성하는 단계는, 결과 분석 요청에 따라 특정 동영상의 각 프레임에 대해 동영상 내의 해당 이미지를 참조한 뉴스, 블로그, SNS 사이트에서의 인용 횟수 및 해당 링크 정보 중에서 선택된 어느 하나를 제공한다.Preferably, the step of generating the analysis result may include the step of selecting one of the news, the blog, the number of citations in the SNS site, and the corresponding link information for each frame of the specific video, to provide.

바람직하게는, 상기 분석 결과를 생성하는 단계는, 결과 분석 요청에 따라 특정 동영상의 각 프레임에 대해 동영상 내의 해당 이미지를 참조한 뉴스, 블로그, SNS 사이트에서의 인용 횟수로부터 각 프레임의 랭킹을 산출하여 제공한다.Preferably, the step of generating the analysis result includes calculating a ranking of each frame based on the number of citations in the news, blog, and SNS site referring to the corresponding image in the video for each frame of the specific video according to the result analysis request do.

한편, 상기 캡쳐된 이미지를 이용한 동영상 분석 방법을 제공하기 위한 정보는 서버 컴퓨터로 읽을 수 있는 기록 매체에 저장될 수 있다. 이러한 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있도록 프로그램 및 데이터가 저장되는 모든 종류의 기록매체를 포함한다. 그 예로는, 롬(Read Only Memory), 램(Random Access Memory), CD(Compact Disk), DVD(Digital Video Disk)-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 케리어 웨이브(예를 들면, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함된다. 또한, 이러한 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the information for providing the moving image analysis method using the captured image may be stored in a recording medium readable by the server computer. Such a recording medium includes all kinds of recording media in which programs and data are stored so that they can be read by a computer system. Examples include ROMs (Read Only Memory), Random Access Memory, CD (Compact Disk), DVD (Digital Video Disk) -ROM, magnetic tape, floppy disk, optical data storage device, (For example, transmission over the Internet). Such a recording medium may also be distributed over a networked computer system so that computer readable code in a distributed manner can be stored and executed.

상술한 바와 같이, 본 발명에 따르면 동영상으로부터 캡쳐된 이미지를 수집하고, 수집된 이미지에 연결된 웹 콘텐츠를 이용하여 해당 동영상에 대한 다양한 소셜 메타 정보를 축적할 수 있는 장점이 있다. 또한, 이러한 소셜 메타 정보를 축적함으로써 동영상에 대한 랭킹과 인기 있는 장면을 판별할 수 있는 장점이 있다.As described above, according to the present invention, it is possible to collect images captured from a moving image and accumulate various social meta information about the moving image using web contents linked to the collected images. In addition, by accumulating such social meta information, rankings and popular scenes for moving images can be distinguished.

또한, 본 발명에 따르면 동영상에 삽입된 이미지 프레임을 추출한 후, 해당 이미지가 포함된 뉴스, 블로그, SNS 포스트 정보를 수집함으로써, 이미지별로 수집된 콘텐츠의 출처 및 개수에 따라 해당 동영상에서 화제가 된 주요 장면 등을 검출할 수 있는 장점이 있다. 또한, 이러한 분석에 따라 어떠한 동영상 콘텐츠가 소셜네트워크 서비스 등에서 인기가 있었는지에 대한 소셜 랭킹을 분석할 수 있는 장점이 있다.In addition, according to the present invention, after extracting image frames embedded in a moving image, information on news, blog, and SNS post including the image is collected, Scene or the like can be detected. In addition, according to this analysis, there is an advantage that the social ranking can be analyzed as to which video contents are popular in the social network service and the like.

도 1은 본 발명에 따른 캡쳐된 이미지를 이용한 동영상 분석의 개념을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 캡쳐된 이미지를 이용한 동영상 분석 장치의 세부 구성을 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 대표 프레임 추출을 위한 특정 프레임의 그레이 히스토그램을 나타내는 그래프이다.
도 4는 본 발명의 실시예에 따른 대표 프레임 선정을 위한 프레임 비교를 나타내는 도면이다.
도 5는 본 발명의 실시예에 따른 대표 프레임 선정을 위한 방법을 나타내는 도면이다.
도 6은 본 발명의 실시예에 따른 대표 프레임을 수치화하는 방법의 개념을 나타내는 도면이다.
도 7은 본 발명의 실시예에 따른 캡쳐된 이미지를 이용한 동영상 분석 절차를 나타내는 흐름도이다.
도 8 내지 도 10은 본 발명의 실시예에 따른 캡쳐된 이미지를 이용한 동영상 분석 결과의 예를 나타내는 도면이다.
1 is a diagram illustrating a concept of moving image analysis using a captured image according to the present invention.
2 is a block diagram illustrating a detailed configuration of a moving image analyzing apparatus using a captured image according to an exemplary embodiment of the present invention.
3 is a graph showing a gray histogram of a specific frame for representative frame extraction according to an exemplary embodiment of the present invention.
4 is a diagram illustrating a frame comparison for selecting a representative frame according to an embodiment of the present invention.
5 is a diagram illustrating a method for selecting a representative frame according to an embodiment of the present invention.
6 is a diagram showing a concept of a method of digitizing representative frames according to an embodiment of the present invention.
7 is a flowchart illustrating a moving picture analysis procedure using a captured image according to an embodiment of the present invention.
8 to 10 are views showing an example of a moving image analysis result using a captured image according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는 적절하게 설명된다면 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the position or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which the claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

본 발명은 동영상으로부터 캡쳐된 화면 이미지를 외부 서버 등을 통해 수집하고, 이를 동영상에서 추출한 표준 프레임들과 비교함으로써, 동영상 및 동영상의 주요 프레임에 대한 다양한 메타 정보를 제공할 수 있는 동영상 캡쳐 이미지 분석 장치를 개시한다.The present invention relates to a video capture image analyzing apparatus capable of providing various meta information about a main frame of a moving image and a moving image by comparing a screen image captured from a moving image with an external server or the like, .

즉, 본 발명에서는 특정 동영상으로부터 캡쳐된 이미지를 외부 서버(예컨대, 소셜 네트워크 서비스(SNS; Social Network Service) 사이트, 블로그, 포털 사이트 등)로부터 수집하고, 이를 전체 동영상에서 추출한 복수의 프레임들과 비교함으로써, 수집된 이미지가 어떤 동영상의 어느 프레임에 해당하는지를 판별한다.That is, in the present invention, an image captured from a specific moving picture is collected from an external server (e.g., a social network service (SNS) site, a blog, a portal site, etc.) and compared with a plurality of frames extracted from the entire moving picture Thereby determining which frame of the moving image the collected image corresponds to.

이에 따라, 수집된 특정 이미지와 일치하는 프레임이 검색될 경우, 해당 프레임에 대해 상기 수집된 이미지의 관련 정보(예컨대, 연결된 웹 콘텐츠 정보)를 매핑하여 저장함으로써 동영상 콘텐츠에 대한 다양한 분석이 수행될 수 있다. 이때, 상기 관련 정보로는 콘텐츠의 출처(즉, 포스팅된 웹사이트), 해당 이미지가 포스팅된 개수 등이 될 수 있으며, 이를 통해 분석 결과로서 동영상 또는 동영상 내 특정 이미지의 랭킹(ranking)(순위), 각 출처별 인용 수 등을 산출할 수 있다.Accordingly, when a frame matching the collected specific image is searched, related information (e.g., linked web content information) of the collected image is mapped and stored for the corresponding frame to perform various analyzes on the video content have. In this case, the related information may be a source of the content (that is, a posted web site), a number of the posted image, and the like, and the ranking of the specific image in the video or the video, , The number of citations for each source can be calculated.

한편, 후술하는 설명에서의 '외부 서버'란 본 발명에 따라 동영상 분석을 수행하는 동영상 캡쳐 이미지 분석 장치와는 별도로 각종 웹 서비스를 제공하는 서버로서, 물리적으로 또는 논리적으로 구분된 장치로서 상기 동영상 캡쳐 이미지 분석 장치와는 소정의 유무선 통신 네트워크를 통해 연결될 수 있다.In the meantime, the 'external server' in the following description is a server that provides various web services separately from the video capture image analysis apparatus that performs video analysis according to the present invention, and is a device physically or logically divided, And may be connected to the image analysis apparatus through a predetermined wired / wireless communication network.

이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.

캡쳐된Captured 이미지를 이용한 동영상 분석의 개념 Concept of video analysis using images

도 1은 본 발명에 따른 캡쳐된 이미지를 이용한 동영상 분석의 개념을 나타내는 도면이다. 도 1을 참조하면, 먼저 적어도 하나의 동영상에 대해 복수의 프레임(frame)들을 추출한다. 그런 다음, 추출된 각 프레임의 특징값을 수치화하여 데이터베이스에 저장한다. 이때, 본 발명의 실시예에 따라 복수의 프레임들 중에서 대표 프레임을 추출하고, 추출된 대표 프레임에 대해서만 수치화하여 저장하는 것이 바람직하다.1 is a diagram illustrating a concept of moving image analysis using a captured image according to the present invention. Referring to FIG. 1, a plurality of frames are extracted for at least one moving image. Then, the extracted feature values of each frame are digitized and stored in the database. In this case, it is preferable that a representative frame is extracted from a plurality of frames according to an embodiment of the present invention, and only the extracted representative frame is digitized and stored.

한편, 크롤러(crawler)는 외부 서버(예컨대, 뉴스, 블로그, 트위터, 페이스북 등을 제공하는 웹 서버)로부터 캡쳐된 이미지가 첨부된 포스팅을 수집하여 검색 후보로 데이터베이스에 저장한다. 그런 다음, 검색 엔진을 통해 상기 수집된 각 이미지에 대해 상기 동영상으로부터 추출된 대표 프레임들 중 일치하는 대표 프레임을 검색한다.On the other hand, a crawler collects postings attached with images captured from an external server (for example, a web server providing news, blog, Twitter, Facebook, etc.) and stores the postings as search candidates in a database. Then, a matching representative frame among the representative frames extracted from the moving image is retrieved for each of the collected images through a search engine.

상기 검색된 결과에 따라 동영상별 화제 장면 데이터베이스 및 해당 화제 장면을 언급한 장면별 포스트 데이터베이스를 구축한다. 또한, 이를 기반으로 동영상의 랭킹을 산출하거나, 동영상 내의 화제 장면을 선정하는 등 각종 분석이 수행될 수 있다.And a post database for each scene referring to a topic-specific topic scene database and a topic scene according to the retrieved result. Further, based on this, various analyzes can be performed such as calculating a ranking of a moving image, selecting a topic scene in a moving image, and the like.

보다 구체적으로 설명하면, 상기 검색된 결과 수집된 특정 이미지에 대해 일치하는 대표 프레임이 검색될 경우, 해당 대표 프레임에 상기 수집된 이미지와 관련하여 함께 수집된 각종 정보(예컨대, 해당 수집된 이미지가 포스팅된 출처, 해당 대표 프레임이 참조된 개수, 해당 이미지의 확산 또는 선호도 정도(예컨대, 리트릿(RT)수, 댓글수, 추천수 등) 등)를 매핑하여 데이터베이스에 저장한다.More specifically, when a representative frame corresponding to a specific image is searched for as a result of the searched result, various information collected together with the collected image (for example, the corresponding collected image is posted The number of references, the number of references to the representative frame, the degree of spread or preference of the image (e.g., the number of retrits (RT), the number of comments, the number of votes, etc.) are mapped and stored in the database.

이에 따라, 도 8 내지 도 10에 도시된 바와 같이 특정 동영상에서 추출된 대표 프레임들 중 화제의 장면(즉, 화제의 프레임), 해당 화제의 장면을 언급한 포스트들의 목록, 동영상들의 랭킹 등을 제공할 수 있다.Accordingly, as shown in FIG. 8 to FIG. 10, a scene of a topic (i.e., a frame of a topic) among the representative frames extracted from a specific moving picture, a list of posts that mention the scene of the topic, can do.

이하, 도 2 내지 도 7을 참조하여 본 발명의 실시예에 따른 캡쳐된 이미지를 이용한 동영상 분석 장치 및 방법을 상세히 설명한다.Hereinafter, an apparatus and method for analyzing a moving image using a captured image according to an embodiment of the present invention will be described in detail with reference to FIG. 2 to FIG.

캡쳐된Captured 이미지를 이용한 동영상 분석 장치 Image analysis device using image

도 2는 본 발명의 실시예에 따른 캡쳐된 이미지를 이용한 동영상 분석 장치의 세부 구성을 나타내는 블록도이다. 도 2를 참조하면, 본 발명의 실시예에 따른 동영상 분석 장치는 비디오 프레임 추출부(210), 대표 프레임 추출부(220), 추출 프레임 수치화부(230), 이미지 정보 수집부(240), 이미지 수치화부(250), 이미지 비교 검색부(260), 검색 결과 처리부(270) 및 결과 분석 처리부(280) 등을 포함할 수 있다. 또한, 상기 동영상 분석 장치는 동영상 콘텐츠 데이터베이스(291), 프레임 특징 정보 데이터베이스(292), 이미지 특징 정보 데이터베이스(293), 이미지 관련 정보 데이터베이스(294) 및 분석 결과 정보 데이터베이스(295) 등과 같이 적어도 하나의 데이터베이스들을 포함할 수 있다.2 is a block diagram illustrating a detailed configuration of a moving image analyzing apparatus using a captured image according to an exemplary embodiment of the present invention. Referring to FIG. 2, the moving picture analyzing apparatus according to an embodiment of the present invention includes a video frame extracting unit 210, a representative frame extracting unit 220, an extracted frame quantizing unit 230, an image information collecting unit 240, A digitization unit 250, an image comparison / search unit 260, a search result processing unit 270, and a result analysis processing unit 280. The moving picture analysis apparatus may include at least one of a moving picture content database 291, a frame feature information database 292, an image feature information database 293, an image related information database 294 and an analysis result information database 295 Databases.

동영상 콘텐츠 데이터베이스(291)에는 적어도 하나의 동영상이 예컨대 파일 형태로 저장될 수 있다. 이때, 상기 동영상은 복수의 프레임들(예컨대, 1초에 30프레임 등)을 포함하여 구성될 수 있다. 한편, 상기 동영상은 어떠한 종류, 어떠한 포맷의 동영상도 본 발명에 적용될 수 있다. 예컨대, 방송 동영상, UCC 동영상, 영화 동영상 등 어떠한 종류의 동영상도 본 발명에 적용될 수 있다. 또한, 상기 동영상 콘텐츠 데이터베이스(291)에는 상기 저장되는 동영상에 대한 각종 관련 정보(예컨대, 메타 정보)들이 함께 매핑되어 저장될 수 있다. 예컨대, 상기 동영상의 출처, 재생 시간, 방송 시간, 방송 채널, 파일 포맷 등의 정보가 함께 저장될 수 있다.At least one moving image may be stored in the moving image content database 291, for example, in the form of a file. At this time, the moving picture may be configured to include a plurality of frames (e.g., 30 frames per second, etc.). On the other hand, the moving picture can be applied to the present invention in any kind and in any format. For example, any kind of moving picture such as a broadcast moving picture, a UCC moving picture, a movie moving picture, and the like can be applied to the present invention. In addition, various related information (e.g., meta information) about the moving image to be stored may be mapped and stored in the moving image content database 291. [ For example, information such as the source of the moving image, the playback time, the broadcast time, the broadcast channel, and the file format may be stored together.

상기 비디오 프레임 추출부(210)는 상기 동영상 콘텐츠 데이터베이스(291)에 저장된 특정 동영상을 선택하고, 선택된 동영상 내에 포함된 복수의 각 프레임을 추출한다.The video frame extracting unit 210 selects a specific moving image stored in the moving image content database 291 and extracts a plurality of frames included in the selected moving image.

상기 대표 프레임 추출부(220)는 본 발명의 실시예에 따라 상기 비디오 프레임 추출부(210)를 통해 추출된 복수의 프레임들 중에서 주요 프레임으로 사용할 대표 프레임을 선택한다. 즉, 상기 비디오 프레임 추출부(210)를 통해 추출된 프레임들은 인접 프레임간에 중복성(또는 유사성)이 강하기 때문에 데이터베이스 구성 및 검색의 효율성을 위해 본 발명의 실시예에 따라 대표 프레임을 선택하여 처리하는 것이 바람직하다. 그러나, 본 발명이 이에 한정되지는 않으며, 추출된 동영상 내의 전체 프레임 또는 동영상 내의 특정 조건에 맞는 프레임에 대해 이후 절차를 진행하도록 구현할 수도 있다.The representative frame extracting unit 220 selects a representative frame to be used as a main frame among a plurality of frames extracted through the video frame extracting unit 210 according to an embodiment of the present invention. That is, since frames extracted through the video frame extracting unit 210 have strong redundancy (or similarity) between adjacent frames, it is preferable to select and process a representative frame according to an embodiment of the present invention for database configuration and search efficiency desirable. However, the present invention is not limited to this, and the following procedure may be implemented for a whole frame in the extracted moving image or a frame matching a specific condition in the moving image.

이때, 상기 대표 프레임의 추출 방법은 다양하게 구현할 수 있으며, 후술하는 실시예들에서와 같이 프레임간 그레이 히스토그램의 차이값이 일정값 이하인 경우는 중복성이 강한 이미지이므로 해당 프레임을 제외시키며, 예외적으로 그레이 히스토그램의 차이가 작으나 서로 다른 이미지일 경우가 발생할 수 있으므로 일정 시간 간격마다 강제적으로 대표 프레임으로 선정하도록 구현할 수 있다. 이에 대한 상세한 설명은 도 3 내지 도 5의 설명에서 후술하기로 한다.In this case, the representative frame extraction method can be variously implemented. When the difference value of the inter-frame gray histogram is equal to or smaller than a predetermined value as in the embodiments described later, the frame is excluded because it is an image having high redundancy. Since the histograms may be different from each other with a small difference, the representative frames may be forcibly selected at predetermined time intervals. A detailed description thereof will be given later in the description of Figs. 3 to 5.

이와 같이, 대표 프레임 추출부(220)에 의해 대표 프레임이 결정되면, 추출 프레임 수치화부(230)에서는 상기 각 대표 프레임의 특징을 수치화하여 프레임 특징 정보 데이터베이스에 저장(282)한다. 상기 각 대표 프레임의 특징을 수치화하는 방법은 다양하게 구현될 수 있으며, 공지된 이미지 분석 방법 등을 이용할 수도 있다. 한편, 본 발명에서는 상기 대표 프레임의 특징을 수치화하는 방법의 예로서 비쥬얼 단어(visual words) 방법을 사용한 예를 설명하며 본 발명이 이에 한정되지는 않는다. 상기 비쥬얼 단어 방법의 상세한 설명은 도 6의 설명에서 후술하기로 한다.When the representative frame is determined by the representative frame extracting unit 220 in this way, the extraction frame quantization unit 230 digitizes the characteristics of each representative frame and stores it in the frame characteristic information database (282). Methods for digitizing the characteristics of each representative frame may be variously implemented, or a known image analysis method or the like may be used. In the present invention, an example using a visual words method is described as an example of a method of digitizing the characteristics of the representative frame, but the present invention is not limited thereto. A detailed description of the visual word method will be described later with reference to FIG.

이미지 정보 수집부(240)에서는 각종 외부 서버(예컨대, 포털 사이트 서버, SNS 서버, 블로그 서버 등)로부터 이미지(예컨대, 특정 동영상으로부터 캡쳐된 이미지)가 첨부된 포스트를 수집한다. 이때, 상기 이미지 정보 수집부(240)는 크롤러(crawler) 등을 이용하여 구현할 수 있으며 본 발명이 이에 한정되지는 않는다. 상기 크롤러는 웹상의 다양한 정보를 자동으로 검색하고 색인하기 위해 검색 엔진을 운영하는 사이트에서 사용하는 소프트웨어의 일종으로 스파이더(spider), 봇(bot), 지능 에이전트라고도 한다.The image information collecting unit 240 collects a post attached with an image (for example, an image captured from a specific moving image) from various external servers (e.g., portal site server, SNS server, blog server, etc.). At this time, the image information collecting unit 240 may be implemented using a crawler or the like, but the present invention is not limited thereto. The crawler is a type of software used by a site that operates a search engine to automatically search and index various information on the web, and is also called a spider, a bot, or an intelligent agent.

한편, 상기 이미지 정보 수집부(240)는 상기 이미지가 첨부된 포스트를 수집할 때 해당 수집된 이미지가 포스팅된 출처, 해당 이미지의 확산 또는 선호도 정도(예컨대, 리트릿(RT)수, 댓글수, 각종 평가 정보(예컨대, 추천수, 긍정/부정수(또는 찬성/반대수) 등) 등) 등의 정보들을 추가로 함께 수집할 수 있다. 상기 이미지 정보 수집부(240)에 의해 추가로 수집된 이미지 관련 정보들은 이미지 관련 정보 데이터베이스(294)에 해당 이미지와 링크되어 저장될 수 있다.Meanwhile, the image information collecting unit 240 may collect the postings to which the image is attached when the collected images include the source, the diffusion or preference degree of the image (for example, the number of retrits (RT), the number of comments, Evaluation information (for example, recommendation number, positive / negative number (or positive / negative number), etc.), and the like. The image related information collected by the image information collecting unit 240 may be stored in the image related information database 294 in link with the corresponding image.

상기 이미지 수치화부(250)는 상기 이미지 정보 수집부(240)를 통해 수집된 각 이미지의 특징을 수치화하여 이미지 특징 정보 데이터베이스(293)에 저장한다. 이때, 상기 이미지 수치화부(250)에서의 수치화 방법은 상기 추출 프레임 수치화부(230)에서의 방법과 동일한 방법을 사용하는 것이 바람직하며, 본 발명이 이에 한정되지는 않는다. 즉, 상기 각 수집된 이미지의 특징을 수치화하는 방법은 다양하게 구현될 수 있으며, 공지된 이미지 분석 방법 등을 이용할 수도 있다. 한편, 본 발명에서는 상기 수집된 이미지의 특징을 수치화하는 방법의 예로서 비쥬얼 단어(visual words) 방법을 사용한 예를 설명하며 본 발명이 이에 한정되지는 않는다.The image quantization unit 250 digitizes the characteristics of each image collected through the image information collection unit 240 and stores the quantities in the image feature information database 293. At this time, it is preferable to use the same method as that of the extraction frame quantization unit 230, and the present invention is not limited thereto. That is, various methods for digitizing the characteristics of each of the collected images may be implemented, and known image analysis methods may be used. In the present invention, an example of using the visual words method is described as an example of a method of digitizing the characteristics of the collected image, but the present invention is not limited thereto.

이와 같이, 대표 프레임에 대한 특징 수치화 및 수집된 이미지에 대한 특징 수치화 절차가 완료되면, 이미지 비교 검색부(260)에서는 특정 이미지의 수치화한 값을 상기 프레임 특징 정보 데이터베이스(292)에 저장된 대표 프레임의 수치화한 값과 비교한다. 상기 비교 결과, 일치하는 값을 갖는 대표 프레임 또는 가장 유사한 값을 갖는 대표 프레임을 검색한다. 한편, 상기 특징을 수치화하는 방법으로 후술하는 비쥬얼 단어 방법을 이용할 경우, 상기 이미지와 동일한 비쥬얼 단어를 가장 많이 가진 대표 프레임을 검색하거나, 동일한 단어가 나온 횟수를 이미지간의 거리(distance)로 정의하여 일정한 거리 이내에 해당하는 프레임을 검색할 수 있다.When the feature quantification for the representative frame is completed and the feature quantification process for the collected image is completed, the image comparison search unit 260 compares the digitized value of the specific image with the representative value of the representative frame stored in the frame feature information database 292 It is compared with the numerical value. As a result of the comparison, a representative frame having a matching value or a representative frame having the most similar value is searched. When the visual word method described below is used to quantify the feature, a representative frame having the largest number of visual words identical to the image is searched, or the number of times the same word appears is defined as a distance between images, The corresponding frame can be searched within the distance.

상기 이미지 비교 검색부(260)에 의해 수집된 특정 이미지에 일치하는 프레임이 검색되면, 상기 검색 결과 처리부(270)에서는 상기 검색된 해당 프레임에 상기 일치하는 이미지에 관련되어 수집된 정보를 이미지 관련 정보 데이터베이스(294)로부터 독출하여 매핑하고, 이를 이미지 분석 정보 데이터베이스(295)에 저장한다.When a frame matching the specific image collected by the image comparison and search unit 260 is searched, the search result processing unit 270 transmits information collected in association with the matching image to the searched corresponding frame, (294), and stores it in the image analysis information database (295).

또한, 본 발명의 실시예에 따라 동영상에 대한 정보 요청이 수신되면, 결과 분석 처리부(280)에서는 상기 이미지 분석 정보 데이터베이스(295)에 저장된 검색 결과로부터 특정 동영상에 대한 각 주요 프레임에 대한 통계값을 자동으로 산출하여 분석 결과를 생성하고, 생성된 결과를 요청한 사용자에게 제공한다. 예컨대, 도 8 내지 도 10에 도시된 바와 같이 동영상에 대한 검색 결과로서 본 발명의 실시예에 따라 특정 동영상의 주요 이미지(또는 프레임)에 대한 각종 관련 정보(예컨대, 동영상내의 해당 이미지를 참조한 뉴스, 블로그, SNS 사이트 등의 횟수 및 해당 링크 정보 등)를 생성하여 사용자에게 제공할 수 있다.When a request for information on a moving image is received according to the embodiment of the present invention, the result analysis processing unit 280 extracts statistical values for each main frame for a specific moving image from the search results stored in the image analysis information database 295 Automatically generates the analysis result, and provides the generated result to the requesting user. For example, as shown in FIG. 8 to FIG. 10, various related information about a main image (or frame) of a specific moving picture (e.g., news referring to the corresponding image in the moving picture, A number of blogs, SNS sites, etc., and corresponding link information), and provide the generated information to the user.

대표 프레임 추출 방법Representative frame extraction method

도 3은 본 발명의 실시예에 따른 대표 프레임 추출을 위한 특정 프레임의 그레이 히스토그램을 나타내는 그래프이다. 도 3을 참조하면, 본 발명의 실시예에 따라 프레임간의 그레이 히스토그램의 차이값을 통해 대표 프레임을 추출한다.3 is a graph showing a gray histogram of a specific frame for representative frame extraction according to an exemplary embodiment of the present invention. Referring to FIG. 3, a representative frame is extracted through a gray histogram difference value between frames according to an exemplary embodiment of the present invention.

즉, 도 3에 도시된 바와 같이 각 프레임에 대한 그레이 히스토그램을 산출하고, 연속된 프레임간의 그레이 히스토그램의 차이값이 미리 설정된 일정값 이하인 경우 중복성(또는 유사성)이 강한 이미지로 판단한다. 따라서, 하나의 프레임만을 대표 프레임으로 남겨 두고, 나머지 하나 이상의 중복 프레임에 대해서는 삭제 처리한다. 이에 따라, 하나의 동영상에 포함된 많은 수의 프레임 중에서 조건에 만족하는 특정 프레임들만을 대표 프레임으로 추출하여 처리함으로써 데이터베이스 구성 및 검색을 효율적으로 할 수 있다.That is, as shown in FIG. 3, a gray histogram for each frame is calculated, and when the difference value of the gray histogram between consecutive frames is equal to or smaller than a preset predetermined value, it is determined that the image has strong redundancy (or similarity). Therefore, only one frame is left as a representative frame, and the remaining one or more redundant frames are deleted. Accordingly, only a specific frame satisfying a condition among a large number of frames included in one moving picture is extracted and processed as a representative frame, thereby making it possible to efficiently perform database configuration and search.

상기 그레이 히스토그램은 예컨대 도 3과 같이 산출될 수 있다. 보다 구체적으로 설명하면 프레임을 구성하는 각 픽셀의 그레이 값을 산출하고, 미리 구분된 구간에 속하는지 여부를 계산하여 그 비율을 계산한다. 이에 따라 전체 프레임 이미지의 그레이값의 분포도가 도 3과 같이 산출될 수 있다.The gray histogram can be calculated, for example, as shown in FIG. More specifically, the gray value of each pixel constituting the frame is calculated, and it is calculated whether or not it belongs to a previously-classified section, and the ratio is calculated. Accordingly, the distribution of gray values of the entire frame image can be calculated as shown in FIG.

도 4 및 도 5는 상기 그레이 히스토그램 등을 사용하여 대표 프레임을 선정하는 방법을 나타낸다. 즉, 도 4를 참조하면, 410번 프레임과 420번 프레임은 연속된 프레임으로서 그레이 히스토그램의 차이가 미리 설정된 값 이하로 중복성이 강한 이미지임을 알 수 있다. 따라서, 410번 프레임을 제외하고 420번 프레임을 대표 프레임으로 선정한다. 마찬가지로 430번 프레임과 440번 프레임은 연속된 프레임으로서 그레이 히스토그램의 차이가 미리 설정된 값 이하로 중복성이 강한 이미지임을 알 수 있다. 따라서, 430번 프레임을 제외하고 440번 프레임을 대표 프레임으로 선정한다. 동일한 방법으로 셋 이상의 연속된 프레임의 그레이 히스토그램의 차이가 미리 설정된 값 이하일 경우 하나의 프레임만을 대표 프레임으로 남겨두고 나머지 두 개의 프레임을 제외시킬 수 있다.4 and 5 show a method of selecting a representative frame using the gray histogram and the like. That is, referring to FIG. 4, it can be seen that the 410th frame and the 420th frame are consecutive frames, and the difference between the gray histograms is less than a preset value and the redundancy is strong. Therefore, the 420th frame is selected as the representative frame except the 410th frame. Similarly, it can be seen that the 430 and 440 frames are consecutive frames, and the difference between the gray histograms is less than a predetermined value and the image is highly redundant. Therefore, frame 440 except frame 430 is selected as the representative frame. If the gray histogram difference of three or more consecutive frames is equal to or less than a preset value in the same manner, only one frame may be left as a representative frame, and the remaining two frames may be excluded.

한편, 특별한 경우에 상기와 같이 그레이 히스토그램의 차이는 미리 설정된 값 이하이나 서로 다른 이미지일 가능성이 있을 수도 있다. 따라서, 본 발명의 실시예에 따라 그레이 히스토그램의 차이가 미리 설정된 값 이하이더라도 미리 설정된 시간(예컨대, 1초)마다 한 번씩은 강제적으로 대표 프레임으로 선정하도록 구현할 수 있다. 즉, 도 5를 참조하면, 510번 프레임 내지 550번 프레임은 모두 그레이 히스토그램이 미리 설정된 값 이하로 나타나지만, 520번 프레임과 530번 프레임의 이미지가 다른 이미지일 수 있다. 따라서, 본 발명의 실시예에 따라 일정 주기마다 필수적으로 대표 프레임을 선정하도록 구현할 수 있다.On the other hand, in a special case, the difference of the gray histograms as described above may be equal to or less than a predetermined value, but may be different images. Therefore, according to the embodiment of the present invention, even if the gray histogram difference is less than the predetermined value, it can be forcibly selected as the representative frame once every predetermined time (for example, 1 second). In other words, referring to FIG. 5, the gray histograms of all the frames 510 to 550 are shown below the preset values, but the images of the 520 and 530 frames may be different images. Therefore, according to the embodiment of the present invention, the representative frame can be necessarily selected every predetermined period.

대표 프레임 수치화 방법Representative frame quantification method

상기 도 4 및 도 5와 같은 방법으로 대표 프레임을 선정하면, 선정된 각 대표 프레임의 특징을 수치화하여 데이터베이스에 저장한다. 도 6은 본 발명의 실시예에 따른 대표 프레임을 수치화하는 방법의 개념을 나타내는 도면이다.4 and 5, the features of each selected representative frame are digitized and stored in a database. 6 is a diagram showing a concept of a method of digitizing representative frames according to an embodiment of the present invention.

즉, 본 발명의 실시예에 따라 대표 프레임과 수집된 이미지를 비교하기 위해서는 각 대표 프레임과 각 수집된 이미지를 각각 그 특징값으로 수치화하여 저장하여 비교하게 된다. 상기 이미지를 특징값으로 수치화하는 방법의 예로서 비쥬얼 단어(visual words)방법이 사용될 수 있다.That is, in order to compare the representative frame and the collected image according to the embodiment of the present invention, each representative frame and each of the collected images are digitized by their feature values, and stored and compared. A visual words method can be used as an example of a method of digitizing the image to a feature value.

상기 비쥬얼 단어 방법은 이미지 또는 프레임의 불변점을 구하여 이 불변점들을 수치화하여 나타내고, 이를 검색에 용이하게 하기 위하여 미리 정의한 클러스터(cluster)값으로 변환시켜 사용하는 방법이다.The visual word method is a method in which an invariant point of an image or a frame is obtained, the invariant points are expressed numerically and converted into a predefined cluster value in order to facilitate the search.

보다 구체적으로 설명하면, 도 6에 도시된 바와 같이 각각의 클러스터를 미리 복수의 트레이닝(training) 이미지들을 이용하여 일정 개수로 나누어 둔다. 이때, 이들 각각의 단위 클러스터를 비쥬얼 단어라고 한다. 다음으로, 하나의 이미지에 대해 불변점을 먼저 구하고 불변점의 특징을 나타낼 수 있는 통계치로 서술자(descriptor)를 구한다. 이 서술자는 일종의 벡터(vector)이므로 이 벡터가 속한 가장 가까운 클러스터를 구하여 이를 이 점의 특징값으로 한다. 이렇게 함으로써, 도시된 바와 같이 하나의 이미지는 비쥬얼 워드의 빈도값(freqeuncy)들로 나타낼 수 있는 하나의 특징값 히스토그램(histogram)으로 나타낼 수 있다. More specifically, as shown in FIG. 6, each cluster is divided into a predetermined number using a plurality of training images in advance. At this time, these unit clusters are referred to as visual words. Next, an invariant point is first obtained for one image, and a descriptor is obtained as a statistic that can characterize the invariant point. Since this descriptor is a kind of vector, find the closest cluster to which this vector belongs and set it as the feature value of this point. By doing so, as shown, one image can be represented as a histogram of feature values that can be expressed as freqununcy values of a visual word.

이러한 방법을 이용하여 동영상에 포함된 각 대표 프레임들을 수치화하여 저장할 수 있다. 상기 방법은 본 발명의 이해를 돕기 위해 예시로 든 것으로서, 본 발명이 상기 방법에 한정되지는 않는다.By using this method, each representative frame included in the moving picture can be digitized and stored. The method is illustrated to facilitate understanding of the present invention, and the present invention is not limited to the method.

한편, 상기 도 6에서는 상기 특징값을 나타내는 히스토그램의 클러스터 하나하나가 이미지(또는 프레임)를 대표하는 비쥬얼 단어로 생각할 수 있으며, 최종적으로 하나의 이미지는 적어도 하나의(바람직하게는 복수의) 비쥬얼 단어와 각 비쥬얼 단어의 빈도수(frequency)로 표현될 수 있다.In FIG. 6, each cluster of the histogram representing the feature value may be regarded as a visual word representing an image (or a frame), and finally, one image may include at least one (preferably plural) visual words And the frequency of each visual word.

따라서, 이미지 정보 수집부(240)에 의해 이미지를 수집함으로써 쿼리(Query) 이미지가 들어오면 예컨대 상술한 방법으로 이미지를 대표하는 비쥬얼 단어를 구하고, 데이터베이스에 저장되어 있는 각 프레임의 비쥬얼 단어들과 비교하게 된다. 이때, 정보 검색에서 사용하는 방식을 차용하여 동일한 비쥬얼 단어를 가장 많이 가진 프레임을 상기 쿼리 이미지와 동일한 프레임으로 간주할 수 있다. 즉, 일반적인 정보 검색 방법과 유사한 방식으로 동영상이 저장된 데이터베이스를 역파일 형태로 저장해두면 쿼리 이미지에 대하여 빠른 시간에 가장 유사한 이미지를 검색할 수 있다. 또한, 동일한 비쥬얼 단어가 나온 횟수를 이미지들 간의 거리(distance)로 정의하고, 일정한 거리 이하의 이미지만을 동일한 프레임으로 간주할 수 있다.Accordingly, when a query image is acquired by collecting an image by the image information collecting unit 240, a visual word representative of the image is obtained by, for example, the above-described method, and compared with the visual words of each frame stored in the database . At this time, the frame having the largest number of the same visual words can be regarded as the same frame as the query image by borrowing the method used in the information search. In other words, by storing the database in which the movie is stored in the reverse file format in a manner similar to a general information search method, the most similar images can be retrieved in a short time with respect to the query image. In addition, the number of times the same visual word appears is defined as a distance between images, and only an image of a certain distance or less can be regarded as the same frame.

이와 같이, 수집된 각 이미지에 대해 동영상으로부터 추출된 대표 프레임들 중 동일한 프레임이 검색되면, 상기 검색된 프레임에 상기 이미지와 함께 수집된 상기 이미지에 대한 각종 관련 정보들(예컨대, 해당 수집된 이미지가 포스팅된 출처, 해당 이미지의 확산 또는 선호도 정도(예컨대, 리트릿(RT)수, 댓글수, 각종 평가 정보(예컨대, 추천수, 긍정/부정수(또는 찬성/반대수) 등) 등)을 상기 검색된 프레임에 매칭하여 저장한다.In this manner, when the same frame among the representative frames extracted from the moving image is retrieved for each of the collected images, various related information about the image collected together with the image in the retrieved frame (for example, (E.g., number of retrets (RT), number of comments, various evaluation information (e.g., recommendation number, positive / negative number (or positive / negative number), etc.), etc.) in the retrieved frame And stores them.

캡쳐된Captured 이미지를 이용한 동영상 분석 방법 How to analyze videos using images

도 7은 본 발명의 실시예에 따른 캡쳐된 이미지를 이용한 동영상 분석 절차를 나타내는 흐름도이다. 도 7을 참조하면, 상술한 바와 같이 먼저 동영상 콘텐츠로부터 대표 프레임을 추출하여 데이터베이스에 저장(S701)한다. 그런 다음, 추출된 각 대표 프레임의 특징을 수치화하여 데이터베이스에 저장(S702)한다.7 is a flowchart illustrating a moving picture analysis procedure using a captured image according to an embodiment of the present invention. Referring to FIG. 7, the representative frame is first extracted from the moving picture contents and stored in the database (S701) as described above. Then, the features of each extracted representative frame are digitized and stored in the database (S702).

또한, 외부 서버들로부터 이미지가 첨부된 포스팅을 수집(S703)하고, 수집된 이미지의 특징을 수치화하여 데이터베이스에 저장(S704)한다.In addition, postings to which images are attached from external servers are collected (S703), the characteristics of the collected images are digitized and stored in the database (S704).

그런 다음, 본 발명의 실시예에 따라 상기 데이터베이스에 저장된 각 대표 프레임으로부터 상기 수집된 이미지와 일치하는 대표 프레임을 검색(S705)한다.Then, in step S705, a representative frame matching the collected image is searched for from each representative frame stored in the database according to an embodiment of the present invention.

상기 검색 결과, 일치하는 대표 프레임이 검색될 경우(S706), 검색된 대표 프레임에 해당 수집된 이미지의 관련 정보들을 매핑하여 데이터베이스에 저장(S707)한다.If a matching representative frame is searched (S706), the related information of the collected image is mapped to the searched representative frame and stored in the database (S707).

동영상 분석 결과의 Of video analytics 실시예Example

도 8 내지 도 10은 본 발명의 실시예에 따른 캡쳐된 이미지를 이용한 동영상 분석 결과의 예를 나타내는 도면이다.8 to 10 are views showing an example of a moving image analysis result using a captured image according to an embodiment of the present invention.

도 8을 참조하면, 웹이나 뉴스, SNS 등에서 동영상 캡쳐 화면을 첨부하여 포스팅하거나, 참조(reference)하거나, 언급한 횟수에 따라 해당 동영상 또는 동영상 내의 해당 캡쳐 화면의 랭킹을 제공할 수 있다.Referring to FIG. 8, a video capturing screen may be attached to a web, a news, an SNS, or the like, or a reference of the capturing screen may be provided according to the number of times mentioned.

예컨대, 도시된 바와 같이 검색 포털 사이트에서 '힐링캠프'와 같은 TV 방송 제목을 검색어로 입력(800)하면 본 발명의 실시예에 따라 각 일자별 방송 영상에서의 캡쳐한 특정 장면을 언급한 통계 정보 및 랭킹 정보를 제공함으로써 어떤 방송일자의 어떤 장면이 가장 화제가 된 장면인지를 알 수 있다. 즉, 해당 방송 동영상들 중에서 특정 장면을 가장 많이 캡쳐하여 포스팅하거나, 참조하거나, 언급한 횟수에 따라 순차적으로 해당 장면의 캡쳐 이미지(810) 및 관련 정보(820)를 제공할 수 있다. 예컨대, 검색한 해당 프로그램의 방송 중에서 2012년 6월 9일 방송에서 14초에 캡쳐한 이미지가 가장 많이 포스팅 또는 참조되어 가장 화제가 된 장면이므로 검색 결과의 가장 상위에 표시된다. 이때, 해당 캡쳐 이미지(810)와 함께 해당 장면을 언급(821 내지 824)한 횟수를 각 출처(예컨대, 뉴스, 블로그, 트위터, 페이스북 등)별로 표시할 수 있다. 마찬가지로 다음으로 많이 포스팅 및 참조된 해당 방송분의 캡쳐 이미지가 그 아래에 표시될 수 있다.For example, if a title of a TV broadcast such as a 'healing camp' is input 800 as a search term on a search portal site, statistical information referring to a specific scene captured in each day-by-day broadcast image according to an embodiment of the present invention, By providing ranking information, it is possible to know which scene of a certain broadcast date is the most talked about scene. That is, it is possible to capture a specific scene from the corresponding broadcast moving pictures, post it, refer to it, or provide the captured image 810 and related information 820 of the scene sequentially according to the number of times mentioned. For example, among the broadcasts of the program searched on June 9, 2012, images captured at 14 seconds are displayed at the top of the search results because they are the most talked about or referenced images. At this time, the number of times the scene is referred to (821 to 824) along with the captured image 810 can be displayed for each source (e.g., news, blog, twitter, facebook, etc.). Likewise, a captured image of the next broadcasted and referenced broadcast can be displayed below it.

상기 각 장면의 랭킹 결정 방법은 다양하게 구현할 수 있으며, 각 출처별로 포스팅 또는 참조된 횟수를 합산하여 결정할 수도 있으며, 각 출처별 가중치를 부여하고 이를 합산하여 결정할 수도 있다.The ranking determination method for each scene may be variously implemented, and may be determined by summing up the number of postings or referrals for each source, or may be determined by adding weights to each source and summing them.

한편, 상기 검색 결과 화면에서 특정 캡쳐 이미지에 대한 관련 정보로 표시된 '동영상내 장면 언급' 부분을 선택하면, 도 9에 도시된 바와 같이 해당 장면이 언급된 출처 정보를 제공할 수 있다.On the other hand, if the 'video scene description' portion indicated by the related information on the specific captured image is selected on the search result screen, the source information on which the scene is referred to can be provided as shown in FIG.

즉, 도 9를 참조하면, 해당 동영상 내의 해당 장면을 언급한 목록(900)이 각 출처별로 제공될 수 있다. 예컨대, 해당 장면이 뉴스에서 언급된 각 출처(910), 트위터에서 언급된 각 출처(920), 블로그에서 언급된 각 출처, 페이스북에서 언급된 각 출처 등이 제공될 수 있다. 이때, 상기 각 출처 정보를 선택하면, 해당 장면이 언급된 뉴스, 블로그, 트위터, 페이스북 등의 해당 포스팅으로 바로 연결되도록 구현할 수도 있다.That is, referring to FIG. 9, a list 900 referring to a corresponding scene in the moving image may be provided for each source. For example, each scene 910 in which the scene is mentioned in the news, each source 920 mentioned in the Twitter, each source mentioned in the blog, each source mentioned on Facebook, and the like may be provided. At this time, if the respective source information is selected, the corresponding scene may be directly connected to corresponding posts such as the referred news, blog, twitter, facebook, and the like.

이와 같이 본 발명의 실시예에 따라, 특정 출처(뉴스, 블로그, 카페, SNS 등)별로 화제가 되었던 장면을 분류하고 확산이나 선호도 정도(RT, 댓글, 좋아요 등)를 소셜 분석하여, 해당 출처별 인기 장면 랭킹을 제공하거나. 또는 도 8에서와 같이 검색 결과의 랭킹을 위한 메타 정보로 활용할 수 있다.As described above, according to the embodiment of the present invention, scenes that have become topics by a specific source (news, blog, cafe, SNS, etc.) are classified and social analysis of spread or preference degree (RT, comment, Provide popular scene ranking or. Or as meta information for rankings of search results as shown in FIG.

한편, 본 발명의 또 다른 구현 예로서, 도 10에 도시된 바와 같이 특정 동영상에 대해 화제의 장면을 목록화하여 제공할 수도 있다. 즉, 해당 화제성 정보를 동영상에 태깅하여, 동영상 다시 보기 서비스 등에서 <인기 장면> 또는 <화제의 장면> 등과 같이 동영상 내 이미지 기반으로 미리 분석하여 서비스를 제공할 수도 있다.Meanwhile, as another embodiment of the present invention, scenes of a topic may be listed and provided for a specific moving picture as shown in FIG. That is, the topic information may be tagged in a moving picture, and the service may be provided by analyzing the moving picture based on the moving picture such as the <popular scene> or the <topic scene>.

예컨대, 도 10을 참조하면, 특정 동영상의 다시 보기 서비스를 선택하면, 도시된 바와 같이 상단에 동영상 재생 플레이어(1000)가 디스플레이되고, 하단에는 본 발명의 실시예에 따라 화제의 장면 랭킹(1010)을 제공할 수 있다. 즉, 상술한 바와 같이 산출된 동영상 내의 각 장면에 대한 랭킹을 미리 설정된 방법에 따라 산출하고, 가장 랭킹이 높은 장면의 순으로 표시할 수 있다. 이때, 각 순위별 장면 정보와 함께 해당 장면에 대한 각 출처별 통계 및 포스팅한 리스트를 제공할 수 있다. 따라서, 해당 장면에 대한 정보에서 동영상 플레이 표시(1020)를 선택하면 상단의 동영상 재생 플레이어(100)에서 해당 장면으로 점프하여 재생되도록 구현할 수 있다. 또한, 장면 링크(1030)에서 특정 장면의 특정 출처를 선택하면 도 9에 도시된 바와 같이 해당 출처에서 해당 장면의 캡쳐를 포함한 포스트의 리스트 및 링크를 제공할 수 있다. 예컨대, 3위에 랭크된 화면의 트위터(1040)를 선택하면, 트위터에서 해당 장면이 포스팅된 리스트 및 링크를 제공할 수 있다.For example, referring to FIG. 10, when the user selects a specific video replay service, the video replay player 1000 is displayed at the top and the scene ranking 1010 of the topic is displayed at the bottom, Can be provided. That is, the rankings for each scene in the moving image calculated as described above can be calculated according to a predetermined method, and the scene having the highest ranking can be displayed in that order. At this time, it is possible to provide the scene-specific scene information and the statistics for each scene and the posted list of the scene. Therefore, if the user selects the video play display 1020 in the information about the scene, the user can jump to the corresponding scene in the top moving image reproduction player 100 and reproduce the selected scene. In addition, if a specific source of a specific scene is selected from the scene link 1030, a list of posts and a link including capture of the scene at the source can be provided as shown in FIG. For example, if the twitter 1040 of the screen ranked in the third rank is selected, the twitter can provide a list and a link to which the corresponding scene is posted.

또한, 본 발명의 다른 구현 예로서 자신의 지인이 캡쳐하여 포스팅한 캡쳐 이미지에 대한 동영상을 제공하거나 기타 가공된 관련 정보들을 제공할 수 있다. 예컨대, 특정 사용자의 지인 관계나 콘텐츠 구독 상태를 분석하여, SNS 내에서의 지인이 포스팅한 장면이나 내가 구독하는 뉴스 서비스에서 언급된 장면 및 해당 장면과 관련된 콘텐츠의 링크를 제공할 수 있다. 아울러, 또한, 콘텐츠 링크의 긍정 또는 부정 등의 평가 정보를 수집하고 이를 분석하여, 해당 장면의 반응을 분석하여 제공하는 것도 가능하다.Also, as another embodiment of the present invention, it is possible to provide a moving image of a captured image captured by the acquaintance of the acquaintance, or to provide other processed related information. For example, the user can analyze a relationship of a specific user or a content subscription status to provide a scene posted by an acquaintance in the SNS, a scene mentioned in a news service to which the subscriber subscribes, and a link of a content related to the scene. In addition, it is also possible to collect evaluation information such as positive or negative of the content link, analyze the information, and analyze and provide the response of the corresponding scene.

여기에서 다양한 방법들에 관해 설명된 바와 같은 다양한 동작들 및 기능들은 특정 프로세싱 기능부 및/또는 그 안에 구현된 프로세싱 기능부, 및/또는 그 안의 다른 구성요소들과 같은 많은 유형의 기능부들 중 어느 것 내에서 수행될 수 있다. 예를 들면, 그러한 기능부들은 여기에 설명된 바와 같은 다양한 동작들 및 처리들, 또는 여기에 설명된 바와 같은 어느 다른 동작들 및 기능들, 등 또는 그 각 등가물들을 수행하는 것뿐만 아니라 여기에 설명된 바와 같은 그러한 정보들을 생성하고 그러한 동작들, 처리들 등을 수행할 수 있다.The various operations and functions as described herein with respect to the various methods may be performed by any of a number of types of functions, such as a particular processing function and / or a processing function implemented therein, and / &Lt; / RTI &gt; For example, such functions may be described herein, as well as performing various operations and processes as described herein, or any other operations and functions as described herein, etc., or the like, And may perform such operations, processes, and the like.

일부 실시예들에서, 그러한 기능부들(동일한 장치 또는 구별된 장치들상에서 구현될 수 있는)은 본 발명의 다양한 측면들에 따른 그러한 처리 및 동작들, 등, 및/또는 여기에 개시된 바와 같은 어느 다른 동작들 및 기능들, 및 그 각 등가물들을 수행할 수 있다. 일부 실시예들에서, 그러한 처리는 제1 장치에서의 제1 기능부, 및 제2 장치 내의 제2 기능부에 의해 함께 수행된다. 다른 실시예들에서, 그러한 프로세싱, 동작들 등은 하나의 특정 장치 내에서 처리부들에 의해 전적으로 수행된다. 심지어 다른 실시예들에서는, 그러한 프로세싱, 동작들이 하나의 단일 디바이스내에서 적어도 제1 기능부 및 제2 기능부를 사용하여 수행된다.In some embodiments, such functions (which may be implemented on the same device or on distinct devices) may be implemented in such a manner and in accordance with various aspects of the present invention, etc., and / Operations and functions, and their equivalents. In some embodiments, such processing is performed together by the first functional portion in the first device and the second functional portion in the second device. In other embodiments, such processing, operations, etc. are performed entirely by the processing units within one particular apparatus. Even in other embodiments, such processing and operations are performed using at least a first functional portion and a second functional portion within a single device.

또한 상술한 설명에서, 용어들 '시스템', '장치', '~부'는 단일 프로세싱 디바이스 또는 복수의 프로세싱 디바이스들일 수 있다. 그러한 프로세싱 디바이스는 마이크로 프로세서, 마이크로 컨트롤러, 디지털 신호 처리기, 마이크로 컴퓨터, 중앙 처리 유닛, 필드 프로그래머블 게이트 어레이, 프로그래머블 로직 디바이스, 스테이트 머신, 로직 회로, 아날로그 회로, 디지털 회로, 및/또는 상기 회로 및/또는 동작 지시들의 하드 코딩에 기반하여 신호들(아날로그 및/또는 디지털)을 조작하는 소정의 디바이스일 수 있다. 상기 프로세싱 모듈, 모듈, 프로세싱 회로, 및/또는 프로세싱 유닛은 단일 메모리 디바이스, 복수의 메모리 디바이스들, 및/또는 상기 프로세싱 모듈, 모듈, 프로세싱 회로, 및/또는 프로세싱 유닛의 내장된 회로일 수 있는 결합된 메모리 및/또는 집적된 메모리 엘리먼트를 가질 수 있다. 그러한, 메모리 디바이스는 읽기 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 휘발성 메모리, 비휘발성 메모리, 정적 메모리, 동적 메모리, 플래시 메모리, 캐시 메모리, 및/또는 디지털 정보를 저장하는 소정의 디바이스일 수 있다. 만약, 상기 프로세싱 모듈, 모듈, 프로세싱 회로, 및/또는 프로세싱 유닛이 하나 이상의 프로세싱 디바이스를 포함한다면, 상기 프로세싱 디바이스들은 집중적으로 위치될 수 있거나(즉, 유선 및/또는 무선 버스 구조를 통해 함께 직접적으로 연결된), 분산되어 위치될 수 있음(예컨대, 근거리 통신망 및/또는 광역 네트워크를 통한 간접적인 연결을 통한 클라우드 컴퓨팅)을 주목하여야 한다. 만약, 상기 프로세싱 모듈, 모듈, 프로세싱 회로, 및/또는 프로세싱 유닛이 정적 머신, 아날로그 회로, 디지털 회로, 및/또는 회로, 저장하는 메모리 및/또는 메모리 구성요소를 통해 하나 이상의 그 기능들을 구현한다면, 그 대응하는 동작 지시들은 상기 정적 머신, 아날로그 회로, 디지털 회로, 및/또는 논리 회로를 포함하는 회로의 내부에 내장되거나 외부에 있을 수 있음을 더 주목하여야 한다. 상기 메모리 엘리먼트는 저장할 수 있으며, 상기 프로세싱 모듈, 모듈, 프로세싱 회로, 및/또는 프로세싱 유닛은 상기 도면들 중 하나 이상에서 나타내는 단계들 및/또는 기능들 중 적어도 일부에 대응하는 하드 코딩된 및/또는 동작 지시들을 실행한다는 것을 여전히 더 주목하여야 한다. 그러한 메모리 디바이스 또는 메모리 엘리먼트는 제조의 부품 내에서 포함될 수 있다.Also, in the foregoing description, the terms &quot; system, &quot; &quot; device, &quot; and &quot; section &quot; may be a single processing device or a plurality of processing devices. Such a processing device may be a microprocessor, a microcontroller, a digital signal processor, a microcomputer, a central processing unit, a field programmable gate array, a programmable logic device, a state machine, a logic circuit, an analog circuit, a digital circuit, and / (Analog and / or digital) based on hard coding of operational instructions. The processing module, module, processing circuit, and / or processing unit may be implemented as a single memory device, a plurality of memory devices, and / or a combination of the processing modules, the processing circuitry, and / Lt; / RTI &gt; memory and / or an integrated memory element. Such a memory device may be any device that stores read only memory (ROM), random access memory (RAM), volatile memory, non-volatile memory, static memory, dynamic memory, flash memory, cache memory, and / . If the processing module, the module, the processing circuit, and / or the processing unit include one or more processing devices, the processing devices may be centrally located (i.e., directly or indirectly via a wired and / Connected), distributed (e.g., cloud computing via an indirect connection over a local and / or wide area network). If the processing module, module, processing circuit, and / or processing unit implements one or more of those functions through a static machine, analog circuitry, digital circuitry, and / or circuitry, memory and / It should further be noted that the corresponding operating instructions may be internal or external to the circuit including the static machine, analog circuitry, digital circuitry, and / or logic circuitry. The memory element may be stored and the processing module, module, processing circuitry, and / or processing unit may be configured to store a hard-coded and / or hard-coded data item corresponding to at least a portion of the steps and / or functions depicted in one or more of the figures It should be further noted that it carries out operational instructions. Such a memory device or memory element may be included within the components of the manufacture.

본 발명은 특정 기능들 및 그의 관계들의 성능을 나타내는 방법 단계들의 목적을 가지고 위에서 설명되었다. 이러한 기능적 구성 요소들 및 방법 단계들의 경계들 및 순서는 설명의 편의를 위해 여기에서 임의로 정의되었다. 상기 특정 기능들 및 관계들이 적절히 수행되는 한 대안적인 경계들 및 순서들이 정의될 수 있다. 임의의 그러한 대안적인 경계들 및 순서들은 그러므로 상기 청구된 발명의 범위 및 사상 내에 있다. 추가로, 이러한 기능적 구성 요소들의 경계들은 설명의 편의를 위해 임의로 정의되었다. 어떠한 중요한 기능들이 적절히 수행되는 한 대안적인 경계들이 정의될 수 있다. 마찬가지로, 흐름도 블록들은 또한 어떠한 중요한 기능성을 나타내기 위해 여기에서 임의로 정의되었을 수 있다. 확장된 사용을 위해, 상기 흐름도 블록 경계들 및 순서는 정의되었을 수 있으며 여전히 어떠한 중요한 기능을 수행한다. 기능적 구성 요소들 및 흐름도 블록들 및 순서들 둘 다의 대안적인 정의들은 그러므로 청구된 본 발명의 범위 및 사상 내에 있다. 당업자는 또한 여기에서의 상기 기능적 구성 요소들 및 다른 도시된 블록들, 모듈들, 및 구성요소들이 도시된 바와 같이 또는 분리된 구성요소들, 반도체 집적 회로(ASIC)들, 적절한 소프트웨어를 실행하는 프로세서들 및 그와 유사한 또는 임의의 조합에 의해 구현될 수 있음을 인지할 것이다.The invention has been described above with the aim of method steps illustrating the performance of certain functions and their relationships. The boundaries and order of these functional components and method steps have been arbitrarily defined herein for convenience of description. Alternative boundaries and sequences may be defined as long as the specific functions and relationships are properly performed. Any such alternative boundaries and sequences are therefore within the scope and spirit of the claimed invention. In addition, the boundaries of these functional components have been arbitrarily defined for ease of illustration. Alternative boundaries can be defined as long as certain important functions are properly performed. Likewise, the flow diagram blocks may also be arbitrarily defined herein to represent any significant functionality. For extended use, the flowchart block boundaries and order may have been defined and still perform some important function. Alternative definitions of both functional components and flowchart blocks and sequences are therefore within the scope and spirit of the claimed invention. Those skilled in the art will also appreciate that the functional components and other illustrated blocks, modules, and components herein may be implemented as illustrated or as separate components, such as semiconductor integrated circuits (ASICs) And the like, or any combination thereof.

본 발명은 또한 하나 이상의 실시예들의 용어로, 적어도 부분적으로 설명되었을 수 있다. 본 발명의 실시예는 본 발명, 그 측면, 그 특징, 그 개념, 및/또는 그 예를 나타내기 위해 여기에서 사용된다. 본 발명을 구현하는 장치, 제조의 물건, 머신, 및/또는 프로세스의 물리적인 실시예는 여기에 설명된 하나 이상의 실시예들을 참조하여 설명된 하나 이상의 측면들, 특징들, 개념들, 예들 등을 포함할 수 있다. 더구나, 전체 도면에서, 실시예들은 상기 동일한 또는 상이한 참조 번호들을 사용할 수 있는 상기 동일하게 또는 유사하게 명명된 기능들, 단계들, 모듈들 등을 통합할 수 있으며, 그와 같이, 상기 기능들, 단계들, 모듈들 등은 상기 동일한 또는 유사한 기능들, 단계들, 모듈들 등 또는 다른 것들일 수 있다.The invention may also be described, at least in part, in the language of one or more embodiments. Embodiments of the invention are used herein to describe the invention, aspects thereof, features thereof, concepts thereof, and / or examples thereof. The physical embodiment of an apparatus, article of manufacture, machine, and / or process for implementing the invention may include one or more aspects, features, concepts, examples, etc., described with reference to one or more embodiments described herein . Moreover, in the entire drawings, embodiments may incorporate the same or similarly named functions, steps, modules, etc. that may use the same or different reference numerals, and so forth, Steps, modules, etc., may be the same or similar functions, steps, modules, etc., or the like.

한편, 용어 "~처리부"는 본 발명의 다양한 실시예들의 설명에서 사용된다. 모듈은 하나 이상의 출력 신호들을 생성하기 위해 하나 이상의 입력 신호들의 처리와 같은 하나 이상의 기능들을 수행하기 위해 하드웨어를 통해 구현되는 기능적 블록을 포함한다. 상기 기능적 블록을 구현하는 하드웨어는 소프트웨어 및/또는 펌웨어를 결합하여 직접 동작할 수 있다. 여기에서 사용된 바와 같이, 모듈은 자체적으로 모듈인 하나 이상의 서브-모듈들을 포함할 수 있다.In the meantime, the term " processing unit "is used in the description of various embodiments of the present invention. A module includes a functional block implemented via hardware to perform one or more functions, such as processing one or more input signals to produce one or more output signals. The hardware implementing the functional block may operate directly by combining software and / or firmware. As used herein, a module may include one or more sub-modules that are themselves modules.

본 발명의 여러가지 기능들 및 특정들의 특별한 조합들이 여기에 분명히 설명된 반면, 이러한 특징들 및 기능들의 다른 조합들이 마찬가지로 가능하다. 본 발명은 여기에 개시된 특정한 예들에 제한되지 않으며, 이러한 다른 조합들을 명백히 통합한다.While various combinations of features and specific combinations of features of the present invention are explicitly described herein, other combinations of these features and functions are likewise possible. The present invention is not limited to the specific examples disclosed herein, and explicitly incorporates these different combinations.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described with reference to particular embodiments, such as specific elements, and specific embodiments and drawings. However, it should be understood that the present invention is not limited to the above- And various modifications and changes may be made thereto by those skilled in the art to which the present invention pertains.

따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be construed as being limited to the embodiments described, and all of the equivalents or equivalents of the claims, as well as the following claims, belong to the scope of the present invention .

210 : 비디오 프레임 추출부 220 : 대표 프레임 추출부
230 : 추출 프레임 수치화부 240 : 이미지 정보 수집부
250 : 이미지 수치화부 260 : 이미지 비교 검색부
270 : 검색 결과 처리부 280 : 분석 결과 가공부
291 : 동영상 콘텐츠 데이터베이스
292 : 프레임 특징 정보 데이터베이스
293 : 이미지 특징 정보 데이터베이스
294 : 이미지 관련 정보 데이터베이스
295 : 이미지 분석 정보 데이터베이스
210: video frame extracting unit 220: representative frame extracting unit
230: extraction frame quantification unit 240: image information collection unit
250: Image quantization unit 260: Image comparison search unit
270: search result processing unit 280: analysis result processing unit
291: Video content database
292: Frame characteristic information database
293: Image feature information database
294: Image related information database
295: Image analysis information database

Claims (23)

복수의 프레임들로 구성된 동영상으로부터 적어도 하나의 프레임을 추출하는 비디오 프레임 추출부;
상기 비디오 프레임 추출부를 통해 추출된 각 프레임의 특징을 수치화하는 추출 프레임 수치화부;
적어도 하나의 수집된 검색 대상 이미지의 특징을 수치화하는 이미지 수치화부;
수치화한 값들에 의해 상기 검색 대상 이미지를 상기 복수의 프레임들로부터 추출된 적어도 하나의 프레임과 비교하는 이미지 비교 검색부; 및
상기 비교 결과, 상기 검색 대상 이미지와 일치하는 프레임이 존재할 경우, 상기 일치하는 프레임에 상기 수집된 검색 대상 이미지의 관련 정보를 매핑하여 데이터베이스에 저장하는 검색 결과 처리부를 포함하는, 동영상 캡쳐 화면의 분석 장치.
A video frame extracting unit for extracting at least one frame from a moving picture composed of a plurality of frames;
An extraction frame quantization unit for quantizing characteristics of each frame extracted through the video frame extraction unit;
An image quantization unit for quantifying a characteristic of at least one collected object image to be searched;
An image comparison search unit for comparing the search target image with at least one frame extracted from the plurality of frames by numerical values; And
And a search result processing unit for mapping the related information of the acquired search target image to the matching frame and storing the same in a database when there is a frame matching the search target image as a result of the comparison, .
청구항 1에 있어서, 상기 장치는,
상기 비디오 프레임 추출부를 통해 추출된 복수의 연속된 프레임들 중에서 복수의 프레임들 간의 이미지 차이가 미리 설정된 일정 범위 이내에 해당할 경우, 상기 복수의 프레임들 중 선택된 하나의 프레임을 대표 프레임으로 결정하는 대표 프레임 추출부를 더 포함하고,
상기 추출 프레임 수치화부는 상기 대표 프레임 추출부를 통해 결정된 대표 프레임에 대해 수치화하여 데이터베이스에 저장하는, 동영상 캡쳐 화면의 분석 장치.
The apparatus of claim 1,
When a difference in image between a plurality of frames among a plurality of consecutive frames extracted through the video frame extracting unit falls within a preset predetermined range, a representative frame, which determines a selected one of the plurality of frames as a representative frame, Further comprising an extracting section,
Wherein the extraction frame quantization unit digitizes the representative frame determined through the representative frame extraction unit and stores the numerical value in a database.
청구항 2에 있어서, 상기 대표 프레임 추출부는,
상기 복수의 프레임들에 대해 프레임간 그레이 히스토그램의 차이값이 일정값 이하일 경우, 상기 복수의 프레임들 중 선택된 하나의 프레임을 대표 프레임으로 결정하는, 동영상 캡쳐 화면의 분석 장치.
The apparatus of claim 2,
And determines a selected one of the plurality of frames as a representative frame when the difference value of the inter-frame gray histogram for the plurality of frames is less than a predetermined value.
청구항 2에 있어서, 상기 대표 프레임 추출부는,
미리 설정된 시간마다 적어도 하나의 프레임을 대표 프레임으로 결정하는, 동영상 캡쳐 화면의 분석 장치.
The apparatus of claim 2,
And determines at least one frame as a representative frame every preset time.
청구항 1에 있어서, 상기 추출 프레임 수치화부는,
각 프레임의 불변점을 수치화한 후, 미리 정의한 클러스터(cluster)값으로 변환시킨 비쥬얼 단어의 빈도수로 나타내는, 동영상 캡쳐 화면의 분석 장치.
The image processing apparatus according to claim 1,
Wherein an invariant point of each frame is digitized and then expressed as a frequency of a visual word converted into a cluster value defined in advance.
청구항 1에 있어서, 상기 이미지 수치화부는,
각 이미지의 불변점을 수치화한 후, 미리 정의한 클러스터(cluster)값으로 변환시킨 비쥬얼 단어의 빈도수로 나타내는, 동영상 캡쳐 화면의 분석 장치.
The image processing apparatus according to claim 1,
Wherein the invariant points of each image are digitized and then expressed as frequency numbers of visual words converted into cluster values that are defined in advance.
청구항 5 또는 청구항 6에 있어서, 상기 이미지 비교 검색부는,
상기 각 프레임의 비쥬얼 단어와 상기 각 이미지의 비쥬얼 단어를 비교하여 동일한 비쥬얼 단어가 미리 설정된 개수 이상이거나 가장 많을 경우 해당 프레임과 이미지가 일치하는 것으로 결정하는, 동영상 캡쳐 화면의 분석 장치.
The image search apparatus according to claim 5 or 6,
And comparing the visual word of each frame with the visual word of each of the images to determine that the corresponding image matches the predetermined number of visual words if the number of visual words is equal to or greater than a predetermined number.
청구항 1에 있어서, 상기 검색 대상 이미지의 관련 정보는,
상기 수집된 이미지가 포스팅된 출처, 상기 이미지의 소셜 네트워크 서비스 상의 리트릿 수, 댓글 수, 추천 수 및 평가 정보 중에서 선택된 어느 하나 이상인, 동영상 캡쳐 화면의 분석 장치.
The image processing apparatus according to claim 1,
The number of comments, the number of comments, and the evaluation information on the social network service of the image, the source from which the collected image is posted, and the rating information on the social network service of the image.
청구항 1에 있어서, 상기 장치는,
상기 검색 결과 처리부에 의해 저장된 검색 결과로부터 특정 동영상에 대한 각 프레임에 대한 통계값을 자동으로 산출하여 분석 결과를 생성하는 결과 분석 처리부를 더 포함하는, 동영상 캡쳐 화면의 분석 장치.
The apparatus of claim 1,
And a result analysis processing unit for automatically calculating a statistical value for each frame of a specific moving image from the search result stored by the search result processing unit and generating an analysis result.
청구항 9에 있어서, 상기 결과 분석 처리부는,
결과 분석 요청에 따라 특정 동영상의 각 프레임에 대해 동영상 내의 해당 이미지를 참조한 뉴스, 블로그, SNS 사이트에서의 인용 횟수 및 해당 링크 정보 중에서 선택된 어느 하나를 제공하는, 동영상 캡쳐 화면의 분석 장치.
The system according to claim 9,
And provides the user with any one selected from the news, the blog, the number of citations in the SNS site, and the corresponding link information for each frame of the specific video according to the result analysis request.
청구항 9에 있어서, 상기 결과 분석 처리부는,
결과 분석 요청에 따라 특정 동영상의 각 프레임에 대해 동영상 내의 해당 이미지를 참조한 뉴스, 블로그, SNS 사이트에서의 인용 횟수로부터 각 프레임의 랭킹을 산출하여 제공하는, 동영상 캡쳐 화면의 분석 장치.
The system according to claim 9,
Wherein ranking of each frame is calculated from the number of citations in news, blog, and SNS site referring to the corresponding image in the video for each frame of the specific video according to the result analysis request.
복수의 프레임들로 구성된 동영상으로부터 적어도 하나의 프레임을 추출하는 단계;
상기 추출된 프레임의 특징을 수치화하는 단계;
적어도 하나의 수집된 검색 대상 이미지의 특징을 수치화하는 단계;
수치화한 값들에 의해 상기 검색 대상 이미지를 상기 복수의 프레임들로부터 추출된 적어도 하나의 프레임과 비교하는 단계; 및
상기 비교 결과, 상기 검색 대상 이미지와 일치하는 프레임이 존재할 경우, 상기 일치하는 프레임에 상기 수집된 검색 대상 이미지의 관련 정보를 매핑하여 데이터베이스에 저장하는 단계를 포함하는 동영상 캡쳐 화면의 분석 방법.
Extracting at least one frame from a moving picture composed of a plurality of frames;
Digitizing a feature of the extracted frame;
Quantifying characteristics of at least one collected retrieval object image;
Comparing the search target image with at least one frame extracted from the plurality of frames by numerical values; And
And mapping the related information of the acquired search target image to the matching frame and storing the same in a database when there is a frame matching the search target image as a result of the comparison.
청구항 12에 있어서, 상기 프레임을 추출하는 단계 이후에,
상기 추출된 복수의 연속된 프레임들 중에서 복수의 프레임들 간의 이미지 차이가 미리 설정된 일정 범위 이내에 해당할 경우, 상기 복수의 프레임들 중 선택된 하나의 프레임을 대표 프레임으로 결정하는 단계를 더 포함하고,
상기 추출된 프레임의 특징을 수치화하는 단계는 상기 결정된 대표 프레임에 대해 수치화하는, 동영상 캡쳐 화면의 분석 방법.
13. The method of claim 12, wherein after extracting the frame,
Further comprising the step of determining a selected one of the plurality of frames as a representative frame when an image difference between a plurality of frames among the extracted plurality of consecutive frames falls within a preset predetermined range,
Wherein the step of digitizing the feature of the extracted frame is a step of digitizing the determined representative frame.
청구항 13에 있어서, 상기 대표 프레임으로 결정하는 단계는,
상기 복수의 프레임들에 대해 프레임간 그레이 히스토그램의 차이값이 일정값 이하일 경우, 상기 복수의 프레임들 중 선택된 하나의 프레임을 대표 프레임으로 결정하는, 동영상 캡쳐 화면의 분석 방법.
14. The method of claim 13,
And determining a selected one of the plurality of frames as a representative frame when the difference value of the inter-frame gray histogram for the plurality of frames is less than a predetermined value.
청구항 13에 있어서, 상기 대표 프레임으로 결정하는 단계는,
미리 설정된 시간마다 적어도 하나의 프레임을 대표 프레임으로 결정하는, 동영상 캡쳐 화면의 분석 방법.
14. The method of claim 13,
And determining at least one frame as a representative frame every preset time.
청구항 12에 있어서, 상기 추출된 프레임의 특징을 수치화하는 단계는,
각 프레임의 불변점을 수치화한 후, 미리 정의한 클러스터(cluster)값으로 변환시킨 비쥬얼 단어의 빈도수로 나타내는, 동영상 캡쳐 화면의 분석 방법.
The method of claim 12, wherein the step of quantizing the feature of the extracted frame comprises:
Wherein an invariant point of each frame is digitized and then expressed as a frequency of a visual word converted into a predefined cluster value.
청구항 12에 있어서, 상기 검색 대상 이미지의 특징을 수치화하는 단계는,
각 이미지의 불변점을 수치화한 후, 미리 정의한 클러스터(cluster)값으로 변환시킨 비쥬얼 단어의 빈도수로 나타내는, 동영상 캡쳐 화면의 분석 방법.
The method according to claim 12, wherein the step of digitizing the feature of the search target image comprises:
Wherein an invariant point of each image is digitized and then expressed as a frequency of a visual word converted into a predefined cluster value.
청구항 16 또는 청구항 17에 있어서, 상기 비교하는 단계는,
상기 각 프레임의 비쥬얼 단어와 상기 각 이미지의 비쥬얼 단어를 비교하여 동일한 비쥬얼 단어가 미리 설정된 개수 이상이거나 가장 많을 경우 해당 프레임과 이미지가 일치하는 것으로 결정하는, 동영상 캡쳐 화면의 분석 방법.
The method of claim 16 or claim 17,
And comparing the visual word of each frame with the visual word of each of the images to determine that the corresponding image matches the predetermined number of visual words or the largest number of identical visual words.
청구항 12에 있어서, 상기 검색 대상 이미지의 관련 정보는,
상기 수집된 이미지가 포스팅된 출처, 상기 이미지의 소셜 네트워크 서비스 상의 리트릿 수, 댓글 수, 추천 수 및 평가 정보 중에서 선택된 어느 하나 이상인, 동영상 캡쳐 화면의 분석 방법.
13. The image search method according to claim 12,
The number of comments, the number of referrals, and the evaluation information on the social network service of the image, the source from which the collected image is posted, and the rating information on the social network service of the image.
청구항 12에 있어서, 상기 데이터베이스에 저장하는 단계 이후에,
상기 저장된 검색 결과로부터 특정 동영상에 대한 각 프레임에 대한 통계값을 자동으로 산출하여 분석 결과를 생성하는 단계를 더 포함하는, 동영상 캡쳐 화면의 분석 방법.
13. The method of claim 12, further comprising: after storing in the database,
And automatically generating a statistical value for each frame of a specific moving image from the stored search result to generate an analysis result.
청구항 20에 있어서, 상기 분석 결과를 생성하는 단계는,
결과 분석 요청에 따라 특정 동영상의 각 프레임에 대해 동영상 내의 해당 이미지를 참조한 뉴스, 블로그, SNS 사이트에서의 인용 횟수 및 해당 링크 정보 중에서 선택된 어느 하나를 제공하는, 동영상 캡쳐 화면의 분석 방법.
21. The method of claim 20, wherein generating the analysis results comprises:
Wherein the content providing unit provides any one selected from news, a blog, a number of citations in an SNS site, and corresponding link information for each frame of a specific video according to a result analysis request.
청구항 20에 있어서, 상기 분석 결과를 생성하는 단계는,
결과 분석 요청에 따라 특정 동영상의 각 프레임에 대해 동영상 내의 해당 이미지를 참조한 뉴스, 블로그, SNS 사이트에서의 인용 횟수로부터 각 프레임의 랭킹을 산출하여 제공하는, 동영상 캡쳐 화면의 분석 방법.
21. The method of claim 20, wherein generating the analysis results comprises:
Wherein ranking of each frame is calculated and provided from the number of citations in the news, blog, and SNS site referring to the image in the video for each frame of the specific video according to the result analysis request.
청구항 12 내지 17 및 청구항 19 내지 22 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터 판독 가능한 기록 매체.A program for executing the method according to any one of claims 12 to 17 and claims 19 to 22 is recorded.
KR1020120089860A 2012-08-17 2012-08-17 Apparatus, method and computer readable recording medium for analyzing a video using the image captured from the video KR101541495B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020120089860A KR101541495B1 (en) 2012-08-17 2012-08-17 Apparatus, method and computer readable recording medium for analyzing a video using the image captured from the video
JP2013145141A JP6280323B2 (en) 2012-08-17 2013-07-11 Moving picture analysis apparatus, method, and computer-readable recording medium using captured image
US13/940,984 US9305215B2 (en) 2012-08-17 2013-07-12 Apparatus, method and computer readable recording medium for analyzing video using image captured from video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120089860A KR101541495B1 (en) 2012-08-17 2012-08-17 Apparatus, method and computer readable recording medium for analyzing a video using the image captured from the video

Publications (2)

Publication Number Publication Date
KR20140023660A KR20140023660A (en) 2014-02-27
KR101541495B1 true KR101541495B1 (en) 2015-08-05

Family

ID=50100077

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120089860A KR101541495B1 (en) 2012-08-17 2012-08-17 Apparatus, method and computer readable recording medium for analyzing a video using the image captured from the video

Country Status (3)

Country Link
US (1) US9305215B2 (en)
JP (1) JP6280323B2 (en)
KR (1) KR101541495B1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10394882B2 (en) * 2014-02-19 2019-08-27 International Business Machines Corporation Multi-image input and sequenced output based image search
KR102340196B1 (en) 2014-10-16 2021-12-16 삼성전자주식회사 Video processing apparatus and method of operations thereof
CN107122773A (en) * 2017-07-05 2017-09-01 司马大大(北京)智能系统有限公司 A kind of video commercial detection method, device and equipment
CN108647245B (en) * 2018-04-13 2023-04-18 腾讯科技(深圳)有限公司 Multimedia resource matching method and device, storage medium and electronic device
KR102129691B1 (en) * 2019-01-16 2020-07-02 인제대학교 산학협력단 Method and system for moving ficture service based on image
CN112488153B (en) * 2020-11-06 2022-07-05 中国人民解放军国防科技大学 Autonomous searching and positioning method for odor sources based on clustering tendency principle
CN113139084B (en) * 2021-05-14 2024-07-19 北京爱奇艺科技有限公司 Video de-duplication method and device
KR102685895B1 (en) * 2023-11-28 2024-07-17 주식회사 캡쳐 Access security system using real-time user image tracking

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6751776B1 (en) * 1999-08-06 2004-06-15 Nec Corporation Method and apparatus for personalized multimedia summarization based upon user specified theme
US6760042B2 (en) * 2000-09-15 2004-07-06 International Business Machines Corporation System and method of processing MPEG streams for storyboard and rights metadata insertion
US7016532B2 (en) * 2000-11-06 2006-03-21 Evryx Technologies Image capture and identification system and process
JP2004287646A (en) * 2003-03-20 2004-10-14 Nri & Ncc Co Ltd Meta content information generation system
US7590309B1 (en) * 2004-10-26 2009-09-15 Advanced Micro Devices, Inc. Image processing in integrated circuit technology development
JP2006211311A (en) * 2005-01-28 2006-08-10 Victor Co Of Japan Ltd Digested video image forming device
US8196045B2 (en) * 2006-10-05 2012-06-05 Blinkx Uk Limited Various methods and apparatus for moving thumbnails with metadata
JP2008217701A (en) * 2007-03-07 2008-09-18 Sharp Corp Metadata providing device, metadata providing method, metadata providing program, and recording medium recording metadata providing program
JP2008278088A (en) * 2007-04-27 2008-11-13 Hitachi Ltd Comment control device about moving image content
WO2009016833A1 (en) * 2007-07-31 2009-02-05 Panasonic Corporation Video analysis apparatus and method for calculating inter-person evaluation value using video analysis
US8605221B2 (en) * 2010-05-25 2013-12-10 Intellectual Ventures Fund 83 Llc Determining key video snippets using selection criteria to form a video summary
JP5014479B2 (en) * 2010-10-05 2012-08-29 ヤフー株式会社 Image search apparatus, image search method and program
KR101711218B1 (en) * 2010-11-23 2017-03-13 엘지전자 주식회사 System, method and apparatus of providing/receiving service of plurality of content providers and client
KR101969930B1 (en) * 2011-01-07 2019-04-18 삼성전자주식회사 Method and apparatus for gathering content
US10971191B2 (en) * 2012-12-12 2021-04-06 Smule, Inc. Coordinated audiovisual montage from selected crowd-sourced content with alignment to audio baseline

Also Published As

Publication number Publication date
JP6280323B2 (en) 2018-02-14
KR20140023660A (en) 2014-02-27
JP2014038602A (en) 2014-02-27
US20140050400A1 (en) 2014-02-20
US9305215B2 (en) 2016-04-05

Similar Documents

Publication Publication Date Title
KR101541495B1 (en) Apparatus, method and computer readable recording medium for analyzing a video using the image captured from the video
US10321173B2 (en) Determining user engagement with media content based on separate device usage
US10650861B2 (en) Video summarization and collaboration systems and methods
CN103686231B (en) Method and system for integrated management, failure replacement and continuous playing of film
US8995823B2 (en) Method and system for content relevance score determination
WO2017096877A1 (en) Recommendation method and device
CN105210048B (en) Content identification method based on social media
US9913001B2 (en) System and method for generating segmented content based on related data ranking
US20150331856A1 (en) Time-based content aggregator
CN103577593B (en) A kind of video aggregation method and system based on microblog hot topic
US20220107978A1 (en) Method for recommending video content
WO2018113673A1 (en) Method and apparatus for pushing search result of variety show query
US11720628B2 (en) Playlist analytics
KR20140092352A (en) Content evaluation/playback device
TW202201969A (en) Apparatus and method for filtering harmful video file
JP5880558B2 (en) Video processing system, viewer preference determination method, video processing apparatus, control method thereof, and control program
CN112804566A (en) Program recommendation method, device and computer readable storage medium
CN109756759B (en) Bullet screen information recommendation method and device
CN106454398A (en) Video processing method and terminal
US20160294907A1 (en) Systems and methods for managing media content playback using social media data
CN113938712B (en) Video playing method and device and electronic equipment
CN114417890B (en) Comment content reply method and device, electronic equipment and storage medium
Wang et al. A Web Replay Method for Highlights in Soccer Videos
KR20100117814A (en) System and method for searching a mulitmedia data using capability of user terminal
Vieira et al. Automatic rally detection on broadcast tennis videos

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20190701

Year of fee payment: 5