KR101916874B1 - Apparatus, method for auto generating a title of video contents, and computer readable recording medium - Google Patents

Apparatus, method for auto generating a title of video contents, and computer readable recording medium Download PDF

Info

Publication number
KR101916874B1
KR101916874B1 KR1020170135538A KR20170135538A KR101916874B1 KR 101916874 B1 KR101916874 B1 KR 101916874B1 KR 1020170135538 A KR1020170135538 A KR 1020170135538A KR 20170135538 A KR20170135538 A KR 20170135538A KR 101916874 B1 KR101916874 B1 KR 101916874B1
Authority
KR
South Korea
Prior art keywords
title
highlight
moving picture
chat message
user terminal
Prior art date
Application number
KR1020170135538A
Other languages
Korean (ko)
Inventor
이영석
남현규
Original Assignee
충남대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충남대학교산학협력단 filed Critical 충남대학교산학협력단
Priority to KR1020170135538A priority Critical patent/KR101916874B1/en
Application granted granted Critical
Publication of KR101916874B1 publication Critical patent/KR101916874B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • G06F17/2755
    • G06F17/3082
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

A server for communicating with a user terminal through a communication network is provided. The server according to the present invention is a server for automatically generating a title of a video content, which communicates with the user terminal through the communication network. The server includes: a communication unit configured to communicate the user terminal with the communication network; a storage unit configured to receive text information inputted from the user terminal and store the text information through the communication unit; and a control unit configured to generate the title of a video by analyzing the stored text information. The control unit is configured to reconfigure the stored text information as one of four templates, wherein the four templates are a bag of two or three words, a phrase, or a complete sentence including a subject, a verb, and an object. The control unit tags each token with a word class after analyzing a morpheme of the text information and selects the most frequently appearing word to generate the title of the video. Accordingly, the present invention can automatically generate a video clip without the involvement of a user.

Description

자동으로 동영상 하이라이트 영상의 제목을 생성하는 방법, 장치 및 컴퓨터 판독가능 기록 매체{APPARATUS, METHOD FOR AUTO GENERATING A TITLE OF VIDEO CONTENTS, AND COMPUTER READABLE RECORDING MEDIUM}TECHNICAL FIELD [0001] The present invention relates to a method, apparatus, and computer readable recording medium for automatically generating a title of a video highlight image,

본 발명은, 동영상 비디오 클립을 생성하는 방법에 관한 것이며, 보다 구체적으로는 사용자의 관여 없이 자동으로 제목을 포함하는 비디오 클립을 생성하는 방법 및 장치 등에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for generating moving picture video clips, and more particularly, to a method and apparatus for automatically generating a video clip including a title without user's involvement.

비디오 컨텐츠의 양이 폭발적으로 증가하고 다양한 매체에서 비디오 컨텐츠를 제공함에 따라 소비자는 선호하는 컨텐츠를 선택하여 시청하는 경향이 점점 더 강해지고 있다. 또한, 짧은 시간에 원하는 영상을 선택하여 시청하기 위해서 전체 동영상 컨텐츠 중에서도 원하는 장면을 강조 표시하는 짧은 비디오 클립을 선호하는 경향 또한 증가하고 있다. As the amount of video content explosively increases and video content is provided in various media, consumers are increasingly inclined to select and view their favorite content. Also, in order to select and view a desired image in a short time, a tendency of preferring a short video clip that highlights a desired scene among all the video contents is also increasing.

통상적으로 짧은 비디오 클립을 작성하기 위해서는 편집자가 전체 동영상 중 하이라이트 부분을 직접 선택하여 작성하는 것이 일반적이다. 한편, 대한민국 특허출원번호 제10-2017-0029933호에는, 댓글 또는 해당 동영상에 대한 누적정보(반복 재생 횟수, 캡쳐 횟수, 공유 횟수 등)를 통해서 자동으로 하이라이트 영상을 편집하는 방법이 개시되어 있다. 그러나, 이러한 시스템은, 영상 자체를 편집하는 방법에 관한 것으로, 영상에 적절한 제목을 부여하는 방법에 관한 것은 아니다. 또한, 이러한 시스템은 동영상 검색을 위한 검색어로서 사용자가 스스로 검색 정보를 별도 입력해야 하고, 그렇지 않은 경우 검색이 어려워 수많은 동영상 중 식별되어 발견되기 어렵다는 문제를 내포하고 있다. Generally, in order to create a short video clip, it is common for an editor to directly select a highlight portion of an entire movie to create. On the other hand, Korean Patent Application No. 10-2017-0029933 discloses a method of automatically editing a highlight image through a comment or cumulative information (the number of times of repeated reproduction, the number of times of capture, the number of times of sharing, etc.) However, such a system relates to a method of editing a video image itself, and does not refer to a method of giving an appropriate title to a video image. In addition, such a system has a problem that a user has to input search information by itself as a search word for moving image search, and if not, it is difficult to search so that it is difficult to be identified and found among many videos.

대한민국 특허출원번호 제10-2017-0029933호Korean Patent Application No. 10-2017-0029933

따라서, 본 개시는 사용자의 관여 없이 자동으로 비디오 클립을 생성하는 방법 및 장치를 제공할 수 있다. Thus, the present disclosure can provide a method and apparatus for automatically generating video clips without user involvement.

본 개시는 자동으로 생성된 비디오 클립에 제목을 부여하는 방법 및 장치를 제공할 수 있다.The present disclosure can provide a method and apparatus for assigning titles to automatically generated video clips.

본 발명의 일 특징에 의하면, 통신망을 통해 사용자 단말과 통신하는, 동영상 컨텐츠의 제목을 자동으로 생성하는 서버가 제공된다. 상기 서버는 상기 통신망을 통해 사용자 단말과 통신하도록 구성되는 통신부; 상기 사용자 단말로부터 입력되는 텍스트 정보를 수신하여 상기 통신부를 통하여 저장하도록 구성된 저장부; 및 상기 저장된 텍스트 정보를 분석하여 동영상의 제목을 생성하도록 구성되는 제어부를 포함하고, 상기 제어부는 상기 저장된 텍스트 정보를 4개의 템플릿 중 하나로 재구성하도록 구성되며 - 상기 4개의 템플릿은 두 개 또는 세 개의 단어의 묶음(bag), 구절, 또는 주어, 동사, (목적어)가 포함되는 완벽한 문장임-; 상기 제어부는 상기 텍스트 정보의 형태소 분석 후에, 각각의 토큰에 단어 클래스로 태깅하고, 가장 자주 나오는 단어를 선택하여 상기 동영상의 제목을 생성하도록 구성된다. According to an aspect of the present invention, there is provided a server for automatically generating a title of moving picture content, which communicates with a user terminal through a communication network. The server comprising: a communication unit configured to communicate with a user terminal through the communication network; A storage unit configured to receive text information input from the user terminal and store the received text information through the communication unit; And a control unit configured to analyze the stored text information to generate a title of a moving image, wherein the control unit is configured to reconstruct the stored text information into one of four templates, the four templates including two or three words A complete sentence containing a bag, phrase, or subject, verb, (object); After the morpheme analysis of the text information, the control unit is configured to tag each token with a word class, and to select the most frequently appearing word to generate the title of the moving picture.

본 발명의 다른 특징에 의하면, 통신망을 통해 사용자 단말과 통신하며 서버에서 수행되는 동영상 컨텐츠의 제목을 자동으로 생성하는 방법이 제공된다. 상기 방법은 상기 동영상 컨텐츠와 연관되는, 상기 사용자 단말로부터 전송되는 텍스트를 수신하는 단계; 상기 동영상 컨텐츠의 하이라이트 이벤트를 검출하는 단계; 상기 검출된 하이라이트 이벤트를 보정하는 단계; 및 상기 동영상 컨텐츠의 상기 하이라이트 이벤트에 대해 제목을 합성하는 단계를 포함하는 동영상 컨텐츠의 제목을 자동으로 생성하는 방법이 제공된다. According to another aspect of the present invention, there is provided a method of automatically generating a title of moving picture content to be communicated to a user terminal through a communication network and performed by a server. The method comprising: receiving a text associated with the moving picture content, the text being transmitted from the user terminal; Detecting a highlight event of the moving picture content; Correcting the detected highlight event; And synthesizing a title for the highlight event of the moving picture content, the method including automatically generating a title of the moving picture content.

일 실시예에 있어서, 상기 동영상 컨텐츠의 하이라이트 이벤트를 검출하는 단계는 상기 동영상 컨텐츠를 소정의 시간 윈도우를 가지는 복수의 동영상 세그멘트로 나누는 단계; 상기 복수의 동영상 세그멘트 각각에 대응하는 채팅 메시지의 횟수 또는 상기 복수의 동영상 세그멘트 각각이 웹페이지에 포스팅된 횟수를 계산하는 단계; 및 상기 횟수의 내림차순으로 상기 복수의 동영상 세그멘트 각각을 정렬하고, 소정의 수의 동영상 세그멘트를 선택하는 단계를 포함할 수 있다. In one embodiment, the step of detecting a highlight event of the moving picture content may include: dividing the moving picture content into a plurality of moving picture segments having a predetermined time window; Calculating a number of times a chat message corresponding to each of the plurality of moving image segments or a number of times each of the plurality of moving image segments is posted to a web page; And sorting the plurality of video segments in descending order of the number of video segments and selecting a predetermined number of video segments.

일 실시예에 있어서, 상기 검출된 하이라이트 이벤트를 보정하는 단계는 인접한 시간 윈도우에 연속적인 하이라이트 이벤트가 속하고 이는 동일한 장면(Scene)에 속하는 경우를 제거하기 위해 가장 첫 번째 하이라이트 이벤트만을 마킹함으로써 중복된 하이라이트 이벤트를 방지하는 단계를 포함할 수 있다. In one embodiment, the step of correcting the detected highlight event comprises marking only the first highlight event to remove a case where a subsequent highlight event belongs to an adjacent time window and which belongs to the same scene, And preventing a highlight event.

일 실시예에 있어서, 상기 검출된 하이라이트 이벤트를 보정하는 단계는상기 동영상 콘텐츠의 재생 시간과 상기 동영상 콘텐츠와 연관된 텍스트 데이터 간의 시간 차이를 보정하는 단계를 포함할 수 있다. In one embodiment, the step of correcting the detected highlight event may include correcting a time difference between the playing time of the moving picture content and the text data associated with the moving picture content.

일 실시예에 있어서, 상기 동영상의 하이라이트 이벤트에 대해 제목을 합성하는 단계는 4개의 문장 템플릿을 정의하는 단계 - 상기 4개의 문장 템플릿은 두 개 또는 세 개의 단어 묶음(bag)이거나, 구절, 또는 주어, 동사, (목적어)가 포함되는 완벽한 문장임 -; 상기 텍스트를 형태소 분석을 하여 각각의 토큰에 단어 클래스로 태깅하는 단계; 상기 태깅된 토큰에 워드2벡 모델(Word2Vec model)을 적용하여 단어들의 묶음을 생성하는 단계; 및 상기 계산된 거리가 짧은 단어들의 두 개 또는 세 개의 단어들을 조합하여 제목을 생성하는 단계를 포함할 수 있다. In one embodiment, compositing a title for the highlight event of the moving picture comprises defining four sentence templates, wherein the four sentence templates are two or three word bags, phrases, , Verb, and (object); Subjecting the text to morphological analysis and tagging each token with a word class; Generating a bundle of words by applying a Word2Vec model to the tagged token; And generating a title by combining two or three words of the calculated words having short distances.

본 발명의 또 다른 특징에 의하면, 하나 이상의 명령어가 수록된 컴퓨터 판독가능 기록 매체로서, 하나 이상의 명령어는 컴퓨터에 의해 실행될 경우 컴퓨터로 하여금 전술한 방법들 중 어느 하나의 방법을 수행하도록 하는, 컴퓨터 판독가능 기록 매체가 제공된다.According to another aspect of the present invention there is provided a computer readable medium having stored thereon one or more instructions which when executed by a computer causes the computer to perform any one of the methods described above, A recording medium is provided.

본 개시에 의하면, 사용자의 입력에 의존하지 않고, 자동으로 동영상 하이라이트 비디오 클립을 생성할 수 있는 방법 및 장치 등이 제공될 수 있다. According to the present disclosure, a method and apparatus and the like capable of automatically generating a movie highlight video clip can be provided without depending on a user's input.

본 개시에 의하면, 생성된 비디오 클립에 사용자의 개입 없이 자동으로 적절한 제목을 부여할 수 있다. According to the present disclosure, the generated video clip can be automatically given an appropriate title without user intervention.

도 1은, 본 발명의 일 실시예에 따른 네트워크 환경의 일 예를 도시한 도면이다.
도 2는, 도 1의 서버의 예시적 구성을 개략적으로 도시한 도면이다.
도 3은, 본 발명의 일 실시예에 따른, 서버 상의 게시판에 제목과 함께 동영상 하이라이트를 업로드 하기 위해 서버 상에서 수행되는 동작을 보여주는 개략적 동작 흐름도이다.
도 4은 도 3에서 설명한 동작에 따라 대중 상호 웹사이트(mass interaction website: 유투브, 트위치, 네이버 스포츠 도는 디시인사이트)에서 제목과 함께 동영상 하이라이트를 생성하는 예시적인 방법을 도시하는 도면이다.
도 5는 각 장르에서 제목과 함께 동영상 하이라이트 이벤트를 제공하는 일 실시예를 도시한 도면이다.
도 6은 각각의 비디오 카테고리에 대해서 4 가지의 제목 타입의 평균 점수를 나타내는 그래프이다.
1 is a diagram illustrating an example of a network environment according to an embodiment of the present invention.
Fig. 2 is a view schematically showing an exemplary configuration of the server of Fig. 1. Fig.
3 is a schematic operational flow diagram illustrating operations performed on a server for uploading a video highlight along with a title to a bulletin board on a server, in accordance with an embodiment of the present invention.
FIG. 4 is a diagram illustrating an exemplary method of generating a movie highlight along with a title in a mass interaction website (YouTube interaction, Twitter, Naver sports, or a Dice Insight) according to the operation described in FIG.
5 is a diagram illustrating an embodiment of providing a movie highlight event with a title in each genre.
Figure 6 is a graph showing the average score of four title types for each video category.

이하, 첨부 도면을 참조하여 본 발명의 실시예에 관하여 상세히 설명한다. 이하에서는, 본 발명의 요지를 불필요하게 흐릴 우려가 있다고 판단되는 경우, 이미 공지된 기능 및 구성에 관한 구체적인 설명을 생략한다. 또한, 이하에서 설명하는 내용은 어디까지나 본 발명의 일 실시예에 관한 것일 뿐 본 발명이 이로써 제한되는 것은 아님을 알아야 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Hereinafter, when it is determined that there is a possibility that the gist of the present invention may be unnecessarily blurred, a detailed description of known functions and configurations will be omitted. In addition, it should be understood that the following description is only an embodiment of the present invention, and the present invention is not limited thereto.

본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로 본 발명을 한정하려는 의도에서 사용된 것이 아니다. 예를 들면, 단수로 표현된 구성요소는 문맥상 명백하게 단수만을 의미하지 않는다면 복수의 구성요소를 포함하는 개념으로 이해되어야 한다. 또한, 본 발명의 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐이고, 이러한 용어의 사용에 의해 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하려는 것은 아니다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the present invention. For example, an element expressed in singular < Desc / Clms Page number 5 > terms should be understood as including a plurality of elements unless the context clearly dictates a singular value. In addition, in the specification of the present invention, it is to be understood that terms such as "include" or "have" are intended to specify the presence of stated features, integers, steps, operations, components, It is not intended that the use of the term exclude the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.

본 명세서에 기재된 실시예에 있어서 '블록' 또는 '부'는 적어도 하나의 기능이나 동작을 수행하는 기능적 부분을 의미하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '블록' 또는 '부'는, 특정한 하드웨어로 구현될 필요가 있는 '블록' 또는 '부'를 제외하고는, 적어도 하나의 소프트웨어 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다. As used herein, the term " block " or " part " means a functional part that performs at least one function or operation, and may be implemented in hardware or software or a combination of hardware and software. Also, a plurality of 'blocks' or 'sub-units' may be embodied in at least one processor integrated with at least one software module, except for 'blocks' or 'sub-units' that need to be implemented in specific hardware .

덧붙여, 달리 정의되지 않는 한 기술적 또는 과학적인 용어를 포함하여, 본 명세서에서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의된 용어들은, 관련 기술의 문맥상 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 발명의 명세서에서 명백하게 달리 정의하지 않는 한 과도하게 제한 또는 확장하여 해석되지 않는다는 점을 알아야 한다.In addition, all terms used herein, including technical or scientific terms, unless otherwise defined, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Commonly used predefined terms are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are not to be construed as being excessively limited or extended unless explicitly defined otherwise in the specification of the present invention You should know.

이하, 첨부된 도면을 참조하여, 본 발명의 실시예에 대해 구체적으로 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은, 본 발명의 일 실시예에 따른, 네트워크 환경(100)의 구성을 개략적으로 도시한 도면이다. 도시된 바에 의하면, 네트워크 환경(100)은, 하나 이상의 사용자 단말(102a-102n), 통신망(104), 서버(106)를 포함한다. 이러한 도 1은 발명의 설명을 위한 일례로 사용자 단말의 수나 서버의 수가 도 1과 같이 한정되는 것은 아니다. 1 is a diagram schematically illustrating a configuration of a network environment 100 according to an embodiment of the present invention. Network environment 100 includes one or more user terminals 102a-102n, a communication network 104, and a server 106. As shown in FIG. FIG. 1 is a diagram for explaining the invention. The number of user terminals and the number of servers are not limited to those shown in FIG.

본 발명의 일 실시예에 의하면, 복수의 사용자 단말(102a-102n)은, 사용자가 이용하는 각종 고정 또는 휴대용 통신 단말일 수 있다. 복수의 사용자 단말(102a-102n) 각각은, 예컨대 데스크탑, 랩탑, 스마트 폰, 태블릿 PC, 기타 다양한 통신 단말일 수 있다. 본 발명의 일 실시예에 의하면, 사용자 단말(102a-102n)은, 통신망(104)을 통해 서버(106)와 통신하고 필요한 정보를 송수신할 수 있다. 본 발명의 일 실시예에 의하면, 복수의 사용자 단말(102a-102n) 각각은, 통신망(104)을 통해 서버(106)에 접속하여 서버(106)에 의해서 운영되는 게시판의 각 동영상을 검색하거나 해당 게시판에 새로운 동영상을 업로드할 수 있다.According to one embodiment of the present invention, the plurality of user terminals 102a-102n may be various fixed or portable communication terminals used by the user. Each of the plurality of user terminals 102a-102n may be, for example, a desktop, laptop, smart phone, tablet PC, or various other communication terminals. According to one embodiment of the present invention, the user terminals 102a-102n may communicate with the server 106 via the communication network 104 and send and receive necessary information. According to an embodiment of the present invention, each of the plurality of user terminals 102a-102n accesses the server 106 via the communication network 104 and searches each video on the bulletin board operated by the server 106, You can upload new videos to the bulletin board.

본 발명의 일 실시예에 의하면, 통신망(104)은, 임의의 유선 또는 무선 통신망일 수 있으며, 예컨대 WiFi망, LAN망, WAN망, 인터넷망 등을 포함할 수 있으며, 본 발명이 이로써 제한되는 것은 아니다.According to an embodiment of the present invention, the communication network 104 may be any wired or wireless communication network and may include, for example, a WiFi network, a LAN network, a WAN network, an Internet network, etc., It is not.

본 발명의 일 실시예에 의하면, 서버(106)는, 소정의 목적에 따라, 통신망(104)을 통해 복수의 사용자 단말(102a-102n)과 통신하며, 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. In accordance with one embodiment of the present invention, the server 106 communicates with a plurality of user terminals 102a-102n via a communication network 104, in accordance with a given purpose, and provides commands, codes, files, Or a plurality of computer devices.

일례로, 서버는 네트워크(140)를 통해 접속한 사용자 단말(102a-102n)로회원들 어플리케이션의 설치를 위한 파일을 제공할 수 있다. 이 경우 사용자 단말(102a-102n)은 서버(106)로부터 제공된 파일을 이용하여 어플리케이션을 설치할 수 있다. 또한, 사용자 단말(102a-102n)이 포함하는 운영체제(Operating System: OS) 및 적어도 하나의 프로그램의 제어에 따라 서버(106)에 접속하여 서버(106)가 제공하는 서비스나 컨텐츠를 제공받을 수 있다. 예를 들어, 사용자 단말(102a-102n)이 어플리케이션의 제어에 따라 네트워크(140)를 통해 서비스 요청 메시지를 서버(106)로 전송하며, 서버(106)는 서비스 요청 메시지에 대응하는 코드를 사용자 단말(102a-102n)로 전송할 수 있고, 사용자 단말(102a-102n)은 어플리케이션의 제어에 따라 코드에 따른 화면을 구성하여 표시함으로써 사용자에게 컨텐츠를 제공할 수 있다. In one example, the server may provide a file for the installation of the members application to the user terminal 102a-102n connected via the network 140. [ In this case, the user terminal 102a-102n can install the application using the file provided from the server 106. [ The server 106 may be connected to the server 106 under the control of an operating system (OS) and at least one program included in the user terminals 102a-102n to receive services or contents provided by the server 106 . For example, the user terminal 102a-102n transmits a service request message to the server 106 via the network 140 under the control of the application, and the server 106 transmits a code corresponding to the service request message, The user terminals 102a to 102n can transmit the content to the user terminals 102a to 102n, and the user terminals 102a to 102n can provide the content to the user by constituting and displaying a screen according to the code according to the control of the application.

도 2는 본 발명의 일 실시예에 따라 도 1의 서버의 예시적 구성을 개략적으로 도시한 도면이다. 도시된 바에 의하면, 서버(102)는 제어부(204), 저장부(206), 및 통신부(208)를 포함할 수 있다.Figure 2 is a schematic diagram illustrating an exemplary configuration of the server of Figure 1 in accordance with one embodiment of the present invention. The server 102 may include a control unit 204, a storage unit 206, and a communication unit 208. As shown in FIG.

본 발명의 일 실시예에 의하면, 제어부(204)는 저장부(206) 및 통신부(208)에 연결되어 이들을 제어하기 위해 다양한 컴퓨터 프로그램을 실행하고 그 동작을 제어하도록 구성될 수 있다. 제어부(204)는 한 구성 요소로부터 데이터를 수신하여 다른 구성 요소에 의해 사용되기에 적합한 포맷으로 데이터 포맷팅을 하도록 구성될 수 있다. 제어부(204)는 저장부(206)와 통신 가능한 방식으로 연결될 수 있다. 다양한 실시예에서, 제어부(204)는, 예컨대 통신부(208)과 같은 다른 구성 요소와 일체로 통합 구성될 수 있다.According to an embodiment of the present invention, the control unit 204 may be configured to execute various computer programs and control the operation thereof in order to be connected to and control the storage unit 206 and the communication unit 208. [ The control unit 204 may be configured to receive data from one component and to perform data formatting in a format suitable for use by the other component. The control unit 204 may be connected to the storage unit 206 in a communicable manner. In various embodiments, the control unit 204 may be integrally integrated with other components, such as, for example,

제어부(204)는 통신부(208)를 통해 텍스트 정보를 수신하고, 수신된 텍스트 정보를 분석하여 동영상의 제목을 생성할 수 있다. 본 발명의 일 실시예에 의하면, 제어부(204)는, 저장부(206)에 저장된 동영상 컨텐츠 및 연관된 텍스트 정보를 이용하여 동영상 컨텐츠의 하이라이트 이벤트를 검출하고, 동영상 비디오 클립에 적절한 제목을 생성할 수 있다. The control unit 204 receives the text information through the communication unit 208 and analyzes the received text information to generate a title of the moving image. According to an embodiment of the present invention, the control unit 204 may detect the highlight event of the moving image content using the moving image content stored in the storage unit 206 and the associated text information, and may generate an appropriate title in the moving image video clip have.

본 발명의 일 실시예에 의하면, 제어부(204)는, 텍스트를 4개의 문장 템플릿 중 하나로 구분할 수 있다. 일 실시예에서, 동영상의 제목은 두 개 또는 세 개의 단어의 묶음(bag), 구절, 또는 주어, 동사, (목적어)가 포함되는 완벽한 문장일 수 있다. 제어부(204)는, 채팅 메시지 또는 댓글의 형태소 분석 후에, 각각의 토큰에 단어 클래스로 태깅을 할 수 있다. According to an embodiment of the present invention, the control unit 204 can classify the text into one of four sentence templates. In one embodiment, the title of a moving picture may be a complete sentence including a bag, a phrase, or a subject, verb, (object) of two or three words. After morpheme analysis of the chat message or comment, the control unit 204 may tag each token with a word class.

일 실시예에서, 제어부(204)는 해당 장면의 제목으로 가장 자주 나오는 단어를 선택할 수 있다. 왜냐하면 가장 많이 나오는 단어는 해당 장면의 상황을 효과적으로 설명할 수 있기 때문이다. 일 실시예에서, 제어부(204)는 주인공의 이름을 해당 장면의 제목으로 선택할 수 있다. 일 실시예에서, 제어부(204)는 비속어 등의 부적절한 단어를 사전에 제거할 수 있다. In one embodiment, the control unit 204 may select the most frequently occurring word as the title of the scene. Because the most common words can effectively explain the situation of the scene. In one embodiment, the control unit 204 may select the name of the main character as the title of the corresponding scene. In one embodiment, the control unit 204 may remove an inappropriate word such as a profanity word in advance.

일 실시예에서, 제어부(204)는 단어들 사이의 거리가 짧은 단어들을 조합하여 복합 명사를 생성함으로써 두 개 또는 세 개의 단어들의 묶음을 생성할 수 있다. 일 실시예에서, 제어부(204)는 워드2벡 모델(Word2Vec model)을 사용하여 단어들의 묶음을 생성할 수 있다. In one embodiment, the control unit 204 may generate a bundle of two or three words by generating a compound noun by combining short words between the words. In one embodiment, the control unit 204 may generate a bundle of words using a Word2Vec model.

일 실시예에서, 제어부(204)는, 두 개 또는 세 개의 단어가 주어졌을 때, 단어들을 조합하여 해당 장면을 묘사하는 서사 형식의 문장을 합성할 수 있다. 장면 제목 문장을 합성하기 위해, 제어부(204)는 적절한 명사를 선택하고 문장에 들어갈 수 있는 객체와 동사를 고려할 수 있다. 문장의 주어로 주로 언급된 명사와 다른 부분을 추출하고, 명사와 문장의 다른 부분의 유사도를 계산할 수 있다. 제어부(104)는 가장 짧은 단어 벡터와 토큰의 쌍을 선택하여 문장을 완성할 수 있다. In one embodiment, when two or three words are given, the control unit 204 may combine words to synthesize a narrative style sentence describing the scene. To synthesize a scene title sentence, the control unit 204 may select an appropriate noun and consider the object and the verb that can enter the sentence. It is possible to extract nouns and other parts that are mainly referred to as subject of a sentence, and to calculate the similarity between the noun and other parts of the sentence. The control unit 104 can complete a sentence by selecting the shortest word vector and a pair of tokens.

저장부(206)는, 도 1의 통신망(104) 및 통신부(208)를 통하여, 단말(102)로부터 전송되어 온 동영상 정보 등을 저장 및 갱신할 수 있다. 본 발명의 일 실시예에 의하면, 저장부(206)는 또한, 도 1의 통신망(102) 및 통신부(208)를 통하여, 단말(102a-102c) 각각으로부터 실시간으로 전송되어 온 동영상 관련 채팅 메시지, 댓글, 비디오 클립 등의 정보를 저장 및 갱신할 수 있다.The storage unit 206 can store and update moving picture information and the like transmitted from the terminal 102 via the communication network 104 and the communication unit 208 in Fig. According to an embodiment of the present invention, the storage unit 206 also stores a video related chat message transmitted in real time from each of the terminals 102a to 102c via the communication network 102 and the communication unit 208 in Fig. 1, Comments, video clips, and the like.

저장부(206)는 또한, 도 1의 통신망(102) 및 통신부(208)를 통하여, 외부 컨텐츠 제공 서버(도시되지 않음)로부터 전송되어 온 동영상 컨텐츠를 저장 및 갱신할 수 있다. The storage unit 206 may also store and update the moving image content transmitted from the external content providing server (not shown) through the communication network 102 and the communication unit 208 of FIG.

저장부(206)는 플래시 메모리 타입(flash memory type), 하드 디스크 타입(hard disk type), 멀티미디어 카드(MultiMedia Card: MMC), 카드 타입의 메모리(예를 들어, SD(Secure Digital) 카드 또는 XD(eXtream Digital) 카드 등), RAM(Random Access Memory), SRAM(Static Random Access Memory), ROM(Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크 및 광 디스크 중 어느 하나의 저장 매체로 구현될 수 있으나, 당업자라면 저장부(206)의 구현 형태가 이에 한정되는 것이 아님을 알 수 있을 것이다.The storage unit 206 may be a flash memory type, a hard disk type, a MultiMedia Card (MMC), a card type memory (for example, SD (Secure Digital) card or XD (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) A magnetic disk, a magnetic disk, and an optical disk, but those skilled in the art will recognize that the embodiment of the storage unit 206 is not limited thereto.

본 발명의 일 실시예에 의하면, 통신부(208)는 서버(106)가 통신망(104)을 통해 사용자 단말(102)와 통신할 수 있게 한다. 본 발명의 일 실시예에 의하면, 통신부(208)는 제어부(104)에서 처리된 정보를 정해진 프로토콜에 따라 통신망(104)을 통하여 사용자 단말(102)로 전송할 수 있다. 본 발명의 일 실시예에 의하면, 통신부(208)는, 도 1의 통신망(104)의 프로토콜에 따라, 송수신되는 정보를 적절히 인코딩 또는 디코딩할 수 있다. 본 발명의 일 실시예에 의하면, 통신부(208)는, 사용자 단말(102)로부터 각종 정보를 수신하고 적절한 처리를 행할 수 있다.According to one embodiment of the present invention, the communication unit 208 enables the server 106 to communicate with the user terminal 102 via the communication network 104. [ According to an embodiment of the present invention, the communication unit 208 can transmit information processed by the control unit 104 to the user terminal 102 via the communication network 104 according to a predetermined protocol. According to one embodiment of the present invention, the communication unit 208 can appropriately encode or decode information to be transmitted and received according to the protocol of the communication network 104 in Fig. According to the embodiment of the present invention, the communication unit 208 can receive various information from the user terminal 102 and perform appropriate processing.

이상으로 설명한 실시예는, 하드웨어적 측면에서 응용 주문형 집적 회로(Application Specific Integrated Circuits: ASICs), 디지털 신호 처리기(Digital Signal Processors: DSPs), 디지털 신호 처리 소자(Digital Signal Processing Devices: DSPDs), 프로그램 가능 논리 소자(Programmable Logic Devices: PLDs), 현장 프로그램 가능 게이트 어레이(Field-Programmable Gate Arrays: FPGAs), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers) 및 마이크로 프로세서 (microprocessors) 중 적어도 하나를 이용하여 구현될 수 있다.In the hardware embodiment, the embodiments described above are applicable to application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs) At least one of Programmable Logic Devices (PLDs), Field-Programmable Gate Arrays (FPGAs), processors, controllers, micro-controllers and microprocessors Can be implemented using one.

절차나 단계 또는 기능을 포함하는 실시예들은 적어도 하나의 기능 또는 동작을 수행하게 하는, 하드웨어 플랫폼(platform) 상에서 실행 가능한 펌웨어 (firmware)/소프트웨어 모듈로 구현될 수 있다. 이 경우, 펌웨어/소프트웨어 모듈은 적절한 프로그램 언어(program language)로 쓰여진 소프트웨어 애플리케이션 (application)에 의해 구현될 수 있다.Embodiments involving procedures, steps, or functions may be implemented with firmware / software modules that are executable on a hardware platform that allows performing at least one function or operation. In this case, the firmware / software module may be implemented by a software application written in a suitable program language.

도 3은, 본 발명의 일 실시예에 따른, 서버 상의 게시판에 제목과 함께 동영상 하이라이트를 업로드 하기 위해 서버 상에서 수행되는 동작을 보여주는 개략적 동작 흐름도이다.3 is a schematic operational flow diagram illustrating operations performed on a server for uploading a video highlight along with a title to a bulletin board on a server, in accordance with an embodiment of the present invention.

동영상의 하이라이트 이벤트를 검출하는 단계로부터 시작한다(S310). 일 실시예에서, 채팅 메시지와 댓글을 분석하여 하이라이트 장면을 찾을 수 있다. 예컨대, 상기 동영상을 소정의 시간 윈도우를 가지는 복수의 동영상 세그멘트로 나누고(S313), 상기 복수의 동영상 세그멘트 각각에 대응하는 채팅 메시지의 횟수 또는 상기 복수의 동영상 세그멘트 각각이 웹페이지에 포스팅된 횟수를 계산한다(S315). 이 후, 횟수의 내림차순으로 상기 복수의 동영상 세그멘트 각각을 정렬하고, 소정의 수의 동영상 세그멘트를 선택한다(S317).A step of detecting a highlight event of the moving picture is started (S310). In one embodiment, chat messages and comments can be analyzed to find highlight scenes. For example, the moving picture is divided into a plurality of moving picture segments having a predetermined time window (S313), and the number of times the chat message corresponding to each of the plurality of moving picture segments or the number of times each of the plurality of moving picture segments is posted to the web page (S315). Thereafter, each of the plurality of moving image segments is sorted in descending order of the number of times, and a predetermined number of moving image segments are selected (S317).

이후, 하이라이트 이벤트를 보정할 수 있다(S320). 일 실시예에서, 하이라이트 이벤트를 보정하는 것은 실제로 인접한 시간 윈도우에 연속적인 하이라이트 이벤트가 속하고 이는 동일한 장면에 속하는 경우가 많으므로 가장 첫 번째 하이라이트 이벤트만을 마킹함으로써 중복된 하이라이트 이벤트를 방지할 수 있다(S321).Thereafter, the highlight event can be corrected (S320). In one embodiment, correcting a highlight event may prevent duplicate highlight events by marking only the first highlight event, since in reality a successive highlight event belongs to a contiguous time window and this often belongs to the same scene S321).

일 실시예에서, 동영상 콘텐츠와 상기 동영상 콘텐츠와 연관된 텍스트 데이터 간의 시간 차이를 보정할 수 있다(S323). 예컨대, 사용자는 텔레비전, PC 또는 스마트 폰에서 동영상 콘텐츠를 시청하면서 관련된 텍스트 데이터를 생성할 수 있다. 따라서, 비디오 컨텐츠가 시작되는 시간과 그에 관련된 텍스트 데이터가 생성되는 시간은 일치하지 않을 수 있다. 일반적으로 사용자가 동영상 컨텐츠를 시청하는 시간은 미디어의 유형과 통신 채널에 따라 달라질 수 있다. 예를 들어, 지상파 디지털 텔레비전은 동영상을 MPEG2-TS로 인코딩하여 라디오 웨이브를 통해 전송되고, 스마트폰 상의 동영상 컨텐츠를 무선 랜, CDMA, 3G 또는 LTE 를 통해 전송되는데, 무선 채널을 이용하는 스마트폰의 경우, 단대단 딜레이는 라디오 웨이브 또는 유선 환경의 경우 보다 크게 되는데, 왜냐하면 동영상 컨텐츠가 추가적으로 MPEG4 또는 H.264로 인코딩되어야 하고, 무선 링크의 지연(latency)도 있기 때문이다. 또한, 동영상 콘텐츠와 그에 관련된 텍스트 데이터 간의 시간 차이를 크게 하는 것 중, 웹사이트 상의 텍스트 메시지의 타임 스탬프(time stamp)로 인한 지연도 있다. 이는 사용자가 채팅 또는 댓글 메시지를 다 작성한 후 인터넷으로 전송할 때 타임 스탬프가 생성되기 때문이다. 따라서, 동영상 장면과 그에 대응하는 텍스트 메시지 간의 시간 차이를 고려해야 보다 정확한 하이라이트 이벤트를 선택할 수 있다. 이러한 측면에서, 본 발명은 TV 프로그램 또는 비디오 스트리밍 사이트의 시간표를 참조로 하고, 웹 사이트의 채팅 메시지의 '시작' 또는 '출발' 과 같은 키워드를 기초로 비디오 컨텐츠의 시작 시간을 보정하였다.In one embodiment, the time difference between the moving picture content and the text data associated with the moving picture content can be corrected (S323). For example, a user can generate related text data while watching video content on a television, a PC, or a smart phone. Thus, the time at which the video content starts and the time at which the associated text data is generated may not coincide. Generally, the time for the user to watch the video contents may vary depending on the type of media and communication channel. For example, a terrestrial digital television is transmitted through a radio wave by encoding a moving picture into MPEG2-TS, and the moving picture content on the smart phone is transmitted through wireless LAN, CDMA, 3G or LTE. In the case of a smartphone using a wireless channel , The end-to-end delay is larger than in the case of a radio wave or a wired environment because the video content has to be additionally encoded in MPEG4 or H.264 and there is latency in the radio link. There is also a delay due to a time stamp of a text message on a web site, which increases the time difference between the video content and related text data. This is because the user creates a chat or comment message and then generates a timestamp when sending to the Internet. Therefore, a more accurate highlight event can be selected by considering the time difference between the moving picture scene and the corresponding text message. In this regard, the present invention refers to the time table of the TV program or video streaming site and corrects the start time of the video content based on keywords such as 'start' or 'start' of the chat message of the website.

이 후에, 동영상의 하이라이트 이벤트에 대해 제목을 합성하는 단계(S330)이다. Thereafter, a title is synthesized for the highlight event of the moving picture (S330).

일 실시예에서, 동영상 하이라이트 이벤트를 작성하기 위해서 4개의 문장 템플릿을 정의할 수 있다(S331). 일 실시예에서, 동영상의 제목은 두 개 또는 세 개의 단어 묶음(bag)이거나, 구절, 또는 주어, 동사, (목적어)가 포함되는 완벽한 문장일 수 있다. 일 실시예에서, 채팅 메시지 또는 댓글을 형태소 분석을 한 후, 각각의 토큰에 단어 클래스로 태깅을 할 수 있다. In one embodiment, four sentence templates may be defined to create a movie highlight event (S331). In one embodiment, the title of the video may be a complete or two-or three-word bag, a phrase, or a complete sentence that includes subject, verb, (object). In one embodiment, after stemming a chat message or comment, each token can be tagged with a word class.

일 실시예에서, 명사에 주목하여 해당 장면의 제목으로 가장 자주 나오는 명사를 선택할 수 있는데 가장 많이 나오는 명사는 해당 장면의 상황을 효과적으로 설명할 수 있기 때문이다(S333). 일 실시예에서, 주인공의 이름을 해당 장면의 제목으로 선택할 수 있다. 일 실시예에서, 비속어 등의 부적절한 단어를 사전에 제거할 수 있다. In one embodiment, it is possible to select a noun most frequently appearing as the subject of the scene by paying attention to the noun, since the nouns most frequently can describe the situation of the scene effectively (S333). In one embodiment, the name of the protagonist can be selected as the title of the scene. In one embodiment, inappropriate words such as profanity can be removed in advance.

다음으로, 단어들 사이의 거리가 짧은 단어들을 조합하여 복합 명사를 생성함으로써 두 개 또는 세 개의 단어들의 묶음을 생성할 수 있다(S335). 일 실시예에서, 워드2벡 모델(Word2Vec model)을 사용하여 단어들의 묶음을 생성할 수 있다. Next, a bundle of two or three words can be generated by generating a compound noun by combining words having a short distance between words (S335). In one embodiment, a Word2Vec model may be used to generate a bundle of words.

다음으로, 두 개 또는 세 개의 단어가 주어졌을 때, 단어들을 조합하여 해당 장면을 묘사하는 서사 형식의 문장을 합성할 수 있다(S337). 장면 제목 문장을 합성하기 위해, 문장에 포함될 수 있는 적절한 동사, 목적어 및 명사를 선택할 수 있다. 문장의 주어로서 주로 언급된 명사를 고려할 수 있고, 명사와 그 외 부분을 추출한 후, 명사와 그 외 부분의 유사도를 계산할 수 있다. 가장 짧은 단어 벡터와 토큰의 쌍을 선택하여 문장을 완성할 수 있다. Next, when two or three words are given, it is possible to combine words to synthesize a narrative style sentence describing the scene (S337). To synthesize scene title sentences, you can choose appropriate verbs, objects, and nouns that can be included in the sentence. We can consider the nouns that are mainly mentioned as the subject of the sentence, and after extracting nouns and other parts, we can calculate the similarity between nouns and other parts. The sentence can be completed by selecting the shortest word vector and a pair of tokens.

도 4은 도 3에서 설명한 동작에 따라 대중 상호 웹사이트(mass interaction website: 유투브, 트위치, 네이버 스포츠 도는 디시인사이트)에서 제목과 함께 동영상 하이라이트를 생성하는 예시적인 방법을 도시하는 도면이다. FIG. 4 is a diagram illustrating an exemplary method of generating a movie highlight along with a title in a mass interaction website (YouTube interaction, Twitter, Naver sports, or a Dice Insight) according to the operation described in FIG.

도 4에 도시된 바와 같이 대중 상호 웹사이트에서 데이터를 수집하고, 하이라이트 이벤트를 검출한 후 하이라이트 제목을 합성하고, 제목과 함께 하이라이트 영상을 제공할 수 있다. As shown in FIG. 4, it is possible to collect data from a public mutual website, synthesize highlight titles after detecting highlight events, and provide highlight images along with titles.

도 5는 각 장르에서 제목과 함께 동영상 하이라이트 이벤트를 제공하는 일 실시예를 도시한 도면이다. 5 is a diagram illustrating an embodiment of providing a movie highlight event with a title in each genre.

도 5에 따르면, 생성된 제목은 일반적으로 각 장면의 등장인물의 이름을 포함하고 단어는 일반적으로 각 장면의 주연 배우와 연관되어 있음을 알 수 있다. 또한, 합성된 명사는 등장인물의 이름과 연관된 단어 사이의 높은 유사도 메트릭을 가지고 해당 장면의 배우들의 행동을 기술하고 있음을 알 수 있다. 완성된 문장 또한 등장인물의 이름과 행동을 표현하고 있다. According to FIG. 5, it can be seen that the generated title generally includes the names of the characters of each scene, and the words are generally associated with the main actors of each scene. Also, it can be seen that the synthesized noun describes the behavior of the actors of the scene with high similarity metric between the words associated with the characters' names. The completed sentence also expresses the name and behavior of the character.

드라마의 경우에, 배우의 외모와 관련되어 묘사하는 단어 및 해당 장면의 연기에 관한 단어를 관찰할 수 있었으며, 오락물의 경우, '재밌는', '흥미로운', '놀라운' 등의 감정을 나타내는 단어가 빈출하였다. In the case of drama, we were able to observe words related to the actor's appearance and words related to the performance of the scene. In the case of entertainment, words such as 'funny', 'interesting', 'amazing' It became popular.

스포츠의 경우에는 점수 또는 선수의 파울 플레이에 관한 많은 용어를 발견할 수 있었고, 또는 플레이를 평가하는 단어를 많이 발견할 수 있었다. In the case of sports, I could find many terms related to score or player's foul play, or I could find many words to evaluate play.

온라인 게임의 경우, 캐릭터, 약어 및 비어에 관한 많은 다양한 단어와 게임에 특정된 용어들이 있었다. In the case of online games, there were many different vocabulary and game-specific terms for characters, abbreviations and vias.

정확도를 측정하기 위해서, 20개의 동영상 콘텐츠에 대해 80개의 제목을 선택하였고 수작업으로 3개의 등급으로 나누어 제목의 정확도를 평가하였다. 12명의 지원자로부터 설문조사를 통해 20개의 동영상 콘텐츠의 80개의 제목을 평가하였다. 설문조사 결과, 정확도는 67.5%였고, 80개의 제목 중에 54개가 동일한 등급을 받았다. To measure the accuracy, 80 titles were selected for 20 video contents, and the accuracy of title was evaluated by dividing into three grades by hand. We surveyed 80 titles of 20 video contents through questionnaires from 12 applicants. As a result of the survey, the accuracy was 67.5% and 54 out of 80 titles received the same grade.

높은 등급을 받은 제목은 흥미로운 표현 또는 신조어가 포함되거나 적절한 표현으로 된 제목임을 알 수 있었다. 반면, 낮은 등급을 받은 제목은 어색한 단어의 조합 또는 동영상 컨텐츠와 제목과의 불일치인 경우였다. A title that received a high rating was found to contain interesting or coined words or titles with appropriate expressions. On the other hand, a title that received a low rating was a combination of awkward words or inconsistencies between video content and title.

도 6은 각각의 비디오 카테고리에 대해서 4 가지의 제목 타입의 평균 점수를 나타내는 그래프이다. Figure 6 is a graph showing the average score of four title types for each video category.

전체적으로, 조합 단어로 된 제목이 장르 전체에 걸쳐 높은 점수를 받았는데, 서로의 거리가 짧은 단어가 각 장면에 보다 의미있는 제목을 형성하는 경향이 있기 때문이다. 두 개 또는 세 개의 단어의 묶음으로 된 제목은 일반적으로 드라마나 예능에 높은 점수를 받았다. 반면, 문장으로 된 제목은 낮은 점수를 받았다. 사용자들은 문장에 어색한 단어의 조합이 있거나 타이틀과 동영상 컨텐츠 간에 불일치가 있는 경우 낮은 점수를 주는 경향이 있음을 알 수 있다. Overall, the unionized title received a high score across the genre, with shorter words tending to form more meaningful titles in each scene. Bundled titles of two or three words generally received high marks for dramas and entertainments. On the other hand, the sentence title received a lower score. Users have a tendency to give a lower score if there is a combination of awkward words in the sentence or if there is a discrepancy between the title and the video content.

반면, 세 개의 단어로 된 제목은 두 개의 단어로 된 제목 보다 낮은 점수를 받았는데, 빈출 상위의 세 개의 단어는 종종 동영상 장면과 직접 관련되지 않은 하나의 단어를 포함하기 때문으로 분석된다. 평균적으로, 사람들은 단어의 조합으로 된 제목을 선호하는 것으로 보인다. On the other hand, a three-word title is scored lower than a two-word title, which is analyzed because three words at the top of the frequency often contain a single word that is not directly related to the video footage. On average, people seem to prefer titles with a combination of words.

본원에 개시된 실시예들에 있어서, 도시된 구성 요소들의 배치는 발명이 구현되는 환경 또는 요구 사항에 따라 달라질 수 있다. 예컨대, 일부 구성 요소가 생략되거나 몇몇 구성 요소들이 통합되어 하나로 실시될 수 있다. 또한 일부 구성 요소들의 배치 순서 및 연결이 변경될 수 있다.In the embodiments disclosed herein, the arrangement of the components shown may vary depending on the environment or requirements in which the invention is implemented. For example, some components may be omitted or some components may be integrated into one. In addition, the arrangement order and connection of some components may be changed.

본 발명 및 그 다양한 기능적 구성 요소들은 특정 실시예들로 설명되었으나, 본 발명은 하드웨어, 소프트웨어, 펌웨어, 미들웨어 또는 이들의 조합으로 구현될 수 있으며, 시스템, 서브시스템, 구성 요소들 또는 이들의 서브 구성 요소들로 활용될 수 있음을 이해하여야 한다. 소프트웨어로 구현되는 경우, 본 발명의 요소들은 필요한 작업들을 수행하기 위한 명령어들/코드 세그먼트들이 될 수 있다. 프로그램 또는 코드 세그먼트들은 프로세서 판독가능 매체와 같은 머신 판독가능 매체, 컴퓨터 프로그램 제품 내에 저장될 수 있다. 머신 판독가능 매체 또는 프로세서 판독가능 매체는 머신(예컨대, 프로세서, 컴퓨터 등)에 의해 판독되고 실행 가능한 형태로 정보를 저장 또는 전송할 수 있는 임의의 매체를 포함할 수 있다.Although the present invention and its various functional elements have been described in terms of specific embodiments, it is to be understood that the invention may be implemented in hardware, software, firmware, middleware, or a combination thereof and may be implemented as a system, subsystem, It should be understood that the invention may be utilized in various other embodiments. When implemented in software, the elements of the present invention may be instructions / code segments for performing necessary tasks. The program or code segments may be stored in a machine-readable medium, such as a processor-readable medium, or a computer program product. A machine-readable medium or a processor-readable medium may include any medium that can be read by a machine (e.g., processor, computer, etc.) and capable of storing or transmitting information in an executable form.

이상에서는 본 발명의 다양한 실시예들에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예들에 한정되지 아니하며, 상술한 실시예들은 첨부하는 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양하게 변형 실시될 수 있음은 물론이고, 이러한 변형 실시예들이 본 발명의 기술적 사상이나 범위와 별개로 이해되어져서는 아니 될 것이다. 따라서, 본 발명의 기술적 범위는 오직 첨부된 특허청구범위에 의해서만 정해져야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention. Accordingly, the technical scope of the present invention should be determined only by the appended claims.

Claims (7)

통신망을 통해 사용자 단말과 통신하는, 동영상 컨텐츠의 제목을 자동으로 생성하는 서버로서,
상기 통신망을 통해 상기 사용자 단말로부터, 상기 동영상 컨텐츠와 연관되는 적어도 하나의 채팅 메시지를 수신하도록 구성되는 통신부;
상기 사용자 단말로부터 수신한 채팅 메시지를 저장하도록 구성된 저장부; 및
상기 저장된 채팅 메시지의 텍스트 정보를 분석하여 동영상의 제목을 생성하도록 구성되는 제어부를 포함하고,
상기 제어부는
상기 동영상 컨텐츠를 소정의 시간 윈도우를 가지는 복수의 동영상 세그멘트로 나누고,
상기 저장된 채팅 메시지를 분석하여, 상기 복수의 동영상 세그멘트 각각에 대응하는 채팅 메시지의 횟수를 결정하고,
상기 복수의 동영상 세그멘트 중 채팅 메시지의 횟수가 높은 순서로 소정의 수의 동영상 세그멘트들을 선택하여, 하이라이트 이벤트들을 검출하고,
상기 하이라이트 이벤트들 중 인접한 시간 윈도우에 연속하는 하이라이트 이벤트들 중 가장 첫번째 하이라이트 이벤트만을 마킹하여, 상기 연속하는 하이라이트 이벤트들을 하나의 하이라이트 이벤트로 보정하고,
상기 저장된 채팅 메시지 중 상기 하이라이트 이벤트와 연관된 채팅 메시지를 형태소 분석하여, 상기 하이라이트 이벤트와 연관된 채팅 메시지에서 가장 자주 나오는 명사에 기초하여 상기 하이라이트 이벤트의 제목을 생성하도록 구성되는,
동영상 컨텐츠의 제목을 자동으로 생성하는 서버.
A server for automatically generating a title of moving picture content, communicating with a user terminal through a communication network,
A communication unit configured to receive at least one chat message associated with the moving picture content from the user terminal through the communication network;
A storage unit configured to store a chat message received from the user terminal; And
And a controller configured to analyze the text information of the stored chat message to generate a title of the moving picture,
The control unit
Dividing the moving picture content into a plurality of moving picture segments having a predetermined time window,
Analyzing the stored chat message to determine the number of chat messages corresponding to each of the plurality of video segments,
Selecting a predetermined number of video segments in the order of the number of the chat messages among the plurality of video segments, detecting the highlight events,
Wherein the first highlight event is a first highlight event among consecutive highlight events among the highlight events and corrects the consecutive highlight events as one highlight event,
Wherein the header of the highlight event is configured to stem the chat message associated with the highlight event of the stored chat message and to generate a title of the highlight event based on the most frequently occurring noun in the chat message associated with the highlight event.
A server that automatically generates titles for video content.
통신망을 통해 사용자 단말과 통신하며 서버에서 수행되는 동영상 컨텐츠의 제목을 자동으로 생성하는 방법으로서,
상기 사용자 단말로부터, 상기 동영상 컨텐츠와 연관되는 적어도 하나의 채팅 메시지를 수신하는 단계;
상기 동영상 컨텐츠를 소정의 시간 윈도우를 가지는 복수의 동영상 세그멘트로 나누는 단계;
상기 사용자 단말로부터 수신한 적어도 하나의 채팅 메시지를 분석하여, 상기 복수의 동영상 세그멘트 각각에 대응하는 채팅 메시지의 횟수를 결정하는 단계;
상기 복수의 동영상 세그멘트 중 채팅 메시지의 횟수가 높은 순서로 소정의 수의 동영상 세그멘트들을 선택하여, 하이라이트 이벤트들을 검출하는 단계;
상기 하이라이트 이벤트들 중 인접한 시간 윈도우에 연속하는 하이라이트 이벤트들 중 가장 첫번째 하이라이트 이벤트만을 마킹하여, 상기 연속하는 하이라이트 이벤트들을 하나의 하이라이트 이벤트로 보정하는 단계; 및
상기 사용자 단말로부터 전송되는 적어도 하나의 채팅 메시지 중 상기 하이라이트 이벤트와 연관된 채팅 메시지를 형태소 분석하여, 상기 하이라이트 이벤트와 연관된 채팅 메시지에서 가장 자주 나오는 명사에 기초하여 상기 하이라이트 이벤트의 제목을 생성하는 단계
를 포함하는, 동영상 컨텐츠의 제목을 자동으로 생성하는 방법.
A method of automatically generating a title of a moving picture content to be communicated to a user terminal through a communication network and performed by a server,
Receiving, from the user terminal, at least one chat message associated with the moving picture content;
Dividing the moving picture content into a plurality of moving picture segments having a predetermined time window;
Analyzing at least one chat message received from the user terminal and determining a number of chat messages corresponding to each of the plurality of video segments;
Selecting a predetermined number of video segments in descending order of the number of chat messages among the plurality of video segments, and detecting highlight events;
Marking only the first highlight event among consecutive highlight events among the highlight events and correcting the consecutive highlight events as one highlight event; And
Generating a title of the highlight event based on the most frequently occurring noun in the chat message associated with the highlight event, by stemming a chat message associated with the highlight event among at least one chat message transmitted from the user terminal
And automatically generating a title of the moving picture content.
삭제delete 삭제delete 제2항에 있어서,
상기 동영상 컨텐츠의 재생 시간과 상기 동영상 컨텐츠와 연관된 채팅 메시지 간의 시간 차이를 보정하는 단계를 포함하는 동영상 컨텐츠의 제목을 자동으로 생성하는 방법.
3. The method of claim 2,
And correcting a time difference between the playback time of the moving image content and a chat message associated with the moving image content.
제2항에 있어서,
상기 하이라이트 이벤트에 대해 제목을 생성하는 단계는
4개의 문장 템플릿을 정의하는 단계 - 상기 4개의 문장 템플릿은 두 개 또는 세 개의 단어 묶음(bag)이거나, 구절, 또는 주어, 동사, (목적어)가 포함되는 완벽한 문장임 -;
상기 하이라이트 이벤트와 연관된 채팅 메시지를 형태소 분석하여 각각의 토큰에 단어 클래스로 태깅하고, 상기 태깅된 토큰에 워드2벡 모델(Word2Vec model)을 적용하여 단어들의 묶음을 생성하는 단계; 및
상기 생성된 묶음의 단어들을 조합하여 제목을 생성하는 단계;
를 포함하는 동영상 컨텐츠의 제목을 자동으로 생성하는 방법.
3. The method of claim 2,
The step of generating a title for the highlight event
Defining four sentence templates, wherein said four sentence templates are complete sentences comprising two or three word bags, phrases, or subject, verb, (object);
Morphing a chat message associated with the highlight event, tagging each token with a word class, and applying a Word2Vec model to the tagged token to generate a bundle of words; And
Generating a title by combining words of the generated bundle;
The title of the moving picture content including the title of the moving picture is automatically generated.
하나 이상의 명령어가 수록된 컴퓨터 판독가능 기록 매체로서, 상기 하나 이상의 명령어는 컴퓨터에 의해 실행될 경우 상기 컴퓨터로 하여금 제2항 및 제5항 내지 제6항 중 어느 한 항에 따른 방법을 수행하도록 하는, 컴퓨터 판독가능 기록 매체. A computer-readable medium having stored thereon one or more instructions for causing the computer to perform the method according to any of claims 2 and 5 to 6 when executed by the computer. Readable recording medium.
KR1020170135538A 2017-10-19 2017-10-19 Apparatus, method for auto generating a title of video contents, and computer readable recording medium KR101916874B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170135538A KR101916874B1 (en) 2017-10-19 2017-10-19 Apparatus, method for auto generating a title of video contents, and computer readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170135538A KR101916874B1 (en) 2017-10-19 2017-10-19 Apparatus, method for auto generating a title of video contents, and computer readable recording medium

Publications (1)

Publication Number Publication Date
KR101916874B1 true KR101916874B1 (en) 2018-11-08

Family

ID=64329982

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170135538A KR101916874B1 (en) 2017-10-19 2017-10-19 Apparatus, method for auto generating a title of video contents, and computer readable recording medium

Country Status (1)

Country Link
KR (1) KR101916874B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110399526A (en) * 2019-07-26 2019-11-01 腾讯科技(深圳)有限公司 Generation method, device and the computer readable storage medium of video title
CN113378000A (en) * 2021-07-06 2021-09-10 北京奇艺世纪科技有限公司 Video title generation method and device
CN113923488A (en) * 2021-09-15 2022-01-11 青岛海信网络科技股份有限公司 Bus, video flow control method and storage medium
KR20220048248A (en) * 2020-10-12 2022-04-19 금오공과대학교 산학협력단 Voice data set building method based on subject domain, Voice data set building system based on subject domain, and computer program therefor
CN114979054A (en) * 2022-05-13 2022-08-30 维沃移动通信有限公司 Video generation method and device, electronic equipment and readable storage medium
CN116055825A (en) * 2023-01-10 2023-05-02 湖南快乐阳光互动娱乐传媒有限公司 Method and device for generating video title
KR20240025414A (en) 2022-08-18 2024-02-27 주식회사 스톡폴리오 Contents sales brokerage system providing editing function for content for sale and method of operating the same
KR20240026788A (en) 2022-08-22 2024-02-29 주식회사 스톡폴리오 Video content keyword tagging system and video content keyword tagging method using the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004159192A (en) * 2002-11-07 2004-06-03 Nippon Telegr & Teleph Corp <Ntt> Video image summarizing method, program, and storage medium for storing video image summarizing program
JP5896900B2 (en) * 2010-11-30 2016-03-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Content management apparatus, content management method, content management program, and integrated circuit

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004159192A (en) * 2002-11-07 2004-06-03 Nippon Telegr & Teleph Corp <Ntt> Video image summarizing method, program, and storage medium for storing video image summarizing program
JP5896900B2 (en) * 2010-11-30 2016-03-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Content management apparatus, content management method, content management program, and integrated circuit

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110399526A (en) * 2019-07-26 2019-11-01 腾讯科技(深圳)有限公司 Generation method, device and the computer readable storage medium of video title
CN110399526B (en) * 2019-07-26 2023-02-28 腾讯科技(深圳)有限公司 Video title generation method and device and computer readable storage medium
KR20220048248A (en) * 2020-10-12 2022-04-19 금오공과대학교 산학협력단 Voice data set building method based on subject domain, Voice data set building system based on subject domain, and computer program therefor
KR102413514B1 (en) * 2020-10-12 2022-06-24 금오공과대학교 산학협력단 Voice data set building method based on subject domain
CN113378000A (en) * 2021-07-06 2021-09-10 北京奇艺世纪科技有限公司 Video title generation method and device
CN113378000B (en) * 2021-07-06 2023-09-05 北京奇艺世纪科技有限公司 Video title generation method and device
CN113923488A (en) * 2021-09-15 2022-01-11 青岛海信网络科技股份有限公司 Bus, video flow control method and storage medium
CN113923488B (en) * 2021-09-15 2024-04-16 青岛海信网络科技股份有限公司 Bus, video flow control method and storage medium
CN114979054A (en) * 2022-05-13 2022-08-30 维沃移动通信有限公司 Video generation method and device, electronic equipment and readable storage medium
KR20240025414A (en) 2022-08-18 2024-02-27 주식회사 스톡폴리오 Contents sales brokerage system providing editing function for content for sale and method of operating the same
KR20240026788A (en) 2022-08-22 2024-02-29 주식회사 스톡폴리오 Video content keyword tagging system and video content keyword tagging method using the same
CN116055825A (en) * 2023-01-10 2023-05-02 湖南快乐阳光互动娱乐传媒有限公司 Method and device for generating video title

Similar Documents

Publication Publication Date Title
KR101916874B1 (en) Apparatus, method for auto generating a title of video contents, and computer readable recording medium
US11438637B2 (en) Computerized system and method for automatic highlight detection from live streaming media and rendering within a specialized media player
US11956516B2 (en) System and method for creating and distributing multimedia content
US9438850B2 (en) Determining importance of scenes based upon closed captioning data
US20150319510A1 (en) Interactive viewing experiences by detecting on-screen text
EP2978232A1 (en) Method and device for adjusting playback progress of video file
US7904452B2 (en) Information providing server, information providing method, and information providing system
EP3326379A1 (en) Media production system with scheduling feature
CN109558513B (en) Content recommendation method, device, terminal and storage medium
US9794638B2 (en) Caption replacement service system and method for interactive service in video on demand
US9635337B1 (en) Dynamically generated media trailers
CN110287375B (en) Method and device for determining video tag and server
CN111263186A (en) Video generation, playing, searching and processing method, device and storage medium
AU2014259879B2 (en) Interactive viewing experiences by detecting on-screen text
US10694222B2 (en) Generating video content items using object assets
CN114845149B (en) Video clip method, video recommendation method, device, equipment and medium
CN107566906A (en) A kind of video comments processing method and processing device
JP5857449B2 (en) Image processing apparatus and recording apparatus
US20230421859A1 (en) Systems and methods for recommending content using progress bars
US9762950B1 (en) Automatic generation of network pages from extracted media content
CN113965798A (en) Video information generating and displaying method, device, equipment and storage medium
CN106815288A (en) A kind of video related information generation method and its device
CN118474479A (en) Video segment interception method, device, equipment and medium
CN115909122A (en) Video processing method and device, electronic equipment and readable storage medium
EP2979227B1 (en) Interactive viewing experiences by detecting on-screen text

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant