KR20210074734A - System and Method for Extracting Keyword and Ranking in Video Subtitle - Google Patents

System and Method for Extracting Keyword and Ranking in Video Subtitle Download PDF

Info

Publication number
KR20210074734A
KR20210074734A KR1020190165757A KR20190165757A KR20210074734A KR 20210074734 A KR20210074734 A KR 20210074734A KR 1020190165757 A KR1020190165757 A KR 1020190165757A KR 20190165757 A KR20190165757 A KR 20190165757A KR 20210074734 A KR20210074734 A KR 20210074734A
Authority
KR
South Korea
Prior art keywords
keyword
video
ranking
analysis
extraction
Prior art date
Application number
KR1020190165757A
Other languages
Korean (ko)
Other versions
KR102281266B1 (en
Inventor
김진덕
이현섭
김민영
정건준
배수진
김경록
차인욱
유운식
김경욱
차주형
나보아
성은산
정준호
Original Assignee
동의대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동의대학교 산학협력단 filed Critical 동의대학교 산학협력단
Priority to KR1020190165757A priority Critical patent/KR102281266B1/en
Publication of KR20210074734A publication Critical patent/KR20210074734A/en
Application granted granted Critical
Publication of KR102281266B1 publication Critical patent/KR102281266B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/7857Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • G06K9/00744
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/57Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Acoustics & Sound (AREA)
  • Library & Information Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

The present invention relates to a system and a method for extracting keywords from subtitles in a video and calculating a keyword ranking which increase user search efficiency by keyword frequency analysis in the video and big data processing-based image analysis. The system comprises: a content input unit to input content for extracting keywords from subtitles in a video and calculating a keyword ranking; a cloud editing server providing support for extracting the keywords from the subtitles in the video and calculating the keyword ranking; and a keyword extraction and ranking calculation unit extracting the frequency of a word appearing in the video to build a ranking table with clip information for each section and provide a user with the ranking table. The keyword extraction and ranking calculation unit includes: a voice extraction module extracting a voice in the video; a subtitle extraction module extracting a subtitle in the video; a keyword extraction module using the voice and the subtitle extracted through the voice extraction module and the subtitle extraction module to perform keyword extraction; a keyword ranking module extracting the frequency of a word appearing in the video to build a ranking table with clip information for each section and provide the user with the ranking table to support searching; and a video analysis processing DB storing results of analyzing voices and subtitles in all created and stored videos.

Description

영상 내 자막 키워드 추출 및 순위 산정 시스템 및 방법{System and Method for Extracting Keyword and Ranking in Video Subtitle}System and Method for Extracting Keyword and Ranking in Video Subtitle}

본 발명은 영상 분석 및 키워드 분석 시스템에 관한 것으로, 구체적으로 영상 속 키워드 빈도수 분석 및 빅데이터 처리 기반 영상 분석으로 사용자 검색 효율성을 높인 영상 내 자막 키워드 추출 및 순위 산정 시스템 및 방법에 관한 것이다.The present invention relates to an image analysis and keyword analysis system, and more particularly, to a system and method for extracting and ranking caption keywords in an image that enhances user search efficiency by analyzing keyword frequency in images and analyzing big data processing-based images.

최근 유튜브, 웨이브, 넷플릭스 등 다양한 영상 제공 서비스가 사용자에게 제공되고 있다.Recently, various video service services such as YouTube, Wave, and Netflix are being provided to users.

많은 사용자가 CP(Content Provider)가 제작한 영상이나 방송, 영화 영상들을 위와 같은 서비스를 통해 시청하고 있다. 이러한 영상 제공 서비스들은 일반적으로 영상의 제목 및 영상을 설명하는 여러 가지 키워드를 통해 사용자의 영상 검색을 지원한다.Many users are watching videos, broadcasts, and movies produced by CP (Content Provider) through the above service. These image providing services generally support a user's image search through the title of the image and various keywords that describe the image.

이와 같이 종래 기술에서는 동영상 스트리밍 사이트에서 한 사용자가 자신이 원하는 동영상을 검색할 경우 영상을 업로드한 사용자가 사전에 입력한 정보(제목, 설명, 해시태그)를 기반으로 검색을 한다.As described above, in the prior art, when a user searches for a desired video on a video streaming site, a search is performed based on information (title, description, hashtag) previously input by the user who uploaded the video.

영상 검색을 수행하는 과정에서 단순 키워드 검색의 결과는 별도의 프레임 인덱스를 제공하지 않고 영상의 도입부를 통해 검색 결과를 제공하게 된다.In the process of performing an image search, a search result of a simple keyword search is provided through the introduction of an image without providing a separate frame index.

만약 영상의 길이가 길고 찾고자 하는 내용이 전체 콘텐츠의 일부일 경우에는 이러한 검색 결과 이후 별도의 검색 비용을 들여 사용자는 영상을 시청한다.If the length of the video is long and the content to be found is a part of the entire content, the user watches the video by paying a separate search cost after such a search result.

별도의 비용이란 필요한 영상 정보를 찾기 위하여 구간 탐색, 재생속도 제어 등의 기능을 통해 사용자가 원하는 장면을 탐색하는 과정에서 발생하는 시간 요소를 뜻하며 사용자는 원하는 영상 정보를 찾기 위한 부가적인 작업을 수행해야 하는 것을 의미한다.The extra cost refers to the time element that occurs in the process of searching for a scene desired by the user through functions such as section search and playback speed control in order to find the necessary video information, and the user must perform additional work to find the desired video information. means to do

따라서, 영상 내 키워드 추출 및 키워드 빈도수 분석을 통하여 사용자 검색 효율을 높이기 위한 새로운 기술의 개발이 요구되고 있다.Therefore, there is a demand for the development of a new technology to increase the user search efficiency through keyword extraction and keyword frequency analysis in the image.

대한민국 공개특허 제10-2019-0053587호Republic of Korea Patent Publication No. 10-2019-0053587 대한민국 공개특허 제10-2009-0075593호Republic of Korea Patent Publication No. 10-2009-0075593 대한민국 공개특허 제10-2011-00144403호Republic of Korea Patent Publication No. 10-2011-00144403

본 발명은 종래 기술의 영상 검색 기술의 문제점을 해결하기 위한 것으로, 영상 속 키워드 빈도수 분석 및 빅데이터 처리 기반 영상 분석으로 사용자 검색 효율성을 높인 영상 내 자막 키워드 추출 및 순위 산정 시스템 및 방법을 제공하는데 그 목적이 있다.The present invention is to solve the problems of the video search technology of the prior art, and to provide a system and method for extracting subtitle keywords and ranking in the video that enhances the user search efficiency by analyzing the frequency of keywords in the video and analyzing the big data processing-based video. There is a purpose.

본 발명은 영상 내에서 많이 발생한 정보를 기반으로 랭킹 시스템을 구축하여 사용자에게 정확한 영상 정보를 제공할 수 있도록 한 영상 내 자막 키워드 추출 및 순위 산정 시스템 및 방법을 제공하는데 그 목적이 있다.It is an object of the present invention to provide a system and method for extracting subtitle keywords and ranking in an image so that a ranking system can be built based on information that occurs a lot in an image to provide accurate image information to a user.

본 발명은 키워드 분석과 영상의 이미지 분석을 통해 사용자의 검색 결과의 정확도를 높여 효율적인 영상 검색을 수행할 수 있도록 한 영상 내 자막 키워드 추출 및 순위 산정 시스템 및 방법을 제공하는데 그 목적이 있다.It is an object of the present invention to provide a system and method for extracting subtitle keywords and ranking within an image so that an efficient image search can be performed by increasing the accuracy of a user's search result through keyword analysis and image analysis of an image.

본 발명은 영상에 나오는 단어의 빈도수를 추출하여 구간별 클립정보와 함께 랭킹 테이블을 구성하고 이를 사용자에게 제공하여 검색을 지원하고, 머신러닝을 통해 클립정보를 학습시키고 학습 영상을 사용자에게 제공하여 유사한 영상을 검색할 수 있도록 지원할 수 있도록 한 영상 내 자막 키워드 추출 및 순위 산정 시스템 및 방법을 제공하는데 그 목적이 있다.The present invention extracts the frequency of words appearing in an image to configure a ranking table with clip information for each section, provides it to the user to support search, learns clip information through machine learning, and provides a learning image to the user to provide similar An object of the present invention is to provide a system and method for extracting subtitle keywords and ranking within a video to support video search.

본 발명의 다른 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Other objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 영상 내 자막 키워드 추출 및 순위 산정 시스템은 영상 내 자막 키워드 추출 및 순위 산정을 위한 콘텐츠 입력을 위한 콘텐츠 입력부;영상 내 자막 키워드 추출 및 순위 산정하기 위한 지원을 하는 클라우드 편집 서버;영상에 나오는 단어의 빈도수를 추출하여 구간별 클립정보와 함께 랭킹 테이블을 구성하고 이를 사용자에게 제공하는 키워드 추출 및 순위 산정부;를 포함하고, 상기 키워드 추출 및 순위 산정부는, 영상 내 음성을 추출하는 음성 추출 모듈과, 영상 내 자막을 추출하는 자막 추출 모듈과, 음성 추출 모듈 및 자막 추출 모듈을 통하여 추출된 음성 및 자막을 이용하여 키워드 추출을 하는 키워드 추출 모듈과, 영상에 나오는 단어의 빈도수를 추출하여 구간별 클립정보와 함께 랭킹 테이블을 구성하고 이를 사용자에게 제공하여 검색을 지원하는 키워드 랭킹 모듈과, 제작 및 저장되는 모든 영상에서의 음성 및 자막을 분석한 결과를 저장하는 영상 분석 처리 DB를 포함하는 것을 특징으로 한다.In order to achieve the above object, the system for extracting and ranking subtitle keywords in an image according to the present invention is a content input unit for extracting subtitle keywords in an image and inputting content for ranking calculation; Support for extracting and ranking subtitle keywords in an image a cloud editing server that extracts the frequency of words in the image, constructs a ranking table with clip information for each section, and provides a keyword extraction and ranking calculation unit for providing it to the user; including, wherein the keyword extraction and ranking calculation unit comprises: A voice extraction module for extracting audio from an image, a subtitle extraction module for extracting subtitles within an image, a keyword extraction module for extracting keywords using the audio and subtitles extracted through the audio extraction module and the subtitle extraction module; A keyword ranking module that supports searches by extracting the frequency of words that appear and composing a ranking table with clip information for each section and providing it to users, and storing the results of analyzing audio and subtitles in all videos produced and saved It is characterized in that it includes an image analysis processing DB.

여기서, 상기 키워드 추출 및 순위 산정부는 영상 분석을 위한 구성으로, 영상 내 자막 키워드 추출 및 순위 산정 시스템에서 분석된 키워드를 토대로 학습 이미지를 추출하는 학습 이미지 추출 모듈과,추출된 이미지로 학습을 하는 영상 학습 모듈과,이미지 학습 결과를 이용하여 영상 분석을 수행하는 영상 분석 모듈과,영상 분석 모듈에서 분석된 결과를 제공하는 분석 결과 제공 모듈을 포함하는 것을 특징으로 한다.Here, the keyword extraction and ranking unit is a configuration for image analysis, and a learning image extraction module for extracting a learning image based on the keyword analyzed in the subtitle keyword extraction and ranking calculation system in the image, and an image for learning with the extracted image It is characterized in that it comprises a learning module, an image analysis module for performing image analysis using the image learning result, and an analysis result providing module for providing the result analyzed by the image analysis module.

그리고 학습 이미지 추출 모듈은, 사용자의 검색 패턴에 맞춘 영상 분석을 지원하기 위하여, 키워드 분류가 어려운 음성이 없고 자막이 프레임에 예속된 영상이나 제목 및 태그 분류만 이루어진 영상을 이미지 검색 대상을 하는 것을 특징으로 한다.And the learning image extraction module is characterized in that, in order to support image analysis tailored to the user's search pattern, the image search target is an image in which there is no sound that is difficult to categorize by keyword, or an image with subtitles attached to a frame or only title and tag classification do it with

그리고 키워드 추출 모듈은 키워드 추출을 위하여 형태소 분석을 하고, 형태소 분석은 공백을 기준으로 문장을 분석하는 구성, 조사를 단어와 함께 처리하는 구성, 형용사의 경우 추출 단어와 함께 그룹핑하여 처리하는 구성을 포함하는 것을 특징으로 한다.And the keyword extraction module performs morpheme analysis to extract keywords, and morpheme analysis includes a composition that analyzes sentences based on spaces, a composition that processes a search with words, and a composition that processes adjectives by grouping them together with the extracted words. characterized in that

그리고 키워드 랭킹 모듈에서 키워드 빈도수 분석을 위하여, 사용자 클러스터링에 필요한 딥러닝의 반복 연산과 업로드되는 영상에 대한 실시간 처리를 위해 빅데이터 플랫폼 중 스파크를 사용하는 것을 특징으로 한다.And for keyword frequency analysis in the keyword ranking module, it is characterized by using Spark among big data platforms for iterative calculation of deep learning required for user clustering and real-time processing of uploaded images.

그리고 키워드 랭킹 모듈은 키워드 빈도수 분석을 위하여 빈도수 분석 모듈을 포함하고, 빈도수 분석 모듈은, 영상 자막파일에서 핵심키워드를 추출하는 작업을 하여 추출된 키워드 데이터들을 키워드 분석부(Keyword analysis)의 저장부(Storage)에 저장하는 키워드 추출부와,저장부에 저장된 키워드 데이터들을 기반으로 키워드 빈도수 분석작업과 특정 키워드에 대해 빈도수가 많은 순으로 영상을 랭킹화 하는 작업을 수행하는 키워드 분석부(Keyword analysis)를 포함하는 것을 특징으로 한다.And the keyword ranking module includes a frequency analysis module for keyword frequency analysis, and the frequency analysis module extracts key keywords from the video subtitle file and stores the extracted keyword data in the storage unit ( Storage), a keyword analysis unit that performs keyword frequency analysis based on the keyword data stored in the storage unit, and ranks images in the order of the highest frequency for a specific keyword. characterized by including.

그리고 키워드 분석부(Keyword analysis)는 Spark 기반 클러스터로 구축되어 키워드 빈도수 분석 작업과 랭킹화 작업을 여러 대의 서버에서 병렬처리하는 것을 특징으로 한다.In addition, the keyword analysis unit (Keyword analysis) is built in a Spark-based cluster, and it is characterized by parallel processing of keyword frequency analysis work and ranking work on multiple servers.

그리고 영상 분석 처리 DB에 저장되는 영상 분석 결과의 정확도를 높이기 위하여, 텐서플로우(Tensorflow)를 활용하여 비디오를 시청한 사용자의 정보를 분석하여 성별,나이,관심 분야, 학과, 사용자 로그 파일의 정보를 토대로 사용자를 여러 그룹으로 나누는 구성을 포함하는 것을 특징으로 한다.And in order to increase the accuracy of the image analysis result stored in the image analysis processing DB, Tensorflow is used to analyze the information of the user who watched the video, and the information of gender, age, field of interest, department, and user log file It is characterized in that it includes a configuration that divides the user into several groups based on it.

그리고 텐서플로우를 이용한 비디오 사용자 분석을 위한 클러스터링을 위하여, 사용자가 영상 플랫폼에 회원 가입시 입력, 선택하는 정보들과 이러한 사용자가 영상을 시청하면서 기록되는 로그 데이터들을 추출하는 사용자 추출부와, 사용자 추출부에서 추출된 속성들을 DataFrame으로 읽어 행렬 배열의 형식으로 바꾸어, 속성들 중 value가 문자열인 경우 각 value들을 수치화시키고, 서로 연관이 있는 value들은 가까이, 연관이 먼 value들은 먼 위치에 선정되도록 수치화하는 사용자 수치화부를 더 포함하는 것을 특징으로 한다.And for clustering for video user analysis using TensorFlow, a user extractor that extracts information input and selected by a user when a user joins a video platform and log data recorded while the user watches an image, and a user extractor A user who reads the properties extracted from the DataFrame into a DataFrame and converts them into a matrix array format to quantify each value if the value of the properties is a string, and to quantify so that values that are related to each other are selected near and distant values are selected It is characterized in that it further comprises a digitization unit.

다른 목적을 달성하기 위한 본 발명에 따른 영상 내 자막 키워드 추출 및 순위 산정 방법은 영상 내 자막 키워드 추출 및 순위 산정을 위한 콘텐츠 입력을 위한 콘텐츠 입력 단계;영상 내 음성을 추출하는 음성 추출 단계 및 영상 내 자막을 추출하는 자막 추출 단계;음성 추출 단계 및 자막 추출 단계를 통하여 추출된 음성 및 자막을 이용하여 키워드 추출을 하는 키워드 추출 단계;영상에 나오는 단어의 빈도수를 추출하여 구간별 클립정보와 함께 랭킹 테이블을 구성하고 이를 사용자에게 제공하여 검색을 지원하는 키워드 랭킹 단계;제작 및 저장되는 모든 영상에서의 음성 및 자막을 분석한 결과를 저장하는 단계;를 포함하는 것을 특징으로 한다.In accordance with the present invention for achieving another object, there is provided a method for extracting caption keywords in an image and calculating a ranking. A content input step for extracting caption keywords in a video and inputting content for ranking calculation; a voice extraction step of extracting a voice in the video and a video A caption extraction step of extracting subtitles; A keyword extraction step of extracting keywords using the audio and subtitles extracted through the audio extraction step and the caption extraction step; A ranking table with clip information for each section by extracting the frequency of words in the video and a keyword ranking step to support a search by configuring it and providing it to a user; storing the results of analyzing the audio and subtitles in all produced and stored videos; characterized in that it comprises a.

여기서, 키워드 랭킹 단계에서 키워드 빈도수 분석 빅데이터 처리 함수 구축을 위한 빈도수 분석 과정으로, 키워드 빈도수 분석을 위하여 자막 키워드 추출 파일의 한 행을 읽어오는 단계와,키워드 추출 파일을 다 읽었는지 판단하고, 아니면 키워드 별로 그룹화를 하는 단계와,그룹 별 키워드 개수를 카운트하고 분석된 결과 파일을 HDFS에 저장하여 영상 키워드 빈도수 분석을 하고, 이 과정을 모든 키워드 추출 파일을 다 읽어올때까지 수행하는 단계를 포함하는 것을 특징으로 한다.Here, as a frequency analysis process for constructing a keyword frequency analysis big data processing function in the keyword ranking step, a step of reading one line of the subtitle keyword extraction file for keyword frequency analysis, determining whether the keyword extraction file has been read, or Grouping by keyword, counting the number of keywords for each group, storing the analyzed result file in HDFS, analyzing the frequency of video keywords, and performing this process until all keyword extraction files are read characterized.

그리고 키워드 랭킹 단계에서 키워드 빈도수 분석 빅데이터 처리 함수 구축을 위한 키워드 랭킹 과정으로, 키워드 랭키화를 위하여 결과 파일을 읽어오는 단계와,모든 결과 파일을 읽어 온 것인지 판단을 하는 단계와,모든 결과 파일을 읽어 온 것이 아니면, 결과 파일을 데이터 프레임으로 만들고, 랭킹 기준이 되는 키워드로 필터링을 하고, 유니온 연산을 사용하여 하나의 데이터 프레임을 만드는 과정을 모든 결과 파일을 읽어올때까지 수행하는 단계와,모든 결과 파일을 읽어 온 것이면, 내림 차순 정렬 및 랭킹화된 결과 파일을 HDFS에 저장을 하는 과정을 수행하여 영상 키워드 랭킹화 작업을 수행하는 단계를 포함하는 것을 특징으로 한다.And in the keyword ranking step, as a keyword ranking process for constructing a keyword frequency analysis big data processing function, the step of reading the result file for keyword ranking, the step of judging whether all result files have been read, and all the result files If it is not read, the process of making the result file into a data frame, filtering with keywords as the ranking criterion, and creating one data frame using union operation until all result files are read; If the file has been read, it is characterized in that it includes the step of performing the image keyword ranking operation by performing the process of storing the sorted and ranked result files in a descending order in HDFS.

이상에서 설명한 바와 같은 본 발명에 따른 영상 내 자막 키워드 추출 및 순위 산정 시스템 및 방법은 다음과 같은 효과가 있다.As described above, the system and method for extracting caption keywords in an image and calculating a ranking according to the present invention have the following effects.

첫째, 영상 속 키워드 빈도수 분석 및 빅데이터 처리 기반 영상 분석으로 사용자 검색 효율성을 높인다.First, it improves user search efficiency by analyzing the frequency of keywords in the video and analyzing big data processing-based images.

둘째, 영상 내에서 많이 발생한 정보를 기반으로 랭킹 시스템을 구축하여 사용자에게 정확한 영상 정보를 제공할 수 있도록 한다.Second, a ranking system is built based on the information generated a lot in the video so that accurate video information can be provided to the user.

셋째, 키워드 분석과 영상의 이미지 분석을 통해 사용자의 검색 결과의 정확도를 높여 효율적인 영상 검색을 수행할 수 있도록 한다.Third, through keyword analysis and image analysis of images, the accuracy of the user's search results is increased to enable efficient image search.

넷째, 영상에 나오는 단어의 빈도수를 추출하여 구간별 클립정보와 함께 랭킹 테이블을 구성하고 이를 사용자에게 제공하여 검색을 지원하고, 머신러닝을 통해 클립정보를 학습시키고 학습 영상을 사용자에게 제공하여 유사한 영상을 검색할 수 있도록 지원할 수 있도록 한다.Fourth, by extracting the frequency of words in the video, a ranking table is constructed along with clip information for each section, and it is provided to users to support search, and clip information is learned through machine learning and learning images are provided to users for similar videos. to support you in your search.

도 1a와 도 1b는 본 발명에 따른 영상 내 자막 키워드 추출 및 순위 산정 시스템의 구성도
도 2a와 도 2b는 관계에 따른 한글과 영어의 형태소 분석을 나타낸 구성도
도 3a와 도 3b는 키워드 분석 결과 테이블 및 키워드 분석 결과와 빈도 수 카운팅 결과를 나타낸 구성도
도 4는 클러스터 환경에서의 영상 속 키워드 빈도수 분석을 위한 시스템 구성도
도 5는 Input Data 파일(CSV 형식) 구성도
도 6은 텐서플로우를 이용한 비디오 사용자 분석을 위한 클러스터링을 위한 시스템 구성도
도 7은 본 발명에 따른 자막 키워드 추출 및 랭킹 과정의 전체 구성도
도 8a와 도 8b는 키워드 빈도수 분석 빅데이터 처리 함수 구축을 위한 빈도수 분석 과정 및 키워드 랭킹 과정을 나타낸 플로우 차트
1A and 1B are block diagrams of a system for extracting subtitle keywords and calculating rankings in an image according to the present invention;
2A and 2B are diagrams showing morpheme analysis of Korean and English according to the relationship
3A and 3B are block diagrams showing a keyword analysis result table, a keyword analysis result, and a frequency counting result;
4 is a system configuration diagram for analyzing the frequency of keywords in an image in a cluster environment.
5 is an input data file (CSV format) configuration diagram
6 is a system configuration diagram for clustering for video user analysis using TensorFlow.
7 is an overall configuration diagram of a subtitle keyword extraction and ranking process according to the present invention.
8A and 8B are flowcharts showing a frequency analysis process and a keyword ranking process for constructing a keyword frequency analysis big data processing function

이하, 본 발명에 따른 영상 내 자막 키워드 추출 및 순위 산정 시스템 및 방법의 바람직한 실시 예에 관하여 상세히 설명하면 다음과 같다.Hereinafter, a preferred embodiment of the system and method for extracting caption keywords in an image and calculating a ranking according to the present invention will be described in detail as follows.

본 발명에 따른 영상 내 자막 키워드 추출 및 순위 산정 시스템 및 방법의 특징 및 이점들은 이하에서의 각 실시 예에 대한 상세한 설명을 통해 명백해질 것이다.Features and advantages of the system and method for extracting caption keywords and ranking in a video according to the present invention will become apparent through the detailed description of each embodiment below.

도 1a와 도 1b는 본 발명에 따른 영상 내 자막 키워드 추출 및 순위 산정 시스템의 구성도이다.1A and 1B are block diagrams of a system for extracting caption keywords in an image and calculating a ranking according to the present invention.

본 발명은 영상 속 키워드 빈도수 분석 및 빅데이터 처리 기반 영상 분석으로 사용자 검색 효율성을 높인 것으로, 영상 내에서 많이 발생한 정보를 기반으로 랭킹 시스템을 구축하여 사용자에게 정확한 영상 정보를 제공하고, 키워드 분석과 영상의 이미지 분석을 통해 사용자의 검색 결과의 정확도를 높여 효율적인 영상 검색을 수행할 수 있도록 한 것이다.The present invention improves user search efficiency by analyzing keyword frequency in video and big data processing-based video analysis, and provides accurate video information to users by building a ranking system based on information generated a lot in video, and provides keyword analysis and video This is to enable efficient image search by increasing the accuracy of the user's search results through image analysis.

특히, 본 발명은 영상에 나오는 단어의 빈도수를 추출하여 구간별 클립정보와 함께 랭킹 테이블을 구성하고 이를 사용자에게 제공하여 검색을 지원하고, 머신러닝을 통해 클립정보를 학습시키고 학습 영상을 사용자에게 제공하여 유사한 영상을 검색할 수 있도록 지원할 수 있도록 한 것이다.In particular, the present invention extracts the frequency of words appearing in an image to configure a ranking table with clip information for each section and provides it to the user to support the search, learns clip information through machine learning, and provides the learning image to the user This was done to support the search for similar images.

이를 위하여 본 발명은 사용자가 영상의 내용까지 검색할 수 있도록 하고, 동영상 스트리밍 사이트 사용자가 원하는 클립 영상을 확인할 수 있도록 하여 검색 시간을 단축할 수 있도록 하는 구성을 포함할 수 있다.To this end, the present invention may include a configuration that enables a user to search for the contents of an image and shortens a search time by allowing a user of a video streaming site to check a desired clip image.

본 발명은 핵심 키워드 추출을 위한 사전 작업할 때 필요 없는 단어 제거 기능 포함(한국어에서는 조사(助詞)를 제거), 자주 검색되는 키워드들은 출현 빈도수에 따라 순위가 측정, 측정된 순위에 따라 키워드 내용을 포함하는 지점들을 섬네일과 함께 표시하여 해당 섬네일을 클릭할 때 그 부분부터 영상이 재생되도록 하는 구성을 포함할 수 있다.The present invention includes a function to remove unnecessary words when working on a dictionary for extracting key keywords (remove the proposition in Korean), and the frequently searched keywords are ranked according to the frequency of appearance, and the keyword content is determined according to the measured ranking. It may include a configuration in which the included points are displayed together with the thumbnail so that when the corresponding thumbnail is clicked, the image is played from that part.

도 1a는 본 발명에 따른 영상 내 자막 키워드 추출 및 순위 산정 시스템에서 키워드 분석을 위한 것으로, 콘텐츠 입력부(100), 영상 내 자막 키워드 추출 및 순위 산정하기 위한 지원을 하는 클라우드 편집 서버(200), 키워드 추출 및 순위 산정부(300)를 포함한다.Figure 1a is for keyword analysis in the subtitle keyword extraction and ranking system in the video according to the present invention, the content input unit 100, the cloud editing server 200 that supports for extracting and ranking the subtitle keyword in the video, keywords It includes an extraction and ranking unit 300 .

여기서, 키워드 추출 및 순위 산정부(300)는 영상 내 음성을 추출하는 음성 추출 모듈(31)과, 영상 내 자막을 추출하는 자막 추출 모듈(32)과, 음성 추출 모듈(31) 및 자막 추출 모듈(32)을 통하여 추출된 음성 및 자막을 이용하여 키워드 추출을 하는 키워드 추출 모듈(33)과, 영상에 나오는 단어의 빈도수를 추출하여 구간별 클립정보와 함께 랭킹 테이블을 구성하고 이를 사용자에게 제공하여 검색을 지원하는 키워드 랭킹 모듈(34)과, 제작 및 저장되는 모든 영상에서의 음성 및 자막을 분석한 결과를 저장하는 영상 분석 처리 DB(35)를 포함한다.Here, the keyword extraction and ranking calculating unit 300 includes an audio extraction module 31 for extracting audio from an image, a caption extraction module 32 for extracting a caption within an image, an audio extraction module 31 and a caption extraction module A keyword extraction module 33 that extracts keywords using the audio and subtitles extracted through 32, and a ranking table with clip information for each section by extracting the frequency of words in the video and providing it to the user It includes a keyword ranking module 34 for supporting search, and an image analysis processing DB 35 for storing audio and subtitle analysis results in all images produced and stored.

이와 같은 키워드 분석은 빅데이터 영상 분석 기법으로 영상의 음성 정보와 자막 파일을 분석하여 가장 빈번하게 발생한 키워드를 레벨링 하여 영상 분석에 활용하는 것이다.This keyword analysis is a big data image analysis technique that analyzes audio information and subtitle files of an image to level the most frequently occurring keywords and utilize them for image analysis.

영상 정보뿐만 아니라 영상의 핵심 되는 정보는 일반적으로 강의자의 음성 또는 자막 정보를 통해 나타나므로 분석 키워드를(음성, 자막)으로 구성한다.As the core information of the video as well as the video information is generally shown through the lecturer's voice or subtitle information, analysis keywords (voice, subtitles) are composed.

그리고 도 1b는 본 발명에 따른 영상 내 자막 키워드 추출 및 순위 산정 시스템에서 분석된 키워드를 토대로 학습 이미지를 추출하고, 추출된 이미지로 영상 분석을 수행하는 구성을 나타낸 것이다.And Figure 1b shows a configuration of extracting a learning image based on the keyword analyzed in the subtitle keyword extraction and ranking system in the image according to the present invention, and performing image analysis with the extracted image.

영상 분석을 위한 구성으로, 영상 내 자막 키워드 추출 및 순위 산정 시스템에서 분석된 키워드를 토대로 학습 이미지를 추출하는 학습 이미지 추출 모듈(36)과, 추출된 이미지로 학습을 하는 영상 학습 모듈(37)과, 이미지 학습 결과를 이용하여 영상 분석을 수행하는 영상 분석 모듈(38)과, 영상 분석 모듈(38)에서 분석된 결과를 제공하는 분석 결과 제공 모듈(39)을 포함한다.As a configuration for image analysis, a learning image extraction module 36 for extracting a learning image based on the keyword analyzed in the subtitle keyword extraction and ranking system in the image, and a video learning module 37 for learning with the extracted image, , an image analysis module 38 that performs image analysis using the image learning result, and an analysis result providing module 39 that provides the result analyzed by the image analysis module 38 .

영상 분석은 일정 수준 이상의 영상 데이터가 구축된 단계에서 적용할 수 있으며 초기 단계 구축된 영상 분석 처리 DB의 키워드 정보를 토대로 학습 영상을 추출하여 학습을 수행한다.Image analysis can be applied at a stage where image data of a certain level or higher is established, and learning is performed by extracting a learning image based on keyword information of the image analysis processing DB constructed in the initial stage.

이후 딥러닝을 활용하여 Video 영상 학습 수행하고 유사 이미지 검색 기법을 통한 이미지를 검색한다.After that, video image learning is performed using deep learning and images are searched through similar image search techniques.

이미지 검색 대상은 키워드 분류가 어려운 영상 즉, 음성이 없고 자막이 프레임에 예속된 영상이나 제목 및 태그 분류만 이루어진 영상을 대상으로 한다.The image search target is an image for which keyword classification is difficult, that is, an image with no audio and subtitles attached to a frame or an image with only title and tag classification.

그 이유는 모든 영상 패턴을 추출할 경우 분석 시스템에 상당한 자원 부하가 발생하므로 사용자의 검색 패턴에 맞춘 영상 분석을 지원하여 시스템의 자원 비용을 최적화하기 위한 것이다.The reason is to optimize the resource cost of the system by supporting image analysis tailored to the user's search pattern, since a significant resource load occurs on the analysis system when all image patterns are extracted.

이와 같은 본 발명에 따른 영상 내 자막 키워드 추출 및 순위 산정 시스템 및 방법에서는 효율적인 영상 분석 및 검색 결과를 제공하기 위하여, 키워드 분석을 위한 단어 및 형태소 추출 구성을 포함한다.In order to provide efficient image analysis and search results, the system and method for extracting and ranking caption keywords in an image according to the present invention include a configuration of extracting words and morphemes for keyword analysis.

도 2a와 도 2b는 관계에 따른 한글과 영어의 형태소 분석을 나타낸 구성도이다.2A and 2B are diagrams illustrating morpheme analysis of Hangul and English according to the relationship.

형태소란 의미가 있는 최소 단위로 정의된다.A morpheme is defined as the smallest unit with meaning.

형태소를 분석하면 전체 문장 및 문맥에서 전달하고자 하는 내용을 쉽게 이해할 수 있다.If you analyze the morphemes, you can easily understand the content you want to convey in the entire sentence and context.

영어 단어의 경우 단어별 추출이 쉽게 이루어지지만, 한글의 경우 부사, 조사, 형용사, 문맥에서 사용하는 반어법 등 다양한 요소들로 인해 정확한 추출 및 의미 분석이 어렵다.In the case of English words, it is easy to extract each word, but in the case of Korean, it is difficult to accurately extract and analyze its meaning due to various factors such as adverbs, investigations, adjectives, and irony used in context.

본 발명은 이와 같은 문제를 해결하여 키워드 분석을 위한 추출 및 의미 분석을 효율적으로 수행하기 위한 키워드 추출 알고리즘에 대하여 제안한다.The present invention proposes a keyword extraction algorithm for efficiently performing extraction and semantic analysis for keyword analysis by solving such a problem.

형태소를 분석하는 기준으로 계열 관계와 통합 관계가 있는데 계열 관계는 종적인 것으로서 그 자리에 다른 형태소가 대치될 수 있는가를 따지는 것이고 통합 관계는 횡적인 것으로서 그 형태소가 다른 형태소와 결합할 수 있는가를 고려하는 것이다.As the criteria for analyzing morphemes, there are series relation and integration relation. The series relation is vertical, which determines whether another morpheme can be replaced in its place, and the integration relation is horizontal, which considers whether the morpheme can be combined with other morphemes.

이 가운데 형태소 분석에서 더 중요한 역할을 담당하는 것은 계열 관계이고 계열 관계만으로도 형태소 자격을 부여할 수 있다.Among them, the series relationship plays a more important role in the morpheme analysis, and only the series relationship can give morpheme qualifications.

형태소를 분석하면 영상의 자막을 이해하여 현재 화면에서 전달하고자 하는 의미를 정확하게 판단할 수 있고 사용자에게 이를 제공하여 원치 않은 전체 영상이 아닌 현재 필요한 클립 구간을 제공할 수 있는 요소가 된다.By analyzing the morphemes, it is possible to accurately determine the meaning to be conveyed on the current screen by understanding the subtitles of the image, and by providing this to the user, it becomes an element that can provide the currently necessary clip section rather than the entire unwanted image.

이는 이미지 분석을 통한 영상 처리 수행에 들어가는 자원 비용 및 API 비용을 효율적으로 낮출 수 있어 영상 분석 분야에 활용할 수 있는 영역이라고 볼 수 있다.This can be seen as an area that can be utilized in the image analysis field as it can efficiently lower the resource cost and API cost for performing image processing through image analysis.

도 3a와 도 3b는 키워드 분석 결과 테이블 및 키워드 분석 결과와 빈도 수 카운팅 결과를 나타낸 구성도이다.3A and 3B are block diagrams showing a keyword analysis result table, a keyword analysis result, and a frequency counting result.

본 발명은 형태소 분석을 위해 사용된 알고리즘으로 공백을 기준으로 문장을 분석하는 구성에 더하여 조사는 단어와 함께 처리하였으며 형용사의 경우 추출 단어와 함께 그룹핑하여 처리하는 구성을 포함한다.The present invention is an algorithm used for morpheme analysis, and in addition to the configuration of analyzing sentences based on spaces, the investigation is processed with words, and in the case of adjectives, it includes a configuration of processing by grouping together with the extracted words.

이를 활용하여 특정 문장의 정보를 분석하고 추출한 결과는 도 3a에서와 같고, 형태소 분석의 결과와 빈도수를 계산한 결과는 도 3b에서와 같다.The result of analyzing and extracting information of a specific sentence using this is the same as in FIG. 3A , and the result of morphological analysis and calculating the frequency are the same as in FIG. 3B .

본 발명은 키워드 빈도수 분석의 효율성을 높이기 위하여 다음과 같이, 클러스터 환경에서의 영상 속 키워드 빈도수 분석을 위한 구성을 포함한다.In order to increase the efficiency of keyword frequency analysis, the present invention includes a configuration for analyzing keyword frequency in an image in a cluster environment as follows.

도 4는 클러스터 환경에서의 영상 속 키워드 빈도수 분석을 위한 시스템 구성도이다.4 is a system configuration diagram for analyzing the frequency of keywords in an image in a cluster environment.

대용량의 데이터를 처리하기 위해 맵리듀스를 이용한 Apache Hadoop이 많이 사용되는데, 최근 늘어난 영상 제공 사이트에서 실시간으로 늘어나는 영상을 검색하기 위해서는 일괄처리 방식인 Apache Hadoop보다는 메모리상에서 데이터를 처리하는 Apache Spark가 더 많은 이점을 가지고 있다.Apache Hadoop using MapReduce is used a lot to process large amounts of data. In order to search for images that increase in real time from the recently increased image providing sites, Apache Spark, which processes data in memory, is more useful than Apache Hadoop, which is a batch processing method. have an advantage

본 발명에서는 영상의 키워드 빈도수 분석을 Apache Spark로 구축된 Cluster 환경에서 진행한다.In the present invention, keyword frequency analysis of images is performed in a cluster environment built with Apache Spark.

영상 플랫폼에서 영상을 검색할 때 보통 영상의 이름, 설명 때문에 검색된다. 추가로 영상 플랫폼의 알고리즘에 의해 사용자가 검색한 단어와 영상 관련도를 계산하여 검색 결과를 높이기도 한다.When searching for a video on a video platform, it is usually searched because of the video's name and description. In addition, the video platform algorithm calculates the relevance of the word searched by the user to the image to increase the search result.

영상 플랫폼이 높은 정확도의 검색 결과를 원하는 이유는 명백하다.It is clear why video platforms want high-fidelity search results.

사용자에게 높은 편의성을 제공해주기 위함이다. 많은 콘텐츠를 가진 영상 플랫폼일수록 사용자가 원하는 영상을 선별해 제공해야 사용자가 편의를 느끼기에 높은 정확도의 검색 결과는 중요해질 수밖에 없다.This is to provide high convenience to users. As the video platform has a lot of content, the user needs to select and provide the video they want, so that the user feels convenience, so high-accuracy search results are inevitably important.

본 발명에 따른 영상 내 자막 키워드 추출 및 순위 산정 시스템 및 방법에서는 검색 결과의 정확도를 높이기 위하여 키워드 중심 검색을 이용한다.In the system and method for extracting caption keywords in an image and calculating a ranking according to the present invention, a keyword-centered search is used to increase the accuracy of a search result.

키워드 중심 검색이란 영상에서 핵심이 되는 키워드로 영상을 찾는 검색을 말한다. 즉 영상에서 핵심이 되는 단어나 의미가 있는 단어를 키워드라 보고 사용자가 키워드를 입력하면 그 키워드가 많이 언급된 영상들을 검색 결과로 보여준다. Keyword-centered search refers to a search that finds an image with keywords that are the core of an image. In other words, if a keyword or a word with a meaning is regarded as a key word in an image, and the user enters a keyword, the images in which the keyword is frequently mentioned are displayed as search results.

특정 키워드가 영상에서 많이 언급될수록 그 특정 키워드는 영상에서의 핵심키워드일 가능성이 크기에 많이 언급된 영상들을 검색 결과로 보여준다.The more a specific keyword is mentioned in a video, the more likely that specific keyword is a key keyword in the video, and the more mentioned videos are shown as a search result.

키워드 중심 검색을 구현하기 위해선 영상 플랫폼의 각각의 영상에 대해 키워드 빈도수 분석을 할필요가 있다.In order to implement keyword-centered search, it is necessary to analyze the frequency of keywords for each image on the image platform.

키워드 빈도수 분석이란 영상에서 각 키워드가 얼마나 언급되었는지를 계산하는 작업을 뜻한다. 키워드 빈도수 분석을 하면 영상마다 어떤 키워드가 많이 나왔는지 알 수 있으며 분석 결과를 모으면 최종적으로 어떤 키워드가 어떤 영상에서 많이 나왔는지 랭킹을 세울 수 있게 된다.Keyword frequency analysis refers to the operation of calculating how many times each keyword is mentioned in the video. By analyzing the frequency of keywords, you can find out which keywords appeared most in each video, and by collecting the analysis results, you can finally establish a ranking of which keywords appeared the most in which videos.

이 랭킹 정보가 키워드 중심 검색의 결과물이 된다.This ranking information becomes the result of keyword-centered search.

키워드 중심 검색의 이점으로 기존의 제목 중심의 영상 검색 방법은 사용자가 영상 제목을 잊어버린 경우 영상을 찾기가 힘들다. 하지만, 사용자가 영상의 키워드만 기억하기만 한다면 키워드 중심 검색을 통해 영상을 찾을 수 있다.With the advantage of keyword-based search, the existing title-based image search method makes it difficult to find an image if the user forgets the image title. However, as long as the user remembers only the keywords of the video, the video can be found through a keyword-centered search.

즉, 사용자에게 다른 방식의 검색 옵션을 제공해줘 검색 결과를 높이는 것이 키워드 중심 검색의 이점이다.In other words, the advantage of keyword-centered search is to increase search results by providing users with a different search option.

키워드 중심 검색은 많은 영상에 대해 키워드 빈도수 분석을 해야 하기에 빅데이터 플랫폼을 도입했으며 사용자 클러스터링에 필요한 딥러닝의 반복 연산과 업로드되는 영상에 대한 실시간 처리를 위해 빅데이터 플랫폼 중 스파크를 사용한다.Keyword-centric search introduces a big data platform because it requires analysis of keyword frequency for many images, and Spark is used among big data platforms for iterative computation of deep learning required for user clustering and real-time processing of uploaded images.

도 4는 키워드 랭킹 모듈(34)의 세부 구성이 되는 빈도수 분석 모듈의 구성을 나타낸 것이다.4 shows the configuration of the frequency analysis module, which is a detailed configuration of the keyword ranking module 34.

빈도수 분석 모듈은 키워드 추출부(Keyword Extraction)와 키워드 분석부(Keyword analysis)를 포함한다.The frequency analysis module includes a keyword extraction unit and a keyword analysis unit.

키워드 추출부(Keyword Extraction)는 영상 자막파일에서 핵심키워드를 추출하는 작업을 담당하며 추출된 키워드 데이터들을 키워드 분석부(Keyword analysis)의 저장부(Storage)에 저장한다.The keyword extraction unit is responsible for extracting key keywords from the video subtitle file, and stores the extracted keyword data in the storage of the keyword analysis unit.

이 모듈은 키워드 중심 검색을 제공하기 위한 첫 번째 작업에 해당한다.This module corresponds to the first work to provide keyword-driven search.

키워드 분석부(Keyword analysis)는 저장부에 저장된 키워드 데이터들을 기반으로 키워드 빈도수 분석작업과 특정 키워드에 대해 빈도수가 많은 순으로 영상을 랭킹화 하는 작업을 수행한다.The keyword analysis unit performs a keyword frequency analysis operation based on the keyword data stored in the storage unit and ranks the images in the order of the highest frequency for a specific keyword.

이 모듈은 키워드 중심 검색을 제공하기 위한 두 번째 작업에 해당한다.This module corresponds to the second task to provide keyword-driven search.

도 4의 오른쪽을 보면 A video와 B video라는 테이블이 있다. 각 테이블은 각 영상에서 나온 모든 키워드의 빈도수 결과를 보여주고 있다.If you look at the right side of FIG. 4, there are tables A video and B video. Each table shows the frequency results of all keywords from each video.

이런 테이블을 만드는 작업이 바로 키워드 빈도수 분석 작업이다.The task of creating such a table is the keyword frequency analysis task.

랭킹화 작업은 키워드 빈도수 분석 작업의 결과물로 나온 테이블을 취합하여 특정 키워드에 대해 어떤 영상에서 많은 빈도수를 가지는지를 나타낸다.The ranking operation collects the table resulting from the keyword frequency analysis operation to indicate which image has the highest frequency for a specific keyword.

도 4의 Keyword : "Thread" rank 테이블이 랭킹화 작업의 결과 테이블이다.Keyword of FIG. 4 : "Thread" The rank table is the result table of the ranking operation.

이 테이블은 키워드 중심 검색의 결과물이 된다.This table is the result of a keyword-driven search.

키워드 분석부(Keyword analysis)는 Spark 기반 클러스터로 구축되어 있으므로 키워드 빈도수 분석 작업과 랭킹화 작업을 여러 대의 서버에서 병렬처리한다. Since the keyword analysis unit is built on a Spark-based cluster, keyword frequency analysis and ranking tasks are processed in parallel on multiple servers.

클러스터를 구축함으로써 현실적으로 가능한 비용으로 계속해서 늘어나는 키워드 데이터로부터 키워드 빈도수 분석 작업과 랭킹화 작업을 수행할 수 있도록 한다.By building a cluster, it is possible to perform keyword frequency analysis and ranking from continuously increasing keyword data at a cost that is realistically possible.

클러스터는 1대의 Client, Master 노드와 여러 대의 Worker 노드로 구성되어 있다. Client 노드는 분산 처리 작업의 지시를 수행하고 Master 노드는 클러스터 리소스 관리를 수행하며 Worker 노드는 실제 작업을 처리한다.A cluster consists of one Client, Master node and several Worker nodes. Client node performs distributed processing operation instructions, Master node performs cluster resource management, and Worker node handles actual operations.

분산 처리 작업을 기술한 Spark Application을 만들어 Client 노드에서 Master 노드에 배포하면 그 작업은 3개의 Worker 노드에서 병렬 처리되며 언제든지 Worker 노드를 추가하거나 줄일 수 있다.If you create a Spark Application that describes a distributed processing job and distribute it from the client node to the master node, the job is processed in parallel on three worker nodes, and worker nodes can be added or reduced at any time.

또한, Storage로 HDFS를 사용해 많은 저장 공간을 확보할 수 있다.In addition, you can secure a lot of storage space by using HDFS as Storage.

도 5는 Input Data 파일(CSV 형식) 구성도이다.5 is a configuration diagram of an Input Data file (CSV format).

영상에서 추출한 모든 키워드가 있는 CSV 형식의 키워드 파일이며 한 행마다 영상 이름과 그 영상에서 추출한 키워드가,(컴마)로 구분되어 있다.It is a keyword file in CSV format that contains all keywords extracted from the video, and the video name and keywords extracted from the video are separated by a comma in each line.

CSV 파일은 Spark Application의 입력 데이터로 사용된다. HDFS에 저장된 파일을 읽어 영상마다 키워드의 빈도수를 계산하고 내림차순으로 정렬한 다음 CSV 파일로 저장한다.The CSV file is used as input data for Spark Application. It reads the file stored in HDFS, calculates the frequency of keywords for each image, sorts in descending order, and saves it as a CSV file.

그리고 본 발명에 따른 영상 내 자막 키워드 추출 및 순위 산정 시스템 및 방법은 비디오 사용자 분석을 통하여 영상 분석의 정확도를 높이기 위하여 다음과 같은 구성을 더 포함한다.In addition, the system and method for extracting caption keywords and ranking in an image according to the present invention further include the following configuration in order to increase the accuracy of image analysis through video user analysis.

본 발명은 텐서플로우(Tensorflow)를 활용하여 비디오를 시청한 사용자의 정보를 분석하여 성별 그리고 나이,관심 분야, 학과, 사용자 로그 파일(시청 시간)의 정보를 토대로 사용자를 여러 그룹으로 나누는 구성을 포함한다.The present invention uses Tensorflow to analyze information of a user who has watched a video, and divides the user into several groups based on gender, age, field of interest, department, and user log file (watching time) information. do.

사용자의 정보를 분석하여 사용자에게 검색기능 없이도 사용자가 원하는 영상을 시청할 수 있도록 클러스터링을 한다.The user's information is analyzed and clustered so that the user can watch the desired video without a search function.

먼저, 성별과 관심 분야를 수치화하는 것을 먼저 다룬 후, 다양한 클러스터링 방안 중 K-means 클러스터링 알고리즘을 사용하여 수치화된 정보를 분석해 집단을 생성하는 방법을 설명한다.First, quantifying gender and areas of interest is dealt with first, and then, among various clustering methods, a method of generating a group by analyzing quantified information using the K-means clustering algorithm is explained.

K-means는 성별과 나이, 관심 분야 데이터들이 3차원 공간에 자리 잡게 되고 중심점 개수를 지정하여 각 점 간의 거리의 합이 가장 최소가 되는 중심점 n의 위치를 정한다. 이 중심점에 가까운 점들을 중심점을 기준으로 묶는 클러스터링 알고리즘으로 다른 클러스터링에 비해 상대적으로 효율적인 결과를 보여준다.In K-means, gender, age, and field of interest data are located in a three-dimensional space, and the number of center points is designated to determine the location of the center point n where the sum of distances between points is the minimum. It is a clustering algorithm that groups points close to this central point based on the central point, and shows relatively efficient results compared to other clustering.

도 6은 텐서플로우를 이용한 비디오 사용자 분석을 위한 클러스터링을 위한 시스템 구성도이다.6 is a system configuration diagram for clustering for video user analysis using TensorFlow.

먼저, 사용자 추출부에서 사용자가 영상 플랫폼에 회원 가입시 입력, 선택하는 정보들과 이러한 사용자가 영상을 시청하면서 기록되는 로그 데이터들을 추출한다.First, the user extracting unit extracts information input and selected by a user when a user joins a video platform, and log data recorded while the user watches an image.

그리고 추출된 사용자 정보들 중에서 표 1과 같이 수치화 작업을 하기에 적합한 관심분야, 연령대,성별, 학과(계열)속성들을 사용한다.And among the extracted user information, as shown in Table 1, the fields of interest, age group, gender, and department (series) attributes suitable for numerical work are used.

사용자 로그기록들 중에서는 동영상 평균 시청 기록을 추출하여 속성으로 추가한다.Among the user log records, the average video viewing record is extracted and added as an attribute.

다음 작업으로 사용자 수치화부에서 해당 속성들을 DataFrame으로 읽어 행렬 배열의 형식으로 바꾼다. 속성들 중 value가 문자열인 경우 각 value들을 수치화 시켜야 한다.As the next operation, the properties are read into a DataFrame from the user digitization unit and converted into a matrix array format. If value among properties is a string, each value must be digitized.

이때 서로 연관이 있는 value들은 가까이, 연관이 먼 value들은 먼 위치에 선정되도록 수치화한다.At this time, values that are related to each other are digitized so that they are close, and values that are far from each other are selected in a distant location.

Figure pat00001
Figure pat00001

표 2는 사용자 관심 분야 수치화의 일 예를 나타낸 것이다.Table 2 shows an example of quantifying user interests.

Figure pat00002
Figure pat00002

표 3은 사용자 관심 분야 수치화의 다른 예를 나타낸 것이다.Table 3 shows another example of quantifying user interests.

Figure pat00003
Figure pat00003

관심 분야에 여러 과목이 있다면 수학과 물리, 영어와 제 2외국어와 같이 연관이 있는 과목들을 가까운 수치로 지정하고, 관련성이 떨어지는 과목들은 먼 거리가 되도록 수치화한다.If there are several subjects in the field of interest, related subjects such as math and physics, English and a second foreign language should be designated as close numbers, and subjects with less relevance should be numbered farther away.

성별은 두 종류이므로 0과 1을 기준으로 하고, 학과는 크게 인문대학 이 공과대학, 예체능 대학으로 구분한 다음 서로 연관이 가까운 학과들을 하나씩 뽑아내어 두 대학의 중심 즉, 각 대학에서 끝이 되도록 선정한다.Since there are two types of gender, 0 and 1 are used as the standard, and the departments are divided into the College of Engineering and the College of Arts and Sports, and then the departments that are closely related to each other are selected one by one and selected so that they end at the center of the two colleges, that is, each college. do.

이때 나이는 1부터 100까지 기준으로 잡았으므로 관심분야와 학과 속성 또한 100까지를 기준으로 수치를 부여한다.At this time, the age is set on a scale from 1 to 100, so the number of interests and departmental attributes is also assigned on a scale of 100.

이후 클러스터링부에서 이러한 수치 정보를 활용하여 사용자들을 하나의 점으로 공간상에 나타내고 N개의 중심점을 가진 K-Means 클러스터링을 수행한다.After that, the clustering unit uses this numerical information to represent users as a single point in space and performs K-Means clustering with N center points.

이하에서 본 발명에 따른 영상 내 자막 키워드 추출 및 순위 산정 방법을 구체적으로 설명하면 다음과 같다.Hereinafter, the method of extracting caption keywords and calculating the ranking in the video according to the present invention will be described in detail.

도 7은 본 발명에 따른 자막 키워드 추출 및 랭킹 과정을 나타낸 전체 구성도이고, 도 8a와 도 8b는 키워드 빈도수 분석 빅데이터 처리 함수 구축을 위한 빈도수 분석 과정 및 키워드 랭킹 과정을 나타낸 플로우 차트이다.7 is an overall configuration diagram showing the subtitle keyword extraction and ranking process according to the present invention, and FIGS. 8A and 8B are flowcharts showing the frequency analysis process and keyword ranking process for constructing a keyword frequency analysis big data processing function.

본 발명에 따른 영상 내 자막 키워드 추출 및 순위 산정 방법은 크게, 영상 내 자막 키워드 추출 및 순위 산정을 위한 콘텐츠 입력을 위한 콘텐츠 입력 단계와, 영상 내 음성을 추출하는 음성 추출 단계 및 영상 내 자막을 추출하는 자막 추출 단계와, 음성 추출 단계 및 자막 추출 단계를 통하여 추출된 음성 및 자막을 이용하여 키워드 추출을 하는 키워드 추출 단계와, 영상에 나오는 단어의 빈도수를 추출하여 구간별 클립정보와 함께 랭킹 테이블을 구성하고 이를 사용자에게 제공하여 검색을 지원하는 키워드 랭킹 단계와, 제작 및 저장되는 모든 영상에서의 음성 및 자막을 분석한 결과를 저장하는 단계를 포함한다.The method for extracting caption keywords in an image and calculating a ranking according to the present invention is largely divided into a content input step for extracting caption keywords in an image and content input for ranking calculation, a voice extraction step of extracting audio from the video, and extracting a caption in the video a caption extraction step, a keyword extraction step of extracting keywords using the audio and subtitles extracted through the audio extraction step and the caption extraction step, and a ranking table with clip information for each section by extracting the frequency of words in the video It comprises a keyword ranking step to support a search by configuring it and providing it to a user, and a step of storing the analysis result of audio and subtitles in all videos produced and stored.

그리고 도 8a는 키워드 랭킹 단계에서 키워드 빈도수 분석 빅데이터 처리 함수 구축을 위한 빈도수 분석 과정을 나타낸 것이다.And Figure 8a shows a frequency analysis process for constructing a keyword frequency analysis big data processing function in the keyword ranking step.

먼저, 키워드 빈도수 분석을 위하여 자막 키워드 추출 파일의 한 행을 읽어온다.First, one line of the subtitle keyword extraction file is read for keyword frequency analysis.

키워드 추출 파일을 다 읽었는지 판단하고, 아니면 키워드 별로 그룹화를 하고, 그룹 별 키워드 개수를 카운트하고 분석된 결과 파일을 HDFS에 저장하여 영상 키워드 빈도수 분석을 하고, 이 과정을 모든 키워드 추출 파일을 다 읽어올 때까지 수행한다.It is judged whether the keyword extraction file has been read, or grouped by keyword, counted the number of keywords by group, and the analyzed result file is stored in HDFS to analyze the video keyword frequency, and this process reads all the keyword extraction files do it until it comes

도 8b는 키워드 랭킹 단계에서 키워드 빈도수 분석 빅데이터 처리 함수 구축을 위한 키워드 랭킹 과정을 나타낸 것이다.8B shows a keyword ranking process for constructing a keyword frequency analysis big data processing function in the keyword ranking step.

먼저, 키워드 랭킹화를 위하여 결과 파일을 읽어온다.First, the result file is read for keyword ranking.

모든 결과 파일을 읽어 온 것인지 판단을 한다.It is judged whether all result files have been read.

모든 결과 파일을 읽어 온 것이 아니면, 결과 파일을 데이터 프레임으로 만들고, 랭킹 기준이 되는 키워드로 필터링을 하고, 유니온 연산을 사용하여 하나의 데이터 프레임을 만드는 과정을 모든 결과 파일을 읽어올 때까지 수행한다.If all result files have not been read, the process of making the result file into a data frame, filtering with keywords as the ranking criterion, and creating one data frame using union operation is performed until all result files are read. .

모든 결과 파일을 읽어 온 것이면, 내림 차순 정렬 및 랭킹화된 결과 파일을 HDFS에 저장을 하는 과정을 수행하여 영상 키워드 랭킹화 작업을 수행한다.If all result files have been read, image keyword ranking is performed by performing the process of sorting in descending order and storing the ranked result files in HDFS.

이상에서 설명한 본 발명에 따른 영상 내 자막 키워드 추출 및 순위 산정 시스템 및 방법은 영상에 나오는 단어의 빈도수를 추출하여 구간별 클립정보와 함께 랭킹 테이블을 구성하고 이를 사용자에게 제공하여 검색을 지원하고, 머신러닝을 통해 클립정보를 학습시키고 학습 영상을 사용자에게 제공하여 유사한 영상을 검색할 수 있도록 지원할 수 있도록 한 것이다.The system and method for extracting subtitle keywords and ranking in a video according to the present invention described above constructs a ranking table with clip information for each section by extracting the frequency of words appearing in the video, and provides it to the user to support the search, It learns clip information through learning and provides learning videos to users so that they can search for similar videos.

이상에서의 설명에서와 같이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명이 구현되어 있음을 이해할 수 있을 것이다.It will be understood that the present invention is implemented in a modified form without departing from the essential characteristics of the present invention as described above.

그러므로 명시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 하고, 본 발명의 범위는 전술한 설명이 아니라 특허청구 범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.Therefore, the specified embodiments should be considered in an illustrative rather than a restrictive sense, the scope of the present invention is indicated in the claims rather than in the foregoing description, and all differences within the scope equivalent thereto are included in the present invention. will have to be interpreted

100. 콘텐츠 입력부
200. 클라우드 편집 서버
300. 키워드 추출 및 순위 산정부
100. Content Input
200. Cloud Editing Server
300. Keyword Extraction and Ranking Unit

Claims (12)

영상 내 자막 키워드 추출 및 순위 산정을 위한 콘텐츠 입력을 위한 콘텐츠 입력부;
영상 내 자막 키워드 추출 및 순위 산정하기 위한 지원을 하는 클라우드 편집 서버;
영상에 나오는 단어의 빈도수를 추출하여 구간별 클립정보와 함께 랭킹 테이블을 구성하고 이를 사용자에게 제공하는 키워드 추출 및 순위 산정부;를 포함하고,
상기 키워드 추출 및 순위 산정부는, 영상 내 음성을 추출하는 음성 추출 모듈과, 영상 내 자막을 추출하는 자막 추출 모듈과, 음성 추출 모듈 및 자막 추출 모듈을 통하여 추출된 음성 및 자막을 이용하여 키워드 추출을 하는 키워드 추출 모듈과, 영상에 나오는 단어의 빈도수를 추출하여 구간별 클립정보와 함께 랭킹 테이블을 구성하고 이를 사용자에게 제공하여 검색을 지원하는 키워드 랭킹 모듈과, 제작 및 저장되는 모든 영상에서의 음성 및 자막을 분석한 결과를 저장하는 영상 분석 처리 DB를 포함하는 것을 특징으로 하는 영상 내 자막 키워드 추출 및 순위 산정 시스템.
a content input unit for extracting caption keywords in the video and inputting content for ranking calculation;
a cloud editing server that supports extraction and ranking of subtitle keywords in the video;
Includes; a keyword extraction and ranking calculation unit that extracts the frequency of words in the video to construct a ranking table with clip information for each section and provides it to the user;
The keyword extraction and ranking calculating unit performs keyword extraction using a voice extraction module for extracting audio in the video, a subtitle extraction module for extracting subtitles in the video, and audio and subtitles extracted through the audio extraction module and the subtitle extraction module. a keyword extraction module that extracts the frequency of words appearing in the video, configures a ranking table with clip information for each section, and provides it to users to support search; Subtitle keyword extraction and ranking system in the video, characterized in that it comprises an image analysis processing DB for storing the analysis result of the subtitles.
제 1 항에 있어서, 상기 키워드 추출 및 순위 산정부는 영상 분석을 위한 구성으로,
영상 내 자막 키워드 추출 및 순위 산정 시스템에서 분석된 키워드를 토대로 학습 이미지를 추출하는 학습 이미지 추출 모듈과,
추출된 이미지로 학습을 하는 영상 학습 모듈과,
이미지 학습 결과를 이용하여 영상 분석을 수행하는 영상 분석 모듈과,
영상 분석 모듈에서 분석된 결과를 제공하는 분석 결과 제공 모듈을 포함하는 것을 특징으로 하는 영상 내 자막 키워드 추출 및 순위 산정 시스템.
The method of claim 1, wherein the keyword extraction and ranking calculation unit is configured for image analysis,
A learning image extraction module that extracts a learning image based on the keywords analyzed in the subtitle keyword extraction and ranking system in the video;
A video learning module that learns from the extracted image,
an image analysis module for performing image analysis using the image learning result;
Subtitle keyword extraction and ranking system in the video, characterized in that it comprises an analysis result providing module that provides the analysis result in the video analysis module.
제 2 항에 있어서, 학습 이미지 추출 모듈은,
사용자의 검색 패턴에 맞춘 영상 분석을 지원하기 위하여,
키워드 분류가 어려운 음성이 없고 자막이 프레임에 예속된 영상이나 제목 및 태그 분류만 이루어진 영상을 이미지 검색 대상을 하는 것을 특징으로 하는 영상 내 자막 키워드 추출 및 순위 산정 시스템.
The method of claim 2, wherein the training image extraction module comprises:
In order to support image analysis tailored to the user's search pattern,
Subtitle keyword extraction and ranking system in video, characterized in that the image search target is an image that has no voice that is difficult to categorize as a keyword and whose subtitles are subordinated to a frame or is only classified by title and tags
제 1 항에 있어서, 키워드 추출 모듈은 키워드 추출을 위하여 형태소 분석을 하고,
형태소 분석은 공백을 기준으로 문장을 분석하는 구성, 조사를 단어와 함께 처리하는 구성, 형용사의 경우 추출 단어와 함께 그룹핑하여 처리하는 구성을 포함하는 것을 특징으로 하는 영상 내 자막 키워드 추출 및 순위 산정 시스템.
The method of claim 1, wherein the keyword extraction module performs morphological analysis for keyword extraction,
Morphological analysis is a system for extracting keywords from subtitles in a video, characterized in that it includes a configuration for analyzing sentences based on spaces, a configuration for processing a survey together with words, and a configuration for grouping and processing adjectives together with extracted words in the case of adjectives .
제 1 항에 있어서, 키워드 랭킹 모듈에서 키워드 빈도수 분석을 위하여,
사용자 클러스터링에 필요한 딥러닝의 반복 연산과 업로드되는 영상에 대한 실시간 처리를 위해 빅데이터 플랫폼 중 스파크를 사용하는 것을 특징으로 하는 영상 내 자막 키워드 추출 및 순위 산정 시스템.
The method of claim 1, wherein for keyword frequency analysis in the keyword ranking module,
Subtitle keyword extraction and ranking system in video, characterized in that it uses Spark among big data platforms for iterative computation of deep learning required for user clustering and real-time processing of uploaded images.
제 5 항에 있어서, 키워드 랭킹 모듈은 키워드 빈도수 분석을 위하여 빈도수 분석 모듈을 포함하고,
빈도수 분석 모듈은, 영상 자막파일에서 핵심키워드를 추출하는 작업을 하여 추출된 키워드 데이터들을 키워드 분석부(Keyword analysis)의 저장부(Storage)에 저장하는 키워드 추출부와,
저장부에 저장된 키워드 데이터들을 기반으로 키워드 빈도수 분석작업과 특정 키워드에 대해 빈도수가 많은 순으로 영상을 랭킹화 하는 작업을 수행하는 키워드 분석부(Keyword analysis)를 포함하는 것을 특징으로 하는 영상 내 자막 키워드 추출 및 순위 산정 시스템.
The method according to claim 5, wherein the keyword ranking module comprises a frequency analysis module for keyword frequency analysis,
The frequency analysis module includes: a keyword extraction unit for extracting key keywords from the video subtitle file and storing the extracted keyword data in a storage unit of a keyword analysis unit;
Subtitle keyword in the video, characterized in that it includes a keyword analysis unit that performs a keyword frequency analysis operation based on the keyword data stored in the storage unit and a keyword analysis unit that ranks the images in the order of the highest frequency for a specific keyword. Extraction and ranking system.
제 6 항에 있어서, 키워드 분석부(Keyword analysis)는 Spark 기반 클러스터로 구축되어 키워드 빈도수 분석 작업과 랭킹화 작업을 여러 대의 서버에서 병렬처리하는 것을 특징으로 하는 영상 내 자막 키워드 추출 및 순위 산정 시스템.[Claim 7] The system of claim 6, wherein the keyword analysis unit is constructed as a Spark-based cluster, and performs the keyword frequency analysis and ranking tasks in parallel in multiple servers. 제 1 항에 있어서, 영상 분석 처리 DB에 저장되는 영상 분석 결과의 정확도를 높이기 위하여,
텐서플로우(Tensorflow)를 활용하여 비디오를 시청한 사용자의 정보를 분석하여 성별,나이,관심 분야, 학과, 사용자 로그 파일의 정보를 토대로 사용자를 여러 그룹으로 나누는 구성을 포함하는 것을 특징으로 하는 영상 내 자막 키워드 추출 및 순위 산정 시스템.
The method of claim 1, wherein in order to increase the accuracy of the image analysis result stored in the image analysis processing DB,
Using Tensorflow to analyze the information of the user who watched the video, based on the gender, age, field of interest, department, and information in the user log file, the video, characterized in that it includes a configuration to divide the user into several groups Subtitle keyword extraction and ranking system.
제 8 항에 있어서, 텐서플로우를 이용한 비디오 사용자 분석을 위한 클러스터링을 위하여,
사용자가 영상 플랫폼에 회원 가입시 입력, 선택하는 정보들과 이러한 사용자가 영상을 시청하면서 기록되는 로그 데이터들을 추출하는 사용자 추출부와,
사용자 추출부에서 추출된 속성들을 DataFrame으로 읽어 행렬 배열의 형식으로 바꾸어, 속성들 중 value가 문자열인 경우 각 value들을 수치화시키고, 서로 연관이 있는 value들은 가까이, 연관이 먼 value들은 먼 위치에 선정되도록 수치화하는 사용자 수치화부를 더 포함하는 것을 특징으로 하는 영상 내 자막 키워드 추출 및 순위 산정 시스템.
The method of claim 8, wherein for clustering for video user analysis using TensorFlow,
a user extracting unit for extracting information input and selected by a user when a user joins a video platform and log data recorded while the user watches a video;
The properties extracted from the user extraction unit are read into a DataFrame and converted into a matrix array format. If the value of the properties is a string, each value is digitized, and the values that are related to each other are selected near and distant values are selected. Subtitle keyword extraction and ranking system in the video, characterized in that it further comprises a user digitization unit to digitize.
영상 내 자막 키워드 추출 및 순위 산정을 위한 콘텐츠 입력을 위한 콘텐츠 입력 단계;
영상 내 음성을 추출하는 음성 추출 단계 및 영상 내 자막을 추출하는 자막 추출 단계;
음성 추출 단계 및 자막 추출 단계를 통하여 추출된 음성 및 자막을 이용하여 키워드 추출을 하는 키워드 추출 단계;
영상에 나오는 단어의 빈도수를 추출하여 구간별 클립정보와 함께 랭킹 테이블을 구성하고 이를 사용자에게 제공하여 검색을 지원하는 키워드 랭킹 단계;
제작 및 저장되는 모든 영상에서의 음성 및 자막을 분석한 결과를 저장하는 단계;를 포함하는 것을 특징으로 하는 영상 내 자막 키워드 추출 및 순위 산정 방법.
a content input step for extracting caption keywords in the video and inputting content for ranking;
A voice extraction step of extracting a voice in the video and a subtitle extraction step of extracting a subtitle in the video;
a keyword extraction step of extracting keywords using the audio and subtitles extracted through the audio extraction step and the caption extraction step;
a keyword ranking step of extracting the frequency of words appearing in the image, constructing a ranking table with clip information for each section, and providing it to a user to support a search;
Storing the results of analyzing audio and subtitles in all produced and stored images; a method for extracting and ranking subtitle keywords in an image, comprising: a.
제 10 항에 있어서, 키워드 랭킹 단계에서 키워드 빈도수 분석 빅데이터 처리 함수 구축을 위한 빈도수 분석 과정으로,
키워드 빈도수 분석을 위하여 자막 키워드 추출 파일의 한 행을 읽어오는 단계와,
키워드 추출 파일을 다 읽었는지 판단하고, 아니면 키워드 별로 그룹화를 하는 단계와,
그룹 별 키워드 개수를 카운트하고 분석된 결과 파일을 HDFS에 저장하여 영상 키워드 빈도수 분석을 하고, 이 과정을 모든 키워드 추출 파일을 다 읽어올때까지 수행하는 단계를 포함하는 것을 특징으로 하는 영상 내 자막 키워드 추출 및 순위 산정 방법.
11. The method of claim 10, wherein in the keyword ranking step, a frequency analysis process for constructing a keyword frequency analysis big data processing function,
Reading one line of the subtitle keyword extraction file for keyword frequency analysis;
A step of determining whether the keyword extraction file has been read, or grouping by keyword,
Counting the number of keywords for each group, storing the analyzed result file in HDFS, analyzing the video keyword frequency, and performing this process until all keyword extraction files are read. and ranking methods.
제 10 항에 있어서, 키워드 랭킹 단계에서 키워드 빈도수 분석 빅데이터 처리 함수 구축을 위한 키워드 랭킹 과정으로,
키워드 랭키화를 위하여 결과 파일을 읽어오는 단계와,
모든 결과 파일을 읽어 온 것인지 판단을 하는 단계와,
모든 결과 파일을 읽어 온 것이 아니면, 결과 파일을 데이터 프레임으로 만들고, 랭킹 기준이 되는 키워드로 필터링을 하고, 유니온 연산을 사용하여 하나의 데이터 프레임을 만드는 과정을 모든 결과 파일을 읽어올때까지 수행하는 단계와,
모든 결과 파일을 읽어 온 것이면, 내림 차순 정렬 및 랭킹화된 결과 파일을 HDFS에 저장을 하는 과정을 수행하여 영상 키워드 랭킹화 작업을 수행하는 단계를 포함하는 것을 특징으로 하는 영상 내 자막 키워드 추출 및 순위 산정 방법.
The method of claim 10, wherein in the keyword ranking step, a keyword ranking process for constructing a keyword frequency analysis big data processing function,
Reading the result file for keyword ranking;
A step of determining whether all result files have been read;
If all result files have not been read, the process of making the result file into a data frame, filtering with a keyword that is the ranking criterion, and creating one data frame using union operation is performed until all result files are read. Wow,
If all the result files have been read, extracting and ranking the subtitle keywords in the video, characterized in that it includes the step of performing the image keyword ranking operation by performing the process of sorting in descending order and storing the ranked result file in HDFS calculation method.
KR1020190165757A 2019-12-12 2019-12-12 System and Method for Extracting Keyword and Ranking in Video Subtitle KR102281266B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190165757A KR102281266B1 (en) 2019-12-12 2019-12-12 System and Method for Extracting Keyword and Ranking in Video Subtitle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190165757A KR102281266B1 (en) 2019-12-12 2019-12-12 System and Method for Extracting Keyword and Ranking in Video Subtitle

Publications (2)

Publication Number Publication Date
KR20210074734A true KR20210074734A (en) 2021-06-22
KR102281266B1 KR102281266B1 (en) 2021-07-23

Family

ID=76600580

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190165757A KR102281266B1 (en) 2019-12-12 2019-12-12 System and Method for Extracting Keyword and Ranking in Video Subtitle

Country Status (1)

Country Link
KR (1) KR102281266B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114385859A (en) * 2021-12-29 2022-04-22 北京理工大学 Multi-modal retrieval method for video content
CN114998878A (en) * 2022-04-28 2022-09-02 支付宝(杭州)信息技术有限公司 Keyword recognition method and device
CN117591578A (en) * 2024-01-18 2024-02-23 山东科技大学 Data mining system and mining method based on big data

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090075593A (en) 2008-01-03 2009-07-08 주식회사 알티캐스트 Method and System for providing video service based on keyword
KR20090099439A (en) * 2008-03-17 2009-09-22 강민수 Keyword advertising method and system based on meta information of multimedia contents information
KR20110014440A (en) 2009-08-05 2011-02-11 충남대학교산학협력단 Apparatus for keeping egg with a built-in dryice
KR20190053587A (en) 2017-11-10 2019-05-20 신범준 Video scene searching system through keyword

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090075593A (en) 2008-01-03 2009-07-08 주식회사 알티캐스트 Method and System for providing video service based on keyword
KR20090099439A (en) * 2008-03-17 2009-09-22 강민수 Keyword advertising method and system based on meta information of multimedia contents information
KR20110014440A (en) 2009-08-05 2011-02-11 충남대학교산학협력단 Apparatus for keeping egg with a built-in dryice
KR20190053587A (en) 2017-11-10 2019-05-20 신범준 Video scene searching system through keyword

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114385859A (en) * 2021-12-29 2022-04-22 北京理工大学 Multi-modal retrieval method for video content
CN114998878A (en) * 2022-04-28 2022-09-02 支付宝(杭州)信息技术有限公司 Keyword recognition method and device
CN117591578A (en) * 2024-01-18 2024-02-23 山东科技大学 Data mining system and mining method based on big data
CN117591578B (en) * 2024-01-18 2024-04-09 山东科技大学 Data mining system and mining method based on big data

Also Published As

Publication number Publication date
KR102281266B1 (en) 2021-07-23

Similar Documents

Publication Publication Date Title
CN108920497B (en) Man-machine interaction method and device
KR102281266B1 (en) System and Method for Extracting Keyword and Ranking in Video Subtitle
JP5886733B2 (en) Video group reconstruction / summarization apparatus, video group reconstruction / summarization method, and video group reconstruction / summarization program
US20220107978A1 (en) Method for recommending video content
JP6165913B1 (en) Information processing apparatus, information processing method, and program
KR100706389B1 (en) Image search method and apparatus considering a similarity among the images
MX2013005056A (en) Multi-modal approach to search query input.
KR20100072070A (en) Generating metadata for association with a collection of content items
CN101416179A (en) System and method for providing personalized recommended word and computer readable recording medium recording program for implementing the method
CN111008321A (en) Recommendation method and device based on logistic regression, computing equipment and readable storage medium
CN106446235B (en) Video searching method and device
US9552415B2 (en) Category classification processing device and method
KR20160062667A (en) A method and device of various-type media resource recommendation
CN111177559A (en) Text travel service recommendation method and device, electronic equipment and storage medium
CN111159563A (en) Method, device and equipment for determining user interest point information and storage medium
CN103207917A (en) Method for marking multimedia content and method and system for generating recommended content
CN106294358A (en) The search method of a kind of information and system
JP7395377B2 (en) Content search methods, devices, equipment, and storage media
CN112911331B (en) Music identification method, device, equipment and storage medium for short video
KR100973969B1 (en) System for providing News Service that reduce Media-Bias Effect and Method therefor
JP2008217701A (en) Metadata providing device, metadata providing method, metadata providing program, and recording medium recording metadata providing program
KR20150122855A (en) Distributed processing system and method for real time question and answer
CN103530311A (en) Method and apparatus for prioritizing metadata
US11645312B2 (en) Attribute extraction apparatus and attribute extraction method
CN110795598A (en) Intelligent column generation method based on VCA video tag analysis

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant