WO2022059854A1 - 비디오 컨텐츠로부터 키워드를 추출하는 전자 장치 및 비디오 컨텐츠로부터 키워드를 추출하는 방법 - Google Patents

비디오 컨텐츠로부터 키워드를 추출하는 전자 장치 및 비디오 컨텐츠로부터 키워드를 추출하는 방법 Download PDF

Info

Publication number
WO2022059854A1
WO2022059854A1 PCT/KR2020/017402 KR2020017402W WO2022059854A1 WO 2022059854 A1 WO2022059854 A1 WO 2022059854A1 KR 2020017402 W KR2020017402 W KR 2020017402W WO 2022059854 A1 WO2022059854 A1 WO 2022059854A1
Authority
WO
WIPO (PCT)
Prior art keywords
keyword
emotion
keywords
video contents
video content
Prior art date
Application number
PCT/KR2020/017402
Other languages
English (en)
French (fr)
Inventor
정종현
박윤우
임원진
Original Assignee
주식회사 크리스피언
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 크리스피언 filed Critical 주식회사 크리스피언
Publication of WO2022059854A1 publication Critical patent/WO2022059854A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Definitions

  • the present invention relates to an electronic device for extracting keywords from video content and a method for extracting keywords from video content.
  • a plurality of video content is classified based on the object included in the video content, and keywords representing the object included in the video content are associated with each video content and stored.
  • the user inputs a search word indicating which object he wants to obtain video content including.
  • search for video content based on the emotion induced by the video content rather than based on the object included in the video content. you may want to
  • An object of the present invention is to provide an electronic device for extracting keywords from video content and a method for extracting keywords from video content.
  • a server for achieving the above object includes a communication unit configured to communicate with a user device, a processor, and a memory, wherein the processor includes a plurality of first video contents and the plurality of Obtaining and storing a plurality of first emotion keywords associated with each of the first video contents in the memory, and analyzing the plurality of first video contents, a plurality of first characteristic keywords associated with each of the plurality of first video contents and, based on the plurality of first characteristic keywords and the plurality of first emotion keywords, generate an emotion keyword extraction model for identifying an emotion keyword corresponding to the characteristic keyword and store the generated emotion keyword extraction model in the memory.
  • the processor acquires a plurality of second video contents, analyzes the plurality of second video contents, to obtain a plurality of second characteristic keywords associated with each of the plurality of second video contents, and Based on the second characteristic keyword and the emotion keyword extraction model, a plurality of second emotion keywords corresponding to each of the plurality of second video contents are obtained, and the plurality of second video contents and the plurality of second video contents are obtained. It may be configured to store a plurality of second emotion keywords corresponding to each in the memory.
  • the processor receives the search keyword from the user device through the communication unit, analyzes the search keyword, identifies at least one third emotion keyword corresponding to the search keyword, and the plurality of first Among the video content and the plurality of second video content, at least one third video content corresponding to the at least one third emotion keyword is identified, and information on the at least one third video content is transmitted through the communication unit. and transmit to the user device.
  • the memory stores a list of a plurality of keyword parts corresponding to each of the plurality of emotion keywords
  • the processor identifies at least one third emotion keyword corresponding to the search keyword, the search keyword and the It may be configured to check the similarity of the plurality of keyword parts.
  • a method performed in a server obtains a plurality of first video contents and a plurality of first emotion keywords associated with each of the plurality of first video contents to be stored in a memory. storing, analyzing the plurality of first video contents to obtain a plurality of first characteristic keywords associated with each of the plurality of first video contents, and the plurality of first characteristic keywords and the plurality of first video contents
  • the method may include generating an emotion keyword extraction model for identifying the emotion keyword corresponding to the feature keyword based on the emotion keyword and storing the emotion keyword extraction model in the memory.
  • the method includes obtaining a plurality of second video contents, analyzing the plurality of second video contents to obtain a plurality of second characteristic keywords associated with each of the plurality of second video contents, the plurality of obtaining a plurality of second emotion keywords corresponding to each of the plurality of second video contents based on the second characteristic keyword and the emotion keyword extraction model, and the plurality of second video contents and the plurality of second video contents
  • the method may further include storing a plurality of second emotion keywords corresponding to each of the two video contents in the memory.
  • the method includes the operation of receiving a search keyword from the user device, analyzing the search keyword to identify at least one third emotion keyword corresponding to the search keyword, the plurality of first video contents and the plurality of checking at least one third video content corresponding to the at least one third emotion keyword among the second video content of , and transmitting information about the at least one third video content to the user device may further include.
  • the method further includes the operation of storing a list of a plurality of keyword parts corresponding to each of the plurality of emotion keywords, and the operation of identifying at least one third emotion keyword corresponding to the search keyword includes the search keyword and checking a degree of similarity between the plurality of keyword parts.
  • a non-transitory storage medium for achieving the above object stores a command, and when the command is executed by an electronic device, the electronic device receives a search keyword and stores the search keyword as a server , and receive information on at least one video content corresponding to an emotion keyword related to the search keyword from the server, and display the information on the at least one video content.
  • the emotion keyword related to the search keyword may be identified based on the similarity between the search keyword and a plurality of keyword parts corresponding to each of a plurality of predefined emotion keywords.
  • an electronic device for extracting keywords from video content and a method for extracting keywords from video content can be provided.
  • the server of the present invention obtains an emotion keyword representing emotion from video content and stores the emotion keyword in association with the video content, so that when the user inputs a search keyword representing emotion, it is possible to provide video content related to the emotion desired by the user.
  • FIG. 1 is a block diagram of a user device and a server according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating operations performed by a server according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating operations performed by a server according to an embodiment of the present invention.
  • FIG. 4 illustrates operations performed in a user device and a server according to an embodiment of the present invention.
  • first, second, A, and B may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.
  • the term “and/or” includes a combination of a plurality of related listed items or any of a plurality of related listed items.
  • the user device 101 may include a communication unit 110 , a processor 120 , and a memory 130 .
  • the communication unit 110 may communicate with other electronic devices other than the user device 101 , including the server 106 .
  • the type of communication method performed by the communication unit 110 with other electronic devices is not limited.
  • the communication unit 110 of the user device 101 transmits the search keyword 191 input by the user to the server 106 , and video content corresponding to the search keyword 191 from the server 106 . may receive information 192 about
  • the processor 120 may control other components of the user device 101 , such as the communication unit 110 and the memory 130 , or may receive data from other components of the user device 101 .
  • the processor 120 performing an operation through other components of the user device 101, such as the communication unit 110 and the memory 130 means that the user device 101 performs the corresponding operation. It can mean controlling other components of Also, the processor 120 may perform an operation on data received from other components of the user device 101 .
  • the memory 130 may store a result of an operation performed by the processor 120 . According to various embodiments, the memory 130 may store computer-executable instructions to perform operations performed by the user device 101 according to an embodiment of the present invention.
  • the server 106 may include a memory 160 , a processor 170 , and a communication unit 180 .
  • the memory 160 may include a database 161 and a sentiment keyword extraction model 162 .
  • the database 161 may store a plurality of video contents in association with emotion keywords corresponding to each of the plurality of video contents.
  • the emotion keyword may be determined from among a plurality of predefined emotion keywords.
  • the plurality of emotion keywords may be classified into one or more categories, and each of the one or more categories may be included in the emotion keyword.
  • the emotion keyword as a category may include at least one of love, fear, anger, sadness, happiness, surprise, and disgust.
  • the emotion keyword included in the “love” category may include at least one of trust, passion, intimacy, gentleness, and recognition.
  • the emotion keyword extraction model 162 may be used to identify the emotion keyword corresponding to the feature keyword.
  • one or more characteristic keywords may be defined for each video content.
  • the feature keyword may indicate various features of video content.
  • the feature keyword may include an object keyword indicating information about an object included in video content.
  • the object keyword may include, for example, at least one of a dog, a family, a child, and the sea.
  • the feature keyword may include a behavior keyword indicating information about behavior displayed on video content.
  • the action keyword may include, for example, at least one of hugging, swimming, running, and driving a car.
  • the feature keyword may include a color keyword indicating information about a color indicated by the video content.
  • the color keyword may include, for example, at least one of blue color, pastel tone, black and white, red color, warm color, and cold color.
  • the color keyword corresponding to the video content is at least one of an area occupied by each color in each frame among a plurality of colors used in a plurality of frames included in the video content and the number of frames in which each color is used. It can be determined based on one.
  • the area occupied by each color within each frame may be added to all frames, and a predetermined number of colors having the largest value may be determined as color keywords corresponding to video content.
  • a method of generating the sentiment keyword extraction model 162 according to various embodiments will be described later with reference to FIG. 2 .
  • the processor 170 may control other components of the server 106 , such as the communication unit 180 , or may receive data from other components of the user device 101 . Since, in this specification, the processor 170 performs any operation through other components of the server 106, such as the communication unit 180, that controls other components of the server 106 to perform the corresponding operation. can mean that In addition, the processor 170 may perform an operation on data received from other components of the server 106 .
  • the processor 170 may generate the sentiment keyword extraction model 162 based on the database 161 .
  • the processor 170 acquires feature keywords corresponding to a plurality of video contents based on the emotional keyword extraction model 162 , and corresponds the acquired feature keywords to the plurality of video contents, respectively, to obtain a database (161) can be stored.
  • the processor 170 receives the search keyword 191 from the user device 101 through the communication unit 180 , and adds the search keyword 191 to at least one video content corresponding to the received search keyword 191 .
  • the related information 192 may be returned to the user device 101 through the communication unit 180 .
  • the communication unit 180 may communicate with other electronic devices other than the server 106 , including the user device 101 .
  • a type of communication method performed by the communication unit 110 with an electronic device other than the server 106 is not limited.
  • the processor 170 of the server 106 may obtain a plurality of first video contents and a plurality of first emotion keywords associated with each of the plurality of first video contents, and store the obtained first emotion keywords in the database 161 .
  • a plurality of emotion keywords may be associated with one video content.
  • the processor 170 of the server 106 may analyze the plurality of first video contents to obtain a plurality of first characteristic keywords associated with each of the plurality of first video contents.
  • a plurality of feature keywords may be associated with one video content.
  • the processor 170 of the server 106 is based on the plurality of first characteristic keywords and the plurality of first emotion keywords, the emotion keyword extraction model 162 for identifying the emotion keyword corresponding to the feature keyword ) can be generated and stored in the memory 160 .
  • the processor 170 may generate the emotion keyword extraction model 162 through machine learning.
  • the processor 170 may generate the emotion keyword extraction model 162 using a generative adversarial network (GAN).
  • GAN generative adversarial network
  • the processor 170 may generate the emotion keyword extraction model 162 using Deep Convolutional Generative Adversarial Networks (DCGAN).
  • DCGAN Deep Convolutional Generative Adversarial Networks
  • FIG. 3 is a flowchart illustrating operations performed by a server according to an embodiment of the present invention. Specifically, FIG. 3 shows operations for adding new video content acquired from the outside to the database 161 .
  • the processor 170 of the server 106 may acquire a plurality of second video contents.
  • the processor 170 of the server 106 may analyze the plurality of second video contents to obtain a plurality of second characteristic keywords associated with each of the plurality of second video contents.
  • a plurality of feature keywords may be associated with one video content.
  • the processor 170 of the server 106 performs a plurality of second emotions corresponding to each of the plurality of second video contents based on the plurality of second characteristic keywords and the emotion keyword extraction model 162 . You can get keywords. According to various embodiments, a plurality of emotion keywords may be associated with one video content.
  • the processor 170 of the server 106 may store the plurality of second video contents and a plurality of second emotion keywords corresponding to each of the plurality of second video contents to be stored in the database 161 . .
  • the processor 120 of the user device 401 sends a search keyword to the server 402 (eg, the server 106 ) through the communication unit 110 .
  • the search keyword may be input by a user of the user device 401 (eg, the user device 101 ).
  • the processor 170 of the server 402 may identify at least one third emotion keyword corresponding to the search keyword.
  • the memory 160 of the server 402 eg, the server 106
  • the keyword portion corresponding to the emotional keyword of “love” may include at least one of “comfortable,” “warm,” and “hun-hoon.”
  • the processor 170 may check a degree of similarity between the search keyword and a plurality of predefined keyword parts, and check an emotion keyword corresponding to a keyword part having a high degree of similarity as a third emotion keyword corresponding to the search keyword.
  • the processor 170 of the server 402 (eg, the server 106 ) performs at least one third You can check the video content.
  • the processor 170 of the server 402 may transmit information about at least one third video content to the user device 401 through the communication unit 180 .
  • the information about the video content may include at least one of a title of the video content, a name of a creator of the video content, an emotion keyword corresponding to the video content, and a feature keyword corresponding to the video content.
  • the operation according to the embodiment of the present invention can be implemented as a computer-readable program or code on a computer-readable recording medium.
  • the computer-readable recording medium includes all types of recording devices in which data that can be read by a computer system is stored.
  • the computer-readable recording medium may be distributed in a network-connected computer system to store and execute computer-readable programs or codes in a distributed manner.
  • the computer-readable recording medium may include a hardware device specially configured to store and execute program instructions, such as ROM, RAM, and flash memory.
  • the program instructions may include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
  • aspects of the invention have been described in the context of an apparatus, it may also represent a description according to a corresponding method, wherein a block or apparatus corresponds to a method step or feature of a method step. Similarly, aspects described in the context of a method may also represent a corresponding block or item or a corresponding device feature. Some or all of the method steps may be performed by (or using) a hardware device such as, for example, a microprocessor, programmable computer or electronic circuit. In some embodiments, one or more of the most important method steps may be performed by such an apparatus.
  • a programmable logic device eg, a field programmable gate array
  • the field programmable gate array may operate in conjunction with a microprocessor to perform one of the methods described herein.
  • the methods are preferably performed by some hardware device.

Abstract

본 발명의 일 실시예에 따른 서버는, 사용자 장치와 통신을 수행하도록 구성되는 통신부, 프로세서, 및 메모리를 포함하고, 상기 프로세서는, 복수의 제1 비디오 컨텐츠 및 상기 복수의 제1 비디오 컨텐츠 각각에 연관된 복수의 제1 감정 키워드를 획득하여 상기 메모리에 저장하고, 상기 복수의 제1 비디오 컨텐츠를 분석하여, 상기 복수의 제1 비디오 컨텐츠 각각에 연관된 복수의 제1 특징 키워드를 획득하고, 상기 복수의 제1 특징 키워드와 상기 복수의 제1 감정 키워드에 기초하여, 특징 키워드에 대응하는 감정 키워드를 확인하기 위한 감정 키워드 추출 모델을 생성하여 상기 메모리에 저장하도록 구성될 수 있다. 그 밖의 다양한 실시예가 가능하다.

Description

비디오 컨텐츠로부터 키워드를 추출하는 전자 장치 및 비디오 컨텐츠로부터 키워드를 추출하는 방법
비디오 컨텐츠로부터 키워드를 추출하는 전자 장치 및 비디오 컨텐츠로부터 키워드를 추출하는 방법에 관한 것이다.
멀티미디어 컨텐츠의 사용량이 증가하는 추세에 따라, 사용자에게 방대한 종류의 멀티미디어 컨텐츠를 제공하는 서비스들이 널리 이용되고 있다. 사용자들은 방대한 종류의 멀티미디어 컨텐츠 중 자신이 이용하고자 하는 컨텐츠를 선별하기 위하여 검색어를 입력하고, 서비스 제공자 서버에서는 컨텐츠의 데이터베이스에 포함되는 컨텐츠들 중 사용자가 입력한 검색어에 대응되는 컨텐츠를 선별하여 사용자에게 제공할 수 있다.
기존의 비디오 컨텐츠 제공 서비스에서는, 비디오 컨텐츠에 포함되는 객체를 기준으로 하여 복수의 비디오 컨텐츠들을 분류하고, 각 비디오 컨텐츠에 비디오 컨텐츠에 포함되는 객체를 나타내는 키워드를 연관시켜 저장하였다. 이 경우, 사용자는 어떤 객체를 포함하는 비디오 컨텐츠를 얻고 싶은지를 나타내는 검색어를 입력하였다. 그러나, 비디오 컨텐츠를 제공받고자 하는 사용자는 비디오 컨텐츠를 통하여 감정적 변화를 일으키고자 하는 경우가 많으므로, 비디오 컨텐츠에 포함되는 객체를 기준으로 하지 않고, 비디오 컨텐츠가 유발하는 감정을 기준으로 비디오 컨텐츠를 검색하고자 할 수 있다.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 비디오 컨텐츠로부터 키워드를 추출하는 전자 장치 및 비디오 컨텐츠로부터 키워드를 추출하는 방법을 제공하는 데 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 서버는, 사용자 장치와 통신을 수행하도록 구성되는 통신부, 프로세서, 및 메모리를 포함하고, 상기 프로세서는, 복수의 제1 비디오 컨텐츠 및 상기 복수의 제1 비디오 컨텐츠 각각에 연관된 복수의 제1 감정 키워드를 획득하여 상기 메모리에 저장하고, 상기 복수의 제1 비디오 컨텐츠를 분석하여, 상기 복수의 제1 비디오 컨텐츠 각각에 연관된 복수의 제1 특징 키워드를 획득하고, 상기 복수의 제1 특징 키워드와 상기 복수의 제1 감정 키워드에 기초하여, 특징 키워드에 대응하는 감정 키워드를 확인하기 위한 감정 키워드 추출 모델을 생성하여 상기 메모리에 저장하도록 구성될 수 있다.
여기서, 상기 프로세서는, 복수의 제2 비디오 컨텐츠를 획득하고, 상기 복수의 제2 비디오 컨텐츠를 분석하여, 상기 복수의 제2 비디오 컨텐츠 각각에 연관된 복수의 제2 특징 키워드를 획득하고, 상기 복수의 제2 특징 키워드 및 상기 감정 키워드 추출 모델에 기초하여, 상기 복수의 제2 비디오 컨텐츠 각각에 대응되는 복수의 제2 감정 키워드를 획득하고, 상기 복수의 제2 비디오 컨텐츠 및 상기 복수의 제2 비디오 컨텐츠 각각에 대응되는 복수의 제2 감정 키워드를 상기 메모리에 저장하도록 구성될 수 있다.
여기서, 상기 프로세서는, 상기 통신부를 통하여, 상기 사용자 장치로부터 검색 키워드를 수신하고, 상기 검색 키워드를 분석하여, 상기 검색 키워드에 대응되는 적어도 하나의 제3 감정 키워드를 확인하고, 상기 복수의 제1 비디오 컨텐츠 및 상기 복수의 제2 비디오 컨텐츠 중, 상기 적어도 하나의 제3 감정 키워드에 대응하는 적어도 하나의 제3 비디오 컨텐츠를 확인하고, 상기 적어도 하나의 제3 비디오 컨텐츠에 관한 정보를 상기 통신부를 통하여 상기 사용자 장치에 전송하도록 구성될 수 있다.
여기서, 상기 메모리는, 복수의 감정 키워드 각각에 대응하는 복수의 키워드 부분의 목록을 저장하고, 상기 프로세서는 상기 검색 키워드에 대응되는 적어도 하나의 제3 감정 키워드를 확인하기 위하여, 상기 검색 키워드와 상기 복수의 키워드 부분의 유사도를 확인하도록 구성될 수 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 서버에서 수행되는 방법은, 복수의 제1 비디오 컨텐츠 및 상기 복수의 제1 비디오 컨텐츠 각각에 연관된 복수의 제1 감정 키워드를 획득하여 메모리에 저장하는 동작, 상기 복수의 제1 비디오 컨텐츠를 분석하여, 상기 복수의 제1 비디오 컨텐츠 각각에 연관된 복수의 제1 특징 키워드를 획득하는 동작, 및 상기 복수의 제1 특징 키워드와 상기 복수의 제1 감정 키워드에 기초하여, 특징 키워드에 대응하는 감정 키워드를 확인하기 위한 감정 키워드 추출 모델을 생성하여 상기 메모리에 저장하는 동작을 포함할 수 있다.
여기서, 상기 방법은 복수의 제2 비디오 컨텐츠를 획득하는 동작, 상기 복수의 제2 비디오 컨텐츠를 분석하여, 상기 복수의 제2 비디오 컨텐츠 각각에 연관된 복수의 제2 특징 키워드를 획득하는 동작, 상기 복수의 제2 특징 키워드 및 상기 감정 키워드 추출 모델에 기초하여, 상기 복수의 제2 비디오 컨텐츠 각각에 대응되는 복수의 제2 감정 키워드를 획득하는 동작, 및 상기 복수의 제2 비디오 컨텐츠 및 상기 복수의 제2 비디오 컨텐츠 각각에 대응되는 복수의 제2 감정 키워드를 상기 메모리에 저장하는 동작을 더 포함할 수 있다.
여기서, 상기 방법은 사용자 장치로부터 검색 키워드를 수신하는 동작, 상기 검색 키워드를 분석하여, 상기 검색 키워드에 대응되는 적어도 하나의 제3 감정 키워드를 확인하는 동작, 상기 복수의 제1 비디오 컨텐츠 및 상기 복수의 제2 비디오 컨텐츠 중, 상기 적어도 하나의 제3 감정 키워드에 대응하는 적어도 하나의 제3 비디오 컨텐츠를 확인하는 동작, 및 상기 적어도 하나의 제3 비디오 컨텐츠에 관한 정보를 상기 사용자 장치에 전송하는 동작을 더 포함할 수 있다.
여기서, 상기 방법은 복수의 감정 키워드 각각에 대응하는 복수의 키워드 부분의 목록을 저장하는 동작을 더 포함하고, 상기 검색 키워드에 대응되는 적어도 하나의 제3 감정 키워드를 확인하는 동작은, 상기 검색 키워드와 상기 복수의 키워드 부분의 유사도를 확인하는 동작을 포함할 수 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 비일시적 저장 매체는 명령어를 저장하고, 상기 명령어는 전자 장치에 의하여 실행될 때, 전자 장치로 하여금, 검색 키워드를 입력받고, 상기 검색 키워드를 서버에 전송하고, 상기 서버로부터 상기 검색 키워드에 연관되는 감정 키워드에 대응되는 적어도 하나의 비디오 컨텐츠에 관한 정보를 수신하고, 상기 적어도 하나의 비디오 컨텐츠에 관한 정보를 표시하도록 할 수 있다.
여기서, 상기 검색 키워드에 연관되는 감정 키워드는, 복수의 미리 정의된 감정 키워드 각각에 대응되는 복수의 키워드 부분과 상기 검색 키워드 사이의 유사도에 기초하여 확인될 수 있다.
본 발명에 따르면, 비디오 컨텐츠로부터 키워드를 추출하는 전자 장치 및 비디오 컨텐츠로부터 키워드를 추출하는 방법을 제공할 수 있다. 본 발명의 서버는 비디오 컨텐츠로부터 감정을 나타내는 감정 키워드를 획득하고, 감정 키워드와 비디오 컨텐츠를 연관시켜 저장하므로, 사용자가 감정을 나타내는 검색 키워드를 입력하였을 때 사용자가 원하는 감정과 관련된 비디오 컨텐츠를 제공할 수 있다.
도 1는 본 발명의 일 실시예에 따른 사용자 장치 및 서버의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 서버에서 수행되는 동작들을 나타내는 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 서버에서 수행되는 동작들을 나타내는 흐름도이다.
도 4는 본 발명의 일 실시예에 따른, 사용자 장치 및 서버에서 수행되는 동작들을 나타낸다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
도 1는 본 발명의 일 실시예에 따른 사용자 장치 및 서버의 블록도이다. 사용자 장치(101)는 통신부(110), 프로세서(120), 및 메모리(130)를 포함할 수 있다. 통신부(110)는 서버(106)를 포함한, 사용자 장치(101) 외의 다른 전자 장치와 통신을 수행할 수 있다. 통신부(110)가 다른 전자 장치와 수행하는 통신 방법의 종류는 한정되지 않는다.
다양한 실시예에 따라서, 사용자 장치(101)의 통신부(110)는 서버(106)에 사용자가 입력한 검색 키워드(191)를 송신하고, 서버(106)로부터 검색 키워드 (191)에 대응되는 비디오 컨텐츠에 관한 정보(192)를 수신할 수 있다.
프로세서(120)는 통신부(110) 및 메모리(130)와 같은, 사용자 장치(101)의 다른 구성요소들을 제어하거나, 사용자 장치(101)의 다른 구성요소들로부터 데이터를 전달받을 수 있다. 이후 본 명세서에서, 프로세서(120)가 통신부(110) 및 메모리(130)와 같은, 사용자 장치(101)의 다른 구성요소들을 통하여 어떠한 동작을 수행한다는 것은, 해당 동작을 수행하도록 사용자 장치(101)의 다른 구성요소들을 제어한다는 것을 의미할 수 있다. 또한, 프로세서(120)는 사용자 장치(101)의 다른 구성요소들로부터 전달받은 데이터에 연산을 수행할 수 있다.
메모리(130)는 프로세서(120)에 의하여 수행된 연산의 결과를 저장할 수 있다. 다양한 실시예에 따라서, 메모리(130)는 본 발명의 일 실시예에 따른 사용자 장치(101)에서 수행되는 동작들을 수행하도록 하는, 컴퓨터로 실행가능한 명령어들을 저장할 수 있다.
서버(106)는 메모리(160), 프로세서(170), 및 통신부(180)를 포함할 수 있다. 메모리(160)는 데이터베이스(161) 및 감성 키워드 추출 모델(162)을 포함할 수 있다.
다양한 실시예에 따라서, 데이터베이스(161)는 복수의 비디오 컨텐츠 및 복수의 비디오 컨텐츠 각각에 대응되는 감정 키워드를 연관시켜 저장할 수 있다. 다양한 실시예에 따라서, 감정 키워드는 미리 정의된 복수의 감정 키워드들 중에서 결정될 수 있다. 다양한 실시예에 따라서, 복수의 감정 키워드는 하나 이상의 카테고리로 분류될 수 있고, 하나 이상의 카테고리 각각이 감정 키워드에 포함될 수 있다. 예를 들어, 카테고리가 되는 감정 키워드는 사랑, 공포, 분노, 슬픔, 행복, 놀라움, 및 혐오 중 적어도 하나를 포함할 수 있다. 예를 들어, "사랑" 카테고리에 포함되는 감정 키워드는 신뢰, 열정, 친밀, 젠틀, 및 인정 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따라서, 감성 키워드 추출 모델(162)은 특징 키워드에 대응하는 감정 키워드를 확인하는 데 사용될 수 있다. 다양한 실시예에 따라서, 비디오 컨텐츠 각각에 대하여 하나 이상의 특징 키워드가 정의될 수 있다. 다양한 실시예에 따라서, 특징 키워드는 비디오 컨텐츠의 다양한 특징을 나타낼 수 있다. 예를 들어, 특징 키워드는 비디오 컨텐츠에 포함되는 객체에 대한 정보를 나타내는 객체 키워드를 포함할 수 있다. 객체 키워드는, 예를 들어, 강아지, 가족, 어린이, 및 바다 중 적어도 하나를 포함할 수 있다. 예를 들어, 특징 키워드는 비디오 컨텐츠에 표시되는 행동에 대한 정보를 나타내는 행동 키워드를 포함할 수 있다. 행동 키워드는, 예를 들어, 포옹, 수영, 달리기, 및 차 주행 중 적어도 하나를 포함할 수 있다. 예를 들어, 특징 키워드는 비디오 컨텐츠가 나타내는 색채에 대한 정보를 나타내는 색채 키워드를 포함할 수 있다. 색채 키워드는, 예를 들어, 푸른 색, 파스텔 톤, 흑백, 붉은 색, 난색(warm color), 및 한색(cold color) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에 따라서, 비디오 컨텐츠에 대응하는 색채 키워드는 비디오 컨텐츠에 포함되는 복수의 프레임에서 사용된 복수의 색채들 중 각 색채가 각 프레임 내에서 차지하는 면적 및 각 색채가 사용된 프레임의 개수 중 적어도 하나를 기초로 결정될 수 있다. 다양한 실시예에 따라서, 각 색채가 각 프레임 내에서 차지하는 면적을 모든 프레임에 대하여 더하고, 이 값이 가장 큰 일정 개수의 색채를 비디오 컨텐츠에 대응하는 색채 키워드로 결정할 수 있다.
다양한 실시예에 따라서, 감성 키워드 추출 모델(162)을 생성하는 방법에 대해서는 도 2를 참조하여 후술한다.
프로세서(170)는 통신부(180)와 같은 서버(106)의 다른 구성요소들을 제어하거나, 사용자 장치(101)의 다른 구성요소들로부터 데이터를 전달받을 수 있다. 이후 본 명세서에서, 프로세서(170)가 통신부(180)와 같은, 서버(106)의 다른 구성요소들을 통하여 어떠한 동작을 수행한다는 것은, 해당 동작을 수행하도록 서버(106)의 다른 구성요소들을 제어한다는 것을 의미할 수 있다. 또한, 프로세서(170)는 서버(106)의 다른 구성요소들로부터 전달받은 데이터에 연산을 수행할 수 있다.
다양한 실시예에 따라서, 프로세서(170)는 데이터베이스(161)에 기초하여 감성 키워드 추출 모델(162)을 생성할 수 있다. 또한, 다양한 실시예에 따라서, 프로세서(170)는 감성 키워드 추출 모델(162)에 기초하여 복수의 비디오 컨텐츠에 대응되는 특징 키워드를 획득하고, 획득된 특징 키워드를 복수의 비디오 컨텐츠에 각각 대응시켜 데이터베이스(161)에 저장할 수 있다. 또한, 다양한 실시예에 따라서, 프로세서(170)는 통신부(180)를 통하여 사용자 장치(101)로부터 검색 키워드(191)를 수신하고, 수신된 검색 키워드(191)에 대응되는 적어도 하나의 비디오 컨텐츠에 관한 정보(192)를 통신부(180)를 통하여 사용자 장치(101)에 리턴할 수 있다.
통신부(180)는 사용자 장치(101)를 포함한, 서버(106) 외의 다른 전자 장치와 통신을 수행할 수 있다. 통신부(110)가 서버(106) 외의 다른 전자 장치와 수행하는 통신 방법의 종류는 한정되지 않는다.
도 2
도 2는 본 발명의 일 실시예에 따른 서버에서 수행되는 동작들을 나타내는 흐름도이다. 210 동작에서, 서버(106)의 프로세서(170)는 복수의 제1 비디오 컨텐츠 및 상기 복수의 제1 비디오 컨텐츠 각각에 연관된 복수의 제1 감정 키워드를 획득하여 데이터베이스(161)에 저장할 수 있다. 다양한 실시예에 따라서, 하나의 비디오 컨텐츠에 복수의 감정 키워드가 연관될 수 있다.
220 동작에서, 서버(106)의 프로세서(170)는 상기 복수의 제1 비디오 컨텐츠를 분석하여, 상기 복수의 제1 비디오 컨텐츠 각각에 연관된 복수의 제1 특징 키워드를 획득할 수 있다. 다양한 실시예에 따라서, 하나의 비디오 컨텐츠에 복수의 특징 키워드가 연관될 수 있다.
230 동작에서, 서버(106)의 프로세서(170)는 상기 복수의 제1 특징 키워드와 상기 복수의 제1 감정 키워드에 기초하여, 특징 키워드에 대응하는 감정 키워드를 확인하기 위한 감정 키워드 추출 모델(162)을 생성하여 메모리(160)에 저장할 수 있다. 다양한 실시예에 따라서, 프로세서(170)는 머신 러닝을 통하여 감정 키워드 추출 모델(162)을 생성할 수 있다. 다양한 실시예에 따라서, 프로세서(170)는 생성적 적대 신경망(Generative Adversarial Networks, GAN)을 이용하여 감정 키워드 추출 모델(162)을 생성할 수 있다. 다양한 실시예에 따라서, 프로세서(170)는 심층 합성곱 생성적 적대 신경망(Deep Convolutional Generative Adversarial Networks, DCGAN)을 이용하여 감정 키워드 추출 모델(162)을 생성할 수 있다.
도 3은 본 발명의 일 실시예에 따른 서버에서 수행되는 동작들을 나타내는 흐름도이다. 구체적으로, 도 3은 외부로부터 획득된 새로운 비디오 컨텐츠를 데이터베이스(161)에 추가하기 위한 동작들을 도시한다.
310 동작에서, 서버(106)의 프로세서(170)는 복수의 제2 비디오 컨텐츠를 획득할 수 있다.
320 동작에서, 서버(106)의 프로세서(170)는 상기 복수의 제2 비디오 컨텐츠를 분석하여, 상기 복수의 제2 비디오 컨텐츠 각각에 연관된 복수의 제2 특징 키워드를 획득할 수 있다. 다양한 실시예에 따라서, 하나의 비디오 컨텐츠에 복수의 특징 키워드가 연관될 수 있다.
330 동작에서, 서버(106)의 프로세서(170)는 상기 복수의 제2 특징 키워드 및 상기 감정 키워드 추출 모델(162)에 기초하여, 상기 복수의 제2 비디오 컨텐츠 각각에 대응되는 복수의 제2 감정 키워드를 획득할 수 있다. 다양한 실시예에 따라서, 하나의 비디오 컨텐츠에 복수의 감정 키워드가 연관될 수 있다.
340 동작에서, 서버(106)의 프로세서(170)는 상기 복수의 제2 비디오 컨텐츠 및 상기 복수의 제2 비디오 컨텐츠 각각에 대응되는 복수의 제2 감정 키워드를 대응시켜 데이터베이스(161)에 저장할 수 있다.
도 4는 본 발명의 일 실시예에 따른, 사용자 장치 및 서버에서 수행되는 동작들을 나타낸다. 410 동작에서, 사용자 장치(401)(예를 들어, 사용자 장치(101))의 프로세서(120)는 통신부(110)를 통하여 서버(402)(예를 들어, 서버(106))에 검색 키워드를 송신할 수 있다. 다양한 실시예에 따라서, 검색 키워드는 사용자 장치(401)(예를 들어, 사용자 장치(101))의 사용자에 의하여 입력된 것일 수 있다.
420 동작에서, 서버(402)(예를 들어, 서버(106))의 프로세서(170)는 검색 키워드에 대응되는 적어도 하나의 제3 감정 키워드를 확인할 수 있다. 구체적으로, 서버(402)(예를 들어, 서버(106))의 메모리(160)에는 미리 정의된 복수의 감정 키워드들에 각각 대응하는 복수의 키워드 부분의 목록이 저장될 수 있다. 예를 들어, "사랑"이라는 감정 키워드에 대응하는 키워드 부분은 "포근" "따뜻" 및 "훈훈" 중 적어도 하나를 포함할 수 있다. 프로세서(170)는 검색 키워드와 미리 정의된 복수의 키워드 부분 사이의 유사도를 확인하고, 유사도가 높은 키워드 부분에 대응하는 감정 키워드를 검색 키워드에 대응되는 제3 감정 키워드로서 확인할 수 있다.
430 동작에서, 서버(402)(예를 들어, 서버(106))의 프로세서(170)는 데이터베이스(161)에 저장된 복수의 비디오 컨텐츠 중 적어도 하나의 제3 감정 키워드에 대응하는 적어도 하나의 제3 비디오 컨텐츠를 확인할 수 있다.
440 동작에서, 서버(402)(예를 들어, 서버(106))의 프로세서(170)는 통신부(180)를 통하여 적어도 하나의 제3 비디오 컨텐츠에 관한 정보를 사용자 장치(401)에 송신할 수 있다. 다양한 실시예에 따라서, 비디오 컨텐츠에 관한 정보는 비디오 컨텐츠의 제목, 비디오 컨텐츠의 제작자 이름, 비디오 컨텐츠에 대응되는 감정 키워드, 및 비디오 컨텐츠에 대응되는 특징 키워드 중 적어도 하나를 포함할 수 있다.
본 발명의 실시예에 따른 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다.
또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.
본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다.
실시예들에서, 프로그램 가능한 로직 장치(예를 들어, 필드 프로그래머블 게이트 어레이)가 여기서 설명된 방법들의 기능의 일부 또는 전부를 수행하기 위해 사용될 수 있다. 실시예들에서, 필드 프로그래머블 게이트 어레이는 여기서 설명된 방법들 중 하나를 수행하기 위한 마이크로프로세서와 함께 작동할 수 있다. 일반적으로, 방법들은 어떤 하드웨어 장치에 의해 수행되는 것이 바람직하다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (10)

  1. 서버에 있어서,
    사용자 장치와 통신을 수행하도록 구성되는 통신부,
    프로세서, 및
    메모리를 포함하고,
    상기 프로세서는,
    복수의 제1 비디오 컨텐츠 및 상기 복수의 제1 비디오 컨텐츠 각각에 연관된 복수의 제1 감정 키워드를 획득하여 상기 메모리에 저장하고,
    상기 복수의 제1 비디오 컨텐츠를 분석하여, 상기 복수의 제1 비디오 컨텐츠 각각에 연관된 복수의 제1 특징 키워드를 획득하고,
    상기 복수의 제1 특징 키워드와 상기 복수의 제1 감정 키워드에 기초하여, 특징 키워드에 대응하는 감정 키워드를 확인하기 위한 감정 키워드 추출 모델을 생성하여 상기 메모리에 저장하도록 구성되는, 서버.
  2. 청구항 1에 있어서,
    상기 프로세서는,
    복수의 제2 비디오 컨텐츠를 획득하고,
    상기 복수의 제2 비디오 컨텐츠를 분석하여, 상기 복수의 제2 비디오 컨텐츠 각각에 연관된 복수의 제2 특징 키워드를 획득하고,
    상기 복수의 제2 특징 키워드 및 상기 감정 키워드 추출 모델에 기초하여, 상기 복수의 제2 비디오 컨텐츠 각각에 대응되는 복수의 제2 감정 키워드를 획득하고,
    상기 복수의 제2 비디오 컨텐츠 및 상기 복수의 제2 비디오 컨텐츠 각각에 대응되는 복수의 제2 감정 키워드를 상기 메모리에 저장하도록 구성되는, 서버.
  3. 청구항 2에 있어서,
    상기 프로세서는,
    상기 통신부를 통하여, 상기 사용자 장치로부터 검색 키워드를 수신하고,
    상기 검색 키워드를 분석하여, 상기 검색 키워드에 대응되는 적어도 하나의 제3 감정 키워드를 확인하고,
    상기 복수의 제1 비디오 컨텐츠 및 상기 복수의 제2 비디오 컨텐츠 중, 상기 적어도 하나의 제3 감정 키워드에 대응하는 적어도 하나의 제3 비디오 컨텐츠를 확인하고,
    상기 적어도 하나의 제3 비디오 컨텐츠에 관한 정보를 상기 통신부를 통하여 상기 사용자 장치에 전송하도록 구성되는, 서버.
  4. 청구항 3에 있어서,
    상기 메모리는, 복수의 감정 키워드 각각에 대응하는 복수의 키워드 부분의 목록을 저장하고,
    상기 프로세서는 상기 검색 키워드에 대응되는 적어도 하나의 제3 감정 키워드를 확인하기 위하여, 상기 검색 키워드와 상기 복수의 키워드 부분의 유사도를 확인하도록 구성되는, 서버.
  5. 서버에서 수행되는 방법에 있어서,
    복수의 제1 비디오 컨텐츠 및 상기 복수의 제1 비디오 컨텐츠 각각에 연관된 복수의 제1 감정 키워드를 획득하여 메모리에 저장하는 동작,
    상기 복수의 제1 비디오 컨텐츠를 분석하여, 상기 복수의 제1 비디오 컨텐츠 각각에 연관된 복수의 제1 특징 키워드를 획득하는 동작, 및
    상기 복수의 제1 특징 키워드와 상기 복수의 제1 감정 키워드에 기초하여, 특징 키워드에 대응하는 감정 키워드를 확인하기 위한 감정 키워드 추출 모델을 생성하여 상기 메모리에 저장하는 동작을 포함하는 방법.
  6. 청구항 5에 있어서,
    복수의 제2 비디오 컨텐츠를 획득하는 동작,
    상기 복수의 제2 비디오 컨텐츠를 분석하여, 상기 복수의 제2 비디오 컨텐츠 각각에 연관된 복수의 제2 특징 키워드를 획득하는 동작,
    상기 복수의 제2 특징 키워드 및 상기 감정 키워드 추출 모델에 기초하여, 상기 복수의 제2 비디오 컨텐츠 각각에 대응되는 복수의 제2 감정 키워드를 획득하는 동작, 및
    상기 복수의 제2 비디오 컨텐츠 및 상기 복수의 제2 비디오 컨텐츠 각각에 대응되는 복수의 제2 감정 키워드를 상기 메모리에 저장하는 동작을 더 포함하는 방법.
  7. 청구항 6에 있어서,
    사용자 장치로부터 검색 키워드를 수신하는 동작,
    상기 검색 키워드를 분석하여, 상기 검색 키워드에 대응되는 적어도 하나의 제3 감정 키워드를 확인하는 동작,
    상기 복수의 제1 비디오 컨텐츠 및 상기 복수의 제2 비디오 컨텐츠 중, 상기 적어도 하나의 제3 감정 키워드에 대응하는 적어도 하나의 제3 비디오 컨텐츠를 확인하는 동작, 및
    상기 적어도 하나의 제3 비디오 컨텐츠에 관한 정보를 상기 사용자 장치에 전송하는 동작
    을 더 포함하는 방법.
  8. 청구항 7에 있어서,
    복수의 감정 키워드 각각에 대응하는 복수의 키워드 부분의 목록을 저장하는 동작을 더 포함하고,
    상기 검색 키워드에 대응되는 적어도 하나의 제3 감정 키워드를 확인하는 동작은, 상기 검색 키워드와 상기 복수의 키워드 부분의 유사도를 확인하는 동작을 포함하는, 방법.
  9. 명령어를 저장하는 비일시적 저장 매체에 있어서, 상기 명령어는 전자 장치에 의하여 실행될 때, 전자 장치로 하여금,
    검색 키워드를 입력받고,
    상기 검색 키워드를 서버에 전송하고,
    상기 서버로부터 상기 검색 키워드에 연관되는 감정 키워드에 대응되는 적어도 하나의 비디오 컨텐츠에 관한 정보를 수신하고,
    상기 적어도 하나의 비디오 컨텐츠에 관한 정보를 표시하도록 하는, 비일시적 저장 매체.
  10. 청구항 9에 있어서,
    상기 검색 키워드에 연관되는 감정 키워드는, 복수의 미리 정의된 감정 키워드 각각에 대응되는 복수의 키워드 부분과 상기 검색 키워드 사이의 유사도에 기초하여 확인되는, 비일시적 저장 매체.
PCT/KR2020/017402 2020-08-01 2020-12-01 비디오 컨텐츠로부터 키워드를 추출하는 전자 장치 및 비디오 컨텐츠로부터 키워드를 추출하는 방법 WO2022059854A1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20200096482 2020-08-01
KR1020200119562A KR102280696B1 (ko) 2020-08-01 2020-09-17 비디오 컨텐츠로부터 키워드를 추출하는 전자 장치 및 비디오 컨텐츠로부터 키워드를 추출하는 방법
KR10-2020-0119562 2020-09-17

Publications (1)

Publication Number Publication Date
WO2022059854A1 true WO2022059854A1 (ko) 2022-03-24

Family

ID=77158225

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/017402 WO2022059854A1 (ko) 2020-08-01 2020-12-01 비디오 컨텐츠로부터 키워드를 추출하는 전자 장치 및 비디오 컨텐츠로부터 키워드를 추출하는 방법

Country Status (2)

Country Link
KR (1) KR102280696B1 (ko)
WO (1) WO2022059854A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114218436A (zh) * 2021-12-20 2022-03-22 天翼爱音乐文化科技有限公司 一种基于内容占比的视频搜索方法、系统、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150092591A (ko) * 2014-02-05 2015-08-13 한국전자통신연구원 감정인식 기반 영상물 분류 방법
KR20160057864A (ko) * 2014-11-14 2016-05-24 삼성전자주식회사 요약 컨텐츠를 생성하는 전자 장치 및 그 방법
KR20160143411A (ko) * 2015-06-05 2016-12-14 아주대학교산학협력단 감정 온톨로지에 기반한 동영상 컨텐츠 추천 장치 및 그 방법
KR20180136265A (ko) * 2017-06-14 2018-12-24 주식회사 핀인사이트 구간 영상 검색 및 제공 장치, 방법 및 컴퓨터-판독가능 매체
KR102032091B1 (ko) * 2019-03-15 2019-10-14 배준철 인공지능 기반의 댓글 감성 분석 방법 및 그 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150092591A (ko) * 2014-02-05 2015-08-13 한국전자통신연구원 감정인식 기반 영상물 분류 방법
KR20160057864A (ko) * 2014-11-14 2016-05-24 삼성전자주식회사 요약 컨텐츠를 생성하는 전자 장치 및 그 방법
KR20160143411A (ko) * 2015-06-05 2016-12-14 아주대학교산학협력단 감정 온톨로지에 기반한 동영상 컨텐츠 추천 장치 및 그 방법
KR20180136265A (ko) * 2017-06-14 2018-12-24 주식회사 핀인사이트 구간 영상 검색 및 제공 장치, 방법 및 컴퓨터-판독가능 매체
KR102032091B1 (ko) * 2019-03-15 2019-10-14 배준철 인공지능 기반의 댓글 감성 분석 방법 및 그 시스템

Also Published As

Publication number Publication date
KR102280696B1 (ko) 2021-07-22

Similar Documents

Publication Publication Date Title
WO2017039086A1 (ko) 웹플러그인 기반 딥러닝 모듈화시스템 및 이를 이용한 영상인식방법
WO2018030672A1 (ko) 머신러닝을 활용한 정해진 시나리오로 고객과 상담하는 로봇 자동 상담 방법 및 시스템
WO2021112465A1 (ko) 클라우드 저작물 분석을 통한 디자인 추천 방법
JP2002092032A (ja) 次検索候補単語提示方法および装置と次検索候補単語提示プログラムを記録した記録媒体
CN107071554B (zh) 语义识别方法和装置
WO2020196977A1 (ko) 사용자 페르소나를 고려한 대화형 에이전트 장치 및 방법
CN112929253B (zh) 一种虚拟形象交互方法和装置
CN110210212A (zh) 一种数据处理方法、装置以及相关设备
CN106649446A (zh) 信息推送方法和装置
CN105975557A (zh) 应用于电子设备的题目搜索方法及装置
CN108304368A (zh) 文本信息的类型识别方法和装置及存储介质和处理器
WO2022059854A1 (ko) 비디오 컨텐츠로부터 키워드를 추출하는 전자 장치 및 비디오 컨텐츠로부터 키워드를 추출하는 방법
EP3984022A1 (en) System and method for natural language understanding
CN111241496B (zh) 确定小程序特征向量的方法、装置和电子设备
WO2015102125A1 (ko) 문자형 대화 시스템 및 방법
CN106095998B (zh) 应用于智能终端的精准搜题方法及装置
CN109819002A (zh) 数据推送方法和装置、存储介质及电子装置
CN110442803A (zh) 由计算设备执行的数据处理方法、装置、介质和计算设备
CN109741739A (zh) 一种应用处理方法及装置
CN106802941B (zh) 一种答复信息的生成方法和设备
WO2022255850A1 (ko) 다국어 번역 지원이 가능한 채팅시스템 및 제공방법
CN107679034A (zh) 信息处理方法及其装置
CN114676705A (zh) 一种对话关系处理方法、计算机及可读存储介质
CN108809900B (zh) 一种统一资源访问的框架及方法
US20190138594A1 (en) Pronoun Mapping for Sub-Context Rendering

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20954248

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 030823)

122 Ep: pct application non-entry in european phase

Ref document number: 20954248

Country of ref document: EP

Kind code of ref document: A1