KR102510317B1 - 비디오 태그의 생성 방법, 장치, 전자 기기 및 저장 매체 - Google Patents

비디오 태그의 생성 방법, 장치, 전자 기기 및 저장 매체 Download PDF

Info

Publication number
KR102510317B1
KR102510317B1 KR1020210038311A KR20210038311A KR102510317B1 KR 102510317 B1 KR102510317 B1 KR 102510317B1 KR 1020210038311 A KR1020210038311 A KR 1020210038311A KR 20210038311 A KR20210038311 A KR 20210038311A KR 102510317 B1 KR102510317 B1 KR 102510317B1
Authority
KR
South Korea
Prior art keywords
video
information
tag
candidate
generating
Prior art date
Application number
KR1020210038311A
Other languages
English (en)
Other versions
KR20210040329A (ko
Inventor
쳉시앙 리우
하오 리우
보레이 헤
Original Assignee
베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. filed Critical 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Publication of KR20210040329A publication Critical patent/KR20210040329A/ko
Application granted granted Critical
Publication of KR102510317B1 publication Critical patent/KR102510317B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4662Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4668Learning process for intelligent management, e.g. learning user preferences for recommending movies for recommending content, e.g. movies

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Library & Information Science (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 출원은 비디오 태그의 생성 방법, 장치, 전자 기기 및 저장 매체를 개시하며, 자연 언어 처리, 딥 러닝 기술 분야에 관한 것이다. 구체적인 구현 수단은, 비디오의 복수의 후보 태그 및 비디오 정보를 획득하고, 비디오 정보와 복수의 후보 태그 사이의 제1 상관성 정보를 각각 계산한 다음, 제1 상관성 정보에 따라 복수의 후보 태그를 배열하고, 배열 결과에 따라 비디오의 태그를 생성하는 것이다. 이로써, 비디오 정보와 각각의 후보 태그 사이의 상관성 정보에 따라, 복수의 후보 태그를 배열하고, 배열 결과에 따라 비디오의 태그를 생성함으로써, 복수의 후보 태그의 통합 이용을 구현하며, 비디오에 정확하고 완벽한 태그를 지정하여, 비디오 태그의 정확성 및 완전성을 향상시키고, 비디오 추천 효과를 향상시킨다.

Description

비디오 태그의 생성 방법, 장치, 전자 기기 및 저장 매체 {METHOD FOR GENERATING TAG OF VIDEO, ELECTRONIC DEVICE, AND STORAGE MEDIUM}
본 출원은 컴퓨터 기술 분야에 관한 것으로, 구체적으로 자연 언어 처리, 딥 러닝 기술 분야에 관한 것이며, 특히 비디오 태그의 생성 방법, 장치, 전자 기기 및 저장 매체에 관한 것이다.
사용자의 관심 포인트에 기반한 개인화 정보 추천은 비디오 리소스의 추천과 같은 정보 소비의 새로운 추세이고, 비디오 리소스의 개인화 추천을 구현하려면 일반적으로 비디오 리소스에 대해 라벨링하여, 비디오 태그에 따라 추천해야 한다.
보다시피, 정확성이 비교적 높은 비디오 태그를 획득하는 방법은 비디오 추천에 관건적적 역할을 하고 있다.
본 출원은 정확하고 완전한 비디오 태그를 생성하기 위한 비디오 태그의 생성 방법, 장치, 전자 기기 및 저장 매체를 제공한다.
제1 양태에 따르면, 비디오 태그의 생성 방법이 제공되는 바,
비디오의 복수의 후보 태그를 획득하는 단계;
상기 비디오의 비디오 정보를 획득하는 단계;
상기 비디오 정보와 상기 복수의 후보 태그 사이의 제1 상관성 정보를 각각 계산하는 단계;
상기 제1 상관성 정보에 따라 상기 복수의 후보 태그를 배열하는 단계; 및,
배열 결과에 따라 상기 비디오의 태그를 생성하는 단계;를 포함한다.
본 출원의 실시예의 비디오 태그의 생성 방법은, 비디오의 복수의 후보 태그 및 비디오 정보를 획득하고, 비디오 정보와 복수의 후보 태그 사이의 제1 상관성 정보를 각각 계산한 다음, 제1 상관성 정보에 따라 복수의 후보 태그를 배열하고, 배열 결과에 따라 비디오의 태그를 생성한다. 이로써, 비디오 정보와 각각의 후보 태그 사이의 상관성 정보에 따라, 복수의 후보 태그를 배열하고, 배열 결과에 따라 비디오의 태그를 생성함으로써, 복수의 후보 태그의 통합 이용을 구현하며, 비디오에 정확하고 완벽한 태그를 지정하여, 비디오 태그의 정확성 및 완전성을 향상시키고, 비디오 추천 효과를 향상시킨다.
제2양태에 따르면, 비디오 태그의 생성 장치가 제공되는 바,
비디오의 복수의 후보 태그를 획득하는 제1 획득 모듈;
상기 비디오의 비디오 정보를 획득하는 제2 획득 모듈;
상기 비디오 정보와 상기 복수의 후보 태그 사이의 제1 상관성 정보를 각각 계산하는 제1 계산 모듈;
상기 제1 상관성 정보에 따라 상기 복수의 후보 태그를 배열하는 배열 모듈; 및,
배열 결과에 따라 상기 비디오의 태그를 생성하는 제1 생성 모듈;을 포함한다.
본 출원의 실시예의 비디오 태그의 생성 장치는, 비디오의 복수의 후보 태그 및 비디오 정보를 획득하고, 비디오 정보와 복수의 후보 태그 사이의 제1 상관성 정보를 각각 계산한 다음, 제1 상관성 정보에 따라 복수의 후보 태그를 배열하고, 배열 결과에 따라 비디오의 태그를 생성한다. 이로써, 비디오 정보와 각각의 후보 태그 사이의 상관성 정보에 따라, 복수의 후보 태그를 배열하고, 배열 결과에 따라 비디오의 태그를 생성함으로써, 복수의 후보 태그의 통합 이용을 구현하며, 비디오에 정확하고 완벽한 태그를 지정하여, 비디오 태그의 정확성 및 완전성을 향상시키고, 비디오 추천 효과를 향상시킨다.
제3양태에 따르면, 전자 기기가 제공되는 바,
적어도 하나의 프로세서; 및,
상기 적어도 하나의 프로세서와 통신 가능하게 연결되는 메모리를 포함하고; 여기서,
상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되어 있고, 상기 명령이 상기 적어도 하나의 프로세서에 의해 실행될 경우, 상기 적어도 하나의 프로세서가 상기 제1 양태의 실시예에 따른 비디오 태그의 생성 방법을 수행할 수 있도록 한다.
제4 양태에 따르면, 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 저장 매체가 제공되는 바, 상기 컴퓨터 명령은 상기 제1 양태의 실시예에 따른 비디오 태그의 생성 방법을 수행하도록 한다.
제5 양태에 따르면, 컴퓨터 판독 가능 매체에 저장되어 있는 컴퓨터 프로그램을 제공하고, 상기 컴퓨터 프로그램중의 명령이 실행될 경우, 상기 제1 양태의 실시예에 따른 비디오 태그의 생성 방법이 실행된다.
본 출원의 실시예에 따르면, 비디오 정보와 각각의 후보 태그 사이의 상관성 정보에 따라, 복수의 후보 태그를 배열하고, 배열 결과에 따라 비디오의 태그를 생성함으로써, 복수의 후보 태그의 통합 이용을 구현하며, 비디오에 정확하고 완벽한 태그를 지정하여, 비디오 태그의 정확성 및 완전성을 향상시키고, 비디오 추천 효과를 향상시킨다.
상기 선택 가능한 방식이 가지는 다른 효과는 아래에서 구체적인 실시예를 결부하여 추가로 설명하고자 한다.
도면은 본 해결수단을 더 잘 이해하기 위한 것으로, 본 출원에 대해 한정하는 것으로 구성되지 않는다. 여기서,
도 1은 본 출원의 실시예에서 제공된 비디오 태그의 생성 방법의 흐름도이다.
도 2는 본 출원의 실시예에서 제공된 다른 하나의 비디오 태그의 생성 방법의 흐름도이다.
도 3은 본 출원의 실시예에서 제공된 다른 하나의 비디오 태그의 생성 방법의 흐름도이다.
도 4는 본 출원의 실시예에서 제공된 다른 하나의 비디오 태그의 생성 방법의 흐름도이다.
도 5는 본 출원의 실시예에서 제공된 다른 하나의 비디오 태그의 생성 방법의 흐름도이다.
도 6은 본 출원의 실시예에서 제공된 시맨틱 매칭 모델을 사용하여 매칭 점수를 획득하는 개략도이다.
도 7은 본 출원의 실시예에서 제공된 비디오 태그의 생성 장치의 구조 개략도이다.
도 8은 본 출원의 실시예에 따른 비디오 태그의 생성 방법의 전자 기기의 블록도이다.
아래 첨부된 도면을 결부하여 본 출원의 예시적 실시예를 설명하되, 여기에는 이해를 돕기 위한 본 출원의 실시예의 다양한 세부 사항이 포함되며, 이는 단지 예시적인 것으로 간주되어야 한다. 따라서, 본 기술분야의 통상의 기술자는 본 출원의 범위와 사상을 벗어나지 않으면서, 여기서 설명되는 실시예에 대한 다양한 변경과 수정이 이루어질 수 있음을 이해해야 한다. 마찬가지로, 명확성 및 간결성을 위해, 아래의 설명에서 공지된 기능과 구조에 대한 설명을 생략한다.
아래 도면을 참조하여 본 출원의 실시예의 비디오 태그의 생성 방법, 장치, 전자 기기 및 저장 매체를 설명한다.
본 출원의 실시예의 비디오 태그의 생성 방법은, 비디오 정보와 각각의 후보 태그 사이의 상관성 정보에 따라, 복수의 후보 태그를 배열하고, 배열 결과에 따라 비디오의 태그를 생성함으로써, 복수의 후보 태그의 통합 이용을 구현하며, 비디오에 정확하고 완벽한 태그를 지정하여, 비디오 태그의 정확성 및 완전성을 향상시키고, 비디오 추천 효과를 향상시킨다.
도 1은 본 출원의 실시예에서 제공된 비디오 태그의 생성 방법의 흐름도이다.
본 출원의 실시예의 비디오 태그의 생성 방법은, 본 출원의 실시예에서 제공된 비디오 태그의 생성 장치에 의해 수행될 수 있고, 상기 장치는 전자 기기에 구성되어, 비디오 정보와 복수의 후보 태그 사이의 상관성에 따라, 정확하고 완전한 비디오 태그를 생성하는 것을 구현할 수 있다.
도 1에 도시된 바와 같이, 상기 비디오 태그의 생성 방법은 하기와 같은 단계를 포함한다.
단계 101에서, 비디오의 복수의 후보 태그를 획득한다.
본 실시예에서, 비디오의 제목, 사용자 태그 등 정보와 같은 비디오의 상관 정보에 따라, 비디오의 복수의 후보 태그를 획득할 수 있다. 여기서, 사용자 태그는 사용자가 비디오를 업로드할 때 편집하는 태그를 의미한다.
예를 들어, 특정 비디오의 발행자가 상기 비디오를 업로드할 경우, "음식", "디저트"의 태그를 편집하면, "음식", "디저트"의 태그를 상기 비디오의 후보 태그로 할 수 있다.
단계 102에서, 비디오의 비디오 정보를 획득한다.
본 실시예에서, 비디오 정보는 비디오의 내용 정보를 의미할 수 있다. 실제 응용에서, 비디오의 태그가 비디오의 내용과 근접할수록 상기 비디오 태그가 더 정확하다는 것을 설명한다. 따라서, 비디오 중 인물 정보, 건축물 명칭 등과 같은 비디오의 비디오 정보를 획득할 수 있다.
단계 103에서, 비디오 정보와 복수의 후보 태그 사이의 제1 상관성 정보를 각각 계산한다.
본 실시예에서, 비디오 정보는 비디오 정보와 각각의 후보 태그 사이의 상관 정보를 계산할 수 있으며, 쉽게 구별하기 위해, 여기서 제1 상관성 정보로 지칭한다.
구체적으로, 비디오 정보에 대응되는 벡터 표현 및 각각의 후보 태그에 대응되는 벡터 표현을 획득한 다음, 비디오 정보에 대응되는 벡터 표현과 각각의 후보 태그에 대응되는 벡터 표현에 따라, 비디오 정보와 각각의 후보 태그 사이의 매칭도를 계산하고, 매칭도에 따라 제1 상관성 정보를 결정한다. 여기서, 매칭도가 높을수록, 상관성이 더 커진다. 이로써, 각각의 후보 태그와 비디오 정보 사이의 제1 상관성 정보를 획득할 수 있다.
단계 104에서, 제1 상관성 정보에 따라 복수의 후보 태그를 배열한다.
각각의 후보 태그와 비디오 정보 사이의 제1 상관성 정보를 획득한 후, 각각의 후보 태그에 대응되는 제1 상관성 정보에 따라, 복수의 후보 태그를 배열한다. 예를 들어, 상관성이 큰데로부터 작은데로의 순서에 따라 각각의 후보 태그에 대응되는 제1 상관성 정보를 배열하며, 물론, 상관성이 작은데로부터 큰데로의 순서에 따라 복수의 후보 태그를 배열할 수도 있다.
단계 105에서, 배열 결과에 따라 비디오의 태그를 생성한다.
획득된 일부 후보가 비디오 내용과의 연관성이 비교적 낮을 수 있으므로, 본 실시예에서 복수의 후보 태그로부터, 상관성이 비디오 정보와 가장 큰 기설정된 수의 후보 태그를 획득할 수 있고, 이러한 후보 태그를 비디오의 태그로 한다. 이로써, 비디오 정보와의 상관성이 비교적 낮은 후보 태그를 선별할 수 있어, 비디오 태그의 정확성을 향상시킨다.
실제 응용에서, 단일 태그로는 비디오 내용을 표달하기 어려우며, 태그가 비디오 내용과 관계가 없는 등의 잡음을 포함하는 경우가 있고, 본 실시예에서, 복수의 후보 태그를 통합 이용하여 비디오 태그를 획득하여 비디오 태그의 완전성을 향상시킨다.
본 출원의 실시예에서, 비디오의 복수의 후보 태그 및 비디오 정보를 획득하고, 비디오 정보와 복수의 후보 태그 사이의 제1 상관성 정보를 각각 계산한 다음, 제1 상관성 정보에 따라 복수의 후보 태그를 배열하고, 배열 결과에 따라 비디오의 태그를 생성하는 것이다. 이로써, 비디오 정보와 각각의 후보 태그 사이의 상관성 정보에 따라, 복수의 후보 태그를 배열하고, 배열 결과에 따라 비디오의 태그를 생성함으로써, 복수의 후보 태그의 통합 이용을 구현하며, 비디오에 정확하고 완벽한 태그를 지정하여, 비디오 태그의 정확성 및 완전성을 향상시키고, 비디오 추천 효과를 향상시킨다.
생성된 비디오 태그의 정확성 및 완전성을 더 향상시키기 위해, 본 출원의 일 실시예에서, 또한 지식 그래프 또는 지식 포인트 그래프를 사용하여, 복수의 후보 태그 사이의 상관성을 획득하고, 제1 상관성을 결합하여 비디오의 태그를 생성할 수 있다. 아래에 도 2를 결부하여 설명하며, 도 2는 본 출원의 실시예에서 제공된 다른 하나의 비디오 태그의 생성 방법의 흐름도이다.
단계 201에서, 비디오의 복수의 후보 태그를 획득한다.
단계 202에서, 비디오의 비디오 정보를 획득한다.
단계 203에서, 비디오 정보와 복수의 후보 태그 사이의 제1 상관성 정보를 각각 계산한다.
본 실시예에서, 단계 201 내지 단계 203은 상기 단계 101 내지 단계 103과 유사하므로, 여기서 더이상 서술하지 않는다.
단계 204에서, 비디오에 대응되는 지식 그래프 또는 지식 포인트 그래프를 획득한다.
본 실시예에서, 지식 그래프는 미리 구축된 것이고, 비디오의 명칭 또는 인물에 따라 지식 그래프를 획득할 수 있다. 예를 들어, 비디오가 한 편의 드라마의 단편 부분이면, 인터넷으로부터 상기 드라마의 감독, 캐릭터, 극 중의 인물 관계, 각 캐릭터를 맡은 배우 등과 같은 상기 드라마의 상관 정보를 조회할 수 있으며, 상기 드라마의 상관 정보를 지식 그래프로 간주할 수 있다.
지식 포인트 그래프는 엔티티 및 엔티티와 엔티티 사이의 상관성을 포함한다. 여기서, 엔티티와 엔티티 사이의 상관성은 동시 발생 상황에 따라 계산하여 얻은 것일 수 있다.
단계 205에서, 지식 그래프 또는 지식 포인트 그래프에 따라 복수의 후보 태그 사이의 제2 상관성 정보를 계산한다.
본 실시예에서, 지식 그래프 중 엔티티와 엔티티 사이의 관계에 따라, 복수의 후보 태그 사이의 상관성 정보를 결정할 수 있으며, 여기서 제2 상관성 정보로 지칭한다.
예를 들어, 비디오의 후보 태그가 캐릭터 A, 드라마 이름 B, 상기 비디오에 대응되는 지식 그래프에서 캐릭터 A의 배우가 C라면, 상기 캐릭터 A와 배우 C의 상관성과, 및 배우 C와 드라마 이름 B 사이의 상관성을 결정할 수 있다.
지식 포인트 그래프에 엔티티와 엔티티 사이의 상관성이 포함되므로, 지식 포인트 그래프에 따라 복수의 후보 태그 사이의 상관성 정보를 획득할 수 있다. 예를 들어, 지식 포인트 그래프로부터, 특정된 배우와 이 배우가 참여한 특정 드라마 사이의 상관성을 획득할 수 있다.
본 실시예에서, 지식 그래프 또는 지식 포인트 그래프에 따라, 후보 태그 사이의 상관성 정보를 획득할 수 있을 뿐만 아니라, 후보 태그를 확장하여 후보 태그가 보다 더 풍부해지도록 할 수 있다.
단계 206에서, 제1 상관성 정보 및 제2 상관성 정보에 따라 복수의 후보 태그를 배열한다.
제1 상관성 정보 및 제2 상관성 정보에 따라, 복수의 후보 태그를 배열할 경우, 먼저 각각의 후보 태그에 대응되는 제1 상관성 정보에 따라 복수의 후보 태그를 배열하여 초기 배열 결과를 획득한 다음, 다시 제2 상관성 정보에 따라 초기 배열 결과 중 후보 태그의 위치를 조정하여, 상관성이 비교적 높은 후보 태그가 인접하도록 하여 최종 배열 결과를 획득할 수 있다.
또는, 비디오 정보와의 상관성이 가장 높은 후보 태그를 결정한 다음, 다른 후보 태그와 상기 후보 태그의 상관성, 및 다른 후보 태그와 비디오 정보의 상관성의 평균값에 따라, 나머지 후보 태그를 배열한다.
상기 2가지 방식은 단지 예시이며, 제1 상관성 정보 및 제2 상관성 정보에 따라 후보 태그를 배열하는 다른 방법은, 모두 본 출원의 보호 범위에 속한다.
단계 207에서, 배열 결과에 따라 비디오의 태그를 생성한다.
본 실시예에서, 단계 207은 상기 단계 105과 유사하므로, 여기서 더이상 서술하지 않는다.
설명해야 할 것은, 본 출원에서 단계 204는 단계 203 이전에 수행될 수 있고, 단계 201, 202, 204의 수행 순서에 대해 한정하지 않으며, 단계 205와 단계 203의 수행 순서에 대해 한정하지 않는다.
본 출원의 실시예에서, 또한 비디오에 대응되는 지식 그래프 또는 지식 포인트 그래프를 획득하고, 지식 그래프 또는 지식 포인트 그래프에 따라 복수의 후보 태그 사이의 제2 상관성 정보를 계산할 수 있으며, 여기서 제1 상관성 정보 및 제2 상관성 정보에 따라 복수의 후보 태그를 배열한다. 이로써, 복수의 후보 태그와 비디오 정보 사이의 상관성 정보 및 복수의 후보 태그 사이의 상관성 정보를 사용하여, 복수의 후보 태그를 배열함으로써, 배열의 정확성을 향상시키고, 배열 결과에 따라 비디오의 태그를 생성하여, 비디오 태그의 정확성 및 완전성을 더 향상시킨다.
실제 응용에서, 일반적으로 비디오는 모두 제목이 있으며, 본 출원의 일 실시예에서, 상기 비디오의 복수의 후보 태그를 획득할 경우, 먼저 비디오의 비디오 제목을 획득한 다음 비디오 태그에 따라 후보 태그를 생성할 수 있다.
구체적으로, 비디오 제목에 대해 단어 분할 처리를 수행하여, 비디오 제목의 각각의 분사를 획득한 다음, 이로부터 키워드를 추출하여 추출된 키워드를 후보 태그로 한다.
본 출원의 실시예에서, 비디오의 복수의 후보 태그를 획득하고, 비디오의 비디오 제목을 획득하며, 비디오 제목에 따라 후보 태그를 생성한다. 이로써, 비디오 제목에 따라 후보 태그를 생성하여, 비디오의 후보 태그를 풍부히 한다.
본 출원의 일 실시예에서, 상기 비디오의 복수의 후보 태그를 획득할 경우, 비디오의 작성자 태그를 획득하고, 작성자 태그에 따라 후보 태그를 생성할 수 있으며, 구체적으로, 작성자 태그를 획득한 후, 획득된 작성자 태그를 비디오의 후보 태그로 할 수 있다.
여기서, 작성자 태그는 작성자가 비디오를 발행할 때 편집하는 태그이다.
본 출원의 실시예에서, 비디오의 복수의 후보 태그를 획득할 경우, 비디오의 작성자 태그를 획득하고, 작성자 태그에 따라 후보 태그를 생성할 수 있다. 이로써, 비디오의 작성자 태그에 따라 후보 태그를 생성하여, 비디오의 후보 태그도 풍부히 한다.
본 출원의 일 실시예에서, 상기 비디오의 복수의 후보 태그를 획득할 경우, 비디오의 분류 정보를 획득하고, 분류 정보에 따라 후보 태그를 생성할 수 있다.
본 실시예에서, 비디오의 분류 정보는 오락, 코미디, 과학기술 등과 같은 비디오의 카테고리를 의미하며, 작성자가 비디오를 발행할 때 입력하는 분류일 수 있거나, 지식 그래프로부터 획득한 것이거나, 기존의 비디오에 대한 분류 방법에 따라 획득한 비디오의 분류 정보일 수 있다.
분류 정보를 획득한 후, 비디오가 속한 카테고리를 비디오의 후보 태그로 할 수 있다. 예를 들어, 특정된 비디오가 한 편의 드라마 중 단편 부분이고, 상기 드라마의 카테고리가 사극 드라마이면, "사극"을 상기 비디오의 후보 태그로 할 수 있다.
본 출원의 실시예에서, 비디오의 복수의 후보 태그를 획득할 경우, 비디오의 분류 정보를 획득하고, 분류 정보에 따라 후보 태그를 생성할 수 있다. 이로써, 비디오의 분류 정보에 따라 후보 태그를 생성하여, 비디오의 후보 태그를 풍부히 한다.
정확성이 비교적 높은 비디오 태그를 생성하기 위해, 본 출원의 일 실시예에서, 비디오의 복수의 후보 태그를 획득할 경우, 비디오 중 텍스트 정보를 인식하여, 텍스트 정보에 따라 후보 태그를 생성할 수 있다.
텍스트 정보를 획득할 경우, 비디오에 자막이 있으면, 비디오로부터 획득한 자막이 즉 텍스트 정보이다. 또는, 비디오 중 오디오 정보를 수집하고, 오디오에 대해 인식하여, 대응되는 텍스트 정보를 획득할 수 있다.
텍스트 정보를 획득한 후, 텍스트 정보로부터 키워드를 추출하여, 추출된 키워드를 비디오의 후보 태그로 할 수 있다. 예를 들어, 비디오로부터 등장 횟수가 비교적 높은 기설정된 수의 단어를 추출하여, 비디오의 후보 태그로 한다.
본 출원의 실시예에서, 비디오의 복수의 후보 태그를 획득할 경우, 비디오 중 텍스트 정보를 인식하고, 텍스트 정보에 따라 후보 태그를 생성한다. 비디오 중 텍스트 정보에 따라, 후보 태그를 생성하므로, 비디오의 후보 태그를 풍부히 할 뿐만 아니라, 후보 태그와 비디오의 상관성도 비교적 높다.
비디오의 후보 태그를 풍부히 하기 위해, 본 출원의 일 실시예에서, 또한 비디오 중 주요 인물에 따라 비디오의 후보 태그를 획득할 수 있다. 아래에 도 3을 결부하여 설명하며, 도 3은 본 출원의 실시예에서 제공된 다른 하나의 비디오 태그의 생성 방법의 흐름도이다.
도 3에 도시된 바와 같이, 상기 비디오의 복수의 후보 태그를 획득하는 단계는 하기와 같은 단계를 포함한다.
단계 301에서, 비디오 중 인물에 대해 얼굴 인식을 수행하여, 인물의 인물 정보 및 등장 시간을 획득한다.
본 실시예에서, 비디오 중 각 프레임 이미지에 대해 얼굴 인식을 수행한 다음, 모든 이미지 중 동일한 인물에 대한 통계를 기반으로, 각각의 인물의 인물 정보 및 인물 등장 시간을 획득할 수 있다.
여기서, 인물 정보는 비디오 중 인물의 이름일 수 있고, 인물의 등장 시간은 비디오에서 등장하는 시간대를 의미할 수 있다.
단계 302에서, 등장 시간에 따라 인물이 비디오 중 주요 인물인지 여부를 판단한다.
실제 응용에서, 한 단락의 비디오에서 일반적으로 주요 인물의 등장 시간 길이는 비교적 길다. 이에 기반하여, 본 실시예에서, 등장 시간에 따라 인물의 등장 시간 길이를 통계할 수 있고, 각각의 인물의 등장 시간 길이 시간에 따라, 인물이 비디오 중 주요 인물인지 여부를 판단할 수 있다.
구체적으로, 비디오 시간 길이에서 인물의 등장 시간 길이의 비율, 기설정 비율보다 큰지 여부를 판단할 수 있고, 크면, 상기 인물이 비디오 중 주요 인물인 것으로 간주할 수 있다.
단계 303에서, 인물이 주요 인물일 경우, 인물의 인물 정보에 따라 후보 태그를 생성한다.
본 실시예에서, 인물이 주요 인물일 경우, 인물의 이름과 같은 인물의 인물 정보에 따라 후보 태그를 생성한다.
또는, 비디오 중 등장 시간 길이가 가장 긴 기설정 개수의 인물을, 비디오 중 주요 인물로 한 다음, 주요 인물의 인물 정보에 따라 후보 태그를 생성한다.
본 출원의 실시예에서, 비디오의 복수의 후보 태그를 획득할 경우, 비디오 중 인물에 대해 얼굴 인식을 수행하여, 인물의 인물 정보 및 등장 시간을 획득하고, 등장 시간에 따라 인물이 비디오 중 주요 인물인지 여부를 판단하며, 인물이 주요 인물일 경우, 인물의 인물 정보에 따라 후보 태그를 생성한다. 이로써, 비디오 중 인물의 등장 시간에 따라, 인물이 주요 인물인지 여부를 판단하고, 그렇다면, 주요 인물의 인물 정보에 따라 후보 태그를 생성하며, 주요 인물은 비디오로부터 인식된 것이므로, 따라서 생성된 후보 태그는 비디오와의 상관성이 비교적 클 뿐만 아니라, 비디오의 후보 태그도 풍부히 한다.
상기에서 상이한 소스의 비디오로부터 획득한 다수의 후보 태그 방법을 설명하였으며, 이로써 비디오의 태그를 생성할 경우, 복수의 상이한 소스의 후보 태그를 획득할 수 있고, 복수의 후보 태그와 비디오 정보의 상관성을 기반으로 비디오의 태그를 생성함으로써, 상이한 소스의 후보 태그를 통합 이용하여 비디오의 태그를 생성하여, 비디오 태그의 정확성 및 완전성을 향상시킨다.
획득된 비디오 정보와 후보 태그의 상관성의 정확성을 향상시키기 위해, 본 출원의 일 실시예에서, 제1 상관성 정보를 획득할 경우, 시맨틱 매칭 모델을 통해 제1 상관성 정보를 획득할 수 있다. 아래에 도 4를 결부하여 설명하며, 도 4는 본 출원의 실시예에서 제공된 다른 하나의 비디오 태그의 생성 방법의 흐름도이다.
도 4에 도시된 바와 같이, 상기 비디오 태그의 생성 방법은 하기와 같은 단계를 포함한다.
단계 401에서, 비디오의 복수의 후보 태그를 획득한다.
단계 402에서, 비디오의 비디오 정보를 획득한다.
본 실시예에서, 단계 단계 401 내지 단계 402는 상기 단계 101 내지 단계 102와 유사하므로, 여기서 더이상 서술하지 않는다.
단계 403에서, 비디오 정보와 복수의 후보 태그를 시맨틱 매칭 모델에 입력하여, 비디오 정보와 복수의 후보 태그 사이의 제1 상관성 정보를 생성한다.
본 실시예에서, 트레이닝을 통해 시맨틱 매칭 모델을 미리 획득할 수 있고, 비디오의 각각의 후보 태그에 대해, 후보 태그와 비디오 정보를 시맨틱 매칭 모델에 입력하고, 시맨틱 매칭 모델을 통해 후보 태그와 비디오 정보 사이의 제1 상관성 정보를 획득할 수 있다.
여기서, 제1 상관성 정보는 후보 태그와 비디오 정보 사이의 매칭도를 나타내기 위한 매칭 점수일 수 있고, 매칭 점수가 높을수록 상관성이 더 크다.
단계 404에서, 제1 상관성 정보에 따라 복수의 후보 태그를 배열한다.
단계 405에서, 배열 결과에 따라 비디오의 태그를 생성한다.
본 실시예에서, 단계 404 내지 단계 405는 상기 단계 103 내지 단계 104와 유사하므로, 여기서 더이상 서술하지 않는다.
본 출원의 실시예에서, 비디오 정보와 복수의 후보 태그 사이의 제1 상관성 정보를 각각 계산할 경우, 비디오 정보와 복수의 후보 태그를 시맨틱 매칭 모델에 입력하여, 비디오 정보와 복수의 후보 태그 사이의 제1 상관성 정보를 생성한다. 이로써, 시맨틱 매칭 모델을 사용하여 각각의 후보 태그와 비디오 정보의 제1 상관성 정보를 획득함으로써, 제1 상관성 정보의 정확성을 향상시키고, 제1 상관성 정보를 기반으로 비디오의 태그를 생성함으로써 비디오 태그의 정확성을 향상시킨다.
본 출원의 일 실시예에서, 도 5에 도시된 방법에 의한 트레이닝을 통해 시맨틱 매칭 모델을 획득할 수 있다. 도 5는 본 출원의 실시예에서 제공된 다른 하나의 비디오 태그의 생성 방법의 흐름도이다.
도 5에 도시된 바와 같이, 상기 시맨틱 매칭 모델은 하기와 같은 단계의 트레이닝을 통해 획득된다.
단계 501에서, 샘플 비디오 정보 및 샘플 태그, 및 샘플 비디오 정보와 샘플 태그 사이의 라벨링 상관성 정보를 획득한다.
본 실시예에서, 대량의 샘플 비디오를 획득하고, 각각의 샘플 비디오의 샘플 비디오 정보 및 샘플 태그를 획득할 수 있다. 여기서, 샘플 태그는 샘플 비디오의 태그를 의미하고, 이러한 태그는 인위적으로 라벨링한 것일 수 있으며, 샘플 태그는 샘플 비디오 정보과 관련되거나 관련되지 않을 수 있고, 또한 하나의 샘플 비디오 정보는 복수의 샘플 태그를 가질 수 있다.
이밖에, 샘플 비디오 정보와 샘플 태그 사이의 라벨링 상관성 정보도 획득한다. 여기서, 샘플 비디오 정보가 샘플 태그와 관련되면, 1로 라벨링할 수 있고, 관련되지 않으면, 0으로 라벨링할 수 있다.
단계 502에서, 샘플 비디오 정보 및 샘플 태그를 초기 시맨틱 매칭 모델에 입력하여 예측 상관성 정보를 생성한다.
본 실시예에서, 각각의 샘플 비디오 정보에 대해, 샘플 비디오 정보와 각각의 샘플 태그를 한 그룹으로 조성하여, 각각 초기 시맨틱 매칭 모델에 입력하며, 초기 시맨틱 매칭 모델은 대응되는 예측 상관성 정보를 생성할 수 있다.
단계 503에서, 예측 상관성 정보 및 라벨링 상관성 정보에 따라 초기 시맨틱 매칭 모델에 대해 트레이닝한다.
본 실시예에서, 모델 트레이닝을 수행할 경우, 딥 러닝 방식을 사용하여 트레이닝할 수 있다.
예측 상관 정보를 획득한 후, 예측 상관성 정보 및 라벨링 상관성 정보에 따라, 손실값을 계산하여, 손실값이 기설정 손실 임계값보다 큰지 여부를 판단할 수 있으며, 크면, 초기 시맨틱 매칭 모델의 파라미터를 조정한다. 다음, 샘플 비디오 정보 및 샘플 태그를 파라미터가 조정된 시맨틱 매칭 모델에 입력하여, 예측 상관성 정보를 생성한 다음, 예측 상관성 정보 및 대응되는 라벨링 상관성 정보에 따라, 손실값을 계산하여, 손실값이 기설정 손실 임계값보다 큰지 여부를 판단하며, 크면, 손실값이 기설정된 손실 임계값보다 작을 때까지 계속하여 트레이닝한 후 트레이닝을 종료한다.
본 출원의 실시예에서, 샘플 비디오 정보 및 샘플 태그, 및 샘플 비디오 정보와 샘플 태그 사이의 라벨링 상관성 정보를 획득하고, 샘플 비디오 정보 및 샘플 태그를 초기 시맨틱 매칭 모델에 입력하여 예측 상관성 정보를 생성하며, 예측 상관성 정보 및 라벨링 상관성 정보에 따라 초기 시맨틱 매칭 모델에 대해 트레이닝한다. 이로써, 샘플 비디오 정보, 샘플 태그 및 라벨링 상관성 정보를 트레이닝하여 시맨틱 매칭 모델을 획득할 수 있고, 시맨틱 매칭 모델을 사용하여 비디오 정보 및 후보 태그 사이의 정확성이 비교적 높은 제1 상관성 정보를 획득할 수 있다.
본 출원의 일 실시예에서, 비디오의 비디오 정보를 획득할 경우, 비디오의 제목, 비디오 중 인물의 인물 정보, 비디오의 분류 정보 등을 획득한 다음, 비디오의 제목, 비디오 중 인물의 인물 정보, 비디오의 분류 정보에 따라 비디오의 비디오 정보를 생성할 수 있다.
여기서, 비디오의 제목은 직접 획득될 수 있고; 비디오 중 인물 정보는 복수의 인물 이름을 이어 붙인 텍스트일 수 있으며, 상기 텍스트는 인물의 얼굴 횟수를 기반으로 생성되고, 특정된 인물이 등장하는 횟수가 많을 수록, 이 단락의 텍스트 정보에 대응되는 인물 이름이 더 많이 등장하며; 비디오 분류 정보의 획득흔 상기 실시예를 참조할 수 있고, 여기서 더이상 서술하지 않는다.
본 실시예에서, 비디오 정보는 비디오의 제목, 비디오 중 인물의 인물 정보 및 비디오의 분류 정보 3가지 부분으로 조성된다. 상기 비디오 정보를 획득한 후, 상기 비디오 정보와 각각의 후보 태그 사이의 제1 상관성 정보를 계산하고, 제1 상관성 정보에 따라 복수의 후보 태그를 배열하며, 배열 결과에 따라 비디오의 태그를 생성할 수 있다.
본 출원의 실시예에서, 비디오의 비디오 정보를 획득하고, 비디오의 제목을 획득하며, 비디오 중 인물의 인물 정보를 획득하고, 비디오의 분류 정보를 획득하며, 비디오의 제목, 인물 정보 및 분류 정보에 따라 비디오 정보를 생성한다. 이로써, 비디오의 제목, 인물 정보 및 분류 정보에 따라 비디오 정보를 생성함으로써, 비디오 내용을 특징화할 수 있는 비디오 정보를 획득하여, 제1 상관성 정보의 정확성을 향상시킬 수 있다.
아래에 도 6을 결부하여 설명하며, 시맨틱 매칭 모델을 사용하여, 비디오 정보와 후보 태그 사이의 매칭 점수를 획득한다. 도 6은 본 출원의 실시예에서 제공된 시맨틱 매칭 모델을 사용하여 매칭 점수를 획득하는 개략도이다.
도 6에서, 비디오의 제목, 인물 정보 및 분류 정보 3가지 정보가 포함된 텍스트, 및 후보 태그를 시맨틱 매칭 모델(610)에 입력하고, 시맨틱 매칭 모델(610)은 비디오 정보와 후보 태그 사이의 매칭 점수를 출력한다.
획득한 각각의 후보 태그와 비디오 정보의 매칭 점수를 획득한 후, 매칭 점수에 따라 복수의 후보 태그를 배열하고, 매칭 점수가 비교적 높은 기설정된 수의 후보 태그를 비디오의 태그로 할 수 있다.
비디오 태그의 정확성을 더 향상시키기 위해, 본 출원의 일 실시예에서, 또한 비디오의 복수의 후보 태그의 입도 정보를 획득한 다음, 후보 태그와 비디오 정보의 제1 상관성 정보에 따라, 후보 태그의 입도 정보를 결합하여, 복수의 후보 태그를 배열할 수 있다.
여기서, 입도 정보는 후보 태그의 범위를 지시하는데 사용되고, 입도가 세분화될수록 후보 태그의 범위가 더 작다는 것을 설명한다. 예를 들어, "선협 사극 드라마"는 "사극 드라마"에 비해 입도가 더 세분화되어 있는 것은 분명하다.
구체적으로, 후보 태그에 포함된 필드 수에 따라, 후보 태그의 길이 정보를 획득한 다음, 각각의 후보 태그의 길이 정보에 따라, 각각의 후보 태그의 입도 정보를 생성하되, 여기서 후보 태그 길이가 길수록 입도가 더 세분화된다.
각각의 후보 태그와 비디오 정보의 제1 상관성 정보, 및 각각의 후보 태그의 입도 정보를 획득한 후, 제1 상관성 정보 및 입도 정보, 및 제1 상관성 정보의 가중치와 입도 정보의 가중치에 따라, 제1 상관성 정보 및 입도 정보의 가중합을 계산하여 각각의 후보 태그의 점수를 획득할 수 있다. 다음, 각각의 후보 태그의 점수에 따라, 복수의 후보 태그를 배열하여, 배열 결과에 따라 비디오의 태그를 생성한다.
또는, 제1 상관성 정보 및 입도 정보에 따라, 복수의 후보 태그를 배열한 다음, 이로부터 상관성이 비교적 높은 기설정된 수의 태그와, 입도가 비교적 세분화된 후보 태그의 기설정된 수의 태그를 각각 선택하여, 선택된 태그에 따라 비디오의 태그를 생성할 수도 있다.
본 출원의 실시예에서, 또한 복수의 후보 태그의 길이 정보를 획득하고, 복수의 후보 태그의 길이 정보에 따라 복수의 후보 태그의 태그 입도 정보를 각각 생성하며, 복수의 후보 태그를 배열할 경우, 제1 상관성 정보 및 태그 입도 정보에 따라 복수의 후보 태그를 배열할 수 있다. 이로써, 비디오 정보와 후보 태그의 상관성 정보 및 후보 태그의 입도 정보에 따라, 복수의 후보 태그를 배열함으로써, 배열의 정확성을 향상시키고, 생성된 비디오 태그의 정확성을 향상시킨다.
본 출원의 일 실시예에서, 또한 복수의 후보 태그의 인기도 정보를 획득하고, 인기도 정보 및 제1 상관성 정보에 따라 복수의 후보 태그를 배열할 수 있다.
구체적으로, 문장, 비디오 등에서 각각의 후보 태그의 등장 횟수를 통계하고, 등장 횟수에 따라 인기도 정보를 획득할 수 있으며, 등장 횟수가 많을 수록 인기도가 더 높다. 후보 태그의 인기도가 높을수록 이가 비디오 태그일 가능성이 더 크고, 비디오의 추천 효과가 더 좋을 수 있다.
복수의 후보 태그의 인기도 정보, 및 복수의 후보 태그와 비디오 정보의 제1 상관성 정보를 획득한 후, 각각의 후보 태그에 대응되는 제1 상관성 정보 및 인기도 정보, 및 제1 상관성 정보의 가중치와 인기도 정보의 가중치에 따라, 제1 상관성 정보 및 인기도 정보의 가중합을 계산하여 각각의 후보 태그의 점수를 획득할 수 있다. 다음, 각각의 후보 태그의 점수에 따라, 복수의 후보 태그를 배열하여, 배열 결과에 따라 비디오의 태그를 생성한다.
또는, 제1 상관성 정보 및 인기도 정보에 따라, 복수의 후보 태그를 배열한 다음, 이로부터 상관성이 비교적 높은 기설정된 수의 태그와, 인기도가 비교적 높은 후보 태그의 기설정된 수의 태그를 각각 선택하여, 선택된 태그에 따라 비디오의 태그를 생성할 수도 있다.
본 출원의 실시예에서, 또한 상기 복수의 후보 태그의 인기도 정보를 획득할 수 있으며, 배열할 경우, 상기 제1 상관성 정보 및 상기 인기도 정보에 따라 상기 복수의 후보 태그를 배열할 수 있다. 이로써, 비디오 정보와 후보 태그의 상관성, 및 후보 태그의 인기도 정보에 따라, 후보 태그를 배열함으로써, 배열 결과의 정확성을 향상시키고, 비디오 태그의 정확성을 향상시킨다.
설명해야 할 것은, 또한 복수의 후보 태그의 입도 정보와 인기도 정보를 동시에 획득할 수 있고, 제1 상관성 정보, 각각의 후보 태그의 입도 정보 및 인기도 정보에 따라, 삼자의 가중합을 계산하여, 계산 결과에 따라 복수의 후보 태그를 배열함으로써, 배열 결과의 정확성을 향상시키며, 따라서 비디오 태그의 정확성을 향상시킨다.
상기 실시예를 구현하기 위해, 본 출원의 실시예는 비디오 태그의 생성 장치를 더 제공한다. 도 7은 본 출원의 실시예에서 제공된 비디오 태그의 생성 장치의 구조 개략도이다.
도 7에 도시된 바와 같이, 상기 비디오 태그의 생성 장치(700)는 제1 획득 모듈(710), 제2 획득 모듈(720), 제1 계산 모듈(730), 배열 모듈(740) 및 제1 생성 모듈(750)을 포함한다.
제1 획득 모듈(710)은 비디오의 복수의 후보 태그를 획득하고;
제2 획득 모듈(720)은 비디오의 비디오 정보를 획득하며;
제1 계산 모듈(730)은 비디오 정보와 복수의 후보 태그 사이의 제1 상관성 정보를 각각 계산하고;
배열 모듈(740)은 제1 상관성 정보에 따라 복수의 후보 태그를 배열하며;
제1 생성 모듈(750)은 배열 결과에 따라 비디오의 태그를 생성한다.
본 출원의 실시예의 일 가능한 구현 방식에서, 상기 장치는,
비디오에 대응되는 지식 그래프 또는 지식 포인트 그래프를 획득하는 제3 획득 모듈; 및,
지식 그래프 또는 지식 포인트 그래프에 따라 복수의 후보 태그 사이의 제2 상관성 정보를 계산하는 제2 계산 모듈;을 더 포함할 수 있되, 여기서 배열 모듈은 제1 상관성 정보 및 제2 상관성 정보에 따라 복수의 후보 태그를 배열한다.
본 출원의 실시예의 일 가능한 구현 방식에서, 제1 획득 모듈(710)은,
비디오의 비디오 제목을 획득하고;
비디오 제목에 따라 후보 태그를 생성한다.
본 출원의 실시예의 일 가능한 구현 방식에서, 제1 획득 모듈(710)은,
비디오의 작성자 태그를 획득하고;
작성자 태그에 따라 후보 태그를 생성한다.
본 출원의 실시예의 일 가능한 구현 방식에서, 제1 획득 모듈(710)은,
비디오의 분류 정보를 획득하고;
분류 정보에 따라 후보 태그를 생성한다.
본 출원의 실시예의 일 가능한 구현 방식에서, 제1 획득 모듈(710)은,
비디오 중 텍스트 정보를 인식하고;
텍스트 정보에 따라 후보 태그를 생성한다.
본 출원의 실시예의 일 가능한 구현 방식에서, 제1 획득 모듈(710)은,
비디오 중 인물에 대해 얼굴 인식을 수행하여, 인물의 인물 정보 및 등장 시간을 획득하고;
등장 시간에 따라 인물이 비디오 중 주요 인물인지 여부를 판단하며;
인물이 주요 인물일 경우, 인물의 인물 정보에 따라 후보 태그를 생성한다.
본 출원의 실시예의 일 가능한 구현 방식에서, 제1 계산 모듈(730)은,
비디오 정보와 복수의 후보 태그를 시맨틱 매칭 모델에 입력하여, 비디오 정보와 복수의 후보 태그 사이의 제1 상관성 정보를 생성한다.
본 출원의 실시예의 일 가능한 구현 방식에서, 시맨틱 매칭 모델은,
샘플 비디오 정보 및 샘플 태그, 및 샘플 비디오 정보와 샘플 태그 사이의 라벨링 상관성 정보를 획득하는 제4 획득 모듈;
샘플 비디오 정보 및 샘플 태그를 초기 시맨틱 매칭 모델에 입력하여 예측 상관성 정보를 생성하는 제2 생성 모듈; 및,
예측 상관성 정보 및 라벨링 상관성 정보에 따라 초기 시맨틱 매칭 모델에 대해 트레이닝하는 트레이닝 모듈;을 통해 획득된다.
본 출원의 실시예의 일 가능한 구현 방식에서, 제2 획득 모듈(720)은,
비디오의 제목을 획득하고;
비디오 중 인물의 인물 정보를 획득하며;
비디오의 분류 정보를 획득하고;
비디오의 제목, 인물 정보 및 분류 정보에 따라 비디오 정보를 생성한다.
본 출원의 실시예의 일 가능한 구현 방식에서, 상기 장치는,
복수의 후보 태그의 길이 정보를 획득하는 제5 획득 모듈; 및,
복수의 후보 태그의 길이 정보에 따라 복수의 후보 태그의 태그 입도 정보를 각각 생성하는 제3 생성 모듈;을 더 포함할 수 있되, 여기서 배열 모듈은 제1 상관성 정보 및 태그 입도 정보에 따라 복수의 후보 태그를 배열한다.
본 출원의 실시예의 일 가능한 구현 방식에서, 상기 장치는,
복수의 후보 태그의 인기도 정보를 획득하는 제6 획득 모듈;을 더 포함할 수 있되, 배열 모듈은 제1 상관성 정보 및 인기도 정보에 따라 복수의 후보 태그를 배열한다.
설명해야 할 것은, 전술한 비디오 태그의 생성 방법 실시예의 해석 설명은 상기 실시예의 비디오 태그의 생성 장치에도 적용되므로, 여기서 더이상 서술하지 않는다.
본 출원의 실시예의 비디오 태그의 생성 장치는, 비디오의 복수의 후보 태그 및 비디오 정보를 획득하고, 비디오 정보와 복수의 후보 태그 사이의 제1 상관성 정보를 각각 계산한 다음, 제1 상관성 정보에 따라 복수의 후보 태그를 배열하고, 배열 결과에 따라 비디오의 태그를 생성한다. 이로써, 비디오 정보와 각각의 후보 태그 사이의 상관성 정보에 따라, 복수의 후보 태그를 배열하고, 배열 결과에 따라 비디오의 태그를 생성함으로써, 복수의 후보 태그의 통합 이용을 구현하며, 비디오에 정확하고 완벽한 태그를 지정하여, 비디오 태그의 정확성 및 완전성을 향상시키고, 비디오 추천 효과를 향상시킨다.
본 출원의 실시예에 따르면, 본 출원은 전자 기기 및 판독 가능 저장 매체를 더 제공한다. 본 출원의 실시예에 따르면, 컴퓨터 판독 가능 매체에 저장되어 있는 컴퓨터 프로그램을 더 제공한다. 당해 컴퓨터 프로그램중의 명령이 실행될 경우, 상기 비디오 태그의 생성 방법이 실행된다.
도 8에 도시된 바와 같이, 본 출원의 실시예에 따른 비디오 태그의 생성 방법의 전자 기기의 블록도이다. 전자 기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 운영 플랫폼, 개인 정보 단말기, 서버, 블레이드 서버, 대형 컴퓨터, 및 다른 적합한 컴퓨터와 같은 다양한 형태의 디지털 컴퓨터를 의미한다. 전자 기기는 개인 디지털 처리, 셀룰러폰, 스마트폰, 웨어러블 기기 및 다른 유사한 컴퓨팅 장치와 같은 다양한 형태의 이동 장치를 의미할 수도 있다. 본문에서 나타낸 부재, 이들의 연결과 관계, 및 이들의 기능은 단지 예시적인 것으로, 본문에서 설명 및/또는 요구된 본 발명의 구현을 한정하지 않는다.
도 8에 도시된 바와 같이, 상기 전자 기기는, 하나 또는 복수의 프로세서(801), 메모리(802), 및 고속 인터페이스 및 저속 인터페이스를 포함하는 각 부재를 연결하기 위한 인터페이스를 포함한다. 각 부재는 상이한 버스를 이용하여 서로 연결되고, 공통 메인보드에 장착될 수 있거나 필요에 따라 다른 방식으로 장착될 수 있다. 프로세서는, 메모리에 저장되거나 메모리에서 외부 입력/출력 장치(예를 들어, 인터페이스에 커플링된 표시 기기)에 GUI의 그래픽 정보를 표시하는 명령을 포함하는 전자 기기 내에서 실행되는 명령을 처리할 수 있다. 다른 실시형태에서, 필요에 따라 다수의 프로세서 및/또는 다수의 버스를 다수의 메모리와 함께 사용할 수 있다. 마찬가지로, 다수의 전자 기기를 연결할 수 있고, 각 기기는 일부 필요한 동작(예를 들어, 서버 어레이, 한 그룹의 블레이드 서버, 또는 다중프로세서 시스템)을 제공한다. 도 8에서는 하나의 프로세서(801)를 예로 한다.
메모리(802)는 본 출원에서 제공된 비일시적 컴퓨터 판독 가능 저장 매체이다. 여기서, 상기 메모리에는 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되어, 상기 적어도 하나의 프로세서가 본 출원에서 제공된 비디오 태그의 생성 방법을 수행하도록 한다. 본 출원의 비일시적 컴퓨터 판독 가능 저장 매체는 컴퓨터 명령을 저장하며, 상기 컴퓨터 명령은 컴퓨터가 본 출원에서 제공된 비디오 태그의 생성 방법을 수행하도록 한다.
메모리(802)는 비일시적 컴퓨터 판독 가능 저장 매체로서, 본 출원의 실시예에서의 비디오 태그의 생성 방법에 대응되는 프로그램 명령/모듈(예를 들어, 도 7에 도시된 제1 획득 모듈(710), 제2 획득 모듈(720), 제1 계산 모듈(730), 배열 모듈(740) 및 제1 생성 모듈(750))과 같은 비일시적 소프트웨어 프로그램, 비일시적 컴퓨터 실행 가능 프로그램 및 모듈을 저장하는데 사용될 수 있다. 프로세서(801)는 메모리(802)에 저장되어 있는 비일시적 소프트웨어 프로그램, 명령 및 모듈을 실행함으로써, 서버의 다양한 기능 애플리케이션 및 데이터 처리를 수행하며, 즉 상기 방법의 실시예에서의 비디오 태그의 생성 방법을 구현한다.
메모리(802)는 프로그램 저장 영역 및 데이터 저장 영역을 포함할 수 있는 바, 여기서 프로그램 저장 영역은 운영 체제, 적어도 하나의 기능에 필요한 애플리케이션 프로그램을 저장할 수 있고; 데이터 저장 영역은 비디오 태그의 생성 방법에 따른 전자 기기의 사용에 따라 구축된 데이터 등을 저장할 수 있다. 이밖에, 메모리(802)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 적어도 하나의 자기 디스크 저장 소자, 플래시 소자, 또는 다른 비일시적 솔리드 스테이트 저장 소자와 같은 비일시적 메모리를 더 포함할 수 있다. 일부 실시예에서, 메모리(802)는 프로세서(801)에 대해 원격으로 설치되는 메모리를 선택적으로 포함할 수 있고, 이러한 원격 메모리는 네트워크를 통해 비디오 태그의 생성 방법의 전자 기기에 연결될 수 있다. 상기 네트워크의 구현예는 인터넷, 기업 인트라넷, 근거리 통신망, 이동 통신망, 및 이들의 조합을 포함하지만 이에 한정되지 않는다.
비디오 태그의 생성 방법의 전자 기기는, 입력 장치(803) 및 출력 장치(804)를 더 포함할 수 있다. 프로세서(801), 메모리(802), 입력 장치(803) 및 출력 장치(804)는 버스 또는 다른 방식을 통해 연결될 수 있고, 도 8에서는 버스를 통한 연결을 예로 한다.
입력 장치(803)는 입력된 숫자 또는 캐릭터 정보를 수신할 수 있고, 비디오 태그의 생성 방법의 전자 기기의 사용자 설정 및 기능 제어와 관련된 키 신호 입력을 생성할 수 있으며, 예를 들어 터치 스크린, 키패드, 마우스, 트랙 패드, 터치 패드, 포인팅 스틱, 하나 또는 다수의 마우스 버튼, 트랙볼, 조이스틱 등 입력 장치일 수 있다. 출력 장치(804)는 디스플레이 기기, 보조 조명 장치(예를 들어, LED) 및 촉각 피드백 장치(예를 들어, 진동 모터) 등을 포함할 수 있다. 상기 디스플레이 기기는 액정 디스플레이 장치(LCD), 발광 다이오드(LED) 디스플레이 장치 및 플라즈마 디스플레이 장치를 포함할 수 있으나 이에 한정되지 않는다. 일부 실시형태에서, 디스플레이 기기는 터치 스크린일 수 있다.
여기서 설명된 시스템 및 기술의 다양한 실시형태는 디지털 전자 회로 시스템, 집적 회로 시스템, 전용 ASIC(전용 집적 회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합에서 구현될 수 있다. 이러한 다양한 실시형태는 하나 또는 다수의 컴퓨터 프로그램에서의 구현을 포함할 수 있고, 상기 하나 또는 다수의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템에서 실행 및/또는 해석될 수 있으며, 상기 프로그램 가능 프로세서는 전용 또는 범용 프로그램 가능 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력 장치, 및 적어도 하나의 출력 장치로부터 데이터 및 명령을 수신할 수 있으며, 데이터 및 명령을 상기 저장 시스템, 상기 적어도 하나의 입력 장치, 및 상기 적어도 하나의 출력 장치에 전송할 수 있다.
이러한 컴퓨팅 프로그램(프로그램, 소프트웨어, 소프트웨어 애플리케이션, 또는 코드라고도 함)은 프로그램 가능 프로세서의 기계 명령을 포함하고, 하이레벨 프로세스 및/또는 객체에 대한 프로그래밍 언어, 및/또는 어셈블리/기계 언어를 이용하여 이러한 컴퓨팅 프로그램을 실행할 수 있다. 본문에서 사용된 바와 같이, 용어 "기계 판독 가능한 매체" 및 "컴퓨터 판독 가능한 매체"는 기계 명령 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 컴퓨터 프로그램 제품, 기기, 및/또는 장치(예를 들어, 자기 디스크, 광 디스크, 메모리, 프로그램 가능 로직 장치(PLD))를 의미하고, 기계 판독 가능한 신호인 기계 명령을 수신하는 기계 판독 가능한 매체를 포함한다. 용어 "기계 판독 가능한 신호"는 기계 명령 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 신호를 의미한다.
사용자와의 인터랙션을 제공하기 위하여, 컴퓨터에서 여기서 설명된 시스템 및 기술을 실시할 수 있고, 상기 컴퓨터는 사용자에게 정보를 표시하기 위한 표시 장치(예를 들어, CRT(음극선관) 또는 LCD(액정 표시 장치) 모니터); 및 키보드 및 지향 장치(예를 들어, 마우스 또는 트랙 볼)를 구비하며, 사용자는 상기 키보드 및 상기 지향 장치를 통해 컴퓨터에 입력을 제공한다. 다른 타입의 장치는 또한 사용자와의 인터랙션을 제공할 수 있는데, 예를 들어, 사용자에게 제공된 피드백은 임의의 형태의 감지 피드백(예를 들어, 시각 피드백, 청각 피드백, 또는 촉각 피드백)일 수 있고; 임의의 형태(소리 입력, 음성 입력, 또는 촉각 입력)로 사용자로부터의 입력을 수신할 수 있다.
여기서 설명된 시스템 및 기술은 백엔드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버로 사용됨), 또는 미들웨어 부재를 포함하는 컴퓨팅 시스템(예를 들어, 애플리케이션 서버), 또는 프론트 엔드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 그래픽 사용자 인터페이스 또는 네트워크 브라우저를 구비하는 사용자 컴퓨터인 바, 사용자는 상기 그래픽 사용자 인터페이스 또는 상기 네트워크 브라우저를 통해 여기서 설명된 시스템 및 기술의 실시형태와 인터랙션할 수 있음), 또는 이러한 백엔드 부재, 미들웨어 부재, 또는 프론트 엔드 부재의 임의의 조합을 포함하는 컴퓨팅 시스템에서 구현될 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)을 통해 시스템의 부재를 서로 연결시킬 수 있다. 통신 네트워크의 예는, 근거리 통신망(LAN), 광역망(WAN), 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로 멀리 떨어져 있고 일반적으로 통신 네트워크를 통해 서로 인터랙션한다. 대응되는 컴퓨터에서 실행되고 또한 서로 클라이언트-서버 관계를 가지는 컴퓨터 프로그램을 통해 클라이언트 및 서버의 관계를 생성한다.
본 출원의 실시예의 기술적 해결수단에 따르면, 비디오 정보와 각각의 후보 태그 사이의 상관성 정보에 따라, 복수의 후보 태그를 배열하고, 배열 결과에 따라 비디오의 태그를 생성함으로써, 복수의 후보 태그의 통합 이용을 구현하며, 비디오에 정확하고 완벽한 태그를 지정하여, 비디오 태그의 정확성 및 완전성을 향상시키고, 비디오 추천 효과를 향상시킨다.
본 명세서의 설명에서, 용어 "제1", "제2" 는 단지 설명을 위한 목적일 뿐, 상대적 중요성을 지시하거나 암시하거나, 지시된 기술특징의 수를 암시적으로 지칭하는 것으로 이해할 수 없다. 이로써, "제1", "제2" 로 한정된 특징은 적어도 하나의 상기 특징을 포함함을 명시하거나 암시할 수 있다. 본 출원의 설명에서 "복수"라는 표현은 다른 구체적인 한정이 없는 한 적어도 2개, 예를 들면 2개, 3개 등을 의미한다.
본 출원의 실시예는 이미 상기에서 도시되고 설명되었지만, 이해할 수 있는 것은, 상기 실시예는 예시적인 것으로, 본 출원에 대한 한정으로 이해할 수 없으며, 본 기술분야의 통상의 기술자는 본 출원의 범위 내에서 상기 실시예에 대해 변화, 수정, 교체 및 변형을 수행할 수 있다.

Claims (27)

  1. 비디오 태그의 생성 장치에 의해 수행되는 비디오 태그의 생성 방법에 있어서,
    비디오의 복수의 후보 태그를 획득하는 단계;
    상기 비디오의 비디오 정보를 획득하는 단계;
    상기 비디오 정보와 상기 복수의 후보 태그 사이의 제1 상관성 정보를 각각 계산하는 단계;
    상기 제1 상관성 정보에 따라 상기 복수의 후보 태그를 배열하는 단계; 및,
    배열 결과에 따라 상기 비디오의 태그를 생성하는 단계;를 포함하고,
    상기 비디오의 복수의 후보 태그를 획득하는 단계는,
    상기 비디오 중 인물에 대해 얼굴 인식을 수행하여, 상기 인물의 인물 정보 및 등장 시간을 획득하는 단계;
    상기 등장 시간에 따라 상기 인물이 상기 비디오 중 주요 인물인지 여부를 판단하는 단계; 및,
    상기 인물이 상기 주요 인물일 경우, 상기 인물의 인물 정보에 따라 상기 후보 태그를 생성하는 단계;를 포함하고,
    상기 비디오의 비디오 정보를 획득하는 단계는,
    상기 비디오의 제목, 상기 비디오 중 인물의 인물 정보 및 상기 비디오의 분류 정보에 따라 상기 비디오 정보를 생성하는 단계;를 포함하고,
    상기 비디오 정보와 상기 복수의 후보 태그 사이의 제1 상관성 정보를 각각 계산하는 단계는,
    상기 비디오 정보와 상기 복수의 후보 태그를 시맨틱 매칭 모델에 입력하여, 상기 비디오 정보와 상기 복수의 후보 태그 사이의 제1 상관성 정보를 생성하는 단계;를 포함하는,
    것을 특징으로 하는 비디오 태그의 생성 방법.
  2. 제1항에 있어서,
    상기 방법은,
    상기 비디오에 대응되는 지식 그래프 또는 지식 포인트 그래프를 획득하는 단계; 및,
    상기 지식 그래프 또는 지식 포인트 그래프에 따라 상기 복수의 후보 태그 사이의 제2 상관성 정보를 계산하는 단계;를 더 포함하되, 상기 제1 상관성 정보 및 상기 제2 상관성 정보에 따라 상기 복수의 후보 태그를 배열하고, 상기 지식 그래프는, 상기 비디오의 상관 정보를 포함하는,
    것을 특징으로 하는 비디오 태그의 생성 방법.
  3. 제1항에 있어서,
    상기 비디오의 복수의 후보 태그를 획득하는 단계는,
    상기 비디오의 비디오 제목을 획득하는 단계; 및,
    상기 비디오 제목에 따라 상기 후보 태그를 생성하는 단계;를 포함하는,
    것을 특징으로 하는 비디오 태그의 생성 방법.
  4. 제1항에 있어서,
    상기 비디오의 복수의 후보 태그를 획득하는 단계는,
    상기 비디오의 작성자 태그를 획득하는 단계; 및,
    상기 작성자 태그에 따라 상기 후보 태그를 생성하는 단계;를 포함하는,
    것을 특징으로 하는 비디오 태그의 생성 방법.
  5. 제1항에 있어서,
    상기 비디오의 복수의 후보 태그를 획득하는 단계는,
    상기 비디오의 분류 정보를 획득하는 단계; 및,
    상기 분류 정보에 따라 상기 후보 태그를 생성하는 단계;를 포함하는,
    것을 특징으로 하는 비디오 태그의 생성 방법.
  6. 제1항에 있어서,
    상기 비디오의 복수의 후보 태그를 획득하는 단계는,
    상기 비디오 중 텍스트 정보를 인식하는 단계; 및,
    상기 텍스트 정보에 따라 상기 후보 태그를 생성하는 단계;를 포함하는,
    것을 특징으로 하는 비디오 태그의 생성 방법.
  7. 삭제
  8. 삭제
  9. 제1항에 있어서,
    상기 시맨틱 매칭 모델은,
    샘플 비디오 정보 및 샘플 태그, 및 상기 샘플 비디오 정보와 상기 샘플 태그 사이의 라벨링 상관성 정보를 획득하는 단계;
    상기 샘플 비디오 정보 및 상기 샘플 태그를 초기 시맨틱 매칭 모델에 입력하여 예측 상관성 정보를 생성하는 단계; 및,
    상기 예측 상관성 정보 및 상기 라벨링 상관성 정보에 따라 상기 초기 시맨틱 매칭 모델에 대해 트레이닝하는 단계;의 트레이닝을 통해 획득되는,
    것을 특징으로 하는 비디오 태그의 생성 방법.
  10. 삭제
  11. 제1항에 있어서,
    상기 복수의 후보 태그의 길이 정보를 획득하는 단계; 및,
    상기 복수의 후보 태그의 길이 정보에 따라 상기 복수의 후보 태그의 태그 입도 정보를 각각 생성하는 단계;를 더 포함하되, 상기 제1 상관성 정보 및 상기 태그 입도 정보에 따라 상기 복수의 후보 태그를 배열하는,
    것을 특징으로 하는 비디오 태그의 생성 방법.
  12. 제1항에 있어서,
    상기 복수의 후보 태그의 인기도 정보를 획득하는 단계;를 더 포함하되, 상기 제1 상관성 정보 및 상기 인기도 정보에 따라 상기 복수의 후보 태그를 배열하는,
    것을 특징으로 하는 비디오 태그의 생성 방법.
  13. 비디오 태그의 생성 장치에 있어서,
    비디오의 복수의 후보 태그를 획득하는 제1 획득 모듈;
    상기 비디오의 비디오 정보를 획득하는 제2 획득 모듈;
    상기 비디오 정보와 상기 복수의 후보 태그 사이의 제1 상관성 정보를 각각 계산하는 제1 계산 모듈;
    상기 제1 상관성 정보에 따라 상기 복수의 후보 태그를 배열하는 배열 모듈; 및,
    배열 결과에 따라 상기 비디오의 태그를 생성하는 제1 생성 모듈;을 포함하고,
    상기 제1 획득 모듈은,
    상기 비디오 중 인물에 대해 얼굴 인식을 수행하여, 상기 인물의 인물 정보 및 등장 시간을 획득하고;
    상기 등장 시간에 따라 상기 인물이 상기 비디오 중 주요 인물인지 여부를 판단하며;
    상기 인물이 상기 주요 인물일 경우, 상기 인물의 인물 정보에 따라 상기 후보 태그를 생성하고,
    상기 제2 획득 모듈은,
    상기 비디오의 제목, 상기 비디오 중 인물의 인물 정보 및 상기 비디오의 분류 정보에 따라 상기 비디오 정보를 생성하고,
    상기 제1 계산 모듈은,
    상기 비디오 정보와 상기 복수의 후보 태그를 시맨틱 매칭 모델에 입력하여, 상기 비디오 정보와 상기 복수의 후보 태그 사이의 제1 상관성 정보를 생성하는,
    것을 특징으로 하는 비디오 태그의 생성 장치.
  14. 제13항에 있어서,
    상기 비디오에 대응되는 지식 그래프 또는 지식 포인트 그래프를 획득하는 제3 획득 모듈; 및,
    상기 지식 그래프 또는 지식 포인트 그래프에 따라 상기 복수의 후보 태그 사이의 제2 상관성 정보를 계산하는 제2 계산 모듈;을 더 포함하되, 상기 배열 모듈은 상기 제1 상관성 정보 및 상기 제2 상관성 정보에 따라 상기 복수의 후보 태그를 배열하고,
    상기 지식 그래프는, 상기 비디오의 상관 정보를 포함하는,
    것을 특징으로 하는비디오 태그의 생성 장치.
  15. 제13항에 있어서,
    상기 제1 획득 모듈은,
    상기 비디오의 비디오 제목을 획득하고;
    상기 비디오 제목에 따라 상기 후보 태그를 생성하는,
    것을 특징으로 하는 비디오 태그의 생성 장치.
  16. 제13항에 있어서,
    상기 제1 획득 모듈은,
    상기 비디오의 작성자 태그를 획득하고;
    상기 작성자 태그에 따라 상기 후보 태그를 생성하는,
    것을 특징으로 하는 비디오 태그의 생성 장치.
  17. 제13항에 있어서,
    상기 제1 획득 모듈은,
    상기 비디오의 분류 정보를 획득하고;
    상기 분류 정보에 따라 상기 후보 태그를 생성하는,
    것을 특징으로 하는 비디오 태그의 생성 장치.
  18. 제13항에 있어서,
    상기 제1 획득 모듈은,
    상기 비디오 중 텍스트 정보를 인식하고;
    상기 텍스트 정보에 따라 상기 후보 태그를 생성하는,
    것을 특징으로 하는 비디오 태그의 생성 장치.
  19. 삭제
  20. 삭제
  21. 제13항에 있어서,
    상기 시맨틱 매칭 모델은,
    샘플 비디오 정보 및 샘플 태그, 및 상기 샘플 비디오 정보와 상기 샘플 태그 사이의 라벨링 상관성 정보를 획득하는 제4 획득 모듈;
    상기 샘플 비디오 정보 및 상기 샘플 태그를 상기 시맨틱 매칭 모델에 입력하여 예측 상관성 정보를 생성하는 제2 생성 모듈; 및,
    상기 예측 상관성 정보 및 상기 라벨링 상관성 정보에 따라 상기 시맨틱 매칭 모델에 대해 트레이닝하는 트레이닝 모듈;을 통해 획득되는,
    것을 특징으로 하는 비디오 태그의 생성 장치.
  22. 삭제
  23. 제13항에 있어서,
    상기 복수의 후보 태그의 길이 정보를 획득하는 제5 획득 모듈; 및,
    상기 복수의 후보 태그의 길이 정보에 따라 상기 복수의 후보 태그의 태그 입도 정보를 각각 생성하는 제3 생성 모듈;을 더 포함하되, 상기 배열 모듈은 상기 제1 상관성 정보 및 상기 태그 입도 정보에 따라 상기 복수의 후보 태그를 배열하는,
    것을 특징으로 하는 비디오 태그의 생성 장치.
  24. 제13항에 있어서,
    상기 복수의 후보 태그의 인기도 정보를 획득하는 제6 획득 모듈;을 더 포함하되, 상기 배열 모듈은, 상기 제1 상관성 정보 및 상기 인기도 정보에 따라 상기 복수의 후보 태그를 배열하는,
    것을 특징으로 하는 비디오 태그의 생성 장치.
  25. 전자 기기에 있어서,
    적어도 하나의 프로세서; 및,
    상기 적어도 하나의 프로세서와 통신 가능하게 연결되는 메모리를 포함하고;
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되어 있고, 상기 명령이 상기 적어도 하나의 프로세서에 의해 실행될 경우, 상기 적어도 하나의 프로세서가 제1항 내지 제6항, 제9항, 제11항, 제12항 중 어느 한 항에 따른 비디오 태그의 생성 방법을 수행하도록 하는,
    것을 특징으로 하는 전자 기기.
  26. 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 저장 매체에 있어서,
    상기 컴퓨터 명령은 상기 컴퓨터가 제1항 내지 제6항, 제9항, 제11항, 제12항 중 어느 한 항에 따른 비디오 태그의 생성 방법을 수행하도록 하는,
    것을 특징으로 하는 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 저장 매체.
  27. 컴퓨터 판독 가능 저장 매체에 저장되어 있는 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램중의 명령이 실행될 경우, 제1항 내지 제6항, 제9항, 제11항, 제12항 중 어느 한 항에 따른 비디오 태그의 생성 방법이 실행되는,
    것을 특징으로 하는 컴퓨터 판독 가능 저장 매체에 저장되어 있는 컴퓨터 프로그램.
KR1020210038311A 2020-06-03 2021-03-24 비디오 태그의 생성 방법, 장치, 전자 기기 및 저장 매체 KR102510317B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010493783.7A CN111831854A (zh) 2020-06-03 2020-06-03 视频标签的生成方法、装置、电子设备和存储介质
CN202010493783.7 2020-06-03

Publications (2)

Publication Number Publication Date
KR20210040329A KR20210040329A (ko) 2021-04-13
KR102510317B1 true KR102510317B1 (ko) 2023-03-17

Family

ID=72897609

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210038311A KR102510317B1 (ko) 2020-06-03 2021-03-24 비디오 태그의 생성 방법, 장치, 전자 기기 및 저장 매체

Country Status (5)

Country Link
US (1) US11508153B2 (ko)
EP (1) EP3920088A1 (ko)
JP (1) JP7080300B2 (ko)
KR (1) KR102510317B1 (ko)
CN (1) CN111831854A (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112084268B (zh) * 2020-09-04 2022-05-20 北京字节跳动网络技术有限公司 一种搜索结果展示的方法、装置及计算机存储介质
CN112784111B (zh) * 2021-03-12 2024-07-02 有半岛(北京)信息科技有限公司 视频分类方法、装置、设备及介质
CN113382279B (zh) * 2021-06-15 2022-11-04 北京百度网讯科技有限公司 直播推荐方法、装置、设备、存储介质以及计算机程序产品
CN113792115B (zh) * 2021-08-17 2024-03-22 北京百度网讯科技有限公司 实体相关性确定方法、装置、电子设备及存储介质
CN113722542A (zh) * 2021-08-31 2021-11-30 青岛聚看云科技有限公司 视频推荐方法及显示设备
JP2023077006A (ja) 2021-11-24 2023-06-05 株式会社豊田自動織機 内燃機関システムの制御装置
CN114338586B (zh) * 2021-12-21 2024-05-28 中国农业银行股份有限公司 一种消息推送方法、装置、电子设备及存储介质
CN114157882B (zh) * 2021-12-27 2024-04-30 未来电视有限公司 视频编目方法、装置、电子设备及计算机可读存储介质
CN115878849B (zh) * 2023-02-27 2023-05-26 北京奇树有鱼文化传媒有限公司 一种视频标签关联方法、装置和电子设备
CN116975363A (zh) * 2023-03-13 2023-10-31 腾讯科技(深圳)有限公司 视频标签生成方法、装置、电子设备及存储介质
CN118395196B (zh) * 2024-06-28 2024-09-17 浪潮电子信息产业股份有限公司 模型训练方法、视频定位方法、系统、设备、产品及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108829893A (zh) * 2018-06-29 2018-11-16 北京百度网讯科技有限公司 确定视频标签的方法、装置、存储介质和终端设备
CN110287375A (zh) * 2019-05-30 2019-09-27 北京百度网讯科技有限公司 视频标签的确定方法、装置及服务器
CN111125435A (zh) * 2019-12-17 2020-05-08 北京百度网讯科技有限公司 视频标签的确定方法、装置和计算机设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8098976B1 (en) * 2011-09-26 2012-01-17 Limelight Networks, Inc. Methods and systems for performing top concepts extraction
JP5226241B2 (ja) 2007-04-16 2013-07-03 ヤフー株式会社 タグを付与する方法
KR101031357B1 (ko) * 2009-07-15 2011-04-29 인하대학교 산학협력단 주요 배역을 추출하는 방법 및 장치
KR101658413B1 (ko) * 2009-09-22 2016-09-22 삼성전자주식회사 동영상에서의 인물 정보 추출방법 및 그 장치
US9020244B2 (en) * 2011-12-06 2015-04-28 Yahoo! Inc. Ranking and selecting representative video images
EP3162016A4 (en) * 2014-06-27 2018-01-24 Google LLC Automated click type selection for content performance optimization
CN104090955A (zh) * 2014-07-07 2014-10-08 科大讯飞股份有限公司 一种音视频标签自动标注方法及系统
CN108509465B (zh) * 2017-02-28 2022-03-15 阿里巴巴集团控股有限公司 一种视频数据的推荐方法、装置和服务器
JP6389296B1 (ja) 2017-03-29 2018-09-12 西日本電信電話株式会社 映像データ処理装置、映像データ処理方法、及びコンピュータプログラム
US10997413B2 (en) * 2018-03-23 2021-05-04 NthGen Software Inc. Method and system for obtaining vehicle target views from a video stream
CN110555136B (zh) * 2018-03-29 2022-07-08 阿里巴巴(中国)有限公司 一种视频标签的生成方法、装置及计算机存储介质
CN110691202A (zh) * 2019-08-28 2020-01-14 咪咕文化科技有限公司 视频剪辑方法、装置及计算机存储介质
CN110968736B (zh) * 2019-12-04 2021-02-02 深圳追一科技有限公司 视频生成方法、装置、电子设备及存储介质
CN113132752B (zh) * 2019-12-30 2023-02-24 阿里巴巴集团控股有限公司 视频处理方法及装置
WO2022070908A1 (ja) * 2020-09-29 2022-04-07 株式会社ドワンゴ 動画配信装置、動画配信方法、および、記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108829893A (zh) * 2018-06-29 2018-11-16 北京百度网讯科技有限公司 确定视频标签的方法、装置、存储介质和终端设备
CN110287375A (zh) * 2019-05-30 2019-09-27 北京百度网讯科技有限公司 视频标签的确定方法、装置及服务器
CN111125435A (zh) * 2019-12-17 2020-05-08 北京百度网讯科技有限公司 视频标签的确定方法、装置和计算机设备

Also Published As

Publication number Publication date
CN111831854A (zh) 2020-10-27
EP3920088A1 (en) 2021-12-08
KR20210040329A (ko) 2021-04-13
JP2021190079A (ja) 2021-12-13
US20210383121A1 (en) 2021-12-09
JP7080300B2 (ja) 2022-06-03
US11508153B2 (en) 2022-11-22

Similar Documents

Publication Publication Date Title
KR102510317B1 (ko) 비디오 태그의 생성 방법, 장치, 전자 기기 및 저장 매체
KR102565659B1 (ko) 정보 생성 방법 및 장치
JP7430660B2 (ja) テキストの創作方法、装置、機器及び記憶媒体
CN111221984B (zh) 多模态内容处理方法、装置、设备及存储介质
KR102504699B1 (ko) 엔티티 링킹 방법, 장치, 기기, 저장 매체 및 컴퓨터 프로그램
US20210216580A1 (en) Method and apparatus for generating text topics
CN111935537A (zh) 音乐短片视频生成方法、装置、电子设备和存储介质
CN115082602B (zh) 生成数字人的方法、模型的训练方法、装置、设备和介质
JP2021190087A (ja) テキスト認識処理方法、装置、電子機器及び記憶媒体
JP7264866B2 (ja) イベント関係の生成方法、装置、電子機器及び記憶媒体
JP7106802B2 (ja) リソースソート方法、ソートモデルをトレーニングする方法及び対応する装置
KR102565673B1 (ko) 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체
CN111079442A (zh) 文档的向量化表示方法、装置和计算机设备
JP6361351B2 (ja) 発話ワードをランク付けする方法、プログラム及び計算処理システム
KR20210038467A (ko) 이벤트 테마 생성 방법, 장치, 기기 및 저장 매체
KR20210089597A (ko) 비디오 검색 방법, 장치, 기기 및 매체
CN111144108A (zh) 情感倾向性分析模型的建模方法、装置和电子设备
CN113642536B (zh) 数据处理方法、计算机设备以及可读存储介质
CN111177462B (zh) 视频分发时效的确定方法和装置
CN112163560A (zh) 一种视频信息处理方法、装置、电子设备及存储介质
CN111832613A (zh) 模型训练方法、装置、电子设备和存储介质
JP2021082306A (ja) 目標内容の確定方法、装置、機器及びコンピュータ可読記憶媒体
CN111382563A (zh) 文本相关性的确定方法及装置
CN112052390A (zh) 一种资源筛选方法、装置、电子设备及存储介质
CN111353070A (zh) 视频标题的处理方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right