KR20210118203A - 이모티콘 패키지 생성 방법 및 기기, 전자 기기 및 매체 - Google Patents

이모티콘 패키지 생성 방법 및 기기, 전자 기기 및 매체 Download PDF

Info

Publication number
KR20210118203A
KR20210118203A KR1020217029278A KR20217029278A KR20210118203A KR 20210118203 A KR20210118203 A KR 20210118203A KR 1020217029278 A KR1020217029278 A KR 1020217029278A KR 20217029278 A KR20217029278 A KR 20217029278A KR 20210118203 A KR20210118203 A KR 20210118203A
Authority
KR
South Korea
Prior art keywords
target video
target
dedicated
emoticon
feedback information
Prior art date
Application number
KR1020217029278A
Other languages
English (en)
Inventor
촨런 쉬
Original Assignee
베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN202010601966.6A external-priority patent/CN111753131A/zh
Application filed by 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. filed Critical 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Publication of KR20210118203A publication Critical patent/KR20210118203A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • G06F16/7328Query by example, e.g. a complete video frame or video sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/735Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • G06F16/739Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/55Push-based network services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/26603Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel for automatically generating descriptors from content, e.g. when it is not made available by its provider, using content analysis techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • H04N21/4415Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4668Learning process for intelligent management, e.g. learning user preferences for recommending movies for recommending content, e.g. movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Abstract

본 발명은 이모티콘 패키지 생성 방법 및 기기, 전자 기기 및 매체를 제공하며, 멀티미디어 기술 분야에 관한 것으로, 특히 비디오 이미지 처리 분야에 관한 것이다. 상기 이모티콘 패키지 생성 방법은, 타겟 비디오의 복수의 관련 비디오의 적어도 하나의 타겟 피드백 정보를 획득하되, 상기 타겟 비디오 및 상기 복수의 관련 비디오는 동일한 비디오 크리에이터와 연관되는 단계; 상기 적어도 하나의 타겟 피드백 정보를 상기 타겟 비디오와 매칭하는 단계; 매칭 결과에 기반하여 상기 타겟 비디오로부터 적어도 하나의 타겟 비디오 클립을 결정하는 단계; 및 적어도 상기 적어도 하나의 타겟 비디오 클립에 기반하여 전용 이모티콘 패키지를 생성하는 단계를 포함한다.

Description

이모티콘 패키지 생성 방법 및 기기, 전자 기기 및 매체
관련 출원의 상호 참조
본원 발명은 2020년 06월 28일에 제출한 중국 특허 출원 202010601966.6의 우선권을 주장하는 바, 그 전부 내용은 참조로서 본원 발명에 인용된다.
기술분야
본 발명은 멀티미디어 기술 분야에 관한 것으로, 특히 비디오 이미지 처리 분야에 관한 것이며, 특별히 이모티콘 패키지 생성 방법 및 기기, 전자 기기 및 매체에 관한 것이다.
최근 몇 년간, 스마트 폰의 급속한 인기와 모바일 네트워크 속도의 급격한 증가로 인해 점점 더 많은 사용자가 비디오 타입의 멀티미디어 소프트웨어를 사용하기 시작하였다. 멀티미디어 소프트웨어를 통해 자체로 제작한 비디오를 업로드할 수 있고, 다른 사용자가 업로드한 비디오를 볼 수도 있다. 비디오를 제작할 때, 많은 사용자는 이모티콘 패키지에서 적절한 이모티콘을 선택하여 비디오에 추가하는 것을 선호한다. 다른 사용자가 업로드한 동영상을 볼 때, 사용자는 댓글을 달거나 이모티콘 패키지에서 적절한 이모티콘을 선택하여 댓글에 추가하거나 이모티콘 패키지에서 적절한 이모티콘만 선택하여 댓글로 달 수 있다.
관련 기술에서, 멀티미디어 플랫폼은 모든 사용자에게 통합된 이모티콘 패키지를 푸시하며, 이러한 이모티콘 패키지 중 이모티콘은 주로 스타, 애니메이션, 영화 등을 소재로 한다.
이 부분에 설명된 방법은 이전에 구상되거나 채택된 방법이 아닐 수 있다. 달리 명시되지 않는 한, 이 부분에 설명된 임의의 방법이 단지 이 부분에 포함된 이유로 종래 기술로 간주되는 것으로 가정되어서는 안된다. 유사하게, 달리 명시되지 않는 한, 이 부분에 언급된 문제는 임의의 종래 기술에서 이미 주지된 것으로 간주되어서는 안된다.
본 발명의 하나의 양태로서, 타겟 비디오의 복수의 관련 비디오의 적어도 하나의 타겟 피드백 정보를 획득하되, 상기 타겟 비디오 및 상기 복수의 관련 비디오는 동일한 비디오 크리에이터와 연관되는 단계; 상기 적어도 하나의 타겟 피드백 정보를 상기 타겟 비디오와 매칭하는 단계; 매칭 결과에 기반하여 상기 타겟 비디오로부터 적어도 하나의 타겟 비디오 클립을 결정하는 단계; 및 적어도 상기 적어도 하나의 타겟 비디오 클립에 기반하여 전용 이모티콘 패키지를 생성하는 단계를 포함하는 이모티콘 패키지 생성 방법을 제공한다.
본 발명의 다른 양태로서, 타겟 비디오의 복수의 관련 비디오의 적어도 하나의 타겟 피드백 정보를 획득하도록 구성되는 획득 유닛; 상기 적어도 하나의 타겟 피드백 정보를 상기 타겟 비디오와 매칭하도록 구성되는 매칭 유닛; 상기 매칭 유닛의 매칭 결과에 기반하여 상기 타겟 비디오로부터 적어도 하나의 타겟 비디오 클립을 결정하도록 구성되는 결정 유닛; 및 적어도 상기 적어도 하나의 타겟 비디오 클립에 기반하여 전용 이모티콘 패키지를 생성하도록 구성되는 생성 유닛을 포함하는 이모티콘 패키지 생성 기기를 더 제공한다.
본 발명의 다른 양태로서, 프로세서; 및 프로그램이 저장된 메모리를 포함하는 전자 기기를 더 제공하되, 상기 프로그램은 명령을 포함하고, 상기 명령은 상기 프로세서에 의해 실행될 경우 상기 프로세서가 상술한 이모티콘 패키지 생성 방법을 수행하도록 한다.
본 발명의 다른 양태로서, 프로그램이 저장된 컴퓨터 판독 가능 저장 매체를 더 제공하되, 상기 프로그램은 명령을 포함하고, 상기 명령은 전자 기기의 프로세서에 의해 실행될 경우, 상기 전자 기기가 상술한 이모티콘 패키지 생성 방법을 수행하도록 한다.
첨부 도면은 실시예를 예시적으로 도시하고 명세서의 일부를 구성하며, 명세서의 텍스트 설명과 함께 실시예의 예시적인 실시형태를 해석하기 위한 것이다. 도시된 실시예는 단지 예시적인 목적일 뿐, 청구항의 범위를 한정하지 않는다. 모든 첨부 도면에서, 동일한 도면 부호는 유사하지만 반드시 동일한 요소를 대신 지칭하는 것은 아니다.
도 1은 예시적인 실시예에 따른 이모티콘 패키지 생성 방법을 도시하는 흐름도이다.
도 2는 예시적인 실시예에 따른 복수의 관련 비디오의 적어도 하나의 타겟 피드백 정보의 방법을 도시하는 흐름도이다.
도 3은 예시적인 실시예에 따른 이모티콘 패키지 생성 방법을 도시하는 흐름도이다.
도 4는 예시적인 실시예에 따른 이모티콘 패키지 생성 기기를 도시하는 예시적 구성 블록도이다.
도 5는 예시적인 실시예에 적용될 수 있는 예시적 컴퓨팅 기기를 도시하는 구조 블록도이다.
본 발명에서, 달리 설명되지 않는 한, 용어 "제1", "제2" 등을 사용하여 다양한 요소를 설명하는 것은 이러한 요소의 위치 관계, 시퀀스 관계 또는 중요성 관계를 한정하려는 의도가 아니며, 이러한 용어는 단지 하나의 구성 요소를 다른 하나의 구성 요소와 구분하기 위한 것이다. 일부 예시에서, 제1 요소와 제2 요소는 상기 요소의 동일한 구현예를 의미할 수 있으며, 특정된 경우, 컨텍스트의 설명에 기반하여, 이들은 상이한 구현예를 대신 지칭할 수도 있다.
본 발명에서 다양한 상기 예시에 대한 설명에 사용되는 용어는 단지 특정 예시를 설명하기 위한 목적일 뿐, 한정하려는 것이 아니다. 문맥상 달리 명시되지 않는 한, 요소의 수를 특별히 한정하지 않으면, 상기 요소는 하나일 수 있고 복수일 수도 있다. 이 밖에, 본 발명에 사용되는 용어 "및/또는"은 열거된 항목 중 어느 하나 및 전부 가능한 조합 방식을 포함한다.
관련 기술에서, 멀티미디어 플랫폼은 모든 사용자에게 통합된 이모티콘 패키지를 푸시하며, 이러한 이모티콘 패키지 중 이모티콘은 주로 스타, 애니메이션, 영화 등을 소재로 한다. 사용자가 비디오에 댓글을 달거나 비디오를 제작할 경우, 통합으로 푸시한 이모티콘 패키지 중 이모티콘만 사용할 수 있다. 이러한 차이성이 없는 통합 이모티콘 패키지는 비디오 제작 사용자(이하 비디오 크리에이터로 약칭함)와 아무런 관련이 없으며, 단지 이모티콘으로서 사용될 수 있다.
빅데이터에 대한 연구를 기반으로, 발명자는 가장 빈번한 댓글(의미 유사도가 비교적 높은 복수의 댓글을 의미할 수 있음)과 관련된 비디오 클립이 기본적으로 사용자가 관심을 갖는 비디오 클립이며, 이러한 비디오 클립은 사용자를 가장 잘 매료시킬 수 있고, 또한 종종 비디오 크리에이터의 개성 특성을 가장 잘 반영할 수 있음을 알 수 있다. 댓글과 관련된 비디오 클립은 다른 사용자가 상기 비디오 클립에 대해 작성한 댓글을 의미할 수 있고, 상기 댓글과 매칭되는 비디오 클립을 의미할 수도 있다. 댓글과 매칭되는 비디오 클립은 상기 댓글이 비디오 클립의 자막 또는 오디오에 해당하는 텍스트의 적어도 일부와 비교적 높은 의미 유사도를 가지는 것을 의미할 수 있다.
이에 기반하여, 본 발명은 이모티콘 패키지 생성 방법을 제공하는바, 타겟 비디오의 복수의 관련 비디오의 타겟 피드백 정보를 획득하고, 타겟 피드백 정보를 타겟 비디오와 매칭하여, 타겟 비디오로부터 적어도 하나의 타겟 비디오 클립을 결정한다. 이로써 사용자의 피드백 정보를 타겟 비디오에 매핑하여, 사용자 피드백 정보와 관련된 타겟 비디오 클립을 획득할 수 있다. 여기서, 상기 타겟 비디오 및 상기 복수의 관련 비디오는 동일한 비디오 크리에이터와 연관된다. 다음, 획득된 타겟 비디오 클립에 기반하여 비디오 크리에이터의 전용 이모티콘 패키지를 생성하고, 비디오 크리에이터의 전용 이모티콘 패키지를 비디오 크리에이터 및 다른 사용자에게 푸시할 수 있음으로써, 다른 사용자는 전용 이모티콘 패키지 중 전용 이모티콘을 사용하여 비디오 크리에이터가 업로드한 비디오에 대해 댓글을 달 수 있으며, 비디오 크리에이터도 전용 이모티콘 패키지에서 적절한 전용 이모티콘을 선택하여 제작된 비디오에 추가할 수 있다. 상기 기술적 해결수단을 통해 생성된 전용 이모티콘 패키지는 다른 사용자의 관심을 충족시킬 수 있을 뿐만 아니라, 비디오 크리에이터의 개성 특성을 반영할 수 있음으로써, 전용 이모티콘 패키지를 사용하여 다른 사용자의 비디오 크리에이터에 대한 인상을 심층화할 수 있어, 비디오 크리에이터의 인지도와 영향력을 향상시킨다.
비디오의 피드백 정보는 예를 들어 탄막, 비디오 댓글 영역의 댓글, 좋아요 및 전달 등 정보 중 적어도 하나를 포함할 수 있다.
상기 타겟 비디오는 라이브 비디오일 수 있고, 녹화된 비디오일 수도 있다. 상기 타겟 비디오 및 복수의 관련 비디오는 예를 들어 동일한 사용자에 의해 제작될 수 있다(라이브 또는 녹화될 수 있음).
본 발명에서, 사용자가 제작한 비디오는 제작하여 얻은 비디오에 상기 사용자의 오디오 및/또는 비디오가 포함되는 것을 가리킬 수 있다.
아래에 첨부 도면을 결부하여 본 발명의 이모티콘 패키지 생성 방법을 추가로 설명하고자 한다.
도 1은 본 발명의 예시적인 실시예에 따른 이모티콘 패키지 생성 방법을 도시하는 흐름도이다. 도 1에 도시된 바와 같이, 상기 이모티콘 패키지 생성 방법은 타겟 비디오의 복수의 관련 비디오의 적어도 하나의 타겟 피드백 정보를 획득하되, 상기 타겟 비디오 및 상기 복수의 관련 비디오는 동일한 비디오 크리에이터와 연관되는 단계 S101; 상기 적어도 하나의 타겟 피드백 정보를 상기 타겟 비디오와 매칭하는 단계 S102; 매칭 결과에 기반하여 상기 타겟 비디오로부터 적어도 하나의 타겟 비디오 클립을 결정하는 단계 S103; 및 적어도 상기 적어도 하나의 타겟 비디오 클립에 기반하여 전용 이모티콘 패키지를 생성하는 단계 S104를 포함할 수 있다.
상기 복수의 관련 비디오는 비디오로부터 획득될 수 있지만 이에 한정되지 않는다. 예를 들어, 네트워크로부터 캡처하여 획득될 수도 있다.
일부 실시예에 따르면, 상기 복수의 관련 비디오의 복수의 피드백 정보에서 가장 빈번하게 나타나는 적어도 하나의 피드백 정보를 각각 상기 타겟 피드백 정보로 결정할 수 있다. 다시 말해서, 상기 복수의 관련 비디오의 복수의 피드백 정보에서, 상기 적어도 하나의 타겟 피드백 정보가 나타나는 횟수는 나머지 피드백 정보가 나타나는 횟수보다 크다. 이로써 상기 적어도 하나의 타겟 피드백 정보에 기반하여 사용자의 가장 관심을 갖는 타겟 비디오 클립을 결정할 수 있다.
상기 타겟 비디오 클립은 복수의 연속된 비디오 프레임을 포함할 수 있고, 하나의 독립적인 비디오 프레임일 수도 있으며, 여기서 한정하지 않는다.
예시적인 하나의 실시예에서, 도 2에 도시된 바와 같이, 단계 S101은, 상기 복수의 관련 비디오 중 각각의 상기 관련 비디오의 적어도 하나의 피드백 정보를 획득하는 단계 S1011; 상기 복수의 관련 비디오의 복수의 피드백 정보에 대해 의미 매칭을 수행하는 단계 S1012; 의미 매칭 결과에 기반하여 상기 복수의 피드백 정보를 복수의 피드백 정보 그룹으로 분할하는 단계 S1013; 상기 복수의 피드백 정보 그룹 중 포함된 피드백 정보의 수가 임계값보다 큰 적어도 하나의 피드백 정보 그룹을 타겟 피드백 정보 그룹으로 결정하는 단계 S1014; 및 각각의 상기 타겟 피드백 정보 그룹 중 복수의 피드백 정보에 기반하여 상기 타겟 피드백 정보 그룹에 해당하는 상기 타겟 피드백 정보를 결정하는 단계 S1015를 포함할 수 있다. 이로써, 상기 적어도 하나의 타겟 피드백 정보가 가장 빈번하게 나타나는 피드백 정보임을 구현할 수 있다.
각각의 타겟 피드백 정보 그룹 중 복수의 피드백 정보에서 유사도가 가장 높은 키워드를 상기 타겟 피드백 정보로 사용할 수 있지만 이에 한정되지 않는다. 상기 키워드는 예를 들어 "666", "좋아요", "응원함" 등일 수 있다. 예를 들어, 각각의 타겟 피드백 정보 그룹 중 하나의 피드백 정보를 상기 타겟 피드백 정보로 결정할 수도 있다.
일부 실시예에 따르면, 상기 이모티콘 패키지 생성 방법은, 타겟 비디오의 복수의 관련 비디오의 적어도 하나의 타겟 피드백 정보를 획득하는 상기 단계 이전에, 상기 복수의 관련 비디오의 피드백 정보의 총 수가 설정값보다 작지 않은지 여부를 결정하는 단계; 및 상기 복수의 관련 비디오의 피드백 정보의 총 수가 상기 설정값보다 작은 것으로 결정된 것에 응답하여, 가이드 정보를 푸시하여, 사용자가 상기 타겟 비디오에 대한 피드백 정보를 입력하도록 가이드하는 단계를 더 포함할 수 있다. 상기 복수의 관련 비디오의 피드백 정보의 총 수가 상기 설정값보다 작은 것으로 결정된 것에 응답하여, 복수의 관련 비디오의 적어도 하나의 타겟 피드백 정보를 획득하는 단계를 수행할 수 있다. 따라서, 충족한 수의 피드백 정보에 기반하여 필요되는 타겟 피드백 정보를 획득할 수 있어, 획득된 타겟 피드백 정보가 다수의 사용자의 관심을 더 잘 지시할 수 있도록 한다.
상기 가이드 정보를 푸시하는 것은, 예를 들어 가이드 탄막을 송신하는 것일 수 있다(예를 들어, "대량의 탄막이 곧 밀려올 것이다").
타겟 비디오의 복수의 관련 비디오의 적어도 하나의 타겟 피드백 정보를 획득하는 단계 이후에, 단계 S102 및 단계 S103을 수행하여 적어도 하나의 타겟 비디오 클립을 획득할 수 있다. 일부 실시예에 따르면, 적어도 하나의 타겟 비디오 클립은 상기 적어도 하나의 타겟 피드백 정보 중 적어도 하나와 매칭될 수 있다. 타겟 비디오 클립과 타겟 피드백 정보의 매칭은, 상기 타겟 비디오에서, 타겟 비디오 클립의 자막 또는 오디오에 해당하는 텍스트와 해당하는 타겟 피드백 정보 사이의 의미 유사도가 가장 높고, 또한 의미 유사도의 점수가 설정된 임계값보다 큰 것을 의미할 수 있다. 대응되게, 단계 S102는, 상기 적어도 하나의 타겟 피드백 정보 중 각각의 상기 타겟 피드백 정보를 상기 타겟 비디오의 적어도 일부 자막 또는 적어도 일부 오디오에 해당하는 텍스트와 의미 매칭을 수행하는 단계를 포함할 수 있다. 상기 타겟 비디오로부터 적어도 하나의 타겟 비디오 클립을 결정하는 단계는 상기 의미 매칭 결과에 기반하여 수행된다.
본 발명에서 타겟 비디오 클립에 기반하여 생성된 전용 이모티콘 패키지는 전용 애니메이션 이모티콘 및/또는 전용 스티커를 포함할 수 있다. 상기 전용 이모티콘 패키지는 다른 사용자 및 비디오 크리에이터에게 푸시되어 다른 사용자가 비디오 크리에이터가 업로드한 비디오를 볼 때 비디오 크리에이터의 전용 이모티콘 패키지 중 이모티콘을 사용하여 댓글을 달고, 비디오 크리에이터도 비디오 제작 시 그 전용 이모티콘 패키지 중 이모티콘을 추가할 수 있도록 한다.
본 발명의 기술적 해결수단을 이용하여, 각 비디오 크리에이터가 업로드한 비디오를 기반으로 상기 비디오 크리에이터를 위해 그 전용 이모티콘 패키지를 생성할 수 있다.
일부 실시예에 따르면, 상기 타겟 비디오 클립은 전용 애니메이션 이모티콘을 생성하기 위한 제1 타겟 비디오 클립을 포함할 수 있다. 이러한 경우, 도 3에 도시된 바와 같이, 상기 이모티콘 패키지 생성 방법은, 전용 이모티콘 패키지를 생성하는 상기 단계 이전에, 각각의 상기 타겟 비디오 클립에 대해 타겟 인식(예를 들어, 얼굴 인식)을 수행하는 단계 S201; 인식 결과에 기반하여 상기 타겟 비디오 클립에 상기 비디오 크리에이터가 포함되는지 여부를 결정하는 단계 S202; 및 상기 타겟 비디오 클립에 상기 비디오 크리에이터가 포함된다는 결정에 응답하여, 상기 타겟 비디오 클립을 상기 제1 타겟 비디오 클립으로 결정하는 단계 S203을 더 포함할 수 있다. 대응되게, 단계 S104는 적어도 상기 제1 타겟 비디오 클립에 기반하여 전용 애니메이션 이모티콘을 생성하는 단계 S1041을 포함할 수 있다. 이로써 비디오 크리에이터를 포함하는 비디오 클립에 기반하여 비디오 크리에이터의 전용 애니메이션 이모티콘을 생성할 수 있고, 전용 애니메이션 이모티콘을 사용하여 크리에이터의 인지도를 향상시킬 수 있다.
예를 들어, 어느 먹방 크리에이터는 특별한 음식을 만들 때 오늘 우리 맛있는 음식을 먹자고 늘 말한다. 과장된 표정과 재미있는 기색을 동반하여, 사용자는 종종 댓글로 조롱하기도 한다. 본 발명의 기술적 해결수단은 상기 비디오 클립(자막 또는 오디오 "오늘 우리 맛있는 음식을 먹어요"에 해당하는 비디오 클립일 수 있음)에 기반하여 하나의 대응하는 애니메이션을 생성할 수 있으며, 비디오 크리에이터 및 다른 사용자에게 상기 애니메이션을 푸시할 수 있다. 상기 애니메이션을 사용하여 관람 사용자의 인상을 크게 심층화할 수 있어, 비디오 크리에이터의 인기를 간편하고 빠르게 향상시킨다.
일부 실시예에 따르면, 단계 S104에서 적어도 상기 제1 타겟 비디오 클립에 기반하여 전용 애니메이션 이모티콘을 생성하는 단계는, 상기 제1 타겟 비디오 클립에 해당하는 제1 텍스트 정보를 결정하는 단계; 및 상기 제1 타겟 비디오 클립 및 해당하는 제1 텍스트 정보에 기반하여 전용 애니메이션 이모티콘을 생성하는 단계를 포함할 수 있다. 이로써 생성된 전용 애니메이션 이모티콘이 보다 더 생동감이 있을 수 있도록 한다. 상기 제1 텍스트 정보는 상기 제1 타겟 비디오 클립 중 자막 또는 오디오에 해당하는 텍스트에 기반하여 결정된 것일 수 있다. 예를 들어, 상기 제1 텍스트 정보는 제1 타겟 비디오 클립을 재생할 때 대응하는 한마디 자막 또는 오디오 중 한마디에 해당하는 텍스트일 수 있다. 물론, 상기 제1 텍스트 정보는 제1 타겟 비디오 클립과 매칭되는 타겟 피드백 정보를 기반으로 결정될 수도 있다.
적어도 상기 제1 타겟 비디오 클립에 기반하여 전용 애니메이션 이모티콘을 생성하는 단계는 제1 트리거 명령을 수신하는 것에 응답하여 수행되는 단계일 수 있지만 이에 한정되지 않음으로써, 비디오 크리에이터의 트리거 명령에 따라 전용 애니메이션 이모티콘을 선택적으로 생성할 수 있어, 보다 좋은 유연성을 갖는다.
일부 실시예에 따르면, 상기 타겟 비디오 클립은 전용 스티커를 생성하기 위한 제2 타겟 비디오 클립을 더 포함할 수 있다. 이러한 경우, 도 3에 도시된 바와 같이, 상기 이모티콘 패키지 생성 방법은, 상기 타겟 비디오 클립에 상기 비디오 크리에이터가 포함되지 않는 결정에 응답하여(예를 들어, 상기 비디오 크리에이터의 얼굴이 포함되지 않음), 상기 타겟 비디오 클립을 상기 제2 타겟 비디오 클립으로 결정하는 단계 S204를 더 포함할 수 있다. 대응되게, 전용 이모티콘 패키지를 생성하는 상기 단계 S104는 상기 제2 타겟 비디오 클립에 해당하는 제2 텍스트 정보를 결정하는 단계 S1042; 및 적어도 상기 제2 텍스트 정보에 기반하여 전용 스티커를 생성하는 단계 S1043을 더 포함할 수 있다. 이로써 얼굴이 포함되지 않은 비디오 클립에 기반하여 전용 스티커를 생성할 수 있다. 상기 제2 텍스트 정보는 상기 제2 타겟 비디오 클립 중 자막 또는 오디오에 해당하는 텍스트를 기반으로 결정된 것일 수 있다. 예를 들어, 상기 제2 텍스트 정보는 제2 타겟 비디오 클립을 재생할 때 대응하는 한마디 자막 또는 오디오 중 한마디에 해당하는 텍스트일 수 있다. 물론, 상기 제2 텍스트 정보는 제2 타겟 비디오 클립과 매칭되는 타겟 피드백 정보를 기반으로 결정될 수도 있다.
적어도 상기 제2 텍스트 정보에 기반하여 전용 스티커를 생성하는 단계는, 상기 타겟 비디오와 관련된 얼굴 이미지를 획득하는 단계; 및 상기 제2 텍스트 정보 및 상기 얼굴 이미지에 기반하여 상기 전용 스티커를 생성하는 단계를 포함할 수 있다. 이로써, 얼굴 이미지가 포함된 전용 스티커를 생성할 수 있다. 생성된 전용 스티커는 예를 들어 비디오 크리에이터가 지정한 프로필 사진을 사용할 수 있으며, 타겟 비디오로부터 획득한 비디오 크리에이터의 프로필 사진일 수도 있다. 이로써, 비디오 크리에이터 프로필 사진이 포함된 전용 스티커를 생성할 수 있고, 전용 스티커를 사용하여 비디오 크리에이터의 인지도를 향상시킬 수 있다.
이해할 수 있는 것은, 적어도 얼굴이 포함된 제1 타겟 비디오 클립에 기반하여 전용 스티커를 생성할 수도 있다. 구체적인 생성 방법은 제2 타겟 비디오 클립과 동일하며, 여기서 더이상 상세하게 서술하지 않는다.
이상 내용은 타겟 피드백 정보와 매칭되는 타겟 비디오 클립을 기반으로 전용 이모티콘 패키지를 생성하는 것이다.
다른 일부 실시예에 따르면, 상기 이모티콘 패키지 생성 방법은 제2 트리거 명령을 수신한 것에 응답하여, 선택된 설정 비디오 클립을 기반으로 전용 이모티콘을 생성하는 단계를 더 포함할 수 있다. 이로써 사용자는 지정된 비디오 클립을 능동적으로 선택하여 전용 이모티콘을 생성할 수 있어(전용 이모티콘 및/또는 전용 스티커를 포함할 수 있으며, 구체적인 생성 방법은 상술한 내용에서 타겟 비디오 클립을 기반으로 전용 이모티콘을 생성하는 것과 동일함), 유연성이 보다 높고, 사용자 체험을 더 향상시킨다. 예를 들어, 비디오의 지정 위치에 원클릭 변환 아이콘을 디스플레이할 수 있고, 비디오 크리에이터는 원클릭 변환 아이콘을 클릭하여 제2 트리거 명령을 입력할 수 있다.
비디오 크리에이터는 이미 녹화된 비디오에서 상기 설정된 비디오 클립을 선택하여 전용 이모티콘을 생성하는데 사용할 수 있지만 이에 한정되지 않는다.
상술한 내용에서는 전용 이모티콘 패키지가 제작 완료된 이후, 비디오 크리에이터 및 다른 사용자에게 푸시되어 선택하여 사용할 수 있도록 하는 것을 설명하였다.
다른 일부 실시예에 따르면, 자동적으로 전용 이모티콘 패키지에서 적절한 전용 이모티콘을 선택하여 기설정 비디오에 추가할 수도 있다. 이러한 경우, 상기 이모티콘 패키지 생성 방법은 상기 전용 이모티콘 패키지 중 적어도 일부분의 전용 이모티콘을 기설정 비디오와 매칭하는 단계; 매칭 결과에 기반하여 상기 기설정 비디오와 매칭되는 적어도 하나의 전용 이모티콘을 결정하는 단계; 및 매칭 결과에 기반하여 상기 기설정 비디오 중 상기 적어도 하나의 전용 이모티콘 중의 각각의 전용 이모티콘과 매칭되는 매칭 비디오 클립을 결정하여, 상기 기설정 비디오를 재생하는 과정에서, 상기 매칭 비디오 클립을 재생할 때 상기 매칭 비디오 클립에 해당하는 상기 전용 이모티콘을 푸시할 수 있는 단계를 더 포함할 수 있다. 이로써, 기설정 비디오와 전용 이모티콘 패키지 사이에 연관성을 구축하여, 비디오를 재생할 경우, 매칭 비디오 클립을 재생할 때 대응하는 전용 이모티콘을 자동적으로 푸시할 수 있다.
상기 기설정 비디오는 상기 타겟 비디오와 관련될 수 있다. 예를 들어, 상기 기설정 비디오 및 상기 타겟 비디오는 동일한 비디오 크리에이터와 연관될 수 있다. 이로써 비디오 크리에이터의 기설정 비디오와 비디오 크리에이터의 전용 이모티콘 패키지 사이에 연관성을 구축할 수 있으며, 상기 기설정 비디오를 재생할 때 대응하는 전용 이모티콘을 자동적으로 푸시할 수 있다.
상기 기설정 비디오는 비디오 라이브러리에 저장된 과거 비디오일 수 있고, 획득한 비디오 크리에이터가 현재 업로드한 비디오일 수도 있다. 멀티미디어 플랫폼은 정기적으로 비디오 라이브러리에 새로 추가된 업데이트 비디오를 획득할 수 있고, 또한 대응하는 비디오 크리에이터의 전용 이모티콘 패키지 중 적어도 일부 전용 이모티콘을 새로 추가된 업데이트 비디오와 매칭함으로써, 비디오 크리에이터가 업로드한 비디오와 이의 전용 이모티콘 패키지 사이에서 연관성을 구축할 수 있다.
일부 실시예에 따르면, 상기 이모티콘 패키지 생성 방법은 상기 전용 이모티콘 패키지의 관련 데이터베이스를 구축하는 단계를 더 포함할 수 있되, 상기 관련 데이터베이스는 상기 적어도 하나의 전용 이모티콘과 적어도 하나의 상기 매칭 비디오 클립 사이의 대응 관계를 포함한다. 이로써, 후속에 상기 매칭 비디오 클립을 재생하는 과정에서, 관련 데이터베이스로부터 대응하는 전용 이모티콘을 쉽게 획득하고 푸시할 수 있다.
예시적인 하나의 실시예에서, 상기 이모티콘 패키지 생성 방법은 상기 적어도 하나의 매칭 비디오 클립의 재생 시간 정보를 획득하는 단계를 더 포함할 수 있다. 상기 관련 데이터베이스는 상기 적어도 하나의 상기 매칭 비디오 클립과 적어도 하나의 재생 시간 정보(즉 각각의 상기 적어도 하나의 상기 매칭 비디오 클립에 대응하는 적어도 하나의 재생 시간 정보) 사이의 대응 관계를 더 포함할 수 있다. 이로써, 상기 기설정 비디오의 재생 과정에서, 재생 시간 정보에 따라 대응하는 전용 이모티콘을 푸시할 수 있어, 상기 적어도 하나의 전용 이모티콘에 대응하는 재생 시간을 빠르게 매칭할 수 있으며, 푸시 효율을 향상시킨다. 상기 재생 시간 정보는 상기 기설정 비디오의 재생 과정에서 대응하는 매칭 비디오 클립을 재생하는 시간대일 수 있다.
본 발명의 다른 양태로서, 이모티콘 패키지 생성 기기를 더 제공한다. 도 4에 도시된 바와 같이, 이모티콘 패키지 생성 기기(100)는 타겟 비디오의 복수의 관련 비디오의 적어도 하나의 타겟 피드백 정보를 획득하되, 상기 타겟 비디오 및 상기 복수의 관련 비디오는 동일한 비디오 크리에이터와 연관되도록 구성되는 획득 유닛(101); 상기 적어도 하나의 타겟 피드백 정보를 상기 타겟 비디오와 매칭하도록 구성되는 매칭 유닛(102); 상기 매칭 유닛의 매칭 결과에 기반하여 상기 타겟 비디오로부터 적어도 하나의 타겟 비디오 클립을 결정하도록 구성되는 결정 유닛(103); 및 적어도 상기 적어도 하나의 타겟 비디오 클립에 기반하여 전용 이모티콘 패키지를 생성하도록 구성되는 생성 유닛(104)을 포함할 수 있다.
여기서, 이모티콘 패키지 생성 기기(100)의 상기 각 유닛(101-104)의 동작은 각각 전술한 단계 S101 내지 단계 S104의 동작과 유사하며, 여기서 더이상 반복하지 않는다.
본 발명의 다른 양태로서, 프로세서; 및 프로그램이 저장된 메모리를 포함하는 전자 기기를 더 제공하되, 상기 프로그램은 명령을 포함하고, 상기 명령은 상기 프로세서에 의해 실행될 경우 상기 프로세서가 상술한 이모티콘 패키지 생성 방법을 수행하도록 한다.
본 발명의 다른 양태로서, 프로그램이 저장된 컴퓨터 판독 가능 저장 매체를 더 제공하되, 상기 프로그램은 명령을 포함하고, 상기 명령은 전자 기기의 프로세서에 의해 실행될 경우, 상기 전자 기기가 상술한 이모티콘 패키지 생성 방법을 수행하도록 한다.
도 5에 도시된 바와 같이, 본 발명의 각 양태에 적용될 수 있는 하드웨어 기기(전자 기기)의 예시로 사용되는 컴퓨팅 기기(2000)를 설명한다. 컴퓨팅 기기(2000)는 처리 및/또는 계산을 수행하도록 구성되는 임의의 기계일 수 있고, 워크 스테이션, 서버, 데스크톱 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 개인 정보 단말기, 로봇, 스마트 폰, 차량용 컴퓨터 또는 이의 임의의 조합일 수 있지만 이에 한정되지 않는다. 상기 이모티콘 패키지 생성 방법은 컴퓨팅 기기(2000) 또는 유사한 기기 또는 시스템에 의해 전체적으로 또는 적어도 부분적으로 구현될 수 있다.
컴퓨팅 기기(2000)는 버스(2002)와 연결되거나 버스(2002)와 통신되는 구성 요소를 포함할 수 있다(하나 또는 복수의 인터페이스를 경유할 수 있음). 예를 들어, 컴퓨팅 기기(2000)는 버스(2002), 하나 또는 복수의 프로세서(2004), 하나 또는 복수의 입력 기기(2006) 및 하나 또는 복수의 출력 기기(2008)를 포함할 수 있다. 하나 또는 복수의 프로세서(2004)는 임의의 유형의 프로세서일 수 있고, 또한 하나 또는 복수의 범용 프로세서 및/또는 하나 또는 복수의 전용 프로세서(예를 들어, 특수 처리 칩)를 포함할 수 있지만 이에 한정되지 않는다. 입력 기기(2006)는 컴퓨팅 기기(2000)에 정보를 입력할 수 있는 임의의 유형의 기기일 수 있고, 또한 마우스, 키보드, 터치 스크린, 마이크 및/또는 리모컨을 포함할 수 있지만 이에 한정되지 않는다. 출력 기기(2008)는 정보를 표시할 수 있는 임의의 유형의 기기일 수 있고, 또한 디스플레이, 스피커, 비디오/오디오 출력 단말기, 진동기 및/또는 프린터를 포함할 수 있지만 이에 한정되지 않는다. 컴퓨팅 기기(2000)는 비일시적 저장 기기(2010)를 더 포함하거나 비일시적 저장 기기(2010)와 연결될 수 있고, 비일시적 저장 기기는 비일시적으로 데이터 저장을 구현할 수 있는 임의의 저장 기기일 수 있으며, 또한 디스크 드라이브, 광학 저장 기기, 솔리드 스테이트 메모리, 플로피 디스크, 플렉시블 디스크, 하드 디스크, 테이프 또는 임의의 다른 자기 매체를 포함할 수 있지만 이에 한정되지 않으며, 광학 디스크 또는 임의의 다른 광학 매체, ROM(판독 전용 메모리), RAM(랜덤 액세스 메모리), 캐시 메모리 및/또는 임의의 다른 메모리 칩 또는 카트리지, 및/또는 컴퓨터가 이로부터 데이터, 명령 및/또는 코드를 판독할 수 있는 임의의 다른 매체를 포함할 수 있지만 이에 한정되지 않는다. 비일시적 저장 기기(2010)는 인터페이스에서 분리될 수 있다. 비일시적 저장 기기(2010)는 상기 방법 및 단계를 구현하기 위한 데이터/프로그램(명령을 포함함)/코드를 가질 수 있다. 컴퓨팅 기기(2000)는 통신 기기(2012)를 더 포함할 수 있다. 통신 기기(2012)는 외부 기기 및/또는 네트워크와 통신 가능한 임의의 유형의 기기 또는 시스템일 수 있고, 또한 모뎀, 네트워크 카드, 적외선 통신 기기 및/또는 블루투스TM 기기, 1302.11 기기, WiFi 기기, WiMax 기기, 셀룰러 통신 기기 및/또는 유사물질과 같은 칩 세트를 포함할 수 있지만 이에 한정되지 않는다.
컴퓨팅 기기(2000)는 프로세서(2004)의 동작에 유용한 프로그램(명령을 포함함) 및/또는 데이터를 저장할 수 있는 임의의 유형의 작동 메모리일 수 있는 작동 메모리(2014)를 더 포함할 수 있고, 랜덤 액세스 메모리 및/또는 판독 전용 메모리 기기를 포함할 수 있지만 이에 한정되지 않는다.
소프트웨어 요소(프로그램)는 작동 메모리(2014)에 위치할 수 있고, 운영 체제(2016), 하나 또는 복수의 애플리케이션 프로그램(2018), 드라이버 및/또는 다른 데이터 및 코드를 포함하지만 이에 한정되지 않는다. 상기 방법 및 단계를 수행하기 위한 명령은 하나 또는 복수의 애플리케이션 프로그램(2018)에 포함될 수 있으며, 상기 이모티콘 패키지 생성 방법은 프로세서(2004)에 의해 판독되고 하나 또는 복수의 애플리케이션 프로그램(2018)을 실행하는 명령에 의해 구현될 수 있다. 보다 구체적으로, 상기 이모티콘 패키지 생성 방법에서, 단계 S101 내지 단계 S104는 예를 들어, 단계 S101 내지 단계 S104의 명령을 갖는 애플리케이션 프로그램(2018)을 실행하는 프로세서(2004)에 의해 구현될 수 있다. 이 밖에, 상기 이모티콘 패키지 생성 방법의 다른 단계는 예를 들어, 해당 단계를 수행하기 위한 명령을 갖는 애플리케이션 프로그램(2018)을 실행하는 프로세서(2004)에 의해 구현될 수 있다. 소프트웨어 요소(프로그램)의 명령의 실행 가능한 코드 또는 소스 코드는 비일시적 컴퓨터 판독 가능 저장 매체(예를 들어, 상기 저장 기기(2010))에 저장될 수 있으며 실행 중에 작동 메모리(2014)에 저장될 수 있다(컴파일 및/또는 설치 가능). 소프트웨어 요소(프로그램)의 명령의 실행 가능한 코드 또는 소스 코드는 원격 위치에서 다운로드할 수도 있다.
구체적인 요구에 따라 다양한 변형이 이루어질 수 있음을 더 이해해야 한다. 예를 들어, 주문형 하드웨어를 사용하거나, 및/또는 하드웨어, 소프트웨어, 펌웨어, 미들웨어, 마이크로 코드, 하드웨어 설명 언어 또는 이들의 임의의 조합을 사용하여 특정 구성 요소를 구현할 수 있다. 예를 들어, 개시된 방법 및 기기 중 일부 또는 전부는 본 발명에 따른 논리 및 알고리즘을 사용하여 어셈블리 언어 또는 하드웨어 프로그래밍 언어(예를 들어, VERILOG, VHDL, C++)로 하드웨어(예를 들어, 현장 프로그램 가능 게이트 어레이(FPGA) 및/또는 프로그램 가능 논리 어레이(PLA)를 포함한 프로그램 가능 논리 회로)에 대해 프로그래밍함으로써 구현될 수 있다.
전술한 방법은 서버-클라이언트 모드를 통해 구현될 수 있음을 더 이해해야 한다. 예를 들어, 클라이언트는 사용자에 의해 입력된 데이터를 수신하고 상기 데이터를 서버에 송신할 수 있다. 클라이언트는 또한 사용자에 의해 입력된 데이터를 수신하여 전술한 방법 중 일부 처리를 수행하며, 또한 처리하여 얻은 데이터를 서버에 송신할 수 있다. 서버는 클라이언트로부터의 데이터를 수신하고, 전술한 방법 또는 전술한 방법 중 다른 부분을 수행하며, 또한 수행 결과를 클라이언트에 리턴할 수 있다. 클라이언트는 서버로부터 방법의 수행 결과를 수신할 수 있고, 또한 예를 들어 출력 기기를 통해 사용자에게 표시할 수 있다.
컴퓨팅 기기(2000)의 컴포넌트는 네트워크에 분산될 수 있음을 더 이해해야 한다. 예를 들어, 하나의 프로세서를 사용하여 일부 처리를 수행할 수 있고, 동시에 상기 하나의 프로세서로부터 멀리 떨어진 다른 하나의 프로세서에 의해 다른 처리를 수행할 수 있다. 컴퓨팅 시스템(2000)의 다른 컴포넌트도 유사하게 분산될 수 있다. 이와 같이, 컴퓨팅 기기(2000)는 복수의 위치에서 처리를 수행하는 분산형 컴퓨팅 시스템으로 해석될 수 있다.
첨부 도면을 참조하여 본 발명의 실시예 또는 예시를 이미 설명하였지만, 이해해야 할 것은, 상기 방법, 시스템 및 기기는 단지 예시적인 실시예 또는 예시일 뿐, 본 발명의 범위는 이러한 실시예 또는 예시에 의해 한정되지 않으며, 승인된 청구범위 및 그 동등한 범위에 의해서만 한정된다. 실시예 또는 예시 중 다양한 요소는 생략되거나 그 동등한 요소에 의해 대체될 수 있다. 이 밖에, 본 발명에서 설명된 순서와 상이한 순서로 각 단계를 수행할 수 있다. 또한, 실시예 또는 예시 중 다양한 요소는 다양한 방식으로 구성될 수 있다. 중요한 것은, 기술의 발전에 따라, 여기서 설명된 많은 요소는 본 발명을 개시한 이후에 나타나는 동등한 요소에 의해 교체될 수 있다.

Claims (19)

  1. 이모티콘 패키지 생성 방법으로서,
    타겟 비디오의 복수의 관련 비디오의 적어도 하나의 타겟 피드백 정보를 획득하되, 상기 타겟 비디오 및 상기 복수의 관련 비디오는 동일한 비디오 크리에이터와 연관되는 단계;
    상기 적어도 하나의 타겟 피드백 정보를 상기 타겟 비디오와 매칭하는 단계;
    매칭 결과에 기반하여 상기 타겟 비디오로부터 적어도 하나의 타겟 비디오 클립을 결정하는 단계; 및
    적어도 상기 적어도 하나의 타겟 비디오 클립에 기반하여 전용 이모티콘 패키지를 생성하는 단계를 포함하는, 이모티콘 패키지 생성 방법.
  2. 제1항에 있어서,
    상기 전용 이모티콘 패키지는 전용 애니메이션 이모티콘을 포함하고, 상기 타겟 비디오 클립은 제1 타겟 비디오 클립을 포함하며;
    상기 이모티콘 패키지 생성 방법은,
    전용 이모티콘 패키지를 생성하는 상기 단계 이전에, 각각의 상기 타겟 비디오 클립에 대해 타겟 인식을 수행하는 단계;
    인식 결과에 기반하여 상기 타겟 비디오 클립에 상기 비디오 크리에이터가 포함되는지 여부를 결정하는 단계; 및
    상기 타겟 비디오 클립에 상기 비디오 크리에이터가 포함된다는 결정에 응답하여, 상기 타겟 비디오 클립을 상기 제1 타겟 비디오 클립으로 결정하는 단계를 더 포함하고,
    전용 이모티콘 패키지를 생성하는 상기 단계는, 적어도 상기 제1 타겟 비디오 클립에 기반하여 전용 애니메이션 이모티콘을 생성하는 단계를 포함하는, 이모티콘 패키지 생성 방법.
  3. 제2항에 있어서,
    적어도 상기 제1 타겟 비디오 클립에 기반하여 전용 애니메이션 이모티콘을 생성하는 단계는,
    상기 제1 타겟 비디오 클립에 해당하는 제1 텍스트 정보를 결정하는 단계; 및
    상기 제1 타겟 비디오 클립 및 해당하는 제1 텍스트 정보에 기반하여 전용 애니메이션 이모티콘을 생성하는 단계를 포함하는, 이모티콘 패키지 생성 방법.
  4. 제3항에 있어서,
    상기 제1 텍스트 정보는 상기 제1 타겟 비디오 클립 중 자막 또는 오디오에 해당하는 텍스트에 기반하여 결정된 것인, 이모티콘 패키지 생성 방법.
  5. 제2항에 있어서,
    적어도 상기 제1 타겟 비디오 클립에 기반하여 전용 애니메이션 이모티콘을 생성하는 단계는 제1 트리거 명령을 수신하는 것에 응답하여 수행되는, 이모티콘 패키지 생성 방법.
  6. 제2항에 있어서,
    상기 전용 이모티콘은 전용 스티커를 더 포함하고, 상기 타겟 비디오 클립은 제2 타겟 비디오 클립을 포함하며;
    상기 이모티콘 패키지 생성 방법은,
    상기 타겟 비디오 클립에 상기 비디오 크리에이터가 포함되지 않는 결정에 응답하여, 상기 타겟 비디오 클립을 상기 제2 타겟 비디오 클립으로 결정하는 단계를 더 포함하고,
    전용 이모티콘 패키지를 생성하는 상기 단계는,
    상기 제2 타겟 비디오 클립에 해당하는 제2 텍스트 정보를 결정하는 단계; 및
    적어도 상기 제2 텍스트 정보에 기반하여 전용 스티커를 생성하는 단계를 더 포함하는, 이모티콘 패키지 생성 방법.
  7. 제6항에 있어서,
    적어도 상기 제2 텍스트 정보에 기반하여 전용 스티커를 생성하는 단계는,
    상기 타겟 비디오와 관련된 얼굴 이미지를 획득하는 단계; 및
    상기 제2 텍스트 정보 및 상기 얼굴 이미지에 기반하여 상기 전용 스티커를 생성하는 단계를 포함하는, 이모티콘 패키지 생성 방법.
  8. 제6항에 있어서,
    상기 제2 텍스트 정보는 상기 제2 타겟 비디오 클립 중 자막 또는 오디오에 해당하는 텍스트에 기반하여 결정된 것인, 이모티콘 패키지 생성 방법.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 이모티콘 패키지 생성 방법은,
    제2 트리거 명령을 수신한 것에 응답하여, 선택된 설정 비디오 클립을 기반으로 전용 이모티콘을 생성하는 단계를 더 포함하는, 이모티콘 패키지 생성 방법.
  10. 제1항 내지 제8항 중 어느 한 항에 있어서,
    타겟 비디오의 복수의 관련 비디오의 적어도 하나의 타겟 피드백 정보를 획득하는 단계는,
    상기 복수의 관련 비디오 중 각각의 상기 관련 비디오의 적어도 하나의 피드백 정보를 획득하는 단계;
    상기 복수의 관련 비디오의 복수의 피드백 정보에 대해 의미 매칭을 수행하는 단계;
    의미 매칭 결과에 기반하여 상기 복수의 피드백 정보를 복수의 피드백 정보 그룹으로 분할하는 단계;
    상기 복수의 피드백 정보 그룹 중 포함된 피드백 정보의 수가 임계값보다 큰 적어도 하나의 피드백 정보 그룹을 타겟 피드백 정보 그룹으로 결정하는 단계; 및
    각각의 상기 타겟 피드백 정보 그룹 중 복수의 피드백 정보에 기반하여 상기 타겟 피드백 정보 그룹에 해당하는 상기 타겟 피드백 정보를 결정하는 단계를 포함하는, 이모티콘 패키지 생성 방법.
  11. 제1항 내지 제8항 중 어느 한 항에 있어서,
    타겟 비디오의 복수의 관련 비디오의 적어도 하나의 타겟 피드백 정보를 획득하는 상기 단계 이전에, 상기 복수의 관련 비디오의 피드백 정보의 총 수가 설정값보다 작지 않은지 여부를 결정하는 단계; 및
    상기 복수의 관련 비디오의 피드백 정보의 총 수가 상기 설정값보다 작은 것으로 결정된 것에 응답하여, 가이드 정보를 푸시하여, 사용자가 상기 타겟 비디오에 대한 피드백 정보를 입력하도록 가이드하는 단계를 더 포함하는, 이모티콘 패키지 생성 방법.
  12. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 적어도 하나의 타겟 피드백 정보를 상기 타겟 비디오와 매칭하는 단계는,
    상기 적어도 하나의 타겟 피드백 정보 중 각각의 상기 타겟 피드백 정보를 상기 타겟 비디오의 적어도 일부 자막 또는 적어도 일부 오디오에 해당하는 텍스트와 의미 매칭을 수행하는 단계를 포함하되,
    상기 타겟 비디오로부터 적어도 하나의 타겟 비디오 클립을 결정하는 단계는 상기 의미 매칭 결과에 기반하여 수행되는, 이모티콘 패키지 생성 방법.
  13. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 전용 이모티콘 패키지 중 적어도 일부분의 전용 이모티콘을 기설정 비디오와 매칭하는 단계;
    매칭 결과에 기반하여 상기 기설정 비디오와 매칭되는 적어도 하나의 전용 이모티콘을 결정하는 단계; 및
    매칭 결과에 기반하여 상기 기설정 비디오 중 상기 적어도 하나의 전용 이모티콘 중의 각각의 전용 이모티콘과 매칭되는 매칭 비디오 클립을 결정하여, 상기 기설정 비디오를 재생하는 과정에서, 상기 매칭 비디오 클립을 재생할 때 상기 매칭 비디오 클립에 해당하는 상기 전용 이모티콘을 푸시할 수 있는 단계를 더 포함하는, 이모티콘 패키지 생성 방법.
  14. 제13항에 있어서,
    상기 전용 이모티콘 패키지의 관련 데이터베이스를 구축하는 단계를 더 포함하되, 상기 관련 데이터베이스는 상기 적어도 하나의 전용 이모티콘과 적어도 하나의 상기 매칭 비디오 클립 사이의 대응 관계를 포함하는, 이모티콘 패키지 생성 방법.
  15. 제14항에 있어서,
    상기 적어도 하나의 매칭 비디오 클립의 재생 시간 정보를 획득하는 단계를 더 포함하되,
    상기 관련 데이터베이스는 상기 적어도 하나의 상기 매칭 비디오 클립과 적어도 하나의 재생 시간 정보 사이의 대응 관계를 더 포함하는, 이모티콘 패키지 생성 방법.
  16. 제13항에 있어서,
    상기 기설정 비디오 및 상기 타겟 비디오는 동일한 비디오 크리에이터와 연관되는, 이모티콘 패키지 생성 방법.
  17. 이모티콘 패키지 생성 기기로서,
    타겟 비디오의 복수의 관련 비디오의 적어도 하나의 타겟 피드백 정보를 획득하되, 상기 타겟 비디오 및 상기 복수의 관련 비디오는 동일한 비디오 크리에이터와 연관되도록 구성되는 획득 유닛;
    상기 적어도 하나의 타겟 피드백 정보를 상기 타겟 비디오와 매칭하도록 구성되는 매칭 유닛;
    상기 매칭 유닛의 매칭 결과에 기반하여 상기 타겟 비디오로부터 적어도 하나의 타겟 비디오 클립을 결정하도록 구성되는 결정 유닛; 및
    적어도 상기 적어도 하나의 타겟 비디오 클립에 기반하여 전용 이모티콘 패키지를 생성하도록 구성되는 생성 유닛을 포함하는, 이모티콘 패키지 생성 기기.
  18. 전자 기기로서,
    프로세서; 및
    프로그램이 저장된 메모리를 포함하되, 상기 프로그램은 명령을 포함하고, 상기 명령은 상기 프로세서에 의해 실행될 경우 상기 프로세서가 제1항 내지 제16항 중 어느 한 항에 따른 이모티콘 패키지 생성 방법을 수행하도록 하는, 전자 기기.
  19. 프로그램이 저장된 컴퓨터 판독 가능 저장 매체로서,
    상기 프로그램은 명령을 포함하고, 상기 명령은 전자 기기의 프로세서에 의해 실행될 경우, 상기 전자 기기가 제1항 내지 제16항 중 어느 한 항에 따른 이모티콘 패키지 생성 방법을 수행하도록 하는, 프로그램이 저장된 컴퓨터 판독 가능 저장 매체.
KR1020217029278A 2020-06-28 2020-12-03 이모티콘 패키지 생성 방법 및 기기, 전자 기기 및 매체 KR20210118203A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010601966.6 2020-06-28
CN202010601966.6A CN111753131A (zh) 2020-06-28 2020-06-28 表情包生成方法及设备、电子设备和介质
PCT/CN2020/133649 WO2022000991A1 (zh) 2020-06-28 2020-12-03 表情包生成方法及设备、电子设备和介质

Publications (1)

Publication Number Publication Date
KR20210118203A true KR20210118203A (ko) 2021-09-29

Family

ID=77989501

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217029278A KR20210118203A (ko) 2020-06-28 2020-12-03 이모티콘 패키지 생성 방법 및 기기, 전자 기기 및 매체

Country Status (4)

Country Link
US (1) US20210407166A1 (ko)
EP (1) EP3955131A4 (ko)
JP (1) JP7297084B2 (ko)
KR (1) KR20210118203A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114398135A (zh) * 2022-01-14 2022-04-26 北京字跳网络技术有限公司 交互方法、装置、电子设备、存储介质和程序产品

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9208251B2 (en) * 2007-01-19 2015-12-08 Linkedin Corporation Computer-based evaluation tool for selecting personalized content for users
CA2650319C (en) * 2008-01-24 2016-10-18 Radian6 Technologies Inc. Method and system for targeted advertising based on topical memes
US9552442B2 (en) * 2010-10-21 2017-01-24 International Business Machines Corporation Visual meme tracking for social media analysis
US9566505B2 (en) * 2012-12-27 2017-02-14 Sony Interactive Entertainment America Llc Systems and methods for generating and sharing video clips of cloud-provisioned games
US20140280531A1 (en) * 2013-03-13 2014-09-18 Xin Liu Object ranking and recommendations within a social network
US11743544B2 (en) * 2013-04-25 2023-08-29 Trent R McKenzie Interactive content feedback system
CN104917666B (zh) * 2014-03-13 2019-08-06 腾讯科技(深圳)有限公司 一种制作个性化动态表情的方法和装置
US9967321B2 (en) * 2014-08-11 2018-05-08 Systems & Technology Research, Llc Meme discovery system
JP6429382B2 (ja) * 2015-01-05 2018-11-28 日本放送協会 コンテンツ推薦装置、及びプログラム
US9762517B2 (en) * 2015-03-24 2017-09-12 Unrapp LLC System and method for sharing multimedia recording in a gift receiving event
US10474877B2 (en) * 2015-09-22 2019-11-12 Google Llc Automated effects generation for animated content
CN105677735B (zh) * 2015-12-30 2020-04-21 腾讯科技(深圳)有限公司 一种视频搜索方法及装置
US10157638B2 (en) * 2016-06-24 2018-12-18 Google Llc Collage of interesting moments in a video
US10020025B2 (en) * 2016-07-22 2018-07-10 Zeality Inc. Methods and systems for customizing immersive media content
CN110582025B (zh) * 2018-06-08 2022-04-01 北京百度网讯科技有限公司 用于处理视频的方法和装置
US11550951B2 (en) * 2018-09-18 2023-01-10 Inspired Patents, Llc Interoperable digital social recorder of multi-threaded smart routed media
CN110162670B (zh) * 2019-05-27 2020-05-08 北京字节跳动网络技术有限公司 用于生成表情包的方法和装置
CN113051427A (zh) * 2019-12-10 2021-06-29 华为技术有限公司 一种表情制作方法和装置
US20210264517A1 (en) * 2020-02-24 2021-08-26 Gfycat, Inc. Internet meme economy

Also Published As

Publication number Publication date
JP7297084B2 (ja) 2023-06-23
JP2022542206A (ja) 2022-09-30
US20210407166A1 (en) 2021-12-30
EP3955131A4 (en) 2022-10-19
EP3955131A1 (en) 2022-02-16

Similar Documents

Publication Publication Date Title
US11636881B2 (en) User interface for video content
WO2022000991A1 (zh) 表情包生成方法及设备、电子设备和介质
CN109474843B (zh) 语音操控终端的方法、客户端、服务器
US8955021B1 (en) Providing extrinsic data for video content
US20140278993A1 (en) Interactive advertising
US11677711B2 (en) Metrics-based timeline of previews
WO2017080145A1 (zh) 一种信息处理方法及终端、计算机存储介质
JP2020515124A (ja) マルチメディアリソースを処理するための方法および装置
JP2013255267A (ja) ビデオ内ブックマーキング
US20180143741A1 (en) Intelligent graphical feature generation for user content
US20210051122A1 (en) Systems and methods for pushing content
US20210389856A1 (en) Method and electronic device for displaying interactive content
US20210173863A1 (en) Frameworks and methodologies configured to enable support and delivery of a multimedia messaging interface, including automated content generation and classification, content search and prioritisation, and data analytics
CN107515870B (zh) 一种搜索方法和装置、一种用于搜索的装置
CN108491178B (zh) 信息浏览方法、浏览器和服务器
CN114679621A (zh) 一种视频展示方法、装置及终端设备
US20170070784A1 (en) Interactive content generation for thin client applications
KR20210118203A (ko) 이모티콘 패키지 생성 방법 및 기기, 전자 기기 및 매체
CN111818279A (zh) 字幕的生成方法、展示方法及交互方法
US9762703B2 (en) Method and apparatus for assembling data, and resource propagation system
US20220207029A1 (en) Systems and methods for pushing content
CN114501103B (zh) 基于直播视频的互动方法、装置、设备及存储介质
US10943380B1 (en) Systems and methods for pushing content
CN115278346A (zh) 在直播间发送评论和接收评论的方法及相关设备
CN114422468A (zh) 消息处理方法、装置、终端及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal