KR20210042852A - 비디오 재생 노드 위치 확정 방법, 장치, 전자 장비, 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램 - Google Patents

비디오 재생 노드 위치 확정 방법, 장치, 전자 장비, 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램 Download PDF

Info

Publication number
KR20210042852A
KR20210042852A KR1020210038419A KR20210038419A KR20210042852A KR 20210042852 A KR20210042852 A KR 20210042852A KR 1020210038419 A KR1020210038419 A KR 1020210038419A KR 20210038419 A KR20210038419 A KR 20210038419A KR 20210042852 A KR20210042852 A KR 20210042852A
Authority
KR
South Korea
Prior art keywords
video
subtitle text
node
playback
text segments
Prior art date
Application number
KR1020210038419A
Other languages
English (en)
Other versions
KR102436734B1 (ko
Inventor
리 웨이궈
Original Assignee
베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 filed Critical 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드
Publication of KR20210042852A publication Critical patent/KR20210042852A/ko
Application granted granted Critical
Publication of KR102436734B1 publication Critical patent/KR102436734B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/57Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Studio Circuits (AREA)

Abstract

본 발명은 빅 데이터 및 비디오 처리 분야에 관한 것으로서, 비디오 재생 노드 위치 확정 방법을 제공한다. 상기 방법은, 복수의 비디오로부터 타겟 비디오를 선별하는 것, 및 타겟 비디오, 상기 타겟 비디오의 복수의 자막 텍스트 세그먼트 및 상기 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보를 클라이언트로 송신하여, 클라이언트가 복수의 자막 텍스트 세그먼트를 표시하고, 복수의 자막 텍스트 세그먼트 중 임의의 자막 텍스트 세그먼트에 대한 트리거 동작에 응답하여, 상기 임의의 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 상기 타겟 비디오의 재생 시작 노드를 확정하는 것을 포함한다. 또한, 본 발명은 비디오 재생 노드 위치 확정 장치, 전자 장비, 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램을 제공한다.

Description

비디오 재생 노드 위치 확정 방법, 장치, 전자 장비, 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램{method for confirming a position of video playback node, apparatus, electronic equipment, computer readable storage medium and computer program}
본 발명은 컴퓨터 기술 분야에 관한 것으로서, 구체적으로는, 빅 데이터 및 비디오 처리 분야에 관한 것이다. 보다 구체적으로는, 본 발명은 비디오 재생 노드 위치 확정 방법, 장치, 전자 장비, 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램을 제공한다.
인터넷 기술의 지속적인 발전에 따라, 다양한 비디오 재생 플랫폼이 광범위하게 발전하고 있다. 비디오는 일종의 정보 전파 매체로서, 보다 직관적이고, 풍부하고, 명확하게 정보를 표현할 수 있는 특징을 가지고 있으므로, 광범위하게 전파되고 응용되고 있다. 사용자가 비디오를 시청할 경우, 예를 들어, 내용이 풍부하고, 반복적으로 시청할 필요가 있는 비디오를 시청할 경우, 통상적으로 비디오를 특정 내용의 재생 노드로 점핑하여 재생하기를 원하게 된다.
본 발명은 비디오 재생 노드 위치 확정 방법, 장치, 전자 장비, 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램을 제공한다.
본 발명의 제1측면에 의하면, 복수의 비디오로부터 타겟 비디오를 선별하는 것, 및 상기 타겟 비디오, 상기 타겟 비디오의 복수의 자막 텍스트 세그먼트 및 상기 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보를 클라이언트로 송신하여, 상기 클라이언트가 상기 복수의 자막 텍스트 세그먼트를 표시하고, 상기 복수의 자막 텍스트 세그먼트 중 임의의 자막 텍스트 세그먼트에 대한 트리거 동작에 응답하여, 상기 임의의 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 상기 타겟 비디오의 재생 시작 노드를 확정하는 것을 포함하는 비디오 재생 노드 위치 확정 방법을 제공한다.
본 발명의 제2측면에 의하면, 복수의 비디오로부터 선별하여 취득한 타겟 비디오, 상기 타겟 비디오의 복수의 자막 텍스트 세그먼트 및 상기 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보를 취득하는 것, 상기 복수의 자막 텍스트 세그먼트를 표시하는 것, 및 상기 복수의 자막 텍스트 세그먼트 중 임의의 자막 텍스트 세그먼트에 대한 트리거 동작에 응답하여, 상기 임의의 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 상기 타겟 비디오의 재생 시작 노드를 확정하는 것을 포함하는 비디오 재생 노드 위치 확정 방법을 제공한다.
본 발명의 제3측면에 의하면, 복수의 비디오로부터 타겟 비디오를 선별하는 선별 모듈, 및 상기 타겟 비디오, 상기 타겟 비디오의 복수의 자막 텍스트 세그먼트 및 상기 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보를 클라이언트로 송신하여, 상기 클라이언트가 상기 복수의 자막 텍스트 세그먼트를 표시하고, 상기 복수의 자막 텍스트 세그먼트 중 임의의 자막 텍스트 세그먼트에 대한 트리거 동작에 응답하여, 상기 임의의 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 상기 타겟 비디오의 재생 시작 노드를 확정하는 재생 노드 관리 모듈을 포함하는 비디오 재생 노드 위치 확정 장치를 제공한다.
본 발명의 제4측면에 의하면, 복수의 비디오로부터 선별하여 취득한 타겟 비디오, 상기 타겟 비디오의 복수의 자막 텍스트 세그먼트 및 상기 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보를 취득하는 취득 모듈, 상기 복수의 자막 텍스트 세그먼트를 표시하는 표시 모듈, 및 상기 복수의 자막 텍스트 세그먼트 중 임의의 자막 텍스트 세그먼트에 대한 트리거 동작에 응답하여, 상기 임의의 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 상기 타겟 비디오의 재생 시작 노드를 확정하는 재생 노드 위치 확정 모듈을 포함하는 비디오 재생 노드 위치 확정 장치를 제공한다.
본 발명의 제5측면에 의하면, 적어도 하나의 프로세서, 및 상기 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하는 전자 장비에 있어서, 상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되어 있고, 상기 명령이 상기 적어도 하나의 프로세서에 의해 실행될 경우, 상기 적어도 하나의 프로세서로 하여금 본 발명이 제공하는 비디오 재생 노드 위치 확정 방법을 실행하게 하는 전자 장비를 제공한다.
본 발명의 제6측면에 의하면, 컴퓨터 프로그램이 저장되어 있는 비 일시적 컴퓨터 판독가능 저장 매체에 있어서, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우, 본 발명이 제공하는 비디오 재생 노드 위치 확정 방법을 구현하는 비 일시적 컴퓨터 판독 가능 저장 매체를 제공한다.
본 발명의 제7측면에 의하면, 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램에 있어서, 상기 컴퓨터 프로그램의 명령이 프로세서에 의해 실행될 경우, 본 발명이 제공하는 비디오 재생 노드 위치 확정 방법을 구현하는 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램을 제공한다.
본 발명의 기술방안에 의하면, 대량의 비디오로부터 재생 노드 위치 확정 가치를 가진 타겟 비디오를 선별하고, 타겟 비디오를 재생하여야 할 경우, 사용자에게 타겟 비디오의 복수의 자막 텍스트 세그먼트를 표시한다. 그리고, 사용자가 지정한 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 상기 타겟 비디오의 재생 시작 노드를 확정할 수 있다. 상기 과정에서는, 타겟 비디오의 재생 노드에 대해서만 위치 확정 처리를 실행하므로, 대량의 컴퓨팅 자원을 절약할 수 있고, 서버와 클라이언트사이의 인터액션 효율을 향상시킬 수 있다. 또한, 복수의 자막 텍스트 세그먼트를 동시에 표시함으로써, 사용자가 짧은 시간내에 시청하고자 하는 내용의 노드를 확정할 수 있고, 사용자가 지정한 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여, 현재 비디오의 재생 시작 노드를 정확하게 확정할 수 있다.
본 명세서에 기술된 내용은 그 목적이 본 발명의 실시예의 핵심 또는 중요한 특징을 지정하기 위한 것이 아니고, 또한, 본 발명의 범위는 이에 한정되지 아니함을 이해하여야 한다. 본 발명의 다른 특징들은 하기 설명으로부터 용이하게 이해할 수 있을 것이다.
본 발명의 실시예의 기술방안에 의하면, 대량의 비디오로부터 재생 노드 위치 확정 가치를 가진 타겟 비디오를 선별하고, 타겟 비디오를 재생하여야 할 경우, 사용자에게 타겟 비디오의 복수의 자막 텍스트 세그먼트를 표시한다. 그리고, 사용자가 지정한 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 상기 타겟 비디오의 재생 시작 노드를 확정할 수 있다. 상기 과정에서는, 타겟 비디오의 재생 노드에 대해서만 위치 확정 처리를 실행하므로, 대량의 컴퓨팅 자원을 절약할 수 있고, 서버와 클라이언트사이의 인터액션 효율을 향상시킬 수 있다. 또한, 복수의 자막 텍스트 세그먼트를 동시에 표시함으로써, 사용자가 짧은 시간내에 시청하고자 하는 내용의 노드를 확정할 수 있고, 사용자가 지정한 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여, 현재 비디오의 재생 시작 노드를 정확하게 확정할 수 있다. 본 발명의 실시 예에 따른 비디오 재생 노드 위치 확정 방법, 장치, 전자 장비, 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램은 예를 들어 클라우드 컴퓨팅, 빅 데이터 및 비디오 처리 등과 같은 다양한 기술과 연관된다.
첨부된 도면은 본 발명을 보다 쉽게 이해하도록 하기 위한 것이고, 본 발명은 이에 한정되지 않는다.
도1은 본 발명의 일 실시 예에 따른 비디오 재생 노드 위치 확정 방법 및 장치를 응용하는 예시적인 시스템 구성이다.
도2a는 본 발명의 일 실시 예에 따른 비디오 재생 노드 위치 확정 방법의 흐름도이다.
도2b는 본 발명의 다른 일 실시 예에 따른 비디오 재생 노드 위치 확정 방법의 흐름도이다.
도3은 본 발명의 일 실시 예에 따른 비디오 선별 과정의 흐름도이다.
도4는 본 발명의 다른 일 실시 예에 따른 비디오 선별 과정의 흐름도이다.
도5는 본 발명의 일 실시 예에 따른 비디오 재생 노드 위치 확정 과정의 개략도이다.
도6은 본 발명의 일 실시 예에 따른 비디오 재생 인터페이스의 개략도이다.
도7은 본 발명의 일 실시 예에 따른 비디오 재생 노드 위치 확정 장치의 블록도이다.
도8은 본 발명의 다른 일 실시 예에 따른 비디오 재생 노드 위치 확정 장치의 블록도이다.
도9는 본 발명의 일 실시 예에 따른 비디오 재생 노드 위치 확정 방법의 전자 장비의 블록도이다.
이하, 도면을 참조하여 본 발명의 예시적인 실시예들을 설명한다. 쉽게 이해할 수 있도록, 본 명세서에서 설명한 각 실시예의 세부사항을 포함하게 되는데, 이들은 단지 예시적인 것에 불과하다. 따라서, 당업자라면 본 발명의 범위 및 취지를 벗어나지 않으면서 본 발명의 실시예에 대해 여러가지 변경 및 수정이 이루어질 수 있음을 이해할 것이다. 또한, 명확성과 간결성을 위해 하기의 설명에 있어서, 공지된 기능 및 구성에 대한 설명은 생략한다.
인터넷 기술의 지속적인 발전에 따라, 다양한 비디오 재생 플랫폼이 광범위하게 발전하고 있다. 비디오는 일종의 정보 전파 매체로서, 보다 직관적이고, 풍부하고, 명확하게 정보를 표현할 수 있는 특징을 가지고 있으므로, 광범위하게 전파되고 응용되고 있다. 사용자가 비디오를 시청할 경우, 예를 들어, 내용이 풍부하고, 반복적으로 시청할 필요가 있는 비디오(예를 들어, 지식형 비디오, 과학지식 보급형 비디오)를 시청하거나, 비디오중의 일부 특정 장면을 다시 보고자 할 경우, 통상적으로 비디오를 특정 내용의 재생 노드로 점핑하여 재생하기를 원하게 된다.
이러한 상황에서는, 예를 들어, 배속 재생, 패스트 포워드 등과 같은 기능을 통해 비디오를 빠르게 재생하여 사용자가 시청 요구에 부합되는 재생 노드를 찾을 수 있게 하거나, 프로그래스 바를 드래그할 때 현재 프레임 화면의 미리보기 기능을 지원함으로써, 사용자가 시청 요구에 부합되는 재생 노드를 찾을 수 있게 한다. 상기의 방식은 모두 사용자가 많은 시간을 들여 시청하고자 하는 내용을 찾아야 하고, 재생 노드의 위치 확정도 정확도가 떨어진다.
도1은 본 발명의 일 실시 예에 따른 비디오 재생 노드 위치 확정 방법 및 장치를 응용할 수 있는 예시적인 시스템 구성(100)이다. 지적해두어야 할 것은, 도1에 도시된 것은 단지 본 발명의 실시 예가 응용될 수 있는 시스템 구성의 예시일 뿐, 당업자가 본 발명에 개시된 기술내용을 쉽게 이해할 수 있도록 하기 위한 것이고, 본 발명의 실시 예가 다른 장비, 시스템, 환경 또는 장면에 응용되지 못한다는 것을 의미하지는 않는다.
도1에 도시된 바와 같이, 본 발명의 실시 예에 따른 시스템 구성(100)은 복수의 단말 장비(110), 네트워크(120) 및 서버(130)를 포함할 수 있다. 여기서, 단말 장비(110)는 예를 들어, 스마트 폰, 태블릿 컴퓨터, 노트북, 데스크탑 컴퓨터 등 비디오 재생을 지원할 수 있는 다양한 전자 장비일 수 있는데, 이에 한정되지는 않는다. 서버(130)는 일정한 컴퓨팅 기능을 가진 다양한 전자 장비일 수 있고, 본 발명은 이에 대해 한정하지 않는다. 이하, 예를 들어 단말 장비(110)와 서버(130)가 네트워크(120)를 통해 인터액션하는 과정을 설명한다. 예시적으로, 단말 장비(110)에는 비디오 재생 앱 클라이언트가 설치되어 있고, 단말 장비(110)는 상기 클라이언트를 통해 서버(130)로부터 비디오 데이터를 청구하고, 비디오 데이터에 기초하여 디코딩하여 재생할 수 있다.
본 발명의 실시 예에 따르면, 비디오 재생 노드 위치 확정 방법을 제공한다. 이하, 도면을 참조하여 상기 방법을 예시적으로 설명한다. 지적해두어야 할 것은, 하기의 방법에 있어서, 각 동작의 번호는 단지 설명의 편의를 위한 해당 동작의 표시로서, 결코 각 동작의 실행 순서를 의미하는 것은 아니다. 별도로 언급하지 않는 한, 상기 방법은 굳이 설명한 순서에 따라 실행할 필요는 없다.
도2a는 본 발명의 일 실시 예에 따른 비디오 재생 노드 위치 확정 방법의 흐름도이다. 예시적으로, 도2a에 도시된 비디오 재생 노드 위치 확정 방법은 서버에 의해 실행될 수 있다.
도2a에 도시된 바와 같이, 상기 비디오 재생 노드 위치 확정 방법(200)은 동작(S210) ~ 동작(S220)을 포함할 수 있다.
동작(S210)에서는, 복수의 비디오로부터 타겟 비디오를 선별한다.
예시적으로, 타겟 비디오는 내용 가치가 높고, 포함된 정보가 풍부한 비디오일 수 있고, 예를 들어, xx지식 포인트 해설 비디오, xx과학지식 보급성 비디오 등일 수 있다. 사용자가 이러한 비디오를 시청할 경우, 통상적으로 특정 내용을 반복적으로 시청할 필요가 있으므로, 이러한 비디오에 대해 비디오 재생 노드 위치를 확정할 필요가 있다. 본 발명의 실시 예에 따르면, 비디오의 하나 또는 복수의 차원의 정보에 기초하여 비디오 가치를 평가하고, 평가 결과에 따라 비디오가 선별할 수 있다. 비디오 재생 플랫폼의 서버에는 통상적으로 대량의 비디오 자원이 있는데, 동작(S210)에서는, 대량의 비디오로부터 재생 노드 위치 확정 가치가 있는 타겟 비디오를 선별하여, 후속적인 비디오 처리과정을 위해 컴퓨팅 자원을 절약할 수 있다.
동작(S220)에서는, 타겟 비디오, 타겟 비디오의 복수의 자막 텍스트 세그먼트 및 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보를 클라이언트로 송신하여, 클라이언트가 복수의 자막 텍스트 세그먼트를 표시하고, 복수의 자막 텍스트 세그먼트 중 임의의 자막 텍스트 세그먼트에 대한 트리거 동작에 응답하여, 상기 임의의 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 타겟 비디오의 재생 시작 노드를 확정한다.
예시적으로, 임의의 타겟 비디오A는, m개 자막 텍스트 세그먼트 및 m개 자막 텍스트 세그먼트와 일대일로 대응되는 m개 시작 시간 정보를 가지고 있다. m는 1보다 큰 정수이다. 각 자막 텍스트 세그먼트의 시작 시간 정보는 해당 자막 텍스트 세그먼트의 상기 비디오에서의 시작 시간을 나타낼수 있다. 본 발명의 실시 예에 따르면, 예를 들어, 타겟 비디오A에 포함된 음성을 인식함으로써 상기 m개 자막 텍스트 세그먼트를 얻을 수 있다.
예시적으로, 서버는 타겟 비디오A에 대한 클라이언트의 청구 메시지에 응답하여, 타겟 비디오A의 비디오 데이터, m개 자막 텍스트 세그먼트 및 m개 시작 시간 정보를 소정의 포맷으로 인코딩한 후, 소정의 통신 규칙에 따라 인코딩하여 얻은 데이터 패킷을 클라이언트로 송신할 수 있다. 클라이언트는 데이터 패킷을 디코딩한 후, 타겟 비디오A의 비디오 데이터, m개 자막 텍스트 세그먼트 및 대응하는 m개 시작 시간 정보를 얻을 수 있다. 비 타겟 비디오에 대해, 서버는 클라이언트의 청구 메시지에 응답하여, 비디오 데이터를 클라이언트로 송신함으로써, 대역폭을 절약할 수 있다.
상기 실시 예는 서버 관점에서 본 발명의 실시 예에 따른 비디오 재생 노드 위치 확정 방법을 설명한 것이고, 이하, 클라이언트 관점에서 본 발명의 실시 예에 따른 비디오 재생 노드 위치 확정 방법에 대해 예시적으로 설명한다.
도2b는 본 발명의 다른 일 실시 예에 따른 비디오 재생 노드 위치 확정 방법의 흐름도이다. 예시적으로, 도2b에 도시된 비디오 재생 노드 위치 확정 방법은 클라이언트가 설치된 단말 장비에 의해 실행될 수 있다.
도2b에 도시된 바와 같이, 상기 비디오 재생 노드 위치 확정 방법(200')은 동작(S210') ~ 동작(S230')을 포함할 수 있다.
동작(S210')에서는, 타겟 비디오, 타겟 비디오의 복수의 자막 텍스트 세그먼트 및 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보를 취득한다.
예시적으로, 상기 타겟 비디오는 서버에 의해 복수의 비디오로부터 선별될 수 있다. 선별 과정은 앞에서 이미 설명한 바가 있으므로, 여기서는, 중복적인 설명을 생략한다.
동작(S220')에서는, 복수의 자막 텍스트 세그먼트를 표시한다.
예시적으로, 클라이언트는 상기 타겟 비디오A의 비디오 데이터, m개 자막 텍스트 세그먼트 및 m개 시작 시간 정보를 수신한 후, 사용자에게 상기 m개 자막 텍스트 세그먼트를 표시할 수 있다. 일반적으로, 서로 다른 자막 텍스트 세그먼트는 타겟 비디오의 서로 다른 시점의 내용에 대응되므로, 클라이언트가 표시한 m개 자막 텍스트 세그먼트는 실질적으로 사용자에게 타겟 비디오A에 관한 내용 개요를 제공하게 되며, 이에 따라 사용자는 타겟 비디오A의 내용의 분포 상황을 빠르게 알수 있거나 돌이킬 수 있게 된다. 사용자가 어느 하나의 자막 텍스트 세그먼트에 대응하는 비디오 내용을 시청하고자 할 경우, 해당 자막 텍스트 세그먼트에 대해 트리거 동작을 실행할 수 있다.
동작(S230')에서는, 복수의 자막 텍스트 세그먼트 중 임의의 자막 텍스트 세그먼트에 대한 트리거 동작에 응답하여, 상기 임의의 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 타겟 비디오의 재생 시작 노드를 확정한다.
예시적으로, 클라이언트는 어느 자막 텍스트 세그먼트에 대한 트리거 동작에 응답하여, 상기 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 타겟 비디오A의 현재 재생 시작 노드를 확정함으로써, 상기 재생 시작 노드로 점핑하여 타겟 비디오A를 재생할 수 있다.
당업자라면, 본 발명의 실시 예에 따른 비디오 재생 노드 위치 확정 방법은, 대량의 비디오로부터 재생 노드 위치 확정 가치를 가진 타겟 비디오를 선별하고, 타겟 비디오를 재생하여야 할 경우, 사용자에게 타겟 비디오의 복수의 자막 텍스트 세그먼트를 표시한다는 것을 이해할 수 있을 것이다. 그리고, 사용자가 지정한 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 상기 타겟 비디오의 재생 시작 노드를 확정할 수 있다. 상기 과정에서는, 타겟 비디오의 재생 노드에 대해서만 위치 확정 처리를 실행하므로, 대량의 컴퓨팅 자원을 절약할 수 있고, 서버와 클라이언트사이의 인터액션 효율을 향상시킬 수 있다. 또한, 복수의 자막 텍스트 세그먼트를 동시에 표시함으로써, 사용자가 짧은 시간내에 시청하고자 하는 내용의 노드를 확정할 수 있고, 사용자가 지정한 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여, 현재 비디오의 재생 시작 노드를 정확하게 확정할 수 있다.
도3은 본 발명의 일 실시 예에 따른 비디오 선별 과정의 흐름도로서, 복수의 비디오로부터 타겟 비디오를 선별하는 상기의 실시 형태를 예시적으로 도시한다.
도3에 도시된 바와 같이, 상기 비디오 선별 과정은 동작(S311) ~ 동작(S312)을 포함할 수 있다.
동작(S311)에서는, 복수의 비디오 중 각 비디오에 대해, 비디오의 사용자 인터액션 데이터에 기초하여, 비디오의 가치 평가 점수를 계산한다.
본 발명의 실시 예에 따르면, 빅 데이터 분석을 통해 비디오의 가치 평가 점수를 계산한다. 예시적으로, 임의의 비디오B의 사용자 인터액션 데이터는, 예를 들어, 상기 비디오B를 시청한 총 사용자 수에 대한 상기 비디오B를 시청한 횟수가 소정의 임계치를 초과한 사용자 수의 비율(x1), 상기 비디오B에 대한 댓글 수(x2), 상기 비디오B를 즐겨찾기에 포함시킨 수(x3), 및 상기 비디오B에 대해 좋아요를 클릭한 수(x4)등 중 적어도 하나를 포함할 수 있다. 여기서, 예를 들어, 소정의 임계치는 1이고, 비율(x1)은 비디오B를 시청한 전체 사용자 중, 비디오B를 반복적으로 시청한 사용자 수의 비율을 나타내고, 상기 비율(x1)이 높을수록, 사용자가 상기 비디오B를 반복적으로 시청하고자 하는 요구가 높다는 것을 나타낸다. 댓글 수(x2), 즐겨찾기에 포함시킨 수(x3) 및 좋아요를 클릭한 수(x4)는 모두 사용자가 비디오B에 대한 선호도 및 관심도를 나타낼 수 있다. 다른 실시 예에서는, 빅 데이터 분석을 통해 사용자가 비디오를 반복적으로 시청하고자 하는 수요, 선호도, 관심도 등 특징을 나타낼 수 있는 다른 사용자 인터액션 데이터를 선택할 수 있는데, 여기서는 이에 대해 한정하지 않는다.
예를 들어, 상기 비율(x1), 댓글 수(x2), 즐겨찾기에 포함시킨 수(x3) 및 좋아요를 클릭한 수(x4)를 사용자 인터액션 데이터로 선택할 경우, 수식(1)에 따라 비디오B의 가치 평가 점수(S)를 계산할 수 있다.
Figure pat00001
수식(1)
여기서,
Figure pat00002
Figure pat00003
Figure pat00004
Figure pat00005
는 사전에 설정한 제1 가중치, 제2 가중치, 제3 가중치 및 제4 가중치이다. 상기 과정은, 사전에 설정한 제1 가중치, 제2 가중치, 제3 가중치 및 제4 가중치를 이용하여, 비율(x1), 댓글 수(x2), 즐겨찾기에 포함시킨 수(x3) 및 좋아요를 클릭한 수(x4)를 가중 합계함으로써, 비디오B의 가치 평가 점수를 계산할 수 있다. 이와 비슷하게, 서버 측 각 비디오의 가치 평가 점수를 계산할 수 있다. 상기 가치 평가 점수는 비디오에 대한 사용자의 실제 인터액션 데이터에 기초하여 얻은 것이으로, 비디오의 가치의 높고 낮음을 보다 객관적으로 반영할 수 있다. 또한, 비디오의 각 사용자 인터액션 데이터에 대한 가중치를 설정함으로써, 가치 평가 점수에 대한 각 사용자 인터액션 데이터의 기여도를 조정하여, 가치 평가 점수의 정확도를 향상시킬 수 있다. 다른 실시 예에서는, 다양한 융합 알고리즘을 이용하여 사용자 인터액션 데이터를 통합함으로써, 각 비디오의 가치 평가 점수를 얻을 수 있다.
동작(S312)에서는, 복수의 비디오로부터 가치 평가 점수가 제1 임계치보다 높은 비디오를 선별하여 제1 그룹 비디오로 확정한다.
도3에 도시된 선별 과정을 제1 단계 선별이라고 할 수 있다. 상기 제1 단계 선별을 통해 가치가 낮은 비디오를 대폭적으로 선별하여 제거할 수 있다. 선별하여 얻은 제1 그룹 비디오는 하나 또는 복수의 비디오를 포함할 수 있다.
일부 실시 형태에 따르면, 동작(S312)에서 선별하여 얻은 제1 그룹 비디오를 직접 타겟 비디오로 사용할 수 있는데, 이때, 제1 그룹 비디오에 대해 자막 텍스트 세그먼트의 생성 과정을 실행할 수 있다. 다른 일부 실시 형태에 따르면, 동작(S312)에서 선별하여 얻은 제1 그룹 비디오에 대해 계속하여 제2 단계 선별을 실행하여, 보다 섬세하고 정확한 선별 결과를 얻을 수 있다.
도4는 본 발명의 다른 일 실시 예에 따른 비디오 선별 과정의 흐름도로서, 복수의 비디오로부터 타겟 비디오를 선별하는 실시 형태를 예시적으로 도시한다.
도4에 도시된 바와 같이, 상기 비디오 선별 과정은 앞에서 설명한 실시 예에 따른 제1 선별 단계를 거친 후, 동작(S413) ~ 동작(S414)을 더 포함할 수 있다.
동작(S413)에서는, 제1 그룹 비디오 중 각 비디오에 대해, 사전에 트레이닝된 분류기를 이용하여 비디오를 분류하여, 비디오가 속하는 카테고리를 확정한다.
여기서, 제1 그룹 비디오의 예시적인 선별 과정에 대해 이미 앞에서 설명하였으므로, 여기서는 설명을 생략한다. 예시적으로, 머신 러닝 알고리즘에 기초하여 복수의 알려진 카테고리에 대한 분류기를 사전에 구축할 수 있다. 대량의 비디오 샘플을 취득하고 각 비디오 샘플에 대해 카테고리 라벨을 표기하고, 카테고리 라벨이 달려 있는 비디오 샘플을 이용하여 분류기를 트레이닝함으로써, 비디오에 대해 우량한 분류 능력을 가진 분류기를 얻을수 있다. 복수의 알려진 카테고리에 대한 분류 기준 및 분류 입도는 수요에 따라 설정할 수 있고, 예를 들어, 지식류, 과학지식 보급류, 영화 및 TV류, 음악류, 음식류, 게임류 등을 포함할 수 있는데, 이에 한정되지는 않는다. 여기서, 빅 데이터 통계 결과에 의하면, 예를 들어, 지식류, 과학 보급류 등과 같은 카테고리의 비디오는 사용자에게 있어서 보다 높은 반복 시청 가치를 가지므로, 이러한 카테고리를 소정의 카테고리로 설정할 수 있다.
동작(S414)에서는, 제1 그룹 비디오로부터 소정의 카테고리에 속하는 비디오를 선별하여 제2 그룹 비디오로 확정한다.
제1 단계 선별 결과에 기초하여, 제2 단계 선별은 비디오 내용의 분류 관점으로부터 착수하여, 보다 높은 재생 노드 위치 확정 가치를 가지는 제2 그룹 비디오를 선별한다. 제2 그룹 비디오에는 하나 또는 복수의 비디오가 포함된다. 여기서, 분류기는 대량의 알려진 카테고리의 비디오 샘플에 기초하여 트레이닝을 통해 얻어지므로, 분류 결과는 비교적 정확하다. 서로 다른 카테고리의 비디오에 대한 사용자의 시청 습관은 큰 차이를 보이고 있어, 카테고리 선별에 기초하여 얻어진 제2 그룹 비디오는 보다 합리적이고 정확하다.
일부 실시 형태에 따르면, 동작(S414)에서 선별하여 얻은 제2 그룹 비디오를 직접 타겟 비디오로 할 수 있다. 다른 일부 실시 형태에 따르면, 동작(S414)에서 선별하여 얻은 제2 그룹 비디오는 계속하여 제3 단계 선별을 실행하여, 보다 섬세하고 정확한 선별 결과를 얻을 수 있다.
제3 단계 선별에서는, 얻어진 상기 제2 그룹 비디오에 기초하여, 우선 각 비디오의 자막 텍스트 세그먼트 및 자막 텍스트 세그먼트의 관련 정보를 생성할 수 있다. 그 다음, 자막 텍스트 세그먼트의 관련 정보에 기초하여 제2 그룹 비디오로부터 최종 타겟 비디오를 선별할 수 있다.
예시적으로, 제2 그룹 비디오 중 각 비디오에 대해, 비디오의 오디오 데이터를 추출한다. 그 다음, 추출한 오디오 데이터에 대해 음성 인식(Automatic Speech Recognition, ASR)을 실행하여, 인식 결과를 얻는다. 여기서, 인식 결과에는, 상기 비디오의 복수의 자막 텍스트 세그먼트, 상기 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보 및 종료 시간 정보가 포함될 수 있다. 예를 들어, 어느 비디오로부터 지속시간이 t인 오디오 데이터를 추출한다. 상기 오디오 데이터에 대해 음성 인식을 실행하는 과정에, 오디오의 정지시간이 소정의 시간을 초과하는 것(예를 들어, 정지시간이 3초를 초과)을 세그먼트 분할 기준으로 하여, 복수의 텍스트 세그먼트를 인식하여, 복수의 자막 텍스트 세그먼트로 할 수 있다. 또한, 상기 지속시간t에서의 각 텍스트 세그먼트의 시작 시간 정보 및 종료 시간 정보를 기록한다.
본 발명의 일 실시 예에 따르면, 제2 그룹 비디오 중 각 비디오에 대해, 상기 비디오의 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보 및 종료 시간 정보에 기초하여, 상기 비디오의 총 지속시간에 대한 상기 비디오의 복수의 자막 텍스트 세그먼트의 총 지속시간의 비율(y)을 확정할 수 있다. 그 다음, 제2 그룹 비디오로부터 비율(y)이 제2 임계치보다 높은 비디오를 선별하여, 제3 단계의 선별을 거쳐 얻은 타겟 비디오로 한다. 서버는 타겟 비디오의 상기 인식 결과를 저장하여, 타겟 비디오의 자막 텍스트 세그먼트 및 관련 시간 정보를 남겨둔다.
일반적으로, 비디오의 자막 텍스트 세그먼트의 지속시간의 비율이 클수록, 해당 비디오의 정보양이 풍부하므로, 사용자가 반복적으로 재방송할 필요가 있고, 보다 높은 비디오 재생 노드 위치 확정 가치를 가짐을 이해할 수 있을 것이다. 따라서, 본 실시 예에 따른 제3 단계 선별은 비디오에서 차지하는 자막 텍스트 세그먼트의 지속시간의 비율로부터 착수하여, 제2 그룹 비디오로부터 상기 지속시간의 비율이 비교적 높은 비디오를 선별함으로써, 풍부한 정보량을 가진 타겟 비디오를 선별할 수 있다.
본 발명의 다른 일 실시 예에 따르면, 제2 그룹 비디오 중 각 비디오에 대해, 상기 비디오의 복수의 자막 텍스트 세그먼트에 대해 시맨틱 분석(Semantic Analysis)을 실행하여, 상기 비디오의 복수의 자막 텍스트 세그먼트에 대한 논리적 점수를 얻을 수 있다. 상기 논리적 점수는 복수의 자막 텍스트 세그먼트에 포함된 시맨틱 논리성의 높고 낮음을 나타내고, 시맨틱 논리성이 높을수록, 포함된 시맨틱가 완전하고, 의미가 있다. 이어서, 제2 그룹 비디오로부터 논리적 점수가 제3 임계치보다 높은 비디오를 선별하여, 제3 단계 선별을 거쳐 얻은 타겟 비디오로 한다.
일반적으로, 비디오의 자막 텍스트 세그먼트에 포함된 시맨틱이 완전하고 명확할수록, 상기 비디오에 포함된 정보가 보다 가치적이므로, 사용자가 반복적으로 재방송할 필요가 있으며, 보다 높은 비디오 재생 노드 위치 확정 가치가 있음을 이해할 수 있을 것이다. 따라서, 본 실시 예에 따른 제3 단계 선별은 비디오의 자막 텍스트 세그먼트에 포함된 시맨틱 논리로부터 착수하여, 제2 그룹 비디오로부터 완전하고, 의미있는 시맨틱을 포함하는 비디오를 선별하여, 최종 타겟 비디오로 한다.
도5는 본 발명의 일 실시 예에 따른 비디오 재생 노드 위치 확정 과정의 개략도로서, 클라이언트(510)와 서버(530)사이의 인터액션 과정을 예시적으로 도시한다.
도5에 도시된 바와 같이, 서버(530)는 M개 비디오(501)에 대해 순차적으로 제1 단계 선별(S5101), 제2 단계 선별(S5102) 및 제3 단계 선별(S5103)을 실행하여, N개 타겟 비디오(502)를 취득한다. M와 N은 모두 양 (+)의 정수이고, M>N이다. 제1 단계 선별, 제2 단계 선별 및 제3 단계 선별은 이미 앞에서 예시적으로 설명하였으므로, 여기서는 설명을 생략한다. 서버(530)는 각 타겟 비디오의 소정의 데이터 집합(503)을 저장하고, 각 타겟 비디오의 소정의 데이터 집합(503)에는, 상기 타겟 비디오의 비디오 데이터, 상기 타겟 비디오의 복수의 자막 텍스트 세그먼트, 및 상기 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보(예를 들어, 시작 타임스탬프 정보) 및 종료 시간 정보(예를 들어, 종료 타임스탬프 정보)를 포함할 수 있다.
클라이언트(510)는 어느 비디오(예를 들어, 비디오C)에 대한 사용자의 선택 동작을 수신하고, 비디오C에 대한 청구 메시지(504)를 서버(530)로 송신할 수 있다. 서버(530)는 비디오C 가 상기 N 개 타겟 비디오(502)에 포함되어 있는지 판단할 수 있다. 다른 실예에 따르면, 상기 판단 과정은 클라이언트에서 실행될 수도 있다. 비디오C가 타겟 비디오에 포함되어 있지 않을 경우, 비디오C의 비디오 데이터를 직접 클라이언트(510)로 송신한다. 비디오C가 타겟 비디오에 포함되어 있을 경우, 서버(530)는 비디오C에 대한 소정의 데이터 집합(503)을 클라이언트(510)로 송신한다. 클라이언트(510)는 사용자에게 비디오C의 n개 자막 텍스트 세그먼트(5031)를 표시한다. 여기서, n은 1보다 큰 정수이다.
클라이언트(510)는 n개 자막 텍스트 세그먼트 중 i 번째 자막 텍스트 세그먼트에 대한 사용자의 트리거 동작에 응답하여, i 번째 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 비디오C의 재생 시작 노드를 확정한다. 여기서 i는 정수이고, 1≤i≤n이다. 예시적으로, i 번째 자막 텍스트 세그먼트의 시작 시간 정보로부터, 임의의 자막 텍스트 세그먼트의 비디오C에서의 시작 시각(예를 들어, 8분 20초)을 확정한다. 상기 시작 시각을 이번 비디오C의 재생 시작 노도로 하고, 비디오C의 비디오 데이터에 따라 비디오C를 로딩할 때, 직접 상기 재생 시작 노도로부터 비디오C를 재생한다.
본 발명의 실시 예에 따르면, i 번째 자막 텍스트 세그먼트의 종료 시간 정보로부터, 비디오C의 i 번째 자막 텍스트 세그먼트의 종료 시각(예를 들어, 15분 32초)을 확정할 수도 있다. 상기 종료 시각을 이번 비디오C의 재생 종료 노도로 하고, 비디오C의 비디오 데이터에 따라 비디오C를 로딩할 때, 비디오C가 재생 종료 노드까지 재생되면, 비디오C의 재생을 정지한다. 상기 실시 예에서는, 자막 텍스트 세그먼트에 대한 사용자의 트리거 동작에 따라, 비디오C를 8분 20초로부터 15분 32초까지 재생할 수 있고, 이 부분의 비디오 내용은 사용자가 현재 관심을 가지고 시청할 필요가 있는 내용이다. 이 과정은, 사용자의 동작을 대대적으로 간소화하는 전제하에, 사용자가 현재 관심 있는 내용을 편리하게 검색 또는 돌이킬 수 있게 하고, 사용자가 관심 있는 재생 노드의 위치를 정확하게 확정할 수 있어, 사용자의 요구에 부합된다.
도6은 본 발명의 일 실시 예에 따른 비디오 재생 인터페이스의 개략도로서, 클라이언트의 비디오 재생 과정을 예시적으로 도시한다.
도6에 도시된 바와 같이, 비디오 재생 인터페이스(600)에는 비디오 재생 영역(601), 자막 표시 영역(602) 및 검색 영역(603)이 포함될 수 있다. 예를 들어, 어느 타겟 비디오에는 "제1 질문......", "제2 질문의 첫번째 해법......", "제2 질문의 두번째 해법......" 및 "제3 질문......" 등 복수의 자막 텍스트 세그먼트를 포함한다. 클라이언트는 상기 복수의 자막 텍스트 세그먼트를 자막 표시 영역(602)에 표시할 수 있다. 완전하게 표시되지 않을 경우, 사용자는 슬라이딩, 드래그 등 동작을 통해 상기 복수의 자막 텍스트 세그먼트를 열람할 수 있다. 사용자가 비디오의 어느 부분의 내용을 시청하고자 할 경우, 해당 자막 텍스트 세그먼트에 대해 예를 들어 클릭과 같은 트리거 동작을 실행할 수 있다. 클라이언트는 어느 자막 텍스트 세그먼트(예를 들어, "제2 질문의 첫번째 해법......")에 대한 사용자의 트리거 동작에 응답하여, 상기 자막 텍스트 세그먼트의 비디오에서의 시작 시간을 비디오의 재생 시작 노드로 하고, 직접 해당 재생 시작 노드로 점핑하여 타겟 비디오를 재생할 수 있다.
또한, 도6에 도시된 바와 같이, 본 발명의 실시 예에 따른 비디오 재생 방안은 자막 텍스트 세그먼트에 대한 검색 기능을 지원할 수도 있다. 예시적으로, 검색 영역(603)은 예를 들어 검색창, 검색 버튼 등 검색 위젯을 포함한다. 비디오의 자막 텍스트 세그먼트가 너무 많을 경우, 사용자는 검색 영역(603)에 검색어를 입력하고, 트리거 동작을 실핼할 수 있다(예를 들어, 트리거 버튼을 클릭한다). 사용자의 트리거 동작에 응답하여, 검색어를 취득한다. 현재 비디오의 복수의 자막 텍스트 세그먼트로부터 검색어에 매칭되는 자막 텍스트 세그먼트를 확정한다. 예를 들어, 상기 실시 예에 따르면, 검색어가 "제3"일 경우, 매칭 과정을 통해 취득한 매칭되는 자막 텍스트 세그먼트는 "제3질문......"이다. 상기 매칭되는 자막 텍스트 세그먼트의 표시 위치에 소정의 식별자를 표시함으로써, 상기 매칭되는 자막 텍스트 세그먼트를 눈에 띄이게 하여, 사용자에게 상기 매칭되는 자막 텍스트 세그먼트에 주의를 기울이도록 한다. 사용자는 상기 매칭되는 자막 텍스트 세그먼트를 직접 트리거하여 비디오 재생 노드의 위치 확정 및 점핑을 실현할 수 있다.
도7은 본 발명의 일 실시 예에 따른 비디오 재생 노드 위치 확정 장치의 블록도이다.
도7에 도시된 바와 같이, 비디오 재생 노드 위치 확정 장치(700)는 서버에 적용될 수 있다. 비디오 재생 노드 위치 확정 장치(700)는 선별 모듈(710) 및 재생 노드 관리 모듈(720)을 포함할 수 있다.
선별 모듈(710)은, 복수의 비디오로부터 타겟 비디오를 선별한다.
재생 노드 관리 모듈(720)은, 타겟 비디오, 상기 타겟 비디오의 복수의 자막 텍스트 세그먼트 및 상기 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보를 클라이언트로 송신하여, 클라이언트가 상기 복수의 자막 텍스트 세그먼트를 표시하고, 상기 복수의 자막 텍스트 세그먼트 중 임의의 자막 텍스트 세그먼트에 대한 트리거 동작에 응답하여, 상기 임의의 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 상기 타겟 비디오의 재생 시작 노드를 확정한다.
본 발명의 실시 예에 따르면, 선별 모듈(710)은 점수 평가 서브 모듈 및 제1 선별 서브 모듈을 포함할 수 있다. 점수 평가 서브 모듈은 복수의 비디오 중 각 비디오에 대해, 비디오의 사용자 인터액션 데이터에 기초하여, 비디오의 가치 평가 점수를 계산한다. 제1 선별 서브 모듈은 복수의 비디오로부터 가치 평가 점수가 제1 임계치보다 높은 비디오를 선별하여 제1 그룹 비디오로 한다. 상기 제1 그룹 비디오에 기초하여 타겟 비디오를 취득한다.
본 발명의 실시 예에 따르면, 선별 모듈(710)은 분류 서브 모듈 및 제2 선별 서브 모듈을 더 포함할 수 있다. 분류 서브 모듈은 상기 제1 그룹 비디오 중 각 비디오에 대해, 사전에 트레이닝된 분류기를 이용하여 비디오를 분류하고, 비디오가 속하는 카테고리를 확정한다. 제2 선별 서브 모듈은 상기 제1 그룹 비디오로부터 소정의 카테고리에 속하는 비디오를 선별하여 제2 그룹 비디오로 한다. 제2 그룹 비디오에 기초하여 타겟 비디오를 취득한다.
예시적으로, 선별 모듈(710)은 제1 분석 서브 모듈 및 제3 선별 서브 모듈을 더 포함할 수 있다. 제1 분석 서브 모듈은 상기 제2 그룹 비디오 중 각 비디오에 대해, 상기 비디오의 오디오 데이터를 추출하고, 상기 오디오 데이터에 대해 음성 인식을 실행함으로써, 인식 결과를 얻는다. 상기 인식 결과에는, 상기 비디오의 복수의 자막 텍스트 세그먼트, 및 상기 비디오의 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보와 종료 시간 정보가 포함된다. 상기 비디오의 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보 및 종료 시간 정보에 기초하여, 상기 비디오의 총 지속시간에 대한 상기 비디오의 복수의 자막 텍스트 세그먼트의 총 지속시간의 제1 비율을 확정한다. 제3 선별 서브 모듈은, 상기 제2 그룹 비디오로부터 상기 제1 비율이 제2 임계치보다 높은 비디오를 선별하여 상기 타겟 비디오로 한다.
예시적으로, 선별 모듈(710)은 제2 분석 서브 모듈 및 제4 선별 서브 모듈을 더 포함할 수 있다. 제2 분석 서브 모듈은 제2 그룹 비디오 중 각 비디오에 대해, 비디오가 소정의 카테고리에 속할 경우, 비디오의 오디오 데이터를 추출하고, 오디오 데이터에 대해 음성 인식을 실행하여, 인식 결과를 얻는다. 인식 결과에는, 비디오의 복수의 자막 텍스트 세그먼트, 및 상기 비디오의 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보와 종료 시간 정보가 포함된다. 비디오의 복수의 자막 텍스트 세그먼트에 대해 시맨틱 분석을 실행하여 비디오의 복수의 자막 텍스트 세그먼트에 대한 논리적 점수를 취득한다. 제4 선별 서브 모듈은 상기 제2 그룹 비디오로부터 상기 논리적 점수가 제3 임계치보다 높은 비디오를 선별하여 상기 타겟 비디오로 한다.
본 발명의 실시 예에 따르면, 재생 노드 관리 모듈(720)은, 타겟 비디오의 복수의 자막 텍스트 세그먼트 각각의 종료 시간 정보를 상기 클라이언트로 송신하고, 클라이언트가 상기 복수의 자막 텍스트 세그먼트 중 임의의 자막 텍스트 세그먼트에 대한 트리거 동작에 응답하여, 상기 임의의 자막 텍스트 세그먼트의 종료 시간 정보에 기초하여 타겟 비디오의 재생 종료 노드를 확정한다.
예시적으로, 사용자 인터액션 데이터에는, 비디오를 시청한 총 사용자 수에 대한, 비디오를 시청한 횟수가 제4 임계치를 초과한 사용자 수의 제2 비율, 비디오에 대한 댓글 수, 비디오를 즐겨찾기에 포함시킨 수, 및 비디오에 대해 좋아요를 클릭한 수 중 적어도 하나를 포함한다.
예를 들어, 점수 평가 서브 모듈은 사전에 설정한 제1 가중치, 제2 가중치, 제3 가중치 및 제4 가중치를 이용하여, 상기 제2 비율, 상기 댓글 수, 상기 즐겨찾기에 포함시킨 수 및 상기 좋아요를 클릭한 수를 가중 합계함으로써, 상기 가치 평가 점수를 계산한다.
도8은 본 발명의 다른 일 실시 예에 따른 비디오 재생 노드 위치 확정 장치의 블록도이다.
도8에 도시된 바와 같이, 비디오 재생 노드 위치 확정 장치(800)는, 클라이언트에 적용될 수 있다. 비디오 재생 노드 위치 확정 장치(800)는 취득 모듈(810), 표시 모듈(820) 및 재생 노드 위치 확정 모듈(830)을 포함할 수 있다.
취득 모듈(810)은 타겟 비디오, 상기 타겟 비디오의 복수의 자막 텍스트 세그먼트 및 상기 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보를 취득하기 위한 것이고, 여기서, 타겟 비디오는 복수의 비디오로부터 선별하여 얻은 것이다.
표시 모듈(820)은 복수의 자막 텍스트 세그먼트를 표시한다.
재생 노드 위치 확정 모듈(830)은 상기 복수의 자막 텍스트 세그먼트 중 임의의 자막 텍스트 세그먼트에 대한 트리거 동작에 응답하여, 상기 임의의 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 상기 타겟 비디오의 재생 시작 노드를 확정한다.
본 발명의 실시 예에 따르면, 재생 노드 위치 확정 모듈(830)은, 상기 임의의 자막 텍스트 세그먼트의 시작 시간 정보로부터, 상기 임의의 자막 텍스트 세그먼트의 타겟 비디오에서의 시작 시각을 확정하기 위한 제1 확정 서브 모듈, 및 상기 시작 시각을 타겟 비디오의 재생 시작 노드로 하고, 상기 재생 시작 노드부터 상기 타겟 비디오를 재생하기 시작하기 위한 제1 위치 확정 서브 모듈을 포함한다.
본 발명의 실시 예에 따르면, 상기 비디오 재생 노드 위치 확정 장치(800)는 검색 처리 모듈을 더 포함할 수 있고, 상기 검색 처리 모듈은, 검색 위젯을 표시하고, 상기 검색 위젯에 대한 트리거 동작에 응답하여 검색어를 취득하고, 상기 복수의 자막 텍스트 세그먼트로부터 상기 검색어에 매칭되는 자막 텍스트 세그먼트를 확정하고, 상기 매칭되는 자막 텍스트 세그먼트의 표시 위치에 소정의 식별자를 표시한다.
본 발명의 실시 예에 따르면, 취득 모듈(810)은 복수의 자막 텍스트 세그먼트 각각의 종료 시간 정보도 취득한다. 재생 노드 위치 확정 모듈(830)은 제2 확정 서브 모듈 및 제2 위치 확정 서브 모듈을 더 포함한다. 제2 확정 서브 모듈은, 임의의 자막 텍스트 세그먼트의 종료 시간 정보로부터, 상기 임의의 자막 텍스트 세그먼트의 상기 타겟 비디오에서의 종료 시각을 확정한다. 제2 위치 확정 서브 모듈은, 상기 종료 시각을 상기 타겟 비디오의 재생 종료 노드로 하여, 타겟 비디오가 상기 재생 종료 노드까지 재생되었을 때, 타겟 비디오의 재생을 정지한다.
지적해두어야 할 것은, 장치에 관한 실시 예의 각 모듈/유닛/서브 유닛 등의 실시 형태, 해결하고자 하는 기술적 문제, 실현한 기능 및 기술적 효과는 방법에 관한 실시 예의 각 대응하는 단계의 실시 형태, 해결하고자 하는 기술적 문제, 실현한 기능, 및 기술적 효과와 동일하거나 유사하므로, 여기서는 설명을 생략한다.
본 발명의 실시예에 따른 모듈, 서브 모듈, 유닛, 서브 유닛중 임의의 하나 이상, 또는 이들중 임의의 하나 이상의 적어도 일부 기능은 하나의 모듈에서 구현될 수 있다. 본 발명의 실시예에 따른 모듈, 서브 모듈, 유닛, 서브 유닛중 임의의 하나 또는 하나 이상은 복수의 모듈로 분할되어 구현될 수 있다. 본 발명의 실시예에 따른 모듈, 서브 모듈, 유닛, 서브 유닛중 임의의 하나 또는 하나 이상은 적어도 부분적으로 예를 들어 FPGA(Field Programmable Gate Array), PLA(Programmable Logic Array), SOC(System On Chip), SOS(System On Substrate), SOP(System On Package), ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 회로를 통해 구현되거나, 또는 회로를 집적시키거나 패키징시키는 기타 합리적인 방식의 하드웨어 또는 펌웨어를 통해 구현되거나, 또는 소프트웨어, 하드에어 및 펌웨어의 3가지 구현방식중 임의의 하나 또는 하나 이상의 조합을 통해 구현될 수 있다. 또는, 본 발명의 실시예에 따른 모듈, 서브 모듈, 유닛, 서브 유닛중 하나 또는 하나 이상은 적어도 부분적으로 컴퓨터 프로그램 모듈을 통해 구현될 수 있고, 해당 컴퓨터 프로그램 모듈은 실행될 경우, 대응되는 기능을 실행할 수 있다.
본 발명의 실시예에 따르면, 본 발명은 전자 장비, 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램을 더 제공한다.
도9에 도시된 바와 같이, 본 발명의 실시예에 따른 비디오 재생 노드 위치 확정 방법의 전자 장비의 블록도이다. 상기 전자 장비는 상기 비디오 재생 노드 위치 확정 방법을 실행하기 위한 서버일 수 있고, 상기 비디오 재생 노드 위치 확정 방법을 실행하기 위한 클라이언트가 설치되어 있는 장비일 수도 있다. 전자 장비는 예를 들어, 랩탑 컴퓨터, 데스크 탑 컴퓨터, 워크스테이션, PDA (Personal Digital Assistants), 서버, 블레이드 서버, 메인프레임 컴퓨터, 및 기타 적절한 컴퓨터와 같은 다양한 형태의 디지털 컴퓨터를 포함할 수 있다. 전자 장비는 예를 들어, PDA (Personal Digital Assistants), 셀룰러 전화기, 스마트 폰, 웨어러블 장비, 및 기타 유사한 컴퓨팅 장비와 같은 다양한 형태의 모바일 장비를 포함할 수 있다. 본 명세서에 기재된 부품, 이들의 연결 및 관계, 그리고 이들의 기능은 단지 예시적인 것에 불과하며, 본 명세서에서 설명 및/또는 요구하는 본 발명의 범위를 한정하기 위한 것이 아니다.
도 9에 도시된 바와 같이, 상기 전자 장비(900)는, 하나 또는 복수의 프로세서(901), 메모리(902), 및 각 부품을 연결하기 위한 인터페이스를 포함하고, 상기 인터페이스에는 고속 인터페이스 및 저속 인터페이스가 포함된다. 각 부품들은 서로 다른 버스를 통해 서로 연결되고, 공공 메인보드에 장착되거나 또는 수요에 따라 기타 방식으로 장착될 수 있다. 프로세서는 전자 장비에서 실행되는 명령들을 실행할 수 있고, 상기 명령은 메로리에 저장되어 외부 입력/출력 장치(예를 들어, 인터페이스에 접속된 표시 장치)에 GUI의 그래픽 정보를 표시하기 위한 명령을 포함할 수 있다. 다른 실시예에서는, 수요에 따라 복수의 프로세서 및/또는 복수의 버스를 복수의 메모리와 함께 사용될 수 있다. 마찬가지로, 복수의 전자 장비를 연결하고, 각 전자 장비에 의해 일부 필요한 동작을 제공할 수 있다(예를 들어, 서버 어레이, 한 세트의 블레이드 서버, 또는 멀티 프로세서 시스템). 도9에서는, 하나의 프로세서(901)의 경우를 예로 들어 설명한다.
메모리(902)는 본 발명에 의해 제공되는 비 일시적 컴퓨터 판독가능 저장 매체이다. 여기서, 상기 메모리에는 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장될 수 있고, 상기 명령이 상기 적어도 하나의 프로세서에 의해 실행될 경우, 본 발명에 의해 제공되는 비디오 재생 노드 위치 확정 방법을 실행할 수 있다. 본 발명의 비 일시적 컴퓨터 판독가능 저장 매체에는 컴퓨터에 의해 실행될 경우 컴퓨터로 하여금 본 발명에 의해 제공되는 비디오 재생 노드 위치 확정 방법을 실행하도록 하는 컴퓨터 명령이 저장되어 있다.
메모리(902)는 비 일시적 컴퓨터 판독가능 저장 매체로서, 예를 들어, 본 발명의 실시예에 따른 비디오 재생 노드 위치 확정 방법에 대응하는 프로그램 명령/모듈과 같은 비 일시적 소프트웨어 프로그램, 비 일시적 컴퓨터 실행가능 프로그램 및 모듈을 저장할 수 있다. 프로세서(901)는 메모리(902)에 저장된 비 일시적 소프트웨어 프로그램, 명령 및 모듈을 실행함으로써, 서버의 다양한 기능 및 데이터 처리를 실행한다. 즉, 상기 방법 실시예에 따른 비디오 재생 노드 위치 확정 방법을 구현한다.
메모리(902)는 프로그램 저장 영역 및 데이터 저장 영역을 포함할 수 있다. 여기서, 프로그램 저장 영역은 OS 시스템 및 적어도 하나의 기능에 필요한 앱을 저장할 수 있고, 데이터 저장 영역은 전자 장비의 사용에 따라 생성된 데이터 등을 저장할 수 있다. 또한, 메모리(902)는 고속 RAM(Random Access Memory)를 포함할 수도 있고, 예를 들어, 적어도 하나의 디스크 저장 디바이스, 플래시 메모리 디바이스, 또는 기타 비 일시적 고체 저장 디바이스와 같은 비 일시적 메모리를 포함할 수도 있다. 일부 실시예에 따르면, 메모리(902)는 프로세서(901)에 대해 원격으로 설치된 메모리를 포함할 수 있고, 이러한 원격 메모리는 네트워크를 통해 전자 장비에 연결될 수 있다. 상기 네트워크의 실예로는 인터넷, 인트라넷, 근거리 통신망(LAN), 이동 통신망 및 이들의 조합을 포함할 수 있는데, 이에 한정되지는 않는다.
비디오 재생 노드 위치 확정 방법의 전자 장비는, 입력장치(903) 및 출력장치(904)를 더 포함할 수 있다. 프로세서(901), 메모리(902), 입력장치(903) 및 출력장치(904)는 버스(905) 또는 기타 방식으로 연결될 수 있는데, 도9에서는 버스(905)를 통해 연결되는 예를 도시한다.
입력장치(903)는 입력된 숫자 또는 캐릭터 정보를 수신할 수 있고, 또한 비디오 재생 노드 위치 확정 방법의 전자 장비의 사용자 설정 및 기능 제어와 연관된 키 신호입력을 생성할 수 있으며, 예를 들어, 터치 스크린, 키 패드, 마우스, 트랙 패드, 터치 패드, 인디케이터 로드, 하나 또는 복수의 마우스 버튼, 트랙 볼, 콘트로럴 로드 등과 같은 입력장치를 포함할 수 있다. 출력장치(904)는 표시 장치, 보조 조명장치(예를 들어, LED) 및 햅틱 피드백 장치(예를 들어, 진동모터) 등을 포함할 수 있다. 상기 표시 장치는 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이 및 플라스마 디스플레이를 포함할 수 있는데, 이에 한정되지는 않는다. 일부 실시 형태에 따르면, 표시 장치는 터치 스크린일 수 있다.
여기서 설명한 시스템 및 기술의 다양한 실시 형태는 디지털 전자 회로 시스템, 집적 회로 시스템, 주문형 ASIC(주문형 집적 회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합으로 구현될 수 있다. 이러한 다양한 실시형태는 하나 또는 복수의 컴퓨터 프로그램을 통해 구현될 수 있고, 상기 하나 또는 복수의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템에서 실행 및/또는 해석될 수 있으며, 상기 프로그램 가능 프로세서는 전용 또는 범용 프로그램 가능 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력장치, 및 적어도 하나의 출력장치로부터 데이터 및 명령을 수신하고, 데이터 및 명령을 저장 시스템, 적어도 하나의 입력장치, 및 적어도 하나의 출력장치로 송신할 수 있다.
이러한 컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 응용 프로그램, 또는 코드라고도 함)은 프로그램 가능 프로세서의 기계언어 명령을 포함하고, 하이 라벨 프로시저 및/또는 객체 지향 프로그래밍 언어, 및/또는 어셈블러/기계언어를 사용하여 이러한 컴퓨터 프로그램을 실시할 수 있다. 본 명세서에서 사용되는 "기계 판독가능 매체" 및 "컴퓨터 판독가능 매체" 등과 같은 용어는, 기계언어 명령 및/또는 데이터를 프로그램 가능 프로세서의 임의의 컴퓨터 프로그램 제품, 장비, 및/또는 장치(예를 들어, 디스크, CD-ROM, 메모리, 프로그램 가능 논리 장치(PLD))에 제공하고, 기계 판독 가능 신호로서의 기계언어 명령을 수신하는 기계 판독가능 매체를 포함한다. "기계 판독가능 신호"라는 용어는 기계언어 명령 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 신호를 의미한다.
사용자와의 인터액션을 제공하기 위해서는, 컴퓨터를 통해 본 명세서에서 설명한 시스템 및 기술을 구현할 있는데, 상기 컴퓨터는, 사용자에게 정보를 표시하기 위한 표시 장치(예를 들어, CRT(음극선관) 또는 LCD(액정 디스플레이) 모니터), 및 사용자가 상기 컴퓨터에 입력을 제공할 수 있는 키보드 및 포인팅 디바이스(예를 들어, 마우스 또는 트랙 볼)를 포함한다. 기타 유형의 디바이스도 사용자와의 인터액션을 제공할 수 있다. 예를 들어, 사용자에게 제공되는 피드백은 임의의 형태의 센싱 피드백(예를 들어, 시각 피드백, 청각 피드백, 또는 촉각 피드백)일 수 있고, 임의의 형태(소리 입력, 음성 입력, 또는 촉각 입력을 포함)로 사용자로부터의 입력을 수신할 수 있다.
본 명세서에서 설명한 시스템 및 기술은, 백 그라운더 부품을 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버), 또는 미들웨어 부품을 포함하는 컴퓨팅 시스템(예를 들어, 앱 서버), 또는 프론트 앤드 부품을 포함하는 컴퓨팅 시스템(예를 들어, GUI 또는 웹 브라우저를 갖는 사용자 컴퓨터로서, 사용자는 상기 GUI 또는 상기 웹 브라우저를 통하여 본 명세서에서 설명한 상기 시스템 및 기술의 실시 형태와 인터액션을 할 수 있음), 또는 이러한 백 그라운더 부품, 미들웨어 부품, 또는 프론트 앤드 부품의 임의의 조합을 포함하는 컴퓨팅 시스템에서 구현될 수 있다. 시스템의 부품은 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)을 통해 서로 연결될 수 있다. 통신 네트워크는 예를 들어 근거리 통신망(LAN), 광역 통신망(WAN) 및 인터넷을 포함할 수 있다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로 멀리 떨어져 있고, 통상적으로 통신 네트워크를 통해 인터액션을 진행한다. 클라이언트와 서버의 관계는 대응하는 컴퓨터에서 실행되고 서로 클라이언트-서버의 관계를 갖는 컴퓨터 프로그램에 의해 생성된다.
본 발명의 실시예의 기술방안에 의하면, 대량의 비디오로부터 재생 노드 위치 확정 가치를 가진 타겟 비디오를 선별하고, 타겟 비디오를 재생하여야 할 경우, 사용자에게 타겟 비디오의 복수의 자막 텍스트 세그먼트를 표시한다. 그리고, 사용자가 지정한 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 상기 타겟 비디오의 재생 시작 노드를 확정할 수 있다. 상기 과정에서는, 타겟 비디오의 재생 노드에 대해서만 위치 확정 처리를 실행하므로, 대량의 컴퓨팅 자원을 절약할 수 있고, 서버와 클라이언트사이의 인터액션 효율을 향상시킬 수 있다. 또한, 복수의 자막 텍스트 세그먼트를 동시에 표시함으로써, 사용자가 짧은 시간내에 시청하고자 하는 내용의 노드를 확정할 수 있고, 사용자가 지정한 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여, 현재 비디오의 재생 시작 노드를 정확하게 확정할 수 있다. 본 발명의 실시 예에 따른 비디오 재생 노드 위치 확정 방법, 장치, 전자 장비, 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램은 예를 들어 클라우드 컴퓨팅, 빅 데이터 및 비디오 처리 등과 같은 다양한 기술과 연관된다.
상기에서 설명한 다양한 프로세스를 사용하여 각 단계의 순서를조정하거나, 일부 단계를 추가 또는 삭제 할 수 있다는 점을 이해하여야 한다. 예를 들어, 본 발명이 개시된 기술방안이 원하는 결과를 구현할 수 있는 한, 본 발명에 기재된 다양한 단계는 병렬적으로 또는 순차적으로, 또는 서로 다른 순서로 실행될 수 있고, 본 발명은 이에 대해 특별히 한정하지 않는다.
본 발명의 보호범위는 상기 다양한 실시 형태에 의해 제한되지 않는다. 당업자라면, 설계 요구 및 기타 요소에 의해, 다양한 수정, 조합, 서브 조합 및 교체가 이루어질 수 있음을 이해할 것이다. 본 발명의 취지 및 원칙내에서 이루어진 임의의 수정, 등가 교체 및 개선 등은 모두 본 발명의 보호범위에 속한다.
단말 장비 : 110 네트워크 : 120
서버 : 130 클라이언트 :510
데이터 집합 : 503 타겟 비디오 : 502
청구메시지 : 504 서버 : 530
비디오 재생 인터페이스 : 600 재생 영역 : 601
자막 표시 영역 : 602 검색 영역 : 603
비디오 재생 노드 위치 확정 장치 : 700, 800
선별 모듈 : 710 재생 노드 관리 모듈 : 720
인식 모듈 : 730 전자장비 : 800
취득 모듈 : 810 표시 모듈: 820
재생 노드 위치 확정 모듈 : 830 전자 장비 : 900
프로세서 : 901 메모리 : 902
입력장치 : 903 출력장치 : 904
버스 : 905

Claims (21)

  1. 복수의 비디오로부터 타겟 비디오를 선별하는 것, 및
    상기 타겟 비디오, 상기 타겟 비디오의 복수의 자막 텍스트 세그먼트 및 상기 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보를 클라이언트로 송신하여, 상기 클라이언트가 상기 복수의 자막 텍스트 세그먼트를 표시하고, 상기 복수의 자막 텍스트 세그먼트 중 임의의 자막 텍스트 세그먼트에 대한 트리거 동작에 응답하여, 상기 임의의 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 상기 타겟 비디오의 재생 시작 노드를 확정하는 것을 포함하는
    비디오 재생 노드 위치 확정 방법.
  2. 제1항에 있어서,
    상기 복수의 비디오로부터 타겟 비디오를 선별하는 것은,
    상기 복수의 비디오 중 각 비디오에 대해, 상기 비디오의 사용자 인터액션 데이터에 기초하여, 상기 비디오의 가치 평가 점수를 계산하는 것,
    상기 복수의 비디오로부터 상기 가치 평가 점수가 제1 임계치보다 높은 비디오를 선별하여 제1 그룹 비디오로 확정하는 것, 및
    상기 제1 그룹 비디오에 기초하여 상기 타겟 비디오를 취득하는 것을 포함하는
    비디오 재생 노드 위치 확정 방법.
  3. 제2항에 있어서,
    상기 제1 그룹 비디오에 기초하여 상기 타겟 비디오를 취득하는 것은,
    상기 제1 그룹 비디오 중 각 비디오에 대해, 사전에 트레이닝된 분류기를 이용하여 상기 비디오를 분류하여, 상기 비디오가 속하는 카테고리를 확정하는 것,
    상기 제1 그룹 비디오로부터 소정의 카테고리에 속하는 비디오를 선별하여 제2 그룹 비디오로 확정하는 것, 및
    상기 제2 그룹 비디오에 기초하여 상기 타겟 비디오를 취득하는 것을 포함하는
    비디오 재생 노드 위치 확정 방법.
  4. 제3항에 있어서,
    상기 제2 그룹 비디오에 기초하여 상기 타겟 비디오를 취득하는 것은,
    상기 제2 그룹 비디오 중 각 비디오에 대해, 상기 비디오의 오디오 데이터를 추출하는 것,
    상기 오디오 데이터에 대해 음성 인식을 실행하여, 인식 결과를 얻는 것,
    상기 비디오의 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보 및 종료 시간 정보에 기초하여, 상기 비디오의 총 지속시간에 대한 상기 비디오의 복수의 자막 텍스트 세그먼트의 총 지속시간의 제1 비율을 확정하는 것, 및
    상기 제2 그룹 비디오로부터 상기 제1 비율이 제2 임계치보다 높은 비디오를 선별하여, 상기 타겟 비디오로 확정하는 것을 포함하고,
    상기 인식 결과에는, 상기 비디오의 복수의 자막 텍스트 세그먼트, 및 상기 비디오의 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보와 종료 시간 정보가 포함되는
    비디오 재생 노드 위치 확정 방법.
  5. 제3항에 있어서,
    상기 제2 그룹 비디오에 기초하여 상기 타겟 비디오를 취득하는 것은,
    상기 제2 그룹 비디오 중 각 비디오에 대해, 상기 비디오가 소정의 카테고리에 속하는 경우, 상기 비디오의 오디오 데이터를 추출하는 것,
    상기 오디오 데이터에 대해 음성 인식을 실행하여, 인식 결과를 얻는 것,
    상기 비디오의 복수의 자막 텍스트 세그먼트에 대해 시맨틱 분석을 실행하여, 상기 비디오의 복수의 자막 텍스트 세그먼트에 대한 논리적 점수를 얻는 것, 및
    상기 제2 그룹 비디오로부터 상기 논리적 점수가 제3 임계치보다 높은 비디오를 선별하여 상기 타겟 비디오로 확정하는 것을 포함하고,
    상기 인식 결과에는, 상기 비디오의 복수의 자막 텍스트 세그먼트, 및 상기 비디오의 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보와 종료 시간 정보가 포함되는
    비디오 재생 노드 위치 확정 방법.
  6. 제4항에 있어서,
    상기 타겟 비디오의 복수의 자막 텍스트 세그먼트 각각의 종료 시간 정보를 상기 클라이언트로 송신하고, 상기 클라이언트가 상기 복수의 자막 텍스트 세그먼트 중 임의의 자막 텍스트 세그먼트에 대한 트리거 동작에 응답하여, 상기 임의의 자막 텍스트 세그먼트의 종료 시간 정보에 기초하여 상기 타겟 비디오의 재생 종료 노드를 확정하는 것을 더 포함하는
    비디오 재생 노드 위치 확정 방법.
  7. 제5항에 있어서,
    상기 타겟 비디오의 복수의 자막 텍스트 세그먼트 각각의 종료 시간 정보를 상기 클라이언트로 송신하고, 상기 클라이언트가 상기 복수의 자막 텍스트 세그먼트 중 임의의 자막 텍스트 세그먼트에 대한 트리거 동작에 응답하여, 상기 임의의 자막 텍스트 세그먼트의 종료 시간 정보에 기초하여 상기 타겟 비디오의 재생 종료 노드를 확정하는 것을 더 포함하는
    비디오 재생 노드 위치 확정 방법.
  8. 제2항에 있어서,
    상기 사용자 인터액션 데이터에는,
    상기 비디오를 시청한 총 사용자 수에 대한, 상기 비디오를 시청한 횟수가 제4 임계치를 초과한 사용자 수의 제2 비율,
    상기 비디오에 대한 댓글 수,
    상기 비디오를 즐겨찾기에 포함시킨 수, 및
    상기 비디오에 대해 좋아요를 클릭한 수 중 적어도 하나를 포함하는
    비디오 재생 노드 위치 확정 방법.
  9. 제8항에 있어서,
    상기 사용자 인터액션 데이터에 기초하여, 상기 비디오의 가치 평가 점수를 계산하는 것은,
    사전에 설정한 제1 가중치, 제2 가중치, 제3 가중치 및 제4 가중치를 이용하여, 상기 제2 비율, 상기 댓글 수, 상기 즐겨찾기에 포함시킨 수 및 상기 좋아요를 클릭한 수를 가중 합계함으로써, 상기 가치 평가 점수를 계산하는 것을 포함하는
    비디오 재생 노드 위치 확정 방법.
  10. 복수의 비디오로부터 선별하여 취득한 타겟 비디오, 상기 타겟 비디오의 복수의 자막 텍스트 세그먼트 및 상기 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보를 취득하는 것,
    상기 복수의 자막 텍스트 세그먼트를 표시하는 것, 및
    상기 복수의 자막 텍스트 세그먼트 중 임의의 자막 텍스트 세그먼트에 대한 트리거 동작에 응답하여, 상기 임의의 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 상기 타겟 비디오의 재생 시작 노드를 확정하는 것을 포함하는
    비디오 재생 노드 위치 확정 방법.
  11. 제10항에 있어서,
    상기 임의의 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 상기 타겟 비디오의 재생 시작 노드를 확정하는 것은,
    상기 임의의 자막 텍스트 세그먼트의 시작 시간 정보로부터, 상기 임의의 자막 텍스트 세그먼트의 상기 타겟 비디오에서의 시작 시각을 확정하는 것, 및
    상기 시작 시각을 상기 타겟 비디오의 재생 시작 노드로 하고, 상기 재생 시작 노드부터 상기 타겟 비디오를 재생하기 시작하는 것을 포함하는
    비디오 재생 노드 위치 확정 방법.
  12. 제10항에 있어서,
    검색 위젯을 표시하는 것,
    상기 검색 위젯에 대한 트리거 동작에 응답하여 검색어를 취득하는 것,
    상기 복수의 자막 텍스트 세그먼트로부터 상기 검색어에 매칭되는 자막 텍스트 세그먼트를 확정하는 것, 및
    상기 매칭되는 자막 텍스트 세그먼트의 표시 위치에 소정의 식별자를 표시하는 것을 더 포함하는
    비디오 재생 노드 위치 확정 방법.
  13. 제11항에 있어서,
    상기 복수의 자막 텍스트 세그먼트 각각의 종료 시간 정보를 취득하는 것,
    상기 임의의 자막 텍스트 세그먼트의 종료 시간 정보로부터, 상기 임의의 자막 텍스트 세그먼트의 상기 타겟 비디오에서의 종료 시각을 확정하는 것, 및
    상기 종료 시각을 상기 타겟 비디오의 재생 종료 노드로 하고, 상기 타겟 비디오가 상기 재생 종료 노드까지 재생되었을 때, 상기 타겟 비디오의 재생을 정지하는 것을 더 포함하는
    비디오 재생 노드 위치 확정 방법.
  14. 복수의 비디오로부터 타겟 비디오를 선별하는 선별 모듈, 및
    상기 타겟 비디오, 상기 타겟 비디오의 복수의 자막 텍스트 세그먼트 및 상기 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보를 클라이언트로 송신하여, 상기 클라이언트가 상기 복수의 자막 텍스트 세그먼트를 표시하고, 상기 복수의 자막 텍스트 세그먼트 중 임의의 자막 텍스트 세그먼트에 대한 트리거 동작에 응답하여, 상기 임의의 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 상기 타겟 비디오의 재생 시작 노드를 확정하는 재생 노드 관리 모듈을 포함하는
    비디오 재생 노드 위치 확정 장치.
  15. 복수의 비디오로부터 선별하여 취득한 타겟 비디오, 상기 타겟 비디오의 복수의 자막 텍스트 세그먼트 및 상기 복수의 자막 텍스트 세그먼트 각각의 시작 시간 정보를 취득하는 취득 모듈,
    상기 복수의 자막 텍스트 세그먼트를 표시하는 표시 모듈, 및
    상기 복수의 자막 텍스트 세그먼트 중 임의의 자막 텍스트 세그먼트에 대한 트리거 동작에 응답하여, 상기 임의의 자막 텍스트 세그먼트의 시작 시간 정보에 기초하여 상기 타겟 비디오의 재생 시작 노드를 확정하는 재생 노드 위치 확정 모듈을 포함하는
    비디오 재생 노드 위치 확정 장치.
  16. 적어도 하나의 프로세서, 및
    상기 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하는 전자 장비에 있어서,
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되어 있고, 상기 명령이 상기 적어도 하나의 프로세서에 의해 실행될 경우, 상기 적어도 하나의 프로세서로 하여금 제1항 내지 제9항 중 어느 한 항의 방법을 실행하게 하는
    전자 장비.
  17. 적어도 하나의 프로세서, 및
    상기 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하는 전자 장비에 있어서,
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되어 있고, 상기 명령이 상기 적어도 하나의 프로세서에 의해 실행될 경우, 상기 적어도 하나의 프로세서로 하여금 제10항 내지 제13항 중 어느 한 항의 방법을 실행하게 하는
    전자 장비.
  18. 컴퓨터 프로그램이 저장되어 있는 비 일시적 컴퓨터 판독가능 저장 매체에 있어서,
    상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우, 제1항 내지 제9항중 어느 한 항의 방법을 구현하는
    비 일시적 컴퓨터 판독 가능 저장 매체.
  19. 컴퓨터 프로그램이 저장되어 있는 비 일시적 컴퓨터 판독가능 저장 매체에 있어서,
    상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우, 제10항 내지 제13항중 어느 한 항의 방법을 구현하는
    비 일시적 컴퓨터 판독 가능 저장 매체.
  20. 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램의 명령이 프로세서에 의해 실행될 경우, 제1항 내지 제9항중 어느 한 항의 방법을 구현하는
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  21. 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램의 명령이 프로세서에 의해 실행될 경우, 제10항 내지 제13항중 어느 한 항의 방법을 구현하는
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.



KR1020210038419A 2020-08-28 2021-03-25 비디오 재생 노드 위치 확정 방법, 장치, 전자 장비, 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램 KR102436734B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010891723.0 2020-08-28
CN202010891723.0A CN111988663B (zh) 2020-08-28 2020-08-28 视频播放节点的定位方法、装置、设备以及存储介质

Publications (2)

Publication Number Publication Date
KR20210042852A true KR20210042852A (ko) 2021-04-20
KR102436734B1 KR102436734B1 (ko) 2022-08-26

Family

ID=73439729

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210038419A KR102436734B1 (ko) 2020-08-28 2021-03-25 비디오 재생 노드 위치 확정 방법, 장치, 전자 장비, 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램

Country Status (5)

Country Link
US (1) US11581021B2 (ko)
EP (1) EP3855753B1 (ko)
JP (1) JP7201729B2 (ko)
KR (1) KR102436734B1 (ko)
CN (1) CN111988663B (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114501159A (zh) * 2022-01-24 2022-05-13 传神联合(北京)信息技术有限公司 一种字幕编辑方法、装置、电子设备及存储介质
CN115086783A (zh) * 2022-06-28 2022-09-20 北京奇艺世纪科技有限公司 一种视频生成方法、装置及电子设备
CN117033673A (zh) * 2023-05-16 2023-11-10 广州比地数据科技有限公司 一种基于人工智能的多媒体内容抽取系统

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112437353B (zh) * 2020-12-15 2023-05-02 维沃移动通信有限公司 视频处理方法、视频处理装置、电子设备和可读存储介质
CN112738554B (zh) * 2020-12-22 2022-12-13 北京百度网讯科技有限公司 视频的处理方法、装置和电子设备
CN112866776B (zh) * 2020-12-29 2022-09-20 北京金堤科技有限公司 视频生成方法和装置
CN112860939B (zh) * 2021-02-19 2023-09-26 北京百度网讯科技有限公司 音视频数据处理方法、装置、设备和存储介质
CN115119044B (zh) * 2021-03-18 2024-01-05 阿里巴巴新加坡控股有限公司 视频处理方法、设备、系统及计算机存储介质
CN113378001B (zh) * 2021-06-28 2024-02-27 北京百度网讯科技有限公司 视频播放进度的调整方法及装置、电子设备和介质
CN113569085A (zh) * 2021-06-30 2021-10-29 北京达佳互联信息技术有限公司 音视频数据展示方法、装置、设备、存储介质及程序产品
CN113873323B (zh) * 2021-07-28 2023-08-29 百度在线网络技术(北京)有限公司 视频播放方法、装置、电子设备和介质
CN114339300B (zh) * 2021-12-28 2024-04-19 Oppo广东移动通信有限公司 字幕处理方法、装置、电子设备及计算机可读介质及产品
CN114495916B (zh) * 2022-04-15 2022-07-12 腾讯科技(深圳)有限公司 背景音乐的插入时间点确定方法、装置、设备和存储介质
CN115022732B (zh) * 2022-05-25 2023-11-03 阿里巴巴(中国)有限公司 视频生成方法、装置、设备及介质
CN115278307B (zh) * 2022-07-27 2023-08-04 天翼云科技有限公司 一种视频播放方法、装置、设备和介质
CN117714766A (zh) * 2022-09-09 2024-03-15 抖音视界有限公司 视频内容预览交互方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009055459A (ja) * 2007-08-28 2009-03-12 Index:Kk ビデオコンテンツ再生端末およびビデオコンテンツ再生プログラム
US20160034786A1 (en) * 2014-07-29 2016-02-04 Microsoft Corporation Computerized machine learning of interesting video sections
WO2020024353A1 (zh) * 2018-08-01 2020-02-06 平安科技(深圳)有限公司 视频播放方法、装置、终端设备及存储介质

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003199028A (ja) 2001-12-27 2003-07-11 Matsushita Electric Ind Co Ltd 電子アルバム装置
TWI271704B (en) * 2004-01-12 2007-01-21 Sunplus Technology Co Ltd A control method and device capable of playing digital multimedia content according to corresponding time of a caption
US7167866B2 (en) 2004-01-23 2007-01-23 Microsoft Corporation Selective multi level expansion of data base via pivot point data
JP2006245907A (ja) 2005-03-02 2006-09-14 Sharp Corp 放送記録再生装置
US8090694B2 (en) * 2006-11-02 2012-01-03 At&T Intellectual Property I, L.P. Index of locally recorded content
JP2010124155A (ja) 2008-11-18 2010-06-03 Samsung Yokohama Research Institute Co Ltd 情報処理装置、情報処理方法、プログラム、および情報処理システム
CN101650958B (zh) * 2009-07-23 2012-05-30 中国科学院声学研究所 对电影类视频进行场景片段抽取方法及其建立索引的方法
CN102668550A (zh) * 2010-05-19 2012-09-12 联发科技(新加坡)私人有限公司 用于为视频播放装置提供基于字幕的重复或播放功能的方法、相关视频播放装置及相关处理电路
US20130177891A1 (en) * 2011-07-02 2013-07-11 Joachim Hammerschmidt Audio-visual learning system
CN102833638B (zh) * 2012-07-26 2015-03-18 北京数视宇通技术有限公司 基于字幕信息的视频自动切分及标注方法及系统
JP6102124B2 (ja) 2012-08-24 2017-03-29 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN103838751A (zh) * 2012-11-23 2014-06-04 鸿富锦精密工业(深圳)有限公司 视频内容搜索系统及方法
CN103997663A (zh) * 2013-02-19 2014-08-20 广州星海传媒有限公司 一种视频资源管理方法、系统及视频点播装置
CN104967910B (zh) * 2014-10-29 2018-11-23 广州酷狗计算机科技有限公司 多媒体播放进度控制方法及装置
CN105609121B (zh) * 2014-11-20 2019-03-12 广州酷狗计算机科技有限公司 多媒体播放进度控制方法及装置
CN104954878B (zh) * 2015-06-30 2018-10-30 北京奇艺世纪科技有限公司 一种对用户回顾的视频字幕的显示方法及装置
CN105163178B (zh) * 2015-08-28 2018-08-07 北京奇艺世纪科技有限公司 一种视频播放位置定位方法和装置
JP6113797B2 (ja) 2015-09-08 2017-04-12 ヤフー株式会社 決定装置、決定方法、及び決定プログラム
CN105338419B (zh) * 2015-10-29 2018-07-31 网易传媒科技(北京)有限公司 一种字幕集锦的生成方法和设备
US10341405B2 (en) 2015-12-29 2019-07-02 Facebook, Inc. Social networking interactions with portions of digital videos
CN108337533B (zh) * 2017-01-17 2021-07-09 腾讯科技(深圳)有限公司 视频压缩方法和装置
CN107027060A (zh) * 2017-04-18 2017-08-08 腾讯科技(深圳)有限公司 视频片段的确定方法和装置
CN107438204B (zh) * 2017-07-26 2019-12-17 维沃移动通信有限公司 一种媒体文件循环播放的方法及移动终端
WO2019125704A1 (en) * 2017-12-20 2019-06-27 Flickray, Inc. Event-driven streaming media interactivity
CN108401189A (zh) * 2018-03-16 2018-08-14 百度在线网络技术(北京)有限公司 一种搜索视频的方法、装置及服务器
CN109743617B (zh) * 2018-12-03 2020-11-24 清华大学 一种视频播放的跳转导航方法和设备
CN111277898A (zh) * 2018-12-05 2020-06-12 中国移动通信集团广西有限公司 一种内容推送方法及装置
CN111314775B (zh) * 2018-12-12 2021-09-07 华为终端有限公司 一种视频拆分方法及电子设备
CN109359636B (zh) * 2018-12-14 2023-04-28 腾讯科技(深圳)有限公司 视频分类方法、装置及服务器
US11204959B1 (en) * 2019-02-06 2021-12-21 Snap Inc. Automated ranking of video clips
US10963702B1 (en) * 2019-09-10 2021-03-30 Huawei Technologies Co., Ltd. Method and system for video segmentation
US11574145B2 (en) * 2020-06-30 2023-02-07 Google Llc Cross-modal weak supervision for media classification

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009055459A (ja) * 2007-08-28 2009-03-12 Index:Kk ビデオコンテンツ再生端末およびビデオコンテンツ再生プログラム
US20160034786A1 (en) * 2014-07-29 2016-02-04 Microsoft Corporation Computerized machine learning of interesting video sections
WO2020024353A1 (zh) * 2018-08-01 2020-02-06 平安科技(深圳)有限公司 视频播放方法、装置、终端设备及存储介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114501159A (zh) * 2022-01-24 2022-05-13 传神联合(北京)信息技术有限公司 一种字幕编辑方法、装置、电子设备及存储介质
CN114501159B (zh) * 2022-01-24 2023-12-22 传神联合(北京)信息技术有限公司 一种字幕编辑方法、装置、电子设备及存储介质
CN115086783A (zh) * 2022-06-28 2022-09-20 北京奇艺世纪科技有限公司 一种视频生成方法、装置及电子设备
CN115086783B (zh) * 2022-06-28 2023-10-27 北京奇艺世纪科技有限公司 一种视频生成方法、装置及电子设备
CN117033673A (zh) * 2023-05-16 2023-11-10 广州比地数据科技有限公司 一种基于人工智能的多媒体内容抽取系统
CN117033673B (zh) * 2023-05-16 2024-04-05 广州比地数据科技有限公司 一种基于人工智能的多媒体内容抽取系统

Also Published As

Publication number Publication date
CN111988663B (zh) 2022-09-06
US11581021B2 (en) 2023-02-14
JP2021103896A (ja) 2021-07-15
EP3855753A2 (en) 2021-07-28
EP3855753A3 (en) 2021-08-11
EP3855753B1 (en) 2023-03-15
US20210233571A1 (en) 2021-07-29
JP7201729B2 (ja) 2023-01-10
KR102436734B1 (ko) 2022-08-26
CN111988663A (zh) 2020-11-24

Similar Documents

Publication Publication Date Title
KR102436734B1 (ko) 비디오 재생 노드 위치 확정 방법, 장치, 전자 장비, 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램
US11315546B2 (en) Computerized system and method for formatted transcription of multimedia content
CN107995536B (zh) 一种提取视频预览的方法、装置、设备和计算机存储介质
WO2022042593A1 (zh) 字幕编辑方法、装置和电子设备
KR101454950B1 (ko) 스트리밍 미디어에 연관된 딥 태그 클라우드
JP7283067B2 (ja) 通信プラットフォームにおける割り込み会話のデタングル化システムと方法、非構造化メッセージを解析する方法、プログラム、及びコンピュータ装置
US11747960B2 (en) Efficiently augmenting images with related content
US10586528B2 (en) Domain-specific speech recognizers in a digital medium environment
US20170235828A1 (en) Text Digest Generation For Searching Multiple Video Streams
US20220382445A1 (en) Multimedia interaction method, information interaction method, apparatus, device, and medium
CN113779381B (zh) 资源推荐方法、装置、电子设备和存储介质
CN113806588B (zh) 搜索视频的方法和装置
US20230376531A1 (en) Media contextual information for a displayed resource
US20240061899A1 (en) Conference information query method and apparatus, storage medium, terminal device, and server
WO2023016349A1 (zh) 一种文本输入方法、装置、电子设备和存储介质
CN112287168A (zh) 用于生成视频的方法和装置
CN107515870B (zh) 一种搜索方法和装置、一种用于搜索的装置
CN116049490A (zh) 素材搜索方法、装置和电子设备
JP2024503957A (ja) 動画の編集方法、装置、電子機器、媒体
CN113111197A (zh) 多媒体内容的推荐方法、装置、设备及存储介质
US11941885B2 (en) Generating a highlight video from an input video
CN110569433A (zh) 搜索结果过滤器的构建方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant