KR20150046221A - 네트워크에서 적어도 하나의 비디오 서비스 제공자의 이용자를 위해 비디오 콘텐트를 자동으로 요약하기 위한 처리 - Google Patents

네트워크에서 적어도 하나의 비디오 서비스 제공자의 이용자를 위해 비디오 콘텐트를 자동으로 요약하기 위한 처리 Download PDF

Info

Publication number
KR20150046221A
KR20150046221A KR20157007092A KR20157007092A KR20150046221A KR 20150046221 A KR20150046221 A KR 20150046221A KR 20157007092 A KR20157007092 A KR 20157007092A KR 20157007092 A KR20157007092 A KR 20157007092A KR 20150046221 A KR20150046221 A KR 20150046221A
Authority
KR
South Korea
Prior art keywords
video
mashups
video content
shots
module
Prior art date
Application number
KR20157007092A
Other languages
English (en)
Inventor
압델카데르 아우타가르츠
엠마누엘 마릴리
Original Assignee
알까뗄 루슨트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알까뗄 루슨트 filed Critical 알까뗄 루슨트
Publication of KR20150046221A publication Critical patent/KR20150046221A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • G06F16/739Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

네트워크에서 적어도 하나의 비디오 서비스 제공자(1)의 이용자를 위해 비디오 콘텐트(B)를 자동으로 요약하기 위한 처리가 개시되고, 상기 처리는: - 상기 비디오 서비스 제공자들(1)의 이용자들에 의해 생성되는 적어도 2개의 비디오 매쉬업(mashup)들(A)에 관한 정보를 모니터링(monitoring)하는 것으로서, 상기 매쉬업들은 상기 비디오 콘텐트의 적어도 하나의 샷(C, D, E, F)을 포함하는, 상기 모니터링하는 것; - 상기 비디오 콘텐트의 가장 인기있는 샷들(C)을 식별하기 위해 상기 정보를 분석하는 것; 및 - 상기 식별된 샷들 중 적어도 하나를 포함하는 비디오 요약(S1, S2)을 편집하는 것을 준비한다.

Description

네트워크에서 적어도 하나의 비디오 서비스 제공자의 이용자를 위해 비디오 콘텐트를 자동으로 요약하기 위한 처리{PROCESS FOR SUMMARISING AUTOMATICALLY A VIDEO CONTENT FOR A USER OF AT LEAST ONE VIDEO SERVICE PROVIDER IN A NETWORK}
본 발명은 네트워크에서 적어도 하나의 비디오 서비스 제공자의 이용자를 위해 비디오 콘텐트를 자동으로 요약하기 위한 처리, 애플리케이션 및 이러한 처리를 구현하기 위한 수단을 포함하는 아키텍처(architecture)에 관한 것이다.
비디오 콘텐트의 비디오 요약은 상기 비디오 콘텐트의 부분들 즉, 상기 비디오 콘텐트의 더 짧은 버전을 포함하는 비디오 시퀀스의 형태일 수 있다. 비디오 요약은 또한 비디오 콘텐트의 선택된 이미지들을 포함하는 하이퍼미디어 문서의 형태일 수 있고, 이용자는 상기 비디오 콘텐트의 내부 부분들에 액세스하기 위해 상기 이미지와 상호작용한다.
많은 업무들이 특히, 프랑스 연구 센터들(INRIA 및 EURECOM)과 같은 학원의 실험실들, 또는 미국 대학들(MIT 및 카네기 멜론)에 의해, 심지어 마이크로소프트®, 휴렛-패커드®, IBM® 또는 모토롤라®에 의해 자동화 비디오 요약의 도메인에서 행해졌다.
실제로, 비디오 요약은 몇몇 애플리케이션들에 대한 많은 관심을 제공하는데, 이는 그것이 특히 예를 들면, 화상 회의들, 비디오 메일 또는 비디오 뉴스와 같은, 다른 더 많은 복잡한 특징들 및 기록 보관 처리들을 구현하는 것을 허용하기 때문이다.
예를 들면, 마이크로소프트®의 연구 실험실은 어드레스 http://research.microsoft.com/apps/pubs/default.aspx?id=101167에서 이용가능한 논문 "증진된 로고 검출을 이용하는 축구 비디오 요약(Soccer Video Summarization Using Enhanced Logo Detection)"(2009년, M. EL Deeb, B. Abou Zaid, H. Zawbaa, M. Zahaar, 및 M. El-Saban)과 같은, 비디오 요약에 대한 선도된 업무들에 관한 일부 논문들을 공개했다. 이 논문은 알고리즘이 흥미있는 이벤트들을 기술하기 위한 리플레이 샷(replay shot)들을 검출하는, 축구 매치 비디오를 요약하기 위한 방법에 관한 것이다. 일반적으로, 마이크로소프트®의 업무들은 낮은 레벨 비디오 분석기들 및 규칙 엔진들에 기초하고, 이용자가 개인화된 비디오 요약을 편집하도록 허용하지 않고, 축구와 같은, 단지 특정 시멘틱 장(semantic field)에 고정될 뿐만 아니라, 지정되는 알고리즘들을 이용한다.
미쓰비시® 단체의 연구 실험실은 http://www.merl.com/projects/VideoSummarization에서 이용가능한 논문에서, 및 특히 기술 보고 "비디오 요약, 브라우징 및 검색을 위한 통합된 프레임워크(A Unified Framework for Video Summarization, Browsing and Retrieval)"(Y. Rui, Z. Xiong, R. Radhakrishnan, A. Divakaran, T. S. Huang, 진보된 과학 및 기술을 위한 백맨 기관, 일리노이 대학 및 미쓰비시 전기 연구소)에서 설명된 바와 같은, 개인용 비디오 리코더들(PVR)에 대한 비디오 요약에 관한 연구들을 제안하여 왔다. 이들 연구들은 자동화 오디오 시각 분석 및 비디오 스키밍 접근법에 기초하지만, 비디오 콘텐트의 주요 핵심 시퀀스들의 추출을 허용하지 않는다.
문서들 "비디오 요약 : 개념적 프레임워크 및 최신 기술의 조사(A conceptual Framework and Survey of the State of the Art)"(A.G. Money and H. Agius, 시각 통신 및 이미지 표현, 볼륨 19, 2호, 121 내지 143 페이지, 2008년) 및 "비디오 요약 및 스키밍에서의 진보들(Advances in Video Summarization and Skimming)"(("멀티미디어 신호 처리 및 통신들에서의 최근 진보들(Recent Advances in Multimedia Signal Processing and Communications)", 베를린/하이델베르그: 스프링거, 2009년에서의 R. M. Jiang, A. H. Sadka, D. Crookes)은 비디오 요약을 위한 상이한 공지된 기술들의 개요 및 비디오 요약의 정적 및 동적 접근법들에 관한 설명들을 각각 제공한다.
요약하기 위해, 비디오 요약을 위한 공지된 방법들은 3개의 주요 그룹들로 나누어질 수 있다: 오디오 스트림 분석에 기초한 방법들, 비디오 스트림 분석에 기초한 방법들 및 상기 분석의 둘 모두에 기초한 하이브리드 방법들. 이러한 방법들은 전용 알고리즘들에 의해 오디오 및/또는 비디오 분석으로부터의 메타데이터 추출들에 고전적으로 기초한다.
결점들에 관하여, 이러한 방법들은 오디오 및 비디오 분석과 그들의 분석 알고리즘들의 제한들 사이의 시멘틱 갭을 처리해야 한다. 따라서, 청취가능한 음성들이 비디오 주제에 연결될 때, 오디오 기반 방법들은 때때로 충분하지 않다. 게다가, 비디오 기반 방법들은 특히, 문맥이 고 레벨의 시멘틱들을 가질 때, 비디오의 상기 문맥을 식별하는데 어려움을 겪고, 이는 고 시멘틱 갭을 트리거링(triggering)한다. 게다가, 하이브리드 방법들은 마지막 요약을 렌더링하고 비디오 주제에 매우 의존적으로 유지하는데 있어서 어려움들에 직면한다.
특히, 비디오 요약들은 비디오 분석 및 분할에 기초한다. 이러한 방법들은 특히 다음의 문서들에서 더 상세하게 설명된다 : "이동하는 물체 검출 및 궤적 추출에 기초한 비디오 요약의 감시(Surveillance Video Summarisation Based on Moving Object Detection and Trajectory Extraction)"(Z. Ji, Y. Su, R. Qian, J. Ma, 신호 처리 시스템들에 관한 제 2 회 국제 회의, 2010년), "향상된 차선의 비디오 요약 알고리즘(An Improved Sub-Optimal Video Summarization Algorithm)"(L. Coelho, L.A. Da Silva Cruz, L. Ferreira, P.A.
Figure pct00001
, 제 52 회 국제 심포지움 ELMAR-2010), "압축된 비디오에 관한 빠른 비디오 요약(Rapid Video Summarisation on Compressed Video)"(J. Almeida, R. S. Torres, N.J. Leite, 멀티미디어에 대한 IEEE 국제 심포지움, 2010년), "이용자-특정 비디오 요약(User-Specific Video Summarisation)"(X. Wang, J. Chen, C. Zhu, 멀티미디어 및 신호 처리에 관한 국제 회의, 2011년), "다양한 써로게이트들을 갖는 키워드 기반 비디오 요약 학습 플랫폼(A Keyword Based Video Summarisation Learning Platform with Multimodal Surrogates)"(W-H Chang, J-C. Yang, Y-C Wu, 진보된 학습 기술들에 관한 제 11 회 IEEE 국제 회의, 2011년) 및 "온라인 장면 분류에 의한 시각적 돌출성 기반 항공 비디오 요약(Visual Saliency Based Aerial Video Summarization by Online Scene Classification)"(J. Wang, Y. Wang, Z. Zhang, 이미지 및 그래픽스에 관한 제 6 회 국제 회의, 2011년).
그러나, 이들 해결책들은 요구된 처리의 큰 용량, 비디오/오디오 분석기들의 제한 및 시멘틱/온톨로지 설명과 해석으로 인해 중요한 번호의 비디오 콘텐트들을 요약하는데 적합하지 않다. 게다가, 이들 해결책들은 인터넷 이용자들 사이에서 현재 인기있는 비디오 서비스 제공자들과 같은 이종의 및 다양한 비디오 서비스 제공자들과 상호작용하지 않고, 그들은 이용자들의 피드백들에 기초하지 않으며 그들은 동적인 비디오 요약을 제안할 수 없다. 게다가, 그들이 비디오 분석, 분할, 및/또는 특정 메타데이터 온톨로지/시멘틱을 이용하기 때문에, 그들의 응답 시간은 매우 중요하고 이용된 상이한 시멘틱 설명들 사이에 어떠한 명백한 변환도 존재하지 않는다.
본 발명은 비디오 콘텐트를 자동으로 요약하기 위한 처리를 제안함으로써 종래 기술을 향상시키는 것을 목표로 하고, 상기 처리는 특히, 고전적인 요약 방법이 직면한 결점들을 제한하는 동안 동적으로 업데이트되고 풍부한 비디오 요약을 이러한 비디오 서비스 제공자들에 제공하기 위해, 네트워크의 이종의 비디오 서비스 제공자들로부터 발생하는 많은 양의 비디오 데이터를 요약하는데 효율적이다.
그 목적을 위해, 및 제 1 양태에 따라, 본 발명은 네트워크에서 적어도 하나의 비디오 서비스 제공자의 이용자를 위해 비디오 콘텐트를 자동으로 요약하기 위한 처리에 관한 것이고, 상기 처리는:
- 이러한 비디오 서비스 제공자들의 이용자들에 의해 생성되는 적어도 2개의 비디오 매쉬업(mashup)들에 관한 정보를 모니터링(monitoring)하는 단계로서, 상기 매쉬업들은 상기 비디오 콘텐트의 적어도 하나의 샷을 포함하는, 상기 모니터링하는 단계;
- 상기 비디오 콘텐트의 가장 인기있는 샷들을 식별하기 위해 상기 정보를 분석하는 단계; 및
- 상기 식별된 샷들 중 적어도 하나를 포함하는 비디오 요약을 편집하는 단계를 제공한다.
제 2 양태에 따라, 본 발명은 네트워크에서 비디오 서비스 제공자로부터 비디오 콘텐트를 자동으로 요약하기 위한 애플리케이션에 관한 것이고, 상기 애플리케이션은:
- 이러한 비디오 서비스 제공자들의 이용자들에 의해 생성되는 적어도 2개의 비디오 매쉬업들에 관한 정보를 모니터링하기 위한 적어도 하나의 모듈로서, 상기 매쉬업들은 상기 비디오 콘텐트의 적어도 하나의 샷을 포함하고, 상기 모듈은 상기 비디오 콘텐트의 가장 인기있는 샷들을 식별하기 위해 상기 정보를 분석하기 위한 수단을 포함하는, 상기 적어도 하나의 모듈; 및
- 상기 식별된 샷들 중 적어도 하나를 포함하는 비디오 요약을 편집하기 위한 적어도 하나의 모듈을 포함한다.
제 3 양태에 따라, 본 발명은 적어도 하나의 비디오 서비스 제공자 및 네트워크의 이용자들이 상기 서비스 제공자들의 적어도 하나의 비디오 콘텐트로부터 비디오 매쉬업들을 생성하도록 허용하기 위한 메뉴얼 비디오 구성 애플리케이션을 포함하는 상기 네트워크를 위한 아키텍처에 관한 것이고, 상기 아키텍처는 이용자를 위해 비디오 콘텐트를 자동으로 요약하기 위한 애플리케이션을 포함하고, 상기 애플리케이션은:
- 적어도 2개의 비디오 매쉬업들에 관한 정보를 모니터링하기 위한 적어도 하나의 모듈로서, 상기 매쉬업들은 상기 비디오 콘텐트의 적어도 하나의 샷을 포함하고, 상기 모듈은 상기 비디오 콘텐트의 가장 인기있는 샷들을 식별하기 위해 상기 정보를 분석하기 위한 수단을 포함하는, 상기 적어도 하나의 모듈; 및
- 상기 식별된 샷들 중 적어도 하나를 포함하는 비디오 요약을 편집하기 위한 적어도 하나의 모듈을 포함한다.
본 발명의 다른 양태들 및 장점들은 첨부된 도면들을 참조하여 행해진 다음의 설명에서 명백해질 것이다.
도 1은 본 발명에 따른 처리를 구현하기 위한 수단을 포함하는 애플리케이션과 같은, 메뉴얼 비디오 구성 애플리케이션 및 적어도 하나의 비디오 서비스 제공자를 포함하는 네트워크를 위한 아키텍처를 개략적으로 표현한 도면.
도 2는 본 발명에 따른 처리의 단계들 중 일부를 개략적으로 표현한 도면.
도 3은 단지 메뉴얼 비디오 구성 애플리케이션 및 그의 모듈들을 명백하게 갖는 요약 애플리케이션을 갖는 도 1의 아키텍처를 개략적으로 표현한 도면.
그들 도면들에 관련하여, 네트워크에서 적어도 하나의 비디오 서비스 제공자(1)의 이용자의 비디오 콘텐트를 자동으로 요약하기 위한 처리, 이러한 처리를 구현하기 위한 수단을 포함하는 애플리케이션(2) 및 적어도 하나의 비디오 서비스 제공자(1), 애플리케이션(3)을 구성하는 메뉴얼 비디오 및 이러한 요약 애플리케이션(2)을 포함하는 네트워크를 위한 아키텍처가 아래에 설명될 것이다.
도 1 상에 표현된 바와 같이, 비디오 서비스 제공자들(1)은 유튜브®, 티비지오®, 칼투라® 또는 플리커®와 같은, 비디오 공유 서비스 제공자들일 수 있다. 그들은 또한 페이스북®, 구글® 또는 마이스페이스®와 같은, 소셜 네트워크 서비스 제공자들일 수 있다. 현재, 수백의 비디오, 오디오 및 이미지 콘텐트들은 이용자들에 의해 특히, 스마트폰들 또는 사진 카메라들에 의해 생성되고, 이러한 서비스 제공자들(1) 상에 공개된다.
메뉴얼 비디오 구성 애플리케이션(2)은 클라우드 기반 웹 2.0 애플리케이션일 수 있고 네트워크의 이용자들이 비디오 매쉬업들(A) 즉, 아키텍처의 비디오 서비스 제공자들(1)의 적어도 하나의 비디오 콘텐트(B)로부터, 비디오 세그먼트들 또는 클립들 및 오디오 세그먼트들의 결합들을 생성하도록 허용한다. 그렇게 행하기 위해, 메뉴얼 비디오 구성 애플리케이션(3)은 상기 애플리케이션의 이용자가 비디오 매쉬업(A)을 생성하기 위해 이용하기를 원하는 비디오 콘텐트들(B)을 얻기 위해, 비디오 서비스 제공자들(1)과 상호작용하기 위한 적어도 하나의 전용 애플리케이션 프로그래밍 인터페이스(API)를 포함한다. 특히, 웹 기반 메뉴얼 비디오 구성 애플리케이션(3)을 통해, 아키텍처의 이용자는 특히, 상기 애플리케이션의 다른 이용자들과 협력하여 비디오 매쉬업들(A)을 생성할 수 있다.
일반적으로 말하면, 비디오 콘텐트(B)의 비디오 요약 또는 몇몇 비디오 콘텐트들(B)의 비디오 매쉬업(A)을 생성하기를 원하는 이용자는 가장 관련된 샷들을 선택하기 위해 상기 비디오 콘텐트(들)를 보고, 언급하고/하거나 분할해야 한다. 그럼에도 불구하고, 샷들의 선택은 이용자들마다 많이 다를 수 있어서, 다양한 비디오 요약들 및 매쉬업들(A)이 고유한 비디오 콘텐트(B)로부터 생성될 수 있게 한다.
따라서, 네트워크에서 비디오 콘텐트(B)의 효율적인 요약을 적어도 하나의 비디오 서비스 제공자(1)의 이용자에 제공하기 위해, 처리는 이러한 비디오 서비스 제공자들(1)의 이용자들에 의해 생성되고 상기 비디오 콘텐트의 적어도 하나의 샷을 포함하는 적어도 2개의 비디오 매쉬업들(A)에 관한 정보를 모니터링하는 것을 준비한다.
그렇게 행하기 위해, 아키텍처는 네트워크에서 비디오 서비스 제공자(1)로부터 비디오 콘텐트(B)를 자동으로 요약하기 위한 애플리케이션(2)을 포함하고, 상기 애플리케이션은 상기 비디오 콘텐트의 적어도 하나의 샷을 포함하는 적어도 2개의 비디오 매쉬업들(A)에 관한 이러한 정보를 모니터링하기 위한 적어도 하나의 모듈을 포함한다.
특히, 처리는 비디오 매쉬업들(A)에 관한 정보가 상기 비디오 매쉬업들의 기술자(descriptor)들로부터 모니터링되는 것을 규정할 수 있고, 상기 기술자들은 데이터베이스에 저장된다. 비디오 파일 즉, 가공되지 않은 비디오 콘텐트 또는 비디오 매쉬업의 기술자는 .xml 파일과 같은, 특정 포맷을 갖는 파일이고, 원래의 비디오 콘텐트의 URL(Uniform Resource Locator) 어드레스, 상기 비디오 파일의 시작 및 끝, 초 당 프레임(FPS) 레이트, 또는 상기 파일의 기속기간과 같은, 상기 비디오 파일에 관한 기술적 정보를 포함한다.
그렇게 행하기 위해, 메뉴얼 비디오 구성 애플리케이션(3)은 이러한 데이터베이스(4)를 포함하고, 상기 애플리케이션의 이용자들이 그들의 생성된 비디오 매쉬업들(A)의 기술자들을 저장하여, 상기 비디오 매쉬업들에 또는 원래의 비디오 콘텐트들(B)에 액세스하기를 원하는 이용자가 기술자를 단지 추출하게 할 것이고 따라서, 대응하는 비디오 서비스 제공자들(1)로부터 상기 비디오 매쉬업들 또는 콘텐트들을 다운로드할 필요가 없을 것이다.
도 3과 관련하여, 애플리케이션(2)은 상기 구성 애플리케이션의 데이터베이스(4)로부터 관련 비디오 매쉬업들(A)의 기술자들을 추출하기 위해 메뉴얼 비디오 구성 애플리케이션(3)과 상호작용하기 위한 수단을 포함하여, 요약 애플리케이션(2)의 모니터링을 위한 적어도 하나의 모듈이 상기 기술자들로부터의 상기 매쉬업들에 관한 정보를 모니터링하게한다.
따라서, 처리는 비디오 콘텐트(B)의 가장 인기있는 샷들을 식별하기 위해 모니터링된 정보를 분석하는 것을 준비한다. 그렇게 행하기 위해, 요약 애플리케이션(2)의 모니터링을 위한 적어도 하나의 모듈은 가장 인기있는 샷들을 식별하기 위해 모니터링된 정보를 분석하기 위한 수단을 포함한다.
특히, 모니터링된 정보는 비디오 매쉬업들(A)에 나타나는 비디오 콘텐트(B)의 샷들을 포함하여, 비디오 매쉬업들(A) 상에 가장 많이 나타나는 샷들이 가장 인기있는 샷들로서 식별될 수 있도록 한다.
그렇게 행하기 위해, 요약 애플리케이션(2)은 비디오 콘텐트(B)의 적어도 하나의 샷, 특히 상기 비디오 매쉬업들에 나타나는 상기 비디오 콘텐트의 샷들을 포함하는 비디오 매쉬업들(A)의 결합들을 모니터링하기 위한 모듈(5)을 포함하고, 상기 모듈은 비디오 콘텐트(B)의 샷들에 관한 통계 데이터를 추출하고, 따라서 상기 데이터로부터, 가장 인기있는 샷들로서 비디오 매쉬업들(A) 상에 가장 많이 나타나는 상기 비디오 콘텐트의 샷들을 식별하기 위해 상기 결합들을 분석하기 위한 수단을 포함한다. 특히, 통계 데이터들은 메뉴얼 비디오 구성 애플리케이션(3)의 특정 수단에 의해 계산되고 상기 구성 애플리케이션의 데이터베이스(4)에 저장되며, 결합들을 모니터링하기 위한 모듈(5)은 상기 데이터베이스와 상호작용하여 모니터링된 매쉬업들(A)에서 발생하는 샷들에 관련된 통계 데이터들을 추출한다.
통계 데이터들은 특히, 비디오 콘텐트(B)의 각각의 샷의 발생들의 스코어(score)들을 포함하고, 상기 스코어들은 정치, 스포츠, 또는 사업과 같은, 상이한 콘텍스트들에서 계산된다. 그들은 수들, 기간에 걸친 주파수들, 퍼센티지들 또는 트렌트(trent)들의 형태일 수 있고, 그들은 뷰들, 공유들, 편집들, 코멘트들 또는 메타데이터들의 수에 또한 연결될 수 있다. 요약하기 위해, 샷들, 매쉬업들(A)에 관한 모든 종류들의 동작들 및/또는 상호작용들 및/또는 모든 종류들의 비디오 콘텐트(B)는 메뉴얼 비디오 구성 애플리케이션(3)에 의해 리코딩(recording)될 수 있고 통계 데이터로서 이용될 수 있다.
미리 정의된 규칙들에 따라 비디오 콘텐트의 가장 인기있는 샷들을 식별하기 위한 처리가 제공될 수 있다. 그렇게 행하기 위해, 요약 애플리케이션(2)은 미리 정의된 규칙들의 적어도 하나의 모듈(6)을 포함하고, 모듈(5)은 미리 정의된 규칙들의 상기 모듈과 상호작용하기 위한 수단을 포함한다. 도 3에 관련하여, 요약 애플리케이션(2)은 미리 정의된 규칙들을 저장하기 위한 전용 데이터베이스(7)를 포함하고, 미리 정의된 규칙들의 모듈(6)은 관련된 미리 정의된 규칙들을 추출하기 위해 모듈(5)과의 상호작용 시에 상기 데이터베이스와 상호작용한다.
미리 정의된 규칙들은 가장 인기있는 샷들의 식별을 위한 규칙들을 포함한다. 예를 들면, 상기 샷이 5분 미만의 총 지속기간을 제공하는 경우에만, 빈도를 이용하여 가장 높은 하나를 갖는 샷을 인기있는 것으로서 선택하기 위한 규칙이 제공될 수 있다. 게다가, 총 지속기간이 5분 이상인 인기있는 샷을 트리밍(trimming)하기 위한 동반 규칙(corollary rule)이 제공될 수 있다.
특히, 요약의 더 양호한 개인화를 위해, 처리는, 규칙들이 이용자에 의해 미리 정의됨을 규정할 수 있다. 그렇게 행하기 위해, 도 3에 관련하여, 요약 애플리케이션(2)은 이용자가 규칙들을 미리 정의하도록 허용하기 위한 모듈(8)을 포함하고, 상기 모듈은 이용자가 이러한 사전 정의를 하도록 허용하기 위해 상기 요약 애플리케이션의 이용자 인터페이스 상에 전용 서브 인터페이스를 제공하기 위한 수단을 포함한다.
표현되지 않은 변형에 따라, 미리 정의된 규칙들을 저장하기 위한 데이터베이스(7) 및/또는 이용자 사전 정의를 위한 모듈(8)의 특징들은 미리 정의된 규칙들의 모듈(6)에서 구현될 수 있다.
처리는 비디오 요약을 편집하는 것을 준비하고, 상기 비디오 요약은 비디오 콘텐트(B)의 식별된 샷들 중 적어도 하나를 포함한다. 그렇게 행하기 위해, 요약 애플리케이션(2)은 모니터링하고 분석하기 위한 적어도 하나의 모듈과 협력하여 이러한 비디오 요약을 편집하기 위한 적어도 하나의 모듈(9)을 포함한다.
특히, 편집 모듈(9)은 비디오 콘텐트(B)의 식별된 가장 인기있는 샷들 연결함으로써(chaining) 비디오 요약을 편집하기 위해, 비디오 매쉬업들(A)의 구성들을 모니터링하고 분석하기 위한 모듈(5)과 상호작용하기 위한 수단을 포함한다.
미리 정의된 규칙들에 따라 비디오 요약을 편집하기 위한 처리가 또한 제공될 수 있다. 그렇게 행하기 위해, 미리 정의된 규칙들의 모듈(6)은 비디오 요약의 편집을 위한 전용 규칙들을 포함할 수 있고, 편집 모듈(9)은 미리 정의된 규칙들의 상기 모듈과 상호작용하기 위한 수단을 포함한다.
예를 들면, 미리 정의된 규칙들은 제목 및/또는 전이가 비디오 요약의 샷들 사이에 부가되어야 함을 나타내는 규칙을 포함할 수 있다. 그들은 비디오 콘텐트의 총 지속기간 중 기껏해야 10%로 비디오 요약 기속기간을 제한하기 위한 규칙, 또는 가능하면 자막들을 부가하기 위한 규칙을 또한 포함할 수 있다.
도 2에 관련하여, 편집된 비디오 요약(S1, S2)은 상이한 구성, 및 특히 적용된 미리 정의된 규칙들에 따라 상이한 지속기간을 제공할 것이다. 표현된 매쉬업들(A)의 구성들의 분석 시에, 이러한 분석을 위한 모듈(5)은 샷(C)이 상기 매쉬업들 중 4개에 나타나도록, 가장 관련된 비디오 콘텐트(B)로서 상기 샷(C)을 식별했다. 따라서, 미리 정의된 편집 규칙들에 따라, 편집 모듈(9)은 단지 가장 관련된 샷(C)을 포함하는 짧은 오디오 요약(S1), 또는 비디오 콘텐트(B)의 또한 다른 덜 인기있는 샷들(D, E, F)을 포함하는 긴 비디오 요약(S2)을 편집할 것이고, 상기 샷들은 매쉬업들(A) 중 하나에 적어도 나타난다.
비디오 매쉬업들(A)에 관한 정보는 상기 매쉬업들의 생성 동안 이용자들에 의해 입력되는 텍스트 데이터를 또한 포함할 수 있고, 상기 텍스트 데이터는 비디오 요약에 대한 텍스트 설명을 편집하기 위해 추가로 분석된다. 그렇게 행하기 위해, 요약 애플리케이션(2)은 비디오 매쉬업들(A)의 텍스트 데이터를 모니터링 및 분석하기 위한 모듈(10)을 포함하고, 편집 모듈(9)은 상기 분석에 따라 비디오 요약에 대한 텍스트 설명을 편집하기 위한 수단을 포함한다.
비디오 매쉬업들(A)에 관한 정보는 메타데이터 및/또는 주석들을 또한 포함할 수 있고, 상기 메타데이터 및/또는 주석들은 비디오 요약에 대한 비디오 전이들을 편집하기 위해 추가로 분석된다. 특히, 비디오 매쉬업(A)의 메타데이터 및/또는 주석들은 상기 비디오 매쉬업의 생성의 콘텍스트 즉, 상기 비디오 매쉬업의 타겟된 청중 또는 주요 주제에 관한 것일 수 있다. 그렇게 행하기 위해, 요약 애플리케이션(2)은 비디오 매쉬업들(A)의 메타데이터 및/또는 주석들을 모니터링하고 분석하기 위한 모듈(11)을 포함하고, 편집 모듈(9)은 상기 분석에 따라 비디오 요약에 대한 적절한 비디오 전이들을 편집하기 위한 수단을 포함한다.
관련된 비디오 매쉬업들(A) 중 적어도 하나가 적어도 2명의 이용자들에 의해 생성될 때, 상기 매쉬업의 생성 동안 상기 이용자들 사이에 발생한 대화들을 저장하기 위한 처리가 또한 제공될 수 있고, 상기 대화들은 상기 매쉬업에 관한 정보로서 추가로 모니터링되고 비디오 요약을 편집하기 위해 분석된다. 특히, 대화들은 비디오 포맷, 오디오 포맷 및/또는 텍스트 포맷과 같은, 임의의 유형의 포맷으로 제공될 수 있다.
그렇게 행하기 위해, 요약 애플리케이션(2)은 이러한 대화들을 저장하기 위한 모듈(12)을 포함하고, 상기 모듈은 상기 대화들을 관련된 비디오 매쉬업들에 관한 정보로서 모니터링 및 분석하기 위한 수단을 포함하여, 편집 모듈(9)이 상기 분석에 따라 비디오 요약을 편집하게 한다.
특히, 처리는 비디오 요약을 지속적으로 및 동적으로 업데이트하는 것을 준비할 수 있어서, 이용자들이 지금까지의 및 지속적으로 풍부한 비디오 요약들로부터 이득을 얻을 수 있게 할 것이다. 따라서, 정보는 이전 비디오 매쉬업들의 업데이트들 및/또는 상기 매쉬업들을 생성한 이용자들의 프로파일들의 업데이트들, 및/또는 심지어 비디오 콘텐트(B)의 적어도 하나의 샷을 포함하는 생성된 새로운 비디오 매쉬업들에 관한 정보를 또한 포함할 수 있다. 실제로, 이러한 업데이트들은 비디오 콘텐트(B)의 샷들의 인기도에 특히 영향을 미칠 수 있다.
그렇게 행하기 위해, 요약 애플리케이션(2)은 이러한 상기 언급된 정보들 중 적어도 하나를 모니터링하고 분석하기 위한 적어도 하나의 모듈을 포함한다. 도 3에 관련하여, 요약 애플리케이션은 이전 비디오 매쉬업들의 업데이트들 및 상기 매쉬업들을 생성한 이용자들의 프로파일들의 업데이트들을 각각 모니터링하고 분석하기 위한 2개의 모듈들(13, 14)을 포함한다. 특히, 이들 모듈들(13, 14) 각각은 편집된 비디오 요약과 각각의 비디오 매쉬업들 사이의 링크들 및 이용자들의 프로파일들을 저장하기 위한 수단을 포함하여, 편집하기 위한 적어도 하나의 모듈이 이러한 데이터의 모니터링 및 분석에 따라 비디오 요약을 편집 즉, 업데이트하게 한다.
생성된 새로운 비디오 매쉬업들에 관련하여, 모니터링 및 분석하기 위한 이전에 언급된 모든 모듈들(5, 10, 11, 12)은 그들을 고려하도록 적응되어, 편집하기 위한 적어도 하나의 모듈이 비디오 요약을 편집 즉, 업데이트하게 한다.
도 3에 관련하여, 요약 애플리케이션(2)은 새로운 통계 데이터, 텍스트 데이터, 메타데이터 및/또는 주석들을 고려하기 위해, 새로운 비디오 요약들을 편집하기 위한 모듈(9) 및 상기 언급된 업데이팅 정보의 분석에 따라 이전에 편집된 비디오 요약들을 편집 즉, 업데이트하기 위한 전용 모듈(15)을 포함한다. 표현되지 않은 변형에 따라, 편집하기 위한 이들 모듈들(9, 15) 둘 모두의 특징들은 편집하기 위한 고유한 모듈에서 구현될 수 있다.
비디오 요약을 더 양호하게 개인화하기 위해, 처리는 이용자가 편집된 비디오 요약에 대한 피드백을 제공하도록 허용하는 것을 준비할 수 있고, 상기 피드백은 정보로서 추가로 모니터링되고 상기 비디오 요약을 편집하기 위해 분석된다. 게다가, 이용자의 중재는 오디오의 고전적인 분석과 비디오 콘텐트(B)의 비디오 파일들 사이에서 특히 관측될 수 있는 시멘틱 갭과 같은, 비디오 요약의 공지된 방법들의 결점들을 회피하는 것을 또한 허용할 수 있다.
그렇게 행하기 위해, 요약 애플리케이션(2)은 이용자가 이러한 피드백을 제공하도록 허용하기 위한 모듈(16)을 포함하고, 상기 모듈은 상기 피드백을 모니터링하고 분석하기 위한 수단을 포함하여, 업데이트 모듈(15)이 상기 분석에 따라 비디오 요약을 다시 편집하게 한다.
도 1 및 도 3에 관련하여, 요약 애플리케이션(2)은 편집된 비디오 요약들의 기술자들을 저장하기 위한 데이터베이스(17)를 포함하여, 상기 기술자들이 비디오 서비스 제공자들(1)로부터 대응하는 원래의 비디오 콘텐트들(B)을 다운로드하지 않고 상기 요약들을 보기를 원하는 이용자들을 위해 이용가능할 것이다. 그렇게 행하기 위해, 요약 애플리케이션(2)은 그것의 이용자 인터페이스를 통해, 이종의 비디오 서비스 제공자들(1)에 의해 제공된 거대한 재고 중에서 상기 콘텐트들을 정확하게 검색하기 위해 글로벌 액세스 지점을 네트워크의 이용자들에 제공하는 이용자 친화적 비디오 포털 검색을 제공하기 위한 수단을 포함하고, 따라서 상기 콘텐트들을 다운로드하지 않는다.
특히, 도 1 및 도 3에 표현된 바와 같이, 아키텍처는 비디오 요약들에 기초하여 전자 학습(e-learning) 서비스들, 문화 이벤트, 또는 스포츠 이벤트들과 같은, 전용 서비스들을 제공하기 위해 데이터베이스(17)에 저장된 비디오 요약 기술자들을 이용하기 위한 수단을 포함하는 적어도 하나의 애플리케이션 또는 서비스(18)를 포함한다.
지금까지의 비디오 요약들을 이용자들에게 제안하기 위해, 요약 애플리케이션(2)은, 대응하는 비디오 콘텐트(B)가 아키텍처의 비디오 서비스 제공자들(1)로부터 삭제된 비디오 요약을 삭제하기 위한 수단을 또한 포함할 수 있다. 그렇게 행하기 위해, 요약 애플리케이션(2)은 비디오 요약 기술자들 각각에서 원래의 비디오 콘텐트(B)의 URL 어드레스의 유효성을 지속적으로 확인하기 위한 전용 수단을 포함하여, 상기 어드레스가 더 이상 유효하지 않으면 비디오 요약 기술자가 삭제되도록 할 것이다.
이용자들이 비디오 콘텐트들(B)로부터 비디오 매쉬업들(A)을 생성할 때, 처리는 특히, 통계 스코어들 및 데이터에 기초하는 상기 콘텐트들의 내포된 요약을 제공한다. 따라서, 처리는 고전적인 비디오 및/또는 오디오 분석기들의 이용을 요구하지 않는 비디오 요약을 제공하고, 따라서 이러한 분석기들로 일반적으로 관측된 결점들을 회피하는 것을 허용한다. 게다가, 원래의 비디오 콘텐트들(B) 대신에 비디오 기술자들을 이용함으로써, 처리는 많은 양의 비디오 파일들에 대한 액세스를 고유하고 정확한 액세스 지점으로 모으는 것을 허용한다.
설명 및 도면들은 단지 본 발명의 원리들을 도시한다. 따라서, 당업자들이 본 명세서에서 명백하게 설명되거나 도시되지 않을지라도, 본 발명의 원리들을 구현하고 그의 사상 및 범위 내에 포함되는 다양한 장치들을 고안할 수 있을 것임이 이해될 것이다. 또한, 본 명세서에서 나열된 모든 예들은 주로 본 분야를 발전시키기 위해 발명자(들)에 의해 기여된 개념들 및 본 발명의 원리들을 판독자가 이해하는데 도움을 줄 수 있는 단지 교육학적인 목적이 되도록 분명하게 의도되고, 이러한 구체적으로 나열된 예들 및 조건들로의 제한이 없는 것으로서 해석되어야 한다. 또한, 본 발명의 원리들, 양태들, 및 실시예들 뿐만 아니라, 그의 특정 예들을 나열하는 본 명세서에서의 모든 진술들은 그의 등가물들을 포함하도록 의도된다.
1: 비디오 서비스 제공자 2: 요약 애플리케이션
3: 메뉴얼 비디오 구성 애플리케이션 4, 7, 17: 데이터베이스
5, 10, 11, 12: 모니터링 및 분석 모듈 9: 편집 모듈

Claims (13)

  1. 네트워크에서 적어도 하나의 비디오 서비스 제공자(1)의 이용자를 위해 비디오 콘텐트(B)를 자동으로 요약하기 위한 처리에 있어서:
    - 상기 비디오 서비스 제공자들(1)의 이용자들에 의해 생성되는 적어도 2개의 비디오 매쉬업(mashup)들(A)에 관한 정보를 모니터링(monitoring)하는 단계로서, 상기 매쉬업들은 상기 비디오 콘텐트의 적어도 하나의 샷(C, D, E, F)을 포함하는, 상기 모니터링하는 단계;
    - 상기 비디오 콘텐트의 가장 인기있는 샷들(C)을 식별하기 위해 상기 정보를 분석하는 단계; 및
    - 상기 식별된 샷들 중 적어도 하나를 포함하는 비디오 요약(S1, S2)을 편집하는 단계를 제공하는, 비디오 콘텐트를 자동으로 요약하기 위한 처리.
  2. 제 1 항에 있어서,
    상기 모니터링된 정보는 상기 비디오 매쉬업들(A)에 나타나는 상기 비디오 콘텐트(B)의 샷들(C, D, E, F)을 포함하고, 비디오 매쉬업들(A)에 가장 많이 나타나는 상기 샷들(C)은 가장 인기있는 샷들로서 식별되는 것을 특징으로 하는, 비디오 콘텐트를 자동으로 요약하기 위한 처리.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 처리는 미리 정의된 규칙들에 따라 상기 비디오 콘텐트(B)의 가장 인기있는 샷들(C)을 식별하고/하거나 상기 비디오 요약(S1, S2)을 편집하는 것을 준비하는 것을 특징으로 하는, 비디오 콘텐트를 자동으로 요약하기 위한 처리.
  4. 제 3 항에 있어서,
    상기 규칙들은 상기 이용자에 의해 미리 정의되는 것을 특징으로 하는, 비디오 콘텐트를 자동으로 요약하기 위한 처리.
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 매쉬업들(A)에 관한 정보는 상기 비디오 매쉬업들의 기술자(descriptor)들로부터 모니터링(monitoring)되고, 상기 기술자들은 데이터베이스(4)에 저장되는 것을 특징으로 하는, 비디오 콘텐트를 자동으로 요약하기 위한 처리.
  6. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
    상기 비디오 매쉬업들(A)에 관한 정보는 상기 매쉬업들의 생성 동안 이용자들에 의해 입력되는 텍스트 데이터를 포함하고, 상기 텍스트 데이터는 상기 비디오 요약(S1, S2)에 대한 텍스트 설명을 편집하기 위해 분석되는 것을 특징으로 하는, 비디오 콘텐트를 자동으로 요약하기 위한 처리.
  7. 제 1 항 내지 제 6 항 중 어느 한 항에 있어서,
    상기 비디오 매쉬업들(A)에 관한 정보는 메타데이터 및/또는 주석들을 포함하고, 상기 메타데이터 및/또는 주석들은 상기 비디오 요약(S1, S2)에 대한 비디오 전이들을 편집하기 위해 분석되는 것을 특징으로 하는, 비디오 콘텐트를 자동으로 요약하기 위한 처리.
  8. 제 1 항 내지 제 7 항 중 어느 한 항에 있어서,
    적어도 하나의 비디오 매쉬업(A)은 적어도 2명의 이용자들에 의해 생성되고, 상기 처리는 상기 매쉬업의 생성 동안 상기 이용자들 사이에 발생한 대화들을 저장하는 것을 준비하고, 상기 대화들은 정보로서 추가로 모니터링되고 상기 비디오 요약(S1, S2)을 편집하기 위해 분석되는 것을 특징으로 하는, 비디오 콘텐트를 자동으로 요약하기 위한 처리.
  9. 제 1 항 내지 제 8 항 중 어느 한 항에 있어서,
    상기 정보는 이전 비디오 매쉬업들(A)의 업데이트들 및/또는 상기 비디오 매쉬업들을 생성한 상기 이용자들의 프로파일들의 업데이트들 및/또는 상기 비디오 콘텐트(B)의 적어도 하나의 샷(C, D, E, F)을 포함하는 생성된 새로운 비디오 매쉬업들(A)에 관한 정보를 포함하는 것을 특징으로 하는, 비디오 콘텐트를 자동으로 요약하기 위한 처리.
  10. 제 1 항 내지 제 9 항 중 어느 한 항에 있어서,
    상기 처리는 상기 이용자가 상기 편집된 비디오 요약(S1, S2)에 대한 피드백을 제공하도록 허용하는 것을 준비하고, 상기 피드백은 정보로서 추가로 모니터링되고 상기 비디오 요약(S1, S2)을 편집하기 위해 분석되는 것을 특징으로 하는, 비디오 콘텐트를 자동으로 요약하기 위한 처리.
  11. 네트워크에서 비디오 서비스 제공자(1)로부터 비디오 콘텐트(B)를 자동으로 요약하기 위한 애플리케이션(2)에 있어서:
    - 상기 비디오 서비스 제공자들(1)의 이용자들에 의해 생성되는 적어도 2개의 비디오 매쉬업들(A)에 관한 정보를 모니터링하기 위한 적어도 하나의 모듈(5, 10, 11, 12, 13, 14, 16)로서, 상기 매쉬업들은 상기 비디오 콘텐트의 적어도 하나의 샷(C, D, E, F)을 포함하고, 상기 모듈은 상기 비디오 콘텐트의 가장 인기있는 샷들(C)을 식별하기 위해 상기 정보를 분석하기 위한 수단을 포함하는, 상기 적어도 하나의 모듈5, 10, 11, 12, 13, 14, 16); 및
    - 상기 식별된 샷들 중 적어도 하나를 포함하는 비디오 요약을 편집하기 위한 적어도 하나의 모듈(9, 15)을 포함하는, 비디오 콘텐트를 자동으로 요약하기 위한 애플리케이션.
  12. 제 11 항에 있어서,
    상기 애플리케이션은 상기 비디오 매쉬업들(A)에 나타나는 상기 비디오 콘텐트(B)의 샷들(C, D, E, F)을 모니터링하고 분석하기 위한 모듈(5)로서, 비디오 매쉬업들(A)에 가장 많이 나타나는 상기 샷들(C)을 가장 인기있는 샷들로서 식별하는, 상기 모니터링하고 분석하기 위한 모듈(5)을 포함하는 것을 특징으로 하는, 비디오 콘텐트를 자동으로 요약하기 위한 애플리케이션.
  13. 적어도 하나의 비디오 서비스 제공자(1) 및 네트워크의 이용자들이 상기 서비스 제공자들의 적어도 하나의 비디오 콘텐트(B)로부터 비디오 매쉬업들(A)을 생성하도록 허용하기 위한 메뉴얼 비디오 구성 애플리케이션(3)을 포함하는 상기 네트워크를 위한 아키텍처로서, 이용자를 위해 비디오 콘텐트(B)를 자동으로 요약하기 위한 애플리케이션(2)을 추가로 포함하는, 상기 아키텍처에 있어서,
    상기 애플리케이션은:
    - 적어도 2개의 비디오 매쉬업들(A)에 관한 정보를 모니터링하기 위한 적어도 하나의 모듈(5, 10, 11, 12, 13, 14, 16)로서, 상기 매쉬업들은 상기 비디오 콘텐트의 적어도 하나의 샷(C, D, E, F)을 포함하고, 상기 모듈은 상기 비디오 콘텐트의 가장 인기있는 샷들(C)을 식별하기 위해 상기 정보를 분석하기 위한 수단을 포함하는, 상기 적어도 하나의 모듈(5, 10, 11, 12, 13, 14, 16); 및
    - 상기 식별된 샷들 중 적어도 하나를 포함하는 비디오 요약(S1, S2)을 편집하기 위한 적어도 하나의 모듈(9, 15)을 포함하는, 아키텍처.
KR20157007092A 2012-08-24 2013-08-19 네트워크에서 적어도 하나의 비디오 서비스 제공자의 이용자를 위해 비디오 콘텐트를 자동으로 요약하기 위한 처리 KR20150046221A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP12306020.4A EP2701078A1 (en) 2012-08-24 2012-08-24 Process for summarising automatically a video content for a user of at least one video service provider in a network
EP12306020.4 2012-08-24
PCT/EP2013/067208 WO2014029714A1 (en) 2012-08-24 2013-08-19 Process for summarising automatically a video content for a user of at least one video service provider in a network

Publications (1)

Publication Number Publication Date
KR20150046221A true KR20150046221A (ko) 2015-04-29

Family

ID=46801391

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20157007092A KR20150046221A (ko) 2012-08-24 2013-08-19 네트워크에서 적어도 하나의 비디오 서비스 제공자의 이용자를 위해 비디오 콘텐트를 자동으로 요약하기 위한 처리

Country Status (6)

Country Link
US (1) US20150189402A1 (ko)
EP (1) EP2701078A1 (ko)
JP (1) JP2015532043A (ko)
KR (1) KR20150046221A (ko)
CN (1) CN104756105A (ko)
WO (1) WO2014029714A1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10971191B2 (en) * 2012-12-12 2021-04-06 Smule, Inc. Coordinated audiovisual montage from selected crowd-sourced content with alignment to audio baseline
US20150348587A1 (en) * 2014-05-27 2015-12-03 Thomson Licensing Method and apparatus for weighted media content reduction
US9313556B1 (en) 2015-09-14 2016-04-12 Logitech Europe S.A. User interface for video summaries
US10299017B2 (en) 2015-09-14 2019-05-21 Logitech Europe S.A. Video searching for filtered and tagged motion
US9805567B2 (en) 2015-09-14 2017-10-31 Logitech Europe S.A. Temporal video streaming and summaries
CN108351965B (zh) 2015-09-14 2022-08-02 罗技欧洲公司 视频摘要的用户界面
WO2018203920A1 (en) * 2017-05-05 2018-11-08 Google Llc Summarizing video content
US10904446B1 (en) 2020-03-30 2021-01-26 Logitech Europe S.A. Advanced video conferencing systems and methods
US10951858B1 (en) 2020-03-30 2021-03-16 Logitech Europe S.A. Advanced video conferencing systems and methods
US10972655B1 (en) 2020-03-30 2021-04-06 Logitech Europe S.A. Advanced video conferencing systems and methods
US10965908B1 (en) 2020-03-30 2021-03-30 Logitech Europe S.A. Advanced video conferencing systems and methods

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002087219A2 (en) * 2001-04-23 2002-10-31 Svod Llc Program guide enhancements
JP2005284392A (ja) * 2004-03-26 2005-10-13 Toshiba Solutions Corp ダイジェスト配信リスト生成サーバ及びダイジェスト配信リスト生成プログラム
JP2006186672A (ja) * 2004-12-27 2006-07-13 Toshiba Corp 映像再生装置、ネットワークシステム及び映像再生方法
US20070297755A1 (en) * 2006-05-31 2007-12-27 Russell Holt Personalized cutlist creation and sharing system
US10282425B2 (en) * 2007-03-19 2019-05-07 Excalibur Ip, Llc Identifying popular segments of media objects
JP4360425B2 (ja) * 2007-06-15 2009-11-11 ソニー株式会社 画像処理装置、その処理方法およびプログラム
JP5169239B2 (ja) * 2008-01-18 2013-03-27 ソニー株式会社 情報処理装置および方法、並びにプログラム
WO2013001135A1 (en) * 2011-06-28 2013-01-03 Nokia Corporation Video remixing system
US9363488B2 (en) * 2012-01-06 2016-06-07 Nokia Technologies Oy Methods, apparatuses and computer program products for analyzing crowd source sensed data to determine information related to media content of media capturing devices
WO2014001607A1 (en) * 2012-06-29 2014-01-03 Nokia Corporation Video remixing system

Also Published As

Publication number Publication date
CN104756105A (zh) 2015-07-01
JP2015532043A (ja) 2015-11-05
US20150189402A1 (en) 2015-07-02
EP2701078A1 (en) 2014-02-26
WO2014029714A1 (en) 2014-02-27

Similar Documents

Publication Publication Date Title
KR20150046221A (ko) 네트워크에서 적어도 하나의 비디오 서비스 제공자의 이용자를 위해 비디오 콘텐트를 자동으로 요약하기 위한 처리
US10587919B2 (en) Cognitive digital video filtering based on user preferences
JP6122998B2 (ja) ビデオ内ブックマーキングに関する方法、及び非一時的コンピュータ可読記録媒体
Gao et al. Vlogging: A survey of videoblogging technology on the web
US8489600B2 (en) Method and apparatus for segmenting and summarizing media content
US10628477B2 (en) Search-based navigation of media content
US10264314B2 (en) Multimedia content management system
US8108257B2 (en) Delayed advertisement insertion in videos
KR101649499B1 (ko) 연결된 미디어 장치들에서의 키워드 선택을 통한 채널 네비게이션
US20130195422A1 (en) System and method for creating customized on-demand video reports in a network environment
US20100088726A1 (en) Automatic one-click bookmarks and bookmark headings for user-generated videos
US8909617B2 (en) Semantic matching by content analysis
US20140074866A1 (en) System and method for enhancing metadata in a video processing environment
US8700650B2 (en) Search results comparison methods and systems
TWI790270B (zh) 用於多媒體聚焦之方法、系統及非暫時性電腦可讀媒體
US20220107978A1 (en) Method for recommending video content
US11756301B2 (en) System and method for automatically detecting and marking logical scenes in media content
Steiner et al. Crowdsourcing event detection in YouTube video
US20140136526A1 (en) Discovery of live and on-demand content using metadata
KR20150075171A (ko) 원격 사용자 인터페이스 제공 시스템 및 그의 원격 사용자 인터페이스 제공 방법
KR101471522B1 (ko) 콘텐츠의 생성 및 소비에 기반한 개인 정보 제공 시스템
Apostolidis et al. Facilitating the Production of Well-Tailored Video Summaries for Sharing on Social Media
Bailer et al. A video browsing tool for content management in postproduction
Gayathri et al. A generic approach for video indexing
Yang et al. Serving a video into an image carousel: system design and implementation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal