KR20190091215A - Method and apparatus for streaming multimedia data without transcoding using meta data - Google Patents

Method and apparatus for streaming multimedia data without transcoding using meta data Download PDF

Info

Publication number
KR20190091215A
KR20190091215A KR1020190009798A KR20190009798A KR20190091215A KR 20190091215 A KR20190091215 A KR 20190091215A KR 1020190009798 A KR1020190009798 A KR 1020190009798A KR 20190009798 A KR20190009798 A KR 20190009798A KR 20190091215 A KR20190091215 A KR 20190091215A
Authority
KR
South Korea
Prior art keywords
video
meta
metadata
user terminal
information
Prior art date
Application number
KR1020190009798A
Other languages
Korean (ko)
Inventor
장연호
장준호
Original Assignee
드림투비 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 드림투비 주식회사 filed Critical 드림투비 주식회사
Publication of KR20190091215A publication Critical patent/KR20190091215A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • H04N21/23106Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion involving caching operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Abstract

A method for providing an edited video without encoding using meta data, which is performed by a server, comprises the following steps: (a) receiving a request for playing a video including tag information from a user terminal; (b) searching a video and meta data matched with the tag information; (c) extracting a playing section corresponding to the meta data in the searched video based on playing section information included in the searched meta data and generating a meta video; and (d) providing the meta video to the user terminal. The meta video is an edited video which the user terminal wants to stream. The meta data comprises the playing section information for generating the meta video and the tag information for searching the meta video. The tag information is search information for searching the meta data.

Description

메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 방법 및 장치 {METHOD AND APPARATUS FOR STREAMING MULTIMEDIA DATA WITHOUT TRANSCODING USING META DATA}METHOD AND APPARATUS FOR STREAMING MULTIMEDIA DATA WITHOUT TRANSCODING USING META DATA}

본 발명은 동영상의 특정 장면을 별도의 인코딩 없이 추출하여, 사용자 단말로 제공하는 방법에 관한 것이다.The present invention relates to a method of extracting a specific scene of a video without additional encoding and providing the same to a user terminal.

일반적으로 동영상의 트랜스코딩(transcoding)은 디코딩, 이미지 리사이즈, 그리고 동영상 인코딩과정을 거치게 된다. 또한 동영상 인코딩을 수행하기 위해서는 사전에 동영상의 해상도, 비트율, 코덱, 프레임율의 인코딩 프로파일이 지정되어야 하므로 방법이 복잡하다. 따라서, 사용자가 동영상의 원하는 부분만을 시청하기 위해 인코딩 작업을 수행해야 하므로 시간이 더 소요되는 문제점을 더 가지게 된다.In general, transcoding of video goes through decoding, image resizing, and video encoding. In addition, in order to perform video encoding, an encoding profile of a resolution, bit rate, codec, and frame rate of a video must be specified in advance, which is complicated. Therefore, since the user needs to perform encoding to watch only the desired portion of the video, there is a problem that takes more time.

예를 들어, 1시간 분량의 동영상 콘텐츠의 특정 부분에만 사용자가 관심을 가지는 경우 사용자는 1시간 분량을 모두 다운로드 후 원하는 부분을 탐색하거나 동영상 서비스 제공자가 해당하는 부분을 편집하여 새롭게 인코딩하는 방법을 따르게 되는 것이다.For example, if a user only cares about a specific part of an hour's worth of video content, the user can download the entire hour and then browse to the desired part, or the video service provider can edit the part and follow the new encoding method. Will be.

또한, 실시간 트랜스코딩 시스템은 요청된 영상에 대한 트랜스코딩 서비스를 수행하는 과정에서 전 캐시 데이터 존재 유무를 체크한다. 만약, 동일한 콘텐츠 식별 인덱스가 캐시 리스트에 존재할 시 동영상 실시간 트랜스코딩을 생략하고 캐시 콘텐츠로 스트리밍 서비스를 제공하는 추세이다.In addition, the real-time transcoding system checks the presence of all cache data in the process of performing a transcoding service for the requested image. If the same content identification index exists in the cache list, video streaming is skipped and real time streaming services are provided.

하지만, 트랜스 코딩을 생략하고, 캐시 콘텐츠를 통해 사용자에게 스트리밍을 제공하는 시스템이 구축된 업체가 많지 않은 상황이다.However, there are not many companies that have implemented a system that omits transcoding and provides streaming to users through cache contents.

본 발명이 해결하고자 하는 과제는 기존의 동영상 파일을 기반으로 인코딩작업을 거치지 않고 새로운 동영상으로 편집하고 이를 스트리밍 하는 것을 목적으로 한다.The problem to be solved by the present invention is to edit and stream the new video without going through the encoding operation based on the existing video file.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서 본 발명의 일 실시예에 따른, 서버에 의해 수행되는, 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 방법에 있어서, (a) 사용자 단말로부터 태그 정보를 포함하는 동영상 재생 요청을 수신하는 단계; (b) 태그 정보에 매칭되는 동영상과 메타 데이터를 검색하는 단계; (c) 검색된 메타 데이터가 포함하는 재생 구간 정보에 기초하여 검색된 동영상에서 메타 데이터에 대응하는 재생 구간을 추출하여 메타 동영상을 생성하는 단계; 및 (d) 메타 동영상을 사용자 단말로 제공 하는 단계;를 포함하되, 메타 동영상은 사용자 단말이 스트리밍 받기를 원하는 편집된 동영상을 뜻하고, 메타 데이터는 메타 동영상을 생성하기 위한 재생 구간 정보와 이를 검색하기 위한 태그 정보를 포함하고, 태그 정보는 메타 데이터를 검색하기 위한 검색어 정보일 수 있다.In the method for providing an edited video without encoding using metadata, performed by a server according to an embodiment of the present invention as a technical means for achieving the above technical problem, (a) tag information from a user terminal; Receiving a video playing request including; (b) retrieving video and metadata matching tag information; (c) generating a meta video by extracting a playback section corresponding to the metadata from the searched video based on the playback section information included in the searched metadata; And (d) providing a meta video to the user terminal, wherein the meta video refers to an edited video that the user terminal wants to stream, and the meta data refers to playback section information for generating the meta video and search for the same. The tag information may be included, and the tag information may be search term information for searching meta data.

또한, 본 발명의 다른 일 실시예에 따른, 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 장치에 있어서, 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 프로그램이 저장된 메모리 및 메모리에 저장된 프로그램을 실행하여 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 동작을 실행하는 프로세서를 포함하되, 프로세서는 사용자 단말로부터 태그 정보를 포함하는 동영상 재생 요청을 수신하고, 태그 정보에 매칭되는 동영상과 메타 데이터를 검색하고, 검색된 메타 데이터가 포함하는 재생 구간 정보에 기초하여 검색된 동영상에서 메타 데이터에 대응하는 재생 구간을 추출하여 메타 동영상을 생성하고, 메타 동영상을 사용자 단말로 제공하되, 메타 동영상은 사용자 단말이 스트리밍 받기를 원하는 편집된 동영상을 뜻하고, 메타 데이터는 메타 동영상을 생성하기 위한 재생 구간 정보와 이를 검색하기 위한 태그 정보를 포함하고, 태그 정보는 메타 데이터를 검색하기 위한 검색어 정보인 장치일 수 있다.In addition, according to another embodiment of the present invention, in the apparatus for providing an edited video without encoding using the metadata, a program for providing an edited video without encoding using the metadata is stored in the memory and the program stored in the memory And a processor that performs an operation of providing an edited video without encoding using metadata, wherein the processor receives a video play request including tag information from a user terminal, retrieves video and metadata matching the tag information, The meta video is generated by extracting a play section corresponding to the meta data from the searched video based on the play section information included in the searched meta data, and provides the meta video to the user terminal. Edited video And means, the metadata includes the tag information for the playback period information to generate the metadata and video to detect it, and the tag information may be an information search unit for searching the metadata.

본 발명에 따른, 기존의 동영상 파일을 기반으로 인코딩작업을 거치지 않고 새로운 동영상으로 편집하고 이를 스트리밍 할 수 있게 된다.According to the present invention, it is possible to edit and stream a new video without going through the encoding operation based on the existing video file.

또한, 새롭게 생성될 동영상에 대한 메타 정보만을 포함하고 있어 실제로 동영상이 존재하지 않지만, 사용자의 요청에 따라 메타 동영상 스트리밍 서버가 실시간으로 동영상을 생성할 수 있다.In addition, since only the meta information about the newly generated video does not exist in reality, the meta video streaming server may generate the video in real time according to a user's request.

사용자는 손쉽게 자신이 원하는 동영상을 생성하여 감상할 수 있게 된다. 이는 마치 종래의 DVD에서 제공하는 챕터링 기능과 유사하게 동작하게 되는 것이다. 서버의 운영자는 메타 데이터가 포함하는 동영상의 태그 정보, 시작 시간, 종료 시간, 재생 시간, 코덱 정보 등의 리스트에 기초하여 시스템의 부하를 줄이기 위해 메타 동영상 캐시 시스템을 고려할 수 있다.Users can easily create and watch their own videos. This is similar to the chaptering function provided by the conventional DVD. The operator of the server may consider the meta video cache system to reduce the load of the system based on a list of tag information, start time, end time, playback time, codec information, etc. of the video included in the metadata.

도 1 은 본 발명의 일 실시예에 따른, 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 시스템의 구성을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른, 서버의 구성을 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른, 동영상이 제공되는 과정을 나타낸 동작흐름도이다.
도 4는 본 발명의 일 실시예에 따른, 메타 데이터를 생성하는 과정을 나타낸 동작흐름도이다.
1 is a diagram illustrating a configuration of a system for providing an edited video without encoding using metadata according to an embodiment of the present invention.
2 is a diagram illustrating a configuration of a server according to an embodiment of the present invention.
3 is a flowchart illustrating a process of providing a video according to an embodiment of the present invention.
4 is a flowchart illustrating a process of generating metadata according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

본 발명 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다.In the present specification, when a part is "connected" to another part, it is not only "directly connected" but also "electrically connected" with another element in between. Include.

본 발명 명세서 전체에서, 어떤 부재가 다른 부재 “상에” 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is located “on” another member, this includes not only when one member is in contact with another member but also when another member exists between the two members.

본 발명 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 본 발명 명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다.In the present specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding other components unless specifically stated otherwise. The terms "about", "substantially", and the like as used throughout the specification of the present invention are used at or near the numerical values when the manufacturing and material tolerances unique to the meanings mentioned are given, and To aid in understanding, accurate or absolute figures are used to prevent unscrupulous infringers from using the disclosures mentioned. As used throughout the specification, the term "step" or "step of" does not mean "step for."

명세서 전체에서, 서버(100)는 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 장치를 의미할 수 있다.In the entire specification, the server 100 may refer to an apparatus for providing an edited video without encoding using metadata.

도 1은 본 발명의 일 실시예에 따른, 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 시스템(1)의 구성을 나타낸 도면이다.1 is a diagram showing the configuration of a system 1 for providing an edited video without encoding using metadata according to an embodiment of the present invention.

도 1을 참조하면, 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 시스템(1)은 서버(100)와 사용자 단말(200)을 포함하며, 이를 통신망이 상호 연결하고 있다.Referring to FIG. 1, a system 1 for providing an edited video without encoding using metadata includes a server 100 and a user terminal 200, which are interconnected by a communication network.

본 명세서에서 제시하는 시스템(1)은 사용자가 시청하기 원한 동영상의 일 부분을 별도의 편집 작업이나 인코딩 작업을 수행하지 않고, 메타 동영상으로 생성하여 사용자 단말(200)로 스트리밍 하여 제공하게 된다.The system 1 proposed in this specification generates a meta video and streams it to the user terminal 200 without performing a separate editing work or encoding work for a part of the video that the user wants to watch.

이때, 메타 동영상이란 사용자가 시청하기 원하는 편집된 동영상을 뜻할 수 있다. 예를 들면, 동영상의 일부 재생 구간이나, 추출된 일부 재생 구간들의 결합을 통해 생성된 동영상을 메타 동영상이라고 정의하게 된다.In this case, the meta video may mean an edited video that the user wants to watch. For example, a video generated through a combination of some playback sections of the video or some extracted playback sections is defined as a meta video.

본 발명은 종래의 비디오 콘텐츠(예컨대, DVD와 같은)에서 재생 구간을 나누고, 이를 시청하는 사용자에게 재생 구간을 선택할 수 있도록 제시하는 챕터링(chaptering) 기능과 유사하게 동작하는 것이다.The present invention operates similarly to the chaptering function of dividing a playback section in a conventional video content (e.g., DVD) and presenting a user to select a playback section.

하지만, 종래의 챕터링 기능과는 다르게, 본 발명에서의 메타 동영상은 메타 데이터의 형태로 존재하게 되는 것이다.However, unlike the conventional chaptering function, the meta video in the present invention is present in the form of meta data.

이때, 시스템(1)은 메타 동영상을 생성하기 위한 메타 데이터를 미리 생성하여 데이터베이스에 보관하게 된다.In this case, the system 1 generates meta data for generating a meta video in advance and stores it in a database.

서버(100)는 사용자 단말(200)로부터 동영상 재생 요청을 수신하면, 수신된 동영상 재생 요청에 기초하여 동영상과 메타 데이터를 검색하게 된다. 이후, 검색 결과에 기초하여 메타 동영상을 생성하여 사용자 단말(200)로 제공하는 것을 특징으로 한다.When the server 100 receives a video play request from the user terminal 200, the server 100 searches for video and metadata based on the received video play request. Thereafter, the meta video is generated based on the search result and provided to the user terminal 200.

이때, 동영상 재생 요청은 사용자 단말(200)이 선택한 태그 정보의 집합을 뜻하게 되고, 태그 정보란 메타 동영상과 대응하는 메타 데이터를 검색하기 위한 검색어 정보를 뜻하게 된다.In this case, the video play request refers to a set of tag information selected by the user terminal 200, and the tag information refers to search term information for searching meta data corresponding to the meta video.

이때, 추가 실시예로 태그 정보는 콘텐츠의 ID나 속성 정보로 대체되어 검색에 사용될 수도 있다.In this case, as a further embodiment, the tag information may be replaced with the ID or attribute information of the content and used for the search.

메타 데이터는 메타 동영상을 생성하기 위한 재생 구간 정보와 데이터베이스에서 검색되기 위한 태그 정보로 구성될 수 있다.The metadata may be composed of playback section information for generating a meta video and tag information for searching in a database.

이때, 재생 구간 정보는 동영상에서 메타 동영상을 추출하기 위한 정보를 뜻하며, 메타 데이터의 생성과정을 설명하는 도 4를 통해 더 상세하게 서술하도록 한다.In this case, the playback section information refers to information for extracting the meta video from the video, which will be described in more detail with reference to FIG.

추가 실시예로, 메타 데이터는 코덱 정보, 재생 시간, 사용자의 재생횟수 등을 추가로 더 포함될 수 있다. 이를 이용하여, 서버(100)의 관리자는 서버(100)에 가해지는 부하를 파악하거나 해결할 수 있게 된다.In a further embodiment, the metadata may further include codec information, a play time, a play count of the user, and the like. Using this, the administrator of the server 100 can determine or solve the load applied to the server 100.

사용자 단말(200)은 서버(100)로부터 편집된 동영상을 스트리밍 받는 단말을 뜻할 수 있다. The user terminal 200 may refer to a terminal that receives the edited video stream from the server 100.

따라서, 사용자 단말(200)은 사전에 자신이 스트리밍 받길 원하는 동영상의 재생 구간에 대한 태그 정보를 선택하여 서버(100)로 전달해야 한다.Therefore, the user terminal 200 must select tag information of the playback section of the video that the user wants to stream in advance and transmit it to the server 100.

이때, 사용자 단말(200)은 서버로부터 제공 받은 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 어플리케이션을 통해 서비스를 제공받을 수 있다. 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 어플리케이션은 사용자 단말(200)에 내장된 어플리케이션이거나, 어플리케이션 배포 서버로부터 다운로드되어 사용자 단말(200)에 설치된 어플리케이션일 수 있다.In this case, the user terminal 200 may be provided with a service through an application that provides an edited video without encoding using metadata provided from the server. An application for providing an edited video without encoding using metadata may be an application embedded in the user terminal 200 or an application downloaded from an application distribution server and installed in the user terminal 200.

또한, 사용자 단말(200)들은 유무선 통신 환경에서 단말 어플리케이션을 이용할 수 있는 통신 단말기를 의미한다. 여기서 사용자 단말(200)은 사용자의 휴대용 단말기나 퍼스널컴퓨터일 수 있다. 도 1에서는 사용자 단말(200)이 휴대용 단말기의 일종인 스마트폰(smart phone)으로 도시되었지만, 본 발명의 사상은 이에 제한되지 아니하며, 상술한 바와 같이 단말 어플리케이션을 탑재할 수 있는 단말에 대해서 제한 없이 차용될 수 있다.In addition, the user terminal 200 refers to a communication terminal that can use the terminal application in a wired or wireless communication environment. The user terminal 200 may be a portable terminal or a personal computer of the user. In FIG. 1, although the user terminal 200 is illustrated as a smart phone, which is a kind of portable terminal, the spirit of the present invention is not limited thereto, and as described above, the terminal capable of mounting a terminal application is not limited thereto. Can be borrowed.

이를 더욱 상세히 설명하면, 사용자 단말(200)은 일반적인 퍼스널컴퓨터(personal computer), 핸드헬드 컴퓨팅 디바이스(예를 들면, PDA, 이메일 클라이언트 등), 핸드폰의 임의의 형태, 또는 다른 종류의 컴퓨팅 또는 커뮤니케이션 플랫폼의 임의의 형태를 포함할 수 있으나, 본 발명이 이에 한정되는 것은 아니다.In more detail, the user terminal 200 may be a general personal computer, a handheld computing device (eg, a PDA, an email client, etc.), any form of cellular phone, or other type of computing or communication platform. It may include any form of, but the present invention is not limited thereto.

한편, 통신망은 서버(100)와 사용자 단말(200)을 연결하는 역할을 수행한다. 즉, 통신망은 서버(100)와 사용자 단말(200) 사이로부터 데이터를 송수신할 수 있도록 접속 경로를 제공하는 통신망을 의미한다. 통신망은 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.On the other hand, the communication network serves to connect the server 100 and the user terminal 200. That is, the communication network refers to a communication network that provides a connection path for transmitting and receiving data between the server 100 and the user terminal 200. The communication network may be a wired network such as local area networks (LANs), wide area networks (WANs), metropolitan area networks (MANs), integrated service digital networks (ISDNs), or wireless networks such as wireless LANs, CDMA, Bluetooth, and satellite communications. It may encompass, but the scope of the present invention is not limited thereto.

추가 실시예로, 메타 동영상으로 편집될 동영상은 외부 서버에 저장된 동영상을 불러와 사용할 수 있다. 또 다른 추가 실시예로, 사용자 단말(200)로 메타 동영상의 스트리밍을 진행하는 별도의 외부 서버를 구비하여 진행할 수 있다.In a further embodiment, a video to be edited as a meta video may be used by calling up a video stored in an external server. In still another embodiment, the user terminal 200 may proceed with a separate external server for streaming the meta video.

이러한 추가 실시예는 서버(100)가 가질 수 있는 부하를 낮추고, 다양한 동영상 콘텐츠에 대해 대응할 수 있도록 도움을 줄 수 있다.This additional embodiment may help to reduce the load that the server 100 may have and to respond to various video content.

도 2는 본 발명의 일 실시예에 따른, 서버의 구성을 나타낸 도면이다.2 is a diagram illustrating a configuration of a server according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 서버(100)는 통신 모듈(110), 메모리(120), 프로세서(130), 메타 동영상 생성기(140) 및 데이터베이스(150)를 포함한다.Referring to FIG. 2, the server 100 according to an embodiment of the present invention includes a communication module 110, a memory 120, a processor 130, a meta video generator 140, and a database 150.

상세히, 통신 모듈(110)은 통신망과 연동하여 서버(100)와 사용자 단말(200) 간의 송수신 신호를 패킷 데이터 형태로 제공하는 데 필요한 통신 인터페이스를 제공한다. 나아가, 통신 모듈(110)은 사용자 단말(200)로부터 데이터 요청을 수신하고, 이에 대한 응답으로서 데이터를 송신하는 역할을 수행할 수 있다.In detail, the communication module 110 provides a communication interface necessary for providing a transmission / reception signal between the server 100 and the user terminal 200 in the form of packet data in association with a communication network. In addition, the communication module 110 may receive a data request from the user terminal 200 and transmit a data as a response thereto.

여기서, 통신 모듈(110)은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.Here, the communication module 110 may be a device including hardware and software necessary for transmitting and receiving a signal such as a control signal or a data signal through a wired or wireless connection with another network device.

즉, 서버(100)는 통신 모듈(110)을 통해 동영상 재생 요청을 수신하거나, 스트리밍 서비스를 제공할 수 있게 되는 것이다.That is, the server 100 may receive a video play request or provide a streaming service through the communication module 110.

메모리(120)는 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 위한 프로그램이 기록된다. 또한, 프로세서(130)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 여기서, 메모리(120)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The memory 120 records a program for providing an edited moving picture without encoding using metadata. In addition, the processor 130 performs a function of temporarily or permanently storing data processed. Here, the memory 120 may include a magnetic storage media or a flash storage media, but the scope of the present invention is not limited thereto.

프로세서(130)는 일종의 중앙처리장치로서 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 전체 과정을 제어한다. 프로세서(130)가 수행하는 각 단계에 대해서는 도 3 및 도 4를 참조하여 후술하기로 한다.The processor 130 is a kind of central processing unit that controls the entire process of providing an edited video without encoding using metadata. Each step performed by the processor 130 will be described later with reference to FIGS. 3 and 4.

여기서, 프로세서(130)는 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.Here, the processor 130 may include all kinds of devices capable of processing data, such as a processor. Here, the 'processor' may refer to a data processing apparatus embedded in hardware having, for example, a circuit physically structured to perform a function represented by code or instructions included in a program. As an example of a data processing device embedded in hardware, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, and an application-specific integrated device (ASIC) It may include a processing device such as a circuit, a field programmable gate array (FPGA), etc., but the scope of the present invention is not limited thereto.

메타 동영상 생성기(140)는 기 생성된 동영상 혹은 다양한 콘텐츠를 기반으로 메타 동영상을 생성하는 역할을 수행하게 된다.The meta video generator 140 plays a role of generating a meta video based on a pre-generated video or various contents.

대표적으로 동영상 서비스에 필요한 데이터베이스(150)나 스토리지(CMS(contents management system)의 구성 요소)와 연동하여 데이터베이스(150)에서 동영상을 검색하거나, 메타 동영상을 생성하기 위해 필요한 시간 정보 등의 입력 인터페이스를 통신 모듈(110)을 통해 사용자 단말(200)로 제공하게 된다.Representatively, an input interface such as time information required to retrieve a video from the database 150 or generate a meta video by interworking with a database 150 or storage (a component of a content management system (CMS)) required for a video service. It is provided to the user terminal 200 through the communication module 110.

또한, 메타 동영상 생성기(140)는 기 생성된 동영상 이외에도 복수의 메타 동영상들을 연결하여 새로운 메타 동영상을 생성하는 역할을 수행할 수도 있다.In addition, the meta video generator 140 may serve to generate a new meta video by connecting a plurality of meta videos in addition to the pre-generated video.

데이터베이스(150)는 서비스를 제공하기 위한 동영상, 태그 정보, 메타 데이터 등이 저장될 수 있다. The database 150 may store a video for providing a service, tag information, metadata, and the like.

그뿐만 아니라, 필요에 따라 임시로 생성된 메타 동영상이 저장될 수도 있다.In addition, a temporarily generated meta video may be stored as needed.

비록 도 2에는 도시하지 아니하였으나, 동영상, 태그 정보, 메타 데이터 중 일부는 데이터베이스(150)와 물리적 또는 개념적으로 분리된 데이터베이스(미도시)에 저장될 있다. Although not shown in FIG. 2, some of the video, tag information, and metadata may be stored in a database (not shown) that is physically or conceptually separated from the database 150.

추가 실시예로, 도면에는 도시되어 있지 않으나 캐시 저장소가 더 구비될 수 있다. 이는 실시간 트랜스코딩 서비스를 제공함에 따라 발생되는 동영상의 변화 결과를 임시 저장하는 장소로 사용될 수 있는 것이다. 이때, 저장 포맷은 종래에 사용되는 MP4와 같은 형식을 따를 수 있고, 사용 후 내부 관리 규칙에 따라 삭제될 수도 있다.In a further embodiment, although not shown in the figure, a cache storage may be further provided. This can be used as a place to temporarily store the results of changes in the video generated by providing a real-time transcoding service. At this time, the storage format may follow a format such as MP4 used conventionally, and may be deleted according to an internal management rule after use.

도 3은 본 발명의 일 실시예에 따른, 동영상이 제공되는 과정을 나타낸 동작흐름도이다.3 is a flowchart illustrating a process of providing a video according to an embodiment of the present invention.

도 3을 참조하면, 서버(100)는 사용자 단말(200)로부터 동영상 재생 요청 신호를 수신한다(S310).Referring to FIG. 3, the server 100 receives a video play request signal from the user terminal 200 (S310).

단계(S310) 이전에 서버(100)는 사용자 단말(200)로 적어도 하나 이상의 태그 정보와 해당 태그 정보에 대응하는 동영상의 재생 구간에 대한 정보를 제공하게 된다.Before step S310, the server 100 provides the user terminal 200 with at least one tag information and information about a playback section of a video corresponding to the tag information.

이후 사용자 단말(200)이 선택한 태그 정보에 기초하여 동영상 재생 요청을 수신하는 것이다.Thereafter, the user terminal 200 receives a video playback request based on the selected tag information.

이를 통해, 사용자는 자신이 원하는 동영상의 구간만을 시청하기 위해 어떠한 태그 정보를 선택해야 하는지 인지하여 선택하게 된다.Through this, the user recognizes and selects what tag information to select in order to watch only the section of the video he / she wants.

서버(100)는 동영상 재생 요청에 기초하여 동영상과 메타 데이터를 검색한다(S320).The server 100 searches for video and metadata based on the video playback request (S320).

단계(S310)에서 수신한 동영상 재생 요청이 포함하는 태그 정보에 기초하여 동영상과 메타 데이터를 검색하게 된다.The video and the metadata are searched based on the tag information included in the video play request received in step S310.

이때, 동영상 재생 요청에 복수의 태그 정보가 포함되어 있다면, 복수의 태그 정보가 사용자 단말(200)에 의해 선택된 재생 순서에 기초하여 태그 정보를 순서대로 검색하게 된다.At this time, if a plurality of tag information is included in the video reproduction request, the plurality of tag information is sequentially searched for the tag information based on the playback order selected by the user terminal 200.

예를 들어, 동영상의 태그가 a, b, c, d, e가 있고 사용자 단말(200)이 d, b, e를 선택하여 동영상 재생 요청을 수행했다면, 서버(100)는 데이터베이스(150)에서 d, b, e의 순서로 메타 데이터를 검색하게 되는 것이다.For example, if the tag of the video has a, b, c, d, e, and the user terminal 200 selects d, b, e to perform the video play request, the server 100 in the database 150 Meta data is searched in the order of d, b, and e.

다음으로 서버(100)는 검색된 메타 데이터를 이용하여 메타 동영상을 생성한다(S330).Next, the server 100 generates a meta video using the retrieved metadata (S330).

단계(S320)에서 검색된 메타 데이터가 포함하는 재생 구간 정보에 기초하여 동영상에서 메타 데이터에 대응하는 재생 구간을 추출하여 메타 동영상으로 생성하게 되는 것이다.The playback section corresponding to the metadata is extracted from the video based on the playback section information included in the searched metadata in operation S320 to generate a meta video.

이는 메타 데이터에는 동영상의 기 설정된 구간을 추출하기 위한 척도가 되는 재생 구간 정보가 포함되어 있기 때문이다.This is because the meta data includes playback section information serving as a measure for extracting a predetermined section of the video.

만약, 단계(S320)에서 복수의 메타 데이터가 검색된 경우 단계(S330)에서도 복수의 메타 동영상을 생성하게 된다. 단, 복수의 메타 동영상은 메타 데이터가 검색된 순서에 기초하여 결합하게 되는 것이다.If a plurality of meta data is found in step S320, a plurality of meta videos are generated in step S330. However, the plurality of meta videos are combined based on the search order of the meta data.

앞서 든 예시를 통해 설명하면, 서버(100)이 데이터베이스(150)에서 태그 정보 d, b, e에 대응하는 메타 데이터를 검색하게 되면, 메타 동영상은 d가 포함되는 구간, b가 포함되는 구간, e가 포함되는 구간을 각각 생성하고 이를 결합하게 되는 것이다.In the above example, when the server 100 searches for metadata corresponding to the tag information d, b, and e in the database 150, the meta video includes a section including d, a section including b, Each section including e is generated and combined.

또한, 필요에 따라 메타 동영상은 데이터베이스(150)에 임시로 저장되어 스트리밍용이나 다운로드 용도로 사용될 수 있다.In addition, if necessary, the meta video may be temporarily stored in the database 150 and used for streaming or downloading purposes.

마지막으로 서버(100)는 메타 동영상을 사용자 단말(200)로 스트리밍한다(S340).Finally, the server 100 streams the meta video to the user terminal 200 (S340).

스트리밍 작업은 모바일 환경에서 가장 널리 사용중인 HTTP기반의 순차 다운로드(Progressive Download), HLS 스트리밍, 국제 표준 단체인 MPEG의 DASH 기술 등을 적용 후 사용할 수 있다.Streaming can be used after applying HTTP-based progressive download, HLS streaming, the international standard organization MPEG DASH technology, which is widely used in mobile environment.

또한, 서버(100)가 직접 스트리밍을 진행할 수 있으나, 필요에 따라 외부 스트리밍 서버를 통해 별도로 진행될 수도 있다.In addition, the server 100 may directly stream, but may be separately performed through an external streaming server as necessary.

만약 스트리밍이 종료되면, 서버(100)는 데이터베이스(150)에 임시로 저장된 메타 동영상을 삭제하여 부하를 낮출 수 있다.If streaming ends, the server 100 may lower the load by deleting the meta video temporarily stored in the database 150.

추가 실시예로, 사용자 단말(200)로 메타 동영상의 제공 여부를 묻는 요청을 전달하고, 요청에 대한 회신에 기초하여 메타 동영상을 사용자 단말(200)로 제공하는 기능이 더 포함될 수도 있다.In a further embodiment, a function of transmitting a request for providing a meta video to the user terminal 200 and providing the meta video to the user terminal 200 based on a response to the request may be further included.

도 4는 본 발명의 일 실시예에 따른, 메타 데이터를 생성하는 과정을 나타낸 동작흐름도이다.4 is a flowchart illustrating a process of generating metadata according to an embodiment of the present invention.

도 4를 참조하면, 동영상의 재생 구간을 기 설정된 시간 기준으로 구분한다(S410).Referring to FIG. 4, the playback section of the video is classified based on a preset time (S410).

이때, 동영상의 재생 구간을 촘촘하게 설정할수록 사용자 단말(200)이 원하는 재생 구간을 세부적으로 선택할 수 있게 된다. 하지만, 저장해야 하는 데이터의 수와 서버(100)가 수행해야 하는 작업량이 늘어나기에 용도와 서버(100)의 사양에 맞게 재생 구간을 선택해야만 한다.At this time, the finer the playback section of the video is set, the user terminal 200 can select the desired playback section in detail. However, because the number of data to be stored and the amount of work that the server 100 must perform increases, the playback section must be selected according to the purpose and the specification of the server 100.

다음으로 재생 구간이 구분된 동영상에 기초하여 재생 구간 정보를 생성한다(S420).Next, the playback section information is generated based on the video in which the playback section is divided (S420).

이를 상세하게 설명하면, 서버(100)는 단계(S410)에서 기 설정된 시간 기준에 따라 재생 구간을 구분한 복수로 분할된 동영상을 각각 구별하기 위한 시작 시간과 종료 시간의 데이터를 추출하여 생성하게 되는 것이다.In detail, the server 100 generates and extracts data of a start time and an end time for distinguishing a plurality of divided videos, each of which divides a playback section, according to a preset time reference in operation S410. will be.

예를 들어, 10분의 동영상을 5분 단위인 a, b 동영상으로 구분하면, a는 0분의 시작 시간과 5분의 종료 시간을 가지며, b는 5분의 시작 시간과 10분의 종료 시간을 가지는 2개의 재생 구간 정보가 생성되는 것이다.For example, if a 10 minute video is divided into 5 minute a and b video, a has a start time of 0 minutes and an end time of 5 minutes, and b has a start time of 5 minutes and an end time of 10 minutes. Two pieces of reproduction section information are generated.

추가 실시예로, 복수의 재생 구간 정보가 생성된 경우, 임의로 재생 구간 정보끼리 결합하여, 새로운 재생 구간 정보를 생성할 수도 있다.In a further embodiment, when a plurality of pieces of reproduction section information is generated, new pieces of reproduction section information may be generated by arbitrarily combining the pieces of reproduction sections.

마지막으로 재생 구간 정보와 태그 정보를 결합하여 메타 데이터를 생성한다(S430).Finally, meta data is generated by combining the reproduction section information and the tag information (S430).

이때, 사용되는 태그 종류의 경우 기 설정된 알고리즘에 따라 생성되되, 각각의 재생 구간 정보에 대응하게끔 생성되는 것이다.In this case, the type of tag used is generated according to a preset algorithm, and is generated to correspond to each reproduction section information.

예컨대, a라는 동영상에서 생성된 재생 구간 정보에 대응하는 태그 정보는 a-1, a-2,…a-n으로, b라는 동영상에서 생성된 재생 구간 정보에 대응하는 태그 정보는 b-1, b-2,…,b-n으로 형성하게 되는 것이다.For example, the tag information corresponding to the reproduction section information generated in the video named a is a-1, a-2,... In a-n, tag information corresponding to playback section information generated in a video named b is b-1, b-2,... and b-n.

추가 실시예로, 서버(100)는 실시간으로 재생 중인 동영상에 대해서도 메타 데이터를 생성 및 메타 동영상을 생성하여 사용자 단말(200)로 제공할 수 있다. 이러한 경우, 스트리밍이 아닌 다운로드 방식이나, 타 사용자 단말(200)로 동영상이 스트리밍 됨을 의미할 수 있다.In a further embodiment, the server 100 may generate meta data and generate a meta video for the video being played in real time and provide the meta video to the user terminal 200. In this case, it may mean that the video is streamed to another user terminal 200 or a download method rather than streaming.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present invention is intended for illustration, and it will be understood by those skilled in the art that the present invention may be easily modified in other specific forms without changing the technical spirit or essential features of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is shown by the following claims rather than the above description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.

1: 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 시스템
100: 서버 200: 사용자 단말
1: System for providing edited video without encoding using metadata
100: server 200: user terminal

Claims (11)

서버에 의해 수행되는, 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 방법에 있어서,
(a) 사용자 단말로부터 태그 정보를 포함하는 동영상 재생 요청을 수신하는 단계;
(b) 상기 태그 정보에 매칭되는 동영상과 메타 데이터를 검색하는 단계;
(c) 상기 검색된 메타 데이터가 포함하는 재생 구간 정보에 기초하여 상기 검색된 동영상에서 상기 메타 데이터에 대응하는 재생 구간을 추출하여 메타 동영상을 생성하는 단계; 및
(d) 상기 메타 동영상을 상기 사용자 단말로 제공 하는 단계;
를 포함하되,
상기 메타 동영상은 상기 사용자 단말이 스트리밍 받기를 원하는 편집된 상기 동영상을 뜻하고, 상기 메타 데이터는 상기 메타 동영상을 생성하기 위한 상기 재생 구간 정보와 이를 검색하기 위한 상기 태그 정보를 포함하고, 상기 태그 정보는 상기 메타 데이터를 검색하기 위한 검색어 정보인 것인, 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 방법.
In the method for providing an edited video without encoding using metadata, performed by a server,
(a) receiving a video play request including tag information from a user terminal;
searching for video and metadata matched with the tag information;
generating a meta video by extracting a playback section corresponding to the metadata from the searched video based on the playback section information included in the searched metadata; And
(d) providing the meta video to the user terminal;
Including but not limited to:
The meta video refers to the edited video that the user terminal desires to stream. The meta data includes the play section information for generating the meta video and the tag information for searching the meta video. Is search term information for retrieving the metadata.
제 1 항에 있어서,
상기 재생 구간 정보는 상기 동영상을 기 설정된 단위 시간에 따라 구분한 분할 동영상을 각각 구별하는 분할 동영상의 시작 시간과 종료 시간 정보를 포함하고,
상기 태그 정보는 상기 분할 동영상 별로 검색어 정보를 포함하는 것인, 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 방법.
The method of claim 1,
The play section information includes start time and end time information of a divided video, each of which divides the divided video according to a preset unit time.
The tag information includes search term information for each of the divided videos, providing a video editing without encoding using metadata.
제 2 항에 있어서,
기 설정된 복수의 상기 재생 구간 정보 간의 결합을 통해 새로운 상기 재생 구간 정보를 더 생성하는 것인, 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 방법.
The method of claim 2,
And further generating the new playback section information by combining the plurality of preset playback section information.
제 1 항에 있어서,
상기 (b) 단계는
상기 동영상 재생 요청에 복수의 상기 태그 정보를 포함하면, 복수의 상기 태그 정보가 상기 사용자 단말에 의해 선택된 재생 순서에 기초하여 상기 태그 정보를 순서대로 검색하는 것인, 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 방법.
The method of claim 1,
Step (b) is
If the plurality of tag information is included in the video reproduction request, the plurality of the tag information sequentially searches for the tag information based on the playback order selected by the user terminal. How to give it.
제 4 항에 있어서,
상기 (c) 단계는
복수의 상기 메타 데이터에 의해 생성된 복수의 상기 메타 동영상은 검색된 순서에 기초하여 결합하는 것인, 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 방법.
The method of claim 4, wherein
Step (c) is
And combining the plurality of meta videos generated by the plurality of meta data based on the searched order.
제 1 항에 있어서,
상기 (c) 단계는
상기 메타 동영상을 상기 데이터베이스에 임시 저장하는 것인, 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 방법.
The method of claim 1,
Step (c) is
And temporarily storing the meta video in the database.
제 6 항에 있어서,
상기 (d) 단계 이후
상기 메타 동영상의 제공이 종료되면 상기 메타 동영상을 삭제하는 것인, 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 방법.
The method according to claim 6,
After step (d)
And deleting the meta video when the providing of the meta video is terminated.
제 6 항에 있어서,
상기 (d) 단계 이후
상기 메타 동영상이 스트리밍되 제공이 종료되면, 상기 사용자 단말로 상기 메타 동영상의 다운로드 여부를 묻는 요청을 전달하고,
상기 요청에 대한 회신에 기초하여 상기 메타 동영상을 상기 사용자 단말로 제공하는 것인, 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 방법.
The method according to claim 6,
After step (d)
When the meta video is streamed and the offer is terminated, a request for downloading the meta video is transmitted to the user terminal.
Providing the meta video to the user terminal based on the reply to the request.
제 1 항에 있어서,
상기 (a) 단계 이전에
상기 사용자 단말로 적어도 하나 이상의 상기 태그 정보와 상기 태그 정보에 대응하는 상기 동영상의 재생 구간에 대한 정보를 제공하고,
상기 사용자 단말이 선택한 상기 태그 정보에 기초하여 상기 동영상 재생 요청을 수신하는 것인, 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 방법.
The method of claim 1,
Before step (a) above
Providing at least one of the tag information and information on a playback section of the video corresponding to the tag information to the user terminal,
And receiving the video play request based on the tag information selected by the user terminal.
메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 장치에 있어서,
상기 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 프로그램이 저장된 메모리 및
상기 메모리에 저장된 프로그램을 실행하여 상기 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 동작을 실행하는 프로세서를 포함하되,
상기 프로세서는 사용자 단말로부터 태그 정보를 포함하는 동영상 재생 요청을 수신하고, 상기 태그 정보에 매칭되는 동영상과 메타 데이터를 검색하고, 상기 검색된 메타 데이터가 포함하는 재생 구간 정보에 기초하여 상기 검색된 동영상에서 상기 메타 데이터에 대응하는 재생 구간을 추출하여 메타 동영상을 생성하고, 상기 메타 동영상을 상기 사용자 단말로 제공하되,
상기 메타 동영상은 상기 사용자 단말이 스트리밍 받기를 원하는 편집된 상기 동영상을 뜻하고, 상기 메타 데이터는 상기 메타 동영상을 생성하기 위한 상기 재생 구간 정보와 이를 검색하기 위한 상기 태그 정보를 포함하고, 상기 태그 정보는 상기 메타 데이터를 검색하기 위한 검색어 정보인 것인, 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 장치.
In the device for providing an edited video without encoding using metadata,
A memory storing a program for providing an edited video without encoding using the metadata;
And a processor configured to execute a program stored in the memory to provide an edited video without encoding using the metadata.
The processor receives a video play request including tag information from a user terminal, searches for a video and metadata matched with the tag information, and searches the video in the searched video based on the play section information included in the searched metadata. A meta video is generated by extracting a playback section corresponding to meta data, and the meta video is provided to the user terminal.
The meta video refers to the edited video that the user terminal desires to stream. The meta data includes the play section information for generating the meta video and the tag information for searching the meta video. Is search term information for searching the metadata, wherein the apparatus provides the edited video without encoding using the metadata.
제 1 항 내지 제 9 항 중 어느 한 항에 따른 메타 데이터를 이용한 인코딩 없는 편집 동영상을 제공하는 방법을 수행하는 프로그램이 기록된 컴퓨터 판독가능 기록매체.10. A computer-readable recording medium having recorded thereon a program for performing a method for providing an edited moving picture without encoding using metadata according to any one of claims 1 to 9.
KR1020190009798A 2018-01-26 2019-01-25 Method and apparatus for streaming multimedia data without transcoding using meta data KR20190091215A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180010250 2018-01-26
KR1020180010250 2018-01-26

Publications (1)

Publication Number Publication Date
KR20190091215A true KR20190091215A (en) 2019-08-05

Family

ID=67615880

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190009798A KR20190091215A (en) 2018-01-26 2019-01-25 Method and apparatus for streaming multimedia data without transcoding using meta data

Country Status (1)

Country Link
KR (1) KR20190091215A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220072678A (en) * 2020-11-25 2022-06-02 한국전자기술연구원 System and method for editing video using streaming technology

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220072678A (en) * 2020-11-25 2022-06-02 한국전자기술연구원 System and method for editing video using streaming technology
WO2022114356A1 (en) * 2020-11-25 2022-06-02 한국전자기술연구원 System and method for editing video, using streaming technology

Similar Documents

Publication Publication Date Title
US11665407B2 (en) Systems and methods for creating variable length clips from a media stream
KR101635876B1 (en) Singular, collective and automated creation of a media guide for online content
KR101611383B1 (en) Content-specific identification and timing behavior in dynamic adaptive streaming over hypertext transfer protocol
US10032479B2 (en) Fingerprint-defined segment-based content delivery
US20150019968A1 (en) Methods and Systems for Facilitating Media-on-Demand-Based Channel Changing
US20140244607A1 (en) System and Method for Real-Time Media Presentation Using Metadata Clips
US20020129371A1 (en) Media distribution apparatus and media distribution method
US9438654B2 (en) Fragment interface into dynamic adaptive streaming over hypertext transfer protocol presentations
US9426500B2 (en) Optimal quality adaptive video delivery
US20090079840A1 (en) Method for intelligently creating, consuming, and sharing video content on mobile devices
US10681431B2 (en) Real-time interstitial content resolution and trick mode restrictions
US20160035392A1 (en) Systems and methods for clipping video segments
CN103583051A (en) Playlists for real-time or near real-time streaming
US9705955B2 (en) Period labeling in dynamic adaptive streaming over hypertext transfer protocol
KR20030093191A (en) Contents directory service system
WO2018011682A1 (en) Method and system for real time, dynamic, adaptive and non-sequential stitching of clips of videos
US20200021872A1 (en) Method and system for switching to dynamically assembled video during streaming of live video
US20150220636A1 (en) Fingerprint-defined segment-based content delivery
KR101117915B1 (en) Method and system for playing a same motion picture among heterogeneity terminal
JP4303085B2 (en) Content provision service system
CN108924606B (en) Streaming media processing method and device, storage medium and electronic device
KR20110047768A (en) Apparatus and method for displaying multimedia contents
CN102780728A (en) Media file transcoding and downloading method and client
KR100838524B1 (en) Method and System for sharing bookmark between multimedia players by using of TV-Anytime metadata
KR20190091215A (en) Method and apparatus for streaming multimedia data without transcoding using meta data

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application