KR102081214B1 - 멀티미디어 파일의 스티칭 방법 및 장치 - Google Patents

멀티미디어 파일의 스티칭 방법 및 장치 Download PDF

Info

Publication number
KR102081214B1
KR102081214B1 KR1020187012099A KR20187012099A KR102081214B1 KR 102081214 B1 KR102081214 B1 KR 102081214B1 KR 1020187012099 A KR1020187012099 A KR 1020187012099A KR 20187012099 A KR20187012099 A KR 20187012099A KR 102081214 B1 KR102081214 B1 KR 102081214B1
Authority
KR
South Korea
Prior art keywords
video segment
broadcast
video
time
time zone
Prior art date
Application number
KR1020187012099A
Other languages
English (en)
Other versions
KR20180061310A (ko
Inventor
타오 슝
링루이 추이
레이 잉
파챵 우
빈 푸
첸이 왕
양강 다이
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20180061310A publication Critical patent/KR20180061310A/ko
Application granted granted Critical
Publication of KR102081214B1 publication Critical patent/KR102081214B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00007Time or data compression or expansion
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00007Time or data compression or expansion
    • G11B2020/00072Time or data compression or expansion the compressed signal including a video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 출원은 멀티미디어 파일의 스티칭 방법 및 장치를 제공한다. 여기서 이 방법은 스티칭 대상인 제1 비디오 세그먼트와 제2 비디오 세그먼트를 획득하는 단계와, 제1 비디오 세그먼트의 제1 시작 및 종료 시간과 제2 비디오 세그먼트의 제2 시작 및 종료 시간이 기재된 제1 비디오 세그먼트와 제2 비디오 세그먼트에 대응되는 오디오 파일을 획득하는 단계와, 제1 비디오 세그먼트를 제1 시작 및 종료 시간에 지시된 제1 시간내에서 방송되도록 조절하고 제2 비디오 세그먼트를 제2 시작 및 종료 시간에 지시된 제1 시간대와 겹쳐지지 않는 제2 시간내에서 방송되도록 조절하는 단계와, 조절 후의 제1 비디오 세그먼트와 조절 후의 제2 비디오 세그먼트에 스티칭 조작을 수행하여 스티칭 후의 비디오 파일을 얻는 단계를 포함한다. 본 출원에 의하면, 기존기술에 있어서 오디오와 비디오의 스티칭 과정에 합성 정밀도가 낮은 문제를 해결할 수 있다.

Description

멀티미디어 파일의 스티칭 방법 및 장치
본 발명은 멀티미디어 데이터 처리 분야에 관한 것으로, 특히 멀티미디어 파일의 스티칭 방법 및 장치에 관한 것이다.
본 출원은 그 전체 내용이 본 명세서에 참조로 통합되어 있는 발명의 명칭이 “멀티미디어 파일의 스티칭 방법 및 장치”인 2016년 03월 14일자로 중국 특허청에 출원된 중국 특허 출원 제201610144319.0호에 대한 우선권을 주장한다.
Android 시스템과 Inter networking Operating System 시스템(IOS 시스템으로 약칭함)에서 생성한 비디오를 경우, Android 시스템의 결과 파라미터 세트(sequence parameter sets, asps로 약칭함)와 영상 파라미터 세트(picture parameter set, pps로 약칭함)에서 생성된 비디오를 복호화하여 IOS 시스템의 asps 파라미터와 pps 파라미터로 생성된 비디오를 복호화하며 비디오 파일 중의 비디오 경향을 1프레임 1프레임의 영상으로 복호화하여 계면에 표시하여야 한다. 하지만, Android 시스템과 IOS 시스템에서 생성된 비디오 파일을 동시에 방송할 경우에 호환되지 않는 문제가 나타날 때도 있고 이는 Android 시스템의 asps와 pps 파라미터로 복호화하면 IOS 시스템의 비디오의 표시에 이상이 발생하고 IOS 시스템의 asps와 pps 파라미터로 복호화하면 Android의 비디오의 표시에 이상이 발생하기 때문이다. 따라서, Android 시스템과 IOS 시스템의 비디오를 경우, 기존의 기술방안은 우선 Android의 비디오 파일을 판독하여 파일 중의 asps와 pps 파라미터를 이용하여 비디오 경향을 1프레임 1프레임의 영상으로 복호화하고, 그 다음, IOS 시스템의 비다오. 파일을 판독하여 파일 중의 asps와 pps 파라미터를 이용하여 비디오 경향을 1프레임 1프레임의 영상으로 복호화하며, 그리고 상기한 복호화된 영상을 모두 비디오 인코더에 송신하여 통일적으로 압축 부호화하여 새로운 비디오 경향을 생성하여 1세트의 새로운 asps와 pps 파라미터를 얻고 목표 비디오 파일을 얻는 것이다. 하지만, 상기한 처리 방법에 의하여 Android 시스템과 IOS 시스템에서 생성된 비디오 파일을 경우, 복호화와 부호화 과정이 존재함으로 비디오 스티칭에 대량의 시간이 소요되고 사용자의 체험에 불리하다.
또한, 립싱크 공연이 나타남으로 인하여 두 개 서로 다른 운영체제를 실행하고 있는 단말의 비디오 구분을 정확하고 빠르게 스티칭 하여야 하는데 상기 방법에 의하면 비디오 구분을 빠르게 스티칭할 수 없고 이와 동시에 상기 방법으로 비디오의 스티칭을 수행할 경우, 통상 사용자가 비디오 세그먼트를 촬영한 시간이 길거나 또는 짧거나 하여 사용자의 입술 움직임과 오디오와의 대응이 정확하지 못하고 진실감을 대폭 저하시키게 된다.
상기 문제에 대하여 아직 유효한 해결책을 제시하지 못하였다.
본 출원의 실시예에서 적어도 기존기술에 있어서 오디오와 비디오의 스티칭 과정에 합성 정밀도가 낮은 문제를 해결할 수 있는 멀티미디어 파일의 스티칭 방법 및 장치를 제공한다.
본 출원의 실시예의 일 측면에 의하면, 스티칭 대상인 제1 단말로부터 얻는 제1 비디오 세그먼트와 상기 제1 단말과 서로 다른 운영체제를 실행하고 있는 제2 단말로부터 얻는 제2 비디오 세그먼트를 획득하는 단계와, 상기 제1 비디오 세그먼트의 제1 시작 및 종료 시간과 상기 제2 비디오 세그먼트의 제2 시작 및 종료 시간이 기재된 상기 제1 비디오 세그먼트와 제2 비디오 세그먼트에 대응되는 오디오 파일을 획득하는 단계와, 상기 제1 비디오 세그먼트를 상기 제1 시작 및 종료 시간에 지시된 제1 시간 내에서 방송되도록 조절하고 상기 제2 비디오 세그먼트를 상기 제2 시작 및 종료 시간에 지시된 상기 제1 시간대와 겹쳐지지 않는 제2 시간내에서 방송되도록 조절하는 단계와, 조절 후의 상기 제1 비디오 세그먼트와 조절 후의 상기 제2 비디오 세그먼트에 스티칭 조작을 수행하여 스티칭 후의 비디오 파일을 얻는 단계를 포함하는 멀티미디어 파일의 스티칭 방법을 제공한다.
본 출원의 실시예의 다른 일 측면에 의하면, 스티칭 대상인 제1 단말로부터 얻는 제1 비디오 세그먼트와 상기 제1 단말과 서로 다른 운영체제를 실행하고 있는 제2 단말로부터 얻는 제2 비디오 세그먼트를 획득하는 제1 획득유닛과, 상기 제1 비디오 세그먼트의 제1 시작 및 종료 시간과 상기 제2 비디오 세그먼트의 제2 시작 및 종료 시간이 기재된 상기 제1 비디오 세그먼트와 제2 비디오 세그먼트에 대응되는 오디오 파일을 획득하는 제2 획득유닛과, 상기 제1 비디오 세그먼트를 상기 제1 시작 및 종료 시간에 지시된 제1 시간내에서 방송되도록 조절하고 상기 제2 비디오 세그먼트를 상기 제2 시작 및 종료 시간에 지시된 상기 제1 시간대와 겹쳐지지 않는 제2 시간내에서 방송되도록 조절하는 조절유닛과, 조절 후의 상기 제1 비디오 세그먼트와 조절 후의 상기 제2 비디오 세그먼트에 스티칭 조작을 수행하여 스티칭 후의 비디오 파일을 얻는 스티칭유닛을 포함하는 멀티미디어 파일의 스티칭 장치를 제공한다.
본 출원의 실시예에 있어서, 스티칭 대상인 제1 단말로부터 얻는 제1 비디오 세그먼트와 상기 제1 단말과 서로 다른 운영체제를 실행하고 있는 제2 단말로부터 얻는 제2 비디오 세그먼트를 획득하고, 상기 제1 비디오 세그먼트의 제1 시작 및 종료 시간과 상기 제2 비디오 세그먼트의 제2 시작 및 종료 시간이 기재된 상기 제1 비디오 세그먼트와 제2 비디오 세그먼트에 대응되는 오디오 파일을 획득하고, 상기 제1 비디오 세그먼트를 상기 제1 시작 및 종료 시간에 지시된 제1 시간내에서 방송되도록 조절하고 상기 제2 비디오 세그먼트를 상기 제2 시작 및 종료 시간에 지시된 상기 제1 시간대와 겹쳐지지 않는 제2 시간내에서 방송되도록 조절하고 조절 후의 상기 제1 비디오 세그먼트와 조절 후의 상기 제2 비디오 세그먼트에 스티칭 조작을 수행하여 스티칭 후의 비디오 파일을 얻는 방식으로 획득한 제1 단말로부터 얻는 제1 비디오 세그먼트를 제1 시작 및 종료 시간에 지시된 제1 시간대 내에 조절하고 획득한 제2 단말로부터 얻는 제2 비디오 세그먼트를 제2 시작 및 종료 시간에 지시된 제2 시간대 내에 조절함으로써 비디오 파일과 오디오 파일이 정확하게 스티칭되고 비디오 파일과 오디오 파일의 스티칭 정밀도를 향상시키는 목적을 실현하며 비디오 파일과 오디오 파일을 동기 방송하는 기술효과를 실현하고 기존기술에 있어서 오디오와 비디오의 스티칭 과정에 합성 정밀도가 낮은 문제를 해결할 수 있다.
도면은 본 발명에 대한 이해를 돕기 위한 것으로 본 발명의 명세서의 일부분이고 본 발명에 예시적으로 나타낸 실시예 및 그 설명은 본 발명을 해석하기 위한 것으로 본 발명을 한정하는 것이 아니다.
도 1은 본 출원의 실시예에 따른 하드웨어 구조를 나타낸 구성도이다.
도 2는 본 출원의 실시예에 따른 멀티미디어 파일의 스티칭 방법을 나타낸 흐름도이다.
도 3은 본 출원의 실시예에 따른 선택 가능한 멀티미디어 파일의 스티칭 방법을 나타낸 흐름도이다.
도 4는 본 출원의 실시예에 따른 멀티미디어 파일의 스티칭 장치를 나타낸 도이다.
도 5는 본 출원의 실시예에 따른 단말의 하드웨어 구조를 나타낸 도이다.
이 분야의 기술자들이 본 발명의 기술방안을 더욱 쉽게 이해할 수 있도록 아래 본 발명의 실시예 중의 도면을 결합하여 본 발명의 실시예의 기술방안을 명확하고 완벽하게 설명하는데 아래에서 설명하는 실시예는 본 발명의 모든 실시예가 아니라 일부 실시예이다. 본 발명의 실시예에 근거하여 이 분야의 기술자가 창조성이 있는 노동을 필요로하지 않은 채 얻은 모든 기타 실시예는 모두 본 발명의 보호범위에 속한다.
그리고, 본 발명의 명세서, 특허청구범위 및 도면에 기재된 용어 “제1”, “제2” 등은 유사한 대상을 구별하기 위한 것으로 특정된 순서 또는 선후 순서를 표시하기 위한 것이 아니다. 본 발명의 실시예를 도면 또는 상기에서 설명한 순서와 다른 순서로 실시할 수 있도록 이렇게 사용된 대상이 적절한 상황에서 서로 교체될 수 있음은 이해할 수 있는 것이다. 그리고 용어 “포함”, “구비” 및 이러한 용어의 임의의 변형은 비배제적 포함을 커버하기 위한 것으로, 예를 들어 일련의 단계 또는 유닛을 포함하는 프로세스, 방법, 시스템, 제품 또는 기기는 명확히 기재된 단계 또는 유닛에 한정되지 않고 기재하지 않은 또는 이러한 프로세스, 방법, 제품 또는 기기 고유의 기타 단계 또는 유닛을 포함할 수도 있음을 표시한다.
실시예1
본 출원의 실시예에 의하면, 멀티미디어 파일의 스티칭 방법을 제공하는데 도 1에 도시한 바와 같이 이 방법은 하기를 포함한다.
본 실시예에 있어서, 상기한 멀티미디어 파일의 스티칭 방법을 도 1에 도시한 서버(104)와 단말(102)로 구성된 하드웨어 환경에 응용할 수 있다. 도 1은 본 출원의 실시예에 따른 하드웨어 환경을 나타낸 구성도로, 도 1에 도시한 바와 같이, 서버(104)는 네트워크를 통하여 단말(102)에 연결되고 상기 네트워크는 광역 네트워크, 도시 지역 통신망 또는 근거리 통신망을 포함하지만 이에 한정되지 않고, 또한 단말(102)은 컴퓨터, 휴대폰, 태블랫PC 등에 한정되지 않는다.
도 2는 본 출원의 실시예에 따른 멀티미디어 파일의 스티칭 방법을 나타낸 흐름도이다. 도 2에 도시한 바와 같이, 멀티미디어 파일의 스티칭 방법은 단계S202~단계S208을 포함한다.
단계S202에 있어서, 스티칭 대상인 제1 비디오 세그먼트와 제2 비디오 세그먼트를 획득하고, 여기서, 제1 비디오 세그먼트는 제1 단말로부터 얻는 것이고 제2 비디오 세그먼트는 제2 단말로부터 얻는 것이며 제1 단말과 제2 단말은 서로 다른 운영체제를 실행한다.
제1 단말과 제2 단말이 서로 다른 운영체제를 실행하는 단말인 것이 바람직하고, 예를 들어, 제1 단말이 Android 시스템을 실행하고 제2 단말이 IOS 시스템을 실행하거나 또는 제1 단말이 Windows 시스템을 실행하고 제2 단말이 IOS 시스템을 실행하는 등이다. 여기서, 제1 비디오 세그먼트는 사용자가 제1 단말을 통하여 촬영한 비디오일 수 있고 제2 비디오 세그먼트는 사용자가 제2 단말을 통하여 촬영한 비디오일 수 있다.
본 출원의 실시예에 있어서, 제1 단말은 다수의 단말이고 이 다수의 단말이 동일한 운영체제를 실행할 수 있으며, 이때 제1 비디오 세그먼트는 다수의 서로 다른 제1 단말로부터 얻는 다수의 비디오 세그먼트일 수 있다. 제2 단말도 다수의 단말이고 이 다수의 단말이 동일한 운영체제를 실행할 수 있으며, 이때 제2 비디오 세그먼트는 다수의 서로 다른 제2 단말로부터 얻는 다수의 비디오 세그먼트일 수 있다. 진일보로, 본 출원은 상기 제1 단말과 제2 단말에 한정되지 않고 제3 단말을 더 포함할 수도 있고, 여기서, 이 제3 단말에서 실행되는 운영체제는 제1 단말과 제2 단말에서 실행되는 운영체제와 모두 서로다르다.
단계S204에 있어서, 제1 비디오 세그먼트와 제2 비디오 세그먼트에 대응되는 오디오 파일을 획득하고, 여기서, 오디오 파일에는 제1 비디오 세그먼트의 제1 시작 및 종료 시간과 제2 비디오 세그먼트의 제2 시작 및 종료 시간이 기재되어 있다.
상기 제1 시작 및 종료 시간이 오디오 파일에 이미 기재된 제1 비디오 세그먼트의 방송 시작 시간과 방송 종료 시간이고 제2 시작 및 종료 시간이 오디오 파일에 이미 기재된 제2 비디오 세그먼트의 방송 시작 시간과 방송 종료 시간인 것이 바람직하다.
단계S206에 있어서, 제1 비디오 세그먼트를 제1 시작 및 종료 시간에 지시된 제1 시간내에서 방송되도록 조절하고 제2 비디오 세그먼트를 제2 시작 및 종료 시간에 지시된 제2 시간내에서 방송되도록 조절하며, 여기서, 제1 시간대와 제2 시간대는 겹쳐지지 않는다.
제1 비디오 세그먼트가 제1 시작 및 종료 시간에 지시된 제1 시간내에서 방송되도록 확보하기 위하여, 제1 시간대의 시간길이에 근거하여 제1 비디오 세그먼트의 제1 시간대 내에서 방송되는 화면을 조절하는 것이 바람직하다. 이에 대응되게, 제2 비디오 세그먼트가 제2 시작 및 종료 시간에 지시된 제2 시간내에서 방송되도록 확보하기 위하여, 제2 시간대의 시간길이에 근거하여 제2 비디오 세그먼트의 제2 시간대 내에서 방송되는 화면을 조절할 수 있다.
단계S208에 있어서, 조절 후의 제1 비디오 세그먼트와 조절 후의 제2 비디오 세그먼트에 스티칭 조작을 수행하여 스티칭 후의 비디오 파일을 얻는다.
본 출원의 실시예에 있어서, 획득한 제1 단말로부터 얻는 제1 비디오 세그먼트를 제1 시작 및 종료 시간에 지시된 제1 시간대 내에 조절하고 획득한 제2 단말로부터 얻는 제2 비디오 세그먼트를 제2 시작 및 종료 시간에 지시된 제2 시간대 내에 조절하여 비디오 파일과 오디오 파일이 정확하게 스티칭되고 비디오 파일과 오디오 파일의 스티칭 정밀도를 향상시키는 목적을 실현하며 비디오 파일과 오디오 파일을 동기 방송하는 기술효과를 실현하고 기존기술에 있어서 오디오와 비디오의 스티칭 과정에 합성 정밀도가 낮은 문제를 해결할 수 있다.
한 구체적인 예에 있어서, 상기 멀티미디어 파일의 스티칭 방법으로 스티칭하여 비디오 파일을 얻는 방법을 《국민 스타》의 클라이언트 소프트웨어에 응용하여 《국민 스타》의 클라이언트에서 제1 단말의 제1 비디오 세그먼트와 제2 단말의 제2 비디오 세그먼트를 스티칭하여 스티칭 후의 비디오 파일을 얻을 수 있다. 예를 들어, 제1 단말의 사용자A와 제2 단말의 사용자B가 《국민 스타》 게임에서 립싱크로 영화 세그먼트, TV 세그먼트 또는 MTV 세그먼트를 공연할 수 있다. 사용자A와 사용자B가 오스카 수상식에서의 레오나르도의 비디오를 공연할 경우, 사용자A가 시상자 역을 하고 사용자B가 레오나르도 역을 한다고 하면 사용자A와 사용자B는 《국민 스타》에서 제공하는 오디오 소재(즉, 상기 오디오 파일)로 각각 비디오를 촬영하고 각각 제1 비디오 세그먼트와 제2 비디오 세그먼트를 얻을 수 있다. 사용자가 비디오를 촬영하는 과정에 사용자A가 촬영한 비디오 세그먼트의 시간길이가 오디오 소재(즉, 상기 오디오 파일)중의 사용자A의 오디오 시간길이보다 길어질 가능성이 있다. 따라서 사용자A가 촬영한 비디오 세그먼트를 제1 시간대 내에서 방송하도록 조절함으로서 그 다음의 비디오 세그먼트의 방송과정에 입술 움직임이 정확하지 않은 현상이 발생하는 것을 방지하고 나아가 제1 비디오 파일과 제2 비디오 파일을 스티칭하여 얻은 비디오 파일과 오디오 파일을 동기 방송할 수 있다.
상기《국민 스타》 게임의 클라이언트의 개발에 있어서, 기술자는 소재 제작 도구를 개발하여 최근 인기가 있는 영화나 개그 중의 오디오를 빨리 촬영 가능한 오디오 소재로 제작한다. 상기한 완벽한 오디오 소재(즉, 상기 오디오 파일)외, 기술 파일로 오디오 소재의 배역 및 오디오 소재의 각 구간의 길이를 표시할 수 있다. 사용자는 촬영 과정에 GPU를 이용하여 사용자가 촬영한 비디오 세그먼트에 실시간으로 뷰티와 필터링 처리를 수행하여 촬영 계면에서 자막 내용을 굴림 표시하여 자막 내용에 근거하여 립싱크 공연하도록 사용자에 제시할 수 있다.
다만, 본 출원의 실시예에 있어서, 제1 비디오 세그먼트와 제2 비디오 세그먼트는 무성 비디오 세그먼트일 수도 있고, 하기 실시예에 있어서 제1 비디오 세그먼트와 제2 비디오 세그먼트가 모두 무성 비디오 세그먼트인 경우를 예로 설명한다.
또한, 제1 비디오 세그먼트를 제1 시작 및 종료 시간에 지시된 제1 시간내에서 방송되도록 조절하는 단계는 제1 비디오 세그먼트의 방송 길이가 제1 시간대보다 길면 제1 비디오 세그먼트의 방송 시작 시각으로부터 제1 방송 시각까지의 방송 길이가 제1 시간대와 같아지도록 제1 비디오 세그먼트의 방송 종료 시각을 제1 비디오 세그먼트의 제1 방송 시각으로 조절하고, 제1 비디오 세그먼트의 방송 길이가 제1 시간대보다 짧으면 제1 비디오 세그먼트의 마지막 비디오 프레임을 제1 비디오 세그먼트의 방송 길이가 제1 시간대와 같아질 때까지 연장시키는 단계를 포함할 수 있다.
《국민 스타》 게임에 있어서, 제1 단말의 사용자A가 촬영한 제1 비디오 세그먼트의 방송 길이가 제1 시간대보다 길면 제1 비디오 세그먼트의 방송 종료 시각을 제1 방송 시각으로 조절하는 것이 바람직하고, 여기서, 이 제1 방송 시각으로부터 제1 비디오 세그먼트의 시작 방송 시각까지의 방송 길이가 제1 시간대와 같다. 예를 들어, 제1 비디오 세그먼트의 시작 방송 시각이 t1이고 방송 종료 시각이 t2이면 t1과 t2 사이의 방송 길이가 제1 시간대t보다 길면 T1과 t1 사이의 방송 길이가 제1 시간대t와 같아지도록 제1 비디오 세그먼트의 방송 종료 시각t2을 제1 방송 시각T1으로 조절할 수 있다.
제1 비디오 세그먼트의 방송 길이(즉, t1과 t2 사이의 방송 길이)가 제1 시간대보다 짧으면 제1 비디오 세그먼트의 마지막 비디오 프레임을 연장시킬 수 있고, 즉, 제1 비디오 세그먼트의 마지막 비디오 프레임의 방송 화면을 제1 비디오 세그먼트의 방송 길이가 제1 시간대와 같아질때까지 연장시킬 수 있다.
제2 비디오 세그먼트를 제2 시작 및 종료 시간에 지시된 제2 시간내에서 방송되도록 조절하는 단계는, 제2 비디오 세그먼트의 방송 길이가 제2 시간대보다 길면 제2 비디오 세그먼트의 방송 시작 시각으로부터 제2 방송 시각까지의 방송 길이가 제2 시간대와 같아지도록 제2 비디오 세그먼트의 방송 종료 시각을 제2 비디오 세그먼트의 제2 방송 시각으로 조절하고 제2 비디오 세그먼트의 방송 길이가 제2 시간대보다 짧으면 제2 비디오 세그먼트의 마지막 비디오 프레임을 제2 비디오 세그먼트의 방송 길이가 제2 시간대와 같아질때까지 연장시키는 단계를 포함한다.
《국민 스타》 게임에 있어서, 제2 단말의 사용자B가 촬영한 제2 비디오 세그먼트의 방송 길이가 제2 시간대보다 길면 제2 비디오 세그먼트의 방송 종료 시각을 제2 방송 시각으로 조절하는 것이 바람직하고, 여기서, 이 제2 방송 시각으로부터 제2 비디오 세그먼트의 시작 방송 시각까지의 방송 길이는 제2 시간대와 같다. 예를 들어, 제2 비디오 세그먼트의 시작 방송 시각이 t1'이고 방송 종료 시각이 t2'이며 t1'로부터 t2'까지의 방송 길이가 제2 시간대t'보다 길면 T1'로부터 t1'까지의 방송 길이가 제2 시간대t'와 같아지도록 제2 비디오 세그먼트의 방송 종료 시각t2'을 제2 방송 시각T1'으로 조절할 수 있다.
제2 비디오 세그먼트의 방송 길이(즉, t1'로부터 t2'까지의 방송 길이)가 제2 시간대보다 짧으면 제2 비디오 세그먼트의 마지막 비디오 프레임을 연장시킬 수 있고, 즉, 제2 비디오 세그먼트의 마지막 비디오 프레임의 방송 화면을 제2 비디오 세그먼트의 방송 길이가 제2 시간대와 같아질때까지 연장시킬 수 있다.
상기 조절 후의 제1 비디오 세그먼트와 제2 비디오 세그먼트를 소정의 순서에 따라 스티칭한 후, 진일보로 얻은 비디오 파일과 오디오 파일을 합성하고, 즉, 비디오 파일을 비디오 트랙에서 방송하고 오디오 파일을 오디오 트랙에서 방송한다. 따라서 비디오 파일과 오디오 파일의 방송 과정에 동기 방송을 실현하고 제1 비디오 세그먼트의 방송 길이와 제1 시간대와의 밀리초 차이 또는 제2 비디오 세그먼트의 방송 길이와 제2 시간대와의 밀리초 차이에 의하여 사용자의 입술 움직임이 오디오 파일의 음성과 일치하지 않는 문제를 피하고, 여기서, 소정의 순서는 제1 시작 및 종료 시간과 제2 시작 및 종료 시간의 오디오 파일의 방송 시간에서의 순서이다.
또한, 제1 비디오 세그먼트의 방송 종료 시각을 제1 비디오 세그먼트의 제1 방송 시각으로 조절하는 단계는, 제1 비디오 세그먼트를 제1 파일 중의 제1 시간대에 대응되는 제1 기억영역에 추가하는 단계를 포함하고, 여기서, 제1 비디오 세그먼트의 방송 길이가 제1 시간대보다 길면 제1 기억영역에 제1 비디오 세그먼트중의 제1 비디오 세그먼트의 방송 시작 시각으로부터 제1 방송 시각까지의 제1 비디오 부분을 기억하고 제1 비디오 세그먼트의 방송 길이가 제1 시간대보다 짧으면 제1 기억영역에 제1 비디오 세그먼트를 기억할 수 있다.
스티칭한 후의 비디오 파일중의 매개 비디오 세그먼트와 오디오 파일을 동기 방송하기 위하여, 오디오 파일 전체의 방송 길이를 정의하고 매개 비디오 세그먼트에 대응되는 오디오 파일중의 음성의 시간을 정의할 수 있다. 따라서 제1 비디오 세그먼트와 제2 비디오 세그먼트가 반드시 대응되는 시간 구간에서 방송되도록 보장한다. 제1 비디오 세그먼트가 반드시 제1 시간내에서 방송되도록 보장하기 위하여, 제1 비디오 세그먼트의 방송 길이가 제1 시간대보다 길면 제1 비디오 세그먼트중의 시작 방송 시각으로부터 제1 방송 시각까지의 제1 비디오 부분을 제1 파일중의 제1 시간대에 대응되는 기억영역에 추가할 수 있고, 제1 비디오 세그먼트의 방송 길이가 제1 시간대보다 짧으면 제1 기억영역에 제1 비디오 세그먼트를 기억할 수 있고, 여기서, 제1 파일은 임의의 신기 파일일 수 있다.
본 출원의 실시예에 있어서, 제1 비디오 세그먼트를 제1 기억영역에 추가하는 방식이 제1 비디오 세그먼트와 제2 비디오 세그먼트의 매개 프레임의 영상을 한 스트림 단위, 즉 NAL로 압축하고, 여기서, 매개 NAL의 표시 시간길이의 합계가 그 비디오 세그먼트 방송 길이의 시간길이와 같고, 그 다음, 하나의 NAL을 제1 파일의 제1 기억영역에 기억할 때마다 제1 비디오 세그먼트를 제1 기억영역에 기억한 모든 NAL 시간 합계를 계산하고 시간 합계가 제1 시간대 미만일 경우, 계속하여 그 다음의 NAL를 기억하고 시간 합계가 제1 시간대를 초과하면 제1 비디오 세그먼트의 그 다음의 NAL를 폐기하고, 또한 제1 비디오 세그먼트가 제1 시간내에서 방송되도록 제1 기억영역에 기억한 마지막 NAL의 표시 시간을 단축 처리하고, 제1 비디오 세그먼트의 모든 NAL를 제1 기억영역에 기억하였지만 NAL의 합계가 여전히 제1 시간대보다 짧으면 제1 기억영역에 기억한 파일중의 마지막 NAL(즉, 상기 마지막 비디오 프레임)의 표시 시간을 연장시켜 제1 비디오 세그먼트의 방송 길이가 제1 시간대와 같아지도록 연장 처리하는 것이 바람직하다.
제2 비디오 세그먼트의 방송 종료 시각을 제2 비디오 세그먼트의 제2 방송 시각으로 조절하는 단계는, 제2 비디오 세그먼트를 제2 파일중의 제2 시간대에 대응되는 제2 기억영역에 기억하는 단계를 포함하고, 여기서, 제2 비디오 세그먼트의 방송 길이가 제2 시간대보다 길면 제2 기억영역에 제2 비디오 세그먼트중의 제2 비디오 세그먼트의 방송 시작 시각으로부터 제2 방송 시각까지의 제2 비디오 부분을 기억하고, 제2 비디오 세그먼트의 방송 길이가 제2 시간대보다 짧으면 제2 기억영역에 제2 비디오 세그먼트를 기억한다.
제2 비디오 세그먼트가 반드시 제2 시간내에서 방송되도록 보장하기 위하여, 제2 비디오 세그먼트의 방송 길이가 제2 시간대보다 길면 제2 비디오 세그먼트중의 시작 방송 시각으로부터 제2 방송 시각까지의 제2 비디오 부분을 제2 파일중의 제2 시간대에 대응되는 기억영역에 추가하고 제2 비디오 세그먼트의 방송 길이가 제2 시간대보다 짧으면 제2 기억영역에 제2 비디오 세그먼트를 기억할 수 있다.
본 출원의 실시예에 있어서, 제2 비디오 세그먼트를 제2 기억영역에 추가하는 방식은 제1 비디오 세그먼트와 제2 비디오 세그먼트의 매개 프레임의 영상을 스트림 단위, 즉 NAL로 압축하고, 여기서, 매개 NAL의 표시 시간길이의 합계는 그 비디오 세그먼트 방송 길이의 시간길이와 같고, 그 다음, 하나의 NAL를 제2 파일의 제2 기억영역에 기억할 때마다, 제2 비디오 세그먼트의 제2 기억영역에 이미 기억된 모든 NAL 시간 합계를 계산하고 시간 합계가 제2 시간대보다 짧으면 계속하여 그 다음의 NAL를 기억하고 시간 합계가 제2 시간대를 초과하면 제2 비디오 세그먼트의 그 다음의 NAL를 폐기하고 제2 비디오 세그먼트가 제2 시간내에서 방송되도록 제2 기억영역에 기억된 마지막 NAL의 표시 시간을 단축 처리하고, 제2 비디오 세그먼트의 모든 NAL를 제2 기억영역에 기억하였지만 NAL의 합계가 여전히 제2 시간대보다 짧으면 제2 기억영역에 기억된 파일중의 마지막 NAL(즉, 상기 마지막 비디오 프레임)의 표시 시간을 제2 비디오 세그먼트의 방송 길이가 제2 시간대와 같아질때까지 연장시키는 처리를 수행하는 것이 바람직하다.
또한, 조절 후의 제1 비디오 세그먼트와 조절 후의 제2 비디오 세그먼트에 스티칭 조작을 수행하는 단계는, 오디오 파일의 방송 시간 중의 제1 시작 및 종료 시간과 제2 시작 및 종료 시간의 순서에 따라 조절 후의 제1 비디오 세그먼트와 조절 후의 제2 비디오 세그먼트에 스티칭 조작을 수행하는 단계를 포함할 수 있다.
상기 방법으로 제1 비디오 세그먼트와 제2 비디오 세그먼트를 조절한 후, 진일보로, 제1 시작 및 종료 시간과 제2 시작 및 종료 시간의 오디오 파일의 방송 시간에서의 순서에 따라 제1 비디오 파일과 제2 비디오 파일을 스티칭하는 것이 바람직하다.
예를 들어, 오디오 파일에 있어서, 제1 비디오 세그먼트와 제2 비디오 세그먼트의 방송 순서가, 우선 제1 비디오 세그먼트를 방송하고 그 다음, 소정이 시간이 경과한 후에 제2 비디오 세그먼트를 방송하는 순서이면 이 순서에 따라 제1 비디오 세그먼트와 제2 비디오 세그먼트에 스티칭을 수행하고 비디오 파일을 얻을 수 있다. 진일보로, 비디오 파일과 오디오 파일을 합성시켜 비디오 파일과 오디오 파일의 동기 방송을 실현할 수 있다.
또한, 조절 후의 제1 비디오 세그먼트와 조절 후의 제2 비디오 세그먼트에 스티칭 조작을 수행한 후, 상기 방법은, 제1 비디오 세그먼트에 복호화를 수행하기 위한 제1 복호화 파라미터를 획득하고 제2 비디오 세그먼트에 복호화를 수행하기 위한 제2 복호화 파라미터를 획득하는 단계와, 제1 복호화 파라미터를 이용하여 스티칭 후의 비디오 파일중의 제1 비디오 세그먼트의 복호화를 수행하고 제2 복호화 파라미터를 이용하여 스티칭 후의 비디오 파일중의 제2 비디오 세그먼트에 복호화를 수행하는 단계를 더 포함할 수 있다.
상기 스티칭 후의 비디오 파일을 생성하는 단계에 있어서, 제1 비디오 세그먼트와 제2 비디오 세그먼트에 복호화와 부호화 관련 조작을 수행하지 않고 비디오 파일의 스티칭을 완성함으로 비디오 스티칭의 성능을 대폭 향상시킨다. 스티칭 후의 비디오 파일을 방송할 때, 제1 비디오 세그먼트와 제2 비디오 세그먼트에 복호화를 수행하고, 예를 들어, 비디오 파일중의 제1 비디오 세그먼트를 방송할 때는 제1 복호화 파라미터를 이용하여 제1 비디오 세그먼트에 복호화를 수행하고 비디오 파일중의 제2 비디오 세그먼트를 방송할 때는 제2 복호화 파라미터를 이용하여 제2 비디오 세그먼트에 복호화를 수행한다.
다만, 본 출원의 실시예에 있어서, 상기 제1 복호화 파라미터는 sps와 pps 파라미터일 수 있고 제2 복호화 파라미터도 sps와 pps 파라미터일 수 있다.
본 출원의 실시예에 있어서, Android 시스템에서 비디오 세그먼트를 촬영할 경우, x264 라이브러리 코드로 Android 시스템이 속하는 단말의 녹화장치가 수집한 영상 데이터에 압축 부호화를 수행하여 비디오 세그먼트를 얻고, 여기서, 이 비디오 세그먼트는 다수의 비디오 스트림을 포함하고, 그 다음, Android 시스템중의 비디오 세그먼트중의 비디오 스트림을 추출하여 라이브러리 mp4v2를 통하여 비디오 스트림을 비디오 컨테이너mp4에 캡슐화하며, 여기서, 진일보로 sps_id와 pps_id를 모두 1로 지정할 수 있고, 또한 이 sps와 pps 파라미터를 모두 mp4에 저장할 수 있고, 여기서 sps_id는 sps 파라미터의 ip 어드레스의 값이고 pps_id는 pps 파라미터의 ip 어드레스의 값이며 비디오 파일의 제1 비디오 세그먼트에 복호화를 수행할 때, sps와 pps의 ip 어드레스에 근거하여 대응되는 sps 파라미터와 pps 파라미터를 찾아내여 sps 파라미터와 pps 파라미터에 비디오 파일의 제1 비디오 세그먼트의 복호화를 수행하도록 할 수 있다.
IOS 시스템에서 비디오 세그먼트를 촬영할 때, x264 라이브러리 코드로 IOS 시스템가 속하는 단말의 녹화장치가 수집한 영상 데이터에 압축 부호화를 수행하여 비디오 세그먼트를 얻고, 여기서 이 비디오 세그먼트는 다수의 비디오 스트림을 포함하고, 그 다음, IOS 비디오 파일중의 비디오 스트림을 추출하고 라이브러리 mp4v2를 통하여 비디오 스트림을 비디오 컨테이너mp4에 캡슐화하고, 여기서, sps_id와 pps_id를 모두 0으로 지정할 수 있고, 여기서, sps_id는 sps 파라미터의 ip 어드레스의 값이고 pps_id는 pps 파라미터의 ip 어드레스의 값이며 비디오 파일의 제2 비디오 세그먼트에 복호화를 수행할 때 sps와 pps의 ip 어드레스에 근거하여 대응되는 sps 파라미터와 pps 파라미터를 찾아내여 sps 파라미터와 pps 파라미터에 비디오 파일의 제2 비디오 세그먼트의 복호화를 수행하도록 할 수 있다.
상기 처리를 통하여 플레이어에서 비디오 파일을 방송할 때, Android 시스템의 비디오 스트림에 복호화를 수행할 필요가 있을 경우, sps_id와 pps_id가 1인 sps와 pps 파라미터를 이용하여 Android 시스템에서 생성된 비디오 세그먼트에 복호화를 수행하고 IOS의 비디오 스트림에 복호화를 수행할 필요가 있을 경우, sps_id와 pps_id가 0인 sps와 pps 파라미터를 이용하여 IOS 시스템에서 생성된 비디오 세그먼트에 복호화를 수행할 수 있다.
다만, 본 출원의 실시예에 있어서, 동일한 운영체제의 단말로부터 얻는 비디오 세그먼트에 설정하는 sps_id와 pps_id의 값은 동일하고 서로 다른 운영체제의 단말로부터 얻는 비디오 세그먼트에 설정하는 sps_id와 pps_id의 값은 서로다르다.
본 출원의 상기 실시예에 의하면, 제1 비디오 세그먼트와 제2 비디오 세그먼트에 스티칭을 수행할 경우, 예를 들어 IOS 시스템과 Android 시스템으로부터 얻은 비디오 세그먼트와 같은 다수의 운영체제로부터 얻은 비디오 세그먼트가 호환되지 않는 문제를 해결하고 서로 다른 단말 플랫폼에서 촬영한 비디오 세그먼트를 정확하게 스티칭할 수 있다. 이와 동시에 본 출원의 상기 실시예에 의하면, 촬영을 완성한 비디오 세그먼트를 자동적으로 합성하고 비디오 세그먼트의 합성 속도를 높이고 비디오의 스티칭 효율을 향상시킨다. 진일보로, 상기 방법에 의하면, 제1 비디오 세그먼트와 제2 비디오 세그먼트에 스티칭을 수행할 때, 제1 비디오 세그먼트의 방송 길이와 제1 시간대와의 밀리초 차이 또는 제2 비디오 세그먼트의 방송 길이와 제2 시간대와의 밀리초 차이에 의하여 오디오 파일과 비디오 파일에서 입술의 움직임이 일치하지 않는 문제를 피할 수 있고 촬영 효과의 진실감을 향상시킬 수 있다.
도 3은 본 출원의 실시예에 따른 선택가능한 멀티미디어 파일의 스티칭 방법을 나타낸 흐름도이다. 도 3에 도시한 바와 같이, 사용자A가 본 기계의 녹화장치에서 3세그먼트의 비디오를 촬영하고, 그 다음, x264 라이브러리를 통하여 녹화장치가 수집한 3세그먼트의 비디오의 영상 데이터를 압축 복호화하여 제1 비디오 스트림 데이터, 제2 비디오 스트림 데이터, 제3 비디오 스트림 데이터를 각각 생성하고 그 다음, 상기 제1 비디오 스트림 데이터, 제2 비디오 스트림 데이터, 제3 비디오 스트림 데이터를 라이브러리mp4v2를 통하여 mp4 파일1, mp4 파일2, mp4 파일3에 캡슐화하여 3개 비디오 세그먼트를 얻는다. 상기 비디오 세그먼트의 생성을 완성한 후, 신비한 파터너가 촬영한 비디오와 스티칭하여 완벽한 비디오 컨텐츠를 형성하고, 도 3에 도시한 바와 같이, 사용자B와 사용자C가 촬영한 비디오 세그먼트B 및 비디오 세그먼트C와 스티칭한다. 본 기계는 클라이언트를 통하여 사용자B와 사용자C가 촬영한 비디오 세그먼트B와 비디오 세그먼트C를 다운로드하여, 여기서, 사용자B의 비디오 세그먼트B를 mp4 파일4에 기억하고 사용자C의 비디오 세그먼트C를 mp4 파일5에 기억하며, 그 다음, mp4 파일1 내지 mp4 파일5중의 비디오 세그먼트를 상기 방법으로 스티칭하여 스티칭 후의 비디오 파일을 얻고 마지막에 비디오 파일과 오디오 파일을 합성하여 최종 파일을 얻어서 방송하는 것이 바람직하다. 본 출원의 실시예에 있어서, 상기 방법으로 비디오 파일과 오디오 파일을 합성하는 과정에 있어서, 사람이 오디오의 미세한 이상에는 아주 민감하지만 비디오와 오디오의 밀리초 차이는 잘 느끼지 못하는 특징을 이용하여 기술방안의 난의도를 유효하게 저하시켰다.
상기 다수의 비디오 세그먼트에 스티칭을 수행할 경우, 기술자가 규정한 매개 비디오 세그먼트의 시간길이에 따라서 스티칭을 수행한다. 예를 들어, 한 비디오 세그먼트가 1600밀리초이지만 촬영 과정에 차이가 발생하여 목표 시간길이(즉, 상기 제1 시간대와 제2 시간대)보다 조금 길어지거나 또는 조금 짧을 경우, 이에 대하여 특별한 처리를 수행하여 매개 비디오 세그먼트의 시간길이를 정확하게 목표 시간길이로 제어할 수 있고, 여기서, 이 특별한 처리 과정에 대하여서는 상기한 실시예에서 설명하였음으로 여기서는 상세한 설명을 생략한다.
다만, 상기한 각 방법 실시예에 대하여 간단히 설명하기 위하여 모두 일련의 동작 조합으로 설명하였지만 본 발명이 상기한 동작 순서에 한정되는 것이 아님을 이 분야의 기술자는 이해할 수 있고 이는 본 발명이 일부 단계를 기타 순서로 실행하거나 또는 동시에 실행할 수도 있기 때문이다. 그리고 명세서에 설명한 실시예는 모두 바람직한 실시예로 관련되는 동작과 수단이 본 발명에 반드시 필요한 것이 아닐 수도 있음을 이 분야의 기술자는 이해할 수 있다.
상기한 실시형태의 설명을 통하여 이 분야의 기술자는 상기 실시예에 따른 방법을 소프트웨어에 필요한 범용 하드웨어 플랫폼을 결합하는 방식으로 실현할 수 있을 뿐만아니라 하드웨어를 통하여 실현할 수도 있는데 다수의 경우 전자가 더욱 바람직한 실시형태임을 이해할 수 있다. 따라서, 본 발명의 기술방안의 실질 또는 기존기술에 공헌이 있는 부분을 소프트웨어 제품 형식으로 실현하고 컴퓨터 소프트웨어 제품을 기억매체(예를 들어, ROM/RAM, 자기 디스크, CD)에 기억하며 단말 기기(휴대폰, 컴퓨터, 서버 또는 네트워크 기기 등 일 수 있다)에 본 발명의 각 실시예에서 설명한 방법을 실행시키는 몇 명령을 포함할 수 있다.
실시예2
본 출원의 실시예에 의하면, 상기 멀티미디어 파일의 스티칭 방법을 실시하기 위한 멀티미디어 파일의 스티칭 장치를 제공하는데 이 멀티미디어 파일의 스티칭 장치는 주로 본 출원의 실시예의 상기 내용에서 제공하는 멀티미디어 파일의 스티칭 방법을 실시하고, 아래 본 출원의 실시예에서 제공하는 멀티미디어 파일의 스티칭 장치를 구체적으로 설명한다.
도 4는 본 출원의 실시예에 따른 멀티미디어 파일의 스티칭 장치를 나타낸 도로, 도 4에 도시한 바와 같이, 이 멀티미디어 파일의 스티칭 장치는 제1 획득유닛(41)과, 제2 획득유닛(43)과, 조절유닛(45)과, 스티칭유닛(47)을 포함한다.
제1 획득유닛(41)은 스티칭 대상인 제1 비디오 세그먼트와 제2 비디오 세그먼트를 획득하고, 여기서, 제1 비디오 세그먼트는 제1 단말로부터 얻는 것이고 제2 비디오 세그먼트는 제2 단말로부터 얻는 것이고, 제1 단말과 제2 단말은 서로다른 운영체제를 실행하고 있다.
제1 단말과 제2 단말이 서로다른 운영체제를 실행하는 단말인 것이 바람직하고, 예를 들어, 제1 단말이 Android 시스템을 실행하고 제2 단말이 IOS 시스템을 실행하거나 또는 제1 단말이 Windows 시스템을 실행하고 제2 단말이 IOS 시스템을 실행하는 등일 수 있다. 여기서, 제1 비디오 세그먼트는 사용자가 제1 단말에서 촬영한 비디오일 수 있고 제2 비디오 세그먼트는 사용자가 제2 단말에서 촬영한 비디오일 수 있다.
본 출원의 실시예에 있어서, 제1 단말은 다수의 단말로 이 다수의 단말이 동일한 운영체제를 실행할 수 있고, 이때, 제1 비디오 세그먼트는 다수의 서로다른 제1 단말로부터 얻는 다수의 비디오 세그먼트이다. 제2 단말도 다수의 단말로 이 다수의 단말이 동일한 운영체제를 실행할 수 있고, 이때, 제2 비디오 세그먼트는 다수의 서로다른 제2 단말로부터 얻는 다수의 비디오 세그먼트이다. 진일보로, 본 출원은 상기 제1 단말과 제2 단말에 한정되지 않고 제3 단말을 더 포함할 수 있고, 여기서, 제3 단말이 실행하는 운영체제는 제1 단말과 제2 단말이 실행하는 운영체제와 서로다르다.
제2 획득유닛(43)은 제1 비디오 세그먼트와 제2 비디오 세그먼트에 대응되는 오디오 파일을 획득하고, 여기서, 오디오 파일에 제1 비디오 세그먼트의 제1 시작 및 종료 시간과 제2 비디오 세그먼트의 제2 시작 및 종료 시간이 기재되어 있다.
상기 제1 시작 및 종료 시간이 오디오 파일에 이미 기재된 제1 비디오 세그먼트의 방송 시작 시간과 방송 종료 시간이고 제2 시작 및 종료 시간이 오디오 파일에 이미 기재된 제2 비디오 세그먼트의 방송 시작 시간과 방송 종료 시간인 것이 바람직하다.
조절유닛(45)은 제1 비디오 세그먼트를 제1 시작 및 종료 시간에 지시된 제1 시간내에서 방송되도록 조절하고 제2 비디오 세그먼트를 제2 시작 및 종료 시간에 지시된 제2 시간내에서 방송되도록 조절하고, 여기서, 제1 시간대와 제2 시간대는 겹쳐지지 않는다.
제1 비디오 세그먼트가 제1 시작 및 종료 시간에 지시된 제1 시간내에서 방송되도록 확보하기 위하여, 제1 시간대의 시간길이에 근거하여 제1 비디오 세그먼트의 제1 시간대 내에서 방송되는 화면을 조절하는 것이 바람직하다. 이에 대응되게, 제2 비디오 세그먼트가 제2 시작 및 종료 시간에 지시된 제2 시간내에서 방송되도록 확보하기 위하여, 제2 시간대의 시간길이에 근거하여 제2 비디오 세그먼트의 제2 시간대 내에서 방송되는 화면을 조절할 수 있다.
스티칭유닛(47)은 조절 후의 제1 비디오 세그먼트와 조절 후의 제2 비디오 세그먼트에 스티칭 조작을 수행하여 스티칭 후의 비디오 파일을 얻는다.
본 출원의 실시예에 있어서, 획득한 제1 단말로부터 얻는 제1 비디오 세그먼트를 제1 시작 및 종료 시간에 지시된 제1 시간대 내에 조절하고 획득한 제2 단말로부터 얻는 제2 비디오 세그먼트를 제2 시작 및 종료 시간에 지시된 제2 시간대 내에 조절하여 비디오 파일과 오디오 파일이 정확하게 스티칭되고 비디오 파일과 오디오 파일의 스티칭 정밀도를 향상시키는 목적을 실현하며 비디오 파일과 오디오 파일을 동기 방송하는 기술효과를 실현하고 기존기술에 있어서 오디오와 비디오의 스티칭 과정에 합성 정밀도가 낮은 문제를 해결할 수 있다.
또한, 조절유닛은 제1 비디오 세그먼트의 방송 길이가 제1 시간대보다 길 경우, 제1 비디오 세그먼트의 방송 시작 시각으로부터 제1 방송 시각까지의 방송 길이가 제1 시간대와 같아지도록 제1 비디오 세그먼트의 방송 종료 시각을 제1 비디오 세그먼트의 제1 방송 시각으로 조절하는 제1 조절수단과, 제1 비디오 세그먼트의 방송 길이가 제1 시간대보다 짧을 경우, 제1 비디오 세그먼트의 마지막 비디오 프레임을 제1 비디오 세그먼트의 방송 길이가 제1 시간대와 같아질 때까지 연장시키는 하는 제2 조절수단을 포함하고, 또한, 조절유닛은 제2 비디오 세그먼트의 방송 길이가 제2 시간대보다 길 경우, 제2 비디오 세그먼트의 방송 시작 시각으로부터 제2 방송 시각까지의 방송 길이가 제2 시간대와 같아지도록 제2 비디오 세그먼트의 방송 종료 시각을 제2 비디오 세그먼트의 제2 방송 시각으로 조절하는 제3 조절수단과, 제2 비디오 세그먼트의 방송 길이가 제2 시간대보다 짧을 경우, 제2 비디오 세그먼트의 마지막 비디오 프레임을 제2 비디오 세그먼트의 방송 길이가 제2 시간대와 같아질때까지 연장시키는 제4 조절수단을 포함할 수 있다.
또한, 제1 조절수단은 제1 비디오 세그먼트를 제1 파일중의 제1 시간대에 대응되는 제1 기억영역에 추가하는 것을 포함하고, 여기서, 제1 비디오 세그먼트의 방송 길이가 제1 시간대보다 길면 제1 기억영역에 제1 비디오 세그먼트중의 제1 비디오 세그먼트의 방송 시작 시각으로부터 제1 방송 시각까지의 제1 비디오 부분을 기억하고 제1 비디오 세그먼트의 방송 길이가 제1 시간대보다 짧으면 제1 기억영역에 제1 비디오 세그먼트를 기억하며, 또한, 제3 조절수단은 제2 비디오 세그먼트를 제2 파일중의 제2 시간대에 대응되는 제2 기억영역에 기억하는 것을 포함하고, 여기서, 제2 비디오 세그먼트의 방송 길이가 제2 시간대보다 길면 제2 기억영역에 제2 비디오 세그먼트중의 제2 비디오 세그먼트의 방송 시작 시각으로부터 제2 방송 시각까지의 제2 비디오 부분을 기억하고 제2 비디오 세그먼트의 방송 길이가 제2 시간대보다 짧으면 제2 기억영역에 제2 비디오 세그먼트를 기억할 수 있다.
또한, 스티칭유닛은 제1 시작 및 종료 시간과 제2 시작 및 종료 시간의 오디오 파일의 방송 시간에서의 순서에 따라 조절 후의 제1 비디오 세그먼트와 조절 후의 제2 비디오 세그먼트에 스티칭 조작을 수행하는 스티칭수단을 포함할 수 있다.
또한, 상기 장치는, 조절 후의 제1 비디오 세그먼트와 조절 후의 제2 비디오 세그먼트에 스티칭 조작을 수행한 후, 제1 비디오 세그먼트에 복호화를 수행하기 위한 제1 복호화 파라미터를 획득하고 제2 비디오 세그먼트에 복호화를 수행하기 위한 제2 복호화 파라미터를 획득하는 제3 획득유닛과, 제1 복호화 파라미터를 이용하여 스티칭 후의 비디오 파일중의 제1 비디오 세그먼트에 복호화를 수행하고 제2 복호화 파라미터를 이용하여 스티칭 후의 비디오 파일중의 제2 비디오 세그먼트에 복호화를 수행하는 복호화유닛을 더 포함할 수 있다.
실시예3
본 출원의 실시예에 의하면, 상기 멀티미디어 파일의 스티칭 방법을 실시하는 모바일 단말을 제공하는데 도 5에 도시한 바와 같이, 모바일 단말은 주로 프로세서(401)와, 디스플레이(402)와, 데이터 인터페이스(403)와, 메모리(404)와, 네트워크 인터페이스(405)를 포함한다.
디스플레이(402)는 주로 클라이언트의 계면을 표시하고, 여기서, 클라이언트의 계면은 그 클라이언트를 사용하는 사용자가 촬영한 비디오 또는 오디오 파일을 포함한다.
데이터 인터페이스(403)는 주로 데이터를 전송하는 방식으로 사용자가 촬영한 비디오 세그먼트를 서버(104)로 전송한다.
메모리(404)는 주로 사용자가 촬영한 비디오 세그먼트를 기억한다.
네트워크 인터페이스(405)는 주로 서버(104)와 네트워크 통신을 수행하여 비디오 세그먼트의 스티칭을 위한 데이터 지원을 제공한다.
프로세서(401)는 주로 하기 작업을 수행한다 :
스티칭 대상인 제1 비디오 세그먼트와 제2 비디오 세그먼트를 획득하고, 여기서, 제1 비디오 세그먼트는 제1 단말로부터 얻는 것이고 제2 비디오 세그먼트는 제2 단말로부터 얻는 것이고 제1 단말과 제2 단말은 서로다른 운영체제를 실행하고, 또한, 제1 비디오 세그먼트와 제2 비디오 세그먼트에 대응되는 오디오 파일을 획득하고, 여기서, 오디오 파일에 제1 비디오 세그먼트의 제1 시작 및 종료 시간과 제2 비디오 세그먼트의 제2 시작 및 종료 시간이 기재되어 있고, 또한, 제1 비디오 세그먼트를 제1 시작 및 종료 시간에 지시된 제1 시간내에서 방송되도록 조절하고 제2 비디오 세그먼트를 제2 시작 및 종료 시간에 지시된 제2 시간내에서 방송되도록 조절하고, 여기서, 제1 시간대와 제2 시간대는 겹쳐지지 않고, 또한, 조절 후의 제1 비디오 세그먼트와 조절 후의 제2 비디오 세그먼트에 스티칭 조작을 수행하여 스티칭 후의 비디오 파일을 얻는다.
프로세서(401)는 진일보로, 제1 비디오 세그먼트의 방송 길이가 제1 시간대보다 길 경우, 제1 비디오 세그먼트의 방송 시작 시각으로부터 제1 방송 시각까지의 방송 길이가 제1 시간대와 같아지도록 제1 비디오 세그먼트의 방송 종료 시각을 제1 비디오 세그먼트의 제1 방송 시각으로 조절하고 제1 비디오 세그먼트의 방송 길이가 제1 시간대보다 짧을 경우, 제1 비디오 세그먼트의 마지막 비디오 프레임을 제1 비디오 세그먼트의 방송 길이가 제1 시간대와 같아질 때까지 연장시키며, 제2 비디오 세그먼트의 방송 길이가 제2 시간대보다 길 경우, 제2 비디오 세그먼트의 방송 시작 시각으로부터 제2 방송 시각까지의 방송 길이가 제2 시간대와 같아지도록 제2 비디오 세그먼트의 방송 종료 시각을 제2 비디오 세그먼트의 제2 방송 시각으로 조절하고 제2 비디오 세그먼트의 방송 길이가 제2 시간대보다 짧을 경우, 제2 비디오 세그먼트의 마지막 비디오 프레임을 제2 비디오 세그먼트의 방송 길이가 제2 시간대와 같아질때까지 연장시킨다.
프로세서(401)는 진일보로, 제1 비디오 세그먼트를 제1 파일중의 제1 시간대에 대응되는 제1 기억영역에 추가하고, 여기서, 제1 비디오 세그먼트의 방송 길이가 제1 시간대보다 길면 제1 기억영역에 제1 비디오 세그먼트중의 제1 비디오 세그먼트의 방송 시작 시각으로부터 제1 방송 시각까지의 제1 비디오 부분을 기억하고 제1 비디오 세그먼트의 방송 길이가 제1 시간대보다 짧으면 제1 기억영역에 제1 비디오 세그먼트를 기억하며, 또한, 제2 비디오 세그먼트를 제2 파일중의 제2 시간대에 대응되는 제2 기억영역에 기억하고, 여기서, 제2 비디오 세그먼트의 방송 길이가 제2 시간대보다 길면 제2 기억영역에 제2 비디오 세그먼트중의 제2 비디오 세그먼트의 방송 시작 시각으로부터 제2 방송 시각까지의 제2 비디오 부분을 기억하고 제2 비디오 세그먼트의 방송 길이가 제2 시간대보다 짧으면 제2 기억영역에 제2 비디오 세그먼트를 기억한다.
프로세서(401)는 진일보로, 조절 후의 제1 비디오 세그먼트와 조절 후의 제2 비디오 세그먼트에 스티칭 조작을 수행할 때, 제1 시작 및 종료 시간과 제2 시작 및 종료 시간의 오디오 파일의 방송 시간에서의 순서에 따라 조절 후의 제1 비디오 세그먼트와 조절 후의 제2 비디오 세그먼트에 스티칭 조작을 수행한다.
프로세서(401)는 진일보로, 조절 후의 제1 비디오 세그먼트와 조절 후의 제2 비디오 세그먼트에 스티칭 조작을 수행한 후, 제1 비디오 세그먼트에 복호화를 수행하기 위한 제1 복호화 파라미터를 획득하고 제2 비디오 세그먼트에 복호화를 수행하기 위한 제2 복호화 파라미터를 획득하고, 제1 복호화 파라미터를 이용하여 스티칭 후의 비디오 파일중의 제1 비디오 세그먼트에 복호화를 수행하고 제2 복호화 파라미터를 이용하여 스티칭 후의 비디오 파일중의 제2 비디오 세그먼트에 복호화를 수행한다.
실시예4
본 출원의 실시예에 의하면, 기억매체를 제공한다. 본 실시예에 있어서, 상기 기억매체에 본 출원의 실시예의 멀티미디어 파일의 스티칭 방법의 프로그램 코드를 기억할 수 있다.
본 실시예에 있어서, 상기 기억매체는 모바일 통신네트워크, 광역 네트워크, 도시 지역 통신망 또는 근거리 통신망의 네트워크중의 다수의 네트워크 기기중의 적어도 하나의 네트워크 기기에 위치할 수 있다.
본 실시예에 있어서, 기억매체는 하기 단계를 수행하는 프로그램 코드를 기억하도록 구성된다:
S1, 스티칭 대상인 제1 비디오 세그먼트와 제2 비디오 세그먼트를 획득하고, 여기서, 제1 비디오 세그먼트는 제1 단말로부터 얻는 것이고 제2 비디오 세그먼트는 제2 단말로부터 얻는 것이고 제1 단말과 제2 단말은 서로다른 운영체제를 실행한다.
S2, 제1 비디오 세그먼트와 제2 비디오 세그먼트에 대응되는 오디오 파일을 획득하고, 여기서, 오디오 파일에 제1 비디오 세그먼트의 제1 시작 및 종료 시간과 제2 비디오 세그먼트의 제2 시작 및 종료 시간이 기재되어 있다.
S3, 제1 비디오 세그먼트를 제1 시작 및 종료 시간에 지시된 제1 시간내에서 방송되도록 조절하고 제2 비디오 세그먼트를 제2 시작 및 종료 시간에 지시된 제2 시간내에서 방송되도록 조절하고 여기서, 제1 시간대와 제2 시간대는 겹쳐지지 않는다.
S4, 조절 후의 제1 비디오 세그먼트와 조절 후의 제2 비디오 세그먼트에 스티칭 조작을 수행하여 스티칭 후의 비디오 파일을 얻는다.
또한, 본 실시예에 있어서, 상기 기억매체는 USB, 판독 전용 메모리(ROM, Read-Only Memory), 랜덤 액세스 메모리(RAM, Random Access Memory), 모바일 자기 디스크, 자기 디스크 또는 CD 등 프로그램 코드를 기억할 수 있는 각종 매체을 포함할 수 있지만 이에 한정되지 않는다.
또한, 본 실시예에 있어서, 상기 기억매체는 USB, 판독 전용 메모리(ROM, Read-Only Memory), 랜덤 액세스 메모리(RAM, Random Access Memory), 모바일 자기 디스크, 자기 디스크 또는 CD 등 프로그램 코드를 기억할 수 있는 각종 매체을 포함할 수 있지만 이에 한정되지 않는다.
또한, 본 실시예중의 구체적인 예로 상기 실시예1과 실시예2에서 설명한 예를 참조할 수 있고 본 실시예에서는 상세한 설명을 생략한다.
상기한 본 발명의 실시예의 번호는 설명의 편의를 위한 것으로 실시예의 우열을 나타내는 것이 아니다.
상기 실시예 중의 집성된 유닛을 소프트웨어 기능유닛 형식으로 구현하여 단독 제품으로 판매하거나 사용할 경우, 상기 컴퓨터가 판독 가능한 기억매체에 저장할 수 있다. 이에 근거하여 본 발명의 기술방안의 본질 또는 기존기술에 공헌이 있는 부분 또는 기술방안의 전부 또는 일부를 소프트웨어 제품 형식으로 구현할 수 있고 컴퓨터 소프트웨어 제품은 기억매체에 저장되고 하나 또는 다수의 컴퓨터 기기(개인용 컴퓨터, 서버 또는 네트워크 기기 등)로 하여금 본 발명의 각 실시예에서 설명한 방법의 전부 또는 일부 단계를 수행하도록 하는 명령을 포함할 수 있다.
본 발명의 상기 실시예에 있어서, 각 실시예의 설명에는 중요시하는 부분이 있고 어느 한 실시예에서 상세하게 설명하지 않은 부분은 기타 실시예의 관련 설명을 참조할 수 있다.
본 출원에서 제공하는 몇 실시예에 있어서, 공개된 클라이언트는 기타 방식으로 실현될 수도 있다. 이상에서 설명한 장치 실시예는 예시적인 것이고, 예를 들어 상기 유닛의 분할은 논리 기능의 분할로 실제로 실현함에 있어서는 이와 다른 방식으로 분할할 수도 있고, 예를 들어 다수개의 유닛 또는 부품을 결합시키거나 다른 한 시스템에 집성시킬 수 있고, 또는 일부 특징을 무시하거나 또는 수행하지 않을 수도 있다. 그리고, 표시하거나 또는 검토한 상호 결합 또는 직접 결합 또는 통신 연결은 인터페이스, 유닛 또는 수단을 통한 간접 결합 또는 통신 연결일 수 있고 전기적 또는 기타 형식일 수도 있다.
상기 분리된 부품으로 설명한 유닛은 물리적으로 분리된 것이거나 분리되지 않은 것일 수도 있고 유닛으로 나타낸 부품은 물리 유닛이거나 물리 유닛이 아닐 수도 있으며, 즉 한 위치에 위치하거나 또는 여러개 네트워크 유닛에 분포될 수도 있다. 실제 수요에 따라 그중의 일부 또는 전부 유닛을 선택하여 본 실시예의 방안을 실현하는 목적을 실현할 수 있다.
그리고, 본 발명의 각 실시예중의 각 기능유닛을 하나의 처리유닛에 집성시킬 수 있고 각 유닛이 물리적으로 단독으로 존재할 수도 있으며 두개 또는 두개 이상의 유닛을 하나의 유닛에 집성시킬 수도 있다. 상기 집성된 유닛을 하드웨어 형식으로 구현할 수 있고 소프트웨어 기능 유닛 형식으로 구현할 수도 있다.
상기한 내용은 본 발명의 바람직한 실시예이고 이 분야의 기술자는 본 발명의 원리를 벗어나지 않는 범위 내에서 여러가지 개변과 수정를 가져올 수 있고 이러한 개변과 수정은 본 발명의 보호 범위에 속한다.

Claims (15)

  1. 멀티미디어 파일의 스티칭 방법에 있어서,
    스티칭 대상인 제1 단말로부터 얻는 제1 비디오 세그먼트와 상기 제1 단말과 서로다른 운영체제를 실행하고 있는 제2 단말로부터 얻는 제2 비디오 세그먼트를 획득하는 단계;
    상기 제1 비디오 세그먼트의 제1 시작 및 종료 시간과 상기 제2 비디오 세그먼트의 제2 시작 및 종료 시간이 기재된 상기 제1 비디오 세그먼트와 제2 비디오 세그먼트에 대응되는 오디오 파일을 획득하는 단계;
    상기 제1 비디오 세그먼트를 상기 제1 시작 및 종료 시간에 지시된 제1 시간대에서 방송되도록 조절하고 상기 제2 비디오 세그먼트를 상기 제2 시작 및 종료 시간에 지시된 상기 제1 시간대와 겹쳐지지 않는 제2 시간대에서 방송되도록 조절하는 단계; 및
    조절 후의 상기 제1 비디오 세그먼트와 조절 후의 상기 제2 비디오 세그먼트에 스티칭 조작을 수행하여 스티칭 후의 비디오 파일을 얻는 단계
    를 포함하고,
    상기 제1 비디오 세그먼트를 상기 제1 시작 및 종료 시간에 지시된 제1 시간대에서 방송되도록 조절하는 단계가, 상기 제1 비디오 세그먼트의 방송 길이가 상기 제1 시간대보다 길면 상기 제1 비디오 세그먼트의 방송 시작 시각으로부터 상기 제1 방송 종료 시각까지의 방송 길이가 상기 제1 시간대와 같아지도록 상기 제1 비디오 세그먼트의 방송 종료 시각을 상기 제1 비디오 세그먼트의 제1 방송 종료 시각으로 조절하고, 상기 제1 비디오 세그먼트의 방송 길이가 상기 제1 시간대보다 짧으면 상기 제1 비디오 세그먼트의 마지막 비디오 프레임을 상기 제1 비디오 세그먼트의 방송 길이가 상기 제1 시간대와 같아질때까지 연장시키는 단계를 포함하고,
    상기 제2 비디오 세그먼트를 상기 제2 시작 및 종료 시간에 지시된 제2 시간대에서 방송되도록 조절하는 단계가, 상기 제2 비디오 세그먼트의 방송 길이가 상기 제2 시간대보다 길면 상기 제2 비디오 세그먼트의 방송 시작 시각으로부터 상기 제2 방송 종료 시각까지의 방송 길이가 상기 제2 시간대와 같아지도록 상기 제2 비디오 세그먼트의 방송 종료 시각을 상기 제2 비디오 세그먼트의 제2 방송 종료 시각으로 조절하고, 상기 제2 비디오 세그먼트의 방송 길이가 상기 제2 시간대보다 짧으면 상기 제2 비디오 세그먼트의 마지막 비디오 프레임을 상기 제2 비디오 세그먼트의 방송 길이가 상기 제2 시간대와 같아질 때까지 연장시키는 단계를 포함하는, 멀티미디어 파일의 스티칭 방법.
  2. 청구항 1에 있어서,
    상기 제1 비디오 세그먼트의 방송 종료 시각을 상기 제1 비디오 세그먼트의 제1 방송 종료 시각으로 조절하는 단계가, 상기 제1 비디오 세그먼트를 제1 파일 중의 상기 제1 시간대에 대응되는 제1 기억영역에 추가하는 단계를 포함하고, 여기서, 상기 제1 비디오 세그먼트의 방송 길이가 상기 제1 시간대보다 길면 상기 제1 기억영역에 상기 제1 비디오 세그먼트 중의 상기 제1 비디오 세그먼트의 방송 시작 시각으로부터 상기 제1 방송 종료 시각까지의 제1 비디오 부분을 기억하고, 상기 제1 비디오 세그먼트의 방송 길이가 상기 제1 시간대보다 짧으면 상기 제1 기억영역에 상기 제1 비디오 세그먼트를 기억하며,
    상기 제2 비디오 세그먼트의 방송 종료 시각을 상기 제2 비디오 세그먼트의 제2 방송 종료 시각으로 조절하는 단계가, 상기 제2 비디오 세그먼트를 제2 파일 중의 상기 제2 시간대에 대응되는 제2 기억영역에 추가하는 단계를 포함하고, 여기서, 상기 제2 비디오 세그먼트의 방송 길이가 상기 제2 시간대보다 길면 상기 제2 기억영역에 상기 제2 비디오 세그먼트 중의 상기 제2 비디오 세그먼트의 방송 시작 시각으로부터 상기 제2 방송 종료 시각까지의 제2 비디오 부분을 기억하고, 상기 제2 비디오 세그먼트의 방송 길이가 상기 제2 시간대보다 짧으면 상기 제2 기억영역에 상기 제2 비디오 세그먼트를 기억하는, 멀티미디어 파일의 스티칭 방법.
  3. 청구항 1에 있어서,
    조절 후의 상기 제1 비디오 세그먼트와 조절 후의 상기 제2 비디오 세그먼트에 스티칭 조작을 수행하는 단계가,
    상기 제1 시작 및 종료 시간과 상기 제2 시작 및 종료 시간의 상기 오디오 파일의 방송 시간에서의 순서에 따라 조절 후의 상기 제1 비디오 세그먼트와 조절 후의 상기 제2 비디오 세그먼트에 스티칭 조작을 수행하는 단계를 포함하는, 멀티미디어 파일의 스티칭 방법.
  4. 청구항 1에 있어서,
    조절 후의 상기 제1 비디오 세그먼트와 조절 후의 상기 제2 비디오 세그먼트에 스티칭 조작을 수행한 후,
    상기 제1 비디오 세그먼트에 복호화를 수행하기 위한 제1 복호화 파라미터를 획득하고 상기 제2 비디오 세그먼트에 복호화를 수행하기 위한 제2 복호화 파라미터를 획득하는 단계; 및
    상기 제1 복호화 파라미터를 이용하여 상기 스티칭 후의 비디오 파일중의 상기 제1 비디오 세그먼트에 복호화를 수행하고 상기 제2 복호화 파라미터를 이용하여 상기 스티칭 후의 비디오 파일중의 상기 제2 비디오 세그먼트에 복호화를 수행하는 단계
    를 더 포함하는 멀티미디어 파일의 스티칭 방법.
  5. 스티칭 대상인 제1 단말로부터 얻는 제1 비디오 세그먼트와 상기 제1 단말과 서로다른 운영체제를 실행하고 있는 제2 단말로부터 얻는 제2 비디오 세그먼트를 획득하는 제1 획득유닛;
    상기 제1 비디오 세그먼트의 제1 시작 및 종료 시간과 상기 제2 비디오 세그먼트의 제2 시작 및 종료 시간이 기재된 상기 제1 비디오 세그먼트와 제2 비디오 세그먼트에 대응되는 오디오 파일을 획득하는 제2 획득유닛;
    상기 제1 비디오 세그먼트를 상기 제1 시작 및 종료 시간에 지시된 제1 시간대에서 방송되도록 조절하고 상기 제2 비디오 세그먼트를 상기 제2 시작 및 종료 시간에 지시된 상기 제1 시간대와 겹쳐지지 않는 제2 시간대에서 방송되도록 조절하는 조절유닛; 및
    조절 후의 상기 제1 비디오 세그먼트와 조절 후의 상기 제2 비디오 세그먼트에 스티칭 조작을 수행하여 스티칭 후의 비디오 파일을 얻는 스티칭유닛
    을 포함하고,
    상기 조절유닛이, 상기 제1 비디오 세그먼트의 방송 길이가 상기 제1 시간대보다 길면 상기 제1 비디오 세그먼트의 방송 시작 시각으로부터 상기 제1 방송 종료 시각까지의 방송 길이가 상기 제1 시간대와 같아지도록 상기 제1 비디오 세그먼트의 방송 종료 시각을 상기 제1 비디오 세그먼트의 제1 방송 종료 시각으로 조절하는 제1 조절수단과, 상기 제1 비디오 세그먼트의 방송 길이가 상기 제1 시간대보다 짧으면 상기 제1 비디오 세그먼트의 마지막 비디오 프레임을 상기 제1 비디오 세그먼트의 방송 길이가 상기 제1 시간대와 같아질때까지 연장시키는 제2 조절수단을 포함하고,
    상기 조절유닛이, 상기 제2 비디오 세그먼트의 방송 길이가 상기 제2 시간대보다 길면 상기 제2 비디오 세그먼트의 방송 시작 시각으로부터 상기 제2 방송 종료 시각까지의 방송 길이가 상기 제2 시간대와 같아지도록 상기 제2 비디오 세그먼트의 방송 종료 시각을 상기 제2 비디오 세그먼트의 제2 방송 종료 시각으로 조절하는 제3 조절수단과, 상기 제2 비디오 세그먼트의 방송 길이가 상기 제2 시간대보다 짧으면 상기 제2 비디오 세그먼트의 마지막 비디오 프레임을 상기 제2 비디오 세그먼트의 방송 길이가 상기 제2 시간대와 같아질때까지 연장시키는 제4 조절수단을 포함하는, 멀티미디어 파일의 스티칭 장치.
  6. 청구항 5에 있어서,
    상기 제1 조절수단이 상기 제1 비디오 세그먼트를 제1 파일중의 상기 제1 시간대에 대응되는 제1 기억영역에 추가하는 것을 포함하고, 여기서, 상기 제1 비디오 세그먼트의 방송 길이가 상기 제1 시간대보다 길면 상기 제1 기억영역에 상기 제1 비디오 세그먼트중의 상기 제1 비디오 세그먼트의 방송 시작 시각으로부터 상기 제1 방송 종료 시각까지의 제1 비디오 부분을 기억하고, 상기 제1 비디오 세그먼트의 방송 길이가 상기 제1 시간대보다 짧으면 상기 제1 기억영역에 상기 제1 비디오 세그먼트를 기억하며,
    상기 제3 조절수단이 상기 제2 비디오 세그먼트를 제2 파일중의 상기 제2 시간대에 대응되는 제2 기억영역에 추가하는 것을 포함하고, 여기서, 상기 제2 비디오 세그먼트의 방송 길이가 상기 제2 시간대보다 길면 상기 제2 기억영역에 상기 제2 비디오 세그먼트중의 상기 제2 비디오 세그먼트의 방송 시작 시각으로부터 상기 제2 방송 종료 시각까지의 제2 비디오 부분을 기억하고, 상기 제2 비디오 세그먼트의 방송 길이가 상기 제2 시간대보다 짧으면 상기 제2 기억영역에 상기 제2 비디오 세그먼트를 기억하는, 멀티미디어 파일의 스티칭 장치.
  7. 청구항 5에 있어서,
    상기 스티칭유닛이,
    상기 제1 시작 및 종료 시간과 상기 제2 시작 및 종료 시간의 상기 오디오 파일의 방송 시간에서의 순서에 따라 조절 후의 상기 제1 비디오 세그먼트와 조절 후의 상기 제2 비디오 세그먼트에 스티칭 조작을 수행하는 스티칭수단을 포함하는, 멀티미디어 파일의 스티칭 장치.
  8. 청구항 5에 있어서,
    조절 후의 상기 제1 비디오 세그먼트와 조절 후의 상기 제2 비디오 세그먼트에 스티칭 조작을 수행한 후, 상기 제1 비디오 세그먼트에 복호화를 수행하기 위한 제1 복호화 파라미터를 획득하고 상기 제2 비디오 세그먼트에 복호화를 수행하기 위한 제2 복호화 파라미터를 획득하는 제3 획득유닛; 및
    상기 제1 복호화 파라미터를 이용하여 상기 스티칭 후의 비디오 파일중의 상기 제1 비디오 세그먼트에 복호화를 수행하고 상기 제2 복호화 파라미터를 이용하여 상기 스티칭 후의 비디오 파일중의 상기 제2 비디오 세그먼트에 복호화를 수행하는 복호화유닛
    을 포함하는 멀티미디어 파일의 스티칭 장치.
  9. 컴퓨터 판독가능 기억매체로서,
    상기 컴퓨터 판독가능 기억매체는,
    스티칭 대상인 제1 단말로부터 얻는 제1 비디오 세그먼트와 상기 제1 단말과 서로다른 운영체제를 실행하고 있는 제2 단말로부터 얻는 제2 비디오 세그먼트를 획득하는 단계;
    상기 제1 비디오 세그먼트의 제1 시작 및 종료 시간과 상기 제2 비디오 세그먼트의 제2 시작 및 종료 시간이 기재된 상기 제1 비디오 세그먼트와 제2 비디오 세그먼트에 대응되는 오디오 파일을 획득하는 단계;
    상기 제1 비디오 세그먼트를 상기 제1 시작 및 종료 시간에 지시된 제1 시간대에서 방송되도록 조절하고 상기 제2 비디오 세그먼트를 상기 제2 시작 및 종료 시간에 지시된 상기 제1 시간대와 겹쳐지지 않는 제2 시간대에서 방송되도록 조절하는 단계; 및
    조절 후의 상기 제1 비디오 세그먼트와 조절 후의 상기 제2 비디오 세그먼트에 스티칭 조작을 수행하여 스티칭 후의 비디오 파일을 얻는 단계
    를 수행하는 프로그램 코드를 저장하도록 구성되고,
    상기 컴퓨터 판독가능 기억매체는,
    상기 제1 비디오 세그먼트의 방송 길이가 상기 제1 시간대보다 길면 상기 제1 비디오 세그먼트의 방송 시작 시각으로부터 상기 제1 방송 종료 시각까지의 방송 길이가 상기 제1 시간대와 같아지도록 상기 제1 비디오 세그먼트의 방송 종료 시각을 상기 제1 비디오 세그먼트의 제1 방송 종료 시각으로 조절하고, 상기 제1 비디오 세그먼트의 방송 길이가 상기 제1 시간대보다 짧으면 상기 제1 비디오 세그먼트의 마지막 비디오 프레임을 상기 제1 비디오 세그먼트의 방송 길이가 상기 제1 시간대와 같아질때까지 연장시키고,
    상기 제2 비디오 세그먼트의 방송 길이가 상기 제2 시간대보다 길면 상기 제2 비디오 세그먼트의 방송 시작 시각으로부터 상기 제2 방송 종료 시각까지의 방송 길이가 상기 제2 시간대와 같아지도록 상기 제2 비디오 세그먼트의 방송 종료 시각을 상기 제2 비디오 세그먼트의 제2 방송 종료 시각으로 조절하고, 상기 제2 비디오 세그먼트의 방송 길이가 상기 제2 시간대보다 짧으면 상기 제2 비디오 세그먼트의 마지막 비디오 프레임을 상기 제2 비디오 세그먼트의 방송 길이가 상기 제2 시간대와 같아질때까지 연장시키는
    단계를 수행하는 프로그램 코드를 추가로 저장하는,
    컴퓨터 판독가능 기억매체.
  10. 청구항 9에 있어서,
    상기 제1 비디오 세그먼트를 제1 파일 중의 상기 제1 시간대에 대응되는 제1 기억영역에 추가하고, 여기서, 상기 제1 비디오 세그먼트의 방송 길이가 상기 제1 시간대보다 길면 상기 제1 기억영역에 상기 제1 비디오 세그먼트 중의 상기 제1 비디오 세그먼트의 방송 시작 시각으로부터 상기 제1 방송 종료 시각까지의 제1 비디오 부분을 기억하고, 상기 제1 비디오 세그먼트의 방송 길이가 상기 제1 시간대보다 짧으면 상기 제1 기억영역에 상기 제1 비디오 세그먼트를 기억하며,
    상기 제2 비디오 세그먼트를 제2 파일 중의 상기 제2 시간대에 대응되는 제2 기억영역에 추가하고, 여기서, 상기 제2 비디오 세그먼트의 방송 길이가 상기 제2 시간대보다 길면 상기 제2 기억영역에 상기 제2 비디오 세그먼트 중의 상기 제2 비디오 세그먼트의 방송 시작 시각으로부터 상기 제2 방송 종료 시각까지의 제2 비디오 부분을 기억하고, 상기 제2 비디오 세그먼트의 방송 길이가 상기 제2 시간대보다 짧으면 상기 제2 기억영역에 상기 제2 비디오 세그먼트를 기억하는
    단계를 수행하는 프로그램 코드를 추가로 저장하는 컴퓨터 판독가능 기억매체.
  11. 청구항 9에 있어서,
    상기 제1 시작 및 종료 시간과 상기 제2 시작 및 종료 시간의 상기 오디오 파일의 방송 시간에서의 순서에 따라 조절 후의 상기 제1 비디오 세그먼트와 조절 후의 상기 제2 비디오 세그먼트에 스티칭 조작을 수행하는
    단계를 수행하는 프로그램 코드를 추가로 저장하는 컴퓨터 판독가능 기억매체.
  12. 청구항 9에 있어서,
    상기 제1 비디오 세그먼트에 복호화를 수행하기 위한 제1 복호화 파라미터를 획득하고 상기 제2 비디오 세그먼트에 복호화를 수행하기 위한 제2 복호화 파라미터를 획득하고,
    상기 제1 복호화 파라미터를 이용하여 상기 스티칭 후의 비디오 파일 중의 상기 제1 비디오 세그먼트에 복호화를 수행하고 상기 제2 복호화 파라미터를 이용하여 상기 스티칭 후의 비디오 파일 중의 상기 제2 비디오 세그먼트에 복호화를 수행하는
    단계를 수행하는 프로그램 코드를 추가로 저장하는 컴퓨터 판독가능 기억매체.
  13. 삭제
  14. 삭제
  15. 삭제
KR1020187012099A 2016-03-14 2017-03-14 멀티미디어 파일의 스티칭 방법 및 장치 KR102081214B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201610144319.0A CN105791938B (zh) 2016-03-14 2016-03-14 多媒体文件的拼接方法和装置
CN201610144319.0 2016-03-14
PCT/CN2017/076580 WO2017157276A1 (zh) 2016-03-14 2017-03-14 多媒体文件的拼接方法和装置

Publications (2)

Publication Number Publication Date
KR20180061310A KR20180061310A (ko) 2018-06-07
KR102081214B1 true KR102081214B1 (ko) 2020-02-25

Family

ID=56392705

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187012099A KR102081214B1 (ko) 2016-03-14 2017-03-14 멀티미디어 파일의 스티칭 방법 및 장치

Country Status (7)

Country Link
US (1) US10679675B2 (ko)
EP (1) EP3361738A4 (ko)
JP (1) JP6689514B2 (ko)
KR (1) KR102081214B1 (ko)
CN (1) CN105791938B (ko)
MY (1) MY190066A (ko)
WO (1) WO2017157276A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105791938B (zh) 2016-03-14 2019-06-21 腾讯科技(深圳)有限公司 多媒体文件的拼接方法和装置
CN110392281B (zh) * 2018-04-20 2022-03-18 腾讯科技(深圳)有限公司 视频合成方法、装置、计算机设备及存储介质
CN109547711A (zh) * 2018-11-08 2019-03-29 北京微播视界科技有限公司 视频合成方法、装置、计算机设备及可读存储介质
CN109379633B (zh) * 2018-11-08 2020-01-10 北京微播视界科技有限公司 视频编辑方法、装置、计算机设备及可读存储介质
CN109992678B (zh) * 2019-03-14 2021-05-11 深圳市腾讯计算机系统有限公司 目标多媒体文件的确定方法及装置
CN112866776B (zh) * 2020-12-29 2022-09-20 北京金堤科技有限公司 视频生成方法和装置
CN112669885B (zh) * 2020-12-31 2023-04-28 咪咕文化科技有限公司 一种音频剪辑方法、电子设备及存储介质
CN112837709B (zh) * 2021-02-24 2022-07-22 北京达佳互联信息技术有限公司 一种音频文件拼接的方法及装置
CN114071229B (zh) * 2021-12-08 2023-06-09 四川启睿克科技有限公司 一种解决SurfaceView渲染器重载视频解码时回收延迟的方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008278492A (ja) * 2007-04-30 2008-11-13 Vixs Systems Inc 複数のビデオストリームを結合するシステム及びそれに伴う使用方法
CN101996662A (zh) * 2010-10-22 2011-03-30 深圳市万兴软件有限公司 视频文件的连接输出方法和装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0752440B2 (ja) * 1992-09-25 1995-06-05 日本電気株式会社 複合マルチメディアオブジェクト構成方法
US6262776B1 (en) * 1996-12-13 2001-07-17 Microsoft Corporation System and method for maintaining synchronization between audio and video
JP3325809B2 (ja) * 1997-08-15 2002-09-17 日本電信電話株式会社 映像制作方法及び装置及びこの方法を記録した記録媒体
JP2006203009A (ja) 2005-01-21 2006-08-03 Yamajiyu Ceramics:Kk 焦電型赤外線検出素子および焦電型赤外線検出器
US7716572B2 (en) * 2006-07-14 2010-05-11 Muvee Technologies Pte Ltd. Creating a new music video by intercutting user-supplied visual data with a pre-existing music video
US8190441B2 (en) * 2006-09-11 2012-05-29 Apple Inc. Playback of compressed media files without quantization gaps
WO2009042858A1 (en) * 2007-09-28 2009-04-02 Gracenote, Inc. Synthesizing a presentation of a multimedia event
WO2010068175A2 (en) * 2008-12-10 2010-06-17 Muvee Technologies Pte Ltd Creating a new video production by intercutting between multiple video clips
CN101771869B (zh) * 2008-12-30 2011-09-28 深圳市万兴软件有限公司 一种音视频编解码装置及方法
JP5331494B2 (ja) * 2009-01-19 2013-10-30 株式会社タイトー カラオケサービスシステム、端末装置
CN103167320B (zh) * 2011-12-15 2016-05-25 中国电信股份有限公司 音视频同步方法、系统及手机直播客户端
US9009619B2 (en) * 2012-09-19 2015-04-14 JBF Interlude 2009 Ltd—Israel Progress bar for branched videos
US20160014347A1 (en) * 2014-07-11 2016-01-14 Stephen Van Eynde Digital compositing of live action and animation
CN104980794A (zh) * 2015-06-30 2015-10-14 北京金山安全软件有限公司 一种视频拼接方法及装置
CN105208464B (zh) * 2015-09-21 2018-09-14 网易(杭州)网络有限公司 一种多媒体数据流的播放方法和终端
CN105392024B (zh) * 2015-10-28 2018-04-24 中国电子科技集团公司第二十八研究所 一种多源异类数据同步重放方法
CN105791938B (zh) * 2016-03-14 2019-06-21 腾讯科技(深圳)有限公司 多媒体文件的拼接方法和装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008278492A (ja) * 2007-04-30 2008-11-13 Vixs Systems Inc 複数のビデオストリームを結合するシステム及びそれに伴う使用方法
CN101996662A (zh) * 2010-10-22 2011-03-30 深圳市万兴软件有限公司 视频文件的连接输出方法和装置

Also Published As

Publication number Publication date
MY190066A (en) 2022-03-24
CN105791938B (zh) 2019-06-21
JP6689514B2 (ja) 2020-04-28
EP3361738A4 (en) 2019-03-27
KR20180061310A (ko) 2018-06-07
US20180330757A1 (en) 2018-11-15
CN105791938A (zh) 2016-07-20
JP2018537905A (ja) 2018-12-20
WO2017157276A1 (zh) 2017-09-21
EP3361738A1 (en) 2018-08-15
US10679675B2 (en) 2020-06-09

Similar Documents

Publication Publication Date Title
KR102081214B1 (ko) 멀티미디어 파일의 스티칭 방법 및 장치
CN110475150B (zh) 虚拟礼物特效的渲染方法和装置、直播系统
JP7409362B2 (ja) 再生装置および方法、並びにプログラム
CN107613235B (zh) 视频录制方法和装置
US20220046291A1 (en) Method and device for generating live streaming video data and method and device for playing live streaming video
CN106331880B (zh) 一种信息处理方法及系统
CN111988658B (zh) 视频生成方法及装置
CN106792152B (zh) 一种视频合成方法及终端
CN106303354B (zh) 一种脸部特效推荐方法及电子设备
CN109587570B (zh) 视频的播放方法和装置
CN105893412A (zh) 图像分享方法及装置
CN104754396A (zh) 弹幕数据的显示方法及装置
KR101612199B1 (ko) 가상 이미지 상에 자동적으로 표정을 재생하는 방법 및 장치
CN112188307B (zh) 视频资源的合成方法、装置、存储介质及电子装置
US11438645B2 (en) Media information processing method, related device, and computer storage medium
CN112218154B (zh) 视频的获取方法和装置、存储介质及电子装置
US10021433B1 (en) Video-production system with social-media features
WO2019192416A1 (zh) 视频处理方法及其装置、存储介质、电子产品
WO2017193830A1 (zh) 视频切换方法、装置、系统及存储介质
CN110012336A (zh) 直播界面的图片配置方法、终端及装置
US10043302B2 (en) Method and apparatus for realizing boot animation of virtual reality system
CN109413352B (zh) 视频数据的处理方法、装置、设备和存储介质
CN106604047A (zh) 一种多视频流的视频直播的方法及装置
CN105847990B (zh) 播放媒体文件的方法和设备
JP7356579B2 (ja) コードストリームの処理方法、装置、第1端末、第2端末及び記憶媒体

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant