KR20100061265A - Apparatus for mixing video stream and method thereof - Google Patents

Apparatus for mixing video stream and method thereof Download PDF

Info

Publication number
KR20100061265A
KR20100061265A KR1020090017032A KR20090017032A KR20100061265A KR 20100061265 A KR20100061265 A KR 20100061265A KR 1020090017032 A KR1020090017032 A KR 1020090017032A KR 20090017032 A KR20090017032 A KR 20090017032A KR 20100061265 A KR20100061265 A KR 20100061265A
Authority
KR
South Korea
Prior art keywords
stream
slice
video stream
video
slice header
Prior art date
Application number
KR1020090017032A
Other languages
Korean (ko)
Other versions
KR101096802B1 (en
Inventor
유홍연
오승훈
문병권
김경훈
이병탁
김낙우
고재상
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20100061265A publication Critical patent/KR20100061265A/en
Application granted granted Critical
Publication of KR101096802B1 publication Critical patent/KR101096802B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/188Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PURPOSE: An apparatus for mixing a video stream and a method thereof are provided to guarantee real time characteristic in the mixture of a plurality of video streams by mixing compacted video streams as one of compacted video of the desired screen configuration in the compressed domain. CONSTITUTION: An input buffer unit(10) receives the input of a plurality of compacted video streams. A stream analyzing unit(20) analyzes the bit string of the inputted video stream. A stream mixing unit(30) selectively varies slider header area of a plurality of compacted video stream bit strings according to the screen configuration based on the analyzed result. An output buffer unit(40) outputs the mixed compacted video stream according to the slice header zone change.

Description

비디오 스트림 혼합장치 및 그 방법 {Apparatus for mixing video stream and method thereof}Apparatus for mixing video stream and method

본 발명의 일 양상은 영상 처리기술에 관한 것으로, 보다 상세하게는 비디오 신호 혼합 기술에 관한 것이다.One aspect of the present invention relates to an image processing technique, and more particularly, to a video signal mixing technique.

본 연구는 지식경제부 및 정보통신연구진흥원의 광가입자망(FTTH)서비스 개발 실험사업의 일환으로 수행한 연구로부터 도출된 것이다.This study was derived from the research conducted as part of the experimental project for the development of optical subscriber network (FTTH) services by the Ministry of Knowledge Economy and the Ministry of Information and Communication Research.

디지털 영상 데이터는 영상회의, 고화질 텔레비젼, 주문형 비디오(VOD) 수신기, MPEG(Moving Picture Experts Group) 영상을 지원하는 퍼스널 컴퓨터, 게임기, 지상파 디지털 방송 수신기 디지털 위성 방송 수신기 및 케이블 텔레비젼(CATV) 등의 다양한 분야에서 사용된다. 그런데, 디지털 영상 데이터는 영상 자체의 특성과 아날로그 신호를 디지털화하는 과정에서 데이터량이 크게 증가하기 때문에 그대로 사용되기보다는 효율적인 영상 압축방법에 의해 압축된다.Digital video data can be used in a variety of applications including video conferencing, high-definition television, video-on-demand (VOD) receivers, personal computers that support moving picture experts group (MPEG) video, game consoles, terrestrial digital broadcast receivers, digital satellite broadcast receivers, and cable television (CATV). Used in the field However, the digital image data is compressed by an efficient image compression method, rather than being used as it is because the amount of data greatly increases in the process of digitizing the characteristics of the image itself and the analog signal.

영상 압축기술로는 MPEG, H.26x 등의 압축 표준이 있다. H.264/AVC (Advanced Video Coding)는 ITU-T VCEG(Video Coding Experts Group)와 ISO/IEC MPEG의 JVT(Joint Video Team)에 의해 표준으로 제정된 영상 압축기술이다. H.264/AVC 표준은 종래의 다른 비디오 압축표준과 같이 블록기반 부호화 방식을 유지하면서 우수한 비트율-왜곡(Rate-Distortion) 성능을 보여준다.Video compression techniques include compression standards such as MPEG and H.26x. H.264 / AVC (Advanced Video Coding) is a video compression technology standardized by ITU-T Video Coding Experts Group (VCEG) and Joint Video Team (JVT) of ISO / IEC MPEG. The H.264 / AVC standard shows excellent rate-distortion performance while maintaining a block-based coding scheme like other conventional video compression standards.

일 양상에 따라, 압축 비디오 스트림들을 압축 도메인에서 사용자가 원하는 화면 구성을 가지는 단일 압축 비디오 스트림으로 혼합하는 비디오 스트림 혼합장치 및 그 방법을 제안한다.According to an aspect, a video stream mixing apparatus and a method for mixing compressed video streams into a single compressed video stream having a user desired screen configuration in a compression domain are proposed.

일 양상에 따른 비디오 스트림 혼합장치는, 압축된 복수의 비디오 스트림을 입력받는 입력 버퍼부, 입력된 비디오 스트림의 비트열을 분석하는 스트림 분석부, 분석 결과에 기초하여 최종 혼합 화면을 구성할 복수의 압축 비디오 스트림 비트열의 슬라이스 헤더 영역을 화면 구성에 따라 선택적으로 변경하는 스트림 혼합부 및 슬라이스 헤더 영역 변경에 따라 혼합된 압축 비디오 스트림을 출력하는 출력 버퍼부를 포함한다.In one embodiment, a video stream mixing apparatus includes an input buffer unit for receiving a plurality of compressed video streams, a stream analyzer for analyzing a bit string of an input video stream, and a plurality of final screens based on an analysis result. A stream mixing unit for selectively changing the slice header region of the compressed video stream bit string according to the screen configuration, and an output buffer unit for outputting the compressed compressed video stream according to the slice header region change.

한편 다른 양상에 따른 비디오 스트림 혼합방법은, 압축된 복수의 비디오 스트림을 입력받는 단계, 입력된 비디오 스트림의 비트열을 분석하는 단계, 분석 결과에 기초하여 최종 혼합 화면을 구성할 복수의 압축 비디오 스트림 비트열의 슬라이스 헤더 영역을 화면 구성에 따라 선택적으로 변경하는 단계 및 슬라이스 헤더 영역 변경에 따라 혼합된 압축 비디오 스트림을 출력하는 단계를 포함한다.Meanwhile, a video stream mixing method according to another aspect includes receiving a plurality of compressed video streams, analyzing a bit string of the input video stream, and configuring a plurality of compressed video streams to form a final mixed screen based on the analysis result. Selectively changing the slice header area of the bit string according to the screen configuration, and outputting a mixed compressed video stream according to the slice header area change.

본 발명의 일 실시예에 따르면, 압축된 비디오 스트림들을 픽셀 영역까지 복원하지 않고 압축 도메인에서 사용자가 원하는 화면 구성을 가지는 단일 압축 비디 오 스트림으로 혼합할 수 있다. 따라서 다수의 비디오 스트림을 혼합할 때 실시간성을 보장할 수 있고, 화질 열화 현상을 방지할 수 있다.According to an embodiment of the present invention, the compressed video streams may be mixed into a single compressed video stream having a screen configuration desired by the user in the compression domain without reconstructing the pixel region. Therefore, when mixing a plurality of video streams, it is possible to ensure real-time and to prevent image degradation.

이하에서는 첨부한 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, with reference to the accompanying drawings will be described embodiments of the present invention; In the following description of the present invention, if it is determined that detailed descriptions of related well-known functions or configurations may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. In addition, terms to be described below are terms defined in consideration of functions in the present invention, which may vary according to intention or custom of a user or an operator. Therefore, the definition should be made based on the contents throughout the specification.

도 1a 및 도 1b는 본 발명이 적용되는 서비스 시스템을 도시한 예시도이다.1A and 1B are exemplary views illustrating a service system to which the present invention is applied.

도 1a는 본 발명의 일 실시예에 따른 인터넷 기반 참여형 방송 서비스 시스템을 도시한 예시도이다. 도 1a를 참조하면, 일 실시예에 따른 비디오 스트림 혼합장치는 인터넷 기반 참여형 방송 서비스 시스템에 적용 가능하다. 이때 방송 서비스는 참여형 IPTV 방송 서비스일 수 있다.1A is an exemplary diagram illustrating an Internet-based participatory broadcast service system according to an embodiment of the present invention. Referring to FIG. 1A, a video stream mixing apparatus according to an embodiment may be applied to an Internet-based participant broadcasting service system. In this case, the broadcast service may be a participatory IPTV broadcast service.

일 실시예에 따른 인터넷 기반 참여형 방송 서비스 시스템은 방송 서비스를 제공하는 방송 서비스 제공장치(100)와 방송 서비스를 시청하는 시청자 단말(120) 및 방송 서비스를 시청하면서 동시에 방송에 참여하는 참여자 단말(110)로 구성된다.The Internet-based participant broadcasting service system according to an exemplary embodiment includes a broadcast service providing apparatus 100 for providing a broadcast service, a viewer terminal 120 for watching a broadcast service, and a participant terminal 110 for simultaneously watching a broadcast service and participating in a broadcast. It consists of

이때 일 실시예에 따르면, 방송 서비스 제공장치(100)는 인터넷 망을 통해 현재 방송중인 서비스(예를 들면 프로그램)에 대해서 시청자가 참여를 원할 경우 참여자 단말(110)로부터 압축된 비디오 스트림을 수신한다. 그리고, 방송중인 비디오 스트림의 특정 영역에 참여자 단말(110)로부터 수신된 비디오 스트림을 혼합하여 실시간으로 참여자 단말(110)에 재전송한다.At this time, according to an embodiment, the broadcast service providing apparatus 100 receives a compressed video stream from the participant terminal 110 when the viewer wants to participate in a service (for example, a program) that is currently being broadcast through the Internet. . Then, the video stream received from the participant terminal 110 is mixed in a specific area of the broadcast video stream and retransmitted to the participant terminal 110 in real time.

방송 서비스 제공 시스템의 미디어 서버가 방송에 참여자 단말로부터 전송된 압축 비디오 스트림과 방송 프로그램 제공장치가 방송중인 압축된 비디오 스트림을 각각 방송 프로그램을 구성할 화면에 적합하게 혼합하고, 다시 전송용 비디오 스트림으로 압축하여 시청자 단말 및 참여자 단말에게 전송할 수 있다.The media server of the broadcast service providing system mixes the compressed video stream transmitted from the participant terminal in the broadcast and the compressed video stream broadcasted by the broadcast program providing apparatus to the screen for composing the broadcast program, respectively, and then converts it into a video stream for transmission. It can be compressed and transmitted to the viewer terminal and the participant terminal.

그런데, 미디어 서버는 비디오 스트림 혼합 과정에 있어서 압축된 비디오 스트림들을 복호기에서 픽셀 단위로 디코딩하고, 픽셀 데이터들을 혼합한 후 다시 손실부호화 특성을 가지는 부호화기부를 통해 압축한다. 이에 따라 화면의 화질이 열화될 가능성이 있다. 또한, 미디어 서버를 통해 다수의 비디오 스트림들을 픽셀 단위로 디코딩하는 과정과 혼합된 비디오 데이터를 압축하는 과정이 실행됨에 따라, 높은 고화질의 다수 비디오 스트림들을 동시에 처리하는데 걸리는 시간이 지연될 수 있다. 따라서 실시간성을 요구하는 방송용 비디오 스트림을 제작하기 어렵다. However, in the video stream mixing process, the media server decodes the compressed video streams by the decoder in the pixel unit, mixes the pixel data, and compresses the compressed video streams again through an encoder having lossy coding characteristics. As a result, the screen quality may deteriorate. In addition, as the process of decoding the plurality of video streams pixel by pixel and the process of compressing the mixed video data through the media server is performed, the time required for simultaneously processing a plurality of video streams of high quality may be delayed. Therefore, it is difficult to produce a broadcast video stream requiring real time.

그러나, 본 발명의 일 실시예에 따르면, 미디어 서버가 아닌 방송 서비스 제공장치(100)가 압축된 다수의 비디오 스트림들을 혼합한다. 그리고, 방송 서비스 제공장치(100)가 압축된 다수의 비디오 스트림들을 픽셀 도메인 혹은 DCT(Discreate Cosine Transform) 도메인까지 디코딩을 수행하지 않고 압축 도메인 에서 비디오 스트림들을 혼합한다. 따라서 화질의 열화현상 없이 실시간으로 비디오 스트림을 혼합할 수 있다.However, according to an embodiment of the present invention, the broadcast service providing apparatus 100, not the media server, mixes a plurality of compressed video streams. In addition, the broadcast service providing apparatus 100 mixes the compressed video streams in the compressed domain without decoding the compressed video streams to the pixel domain or the DCT (Discreate Cosine Transform) domain. Therefore, video streams can be mixed in real time without deterioration of image quality.

도 1b는 본 발명의 다른 실시예에 따른 다자간 영상회의 서비스 시스템을 도시한 예시도이다. 도 1b를 참조하면, 일 실시예에 따른 비디오 스트림 혼합장치는 다자간 영상회의 서비스 시스템에 적용 가능하다. 다자간 영상회의 서비스 시스템은 다자간 회의 방송을 제공하는 회의 서비스 제공장치(130) 및 회의에 참여하는 참여자 단말(140)로 구성된다.1B is an exemplary diagram illustrating a multi-party video conferencing service system according to another embodiment of the present invention. Referring to FIG. 1B, a video stream mixing apparatus according to an embodiment may be applied to a multiparty video conferencing service system. The multi-party video conferencing service system includes a conference service providing apparatus 130 for providing a multi-party conference broadcast and a participant terminal 140 participating in a conference.

이때 일 실시예에 따르면, 다자간 영상회의 서비스 제공장치(130)는 현재 영상회의 서비스에 참여하는 참여자 단말(140)로부터 압축된 비디오 스트림을 수신하고, 수신된 비디오 스트림을 실시간으로 특정 영역에 혼합하여 참여자 단말(140)에 재전송할 수 있다.At this time, according to an embodiment, the multi-party video conferencing service providing apparatus 130 receives a compressed video stream from the participant terminal 140 participating in the current video conferencing service, and mixes the received video stream in a specific area in real time. It may be retransmitted to the participant terminal 140.

다자간 영상회의 시스템의 MCU(Multipoint Control Unit)가 도 1a에 전술한 미디어 서버와 비슷한 기능을 수행할 수 있다. 그러나 이 경우 역시 다수의 비디오 스트림을 동시에 처리하기에는 시간 지연 및 화질열화 문제점을 가진다.The MCU (Multipoint Control Unit) of the multi-party video conferencing system may perform a function similar to the media server described above with reference to FIG. 1A. However, in this case, too, there is a problem of time delay and quality deterioration in processing multiple video streams simultaneously.

그러나, 본 발명의 일 실시예에 따르면, 압축된 다수의 비디오 스트림들을 픽셀 도메인 혹은 DCT 도메인까지 디코딩을 수행하지 않고 압축 도메인에서 혼합함으로써 화질의 열화현상 없이 실시간으로 비디오 스트림을 혼합할 수 있다.However, according to an embodiment of the present invention, the video streams may be mixed in real time without deterioration of image quality by mixing a plurality of compressed video streams in the compression domain without performing decoding to the pixel domain or the DCT domain.

한편, 도 1a 및 도 1b에 방송 서비스 제공 시스템 및 다자간 영상회의 시스템을 도시하였으나, 일 실시예에 따른 비디오 스트림 혼합장치의 적용 예는 전술한 실시예에 한정되지 않는다. 예를 들면, 압축된 다수의 비디오 데이터를 사용하는 동영상 합성 및 보관, 다채널 DVR 시스템 등에 적용할 수 있다.Meanwhile, although the broadcast service providing system and the multi-party video conferencing system are shown in FIGS. 1A and 1B, application examples of the video stream mixing apparatus according to an embodiment are not limited to the above-described embodiment. For example, the present invention can be applied to video synthesis and storage using a plurality of compressed video data, a multi-channel DVR system, and the like.

한편, 본 발명의 일 실시예에 따른 비디오 스트림 혼합장치는 H.264/AVC 압축 기술을 이용할 수 있다. H.264/AVC는 ITU-T에서 제안한 H.32x 비디오 표준의 한 종류로서, 매우 높은 데이터 압축률을 가지는 디지털 비디오 코덱 표준이다.On the other hand, the video stream mixing apparatus according to an embodiment of the present invention may use H.264 / AVC compression technology. H.264 / AVC is a type of H.32x video standard proposed by ITU-T and is a digital video codec standard with very high data compression rate.

도 2는 본 발명의 일 실시예에 따른 비디오 스트림 혼합장치(1)의 구성도이다. 도 2를 참조하면, 일 실시예에 따른 비디오 스트림 혼합장치(1)는 입력 버퍼부(10), 스트림 분석부(20), 스트림 혼합부(30) 및 출력 버퍼부(40)를 포함한다.2 is a block diagram of a video stream mixing apparatus 1 according to an embodiment of the present invention. Referring to FIG. 2, the video stream mixing apparatus 1 according to an embodiment includes an input buffer unit 10, a stream analyzing unit 20, a stream mixing unit 30, and an output buffer unit 40.

입력 버퍼부(10)는 압축된 복수의 비디오 스트림을 입력받는다. 그리고, 입력되는 다수의 비디오 스트림들의 비트열(bit string)을 저장한다. 이때 입력 버퍼부(10)는 인터넷 기반 참여형 방송 서비스를 통한 시청자 단말 또는 다자간 영상회의에서의 회의 참여자 단말로부터 압축된 복수의 비디오 스트림을 입력받을 수 있다. 그리고, 아직 혼합되지 않은 비트열들 중에서 버퍼 충만도(buffer fullness)가 가장 큰 버퍼의 비트열을 선택적으로 스트림 분석부(20)에 제공할 수 있다.The input buffer unit 10 receives a plurality of compressed video streams. Then, a bit string of a plurality of input video streams is stored. In this case, the input buffer unit 10 may receive a plurality of compressed video streams from a viewer terminal or a conference participant terminal in a multi-party video conference through an Internet-based participant broadcasting service. The bit sequence of the buffer having the largest buffer fullness among the bit sequences not yet mixed may be selectively provided to the stream analyzer 20.

스트림 분석부(20)는 입력 버퍼부(10)를 통해 입력된 비디오 스트림의 비트열을 분석한다. 스트림 분석부(20)는, 입력된 비디오 스트림 중 네트워크 추상계층 단위(Network Abstraction Layer unit, 이하 NAL 단위)로 입력되는 비트열을 대상으로 NAL 단위의 종류를 나타내는 식별정보를 통해 비디오 스트림의 비트열을 인식할 수 있다. NAL 단위는 NAL 헤더와 슬라이스 헤더영역(slice header) 및 슬라이스 데이터영역(slice data)으로 구성된다. 이때 NAL 헤더에는 NAL 단위의 종류 를 나타내는 식별정보인 nal-unit-type 필드 정보가 포함된다.The stream analyzer 20 analyzes a bit string of a video stream input through the input buffer unit 10. The stream analyzing unit 20 is a bit string of the video stream through identification information indicating the type of the NAL unit for a bit string input from a network abstraction layer unit (hereinafter, referred to as NAL unit) among the input video streams. Can be recognized. The NAL unit includes a NAL header, a slice header area, and a slice data area. In this case, the NAL header includes nal-unit-type field information, which is identification information indicating the type of the NAL unit.

일 실시예에 따른 스트림 분석부(20)는 NAL 단위로 입력되는 비트열에서 4바이트 또는 3바이트로 구성된 개시부호코드(start prefix code)로부터 NAL 헤더를 검색하고, 검색된 NAL 헤더에 포함되는 식별정보(nal_unit_type) 필드 정보를 통해 식별된 비트열 구분 정보를 후술할 스트림 혼합부(30)에 제공한다.The stream analyzer 20 searches for a NAL header from a start prefix code consisting of 4 bytes or 3 bytes in a bit string input in units of NAL, and identifies the information included in the retrieved NAL header. The bit string identification information identified through the (nal_unit_type) field information is provided to the stream mixing unit 30 to be described later.

나아가, 스트림 분석부(20)는 복수의 비디오 스트림의 비트열에 대한 슬라이스 헤더영역(slice header) 및 슬라이스 데이터영역(slice data)을 스트림 혼합부(30)에 제공한다.In addition, the stream analyzer 20 provides a slice header region and a slice data region for the bit string of the plurality of video streams to the stream mixer 30.

그리고, 스트림 분석부(20)는 분석된 비디오 스트림이 화면 혼합의 주체가 되는 단말로부터 수신된 기본 비트열이면, 기본 비트열에 해당되는 스트림의 개시부호 정보(start prefix code), NAL 헤더영역(NAL header), 시퀀스 처리정보에 해당되는 시퀀스 파라미터 셋(Sequence Parameter Set, SPS) 및 픽쳐 처리정보에 해당되는 픽쳐 파라미터 셋(Picure Parameter Set, PPS)을 스트림 혼합부(30)에 제공할 수 있다. 나머지 비디오 스트림들의 개시부호 정보, NAL 헤더영역, SPS 및 PPS는 스트림 혼합부(30)에 제공하지 않는다.If the analyzed video stream is a basic bit string received from a terminal that is the subject of screen mixing, the stream analyzer 20 starts a start prefix code of the stream corresponding to the basic bit string and a NAL header area NAL. A header, a sequence parameter set (SPS) corresponding to the sequence processing information, and a picture parameter set (PPS) corresponding to the picture processing information may be provided to the stream mixer 30. The start code information, the NAL header area, the SPS, and the PPS of the remaining video streams are not provided to the stream mixer 30.

이때 기본 비트열은 도 1a에 도시된 인터넷 기반 참여형 방송 서비스를 통한 방송 서비스 제공장치로부터 제공된 비디오 스트림 또는 도 1b에 도시된 다자간 영상회의에서의 회의 참여자 중 발언권을 가진 참여자의 단말로부터 입력되는 압축 비디오 스트림일 수 있다.At this time, the basic bit string is a video stream provided from a broadcast service providing apparatus through the Internet-based participant broadcasting service shown in FIG. 1A or compressed video input from a terminal of a participant who has a voice in a conference participant in a multi-party video conference shown in FIG. 1B. It may be a stream.

한편, 스트림 혼합부(30)는 스트림 분석부(20)의 분석 결과에 기초하여 최종 혼합 화면을 구성할 복수의 압축 비디오 스트림 비트열의 슬라이스 헤더 영역을 화면 구성에 따라 선택적으로 변경한다.Meanwhile, the stream mixer 30 selectively changes slice header regions of the plurality of compressed video stream bit streams that will form the final mixed screen based on the analysis result of the stream analyzer 20 according to the screen configuration.

출력 버퍼부(40)는 스트림 혼합부(30)를 통해 슬라이스 헤더 영역 변경에 따라 혼합된 압축 비디오 스트림을 출력한다. 이때 출력 버퍼부(40)는 스트림 혼합부(30)에서 혼합 처리된 한 개의 슬라이스 비트열이 한 프레임을 구성할 수 있도록 비트열을 선택적으로 제공받아 최종 혼합 비트열을 출력한다.The output buffer unit 40 outputs the compressed video stream mixed according to the change of the slice header region through the stream mixing unit 30. In this case, the output buffer unit 40 selectively receives a bit string so that one slice bit string mixed by the stream mixer 30 may constitute one frame, and outputs the final mixed bit string.

도 3은 본 발명의 일 실시예에 따른 도 2의 스트림 혼합부(30)의 세부 구성도이다. 도 3을 참조하면, 스트림 혼합부(30)는 비트열 판별부(300), 시퀀스 파라미터 셋 변환부(310) 및 슬라이스 헤더 변환부(320)를 포함하며, 나아가 슬라이스 데이터 정렬부(330)를 더 포함할 수 있다.3 is a detailed block diagram of the stream mixing unit 30 of FIG. 2 according to an embodiment of the present invention. Referring to FIG. 3, the stream mixer 30 includes a bit string determination unit 300, a sequence parameter set converter 310, and a slice header converter 320, and further includes a slice data aligner 330. It may further include.

비트열 판별부(300)는 도 2의 스트림 분석부(20)를 통해 분석된 비트열의 식별정보를 이용하여 시퀀스 처리정보에 해당되는 시퀀스 파라미터 셋(SPS)을 판별한다.The bit string determination unit 300 determines a sequence parameter set (SPS) corresponding to the sequence processing information by using the bit string identification information analyzed by the stream analyzer 20 of FIG. 2.

시퀀스 파라미터 셋 변환부(310)는 비트열 판별부(300)를 통해 판별된 시퀀스 파라미터 셋(SPS)에 대해 비디오 스트림을 혼합할 화면에 따라 해상도 정보를 변환한다. 예를 들면, 시퀀스 파라미터 셋 변환부(310)는 최종 혼합화면을 구성할 화면의 해상도 크기에 따라서 가로 크기를 나타내는 pic_width_in_mbs_minus1 필드 값 및 최종화면의 세로 크기를 나타내는 pic_height_in_map_units_minus1 필드 값을 변경하고 출력한다.The sequence parameter set converter 310 converts the resolution information according to the screen to mix the video streams with respect to the sequence parameter set (SPS) determined by the bit string determination unit 300. For example, the sequence parameter set converter 310 changes and outputs a pic_width_in_mbs_minus1 field value indicating a horizontal size and a pic_height_in_map_units_minus1 field value indicating a vertical size of a final screen according to the resolution size of a screen to configure a final mixed screen.

슬라이스 헤더 변환부(320)는 혼합할 화면을 구성하는 각 슬라이스의 슬라이 스 헤더영역(slice header)을 변경한다. 이때 이때 슬라이스 헤더 변환부(320)는 각 슬라이스의 슬라이스 헤더영역에 포함된 매크로블록(MacroBlock) 중 시작 매크로 블록에 해당되는 어드레스 정보를 변경할 수 있다. 즉, 슬라이스 헤더 변환부(320)는 한 개의 슬라이스를 구성하는 슬라이스 헤더의 시작 매크로블록 어드레스를 지시하는 first_mb_in_slice 필드 정보만을 변환하고, 슬라이스를 구성하는 나머지 매크로블록 어드레스는 설정하지 않는다. The slice header converter 320 changes a slice header area of each slice constituting the screen to be mixed. In this case, the slice header converter 320 may change address information corresponding to the start macro block among the macroblocks included in the slice header area of each slice. That is, the slice header converting unit 320 converts only first_mb_in_slice field information indicating the start macroblock address of the slice header constituting one slice, and does not set the remaining macroblock addresses constituting the slice.

H.264/AVC 표준 신택스에는 한 화면을 구성하는 각 슬라이스마다 첫 매크로블록 어드레스만을 지시하는 필드를 가지고 있어, 다수의 비디오 스트림을 혼합할 때 화면 구성을 유연하게 정의할 수 있다. 또한 본 발명의 일 실시예에 따르면, 매크로블록 어드레스 정보를 추출하기 위한 역 VLC와 매크로블록 어드레스 증가에 따른 차이 값을 VLC로 부호화하는 과정을 수행할 필요가 없다.The H.264 / AVC standard syntax has a field indicating only the first macroblock address for each slice constituting one screen, which allows flexible definition of the screen configuration when mixing multiple video streams. In addition, according to an embodiment of the present invention, it is not necessary to perform the process of encoding the inverse VLC for extracting the macroblock address information and the difference value according to the increase of the macroblock address into VLC.

한편, 슬라이스 데이터 정렬부(330)는 슬라이스의 슬라이스 헤더영역 변경에 따라 슬라이스 데이터 영역의 최종 바이트를 정렬한다. 슬라이스 데이터 정렬부(330)의 정렬과정에 대한 상세한 설명은 도 5에서 후술한다.On the other hand, the slice data sorter 330 sorts the last byte of the slice data area according to the change of the slice header area of the slice. A detailed description of the alignment process of the slice data alignment unit 330 will be given later with reference to FIG. 5.

도 4는 본 발명의 일 실시예에 따른 스트림 혼합 과정에서의 매크로블록 어드레스 재할당을 설명하기 위한 참조도이다. 이때 도 4는 일 실시예에 따른 비디오 스트림 혼합장치가 한 화면에 대해 3개의 비디오 스트림을 혼합한다고 가정한 경우에 해당된다. 도 4에 도시된 굵은 점선(420)은 각 비디오 스트림들의 경계를 임의로 도시한 것이고, 화살표 실선(430)은 혼합된 슬라이스 헤더의 first_mb_in_slice 필드의 값을 변경하기 위한 매크로블록 어드레스의 증가 방향을 도시한 것이다. 4 is a reference diagram for explaining macroblock address reallocation in a stream mixing process according to an embodiment of the present invention. 4 illustrates a case in which the video stream mixing apparatus mixes three video streams for one screen. The thick dotted line 420 shown in FIG. 4 arbitrarily shows the boundaries of the respective video streams, and the solid arrow line 430 shows the increase direction of the macroblock address for changing the value of the first_mb_in_slice field of the mixed slice header. will be.

이때, 슬라이스 헤더 변환부(320)는 최종 혼합화면을 구성하는 각 입력 비트열들의 슬라이스 헤더에서 왼쪽의 첫 슬라이스 헤더의 first_mb_in_slice 필드 값은 변환하지 않고(410), 나머지 슬라이스 헤더의 first_mb_in_slice 필드 값은 화면 구성에 따라 변환한다(400).In this case, the slice header converter 320 does not convert the first_mb_in_slice field value of the first slice header on the left side from the slice headers of the input bit streams constituting the final mixed screen (410), and the first_mb_in_slice field value of the remaining slice headers is displayed on the screen. Convert according to the configuration (400).

도 5는 본 발명의 일 실시예에 따른 슬라이스 데이터 바이트 정렬 과정에서의 슬라이스 비트열을 도시한 참조도이다.5 is a reference diagram illustrating a slice bit string in a slice data byte alignment process according to an embodiment of the present invention.

도 5를 참조하면, 일 실시예에 따른 비디오 스트림 혼합장치는 슬라이스의 슬라이스 헤더영역 변경에 따라 슬라이스 데이터 영역의 최종 바이트를 정렬한다.Referring to FIG. 5, the video stream mixing apparatus aligns the last byte of the slice data area according to the change of the slice header area of the slice.

H.264/AVC 신택스 표준은 한 화면에서 한 개의 슬라이스를 구성하는 비트열이 슬라이스 헤더와 슬라이스 데이터를 포함하여 바이트 단위로 정렬되어 구성되어 있다. 따라서 본 발명의 일 실시예에 따르면, 비디오 스트림 혼합장치는 매크로블록 어드레스가 값이 변화되는 것에 따라 한 개의 슬라이스를 구성하는 슬라이스 데이터의 최종 바이트를 다시 정렬한다.In the H.264 / AVC syntax standard, a bit string constituting a slice in one screen is arranged in byte units including a slice header and slice data. Accordingly, according to an embodiment of the present invention, the video stream mixing apparatus rearranges the last byte of slice data constituting one slice as the macroblock address changes in value.

도 5의 참조부호 501은 입력되는 한 개의 슬라이스 헤더와 슬라이스 데이터를 포함한 슬라이스 비트열의 크기를 도시한 것이고, 참조부호 502는 입력 슬라이스 비트열의 크기를 도시한 것이며, 참조부호 503은 입력 비트열의 마지막 바이트 크기를 도시한 것이다. Reference numeral 501 of FIG. 5 shows the size of a slice bit string including an input slice header and slice data, reference numeral 502 shows the size of the input slice bit string, and reference numeral 503 denotes the last byte of the input bit string. Size is shown.

한편 도 5의 참조부호 504는 매크로블록 어드레스가 변경되어 참조부호 502의 크기가 늘어난 길이를 도시한 것이고, 참조부호 504 크기만큼 늘어난 비트에 의 해 슬라이스 데이터의 마지막 바이트가 참조부호 505 크기만큼 비트가 밀린다. 따라서 비디오 스트림 혼합장치는 참조부호 506 크기만큼 늘어난 비트 수를 계산하여 바이트 정렬에 필요한 임의의 '0'값을 삽입하여 최종 마지막 비트들을 바이트 정렬 한다. 참조부호 507은 최종 변환된 슬라이스 헤더와 슬라이스 데이터를 포함한 한 슬라이스를 구성하는 비트열의 크기를 도시한 것이다.On the other hand, reference numeral 504 of FIG. 5 shows the length of the macroblock address changed to increase the size of the reference numeral 502, and the last byte of the slice data is increased by the size of the reference numeral 505 due to the bit increased by the reference numeral 504. Pushed. Therefore, the video stream mixer calculates the number of bits increased by 506 and inserts an arbitrary '0' value for byte alignment to byte-align the last bits. Reference numeral 507 shows the size of a bit string constituting a slice including the last transformed slice header and slice data.

도 6은 본 발명의 일 실시예에 따른 비디오 스트림 혼합방법을 도시한 흐름도이다.6 is a flowchart illustrating a video stream mixing method according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시예에 따른 비디오 스트림 혼합장치는 압축된 복수의 비디오 스트림을 입력받는다(S600). 이어서, 비디오 스트림 혼합장치는 입력된 비디오 스트림의 비트열을 분석한다(S610).Referring to FIG. 6, the video stream mixing apparatus according to an embodiment of the present invention receives a plurality of compressed video streams (S600). Subsequently, the video stream mixing apparatus analyzes a bit string of the input video stream (S610).

그리고, 비디오 스트림 혼합장치는 분석에 따라 식별된 비트열의 슬라이스 헤더 영역을 변경(S620)하여 최종 혼합 화면을 구성할 복수의 비디오 스트림을 혼합한다(S630). 여기서, 비디오 스트림 혼합장치는 스트림 분석을 통해 인식된 비트열의 식별정보를 이용하여 시퀀스 처리정보에 해당되는 시퀀스 파라미터 셋을 판별한다. 그리고, 판별된 시퀀스 파라미터 셋에 대해 비디오 스트림을 혼합할 화면에 따라 해상도 정보를 변환한다. 이어서, 혼합할 화면을 구성하는 각 슬라이스의 슬라이스 헤더영역을 변경한다. 변경되는 슬라이스 헤더영역은 매크로블록 중 시작 매크로블록에 해당되는 어드레스 정보일 수 있다.Then, the video stream mixing apparatus changes the slice header region of the identified bit string according to the analysis (S620) and mixes the plurality of video streams to form the final mixed screen (S630). Here, the video stream mixing apparatus determines the sequence parameter set corresponding to the sequence processing information by using the identification information of the bit string recognized through the stream analysis. Then, the resolution information is converted according to the screen for mixing the video stream with respect to the determined sequence parameter set. Next, the slice header area of each slice constituting the screen to be mixed is changed. The changed slice header area may be address information corresponding to a start macroblock among macroblocks.

이어서, 비디오 스트림 혼합장치는 혼합된 비디오 스트림을 출력한다(S640).Subsequently, the video stream mixing apparatus outputs the mixed video stream (S640).

이제까지 본 발명에 대하여 그 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The embodiments of the present invention have been described above. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.

도 1a 및 도 1b는 본 발명이 적용되는 서비스 시스템을 도시한 예시도,1A and 1B are exemplary views illustrating a service system to which the present invention is applied.

도 2는 본 발명의 일 실시예에 따른 비디오 스트림 혼합장치의 구성도,2 is a block diagram of a video stream mixing device according to an embodiment of the present invention;

도 3은 본 발명의 일 실시예에 따른 도 2의 스트림 혼합부의 세부 구성도,3 is a detailed configuration diagram of the stream mixing unit of FIG. 2 according to an embodiment of the present invention;

도 4는 본 발명의 일 실시예에 따른 스트림 혼합 과정에서의 매크로블록 어드레스 재할당을 설명하기 위한 참조도,4 is a reference diagram for explaining macroblock address reallocation in a stream mixing process according to an embodiment of the present invention;

도 5는 본 발명의 일 실시예에 따른 슬라이스 데이터 바이트 정렬 과정에서의 슬라이스 비트열을 도시한 참조도,5 is a reference diagram illustrating a slice bit string in a slice data byte alignment process according to an embodiment of the present invention;

도 6은 본 발명의 일 실시예에 따른 비디오 스트림 혼합방법을 도시한 흐름도이다.6 is a flowchart illustrating a video stream mixing method according to an embodiment of the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

1 : 비디오 스트림 혼합장치 10 : 입력 버퍼부1: video stream mixing device 10: input buffer unit

20 : 스트림 분석부 30 : 스트림 혼합부20: stream analysis unit 30: stream mixing unit

40 : 출력 버퍼부 300 : 비트열 판별부40: output buffer unit 300: bit string determination unit

310 : 시퀀스 파라미터 셋 변환부 320 : 슬라이스 헤더 변환부310: sequence parameter set converter 320: slice header converter

330 : 슬라이스 데이터 정렬부330: slice data sorting unit

Claims (12)

압축된 복수의 비디오 스트림을 입력받는 입력 버퍼부;An input buffer unit configured to receive a plurality of compressed video streams; 상기 입력된 비디오 스트림의 비트열을 분석하는 스트림 분석부;A stream analyzer for analyzing a bit string of the input video stream; 상기 분석 결과에 기초하여 최종 혼합 화면을 구성할 복수의 압축 비디오 스트림 비트열의 슬라이스 헤더 영역을 화면 구성에 따라 선택적으로 변경하는 스트림 혼합부; 및A stream mixing unit for selectively changing slice header regions of a plurality of compressed video stream bit streams to form a final mixed screen based on the analysis result according to the screen configuration; And 상기 슬라이스 헤더 영역 변경에 따라 혼합된 압축 비디오 스트림을 출력하는 출력 버퍼부를 포함하는 것을 특징으로 하는 비디오 스트림 혼합장치.And an output buffer unit for outputting the compressed compressed video stream according to the change of the slice header region. 제 1 항에 있어서, 상기 스트림 혼합부는,The method of claim 1, wherein the stream mixing unit, 상기 스트림 분석부를 통해 분석된 비트열의 식별정보를 이용하여 시퀀스 처리정보에 해당되는 시퀀스 파라미터 셋을 판별하는 비트열 판별부;A bit string determination unit for determining a sequence parameter set corresponding to sequence processing information by using identification information of the bit string analyzed by the stream analyzer; 상기 판별된 시퀀스 파라미터 셋에 대해 상기 비디오 스트림을 혼합할 화면에 따라 해상도 정보를 변환하는 시퀀스 파라미터 셋 변환부; 및A sequence parameter set converter for converting resolution information according to a screen for mixing the video stream with respect to the determined sequence parameter set; And 상기 혼합할 화면을 구성하는 각 슬라이스의 슬라이스 헤더영역을 상기 화면 구성에 따라 변경하는 슬라이스 헤더 변환부를 포함하는 것을 특징으로 하는 비디오 스트림 혼합장치.And a slice header converter configured to change a slice header area of each slice constituting the screen to be mixed according to the screen configuration. 제 2 항에 있어서, 상기 슬라이스 헤더 변환부는,The method of claim 2, wherein the slice header converter, 상기 각 슬라이스의 슬라이스 헤더영역에 포함된 매크로블록 중 시작 매크로블록에 해당되는 어드레스 정보를 변경하는 것을 특징으로 하는 비디오 스트림 혼합장치.And changing the address information corresponding to the start macroblock among the macroblocks included in the slice header region of each slice. 제 2 항에 있어서,The method of claim 2, 상기 슬라이스의 슬라이스 헤더영역 변경에 따라 상기 슬라이스 데이터 영역의 최종 바이트를 정렬하는 슬라이스 데이터 정렬부를 더 포함하는 것을 특징으로 하는 비디오 스트림 혼합장치.And a slice data aligning unit to align the last byte of the slice data region according to a change of the slice header region of the slice. 제 1 항에 있어서, 상기 스트림 분석부는,The method of claim 1, wherein the stream analysis unit, 상기 입력된 비디오 스트림 중 네트워크 추상계층 단위로 입력되는 비트열을 대상으로 상기 네트워크 추상계층 단위의 종류를 나타내는 식별정보를 통해 상기 비디오 스트림의 비트열을 인식하는 것을 특징으로 하는 비디오 스트림 혼합장치.And a bit stream of the video stream through identification information indicating a type of the network abstract layer unit for a bit stream input from a network abstract layer unit among the input video streams. 제 1 항에 있어서, 상기 스트림 분석부는,The method of claim 1, wherein the stream analysis unit, 상기 복수의 비디오 스트림의 비트열에 대한 슬라이스 헤더영역 및 슬라이스 데이터영역을 상기 스트림 혼합부에 제공하고,Providing a slice header area and a slice data area for bit streams of the plurality of video streams to the stream mixing unit, 상기 분석된 비디오 스트림이 화면 혼합의 주체가 되는 단말로부터 수신된 기본 비트열이면, 상기 기본 비트열에 해당되는 스트림의 개시부호 정보, 네트워크 추상계층 헤더 영역, 시퀀스 처리정보에 해당되는 시퀀스 파라미터 셋 및 픽쳐 처 리정보에 해당되는 픽쳐 파라미터 셋을 상기 스트림 혼합부에 제공하는 것을 특징으로 하는 비디오 스트림 혼합장치.If the analyzed video stream is a basic bit string received from a terminal that is the subject of screen mixing, the sequence code set and the picture corresponding to the start code information, the network abstract layer header area, and the sequence processing information of the stream corresponding to the basic bit string. And a picture parameter set corresponding to processing information is provided to the stream mixing unit. 제 6 항에 있어서, The method of claim 6, 상기 기본 비트열은 인터넷 기반 참여형 방송 서비스를 제공하는 방송 서비스 제공장치로부터 수신된 비디오 스트림 또는 다자간 영상회의 서비스에서의 회의 참여자 중 발언권을 가진 참여자의 단말로부터 수신된 압축 비디오 스트림인 것을 특징으로 하는 비디오 스트림 혼합장치.The basic bit string is a video stream received from a broadcast service providing apparatus for providing an Internet-based participant broadcasting service or a compressed video stream received from a terminal of a participant having a voice in a conference participant in a multi-conference video conference service. Stream mixer. 제 1 항에 있어서,The method of claim 1, 상기 입력 버퍼부는 인터넷 기반 참여형 방송 서비스를 이용하는 시청자 단말로부터 상기 압축된 복수의 비디오 스트림을 입력받고,The input buffer unit receives the compressed plurality of video streams from a viewer terminal using an Internet-based participant broadcasting service, 상기 출력 버퍼부는 상기 혼합된 압축 비디오 스트림을 상기 시청자 단말에 출력하는 것을 특징으로 하는 비디오 스트림 혼합장치.And the output buffer unit outputs the mixed compressed video stream to the viewer terminal. 제 1 항에 있어서,The method of claim 1, 상기 입력 버퍼부는 다자간 영상회의 서비스를 이용하는 회의 참여자 단말로부터 상기 압축된 복수의 비디오 스트림을 입력받고,The input buffer unit receives the compressed plurality of video streams from a conference participant terminal using a multi-party video conferencing service, 상기 출력 버퍼부는 상기 혼합된 압축 비디오 스트림을 상기 회의 참여자 단말로 출력하는 것을 특징으로 하는 비디오 스트림 혼합장치.And the output buffer unit outputs the mixed compressed video stream to the conference participant terminal. 압축된 복수의 비디오 스트림을 입력받는 단계;Receiving a plurality of compressed video streams; 상기 입력된 비디오 스트림의 비트열을 분석하는 단계;Analyzing a bit stream of the input video stream; 상기 분석 결과에 기초하여 최종 혼합 화면을 구성할 복수의 압축 비디오 스트림 비트열의 슬라이스 헤더 영역을 화면 구성에 따라 선택적으로 변경하는 단계; 및Selectively changing slice header regions of a plurality of compressed video stream bit streams to form a final mixed screen based on the analysis result according to a screen configuration; And 상기 슬라이스 헤더 영역 변경에 따라 혼합된 압축 비디오 스트림을 출력하는 단계를 포함하는 것을 특징으로 하는 비디오 스트림 혼합방법.And outputting a mixed compressed video stream according to the slice header region change. 제 10 항에 있어서, 상기 복수의 비디오 스트림을 혼합하는 단계는,The method of claim 10, wherein mixing the plurality of video streams comprises: 상기 스트림 분석부를 통해 인식된 비트열의 식별정보를 이용하여 시퀀스 처리정보에 해당되는 시퀀스 파라미터 셋을 판별하는 단계;Determining a sequence parameter set corresponding to sequence processing information by using identification information of a bit string recognized by the stream analyzer; 상기 판별된 시퀀스 파라미터 셋에 대해 상기 비디오 스트림을 혼합할 화면에 따라 해상도 정보를 변환하는 단계; 및Converting resolution information according to a screen for mixing the video stream with respect to the determined sequence parameter set; And 상기 혼합할 화면을 구성하는 각 슬라이스의 슬라이스 헤더영역을 변경하는 단계를 포함하는 것을 특징으로 하는 비디오 스트림 혼합방법.And changing a slice header area of each slice constituting the screen to be mixed. 제 11 항에 있어서, 상기 각 슬라이스의 슬라이스 헤더영역을 변경하는 단계는,The method of claim 11, wherein changing the slice header area of each slice comprises: 상기 각 슬라이스의 슬라이스 헤더영역에 포함된 매크로블록 중 시작 매크로 블록에 해당되는 어드레스 정보를 변경하는 것을 특징으로 하는 비디오 스트림 혼합방법.And changing the address information corresponding to the start macro block among the macro blocks included in the slice header area of each slice.
KR1020090017032A 2008-11-28 2009-02-27 Apparatus for mixing video stream and method thereof KR101096802B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20080119794 2008-11-28
KR1020080119794 2008-11-28

Publications (2)

Publication Number Publication Date
KR20100061265A true KR20100061265A (en) 2010-06-07
KR101096802B1 KR101096802B1 (en) 2011-12-22

Family

ID=42362062

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090017032A KR101096802B1 (en) 2008-11-28 2009-02-27 Apparatus for mixing video stream and method thereof

Country Status (1)

Country Link
KR (1) KR101096802B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101053161B1 (en) * 2009-07-22 2011-08-02 주식회사 엠씨넥스 Video Synthesis Method and Device in H.264 / ACC Compression Domain
KR101446073B1 (en) * 2013-12-26 2014-10-06 연세대학교 산학협력단 Method, apparatus and system for combining plural picutres
KR101446074B1 (en) * 2013-12-26 2014-10-06 연세대학교 산학협력단 Method, apparatus and system for combining plural picutres

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4569968B2 (en) 2006-06-13 2010-10-27 Kddi株式会社 Moving picture composition apparatus and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101053161B1 (en) * 2009-07-22 2011-08-02 주식회사 엠씨넥스 Video Synthesis Method and Device in H.264 / ACC Compression Domain
KR101446073B1 (en) * 2013-12-26 2014-10-06 연세대학교 산학협력단 Method, apparatus and system for combining plural picutres
KR101446074B1 (en) * 2013-12-26 2014-10-06 연세대학교 산학협력단 Method, apparatus and system for combining plural picutres

Also Published As

Publication number Publication date
KR101096802B1 (en) 2011-12-22

Similar Documents

Publication Publication Date Title
US9769485B2 (en) Multi-layer encoding and decoding
KR102111436B1 (en) Method and Apparatus for Generating Single Bit Stream from Multiple Video Stream
US7650036B2 (en) System and method for three-dimensional video coding
US9036700B2 (en) Simulcast of stereoviews for 3D TV
KR20060009878A (en) Method for coding sequences of pictures
KR20090051042A (en) Techniques for variable resolution encoding and decoding of digital video
US10148991B2 (en) System and method for providing a private mosaic
US8526489B2 (en) Personal video recorder
KR101053161B1 (en) Video Synthesis Method and Device in H.264 / ACC Compression Domain
KR20180052613A (en) Transmitting apparatus, transmitting method, receiving apparatus and receiving method
KR20180044902A (en) Transmitting apparatus, transmitting method, receiving apparatus and receiving method
CN1197378C (en) Progressive scanning sequence for transmitting movable image expert group and other data format
Sugito et al. HEVC/H. 265 codec system and transmission experiments aimed at 8K broadcasting
US20220182705A1 (en) Transmission apparatus, transmission method, encoding apparatus, encoding method, reception apparatus, and reception method
KR101096802B1 (en) Apparatus for mixing video stream and method thereof
KR20080081407A (en) Method and equipment for hybrid multiview and scalable video coding
EP3360334A1 (en) Digital media splicing system and method
KR101012760B1 (en) System and Method for transmitting and receiving of Multi-view video
KR20090030779A (en) A low delay intra-frame coding method using data partition
WO2015102462A1 (en) Single bit stream generating method and generating device for multiple images
Jaksic et al. Implementation of Video Compression Standards in Digital Television
Percheron et al. HEVC, the key to delivering an enhanced television viewing experience “Beyond HD”
De Lameillieure et al. A comparative study of simulcast and hierarchical coding
KR100749180B1 (en) Method and apparatus providing picture communication service by using broadband convergence network
Vieron et al. 4K TV capture, an early experience sharing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141205

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171213

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20200106

Year of fee payment: 9