KR100748060B1 - Internet broadcasting system of Real-time multilayer multimedia image integrated system and Method thereof - Google Patents

Internet broadcasting system of Real-time multilayer multimedia image integrated system and Method thereof Download PDF

Info

Publication number
KR100748060B1
KR100748060B1 KR1020050096409A KR20050096409A KR100748060B1 KR 100748060 B1 KR100748060 B1 KR 100748060B1 KR 1020050096409 A KR1020050096409 A KR 1020050096409A KR 20050096409 A KR20050096409 A KR 20050096409A KR 100748060 B1 KR100748060 B1 KR 100748060B1
Authority
KR
South Korea
Prior art keywords
video
real
time
image
background
Prior art date
Application number
KR1020050096409A
Other languages
Korean (ko)
Other versions
KR20070016901A (en
Inventor
조상환
Original Assignee
주식회사 오아시스미디어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 오아시스미디어 filed Critical 주식회사 오아시스미디어
Priority to KR1020050096409A priority Critical patent/KR100748060B1/en
Publication of KR20070016901A publication Critical patent/KR20070016901A/en
Application granted granted Critical
Publication of KR100748060B1 publication Critical patent/KR100748060B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs

Abstract

본 발명은 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템 및 이를 이용한 인터넷 방송 제공방법에 관한 것으로서, 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템은, 네트워크를 통한 인터넷 방송 시스템에 있어서, 실시간으로 입력되는 영상데이터와 음향데이터 및 배경동영상을 실시간으로 합성하여 다층 합성 동영상을 생성하고, 상기 다층 합성 동영상을 실시간으로 소정의 코덱에따라 스트리밍 파일로 변환하여 상기 네트워크를 통해 전송하는 실시간 다층 동영상 합성 시스템, 상기 실시간 다층 동영상 합성 시스템으로부터 전송되는 스트리밍 파일을 수신하여 상기 네트워크를 통해 실시간으로 전송하는 웹서버 및 상기 네트워크를 통해 상기 웹서버에 접속하여 상기 스트리밍 파일을 수신하는 복수의 클라이언트 단말기를 포함하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템이 제공된다.The present invention relates to an internet broadcasting system using a real-time multilayer video synthesizing system and an internet broadcasting providing method using the same, wherein an internet broadcasting system using a real-time multilayer video synthesizing system is an image input in real time in an internet broadcasting system via a network. Real-time multi-layer video synthesizing system for generating a multi-layer composite video by synthesizing data, sound data, and background video in real time, converting the multi-layer composite video into a streaming file according to a predetermined codec in real time, and transmitting it through the network; A web server for receiving a streaming file transmitted from a multi-layer video synthesis system and transmitting in real time through the network and a plurality of clients accessing the web server through the network to receive the streaming file. The Internet broadcasting system using a real-time multi-layer composite video system comprising the end is provided.

본 발명에 따르면, 별다른 장비나 편집과정없이 인터넷 생방송을 제공할 수 있다는 장점이 있으며, 또한, 여러가지 특수효과가 실시간으로 처리되어 보다 높은 품질의 인터넷 생방송을 제공할 수 있다는 장점이 있다.According to the present invention, there is an advantage in that it is possible to provide live internet broadcasting without any additional equipment or editing process, and also, there are advantages in that various special effects are processed in real time to provide higher quality live internet broadcasting.

인터넷 방송, 온라인 방송, 실시간 합성, 다층 동영상, 동영상 합성 Internet broadcasting, online broadcasting, real time compositing, multilayer video, video compositing

Description

실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템 및 이를 이용한 인터넷 방송 제공방법{Internet broadcasting system of Real-time multilayer multimedia image integrated system and Method thereof}Internet broadcasting system using real-time multilayer video synthesis system and method for providing internet broadcasting using same

도 1은 본 발명의 바람직한 일 실시예에 따른 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템의 개략적인 구성 블록도이다.1 is a schematic block diagram of an internet broadcasting system using a real-time multi-layer video synthesis system according to an embodiment of the present invention.

도 2는 본 발명의 바람직한 일 실시예에 따른 실시간 다층 동영상 합성 시스템의 구성 블록도이다.2 is a block diagram of a real-time multi-layer video synthesis system according to an embodiment of the present invention.

도 3은 본 발명의 바람직한 일 실시예에 따른 웹서버의 구성 블록도이다.3 is a block diagram of a web server according to an embodiment of the present invention.

도 4는 본 발명의 바람직한 일 실시예에 따른 실시간 다층 동영상 합성 시스템에서 동영상이 실시간으로 촬영되어 합성되는 과정을 나타낸 순서도이다.FIG. 4 is a flowchart illustrating a process in which a video is captured and synthesized in real time in a real-time multilayer video synthesizing system according to an exemplary embodiment of the present invention.

도 5는 본 발명의 바람직한 일 실시예에 따른 웹서버에서 이루어지는 실시간 인터넷 방송의 제공방법을 나타낸 순서도이다.5 is a flowchart illustrating a method of providing real-time Internet broadcasting in a web server according to an exemplary embodiment of the present invention.

* 도면의 주요부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

100 : 실시간 다층 동영상 합성 시스템 102 : 네트워크100: real-time multilayer video synthesis system 102: network

104 : 웹서버 106 : 모범연출 동영상 DB104: Web server 106: Best production video DB

108 : 이용자동영상 DB 110 : 최고득점자 동영상 DB108: Use automatic video DB 110: High Scorer video DB

210 : 실시간 다층 동영상 합성 장치 222 : 영상처리부210: real-time multilayer video synthesizing apparatus 222: image processing unit

224 : 음향처리부 226 : 파일처리부224: sound processor 226: file processor

230 : 프로젝트 제어부 310 : 방송제어부230: project control unit 310: broadcasting control unit

320 : 데이터베이스 제어부320: database control unit

본 발명은 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템에 관한 것으로서, 보다 상세하게는 가상 연출자의 연출에 따라 행동하는 이용자의 동영상을 실시간 다층 동영상 합성 시스템을 이용하여 실시간 다층 합성동영상으로 합성하고, 합성된 다층 합성동영상을 웹서버에서 수신하여, 웹서버에 연결된 다수의 클라이언트 단말기로 전송함으로써, 다수의 시청자가 실시간으로 영상합성 및 각종 특수효과가 가미된 높은 품질의 인터넷 방송 동영상을 시청할 수 있는 인터넷 방송 시스템 및 이를 이용한 인터넷 방송 제공방법에 관한 것이다.The present invention relates to an internet broadcasting system using a real-time multilayer video synthesizing system. More particularly, a video of a user acting according to the direction of a virtual director is synthesized into a real-time multi-layer synthetic video using a real-time multilayer video synthesizing system, and synthesized. By receiving the multi-layered composite video from a web server and transmitting it to a plurality of client terminals connected to the web server, an internet broadcast can enable a large number of viewers to watch a high quality internet broadcast video with video synthesis and various special effects in real time. The present invention relates to a system and a method for providing Internet broadcasting using the same.

일반적으로 인터넷 방송시스템은, 방송용 동영상을 제작하기 위한 별도의 스튜디오에서 방송용 동영상을 제작하고, 제작된 동영상을 서버를 이용해 전송하여 인터넷 방송을 제공하는 구조로 되어 있었다.In general, the Internet broadcasting system has a structure in which a broadcast video is produced in a separate studio for producing a broadcast video, and the internet video is transmitted by using a server.

방송용 동영상을 제작함에 있어서, 촬영기기를 통해 입력되는 아날로그 동영 상을 디지털 동영상으로 변환한 뒤, 디지털 동영상에 배경을 합성하거나, 각종 특수효과를 부가하여 최종 방송용 동영상을 제작하고, 이를 웹서버로 전송하여, 웹서버를 이용하여 웹서버에 접속된 다수의 시청자에게 제공하는 방식이 이용되어 왔다.In producing a broadcast video, convert the analog video input through the recording device into a digital video, synthesize the background to the digital video, or add various special effects to produce the final broadcast video, and transmit it to the web server Thus, a method of providing a plurality of viewers connected to a web server using a web server has been used.

또한, 방송용 동영상을 제공하기 위해서는, 별도의 연출자가 피 촬영자(인터넷 방송 출연인)에게 연기 또는 노래 또는 춤을 편집의도에 맞도록 연출하고, 이를 촬영기기를 통해 촬영하여 방송해야 했으므로 많은 인력이 필요하다는 문제점이 있었다.In addition, in order to provide a video for broadcasting, a separate director had to produce a performance or a song or dance to the subject (Internet broadcaster) in accordance with the editing intention, and to shoot and broadcast it through a recording device, a large number of personnel There was a problem that it was necessary.

이러한 방송용 동영상의 제작과 편집에는 고가의 정비와 많은 시간이 필요했기 때문에, 현실적으로 인터넷 방송은 공중파 방송을 녹화한 영상을 편집하여 재송출하는 것이 일반적이었으며, 생방송 시스템을 이용하여 제작, 제공되는 것은 현실적으로 많은 제약이 있다는 문제점이 있었다.Since the production and editing of such broadcast videos required expensive maintenance and a lot of time, in reality, it was common for Internet broadcasting to edit and re-transmit the recorded video of the air broadcasting. There was a problem that there are many restrictions.

이러한 문제점들을 보완하여 현재 다수의 동영상 제작기가 사용되고 있는데, 대부분 크로마키(chroma-key) 기법을 사용하여 배경화면과 이용자의 모습을 합성하여 동영상을 제작하는 것이다.To solve these problems, a number of video producers are currently used, and most of them produce chromatic video using a chroma-key technique to synthesize a background and a user's appearance.

크로마키 기법이란, 동영상에 특수한 효과와 텍스트를 추가하는 동영상합성 기법으로서, 특정한 색상부분을 제거하고 그 외의 요소만을 추출하여 다른 동영상과 합성할 때, 가장 많이 사용되는 방법이다.The chroma key technique is a video synthesis technique that adds special effects and text to a video. The chroma key technique is most frequently used when compositing with other videos by removing specific color parts and extracting only other elements.

그러나 기존의 크로마키 기법을 이용하여 동영상을 합성하는 경우, 고가의 합성장치가 필요하거나, 또는 실시간 합성이 힘들다는 문제점이 있었다.However, when synthesizing a video using the existing chroma key technique, there is a problem that an expensive synthesis apparatus is required or real-time synthesis is difficult.

또한, 기존의 동영상 제작기의 경우, 연출기능이 전혀 없기 때문에 이용자들이 임의로 동작을 연기해야 하고, 이로 인해 어색한 연출이 이루어져 제대로 된 동영상을 제작할 수 없다는 문제점이 있었으며, 또한, 고품질의 특수 효과가 가미된 합성 영상을 실시간으로 제작하여 서비스할 수 없다는 문제점이 있었다.In addition, in the case of the existing video producer, there is no directing function, so users have to postpone the action arbitrarily, and thus, there is a problem that the awkward direction is made so that a proper video cannot be produced, and high quality special effects are added. There was a problem in that it is not possible to produce and service a composite image in real time.

본 발명은 상술한 바와 같은 종래기술의 문제점을 해결하기 위하여, 실시간으로 입력되는 동영상에 배경영상을 합성하여 특수효과를 부여할 수 있는 실시간 다층 동영상 합성 시스템을 이용하여 다층 합성 동영상을 실시간으로 생성하고, 이를 웹서버를 통해 다수의 인터넷 방송 시청자에게 제공할 수 있는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템 및 이를 이용한 인터넷 방송 제공방법을 제공하는 데 있다.The present invention generates a multi-layer composite video in real time using a real-time multi-layer video synthesis system that can give a special effect by synthesizing the background image to the video input in real time in order to solve the problems of the prior art as described above In addition, the present invention provides an internet broadcasting system using a real-time multilayer video synthesizing system that can provide a plurality of internet broadcasting viewers through a web server, and an internet broadcasting providing method using the same.

상술한 바와 같은 목적을 달성하기 위해, 본 발명의 바람직한 일 실시예에 따르면, 네트워크를 통한 인터넷 방송 시스템에 있어서, 실시간으로 입력되는 영상데이터와 음향데이터 및 배경동영상을 실시간으로 합성하여 다층 합성 동영상을 생성하고, 상기 다층 합성 동영상을 실시간으로 소정의 코덱에따라 스트리밍 파일로 변환하여 상기 네트워크를 통해 전송하는 실시간 다층 동영상 합성 시스템; 상기 실시간 다층 동영상 합성 시스템으로부터 전송되는 스트리밍 파일을 수신하여 상기 네트워크를 통해 실시간으로 전송하는 웹서버; 및 상기 네트워크를 통해 상기 웹서버에 접속하여 상기 스트리밍 파일을 수신하는 복수의 클라이언트 단말기를 포함하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템이 제공된다.In order to achieve the object as described above, according to an embodiment of the present invention, in the Internet broadcasting system via a network, a multi-layer composite video by synthesizing the video data, audio data and background video input in real time in real time A real-time multi-layer video synthesizing system for generating the multi-layer composite video and converting the multi-layer video into a streaming file according to a predetermined codec in real time; A web server receiving the streaming file transmitted from the real-time multilayer video synthesizing system and transmitting the streaming file in real time through the network; And a plurality of client terminals connected to the web server via the network to receive the streaming file.

상술한 바와 같은 종래기술의 문제점을 해결하기 위하여, 본 발명의 또 다른 실시예에 따르면, 오디오/비디오 입력장치, 디스플레이 장치, 키 입력장치, 배경 스크린, 배경동영상 데이터베이스 및 모범연출 동영상 데이터베이스를 구비한 실시간 다층 동영상 합성 시스템과 모범연출 동영상 데이터베이스를 구비한 웹서버 및 복수의 클라이언트 단말기가 네트워크를 통해 연결된 인터넷 방송 시스템을 이용한 실시간 인터넷 방송 제공방법에 있어서, (a) 상기 실시간 다층 동영상 합성 시스템에서 상기 오디오/비디오 입력장치를 통해 입력되는 동영상과 배경동영상을 합성하여 실시간 다층 동영상을 생성하고, 상기 실시간 다층 동영상을 스트리밍 파일로 변환하고, 상기 스트리밍 파일과 동영상 합성정보를 실시간으로 상기 웹서버로 전송하는 단계; 및 (b) 상기 단계(a)에서 전송되는 스트리밍 파일과 동영상 합성정보를 상기 웹서버에서 수신하여 인터넷 방송용 동영상을 구성하여 실시간으로 전송하는 단계를 포함하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 제공방법이 제공된다.In order to solve the problems of the prior art as described above, according to another embodiment of the present invention, there is provided an audio / video input device, a display device, a key input device, a background screen, a background video database and a model video clip database A method of providing a real-time internet broadcasting using a web server having a real-time multilayer video synthesizing system and a model video database and an internet broadcasting system in which a plurality of client terminals are connected through a network, the method comprising: (a) the audio in the real-time multilayer video synthesizing system; A real-time multilayer video is generated by synthesizing the video inputted from the video / video input device and the background video, converting the real-time multilayer video into a streaming file, and transmitting the streaming file and the video composite information to the web server in real time. ; And (b) receiving the streaming file and the video synthesis information transmitted in the step (a) from the web server to construct a video for internet broadcasting and transmitting the video in real time. An internet broadcast providing method is provided.

이하에서, 첨부된 도 1 내지 도 3을 참조하여 본 발명에 따른 실시간 다층 동영상 합성 시스템에 대한 바람직한 실시예를 상세하게 설명한다.Hereinafter, with reference to the accompanying Figures 1 to 3 will be described in detail a preferred embodiment of a real-time multi-layer video synthesis system according to the present invention.

도 1은 본 발명의 바람직한 일 실시예에 따른 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템의 개략적인 구성 블록도이다.1 is a schematic block diagram of an internet broadcasting system using a real-time multi-layer video synthesis system according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명에 따른 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템은, 실시간 다층 동영상 합성 시스템(100), 네트워크(102), 모범연출 동영상 DB(106)와, 이용자동영상 DB(108) 및 최고득점자 동영상 DB(110)를 포함하는 웹서버(104) 및 복수의 클라이언트 단말기(120)를 포함할 수 있다.As shown in FIG. 1, the internet broadcasting system using the real-time multilayer video synthesis system according to the present invention includes a real-time multilayer video synthesis system 100, a network 102, a model video DB 106, and an automatic video DB used. It may include a web server 104 and a plurality of client terminals 120 including the 108 and the highest score video DB (110).

실시간 다층 동영상 합성 시스템(100)은 실시간으로 입력되는 영상데이터와 음향데이터 및 배경동영상을 실시간으로 합성하여 다층 합성 동영상을 생성하고, 생성된 다층 합성 동영상을 실시간으로 소정의 코덱에따라 스트리밍 파일로 변환하여 네트워크(102)를 통해 전송하게 된다.The real-time multilayer video synthesizing system 100 generates a multi-layer composite video by synthesizing image data, audio data, and background video input in real time, and converts the generated multi-layer composite video into a streaming file according to a predetermined codec in real time. To transmit through the network 102.

웹서버(104)는 실시간 다층 동영상 합성 시스템(100)으로부터 전송되는 스트리밍 파일을 수신하여 네트워크(102)를 통해 실시간으로 전송하게 되고, 클라이언트 단말기(120)는 네트워크(102)를 통해 웹서버(104)에 접속하여 스트리밍 파일을 수신하게 된다.The web server 104 receives the streaming file transmitted from the real-time multilayer video synthesis system 100 and transmits it in real time through the network 102, and the client terminal 120 transmits the web server 104 through the network 102. ) To receive the streaming file.

모범연출 동영상 데이터베이스(106)와 이용자동영상 데이터베이스(108) 및 최고득점자 동영상 데이터베이스(110)는 웹서버(104)에 연결되어, 웹서버(104)의 제어에 따라 동영상 데이터를 데이터베이스화하고, 웹서버(104)의 제어에 따라 상응하는 동영상 데이터를 추출하여 제공하게 된다.The best-presenting video database 106, the automatic video database 108, and the high-scoring video database 110 are connected to the web server 104 to database the video data under the control of the web server 104, and the web server. According to the control of 104, corresponding video data is extracted and provided.

모범연출 동영상 데이터베이스(106)에는 미리 모션 캡처 형식을 이용하여 제 작된 모범연출 동영상(통상적으로 애니메이션)이 저장되어 있으며, 이용자 동영상 데이터베이스(108)에는 실시간 다층 동영상 합성 시스템(100)으로부터 전송된 이용자의 합성 동영상이 이용자의 개인정보와 함께 구조화되어 저장되게 된다.The best-presenting video database 106 is stored in the best-presenting video (generally animation) that has been produced by using a motion capture format in advance, and the user video database 108 stores user's data transmitted from the real-time multilayer video synthesizing system 100. The composite video is structured and stored together with the user's personal information.

또한, 최고득점자 동영상 데이터베이스(110)에는 실시간 다층 동영상 합성 시스템(100)에 의하여 구성되고, 웹서버(104)에 의해 전송된 방송 동영상 중 최고득점을 기록한 동영상이 구조화되어 저장되게 된다.In addition, the highest scorer video database 110 is configured by the real-time multi-layer video synthesis system 100, the video recorded the highest score among the broadcast video transmitted by the web server 104 is structured and stored.

인터넷 방송 시청자는 클라이언트 단말기(120)를 이용하여 네트워크(102)를 통해 웹서버(104)에 접속하여, 실시간 다층 동영상 합성 시스템(100)에 의해 합성된 다층 합성 동영상으로 구성된 인터넷 방송 데이터를 수신하여, 클라이언트 단말기(120)에 연결된 디스플레이 장치(미도시)를 이용하여 시청할 수 있다.The internet broadcast viewer accesses the web server 104 through the network 102 using the client terminal 120, and receives the internet broadcast data composed of the multi-layered composite video synthesized by the real-time multi-layered video synthesizing system 100. The display may be viewed using a display device (not shown) connected to the client terminal 120.

도 2는 본 발명의 바람직한 일 실시예에 따른 실시간 다층 동영상 합성 시스템의 구성 블록도이다.2 is a block diagram of a real-time multi-layer video synthesis system according to an embodiment of the present invention.

첨부된 도면을 참조하여, 본 발명에 따른 실시간 다층 동영상 합성 시스템의 구성에 대하여 상세히 설명한다.With reference to the accompanying drawings, it will be described in detail the configuration of a real-time multi-layer video synthesis system according to the present invention.

도 2에 도시된 바와 같이, 본 발명에 따른 실시간 다층 동영상 합성 시스템(100)은, 실시간 다층 동영상 합성장치(210), 적어도 하나 이상의 디스플레이 장치(250), 오디오 입력장치(252), 적어도 하나 이상의 비디오 입력장치(256), 배경 스크린(258) 및 키 입력장치(260)를 포함할 수 있다.As shown in FIG. 2, the real-time multi-layer video synthesizing system 100 according to the present invention includes a real-time multi-layer video synthesizing apparatus 210, at least one display device 250, an audio input device 252, and at least one It may include a video input device 256, a background screen 258, and a key input device 260.

실시간 다층 동영상 합성장치(210)는 키 입력장치(260)를 통하여 이용자의 제어신호를 입력받아, 디스플레이 장치(250)를 통해 이용자의 제어신호에 상응하는 모범연출 동영상을 표시하고, 비디오 입력장치(256) 및 오디오 입력장치(252)를 제어하여 배경 스크린(258)을 배경으로 하여 실시간으로 입력되는 이용자의 동영상을 입력받아 배경 동영상과 실시간으로 합성하여 다층 합성 동영상을 생성한 후, 이를 스트리밍 파일로 변환하게 된다.The real-time multi-layer video synthesizing apparatus 210 receives a user's control signal through the key input device 260, displays a model video corresponding to the user's control signal through the display device 250, and displays a video input device ( 256) and the audio input device 252 is controlled by receiving the user's video input in real time with the background screen 258 as a background, and synthesized with the background video in real time to generate a multi-layer composite video, and then convert it into a streaming file. Will be converted.

키 입력장치(260)는 이용자의 키조작이 입력되면, 키조작에 상응하는 제어신호를 실시간 다층 동영상 합성장치(210) 측에 출력하게 되고, 실시간 다층 동영상 합성장치(210)는 입력되는 제어신호에 따라서 실시간 동영상 합성을 수행하게 된다.When the key operation of the user is input, the key input device 260 outputs a control signal corresponding to the key operation to the real-time multilayer video synthesizing apparatus 210, and the real time multilayer video synthesizing apparatus 210 inputs the control signal. According to the real-time video synthesis is performed.

배경 스크린(258)은 크로마키 기법에 따른 영상합성용 배경분리 영상을 얻기 위하여 단일 색상의 배경을 제공하게 된다. The background screen 258 provides a background of a single color to obtain a background separated image for image synthesis according to the chroma key technique.

통상적으로 인물 동영상을 이용하여 영상합성을 하는 경우, 청색 또는 그린의 배경 스크린이 이용될 수 있다.Typically, when image synthesis is performed using a human video, a blue or green background screen may be used.

오디오 입력장치(252)는 음향신호를 전기신호로 변환하여 실시간 다층 동영상 합성장치(210) 측에 출력하게 되고, 비디오 입력장치(256)는 광학신호를 전기신호로 변환하여 실시간 다층 동영상 합성장치(210) 측에 출력하게 된다.The audio input device 252 converts an audio signal into an electrical signal and outputs the electrical signal to the real-time multilayer video synthesizing apparatus 210. The video input device 256 converts an optical signal into an electrical signal to real-time multilayer video synthesizing apparatus ( 210) is output to the side.

디스플레이 장치(250)는 실시간 다층 동영상 합성장치(210)로부터 출력되는 각종 정보 및 동영상을 표시하게 되는데, 동영상 합성과정 및 합성정보를 총체적으로 제어할 수 있는 동영상 합성정보를 획득하기 위하여 실시간 다층 동영상 합성장치(210)가 제공하는 동영상 합성메뉴와 이용자에게 연출지시를 할 가상연출자의 영 상이 표시될 수 있다.The display device 250 displays various types of information and a video output from the real-time multilayer video synthesizing apparatus 210. In order to obtain video synthesis information that can control the video synthesis process and the synthesis information as a whole, real-time multilayer video synthesis A video synthesis menu provided by the device 210 and an image of a virtual performer to be directed to the user may be displayed.

또한, 복수의 디스플레이 장치(250a 내지 250n)를 구비하여, 하나의 디스플레이 장치(250a)에는 가상연출자의 모범연출 동영상이 표시되고, 다른 디스플레이 장치(250b)에는 실시간으로 합성되는 다층 합성 동영상이 표시되도록 구성될 수 있을 것이다.In addition, a plurality of display devices 250a to 250n are provided so that one exemplary display video of a virtual performer is displayed on one display device 250a, and a multi-layer composite video synthesized in real time is displayed on another display device 250b. It may be configured.

본 발명에 따른 실시간 다층 동영상 합성 시스템은 이용자의 위치를 측정하여 전기적 신호로 출력하는 위치센서(254)를 더 포함할 수 있다.The real-time multilayer video synthesizing system according to the present invention may further include a position sensor 254 for measuring a user's position and outputting it as an electrical signal.

위치센서(254)는 압력센서 또는 광센서 등의 각종 센서로 구성될 수 있으며, 이용자의 위치를 측정하여 실시간 다층 동영상 합성장치(210) 측에 출력하게 된다.The position sensor 254 may be configured of various sensors such as a pressure sensor or an optical sensor. The position sensor 254 measures the position of the user and outputs the measured position to the real-time multilayer video synthesizing apparatus 210.

실시간 다층 동영상 합성장치(210)는 위치센서(254)로부터 입력되는 이용자의 위치정보에 따라, 복수의 비디오 입력장치 중에서 적합한 하나의 비디오 입력장치를 촬영 동영상 입력소스로서 선택하게 된다.The real-time multilayer video synthesizing apparatus 210 selects one video input device suitable from among a plurality of video input devices as a photographing video input source according to the user's location information input from the position sensor 254.

위치센서(254)가 압력센서로 구성되는 경우, 일정한 발판(이용자가 위에서 연기를 하게 되는 발판)에 가로 세로 격자를 구획하고, 각 격자의 교차 위에 압력센서를 배열한 다음에 압력센서마다 위치좌표를 설정해서, 연기하는 이용자의 발이 어느 압력센서를 밟을 경우에 그 압력센서에서 출력되는 신호를 이용하여, 이용자의 위치를 구할 수 있게 된다.In the case where the position sensor 254 is composed of a pressure sensor, the horizontal and vertical grids are partitioned on a fixed footrest (a foot where the user smokes from above), the pressure sensor is arranged on the intersection of each grid, and then the position coordinates for each pressure sensor It is possible to determine the position of the user by using the signal output from the pressure sensor when the user's foot depresses the pressure sensor.

이러한 경우, 실시간 다층 동영상 합성장치(210)는 연결된 복수의 비디오 입력장치(256a 내지 256n) 중 이용자의 위치에 따른 최적의 영상을 얻을 수 있는 비디오 입력장치(256)를 영상신호 입력수단으로 선택할 수 있으며, 그 선택 방법으로 서, 일정한 이용자 위치에 따라서 각각의 비디오 입력장치(256a 내지 256n)를 매칭시키는 방법을 이용할 수 있을 것이다.In this case, the real-time multilayer video synthesizing apparatus 210 may select a video input apparatus 256 as an image signal input means capable of obtaining an optimal image according to a user's position among a plurality of connected video input apparatuses 256a to 256n. As the selection method, a method of matching each video input device 256a to 256n according to a predetermined user position may be used.

즉, 이용자의 위치가 xx-yy인 경우 1번 비디오 입력장치(256a)가 선택되고, 이용자의 위치가 yy-zz인 경우 2번 비디오 입력장치(256b)가 선택되도록 구성되어, 이용자의 위치에 따른 최적의 영상을 얻을 수 있게 된다.That is, the first video input device 256a is selected when the user's position is xx-yy, and the second video input device 256b is selected when the user's position is yy-zz. It is possible to obtain an optimal image according to.

도 2에 도시된 바와 같이, 본 발명에 따른 실시간 다층 동영상 합성장치(210)는, 주제어부(212), 램(214), 롬(216), 저장수단(220), 입출력 인터페이스(218), 영상처리부(222), 음향처리부(224), 파일처리부(226) 및 통신제어부(228)를 포함할 수 있다.As shown in FIG. 2, the real-time multilayer video synthesizing apparatus 210 according to the present invention includes a main controller 212, a RAM 214, a ROM 216, a storage unit 220, an input / output interface 218, The image processor 222, the sound processor 224, the file processor 226, and the communication controller 228 may be included.

램(214)은 실시간 다층 동영상 합성 시스템에서 영상처리 및 음향처리를 하는 과정에서 생성되는 각종 데이터의 임시 저장장소로 사용되며, 롬(216)에는 실시간 다층 동영상 합성장치를 구동하기 위한 프로그램과 영상처리 알고리즘 및 음향처리 알고리즘이 저장되어 있다.The RAM 214 is used as a temporary storage place of various data generated during image processing and sound processing in a real time multilayer video synthesizing system, and a ROM and a program for driving a real time multilayer video synthesizing apparatus are included in the ROM 216. Algorithms and sound processing algorithms are stored.

입출력 인터페이스(218)는 외부 입출력장치와의 데이터 입출력을 제어하며, 데이터 입출력의 위한 경로를 형성하게 된다.The input / output interface 218 controls data input / output with an external input / output device and forms a path for data input / output.

주제어부(212)는 롬(216)에 저장된 실시간 다층 동영상 합성장치(210)를 구동하기 위한 프로그램과 영상처리 알고리즘 및 음향처리 알고리즘을 이용하여, 키 입력장치(260)로 부터 출력되는 제어신호에 따라, 비디오 입력장치(256)와 오디오 입력장치(252)로부터 입력되는 이용자의 촬영동영상을 배경동영상과 실시간으로 합 성하여 다층 합성영상을 생성하게 된다.The main controller 212 uses a program for driving the real-time multilayer video synthesizing apparatus 210 stored in the ROM 216, an image processing algorithm, and an audio processing algorithm to control signals output from the key input device 260. Accordingly, the user's photographed video input from the video input device 256 and the audio input device 252 is combined with the background video in real time to generate a multi-layer composite video.

저장수단(220)에는 각종 스토리에 따라 미리 촬영된 배경동영상이 구조화되어 저장된 배경동영상 데이터베이스(240)와 가상연출자의 모범연출 동영상이 구조화되어 저장된 모범연출 동영상 데이터베이스(242)가 물리적으로 저장되며, 실시간으로 합성되는 다층 동영상 및 각종 정보가 저장되게 된다.The storage unit 220 physically stores the background video database 240 pre-recorded according to the various stories and the background video database 240 stored in the structured exemplary video of the virtual performer and the modeled video database 242 stored in the real time. The multi-layer video and the various information are synthesized to be stored.

배경동영상은, 이용자가 실시간 다층 동영상 합성장치(210)를 이용하여, 실시간으로 동영상을 합성하고자 할 때, 외부 입력장치를 통해서 입력되는 영상(즉, 이용자의 동영상)과 합성될 영상으로서, 미리 설정된 스토리에 따라서 촬영된 영상을 말한다.The background video is an image to be synthesized with an image (ie, a user's video) input through an external input device when the user wants to synthesize a video in real time using the real-time multilayer video synthesizing apparatus 210. Speak video taken according to the story.

배경동영상 데이터베이스(240)는, 이러한 배경동영상이 구조화되어 저장된 데이터베이스로서, 주제어부(212)의 제어에 따라 디스플레이 장치를 통해 저장되어 있는 배경동영상의 목록을 제공하며, 또한, 주제어부(212)의 제어에 따라 이용자가 지정하는 배경동영상을 추출하여 주제어부(212)로 출력하게 된다.The background video database 240 is a database in which such a background video is structured and stored. The background video database 240 provides a list of the background videos stored through the display apparatus under the control of the main control unit 212. According to the control, the background video designated by the user is extracted and output to the main controller 212.

또한, 미리 촬영된 배경동영상에 알파채널을 부가하여 저장수단(220)에 저장하여, 실시간 동영상 합성시 보다 원활한 자원활용이 가능하도록 구성되어 질 수도 있다.In addition, by adding an alpha channel to the pre-photographed background video to store in the storage means 220, it may be configured to enable more smooth resource utilization when real-time video synthesis.

모범연출 동영상은, 이용자가 자연스러운 동영상을 제작할 수 있도록 제공되는 가상 연출자의 모범동작 동영상으로서, 모범연출 동영상은 애니메이션 모션캡처로 제작되어, 모범연출 동영상 데이터베이스(242)에 저장된다.The exemplary video is a virtual motion picture of the virtual director provided to enable the user to produce a natural video. The exemplary video is produced by an animation motion capture and stored in the exemplary video video database 242.

모범연출 동영상 데이터베이스(242)는 저장된 모범연출 동영상의 목록을 디 스플레이장치(250)에 표시하며, 이용자가 키 입력장치(260)를 조작하여 동영상 합성에 따른 모범연출 동영상을 선택하면, 이용자의 선택에 따른 모범연출 동영상을 추출하여 디스플레이장치(250)에 표시하게 된다.The exemplary rendering video database 242 displays a list of stored exemplary rendering videos on the display device 250, and when the user operates the key input device 260 to select the exemplary rendering video according to the video composition, the user's selection According to the exemplary rendering video according to the display device 250 is displayed.

음향처리부(224)는 오디오 입력장치(252)를 통해 입력되는 음향데이터를 디지털화하여 디지털 음향데이터를 출력하게 된다.The sound processor 224 digitizes the sound data input through the audio input device 252 and outputs digital sound data.

또한, 본 발명에 따른 음향처리부(224)는 디지털로 변환된 아날로그 음향데이터를 분석하여, 음향의 주파수와 출력 등의 음향정보가 포함된 음향정보를 구성하고 출력하게 되며, 이러한 음향정보는 이용자가 동영상 합성정보로서 음향시각화 효과를 선택한 경우, 다층 합성 동영상의 생성에 이용되게 된다.In addition, the sound processing unit 224 according to the present invention analyzes the analog sound data converted to digital, and configures and outputs sound information including sound information such as frequency and output of the sound, such sound information is the user When the acoustic visualization effect is selected as the moving picture synthesis information, it is used to generate the multi-layered synthesis moving picture.

영상처리부(222)는 비디오 입력장치(256)를 통해 입력되는 영상데이터 및 배경동영상 데이터베이스(240)에 저장된 배경동영상을 실시간으로 합성하여 다층 합성영상을 출력하게 된다.The image processor 222 synthesizes the image data input through the video input device 256 and the background video stored in the background video database 240 in real time to output a multi-layer composite image.

보다 바람직하게, 본 발명에 따른 영상처리부(222)는 입력동영상 처리모듈(270), 배경동영상 처리모듈(272), 영상 합성모듈(274) 및 특수 효과모듈(276)을 포함할 수 있다.More preferably, the image processor 222 according to the present invention may include an input video processing module 270, a background video processing module 272, an image synthesizing module 274, and a special effect module 276.

입력동영상 처리모듈(270)은 비디오 입력장치(256)로부터 입력되는 아날로그 영상 데이터를 디지털 영상데이터로 변환하고, 디지털 영상데이터 중에서 저장된 특정 키값에 해당되는 특정색상의 색상정보를 투명으로 설정하여 배경분리 영상을 생성하게 된다.The input video processing module 270 converts analog image data input from the video input device 256 into digital image data, and sets color information of a specific color corresponding to a specific key value stored in the digital image data as transparent to separate the background. Create an image.

이때, 배경분리를 위하여 사용되는 키값은, 특정 단일색상(예를 들어 블루, 그린 등)의 배경스크린을 이용하여 이용자의 동영상을 생성하는 경우, 그 배경스크린의 색상정보로 설정되게 된다.In this case, the key value used for the background separation is set as the color information of the background screen when the user's video is generated using the background screen of a specific single color (for example, blue, green, etc.).

디지털화된 영상데이터의 색상정보는 R(red), G(green), B(blue) 채널별로 256단계의 값을 포함하고 있다.The color information of the digitized image data includes 256 levels of values for each of the R (red), G (green), and B (blue) channels.

통상적으로 입력되는 동영상으로부터 배경을 분리하기 위해서는, 단일한 색상의 배경에서 촬영을 진행하고, 그 배경색을 키값으로 설정하여, 입력되는 동영상의 디지털 영상데이터 중 키값에 해당되는 색의 색상정보를 투명(통상적으로 r:0 g:0 b:0)으로 설정하여 배경을 분리하게 된다.In order to separate a background from an input video, a photographing is performed on a single color background, the background color is set as a key value, and color information of a color corresponding to a key value among digital image data of the input video is made transparent. Typically, r: 0 g: 0 b: 0) is used to separate the background.

예를 들어, 청색을 배경으로 동영상을 촬영하는 경우, 메모리에 저장되는 키 값으로 청색의 RGB 채널 값이 저장되고, 실시간으로 입력되는 동영상의 디지털 영상데이터 중 청색에 해당되는 색상정보가 모두 투명값으로 변환되어 배경분리 영상이 생성된다.For example, when shooting a video on a blue background, a blue RGB channel value is stored as a key value stored in the memory, and all color information corresponding to blue among the digital image data of the video input in real time is a transparent value. Is converted to a background separation image.

이때, 키값은 특정 RGB 채널값으로 설정될 수도 있으며, 배경의 효율적인 분리를 위해 RGB 채널값의 임의의 범위로 설정될 수도 있다.In this case, the key value may be set to a specific RGB channel value, or may be set to an arbitrary range of RGB channel values for efficient separation of the background.

또한, 특정 범위의 색상정보는 투명으로 설정하고, 특정 범위 색상정보( 배경이 아니라고 판단될 수 있는 범위, 즉, 이용자의 영상과 배경영상의 구분이 명확하지 않은 경계범위의 색상정보)는 그 값에 따라 투명도를 조절하여, 보다 자연스러운 배경분리 영상을 생성하도록 구성될 수도 있을 것이다.In addition, the color information of a specific range is set to transparent, and the specific range color information (the range that can be judged not the background, that is, the color information of the boundary range where the distinction between the user's image and the background image is not clear) is determined. The transparency may be adjusted to generate a more natural background separation image.

배경동영상 처리모듈(272)은 키 입력장치(260)로부터 출력되는 제어신호에 상응하는 배경동영상을 배경동영상 데이터베이스(240)로부터 추출하고, 추출된 배 경동영상에 알파채널의 존재 여부를 판단하여 알파채널이 존재하지 않는 경우 알파채널을 부가하고, 음향처리부(224)로부터 출력되는 음향정보에 따라 알파채널의 알파값을 변화시켜 후면 배경영상과 전면 배경영상을 출력하게 된다.The background video processing module 272 extracts a background video corresponding to a control signal output from the key input device 260 from the background video database 240, and determines whether an alpha channel is present in the extracted background image. If the channel does not exist, an alpha channel is added and the rear background image and the front background image are output by changing the alpha value of the alpha channel according to the sound information output from the sound processor 224.

배경동영상 처리모듈(272)은 실시간으로 입력되는 동영상과 합성될 배경동영상을 처리하여 출력하게 된다.The background video processing module 272 processes and outputs the background video to be synthesized with the video input in real time.

즉, 배경동영상 처리모듈(272)은 동영상의 후면 배경영상(배경분리 영상의 배경으로 합성되는 영상)과 전면 배경영상(배경분리 영상의 전면에 합성되는 영상)을 처리하여 출력하게 된다.That is, the background video processing module 272 processes and outputs the rear background image (the image synthesized as the background of the background separation image) and the front background image (the image synthesized on the front of the background separation image) of the video.

배경동영상 처리모듈(272)은 후면 배경영상을 생성하기 위하여, 동영상 합성정보에 따른 배경동영상을 배경동영상 데이터베이스(240)로부터 추출하고, 추출된 배경동영상에 알파채널이 존재하는지 판단하여 알파채널이 존재하지 않는 경우에는 배경동영상에 알파채널을 부가하며, 배경동영상의 알파채널의 알파값을 소정의 알고리즘에 따라 변경하여 후면 배경영상을 생성하여 출력하게 된다. The background video processing module 272 extracts a background video based on the video synthesis information from the background video database 240 and generates an alpha channel by determining whether an alpha channel exists in the extracted background video. If not, an alpha channel is added to the background video, and the alpha value of the alpha channel of the background video is changed according to a predetermined algorithm to generate and output a rear background image.

이때, 음향처리부(224)로부터 출력되는 음향정보에 따라, 후면 배경영상 알파채널의 알파값(투명도)이 일정한 알고리즘에 따라 변화하도록 하여, 음향효과에 동적으로 대응되는 합성영상이 생성되도록 구성될 수 있음은 당업자에게 자명할 것이다.At this time, according to the sound information output from the sound processor 224, the alpha value (transparency) of the back background image alpha channel may be changed according to a predetermined algorithm, so that a composite image dynamically corresponding to the sound effect may be generated. It will be apparent to those skilled in the art.

또한, 배경동영상 처리모듈(272)은 전면 배경영상을 생성하기 위하여, 동영상 합성정보에 따라 배경동영상 데이터베이스(240)에 저장된 배경동영상을 추출하거나 또는, 음향처리부(224)로부터 출력되는 음향정보에 상응하는 음향시각화 영상 을 생성하여, 배경동영상 또는 음향시각화 영상에 알파채널을 부가하여 전면 배경영상을 생성하여 출력하게 된다.In addition, the background video processing module 272 extracts the background video stored in the background video database 240 according to the video synthesis information or corresponds to the sound information output from the sound processor 224 in order to generate the front background image. An audio visualized image is generated, and the front background image is generated by outputting an alpha channel to the background video or the audio visualized image.

즉, 이용자가 전면 배경영상으로 이용될 배경동영상을 지정한 경우에는 그 배경동영상을 기초로 제 전면 배경영상을 생성하게 되며, 만약 이용자가 전면 배경영상으로 음향 시각화 영상을 선택한 경우, 음향처리부(224)로부터 출력되는 음향정보를 수신하여 그에 따른 음향시각화 영상을 기초로 전면 배경영상을 생성하게 되는 것이다.That is, when the user designates the background video to be used as the front background image, the front background image is generated based on the background video. If the user selects the sound visualization image as the front background image, the sound processor 224. Receiving the sound information output from the to generate a front background image based on the acoustic visualization image accordingly.

이용자가 전면 배경영상으로 이용될 배경동영상을 지정한 경우의 처리과정은 상술한 후면배경동영상의 생성과정과 동일하므로 상세한 설명은 생략한다.The process of the case where the user designates the background video to be used as the front background image is the same as the generation process of the back background video described above, and thus the detailed description thereof will be omitted.

만약, 이용자가 전면 배경영상으로 음향 시각화 영상을 선택한 경우, 배경동영상 처리모듈(272)은 음향처리부(224)로부터 출력되는 음향정보를 수신하여 그에 따른 음향시각화 영상을 생성하게 된다.If the user selects the sound visualization image as the front background image, the background image processing module 272 receives the sound information output from the sound processor 224 and generates a sound visualization image accordingly.

음향 시각화 기술은, 음향의 음량과 주파수 대역 등의 음향정보를 시각적으로 표현해 주는 것으로서, 일정한 알고리즘에 따라 음향정보에 따른 영상을 생성하는 기술을 말한다.The sound visualization technology is to visually express sound information such as sound volume and frequency band, and refers to a technology for generating an image according to sound information according to a predetermined algorithm.

예를 들어, 주파수 대역에 따른 색상정보 및 도형정보를 설정하고, 입력되는 음향정보에 따라 다른 색상과 도형을 표시하는 영상을 구성하도록 할 수 있으며, 알파채널을 이용하여, 음량에 따라 영상의 투명도가 조정되도록 구성할 수 있다.For example, it is possible to set color information and figure information according to frequency bands, and to configure an image displaying different colors and figures according to the input sound information. Can be configured to be adjusted.

본 발명에서는 배경동영상 또는 음향시각화 영상에 알파채널을 부가하고, 알파채널의 알파값을 음향처리부(224)로부터 출력되는 음향정보에 따라 변화하도록 하여, 음향의 변화에 동적으로 대응하여 변화하는 전면 배경동영상을 생성하게 된다.In the present invention, an alpha channel is added to a background video or an audiovisualized image, and the alpha value of the alpha channel is changed according to the sound information output from the sound processor 224, and the front background dynamically changes in response to a change in sound. Create a video.

영상 합성모듈(274)은 입력동영상 처리모듈(270)로부터 출력되는 배경분리 영상과 배경동영상 처리모듈(272)로부터 출력되는 후면 배경영상 및 전면 배경영상을 실시간으로 합성하여 다층 합성영상을 출력하게 된다.The image synthesizing module 274 synthesizes the background separated image output from the input video processing module 270 and the back background image and the front background image output from the background video processing module 272 in real time to output a multi-layer composite image. .

특수 효과모듈(276)은 영상 합성모듈로부터 출력되는 다층 합성영상에 동영상 합성정보에 따른 각종 특수효과를 부여하는 출력하게 된다.The special effect module 276 outputs a variety of special effects according to the video synthesis information to the multi-layer composite image output from the image synthesis module.

이때, 사용되는 특수효과로는, 3차원 입체효과, 광원효과, 쉐이드 효과 등의 각종 영상특수효과가 사용되어 질 수 있다.In this case, various image special effects such as three-dimensional stereoscopic effect, light source effect, and shade effect may be used as the special effect used.

또한, 본 발명에 따른 실시간 다층 동영상 합성 시스템이 위치센서(254)를 더 포함하는 경우, 영상처리부(222)는 카메라 스위칭모듈(278) 및 장면 전환모듈(280)을 더 포함할 수 있다.In addition, when the real-time multi-layer video synthesis system according to the present invention further comprises a position sensor 254, the image processing unit 222 may further include a camera switching module 278 and the scene change module 280.

상술한 바와 같이, 위치센서(254)는 이용자의 위치를 측정하여 출력하게 된다.As described above, the position sensor 254 measures and outputs the position of the user.

카메라 스위칭모듈(278)은 위치센서(254)로부터 출력되는 이용자의 위치에 따라 복수의 비디오 입력장치(256) 중 가장 적절한 비디오 입력장치(256)를 선택하여 비디오 신호를 입력받아 입력동영상 처리모듈(270)로 출력하게 된다.The camera switching module 278 selects the most suitable video input device 256 among the plurality of video input devices 256 according to the user's position output from the position sensor 254 and receives a video signal to receive an input video processing module ( 270).

장면 전환모듈(280)은 카메라 스위칭모듈(278)에 의한 비디오 입력장치(256)의 변경에 따른 장면전환 효과를 부여하게 된다.The scene change module 280 provides a scene change effect according to the change of the video input device 256 by the camera switching module 278.

장면 전환모듈(280)은 특수 효과모듈(276)로부터 출력되는 다층 합성영상을 일정한 알고리즘에 따라 분석하여 장면전환이 발생한 경우, 다층 합성영상에 장면전환효과 처리를 하여 출력하게 된다.The scene change module 280 analyzes the multi-layer composite image output from the special effect module 276 according to a predetermined algorithm and, when a scene change occurs, performs a scene change effect on the multi-layer composite image and outputs it.

장면전환 검출을 위한 기본적인 방법은 연속한 프레임 간의 특징 값의 차이가 미리 설정된 임계 값 이상이면 장면전환이 발생한 것으로 판단하는 것이다.The basic method for scene change detection is to determine that a scene change has occurred when the difference in feature values between successive frames is equal to or greater than a preset threshold.

그러나 이러한 방식으로만 장면전환 여부를 판단하게 되면, 급격한 장면전환은 비교적 쉽게 검출할 수 있으나, 점진적인 장면전환의 경우 검출하는 것이 어렵다는 문제점이 있었다.However, if it is determined whether or not to change the scene only in this manner, the abrupt scene change can be detected relatively easily, but there is a problem that it is difficult to detect the scene change.

따라서 본 발명에서는 점진적인 장면전환 구간 내와 구간 전후의 특징 값의 변화를 관찰하여 점진적인 장면전환을 검출하는 알고리즘을 이용하여, 장면전환 여부를 판단하게 된다.Accordingly, in the present invention, whether or not to change scenes is determined using an algorithm for detecting a gradual change of scene by observing changes in feature values before and after the change of scene.

본 발명에서 사용한 특징값으로는 HSV 컬러 히스토그램을 사용하였으며, 영상의 작은 변화에 덜 민감하도록 히스토그램의 각 성분이 4 bit로 양자화되었다.HSV color histogram was used as a feature value in the present invention, and each component of the histogram was quantized to 4 bits to be less sensitive to small changes in the image.

또한, 각 프레임간의 차이를 구하기 위해서, X2의 차이를 비교하는 방법을 사용하여 각 프레임간의 특징값 변화를 판단하게 된다.In addition, in order to determine the difference between the frames, the change in the characteristic value between the frames is determined using a method of comparing the difference between X 2 .

또한, 본 발명에서는 적응적 임계값을 이용하여 장면전환 여부를 판단하게 되는데, 현재 프레임의 앞, 뒤로 길이 N인 로컬 윈도우를 씌워 윈도우 내의 특징 값의 평균을 적응적 임계값으로 설정하게 된다.In addition, in the present invention, it is determined whether to change scenes by using the adaptive threshold, and the average of feature values in the window is set as the adaptive threshold by covering a local window having a length N before and after the current frame.

즉, MT(적응적 임계 값)=TP(미리 선택된 임계값)*UN(로컬 윈도우 내의 평균값)으로 설정된다.That is, M T (adaptive threshold) = T P (preselected threshold) * U N (average value in the local window).

현재 프레임의 특징값이 적응적 임계값보다 크면서, 동시에 윈도우 내의 최대값일 경우에 장면전환이 발생한 것으로 판단하게 되는 것이다.When the feature value of the current frame is larger than the adaptive threshold and at the same time the maximum value in the window, it is determined that the scene change has occurred.

또한, 본 발명에서는 급격한 장면전환과 점진적 장면전환의 효과적인 검출을 위하여, 트윈컴패리슨(twin comparison)을 적용하는데, 트윈컴패리슨이란, 두 개의 임계값을 설정하여, 특징값이 높은 임계 값 이상이면 급격한 장면전환으로 판단하고, 낮은 임계 값 이상이면 낮은 임계 값 이상의 값을 갖는 구간에서 특징값을 누적하여, 이 누적한 특징값이 주어진 임계값보다 클 경우에 점진적인 장면전환으로 판단한다.In addition, in the present invention, in order to effectively detect a sudden scene change and a gradual scene change, a twin comparison is applied. In the case of a twin comparator, two threshold values are set so that a feature value is higher than or equal to a high threshold value. If it is determined that the scene change is abrupt, and if the threshold value is higher than or equal to the low threshold value, the feature value is accumulated in a section having a value higher than or equal to the low threshold value, and if the accumulated feature value is larger than the given threshold value, it is determined as a progressive scene change.

장면전환이 이루어진 경우, 출력되는 영상이 부자연스러워 보인다는 문제점을 해결하기 위하여, 본 발명에서는 장면 전환모듈(280)을 이용하여, 장면전환 여부를 판단하고, 장면전환이 있다고 판단되는 경우, 각종 특수효과(예를 들어 페이드인 페이드아웃 효과, 장면전환 전의 화면이 점차 작아지면서 전환된 화면으로 바뀌는 효과 등)를 이용하여, 보다 자연스러운 장면전환 동영상(즉, 장면전환 전후프레임의 연결이 어색하지 않고 자연스러운 동영상)의 제공이 가능하게 된다.In order to solve the problem that the output image looks unnatural when the scene change is made, in the present invention, the scene change module 280 is used to determine whether the scene is changed, and when it is determined that there is a scene change, various special By using effects (e.g. fade-in / fade-out effects, transitions from the scene before the transition to the transitioned screen), more natural transition video (i.e. the transition between frames before and after the transition is not awkward and natural) Video) can be provided.

또한, 상기 카메라 스위칭모듈(278)로부터 출력되는 비디오 입력장치(256)전환 신호를 수신하여, 비디오 입력장치(256)의 전환을 장면전환으로 간주하여, 장면전환에 따른 장면전환 효과를 부여하도록 구성될 수도 있다.In addition, by receiving the video input device 256 switching signal output from the camera switching module 278, regards the switching of the video input device 256 as a scene change, it is configured to give a scene change effect according to the scene change May be

파일처리부(226)는 영상처리부(222)로부터 출력되는 다층 합성영상과 음향처리부(224)로부터 출력되는 디지털 음향데이터를 동기화하여 하나의 파일로 결합하여 소정의 코덱에 따라 스트리밍 파일로 압축하게 된다.The file processing unit 226 synchronizes the multi-layer composite image output from the image processing unit 222 and the digital audio data output from the sound processing unit 224, combines them into a single file, and compresses it into a streaming file according to a predetermined codec.

이때, 각종 상용 코덱에 따라 압축이 이루어질 수 있으며, 바람직하게 MPEG4 코덱에 따라 실시간 인터넷 방송이 가능한 asf 파일형식으로 압축될 수 있다.In this case, compression may be performed according to various commercial codecs, and preferably, may be compressed into an asf file format capable of real-time Internet broadcasting according to the MPEG4 codec.

통신제어부(228)는 파일처리부(226)로부터 출력되는 스트리밍 파일과 동영상 합성정보를 네트워크(102)를 통해 연결된 웹서버(104)로 실시간으로 전송하게 된다.The communication controller 228 transmits the streaming file and the video composition information output from the file processor 226 to the web server 104 connected through the network 102 in real time.

또한, 통신제어부(228)는 웹서버(104)로부터 전송되는 제어신호와 데이터를 수신하여 배경동영상 데이터베이스(240), 모범연출 동영상 데이터베이스(242)의 자료를 주기적으로 갱신하도록 구성될 수 있다.In addition, the communication controller 228 may be configured to periodically update the data of the background video database 240 and the model video clip database 242 by receiving control signals and data transmitted from the web server 104.

또한, 본 발명에 따른 실시간 다층 동영상 합성장치(210)는 이용자에게 동영상 합성옵션을 선택할 수 있는 메뉴화면과, 메뉴화면을 통해 입력되는 이용자가 원하는 동영상 합성정보를 저장하고, 저장된 동영상 합성정보에 따라 실시간 다층 동영상 합성과정을 총체적으로 제어하는 프로젝트 제어부(230)를 더 포함할 수 있다.In addition, the real-time multi-layer video synthesizing apparatus 210 according to the present invention stores a menu screen for selecting a video compositing option to the user, and the video compositing information desired by the user input through the menu screen, according to the stored video compositing information It may further include a project control unit 230 for totally controlling the real-time multi-layer video synthesis process.

본 발명에 따른 프로젝트 제어부(230)는 이러한 동영상 합성과정을 전반적으로 제어하는 프로젝트 제어모듈(232)을 포함할 수 있다.Project control unit 230 according to the present invention may include a project control module 232 for controlling the overall video synthesis process.

실시간 다층 동영상 합성 시스템(100)에 전원이 인가되면, 프로젝트 제어모듈(232)은 디스플레이장치(250)를 통해 동영상 합성메뉴를 표시하게 된다.When power is applied to the real-time multilayer video synthesizing system 100, the project control module 232 displays a video synthesizing menu through the display apparatus 250.

동영상 합성메뉴는 배경동영상 데이터베이스(240)에 저장되어 있는 배경동영상의 목록과 모범연출 동영상 데이터베이스(242)에 저장되어 있는 모범연출 동영상 목록과, 영상특수효과, 카메라 전환 여부, 시각음향화 여부 및 각종 동영상 합성에 필요한 옵션을 이용자가 원하는 대로 선택할 수 있도록 구성된다.The video composition menu includes a list of background videos stored in the background video database 240 and a list of best performing videos stored in the best-presentation video database 242, video special effects, whether to switch cameras, visual sound effects, and various kinds. It is configured to allow the user to select the options required for video composition.

프로젝트 제어모듈(232)은 이용자가 키 입력장치(260)를 조작하여 출력하는 동영상 합성정보를 입력받아 저장하고, 동영상 합성정보에 따라 실시간 다층 동영상 합성장치(210) 내의 모든 수단을 제어하여, 이용자가 원하는 동영상이 합성되도록 하게 된다.The project control module 232 receives and stores video composite information that the user manipulates and outputs the key input device 260, and controls all means in the real-time multi-layer video composite apparatus 210 according to the video composite information. The desired video is synthesized.

또한, 본 발명에 따른 프로젝트 제어부(230)는 동작분석 모듈(234)을 더 포함할 수 있다.In addition, the project controller 230 according to the present invention may further include a motion analysis module 234.

동작분석 모듈(234)은 이용자의 동영상과 모범연출 동영상을 비교하여, 이용자가 어느 정도로 모범연출 동영상의 동작과 일치하도록 연기(연기, 춤 등)했는지 판단하여, 그 결과를 합성 시스템 점수로 산출하게 된다.The motion analysis module 234 compares the user's video with the modeling video, determines how much the user postpones (acting, dancing, etc.) to match the motion of the modeling video, and calculates the result as a composite system score. do.

이러한 이용자 동작의 점수화는, 모범연출 동영상의 움직임 중 기본동작(연결시의 움직임을 제외)만을 추출하여 해당 프레임버퍼의 변화값(배경은 0, 피사체는 1)으로 변환하여 데이터베이스에 동작시간과 프레임 데이터를 저장한다.The scoring of the user's motion is to extract only the basic motion (except when connected) among the movements of the modeling movie, and to convert the frame buffer's change value (the background is 0 and the subject is 1) into the database in the operation time and frame. Save the data.

즉, 기본동작을 캡처된 정지 이미지로 보며, 이렇게 정지된 이미지의 프레임버퍼의 저장정보를 배경화면과 피사체모델 영상으로 구분시켜 수치화시킴으로써, 합성 시스템 채점점수 산출에 이용하게 된다.That is, the basic motion is regarded as a captured still image, and the stored information of the frame buffer of the still image is divided into a background image and a subject model image and digitized to be used for calculating a composite system score.

이용자의 영상이 영상처리부(222)를 통해 동작분석 모듈(234)로 입력되면, 동작분석 모듈(234)은 이용자의 영상으로부터 기본동작을 추출하여 프레임 데이터로 변환한 후, 모범연출 동영상의 프레임데이터와 비교하여 동작의 일치 여부를 판단하게 된다.When the user's image is input to the motion analysis module 234 through the image processor 222, the motion analysis module 234 extracts the basic motion from the user's image and converts the frame into data. Compared with, it determines whether the operation is matched.

한편, 이용자의 동영상 데이터를 변환할 때, 이용자는 가상연출자와 달리 체 격, 키 등이 다를 수밖에 없으므로, 이러한 경우, 이용자의 기본동작값을 추출하여 데이터베이스의 값과 비교하여도 필연적으로 오차가 발생하게 된다.On the other hand, when converting the user's video data, the user has to have a different body size, key, etc., unlike a virtual producer, so in this case, an error inevitably occurs even when the user's basic operation value is extracted and compared with the database value. Done.

이러한 문제점을 해결하기 위하여, 본 발명에서는 이용자의 체격 등의 신체조건에 따른 표준 범주를 설정하고, 그 범주를 초과하거나 모자라는 경우, 자동으로 일정한 데이터에 따라 표준범주 범위 내로 축소 또는 확대하여 오차를 최소화하게 된다.In order to solve this problem, the present invention sets a standard category according to the physical condition, such as the user's physique, and if it exceeds or falls short of the category, the error is automatically reduced or enlarged within the standard category range according to certain data. Will be minimized.

동작분석 모듈(234)로부터 출력되는 합성 시스템 채점점수(정보)는, 디스플레이 장치(250)를 통해 실시간으로 표시되며, 네트워크(102)를 통해 웹서버(104)로 전송된다.The synthesis system scoring score (information) output from the motion analysis module 234 is displayed in real time through the display apparatus 250 and is transmitted to the web server 104 via the network 102.

도 3은 본 발명의 바람직한 일 실시예에 따른 웹서버의 구성 블록도이다.3 is a block diagram of a web server according to an embodiment of the present invention.

첨부된 도면을 참조하여, 본 발명의 바람직한 일 실시예에 따른 웹서버(104)의 구성을 상세히 설명한다.With reference to the accompanying drawings, the configuration of the web server 104 according to an embodiment of the present invention will be described in detail.

도시된 바와 같이, 본 발명에 따른 웹서버(104)는 주제어부(300), 통신제어부(302), 저장수단(304), 램(306), 롬(308), 방송제어부(310) 및 데이터베이스 제어부(320)를 포함할 수 있다.As shown, the web server 104 according to the present invention is the main control unit 300, communication control unit 302, storage unit 304, RAM 306, ROM 308, broadcast control unit 310 and database It may include a control unit 320.

램(306)은 웹서버(104)에서 과정에서 생성되는 각종 데이터의 임시 저장장소로 사용되며, 롬(308)에는 웹서버(104)를 구동하기 위한 프로그램과 인터넷 방송 제어알고리즘이 저장되어 있다.The RAM 306 is used as a temporary storage place of various data generated in the process by the web server 104, and the ROM 308 stores a program for operating the web server 104 and an internet broadcast control algorithm.

주제어부(300)는 롬(308)에 저장된 웹서버(104)를 구동하기 위한 프로그램과 인터넷 방송 제어알고리즘에 따라, 인터넷 방송을 전반적으로 제어하게 된다.The main control unit 300 controls the overall Internet broadcasting in accordance with a program for driving the web server 104 stored in the ROM 308 and an internet broadcasting control algorithm.

저장수단(304)에는 실시간 다층 동영상 합성시스템으로부터 전송되는 이용자 동영상이 구조화되어 저장되는 이용자 동영상 데이터베이스(108)와 가상연출자의 모범연출 동영상이 구조화되어 저장된 모범연출 동영상 데이터베이스(106) 및 각종 정보가 저장되게 된다.The storage means 304 stores a user video database 108 in which a user video transmitted from a real-time multilayer video synthesis system is structured and stored, a model video clip database 106 stored in a structured model, and a variety of information. Will be.

통신제어부(302)는 실시간 다층 동영상 합성 시스템(100)으로부터 전송되는 스트리밍 파일과 동영상 합성정보 및 합성시스템 채점정보를 수신하고, 주제어부의 제어에 따라 구성된 방송데이터를 네트워크(102)를 통해 연결된 클라이언트 단말기(120)에 전송하게 된다.The communication control unit 302 receives a streaming file transmitted from the real-time multilayer video synthesis system 100, video synthesis information, and synthesis system scoring information, and connects the broadcast data configured under the control of the main control unit through the network 102. To 120.

또한, 통신제어부(302)는 모범연출 동영상이나 배경동영상이 추가로 등록되는 경우, 이를 네트워크를 통해 실시간 다층 동영상 합성 시스템(100)으로 전송하여, 실시간 다층 동영상 합성 시스템(100)의 배경동영상 데이터베이스(240) 또는 모범연출 동영상 데이터베이스(242)가 갱신될 수 있도록 하게 된다.In addition, the communication control unit 302 is transmitted to the real-time multi-layer video synthesis system 100 via the network, if the model of the best-executed video or background video is additionally registered, the background video database ( 240 or the model video clip database 242 may be updated.

데이터베이스 제어부(320) 웹서버(104)에 연결된 데이터베이스의 구축, 관리를 제어하게 되며, 방송제어부(310)는 통신제어부(302)를 통해 실시간 다층 동영상 합성 시스템(100)으로부터 전송되는 스트리밍 파일과 동영상 합성정보 및 합성 시스템 채점정보를 실시간으로 수신하여 방송용 동영상을 구성하게 된다.Database control unit 320 controls the construction and management of the database connected to the web server 104, the broadcast control unit 310 is a streaming file and video transmitted from the real-time multi-layer video synthesis system 100 through the communication control unit 302 The broadcasting information is composed by receiving the synthesis information and the synthesis system scoring information in real time.

본 발명에 따른 방송제어부는, 보다 바람직하게 동영상 제어모듈(312) 및 실시간 채점모듈(314)을 포함할 수 있다.The broadcast controller according to the present invention may more preferably include a video control module 312 and a real-time scoring module 314.

실시간 채점모듈(314)은 실시간 다층 동영상 합성 시스템(100)으로부터 전송 되는 합성 시스템 채점정보를 시간대별로 산출하여, 평균점수와 누적점수 등을 출력하게 된다.The real-time scoring module 314 calculates the synthesis system scoring information transmitted from the real-time multilayer video synthesis system 100 for each time zone, and outputs an average score and a cumulative score.

동영상 제어모듈(312)은 실시간 다층 동영상 합성 시스템(100)으로부터 전송되는 스트리밍 파일과 동영상 합성정보에 상응하는 모범연출 동영상 데이터베이스에 저장된 모범연출 동영상 및 실시간 채점모듈(314)로부터 출력되는 채점정보를 이용하여 방송용 동영상을 구성하게 된다.The video control module 312 uses the streaming information transmitted from the real-time multilayer video synthesis system 100 and the scoring information output from the real-time scoring module 314 and the best-presenting video stored in the best-presenting video database corresponding to the video synthesis information. To compose a broadcast video.

즉, 동영상 제어모듈(312)은 클라이언트 단말기(120)의 디스플레이수단에 표시되는 하나의 인터넷방송 시청용 플레이어 화면(즉 하나의 창에서 재생되는 인터넷 방송화면) 내에, 모범연출 동영상과 다층합성 동영상 및 합성 시스템 채점정보가 동시에 표시되도록 방송용화면을 재구성하게 되는 것이다.That is, the video control module 312 is a player screen for viewing the Internet broadcast displayed on the display means of the client terminal 120 (that is, the Internet broadcast screen to be played in one window), the best presentation video and multi-layer composite video and The broadcast screen is reconfigured to simultaneously display the synthesis system scoring information.

또한, 본 발명에 따른 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템은, 클라이언트 단말기(120)의 입력장치를 통해 입력되는 시청자 채점정보를 실시간으로 웹서버(104)로 전송하고, 웹서버(104)는 클라이언트 단말기(120)로부터 전송되는 채점정보를 수신하여, 채점정보 데이터를 실시간으로 수집하여 처리하여 방송용 동영상 구성에 포함시키도록 구성될 수 있다.In addition, the Internet broadcasting system using a real-time multi-layer video synthesis system according to the present invention, the viewer scoring information input through the input device of the client terminal 120 in real time to the web server 104, the web server 104 May be configured to receive the scoring information transmitted from the client terminal 120, collect and process the scoring information data in real time, and include the same in the broadcasting video configuration.

클라이언트 단말기(120)는 인터넷 방송 시청중 이용자가 실시간으로 입력하게 되는 시청자 채점정보를 수신하여, 네트워크(102)를 통해 웹서버(104)로 전송하게 된다.The client terminal 120 receives viewer scoring information input by the user in real time while watching the Internet broadcast, and transmits the score to the web server 104 through the network 102.

웹서버(104)는 이러한 시청자 채점정보를 수신하여, 합성 시스템 채점정보 및 시청자 채점정보를 일정한 방식에 따라 처리하여, 시청자 채점정보가 반영된 방 송용 동영상을 재구성하여, 클라이언트 단말기(120)로 전송하게 된다.The web server 104 receives the viewer scoring information, processes the synthesis system scoring information and the viewer scoring information according to a predetermined method, reconstructs the broadcasting video reflecting the viewer scoring information, and transmits the same to the client terminal 120. do.

이러한 경우, 실시간 채점모듈(314)은 실시간 다층 동영상 합성 시스템(100)으로부터 전송되는 합성 시스템 채점정보과 클라이언트 단말기(120)로부터 전송되는 시청자 채점정보를 일정한 알고리즘에 따라 합산점수를 산출하여 출력하게 되고, 합산점수를 수신하는 동영상 제어모듈(312)은 합산점수를 방송용 동영상의 구성에 이용하게 된다.In this case, the real-time scoring module 314 calculates and outputs the sum of the composite system scoring information transmitted from the real-time multi-layer video synthesis system 100 and the viewer scoring information transmitted from the client terminal 120 according to a predetermined algorithm. The video control module 312 receiving the sum score uses the sum score to construct a broadcast video.

또한, 본 발명에 따른 웹서버(104)는 각 모범연출 동영상에 따른 최고 득점자의 동영상이 구조화되어 저장된 최고득점자 동영상 데이터베이스(110)를 더 포함할 수 있다.In addition, the web server 104 according to the present invention may further include the highest scorer video database 110 is structured and stored in the video of the highest scorer according to each exemplary presentation video.

최고득점자 동영상 데이터베이스(110)는 각 모범연출 동영상에 따라서, 최고 득점(합성 시스템 채점정보, 시청자 채점정보, 또는 이를 합산한 합산점수 등이 기준이 될 수 있다)을 기록한 이용자 동영상이 구조화되어 저장된 데이터베이스를 말한다.The highest scorer video database 110 is a database of structured and stored user videos that record the highest scores (composition system scoring information, viewer scoring information, or the sum of the total scores, etc.) according to each exemplary production video. Say.

이러한 경우, 본 발명에 따른 동영상 제어모듈(312)은 방송용 동영상을 구성할 때 다층합성 동영상, 모범연출 동영상, 채점정보 및 모범연출 동영상에 따른 최고 득점자 동영상을 한 화면에 표시되도록 방송용 동영상을 구성하게 된다.In this case, the video control module 312 according to the present invention is configured to configure the broadcast video so that the highest scorer video according to the multi-layer composite video, best presentation video, scoring information and the best presentation video on one screen when configuring the broadcast video do.

또한, 실시간 채점모듈(314)은 동영상의 전송이 완료되면, 실시간 다층 동영상 합성 시스템(100)으로부터 전송되는 합성 시스템 채점정보와 클라이언트 단말기(120)로부터 전송되는 시청자 채점정보를 처리하여 최종 점수를 산출하게 되고, 최종 점수를 각 모범연출 동영상에 따른 최고 득점자의 최종점수와 비교하여, 실시간 으로 전송된 합성동영상의 최종 점수가 최고 득점자의 최종점수 이상인 경우, 최고 득점자 동영상 데이터베이스(110)를 갱신하게 된다.In addition, when the transmission of the video is completed, the real-time scoring module 314 calculates a final score by processing the synthesis system scoring information transmitted from the real-time multilayer video synthesis system 100 and the viewer scoring information transmitted from the client terminal 120. When the final score of the composite video transmitted in real time is greater than or equal to the final score of the highest scorer, the final scorer video database 110 is updated. .

도 4는 본 발명의 바람직한 일 실시예에 따른 실시간 다층 동영상 합성 시스템에서 동영상이 실시간으로 촬영되어 합성되는 과정을 나타낸 순서도이고, 도 5는 본 발명의 바람직한 일 실시예에 따른 웹서버에서 이루어지는 실시간 인터넷 방송의 제공방법을 나타낸 순서도이다.FIG. 4 is a flowchart illustrating a process in which a video is captured in real time and synthesized in a real time multilayer video synthesizing system according to an exemplary embodiment of the present invention, and FIG. 5 is a real time Internet performed in a web server according to an exemplary embodiment of the present invention. A flowchart illustrating a method of providing a broadcast.

이하에서, 도 4와 도 5를 참조하여, 본 발명의 바람직한 일 실시예에 따른 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 제공방법에 대하여 상세히 설명한다.Hereinafter, a method for providing Internet broadcasting using a real-time multilayer video synthesis system according to an exemplary embodiment of the present invention will be described in detail with reference to FIGS. 4 and 5.

도 4는 본 발명의 바람직한 일 실시예에 따른 실시간 다층 동영상 합성 시스템에서 동영상이 실시간으로 촬영되어 합성되는 과정을 나타낸 순서도이다.FIG. 4 is a flowchart illustrating a process in which a video is captured and synthesized in real time in a real-time multilayer video synthesizing system according to an exemplary embodiment of the present invention.

이용자가 키 입력장치(260)를 이용하여 실시간 다층 동영상 합성 시스템을 이용하여 인터넷 방송을 수행하고 싶다는 제어신호를 출력하면, 실시간 다층 동영상 합성장치(210)는 이를 수신하고, 프로젝트 제어부(230)를 이용하여 실시간 다층 동영상 합성과정을 수행한다.When the user outputs a control signal that the user wants to perform internet broadcasting using the real-time multilayer video synthesizing system using the key input device 260, the real-time multilayer video synthesizing apparatus 210 receives the signal and controls the project control unit 230. Real-time multi-layer video synthesis process is performed.

프로젝트 제어부(230)는 이용자가 원하는 각종 동영상 합성옵션을 선택할 수 있는 동영상 합성메뉴를 디스플레이 장치(250)에 표시한다.The project controller 230 displays a video composition menu on the display device 250 in which a user can select various video composition options.

이용자는 디스플레이 장치(250)에 통해 표시되는 각종 선택메뉴를 보면서, 키 입력장치(260)를 조작하여 자신이 원하는 동영상을 생성하기 위한 동영상 합성 정보-배경동영상 지정, 각종 특수효과의 사용 여부, 음향 시각화 영상의 사용 여부, 제 2 배경동영상 사용 여부 등-를 출력하고, 프로젝트 제어부(230)는 키 입력장치(260)로부터 출력되는 동영상 합성정보를 수신하여 저장한다(S400).The user views various selection menus displayed on the display device 250, and manipulates the key input device 260 to create video composition information for his / her own desired video-background video designation, use of various special effects, and sound. Whether the visualization image is used, whether the second background image is used, and the like, is output, and the project controller 230 receives and stores the video composite information output from the key input device 260 (S400).

다층 동영상 합성을 시작하겠다는 제어신호를 수신하게 되면, 프로젝트 제어부(230)는 동영상 합성정보에 따른 모범연출 동영상을 모범연출 동영상 데이터베이스()로부터 추출하여 디스플레이 장치(250)를 통해 표시하고, 동시에 비디오 입력장치(256) 및 오디오 입력장치(252)를 이용하여 이용자의 교육모습, 교육내용, 춤, 반주, 광고성 동작 등의 영상을 실시간으로 촬영하여 입력받고, 동영상 합성정보에 따라 저장된 배경동영상과 실시간으로 합성한다(S402).When receiving a control signal to start multi-layer video synthesis, the project control unit 230 extracts the best-presentation video according to the video synthesis information from the best-presentation video database () to display through the display device 250, and at the same time video input By using the device 256 and the audio input device 252, the user's training images, training contents, dances, accompaniment, advertising motions, etc. are captured and input in real time, and stored in accordance with the video composite information stored in real time It synthesize | combines (S402).

다층 합성 동영상이 실시간으로 생성되는 과정을 보다 상세하게 설명하면, 음향처리부(224)에서는 오디오 입력장치(252)를 통해 실시간으로 입력되는 아날로그 음향데이터를 디지털 음향데이터로 변환하여 출력하며, 동시에 디지털 음향데이터를 분석하여 음향정보를 출력한다.In more detail, the process of generating a multi-layer composite video in real time, the sound processor 224 converts analog sound data input in real time through the audio input device 252 into digital sound data and outputs the digital sound. Analyze the data and output sound information.

동시에, 영상처리부(222)에서는 비디오 입력장치(256)를 통해 실시간으로 입력되는 아날로그 영상데이터를 디지털 영상데이터로 변환하여, 저장된 배경스크린(258)의 색상정보를 이용하여 배경분리 영상을 생성한다.At the same time, the image processor 222 converts analog image data input in real time through the video input device 256 into digital image data, and generates a background separated image using color information of the stored background screen 258.

또한, 영상처리부(222)에서는 동영상 합성정보에 따라 후면 배경영상으로 이용될 동영상을 배경동영상 데이터베이스(240)로부터 추출하여 알파채널 처리(알파채널의 존재 여부를 판단하여, 알파채널이 존재하지 않는 경우 알파채널을 부가하고, 알파채널의 알파값(투명도)을 음향처리부(224)에서 출력하는 음향정보에 따라 조정하여 출력하는 처리를 말함, 이하 '알파채널 처리'라 함)하여 후면 배경영상으로 생성하여 출력한다.In addition, the image processor 222 extracts a video to be used as a background image according to the video synthesis information from the background video database 240 to process the alpha channel (determining the existence of the alpha channel, when there is no alpha channel) Alpha channel is added, and the alpha value (transparency) of the alpha channel is adjusted according to the sound information output from the sound processor 224. To print.

또한, 영상처리부(222)에서는 동시에 동영상 합성정보에 따라, 이용자가 기존의 배경동영상을 이용하여 전면 배경영상을 생성하여 합성하기로 선택한 경우, 후면 배경영상의 처리과정과 동일한 과정으로 전면 배경영상을 생성하여 출력하고, 이용자가 음향 시각화 영상을 전면 배경영상으로 이용하기로 선택한 경우, 음향처리부(224)로부터 출력되는 음향정보에 따라 음향 시각화 영상을 생성하고, 음향 시각화 영상을 알파채널 처리하여 출력한다.In addition, the image processing unit 222 at the same time according to the video synthesis information, if the user chooses to create and synthesize the front background image using the existing background video, the front background image in the same process as the process of the back background image When the user selects to use the acoustic visualization image as the front background image, the user generates and outputs the acoustic visualization image according to the sound information output from the sound processor 224, and outputs the audio visualization image by alpha channel processing. .

영상 합성모듈(274)은 배경분리 영상과 전면 배경영상 및 후면 배경영상을 하나의 영상으로 합성하여 다층 합성영상으로 출력하고, 특수효과모듈(276)은 다층 합성영상에 설정에 따른 영상특수효과를 부여하여 출력한다.The image synthesizing module 274 synthesizes the background separation image, the front background image, and the rear background image into a single image and outputs the multi-layer composite image, and the special effect module 276 applies the image special effects according to the settings to the multi-layer composite image. To give output.

이때, 카메라 스위칭 모듈(278)은 위치센서로부터 입력되는 사용자의 위치정보를 이용하여 비디오 입력장치(256)를 설정에 따라 변경하게 되면, 입력되는 이용자의 동영상에 비디오 입력장치(256) 변경에 따른 장면전환이 발생하게 되고, 이에 따라 장면 전환모듈(280)은 특수효과모듈(276)이 출력하는 다층 합성영상에 장면전환 효과를 부여하여 출력한다.At this time, when the camera switching module 278 changes the video input device 256 according to the setting by using the user's location information input from the position sensor, the video switching device 278 changes the video input device 256 according to the video input of the user. The scene change occurs, and accordingly, the scene change module 280 gives the scene change effect to the multi-layer composite image output by the special effect module 276 and outputs the scene change effect.

파일처리부(226)는 음향처리부(224)에서 출력되는 디지털 음향데이터와 영상처리부(222)에서 출력되는 다층 합성영상을 동기화하여 하나의 파일로 결합 후, 특정 코덱에 따라 스트리밍 파일로 압축하여 출력한다.The file processor 226 synchronizes the digital sound data output from the sound processor 224 and the multi-layer composite image output from the image processor 222, combines them into a single file, and compresses the output into a streaming file according to a specific codec. .

다음으로, 프로젝트 제어부(230)는 영상처리부(222)로부터 출력되는 이용자 의 디지털 동영상 중 기본동작이 되는 정지영상을 추출하여, 모범연출 동영상 데이터베이스()에 저장된 모범연출 동영상의 기본 정지영상과 비교하여 이용자의 점수(합성 시스템 채점정보)를 산출한다(S404).Next, the project control unit 230 extracts a still image that is the basic operation of the user's digital video output from the image processing unit 222, and compared with the basic still image of the model of the best rendering video stored in the model database () A score (synthesis system scoring information) of the user is calculated (S404).

이때, 이용자의 신체조건에 따른 정지영상의 축소 또는 확대를 통해, 보다 더 정확한 점수를 산출할 수 있다.At this time, the more accurate score can be calculated by reducing or enlarging the still image according to the user's physical condition.

프로젝트 제어부(230)는 저장된 동영상 합성정보와 파일처리부(226)로부터 출력되는 스트리밍파일 및 합성시스템 채점정보를 통신제어부(228)를 이용하여 네트워크(102)를 통해 웹서버(104)로 실시간 전송하고(S406), 종료신호의 수신 여부를 판단하여 종료신호가 수신되지 않은 경우 S402단계 내지 S406단계를 반복하여 수행한다(S408).The project controller 230 transmits the stored video composition information and the streaming file and the synthesis system scoring information output from the file processor 226 to the web server 104 through the network 102 using the communication controller 228. In operation S406, when the termination signal is not received by determining whether the termination signal is received, steps S402 to S406 are repeatedly performed (S408).

도 5는 본 발명의 바람직한 일 실시예에 따른 웹서버에서 이루어지는 실시간 인터넷 방송의 제공방법을 나타낸 순서도이다.5 is a flowchart illustrating a method of providing real-time Internet broadcasting in a web server according to an exemplary embodiment of the present invention.

웹서버(104)는 실시간 다층 동영상 합성 시스템(100)으로부터 전송되는 스트리밍 파일 데이터, 합성 시스템 채점정보, 동영상 합성정보를 수신한다(S500).The web server 104 receives the streaming file data, the synthesis system scoring information, and the video synthesis information transmitted from the real-time multilayer video synthesis system 100 (S500).

웹서버(104)의 방송제어부(310)는 S500 단계에서 수신한 동영상 합성정보에 따라, 모범연출 동영상 데이터베이스()로부터 모범연출 동영상을 추출하고, 추출된 모범연출 동영상과 합성 시스템 채점정보 및 스트리밍 파일을 이용하여 인터넷 방송용 영상을 구성하고, 구성된 인터넷 방송용 동영상을 네트워크(102)를 통해 웹서버(104)에 접속한 다수의 클라이언트 단말기(120)로 전송한다(S502).The broadcast control unit 310 of the web server 104 extracts the best-presentation video from the best-presentation video database () according to the video synthesis information received in step S500, and extracts the best-execution video and the synthesis system scoring information and the streaming file. By using the Internet to configure a video for broadcasting, and transmits the configured Internet broadcasting video to the plurality of client terminals 120 connected to the web server 104 via the network 102 (S502).

이때, 인터넷 방송용 동영상이란, 클라이언트 단말기(120)에서 웹서버(104)로부터 전송되는 방송화면을 시청할 수 있는 미디어 플레이어의 한 화면상에 나타나게 되는 화면을 말한다.In this case, the Internet broadcast video refers to a screen that appears on one screen of a media player that can watch a broadcast screen transmitted from the web server 104 in the client terminal 120.

즉, 인터넷 방송시청자가 클라이언트 단말기(120)의 디스플레이부를 통해, 하나의 창(미디어 플레이어에서 재생되는 하나의 화면)으로 모범연출 동영상과, 합성된 이용자 동영상 및 합성 시스템 채점정보를 볼 수 있도록 구성되는 것이다.That is, the Internet broadcast viewer is configured to view the exemplary presentation video, the synthesized user video, and the synthesis system scoring information in one window (one screen played in the media player) through the display unit of the client terminal 120. will be.

또한, 방송제어부(310)는 S500 단계에서 수신한 동영상 합성정보에 따라, 최고득점자 동영상 데이터베이스(110)로부터 동일한 모범연출 동영상을 선택한 최고득점 동영상을 추출하여, 모범연출 동영상과 합성 시스템 채점정보 및 스트리밍 파일과 함께 인터넷 방송용 동영상을 구성할 수 있다.In addition, the broadcast controller 310 extracts the best score video selected from the best scorer video database 110 according to the video composition information received in step S500, the best score video and the synthesis system scoring information and streaming. You can compose a video for internet broadcasting with a file.

이러한 경우, 시청자는 하나의 화면으로 모범연출 동영상, 이용자 합성 동영상, 최고득점자 동영상 및 실시간 채점정보를 시청할 수 있게 된다.In this case, the viewer can watch the modeling video, the user synthesis video, the highest scorer video and the real-time scoring information on a single screen.

또한, 웹서버(104)의 방송제어부(310)는 복수의 클라이언트 단말기(120)로부터 전송되는 시청자 채점정보를 수신하여, S500 단계에서 수신한 합성 시스템 채점정보와 일정한 방식에 의하여 합산하여 합산점수를 산출하고, 합산점수를 인터넷 방송용 동영상에 반영한다(S504).In addition, the broadcast control unit 310 of the web server 104 receives the viewer scoring information transmitted from the plurality of client terminals 120, and adds the total score by the synthesis system scoring information received in step S500 in a predetermined manner. The calculated score is reflected in the video for internet broadcasting (S504).

본 발명에 따른 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 제공방법은, 동영상 합성 시스템으로부터 전송되는 기계적인 채점정보 이외에, 인터넷 방송 시청자가 이용자의 동영상을 시청하면서, 클라이언트 단말기(120)를 조작하여 전송하는 시청자 채점정보를 이용하여, 이용자의 동영상을 평가할 수 있다.Internet broadcasting providing method using a real-time multi-layer video synthesis system according to the present invention, in addition to the mechanical scoring information transmitted from the video synthesis system, the Internet broadcast viewer to operate the client terminal 120 while watching the user's video, and transmits The viewer grading information may be used to evaluate the user's video.

시청자는 클라이언트 단말기(120)의 디스플레이 장치를 통해 실시간으로 재생되는 이용자의 동영상을 시청하면서, 자신이 포인트를 주고 싶은 경우, 인터넷 방송용 미디어플레이어에 포함된 일정한 아이콘 등의 시청자 채점정보를 획득하기 위하여 웹서버에서 제공하는 각종 아이콘, 입력창 등을 이용하여 시청자 채점정보를 웹서버(104)에 전송하여, 이용자 동영상을 실시간으로 평가할 수 있게 되는 것이다.When a viewer views a video of a user playing in real time through a display device of the client terminal 120 and wishes to give a point, the viewer may obtain viewer scoring information such as a certain icon included in an internet broadcasting media player. The viewer scoring information is transmitted to the web server 104 using various icons, input windows, etc. provided by the server, so that the user video can be evaluated in real time.

웹서버(104)는 실시간 다층 동영상 합성 시스템(100)으로부터 종료신호가 전송되었는지 판단하고, 종료신호가 전송되지 않은 경우 S500 단계 내지 S504 단계를 반복하여 수행한다(S506).The web server 104 determines whether an end signal is transmitted from the real-time multilayer video synthesizing system 100, and if the end signal is not transmitted, repeats steps S500 to S504 (S506).

웹서버(104)는 종료신호를 수신한 경우, 전송된 스트리밍 파일을 하나의 동영상 파일로 결합하여, 이용자의 정보 및 동영상 합성정보와 함께 이용자 동영상 데이터베이스(108)에 저장한다(S508).When the web server 104 receives the end signal, the web server 104 combines the transmitted streaming file into a single video file and stores the user's information and the video composition information in the user video database 108 (S508).

또한, 웹서버(104)의 방송제어부(310)는 S504 단계에서 산출되는 합산점수를 누적하여, 최종 합산점수를 산출하고, 최고득점자 동영상 데이터베이스(110)에 저장된 동일한 모범연출 동영상을 이용한 동영상의 최종 합산점수와 비교하여(S510), 최고득점자의 최종 합산점수보다 높은 경우, 데이터베이스 제어부(320)를 통해 최고득점자 동영상 데이터베이스(110)의 동영상을 이용자의 동영상으로 갱신한다(S512).In addition, the broadcast control unit 310 of the web server 104 accumulates the sum score calculated in step S504, calculates the final sum score, and finalizes the video using the same best-presented video stored in the highest score video database 110. Compared to the total score (S510), if the final score of the highest scorer is higher than the final score, the database of the highest scorer video database 110 through the database control unit 320 is updated to the user's video (S512).

상술한 바와 같은 과정을 통해 높은 품질의 다층 합성영상을 실시간으로 생 성하고, 이를 인터넷을 통해 시청자들에게 제공할 수 있게 되는 것이다.Through the process as described above, it is possible to generate a high-quality multi-layer composite image in real time, and to provide it to viewers over the Internet.

이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술 사상과 아래에 기재될 특허 청구범위의 균등 범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As described above, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited thereto and is intended by those skilled in the art to which the present invention pertains. Of course, various modifications and variations are possible within the scope of equivalent claims.

전술한 바와 같이 본 발명인 3D 동영상 합성을 통한 인터넷 방송 서비스 시스템 및 방법은, 연출을 할 수 없었던 종래의 동영상 제작기의 한계를 극복하여 노래방 이용자로 하여금 가상연출자의 모범동작을 따라하게 함으로써 자연스러운 동영상을 누구나 쉽게 제작할 수 있고, 저렴한 비용으로 다양한 배경영상과 특수효과가 가미된 높은 수준의 동영상을 제작할 수 있는 효과가 있다.As described above, the present invention provides a system and method for internet broadcasting service through 3D video synthesis, which overcomes the limitations of the conventional video producer, which allows the karaoke user to follow the exemplary behavior of the virtual performer. It is easy to produce, and it is effective to produce high quality video with various background images and special effects at low cost.

또한, 촬영된 동영상을 인터넷을 통하여 생방송 또는 방송할 수 있으며, 이 경우 기존의 방송과 달리 네트워크 과부하의 문제점이 적은 장점이 있다.In addition, the recorded video can be broadcast or broadcast live via the Internet, in this case, unlike the existing broadcast has the advantage of less network overload problems.

뿐만 아니라, 개인 PR용 동영상이나 뮤직비디오를 촬영해 오디션 등에 활용할 수 있는 이점이 있다.In addition, there is an advantage that can be used for audition by shooting a personal PR video or music video.

Claims (21)

네트워크를 통한 인터넷 방송 시스템에 있어서,In the Internet broadcasting system via a network, 실시간으로 입력되는 영상데이터와 음향데이터 및 배경동영상을 실시간으로 합성하여 다층 합성 동영상을 생성하고, 상기 다층 합성 동영상을 실시간으로 소정의 코덱에 따라 스트리밍 파일로 변환하여 상기 네트워크를 통해 전송하는 실시간 다층 동영상 합성 시스템;Real-time multi-layered video that generates real-time multi-layered composite video by synthesizing real-time input image data, sound data, and background video, and converting the multi-layered composite video into a streaming file according to a predetermined codec in real time. Synthesis system; 상기 실시간 다층 동영상 합성 시스템으로부터 전송되는 스트리밍 파일을 수신하여 상기 네트워크를 통해 실시간으로 전송하는 웹서버; 및A web server receiving the streaming file transmitted from the real-time multilayer video synthesizing system and transmitting the streaming file in real time through the network; And 상기 네트워크를 통해 상기 웹서버에 접속하여 상기 스트리밍 파일을 수신하는 복수의 클라이언트 단말기를 포함하되,And a plurality of client terminals connected to the web server through the network to receive the streaming file. 상기 실시간 다층 동영상 합성 시스템은 각종 모범연출 동영상이 구조화되어 저장된 모범연출 동영상 데이터베이스 및 배경영상 데이터베이스를 포함하고, 사용자의 조작에 따라 상기 모범연출 동영상 데이터베이스로부터 사용자가 따라서 행동해야할 특정 모범연출 동영상을 추출하여 사용자에게 제공하며, 실시간으로 입력되는 사용자의 영상데이터에서 배경을 분리하여 배경분리 영상을 생성하고, 상기 배경동영상 데이터베이스로부터 특정 배경동영상을 추출하여 배경동영상의 알파채널의 알파값을 이용해 후면 배경영상과 전면 배경영상을 생성하여, 상기 배경분리 영상과 상기 후면 배경영상 및 상기 전면 배경영상을 실시간으로 합성하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템.The real-time multilayer video synthesizing system includes a modeling video database and a background image database in which various modeling videos are structured and stored, and extracts a specific modeling video that the user should act according to the user's manipulation from the modeling video database. Provides to the user and generates a background separation image by separating the background from the user's image data input in real time, extracts a specific background video from the background video database, and uses the alpha value of the alpha channel of the background video to Generating a front background image and synthesizing the background separated image, the back background image and the front background image in real time; 제1항에 있어서, 상기 실시간 동영상 시스템은,The method of claim 1, wherein the real-time video system, 음향신호를 전기신호로 변환하여 출력하는 오디오 입력장치;An audio input device for converting an acoustic signal into an electrical signal and outputting the electrical signal; 광학신호를 전기신호로 변환하여 출력하는 적어도 하나 이상의 비디오 입력장치;At least one video input device for converting and outputting an optical signal into an electrical signal; 키 조작에 따른 제어신호를 출력하는 키 입력장치;A key input device for outputting a control signal according to a key operation; 배경분리 동영상을 생성하기 위한 배경 스크린;A background screen for generating a background separation video; 각종 스토리에 따라 미리 촬영된 배경동영상이 구조화되어 저장된 배경동영 상 데이터베이스; A background video database in which a pre-recorded background video is structured and stored according to various stories; 각종 모범연출 동영상이 구조화되어 저장된 모범연출 동영상 데이터베이스; A modeling video database in which various modeling videos are structured and stored; 상기 모범연출 동영상 데이터베이스에 저장된 모범연출 동영상이 표시되는 디스플레이 장치; 및A display device displaying a best-presentation video stored in the best-presentation video database; And 상기 키 입력장치로부터 출력되는 제어신호에 따라 상기 디스플레이 장치를 제어하여 모범연출 동영상을 표시하고, 상기 오디오 입력장치를 통해 입력되는 음향데이터와 상기 비디오 입력장치를 통해 입력되는 영상데이터 및 상기 저장수단에 저장되어 있는 배경동영상을 실시간으로 합성하여 특수효과를 부여하고, 상기 합성된 다층 동영상을 소정의 코덱에 따라 스트리밍 파일로 변환하여 상기 네트워크를 통해 상기 웹서버에 전송하는 실시간 다층 동영상 합성장치를 포함하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템.The display device is controlled according to a control signal output from the key input device to display a best-presented moving picture, and the sound data input through the audio input device, the image data input through the video input device, and the storage means. A real-time multi-layer video synthesizing apparatus for synthesizing the stored background video in real time to give a special effect, converting the synthesized multi-layer video into a streaming file according to a predetermined codec, and transmitting the multi-layer video to the web server through the network; Internet broadcasting system using a real-time multi-layer video synthesis system, characterized in that. 제2항에 있어서, 상기 실시간 다층 동영상 합성장치는,The apparatus of claim 2, wherein the real-time multilayer video synthesizing apparatus is provided. 외부 입출력 장치와의 데이터 입출력 인터페이스를 형성하는 입출력 인터페이스;An input / output interface forming a data input / output interface with an external input / output device; 동영상 데이터와 영상처리에 필요한 데이터의 임시 저장장소로 사용되는 램;RAM used as a temporary storage place for moving image data and data necessary for image processing; 운영체계와 영상처리 알고리즘 및 음향처리 알고리즘이 저장되어 있는 롬;ROM, which stores operating system, image processing algorithm and sound processing algorithm; 각종 데이터가 저장되며, 상기 배경동영상 데이터베이스와 상기 모범연출 데이터베이스가 물리적으로 저장되어 있는 저장수단;Storage means for storing various data and physically storing the background video database and the exemplary presentation database; 상기 비디오 입력장치를 통해 입력되는 영상데이터 및 상기 저장수단에 저장 되어 있는 배경동영상을 실시간으로 합성하여 다층 합성영상을 출력하는 영상처리부;An image processor for synthesizing the image data input through the video input device and the background video stored in the storage unit in real time and outputting a multi-layer composite image; 상기 오디오 입력장치를 통해 입력되는 음향데이터를 디지털화하여 디지털 음향데이터를 출력하는 음향처리부;A sound processor for digitizing the sound data input through the audio input device and outputting the digital sound data; 상기 영상처리부로부터 출력되는 다층 합성영상과 상기 음향처리부로부터 출력되는 디지털 음향데이터를 동기화하여 하나의 파일로 결합하여 소정의 코덱에 따라 스트리밍 파일로 압축하는 파일처리부;A file processing unit for synchronizing the multi-layer composite image output from the image processing unit and the digital audio data output from the sound processing unit to combine into a single file and to compress it into a streaming file according to a predetermined codec; 상기 파일처리부로부터 출력되는 스트리밍 파일을 상기 네트워크를 통해 연결된 상기 웹서버로 전송하는 통신제어부; 및A communication control unit transmitting the streaming file output from the file processing unit to the web server connected through the network; And 상기 키 입력장치를 통해 입력되는 제어신호에 상응하는 모범연출 동영상을 추출하여 상기 디스플레이 수단을 통해 표시하고, 실시간 다층 동영상의 합성 및 전송과정을 전반적으로 제어하는 주제어부를 포함하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템.Real-time multi-layer characterized in that it comprises a main control unit for extracting the best-presented video corresponding to the control signal input through the key input device to display through the display means, and overall control of the synthesis and transmission process of the real-time multi-layer video Internet broadcasting system using video synthesis system. 제3항에 있어서, The method of claim 3, 상기 음향처리부는, 상기 오디오 입력장치로부터 출력되는 음향데이터를 분석하여 상기 음향데이터의 주파수 정보, 출력 정보가 포함된 음향정보를 출력하고,The sound processor may analyze sound data output from the audio input device and output sound information including frequency information and output information of the sound data. 상기 영상처리부는, 상기 음향처리부로부터 출력되는 음향정보에 따라 배경동영상을 생성하고 처리하여 다층 합성영상을 출력하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템.And the image processor generates and processes a background video according to the sound information output from the sound processor, and outputs a multi-layer composite image. 제4항에 있어서, 상기 영상처리부는,The method of claim 4, wherein the image processor, 상기 비디오 입력장치로부터 입력되는 아날로그 영상데이터를 디지털 영상데이터로 변환하고, 배경을 분리하여 배경분리 영상을 출력하는 입력 동영상 처리모듈;An input video processing module for converting analog image data input from the video input device into digital image data, and outputting a background separated image by separating a background; 상기 키 입력장치로부터 출력되는 제어신호에 상응하는 배경동영상을 상기 저장수단으로부터 추출하고, 상기 배경동영상에 알파채널의 존재 여부를 판단하여 알파채널이 존재하지 않는 경우 알파채널을 부가하고, 상기 음향처리 수단으로부터 출력되는 음향정보에 따라 알파채널의 알파값을 변화시켜 후면 배경영상과 전면 배경영상을 출력하는 배경 동영상 처리모듈;Extracts a background video corresponding to the control signal output from the key input device from the storage means, determines whether an alpha channel exists in the background video, and adds an alpha channel when the alpha channel does not exist, and performs the sound processing. A background video processing module for outputting a back background image and a front background image by changing an alpha value of an alpha channel according to sound information output from the means; 상기 입력 동영상 처리모듈로부터 출력되는 배경분리 영상과 상기 배경 동영상 처리모듈로부터 출력되는 후면 배경영상과 전면 배경영상을 실시간으로 합성하여 다층 합성영상을 출력하는 영상 합성모듈; 및An image synthesizing module for synthesizing a background separation image output from the input video processing module and a rear background image and a front background image output from the background video processing module in real time to output a multi-layer composite image; And 상기 영상 합성모듈로부터 출력되는 다층 합성영상에 이용자의 설정에 따른 각종 특수효과를 부여하는 출력하는 특수효과 모듈을 포함하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템.Internet broadcasting system using a real-time multi-layer video synthesizing system comprising a special effect module for giving a variety of special effects according to the user's settings to the multi-layer composite video output from the image synthesizing module. 제5항에 있어서, The method of claim 5, 상기 실시간 다층 동영상 합성 시스템은,The real-time multilayer video synthesis system, 이용자의 위치를 측정하여 출력하는 위치센서를 더 포함하며,Further comprising a position sensor for measuring and outputting the position of the user, 상기 영상처리부는, The image processor, 상기 위치센서로부터 출력되는 이용자의 위치에 따라 상기 복수의 비디오 입력장치 중 가장 적절한 비디오 입력장치를 선택하여 비디오 신호를 입력받는 카메라 스위칭 모듈; 및A camera switching module configured to receive a video signal by selecting a most suitable video input device among the plurality of video input devices according to a user's position output from the position sensor; And 상기 카메라 스위칭 모듈에 의한 상기 비디오 입력장치의 변경에 따른 장면전환 효과를 부여하여 다층 합성영상을 생성하는 장면전환 모듈을 더 포함하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템.And a scene change module configured to generate a multi-layer composite image by applying a scene change effect according to the change of the video input device by the camera switching module. 제3항에 있어서, 상기 실시간 동영상 합성장치는,According to claim 3, The real-time video synthesizing apparatus, 상기 제 1 디스플레이장치를 통해 동영상 합성 메뉴를 GUI(Graphic User Interface)형식으로 제공하고, 상기 키 입력장치를 통해 입력되는 제어신호를 수신하여 상기 제어신호에 상응되는 동영상 합성정보를 저장하여, 상기 동영상 합성정보에 따라 다층 합성 동영상이 생성되도록 상기 제어부를 제어하는 프로젝트 제어부를 더 포함하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템.Providing a video composition menu in the form of a GUI (Graphic User Interface) through the first display device, receiving a control signal input through the key input device to store the video synthesis information corresponding to the control signal, the video And a project control unit for controlling the control unit to generate the multi-layer composite video according to the synthesis information. 제7항에 있어서, 상기 프로젝트 제어부는,The method of claim 7, wherein the project control unit, 상기 키 입력장치를 통해 입력되는 제어신호를 수신하여 상기 제어신호에 상응되는 동영상 합성정보를 저장하여, 상기 동영상 합성정보에 따라 다층 합성 동영상이 생성되도록 상기 제어부를 제어하는 프로젝트 제어모듈을 포함하며,And a project control module configured to receive a control signal input through the key input device, store video composite information corresponding to the control signal, and control the controller to generate a multi-layer composite video according to the video composite information. 일정한 알고리즘에 의하여 상기 비디오 입력장치를 통해 입력되는 동영상과 상기 제 1 디스플레이부를 통하여 표시되는 모범연출 동영상의 일치 여부를 판단하여 점수를 부여하는 동작분석 모듈을 더 포함하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템.Real-time multi-layer video synthesis, characterized in that it further comprises a motion analysis module for assigning a score by determining whether the video inputted through the video input device and the best-presented video displayed through the first display unit by a predetermined algorithm; Internet broadcasting system using the system. 제8항에 있어서, 상기 동작분석 모듈은,The method of claim 8, wherein the motion analysis module, 상기 모범연출 동영상의 프레임데이터와 상기 비디오 입력장치를 통해 입력되는 이용자 동영상의 프레임데이터를 비교하여 일치 여부를 판단하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템.And comparing frame data of the model video with the frame data of the user's video input through the video input device to determine whether or not the video is matched. 제1항에 있어서, The method of claim 1, 상기 클라이언트 단말기는 입력장치를 통해 입력되는 시청자 채점정보를 실시간으로 상기 웹서버로 전송하고,The client terminal transmits the viewer scoring information input through the input device to the web server in real time, 상기 웹서버는 상기 클라이언트 단말기로부터 전송되는 채점정보를 수신하여, 상기 채점정보 데이터를 실시간으로 수집하여 처리하여 상기 방송용 동영상 데이터에 포함하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템.And the web server receives the scoring information transmitted from the client terminal, collects and processes the scoring information data in real time and includes the processed information in the broadcasting video data. 제10항에 있어서, 상기 웹서버는.11. The method of claim 10, wherein the web server. 각종 모범연출 동영상이 구조화되어 저장된 모범연출 동영상 데이터베이스; A modeling video database in which various modeling videos are structured and stored; 상기 실시간 다층 동영상 합성 시스템으로부터 전송된 다층 합성 동영상이 구조화되어 저장되는 이용자동영상 데이터베이스;A user automatic image database structured and stored in a multi-layer composite video transmitted from the real-time multi-layer video composite system; 상기 모범연출 동영상 데이터베이스와 상기 이용자동영상 데이터베이스가 물리적으로 저장되며, 각종 데이터가 저장되는 저장수단;A storage means for physically storing the model video clip database and the automatic video image database, and storing various data; 동영상 데이터와 영상처리에 필요한 데이터의 임시 저장장소로 사용되는 램;RAM used as a temporary storage place for moving image data and data necessary for image processing; 상기 웹서버를 구동시키기 위한 운영체계 및 각종 프로그램이 저장된 롬;A ROM storing an operating system and various programs for running the web server; 상기 실시간 다층 동영상 합성 시스템 및 상기 클라이언트 단말기와 네트워크를 통해 데이터 통신을 수행하는 통신제어부;A communication controller for performing data communication with the real-time multilayer video synthesizing system and the client terminal through a network; 상기 통신제어부를 통해 상기 실시간 다층 동영상 합성 시스템으로부터 전송되는 상기 스트리밍 파일과 동영상 합성정보 및 합성 시스템 채점정보를 실시간으로 수신하고, 상기 클라이언트 단말기로부터 실시간으로 전송되는 시청자 채점정보를 수신하여, 상기 스트리밍 파일과 상기 정보를 이용하여 방송용 동영상을 구성하여 상기 통신제어부를 통해 전송하는 방송제어부;The streaming file and the video synthesis information and the synthesis system scoring information transmitted from the real-time multi-layer video synthesis system through the communication control unit in real time, and receives the viewer scoring information transmitted in real time from the client terminal, the streaming file And a broadcast controller configured to construct a broadcast video using the information and transmit the same through the communication controller. 상기 실시간 다층 동영상 합성 시스템으로부터 전송되는 다층 합성 동영상데이터를 이용자정보와 결합하여 상기 이용자동영상 데이터베이스를 구축, 관리하고, 상기 모범연출 동영상 데이터베이스를 제어하는 데이터베이스 제어부; 및A database controller which combines the multi-layer composite video data transmitted from the real-time multi-layer video synthesis system with user information to construct and manage the user automatic video database, and to control the exemplary production video database; And 상기 롬에 저장되어있는 운영체계에 따라 실시간 인터넷 방송을 전반적으로 제어하는 주제어부를 포함하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템.Internet broadcasting system using a real-time multi-layer video synthesis system comprising a main control unit for controlling the overall Internet broadcasting in accordance with the operating system stored in the ROM. 제11항에 있어서, 상기 방송제어부는,The method of claim 11, wherein the broadcast control unit, 상기 실시간 다층 동영상 합성 시스템으로부터 전송되는 합성 시스템 채점정보와 상기 클라이언트 단말기로부터 전송되는 시청자 채점정보를 일정한 방식에 따라 실시간으로 합산하여 채점정보를 출력하는 실시간 채점모듈; 및A real time scoring module for outputting scoring information by summing in real time the synthesis system scoring information transmitted from the real-time multilayer video synthesizing system and the viewer scoring information transmitted from the client terminal in a predetermined manner; And 상기 실시간 다층 동영상 합성 시스템으로부터 전송되는 스트리밍 파일과 동영상 합성정보에 상응하는 상기 모범연출 동영상 데이터베이스에 저장된 모범연출 동영상 및 상기 실시간 채점 모듈로부터 출력되는 채점정보를 이용하여 방송용 동영상을 구성하는 동영상 제어모듈을 포함하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템.A video control module for constructing a video for broadcasting by using a streaming video transmitted from the real-time multi-layer video synthesizing system and a best-playing video stored in the best-presenting video database corresponding to video synthesis information and scoring information output from the real-time scoring module; Internet broadcasting system using a real-time multi-layer video synthesis system comprising a. 제12항에 있어서, The method of claim 12, 상기 웹서버는, 각 모범연출 동영상에 따른 최고 득점자의 동영상이 구조화되어 저장된 최고 득점자 동영상 데이터베이스를 더 포함하며,The web server further includes a top scorer video database of structured and stored videos of the top scorers according to each model video, 상기 동영상 제어모듈은, 상기 최고 득점자 동영상 데이터베이스에 저장된 최고 득점자 동영상을 포함하여 방송용 동영상을 구성하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템.The video control module is an Internet broadcasting system using a real-time multi-layer video synthesis system, characterized in that for configuring the broadcast video including the highest scorer video stored in the highest scorer video database. 제13항에 있어서,The method of claim 13, 상기 실시간 채점모듈은 동영상의 전송이 완료되면, 상기 실시간 다층 동영 상 합성 시스템으로부터 전송되는 합성 시스템 채점정보와 상기 클라이언트 단말기로부터 전송되는 시청자 채점정보를 처리하여 최종 점수를 산출하며, 각 모범연출 동영상에 따른 최고 득점자의 최종점수와 비교하여 상기 최종 점수가 최고 득점자의 최종점수 이상인 경우, 상기 최고 득점자 동영상 데이터베이스를 갱신하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 시스템.When the transmission of the video is completed, the real-time scoring module calculates a final score by processing the synthesis system scoring information transmitted from the real-time multi-layer video synthesis system and the viewer scoring information transmitted from the client terminal. And comparing the final score of the highest scorer to the final score of the highest scorer, wherein the highest scorer video database is updated. 오디오/비디오 입력장치, 디스플레이 장치, 키 입력장치, 배경 스크린, 배경동영상 데이터베이스 및 모범연출 동영상 데이터베이스를 구비한 실시간 다층 동영상 합성 시스템과 모범연출 동영상 데이터베이스를 구비한 웹서버 및 복수의 클라이언트 단말기가 네트워크를 통해 연결된 인터넷 방송 시스템을 이용한 실시간 인터넷 방송 제공방법에 있어서,Real-time multi-layer video synthesis system with audio / video input device, display device, key input device, background screen, background video database and best-play video database, web server with best-play video database and multiple client terminals In the real-time Internet broadcast providing method using an internet broadcasting system connected through (a) 상기 실시간 다층 동영상 합성 시스템에서 상기 오디오/비디오 입력장치를 통해 입력되는 동영상과 배경동영상을 합성하여 실시간 다층 동영상을 생성하고, 상기 실시간 다층 동영상을 스트리밍 파일로 변환하고, 상기 스트리밍 파일과 동영상 합성정보를 실시간으로 상기 웹서버로 전송하는 단계; 및(a) synthesizing the video inputted through the audio / video input device and the background video in the real-time multi-layer video synthesis system to generate a real-time multi-layer video, converting the real-time multi-layer video to a streaming file, the streaming file and the video Transmitting composite information to the web server in real time; And (b) 상기 단계(a)에서 전송되는 스트리밍 파일과 동영상 합성정보를 상기 웹서버에서 수신하여 인터넷 방송용 동영상을 구성하여 실시간으로 전송하는 단계를 포함하되,(b) receiving the streaming file and the video composite information transmitted in the step (a) from the web server to construct a video for Internet broadcasting, and transmitting the data in real time, 상기 (a)단계는,In step (a), (a1) 동영상 합성정보를 수집하기 위한 동영상 합성 메뉴를 상기 디스플레이 장치에 표시하는 단계;(a1) displaying a moving picture composition menu for collecting moving picture synthesis information on the display device; (a2) 상기 키 입력장치로부터 출력되는 모범 연출동영상 선택정보, 배경동영상 선택정보, 음향시각화 여부, 특수효과 선택정보 등의 동영상 합성정보를 수신하는 단계;(a2) receiving video synthesis information such as exemplary directing video selection information, background video selection information, sound visualization, and special effect selection information output from the key input device; (a3) 상기 (a2)단계에서 수신한 모범 연출동영상 선택정보에 따라 상응하는 모범 연출동영상을 상기 모범 연출동영상 데이터베이스로부터 추출하여 상기 디스플레이 장치에 표시하는 단계;(a3) extracting a corresponding exemplary production video from the exemplary production video database according to the exemplary production video selection information received in step (a2), and displaying the same production video on the display device; (a4) 상기 (a2)단계에서 수신한 동영상 합성정보에 따라 상기 비디오 입력장치로부터 실시간으로 입력되는 동영상과 상기 동영상 합성정보에 상응하는 배경동영상을 합성한 후 특수효과를 부과하여 다층 합성영상을 생성하고, 상기 오디오 입력장치로부터 실시간으로 입력되는 음향데이터를 디지털 음향데이터로 변환하여, 상기 다층 합성영상과 상기 디지털 음향데이터를 하나의 파일로 결하여 다층 합성 동영상을 생성하고, 상기 다층 합성 동영상을 스트리밍 파일로 변환하는 단계;(a4) A multi-layer composite image is generated by synthesizing a video input from the video input device in real time and a background video corresponding to the video composite information according to the video composite information received in step (a2). And converting the acoustic data input in real time from the audio input device into digital acoustic data, combining the multilayered composite image and the digital acoustic data into one file, generating a multilayered composite video, and streaming the multilayered composite video. Converting to a file; (a5) 소정의 알고리즘에 따라 입력되는 동영상과 모범연출 동영상과 비교하여 채점하고, 상기 디스플레이 장치에 표시하는 단계;(a5) comparing the input video and the best presentation video according to a predetermined algorithm to score and display the same on the display device; (a6) 상기 동영상 합성정보와 상기 스트리밍 파일과 및 상기 합성 시스템 채점 정보를 실시간으로 전송하는 단계를 포함하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 제공방법.and (a6) transmitting the video synthesis information, the streaming file, and the synthesis system scoring information in real time. 삭제delete 제15항에 있어서, 상기 (a4)단계는,The method of claim 15, wherein step (a4), (a4.1) 실시간으로 입력되는 아날로그 영상 데이터와 아날로그 음향데이터를 디지털 영상 데이터와 디지털 음향 데이터로 변환하는 단계;(a4.1) converting analog image data and analog sound data input in real time into digital image data and digital sound data; (a4.2) 상기 (a4.1)단계에서 변환된 디지털 음향 데이터를 분석하여 음향정보를 생성하는 단계;(a4.2) generating sound information by analyzing the digital sound data converted in the step (a4.1); (a4.3) 상기 (a4.1)단계에서 변환된 디지털 영상 데이터를 처리하여 배경분리 영상을 생성하는 단계;(a4.3) generating a background separated image by processing the digital image data converted in the step (a4.1); (a4.4) 상기 (a2)단계에서 수신한 동영상 합성정보와 상기 (a4.2)단계에서 생성된 음향정보 따라 배경동영상을 추출하거나 또는 배경동영상을 생성하고 알파채널 처리를 하여, 후면 배경영상 및 전면 배경영상을 출력하는 단계;(a4.4) Extracting the background video or generating the background video according to the video synthesis information received in step (a2) and the sound information generated in step (a4.2) and alpha channel processing, Outputting a front background image; (a4.5) 상기 (a4.3)단계에서 생성된 배경분리 영상과 상기 (a4.4)단계에서 생성된 후면 배경영상 및 전면 배경영상을 합성하여 다층 합성영상을 생성하는 단계;(a4.5) generating a multi-layer composite image by synthesizing the background separation image generated in step (a4.3) and the back background image and front background image generated in step (a4.4); (a4.6) 상기 (a4.5)단계에서 생성된 다층 합성영상에 특수효과를 부여하는 단계;(a4.6) applying a special effect to the multi-layer composite image generated in step (a4.5); (a4.7) 상기 (a4.1)단계에서 변환된 디지털 음향 데이터와 상기 (a4.6)단계에서 생성된 다층 합성영상을 결합하는 단계; 및(a4.7) combining the digital sound data converted in the step (a4.1) and the multi-layer composite image generated in the step (a4.6); And (a4.8) 상기 (a4.7)단계에서 결합된 파일을 실시간을 스트리밍 파일로 변환하는 단계를 포함하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 제공방법.(a4.8) Internet broadcasting providing method using a real-time multi-layer video synthesis system comprising the step of converting the file combined in the step (a4.7) in real time to a streaming file. 제15항에 있어서, 상기 (a5)단계는, 상기 디스플레이 장치에 표시되는 모범연출 동영상의 프레임데이터와 비디오 입력장치를 통해 입력되는 이용자 동영상의 프레임데이터를 비교하여 일치 여부를 판단하고 채점하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 제공방법.The method of claim 15, wherein the step (a5) comprises comparing the frame data of the exemplary motion picture displayed on the display device with the frame data of the user video input through the video input device to determine whether or not a match and scoring. Internet broadcasting providing method using a real-time multi-layer video synthesis system. 제15항에 있어서, 상기 (b)단계는,The method of claim 15, wherein step (b) comprises: (b1) 상기 실시간 다층 동영상 합성 시스템으로부터 전송되는 스트리밍 파일, 동영상 합성정보 및 합성 시스템 채점정보를 실시간으로 수신하는 단계;(b1) receiving in real time a streaming file, video synthesis information, and synthesis system scoring information transmitted from the real-time multilayer video synthesis system; (b2) 상기 (b1)단계에서 수신한 동영상 합성정보에 상응하는 모범연출 동영상을 상기 모범영상 동영상 데이터베이스로부터 추출하는 단계; 및(b2) extracting a model video corresponding to the video composite information received in step (b1) from the model video video database; And (b3) 상기 (b2)단계에서 추출한 모범연출 동영상과 상기 (b1)단계에서 수신한 상기 스트리밍 파일 및 합성 시스템 채점정보를 이용하여 방송용 동영상을 구성하는 단계를 포함하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 제공방법.(b3) real-time multi-layer video synthesis, comprising the step of constructing a broadcast video using the exemplary presentation video extracted in step (b2) and the streaming file and synthesis system scoring information received in step (b1). Internet broadcasting method using the system. 제19항에 있어서, The method of claim 19, 상기 웹서버는, 최고득점자 동영상 데이터베이스를 더 포함하며,The web server further includes a high scorer video database, 상기 (b3)단계는, 상기 (b2)단계에서 추출한 모범연출 동영상과 상기 (b1)단계에서 수신한 상기 스트리밍 파일 및 합성 시스템 채점정보 및 상기 동영상 합성정보에 상응하는 최고득점자 동영상을 이용하여 방송용 동영상을 구성하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 제공방법.In the step (b3), the broadcast video using the best rendering video extracted in the step (b2), the streaming file and the synthesis system scoring information received in the step (b1) and the highest scorer video corresponding to the video synthesis information Internet broadcast providing method using a real-time multi-layer video synthesis system, characterized in that the configuration. 제20항에 있어서, 상기 (b3)단계 이후에,The method of claim 20, wherein after step (b3), (b4) 상기 클라이언트 단말기로부터 전송되는 시청자 채점정보를 수신하여, 상기 시스템 채점정보와 일정한 방식에 따라 실시간으로 채점정보를 산출하는 단계; (b4) receiving viewer scoring information transmitted from the client terminal and calculating scoring information in real time according to the system scoring information and a predetermined method; (b5) 상기 채점정보를 방송용 동영상에 반영하여 방송용 동영상을 구성하는 단계; 및(b5) constructing a broadcast video by reflecting the scoring information on the broadcast video; And (b6) 상기 실시간 다층 동영상 합성 시스템으로부터 전송되는 촬영종료 신호의 수신 여부를 판단하여, 촬영이 종료된 경우 상기 (b4)단계에서 산출된 채점정보를 이용하여 최고득점 여부를 판단하고, 최고득점인 경우 상기 스트리밍 파일을 이용하여 최고득점자 동영상 데이터베이스를 구축하는 단계를 더 포함하는 것을 특징으로 하는 실시간 다층 동영상 합성 시스템을 이용한 인터넷 방송 제공방법.(b6) determining whether to receive a shooting end signal transmitted from the real-time multi-layer video synthesis system, and when shooting is finished, using the scoring information calculated in step (b4) to determine the highest score, If it is the Internet broadcast providing method using a real-time multi-layer video synthesis system characterized in that it further comprises the step of building the highest score video database using the streaming file.
KR1020050096409A 2005-08-05 2005-10-13 Internet broadcasting system of Real-time multilayer multimedia image integrated system and Method thereof KR100748060B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050096409A KR100748060B1 (en) 2005-08-05 2005-10-13 Internet broadcasting system of Real-time multilayer multimedia image integrated system and Method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020050071631 2005-08-05
KR1020050096409A KR100748060B1 (en) 2005-08-05 2005-10-13 Internet broadcasting system of Real-time multilayer multimedia image integrated system and Method thereof

Publications (2)

Publication Number Publication Date
KR20070016901A KR20070016901A (en) 2007-02-08
KR100748060B1 true KR100748060B1 (en) 2007-08-09

Family

ID=41631360

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050096409A KR100748060B1 (en) 2005-08-05 2005-10-13 Internet broadcasting system of Real-time multilayer multimedia image integrated system and Method thereof

Country Status (1)

Country Link
KR (1) KR100748060B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101827967B1 (en) * 2016-11-15 2018-02-12 (주)잼투고 Server and Service for Providing Video Content
WO2020085570A1 (en) * 2018-10-22 2020-04-30 전자부품연구원 Device and method for acquiring 360-degree vr image in game by using multiple virtual cameras

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100889367B1 (en) * 2007-03-09 2009-03-19 (주) 이브로드캐스트 System and Method for Realizing Vertual Studio via Network
KR101327885B1 (en) * 2012-01-16 2013-11-11 주식회사 리드텍 DID system for transmitting content of the combined DID content and broadcast content and for monitoring using a wall controller, and operation method thereof
KR101224221B1 (en) * 2012-05-10 2013-01-22 쉐어쉐어주식회사 System for operating contents by using application program
KR101454333B1 (en) * 2013-05-07 2014-10-27 (주) 프로게이트테크놀러지 Real time system for mixing captured image and backgroud image
US11032602B2 (en) 2017-04-03 2021-06-08 Smule, Inc. Audiovisual collaboration method with latency management for wide-area broadcast
US11310538B2 (en) 2017-04-03 2022-04-19 Smule, Inc. Audiovisual collaboration system and method with latency management for wide-area broadcast and social media-type user interface mechanics
KR102038938B1 (en) * 2018-02-09 2019-10-31 태그하이브 주식회사 Toys social network service for making user producing and sharing short clip video
EP3808096A4 (en) * 2018-06-15 2022-06-15 Smule, Inc. Audiovisual livestream system and method with latency management and social media-type user interface mechanics
KR102177768B1 (en) * 2020-01-23 2020-11-11 장형순 System for providing cloud based cusomized multimedia production service using voice mix

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004128804A (en) * 2002-10-01 2004-04-22 Megafusion Corp Image distribution system
KR20040066377A (en) * 2003-01-17 2004-07-27 김주성 Image composition method in real time through internet web site
KR20050010084A (en) * 2003-07-16 2005-01-27 김인덕 Total remote education system on internet
KR20060091435A (en) * 2005-02-15 2006-08-21 에스케이 텔레콤주식회사 Method and system for providing news information by using three dimensional character for use in wireless communication network

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004128804A (en) * 2002-10-01 2004-04-22 Megafusion Corp Image distribution system
KR20040066377A (en) * 2003-01-17 2004-07-27 김주성 Image composition method in real time through internet web site
KR20050010084A (en) * 2003-07-16 2005-01-27 김인덕 Total remote education system on internet
KR20060091435A (en) * 2005-02-15 2006-08-21 에스케이 텔레콤주식회사 Method and system for providing news information by using three dimensional character for use in wireless communication network

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101827967B1 (en) * 2016-11-15 2018-02-12 (주)잼투고 Server and Service for Providing Video Content
WO2020085570A1 (en) * 2018-10-22 2020-04-30 전자부품연구원 Device and method for acquiring 360-degree vr image in game by using multiple virtual cameras
US11951394B2 (en) 2018-10-22 2024-04-09 Korea Electronics Technology Institute Apparatus and method for acquiring in-game 360 VR image by using plurality of virtual cameras

Also Published As

Publication number Publication date
KR20070016901A (en) 2007-02-08

Similar Documents

Publication Publication Date Title
KR100748060B1 (en) Internet broadcasting system of Real-time multilayer multimedia image integrated system and Method thereof
JP6267961B2 (en) Image providing method and transmitting apparatus
CN106792246B (en) Method and system for interaction of fusion type virtual scene
US20230402067A1 (en) Integration of audio into a multi-view interactive digital media representation
WO2007126097A1 (en) Image processing device and image processing method
JP2018112997A (en) Image processor, method of the same, program, and image processing system
US9473813B2 (en) System and method for providing immersive surround environment for enhanced content experience
WO2007126096A1 (en) Image processing device and image processing method
JP3615195B2 (en) Content recording / playback apparatus and content editing method
JP2005317165A (en) Signal processor and its method
JPWO2014155670A1 (en) Stereoscopic video processing apparatus, stereoscopic video processing method, and stereoscopic video processing program
KR100748059B1 (en) Real-time multilayer multimedia image integrated board
US20090153550A1 (en) Virtual object rendering system and method
KR20100121614A (en) A broadcasting system, a transmission apparatus and a transmission method, a reception apparatus and a reception method as well as a program
EP1420407A2 (en) Method and apparatus for controlling editing image display
KR100719101B1 (en) Real-time multilayer image synthesis recording system and method, and the store device which records a method
KR101430985B1 (en) System and Method on Providing Multi-Dimensional Content
KR100342927B1 (en) Moving picture producing system capable of automatically directing by virtual director and live broadcast method using the apparatus
US8855472B2 (en) Video editing apparatus, video editing method, program, and integrated circuit
CN114419285A (en) Virtual character performance control method and system applied to composite theater
KR102462863B1 (en) Method of operating open market platform that matches users with sellers who automatically recommend products to users based on artificial intelligence
JP2000358222A (en) Display expression device and information transmission system
KR20070064082A (en) System and method for producing moving image using chroma-key
EP3379533A2 (en) Method and apparatus for generating 3d audio positioning using dynamically optimized audio 3d space perception cues
KR102417084B1 (en) Method And System for Transmitting and Receiving Multi-Channel Media

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110803

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee