KR101834925B1 - A system and method for 3d virtual studio broadcasting that synchronizes video and audio signals by converting object position change into vector - Google Patents

A system and method for 3d virtual studio broadcasting that synchronizes video and audio signals by converting object position change into vector Download PDF

Info

Publication number
KR101834925B1
KR101834925B1 KR1020170123753A KR20170123753A KR101834925B1 KR 101834925 B1 KR101834925 B1 KR 101834925B1 KR 1020170123753 A KR1020170123753 A KR 1020170123753A KR 20170123753 A KR20170123753 A KR 20170123753A KR 101834925 B1 KR101834925 B1 KR 101834925B1
Authority
KR
South Korea
Prior art keywords
broadcast
image
voice
editing
video
Prior art date
Application number
KR1020170123753A
Other languages
Korean (ko)
Inventor
고석윤
Original Assignee
주식회사 대경바스컴
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 대경바스컴 filed Critical 주식회사 대경바스컴
Priority to KR1020170123753A priority Critical patent/KR101834925B1/en
Application granted granted Critical
Publication of KR101834925B1 publication Critical patent/KR101834925B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/02Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
    • H04H60/04Studio equipment; Interconnection of studios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Abstract

The present invention relates to a virtual studio broadcast editing and transmitting device for converting an object location change into a vector to synchronize an image signal with a sound signal and a broadcast editing and transmitting method using the same. According to the present invention, the broadcast editing and transmitting device comprises an input unit, a control unit and an output unit. According to the present invention, the broadcast editing and transmitting method comprises the following steps of: receiving a photographed image and a recorded voice in real time; editing a broadcast image and a broadcast voice in real time; and outputting the broadcast image and the broadcast voice. The broadcast voice, which corresponds to the broadcast image, can also be edited in real time by edition of the broadcast image.

Description

객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방법 {A SYSTEM AND METHOD FOR 3D VIRTUAL STUDIO BROADCASTING THAT SYNCHRONIZES VIDEO AND AUDIO SIGNALS BY CONVERTING OBJECT POSITION CHANGE INTO VECTOR}TECHNICAL FIELD [0001] The present invention relates to a virtual studio broadcasting editing and transmitting apparatus and a method of using the same, and more particularly, to a virtual studio broadcast editing and transmission apparatus and a method of using the same,

본 발명은 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에 관한 것으로서, 보다 상세하게는 방송 영상에 따른 방송 음성을 수작업으로 조절하지 않고, 방송 영상을 편집하는 것만으로도 방송 음성의 출력을 자동으로 편집할 수 있고, 이에 따라 방송 영상에 따른 생동감 있는 3차원 방송 음성이 자동으로 출력되는, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 그 방법에 관한 것이다.The present invention relates to a virtual studio broadcast editing and transmitting apparatus and a broadcasting editing and transmitting method using the same, and more particularly, to a virtual studio broadcast editing and transmitting apparatus for synchronizing video and sound signals by converting object position changes into vectors, The output of the broadcast sound can be automatically edited by simply editing the broadcast image without adjusting it, and the change of the object position in which the three-dimensional broadcast sound is automatically outputted according to the broadcast image is converted into a vector And more particularly, to a virtual studio broadcast editing and transmission device synchronizing video and audio signals and a method using the same.

3D 가상스튜디오는 컴퓨터로 만들어낸 3D 그래픽 화면 위에 촬영 영상, 현실의 객체 및 자료 영상 등과 합성하여 실제 방송 스튜디오로 재현하기 위한 것으로, 적은 비용과 시간으로 다양한 인테리어와 연출을 구현할 수 있다. 일기 예보, 선거 개표 방송, 스포츠 중계 등에서 가상스튜디오를 활용한 모습을 쉽게 찾아볼 수 있다.3D Virtual Studio is designed to reproduce realistic broadcasting studio by composing with 3D realistic object, data image and so on on 3D graphic screen created by computer, and it can realize various interior and presentation with low cost and time. It is easy to see how virtual studios are utilized in weather forecasts, election campaigns, and sports broadcasts.

그러나, 가상스튜디오에 합성된 객체 또는 자료 영상 등이 가상스튜디오 내에서 이동하거나 화면 등이 전환되는 경우, 객체 및 자료 영상이 이동하거나 화면이 전환되는 타이밍에 맞춰 수동으로 그에 대응하는 방송 음성의 출력을 조절해야 하며, 이에 따라 방송 영상 및 방송 음성이 재생되는 타이밍이 부정확하고, 방송 제작에 따른 시간, 비용 및 인력이 추가적으로 필요하다. 또한, 영화, TV드라마 등과 같이 촬영 종료 후 영상 및 음성을 편집하는 경우에는 객체가 어떠한 경로로 이동할지 예측이 되고, 예측 경로에 따라 객체에 대한 음향을 조절할 수 있지만, 실시간 생방송을 편집하고 송출하는 경우, 객체의 경우 이동 경로 등을 예측하기 어렵기 때문에 객체에 대응하는 녹음 음성의 출력을 조절하는 것이 어려운 문제점이 있다.However, when an object or a data image synthesized in a virtual studio is moved in a virtual studio or a screen is switched, the output of the corresponding broadcast audio is manually adjusted according to the timing at which the object and data images move or the screen is switched Accordingly, the timing at which the broadcast video and the broadcast voice are reproduced is inaccurate, and the time, cost, and manpower required for the broadcast production are additionally required. In addition, when a video and a voice are edited after completion of photographing such as a movie, a TV drama, etc., it is predicted how the object will move, and the sound for the object can be adjusted according to the predicted path. However, There is a problem in that it is difficult to control the output of the recording voice corresponding to the object because it is difficult to predict the moving path and the like in the case of the object.

본 발명이 해결하고자 하는 과제는 방송 영상의 편집에 따라 방송 영상에 대응하는 음성이 자동으로 실시간으로 편집되는, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법을 제공하는 것이다.The object of the present invention is to provide a virtual studio broadcast editing and transmission apparatus and a virtual studio broadcast editing and synchronizing system, which synchronize video and sound signals by converting a change of an object position into a vector in which a voice corresponding to a broadcast video is automatically edited in real- And a broadcasting editing and transmitting method using the same.

본 발명이 해결하고자 하는 또 다른 과제는 시청자에게 시청각적 입체감을 주도록 방송 영상의 편집에 따라 방송 영상에 대응하는 방송 음성이 3D 음향으로 출력되도록 실시간으로 편집하는, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법을 제공하는 것이다.Another object to be solved by the present invention is to provide a method and apparatus for editing a broadcast image corresponding to a broadcast image in real time so that a broadcast sound corresponding to the broadcast image is outputted as a 3D sound, And a virtual studio broadcasting editing and transmitting device synchronized with a sound signal, and a broadcasting editing and transmitting method using the same.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the above-mentioned problems, and other problems not mentioned can be clearly understood by those skilled in the art from the following description.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기는 촬영 영상을 실시간으로 수신하는 영상 입력부 및 촬영 영상에 대응하는 녹음 음성을 실시간으로 수신하는 음성 입력부를 포함하는 입력부, 입력부를 통해 수신된 촬영 영상 및 녹음 음성을 저장하고, 편집에 사용될 하나 이상의 자료 영상을 저장하는 메모리, 입력부 또는 메모리 중 적어도 하나로부터 촬영 영상 및 자료 영상을 수신하여 방송 영상을 실시간으로 편집하는 방송 영상 편집부 및 방송 영상에 대응하는 방송 음성을 실시간으로 편집하는 방송 음성 편집부를 포함하는 제어부 및 방송 영상을 출력하는 영상 출력부 및 방송 음성을 출력하는 복수의 음성 출력부를 포함하는 출력부를 포함하고, 방송 영상 편집부는 방송 영상에서 촬영 영상, 촬영 영상에서의 객체 및 자료 영상을 3차원 좌표로 나타내어 편집하고, 방송 음성 편집부는 촬영 영상의 이동, 촬영 영상에서의 객체의 이동 및 자료 영상의 이동을 나타내는 3차원 좌표의 변화에 기초하여 녹음 음성 및 자료 영상에 대응하는 음성을 사용하여 방송 음성을 실시간으로 편집하도록 구성된다.According to an aspect of the present invention, there is provided a virtual studio broadcast editing and transmitting apparatus for converting an object position change into a vector and synchronizing an image and a sound signal according to an embodiment of the present invention includes an image input unit for receiving a captured image in real time, An input unit including a voice input unit for receiving a recorded voice corresponding to a photographed image in real time, a memory for storing a photographed image and a recorded voice received through the input unit and storing one or more data images to be used for editing, A control unit including a broadcasting image editing unit for receiving the photographed image and the data image from one and editing the broadcasting image in real time, and a broadcasting voice editing unit for editing the broadcasting voice corresponding to the broadcasting image in real time, and an image output unit for outputting the broadcasting image, A plurality of audio output units for outputting broadcast audio And the broadcast video editor edits and displays the photographed image in the broadcast image, the object and the data image in the photographed image in three-dimensional coordinates, and the broadcast voice editor compares the movement of the photographed image, And editing the broadcast voice in real time using the voice corresponding to the recorded voice and the data base based on the change of the three-dimensional coordinates indicating the movement of the data video.

본 발명의 다른 특징에 따르면, 방송 영상 편집부는, 방송 영상을 3차원의 가상의 공간으로 맵핑하고, 가상의 공간에서 촬영 영상, 촬영 영상에서의 객체 및 자료 영상에 3차원 좌표를 부여하며, 방송 음성 편집부는 가상의 공간에서 촬영 영상의 이동, 촬영 영상에서의 객체의 이동 및 자료 영상의 이동을 나타내는 3차원 벡터에 기초하여 복수의 음성 출력부 각각에 대한 방송 음성의 출력을 실시간으로 편집할 수 있다.According to another aspect of the present invention, a broadcast image editing unit maps a broadcast image to a three-dimensional virtual space, assigns three-dimensional coordinates to an object image and a data image in a photographed image in a virtual space, The voice editing unit can edit the output of the broadcast voice for each of the plurality of audio output units in real time based on the three-dimensional vector representing the movement of the shot image, the movement of the object in the shot image, and the movement of the data image in the virtual space have.

본 발명의 또 다른 특징에 따르면, 방송 음성 편집부는 촬영 영상, 촬영 영상에서의 객체 또는 자료 영상이 가상의 공간에서 x축을 따라 이동하면, 복수의 음성 출력부 중 좌우 출력에 대응하는 음성 출력부의 출력을 실시간으로 조절하고, 촬영 영상, 촬영 영상에서의 객체 또는 자료 영상이 가상의 공간에서 y축을 따라 이동하면, 복수의 음성 출력부 중 상하 출력에 대응하는 음성 출력부의 출력을 실시간으로 조절하고, 촬영 영상, 촬영 영상에서의 객체 또는 자료 영상이 가상의 공간에서 z축을 따라 이동하면, 복수의 음성 출력부 중 전후 출력에 대응하는 음성 출력부의 출력을 실시간으로 조절할 수 있다.According to another aspect of the present invention, the broadcast voice editing unit may be configured such that when an object or a material image in a photographed image, a photographed image moves along an x-axis in a virtual space, The output of the audio output unit corresponding to the up and down output of the plurality of audio output units is adjusted in real time when the object or the data image in the captured image and the object image move along the y axis in the virtual space, The output of the audio output unit corresponding to the forward and backward output of the plurality of audio output units can be adjusted in real time when the object or the data image in the image and the shot image move along the z axis in the virtual space.

본 발명의 또 다른 특징에 따르면, 방송 음성 편집부는, 가상의 공간에서 촬영 영상에서의 객체가 이동하는 경우, 가상의 공간에서 객체의 3차원 좌표의 변화에 기초하여 복수의 음성 출력부 각각에 대한 방송 음성을 실시간으로 조절할 수 있다.According to another aspect of the present invention, there is provided a broadcast sound editing apparatus including: a broadcast sound editing unit for, when an object in a photographed image moves in a virtual space, for each of a plurality of sound output units based on a change in three- Broadcast voice can be controlled in real time.

본 발명의 또 다른 특징에 따르면, 음성 입력부는 촬영 영상에서의 객체와 함께 이동하는 음성 입력 장치로부터 녹음 음성을 실시간으로 수신하고, 방송 음성 편집부는 가상의 공간에서 음성 입력 장치의 위치 변화에 기초하여 녹음 음성을 복수의 음성 출력부 각각으로 출력할 수 있다.According to still another aspect of the present invention, a voice input unit receives a recorded voice in real time from a voice input device moving together with an object in a photographed image, and the broadcast voice editing unit, based on a change in position of the voice input device in a virtual space, It is possible to output the recorded voice to each of the plurality of voice output units.

본 발명의 또 다른 특징에 따르면, 음성 입력부는 촬영 영상이 촬영되는 촬영 장소에서 복수의 위치에 고정된 복수의 음성 입력 장치로부터 복수의 녹음 음성을 실시간으로 수신하고, 방송 영상 편집부는, 가상의 공간에서 고정된 복수의 음성 입력 장치에 3차원 좌표를 부여하고, 고정된 복수의 음성 입력 장치로부터 복수의 녹음 음성의 실시간 변화에 기초하여 가상의 공간에서 객체의 이동을 검출하고, 방송 음성 편집부는 검출된 객체의 이동에 따른 가상의 공간에서 객체의 3차원 좌표의 변화에 기초하여 녹음 음성을 복수의 음성 출력부 각각으로 출력할 수 있다.According to still another aspect of the present invention, a voice input unit receives a plurality of voice recordings in real time from a plurality of voice input devices fixed at a plurality of positions at a capturing place where a captured video is captured, Dimensional coordinates to a plurality of voice input devices fixed in the voice input device and detects movement of the object in a virtual space based on a real time change of a plurality of recorded voice from a plurality of fixed voice input devices, It is possible to output the recorded voice to each of the plurality of voice output units based on the change of the three-dimensional coordinates of the object in the virtual space according to the movement of the object.

본 발명의 또 다른 특징에 따르면, 방송 음성 편집부는 가상의 공간에서 촬영 영상 또는 자료 영상이 이동하는 경우, 가상의 공간에서 촬영 영상 또는 자료 영상의 3차원 좌표의 변화에 기초하여 복수의 음성 출력부 각각에 대한 방송 음성을 실시간으로 조절할 수 있다.According to still another aspect of the present invention, a broadcast audio editing unit includes a plurality of audio output units based on a change in three-dimensional coordinates of a photographed image or a data image in a virtual space when a photographed image or a data image moves in a virtual space, It is possible to adjust the broadcast voice for each of them in real time.

본 발명의 또 다른 특징에 따르면, 방송 음성 편집부는 가상의 공간 밖으로 촬영 영상 또는 자료 영상이 이동하는 경우, 촬영 영상에 대응하는 녹음 음성 또는 자료 영상에 대응하는 음성을 음소거(mute)할 수 있다.According to another aspect of the present invention, the broadcast voice editing unit can mute a voice corresponding to a photographed image or a data image corresponding to a photographed image when a photographed image or a data image moves outside a virtual space.

본 발명의 또 다른 특징에 따르면, 메모리는 가상의 공간에서 방송 영상으로 출력될 촬영 영상 및 자료 영상의 위치를 저장하는 복수의 로컬 뱅크를 저장하고, 복수의 로컬 뱅크 중 특정 로컬 뱅크를 선택하는 입력이 수신되면, 방송 음성 편집부는, 특정 로컬 뱅크로 방송 영상을 전환함에 따라 발생하는 촬영 영상의 3차원 좌표의 변화 및 자료 영상의 3차원 좌표의 변화에 기초하여 복수의 음성 출력부 각각에 대한 방송 음성을 실시간으로 조절할 수 있다.According to another aspect of the present invention, a memory stores a plurality of local banks for storing positions of a captured image and a data image to be output as broadcast images in a virtual space, an input for selecting a specific local bank among a plurality of local banks, The broadcast voice editing unit broadcasts a broadcast signal for each of the plurality of audio output units based on the change of the three-dimensional coordinates of the photographed image and the change of the three-dimensional coordinates of the data image generated as the broadcast image is switched to the specific local bank. The voice can be adjusted in real time.

본 발명의 또 다른 특징에 따르면, 방송 음성 편집부는 복수의 로컬 뱅크 중 제1 뱅크에서 제2 뱅크로의 전환을 선택하는 입력이 수신되는 경우, 제1 뱅크가 나타내는 촬영 영상의 3차원 좌표 및 자료 영상의 3차원 좌표와 제2 뱅크가 나타내는 촬영 영상의 3차원 좌표 및 자료 영상의 3차원 좌표를 비교하여, 촬영 영상 및 자료 영상 각각에 대한 3차원 벡터를 생성하고, 3차원 벡터에 기초하여 복수의 음성 출력부 각각에 대한 방송 음성을 실시간으로 조절할 수 있다.According to still another aspect of the present invention, when an input for selecting the switching from the first bank to the second bank among the plurality of local banks is received, the broadcast voice editor compares three-dimensional coordinates of the photographed image represented by the first bank and data Dimensional coordinate of the image and the three-dimensional coordinate of the data image by comparing the three-dimensional coordinate of the image, the three-dimensional coordinate of the photographed image represented by the second bank and the data image to generate a three-dimensional vector for each of the photographed image and the data image, It is possible to adjust the broadcast voice for each of the voice output units of the mobile terminal 100 in real time.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 방법은 객체에 대한 촬영 영상 및 촬영 영상에 대응하는 녹음 음성을 실시간으로 수신하는 단계, 촬영 영상, 녹음 음성 및 메모리에 저장된 자료 영상에 기초하여 방송 영상 및 방송 영상에 대응하는 방송 음성을 실시간으로 편집하는 단계 및 방송 영상을 영상 출력부를 통해 출력하고, 방송 음성을 복수의 음성 출력부를 통해 출력하는 단계를 포함하고, 방송 영상 및 방송 음성을 실시간으로 편집하는 단계는, 방송 영상을 3차원의 가상의 공간으로 맵핑하는 단계, 가상의 공간에서, 촬영 영상, 촬영 영상에서의 객체 및 자료 영상을 3차원 좌표로 나타내는 단계 및 촬영 영상의 이동, 촬영 영상에서의 객체의 이동 및 자료 영상의 이동을 나타내는 3차원 좌표의 변화에 기초하여 방송 음성을 실시간으로 편집하는 단계로 구성된다.According to an aspect of the present invention, there is provided a virtual studio broadcasting editing and transmitting method for synchronizing video and audio signals by converting object position changes into vectors according to an embodiment of the present invention, A recording voice corresponding to a broadcast image and a broadcast image on the basis of a recorded image, a recorded voice, and a data image stored in a memory, and outputting the broadcast image through a video output unit And outputting the broadcast audio through a plurality of audio output units. The step of editing the broadcast video and the broadcast audio in real time comprises the steps of mapping the broadcast video into a three-dimensional virtual space, A step of representing an object and a data image in the image, the photographed image in three-dimensional coordinates, And editing the broadcast speech in real time based on the change of the three-dimensional coordinates indicating the movement of the object in the photographed image and the movement of the data image.

본 발명의 다른 특징에 따르면, 촬영 영상, 촬영 영상에서의 객체 또는 자료 영상의 3차원 좌표의 변화에 기초하여 방송 음성을 실시간으로 편집하는 단계는, 가상의 공간에서, 촬영 영상, 촬영 영상에서의 객체 또는 자료 영상이 가상의 공간에서 x축을 따라 이동하면, 복수의 음성 출력부 중 좌우 출력에 대응하는 음성 출력부의 출력을 실시간으로 조절하고, 촬영 영상, 촬영 영상에서의 객체 또는 자료 영상이 가상의 공간에서 y축을 따라 이동하면, 복수의 음성 출력부 중 상하 출력에 대응하는 음성 출력부의 출력을 실시간으로 조절하고, 촬영 영상, 촬영 영상에서의 객체 또는 자료 영상이 가상의 공간에서 z축을 따라 이동하면, 복수의 음성 출력부 중 전후 출력에 대응하는 음성 출력부의 출력을 실시간으로 조절하여, 방송 음성을 실시간으로 편집하는 단계를 포함할 수 있다.According to another aspect of the present invention, the step of editing the broadcast speech in real time based on the change of the three-dimensional coordinates of the object or the data image in the captured image and the captured image includes the steps of: When the object or the data image moves along the x-axis in the virtual space, the output of the audio output unit corresponding to the left and right output of the plurality of audio output units is adjusted in real time and the captured image, The output of the audio output unit corresponding to the upper and lower outputs of the plurality of audio output units is adjusted in real time and when the object or data image in the photographed image moves in the virtual space along the z axis , The output of the audio output unit corresponding to the forward and backward output of a plurality of audio output units is adjusted in real time, It may include the step.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 방송 중계 시스템은, 복수의 방송 음성을 포함하는 패킷 데이터 및 방송 영상을 실시간으로 편집하는 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기로부터 패킷 데이터 및 방송 영상을 수신하는 서버, 및 서버로부터 패킷 데이터 및 방송 영상을 수신하여 영상 출력 장치 및 복수의 음성 출력 장치로 출력하는 방송 중계 단말을 포함하고, 패킷 데이터는 시간 정보, 복수의 채널 정보 및 복수의 채널에 대응하는 복수의 방송 음성을 포함하고, 방송 중계 단말은 패킷 데이터의 복수의 채널 중 복수의 음성 출력 장치에 대응되는 채널만을 선택적으로 출력한다.According to an aspect of the present invention, there is provided a broadcast relay system for converting packet data including a plurality of broadcast signals and a broadcast image into a vector, A server for receiving packet data and broadcasting images from a virtual studio broadcasting editing and transmitting apparatus that synchronizes video and sound signals by converting object position changes into vectors, and a server for receiving packet data And a broadcast relay terminal for receiving the broadcast video and outputting the broadcast video to a video output device and a plurality of audio output devices, the packet data including time information, a plurality of channel information, and a plurality of broadcast audio corresponding to a plurality of channels, The broadcast relay terminal corresponds to a plurality of audio output apparatuses among a plurality of channels of packet data And outputs only a channel to be selected.

본 발명의 다른 특징에 따르면, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기는, 방송 영상에서 촬영 영상, 촬영 영상에서의 객체 및 자료 영상을 3차원 좌표로 나타내어 편집하는 방송 영상 편집부, 및 방송 음성에서 촬영 영상의 이동, 촬영 영상에서의 객체의 이동 및 자료 영상의 이동을 나타내는 3차원 좌표의 변화에 기초하여 녹음 음성 및 자료 영상에 대응하는 음성을 사용하여 방송 음성을 채널 별로 편집하는 방송 음성 편집부를 포함할 수 있다.According to another aspect of the present invention, there is provided a virtual studio broadcast editing and transmission device for converting an object position change into a vector and synchronizing an image and a sound signal, And a voice corresponding to the recording voice and the data voice based on the change of the three-dimensional coordinates indicating the movement of the photographed image, the movement of the object in the photographed image, and the movement of the data image in the broadcast voice And a broadcast voice editor for editing the broadcast voice on a channel-by-channel basis.

기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.The details of other embodiments are included in the detailed description and drawings.

본 발명은 방송 영상의 편집에 따라 방송 영상에 대응하는 방송 음성이 자동으로 실시간으로 편집될 수 있어, 방송 영상 제작에 필요한 인력, 시간 및 비용을 절감할 수 있다.According to the present invention, broadcast audio corresponding to a broadcast image can be automatically and edited in real time according to editing of a broadcast image, thereby saving manpower, time, and cost required for producing a broadcast image.

본 발명은 방송 영상의 편집에 따라 방송 영상에 대응하는 방송 음성이 복수의 음성 출력부를 통해 3D 음향으로 출력되도록 실시간 편집될 수 있어, 방송 영상을 시청하는 시청자가 시청각적 입체감을 느끼도록 할 수 있다.According to the present invention, a broadcast audio corresponding to a broadcast video can be edited in real time so that the broadcast audio corresponding to the broadcast video is outputted as a 3D sound through a plurality of audio output units, so that a viewer watching a broadcast video can feel an audiovisual stereoscopic effect .

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.The effects according to the present invention are not limited by the contents exemplified above, and more various effects are included in the specification.

도 1은 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기의 구성들을 개략적으로 도시한 블록도이다.
도 2a는 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기의 전면부를 도시한 도면이다.
도 2b는 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기의 후면부를 도시한 도면이다.
도 3a는 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기의 제어부 조작을 위한 GUI 메뉴가 표시된 주 화면이다.
도 3b는 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기의 제어부 조작을 위한 최종 방송 영상이 송출되는 송출 화면이다.
도 4는 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 방법을 설명하기 위한 순서도이다.
도 5는 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에서의 가상스튜디오에 대한 한 장면이다.
도 6a는 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에서 제어부가 촬영 영상 및 자료 영상을 가상스튜디오에 합성하여 편집한 방송 영상의 한 장면이다.
도 6b는 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에서 제어부의 방송 영상 편집부가 방송 영상을 3차원의 가상의 공간으로 맵핑하고, 가상의 공간에서 촬영 영상, 촬영 영상에서의 객체 및 자료 영상에 3차원 좌표를 부여하는 과정을 설명하기 위한 개략도이다.
도 6c는 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에서 제어부의 방송 음성 편집부가 가상의 공간에서 촬영 영상의 이동, 촬영 영상에서의 객체의 이동 및 자료 영상의 이동을 나타내는 3차원 벡터에 기초하여 복수의 음성 출력부 각각에 대한 방송 음성의 출력을 실시간으로 편집하는 과정을 설명하기 위한 개략도이다.
도 7은 본 발명의 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에서 촬영 장소에서 복수의 위치에 고정된 복수의 음성 입력 장치로부터 녹음 음성을 녹음하는 경우를 설명하기 위한 개략도이다.
도 8a는 본 발명의 또 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에서 제어부가, 촬영 영상에서의 객체 및 자료 영상을 가상스튜디오에 합성하여 편집한 방송 영상의 한 장면이다.
도 8b는 도 8a의 방송 영상을 3차원의 가상의 공간으로 맵핑한 모습을 도시한 도면이다.
도 8c는 도 8a의 방송 영상에서의 자료 영상이 이동한 모습을 도시한 도면이다.
도 8d는 도 8c의 방송 영상을 3차원의 가상의 공간으로 맵핑한 모습을 도시한 도면이다.
도 9a는 도 3a의 로컬 뱅크 셀렉터에 대한 일 예시에 대한 개략도이다.
도 9b는 본 발명의 또 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에서 제1 로컬 뱅크를 선택하는 입력이 수신된 경우의 가상의 공간을 도시한 도면이다.
도 9c는 본 발명의 또 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에서 제2 로컬 뱅크를 선택하는 입력이 수신된 경우의 가상의 공간을 도시한 도면이다.
도 9d는 도 9d는 본 발명의 또 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에서 제3 로컬 뱅크를 선택하는 입력이 수신된 경우의 가상의 공간을 도시한 도면이다.
도 10은 본 발명의 다양한 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기를 이용한 실시간 방송 중계 시스템의 구성들을 개략적으로 도시한 블록도이다.
도 11a는 본 발명의 다양한 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기에서 송출되는 패킷 데이터를 예시적으로 도시한 구조도이다.
도 11b는 패킷 데이터의 각 채널의 해당 출력 지점을 도시한 도면이다.
도 12a 내지 도 12b는 교실 및 강당의 스피커 배치를 예시적으로 나타낸 도면이다.
FIG. 1 is a block diagram schematically illustrating the configuration of a virtual studio broadcast editing and transmitting device that synchronizes video and audio signals by converting object position changes into vectors according to an embodiment of the present invention. Referring to FIG.
FIG. 2A is a view illustrating a front portion of a virtual studio broadcast editing and transmission apparatus that synchronizes video and sound signals by converting object position changes into vectors according to an embodiment of the present invention.
FIG. 2B is a diagram illustrating a rear portion of a virtual studio broadcast editing and transmission apparatus that synchronizes video and audio signals by converting object position changes into vectors according to an exemplary embodiment of the present invention. Referring to FIG.
FIG. 3A is a main screen displaying a GUI menu for manipulating a control unit of a virtual studio broadcast editing and transmitting apparatus that converts an object position change into a vector and synchronizes video and sound signals according to an exemplary embodiment of the present invention.
FIG. 3B is a transmission screen in which a final broadcast image for manipulating a control unit of a virtual studio broadcast editing and transmitting apparatus synchronized with an image and a sound signal by converting an object position change into a vector according to an embodiment of the present invention is transmitted.
4 is a flowchart illustrating a virtual studio broadcast editing and transmission method of synchronizing video and audio signals by converting object position changes into vectors according to an embodiment of the present invention.
FIG. 5 is a view of a virtual studio broadcast editing and transmission device in which video and sound signals are synchronized by converting an object position change into a vector according to an embodiment of the present invention, and a virtual studio in a broadcast editing and transmission method using the same .
FIG. 6A is a diagram illustrating a virtual studio broadcast editing and transmitting device in which video and sound signals are synchronized by converting an object position change into a vector according to an embodiment of the present invention, and in a broadcasting editing and transmitting method using the virtual studio broadcasting editing and transmitting device, It is a scene of a broadcast video edited by combining with a virtual studio.
FIG. 6B shows a virtual studio broadcast editing and transmission device in which video and sound signals are synchronized by converting an object position change into a vector according to an embodiment of the present invention, and in a broadcast editing and transmission method using the same, Is mapped to a three-dimensional virtual space, and a three-dimensional coordinate is given to an object image and a data image in a photographed image, a photographed image, and the like in a virtual space.
FIG. 6C illustrates a virtual studio broadcast editing and transmission apparatus for synchronizing video and sound signals by converting object position changes into vectors according to an exemplary embodiment of the present invention, and a broadcast editing and transmission method using the same, A schematic diagram for explaining a process of editing, in real time, the output of a broadcast audio for each of a plurality of audio output units based on a three-dimensional vector indicating movement of a photographed image in a space, movement of an object in a shot image, to be.
FIG. 7 is a diagram illustrating a virtual studio broadcast editing and transmitting device in which video and sound signals are synchronized by converting object position changes into vectors according to another embodiment of the present invention, and in a broadcasting editing and transmitting method using the same, FIG. 1 is a schematic view for explaining a case where a recording voice is recorded from a plurality of voice input devices.
FIG. 8A is a diagram illustrating a virtual studio broadcast editing and transmitting apparatus and a broadcasting editing and transmitting method using the same according to another embodiment of the present invention. FIG. It is a scene of a broadcast image edited by synthesizing objects and data images in a virtual studio.
FIG. 8B is a diagram showing a mapping of the broadcast image of FIG. 8A into a three-dimensional virtual space.
8C is a view showing a moving image of the data image in the broadcast image of FIG. 8A.
FIG. 8D is a diagram showing a state in which the broadcast image of FIG. 8C is mapped into a three-dimensional virtual space.
Figure 9A is a schematic diagram of an example for the local bank selector of Figure 3A.
FIG. 9B illustrates a method for selecting and editing a first local bank in a virtual studio broadcast editing and transmitting apparatus and a broadcast editing and transmitting method using the virtual studio broadcast editing and transmitting apparatus in which an image and sound signals are synchronized by converting an object position change into a vector according to another embodiment of the present invention Fig. 8 is a diagram showing a virtual space when an input is received. Fig.
FIG. 9C is a diagram illustrating a virtual studio broadcast editing and transmitting apparatus and a broadcasting editing and transmitting method using the virtual studio broadcasting editing and synchronizing apparatus in which video and sound signals are synchronized by converting object position changes into vectors according to another embodiment of the present invention. Fig. 8 is a diagram showing a virtual space when an input is received. Fig.
FIG. 9D is a diagram illustrating a virtual studio broadcast editing and transmitting device in which video and sound signals are synchronized by converting an object position change into a vector according to another embodiment of the present invention, and a broadcasting editing and transmitting method using the same, Fig. 8 is a diagram showing a virtual space in a case where an input for selecting a virtual space is received.
FIG. 10 is a block diagram schematically illustrating the configurations of a real-time broadcast relay system using a virtual studio broadcast editing and transmission device in which video and sound signals are synchronized by converting object position changes into vectors according to various embodiments of the present invention.
FIG. 11A is a schematic diagram illustrating packet data transmitted from a virtual studio broadcast editing and transmitting apparatus in which an object position change is converted into a vector according to various embodiments of the present invention and the video and sound signals are synchronized.
11B is a diagram showing corresponding output points of each channel of the packet data.
Figs. 12A to 12B are diagrams exemplarily showing a speaker arrangement of a classroom and an auditorium.

본 명세서에서, 각 블록 또는 각 단계는 특정된 논리적 기능 (들) 을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또한, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In this specification, each block or each step may represent a part of a module, segment or code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments, the functions mentioned in the blocks or steps may occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially concurrently, or the blocks or steps may sometimes be performed in reverse order according to the corresponding function.

본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서에 의해 실행되는 하드웨어, 소프트웨어 모듈 또는 그 2 개의 결합으로 직접 구현될 수도 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM 또는 당업계에 알려진 임의의 다른 형태의 저장 매체에 상주할 수도 있다. 예시적인 저장 매체는 프로세서에 커플링되며, 그 프로세서는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. The steps of a method or algorithm described in connection with the embodiments disclosed herein may be embodied directly in hardware, in a software module executed by a processor, or in a combination of the two. The software module may reside in a RAM memory, a flash memory, a ROM memory, an EPROM memory, an EEPROM memory, a register, a hard disk, a removable disk, a CD-ROM or any other form of storage medium known in the art. An exemplary storage medium is coupled to the processor, which is capable of reading information from, and writing information to, the storage medium. Alternatively, the storage medium may be integral with the processor. The processor and the storage medium may reside within an application specific integrated circuit. The ASIC may reside within the user terminal. Alternatively, the processor and the storage medium may reside as discrete components in a user terminal. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

또한 제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Also, the first, second, etc. are used to describe various components, but it goes without saying that these components are not limited by these terms. These terms are used only to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical scope of the present invention.

명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Like reference numerals refer to like elements throughout the specification.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.It is to be understood that each of the features of the various embodiments of the present invention may be combined or combined with each other partially or entirely and technically various interlocking and driving is possible as will be appreciated by those skilled in the art, It may be possible to cooperate with each other in association.

이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시예들을 상세히 설명한다.Various embodiments of the present invention will now be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기의 구성들을 개략적으로 도시한 블록도이다.FIG. 1 is a block diagram schematically illustrating the configuration of a virtual studio broadcast editing and transmitting device that synchronizes video and audio signals by converting object position changes into vectors according to an embodiment of the present invention. Referring to FIG.

도 1을 참조하면, 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)는 입력부(110), 메모리(150), 제어부(120), 출력부(130) 및 그래픽 카드(140)를 포함한다. Referring to FIG. 1, a virtual studio broadcast editing and transmitting apparatus 100 for converting an object position change into a vector and synchronizing an image and a sound signal according to an embodiment of the present invention includes an input unit 110, a memory 150, A control unit 120, an output unit 130, and a graphics card 140.

입력부(110)는 촬영 영상을 실시간으로 수신하는 영상 입력부 및 촬영 영상에 대응하는 녹음 음성을 실시간으로 수신하는 음성 입력부를 포함한다. 입력부(110)는 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)로 입력되는 다양한 영상 및 음성을 실시간으로 수신한다. 입력부(110)의 영상 입력부는 카메라(11), 웹캠(13) 등과 같은 영상 입력 장치를 통해 촬영된 촬영 영상을 실시간으로 수신할 수 있으며, 예를 들어, 크로마키 배경 앞에 위치한 객체에 대한 촬영 영상을 실시간으로 수신할 수 있다. 아울러, 입력부(110)의 음성 입력부(112)는 마이크(12)와 같은 음성 입력 장치를 통해 녹음되고 촬영 영상에 대응하는 녹음 음성을 실시간으로 수신할 수 있고, 예를 들어, 크로마키 배경 앞에 위치한 객체에 대한 촬영 영상에 대응하는 녹음 음성을 실시간으로 수신할 수 있다. 또한, 입력부(110)는 USB(14)와 같은 외부 저장 수단과 컴퓨터(15)와 같은 외부 전자 장치를 통해 또 다른 영상 및 음성을 수신할 수 있다. 또한, 도면에 도시되지는 않았으나, 입력부(110)는 키보드, 마우스, 터치스크린 등과 같은 사용자 입력 수단을 통해 사용자 입력을 수신할 수도 있다. 입력부(110)는 상술한 바와 같은 다양한 입력 장치, 외부 저장 수단, 외부 전자 장치, 사용자 입력 수단 등과 연결될 수 있는 입력 포트의 형태로 구현될 수 있지만, 이에 제한되는 것은 아니다.The input unit 110 includes an image input unit for receiving the photographed image in real time and a voice input unit for receiving the recorded voice corresponding to the photographed image in real time. The input unit 110 receives a variety of images and sounds input to the virtual studio broadcast editing and transmitting apparatus 100, which converts the object position change into a vector and synchronizes the video and sound signals, in real time. The image input unit of the input unit 110 may receive a captured image captured through a video input device such as the camera 11 and the webcam 13 in real time. For example, Can be received in real time. In addition, the voice input unit 112 of the input unit 110 can record voice through the voice input device such as the microphone 12 and can receive the voice corresponding to the photographed image in real time. For example, The recording voice corresponding to the photographed image of the object can be received in real time. In addition, the input unit 110 can receive another image and voice through an external storage device such as the USB 14 and an external electronic device such as the computer 15. [ Also, although not shown in the drawings, the input unit 110 may receive user input through user input means such as a keyboard, a mouse, a touch screen, and the like. The input unit 110 may be implemented in the form of an input port that can be connected to various input devices, external storage devices, external electronic devices, user input means, and the like as described above, but is not limited thereto.

메모리(150)는 입력부(110)를 통해 수신된 촬영 영상 및 녹음 음성을 저장하고, 편집에 사용될 하나 이상의 자료 영상을 저장한다. 자료 영상은 촬영 영상과는 상이한 영상으로서, 카메라(11), 웹캠(13) 등과 같은 영상 입력 장치를 통해 촬영되어 영상 입력부를 통해 수신된 영상이 아닌, 별도로 녹화되고 편집된 영상을 의미한다. 즉, 자료 영상은 사전에 다른 전자 장치를 통해 편집된 영상으로, 자료 영상은 자료 영상에 대응하는 음성까지 포함하는 것으로 정의될 수 있다. 다만, 이에 제한되지 않고, 자료 영상에 대응하는 자료 음성이 별도로 메모리(150)에 저장될 수도 있다. 자료 영상 내에서 각각의 객체에 대한 음성을 별도로 녹음하지 않기 때문에, 자료 영상만 편집하면 자료 영상에 대응하는 음성에 대하여 별도의 편집이 필요하지 않을 수도 있다. 메모리(150)에 저장된 영상 및 음성은 제어부(120)에서 실시간 방송을 위한 편집에 사용될 수 있다. 이외에도, 메모리(150)에는 방송 영상 제작에 필요한 가상스튜디오 배경 등이 저장될 수 있고, 제어부(120)에서 편집된 영상 및 음성이 저장될 수도 있다.The memory 150 stores the photographed image and the recorded voice received through the input unit 110, and stores one or more data images to be used for editing. The data image is a different image from the photographed image, and refers to an image recorded and edited separately from the image received through the image input device such as the camera 11, the web cam 13, and the like through the image input unit. That is, the data image may be defined as an image edited through another electronic device in advance, and the data image may include a voice corresponding to the data image. However, the present invention is not limited to this, and a data voice corresponding to the data image may be separately stored in the memory 150. [ Since audio for each object is not separately recorded in the data image, editing the data image may not require separate editing of the audio corresponding to the data image. The video and audio stored in the memory 150 can be used for editing for real-time broadcasting in the control unit 120. [ In addition, the memory 150 may store a virtual studio background and the like, which are necessary for producing a broadcast image, and may store video and audio edited by the controller 120.

제어부(120)는 입력부(110) 또는 메모리(150) 중 적어도 하나로부터 촬영 영상, 촬영 영상에 대응하는 녹음 음성 및 자료 영상을 수신하여 방송 영상을 실시간으로 편집한다. 이때, 제어부(120)는 입력부(110)를 통해 전달된 사용자의 선택을 입력 받아 촬영 영상 및 녹음 음성을 가상스튜디오에 합성하고, 자료 영상, 자막(192), 화면 전환, 배경 음악 등의 각종 효과를 더하여 방송 영상으로 편집한다. 제어부(120)는 다양한 영상 및 음성 처리를 실시간으로 수행하기 위해 연산을 수행하는 프로세서의 형태로 구현될 수 있다. 또한, 제어부(120)는 고속 연산을 위해 RTIFC(Real Time Intelligence Format Convergence), 멀티 쓰레딩, 프로세스 로드 밸런싱, 부동소수점 연산 등의 연산 방법을 적용하여 영상 및 음성 처리를 하기 위한 연산을 수행할 수 있다.The control unit 120 receives the recording image, the recording voice corresponding to the recording image, and the data image from at least one of the input unit 110 and the memory 150, and edits the broadcasting image in real time. At this time, the controller 120 receives the selection of the user transmitted through the input unit 110, synthesizes the photographed image and the recorded voice into the virtual studio, and displays various effects such as the data image, the subtitle 192, And edits it as a broadcast image. The control unit 120 may be implemented in the form of a processor for performing various image and sound processing operations in real time. In addition, the controller 120 may perform an operation for performing image and audio processing by applying an operation method such as Real Time Intelligence Format Convergence (RTIFC), multithreading, process load balancing, and floating point operation for high speed operation .

여기서, 제어부(120)는 방송 영상을 실시간으로 편집하는 방송 영상 편집부(121) 및 방송 영상에 대응하는 음성을 실시간으로 편집하는 방송 음성 편집부(122)를 포함한다.The control unit 120 includes a broadcast image editing unit 121 for editing a broadcast image in real time and a broadcast audio editor 122 for editing a voice corresponding to the broadcast image in real time.

방송 영상 편집부(121)는 입력부(110) 또는 메모리(150) 중 적어도 하나로부터 촬영 영상 및 자료 영상을 수신하여 방송 영상을 실시간으로 편집한다. 이때, 방송 영상 편집부(121)는 방송 영상을 3차원의 가상의 공간(VS)에 맵핑하고, 가상의 공간(VS)에서 촬영 영상, 촬영 영상에서의 객체 및 자료 영상을 3차원 좌표로 나타내어 편집한다. 한편, 방송 음성 편집부(122)는 방송 영상에 대응하는 방송 음성을 실시간으로 편집한다. 이때, 방송 음성 편집부(122)는 촬영 영상의 이동, 촬영 영상에서의 객체의 이동 및 자료 영상의 이동을 나타내는 3차원 벡터에 기초하여 녹음 음성 및 자료 영상에 대응하는 음성을 사용하여 방송 음성을 실시간으로 편집한다.The broadcast image editing unit 121 receives the photographed image and the data image from at least one of the input unit 110 and the memory 150 and edits the broadcast image in real time. At this time, the broadcast image editing unit 121 maps the broadcast image to a three-dimensional virtual space (VS), displays the photographed image in the virtual space (VS), the object and the data image in the photographed image in three- do. On the other hand, the broadcast audio editing unit 122 edits the broadcast audio corresponding to the broadcast video in real time. At this time, the broadcast voice editor 122 uses the three-dimensional vector representing the movement of the photographed image, the movement of the object in the photographed image, and the movement of the data image, .

출력부(130)는 방송 영상을 출력하는 영상 출력부(131) 및 방송 음성을 출력하는 복수의 음성 출력부(132)를 포함한다. 출력부(130)는 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)로 제작된 방송 영상 및 방송 음성을 출력 장치로 출력한다. 출력부(130)의 영상 출력부(131)는 별도의 디스플레이(31)와 같은 영상 출력 장치를 통해 방송 영상을 출력할 수 있고, 출력부(130)의 복수의 음성 출력부(132)는 별도의 스피커(32)와 같은 음성 출력 장치를 통해 방송 영상에 대응하는 방송 음성을 출력할 수 있다. 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)에서는 복수의 음성 출력부(132), 즉, 다채널의 음성 출력을 통해 방송 음성에 입체감을 부여할 수 있다. 즉, 방송 영상의 구성에 따라 방송 영상에 대응하는 방송 음성을 복수의 음성 출력부(132)마다 서로 상이하게 출력함에 따라, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)는 3차원 공간 음향 출력을 할 수 있고, 시청자는 방송 영상에 대한 입체감과 동시에 방송 음성에 대한 입체감을 느낄 수 있다. 출력부(130)는 디스플레이(31)와 같은 영상 출력 장치 및 스피커(32)와 같은 음성 출력 장치와 연결될 수 있는 출력 포트의 형태로 구현될 수 있지만, 이에 제한되는 것은 아니다.The output unit 130 includes a video output unit 131 for outputting a broadcast image and a plurality of audio output units 132 for outputting broadcast audio. The output unit 130 converts the object position change into a vector and outputs the broadcast image and the broadcast voice produced by the virtual studio broadcast editing and transmitting apparatus 100 synchronized with the video and sound signals to the output apparatus. The video output unit 131 of the output unit 130 may output a broadcast image through a video output device such as a separate display 31 and the plurality of audio output units 132 of the output unit 130 may be separately It is possible to output the broadcast voice corresponding to the broadcast image through the voice output device such as the speaker 32 of the mobile terminal. In the virtual studio broadcast editing and transmission device 100, which converts an object position change according to an embodiment of the present invention into a vector and synchronizes video and audio signals, a plurality of audio output units 132, that is, It is possible to give a stereoscopic effect to the broadcast voice. That is, according to the configuration of the broadcast image, the broadcast sound corresponding to the broadcast image is output to the plurality of sound output units 132 differently, The editing and transmitting apparatus 100 can output a three-dimensional spatial sound output, and a viewer can feel a stereoscopic effect on the broadcast image and a stereoscopic effect on the broadcast voice. The output unit 130 may be implemented in the form of an output port that can be connected to a video output device such as the display 31 and a voice output device such as the speaker 32, but is not limited thereto.

그래픽 카드(140)는 디지털 데이터로 표현된 영상을 아날로그의 영상 신호로 변환하여 출력부(130)로 전달할 수 있다. 제어부(120)에서 디지털 데이터의 형식으로 편집되어 완성된 방송 영상은 아날로그의 데이터를 다루는 출력 장치에서 출력이 불가능하다.The graphic card 140 may convert an image represented by digital data into an analog image signal and transmit the analog image signal to the output unit 130. The broadcast image edited in the form of digital data in the control unit 120 can not be output from an output device that handles analog data.

또한, 도 1에 도시되지는 않았으나, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)는 사용자가 영상 및 음성을 자유롭게 편집할 수 있도록 사용자에게 다양한 화면을 제공하기 위한 표시부를 더 포함할 수 있고, 표시부는 다양한 형태의 디스플레이로 구현될 수 있다.Although not shown in FIG. 1, the virtual studio broadcast editing and transmitting apparatus 100, which synchronizes video and sound signals by converting object position changes into vectors, The display unit may further include a display unit for providing a screen, and the display unit may be implemented with various types of displays.

이하에서는 도 2a 및 도 2b를 참조하여 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 전면부(160)와 후면부(170)를 설명하기로 한다.Hereinafter, with reference to FIG. 2A and FIG. 2B, it is assumed that the front position 160 of the virtual studio broadcast editing and transmitting device 100, which synchronizes the video and sound signals by converting the object position change into a vector according to an embodiment of the present invention, The rear portion 170 will be described.

도 2a는 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기의 전면부를 도시한 도면이다. 도 2b는 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기의 후면부를 도시한 도면이다.FIG. 2A is a view illustrating a front portion of a virtual studio broadcast editing and transmission apparatus that synchronizes video and sound signals by converting object position changes into vectors according to an embodiment of the present invention. FIG. 2B is a diagram illustrating a rear portion of a virtual studio broadcast editing and transmission apparatus that synchronizes video and audio signals by converting object position changes into vectors according to an exemplary embodiment of the present invention. Referring to FIG.

먼저, 도 2a를 참조하면, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 전면부(160)에는 USB(14)와 같은 외부 저장 수단이 연결될 수 있는 입력부(110)인 USB 단자(163), 전원을 온/오프 하기 위한 전원 스위치(161) 및 리셋 스위치(162), 외부 저장 수단 중의 하나인 CD가 삽입될 수 있는 CD-ROM(164)이 배치된다. 다만, 이에 제한되지 않고, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 전면부(160)에는 다양한 입력부(110)와 스위치, 혹은 출력부(130) 등이 배치될 수 있다.2A, an external storage unit such as a USB 14 is connected to the front unit 160 of the virtual studio broadcast editing and transmitting apparatus 100, which converts the object position change into a vector and synchronizes the video and audio signals, A USB terminal 163 as an input unit 110 to be connected, a power switch 161 and a reset switch 162 for turning on / off the power, a CD-ROM 164 . However, the present invention is not limited to this, and various input units 110, switches, or output units may be connected to the front unit 160 of the virtual studio broadcast editing and transmitting apparatus 100, (130), and the like.

또한, 도 2b를 참조하면, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 후면부(170)에는 다양한 입력부(110) 및 출력부(130)가 배치될 수 있다. 예를 들어, 후면부(170)에는 음성 출력 단자(171), 영상 입력 단자(172), 영상 출력 단자(173), USB 단자(174) 및 확장 모듈팩 단자(175)와 같은 다양한 입력부(110) 및 출력부(130)가 배치될 수 있다.2B, various input unit 110 and output unit 130 are connected to the rear part 170 of the virtual studio broadcast editing and transmission device 100, which converts the object position change into a vector and synchronizes the video and sound signals, Can be disposed. For example, various input units 110 such as an audio output terminal 171, a video input terminal 172, a video output terminal 173, a USB terminal 174, and an extension module pack terminal 175 are connected to the rear portion 170, And an output unit 130 may be disposed.

사용자는 영상 입력 단자(172), USB 단자(174) 및 확장 모듈팩 단자(175) 등의 입력부(110)를 통해 최대 16개의 음성과 9개의 영상을 동시에 입력할 수 있고, HDMI, HD-SDI, 웹캠 등 다양한 입력 형식을 혼용하여 사용할 수 있다.The user can simultaneously input up to 16 voices and nine videos through the input unit 110 such as the video input terminal 172, the USB terminal 174 and the expansion module pack terminal 175, and the HDMI, HD-SDI , Webcam, and so on.

아울러, 사용자는 영상 출력 단자(173), 음성 출력 단자(171) 및 확장 모듈팩 단자(175) 등의 출력부(130)를 통해 최대 16개의 음성과 3개의 영상을 동시에 출력 받을 수 있다. 여기서, 확장 모듈팩 단자(175)는 8개의 음성 입출력이 가능한 음성 카드 전용 케이블 단자일 수 있다. 다만, 이에 제한되지 않고, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 출력 채널 수는 다양하게 설정될 수 있다.In addition, the user can simultaneously receive up to 16 sounds and three images through the output unit 130 such as the video output terminal 173, the audio output terminal 171, and the expansion module pack terminal 175. Here, the expansion module pack terminal 175 may be a sound card dedicated cable terminal capable of eight voice input / output. However, the number of output channels of the virtual studio broadcast editing and transmitting apparatus 100, which synchronizes video and audio signals by converting the object position change into a vector, can be set to various values.

상술한 바와 같이, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 전면부(160) 및/또는 후면부(170)에 배치된 다양한 입력부(110)를 통해 수신된 영상 및 음성은 제어부(120)로 전달되어 실시간 방송을 위한 편집 과정을 거칠 수 있고, 제어부(120)는 사용자의 선택을 입력 받아 영상 및 음성을 편집할 수 있다. 이하에서는, 사용자의 입력을 받기 위해 사용자에게 제공되는 화면들을 설명하기 위해 도 3a 내지 도 3b를 함께 참조한다.As described above, the various input units 110 (or 110) disposed in the front portion 160 and / or the rear portion 170 of the virtual studio broadcast editing and transmitting apparatus 100, which converts the object position change into a vector and synchronizes the video and sound signals, ) Is transmitted to the control unit 120 and can be edited for real time broadcasting. The controller 120 can edit the video and audio by receiving the user's selection. Hereinafter, FIGS. 3A to 3B are referred to together to describe screens provided to the user for receiving user input.

도 3a는 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기의 제어부의 조작을 위한 GUI 메뉴가 표시된 주 화면이다. 도 3b는 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기의 제어부의 조작을 위한 최종 방송 영상이 송출되는 송출 화면이다.FIG. 3A is a main screen displaying a GUI menu for manipulating a control unit of a virtual studio broadcast editing and transmitting apparatus that converts an object position change into a vector and synchronizes video and audio signals according to an exemplary embodiment of the present invention. FIG. 3B is a transmission screen in which a final broadcast image for manipulation of a control unit of a virtual studio broadcast editing and transmitting apparatus, which converts an object position change into a vector and synchronizes an image and a sound signal according to an embodiment of the present invention, is transmitted.

도 3a를 참조하면, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 제어부(120)의 조작을 위한 GUI 메뉴가 표시된 주 화면(180)은 외부 소스 뷰어(181a) 및 내부 소스 뷰어(181b)로 구성된 소스 뷰어(181), A/V 플레이어 컨트롤(182a), A/V 믹서 볼륨 컨트롤(182b), 프리뷰(183a), 프로그램뷰(183b), 트랜지션바(184a), 트랜지션 이펙트 컨트롤(184b), A/V 프리셋 컨트롤(185), PIP 오브젝트 컨트롤(186), 로컬 뱅크 셀렉터(187a), 글로벌 뱅크 셀렉터(187b), A/V 레코더(188), CD 플레이어(189) 등과 같은 다양한 효과 및 편집을 위한 메뉴들로 구성될 수 있다.Referring to FIG. 3A, a main screen 180 displaying a GUI menu for manipulating the controller 120 of the virtual studio broadcast editing and transmitting apparatus 100, which converts the object position change into a vector and synchronizes the video and audio signals, A source viewer 181, an A / V player control 182a, an A / V mixer volume control 182b, a preview 183a, a program view 183b including an external source viewer 181a and an internal source viewer 181b. A transition bar 184a, a transition effect control 184b, an A / V preset control 185, a PIP object control 186, a local bank selector 187a, a global bank selector 187b, an A / V recorder 188 ), A CD player 189, and the like.

소스 뷰어(181)는 외부 소스 뷰어(181a) 및 내부 소스 뷰어(181b)로 구성된다. 소스 뷰어(181)는 영상 입력 상태를 확인하고, 송출 화면(190)에 적용된 화면과 비교할 수 있는 화면이다. 외부 소스 뷰어(181a)는 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 외부로부터 입력된 영상 입력 소스 화면으로, HDMI, HD-SDI, 웹캠(13) 등과 같은 복수의 외부 영상 입력 소스로부터의 화면이 표시될 수 있다. 또한, 스크린 캡쳐한 화면 또한 외부 소스 뷰어(181a)에 표시될 수 있다. 내부 소스 뷰어(181b)는 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100) 내부로부터의 영상 입력 소스 화면으로서, 복수의 내부 소스 플레이어의 동영상 재생 화면이다.The source viewer 181 is composed of an external source viewer 181a and an internal source viewer 181b. The source viewer 181 confirms the image input state and is a screen that can be compared with a screen applied to the transmission screen 190. [ The external source viewer 181a converts the object position change into a vector and outputs the image input source screen input from the outside of the virtual studio broadcast editing and transmitting apparatus 100 synchronized with the video and sound signals to the HDMI, HD-SDI, A screen from a plurality of external image input sources such as a display device 13 may be displayed. In addition, a screen-captured screen can also be displayed on the external source viewer 181a. The internal source viewer 181b is a video input source screen from the inside of the virtual studio broadcast editing and transmitting apparatus 100 that converts the object position change into a vector and synchronizes video and sound signals, to be.

A/V 플레이어 컨트롤(182a)은 내장 소스 플레이어 메뉴 화면으로, 각각의 소스 플레이어는 내부 소스 뷰어(181b)의 영상에 대응할 수 있다. 도 3에서는 최대 3개의 소스 플레이어가 지원되는 것으로 도시되었으나, 이에 제한되지는 않는다. The A / V player control 182a is an internal source player menu screen, and each source player can correspond to an image of the internal source viewer 181b. Although a maximum of three source players are shown as supported in FIG. 3, it is not limited thereto.

A/V 믹서 볼륨 컨트롤(182b)은 음성 믹서 제어 화면으로, 사용자는 A/V 믹서 볼륨 컨트롤(182b)을 통해 각각의 입력 소스 별로 음성 출력을 제어 할 수 있다. 예를 들어, A/V 믹서 볼륨 컨트롤(182b)을 통해 PC 출력, 마이크(12) 출력, 소스별 출력, 카메라(11) 출력 등에 대한 볼륨 제어가 가능하고, 이퀄라이저 설정, 음성 출력 스위칭 등의 제어를 할 수 있다. The A / V mixer volume control 182b is a voice mixer control screen, and the user can control the voice output for each input source through the A / V mixer volume control 182b. For example, the A / V mixer volume control 182b allows volume control of the PC output, the microphone 12 output, the source output, the camera 11 output, etc., and controls the equalizer setting, .

CD 플레이어(189)는 도 2a에 도시된 바와 같은 CD-ROM(164)에 삽입된 CD의 재생을 제어하기 위한 메뉴 화면이다.The CD player 189 is a menu screen for controlling reproduction of a CD inserted in the CD-ROM 164 as shown in FIG. 2A.

로컬 뱅크 셀렉터(187a)는 가상스튜디오 내에서의 3D 뷰 설정을 선택할 수 있도록 구성된 화면이다. 예를 들어, 도 3에 도시된 바와 같이, 총 8개의 로컬 뱅크에 대한 프리셋이 가능하며, 프리셋된 8개의 로컬 뱅크(LB) 중 하나의 로컬 뱅크(LB)를 선택하는 방식으로 사용자는 가상스튜디오 내에서의 3D 뷰를 설정할 수 있다. The local bank selector 187a is a screen configured to select a 3D view setting in the virtual studio. For example, as shown in FIG. 3, a total of eight local banks can be preset, and in a manner of selecting one local bank LB of eight preset local banks LB, You can set up a 3D view within the.

글로벌 뱅크 셀렉터(187b)는 가상스튜디오 배경을 선택할 수 있도록 구성된 화면이다. 예를 들어, 도 3에 도시된 바와 같이, 총 8개의 글로벌 뱅크에 대한 프리셋이 가능하며, 프리셋된 8개의 글로벌 뱅크 중 하나의 글로벌 뱅크를 선택하는 방식으로 사용자는 가상스튜디오 배경을 선택할 수 있다. The global bank selector 187b is a screen configured to select a virtual studio background. For example, as shown in FIG. 3, a total of eight global banks can be preset, and the user can select a virtual studio background by selecting one of the eight preset global banks.

프리뷰(183a)는 A/V 설정과 3D 스튜디오 설정이 적용된 예비 화면이고, 프로그램뷰(183b)는 A/V 설정과 3D 스튜디오 설정이 적용된 방송 송출용 화면으로, 로컬 뱅크 셀렉터(187a)에서 선택된 로컬 뱅크(LB)와 글로벌 뱅크 셀렉터(187b)에서 선택된 가상스튜디오 배경이 바로 적용된 화면이 나타나게 된다.The preview 183a is a preliminary screen to which the A / V setting and the 3D studio setting are applied. The program view 183b is a broadcasting transmission screen to which the A / V setting and the 3D studio setting are applied. A screen directly applied with the virtual studio background selected in the bank LB and the global bank selector 187b appears.

트랜지션바(184a)는 프리뷰(183a)와 프로그램뷰(183b)의 화면을 전환하기 위한 메뉴이다. 그리고, 트랜지션 이펙트 컨트롤(184b)은 트랜지션바(184a)로 프리뷰(183a)와 프로그램뷰(183b)의 화면이 전환될 때 사용될 효과를 지정하기 위한 메뉴이다. The transition bar 184a is a menu for switching screens of the preview 183a and the program view 183b. The transition effect control 184b is a menu for designating an effect to be used when the screens of the preview 183a and the program view 183b are switched to the transition bar 184a.

A/V 프리셋 컨트롤(185)은 3D 가상스튜디오의 주요 설정을 변경하기 위한 메뉴이다. 예를 들어, 사용자는 A/V 프리셋 컨트롤(185)을 사용하여 자막(192), 시점 변환, 조명, 성능 모니터링 등 3D 가상스튜디오의 주요 설정을 변경할 수 있다. The A / V preset control 185 is a menu for changing the main setting of the 3D virtual studio. For example, the user can use the A / V preset control 185 to change major settings of the 3D virtual studio, such as subtitle 192, viewpoint conversion, lighting, and performance monitoring.

PIP 오브젝트 컨트롤(186)은 화면 영상에서 영상 이미지의 확대, 축소, 위치 이동, 회전 등의 제어를 위한 메뉴이다. 마지막으로, A/V 레코더(188)는 송출 화면(190)을 영상 파일로 저장하기 위한 메뉴이다.The PIP object control 186 is a menu for controlling enlargement, reduction, position movement, and rotation of a video image in a screen image. Finally, the A / V recorder 188 is a menu for storing the transmission screen 190 as an image file.

다음으로, 도 3b를 참조하면, 송출 화면(190)은 편집이 완료된 최종 방송 송출용 화면이 출력되는 화면으로, 실제 방송에 영상이 어떻게 출력되는지 확인할 수 있다. 또한, 주 화면(180)에서 설정한 각종 방송 편집 효과가 적용되었는지 확인할 수 있으며, 예를 들어, PIP 오브젝트 컨트롤(186)메뉴를 이용해 삽입된 로고(191)이미지나, A/V 프리셋 컨트롤(185)을 사용해 삽입된 자막(192) 등이 어떻게 적용되었는지 확인할 수 있다.Next, referring to FIG. 3B, the transmission screen 190 is a screen for outputting a screen for final broadcast transmission in which editing is completed, and it is possible to confirm how an image is outputted in actual broadcasting. In addition, it is possible to check whether various broadcast editing effects set in the main screen 180 are applied. For example, the logo image 191 inserted using the PIP object control 186 menu or the A / V preset control 185 ) Can be used to check how the embedded subtitle 192 is applied.

이하에서는, 앞서 설명한 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)에 대한 설명에 기초하여, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100) 및 이를 이용한 방송 편집 및 송출 방법에서의 영상 및 음성 처리에 대하여 설명한다.In the following, based on the description of the virtual studio broadcast editing and transmitting device 100 that converts the object position change according to the above-described embodiment of the present invention into a vector and synchronizes the video and sound signals, The video and audio processing in the virtual studio broadcast editing and transmission device 100 and the broadcast editing and transmission method using the same will be described.

도 4는 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 방법을 설명하기 위한 순서도이다.4 is a flowchart illustrating a virtual studio broadcast editing and transmission method of synchronizing video and audio signals by converting object position changes into vectors according to an embodiment of the present invention.

먼저, 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)는 객체(OB)에 대한 촬영 영상 및 촬영 영상에 대응하는 녹음 음성을 실시간으로 수신한다(S100).First, the virtual studio broadcast editing and transmitting apparatus 100, which synchronizes video and audio signals by converting the object position change according to an embodiment of the present invention into a vector, The recording voice is received in real time (S100).

도 5는 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에서의 가상스튜디오에 대한 한 장면이다. 도 5에서는 설명의 편의를 위해 크로마키 배경(BA) 앞에서 사람(OB)이 마이크(12)를 사용하여 방송을 하는 상황에 대한 가상스튜디오 장면을 도시하였다.FIG. 5 is a view of a virtual studio broadcast editing and transmission device in which video and sound signals are synchronized by converting an object position change into a vector according to an embodiment of the present invention, and a virtual studio in a broadcast editing and transmission method using the same . FIG. 5 shows a virtual studio scene for a situation where a person OB broadcasts using a microphone 12 in front of a chroma key background (BA) for convenience of explanation.

도 5를 참조하면, 가상스튜디오에서 사람과 같은 객체(OB)를 촬영하기 위해 카메라(C1, C2, C3) 등과 같은 하나 이상의 영상 입력 장치가 사용될 수 있다. 또한, 사람의 음성을 녹음하기 위해 사람이 직접 들고 있거나, 사람에 부착 또는 고정된 마이크(12a)와 같은 음성 입력 장치가 사용될 수도 있고, 가상스튜디오에서 특정 위치에 고정된 고정 마이크(12b)와 같은 음성 입력 장치가 사용될 수 있다.Referring to FIG. 5, one or more image input devices, such as cameras C1, C2, C3, etc., may be used to capture an object OB such as a human in a virtual studio. Further, a voice input device such as a microphone 12a, which is directly held by a person or is attached or fixed to a person, may be used to record a person's voice, or a fixed microphone 12b fixed to a specific position in the virtual studio A voice input device can be used.

본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 입력부(110)의 영상 입력부는 가상스튜디오에서의 카메라(C1, C2, C3) 등과 같은 영상 입력 장치로부터 촬영된 촬영 영상을 무선 또는 유선으로 실시간으로 수신할 수 있고, 입력부(110)의 음성 입력부는 사람에 고정된 마이크(12a) 및/또는 특정 위치에 고정된 고정 마이크(12b)와 같은 음성 입력 장치로부터 녹음되고, 촬영 영상에 대응하는 녹음 음성을 무선 또는 유선으로 실시간으로 수신할 수 있다. The video input unit of the input unit 110 of the virtual studio broadcast editing and transmission apparatus 100 that converts the object position change into a vector and synchronizes the video and sound signals according to an embodiment of the present invention is connected to the cameras C1, C2, C3) and the like, and the voice input unit of the input unit 110 can receive the microphone 12a fixed to the person and / or the microphone 12a fixed to the specific position Recorded from a voice input device such as the stationary microphone 12b, and can receive the recorded voice corresponding to the photographed image wirelessly or wired in real time.

이때, 크로마키 배경(BA)은 녹색 또는 청색과 같은 단일한 색상으로 이루어진 배경을 의미하고, 객체(OB)는 크로마키 배경(BA) 앞에 배치된 사람 등과 같은 임의의 대상물로, 크로마키 배경(BA)과 상이한 색으로 표현되는 임의의 대상물을 의미할 수 있다. 이와 같이, 입력부(110)를 통해 수신된 촬영 영상 및 녹음 음성은 제어부(120)로 전달되고, 메모리(150)에 저장될 수도 있다.In this case, the chroma key background BA means a background consisting of a single color such as green or blue, and the object OB is any object such as a person placed in front of the chroma key background BA, ≪ RTI ID = 0.0 > BA. ≪ / RTI > The captured image and the recorded voice received through the input unit 110 may be transmitted to the control unit 120 and stored in the memory 150. [

이어서, 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)는 촬영 영상, 녹음 음성 및 자료 영상(DV)에 기초하여 방송 영상(BV) 및 방송 영상(BV)에 대응하는 방송 음성을 실시간으로 편집한다(S200).Then, the virtual studio broadcast editing and transmission apparatus 100 synchronizes the video and sound signals by converting the object position change into a vector according to an embodiment of the present invention, and then, based on the photographed image, the recorded voice, and the data image DV, The broadcast audio corresponding to the broadcast video BV and the broadcast video BV is edited in real time (S200).

객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 제어부(120)의 방송 영상 편집부(121)는 입력부(110) 또는 메모리(150) 중 적어도 하나로부터 촬영 영상 및 자료 영상(DV)을 수신하여 방송 영상(BV)을 실시간으로 편집한다. 또한, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 제어부(120)의 방송 음성 편집부(122)는 방송 영상(BV)에 대응하는 방송 음성을 실시간으로 편집한다. 이때, 방송 음성 편집부(122)는 촬영 영상의 이동, 촬영 영상에서의 객체(OB)의 이동 및 자료 영상(DV)의 이동을 나타내는 3차원 벡터에 기초하여 녹음 음성 및 자료 영상(DV)에 대응하는 자료 음성을 사용하여 방송 음성을 실시간으로 편집할 수 있다. 이하, 제어부(120)가 촬영 영상, 녹음 음성 및 자료 영상(DV)을 이용하여 방송 영상(BV) 및 방송 음성을 실시간으로 편집하는 과정에 대한 보다 상세한 설명을 위해 도 6a 내지 도 6c를 함께 참조한다.The broadcast image editing unit 121 of the control unit 120 of the virtual studio broadcast editing and transmission apparatus 100 that synchronizes the image and sound signals by converting the object position change into a vector may be provided with at least one of the input unit 110 and the memory 150 And edits the broadcast video (BV) in real time. The broadcast sound editing unit 122 of the control unit 120 of the virtual studio broadcast editing and transmission apparatus 100 synchronizes the image and sound signals by converting the object position change into a vector and outputs the broadcast sound corresponding to the broadcast image BV In real time. At this time, the broadcast voice editing unit 122 corresponds to the recording voice and the data base DV based on the three-dimensional vector indicating the movement of the photographed image, the movement of the object OB in the photographed image, and the movement of the data base DV You can edit the broadcast voice in real time using the data voice. 6A to 6C are referred to for a more detailed description of the process of the controller 120 editing the broadcast video BV and the broadcast voice in real time using the photographed image, the recorded voice, and the data image DV do.

도 6a는 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에서 제어부가 촬영 영상 및 자료 영상을 가상스튜디오에 합성하여 편집한 방송 영상의 한 장면이다. 도 6b는 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에서 제어부의 방송 영상 편집부가 방송 영상을 3차원의 가상의 공간으로 맵핑하고, 가상의 공간에서 촬영 영상, 촬영 영상에서의 객체 및 자료 영상에 3차원 좌표를 부여하는 과정을 설명하기 위한 개략도이다. 도 6c는 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에서 제어부의 방송 음성 편집부가 가상의 공간에서 촬영 영상의 이동, 촬영 영상에서의 객체의 이동 및 자료 영상의 이동을 나타내는 3차원 벡터에 기초하여 복수의 음성 출력부 각각에 대한 방송 음성의 출력을 실시간으로 편집하는 과정을 설명하기 위한 개략도이다. 도 6b 및 도 6c에서는 도 5에서 설명된 음성 입력 장치 중 객체(OB)인 사람이 마이크(12a)를 직접 들고 있거나, 사람에 부착된 마이크(12a)가 사용되는 경우를 가정하였다. FIG. 6A is a diagram illustrating a virtual studio broadcast editing and transmitting device in which video and sound signals are synchronized by converting an object position change into a vector according to an embodiment of the present invention, and in a broadcasting editing and transmitting method using the virtual studio broadcasting editing and transmitting device, It is a scene of a broadcast video edited by combining with a virtual studio. FIG. 6B shows a virtual studio broadcast editing and transmission device in which video and sound signals are synchronized by converting an object position change into a vector according to an embodiment of the present invention, and in a broadcast editing and transmission method using the same, Is mapped to a three-dimensional virtual space, and a three-dimensional coordinate is given to an object image and a data image in a photographed image, a photographed image, and the like in a virtual space. FIG. 6C illustrates a virtual studio broadcast editing and transmission apparatus for synchronizing video and sound signals by converting object position changes into vectors according to an exemplary embodiment of the present invention, and a broadcast editing and transmission method using the same, A schematic diagram for explaining a process of editing, in real time, the output of a broadcast audio for each of a plurality of audio output units based on a three-dimensional vector indicating movement of a photographed image in a space, movement of an object in a shot image, to be. 6B and 6C, it is assumed that a person who is an object OB directly holding a microphone 12a or a microphone 12a attached to a person is used.

먼저 도 6a를 참조하면, 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 제어부(120)의 방송 영상 편집부(121)는 촬영 영상과 자료 영상(DV)을 수신하여 방송 영상(BV)을 실시간으로 편집한다. 구체적으로, 방송 영상 편집부(121)는 가상스튜디오에서 객체(OB)를 촬영한 촬영 영상에 자료 영상(DV)을 합성하는 방식으로 방송 영상(BV)을 실시간으로 편집할 수 있다. 도 6a에서는 설명의 편의를 위해 2개의 자료 영상(DV1, DV2)이 방송 영상(BV)에 포함된 것으로 도시되었으나, 자료 영상(DV)의 개수는 이에 제한되지 않는다.Referring to FIG. 6A, a broadcast image editing unit (not shown) of a controller 120 of a virtual studio broadcast editing and transmitting apparatus 100, which converts an object position change into a vector and synchronizes an image and a sound signal according to an embodiment of the present invention, 121 receives the photographed image and the data image DV and edits the broadcast image BV in real time. Specifically, the broadcast image editing unit 121 can edit the broadcast image BV in real time by synthesizing the material image DV on the photographed image of the object OB in the virtual studio. 6A, two data images DV1 and DV2 are included in the broadcast image BV for convenience of explanation, but the number of the data images DV is not limited thereto.

도 5에 도시된 바와 같이 크로마키 배경(BA)을 사용하는 가상스튜디오에서 객체(OB)를 촬영하는 방식으로 촬영 영상이 획득된 경우, 방송 영상 편집부(121)는 촬영 영상과 자료 영상(DV)을 합성하여 방송 영상(BV)을 완성하기에 앞서, 촬영 영상을 크로마키 처리할 수 있다. 구체적으로, 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 제어부(120)는 입력부(110)를 통해 수신된 촬영 영상에 대해 객체(OB)의 엣지를 검출하여 객체(OB)와 크로마키 배경(BA)을 분리할 수 있고, 크로마키 배경(BA)으로부터 분리된 객체(OB)만을 가상스튜디오에 합성할 수 있다. 5, when a captured image is acquired by capturing an object OB in a virtual studio using a chroma background (BA), the broadcast image editing unit 121 edits the captured image and the data image DV, It is possible to perform chroma key processing on the photographed image before completing the broadcast video BV. In detail, the control unit 120 of the virtual studio broadcast editing and transmitting apparatus 100, which synchronizes the video and sound signals by converting the object position change into a vector according to an embodiment of the present invention, It is possible to separate the object OB and the chroma key background BA by detecting the edge of the object OB with respect to the shot image and to combine only the object OB separated from the chroma key background BA into the virtual studio have.

이후, 제어부(120)의 방송 영상 편집부(121)는, 예를 들어, 입력부(110)를 통해 USB(14)와 같은 외부 저장 수단과 컴퓨터(15)와 같은 외부 전자 장치에서 수신하여 메모리(150)에 저장된 자료 영상(DV) 및 자료 영상(DV)에 대응하는 음성을 가상스튜디오에 합성하여 도 6a에 도시된 바와 같은 방송 영상(BV)을 실시간으로 편집할 수 있다.The broadcast image editing unit 121 of the control unit 120 receives an external storage unit such as the USB 14 and an external electronic device such as the computer 15 through the input unit 110 and stores the received broadcast image in the memory 150 (DV) and the material image (DV) stored in the virtual studio (ST) can be synthesized in the virtual studio to edit the broadcast image (BV) as shown in FIG. 6A in real time.

이어서, 방송 영상 편집부(121)는 방송 영상(BV)을 3차원의 가상의 공간(VS)으로 맵핑하고(S210), 가상의 공간(VS)에서 촬영 영상, 촬영 영상에서의 객체(OB) 및 자료 영상(DV)에 3차원 좌표를 부여한다(S220).Subsequently, the broadcast image editing unit 121 maps the broadcast image BV to a three-dimensional virtual space VS in step S210. Then, in the virtual space VS, the captured image, the object OB in the captured image, Dimensional coordinate to the data image DV (S220).

도 6b를 참조하면, 방송 영상 편집부(121)는 방송 영상(BV)을 3차원의 가상의 공간(VS)으로 맵핑할 수 있다. 여기서, 3차원의 가상의 공간(VS)은 방송 영상 편집부(121)가 방송 영상(BV)에서의 촬영 영상의 이동, 촬영 영상에서의 객체(OB)의 이동 및 자료 영상(DV)의 이동을 3차원 좌표의 변화, 즉, 3차원 벡터를 사용하여 판단하고, 방송 음성 편집부(122)가 상술한 3차원 좌표의 변화에 기초하여 방송 음성을 편집하기 위한 공간이다. 3차원의 가상의 공간(VS)은 x축, y축, z축을 사용하여 정의될 수 있고, 각각의 축에 대한 좌표 값의 최대값은 1이고, 최소값인 -1인 정육면체 형상의 공간으로 정규화되어 정의될 수 있다. 다만, 이에 제한되지 않고, 가상의 공간(VS)은 x축, y축, z축 각각에 대해 다른 최대값과 최소값을 갖도록 정의될 수도 있다. 방송 영상 편집부(121)는 상술한 정규화된 3차원의 가상의 공간(VS)에 방송 영상(BV)을 맵핑할 수 있다.Referring to FIG. 6B, the broadcast image editing unit 121 may map the broadcast image BV to a three-dimensional virtual space (VS). In this case, the virtual space VS in the three-dimensional space is a space in which the broadcast image editing unit 121 moves the photographed image in the broadcast image BV, the object OB in the photographed image, Dimensional coordinate, that is, a three-dimensional vector, and the broadcasting voice editing unit 122 edits the broadcasting voice based on the above-described three-dimensional coordinate change. The virtual space (VS) of a three-dimensional space can be defined using x-axis, y-axis, and z-axis, and the maximum value of the coordinate value for each axis is 1, Can be defined. However, the present invention is not limited to this, and the virtual space VS may be defined to have different maximum and minimum values for each of the x-axis, y-axis, and z-axis. The broadcast image editing unit 121 can map the broadcast image BV to the normalized three-dimensional virtual space VS described above.

도 6b를 참조하면, 제어부(120)의 방송 영상 편집부(121)는 방송 영상(BV)을 3차원의 가상의 공간(VS)에 맵핑하고, 방송 영상(BV)을 구성하는 촬영 영상, 촬영 영상에서의 객체(OB) 및 자료 영상(DV)에 3차원 좌표를 부여할 수 있다. 구체적으로, 방송 영상 편집부(121)는 가상의 공간(VS)에서 촬영 영상의 3차원 좌표(Sx, Sy, Sz), 촬영 영상에서의 객체(OB)의 3차원 좌표(Ox, Oy, Oz) 및 제1 자료 영상(DV)에 대한 3차원 좌표(D1x, D1y, D1z) 및 제2 자료 영상(DV)에 대한 3차원 좌표(D2x, D2y, D2z)를 부여할 수 있다. 여기서 촬영 영상, 촬영 영상에서의 객체(OB) 및 자료 영상(DV)에 대한 3차원 좌표는 각각의 무게 중심의 3차원 좌표로 정의할 수 있으나, 내심의 3차원 좌표, 외심의 3차원 좌표 등으로도 정의할 수 있으며, 이에 제한되지 않는다.6B, the broadcast image editing unit 121 of the control unit 120 maps the broadcast image BV to a three-dimensional virtual space VS, Dimensional coordinates to the object OB and the data base DV in the image data DB. Specifically, the broadcast image editing unit 121 compares the three-dimensional coordinates Sx, Sy, Sz of the photographed image in the virtual space VS and the three-dimensional coordinates Ox, Oy, Oz of the object OB in the photographed image, Dimensional coordinates D2x, D2y, and D2z for the first data image DV and the three-dimensional coordinates D2x, D2y, and D2z for the second data image DV. Here, the three-dimensional coordinates of the object (OB) and the data image (DV) in the photographed image, the photographed image can be defined as three-dimensional coordinates of the respective center of gravity, , But is not limited thereto.

도 6a에 도시된 바와 같이, 방송 영상(BV)의 전체 화면이 촬영 영상 전체에 대응하는 경우, 제어부(120)의 방송 영상 편집부(121)는 촬영 영상의 3차원 좌표(Sx, Sy, Sz)를 원점(O)의 (0, 0, 0)으로 정의할 수 있다. 다만, 촬영 영상을 확대하여 방송 영상(BV)에서 촬영 영상의 일부만 포함하거나, 방송 영상(BV)에서 촬영 영상을 축소하여 촬영 영상의 전체를 포함하되 나머지 영역은 다른 부분으로 구성하는 경우 촬영 영상의 3차원 좌표(Sx, Sy, Sz)의 z좌표(Sz)가 증감할 수 있다. 또한, 촬영 영상 중 일부 영역만 방송 영상(BV)에서 포함하는 경우, 촬영 영상의 3차원 좌표(Sx, Sy, Sz) 중 x축 좌표(Sx) 및 y축 좌표(Sz)도 증감할 수 있다. 도 6b에서는 설명의 편의를 위해 촬영 영상에 대한 3차원 좌표에 대한 도시는 생략하였다.6A, when the entire screen of the broadcast image BV corresponds to the entire captured image, the broadcast image editing unit 121 of the control unit 120 displays the three-dimensional coordinates Sx, Sy, Sz of the photographed image, (0, 0, 0) of the origin (O). However, if the photographed image is enlarged to include only a part of the photographed image in the broadcast image BV, or if the photographed image is reduced in the broadcast image BV, The z-coordinate Sz of the three-dimensional coordinates Sx, Sy, Sz can be increased or decreased. In addition, when only a part of the photographed image is included in the broadcast image BV, the x-axis coordinate Sx and the y-axis coordinate Sz of the three-dimensional coordinates Sx, Sy, Sz of the photographed image can also be increased or decreased . In FIG. 6B, the three-dimensional coordinates of the photographed image are omitted for convenience of explanation.

이어서, 방송 영상 편집부(121)는 객체(OB)의 3차원 좌표(OP)인 (Ox, Oy, Oz)를 정의할 수 있다. 방송 영상 편집부(121)는 촬영 영상 내에서의 객체(OB)의 위치를 고려하여, 객체(OB)의 3차원 좌표(OP)인 (Ox, Oy, Oz)를 부여할 수 있다. 즉, 촬영 영상 내에서 객체(OB)의 좌우 위치, 상하 위치, 전후 위치를 고려하여, 방송 영상 편집부(121)는 객체(OB)의 3차원 좌표(OP)인 (Ox, Oy, Oz)를 정의할 수 있다. 또한, 몇몇 실시예에서, 방송 영상 편집부(121)는 뷰 포트(view port)에 투영되는 이미지를 사용하여 객체(OB)의 3차원 좌표(OP)인 (Ox, Oy, Oz)를 계산할 수도 있다. 즉, 3차원의 가상의 공간(VS)의 외부에 위치하며, 뷰 포트에 투영하여 시청자에게 방송 화면을 보여주기 위한 가변 가상 카메라가 존재하는 것으로 가정하고, 가변 가상 카메라와의 상대 좌표에 기초하여 객체(OB)의 좌우 위치, 상하 위치, 전후 위치를 결정하고, 객체(OB)의 3차원 좌표(OP)인 (Ox, Oy, Oz)를 부여할 수 있다. 다만, 이에 제한되지 않고, 객체(OB)의 3차원 좌표(OP)인 (Ox, Oy, Oz)는 다른 방식으로 부여될 수도 있다. 도 6b에서는 객체(OB)의 3차원 좌표(OP)인 (Ox, Oy, Oz)가 (0.5, 0, 0.5)인 것으로 가정하였다.Then, the broadcast image editing unit 121 can define (Ox, Oy, Oz) which is the three-dimensional coordinates OP of the object OB. The broadcast image editing unit 121 can give the three-dimensional coordinates OP of the object OB (Ox, Oy, Oz) in consideration of the position of the object OB in the captured image. That is, in consideration of the left-right position, the up-down position, and the back-and-forth position of the object OB in the photographed image, the broadcast image editing unit 121 obtains the three-dimensional coordinates OP (Ox, Oy, Oz) of the object OB Can be defined. Also, in some embodiments, the broadcast image editing unit 121 may calculate the three-dimensional coordinates (OP) (Ox, Oy, Oz) of the object OB using the image projected on the view port . That is, it is assumed that there is a variable virtual camera that is located outside the three-dimensional virtual space VS and that is projected on the view port to show the viewer a broadcast screen, and based on the relative coordinates with the variable virtual camera Vertical positions and front and back positions of the object OB and determines the three-dimensional coordinates OP of the object OB (Ox, Oy, Oz). However, the present invention is not limited to this, and the three-dimensional coordinates OP (Ox, Oy, Oz) of the object OB may be given in other manners. 6B, it is assumed that the three-dimensional coordinates (OP) (Ox, Oy, Oz) of the object OB are (0.5, 0, 0.5).

이어서, 방송 영상 편집부(121)는 제1 자료 영상(DV)에 대한 3차원 좌표(DP1)인 (D1x, D1y, D1z) 및 제2 자료 영상(DV)에 대한 3차원 좌표(DP2)인 (D2x, D2y, D2z)를 정의할 수 있다. 방송 영상 편집부(121)가 제1 자료 영상(DV)에 대한 3차원 좌표(DP1)인 (D1x, D1y, D1z) 및 제2 자료 영상(DV)에 대한 3차원 좌표(DP2)인 (D2x, D2y, D2z)를 정의하는 방식은 앞서 설명한 객체(OB)의 3차원 좌표(OP)인 (Ox, Oy, Oz)를 정의하는 방식과 실질적으로 동일할 수 있다. 도 6b에서는 제1 자료 영상(DV)에 대한 3차원 좌표(DP1)인 (D1x, D1y, D1z)가 (-0.3, 0.5, 0)이고, 제2 자료 영상(DV)에 대한 3차원 좌표(DP2)인 (D2x, D2y, D2z)가 (-0.3, 0.3, 0)인 것으로 가정하였다.Next, the broadcast image editing unit 121 compares the three-dimensional coordinate DP1 (D1x, D1y, D1z) of the first data base DV and the three-dimensional coordinate DP2 of the second data base DV D2x, D2y, D2z) can be defined. The broadcast image editing unit 121 compares the first data image DV with the first data image DV and the second data image DV with the coordinates D2x, D2y and D2z may be substantially the same as the method of defining the three-dimensional coordinates (OP) (Ox, Oy, Oz) of the object OB described above. In FIG. 6B, the three-dimensional coordinates DP1 of the first data image DV are (-0.3, 0.5, 0) and the three-dimensional coordinates of the second data image DV are DP2) and (D2x, D2y, D2z) are assumed to be (-0.3, 0.3, 0).

도 6b를 참조하면, 제어부(120)는 방송 음성을 출력할 복수의 음성 출력부(132) 및 복수의 음성 출력부(132)에 대응하는 복수의 음성 출력 장치(32a 내지 32f)에 3차원 좌표를 부여할 수 있다. 즉, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)에서 사용할 총 음성 출력 채널의 개수에 따라, 복수의 음성 출력부(132)의 개수가 결정되고, 결정된 음성 출력부(132)의 개수에 기초하여 음성 출력부(132)에 대한 3차원 좌표를 부여할 수 있다. 도 6b에서는 복수의 음성 출력부(132)에 대응하는 음성 출력 장치(32a 내지 32f)로 스피커(32)가 사용되는 것으로 가정하였고, 가상의 공간(VS)에서 우측, 좌측, 상측, 하측, 전측, 후측의 총 6개의 스피커(32)가 음성 출력부(132)에 대응하는 음성 출력 장치(32a 내지 32f)로 사용되는 것을 가정하였으며, 6개의 음성 출력 장치(32a 내지 32f) 각각이 (1, 0, 0), (-1, 0, 0), (0, 1, 0), (0, -1, 0), (0, 0, 1) 및 (0, 0, -1)의 3차원 좌표를 갖는 것으로 가정하였다. 도 6b에서는 음성 출력부(132)에 대응하는 음성 출력 장치(32a 내지 32f)가 모두 가상의 공간(VS)의 최외곽에 배치되는 것으로 가정하였으나, 이에 제한되지 않고, 음성 출력부(132)는 총 음성 출력 채널의 개수 및 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)에 따라 가상의 공간(VS)의 임의의 위치에 배치될 수 있다. 다만, 방송 음성 출력의 입체감을 보다 자연스럽게 부여하기 위해, 2개의 음성 출력부(132)가 가상의 공간(VS)에서 x축, y축, z축 또는 원점(O)에 대칭되는 위치로 배치되도록 할 수 있다.6B, the control unit 120 includes a plurality of audio output units 132 for outputting broadcast audio and a plurality of audio output devices 32a to 32f corresponding to the plurality of audio output units 132, Can be given. That is, the number of the plurality of audio output units 132 is determined according to the number of the total audio output channels to be used in the virtual studio broadcast editing and transmitting apparatus 100 in which the object position change is converted into a vector and the video and sound signals are synchronized Dimensional coordinates of the audio output unit 132 can be given based on the number of the audio output units 132 determined. 6B, it is assumed that the speaker 32 is used as the sound output apparatuses 32a to 32f corresponding to the plurality of sound output units 132. In the virtual space VS, right, left, upper, lower, And six speakers 32 on the rear side are assumed to be used as sound output apparatuses 32a to 32f corresponding to the sound output unit 132. Each of the six sound output apparatuses 32a to 32f is assumed to be 1, (0, 0, 0), (0, 0, 0), (0, 0, 0) Coordinates. 6B, it is assumed that all of the sound output apparatuses 32a to 32f corresponding to the sound output unit 132 are disposed at the outermost of the virtual space VS. However, the present invention is not limited to this, The number of total sound output channels and the position change of the object may be converted into a vector and arranged at an arbitrary position in the virtual space VS according to the virtual studio broadcast editing and transmitting apparatus 100 synchronized with the video and sound signals. However, in order to more realistically impart a stereoscopic effect of the broadcast audio output, the two audio output units 132 are arranged so as to be symmetrical to the x-axis, the y-axis, the z-axis or the origin O in the virtual space VS can do.

제어부(120)의 방송 음성 편집부(122)는 촬영 영상, 촬영 영상에서의 객체(OB) 또는 자료 영상(DV)의 3차원 좌표에 기초하여 복수의 음성 출력부(132) 각각의 출력을 조절할 수 있다. 즉, 방송 음성 편집부(122)는 촬영 영상, 촬영 영상에서의 객체(OB) 또는 자료 영상(DV)의 3차원 좌표 중 x축 좌표에 기초하여 우측 음성 출력부에 대응하는 우측 음성 출력 장치(32a) 및 좌측 음성 출력부에 대응하는 좌측 음성 출력 장치(32b)로 출력되는 방송 음성을 조절하고, 촬영 영상, 촬영 영상에서의 객체(OB) 또는 자료 영상(DV)의 3차원 좌표 중 y축 좌표에 기초하여 상측 음성 출력부에 대응하는 상측 음성 출력 장치(32c) 및 하측 음성 출력부에 대응하는 하측 음성 출력 장치(32d)로 출력되는 방송 음성을 조절하고, 촬영 영상, 촬영 영상에서의 객체(OB) 또는 자료 영상(DV)의 3차원 좌표 중 z축 좌표에 기초하여 전측 음성 출력부에 대응하는 전측 음성 출력 장치(32e) 및 후측 음성 출력부에 대응하는 후측 음성 출력 장치(32f)로 출력되는 방송 음성을 조절할 수 있다. 즉, x축, y축, z축 각각에 대해 서로 대칭되는 위치에 배치되는 음성 출력부(132)에 대응하는 음성 출력 장치(32a 내지 32f)에 대한 방송 음성 출력은 상대적으로 제어될 수 있다. The broadcast audio editing unit 122 of the control unit 120 can adjust the output of each of the plurality of audio output units 132 based on the three-dimensional coordinates of the captured image, the object OB in the captured image, have. That is, the broadcast audio editing unit 122 extracts the right audio output unit 32a (32a) corresponding to the right audio output unit based on the x-axis coordinate of the three-dimensional coordinates of the object (OB) ) And the left audio output device 32b corresponding to the left audio output unit, and adjusts the y-axis coordinate of the three-dimensional coordinates of the object image OB or the data image DV in the photographed image, (32c) corresponding to the upper audio output unit and the lower audio output unit (32d) corresponding to the lower audio output unit are adjusted based on the captured image and the object The front audio output device 32e corresponding to the front audio output unit and the rear audio output device 32f corresponding to the rear audio output unit corresponding to the z-axis coordinate of the three-dimensional coordinates of the object image DV or OB Can adjust the broadcast voice have. That is, the broadcast audio output to the audio output devices 32a to 32f corresponding to the audio output units 132 disposed at positions mutually symmetrical with respect to the x-axis, y-axis, and z-axis can be relatively controlled.

예를 들어, 객체(OB)의 3차원 좌표(Ox, Oy, Oz)가 원점(O)(0, 0, 0)인 경우, 객체(OB)에 대응하는 음성, 즉, 객체(OB)에 대한 녹음 음성이 6개의 음성 출력부(132)에 모두 동일한 크기로 출력될 수 있다. 다만, 객체(OB)가 가상의 공간(VS)에서 최우측에 배치되어 객체(OB)의 3차원 좌표(OP)인 (Ox, Oy, Oz)가 (1, a, a)로 정의되는 경우(-1≤a≤1), 우측 음성 출력 장치(32a)에서는 객체(OB)에 대한 녹음 음성이 최대 출력으로 출력되나 좌측 음성 출력 장치(32b)에서는 객체(OB)에 대한 녹음 음성이 최소 출력으로 출력될 수 있다. 반대로, 객체(OB)가 가상의 공간(VS)에서 최좌측에 배치되어 객체(OB)의 3차원 좌표(OP)인 (Ox, Oy, Oz)가 (-1, a, a)로 정의되는 경우, 우측 음성 출력 장치(32a)에서는 객체(OB)에 대한 녹음 음성이 최소 출력으로 출력되나 좌측 음성 출력 장치(32b)에서는 객체(OB)에 대한 녹음 음성이 최대로 출력될 수 있다. 여기서, 최소 출력은 음소거일 수도 있고, 0보다는 크지만 매우 작은 소정의 값일 수도 있으나, 이하에서는 설명의 편의상 최소 출력이 음소거인 것으로 설명한다. For example, when the three-dimensional coordinates (Ox, Oy, Oz) of the object OB are the origin O (0,0,0), the voice corresponding to the object OB, All of the recorded voice can be output to the six voice output units 132 at the same size. However, when the object OB is disposed on the rightmost side in the virtual space VS and the three-dimensional coordinates OP of the object OB are defined as (1, a, a), which is Ox, Oy, Oz (-1? A? 1). In the right audio output apparatus 32a, the recording voice for the object OB is output as the maximum output. In the left audio output apparatus 32b, Lt; / RTI > Conversely, when the object OB is disposed at the leftmost side in the virtual space VS and the three-dimensional coordinates OP of the object OB are defined as (Ox, Oy, Oz) (-1, a, a) The recording sound for the object OB is outputted as the minimum output in the right audio output device 32a but the recording sound for the object OB is outputted in the left audio output device 32b at the maximum. Here, the minimum output may be a mute or a predetermined value that is larger than 0 but is very small, but hereinafter, the minimum output will be described as mute for convenience of explanation.

또한, 객체(OB)의 3차원 좌표(Ox, Oy, Oz)가 (b, a, a)로 정의되는 경우(-1<b<1), 객체(OB)의 x축 좌표에 따라 상대적으로 우측 음성 출력 장치(32a) 및 좌측 음성 출력 장치(32b)에서의 객체(OB)에 대한 녹음 음성의 출력값이 결정될 수 있다. 예를 들어, b=0.5인 경우, x축 상에서 객체(OB)와 최우측 지점 사이의 거리가 0.5이고, 객체(OB)와 최좌측 지점 사이의 거리가 1.5이므로, 객체(OB)에 대한 녹음 음성의 음량(volume) 중 75%가 우측 음성 출력 장치(32a)로 출력되고, 25%가 좌측 음성 출력 장치(32b)로 출력될 수 있다. 다만, 최소 출력이 0이 아닌 임의의 값인 경우, 최대 출력과 최소 출력간의 값의 차이를 고려하여 객체(OB)에 대한 녹음 음성의 음량에 대한 %비율이 결정될 수도 있다. 상술한 바와 동일한 원리로 객체(OB)의 y축 좌표에 따라 상대적으로 상측 음성 출력 장치(32c) 및 하측 음성 출력 장치(32d)에서의 객체(OB)에 대한 녹음 음성의 출력값이 결정될 수 있고, 객체(OB)의 z축 좌표에 따라 상대적으로 전측 음성 출력 장치(32e) 및 후측 음성 출력 장치(32f)에서의 객체(OB)에 대한 녹음 음성의 출력값이 결정될 수 있다. 객체(OB)의 3차원 좌표(OP)인 (Ox, Oy, Oz) 따른 복수의 음성 출력 부(132)에 대응하는 복수의 음성 출력 장치(32a 내지 32f)의 출력 값은 다음과 같이 정의될 수 있다.In the case where the three-dimensional coordinates (Ox, Oy, Oz) of the object OB are defined as (b, a, a) The output value of the recorded voice for the object OB in the right audio output device 32a and the left audio output device 32b can be determined. For example, if b = 0.5, the distance between the object OB and the rightmost point on the x-axis is 0.5, and the distance between the object OB and the leftmost point is 1.5, 75% of the volume of the voice can be outputted to the right voice output device 32a and 25% can be outputted to the left voice output device 32b. However, if the minimum output is any value other than 0, the percentage of the sound volume of the recording voice with respect to the object OB may be determined in consideration of the difference between the maximum output and the minimum output. The output value of the recorded voice to the object OB in the upper audio output device 32c and the lower audio output device 32d can be relatively determined according to the y-axis coordinate of the object OB with the same principle as described above, The output value of the recorded voice for the object OB in the front side audio output device 32e and the rear side audio output device 32f can be relatively determined in accordance with the z axis coordinate of the object OB. The output values of the plurality of audio output apparatuses 32a to 32f corresponding to the plurality of audio output units 132 according to the three-dimensional coordinates OP (Ox, Oy, Oz) of the object OB are defined as follows .

[수학식 1][Equation 1]

우측 음성 출력 장치(32a)의 객체(OB)에 대한 녹음 음성 출력 = 녹음 음성의 음량*(1 + Ox)/2Recorded voice output to object OB of right audio output device 32a = volume of recorded audio * (1 + Ox) / 2

[수학식 2]&Quot; (2) &quot;

좌측 음성 출력 장치(32b)의 객체(OB)에 대한 녹음 음성 출력 = 녹음 음성의 음량*(1 - Ox)/2Recorded voice output for object OB of left audio output device 32b = Volume of recorded voice * (1 - Ox) / 2

[수학식 3]&Quot; (3) &quot;

상측 음성 출력 장치(32c)의 객체(OB)에 대한 녹음 음성 출력 = 녹음 음성의 음량*(1 + Oy)/2Recorded voice output for object OB of upper audio output device 32c = volume of recorded voice * (1 + Oy) / 2

[수학식 4]&Quot; (4) &quot;

하측 음성 출력 장치(32d)의 객체(OB)에 대한 녹음 음성 출력 = 녹음 음성의 음량*(1 - Oy)/2Recorded voice output for object OB of lower voice output device 32d = volume of recorded voice * (1 - Oy) / 2

[수학식 5]&Quot; (5) &quot;

전측 음성 출력 장치(32e)의 객체(OB)에 대한 녹음 음성 출력 = 녹음 음성의 음량*(1 + Oz)/2(1 + Oz) / 2 (sound volume of the recording voice) of the object OB of the front sound output apparatus 32e =

[수학식 6]&Quot; (6) &quot;

후측 음성 출력 장치(32f)의 객체(OB)에 대한 녹음 음성 출력 = 녹음 음성의 음량*(1 - Oz)/2Recorded voice output for object OB of rear side sound output device 32f = volume of recorded voice * (1 - Oz) / 2

다만, 상술한 예시는 도 6b에 도시된 바와 같이 6개의 음성 출력부(132)가 가상의 공간(VS)에 정의된 경우이며, 음성 출력부(132)의 개수 및 음성 출력부(132)에 대응하는 음성 출력 장치(32a 내지 32f)의 위치가 변경되면, 각각의 위치 및 대칭 관계를 고려하여 녹음 음성 출력 값은 상이하게 정의될 수 있다. 또한, 상술한 예시는 6개의 음성 출력부(132)를 사용하는 경우에서도 하나의 예시일 뿐이며, 다른 방식이 사용될 수도 있다. 예를 들어, 우측 음성 출력 장치(32a)의 객체(OB)에 대한 녹음 음성 출력과 좌측 음성 출력 장치(32b)의 객체(OB)에 대한 녹음 음성 출력의 합, 상측 음성 출력 장치(32c)의 객체(OB)에 대한 녹음 음성 출력과 하측 음성 출력 장치(132d)의 객체(OB)에 대한 녹음 음성 출력의 합 및 전측 음성 출력 장치(32e)의 객체(OB)에 대한 녹음 음성 출력과 후측 음성 출력 장치(32f)의 객체(OB)에 대한 녹음 음성 출력의 합은 항상 동일하며, 모든 음성 출력부(132)의 객체(OB)에 대한 녹음 음성 출력의 합이 녹음 음성의 총 음량인 것으로 정의될 수도 있다.6B, six audio output units 132 are defined in a virtual space VS, and the number of audio output units 132 and the number of audio output units 132 When the positions of the corresponding sound output apparatuses 32a to 32f are changed, the recorded sound output values can be defined differently in consideration of the respective positions and the symmetric relationship. In addition, the above-described example is only one example in the case of using the six audio output units 132, and other methods may be used. For example, the sum of the recording audio output of the object OB of the right audio output device 32a and the recording audio output of the object OB of the left audio output device 32b, The sum of the recording voice output to the object OB and the recording voice output to the object OB of the lower voice output device 132d and the sum of the voice voice output to the object OB of the front voice output device 32e and the voice The sum of the recording voice output to the object OB of the output device 32f is always the same and the sum of the recording voice output to the object OB of all the voice output units 132 is defined as the total volume of the recording voice .

상술한 바와 같은 내용에 기초하여, 객체(OB)에 대한 녹음 음성 출력 값을 설명하면, 객체(OB)의 3차원 좌표(Ox, Oy, Oz)가 (0.5, 0, 0.5)이므로, 우측 음성 출력 장치(32a)는 객체(OB)에 대한 녹음 음성의 음량 중 75%, 좌측 음성 출력부(32b)는 객체(OB)에 대한 녹음 음성의 음량 중 25%, 상측 음성 출력 장치(32c)는 객체(OB)에 대한 녹음 음성의 음량 중 50%, 하측 음성 출력 장치(32d)는 객체(OB)에 대한 녹음 음성의 음량 중 50%, 전측 음성 출력 장치(32e)는 객체(OB)에 대한 녹음 음성의 음량 중 75%, 후측 음성 출력 장치(32f)는 객체(OB)에 대한 녹음 음성의 음량 중 25%를 출력할 수 있다. 또한, 자료 영상(DV1, DV2)에 대한 음성 출력 또한 동일한 원리로 조절될 수 있다.The three-dimensional coordinates (Ox, Oy, Oz) of the object OB are (0.5, 0, 0.5), so that the right voice The output device 32a outputs 75% of the volume of the recording voice to the object OB, the left voice output part 32b to 25% of the volume of the recording voice to the object OB, and the upper voice output device 32c 50% of the volume of the recording voice for the object OB, the lower voice output device 32d is 50% of the volume of the recording voice for the object OB and the front voice output device 32e is for the object OB 75% of the volume of the recording voice and the rear voice output device 32f can output 25% of the volume of the voice to be recorded to the object OB. Also, the audio output for the data images DV1 and DV2 can be adjusted to the same principle.

몇몇 실시예에서, 자료 영상(DV1, DV2)에 대한 방송 음성 출력은 자료 영상(DV1, DV2)의 3차원 좌표(DP1, DP2)와 무관하게 처리될 수도 있다. 예를 들어, 도 5에 도시된 방송 영상(BV)에서 객체(OB)는 아나운서이고, 자료 영상(DV1, DV2)은 아나운서가 전달하는 뉴스를 설명하기 위한 특정 영상일 수도 있다. 이 경우, 아나운서의 멘트가 시청자에게 전달되어야 하는데, 자료 영상(DV1, DV2)의 음성이 출력되는 경우, 시청자가 아나운서의 멘트를 전달받는데 어려움이 있을 수도 있고, 아나운서의 멘트를 이해하는데 도움이 될 수도 있다. 이에, 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)에서는 방송 영상(BV)의 컨텐츠에 기초하여, 즉, 객체(OB)에 대한 녹음 음성과 자료 영상(DV)의 음성 간의 관계 및/또는 촬영 영상과 자료 영상(DV) 간의 관계에 기초하여, 자료 영상(DV)의 음성을 자료 영상(DV)의 3차원 좌표(DP)와 무관하게 음소거시킬 수도 있고, 3차원 좌표(DP)에 기초하여 복수의 음성 출력부(132)로 출력할 수도 있다.In some embodiments, broadcast audio output for the data images DV1 and DV2 may be processed independently of the three-dimensional coordinates DP1 and DP2 of the data images DV1 and DV2. For example, in the broadcast image BV shown in FIG. 5, the object OB may be an announcer, and the data images DV1 and DV2 may be a specific image for explaining news delivered by the announcer. In this case, the announcer's message must be transmitted to the viewer. If the audio of the data DV1 or DV2 is output, it may be difficult for the viewer to receive the announcer's message, and it may be helpful to understand the announcer's message It is possible. Accordingly, in the virtual studio broadcast editing and transmitting apparatus 100 that converts the object position change into a vector and synchronizes the video and sound signals according to an embodiment of the present invention, (DV) of the data image (DV) based on the relationship between the recorded voice for the object image (OB) and the voice of the data image (DV) and / or the relationship between the captured image and the data image It may be mutually exclusive regardless of the coordinates DP, or may be output to the plurality of audio output units 132 based on the three-dimensional coordinates DP.

또한, 몇몇 실시예에서, 자료 영상(DV)의 3차원 좌표 중 z축 좌표 값에 기초하여 자료 영상(DV)에 대한 음성의 음소거 여부를 결정할 수 있다. 예를 들어, 자료 영상(DV)의 3차원 좌표(DP) 중 z축 좌표 값이 임계값 이상인 경우에는 방송 영상(BV)을 편집하는 자의 의도가 자료 영상(DV)의 음성을 시청자에게 전달하는 것일 수 있으므로, 자료 영상(DV)의 3차원 좌표(DP)에 기초하여 자료 영상(DV)의 음성이 복수의 음성 출력부(132)로 출력될 수 있다. 다만, 자료 영상(DV)의 3차원 좌표 중 z축 좌표 값이 임계값 미만인 경우에는, 자료 영상(DV)이 가상의 공간(VS)에서 매우 후측에 위치하고, 자료 영상(DV)의 크기도 매우 작을 것이므로, 방송 영상(BV)을 편집하는 자의 의도가 자료 영상(DV)의 음성을 시청자에게 전달하지 않는 것일 수 있다. 이에, 해당 경우에는 자료 영상(DV)의 음성이 음소거 처리될 수도 있다.Further, in some embodiments, it is possible to determine whether or not to mute the voice for the data base (DV) based on the z-axis coordinate value among the three-dimensional coordinates of the data base (DV). For example, when the z-axis coordinate value among the three-dimensional coordinates DP of the data image DV is equal to or larger than the threshold value, the intention of the person editing the broadcast image BV transmits the voice of the data image DV to the viewer The voice of the data base DV can be output to the plurality of voice output units 132 based on the three-dimensional coordinates DP of the data base DV. However, when the z-axis coordinate value of the three-dimensional coordinates of the data image DV is less than the threshold value, the data image DV is located at the very rear side in the virtual space VS and the data image DV is very large The intention of the person editing the broadcast video BV may not be to deliver the audio of the data video DV to the viewer. In this case, the voice of the data image DV may be muted.

이어서, 방송 편집 과정 중에 촬영 영상, 촬영 영상에서의 객체(OB) 및 자료 영상(DV)이 이동하거나, 화면이 전환되는 경우, 촬영 영상, 촬영 영상에서의 객체(OB) 및 자료 영상(DV)에 부여된 3차원 좌표는 계속해서 변화할 수 있다.When the object OB and the material image DV in the photographed image move or the screen is switched during the broadcasting editing process, the object OB and the material image DV in the photographed image, The three-dimensional coordinates imparted to the object can be continuously changed.

이에, 방송 음성 편집부(122)는 촬영 영상의 이동, 촬영 영상에서의 객체(OB)의 이동 및 자료 영상(DV)의 이동을 나타내는 3차원 좌표의 변화, 즉, 3차원 벡터에 기초하여 방송 음성을 실시간으로 편집한다(S230).Accordingly, the broadcast audio editing unit 122 changes the three-dimensional coordinate indicating the movement of the photographed image, the movement of the object OB in the photographed image, and the movement of the data image DV, that is, Is edited in real time (S230).

방송 음성 편집부(122)는 가상의 공간(VS)에서, 촬영 영상, 촬영 영상에서의 객체(OB) 또는 자료 영상(DV)이 가상의 공간(VS)에서 x축을 따라 이동하면, 복수의 음성 출력부(132) 중 좌우 출력에 대응하는 음성 출력부(132)의 출력을 실시간으로 조절하고, 촬영 영상, 촬영 영상에서의 객체(OB) 또는 자료 영상(DV)이 가상의 공간(VS)에서 y축을 따라 이동하면, 복수의 음성 출력부(132) 중 상하 출력에 대응하는 음성 출력부(132)의 출력을 실시간으로 조절하고, 촬영 영상, 촬영 영상에서의 객체(OB) 또는 자료 영상(DV)이 가상의 공간(VS)에서 z축을 따라 이동하면, 복수의 음성 출력부(132) 중 전후 출력에 대응하는 음성 출력부(132)의 출력을 실시간으로 조절하여, 방송 음성을 실시간으로 편집한다. 이하에서는, 도 6c를 참조하여, 객체(OB)의 이동을 예로 들어 제어부(120)의 방송 음성 편집부(122)가 객체(OB)의 이동에 따른 복수의 음성 출력부(132) 각각에 대한 방송 음성의 출력을 조절하는 과정을 설명하기로 한다.The broadcast audio editing unit 122 can display a plurality of audio output (s) when the photographed image, the object OB or the material image DV in the photographed image moves along the x axis in the virtual space VS in the virtual space VS, The output of the sound output unit 132 corresponding to the right and left outputs of the image pickup unit 132 is adjusted in real time and the object OB or the material image DV in the photographed image is converted into y The output of the audio output unit 132 corresponding to the upper and lower outputs of the plurality of audio output units 132 is adjusted in real time and the object OB or the material image DV in the captured image, When the user moves along the z axis in the virtual space VS, the output of the audio output unit 132 corresponding to the front and rear outputs of the plurality of audio output units 132 is adjusted in real time, and the broadcast audio is edited in real time. Hereinafter, with reference to FIG. 6C, it is assumed that, for example, the movement of the object OB is performed, the broadcast sound editing unit 122 of the control unit 120 broadcasts the object OB to each of the plurality of sound output units 132 A process of controlling the output of voice will be described.

도 6b에 도시된 바와 같이 (0.5, 0, 0.5)의 3차원 좌표(OP)인 (Ox, Oy, Oz)를 가진 객체(OB)가 도 6c에 도시된 바와 같이 (-0.5, 0, 0.5)의 3차원 좌표(OP')인 (Ox', Oy', Oz')를 갖는 위치로 이동한다면, 복수의 음성 출력부(132)로 출력되는 방송 음성의 음량 또한 달라질 수 있다. 객체(OB)의 3차원 좌표 중에서 x축 좌표 만이 0.5에서 -0.5로 변화한 상태이며, 이 경우 제어부(120)의 방송 음성 편집부(122)는 x축의 양 끝에 배치된 음성 출력부에 대응하는 우측 음성 출력 장치(32a) 및 좌측 음성 출력 장치(32b)의 출력을 조절할 수 있다. 이 때, 객체(OB)의 이동을 나타내는 3차원 벡터

Figure 112017093602237-pat00001
)는 점 OP에서 점 OP' 사이의 방향 및 거리를 나타내는 것으로, 점 OP와 점 OP' 사이의 3차원 벡터
Figure 112017093602237-pat00002
)는 점 OP'-점 OP로 (Ox'-Ox, Oy'-Oy, Oz'-Oz), 즉 (-1, 0, 0)이고, 녹음 음성을 녹음하는 마이크(12a)가 객체(OB)에 고정된 상태이므로, 우측 음성 출력 장치(32a)에서의 객체(OB)에 대한 녹음 음성의 출력은 녹음 음성의 음량의 50%가 감소하고, 좌측 음성 출력 장치(32b)에서의 객체(OB)에 대한 녹음 음성의 출력은 녹음 음성의 음량의 50%가 증가할 수 있다. The object OB having (Ox, Oy, Oz) which is the three-dimensional coordinates OP of (0.5, 0, 0.5) as shown in FIG. 6B is obtained as (-0.5, 0, 0.5 (Ox ', Oy', Oz ') of the three-dimensional coordinates (OP') of the audio signals output from the plurality of audio output units 132. Only the x-axis coordinate of the object OB changes from 0.5 to -0.5. In this case, the broadcast audio editing unit 122 of the control unit 120 determines whether or not the audio output unit on the right side The output of the audio output device 32a and the output of the left audio output device 32b can be adjusted. At this time, a three-dimensional vector representing the movement of the object OB
Figure 112017093602237-pat00001
) Represents a direction and a distance between a point OP and a point OP ', and a three-dimensional vector between a point OP and a point OP'
Figure 112017093602237-pat00002
) Is a point OP'- point OP (Ox'-Ox, Oy'-Oy, Oz'-Oz), that is, (-1, 0, 0), and the microphone 12a recording the recording voice is OB The output of the recorded voice to the object OB in the right audio output device 32a is reduced by 50% of the volume of the recorded audio and the output of the object OB in the left audio output device 32b ) May increase the volume of the recorded voice by 50%.

이러한 원리는 모든 음성 출력부(132)에 대응하는 음성 출력 장치(32)에 적용될 수 있고, 이를 수학식으로 정리하면 다음과 같다.This principle can be applied to the sound output apparatus 32 corresponding to all the sound output units 132, which are summarized as follows.

[수학식 7]&Quot; (7) &quot;

우측 음성 출력 장치(32a)의 객체(OB)에 대한 녹음 음성 출력의 변화량 = 녹음 음성의 음량*(Ox'-Ox)/2The change amount of the recorded voice output to the object OB of the right voice output device 32a = the volume of the recorded voice * (Ox'-Ox) / 2

[수학식 8]&Quot; (8) &quot;

좌측 음성 출력 장치(32b)의 객체(OB)에 대한 녹음 음성 출력의 변화량 = 녹음 음성의 음량*(Ox-Ox')/2The change amount of the recorded voice output to the object OB of the left voice output device 32b = the volume of the recorded voice * (Ox-Ox ') / 2

[수학식 9]&Quot; (9) &quot;

상측 음성 출력 장치(32c)의 객체(OB)에 대한 녹음 음성 출력의 변화량 = 녹음 음성의 음량*(Oy'-Oy)/2The amount of change of the recorded voice output to the object OB of the upper voice output device 32c = the volume of the recorded voice * (Oy'-Oy) / 2

[수학식 10]&Quot; (10) &quot;

하측 음성 출력 장치(32d)의 객체(OB)에 대한 녹음 음성 출력의 변화량 = 녹음 음성의 음량*(Oy-Oy')/2(Oy-Oy ') / 2 (amount of change in recording voice output to the object OB of the lower sound output apparatus 32d =

[수학식 11]&Quot; (11) &quot;

전측 음성 출력 장치(32e)의 객체(OB)에 대한 녹음 음성 출력의 변화량 = 녹음 음성의 음량*(Oz'-Oz)/2The amount of change of the recorded voice output to the object OB of the front side audio output device 32e = the volume of the recorded voice * (Oz'-Oz) / 2

[수학식 12]&Quot; (12) &quot;

후측 음성 출력 장치(32f)의 객체(OB)에 대한 녹음 음성 출력의 변화량 = 녹음 음성의 음량*(Oz-Oz')/2(Oz-Oz ') / 2 (amount of change in recording voice output relative to the object OB of the rear side audio output device 32f =

또한, 도 6c를 참조하여 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 제어부(120)의 방송 음성 편집부(122)가 객체(OB)의 x축 이동에 따른 복수의 음성 출력부(132)의 출력을 조절하는 것을 설명하였으나, 객체(OB)만이 아니라 촬영 영상 또는 자료 영상(DV)이 x축, y축 및 z축을 따라 이동할 때 복수의 음성 출력부(132)의 출력이 조절되는 방식도 앞서 설명한 바와 동일할 수 있다.6C, a broadcast audio editing unit (not shown) of the control unit 120 of the virtual studio broadcast editing and transmitting apparatus 100, which converts the object position change into a vector and synchronizes the video and audio signals according to an embodiment of the present invention, 122 have adjusted the outputs of the plurality of audio output units 132 in accordance with the x-axis movement of the object OB, it is also possible that not only the object OB but also the photographed image or the data image DV is displayed on the x- And the manner in which the outputs of the plurality of audio output units 132 are adjusted when moving along the z axis may be the same as described above.

다만, 상술한 예시는 도 6c에 도시된 바와 같이 6개의 음성 출력부(132)가 정의된 경우이며, 음성 출력부(132)의 개수 및 음성 출력부(132)에 대응하는 음성 출력 장치(32a 내지 32f)의 위치가 변경되면, 각각의 위치 및 대칭 관계를 고려하여 녹음 음성 출력의 변화량은 상이하게 정의될 수 있다. 또한, 상술한 예시는 6개의 음성 출력 장치(32a 내지 32f)를 사용하는 경우에서도 하나의 예시일 뿐이며, 다른 방식이 사용될 수도 있다. 예를 들어, 우측 음성 출력 장치(32a)의 객체(OB)에 대한 녹음 음성 출력과 좌측 음성 출력 장치(32b)의 객체(OB)에 대한 녹음 음성 출력의 합, 상측 음성 출력 장치(32c)의 객체(OB)에 대한 녹음 음성 출력과 하측 음성 출력 장치(32d)의 객체(OB)에 대한 녹음 음성 출력의 합 및 전측 음성 출력 장치(32e)의 객체(OB)에 대한 녹음 음성 출력과 후측 음성 출력 장치(32f)의 객체(OB)에 대한 녹음 음성 출력의 합은 항상 동일하며, 모든 음성 출력부(132)에 대응하는 모든 음성 출력 장치(32a 내지 32f)의 객체(OB)에 대한 녹음 음성 출력의 합이 녹음 음성의 총 음량인 것으로 정의될 수도 있다.6C, six audio output units 132 are defined, and the number of the audio output units 132 and the number of the audio output units 32a To 32f are changed, the change amount of the recorded voice output can be defined differently in consideration of the respective positions and the symmetric relationship. In addition, the above-described example is only an example in the case of using the six audio output devices 32a to 32f, and other methods may be used. For example, the sum of the recording audio output of the object OB of the right audio output device 32a and the recording audio output of the object OB of the left audio output device 32b, The recording audio output for the object OB and the sum of the recording audio output for the object OB of the lower audio output device 32d and the sum of the recording audio output for the object OB of the front audio output device 32e and the audio output of the rear audio The sum of the recording voice output to the object OB of the output device 32f is always the same and the sum of the recording voice output to the object OB of all the audio output devices 32a to 32f The sum of the outputs may be defined as the total volume of the recorded voice.

몇몇 실시예에서, 제어부(120)의 방송 음성 편집부(122)는 상술한 바와 같은 가변 가상 카메라와 촬영 영상, 촬영 영상에서의 객체(OB), 및 자료 영상(DV) 각각 간의 상대 좌표를 연산하고, 상대 좌표에 기초하여, 촬영 영상, 객체(OB) 및 자료 영상(DV) 각각에 대한 방송 음성을 실시간으로 편집할 수 있다. 예를 들어, 가변 가상 카메라의 3차원 좌표(Vx, Vy, Vz)와 객체(OB)의 3차원 좌표(Ox, Oy, Oz)의 상대 좌표(Vx-Ox, Vy-Oy, Vz-Oz)가 증감하는 경우, 매 프레임마다 상대 좌표의 증감에 기초하여 복수의 음성 출력부(132)에 대한 음성 출력을 실시간으로 조절할 수도 있다.In some embodiments, the broadcast audio editing unit 122 of the control unit 120 calculates the relative coordinates between the variable virtual camera and the object image (OB) in the photographed image, and the data image (DV) as described above , The broadcasting voice for each of the photographed image, the object OB and the data base DV can be edited in real time based on the relative coordinates. For example, relative coordinates (Vx-Ox, Vy-Oy, Vz-Oz) of the three-dimensional coordinates (Vx, Vy, Vz) of the variable virtual camera and the three- The audio output to the plurality of audio output units 132 may be adjusted in real time based on the increase or decrease of the relative coordinates every frame.

몇몇 실시예에서, 촬영 영상, 촬영 영상에서의 객체(OB) 또는 자료 영상(DV)이 가상의 공간(VS)을 벗어나도록 이동하는 경우, 각각에 대한 음성은 음소거시킬 수 있다. 예를 들어, 촬영 영상에서의 객체(OB)가 일 측으로 이동하여 가상의 공간(VS)을 벗어나는 경우, 방송 영상(BV)에서 객체(OB)가 보이지 않게 된다. 이 경우, 객체(OB)에 대한 음성을 재생할 필요가 없으므로, 객체(OB)에 대한 음성을 음소거할 수 있다. In some embodiments, when an object (OB) or a material image (DV) in a photographed image, a photographed image moves so as to deviate from a virtual space (VS), the voice for each of them can be muted. For example, when the object OB in the photographed image moves to one side and deviates from the virtual space VS, the object OB is not seen in the broadcast image BV. In this case, since it is not necessary to reproduce the voice for the object OB, the voice for the object OB can be muted.

몇몇 실시예에서, 제어부(120)의 방송 음성 편집부(122)는 각각의 음성 출력부(132)의 음량이 조절되는 속도를 객체(OB)의 이동 속도와 동일하도록 조절할 수 있다. 여기서, 객체(OB)의 이동 속도는 매 프레임마다 객체(OB)의 이동을 나타내는 3차원 벡터를 계산하는 방식으로 계산될 수 있고, 매 프레임 마다 음성 출력부(132)의 음량을 조절하는 방식으로 음성 출력부(132)의 음량이 조절되는 속도를 객체(OB)의 이동 속도와 동일하도록 조절할 수 있다.In some embodiments, the broadcast voice editor 122 of the control unit 120 may adjust the rate at which the volume of each voice output unit 132 is adjusted to be equal to the moving speed of the object OB. Here, the moving speed of the object OB can be calculated by calculating a three-dimensional vector representing the movement of the object OB every frame, and the volume of the sound output unit 132 is adjusted every frame The speed at which the volume of the sound output unit 132 is adjusted can be adjusted to be equal to the moving speed of the object OB.

이어서, 영상 출력부(131)는 방송 영상(BV)을 영상 출력 장치로 출력하고, 복수의 음성 출력부(132)는 방송 음성을 복수의 음성 출력 장치(32a 내지 32f)로 출력한다(S300). Subsequently, the video output unit 131 outputs the broadcast video BV to the video output apparatus, and the plurality of audio output units 132 output the broadcast audio to the plurality of audio output apparatuses 32a through 32f (S300) .

본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 제어부(120)는 입력부(110)로부터 사용자의 선택을 입력 받아 주 화면(180)의 GUI 메뉴를 조작하여, 촬영 영상, 촬영 영상에서의 객체(OB) 및 자료 영상(DV)을 가상스튜디오에 합성하고, 각종 효과를 더 할 수 있다. 앞서 설명했던 GUI 메뉴의 각 메뉴들을 조작하여 자막(192), 화면전환, 배경음악 등의 각종 효과를 더하여 방송 영상(BV)으로 편집할 수 있다. 도 3b를 참조하면, 송출 화면(190)을 통해 실제로 편집이 완료되어 방송될 방송 영상(BV)을 확인할 수 있다. 송출 화면(190)에 나타나있듯이, 자막(192), 로고(191) 등이 실제로 적용된 것을 확인할 수 있다. 예를 들어, 주 화면(180)의 PIP 오브젝트 컨트롤(186)을 조작하여 도 3b에 도시된 로고(191)와 같은 이미지를 삽입할 수 도 있고, A/V 프리셋 컨트롤(185)을 조작하여 자막(192)을 삽입할 수도 있다. The control unit 120 of the virtual studio broadcast editing and transmitting apparatus 100 that converts the object position change into a vector and synchronizes the video and sound signals according to an embodiment of the present invention receives the user's selection from the input unit 110 The user can manipulate the GUI menu of the main screen 180 to combine the photographed image, the object OB in the photographed image, and the data image DV into the virtual studio, and add various effects. By manipulating the respective menus of the GUI menu described above, various effects such as the subtitle 192, screen switching, background music, and the like can be added to edit the broadcast video BV. Referring to FIG. 3B, it is possible to confirm a broadcast image BV to be broadcasted and actually edited through the transmission screen 190. As shown in the transmission screen 190, it can be confirmed that the subtitle 192, the logo 191, and the like are actually applied. For example, an image such as the logo 191 shown in FIG. 3B may be inserted by manipulating the PIP object control 186 of the main screen 180, and the A / V preset control 185 may be operated, (192) may be inserted.

이어서, 제어부(120)에서 편집이 완료된 방송 영상(BV) 및 방송 음성을 출력부(130)의 영상 출력부(131) 및 복수의 음성 출력부(132) 통해 TV, 모니터, 전광판, 스피커(32) 등의 다양한 외부 출력 장치로 출력할 수도 있고, 메모리(150)에 저장할 수도 있다.Then, the edited broadcast image BV and the broadcast sound are transmitted from the control unit 120 to the TV, the monitor, the electric sign board, and the speaker 32 through the video output unit 131 and the plurality of audio output units 132 of the output unit 130 ), Or may be stored in the memory 150. [0050]

종래의 방송 편집 및 송출 방법에 있어서, 각 영상에 따라 음성이 자동으로 조절되는 것이 아니고, 영상에 대응하는 음성이 출력되도록 별도의 편집 과정이 필요했고, 이를 위한 비용과 시간 및 추가 인력까지 필요했다. 또한, 영상의 이동이나 화면 전환 등의 타이밍에 맞춰 수동으로 음성 출력을 조절하는 과정에서 영상 및 음성의 재생 타이밍이 부정확한 문제점이 있을 수 있다. In the conventional broadcasting editing and transmission method, a separate editing process is required so that the audio corresponding to the video is output, not the audio being automatically controlled according to each video, and the cost, time, and additional manpower are required . In addition, there is a problem that the reproduction timing of the video and audio is inaccurate in the process of manually adjusting the audio output in accordance with the timing of the image movement or the screen switching.

이에, 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100) 및 이를 이용한 방송 편집 및 송출 방법에서는 촬영된 촬영 영상에서의 객체(OB)의 위치 또는 이동에 따라, 객체(OB)에 대응하는 음성을 실시간으로 그리고 자동으로 조절하므로, 인력, 시간 및 비용을 줄일 수 있다. 또한, 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100) 및 이를 이용한 방송 편집 및 송출 방법에서는 실시간으로 촬영된 촬영 영상에서의 객체(OB)의 위치 또는 이동에 따라, 방송 음성 편집부(122)가 실시간으로 그리고 자동으로 방송 음성을 편집하므로, 수동으로 사람이 직접 방송 음성을 편집하는 경우 보다 정확하게 방송 음성 편집이 가능하다. 즉, 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100) 및 이를 이용한 방송 편집 및 송출 방법에서는 방송 영상(BV)에 따른 방송 음성을 따로 편집 또는 조절하지 않고, 방송 영상(BV)의 편집에 따라 방송 영상(BV)이 변화하는 것에 기초하여 방송 음성의 출력을 실시간으로 자동으로 조절할 수 있으므로, 종래의 방송 영상 및 방송 음성을 수동으로 사람이 직접 편집하는 경우보다 방송 영상(BV) 및 방송 음성 편집을 위한 인력, 시간 및 비용을 절감할 수 있다. 따라서, 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100) 및 이를 이용한 방송 편집 및 송출 방법에서는 방송 영상(BV) 및 방송 음성 편집을 수행하는 방송 운영자에게 높은 자유도를 부여할 수 있고, 보다 신속하고 효율적으로 사용자가 손쉽게 방송 영상(BV) 및 방송 음성을 제작할 수 있다.Accordingly, in the virtual studio broadcast editing and transmitting device 100 in which video and sound signals are synchronized by converting the object position change into a vector according to an embodiment of the present invention, and a broadcast editing and transmitting method using the same, The voice corresponding to the object OB can be adjusted in real time and automatically according to the position or movement of the object OB, thereby reducing manpower, time and cost. Also, in the virtual studio broadcast editing and transmitting device 100 that synchronizes video and sound signals by converting the object position change into a vector according to an embodiment of the present invention, and a broadcasting editing and transmitting method using the same, The broadcast voice editing unit 122 edits the broadcast voice in real time and automatically according to the position or movement of the object OB in the mobile terminal 100. This makes it possible to edit the broadcast voice more accurately when a person manually edits the broadcast voice . That is, in the virtual studio broadcast editing and transmitting apparatus 100 that synchronizes video and sound signals by converting the object position change according to an embodiment of the present invention into a vector, and a broadcast editing and transmission method using the same, The output of the broadcast audio can be automatically adjusted in real time based on the change of the broadcast video BV according to the editing of the broadcast video BV without separately editing or adjusting the broadcast voice according to the broadcast video It is possible to save manpower, time, and cost for editing the broadcast video (BV) and broadcast voice rather than manually editing the voice manually. Accordingly, in the virtual studio broadcast editing and transmitting device 100 that synchronizes video and sound signals by converting object position changes according to an embodiment of the present invention into a vector, and broadcast editing and transmission methods using the same, It is possible to give a high degree of freedom to a broadcasting operator who performs broadcasting voice editing, and a user can easily produce broadcast video (BV) and broadcasting voice more quickly and efficiently.

한편, 방송 영상 시청을 시청하는 시청자가 실제 현장에 있는 것처럼 생동감을 느낄 수 있도록 3D 영상 및 3D 음성을 사용한 방송을 제작하기도 한다. 3D로 음성을 출력하기 위해서는 객체나 영상의 정확한 이동 지점, 이동 속도 등에 맞춰 복수의 음성 출력부 각각에 대한 음성 출력을 조절해야 한다. 그러나, 실시간으로 영상 및 음성을 편집하여 방송 영상으로 제작하는 경우, 영상 또는 객체의 실제 이동 위치나 이동 속도 등을 정확하게 복수의 음성 출력부에 대한 각각의 음성 출력을 개별적으로 조절하여 입체감 있는 3D 음향으로 편집하는 것이 어려운 문제점이 있다. 특히, 상술한 바와 같이, 영상의 이동이나 화면 전환 등의 타이밍에 맞춰 수동으로 음성 출력을 조절하는 과정에서 정확하게 3D 입체 음향을 구현하는 것은 어려움이 있다.On the other hand, broadcasts using 3D video and 3D voice are produced so that viewers watching the broadcast video can feel as if they are in the actual scene. In order to output audio in 3D, the audio output to each of the plurality of audio output units must be adjusted in accordance with the precise moving point and moving speed of the object or the image. However, when video and audio are edited in real time to produce a broadcast image, the actual moving position and the moving speed of the image or object are accurately adjusted so that the audio output of each of the plurality of audio output units is individually adjusted, Which is difficult to edit. Particularly, as described above, it is difficult to realize a 3D stereophonic sound accurately in the process of manually adjusting the audio output in accordance with the timing of the movement of the image or the switching of the screen.

이에, 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100) 및 이를 이용한 방송 편집 및 송출 방법에서는 방송 영상(BV)을 3차원의 가상의 공간(VS)으로 맵핑하고, 방송 영상(BV)을 구성하는 촬영 영상, 촬영 영상에서의 객체(OB) 및 자료 영상(DV)에 3차원 좌표를 부여하고 복수의 음성 출력부(132) 각각에 대한 촬영 영상에 대응하는 녹음 음성, 객체(OB)에 대응하는 음성 및 자료 영상(DV)에 대응하는 음성의 출력을 실시간으로 자동 조절할 수 있다. 예를 들어, 제어부(120)의 방송 음성 편집부(122)가 객체(OB)의 음성에 대하여 복수의 음성 출력부(132)의 출력을 조절하는 경우, 객체(OB)와 가까운 지점의 음성 출력부(132)의 출력을 높이고, 객체(OB)와 먼 지점의 음성 출력부(132)의 출력은 낮추어 방송을 시청하는 시청자가 시청각적 입체감을 느끼도록 할 수 있다. 이처럼, 모든 방송 음성 출력을 조절하는 과정은 방송 영상(BV)에 따라 자동으로 조절되므로, 방송 영상(BV)에 따른 생동감 있는 3D 음성이 자동으로 출력되도록 할 수 있고, 사람이 수작업으로 방송 음성의 출력을 편집하는 경우에 비해 보다 정확하고 빠르게 음향 입체감을 전달할 수 있다. Accordingly, in the virtual studio broadcast editing and transmitting apparatus 100 that synchronizes video and sound signals by converting object position changes according to an embodiment of the present invention into a vector, and a broadcast editing and transmission method using the virtual studio broadcast editing and transmitting apparatus 100, Dimensional virtual space VS and assigns three-dimensional coordinates to the object image OB and the material image DV in the photographed image constituting the broadcast image BV, the photographed image, The voice corresponding to the object OB and the voice corresponding to the data image DV can be automatically adjusted in real time. For example, when the broadcast sound editing unit 122 of the control unit 120 adjusts the output of the plurality of sound output units 132 with respect to the sound of the object OB, It is possible to increase the output of the object 132 and lower the output of the audio output unit 132 far from the object OB so that the viewer who watches the broadcast can feel the audiovisual stereoscopic effect. As described above, since the process of adjusting all the broadcast audio outputs is automatically adjusted according to the broadcast video BV, it is possible to automatically output a 3D voice with a lively feeling according to the broadcast video BV, Compared to editing the output, it is possible to transmit the sound sense more accurately and quickly.

한편, 영화 등과 같이 촬영된 영상과 녹음된 음성을 미리 편집하고, 편집이 완료된 영상과 음성을 시청자에게 단순히 재생하는 경우에는, 극장의 스피커 위치, 출력, 종류에 기초하여 영화 제작자가 각각의 스피커에 대한 출력을 사전에 직접 조작하여 저장하고, 저장된 음성에 대한 정보를 스피커로 전달하여 입체감 있는 음성이 출력될 수도 있다. 그러나, 영화 등과 같이 재생 이전에 사전에 영상 및 음성을 편집하는 경우에는 영화 상에서 객체가 어떠한 경로로 이동할지 예측이 되고, 예측되는 경로에 따라 객체에 대한 음향을 조절하기만 하면 되므로, 그에 따른 3D 음향의 편집도 용이하다. 그러나, 실시간 방송 편집 및 송출 시에는, 촬영 영상 내에 위치하는 객체가 어느 방향으로 어느 위치로 이동하는지를 미리 예측할 수 없으며, 실시간으로 자료 영상 등을 예정에 없는 위치 및 방향으로 이동시켜야 하는 경우가 존재한다. 따라서, 영화 등과 같은 매체와는 상이하게 실시간으로 방송을 송출하는 경우 방송 영상에 대응하는 방송 음성을 객체의 이동이나 자료 영상의 이동에 대응하여 3D 음향으로 편집하는 것이 어려운 문제점이 있다. On the other hand, when a video and a recorded voice such as a movie are edited in advance and the edited video and audio are simply reproduced to viewers, And the information about the stored voice is transmitted to the speaker so that a three-dimensional voice can be output. However, in the case of editing video and audio in advance before reproduction such as a movie, it is predicted how the object will move on the movie, and only the sound for the object is adjusted according to the predicted path, Sound editing is also easy. However, at the time of real-time broadcast editing and transmission, there is a case where it is not possible to predict in advance which position the object positioned in the photographed image will move to and in which position the object image or the like is moved in a non-scheduled position and direction . Accordingly, when broadcast is transmitted in real time different from a medium such as a movie, it is difficult to edit the broadcast audio corresponding to the broadcast image into 3D sound corresponding to movement of the object or movement of the data image.

이에, 본 발명의 일 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)와 이를 이용한 방송 편집 및 송출 방법에서는 객체(OB)의 이동 방향 및 이동 속도, 즉 3차원 벡터를 검출하여 복수의 음성 출력부(132)에 대한 각각의 음성 출력을 자동으로 조절하여 입체감 있는 3D 음향을 출력할 수 있다. 앞서 설명했듯이, 제어부(120)의 방송 음성 편집부(122)는 촬영 영상의 이동, 촬영 영상에서의 객체(OB)의 이동 및 자료 영상(DV)의 이동을 나타내는 3차원 벡터에 기초하여 촬영 영상, 촬영 영상에서의 객체(OB) 및 자료 영상(DV)이 이동하더라도 복수의 음성 출력부(132)의 출력을 조절하여 시청자가 생동감을 느끼도록 할 수 있다. 객체(OB)의 이동 방향 및 이동 속도가 예측되지 않는 돌발 상황이라도 제어부(120)가 객체(OB)의 이동 방향 및 이동 속도를 자동으로 검출하고 복수의 음성 출력부(132) 각각에 대한 방송 음성 출력을 조절하여 시청자로부터 방송 영상(BV)을 시청하며 시청각적 입체감을 느낄 수 있게 한다.Accordingly, in the virtual studio broadcast editing and transmitting device 100 that synchronizes video and sound signals by converting the object position change into a vector according to an embodiment of the present invention, and a broadcasting editing and transmitting method using the same, Directional and moving speeds, that is, a three-dimensional vector, can be detected, and the sound output of each of the plurality of sound output units 132 can be automatically adjusted to output a three-dimensional 3D sound. As described above, the broadcast audio editing unit 122 of the control unit 120 extracts the photographed image based on the three-dimensional vector indicating the movement of the photographed image, the movement of the object OB in the photographed image, and the movement of the data image DV, The output of the plurality of audio output units 132 can be adjusted so that the viewer can feel the vividness even if the object OB and the data base DV in the photographed image move. The control unit 120 automatically detects the moving direction and the moving speed of the object OB even when the moving direction of the object OB and the moving speed of the object OB are not predicted, The output is adjusted so that the viewer can view the broadcast video (BV) and feel the audiovisual stereoscopic effect.

도 7은 본 발명의 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에서 촬영 장소에서 복수의 위치에 고정된 복수의 음성 입력 장치로부터 녹음 음성을 녹음하는 경우를 설명하기 위한 개략도이다. 도 7에서는 도 5에서 설명된 음성 입력 장치(12) 중 복수의 음성 입력 장치(12b)가 고정된 위치에 배치되는 경우를 가정하였다. FIG. 7 is a diagram illustrating a virtual studio broadcast editing and transmitting device in which video and sound signals are synchronized by converting object position changes into vectors according to another embodiment of the present invention, and in a broadcasting editing and transmitting method using the same, FIG. 1 is a schematic view for explaining a case where a recording voice is recorded from a plurality of voice input devices. In FIG. 7, it is assumed that a plurality of audio input devices 12b among the audio input devices 12 described in FIG. 5 are disposed at fixed positions.

도 7을 참조하면, 본 발명의 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 입력부(110)의 음성 입력부는 촬영 영상이 촬영되는 촬영 장소에서 복수의 위치에 고정된 복수의 음성 입력 장치(12b)로부터 복수의 녹음 음성을 실시간으로 수신한다.7, the voice input unit of the input unit 110 of the virtual studio broadcast editing and transmitting apparatus 100, which converts the object position change into a vector and synchronizes the video and sound signals according to another embodiment of the present invention, In real time, a plurality of recorded voices from a plurality of audio input devices (12b) fixed at a plurality of positions at a photographed position.

제어부(120)의 방송 영상 편집부(121)는 복수의 음성 입력 장치(12b1 내지 12b8)에 대해 가상의 공간(VS)에서의 3차원 좌표를 부여한다. 예를 들어, 도 7에서는 복수의 음성 입력 장치(12b1 내지 12b8)로 마이크(12)가 사용되는 것으로 가정하였고, 가상의 공간(VS)의 각 꼭지점에 복수의 음성 입력 장치가 배치되는 것을 가정하였다. 이에, 제1 음성 입력 장치(12b1)는 (-1, -1, 1), 제2 음성 입력 장치(12b2)는 (-1, -1, -1), 제3 음성 입력 장치(12b3)는 (1, -1, -1), 제4 음성 입력 장치는 (1, -1, 1), 제5 음성 입력 장치는 (-1, 1, 1), 제6 음성 입력 장치는 (-1, 1, -1), 제7 음성 입력 장치는 (1, 1, -1), 제 8 음성 입력 장치는 (1, 1, 1)의 3차원 좌표를 갖는 것으로 가정하였다. 도 7에 도시된 복수의 음성 입력 장치(12b1 내지 12b8)의 개수 및 복수의 음성 입력 장치(12b1 내지 12b8)가 고정되는 복수의 위치는 설명의 편의를 위한 것으로 복수의 음성 입력 장치(12b1 내지 12b8)의 개수 및 고정되는 위치는 이에 제한되지 않는다.The broadcast image editing unit 121 of the control unit 120 gives three-dimensional coordinates in a virtual space VS to the plurality of audio input devices 12b1 to 12b8. For example, in FIG. 7, it is assumed that the microphone 12 is used as the plurality of voice input devices 12b1 to 12b8, and that a plurality of voice input devices are disposed at each vertex of the virtual space VS . Accordingly, the first audio input device 12b1 is (-1, -1, 1), the second audio input device 12b2 is (-1, -1, -1), the third audio input device 12b3 is -1, -1), the fourth audio input device is (1, -1, 1), the fifth audio input device is (-1, 1, 1) 1, -1), the seventh sound input device has (1, 1, -1), and the eighth sound input device has three-dimensional coordinates of (1, 1, 1). The number of the plurality of audio input devices 12b1 to 12b8 and the plurality of positions to which the plurality of audio input devices 12b1 to 12b8 are fixed shown in Fig. 7 are for convenience of description, and the plurality of audio input devices 12b1 to 12b8 ) And the position where they are fixed are not limited thereto.

방송 영상 편집부(121)는 복수의 음성 입력 장치(12b1 내지 12b8)로부터 수신된 복수의 녹음 음성의 실시간 변화에 기초하여 가상의 공간(VS)에서 객체(OB)의 3차원 좌표를 검출할 수 있다. 구체적으로, 입력부(110)의 음성 입력부는 촬영 장소에서 복수의 위치에 고정된 복수의 음성 입력 장치(12b1 내지 12b8)로부터 객체(OB)에 대응하는 복수의 녹음 음성을 실시간으로 수신할 수 있다. 그리고, 제어부(120)의 방송 영상 편집부(121)는 각 음성 입력 장치(12b)에 수신되는 객체(OB)의 녹음 음성의 음량을 통해 객체(OB)의 3차원 좌표를 검출할 수 있다. 예를 들어, 복수의 음성 입력 장치(12b1 내지 12b8)에 수신된 복수의 녹음 음성의 크기가 모두 동일하면, 객체(OB)와 복수의 음성 입력 장치(12b1 내지 12b8) 각각의 거리가 모두 객체(OB)가 동일한 것으로, 객체(OB)의 3차원 좌표가 원점(O)임을 검출할 수 있다. 이처럼, 복수의 음성 입력 장치(12b1 내지 12b8) 각각에 수신된 객체(OB)의 녹음 음성의 크기를 비교하여, 객체(OB)가 가까이 있을수록 녹음 음성의 크기가 크고, 객체(OB)가 멀리 있을수록 녹음 음성의 크기가 작은 점을 이용하여, 각각의 음성 입력 장치(12b)에 수신된 녹음 음성 크기에 기초하여 객체(OB)의 3차원 좌표를 검출할 수 있다. 이때, 제어부(120)는 실시간으로 녹음되는 복수의 녹음 음성의 크기에 기초하여 객체(OB)의 3차원 위치를 직접 계산할 수도 있다. 또한, 메모리(150)에 객체(OB)의 특정 위치에 따른 복수의 음성 입력 장치(12b1 내지 12b8) 각각에 수신되는 객체(OB)의 녹음 음성의 크기 또는 비율을 룩업테이블 형태로 미리 저장해두고, 제어부(120)는 복수의 음성 입력 장치(12b1 내지 12b8)에 수신되는 녹음 음성에 기초하여 룩업테이블을 검색하여 객체(OB)의 3차원 좌표를 검출할 수도 있다. 다만, 이에 제한되지 않고, 객체(OB)의 3차원 좌표는 다른 방식으로 검출될 수도 있다.The broadcast image editing unit 121 can detect the three-dimensional coordinates of the object OB in the virtual space VS based on the real-time change of the plurality of recorded sounds received from the plurality of sound input devices 12b1 to 12b8 . Specifically, the audio input unit of the input unit 110 can receive a plurality of recorded audio corresponding to the object OB in real time from the plurality of audio input devices 12b1 to 12b8 fixed at a plurality of positions at the shooting location. The broadcast image editing unit 121 of the control unit 120 can detect the three-dimensional coordinates of the object OB through the volume of the recorded voice of the object OB received by each of the voice input devices 12b. For example, if the sizes of the plurality of recorded sounds received by the plurality of sound input devices 12b1 to 12b8 are all the same, the distances between the object OB and the plurality of sound input devices 12b1 to 12b8 are all the objects OB) are the same, it is possible to detect that the three-dimensional coordinate of the object OB is the origin O. As described above, the size of the recorded voice of the received object OB is compared with each of the plurality of voice input devices 12b1 to 12b8, and the closer the object OB is, the larger the recorded voice is, The three-dimensional coordinates of the object OB can be detected on the basis of the recorded voice size received by each of the voice input devices 12b by using a point having a small recording voice size. At this time, the controller 120 may directly calculate the three-dimensional position of the object OB based on the sizes of the plurality of recorded voice recorded in real time. The sizes and ratios of the voice of the object OB received in each of the plurality of voice input devices 12b1 to 12b8 according to the specific position of the object OB are stored in advance in the memory 150 in the form of a lookup table, The control unit 120 may detect the three-dimensional coordinates of the object OB by searching the lookup table based on the recorded voice received by the plurality of voice input devices 12b1 to 12b8. However, the present invention is not limited to this, and the three-dimensional coordinates of the object OB may be detected in other manners.

도 7을 참조하면, 제어부(120)의 방송 영상 편집부(121)는 제1 음성 입력 장치(12b1) 내지 제8 음성 입력 장치(12b8)에 수신되는 객체(OB)의 녹음 음성에 기초하여 객체(OB)의 3차원 좌표를 검출할 수 있다. 객체(OB)의 초기 위치(OP)에 따르면, 제4 음성 입력 장치(12b4) 및 제8 음성 입력 장치(12b8)에 수신된 녹음 음성의 크기는 동일하고, 복수의 음성 입력 장치(12b1 내지 12b8) 중 수신된 녹음 음성의 크기가 제일 클 수 있다. 그리고, 제1 음성 입력 장치(12b1), 제3 음성 입력 장치(12b3), 제5 음성 입력 장치(12b5) 및 제7 음성 입력 장치(12b7)에 수신된 녹음 음성의 크기는 동일하고, 제4 음성 입력 장치(12b4) 및 제8 음성 입력 장치(12b8)에 수신된 녹음 음성의 크기보다는 작을 수 있다. 그리고, 제2 음성 입력 장치(12b2) 및 제6 음성 입력 장치(12b6)에 수신된 녹음 음성의 크기는 동일하고, 나머지 복수의 음성 입력 장치(12b1 내지 12b8)에 수신된 녹음 음성의 크기 중 제일 작을 수 있다. 이때, 객체(OB)의 x축 좌표는 x축의 양측에 대칭되도록 배치되어 있는 제5 음성 입력 장치(12b5)와 제8 음성 입력 장치(12b8), 제6 음성 입력 장치(12b6)와 제7 음성 입력장치(12b7), 제1 음성 입력 장치(12b1)와 제4 음성 입력 장치(12b4) 또는 제2 음성 입력 장치(12b2)와 제3 음성 입력 장치(12b3)에 수신된 녹음 음성의 크기의 비율로부터 객체(OB)의 x축 좌표를 검출할 수 있다. 객체(OB)의 y축 좌표 및 z축 좌표 또한 상술한 바와 같이 각 좌표 축의 양측에 대칭되도록 배치된 음성 입력 장치(12b)에 수신된 녹음 음성의 크기의 비율을 계산하는 방식으로 초기 위치에서의 객체(OB)의 3차원 좌표(OP)를 검출할 수 있다. 7, the broadcast image editing unit 121 of the control unit 120 edits an object (e.g., a music file) based on the recorded voice of the object OB received by the first audio input device 12b1 to the eighth audio input device 12b8 OB) can be detected. According to the initial position OP of the object OB, the magnitudes of the recorded voice received by the fourth voice input device 12b4 and the eighth voice input device 12b8 are the same, and the plurality of voice input devices 12b1 to 12b8 The size of the received recording voice may be the largest. The sizes of the recording sounds received by the first audio input device 12b1, the third audio input device 12b3, the fifth audio input device 12b5, and the seventh audio input device 12b7 are the same, May be smaller than the size of the recording voice received by the voice input device 12b4 and the eighth voice input device 12b8. The size of the recording voice received by the second audio input device 12b2 and the sixth audio input device 12b6 is the same and the size of the recording voice received by the remaining plurality of audio input devices 12b1 to 12b8 is the same Can be small. At this time, the x-axis coordinates of the object OB are the fifth audio input device 12b5 and the eighth audio input device 12b8, the sixth audio input device 12b6, and the seventh audio input device 12b6 arranged symmetrically on both sides of the x- The ratio of the size of the recording voice received in the input device 12b7, the first audio input device 12b1 and the fourth audio input device 12b4 or the second audio input device 12b2 and the third audio input device 12b3 Axis coordinate of the object OB can be detected from the x-axis coordinate of the object OB. The y-axis coordinate and the z-axis coordinate of the object OB are also calculated in such a manner that the ratio of the size of the recording voice received to the voice input device 12b arranged symmetrically on both sides of each coordinate axis as described above The three-dimensional coordinates OP of the object OB can be detected.

한편, 가상의 공간(VS)에서 객체(OB)가 이동하는 경우, 제어부(120)의 방송 영상 편집부(121)가 객체(OB)의 이동에 따른 3차원 좌표의 변화를 나타내는 3차원 벡터를 검출할 수 있다. 도 7을 참조하면, 방송 영상 편집부(121)는 객체(OB)의 이동 위치를 먼저 검출할 수 있다. 즉, 객체(OB)가 초기 위치에서 x축에 평행하게, x축 좌표가 감소하는 방향으로 이동하였으므로, 방송 영상 편집부(121)는 객체(OB)의 이동 위치의 좌표(OP')를 검출할 수 있다. 이때, 객체(OB)의 이동 3차원 좌표(OP')를 검출하는 과정은 앞서 설명한 초기 위치에서의 객체(OB)의 3차원 좌표(OP)를 검출하는 과정과 실질적으로 동일하므로 중복 설명을 생략한다. 제어부(120)의 방송 영상 편집부(121)는 객체(OB)의 이동 3차원 좌표(OP')를 검출하면 객체(OB)의 초기 3차원 좌표(OP)와 비교하여 객체(OB)의 이동을 나타내는 3차원 벡터

Figure 112017093602237-pat00003
를 검출할 수 있다.On the other hand, when the object OB moves in the virtual space VS, the broadcast image editing unit 121 of the control unit 120 detects a three-dimensional vector indicating a change in three-dimensional coordinates according to the movement of the object OB can do. Referring to FIG. 7, the broadcast image editing unit 121 can detect the moving position of the object OB first. That is, since the object OB has moved in the direction of decreasing the x-axis coordinate in parallel with the x-axis at the initial position, the broadcast image editing unit 121 detects the coordinates OP 'of the moving position of the object OB . At this time, the process of detecting the moving three-dimensional coordinates OP 'of the object OB is substantially the same as the process of detecting the three-dimensional coordinates OP of the object OB at the initial position described above, do. The broadcast image editing unit 121 of the control unit 120 compares the three-dimensional coordinates OP of the object OB with the initial three-dimensional coordinates OP of the object OB to detect the movement of the object OB 3D vector representing
Figure 112017093602237-pat00003
Can be detected.

제어부(120)의 방송 영상 편집부(121)가 가상의 공간(VS)에서 객체(OB)의 이동에 따른 3차원 좌표의 변화를 나타내는 3차원 벡터

Figure 112017093602237-pat00004
를 검출하면, 제어부(120)의 방송 음성 편집부(122)는 객체(OB)의 이동에 따른 가상의 공간(VS)에서 객체(OB)의 3차원 좌표의 변화, 즉 3차원 벡터
Figure 112017093602237-pat00005
에 기초하여 녹음 음성을 복수의 음성 출력부(132) 각각으로 출력할 수 있다. 이는 앞서 도 6c를 참조하여 설명한 제어부(120)의 방송 음성 편집부(122)가 객체(OB)의 이동에 따른 복수의 음성 출력부(132) 각각에 대한 방송 음성의 출력을 조절하는 과정을 실질적으로 동일하므로 중복 설명을 생략한다. The broadcast image editing unit 121 of the control unit 120 displays a three-dimensional vector representing the change of the three-dimensional coordinate according to the movement of the object OB in the virtual space VS
Figure 112017093602237-pat00004
The broadcast audio editing unit 122 of the control unit 120 changes the three-dimensional coordinates of the object OB in the virtual space VS according to the movement of the object OB, that is,
Figure 112017093602237-pat00005
And outputs the recorded voice to each of the plurality of voice output units 132. [ This is because the broadcast voice editing unit 122 of the control unit 120 described above with reference to FIG. 6C controls the output of the broadcast voice to each of the plurality of voice output units 132 according to the movement of the object OB, So duplicate description is omitted.

본 발명의 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)와 이를 이용한 방송 편집 및 송출 방법에서 제어부(120)는 촬영 장소에서 복수의 위치에 고정된 복수의 음성 입력 장치(12b1 내지 12b8)에 수신된 객체(OB)의 음성의 크기에 기초하여 가상의 공간(VS)에서 객체(OB)의 3차원 좌표(OP) 및 객체(OB)의 이동에 따른 3차원 좌표의 변화를 검출하고, 객체(OB)의 3차원 좌표(OP)의 변화에 기초하여 복수의 음성 출력부(132) 각각에 대한 방송 음성을 실시간으로 조절할 수 있다. 따라서, 본 발명의 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100) 및 이를 이용한 방송 편집 및 송출 방법에서는 객체(OB)의 이동이 예측 불가능한 상황이라도 복수의 음성 입력 장치(12b1 내지 12b8)에 수신된 객체(OB)의 녹음 음성의 크기를 이용해서 객체(OB)의 정확한 3차원 좌표(OP) 및 객체(OB)의 이동에 대한 3차원 벡터를 검출할 수 있어, 객체(OB)의 이동에 따른 생동감 있는 3D 음성이 자동으로 실시간 출력되도록 할 수 있다.In the virtual studio broadcast editing and transmitting device 100 and the broadcast editing and transmitting method using the virtual studio broadcast editing and transmitting device 100, which synchronizes the video and sound signals by converting the object position change according to another embodiment of the present invention into a vector, The three-dimensional coordinates OP of the object OB and the object ID of the object OB in the virtual space VS are calculated based on the size of the voice of the object OB received in the plurality of voice input devices 12b1 to 12b8 fixed at the plurality of positions. Dimensional coordinates in accordance with the movement of the object OB and to adjust the broadcast speech for each of the plurality of audio output units 132 in real time based on the change of the three-dimensional coordinates OP of the object OB have. Accordingly, in the virtual studio broadcast editing and transmitting apparatus 100 that synchronizes video and sound signals by converting the object position change according to another embodiment of the present invention into a vector and a broadcasting editing and transmitting method using the same, Dimensional coordinates (OP) of the object OB and the object OB using the size of the recorded voice of the object OB received by the plurality of audio input devices 12b1 to 12b8 even in this unpredictable situation Dimensional vector of the object OB can be detected, and a 3D voice with a lively feeling according to the movement of the object OB can be automatically output in real time.

도 8a는 본 발명의 또 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에서 제어부가, 촬영 영상 및 자료 영상을 가상스튜디오에 합성하여 편집한 방송 영상의 한 장면이다. 도 8b는 도 8a의 방송 영상을 3차원의 가상의 공간으로 맵핑한 모습을 도시한 도면이다. 도 8c는 도 8a의 방송 영상에서 자료 영상이 이동한 모습을 도시한 도면이다. 도 8d는 도 8c의 방송 영상을 3차원의 가상의 공간으로 맵핑한 모습을 도시한 도면이다. FIG. 8A is a diagram illustrating a virtual studio broadcast editing and transmitting apparatus for synchronizing video and sound signals by converting object position changes into vectors according to another embodiment of the present invention, and a broadcasting editing and transmitting method using the same. It is a scene of broadcast video edited by synthesizing video in virtual studio. FIG. 8B is a diagram showing a mapping of the broadcast image of FIG. 8A into a three-dimensional virtual space. 8C is a view showing a moving image of the data image in the broadcast image of FIG. 8A. FIG. 8D is a diagram showing a state in which the broadcast image of FIG. 8C is mapped into a three-dimensional virtual space.

먼저 도 8a 및 도 8b를 참조하면, 본 발명의 또 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 제어부(120)의 방송 음성 편집부(122)는 방송 영상(BV)을 맵핑한 가상의 공간(VS)에서 촬영 영상 또는 자료 영상(DV)의 3차원 좌표에 기초하여 복수의 음성 출력부(132) 각각에 대한 방송 음성을 조절할 수 있다.Referring to FIGS. 8A and 8B, the control unit 120 of the virtual studio broadcast editing and transmitting apparatus 100, which synchronizes video and audio signals by converting the object position change into a vector according to another embodiment of the present invention, The broadcast audio editing unit 122 edits the broadcast audio data of each of the plurality of audio output units 132 based on the three-dimensional coordinates of the photographed image or the data image DV in a virtual space (VS) Can be adjusted.

도 8a를 참조하면, 방송 영상(BV)은 촬영 영상에서의 객체(OB)와 자료 영상(DV)으로 구성되어 있으며, 도 8b를 참조하면, 도 8a의 방송 영상(BV)을 3차원의 가상의 공간(VS)에 맵핑 하였을 때, 촬영 영상에서의 객체(OB)와 자료 영상(DV)의 위치가 3차원 좌표로 표현될 수 있다. 도 8b에서는, 촬영 영상에서의 객체(OB)의 3차원 좌표(OP)는 (Ox, Oy, Oz)이고, 자료 영상(DV)의 초기 3차원 좌표(DP)는 (Dx, Dy, Dz)인 것으로 가정하였다. 도 8c를 참조하면, 도 8a의 방송 영상(BV)에서 자료 영상(DV)이 뒤로 이동하였고, 도 8d를 참조하면, 도 8c의 방송 영상(BV)을 3차원의 가상의 공간(VS)에 맵핑하였을 때, 촬영 영상에서의 객체(OB)와 자료 영상(DV)의 위치가 3차원 좌표로 표현될 수 있다. 한편, 도 8c에서는 자료 영상(DV)이 뒤로 가는 것, 다시 말해서 z축과 평행을 유지하며 z축 좌표가 감소하는 방향으로 이동하는 것을 가정하였다.Referring to FIG. 8A, a broadcast image BV is composed of an object OB and a data image DV in a photographed image. Referring to FIG. 8B, the broadcast image BV of FIG. The position of the object OB and the data image DV in the photographed image can be expressed in three-dimensional coordinates. 8B, the three-dimensional coordinates OP of the object OB in the photographed image are (Ox, Oy, Oz), the initial three-dimensional coordinates DP of the data image DV are (Dx, Dy, Dz) . Referring to FIG. 8C, the data image DV is moved backward in the broadcast image BV of FIG. 8A. Referring to FIG. 8D, the broadcast image BV of FIG. 8C is transformed into a three- When mapping, the positions of the object OB and the data image DV in the photographed image can be expressed in three-dimensional coordinates. On the other hand, in FIG. 8C, it is assumed that the data image DV moves backward, that is, it moves parallel to the z-axis and moves in the direction of decreasing the z-axis coordinate.

도 8a 내지 도 8d를 참조하면, 객체(OB)는 이동하지 않고 고정되므로, 객체(OB)의 3차원 좌표(OP) 또한 (Ox, Oy, Oz)로 동일할 수 있고, 자료 영상(DV)은 객체(OB)와 멀어지는 방향으로 이동하였으므로, 자료 영상(DV)의 3차원 좌표(DP, DP') 또한 (Dx, Dy, Dz)에서 (Dx', Dy', Dz')으로 변화한 것을 검출할 수 있다. 제어부(120)의 방송 음성 편집부(122)는 자료 영상(DV)의 이동에 따른 가상의 공간(VS)에서 자료 영상(DV)의 3차원 좌표(DP)와 3차원 벡터에 기초하여 자료 영상(DV)에 대응하는 음성을 복수의 음성 출력부(132) 각각으로 출력할 수 있다. 이는 앞서 도 6c를 참조하여 설명한 제어부(120)의 방송 음성 편집부(122)가 객체(OB)의 이동에 따른 복수의 음성 출력부(132) 각각에 대한 방송 음성의 출력을 조절하는 과정을 실질적으로 동일하므로 중복 설명을 생략한다. 8A to 8D, since the object OB is fixed without moving, the three-dimensional coordinates OP of the object OB can also be the same as (Ox, Oy, Oz) Dimensional coordinates DP and DP 'of the data image DV are also changed from (Dx, Dy, Dz) to (Dx', Dy ', Dz') because they have shifted away from the object OB Can be detected. The broadcast voice editing unit 122 of the control unit 120 may extract the data image DV based on the three-dimensional coordinates DP of the data base DV and the three-dimensional vector in the virtual space VS according to the movement of the data base DV. DV) to each of the plurality of audio output units 132. [0052] FIG. This is because the broadcast voice editing unit 122 of the control unit 120 described above with reference to FIG. 6C controls the output of the broadcast voice to each of the plurality of voice output units 132 according to the movement of the object OB, So duplicate description is omitted.

한편, 앞서 설명했듯이 몇몇 실시예에서, 자료 영상(DV)의 3차원 좌표(DP) 중 z축 좌표 값에 기초하여 자료 영상(DV)에 대한 음소거 여부를 결정할 수 있다. 자료 영상(DV)의 3차원 좌표(DP) 중 z축 좌표 값이 임계값 미만인 경우, 자료 영상(DV)이 가상의 공간(VS) 후측에 위치하고, 자료 영상(DV)의 크기 또한 매우 작으므로, 자료 영상(DV)에 대응하는 음성을 시청자에게 전달하지 않도록 음소거될 수 있다. 그렇기 때문에, 도 8a 내지 도 8d에 도시된 바와 같이, 자료 영상(DV)이 z축을 따라 z축 좌표가 감소하는 방향으로 이동하여 특정 z축 좌표 값보다 자료 영상(DV)의 z축 좌표 값이 작아지게 되면, 자료 영상(DV)에 대응하는 음성이 출력되지 않고 음소거될 수 있다. Meanwhile, as described above, in some embodiments, it is possible to determine whether or not the data image DV is muted based on the z-axis coordinate value among the three-dimensional coordinates DP of the data image DV. If the z axis coordinate value of the three dimensional coordinates (DP) of the data image (DV) is less than the threshold value, the data image (DV) is located at the rear side of the virtual space (VS) , And may be muted so as not to deliver the audio corresponding to the data base DV to the viewer. Therefore, as shown in FIGS. 8A to 8D, the data image DV moves in a direction in which the z-axis coordinate decreases along the z-axis, so that the z-axis coordinate value of the data image DV is smaller than the specific z- The audio corresponding to the data video DV can be muted without being outputted.

본 발명의 또 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)와 이를 이용한 방송 편집 및 송출 방법에서 제어부(120)는, 방송 영상(BV)에서의 자료 영상(DV)이 이동하는 경우, 가상의 공간(VS)에서 자료 영상(DV)의 3차원 좌표(DP)와 3차원 좌표의 변화, 즉 3차원 벡터를 검출하고, 제어부(120)의 방송 음성 편집부(122)는 자료 영상(DV)의 3차원 좌표의 변화에 기초하여 복수의 음성 출력부(132) 각각에 대한 방송 음성을 실시간으로 조절할 수 있다. In the virtual studio broadcast editing and transmitting device 100, which synchronizes video and sound signals by converting object position changes according to another embodiment of the present invention into a vector, and a broadcast editing and transmitting method using the same, When the data image DV in the image BV moves, the three-dimensional coordinate DP of the data image DV and the change of the three-dimensional coordinate, that is, the three-dimensional vector, are detected in the virtual space VS, The broadcast audio editing unit 122 of the control unit 120 can adjust the broadcast audio for each of the plurality of audio output units 132 in real time based on the change of the three-dimensional coordinates of the data image DV.

한편, 상술한 바와 같이 제어부(120)가 방송 영상(BV)에서 자료 영상(DV)이 이동하는 경우에 방송 음성의 출력을 조절하는 것만이 아니라, 방송 영상(BV)에서 촬영 영상이 이동하는 경우에도 방송 음성을 실시간으로 조절할 수 있다. 먼저, 제어부(120)는 가상의 공간(VS)에서 촬영 영상의 3차원 좌표와 3차원 좌표의 변화를 검출하고, 촬영 영상의 3차원 좌표의 변화, 즉 3차원 벡터에 기초하여 복수의 음성 출력부(132) 각각에 대한 방송 음성을 실시간으로 조절할 수 있다. 따라서, 본 발명의 또 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100) 및 이를 이용한 방송 편집 및 송출 방법에서는 방송 영상(BV)에서 촬영 영상 및 자료 영상(DV)의 이동에 따른 생동감 있는 3D 음성이 실시간으로 자동 출력되도록 할 수 있다.As described above, when the control unit 120 not only adjusts the output of the broadcast sound when the data video DV moves in the broadcast video BV, but also when the broadcast video BV moves The broadcast voice can be adjusted in real time. First, the control unit 120 detects changes in three-dimensional coordinates and three-dimensional coordinates of a photographed image in a virtual space VS, and detects a change in three-dimensional coordinates of the photographed image, that is, (132) can be adjusted in real time. Therefore, in the virtual studio broadcast editing and transmitting apparatus 100 that synchronizes video and sound signals by converting object position changes according to another embodiment of the present invention into a vector, and a broadcast editing and transmission method using the same, It is possible to automatically output real-time 3D voices according to the movement of the photographed image and the data image DV.

도 9a는 도 3a의 로컬 뱅크 셀렉터에 대한 일 예시에 대한 개략도이다. 도 9b는 본 발명의 또 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에서 제1 로컬 뱅크를 선택하는 입력이 수신된 경우의 가상의 공간을 도시한 도면이다. 도 9c는 본 발명의 또 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에서 제1 로컬 뱅크가 선택된 상태에서 제2 로컬 뱅크를 선택하는 입력이 수신된 경우의 가상의 공간을 도시한 도면이다. 도 9d는 본 발명의 또 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방송 편집 및 송출 방법에서 제1 로컬 뱅크가 선택된 상태에서 제3 로컬 뱅크를 선택하는 입력이 수신된 경우의 가상의 공간을 도시한 도면이다. 도 9a에서는 설명의 편의를 위해 3개의 로컬 뱅크(LB)만을 도시하였다. 도 9b는 도 5에 도시된 제1 카메라(C1)를 통해 촬영된 촬영 영상에 대한 가상의 공간(VS)을 도시하였고, 도 9c는 도 5에 도시된 제2 카메라(C2)를 통해 촬영된 촬영 영상에 대한 가상의 공간(VS')을 도시하였으며, 도 9c는 도 5에 도시된 제3 카메라(C3)를 통해 촬영된 촬영 영상에 대한 가상의 공간(VS'')을 도시하였다.Figure 9A is a schematic diagram of an example for the local bank selector of Figure 3A. FIG. 9B illustrates a method for selecting and editing a first local bank in a virtual studio broadcast editing and transmitting apparatus and a broadcast editing and transmitting method using the virtual studio broadcast editing and transmitting apparatus in which an image and sound signals are synchronized by converting an object position change into a vector according to another embodiment of the present invention Fig. 8 is a diagram showing a virtual space when an input is received. Fig. FIG. 9C is a diagram illustrating a virtual studio broadcast editing and transmitting apparatus for synchronizing video and audio signals by converting object position changes into vectors according to another embodiment of the present invention, and a broadcasting editing and transmitting method using the same, In which an input for selecting a second local bank is received. FIG. 9D is a diagram illustrating a virtual studio broadcast editing and transmitting device in which video and sound signals are synchronized by converting an object position change into a vector according to another embodiment of the present invention, and a broadcasting editing and transmitting method using the same, In the case where an input for selecting the third local bank is received. In FIG. 9A, only three local banks LB are shown for convenience of explanation. FIG. 9B shows a virtual space VS for the photographed image photographed through the first camera C1 shown in FIG. 5, and FIG. 9C shows the virtual space VS taken by the second camera C2 shown in FIG. And FIG. 9C shows a virtual space VS '' of the photographed image photographed through the third camera C3 shown in FIG. 5. The virtual space VS 'shown in FIG.

먼저 도 9a를 참조하면, 본 발명의 또 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 메모리(150)는 가상스튜디오 내에서의 3D 뷰 설정인 복수의 로컬 뱅크(LB)를 저장할 수 있다. 여기서, 로컬 뱅크(LB)는 가상스튜디오에 대응하는 방송 영상(BV)에서의 가상의 공간(VS)에서 방송 영상(BV)으로 출력될 촬영 영상 및 자료 영상(DV)의 위치를 저장하는 일종의 프리셋이다. 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)는 사용자의 입력에 의해 하나의 로컬 뱅크(LB)를 구성하는 촬영 영상 및 자료 영상(DV)의 위치를 입력받을 수 있고, 메모리(150)는 입력된 정보에 기초하여 로컬 뱅크(LB)를 저장할 수 있다.Referring to FIG. 9A, the memory 150 of the virtual studio broadcast editing and transmitting apparatus 100, which synchronizes video and sound signals by converting the object position change into a vector according to another embodiment of the present invention, A plurality of local banks LB, which are 3D view settings in the first embodiment, can be stored. Here, the local bank LB is a kind of preset that stores the position of the photographed image and the data image DV to be output as the broadcast image BV in the virtual space VS in the broadcast image BV corresponding to the virtual studio to be. The virtual studio broadcast editing and transmission device 100 synchronizes the video and sound signals by converting the object position change into a vector and outputs the captured image and the material image DV constituting one local bank LB And the memory 150 can store the local bank LB based on the input information.

이후, 복수의 로컬 뱅크(LB) 중 특정 로컬 뱅크(LB)를 선택하는 입력이 수신되면, 방송 음성 편집부(122)는 특정 로컬 뱅크(LB)로 방송 영상(BV)을 전환한다. 예를 들어, 최초 설정된 로컬 뱅크(LB)에서 특정 로컬 뱅크(LB)로 전환하는 과정에서 객체(OB)가 이동하거나 촬영 영상 또는 자료 영상(DV)이 이동하는 경우, 객체(OB), 촬영 영상 또는 자료 영상(DV)이 직선 운동 또는 회전 운동하는 방식 또는 가상의 공간(VS)의 x축, y축 또는 z축이 회전 운동하는 방식으로 특정 로컬 뱅크(LB)로 방송 영상(BV)이 전환될 수 있다.Thereafter, when an input for selecting a specific local bank LB among a plurality of local banks LB is received, the broadcast audio editing unit 122 switches the broadcast image BV to a specific local bank LB. For example, when the object OB moves or the photographed image or the data image DV moves in the process of switching from the initially set local bank LB to the specific local bank LB, Or the broadcast image BV is switched to the specific local bank LB in such a manner that the data image DV is linearly or rotationally moved or the x-, y- or z-axis of the virtual space VS is rotated .

이후, 방송 영상(BV)이 특정 로컬 뱅크(LB)로 전환함에 따라 발생하는 촬영 영상의 3차원 좌표의 변화 및 자료 영상(DV)의 3차원 좌표의 변화에 기초하여 복수의 음성 출력부(132) 각각에 대한 방송 음성을 실시간으로 조절할 수 있다. Thereafter, based on the change of the three-dimensional coordinates of the photographed image and the change of the three-dimensional coordinates of the data image DV generated as the broadcast image BV is switched to the specific local bank LB, ) Can be adjusted in real time.

이는 앞서 도 6c를 참조하여 설명한 제어부(120)의 방송 음성 편집부(122)가 객체(OB)의 이동에 따른 복수의 음성 출력부(132) 각각에 대한 방송 음성의 출력을 조절하는 과정을 실질적으로 동일하므로 중복 설명을 생략한다. This is because the broadcast voice editing unit 122 of the control unit 120 described above with reference to FIG. 6C controls the output of the broadcast voice to each of the plurality of voice output units 132 according to the movement of the object OB, So duplicate description is omitted.

먼저, 도 9a를 참조하면, 객체(OB)의 정면에 위치한 제1 로컬 뱅크(LB1)를 선택하는 입력이 수신되면, 방송 영상(BV)에 대해 도 9b와 같은 가상의 공간(VS)이 맵핑될 수 있다. 제1 로컬 뱅크(LB1)는 객체(OB)를 정면에서 바라보는 시점으로, 도 5에서 객체(OB)를 정면에서 촬영하는 제1 카메라(C1)와 같은 시점이라 할 수 있다. 이‹š, 객체(OB)의 초기 3차원 좌표(OP)는 (Ox, Oy, Oz)으로 가정할 수 있다.9A, when an input for selecting the first local bank LB1 located at the front of the object OB is received, a virtual space VS shown in FIG. 9B is mapped to the broadcast image BV, . The first local bank LB1 is a viewpoint of the object OB from the front and is the same as the first camera C1 photographing the object OB from the front in FIG. In this case, the initial three-dimensional coordinates OP of the object OB can be assumed to be (Ox, Oy, Oz).

이후, 제1 로컬 뱅크(LB1)에서 제2 로컬 뱅크(LB2)로 방송 영상(BV)을 전환하는 입력이 수신되면, 방송 영상(BV)에 대해 도 9c와 같은 가상의 공간(VS')이 맵핑될 수 있다. 제2 로컬 뱅크(LB2)는 제2 카메라(C2)를 통해 촬영된 영상이므로, 도 5에서 객체(OB)를 우측 대각선의 45도 방향에서 촬영하는 카메라(C2)의 시점이다. 제1 로컬 뱅크(LB1)에서 제2 로컬 뱅크(LB2)로 전환되면, 예를 들어, 가상의 공간(VS)의 z축 및 x축이 y축을 기준으로 반시계 방향으로 45도 회전하는 것으로 정의할 수도 있다. 또는 제1 로컬 뱅크(LB1)에서 제2 로컬 뱅크(LB2)로 전환되면, 객체(OB)가 가상의 공간(VS)에서 시계 방향으로 45도만큼 y축을 중심으로 회전하는 것으로 정의할 수도 있다. Thereafter, when an input for switching the broadcast image BV from the first local bank LB1 to the second local bank LB2 is received, a virtual space VS 'as shown in FIG. 9C is displayed on the broadcast image BV Can be mapped. Since the second local bank LB2 is an image photographed through the second camera C2, the second local bank LB2 is the viewpoint of the camera C2 which shoots the object OB in the direction of 45 degrees of the right diagonal line in Fig. When switching from the first local bank LB1 to the second local bank LB2, for example, it is defined that the z axis and the x axis of the virtual space VS rotate counterclockwise 45 degrees with respect to the y axis You may. Or when the object OB is switched from the first local bank LB1 to the second local bank LB2 by rotating the object OB about the y axis by 45 degrees in the clockwise direction in the virtual space VS.

z축 및 x축이 회전함에 따라 제1 로컬 뱅크(LB1)일 때, 객체(OB)의 3차원 좌표(OP)의 (Ox, Oy, Oz)에서 제2 로컬 뱅크(LB2)일 때, 객체(OB)의 3차원 좌표(OP')의 (Ox', Oy', Oz')로 변환될 수 있다. 이때, 객체(OB)의 3차원 좌표(OP)는 원호를 그리며 계속해서 변화할 수 있고, 3차원 좌표의 변화, 즉 3차원 벡터는 원호에 접하는 방향으로 무수하게 많은 3차원 벡터를 따라 복수의 음성 출력부(132) 각각에 대한 방송 음성의 출력을 조절할 수도 있고, 객체(OB)의 초기 3차원 좌표(OP)에서 변화된 3차원 좌표(OP')을 최단거리로 연결하는 3차원 벡터

Figure 112017093602237-pat00006
에 기초하여 복수의 음성 출력부(132) 각각에 대한 방송 음성의 출력이 조절될 수 있다. 이는, 로컬 뱅크(LB)의 전환 속도에 의해 결정될 수도 있고, 실제 객체(OB)의 이동과 프레임 레이트에 의해 결정될 수도 있다.(Ox, Oy, Oz) of the three-dimensional coordinates OP of the object OB in the second local bank LB2 when the z axis and the x axis are rotated in the first local bank LB1, (Ox ', Oy', Oz ') of the three-dimensional coordinates OP' of the object OB. At this time, the three-dimensional coordinate (OP) of the object OB can continuously change while drawing an arc, and the change of the three-dimensional coordinate, that is, the three-dimensional vector, The output of the broadcast sound to each of the sound output units 132 may be adjusted and the output of the three-dimensional vector (OP ') connecting the three-dimensional coordinates (OP') changed in the initial three-
Figure 112017093602237-pat00006
The output of the broadcast voice to each of the plurality of audio output units 132 can be adjusted. This may be determined by the switching speed of the local bank LB or may be determined by the movement of the actual object OB and the frame rate.

한편, 제1 로컬 뱅크(LB1)에서 제3 로컬 뱅크(LB3)로 방송 영상(BV)을 전환하는 입력이 수신되면, 방송 영상(BV)에 대해 도 9d와 같은 가상의 공간(VS'')이 맵핑될 수 있다. 제3 로컬 뱅크(LB3)는 제3 카메라(C3)를 통해 촬영된 영상이므로, 도 5에서 객체(OB)를 좌측 대각선의 45도 방향에서 바라보는 시점으로, 도 5에서 객체(OB)를 좌측 대각선의 45도 방향에서 촬영하는 카메라(C3)의 시점이다. 제1 로컬 뱅크(LB1)에서 제3 로컬 뱅크(LB3)로 전환되면, 예를 들어, 가상의 공간(VS)의 z축 및 x축이 y축을 기준으로 시계 방향으로 45도 회전하는 것으로 정의할 수도 있다. 또는 제1 로컬 뱅크(LB1)에서 제3 로컬 뱅크(LB3)로 전환되면, 객체(OB)가 가상의 공간(VS)에서 반시계 방향으로 45도만큼 y축을 중심으로 회전하는 것으로 정의할 수도 있다.On the other hand, when an input for switching the broadcast image BV from the first local bank LB1 to the third local bank LB3 is received, a virtual space VS '' shown in FIG. Can be mapped. Since the third local bank LB3 is an image photographed through the third camera C3, the object OB is viewed from the 45-degree diagonal line of the left diagonal in Fig. 5, This is the viewpoint of the camera C3 which shoots in the 45-degree diagonal direction. When switching from the first local bank LB1 to the third local bank LB3, for example, it is defined that the z axis and x axis of the virtual space VS rotate clockwise by 45 degrees with respect to the y axis It is possible. Or when the object OB is switched from the first local bank LB1 to the third local bank LB3 by rotating the object OB about the y axis by 45 degrees in the counterclockwise direction in the virtual space VS .

z'축 및 x'축이 회전함에 따라 제1 로컬 뱅크(LB1)일 때, 객체(OB)의 3차원 좌표(OP)의 (Ox, Oy, Oz)에서 제3 로컬 뱅크(LB3)일 때, 객체(OB)의 3차원 좌표(OP'')의 (Ox'', Oy'', Oz'')로 변환될 수 있다. 이때, 객체(OB)의 3차원 좌표의 변화, 즉 객체(OB)의 3차원 벡터

Figure 112017093602237-pat00007
를 검출하고, 3차원 벡터
Figure 112017093602237-pat00008
에 기초하여 복수의 음성 출력부(132) 각각에 대한 방송 음성의 출력을 조절하는 과정은 상술한 바와 실질적으로 동일하므로 중복 설명을 생략한다.(Ox, Oy, Oz) of the three-dimensional coordinates OP of the object OB in the third local bank LB3 when the z'-axis and the x'-axis are rotated in the first local bank LB1, , And (Ox '', Oy '', Oz '') of the three-dimensional coordinates OP '' of the object OB. At this time, the change of the three-dimensional coordinates of the object OB, that is, the change of the three-
Figure 112017093602237-pat00007
And detects a three-dimensional vector
Figure 112017093602237-pat00008
The process of adjusting the output of the broadcast audio to each of the plurality of audio output units 132 is substantially the same as that described above, so that the duplicated description will be omitted.

본 발명의 또 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)와 이를 이용한 방송 편집 및 송출 방법에서 메모리(150)에 가상의 공간(VS)에서 방송 영상(BV)으로 출력될 촬영 영상 및 자료 영상(DV)의 위치를 저장하는 복수의 로컬 뱅크(LB)를 저장하고, 선택된 로컬 뱅크(LB)에 따라 객체(OB)의 3차원 좌표(OP)가 변화하게 되며, 이에 따라 방송 음성이 출력되는 복수의 음성 출력부(132) 각각에 대한 출력이 자동으로 실시간 조절될 수 있다. 따라서, 본 발명의 또 다른 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)와 이를 이용한 방송 편집 및 송출 방법에서는 방송 영상(BV)을 출력할 시점을 미리 로컬 뱅크(LB)에 저장해두고, 사용자가 방송으로 출력되길 원하는 시점의 로컬 뱅크(LB)를 선택하기만 하면, 이에 따라 방송 영상(BV) 및 방송 영상(BV)에 대응하는 방송 음성까지 자동으로 실시간 편집될 수 있으므로, 다채롭고 생동감있는 방송 영상(BV)을 제작할 수 있다. In the virtual studio broadcast editing and transmitting device 100 that synchronizes video and sound signals by converting the object position change according to another embodiment of the present invention into a vector and a broadcast editing and transmitting method using the same, Stores a plurality of local banks LB storing the positions of the photographed images and the data images DV to be output as the broadcast video BV in the space VS and stores the position of the object OB in the selected local bank LB according to the selected local bank LB. The three-dimensional coordinates OP are changed. Thus, the output to each of the plurality of audio output units 132 through which the broadcast audio is output can be automatically adjusted in real time. Accordingly, in the virtual studio broadcast editing and transmitting apparatus 100 that synchronizes video and sound signals by converting the object position change according to another embodiment of the present invention into a vector, and a broadcast editing and transmission method using the same, The local bank LB stores the timing of outputting the broadcast image BV and the broadcast image BV in advance so that the user can select a local bank LB at a time point at which the user desires to output the broadcast image. Can be automatically and in real time edited up to the broadcasting voice, so that a colorful and lively broadcasting image BV can be produced.

이하에서는 도 10 및 도 11을 참조하여, 본 발명의 다양한 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)를 이용한 방송 중계 시스템(1000)에 대하여 상세히 설명하기로 한다.Hereinafter, with reference to FIG. 10 and FIG. 11, it will be assumed that a broadcast relay system (hereinafter, referred to as &quot; virtual broadcast &quot; 1000) will be described in detail.

도 10은 본 발명의 다양한 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기를 이용한 실시간 방송 중계 시스템의 구성들을 개략적으로 도시한 블록도이다. 도 11a는 본 발명의 다양한 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기에서 송출되는 패킷 데이터를 예시적으로 도시한 구조도이다. 도 11b는 패킷 데이터의 각 채널의 해당 출력 지점을 도시한 도면이다.FIG. 10 is a block diagram schematically illustrating the configurations of a real-time broadcast relay system using a virtual studio broadcast editing and transmission device in which video and sound signals are synchronized by converting object position changes into vectors according to various embodiments of the present invention. FIG. 11A is a schematic diagram illustrating packet data transmitted from a virtual studio broadcast editing and transmitting apparatus in which an object position change is converted into a vector according to various embodiments of the present invention and the video and sound signals are synchronized. 11B is a diagram showing corresponding output points of each channel of the packet data.

도 10을 참조하면, 실시간 방송 중계 시스템(1000)은 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100), 서버(200), 방송 중계 단말(CL)을 포함한다. 10, the real-time broadcast relay system 1000 includes a virtual studio broadcast editing and transmission device 100, a server 200, and a broadcast relay terminal CL that synchronize image and sound signals by converting object position changes into vectors, ).

객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)는 입력부(110)에서 수신된 촬영 영상 및 녹음 음성을 편집하여 방송 영상 및 방송 음성으로 제작한다. 촬영 영상 및 녹음 음성을 방송 영상 및 방송 음성으로 편집하는 과정은, 앞서 도1 내지 도 9d를 참조하여 상술한 바와 동일하므로 중복 설명을 생략한다. 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)는 방송 영상 및 방송 음성을 서버(200)로 송신한다. 구체적으로, 하나의 방송 영상에 대한 복수의 방송 음성이 하나의 패킷 데이터(PD)로 묶여 서버로 송신된다. The virtual studio broadcast editing and transmission device 100 synchronizes the video and sound signals by converting the object position change into a vector and edits the shot video and the recorded audio received from the input unit 110 to produce a broadcast video and a broadcast audio. The process of editing the photographed image and the recorded voice into the broadcast image and the broadcast voice is the same as that described above with reference to FIG. 1 to FIG. 9D, so duplicate description will be omitted. The virtual studio broadcast editing and transmitting apparatus 100, which converts the object position change into a vector and synchronizes the video and sound signals, transmits the broadcast video and broadcast voice to the server 200. Specifically, a plurality of broadcast voices for one broadcast image are bundled into one packet data (PD) and transmitted to the server.

앞서 도 6b를 참조하여 설명한 바와 같이, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)는 음성 출력 채널의 개수에 따라, 음성 출력 채널에 대응하는 각 복수의 음성 출력 장치(32)에 3차원 좌표를 부여하여 방송 음성을 편집할 수 있다. As described above with reference to FIG. 6B, the virtual studio broadcast editing and transmitting apparatus 100, which converts the object position change into a vector and synchronizes the video and audio signals, The broadcast voice can be edited by giving three-dimensional coordinates to each of the plurality of voice output devices 32. [

도 11a를 참조하면, 패킷 데이터(PD)는 시간 정보(TS), 복수의 채널 정보(CH1a 내지 CHna) 및 채널에 대응하는 복수의 방송 음성(CH1b 내지 CHnb)을 포함한다. 패킷 데이터(PD)는 순차적으로 전송되며, 동일한 시간 정보(TS)를 가진 복수의 채널 정보(CH1a 내지 CHna) 및 복수의 방송 음성(CH1b 내지 CHnb)이 하나의 패킷 데이터(PD)로 서버에 전송된다. 패킷 데이터(PD)는 제1 시간 정보(TS1), 채널 1 정보(CH1a), 채널 1의 방송 음성(CH1b), 채널 2 정보(CH2a), 채널 2의 방송 음성(CH2b), 채널 3 정보(CH3a), 채널 3의 방송 음성(CH2b)부터 채널 n 정보(CHna), 채널 n의 방송 음성(CHnb)의 순서로 데이터가 배치된다. 즉, 시간 정보(TS), 채널 정보(CH1a 내지 CHna), 채널의 방송 음성(CH1b 내지 CHnb)의 순서로 구성된다. 이후, 다시 제2 시간 정보(TS2)에 해당하는 복수의 채널 정보 및 복수의 채널의 방송 음성이 순차적으로 전송된다.Referring to Fig. 11A, the packet data PD includes time information TS, a plurality of channel information CH1a to CHna, and a plurality of broadcast voices CH1b to CHnb corresponding to a channel. The packet data PD are sequentially transmitted and a plurality of channel information CH1a to CHna and a plurality of broadcast voice CH1b to CHnb having the same time information TS are transmitted as one packet data PD do. The packet data PD includes the first time information TS1, the channel 1 information CH1a, the broadcast voice CH1b of the channel 1, the channel 2 information CH2a, the broadcast voice CH2b of the channel 2, CH3a), channel 3 information (CHna), and channel n broadcast speech (CHnb) are arranged in this order. That is, it is composed of the time information TS, the channel information CH1a to CHna, and the broadcast voice CH1b to CHnb of the channel. Thereafter, a plurality of channel information corresponding to the second time information TS2 and a broadcast voice of a plurality of channels are sequentially transmitted.

시간 정보(TS)는 복수의 방송 음성(CH1b 내지 CHnb)이 방송 영상의 어느 지점과 일치하는지를 나타낸다. 예를 들면, 시간 정보(TS)가 방송 영상의 1분 지점을 나타낸다면, 복수의 방송 음성(CH1b 내지 CHnb)은 방송 영상의 1분 지점에서 동시에 출력될 수 있다.The time information TS indicates which point of the broadcast image the plurality of broadcast speeches CH1b to CHnb coincide with. For example, if the time information TS indicates one minute of the broadcast image, a plurality of broadcast speeches CH1b to CHnb can be simultaneously output at one minute of the broadcast image.

채널 정보(CH1a 내지 CHna)는 각 채널에 해당하는 방송 음성(CH1b 내지 CHnb)의 출력 지점, 즉 방송 음성(CH1b 내지 CHnb)이 어떤 지점의 스피커에서 출력되는지를 나타낸다. 복수의 방송 음성(CH1b 내지 CHnb)은 가상의 공간(VS)에서 음성 출력 지점에 가상의 좌표를 부여하여 편집한 것으로, 각 채널(CH1a 내지 CHna)의 방송 음성(CH1b 내지 CHnb)마다 출력되는 음량의 크기 등이 다를 수 있다. The channel information CH1a to CHna indicates the output point of the broadcast voice CH1b to CHnb corresponding to each channel, that is, the speaker at which point the broadcast voice CH1b to CHnb is outputted. The plurality of broadcast speeches CH1b to CHnb are edited by assigning virtual coordinates to voice output points in a virtual space VS and are edited by the volume of the broadcast sound CH1b to CHnb output from each of the channels CH1a to CHna And the like may be different.

방송 음성(CH1b 내지 CHnb)은 해당 채널(CH1a 내지 CHna)에 대응하는 방송 음성(CH1b 내지 CHnb)으로, 채널(CH1a 내지 CHna)에 따라 방송 음성(CH1b 내지 CHnb)이 다를 수 있다. 각 방송 음성(CH1b 내지 CHnb)은 서로 다른 지점에서 출력될 것을 가정하여 편집된 것으로, 방송 영상에서 객체의 이동이나, 자료 영상의 이동 등에 따라 서로 다른 방송 음성(CH1b 내지 CHnb)이 출력된다. The broadcast voice CH1b to CHnb may correspond to the broadcast channels CH1b to CHnb corresponding to the channels CH1a to CHna and the broadcast voice CH1b to CHnb may be different according to the channels CH1a to CHna. Each broadcast voice CH1b to CHnb is edited on the assumption that it will be outputted at different points, and different broadcast voices CH1b to CHnb are output according to movement of an object in a broadcast image, movement of a data image, or the like.

다시 도 10을 참조하면, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)는 패킷 데이터(PD)를 서버(200)로 전송하고, 서버(200)는 다시 패킷 데이터를 방송 중계 단말(CL)로 송신한다.Referring again to FIG. 10, the virtual studio broadcast editing and transmitting apparatus 100, which converts the object position change into a vector and synchronizes the video and audio signals, transmits the packet data PD to the server 200, Transmits packet data again to the broadcast relay terminal CL.

방송 중계 단말(CL)은 수신한 패킷 데이터(PD)를 영상 출력 장치 및 음성 출력 장치에 출력한다. 방송 중계 단말(CL)은 별도의 클라이언트 기기로 구현될 수도 있고 이외에도 PC, 영상 출력 장치 또는 음성 출력 장치등과 일체로 구현될 수 있으며, 이에 제한되지 않는다. The broadcast relay terminal CL outputs the received packet data PD to the video output device and the audio output device. The broadcast relay terminal CL may be implemented as a separate client device or may be implemented integrally with a PC, a video output device, or a voice output device, but is not limited thereto.

이하에서는 도 11b를 참조하여 방송 중계 단말(CL)이 설치된 시청 환경에서의 각 채널(CH1a 내지 CHna)의 출력 지점에 대하여 좀 더 상세히 설명하기로 한다. Hereinafter, the output points of the channels CH1a to CHna in the viewing environment where the broadcast relay terminal CL is installed will be described in more detail with reference to FIG. 11B.

도 11b를 참조하면, 방송 중계 단말(CL), 각 채널(CH1a 내지 CHna)에 대응하는 출력 지점에 배치되는 음성 출력 장치인 스피커(SP) 및 영상 출력 장치인 디스플레이(31)가 배치된다. Referring to FIG. 11B, a speaker SP, which is a sound output device disposed at an output point corresponding to the broadcast relay terminal CL, each channel CH1a to CHna, and a display 31, which is a video output device, are disposed.

영상 출력 장치는 방송 영상이 출력되며, 설명의 편의를 위해 영상 출력 장치가 디스플레이(31)인 것으로 도시하였으나, TV, 모니터, 빔 프로젝터 등 다양할 수 있으며 이에 제한되지 않는다. 음성 출력 장치는 복수 개가 배치되며, 설명의 편의를 위해 음성 출력 장치가 스피커(SP)인 것으로 도시하였으나, 이에 제한되지 않는다.Although the video output apparatus displays the broadcast video and the video output apparatus is the display 31 for the convenience of explanation, the video output apparatus may be a TV, a monitor, a beam projector, and the like. Although a plurality of audio output apparatuses are arranged and the audio output apparatus is shown as a speaker SP for convenience of explanation, the present invention is not limited thereto.

스피커(SP)는 시청자의 시청 지점, 즉 객석을 중심으로 하여 배치될 수 있다. 예를 들면, 제1 스피커(SP1)는 시청자의 정면 좌측, 제2 스피커(SP2)는 시청자의 정면 중앙, 제3 스피커(SP3)는 시청자의 정면 우측, 제4 스피커(SP4)는 시청자의 좌측, 제5 스피커(SP5)는 시청자의 우측, 제6 스피커(SP6)는 시청자의 후면 좌측, 제7 스피커(SP7)는 시청자의 후면 중앙, 제8 스피커(SP8)는 시청자의 후면 우측에 배치된다. 또한, 좀 더 생동감 있는 방송 음성을 제공하기 위해 중앙부에 제9 스피커(SP9)를 배치할 수 있다.The speaker SP can be arranged around the viewer's viewing point, that is, the audience. For example, the first speaker SP1 is located on the front left side of the viewer, the second speaker SP2 is on the front center of the viewer, the third speaker SP3 is on the front right side of the viewer, the fourth speaker SP4 is on the left side The fifth speaker SP5 is positioned on the right side of the viewer, the sixth speaker SP6 is positioned on the rear left side of the viewer, the seventh speaker SP7 is positioned on the rear center of the viewer, and the eighth speaker SP8 is positioned on the rear right side of the viewer . In addition, the ninth speaker SP9 may be disposed at the center to provide a more vivid broadcast sound.

이때, 제1 스피커(SP1)는 채널 1(CH1), 제2 스피커(SP2)는 채널 2(CH2), 제3 스피커(SP3)는 채널 3(CH3), 제4 스피커(SP4)는 채널 4(CH4), 제5 스피커(SP5)는 채널 5(CH5), 제6 스피커(SP6)는 채널 6(CH6), 제7 스피커(SP7)는 채널 7(CH7), 제8 스피커(SP8)는 채널 8(CH8), 제9 스피커(SP9)는 채널 9(CH9)와 연결되어, 각 채널(CH)의 방송 음성이 출력될 수 있다. 이때, 채널(CH)의 개수 및 각 채널(CH)에 대응하는 스피커(SP)의 배치는 달라질 수 있으며, 이에 제한되지 않는다.At this time, the first speaker SP1, the second speaker SP2, the second speaker SP3, and the fourth speaker SP4, CH1, CH2, CH3, The fifth speaker SP5 is connected to the channel 5 (CH5), the sixth speaker SP6 is connected to the channel 6 (CH6), the seventh speaker SP7 is connected to the channel 7 (CH7) The channel 8 (CH8) and the ninth speaker (SP9) are connected to the channel 9 (CH9), so that the broadcast voice of each channel CH can be output. At this time, the number of the channels CH and the arrangement of the speakers SP corresponding to the respective channels CH may be varied, but are not limited thereto.

한편, 채널(CH)의 개수와 실제 시청 환경에 배치된 스피커(SP)의 개수가 다를 수 있다. 이러한 경우, 방송 중계 단말(CL)은 패킷 데이터(PD)에서 실제 시청 환경에 배치된 스피커(SP)에 대응하는 채널(CH)의 방송 음성만을 선택적으로 출력한다. 이에 대하여, 도 12a 내지 도 12b를 참조하여 보다 상세히 설명하기로 한다. On the other hand, the number of channels CH may be different from the number of speakers SP arranged in the actual viewing environment. In this case, the broadcast relay terminal CL selectively outputs only the broadcast voice of the channel CH corresponding to the speaker SP arranged in the actual viewing environment in the packet data PD. This will be described in more detail with reference to FIGS. 12A to 12B.

도 12a는 교실의 스피커 배치를 예시적으로 나타낸 도면이다. 도 12b는 다른 교실의 스피커 배치를 예시적으로 나타낸 도면이다. 도 12c는 강당의 스피커 배치를 예시적으로 나타낸 도면이다. 도 12d는 다른 강당의 스피커 배치를 예시적으로 나타낸 도면이다. 도 12a 내지 도 12d를 참조하면, 학교의 교실 및 강당의 스피커 배치를 가정한 것으로, 학교 외에 관공서, 기업, 학원 등 방송을 진행하는 곳이라면 이에 제한되지 않는다. 12A is a diagram exemplarily showing a speaker arrangement of a classroom. 12B is a diagram exemplarily showing the speaker arrangement of another classroom. 12C is a diagram exemplifying the speaker arrangement of the auditorium. 12D is a diagram exemplarily showing a speaker arrangement of another auditorium. 12A to 12D, it is assumed that the speaker arrangement of the classroom and the auditorium of the school is assumed, and the present invention is not limited to the place where broadcasting is conducted such as government offices, companies, academies, etc. in addition to the school.

도 12a를 참조하면, 교실에 제1 방송 중계 단말(CL1), 제1 스피커(SP1) 및 제3 스피커(SP3)이 배치된다. 제1 스피커(SP1)는 시청자, 즉 학생의 정면 좌측에 배치되어 패킷 데이터(PD)의 채널 1(CH1)과 대응한다. 제3 스피커(SP2)는 학생의 정면 우측에 배치되어 패킷 데이터(PD)의 채널 3(CH3)과 대응한다.Referring to FIG. 12A, a first broadcast relay terminal CL1, a first speaker SP1, and a third speaker SP3 are disposed in a classroom. The first speaker SP1 is disposed on the front left side of the viewer, that is, the student, and corresponds to the channel 1 (CH1) of the packet data PD. The third speaker SP2 is disposed on the front right side of the student and corresponds to channel 3 (CH3) of the packet data PD.

제1 방송 중계 단말(CL1)은 9개 채널(CH1 내지 CH9)의 정보를 포함하는 패킷 데이터(PD)를 서버로부터 수신할 수 있다. 그러나, 교실에는 채널 1(CH1) 및 채널 3(CH3)에 대응하는 제1 스피커(SP1) 및 제3 스피커(SP3)만이 배치된다. The first broadcast relay terminal CL1 may receive packet data PD including information of nine channels CH1 to CH9 from the server. However, only the first speaker SP1 and the third speaker SP3 corresponding to the channel 1 (CH1) and the channel 3 (CH3) are disposed in the classroom.

이에, 제1 방송 중계 단말(CL1)은 패킷 데이터(PD)의 각 채널(CH)의 방송 음성을 다시 2개의 채널로 편집하는 것이 아니라, 채널 1(CH1) 및 채널 3(CH3)의 방송 음성만을 제1 스피커(SP1) 및 제3 스피커(SP3)으로 출력한다. Therefore, the first broadcast relay terminal CL1 does not edit the broadcast voice of each channel CH of the packet data PD again to two channels but also broadcasts the broadcast voice of the channel 1 (CH1) and the channel 3 (CH3) To the first speaker SP1 and the third speaker SP3.

도 12b를 참조하면, 교실에 제2 방송 중계 단말(CL2), 제1 스피커(SP1), 제3 스피커(SP3), 제6 스피커(SP6) 및 제8 스피커(SP8)가 배치된다. 제1 스피커(SP1)는 채널 1(CH1), 제3 스피커(SP3)는 채널 3(CH3), 제6 스피커(SP6)는 채널 6(CH6), 제8 스피커(SP8)은 채널 8(CH8)에 대응한다. Referring to FIG. 12B, a second broadcast relay terminal CL2, a first speaker SP1, a third speaker SP3, a sixth speaker SP6, and an eighth speaker SP8 are disposed in the classroom. The first speaker SP1 is connected to the first speaker SP3 and the third speaker SP3 is connected to the third speaker CH3 while the sixth speaker SP6 is connected to the channel 6 and the eighth speaker SP8 is connected to the channel 8 ).

제2 방송 중계 단말(CL2)은 패킷 데이터(PD)에서 9개의 채널(CH) 중 채널 1(CH1), 채널 3(CH3), 채널 6(CH6) 및 채널 8(CH8)의 방송 음성만을 대응하는 각 스피커(SP)에 출력한다.The second broadcast relay terminal CL2 only corresponds to the broadcast voice of channel 1 (CH1), channel 3 (CH3), channel 6 (CH6) and channel 8 (CH8) among the nine channels CH in the packet data PD To the speaker SP.

도 12c를 참조하면, 강당에 제3 방송 중계 단말(CL3), 제1 스피커(SP1), 제3 스피커(SP3), 제4 스피커(SP4), 제5 스피커(SP5), 제6 스피커(SP6) 및 제8 스피커(SP8)가 배치된다. 제1 스피커(SP1)는 채널 1(CH1), 제3 스피커(SP3)는 채널 3(CH3), 제4 스피커(SP4)는 채널 4(CH4), 제5 스피커(SP5)는 채널 5(CH5), 제6 스피커(SP6)는 채널 6(CH6), 제8 스피커(SP8)은 채널 8(CH8)에 대응한다. 12C, a third broadcast relay terminal CL3, a first speaker SP1, a third speaker SP3, a fourth speaker SP4, a fifth speaker SP5, a sixth speaker SP6 And an eighth speaker SP8 are disposed. The first speaker SP1 is connected to the first speaker SP3 and the third speaker SP3 is connected to the third speaker CH3 while the fourth speaker SP4 is connected to the fourth speaker CH4. The sixth speaker SP6 corresponds to the channel 6 (CH6), and the eighth speaker SP8 corresponds to the channel 8 (CH8).

제3 방송 중계 단말(CL3)은 패킷 데이터(PD)의 9개의 채널(CH) 중 채널1(CH1), 채널 3(CH3), 채널 4(CH4), 채널 5(CH5), 채널 6(CH6) 및 채널 8(CH8)의 방송 음성만을 대응하는 각 스피커(SP)에 출력한다.The third broadcast relay terminal CL3 selects the channel CH1, CH3, CH4, CH5 and CH6 of the nine channels CH of the packet data PD And channel 8 (CH8) to the corresponding speaker SP.

도 12d를 참조하면, 강당에 제4 방송 중계 단말(CL4), 제1 스피커(SP1), 제2 스피커(SP2), 제3 스피커(SP3), 제4 스피커(SP4), 제5 스피커(SP5), 제6 스피커(SP6), 제7 스피커(SP7) 및 제8 스피커(SP8)가 배치된다. 제1 스피커(SP1)는 채널 1(CH1), 제2 스피커(SP2)는 채널 2(CH2), 제3 스피커(SP3)는 채널 3(CH3), 제4 스피커(SP4)는 채널 4(CH4), 제5 스피커(SP5)는 채널 5(CH5), 제6 스피커(SP6)는 채널 6(CH6), 제7 스피커(SP7)은 채널 7(CH7), 제8 스피커(SP8)은 채널 8(CH8)에 대응한다.12D, a fourth broadcast relay terminal CL4, a first speaker SP1, a second speaker SP2, a third speaker SP3, a fourth speaker SP4, a fifth speaker SP5 , A sixth speaker (SP6), a seventh speaker (SP7), and an eighth speaker (SP8). The first speaker SP1 is connected to the first speaker SP2 and the second speaker SP2 is connected to the second speaker CH3. The fifth speaker SP5 is the channel 5 (CH5), the sixth speaker SP6 is the channel 6 (CH6), the seventh speaker SP7 is the channel 7 (CH7), the eighth speaker SP8 is the channel 8 (CH8).

제4 방송 중계 단말(CL4)은 패킷 데이터(PD)의 9개의 채널(CH) 중 채널1(CH1), 채널 2(CH2), 채널 3(CH3), 채널 4(CH4), 채널 5(CH5), 채널 6(CH6) 채널 7(CH7) 및 채널 8(CH8)의 방송 음성만을 대응하는 각 스피커(SP)에 출력한다.The fourth broadcast relay terminal CL4 selects one of the nine channels CH of the packet data PD as the channel 1 (CH1), the channel 2 (CH2), the channel 3 (CH3), the channel 4 (CH4) ), Channel 6 (CH6), channel 7 (CH7), and channel 8 (CH8) to each corresponding speaker SP.

이처럼, 방송 중계 단말(CL)이 설치된 곳의 스피커(SP) 배치는 패킷 데이터(PD)의 채널(CH)과 일치하지 않을 수 있다. 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)에서 여러 시청자의 시청 환경에 따라 서로 다른 패킷 데이터(PD)를 전송하지 않고, 패킷 데이터(PD)에서 시청 환경에 맞는 데이터만을 선택적으로 출력할 수 있다.As described above, the arrangement of the speaker SP where the broadcast relay terminal CL is installed may not coincide with the channel CH of the packet data PD. The virtual studio broadcast editing and transmitting device 100 synchronizes the video and sound signals by converting the object position change into a vector and transmits the packet data PD without transmitting different packet data PD according to the viewing environment of various viewers. Only the data suitable for the viewing environment can be selectively output.

만약, 시청 환경에 따라 다른 패킷 데이터(PD)를 각 서버(100) 및 방송 중계 단말(CL)로 전송하는 경우, 시간이 오래 걸리고 복잡하므로, 실시간으로 방송을 하기에 적합하지 않을 수 있다. 그러나, 하나의 패킷 데이터(PD)에서 시청 환경에 맞는 채널(CH)만을 선택적으로 출력하므로, 패킷 데이터(PD)의 제작 및 전송이 간편하고, 실시간으로 여러 환경의 시청자에게 방송을 할 수 있다.If packet data PD according to the viewing environment is transmitted to each of the server 100 and the broadcast relay terminal CL, it takes a lot of time and is complicated and may not be suitable for broadcasting in real time. However, since only one channel CH corresponding to the viewing environment is selectively output from one packet data PD, the packet data PD can be easily produced and transmitted, and can be broadcasted to viewers in various environments in real time.

본 발명의 다양한 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)와 이를 이용한 방송 편집 및 송출 방법에서는 방송 영상(BV)의 편집에 따라 방송 영상(BV)에 대응하는 방송 음성이 자동으로 편집되는 과정에서, 제어부(120)에 다양한 연산 방법을 적용하여 연산량을 줄이고 고속 연산을 할 수 있다. 구체적으로, 본 발명의 다양한 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)와 이를 이용한 방송 편집 및 송출 방법에서는 다채널 3D 영상 및 음성 고속 통합 처리를 위한 멀티미디어 데이터 실시간 프로세싱 엔진을 사용할 수 있다.In the virtual studio broadcast editing and transmitting apparatus 100 that synchronizes video and sound signals by converting the object position change according to various embodiments of the present invention into a vector, and a broadcasting editing and transmitting method using the virtual studio broadcasting editing and transmitting apparatus 100, Accordingly, in the process of automatically editing the broadcasting voice corresponding to the broadcast video BV, various calculations can be applied to the controller 120 to reduce the amount of computation and perform high-speed computation. In particular, in the virtual studio broadcast editing and transmitting device 100, which synchronizes video and sound signals by converting object position changes according to various embodiments of the present invention into vectors, and a broadcasting editing and transmitting method using the same, A multimedia data real-time processing engine for voice high-speed integration processing can be used.

먼저, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 제어부(120)에서는 실시간 지능형 포맷 컨버전스(RTIFC; Real Time Intelligence Format Convergence) 기술을 적용할 수 있다. 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 입력부(110)에서 촬영 영상을 수신할 시, 각 픽셀에 대한 데이터 값은 R값, G값, B값에 투명도를 나타내는 α까지 표현된 32비트맵의 형식으로 수신할 수 있다. 그러나 그래픽 카드(140)는 1비트만 많아도 부하가 급격하게 증가하므로, 모든 픽셀들에 대한 데이터를 32비트로 연산하는 경우 연산량이 매우 증가할 수 있다. 이에, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 제어부(120)에서는 픽셀에 대한 데이터 값을 YUV422 포맷의 12비트로 변환하여 처리해야 할 데이터를 줄일 수 있다. YUV422 포맷은 휘도와 색 신호의 비를 4:2:2로 하여 영상 데이터를 다루는 형식으로 RGB 형식보다 데이터량을 줄일 수 있다. YUV422 포맷은 휘도와 색 신호의 비를 4:2:2로 하여 영상 데이터를 다루는 형식으로 RGB 형식보다 데이터량을 줄일 수 있지만, 투명도 값을 나타내지 않는다. First, the control unit 120 of the virtual studio broadcast editing and transmitting apparatus 100, which converts the object position change into a vector and synchronizes the video and audio signals, applies Real Time Intelligence Format Convergence (RTIFC) technology . When receiving the photographed image from the input unit 110 of the virtual studio broadcast editing and transmission apparatus 100 that converts the object position change to a vector and synchronizes the image and sound signals, the data value for each pixel is an R value, a G value , And can be received in the form of a 32-bit map expressed up to alpha indicative of transparency in B value. However, since the load of the graphics card 140 increases rapidly even when only one bit is used, the amount of computation can be greatly increased when the data for all the pixels is calculated with 32 bits. Accordingly, the control unit 120 of the virtual studio broadcast editing and transmission apparatus 100 that converts the object position change into a vector and synchronizes the video and audio signals converts the data value of the pixel into 12 bits of the YUV422 format, . The YUV422 format is a format that handles image data with a ratio of luminance to color signal of 4: 2: 2. The YUV422 format is a format that handles image data with a ratio of luminance to color signal of 4: 2: 2, which can reduce the amount of data rather than the RGB format, but does not show the transparency value.

일반 영상에서는 투명도 값이 필요가 없으므로, 상술한 바와 같이 YUV422 포맷을 사용하더라도 특별한 문제가 발생하지 않는다. 다만, 상술한 바와 같이 크로마키 처리를 하기 위해서는 투명도 값이 필요하므로 YUV422의 형식으로 변환하여 데이터를 처리하는 경우 크로마키 처리가 불가능하다는 문제점이 있다. 이를 해결하기 위해, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 제어부(120)에서는 크로마키 처리가 필요 없는 영상은 YUV422의 12비트로 변환하여 전달하고, 크로마키 처리가 필요한 영상은 투명도를 포함한 32비트의 형식을 사용하기 때문에 기존 방식보다 연산량을 줄일 수 있다. Since no transparency value is required in a general image, no particular problem occurs even if the YUV422 format is used as described above. However, since the transparency value is required to perform the chroma key processing as described above, there is a problem in that chroma key processing can not be performed when data is converted into the format of YUV422. In order to solve this problem, the control unit 120 of the virtual studio broadcast editing and transmission apparatus 100, which converts the object position change into a vector and synchronizes the video and audio signals, converts the image that does not require chroma key processing into 12 bits of YUV 422 And the image requiring chroma key processing uses 32-bit format including transparency, so the amount of computation can be reduced compared with the conventional method.

또한, 제어부(120)가 영상의 해상도를 변경할 때, 세미인터폴레이션(semi interpolation)과 인터폴레이션(interpolation)을 적절히 혼합하여 영상이 일그러지지 않으면서 자연스럽게 표현되도록 할 수 있다. 종래에는, 원본 영상의 해상도와 실제 방송 영상(BV)에서 표현되는 해상도가 다른 경우 원본 영상을 리사이징 하기 위해, 인터폴레이션법을 사용했는데, 예를 들어, 1920*1080의 해상도를 가진 원본 영상을 30*20의 해상도로 축소하기 위해 70번째마다 픽셀을 추출하여 30*20으로 축소하는 방식이 사용되었다. 다만 이러한 인터폴레이션법은 픽셀간의 차이를 선형적으로만 고려하여 급격하게 축소하기 때문에 영상이 일그러져 보이기 쉽다. 이러한 문제점을 해결하기 위해, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 제어부(120)에서는 1920*1080의 영상을 먼저 원래의 1/70보다 더 큰 크기인 1/10의 크기로 리사이징하는 세미인터폴레이션을 사용하고, 192*108의 영상을 인터폴레이션하여 30*20으로 축소한다. 즉, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 제어부(120)에서는 리사이징 시에 원본 영상을 최종 영상의 크기로 바로 리사이징하지 않고, 중간 크기의 영상으로 세미인터폴레이션을 한 후, 최종 영상의 크기로 인터폴레이션을 하여, 급격히 영상의 해상도를 변경하지 않고, 세미인터폴레이션과 인터폴레이션을 둘 다 사용하여 영상을 좀 더 자연스럽게 표현할 수 있다.In addition, when the control unit 120 changes the resolution of an image, semi-interpolation and interpolation may be appropriately mixed so that the image is displayed smoothly without being distorted. Conventionally, an interpolation method is used to resize an original image when resolution of an original image is different from resolution of an actual broadcast image BV. For example, if an original image having a resolution of 1920 * 1080 is divided into 30 * In order to reduce the resolution to 20, a method of extracting pixels every 70th and reducing it to 30 * 20 is used. However, such an interpolation method shrinks sharply by considering the difference between pixels linearly, so that the image is likely to be distorted. In order to solve such a problem, the control unit 120 of the virtual studio broadcast editing and transmitting apparatus 100, which converts the object position change into a vector and synchronizes the video and sound signals, first converts the image of 1920 * Using a semi-interpolation that resizes to a size larger than 1/10, which is a larger size, interpolates an image of 192 * 108 and shrinks it to 30 * 20. That is, the control unit 120 of the virtual studio broadcast editing and transmission apparatus 100, which converts the object position change into a vector and synchronizes the video and audio signals, does not directly resize the original image to the size of the final image at the time of resizing, It is possible to display the image more naturally by using both semi-interpolation and interpolation without rapidly changing the resolution of the image by interpolating the size of the final image after semi-interpolation with the size of the image.

한편, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 제어부(120)에서는 멀티쓰레딩(multithreading) 기술과 프로세스 로드 밸런싱(process load balancing) 기술을 사용하여 실시간 연산 처리량을 조절할 수 있다. 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 제어부(120)에서는 영상 및 음성을 수신하고, 영상 및 음성을 처리하며, 최종적으로 처리된 방송 영상(BV) 및 방송 음성을 송출한다. 이에, 각각의 프로세스를 처리하기 위한 쓰레드는, 예를 들어, 영상 송출 쓰레드, 영상 편집 쓰레드, 음성 편집 쓰레드 등을 포함할 수 있다. 또한, 상술한 바와 같이 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)에서는 크로마키 처리도 수행하므로, 크로마키 처리를 위한 크로마키 쓰레드도 포함할 수 있다.Meanwhile, the control unit 120 of the virtual studio broadcast editing and transmitting apparatus 100, which converts the object position change into a vector and synchronizes the video and audio signals, uses a multithreading technique and a process load balancing technique Real-time processing throughput can be adjusted. The control unit 120 of the virtual studio broadcast editing and transmitting apparatus 100 that synchronizes the video and sound signals by converting the object position change into a vector, processes the video and audio, processes the final processed broadcast Video (BV) and broadcast voice. Thus, a thread for processing each process may include, for example, a video delivery thread, an image editing thread, a voice editing thread, and the like. In addition, since the virtual studio broadcast editing and transmitting apparatus 100 that converts the object position change to a vector and synchronizes the video and sound signals also performs the chroma key processing, it also includes the chroma key thread for the chroma key processing .

객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)의 제어부(120)에서는 실시간으로 제어부(120)의 로드를 측정할 수 있다. 예를 들어, 영상 송출 쓰레드, 영상 편집 쓰레드, 음성 편집 쓰레드 등과 같은 다양한 쓰레드에서의 로드를 측정할 수 있다. 이 때, 제어부(120)는 실시간으로 각각의 쓰레드에 대한 지터(jitter)를 측정한다. 여기서 지터는 각각의 쓰레드의 로드의 시간 변위를 나타내는 값으로, 각각의 쓰레드가 처리하는 데이터 량이 기준 데이터 량보다 얼마나 빠른지 또는 늦은지를 나타내는 값이다. 이때, 제어부(120)는 음성 편집을 위한 쓰레드인 음성 편집 쓰레드에서의 지터가 소정의 임계치보다 큰 경우, 특정 쓰레드를 음성 편집에 대한 전용(dedicated) 쓰레드로 할당할 수 있고, 동시에 영상 편집 쓰레드, 영상 송출 쓰레드, 음성 송출 쓰레드 등의 수를 감소시킬 수 있다. 또한, 제어부(120)는 영상 편집을 위한 쓰레드인 영상 편집 쓰레드에서의 지터가 소정의 임계치보다 큰 경우, 특정 쓰레드를 영상 편집에 대한 전용(dedicated) 쓰레드로 할당할 수 있고, 동시에 음성 편집 쓰레드, 영상 송출 쓰레드, 음성 송출 쓰레드 등의 수를 감소시킬 수 있다.The control unit 120 of the virtual studio broadcast editing and transmission apparatus 100 that converts the object position change into a vector and synchronizes the video and sound signals can measure the load of the control unit 120 in real time. For example, we can measure the load on various threads, such as video delivery threads, video editing threads, voice editing threads, and so on. At this time, the controller 120 measures the jitter of each thread in real time. Here, the jitter is a value indicating the time displacement of the load of each thread, and is a value indicating how fast or late the data amount processed by each thread is than the reference data amount. At this time, when the jitter in the voice editing thread, which is a thread for voice editing, is larger than a predetermined threshold value, the control unit 120 can allocate a specific thread as a dedicated thread for voice editing, The number of video transmission threads, voice transmission threads, and the like can be reduced. If the jitter in the video editing thread, which is a video editing thread, is greater than a predetermined threshold value, the control unit 120 can allocate a specific thread as a dedicated thread for image editing, The number of video transmission threads, voice transmission threads, and the like can be reduced.

본 발명의 다양한 실시예에 따른 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기(100)와 이를 이용한 방송 편집 및 송출 방법에서는 상술한 바와 같은 다양한 기능을 갖는 멀티미디어 데이터 실시간 프로세싱 엔진을 사용하여 다채널 3D 영상 및 음성 고속 통합 처리를 수행할 수 있다.The virtual studio broadcast editing and transmitting device 100, which synchronizes video and sound signals by converting object position changes according to various embodiments of the present invention into a vector, and a broadcasting editing and transmitting method using the same, The multi-channel 3D image and voice high-speed integration processing can be performed using the multimedia data real-time processing engine.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although the embodiments of the present invention have been described in detail with reference to the accompanying drawings, it is to be understood that the present invention is not limited to those embodiments and various changes and modifications may be made without departing from the scope of the present invention. . Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. Therefore, it should be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

100 : 기기
110 : 입력부
12bn : 제n 음성 입력 장치
11 : 카메라
12 : 마이크
13 : 웹캠
14 : USB
15 : 컴퓨터
120 : 제어부
121 : 방송 영상 편집부
122 : 방송 음성 편집부
130 : 출력부
131 : 영상 출력부
132 : 음성 출력부
32a 내지 32f : 음성 출력 장치
31 : 디스플레이
32 : 스피커
140 : 그래픽 카드
150 : 메모리
160 : 전면부
161 : 전원 스위치
162 : 리셋 스위치
163 : USB 단자
164 : CD-ROM
170 : 후면부
171 : 음성 출력 단자
172 : 영상 입력 단자
173 : 영상 출력 단자
174 : USB 단자
175 : 확장 모듈팩 단자
180 : 주 화면
181 : 소스 뷰어
181a : 외부 소스 뷰어
181b : 내부 소스 뷰어
182a : A/V 플레이어 컨트롤
182b : A/V 믹서 볼륨 컨트롤
183a : 프리뷰
183b : 프로그램뷰
184a : 트랜지션바
184b : 트랜지션 이펙트 컨트롤
185 : A/V 프리셋 컨트롤
186 : PIP 오브젝트 컨트롤
187a : 로컬 뱅크 셀렉터
187b : 글로벌 뱅크 셀렉터
188 : A/V 레코더
189 : CD 플레이어
190 : 송출 화면
191 : 로고
192 : 자막
200 : 서버
1000 : 방송 중계 시스템
DV : 자료 영상
DP : 자료 영상의 3차원 좌표
BV : 방송 영상
VS : 가상의 공간
LB : 로컬 뱅크
BA : 크로마키 배경
OB : 객체
OP : 객체의 3차원 좌표
C1 : 제1 카메라
C2 : 제2 카메라
C3 : 제3 카메라
O : 원점
CL : 방송 중계 단말
SP : 스피커
PD : 패킷 데이터
TS : 시간 정보
CHna : 채널 정보
CHnb : 방송 음성
100: Device
110: input unit
12bn: the n-th audio input device
11: Camera
12: microphone
13: Webcam
14: USB
15: Computer
120:
121: Broadcast video editor
122: Broadcast voice editor
130:
131: Video output unit
132: Audio output unit
32a to 32f: audio output device
31: Display
32: Speaker
140: Graphics card
150: Memory
160: front part
161: Power switch
162: Reset switch
163: USB terminal
164: CD-ROM
170:
171: Audio output terminal
172: Video input terminal
173: Video output terminal
174: USB terminal
175: Expansion module pack terminal
180: Main screen
181: Source Viewer
181a: External Source Viewer
181b: Internal Source Viewer
182a: A / V Player Control
182b: A / V mixer volume control
183a: preview
183b: Program view
184a: Transition bar
184b: Transition effect control
185: A / V preset control
186: PIP Object Control
187a: Local bank selector
187b: Global Bank Selector
188: A / V recorder
189: CD player
190: Output screen
191: Logo
192: Subtitle
200: Server
1000: Broadcast relay system
DV: Data Video
DP: 3D coordinates of the data image
BV: Broadcast video
VS: virtual space
LB: Local Bank
BA: Chroma background
OB: object
OP: 3D coordinate of the object
C1: First camera
C2: Second camera
C3: Third camera
O: origin
CL: broadcast relay terminal
SP: Speaker
PD: packet data
TS: Time information
CHna: Channel information
CHnb: Broadcast voice

Claims (14)

촬영 영상을 실시간으로 수신하는 영상 입력부 및 상기 촬영 영상에 대응하는 녹음 음성을 실시간으로 수신하는 음성 입력부를 포함하는 입력부;
상기 입력부를 통해 수신된 상기 촬영 영상 및 상기 녹음 음성을 저장하고, 편집에 사용될 하나 이상의 자료 영상을 저장하는 메모리;
상기 입력부 또는 상기 메모리로부터 상기 촬영 영상을 수신하고 상기 메모리로부터 상기 자료 영상을 수신하여 방송 영상을 실시간으로 편집하는 방송 영상 편집부 및 상기 방송 영상에 대응하는 방송 음성을 실시간으로 편집하는 방송 음성 편집부를 포함하는 제어부; 및
상기 방송 영상을 출력하는 영상 출력부 및 상기 방송 음성을 출력하는 복수의 음성 출력부를 포함하는 출력부를 포함하고,
상기 방송 영상 편집부는 상기 방송 영상에서 상기 촬영 영상, 상기 촬영 영상에서의 객체 및 상기 자료 영상을 3차원 좌표로 나타내어 편집하고,
상기 방송 음성 편집부는 상기 촬영 영상의 이동, 상기 촬영 영상에서의 객체의 이동 및 상기 자료 영상의 이동을 나타내는 상기 3차원 좌표의 변화에 기초하여 상기 녹음 음성 및 상기 자료 영상에 대응하는 음성을 사용하여 상기 방송 음성을 실시간으로 편집하는, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기.
An input unit including an image input unit for receiving a photographed image in real time and a voice input unit for receiving a recorded voice corresponding to the photographed image in real time;
A memory for storing the photographed image and the recorded voice received through the input unit and storing one or more data images to be used for editing;
A broadcast image editor for receiving the photographed image from the input unit or the memory and receiving the data image from the memory to edit the broadcast image in real time, and a broadcast voice editor for editing the broadcast voice corresponding to the broadcast image in real time ; And
And an output unit including a video output unit for outputting the broadcast video and a plurality of audio output units for outputting the broadcast audio,
Wherein the broadcast image editing unit edits the shot image, the object in the shot image, and the data image in three-dimensional coordinates in the broadcast image,
Wherein the broadcast voice editing unit uses the voice corresponding to the recording voice and the data base based on the change of the three-dimensional coordinate indicating the movement of the photographed image, the movement of the object in the photographed image, and the movement of the data base And editing the broadcast audio in real time by synchronizing video and sound signals by converting object position changes into vectors.
제1항에 있어서,
상기 방송 영상 편집부는, 상기 방송 영상을 3차원의 가상의 공간으로 맵핑하고, 상기 가상의 공간에서 상기 촬영 영상, 상기 촬영 영상에서의 객체 및 상기 자료 영상에 3차원 좌표를 부여하며,
상기 방송 음성 편집부는, 상기 가상의 공간에서 상기 촬영 영상의 이동, 상기 촬영 영상에서의 객체의 이동 및 상기 자료 영상의 이동을 나타내는 3차원 벡터에 기초하여 상기 복수의 음성 출력부 각각에 대한 상기 방송 음성의 출력을 실시간으로 편집하는, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기.
The method according to claim 1,
Wherein the broadcast image editing unit maps the broadcast image to a three-dimensional virtual space, gives three-dimensional coordinates to the photographed image, the object in the photographed image, and the data image in the virtual space,
Wherein the broadcast voice editing unit is configured to edit the broadcast data for each of the plurality of audio output units based on a three-dimensional vector indicating the movement of the photographed image in the virtual space, the movement of the object in the captured image, A virtual studio broadcast editing and transmission device that synchronizes video and sound signals by converting the object position change into a vector, which edits the audio output in real time.
제2항에 있어서,
상기 방송 음성 편집부는,
상기 촬영 영상, 상기 촬영 영상에서의 객체 또는 상기 자료 영상이 상기 가상의 공간에서 x축을 따라 이동하면, 상기 복수의 음성 출력부 중 좌우 출력에 대응하는 음성 출력부의 출력을 실시간으로 편집하고,
상기 촬영 영상, 상기 촬영 영상에서의 객체 또는 상기 자료 영상이 상기 가상의 공간에서 y축을 따라 이동하면, 상기 복수의 음성 출력부 중 상하 출력에 대응하는 음성 출력부의 출력을 실시간으로 편집하고,
상기 촬영 영상, 상기 촬영 영상에서의 객체 또는 상기 자료 영상이 상기 가상의 공간에서 z축을 따라 이동하면, 상기 복수의 음성 출력부 중 전후 출력에 대응하는 음성 출력부의 출력을 실시간으로 편집하는, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기.
3. The method of claim 2,
Wherein the broadcast voice editor comprises:
Wherein the output of the audio output unit corresponding to the left and right outputs of the plurality of audio output units is edited in real time when the captured image, the object in the captured image, or the data base moves along the x axis in the virtual space,
And outputting the output of the audio output unit corresponding to the upper and lower outputs of the plurality of audio output units in real time when the captured image, the object in the captured image, or the data image moves along the y axis in the virtual space,
And outputting the output of the audio output unit corresponding to the forward and backward outputs of the plurality of audio output units in real time when the captured image, the object in the captured image, or the data base moves along the z axis in the virtual space. A virtual studio broadcast editing and transmission device that synchronizes video and audio signals by converting the change into a vector.
제3항에 있어서,
상기 방송 음성 편집부는,
상기 가상의 공간에서 상기 촬영 영상에서의 객체가 이동하는 경우,
상기 가상의 공간에서 상기 객체의 3차원 좌표의 변화에 기초하여 상기 복수의 음성 출력부 각각에 대한 상기 방송 음성을 실시간으로 편집하는, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기.
The method of claim 3,
Wherein the broadcast voice editor comprises:
When an object in the photographed image moves in the virtual space,
Wherein the broadcast sound for each of the plurality of audio output units is edited in real time based on a change in three-dimensional coordinates of the object in the virtual space, Studio broadcast editing and transmission equipment.
제4항에 있어서,
상기 음성 입력부는, 상기 촬영 영상에서의 객체와 함께 이동하는 음성 입력 장치로부터 상기 녹음 음성을 실시간으로 수신하고,
상기 방송 음성 편집부는, 상기 가상의 공간에서 상기 음성 입력 장치의 위치 변화에 기초하여 상기 녹음 음성을 상기 복수의 음성 출력부 각각으로 출력하는, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기.
5. The method of claim 4,
Wherein the voice input unit receives the recorded voice in real time from a voice input device moving with an object in the captured image,
Wherein the broadcast voice editing unit converts the object position change into a vector and outputs the recorded voice to each of the plurality of voice output units based on a change in the position of the voice input device in the virtual space, A virtual studio broadcast editing and transmission device.
제4항에 있어서,
상기 음성 입력부는, 상기 촬영 영상이 촬영되는 촬영 장소에서 복수의 위치에 고정된 복수의 음성 입력 장치로부터 복수의 녹음 음성을 실시간으로 수신하고,
상기 방송 영상 편집부는, 상기 가상의 공간에서 상기 고정된 복수의 음성 입력 장치에 3차원 좌표를 부여하고, 상기 고정된 복수의 음성 입력 장치로부터 상기 복수의 녹음 음성의 실시간 변화에 기초하여 상기 가상의 공간에서 상기 객체의 이동을 검출하고,
상기 방송 음성 편집부는, 검출된 상기 객체의 이동에 따른 상기 가상의 공간에서 상기 객체의 3차원 좌표의 변화에 기초하여 상기 녹음 음성을 상기 복수의 음성 출력부 각각으로 출력하는, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기.
5. The method of claim 4,
Wherein the voice input unit receives a plurality of voice recordings in real time from a plurality of voice input devices fixed at a plurality of positions at a capturing place where the captured video is captured,
Wherein the broadcast image editing unit assigns three-dimensional coordinates to the fixed plurality of audio input apparatuses in the virtual space and transmits the three-dimensional coordinates to the plurality of audio input apparatuses from the fixed plurality of audio input apparatuses, Detecting movement of the object in space,
Wherein the broadcast voice editing unit outputs the recorded voice to each of the plurality of voice output units based on a change of the three-dimensional coordinates of the object in the virtual space according to the detected movement of the object, To synchronize video and audio signals.
제2항에 있어서,
상기 방송 음성 편집부는,
상기 가상의 공간에서 상기 촬영 영상 또는 상기 자료 영상이 이동하는 경우,
상기 가상의 공간에서 상기 촬영 영상 또는 상기 자료 영상의 3차원 좌표의 변화에 기초하여 상기 복수의 음성 출력부 각각에 대한 상기 방송 음성을 실시간으로 편집하는, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기.
3. The method of claim 2,
Wherein the broadcast voice editor comprises:
When the photographed image or the data image moves in the virtual space,
Wherein the broadcast sound for each of the plurality of audio output units is edited in real time based on a change in three-dimensional coordinates of the taken image or the data image in the virtual space, Virtual studio broadcast editing and transmission equipment with synchronized signals.
제7항에 있어서,
상기 방송 음성 편집부는,
상기 가상의 공간 밖으로 상기 촬영 영상 또는 상기 자료 영상이 이동하는 경우,
상기 촬영 영상에 대응하는 상기 녹음 음성 또는 상기 자료 영상에 대응하는 음성을 음소거(mute)하는, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기.
8. The method of claim 7,
Wherein the broadcast voice editor comprises:
When the photographed image or the data image moves out of the virtual space,
And mute the sound corresponding to the recorded voice or the data image corresponding to the photographed image, and synchronizing the video and sound signals by converting the object position change into a vector.
제1항에 있어서,
상기 메모리는, 상기 가상의 공간에서 상기 방송 영상으로 출력될 상기 촬영 영상 및 상기 자료 영상의 위치를 저장하는 복수의 로컬 뱅크를 저장하고,
상기 복수의 로컬 뱅크 중 특정 로컬 뱅크를 선택하는 입력이 수신되면,
상기 방송 음성 편집부는, 상기 특정 로컬 뱅크로 상기 방송 영상을 전환함에 따라 발생하는 상기 촬영 영상의 3차원 좌표의 변화 및 상기 자료 영상의 3차원 좌표의 변화에 기초하여 상기 복수의 음성 출력부 각각에 대한 상기 방송 음성을 실시간으로 편집하는, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기.
The method according to claim 1,
Wherein the memory stores a plurality of local banks storing positions of the captured image and the data image to be outputted as the broadcast image in the virtual space,
When an input for selecting a particular local bank among the plurality of local banks is received,
Wherein the broadcast voice editing unit is configured to edit the broadcast image on the basis of the change of the three-dimensional coordinates of the photographed image and the change of the three-dimensional coordinates of the data image generated by switching the broadcast image to the specific local bank, A virtual studio broadcast editing and transmission device for synchronizing video and sound signals by converting object position changes into vectors,
제9항에 있어서,
상기 방송 음성 편집부는,
상기 복수의 로컬 뱅크 중 제1 뱅크에서 제2 뱅크로의 전환을 선택하는 입력이 수신되는 경우,
상기 제1 뱅크가 나타내는 상기 촬영 영상의 3차원 좌표 및 상기 자료 영상의 3차원 좌표와 상기 제2 뱅크가 나타내는 상기 촬영 영상의 3차원 좌표 및 상기 자료 영상의 3차원 좌표를 비교하여,
상기 촬영 영상 및 상기 자료 영상 각각에 대한 3차원 벡터를 생성하고, 상기 3차원 벡터에 기초하여 상기 복수의 음성 출력부 각각에 대한 상기 방송 음성을 실시간으로 편집하는, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기.
10. The method of claim 9,
Wherein the broadcast voice editor comprises:
When an input is selected to select switching from a first bank to a second bank of the plurality of local banks,
Dimensional coordinate of the photographed image represented by the first bank and the three-dimensional coordinate of the data image, the three-dimensional coordinate of the photographed image represented by the second bank and the three-dimensional coordinate of the data image,
Dimensional vector for each of the captured image and the data image, and edits the broadcast speech for each of the plurality of audio output units in real time based on the three-dimensional vector, converts the object position change into a vector Virtual studio broadcasting editing and transmission device synchronizing video and sound signals.
객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기에 의해 구현되는 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 방법에 있어서,
입력부에서 객체에 대한 촬영 영상 및 촬영 영상에 대응하는 녹음 음성을 실시간으로 수신하는 단계;
제어부에서 상기 촬영 영상, 상기 녹음 음성 및 메모리에 저장된 자료 영상에 기초하여 방송 영상 및 상기 방송 영상에 대응하는 방송 음성을 실시간으로 편집하는 단계; 및
영상 출력부에서 상기 방송 영상을 출력하고, 복수의 음성 출력부에서 상기 방송 음성을 출력하는 단계를 포함하고,
상기 제어부에서 상기 방송 영상 및 상기 방송 음성을 실시간으로 편집하는 단계는,
상기 제어부의 방송 영상 편집부에서 상기 방송 영상을 3차원의 가상의 공간으로 맵핑하는 단계;
상기 방송 영상 편집부에서 상기 가상의 공간에서, 상기 촬영 영상, 상기 촬영 영상에서의 객체 및 상기 자료 영상을 3차원 좌표로 나타내는 단계; 및
상기 제어부의 방송 음성 편집부에서 상기 촬영 영상의 이동, 상기 촬영 영상에서의 객체의 이동 및 상기 자료 영상의 이동을 나타내는 3차원 좌표의 변화에 기초하여 상기 방송 음성을 실시간으로 편집하는 단계를 포함하는, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 방법.
In a virtual studio broadcasting editing and transmission method of synchronizing video and sound signals by converting object position changes implemented by a virtual studio broadcast editing and transmission device into a vector by synchronizing video and sound signals by converting object position changes into vectors ,
The method comprising the steps of: receiving, in an input unit, a photographed image of an object and a recorded voice corresponding to the photographed image in real time;
Editing the broadcast video and the broadcast audio corresponding to the broadcast video in real time based on the taken image, the recorded voice, and the data image stored in the memory in the control unit; And
Outputting the broadcast image at a video output unit and outputting the broadcast audio at a plurality of audio output units,
Wherein the editing of the broadcast video and the broadcast voice in real time by the controller comprises:
Mapping the broadcast image to a three-dimensional virtual space in a broadcast image editor of the controller;
Displaying the photographed image, the object in the photographed image, and the data image in three-dimensional coordinates in the virtual space in the broadcast image editing unit; And
Editing the broadcast speech in real time based on a change in three-dimensional coordinates indicating movement of the shot image, movement of the object in the shot image, and movement of the data image in the broadcast voice editor of the controller, A method for editing and transmitting virtual studio broadcasting by synchronizing video and sound signals by converting object position changes into vectors.
제11항에 있어서,
상기 방송 음성 편집부에서 상기 촬영 영상, 상기 촬영 영상에서의 객체 또는 상기 자료 영상의 상기 3차원 좌표의 변화에 기초하여 상기 방송 음성을 실시간으로 편집하는 단계는,
상기 방송 음성 편집부에서 상기 가상의 공간에서, 상기 촬영 영상, 상기 촬영 영상에서의 객체 또는 상기 자료 영상이 상기 가상의 공간에서 x축을 따라 이동하면, 상기 복수의 음성 출력부 중 좌우 출력에 대응하는 음성 출력부의 출력을 실시간으로 편집하고,
상기 촬영 영상, 상기 촬영 영상에서의 객체 또는 상기 자료 영상이 상기 가상의 공간에서 y축을 따라 이동하면, 상기 복수의 음성 출력부 중 상하 출력에 대응하는 음성 출력부의 출력을 실시간으로 편집하고,
상기 촬영 영상, 상기 촬영 영상에서의 객체 또는 상기 자료 영상이 상기 가상의 공간에서 z축을 따라 이동하면, 상기 복수의 음성 출력부 중 전후 출력에 대응하는 음성 출력부의 출력을 실시간으로 편집하여, 상기 방송 음성을 실시간으로 편집하는 단계를 포함하는, 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 방법.
12. The method of claim 11,
Wherein editing the broadcast voice in real time based on a change in the three-dimensional coordinates of the photographed image, the object in the photographed image, or the data image in the broadcast voice editor,
When the moving picture editing unit moves the photographed image, the object in the photographed image, or the data image in the virtual space along the x axis in the virtual space, a voice corresponding to the left and right output of the plurality of voice output units The output of the output unit is edited in real time,
And outputting the output of the audio output unit corresponding to the upper and lower outputs of the plurality of audio output units in real time when the captured image, the object in the captured image, or the data image moves along the y axis in the virtual space,
The output of the audio output unit corresponding to the forward and backward outputs among the plurality of audio output units is edited in real time when the shot image, the object in the shot image, or the data image moves along the z axis in the virtual space, A method for editing and transmitting a virtual studio broadcast by synchronizing an image and a sound signal by converting an object position change into a vector.
복수의 방송 음성을 포함하는 패킷 데이터 및 방송 영상을 실시간으로 편집하는 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기;
상기 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기로부터 상기 패킷 데이터 및 상기 방송 영상을 수신하는 서버; 및
상기 서버로부터 상기 패킷 데이터 및 상기 방송 영상을 수신하여 영상 출력 장치 및 복수의 음성 출력 장치로 출력하는 방송 중계 단말을 포함하고,
상기 패킷 데이터는 시간 정보, 복수의 채널 정보 및 상기 복수의 채널에 대응하는 복수의 방송 음성을 포함하고,
상기 방송 중계 단말은 상기 패킷 데이터의 상기 복수의 채널 중 상기 복수의 음성 출력 장치에 대응되는 채널만을 선택적으로 출력하는, 방송 중계 시스템.
A virtual studio broadcast editing and transmission device that synchronizes image and sound signals by converting a change of an object position for editing packet data and a broadcast image including a plurality of broadcast audio in real time into a vector;
A server for receiving the packet data and the broadcast image from a virtual studio broadcast editing and transmitting device that converts the object position change into a vector and synchronizes video and sound signals; And
And a broadcast relay terminal for receiving the packet data and the broadcast image from the server and outputting the packet data and the broadcast image to a video output apparatus and a plurality of audio output apparatuses,
Wherein the packet data includes time information, a plurality of channel information, and a plurality of broadcast voices corresponding to the plurality of channels,
Wherein the broadcast relay terminal selectively outputs only a channel corresponding to the plurality of audio output apparatuses out of the plurality of channels of the packet data.
제13항에 있어서,
상기 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기는,
상기 방송 영상에서 촬영 영상, 상기 촬영 영상에서의 객체 및 자료 영상을 3차원 좌표로 나타내어 편집하는 방송 영상 편집부; 및
상기 방송 음성에서 상기 촬영 영상의 이동, 상기 촬영 영상에서의 객체의 이동 및 상기 자료 영상의 이동을 나타내는 상기 3차원 좌표의 변화에 기초하여 녹음 음성 및 자료 영상에 대응하는 음성을 사용하여 상기 방송 음성을 채널 별로 편집하는 방송 음성 편집부를 포함하는, 방송 중계 시스템.
14. The method of claim 13,
The virtual studio broadcast editing and transmitting device, which converts the object position change into a vector and synchronizes video and audio signals,
A broadcasting image editing unit for displaying the photographed image in the broadcast image, the object in the photographed image, and the data image in three-dimensional coordinates; And
And a voice corresponding to the recording voice and the data base based on the change of the three-dimensional coordinate indicating the movement of the photographed image, the movement of the object in the photographed image, and the movement of the data image in the broadcast voice, And a broadcast voice editing unit for editing the broadcast voice by channel.
KR1020170123753A 2017-09-25 2017-09-25 A system and method for 3d virtual studio broadcasting that synchronizes video and audio signals by converting object position change into vector KR101834925B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170123753A KR101834925B1 (en) 2017-09-25 2017-09-25 A system and method for 3d virtual studio broadcasting that synchronizes video and audio signals by converting object position change into vector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170123753A KR101834925B1 (en) 2017-09-25 2017-09-25 A system and method for 3d virtual studio broadcasting that synchronizes video and audio signals by converting object position change into vector

Publications (1)

Publication Number Publication Date
KR101834925B1 true KR101834925B1 (en) 2018-03-06

Family

ID=61727527

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170123753A KR101834925B1 (en) 2017-09-25 2017-09-25 A system and method for 3d virtual studio broadcasting that synchronizes video and audio signals by converting object position change into vector

Country Status (1)

Country Link
KR (1) KR101834925B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200108484A (en) * 2018-03-12 2020-09-18 라인플러스 주식회사 An augmented reality providing device for recognizing a situation using a neural network, a providing method, and a computer program stored in a medium to execute the method
KR102534233B1 (en) * 2023-01-04 2023-05-18 주식회사 블루핀스튜디오 Actual image extraction system based on wavelength

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100795552B1 (en) 2005-02-07 2008-01-21 주식회사 다림비젼 3D Virtual Studio Using VIDEO Texturing
KR100889367B1 (en) 2007-03-09 2009-03-19 (주) 이브로드캐스트 System and Method for Realizing Vertual Studio via Network
KR101373631B1 (en) 2012-09-17 2014-03-12 (주)지니트 System for composing images by real time and method thereof
KR101381396B1 (en) 2013-09-12 2014-04-04 하수호 Multiple viewer video and 3d stereophonic sound player system including stereophonic sound controller and method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100795552B1 (en) 2005-02-07 2008-01-21 주식회사 다림비젼 3D Virtual Studio Using VIDEO Texturing
KR100889367B1 (en) 2007-03-09 2009-03-19 (주) 이브로드캐스트 System and Method for Realizing Vertual Studio via Network
KR101373631B1 (en) 2012-09-17 2014-03-12 (주)지니트 System for composing images by real time and method thereof
KR101381396B1 (en) 2013-09-12 2014-04-04 하수호 Multiple viewer video and 3d stereophonic sound player system including stereophonic sound controller and method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200108484A (en) * 2018-03-12 2020-09-18 라인플러스 주식회사 An augmented reality providing device for recognizing a situation using a neural network, a providing method, and a computer program stored in a medium to execute the method
KR102423903B1 (en) 2018-03-12 2022-07-22 라인플러스 주식회사 Augmented reality providing apparatus for recognizing a situation using a neural network, providing method, and a computer program stored in a medium for executing the method
KR102534233B1 (en) * 2023-01-04 2023-05-18 주식회사 블루핀스튜디오 Actual image extraction system based on wavelength

Similar Documents

Publication Publication Date Title
CN106792246B (en) Method and system for interaction of fusion type virtual scene
US9679369B2 (en) Depth key compositing for video and holographic projection
US20210092466A1 (en) Information processing apparatus, information processing method, and program
CN110225224B (en) Virtual image guiding and broadcasting method, device and system
JP5851625B2 (en) Stereoscopic video processing apparatus, stereoscopic video processing method, and stereoscopic video processing program
US20110304735A1 (en) Method for Producing a Live Interactive Visual Immersion Entertainment Show
US11172185B2 (en) Information processing apparatus, information processing method, video processing system, and storage medium
KR101834925B1 (en) A system and method for 3d virtual studio broadcasting that synchronizes video and audio signals by converting object position change into vector
CN107172413A (en) Method and system for displaying video of real scene
KR20180052494A (en) Conference system for big lecture room
US20090153550A1 (en) Virtual object rendering system and method
KR102561371B1 (en) Multimedia display apparatus and recording media
KR101790208B1 (en) Device and method for real time 3d virtual studio broadcasting
JP4720321B2 (en) Information processing apparatus and method, and program
JP2008187678A (en) Video generating apparatus and video generating program
JP6803463B2 (en) Display device and its control method
WO2019004073A1 (en) Image placement determination device, display control device, image placement determination method, display control method, and program
JP2012004991A (en) Broadcast receiving apparatus and control method for the same
JP2013187841A (en) Electronic apparatus, output control method, and program
JP2018129700A (en) Signal processing system, signal generation device, output device, signal generation method, output method, signal generation program, and output program
KR100284768B1 (en) Audio data processing apparatus in mult-view display system
JPH04348389A (en) Display pattern controller
TWI787799B (en) Method and device for video and audio processing
JP2001148806A (en) Video image synthesis arithmetic processing unit, its method and system
KR20040098597A (en) Image processing apparatus and the method, and the imaging device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant