KR102184131B1 - Multi channels transmitting system for dynamaic audio and controlling method - Google Patents

Multi channels transmitting system for dynamaic audio and controlling method Download PDF

Info

Publication number
KR102184131B1
KR102184131B1 KR1020180162152A KR20180162152A KR102184131B1 KR 102184131 B1 KR102184131 B1 KR 102184131B1 KR 1020180162152 A KR1020180162152 A KR 1020180162152A KR 20180162152 A KR20180162152 A KR 20180162152A KR 102184131 B1 KR102184131 B1 KR 102184131B1
Authority
KR
South Korea
Prior art keywords
channel
grouped
images
audio signals
video
Prior art date
Application number
KR1020180162152A
Other languages
Korean (ko)
Other versions
KR20200073699A (en
Inventor
이상윤
김준호
한정효
Original Assignee
포디리플레이코리아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포디리플레이코리아 주식회사 filed Critical 포디리플레이코리아 주식회사
Priority to KR1020180162152A priority Critical patent/KR102184131B1/en
Publication of KR20200073699A publication Critical patent/KR20200073699A/en
Application granted granted Critical
Publication of KR102184131B1 publication Critical patent/KR102184131B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2385Channel allocation; Bandwidth allocation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4852End-user interface for client configuration for modifying audio parameters, e.g. switching between mono and stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels

Abstract

일 실시 예에 따른 입체 오디오 제공을 위한 다채널 전송 시스템은 카메라 위치별로 녹화와 동시에 녹음을 하고, 채널 변환 시 해당 위치의 오디오를 출력함으로써, 위치별로 재생 시 오디오의 위치 흐름을 가질 수 있고, 사용자는 원하는 각도 또는 위치에서의 영상을 확인하면서 입체적인 오디오 출력을 청취할 수 있다. The multi-channel transmission system for providing stereoscopic audio according to an embodiment records at the same time as recording for each camera location, and outputs audio at a corresponding location during channel conversion, so that the user can have a location flow of audio during playback by location. You can listen to the stereoscopic audio output while checking the image from a desired angle or position.

Description

입체 오디오를 제공하는 다채널 전송 시스템 및 이의 제어 방법{Multi channels transmitting system for dynamaic audio and controlling method}BACKGROUND OF THE INVENTION 1. Field of the Invention Multi channels transmitting system for providing stereoscopic audio and controlling method thereof

실시 예들은 입체 오디오를 제공하는 다채널 전송 시스템 및 이의 제어 방법에 관한 것이다.The embodiments relate to a multi-channel transmission system for providing stereoscopic audio and a control method thereof.

최근 대중들은 모바일을 이용한 동영상 재생을 선호한다. 이러한 선호에 발맞춰 기업들은 방송 플랫폼, 예를 들면 V-app, AfreecaTV, Youtube Live를 서비스 하고 있다. 이러한 플랫폼을 시청하는 대중들은 하나의 시점, 즉 하나의 카메라에서 촬영한 영상을 시청하고 있다. 그러나 최근 시청자들은 원하는 공간에서 촬영된 영상을 시청하길 원한다.Recently, the public prefers to play videos using mobile devices. In line with this preference, companies are offering broadcasting platforms such as V-app, AfreecaTV, and Youtube Live. The public watching these platforms are watching videos taken from one viewpoint, that is, one camera. However, recent viewers want to watch the video shot in the desired space.

현재, 복수의 카메라로 하나의 피사체를 다양한 채널에서 촬영하여 획득한 복수의 영상을 기하학적으로 교정, 합성하여 다채널의 영상을 사용자에게 제공하는 영상 서비스가 공개되어 있다. 이러한 다채널 영상은 고화질의 개념을 뛰어넘는 사실감 넘치는 영상을 제공하며, 이를 통해 사용자들은 미디어에 몰입감을 더욱 느끼게 되고 광고, 교육, 의료, 국방, 오락 등의 분야에서 영상 정보 전달 효과를 크게 높일 수 있다.Currently, a video service that provides a multi-channel image to a user by geometrically correcting and synthesizing a plurality of images obtained by photographing a subject in various channels with a plurality of cameras has been disclosed. These multi-channel images provide realistic images that go beyond the concept of high-definition, and through this, users feel more immersed in the media and can greatly enhance the effect of delivering image information in fields such as advertising, education, medical care, defense, and entertainment. have.

종래의 다채널 영상에서는 채널/시간 스위칭이 다채널 영상 제작시에 미리 정해진 병합 방식으로 단순히 재생되는 차원이다. 즉, 종래에는 복수 개의 카메라에서 복수 개의 프레임을 획득하고, 획득한 프레임들 중 일부를 선별한 후 이들 프레임을 병합하여 하나의 채널 스위칭 영상을 제작하였다. 이러한 채널 스위칭 영상은 영상 제작 시에 제작자가 미리 결정한 채널의 프레임을 단순 병합한 것이므로, 해당 영상 파일을 재생하면 병합된 프레임들이 단일의 채널 이동 효과를 나타내는 채널 스위칭 효과를 내는 것이었다. 이와 같은 종래기술의 다채널 영상에 따르면 사용자는 미리 제작된 채널 스위칭 효과를 단순 시청하는 것에 불과하였고, 시청자가 시각 스위칭 또는 채널 스위칭을 수동으로 조작하여 재생을 원하는 시점으로 채널을 돌려가면서 영상을 시청하는 것은 불가능하였다. In the conventional multi-channel image, channel/time switching is a dimension that is simply reproduced by a predetermined merge method when producing a multi-channel image. That is, in the related art, a plurality of frames are acquired from a plurality of cameras, some of the acquired frames are selected, and these frames are merged to produce a single channel switching image. Since such a channel-switched video is a simple merge of the frames of a channel previously determined by the producer during video production, when the video file is played back, the merged frames exert a channel switching effect showing a single channel shift effect. According to such a multi-channel video of the prior art, the user is simply watching the previously produced channel switching effect, and the viewer watches the video while turning the channel to the desired point of time by manually manipulating visual switching or channel switching. It was impossible to do.

또한, 다양한 공간에서 영상 촬영을 위해 다채널 또는 카메라 동기화 기법, 영상 보정 및 전송 방법이 필요할 뿐만 아니라, 다양한 공간에서 발생하는 입체감 있는 오디오를 현장감 있게 제공하기 위한 방법이 필요하다.In addition, there is a need for a multi-channel or camera synchronization technique, an image correction and transmission method for capturing an image in various spaces, as well as a method for realistically providing stereoscopic audio generated in various spaces.

실시 예들은 다 시점 영상에 상응하는 다 시점 오디오를 제공하는 다채널 전송 시스템 및 이의 제어 방법을 제공하는 것이다. Embodiments provide a multi-channel transmission system for providing multi-view audio corresponding to a multi-view image and a control method therefor.

일 실시 예에 따른 복수의 카메라를 통해 소정 시간 피사체를 촬영하고, 각각의 카메라에 입력되는 오디오를 녹음하도록 제어하고, 상기 복수의 카메라에 대응하는 다채널 영상들 및 녹음된 오디오 신호들을 통신망을 통해 전송하는 카메라 제어부; 및 상기 카메라 제어부로부터 전송된 상기 다채널 영상들을 시간별, 채널별, 시간 및 채널을 혼합한 적어도 하나의 기준으로 그룹핑하여 저장하고, 상기 그룹핑된 영상에 상응하는 각각의 오디오 신호들을 저장하고, 상기 사용자 단말의 요청에 따라 상기 그룹핑된 영상과, 상기 그룹핑된 영상에 상응하는 각각 오디오 신호들을 상기 통신망을 통해 전송하는 영상 서버를 포함한다.According to an embodiment, a subject is photographed for a predetermined time through a plurality of cameras, controlled to record audio input to each camera, and multi-channel images and recorded audio signals corresponding to the plurality of cameras are transmitted through a communication network. A camera control unit that transmits; And grouping and storing the multi-channel images transmitted from the camera control unit according to at least one criterion of time, channel, time and channel, and storing respective audio signals corresponding to the grouped images, and the user And a video server for transmitting the grouped video and audio signals corresponding to the grouped video through the communication network according to the request of the terminal.

상기 시간 및 채널을 혼합한 기준은, 제1 내지 제N(N은 2 이상의 자연수) 시간에 해당하는 제1 내지 제M(M은 2 이상의 자연수) 채널의 영상들을 혼합하거나, 상기 제1 내지 제N 시간에 해당하는 제M 내지 제1 채널의 영상들을 혼합하는 것을 특징으로 한다.The time and channel are mixed, and the first to Nth (N is a natural number of 2 or more) times corresponding to the first to Nth (where M is a natural number of 2 or more) channels are mixed, or the first to the first It is characterized in that the images of the Mth to the first channels corresponding to N times are mixed.

상기 시간 및 채널을 혼합한 기준은, 제N 내지 제1 시간에 해당하는 제1 내지 제M 채널의 영상들을 혼합하거나, 상기 제N 내지 제1시간에 해당하는 제M 내지 제1 채널의 영상들을 혼합하는 것을 특징으로 한다.The time and the channel are mixed, and the images of the first to Mth channels corresponding to the Nth to the first times are mixed, or images of the Mth to the first channels corresponding to the Nth to the first time are mixed. It is characterized by mixing.

상기 소정 시간 중 어느 한 시간에 해당하는 이벤트를 중심으로 ±y(y는 자연수) 시간별 채널에 해당하는 영상들을 그룹핑하는 것을 특징으로 한다.It is characterized in that images corresponding to a channel by time (y is a natural number) are grouped around an event corresponding to any one of the predetermined times.

상기 그룹핑된 영상에 상응하는 각각의 오디오 신호들은 상기 각각의 카메라가 위치한 서로 다른 장소에서 녹음된 서로 다른 크기의 오디오 신호들인 것을 특징으로 한다.Each of the audio signals corresponding to the grouped image is characterized in that the audio signals of different sizes recorded at different locations where the respective cameras are located.

상기 그룹핑된 영상이 채널별로 그룹핑된 경우, 상기 그룹핑된 영상을 재생하는 경우 녹음된 서로 다른 크기의 오디오 신호들이 출력되는 것을 특징으로 한다.When the grouped images are grouped for each channel, recorded audio signals having different sizes are output when the grouped images are reproduced.

상기 사용자 요청은, 상기 그룹핑된 영상을 재생하는 경우, 줌인 또는 줌아웃에 상응하는 신호이고, 상기 줌인 또는 줌아웃에 상응하는 신호에 따라 재생중인 영상의 오디오의 크기가 조절되는 것을 특징으로 한다.The user request is a signal corresponding to zoom-in or zoom-out when playing the grouped video, and the audio size of the video being played is adjusted according to the signal corresponding to the zoom-in or zoom-out.

다른 실시 예에 따른 다채널 전송 시스템의 제어 방법은 복수의 카메라를 통해 소정 시간 피사체를 촬영하고, 각각의 카메라에 입력되는 오디오를 녹음하도록 제어하는 단계; 상기 복수의 카메라에 대응하는 다채널 영상들 및 녹음된 오디오 신호들을 통신망을 통해 전송하는 단계; 상기 전송된 상기 다채널 영상들을 시간별, 채널별, 시간 및 채널을 혼합한 적어도 하나의 기준으로 그룹핑하여 저장하고, 상기 그룹핑된 영상에 상응하는 각각의 오디오 신호들을 저장하는 단계; 및 상기 사용자 단말의 요청에 따라 상기 저장된 그룹핑된 영상 및 상기 그룹핑된 영상에 상응하는 각각의 오디오 신호들을 상기 통신망을 통해 전송하는 단계를 포함한다.According to another embodiment, a control method of a multi-channel transmission system includes: photographing a subject for a predetermined time through a plurality of cameras, and controlling to record audio input to each camera; Transmitting multi-channel images and recorded audio signals corresponding to the plurality of cameras through a communication network; Grouping and storing the transmitted multi-channel images based on at least one of a mixture of time, channel, time and channel, and storing respective audio signals corresponding to the grouped images; And transmitting the stored grouped image and respective audio signals corresponding to the grouped image through the communication network according to the request of the user terminal.

상기 그룹핑된 영상에 상응하는 각각의 오디오 신호들은 상기 각각의 카메라가 위치한 서로 다른 장소에서 녹음된 서로 다른 크기의 오디오 신호들이고, 상기 그룹핑된 영상이 채널별로 그룹핑된 경우, 상기 그룹핑된 영상을 재생하는 경우 녹음된 서로 다른 크기의 오디오 신호들이 출력되는 것을 특징으로 한다.Each audio signal corresponding to the grouped image is audio signals of different sizes recorded at different locations where the cameras are located, and when the grouped image is grouped by channel, the grouped image is played back. In this case, recorded audio signals of different sizes are output.

또 다른 실시 예에 따른 상기 제어 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 저장매체를 포함한다.It includes a storage medium recording a program for executing the control method according to another embodiment in a computer.

실시 예에 따른 입체 오디오를 제공하는 다채널 전송 시스템은 시간의 흐름에 따른 공간 이동 시 다채널 영상의 데이터 전송의 편리성을 높이고, 처리 속도를 줄일 수 있다. 또한, 카메라 위치별로 녹화와 동시에 녹음을 하고, 채널 변환 시 해당 위치의 오디오를 출력함으로써, 위치별로 재생 시 오디오의 위치 흐름을 가질 수 있고, 사용자는 원하는 각도 또는 위치에서의 영상을 확인하면서 입체적인 오디오 출력을 청취할 수 있다. The multi-channel transmission system for providing stereoscopic audio according to the embodiment may increase convenience of data transmission of a multi-channel image and reduce a processing speed when moving in space over time. In addition, by simultaneously recording and recording for each camera location, and outputting the audio of the corresponding location when switching channels, the user can have a positional flow of the audio when playing by location, and the user can check the video from a desired angle or position while checking the stereoscopic audio. You can listen to the output.

도 1은 일 실시 예에 따른 입체 오디오를 제공하는 다채널 전송 시스템(100)의 개략 도이다.
도 2는 다채널 영상을 생성하는 예시 도이다.
도 3은 다른 실시 예에 따른 입체 오디오를 제공하는 다채널 전송 시스템의 제어 방법을 설명하기 위한 흐름 도이다.
도 4는 또 다른 실시 예에 따른 입체 오디오를 생성하는 개략 도이다.
도 5 및 6은 또 다른 실시 예들에 따른 입체 오디오를 출력하는 예시 도들이다.
도 7은 도 1에 도시된 카메라 제어부(110)의 개략 도이다.
도 8은 도 1에 도시된 영상 서버(200)의 개략 도이다.
도 9 내지 11은 또 다른 실시 예에 따른 다채널 영상을 그룹 핑하는 것을 설명하기 위한 예시 도들이다.
1 is a schematic diagram of a multi-channel transmission system 100 providing stereoscopic audio according to an exemplary embodiment.
2 is an exemplary diagram for generating a multi-channel image.
3 is a flowchart illustrating a method of controlling a multi-channel transmission system providing stereoscopic audio according to another embodiment.
4 is a schematic diagram of generating stereoscopic audio according to another embodiment.
5 and 6 are exemplary diagrams for outputting stereoscopic audio according to still other embodiments.
7 is a schematic diagram of the camera control unit 110 shown in FIG. 1.
8 is a schematic diagram of the image server 200 shown in FIG. 1.
9 to 11 are exemplary diagrams for explaining grouping of multi-channel images according to another embodiment.

본 실시 예들에서 사용되는 용어는 본 실시 예들에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 기술분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 임의로 선정된 용어도 있으며, 이 경우 해당 실시 예의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서, 본 실시 예들에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 실시 예들의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the embodiments have been selected as currently widely used general terms as possible while considering functions in the embodiments, but this may vary depending on the intention or precedent of a technician working in the art, the emergence of new technologies, etc. . In addition, in certain cases, there are terms that are arbitrarily selected, and in this case, the meaning will be described in detail in the description of the corresponding embodiment. Therefore, the terms used in the present embodiments should be defined based on the meaning of the term and the contents of the present embodiments, not a simple name of the term.

실시 예들에 대한 설명에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 그 중간에 다른 구성요소를 사이에 두고 전기적으로 연결되어 있는 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 실시 예들에 기재된 “...부”의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the description of the embodiments, when a certain part is connected to another part, this includes not only a case in which it is directly connected, but also a case in which it is electrically connected with another component interposed therebetween. In addition, when a certain part includes a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary. In addition, the term "... unit" described in the embodiments means a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software.

본 실시 예들에서 사용되는 “구성된다” 또는 “포함한다” 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Terms such as “consisting of” or “comprising” used in the present embodiments should not be construed as necessarily including all of the various constituent elements or various steps described in the specification, and some constituent elements or some of them It should be construed that the steps may not be included, or may further include additional components or steps.

하기 실시 예들에 대한 설명은 권리범위를 제한하는 것으로 해석되지 말아야 하며, 해당 기술분야의 당업자가 용이하게 유추할 수 있는 것은 실시 예들의 권리범위에 속하는 것으로 해석되어야 할 것이다. 이하 첨부된 도면들을 참조하면서 오로지 예시를 위한 실시 예들을 상세히 설명하기로 한다.The description of the following embodiments should not be construed as limiting the scope of the rights, and what those skilled in the art can easily infer should be construed as belonging to the scope of the rights of the embodiments. Hereinafter, embodiments for illustration only will be described in detail with reference to the accompanying drawings.

도 1은 일 실시 예에 따른 입체 오디오 전송을 위한 다채널 전송 시스템(100)의 개략 도이다. 1 is a schematic diagram of a multi-channel transmission system 100 for stereoscopic audio transmission according to an exemplary embodiment.

도 1을 참조하면, 전송 시스템(100)은 복수의 카메라(111 내지 113), 복수의 카메라(111 내지 113)를 제어하고, 복수의 카메라(111 내지 113)로부터 촬영된 다채널 영상들을 처리 및 전송하고, 복수의 카메라(111 내지 113)에서 녹음된 오디오를 처리하는 카메라 제어부(110), 카메라 제어부(110)로부터 전송된 다채널 영상들및 녹음된 오디오 신호들을 처리 및 저장하는 영상 서버(200)를 포함한다. 복수의 카메라(111 내지 113) 각각은 마이크를 탑재하고 있거나, 별도의 마이크를 구비하여, 촬영하고자 하는 피사체와 주위의 오디오를 녹음할 수 있다. 영상 서버(200)는 사용자 단말(150)로부터 다채널 영상에 대한 요청, 스위칭 영상에 대한 요청, 특정 이벤트, 예를 들면 줌인 또는 줌아웃에 대한 요청을 수신하고, 저장된 다채널 영상및 다채널 영상 각각에 상응하는 오디오 신호들을 사용자 단말(150)에 전송한다. Referring to FIG. 1, the transmission system 100 controls a plurality of cameras 111 to 113 and a plurality of cameras 111 to 113, processes multi-channel images captured from the plurality of cameras 111 to 113, and A camera controller 110 that transmits and processes audio recorded by a plurality of cameras 111 to 113, and an image server 200 that processes and stores multi-channel images and recorded audio signals transmitted from the camera controller 110 ). Each of the plurality of cameras 111 to 113 may be equipped with a microphone or may be equipped with a separate microphone to record a subject to be photographed and audio around the subject. The image server 200 receives a request for a multi-channel image, a request for a switching image, a request for a specific event, such as zoom-in or zoom-out, from the user terminal 150, and stores the multi-channel image and the multi-channel image, respectively. Audio signals corresponding to are transmitted to the user terminal 150.

영상 서버(200)는 영상 처리 장치(130) 및 영상 저장부(140)를 포함할 수 있다.The image server 200 may include an image processing device 130 and an image storage unit 140.

도 2에 도시된 것처럼, 특정 피사체를 촬영하기 위해 복수의 카메라(1 내지 N)가 배치될 수 있다. 피사체의 주위에 어레이로 배열된 복수의 카메라에서 피사체를 다각도에서 촬영한 복수의 영상을 수신한다. 복수의 카메라 배열 방법은, 예컨대 임의의 카메라를 기준으로 N개의 카메라들을 실질적으로 동일한 평면상에 일렬로 배치하는 것일 수 있다. 이 경우, 피사체를 기준으로 일정 거리 이격된 원주상에 N개의 카메라들을 순차적으로 배치할 수도 있고, 중앙에 배치된 카메라를 기준으로 양측에 배치된 두 개의 카메라와 피사체 간의 거리를 일치시키고 나머지 카메라는 피사체와의 거리를 상이하게 할 수도 있다. 또한, 피사체는 고정된 피사체일 수도 있고, 움직이는 피사체일 수도 있다. 전술한 것처럼, 복수의 카메라(1 내지 N)는 내장 마이크 또는 별도의 마이크를 구비하여, 피사체와 피사체 주위의 오디오를 녹음할 수 있다. 예를 들면 각각의 카메라의 위치에서 서로 다른 출력 또는 서로 다른 소리를 녹음할 수 있다. 마이크는 오디오 또는 음파와 같은 파형 특성을 가지는 오디오 데이터 또는 음성 전기 신호로 변환한다. 여기서, 마이크는 그 종류에 한정되지 않는다.As shown in FIG. 2, a plurality of cameras 1 to N may be disposed to photograph a specific subject. A plurality of cameras arranged in an array around the subject receive a plurality of images photographing the subject from various angles. A method of arranging a plurality of cameras may be, for example, arranging N cameras in a line on substantially the same plane based on an arbitrary camera. In this case, N cameras may be sequentially placed on a circumference spaced a certain distance from the subject, or the distance between the two cameras disposed on both sides and the subject is matched based on the camera disposed in the center, and the remaining cameras It is also possible to make the distance to the subject different. Also, the subject may be a fixed subject or a moving subject. As described above, the plurality of cameras 1 to N may have built-in microphones or separate microphones to record the subject and audio around the subject. For example, you can record different outputs or different sounds at each camera position. The microphone converts audio data or voice electrical signals having waveform characteristics such as audio or sound waves. Here, the microphone is not limited to its type.

복수의 카메라(1 내지 N)와 카메라 제어부(110)는 유선 또는 무선으로 통신 가능할 수 있으며, 복수의 카메라(1 내지 N)를 제어하기 위한 복수의 카메라 제어부를 구비할 수도 있다.The plurality of cameras 1 to N and the camera control unit 110 may communicate with each other by wire or wirelessly, and may include a plurality of camera control units for controlling the plurality of cameras 1 to N.

카메라 제어부(110)는 복수의 카메라(1 내지 N)를 동기화하는 동기화 신호를 통해 복수의 카메라(1 내지 N)를 제어할 수 있다. 카메라 제어부(110)는 복수의 카메라(1 내지 N)로부터 촬영된 영상들을 임시 저장하고, 코덱 변경을 통해 촬영된 영상의 크기를 줄이고 빠른 전송이 가능하게 한다. 또한, 카메라 제어부(110)는 복수의 카메라(1 내지 N)에서 녹음된 오디오 신호들을 임시 저장하고, 저장된 오디오 신호들을 압축할 수도 있다. 카메라 제어부(110)의 구체적인 구성을 도 7을 참조하여 설명한다.The camera controller 110 may control the plurality of cameras 1 to N through a synchronization signal that synchronizes the plurality of cameras 1 to N. The camera control unit 110 temporarily stores images captured from a plurality of cameras 1 to N, and reduces the size of the captured image through codec change and enables fast transmission. In addition, the camera controller 110 may temporarily store audio signals recorded by a plurality of cameras 1 to N, and may compress the stored audio signals. A detailed configuration of the camera control unit 110 will be described with reference to FIG. 7.

카메라 제어부(110)는 카메라 구동 제어부(111), 영상 변환부(112), 오디오 변환부(114) 및 전송부(113)를 포함할 수 있다. The camera control unit 110 may include a camera driving control unit 111, an image conversion unit 112, an audio conversion unit 114, and a transmission unit 113.

카메라 구동 제어부(111)는 카메라 동기화 및 촬영을 제어한다.The camera driving controller 111 controls camera synchronization and photographing.

영상 변환부(112)는 복수의 카메라(1 내지 N)로부터 생성된 영상들을 통신망(120)을 통해 빠른 전송이 용이하도록 코덱 변경을 통해 영상들의 크기를 줄인다. 또한, 촬영 현장에 적합하거나, 유선 또는 무선 전송에 적합한 데이터 전송 방식을 결정할 수도 있다.The image conversion unit 112 reduces the size of images by changing a codec to facilitate fast transmission of images generated from a plurality of cameras 1 to N through the communication network 120. In addition, it is possible to determine a data transmission method suitable for the shooting site or for wired or wireless transmission.

오디오 변환부(114)는 복수의 카메라(1 내지 N)로부터 녹음된 오디오 신호들을 통신망(120)을 통해 빠른 전송이 용이하도록 코덱 변경을 통해 오디오 신호들의 크기를 줄일 수 있다.The audio conversion unit 114 may reduce the size of audio signals by changing a codec to facilitate fast transmission of audio signals recorded from the plurality of cameras 1 to N through the communication network 120.

전송부(113)는 변환된 영상들 및 오디오 신호들을 통신망(120)을 통해 영상 서버(200)에 전송한다. The transmission unit 113 transmits the converted images and audio signals to the image server 200 through the communication network 120.

영상 서버(200)는 카메라 제어부(110)로부터 전송된 다채널 영상들 및 각각에 상응하는 오디오 신호들을 시간별, 채널별, 시간 및 채널을 혼합한 적어도 하나의 기준으로 그룹핑하여 저장하고, 사용자 단말(150)의 요청에 따라 저장된 그룹핑된 영상 및 상응하는 오디오 신호들을 통신망을 통해 전송한다. 영상 서버(200)의 구체적인 구성은 도 8 내지 11을 참조하여 설명한다.The image server 200 groups and stores the multi-channel images transmitted from the camera control unit 110 and audio signals corresponding to each time based on at least one of a mixture of time, channel, time and channel, and stores the 150), the stored grouped video and corresponding audio signals are transmitted through the communication network. The detailed configuration of the image server 200 will be described with reference to FIGS. 8 to 11.

도 8을 참조하면, 영상 서버(200)는 영상 처리 장치(110) 및 영상 저장부(140)를 포함한다. 영상 처리 장치(110)는 영상 처리부(131), 영상 변환부(132), 전송부(133) 및 오디오 변환부(134)를 포함한다.Referring to FIG. 8, the image server 200 includes an image processing device 110 and an image storage unit 140. The image processing apparatus 110 includes an image processing unit 131, an image conversion unit 132, a transmission unit 133, and an audio conversion unit 134.

영상 처리부(131)는 카메라 제어부(110)로부터 전송된 다채널 영상들, 즉 복수의 카메라에서 촬영된 영상에 대해 영상 보정을 수행한다. 예를 들면 복수의 카메라에서 촬영된 영상들이 초점이 맞지 않을 수 있으므로, 카메라 간 초점이 동일하도록 영상 처리를 수행한다. 영상 처리부(131)는 전송된 다채널 영상들을 보정한다. N개의 카메라 배열의 기하학적 오차는 다채널 영상을 재생하는 과정에서 시각적인 흔들림으로 나타나므로, 이를 제거하기 위하여 각 영상의 크기 또는 사이즈, 기울기 또는 중심 위치 중 적어도 하나를 보정할 수 있다. The image processing unit 131 performs image correction on multi-channel images transmitted from the camera control unit 110, that is, images captured by a plurality of cameras. For example, since images captured by a plurality of cameras may be out of focus, image processing is performed so that the focus between the cameras is the same. The image processing unit 131 corrects the transmitted multi-channel images. Since the geometrical error of the array of N cameras appears as a visual shake in the process of reproducing a multi-channel image, at least one of the size or size, slope, or center position of each image may be corrected to remove this.

영상 변환부(132)는 다채널 영상들을 시간별, 채널별, 시간 및 채널을 혼합한 적어도 하나의 기준으로 그룹핑한다. 영상 변환부(132)는 여러 공간을 하나로 묶어 그룹핑한다. 그룹핑하는 방법을 다양한 기준에 따라 수행될 수 있다. 실시 예에 따른 전송 시스템은 사용자 단말(150)에 효과적인 다채널 영상 내지 스위칭 영상을 전송하기 위해, 모든 영상 데이터를 전송하여 데이터 낭비를 주지 않고, 그룹핑된 영상들을 전송함으로써 사용자에게 필요한 데이터만을 전송할 수 있게 한다. 영상 변환부(132)는 t 시간의 이벤트를 중심으로 ±y(y는 자연수임) 시간별 채널 영상을 묶어 그룹핑할 수도 있다. 예를 들면 채널 1에서, t3에서 이벤트가 발생한 경우일 수 있다. 여기서 이벤트는 미리 정해진 경우, 예를 들면 야구 경기에서 홈런 장면, 또는 아웃 장면이거나, 사용자의 요청에 의한 이벤트, 예를 들면 줌인 또는 줌아웃, 사용자가 원하는 경우일 수 있다. The image conversion unit 132 groups multi-channel images based on at least one criterion in which time, channel, time and channel are mixed. The image conversion unit 132 groups and groups several spaces into one. The grouping method can be performed according to various criteria. The transmission system according to the embodiment transmits all image data to transmit effective multi-channel images or switching images to the user terminal 150 without waste of data, and transmits grouped images to transmit only the data necessary for the user. To be. The image conversion unit 132 may group and group channel images for each time ±y (y is a natural number) based on the event at time t. For example, it may be a case in which an event occurs in channel 1 and t3. Here, the event may be a predetermined case, for example, a home run scene or an out scene in a baseball game, or an event at a user's request, for example, a zoom-in or zoom-out, or a case that the user desires.

그룹핑의 기본 방식으로 시간별로 채널 영상들을 하나로 묶는 방식이다. t1에 촬영된 채널 1 내지 채널 5의 영상들을 하나로 그룹핑하여 그룹핑된 영상을 생성한다. 유사하게 t2에 촬영된 채널 1 내지 채널 5의 영상들을 하나로 그룹핑하여 그룹핑된 영상을 생성한다. 이와 같은 방식으로 시간별로 그룹핑할 수 있으며, 예를 들면 도 2에 도시된 것과 같이 카메라가 배치된 경우, 사용자 단말(150)은 동일한 시간에 피사체를 둘러싼 모든 방향에서 촬영된 영상들을 확인할 수 있다. 시간별로 채널 영상들을 묶는 방식을 설명하였지만, 채널별로 전송하는 것도 가능함은 물론이다. 카메라 순서대로, 즉 제1 내지 제5 채널의 순서로 그룹핑할 수 있지만,반대 순서로, 즉 제5 채널 내지 제1 채널의 순서로 그룹핑할 수도 있다.As a basic method of grouping, channel images are grouped by time. Images of channels 1 to 5 captured at t1 are grouped into one to generate a grouped image. Similarly, images of channels 1 to 5 captured at t2 are grouped into one to generate a grouped image. In this way, grouping can be performed by time. For example, when a camera is arranged as shown in FIG. 2, the user terminal 150 can check images taken from all directions surrounding the subject at the same time. A method of grouping channel images by time has been described, but it is also possible to transmit each channel. Grouping may be performed in the order of cameras, that is, in the order of the first to fifth channels, but may be grouped in the reverse order, that is, in the order of the fifth to first channels.

또한, 시간별 및 채널별 조합에 의해 그룹핑할 수도 있다. 내림차순으로, t1에 촬영된 제1 채널 영상과, t2에 촬영된 제2 채널 영상, t3에 촬영된 제3 채널 영상, t4에 촬영된 제4 채널 영상과, t5에 촬영된 제5 채널 영상을 하나로 그룹핑하여 그룹핑된 영상을 생성한다. 유사하게, t2에 촬영된 제1 채널 영상, t3에 촬영된 제2 채널 영상, t4에 촬영된 제3 채널 영상, t5에서 촬영된 제4 채널 영상, t6에서 촬영된 제5 채널 영상을 하나로 그룹핑하여 그룹핑된 영상을 생성한다. 오름차순으로, t1에 촬영된 제5 채널 영상과, t2에 촬영된 제4 채널 영상, t3에 촬영된 제3 채널 영상, t4에 촬영된 제2 채널 영상과, t5에 촬영된 제1 채널 영상을 하나로 그룹핑하여 그룹핑된 영상을 생성할 수도 있다. 시간별 및 채널별을 혼합한 영상들을 그룹핑하는 것을 설명하였지만, 이에 한정되지 않고, 다양한 방식으로 그룹핑이 가능함은 물론이다.In addition, grouping may be performed by time and channel combinations. In descending order, the first channel image photographed at t1, the second channel image photographed at t2, the third channel image photographed at t3, the fourth channel image photographed at t4, and the fifth channel image photographed at t5. Grouped images are created by grouping them into one. Similarly, the first channel image photographed at t2, the second channel image photographed at t3, the third channel image photographed at t4, the fourth channel image photographed at t5, and the fifth channel image photographed at t6 are grouped into one. To create a grouped image. In ascending order, the fifth channel image photographed in t1, the fourth channel image photographed in t2, the third channel image photographed in t3, the second channel image photographed in t4, and the first channel image photographed in t5 are Grouped images may be created by grouping them into one. Grouping of images obtained by mixing time and channel has been described, but is not limited thereto, and grouping is possible in various ways.

다시 도 8을 참조하면, 영상 변환부(132)에서 변환된 그룹핑된 영상들을 영상 저장부(140)에 저장한다. 사용자 단말(150)의 요청이 있는 경우, 영상 처리 장치(130)가 영상 저장부(140)에 저장된 영상들을 추출하여, 전송부(133)를 통해 사용자 단말(150)에 전송한다. Referring back to FIG. 8, the grouped images converted by the image conversion unit 132 are stored in the image storage unit 140. When there is a request from the user terminal 150, the image processing apparatus 130 extracts images stored in the image storage unit 140 and transmits the extracted images to the user terminal 150 through the transmission unit 133.

오디오 변환부(134)는 입력된 오디오 신호를 압축처리한다. 오디오 신호 압축은 인간의 청각 특성을 이용한 적응 변환 오디오 부호화 장치일 수 있다. 이러한 압축 또는 부호화 처리에서는,시간 영역의 오디오 신호가 주파수 영역으로 변환된다. 그리고 주파수 축 상의 신호가 청각의 주파수 분해 능력에 대응하는 주파수 대역으로 구획된다. 그리고 인간의 청각 특성을 이용하여, 각 주파수 대역에서 부호화에 필요한 최적의 정보량이 계산된다. 그리고,각 주파수 대역에 할당된 정보량에 따라서, 주파수축 상의 신호가 양자화된다. 적응 변환 오디오 부호화 장치 중에, ISO(International Organization for Standardization)/IEC(International Electrotechnical Commission)에서 표준화된 MPEG(Moving Picture Experts Group)―2 AAC(Advanced Audio Coding) 방식을 사용할 수 있다. 고급 오디오 부호화(Advanced Audio Coding, 이하 AAC라 한다, 표준문서ISO/IEC 13818-7)는 디지털 오디오에서 쓰이는 표준적인 손실 데이터 압축방식이다. AAC는 샘플 주파수를 8Khz 내지 96Khz로 확장하였으며, 최대 48채널로 확장 가능하고, 고정 비트 레이트에서도 필요에 따라서 비트를 가변적으로 할당할 수 있으며, 수정 이산 코사인 변환(Modified Discrete Cosine Transformation) 형식으로 바꾸어서 더욱 효율적인 인코딩을 가능하게 한다.The audio conversion unit 134 compresses the input audio signal. The audio signal compression may be an adaptive transform audio encoding apparatus using human auditory characteristics. In such compression or encoding processing, an audio signal in the time domain is transformed into the frequency domain. In addition, the signal on the frequency axis is divided into a frequency band corresponding to the frequency resolution capability of the hearing. And, using the human auditory characteristics, the optimal amount of information required for encoding in each frequency band is calculated. Then, the signal on the frequency axis is quantized according to the amount of information allocated to each frequency band. Among the adaptive transform audio encoding apparatuses, an MPEG (Moving Picture Experts Group)-2 AAC (Advanced Audio Coding) scheme standardized by an International Organization for Standardization (ISO)/International Electrotechnical Commission (IEC) may be used. Advanced Audio Coding (hereinafter referred to as AAC, standard document ISO/IEC 13818-7) is a standard lossy data compression method used in digital audio. AAC extends the sample frequency from 8Khz to 96Khz, extends up to 48 channels, and can variably allocate bits as needed even at a fixed bit rate, and change it to a Modified Discrete Cosine Transformation format. It enables efficient encoding.

또한, 오디오 변환부(134)는 영상 변환부(132)에서 그룹핑한 영상에 상응하는 오디오 신호를 함께 영상 저장부에 저장하거나, 전송부(133)에 제공할 수 있다.In addition, the audio conversion unit 134 may store an audio signal corresponding to an image grouped by the image conversion unit 132 in an image storage unit or may provide the audio signal to the transmission unit 133.

도 9를 참조하면, 영상 서버(130)는 영상처리부(131), 영상변환부(132), 전송부(133) 및 오디오 변환부(134)를 포함하며, 전송부(133)는 메시지 핸들러(133-1), 스트리머(133-2), 채널 매니저(133-3)를 더 포함할 수 있다. 전송부(133)는 스트리밍 장치일 수 있으며, 영상서버(130) 내에 포함되어 있는 것으로 설명하지만, 영상서버(130)와 분리되어 별도의 장치로 구현할 수 있음은 물론이다. 도 8과 동일한 부분에 대한 설명은 생략하고, 차이점을 위주로 설명한다.Referring to FIG. 9, the image server 130 includes an image processing unit 131, an image conversion unit 132, a transmission unit 133, and an audio conversion unit 134, and the transmission unit 133 includes a message handler ( 133-1), a streamer 133-2, and a channel manager 133-3. The transmission unit 133 may be a streaming device and is described as being included in the image server 130, but it is of course possible to implement it as a separate device separated from the image server 130. A description of the same parts as in FIG. 8 will be omitted, and differences will be mainly described.

전송부(133)는 처리된 영상 또는 저장된 영상을 실시간 전송한다. 예를 들면 실시간 스트리밍을 위한 장치일 수 있다.The transmission unit 133 transmits the processed image or the stored image in real time. For example, it may be a device for real-time streaming.

메시지 핸들러(133-1)는 사용자 단말과 세션 관리, 프로토콜 관리를 수행한다.The message handler 133-1 performs session management and protocol management with the user terminal.

스트리머(133-2)는 영상 및 오디오 신호를 사용자 단말로 전송하며, 사용자 단말로 전송할 영상들의 집합이다.The streamer 133-2 transmits video and audio signals to the user terminal and is a set of images to be transmitted to the user terminal.

채널 매니저(133-3)는 사용자 단말의 신호를 받아 영상을 GOP단위로 스케쥴링한 후 스트리머(133-2)에 전달한다.The channel manager 133-3 receives a signal from the user terminal, schedules an image in units of GOP, and delivers it to the streamer 133-2.

사용자 단말로부터 특별한 요청, 예를 들면 채널 변경 요청, 채널 이동 요청이 없는 경우, 채널 매니저(133-3)는 스트리머(133-2)에 각각의 GOP단위로 스케쥴링된 영상을 전달한다. 도 10에 도시된 바와 같이, 채널 5, 즉 카메라 5에서 촬영된 영상들, GOP1 내지 GOPN의 순서로 스케쥴링하여 스트리머(133-2)에 전달한다. 스트리머(133-2)는 채널 매니저(133-3)의 스케쥴링에 따라 GOP 영상들을 모아서 사용자 단말에 전송한다.When there is no special request from the user terminal, for example, a channel change request or a channel movement request, the channel manager 133-3 delivers the scheduled video to the streamer 133-2 in each GOP unit. As shown in FIG. 10, channels 5, that is, images captured by the camera 5, are scheduled in the order of GOP1 to GOPN, and then transmitted to the streamer 133-2. The streamer 133-2 collects GOP images according to the scheduling of the channel manager 133-3 and transmits them to the user terminal.

도 11에 도시된 바와 같이, 사용자 단말로부터 채널 이동 요청이 수신된 경우, 채널 매니저(133-3)는 채널 5, 즉 카메라 5에서 촬영된 영상 중 GOP1 내지 3과, 채널 4의 GOP4, 채널 3의 GOP5, 채널 2의 GOP6, 채널 7의 GOP7의 순서로 스케쥴링하여 스트리머(133-2)에 전달한다. 스트리머(133-2)는 채널 매니저(133-3)의 스케쥴링에 따라 GOP 영상들을 모아서 사용자 단말에 전송한다. 이때 GOP 영상들과 함께, 각각의 영상에 상응하는 서로 다른 오디오 신호들을 사용자 단말에 전송한다. 따라서, 사용자는 카메라 5에서 녹음된 오디오 신호를 GOP 1 내지 3 영상과 함께 듣다가, 카메라 4에서 녹음된 오디오 신호를 GOP 4 영상과 듣고, 카메라 3에서 녹음된 오디오 신호를 GOP 5 영상과 듣고, 카메라 2에서 녹음된 오디오 신호를 GOP 6 영상과 듣고, 카메라 1에서 녹음된 오디오 신호를 GOP 7 영상과 함께 들을 수 있다. 따라서, 카메라 5부터 1까지 각각 서로 다르게 녹음된 오디오 신호를 입체적으로 들을 수 있다.As shown in FIG. 11, when a channel movement request is received from the user terminal, the channel manager 133-3 performs channel 5, that is, GOP1 to 3 among images captured by camera 5, GOP4 of channel 4, and channel 3 GOP5 of the channel 2, GOP6 of the channel 2, and GOP7 of the channel 7 are scheduled in the order and transmitted to the streamer 133-2. The streamer 133-2 collects GOP images according to the scheduling of the channel manager 133-3 and transmits them to the user terminal. At this time, along with the GOP images, different audio signals corresponding to each image are transmitted to the user terminal. Accordingly, the user listens to the audio signal recorded by camera 5 together with the GOP 1 to 3 video, listens to the audio signal recorded by the camera 4 with the GOP 4 video, and the audio signal recorded by the camera 3 with the GOP 5 video, You can listen to the audio signal recorded by camera 2 with GOP 6 video, and listen to the audio signal recorded by camera 1 with GOP 7 video. Accordingly, audio signals recorded differently from cameras 5 to 1 can be heard in three dimensions.

도 3은 다른 실시 예에 따른 다채널 전송 시스템의 제어 방법을 설명하기 위한 흐름 도이다.3 is a flowchart illustrating a method of controlling a multi-channel transmission system according to another embodiment.

도 3을 참조하면, 단계 300에서, 복수의 카메라를 통해 소정 시간 피사체를 촬영하고, 각각의 카메라에 입력되는 오디오를 녹음하도록 제어한다. 여기서, 카메라는 도 2에 도시된 것처럼, 피사체를 촬영하기 위해 원형으로 배치되고, 각각의 카메라는 내장 마이크 또는 별도 마이크를 포함할 수 있다.Referring to FIG. 3, in step 300, a subject is photographed for a predetermined time through a plurality of cameras, and audio input to each camera is recorded. Here, as shown in FIG. 2, the cameras are arranged in a circle to photograph a subject, and each camera may include a built-in microphone or a separate microphone.

도 4를 참조하면, 사운드의 소스(400)가 중앙에 배치된 상태에서, A 지점부터 B 지점까지 5대의 카메라와 마이크(410 내지 450)가 배치되어 있다. 이 경우, 각각의 지점에서 같은 시간에 입력되는 사운드는 서로 다른 크기와 주파수를 갖는다. 실시 예에서, 각각의 카메라와 마이크(410 내지 450)는 동일한 피사체를 각각의 지점에서 촬영할 뿐만 아니라, 해당 지점에서 획득된 오디오를 녹음할 수 있다.Referring to FIG. 4, with a sound source 400 disposed in the center, five cameras and microphones 410 to 450 are disposed from point A to point B. In this case, sounds input at the same time at each point have different sizes and frequencies. In an embodiment, each of the cameras and microphones 410 to 450 may not only photograph the same subject at each point, but also record audio obtained at the corresponding point.

단계 302에서, 복수의 카메라에 대응하는 다채널 영상들 및 녹음된 오디오 신호들을 통신망을 통해 전송한다.In step 302, multi-channel images corresponding to the plurality of cameras and recorded audio signals are transmitted through a communication network.

단계 304에서, 전송된 다채널 영상들을 시간별, 채널별, 시간 및 채널을 혼합한 적어도 하나의 기준으로 그룹핑하여 저장하고, 그룹핑된 영상에 상응하는 각각의 오디오 신호들을 저장한다. In step 304, the transmitted multi-channel images are grouped and stored according to at least one criterion in which time, channel, time and channel are mixed, and audio signals corresponding to the grouped images are stored.

단계 306에서, 사용자 단말의 요청에 따라 저장된 그룹핑된 영상 및 그룹핑된 영상에 상응하는 각각의 오디오 신호들을 통신망을 통해 전송한다.In step 306, the grouped image stored according to the request of the user terminal and respective audio signals corresponding to the grouped image are transmitted through the communication network.

실시 예에서, 카메라 위치별로 녹화와 동시에 녹음을 하고, 채널 변환 시 해당 위치의 오디오를 출력함으로써, 위치별로 재생 시 오디오의 위치 흐름을 가질 수 있고, 사용자는 원하는 각도 또는 위치에서의 영상을 확인하면서 입체적인 오디오 출력을 청취할 수 있다. In an embodiment, by simultaneously recording for each camera location and outputting the audio at the corresponding location when changing channels, the location of the audio can be flowed during playback by location, and the user can check the video at a desired angle or location while You can listen to the stereoscopic audio output.

도 5를 참조하면, 사용자가 재생 단말(미도시)에서 전송된 그룹핑된 영상을 재생하다가, 줌인 또는 줌 아웃 시키는 경우, 줌 배율, 예를 들면 100% 내지 250%로 확대시키는 경우, 오디오 출력을 상응하도록 높일 수 있다. Referring to FIG. 5, when a user zooms in or zooms out while playing a grouped image transmitted from a playback terminal (not shown), a zoom factor, for example, 100% to 250%, increases the audio output. You can increase it accordingly.

도 6을 참조하면, 도 4에 도시된 A 지점에서 B 지점으로 스위칭되는 경우에 좌우 스피커를 통해 출력되는 오디오의 변화가 도시되어 있다. Referring to FIG. 6, changes in audio output through left and right speakers when switching from point A to point B shown in FIG. 4 are illustrated.

도 4에 도시된 카메라(420)에서 녹음된 오디오는 좌측 스피커를 통해 가장 큰 크기의 오디오가 출력되고, 우측 스피커를 통해서는 가장 작은 크기의 오디오가 출력된다. 또한, 도 4에 도시된 카메라(440)에서 녹음된 오디오는 우측 스피커를 통해 가장 큰 오디오가 출력되고, 좌측 스피커를 통해서는 가장 작은 크기의 오디오가 출력된다. 하지만, 도 4에 도시된 카메라(410, 430, 450)에서는 음원 소스 그대로의 오디오가 출력된다. 따라서, 사용자는 A 지점에서 B 지점으로 영상을 스위칭해가면서 보는 경우에, 좌우 스피커의 오디오 출력이 입체적으로 변화하는 오디오를 청취할 수 있다.As for the audio recorded by the camera 420 shown in FIG. 4, the largest audio is output through the left speaker, and the smallest audio is output through the right speaker. In addition, as for the audio recorded by the camera 440 shown in FIG. 4, the largest audio is output through the right speaker, and the smallest audio is output through the left speaker. However, the cameras 410, 430, and 450 shown in FIG. 4 output audio as the sound source. Accordingly, when the user sees an image while switching from point A to point B, the user can listen to audio in which the audio output of the left and right speakers changes in three dimensions.

일 실시 예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. An embodiment may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Computer-readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. Further, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery medium.

전술한 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that it can be easily transformed into other specific forms without changing the technical spirit or essential features of the present invention. Therefore, it should be understood that the embodiments described above are illustrative and non-limiting in all respects. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

Claims (10)

복수의 카메라를 통해 소정 시간 피사체를 촬영하고, 각각의 카메라에 입력되는 오디오를 녹음하도록 제어하고, 상기 복수의 카메라에 대응하는 다채널 영상들 및 녹음된 오디오 신호들을 통신망을 통해 전송하는 카메라 제어부; 및
상기 카메라 제어부로부터 전송된 상기 다채널 영상들을 시간별, 채널별, 시간 및 채널을 혼합한 적어도 하나의 기준으로 그룹핑하여 저장하고, 상기 그룹핑된 영상에 상응하는 각각의 오디오 신호들을 저장하고, 사용자 단말의 요청에 따라 상기 그룹핑된 영상과, 상기 그룹핑된 영상에 상응하는 각각 오디오 신호들을 상기 통신망을 통해 전송하는 영상 서버를 포함하고,
상기 그룹핑된 영상에 상응하는 각각의 오디오 신호들은 상기 각각의 카메라가 위치한 서로 다른 장소에서 녹음된 서로 다른 크기의 오디오 신호들이고,
상기 그룹핑된 영상이 채널별로 그룹핑된 경우, 상기 그룹핑된 영상을 재생하는 경우 녹음된 서로 다른 크기의 오디오 신호들이 출력되고,
상기 영상 서버는,
상기 사용자 단말과 세션 관리 및 프로토콜 관리를 수행하는 메시지 핸들러;
상기 그룹핑된 영상과 상기 그룹핑된영상에 상응하는 각각 오디오 신호들을 상기 사용자 단말에 전송하는 스트리머; 및
상기 사용자 단말의 요청 - 상기 요청은 채널 변경 요청임 - 에 따라 상기 그룹핑된 영상의 GOP단위로 스케줄링하고, 상기 스케줄링된 GOP 단위의 영상들과, 각각에 상응하는 오디오 신호들을 상기 스트리머에 제공하는 채널 매니저를 포함하고,

는 것을 특징으로 하는 다채널 전송 시스템.
A camera control unit for photographing a subject for a predetermined time through a plurality of cameras, controlling to record audio input to each camera, and transmitting multi-channel images and recorded audio signals corresponding to the plurality of cameras through a communication network; And
The multi-channel images transmitted from the camera control unit are grouped and stored according to at least one criterion in which time, channel, time and channel are mixed, and respective audio signals corresponding to the grouped images are stored, and A video server for transmitting the grouped video and audio signals corresponding to the grouped video through the communication network according to a request,
Each of the audio signals corresponding to the grouped images are audio signals of different sizes recorded at different locations where the respective cameras are located,
When the grouped video is grouped by channel, recorded audio signals of different sizes are output when the grouped video is played back,
The video server,
A message handler that performs session management and protocol management with the user terminal;
A streamer for transmitting the grouped video and audio signals corresponding to the grouped video to the user terminal; And
According to the request of the user terminal-the request is a channel change request-scheduling the grouped video in GOP units, and providing the scheduled videos in GOP units and audio signals corresponding to each to the streamer Includes a channel manager,

Multi-channel transmission system, characterized in that.
제 1 항에 있어서,
상기 시간 및 채널을 혼합한 기준은,
제1 내지 제N(N은 2 이상의 자연수) 시간에 해당하는 제1 내지 제M(M은 2 이상의 자연수) 채널의 영상들을 혼합하거나, 상기 제1 내지 제N 시간에 해당하는 제M 내지 제1 채널의 영상들을 혼합하거나,
제N 내지 제1 시간에 해당하는 제1 내지 제M 채널의 영상들을 혼합하거나, 상기 제N 내지 제1시간에 해당하는 제M 내지 제1 채널의 영상들을 혼합하고,
상기 제1 내지 제N 시간은 시간의 흐름에 따른 순서를 의미하고,
상기 제N 내지 제1 시간은 시간의 흐름에 따른 역순서를 의미하고,
상기 제1 내지 제M 채널은 카메라의 위치 변화에 따른 채널 순서를 의미하고,
상기 제M 내지 제1 채널은 카메라의 위치 변화에 다른 채널 역순서를 의미하는 것을 특징으로 하는 다채널 전송 시스템.
The method of claim 1,
The criteria for mixing the time and channel are:
Images of the first to Mth (M is a natural number of 2 or more) channels corresponding to the first to Nth (N is a natural number of 2 or more) times are mixed, or the M to the first corresponding to the first to Nth times Mix the images of the channels,
Mixing images of the first to Mth channels corresponding to the Nth to the first times, or mixing the images of the Mth to the first channels corresponding to the Nth to the first hours,
The first to Nth times mean an order according to the passage of time,
The Nth to the first time means the reverse order according to the passage of time,
The first to Mth channels mean a channel order according to a change in the position of the camera,
The M th to the first channel means a reverse order of channels different from a change in the position of the camera.
삭제delete 제 2 항에 있어서,
상기 제1 내지 제N 시간 중 어느 하나의 시간에 해당하는 이벤트를 중심으로 ±y(y는 자연수) 시간별 채널에 해당하는 영상들을 그룹핑하는 것을 특징으로 하는 다채널 전송 시스템.
The method of claim 2,
A multi-channel transmission system comprising grouping images corresponding to a channel according to ±y (y is a natural number) time based on an event corresponding to any one of the first to Nth times.
삭제delete 삭제delete 제 1 항에 있어서,
상기 사용자 단말의 요청은,
상기 그룹핑된 영상을 재생하는 경우, 줌인 또는 줌아웃에 상응하는 신호이고, 상기 줌인 또는 줌아웃에 상응하는 신호에 따라 재생중인 영상의 오디오의 크기가 조절되는 것을 특징으로 하는 다채널 전송 시스템.
The method of claim 1,
The request of the user terminal,
In the case of reproducing the grouped video, the multi-channel transmission system is a signal corresponding to zoom-in or zoom-out, and the audio size of the video being played is adjusted according to the signal corresponding to the zoom-in or zoom-out.
복수의 카메라를 통해 소정 시간 피사체를 촬영하고, 각각의 카메라에 입력되는 오디오를 녹음하도록 제어하는 단계;
상기 복수의 카메라에 대응하는 다채널 영상들 및 녹음된 오디오 신호들을 통신망을 통해 전송하는 단계;
상기 전송된 상기 다채널 영상들을 시간별, 채널별, 시간 및 채널을 혼합한 적어도 하나의 기준으로 그룹핑하여 저장하고, 상기 그룹핑된 영상에 상응하는 각각의 오디오 신호들을 저장하는 단계; 및
사용자 단말의 요청에 따라 상기 저장된 그룹핑된 영상 및 상기 그룹핑된 영상에 상응하는 각각의 오디오 신호들을 상기 통신망을 통해 전송하는 단계를 포함하고,
상기 그룹핑된 영상에 상응하는 각각의 오디오 신호들은 상기 각각의 카메라가 위치한 서로 다른 장소에서 녹음된 서로 다른 크기의 오디오 신호들이고,
상기 그룹핑된 영상이 채널별로 그룹핑된 경우, 상기 그룹핑된 영상을 재생하는 경우 녹음된 서로 다른 크기의 오디오 신호들이 출력되고,
상기 사용자 단말과 세션 관리 및 프로토콜 관리를 수행하고, 상기 그룹핑된 영상과 상기 그룹핑된영상에 상응하는 각각 오디오 신호들을 상기 사용자 단말에 전송하고,
상기 사용자 단말의 요청 - 상기 요청은 채널 변경 요청임 - 에 따라 상기 그룹핑된 영상의 GOP단위로 스케줄링하고, 상기 스케줄링된 GOP 단위의 영상들과, 각각에 상응하는 오디오 신호들을 제공하는 것을 특징으로 하는 다채널 전송 시스템의 제어 방법.
Photographing a subject for a predetermined time through a plurality of cameras, and controlling to record audio input to each camera;
Transmitting multi-channel images and recorded audio signals corresponding to the plurality of cameras through a communication network;
Grouping and storing the transmitted multi-channel images based on at least one of a mixture of time, channel, time and channel, and storing respective audio signals corresponding to the grouped images; And
Transmitting the stored grouped image and respective audio signals corresponding to the grouped image through the communication network according to a request of a user terminal,
Each of the audio signals corresponding to the grouped images are audio signals of different sizes recorded at different locations where the respective cameras are located,
When the grouped video is grouped by channel, recorded audio signals of different sizes are output when the grouped video is played back,
Perform session management and protocol management with the user terminal, and transmit the grouped video and audio signals corresponding to the grouped video to the user terminal,
In accordance with the request of the user terminal-the request is a channel change request-the grouped video is scheduled in GOP units, and the scheduled videos in the GOP unit and audio signals corresponding to each are provided. Control method of multi-channel transmission system.
삭제delete 제 8 항에 따른 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체.A recording medium on which a program for executing the method according to claim 8 on a computer is recorded.
KR1020180162152A 2018-12-14 2018-12-14 Multi channels transmitting system for dynamaic audio and controlling method KR102184131B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180162152A KR102184131B1 (en) 2018-12-14 2018-12-14 Multi channels transmitting system for dynamaic audio and controlling method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180162152A KR102184131B1 (en) 2018-12-14 2018-12-14 Multi channels transmitting system for dynamaic audio and controlling method

Publications (2)

Publication Number Publication Date
KR20200073699A KR20200073699A (en) 2020-06-24
KR102184131B1 true KR102184131B1 (en) 2020-11-27

Family

ID=71408102

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180162152A KR102184131B1 (en) 2018-12-14 2018-12-14 Multi channels transmitting system for dynamaic audio and controlling method

Country Status (1)

Country Link
KR (1) KR102184131B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140050454A1 (en) * 2012-08-17 2014-02-20 Nokia Corporation Multi Device Audio Capture
JP2017135464A (en) * 2016-01-25 2017-08-03 キヤノン株式会社 Video transmitter, video transmission system, video transmission method and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100874226B1 (en) * 2007-01-10 2008-12-16 광주과학기술원 Multi-view Image and 3D Audio Transceiver and Transmit and Receive Method Using the Same
KR100963005B1 (en) * 2008-07-09 2010-06-10 한국전자통신연구원 Method for file formation according to freeview av service

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140050454A1 (en) * 2012-08-17 2014-02-20 Nokia Corporation Multi Device Audio Capture
JP2017135464A (en) * 2016-01-25 2017-08-03 キヤノン株式会社 Video transmitter, video transmission system, video transmission method and program

Also Published As

Publication number Publication date
KR20200073699A (en) 2020-06-24

Similar Documents

Publication Publication Date Title
JP6326456B2 (en) Content reproduction apparatus, content reproduction method, and program
WO2016150317A1 (en) Method, apparatus and system for synthesizing live video
JP2011182109A (en) Content playback device
CN101232611B (en) Image process apparatus and method thereof
WO2018224726A1 (en) Method and apparatus for updating streamed content
JP5555068B2 (en) Playback apparatus, control method thereof, and program
KR20220077132A (en) Method and system for generating binaural immersive audio for audiovisual content
Shivappa et al. Efficient, compelling, and immersive vr audio experience using scene based audio/higher order ambisonics
CN110913273A (en) Video live broadcasting method and device
KR102090070B1 (en) Streaming server, client terminal and audio/video live streaming system using the same
US20210132898A1 (en) Method for transmitting and receiving audio data related to transition effect and device therefor
KR101980330B1 (en) Device for Generating a Video Output Data Stream, Video Source, Video System and Method for Generating a Video Output Data Stream and a Video Source Data Stream
US20200213631A1 (en) Transmission system for multi-channel image, control method therefor, and multi-channel image playback method and apparatus
Oldfield et al. An object-based audio system for interactive broadcasting
KR102184131B1 (en) Multi channels transmitting system for dynamaic audio and controlling method
JP5854208B2 (en) Video content generation method for multistage high-speed playback
CN109743590A (en) A kind of slow motion broadcasting hybrid system
Bleidt et al. Building the world’s most complex TV network: a test bed for broadcasting immersive and interactive audio
RU2527732C2 (en) Method of sounding video broadcast
KR101973190B1 (en) Transmitting system for multi channel image and controlling method
Schreer et al. Media production, delivery and interaction for platform independent systems: format-agnostic media
CN114827747B (en) Streaming media data switching method, device, equipment and storage medium
Thomas et al. State‐of‐the‐Art and Challenges in Media Production, Broadcast and Delivery
RU2583755C2 (en) Method of capturing and displaying entertaining activities and user interface for realising said method
CN108600580A (en) 4K programs supervise method and system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant