KR101076691B1 - System for tangible broadcating and control method using the same - Google Patents

System for tangible broadcating and control method using the same Download PDF

Info

Publication number
KR101076691B1
KR101076691B1 KR1020090090495A KR20090090495A KR101076691B1 KR 101076691 B1 KR101076691 B1 KR 101076691B1 KR 1020090090495 A KR1020090090495 A KR 1020090090495A KR 20090090495 A KR20090090495 A KR 20090090495A KR 101076691 B1 KR101076691 B1 KR 101076691B1
Authority
KR
South Korea
Prior art keywords
information
broadcast
image
user
unit
Prior art date
Application number
KR1020090090495A
Other languages
Korean (ko)
Other versions
KR20110032811A (en
Inventor
고희동
김진우
박호건
강동훈
박차라
임성택
차상윤
조한주
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020090090495A priority Critical patent/KR101076691B1/en
Publication of KR20110032811A publication Critical patent/KR20110032811A/en
Application granted granted Critical
Publication of KR101076691B1 publication Critical patent/KR101076691B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/53Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers
    • H04H20/57Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers for mobile receivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting

Abstract

본 발명은 수신된 방송 정보를 3차원 형식의 정보로 출력하는 실감 방송 시스템에 관한 것으로, 상기 시스템은 시스템에 접속한 사용자에게 실시간 방송 정보가 실제 세계와 동일하게 표현되는 3차원 미러 월드에서 실감(tangible) 영상으로 제공되고, 소셜 미디어(social media)들이 상기 미러 월드 상에서 시각화되어 집단 실감(socio-tangible) 관람을 제공할 수 있도록 한다.The present invention relates to a realistic broadcast system for outputting received broadcast information in a three-dimensional format, the system is a realistic (3D) mirror world in which real-time broadcast information is represented to the user connected to the system in the same way as the real world ( tangible images, and social media can be visualized on the mirror world to provide socio-tangible viewing.

3차원, 미러 월드, 소셜 미디어 3d mirror world social media

Description

실감 방송 시스템 및 이를 이용한 실시간 방송 시스템 제어 방법{SYSTEM FOR TANGIBLE BROADCATING AND CONTROL METHOD USING THE SAME}Realistic broadcasting system and real-time broadcasting system control method using the same {SYSTEM FOR TANGIBLE BROADCATING AND CONTROL METHOD USING THE SAME}

본 발명은 3차원 형식인 미러월드를 기반으로 실감 방송 정보를 출력하는 시스템 및 이를 이용한 시스템 제어 방법에 관한 것이다.The present invention relates to a system for outputting realistic broadcast information based on a three-dimensional mirror world and a system control method using the same.

컴퓨터 그래픽 환경을 제공하는 시뮬레이션 기술의 진전에 따라, 정보적으로 확장된 가상 세계이며 실제 세계의 반영인 미러 월드의 구현 기술이 진화하고 있다. With the progress of simulation technology to provide a computer graphics environment, the implementation technology of Mirror World, which is an informationally expanded virtual world and a reflection of the real world, is evolving.

상기 미러월드를 구축하기 위해서는 먼저 실세계를 3차원으로 표현할 수 있어야 한다. 이를 위해서는 현실 세계를 모델링하고, 다양한 이벤트를 표현할 수 있는 기술이 필요하다. 지금까지, VRML이라는 3차원 물체와 공간을 표현할 수 있는 파일 포맷이 탄생한 이래로, XML을 기반으로 한 X3D(Extensible 3D)의 규격이 발표되어 널리 보급되어 왔다.In order to construct the mirror world, the real world must first be expressed in three dimensions. This requires technology that can model the real world and express various events. Since the birth of a file format that can express three-dimensional objects and space called VRML, the standard of X3D (Extensible 3D) based on XML has been published and widely used.

구글 어스와 스트리트 뷰에서는 실세계를 기반으로 한 미러 월드를 2D 기반 으로 제작하여 서비스하고 있으며, 최근에는 주요 건물들의 3차원 정보들이 포함되어 조금 더 실감나는 미러 월드를 볼 수 있게 되었다. Google Earth and Street View are creating and servicing mirror worlds based on the real world on a 2D basis, and nowadays, it is possible to see more realistic mirror worlds by including 3D information of major buildings.

본 발명은 실시간 방송 정보를 수신하여, 3차원 가상 형식으로 실감 방송 정보를 제공하는 실감 방송 시스템 및 이를 이용한 시스템 제어 방법을 제공하기 위한 것이다. The present invention provides a sensory broadcast system for receiving real-time broadcast information and providing sensory broadcast information in a 3D virtual format, and a system control method using the same.

상기한 과제를 실현하기 위한 본 발명의 일 실시 예에 따른 실감 방송 시스템은, 실 공간과 동일한 공간 정보를 갖는 3차원 가상 공간에 관한 영상 정보가 저장되는 메모리부, 방송 정보를 수신하는 통신부, 상기 메모리부의 영상 정보에 상기 통신부를 통해 수신되는 방송 정보를 랜더링하고, 사용자 지시 신호에 의한 이벤트를 반영시킨 3차원 방송 영상을 생성하는 제어부 및 상기 수신된 방송 정보 또는 상기 제어부에서 생성된 3차원 방송 영상 정보를 출력하는 출력부를 포함한다.According to an aspect of the present invention, there is provided a sensory broadcasting system including a memory unit for storing image information regarding a 3D virtual space having the same spatial information as the real space, a communication unit for receiving broadcast information, and A controller for rendering broadcast information received through the communication unit in the image information of a memory unit and generating a 3D broadcast image reflecting an event generated by a user indication signal, and the received broadcast information or the 3D broadcast image generated by the controller. It includes an output unit for outputting information.

또한, 상기 제어부는 상기 3차원 방송 영상에 제 1 사용자 지시 신호에 의한 이벤트가 반영된 제 1 아바타를 랜더링한다.The controller may render a first avatar in which an event by a first user indication signal is reflected in the 3D broadcast image.

또한, 사용자로부터 미디어 정보를 입력받는 입력부를 더 포함하고, 상기 제어부는 상기 미디어 정보가 더 표시된 3차원 방송 영상을 생성한다.The apparatus may further include an input unit configured to receive media information from a user, and the controller generates a 3D broadcast image in which the media information is further displayed.

또한, 상기한 과제를 실현하기 위한 본 발명의 일 실시 예에 따른 실감 방송 시스템 제어 방법은, 실 공간과 동일한 방송 정보를 갖는 3차원 가상 공간에 관한 영상 정보가 저장되는 저장 단계, 방송 정보가 수신되는 수신 단계, 상기 3차원 가상 공간에 관한 영상 정보에 상기 수신된 방송 정보를 랜더링하고, 사용자 지시 신호에 의한 이벤트를 반영시킨 3차원 방송 영상을 생성하는 생성 단계 및 상기 수신된 방송 정보 또는 상기 3차원 방송 영상을 출력하는 출력 단계를 포함한다.In addition, the sensory broadcasting system control method according to an embodiment of the present invention for realizing the above object, the storage step of storing the video information about the three-dimensional virtual space having the same broadcast information as the real space, the broadcast information is received A reception step, a generation step of rendering the received broadcast information in the image information about the 3D virtual space, generating a 3D broadcast image reflecting an event according to a user indication signal, and the received broadcast information or the 3 And outputting the 3D broadcast image.

또한, 상기 생성 단계는, 사용자 지시 신호에 의한 이벤트가 반영된 사용자 분신인 아바타가 더 표시된 3차원 방송 영상을 생성한다.The generating may generate a 3D broadcast image in which an avatar, which is a user alteration reflecting an event by a user indication signal, is further displayed.

상기와 같이 구성되는 본 발명의 적어도 하나의 실시 예에 관련된 실감 방송 시스템은 3차원 가상 공간 상에서 실감 방송 정보를 제공하고, 사용자로 하여금 소셜 미디어를 이용하여 다양한 이벤트에 대한 인덱스를 생성하여 활용하도록 할 수 있는 이점이 있다. The sensory broadcasting system according to at least one embodiment of the present invention configured as described above provides sensory broadcasting information in a three-dimensional virtual space and allows a user to generate and utilize an index for various events using social media. There is an advantage to this.

이하, 본 발명과 관련된 방송 시스템에 대해서 도면을 참조하여 보다 상세하게 설명한다. 본 발명이 속한 기술 분양에서 통상의 지식을 가진자라면, 도면을 참조 또는 변형하여 상기 실감 방송 시스템의 구성에 대한 다양한 실시 예를 유추할 수 있을 것이나, 본 발명은 상기 유추되는 다양한 실시 예를 포함하며 이루어지며, 아래 도면에 도시된 실시 예로 그 기술적 특징이 한정되지 아니한다.Hereinafter, a broadcast system related to the present invention will be described in detail with reference to the drawings. Those skilled in the art to which the present invention belongs may deduce various embodiments of the configuration of the realistic broadcasting system by referring to or modifying the drawings, but the present invention includes the various embodiments inferred by the present invention. And the technical features are not limited to the embodiment shown in the drawings below.

도 1은 본 발명의 제 1 실시 예에 따른 실감 방송 시스템의 구성도이다.1 is a block diagram of a realistic broadcast system according to a first embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 실감 방송 시스템(100)은 통신부(110), 출력부(120), 입력부(130), 메모리부(140), 인터페이스부(150) 및 제어부(160)를 포함하여, 미러 월드의 3차원 가상 공간을 기반으로 실시간 방송 정보를 제공한다. 상기 미러 월드란, 컴퓨터 그래픽 환경을 제공하는 시뮬레이션 기술에 기반한 것으로, 정보적으로 확장된 가상 세계를 의미한다. Referring to FIG. 1, the realistic broadcasting system 100 according to an embodiment of the present invention may include a communication unit 110, an output unit 120, an input unit 130, a memory unit 140, an interface unit 150, and a controller. Including 160, real-time broadcasting information is provided based on the three-dimensional virtual space of the mirror world. The mirror world is based on a simulation technology that provides a computer graphics environment and refers to an informationally expanded virtual world.

상기 통신부(110)는 상기 실감 방송 시스템(100)과 방송 관리 서버, 상기 실감 방송 시스템(100)과 실감 방송 시스템(100) 또는 상기 실감 방송 시스템(100)과 개인용 단말기 사이의 무선 통신을 가능하게 하며, 상기 방송 관리 서버로부터 방송 채널을 통하여 실시간 방송 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있고, 상기 방송 관리 서버는, 방송 신호 또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 또는 방송 관련 정보를 제공받아 송신하는 서버를 포함할 수 있다. 또한, 상기 통신부는 상기 방송 정보를 수신하는 방송 수신 모듈 이외에 이동 통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈 등을 포함할 수 있다. The communication unit 110 enables wireless communication between the realistic broadcast system 100 and the broadcast management server, the realistic broadcast system 100 and the realistic broadcast system 100, or the realistic broadcast system 100 and a personal terminal. And receives real-time broadcast information through the broadcast channel from the broadcast management server. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may include a server that generates and transmits a broadcast signal or broadcast related information or a server that receives and transmits a previously generated broadcast signal or broadcast related information. It may include. The communication unit may include a mobile communication module, a wireless internet module, a short range communication module, and the like in addition to the broadcast receiving module that receives the broadcast information.

상기 출력부(120)는 상기 통신부(110)를 통해 수신된 방송 정보 또는 상기 실감 방송 시스템(100)을 통해 생성된 3차원 방송 정보를 출력한다. 즉, 상기 수신된 방송 정보 및 생성된 3차원 방송 정보를 서로 스위칭하면서 출력하거나, 수신된 방송 정보 또는 생성된 3차원 방송 정보를 함께 출력할 수 있다. 상기 수신된 방송 정보 및 생성된 3차원 방송 정보가 서로 스위칭되는 경우에는, 재생되는 방송 정보에 대응하는 시점 또는 공간 지점을 연결시켜 3차원 방송 정보가 출력되도록 제어할 수 있다. 상기 출력부(120)는 상기 개인용 단말기와 연결된 상태로 상기 개인용 단말기에 가상 형식의 정보를 출력하는 정보 인터페이스부가 되거나, 직접 상기 3차원 형식의 정보를 표시하는 디스플레이부가 될 수 있다. The output unit 120 outputs broadcast information received through the communication unit 110 or 3D broadcast information generated through the realistic broadcast system 100. That is, the received broadcast information and the generated 3D broadcast information may be output while switching with each other, or the received broadcast information or the generated 3D broadcast information may be output together. When the received broadcast information and the generated 3D broadcast information are switched with each other, the 3D broadcast information may be controlled by connecting a view point or a space point corresponding to the reproduced broadcast information. The output unit 120 may be an information interface unit for outputting virtual format information to the personal terminal while being connected to the personal terminal, or may be a display unit for directly displaying the 3D format information.

상기 출력부(120)가 디스플레이부의 기능을 수행하는 경우, 상기 출력부(120)는 3차원 형식으로 표시되는 실시간 방송 정보를 표시한다. 또한, 상기 출력부(120)는 사용자 분신인 아바타가 단수 또는 복수로 표시된 방송 정보, 상기 방송 정보에 해당하는 타임 라인(time line)이 더 표시된 방송 정보를 표시할 수 있다. 또한, 상기 출력부(120)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있는 것으로, 상기 3차원 형식의 정보를 영상 정보, 음향 정보 또는 햅틱 정보 중 하나 이상의 형태로 출력할 수 있다. 또한, 상기 출력부(120)는 웨어러블(wearable) 디바이스 또는 휴대용인 핸드헬드(handheld) 디바이스를 통해 다양한 형태의 출력 정보를 제공할 수 있다.When the output unit 120 performs a function of the display unit, the output unit 120 displays real time broadcast information displayed in a 3D format. In addition, the output unit 120 may display broadcast information in which a single avatar or a plurality of user avatars are displayed, and broadcast information in which a time line corresponding to the broadcast information is further displayed. In addition, the output unit 120 may generate an output related to visual, auditory, or tactile senses, and may output the three-dimensional information in one or more forms of image information, sound information, or haptic information. In addition, the output unit 120 may provide various types of output information through a wearable device or a portable handheld device.

상기 출력부(120)가 정보 인터페이스부의 기능을 수행하는 경우, 상기 출력부(120)는 상기 실감 방송 시스템(100)으로부터 생성되는 3차원 방송 정보를 상기 실감 방송 시스템(100)에 접속된 사용자에게 동시에 출력할 수 있다. 따라서, 제 1 사용자의 지시에 따라 이벤트가 반영된 제 1 아바타가 표시된 3차원 가상 형식의 방송 정보를 제 1 사용자 및 제 2 사용자에게 출력할 수 있다. 따라서, 상기 실감 방송 시스템(100)을 통해 스포츠 정보를 제공하는 경우, 상기와 같은 제공 정보의 집단 공유로 인하여 깃발 들기, 파도 타기, 단체 색종이 응원 등을 실행할 수 있다. 상기 출력부(120)가 사용자 개인 단말기와 연결되어 정보 인터페이스부의 기능을 수행하는 경우, 상기 사용자 개인 단말기에는 데스크탑, 모바일폰, IPTV 또는 몰입형 공간 등의 다양한 플랫폼이 포함될 수 있다. When the output unit 120 performs a function of the information interface unit, the output unit 120 transmits 3D broadcast information generated from the sensory broadcasting system 100 to a user connected to the sensory broadcasting system 100. Can print at the same time. Therefore, in accordance with the instruction of the first user, broadcast information in a 3D virtual format in which the first avatar reflecting the event is displayed may be output to the first user and the second user. Therefore, when providing sports information through the realistic broadcasting system 100, it is possible to perform flag lifting, surfing, group confetti cheering, etc. due to the group sharing of the provided information. When the output unit 120 is connected to a user personal terminal to perform a function of an information interface unit, the user personal terminal may include various platforms such as a desktop, a mobile phone, an IPTV, or an immersive space.

상기 입력부(130)는 사용자가 상기 실감 방송 시스템(100)의 동작 제어를 위한 사용자 지시 신호를 입력받는다. 상기 입력부(130)는 상기 개인용 단말기와 연결된 상태로 상기 개인용 단말기의 지시 신호를 입력받는 정보 인터페이스부가 되거나, 직접 사용자 지시를 입력받는 키패드(key pad), 돔 스위치(dome switch), 터치 패드, 조그 휠 또는 조그 스위치 등으로 구성될 수 있다. The input unit 130 receives a user indication signal for controlling the operation of the realistic broadcast system 100. The input unit 130 is an information interface unit for receiving an indication signal of the personal terminal while being connected to the personal terminal, or a keypad, a dome switch, a touch pad, a jog that directly receives a user instruction. Wheel, jog switch, or the like.

상기 입력부(130)가 정보 인터페이스부의 기능을 수행하는 경우, 상기 입력부(130)는 상기 실감 방송 시스템(100)에 접속하는 사용자들로부터 미디어 정보를 입력받을 수 있다. 상기 미디어 정보란, 채팅 또는 마이크로 블로깅 등의 소셜 미디어(social media)에 활용되는 정보로, 상기 실감 방송 시스템(100)에 접속하는 사용자들의 의견, 생각, 경험 또는 관점들을 서로 공유하기 위해 사용하는 온라인 정보를 의미한다. 상기 미디어 정보는 문자, 사진 등의 이미지, 오디오 또는 동영상 등의 비디오 형태를 가질 수 있다. 상기 입력부(130)를 통해 입력된 소셜 미디어 정보는 이후 메모리부(140)에 저장될 수 있고, 표시하는 방송 정보에 대한 과거 또는 현재의 이벤트 검색에 활용될 수 있다. When the input unit 130 performs a function of the information interface unit, the input unit 130 may receive media information from users accessing the sensory broadcasting system 100. The media information is information used for social media such as chatting or microblogging. The media information is used to share opinions, thoughts, experiences, or viewpoints of users accessing the realistic broadcasting system 100 with each other. Means information. The media information may have a video form such as an image such as a text or a picture, an audio or a video. The social media information input through the input unit 130 may then be stored in the memory unit 140 and used to search for past or current events on the displayed broadcast information.

상기 입력부(130)는 사용자 지시를 입력하는 오브젝트를 감쌀 수 있도록 의 복 및 액세사리 형태로 변형시킨 웨어러블(wearable) 디바이스 또는 휴대용인 핸드헬드(handheld) 디바이스를 통해 행동 인식을 통한 사용자 신호를 입력받을 수 있다. 또한, 상기 입력부(130)를 통해 입력되는 특정 동작에 해당하는 모션을 미리 설정하여, 해당하는 동작 신호가 입력되는 경우 미리 설정된 상기 모션에 대한 지시 신호가 입력되는 것으로 인식하도록 할 수 있다. 예를 들어, 상기 실감 방송 시스템(100)을 통하여 스포츠 관람을 하는 경우, 색종이 날리기로 설정된 임의의 형태에 해당하는 동작 신호가 입력되면, 상기 실감 방송 시스템(100)은 색종이 날리기 신호가 입력된 것으로 인식할 수 있다. The input unit 130 may receive a user signal through behavior recognition through a wearable device or a portable handheld device which is transformed into a garment and an accessory type to wrap an object for inputting a user's instruction. have. In addition, a motion corresponding to a specific operation input through the input unit 130 may be preset, and when a corresponding operation signal is input, it may be recognized as an input signal for the preset motion. For example, when watching sports through the realistic broadcasting system 100, when an operation signal corresponding to any form set to blow confetti is input, the realistic broadcasting system 100 is inputted with a confetti blowing signal. I can recognize it.

상기 메모리부(140)는 실(real) 공간과 동일한 공간 정보를 갖는 3차원 가상 공간에 관한 영상 정보 등 상기 실감 방송 시스템(100)의 동작을 위한 프로그램 및 입출력되는 데이터들이 저장될 수 있다. 따라서, 상기 메모리부(140)의 영상 정보를 이용하여, 실제 현실을 정보적으로 확장시킨 미러 월드 기반의 영상 정보를 생성할 수 있다. The memory unit 140 may store programs and data input / output for operation of the sensory broadcasting system 100 such as image information about a 3D virtual space having the same spatial information as that of a real space. Therefore, the mirror world-based image information that is an informational extension of the real reality may be generated using the image information of the memory unit 140.

상기 인터페이스부(150)는 상기 실감 방송 시스템(100)에 접속하는 사용자의 로그인 관리, 상기 통신부(110)를 통한 방송 정보 수신에 대한 채널 관리 등을 수행한다. 구체적으로, 상기 인터페이스부(150)는 상기 실감 방송 시스템(100)에 접속하는 사용자의 사용 권한을 인증하기 위해 각종 정보를 저장하고 있으며, 사용자에 의해 로그인 신호가 입력되면 상기 로그인 신호를 처리하고, 이후 접속된 사용 자의 접속 상태를 관리한다. 또한, 상기 인터페이스부(150)는 각 채널 별로 사용자의 접속 여부를 관리하여, 특정 채널에 대한 과부하를 방지할 수 있다.The interface unit 150 performs login management of a user accessing the realistic broadcasting system 100, channel management for receiving broadcast information through the communication unit 110, and the like. Specifically, the interface unit 150 stores a variety of information for authenticating the user's authority to access the realistic broadcast system 100, and processes the login signal when a login signal is input by the user, After that, manage the connection status of the connected users. In addition, the interface unit 150 may manage whether a user is connected to each channel to prevent an overload on a specific channel.

상기 제어부(160)는 상기 실감 방송 시스템(100)의 통상적인 동작을 제어한다. 구체적으로, 상기 제어부(160)는 상기 메모리부(140)의 영상 정보에 상기 통신부(110)를 통해 수신되는 방송 정보를 랜더링(rendering)하고, 상기 입력부(130)의 사용자 지시 신호에 의한 이벤트를 3차원 가상 영상에 반영시켜 3차원 방송 정보를 생성하도록 제어한다. 상기 랜더링이란, 컴퓨터 프로그램을 사용하여 2차원의 화상에 광원·위치, 색상 등 외부 정보를 고려하여 3차원 화상을 만드는 과정을 의미한다. 본 발명의 실시예에 따라 생성된 3차원 방송 정보는 정보적으로 확장된 가상 세계를 의미하는 미러 월드를 기반으로 할 수 있다.The controller 160 controls the normal operation of the realistic broadcast system 100. In detail, the controller 160 renders broadcast information received through the communication unit 110 on the image information of the memory unit 140, and generates an event by a user indication signal of the input unit 130. Control to generate 3D broadcast information by reflecting on the 3D virtual image. The rendering means a process of creating a three-dimensional image by considering external information such as a light source, a position, and a color in a two-dimensional image using a computer program. 3D broadcast information generated according to an embodiment of the present invention may be based on a mirror world, which means an informationally extended virtual world.

상기 제어부(160)는 상기 출력부(120)를 통해 출력되는 정보를 선택할 수 있고, 따라서 상기 출력부(120)를 통해 상기 수신되는 방송 정보 또는 상기 제어부(160)에서 생성되는 3차원 방송 정보가 출력되도록 제어할 수 있다. 구체적으로, 상기 수신되는 방송 정보와 동일한 공간적인 정보를 갖는 3차원 방송 정보를 함께 출력하거나, 입력 신호에 따라서 수신되는 방송 정보 및 3차원 방송 정보를 스위칭 하면서 출력하도록 제어할 수 있다. 상기 제어부(160)는 수신되는 방송 정보 및 3차원 방송 정보가 스위칭 되는 경우, 출력되는 방송 정보와 공간적인 좌표가 일치하는 3차원 방송 정보가 출력되도록 하거나, 출력되는 3차원 방송 정보와 공간적인 좌표가 일치하는 방송 정보가 출력되도록 하여, 사용자에게 공간적인 연장감을 제 공할 수 있다. 예를 들어, 상기 제어부(160)는 상기 출력부(120)를 통해 수신된 방송 정보를 출력하는 중, 입력 신호에 따라서 출력되는 방송 정보와 동일한 공간 좌표 정보를 갖는 3차원 방송 정보가 출력되도록 제어하고, 또 상기 3차원 방송 정보를 출력하는 중, 입력 신호에 따라서 3차원 방송 정보에서 표시되는 시점에 해당하는 실시간 방송 정보가 출력되도록 제어할 수 있다. 상기 3차원 방송 정보에서 실시간 방송 정보로 변환되는 경우, 설정에 따라서 3차원 방송 정보에서 표시되는 지점과 가장 가까운 카메라의 영상으로 전환되거나, 동일한 시점으로 표시되는 카메라의 영상으로 전환되거나 또는 새로운 영상의 합성을 통해 실시간 방송 정보로 변환되도록 할 수 있다. The control unit 160 may select the information output through the output unit 120, so that the received broadcast information or the 3D broadcast information generated by the control unit 160 through the output unit 120 You can control the output. Specifically, the 3D broadcast information having the same spatial information as the received broadcast information may be output together, or the received broadcast information and the 3D broadcast information may be controlled while being switched according to an input signal. When the received broadcast information and the 3D broadcast information are switched, the controller 160 outputs the 3D broadcast information in which the broadcast information and the spatial coordinates coincide with each other or outputs the 3D broadcast information and the spatial coordinates. By matching the broadcasting information is output, it can provide a spatial extension to the user. For example, the controller 160 controls to output 3D broadcast information having the same spatial coordinate information as the broadcast information output according to the input signal while outputting the broadcast information received through the output unit 120. Further, while outputting the 3D broadcast information, it may be controlled to output real time broadcast information corresponding to a point of time displayed in the 3D broadcast information according to an input signal. When the 3D broadcasting information is converted into real time broadcasting information, the image is converted to the image of the camera closest to the point displayed in the 3D broadcasting information, the image of the camera displayed at the same time, or the new image is changed according to the setting. The composition may be converted into real-time broadcasting information through synthesis.

또한, 상기 제어부(160)는 상기 출력 정보의 3차원 방송 영상에 아바타에 해당하는 사용자로부터 입력된 이벤트를 반영한 아바타를 표시하도록 제어한다. 이 경우, 상기 제어부(160)는 상기 입력부(130)의 행동 인식에 따른 입력 신호를 이용할 수 있다. 상기 아바타란, 가상 영상에서 사용자 분신을 의미하는 시각적인 이미지를 의미한다. 즉, 사용자는 상기 아바타를 통해 공간을 이동하거나, 특정 동작을 표현할 수 있다. 상기 실감 방송 시스템(100)에 접속하는 사용자가 복수에 해당하는 경우, 상기 제어부(160)는 제 1 사용자에 해당하는 제 1 아바타에 상기 제 1 사용자 지시 신호에 의한 이벤트를 반영시켜 랜더링하고, 상기 랜더링된 제 1 아바타가 포함된 3차원 가상 형식의 정보를 제 1 사용자를 포함한 모든 사용자에게 출력할 수 있다. 따라서, 상기 제어부(160)를 통해 제 2 사용자의 지시 신호에 의한 이벤트가 반영된 제 2 아바타가 랜더링된 3차원 형식의 정보가 제 1 사용자에게도 출 력될 수 있고, 이를 통해서 상기 3차원 가상 영상을 기반으로 집단 방송 관람이 가능하게 된다. 상기 제어부(160)는 상기 아바타가 표시되는 3차원 방송 영상을, 상기 아바타 시점 등 다양한 시점으로 표시되도록 제어할 수 있다. 따라서, 상기 제어부(160)는 상기 실감 방송 시스템(100)에 접속한 제 1 사용자에게 상기 제 1 사용자에 해당하는 제 1 아바타 시점으로 표시된 3차원 가상 형식의 정보 또는 제 3 자 시점으로 표시된 3차원 가상 형식의 정보를 생성할 수 있다. In addition, the controller 160 controls to display an avatar reflecting an event input from a user corresponding to the avatar on the 3D broadcast image of the output information. In this case, the controller 160 may use an input signal according to the behavior recognition of the input unit 130. The avatar refers to a visual image representing a user alteration in a virtual image. That is, the user may move a space or express a specific motion through the avatar. When there are a plurality of users accessing the realistic broadcast system 100, the controller 160 reflects and renders an event by the first user indication signal in a first avatar corresponding to a first user, and renders the Information in a 3D virtual format including the rendered first avatar may be output to all users including the first user. Accordingly, the 3D-format information in which the second avatar rendered by the second user's instruction signal is reflected through the control unit 160 may be output to the first user, based on the 3D virtual image. As a result, group broadcasting can be viewed. The controller 160 may control the 3D broadcast image in which the avatar is displayed to be displayed at various viewpoints such as the avatar viewpoint. Accordingly, the controller 160 displays the information of the 3D virtual format displayed as the first avatar view corresponding to the first user or the 3D view displayed to the first user connected to the sensory broadcasting system 100. Information in virtual form can be generated.

또한, 상기 제어부(160)는 상기 실감 방송 시스템(100)에 접속한 사용자들로부터 입력받은 소셜 미디어 정보를 상기 3차원 방송 영상에 반영시켜 표시하도록 제어할 수 있다. 즉, 상기 제어부(160)는 3차원 가상 공간에 관한 영상 정보에 상기 통신부(110)를 통해 수신된 방송 정보를 랜더링하고, 상기 실감 방송 시스템(100)에 접속한 사용자로부터 입력된 지시 신호에 의한 이벤트를 반영하며, 상기 실감 방송 시스템(100)에 접속한 사용자로부터 입력된 소셜 미디어 정보를 믹스시켜 2차원 또는 3차원 형태로 표시할 수 있다. 구체적으로, 상기 제어부(160)는 상기 실감 방송 시스템(100)에 접속한 사용자들로부터 입력받은 미디어 정보를 상기 메모리부(140)에 저장하고, 상기 미디어 정보로부터 대표 키워드를 추출하여 추출된 키워드로 구성된 인덱스 정보를 생성하여 사용자들에게 제공할 수 있다. 상기 인덱스 정보는 상기 메모리부(140)에 저장되어, 향후 과거 및 현재의 방송 정보에 대한 이벤트의 검색이나 정보 제공에 활용될 수 있다. 또한, 상기 제어부(160)는 상기 출력 정보의 3차원 방송 영상에 타임 라인이 표시되도록 할 수 있다. 상기 타임 라인이란, 상기 3차원 방송 영상의 진행 시간 정보를 표시하는 바(bar)를 의미 한다. 상기 제어부(160)는 타임 라인에는, 사용자들로부터 입력받은 미디어 정보로 링크될 수 있는 아이콘이 함께 표시할 수 있다. In addition, the controller 160 may control to reflect and display the social media information received from the users connected to the realistic broadcasting system 100 in the 3D broadcast image. That is, the controller 160 renders the broadcast information received through the communication unit 110 to the image information about the three-dimensional virtual space, and by the indication signal input from the user connected to the realistic broadcast system 100 Reflecting the event, the social media information input from the user connected to the realistic broadcast system 100 may be mixed and displayed in a two-dimensional or three-dimensional form. In detail, the controller 160 stores the media information received from the users connected to the sensory broadcasting system 100 in the memory unit 140, extracts a representative keyword from the media information, and extracts the representative keyword from the extracted keyword. The configured index information can be generated and provided to users. The index information may be stored in the memory unit 140 and used to search for an event or provide information about future and current broadcast information. In addition, the controller 160 may display a timeline on the 3D broadcast image of the output information. The time line means a bar displaying progress time information of the 3D broadcast video. The controller 160 may display an icon that can be linked to media information received from users on the timeline.

또한, 상기 제어부(160)는 상기 입력부(130)를 통해 입력되는 사용자 채널 선택 신호에 따라, 수신되는 방송 정보에 대한 채널을 변경할 수 있다. 따라서, 상기 제어부(160)는 상기 사용자로부터 선택된 채널에 해당하는 방송 정보를 3차원 형식으로 랜더링한다.In addition, the controller 160 may change a channel for received broadcast information according to a user channel selection signal input through the input unit 130. Accordingly, the controller 160 renders broadcast information corresponding to a channel selected by the user in a 3D format.

도 2a 및 도 2b는 본 발명의 제 2 실시예 및 제 3 실시예에 따른 실감 방송 시스템(100)의 세부 구성도들이다.2A and 2B are detailed configuration diagrams of the realistic broadcast system 100 according to the second and third embodiments of the present invention.

도 2a는 상기 도 1의 구성도의 구성에 세부 구성 요소를 더 표시하여 설명하는 도면이고, 도 2b는 상기 실감 방송 시스템(100)의 기능별 세부 구성 요소를 설명하는 도면이다.FIG. 2A is a diagram for further explaining and explaining detailed components in the configuration of FIG. 1, and FIG. 2B is a diagram illustrating detailed components for each function of the realistic broadcasting system 100.

도 2a를 참조하면, 본 발명의 제 2 실시예에 따른 실감 방송 시스템(100)에 포함되는 통신부(110), 출력부(120),에 입력부(130), 메모리부(140), 인터페이스부(150) 및 제어부(160)는 각 구성별로 필요한 세부 구성 요소를 더 포함할 수 있다.Referring to FIG. 2A, the communication unit 110, the output unit 120, the input unit 130, the memory unit 140, and the interface unit included in the realistic broadcasting system 100 according to the second embodiment of the present invention. 150 and the controller 160 may further include detailed components required for each component.

상기 통신부(110)는 방송 관리 서버로부터 실감 방송 정보를 수신하는 실시간 방송 정보 통신부(111)를 포함한다.The communication unit 110 includes a real time broadcast information communication unit 111 for receiving realistic broadcast information from a broadcast management server.

상기 메모리부(140)는 3차원 가상 공간에 관한 영상 정보가 저장되는 영상 정보 데이터 베이스(141), 사용자로부터 입력된 소셜 미디어 정보가 저장되는 소셜 미디어 데이터 베이스(142) 및 과거 방송 정보를 저장하는 과거 방송 정보 데터 베이스가 포함된다.The memory unit 140 stores an image information database 141 storing image information about a 3D virtual space, a social media database 142 storing social media information input from a user, and past broadcast information. Past broadcast information database is included.

상기 인터페이스부(150)는 상기 실감 방송 시스템(100)에 접속하는 사용자를 관리하는 사용자 관리부(151) 및 각 방송 채널별로 접속 정보를 관리하는 채절별 접속 관리부(152)를 포함하고, 상기 사용자 관리부(151)에는 사용자의 접속 개시를 신호를 입력받는 로그인 관리부(151A) 및 로그인 이후 발생하는 지시 신호에 따라 제어하는 사용자 행동 기록부(151B)를 포함한다.The interface unit 150 includes a user manager 151 for managing a user accessing the realistic broadcast system 100 and a channel-specific connection manager 152 for managing connection information for each broadcast channel. The user manager 151 includes a login management unit 151A for receiving a signal of starting a user's connection and a user behavior recording unit 151B for controlling the user's connection in accordance with an instruction signal generated after login.

상기 제어부(160)는 상기 인터페이스부(150)를 통해 입력되는 로그인 신호에 따라 사용자 접속 허용 여부를 결정하는 로그인 처리부(161), 사용자 신호에 따라 출력 정보에 포함시킬 내용을 처리하는 정보 확인부(162), 사용자 신호에 따라 선택된 관람 채널로 연결하는 관람 채널 연결부(163), 연결된 관람 채널에 해당하는 방송 정보를 출력 정보에 포함시키는 관람 채널 운용부(164) 및 상기 인터페이스부(150)의 채널별 접속 관리부(152)의 제어 신호에 따라 관람 채널에 대한 제어를 수행하는 관람 채널 관리부(165)가 포함될 수 있다. The control unit 160 may include a login processing unit 161 for determining whether to allow a user connection according to a login signal input through the interface unit 150, and an information confirmation unit for processing contents to be included in output information according to a user signal ( 162, a viewing channel connecting unit 163 connecting to a viewing channel selected according to a user signal, a viewing channel operating unit 164 for including broadcast information corresponding to the connected viewing channel in output information, and a channel of the interface unit 150. The viewing channel manager 165 may control the viewing channel according to the control signal of the star connection manager 152.

도 2b를 참조하면, 상기 실감 방송 시스템(100)은 상기 실감 방송 시스템에 접속하는 사용자 정보를 관리하는 사용자 접속/ 정보 관리 서버(101), 3차원영상 정보를 제공하는 3차원 영상 제공 서버(102), 수신하는 방송 정보를 관리하는 실감 방송 정보 및 과거 방송 기록 서버(103) 및 소셜 미디어 정보가 관리되는 소셜 미디어 서버(104)를 포함한다.Referring to FIG. 2B, the sensory broadcasting system 100 includes a user connection / information management server 101 that manages user information accessing the sensory broadcasting system, and a 3D image providing server 102 that provides 3D image information. ), Realistic broadcast information for managing received broadcast information, and a past broadcast record server 103 and a social media server 104 for managing social media information.

상기 사용자 접속/ 정보 관리 서버(101)는 상기 실감 방송 시스템에 접속하는 사용자의 계정과 로그인 과정상의 log를 관리하는 로그인 관리부(1012) 및 로그인 이후 사용자가 인터페이스를 통해서 방송 제공 도중에 행하는 모든 행동 정보를 기록하는 사용자 행동 기록부(1013)를 포함하는 사용자 관리 데이터 베이스(1011) 및 사용자 신호에 따라 선택되는 채널을 제어하여 채널별로 과부하가 걸리지 않도록 관리하는 채널별 접속 정보 관리부(1015)가 포함되는 관람 채널 데이터 베이스(1014)가 포함된다.The user access / information management server 101 is a login manager 1012 that manages an account of a user accessing the sensory broadcasting system, a log in a login process, and all behavior information that a user performs while providing a broadcast through an interface after login. A viewing channel including a user management database 1011 including a recording user behavior recording unit 1013 and a channel-specific access information management unit 1015 for controlling a channel selected according to a user signal so as not to be overloaded by channels. Database 1014 is included.

상기 3차원 영상 제공 서버(102)는 상기 사용자 접속/ 정보 관리 서버(101)로부터 입력되는 로그인 신호 및 입력 신호를 처리하는 인터페이스 제공부(1021), 상기 사용자 접속/ 정보 관리 서버(101), 실시간 방송 정보 및 과거 방송 기록 서버(103)로부터 정보를 수신하는 정보 수신부(1023), 수신된 정보를 확인하는 정보 확인부(1023), 출력 정보를 생성하여 전송하는 정보 전송부(1024), 처리되는 정보를 실시간 저장하는 정보 저장부(1025), 사용자가 선택한 관람 채널로 연결하는 관람 채널 연결부(1026), 수신되는 방송 정보를 이용하여 출력 정보를 재생하는 관람 운영부(1027) 및 상기 출력 정보를 제어하는 관람 제어부(1028)을 포함한다. 따라서, 사용자는 상기 사용자 접속/ 정보 관리 서버(101)를 통하여 상기 실감 방송 시스템(100)에 로그인하고, 상기 정보 수신부(1023)를 통해 정보를 수신하고, 상기 정보 확인부(1023)를 통해 수신된 정보를 확인한다. 또한, 사용자 의사에 따라 관람 채널을 선택하고, 상기 관람 채널 연결부(1026)가 상기 선택된 채널로 연결을 지원하며, 관람 도중에 필요한 운용 및 제어는 관람 운용부(1027) 및 관람 제어 부(1028)를 통해 수행한다.The 3D image providing server 102 is an interface providing unit 1021 for processing a login signal and an input signal input from the user access / information management server 101, the user access / information management server 101, real time The information receiving unit 1023 for receiving information from the broadcast information and the past broadcast recording server 103, the information checking unit 1023 for confirming the received information, the information transmitting unit 1024 for generating and transmitting output information, The information storage unit 1025 for storing information in real time, the viewing channel connection unit 1026 for connecting to the viewing channel selected by the user, the viewing operation unit 1027 for reproducing the output information using the received broadcast information and the output information is controlled It includes a viewing control unit 1028. Accordingly, a user logs in to the sensory broadcasting system 100 through the user access / information management server 101, receives information through the information receiving unit 1023, and receives through the information confirming unit 1023. The updated information. In addition, a viewing channel may be selected according to a user's intention, and the viewing channel connection unit 1026 may support connection to the selected channel, and operation and control necessary during the viewing may be performed by the viewing management unit 1027 and the viewing control unit 1028. Through.

상기 실시간 방송 정보 및 과거 방송 기록 서버(103)는 상기 실시간 방송 시스템(100)으로 수신되거나, 상기 실시간 방송 시스템(100)에서 출력된 과거 방송 정보가 저장되는 과거 방송 기록 데이터 베이스(1031) 및 사용자 지시 신호에 따라 실시간으로 해당하는 채널의 방송 정보를 요청하는 실시간 정보 송신부(1035) 및 상기 영상이나 텍스트 중계 정보 등이 포함되는 스트리밍 영상을 수신하는 실시간 정보 수신부(1036)를 포함하는 실시간 방송 정보 처리부(1034)를 포함한다.The real-time broadcast information and the past broadcast record server 103 is a past broadcast record database 1031 and the user that is received by the real-time broadcast system 100, or output from the real-time broadcast system 100 is stored; A real time broadcast information processor including a real time information transmitter 1035 for requesting broadcast information of a corresponding channel in real time according to an indication signal and a real time information receiver 1036 for receiving a streaming video including the video or text relay information (1034).

상기 소셜 미디어 서버(104)는 수신되는 소셜 미디어가 저장되는 소셜 미디어 데이터 베이스(1041), 상시 소셜 미디어로부터 대표 키워드를 추출하는 소셜 미디어 인덱스 추출부(1042) 및 상기 추출된 소셜 미디어 인덱스로 리스트를 구성하는 소셜 미디어 이벤트 인덱스 데이터 베이스(1043)를 포함한다.The social media server 104 stores a list with a social media database 1041 where the received social media is stored, a social media index extractor 1042 for extracting a representative keyword from the social media at all times, and the extracted social media index. It comprises a social media event index database 1043 constituting.

도 3은 본 발명의 제 4 실시 예에 따라 개인용 단말기를 연결한 실감 방송 시스템(100)을 설명하는 도면이다.3 is a diagram illustrating a realistic broadcast system 100 in which a personal terminal is connected according to a fourth embodiment of the present invention.

도 3을 참조하면, 상기 실감 방송 시스템(100)에 다양한 개인용 단말기(210, 220, 230 및 240)를 연결하여, 상기 개인용 단말기를 통해 사용자 지시를 입력하고, 상기 실감 방송 시스템(100)에서 출력되는 출력 정보를 상기 개인용 단말기에 표시하도록 할 수 있다. 상기 개인용 단말기의 종류에는 PC(210), 이동 단말기(220), IPTV 및 몰입형 공간(240) 등이 포함될 수 있다. Referring to FIG. 3, various personal terminals 210, 220, 230, and 240 are connected to the sensory broadcasting system 100, input user instructions through the personal terminal, and output from the sensory broadcasting system 100. The output information may be displayed on the personal terminal. The personal terminal may include a PC 210, a mobile terminal 220, an IPTV, and an immersive space 240.

도 4a 및 도 4b는 본 발명의 제 5 실시예 및 제 6 실시예에 따라 아바타가 표시된 스포츠 방송 정보를 제공하는 실감 방송 시스템을 설명하는 도면들이다. 4A and 4B are diagrams illustrating a realistic broadcast system for providing sports broadcast information in which an avatar is displayed according to fifth and sixth embodiments of the present invention.

도 4a는 본 발명의 제 5 실시예에 따라 상기 방송 정보를 사용자의 아바타 시점으로 표시하는 실감 방송 시스템을 설명하는 도면이고, 도 4b는 본 발명의 제 6 실시예에 따라 상기 방송 정보를 제 3 자 시점으로 표시하는 실감 방송 시스템을 설명하는 도면이다.4A is a diagram illustrating a realistic broadcast system for displaying the broadcast information to an avatar view of a user according to a fifth embodiment of the present invention, and FIG. 4B is a third view of the broadcast information according to a sixth embodiment of the present invention. It is a figure explaining the realistic broadcast system displayed by the viewpoint.

도 4a를 참조하면, 상기 실감 방송 시스템에 표시되는 표시 화면(200)은 상기 실감 방송 시스템에 연결된 제 1 사용자에게 제공되는 스포츠 경기 정보에 관한 것이다. 상기 표시 화면(200)에는, 제 1 사용자의 분신인 제 1 아바타(211), 제 2 사용자의 분신인 제 2 아바타(212) 및 제 3 사용자에 해당하는 제 3 아바타(213)가 표시된다. 상기 각각의 아바타는 해당하는 사용자들의 이벤트를 반영하여 표시되고, 구체적으로 상기 제 1 아바타(211)는 사용자의 박수치는 동작 이벤트를 반영하여 박수치는 동작을 표시한다. 상기 제 1 사용자에게 제공되는 실시간 방송 정보의 스포츠 경기장은 상기 제 1 사용자의 분신인 아바타(211) 시점을 기준으로 표시됨으로써, 실제 경기장에 앉아서 스포츠 경기를 관람하는 실감을 제공한다. 상기와 같은 방법으로, 상기 실감 방송 시스템에 접속한 제 2 사용자에게는 상기 제 2 사용자의 분신인 제 2 아바타(212)의 시점을 기준으로 표시된 방송 정보를 제공할 수 있다.Referring to FIG. 4A, the display screen 200 displayed on the sensory broadcasting system relates to sports game information provided to a first user connected to the sensory broadcasting system. On the display screen 200, a first avatar 211 which is a partial of a first user, a second avatar 212 which is a partial of a second user, and a third avatar 213 corresponding to a third user are displayed. Each avatar is displayed by reflecting an event of a corresponding user, and specifically, the first avatar 211 displays an applause by reflecting a user's applause. The sports stadium of the real-time broadcasting information provided to the first user is displayed based on the viewpoint of the avatar 211 which is the alteration of the first user, thereby providing a feeling of sitting at the actual stadium and watching a sports game. In the above-described method, broadcast information displayed on the basis of the viewpoint of the second avatar 212 which is a part of the second user may be provided to a second user who accesses the sensory broadcasting system.

도 4b를 참조하면, 상기 실감 방송 시스템에 표시되는 표시 화면(200)은 상기 실감 방송 시스템에 연결된 복수의 사용자에게 공통으로 제공될 수 있는 스포츠 경기 정보에 관한 것이다. 상기 표시 화면(200)에는, 제 1 사용자 분신인 제 1 아바타(221), 제 2 사용자 분신인 제 2 아바타(222) 및 제 3 사용자 분신인 제 3 아바타(223)가 표시된다. 상기 각각의 아바타는 해당하는 사용자들의 이벤트를 반영하여 표시되고, 구체적으로 상기 제 1 아바타(221)는 사용자의 내려치는 동작 이벤트를 반영하여 북치는 동작을 표시한다. 상기 제 1 사용자를 포함한 나머지 사용자들에게 공통적으로 제공될 수 있는 실시간 방송 정보의 스포츠 경기장은 제 3 시점으로 표시된다. Referring to FIG. 4B, the display screen 200 displayed on the sensory broadcasting system relates to sports event information that may be commonly provided to a plurality of users connected to the sensory broadcasting system. On the display screen 200, a first avatar 221, which is a first user, a second avatar 222, which is a second user, and a third avatar 223, which is a third user, are displayed. Each avatar is displayed to reflect the events of the corresponding users, and specifically, the first avatar 221 displays the drumming motion by reflecting the user's hitting event. The sports stadium of real time broadcast information, which may be commonly provided to the remaining users including the first user, is displayed as a third time point.

상기 복수의 사용자에게 표시되는 방송 정보의 시점은, 각 사용자의 선택에 따라 각 사용자에 해당하는 아바타의 시점 또는 제 3 자의 시점으로 변환될 수 있다.The viewpoint of broadcast information displayed to the plurality of users may be converted into a viewpoint of an avatar corresponding to each user or a viewpoint of a third party according to the selection of each user.

도 5는 본 발명의 제 7 실시예에 따라 부가 정보가 표시된 스포츠 방송 정보를 표시하는 실감 방송 시스템을 설명하는 도면이다.FIG. 5 is a diagram illustrating a realistic broadcast system displaying sports broadcast information on which additional information is displayed according to a seventh embodiment of the present invention.

도 5를 참조하면, 상기 실시간 스포츠 방송 정보에는 실시간 스포츠 종합 중계 영상(511), 상기 채널 이외에 현재 제공 가능한 방송 채널 리스트(512), 제 3 시점으로 표시되는 실시간 스포츠 영상(513), 상기 실감 방송 시스템에 접속한 타 사용자와의 대화창(514), 상기 실시간 방송 정보에 대응하는 타임 라인(515) 및 상기 타임 라인의 특정 시점에 관한 미디어 정보가 있음을 표시하는 아이콘(516, 517)이 포함된다. 상기 타 사용자와의 대화창(514)에 입력된 정보는 이후 상기 실감 방송 시스템의 메모리부에 저장되어 미디어 정보로 활용될 수 있다. 상기 타임 라인(515)에 표시되는 아이콘은 특정 이벤트가 발생한 시점에 링크될 수 있는 미디어 정보가 있음을 표시하는 아이콘(517) 및 링크되는 미디어 정보에 대한 텍스트 정보(516)가 포함될 수 있다. Referring to FIG. 5, the real-time sports broadcasting information includes a real-time sports comprehensive relay image 511, a broadcast channel list 512 currently available in addition to the channel, a real-time sports image 513 displayed at a third time point, and the realistic broadcast. A chat window 514 with other users connected to the system, a timeline 515 corresponding to the real-time broadcast information, and icons 516 and 517 indicating that there is media information regarding a specific time point of the timeline are included. . Information input to the chat window 514 with the other user may be stored in a memory unit of the realistic broadcast system and used as media information. The icon displayed on the timeline 515 may include an icon 517 indicating that there is media information that can be linked when a specific event occurs and text information 516 on the linked media information.

도 6은 본 발명의 제 8 실시예에 따라 사용자로부터 입력된 미디어 정보를 표시하는 실감 방송 시스템을 설명하는 도면이다.FIG. 6 is a diagram illustrating a realistic broadcast system for displaying media information input from a user according to an eighth embodiment of the present invention.

도 6을 참조하면, 상기 실감 방송 시스템은 스포츠 경기 정보(610)를 제공한다. 상기 실감 방송 시스템에 접속한 복수의 사용자들은 제공되는 스포츠 경기를 관람하면서 대화창(620)을 통해 자유롭게 대화할 수 있고, 상기 실감 방송 시스템의 인덱스 추출부는 임의의 기준을 통해 상기 대화창(620)으로부터 인덱스를 추출한다. 예를 들어, 야구 경기 1회 동안의 경기를 관람한 사용자들은 채팅 등을 통해 다양한 소셜 미디어를 생성한다. 상기 임의의 기준은, 출현 빈도수가 높은 단어, 미리 저장된 단어와 일치하는 단어, 주기적인 시간 기준에 출현하는 단어 등에 해당하는 기준이 예에 해당할 수 있다. 상기 인덱스 추출부를 통해 추출된 인덱스는 리스트(630)로 정리되어, 상기 실감 방송 시스템에 접속한 복수의 사용자들에게 제공된다. 따라서, 상기와 같이 생성된 인덱스를 통해 복수의 사용자들에게 1회 경기 동안의 관전 포인트가 제공될 수 있고, 상기 관전 포인트는 이후 검색이나 정보 제공에 활용될 수 있다. 상기 인덱스 추출부를 통해 추출된 인덱스는 상기 리스트 형식 이외에 타임 라인 또는 아이콘 등 다양한 실시예에 따라서 사용자에게 제공될 수 있다. Referring to FIG. 6, the sensory broadcasting system provides sports game information 610. A plurality of users connected to the realistic broadcasting system can freely talk through the chat window 620 while watching a sporting event provided, and the index extracting unit of the sensory broadcasting system indexes the chat window 620 through an arbitrary criterion. Extract For example, users who watch a game during one baseball game generate various social media through chat and the like. The arbitrary criteria may be, for example, a word corresponding to a word having a high frequency of appearance, a word matching a pre-stored word, a word appearing at a periodic time reference, and the like. The index extracted by the index extracting unit is organized into a list 630 and provided to a plurality of users connected to the realistic broadcasting system. Therefore, the watching points during a game can be provided to a plurality of users through the index generated as described above, and the watching points can be used for later searching or providing information. The index extracted by the index extractor may be provided to the user according to various embodiments such as a timeline or an icon in addition to the list format.

도 7a 및 도 7b는 본 발명의 제 9 실시예에 따라 사용자로부터 입력되는 이벤트를 반영하여 표시하는 방송 정보를 제공하는 실감 방송 시스템을 설명하는 도면들이다.7A and 7B illustrate a realistic broadcast system for providing broadcast information reflecting and displaying an event input from a user according to a ninth embodiment of the present invention.

도 7a는 핸드 헬드 디바이스를 통해서 사용자 모션에 대한 이벤트를 반영하는 실감 방송 시스템을 설명하는 도면이고, 도 7b는 미리 설정된 지시 신호가 입력되는 경우, 상기 지시 신호에 대응하는 이벤트가 표시되는 실감 방송 시스템을 설명하는 도면이다.FIG. 7A is a diagram illustrating an immersive broadcasting system reflecting an event for user motion through a handheld device, and FIG. 7B is an immersive broadcasting system in which an event corresponding to the instruction signal is displayed when a preset instruction signal is input. It is a figure explaining.

도 7a를 참조하면, 상기 실감 방송 시스템을 이용하는 제 1 사용자 및 상기 실감 방송 시스템에서 제공되는 방송 정보를 표시하는 화면(720)에는 상기 제 1 사용자의 분신인 제 1 아바타(721) 및 타 사용자의 분신인 제 2 아바타(722) 및 제 3 아바타(723)이 표시된다. 상기 제 1 사용자와 연결된 핸드 헬드 디바이스를 통해서 제 1 사용자가 양팔을 벌리는 모션에 대한 신호를 입력하면, 상기 실감 방송 시스템은 자이로 센서등을 통해서 상기 핸드 헬드 디바이스의 움직임 동작을 감지하거나, 상기 핸드 헬드 디바이스에서 발생한 움직임 동작에 따른 감지 신호를 입력받아, 상기 입력된 신호에 대응하는 이벤트를 상기 제 1 아바타(721)에 반영시켜 표시한다. Referring to FIG. 7A, a screen 720 displaying a first user using the immersive broadcasting system and broadcast information provided from the immersive broadcasting system may include a first avatar 721 that is a part of the first user and another user. The second avatar 722 and the third avatar 723 that are the alter egos are displayed. When the first user inputs a signal for a motion to open both arms through a handheld device connected to the first user, the sensory broadcasting system detects a movement of the handheld device through a gyro sensor or the like, or the handheld device. The sensor receives a detection signal according to a movement operation generated in a device and reflects and displays an event corresponding to the input signal on the first avatar 721.

계속해서 도 7b에서, 상기 제 1 사용자가 양팔을 오므리는 모션에 대한 신호를 입력하면, 상기 실감 방송 시스템의 표시 화면(720)은 상기와 같은 방법으로 상기 입력된 신호에 대응하는 이벤트를 상기 제 1 아바타(721)에 반영시켜 표시한다. 이때, 상기 실감 방송 시스템에 상기 양팔을 벌렸다 오므리는 동작이 색종이 날리기 신호로 미리 설정되어 있는 경우, 수초 이내에 상기 모션이 연결되어 입력되면 해당하는 이벤트인 색종이 날리기(724)가 반영되어 표시된다. 상기 제 2 아바타(722) 및 제 3 아바타(723)는 각 아바타에 해당하는 사용자의 지시 신호에 대한 이벤트를 자유롭게 반영하여 표시한다. 상기 표시 화면(720)과 같이 복수의 사용자들이 같은 시간에 같은 동작에 대한 지시 신호를 입력하고, 상기 같은 동작이 표시되는 방송 정보가 상기 복수의 사용자에게 피드백되어, 스포츠 경기를 관람하면서 단체 응원을 표시할 수 있다. 또한, 상기 입력 방식을 통하여 북, 깃발, 색종이 또는 신문 등 추가적인 응원 도구를 이용한 사용자 모션을 표시할 수 있다. Subsequently, in FIG. 7B, when the first user inputs a signal for a motion of pinching both arms, the display screen 720 of the sensory broadcasting system may display an event corresponding to the input signal in the same manner as described above. 1 is reflected on the avatar 721 and displayed. In this case, when the motion to open and close the arms in the realistic broadcasting system is set in advance as a confetti blowing signal, when the motion is connected and input within a few seconds, the corresponding event is displayed with confetti flying 724. The second avatar 722 and the third avatar 723 freely reflect and display an event of a user's indication signal corresponding to each avatar. As shown in the display screen 720, a plurality of users input an instruction signal for the same operation at the same time, and the broadcast information displaying the same operation is fed back to the plurality of users, so that the group cheers while watching a sporting event. I can display it. In addition, the user may display a user motion using an additional support tool such as a book, flag, confetti, or newspaper through the input method.

도 8은 본 발명의 제 10 실시예에 따라 실감 방송 시스템에 접속한 복수의 사용자의 이벤트를 반영한 방송 정보를 상기 복수의 사용자에게 제공하는 실감 방송 시스템의 정보 처리 방법을 설명하는 도면이다.FIG. 8 is a view for explaining an information processing method of a sensory broadcasting system for providing broadcast information reflecting events of a plurality of users connected to the sensory broadcasting system to the plurality of users according to the tenth embodiment of the present invention.

도 8을 참조하면, 상기 실감 방송 시스템에는 제 1 사용자, 제 2 사용자 등을 포함한 n명의 사용자가 접속되어 있고, 상기 복수의 사용자로부터 사용자 동작 지시 신호가 입력된다. 상기 사용자들로부터 동작 지시(821, 812, 813)를 입력받은 실감 방송 시스템은 입력된 사용자에 해당하는 아바타 위치 정보를 파악하고(S821), 해당하는 아바타에 입력된 사용자의 지시에 대응하는 이벤트를 반영하고(S822), 3차원 실감 이미지를 생성하여(S823) 상기 방송 정보를 제공받는 그룹 내 사용자들에게 햅틱, 음성 또는 영상 등 다양한 영태로 멀티 캐스트(S824)한다. 따라서, 상기 실감 방송 시스템에 접속한 n명의 사용자는 각각의 사용자 지시에 따른 이벤트가 반영된 방송 정보(831, 832, 833)를 제공받을 수 있다.Referring to FIG. 8, n users including a first user, a second user, and the like are connected to the realistic broadcasting system, and a user operation instruction signal is input from the plurality of users. The sensory broadcasting system receiving the operation instructions 821, 812, and 813 from the users determines the avatar position information corresponding to the input user (S821), and generates an event corresponding to the instruction of the user input to the corresponding avatar. Reflect (S822) and generate a 3D realistic image (S823) and multicast (S824) to various users such as haptic, voice or video to the users in the group receiving the broadcast information. Accordingly, n users connected to the realistic broadcasting system may be provided with broadcast information 831, 832, and 833 reflecting an event according to each user's instruction.

도 9는 본 발명의 제 11 실시예에 따라 실감 방송 시스템을 이용한 방송 정보 제공 과정을 설명하는 도면이다.9 is a diagram illustrating a broadcast information providing process using a realistic broadcast system according to an eleventh embodiment of the present invention.

도 9를 참조하면, 상기 실감 방송 시스템에는 3차원 가상 현실에 관한 정보가 저장되고(S910), 상기 실감 방송 시스템에 사용자 지시 신호가 입력되면(S920), 사용자 지시 신호에 의해 선택된 방송 정보가 수신되고(S930). 상기 방송 정보에 상기 사용자 지시 신호에 따른 이벤트를 랜더링하여 3차원 형식의 방송 정보가 제공된다(S940).Referring to FIG. 9, when the sensory broadcasting system stores information about a 3D virtual reality (S910), and when a user indication signal is input to the sensory broadcasting system (S920), broadcast information selected by the user indication signal is received. (S930). In operation S940, broadcast information in a 3D format is provided by rendering an event according to the user indication signal to the broadcast information.

상기와 같이 설명된 방송 시스템은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수 있다.  The above-described broadcasting system is not limited to the configuration and method of the above-described embodiments, but the embodiments may be configured by selectively combining all or some of the embodiments so that various modifications may be made. Can be.

도 1은 본 발명의 제 1 실시 예에 따른 실감 방송 시스템의 구성도.1 is a block diagram of a realistic broadcast system according to a first embodiment of the present invention.

도 2a 및 도 2b는 본 발명의 제 2 실시예 및 제 3 실시예에 따른 실감 방송 시스템의 세부 구성도들.2A and 2B are detailed block diagrams of the realistic broadcast system according to the second and third embodiments of the present invention.

도 3은 본 발명의 제 4 실시 예에 따라 개인용 단말기를 연결한 실감 방송 시스템을 설명하는 도면.3 is a diagram illustrating a realistic broadcast system connecting a personal terminal according to a fourth embodiment of the present invention.

도 4a 및 도 4b는 본 발명의 제 5 실시예 및 제 6 실시예에 따라 아바타를 표시한 스포츠 방송 정보를 생성하는 실감 방송 시스템을 설명하는 도면들. 4A and 4B illustrate a realistic broadcast system for generating sports broadcast information displaying an avatar according to the fifth and sixth embodiments of the present invention.

도 5는 본 발명의 제 7 실시예에 따라 부가 정보를 표시한 스포츠 방송 정보를 표시하는 실감 방송 시스템을 설명하는 도면.FIG. 5 is a diagram for explaining a realistic broadcast system for displaying sports broadcast information displaying additional information according to a seventh embodiment of the present invention. FIG.

도 6은 본 발명의 제 8 실시예에 따라 사용자로부터 입력된 미디어 정보를 표시하는 실감 방송 시스템을 설명하는 도면.FIG. 6 is a diagram illustrating a realistic broadcast system for displaying media information input from a user according to an eighth embodiment of the present invention. FIG.

도 7a 및 도 7b는 본 발명의 제 9 실시예에 따라 사용자로부터 입력되는 이벤트를 반영하여 표시하는 방송 정보를 제공하는 실감 방송 시스템을 설명하는 도면들.7A and 7B illustrate a realistic broadcast system for providing broadcast information reflecting and displaying an event input from a user according to a ninth embodiment of the present invention.

도 8은 본 발명의 제 10 실시예에 따라 실감 방송 시스템에 접속한 복수의 사용자의 이벤트를 반영한 방송 정보를 상기 복수의 사용자에게 제공하는 실감 방송 시스템의 정보 처리 방법을 설명하는 도면.FIG. 8 is a view for explaining an information processing method of a sensory broadcasting system for providing broadcast information reflecting events of a plurality of users connected to the sensory broadcasting system to the plurality of users according to the tenth embodiment of the present invention. FIG.

도 9는 본 발명의 제 11 실시예에 따란 실감 방송 시스템을 이용한 방송 정보 제공 과정을 설명하는 도면.9 is a diagram illustrating a broadcast information providing process using the realistic broadcast system according to the eleventh embodiment of the present invention.

Claims (11)

실 공간과 동일한 공간 정보를 갖는 3차원 가상 공간에 관한 영상 정보가 저장되는 메모리부;A memory unit for storing image information about a 3D virtual space having the same spatial information as the real space; 방송 정보를 수신하는 통신부;A communication unit for receiving broadcast information; 상기 메모리부의 영상 정보에 상기 통신부를 통해 수신되는 방송 정보를 랜더링하여 가상 공간 영상을 생성하고, 상기 가상 공간 영상 내에서의 사용자의 위치 또는 시점 변경에 따라 상기 수신되는 방송 정보와 동일한 공간 정보를 가지며, 상기 가상 공간 영상 내에서 다른 사용자들과의 인터랙션을 지원하는 3차원 방송 영상을 생성하는 제어부; 및Renders the broadcast information received through the communication unit to the image information of the memory unit to generate a virtual space image, and has the same spatial information as the received broadcast information according to the user's position or viewpoint change in the virtual space image A controller configured to generate a 3D broadcast image that supports interaction with other users in the virtual space image; And 상기 수신된 방송 정보 또는 상기 제어부에서 생성된 3차원 방송 영상 정보를 출력하는 출력부를 포함하고,An output unit configured to output the received broadcast information or 3D broadcast image information generated by the controller, 상기 출력부는 상기 수신된 방송 정보와, 상기 수신된 방송 정보와 동일한 공간 정보를 가지는 상기 3차원 방송 영상을 함께 출력하거나 스위칭하면서 출력하고,The output unit outputs or switches together with the received broadcast information and the 3D broadcast image having the same spatial information as the received broadcast information. 상기 3차원 방송 영상에서 상기 수신된 방송 정보로 스위칭하는 경우, 상기 3차원 방송 영상에서 사용자의 위치 또는 시점 변경에 대응되는 카메라의 영상으로 스위칭함으로써 공간적인 연장감을 제공하는 것을 특징으로 하는 실감 방송 시스템.When switching from the 3D broadcast image to the received broadcast information, a realistic broadcast system is provided by switching from the 3D broadcast image to an image of a camera corresponding to a user's position or viewpoint change. . 제 1 항에 있어서,The method of claim 1, 상기 제어부는 상기 3차원 방송 영상에 제 1 사용자 지시 신호에 의한 이벤트가 반영된 제 1 아바타를 랜더링하는 것을 특징으로 하는 실감 방송 시스템.And the controller renders a first avatar in which an event by a first user indication signal is reflected in the 3D broadcast image. 제 2 항에 있어서,The method of claim 2, 상기 제어부는 상기 3차원 방송 영상을 상기 제 1 아바타 시점을 기준으로 표시하도록 제어하는 것을 특징으로 하는 실감 방송 시스템.And the controller controls the 3D broadcast image to be displayed based on the first avatar viewpoint. 제 2 항에 있어서,The method of claim 2, 상기 제어부는 상기 3차원 방송 영상에 제 2 사용자 지시 신호에 의한 이벤트가 반영된 제 2 아바타를 랜더링하고,The controller renders a second avatar in which an event by a second user indication signal is reflected in the 3D broadcast image, 상기 출력부는 상기 제 2 아바타가 더 표시된 3차원 방송 영상 정보를 제 1 사용자 및 제 2 사용자에게 출력하는 것을 특징으로 하는 실감 방송 시스템.And the output unit outputs 3D broadcast image information in which the second avatar is further displayed to the first user and the second user. 제 1 항에 있어서,The method of claim 1, 사용자로부터 미디어 정보를 입력받는 입력부를 더 포함하고,Further comprising an input unit for receiving the media information from the user, 상기 제어부는 상기 미디어 정보가 더 표시된 3차원 방송 영상을 생성하는 것을 특징으로 하는 실감 방송 시스템.And the controller generates a 3D broadcast image in which the media information is further displayed. 제 5 항에 있어서,The method of claim 5, 상기 제어부는 상기 입력부를 통해 복수의 사용자로부터 복수의 미디어 정보를 입력받아 상기 메모리부에 저장하고, 상기 미디어 정보로부터 추출한 대표 키워드로 구성된 인덱스 정보를 생성하는 것을 특징으로 하는 실감 방송 시스템.And the control unit receives a plurality of media information from a plurality of users through the input unit, stores the plurality of media information in the memory unit, and generates index information including representative keywords extracted from the media information. 제 5 항에 있어서,The method of claim 5, 상기 제어부는 타임 라인이 더 표시된 3차원 방송 영상을 생성하고, 상기 타임 라인 상의 상기 입력되는 미디어 정보가 해당하는 지점에, 대응하는 미디어 정보로 링크될 수 있는 아이콘을 더 표시하는 것을 특징으로 하는 실감 방송 시스템. The controller generates a 3D broadcast image in which a timeline is further displayed, and displays an icon that can be linked to corresponding media information at a point where the input media information on the timeline corresponds. Broadcasting system. 제 1 항에 있어서,The method of claim 1, 사용자 지시 신호를 입력받는 입력부를 더 포함하고,Further comprising an input unit for receiving a user indication signal, 상기 입력부는 웨어러블(wearable) 디바이스 또는 핸드헬드(handheld) 디바이스를 통해 사용자 신호를 입력받는 것을 특징으로 하는 실감 방송 시스템.The input unit is a realistic broadcast system, characterized in that for receiving a user signal through a wearable (wearable) or handheld (handheld) device. 제 1 항에 있어서,The method of claim 1, 상기 출력부는 상기 3차원 형식의 정보를 햅틱, 음향 또는 영상 중 하나 이상의 형태로 출력하는 것을 특징으로 하는 실감 방송 시스템.The output unit is a realistic broadcast system, characterized in that for outputting the information of the three-dimensional format in the form of at least one of haptic, sound or image. 실공간과 동일한 공간 정보를 갖는 3차원 가상 공간에 관한 영상 정보가 저장되는 저장 단계;A storage step of storing image information about the 3D virtual space having the same spatial information as the real space; 방송 정보가 수신되는 수신 단계;A reception step of receiving broadcast information; 상기 3차원 가상 공간에 관한 영상 정보에 상기 수신된 방송 정보를 랜더링하여 가상 공간 영상을 생성하고, 상기 가상 공간 영상 내에서의 사용자의 위치 또는 시점 변경에 따라 상기 수신되는 방송 정보와 동일한 공간 정보를 가지며, 상기 가상 공간 영상 내에서의 다른 사용자들과의 인터랙션을 지원하는 3차원 방송 영상을 생성하는 단계; 및Render the received broadcast information to the image information about the 3D virtual space to generate a virtual space image, and according to the user's position or viewpoint change in the virtual space image, the same spatial information as the received broadcast information Generating a 3D broadcast image having an interaction with other users in the virtual space image; And 상기 수신된 방송 정보 또는 상기 생성된 3차원 방송 영상을 출력하는 출력 단계를 포함하고,And outputting the received broadcast information or the generated 3D broadcast image. 상기 수신된 방송 정보 또는 상기 생성된 3차원 방송 영상을 출력하는 단계는, 상기 수신된 방송 정보와 상기 수신된 방송 정보와 동일한 공간 정보를 가지는 상기 3차원 방송 영상을 함께 출력하거나 스위칭하면서 출력하는 단계를 포함하고,The outputting of the received broadcast information or the generated 3D broadcast image may include outputting or switching together the 3D broadcast image having the same spatial information as the received broadcast information and the received broadcast information. Including, 상기 3차원 방송 영상에서 상기 수신된 방송 정보로 스위칭 하는 경우, 상기 3차원 방송 영상에서 사용자의 위치 또는 시점 변경에 대응되는 카메라의 영상으로 스위칭함으로써 공간적인 연장감을 제공하는 것을 특징으로 하는 실감 방송 시스템 제어 방법.When switching from the 3D broadcast image to the received broadcast information, a realistic broadcast system is provided by switching from the 3D broadcast image to an image of a camera corresponding to a change in position or viewpoint of a user. Control method. 제 10 항에 있어서, 상기 생성 단계는,The method of claim 10, wherein the generating step, 사용자 지시 신호에 의한 이벤트가 반영된 사용자 분신인 아바타가 랜더링된 3차원 방송 영상을 생성하는 것을 특징으로 하는 실감 방송 시스템의 제어 방법.And generating a 3D broadcast image in which an avatar, which is a user's posture reflecting an event by a user indication signal, is rendered.
KR1020090090495A 2009-09-24 2009-09-24 System for tangible broadcating and control method using the same KR101076691B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090090495A KR101076691B1 (en) 2009-09-24 2009-09-24 System for tangible broadcating and control method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090090495A KR101076691B1 (en) 2009-09-24 2009-09-24 System for tangible broadcating and control method using the same

Publications (2)

Publication Number Publication Date
KR20110032811A KR20110032811A (en) 2011-03-30
KR101076691B1 true KR101076691B1 (en) 2011-10-26

Family

ID=43937505

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090090495A KR101076691B1 (en) 2009-09-24 2009-09-24 System for tangible broadcating and control method using the same

Country Status (1)

Country Link
KR (1) KR101076691B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000040161A (en) * 1998-07-23 2000-02-08 Nippon Telegr & Teleph Corp <Ntt> Method and system for actualizing broadcast type content in three-dimensional shared virtual space and storage medium stored with broadcast type content actualizing program in three-dimensional virtual space
JP2003248650A (en) 2002-02-25 2003-09-05 Fujitsu Ltd Method and system for providing information between virtual space constructed and provided on computer network and real world
KR100896130B1 (en) 2007-12-13 2009-05-07 에스케이 텔레콤주식회사 Method and system for playing motion animation of virtal character

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000040161A (en) * 1998-07-23 2000-02-08 Nippon Telegr & Teleph Corp <Ntt> Method and system for actualizing broadcast type content in three-dimensional shared virtual space and storage medium stored with broadcast type content actualizing program in three-dimensional virtual space
JP2003248650A (en) 2002-02-25 2003-09-05 Fujitsu Ltd Method and system for providing information between virtual space constructed and provided on computer network and real world
KR100896130B1 (en) 2007-12-13 2009-05-07 에스케이 텔레콤주식회사 Method and system for playing motion animation of virtal character

Also Published As

Publication number Publication date
KR20110032811A (en) 2011-03-30

Similar Documents

Publication Publication Date Title
CN110597774B (en) File sharing method, system, device, computing equipment and terminal equipment
JP6724110B2 (en) Avatar display system in virtual space, avatar display method in virtual space, computer program
KR20150026367A (en) Method for providing services using screen mirroring and apparatus thereof
US20160253840A1 (en) Control system and method for virtual navigation
AU2010260683B2 (en) Apparatus and method for transmitting and receiving a user interface in a communication system
US11979684B2 (en) Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method
EP3024223B1 (en) Videoconference terminal, secondary-stream data accessing method, and computer storage medium
CN113840154A (en) Live broadcast interaction method and system based on virtual gift and computer equipment
CN112055252A (en) Multi-screen interaction method and device, computer readable medium and electronic equipment
CN113485626A (en) Intelligent display device, mobile terminal and display control method
US11900530B1 (en) Multi-user data presentation in AR/VR
KR101310274B1 (en) Method and server for providing message service
KR101594861B1 (en) Web server for supporting collaborative animation production service and method thereof
JP2010218195A (en) Image generation system, program, information storage medium, and server system
WO2017026170A1 (en) Client device, server device, display processing method, and data distribution method
JP2023100616A (en) Content distribution apparatus, content distribution program, content distribution method, content display device, content display program, and contents display method
KR101076691B1 (en) System for tangible broadcating and control method using the same
JP2024500481A (en) Video calling method and device
JP6373560B2 (en) Output data providing server, information processing apparatus, information processing system, output data providing method, and information processing method
JP6410429B2 (en) Video game processing program and video game processing system
US20230421866A1 (en) Server apparatus of distribution system
CN113975804B (en) Virtual control display method, device, equipment, storage medium and product
KR102178924B1 (en) Method and apparatus for providing performance of contents using virtual reality
JP7292737B2 (en) Moving image display device, moving image display method and program
JP2006065888A (en) Image display apparatus and method, and information providing apparatus and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140930

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151002

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20161004

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170928

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20181002

Year of fee payment: 8