KR20220004859A - System and method for web real-time communication based uncontact event service - Google Patents

System and method for web real-time communication based uncontact event service Download PDF

Info

Publication number
KR20220004859A
KR20220004859A KR1020200081699A KR20200081699A KR20220004859A KR 20220004859 A KR20220004859 A KR 20220004859A KR 1020200081699 A KR1020200081699 A KR 1020200081699A KR 20200081699 A KR20200081699 A KR 20200081699A KR 20220004859 A KR20220004859 A KR 20220004859A
Authority
KR
South Korea
Prior art keywords
face
webrtc
event service
service providing
participant terminal
Prior art date
Application number
KR1020200081699A
Other languages
Korean (ko)
Inventor
이원흠
Original Assignee
(주)마인드팩토리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)마인드팩토리 filed Critical (주)마인드팩토리
Priority to KR1020200081699A priority Critical patent/KR20220004859A/en
Publication of KR20220004859A publication Critical patent/KR20220004859A/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/28
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/65Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Operations Research (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Transfer Between Computers (AREA)
  • Development Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Quality & Reliability (AREA)

Abstract

Provided is a system for providing a (web real-time communication WebRTC)-based non-face-to-face event service, which provides a platform two-way streaming a plurality of participants and an independent studio in real-time. According to the present invention, the system comprises: at least one participant terminal participating in and shooting a non-face-to-face event to transmit a video in real-time and receiving and outputting a studio video shot in an independent studio in real-time; at least one display provided to output the video received from at least one participant terminal, respectively; at least one camera shooting a host of a non-face-to-face event in the independent studio; and a non-face-to-face event service providing server including a participation request unit transmitting a participation request message to at least one participant terminal by using at least one type of medium, a storage unit storing one-to-one mapping information between at least one participant terminal and at least one display, a control unit receiving the video of at least one participant terminal in real-time on the basis of WebRTC and outputting the received video on the at least one display, and a transmission unit transmitting the video shot by the at least one camera to the at least one participant terminal on the basis of WebRTC.

Description

WebRTC 기반 비대면 행사 서비스 제공 시스템 및 방법{SYSTEM AND METHOD FOR WEB REAL-TIME COMMUNICATION BASED UNCONTACT EVENT SERVICE}SYSTEM AND METHOD FOR WEB REAL-TIME COMMUNICATION BASED UNCONTACT EVENT SERVICE

본 발명은 WebRTC 기반 비대면 행사 서비스 제공 시스템에 관한 것으로, 비대면으로 행사를 주최하기 위하여 복수의 참여자와 독립 스튜디오 간의 실시간 양방향으로 스트리밍하는 플랫폼을 제공한다.The present invention relates to a WebRTC-based non-face-to-face event service providing system, and provides a platform for streaming in real time between a plurality of participants and an independent studio in order to host a non-face-to-face event.

코로나19(COVID-19)가 세계를 강타하면서 경제와 산업 패러다임이 근본부터 변화할 징후가 나타나고 있다. 비대면 산업 활성화는 새로운 일상이자 생활방식이 됐다. 이전에는 대면 중심으로 진행했던 경제, 여가활동이 원격 영상회의 솔루션 등 혁신 기술을 활용한 비대면 서비스로 전환되고 있다. 5G 등 전파기술은 경제생활 양식이 비대면 중심으로 변화하는 과정에서 온라인 기반 서비스 활성화와 진화를 위한 핵심 역할로 떠오르고 있다. 이는, 원격 영상회의와 실감형 콘텐츠 등 서비스와 관련해서도 이전과 차원이 다른 기술 진화를 불러올 것으로 예상되고 있는데, 비대면 서비스 성공 열쇠는 편의성에 더해 가상의 세계를 얼마나 현실과 가깝게 실감나게 구현하느냐가 관건이 될 것이다.As COVID-19 hits the world, there are signs that the economic and industrial paradigm will change from the ground up. The vitalization of the non-face-to-face industry has become a new daily routine and way of life. Economic and leisure activities that were previously conducted face-to-face are being converted to non-face-to-face services using innovative technologies such as remote video conferencing solutions. Radio wave technologies such as 5G are emerging as a key role for the vitalization and evolution of online-based services in the process of changing the economic life style to be non-face-to-face. This is expected to bring about a technological evolution that is different from the previous one in relation to services such as remote video conferencing and immersive content. will be the key

이때, 양방향 화상 통신을 무선 통신을 이용하여 구현할 수 있는 방법이 연구 및 개발되었는데, 이와 관련하여, 선행기술인 한국공개특허 제2016-0062679호(2016년06월02일 공개) 및 한국공개특허 제2018-0035312호(2018년04월06일 공개)에는, 영상회의를 위한 전용망이 아닌 일반 공중 인터넷망이나 모바일 환경에서 발생할 수 있는 수준의 패킷 손실율에서도 손실된 패킷을 복원할 수 있고, 양방향 서비스를 제공하기 위해 실시간으로 짧은 시간에 패킷 손실의 복구가 가능하도록, 송신장치에서 복수의 RTP(Real-time Transport Protocol) 패킷들과 복수의 복구 패킷들을 순차 전송하고, 수신장치에서 복수의 RTP 패킷들과 복수의 복구 패킷들을 순차 수신하는 구성과, 영상 통화를 하는 단말이 WebRTC를 지원하는 웹 브라우저를 통해 영상 코덱 장치와 연결하여 영상 통화를 수행하도록, 영상 회의 및 영상 통화 기능을 수행하는 영상 코덱 장치 및 WebRTC(Web Real-Time Communication)를 지원하는 웹 브라우저(Web Browser)를 통해 영상 코덱 장치와 영상 통신을 수행하는 영상 단말기의 구성이 각각 개시되어 있다.At this time, a method for implementing two-way video communication using wireless communication has been researched and developed. -0035312 (published on April 06, 2018), it is possible to restore lost packets even at a packet loss rate at a level that can occur in a general public Internet network or a mobile environment, not a dedicated network for video conferencing, and provides an interactive service In order to enable recovery of packet loss in a short time in real time, the transmitting device sequentially transmits a plurality of RTP (Real-time Transport Protocol) packets and a plurality of recovery packets, and the receiving device transmits a plurality of RTP packets and a plurality of recovery packets. A video codec device and WebRTC for performing video conferencing and video call functions such that a configuration for sequentially receiving recovery packets of A configuration of a video terminal for performing video communication with a video codec device through a web browser supporting (Web Real-Time Communication) is disclosed, respectively.

다만, 비대면 소통방식이 발전할수록 사람들은 단순 2차원 중심 영상회의를 벗어나 더 많은 것을 원하게 될 것이며, 시선과 동작을 추적해 최적의 영상회의 화면을 구현하는 것을 넘어 증강현실(AR)과 가상현실(VR) 적용하는 방향으로 진화할 것이지만, 상술한 구성은 이를 만족시키지 못한다. 또, 일대일의 영상 통화 외에도 사회적 거리두기 상황에서 다수의 방청객이 참여하고 오프라인 스튜디오와 이를 연결하는 구성이 요구되지만 이에 대한 구성은 기재되지 않고 있다. 나아가, 오프라인 스튜디오라는 실내 공간도 코로나 잠복기인 사람이 참여하는 경우 전염가능성이 높아지기 때문에 사회적 거리두기의 의미가 실효될 수 있다. 이에, 포스트 코로나 시대에서 비대면 상태를 유지하면서도 삶을 유지해나갈 수 있는 플랫폼의 연구 및 개발이 요구된다.However, as non-face-to-face communication methods develop, people will want more beyond simple two-dimensional video conferencing, and augmented reality (AR) and virtual It will evolve in the direction of applying reality (VR), but the above-described configuration does not satisfy this. In addition, in addition to one-on-one video calls, it is required that a large number of audiences participate in a social distancing situation and connect them with an offline studio, but the configuration for this is not described. Furthermore, even in an indoor space called an offline studio, if a person who is in the incubation period of Corona participates, the possibility of contagion increases, so the meaning of social distancing may become invalid. Accordingly, research and development of a platform that can sustain life while maintaining a non-face-to-face state in the post-corona era is required.

본 발명의 일 실시예는, 행사나 이벤트 및 공연과 같이 다수의 관람객이나 참여주체가 모이는 상황을 오프라인 독립 스튜디오를 구비하여 실시간 양방향 화상통신으로 비대면 행사를 진행함으로써 사회적 거리두기를 실천하고, 각국의 사람들이 화상통신으로 참여하는 경우 번역자막을 제공하거나 동시통역을 제공함으로써 각국의 의사소통을 도와주며, 참가자 제공 기념품을 제공하기 위해 주소 정보를 취합하여 온라인으로 발송함으로써 실제 참가한 것과 같은 실재감은 증가시키면서도 감염가능성은 제로화할 수 있고, 더 나아가 오프라인 독립 스튜디오도 가상현실(VR)로 제공하면서 각 참여자를 3D로 모델링한 후 모션캡쳐를 함으로써 실제 만나는 것과 같은 현실감을 주고, 모션캡쳐수트(Suit)에 진동소자를 삽입하여 실제 가상환경에서 만나는 타인이 사용자와 악수 등을 할 때 이를 느낄 수 있도록 하여 완벽한 비대면 환경을 구축할 수 있는, WebRTC 기반 비대면 행사 서비스 제공 방법을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.In one embodiment of the present invention, social distancing is practiced by providing an offline independent studio and non-face-to-face events through real-time two-way video communication in situations where a large number of spectators or participants gather, such as events, events, and performances, and each country When people in the world participate in video communication, they help each country communicate by providing translated subtitles or simultaneous interpretation. It is possible to minimize the possibility of infection while making It is possible to provide a WebRTC-based non-face-to-face event service providing method that can build a perfect non-face-to-face environment by inserting a vibrating element so that others who meet in a real virtual environment can feel when shaking hands with the user. However, the technical task to be achieved by the present embodiment is not limited to the technical task as described above, and other technical tasks may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 비대면 행사에 참여하고 실시간으로 참여자를 촬영하여 전송하고, 독립 스튜디오에서 촬영된 스튜디오 영상을 실시간으로 수신하여 출력하는 적어도 하나의 참여자 단말, 적어도 하나의 참여자 단말에서 수신된 영상을 일대일로 출력하도록 구비된 적어도 하나의 디스플레이, 독립 스튜디오에서 비대면 행사 진행자를 촬영하는 적어도 하나의 카메라 및 적어도 하나의 참여자 단말로 참여요청 메세지를 적어도 하나의 종류의 매체를 이용하여 전달하는 참여요청부, 적어도 하나의 참여자 단말과 적어도 하나의 디스플레이를 일대일로 매핑하여 저장하는 저장부, 적어도 하나의 참여자 단말의 영상을 WebRTC(Web Real-Time Communication) 기반으로 실시간으로 수신하여 적어도 하나의 디스플레이에 출력하도록 제어하는 제어부 및 적어도 하나의 카메라로 촬영된 영상을 적어도 하나의 참여자 단말로 WebRTC 기반으로 전송하는 전송부를 포함하는 비대면 행사 서비스 제공 서버를 포함한다.As a technical means for achieving the above-described technical problem, one embodiment of the present invention is at least one of participating in a non-face-to-face event, photographing and transmitting participants in real time, and receiving and outputting studio images shot in an independent studio in real time. At least one participant terminal, at least one display provided to output an image received from at least one participant terminal one-to-one, at least one camera for photographing a non-face-to-face event host in an independent studio, and a participation request message to at least one participant terminal a participation request unit that transmits using at least one type of medium, a storage unit that maps and stores at least one participant terminal and at least one display one-to-one, Communication)-based non-face-to-face event service providing server comprising a control unit for controlling to receive in real time and output to at least one display and a transmission unit for transmitting an image captured by at least one camera to at least one participant terminal based on WebRTC include

본 발명의 다른 실시예는, 적어도 하나의 참여자 단말로 참여요청 메세지를 적어도 하나의 종류의 매체를 이용하여 전달하는 단계, 적어도 하나의 참여자 단말과 독립 스튜디오에 설치된 적어도 하나의 디스플레이를 일대일로 매핑하여 저장하는 단계, 적어도 하나의 참여자 단말의 영상을 WebRTC(Web Real-Time Communication) 기반으로 실시간으로 수신하여 적어도 하나의 디스플레이에 출력하도록 제어하는 단계 및 적어도 하나의 카메라로 촬영된 영상을 적어도 하나의 참여자 단말로 WebRTC 기반으로 전송하는 단계를 포함한다.Another embodiment of the present invention comprises the steps of delivering a participation request message to at least one participant terminal using at least one type of medium, mapping at least one participant terminal and at least one display installed in an independent studio one-to-one The step of storing, the step of receiving the video of at least one participant terminal in real time based on WebRTC (Web Real-Time Communication) and controlling to output it on at least one display, and the step of controlling the video captured by at least one camera to at least one participant and transmitting based on WebRTC to the terminal.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 행사나 이벤트 및 공연과 같이 다수의 관람객이나 참여주체가 모이는 상황을 오프라인 독립 스튜디오를 구비하여 실시간 양방향 화상통신으로 비대면 행사를 진행함으로써 사회적 거리두기를 실천하고, 각국의 사람들이 화상통신으로 참여하는 경우 번역자막을 제공하거나 동시통역을 제공함으로써 각국의 의사소통을 도와주며, 참가자 제공 기념품을 제공하기 위해 주소 정보를 취합하여 온라인으로 발송함으로써 실제 참가한 것과 같은 실재감은 증가시키면서도 감염가능성은 제로화할 수 있고, 더 나아가 오프라인 독립 스튜디오도 가상현실(VR)로 제공하면서 각 참여자를 3D로 모델링한 후 모션캡쳐를 함으로써 실제 만나는 것과 같은 현실감을 주고, 모션캡쳐수트(Suit)에 진동소자를 삽입하여 실제 가상환경에서 만나는 타인이 사용자와 악수 등을 할 때 이를 느낄 수 있도록 하여 완벽한 비대면 환경을 구축할 수 있어, 포스트코로나 시대에 국민 건강에 위해가 되는 감염병의 발생과 유행을 방지함으로써 국민 건강의 증진 및 유지에 이바지할 수 있다.According to any one of the above-described problem solving means of the present invention, social distancing by providing an offline independent studio and conducting non-face-to-face events through real-time two-way video communication in situations where a large number of spectators or participants gather, such as events, events, and performances When people from each country participate via video communication, they help each country communicate by providing translated subtitles or simultaneous interpretation. It is possible to increase the sense of presence as if participating in the event, while zeroing the possibility of infection, and furthermore, it provides an offline independent studio as virtual reality (VR), modeling each participant in 3D and then capturing the motion to give a sense of realism as if they were meeting in real life. By inserting a vibrating element into the capture suit, it is possible to build a perfect non-face-to-face environment by allowing others to feel when shaking hands with the user in a real virtual environment, which is a threat to public health in the post-corona era. By preventing the occurrence and prevalence of infectious diseases, it can contribute to the promotion and maintenance of public health.

도 1은 본 발명의 일 실시예에 따른 WebRTC 기반 비대면 행사 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 비대면 행사 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3은 본 발명의 일 실시예에 따른 WebRTC 기반 비대면 행사 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 도 1의 WebRTC 기반 비대면 행사 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 WebRTC 기반 비대면 행사 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
1 is a diagram for explaining a WebRTC-based non-face-to-face event service providing system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a non-face-to-face event service providing server included in the system of FIG. 1 .
3 is a diagram for explaining an embodiment in which a WebRTC-based non-face-to-face event service according to an embodiment of the present invention is implemented.
FIG. 4 is a diagram illustrating a process in which data is transmitted/received between components included in the WebRTC-based non-face-to-face event service providing system of FIG. 1 according to an embodiment of the present invention.
5 is an operation flowchart illustrating a method for providing a WebRTC-based non-face-to-face event service according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is "connected" with another part, this includes not only the case of being "directly connected" but also the case of being "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated, and one or more other features However, it is to be understood that the existence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded in advance.

명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다. The terms "about", "substantially", etc. to the extent used throughout the specification are used in or close to the numerical value when manufacturing and material tolerances inherent in the stated meaning are presented, and are intended to enhance the understanding of the present invention. To help, precise or absolute figures are used to prevent unfair use by unconscionable infringers of the stated disclosure. As used throughout the specification of the present invention, the term "step of (to)" or "step of" does not mean "step for".

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, a "part" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. In addition, one unit may be implemented using two or more hardware, and two or more units may be implemented by one hardware. Meanwhile, '~ unit' is not limited to software or hardware, and '~ unit' may be configured to be in an addressable storage medium or to reproduce one or more processors. Thus, as an example, '~' denotes components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functions provided in the components and '~ units' may be combined into a smaller number of components and '~ units' or further separated into additional components and '~ units'. In addition, components and '~ units' may be implemented to play one or more CPUs in a device or secure multimedia card.

본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. Some of the operations or functions described as being performed by the terminal, apparatus, or device in the present specification may be performed instead of by a server connected to the terminal, apparatus, or device. Similarly, some of the operations or functions described as being performed by the server may also be performed in a terminal, apparatus, or device connected to the server.

본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal means mapping or matching the terminal's unique number or personal identification information, which is the identification data of the terminal. can be interpreted as

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 WebRTC 기반 비대면 행사 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, WebRTC 기반 비대면 행사 서비스 제공 시스템(1)은, 적어도 하나의 참여자 단말(100), 비대면 행사 서비스 제공 서버(300), 적어도 하나의 디스플레이(400), 적어도 하나의 카메라(500), HMD(600) 및 모션캡쳐수트(Motion Capture Suit, 700)를 포함할 수 있다. 다만, 이러한 도 1의 WebRTC 기반 비대면 행사 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.1 is a diagram for explaining a WebRTC-based non-face-to-face event service providing system according to an embodiment of the present invention. Referring to FIG. 1 , the WebRTC-based non-face-to-face event service providing system 1 includes at least one participant terminal 100 , a non-face-to-face event service providing server 300 , at least one display 400 , and at least one camera. 500 , an HMD 600 , and a motion capture suit 700 . However, since the WebRTC-based non-face-to-face event service providing system 1 of FIG. 1 is only an embodiment of the present invention, the present invention is not limitedly interpreted through FIG. 1 .

이때, 도 1의 각 구성요소들은 일반적으로 네트워크(network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 참여자 단말(100)은 네트워크(200)를 통하여 비대면 행사 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 비대면 행사 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 참여자 단말(100), 적어도 하나의 디스플레이(400), 적어도 하나의 카메라(500)와 연결될 수 있다. 또한, 적어도 하나의 디스플레이(400)는, 네트워크(200)를 통하여 비대면 행사 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 적어도 하나의 카메라(500)는, 네트워크(200)를 통하여 비대면 행사 서비스 제공 서버(300) 및 적어도 하나의 디스플레이(400)과 연결될 수 있다. HMD(600)는, 네트워크(200)를 통하여 참여자 단말(100)과 연결될 수 있다. 마지막으로, 모션캡쳐수트(700)는, 참여자 단말(100)과 연결될 수 있다.At this time, each component of FIG. 1 is generally connected through a network 200 . For example, as shown in FIG. 1 , at least one participant terminal 100 may be connected to the non-face-to-face event service providing server 300 through the network 200 . In addition, the non-face-to-face event service providing server 300 may be connected to at least one participant terminal 100 , at least one display 400 , and at least one camera 500 through the network 200 . In addition, the at least one display 400 may be connected to the non-face-to-face event service providing server 300 through the network 200 . In addition, the at least one camera 500 may be connected to the non-face-to-face event service providing server 300 and the at least one display 400 through the network 200 . The HMD 600 may be connected to the participant terminal 100 through the network 200 . Finally, the motion capture suit 700 may be connected to the participant terminal 100 .

여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network refers to a connection structure in which information exchange is possible between each node, such as a plurality of terminals and servers, and an example of such a network includes a local area network (LAN), a wide area network (WAN: Wide Area Network), the Internet (WWW: World Wide Web), wired and wireless data communication networks, telephone networks, wired and wireless television networks, and the like. Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), 5th Generation Partnership Project (5GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi (Wi-Fi) , Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), RF (Radio Frequency), Bluetooth (Bluetooth) network, NFC ( Near-Field Communication) networks, satellite broadcast networks, analog broadcast networks, Digital Multimedia Broadcasting (DMB) networks, and the like are included, but are not limited thereto.

하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.In the following, the term at least one is defined as a term including the singular and the plural, and even if the at least one term does not exist, each element may exist in the singular or plural, and may mean the singular or plural. it will be self-evident In addition, that each component is provided in singular or plural may be changed according to embodiments.

적어도 하나의 참여자 단말(100)은, WebRTC 기반 비대면 행사 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 비대면 행사 서비스 제공 서버(300)와 연결되고, 실시간 양방향 화상을 송수신하는 단말일 수 있다. 그리고, 적어도 하나의 참여자 단말(100)은 독립 스튜디오가 가상현실 독립 스튜디오로 구성되는 경우, 비대면 행사 서비스 제공 서버(300)로부터 가상현실 콘텐츠를 수신하여 HMD(600)로 출력되도록 하는 단말일 수 있다. 또한, 적어도 하나의 참여자 단말(100)은, 3D 실사 캐릭터가 생성된 경우, 모션캡쳐수트(700)와 연결되어 모션캡쳐수트(700)로부터 수신된 몸 동작이 3D 실사 캐릭터에서 실행되도록 캡쳐된 모션 데이터를 비대면 행사 서비스 제공 서버(300)로 전송하는 단말일 수 있다. 그리고, 적어도 하나의 참여자 단말(100)은, 융털과 같은 돌기가 모션캡쳐수트(700) 내부에 구비되고 그 하단면에 진동 소자가 구비되는 경우, 3D 실사 캐릭터 간, 즉 참여자 단말(100) 간의 접촉이 있는 경우에, 모션캡쳐수트(700)의 대응되는 위치에서 진동 소자가 출력되도록 데이터를 모션캡쳐수트(700)로 전송하는 단말일 수 있다.At least one participant terminal 100 is a terminal that is connected to the non-face-to-face event service providing server 300 using a WebRTC-based non-face-to-face event service related web page, app page, program or application, and transmits and receives real-time interactive images can In addition, at least one participant terminal 100 may be a terminal that receives virtual reality content from the non-face-to-face event service providing server 300 and outputs it to the HMD 600 when the independent studio is configured as a virtual reality independent studio. have. In addition, at least one participant terminal 100, when a 3D live-action character is created, is connected to the motion capture suit 700, the motion captured so that the body motion received from the motion capture suit 700 is executed in the 3D live-action character. It may be a terminal that transmits data to the non-face-to-face event service providing server 300 . And, when at least one participant terminal 100 has a protrusion such as a villi provided inside the motion capture suit 700 and a vibrating element is provided on the bottom surface thereof, between the 3D live-action characters, that is, between the participant terminals 100 When there is contact, it may be a terminal that transmits data to the motion capture suit 700 so that the vibration element is output at a corresponding position of the motion capture suit 700 .

여기서, 적어도 하나의 참여자 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 참여자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 참여자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, the at least one participant terminal 100 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser, a desktop, and a laptop. In this case, the at least one participant terminal 100 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one participant terminal 100 is, for example, a wireless communication device that guarantees portability and mobility, including navigation, Personal Communication System (PCS), Global System for Mobile communications (GSM), Personal Digital Cellular (PDC), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) ) terminal, a smart phone, a smart pad, a tablet PC, etc. may include all kinds of handheld-based wireless communication devices.

비대면 행사 서비스 제공 서버(300)는, WebRTC 기반 비대면 행사 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 비대면 행사 서비스 제공 서버(300)는, 적어도 하나의 디스플레이(400) 및 적어도 하나의 카메라(500)와 연결되고, 적어도 하나의 참여자 단말(100)로 참여요청 메세지를 전송하며, 응답이 온 경우 적어도 하나의 참여자 단말(100)과 적어도 하나의 디스플레이(400)를 일대일 매핑되도록 저장하는 서버일 수 있다. 또한, 비대면 행사 서비스 제공 서버(300)는 오프라인으로 독립 스튜디오가 마련된 경우, 적어도 하나의 카메라(500)를 통하여 진행자 등을 촬영하고, 그 결과를 적어도 하나의 참여자 단말(100)에서 출력되도록 WebRTC(Web Real-Time Communication) 기반으로 촬영 데이터를 스트리밍 또는 전송하는 서버일 수 있다. 그리고, 비대면 행사 서비스 제공 서버(300)는, 독립 스튜디오가 가상현실 스튜디오로 구성되는 경우, 적어도 하나의 참여자를 촬영한 2D 데이터로부터 3D 실사 캐릭터를 생성하는 서버일 수 있고, 모션캡쳐수트(700)로부터 캡쳐된 모션 데이터에 대응하도록 3D 실사 캐릭터가 가상현실 스튜디오에서 움직이도록 제어하는 서버일 수 있다. 또한, 비대면 행사 서비스 제공 서버(300)는, 가상현실 스튜디오에서 참여자 간 접촉 또는 참여자와 진행자 간 접촉, 즉 참여자의 3D 실사 캐릭터와 다른 참여자의 3D 실사 캐릭터가 악수를 하거나, 참여자의 3D 실사 캐릭터와 진행자의 3D 실사 캐릭터가 서로를 터치하는 경우, 모션캡쳐수트(700) 내부에 형성된 융털과 같은 돌기를 진동 소자로 진동시켜서 터치감이나 악수느낌을 재현할 수 있도록 하는 서버일 수 있다. 또, 가상현실 스튜디오의 가상현실 콘텐츠를 비대면 행사 서비스 제공 서버(300)는 HMD(600)로 참여자 단말(100)을 경유하여 전달함으로써 출력 장치로 HMD(600)를, 입출력 장치(입력:모션캡쳐, 출력:돌기진동)로 모션캡쳐수트(700)를 이용하는 서버일 수 있다.The non-face-to-face event service providing server 300 may be a server that provides a WebRTC-based non-face-to-face event service web page, an app page, a program, or an application. And, the non-face-to-face event service providing server 300 is connected to at least one display 400 and at least one camera 500, and transmits a participation request message to at least one participant terminal 100, and the response is When on, it may be a server that stores at least one participant terminal 100 and at least one display 400 to be mapped one-to-one. In addition, the non-face-to-face event service providing server 300 takes pictures of a moderator through at least one camera 500 when an independent studio is provided offline, and WebRTC so that the result is output from at least one participant terminal 100 . It may be a server that streams or transmits shooting data based on (Web Real-Time Communication). And, the non-face-to-face event service providing server 300 may be a server that generates a 3D live-action character from 2D data of at least one participant when the independent studio is configured as a virtual reality studio, and a motion capture suit 700 ) may be a server that controls the 3D live-action character to move in the virtual reality studio to correspond to the captured motion data. In addition, the non-face-to-face event service providing server 300 is, in the virtual reality studio, contact between participants or between a participant and a moderator, that is, a 3D live-action character of a participant and a 3D live-action character of another participant shake hands, or a 3D live-action character of a participant When the 3D live-action character of the and the host touch each other, the motion capture suit 700 may be a server that vibrates protrusions such as villi formed inside the vibration element to reproduce the feeling of touch or handshake. In addition, the non-face-to-face event service providing server 300 transmits the virtual reality content of the virtual reality studio to the HMD 600 via the participant terminal 100, thereby transferring the HMD 600 as an output device and an input/output device (input: motion). It may be a server using the motion capture suit 700 as capture, output: protrusion vibration).

여기서, 비대면 행사 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.Here, the non-face-to-face event service providing server 300 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser, a desktop, and a laptop.

적어도 하나의 디스플레이(400)는, WebRTC 기반 비대면 행사 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하는 LCD, PDP, LED 등의 패널일 수 있다. 이때 적어도 하나의 디스플레이(400)는 각각 식별할 수 있는 아이디나 고유식별코드가 부여되어 있고, 비대면 행사 서비스 제공 서버(300)에서 적어도 하나의 참여자 단말(100)과 매핑하여 저장하는 경우, 적어도 하나의 참여자 단말(100)에서 촬영된 촬영 데이터를 실시간으로 수신하여 출력하는 패널일 수 있다.The at least one display 400 may be a panel such as an LCD, PDP, or LED using a WebRTC-based non-face-to-face event service related web page, an app page, a program or an application. At this time, at least one display 400 is given an ID or unique identification code that can be identified, respectively, and when the non-face-to-face event service providing server 300 maps and stores it with at least one participant terminal 100, at least It may be a panel for receiving and outputting photographed data captured by one participant terminal 100 in real time.

여기서, 적어도 하나의 디스플레이(400)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 디스플레이(400)는, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 디스플레이(400)는, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, the at least one display 400 may be implemented as a computer that can access a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser, a desktop, and a laptop. In this case, the at least one display 400 may be implemented as a terminal capable of accessing a remote server or terminal through a network. The at least one display 400 is, for example, a wireless communication device that ensures portability and mobility, such as navigation, Personal Communication System (PCS), Global System for Mobile communications (GSM), Personal Digital Cellular (PDC), and PHS. (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) It may include all types of handheld-based wireless communication devices such as terminals, smartphones, smartpads, and tablet PCs.

적어도 하나의 카메라(500)는, WebRTC 기반 비대면 행사 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 진행자나 독립 스튜디오를 촬영한 촬영 데이터를 비대면 행사 서비스 제공 서버(300)로 전송하여 적어도 하나의 참여자 단말(100)에서 출력될 수 있도록 하는 장치일 수 있다. 이때, 적어도 하나의 카메라(500)는, 원격지에서 상하좌우 또는 틸팅(Tilting) 등의 제어를 수행할 수 있는 카메라일 수 있고, 사람의 온도를 촬영하는 열화상 카메라를 포함할 수 있다.At least one camera 500 transmits the shooting data of the host or independent studio using a WebRTC-based non-face-to-face event service related web page, app page, program or application to the non-face-to-face event service providing server 300 , It may be a device that enables output from at least one participant terminal 100 . In this case, the at least one camera 500 may be a camera capable of performing control such as up/down/left/right or tilting at a remote location, and may include a thermal imaging camera that captures the temperature of a person.

여기서, 적어도 하나의 카메라(500)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 카메라(500)는, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 카메라(500)는, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, the at least one camera 500 may be implemented as a computer that can connect to a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser, a desktop, and a laptop. In this case, the at least one camera 500 may be implemented as a terminal capable of accessing a remote server or terminal through a network. The at least one camera 500 is, for example, a wireless communication device that guarantees portability and mobility, such as navigation, Personal Communication System (PCS), Global System for Mobile communications (GSM), Personal Digital Cellular (PDC), and PHS. (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) It may include all types of handheld-based wireless communication devices such as terminals, smartphones, smartpads, and tablet PCs.

HMD(600)는, WebRTC 기반 비대면 행사 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 가상현실 콘텐츠를 출력하는 장치일 수 있다. 그리고, HMD(600)는, 참여자 단말(100)과 연결되어 참여자 단말(100)에서 비대면 행사 서비스 제공 서버(300)로부터 수신한 가상현실 콘텐츠를 출력하도록 구성될 수 있다. The HMD 600 may be a device for outputting virtual reality content using a WebRTC-based non-face-to-face event service related web page, an app page, a program, or an application. In addition, the HMD 600 may be connected to the participant terminal 100 and configured to output the virtual reality content received from the non-face-to-face event service providing server 300 in the participant terminal 100 .

여기서, HMD(600)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, HMD(600)는, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. HMD(600)는, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, the HMD 600 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser, a desktop, and a laptop. In this case, the HMD 600 may be implemented as a terminal capable of accessing a remote server or terminal through a network. The HMD 600 is, for example, a wireless communication device that ensures portability and mobility, and includes navigation, a personal communication system (PCS), a global system for mobile communications (GSM), a personal digital cellular (PDC), and a personal handyphone (PHS). System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) terminal, smart It may include all kinds of handheld-based wireless communication devices such as a smartphone, a smartpad, and a tablet PC.

모션캡쳐수트(700)는, WebRTC 기반 비대면 행사 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 참여자 또는 진행자 등 착용자의 모션을 캡쳐하여 비대면 행사 서비스 제공 서버(300)로 전송하는 장치일 수 있다. 이때, 모션캡쳐수트(700)는, 일반적인 모션캡쳐수트(700)에 부가적으로 내부에는 장 속의 융털과 같은 돌기가 형성되어 있고, 돌기 하부면에는 기 설정된 간격으로 진동 소자를 더 포함하고 있어서, 참여자 단말(100)를 경유하여 비대면 행사 서비스 제공 서버(300)로부터 다른 참여자의 접촉이나 진행자와의 악수와 같은 접촉 데이터를 출력하는 장치일 수 있다. The motion capture suit 700 is a device that captures the motion of the wearer, such as a participant or host, using a WebRTC-based non-face-to-face event service related web page, app page, program or application and transmits it to the non-face-to-face event service providing server 300 . can be At this time, the motion capture suit 700, in addition to the general motion capture suit 700, has a protrusion such as a villi in the intestine is formed therein, and the lower surface of the protrusion further includes a vibrating element at preset intervals, It may be a device that outputs contact data such as contact of another participant or handshake with a host from the non-face-to-face event service providing server 300 via the participant terminal 100 .

여기서, 모션캡쳐수트(700)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 모션캡쳐수트(700)는, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 모션캡쳐수트(700)는, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, the motion capture suit 700 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser, a desktop, and a laptop. In this case, the motion capture suit 700 may be implemented as a terminal capable of accessing a remote server or terminal through a network. The motion capture suit 700 is, for example, a wireless communication device that guarantees portability and mobility, such as navigation, Personal Communication System (PCS), Global System for Mobile communications (GSM), Personal Digital Cellular (PDC), and PHS ( Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) terminal , may include all types of handheld-based wireless communication devices such as smartphones, smartpads, and tablet PCs.

도 2는 도 1의 시스템에 포함된 비대면 행사 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3은 본 발명의 일 실시예에 따른 WebRTC 기반 비대면 행사 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.2 is a block diagram for explaining a non-face-to-face event service providing server included in the system of FIG. 1, and FIG. 3 describes an embodiment in which a WebRTC-based non-face-to-face event service is implemented according to an embodiment of the present invention. It is a drawing for

도 2를 참조하면, 비대면 행사 서비스 제공 서버(300)는, 참여요청부(310), 저장부(320), 제어부(330), 전송부(340), 소통지원부(350), 접촉전달부(360), 카메라조종부(370), 비말거리산출부(380), 기념품제공부(390) 및 데이터베이스화부(391)를 포함할 수 있다.Referring to FIG. 2 , the non-face-to-face event service providing server 300 includes a participation request unit 310 , a storage unit 320 , a control unit 330 , a transmission unit 340 , a communication support unit 350 , and a contact transmission unit. 360 , a camera control unit 370 , a splash distance calculation unit 380 , a souvenir providing unit 390 , and a database conversion unit 391 may be included.

본 발명의 일 실시예에 따른 비대면 행사 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 참여자 단말(100), 적어도 하나의 디스플레이(400), 적어도 하나의 카메라(500), HMD(600) 및 모션캡쳐수트(700)로 WebRTC 기반 비대면 행사 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 참여자 단말(100), 적어도 하나의 디스플레이(400), 적어도 하나의 카메라(500), HMD(600) 및 모션캡쳐수트(700)는, WebRTC 기반 비대면 행사 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 참여자 단말(100), 적어도 하나의 디스플레이(400), 적어도 하나의 카메라(500), HMD(600) 및 모션캡쳐수트(700)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: World Wide Web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(Hyper Text Mark-up Language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(Chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(Application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(App)을 포함한다.The non-face-to-face event service providing server 300 or other server (not shown) operating in conjunction according to an embodiment of the present invention includes at least one participant terminal 100 , at least one display 400 , and at least one camera. When transmitting a WebRTC-based non-face-to-face event service application, program, app page, web page, etc. to the 500, the HMD 600 and the motion capture suit 700, at least one participant terminal 100, at least one display 400 , at least one camera 500 , HMD 600 , and motion capture suit 700 may install or open a WebRTC-based non-face-to-face event service application, program, app page, web page, and the like. In addition, using a script executed in a web browser, the service program is at least one participant terminal 100 , at least one display 400 , at least one camera 500 , HMD 600 and a motion capture suit 700 . It can also be driven in Here, the web browser is a program that enables the use of a web (WWW: World Wide Web) service, and refers to a program that receives and displays hypertext written in HTML (Hyper Text Mark-up Language), for example, Netscape. , Explorer, Chrome, and the like. In addition, the application means an application on the terminal, for example, includes an app (App) executed in a mobile terminal (smartphone).

도 2를 참조하면, 참여요청부(310)는, 적어도 하나의 참여자 단말(100)로 참여요청 메세지를 적어도 하나의 종류의 매체를 이용하여 전달할 수 있다. 이때, 적어도 하나의 종류의 매체는, 이메일, SMS, MMS, 호(Call), 소셜미디어(Social Meida) 등일 수 있으나 나열된 것들로 한정되지 않고 열거되지 않은 이유로 배제되지 않는다.Referring to FIG. 2 , the participation request unit 310 may transmit a participation request message to at least one participant terminal 100 using at least one type of medium. In this case, the at least one type of medium may be e-mail, SMS, MMS, call, social media, etc., but is not limited to the listed ones and is not excluded for reasons not listed.

저장부(320)는, 적어도 하나의 참여자 단말(100)과 적어도 하나의 디스플레이(400)를 일대일로 매핑하여 저장할 수 있다. 이에 따라, 적어도 하나의 디스플레이(400)는, 적어도 하나의 참여자 단말(100)에서 수신된 영상을 일대일로 출력할 수 있다.The storage unit 320 may store the one-to-one mapping between the at least one participant terminal 100 and the at least one display 400 . Accordingly, the at least one display 400 may output the image received from the at least one participant terminal 100 on a one-to-one basis.

제어부(330)는, 적어도 하나의 참여자 단말(100)의 영상을 WebRTC(Web Real-Time Communication) 기반으로 실시간으로 수신하여 적어도 하나의 디스플레이(400)에 출력하도록 제어할 수 있다. 이때, 적어도 하나의 참여자 단말(100)은, 비대면 행사에 참여하고 실시간으로 참여자를 촬영하여 전송하고, 독립 스튜디오에서 촬영된 스튜디오 영상을 실시간으로 수신하여 출력할 수 있다.The controller 330 may control to receive an image of the at least one participant terminal 100 in real time based on Web Real-Time Communication (WebRTC) and output it to the at least one display 400 . In this case, the at least one participant terminal 100 may participate in a non-face-to-face event, photograph and transmit a participant in real time, and receive and output a studio image photographed in an independent studio in real time.

전송부(340)는, 적어도 하나의 카메라(500)로 촬영된 영상을 적어도 하나의 참여자 단말(100)로 WebRTC 기반으로 전송할 수 있다. 적어도 하나의 카메라(500)는, 독립 스튜디오에서 비대면 행사 진행자를 촬영할 수 있다. 이때, WebRTC(Web Real-Time Communication)는 W3C에서 제안된 프로토콜로 별도의 플러그인 없이 음성, 영상등의 실시간 통신이 가능하도록 도와주는 프로토콜이며 별도의 플러그인이 필요 없고 낮은 지연시간을 제공한다는 장점을 가지고 있다. WebRTC는 오픈 소스 프로젝트로 Mesh, SFU(Selective Forwarding Unit), MCU(Multi-point Control Unit) 방식의 구조를 가지고 있다. Mesh 구조는 p2p 방식과 같이 각 노드가 1대1로 연결하여 데이터 통신을 주고받는 방식이고, SFU와 MCU는 여러 대의 노드가 통신하는 구조로 중앙 서버가 존재하는 구조이다. SFU 구조는 중앙서버에서 데이터를 가공 없이 배분해서 통신하는 방식이고, MCU 구조는 중앙서버에서 데이터를 가공하여 통신하는 방식이다. 각 모델 별로 통신 방법이 다르기에 각 모델에 적합한 활용법을 찾아서 활용할 수 있다. 실시간 스트리밍의 경우 중앙서버를 거쳐 다수의 사용자와 통신해야 하고 지연 시간이 중요한 요소이기에 본 발명의 일 실시예에서는, SFU 방식을 활용하여 2명 이상의 사용자가 접속할 수 있는 실시간 스트리밍을 이용할 수 있다.The transmitter 340 may transmit an image captured by the at least one camera 500 to the at least one participant terminal 100 based on WebRTC. At least one camera 500 may photograph a non-face-to-face event host in an independent studio. At this time, WebRTC (Web Real-Time Communication) is a protocol proposed by W3C that helps enable real-time communication such as voice and video without a separate plug-in. It does not require a separate plug-in and provides low latency. have. WebRTC is an open source project and has a mesh, SFU (Selective Forwarding Unit), and MCU (Multi-point Control Unit) structure. The mesh structure is a method in which each node connects one-to-one to exchange data like the p2p method, and the SFU and MCU have a structure in which multiple nodes communicate and a central server exists. The SFU structure is a method of distributing and communicating data in the central server without processing, and the MCU structure is a method of communicating data by processing the data in the central server. Since the communication method is different for each model, it is possible to find a method suitable for each model and use it. In the case of real-time streaming, it is necessary to communicate with a large number of users through a central server, and delay time is an important factor, so in one embodiment of the present invention, real-time streaming that can be accessed by two or more users by utilizing the SFU method can be used.

이때, 본 발명의 전송부(340)는 참여자들 간 라이브 스트리밍을 서로가 브로드캐스터(Broadcaster) 역할을 하고 해당 영상과 채팅을 서로 송수신하는 구조이다. 이때 채팅과 스트리밍은 하나의 화면에서 제공되지만 각각 javascript, java로 이루어진 파일을 통해서 동작하도록 구성될 수 있고, 전송부(340)는 라이브 스트리밍 송출을 요청할 수 있고, 각 참여자 단말(100)의 아이디를 등록하여 정상적인 송출이 가능하도록 지원하고 해당 스트리밍에 수신자들이 접근할 수 있도록 리스트를 만들어줄 수 있다. 이후 수신자들은 송출중인 라이브 스트리밍에 자유롭게 접근 할 수 있고 원하는 스트리밍 송출 채널에 접속하여 송신자 및 다른 수신자들과 함께 같은 영상을 보며 채팅을 통해 의견을 나눌 수 있다.At this time, the transmitting unit 340 of the present invention has a structure in which each other acts as a broadcaster for live streaming between the participants and transmits and receives the corresponding video and chatting to each other. At this time, chat and streaming are provided on one screen, but may be configured to operate through a file made of javascript and java, respectively, and the transmission unit 340 may request live streaming transmission, and the ID of each participant terminal 100 You can register to support normal transmission and make a list so that receivers can access the streaming. After that, the receivers can freely access the live streaming being broadcast, access the desired streaming channel, watch the same video with the sender and other receivers, and share opinions through chatting.

또는, 전송부(340)에서 참여자 단말(100)로 전송할 때, 각 참여자 단말(100)의 네트워킹 자원과 컴퓨팅 자원이 서로 다름으로 인하여 실시간 스트리밍이 끊기거나 지연되는 사태가 발생할 수도 있다. 이에 따라, 전송부(340)는, QoE(Quality of Experience)를 보장하기 위하여 HTTP 적응적 스트리밍(HTTP Adatptive Streaming)을 이용할 수도 있다. HTTP 적응적 스트리밍을 위해 전송부(340)는, 적어도 하나의 카메라(500)에서 촬영한 동영상을 다양한 품질을 가지도록 세그먼트 형태로 인코딩할 수 있다. 세그먼트와 동영상에 관한 정보는 전송부(340)에 MPD(Media Presentation Description) 파일로 저장할 수 있다. 이를 통하여 적어도 하나의 참여자 단말(100)은 실시간 스트리밍을 시작 시에 전송부(340)로 MPD 파일 을 요청한다. 참여자 단말(100)은 MPD 파일에 기술된 세그먼트에 관한 정보와 네트워크 상태에 대한 정보를 이용하여 다음 세그먼트를 요청한다. HTTP 적응적 스트리밍은 요청할 비디오 세그먼트의 품질을 네트워크 상황에 맞춰 적응적으로 결정하기 때문에 사용자에게 끊김 없는 스트리밍 서비스를 제공할 수 있다.Alternatively, when transmitting from the transmitter 340 to the participant terminal 100 , the real-time streaming may be interrupted or delayed due to differences in networking resources and computing resources of each participant terminal 100 . Accordingly, the transmitter 340 may use HTTP adaptive streaming to ensure Quality of Experience (QoE). For HTTP adaptive streaming, the transmission unit 340 may encode a video captured by at least one camera 500 in the form of segments to have various qualities. Information about the segment and the video may be stored in the transmitter 340 as a media presentation description (MPD) file. Through this, at least one participant terminal 100 requests the MPD file from the transmitter 340 when real-time streaming starts. The participant terminal 100 requests the next segment by using the segment information and the network status information described in the MPD file. HTTP adaptive streaming can provide a seamless streaming service to users because it adaptively determines the quality of a video segment to be requested according to network conditions.

이때, HTTP 적응적 스트리밍에서 대역폭을 정확하게 예측하지 못할 경우 다음 세그먼트를 요청할 때 문제가 발생한다. 실제 대역폭보다 더 크게 대역폭을 예측하였을 경우 네트워크 상황에 맞는 품질보다 더 높은 품질의 세그먼트를 다운로드하여 버퍼 소모량이 증가하고 재생 끊김의 확률이 증가한다. 대역폭을 실제 대역폭 보다 더 작게 예측하였을 경우 요청 가능한 품질보다 낮은 품질의 세그먼트를 다운로드하게 되어 대역폭을 충분히 활용하지 못한다. 대역폭이 빈번하게 변하는 경우 불필요한 품질 변경이 발생하여 QoE가 저하되는 문제가 발생될 수도 있으므로, 본 발명의 일 실시예에서는, HTTP 적응적 스트리밍의 QoE 향상을 위한 변동 패턴 인지형 대역폭 예측 기법을 이용할 수 있다.At this time, if the bandwidth cannot be accurately predicted in HTTP adaptive streaming, a problem occurs when requesting the next segment. If the bandwidth is predicted to be larger than the actual bandwidth, a segment with a higher quality than the quality suitable for the network situation is downloaded, increasing the buffer consumption and the probability of interruption of playback. If the bandwidth is predicted to be smaller than the actual bandwidth, a segment with a lower quality than the requested quality is downloaded, and the bandwidth is not fully utilized. When the bandwidth is frequently changed, an unnecessary quality change may occur and thus a problem of lowering QoE may occur. In an embodiment of the present invention, a change pattern recognition bandwidth prediction technique for QoE improvement of HTTP adaptive streaming can be used. have.

본 발명의 일 실시예에 따라, 전송부(340)는 대역폭의 변동 패턴에 최적화된 대역폭 예측을 하여 QoE 저하를 최소화할 수 있다. 전송부(340)는 대역폭 변동이 빈번한 경우 일정한 품질을 요청할 수 있도록 대역폭을 예측할 수 있다. 전송부(340)는 대역폭의 변동이 빈번하지 않은 경우 정확한 예측을 위해 네트워크 가용 대역폭의 변화에 대한 반응성을 조절하여 대역폭을 예측할 수 있다. 전송부(340)는, 대역폭 변동 패턴을 대역폭 변동이 빈번한 Short-term fluctuation 패턴과 대역폭의 변동이 빈번하지 않은 Long-term fluctutation 패턴으로 구분할 수 있다. 대역폭의 변동 패턴을 구분하기 위해 한 세그먼트를 다운로드 받는 동안 짧은 구간을 설정하여 구간별로 실제 대역폭(sTPj i)을 측정할 수 있다. 본 발명의 일 실시예에서는 실제 대역폭(sTPj i)을 서브 다운로드 동안의 대역폭이라고 정의하고 이하 수학식 1과 같이 측정할 수 있다.According to an embodiment of the present invention, the transmitter 340 may minimize QoE degradation by performing bandwidth prediction optimized for the bandwidth fluctuation pattern. The transmitter 340 may estimate the bandwidth so that a constant quality can be requested when the bandwidth fluctuation is frequent. The transmitter 340 may predict the bandwidth by adjusting the responsiveness to the change in the available network bandwidth for accurate prediction when the bandwidth change is not frequent. The transmitter 340 may classify the bandwidth fluctuation pattern into a short-term fluctuation pattern in which bandwidth fluctuation is frequent and a long-term fluctuation pattern in which bandwidth fluctuation is not frequent. In order to distinguish a bandwidth fluctuation pattern, a short section is set while a segment is being downloaded, and the actual bandwidth (sTP j i ) can be measured for each section. In an embodiment of the present invention, the actual bandwidth sTP j i may be defined as the bandwidth during sub-download and may be measured as in Equation 1 below.

Figure pat00001
Figure pat00001

i는 다운로드 받고 있는 세그먼트의 인덱스(Index, i), j는 서브 다운로드 구간의 인덱스를, T는, 서브 다운로드 구간의 길이를 의미하며, sSi는 T 동안의 처리량을 의미한다. 대역폭 변동의 정도를 나타내는 Fluctuation Factor(FF)는 이하 수학식 2와 같이 정의될 수 있다.i is the index (Index, i) of the segment being downloaded, j is the index of the sub-download section, T is the length of the sub-download section, and sSi is the throughput during T. Fluctuation Factor (FF) indicating the degree of bandwidth fluctuation may be defined as in Equation 2 below.

Figure pat00002
Figure pat00002

x는 대역폭 변동 패턴 구분에 반영한 세그먼트의 개수, Di는 i 번째 세그먼트의 다운로드 시간을 의미한다. 반영하는 세그먼트의 개수를 늘릴 수록 대역폭 변동 패턴을 구분하는 정확도가 향상되지만 구분하기 위해 걸리는 시간이 늘어나 실시간성이 떨어지는 트레이드 오프가 발생한다. Fluctuation Factor(FF)가 설정한 임계값보다 클 경우 Short-term fluctuation 패턴이라고 판단한다. Short-term fluctuation 패턴에서 변하는 대역폭에 맞춰 대역폭을 예측할 경우 불필요한 품질 변경이 발생하여 QoE가 저하되는 문제가 발생한다. 또한 대역폭 예측 시 버퍼 점유량을 고려하지 않고 품질을 조절하기 때문에 재생 끊김 현상이 발생한다. 불필요한 품질 변경을 막기 위해 일정한 품질의 세그먼트를 요청할 수 있도록 이하 수학식 3과 같이 대역폭을 예측하기로 한다.x is the number of segments reflected in the bandwidth fluctuation pattern classification, and Di is the download time of the i-th segment. As the number of reflected segments increases, the accuracy of distinguishing bandwidth fluctuation patterns improves, but the time it takes to distinguish them increases, resulting in a trade-off with poor real-time performance. If the Fluctuation Factor (FF) is greater than the set threshold, it is determined as a short-term fluctuation pattern. In the short-term fluctuation pattern, when the bandwidth is predicted according to the changing bandwidth, an unnecessary quality change occurs, resulting in a problem of lowering QoE. In addition, playback interruption occurs because the quality is adjusted without considering the buffer occupancy when predicting the bandwidth. In order to prevent unnecessary quality change, the bandwidth is predicted as in Equation 3 below so that a segment of a constant quality can be requested.

Figure pat00003
Figure pat00003

m은 서브 다운로드 구간의 총 개수를 의미하고 TPEi는, i번째 세그먼트를 다운로드 할 때의 예측 대역폭을 의미한다. 수학식 3과 같이 대역폭을 예측하면 불필요한 품질 변경을 막고 버퍼의 소모량을 일정하게 하여 재생 끊김을 최소화할 수 있다. Fluctuation Factor(FF)가 설정한 임계값보다 작을 경우 Long-term fluctuation 패턴이라고 판단한다. Long-term fluctuation 패턴에서는 정확한 대역폭 예측이 중요하다. 실제 대역폭보다 더 크게 대역폭을 예측하였을 경우 네트워크 상황에 맞는 품질보다 더 높은 품질의 세그먼트를 다운로드하여 버퍼 소모량이 증가하고 재생 끊김의 확률이 증가한다. 실제 대역폭보다 더 작게 대역폭을 예측하였을 경우 요청 가능한 품질보다 낮은 품질의 세그먼트를 다운로드하게 되어 대역폭을 충분히 활용하지 못하는 문제가 발생한다. 또한 낮은 품질의 세그먼트가 버퍼에 많이 쌓이게 되어 품질 변경까지의 딜레이가 길어지고 평균 품질이 낮아져 QoE가 저하된다. Long-term fluctuation 패턴에서 본 발명의 일 실시예는 네트워크 가용 대역폭의 변화에 대한 반응성을 조절하여 이하 수학식 4와 같이 대역폭을 예측한다. m means the total number of sub-download sections, and TP E i means the predicted bandwidth when downloading the i-th segment. When the bandwidth is predicted as in Equation 3, unnecessary quality changes can be prevented and playback interruption can be minimized by making the buffer consumption constant. If the Fluctuation Factor (FF) is smaller than the set threshold, it is determined as a long-term fluctuation pattern. In the long-term fluctuation pattern, accurate bandwidth prediction is important. If the bandwidth is predicted to be larger than the actual bandwidth, a segment with a higher quality than the quality suitable for the network situation is downloaded, increasing the buffer consumption and the probability of interruption of playback. If the bandwidth is predicted to be smaller than the actual bandwidth, a segment with a lower quality than the requestable quality is downloaded, resulting in a problem that the bandwidth cannot be fully utilized. In addition, a lot of low-quality segments are accumulated in the buffer, which increases the delay until quality change and lowers the average quality, which lowers QoE. In the long-term fluctuation pattern, an embodiment of the present invention predicts the bandwidth as shown in Equation 4 below by adjusting the responsiveness to a change in the available network bandwidth.

Figure pat00004
Figure pat00004

α, β는 반응성을 결정하는 파라메터이며 TPi는 이하 수학식 5와 같이 i번째 세그먼트의 크기 Si와 다운로드 시간 Di를 이용하여 측정된 대역폭이다. 대역폭이 감소하는 추세일 경우 α값을 증가시켜 이전 대역폭 값을 반영하는 비율을 높인다. 대역폭이 증가하는 추세일 경우 β값을 증가시켜 현재 측정된 대역폭 값을 반영하는 비율을 높인다.α and β are parameters that determine the reactivity, and TPi is the bandwidth measured using the size Si of the i-th segment and the download time Di as shown in Equation 5 below. If the bandwidth is in a decreasing trend, the ratio of reflecting the previous bandwidth value is increased by increasing the α value. In case the bandwidth is increasing, the ratio of reflecting the currently measured bandwidth value is increased by increasing the β value.

Figure pat00005
Figure pat00005

물론, 상술한 방법 이외에도 네트워킹 자원 뿐만 아니라 컴퓨팅 자원의 가용량까지 고려하여 유동적인 전송률을 결정하는 방법을 이용할 수 있으며, 상술한 방법에 한정되는 것은 아니다.Of course, in addition to the above-described method, a method of determining a flexible transfer rate in consideration of the available capacity of the computing resource as well as the networking resource may be used, and the method is not limited thereto.

덧붙여서, 본 발명의 일 실시예는 별도의 프로그램을 깔지 않아도 스트리밍이 가능한 HTML5를 이용할 수 있고, 실시간 스트리밍 링크는, HTML5 기반 링크일 수 있다. 여기서, HTML5는, 웹문서 표준인 HTML(Hyoer Text Markup Language)의 최신 규격으로 문서 작성 중심에서 그림, 동영상, 음악 등을 실행하는 기능이 포함되었다. HTML5는 플러그인 기반의 액티브 엑스(Active-X), Flash 와 같이 프로그램을 별도로 설치할 필요가 없어지게 되었으며, 이로 인해 발생한 문제는 대부분 해결할 수 있게 되었다. 이때, 종래의 HTML 표준과 HTML5의 가장 큰 차이점은 시맨틱 마크업을 지원하는 점과 추가적인 API를 제공하는 점이다. 시맨틱 마크업은 웹 문서를 의미적으로 구조화 할 수 있는 새로운 요소이다. 예를 들어, 문서의 내용을 머리말, 본문, 꼬리말로 구분할 수 있도록 <head>, <section>, <footer> 라는 요소로 문서를 작성하게 되면, 문서의 내용을 구조적으로 명확히 이해할 수 있게 된다. 또한 HTML5에서는 다양한 API를 제공한다. HTML5에서 제공하는 API는 2차원 그래픽을 지원하거나, 디바이스의 지리적 위치를 확인할 수 있는 기능을 지원하는 등 웹 애플리케이션에 다양한 기능을 추가할 수 있도록 해준다In addition, an embodiment of the present invention may use HTML5 capable of streaming without installing a separate program, and the real-time streaming link may be an HTML5-based link. Here, HTML5 is the latest standard of HTML (Hyoer Text Markup Language), which is a web document standard, and includes a function of executing pictures, videos, and music in the center of document creation. HTML5 eliminates the need to separately install programs such as plug-in-based Active-X and Flash, and most of the problems caused by this can be solved. At this time, the biggest difference between the conventional HTML standard and HTML5 is that semantic markup is supported and an additional API is provided. Semantic markup is a new element that can semantically structure web documents. For example, if a document is created with elements such as <head>, <section>, and <footer> so that the contents of the document can be divided into header, body, and footer, the contents of the document can be clearly understood structurally. In addition, HTML5 provides various APIs. The API provided by HTML5 allows you to add various functions to web applications, such as supporting 2D graphics or checking the geographic location of a device.

또한, HTML5는, 웹 페이지를 만들 때 사용이 되는 마크업 언어로 하이퍼링크와 텍스트로 표시하던 HTML을 멀티미디어 등 다양한 애플리케이션까지 표현하고 제공할 수 있다. HTML5는 웹 문서 구조 설계를 위한 마크업 언어인 HTML, 디자인 표현을 위한 CSS, 인터랙티브한 동작을 표현하기 위한 자바스크립트(JavaScript) 등을 포함하여 구현될 수 있고, 기존의 HTML의 태그에 새로운 태그들이 더 추가될 수 있으며, 콘텐츠들을 담기 위한 구조로 개선되어 플랫폼의 역할까지도 수행할 수 있다. 또, HTML5는 모바일 웹을 위한 표준은 아니지만, 앞서 설명한 여러 기능 중에서 모바일 웹의 구현에 필요한 기능들을 다수 제공해 주고 있다. 2차원 그래픽, 오디오, 다양한 웹 폼 등은 모바일 웹의 UI(User Interface)를 풍부하고 다양하게 해줄 수 있다. 즉, 모바일 웹 환경에서도 멀티미디어 정보를 제공하거나 사용자의 동적인 상호작용을 지원할 수 있게 된다. 모바일 웹 환경에서는 모바일 환경의 특성상 대용량의 데이터를 전송하는데 한계를 가지고, 인터넷이 연결되지 않는 환경이 자주 발생하지만, 이러한 제약조건을 극복할 수 있는 것이 웹 클라이언트의 캐시를 이용하여 오프라인 웹 애플리케이션을 구현하거나 로컬에 DB를 저장하여 SQL문으로 질의할 수 있다.In addition, HTML5 is a markup language used to create web pages, and it can express and provide HTML, which used to be displayed as hyperlinks and texts, to various applications such as multimedia. HTML5 can be implemented including HTML, a markup language for web document structure design, CSS for design expression, JavaScript for expressing interactive action, etc., and new tags are added to existing HTML tags. More can be added, and the structure to contain contents can be improved to even perform the role of a platform. Also, although HTML5 is not a standard for the mobile web, it provides many functions necessary for the implementation of the mobile web among the various functions described above. Two-dimensional graphics, audio, and various web forms can enrich and diversify the UI (User Interface) of the mobile web. That is, it is possible to provide multimedia information or support a user's dynamic interaction even in a mobile web environment. In the mobile web environment, there is a limitation in transmitting large amounts of data due to the nature of the mobile environment, and an environment in which the Internet is not connected frequently occurs. Alternatively, you can store the DB locally and query it with an SQL statement.

소통지원부(350)는, 적어도 하나의 참여자 단말(100)의 언어가 서로 다르거나 독립 스튜디오의 진행자의 언어와 적어도 하나의 참여자 단말(100)의 언어가 서로 다른 경우, 독립 스튜디오의 진행자의 언어 및 적어도 하나의 참여자 단말(100)의 언어 간을 실시간 번역 또는 통역한 결과를 자막 또는 음성으로 제공할 수 있다. 실시간 통역은 통역 단말(미도시)이 더 포함될 수도 있고, 실시간 번역은 다양한 번역 프로그램을 이용할 수도 있으므로, 본 발명의 명세서에서 상세하게 기술하지는 않는다.The communication support unit 350, when the language of the at least one participant terminal 100 is different or the language of the host of the independent studio is different from the language of the at least one participant terminal 100, the language of the host of the independent studio and A result of real-time translation or interpretation between languages of at least one participant terminal 100 may be provided as subtitles or audio. Real-time interpretation may further include an interpretation terminal (not shown), and real-time translation may use various translation programs, so it will not be described in detail in the specification of the present invention.

한편, WebRTC 기반 비대면 행사 서비스 제공 시스템(1)에서, 독립 스튜디오는 가상(Virtual Reality)으로 구축된 가상 콘텐츠일 수 있고, HMD(600)는 적어도 하나의 참여자 및 적어도 하나의 진행자가 가상 콘텐츠 내에서 독립 스튜디오를 볼 수 있도록 가상 콘텐츠를 출력할 수 있다. 이때, 모션캡쳐수트(700)는 적어도 하나의 참여자 및 적어도 하나의 진행자의 모션을 캡쳐하여 기 설정된 3D 실사 캐릭터에 캡쳐된 모션을 입히도록 구비될 수 있다. 이때, 모션캡쳐는 인체가 동작하는 움직임을 즉시 또는 약간의 시간 차이를 두고 기록하는 작업을 말한다. 기록된 정보를 바탕으로 컴퓨터 캐릭터에게 대상체의 위치 정보를 전달하여 인체의 움직임을 그대로 컴퓨터 캐릭터로 나타낼 수 있도록 하는 작업을 말한다. 모션캡쳐를 이용하면 3D로 모델링한 캐릭터를 복잡한 수학 계산없이 자연스럽게 움직이게 할 수 있다. 이때, 모션캡쳐를 위한 방법은 기계적 방식, 자기장 방식 및 광학적 방식이 존재하는데, 본 발명의 일 실시예에서는 광학적 방식을 이용하도록 한다.On the other hand, in the WebRTC-based non-face-to-face event service providing system 1, the independent studio may be virtual content built in virtual reality, and the HMD 600 may include at least one participant and at least one moderator within the virtual content. You can output virtual content for viewing in independent studios. In this case, the motion capture suit 700 may be provided to capture the motions of at least one participant and at least one host to apply the captured motion to a preset 3D live-action character. At this time, motion capture refers to the operation of recording the movement of the human body immediately or with a slight time difference. It refers to the operation of transferring the position information of an object to a computer character based on recorded information so that the movement of the human body can be expressed as a computer character as it is. By using motion capture, a character modeled in 3D can move naturally without complicated mathematical calculations. At this time, there are a mechanical method, a magnetic field method, and an optical method for the motion capture method. In an embodiment of the present invention, an optical method is used.

여기서, 광학적 방식은, 적외선 카메라로 사람이나 사물에 부착된 광학적인 센서(반사구)인 마커(Marker)를 인식하는 방식인데, 본 발명의 일 실시예에서 광학적 방법을 이용하는 이유는 동작에 제약이 없으며, 실시간을 지원하기 때문이다. 광학적 방식의 모션 캡처 장비는 사용범위가 최소 가로 세로 6M 이상의 공간이 확보된 공간에서 사용되어야 하는데, 좁은 공간에서는 적외선 카메라의 각도로 인하여 참여자나 진행자에 부착된 마커가 적외선 카메라에 필요한 만큼 충분히 촬영되지 않으므로 데이터 생성이 어려워질 수도 있다. Here, the optical method is a method of recognizing a marker, which is an optical sensor (reflector) attached to a person or object with an infrared camera. The reason for using the optical method in an embodiment of the present invention is not limited in operation. , because it supports real-time. An optical motion capture device should be used in a space with a space of at least 6m in width and height. Therefore, data generation may become difficult.

광학적 방식으로 모션캡쳐를 하기 위해서는 초당 60~240프레임을 캡처하는 다양한 비디오 속도와 해상도를 가지며 초고해상도를 위한 일그러짐이나 왜곡 없는 스캐닝이 가능한 HiRES 카메라, Cube(입방체), Wand(봉), Calibration(교정, 눈금) 도구들이 요구될 수 있다. 이때, Cube는 3차원 좌표계에 절대좌표 구성을 위한 용도로 사용되며, 다음 단계인 Wand calibration을 위해서도 필수적인 도구이다. Wand는 카메라의 상대적 좌표 위치 및 원점 실제 초점 거리 주요점을 포함하는 내부적 요소를 결정한다. 즉 카메라의 3차원 캡쳐 범위를 설정하는 것이며, 캡처 대상의 크기에 맞는 다양한 Wand를 선택할 수 있다. For optical motion capture, HiRES camera, Cube, Wand, Calibration, which has various video speeds and resolutions that capture 60~240 frames per second, and can scan without distortion or distortion for ultra-high resolution. , scale) tools may be required. At this time, the Cube is used for the construction of absolute coordinates in the 3D coordinate system, and is an essential tool for the next step, Wand calibration. The wand determines the internal factors including the relative coordinate position of the camera and the origin actual focal length principal point. That is, it sets the 3D capture range of the camera, and various wands can be selected according to the size of the capture target.

또, 마커는 사람이나 동물의 움직임의 관절 부위에 센서 역할을 하는 작은 공 형태의 동전 형태 스티로폼이나 스펀지 등에, 적외선을 반사할 수 있는 물질을 부착한 것으로 본 발명의 일 실시예에서는, 모션캡쳐수트(700)에 부착되며 렌즈 주변의 적외선을 반사시켜 움직임이나 동작을 추적할 수 있게 해준다. 여기서, 모션캡쳐수트(700)는, 마커의 부착과 부착된 마커의 카메라 촬영에 용이하도록 고안된 모션 캡처 전용 복장이다. 신축성과 활동성이 좋고, 습기는 배출하고 호흡에도 편안하도록 디자인되었으며, 수트의 외부 표면은 마커를 붙이기 쉽도록 고착력 섬유로 이루어질 수 있으며, 내부에는 후술하겠지만 접촉 전달을 위하여 장의 융털과 같은 돌기와 진동 소자가 구비될 수 있다.In addition, the marker is a small ball-shaped coin-shaped styrofoam or sponge that acts as a sensor in the joint part of the movement of a person or an animal, and a material that can reflect infrared is attached. In one embodiment of the present invention, the motion capture suit It is attached to 700 and reflects infrared light around the lens, allowing it to track movement or motion. Here, the motion capture suit 700 is a motion capture-only outfit designed to facilitate the attachment of markers and camera shooting of the attached markers. It has good elasticity and activity, is designed to release moisture and is comfortable for breathing, and the outer surface of the suit can be made of high-adhesive fibers to make it easy to attach markers. may be provided.

그리고, 3D 실사 캐릭터가 필요한데, 이는 참여자나 진행자를 촬영한 2D 사진이나 영상으로부터 캐릭터를 3D 모델링한 결과일 수 있다. 3D 모델링을 하기 위해서는 일반적으로 3D 스캐너가 필요하지만, 각 참여자가 모두 3D 스캐너를 이용할 수 있는 기계를 집안에 보유하고 있는 것은 아니기 때문에 이를 모두 설치해준다거나 3D 스캐너를 사용하기 위하여 집 밖으로 나오라고 하는 것은 코로나 상황에서 적절치 않다. 이에 따라, 2D 이미지에서 3D 데이터 획득을 위한 알고리즘을 이용할 수 있는데, 개략적으로 2D 이미지를 이용하여 회색의 이미지로 변형한 뒤 엣지 검출 처리를 한다. 이는 이미지의 외각라인만을 위하여 3D 데이터를 만들기 위해 사용하고, 3D의 공간적인 면을 위해 앞면과 뒷면의 면을 생성하고 3D 이미지를 완성한다. 이하에서, 2D 이미지로 3D 실사 모델을 만드는 방법을 상세히 설명한다.In addition, a 3D live-action character is required, which may be the result of 3D modeling of a character from a 2D photo or video taken by a participant or a moderator. A 3D scanner is generally required for 3D modeling, but since each participant does not have a machine that can use a 3D scanner at home, installing them all or asking them to come out of the house to use the 3D scanner is not Not appropriate in the Corona situation. Accordingly, an algorithm for obtaining 3D data from a 2D image can be used, and an edge detection process is performed after schematically transforming the 2D image into a gray image. It is used to create 3D data for only the outer line of the image, and creates the front and back sides for the 3D spatial side and completes the 3D image. Hereinafter, a method of creating a 3D photorealistic model with a 2D image will be described in detail.

첫 번째 단계는 세그멘테이션(Segmentation) 단계이다. 2D 이미지에서 3차원 데이터로 변환하기 위한 첫번째 단계로 세그멘테이션 과정을 거치게 된다. 세그멘테이션(Segmentation)은 참여자 또는 진행자를 촬영한 2D 이미지에서 3D 모델로 변환 시 2D 이미지의 객체 영역을 찾아 그것을 이미지 배경 부분과 전경 부분을 분리하는 것이다. 이를 위하여, 이미지의 전경과 배경의 분리하는데, 단순한 모형의 전경과 배경의 분리는 비교적 단순한 방법에 의하여 분리가 가능하지만, 다소 복잡한 외곽선을 갖는 도형은 전경과 배경 분리 작업 시 다소 복잡한 연산이 필요하다. 전경과 배경을 분리하는 방법은 매우 다양한 방법이 있는데, 본 발명의 일 실시예에서는 에지(Edge)를 검출하고 Waterfront 알고리즘을 이용하여 영역을 검출하는 방법을 이용할 수 있다.The first step is a segmentation step. Segmentation is the first step to transform a 2D image into 3D data. Segmentation is to find the object area of the 2D image and separate it from the background part and the foreground part when converting from a 2D image taken by a participant or a moderator to a 3D model. To this end, the foreground and background of the image are separated. Separation of the foreground and background of a simple model can be separated by a relatively simple method, but a figure with a rather complicated outline requires a rather complicated operation when separating the foreground and background. . There are many different methods for separating the foreground and the background. In an embodiment of the present invention, a method of detecting an edge and detecting an area using a Waterfront algorithm may be used.

3D 모델링 제작을 위해 사용하는 2D 이미지는 전경 이미지 분리를 비교적 쉽게 하기 위하여 중심 도형의 외부에 여백이 있는이미지라고 가정한다. 만일 여백이 없는 경우에는 임의로 여백을 만들어 전경과 배경을 분리한다. 이런 가정 하에 배경 부분에는 정보가 없음으로 에지(Edge)를 검출하여 경계 영역을 검출하고자 한다. Edge Detection 기법은 데이터 크기를 줄이며, 의미없는 자료를 없애주고, 영상의 구조적 정보 보존 측면에 영상처리에 많이 사용되는 기법이다. 대부분의 에지추출 마스크는 잡음에 대해 민감하므로, 작은 잡음이라도 그것을 에지로 간주하여 추출하는 경우가 많다. 이러한 부분의 단점을 보완하기 위한 방법이 캐니 마스크를 이용한 에지추출기법으로 실제로 잡음에 민감하지 않게 하며 효과적인 에지추출을 할 수 있다. It is assumed that the 2D image used for 3D modeling is an image with a blank space outside the central figure in order to make it relatively easy to separate the foreground image. If there is no blank space, a blank space is randomly created to separate the foreground and the background. Under this assumption, since there is no information in the background part, an edge is detected to detect a boundary region. Edge Detection is a technique widely used in image processing in terms of reducing data size, removing meaningless data, and preserving structural information of images. Since most edge extraction masks are sensitive to noise, even a small noise is considered as an edge and extracted in many cases. The method to compensate for the shortcomings of this part is the edge extraction technique using the Canny mask, which makes it insensitive to noise and allows effective edge extraction.

Waterfront 알고리즘은 배경 이미지를 바다로 표현한다면 전경 이미지는 섬으로 간주될 수 있으며 바다와 섬 사이의 경계 부분을 검출하는 알고리즘이다. 예를 들어, 바닷물이 가로축과 세로축으로만 흐른다는 가정 하에 최상단에서부터 수평 오른쪽 방향과 수직 아래쪽 방향으로만 물이 흐를 때 에지(Edge)를 만나는 부분에서 물의 흐름이 멈추게 된다. 물이 지나가는 자리는 배경으로 분류한다. 다음은 배경이 아닌 최하단 위치를 찾아 수평 왼쪽 방향과 수직 방향으로 물이 흐를 때 에지를 만날 때까지 배경으로 분류한다. 여기까지를 한 사이클(Cycle)이라고 하고 더 이상 배경이 검출되지 않는 사이클이 되면 알고리즘이 종료된다. 여러 사이클을 거치는 동안 전경과 배경이 정확히 분류될 수 있다.If the background image is expressed as the sea, the waterfront algorithm can be regarded as an island, and the waterfront algorithm detects the boundary between the sea and the island. For example, assuming that seawater flows only in the horizontal and vertical axes, when water flows only in the horizontal right direction and the vertical downward direction from the top, the flow of water stops at the part where the edge meets. Areas where water passes are classified as backgrounds. Next, find the lowermost position, not the background, and classify it as the background until it meets the edge when water flows in the horizontal left and vertical directions. This is called one cycle, and the algorithm is terminated when the background is no longer detected. Foreground and background can be accurately classified over multiple cycles.

Waterfront 알고리즘을 이용하여 배경과 분리된 전경 영역은 전경영역 세그멘테이션 방법에 의해 라벨링을 한다. 이는 복잡한 도형을 3D 모델로 만들기 위해서는 비교적 단순한 모델의 조합에 의해 전체 3D 모델을 구성하기 위함이다. 전경영역 세그멘테이션은 Waterfront 알고리즘과 유사하다. 라벨링이 적용되지 않은 부분의 최상단 수평 우측 방향과 수직 우측 방향으로 이동 시 배경영역과 접점까지의 영역이 같은 라벨링 영역이 된다. 그 다음은 버텍스(Vertex)를 분배하는데, 같은 라벨별로 3D 모델을 각각 따로 작성하고 최종 모델은 이들을 조합하여 전체를 구성하게 된다. 이런 방법을 이용하면 복잡한 도형의 모델도 구성할 수 있다. 버텍스의 분배는 라벨링 영역을 일정한 구획으로 세분화를 한다. 예를 들어, 수평축을 기준으로 같은 수평 축에는 같은 개수의 버텍스를 할당할 수 있다. 영역이 작으면 버텍스의 간격이 작아지고 영역이 넓어지면 버텍스 간격도 벌이지게 된다. 같은 수평축에 할당되는 버텍스 수가 많아질수록 고해상도의 3D 모델이 된다.The foreground region separated from the background using the Waterfront algorithm is labeled by the foreground region segmentation method. This is to compose the entire 3D model by combining relatively simple models in order to make a complex figure into a 3D model. Foreground segmentation is similar to the Waterfront algorithm. When moving in the horizontal right direction and the vertical right direction at the top of the part to which no labeling is applied, the background area and the area to the contact point become the same labeling area. Next, the vertices are distributed. 3D models are created separately for each same label, and the final model is composed of the whole by combining them. Using this method, it is possible to construct a model of a complex figure. The distribution of vertices subdivides the labeling area into certain sections. For example, the same number of vertices may be allocated to the same horizontal axis with respect to the horizontal axis. When the region is small, the vertex spacing becomes smaller, and when the region is wide, the vertex spacing becomes wider. The higher the number of vertices allocated to the same horizontal axis, the higher the 3D model becomes.

같은 수평축에 같은 개수의 버텍스가 존재함으로 3개의 버텍스를 이용하여 일률적인 규칙에 따라 삼각면을 구성할 수 있다. 예를 들어, 얼굴 왼쪽 부분의 라인에 10개의 버텍스가 있다면, 얼굴 오른쪽 부분의 라인에도 10개의 버텍스를 할당할 수 있고, 일정한 룰에 따라 면을 구성할 수 있다. 이렇게 면까지 구성되는 경우, 3D 변환수식에 의해 앞뒷면이 설정될 수 있고, 버텍스 재조정 단계로 생성된 버텍스의 이미지 밝기 정보를 하이트맵(Hight Map)으로 사용하여 튀어나오는 정도를 조절할 수 있다. 물론, 상술한 방법 이외에도 3D 실사 캐릭터를 만들 수 있는 방법은 다양할 수 있고 상술한 방법에 한정되지 않으며 2D 사진 또는 영상으로부터 3D 실사 캐릭터를 만들 수 있는 방법이라면 그 어느 것이든 가능하다 할 것이다.Since the same number of vertices exist on the same horizontal axis, a triangular surface can be constructed according to a uniform rule using three vertices. For example, if there are 10 vertices in the line on the left side of the face, 10 vertices can also be assigned to the line on the right side of the face, and a face can be configured according to a certain rule. In this case, the front and back sides can be set by the 3D conversion formula, and the degree of protrusion can be adjusted by using the image brightness information of the vertices generated in the vertex readjustment step as a height map. Of course, in addition to the above-described method, methods for creating a 3D live-action character may vary and are not limited to the above-described method, and any method capable of creating a 3D live-action character from a 2D photo or image is possible.

이때, 모션캡쳐수트(700)는 그 내측에 융털과 같은 돌기가 형성되고, 기 설정된 간격으로 진동소자가 포함된 양방향 통신 기반 수트일 수 있다. 이에 따라, 접촉전달부(360)는, 가상 콘텐츠 상에서 적어도 하나의 참여자 및 적어도 하나의 진행자에 대응하는 3D 실사 캐릭터 간 접촉이 존재하는 경우, 접촉의 종류에 기 저장된 진동파형 및 진동세기로 돌기를 진동시킬 수 있다. 즉, 비대면 행사에서는 화상만으로 서로의 존재를 확인할 수 있을 뿐, 직접 만나서 악수를 한다거나 그 분위기를 느낄 수 있는 실재감이나 상호간의 접촉은 느낄 수 없다. 이때, 모션캡쳐수트(700)의 내피는, 내부 방향을 향하여 장의 융털 형상을 본 따서 만든 돌기들이 배치될 수 있다. 이때, 돌기와 내피 사이에는 기 설정된 간격으로 진동 소자가 배치되어 있다. 이에 따라, A 참여자의 캐릭터가 B 참여자의 캐릭터의 어깨를 두드리는 경우에는, 두드린 위치(어깨) 및 그 강도(속도 및 무게에 비례)에 기반하여 B 참여자의 모션캡쳐수트(700)의 어깨 부분의 진동 소자를 그 전압 및 전류로 진동하도록 하되, 어깨를 두드린 횟수는 진동 주기로 설정하여 A 참여자와 B 참여자가 직접 만나지 않은 경우에도 신체접촉에 의한 물리적 힘을 줄 수 있도록 구비될 수 있다. 만약, 진동 소자 외에 돌기 내에 공기압을 늘리는 방식으로 압력을 가하는 구성을 더 추가할 수도 있다. 예를 들어, A 참여자가 B 참여자와 악수를 했는데, A 참여자가 더 세게 움켜쥐었다면, B 참여자의 손가락 부분에 위치한 돌기에 공기압을 높게 하여 돌기가 부풀게 함으로써 결과적으로 B 참여자가 A 참여자의 악력을 느낄 수 있게 하는 것이다. 이때, 돌기는 고무나 라텍스 재질일 수 있으나 이에 한정되지는 않는다.In this case, the motion capture suit 700 may be a two-way communication-based suit in which a protrusion such as a villi is formed therein, and a vibrating element is included at a preset interval. Accordingly, when there is a contact between at least one participant and a 3D live-action character corresponding to at least one moderator on the virtual content, the contact transfer unit 360 protrudes to the vibration waveform and vibration intensity pre-stored in the type of contact. can vibrate. In other words, in a non-face-to-face event, you can only confirm the existence of each other only through video, but you cannot feel a sense of reality or mutual contact where you can meet and shake hands or feel the atmosphere. In this case, the endothelium of the motion capture suit 700 may have protrusions made to mimic the shape of the villi of the intestine toward the inner direction. At this time, the vibrating element is disposed at a predetermined interval between the protrusion and the endothelium. Accordingly, when participant A's character taps on the shoulder of participant B's character, based on the tapped position (shoulder) and its strength (proportional to speed and weight), the shoulder portion of participant B's motion capture suit 700 is The vibrating element is made to vibrate with the voltage and current, but the number of times the shoulder is tapped is set to the vibration cycle so that even when participant A and participant B do not meet directly, it may be provided to give physical force by body contact. If, in addition to the vibrating element, it is possible to further add a configuration for applying pressure in a manner of increasing the air pressure in the protrusion. For example, if Participant A shakes hands with Participant B, and Participant A grabs it tighter, the air pressure on the bumps located on Participant B's finger is increased to inflate the bumps. to make it feel In this case, the protrusion may be made of rubber or latex, but is not limited thereto.

카메라조종부(370)는, 적어도 하나의 카메라(500)의 상하좌우를 포함하는 적어도 하나의 종류의 움직임을 원격에서 제어하도록 채널을 형성할 수 있다. 이는 원격에서 카메라를 제어하는 다양한 프로그램이 이미 공지되어 있으므로 어느 하나의 프로그램에 한정하지 않고 실시예에 따라 다양한 프로그램이 사용될 수 있음은 자명하다 할 것이며, 여기에서 상세히 설명하지 않기로 한다.The camera control unit 370 may form a channel to remotely control at least one type of movement including up, down, left, and right of the at least one camera 500 . Since various programs for remotely controlling the camera are already known, it will be obvious that various programs may be used according to an embodiment without being limited to any one program, and will not be described in detail herein.

이때, 적어도 하나의 카메라(500)는 열화상 카메라(500)를 포함하고, 비말거리산출부(380)는, 열화상 카메라(500)를 통하여 적어도 하나의 진행자의 입으로부터 분비되는 침을 추출하고, 침이 추출된 거리 및 각도에 기반하여 각 진행자 간 최소거리를 제공할 수 있다. 사회적 거리두기를 한다면서 각 참여자는 온라인 화상으로 연결하지만 정작 진행자(사회자)들은 서로 가까이 앉아서 이야기를 하거나 진행을 하는 모습을 볼 수 있다. 방송이라는 특이한 상황으로 인하여 각 진행자들은 마스크를 쓸 수도 없는 상황이라서 서로 가까이 앉은 채 침을 튀기면서 이야기를 하는 모습을 볼 수 있는데 이는 진행자의 건강 뿐만 아니라 전 국민의 안전에도 바람직하지 않다. 이에 따라, 본 발명의 일 실시예에 따른 방법은 열화상 카메라로 침이 튀는 거리를 측정함으로써 서로 간의 떨어져 앉는 최소거리를 알려줄 수 있도록 하고 그 거리를 지켜 진행자가 서거나 앉을 수 있도록 한다.In this case, the at least one camera 500 includes a thermal imaging camera 500, and the droplet distance calculating unit 380 extracts saliva secreted from the mouth of the at least one host through the thermal imaging camera 500, , it is possible to provide the minimum distance between each facilitator based on the distance and angle from which the needle is extracted. While maintaining social distancing, each participant connects via online video, but the moderators (moderators) can be seen sitting close to each other and talking or conducting. Due to the unusual situation of broadcasting, each host cannot wear a mask, so you can see them sitting close to each other and talking while spitting, which is undesirable not only for the health of the host but also for the safety of all the people. Accordingly, in the method according to an embodiment of the present invention, the minimum distance to sit apart from each other can be informed by measuring the spitting distance with a thermal imaging camera, and the presenter can stand or sit by keeping the distance.

이때, 열화상 카메라는 적외선 이미지를 사용하여 물체 표면에서 발생하는 적외선을 감지함으로써 영상을 합성하는 기술이다. 열화상 카메라는 다양한 응용분야에 활용될 수 있으며, 열 데이터와 온도분포를 이용하여 물체의 비파괴 검사를 비롯하여, 딥러닝을 이용하여 영상의학에서도 활용이 가능하다. 적외선 서모그래피(Thermography) 기술은 비접촉식 온도 측정 방법으로, 적외선 이미지를 사용하여 적외선 전자기 스펙트럼의 영역에서 방사되는 강도를 측정하여 물체 표면에 열을 포착, 표시하고 기록하는 기술이다. 비접촉식 온도 측정 장치는, 미세한 표면의 온도를 측정하거나 움직이는 물체의 경우 또는 기존의 온도 측정 방법으로는 직접 접촉 할 수 없는 경우에 사용할 수 있다. 적외선을 이용하여 온도를 측정하는 가장 대표적인 장치는 고온측정기(Pyrometer)이며, 이 계측기는 한 지점의 온도만 측정할 수 있다. 반면에 적외선 또는 열화상 카메라는 한 지점의 온도뿐만 아니라 관심 영역(ROI, Region Of Interest) 영역 내에서 최고/최저 및 평균 온도를 측정하는 등 더 많은 정보를 얻을 수 있는 있다. 이때, 비말은 튀게 되면 사람 몸의 체온과 동일한 비말이 튀게 되므로 열화상 카메라에 잡히게 된다. 사람마다 침이 튀는 속도와 세기 또 양이 다르다. 이에 따라, 각 진행자마다 비말이 튀는 거리를 측정하고 그 거리만큼 진행자가 거리를 두게 할 수 있다.In this case, a thermal imaging camera is a technology for synthesizing images by detecting infrared rays generated from the surface of an object using an infrared image. Thermal imaging cameras can be used in a variety of applications, including non-destructive inspection of objects using thermal data and temperature distribution, as well as radiology using deep learning. Infrared thermography technology is a non-contact temperature measurement method that uses an infrared image to measure the intensity radiated in the infrared electromagnetic spectrum region to capture, display, and record heat on the surface of an object. A non-contact temperature measuring device can be used to measure the temperature of a fine surface, or in the case of a moving object, or when direct contact is not possible with conventional temperature measurement methods. The most representative device for measuring temperature using infrared is a pyrometer, which can measure the temperature of only one point. On the other hand, infrared or thermal imaging cameras can obtain more information, such as measuring the maximum/minimum and average temperature within a region of interest (ROI) as well as the temperature of a point. At this time, when the droplet is splashed, it is caught by the thermal imaging camera because the droplet is splashed with the same body temperature as the human body. The speed, intensity, and amount of salivation varies from person to person. Accordingly, it is possible to measure the distance at which the droplet bounces for each presenter, and allow the presenter to keep the distance by that distance.

기념품제공부(390)는, 적어도 하나의 참여자 단말(100)로부터 주소 정보를 수집하고, 수집된 주소 정보로 기 설정된 참가 기념품이 배송될 수 있도록 온라인 쇼핑몰에 배송요청 및 발주신청을 할 수 있다. 이때, 기념품제공부(390)는, 주소 정보를 각 참여자 단말(100)로부터 수집할 수 있으며, 온라인 쇼핑몰에 택배로 기념품 발주를 넣을 수 있다.The souvenir providing unit 390 may collect address information from at least one participant terminal 100 , and may request delivery and place an order request to the online shopping mall so that a preset participation souvenir can be delivered using the collected address information. In this case, the souvenir providing unit 390 may collect address information from each participant terminal 100 , and may place an order for souvenirs by courier in the online shopping mall.

데이터베이스화부(391)는, 비대면 행사의 기획, 디자인, 연출, 운영 및 결과보고를 포함하는 원스톱 프로세스를 구축할 수 있다. 각 파트별 직원 단말과 연동해두고 각기 다른 프로그램을 사용하더라도 하나의 플랫폼으로 통일시키는 클라우드 서비스를 이용할 수 있다. 예를 들어, Saas(Software as a Service), Iaas(Infrastructure as a Service)Saas(Software as a Service) 및 Paas(Platform as a Service) 중 어느 하나 또는 적어도 하나의 조합에 기반한 클라우드 서버를 이용할 수 있다. Iaas(Infrastructure as a Service)로 서버 운영에 필요한 서버자원, IP, Network, Storage, 전력 등 여러 인프라 자원을 탄력적이고 빠르게 제공할 수 있다. Iaas는 자원을 쉽게 추가하거나 제거할 수 있으며 운영체제를 제공하므로 친숙한 환경이 주어질 수 있다. Paas(Platform as a Service)로 서비스를 제공할 수 있는데, 안정적인 환경과 그 환경을 이용하는 응용 프로그램을 개발할 수 있는 API까지 제공하는 서비스이다. Paas는 간편하게 원시코드를 빌드 및 배포할 수 있으며 사용량에 따라 조정하기 용이하다. Saas(Software as a Service)는 클라우드 환경에서 동작하는 응용프로그램을 사용자에게 제공 하는 서비스이다. Saas는 인터넷 어디에서든 쉽게 이용할 수 있고, 웹브라우저만 있으면 어디서든 접근할 수 있다. The database conversion unit 391 may establish a one-stop process including planning, design, directing, operation, and result reporting of non-face-to-face events. It is possible to use the cloud service that is linked with the employee terminals for each part and unifies them into one platform even if different programs are used. For example, a cloud server based on any one or a combination of at least one of SaaS (Software as a Service), Iaas (Infrastructure as a Service) Saas (Software as a Service), and Paas (Platform as a Service) may be used. . With Iaas (Infrastructure as a Service), various infrastructure resources such as server resources, IP, network, storage, and power required for server operation can be provided flexibly and quickly. Iaas makes it easy to add or remove resources and provides an operating system so a friendly environment can be given. A service can be provided as Paas (Platform as a Service), and it is a service that provides a stable environment and an API for developing applications that use the environment. Paas makes it easy to build and deploy source code and is easy to adjust according to usage. SaaS (Software as a Service) is a service that provides users with applications running in the cloud environment. Saas can be easily accessed from anywhere on the Internet, and can be accessed from anywhere with a web browser.

이하, 상술한 도 2의 비대면 행사 서비스 제공 서버의 구성에 따른 동작 과정을 도 3을 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.Hereinafter, an operation process according to the configuration of the non-face-to-face event service providing server of FIG. 2 will be described in detail with reference to FIG. 3 as an example. However, it will be apparent that the embodiment is only one of various embodiments of the present invention and is not limited thereto.

도 3a를 참조하면, 코로나19가 장기화되면서 비대면 행사의 시대적 요구가 발생하고, 직접 오프라인 행사장에 참석하는 행사보다는 사회적 거리두기가 가능한 오라인 비대면 행사가 활성화될 가능성이 높다. 이에 따라, 도 3b 및 도 3c와 같이, 비대면 행사 플랫폼을 구축할 때, WebRTC를 이용하여 실시간 양방향 소통이 가능하도록 하고, 원스탑 플랫폼으로 기획, 초청, 조성, 기념품 등 행사의 모든 것을 하나의 플랫폼에서 수행할 수 있도록 한다. 도 3d를 보면 스튜디오는 오프라인 행사를 그대로 진행하되, 비대면 행사 플랫폼을 구축하여 하나의 플랫폼에서 서로 다른 업무가 연계되어 진행될 수 있도록 하며, 오프라인 스튜디오는 도 3e 내지 도 3j와 같이 구축될 수 있다. 물론, 이에 한정되는 것은 아니다. 도 3k와 같이 다양한 회의나 기념식, 시상식, 공연, 워크숍 및 기업행사에 이용될 수 있으며, 도 3l과 같은 효과를 얻을 수 있다. 이때, 도 4는 (a) 참가자와 진행자가 가상 스튜디오에서 3D 실사 캐릭터가 움직일 수 있도록 모션캡쳐수트(700)를 입고 HMD(600)를 쓰고 양방향 스트리밍 및 데이터 송수신을 하는 일 실시예를 도시한다. 여기서, 촉감을 위하여 (b)와 같은 융털모양의 돌기를 모션캡쳐수트(700) 내에 장착하여 비대면 사회적 거리두기 상황에서도 서로 악수를 하거나 포옹을 하는 등의 느낌을 전달할 수 있다.Referring to FIG. 3A , as Corona 19 prolongs, there is a demand for non-face-to-face events, and there is a high possibility that offline non-face-to-face events that allow social distancing will be activated rather than events that directly attend offline events. Accordingly, as shown in FIGS. 3B and 3C, when building a non-face-to-face event platform, real-time two-way communication is possible using WebRTC, and all events such as planning, invitation, composition, and souvenirs are all in one platform as a one-stop platform to be able to do it in Referring to FIG. 3D , the studio conducts the offline event as it is, but builds a non-face-to-face event platform so that different tasks can be linked and progressed on one platform, and the offline studio can be built as shown in FIGS. 3E to 3J . Of course, the present invention is not limited thereto. It can be used for various meetings, commemorative ceremonies, awards ceremony, performances, workshops, and corporate events as shown in FIG. 3K , and the same effect as in FIG. 3L can be obtained. At this time, FIG. 4 (a) shows an embodiment in which a participant and a moderator wear a motion capture suit 700 and an HMD 600 so that a 3D live-action character can move in a virtual studio, and two-way streaming and data transmission and reception. Here, for the tactile feeling, the villus-like protrusion as shown in (b) is mounted in the motion capture suit 700 to convey a feeling of shaking hands or hugging each other even in a non-face-to-face social distancing situation.

이와 같은 도 2 내지 도 4의 WebRTC 기반 비대면 행사 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 WebRTC 기반 비대면 행사 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.The matters not described for the WebRTC-based non-face-to-face event service providing method of FIGS. 2 to 4 are the same as those described for the WebRTC-based non-face-to-face event service providing method through FIG. 1 or easily from the described content. Since it can be inferred, the following description will be omitted.

도 5는 본 발명의 일 실시예에 따른 도 1의 WebRTC 기반 비대면 행사 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 5를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 5에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.FIG. 5 is a diagram illustrating a process in which data is transmitted/received between components included in the WebRTC-based non-face-to-face event service providing system of FIG. 1 according to an embodiment of the present invention. Hereinafter, an example of a process in which data is transmitted and received between each component will be described with reference to FIG. 5, but the present application is not limited to such an embodiment, and the example shown in FIG. 5 according to various embodiments described above will be described. It is apparent to those skilled in the art that the data transmission/reception process may be changed.

도 5를 참조하면, 비대면 행사 서비스 제공 서버는, 적어도 하나의 참여자 단말로 참여요청 메세지를 적어도 하나의 종류의 매체를 이용하여 전달한다(S5100). 그리고, 비대면 행사 서비스 제공 서버는, 적어도 하나의 참여자 단말과 독립 스튜디오에 설치된 적어도 하나의 디스플레이를 일대일로 매핑하여 저장한다(S5200).Referring to FIG. 5 , the non-face-to-face event service providing server transmits a participation request message to at least one participant terminal using at least one type of medium (S5100). In addition, the non-face-to-face event service providing server stores the one-to-one mapping between at least one participant terminal and at least one display installed in an independent studio (S5200).

비대면 행사 서비스 제공 서버는, 적어도 하나의 참여자 단말의 영상을 WebRTC(Web Real-Time Communication) 기반으로 실시간으로 수신하여 적어도 하나의 디스플레이에 출력하도록 제어하고(S5300), 적어도 하나의 카메라로 촬영된 영상을 적어도 하나의 참여자 단말로 WebRTC 기반으로 전송한다(S5400).The non-face-to-face event service providing server receives the video of at least one participant terminal in real time based on WebRTC (Web Real-Time Communication) and controls to output it on at least one display (S5300), The video is transmitted to at least one participant terminal based on WebRTC (S5400).

상술한 단계들(S5100~S5400)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S5100~S5400)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.The order between the above-described steps ( S5100 to S5400 ) is merely an example and is not limited thereto. That is, the order between the above-described steps ( S5100 to S5400 ) may be mutually changed, and some of these steps may be simultaneously executed or deleted.

이와 같은 도 5의 WebRTC 기반 비대면 행사 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 WebRTC 기반 비대면 행사 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters not described for the WebRTC-based non-face-to-face event service providing method of FIG. 5 are the same as those described for the WebRTC-based non-face-to-face event service providing method through FIGS. 1 to 4 or easily from the described content Since it can be inferred, the following description will be omitted.

도 5를 통해 설명된 일 실시예에 따른 WebRTC 기반 비대면 행사 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The WebRTC-based non-face-to-face event service providing method according to the embodiment described with reference to FIG. 5 may also be implemented in the form of a recording medium including instructions executable by a computer, such as an application or program module executed by a computer. have. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer-readable media may include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 일 실시예에 따른 WebRTC 기반 비대면 행사 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 WebRTC 기반 비대면 행사 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The WebRTC-based non-face-to-face event service providing method according to an embodiment of the present invention described above is to be executed by an application basically installed in a terminal (which may include a program included in a platform or operating system, etc. basically installed in the terminal). Also, it may be executed by an application (ie, a program) installed directly in the master terminal by a user through an application providing server such as an application store server, an application, or a web server related to the corresponding service. In this sense, the method for providing a WebRTC-based non-face-to-face event service according to an embodiment of the present invention described above is implemented as an application (ie, program) installed basically in a terminal or directly installed by a user and read by a computer such as a terminal It can be recorded on a recordable medium.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

Claims (10)

비대면 행사에 참여하고 실시간으로 참여자를 촬영하여 전송하고, 독립 스튜디오에서 촬영된 스튜디오 영상을 실시간으로 수신하여 출력하는 적어도 하나의 참여자 단말;
상기 적어도 하나의 참여자 단말에서 수신된 영상을 일대일로 출력하도록 구비된 적어도 하나의 디스플레이;
상기 독립 스튜디오에서 비대면 행사 진행자를 촬영하는 적어도 하나의 카메라; 및
상기 적어도 하나의 참여자 단말로 참여요청 메세지를 적어도 하나의 종류의 매체를 이용하여 전달하는 참여요청부, 상기 적어도 하나의 참여자 단말과 상기 적어도 하나의 디스플레이를 일대일로 매핑하여 저장하는 저장부, 상기 적어도 하나의 참여자 단말의 영상을 WebRTC(Web Real-Time Communication) 기반으로 실시간으로 수신하여 상기 적어도 하나의 디스플레이에 출력하도록 제어하는 제어부 및 상기 적어도 하나의 카메라로 촬영된 영상을 상기 적어도 하나의 참여자 단말로 상기 WebRTC 기반으로 전송하는 전송부를 포함하는 비대면 행사 서비스 제공 서버;
를 포함하는 WebRTC 기반 비대면 행사 서비스 제공 시스템.
at least one participant terminal participating in a non-face-to-face event, photographing and transmitting participants in real time, and receiving and outputting studio images shot in an independent studio in real time;
at least one display provided to output the image received from the at least one participant terminal on a one-to-one basis;
at least one camera for photographing a non-face-to-face event host in the independent studio; and
A participation request unit for transmitting a participation request message to the at least one participant terminal using at least one type of medium, a storage unit for storing the one-to-one mapping between the at least one participant terminal and the at least one display; A control unit that receives an image of one participant terminal in real time based on Web Real-Time Communication (WebRTC) and controls it to be output to the at least one display, and an image captured by the at least one camera to the at least one participant terminal a non-face-to-face event service providing server including a transmission unit for transmitting the WebRTC-based service;
WebRTC-based non-face-to-face event service provision system that includes.
제 1 항에 있어서,
상기 비대면 행사 서비스 제공 서버는,
상기 적어도 하나의 참여자 단말의 언어가 서로 다르거나 상기 독립 스튜디오의 진행자의 언어와 상기 적어도 하나의 참여자 단말의 언어가 서로 다른 경우, 상기 독립 스튜디오의 진행자의 언어 및 상기 적어도 하나의 참여자 단말의 언어 간을 실시간 번역 또는 통역한 결과를 자막 또는 음성으로 제공하는 소통지원부;
를 더 포함하는 것을 특징으로 하는 WebRTC 기반 비대면 행사 서비스 제공 시스템.
The method of claim 1,
The non-face-to-face event service providing server,
When the language of the at least one participant terminal is different or the language of the moderator of the independent studio and the language of the at least one participant terminal are different from each other, the language of the moderator of the independent studio and the language of the at least one participant terminal are different a communication support unit that provides real-time translation or interpretation results in subtitles or voice;
WebRTC-based non-face-to-face event service providing system, characterized in that it further comprises.
제 1 항에 있어서,
상기 독립 스튜디오는 가상(Virtual Reality)으로 구축된 가상 콘텐츠이고,
상기 WebRTC 기반 비대면 행사 서비스 제공 시스템은,
상기 적어도 하나의 참여자 및 적어도 하나의 진행자가 상기 가상 콘텐츠 내에서 상기 독립 스튜디오를 볼 수 있는 HMD;
를 더 포함하는 것을 특징으로 하는 WebRTC 기반 비대면 행사 서비스 제공 시스템.
The method of claim 1,
The independent studio is virtual content built in virtual reality,
The WebRTC-based non-face-to-face event service providing system,
an HMD through which the at least one participant and at least one presenter can view the independent studio within the virtual content;
WebRTC-based non-face-to-face event service providing system, characterized in that it further comprises.
제 1 항에 있어서,
상기 독립 스튜디오는 가상(Virtual Reality)으로 구축된 가상 콘텐츠이고,
상기 WebRTC 기반 비대면 행사 서비스 제공 시스템은,
상기 적어도 하나의 참여자 및 적어도 하나의 진행자의 모션을 캡쳐하여 기 설정된 3D 실사 캐릭터에 상기 캡쳐된 모션을 입히도록 구비된 모션캡쳐수트(Motion Capture Suit);
를 더 포함하는 것을 특징으로 하는 WebRTC 기반 비대면 행사 서비스 제공 시스템.
The method of claim 1,
The independent studio is virtual content built in virtual reality,
The WebRTC-based non-face-to-face event service providing system,
a motion capture suit (Motion Capture Suit) provided to capture the motions of the at least one participant and the at least one host and apply the captured motion to a preset 3D live-action character;
WebRTC-based non-face-to-face event service providing system, characterized in that it further comprises.
제 4 항에 있어서,
상기 모션캡쳐수트는 그 내측에 융털과 같은 돌기가 형성되고, 기 설정된 간격으로 진동소자가 포함된 양방향 통신 기반 수트이고,
상기 비대면 행사 서비스 제공 서버는,
상기 가상 콘텐츠 상에서 상기 적어도 하나의 참여자 및 적어도 하나의 진행자에 대응하는 3D 실사 캐릭터 간 접촉이 존재하는 경우, 상기 접촉의 종류에 기 저장된 진동파형 및 진동세기로 상기 돌기를 진동시키는 접촉전달부;
를 더 포함하는 것을 특징으로 하는 WebRTC 기반 비대면 행사 서비스 제공 시스템.
5. The method of claim 4,
The motion capture suit is a two-way communication-based suit in which protrusions such as villi are formed on the inside, and vibration elements are included at preset intervals,
The non-face-to-face event service providing server,
a contact transmission unit that vibrates the protrusion with a vibration waveform and vibration intensity pre-stored in the type of contact when there is a contact between the at least one participant and the 3D live-action character corresponding to the at least one moderator on the virtual content;
WebRTC-based non-face-to-face event service providing system, characterized in that it further comprises.
제 1 항에 있어서,
상기 비대면 행사 서비스 제공 서버는,
상기 적어도 하나의 카메라의 상하좌우를 포함하는 적어도 하나의 종류의 움직임을 원격에서 제어하도록 채널을 형성하는 카메라조종부;
를 더 포함하는 것을 특징으로 하는 WebRTC 기반 비대면 행사 서비스 제공 시스템.
The method of claim 1,
The non-face-to-face event service providing server,
a camera control unit forming a channel to remotely control at least one type of movement including up, down, left and right of the at least one camera;
WebRTC-based non-face-to-face event service providing system, characterized in that it further comprises.
제 1 항에 있어서,
상기 적어도 하나의 카메라는 열화상 카메라를 포함하고,
상기 비대면 행사 서비스 제공 서버는,
상기 열화상 카메라를 통하여 상기 적어도 하나의 진행자의 입으로부터 분비되는 침을 추출하고, 상기 침이 추출된 거리 및 각도에 기반하여 각 진행자 간 최소거리를 제공하는 비말거리산출부;
를 더 포함하는 것을 특징으로 하는 WebRTC 기반 비대면 행사 서비스 제공 시스템.
The method of claim 1,
the at least one camera comprises a thermal imaging camera;
The non-face-to-face event service providing server,
a droplet distance calculator extracting saliva secreted from the mouth of the at least one host through the thermal imaging camera, and providing a minimum distance between each host based on the distance and angle from which the saliva is extracted;
WebRTC-based non-face-to-face event service providing system, characterized in that it further comprises.
제 1 항에 있어서,
상기 비대면 행사 서비스 제공 서버는,
상기 적어도 하나의 참여자 단말로부터 주소 정보를 수집하고, 상기 수집된 주소 정보로 기 설정된 참가 기념품이 배송될 수 있도록 온라인 쇼핑몰에 배송요청 및 발주신청을 하는 기념품제공부;
를 더 포함하는 것을 특징으로 하는 WebRTC 기반 비대면 행사 서비스 제공 시스템.
The method of claim 1,
The non-face-to-face event service providing server,
a souvenir providing unit that collects address information from the at least one participant terminal and makes a delivery request and order request to the online shopping mall so that a preset participation souvenir can be delivered to the collected address information;
WebRTC-based non-face-to-face event service providing system, characterized in that it further comprises.
제 1 항에 있어서,
상기 비대면 행사 서비스 제공 서버는,
상기 비대면 행사의 기획, 디자인, 연출, 운영 및 결과보고를 포함하는 원스톱 프로세스를 구축하는 데이터베이스화부;
를 더 포함하는 것을 특징으로 하는 WebRTC 기반 비대면 행사 서비스 제공 시스템.
The method of claim 1,
The non-face-to-face event service providing server,
a database conversion unit for establishing a one-stop process including planning, design, directing, operation and result reporting of the non-face-to-face event;
WebRTC-based non-face-to-face event service providing system, characterized in that it further comprises.
비대면 행사 서비스 제공 서버에서 실행되는 비대면 행사 서비스 제공 방법에 있어서,
적어도 하나의 참여자 단말로 참여요청 메세지를 적어도 하나의 종류의 매체를 이용하여 전달하는 단계;
상기 적어도 하나의 참여자 단말과 독립 스튜디오에 설치된 적어도 하나의 디스플레이를 일대일로 매핑하여 저장하는 단계;
상기 적어도 하나의 참여자 단말의 영상을 WebRTC(Web Real-Time Communication) 기반으로 실시간으로 수신하여 상기 적어도 하나의 디스플레이에 출력하도록 제어하는 단계; 및
상기 적어도 하나의 카메라로 촬영된 영상을 상기 적어도 하나의 참여자 단말로 상기 WebRTC 기반으로 전송하는 단계;
를 포함하는 WebRTC 기반 비대면 행사 서비스 제공 방법.
In the non-face-to-face event service providing method executed in the non-face-to-face event service providing server,
transmitting a participation request message to at least one participant terminal using at least one type of medium;
storing the one-to-one mapping between the at least one participant terminal and at least one display installed in an independent studio;
receiving the video of the at least one participant terminal in real time based on Web Real-Time Communication (WebRTC) and controlling the video to be output to the at least one display; and
transmitting the image captured by the at least one camera to the at least one participant terminal based on the WebRTC;
A method of providing WebRTC-based non-face-to-face event services, including
KR1020200081699A 2020-07-02 2020-07-02 System and method for web real-time communication based uncontact event service KR20220004859A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200081699A KR20220004859A (en) 2020-07-02 2020-07-02 System and method for web real-time communication based uncontact event service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200081699A KR20220004859A (en) 2020-07-02 2020-07-02 System and method for web real-time communication based uncontact event service

Publications (1)

Publication Number Publication Date
KR20220004859A true KR20220004859A (en) 2022-01-12

Family

ID=79339579

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200081699A KR20220004859A (en) 2020-07-02 2020-07-02 System and method for web real-time communication based uncontact event service

Country Status (1)

Country Link
KR (1) KR20220004859A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230173358A (en) 2022-06-17 2023-12-27 (주)아비요리퍼블릭 Electronic Voting Method using WebRTC

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230173358A (en) 2022-06-17 2023-12-27 (주)아비요리퍼블릭 Electronic Voting Method using WebRTC

Similar Documents

Publication Publication Date Title
US11348480B2 (en) Augmented reality panorama systems and methods
Bastug et al. Toward interconnected virtual reality: Opportunities, challenges, and enablers
US10380762B2 (en) Real-time remote collaboration and virtual presence using simultaneous localization and mapping to construct a 3D model and update a scene based on sparse data
KR102363364B1 (en) Method and system for interactive transmission of panoramic video
US10089785B2 (en) Real-time immersive mediated reality experiences
RU2621644C2 (en) World of mass simultaneous remote digital presence
CN112243583B (en) Multi-endpoint mixed reality conference
CN115766640A (en) Content collection navigation and automatic forwarding
US10499066B2 (en) Method and apparatus for improving efficiency of content delivery based on consumption data relative to spatial data
JP2018505462A (en) Avatar selection mechanism
KR102221909B1 (en) System for real-time interactive video conferencing based cooperative service for non face-to-face business
Han Mobile immersive computing: Research challenges and the road ahead
US9148463B2 (en) Methods and systems for improving error resilience in video delivery
CN105830429A (en) Handling video frames compromised by camera motion
Wong et al. 360-degree video bandwidth reduction: Technique and approaches comprehensive review
JP2015213277A (en) Encoding method and encoding program
KR20220004859A (en) System and method for web real-time communication based uncontact event service
Huang et al. A survey on video streaming for next-generation vehicular networks
Chuang et al. The implementation of interactive VR application and caching strategy design on mobile edge computing (MEC)
KR20170127354A (en) Apparatus and method for providing video conversation using face conversion based on facial motion capture
CN103389849A (en) Image presentation method and system based on mobile terminal and mobile terminal
KR101481103B1 (en) System of supplying fusion contents multimedia with image based for user participating
US20230394878A1 (en) Program, information processing device, and method
WO2022259223A1 (en) Orientation control of display device based on content
JP2006004190A (en) Chat service system for cellular phone

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right