KR20230142193A - Providing system of total media for interactive exhibition environment - Google Patents

Providing system of total media for interactive exhibition environment Download PDF

Info

Publication number
KR20230142193A
KR20230142193A KR1020220041131A KR20220041131A KR20230142193A KR 20230142193 A KR20230142193 A KR 20230142193A KR 1020220041131 A KR1020220041131 A KR 1020220041131A KR 20220041131 A KR20220041131 A KR 20220041131A KR 20230142193 A KR20230142193 A KR 20230142193A
Authority
KR
South Korea
Prior art keywords
platform
sensor
network
integrated
graphic
Prior art date
Application number
KR1020220041131A
Other languages
Korean (ko)
Inventor
윤상보
정우성
Original Assignee
주식회사 푸름엘엔티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 푸름엘엔티 filed Critical 주식회사 푸름엘엔티
Priority to KR1020220041131A priority Critical patent/KR20230142193A/en
Publication of KR20230142193A publication Critical patent/KR20230142193A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Social Psychology (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 인터렉티브 전시환경을 위한 통합 미디어 제공시스템에 관한 것으로서, 다양한 센서디바이스와 연결되기 위한 센서플랫폼을 제공하며 상기 센서디바이스로부터 입력되는 데이터를 통합메시지로 변환하여 네트워크로 전송하는 센서디바이스 입력부; 다양한 디스플레이 디바이스와 연결되기 위한 그래픽플랫폼을 제공하며 상기 네트워크를 통해 입력되는 상기 통합메시지를 상기 디스플레이 디바이스의 고유데이터로 변환하여 출력하는 그래픽 디스플레이부; 상기 네트워크에 접속되어 상기 센서디바이스 입력부에서 전송되는 상기 통합메시지를 상기 그래픽 디스플레이부로 전달하는 미디어서버;를 포함하는 것을 특징으로 한다.
본 발명에 따르면, 인터렉티브 전시환경을 구축하기 위한 기능들을 통신기반으로 모듈화하여 분산 컴퓨팅환경을 제공함으로써 유연하게 추가하고 결합될 수 있도록 하여 재사용성 및 확장성으로 다양한 요구사항과 수정사항을 반영하여 전시환경을 용이하게 구축할 수 있다.
The present invention relates to an integrated media provision system for an interactive exhibition environment, which includes a sensor device input unit that provides a sensor platform for connection with various sensor devices and converts data input from the sensor devices into an integrated message and transmits it to a network; a graphic display unit that provides a graphic platform for connection to various display devices and converts the integrated message input through the network into unique data of the display device and outputs it; and a media server connected to the network and transmitting the integrated message transmitted from the sensor device input unit to the graphic display unit.
According to the present invention, the functions for building an interactive exhibition environment are modularized based on communication to provide a distributed computing environment so that they can be flexibly added and combined, enabling exhibitions to reflect various requirements and modifications through reusability and expandability. The environment can be easily established.

Description

인터렉티브 전시환경을 위한 통합 미디어 제공시스템{PROVIDING SYSTEM OF TOTAL MEDIA FOR INTERACTIVE EXHIBITION ENVIRONMENT}Integrated media provision system for interactive exhibition environment {PROVIDING SYSTEM OF TOTAL MEDIA FOR INTERACTIVE EXHIBITION ENVIRONMENT}

본 발명은 인터렉티브 전시환경을 위한 통합 미디어 제공시스템에 관한 것으로서, 더욱 상세하게는 인터렉티브 전시환경을 구축하기 위한 기능들을 통신기반으로 모듈화하여 분산 컴퓨팅환경을 제공함으로써 유연하게 추가하고 결합될 수 있도록 하여 재사용성 및 확장성으로 다양한 요구사항과 수정사항을 반영하여 전시환경을 용이하게 구축할 수 있도록 한 인터렉티브 전시환경을 위한 통합 미디어 제공시스템에 관한 것이다.The present invention relates to an integrated media provision system for an interactive exhibition environment. More specifically, the functions for building an interactive exhibition environment are modularized based on communication to provide a distributed computing environment so that they can be flexibly added and combined for reuse. This is about an integrated media provision system for an interactive exhibition environment that allows easy construction of an exhibition environment by reflecting various requirements and modifications through flexibility and scalability.

일반적으로 전시환경에서 인터렉티브 미디어 시스템을 개발하기 위해서는 전시공간과 기획의도에 따라 각종 기기들을 결합하여 적절한 하드웨어 시스템을 설계, 제작하고 다양한 입력인터페이스에 반응하는 2D, 3D 그래픽스로 표현되는 디지털콘텐츠를 구축된 시스템에 맞게 개발하는 것이다.In general, in order to develop an interactive media system in an exhibition environment, design and manufacture an appropriate hardware system by combining various devices according to the exhibition space and planning intention, and build digital content expressed in 2D and 3D graphics that respond to various input interfaces. It is developed to fit the existing system.

이러한 방법으로 개발된 인터렉티브 전시용 어플리케이션은 특정한 하드웨어와 플랫폼으로 구성된 시스템에서만 작동되기 때문에 입력디바이스 및 디스플레이장치를 추가하거나 변경할 경우, 수정개발이 쉽지 않다.Because interactive exhibition applications developed in this way only operate on systems composed of specific hardware and platforms, it is not easy to modify or develop them when adding or changing input devices and display devices.

또한, 새로운 인터렉티브 미디어 전시 콘텐츠를 개발할 때, 기존에 개발된 모듈들은 특정 시스템에만 국한하여 구동되기 때문에 재사용이 용이 하지 않아 개발효율이 떨어지는 문제가 있어 다양한 디바이스와 다양한 플랫폼이 적용된 통합적 개발에 어려움이 있다.In addition, when developing new interactive media exhibition contents, previously developed modules are limited to specific systems, so they are not easy to reuse, which reduces development efficiency, making integrated development using various devices and platforms difficult. .

인터렉티브 전시산업 분야에서는 주로 이러한 맞춤형 제작 시스템에 의존하기 때문에 다양한 요구사항에 유연하고 신속하게 구축될 수 있는 효율적인 개발 프레임 제공장치가 필요한 실정에 있다.Since the interactive exhibition industry mainly relies on these customized production systems, there is a need for an efficient development frame provider that can be built flexibly and quickly to meet various requirements.

인터렉티브 콘텐츠 개발을 위한 전시 저작용 솔루션의 유사한 사례로는 공연, 이벤트 등에 활용되는 쇼 컨트롤러 프리젠테이션 시스템이 있다.A similar example of an exhibition authoring solution for interactive content development is the show controller presentation system used for performances, events, etc.

이것은 주로 기본적인 센서입력 및 이미지, 영상 등의 리소스 들을 활용하여 영상 프리젠테이션을 할 수 있는 GUI(Graphic User Interface) 기반 저작도구이다. 그러나, SDK(Software Development Kit) 형태의 프레임 제공장치가 아니라 GUI 기반의 플레이어로 제작되었기 때문에, 다양한 콘텐츠 시나리오와 각종 하드웨어 시스템에 부합하기에는 기술적인 구현의 제약이 많으며 응용개발에 한계가 있다.This is a GUI (Graphic User Interface)-based authoring tool that allows video presentations using resources such as basic sensor input and images and videos. However, because it was produced as a GUI-based player rather than a frame providing device in the form of an SDK (Software Development Kit), there are many technical implementation limitations to suit various content scenarios and various hardware systems, and there are limits to application development.

그밖에도 멀티디스플레이용 영상솔루션 분야에서 외부 기기의 인터페이스 입력을 도입하는 움직임이 있으나 네트워크 등을 통한 간단한 트리거 입력신호 전송에 멈추고 있으며, 멀티디스플레이라는 특정한 하드웨어 구성의용도로 주로 사용된다.In addition, in the field of video solutions for multi-displays, there is a movement to introduce interface input from external devices, but it is limited to transmitting simple trigger input signals through networks, etc., and is mainly used for the purpose of specific hardware configuration called multi-display.

이와 같은 전시 저작용 솔루션은 GUI기반의 플레이어 형태로 제작이 되고 있어 그 사용성면에서 플랫폼 통합이 이루어지지 않아 외부기기 적용에 한계가 있거나, 혹은 SDK(Software Development Kit)기반이 아니기 때문에 다양한 형식과 기능 등의 요구사항에 맞게 사용하기가 쉽지 않아 활용도가 낮다는 문제점이 있다.This exhibition authoring solution is produced in the form of a GUI-based player, so in terms of usability, there is no platform integration, so there is a limit to the application to external devices, or it is not based on an SDK (Software Development Kit), so it has various formats and functions. There is a problem of low utilization because it is not easy to use in accordance with the requirements.

대한민국 등록특허공보 제10-12202316호Republic of Korea Patent Publication No. 10-12202316

본 발명은 상술한 종래의 문제점을 해소 및 이를 감안하여 안출된 것으로서, 인터렉티브 전시환경을 구축하기 위한 기능들을 통신기반으로 모듈화하여 분산 컴퓨팅환경을 제공함으로써 유연하게 추가하고 결합될 수 있도록 하여 재사용성 및 확장성으로 다양한 요구사항과 수정사항을 반영하여 전시환경을 용이하게 구축할 수 있도록 한 인터렉티브 전시환경을 위한 통합 미디어 제공시스템을 제공하는데 그 목적이 있다.The present invention was developed in consideration of and to solve the above-mentioned conventional problems, and provides a distributed computing environment by modularizing the functions for building an interactive exhibition environment based on communication, allowing them to be flexibly added and combined, thereby improving reusability and The purpose is to provide an integrated media provision system for an interactive exhibition environment that can easily build an exhibition environment by reflecting various requirements and modifications through expandability.

상기의 목적을 달성하기 위한 본 발명에 따른 인터렉티브 전시환경을 위한 통합 미디어 제공시스템은, 다양한 센서디바이스와 연결되기 위한 센서플랫폼을 제공하며 상기 센서디바이스로부터 입력되는 데이터를 통합메시지로 변환하여 네트워크로 전송하는 센서디바이스 입력부; 다양한 디스플레이 디바이스와 연결되기 위한 그래픽플랫폼을 제공하며 상기 네트워크를 통해 입력되는 상기 통합메시지를 상기 디스플레이 디바이스의 고유데이터로 변환하여 출력하는 그래픽 디스플레이부; 상기 네트워크에 접속되어 상기 센서디바이스 입력부에서 전송되는 상기 통합메시지를 상기 그래픽 디스플레이부로 전달하는 미디어서버;를 포함하는 것을 특징으로 한다.To achieve the above object, the integrated media provision system for an interactive exhibition environment according to the present invention provides a sensor platform for connection with various sensor devices, converts data input from the sensor devices into an integrated message, and transmits it to the network. A sensor device input unit; a graphic display unit that provides a graphic platform for connection to various display devices and converts the integrated message input through the network into unique data of the display device and outputs it; and a media server connected to the network and transmitting the integrated message transmitted from the sensor device input unit to the graphic display unit.

일 유형에 따르면, 상기 센서플랫폼은 비전센서로부터 입력된 데이터를 기반으로 제스처를 인식하기 위한 제스쳐 인식 플랫폼, NUI센서를 이용한 자연스러운 사용자 인식을 위한 NUI(Natural User Interface) 플랫폼, 스마트폰을 포함하는 모바일 기기에서 입력되는 미디어를 처리하여 입력받는 모바일 플랫폼을 포함하고, 상기 그래픽플랫폼은 2D 그래픽을 제공하기 위한 2D그래픽 플랫폼, 복잡한 3차원 효과를 제공하는 비쥬얼 이펙트 플랫폼, 물리적인 인터랙션을 재현하는 물리기반 엔진 플랫폼, 3D 콘텐츠제작을 위한 3D그래픽 플랫폼을 포함하는 것을 특징으로 한다.According to one type, the sensor platform is a gesture recognition platform for recognizing gestures based on data input from a vision sensor, a NUI (Natural User Interface) platform for natural user recognition using a NUI sensor, and a mobile device including a smartphone. It includes a mobile platform that processes and receives media input from the device, and the graphics platform includes a 2D graphics platform for providing 2D graphics, a visual effect platform for providing complex 3D effects, and a physics-based engine for reproducing physical interactions. The platform is characterized by including a 3D graphics platform for 3D content production.

일 유형에 따르면, 상기 그래픽 디스플레이부와 상기 센서디바이스 입력부는 P2P 방식으로 연결되어 상기 통합메시지를 송수신하고, 상기 네트워크는 유선 로컬 네트워크, Wi-Fi 무선네트워크 및 블루투스 중 어느 하나 이상을 포함하며, 상기 센서플랫폼과 상기 그래픽플랫폼은 플러그-앤-플레이 형식을 지원하는 것을 특징으로 한다.According to one type, the graphic display unit and the sensor device input unit are connected in a P2P manner to transmit and receive the integrated message, and the network includes one or more of a wired local network, a Wi-Fi wireless network, and Bluetooth, The sensor platform and the graphic platform are characterized by supporting a plug-and-play format.

본 발명에 따르면, 인터렉티브 전시환경을 구축하기 위한 기능들을 통신기반으로 모듈화하여 분산 컴퓨팅환경을 제공함으로써 유연하게 추가하고 결합될 수 있도록 하여 재사용성 및 확장성으로 다양한 요구사항과 수정사항을 반영하여 전시환경을 용이하게 구축할 수 있는 인터렉티브 전시환경을 위한 통합 미디어 제공시스템을 제공할 수 있다.According to the present invention, the functions for building an interactive exhibition environment are modularized based on communication to provide a distributed computing environment so that they can be flexibly added and combined, enabling exhibitions to reflect various requirements and modifications through reusability and expandability. It is possible to provide an integrated media provision system for an interactive exhibition environment that can be easily constructed.

도 1은 본 발명의 실시예에 따른 인터렉티브 전시환경을 위한 통합 미디어 제공시스템을 나타낸 구성도이다.
도 2는 본 발명의 실시예에 따른 인터렉티브 전시환경을 위한 통합 미디어 제공시스템을 나타낸 상세 구성도이다.
도 3은 본 발명의 실시예에 따른 인터렉티브 전시환경을 위한 통합 미디어 제공시스템을 통한 전시환경을 나타낸 일 예시도이다.
Figure 1 is a configuration diagram showing an integrated media provision system for an interactive exhibition environment according to an embodiment of the present invention.
Figure 2 is a detailed configuration diagram showing an integrated media provision system for an interactive exhibition environment according to an embodiment of the present invention.
Figure 3 is an example diagram showing an exhibition environment through an integrated media provision system for an interactive exhibition environment according to an embodiment of the present invention.

본 발명에 대해 첨부한 도면을 참조하여 바람직한 실시예를 설명하면 다음과 같으며, 이와 같은 상세한 설명을 통해서 본 발명의 목적과 구성 및 그에 따른 특징들을 보다 잘 이해할 수 있게 될 것이다.Preferred embodiments of the present invention will be described with reference to the accompanying drawings as follows. Through this detailed description, the purpose and configuration of the present invention and its characteristics will be better understood.

본 발명의 실시예에 따른 인터렉티브 전시환경을 위한 통합 미디어 제공시스템은, 도 1 내지 도 3에 나타낸 바와 같이, 센서디바이스 입력부(10), 그래픽 디스플레이부(30) 및 미디어서버(20)를 포함하는 구성으로 이루어진다.The integrated media provision system for an interactive exhibition environment according to an embodiment of the present invention includes a sensor device input unit 10, a graphic display unit 30, and a media server 20, as shown in FIGS. 1 to 3. It consists of:

상기 센서디바이스 입력부(10)는 다양한 센서디바이스(50)와 연결하기 위한 센서플랫폼(11)을 제공하며 센서디바이스(50)로부터 입력되는 데이터를 통합메시지로 변환하여 네트워크(40)로 전송한다.The sensor device input unit 10 provides a sensor platform 11 for connection with various sensor devices 50 and converts data input from the sensor device 50 into an integrated message and transmits it to the network 40.

상기 센서플랫폼(11)으로는 비전센서(51)로부터 입력된 데이터를 기반으로 제스처를 인식하기 위한 제스쳐 인식 플랫폼(12), 다양한 센서들에 의한 NUI 센서(52)로부터 멀티터치, 음성인식 등의 자연스러운 사용자 인식을 위한 NUI(Natural User Interface) 플랫폼(14), 스마트폰(53)을 포함하는 모바일 기기에서 입력되는 터치정보, 가속도 등의 센서정보 뿐만 아니라 이벤트, 텍스트, 사진 등의 미디어를 처리하여 입력받는 모바일 플랫폼(16) 등을 포함한다.The sensor platform 11 includes a gesture recognition platform 12 for recognizing gestures based on data input from the vision sensor 51, multi-touch, voice recognition, etc. from the NUI sensor 52 using various sensors. Processes sensor information such as touch information and acceleration input from mobile devices, including the NUI (Natural User Interface) platform 14 and smartphone 53 for natural user recognition, as well as media such as events, text, and photos. It includes a mobile platform that receives input (16), etc.

다양한 센서디바이스(50)는 자체적인 통신 프로토콜이 없거나 USB 등의 유선 데이터 전송 규약을 따르고 있으나 센서디바이스 입력부(10)에서의 센서플랫폼(11)을 통해 센서디바이스(50)로부터 입력되는 데이터를 프로세싱하여 통일된 구조에 따라 통합메시지로 변환하여 전송한다. 이때 센서디바이스 입력부(10)를 PC기반으로 구축할 수 있으며 하나의 센서디바이스 입력부(10)에 하나의 센서플랫폼(11)을 구축할 수 있으며 다수의 센서플랫폼(11)을 구축할 수 있다. 이는 데이터 프로세싱의 부하 및 전시환경의 복잡도에 따라 분산컴퓨팅을 수행하도록 다양하게 구축할 수 있다.Various sensor devices 50 do not have their own communication protocols or follow wired data transmission protocols such as USB, but the data input from the sensor device 50 is processed through the sensor platform 11 at the sensor device input unit 10. It is converted into an integrated message and transmitted according to a unified structure. At this time, the sensor device input unit 10 can be built based on a PC, one sensor platform 11 can be built on one sensor device input unit 10, and multiple sensor platforms 11 can be built. It can be configured in various ways to perform distributed computing depending on the data processing load and the complexity of the exhibition environment.

상기 그래픽 디스플레이부(30)는 다양한 디스플레이 디바이스(60)와 연결하기 위한 그래픽플랫폼(31)을 제공하며 네트워크(40)를 통해 입력되는 통합메시지를 디스플레이 디바이스(60)의 고유데이터로 변환하여 출력한다.The graphic display unit 30 provides a graphic platform 31 for connection with various display devices 60 and converts the integrated message input through the network 40 into unique data of the display device 60 and outputs it. .

이때, 통합메시지는 UI조작이나 네비게이션, 혹은 다중 디스플레이 동기화같은 메시지로써 이를 플래시, Unity3D, OpenGL 등과 같은 특정 그래픽플랫폼(31) 혹은 스탠드얼론 플랫폼에 맞는 고유의 메시지로 변환하여 제공하면 해당 어플리케이션에서 원하는 동작을 수행하게 된다.At this time, the integrated message is a message such as UI manipulation, navigation, or multi-display synchronization. If this is converted into a unique message suitable for a specific graphics platform (31) such as Flash, Unity3D, OpenGL, etc. or a standalone platform, the desired action in the application is performed. will be performed.

상기 그래픽플랫폼(31)으로는 플래시 등과 같이 2D 그래픽을 제공하기 위한 2D그래픽 플랫폼(32), 복잡한 3차원 효과를 제공하는 비쥬얼 이펙트 플랫폼(34), 물리적인 인터랙션을 재현하는 물리기반 엔진 플랫폼(36), 캐릭터제어 및 3D 네비게이션 등 다양한 3D 콘텐츠제작을 위한 3D그래픽 플랫폼(38) 등을 포함한다.The graphics platform 31 includes a 2D graphics platform 32 for providing 2D graphics such as flash, a visual effect platform 34 for providing complex 3D effects, and a physics-based engine platform for reproducing physical interactions (36). ), 3D graphics platform (38) for producing various 3D contents such as character control and 3D navigation.

이때, 상기 센서플랫폼(11) 및 그래픽플랫폼(31)은 새로운 센서디바이스(50) 및 다양한 디스플레이 디바이스(60)가 추가되어도 플러그-앤-플레이 형식으로 확장할 수 있도록 구성된다.At this time, the sensor platform 11 and the graphics platform 31 are configured to be expandable in a plug-and-play format even when new sensor devices 50 and various display devices 60 are added.

예를 들어, 자동차 시뮬레이션 게임을 가정하였을 때, 기본적으로 사용자는 전통적인 키보드입력을 통해서도 자동For example, assuming a car simulation game, basically the user can automatically

차를 제어 가능하지만, 모바일 기기를 이용하여 원격에서도 같은 게임을 다른 방식으로 즐길 수도 있고, 또한 더 나아가 사용자 제스쳐를 인식하여 같은 게임을 비전센서 기반으로도 제어하는 것이 가능하게 된다.Although you can control a car, you can also enjoy the same game remotely using a mobile device in a different way. Furthermore, it becomes possible to control the same game based on a vision sensor by recognizing user gestures.

따라서, 상기 센서디바이스 입력부(10) 및 그래픽 디스플레이부(30)는 윈도우, iOS, 안드로이드, 그리고 플래시 등의 다양한 센서플랫폼(11) 및 그래픽플랫폼(31)기반의 모듈을 제공할 뿐만 아니라 각각에서 사용 가능한 통신모듈을 포함한다.Therefore, the sensor device input unit 10 and the graphic display unit 30 not only provide modules based on various sensor platforms 11 and graphic platforms 31 such as Windows, iOS, Android, and Flash, but are also used in each. Includes available communication modules.

이와 같이 그래픽 디스플레이부(30)는 미디어 서버(20)나 센서디바이스 입력부(10)로부터 통합메시지를 입력받아 다양한 이펙트, 2차원 사용자 인터페이스, 3차원 가상공간 등을 재현한다.In this way, the graphic display unit 30 receives integrated messages from the media server 20 or the sensor device input unit 10 and reproduces various effects, a two-dimensional user interface, and a three-dimensional virtual space.

키오스크와 같이 정보 제공 또는 전통적인 2차원 사용자 인터페이스의 경우는 2D그래픽 플랫폼(32) 등을 통해 구현할 수 있다.In the case of information provision or a traditional two-dimensional user interface such as a kiosk, it can be implemented through a 2D graphics platform (32).

또한, 3차원 가상공간을 위해서는 그 예로서 Unity3D나 OpenGL 기반의 실시간 그래픽 소프트웨어가 있다. 이때 높은 사실성이 요구되거나 2차원 및 3차원 인터페이스가 결합된 복잡한 장면 구성을 위해서는 상용 게임 엔진 등을 활용하지만 기존의 상용 소프트웨어들은 다양한 통신 환경에 적합하게 설계되어 있지 않고, 기존의 엔진들이 표현할 수 있는 그래픽 이펙트에는 많은 한계점들이 있으며, 특히 물리적인 현상의 재현에 있어서 퍼포먼스나 표현의 사실성 등에 있어 많은 제약사항들이 존재한다. 이러한 부분을 해결하기 위해 그래픽 디스플레이부(30)의 비쥬얼 이펙트 플랫폼(34), 물리기반 엔진 플랫폼(36) 및 3D그래픽 플랫폼(38)에 대해 독립적으로 구성할 수도 있고, 기존 소프트웨어에 플러그인이나 스크립트 형태로도 삽입하여 구성할 수도 있다.Additionally, for 3D virtual space, examples include Unity3D or OpenGL-based real-time graphics software. At this time, commercial game engines are used to create complex scenes that require high realism or combine two-dimensional and three-dimensional interfaces. However, existing commercial software is not designed to suit various communication environments, and existing engines cannot express anything. There are many limitations to graphic effects, especially in terms of performance and realism of expression when it comes to reproducing physical phenomena. To solve this problem, the visual effect platform 34, physics-based engine platform 36, and 3D graphics platform 38 of the graphic display unit 30 can be configured independently, or they can be installed in the form of a plug-in or script to existing software. It can also be configured by inserting .

상기 미디어서버(20)는 네트워크(40)에 접속되어 센서디바이스 입력부(10)와 그래픽 디스플레이부(30)와의 연동을 위해 센서디바이스 입력부(10)에서 전송되는 통합메시지를 그래픽 디스플레이부(30)로 전달하는 중계역할을 한다.The media server 20 is connected to the network 40 and sends the integrated message transmitted from the sensor device input unit 10 to the graphic display unit 30 for interworking with the sensor device input unit 10 and the graphic display unit 30. It acts as a relay for transmission.

상기 미디어서버(20), 센서디바이스 입력부(10) 및 그래픽 디스플레이부(30)의 연동을 위한 네트워크(40)는 유선 로컬 네트워크 및 Wi-Fi 무선네트워크를 포함한다.The network 40 for linking the media server 20, the sensor device input unit 10, and the graphic display unit 30 includes a wired local network and a Wi-Fi wireless network.

또한, 상기 미디어서버(20)를 통해 통합메시지가 중계되지만, 전시환경의 복잡도가 낮거나 고속의 데이터 전송이 요구되는 경우에는 통합메시지를 중계해주는 미디어서버(20)가 불필요하거나 속도를 저하시킬 수 있어 모바일 기기 사이의 데이터 교환이나 영상이나 인체 데이터와 같은 고용량 메시지 전송의 경우에는 미디어서버(20)를 거치지 않고 모바일 플랫폼(16)간 직접적인 통신이 가능할 뿐만 아니라 센서플랫폼(11) 및 그래픽플랫폼(31) 간 직접적인 통신이 가능하도록 한다.In addition, the integrated message is relayed through the media server 20, but if the complexity of the exhibition environment is low or high-speed data transmission is required, the media server 20, which relays the integrated message, is unnecessary or may reduce the speed. In the case of data exchange between mobile devices or transmission of high-capacity messages such as video or human body data, not only is direct communication between the mobile platforms (16) possible without going through the media server (20), but also the sensor platform (11) and the graphics platform (31). ) to enable direct communication between

이때, 상기 센서플랫폼(11) 및 그래픽플랫폼(31)간은 유선 로컬 네트워크 및 Wi-Fi 무선네트워크 뿐만 아니라, P2P(Peer to Peer) 방식의 블루투스 프로토콜을 통해 통합메시지를 송수신한다.At this time, an integrated message is transmitted and received between the sensor platform 11 and the graphic platform 31 through a wired local network and a Wi-Fi wireless network, as well as a P2P (Peer to Peer) Bluetooth protocol.

또한, 제스처 인식이나 그래픽 랜더링과 같이 연산로드가 많은 연산에 대해서는 미디어서버(20)를 통해 분산처리를 수행할 수 있도록 한다.In addition, distributed processing can be performed through the media server 20 for operations with a large computational load, such as gesture recognition or graphic rendering.

이와 같이 본 발명에 따른 인터렉티브 전시환경을 위한 통합 미디어 프레임 제공장치에서의 통합메시지 통신은 다음과 같이 이루어진다.As such, integrated message communication in the integrated media frame providing device for an interactive exhibition environment according to the present invention is performed as follows.

인터랙티브 미디어 전시환경에서 주고 받을 수 있는 통합메시지의 카테고리는 총 세가지로 정리할 수 있다.The categories of integrated messages that can be exchanged in an interactive media exhibition environment can be divided into three categories.

(1) 임의의 기기에서 인터랙션이 가해졌을 때 전통적인 방식의 I/O 디바이스, 혹은 이를 모사하는 경우, 디스플레이상의 좌표나 3차원 공간상의 공간 좌표를 생각해볼 수 있다.(1) When an interaction is made on any device, using a traditional I/O device or imitating it, coordinates on the display or spatial coordinates in three-dimensional space can be considered.

(2) 사용자가 어떠한 의미를 가진 메시지, 즉 심볼을 입력 모듈을 통해 전송하는 경우가 존재할 수 있는데, 가령 인터페이스 상의 특정 요소에 대한 선택, 공간상의 네비게이션 등을 예로 들 수 있다. 이는 각각의 센서디바이스에서 출력하는 원본(RAW) 데이터를 그래픽 디스플레이부(30)에서 가공하여 사용할 수도 있지만, 각각의 센서디바이스(50)가 직접 유의미한 값으로 변환, 네트워크(40)를 통해 전송하는 선처리 구조로 설계함으로써 임의의 센서디바이스(50)가 추가되더라도 그래픽 디스플레이부(30)에서는 단일화된 통합메시지만을 받음으로써 보다 높은 확장성을 꾀할 수 있다.(2) There may be cases where the user transmits a message with some meaning, that is, a symbol, through an input module, for example, selection of a specific element on the interface, navigation in space, etc. This means that the original (RAW) data output from each sensor device can be processed and used in the graphic display unit 30, but each sensor device 50 directly converts it into a meaningful value and transmits it through the network 40. By designing the structure, even if an arbitrary sensor device 50 is added, the graphic display unit 30 receives only a unified integrated message, enabling higher scalability.

(3) 이미지나 사운드, 텍스트, 또는 사용자 인체 정보와 같이 가변적이고 모듈 독립성이 낮은 메시지들은 원본 데이터 자체를 전송 할 수 있도록 추가 정의가 가능하다.(3) Messages that are variable and have low module independence, such as images, sounds, texts, or user body information, can be further defined so that the original data itself can be transmitted.

위 세가지를 정리해보면 통합메시지의 카테고리는 1) 인터랙션 발생 좌표 타입, 2) 선처리된 심볼 타입, 3) 원본 데이터 타입으로 구분될 수 있다.Summarizing the three above, the categories of integrated messages can be divided into 1) interaction occurrence coordinate type, 2) pre-processed symbol type, and 3) original data type.

이때, 심볼 타입을 보다 세분화하여 정의 가능할 때 1) 특정 버튼이나 키 입력을 모사하는 키 입력 심볼, 2) 선택이나 드래그와 같이 전통적인 마우스 제스쳐를 표현하는 클릭 심볼, 그리고 3) 네비게이션을 위한 방향 심볼로 정의할 수 있다.At this time, when the symbol type can be defined in more detail, 1) a key input symbol that imitates a specific button or key input, 2) a click symbol that expresses a traditional mouse gesture such as selection or drag, and 3) a direction symbol for navigation. It can be defined.

또한, 원본 데이터 타입을 예측 가능한 몇 가지의 타입에 대해서 세분화 할 수 있는데, 1) 텍스트 데이터 타입, 2) 이미지 데이터 타입, 그리고 3) 사용자 인체 데이터 타입으로 정의할 수 있고, 이에 속하지 않는 타 데이터는 기타 데이터 타입으로 분류하여 매우 특수한 상황을 위한 용도로 사용 가능하다.In addition, the original data type can be subdivided into several predictable types, which can be defined as 1) text data type, 2) image data type, and 3) user body data type, and other data that does not belong to these types can be defined as It can be classified into other data types and used for very special situations.

위와 같이 정의된 통합메시지 타입을 활용하면 독립적으로 확장 가능한 프레임 제공장치 구축이 가능하다.By using the integrated message type defined above, it is possible to build an independently expandable frame provision device.

또한, 특정 모듈에서 어떠한 기기에 대해서는 필터링이 필요한 경우를 가정해볼 수 있는데, 가령 3차원 네비게이션을 원하는 게임에서 비전 센싱을 통한 제어만 가능하도록 한정하고 모바일기기에서 입력되는 메시지는 무시해야 하는 경우, 이를 위해 모듈 하드웨어나 운영체제에 대한 카테고리 태그를 추가할 수 있다.In addition, it can be assumed that filtering is required for certain devices in a specific module. For example, in a game that requires 3D navigation, control is limited to vision sensing and messages input from mobile devices must be ignored. You can add category tags for module hardware or operating system.

따라서, 크게 1) 스탠다드 입력 디바이스, 2) 비전 입력 디바이스, 3) 모바일 입력 디바이스, 4) 기타 디바이스로 분류 할 수 있고, 스탠다드 입력 디바이스는 다시 키보드와 마우스 입력으로 나눌 수 있으며, 비전 입력 디바이스는 카메라와 키넥트 호환 디바이스로 분류할 수 있고, 모바일 디바이스는 안드로이드와 ios, 윈도우폰 등으로 세분화할 수 있다.Therefore, it can be broadly classified into 1) standard input devices, 2) vision input devices, 3) mobile input devices, and 4) other devices. Standard input devices can be further divided into keyboard and mouse input, and vision input devices include cameras. and Kinect compatible devices, and mobile devices can be subdivided into Android, iOS, Windows Phone, etc.

도 3은 본 발명의 실시예에 따른 인터렉티브 전시환경을 위한 통합 미디어 제공시스템을 통한 전시환경을 나타낸 일 예시도로서, 도 3을 참조하면, 인터렉티브 전시환경으로 디스플레이 디바이스(60)로 투명디스플레이(61), LCD 디스플레이(62), 홀로그램(63), 멀티디스플레이(65), 프로젝터(64) 및 프로젝션스크린(66) 등을 포함한다.Figure 3 is an example diagram showing an exhibition environment through an integrated media provision system for an interactive exhibition environment according to an embodiment of the present invention. Referring to Figure 3, a transparent display 61 is used as a display device 60 as an interactive exhibition environment. ), LCD display 62, hologram 63, multi-display 65, projector 64, and projection screen 66.

이들은 그래픽플랫폼(31)이 탑재되어 전시용 디지털콘텐츠가 표출된다.They are equipped with a graphic platform (31) and display digital content for exhibition.

상기 센서디바이스(50)로는 모션카메라(비젼센서)(51), 스마트폰(53) 및 NUI 센서(52) 등이 있고, 이들은 PC나 전용보드에 탑재된 센서플랫폼(11)에 의해 통합메시지로 변환되어 네트워크(40)를 통해 전송된다.The sensor devices 50 include a motion camera (vision sensor) 51, a smartphone 53, and a NUI sensor 52, which are sent as an integrated message by the sensor platform 11 mounted on a PC or dedicated board. It is converted and transmitted through the network 40.

그 밖에 키오스크(55), 미디어테이블(56), 태블릿PC(54), 스마트폰(53) 등은 입력장치 및 디스플레이가 결합된형태의 전시용 하드웨어로서 기기에 따라 다양한 센서플랫폼(11) 및 그래픽플랫폼(31)이 탑재된다.In addition, kiosks (55), media tables (56), tablet PCs (54), and smartphones (53) are exhibition hardware that combines input devices and displays, and various sensor platforms (11) and graphic platforms depending on the device. (31) is mounted.

따라서, 각 센서디바이스(50) 및 그래픽 디바이스(60)는 미디어서버(20)를 통해 통합메시지의 패싱방법에 의해 각종 입출력 정보를 주고 받음으로써 인터렉티브한 미디어전시환경에서 전시기획에 따라 이기종간 결합의 형태로 설계 및 개발된다.Therefore, each sensor device 50 and graphic device 60 exchanges various input and output information through the media server 20 by the integrated message passing method, thereby enabling heterogeneous combination according to exhibition planning in an interactive media exhibition environment. designed and developed in the form

본 발명에 따른 인터렉티브 전시환경을 위한 통합 미디어 제공시스템은 전시환경에 따라 다양하게 추가될수 있는 센서디바이스(50)와 그래픽 디바이스(60)들에 대해서도 전체 구조의 재설계가 필요 없이 새로운 요소들을 모듈로 더함으로써 확장이 매우 용이하다.The integrated media provision system for an interactive exhibition environment according to the present invention provides new elements as modules for sensor devices 50 and graphic devices 60 that can be added in various ways depending on the exhibition environment without the need to redesign the entire structure. It is very easy to expand by adding.

예를 들어, 새로운 고성능의 비전센서(51)가 추가될 경우, 해당 센서디바이스(50)를 정해진 규격대로 통신 가능하도록 모듈로 패키징하여 정의된 통합메시지로 통신을 하게 되면 프레임 제공장치를 변경하지 않고도 센싱 성능을 향상시키는 효과를 가져올 수 있다.For example, when a new high-performance vision sensor 51 is added, the corresponding sensor device 50 is packaged into a module to enable communication according to a set standard and communicated with a defined integrated message, without changing the frame providing device. This can have the effect of improving sensing performance.

또 다른 예로서, 상기 멀티디스플레이(65)를 구현할 때 동일한 화면을 여러 대의 디스플레이로 출력해주는 멀티디스플레이 기법은 화면 동기화 및 카메라 분할 등 다양한 기술적인 이슈를 포함하고 있으며, 일반적으로는 시스템 설계에 따라 전용 어플리케이션을 새로 개발해야 하며 수정 개발이 용이하지 않지만 통합 미디어 프레임워크를 통해 미디어서버(20)에서 복수개의 그래픽플랫폼(31)을 결합시켜 제어함으로써 손쉽게 멀티디스플레이(65)를 구현할 수 있어 개발효율을 높일 수 있다.As another example, when implementing the multi-display 65, the multi-display technique that outputs the same screen to multiple displays includes various technical issues such as screen synchronization and camera division, and generally requires a dedicated method depending on the system design. Although a new application must be developed and modified development is not easy, a multi-display (65) can be easily implemented by combining and controlling a plurality of graphic platforms (31) in the media server (20) through an integrated media framework, thereby increasing development efficiency. You can.

이와 같이 본 발명에 따른 인터렉티브 전시환경을 위한 통합 미디어 프레임 제공장치에 의하면, 지속적인 전시기술과 콘텐츠의 발전에 도움이 될 수 있으며, 이러한 프레임 제공장치를 기반으로 하여 특정한 상품을 홍보하는 매장에 가상의 제품을 체험하는 콘텐츠 서비스를 개발하는데 적용할 수 있으며 이벤트 및 공연, 행사에 재미와 흥미요소가 부각된 스토리텔링을 결합한 인터랙티브 콘텐츠제작에 활용할 수 있다.In this way, the integrated media frame providing device for an interactive exhibition environment according to the present invention can help in the continuous development of exhibition technology and content, and based on this frame providing device, virtual media can be provided to stores promoting specific products. It can be applied to develop content services to experience products, and can be used to create interactive content that combines storytelling with fun and interesting elements in events, performances, and events.

또한, 박물관 및 전시관, 홍보관 등의 미디어시스템에 탑재되는 가상현실 콘텐츠 개발에도 활용할 수 있다.In addition, it can be used to develop virtual reality content to be installed in media systems such as museums, exhibition halls, and promotional centers.

그리고, 저비용 고효율 방식의 개발방법으로 인하여, 상업시설부터 교육, 전시환경 등 기존의 전시 미디어 환경을 변화시킬 수 있다.And, due to the low-cost, high-efficiency development method, it is possible to change the existing exhibition media environment, including commercial facilities, education, and exhibition environments.

이에 따라, 상술한 구성을 갖는 본 발명에 따른 인터렉티브 전시환경을 위한 통합 미디어 제공시스템을 통해서는 인터렉티브 전시환경을 구축하기 위한 기능들을 통신기반으로 모듈화하여 분산 컴퓨팅환경을 제공함으로써 유연하게 추가하고 결합될 수 있도록 하여 재사용성 및 확장성으로 다양한 요구사항과 수정사항을 반영하여 전시환경을 용이하게 구축할 수 있는 장점을 제공할 수 있다.Accordingly, through the integrated media provision system for an interactive exhibition environment according to the present invention having the above-described configuration, functions for building an interactive exhibition environment can be flexibly added and combined by providing a distributed computing environment by modularizing the functions for building an interactive exhibition environment based on communication. This provides the advantage of being able to easily build an exhibition environment by reflecting various requirements and modifications through reusability and expandability.

이상에서 설명한 실시예는 본 발명의 바람직한 실시예를 설명한 것에 불과하고 이러한 실시예에 극히 한정되는 것은 아니며, 본 발명의 기술적 사상과 청구범위 내에서 이 기술분야의 당해업자에 의하여 다양한 수정과 변형 등이 이루어질 수 있다 할 것이며, 이는 본 발명의 기술적 권리범위 내에 속한다 할 것이다.The embodiments described above merely describe preferred embodiments of the present invention and are not extremely limited to these embodiments, and various modifications and variations may be made by those skilled in the art within the technical spirit and scope of the claims of the present invention. It will be said that this can be achieved, and it will be said that it falls within the scope of the technical rights of the present invention.

10 : 센서디바이스 입력부 11 : 센서플랫폼
12 : 제스처 인식 플랫폼 14 : NUI 플랫폼
16 : 모바일 플랫폼 20 : 미디어서버
30 : 그래픽 디스플레이부 31 : 그래픽플랫폼
32 : 2D 그래픽 플랫폼 34 : 비쥬얼 이펙트 플랙폼
36 : 물리기반 엔진 플랫폼 38 : 3D 그래픽 플랫폼
40 : 네트워크 50 : 센서디바이스
60 : 디스플레이 디바이스
10: Sensor device input unit 11: Sensor platform
12: Gesture recognition platform 14: NUI platform
16: Mobile platform 20: Media server
30: graphic display unit 31: graphic platform
32: 2D graphics platform 34: Visual effect platform
36: Physics-based engine platform 38: 3D graphics platform
40: Network 50: Sensor device
60: display device

Claims (3)

다양한 센서디바이스와 연결되기 위한 센서플랫폼을 제공하며 상기 센서디바이스로부터 입력되는 데이터를 통합메시지로 변환하여 네트워크로 전송하는 센서디바이스 입력부;
다양한 디스플레이 디바이스와 연결되기 위한 그래픽플랫폼을 제공하며 상기 네트워크를 통해 입력되는 상기 통합메시지를 상기 디스플레이 디바이스의 고유데이터로 변환하여 출력하는 그래픽 디스플레이부;
상기 네트워크에 접속되어 상기 센서디바이스 입력부에서 전송되는 상기 통합메시지를 상기 그래픽 디스플레이부로 전달하는 미디어서버; 를 포함하는 것을 특징으로 하는 인터렉티브 전시환경을 위한 통합 미디어 제공시스템.
A sensor device input unit that provides a sensor platform for connection with various sensor devices and converts data input from the sensor devices into an integrated message and transmits it to the network;
a graphic display unit that provides a graphic platform for connection to various display devices and converts the integrated message input through the network into unique data of the display device and outputs it;
a media server connected to the network and delivering the integrated message transmitted from the sensor device input unit to the graphic display unit; An integrated media provision system for an interactive exhibition environment comprising:
제 1항에 있어서,
상기 센서플랫폼은 비전센서로부터 입력된 데이터를 기반으로 제스처를 인식하기 위한 제스쳐 인식 플랫폼, NUI센서를 이용한 자연스러운 사용자 인식을 위한 NUI(Natural User Interface) 플랫폼, 스마트폰을 포함하는 모바일 기기에서 입력되는 미디어를 처리하여 입력받는 모바일 플랫폼을 포함하고,
상기 그래픽플랫폼은 2D 그래픽을 제공하기 위한 2D그래픽 플랫폼, 복잡한 3차원 효과를 제공하는 비쥬얼 이펙트 플랫폼, 물리적인 인터랙션을 재현하는 물리기반 엔진 플랫폼, 3D 콘텐츠제작을 위한 3D그래픽 플랫폼을 포함하는 것을 특징으로 하는 인터렉티브 전시환경을 위한 통합 미디어 제공시스템.
According to clause 1,
The sensor platform is a gesture recognition platform for recognizing gestures based on data input from a vision sensor, a NUI (Natural User Interface) platform for natural user recognition using a NUI sensor, and media input from mobile devices including smartphones. Includes a mobile platform that processes and receives input,
The graphics platform includes a 2D graphics platform for providing 2D graphics, a visual effects platform for providing complex 3D effects, a physics-based engine platform for reproducing physical interactions, and a 3D graphics platform for producing 3D content. An integrated media provision system for an interactive exhibition environment.
제 1항에 있어서,
상기 그래픽 디스플레이부와 상기 센서디바이스 입력부는 P2P 방식으로 연결되어 상기 통합메시지를 송수신하고,
상기 네트워크는 유선 로컬 네트워크, Wi-Fi 무선네트워크 및 블루투스 중 어느 하나 이상을 포함하며,
상기 센서플랫폼과 상기 그래픽플랫폼은 플러그-앤-플레이 형식을 지원하는 것을 특징으로 하는 인터렉티브 전시환경을 위한 통합 미디어 제공시스템.
According to clause 1,
The graphic display unit and the sensor device input unit are connected in a P2P manner to transmit and receive the integrated message,
The network includes one or more of a wired local network, Wi-Fi wireless network, and Bluetooth,
An integrated media provision system for an interactive exhibition environment, wherein the sensor platform and the graphic platform support a plug-and-play format.
KR1020220041131A 2022-04-01 2022-04-01 Providing system of total media for interactive exhibition environment KR20230142193A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220041131A KR20230142193A (en) 2022-04-01 2022-04-01 Providing system of total media for interactive exhibition environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220041131A KR20230142193A (en) 2022-04-01 2022-04-01 Providing system of total media for interactive exhibition environment

Publications (1)

Publication Number Publication Date
KR20230142193A true KR20230142193A (en) 2023-10-11

Family

ID=88295307

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220041131A KR20230142193A (en) 2022-04-01 2022-04-01 Providing system of total media for interactive exhibition environment

Country Status (1)

Country Link
KR (1) KR20230142193A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101202316B1 (en) 2003-04-30 2012-11-16 타이코 일렉트로닉스 코포레이션 Toggle type telecommunications terminal blocks

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101202316B1 (en) 2003-04-30 2012-11-16 타이코 일렉트로닉스 코포레이션 Toggle type telecommunications terminal blocks

Similar Documents

Publication Publication Date Title
JP3212833U (en) Interactive education support system
CN105518614B (en) Method, equipment and the computer-readable medium of screen recording for multi-screen application program
TWI543108B (en) Crowd-sourced video rendering system
US20070233759A1 (en) Platform for seamless multi-device interactive digital content
CN107852573A (en) The social interaction of mixed reality
CN103516808A (en) Virtual/reality interaction platform provided with mobile terminal for intelligent exhibition hall
CN107077311A (en) Input signal is emulated
KR101343131B1 (en) Providing apparatus of total media frame for interactive exhibition environment
WO2022048677A1 (en) Vr application design method and system based on cloud mobile phone
Park et al. The three dimensions of book evolution in ubiquitous computing age: Digitalization, augmentation, and hypermediation
KR20190104821A (en) Server, device and method for providing avatar communication
Park et al. NAVER: Networked and Augmented Virtual Environment aRchitecture; design and implementation of VR framework for Gyeongju VR Theater
CN102681812A (en) Computer multiscreen expanded display method and device
Ishida et al. Proposal of high realistic sensation system using the large scale tiled display environment
KR101190456B1 (en) System for providing of three-dimensional digital comic viewer and method thereof
KR20230142193A (en) Providing system of total media for interactive exhibition environment
EP3285143A1 (en) Ar/vr device virtualisation
CN115826809A (en) Cross-end meta universe interaction system, method and storage medium
KR101521488B1 (en) Interactive contents system by smart device
US20230122666A1 (en) Cloud xr-based program virtualizing method
CN111949150A (en) Method and device for controlling peripheral switching, storage medium and electronic equipment
KR101202164B1 (en) System for providing of three-dimensional digital comic viewer and method thereof
KR102630775B1 (en) Apparatus and method for verifiing prototypes based on xr
US20230386140A1 (en) Systems, methods, and devices for a virtual environment reality mapper
Chiday Developing a Kinect based Holoportation System