KR20130120705A - 인터렉티브 전시환경을 위한 통합 미디어 프레임 제공장치 - Google Patents

인터렉티브 전시환경을 위한 통합 미디어 프레임 제공장치 Download PDF

Info

Publication number
KR20130120705A
KR20130120705A KR20120043804A KR20120043804A KR20130120705A KR 20130120705 A KR20130120705 A KR 20130120705A KR 20120043804 A KR20120043804 A KR 20120043804A KR 20120043804 A KR20120043804 A KR 20120043804A KR 20130120705 A KR20130120705 A KR 20130120705A
Authority
KR
South Korea
Prior art keywords
platform
sensor
integrated
graphics
media
Prior art date
Application number
KR20120043804A
Other languages
English (en)
Other versions
KR101343131B1 (ko
Inventor
함영이
성혁진
Original Assignee
주식회사 플러
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 플러 filed Critical 주식회사 플러
Priority to KR1020120043804A priority Critical patent/KR101343131B1/ko
Priority to PCT/KR2012/003257 priority patent/WO2013162104A1/ko
Publication of KR20130120705A publication Critical patent/KR20130120705A/ko
Application granted granted Critical
Publication of KR101343131B1 publication Critical patent/KR101343131B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 인터렉티브 전시환경을 위한 통합 미디어 프레임워크에 관한 것으로서, 인터렉티브 전시환경을 구축하기 위한 기능들을 통신기반으로 모듈화하여 분산 컴퓨팅환경을 제공함으로써 유연하게 추가하고 결합될 수 있도록 하여 재사용성 및 확장성으로 다양한 요구사항과 수정사항을 신속하게 반영하여 전시환경을 용이하게 구축할 수 있으며, 새로운 인터페이스장치와 미디어 디스플레이 장치를 이용하여 인터랙티브 미디어 전시 환경을 구축할 때 개발기간 단축과 체계적인 개발 프로세스를 개선할 수 있다.

Description

인터렉티브 전시환경을 위한 통합 미디어 프레임워크{TOTAL MEDIA FRAMEWORK FOR INTERACTIVE EXHIBITION ENVIRONMENT}
본 발명은 인터렉티브 전시환경을 위한 통합 미디어 프레임워크에 관한 것으로서, 보다 상세하게는 인터렉티브 전시환경을 구축하기 위한 기능들을 통신기반으로 모듈화하여 분산 컴퓨팅환경을 제공함으로써 유연하게 추가하고 결합될 수 있도록 하여 재사용성 및 확장성으로 다양한 요구사항과 수정사항을 반영하여 전시환경을 용이하게 구축할 수 있도록 하는 인터렉티브 전시환경을 위한 통합 미디어 프레임워크에 관한 것이다.
일반적으로 전시환경에서 인터렉티브 미디어 시스템을 개발하기 위해서는 전시공간과 기획의도에 따라 각종 기기들을 결합하여 적절한 하드웨어 시스템을 설계, 제작하고 다양한 입력인터페이스에 반응하는 2D, 3D 그래픽스로 표현되는 디지털콘텐츠를 구축된 시스템에 맞게 개발하는 것이다.
따라서, 이러한 방법으로 개발된 인터렉티브 전시용 어플리케이션은 특정한 하드웨어와 플랫폼으로 구성된 시스템에서만 작동되기 때문에 입력디바이스 및 디스플레이장치를 추가하거나 변경할 경우, 수정개발이 쉽지 않다.
또한, 새로운 인터렉티브 미디어 전시 콘텐츠를 개발할 때, 기존에 개발된 모듈들은 특정 시스템에만 국한하여 구동되기 때문에 재사용이 용이 하지 않아 개발효율이 떨어지는 문제가 있어 다양한 디바이스와 다양한 플랫폼이 적용된 통합적 개발에 어려움이 있다.
인터렉티브 전시산업 분야에서는 주로 이러한 맞춤형 제작 시스템에 의존하기 때문에 다양한 요구사항에 유연하고 신속하게 구축될 수 있는 효율적인 개발 프레임워크가 필요한 실정이다.
관련 선행기술로는 대한민국 공개특허 2011-0138551호(2011.12.28.) "플러그인 기반 계층적 지능형 가상 에이전트 프레임워크"가 있다.
인터렉티브 콘텐츠 개발을 위한 전시 저작용 솔루션의 유사한 사례로는 공연, 이벤트 등에 활용되는 쇼 컨트롤러 프리젠테이션 시스템이 있다.
이것은 주로 기본적인 센서입력 및 이미지, 영상 등의 리소스 들을 활용하여 영상 프리젠테이션을 할 수 있는 GUI(Graphic User Interface) 기반 저작도구이다. 그러나, SDK(Software Development Kit) 형태의 프레임워크가 아니라 GUI 기반의 플레이어로 제작되었기 때문에, 다양한 콘텐츠 시나리오와 각종 하드웨어 시스템에 부합하기에는 기술적인 구현의 제약이 많으며 응용개발에 한계가 있다.
그밖에도 멀티디스플레이용 영상솔루션 분야에서 외부 기기의 인터페이스 입력을 도입하는 움직임이 있으나 네트워크 등을 통한 간단한 트리거 입력신호 전송에 멈추고 있으며, 멀티디스플레이라는 특정한 하드웨어 구성의 용도로 주로 사용된다.
이와 같은 전시 저작용 솔루션은 GUI기반의 플레이어 형태로 제작이 되고 있어 그 사용성면에서 플랫폼 통합이 이루어지지 않아 외부기기 적용에 한계가 있거나, 혹은 SDK(Software Development Kit)기반이 아니기 때문에 다양한 형식과 기능 등의 요구사항에 맞게 사용하기가 쉽지 않아 활용도가 낮다는 문제점이 있다.
본 발명은 상기와 같은 문제점을 개선하기 위해 창작된 것으로서, 인터렉티브 전시환경을 구축하기 위한 기능들을 통신기반으로 모듈화하여 분산 컴퓨팅환경을 제공함으로써 유연하게 추가하고 결합될 수 있도록 하여 재사용성 및 확장성으로 다양한 요구사항과 수정사항을 반영하여 전시환경을 용이하게 구축할 수 있도록 하는 인터렉티브 전시환경을 위한 통합 미디어 프레임워크를 제공하는데 그 목적이 있다.
본 발명의 일 측면에 따른 인터렉티브 전시환경을 위한 통합 미디어 프레임워크는 다양한 센서디바이스와 연결되기 위한 센서플랫폼을 제공하며 센서디바이스로부터 입력되는 데이터를 통합메시지로 변환하여 네트워크로 전송하는 센서디바이스 입력부; 다양한 디스플레이 디바이스와 연결되기 위한 그래픽플랫폼을 제공하며 네트워크를 통해 입력되는 통합메시지를 디스플레이 디바이스의 고유데이터로 변환하여 출력하는 그래픽 디스플레이부; 및 네트워크에 접속되어 센서디바이스 입력부에서 전송되는 통합메시지를 그래픽 디스플레이부로 전달하는 미디어서버를 포함하는 것을 특징으로 한다.
본 발명에서 그래픽 디스플레이부와 센서디바이스 입력부는 P2P 방식으로 연결되어 통합메시지를 송수신하는 것을 특징으로 한다.
본 발명에서 센서플랫폼은 비전센서로부터 입력된 데이터를 기반으로 제스처를 인식하기 위한 제스쳐 인식 플랫폼, NUI 센서를 이용한 자연스러운 사용자 인식을 위한 NUI(Natural User Interface) 플랫폼, 스마트폰을 포함하는 모바일 기기에서 입력되는 미디어를 처리하여 입력받는 모바일 플랫폼 중 어느 하나 이상을 포함하는 것을 특징으로 한다.
본 발명에서 그래픽플랫폼은 2D 그래픽을 제공하기 위한 2D그래픽 플랫폼, 복잡한 3차원 효과를 제공하는 비쥬얼 이펙트 플랫폼, 물리적인 인터랙션을 재현하는 물리기반 엔진 플랫폼, 3D 콘텐츠제작을 위한 3D그래픽 플랫폼 중 어느 하나 이상을 포함하는 것을 특징으로 한다.
본 발명에서 네트워크는 유선 로컬 네트워크, Wi-Fi 무선네트워크 및 블루투스 중 어느 하나 이상을 포함하는 것을 특징으로 한다.
본 발명에서 센서플랫폼과 그래픽플랫폼은 플러그-앤-플레이 형식을 지원하는 것을 특징으로 한다.
본 발명은 인터렉티브 전시환경을 구축하기 위한 기능들을 통신기반으로 모듈화하여 분산 컴퓨팅환경을 제공함으로써 유연하게 추가하고 결합될 수 있도록 하여 재사용성 및 확장성으로 다양한 요구사항과 수정사항을 신속하게 반영하여 전시환경을 용이하게 구축할 수 있다.
또한, 새로운 인터페이스장치와 미디어 디스플레이 장치를 이용하여 인터랙티브 미디어 전시 환경을 구축할 때 개발기간 단축과 체계적인 개발 프로세스를 개선할 수 있다.
도 1은 본 발명의 일 실시예에 따른 인터렉티브 전시환경을 위한 통합 미디어 프레임워크를 나타낸 블록구성도이다.
도 2는 본 발명의 일 실시예에 따른 인터렉티브 전시환경을 위한 통합 미디어 프레임워크를 구체적으로 나타낸 블록구성도이다.
도 3은 본 발명의 일 실시예에 따른 인터렉티브 전시환경을 위한 통합 미디어 프레임워크를 통한 전시환경을 나타낸 예시도이다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 인터렉티브 전시환경을 위한 통합 미디어 프레임워크의 일 실시예를 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로, 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시예에 따른 인터렉티브 전시환경을 위한 통합 미디어 프레임워크를 나타낸 블록구성도이고, 도 2는 본 발명의 일 실시예에 따른 인터렉티브 전시환경을 위한 통합 미디어 프레임워크를 구체적으로 나타낸 블록구성도이다.
도 1 및 도 2에 도시된 바와 같이 본 발명의 일 실시예에 따른 인터렉티브 전시환경을 위한 통합 미디어 프레임워크는 센서디바이스 입력부(10), 그래픽 디스플레이부(30) 및 미디어서버(20)를 포함한다.
센서디바이스 입력부(10)는 다양한 센서디바이스(50)와 연결하기 위한 센서플랫폼(11)을 제공하며 센서디바이스(50)로부터 입력되는 데이터를 통합메시지로 변환하여 네트워크(40)로 전송한다.
센서플랫폼(11)으로는 비전센서(51)로부터 입력된 데이터를 기반으로 제스처를 인식하기 위한 제스쳐 인식 플랫폼(12), 다양한 센서들에 의한 NUI 센서(52)로부터 멀티터치, 음성인식 등의 자연스러운 사용자 인식을 위한 NUI(Natural User Interface) 플랫폼(14), 스마트폰(53)을 포함하는 모바일 기기에서 입력되는 터치정보, 가속도 등의 센서정보 뿐만 아니라 이벤트, 텍스트, 사진 등의 미디어를 처리하여 입력받는 모바일 플랫폼(16) 등을 포함한다.
다양한 센서디바이스(50)는 자체적인 통신 프로토콜이 없거나 USB 등의 유선 데이터 전송 규약을 따르고 있으나 센서디바이스 입력부(10)에서의 센서플랫폼(11)을 통해 센서디바이스(50)로부터 입력되는 데이터를 프로세싱하여 통일된 구조에 따라 통합메시지로 변환하여 전송한다. 이때 센서디바이스 입력부(10)를 PC기반으로 구축할 수 있으며 하나의 센서디바이스 입력부(10)에 하나의 센서플랫폼(11)을 구축할 수 있으며 다수의 센서플랫폼(11)을 구축할 수 있다. 이는 데이터 프로세싱의 부하 및 전시환경의 복잡도에 따라 분산컴퓨팅을 수행하도록 다양하게 구축할 수 있다.
그래픽 디스플레이부(30)는 다양한 디스플레이 디바이스(60)와 연결하기 위한 그래픽플랫폼(31)을 제공하며 네트워크(40)를 통해 입력되는 통합메시지를 디스플레이 디바이스(60)의 고유데이터로 변환하여 출력한다.
즉, 통합메시지는 UI조작이나 네비게이션, 혹은 다중 디스플레이 동기화같은 메시지로써 이를 플래시, Unity3D, OpenGL 등과 같은 특정 그래픽플랫폼(31) 혹은 스탠드얼론 플랫폼에 맞는 고유의 메시지로 변환하여 제공하면 해당 어플리케이션에서 원하는 동작을 수행하게 된다.
그래픽플랫폼(31)으로는 플래시 등과 같이 2D 그래픽을 제공하기 위한 2D그래픽 플랫폼(32), 복잡한 3차원 효과를 제공하는 비쥬얼 이펙트 플랫폼(34), 물리적인 인터랙션을 재현하는 물리기반 엔진 플랫폼(36), 캐릭터제어 및 3D 네비게이션 등 다양한 3D 콘텐츠제작을 위한 3D그래픽 플랫폼(38) 등을 포함한다.
이때 센서플랫폼(11) 및 그래픽플랫폼(31)은 새로운 센서디바이스(50) 및 다양한 디스플레이 디바이스(60)가 추가되어도 플러그-앤-플레이 형식으로 확장할 수 있도록 구성된다.
예를들어 자동차 시뮬레이션 게임을 가정하였을 때, 기본적으로 사용자는 전통적인 키보드입력을 통해서도 자동차를 제어 가능하지만, 모바일 기기를 이용하여 원격에서도 같은 게임을 다른 방식으로 즐길 수도 있고, 또한 더 나아가 사용자 제스쳐를 인식하여 같은 게임을 비전센서 기반으로도 제어하는 것이 가능하게 된다.
따라서, 센서디바이스 입력부(10) 및 그래픽 디스플레이부(30)는 윈도우, iOS, 안드로이드, 그리고 플래시 등의 다양한 센서플랫폼(11) 및 그래픽플랫폼(31)기반의 모듈을 제공할 뿐만 아니라 각각에서 사용 가능한 통신모듈을 포함한다.
이와 같이 그래픽 디스플레이부(30)는 미디어 서버(20)나 센서디바이스 입력부(10)로부터 통합메시지를 입력받아 다양한 이펙트, 2차원 사용자 인터페이스, 3차원 가상공간 등을 재현한다.
키오스크와 같이 정보 제공 또는 전통적인 2차원 사용자 인터페이스의 경우는 2D그래픽 플랫폼(32) 등을 통해 구현할 수 있다.
또한, 3차원 가상공간을 위해서는 그 예로서 Unity3D나 OpenGL 기반의 실시간 그래픽 소프트웨어가 있다. 이때 높은 사실성이 요구되거나 2차원 및 3차원 인터페이스가 결합된 복잡한 장면 구성을 위해서는 상용 게임 엔진 등을 활용하지만 기존의 상용 소프트웨어들은 다양한 통신 환경에 적합하게 설계되어 있지 않고, 기존의 엔진들이 표현할 수 있는 그래픽 이펙트에는 많은 한계점들이 있으며, 특히 물리적인 현상의 재현에 있어서 퍼포먼스나 표현의 사실성 등에 있어 많은 제약사항들이 존재한다. 이러한 부분을 해결하기 위해 그래픽 디스플레이부(30)의 비쥬얼 이펙트 플랫폼(34), 물리기반 엔진 플랫폼(36) 및 3D그래픽 플랫폼(38)에 대해 독립적으로 구성할 수도 있고, 기존 소프트웨어에 플러그인이나 스크립트 형태로도 삽입하여 구성할 수도 있다.
미디어서버(20)는 네트워크(40)에 접속되어 센서디바이스 입력부(10)와 그래픽 디스플레이부(30)와의 연동을 위해 센서디바이스 입력부(10)에서 전송되는 통합메시지를 그래픽 디스플레이부(30)로 전달하는 중계역할을 한다.
미디어서버(20), 센서디바이스 입력부(10) 및 그래픽 디스플레이부(30)의 연동을 위한 네트워크(40)는 유선 로컬 네트워크 및 Wi-Fi 무선네트워크를 포함한다.
또한, 미디어서버(20)를 통해 통합메시지가 중계되지만, 전시환경의 복잡도가 낮거나 고속의 데이터 전송이 요구되는 경우에는 통합메시지를 중계해주는 미디어서버(20)가 불필요하거나 속도를 저하시킬 수 있어 모바일 기기 사이의 데이터 교환이나 영상이나 인체 데이터와 같은 고용량 메시지 전송의 경우에는 미디어서버(20)를 거치지 않고 모바일 플랫폼(16)간 직접적인 통신이 가능할 뿐만 아니라 센서플랫폼(11) 및 그래픽플랫폼(31) 간 직접적인 통신이 가능하도록 한다.
이때 센서플랫폼(11) 및 그래픽플랫폼(31)간은 유선 로컬 네트워크 및 Wi-Fi 무선네트워크 뿐만 아니라, P2P(Peer to Peer) 방식의 블루투스 프로토콜을 통해 통합메시지를 송수신한다.
또한, 제스처 인식이나 그래픽 랜더링과 같이 연산로드가 많은 연산에 대해서는 미디어서버(20)를 통해 분산처리를 수행할 수 있도록 한다.
이와 같이 본 발명에 따른 인터렉티브 전시환경을 위한 통합 미디어 프레임워크에서의 통합메시지 통신은 다음과 같이 이루어진다.
인터랙티브 미디어 전시환경에서 주고 받을 수 있는 통합메시지의 카테고리는 총 세가지로 정리할 수 있다.
첫째, 임의의 기기에서 인터랙션이 가해졌을 때 전통적인 방식의 I/O 디바이스, 혹은 이를 모사하는 경우, 디스플레이상의 좌표나 3차원 공간상의 공간 좌표를 생각해볼 수 있다.
둘째, 사용자가 어떠한 의미를 가진 메시지, 즉 심볼을 입력 모듈을 통해 전송하는 경우가 존재할 수 있는데, 가령 인터페이스 상의 특정 요소에 대한 선택, 공간상의 네비게이션 등을 예로 들 수 있다. 이는 각각의 센서디바이스에서 출력하는 원본(RAW) 데이터를 그래픽 디스플레이부(30)에서 가공하여 사용할 수도 있지만, 각각의 센서디바이스(50)가 직접 유의미한 값으로 변환, 네트워크(40)를 통해 전송하는 선처리 구조로 설계함으로써 임의의 센서디바이스(50)가 추가되더라도 그래픽 디스플레이부(30)에서는 단일화된 통합메시지만을 받음으로써 보다 높은 확장성을 꾀할 수 있다.
셋째, 이미지나 사운드, 텍스트, 또는 사용자 인체 정보와 같이 가변적이고 모듈 독립성이 낮은 메시지들은 원본 데이터 자체를 전송 할 수 있도록 추가 정의가 가능하다.
위 세가지를 정리해보면 통합메시지의 카테고리는 1) 인터랙션 발생 좌표 타입, 2) 선처리된 심볼 타입, 3) 원본 데이터 타입으로 구분될 수 있다.
이때 심볼 타입을 보다 세분화하여 정의 가능할 때 1) 특정 버튼이나 키 입력을 모사하는 키 입력 심볼, 2) 선택이나 드래그와 같이 전통적인 마우스 제스쳐를 표현하는 클릭 심볼, 그리고 3) 네비게이션을 위한 방향 심볼로 정의할 수 있다.
또한, 원본 데이터 타입을 예측 가능한 몇 가지의 타입에 대해서 세분화 할 수 있는데, 1) 텍스트 데이터 타입, 2) 이미지 데이터 타입, 그리고 3) 사용자 인체 데이터 타입으로 정의할 수 있고, 이에 속하지 않는 타 데이터는 기타 데이터 타입으로 분류하여 매우 특수한 상황을 위한 용도로 사용 가능하다.
위와 같이 정의된 통합메시지 타입을 활용하면 독립적으로 확장 가능한 프레임워크 구축이 가능하다.
또한, 특정 모듈에서 어떠한 기기에 대해서는 필터링이 필요한 경우를 가정해볼 수 있는데, 가령 3차원 네비게이션을 원하는 게임에서 비전 센싱을 통한 제어만 가능하도록 한정하고 모바일기기에서 입력되는 메시지는 무시해야 하는 경우, 이를 위해 모듈 하드웨어나 운영체제에 대한 카테고리 태그를 추가할 수 있다.
따라서, 크게 1) 스탠다드 입력 디바이스, 2) 비전 입력 디바이스, 3) 모바일 입력 디바이스, 4) 기타 디바이스로 분류 할 수 있고, 스탠다드 입력 디바이스는 다시 키보드와 마우스 입력으로 나눌 수 있으며, 비전 입력 디바이스는 카메라와 키넥트 호환 디바이스로 분류할 수 있고, 모바일 디바이스는 안드로이드와 ios, 윈도우폰 등으로 세분화할 수 있다.
도 3은 본 발명의 일 실시예에 따른 인터렉티브 전시환경을 위한 통합 미디어 프레임워크를 통한 전시환경을 나타낸 예시도이다.
도 3에 도시된 바와 같이 인터렉티브 전시환경으로 디스플레이 디바이스(60)로 투명디스플레이(61), LCD 디스플레이(62), 홀로그램(63), 멀티디스플레이(65), 프로젝터(64) 및 프로젝션스크린(66) 등이 있고, 이들은 그래픽플랫폼(31)이 탑재되어 전시용 디지털콘텐츠가 표출된다.
센서디바이스(50)로는 모션카메라(비젼센서)(51), 스마트폰(53) 및 NUI 센서(52) 등이 있고, 이들은 PC나 전용보드에 탑재된 센서플랫폼(11)에 의해 통합메시지로 변환되어 네트워크(40)를 통해 전송된다.
그 밖에 키오스크(55), 미디어테이블(56), 태블릿PC(54), 스마트폰(53) 등은 입력장치 및 디스플레이가 결합된 형태의 전시용 하드웨어로서 기기에 따라 다양한 센서플랫폼(11) 및 그래픽플랫폼(31)이 탑재된다.
따라서, 각 센서디바이스(50) 및 그래픽 디바이스(60)는 미디어서버(20)를 통해 통합메시지의 패싱방법에 의해 각종 입출력 정보를 주고 받음으로써 인터렉티브한 미디어전시환경에서 전시기획에 따라 이기종간 결합의 형태로 설계 및 개발된다.
본 발명에 따른 인터렉티브 전시환경을 위한 통합 미디어 프레임워크는 전시환경에 따라 다양하게 추가될 수 있는 센서디바이스(50)와 그래픽 디바이스(60)들에 대해서도 전체 구조의 재설계가 필요 없이 새로운 요소들을 모듈로 더함으로써 확장이 매우 용이하다.
예를들어 새로운 고성능의 비전센서(51)가 추가될 경우, 해당 센서디바이스(50)를 정해진 규격대로 통신 가능하도록 모듈로 패키징하여 정의된 통합메시지로 통신을 하게 되면 프레임워크를 변경하지 않고도 센싱 성능을 향상시키는 효과를 가져올 수 있다.
또 다른 예로 멀티디스플레이(65)를 구현할 때 동일한 화면을 여러 대의 디스플레이로 출력해주는 멀티디스플레이 기법은 화면 동기화 및 카메라 분할 등 다양한 기술적인 이슈를 포함하고 있으며, 일반적으로는 시스템 설계에 따라 전용 어플리케이션을 새로 개발해야 하며 수정 개발이 용이하지 않지만 통합 미디어 프레임워크를 통해 미디어서버(20)에서 복수개의 그래픽플랫폼(31)을 결합시켜 제어함으로써 손쉽게 멀티디스플레이(65)를 구현할 수 있어 개발효율을 높일 수 있다.
이와 같이 본 발명에 따른 인터렉티브 전시환경을 위한 통합 미디어 프레임워크에 의하면, 지속적인 전시기술과 콘텐츠의 발전에 도움이 될 수 있으며, 이러한 프레임워크를 기반으로 하여 특정한 상품을 홍보하는 매장에 가상의 제품을 체험하는 콘텐츠 서비스를 개발하는데 적용할 수 있으며 이벤트 및 공연, 행사에 재미와 흥미요소가 부각된 스토리텔링을 결합한 인터랙티브 콘텐츠제작에 활용할 수 있다.
또한, 박물관 및 전시관, 홍보관 등의 미디어시스템에 탑재되는 가상현실 콘텐츠 개발에도 활용할 수 있다.
그리고, 저비용 고효율 방식의 개발방법으로 인하여, 상업시설부터 교육, 전시환경 등 기존의 전시 미디어 환경을 변화시킬 수 있다.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다.
10 : 센서디바이스 입력부 11 : 센서플랫폼
12 : 제스처 인식 플랫폼 14 : NUI 플랫폼
16 : 모바일 플랫폼 20 : 미디어서버
30 : 그래픽 디스플레이부 31 : 그래픽플랫폼
32 : 2D 그래픽 플랫폼 34 : 비쥬얼 이펙트 플랙폼
36 : 물리기반 엔진 플랫폼 38 : 3D 그래픽 플랫폼
40 : 네트워크 50 : 센서디바이스
60 : 디스플레이 디바이스

Claims (6)

  1. 다양한 센서디바이스와 연결되기 위한 센서플랫폼을 제공하며 상기 센서디바이스로부터 입력되는 데이터를 통합메시지로 변환하여 네트워크로 전송하는 센서디바이스 입력부;
    다양한 디스플레이 디바이스와 연결되기 위한 그래픽플랫폼을 제공하며 상기 네트워크를 통해 입력되는 상기 통합메시지를 상기 디스플레이 디바이스의 고유데이터로 변환하여 출력하는 그래픽 디스플레이부; 및
    상기 네트워크에 접속되어 상기 센서디바이스 입력부에서 전송되는 상기 통합메시지를 상기 그래픽 디스플레이부로 전달하는 미디어서버를 포함하는 것을 특징으로 하는 인터렉티브 전시환경을 위한 통합 미디어 프레임워크.
  2. 제 1항에 있어서, 상기 그래픽 디스플레이부와 상기 센서디바이스 입력부는 P2P 방식으로 연결되어 상기 통합메시지를 송수신하는 것을 특징으로 하는 인터렉티브 전시환경을 위한 통합 미디어 프레임워크.
  3. 제 1항에 있어서, 상기 센서플랫폼은 비전센서로부터 입력된 데이터를 기반으로 제스처를 인식하기 위한 제스쳐 인식 플랫폼, NUI 센서를 이용한 자연스러운 사용자 인식을 위한 NUI(Natural User Interface) 플랫폼, 스마트폰을 포함하는 모바일 기기에서 입력되는 미디어를 처리하여 입력받는 모바일 플랫폼 중 어느 하나 이상을 포함하는 것을 특징으로 하는 인터렉티브 전시환경을 위한 통합 미디어 프레임워크.
  4. 제 1항에 있어서, 상기 그래픽플랫폼은 2D 그래픽을 제공하기 위한 2D그래픽 플랫폼, 복잡한 3차원 효과를 제공하는 비쥬얼 이펙트 플랫폼, 물리적인 인터랙션을 재현하는 물리기반 엔진 플랫폼, 3D 콘텐츠제작을 위한 3D그래픽 플랫폼 중 어느 하나 이상을 포함하는 것을 특징으로 하는 인터렉티브 전시환경을 위한 통합 미디어 프레임워크.
  5. 제 1항에 있어서, 상기 네트워크는 유선 로컬 네트워크, Wi-Fi 무선네트워크 및 블루투스 중 어느 하나 이상을 포함하는 것을 특징으로 하는 인터렉티브 전시환경을 위한 통합 미디어 프레임워크.
  6. 제 1항에 있어서, 상기 센서플랫폼과 상기 그래픽플랫폼은 플러그-앤-플레이 형식을 지원하는 것을 특징으로 하는 인터렉티브 전시환경을 위한 통합 미디어 프레임워크.
KR1020120043804A 2012-04-26 2012-04-26 인터렉티브 전시환경을 위한 통합 미디어 프레임 제공장치 KR101343131B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120043804A KR101343131B1 (ko) 2012-04-26 2012-04-26 인터렉티브 전시환경을 위한 통합 미디어 프레임 제공장치
PCT/KR2012/003257 WO2013162104A1 (ko) 2012-04-26 2012-04-26 인터렉티브 전시환경을 위한 통합 미디어 프레임워크

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120043804A KR101343131B1 (ko) 2012-04-26 2012-04-26 인터렉티브 전시환경을 위한 통합 미디어 프레임 제공장치

Publications (2)

Publication Number Publication Date
KR20130120705A true KR20130120705A (ko) 2013-11-05
KR101343131B1 KR101343131B1 (ko) 2013-12-20

Family

ID=49483380

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120043804A KR101343131B1 (ko) 2012-04-26 2012-04-26 인터렉티브 전시환경을 위한 통합 미디어 프레임 제공장치

Country Status (2)

Country Link
KR (1) KR101343131B1 (ko)
WO (1) WO2013162104A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101669816B1 (ko) * 2015-11-20 2016-10-27 동국대학교 산학협력단 소환현실과 상호작용하는 공간을 구축하기 위한 데이터 변환방법
KR101950408B1 (ko) * 2017-12-05 2019-02-20 동서대학교 산학협력단 스마트 인터랙션 스페이스 프레임워크 제공 시스템 및 그 방법
WO2023003239A1 (ko) * 2021-07-19 2023-01-26 기라성 설치 예술품을 이용한 ai 어시스턴트 시스템 및 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230158701A (ko) 2022-05-12 2023-11-21 정혜주 인터랙티브 전시 시스템 및 그 처리 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100491431B1 (ko) * 2002-12-06 2005-05-25 주식회사 유씨티코리아 유비쿼터스 컴퓨팅을 이용한 지능형 디지털 전시 시스템
KR100631761B1 (ko) * 2005-01-04 2006-10-11 삼성전자주식회사 가상의 sdr을 이용한 관리 시스템 및 그 방법
KR101187908B1 (ko) * 2007-09-11 2012-10-05 삼성테크윈 주식회사 복수의 이벤트 영상을 표시하는 통합 감시 시스템 및 이를이용한 복수의 이벤트 영상 표시 방법
KR20110119913A (ko) * 2010-04-28 2011-11-03 (주)미래세움 작동 전시물 통합 관리 방법 및 시스템

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101669816B1 (ko) * 2015-11-20 2016-10-27 동국대학교 산학협력단 소환현실과 상호작용하는 공간을 구축하기 위한 데이터 변환방법
KR101950408B1 (ko) * 2017-12-05 2019-02-20 동서대학교 산학협력단 스마트 인터랙션 스페이스 프레임워크 제공 시스템 및 그 방법
WO2023003239A1 (ko) * 2021-07-19 2023-01-26 기라성 설치 예술품을 이용한 ai 어시스턴트 시스템 및 방법

Also Published As

Publication number Publication date
KR101343131B1 (ko) 2013-12-20
WO2013162104A1 (ko) 2013-10-31

Similar Documents

Publication Publication Date Title
CN105518614B (zh) 用于多屏幕应用程序的屏幕录制的方法、设备和计算机可读介质
CN1842088B (zh) 用于丰富交互用户界面的有效远程投影的系统
CN103324453B (zh) 显示器
CN107852573A (zh) 混合现实社交交互
CN103516808A (zh) 智慧展馆移动终端虚实交互平台
KR101343131B1 (ko) 인터렉티브 전시환경을 위한 통합 미디어 프레임 제공장치
CN110609654B (zh) 数据同步显示方法、装置、设备以及远程会议系统
CN107077311A (zh) 输入信号仿真
CN102750121A (zh) 电子显示装置的智能扩展与精确控制系统及其多用户多任务加密共享方法
CN104012059A (zh) 协处理器之间的直接链路同步通信
Park et al. The three dimensions of book evolution in ubiquitous computing age: Digitalization, augmentation, and hypermediation
CN102681812A (zh) 一种计算机多屏幕扩展显示方法及装置
CN202309954U (zh) 交互式一体化电子白板和共享系统
Ishida et al. Proposal of high realistic sensation system using the large scale tiled display environment
Park et al. NAVER: Networked and Augmented Virtual Environment aRchitecture; design and implementation of VR framework for Gyeongju VR Theater
KR20230142193A (ko) 인터렉티브 전시환경을 위한 통합 미디어 제공시스템
US10290151B2 (en) AR/VR device virtualisation
US11656576B2 (en) Apparatus and method for providing mapping pseudo-hologram using individual video signal output
KR101583527B1 (ko) 미디어 파사드 구현 방법 , 미디어 파사드 구현 서버 및 미디어 파사드 구현 시스템
US20230122666A1 (en) Cloud xr-based program virtualizing method
KR102630775B1 (ko) Xr 기반 시제품 검증 장치 및 방법
Chiday Developing a Kinect based Holoportation System
JP6892937B1 (ja) 建築物表示システム、建築物表示方法及びプログラム
US20230386140A1 (en) Systems, methods, and devices for a virtual environment reality mapper
KR20140005522A (ko) 다양한 플랫폼 기반의 스마트 기기와 연동하는 실시간 가상화 시스템의 구축방법 및 다양한 플랫폼 기반의 스마트 기기와 연동하는 실시간 가상화 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee