KR20210019235A - System and method for providing user responsive sensor-based experience content - Google Patents
System and method for providing user responsive sensor-based experience content Download PDFInfo
- Publication number
- KR20210019235A KR20210019235A KR1020190098137A KR20190098137A KR20210019235A KR 20210019235 A KR20210019235 A KR 20210019235A KR 1020190098137 A KR1020190098137 A KR 1020190098137A KR 20190098137 A KR20190098137 A KR 20190098137A KR 20210019235 A KR20210019235 A KR 20210019235A
- Authority
- KR
- South Korea
- Prior art keywords
- participant
- reaction
- experience content
- content
- sensor
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000006243 chemical reaction Methods 0.000 claims abstract description 60
- 230000004044 response Effects 0.000 claims description 18
- 230000003993 interaction Effects 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000008921 facial expression Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 3
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 claims 3
- 229910052709 silver Inorganic materials 0.000 claims 3
- 239000004332 silver Substances 0.000 claims 3
- 230000001186 cumulative effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 11
- 230000006399 behavior Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000004064 recycling Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
참여자 반응형 센서기반 체험 컨텐츠 제공 시스템 및 방법에 관한 것으로 구체적으로, 시나리오와 조건 달성을 통해 진행되는 체험자 맞춤 반응형 컨텐츠 생성을 위해, 컨텐츠의 세계관 내에서 참여자의 행동과 위치 정보에 따라 다양한 체감형 장치를 반응시켜, 참여자와 컨텐츠 간 적극적인 상호작용을 유도하는 체감형 컨텐츠를 생성하는 시스템 및 방법에 관한 것이다. Regarding the participant responsive sensor-based experience content provision system and method, specifically, for the creation of user-customized responsive content that proceeds through the achievement of scenarios and conditions, various tangible types according to the participant's behavior and location information within the content worldview The present invention relates to a system and method for generating tangible content that induces active interaction between a participant and content by reacting a device.
본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the content described in this section is not prior art to the claims of this application, and inclusion in this section is not admitted to be prior art.
체감형 컨텐츠 서비스 산업은 5G 통신기술의 등장 및 VR, AR 기술의 발전으로 급성장하고 있는 기술 분야로서, 관련산업은 2015년 이후 규모 및 매출 면에서 급성장 중 이다. 하지만, 종래 체감형 컨텐츠 제공 서비스는 대부분 단순하고 반복적인 컨텐츠를 제공하고, 특별한 주제 없이 체험 공간에 기기 및 컨텐츠를 단순 나열하는 방식이다.The tangible content service industry is a technology field that is rapidly growing due to the advent of 5G communication technology and the development of VR and AR technologies, and the related industry has been growing rapidly in terms of scale and sales since 2015. However, in the conventional tangible content providing service, most simple and repetitive content is provided, and devices and content are simply arranged in an experience space without a special subject.
이러한 단순한 참여자 반응형 체험 컨텐츠는 컨텐츠의 짧은 수명으로 이미 컨텐츠를 경험했던 관람객의 재방문율을 저하시키고, 재방문율 유지를 위한 컨텐츠 교체 시 높은 제작비 및 관리비용을 필요로 한다. 또한, 도 1의 (a)를 참조하면 종래에는 AR, VR 을 포함하는 체감형 컨텐츠를 경험하기 위해서는 고글, 조이스틱 및 무거운 HMD나 여러 개의 인식 장비를 몸에 장착해야만 한다.Such simple participant responsive experience content reduces the revisit rate of visitors who have already experienced the content due to the short life of the content, and requires high production and management costs when replacing content to maintain the revisit rate. In addition, referring to (a) of FIG. 1, in order to experience haptic content including AR and VR, goggles, joysticks, and heavy HMD or multiple recognition devices must be mounted on the body.
또한, 일반적으로 체감형 컨텐츠 개발을 위해서는 공간 및 인프라가 필요하고, 체감형 기기와 참여자의 상호작용이 수행되어야 한다. 현재 이러한 기능과 효과를 제공하는 공간과 기기는 그 종류가 많지 않을 뿐만 아니라 가격도 매우 비싸 개발에 큰 부담으로 작용한다. 또한, 현재 시중의 체감형 공간, 인프라 및 기기에 따른 컨텐츠 기획의 한계가 있고, 종래 컨텐츠는 단순 체감형 영상, 비행, 슈팅, 스포츠 게임 정도로 기획의 폭이 협소하고 참여자의 수동적인 반응만을 유도하고 있는 실정이다. In addition, in general, space and infrastructure are required to develop tangible content, and interaction between tangible devices and participants must be performed. Currently, there are not many types of spaces and devices that provide these functions and effects, and they are very expensive, which is a great burden on development. In addition, there is a limitation in content planning according to the current haptic space, infrastructure, and devices, and conventional contents are narrow in planning as simple haptic video, flight, shooting, and sports games, and only passive reactions of participants are induced. There is a situation.
실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템 및 방법은 체감형 컨텐츠의 수익 개선과 저변 확대를 위해 참여자의 적극적인 참여를 유도하는 반응형, 맞춤형 체험 컨텐츠를 제공한다. 또한, 시스템의 세계관 내에서 참여자의 행동과 위치 정보에 따라 다양한 체감형 장치를 반응시켜, 참여자와 컨텐츠 간 적극적인 상호작용을 유도하는 새로운 방식의 체감형 컨텐츠를 제공한다. The participant responsive sensor-based experience content providing system and method according to the embodiment provides responsive and customized experience content that induces active participation of participants in order to improve profits and expand the base of haptic content. In addition, by reacting various haptic devices according to the participant's behavior and location information within the system's worldview, it provides a new way of haptic content that induces active interaction between the participant and the contents.
실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템은 공간별 시나리오와, 참여자 반응 조건, 참여자 반응 결과 및 참여자 위치에 따른 체험 컨텐츠 제어신호를 누적 저장하는 데이터베이스; 비콘과 센서를 통해 참여자의 실시간 위치를 트래킹하고, 참여자의 생체 신호 및 모션을 포함하는 참여자 반응을 인식하는 센서모듈; 공간별 시나리오와 상기 센서모듈에서 인식된 참여자 반응에 따라 각각의 공간에 설치된 AR, VR, 홀로그램을 포함하는 체험 컨텐츠의 크기, 선명도, 종류, 출력시점 및 지속시간을 포함하는 세부정보 설정을 생성하는 연산모듈; 및 세부정보설정이 반영된 체험 컨텐츠를 생성하고, 상기 생성된 체험 컨텐츠를 출력하는 출력모듈; 을 포함한다. Participant responsive sensor-based experience content providing system according to an embodiment includes a database for accumulating and storing experience content control signals according to spatial scenarios, participant reaction conditions, participant reaction results, and participant positions; A sensor module for tracking a participant's real-time location through a beacon and a sensor, and recognizing a participant's reaction including a biological signal and motion of the participant; To create detailed information settings including size, clarity, type, output time and duration of experience content including AR, VR, and hologram installed in each space according to space scenarios and participants' reactions recognized by the sensor module. Calculation module; And an output module generating experience content reflecting detailed information settings and outputting the generated experience content. Includes.
다른 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템의 컨텐츠 생성 방법은 (A) 통합제어서버의 데이터베이스에 시나리오, 참여자 정보 및 반응 조건 정보를 저장하는 단계; (B) 통합제어서버에서 저장된 시나리오와 참여자 반응 및 조건 검출 결과에 따라 공간에 설치된, 조명, 도어락, 사운드를 제어하고, 참여자 반응형 컨텐츠를 생성하는 단계; (C) 통합제어서버에서 생성된 컨텐츠를 시나리오와 조건 및 참여자 반응에 따라 출력하고, 컨텐츠에 노출된 참여자의 반응정보 및 생체정보를 추적하는 단계; (D) 통합제어서버에서 추적된 참여자 반응정보 및 생체정보를 분석하여 시나리오에 반영하고 추적된 생체정보에 따라 참여자 반응형 컨텐츠의 세부정보를 제어하는 단계; 를 포함한다. The content generation method of the participant responsive sensor-based experience content providing system according to another embodiment includes the steps of: (A) storing scenario, participant information, and reaction condition information in a database of an integrated control server; (B) controlling lighting, door locks, and sounds installed in the space according to the scenario and participant reaction and condition detection result stored in the integrated control server, and generating participant responsive content; (C) outputting the content generated by the integrated control server according to the scenario, conditions and participants' reactions, and tracking the participant's reaction information and biometric information exposed to the content; (D) analyzing the participant reaction information and biometric information tracked by the integrated control server, reflecting it in the scenario, and controlling detailed information of the participant-responsive content according to the tracked biometric information; Includes.
실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템 및 방법은 참여자의 반응에 따라 다양한 결과를 도출하여 컨텐츠의 수명을 대폭 늘어나게 하고 재 방문 율을 높인다. 또한, 체험 컨텐츠 제공 시스템의 시나리오 교체 시 기존 기기 및 인테리어를 재활용해 비용을 감소시키고 교체시간을 단축시킬 수 있도록 한다. 아울러 실시예에서는 컨텐츠 세부 설정에 따른 참여자 반응을 추적하고 상관관계를 분석하여 보다 진화된 참여자 반응형 AR 컨텐츠를 생성할 수 있도록 한다. The participant responsive sensor-based experience content providing system and method according to the embodiment significantly extends the life of the content and increases the revisit rate by deriving various results according to the participant's response. In addition, when replacing the scenario of the experience content providing system, existing devices and interiors are recycled to reduce costs and shorten the replacement time. In addition, in the embodiment, a more advanced participant-responsive AR content can be generated by tracking the participant reaction according to the detailed content setting and analyzing the correlation.
또한, 실시예에서는 도 1의 (b)에 도시된 바와 같이, 비콘과 센서를 통해 참여자의 실시간 위치를 인식하기 때문에 기존 VR, AR, MR 컨텐츠처럼 무거운 HMD(Head Mounted Display)나 여러 개의 인식 장비를 몸에 장착할 필요가 없어, 서비스 준비시간이 단축된다. 또한, 체감형 시스템에 참여하는 플레이어는 센서 하나만을 소지하면 되므로, 개인 장비 착용의 불편함 및 무게감을 완전히 해소할 수 있고 동작에 대한 불편 및 공간에 대한 제약이 없어진다.In addition, in the embodiment, as shown in (b) of FIG. 1, since the real-time location of the participant is recognized through beacons and sensors, heavy HMD (Head Mounted Display) or multiple recognition devices like existing VR, AR, MR contents There is no need to mount the product on the body, so the service preparation time is shortened. In addition, since the player participating in the tangible system only needs to possess one sensor, the inconvenience and weight of wearing personal equipment can be completely eliminated, and there are no inconveniences for motion and restrictions on space.
아울러, 실시예를 통해 참여자의 행동과 위치 정보에 따라 다양한 체감형 장치를 반응시켜 참여자와 컨텐츠 간 적극적인 상호작용 유도하고, AR(Augmented Reality), VR(Virtual Reality), MR(Mixed Reality), 오감 인터렉션 컨텐츠, 체감형 스크린 컨텐츠, 공간형 디스플레이 컨텐츠에 모두 이식 할 수 있다. 이를 통해 시스템 사용에 대한 제약이 없어지고, 컨텐츠 반응에 따른 참여자의 만족감을 극대화 시킬 수 있다.In addition, through embodiments, various haptic devices are reacted according to the participant's behavior and location information to induce active interaction between the participant and the content, and AR (Augmented Reality), VR (Virtual Reality), MR (Mixed Reality), five senses It can be implanted into interactive content, tangible screen content, and spatial display content. This eliminates the restrictions on the use of the system and maximizes the satisfaction of participants according to the content response.
본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present invention are not limited to the above effects, and should be understood to include all effects that can be inferred from the configuration of the invention described in the detailed description or claims of the present invention.
도 1은 종래 기술과 실시예에 따른 체험 컨텐츠 제공 시스템의 참여자를 비교하는 도면
도 2a는 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템의 주요기능을 설명하기 위한 도면
도 2b는 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템 구성을 나타낸 도면
도 3은 실시예에 따른 실시예에 따른 통합제어서버(100)의 데이터 처리블록을 나타낸 도면
도 4는 실시예에 따른 센서와 비콘의 참여자 위치 추적 및 참여자 생체정보 파악과정을 나타낸 도면
도 5는 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템의 이용 예를 나타낸 도면
도 6은 체험 컨텐츠 제공 시스템의 실제 참여 예를 설명하기 위한 도면
도 7은 실시예에 따른 체험 컨텐츠 제공 시스템의 데이터 처리과정을 나타낸 도면1 is a diagram comparing participants in a system for providing experience content according to the prior art and an embodiment
2A is a diagram for explaining the main functions of a participant responsive sensor-based experience content providing system according to an embodiment
2B is a diagram showing the configuration of a system for providing participant responsive sensor-based experience content according to an embodiment
3 is a view showing a data processing block of the integrated
4 is a diagram showing a process of tracking a participant's location and identifying participant's biometric information of a sensor and a beacon according to an embodiment
5 is a view showing an example of use of a participant responsive sensor-based experience content providing system according to an embodiment
6 is a diagram for explaining an example of actual participation in an experience content providing system
7 is a diagram showing a data processing process of an experience content providing system according to an embodiment
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 도면부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, only the present embodiments are intended to complete the disclosure of the present invention, and the general knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to those who have it, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same elements throughout the specification.
본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 참여자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to the intention or custom of participants or operators. Therefore, the definition should be made based on the contents throughout this specification.
도 2a는 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템의 주요기능을 설명하기 위한 도면이다.2A is a view for explaining the main functions of the participant-responsive sensor-based experience content providing system according to an embodiment.
도 2a를 참조하면 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템은 시나리오와 조건 달성을 통해 진행되는 체험자 맞춤 반응형 컨텐츠 생성을 위해, 컨텐츠의 세계관 내에서 참여자의 행동과 위치 정보에 따라 다양한 체감형 장치를 반응시켜, 참여자와 컨텐츠 간 적극적인 상호작용을 유도하는 체감형 컨텐츠를 생성한다. 구체적으로, 통합제어서버에 시나리오, 플레이어 정보 및 조건정보를 저장하고, 사용자에 의해 입력되거나 감지되는 사용자의 보정위치, 시나리오상 미션해결여부와 단서 획득 여부 등의 조건검사를 수행하고, 사용자 위치정보, 생체정보 및 반응 정보를 추적하여 체험 컨텐츠를 생성하는 실감 장치를 제어한다. 아울러, 시스템이 장착된 공간의 조명, 도어락 사운드 등 환경정보를 함께 제어하여 AR, VR 및 MR, 홀로그램을 포함하는 체험 컨텐츠를 출력할 때 참여자가 적절한 환경에서 컨텐츠를 더욱 실감나게 체험할 수 있도록 한다. Referring to Figure 2a, the participant responsive sensor-based experience content providing system according to the embodiment is provided in various ways according to the participant's behavior and location information within the world view of the content in order to generate customized responsive content for the experiencer through the achievement of scenarios and conditions. By reacting haptic devices, haptic contents are created that induce active interaction between participants and contents. Specifically, the scenario, player information, and condition information are stored in the integrated control server, and condition checks such as the user's correction position input or detected by the user, whether the mission is resolved in the scenario and whether a clue has been obtained, and the user location information , Controls a sensory device that generates experience content by tracking biometric information and reaction information. In addition, by controlling environmental information such as lighting and door lock sound in the space where the system is installed, participants can experience the content more realistically in an appropriate environment when outputting experience content including AR, VR, MR, and hologram. .
도 2b는 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템 구성을 나타낸 도면이다.2B is a diagram showing the configuration of a participant-responsive sensor-based experience content providing system according to an embodiment.
도 2b를 참조하면, 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템은 통합제어서버(100), 송수신기(200) 및 공간에 설치된 비콘 및 센서(300)를 포함하여 구성될 수 있다. 통합제어서버(100)는 송수신기(200)로부터 비콘 및 센서(300)에서 인식된 참여자의 모션정보, 생체정보, 위치, 위치 트래킹 정보와 기 저장된 시나리오에 대응하는 체험 컨텐츠를 생성하고 이를 출력하여 참여자가 체험 컨텐츠를 경험 할 수 있도록 한다. 실시예에서 참여자는 손목 등에 비콘을 인식하는 웨어러블 위치센서를 착용하여 자신의 위치 정보가 파악될 수 있도록 한다.Referring to FIG. 2B, a participant-responsive sensor-based experience content providing system according to an embodiment may include an integrated
송수신기(200)는 비콘으로부터 참여자의 위치와 위치 트래킹 정보를 전달받고, 다른 센서로부터는 참여자의 생체정보와 모션정보, 표정 정보 등을 포함하는 참여자 반응정보를 전달받는다. 실시예에서 송수신기(200)는 수신한 참여자 반응정보와 위치정보 및 위치 트래킹 정보의 유효성을 파악하여 유효성이 검증된 참여자 반응정보와 위치정보 등을 통합제어서버(100)로 전송한다.The
통합제어서버(100)는 송수신기(200)로부터 수신한 참여자 반응정보 및 위치정보를 파악하고 기 저장된 시나리오와 조건에 따라 참여자 반응형 컨텐츠를 생성하고 이를 제어한다. The integrated
도 3은 실시예에 따른 실시예에 따른 통합제어서버(100)의 데이터 처리블록을 나타낸 도면이다. 3 is a diagram showing a data processing block of the integrated
도 3을 참조하면, 실시예에 따른 통합제어서버(100)는 데이터베이스(110), 센서모듈(130), 연산모듈(150), 출력모듈(170) 및 피드백모듈(190)을 포함하여 구성될 수 있다. 데이터베이스(110)에는 체험 형 공간별 시나리오와, 참여자 반응 조건 및 참여자 위치에 따른 제어신호가 누적 저장된다. Referring to FIG. 3, the integrated
센서모듈(150)은 비콘과 센서를 통해 참여자의 실시간 위치를 트래킹하고, 참여자의 생체 신호 및 모션을 포함하는 참여자 반응을 인식한다. 또한, 센서모듈(130)은 여러 참여자가 특정 공간에 입장한 경우, 참여자 각각의 움직임과 반응을 개별적으로 인식한다. 또한, 센서모듈(130)은 비콘의 수신 신호 강도 및 수신 신호음을 통해 참여자의 위치 좌표를 인식하고 참여자 위치를 트래킹 한다. The
연산모듈(150)은 공간별 시나리오와 센서모듈(130)에서 인식된 참여자 반응 및 조건정보에 따라 각각의 공간에 설치된 참여자 반응형 컨텐츠의 크기, 선명도, 종류, 출력시점 및 지속시간을 포함하는 세부 설정을 생성한다. 실시예에서 연산모듈(150)은 기 저장된 시나리오 흐름에 대응하는 AR 컨텐츠가 복수개의 공간 블록들에 연속적으로 출력되도록 참여자 반응형 컨텐츠의 세부정보를 생성한다. 또한 연산모듈(150)은 센서모듈(130)로부터 참여자 별 위치 정보를 수신하는 경우, 수신한 위치 데이터의 유효성을 검증하고, 검증이 완료된 위치 데이터를 체험 컨텐츠를 출력모듈로 전송한다. The
출력모듈(170)은 세부 설정이 반영된 참여자 반응형 컨텐츠를 생성하고, 참여자 반응형 컨텐츠를 출력한다.The
피드백모듈(190)은 출력된 참여자 반응형 컨텐츠를 확인한 참여자의 모션, 표정, 생체정보를 포함하는 참여자 후속 반응을 추적하고, 추적된 참여자 후속반응과 출력된 참여자 반응형 컨텐츠의 상관관계를 분석하여 분석결과를 누적 저장하고, 분석 결과가 참여자 반응형 컨텐츠 세부정보 설정에 반영되도록 한다. 또한 실시예에서 피드백 모듈(190)은 기 저장된 예상 시나리오에 포함되는 참여자 반응과 실제 참여자 반응 비교결과, 출력된 참여자 반응형 컨텐츠의 소리, 크기, 나타나는 시점에 대한 참여자 반응 결과 및 참여자 연령대와 참여자 성별에 따른 참여자 반응 크기 및 상호작용 정도를 파악하고 분석한다.The
실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템 및 방법 은 참여자 반응형 출력 컨텐츠 및 시나리오에 대한 복수개의 참여자 예상반응과 각각의 예상 반응에 대한 대응 시나리오를 미리 설정하고, 미리 저장된 예상 반응대로 참여자의 생체정보와 모션, 위치가 감지되는 경우, 설정된 대응 시나리오에 따라 참여자 반응형 출력 컨텐츠 생성을 제어한다.The participant responsive sensor-based experience content providing system and method according to the embodiment sets in advance a plurality of participant expected responses to participant responsive output contents and scenarios and a response scenario for each expected response, and the participant according to the previously stored expected response. When biometric information, motion, and location of are detected, the participant responsive output content generation is controlled according to the set response scenario.
도 4는 실시예에 따른 센서와 비콘의 참여자 위치 추적 및 참여자 생체정보 파악과정을 나타낸 도면이다. 4 is a diagram illustrating a process of tracking a participant's location and identifying participant's biometric information by sensors and beacons according to an embodiment.
도 4를 참조하면, 도 4의 (a)에 도시된 바와 같이, 종래에는 적외선 센서로 참여자와 센서의 이격거리 정보만 측정한 반면, 실시예에서는 참여자가 착용한 웨어러블 위치 인식 센서와 비콘 간 신호 강도세기 측정을 통해 참여자의 방향, 이격거리 접근 정도 까지 파악할 수 있다. 실시예에서는 웨어러블 기기와 비콘을 통한 참여자 정보를 보다 정확하게 인식함으로써, 시나리오와 조건 달성을 통해 진행되는 체험자 맞춤 반응형 컨텐츠를 생성한다. 또한, 참여자의 위치와 방향, 시나리오와 조건에 맞게 장치들을 통합적으로 제어하고, 정확한 시점과 위치에 따라 시스템에 구성된 장치들이 반응하게 함으로써, 플레이어의 체험을 극대화 할 수 있도록 한다. Referring to FIG. 4, as shown in (a) of FIG. 4, in the related art, only the distance information between the participant and the sensor was measured with an infrared sensor, whereas in the embodiment, a signal between the wearable location recognition sensor and the beacon worn by the participant Through the intensity measurement, the direction of the participant and the degree of approaching the separation distance can be identified. In the embodiment, by more accurately recognizing participant information through wearable devices and beacons, user-customized responsive content that proceeds through achievement of scenarios and conditions is generated. In addition, by controlling the devices in an integrated manner according to the location and direction of the participant, the scenario and conditions, and allowing the devices configured in the system to react according to the exact viewpoint and location, the player's experience can be maximized.
도 5는 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템의 이용 예를 나타낸 도면이다.5 is a view showing an example of use of a participant responsive sensor-based experience content providing system according to an embodiment.
도 5를 참조하면, 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템의 연산모듈(150)은 기 저장된 시나리오와 참여자 반응에 따라 조명, 도어락시스템 및 사운드 모듈의 세부 정보를 제어하여 참여자 반응형 컨텐츠의 출력이 보다 실감나게 참여자에게 전달될 수 있도록 한다. 또한, 종래의 체험공간은 한 번 설치되면, 이동 및 교체, 철거에 많은 어려움이 있다. 특히 방 탈출 카페의 경우, 설치에 많은 비용이 들며, 시나리오 수정에 따른 재활용이 거의 불가하다. 하지만, 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠는 장치를 모듈화시켜 설치 및 이동이 편리하도록 독립적인 모듈 형태로 제작함으로써, 시나리오 변경에 따라 장치의 위치 이동, 제거, 추가 등이 쉽게 진행될 수 있도록 한다. 아울러, 실시예를 통해 시나리오 분기를 통한 공간 재활용을 극대화하고, 하나의 장치 공간에 여러 가지 시나리오의 적용을 가능하게 하여 다양한 컨텐츠 체험 형 컨텐츠를 제공한다.5, the
또한, 동일 컨텐츠에 참여자들의 행동에 따라 다양한 분기를 가진 컨텐츠 구성을 가능하도록 하고, 공간의 블록화를 가능하게 한다. 실시예에서는 공간의 블록화를 통해, 여러 개의 공간 블록들을 시나리오의 흐름에 맞춰 연속적인 형태로 배치하여 한 개의 통합 체험 공간을 구성할 수 있다. In addition, it is possible to organize contents having various branches according to the behavior of participants in the same contents, and to block space. In an embodiment, through the blockage of space, several space blocks may be arranged in a continuous form in accordance with the flow of the scenario to form one integrated experience space.
또한, 각 공간 블록들에 시간, 계절, 장소 등의 주제에 맞춰 체감 장치들을In addition, haptic devices are added to each space block according to themes such as time, season, and place.
효과적으로 배치 가능하도록 하고, 조명, 사운드 제어를 통한 영화적 연출 등을 통해 참여자들에게 몰입감을 높일 수 있도록 한다. 또한, 각 공간 블록들은 각각의 독립적인 컨텐츠로 제공도 가능해 서비스 환경에 맞춰 적용형태를 결정할 수 있다.It enables effective placement and enhances the sense of immersion to participants through cinematic directing through lighting and sound control. In addition, each spatial block can be provided as each independent content, so the application type can be determined according to the service environment.
도 6은 체험 컨텐츠 제공 시스템의 실제 참여 예를 설명하기 위한 도면이다.6 is a diagram for explaining an example of actual participation in an experience content providing system.
도 6을 참조하면, 실시예에 따른 체험 컨텐츠 제공 시스템은 다양한 플레이 형태를 구현할 수 있다. 도 6(a)에 도시된 바와 같이, 한 공간에서 하나의 컨텐츠를 1명의 참여자가 직접 수행하는 개인 플레이 형태로 구성되거나, (b)에 도시된 바와 같이, 한 공간에서 하나의 컨텐츠를 2명이상의 플레이어가 협업을 통해 진행하도록 구성될 수 있다. 또한, (c)에 도시된 바와 같이, 한 공간에서 하나의 컨텐츠를 여러 명이 각자 플레이 하는 방식으로 구현할 수 있다.Referring to FIG. 6, the experience content providing system according to the embodiment may implement various types of play. As shown in Fig. 6(a), one participant directly performs one content in one space, or consists of a personal play form, or as shown in (b), one content is two people in one space. More than one player may be configured to proceed through collaboration. In addition, as shown in (c), it is possible to implement a single content in one space in a way that several people each play.
이하에서는 체감형 컨텐츠 제공 방법에 대해서 차례로 설명한다. 실시예에 따른 체감형 컨텐츠 제공 방법의 작용(기능)은 체감형 컨텐츠를 제어하는 통합제어서버 및 시스템상의 기능과 본질적으로 같은 것이므로 도 1 내지 도 6과 중복되는 설명은 생략하도록 한다.Hereinafter, a method of providing tangible content will be described in order. Since the function (function) of the haptic content providing method according to the embodiment is essentially the same as the function of the integrated control server and the system for controlling haptic content, a description overlapping with FIGS. 1 to 6 will be omitted.
도 7은 실시예에 따른 체험 컨텐츠 제공 시스템의 데이터 처리과정을 나타낸 도면이다.7 is a diagram illustrating a data processing process of an experience content providing system according to an embodiment.
실시예에서 S10 단계에서는 데이터베이스에 시나리오, 참여자 정보 및 반응 조건 정보를 저장한다. In the embodiment, in step S10, scenario, participant information, and reaction condition information are stored in a database.
S30 단계에서는 저장된 시나리오와 참여자 반응 및 조건 검출 결과에 따라 공간에 설치된, 조명, 도어락, 사운드를 포함하는 환경정보를 제어하고, 참여자 반응형 컨텐츠를 생성한다. In step S30, environmental information installed in the space, including lighting, door lock, and sound, is controlled according to the stored scenario, participant reaction and condition detection result, and participant responsive content is generated.
S50 단계에서는 생성된 컨텐츠를 시나리오와 조건 및 참여자 반응에 따라 출력하고, 컨텐츠에 노출된 참여자의 반응정보 및 생체정보를 추적한다. In step S50, the generated content is output according to the scenario and conditions and the participant's reaction, and reaction information and biometric information of the participant exposed to the content are tracked.
S70 단계에서는 추적된 참여자 반응정보 및 생체정보를 분석하여 시나리오에 반영하고 추적된 생체정보에 따라 참여자 반응형 컨텐츠의 세부정보를 제어한다. 실시예에서는 사용자의 보정위치, 시나리오에 등록된 미션 해결결과, 단서획득과정에 따라 AR, VR, MR 및 홀로그램을 포함하는 체험 컨텐츠를 제어할 수 있다.In step S70, the tracked participant reaction information and biometric information are analyzed, reflected in the scenario, and detailed information of the participant responsive content is controlled according to the tracked biometric information. In the embodiment, experience content including AR, VR, MR, and hologram may be controlled according to a user's correction location, a mission solution result registered in a scenario, and a clue acquisition process.
실시예에 따른 S70 단계는 출력된 참여자 반응형 컨텐츠를 확인한 참여자의 모션, 표정, 생체정보를 포함하는 참여자 후속 반응을 추적하는 단계; 추적된 참여자 후속반응과 출력된 체험 컨텐츠의 상관관계를 분석하여 분석결과를 누적 저장하는 단계; 및 분석 결과가 참여자 반응형 컨텐츠 세부정보 설정에 반영되도록 피드백 하는 단계; 를 포함할 수 있다. 또한, 실시예에서는 기 저장된 예상 시나리오에 포함되는 참여자 반응과 실제 참여자 반응 비교결과, 출력된 체험 컨텐츠의 소리, 크기, 나타나는 시점에 대한 참여자 반응 결과 및 참여자 연령대와 참여자 성별에 따른 반응 크기 및 상호작용 정도를 파악하고 분석하여 참여자의 성별과 나이 및 반응 정도에 따라 참여자 맞춤형 컨텐츠를 제공할 수 있다. Step S70 according to the embodiment includes the steps of tracking a participant's follow-up reaction including motion, facial expression, and biometric information of the participant who checks the output participant responsive content; Analyzing a correlation between the tracked participant's follow-up reaction and the output experience content, and accumulating and storing the analysis result; And feedbacking the analysis result to be reflected in the participant responsive content detailed information setting. It may include. In addition, in the embodiment, the comparison result of the participant reaction included in the pre-stored expected scenario with the actual participant reaction, the result of the participant reaction to the sound and volume of the output experience content, the time of appearance, and the response size and interaction according to the participants' age group and participant gender. By grasping and analyzing the degree, it is possible to provide customized content for participants according to the participants' gender, age, and reaction level.
개시된 내용은 예시에 불과하며, 특허청구범위에서 청구하는 청구의 요지를 벗어나지 않고 당해 기술분야에서 통상의 지식을 가진 자에 의하여 다양하게 변경 실시될 수 있으므로, 개시된 내용의 보호범위는 상술한 특정의 실시예에 한정되지 않는다.The disclosed contents are only examples, and various changes can be made by those of ordinary skill in the art without departing from the gist of the claims claimed in the claims, so the scope of protection of the disclosed contents is It is not limited to the examples.
Claims (11)
공간별 시나리오와, 참여자 반응 조건, 참여자 반응 결과 및 참여자 위치에 따른 체험 컨텐츠 제어신호를 누적 저장하는 데이터베이스;
비콘과 센서를 통해 참여자의 실시간 위치를 트래킹하고, 참여자의 생체 신호 및 모션을 포함하는 참여자 반응을 인식하는 센서모듈;
상기 공간별 시나리오와 상기 센서모듈에서 인식된 참여자 반응에 따라 각각의 공간에 설치된 AR, VR, 홀로그램을 포함하는 체험 컨텐츠의 크기, 선명도, 종류, 출력시점 및 지속시간을 포함하는 세부정보 설정을 생성하는 연산모듈; 및
상기 세부정보설정이 반영된 체험 컨텐츠를 생성하고, 상기 생성된 체험 컨텐츠를 출력하는 출력모듈; 을 포함하는 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템.
In the participant responsive sensor-based experience content providing system,
A database for accumulating and storing experience content control signals according to spatial scenarios, participant reaction conditions, participant reaction results, and participant positions;
A sensor module for tracking a participant's real-time location through a beacon and a sensor, and recognizing a participant's reaction including a biological signal and motion of the participant;
Generate detailed information settings including size, clarity, type, output time and duration of experience content including AR, VR, and hologram installed in each space according to the space scenarios and participants' reactions recognized by the sensor module An operation module to perform; And
An output module generating experience content reflecting the detailed information setting and outputting the generated experience content; Participant responsive sensor-based experience content providing system including a.
출력된 체험 컨텐츠를 확인한 참여자의 모션, 표정, 생체정보를 포함하는 참여자 후속 반응을 추적하고, 추적된 참여자 후속반응과 상기 출력된 체험 컨텐츠의 상관관계를 분석하여 분석결과를 누적 저장하고, 상기 분석 결과가 체험 컨텐츠 세부정보 설정에 반영되도록 하는 피드백 모듈; 을 더 포함하는 것을 특징으로 하는 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템.
The system of claim 1, wherein the participant responsive sensor-based experience content providing system
Tracking the participant's follow-up reaction including motion, facial expression, and biometric information of the participant who checked the outputted experience content, analyzing the correlation between the tracked participant follow-up reaction and the outputted experience content, accumulating and storing the analysis result, and the analysis A feedback module that allows the result to be reflected in detailed experience content information setting; Participant responsive sensor-based experience content providing system, characterized in that it further comprises.
기 저장된 예상 시나리오에 포함되는 참여자 반응과 실제 참여자 반응 비교결과, 출력된 참여 컨텐츠의 소리, 크기, 컨텐츠 출력 시점에 대한 참여자 반응 결과와 참여자 연령대와 참여자 성별에 따른 참여자 반응 크기 및 상호작용 정도를 수치로 파악하고 분석하는 것을 특징으로 하는 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템.
The method of claim 2, further comprising: the feedback module; silver
Participant reactions included in pre-stored predicted scenarios and actual participant reaction comparison results, participant reaction results for the volume and timing of the content output, participant reaction size and degree of interaction according to participant age group and participant gender Participant responsive sensor-based experience content providing system, characterized in that it is identified and analyzed.
기 저장된 시나리오 흐름에 대응하는 체험 컨텐츠가 복수개의 공간 블록들에 연속적으로 출력되도록 상기 체험 컨텐츠의 세부정보를 생성하는 것을 특징으로 하는 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템.
According to claim 1, The calculation module; silver
Participant responsive sensor-based experience content providing system, characterized in that generating detailed information of the experience content so that experience content corresponding to a previously stored scenario flow is continuously output to a plurality of spatial blocks.
여러 참여자가 특정 공간에 입장한 경우, 참여자 각각의 움직임과 반응을 개별적으로 인식하는 것을 특징으로 하는 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템.
According to claim 1, The sensor module; silver
Participant responsive sensor-based experience content providing system, characterized in that when multiple participants enter a specific space, each participant's movement and reaction are individually recognized.
상기 센서모듈로부터 참여자 별 위치 정보를 수신하는 경우, 수신한 위치 데이터의 유효성을 검증하고, 검증이 완료된 위치 데이터를 상기 출력모듈로 전송하는 것을 특징으로 하는 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템.
The method of claim 1, wherein the calculation module
When receiving location information for each participant from the sensor module, the validity of the received location data is verified and the verified location data is transmitted to the output module.
비콘의 수신 신호 강도 및 수신 신호음을 통해 참여자의 위치 좌표를 인식하고 참여자 위치를 트래킹 하는 것을 특징으로 하는 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템.
The method of claim 1, wherein the sensor module
A participant-responsive sensor-based experience content providing system, characterized in that the participant's location coordinates are recognized and the participant's location is tracked through the received signal strength and the received beacon of the beacon.
출력된 체험 컨텐츠, 반응조건 및 시나리오에 대한 복수개의 참여자 예상반응과 각각의 예상 반응에 대한 대응 시나리오를 미리 설정하고, 미리 저장된 예상 반응대로 참여자의 생체정보와 모션, 위치가 감지되는 경우, 상기 설정된 대응 시나리오에 따라 체험 컨텐츠 생성을 제어하는 것을 특징으로 하는 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템.
The system of claim 1, wherein the participant responsive sensor-based experience content providing system
When a plurality of participants' expected responses to the output experience content, reaction conditions, and scenarios and a response scenario for each expected response are set in advance, and when the participant's biometric information, motion, and location are detected according to the previously stored expected response, the set Participant responsive sensor-based experience content providing system, characterized in that controlling the generation of experience content according to a response scenario.
(A) 통합제어서버의 데이터베이스에 시나리오, 참여자 정보 및 반응 조건 정보를 저장하는 단계;
(B) 통합제어서버에서 상기 저장된 시나리오와 참여자 반응 및 조건 검출 결과에 따라 공간에 설치된, 조명, 도어락, 사운드를 제어하고, 참여자 반응형 컨텐츠를 생성하는 단계;
(C) 통합제어서버에서 생성된 컨텐츠를 시나리오와 조건 및 참여자 반응에 따라 출력하고, 컨텐츠에 노출된 참여자의 반응정보 및 생체정보를 추적하는 단계;
(D) 통합제어서버에서 상기 추적된 참여자 반응정보 및 생체정보를 분석하여 시나리오에 반영하고 상기 추적된 생체정보에 따라 참여자 반응형 컨텐츠의 세부정보를 제어하는 단계; 를 포함하는 체험 컨텐츠 생성 방법.
The content creation method of the participant responsive sensor-based experience content providing system
(A) storing scenario, participant information, and reaction condition information in the database of the integrated control server;
(B) controlling lights, door locks, and sounds installed in the space according to the stored scenario and participant reaction and condition detection result in the integrated control server, and generating participant responsive content;
(C) outputting the content generated by the integrated control server according to the scenario and condition and the participant's reaction, and tracking reaction information and biometric information of the participant exposed to the content;
(D) analyzing the tracked participant reaction information and biometric information in an integrated control server, reflecting it in a scenario, and controlling detailed information of the participant-responsive content according to the tracked biometric information; Experience content generation method comprising a.
출력된 참여자 반응형 컨텐츠를 확인한 참여자의 모션, 표정, 생체정보를 포함하는 참여자 후속 반응을 추적하고, 추적된 참여자 후속반응과 상기 출력된 체험 컨텐츠의 상관관계를 분석하여 분석결과를 누적 저장하고, 상기 분석 결과가 참여자 반응형 컨텐츠 세부정보 설정에 반영되도록 피드백 하는 것을 특징으로 하는 체험 컨텐츠 생성 방법.
The method of claim 9, wherein the step (D); Is
Tracking the participant's follow-up reaction including motion, facial expression, and biometric information of the participant who checked the output participant responsive content, analyzing the correlation between the tracked participant follow-up reaction and the output experience content, and accumulating and storing the analysis result, The method of generating experience content, characterized in that feedback is provided so that the analysis result is reflected in the participant responsive content detailed information setting.
기 저장된 예상 시나리오에 포함되는 참여자 반응과 실제 참여자 반응 비교결과, 출력된 AR 컨텐츠의 소리, 크기, 나타나는 시점에 대한 참여자 반응 결과 및 참여자 연령대와 참여자 성별에 따른 참여자 반응 크기 및 상호작용 정도를 파악하고 분석하는 단계; 를 더 포함하는 체험 컨텐츠 생성 방법.
The method of claim 10, wherein the step (D); Is
Participant reactions included in pre-stored expected scenarios and actual participant reaction comparison results, participant reaction results for the sound, volume, and timing of the displayed AR contents, and participant reaction size and interaction level according to participant age group and participant gender. Analyzing; Experience content creation method further comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190098137A KR20210019235A (en) | 2019-08-12 | 2019-08-12 | System and method for providing user responsive sensor-based experience content |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190098137A KR20210019235A (en) | 2019-08-12 | 2019-08-12 | System and method for providing user responsive sensor-based experience content |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210019235A true KR20210019235A (en) | 2021-02-22 |
Family
ID=74687767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190098137A KR20210019235A (en) | 2019-08-12 | 2019-08-12 | System and method for providing user responsive sensor-based experience content |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210019235A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102659549B1 (en) * | 2023-05-12 | 2024-04-22 | 주식회사 나리벡 | Reconfigurable modular future job experience system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101638063B1 (en) | 2014-02-12 | 2016-07-13 | 동서대학교산학협력단 | Interactive acade game machine by full-body-experienced stereo-scopic image contents |
KR101905272B1 (en) | 2016-11-29 | 2018-10-05 | 계명대학교 산학협력단 | Apparatus for user direction recognition based on beacon cooperated with experiential type content providing apparatus and method thereof |
-
2019
- 2019-08-12 KR KR1020190098137A patent/KR20210019235A/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101638063B1 (en) | 2014-02-12 | 2016-07-13 | 동서대학교산학협력단 | Interactive acade game machine by full-body-experienced stereo-scopic image contents |
KR101905272B1 (en) | 2016-11-29 | 2018-10-05 | 계명대학교 산학협력단 | Apparatus for user direction recognition based on beacon cooperated with experiential type content providing apparatus and method thereof |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102659549B1 (en) * | 2023-05-12 | 2024-04-22 | 주식회사 나리벡 | Reconfigurable modular future job experience system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10386888B2 (en) | Smartwatch device and method | |
CN111936036B (en) | Using biometric sensor data to detect neurological status to guide in-situ entertainment | |
US11815951B2 (en) | System and method for enhanced training using a virtual reality environment and bio-signal data | |
US11366531B2 (en) | Systems, methods, and apparatus for enhanced peripherals | |
EP3596656B1 (en) | Monitoring and analyzing body language with machine learning, using artificial intelligence systems for improving interaction between humans, and humans and robots | |
US11348298B2 (en) | Connected avatar technology | |
KR101966040B1 (en) | Apparatus for dance game and method for dance game using thereof | |
CN112352390A (en) | Content generation and control using sensor data for detecting neurological state | |
KR102377561B1 (en) | Apparatus and method for providing taekwondo movement coaching service using mirror dispaly | |
US10661148B2 (en) | Dual motion sensor bands for real time gesture tracking and interactive gaming | |
JP2008168133A (en) | Method, system and program for tracking range of user's body movement | |
JP2006192563A (en) | Target object detection apparatus and robot provided with the same | |
CN102918518A (en) | Cloud-based personal trait profile data | |
CN108242007A (en) | Service providing method and device | |
US20140258192A1 (en) | Apparatus for training recognition capability using robot and method for same | |
US20240004475A1 (en) | Spatially aware computing hub and environment | |
KR20180110472A (en) | System and method for controlling a stereoscopic emotion lighting | |
US20230185364A1 (en) | Spatially Aware Computing Hub and Environment | |
KR102058434B1 (en) | Virtual money mining typed exercise management apparatus using exercise machine | |
CN110237518B (en) | Interactive training or treatment method and system | |
KR20210019235A (en) | System and method for providing user responsive sensor-based experience content | |
JP7479735B2 (en) | Information output device, design support system, information output method, and information output program | |
CN104854540A (en) | Binding control devices to a computing system | |
CN116529750A (en) | Method and system for interface for product personalization or recommendation | |
Loconsole et al. | An IMU and RFID-based navigation system providing vibrotactile feedback for visually impaired people |