KR20210019235A - System and method for providing user responsive sensor-based experience content - Google Patents

System and method for providing user responsive sensor-based experience content Download PDF

Info

Publication number
KR20210019235A
KR20210019235A KR1020190098137A KR20190098137A KR20210019235A KR 20210019235 A KR20210019235 A KR 20210019235A KR 1020190098137 A KR1020190098137 A KR 1020190098137A KR 20190098137 A KR20190098137 A KR 20190098137A KR 20210019235 A KR20210019235 A KR 20210019235A
Authority
KR
South Korea
Prior art keywords
participant
reaction
experience content
content
sensor
Prior art date
Application number
KR1020190098137A
Other languages
Korean (ko)
Inventor
김대근
Original Assignee
주식회사 포리버
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 포리버 filed Critical 주식회사 포리버
Priority to KR1020190098137A priority Critical patent/KR20210019235A/en
Publication of KR20210019235A publication Critical patent/KR20210019235A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a system and a method for providing participant-responsive sensor-based experience content. The present invention includes: a database performing cumulative storage of a space-specific scenario and an experience content control signal depending on a participant reaction condition, a participant reaction result, and a participant position; a sensor module tracking the real-time position of a participant with a beacon and a sensor and recognizing a participant reaction including the participant′s biometric signal and motion; an arithmetic module generating detailed information setting including the size, definition, type, output time, and duration of experience content including AR, VR, and a hologram installed in each space in accordance with the participant reaction recognized at the sensor module and the space-specific scenario; and an output module generating experience content reflecting the detailed information setting and outputting the generated experience content.

Description

참여자 반응형 센서기반 체험 컨텐츠 제공 시스템 및 방법{SYSTEM AND METHOD FOR PROVIDING USER RESPONSIVE SENSOR-BASED EXPERIENCE CONTENT}Participant responsive sensor-based experience content provision system and method {SYSTEM AND METHOD FOR PROVIDING USER RESPONSIVE SENSOR-BASED EXPERIENCE CONTENT}

참여자 반응형 센서기반 체험 컨텐츠 제공 시스템 및 방법에 관한 것으로 구체적으로, 시나리오와 조건 달성을 통해 진행되는 체험자 맞춤 반응형 컨텐츠 생성을 위해, 컨텐츠의 세계관 내에서 참여자의 행동과 위치 정보에 따라 다양한 체감형 장치를 반응시켜, 참여자와 컨텐츠 간 적극적인 상호작용을 유도하는 체감형 컨텐츠를 생성하는 시스템 및 방법에 관한 것이다. Regarding the participant responsive sensor-based experience content provision system and method, specifically, for the creation of user-customized responsive content that proceeds through the achievement of scenarios and conditions, various tangible types according to the participant's behavior and location information within the content worldview The present invention relates to a system and method for generating tangible content that induces active interaction between a participant and content by reacting a device.

본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the content described in this section is not prior art to the claims of this application, and inclusion in this section is not admitted to be prior art.

체감형 컨텐츠 서비스 산업은 5G 통신기술의 등장 및 VR, AR 기술의 발전으로 급성장하고 있는 기술 분야로서, 관련산업은 2015년 이후 규모 및 매출 면에서 급성장 중 이다. 하지만, 종래 체감형 컨텐츠 제공 서비스는 대부분 단순하고 반복적인 컨텐츠를 제공하고, 특별한 주제 없이 체험 공간에 기기 및 컨텐츠를 단순 나열하는 방식이다.The tangible content service industry is a technology field that is rapidly growing due to the advent of 5G communication technology and the development of VR and AR technologies, and the related industry has been growing rapidly in terms of scale and sales since 2015. However, in the conventional tangible content providing service, most simple and repetitive content is provided, and devices and content are simply arranged in an experience space without a special subject.

이러한 단순한 참여자 반응형 체험 컨텐츠는 컨텐츠의 짧은 수명으로 이미 컨텐츠를 경험했던 관람객의 재방문율을 저하시키고, 재방문율 유지를 위한 컨텐츠 교체 시 높은 제작비 및 관리비용을 필요로 한다. 또한, 도 1의 (a)를 참조하면 종래에는 AR, VR 을 포함하는 체감형 컨텐츠를 경험하기 위해서는 고글, 조이스틱 및 무거운 HMD나 여러 개의 인식 장비를 몸에 장착해야만 한다.Such simple participant responsive experience content reduces the revisit rate of visitors who have already experienced the content due to the short life of the content, and requires high production and management costs when replacing content to maintain the revisit rate. In addition, referring to (a) of FIG. 1, in order to experience haptic content including AR and VR, goggles, joysticks, and heavy HMD or multiple recognition devices must be mounted on the body.

또한, 일반적으로 체감형 컨텐츠 개발을 위해서는 공간 및 인프라가 필요하고, 체감형 기기와 참여자의 상호작용이 수행되어야 한다. 현재 이러한 기능과 효과를 제공하는 공간과 기기는 그 종류가 많지 않을 뿐만 아니라 가격도 매우 비싸 개발에 큰 부담으로 작용한다. 또한, 현재 시중의 체감형 공간, 인프라 및 기기에 따른 컨텐츠 기획의 한계가 있고, 종래 컨텐츠는 단순 체감형 영상, 비행, 슈팅, 스포츠 게임 정도로 기획의 폭이 협소하고 참여자의 수동적인 반응만을 유도하고 있는 실정이다. In addition, in general, space and infrastructure are required to develop tangible content, and interaction between tangible devices and participants must be performed. Currently, there are not many types of spaces and devices that provide these functions and effects, and they are very expensive, which is a great burden on development. In addition, there is a limitation in content planning according to the current haptic space, infrastructure, and devices, and conventional contents are narrow in planning as simple haptic video, flight, shooting, and sports games, and only passive reactions of participants are induced. There is a situation.

1. 한국 특허등록 제 10-1638063 호(2016.07.04)1. Korean Patent Registration No. 10-1638063 (2016.07.04) 2. 한국 특허등록 제10-1905272호(2018.09.28)2. Korean Patent Registration No. 10-1905272 (2018.09.28)

실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템 및 방법은 체감형 컨텐츠의 수익 개선과 저변 확대를 위해 참여자의 적극적인 참여를 유도하는 반응형, 맞춤형 체험 컨텐츠를 제공한다. 또한, 시스템의 세계관 내에서 참여자의 행동과 위치 정보에 따라 다양한 체감형 장치를 반응시켜, 참여자와 컨텐츠 간 적극적인 상호작용을 유도하는 새로운 방식의 체감형 컨텐츠를 제공한다. The participant responsive sensor-based experience content providing system and method according to the embodiment provides responsive and customized experience content that induces active participation of participants in order to improve profits and expand the base of haptic content. In addition, by reacting various haptic devices according to the participant's behavior and location information within the system's worldview, it provides a new way of haptic content that induces active interaction between the participant and the contents.

실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템은 공간별 시나리오와, 참여자 반응 조건, 참여자 반응 결과 및 참여자 위치에 따른 체험 컨텐츠 제어신호를 누적 저장하는 데이터베이스; 비콘과 센서를 통해 참여자의 실시간 위치를 트래킹하고, 참여자의 생체 신호 및 모션을 포함하는 참여자 반응을 인식하는 센서모듈; 공간별 시나리오와 상기 센서모듈에서 인식된 참여자 반응에 따라 각각의 공간에 설치된 AR, VR, 홀로그램을 포함하는 체험 컨텐츠의 크기, 선명도, 종류, 출력시점 및 지속시간을 포함하는 세부정보 설정을 생성하는 연산모듈; 및 세부정보설정이 반영된 체험 컨텐츠를 생성하고, 상기 생성된 체험 컨텐츠를 출력하는 출력모듈; 을 포함한다. Participant responsive sensor-based experience content providing system according to an embodiment includes a database for accumulating and storing experience content control signals according to spatial scenarios, participant reaction conditions, participant reaction results, and participant positions; A sensor module for tracking a participant's real-time location through a beacon and a sensor, and recognizing a participant's reaction including a biological signal and motion of the participant; To create detailed information settings including size, clarity, type, output time and duration of experience content including AR, VR, and hologram installed in each space according to space scenarios and participants' reactions recognized by the sensor module. Calculation module; And an output module generating experience content reflecting detailed information settings and outputting the generated experience content. Includes.

다른 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템의 컨텐츠 생성 방법은 (A) 통합제어서버의 데이터베이스에 시나리오, 참여자 정보 및 반응 조건 정보를 저장하는 단계; (B) 통합제어서버에서 저장된 시나리오와 참여자 반응 및 조건 검출 결과에 따라 공간에 설치된, 조명, 도어락, 사운드를 제어하고, 참여자 반응형 컨텐츠를 생성하는 단계; (C) 통합제어서버에서 생성된 컨텐츠를 시나리오와 조건 및 참여자 반응에 따라 출력하고, 컨텐츠에 노출된 참여자의 반응정보 및 생체정보를 추적하는 단계; (D) 통합제어서버에서 추적된 참여자 반응정보 및 생체정보를 분석하여 시나리오에 반영하고 추적된 생체정보에 따라 참여자 반응형 컨텐츠의 세부정보를 제어하는 단계; 를 포함한다. The content generation method of the participant responsive sensor-based experience content providing system according to another embodiment includes the steps of: (A) storing scenario, participant information, and reaction condition information in a database of an integrated control server; (B) controlling lighting, door locks, and sounds installed in the space according to the scenario and participant reaction and condition detection result stored in the integrated control server, and generating participant responsive content; (C) outputting the content generated by the integrated control server according to the scenario, conditions and participants' reactions, and tracking the participant's reaction information and biometric information exposed to the content; (D) analyzing the participant reaction information and biometric information tracked by the integrated control server, reflecting it in the scenario, and controlling detailed information of the participant-responsive content according to the tracked biometric information; Includes.

실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템 및 방법은 참여자의 반응에 따라 다양한 결과를 도출하여 컨텐츠의 수명을 대폭 늘어나게 하고 재 방문 율을 높인다. 또한, 체험 컨텐츠 제공 시스템의 시나리오 교체 시 기존 기기 및 인테리어를 재활용해 비용을 감소시키고 교체시간을 단축시킬 수 있도록 한다. 아울러 실시예에서는 컨텐츠 세부 설정에 따른 참여자 반응을 추적하고 상관관계를 분석하여 보다 진화된 참여자 반응형 AR 컨텐츠를 생성할 수 있도록 한다. The participant responsive sensor-based experience content providing system and method according to the embodiment significantly extends the life of the content and increases the revisit rate by deriving various results according to the participant's response. In addition, when replacing the scenario of the experience content providing system, existing devices and interiors are recycled to reduce costs and shorten the replacement time. In addition, in the embodiment, a more advanced participant-responsive AR content can be generated by tracking the participant reaction according to the detailed content setting and analyzing the correlation.

또한, 실시예에서는 도 1의 (b)에 도시된 바와 같이, 비콘과 센서를 통해 참여자의 실시간 위치를 인식하기 때문에 기존 VR, AR, MR 컨텐츠처럼 무거운 HMD(Head Mounted Display)나 여러 개의 인식 장비를 몸에 장착할 필요가 없어, 서비스 준비시간이 단축된다. 또한, 체감형 시스템에 참여하는 플레이어는 센서 하나만을 소지하면 되므로, 개인 장비 착용의 불편함 및 무게감을 완전히 해소할 수 있고 동작에 대한 불편 및 공간에 대한 제약이 없어진다.In addition, in the embodiment, as shown in (b) of FIG. 1, since the real-time location of the participant is recognized through beacons and sensors, heavy HMD (Head Mounted Display) or multiple recognition devices like existing VR, AR, MR contents There is no need to mount the product on the body, so the service preparation time is shortened. In addition, since the player participating in the tangible system only needs to possess one sensor, the inconvenience and weight of wearing personal equipment can be completely eliminated, and there are no inconveniences for motion and restrictions on space.

아울러, 실시예를 통해 참여자의 행동과 위치 정보에 따라 다양한 체감형 장치를 반응시켜 참여자와 컨텐츠 간 적극적인 상호작용 유도하고, AR(Augmented Reality), VR(Virtual Reality), MR(Mixed Reality), 오감 인터렉션 컨텐츠, 체감형 스크린 컨텐츠, 공간형 디스플레이 컨텐츠에 모두 이식 할 수 있다. 이를 통해 시스템 사용에 대한 제약이 없어지고, 컨텐츠 반응에 따른 참여자의 만족감을 극대화 시킬 수 있다.In addition, through embodiments, various haptic devices are reacted according to the participant's behavior and location information to induce active interaction between the participant and the content, and AR (Augmented Reality), VR (Virtual Reality), MR (Mixed Reality), five senses It can be implanted into interactive content, tangible screen content, and spatial display content. This eliminates the restrictions on the use of the system and maximizes the satisfaction of participants according to the content response.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present invention are not limited to the above effects, and should be understood to include all effects that can be inferred from the configuration of the invention described in the detailed description or claims of the present invention.

도 1은 종래 기술과 실시예에 따른 체험 컨텐츠 제공 시스템의 참여자를 비교하는 도면
도 2a는 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템의 주요기능을 설명하기 위한 도면
도 2b는 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템 구성을 나타낸 도면
도 3은 실시예에 따른 실시예에 따른 통합제어서버(100)의 데이터 처리블록을 나타낸 도면
도 4는 실시예에 따른 센서와 비콘의 참여자 위치 추적 및 참여자 생체정보 파악과정을 나타낸 도면
도 5는 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템의 이용 예를 나타낸 도면
도 6은 체험 컨텐츠 제공 시스템의 실제 참여 예를 설명하기 위한 도면
도 7은 실시예에 따른 체험 컨텐츠 제공 시스템의 데이터 처리과정을 나타낸 도면
1 is a diagram comparing participants in a system for providing experience content according to the prior art and an embodiment
2A is a diagram for explaining the main functions of a participant responsive sensor-based experience content providing system according to an embodiment
2B is a diagram showing the configuration of a system for providing participant responsive sensor-based experience content according to an embodiment
3 is a view showing a data processing block of the integrated control server 100 according to an embodiment according to the embodiment
4 is a diagram showing a process of tracking a participant's location and identifying participant's biometric information of a sensor and a beacon according to an embodiment
5 is a view showing an example of use of a participant responsive sensor-based experience content providing system according to an embodiment
6 is a diagram for explaining an example of actual participation in an experience content providing system
7 is a diagram showing a data processing process of an experience content providing system according to an embodiment

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 도면부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, only the present embodiments are intended to complete the disclosure of the present invention, and the general knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to those who have it, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same elements throughout the specification.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 참여자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to the intention or custom of participants or operators. Therefore, the definition should be made based on the contents throughout this specification.

도 2a는 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템의 주요기능을 설명하기 위한 도면이다.2A is a view for explaining the main functions of the participant-responsive sensor-based experience content providing system according to an embodiment.

도 2a를 참조하면 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템은 시나리오와 조건 달성을 통해 진행되는 체험자 맞춤 반응형 컨텐츠 생성을 위해, 컨텐츠의 세계관 내에서 참여자의 행동과 위치 정보에 따라 다양한 체감형 장치를 반응시켜, 참여자와 컨텐츠 간 적극적인 상호작용을 유도하는 체감형 컨텐츠를 생성한다. 구체적으로, 통합제어서버에 시나리오, 플레이어 정보 및 조건정보를 저장하고, 사용자에 의해 입력되거나 감지되는 사용자의 보정위치, 시나리오상 미션해결여부와 단서 획득 여부 등의 조건검사를 수행하고, 사용자 위치정보, 생체정보 및 반응 정보를 추적하여 체험 컨텐츠를 생성하는 실감 장치를 제어한다. 아울러, 시스템이 장착된 공간의 조명, 도어락 사운드 등 환경정보를 함께 제어하여 AR, VR 및 MR, 홀로그램을 포함하는 체험 컨텐츠를 출력할 때 참여자가 적절한 환경에서 컨텐츠를 더욱 실감나게 체험할 수 있도록 한다. Referring to Figure 2a, the participant responsive sensor-based experience content providing system according to the embodiment is provided in various ways according to the participant's behavior and location information within the world view of the content in order to generate customized responsive content for the experiencer through the achievement of scenarios and conditions. By reacting haptic devices, haptic contents are created that induce active interaction between participants and contents. Specifically, the scenario, player information, and condition information are stored in the integrated control server, and condition checks such as the user's correction position input or detected by the user, whether the mission is resolved in the scenario and whether a clue has been obtained, and the user location information , Controls a sensory device that generates experience content by tracking biometric information and reaction information. In addition, by controlling environmental information such as lighting and door lock sound in the space where the system is installed, participants can experience the content more realistically in an appropriate environment when outputting experience content including AR, VR, MR, and hologram. .

도 2b는 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템 구성을 나타낸 도면이다.2B is a diagram showing the configuration of a participant-responsive sensor-based experience content providing system according to an embodiment.

도 2b를 참조하면, 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템은 통합제어서버(100), 송수신기(200) 및 공간에 설치된 비콘 및 센서(300)를 포함하여 구성될 수 있다. 통합제어서버(100)는 송수신기(200)로부터 비콘 및 센서(300)에서 인식된 참여자의 모션정보, 생체정보, 위치, 위치 트래킹 정보와 기 저장된 시나리오에 대응하는 체험 컨텐츠를 생성하고 이를 출력하여 참여자가 체험 컨텐츠를 경험 할 수 있도록 한다. 실시예에서 참여자는 손목 등에 비콘을 인식하는 웨어러블 위치센서를 착용하여 자신의 위치 정보가 파악될 수 있도록 한다.Referring to FIG. 2B, a participant-responsive sensor-based experience content providing system according to an embodiment may include an integrated control server 100, a transceiver 200, and a beacon and sensor 300 installed in a space. The integrated control server 100 generates motion information, biometric information, location, location tracking information of the participant recognized by the beacon and sensor 300 from the transceiver 200, and experience content corresponding to a previously stored scenario, and outputs it to the participant. Allows you to experience experience content. In the embodiment, the participant wears a wearable position sensor that recognizes beacons on the wrist, etc. so that his or her location information can be identified.

송수신기(200)는 비콘으로부터 참여자의 위치와 위치 트래킹 정보를 전달받고, 다른 센서로부터는 참여자의 생체정보와 모션정보, 표정 정보 등을 포함하는 참여자 반응정보를 전달받는다. 실시예에서 송수신기(200)는 수신한 참여자 반응정보와 위치정보 및 위치 트래킹 정보의 유효성을 파악하여 유효성이 검증된 참여자 반응정보와 위치정보 등을 통합제어서버(100)로 전송한다.The transceiver 200 receives the participant's location and location tracking information from the beacon, and receives participant reaction information including the participant's biometric information, motion information, and facial expression information from other sensors. In an embodiment, the transceiver 200 determines the validity of the received participant reaction information, location information, and location tracking information, and transmits the validated participant reaction information and location information to the integrated control server 100.

통합제어서버(100)는 송수신기(200)로부터 수신한 참여자 반응정보 및 위치정보를 파악하고 기 저장된 시나리오와 조건에 따라 참여자 반응형 컨텐츠를 생성하고 이를 제어한다. The integrated control server 100 identifies participant reaction information and location information received from the transceiver 200, generates participant responsive content according to a previously stored scenario and condition, and controls it.

도 3은 실시예에 따른 실시예에 따른 통합제어서버(100)의 데이터 처리블록을 나타낸 도면이다. 3 is a diagram showing a data processing block of the integrated control server 100 according to an embodiment according to the embodiment.

도 3을 참조하면, 실시예에 따른 통합제어서버(100)는 데이터베이스(110), 센서모듈(130), 연산모듈(150), 출력모듈(170) 및 피드백모듈(190)을 포함하여 구성될 수 있다. 데이터베이스(110)에는 체험 형 공간별 시나리오와, 참여자 반응 조건 및 참여자 위치에 따른 제어신호가 누적 저장된다. Referring to FIG. 3, the integrated control server 100 according to the embodiment may include a database 110, a sensor module 130, an operation module 150, an output module 170, and a feedback module 190. I can. The database 110 accumulates and stores a scenario for each experiential space, a response condition of a participant, and a control signal according to the participant's location.

센서모듈(150)은 비콘과 센서를 통해 참여자의 실시간 위치를 트래킹하고, 참여자의 생체 신호 및 모션을 포함하는 참여자 반응을 인식한다. 또한, 센서모듈(130)은 여러 참여자가 특정 공간에 입장한 경우, 참여자 각각의 움직임과 반응을 개별적으로 인식한다. 또한, 센서모듈(130)은 비콘의 수신 신호 강도 및 수신 신호음을 통해 참여자의 위치 좌표를 인식하고 참여자 위치를 트래킹 한다. The sensor module 150 tracks the real-time position of the participant through beacons and sensors, and recognizes the participant's reaction including the participant's bio-signal and motion. In addition, the sensor module 130 individually recognizes the movement and reaction of each participant when several participants enter a specific space. In addition, the sensor module 130 recognizes the position coordinates of the participant through the received signal strength and the received beacon of the beacon and tracks the participant's position.

연산모듈(150)은 공간별 시나리오와 센서모듈(130)에서 인식된 참여자 반응 및 조건정보에 따라 각각의 공간에 설치된 참여자 반응형 컨텐츠의 크기, 선명도, 종류, 출력시점 및 지속시간을 포함하는 세부 설정을 생성한다. 실시예에서 연산모듈(150)은 기 저장된 시나리오 흐름에 대응하는 AR 컨텐츠가 복수개의 공간 블록들에 연속적으로 출력되도록 참여자 반응형 컨텐츠의 세부정보를 생성한다. 또한 연산모듈(150)은 센서모듈(130)로부터 참여자 별 위치 정보를 수신하는 경우, 수신한 위치 데이터의 유효성을 검증하고, 검증이 완료된 위치 데이터를 체험 컨텐츠를 출력모듈로 전송한다. The calculation module 150 includes the size, clarity, type, output time and duration of the participant responsive content installed in each space according to the space-specific scenario and participant reaction and condition information recognized by the sensor module 130. Create a configuration. In an embodiment, the calculation module 150 generates detailed information of the participant responsive content so that AR content corresponding to a previously stored scenario flow is continuously output to a plurality of spatial blocks. In addition, when receiving location information for each participant from the sensor module 130, the calculation module 150 verifies the validity of the received location data, and transmits the verified location data to the output module.

출력모듈(170)은 세부 설정이 반영된 참여자 반응형 컨텐츠를 생성하고, 참여자 반응형 컨텐츠를 출력한다.The output module 170 generates participant responsive content reflecting detailed settings, and outputs participant responsive content.

피드백모듈(190)은 출력된 참여자 반응형 컨텐츠를 확인한 참여자의 모션, 표정, 생체정보를 포함하는 참여자 후속 반응을 추적하고, 추적된 참여자 후속반응과 출력된 참여자 반응형 컨텐츠의 상관관계를 분석하여 분석결과를 누적 저장하고, 분석 결과가 참여자 반응형 컨텐츠 세부정보 설정에 반영되도록 한다. 또한 실시예에서 피드백 모듈(190)은 기 저장된 예상 시나리오에 포함되는 참여자 반응과 실제 참여자 반응 비교결과, 출력된 참여자 반응형 컨텐츠의 소리, 크기, 나타나는 시점에 대한 참여자 반응 결과 및 참여자 연령대와 참여자 성별에 따른 참여자 반응 크기 및 상호작용 정도를 파악하고 분석한다.The feedback module 190 tracks the participant follow-up reaction including motion, facial expression, and biometric information of the participant who checked the output participant responsive content, and analyzes the correlation between the tracked participant follow-up reaction and the output participant responsive content. The analysis result is accumulated and stored, and the analysis result is reflected in the detailed information setting of the participant responsive content. In addition, in the embodiment, the feedback module 190 compares the participant's response and the actual participant response included in the pre-stored expected scenario, the sound, size, and the participant response result for the time of appearance of the output participant responsive content, and the participant age and participant gender. The size of the participant's response and the degree of interaction are identified and analyzed.

실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템 및 방법 은 참여자 반응형 출력 컨텐츠 및 시나리오에 대한 복수개의 참여자 예상반응과 각각의 예상 반응에 대한 대응 시나리오를 미리 설정하고, 미리 저장된 예상 반응대로 참여자의 생체정보와 모션, 위치가 감지되는 경우, 설정된 대응 시나리오에 따라 참여자 반응형 출력 컨텐츠 생성을 제어한다.The participant responsive sensor-based experience content providing system and method according to the embodiment sets in advance a plurality of participant expected responses to participant responsive output contents and scenarios and a response scenario for each expected response, and the participant according to the previously stored expected response. When biometric information, motion, and location of are detected, the participant responsive output content generation is controlled according to the set response scenario.

도 4는 실시예에 따른 센서와 비콘의 참여자 위치 추적 및 참여자 생체정보 파악과정을 나타낸 도면이다. 4 is a diagram illustrating a process of tracking a participant's location and identifying participant's biometric information by sensors and beacons according to an embodiment.

도 4를 참조하면, 도 4의 (a)에 도시된 바와 같이, 종래에는 적외선 센서로 참여자와 센서의 이격거리 정보만 측정한 반면, 실시예에서는 참여자가 착용한 웨어러블 위치 인식 센서와 비콘 간 신호 강도세기 측정을 통해 참여자의 방향, 이격거리 접근 정도 까지 파악할 수 있다. 실시예에서는 웨어러블 기기와 비콘을 통한 참여자 정보를 보다 정확하게 인식함으로써, 시나리오와 조건 달성을 통해 진행되는 체험자 맞춤 반응형 컨텐츠를 생성한다. 또한, 참여자의 위치와 방향, 시나리오와 조건에 맞게 장치들을 통합적으로 제어하고, 정확한 시점과 위치에 따라 시스템에 구성된 장치들이 반응하게 함으로써, 플레이어의 체험을 극대화 할 수 있도록 한다. Referring to FIG. 4, as shown in (a) of FIG. 4, in the related art, only the distance information between the participant and the sensor was measured with an infrared sensor, whereas in the embodiment, a signal between the wearable location recognition sensor and the beacon worn by the participant Through the intensity measurement, the direction of the participant and the degree of approaching the separation distance can be identified. In the embodiment, by more accurately recognizing participant information through wearable devices and beacons, user-customized responsive content that proceeds through achievement of scenarios and conditions is generated. In addition, by controlling the devices in an integrated manner according to the location and direction of the participant, the scenario and conditions, and allowing the devices configured in the system to react according to the exact viewpoint and location, the player's experience can be maximized.

도 5는 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템의 이용 예를 나타낸 도면이다.5 is a view showing an example of use of a participant responsive sensor-based experience content providing system according to an embodiment.

도 5를 참조하면, 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템의 연산모듈(150)은 기 저장된 시나리오와 참여자 반응에 따라 조명, 도어락시스템 및 사운드 모듈의 세부 정보를 제어하여 참여자 반응형 컨텐츠의 출력이 보다 실감나게 참여자에게 전달될 수 있도록 한다. 또한, 종래의 체험공간은 한 번 설치되면, 이동 및 교체, 철거에 많은 어려움이 있다. 특히 방 탈출 카페의 경우, 설치에 많은 비용이 들며, 시나리오 수정에 따른 재활용이 거의 불가하다. 하지만, 실시예에 따른 참여자 반응형 센서기반 체험 컨텐츠는 장치를 모듈화시켜 설치 및 이동이 편리하도록 독립적인 모듈 형태로 제작함으로써, 시나리오 변경에 따라 장치의 위치 이동, 제거, 추가 등이 쉽게 진행될 수 있도록 한다. 아울러, 실시예를 통해 시나리오 분기를 통한 공간 재활용을 극대화하고, 하나의 장치 공간에 여러 가지 시나리오의 적용을 가능하게 하여 다양한 컨텐츠 체험 형 컨텐츠를 제공한다.5, the operation module 150 of the participant responsive sensor-based experience content providing system according to the embodiment controls detailed information of the lighting, door lock system, and sound module according to a pre-stored scenario and participant reaction to respond to participants. It allows the output of the content to be delivered to the participants in a more realistic way. In addition, once the conventional experience space is installed, there are many difficulties in moving, replacing, and dismantling. In particular, in the case of a room escape cafe, installation is expensive, and recycling is almost impossible according to scenario modification. However, the participant responsive sensor-based experience content according to the embodiment is produced in the form of an independent module for convenient installation and movement by modularizing the device, so that the location of the device can be moved, removed, and added easily according to the scenario change. do. In addition, through the embodiment, space recycling is maximized through scenario branching, and various scenarios can be applied to one device space, thereby providing various content experience-type contents.

또한, 동일 컨텐츠에 참여자들의 행동에 따라 다양한 분기를 가진 컨텐츠 구성을 가능하도록 하고, 공간의 블록화를 가능하게 한다. 실시예에서는 공간의 블록화를 통해, 여러 개의 공간 블록들을 시나리오의 흐름에 맞춰 연속적인 형태로 배치하여 한 개의 통합 체험 공간을 구성할 수 있다. In addition, it is possible to organize contents having various branches according to the behavior of participants in the same contents, and to block space. In an embodiment, through the blockage of space, several space blocks may be arranged in a continuous form in accordance with the flow of the scenario to form one integrated experience space.

또한, 각 공간 블록들에 시간, 계절, 장소 등의 주제에 맞춰 체감 장치들을In addition, haptic devices are added to each space block according to themes such as time, season, and place.

효과적으로 배치 가능하도록 하고, 조명, 사운드 제어를 통한 영화적 연출 등을 통해 참여자들에게 몰입감을 높일 수 있도록 한다. 또한, 각 공간 블록들은 각각의 독립적인 컨텐츠로 제공도 가능해 서비스 환경에 맞춰 적용형태를 결정할 수 있다.It enables effective placement and enhances the sense of immersion to participants through cinematic directing through lighting and sound control. In addition, each spatial block can be provided as each independent content, so the application type can be determined according to the service environment.

도 6은 체험 컨텐츠 제공 시스템의 실제 참여 예를 설명하기 위한 도면이다.6 is a diagram for explaining an example of actual participation in an experience content providing system.

도 6을 참조하면, 실시예에 따른 체험 컨텐츠 제공 시스템은 다양한 플레이 형태를 구현할 수 있다. 도 6(a)에 도시된 바와 같이, 한 공간에서 하나의 컨텐츠를 1명의 참여자가 직접 수행하는 개인 플레이 형태로 구성되거나, (b)에 도시된 바와 같이, 한 공간에서 하나의 컨텐츠를 2명이상의 플레이어가 협업을 통해 진행하도록 구성될 수 있다. 또한, (c)에 도시된 바와 같이, 한 공간에서 하나의 컨텐츠를 여러 명이 각자 플레이 하는 방식으로 구현할 수 있다.Referring to FIG. 6, the experience content providing system according to the embodiment may implement various types of play. As shown in Fig. 6(a), one participant directly performs one content in one space, or consists of a personal play form, or as shown in (b), one content is two people in one space. More than one player may be configured to proceed through collaboration. In addition, as shown in (c), it is possible to implement a single content in one space in a way that several people each play.

이하에서는 체감형 컨텐츠 제공 방법에 대해서 차례로 설명한다. 실시예에 따른 체감형 컨텐츠 제공 방법의 작용(기능)은 체감형 컨텐츠를 제어하는 통합제어서버 및 시스템상의 기능과 본질적으로 같은 것이므로 도 1 내지 도 6과 중복되는 설명은 생략하도록 한다.Hereinafter, a method of providing tangible content will be described in order. Since the function (function) of the haptic content providing method according to the embodiment is essentially the same as the function of the integrated control server and the system for controlling haptic content, a description overlapping with FIGS. 1 to 6 will be omitted.

도 7은 실시예에 따른 체험 컨텐츠 제공 시스템의 데이터 처리과정을 나타낸 도면이다.7 is a diagram illustrating a data processing process of an experience content providing system according to an embodiment.

실시예에서 S10 단계에서는 데이터베이스에 시나리오, 참여자 정보 및 반응 조건 정보를 저장한다. In the embodiment, in step S10, scenario, participant information, and reaction condition information are stored in a database.

S30 단계에서는 저장된 시나리오와 참여자 반응 및 조건 검출 결과에 따라 공간에 설치된, 조명, 도어락, 사운드를 포함하는 환경정보를 제어하고, 참여자 반응형 컨텐츠를 생성한다. In step S30, environmental information installed in the space, including lighting, door lock, and sound, is controlled according to the stored scenario, participant reaction and condition detection result, and participant responsive content is generated.

S50 단계에서는 생성된 컨텐츠를 시나리오와 조건 및 참여자 반응에 따라 출력하고, 컨텐츠에 노출된 참여자의 반응정보 및 생체정보를 추적한다. In step S50, the generated content is output according to the scenario and conditions and the participant's reaction, and reaction information and biometric information of the participant exposed to the content are tracked.

S70 단계에서는 추적된 참여자 반응정보 및 생체정보를 분석하여 시나리오에 반영하고 추적된 생체정보에 따라 참여자 반응형 컨텐츠의 세부정보를 제어한다. 실시예에서는 사용자의 보정위치, 시나리오에 등록된 미션 해결결과, 단서획득과정에 따라 AR, VR, MR 및 홀로그램을 포함하는 체험 컨텐츠를 제어할 수 있다.In step S70, the tracked participant reaction information and biometric information are analyzed, reflected in the scenario, and detailed information of the participant responsive content is controlled according to the tracked biometric information. In the embodiment, experience content including AR, VR, MR, and hologram may be controlled according to a user's correction location, a mission solution result registered in a scenario, and a clue acquisition process.

실시예에 따른 S70 단계는 출력된 참여자 반응형 컨텐츠를 확인한 참여자의 모션, 표정, 생체정보를 포함하는 참여자 후속 반응을 추적하는 단계; 추적된 참여자 후속반응과 출력된 체험 컨텐츠의 상관관계를 분석하여 분석결과를 누적 저장하는 단계; 및 분석 결과가 참여자 반응형 컨텐츠 세부정보 설정에 반영되도록 피드백 하는 단계; 를 포함할 수 있다. 또한, 실시예에서는 기 저장된 예상 시나리오에 포함되는 참여자 반응과 실제 참여자 반응 비교결과, 출력된 체험 컨텐츠의 소리, 크기, 나타나는 시점에 대한 참여자 반응 결과 및 참여자 연령대와 참여자 성별에 따른 반응 크기 및 상호작용 정도를 파악하고 분석하여 참여자의 성별과 나이 및 반응 정도에 따라 참여자 맞춤형 컨텐츠를 제공할 수 있다. Step S70 according to the embodiment includes the steps of tracking a participant's follow-up reaction including motion, facial expression, and biometric information of the participant who checks the output participant responsive content; Analyzing a correlation between the tracked participant's follow-up reaction and the output experience content, and accumulating and storing the analysis result; And feedbacking the analysis result to be reflected in the participant responsive content detailed information setting. It may include. In addition, in the embodiment, the comparison result of the participant reaction included in the pre-stored expected scenario with the actual participant reaction, the result of the participant reaction to the sound and volume of the output experience content, the time of appearance, and the response size and interaction according to the participants' age group and participant gender. By grasping and analyzing the degree, it is possible to provide customized content for participants according to the participants' gender, age, and reaction level.

개시된 내용은 예시에 불과하며, 특허청구범위에서 청구하는 청구의 요지를 벗어나지 않고 당해 기술분야에서 통상의 지식을 가진 자에 의하여 다양하게 변경 실시될 수 있으므로, 개시된 내용의 보호범위는 상술한 특정의 실시예에 한정되지 않는다.The disclosed contents are only examples, and various changes can be made by those of ordinary skill in the art without departing from the gist of the claims claimed in the claims, so the scope of protection of the disclosed contents is It is not limited to the examples.

Claims (11)

참여자 반응형 센서기반 체험 컨텐츠 제공 시스템에 있어서,
공간별 시나리오와, 참여자 반응 조건, 참여자 반응 결과 및 참여자 위치에 따른 체험 컨텐츠 제어신호를 누적 저장하는 데이터베이스;
비콘과 센서를 통해 참여자의 실시간 위치를 트래킹하고, 참여자의 생체 신호 및 모션을 포함하는 참여자 반응을 인식하는 센서모듈;
상기 공간별 시나리오와 상기 센서모듈에서 인식된 참여자 반응에 따라 각각의 공간에 설치된 AR, VR, 홀로그램을 포함하는 체험 컨텐츠의 크기, 선명도, 종류, 출력시점 및 지속시간을 포함하는 세부정보 설정을 생성하는 연산모듈; 및
상기 세부정보설정이 반영된 체험 컨텐츠를 생성하고, 상기 생성된 체험 컨텐츠를 출력하는 출력모듈; 을 포함하는 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템.
In the participant responsive sensor-based experience content providing system,
A database for accumulating and storing experience content control signals according to spatial scenarios, participant reaction conditions, participant reaction results, and participant positions;
A sensor module for tracking a participant's real-time location through a beacon and a sensor, and recognizing a participant's reaction including a biological signal and motion of the participant;
Generate detailed information settings including size, clarity, type, output time and duration of experience content including AR, VR, and hologram installed in each space according to the space scenarios and participants' reactions recognized by the sensor module An operation module to perform; And
An output module generating experience content reflecting the detailed information setting and outputting the generated experience content; Participant responsive sensor-based experience content providing system including a.
제 1항에 있어서, 상기 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템은
출력된 체험 컨텐츠를 확인한 참여자의 모션, 표정, 생체정보를 포함하는 참여자 후속 반응을 추적하고, 추적된 참여자 후속반응과 상기 출력된 체험 컨텐츠의 상관관계를 분석하여 분석결과를 누적 저장하고, 상기 분석 결과가 체험 컨텐츠 세부정보 설정에 반영되도록 하는 피드백 모듈; 을 더 포함하는 것을 특징으로 하는 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템.
The system of claim 1, wherein the participant responsive sensor-based experience content providing system
Tracking the participant's follow-up reaction including motion, facial expression, and biometric information of the participant who checked the outputted experience content, analyzing the correlation between the tracked participant follow-up reaction and the outputted experience content, accumulating and storing the analysis result, and the analysis A feedback module that allows the result to be reflected in detailed experience content information setting; Participant responsive sensor-based experience content providing system, characterized in that it further comprises.
제 2항에 있어서, 상기 피드백 모듈; 은
기 저장된 예상 시나리오에 포함되는 참여자 반응과 실제 참여자 반응 비교결과, 출력된 참여 컨텐츠의 소리, 크기, 컨텐츠 출력 시점에 대한 참여자 반응 결과와 참여자 연령대와 참여자 성별에 따른 참여자 반응 크기 및 상호작용 정도를 수치로 파악하고 분석하는 것을 특징으로 하는 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템.
The method of claim 2, further comprising: the feedback module; silver
Participant reactions included in pre-stored predicted scenarios and actual participant reaction comparison results, participant reaction results for the volume and timing of the content output, participant reaction size and degree of interaction according to participant age group and participant gender Participant responsive sensor-based experience content providing system, characterized in that it is identified and analyzed.
제 1항에 있어서, 상기 연산모듈; 은
기 저장된 시나리오 흐름에 대응하는 체험 컨텐츠가 복수개의 공간 블록들에 연속적으로 출력되도록 상기 체험 컨텐츠의 세부정보를 생성하는 것을 특징으로 하는 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템.
According to claim 1, The calculation module; silver
Participant responsive sensor-based experience content providing system, characterized in that generating detailed information of the experience content so that experience content corresponding to a previously stored scenario flow is continuously output to a plurality of spatial blocks.
제 1항에 있어서, 상기 센서모듈; 은
여러 참여자가 특정 공간에 입장한 경우, 참여자 각각의 움직임과 반응을 개별적으로 인식하는 것을 특징으로 하는 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템.
According to claim 1, The sensor module; silver
Participant responsive sensor-based experience content providing system, characterized in that when multiple participants enter a specific space, each participant's movement and reaction are individually recognized.
제 1항에 있어서, 상기 연산모듈은
상기 센서모듈로부터 참여자 별 위치 정보를 수신하는 경우, 수신한 위치 데이터의 유효성을 검증하고, 검증이 완료된 위치 데이터를 상기 출력모듈로 전송하는 것을 특징으로 하는 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템.
The method of claim 1, wherein the calculation module
When receiving location information for each participant from the sensor module, the validity of the received location data is verified and the verified location data is transmitted to the output module.
제 1항에 있어서, 상기 센서모듈은
비콘의 수신 신호 강도 및 수신 신호음을 통해 참여자의 위치 좌표를 인식하고 참여자 위치를 트래킹 하는 것을 특징으로 하는 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템.
The method of claim 1, wherein the sensor module
A participant-responsive sensor-based experience content providing system, characterized in that the participant's location coordinates are recognized and the participant's location is tracked through the received signal strength and the received beacon of the beacon.
제 1항에 있어서, 상기 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템은
출력된 체험 컨텐츠, 반응조건 및 시나리오에 대한 복수개의 참여자 예상반응과 각각의 예상 반응에 대한 대응 시나리오를 미리 설정하고, 미리 저장된 예상 반응대로 참여자의 생체정보와 모션, 위치가 감지되는 경우, 상기 설정된 대응 시나리오에 따라 체험 컨텐츠 생성을 제어하는 것을 특징으로 하는 참여자 반응형 센서기반 체험 컨텐츠 제공 시스템.
The system of claim 1, wherein the participant responsive sensor-based experience content providing system
When a plurality of participants' expected responses to the output experience content, reaction conditions, and scenarios and a response scenario for each expected response are set in advance, and when the participant's biometric information, motion, and location are detected according to the previously stored expected response, the set Participant responsive sensor-based experience content providing system, characterized in that controlling the generation of experience content according to a response scenario.
참여자 반응형 센서기반 체험 컨텐츠 제공 시스템의 컨텐츠 생성 방법은
(A) 통합제어서버의 데이터베이스에 시나리오, 참여자 정보 및 반응 조건 정보를 저장하는 단계;
(B) 통합제어서버에서 상기 저장된 시나리오와 참여자 반응 및 조건 검출 결과에 따라 공간에 설치된, 조명, 도어락, 사운드를 제어하고, 참여자 반응형 컨텐츠를 생성하는 단계;
(C) 통합제어서버에서 생성된 컨텐츠를 시나리오와 조건 및 참여자 반응에 따라 출력하고, 컨텐츠에 노출된 참여자의 반응정보 및 생체정보를 추적하는 단계;
(D) 통합제어서버에서 상기 추적된 참여자 반응정보 및 생체정보를 분석하여 시나리오에 반영하고 상기 추적된 생체정보에 따라 참여자 반응형 컨텐츠의 세부정보를 제어하는 단계; 를 포함하는 체험 컨텐츠 생성 방법.
The content creation method of the participant responsive sensor-based experience content providing system
(A) storing scenario, participant information, and reaction condition information in the database of the integrated control server;
(B) controlling lights, door locks, and sounds installed in the space according to the stored scenario and participant reaction and condition detection result in the integrated control server, and generating participant responsive content;
(C) outputting the content generated by the integrated control server according to the scenario and condition and the participant's reaction, and tracking reaction information and biometric information of the participant exposed to the content;
(D) analyzing the tracked participant reaction information and biometric information in an integrated control server, reflecting it in a scenario, and controlling detailed information of the participant-responsive content according to the tracked biometric information; Experience content generation method comprising a.
제 9항에 있어서, 상기 (D) 단계; 는
출력된 참여자 반응형 컨텐츠를 확인한 참여자의 모션, 표정, 생체정보를 포함하는 참여자 후속 반응을 추적하고, 추적된 참여자 후속반응과 상기 출력된 체험 컨텐츠의 상관관계를 분석하여 분석결과를 누적 저장하고, 상기 분석 결과가 참여자 반응형 컨텐츠 세부정보 설정에 반영되도록 피드백 하는 것을 특징으로 하는 체험 컨텐츠 생성 방법.
The method of claim 9, wherein the step (D); Is
Tracking the participant's follow-up reaction including motion, facial expression, and biometric information of the participant who checked the output participant responsive content, analyzing the correlation between the tracked participant follow-up reaction and the output experience content, and accumulating and storing the analysis result, The method of generating experience content, characterized in that feedback is provided so that the analysis result is reflected in the participant responsive content detailed information setting.
제 10항에 있어서, 상기 (D) 단계; 는
기 저장된 예상 시나리오에 포함되는 참여자 반응과 실제 참여자 반응 비교결과, 출력된 AR 컨텐츠의 소리, 크기, 나타나는 시점에 대한 참여자 반응 결과 및 참여자 연령대와 참여자 성별에 따른 참여자 반응 크기 및 상호작용 정도를 파악하고 분석하는 단계; 를 더 포함하는 체험 컨텐츠 생성 방법.
The method of claim 10, wherein the step (D); Is
Participant reactions included in pre-stored expected scenarios and actual participant reaction comparison results, participant reaction results for the sound, volume, and timing of the displayed AR contents, and participant reaction size and interaction level according to participant age group and participant gender. Analyzing; Experience content creation method further comprising a.
KR1020190098137A 2019-08-12 2019-08-12 System and method for providing user responsive sensor-based experience content KR20210019235A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190098137A KR20210019235A (en) 2019-08-12 2019-08-12 System and method for providing user responsive sensor-based experience content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190098137A KR20210019235A (en) 2019-08-12 2019-08-12 System and method for providing user responsive sensor-based experience content

Publications (1)

Publication Number Publication Date
KR20210019235A true KR20210019235A (en) 2021-02-22

Family

ID=74687767

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190098137A KR20210019235A (en) 2019-08-12 2019-08-12 System and method for providing user responsive sensor-based experience content

Country Status (1)

Country Link
KR (1) KR20210019235A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102659549B1 (en) * 2023-05-12 2024-04-22 주식회사 나리벡 Reconfigurable modular future job experience system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101638063B1 (en) 2014-02-12 2016-07-13 동서대학교산학협력단 Interactive acade game machine by full-body-experienced stereo-scopic image contents
KR101905272B1 (en) 2016-11-29 2018-10-05 계명대학교 산학협력단 Apparatus for user direction recognition based on beacon cooperated with experiential type content providing apparatus and method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101638063B1 (en) 2014-02-12 2016-07-13 동서대학교산학협력단 Interactive acade game machine by full-body-experienced stereo-scopic image contents
KR101905272B1 (en) 2016-11-29 2018-10-05 계명대학교 산학협력단 Apparatus for user direction recognition based on beacon cooperated with experiential type content providing apparatus and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102659549B1 (en) * 2023-05-12 2024-04-22 주식회사 나리벡 Reconfigurable modular future job experience system

Similar Documents

Publication Publication Date Title
US10386888B2 (en) Smartwatch device and method
CN111936036B (en) Using biometric sensor data to detect neurological status to guide in-situ entertainment
US11815951B2 (en) System and method for enhanced training using a virtual reality environment and bio-signal data
US11366531B2 (en) Systems, methods, and apparatus for enhanced peripherals
EP3596656B1 (en) Monitoring and analyzing body language with machine learning, using artificial intelligence systems for improving interaction between humans, and humans and robots
US11348298B2 (en) Connected avatar technology
KR101966040B1 (en) Apparatus for dance game and method for dance game using thereof
CN112352390A (en) Content generation and control using sensor data for detecting neurological state
KR102377561B1 (en) Apparatus and method for providing taekwondo movement coaching service using mirror dispaly
US10661148B2 (en) Dual motion sensor bands for real time gesture tracking and interactive gaming
JP2008168133A (en) Method, system and program for tracking range of user's body movement
JP2006192563A (en) Target object detection apparatus and robot provided with the same
CN102918518A (en) Cloud-based personal trait profile data
CN108242007A (en) Service providing method and device
US20140258192A1 (en) Apparatus for training recognition capability using robot and method for same
US20240004475A1 (en) Spatially aware computing hub and environment
KR20180110472A (en) System and method for controlling a stereoscopic emotion lighting
US20230185364A1 (en) Spatially Aware Computing Hub and Environment
KR102058434B1 (en) Virtual money mining typed exercise management apparatus using exercise machine
CN110237518B (en) Interactive training or treatment method and system
KR20210019235A (en) System and method for providing user responsive sensor-based experience content
JP7479735B2 (en) Information output device, design support system, information output method, and information output program
CN104854540A (en) Binding control devices to a computing system
CN116529750A (en) Method and system for interface for product personalization or recommendation
Loconsole et al. An IMU and RFID-based navigation system providing vibrotactile feedback for visually impaired people