KR102192540B1 - System for providing interactive content - Google Patents

System for providing interactive content Download PDF

Info

Publication number
KR102192540B1
KR102192540B1 KR1020190094233A KR20190094233A KR102192540B1 KR 102192540 B1 KR102192540 B1 KR 102192540B1 KR 1020190094233 A KR1020190094233 A KR 1020190094233A KR 20190094233 A KR20190094233 A KR 20190094233A KR 102192540 B1 KR102192540 B1 KR 102192540B1
Authority
KR
South Korea
Prior art keywords
interactive
interactive content
model
content
gesture
Prior art date
Application number
KR1020190094233A
Other languages
Korean (ko)
Inventor
윤종선
Original Assignee
주식회사 토포로그
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 토포로그 filed Critical 주식회사 토포로그
Priority to KR1020190094233A priority Critical patent/KR102192540B1/en
Priority to PCT/KR2019/009711 priority patent/WO2021025188A1/en
Application granted granted Critical
Publication of KR102192540B1 publication Critical patent/KR102192540B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8545Content authoring for generating interactive applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/14Travel agencies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot

Abstract

The present invention relates to a system for providing interactive content based on virtual reality and augmented reality. An objective of the present invention is to provide a system for providing interactive content which can provide a variety of content based on virtual reality and augmented reality. According to an embodiment of the present invention, the system for providing interactive content based on virtual reality and augmented reality comprises: an interactive model including a sensor to sense a gesture of a user and an identifier to load interactive content realized in virtual reality and augmented reality; a user terminal to scan the identifier to transmit content request information for interactive content linked to the interactive model to an interactive content providing server, and receive the interactive content from the interactive content providing server to output the interactive content; the interactive content providing server to transmit the interactive content linked to the interactive model to the user terminal based on the received content request information; and cardboard for virtual reality allowing the user terminal to be mounted thereon, and providing a virtual reality environment to display the interactive content.

Description

인터랙티브 콘텐츠 제공 시스템{SYSTEM FOR PROVIDING INTERACTIVE CONTENT}Interactive content providing system {SYSTEM FOR PROVIDING INTERACTIVE CONTENT}

본원은 인터랙티브 콘텐츠 제공 시스템에 관한 것이다.The present application relates to an interactive content providing system.

관광 인구가 증가함에 따라, 관광객에게 제공되는 콘텐츠 또한 증가하고 있다. 종래의 관광 정보 콘텐츠로는 관광 명소의 위치, 음식점, 숙박업소 등을 나타내는 관광 지도가 제공된 바 있다. 이러한 관광 지도는 간략한 정보만을 나타내고 있으므로, 관광객이 지도만으로 목적지까지 찾아가는 것은 다소 제약이 따를 수 있다.As the tourist population increases, the content provided to tourists is also increasing. Conventional tourist information content has been provided with a tourist map indicating the location of tourist attractions, restaurants, and accommodations. Since these tourist maps only show brief information, there may be some restrictions for tourists to go to their destinations with only the map.

한편, 최근에는 가상현실로 관광 명소에 대한 정보를 제공하는 콘텐츠들이 개발되고 있다. 이러한 가상현실 콘텐츠는 관광 명소의 주변 또는, 관광 명소로 진입하는 입구에 설치된 정보 안내 단말기를 통해 제공되고 있다. 관광객들은 관광 명소에 진입하기 전 정보 안내 단말기를 통해 관광 명소에 대한 정보를 가상현실 콘텐츠를 통해 제공받을 수 있으나, 고정된 정보 안내 단말기의 특성상 접근성이 용이하지 않은 문제점이 있다.On the other hand, recently, contents providing information on tourist attractions in virtual reality have been developed. Such virtual reality contents are provided through an information guide terminal installed around a tourist attraction or at an entrance to a tourist attraction. Tourists can receive information on tourist attractions through virtual reality contents through an information guide terminal before entering a tourist attraction, but there is a problem that accessibility is not easy due to the nature of a fixed information guide terminal.

또한, 교육, 학습뿐만 아니라, 게임 등의 콘텐츠 역시 가상현실 및 증강현실 기반의 콘텐츠로 제공되고 있으나, 사용자와 소통하거나, 사용자의 행동, 제스처 등에 따라 능동적으로 대응하는 콘텐츠 개발 기술과 관련하여 그 개발 수준이 마땅치 않은 실정이다.In addition, not only education and learning, but also contents such as games are provided as contents based on virtual reality and augmented reality, but the development is related to contents development technology that communicates with users or actively responds to user actions and gestures. The level is not good enough.

본원의 배경이 되는 기술은 한국공개특허공보 제 2016-0082154 호에 개시되어 있다.The technology behind the present application is disclosed in Korean Patent Application Publication No. 2016-0082154.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 사용자와 상호작용이 가능한 인터랙티브 모형을 통해 가상현실 및 증강현실 기반의 다양한 콘텐츠를 제공할 수 있는 인터랙티브 콘텐츠 제공 시스템을 제공하는 것을 목적으로 한다.The present application is to solve the problems of the prior art described above, and an object of the present invention is to provide an interactive content providing system capable of providing various contents based on virtual reality and augmented reality through an interactive model capable of interacting with a user.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 관광 정보, 교육 및 학습, 등 인터랙티브 모형에 따라 다양한 유형의 인터랙티브 콘텐츠를 제공할 수 있는 인터랙티브 콘텐츠 제공 시스템을 제공하는 것을 목적으로 한다.The present application is to solve the problems of the prior art described above, and an object of the present invention is to provide an interactive content providing system capable of providing various types of interactive content according to interactive models such as tourism information, education and learning, and the like.

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들도 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problems to be achieved by the embodiments of the present application are not limited to the technical problems as described above, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 가상현실 및 증강현실 기반 인터랙티브 콘텐츠 제공 시스템은, 가상현실 및 증강현실로 구현되는 인터랙티브 콘텐츠를 로딩하기 위한 식별자 및 사용자의 제스처를 감지하는 센서를 포함하는 인터랙티브 모형, 상기 식별자를 스캔하여 상기 인터랙티브 모형과 연계된 인터랙티브 콘텐츠에 대한 콘텐츠 요청 정보를 인터랙티브 콘텐츠 제공 서버로 전송하고, 상기 인터랙티브 콘텐츠 제공 서버로부터 상기 인터랙티브 콘텐츠를 수신하여 출력하는, 사용자 단말, 수신한 상기 콘텐츠 요청 정보에 기초하여 상기 인터랙티브 모형과 연계된 상기 인터랙티브 콘텐츠를 상기 사용자 단말로 전송하는 인터랙티브 콘텐츠 제공 서버 및 상기 사용자 단말이 장착되고, 상기 인터랙티브 콘텐츠가 디스플레이 되도록 가상현실 환경을 제공하는 가상현실용 카드보드를 포함할 수 있다.As a technical means for achieving the above technical problem, the virtual reality and augmented reality-based interactive content providing system according to an embodiment of the present application includes an identifier for loading interactive content implemented in virtual reality and augmented reality, and a user's gesture An interactive model including a sensor that detects, scans the identifier and transmits content request information for interactive content linked to the interactive model to an interactive content providing server, and receives and outputs the interactive content from the interactive content providing server A user terminal, an interactive content providing server that transmits the interactive content linked to the interactive model to the user terminal based on the received content request information, and the user terminal is mounted, and the interactive content is displayed. It may include a cardboard for virtual reality providing an environment.

본원의 일 실시예에 따르면, 상기 인터랙티브 콘텐츠는, 서로 다른 인터랙티브 모형과 연계된 복수의 유형을 가지되, 상기 유형은 관광 명소에 대한 관광 콘텐츠와 연계된 제1유형, 인체 장기 구조 및 작용에 대한 교육 콘텐츠와 연계된 제2유형 및 연예인의 팬서비스 모션에 대한 연예 콘텐츠와 연계된 제3유형을 포함할 수 있다.According to an embodiment of the present application, the interactive content has a plurality of types linked with different interactive models, the type being a first type linked to tourism content for a tourist attraction, a human organ structure and action It may include a second type associated with educational content and a third type associated with entertainment content for fan service motions of entertainers.

본원의 일 실시예에 따르면, 제1유형 인터랙티브 모형은 이미지 카드로 구비되고, 상기 이미지 카드는 관광 지역의 3차원 이미지이고, 상기 3차원 이미지는 관광 지역에 포함된 복수의 관광 명소에 대응하는 식별자를 포함하고, 사용자의 터치를 감지하는 압전 센서를 포함하고, 제2유형 인터랙티브 모형은 인체 모형으로 구비되고, 제3유형 인터랙티브 모형은 연예인의 캐릭터 모형으로 구비되되, 상기 인체 모형 및 캐릭터 모형은 부위별로 구비되는 압전 센서, 가속도 센서 및 적외선 센서를 포함할 수 있다.According to an embodiment of the present application, the first type interactive model is provided as an image card, the image card is a three-dimensional image of a tourist area, and the three-dimensional image is an identifier corresponding to a plurality of tourist attractions included in the tourist area. And a piezoelectric sensor for sensing a user's touch, the second type interactive model is provided as a human body model, and the third type interactive model is provided as a character model of an entertainer, and the human body model and the character model are part It may include a piezoelectric sensor, an acceleration sensor, and an infrared sensor provided separately.

본원의 일 실시예에 따르면, 상기 사용자 단말은 상기 인터랙티브 모형의 상기 식별자를 인식하여 상기 콘텐츠 요청 정보를 생성하는 스캔부, 상기 콘텐츠 요청 정보를 상기 인터랙티브 콘텐츠 제공 서버로 전송하고, 상기 콘텐츠 요청 정보에 대응하는 인터랙티브 콘텐츠를 수신하는 통신부, 가상현실 및 증강현실 기반의 상기 인터랙티브 콘텐츠를 출력하는 출력부를 포함하되, 상기 통신부는 상기 인터랙티브 모형으로부터 터치 감지 정보를 수신하여 상기 인터랙티브 콘텐츠 제공 서버로 전송하고, 상기 터치 감지 정보에 따라 변화된 인터랙티브 콘텐츠를 실시간으로 수신할 수 있다.According to an embodiment of the present application, the user terminal recognizes the identifier of the interactive model and generates the content request information, and transmits the content request information to the interactive content providing server, and the content request information A communication unit for receiving a corresponding interactive content and an output unit for outputting the interactive content based on virtual reality and augmented reality, wherein the communication unit receives touch sensing information from the interactive model and transmits it to the interactive content providing server, and the Interactive content changed according to the touch sensing information can be received in real time.

본원의 일 실시예에 따르면, 상기 통신부는 상기 제1유형 인터랙티브 모형으로부터 상기 사용자의 상기 3차원 이미지 내의 관광 명소를 터치한 터치 제스처에 기초하여 생성된 제1터치 감지 정보를 수신하여 상기 인터랙티브 콘텐츠 제공 서버로 전송하고, 상기 제1터치 감지 정보에 대응하는 상기 관광 명소의 세부 정보를 포함하는 인터랙티브 콘텐츠를 상기 인터랙티브 콘텐츠 제공 서버로부터 수신하고, 상기 출력부는 상기 관광 명소의 세부 정보를 증강현실로 출력할 수 있다.According to an embodiment of the present application, the communication unit provides the interactive content by receiving first touch detection information generated based on a touch gesture of touching a tourist attraction in the 3D image of the user from the first type interactive model. Transmits to a server, and receives interactive content including detailed information of the tourist attraction corresponding to the first touch detection information from the interactive content providing server, and the output unit outputs detailed information of the tourist attraction in augmented reality. I can.

본원의 일 실시예에 따르면, 상기 통신부는 상기 제2유형 인터랙티브 모형으로부터 상기 인체 모형의 각 부위를 터치한 터치 제스처, 상기 인체 모형의 각 부위를 이동시키는 이동 제스처 및 상기 인체 모형의 각 부위에 접근한 접근 제스처 중 적어도 어느 하나에 기초하여 생성된 제2터치 감지 정보를 수신하여 상기 인터랙티브 콘텐츠 제공 서버로 전송하고, 상기 제2터치 감지 정보에 대응하는 인체의 작용을 포함하는 인터랙티브 콘텐츠를 수신하고, 상기 출력부는 상기 터치 제스처, 이동 제스처 및 접근 제스처 중 적어도 어느 하나에 의한 인체의 작용을 증강현실로 출력할 수 있다.According to an embodiment of the present application, the communication unit accesses each portion of the human body model, a touch gesture by touching each portion of the human body model from the second type interactive model, a movement gesture to move each portion of the human body model, and Receives second touch detection information generated based on at least one of the access gestures and transmits it to the interactive content providing server, and receives interactive content including an action of a human body corresponding to the second touch detection information, The output unit may output an action of the human body by at least one of the touch gesture, the movement gesture, and the approach gesture as augmented reality.

본원의 일 실시예에 따르면, 상기 통신부는 상기 제3유형 인터랙티브 모형으로부터 상기 캐릭터 모형의 각 부위를 터치한 터치 제스처, 상기 캐릭터 모형의 각 부위를 이동시키는 이동 제스처 및 상기 캐릭터 모형의 각 부위에 접근한 접근 제스처 중 적어도 어느 하나에 기초하여 생성된 제3터치 감지 정보를 수신하여 상기 인터랙티브 콘텐츠 제공 서버로 전송하고, 상기 제3터치 감지 정보에 대응하는 인체의 작용을 포함하는 인터랙티브 콘텐츠를 수신하고, 상기 출력부는 상기 터치 제스처, 이동 제스처 및 접근 제스처 중 적어도 어느 하나에 의한 연예인의 팬서비스 모션을 증강현실로 출력할 수 있다.According to an exemplary embodiment of the present application, the communication unit accesses each portion of the character model, a touch gesture by touching each portion of the character model from the third type interactive model, a movement gesture to move each portion of the character model, and Receives third touch detection information generated based on at least one of the access gestures and transmits it to the interactive content providing server, and receives interactive content including an action of a human body corresponding to the third touch detection information, The output unit may output a fan service motion of a celebrity by at least one of the touch gesture, the movement gesture, and the approach gesture as augmented reality.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present application. In addition to the above-described exemplary embodiments, additional embodiments may exist in the drawings and detailed description of the invention.

전술한 본원의 과제 해결 수단에 의하면, 사용자와 상호작용이 가능한 인터랙티브 모형을 통해 가상현실 및 증강현실 기반의 다양한 콘텐츠를 제공할 수 있는 인터랙티브 콘텐츠 제공 시스템을 제공할 수 있다.According to the above-described problem solving means of the present application, it is possible to provide an interactive content providing system capable of providing various contents based on virtual reality and augmented reality through an interactive model capable of interacting with a user.

전술한 본원의 과제 해결 수단에 의하면, 관광 정보, 교육 및 학습, 등 인터랙티브 모형에 따라 다양한 유형의 인터랙티브 콘텐츠를 제공할 수 있는 인터랙티브 콘텐츠 제공 시스템을 제공할 수 있다.According to the above-described problem solving means of the present application, it is possible to provide an interactive content providing system capable of providing various types of interactive content according to interactive models such as tourism information, education and learning, and the like.

도 1은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 구성을 도시한 도면이다.
도 2는 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 사용자 단말의 구성을 도시한 도면이다.
도 3은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 이미지 카드의 예를 도시한 도면이다.
도 4는 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 제1유형 인터랙티브 콘텐츠를 출력한 화면의 예를 도시한 도면이다.
도 5는 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 인체 모형의 예를 도시한 도면이다.
도 6은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 제2유형 인터랙티브 콘텐츠를 출력한 화면의 예를 도시한 도면이다.
도 7은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 캐릭터 모형의 예를 도시한 도면이다.
도 8은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 제3유형 인터랙티브 콘텐츠를 출력한 화면의 예를 도시한 도면이다.
1 is a diagram showing a configuration of an interactive content providing system according to an embodiment of the present application.
2 is a diagram showing a configuration of a user terminal of an interactive content providing system according to an embodiment of the present application.
3 is a diagram illustrating an example of an image card of an interactive content providing system according to an embodiment of the present application.
4 is a diagram illustrating an example of a screen outputting a first type of interactive content of an interactive content providing system according to an embodiment of the present application.
5 is a diagram illustrating an example of a human body model of an interactive content providing system according to an embodiment of the present application.
6 is a diagram illustrating an example of a screen outputting a second type of interactive content of the interactive content providing system according to an embodiment of the present application.
7 is a diagram illustrating an example of a character model of an interactive content providing system according to an embodiment of the present application.
8 is a diagram illustrating an example of a screen outputting a third type of interactive content of the interactive content providing system according to an embodiment of the present application.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, exemplary embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present application. However, the present application may be implemented in various different forms and is not limited to the embodiments described herein. In addition, in the drawings, parts not related to the description are omitted in order to clearly describe the present application, and similar reference numerals are attached to similar parts throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is said to be "connected" with another part, this includes not only the case that it is "directly connected", but also the case that it is "electrically connected" with another element interposed therebetween. do.

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is positioned "on", "upper", "upper", "under", "lower", and "lower" of another member, this means that a member is located on another member. It includes not only the case where they are in contact but also the case where another member exists between the two members.

본원 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification of the present application, when a certain part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary.

도 1은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 구성을 도시한 도면이다.1 is a diagram showing a configuration of an interactive content providing system according to an embodiment of the present application.

도 1을 참조하면, 가상현실 및 증강현실 기반 인터랙티브 콘텐츠 제공 시스템은 인터랙티브 모형(100), 사용자 단말(200) 및 인터랙티브 콘텐츠 제공 서버(300)를 포함할 수 있다.Referring to FIG. 1, an interactive content providing system based on virtual reality and augmented reality may include an interactive model 100, a user terminal 200, and an interactive content providing server 300.

인터랙티브 모형(100)은 가상현실 및 증강현실로 구현되는 인터랙티브 콘텐츠를 로딩하기 위한 식별자 및 사용자의 제스처를 감지하는 센서를 포함할 수 있다. 인터랙티브 모형(100)은 제공하는 인터랙티브 콘텐츠에 따라 다양한 유형으로 마련될 수 있으며, 예시적으로 이미지 카드(110), 인체 모형(120), 연예인의 캐릭터 모형(130)로 구비될 수 있다. 각 유형에 따른 인터랙티브 모형(100)은 인터랙티브 콘텐츠의 유형과 연계된 서로 다른 식별자를 포함할 수 있다. 상기 식별자는 QR코드, 이미지, 폴리곤, 텍스처 중 적어도 어느 하나를 포함할 수 있다. The interactive model 100 may include an identifier for loading interactive content implemented in virtual reality and augmented reality, and a sensor that detects a user's gesture. The interactive model 100 may be provided in various types according to the provided interactive content, and for example, may be provided as an image card 110, a human body model 120, and a character model 130 of an entertainer. The interactive model 100 according to each type may include different identifiers associated with the type of interactive content. The identifier may include at least one of a QR code, an image, a polygon, and a texture.

사용자 단말(200)은 인터랙티브 모형의 식별자를 스캔하여 인터랙티브 모형과 연계된 인터랙티브 콘텐츠에 대한 콘텐츠 요청 정보를 생성할 수 있다. 또한, 사용자 단말(200)은 생성한 콘텐츠 요청 정보를 인터랙티브 콘텐츠 제공 서버로 전송하고, 인터랙티브 콘텐츠 제공 서버로부터 인터랙티브 콘텐츠를 수신하여 출력할 수 있다. 인터랙티브 콘텐츠 제공 서버(300)는 사용자 단말(200)로부터 수신된 콘텐츠 요청 정보에 기초하여 인터랙티브 모형과 연계된 인터랙티브 콘텐츠를 사용자 단말(200)로 전송할 수 있다. 가상현실용 카드보드(400)는 스마트 단말(200)이 장착되고, 가상현실 기반의 관광 콘텐츠 및 관광 지도가 디스플레이 되도록 가상현실 환경을 제공할 수 있다. 예를 들어, 가상현실용 카드보드(400)는 양안시차를 보정하기 위한 복수의 렌즈(LENS)를 포함할 수 있다. 본원의 일 실시예에 따르면, 인터랙티브 콘텐츠는 360도 전방위 영상을 포함하는 가상현실 콘텐츠 및 증강현실 콘텐츠를 포함할 수 있다.The user terminal 200 may generate content request information for interactive content linked to the interactive model by scanning an identifier of the interactive model. Also, the user terminal 200 may transmit the generated content request information to the interactive content providing server, and may receive and output the interactive content from the interactive content providing server. The interactive content providing server 300 may transmit the interactive content associated with the interactive model to the user terminal 200 based on the content request information received from the user terminal 200. The virtual reality cardboard 400 may provide a virtual reality environment so that a smart terminal 200 is mounted and a virtual reality-based tourism content and a tourism map are displayed. For example, the cardboard 400 for virtual reality may include a plurality of lenses LENS for correcting binocular parallax. According to an embodiment of the present application, the interactive content may include virtual reality content and augmented reality content including 360-degree omnidirectional images.

인터랙티브 모형(100)과 사용자 단말(200) 및 인터랙티브 콘텐츠 제공 서버(300)는 네트워크로 연결될 수 있으며, 예를 들어 사용자 단말(200)은, 스마트폰(Smartphone), 스마트패드(SmartPad), 스마트 TV, 태블릿 PC등과 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말 같은 모든 종류의 무선 통신 장치를 포함할 수 있다.The interactive model 100, the user terminal 200, and the interactive content providing server 300 may be connected through a network. For example, the user terminal 200 may include a smartphone, a smart pad, and a smart TV. , PCS (Personal Communication System), GSM (Global System for Mobile communication), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, It may include all types of wireless communication devices such as Code Division Multiple Access (CDMA)-2000, W-Code Division Multiple Access (W-CDMA), and Wireless Broadband Internet (Wibro) terminals.

또한, 상기 네트워크는 단말 및 서버와 같은 각각의 노드 상호 간에 정보 교환이 가능한 유, 무선의 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.In addition, the network refers to a wired and wireless connection structure capable of exchanging information between respective nodes such as a terminal and a server, and examples of such networks include a 3rd Generation Partnership Project (3GPP) network, and Long Term Evolution (LTE). ) Network, 5G network, WIMAX(World Interoperability for Microwave Access) network, Internet, LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network) , A Bluetooth network, a satellite broadcasting network, an analog broadcasting network, and a Digital Multimedia Broadcasting (DMB) network, but are not limited thereto.

도 2는 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 사용자 단말의 구성을 도시한 도면이다.2 is a diagram showing a configuration of a user terminal of an interactive content providing system according to an embodiment of the present application.

도 2를 참조하면, 사용자 단말(200)은 스캔부(210), 통신부(220) 및 출력부(230)를 포함할 수 있다. 스캔부(210)는 인터랙티브 모형(100)의 식별자를 인식하여 콘텐츠 요청 정보를 생성할 수 있다. 스캔부(210)는 사용자 단말(200)의 카메라 모듈을 통해 식별자를 인식하고 스캔할 수 있으며, 인식된 식별자에 기초하여 인터릭티브 모형과 연계된 콘텐츠를 요청하는 콘텐츠 요청 정보를 생성할 수 있다. 통신부(220)는 콘텐츠 요청 정보를 인터랙티브 콘텐츠 제공 서버(300)로 전송할 수 있고, 인터랙티브 콘텐츠 제공 서버(300)로부터 콘텐츠 요청 정보에 대응하는 인터랙티브 콘텐츠를 수신할 수 있다. 또한, 통신부(220)는 인터랙티브 모형으로부터 터치 감지 정보를 수신하여 인터랙티브 콘텐츠 제공 서버(300)로 전송하고, 인터랙티브 콘텐츠 제공 서버로부터 터치 감지 정보에 따라 변화된 인터랙티브 콘텐츠를 실시간으로 수신할 수 있다.Referring to FIG. 2, the user terminal 200 may include a scan unit 210, a communication unit 220, and an output unit 230. The scan unit 210 may generate content request information by recognizing the identifier of the interactive model 100. The scanning unit 210 may recognize and scan the identifier through the camera module of the user terminal 200, and may generate content request information for requesting content associated with the interactive model based on the recognized identifier. . The communication unit 220 may transmit content request information to the interactive content providing server 300 and may receive interactive content corresponding to the content request information from the interactive content providing server 300. In addition, the communication unit 220 may receive touch sensing information from the interactive model, transmit it to the interactive content providing server 300, and receive the interactive content changed according to the touch sensing information from the interactive content providing server in real time.

인터랙티브 콘텐츠는 서로 다른 인터랙티브 모형과 연계된 복수의 유형을 가질 수 있다. 예시적으로, 복수의 유형은 관광 명소에 대한 관광 콘텐츠와 연계된 제1유형(제1유형 인터랙티브 콘텐츠), 인체 장기 구조 및 작용에 대한 교육 콘텐츠와 연계된 제2유형(제2유형 인터랙티브 콘텐츠) 및 연예인의 팬서비스 모션에 대한 연예 콘텐츠와 연계된 제3유형(제3유형 인터랙티브 콘텐츠)을 포함할 수 있다. 도 1을 참조하면, 제1유형과 연계된 인터랙티브 모형(제1인터랙티브 모형)은 이미지 카드(110)일 수 있으며, 제2유형과 연계된 인터랙티브 모형(제2인터랙티브 모형)은 인체 모형(120)일 수 있다. 제3유형과 연계된 인터랙티브 모형(제3인터랙티브 모형)은 캐릭터 모형(130)일 수 있다. 인터랙티브 콘텐츠 제공 서버(300)는 사용자 단말(200)로부터 수신한 콘텐츠 요청 정보를 통해 사용자 단말(200)이 식별자를 통해 식별한 인터랙티브 모형의 유형을 파악할 수 있고, 해당 유형 인터랙티브 모형에 대한 인터랙티브 콘텐츠를 사용자 단말(200)로 제공할 수 있다. 출력부(230)는 가상현실 및 증강현실 기반의 인터랙티브 콘텐츠를 출력할 수 있다. 예시적으로, 사용자가 사용자 단말(200)을 통해 인터랙티브 모형의 식별자를 스캔하면, 인터랙치브 콘텐츠 제공 서버(300)로부터 인터랙티브 모형에 대응하는 인터랙티브 콘텐츠를 수신하여 출력할 수 있다.Interactive content may have a plurality of types associated with different interactive models. Exemplarily, the plurality of types are the first type (type 1 interactive content) associated with tourism content for tourist attractions, and the second type (type 2 interactive content) associated with educational content about the structure and action of human organs. And a third type (third type interactive content) associated with entertainment content for a fan service motion of an entertainer. Referring to FIG. 1, the interactive model (first interactive model) associated with the first type may be an image card 110, and the interactive model (second interactive model) associated with the second type is a human body model 120. Can be The interactive model (third interactive model) associated with the third type may be a character model 130. The interactive content providing server 300 can grasp the type of the interactive model identified by the user terminal 200 through the identifier through the content request information received from the user terminal 200, and obtain interactive content for the corresponding type interactive model. It can be provided to the user terminal 200. The output unit 230 may output interactive content based on virtual reality and augmented reality. For example, when the user scans the identifier of the interactive model through the user terminal 200, the interactive content corresponding to the interactive model may be received from the interactive content providing server 300 and output.

도 3은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 이미지 카드의 예를 도시한 도면이다.3 is a diagram illustrating an example of an image card of an interactive content providing system according to an embodiment of the present application.

도 3을 참조하면, 인터랙티브 모형(100) 중 이미지 카드(110)는 관광 지역에 대한 관광 지역 이미지 및 관광 지역 식별을 위한 정보와 연계된 식별자(114)(예를 들어 QR코드)를 포함할 수 있다. 예시적으로, 상기 이미지 카드(110)는 엽서, 명함 등을 포함할 수 있다. 또한, 관광 지역 이미지는 관광 지역에 대한 지도 이미지일 수 있다. 예를 들어, 관광 지역 이미지는 시, 도, 구, 군 등으로 구획된 지도 이미지일 수도 있으나, 이에 한정되는 것은 아니다. 또한, 이미지 카드(110)에 포함된 관광 지역 이미지는 3차원 지도 이미지일 수 있다. 관광 지역 이미지는 해당 관광 지역의 고저차를 나타낸 3차원 지도 이미지로 형성될 수 있다. 예를 들어, 3차원 지도 이미지는 관광 지역의 위성 사진으로부터, 해당 관광 지역의 고저차를 반영하여 일 영역이 돌출되거나 함몰되어 입체감을 제공하는 3차원 지도 이미지일 수 있다. 따라서, 2차원 평면의 지도 이미지에 비해 사용자에게 실감과 재미를 줄 수 있다.Referring to FIG. 3, the image card 110 of the interactive model 100 may include an identifier 114 (for example, a QR code) associated with a tourist area image for a tourist area and information for identifying a tourist area. have. For example, the image card 110 may include a postcard or a business card. In addition, the tourist area image may be a map image for the tourist area. For example, the tourist area image may be a map image divided into cities, provinces, districts, and counties, but is not limited thereto. In addition, the tourist area image included in the image card 110 may be a 3D map image. The tourist area image may be formed as a 3D map image showing the difference in elevation of the corresponding tourist area. For example, the 3D map image may be a 3D map image that provides a three-dimensional effect by protruding or depressing an area by reflecting a difference in elevation of a corresponding tourist area from a satellite photo of a tourist area. Therefore, compared to a map image of a two-dimensional plane, it is possible to give a user a sense of reality and fun.

또한, 도3을 참조하면, 이미지 카드(110)는 관광지역에 포함된 복수의 관광 명소에 대한 식별자를 포함할 수 있다. 식별자(111, 112, 113)는 사용자 단말(200)의 스캔부(210)에 의해 인식될 수 있다. 도 3에 도시된 바와 같이 식별자(111, 112, 113)는 관광 지역 내에 포함된 관광 명소에 대한 식별자일 수 있다. 예를 들어, 관광 명소는 문화재, 유적지, 놀이공원, 경기장 등을 의미할 수 있고, 식별자는 상기 관광 명소에 대한 명칭 또는 상호 정보, 위치정보를 포함할 수 있다. 또한, 관광 지역 이미지(110)는 사용자가 육안으로 관광 명소를 인식할 수 있도록, 관광 명소의 명칭 또는 기호 등이 표시될 수 있다. 또한, 사용자 단말(200)은 이미지 카드(110)의 식별자(114)를 스캔하여 인터랙티브 콘텐츠 제공 서버(300)로부터 가상현실 및 증강현실로 구현되는 인터랙티브 콘텐츠를 통해 관광 지역 및 관광 명소에 대한 정보를 제공받을 수 있다.Further, referring to FIG. 3, the image card 110 may include identifiers for a plurality of tourist attractions included in the tourist area. The identifiers 111, 112, and 113 may be recognized by the scan unit 210 of the user terminal 200. As shown in FIG. 3, the identifiers 111, 112, and 113 may be identifiers for tourist attractions included in the tourist area. For example, a tourist attraction may mean a cultural property, a historical site, an amusement park, a stadium, and the like, and the identifier may include a name, mutual information, and location information about the tourist attraction. In addition, the tourist area image 110 may display the name or symbol of the tourist attraction so that the user can visually recognize the tourist attraction. In addition, the user terminal 200 scans the identifier 114 of the image card 110 and retrieves information on tourist areas and tourist attractions from the interactive content providing server 300 through interactive contents implemented in virtual reality and augmented reality. Can be provided.

이미지 카드(110) 즉 제1유형 인터랙티브 모형은 사용자의 터치를 감지하는 압전 센서를 포함할 수 있다. 압전 센서는 복수개 구비될 수 있으며, 이미지 카드(110)의 관광 명소에 대한 식별자의 위치에 대응하여 이미지 카드(110) 내부에 마련될 수 있다. 사용자는 이미지 카드(110)의 관광 명소를 누르는 터치 제스처를 취할 수 있고, 이미지 카드(110)에는 사용자가 누른 관광 명소의 위치에 구비된 압전 센서를 통해 터치 제스처를 감지할 수 있다. 또한, 이미지 카드(110)는 터치 제스처에 기초하여 제1터치 감지 정보를 생성할 수 있다. 통신부(210)는 제1유형 인터랙티브 모형으로부터 사용자의 3차원 이미지 내의 관광 명소를 터치한 터치 제스처에 기초하여 생성된 제1터치 감지 정보를 수신하여 인터랙티브 콘텐츠 제공 서버(300)로 전송할 수 있다.The image card 110, that is, the first type interactive model, may include a piezoelectric sensor that senses a user's touch. A plurality of piezoelectric sensors may be provided, and may be provided inside the image card 110 corresponding to the position of the identifier for the tourist attraction of the image card 110. The user may take a touch gesture of pressing the tourist attraction on the image card 110, and the image card 110 may sense the touch gesture through a piezoelectric sensor provided at the location of the tourist attraction that the user pressed. Also, the image card 110 may generate first touch detection information based on a touch gesture. The communication unit 210 may receive first touch detection information generated based on a touch gesture of touching a tourist attraction in the user's 3D image from the first type interactive model and transmit it to the interactive content providing server 300.

도 4는 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 제1유형 인터랙티브 콘텐츠를 출력한 화면의 예를 도시한 도면이다.4 is a diagram illustrating an example of a screen outputting a first type of interactive content of an interactive content providing system according to an embodiment of the present application.

사용자 단말(200)을 통해 인터랙티브 모형의 식별자가 스캔되면, 인터랙티브 콘텐츠 제공 서버(300)는 해당 인터랙티브 모형과 연계된 인터랙티브 콘텐츠를 사용자 단말(200)로 전송하고, 사용자 단말(200)의 출력부(230)는 수신한 인터랙티브 콘텐츠를 출력할 수 있다. 이때, 사용자가 이미지 카드(110) 내에 특정 관광 명소를 누르는 터치 제스처를 취하면, 인터랙티브 콘텐츠 제공 서버(300)는 사용자가 특정 관광 명소를 터치한 터치 제스처에 기초하여 생성된 제1터치 감지 정보를 사용자 단말(200)을 통해 수신할 수 있다. 이후 인터랙티브 콘텐츠 제공 서버(300)는 해당 관광 명소의 세부 정보(420)를 포함하는 인터랙티브 콘텐츠를 사용자 단말(200)로 전송할 수 있다. 도 4를 참조하면, 출력부(230)는 관광 명소의 세부 정보(420)를 증강현실로 출력할 수 있다.When the identifier of the interactive model is scanned through the user terminal 200, the interactive content providing server 300 transmits the interactive content associated with the interactive model to the user terminal 200, and the output unit of the user terminal 200 ( 230) may output the received interactive content. At this time, when the user makes a touch gesture of pressing a specific tourist attraction in the image card 110, the interactive content providing server 300 receives the first touch detection information generated based on the touch gesture of the user touching the specific tourist attraction. It can be received through the user terminal 200. Thereafter, the interactive content providing server 300 may transmit interactive content including detailed information 420 of the tourist attraction to the user terminal 200. Referring to FIG. 4, the output unit 230 may output detailed information 420 of a tourist attraction as augmented reality.

다른 예로, 출력부(230)는 사용자 입력 마커(410)를 인터랙티브 콘텐츠 상에 출력할 수 있다, 사용자는 사용자 입력 마커(410)를 통하여 사용자가 가상현실용 카드보드(400)를 착용한 상태에서도 사용자의 움직임에 기초하여 사용자가 의도하는 입력 즉, 관광 명소의 세부 정보를 로딩하는 입력을 수행할 수 있다. 도 4를 참조하면, 사용자 입력 마커(410)는 인터랙티브 콘텐츠의 일 영역(예를 들어 중앙)에 고정될 수 있다. 또한, 사용자 단말(200)은 사용자 단말(200)에서 제공하는 자이로 센싱 기능을 통해 사용자의 움직임을 감지할 수 있고, 출력부(230)는 감지된 사용자의 움직임에 기초하여 사용자의 시선에 대응(360도 콘텐츠 제공)하도록 인터랙티브 콘텐츠를 출력할 수 있다. 예를 들어, 사용자가 사용자 단말이 장착된 가상현실용 카드보드(400)를 착용한 상태에서 관광 명소의 세부 정보를 로딩하고자 하는 경우, 사용자는 고정된 사용자 입력 마커(410)가 관광 명소에 접하도록 시선을 움직일 수 있고, 사용자의 움직임에 의해 사용자 입력 마커(410)가 관광 명소와 접한 경우, 해당 관광 명소의 세부 정보를 제공 받기 위한 의도를 인지하여, 통신부(220)는 세부 정보 요청 정보를 생성하여 인터랙티브 콘텐츠 제공 서버(300)로 전송할 수 있다. 인터랙티브 콘텐츠 제공 서버(300)는 세부 정보 요청 정보에 기초하여 해당 관광 명소의 세부 정보를 포함하는 인터랙티브 콘텐츠(즉, 변화된 인터랙티브 콘텐츠)를 사용자 단말(200)로 전송하고, 출력부(230)는 관광 명소의 세부 정보를 포함하는 변화된 인터랙티브 콘텐츠를 실시간으로 출력하여 관광 명소의 세부 정보를 제공할 수 있다.As another example, the output unit 230 may output the user input marker 410 on the interactive content. The user can use the user input marker 410 even when the user wears the cardboard 400 for virtual reality. An input intended by the user, that is, an input for loading detailed information of a tourist attraction, may be performed based on the user's movement. Referring to FIG. 4, the user input marker 410 may be fixed to an area (eg, the center) of the interactive content. In addition, the user terminal 200 may detect the user's movement through a gyro sensing function provided by the user terminal 200, and the output unit 230 responds to the user's gaze based on the detected user's movement ( You can output interactive content to provide 360-degree content). For example, when a user wants to load detailed information of a tourist attraction while wearing a virtual reality cardboard 400 equipped with a user terminal, the user may contact the tourist attraction with a fixed user input marker 410. When the user input marker 410 is in contact with a tourist attraction by movement of the user, the communication unit 220 recognizes the intention to receive detailed information of the tourist attraction, and the communication unit 220 requests detailed information request information. It may be generated and transmitted to the interactive content providing server 300. The interactive content providing server 300 transmits interactive content including detailed information of the tourist attraction (ie, changed interactive content) to the user terminal 200 based on the detailed information request information, and the output unit 230 It is possible to provide detailed information of tourist attractions by outputting changed interactive content including detailed information of attractions in real time.

도 5는 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 인체 모형의 예를 도시한 도면이다.5 is a diagram illustrating an example of a human body model of an interactive content providing system according to an embodiment of the present application.

도 5를 참조하면, 제2유형 인터랙티브 모형은 인체 모형(120)으로 구비될 수 있다. 인체 모형(120)은 부위 별로 구비되는 압전 센서, 가속도 센서 및 적외선 센서를 포함할 수 있다. 예시적으로, 상기 센서는 머리, 팔, 다리 등 신체 부위의 위치에 대응하여 인체 모형(120) 내부에 구비될 수 있으며, 특히 적외선 센서(122)는 입의 위치에 대응하여 인체 모형(120) 내부에 구비될 수 있다. 또한 인체 모형(120)은 인체 장기 구조 및 작용에 대한 교육 콘텐츠와 연계된 제2유형 인터랙티브 콘텐츠를 로딩하기 위한 식별자(121)를 포함할 수 있다. 전술한 바와 같이, 스캔부(210)는 인체 모형(120)의 식별자(121)를 스캔하여 콘텐츠 요청 정보를 생성하고, 통신부(220)는 콘텐츠 요청 정보를 인터랙티브 콘텐츠 제공 서버(300)로 전송하여 인터랙티브 콘텐츠 제공 서버(300)로부터 인체 장기 구조 및 작용에 대한 교육 콘텐츠와 연계된 제2유형 인터랙티브 콘텐츠를 수신할 수 있다.Referring to FIG. 5, the second type interactive model may be provided as a human body model 120. The human body model 120 may include a piezoelectric sensor, an acceleration sensor, and an infrared sensor provided for each part. For example, the sensor may be provided inside the human body model 120 corresponding to the position of body parts such as head, arm, and leg, and in particular, the infrared sensor 122 corresponds to the position of the mouth. It may be provided inside. In addition, the human body model 120 may include an identifier 121 for loading the second type interactive content linked to the educational content on the structure and action of the human body. As described above, the scanning unit 210 scans the identifier 121 of the human body model 120 to generate content request information, and the communication unit 220 transmits the content request information to the interactive content providing server 300 The interactive content providing server 300 may receive a second type of interactive content linked to educational content on the structure and function of human organs.

도 6은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 제2유형 인터랙티브 콘텐츠를 출력한 화면의 예를 도시한 도면이다.6 is a diagram illustrating an example of a screen outputting a second type of interactive content of the interactive content providing system according to an embodiment of the present application.

도 6에 도시된 제2유형 인터랙티브 콘텐츠는 인체의 장기 구조가 증강현실로 구현될 수 있다. 제2유형 인터랙티브 모형 즉 인체 모형은 인체 모형의 각 부위를 터치한 터치 제스처, 인체 모형의 각 부위를 이동시키는 이동 제스처 및 인체 모형의 각 부위에 접근한 접근 제스처 중 적어도 어느 하나에 기초하여 생성된 제2터치 감지 정보를 생성할 수 있다. 예시적으로, 사용자의 손, 물체 등을 인체 모형(120)의 입 부위에 접근시키는 접근 제스처를 취하면, 인체 모형(120)은 입 부위에 구비된 적외선 센서를 통해 접근 제스처를 감지할 수 있다. 또한, 인체 모형(120)은 접근 제스처에 기초하여 제2터치 감지 정보를 생성할 수 있다. 접근 제스처는 인체 모형에 음식을 먹이는 제스처를 의미한다. 통신부(210)는 제2유형 인터랙티브 모형으로부터 제2 터치 감지 정보를 수신하여 인터랙티브 콘텐츠 서버(300)로 전송할 수 있다. 출력부(230)는 터치 제스처, 이동 제스처 및 접근 제스처 중 적어도 어느 하나에 의한 인체의 작용을 증강현실로 출력할 수 있으며, 상기 변화된 인터랙티브 콘텐츠를 실시간으로 출력할 수 있다. 구체적으로, 인터랙티브 콘텐츠 서버(300)는 인체 모형에 음식을 먹이는 접근 제스처에 대응하여 음식이 각 장기에서 소화되는 과정을 포함하는 제2유형 인터랙티브 콘텐츠(변화된 인터랙티브 콘텐츠)를 사용자 단말(200)로 제공할 수 있고, 출력부(230)는 변화된 인터랙티브 콘텐츠를 실시간으로 출력할 수 있다. 이처럼 실제 모형과 연계하여 인체의 소화 작용을 증강현실로 구현하는 인터랙티브 콘텐츠를 제공함으로써, 인체 학습의 흥미를 유발할 수 있다.In the second type of interactive content illustrated in FIG. 6, the organ structure of the human body may be implemented as augmented reality. The second type interactive model, that is, a human body model, is generated based on at least one of a touch gesture that touches each part of the human body model, a movement gesture that moves each part of the human body model, and an approach gesture that approaches each part of the human body model. Second touch detection information may be generated. For example, when a user's hand, object, etc., is taken to approach the mouth of the human body model 120, the human body model 120 may detect the approach gesture through an infrared sensor provided in the mouth. . In addition, the human body model 120 may generate second touch detection information based on the approach gesture. The approach gesture refers to a gesture of feeding food to the human body model. The communication unit 210 may receive second touch sensing information from the second type interactive model and transmit it to the interactive content server 300. The output unit 230 may output an action of a human body by at least one of a touch gesture, a movement gesture, and an approach gesture as augmented reality, and output the changed interactive content in real time. Specifically, the interactive content server 300 provides the user terminal 200 with a second type of interactive content (changed interactive content) including a process in which food is digested in each organ in response to an access gesture feeding food to the human body model. In addition, the output unit 230 may output the changed interactive content in real time. In this way, by providing interactive content that implements the digestive action of the human body in augmented reality in connection with the actual model, it is possible to induce interest in human body learning.

또한, 제2유형 인터랙티브 콘텐츠는 인체 자극에 따른 뇌의 변화가 증강현실로 구현될 수 있다. 예시적으로, 사용자가 인체 모형(120)의 팔을 만지는 터치 제스처를 취하면, 인터랙티브 콘텐츠 제공 서버(300)는 촉각에 대응하여 두정엽이 점멸하는 것을 포함하는 제2유형 인터랙티브 콘텐츠를 사용자 단말(200)로 제공할 수 있다. 다른 예로, 사용자가 인체 모형의 팔을 돌리는 터치 제스처를 취하면, 팔 부위에 구비된 가속도 센서에 의해 팔을 돌리는 터치 제스처가 감지되며, 인터랙티브 콘텐츠 제공 서버(300)는 팔의 운동에 대응하여 전두엽이 점멸하는 것을 포함하는 제2유형 인터랙티브 콘텐츠를 사용자 단말(200)로 제공할 수 있다. 또한, 제2유형 인터랙티브 콘텐츠는 그림 음악 등의 창작 사고와 연산, 암기 등의 논리 사고 각각에 대한 사고 아이콘을 포함할 수 있다. 사용자는 사용자 입력 마커를 통해 상기 아이콘을 클릭하는 입력을 수행할 수 있으며, 이에 기초하여 인터랙티브 콘텐츠 제공 서버(300)는 창작 사고시 작용하는 뇌가 점멸하는 인터랙티브 콘텐츠 또는 논리 사고시 작용하는 뇌가 점멸하는 인터랙티브 콘텐츠를 사용자 단말(200)로 제공할 수 있다.In addition, in the second type of interactive content, changes in the brain according to human stimulation may be implemented in augmented reality. For example, when a user makes a touch gesture of touching an arm of the human body model 120, the interactive content providing server 300 transmits a second type of interactive content including flashing of the parietal lobe in response to a tactile sense. ) Can be provided. As another example, when a user makes a touch gesture of turning an arm of a human body model, a touch gesture of turning an arm is detected by an acceleration sensor provided in the arm, and the interactive content providing server 300 responds to the movement of the arm. The second type of interactive content including flashing may be provided to the user terminal 200. In addition, the second type of interactive content may include a thinking icon for each of creative thinking such as picture music and logical thinking such as calculation and memorization. The user can perform an input by clicking the icon through the user input marker, and based on this, the interactive content providing server 300 is interactive content in which the brain acting in creative thinking flashes or the brain acting in logical thinking flashes. Content can be provided to the user terminal 200.

도 7은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 캐릭터 모형의 예를 도시한 도면이다.7 is a diagram illustrating an example of a character model of an interactive content providing system according to an embodiment of the present application.

도 7을 참조하면, 제3유형 인터랙티브 모형은 캐릭터 모형(130)으로 구비될 수 있다. 캐릭터 모형(130)은 부위 별로 구비되는 압전 센서, 가속도 센서 및 적외선 센서를 포함할 수 있다. 예시적으로, 상기 센서는 머리(132), 팔, 다리 등 신체 부위의 위치에 대응하여 인체 모형(130) 내부에 구비될 수 있다. 또한 캐릭터 모형(130)은 팬서비스 모션에 대한 연예 콘텐츠와 연계된 제3유형 인터랙티브 콘텐츠를 로딩하기 위한 식별자(131)를 포함할 수 있다. 전술한 바와 같이, 스캔부(210)는 캐릭터 모형(130)의 식별자(131)를 스캔하여 콘텐츠 요청 정보를 생성하고, 통신부(220)는 콘텐츠 요청 정보를 인터랙티브 콘텐츠 제공 서버(300)로 전송하여 인터랙티브 콘텐츠 제공 서버(300)로부터 팬서비스 모션에 대한 연예 콘텐츠와 연계된 제3유형 인터랙티브 콘텐츠를 수신할 수 있다. Referring to FIG. 7, the third type interactive model may be provided as a character model 130. The character model 130 may include a piezoelectric sensor, an acceleration sensor, and an infrared sensor provided for each part. For example, the sensor may be provided inside the human body model 130 corresponding to the position of body parts such as the head 132, arms, and legs. In addition, the character model 130 may include an identifier 131 for loading the third type interactive content associated with entertainment content for fan service motion. As described above, the scanning unit 210 generates content request information by scanning the identifier 131 of the character model 130, and the communication unit 220 transmits the content request information to the interactive content providing server 300 The interactive content providing server 300 may receive a third type of interactive content associated with entertainment content for a fan service motion.

도 8은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 제3유형 인터랙티브 콘텐츠를 출력한 화면의 예를 도시한 도면이다.8 is a diagram illustrating an example of a screen outputting a third type of interactive content of the interactive content providing system according to an embodiment of the present application.

도 8에 도시된 제3유형 인터랙티브 콘텐츠는 연예인의 팬서비스 모션이 증강현실로 구현될 수 있다. 팬서비스 모션은 캐릭터 모형(130)에 대한 사용자의 터치에 대응하여 다양한 멘트, 행동, 표정으로 반응하는 모션일 수 있다. 제3인터랙티브 모형 즉 캐릭터 모형(130)은 각 부위를 터치한 터치 제스처, 캐릭터 모형(130)의 각 부위를 이동시키는 이동 제스처 및 캐릭터 모형의 각 부위에 접근한 접근 제스처 중 적어도 어느 하나에 기초하여 제3터치 감지 정보를 생성할 수 있다. In the third type of interactive content illustrated in FIG. 8, a fan service motion of an entertainer may be implemented in augmented reality. The fan service motion may be a motion that responds with various comments, actions, and facial expressions in response to a user's touch on the character model 130. The third interactive model, that is, the character model 130, is based on at least one of a touch gesture for touching each part, a moving gesture for moving each part of the character model 130, and an approach gesture approaching each part of the character model. Third touch detection information may be generated.

예시적으로, 사용자가 캐릭터 모형(130)의 머리(132)를 터치하면, 머리(132) 부위에 구비된 압전 센서를 통해 터치 제스처가 감지될 수 있다. 또한, 캐릭터 모형(130)은 터치 제스처에 기초하여 제3터치 감지 정보를 생성할 수 있다. 터치 제스처는 캐릭터 모형(130)의 머리를 만지는 제스처를 의미한다. 통신부(210)는 제3유형 인터랙티브 모형으로부터 제3터치 감지 정보를 수신하여 인터랙티브 콘텐츠 서버(300)로 전송할 수 있다. 인터랙티브 콘텐츠 서버(300)는 머리의 터치에 반응하는 팬서비스 모션을 포함하는 제3유형 인터랙티브 콘텐츠(변화된 인터랙티브 콘텐츠)를 사용자 단말(200)로 제공할 수 있고, 출력부(230)는 터치 제스처, 이동 제스처 및 접근 제스처 중 적어도 어느 하나에 의한 연예인의 팬서비스 모션을 증강현실로 출력할 수 있으며, 상기 변화된 인터랙티브 콘텐츠를 실시간으로 출력할 수 있다. 이처럼 캐릭터 모형과 연계하여 각 부위의 터치, 접근 등의 제스처에 기초하여 팬 서비스를 제공하는 인터랙티브 콘텐츠를 통해 차별화되고 보다 실감성 있는 캐릭터 상품으로 활용될 수 있다.For example, when the user touches the head 132 of the character model 130, the touch gesture may be detected through a piezoelectric sensor provided in the head 132 portion. In addition, the character model 130 may generate third touch detection information based on a touch gesture. The touch gesture refers to a gesture of touching the head of the character model 130. The communication unit 210 may receive third touch detection information from the third type interactive model and transmit it to the interactive content server 300. The interactive content server 300 may provide a third type of interactive content (changed interactive content) including a fan service motion in response to a touch of the head to the user terminal 200, and the output unit 230 may provide a touch gesture, A fan service motion of an entertainer by at least one of a movement gesture and an approach gesture may be output as augmented reality, and the changed interactive content may be output in real time. As such, it can be used as a differentiated and more realistic character product through interactive contents that provide fan services based on gestures such as touch and approach of each part in connection with the character model.

본원의 일 실시예에 따르면, 인터랙티브 콘텐츠 서버(300)는 제1유형 내지 제3유형 인터랙티브 콘텐츠 중 적어도 2개를 융합하여 서로 다른 유형의 인터랙티브 콘텐츠가 연계된 인터랙티브 콘텐츠를 제공할 제공할 수 있다. 예시적으로, 사용자 단말(200)을 통해 제1유형 인터랙티브 모형의 식별자가 스캔되면, 제1유형 인터랙티브 콘텐츠가 출력될 수 있다. 즉 어떠한 관광 명소에 대한 관광 콘텐츠가 사용자 단말(200)을 통해 출력될 수 있다. 이때, 사용자 단말(200)을 통해 제3유형 인터랙티브 모형의 식별자를 스캔하면, 제3유형 인터랙티브 콘텐츠와 제1유형 인터랙티브 콘텐츠가 융합되어 상기 관광 명소를 소개하는 증강현실로 구현된 연예인이 출력될 수 있다. 예시적으로, 국립공원과 같이 다수의 문화재, 유적지 등이 존재하는 관광 명소의 경우, 인터랙티브 콘텐츠 상에 증강현실로 구현된 연예인이 사용자가 문화재를 방문할 때마다 각 문화재의 구체적인 정보를 설명하는 인터랙티브 콘텐츠가 제공될 수 있다.According to an embodiment of the present disclosure, the interactive content server 300 may provide interactive content in which different types of interactive content are linked by fusing at least two of the first type to the third type interactive content. For example, when the identifier of the first type interactive model is scanned through the user terminal 200, the first type interactive content may be output. That is, tourism content for a certain tourist attraction may be output through the user terminal 200. At this time, when the identifier of the third type interactive model is scanned through the user terminal 200, the third type interactive content and the first type interactive content are fused to display a celebrity implemented in augmented reality introducing the tourist attraction. have. For example, in the case of a tourist attraction, such as a national park, where a number of cultural assets and historical sites exist, an entertainer implemented as augmented reality on interactive content is an interactive explaining specific information of each cultural asset each time a user visits the cultural asset. Content can be provided.

다른 예로, 제2유형 인터랙티브 콘텐츠와 제1유형 인터랙티브 콘텐츠의 융합의 경우, 박물관, 과학 전시회 등의 관광 명소를 방문한 사용자의 사용자 단말(200)을 통해 해당 관광명소와 연계된 제1유형 인터랙티브 모형의 식별자가 스캔되고, 제2유형 인터랙티브 모형의 식별자가 스캔되면, 관광명소의 각 스팟에서 교육(인체 작용 뿐만 아니라, 해당 관광명소와 관련된 교육적인 콘텐츠가 포함될 수 있다.)와 관련된 인터랙티브 콘텐츠가 출력될 수 있다.As another example, in the case of fusion of type 2 interactive content and type 1 interactive content, the user terminal 200 of a user who visits a tourist attraction such as a museum or a science exhibition can be used to create a type 1 interactive model linked to the tourist attraction. When the identifier is scanned and the identifier of the second type interactive model is scanned, interactive content related to education (not only human body action, but also educational content related to the tourist attraction may be included) is output at each spot of the tourist attraction. I can.

또한, 인터랙티브 콘텐츠 제공 서버(300)는 관광명소의 지도 또는 디지털 식별자를 스캔하고, 제2유형 인터랙티브 모형 또는 제3인터랙티브 모형의 식별자를 스캔한 사용자 단말(300)로 상기와 같이 융합된 인터랙티브 콘텐츠를 제공할 수 있다. 예를 들어, 사용자 단말(200)을 통해 관광명소의 지도 또는 해당 관광명소와 연계되어 온라인상에 게시된 디지털 식별자(예를 들어 QR 코드)가 스캔되고, 제2유형 인터랙티브 모형의 식별자가 스캔되면, 인터랙티브 콘텐츠 제공 서버(300)는 전술한 바와 같이, 해당 관광 명소의 구체적인 정보를 설명하는 연예인이 출력되는 인터랙티브 콘텐츠를 사용자 단말(200)로 제공할 수 있다.In addition, the interactive content providing server 300 scans a map or digital identifier of a tourist attraction, and scans the identifier of the second type interactive model or the third interactive model, and sends the fused interactive content as described above to the user terminal 300. Can provide. For example, when a map of a tourist attraction or a digital identifier (eg, a QR code) posted online in connection with the tourist attraction is scanned through the user terminal 200, and the identifier of the second type interactive model is scanned, , As described above, the interactive content providing server 300 may provide the user terminal 200 with interactive content outputting entertainers describing specific information of a corresponding tourist attraction.

본원의 일 실시예에 따르면, 인터랙티브 콘텐츠 제공 서버(300)는 인터랙티브 모형의 부위별 터치 감지 정보를 입력으로 하는 비지도 학습 기반의 패턴 산출 모델을 구축하여, 콘텐츠 추천 정보를 산출할 수 있다. 비지도 학습이란 학습용 데이터를 구축하는 것이 아닌 데이터 자체를 분석하거나 군집하면서 학습하는 알고리즘을 의미한다. 인터랙티브 콘텐츠 제공 서버(300)는 군집 알고리즘에 기초하여 터치 감지 정보에 기초한 터치 패턴의 산출 및 터치 패턴의 군집화를 수행할 수 있다.According to an embodiment of the present application, the interactive content providing server 300 may calculate content recommendation information by constructing a pattern calculation model based on unsupervised learning that inputs touch sensing information for each part of the interactive model. Unsupervised learning refers to an algorithm that learns while analyzing or clustering the data itself, not building data for learning. The interactive content providing server 300 may calculate a touch pattern based on touch sensing information and cluster the touch pattern based on a clustering algorithm.

예시적으로 상기 비지도 학습을 위한 군집 알고리즘에는 로지스틱 회귀 알고리즘, 랜덤 포레스트 알고리즘, SVM(Support Vector Machine)알고리즘, 의사결정 알고리즘 및 군집 알고리즘이 이용될 수 있다. 또한, 패턴 산출부(120)는 상술한 알고리즘 외에도 Extra Tree알고리즘, XG Boost알고리즘 및 Deep Learning 알고리즘, K-means 클러스터링 알고리즘, SOM(Self-Organizing-Maps) 알고리즘 EM & Canopy 알고리즘과 같은 군집 알고리즘을 통해 비지도 학습을 수행할 수 있다. Random Forest알고리즘은 수많은 Decision Tree들이 Forest를 구성하여 각각의 예측결과를 하나의 결과변수로 평균화 하는 알고리즘이고, SVM알고리즘은 데이터의 분포공간에서 가장 큰 폭의 경계를 구분하여 데이터가 속하는 분류를 판단하는 비확률적 알고리즘이다. Extra Tree알고리즘은 Random forest와 비슷하나 속도가 Random forest에 비해 빠른 알고리즘이며, XGBoost알고리즘은 Random Forest의 Tree는 독립적이라면 XGBoost의 Tree의 결과를 다음 트리에 적용하는 boost방식의 알고리즘이다. Deep Learning알고리즘은 다층구조의 Neural Network을 기반으로 변수의 패턴이 결과에 미치는 영향을 가중치로 조절하며 학습하는 알고리즘이다. 또한, K-means 클러스터링 알고리즘은 전통적인 분류기법으로 대상집단을 거리의 평균값(유사도)을 기준으로 K개의 군집으로 반복 세분화 하는 기법이고, SOM알고리즘은 인공신경망을 기반으로 훈련집합의 입력 패턴을 가중치로 학습하여 군집화하는 기법이다. 또한 EM & Canopy 알고리즘은 주어진 초기값으로 가능성이 최대인 것부터 반복 과정을 통해 파라미터 값을 갱신하여 군집화 하는 기법을 의미한다.For example, a logistic regression algorithm, a random forest algorithm, a support vector machine (SVM) algorithm, a decision making algorithm, and a clustering algorithm may be used as the clustering algorithm for unsupervised learning. In addition to the above-described algorithm, the pattern calculation unit 120 also uses clustering algorithms such as Extra Tree algorithm, XG Boost algorithm and Deep Learning algorithm, K-means clustering algorithm, and SOM (Self-Organizing-Maps) algorithm EM & Canopy algorithm. Unsupervised learning can be performed. The Random Forest algorithm is an algorithm that averages each prediction result into one outcome variable by composing a forest of numerous Decision Trees, and the SVM algorithm determines the classification to which the data belongs by dividing the largest boundary in the data distribution space. It is a non-probabilistic algorithm. The Extra Tree algorithm is similar to the Random Forest, but the speed is faster than the Random Forest, and the XGBoost algorithm is a boost method that applies the result of the XGBoost Tree to the next tree if the Tree of the Random Forest is independent. Deep Learning Algorithm is an algorithm that learns by controlling the influence of the pattern of variables on the result based on a multi-layered Neural Network with weights. In addition, the K-means clustering algorithm is a traditional classification technique that repetitively subdivides the target group into K clusters based on the average value (similarity) of the distance, and the SOM algorithm uses the input pattern of the training set as a weight. It is a technique of learning and clustering. In addition, the EM & Canopy algorithm refers to a method of clustering by updating parameter values through an iterative process starting from the one with the maximum possibility with a given initial value.

인터랙티브 콘텐츠 제공 서버(300)는 사용자 단말(200)로부터 전송되는 각 인터랙티브 모형의 제1터치 감지 정보, 제2터치 감지 정보 및 제3터치 감지 정보를 기록하는 데이터베이스를 포함할 수 있다. 인터랙티브 콘텐츠 제공 서버(300)는 기저장된 터치 감지 정보를 상기 군집 알고리즘의 입력으로 활용할 수 있다. 인터랙티브 콘텐츠 제공 서버(300)는 사용자들이 인터랙티브 모형을 터치한 이력에 대한 정보(터치 감지 정보를)입력으로 하는 비지도 학습에 기초하여 터치 패턴을 검출할 수 있다. 또한, 사용자들이 주로 입력하는 부위의 터치는 군집화될 수 있다. 터치 패턴에 의한 군집의 규모가 클수록 사용자들이 주로 터치하는 부위, 콘텐츠를 제공 받고 싶은 부위일 수 있다. 예시적으로, 이미지 카드의 경우, 특정 관광 명소의 터치에 의한 군집이 큰 경우, 해당 관광 명소의 관심도가 높다고 할 수 있다. 따라서, 인터랙티브 콘텐츠 제공 서버(300)는 터치 패턴의 군집이 미리 설정된 크기 이상인 경우, 해당 부위에 신규 인터랙티브 콘텐츠 생성을 고려하는 신규 콘텐츠 추천 정보를 생성하여 인터랙티브 콘텐츠 제공 서버(300)의 관리자에게 제공할 수 있다. 신규 콘텐츠 추천 정보를 제공받은 인터랙티브 콘텐츠 제공 서버(300)의 관리자는 신규 인터랙티브 콘텐츠의 생성을 고려할 수 있으며, 이를 통해 보다 풍부한 인터랙티브 콘텐츠를 사용자에게 제공할 수 있다.The interactive content providing server 300 may include a database for recording first touch detection information, second touch detection information, and third touch detection information of each interactive model transmitted from the user terminal 200. The interactive content providing server 300 may utilize pre-stored touch sensing information as an input of the clustering algorithm. The interactive content providing server 300 may detect a touch pattern based on unsupervised learning in which information on a history of users touching the interactive model (touch detection information) is input. In addition, touches of areas mainly input by users may be clustered. As the size of the cluster according to the touch pattern increases, it may be a part that users mainly touch and a part that wants to receive content. For example, in the case of an image card, when the cluster by the touch of a specific tourist attraction is large, the interest of the tourist attraction may be high. Therefore, when the group of touch patterns is larger than a preset size, the interactive content providing server 300 generates new content recommendation information that considers the creation of new interactive content in the corresponding portion and provides it to the administrator of the interactive content providing server 300. I can. The administrator of the interactive content providing server 300, who has been provided with the new content recommendation information, may consider creating new interactive content, thereby providing richer interactive content to the user.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present application is for illustrative purposes only, and those of ordinary skill in the art to which the present application pertains will be able to understand that it is possible to easily transform it into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present application.

100: 인터랙티브 모형
110: 이미지 카드
120: 인체 모형
130: 캐릭터 모형
200: 사용자 단말
210: 스캔부
220: 통신부
230: 출력부
300: 인터랙티브 콘텐츠 제공 서버
400: 가상현실용 카드보드
100: interactive model
110: image card
120: manikin
130: character model
200: user terminal
210: scan unit
220: communication department
230: output
300: interactive content providing server
400: cardboard for virtual reality

Claims (7)

가상현실 및 증강현실 기반 인터랙티브 콘텐츠 제공 시스템에 있어서,
가상현실 및 증강현실로 구현되는 인터랙티브 콘텐츠를 로딩하기 위한 식별자 및 사용자의 제스처를 감지하는 센서를 포함하는 인터랙티브 모형;
상기 식별자를 스캔하여 상기 인터랙티브 모형과 연계된 인터랙티브 콘텐츠에 대한 콘텐츠 요청 정보를 인터랙티브 콘텐츠 제공 서버로 전송하고, 상기 인터랙티브 콘텐츠 제공 서버로부터 상기 인터랙티브 콘텐츠를 수신하여 출력하는, 사용자 단말;
수신한 상기 콘텐츠 요청 정보에 기초하여 상기 인터랙티브 모형과 연계된 상기 인터랙티브 콘텐츠를 상기 사용자 단말로 전송하는 인터랙티브 콘텐츠 제공 서버; 및
상기 사용자 단말이 장착되고, 상기 인터랙티브 콘텐츠가 디스플레이 되도록 가상현실 환경을 제공하는 가상현실용 카드보드,
를 포함하고,
상기 인터랙티브 콘텐츠는,
서로 다른 인터랙티브 모형과 연계된 복수의 유형을 가지되,
상기 유형은 관광 명소에 대한 관광 콘텐츠와 연계된 제1유형, 인체 장기 구조 및 작용에 대한 교육 콘텐츠와 연계된 제2유형 및 연예인의 팬서비스 모션에 대한 연예 콘텐츠와 연계된 제3유형을 포함하고,
제1유형 인터랙티브 모형은 이미지 카드로 구비되고,
상기 이미지 카드는 관광 지역의 3차원 이미지이고, 상기 3차원 이미지는 관광 지역에 포함된 복수의 관광 명소에 대응하는 식별자를 포함하고, 사용자의 터치를 감지하는 압전 센서를 포함하고,
제2유형 인터랙티브 모형은 인체 모형으로 구비되고, 제3유형 인터랙티브 모형은 연예인의 캐릭터 모형으로 구비되되,
상기 인체 모형 및 캐릭터 모형은 부위별로 구비되는 압전 센서, 가속도 센서 및 적외선 센서를 포함하는 것인, 인터랙티브 콘텐츠 제공 시스템.
In a virtual reality and augmented reality-based interactive content providing system,
An interactive model including an identifier for loading interactive content implemented in virtual reality and augmented reality and a sensor for detecting a user's gesture;
A user terminal, which scans the identifier and transmits content request information for interactive content associated with the interactive model to an interactive content providing server, and receiving and outputting the interactive content from the interactive content providing server;
An interactive content providing server that transmits the interactive content associated with the interactive model to the user terminal based on the received content request information; And
A cardboard board for virtual reality that is equipped with the user terminal and provides a virtual reality environment so that the interactive content is displayed,
Including,
The interactive content,
It has multiple types linked to different interactive models,
The above types include the first type linked to tourism content for tourist attractions, the second type linked to educational content on the structure and action of human organs, and the third type linked to entertainment content for the fan service motion of entertainers. ,
The first type interactive model is equipped with an image card,
The image card is a three-dimensional image of a tourist area, and the three-dimensional image includes an identifier corresponding to a plurality of tourist attractions included in the tourist area, and includes a piezoelectric sensor for sensing a user's touch,
The second type interactive model is provided as a human body model, and the third type interactive model is provided as a celebrity character model,
The human body model and the character model includes a piezoelectric sensor, an acceleration sensor, and an infrared sensor provided for each part.
삭제delete 삭제delete 제1항에 있어서,
상기 사용자 단말은
상기 인터랙티브 모형의 상기 식별자를 인식하여 상기 콘텐츠 요청 정보를 생성하는 스캔부;
상기 콘텐츠 요청 정보를 상기 인터랙티브 콘텐츠 제공 서버로 전송하고, 상기 콘텐츠 요청 정보에 대응하는 인터랙티브 콘텐츠를 수신하는 통신부;
가상현실 및 증강현실 기반의 상기 인터랙티브 콘텐츠를 출력하는 출력부,
를 포함하되,
상기 통신부는 상기 인터랙티브 모형으로부터 터치 감지 정보를 수신하여 상기 인터랙티브 콘텐츠 제공 서버로 전송하고, 상기 터치 감지 정보에 따라 변화된 인터랙티브 콘텐츠를 실시간으로 수신하는 것인, 인터랙티브 콘텐츠 제공 시스템.
The method of claim 1,
The user terminal
A scanning unit that generates the content request information by recognizing the identifier of the interactive model;
A communication unit for transmitting the content request information to the interactive content providing server and receiving interactive content corresponding to the content request information;
An output unit that outputs the interactive content based on virtual reality and augmented reality,
Including,
The communication unit receives touch sensing information from the interactive model, transmits it to the interactive content providing server, and receives the interactive content changed according to the touch sensing information in real time.
제4항에 있어서,
상기 통신부는 상기 제1유형 인터랙티브 모형으로부터 상기 사용자의 상기 3차원 이미지 내의 관광 명소를 터치한 터치 제스처에 기초하여 생성된 제1터치 감지 정보를 수신하여 상기 인터랙티브 콘텐츠 제공 서버로 전송하고,
상기 제1터치 감지 정보에 대응하는 상기 관광 명소의 세부 정보를 포함하는 인터랙티브 콘텐츠를 상기 인터랙티브 콘텐츠 제공 서버로부터 수신하고,
상기 출력부는 상기 관광 명소의 세부 정보를 증강현실로 출력하는 것인, 인터랙티브 콘텐츠 제공 시스템.
The method of claim 4,
The communication unit receives first touch detection information generated based on a touch gesture of touching a tourist attraction in the 3D image of the user from the first type interactive model and transmits it to the interactive content providing server,
Receive interactive content including detailed information of the tourist attraction corresponding to the first touch detection information from the interactive content providing server,
The output unit to output detailed information of the tourist attraction in augmented reality, interactive content providing system.
제4항에 있어서,
상기 통신부는 상기 제2유형 인터랙티브 모형으로부터 상기 인체 모형의 각 부위를 터치한 터치 제스처, 상기 인체 모형의 각 부위를 이동시키는 이동 제스처 및 상기 인체 모형의 각 부위에 접근한 접근 제스처 중 적어도 어느 하나에 기초하여 생성된 제2터치 감지 정보를 수신하여 상기 인터랙티브 콘텐츠 제공 서버로 전송하고,
상기 제2터치 감지 정보에 대응하는 인체의 작용을 포함하는 인터랙티브 콘텐츠를 수신하고,
상기 출력부는 상기 터치 제스처, 이동 제스처 및 접근 제스처 중 적어도 어느 하나에 의한 인체의 작용을 증강현실로 출력하는 것인, 인터랙티브 콘텐츠 제공 시스템.
The method of claim 4,
The communication unit responds to at least one of a touch gesture for touching each part of the human body model from the second type interactive model, a moving gesture for moving each part of the human body model, and an approach gesture approaching each part of the human body model. Receives the second touch detection information generated based on and transmits it to the interactive content providing server,
Receiving interactive content including an action of a human body corresponding to the second touch detection information,
The output unit outputs an action of a human body by at least one of the touch gesture, the movement gesture, and the approach gesture as augmented reality.
제4항에 있어서,
상기 통신부는 상기 제3유형 인터랙티브 모형으로부터 상기 캐릭터 모형의 각 부위를 터치한 터치 제스처, 상기 캐릭터 모형의 각 부위를 이동시키는 이동 제스처 및 상기 캐릭터 모형의 각 부위에 접근한 접근 제스처 중 적어도 어느 하나에 기초하여 생성된 제3터치 감지 정보를 수신하여 상기 인터랙티브 콘텐츠 제공 서버로 전송하고,
상기 제3터치 감지 정보에 대응하는 인체의 작용을 포함하는 인터랙티브 콘텐츠를 수신하고,
상기 출력부는 상기 터치 제스처, 이동 제스처 및 접근 제스처 중 적어도 어느 하나에 의한 연예인의 팬서비스 모션을 증강현실로 출력하는 것인, 인터랙티브 콘텐츠 제공 시스템.
The method of claim 4,
The communication unit responds to at least one of a touch gesture by touching each part of the character model from the third type interactive model, a moving gesture to move each part of the character model, and an approach gesture approaching each part of the character model. Receives the generated third touch detection information and transmits it to the interactive content providing server,
Receiving interactive content including an action of a human body corresponding to the third touch detection information,
The output unit outputs a fan service motion of a celebrity by at least one of the touch gesture, the movement gesture, and the approach gesture as augmented reality.
KR1020190094233A 2019-08-02 2019-08-02 System for providing interactive content KR102192540B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190094233A KR102192540B1 (en) 2019-08-02 2019-08-02 System for providing interactive content
PCT/KR2019/009711 WO2021025188A1 (en) 2019-08-02 2019-08-05 Interactive content providing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190094233A KR102192540B1 (en) 2019-08-02 2019-08-02 System for providing interactive content

Publications (1)

Publication Number Publication Date
KR102192540B1 true KR102192540B1 (en) 2020-12-17

Family

ID=74089806

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190094233A KR102192540B1 (en) 2019-08-02 2019-08-02 System for providing interactive content

Country Status (2)

Country Link
KR (1) KR102192540B1 (en)
WO (1) WO2021025188A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210117025A1 (en) * 2019-10-18 2021-04-22 Acer Incorporated Electronic apparatus and object information recognition method by using touch data thereof
KR20230071944A (en) 2021-11-17 2023-05-24 주식회사 제네시스랩 Method, system and non-transitory computer-readable recording medium for providing interactive contents
KR20230071941A (en) 2021-11-17 2023-05-24 주식회사 제네시스랩 Method, system and non-transitory computer-readable recording medium for providing interactive contents
KR20230071943A (en) 2021-11-17 2023-05-24 주식회사 제네시스랩 Method, system and non-transitory computer-readable recording medium for providing interactive contents

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115294845A (en) * 2022-08-09 2022-11-04 苏州旭智设计营造有限公司 Polymorphic interactive display system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130099317A (en) * 2012-02-29 2013-09-06 한국전자통신연구원 System for implementing interactive augmented reality and method for the same
KR20140129937A (en) * 2013-04-30 2014-11-07 인텔렉추얼디스커버리 주식회사 A Head Mounted Display and A Digital Device and A Method for Controlling thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101082285B1 (en) * 2010-01-29 2011-11-09 주식회사 팬택 Terminal and method for providing augmented reality
KR101413794B1 (en) * 2013-10-15 2014-07-01 이지유 Edutainment contents mobile terminal using augmented reality and method for controlling thereof
KR101582225B1 (en) * 2014-04-30 2016-01-04 (주)제이앤씨마케팅커뮤니케이션 System and method for providing interactive augmented reality service

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130099317A (en) * 2012-02-29 2013-09-06 한국전자통신연구원 System for implementing interactive augmented reality and method for the same
KR20140129937A (en) * 2013-04-30 2014-11-07 인텔렉추얼디스커버리 주식회사 A Head Mounted Display and A Digital Device and A Method for Controlling thereof

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210117025A1 (en) * 2019-10-18 2021-04-22 Acer Incorporated Electronic apparatus and object information recognition method by using touch data thereof
US11494045B2 (en) * 2019-10-18 2022-11-08 Acer Incorporated Electronic apparatus and object information recognition method by using touch data thereof
KR20230071944A (en) 2021-11-17 2023-05-24 주식회사 제네시스랩 Method, system and non-transitory computer-readable recording medium for providing interactive contents
KR20230071941A (en) 2021-11-17 2023-05-24 주식회사 제네시스랩 Method, system and non-transitory computer-readable recording medium for providing interactive contents
KR20230071943A (en) 2021-11-17 2023-05-24 주식회사 제네시스랩 Method, system and non-transitory computer-readable recording medium for providing interactive contents
WO2023090870A1 (en) * 2021-11-17 2023-05-25 주식회사 제네시스랩 Method and system for providing interactive content, and non-transitory computer-readable recording medium
WO2023090869A1 (en) * 2021-11-17 2023-05-25 주식회사 제네시스랩 Method and system for providing interactive content, and non-transitory computer-readable recording medium

Also Published As

Publication number Publication date
WO2021025188A1 (en) 2021-02-11

Similar Documents

Publication Publication Date Title
KR102192540B1 (en) System for providing interactive content
Lee et al. All one needs to know about metaverse: A complete survey on technological singularity, virtual ecosystem, and research agenda
US11790589B1 (en) System and method for creating avatars or animated sequences using human body features extracted from a still image
US20230076281A1 (en) Generating collectible items based on location information
US20240005808A1 (en) Individual viewing in a shared space
WO2020160168A1 (en) Systems and methods for augmented reality with precise tracking
CN102918518B (en) Individual characteristics profile data based on cloud
CN109564620A (en) Augmented reality authentication
CN109863510A (en) Redundancy tracking system
US20220157025A1 (en) Real-time motion transfer for prosthetic limbs
EP4155867A1 (en) A system for importing user interface devices into virtual/augmented reality
WO2022093939A1 (en) Side-by-side character animation from realtime 3d body motion capture
CN110908504B (en) Augmented reality museum collaborative interaction method and system
US20220404949A1 (en) Systems and methods for augmented reality with precise tracking
Cronin et al. The The Infinite Retina: Spatial Computing, Augmented Reality, and how a collision of new technologies are bringing about the next tech revolution
Shinde et al. Internet of things integrated augmented reality
Sami et al. The metaverse: Survey, trends, novel pipeline ecosystem & future directions
KR102390615B1 (en) Method and system for generating and sharing realistic 3d character model
Hsu et al. A multimedia presentation system using a 3D gesture interface in museums
De Paolis et al. Augmented Reality, Virtual Reality, and Computer Graphics: 6th International Conference, AVR 2019, Santa Maria al Bagno, Italy, June 24–27, 2019, Proceedings, Part II
Shinde et al. Augmented reality and IoT
CN116235208A (en) Method, system and non-transitory computer readable recording medium for producing animation
Soliman et al. Artificial intelligence powered Metaverse: analysis, challenges and future perspectives
US20240037832A1 (en) Metaverse system
KR102602589B1 (en) Method and device for managing metaverse pop-up store based on information related to offline pop-up store using neural network

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant