KR102192540B1 - System for providing interactive content - Google Patents
System for providing interactive content Download PDFInfo
- Publication number
- KR102192540B1 KR102192540B1 KR1020190094233A KR20190094233A KR102192540B1 KR 102192540 B1 KR102192540 B1 KR 102192540B1 KR 1020190094233 A KR1020190094233 A KR 1020190094233A KR 20190094233 A KR20190094233 A KR 20190094233A KR 102192540 B1 KR102192540 B1 KR 102192540B1
- Authority
- KR
- South Korea
- Prior art keywords
- interactive
- interactive content
- model
- content
- gesture
- Prior art date
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 266
- 230000003190 augmentative effect Effects 0.000 claims abstract description 33
- 230000033001 locomotion Effects 0.000 claims description 26
- 238000001514 detection method Methods 0.000 claims description 24
- 238000004891 communication Methods 0.000 claims description 23
- 238000013459 approach Methods 0.000 claims description 16
- 230000009471 action Effects 0.000 claims description 14
- 238000000034 method Methods 0.000 claims description 9
- 210000000056 organ Anatomy 0.000 claims description 6
- 230000001133 acceleration Effects 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 16
- 239000003550 marker Substances 0.000 description 6
- 238000007637 random forest analysis Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003064 k means clustering Methods 0.000 description 2
- 230000004308 accommodation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 230000001079 digestive effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000001152 parietal lobe Anatomy 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8545—Content authoring for generating interactive applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/14—Travel agencies
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/858—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Computer Security & Cryptography (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본원은 인터랙티브 콘텐츠 제공 시스템에 관한 것이다.The present application relates to an interactive content providing system.
관광 인구가 증가함에 따라, 관광객에게 제공되는 콘텐츠 또한 증가하고 있다. 종래의 관광 정보 콘텐츠로는 관광 명소의 위치, 음식점, 숙박업소 등을 나타내는 관광 지도가 제공된 바 있다. 이러한 관광 지도는 간략한 정보만을 나타내고 있으므로, 관광객이 지도만으로 목적지까지 찾아가는 것은 다소 제약이 따를 수 있다.As the tourist population increases, the content provided to tourists is also increasing. Conventional tourist information content has been provided with a tourist map indicating the location of tourist attractions, restaurants, and accommodations. Since these tourist maps only show brief information, there may be some restrictions for tourists to go to their destinations with only the map.
한편, 최근에는 가상현실로 관광 명소에 대한 정보를 제공하는 콘텐츠들이 개발되고 있다. 이러한 가상현실 콘텐츠는 관광 명소의 주변 또는, 관광 명소로 진입하는 입구에 설치된 정보 안내 단말기를 통해 제공되고 있다. 관광객들은 관광 명소에 진입하기 전 정보 안내 단말기를 통해 관광 명소에 대한 정보를 가상현실 콘텐츠를 통해 제공받을 수 있으나, 고정된 정보 안내 단말기의 특성상 접근성이 용이하지 않은 문제점이 있다.On the other hand, recently, contents providing information on tourist attractions in virtual reality have been developed. Such virtual reality contents are provided through an information guide terminal installed around a tourist attraction or at an entrance to a tourist attraction. Tourists can receive information on tourist attractions through virtual reality contents through an information guide terminal before entering a tourist attraction, but there is a problem that accessibility is not easy due to the nature of a fixed information guide terminal.
또한, 교육, 학습뿐만 아니라, 게임 등의 콘텐츠 역시 가상현실 및 증강현실 기반의 콘텐츠로 제공되고 있으나, 사용자와 소통하거나, 사용자의 행동, 제스처 등에 따라 능동적으로 대응하는 콘텐츠 개발 기술과 관련하여 그 개발 수준이 마땅치 않은 실정이다.In addition, not only education and learning, but also contents such as games are provided as contents based on virtual reality and augmented reality, but the development is related to contents development technology that communicates with users or actively responds to user actions and gestures. The level is not good enough.
본원의 배경이 되는 기술은 한국공개특허공보 제 2016-0082154 호에 개시되어 있다.The technology behind the present application is disclosed in Korean Patent Application Publication No. 2016-0082154.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 사용자와 상호작용이 가능한 인터랙티브 모형을 통해 가상현실 및 증강현실 기반의 다양한 콘텐츠를 제공할 수 있는 인터랙티브 콘텐츠 제공 시스템을 제공하는 것을 목적으로 한다.The present application is to solve the problems of the prior art described above, and an object of the present invention is to provide an interactive content providing system capable of providing various contents based on virtual reality and augmented reality through an interactive model capable of interacting with a user.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 관광 정보, 교육 및 학습, 등 인터랙티브 모형에 따라 다양한 유형의 인터랙티브 콘텐츠를 제공할 수 있는 인터랙티브 콘텐츠 제공 시스템을 제공하는 것을 목적으로 한다.The present application is to solve the problems of the prior art described above, and an object of the present invention is to provide an interactive content providing system capable of providing various types of interactive content according to interactive models such as tourism information, education and learning, and the like.
다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들도 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problems to be achieved by the embodiments of the present application are not limited to the technical problems as described above, and other technical problems may exist.
상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 가상현실 및 증강현실 기반 인터랙티브 콘텐츠 제공 시스템은, 가상현실 및 증강현실로 구현되는 인터랙티브 콘텐츠를 로딩하기 위한 식별자 및 사용자의 제스처를 감지하는 센서를 포함하는 인터랙티브 모형, 상기 식별자를 스캔하여 상기 인터랙티브 모형과 연계된 인터랙티브 콘텐츠에 대한 콘텐츠 요청 정보를 인터랙티브 콘텐츠 제공 서버로 전송하고, 상기 인터랙티브 콘텐츠 제공 서버로부터 상기 인터랙티브 콘텐츠를 수신하여 출력하는, 사용자 단말, 수신한 상기 콘텐츠 요청 정보에 기초하여 상기 인터랙티브 모형과 연계된 상기 인터랙티브 콘텐츠를 상기 사용자 단말로 전송하는 인터랙티브 콘텐츠 제공 서버 및 상기 사용자 단말이 장착되고, 상기 인터랙티브 콘텐츠가 디스플레이 되도록 가상현실 환경을 제공하는 가상현실용 카드보드를 포함할 수 있다.As a technical means for achieving the above technical problem, the virtual reality and augmented reality-based interactive content providing system according to an embodiment of the present application includes an identifier for loading interactive content implemented in virtual reality and augmented reality, and a user's gesture An interactive model including a sensor that detects, scans the identifier and transmits content request information for interactive content linked to the interactive model to an interactive content providing server, and receives and outputs the interactive content from the interactive content providing server A user terminal, an interactive content providing server that transmits the interactive content linked to the interactive model to the user terminal based on the received content request information, and the user terminal is mounted, and the interactive content is displayed. It may include a cardboard for virtual reality providing an environment.
본원의 일 실시예에 따르면, 상기 인터랙티브 콘텐츠는, 서로 다른 인터랙티브 모형과 연계된 복수의 유형을 가지되, 상기 유형은 관광 명소에 대한 관광 콘텐츠와 연계된 제1유형, 인체 장기 구조 및 작용에 대한 교육 콘텐츠와 연계된 제2유형 및 연예인의 팬서비스 모션에 대한 연예 콘텐츠와 연계된 제3유형을 포함할 수 있다.According to an embodiment of the present application, the interactive content has a plurality of types linked with different interactive models, the type being a first type linked to tourism content for a tourist attraction, a human organ structure and action It may include a second type associated with educational content and a third type associated with entertainment content for fan service motions of entertainers.
본원의 일 실시예에 따르면, 제1유형 인터랙티브 모형은 이미지 카드로 구비되고, 상기 이미지 카드는 관광 지역의 3차원 이미지이고, 상기 3차원 이미지는 관광 지역에 포함된 복수의 관광 명소에 대응하는 식별자를 포함하고, 사용자의 터치를 감지하는 압전 센서를 포함하고, 제2유형 인터랙티브 모형은 인체 모형으로 구비되고, 제3유형 인터랙티브 모형은 연예인의 캐릭터 모형으로 구비되되, 상기 인체 모형 및 캐릭터 모형은 부위별로 구비되는 압전 센서, 가속도 센서 및 적외선 센서를 포함할 수 있다.According to an embodiment of the present application, the first type interactive model is provided as an image card, the image card is a three-dimensional image of a tourist area, and the three-dimensional image is an identifier corresponding to a plurality of tourist attractions included in the tourist area. And a piezoelectric sensor for sensing a user's touch, the second type interactive model is provided as a human body model, and the third type interactive model is provided as a character model of an entertainer, and the human body model and the character model are part It may include a piezoelectric sensor, an acceleration sensor, and an infrared sensor provided separately.
본원의 일 실시예에 따르면, 상기 사용자 단말은 상기 인터랙티브 모형의 상기 식별자를 인식하여 상기 콘텐츠 요청 정보를 생성하는 스캔부, 상기 콘텐츠 요청 정보를 상기 인터랙티브 콘텐츠 제공 서버로 전송하고, 상기 콘텐츠 요청 정보에 대응하는 인터랙티브 콘텐츠를 수신하는 통신부, 가상현실 및 증강현실 기반의 상기 인터랙티브 콘텐츠를 출력하는 출력부를 포함하되, 상기 통신부는 상기 인터랙티브 모형으로부터 터치 감지 정보를 수신하여 상기 인터랙티브 콘텐츠 제공 서버로 전송하고, 상기 터치 감지 정보에 따라 변화된 인터랙티브 콘텐츠를 실시간으로 수신할 수 있다.According to an embodiment of the present application, the user terminal recognizes the identifier of the interactive model and generates the content request information, and transmits the content request information to the interactive content providing server, and the content request information A communication unit for receiving a corresponding interactive content and an output unit for outputting the interactive content based on virtual reality and augmented reality, wherein the communication unit receives touch sensing information from the interactive model and transmits it to the interactive content providing server, and the Interactive content changed according to the touch sensing information can be received in real time.
본원의 일 실시예에 따르면, 상기 통신부는 상기 제1유형 인터랙티브 모형으로부터 상기 사용자의 상기 3차원 이미지 내의 관광 명소를 터치한 터치 제스처에 기초하여 생성된 제1터치 감지 정보를 수신하여 상기 인터랙티브 콘텐츠 제공 서버로 전송하고, 상기 제1터치 감지 정보에 대응하는 상기 관광 명소의 세부 정보를 포함하는 인터랙티브 콘텐츠를 상기 인터랙티브 콘텐츠 제공 서버로부터 수신하고, 상기 출력부는 상기 관광 명소의 세부 정보를 증강현실로 출력할 수 있다.According to an embodiment of the present application, the communication unit provides the interactive content by receiving first touch detection information generated based on a touch gesture of touching a tourist attraction in the 3D image of the user from the first type interactive model. Transmits to a server, and receives interactive content including detailed information of the tourist attraction corresponding to the first touch detection information from the interactive content providing server, and the output unit outputs detailed information of the tourist attraction in augmented reality. I can.
본원의 일 실시예에 따르면, 상기 통신부는 상기 제2유형 인터랙티브 모형으로부터 상기 인체 모형의 각 부위를 터치한 터치 제스처, 상기 인체 모형의 각 부위를 이동시키는 이동 제스처 및 상기 인체 모형의 각 부위에 접근한 접근 제스처 중 적어도 어느 하나에 기초하여 생성된 제2터치 감지 정보를 수신하여 상기 인터랙티브 콘텐츠 제공 서버로 전송하고, 상기 제2터치 감지 정보에 대응하는 인체의 작용을 포함하는 인터랙티브 콘텐츠를 수신하고, 상기 출력부는 상기 터치 제스처, 이동 제스처 및 접근 제스처 중 적어도 어느 하나에 의한 인체의 작용을 증강현실로 출력할 수 있다.According to an embodiment of the present application, the communication unit accesses each portion of the human body model, a touch gesture by touching each portion of the human body model from the second type interactive model, a movement gesture to move each portion of the human body model, and Receives second touch detection information generated based on at least one of the access gestures and transmits it to the interactive content providing server, and receives interactive content including an action of a human body corresponding to the second touch detection information, The output unit may output an action of the human body by at least one of the touch gesture, the movement gesture, and the approach gesture as augmented reality.
본원의 일 실시예에 따르면, 상기 통신부는 상기 제3유형 인터랙티브 모형으로부터 상기 캐릭터 모형의 각 부위를 터치한 터치 제스처, 상기 캐릭터 모형의 각 부위를 이동시키는 이동 제스처 및 상기 캐릭터 모형의 각 부위에 접근한 접근 제스처 중 적어도 어느 하나에 기초하여 생성된 제3터치 감지 정보를 수신하여 상기 인터랙티브 콘텐츠 제공 서버로 전송하고, 상기 제3터치 감지 정보에 대응하는 인체의 작용을 포함하는 인터랙티브 콘텐츠를 수신하고, 상기 출력부는 상기 터치 제스처, 이동 제스처 및 접근 제스처 중 적어도 어느 하나에 의한 연예인의 팬서비스 모션을 증강현실로 출력할 수 있다.According to an exemplary embodiment of the present application, the communication unit accesses each portion of the character model, a touch gesture by touching each portion of the character model from the third type interactive model, a movement gesture to move each portion of the character model, and Receives third touch detection information generated based on at least one of the access gestures and transmits it to the interactive content providing server, and receives interactive content including an action of a human body corresponding to the third touch detection information, The output unit may output a fan service motion of a celebrity by at least one of the touch gesture, the movement gesture, and the approach gesture as augmented reality.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present application. In addition to the above-described exemplary embodiments, additional embodiments may exist in the drawings and detailed description of the invention.
전술한 본원의 과제 해결 수단에 의하면, 사용자와 상호작용이 가능한 인터랙티브 모형을 통해 가상현실 및 증강현실 기반의 다양한 콘텐츠를 제공할 수 있는 인터랙티브 콘텐츠 제공 시스템을 제공할 수 있다.According to the above-described problem solving means of the present application, it is possible to provide an interactive content providing system capable of providing various contents based on virtual reality and augmented reality through an interactive model capable of interacting with a user.
전술한 본원의 과제 해결 수단에 의하면, 관광 정보, 교육 및 학습, 등 인터랙티브 모형에 따라 다양한 유형의 인터랙티브 콘텐츠를 제공할 수 있는 인터랙티브 콘텐츠 제공 시스템을 제공할 수 있다.According to the above-described problem solving means of the present application, it is possible to provide an interactive content providing system capable of providing various types of interactive content according to interactive models such as tourism information, education and learning, and the like.
도 1은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 구성을 도시한 도면이다.
도 2는 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 사용자 단말의 구성을 도시한 도면이다.
도 3은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 이미지 카드의 예를 도시한 도면이다.
도 4는 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 제1유형 인터랙티브 콘텐츠를 출력한 화면의 예를 도시한 도면이다.
도 5는 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 인체 모형의 예를 도시한 도면이다.
도 6은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 제2유형 인터랙티브 콘텐츠를 출력한 화면의 예를 도시한 도면이다.
도 7은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 캐릭터 모형의 예를 도시한 도면이다.
도 8은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 제3유형 인터랙티브 콘텐츠를 출력한 화면의 예를 도시한 도면이다.1 is a diagram showing a configuration of an interactive content providing system according to an embodiment of the present application.
2 is a diagram showing a configuration of a user terminal of an interactive content providing system according to an embodiment of the present application.
3 is a diagram illustrating an example of an image card of an interactive content providing system according to an embodiment of the present application.
4 is a diagram illustrating an example of a screen outputting a first type of interactive content of an interactive content providing system according to an embodiment of the present application.
5 is a diagram illustrating an example of a human body model of an interactive content providing system according to an embodiment of the present application.
6 is a diagram illustrating an example of a screen outputting a second type of interactive content of the interactive content providing system according to an embodiment of the present application.
7 is a diagram illustrating an example of a character model of an interactive content providing system according to an embodiment of the present application.
8 is a diagram illustrating an example of a screen outputting a third type of interactive content of the interactive content providing system according to an embodiment of the present application.
아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, exemplary embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present application. However, the present application may be implemented in various different forms and is not limited to the embodiments described herein. In addition, in the drawings, parts not related to the description are omitted in order to clearly describe the present application, and similar reference numerals are attached to similar parts throughout the specification.
본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is said to be "connected" with another part, this includes not only the case that it is "directly connected", but also the case that it is "electrically connected" with another element interposed therebetween. do.
본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is positioned "on", "upper", "upper", "under", "lower", and "lower" of another member, this means that a member is located on another member. It includes not only the case where they are in contact but also the case where another member exists between the two members.
본원 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification of the present application, when a certain part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary.
도 1은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 구성을 도시한 도면이다.1 is a diagram showing a configuration of an interactive content providing system according to an embodiment of the present application.
도 1을 참조하면, 가상현실 및 증강현실 기반 인터랙티브 콘텐츠 제공 시스템은 인터랙티브 모형(100), 사용자 단말(200) 및 인터랙티브 콘텐츠 제공 서버(300)를 포함할 수 있다.Referring to FIG. 1, an interactive content providing system based on virtual reality and augmented reality may include an
인터랙티브 모형(100)은 가상현실 및 증강현실로 구현되는 인터랙티브 콘텐츠를 로딩하기 위한 식별자 및 사용자의 제스처를 감지하는 센서를 포함할 수 있다. 인터랙티브 모형(100)은 제공하는 인터랙티브 콘텐츠에 따라 다양한 유형으로 마련될 수 있으며, 예시적으로 이미지 카드(110), 인체 모형(120), 연예인의 캐릭터 모형(130)로 구비될 수 있다. 각 유형에 따른 인터랙티브 모형(100)은 인터랙티브 콘텐츠의 유형과 연계된 서로 다른 식별자를 포함할 수 있다. 상기 식별자는 QR코드, 이미지, 폴리곤, 텍스처 중 적어도 어느 하나를 포함할 수 있다. The
사용자 단말(200)은 인터랙티브 모형의 식별자를 스캔하여 인터랙티브 모형과 연계된 인터랙티브 콘텐츠에 대한 콘텐츠 요청 정보를 생성할 수 있다. 또한, 사용자 단말(200)은 생성한 콘텐츠 요청 정보를 인터랙티브 콘텐츠 제공 서버로 전송하고, 인터랙티브 콘텐츠 제공 서버로부터 인터랙티브 콘텐츠를 수신하여 출력할 수 있다. 인터랙티브 콘텐츠 제공 서버(300)는 사용자 단말(200)로부터 수신된 콘텐츠 요청 정보에 기초하여 인터랙티브 모형과 연계된 인터랙티브 콘텐츠를 사용자 단말(200)로 전송할 수 있다. 가상현실용 카드보드(400)는 스마트 단말(200)이 장착되고, 가상현실 기반의 관광 콘텐츠 및 관광 지도가 디스플레이 되도록 가상현실 환경을 제공할 수 있다. 예를 들어, 가상현실용 카드보드(400)는 양안시차를 보정하기 위한 복수의 렌즈(LENS)를 포함할 수 있다. 본원의 일 실시예에 따르면, 인터랙티브 콘텐츠는 360도 전방위 영상을 포함하는 가상현실 콘텐츠 및 증강현실 콘텐츠를 포함할 수 있다.The
인터랙티브 모형(100)과 사용자 단말(200) 및 인터랙티브 콘텐츠 제공 서버(300)는 네트워크로 연결될 수 있으며, 예를 들어 사용자 단말(200)은, 스마트폰(Smartphone), 스마트패드(SmartPad), 스마트 TV, 태블릿 PC등과 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말 같은 모든 종류의 무선 통신 장치를 포함할 수 있다.The
또한, 상기 네트워크는 단말 및 서버와 같은 각각의 노드 상호 간에 정보 교환이 가능한 유, 무선의 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.In addition, the network refers to a wired and wireless connection structure capable of exchanging information between respective nodes such as a terminal and a server, and examples of such networks include a 3rd Generation Partnership Project (3GPP) network, and Long Term Evolution (LTE). ) Network, 5G network, WIMAX(World Interoperability for Microwave Access) network, Internet, LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network) , A Bluetooth network, a satellite broadcasting network, an analog broadcasting network, and a Digital Multimedia Broadcasting (DMB) network, but are not limited thereto.
도 2는 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 사용자 단말의 구성을 도시한 도면이다.2 is a diagram showing a configuration of a user terminal of an interactive content providing system according to an embodiment of the present application.
도 2를 참조하면, 사용자 단말(200)은 스캔부(210), 통신부(220) 및 출력부(230)를 포함할 수 있다. 스캔부(210)는 인터랙티브 모형(100)의 식별자를 인식하여 콘텐츠 요청 정보를 생성할 수 있다. 스캔부(210)는 사용자 단말(200)의 카메라 모듈을 통해 식별자를 인식하고 스캔할 수 있으며, 인식된 식별자에 기초하여 인터릭티브 모형과 연계된 콘텐츠를 요청하는 콘텐츠 요청 정보를 생성할 수 있다. 통신부(220)는 콘텐츠 요청 정보를 인터랙티브 콘텐츠 제공 서버(300)로 전송할 수 있고, 인터랙티브 콘텐츠 제공 서버(300)로부터 콘텐츠 요청 정보에 대응하는 인터랙티브 콘텐츠를 수신할 수 있다. 또한, 통신부(220)는 인터랙티브 모형으로부터 터치 감지 정보를 수신하여 인터랙티브 콘텐츠 제공 서버(300)로 전송하고, 인터랙티브 콘텐츠 제공 서버로부터 터치 감지 정보에 따라 변화된 인터랙티브 콘텐츠를 실시간으로 수신할 수 있다.Referring to FIG. 2, the
인터랙티브 콘텐츠는 서로 다른 인터랙티브 모형과 연계된 복수의 유형을 가질 수 있다. 예시적으로, 복수의 유형은 관광 명소에 대한 관광 콘텐츠와 연계된 제1유형(제1유형 인터랙티브 콘텐츠), 인체 장기 구조 및 작용에 대한 교육 콘텐츠와 연계된 제2유형(제2유형 인터랙티브 콘텐츠) 및 연예인의 팬서비스 모션에 대한 연예 콘텐츠와 연계된 제3유형(제3유형 인터랙티브 콘텐츠)을 포함할 수 있다. 도 1을 참조하면, 제1유형과 연계된 인터랙티브 모형(제1인터랙티브 모형)은 이미지 카드(110)일 수 있으며, 제2유형과 연계된 인터랙티브 모형(제2인터랙티브 모형)은 인체 모형(120)일 수 있다. 제3유형과 연계된 인터랙티브 모형(제3인터랙티브 모형)은 캐릭터 모형(130)일 수 있다. 인터랙티브 콘텐츠 제공 서버(300)는 사용자 단말(200)로부터 수신한 콘텐츠 요청 정보를 통해 사용자 단말(200)이 식별자를 통해 식별한 인터랙티브 모형의 유형을 파악할 수 있고, 해당 유형 인터랙티브 모형에 대한 인터랙티브 콘텐츠를 사용자 단말(200)로 제공할 수 있다. 출력부(230)는 가상현실 및 증강현실 기반의 인터랙티브 콘텐츠를 출력할 수 있다. 예시적으로, 사용자가 사용자 단말(200)을 통해 인터랙티브 모형의 식별자를 스캔하면, 인터랙치브 콘텐츠 제공 서버(300)로부터 인터랙티브 모형에 대응하는 인터랙티브 콘텐츠를 수신하여 출력할 수 있다.Interactive content may have a plurality of types associated with different interactive models. Exemplarily, the plurality of types are the first type (type 1 interactive content) associated with tourism content for tourist attractions, and the second type (type 2 interactive content) associated with educational content about the structure and action of human organs. And a third type (third type interactive content) associated with entertainment content for a fan service motion of an entertainer. Referring to FIG. 1, the interactive model (first interactive model) associated with the first type may be an
도 3은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 이미지 카드의 예를 도시한 도면이다.3 is a diagram illustrating an example of an image card of an interactive content providing system according to an embodiment of the present application.
도 3을 참조하면, 인터랙티브 모형(100) 중 이미지 카드(110)는 관광 지역에 대한 관광 지역 이미지 및 관광 지역 식별을 위한 정보와 연계된 식별자(114)(예를 들어 QR코드)를 포함할 수 있다. 예시적으로, 상기 이미지 카드(110)는 엽서, 명함 등을 포함할 수 있다. 또한, 관광 지역 이미지는 관광 지역에 대한 지도 이미지일 수 있다. 예를 들어, 관광 지역 이미지는 시, 도, 구, 군 등으로 구획된 지도 이미지일 수도 있으나, 이에 한정되는 것은 아니다. 또한, 이미지 카드(110)에 포함된 관광 지역 이미지는 3차원 지도 이미지일 수 있다. 관광 지역 이미지는 해당 관광 지역의 고저차를 나타낸 3차원 지도 이미지로 형성될 수 있다. 예를 들어, 3차원 지도 이미지는 관광 지역의 위성 사진으로부터, 해당 관광 지역의 고저차를 반영하여 일 영역이 돌출되거나 함몰되어 입체감을 제공하는 3차원 지도 이미지일 수 있다. 따라서, 2차원 평면의 지도 이미지에 비해 사용자에게 실감과 재미를 줄 수 있다.Referring to FIG. 3, the
또한, 도3을 참조하면, 이미지 카드(110)는 관광지역에 포함된 복수의 관광 명소에 대한 식별자를 포함할 수 있다. 식별자(111, 112, 113)는 사용자 단말(200)의 스캔부(210)에 의해 인식될 수 있다. 도 3에 도시된 바와 같이 식별자(111, 112, 113)는 관광 지역 내에 포함된 관광 명소에 대한 식별자일 수 있다. 예를 들어, 관광 명소는 문화재, 유적지, 놀이공원, 경기장 등을 의미할 수 있고, 식별자는 상기 관광 명소에 대한 명칭 또는 상호 정보, 위치정보를 포함할 수 있다. 또한, 관광 지역 이미지(110)는 사용자가 육안으로 관광 명소를 인식할 수 있도록, 관광 명소의 명칭 또는 기호 등이 표시될 수 있다. 또한, 사용자 단말(200)은 이미지 카드(110)의 식별자(114)를 스캔하여 인터랙티브 콘텐츠 제공 서버(300)로부터 가상현실 및 증강현실로 구현되는 인터랙티브 콘텐츠를 통해 관광 지역 및 관광 명소에 대한 정보를 제공받을 수 있다.Further, referring to FIG. 3, the
이미지 카드(110) 즉 제1유형 인터랙티브 모형은 사용자의 터치를 감지하는 압전 센서를 포함할 수 있다. 압전 센서는 복수개 구비될 수 있으며, 이미지 카드(110)의 관광 명소에 대한 식별자의 위치에 대응하여 이미지 카드(110) 내부에 마련될 수 있다. 사용자는 이미지 카드(110)의 관광 명소를 누르는 터치 제스처를 취할 수 있고, 이미지 카드(110)에는 사용자가 누른 관광 명소의 위치에 구비된 압전 센서를 통해 터치 제스처를 감지할 수 있다. 또한, 이미지 카드(110)는 터치 제스처에 기초하여 제1터치 감지 정보를 생성할 수 있다. 통신부(210)는 제1유형 인터랙티브 모형으로부터 사용자의 3차원 이미지 내의 관광 명소를 터치한 터치 제스처에 기초하여 생성된 제1터치 감지 정보를 수신하여 인터랙티브 콘텐츠 제공 서버(300)로 전송할 수 있다.The
도 4는 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 제1유형 인터랙티브 콘텐츠를 출력한 화면의 예를 도시한 도면이다.4 is a diagram illustrating an example of a screen outputting a first type of interactive content of an interactive content providing system according to an embodiment of the present application.
사용자 단말(200)을 통해 인터랙티브 모형의 식별자가 스캔되면, 인터랙티브 콘텐츠 제공 서버(300)는 해당 인터랙티브 모형과 연계된 인터랙티브 콘텐츠를 사용자 단말(200)로 전송하고, 사용자 단말(200)의 출력부(230)는 수신한 인터랙티브 콘텐츠를 출력할 수 있다. 이때, 사용자가 이미지 카드(110) 내에 특정 관광 명소를 누르는 터치 제스처를 취하면, 인터랙티브 콘텐츠 제공 서버(300)는 사용자가 특정 관광 명소를 터치한 터치 제스처에 기초하여 생성된 제1터치 감지 정보를 사용자 단말(200)을 통해 수신할 수 있다. 이후 인터랙티브 콘텐츠 제공 서버(300)는 해당 관광 명소의 세부 정보(420)를 포함하는 인터랙티브 콘텐츠를 사용자 단말(200)로 전송할 수 있다. 도 4를 참조하면, 출력부(230)는 관광 명소의 세부 정보(420)를 증강현실로 출력할 수 있다.When the identifier of the interactive model is scanned through the
다른 예로, 출력부(230)는 사용자 입력 마커(410)를 인터랙티브 콘텐츠 상에 출력할 수 있다, 사용자는 사용자 입력 마커(410)를 통하여 사용자가 가상현실용 카드보드(400)를 착용한 상태에서도 사용자의 움직임에 기초하여 사용자가 의도하는 입력 즉, 관광 명소의 세부 정보를 로딩하는 입력을 수행할 수 있다. 도 4를 참조하면, 사용자 입력 마커(410)는 인터랙티브 콘텐츠의 일 영역(예를 들어 중앙)에 고정될 수 있다. 또한, 사용자 단말(200)은 사용자 단말(200)에서 제공하는 자이로 센싱 기능을 통해 사용자의 움직임을 감지할 수 있고, 출력부(230)는 감지된 사용자의 움직임에 기초하여 사용자의 시선에 대응(360도 콘텐츠 제공)하도록 인터랙티브 콘텐츠를 출력할 수 있다. 예를 들어, 사용자가 사용자 단말이 장착된 가상현실용 카드보드(400)를 착용한 상태에서 관광 명소의 세부 정보를 로딩하고자 하는 경우, 사용자는 고정된 사용자 입력 마커(410)가 관광 명소에 접하도록 시선을 움직일 수 있고, 사용자의 움직임에 의해 사용자 입력 마커(410)가 관광 명소와 접한 경우, 해당 관광 명소의 세부 정보를 제공 받기 위한 의도를 인지하여, 통신부(220)는 세부 정보 요청 정보를 생성하여 인터랙티브 콘텐츠 제공 서버(300)로 전송할 수 있다. 인터랙티브 콘텐츠 제공 서버(300)는 세부 정보 요청 정보에 기초하여 해당 관광 명소의 세부 정보를 포함하는 인터랙티브 콘텐츠(즉, 변화된 인터랙티브 콘텐츠)를 사용자 단말(200)로 전송하고, 출력부(230)는 관광 명소의 세부 정보를 포함하는 변화된 인터랙티브 콘텐츠를 실시간으로 출력하여 관광 명소의 세부 정보를 제공할 수 있다.As another example, the
도 5는 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 인체 모형의 예를 도시한 도면이다.5 is a diagram illustrating an example of a human body model of an interactive content providing system according to an embodiment of the present application.
도 5를 참조하면, 제2유형 인터랙티브 모형은 인체 모형(120)으로 구비될 수 있다. 인체 모형(120)은 부위 별로 구비되는 압전 센서, 가속도 센서 및 적외선 센서를 포함할 수 있다. 예시적으로, 상기 센서는 머리, 팔, 다리 등 신체 부위의 위치에 대응하여 인체 모형(120) 내부에 구비될 수 있으며, 특히 적외선 센서(122)는 입의 위치에 대응하여 인체 모형(120) 내부에 구비될 수 있다. 또한 인체 모형(120)은 인체 장기 구조 및 작용에 대한 교육 콘텐츠와 연계된 제2유형 인터랙티브 콘텐츠를 로딩하기 위한 식별자(121)를 포함할 수 있다. 전술한 바와 같이, 스캔부(210)는 인체 모형(120)의 식별자(121)를 스캔하여 콘텐츠 요청 정보를 생성하고, 통신부(220)는 콘텐츠 요청 정보를 인터랙티브 콘텐츠 제공 서버(300)로 전송하여 인터랙티브 콘텐츠 제공 서버(300)로부터 인체 장기 구조 및 작용에 대한 교육 콘텐츠와 연계된 제2유형 인터랙티브 콘텐츠를 수신할 수 있다.Referring to FIG. 5, the second type interactive model may be provided as a
도 6은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 제2유형 인터랙티브 콘텐츠를 출력한 화면의 예를 도시한 도면이다.6 is a diagram illustrating an example of a screen outputting a second type of interactive content of the interactive content providing system according to an embodiment of the present application.
도 6에 도시된 제2유형 인터랙티브 콘텐츠는 인체의 장기 구조가 증강현실로 구현될 수 있다. 제2유형 인터랙티브 모형 즉 인체 모형은 인체 모형의 각 부위를 터치한 터치 제스처, 인체 모형의 각 부위를 이동시키는 이동 제스처 및 인체 모형의 각 부위에 접근한 접근 제스처 중 적어도 어느 하나에 기초하여 생성된 제2터치 감지 정보를 생성할 수 있다. 예시적으로, 사용자의 손, 물체 등을 인체 모형(120)의 입 부위에 접근시키는 접근 제스처를 취하면, 인체 모형(120)은 입 부위에 구비된 적외선 센서를 통해 접근 제스처를 감지할 수 있다. 또한, 인체 모형(120)은 접근 제스처에 기초하여 제2터치 감지 정보를 생성할 수 있다. 접근 제스처는 인체 모형에 음식을 먹이는 제스처를 의미한다. 통신부(210)는 제2유형 인터랙티브 모형으로부터 제2 터치 감지 정보를 수신하여 인터랙티브 콘텐츠 서버(300)로 전송할 수 있다. 출력부(230)는 터치 제스처, 이동 제스처 및 접근 제스처 중 적어도 어느 하나에 의한 인체의 작용을 증강현실로 출력할 수 있으며, 상기 변화된 인터랙티브 콘텐츠를 실시간으로 출력할 수 있다. 구체적으로, 인터랙티브 콘텐츠 서버(300)는 인체 모형에 음식을 먹이는 접근 제스처에 대응하여 음식이 각 장기에서 소화되는 과정을 포함하는 제2유형 인터랙티브 콘텐츠(변화된 인터랙티브 콘텐츠)를 사용자 단말(200)로 제공할 수 있고, 출력부(230)는 변화된 인터랙티브 콘텐츠를 실시간으로 출력할 수 있다. 이처럼 실제 모형과 연계하여 인체의 소화 작용을 증강현실로 구현하는 인터랙티브 콘텐츠를 제공함으로써, 인체 학습의 흥미를 유발할 수 있다.In the second type of interactive content illustrated in FIG. 6, the organ structure of the human body may be implemented as augmented reality. The second type interactive model, that is, a human body model, is generated based on at least one of a touch gesture that touches each part of the human body model, a movement gesture that moves each part of the human body model, and an approach gesture that approaches each part of the human body model. Second touch detection information may be generated. For example, when a user's hand, object, etc., is taken to approach the mouth of the
또한, 제2유형 인터랙티브 콘텐츠는 인체 자극에 따른 뇌의 변화가 증강현실로 구현될 수 있다. 예시적으로, 사용자가 인체 모형(120)의 팔을 만지는 터치 제스처를 취하면, 인터랙티브 콘텐츠 제공 서버(300)는 촉각에 대응하여 두정엽이 점멸하는 것을 포함하는 제2유형 인터랙티브 콘텐츠를 사용자 단말(200)로 제공할 수 있다. 다른 예로, 사용자가 인체 모형의 팔을 돌리는 터치 제스처를 취하면, 팔 부위에 구비된 가속도 센서에 의해 팔을 돌리는 터치 제스처가 감지되며, 인터랙티브 콘텐츠 제공 서버(300)는 팔의 운동에 대응하여 전두엽이 점멸하는 것을 포함하는 제2유형 인터랙티브 콘텐츠를 사용자 단말(200)로 제공할 수 있다. 또한, 제2유형 인터랙티브 콘텐츠는 그림 음악 등의 창작 사고와 연산, 암기 등의 논리 사고 각각에 대한 사고 아이콘을 포함할 수 있다. 사용자는 사용자 입력 마커를 통해 상기 아이콘을 클릭하는 입력을 수행할 수 있으며, 이에 기초하여 인터랙티브 콘텐츠 제공 서버(300)는 창작 사고시 작용하는 뇌가 점멸하는 인터랙티브 콘텐츠 또는 논리 사고시 작용하는 뇌가 점멸하는 인터랙티브 콘텐츠를 사용자 단말(200)로 제공할 수 있다.In addition, in the second type of interactive content, changes in the brain according to human stimulation may be implemented in augmented reality. For example, when a user makes a touch gesture of touching an arm of the
도 7은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 캐릭터 모형의 예를 도시한 도면이다.7 is a diagram illustrating an example of a character model of an interactive content providing system according to an embodiment of the present application.
도 7을 참조하면, 제3유형 인터랙티브 모형은 캐릭터 모형(130)으로 구비될 수 있다. 캐릭터 모형(130)은 부위 별로 구비되는 압전 센서, 가속도 센서 및 적외선 센서를 포함할 수 있다. 예시적으로, 상기 센서는 머리(132), 팔, 다리 등 신체 부위의 위치에 대응하여 인체 모형(130) 내부에 구비될 수 있다. 또한 캐릭터 모형(130)은 팬서비스 모션에 대한 연예 콘텐츠와 연계된 제3유형 인터랙티브 콘텐츠를 로딩하기 위한 식별자(131)를 포함할 수 있다. 전술한 바와 같이, 스캔부(210)는 캐릭터 모형(130)의 식별자(131)를 스캔하여 콘텐츠 요청 정보를 생성하고, 통신부(220)는 콘텐츠 요청 정보를 인터랙티브 콘텐츠 제공 서버(300)로 전송하여 인터랙티브 콘텐츠 제공 서버(300)로부터 팬서비스 모션에 대한 연예 콘텐츠와 연계된 제3유형 인터랙티브 콘텐츠를 수신할 수 있다. Referring to FIG. 7, the third type interactive model may be provided as a
도 8은 본원의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템의 제3유형 인터랙티브 콘텐츠를 출력한 화면의 예를 도시한 도면이다.8 is a diagram illustrating an example of a screen outputting a third type of interactive content of the interactive content providing system according to an embodiment of the present application.
도 8에 도시된 제3유형 인터랙티브 콘텐츠는 연예인의 팬서비스 모션이 증강현실로 구현될 수 있다. 팬서비스 모션은 캐릭터 모형(130)에 대한 사용자의 터치에 대응하여 다양한 멘트, 행동, 표정으로 반응하는 모션일 수 있다. 제3인터랙티브 모형 즉 캐릭터 모형(130)은 각 부위를 터치한 터치 제스처, 캐릭터 모형(130)의 각 부위를 이동시키는 이동 제스처 및 캐릭터 모형의 각 부위에 접근한 접근 제스처 중 적어도 어느 하나에 기초하여 제3터치 감지 정보를 생성할 수 있다. In the third type of interactive content illustrated in FIG. 8, a fan service motion of an entertainer may be implemented in augmented reality. The fan service motion may be a motion that responds with various comments, actions, and facial expressions in response to a user's touch on the
예시적으로, 사용자가 캐릭터 모형(130)의 머리(132)를 터치하면, 머리(132) 부위에 구비된 압전 센서를 통해 터치 제스처가 감지될 수 있다. 또한, 캐릭터 모형(130)은 터치 제스처에 기초하여 제3터치 감지 정보를 생성할 수 있다. 터치 제스처는 캐릭터 모형(130)의 머리를 만지는 제스처를 의미한다. 통신부(210)는 제3유형 인터랙티브 모형으로부터 제3터치 감지 정보를 수신하여 인터랙티브 콘텐츠 서버(300)로 전송할 수 있다. 인터랙티브 콘텐츠 서버(300)는 머리의 터치에 반응하는 팬서비스 모션을 포함하는 제3유형 인터랙티브 콘텐츠(변화된 인터랙티브 콘텐츠)를 사용자 단말(200)로 제공할 수 있고, 출력부(230)는 터치 제스처, 이동 제스처 및 접근 제스처 중 적어도 어느 하나에 의한 연예인의 팬서비스 모션을 증강현실로 출력할 수 있으며, 상기 변화된 인터랙티브 콘텐츠를 실시간으로 출력할 수 있다. 이처럼 캐릭터 모형과 연계하여 각 부위의 터치, 접근 등의 제스처에 기초하여 팬 서비스를 제공하는 인터랙티브 콘텐츠를 통해 차별화되고 보다 실감성 있는 캐릭터 상품으로 활용될 수 있다.For example, when the user touches the head 132 of the
본원의 일 실시예에 따르면, 인터랙티브 콘텐츠 서버(300)는 제1유형 내지 제3유형 인터랙티브 콘텐츠 중 적어도 2개를 융합하여 서로 다른 유형의 인터랙티브 콘텐츠가 연계된 인터랙티브 콘텐츠를 제공할 제공할 수 있다. 예시적으로, 사용자 단말(200)을 통해 제1유형 인터랙티브 모형의 식별자가 스캔되면, 제1유형 인터랙티브 콘텐츠가 출력될 수 있다. 즉 어떠한 관광 명소에 대한 관광 콘텐츠가 사용자 단말(200)을 통해 출력될 수 있다. 이때, 사용자 단말(200)을 통해 제3유형 인터랙티브 모형의 식별자를 스캔하면, 제3유형 인터랙티브 콘텐츠와 제1유형 인터랙티브 콘텐츠가 융합되어 상기 관광 명소를 소개하는 증강현실로 구현된 연예인이 출력될 수 있다. 예시적으로, 국립공원과 같이 다수의 문화재, 유적지 등이 존재하는 관광 명소의 경우, 인터랙티브 콘텐츠 상에 증강현실로 구현된 연예인이 사용자가 문화재를 방문할 때마다 각 문화재의 구체적인 정보를 설명하는 인터랙티브 콘텐츠가 제공될 수 있다.According to an embodiment of the present disclosure, the
다른 예로, 제2유형 인터랙티브 콘텐츠와 제1유형 인터랙티브 콘텐츠의 융합의 경우, 박물관, 과학 전시회 등의 관광 명소를 방문한 사용자의 사용자 단말(200)을 통해 해당 관광명소와 연계된 제1유형 인터랙티브 모형의 식별자가 스캔되고, 제2유형 인터랙티브 모형의 식별자가 스캔되면, 관광명소의 각 스팟에서 교육(인체 작용 뿐만 아니라, 해당 관광명소와 관련된 교육적인 콘텐츠가 포함될 수 있다.)와 관련된 인터랙티브 콘텐츠가 출력될 수 있다.As another example, in the case of fusion of type 2 interactive content and type 1 interactive content, the
또한, 인터랙티브 콘텐츠 제공 서버(300)는 관광명소의 지도 또는 디지털 식별자를 스캔하고, 제2유형 인터랙티브 모형 또는 제3인터랙티브 모형의 식별자를 스캔한 사용자 단말(300)로 상기와 같이 융합된 인터랙티브 콘텐츠를 제공할 수 있다. 예를 들어, 사용자 단말(200)을 통해 관광명소의 지도 또는 해당 관광명소와 연계되어 온라인상에 게시된 디지털 식별자(예를 들어 QR 코드)가 스캔되고, 제2유형 인터랙티브 모형의 식별자가 스캔되면, 인터랙티브 콘텐츠 제공 서버(300)는 전술한 바와 같이, 해당 관광 명소의 구체적인 정보를 설명하는 연예인이 출력되는 인터랙티브 콘텐츠를 사용자 단말(200)로 제공할 수 있다.In addition, the interactive
본원의 일 실시예에 따르면, 인터랙티브 콘텐츠 제공 서버(300)는 인터랙티브 모형의 부위별 터치 감지 정보를 입력으로 하는 비지도 학습 기반의 패턴 산출 모델을 구축하여, 콘텐츠 추천 정보를 산출할 수 있다. 비지도 학습이란 학습용 데이터를 구축하는 것이 아닌 데이터 자체를 분석하거나 군집하면서 학습하는 알고리즘을 의미한다. 인터랙티브 콘텐츠 제공 서버(300)는 군집 알고리즘에 기초하여 터치 감지 정보에 기초한 터치 패턴의 산출 및 터치 패턴의 군집화를 수행할 수 있다.According to an embodiment of the present application, the interactive
예시적으로 상기 비지도 학습을 위한 군집 알고리즘에는 로지스틱 회귀 알고리즘, 랜덤 포레스트 알고리즘, SVM(Support Vector Machine)알고리즘, 의사결정 알고리즘 및 군집 알고리즘이 이용될 수 있다. 또한, 패턴 산출부(120)는 상술한 알고리즘 외에도 Extra Tree알고리즘, XG Boost알고리즘 및 Deep Learning 알고리즘, K-means 클러스터링 알고리즘, SOM(Self-Organizing-Maps) 알고리즘 EM & Canopy 알고리즘과 같은 군집 알고리즘을 통해 비지도 학습을 수행할 수 있다. Random Forest알고리즘은 수많은 Decision Tree들이 Forest를 구성하여 각각의 예측결과를 하나의 결과변수로 평균화 하는 알고리즘이고, SVM알고리즘은 데이터의 분포공간에서 가장 큰 폭의 경계를 구분하여 데이터가 속하는 분류를 판단하는 비확률적 알고리즘이다. Extra Tree알고리즘은 Random forest와 비슷하나 속도가 Random forest에 비해 빠른 알고리즘이며, XGBoost알고리즘은 Random Forest의 Tree는 독립적이라면 XGBoost의 Tree의 결과를 다음 트리에 적용하는 boost방식의 알고리즘이다. Deep Learning알고리즘은 다층구조의 Neural Network을 기반으로 변수의 패턴이 결과에 미치는 영향을 가중치로 조절하며 학습하는 알고리즘이다. 또한, K-means 클러스터링 알고리즘은 전통적인 분류기법으로 대상집단을 거리의 평균값(유사도)을 기준으로 K개의 군집으로 반복 세분화 하는 기법이고, SOM알고리즘은 인공신경망을 기반으로 훈련집합의 입력 패턴을 가중치로 학습하여 군집화하는 기법이다. 또한 EM & Canopy 알고리즘은 주어진 초기값으로 가능성이 최대인 것부터 반복 과정을 통해 파라미터 값을 갱신하여 군집화 하는 기법을 의미한다.For example, a logistic regression algorithm, a random forest algorithm, a support vector machine (SVM) algorithm, a decision making algorithm, and a clustering algorithm may be used as the clustering algorithm for unsupervised learning. In addition to the above-described algorithm, the
인터랙티브 콘텐츠 제공 서버(300)는 사용자 단말(200)로부터 전송되는 각 인터랙티브 모형의 제1터치 감지 정보, 제2터치 감지 정보 및 제3터치 감지 정보를 기록하는 데이터베이스를 포함할 수 있다. 인터랙티브 콘텐츠 제공 서버(300)는 기저장된 터치 감지 정보를 상기 군집 알고리즘의 입력으로 활용할 수 있다. 인터랙티브 콘텐츠 제공 서버(300)는 사용자들이 인터랙티브 모형을 터치한 이력에 대한 정보(터치 감지 정보를)입력으로 하는 비지도 학습에 기초하여 터치 패턴을 검출할 수 있다. 또한, 사용자들이 주로 입력하는 부위의 터치는 군집화될 수 있다. 터치 패턴에 의한 군집의 규모가 클수록 사용자들이 주로 터치하는 부위, 콘텐츠를 제공 받고 싶은 부위일 수 있다. 예시적으로, 이미지 카드의 경우, 특정 관광 명소의 터치에 의한 군집이 큰 경우, 해당 관광 명소의 관심도가 높다고 할 수 있다. 따라서, 인터랙티브 콘텐츠 제공 서버(300)는 터치 패턴의 군집이 미리 설정된 크기 이상인 경우, 해당 부위에 신규 인터랙티브 콘텐츠 생성을 고려하는 신규 콘텐츠 추천 정보를 생성하여 인터랙티브 콘텐츠 제공 서버(300)의 관리자에게 제공할 수 있다. 신규 콘텐츠 추천 정보를 제공받은 인터랙티브 콘텐츠 제공 서버(300)의 관리자는 신규 인터랙티브 콘텐츠의 생성을 고려할 수 있으며, 이를 통해 보다 풍부한 인터랙티브 콘텐츠를 사용자에게 제공할 수 있다.The interactive
전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present application is for illustrative purposes only, and those of ordinary skill in the art to which the present application pertains will be able to understand that it is possible to easily transform it into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.
본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present application.
100: 인터랙티브 모형
110: 이미지 카드
120: 인체 모형
130: 캐릭터 모형
200: 사용자 단말
210: 스캔부
220: 통신부
230: 출력부
300: 인터랙티브 콘텐츠 제공 서버
400: 가상현실용 카드보드100: interactive model
110: image card
120: manikin
130: character model
200: user terminal
210: scan unit
220: communication department
230: output
300: interactive content providing server
400: cardboard for virtual reality
Claims (7)
가상현실 및 증강현실로 구현되는 인터랙티브 콘텐츠를 로딩하기 위한 식별자 및 사용자의 제스처를 감지하는 센서를 포함하는 인터랙티브 모형;
상기 식별자를 스캔하여 상기 인터랙티브 모형과 연계된 인터랙티브 콘텐츠에 대한 콘텐츠 요청 정보를 인터랙티브 콘텐츠 제공 서버로 전송하고, 상기 인터랙티브 콘텐츠 제공 서버로부터 상기 인터랙티브 콘텐츠를 수신하여 출력하는, 사용자 단말;
수신한 상기 콘텐츠 요청 정보에 기초하여 상기 인터랙티브 모형과 연계된 상기 인터랙티브 콘텐츠를 상기 사용자 단말로 전송하는 인터랙티브 콘텐츠 제공 서버; 및
상기 사용자 단말이 장착되고, 상기 인터랙티브 콘텐츠가 디스플레이 되도록 가상현실 환경을 제공하는 가상현실용 카드보드,
를 포함하고,
상기 인터랙티브 콘텐츠는,
서로 다른 인터랙티브 모형과 연계된 복수의 유형을 가지되,
상기 유형은 관광 명소에 대한 관광 콘텐츠와 연계된 제1유형, 인체 장기 구조 및 작용에 대한 교육 콘텐츠와 연계된 제2유형 및 연예인의 팬서비스 모션에 대한 연예 콘텐츠와 연계된 제3유형을 포함하고,
제1유형 인터랙티브 모형은 이미지 카드로 구비되고,
상기 이미지 카드는 관광 지역의 3차원 이미지이고, 상기 3차원 이미지는 관광 지역에 포함된 복수의 관광 명소에 대응하는 식별자를 포함하고, 사용자의 터치를 감지하는 압전 센서를 포함하고,
제2유형 인터랙티브 모형은 인체 모형으로 구비되고, 제3유형 인터랙티브 모형은 연예인의 캐릭터 모형으로 구비되되,
상기 인체 모형 및 캐릭터 모형은 부위별로 구비되는 압전 센서, 가속도 센서 및 적외선 센서를 포함하는 것인, 인터랙티브 콘텐츠 제공 시스템.In a virtual reality and augmented reality-based interactive content providing system,
An interactive model including an identifier for loading interactive content implemented in virtual reality and augmented reality and a sensor for detecting a user's gesture;
A user terminal, which scans the identifier and transmits content request information for interactive content associated with the interactive model to an interactive content providing server, and receiving and outputting the interactive content from the interactive content providing server;
An interactive content providing server that transmits the interactive content associated with the interactive model to the user terminal based on the received content request information; And
A cardboard board for virtual reality that is equipped with the user terminal and provides a virtual reality environment so that the interactive content is displayed,
Including,
The interactive content,
It has multiple types linked to different interactive models,
The above types include the first type linked to tourism content for tourist attractions, the second type linked to educational content on the structure and action of human organs, and the third type linked to entertainment content for the fan service motion of entertainers. ,
The first type interactive model is equipped with an image card,
The image card is a three-dimensional image of a tourist area, and the three-dimensional image includes an identifier corresponding to a plurality of tourist attractions included in the tourist area, and includes a piezoelectric sensor for sensing a user's touch,
The second type interactive model is provided as a human body model, and the third type interactive model is provided as a celebrity character model,
The human body model and the character model includes a piezoelectric sensor, an acceleration sensor, and an infrared sensor provided for each part.
상기 사용자 단말은
상기 인터랙티브 모형의 상기 식별자를 인식하여 상기 콘텐츠 요청 정보를 생성하는 스캔부;
상기 콘텐츠 요청 정보를 상기 인터랙티브 콘텐츠 제공 서버로 전송하고, 상기 콘텐츠 요청 정보에 대응하는 인터랙티브 콘텐츠를 수신하는 통신부;
가상현실 및 증강현실 기반의 상기 인터랙티브 콘텐츠를 출력하는 출력부,
를 포함하되,
상기 통신부는 상기 인터랙티브 모형으로부터 터치 감지 정보를 수신하여 상기 인터랙티브 콘텐츠 제공 서버로 전송하고, 상기 터치 감지 정보에 따라 변화된 인터랙티브 콘텐츠를 실시간으로 수신하는 것인, 인터랙티브 콘텐츠 제공 시스템.The method of claim 1,
The user terminal
A scanning unit that generates the content request information by recognizing the identifier of the interactive model;
A communication unit for transmitting the content request information to the interactive content providing server and receiving interactive content corresponding to the content request information;
An output unit that outputs the interactive content based on virtual reality and augmented reality,
Including,
The communication unit receives touch sensing information from the interactive model, transmits it to the interactive content providing server, and receives the interactive content changed according to the touch sensing information in real time.
상기 통신부는 상기 제1유형 인터랙티브 모형으로부터 상기 사용자의 상기 3차원 이미지 내의 관광 명소를 터치한 터치 제스처에 기초하여 생성된 제1터치 감지 정보를 수신하여 상기 인터랙티브 콘텐츠 제공 서버로 전송하고,
상기 제1터치 감지 정보에 대응하는 상기 관광 명소의 세부 정보를 포함하는 인터랙티브 콘텐츠를 상기 인터랙티브 콘텐츠 제공 서버로부터 수신하고,
상기 출력부는 상기 관광 명소의 세부 정보를 증강현실로 출력하는 것인, 인터랙티브 콘텐츠 제공 시스템.The method of claim 4,
The communication unit receives first touch detection information generated based on a touch gesture of touching a tourist attraction in the 3D image of the user from the first type interactive model and transmits it to the interactive content providing server,
Receive interactive content including detailed information of the tourist attraction corresponding to the first touch detection information from the interactive content providing server,
The output unit to output detailed information of the tourist attraction in augmented reality, interactive content providing system.
상기 통신부는 상기 제2유형 인터랙티브 모형으로부터 상기 인체 모형의 각 부위를 터치한 터치 제스처, 상기 인체 모형의 각 부위를 이동시키는 이동 제스처 및 상기 인체 모형의 각 부위에 접근한 접근 제스처 중 적어도 어느 하나에 기초하여 생성된 제2터치 감지 정보를 수신하여 상기 인터랙티브 콘텐츠 제공 서버로 전송하고,
상기 제2터치 감지 정보에 대응하는 인체의 작용을 포함하는 인터랙티브 콘텐츠를 수신하고,
상기 출력부는 상기 터치 제스처, 이동 제스처 및 접근 제스처 중 적어도 어느 하나에 의한 인체의 작용을 증강현실로 출력하는 것인, 인터랙티브 콘텐츠 제공 시스템.The method of claim 4,
The communication unit responds to at least one of a touch gesture for touching each part of the human body model from the second type interactive model, a moving gesture for moving each part of the human body model, and an approach gesture approaching each part of the human body model. Receives the second touch detection information generated based on and transmits it to the interactive content providing server,
Receiving interactive content including an action of a human body corresponding to the second touch detection information,
The output unit outputs an action of a human body by at least one of the touch gesture, the movement gesture, and the approach gesture as augmented reality.
상기 통신부는 상기 제3유형 인터랙티브 모형으로부터 상기 캐릭터 모형의 각 부위를 터치한 터치 제스처, 상기 캐릭터 모형의 각 부위를 이동시키는 이동 제스처 및 상기 캐릭터 모형의 각 부위에 접근한 접근 제스처 중 적어도 어느 하나에 기초하여 생성된 제3터치 감지 정보를 수신하여 상기 인터랙티브 콘텐츠 제공 서버로 전송하고,
상기 제3터치 감지 정보에 대응하는 인체의 작용을 포함하는 인터랙티브 콘텐츠를 수신하고,
상기 출력부는 상기 터치 제스처, 이동 제스처 및 접근 제스처 중 적어도 어느 하나에 의한 연예인의 팬서비스 모션을 증강현실로 출력하는 것인, 인터랙티브 콘텐츠 제공 시스템.The method of claim 4,
The communication unit responds to at least one of a touch gesture by touching each part of the character model from the third type interactive model, a moving gesture to move each part of the character model, and an approach gesture approaching each part of the character model. Receives the generated third touch detection information and transmits it to the interactive content providing server,
Receiving interactive content including an action of a human body corresponding to the third touch detection information,
The output unit outputs a fan service motion of a celebrity by at least one of the touch gesture, the movement gesture, and the approach gesture as augmented reality.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190094233A KR102192540B1 (en) | 2019-08-02 | 2019-08-02 | System for providing interactive content |
PCT/KR2019/009711 WO2021025188A1 (en) | 2019-08-02 | 2019-08-05 | Interactive content providing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190094233A KR102192540B1 (en) | 2019-08-02 | 2019-08-02 | System for providing interactive content |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102192540B1 true KR102192540B1 (en) | 2020-12-17 |
Family
ID=74089806
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190094233A KR102192540B1 (en) | 2019-08-02 | 2019-08-02 | System for providing interactive content |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102192540B1 (en) |
WO (1) | WO2021025188A1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210117025A1 (en) * | 2019-10-18 | 2021-04-22 | Acer Incorporated | Electronic apparatus and object information recognition method by using touch data thereof |
KR20230071944A (en) | 2021-11-17 | 2023-05-24 | 주식회사 제네시스랩 | Method, system and non-transitory computer-readable recording medium for providing interactive contents |
KR20230071941A (en) | 2021-11-17 | 2023-05-24 | 주식회사 제네시스랩 | Method, system and non-transitory computer-readable recording medium for providing interactive contents |
KR20230071943A (en) | 2021-11-17 | 2023-05-24 | 주식회사 제네시스랩 | Method, system and non-transitory computer-readable recording medium for providing interactive contents |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115294845A (en) * | 2022-08-09 | 2022-11-04 | 苏州旭智设计营造有限公司 | Polymorphic interactive display system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130099317A (en) * | 2012-02-29 | 2013-09-06 | 한국전자통신연구원 | System for implementing interactive augmented reality and method for the same |
KR20140129937A (en) * | 2013-04-30 | 2014-11-07 | 인텔렉추얼디스커버리 주식회사 | A Head Mounted Display and A Digital Device and A Method for Controlling thereof |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101082285B1 (en) * | 2010-01-29 | 2011-11-09 | 주식회사 팬택 | Terminal and method for providing augmented reality |
KR101413794B1 (en) * | 2013-10-15 | 2014-07-01 | 이지유 | Edutainment contents mobile terminal using augmented reality and method for controlling thereof |
KR101582225B1 (en) * | 2014-04-30 | 2016-01-04 | (주)제이앤씨마케팅커뮤니케이션 | System and method for providing interactive augmented reality service |
-
2019
- 2019-08-02 KR KR1020190094233A patent/KR102192540B1/en active IP Right Grant
- 2019-08-05 WO PCT/KR2019/009711 patent/WO2021025188A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130099317A (en) * | 2012-02-29 | 2013-09-06 | 한국전자통신연구원 | System for implementing interactive augmented reality and method for the same |
KR20140129937A (en) * | 2013-04-30 | 2014-11-07 | 인텔렉추얼디스커버리 주식회사 | A Head Mounted Display and A Digital Device and A Method for Controlling thereof |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210117025A1 (en) * | 2019-10-18 | 2021-04-22 | Acer Incorporated | Electronic apparatus and object information recognition method by using touch data thereof |
US11494045B2 (en) * | 2019-10-18 | 2022-11-08 | Acer Incorporated | Electronic apparatus and object information recognition method by using touch data thereof |
KR20230071944A (en) | 2021-11-17 | 2023-05-24 | 주식회사 제네시스랩 | Method, system and non-transitory computer-readable recording medium for providing interactive contents |
KR20230071941A (en) | 2021-11-17 | 2023-05-24 | 주식회사 제네시스랩 | Method, system and non-transitory computer-readable recording medium for providing interactive contents |
KR20230071943A (en) | 2021-11-17 | 2023-05-24 | 주식회사 제네시스랩 | Method, system and non-transitory computer-readable recording medium for providing interactive contents |
WO2023090870A1 (en) * | 2021-11-17 | 2023-05-25 | 주식회사 제네시스랩 | Method and system for providing interactive content, and non-transitory computer-readable recording medium |
WO2023090869A1 (en) * | 2021-11-17 | 2023-05-25 | 주식회사 제네시스랩 | Method and system for providing interactive content, and non-transitory computer-readable recording medium |
Also Published As
Publication number | Publication date |
---|---|
WO2021025188A1 (en) | 2021-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102192540B1 (en) | System for providing interactive content | |
US12100087B2 (en) | System and method for generating an avatar that expresses a state of a user | |
US20240005808A1 (en) | Individual viewing in a shared space | |
JP2024028376A (en) | System and method for augmented and virtual reality | |
US12002175B2 (en) | Real-time motion transfer for prosthetic limbs | |
EP4155867A1 (en) | A system for importing user interface devices into virtual/augmented reality | |
WO2020160168A1 (en) | Systems and methods for augmented reality with precise tracking | |
CN102918518B (en) | Individual characteristics profile data based on cloud | |
Soliman et al. | Artificial intelligence powered Metaverse: analysis, challenges and future perspectives | |
CN109564620A (en) | Augmented reality authentication | |
WO2022093939A1 (en) | Side-by-side character animation from realtime 3d body motion capture | |
CN109863510A (en) | Redundancy tracking system | |
CN110908504A (en) | Augmented reality museum cooperative interaction method and system based on user-exhibit distance | |
US20220404949A1 (en) | Systems and methods for augmented reality with precise tracking | |
Cronin et al. | The infinite retina: spatial computing, augmented reality, and how a collision of new technologies are bringing about the next tech revolution | |
Shinde et al. | Internet of things integrated augmented reality | |
Lee et al. | Immersive Gesture Interfaces for Navigation of 3D Maps in HMD‐Based Mobile Virtual Environments | |
Chen | Research on the design of intelligent music teaching system based on virtual reality technology | |
KR102390615B1 (en) | Method and system for generating and sharing realistic 3d character model | |
CN116235208A (en) | Method, system and non-transitory computer readable recording medium for producing animation | |
Hsu et al. | A multimedia presentation system using a 3D gesture interface in museums | |
De Paolis et al. | Augmented Reality, Virtual Reality, and Computer Graphics: 6th International Conference, AVR 2019, Santa Maria al Bagno, Italy, June 24–27, 2019, Proceedings, Part II | |
KR102699870B1 (en) | Server and multimedia device for generating xr including a plurality of vitrual cities | |
US20240037832A1 (en) | Metaverse system | |
KR102725528B1 (en) | Apparatus for controlling media server using mobile application |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |