KR20240030345A - Method and apparatus for display virtual realiry contents on user terminal based on the determination that the user terminal is located in the pre-determined customized region - Google Patents
Method and apparatus for display virtual realiry contents on user terminal based on the determination that the user terminal is located in the pre-determined customized region Download PDFInfo
- Publication number
- KR20240030345A KR20240030345A KR1020220109258A KR20220109258A KR20240030345A KR 20240030345 A KR20240030345 A KR 20240030345A KR 1020220109258 A KR1020220109258 A KR 1020220109258A KR 20220109258 A KR20220109258 A KR 20220109258A KR 20240030345 A KR20240030345 A KR 20240030345A
- Authority
- KR
- South Korea
- Prior art keywords
- user terminal
- content
- area
- custom
- space
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 90
- 230000008859 change Effects 0.000 claims description 3
- 230000003190 augmentative effect Effects 0.000 description 16
- 230000007613 environmental effect Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000007654 immersion Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000002730 additional effect Effects 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011112 process operation Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
사용자 단말의 위치에 기반하여, 사용자 단말이 공간 내에서 기 설정된 커스텀 영역에 위치하는지 여부를 판정하고, 사용자 단말이 커스텀 영역 내의 객체를 인식 가능하도록 하는 인식 영역에 사용자 단말이 위치하는지 여부를 판정하여, 사용자 단말이 인식 영역에 위치되면 객체를 인식하고, AR 뷰를 통해 인식된 객체와 연관하여 기 설정된 가상 현실(Virtual Reality; VR) 콘텐츠를 표시하는, 사용자 단말을 제어하는 방법이 제공된다. Based on the location of the user terminal, it is determined whether the user terminal is located in a preset custom area in the space, and whether the user terminal is located in a recognition area that allows the user terminal to recognize objects in the custom area. , A method for controlling a user terminal is provided, which recognizes an object when the user terminal is located in a recognition area and displays preset virtual reality (VR) content in association with the recognized object through an AR view.
Description
아래의 설명은 사용자 단말의 위치에 기반하여 사용자 단말을 제어하는 방법 및 장치에 관한 것으로, 공간 내의 기 설정된 커스텀 영역에 위치하는 사용자 단말이 커스텀 영역 내의 객체를 인식함에 따라, 사용자 단말에 인식된 객체와 연관된 가상 현실(Virtual Reality; VR) 콘텐츠를 표시하는 방법 및 장치에 관한 것이다.The description below relates to a method and device for controlling a user terminal based on the location of the user terminal. As the user terminal located in a preset custom area in the space recognizes the object in the custom area, the object recognized by the user terminal It relates to a method and device for displaying virtual reality (VR) content related to.
증강현실(Augmented Reality; AR)은 현실 세계에 컴퓨터 기술로 만든 가상 물체 및 정보를 융합, 보완해 주는 기술을 의미한다. 즉, 증강현실은 실제 환경에 가상의 콘텐츠를 증강하여 표시하는 기술로서, 사용자는 전자 장치를 통해 실제 환경에 대응하여 증강된 콘텐츠를 볼 수 있다.Augmented Reality (AR) refers to a technology that fuses and complements virtual objects and information created with computer technology in the real world. In other words, augmented reality is a technology that augments and displays virtual content in a real environment, and users can view augmented content corresponding to the real environment through an electronic device.
사용자의 전자 장치인 사용자 단말을 통해서는, 사용자 단말의 위치에 기반하여 일정 거리 또는 일정 반경 이내에 존재하는 객체와 관련된 콘텐츠가 사용자 단말의 영상에 증강되어 제공된다. 이처럼, 사용자 단말과의 물리적인 거리에 기반하여서만 증강 콘텐츠가 제공될 경우에는, 불필요하게 많은 수의 콘텐츠가 증강되어 사용자의 인지적 부하 및 사용자 단말의 부하를 늘리게 되는 경우가 존재한다. 또한, 사용자가 의도한 서비스에는 부합하지 않는 콘텐츠가 부적절하게 사용자 단말에 증강되는 경우가 발생할 수 있다. Through the user terminal, which is the user's electronic device, content related to objects existing at a certain distance or within a certain radius based on the location of the user terminal is provided by augmenting the image of the user terminal. In this way, when augmented content is provided only based on the physical distance from the user terminal, there are cases where an unnecessarily large amount of content is augmented, increasing the user's cognitive load and the load on the user terminal. Additionally, content that does not match the service intended by the user may be inappropriately augmented on the user terminal.
따라서, 사용자가 공간 내의 특정 영역에 위치한 때, 사용자 단말에 사용자에게 효용성이 높은 콘텐츠만을 출력하되, 사용자에게 몰입적인(immersive) 경험을 제공하도록 콘텐츠를 제공하는 방법이 요구된다. Therefore, when a user is located in a specific area in a space, there is a need for a method of providing content so as to output only content that is highly useful to the user to the user terminal and provide the user with an immersive experience.
증강현실 기술을 활용하는 다양한 서비스와 관련된 기술로서, 예컨대, 한국 공개특허공보 제10-2014-0065963호(공개일 2014년 05월 30일)에는 차량에 설치되어 카메라에 의해 촬영된 주행경로의 영상을 디스플레이에 표시하고 디스플레이에 표시된 영상에 주행 경로를 안내하는 가상의 표시 정보를 매핑하여 보여주는 증강현실 내비게이터가 개시되어 있다.As a technology related to various services utilizing augmented reality technology, for example, in Korean Patent Publication No. 10-2014-0065963 (published on May 30, 2014), an image of the driving path captured by a camera installed in a vehicle An augmented reality navigator is disclosed that displays on a display and maps virtual display information guiding a driving route to the image displayed on the display.
상기에서 설명된 정보는 단지 이해를 돕기 위한 것이며, 종래 기술의 일부를 형성하지 않는 내용을 포함할 수 있으며, 종래 기술이 통상의 기술자에게 제시할 수 있는 것을 포함하지 않을 수 있다.The information described above is for illustrative purposes only and may include content that does not form part of the prior art and may not include what the prior art would suggest to a person skilled in the art.
공간 내에서 기 설정된 커스텀 영역에 위치하는 사용자 단말에 의해, AR 뷰를 통해 커스텀 영역 내의 객체가 인식됨에 따라, 인식된 객체와 연관하여 기 설정된 VR 콘텐츠를 표시하는 방법을 제공할 수 있다. As an object within the custom area is recognized through the AR view by a user terminal located in a preset custom area within the space, a method of displaying preset VR content in association with the recognized object may be provided.
객체에 대해 보다 상세하고 풍부한 정보를 사용자 단말에 제공하기 위해, 커스텀 영역에 내의 객체와 연관된 VR 콘텐츠를 AR 뷰를 통해 표시할 수 있다.In order to provide more detailed and rich information about the object to the user terminal, VR content related to the object in the custom area can be displayed through an AR view.
사용자 단말이 기 설정된 커스텀 영역에 위치하게 된 때, 해당 커스텀 영역에 대해 정의된 시나리오 조건에 따라, 객체 인식을 위한 모듈의 실행을 포함하는 사용자 단말의 설정을 제어할 수 있다. When the user terminal is located in a preset custom area, settings of the user terminal, including execution of a module for object recognition, can be controlled according to scenario conditions defined for the custom area.
커스텀 영역에 대해 다양한 시나리오 조건을 설정하고, 시나리오 조건이 만족되는지 여부에 따라, 사용자 단말에 제공되는 VR 콘텐츠를 다르게 하거나, 사용자 단말에 추가 콘텐츠를 제공할 수 있다.Various scenario conditions can be set for the custom area, and depending on whether the scenario conditions are satisfied, VR content provided to the user terminal may be different or additional content may be provided to the user terminal.
일 측면에 따르면, 서버 또는 사용자 단말인 컴퓨터 시스템에 의해 수행되는 사용자 단말을 제어하는 방법에 있어서, 상기 사용자 단말의 위치에 기반하여, 상기 사용자 단말이 공간 내에서 기 설정된 커스텀 영역에 위치하는지 여부를 판정하는 단계, 상기 사용자 단말이 상기 커스텀 영역 내의 객체를 인식 가능하도록 하는 인식 영역에 상기 사용자 단말이 위치하는지 여부를 판정하는 단계, 상기 사용자 단말이 상기 인식 영역에 위치되면, 상기 사용자 단말의 카메라에 의해 촬영되는 영상을 포함하는 AR 뷰를 통해 상기 객체를 인식하는 단계 및 상기 AR 뷰를 통해 상기 인식된 객체와 연관하여 기 설정된 가상 현실(Virtual Reality; VR) 콘텐츠를 표시하는 단계를 포함하는, 사용자 단말을 제어하는 방법이 제공된다. According to one aspect, in a method of controlling a user terminal performed by a computer system that is a server or a user terminal, based on the location of the user terminal, whether the user terminal is located in a preset custom area in space is determined. Determining whether the user terminal is located in a recognition area that allows the user terminal to recognize an object in the custom area; If the user terminal is located in the recognition area, the camera of the user terminal Recognizing the object through an AR view including an image captured by the user and displaying preset virtual reality (VR) content in association with the recognized object through the AR view. A method for controlling a terminal is provided.
상기 커스텀 영역에는 적어도 하나의 서비스 요소가 연관되어 있고, 상기 서비스 요소는 상기 공간과 연관된 서비스와 관련된(related) 상기 VR 콘텐츠의 표시를 위한 데이터를 포함하고, 상기 커스텀 영역에는 상기 사용자 단말이 상기 커스텀 영역에 위치함에 따라 상기 서비스 요소에 기반하여 상기 사용자 단말을 제어하기 위한 시나리오 조건이 정의되어 있을 수 있다. At least one service element is associated with the custom area, the service element includes data for displaying the VR content related to a service associated with the space, and the user terminal is in the custom area Depending on the location in the area, scenario conditions for controlling the user terminal may be defined based on the service element.
상기 서비스 요소는 상기 사용자 단말에 상기 공간과 연관된 서비스를 제공하기 위해 상기 사용자 단말의 설정을 제어하기 위한 데이터를 포함하고, 상기 사용자 단말을 제어하는 방법은, 상기 사용자 단말이 상기 커스텀 영역에 진입한 때, 상기 시나리오 조건에 따라, 상기 객체를 인식하기 위한 모듈의 실행을 포함하는 상기 사용자 단말의 설정을 제어하는 단계를 더 포함할 수 있다. The service element includes data for controlling the settings of the user terminal to provide the user terminal with a service related to the space, and the method of controlling the user terminal includes when the user terminal enters the custom area. The method may further include controlling settings of the user terminal, including execution of a module for recognizing the object, according to the scenario conditions.
상기 인식 영역에 상기 사용자 단말이 위치하는지 여부를 판정하는 단계는, 상기 AR 뷰 내에 상기 객체가 표시되면 상기 인식 영역에 상기 사용자 단말이 위치하는 것으로 판정할 수 있다. The step of determining whether the user terminal is located in the recognition area may include determining that the user terminal is located in the recognition area when the object is displayed in the AR view.
상기 인식 영역에 상기 사용자 단말이 위치하는지 여부를 판정하는 단계는, 상기 객체와 상기 사용자 단말 간의 거리가 소정의 거리 이하가 되는 조건, 상기 객체가 상기 AR 뷰 내의 특정 영역에서 표시되는 조건 및 상기 AR 뷰의 소정의 비율 이상 상기 객체가 표시되는 조건 중 적어도 하나의 조건이 만족되면, 상기 인식 영역에 상기 사용자 단말이 위치하는 것으로 판정할 수 있다. The step of determining whether the user terminal is located in the recognition area includes a condition that the distance between the object and the user terminal is less than a predetermined distance, a condition that the object is displayed in a specific area in the AR view, and the AR If at least one condition among the conditions for displaying the object more than a predetermined percentage of the view is satisfied, it may be determined that the user terminal is located in the recognition area.
상기 인식 영역은 상기 커스텀 영역 내에 기 정의된 영역이고, 상기 인식 영역에 상기 사용자 단말이 위치하는지 여부를 판정하는 단계는, 상기 사용자 단말의 위치가 기 정의된 상기 인식 영역에 위치하면, 상기 인식 영역에 상기 사용자 단말이 위치하는 것으로 판정할 수 있다. The recognition area is a predefined area within the custom area, and the step of determining whether the user terminal is located in the recognition area includes, if the location of the user terminal is located in the predefined recognition area, the recognition area It may be determined that the user terminal is located in .
상기 사용자 단말을 제어하는 방법은, 상기 사용자 단말이 상기 인식 영역에 진입한 때, 상기 객체를 인식하기 위한 모듈의 실행을 포함하는 상기 사용자 단말의 설정을 제어하는 단계를 더 포함할 수 있다. The method of controlling the user terminal may further include controlling settings of the user terminal including execution of a module for recognizing the object when the user terminal enters the recognition area.
상기 VR 콘텐츠를 표시하는 단계는, 상기 카메라의 시점(viewpoint)의 변화에 따라 시점을 변경하여 상기 VR 콘텐츠를 표시하고, 상기 사용자 단말을 제어하는 방법은, 상기 인식 영역에 상기 사용자 단말이 위치하지 않게 되면, 상기 VR 콘텐츠의 표시를 종료하는 단계를 더 포함할 수 있다. The step of displaying the VR content includes changing the viewpoint according to a change in the viewpoint of the camera to display the VR content, and controlling the user terminal when the user terminal is not located in the recognition area. If not, the step of terminating the display of the VR content may be further included.
상기 VR 콘텐츠를 표시하는 단계는, 상기 VR 콘텐츠를 상기 AR 뷰의 전체 화면에서 표시하고, 상기 VR 콘텐츠는 상기 객체 주변의 가상의 공간을 묘사할 수 있다. In the step of displaying the VR content, the VR content may be displayed on the entire screen of the AR view, and the VR content may depict a virtual space around the object.
상기 가상의 공간은 상기 객체를 중심으로 하는 가상의 구(sphere) 공간으로 표현되는 것일 수 있다. The virtual space may be expressed as a virtual sphere space centered on the object.
상기 가상의 공간은 상기 객체가 위치된 주변 공간의 지오메트리를 반영하여 결정된 가상의 입체 공간으로 표현되는 것일 수 있다. The virtual space may be expressed as a virtual three-dimensional space determined by reflecting the geometry of the surrounding space where the object is located.
상기 시나리오 조건은, 상기 커스텀 영역에 사용자 단말이 위치할 때, 상기 VR 콘텐츠로서, 상기 사용자 단말이 상기 커스텀 영역에 진입하기 전에 상기 사용자 단말이 진입한 다른 커스텀 영역에 기반하여 결정된 VR 콘텐츠가 상기 AR 뷰를 통해 표시되도록 설정되고, 상기 VR 콘텐츠를 표시하는 단계는, 상기 AR 뷰를 통해, 상기 다른 커스텀 영역에 기반하여 결정된 VR 콘텐츠를 표시할 수 있다. The scenario condition is that when the user terminal is located in the custom area, the VR content, which is determined based on another custom area that the user terminal entered before entering the custom area, is the AR. It is set to be displayed through a view, and the step of displaying the VR content may display VR content determined based on the different custom area through the AR view.
상기 시나리오 조건은, 상기 커스텀 영역에 사용자 단말이 위치할 때, 상기 VR 콘텐츠로서, 상기 사용자 단말이 경유한 지점에 기반하여 결정된 VR 콘텐츠가 상기 AR 뷰를 통해 표시되도록 설정되고, 상기 VR 콘텐츠를 표시하는 단계는, 상기 AR 뷰를 통해, 상기 사용자 단말이 경유한 지점에 기반하여 결정된 VR 콘텐츠를 표시할 수 있다. The scenario condition is set so that when the user terminal is located in the custom area, the VR content, which is determined based on the point through which the user terminal passed, is displayed through the AR view, and the VR content is displayed. In the step, VR content determined based on the point passed by the user terminal may be displayed through the AR view.
상기 커스텀 영역의 내부 또는 상기 커스텀 영역의 외부에는 복수의 지점들이 정의되고, 상기 VR 콘텐츠를 표시하는 단계는, 상기 사용자 단말이 상기 복수의 지점들 중 제1 지점을 경유한 경우와 상기 사용자 단말이 상기 복수의 지점들 중 제2 지점을 경유한 경우에, 상기 AR 뷰를 통해, 서로 상이한 VR 콘텐츠를 표시할 수 있다. A plurality of points are defined inside or outside the custom area, and the step of displaying the VR content includes when the user terminal passes through a first point among the plurality of points and the user terminal When passing through a second point among the plurality of points, different VR contents can be displayed through the AR view.
상기 공간에는 복수의 커스텀 영역들이 설정되어 있고, 상기 시나리오 조건은, i) 상기 사용자 단말이 상기 커스텀 영역이 아닌 소정의 다른 커스텀 영역을 경유했는지 여부를 나타내는 제1 시나리오 조건 및 ii) 상기 커스텀 영역에 위치하는 사용자 단말들의 수가 소정의 범위에 해당하는지를 나타내는 제2 시나리오 조건 중 적어도 하나를 포함하고, 상기 시나리오 조건은 상기 시나리오 조건의 만족 여부에 따라, 상기 사용자 단말에 대해 상기 서비스 요소에 기반하여 상기 공간과 연관된 서비스 또는 정보를 상이하게 제공하거나 상기 사용자 단말의 설정을 상이하게 제어하도록 설정되고, 상기 VR 콘텐츠를 표시하는 단계는, 상기 시나리오 조건이 만족되는 경우에만 상기 AR 뷰를 통해 상기 VR 콘텐츠를 표시하거나, 상기 시나리오 조건이 만족되는 경우와 상기 시나리오 조건이 만족되는지 않는 경우 서로 상이한 VR 콘텐츠를 표시할 수 있다. A plurality of custom areas are set in the space, and the scenario conditions include i) a first scenario condition indicating whether the user terminal has passed through a custom area other than the custom area, and ii) a and at least one of a second scenario condition indicating whether the number of user terminals located falls within a predetermined range, wherein the scenario condition determines whether the scenario condition is satisfied or not, and the space is determined based on the service element for the user terminal. is set to provide different services or information related to or to differently control settings of the user terminal, and the step of displaying the VR content includes displaying the VR content through the AR view only when the scenario condition is satisfied. Alternatively, different VR content may be displayed when the scenario conditions are satisfied and when the scenario conditions are not satisfied.
상기 사용자 단말을 제어하는 방법은, 상기 사용자 단말에서, 목적지로의 경로 안내 요청을 수신하는 단계 및 상기 경로 안내 요청에 따라 상기 사용자 단말에 경로 안내를 제공하는 단계를 더 포함하고, 상기 커스텀 영역에 상기 사용자 단말이 위치하는지 여부를 판정하는 단계, 상기 인식 영역에 상기 사용자 단말이 위치하는지 여부를 판정하는 단계, 상기 객체를 인식하는 단계 및 상기 VR 콘텐츠를 표시하는 단계는, 상기 경로 안내에 따라 상기 사용자 단말이 상기 목적지로 이동할 때 수행될 수 있다. The method for controlling the user terminal further includes receiving a route guidance request to a destination from the user terminal and providing route guidance to the user terminal according to the route guidance request, and providing route guidance to the user terminal in the custom area. Determining whether the user terminal is located, determining whether the user terminal is located in the recognition area, recognizing the object, and displaying the VR content include: It may be performed when the user terminal moves to the destination.
상기 시나리오 조건은, 상기 커스텀 영역에 상기 사용자 단말이 진입한 횟수에 기반하여 결정된 VR 콘텐츠가 상기 AR 뷰를 통해 표시되도록 설정되고, 상기 VR 콘텐츠를 표시하는 단계는, 상기 AR 뷰를 통해, 상기 커스텀 영역에 상기 사용자 단말이 진입한 횟수에 기반하여 결정된 VR 콘텐츠를 표시할 수 있다. The scenario condition is set so that VR content determined based on the number of times the user terminal has entered the custom area is displayed through the AR view, and the step of displaying the VR content includes displaying the VR content through the AR view. VR content determined based on the number of times the user terminal has entered the area may be displayed.
다른 일 측면에 있어서, 사용자 단말 또는 서버를 구현하는 컴퓨터 시스템에 있어서, 메모리에 포함된 컴퓨터 판독 가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 사용자 단말의 위치에 기반하여, 상기 사용자 단말이 공간 내에서 기 설정된 커스텀 영역에 위치하는지 여부를 판정하고, 상기 사용자 단말이 상기 커스텀 영역 내의 객체를 인식 가능하도록 하는 인식 영역에 상기 사용자 단말이 위치하는지 여부를 판정하고, 상기 사용자 단말이 상기 인식 영역에 위치되면, 상기 사용자 단말의 카메라에 의해 촬영되는 영상을 포함하는 AR 뷰를 통해 상기 객체를 인식하고, 상기 AR 뷰를 통해 상기 인식된 객체와 연관하여 기 설정된 가상 현실(Virtual Reality; VR) 콘텐츠를 표시하는, 컴퓨터 시스템이 제공된다. In another aspect, a computer system implementing a user terminal or a server, comprising at least one processor configured to execute computer-readable instructions included in a memory, wherein the at least one processor is configured to determine the location of the user terminal. Based on, determine whether the user terminal is located in a preset custom area in the space, determine whether the user terminal is located in a recognition area that allows the user terminal to recognize objects in the custom area, and , when the user terminal is located in the recognition area, the object is recognized through an AR view including an image captured by the camera of the user terminal, and a preset virtual object is associated with the recognized object through the AR view. A computer system is provided that displays Virtual Reality (VR) content.
공간의 지도 상에서 2차원 공간 또는 3차원 공간으로 커스텀 영역을 정의하고, 커스텀 영역에 서비스 요소를 연관시키고 서비스 요소에 기반하여 공간과 연관된 서비스 또는 정보를 제공하거나 사용자 단말의 설정을 제어하기 위한 시나리오를 정의함으로써, 시나리오에 따라 사용자 단말을 제어하기 위한 커스텀 영역을 생성할 수 있다. Define a custom area as a two-dimensional or three-dimensional space on a map of the space, associate service elements with the custom area, and create scenarios to provide services or information related to the space or control settings of the user terminal based on the service elements. By defining it, you can create a custom area to control the user terminal according to the scenario.
사용자 단말이 기 설정된 커스텀 영역에 위치하게 된 때, 해당 커스텀 영역에 대해 정의된 시나리오 조건에 따라 객체 인식을 위한 모듈이 실행되어 커스텀 영역 내의 객체가 인식됨으로써, 사용자 단말 및 사용자 단말이 통신하는 서버에서의 불필요한 리소스의 사용이 방지될 수 있다. When the user terminal is located in a preset custom area, a module for object recognition is executed according to the scenario conditions defined for the custom area, and objects in the custom area are recognized, so that the user terminal and the server with which the user terminal communicates The use of unnecessary resources can be prevented.
커스텀 영역에 내의 객체와 연관된 VR 콘텐츠가 AR 뷰를 통해 표시됨으로써, 객체에 대해 보다 상세하고 풍부한 정보가 사용자 단말에 제공될 수 있고, 사용자 단말의 사용자에게 몰입적인 경험을 제공할 수 있다. By displaying VR content related to an object in the custom area through an AR view, more detailed and rich information about the object can be provided to the user terminal, and an immersive experience can be provided to the user of the user terminal.
커스텀 영역에 대해 다양한 시나리오 조건을 설정하고, 시나리오 조건이 만족되는지 여부에 따라, 사용자 단말에 제공되는 VR 콘텐츠를 다르게 하거나, 사용자 단말에 추가 콘텐츠를 제공함으로써, 콘텐츠 제공의 효용성을 높일 수 있다.The effectiveness of content provision can be increased by setting various scenario conditions for the custom area and varying VR content provided to the user terminal or providing additional content to the user terminal depending on whether the scenario conditions are satisfied.
도 1a는 일 실시예에 따른, 기 설정된 커스텀 영역에 사용자 단말이 위치함에 기반하여, 사용자 단말을 제어하는 방법을 나타낸다.
도 1b는 일 실시예에 따른, 기 설정된 커스텀 영역에 사용자 단말이 위치하고 커스텀 영역 내의 객체가 인식됨에 따라, 사용자 단말이 VR 콘텐츠를 표시하도록 사용자 단말을 제어하는 방법을 나타낸다.
도 2는 일 실시예에 따른, 사용자 단말을 제어하는 방법을 수행하는 컴퓨터 시스템을 나타낸다.
도 3은 일 실시예에 따른, 기 설정된 커스텀 영역에 사용자 단말이 위치하고 커스텀 영역 내의 객체가 인식됨에 따라, 사용자 단말이 VR 콘텐츠를 표시하도록 사용자 단말을 제어하는 방법을 나타내는 흐름도이다.
도 4는 일 예에 따른, 사용자 단말이 커스텀 영역 내의 객체를 인식 가능하도록 하는 인식 영역에 진입함에 따라, 사용자 단말의 설정을 제어하는 방법을 나타내는 흐름도이다.
도 5a는 일 예에 따른, 기 설정된 커스텀 영역에 사용자 단말이 위치함에 기반하여, 사용자 단말의 설정을 제어하는 방법을 나타낸다.
도 5b는 일 예에 따른, 기 설정된 커스텀 영역에 사용자 단말이 위치함에 기반하여, 사용자 단말에 VR 콘텐츠를 제공하는 방법을 나타낸다.
도 6은 일 예에 따른, 커스텀 영역 내의 객체와 연관된 AR 콘텐츠를 정의하는 방법을 나타낸다.
도 7은 일 예에 따른, 커스텀 영역 내의 객체와 연관된 VR 콘텐츠를 정의하는 방법을 나타낸다.
도 8은 일 예에 따른, 커스텀 영역 내의 객체와 연관된 AR 콘텐츠 및 VR 콘텐츠를 정의하는 방법을 나타낸다.
도 9는 일 예에 따른, 3차원 공간으로 정의된 커스텀 영역을 나타낸다.
도 10은 일 예에 따른, 사용자 단말의 DoF (Degree Of Freedom)를 나타낸다.
도 11은 일 예에 따른, 복수의 지점들을 포함하는 커스텀 영역을 나타낸다.
도 12는 일 예에 따른, 공간에 복수의 커스텀 영역들이 설정되고, 각 커스텀 영역에 대해 사용자 단말의 제어를 위한 시나리오 조건이 설정되는 방법을 나타낸다. FIG. 1A illustrates a method of controlling a user terminal based on the user terminal being located in a preset custom area, according to an embodiment.
FIG. 1B illustrates a method of controlling the user terminal to display VR content when the user terminal is located in a preset custom area and an object in the custom area is recognized, according to one embodiment.
Figure 2 shows a computer system that performs a method for controlling a user terminal, according to one embodiment.
Figure 3 is a flowchart showing a method of controlling the user terminal to display VR content when the user terminal is located in a preset custom area and an object in the custom area is recognized, according to an embodiment.
FIG. 4 is a flowchart illustrating a method of controlling settings of a user terminal as the user terminal enters a recognition area that enables recognition of objects in a custom area, according to an example.
FIG. 5A illustrates a method of controlling settings of a user terminal based on the user terminal being located in a preset custom area, according to an example.
FIG. 5B illustrates a method of providing VR content to a user terminal based on the user terminal being located in a preset custom area, according to an example.
Figure 6 shows a method of defining AR content associated with an object in a custom area, according to one example.
7 illustrates a method of defining VR content associated with an object in a custom area, according to one example.
Figure 8 shows a method of defining AR content and VR content associated with an object in a custom area, according to an example.
Figure 9 shows a custom area defined in three-dimensional space, according to an example.
Figure 10 shows the DoF (Degree Of Freedom) of a user terminal, according to an example.
Figure 11 shows a custom area including a plurality of points, according to an example.
Figure 12 shows a method in which a plurality of custom areas are set in a space and scenario conditions for controlling a user terminal are set for each custom area, according to an example.
이하, 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings.
도 1은 일 실시예에 따른, 기 설정된 커스텀 영역에 사용자 단말이 위치함에 기반하여, 사용자 단말을 제어하는 방법을 나타낸다. Figure 1 shows a method of controlling a user terminal based on the user terminal being located in a preset custom area, according to an embodiment.
후술될 실시예들에 있어서의 사용자 단말(100)의 "제어"는, 예컨대, 도 1에서 도시된 것처럼, 사용자 단말(100)의 AR 뷰(10)를 사용하여 AR 뷰(10)의 영상에 공간(5)과 연관된 서비스나 정보를 나타내는 콘텐츠(예컨대, AR 콘텐츠(30) 등)를 증강하여 표시하는 것; 사용자 단말(100)에 공간(5)과 연관된 서비스와 관련된 사용자 인터페이스(User Interface; UI)를 표시하는 것; 사용자 단말(100)의 지도(또는 지도 뷰(20))에서 공간(5)과 연관된 서비스와 관련된 지도 요소 콘텐츠(35)를 표시하는 것; 사용자 단말(100)에 공간(5)과 연관된 서비스를 제공하기 위해 사용자 단말(100)의 설정을 제어하는 것 중 적어도 하나를 포함할 수 있다. 또한, 본 개시의 실시예들에 있어서의 사용자 단말의 "제어"는, 상기의 예시들에 한정되지 않는, 사용자 단말의 기능 및/또는 동작을 제어하는 것을 포함할 수 있다. “Control” of the
실시예들에 있어서의 증강 콘텐츠의 제공과 관련되는 '공간(5)'은 실내의 공간 및/또는 실외의 공간을 나타낼 수 있다. 말하자면, 후술될 공간(5)은 실내의 위치 또는 실외의 위치를 포함하는 공간으로서 정의될 수 있고, 또한, 실내 공간과 실외 공간이 결합된 복합 공간으로 정의될 수도 있다. 공간(5)은 콘텐츠의 제공을 포함하는 서비스를 제공하기 위한 서비스 대상 영역의 적어도 일부일 수 있다.'Space 5' related to the provision of augmented content in embodiments may represent an indoor space and/or an outdoor space. In other words, the
후술될 상세한 설명에서, 사용자 단말(100)을 소지한 사용자의 위치는 설명의 편의상 사용자 단말(100)의 위치로 설명될 수도 있다. 또한, 설명의 편의상 '사용자'와 사용자가 소지한 '사용자 단말(100)'은 혼용하여 사용될 수 있다. In the detailed description to be described later, the location of the user holding the
후술될 상세한 설명에서, 콘텐츠 및/또는 정보(예컨대, 인디케이터 등)를 영상에 "증강하여 표시"하는 것은 실시예에 따라 해당 콘텐츠 및/또는 정보를 AR 뷰의 영상/화면 상에서 중첩하여 표시하는 것을 포괄하는 의미로 해석될 수 있다. In the detailed description to be described later, “augmented and displaying” content and/or information (e.g., indicators, etc.) on an image refers to overlapping and displaying the corresponding content and/or information on the video/screen of the AR view, depending on the embodiment. It can be interpreted in an inclusive sense.
도시된 것처럼, 스마트 폰과 같은 사용자 단말(100)은 카메라를 사용하여 주변을 촬영할 수 있고, 카메라에 의해 촬영되는 영상을 포함하는 AR 뷰(10)를 통해 AR 콘텐츠(30)를 표시할 수 있다. AR 콘텐츠(30)는 공간(5) 내에 존재하는 객체와 연관된 것일 수 있다. 이러한 AR 콘텐츠(30)는 해당 객체(또는 객체를 나타내는 노드)에 대해 매핑된 것일 수도 있다. As shown, a
도시된 공간(5)의 지도 상에는 적어도 하나의 커스텀 영역이 정의될 수 있다. 도시된 예시에서는 제1 커스텀 영역(60) 및 제2 커스텀 영역(70) 총 2개의 커스텀 영역들이 정의되었다. 각 커스텀 영역(60, 70)에는 적어도 하나의 서비스 요소가 연관될 수 있다. 또한, 각 커스텀 영역(60, 70)에는 해당 서비스 요소에 기반하여 공간(5)과 연관된 서비스 또는 정보를 제공하거나 사용자 단말(100)의 설정을 제어하기 위한 시나리오가 정의될 수 있다. 상기 서비스 또는 정보는 광고나 마케팅을 위한 정보를 포함할 수도 있다. 이러한 시나리오는 사용자 단말(100)을 제어하기 위한 조건(즉, 시나리오 조건)을 포함할 수 있다. '커스텀 영역(60, 70)'은 서버(200) 상에서 미리 설정된 것일 수 있다. 예컨대, 서버(200) 상에서, 공간(5)의 적어도 일부의 영역 또는 공간(5)의 구분되는 부분 영역이 '커스텀 영역(60, 70)'으로서 설정되어 있을 수 있다. At least one custom area may be defined on the map of the
각 커스텀 영역(60, 70)을 정의하고, 서비스 요소 및 시나리오를 커스텀 영역(60, 70)과 연관시켜 커스텀 영역(60, 70)을 설정(생성)하는 방법에 대해서는 후술한다. A method of defining each custom area (60, 70) and establishing (creating) the custom areas (60, 70) by associating service elements and scenarios with the custom areas (60, 70) will be described later.
실시예에서는, 사용자 단말(100)의 위치에 기반하여 사용자 단말(100)이 공간(5) 내의 제1 커스텀 영역(60)에 위치하는지 여부가 판정될 수 있고, 사용자 단말(100)이 제1 커스텀 영역(60)에 위치하는 것으로 판정된 경우, 커스텀 영역(60)과 연관된 서비스 요소에 기반하여, 사용자 단말(100)의 AR뷰(10)에는 AR 콘텐츠(30)가 표시될 수 있다. 예컨대, 사용자 단말(100)이 제1 커스텀 영역(60)에 진입하게 되면 AR 뷰(10)에는 객체 '금속 활자'와 연관된 AR 콘텐츠(30)가 표시될 수 있다. 이 때, 지도 뷰(20)에는 사용자 단말(100)의 현재 위치(50)가 표시될 수 있다. 현재 위치(50)는 공간(5) 상의 위치(50')에 해당할 수 있다. 도시된 실시예에서는, 사용자 단말(100)이 제1 커스텀 영역(60)에 진입하게 된 때, 제1 커스텀 영역(60) 외부에 존재하는 객체인 "금속 활자"와 연관된 AR 콘텐츠(30)가 표시되는 예시가 도시되었으나, 제1 커스텀 영역(60)과 연관된 서비스 요소에 따라서는, 사용자 단말(100)이 제1 커스텀 영역(60)에 진입하게 된 때, 제1 커스텀 영역(60) 내부에 존재하는 객체, 예컨대, "수령옹주 묘지명" 등과 연관된 다른 AR 콘텐츠가 표시될 수도 있다. In an embodiment, it may be determined whether the
한편, 다른 실시예에서는, 사용자 단말(100)의 위치에 기반하여 사용자 단말(100)이 제1 커스텀 영역(60)으로부터 벗어나는 경우 등 제1 커스텀 영역(60)에 정의된 시나리오 조건에 따라, AR뷰(10)에는 다른 형태의 콘텐츠가 표시되거나, 적절한 UI가 제공되거나, 적절한 지도 요소 콘텐츠가 표시되거나, 적절한 사용자 단말(100)의 설정 변경이 이루어질 수도 있다. Meanwhile, in another embodiment, according to scenario conditions defined in the
사용자 단말(100)의 화면에서 AR 뷰(10)와 함께 표시되는 지도 뷰(20)는, AR 뷰(10)의 영상에 매칭되는 지도를 포함할 수 있다. 지도 뷰(20)는 사용자 단말(100)의 현재 위치(50)를 포함할 수 있다. 지도 뷰(20)는 2차원 지도 또는 3차원 지도를 포함할 수 있다. 지도 뷰(20)는 사용자 단말(100)이 이동하는 공간(5) 내의 객체를 포함할 수 있다. 지도 뷰(20)에는 AR 콘텐츠(30)에 대응하여 지도 요소 콘텐츠(35)가 표시될 수 있다. 지도 요소 콘텐츠(35)는 AR 뷰(10)에서 AR 콘텐츠(30)가 표시될 때, 또는, 지도 뷰(20) 내에 AR 콘텐츠(30)와 연관된 객체가 포함될 때 표시될 수 있다.The
사용자 단말(100)은 커스텀 영역(60, 70)에 대한 진출입에 의한 제어를 위해 서버(200)와 통신할 수 있다. 예컨대, 서버(200)는, 사용자 단말(100)이 위치하는 커스텀 영역(60, 70)과 연관된 서비스 요소에 기반하여 사용자 단말(100)이 제어되도록 할 수 있다. The
서버(200)는 공간(5)에 대해 정의된 커스텀 영역(60, 70)을 관리하는 컴퓨터 시스템으로서, 커스텀 영역(60, 70)에 대해 서비스 요소의 연관과 시나리오의 정의 등을 관리하는 서버일 수 있다. 또한, 서버(200)는 디지털 지도(3D 지도 및/또는 2D)를 제공하는 맵 서버일 수 있다. The
후술될 도 1b 내지 도 14를 참조하여서는, 커스텀 영역(60, 70)에 사용자 단말(100)아 위치함에 따라 사용자 단말(100)을 제어하는 보다 구체적인 방법으로서, 사용자 단말(100)에 대해 가상 현실(Virtual Reality; VR) 콘텐츠를 제공하는 방법에 대해 더 자세하게 설명된다. 1B to 14, which will be described later, as a more specific method of controlling the
도 1b는 일 실시예에 따른, 기 설정된 커스텀 영역에 사용자 단말이 위치하고 커스텀 영역 내의 객체가 인식됨에 따라, 사용자 단말이 VR 콘텐츠를 표시하도록 사용자 단말을 제어하는 방법을 나타낸다. FIG. 1B illustrates a method of controlling the user terminal to display VR content when the user terminal is located in a preset custom area and an object in the custom area is recognized, according to one embodiment.
도 1b에서는, 사용자 단말(100)이 경로 안내에 따라 이동하는 중에 커스텀 영역(60, 70) 내에 진입하고, 객체(105)를 인식한 경우에 AR 뷰(10)에서 인식된 객체(105)와 연관하여 VR 콘텐츠(107)를 표시하는 방법이 도시되었다.In FIG. 1B, when the
도시된 지도(101, 102)는 전술한 지도 뷰(20)에 대응할 수 있다. 지도 뷰(101)에는 소정의 목적지로의 경로 안내를 위한 경로(132)가 표시될 수 있다. 사용자 단말(100)은 경로(132)를 따라 이동할 수 있고, 커스텀 영역(60, 70)에 진입한 후 객체(105)를 인식할 수 있다. 객체(105)가 인식되면, AR 뷰(10)에서는 인식된 객체(105)와 연관하여 VR 콘텐츠(107)가 표시될 수 있다. The maps 101 and 102 shown may correspond to the
또한, 도 1b에서는, 경로 안내와는 무관하게, 사용자 단말(100)이 이동하는 중에 커스텀 영역(60, 70) 내에 진입하고, 객체(105)를 인식한 경우에 AR 뷰(10)에서 인식된 객체(105)와 연관하여 VR 콘텐츠(107)를 표시하는 방법이 도시되었다. In addition, in FIG. 1B, regardless of route guidance, when the
객체(105)는 공간(5) 내에 배치된 것으로서, 예컨대, 공간(5)이 박물관인 경우에 있어서 박물관에서 전시되는 전시물일 수 있다. 도시된 예시에서 객체(105)는 "진흥왕 순수비"일 수 있다. The object 105 is disposed in the
도 1a에서와는 다르게, 사용자 단말(100)은 단순히 객체(105)와 연관된 AR 콘텐츠(30)를 표시하는 것에 그치지 않고, 사용자에게 보다 몰입감을 제공할 수 있도록 VR 콘텐츠(107)를 AR 뷰(10)를 통해 표시할 수 있다. VR 콘텐츠(107)는 AR 콘텐츠(30)에 비해 연관된 객체(105)에 관해 보다 풍부한 정보를 제공할 수 있다. 예컨대, VR 콘텐츠(107)는 AR 콘텐츠와, 객체(105)와 관련된 배경, 예컨대, 객체 주변의 배경을 묘사하는 환경 콘텐츠를 포함할 수 있다. Unlike in FIG. 1A, the
VR 콘텐츠(107)는, 커스텀 영역(60, 70)과 연관된 서비스 요소와 커스텀 영역(60, 70)에 대해 정의된 시나리오 조건에 기반하여, AR 뷰(10)에서 표시될 수 있다. VR content 107 may be displayed in the
VR 콘텐츠(107)에 대한 보다 자세한 내용과, 사용자 단말(100)을 제어하여 AR 뷰(10)에서 VR 콘텐츠(107)를 표시하는 보다 구체적인 방법에 대해서는 후술될 도 2 내지 도 12를 참조하여 더 자세하게 설명된다. For more detailed information about the VR content 107 and a more specific method of controlling the
도 2는 일 실시예에 따른, 사용자 단말을 제어하는 방법을 수행하는 컴퓨터 시스템과 서버를 나타낸다. Figure 2 shows a computer system and a server that perform a method for controlling a user terminal, according to one embodiment.
실시예들에 따른 도 1를 참조하여 전술한 사용자 단말(100)은 도시된 컴퓨터 시스템(2)을 통해 구현될 수 있다. 예를 들어, 컴퓨터 시스템(2)에는 실시예의 방법을 구현하기 위한 컴퓨터 프로그램이 설치 및 구동될 수 있고, 이러한 컴퓨터 시스템(2)은 구동된 컴퓨터 프로그램의 제어에 따라 실시예들에 따른 증강 콘텐츠 제공 방법을 수행할 수 있다.The
실시예들에 따른 사용자 단말(100)을 제어하는 방법은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션을 통해 수행될 수 있다. 예컨대, 실시예들에 따른 사용자 단말(100)을 제어하는 방법은 독립적으로 동작하는 프로그램 형태로 구현되거나, 혹은 특정 어플리케이션의 인-앱(in-app) 형태로 구성되어 상기 특정 어플리케이션 상에서 동작이 가능하도록 구현될 수 있다. 이러한 특정 어플리케이션은, 예컨대, 컴퓨터 시스템(2) 상에 설치되어 AR 뷰(10)를 통해 VR 콘텐츠(107)를 제공함으로써, 실시예의 사용자 단말(100)을 제어하는 방법을 수행할 수 있다.The method of controlling the
컴퓨터 시스템(2)은 전술한 사용자 단말(100)에 해당하는 전자 장치로서, 도 1에서 도시된 것과 같이 어플리케이션 또는 프로그램을 설치 및 실행할 수 있는 스마트폰 및 이와 유사한 장치일 수 있다. 또한, 컴퓨터 시스템(2)은 PC(personal computer), 노트북 컴퓨터(laptop computer), 랩탑 컴퓨터(laptop computer), 태블릿(tablet), 사물 인터넷(Internet Of Things) 기기, 또는 웨어러블 컴퓨터(wearable computer) 등일 수 있다.The
도시된 것처럼, 컴퓨터 시스템(2)은 사용자 단말(100)을 제어하는 방법을 실행하기 위한 구성요소로서 메모리(110), 프로세서(120), 통신 인터페이스(130) 및 입출력 인터페이스(140)를 포함할 수 있다.As shown, the
메모리(110)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(110)와는 구분되는 별도의 영구 저장 장치로서 컴퓨터 시스템(2)에 포함될 수도 있다. 또한, 메모리(110)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(110)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 메모리(110)로 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 인터페이스(130)를 통해 메모리(110)에 로딩될 수도 있다. 예를 들어, 소프트웨어 구성요소들은 네트워크(160)를 통해 수신되는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 컴퓨터 시스템(2)의 메모리(110)에 로딩될 수 있다.The memory 110 is a computer-readable recording medium and may include a non-permanent mass storage device such as random access memory (RAM), read only memory (ROM), and a disk drive. Here, non-perishable large-capacity recording devices such as ROM and disk drives may be included in the
프로세서(120)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(110) 또는 통신 인터페이스(130)에 의해 프로세서(120)로 제공될 수 있다. 예를 들어 프로세서(120)는 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다. The processor 120 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations. Commands may be provided to the processor 120 by the memory 110 or the communication interface 130. For example, the processor 120 may be configured to execute received instructions according to program codes stored in a recording device such as memory 110.
즉, 프로세서(120)는 컴퓨터 시스템(2)의 구성 요소들을 관리할 수 있고, 컴퓨터 시스템(2)이 사용하는 프로그램 또는 어플리케이션을 실행할 수 있다. 예컨대, 프로세서(120)는 실시예의 사용자 단말(100)을 제어하는 방법을 수행하기 위한 어플리케이션을 실행하고, 사용자 단말(100)을 제어하기 위해 서버(200)로부터 수신된 데이터(예컨대, AR 뷰(10)를 통해 AR 콘텐츠(30)를 제공하기 위해 서버(200)로부터 수신한 데이터)를 처리하도록 구성될 수 있다. 또한, 프로세서(120)는 프로그램 또는 어플리케이션의 실행 및 데이터의 처리 등에 필요한 연산을 처리할 수 있으며, 컴퓨터 시스템(2)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다.That is, the processor 120 can manage the components of the
통신 인터페이스(130)는 네트워크(160)를 통해 컴퓨터 시스템(2)이 다른 컴퓨터 시스템(미도시)과 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 컴퓨터 시스템(2)의 프로세서(120)가 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이나 명령, 데이터, 파일 등이 통신 인터페이스(130)의 제어에 따라 네트워크(160)를 통해 다른 컴퓨터 시스템으로 전달될 수 있다. 역으로, 다른 컴퓨터 시스템으로부터의 신호나 명령, 데이터, 파일 등이 네트워크(160)를 거쳐 컴퓨터 시스템(2)의 통신 인터페이스(130)를 통해 컴퓨터 시스템(2)으로 수신될 수 있다. 통신 인터페이스(130)를 통해 수신된 신호나 명령, 데이터 등은 프로세서(120)나 메모리(110)로 전달될 수 있고, 파일 등은 컴퓨터 시스템(2)이 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다. 일례로, 통신 인터페이스(130)는 컴퓨터 시스템(2)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.The communication interface 130 may provide a function for the
입출력 인터페이스(140)는 입출력 장치(150)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로, 입출력 인터페이스(140)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(150)는 컴퓨터 시스템(2)과 하나의 장치로 구성될 수도 있다.The input/output interface 140 may be a means for interfacing with the input/output device 150. For example, input devices may include devices such as a microphone, keyboard, or mouse, and output devices may include devices such as displays and speakers. As another example, the input/output interface 140 may be a means for interfacing with a device that integrates input and output functions, such as a touch screen. The input/output device 150 may be composed of a single device with the
또한, 다른 실시예들에서 컴퓨터 시스템(2)은 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요는 없다. 예를 들어, 컴퓨터 시스템(2)은 상술한 입출력 인터페이스(140)와 연결되는 입출력 장치들 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 컴퓨터 시스템(2)이 스마트폰과 같은 모바일 기기의 형태로 구현되는 경우, 일반적으로 모바일 기기가 포함하고 있는 카메라, 가속도 센서나 자이로 센서, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 컴퓨터 시스템(2)에 더 포함되도록 구현될 수 있다. Additionally, in other
예컨대, 사용자 단말(100)에 해당하는 컴퓨터 시스템(2)은 AR 뷰(10)를 실행하기 위해 주위를 촬영하는 카메라를 포함할 수 있다. 컴퓨터 시스템(2)은 카메라를 통해 촬영된 영상을 AR 뷰(10)로서 표시할 수 있고, AR 뷰(10)의 영상에 증강하여 AR 콘텐츠(30)와 VR 콘텐츠(107)를 표시할 수 있다. 예컨대, 컴퓨터 시스템(2)은 측위에 따라 사용자 단말(100)이 기 설정된 커스텀 영역(60, 70)에 위치하는지 여부를 판정하고, 사용자 단말(100)이 커스텀 영역(60, 70)에 내의 객체(105)를 인식하는 경우, AR 뷰(10)에서 인식된 객체(105)와 연관하여 VR 콘텐츠(107)를 표시할 수 있다. 사용자 단말(100)의 측위에는 비주얼 로컬라이제이션(visual localization) 또는 VPS (Visual Positioning System)에 의한 방법이 사용될 수 있다. 또는, 사용자 단말(100)의 측위에는 마커를 인식하는 것에 의한 방법, GPS를 사용하는 방법, WPS (Wi-Fi Positioning System)를 사용하는 방법, 블루투스 모듈을 사용하는 방법, 오도메트리(Odometry)를 사용하는 방법 등이 사용될 수 있다.For example, the
한편, 컴퓨터 시스템(2)이 커스텀 영역(60, 70)에 위치하는지 여부와 객체(105)를 인식하는지 여부를 판정하는 실질적인 동작은 컴퓨터 시스템(2)이 아닌 서버(200)에 의해 수행될 수도 있다. 서버(200)는 컴퓨터 시스템(2)과 통신하여, 컴퓨터 시스템(2)에 대해 사용자 단말(100)의 제어를 위한 데이터를 제공하고, 이에 따라, 사용자 단말(100)이 제어될 수 있도록 하는 전자 장치일 수 있다. 서버(200)는 컴퓨터 시스템(2)에 대해 제공될 데이터 및 콘텐츠와, 커스텀 영역(60, 70)을 관리(등록, 변경, 삭제, 저장, 유지 등)하는 장치로서 데이터베이스를 포함하거나, 이러한 데이터베이스와 통신할 수 있다. 또한, 서버(200)는 디지털 지도(3D 지도 및/또는 2D)를 제공하는 맵 서버이거나 이러한 맵 서버를 포함할 수 있다. 서버(200)는 적어도 하나의 컴퓨터 시스템을 포함할 수 있다. 서버(200)가 포함하는 컴퓨터 시스템은 전술된 컴퓨터 시스템(2)과 유사한 구성들을 포함할 수 있고, 이에 대해 중복되는 설명은 생략한다.Meanwhile, the actual operation of determining whether the
후술될 상세한 설명에서는, 설명의 편의상 사용자 단말(100)에 해당하는 컴퓨터 시스템(2)을 중심으로 실시예들을 설명하고, 서버(200)와의 통신 및 서버(200) 측에서의 동작은 설명을 간략히 하거나 생략하는 경우가 있다. 또한, 설명의 편의상 컴퓨터 시스템(2)(또는, 서버(200))의 구성(예컨대, 프로세서 등)에 의해 수행되는 동작들(단계들)을 컴퓨터 시스템(2)(또는, 서버(200))에 의해 수행되는 것으로 기재할 수 있다. In the detailed description to be described later, for convenience of explanation, embodiments will be described focusing on the
이상 도 1을 참조하여 전술된 기술적 특징에 대한 설명은, 도 2에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.The description of the technical features described above with reference to FIG. 1 can also be applied to FIG. 2 , so overlapping descriptions will be omitted.
도 3은 일 실시예에 따른, 기 설정된 커스텀 영역에 사용자 단말이 위치하고 커스텀 영역 내의 객체가 인식됨에 따라, 사용자 단말이 VR 콘텐츠를 표시하도록 사용자 단말을 제어하는 방법을 나타내는 흐름도이다. Figure 3 is a flowchart showing a method of controlling the user terminal to display VR content when the user terminal is located in a preset custom area and an object in the custom area is recognized, according to an embodiment.
도 3을 참조하여, 컴퓨터 시스템(2)에 의해 수행되는 사용자 단말(100)을 제어하는 방법에 대해 설명한다. 컴퓨터 시스템(2)은 도 1을 참조하여 전술된 사용자 단말(100)일 수 있는 바, 후술될 상세한 설명에서는, 컴퓨터 시스템(2) 대신에 사용자 단말(100)과 서버(200)의 용어를 사용하여 실시예를 설명한다.Referring to FIG. 3, a method for controlling the
또한, 후술될 단계들(302 내지 350)과 도 4를 참조하여 설명되는 단계들 중 적어도 일부는 사용자 단말(100)이 아닌 서버(200)에 의해 수행되도록 구성될 수도 있다. 아래에서는 사용자 단말(100)을 중심으로 단계들의 수행에 관해 설명하고, 서버(200)에 관한 중복되는 설명은 생략하는 경우가 있다. In addition, at least some of the
단계(310)에서, 사용자 단말(100) 또는 서버(200)는, 사용자 단말(100)의 위치에 기반하여, 사용자 단말(100)이 공간(5) 내에서 기 설정된 커스텀 영역(60, 70)에 위치하는지 여부를 판정할 수 있다. 커스텀 영역(60, 70)은 공간(5) 내에서 절대 좌표계에 기반하여 정의된 영역일 수 있다. 커스텀 영역(60, 70)은 커스텀 영역은 적어도 하나의 서비스 요소와 연관될 수 있다. 사용자 단말(100)은, 예컨대, GPS, VPS (Visual Positioning System) 및 WPS (Wi-Fi Positioning System)중 적어도 하나에 기반한 방식을 통해 사용자 단말(100)의 위치를 결정할 수 있고, 결정된 위치에 기반하여 사용자 단말(100)이 커스텀 영역(60, 70)에 위치하는지 여부를 판정하거나, 커스텀 영역(60, 70)에 진입하는지 또는 커스텀 영역(60, 70)으로부터 벗어나는지를 판정할 수 있다. 또는, 서버(200)는 사용자 단말(100)의 결정된 위치를 수신할 수 있고, 수신된 위치에 따라, 사용자 단말(100)이 커스텀 영역(60, 70)에 위치하는지, 또는, 커스텀 영역(60, 70)에 대해 진입 또는 진출하는지를 판정할 수 있다.In
단계(320)에서, 사용자 단말(100) 또는 서버(200)는, 사용자 단말(100)이 커스텀 영역(60, 70) 내의 객체(105)를 인식 가능하도록 하는 인식 영역에, 사용자 단말(100)이 위치하는지 여부를 판정할 수 있다. In
단계(330)에서, 사용자 단말(100)은, 커스텀 영역(60, 70) 내의 객체(105)를 인식할 수 있다. 말하자면, 사용자 단말(100)은 인식 영역에서 객체(105)를 인식할 수 있다. 객체(105)는 객체(105)의 인식을 위한 모듈에 의해 인식될 수 있다. 객체(105)의 인식을 위한 모듈은, 예컨대, VOT (Vision Object Tracking)을 위한 모듈일 수 있다. 또는, 객체(105)의 인식을 위한 모듈은 사용자 단말(100)의 스마트 렌즈를 이용하는 객체(105)의 인식을 위해 사용되는 구성일 수 있다. 이러한 모듈은 프로세서(120)의 일부이거나, 사용자 단말(100) 내에 별도로 구현된 것일 수 있다. 또한, 이러한 모듈은 프로세서(120)가 실행하는 소프트웨어 모듈일 수 있다. In
객체(105)는 AR 뷰(10)를 통해 인식될 수 있다. 예컨대, AR 뷰(10)에 포함되는 카메라에 의해 촬영되는 영상에 객체(105)가 포함될 때, 객체(105)는 인식될 수 있다.The object 105 may be recognized through the
단계(340)에서, 사용자 단말(100)은, AR 뷰(10)를 통해, 단계(330)에서 인식된 객체(105)와 연관하여 기 설정된 VR 콘텐츠(107)를 표시할 수 있다. VR 콘텐츠(107)는 360도 콘텐츠일 수 있다. 예컨대, VR 콘텐츠(107)는 파노라마 영상(imgae)을 포함할 수 있다. VR 콘텐츠(107)는 객체(105)를 묘사하는 AR 콘텐츠와 객체(105)와 관련된 배경, 예컨대, 객체 주변의 배경을 묘사하는 환경 콘텐츠를 포함할 수 있다. VR 콘텐츠(107)는 공간(5)의 객체(105)에 해당하는 위치에 정의된 노드에 연관된 것일 수 있다. In step 340, the
사용자의 몰입감을 증가시키기 위해, 사용자 단말(100)은 VR 콘텐츠(107)를 AR 뷰(10)의 전체 화면에서 표시할 수 있다. 이러한 VR 콘텐츠(107)는 객체(105) 주변의 가상의 공간을 묘사할 수 있다. 예컨대, 객체(105)가 "진흥왕 순수비"인 경우, 객체(105) 주변의 가상의 공간을 묘사하는 환경 콘텐츠는 진흥왕 순수비가 위치하는 지리적 환경을 묘사할 수 있다. 환경 콘텐츠는 도 1b에서 도시되고 있는 것처럼, 객체(105)를 설명하는 텍스트를 더 포함할 수 있다. 또는, 환경 콘텐츠는 객체(105)의 유형에 따라 과거 역사 공간의 재현, 테마를 갖는 공간으로의 변형, 미래 공간으로의 시뮬레이션 등을 위해 가상의 공간을 묘사할 수 있다. To increase the user's sense of immersion, the
사용자 단말(100)은 AR 뷰(10)에서의 카메라의 시점(viewpoint)의 변화에 따라 시점을 변경하여 VR 콘텐츠(107)를 표시할 수 있다. 이에 따라, 사용자는 객체(105)가 위치하는 가상의 공간을 실제로 탐험하는 듯한 몰입감을 느낄 수 있다. The
또한, VR 콘텐츠(107)는 애니메이션 효과를 포함할 수 있다. 예컨대, 객체(105)가 인식되어 VR 콘텐츠(107)가 AR 뷰(10)에서 표시될 때, VR 콘텐츠(107)는 AR 뷰(10)를 점진적으로 잠식하여 전체 화면에 이르게 되는 애니메이션으로 표현될 수 있다. 또는, 객체(105)에 대응하는 AR 콘텐츠가 표시된 후 AR 콘텐츠의 주변 공간에 전술한 환경 콘텐츠가 오버레이됨으로써 VR 콘텐츠(107)가 표시될 수 있다. Additionally, VR content 107 may include animation effects. For example, when the object 105 is recognized and the VR content 107 is displayed in the
이러한 VR 콘텐츠(107)는 객체(105)가 사용자 단말(100)에 의해 인식되는 동안 표시될 수 있다. This VR content 107 may be displayed while the object 105 is recognized by the
단계(350)에서, 인식 영역에 사용자 단말(100)이 위치하지 않게 되면, VR 콘텐츠(107)의 표시를 종료할 수 있다. 예컨대, 사용자 단말(100)은 AR 뷰(10)에서의 카메라의 시점(viewpoint)이 변경되어 사용자 단말(100)이 인식 영역을 벗어나게 되거나, 사용자 단말(100)이 이동하여 인식 영역을 벗어나게 되면 VR 콘텐츠(107)의 표시를 종료할 수 있다. In step 350, when the
VR 콘텐츠(107)의 표시의 종료에도 애니메이션 효과가 포함될 수 있다. 예컨대, 사용자 단말(100)이 객체(105)의 인식 영역을 벗어나게 되면, VR 콘텐츠(107)가 AR 뷰(10)로부터 점진적으로 사라지게 되어 원래의 AR 뷰(10)가 표시될 수 있다. Animation effects may also be included at the end of display of VR content 107. For example, when the
실시예에서, 커스텀 영역(60, 70)에는 적어도 하나의 서비스 요소가 연관되어 있다. 또한, 커스텀 영역에는 사용자 단말(100)이 커스텀 영역(60, 70)에 위치함에 따라 서비스 요소에 기반하여 사용자 단말(100)을 제어하기 위한 시나리오 조건이 설정되어 있을 수 있다. 시나리오 조건은, 커스텀 영역(60, 70)과 연관된 서비스 요소에 기반하여, 공간(5)과 연관된 서비스 또는 정보를 제공하거나 사용자 단말(100)의 설정을 제어하기 위한 조건을 포함할 수 있다. In an embodiment,
전술한 AR 뷰(10)에서의 VR 콘텐츠(107)의 표시 역시, 커스텀 영역(60, 70)에 대해 연관된 서비스 요소와 커스텀 영역(60, 70)에 대해 설정된 시나리오 조건에 기반하는 것일 수 있다. The display of VR content 107 in the above-described
사용자 단말(100) 또는 서버(200)는, 사용자 단말(100)이 커스텀 영역에 위치하는 것을 판정함에 따라, 커스텀 영역(60, 70)과 연관된 서비스 요소에 기반하여 사용자 단말(100)을 제어할 수 있다. 말하자면, 사용자 단말(100)은 커스텀 영역(60, 70)과 연관된 서비스 요소가 포함하는 데이터에 기반하여, 특정한 동작을 실행하도록 제어될 수 있다. As the
여기서 사용자 단말(100)의 "제어"는, 사용자 단말(100)의 AR 뷰(10)를 사용하여 AR 뷰(10)의 영상에 공간(5)과 연관된 서비스나 정보를 나타내는 콘텐츠(예컨대, AR 콘텐츠(30) 및/또는 VR 콘텐츠(107) 등)를 증강하여 표시하는 것; 사용자 단말(100)에 공간(5)과 연관된 서비스와 관련된 사용자 인터페이스(User Interface; UI)를 표시하는 것; 사용자 단말(100)의 지도(또는 지도 뷰(20))에서 공간(5)과 연관된 서비스와 관련된 지도 요소 콘텐츠(35)를 표시하는 것; 사용자 단말(100)에 공간(5)과 연관된 서비스를 제공하기 위해 사용자 단말(100)의 설정을 제어하는 것 중 적어도 하나를 포함할 수 있다.Here, “control” of the
커스텀 영역(60, 70)과 연관된 서비스 요소는 공간(5)과 연관된 서비스와 관련된(related) AR 콘텐츠(30)의 표시를 위한 데이터를 포함할 수 있다. Service elements associated with the
또한, 커스텀 영역(60, 70)과 연관된 서비스 요소는 공간(5)과 공간과 연관된 서비스와 관련된(related) VR 콘텐츠(107)의 표시를 위한 데이터를 포함할 수 있다. 따라서, 실시예에서는 이러한 서비스 요소와 커스텀 영역(60, 70)에 대해 정의된 시나리오 조건에 기반하여 AR 뷰(10)에서 VR 콘텐츠(107)가 표시될 수 있다. Additionally, service elements associated with the
VR 콘텐츠(107)를 표시하기 위해 객체(105)를 인식하는 방법과, 구체적인 시나리오 조건에 따라 AR 뷰(10)에서 VR 콘텐츠(107)를 표시하는 방법에 대해서는 후술될 도 4 내지 도 12를 참조하여 더 자세하게 설명된다. Refer to FIGS. 4 to 12 to be described later for a method of recognizing the object 105 to display VR content 107 and a method of displaying VR content 107 in the
한편, 실시예의 사용자 단말(100)을 제어하는 방법은 경로 안내 서비스와 조합하여 수행될 수 있다. 예컨대, 실시예의 사용자 단말(100)을 제어하는 방법은 실내 또는 실외에서 경로 안내를 제공하는 AR 내비게이션과 조합하여 수행될 수 있다. Meanwhile, the method of controlling the
단계(302)에서, 사용자 단말(100)은, 목적지로의 경로 안내 요청을 수신할 수 있다. 예컨대, 사용자 단말(100)의 사용자는 사용자 단말(100)에서 AR 내비게이션 서비스 또는 기타 경로 안내 서비스를 제공하는 어플리케이션 또는 프로그램을 실행하여 목적지를 입력함으로써, 사용자 단말(100)에 경로 안내를 요청할 수 있다. 경로 안내 요청은 경로 안내 서비스를 제공하는 서버(200)로 전달될 수 있다. In
단계(304)에서, 사용자 단말(100)은, 단계(302)에서 수신된 경로 안내 요청에 따라 경로 안내를 제공할 수 있다. 예컨대, 사용자 단말(100)은 경로 안내 서비스를 제공하는 서버(200)로부터 목적지로의 경로 안내를 위한 데이터를 수신할 수 있고, 수신된 데이터에 기반하여 목적지로의 경로 안내를 위한 정보(예컨대, 가이드 정보)를 표시할 수 있다. In
사용자 단말(100)의 사용자는, 경로 안내에 따라 목적지로 이동할 수 있다. 이 때, 전술한 단계들(310 내지 340)은 상기 경로 안내에 따라 사용자 단말(100)이 목적지로 이동할 때 수행될 수 있다. The user of the
예컨대, 사용자 단말(100)이 경로 안내에 따라 목적지로 이동할 때, 사용자 단말(100)이 커스텀 영역(60, 70)에 위치하는지 여부와 객체(105)가 인식되었는지 여부가 판정될 수 있고, 판정의 결과에 따라, 사용자 단말(100)은 AR 뷰(10)에서 VR 콘텐츠(107)를 표시할 수 있다. 관련된 예시는 도 1b에서 전술되었으므로 중복되는 설명은 생략한다. For example, when the
이상 도 1 및 도 2를 참조하여 전술된 기술적 특징에 대한 설명은, 도 3에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.The description of the technical features described above with reference to FIGS. 1 and 2 can also be applied to FIG. 3 , so overlapping descriptions will be omitted.
도 4는 일 예에 따른, 사용자 단말이 커스텀 영역 내의 객체를 인식 가능하도록 하는 인식 영역에 진입함에 따라, 사용자 단말의 설정을 제어하는 방법을 나타내는 흐름도이다. FIG. 4 is a flowchart illustrating a method of controlling settings of a user terminal as the user terminal enters a recognition area that enables recognition of objects in a custom area, according to an example.
도 4를 참조하여, 사용자 단말(100)이 객체(105)를 인식하기 위한 인식 영역에 위치하는지를 판정하여, 객체(105)를 인식하는 방법에 대해 더 자세하게 설명한다.Referring to FIG. 4 , a method for recognizing the object 105 by determining whether the
전술한 것처럼, 커스텀 영역(60, 70)과 연관된 서비스 요소는 사용자 단말(100)에 공간(5)과 연관된 서비스를 제공하기 위해 사용자 단말(100)의 설정을 제어하기 위한 데이터를 포함할 수 있다. As described above, the service elements associated with the
단계(410)에서, 사용자 단말(100) 또는 서버(200)는, 사용자 단말(100)이 커스텀 영역(60, 70)에 진입한 때 또는 사용자 단말(100)이 기 설정된 인식 영역에 진입한 때, 커스텀 영역(60, 70)에 대해 설정된 시나리오 조건에 따라, 사용자 단말(100)의 설정을 제어할 수 있다.In
사용자 단말(100)의 설정의 제어는 공간(5) 내에서 사용자 단말(100)이 제공 받을 수 있는 서비스와 관련되는, 사용자 단말(100)의 기능 및/또는 동작을 제어하는 것을 포함할 수 있다. 기능 및/또는 동작의 제어는 해당 기능 및/또는 동작의 온/오프나 활성화/비활성화를 포함할 수 있다. Controlling the settings of the
예컨대, 사용자 단말(100) 또는 서버(200)는, 사용자 단말(100)이 커스텀 영역(60, 70)에 진입한 때, 커스텀 영역(60, 70)에 설정된 시나리오 조건에 따라, 객체(105)를 인식하기 위한 모듈의 실행을 포함하는 사용자 단말의 설정을 제어할 수 있다. 말하자면, 사용자 단말(100)이 커스텀 영역(60, 70)에 진입하게 되면 객체(105)를 인식하기 위한 모듈이 실행될 수 있다. 객체(105)를 인식하기 위한 모듈은 예컨대, 전술한 VOT 모듈일 수 있다. 사용자 단말(100)이 커스텀 영역(60, 70)에 진입하게 되면, 사용자 단말(100)의 객체(105)의 인식을 위한 모듈이 온 또는 개시(initiate)될 수 있고, 이에 따라, 사용자 단말(100)은 커스텀 영역(60, 70) 내의 객체(105)를 인식할 수 있다. 한편, 사용자 단말(100)이 커스텀 영역(60, 70)을 벗어나게 되면, 사용자 단말(100)의 객체(105)의 인식을 위한 모듈은 다시 OFF 또는 비활성화 될 수 있다. 다만, 실시예에 따라서는, 사용자 단말(100)이 커스텀 영역(60, 70)을 벗어나더라도, 제어된 설정이 유지될 수도 있다. For example, when the
이러한 실시예에 따라, 사용자 단말(100)은 공간(5) 내의 모든 영역에서 무분별하게 객체를 인식 및 검출하는 것이 아니라, 특정 커스텀 영역에서만 또는 특정 커스텀 영역에 진입한 후에만 객체를 인식 및 검출할 수 있게 된다. 따라서, 공간(5) 내에서의 사용자의 동선과 (커스텀 영역이 높이 범위를 갖는 3차원 공간일 수 있다는 점에서는) 시야 또는 시각을 고려하여, 공간(5)과 연관된 서비스가 사용자 단말(100)에 대해 효율적으로 제공될 수 있다. According to this embodiment, the
객체(105)를 인식하기 위한 모듈이 실행된 상태에서, 사용자 단말(100)은 AR 뷰(10)를 통해 객체(105)를 인식할 수 있다. 예컨대, 사용자 단말(100)은 AR 뷰(10) 내에 객체(105)가 표시되면 객체(105)의 인식을 위한 인식 영역에 사용자 단말(100)이 위치하는 것으로 판정할 수 있고, 이에 따라, 객체(105)를 인식할 수 있다. 또는, 사용자 단말(100)은 객체(105)와 사용자 단말(100) 간의 거리가 소정의 거리 이하가 되는 조건, 객체(105)가 AR 뷰(10) 내의 특정 영역(예컨대, 중심 영역 또는 그 부근)에서 표시되는 조건 및 AR 뷰(10)의 소정의 비율 이상 객체(105)가 표시되는 조건(즉, 일정 비율 이상 객체(105)가 AR 뷰(10)를 점유하는 조건) 중 적어도 하나의 조건이 만족되면, 객체(105)의 인식을 위한 인식 영역에 사용자 단말(100)이 위치하는 것으로 판정할 수 있고, 이에 따라, 객체(105)를 인식할 수 있다. 전술한 객체(105)의 인식을 위한 조건은 커스텀 영역(60, 70)에 대해 설정되는 시나리오 조건에 포함될 수 있다. While the module for recognizing the object 105 is executed, the
다른 실시예에서, 전술한 객체(105)의 인식을 위한 인식 영역은 커스텀 영역(60, 70) 내에 기 정의된 영역일 수 있다. 이러한 기 정의된 영역은 객체(105) 주변의 일정 범위의 영역일 수 있다. 사용자 단말(100) 또는 서버(200)는, 사용자 단말(100)의 위치가 이러한 기 정의된 상기 인식 영역에 위치하면, 객체(105)의 인식을 위한 인식 영역에 사용자 단말(100)이 위치하는 것으로 판정할 수 있다. 이 경우, 사용자 단말(100)이 상기 인식 영역에 진입한 것으로 판정된 때, 사용자 단말(100) 또는 서버(200)는, 객체(105)를 인식하기 위한 모듈의 실행을 포함하는 사용자 단말(100)의 설정을 제어할 수 있다. 말하자면, 커스텀 영역(60, 70) 내에 기 정의된 영역인 인식 영역이 존재하는 경우, 사용자 단말(100)이 인식 영역에 위치하게 된 때, 비로소 객체(105)를 인식하기 위한 모듈이 실행될 수 있고, 이에 따라, 객체(105)가 인식될 수 있다. 전술한 기 정의된 인식 영역은 커스텀 영역(60, 70)에 설정된 시나리오 조건에 포함될 수 있다. In another embodiment, the recognition area for recognition of the above-described object 105 may be a predefined area within the
사용자 단말(100)에 의해 객체(105)가 인식되면, 인식된 객체(105)와 연관하여 AR 뷰(10)를 통해 VR 콘텐츠(107)가 표시될 수 있다. When the object 105 is recognized by the
이상 도 1 내지 도 3을 참조하여 전술된 기술적 특징에 대한 설명은, 도 4에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.The description of the technical features described above with reference to FIGS. 1 to 3 can also be applied to FIG. 4 , so overlapping descriptions will be omitted.
도 5a는 일 예에 따른, 기 설정된 커스텀 영역에 사용자 단말이 위치함에 기반하여, 사용자 단말의 설정을 제어하는 방법을 나타낸다. FIG. 5A illustrates a method of controlling settings of a user terminal based on the user terminal being located in a preset custom area, according to an example.
커스텀 영역(60, 70)과 연관된 서비스 요소는 공간(5)과 연관된 서비스를 제공하기 위해 사용자 단말(100)의 설정을 제어하기 위한 데이터를 포함할 수 있다. Service elements associated with the
사용자 단말(100) 또는 서버(200)는, 사용자 단말(100)이 커스텀 영역(60, 70)에 진입한 때, 커스텀 영역(60, 70)과 연관된 서비스 요소에 기반하여, 사용자 단말(100)의 객체 인식을 위한 모듈을 실행시킬 수 있다. The
도시된 것처럼, 공간(500-1)에는 커스텀 영역(510-1)이 설정되어 있고, 사용자 단말(100)이 위치(505)로부터, 커스텀 영역(510-1)에 진입하게 된 때 사용자 단말(100)의 설정이 제어되어, 사용자 단말(100)의 객체 인식을 위한 모듈이 온 또는 개시(initiate)될 수 있다. As shown, a custom area 510-1 is set in the space 500-1, and when the
객체 인식을 위한 모듈이 실행된 후, 사용자 단말(100)이 객체(105)인 진흥왕 순수비를 인식하면, AR 뷰(10)에는 인식된 객체(105)와 연관하여 VR 콘텐츠(107)가 표시될 수 있다.After the module for object recognition is executed, when the
이러한 실시예를 통해서는, 커스텀 영역(510-1)에 사용자 단말(100)이 진입한 때에만 객체 인식을 위한 모듈이 실행됨으로써, AR 뷰(10)를 통해 증강되는 지나치게 많은 콘텐츠들에 의한 사용자 인터페이스의 복잡화, 사용자의 인지적 부하의 증가, 사용자 단말(100)의 부하 증가를 해소할 수 있다. Through this embodiment, the module for object recognition is executed only when the
한편, 도 5b는 일 예에 따른, 기 설정된 커스텀 영역에 사용자 단말이 위치함에 기반하여, 사용자 단말에 VR 콘텐츠를 제공하는 방법을 나타낸다.Meanwhile, Figure 5b shows a method of providing VR content to a user terminal based on the user terminal being located in a preset custom area, according to an example.
도시된 것처럼, 공간(500-2)에는 커스텀 영역(510-2)이 설정되어 있다. 사용자 단말(100)이 커스텀 영역(510-2)에 진입하게 된 때에는 사용자 단말(100)의 설정이 제어되어, 사용자 단말(100)의 객체 인식을 위한 모듈이 온 또는 개시(initiate)될 수 있다. As shown, a custom area 510-2 is set in the space 500-2. When the
한편, 커스텀 영역(510-2)에는 복수의 지점들(A, B)이 정의되어 있을 수 있다. 복수의 지점들(A, B)의 각각은 커스텀 영역(510-2)에 해당하는 공간으로 진입하기 위한 입구를 나타낼 수 있다. Meanwhile, a plurality of points A and B may be defined in the custom area 510-2. Each of the plurality of points A and B may represent an entrance for entering the space corresponding to the custom area 510-2.
커스텀 영역(510-2)에 대한 시나리오 조건은, 커스텀 영역(510-2)에 사용자 단말(100)이 위치할 때, VR 콘텐츠(107)로서, 사용자 단말(100)이 경유한 지점에 기반하여 결정된 VR 콘텐츠(107)가 AR 뷰(10)를 통해 표시되도록 설정되어 있을 수 있다. 따라서, 사용자 단말(100)은, AR 뷰(10)를 통해, 이러한 사용자 단말(100)이 경유한 지점에 기반하여 결정된 VR 콘텐츠(107)를 표시할 수 있다. 예컨대, 사용자 단말(100)은, 사용자 단말(100)이 지점(A)를 통해 커스텀 영역(510-2)에 진입한 때와, 지점(B)를 통해 커스텀 영역(510-2)에 진입한 때에 서로 다른 VR 콘텐츠(107)를, AR 뷰(10)를 통해, 표시할 수 있다. The scenario conditions for the custom area 510-2 are VR content 107 when the
한편, 상기 사용자 단말(100)이 "경유한 지점"은 사용자 단말(100)이 경유한 커스텀 영역(510-2) 밖의 소정의 지점일 수 있고, 또는, 커스텀 영역(510-2) 내에 정의된 소정의 지점일 수도 있다. Meanwhile, the “point through which the
전술한 "결정된 VR 콘텐츠"는 기존의 VR 콘텐츠를 다른 형태, 다른 애니메이션의 적용, 다른 효과를 적용하여 표시하는 것이거나, 상이한 내용의 VR 콘텐츠를 표시하는 것이거나, 기존의 VR 콘텐츠에 추가 콘텐츠(음성, 텍스트, 이미지, 동영상 등)를 더 부가한 것일 수 있다. The above-described “determined VR content” refers to displaying existing VR content in a different form, applying different animations, or applying different effects, displaying VR content with different content, or displaying additional content to existing VR content ( Additional information (voice, text, image, video, etc.) may be added.
커스텀 영역에 대해 설정된 시나리오 조건에 따라 AR 뷰(10)에서 VR 콘텐츠를 표시하는 다른 예시들에 대해서는 후술될 도면들을 참조하여 더 자세하게 설명된다. Other examples of displaying VR content in the
이상 도 1 내지 도 4를 참조하여 전술된 기술적 특징에 대한 설명은, 도 5에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.The description of the technical features described above with reference to FIGS. 1 to 4 can also be applied to FIG. 5 , so overlapping descriptions will be omitted.
도 6은 일 예에 따른, 커스텀 영역 내의 객체와 연관된 AR 콘텐츠를 정의하는 방법을 나타낸다. 도 7은 일 예에 따른, 커스텀 영역 내의 객체와 연관된 VR 콘텐츠를 정의하는 방법을 나타낸다.Figure 6 shows a method of defining AR content associated with an object in a custom area, according to one example. 7 illustrates a method of defining VR content associated with an object in a custom area, according to one example.
도시된 AR 콘텐츠(610)는 객체(105)인 "진흥왕 순수비"와 연관하여 AR 뷰(10)내에서 출력되도록 정의된 것일 수 있다. The illustrated
AR 콘텐츠(610)는 공간(5)을 나타내는 데이터가 로딩 또는 렌더링된 UI(600)에 배치될 수 있고, 공간(5) 내에서 설정되는 커스텀 영역(60, 70)에 배치될 수 있다. AR 콘텐츠(610)는 커스텀 영역(60, 70)과 연관되는 서비스 요소에 포함될 수 있다. The
도 7에서 도시된 VR 콘텐츠(710)는 객체(105)인 "진흥왕 순수비"와 연관하여 AR 뷰(10)내에서 출력되도록 정의된 것일 수 있다. VR 콘텐츠(710)는 AR 콘텐츠(610)와, 객체(105)의 주변의 가상의 공간을 묘사하는 환경 콘텐츠를 포함할 수 있다. 도시된 것처럼, VR 콘텐츠(710)에 의해 묘사되는 객체(105)의 주변의 가상의 공간은 객체(105)를 중심으로 하는 가상의 구(sphere) 공간 또는 반구 공간으로 표현(환경 콘텐츠)되는 것일 수 있다. 객체(105)를 중심으로 하는 가상의 구 공간으로 표현되는 가상의 공간이 VR 콘텐츠(710)에 포함됨으로써, 사용자는 VR 콘텐츠(710)를 표시하는 AR 뷰(10)를 통해 몰입감을 느낄 수 있게 된다. The
UI(600, 700)는 공간(5)이 실내인 경우 공간(5)에 대한 실내 지도를 작성하기 위한 실내 맵 생성 UI를 포함하거나 실내 맵 생성 UI의 일부일 수 있다. 이러한 실내 맵 생성 UI는, 공간(5) 내에서, 세부 공간(전시실 등); 계단, 에스컬레이터, 엘리베이터 등과 같은 이동 수단; 화장실, 간판, 표지판, 안내소 등과 같은 시설물; 기둥 등 기타 장애물; 공간(5) 내에서의 경로 정보; 노드들 및 노드들을 연결하는 링크들을 설정하는 기능을 제공할 수 있다. 예컨대, 실내 지도를 생성하고, 실내 지도에 커스텀 영역(60, 70)을 생성하기 위한 관리자 단말의 사용자는, UI(600, 700)를 통해 커스텀 영역(60, 70)에 해당하는 영역을 설정하고, 설정된 영역에 AR 콘텐츠(610) 및/또는 VR 콘텐츠(710)를 직접 배치시키거나 설정된 영역에 배치할 AR 콘텐츠(610) 및/또는 VR 콘텐츠(710)를 선택함으로써 커스텀 영역(60, 70)과 AR 콘텐츠(610) 및/또는 VR 콘텐츠(710)(즉, 이를 포함하는 서비스 요소)를 연관시킬 수 있다. UI(600, 700)는 커스텀 영역(60, 70)에 해당하는 영역과 연관시킬 서비스 요소의 선택과 배치를 위한 별도의 UI를 제공할 수 있다. 사용자는 클릭, 드래그 앤드 드롭과 같은 방식을 통해 서비스 요소의 선택과 배치를 수행할 수 있다. The
도시된 UI(600, 700)의 예시에서는 공간(5)에 해당하는 지도가 표시되었고, 지도 상에서 커스텀 영역(60, 70)이 생성되는 것으로 가정되었다. In the illustrated example of UI (600, 700), a map corresponding to space (5) is displayed, and it is assumed that custom areas (60, 70) are created on the map.
한편, 도시된 것과는 달리, UI(600, 700)에는 공간(5)을 나타내는 데이터로서, 공간(5)에 대한 지도, 공간(5)에 대해 수집된 포인트 클라우드 데이터(Point Cloud Data; PCD), 및 공간(5)을 촬영한 이미지 중 적어도 하나가 렌더링될 수 있고, 렌더링된 데이터 상에서 2차원 및/또는 3차원의 공간인 커스텀 영역(60, 70)이 생성될 수 있다. Meanwhile, unlike what is shown, the
실내 맵 생성 UI에 UI(600, 700)가 포함되는 경우, 공간(5)에 대한 실내 지도의 구축과 함께 커스텀 영역(60, 70)의 생성이 이루어질 수 있고, 따라서, 커스텀 영역(60, 70)에 대한 콘텐츠(610) 및/또는 VR 콘텐츠(710)의 배치도 함께 수행될 수 있다. When the indoor map creation UI includes the UI (600, 700), the custom areas (60, 70) can be created along with the construction of the indoor map for the space (5), and therefore, the custom areas (60, 70) ) can also be performed together with the
이상 도 1 내지 도 5를 참조하여 전술된 기술적 특징에 대한 설명은, 도 6 및 도 7에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.The description of the technical features described above with reference to FIGS. 1 to 5 can also be applied to FIGS. 6 and 7, so overlapping descriptions will be omitted.
도 8은 일 예에 따른, 커스텀 영역 내의 객체와 연관된 AR 콘텐츠 및 VR 콘텐츠를 정의하는 방법을 나타낸다. Figure 8 shows a method of defining AR content and VR content associated with an object in a custom area, according to an example.
전술한 것처럼, 사용자의 몰입감을 증가시키기 위해, 사용자 단말(100)은 VR 콘텐츠(107)를 AR 뷰(10)의 전체 화면에서 표시할 수 있고, VR 콘텐츠(107)는 객체(105) 주변의 가상의 공간을 묘사할 수 있다. As described above, in order to increase the user's sense of immersion, the
이 때, VR 콘텐츠(107)가 묘사하는 가상의 공간은 객체(105)가 위치된 주변 공간의 지오메트리를 반영하여 결정된 가상의 입체 공간으로 표현되는 것일 수 있다. 말하자면, VR 콘텐츠(107)가 묘사하는 가상의 공간은 객체(105)가 위치되는 주변의 실제 공간의 형태를 반영할 수 있다. At this time, the virtual space depicted by the VR content 107 may be expressed as a virtual three-dimensional space determined by reflecting the geometry of the surrounding space where the object 105 is located. In other words, the virtual space depicted by the VR content 107 may reflect the shape of the actual space around where the object 105 is located.
예컨대, 도시된 것처럼 객체(810)가 전시실 공간(820)에 배치되어 있고, 전시실 공간(820)은 육면체의 지오메트리를 갖는 경우에 있어서, 객체(810)와 연관하여 AR 뷰(10)에서 표시되는 VR 콘텐츠는 객체(810)를 나타내는 AR 콘텐츠(830)와 전시실 공간(820)을 나타내는 환경 콘텐츠(840)를 포함할 수 있다. 이처럼, 환경 콘텐츠(840)는 전시실 공간(820)의 지오메트리를 반영하는 것으로서 전시실 공간(820)과 유사하게 육면체의 형태를 가질 수 있다. For example, in the case where the
AR 뷰(10)에서 표시되는 VR 콘텐츠가 객체(810)가 배치되어 있는 실제 전시실 공간(820)의 지오메트리를 반영하게 됨으로써, VR 콘텐츠를 시청하는 사용자의 몰입감이 한층 더 향상될 수 있다. As the VR content displayed in the
한편, 전시실 공간(820)의 지오메트리는 전시실 공간(820)이 포함되는 공간(5)의 실내 지도의 작성 시 또는 공간(5)을 나타내는 데이터(PCD, 촬영 이미지 등)의 수집 시에 획득되는 기지의 데이터일 수 있다. 전시실 공간(820)의 지오메트리는 서버(200)에서 저장 및 관리될 수 있다. Meanwhile, the geometry of the
따라서, 도 7을 참조하여 전술된 것처럼, UI(600, 700)를 통해 VR 콘텐츠(710)를 커스텀 영역(60, 70)에 배치함에 있어서, VR 콘텐츠(710)에 의해 묘사되는 객체(105)의 주변의 가상의 공간은 객체(105)를 중심으로 하는 가상의 구 공간 또는 반구 공간이 아니라, 객체(105)가 배치된 실제 공간의 지오메트리를 반영하는 입체 공간이 될 수 있다. 이러한 입체 공간은 기지의 실제 공간의 지오메트리에 의해 자동으로 UI(600, 700) 상에서 표시될 수 있다. Accordingly, as described above with reference to FIG. 7, when placing
이상 도 1 내지 도 7을 참조하여 전술된 기술적 특징에 대한 설명은, 도 8에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.The description of the technical features described above with reference to FIGS. 1 to 7 can also be applied to FIG. 8 , so overlapping descriptions will be omitted.
아래에서는, 공간(5)에 대해 정의되어 생성되는 커스텀 영역(60, 70)과, 커스텀 영역(60, 70)에 대해 설정되는 시나리오 조건에 대해 더 자세하게 설명한다.Below, the
도 9는 일 예에 따른, 3차원 공간으로 정의된 커스텀 영역을 나타낸다.Figure 9 shows a custom area defined in three-dimensional space, according to an example.
도 9에서는, 3차원 공간으로 정의된 커스텀 영역(900)과 거기에 정의되는 시나리오 조건에 대해 더 자세하게 설명한다. In Figure 9, the
전술한 커스텀 영역(60, 70)은 공간(5)의 지도 상에서 2차원 공간 및 3차원 공간 중 적어도 하나를 포함하도록 정의될 수 있다. The above-described
사용자 단말(100) 또는 서버(200)는, 사용자 단말(100)의 위치가 지도 상에서 커스텀 영역(60, 70)에 위치할 때(또는, 커스텀 영역(60, 70)을 벗어날 것으로 판정된 때), 커스텀 영역(60, 70)과 연관된 서비스 요소에 기반하여 사용자 단말(100)을 제어할 수 있다. The
커스텀 영역(900)은 2차원 영역 및 설정 높이 범위를 갖는 3차원 공간을 포함하도록 정의될 수 있다. 또는, 커스텀 영역(900)은 2차원 공간과 3차원 공간을 포함하는 복합 차원 공간으로서 정의될 수도 있다.The
커스텀 영역(900)을 구성하는 2차원 영역은 2차원의 좌표 공간(x, z)을 포함할 수 있다. 커스텀 영역(900)을 구성하는 높이 범위는 y축 좌표 공간을 포함할 수 있다. 높이 범위는 도시된 것처럼 상한 및 하한이 있는 범위일 수 있고(H), 도시된 것과는 달리 상한 또는 하한이 없는 범위일 수도 있다. The two-dimensional area constituting the
사용자 단말(100) 또는 서버(200)는, 사용자 단말(100)이 커스텀 영역(900)을 구성하는 2차원 영역에 위치하고 사용자 단말(100)의 높이가 커스텀 영역(900)을 구성하는 설정 높이 범위에 속하는 경우, 사용자 단말(100)이 커스텀 영역(900)에 위치하는 것으로 판정하여, 커스텀 영역(900)과 연관된 서비스 요소에 기반하여 사용자 단말(100)을 제어할 수 있다. 따라서, 사용자 단말(100)이 커스텀 영역(900)에 위치하는 것으로 판정된 때, 객체(105) 인식을 위한 모듈이 실행되어 객체(105)가 인식되고, AR 뷰(10)에서 VR 콘텐츠(107)가 표시될 수 있다. The
사용자 단말(100)의 높이는 사용자 단말(100)이 포함하는 센서에 의해 획득될 수 있다. 사용자 단말(100)의 높이는, 예컨대, 사용자 단말(100)의 카메라의 높이를 나타낼 수 있다.The height of the
도 9에서는 하나의 높이 범위(H)가 예시되었으나, 커스텀 영역(900)에는 복수의 높이 범위들이 정의될 수 있고, 각 높이 범위에 대해 서비스 요소가 연관되고 시나리오가 정의될 수 있다. Although one height range (H) is illustrated in FIG. 9, a plurality of height ranges may be defined in the
이처럼, 입체적인 3차원의 공간으로 커스텀 영역(900)을 설정함으로써 동일한 2차원 공간 내에 사용자 단말(100)이 위치되더라도 사용자 단말(100)의 높이에 따라, 상이한 시나리오에 의해 사용자 단말(100)이 제어될 수 있다. In this way, by setting the
아래에서는, 도 10을 참조하여 커스텀 영역(60, 70)에 대해 정의되는 시나리오에 대해 더 자세하게 설명한다. Below, the scenarios defined for the
도 10은 일 예에 따른, 사용자 단말의 DoF (Degree Of Freedom)를 나타낸다.Figure 10 shows the DoF (Degree Of Freedom) of a user terminal, according to an example.
커스텀 영역(60, 70)에는 사용자 단말(100)의 3DoF 또는 6DoF 자세 조건이 정의되어 있을 수 있다. 6DoF는 x축, y축 및 z축 방향으로의 운동과, 축, y축 및 z축 방향으로의 회전(롤(roll), 요(yaw) 및 피치(pitch))을 나타낼 수 있다. The
이러한 자세 조건은 커스텀 영역(60, 70)에 대해 정의되는 시나리오 조건에 포함될 수 있고, 전술한 것처럼, 이러한 시나리오 조건은 커스텀 영역(60, 70)과 연관되는 서비스 요소에 포함될 수도 있다. These attitude conditions may be included in scenario conditions defined for the
사용자 단말(100) 또는 서버(200)는, 사용자 단말(100)이 커스텀 영역(60, 70)에 위치하는 것으로 판정된 때, 사용자 단말(100)의 자세가 커스텀 영역(60, 70)에 정의된 자세 조건을 만족하면, 커스텀 영역(60, 70)과 연관된 서비스 요소에 기반하여 사용자 단말(100)을 제어할 수 있다. 사용자 단말(100)의 자세는 사용자 단말(100)이 포함하는 센서, 예컨대, 자이로 센서에 의해 획득될 수 있다.When the
이와 같은 자세 조건이 커스텀 영역(60, 70)에 정의됨에 따라, 예컨대, 사용자 단말(100)이 커스텀 영역(60, 70)에 진입하고 AR 뷰(10)가 특정 각도 또는 특정 각도 범위로 유지될 때에만, 사용자 단말(100)이 서비스 요소에 기반하여 제어될 수 있다. 일례로, 커스텀 영역(60, 70) 내의 특정 영역에서, 예컨대, 일정 높이 이상 또는 미만의 위치에서 표시되어야 하는 VR 콘텐츠는, 사용자 단말(100)이 커스텀 영역(60, 70)에 진입하고 AR 뷰(10)가 해당 일정 높이 이상 또는 미만의 특정 영역을 비추는 각도 또는 각도 범위로 유지될 때에만, 사용자 단말(100)의 AR 뷰(10)에서 표시될 수 있다. As such posture conditions are defined in the
따라서, 실시예에서는, AR 뷰(10)의 보다 적절한 위치와 시점(viewpoint)에서 VR 콘텐츠를 표시할 수 있다. Accordingly, in the embodiment, VR content can be displayed at a more appropriate location and viewpoint of the
아래에서는, 커스텀 영역(60, 70)에 대해 정의되는 시나리오 조건의 다른 예시에 대해 더 설명한다. Below, other examples of scenario conditions defined for
커스텀 영역(60, 70)에는 시간 조건을 나타내는 제1 조건, 사용자 단말(100)의 움직임을 나타내는 제2 조건, 및 사용자 단말(100)에 대한 조작을 나타내는 제3 조건 중 적어도 하나의 조건을 포함하는 시나리오 조건이 설정될 수 있다. The
제1 조건은, 예컨대, 사용자 단말(100)이 일정 시간 이상(예컨대, 3초 이상) 커스텀 영역(60, 70)에 머무를 것, 또는 일정 시간 이하 커스텀 영역(60, 70)에 머무를 것을 요구하는 조건일 수 있다. 또는, 제1 조건은 사용자 단말(100)이 소정의 시간대에 커스텀 영역(60, 70)에 진입할 것, 또는 소정의 시간대 이외의 시간에 커스텀 영역(60, 70)에 진입할 것을 요구하는 조건일 수 있다. 제2 조건은, 예컨대, 사용자 단말(100)의 물리적인 조작을 나타내는 것으로서, 사용자 단말(100)을 일정 횟수 또는 일정 세기 이상 흔들 것을 요구하는 조건일 수 있다. 또는, 제2 조건은 기타 사용자 단말(100)을 특정한 모양(예컨대, '8'자)으로 움직이는 행위를 요구하는 조건일 수 있다. 제3 조건은 사용자 단말(100)을 전자적으로 조작하는 행위일 수 있고, 예컨대, 특정한 버튼 또는 키를 입력하는 것, 특정한 제스처를 입력하는 것, 특정한 음성 또는 오디오를 입력하는 것, 특정한 객체를 촬영하는 것 등을 요구하는 조건일 수 있다. The first condition, for example, requires that the
사용자 단말(100) 또는 서버(200)는, 사용자 단말(100)이 커스텀 영역(60, 70)에 위치하는 것으로 판정된 때, 사용자 단말(100)이 상기 제1 조건 내지 제3 조건 중 적어도 하나인 시나리오 조건을 만족하면, 커스텀 영역(60, 70)과 연관된 서비스 요소에 기반하여 사용자 단말(100)을 제어할 수 있다. 예컨대, 사용자 단말(100)은 상기 시나리오 조건의 만족 여부에 따라 AR 콘텐츠 또는 VR 콘텐츠의 표시를 다르게 하거나, UI 표시를 다르게 하거나, 지도 요소 콘텐츠의 표시를 다르게 하거나, 사용자 단말(100)의 설정 제어를 다르게 할 수 있다. When the
이상 도 1 내지 도 8을 참조하여 전술된 기술적 특징에 대한 설명은, 도 9 및 도 10에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.The description of the technical features described above with reference to FIGS. 1 to 8 can also be applied to FIGS. 9 and 10, so overlapping descriptions will be omitted.
도 11은 일 예에 따른, 복수의 지점들을 포함하는 커스텀 영역을 나타낸다. Figure 11 shows a custom area including a plurality of points, according to an example.
도시된 커스텀 영역(1100)은 공간(5)의 지도 상에서 정의된 영역일 수 있다. 커스텀 영역(1100)은 출입구 A를 나타내는 지점 및 출입구 B를 나타내는 지점을 포함할 수 있다. 또한, 커스텀 영역(1100) 객체(오브젝트) A를 나타내는 지점 및 객체 B를 나타내는 지점을 더 포함할 수 있다. 사용자 단말(100) 또는 서버(200)는, 사용자 단말(100)의 위치를 추적함으로써 사용자 단말(100)이 커스텀 영역(1100)에 진입하였는지 또는 커스텀 영역(1100)으로부터 진출하였는지 여부를 판정할 수 있다. The illustrated
또한, 커스텀 영역의(1100) 내부뿐만 아니라 커스텀 영역(1100)의 외부에도 복수의 지점들이 정의되어 있을 수 있다. Additionally, a plurality of points may be defined not only inside the
커스텀 영역(1100)에는 복수의 서비스 요소들이 연관될 수 있다. 이 때, 복수의 서비스 요소들의 각 서비스 요소는 커스텀 영역(1100) 내의 상이한 지점과 연관될 수 있다. 커스텀 영역에서 정의되는 시나리오 또는 시나리오 조건은, 사용자 단말(100)이 각 서비스 요소와 연관된 지점을 경유하는 순서에 따라, 공간(5)과 연관된 서비스 또는 정보를 상이하게 제공하도록 정의될 수 있다. 상이하게 제공되는 서비스 또는 정보는 AR 콘텐츠 또는 VR 콘텐츠일 수 있고, 또는, 기타 형태의 콘텐츠로서, 사용자 단말(100)에서 출력 가능한 형태의 콘텐츠인, 음성, 텍스트, 이미지, 동영상 등일 수 있다.A plurality of service elements may be associated with the
일례로, 사용자 단말(100)이 커스텀 영역(1100)에 진입한 경우와 진출한 경우를 구분하여, 각각 상이한 형태의 콘텐츠를 사용자 단말(100)이 출력하도록 하는 시나리오 조건이 커스텀 영역(1100)에 정의될 수 있다. For example, a scenario condition that causes the
또는, 사용자 단말(100)이 커스텀 영역(1100) 내의 특정한 지점(예컨대, 도시된 출입구 A, 출입구 B, 오브젝트 A 및 오브젝트 B의 지점들 중 적어도 하나)을 통해 진입한 경우, 커스텀 영역(1100) 외부의 특정한 지점을 경유한 후 커스텀 영역(1100)에 진입한 경우 등을 구분하여 사용자 단말(100)이 다른 형태의 콘텐츠를 출력하도록 하는 시나리오 조건이 커스텀 영역(1100)에 정의될 수 있다. 일례로, 사용자 단말(100)이 출입구 A를 나타내는 지점을 통해 커스텀 영역(1100)에 진입한 경우에는 사용자 단말(100)에 일반적인 웰컴 콘텐츠가 출력될 수 있으나, 사용자 단말(100)이 출입구 B를 나타내는 지점을 통해 커스텀 영역(1100)에 진입한 경우에는 사용자 단말(100)에 다른 콘텐츠, 예컨대, 쿠폰 콘텐츠가 출력될 수 있다. 쿠폰 콘텐츠는 공간(5) 내에서 사용 가능한 할인 쿠폰 또는 혜택을 포함할 수 있다. Alternatively, when the
이처럼, 커스텀 영역(1100)의 내부 또는 커스텀 영역(1100)의 외부에 복수의 지점들이 정의된 경우에 있어서, 사용자 단말(100)이 복수의 지점들 중 제1 지점을 경유한 경우와 사용자 단말(100)이 복수의 지점들 중 제2 지점을 경유한 경우에는, AR 뷰(10)를 통해, 서로 상이한 VR 콘텐츠가 표시될 수 있다. 즉, 동일한 객체의 인식이 이루어진 경우에도, 사용자 단말(100)이 어떠한 지점을 경유하여 커스텀 영역(1100)에 진입했는지 여부나, 커스텀 영역(1100) 내에서 어떠한 지점을 경유하였는지 여부에 따라 AR 뷰(10)를 통해, 서로 상이한 VR 콘텐츠가 표시될 수 있다.In this way, in the case where a plurality of points are defined inside or outside the
또한, 사용자 단말(100)은 특정한 커스텀 영역(60, 70)에 위치된 때 해당 커스텀 영역(60, 70)에 진입한 것인지 또는 커스텀 영역(60, 70)을 벗어날 것인지가 판단될 수 있고, 판단 결과와 설정된 시나리오 조건에 따라, 사용자 단말(100)은 커스텀 영역(60, 70)에의 진입 시와 진출 시에 각각 다른 VR 콘텐츠를 출력하도록 제어될 수 있다. 이 때, 사용자 단말(100)의 현재 위치와 사용자 단말(100)이 이미 이동한 또는 이동할 경로에 기반하여 사용자 단말(100)은 커스텀 영역(60, 70)에 진입한 것으로 판단되거나([1]), 커스텀 영역(60, 70)로부터 진출할 것으로 판단될 수 있다([2]). 사용자 단말(100) 또는 서버(200)는, 경로에 기반하여 사용자 단말(100)이 어떠한 노드를 이미 경유했는지 또는 어떠한 노드를 경유할 것인지를 파악할 수 있으며, 그에 따라, 사용자 단말(100)이 현재 위치하는 커스텀 영역에 진입한 것인지 아니면, 해당 커스텀 영역으로부터 진출할 것인지 여부를 판단할 수 있다. 상기 [1]과 [2]의 경우에 사용자 단말(100)은 상이한 VR 콘텐츠를 표시하도록 제어될 수 있다. 즉, 동일한 객체의 인식이 이루어진 경우에도, 사용자 단말(100)의 커스텀 영역(60, 70)에의 진출입 여부에 따라 AR 뷰(10)를 통해, 서로 상이한 VR 콘텐츠가 표시될 수 있다.In addition, when the
또는, 사용자 단말(100)이 커스텀 영역(1100) 내의 진입한 경우에, 예컨대, 커스텀 영역(1100)의 엣지를 따라서 이동하도록 요청하는 것 등과 같이, 사용자 단말(100)에 추가적인 액션을 요구하고, 액션이 수행됨에 따라 사용자 단말(100)이 다른 형태의 콘텐츠를 출력하도록 하는 시나리오 조건이 커스텀 영역(1100)에 정의될 수 있다. 상기의 추가적인 액션의 요구 역시 콘텐츠나 UI의 형태로 사용자 단말(100)에 제공될 수 있다. Alternatively, when the
또는, 사용자 단말(100)이 커스텀 영역(1100) 내의 진입한 횟수를 카운트하여 n회(n은 2 이상의 자연수) 이상 커스텀 영역(1100)에 진입한 경우에(사용자 단말(100)이 커스텀 영역(1300)에 진입한 횟수는 소정의 시간(예컨대, 1시간 또는 하루) 내에서만 카운트될 수 있음), 사용자 단말(100)에 특정한 콘텐츠를 출력하도록 하는 시나리오 조건이나; 사용자 단말(100)이 커스텀 영역(1100)에 머무른 시간이 소정 시간 이상인 경우에, 사용자 단말(100)에 특정한 콘텐츠를 출력하도록 하는 시나리오 조건이 커스텀 영역(1100)에 정의될 수도 있다. 예컨대, 시나리오 조건은, 커스텀 영역(1100)에 사용자 단말(100)이 진입한 횟수에 기반하여 결정된 VR 콘텐츠가 AR 뷰를 통해 표시되도록 설정될 수 있다. 이 때, AR 뷰(10)를 통해서는, 커스텀 영역(1100)에 사용자 단말(100)이 진입한 횟수에 기반하여 결정된 VR 콘텐츠가 표시될 수 있다. 즉, 동일한 객체의 인식이 이루어진 경우에도, 사용자 단말(100)이 커스텀 영역(1100)에 진입한 횟수에 따라 AR 뷰(10)를 통해, 서로 상이한 VR 콘텐츠가 표시될 수 있다.Alternatively, if the
한편, 사용자 단말(100)이 커스텀 영역(1100)으로부터 벗어난 경우(즉, 진출하는 경우)에는, 사용자 단말(100)에 표시된 콘텐츠는 모두 비표시, 즉, 표시 해제로 될 수 있다. 사용자 단말(100)이 커스텀 영역(1100)으로부터 벗어날 경우에는 소정의 알림 사운드가 사용자 단말(100)에 출력될 수 있다. 또는, 사용자 단말(100)이 커스텀 영역(1100)으로부터 벗어날 경우에는 사용자 단말(100)이 커스텀 영역(1100)을 벗어났음을 알리는 AR 콘텐츠 또는 VR 콘텐츠가 AR 뷰(10)에서 표시될 수도 있다. Meanwhile, when the
이처럼, 실시예에서는 사용자 단말(100)이 커스텀 영역(1100)으로부터 진입하는지 또는 진출하는지 여부가 판정될 수 있고, 판정 결과에 따라, AR 콘텐츠 또는 VR 콘텐츠의 표시를 다르게 하거나(예컨대, 진입 시에는 진입 가이드 AR 콘텐츠 또는 VR 콘텐츠 증강, 진출 시에는 진출 가이드 AR 콘텐츠 또는 VR 콘텐츠 증강 등), UI 표시를 다르게 하거나, 지도 요소 콘텐츠의 표시를 다르게 하거나, 사용자 단말(100)의 설정 제어를 다르게 할 수 있다.As such, in the embodiment, it may be determined whether the
이상 도 1 내지 도 10을 참조하여 전술된 기술적 특징에 대한 설명은, 도 11에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.The description of the technical features described above with reference to FIGS. 1 to 10 can also be applied to FIG. 11 , so overlapping descriptions will be omitted.
도 12는 일 예에 따른, 공간에 복수의 커스텀 영역들이 설정되고, 각 커스텀 영역에 대해 사용자 단말의 제어를 위한 시나리오 조건이 설정되는 방법을 나타낸다. Figure 12 shows a method in which a plurality of custom areas are set in a space and scenario conditions for controlling a user terminal are set for each custom area, according to an example.
아래에서는 공간(1200)에서 설정된 복수의 커스텀 영역들(1210 내지 1240)의 각각에 대해 정의되는 시나리오 조건의 다른 예시에 대해 더 설명한다.Below, other examples of scenario conditions defined for each of the plurality of
전술한 커스텀 영역(60, 70)은 커스텀 영역들(1210 내지 1240) 중 어느 하나의 커스텀 영역일 수 있다. The above-described
커스텀 영역들(1210 내지 1640) 중 어느 하나의 커스텀 영역(60, 70)에는, i) 사용자 단말(100)이 커스텀 영역(60, 70)이 아닌 소정의 다른 커스텀 영역을 경유했는지 여부를 나타내는 제1 시나리오 조건 및 ii) 커스텀 영역(60, 70)에 위치하는 사용자 단말들의 수가 소정의 범위에 해당하는지를 나타내는 제2 시나리오 조건 중 적어도 하나의 시나리오 조건이 정의되어 있을 수 있다. 해당 시나리오 조건이 만족되는지 여부에 따라, 사용자 단말(100)은, 커스텀 영역(60, 70)과 연관된 서비스 요소에 기반하여, 공간(5, 1200)과 연관된 서비스 또는 정보를 상이하게 제공받거나 사용자 단말(100)의 설정이 상이하게 제어될 수 있다. In any one of the
제1 시나리오 조건은 커스텀 영역(60, 70)에 진입한 사용자 단말(100)이 다른 특정 커스텀 영역에 진입한 후 커스텀 영역(60, 70)에 진입할 것을 요구하는 조건일 수 있다. 예컨대, 사용자 단말(100)이 커스텀 영역들(1220 내지 1640) 중 특정 커스텀 영역에 진입한 후 (소정의 시간 이내에) 커스텀 영역(1210)에 진입한 경우, 제1 시나리오 조건이 만족될 수 있다. 또는, 사용자 단말(100)이 커스텀 영역들(1210 내지 1240) 중 적어도 일부를 특정한 순서로 진입한 후 (소정의 시간 이내에) 커스텀 영역(1210)에 진입한 경우, 제1 시나리오 조건이 만족될 수 있다. 사용자 단말(100)은 상기 제1 시나리오 조건의 만족 여부에 따라 AR 콘텐츠 또는 VR 콘텐츠의 표시를 다르게 하거나, UI 표시를 다르게 하거나, 지도 요소 콘텐츠의 표시를 다르게 하거나, 사용자 단말(100)의 설정 제어를 다르게 할 수 있다.The first scenario condition may be a condition that requires the
예컨대, 시나리오 조건은, 커스텀 영역(60, 70)에 사용자 단말(100)이 위치할 때, 사용자 단말(100)이 커스텀 영역에 진입하기 전에 사용자 단말(100)이 진입한 다른 커스텀 영역에 기반하여 결정된 VR 콘텐츠가 AR 뷰(10)를 통해 표시되도록 설정될 수 있다. 이 때, 사용자 단말(100)의 AR 뷰(10)를 통해서는, 상기 다른 커스텀 영역에 기반하여 결정된 VR 콘텐츠가 표시될 수 있다. 즉, 동일한 객체의 인식이 이루어진 경우에도, 사용자 단말(100)이 커스텀 영역에 진입하기 전에 어떤 다른 커스텀 영역에 진입했는지, 또는 특정한 다른 커스텀 영역에 진입했는지 여부에 따라, AR 뷰(10)를 통해, 서로 상이한 VR 콘텐츠가 표시될 수 있다.For example, the scenario condition is, when the
제2 시나리오 조건은 커스텀 영역(60, 70)에 위치하고 있는 사용자 단말들의 수 또는 커스텀 영역(60, 70)에 진입한 사용자 단말들의 (소정의 시간 동안의) 누적 수가 일정 수 이상일 것 또는 일정 수 미만일 것을 요구하는 조건일 수 있다. 또는, 제2 시나리오 조건은 사용자 단말(100)이 진입하는 커스텀 영역(60, 70)이 아닌 다른 커스텀 영역에 위치하고 있는 사용자 단말들의 수 또는 해당 다른 커스텀 영역에 진입한 사용자 단말들의 (소정의 시간 동안의) 누적 수가 일정 수 이상일 것 또는 일정 수 미만일 것을 요구하는 조건일 수 있다. 또는, 제2 시나리오 조건은 상기 커스텀 영역(60, 70)과 상기 아닌 다른 커스텀 영역 둘 다에서 위치하고 있는 사용자 단말들의 수 또는 해당 두 커스텀 영역들에 진입한 사용자 단말들의 (소정의 시간 동안의) 누적 수가 일정 수 이상일 것 또는 일정 수 미만일 것을 요구하는 조건일 수 있다. 사용자 단말(100)은 상기 제2 시나리오 조건의 만족 여부에 따라 AR 콘텐츠 또는 VR 콘텐츠의 표시를 다르게 하거나, UI 표시를 다르게 하거나, 지도 요소 콘텐츠의 표시를 다르게 하거나, 사용자 단말(100)의 설정 제어를 다르게 할 수 있다.The second scenario condition is that the number of user terminals located in the
전술한 제1 시나리오 조건과 제2 시나리오 조건은 서로 조합하여 사용될 수 있다. 예컨대, 사용자 단말(100) 또는 서버(200)는, 사용자 단말(100)이 커스텀 영역(60, 70)에 진입한 경우, 상기 제1 시나리오 조건 및 상기 제2 시나리오 조건을 만족하는지 여부를 판정할 수 있고, 두 시나리오 조건을 모두 만족하는 경우에만, 서비스 요소에 기반하여 사용자 단말(100)이 제어되도록 할 수 있다. 또는, 상기 제1 시나리오 조건 및 상기 제2 시나리오 조건 중 어떤 조건이 만족되는 지에 따라 서비스 요소에 기반한 사용자 단말(100)의 제어가 상이하게 되도록 할 수 있다. The above-described first scenario condition and second scenario condition may be used in combination with each other. For example, the
예컨대, 사용자 단말(100)은, 시나리오 조건이 만족되는 경우에만 AR 뷰(10)를 통해 VR 콘텐츠를 표시하거나, 시나리오 조건이 만족되는 경우와 시나리오 조건이 만족되는지 않는 경우를 구분하여, AR 뷰(10)를 통해, 서로 상이한 VR 콘텐츠를 표시할 수 있다. For example, the
전술한 "결정된 VR 콘텐츠"는 기존의 VR 콘텐츠를 다른 형태, 다른 애니메이션의 적용, 다른 효과를 적용하여 표시하는 것이거나, 상이한 내용의 VR 콘텐츠를 표시하는 것이거나, 기존의 VR 콘텐츠에 추가 콘텐츠(음성, 텍스트, 이미지, 동영상 등)를 더 부가한 것일 수 있다. The above-described “determined VR content” refers to displaying existing VR content in a different form, applying different animations, or applying different effects, displaying VR content with different content, or displaying additional content to existing VR content ( Additional information (voice, text, image, video, etc.) may be added.
이상 도 1 내지 도 11을 참조하여 전술된 기술적 특징에 대한 설명은, 도 12에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.The description of the technical features described above with reference to FIGS. 1 to 11 can also be applied to FIG. 12 , so overlapping descriptions will be omitted.
이처럼, 실시예들에서는, 공간 내에서 위치하는 객체의 위치와의 거리나 반경에 기반하여 AR/VR 콘텐츠를 표시시키거나 사용자 단말(100)을 제어하는 "렌더링 레인지(rendering range)" 기반의 방식이나, 공간의 의미 단위 영역으로 구분하여 사용자 단말(100)이 단위 공간에 진입할 때 AR/VR 콘텐츠를 표시시키거나 사용자 단말(100)을 제어하는 "시맨틱 레인지(Semantic Range)" 기반의 방식에 비해, 보다 사용자 친화적이고 자연스러운 방식으로 사용자 단말(100)에서 AR/VR 콘텐츠를 표시시시키고 사용자 단말(100)을 제어할 수 있는, "커스텀 레인지(Custom Range)" 방식이 활용될 수 있다. 커스텀 레인지는 실시예들을 참조하여 설명한 "커스텀 영역"을 사용하는 것일 수 있다. "커스텀 레인지" 방식은, AR/VR 콘텐츠의 표시와 사용자 단말(100)의 제어를 위해 서비스 요소가 연관되고 시나리오 조건이 정의된 커스텀 영역을 활용할 수 있다. As such, in embodiments, a “rendering range”-based method of displaying AR/VR content or controlling the
"렌더링 레인지" 기반의 방식이나 "시맨틱 레인지" 기반의 방식을 활용하는 경우에는, 사용자 단말(100)이 위치에 따라 부적절하게 AR 뷰(10) 내에서 의 객체의 위치에서 AR/VR 콘텐츠가 표시되는 경우가 발생될 수 있고, 경우에 따라서는, AR/VR 콘텐츠가 오클루전 영역에서 표시되는 문제가 발생될 수 있다. 실시예들을 참조하여 설명한 "커스텀 레인지" 방식에서는, 커스텀 영역이 활용됨으로써 이와 같은 문제가 해소될 수 있다. When using a “rendering range”-based method or a “semantic range”-based method, AR/VR content is displayed inappropriately at the position of the object within the
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices and components described in the embodiments include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a programmable logic unit (PLU). It may be implemented using one or more general-purpose or special-purpose computers, such as a logic unit, microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. The software and/or data may be embodied in any type of machine, component, physical device, computer storage medium or device for the purpose of being interpreted by or providing instructions or data to the processing device. there is. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. At this time, the medium may continuously store a computer-executable program, or temporarily store it for execution or download. In addition, the medium may be a variety of recording or storage means in the form of a single or several pieces of hardware combined. It is not limited to a medium directly connected to a computer system and may be distributed over a network. Examples of media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And there may be something configured to store program instructions, including ROM, RAM, flash memory, etc. Additionally, examples of other media include recording or storage media managed by app stores that distribute applications, sites or servers that supply or distribute various other software, etc.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.
Claims (18)
상기 사용자 단말의 위치에 기반하여, 상기 사용자 단말이 공간 내에서 기 설정된 커스텀 영역에 위치하는지 여부를 판정하는 단계;
상기 사용자 단말이 상기 커스텀 영역 내의 객체를 인식 가능하도록 하는 인식 영역에 상기 사용자 단말이 위치하는지 여부를 판정하는 단계;
상기 사용자 단말이 상기 인식 영역에 위치되면, 상기 사용자 단말의 카메라에 의해 촬영되는 영상을 포함하는 AR 뷰를 통해 상기 객체를 인식하는 단계; 및
상기 AR 뷰를 통해 상기 인식된 객체와 연관하여 기 설정된 가상 현실(Virtual Reality; VR) 콘텐츠를 표시하는 단계
를 포함하는, 사용자 단말을 제어하는 방법. In a method of controlling a user terminal performed by a computer system that is a server or a user terminal,
Based on the location of the user terminal, determining whether the user terminal is located in a preset custom area within the space;
determining whether the user terminal is located in a recognition area that allows the user terminal to recognize objects in the custom area;
When the user terminal is located in the recognition area, recognizing the object through an AR view including an image captured by a camera of the user terminal; and
Displaying preset virtual reality (VR) content in association with the recognized object through the AR view.
A method of controlling a user terminal, including.
상기 커스텀 영역에는 적어도 하나의 서비스 요소가 연관되어 있고,
상기 서비스 요소는 상기 공간과 연관된 서비스와 관련된(related) 상기 VR 콘텐츠의 표시를 위한 데이터를 포함하고,
상기 커스텀 영역에는 상기 사용자 단말이 상기 커스텀 영역에 위치함에 따라 상기 서비스 요소에 기반하여 상기 사용자 단말을 제어하기 위한 시나리오 조건이 정의되어 있는, 사용자 단말을 제어하는 방법. According to paragraph 1,
At least one service element is associated with the custom area,
The service element includes data for display of the VR content related to a service associated with the space,
A method for controlling a user terminal, wherein scenario conditions for controlling the user terminal are defined in the custom area based on the service element as the user terminal is located in the custom area.
상기 서비스 요소는 상기 사용자 단말에 상기 공간과 연관된 서비스를 제공하기 위해 상기 사용자 단말의 설정을 제어하기 위한 데이터를 포함하고,
상기 사용자 단말이 상기 커스텀 영역에 진입한 때, 상기 시나리오 조건에 따라, 상기 객체를 인식하기 위한 모듈의 실행을 포함하는 상기 사용자 단말의 설정을 제어하는 단계
를 더 포함하는, 사용자 단말을 제어하는 방법.According to paragraph 2,
The service element includes data for controlling settings of the user terminal to provide the user terminal with a service associated with the space,
When the user terminal enters the custom area, controlling settings of the user terminal, including execution of a module for recognizing the object according to the scenario conditions.
A method of controlling a user terminal, further comprising:
상기 인식 영역에 상기 사용자 단말이 위치하는지 여부를 판정하는 단계는,
상기 AR 뷰 내에 상기 객체가 표시되면 상기 인식 영역에 상기 사용자 단말이 위치하는 것으로 판정하는, 사용자 단말을 제어하는 방법.According to paragraph 1,
The step of determining whether the user terminal is located in the recognition area includes:
A method of controlling a user terminal, wherein when the object is displayed in the AR view, it is determined that the user terminal is located in the recognition area.
상기 인식 영역에 상기 사용자 단말이 위치하는지 여부를 판정하는 단계는,
상기 객체와 상기 사용자 단말 간의 거리가 소정의 거리 이하가 되는 조건, 상기 객체가 상기 AR 뷰 내의 특정 영역에서 표시되는 조건 및 상기 AR 뷰의 소정의 비율 이상 상기 객체가 표시되는 조건 중 적어도 하나의 조건이 만족되면, 상기 인식 영역에 상기 사용자 단말이 위치하는 것으로 판정하는, 사용자 단말을 제어하는 방법.According to paragraph 1,
The step of determining whether the user terminal is located in the recognition area includes:
At least one condition of a condition in which the distance between the object and the user terminal is less than or equal to a predetermined distance, a condition in which the object is displayed in a specific area in the AR view, and a condition in which the object is displayed in a predetermined ratio or more in the AR view. If satisfied, a method for controlling a user terminal determines that the user terminal is located in the recognition area.
상기 인식 영역은 상기 커스텀 영역 내에 기 정의된 영역이고,
상기 인식 영역에 상기 사용자 단말이 위치하는지 여부를 판정하는 단계는,
상기 사용자 단말의 위치가 기 정의된 상기 인식 영역에 위치하면, 상기 인식 영역에 상기 사용자 단말이 위치하는 것으로 판정하는, 사용자 단말을 제어하는 방법.According to paragraph 1,
The recognition area is a predefined area within the custom area,
The step of determining whether the user terminal is located in the recognition area includes:
When the location of the user terminal is located in the predefined recognition area, it is determined that the user terminal is located in the recognition area.
상기 사용자 단말이 상기 인식 영역에 진입한 때, 상기 객체를 인식하기 위한 모듈의 실행을 포함하는 상기 사용자 단말의 설정을 제어하는 단계
를 더 포함하는, 사용자 단말을 제어하는 방법.According to clause 6,
When the user terminal enters the recognition area, controlling settings of the user terminal, including execution of a module for recognizing the object.
A method of controlling a user terminal, further comprising:
상기 VR 콘텐츠를 표시하는 단계는,
상기 카메라의 시점(viewpoint)의 변화에 따라 시점을 변경하여 상기 VR 콘텐츠를 표시하고,
상기 인식 영역에 상기 사용자 단말이 위치하지 않게 되면, 상기 VR 콘텐츠의 표시를 종료하는 단계
를 더 포함하는, 사용자 단말을 제어하는 방법.According to paragraph 1,
The step of displaying the VR content is,
Displaying the VR content by changing the viewpoint according to a change in the viewpoint of the camera,
If the user terminal is no longer located in the recognition area, terminating display of the VR content
A method of controlling a user terminal, further comprising:
상기 VR 콘텐츠를 표시하는 단계는,
상기 VR 콘텐츠를 상기 AR 뷰의 전체 화면에서 표시하고,
상기 VR 콘텐츠는 상기 객체 주변의 가상의 공간을 묘사하는, 사용자 단말을 제어하는 방법.According to paragraph 1,
The step of displaying the VR content is,
Displaying the VR content on the entire screen of the AR view,
A method of controlling a user terminal, wherein the VR content depicts a virtual space around the object.
상기 가상의 공간은 상기 객체를 중심으로 하는 가상의 구(sphere) 공간으로 표현되는 것인, 사용자 단말을 제어하는 방법. According to clause 9,
A method of controlling a user terminal, wherein the virtual space is expressed as a virtual sphere space centered on the object.
상기 가상의 공간은 상기 객체가 위치된 주변 공간의 지오메트리를 반영하여 결정된 가상의 입체 공간으로 표현되는 것인, 사용자 단말을 제어하는 방법. According to clause 9,
The virtual space is expressed as a virtual three-dimensional space determined by reflecting the geometry of the surrounding space where the object is located.
상기 시나리오 조건은, 상기 커스텀 영역에 사용자 단말이 위치할 때, 상기 VR 콘텐츠로서, 상기 사용자 단말이 상기 커스텀 영역에 진입하기 전에 상기 사용자 단말이 진입한 다른 커스텀 영역에 기반하여 결정된 VR 콘텐츠가 상기 AR 뷰를 통해 표시되도록 설정되고,
상기 VR 콘텐츠를 표시하는 단계는,
상기 AR 뷰를 통해, 상기 다른 커스텀 영역에 기반하여 결정된 VR 콘텐츠를 표시하는, 사용자 단말을 제어하는 방법. According to paragraph 2,
The scenario condition is that when the user terminal is located in the custom area, the VR content, which is determined based on another custom area that the user terminal entered before entering the custom area, is the AR. is set to be displayed through the view,
The step of displaying the VR content is,
A method of controlling a user terminal, displaying VR content determined based on the different custom area through the AR view.
상기 시나리오 조건은, 상기 커스텀 영역에 사용자 단말이 위치할 때, 상기 VR 콘텐츠로서, 상기 사용자 단말이 경유한 지점에 기반하여 결정된 VR 콘텐츠가 상기 AR 뷰를 통해 표시되도록 설정되고,
상기 VR 콘텐츠를 표시하는 단계는,
상기 AR 뷰를 통해, 상기 사용자 단말이 경유한 지점에 기반하여 결정된 VR 콘텐츠를 표시하는, 사용자 단말을 제어하는 방법. According to paragraph 2,
The scenario condition is set so that when the user terminal is located in the custom area, the VR content, which is determined based on the point through which the user terminal passed, is displayed through the AR view,
The step of displaying the VR content is,
A method of controlling a user terminal, displaying VR content determined based on a point passed by the user terminal through the AR view.
상기 커스텀 영역의 내부 또는 상기 커스텀 영역의 외부에는 복수의 지점들이 정의되고,
상기 VR 콘텐츠를 표시하는 단계는,
상기 사용자 단말이 상기 복수의 지점들 중 제1 지점을 경유한 경우와 상기 사용자 단말이 상기 복수의 지점들 중 제2 지점을 경유한 경우에, 상기 AR 뷰를 통해, 서로 상이한 VR 콘텐츠를 표시하는, 사용자 단말을 제어하는 방법.According to clause 13,
A plurality of points are defined inside or outside the custom area,
The step of displaying the VR content is,
When the user terminal passes through a first point among the plurality of points and when the user terminal passes through a second point among the plurality of points, different VR contents are displayed through the AR view. , A method of controlling a user terminal.
상기 공간에는 복수의 커스텀 영역들이 설정되어 있고,
상기 시나리오 조건은, i) 상기 사용자 단말이 상기 커스텀 영역이 아닌 소정의 다른 커스텀 영역을 경유했는지 여부를 나타내는 제1 시나리오 조건 및 ii) 상기 커스텀 영역에 위치하는 사용자 단말들의 수가 소정의 범위에 해당하는지를 나타내는 제2 시나리오 조건 중 적어도 하나를 포함하고,
상기 시나리오 조건은 상기 시나리오 조건의 만족 여부에 따라, 상기 사용자 단말에 대해 상기 서비스 요소에 기반하여 상기 공간과 연관된 서비스 또는 정보를 상이하게 제공하거나 상기 사용자 단말의 설정을 상이하게 제어하도록 설정되고,
상기 VR 콘텐츠를 표시하는 단계는,
상기 시나리오 조건이 만족되는 경우에만 상기 AR 뷰를 통해 상기 VR 콘텐츠를 표시하거나, 상기 시나리오 조건이 만족되는 경우와 상기 시나리오 조건이 만족되는지 않는 경우 서로 상이한 VR 콘텐츠를 표시하는, 사용자 단말을 제어하는 방법.According to paragraph 2,
A plurality of custom areas are set in the space,
The scenario conditions include: i) a first scenario condition indicating whether the user terminal has passed through a custom area other than the custom area, and ii) whether the number of user terminals located in the custom area falls within a predetermined range. Includes at least one of the second scenario conditions representing,
The scenario conditions are set to provide different services or information related to the space or control settings of the user terminal differently based on the service elements to the user terminal, depending on whether the scenario conditions are satisfied,
The step of displaying the VR content is,
A method for controlling a user terminal, displaying the VR content through the AR view only when the scenario condition is satisfied, or displaying different VR content when the scenario condition is satisfied and when the scenario condition is not satisfied. .
상기 사용자 단말에서, 목적지로의 경로 안내 요청을 수신하는 단계; 및
상기 경로 안내 요청에 따라 상기 사용자 단말에 경로 안내를 제공하는 단계
를 더 포함하고,
상기 커스텀 영역에 상기 사용자 단말이 위치하는지 여부를 판정하는 단계, 상기 인식 영역에 상기 사용자 단말이 위치하는지 여부를 판정하는 단계, 상기 객체를 인식하는 단계 및 상기 VR 콘텐츠를 표시하는 단계는, 상기 경로 안내에 따라 상기 사용자 단말이 상기 목적지로 이동할 때 수행되는, 사용자 단말을 제어하는 방법.According to paragraph 1,
Receiving, at the user terminal, a request for route guidance to a destination; and
Providing route guidance to the user terminal according to the route guidance request.
It further includes,
Determining whether the user terminal is located in the custom area, determining whether the user terminal is located in the recognition area, recognizing the object, and displaying the VR content include: A method of controlling a user terminal, which is performed when the user terminal moves to the destination according to guidance.
상기 시나리오 조건은, 상기 커스텀 영역에 상기 사용자 단말이 진입한 횟수에 기반하여 결정된 VR 콘텐츠가 상기 AR 뷰를 통해 표시되도록 설정되고,
상기 VR 콘텐츠를 표시하는 단계는,
상기 AR 뷰를 통해, 상기 커스텀 영역에 상기 사용자 단말이 진입한 횟수에 기반하여 결정된 VR 콘텐츠를 표시하는, 사용자 단말을 제어하는 방법. According to paragraph 2,
The scenario condition is set so that VR content determined based on the number of times the user terminal enters the custom area is displayed through the AR view,
The step of displaying the VR content is,
A method of controlling a user terminal, displaying VR content determined based on the number of times the user terminal has entered the custom area through the AR view.
메모리에 포함된 컴퓨터 판독 가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로세서는,
상기 사용자 단말의 위치에 기반하여, 상기 사용자 단말이 공간 내에서 기 설정된 커스텀 영역에 위치하는지 여부를 판정하고, 상기 사용자 단말이 상기 커스텀 영역 내의 객체를 인식 가능하도록 하는 인식 영역에 상기 사용자 단말이 위치하는지 여부를 판정하고, 상기 사용자 단말이 상기 인식 영역에 위치되면, 상기 사용자 단말의 카메라에 의해 촬영되는 영상을 포함하는 AR 뷰를 통해 상기 객체를 인식하고, 상기 AR 뷰를 통해 상기 인식된 객체와 연관하여 기 설정된 가상 현실(Virtual Reality; VR) 콘텐츠를 표시하는, 컴퓨터 시스템.In a computer system implementing a user terminal or server,
At least one processor configured to execute computer-readable instructions contained in memory
Including,
The at least one processor,
Based on the location of the user terminal, it is determined whether the user terminal is located in a preset custom area in space, and the user terminal is located in a recognition area that allows the user terminal to recognize objects in the custom area. When the user terminal is located in the recognition area, the object is recognized through an AR view including an image captured by the camera of the user terminal, and the recognized object and A computer system that displays associated, preset virtual reality (VR) content.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220109258A KR20240030345A (en) | 2022-08-30 | 2022-08-30 | Method and apparatus for display virtual realiry contents on user terminal based on the determination that the user terminal is located in the pre-determined customized region |
PCT/KR2023/002475 WO2024048878A1 (en) | 2022-08-30 | 2023-02-21 | Method and device for displaying virtual reality content on user terminal on basis of user terminal being located in preconfigured custom area |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220109258A KR20240030345A (en) | 2022-08-30 | 2022-08-30 | Method and apparatus for display virtual realiry contents on user terminal based on the determination that the user terminal is located in the pre-determined customized region |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240030345A true KR20240030345A (en) | 2024-03-07 |
Family
ID=90098110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220109258A KR20240030345A (en) | 2022-08-30 | 2022-08-30 | Method and apparatus for display virtual realiry contents on user terminal based on the determination that the user terminal is located in the pre-determined customized region |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20240030345A (en) |
WO (1) | WO2024048878A1 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150206343A1 (en) * | 2014-01-17 | 2015-07-23 | Nokia Corporation | Method and apparatus for evaluating environmental structures for in-situ content augmentation |
KR20230108352A (en) * | 2017-05-01 | 2023-07-18 | 매직 립, 인코포레이티드 | Matching content to a spatial 3d environment |
KR102204027B1 (en) * | 2019-01-29 | 2021-01-15 | 가천대학교 산학협력단 | System for providing augmented reality contents through data stored by location based classification and method thereof |
KR102517919B1 (en) * | 2020-12-07 | 2023-04-04 | 한국과학기술원 | Method And Apparatus for Providing Advertisement Disclosure for Identifying Advertisements in 3-Dimensional Space |
KR20220108911A (en) * | 2021-01-28 | 2022-08-04 | (주)디지엔터테인먼트 | Augmented Reality GPS Linked Artificial Intelligence Image Analysis Building Safety System |
-
2022
- 2022-08-30 KR KR1020220109258A patent/KR20240030345A/en unknown
-
2023
- 2023-02-21 WO PCT/KR2023/002475 patent/WO2024048878A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024048878A1 (en) | 2024-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109074376B (en) | Contextual ink labeling in a drawing interface | |
KR102009031B1 (en) | Method and system for indoor navigation using augmented reality | |
KR101932007B1 (en) | Method and system for spatial messaging and content sharing | |
KR101989089B1 (en) | Method and system for authoring ar content by collecting ar content templates based on crowdsourcing | |
WO2015022584A2 (en) | 3d space content visualization system | |
US9443494B1 (en) | Generating bounding boxes for labels | |
KR20190068341A (en) | Method and apparatus for providing contents controlled or synthesized in accordance with an interaction of user | |
US20230073750A1 (en) | Augmented reality (ar) imprinting methods and systems | |
US11410330B2 (en) | Methods, devices, and systems for determining field of view and producing augmented reality | |
WO2023169201A1 (en) | Interaction method and apparatus based on virtual resources, device and storage medium | |
WO2022252688A1 (en) | Augmented reality data presentation method and apparatus, electronic device, and storage medium | |
Liu et al. | Handheld vs. head-mounted AR interaction patterns for museums or guided tours | |
KR100975128B1 (en) | Method, system and computer-readable recording medium for providing information of object using viewing frustum | |
KR20190073032A (en) | Method and system for crowdsourcing content based on geofencing | |
CN117321534A (en) | Touch pad navigation for augmented reality display device | |
KR102637701B1 (en) | Method and apparatus for route guidance using augmented reality view | |
KR102189924B1 (en) | Method and system for remote location-based ar authoring using 3d map | |
US20230228587A1 (en) | Route guidance method and device using augmented reality view | |
US8797315B1 (en) | Segmented editor for tours of a geographic information system, and applications thereof | |
KR20240030345A (en) | Method and apparatus for display virtual realiry contents on user terminal based on the determination that the user terminal is located in the pre-determined customized region | |
KR102309243B1 (en) | Method, system, and computer program for sharing content to chat room in picture-in-picture mode | |
KR20140078083A (en) | Method of manufacturing cartoon contents for augemented reality and apparatus performing the same | |
KR102670496B1 (en) | Method and apparatus for providing augmented contents through augmented reality view based on preset unit space | |
KR20240030481A (en) | Method and apparatus for generating customized region within the space with which service element is associated using tool for generating customized region | |
KR20240022714A (en) | Method and apparatus for controlling user terminal based on the determination that the user terminal is located in the pre-determined customized region |