KR102434457B1 - Apparatus and method for prividing virtual experience service based on extended reality - Google Patents

Apparatus and method for prividing virtual experience service based on extended reality Download PDF

Info

Publication number
KR102434457B1
KR102434457B1 KR1020200162854A KR20200162854A KR102434457B1 KR 102434457 B1 KR102434457 B1 KR 102434457B1 KR 1020200162854 A KR1020200162854 A KR 1020200162854A KR 20200162854 A KR20200162854 A KR 20200162854A KR 102434457 B1 KR102434457 B1 KR 102434457B1
Authority
KR
South Korea
Prior art keywords
sensor
user
unit
experience
experience service
Prior art date
Application number
KR1020200162854A
Other languages
Korean (ko)
Other versions
KR20220074393A (en
Inventor
전윤용
Original Assignee
(주)와이투콘
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)와이투콘 filed Critical (주)와이투콘
Priority to KR1020200162854A priority Critical patent/KR102434457B1/en
Publication of KR20220074393A publication Critical patent/KR20220074393A/en
Application granted granted Critical
Publication of KR102434457B1 publication Critical patent/KR102434457B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 확장현실 기반 가상 체험 서비스 제공 장치 및 방법에 관한 것으로, 더욱 상세하게는 외부 장치 또는 서버와 통신을 수행하는 통신부; 주변 환경 및 사용자를 촬영하는 카메라부; 적어도 하나 이상의 센서를 통해 사용자의 움직임 또는 주변 환경 변화를 감지하는 센서부; 상기 카메라부를 통해 촬영된 영상 또는 적어도 하나 이상의 정보를 디스플레이 하는 디스플레이부; 상기 카메라부에서 촬영된 영상과 상기 적어도 하나 이상의 센서를 통해 감지한 사용자의 움직임 또는 주변 환경 변화로부터 객체 정보를 실시간으로 추출하여 제공하는 추출부; 상기 카메라부에 의해 촬영된 영상, 컨텐츠, 어플리케이션, 프로그램 및 데이터 중 적어도 하나 이상을 저장하는 메모리부; 사용자가 웹 또는 어플리케이션을 통해 체험 서비스가 실행된 후, 디스플레이 되는 적어도 하나 이상의 3D 모델링된 객체 중 사용자에 의해 선택되는 객체를 확인하고, 선택된 객체의 형태에 대응하는 체험 서비스를 제공하도록 제어하는 제어부를 포함할 수 있다.The present invention relates to an apparatus and method for providing an extended reality-based virtual experience service, and more particularly, to a communication unit configured to communicate with an external device or server; a camera unit for photographing the surrounding environment and the user; a sensor unit for detecting a user's movement or a change in the surrounding environment through at least one sensor; a display unit for displaying an image captured by the camera unit or at least one piece of information; an extraction unit for extracting and providing object information in real time from the image captured by the camera unit and the user's movement or changes in the surrounding environment sensed through the at least one sensor; a memory unit for storing at least one of images, contents, applications, programs, and data captured by the camera unit; After the user executes the experiential service through the web or application, a control unit for controlling to check an object selected by the user among at least one or more 3D modeled objects displayed and provide an experience service corresponding to the shape of the selected object; may include

Description

확장현실 기반 가상 체험 서비스 제공 장치 및 방법{APPARATUS AND METHOD FOR PRIVIDING VIRTUAL EXPERIENCE SERVICE BASED ON EXTENDED REALITY}Apparatus and method for providing an extended reality-based virtual experience service

본 발명은 확장현실 기반 가상 체험 서비스 제공 장치 및 방법에 관한 것으로, 보다 상세하게는 사용자가 스마트 기기를 통해 확장현실을 기반으로 상품에 대한 체험을 가상으로 진행해볼 수 있도록 하는 확장현실 기반 가상 체험 서비스 제공 장치 및 방법에 관한 것이다. The present invention relates to an extended reality-based virtual experience service providing apparatus and method, and more particularly, to an extended reality-based virtual experience service that enables a user to virtually experience a product based on extended reality through a smart device. It relates to an apparatus and method for providing.

VR(Virtual Reality) 기술은 현실 세계의 객체나 배경 등을 CG(Computer Graphic) 영상으로만 제공하고, AR(Augmented Reality) 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR (Mixed) 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다. 전술한 VR, AR, MR 등을 모두 간단히 XR(extended reality) 기술로 지칭하기도 한다.VR (Virtual Reality) technology provides only CG (Computer Graphic) images of objects or backgrounds in the real world, and AR (Augmented Reality) technology provides CG images created virtual on top of real objects, and MR (Mixed Reality) ) technology is a computer graphics technology that provides the real world by mixing and combining virtual objects. The aforementioned VR, AR, MR, and the like are all simply referred to as XR (extended reality) technology.

이러한 VR, AR, MR 등 가상현실 시뮬레이션 기술은 다양한 산업 분야에 적용되고 있으며, 문화 예술 산업 분야 역시 가상 현실 기술에 주목하고 있다.Virtual reality simulation technologies such as VR, AR, and MR are being applied to various industrial fields, and the cultural art industry is also paying attention to virtual reality technology.

글로벌 문화 예술 산업의 소비는 최근 변화하는 소비 패턴에 따라 체험형 문화 예술 상품의 수요가 증가하고 있고, 소비 가치의 변화가 제품 자체에서 그 제품이 지닌 가치(소통, 표현, 체험)까지 포함하는 개념으로 변화하고 있는 추세이다.In the global culture and arts industry, the demand for experiential culture and art products is increasing according to the recent changing consumption patterns, and the change in consumption value includes the value of the product (communication, expression, experience) from the product itself. is a trend that is changing to

더욱이 문화 예술 상품은 타 분야에 비해 3차원적인 속성이 강한 분야로 가상현실 기술을 융합하여 좀 더 사실에 가까운 정보를 제공하고 상호작용이 가능하도록 하여 소비자의 선택의 폭을 확대하여 줄 필요성이 있다.Moreover, cultural art products are a field with strong three-dimensional properties compared to other fields, and there is a need to expand the range of choices of consumers by providing more realistic information and enabling interaction by converging virtual reality technology. .

최근 사람과의 접촉을 최소화하는 비대면 형태의 언택트(un-tact) 소비에 대한 수요가 증가하고 있는 추세이므로, 고객(사용자)이 스마트 기기를 통해 다양한 상품을 가상으로 체험해보고 구매할 수 있도록 하는 기술이 개발될 필요가 있다.Recently, as the demand for non-face-to-face un-tact consumption that minimizes contact with people is increasing, the Technology needs to be developed.

따라서, 본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 제안된 것으로, 사용자가 상품을 체험 또는 구입하기 위해 매장을 방문할 필요없이 스마트 기기를 이용하여 확장현실을 기반으로 하는 피팅 등의 체험을 할 수 있도록 하는 확장현실 기반 가상 체험 서비스 제공 장치 및 방법을 제공함에 있다.Therefore, the present invention has been proposed to solve the above problems, and the user can experience fittings based on extended reality using a smart device without the need to visit a store to experience or purchase a product. An object of the present invention is to provide an apparatus and method for providing an extended reality-based virtual experience service.

본 발명의 목적은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Objects of the present invention are not limited to those mentioned above, and other objects not mentioned will be clearly understood by those of ordinary skill in the art from the following description.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 확장현실 기반 가상 체험 서비스 제공 장치는 외부 장치 또는 서버와 통신을 수행하는 통신부; 주변 환경 및 사용자를 촬영하는 카메라부; 적어도 하나 이상의 센서를 통해 사용자의 움직임 또는 주변 환경 변화를 감지하는 센서부; 상기 카메라부를 통해 촬영된 영상 또는 적어도 하나 이상의 정보를 디스플레이 하는 디스플레이부; 상기 카메라부에서 촬영된 영상과 상기 적어도 하나 이상의 센서를 통해 감지한 사용자의 움직임 또는 주변 환경 변화로부터 객체 정보를 실시간으로 추출하여 제공하는 추출부; 상기 카메라부에 의해 촬영된 영상, 컨텐츠, 어플리케이션, 프로그램 및 데이터 중 적어도 하나 이상을 저장하는 메모리부; 사용자가 웹 또는 어플리케이션을 통해 체험 서비스가 실행된 후, 디스플레이 되는 적어도 하나 이상의 3D 모델링된 객체 중 사용자에 의해 선택되는 객체를 확인하고, 선택된 객체의 형태에 대응하는 체험 서비스를 제공하도록 제어하는 제어부를 포함할 수 있다.According to an aspect of the present invention for achieving the above object, an apparatus for providing an extended reality-based virtual experience service includes: a communication unit configured to communicate with an external device or server; a camera unit for photographing the surrounding environment and the user; a sensor unit for detecting a user's movement or a change in the surrounding environment through at least one sensor; a display unit for displaying an image captured by the camera unit or at least one piece of information; an extraction unit for extracting and providing object information in real time from the image captured by the camera unit and the user's movement or changes in the surrounding environment sensed through the at least one sensor; a memory unit for storing at least one of images, contents, applications, programs, and data captured by the camera unit; After the user executes the experiential service through the web or application, a control unit for controlling to check an object selected by the user among at least one or more 3D modeled objects displayed and provide an experience service corresponding to the shape of the selected object; may include

한편, 본 발명에 따른 확장현실 기반 가상 체험 서비스 제공 방법은 사용자가 웹 또는 어플리케이션 등을 통해 체험 서비스를 실행하면 디스플레이부를 통해 적어도 하나 이상의 3D 모델링된 객체가 디스플레이 되는 단계; 제어부가 적어도 하나 이상의 3D 모델링된 객체 중 사용자에 의해 선택되는 객체를 확인하는 단계; 및 상기 제어부가 카메라부로부터 획득되는 영상 및 센서부로부터 획득되는 데이터를 기반으로 상기 선택된 객체에 대응하는 체험 형태로 체험 서비스를 제공받는 단계를 포함할 수 있다.Meanwhile, the method for providing an extended reality-based virtual experience service according to the present invention includes: displaying at least one 3D modeled object through a display unit when a user executes the experience service through a web or an application; checking, by the controller, an object selected by a user from among at least one or more 3D modeled objects; and receiving, by the control unit, an experience service in the form of an experience corresponding to the selected object based on the image obtained from the camera unit and data obtained from the sensor unit.

본 발명에 의하면, 사용자가 상품을 체험 또는 구입하기 위해 매장을 방문할 필요없이 스마트 기기를 이용하여 확장현실을 기반으로 하는 피팅 등의 체험을 할 수 있도록 한다.According to the present invention, a user can experience fittings based on extended reality using a smart device without having to visit a store to experience or purchase a product.

본 발명의 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description.

도 1a 및 도 1b는 본 발명의 일 실시예에 따라 체험 서비스 제공 장치를 통해 상품에 대한 체험 서비스를 제공받는 예시를 나타내는 도면이다.
도 2는 본 발명의 다른 실시예에 따라 체험 서비스 제공 장치를 통해 상품에 대한 체험 서비스를 제공받는 예시를 나타내는 도면이다.
도 3은 본 발명의 실시예에 따른 체험 서비스 제공 장치의 구성을 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 체험 서비스 제공 장치에서의 체험 서비스 제공 방법을 나타내는 순서도이다.
도 5a 및 도 5b는 본 발명의 실시예에 따른 체험 서비스 제공 장치에서 실시간 객체를 추적하기 위한 일련의 과정을 설명하기 위한 도면이다.
1A and 1B are diagrams illustrating an example of receiving an experience service for a product through an apparatus for providing an experience service according to an embodiment of the present invention.
2 is a diagram illustrating an example of receiving an experience service for a product through an apparatus for providing an experience service according to another embodiment of the present invention.
3 is a diagram illustrating the configuration of an apparatus for providing an experience service according to an embodiment of the present invention.
4 is a flowchart illustrating a method for providing an experience service in an apparatus for providing an experience service according to an embodiment of the present invention.
5A and 5B are diagrams for explaining a series of processes for tracking a real-time object in an apparatus for providing an experience service according to an embodiment of the present invention.

본 발명의 구성 및 효과를 충분히 이해하기 위하여, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예들을 설명한다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라, 여러 가지 형태로 구현될 수 있고 다양한 변경을 가할 수 있다. 단지, 본 실시예들에 대한 설명은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위하여 제공되는 것이다. 첨부된 도면에서 구성 요소들은 설명의 편의를 위하여 그 크기를 실제보다 확대하여 도시한 것이며, 각 구성 요소의 비율은` 과장되거나 축소될 수 있다.In order to fully understand the configuration and effect of the present invention, preferred embodiments of the present invention will be described with reference to the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, and may be embodied in various forms and various modifications may be made. However, the description of the present embodiments is provided so that the disclosure of the present invention is complete, and to fully inform those of ordinary skill in the art to which the present invention belongs, the scope of the invention. In the accompanying drawings, the components are enlarged in size from the actual ones for convenience of description, and the ratio of each component may be exaggerated or reduced.

어떤 구성 요소가 다른 구성 요소에 "상에" 있다거나 "접하여" 있다고 기재된 경우, 다른 구성 요소에 상에 직접 맞닿아 있거나 또는 연결되어 있을 수 있지만, 중간에 또 다른 구성 요소가 존재할 수 있다고 이해되어야 할 것이다. 반면, 어떤 구성 요소가 다른 구성 요소의 "바로 상에" 있다거나 "직접 접하여" 있다고 기재된 경우에는, 중간에 또 다른 구성 요소가 존재하지 않는 것으로 이해될 수 있다. 구성 요소들 간의 관계를 설명하는 다른 표현들, 예를 들면, "~사이에"와 "직접 ~사이에" 등도 마찬가지로 해석될 수 있다.When an element is described as being “on” or “adjacent to” another element, it should be understood that another element may be directly on or connected to the other element, but another element may exist in between. something to do. On the other hand, when it is described that a certain element is "on" or "directly" of another element, it may be understood that another element does not exist in the middle. Other expressions describing the relationship between elements, for example, “between” and “directly between”, etc. may be interpreted similarly.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 수 있다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms may be used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.

단수의 표현은 문맥상 명백하게 다르게 표현하지 않는 한, 복수의 표현을 포함한다. "포함한다" 또는 "가진다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하기 위한 것으로, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들이 부가될 수 있는 것으로 해석될 수 있다.The singular expression includes the plural expression unless the context clearly dictates otherwise. Terms such as "comprises" or "having" are intended to designate that a feature, number, step, action, component, part, or combination thereof described in the specification is present, and includes one or more other features or numbers, It may be construed that steps, operations, components, parts, or combinations thereof may be added.

본 발명의 실시예들에서 사용되는 용어들은 다르게 정의되지 않는 한, 해당 기술 분야에서 통상의 지식을 가진 자에게 통상적으로 알려진 의미로 해석될 수 있다.Unless otherwise defined, terms used in the embodiments of the present invention may be interpreted as meanings commonly known to those of ordinary skill in the art.

본 발명은 악세사리 등의 문화 예술 상품에 대한 3D 모델링(Modelling) 및 디지털아카이브를 통해 사용자가 가상 공간에서 상품 체험이 가능하도록 하기 위한 것으로, 사용자가 상품을 체험 또는 구입하기 위해 매장을 방문할 필요없이 스마트 기기를 이용하여 확장현실을 기반으로 하는 피팅 기술을 통해 다양한 상품을 직접 착용해보지 않고도 실제 피팅하는 것과 같은 체험 서비스를 제공하기 위한 것이다. The present invention is to enable a user to experience a product in a virtual space through 3D modeling and digital archive of cultural and artistic products such as accessories, without the need for the user to visit a store to experience or purchase the product This is to provide an experience service like actual fitting without having to try on various products directly through fitting technology based on extended reality using smart devices.

여기서, 스마트 기기는 체험 서비스를 제공하기 위한 확장현실(Extended Reality, 이하 ‘XR’이라 칭함) 디바이스가 될 수 있다. 예를 들어, XR 디바이스는 아이-글래스(Eye-glass), EMD(Eye Mounted Display), HMD(Head Mounted Display), HWD(Head Worn Display) 및 HUD(Head Up Display) 중 어느 하나일 수도 있고, 랩탑, 데스크탑, 등의 일반적인 형태의PC뿐만 아니라 스마트북, MID(Mobile Internet Device), 넷북, 스마트폰, 태블릿 PC, 스마트 TV 중 어느 하나일 수도 있다.Here, the smart device may be an extended reality (extended reality, hereinafter referred to as 'XR') device for providing an experience service. For example, the XR device may be any one of eye-glass, EMD (Eye Mounted Display), HMD (Head Mounted Display), HWD (Head Worn Display), and HUD (Head Up Display), It may be any one of a smart book, a mobile Internet device (MID), a netbook, a smart phone, a tablet PC, and a smart TV, as well as a general type of PC such as a laptop, a desktop, and the like.

XR은 실제 세상과 똑같이 구현한 가상현실(Virtual Reality), 현실 세계 위에 가상의 객체를 결합해 놓은 증강현실(Augmented Reality), 현실세계와 가상세계를 융합해 놓은 혼합현실(Mixed Reality) 모두를 통합해 탄생시킨 또 다른 제3의 현실세계이다.XR integrates all of Virtual Reality, which is implemented exactly like the real world, Augmented Reality, which combines virtual objects on top of the real world, and Mixed Reality, which combines the real world with the virtual world. It is another third real world that was born.

즉, 본 발명은 이러한 확장현실을 기반으로 가상 체험 서비스를 제공하기 위한 장치 및 방법에 관한 것이다.That is, the present invention relates to an apparatus and method for providing a virtual experience service based on such extended reality.

이하, 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 발명의 구성 및 동작을 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1a 및 도 1b는 본 발명의 일 실시예에 따라 체험 서비스 제공 장치를 통해 상품에 대한 체험 서비스를 제공받는 예시를 나타내는 도면이다.1A and 1B are diagrams illustrating an example of receiving an experience service for a product through an apparatus for providing an experience service according to an embodiment of the present invention.

먼저, 사용자는 체험 서비스 제공 장치(100)를 이용하여 웹 또는 어플리케이션을 실행함으로써 체험 서비스를 제공받을 수 있다.First, a user may receive an experience service by executing a web or an application using the experience service providing apparatus 100 .

도 1a 및 도 1b를 참조하면, 체험 서비스 제공 장치(100)의 화면에 디스플레이 되는 적어도 하나 이상의 상품을 확인하고, 그 중 체험하고 싶은 상품을 선택하여 그 상품을 체험해볼 수 있다. Referring to FIGS. 1A and 1B , at least one product displayed on the screen of the experience service providing apparatus 100 may be checked, and a product to be experienced may be selected and the product may be experienced.

이때, 각 상품들은 모두 3D 모델링 된 객체로서, 사용자는 3D 좌표 축에 따라 이 객체를 이동, 회전, 확대 또는 축소 등을 수행해가며 세부적인 구성까지 살펴볼 수 있다. At this time, each product is a 3D modeled object, and the user can move, rotate, enlarge or reduce the object according to the 3D coordinate axis, and look at the detailed configuration.

도 1a를 참조하면, 사용자는 3D 모델링 된 객체를 360°뷰(view)를 통해 돌려가며 그 상품을 입체적으로 체험해볼 수 있다.Referring to FIG. 1A , the user can experience the product three-dimensionally by rotating the 3D modeled object through a 360° view.

또한, 도 1b를 참조하면, 사용자는 3D 모델링 된 객체를 시뮬레이션을 통해 원하는 장소에 배치해가며 그 상품을 입체적으로 체험해 볼 수 있다.In addition, referring to FIG. 1B , the user can experience the product three-dimensionally while placing the 3D modeled object at a desired place through simulation.

도 2는 본 발명의 다른 실시예에 따라 체험 서비스 제공 장치를 통해 상품에 대한 체험 서비스를 제공받는 예시를 나타내는 도면이다.2 is a diagram illustrating an example of receiving an experience service for a product through an apparatus for providing an experience service according to another embodiment of the present invention.

도 2를 참조하면, 사용자는 체험 서비스 제공 장치(100)으로 자신의 손을 촬영하고, 실제 상품을 가지고 있는 것은 아니지만, 체험하고자 하는 상품을 그 촬영된 손에 착용해가며 입체적으로 체험해 볼 수 있다.Referring to FIG. 2 , the user can take a picture of his or her hand with the experience service providing device 100 , and do not have the actual product, but can experience the product three-dimensionally by wearing the product to be experienced on the photographed hand. have.

도 3은 본 발명의 실시예에 따른 체험 서비스 제공 장치의 구성을 나타내는 도면이다.3 is a diagram illustrating a configuration of an apparatus for providing an experience service according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 실시예에 따른 서비스 제공 장치(100)는 통신부(101), 카메라부(103), 센서부(105), 디스플레이부(107), 추출부(109), 메모리부(111) 및 제어부(113)를 포함한다. 물론, 당업자의 필요에 따라 일부 모듈을 삭제, 변경, 추가하는 것도 본 발명의 권리범위에 속한다.Referring to FIG. 3 , the service providing apparatus 100 according to an embodiment of the present invention includes a communication unit 101 , a camera unit 103 , a sensor unit 105 , a display unit 107 , an extraction unit 109 , and a memory. It includes a unit 111 and a control unit 113 . Of course, deleting, changing, or adding some modules according to the needs of those skilled in the art also falls within the scope of the present invention.

통신부(101)은 외부 장치 또는 서버와 유선/무선으로 통신을 수행하며, 근거리 무선 통신으로 예를 들어 Wi-Fi, 블루투스 등이 사용될 수 있고, 원거리 무선 통신으로 예를 들어 3GPP 통신 규격이 사용될 수 있다.The communication unit 101 performs wired/wireless communication with an external device or server, for example, Wi-Fi, Bluetooth, etc. may be used for short-distance wireless communication, and for example, 3GPP communication standard may be used for long-distance wireless communication. have.

LTE는 3GPP TS 36.xxx Release 8 이후의 기술을 의미한다. 세부적으로, 3GPP TS 36.xxx Release 10 이후의 LTE 기술은 LTE-A로 지칭되고, 3GPP TS 36.xxx Release 13 이후의 LTE 기술은 LTE-A pro로 지칭된다. 3GPP 5G (5th generation) 기술은 TS 36.xxx Release 15 이후의 기술 및 TS 38.XXX Release 15 이후의 기술을 의미하며, 이중 TS 38.xxx Release 15 이후의 기술은 3GPP NR로 지칭되고, TS 36.xxx Release 15 이후의 기술은 enhanced LTE로 지칭될 수 있다. "xxx"는 표준 문서 세부 번호를 의미한다. LTE/NR은 3GPP 시스템으로 통칭될 수 있다.LTE refers to technology after 3GPP TS 36.xxx Release 8. In detail, LTE technology after 3GPP TS 36.xxx Release 10 is referred to as LTE-A, and LTE technology after 3GPP TS 36.xxx Release 13 is referred to as LTE-A pro. 3GPP 5G (5th generation) technology refers to technology after TS 36.xxx Release 15 and technology after TS 38.XXX Release 15, among which technology after TS 38.xxx Release 15 is referred to as 3GPP NR, and TS 36 The technology after .xxx Release 15 may be referred to as enhanced LTE. "xxx" stands for standard document detail number. LTE/NR may be collectively referred to as a 3GPP system.

카메라부(103)는 체험 서비스 제공 장치(100)의 주변 환경을 촬영하거나, 사용자를 촬영하여 전기적 신호로 변환한다. 이를 위해 카메라부(103)는 적어도 하나 이상의 카메라를 구비하여 체험 서비스 제공 장치(100)의 주변 환경은 물론 사용자를 촬영하도록 할 수 있다. The camera unit 103 captures the surrounding environment of the experience service providing apparatus 100 or captures a user and converts the image into an electrical signal. To this end, the camera unit 103 may include at least one camera to photograph the user as well as the surrounding environment of the experience service providing apparatus 100 .

이 카메라부(103)에서 촬영되어 전기적 신호로 변환된 이미지는 메모리부(111)에 저장된 후, 제어부(113)를 통해 디스플레이부(107)에서 디스플레이 될 수 있다. 또한, 카메라부(103)에서 촬영되어 전기적 신호로 변환된 이미지는 메모리부(111)에 저장되지 않고, 바로 제어부(113)를 통해 디스플레이부(107)에서 디스플레이 될 수도 있다.The image captured by the camera unit 103 and converted into an electrical signal may be stored in the memory unit 111 and then displayed on the display unit 107 through the control unit 113 . In addition, the image captured by the camera unit 103 and converted into an electrical signal is not stored in the memory unit 111 , but may be directly displayed on the display unit 107 through the control unit 113 .

이때, 카메라부(103)는 화각을 가질 수 있다. 예를 들어, 화각은 카메라부(103) 주변에 위치하는 리얼 오브젝트를 디텍트할 수 있는 영역을 의미한다. 카메라부(103)는 화각 내에 위치하는 리얼 오브젝트만을 디텍트할 수 있다. 리얼 오브젝트가 카메라부(103)의 화각 내에 위치하는 경우, 체험 서비스 제공 장치(100)는 리얼 오브젝트에 대응하는 가상현실 오브젝트를 디스플레이 할 수 있다. 또한, 카메라부(103)는 카메라부(103)와 리얼 오브젝트의 각도를 디텍트할 수 있다.In this case, the camera unit 103 may have an angle of view. For example, the angle of view means an area capable of detecting a real object located around the camera unit 103 . The camera unit 103 may detect only real objects located within the angle of view. When the real object is located within the angle of view of the camera unit 103 , the experience service providing apparatus 100 may display a virtual reality object corresponding to the real object. Also, the camera unit 103 may detect an angle between the camera unit 103 and the real object.

센서부(105)는 적어도 하나 이상의 센서를 포함할 수 있으며, 예를 들어, 중력(gravity) 센서, 지자기 센서, 모션 센서, 자이로 센서, 가속도 센서, 기울임(inclination) 센서, 밝기 센서, 고도 센서, 후각 센서, 온도 센서, 뎁스 센서, 압력 센서, 벤딩 센서, 오디오 센서, 비디오 센서, GPS(Global Positioning System) 센서, 터치 센서 등의 센싱 수단을 포함할 수 있다. The sensor unit 105 may include at least one or more sensors, for example, a gravity sensor, a geomagnetic sensor, a motion sensor, a gyro sensor, an acceleration sensor, an inclination sensor, a brightness sensor, an altitude sensor, Sensing means such as an olfactory sensor, a temperature sensor, a depth sensor, a pressure sensor, a bending sensor, an audio sensor, a video sensor, a global positioning system (GPS) sensor, and a touch sensor may be included.

이 센서부(105)는 적어도 하나 이상의 센서를 이용하여 사용자의 움직임 및/또는 주변 환경 변화 등을 감지한다. The sensor unit 105 detects a user's movement and/or a change in the surrounding environment using at least one sensor.

디스플레이(107)는 고정형일 수도 있으나, 높은 플렉시빌러티(flexibility)를 갖도록 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode), ELD(Electro uminescent Display), M-LED(Micro LED)로 구현 가능하다. 이때, 센서부(105)는 앞서 기술한 LCD, OLED, ELD, M-LED(마이크로 LED) 등으로 구현된 디스플레이부(107)의 휘어짐, 벤딩(Bending) 정도를 디텍트 하도록 설계한다.Although the display 107 may be of a fixed type, it is implemented with a liquid crystal display (LCD), an organic light emitting diode (OLED), an electro uminescent display (ELD), and a micro LED (M-LED) to have high flexibility. It is possible. At this time, the sensor unit 105 is designed to detect the degree of bending and bending of the display unit 107 implemented with the above-described LCD, OLED, ELD, M-LED (micro LED), and the like.

이 디스플레이부(107)는 카메라부(103)에서 촬영되어 전기적 신호로 변환된 이미지와 메모리부(111)에 저장된 적어도 하나 이상의 데이터, 컨텐츠, 프로그램, 어플리케이션 등을 디스플레이 한다.The display unit 107 displays an image captured by the camera unit 103 and converted into an electrical signal, and at least one or more data, contents, programs, applications, etc. stored in the memory unit 111 .

추출부(109)는 카메라부(103)에서 촬영된 영상과 상기 적어도 하나 이상의 센서를 통해 감지한 사용자의 움직임 또는 주변 환경 변화로부터 객체 정보를 실시간으로 추출하여 제공한다. 이 추출부(109)에서 객체 정보를 실시간으로 추출하는 과정에 대해서는 이하에서 도 5a 및 도 5b를 참조하여 구체적으로 설명하도록 한다.The extraction unit 109 extracts and provides object information in real time from the image captured by the camera unit 103 and the user's movement or changes in the surrounding environment sensed through the at least one or more sensors. A process of extracting object information in real time by the extraction unit 109 will be described in detail below with reference to FIGS. 5A and 5B .

메모리부(111)는 카메라부(103)에 의해 촬영된 이미지를 저장하는 기능을 가지고 있을 뿐만 아니라, 외부 장치 또는 서버와 유선/무선으로 통신을 수행한 결과값의 전부 또는 일부를 저장하는 기능을 가지고 있다. 특히, 통신 데이터 트래픽이 증가하는 추세(예를 들어, 5G 통신 환경에서)를 고려할 때, 효율적인 메모리 관리가 요구된다.The memory unit 111 not only has a function of storing the image captured by the camera unit 103, but also has a function of storing all or part of the result value obtained by performing wired/wireless communication with an external device or server. Have. In particular, considering the trend of increasing communication data traffic (eg, in a 5G communication environment), efficient memory management is required.

이 메모리부(111)는 외부 장치 또는 서버로부터 수신된 데이터, 컨텐츠, 프로그램, 어플리케이션 등을 저장한다. The memory unit 111 stores data, content, programs, applications, etc. received from an external device or server.

제어부(111)는 사용자가 웹 또는 어플리케이션 등을 통해 체험 서비스가 실행된 후, 디스플레이 되는 적어도 하나 이상의 3D 모델링된 객체 중 사용자에 의해 선택되는 객체를 확인하고, 선택된 객체의 형태에 대응하는 체험 서비스를 제공하도록 제어한다.The controller 111 checks an object selected by the user from among at least one or more 3D modeled objects displayed after the user executes the experience service through a web or an application, and provides an experience service corresponding to the shape of the selected object. control to provide.

예를 들어, 도 1a에서와 같이 3D 모델링 된 객체를 360°뷰(view)로 살펴보고자 하는 경우, 제어부(113)는 360°뷰 플레이어를 기반으로 사용자의 조작에 따라 그 3D 모델링된 객체에 대한 이동, 회전, 확대 또는 축소가 실행되도록 제어한다.For example, when looking at a 3D modeled object as a 360° view as in FIG. 1A , the controller 113 controls the 3D modeled object according to the user's manipulation based on the 360° view player. Controls movement, rotation, enlargement, or reduction to be executed.

한편, 도 1b에서와 같이 3D 모델링 된 객체를 사용자의 주변환경에 적용해보는 시뮬레이션으로 살펴보고자 하는 경우, 제어부(113)는 사용자의 조작에 따라 3D 모델링 된 객체를 시뮬레이션을 통해 원하는 장소에 배치되도록 제어한다.On the other hand, as shown in FIG. 1B , when it is desired to examine the simulation of applying the 3D modeled object to the user's surrounding environment, the control unit 113 controls the 3D modeled object to be placed in a desired place through simulation according to the user's manipulation. do.

또한, 도 2에서와 같이 3D 모델링 된 객체를 사용자가 가상으로 착용해보는 체험을 통해 살펴보고자 하는 경우, 제어부(113)는 사용자가 카메라부(130)를 통해 착용을 원하는 부위를 촬영하면, 그 촬영된 이미지에서 그 부위를 객체로서 추척 및 검출하고, 그 검출된 부위에 3D 모델링 된 객체를 착용해가며 입체적으로 체험해 볼 수 있도록 제어한다.In addition, as shown in FIG. 2 , when a user wants to see a 3D modeled object through an experience of wearing it virtually, the control unit 113 takes a picture of a part that the user wants to wear through the camera unit 130 . It tracks and detects the part as an object in the image, and controls it so that it can be experienced three-dimensionally by wearing a 3D modeled object on the detected part.

도 4는 본 발명의 실시예에 따른 체험 서비스 제공 장치에서의 체험 서비스 제공 방법을 나타내는 순서도이다.4 is a flowchart illustrating a method for providing an experience service in an apparatus for providing an experience service according to an embodiment of the present invention.

도 4를 참조하면, 사용자가 웹 또는 어플리케이션 등을 통해 체험 서비스를 실행하면(S201), 디스플레이부(107)에 적어도 하나 이상의 3D 모델링된 객체가 디스플레이된다(S203).Referring to FIG. 4 , when a user executes an experiential service through a web or an application (S201), at least one 3D modeled object is displayed on the display unit 107 (S203).

이후, 제어부(113)가 적어도 하나 이상의 3D 모델링된 객체 중 사용자에 의해 선택되는 객체를 확인하고(S205), 카메라부(103)로부터 획득되는 영상 및 센서부(105)로부터 획득되는 데이터를 기반으로 상기 선택된 객체에 대응하는 체험 형태로 체험을 실행한다(S207).Thereafter, the controller 113 identifies an object selected by the user among at least one or more 3D modeled objects ( S205 ), and based on the image obtained from the camera unit 103 and data obtained from the sensor unit 105 . An experience is executed in an experience form corresponding to the selected object (S207).

먼저, 도 1a에서와 같이 3D 모델링 된 객체를 360°뷰(view)로 살펴보고자 하는 경우, 제어부(113)는 360°뷰 플레이어를 실행하도록 제어한다(S209).First, as shown in FIG. 1A , when a 3D modeled object is viewed in a 360° view, the controller 113 controls the 360° view player to be executed ( S209 ).

한편, 도 1b에서와 같이 3D 모델링 된 객체를 사용자의 주변환경에 적용해보는 시뮬레이션으로 살펴보고자 하는 경우, 제어부(113)는 사용자의 조작에 따라 3D 모델링 된 객체가 시뮬레이션을 통해 원하는 장소에 배치되도록 제어한다(S211).On the other hand, as shown in FIG. 1B , when it is desired to examine the simulation of applying the 3D modeled object to the user's surrounding environment, the control unit 113 controls the 3D modeled object to be placed in a desired place through the simulation according to the user's manipulation. do (S211).

또한, 도 2에서와 같이 3D 모델링 된 객체를 사용자가 가상으로 착용해보는 체험을 통해 살펴보고자 하는 경우, 제어부(113)는 사용자가 카메라부(130)를 통해 착용을 원하는 부위를 촬영하면, 그 촬영된 이미지에서 그 부위를 객체로서 추척 및 검출하고, 그 검출된 부위에 3D 모델링 된 객체를 착용해가며 입체적으로 체험해 볼 수 있도록 제어한다(S213).In addition, as shown in FIG. 2 , when a user wants to see a 3D modeled object through an experience of wearing it virtually, the control unit 113 takes a picture of a part that the user wants to wear through the camera unit 130 . The part is tracked and detected as an object in the obtained image, and the 3D modeled object is worn on the detected part and controlled so that it can be experienced three-dimensionally (S213).

상기 S209 단계 내지 S213 단계 이후, 사용자의 조작에 따라 그 3D 모델링된 객체에 대한 이동, 회전, 확대 또는 축소 기능을 이용하여 체험 서비스를 수행한다(S215).After the steps S209 to S213, the experience service is performed by using a function of moving, rotating, enlarging or reducing the 3D modeled object according to a user's manipulation (S215).

도 5a 및 도 5b는 본 발명의 실시예에 따른 체험 서비스 제공 장치에서 실시간 객체를 추적하기 위한 일련의 과정을 설명하기 위한 도면으로서, 도 5a 및 도 5b를 참조하여 S213 단계를 구체적으로 설명하기로 한다.5A and 5B are diagrams for explaining a series of processes for tracking a real-time object in the apparatus for providing an experience service according to an embodiment of the present invention. Step S213 will be described in detail with reference to FIGS. 5A and 5B. do.

예를 들어, 손영상으로부터 실시간 객체 정보를 추출하기 위한 경우, 먼저 사용자는 자신의 손을 카메라부(103)를 이용하여 촬영함으로써 손 영상을 획득한다. 이후, 그 획득된 손 영상에 대해 객체 RGB 컬러 영역에서 HSV 컬러 영역으로 변환하고, 휘도 성분을 포함하지 않은 색조 성분인 H값과 채도 성분인 S값을 추출한다.For example, in order to extract real-time object information from a hand image, a user first acquires a hand image by photographing his or her hand using the camera unit 103 . Thereafter, the obtained hand image is converted from the object RGB color gamut to the HSV color gamut, and an H value that is a hue component that does not include a luminance component and an S value that is a chroma component are extracted.

이 H성분과 S성분 가각에 대해 이중 임계 값을 적용한 후, 교집합을 구해 배경영상으로부터 손 객체를 분리한다. 이러한 알고리즘은 하기와 같이 표현할 수 있다.After applying a double threshold to each of the H and S components, the hand object is separated from the background image by finding the intersection. Such an algorithm can be expressed as follows.

Figure 112020128447215-pat00001
Figure 112020128447215-pat00001

여기서, Hmin(Smin)와 Hmax(Smax)는 각각 색조(채도) 성분의 임계값에 대한 최소값과 최대값을 나타내고, Ixy는 해당 좌표의 밝기값을 나타낸다.Here, Hmin(Smin) and Hmax(Smax) represent the minimum and maximum values of the threshold value of the hue (saturation) component, respectively, and Ixy represents the brightness value of the corresponding coordinate.

한편, 예를 들어, 실시간 객체 영역을 추적하기 위한 경우, CAMShift(Continuously Adaptive Mean Shift) 알고리즘을 적용하여 객체를 추적한다.Meanwhile, for example, in the case of tracking a real-time object region, an object is tracked by applying a Continuously Adaptive Mean Shift (CAMShift) algorithm.

역투영 이미지와 이중임계 값 처리 객체(손) 영역을 추적하고, 탐색 영역 내에서 영상처리를 통해 객체 영역을 검출한다. 이후, 최소한의 객체 영역을 생성하기 위해 거리 변환(Distance transform) 알고리즘을 적용한 객체 영역을 검출한다. 이러한 알고리즘은 하기와 같이 표현할 수 있다.The back-projection image and the double-threshold processing object (hand) area are tracked, and the object area is detected through image processing within the search area. Thereafter, an object area to which a distance transform algorithm is applied to generate a minimum object area is detected. Such an algorithm can be expressed as follows.

Figure 112020128447215-pat00002
Figure 112020128447215-pat00002

이와 같이 이진 손 영상 내 화소 간의 최소 거리식을 통하여 객체 정합 위치를 추정할 수 있다.As described above, the object registration position can be estimated through the minimum distance expression between pixels in the binary hand image.

상기에서 살펴본 바와 같이, 고객(사용자)이 매장을 방문할 필요없이 자신의 공간에서 스마트 기기를 통해 다양한 상품을 가상으로 체험해보고 구매할 수 있도록 하여 시간적, 경제적 효율성이 향상될 수 있도록 한다.As described above, time and economic efficiency can be improved by enabling customers (users) to virtually experience and purchase various products through smart devices in their own space without having to visit a store.

한편, 상기에서 설명의 편의를 위하여 대상을 상품으로 지칭하였으나, 이는 예술 작품, 동물 등 다양한 대상이 적용될 수 있다. 즉, 그 상품을 구입하는 것을 목적으로만 하는 것은 아니며, 관찰을 목적으로 할 수도 있고, 이는 상황에 따라 변경될 수 있다. Meanwhile, in the above description, the object is referred to as a product for convenience of explanation, but various objects such as works of art and animals may be applied. That is, it is not only for the purpose of purchasing the product, but also for the purpose of observation, which may be changed according to circumstances.

본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.In the present specification and drawings, preferred embodiments of the present invention have been disclosed, and although specific terms are used, these are only used in a general sense to easily explain the technical content of the present invention and help the understanding of the present invention. It is not intended to limit the scope. It will be apparent to those of ordinary skill in the art to which the present invention pertains that other modifications based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.

100: 체험 서비스 제공 장치 101: 통신부
103: 카메라부 105: 센서부
107: 디스플레이부 109: 추출부
111: 메모리부 113: 제어부
100: device for providing experience service 101: communication department
103: camera unit 105: sensor unit
107: display unit 109: extraction unit
111: memory unit 113: control unit

Claims (9)

외부 장치 또는 서버와 통신을 수행하는 통신부;
주변 환경 및 사용자를 촬영하는 카메라부;
적어도 하나 이상의 센서를 통해 사용자의 움직임 또는 주변 환경 변화를 감지하는 센서부;
상기 카메라부를 통해 촬영된 영상 또는 적어도 하나 이상의 정보를 디스플레이 하는 디스플레이부;
상기 카메라부에서 촬영된 영상과 상기 적어도 하나 이상의 센서를 통해 감지한 사용자의 움직임 또는 주변 환경 변화로부터 객체 정보를 실시간으로 추출하여 제공하는 추출부;
상기 카메라부에 의해 촬영된 영상, 컨텐츠, 어플리케이션, 프로그램 및 데이터 중 적어도 하나 이상을 저장하는 메모리부; 및
사용자가 웹 또는 어플리케이션을 통해 체험 서비스가 실행된 후, 디스플레이 되는 적어도 하나 이상의 3D 모델링된 객체 중 사용자에 의해 선택되는 객체를 확인하고, 선택된 객체의 형태에 대응하는 체험 서비스를 제공하도록 제어하는 제어부를 포함하고,
상기 제어부는, 3D 모델링 된 객체를 사용자가 가상으로 착용해보는 체험을 통해 살펴보고자 하는 경우, 사용자가 상기 카메라부를 통해 착용을 원하는 부위를 촬영하면, 그 촬영된 영상에서 그 부위를 객체로서 추척 및 검출하고, 그 검출된 부위에 상기 선택된 3D 모델링 된 객체를 착용해가며 입체적으로 체험해 볼 수 있도록 제어하는 것을 특징으로 하는 확장현실 기반 가상 체험 서비스 제공 장치.
a communication unit for communicating with an external device or server;
a camera unit for photographing the surrounding environment and the user;
a sensor unit for detecting a user's movement or a change in the surrounding environment through at least one sensor;
a display unit for displaying an image captured by the camera unit or at least one piece of information;
an extraction unit for extracting and providing object information in real time from the image captured by the camera unit and the user's movement or changes in the surrounding environment sensed through the at least one sensor;
a memory unit for storing at least one of images captured by the camera unit, contents, applications, programs, and data; and
After the user executes the experience service through the web or application, the control unit controls to check an object selected by the user from among at least one or more 3D modeled objects displayed and provide an experience service corresponding to the shape of the selected object; including,
The control unit, if the user wants to look at the 3D modeled object through the virtual wearing experience, when the user shoots a part desired to be worn through the camera unit, tracking and detecting the part as an object in the captured image and controlling the three-dimensional experience while wearing the selected 3D modeled object on the detected part.
제1항에 있어서,
상기 센서부는,
중력(gravity) 센서, 지자기 센서, 모션 센서, 자이로 센서, 가속도 센서, 기울임(inclination) 센서, 밝기 센서, 고도 센서, 후각 센서, 온도 센서, 뎁스 센서, 압력 센서, 벤딩 센서, 오디오 센서, 비디오 센서, GPS(Global Positioning System) 센서, 터치 센서 중 적어도 하나를 포함하는 것을 특징으로 하는 확장현실 기반 가상 체험 서비스 제공 장치.
According to claim 1,
The sensor unit,
Gravity sensor, geomagnetic sensor, motion sensor, gyro sensor, acceleration sensor, inclination sensor, brightness sensor, altitude sensor, olfactory sensor, temperature sensor, depth sensor, pressure sensor, bending sensor, audio sensor, video sensor , a global positioning system (GPS) sensor, an extended reality-based virtual experience service providing apparatus comprising at least one of a touch sensor.
제1항에 있어서,
상기 제어부는,
3D 모델링 된 객체를 360°뷰(view)로 살펴보고자 하는 경우, 360°뷰 플레이어를 기반으로 사용자의 조작에 따라 상기 선택된 3D 모델링된 객체에 대한 이동, 회전, 확대 또는 축소가 실행되도록 제어하는 것을 특징으로 하는 확장현실 기반 가상 체험 서비스 제공 장치.
According to claim 1,
The control unit is
If you want to look at the 3D modeled object in a 360° view, control to move, rotate, enlarge or reduce the selected 3D modeled object according to the user's manipulation based on the 360° view player. An extended reality-based virtual experience service providing device.
제1항에 있어서,
상기 제어부는,
3D 모델링 된 객체를 사용자의 주변환경에 적용해보는 시뮬레이션으로 살펴보고자 하는 경우, 사용자의 조작에 따라 상기 선택된 3D 모델링 된 객체를 시뮬레이션을 통해 원하는 장소에 배치하도록 제어하는 것을 특징으로 하는 확장현실 기반 가상 체험 서비스 제공 장치.
According to claim 1,
The control unit is
When it is desired to examine the 3D modeled object as a simulation of applying the 3D modeled object to the user's surrounding environment, an extended reality based virtual experience characterized in that the selected 3D modeled object is controlled to be placed in a desired place through the simulation according to the user's manipulation Service providing device.
삭제delete 사용자가 웹 또는 어플리케이션 등을 통해 체험 서비스를 실행하면 디스플레이부를 통해 적어도 하나 이상의 3D 모델링된 객체가 디스플레이 되는 단계;
제어부가 적어도 하나 이상의 3D 모델링된 객체 중 사용자에 의해 선택되는 객체를 확인하는 단계; 및
상기 제어부가 카메라부로부터 획득되는 영상 및 센서부로부터 획득되는 데이터를 기반으로 상기 선택된 객체에 대응하는 체험 형태로 체험 서비스를 제공받는 단계를 포함하고,
상기 체험 서비스를 제공받는 단계는, 3D 모델링 된 객체를 사용자가 가상으로 착용해보는 체험을 통해 살펴보고자 하는 경우, 사용자가 상기 카메라부를 통해 착용을 원하는 부위를 촬영하면, 그 촬영된 이미지에서 그 부위를 객체로서 추척 및 검출하고, 그 검출된 부위에 3D 모델링 된 객체를 착용해가며 입체적으로 체험해 볼 수 있도록 함으로써 체험 서비스를 제공받는 단계인 것을 특징으로 하는 확장현실 기반 가상 체험 서비스 제공 방법.
displaying at least one 3D modeled object through a display unit when a user executes an experiential service through a web or an application;
checking, by the controller, an object selected by a user from among at least one or more 3D modeled objects; and
and receiving, by the control unit, an experience service in the form of an experience corresponding to the selected object based on the image obtained from the camera unit and data obtained from the sensor unit,
In the step of receiving the experience service, when a user wants to see a 3D modeled object through an experience of wearing it virtually, when the user takes a picture of a part that the user wants to wear through the camera unit, the part is selected from the photographed image. An extended reality-based virtual experience service providing method, characterized in that it is the step of receiving an experience service by tracking and detecting as an object, and enabling a three-dimensional experience while wearing a 3D modeled object on the detected part.
제6항에 있어서,
상기 체험 서비스를 제공받는 단계는,
3D 모델링 된 객체를 360°뷰(view)로 살펴보고자 하는 경우, 360°뷰 플레이어를 기반으로 사용자의 조작에 따라 상기 선택된 3D 모델링된 객체에 대한 이동, 회전, 확대 또는 축소를 수행함으로써 체험 서비스를 제공받는 것을 특징으로 하는 확장현실 기반 가상 체험 서비스 제공 방법.
7. The method of claim 6,
The step of receiving the experience service is:
If you want to look at a 3D modeled object in a 360° view, you can use the experience service by moving, rotating, enlarging or reducing the selected 3D modeled object according to the user's operation based on the 360° view player. A method of providing an extended reality-based virtual experience service, characterized in that it is provided.
제6항에 있어서,
상기 체험 서비스를 제공받는 단계는,
3D 모델링 된 객체를 사용자의 주변환경에 적용해보는 시뮬레이션으로 살펴보고자 하는 경우, 사용자의 조작에 따라 3D 모델링 된 객체가 시뮬레이션을 통해 원하는 장소에 배치되도록 함으로써 체험 서비스를 제공받는 것을 특징으로 하는 확장현실 기반 가상 체험 서비스 제공 방법.
7. The method of claim 6,
The step of receiving the experience service is:
If you want to look at a simulation that applies a 3D modeled object to the user's surrounding environment, the 3D modeled object is placed in a desired place through simulation according to the user's manipulation, so that the experience service is provided. How to provide a virtual experience service.
삭제delete
KR1020200162854A 2020-11-27 2020-11-27 Apparatus and method for prividing virtual experience service based on extended reality KR102434457B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200162854A KR102434457B1 (en) 2020-11-27 2020-11-27 Apparatus and method for prividing virtual experience service based on extended reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200162854A KR102434457B1 (en) 2020-11-27 2020-11-27 Apparatus and method for prividing virtual experience service based on extended reality

Publications (2)

Publication Number Publication Date
KR20220074393A KR20220074393A (en) 2022-06-03
KR102434457B1 true KR102434457B1 (en) 2022-08-22

Family

ID=81982953

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200162854A KR102434457B1 (en) 2020-11-27 2020-11-27 Apparatus and method for prividing virtual experience service based on extended reality

Country Status (1)

Country Link
KR (1) KR102434457B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116820229A (en) * 2023-05-17 2023-09-29 荣耀终端有限公司 XR space display method, XR equipment, electronic equipment and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101470757B1 (en) * 2013-09-30 2014-12-08 세종대학교산학협력단 Method and apparatus for providing augmented reality service

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160128119A (en) * 2015-04-28 2016-11-07 엘지전자 주식회사 Mobile terminal and controlling metohd thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101470757B1 (en) * 2013-09-30 2014-12-08 세종대학교산학협력단 Method and apparatus for providing augmented reality service

Also Published As

Publication number Publication date
KR20220074393A (en) 2022-06-03

Similar Documents

Publication Publication Date Title
US10496910B2 (en) Inconspicuous tag for generating augmented reality experiences
US10089794B2 (en) System and method for defining an augmented reality view in a specific location
US20190025909A1 (en) Human-body-gesture-based region and volume selection for hmd
US10438373B2 (en) Method and system for determining a pose of camera
US20190333478A1 (en) Adaptive fiducials for image match recognition and tracking
US10776943B2 (en) System and method for 3D association of detected objects
US20190130599A1 (en) Systems and methods for determining when to provide eye contact from an avatar to a user viewing a virtual environment
US20220100265A1 (en) Dynamic configuration of user interface layouts and inputs for extended reality systems
CN110692237B (en) Method, system, and medium for lighting inserted content
Desai et al. A window to your smartphone: exploring interaction and communication in immersive vr with augmented virtuality
US10748000B2 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
JP2024503881A (en) Context-aware extended reality system
US11195341B1 (en) Augmented reality eyewear with 3D costumes
US20230388632A1 (en) Dynamic adjustment of exposure and iso to limit motion blur
AU2016100369A4 (en) Method and system for providing position or movement information for controlling at least one function of a vehicle
US11682183B2 (en) Augmented reality system and anchor display method thereof
KR102434457B1 (en) Apparatus and method for prividing virtual experience service based on extended reality
KR102260193B1 (en) Remote augmented reality communication method and system that provides security for 3d-space
US11765457B2 (en) Dynamic adjustment of exposure and iso to limit motion blur
JP2016201050A (en) Information processing apparatus, information processing method, and program
KR102516278B1 (en) User terminal for providing intuitive control environment on media pannel, server, and display apparatus
US11282171B1 (en) Generating a computer graphic for a video frame
US20230215098A1 (en) Method and system for creating and storing map target
WO2023163937A1 (en) Scene change detection with novel view synthesis
JP2021033752A (en) Output control device, display control system, output control method and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant