KR102074680B1 - Device and method for moving and control of real estate model house virtual space using gesture recognition module - Google Patents

Device and method for moving and control of real estate model house virtual space using gesture recognition module Download PDF

Info

Publication number
KR102074680B1
KR102074680B1 KR1020170173509A KR20170173509A KR102074680B1 KR 102074680 B1 KR102074680 B1 KR 102074680B1 KR 1020170173509 A KR1020170173509 A KR 1020170173509A KR 20170173509 A KR20170173509 A KR 20170173509A KR 102074680 B1 KR102074680 B1 KR 102074680B1
Authority
KR
South Korea
Prior art keywords
virtual space
image
interaction
real estate
model house
Prior art date
Application number
KR1020170173509A
Other languages
Korean (ko)
Other versions
KR20190072277A (en
Inventor
성창건
Original Assignee
(주)브이알에이포인트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)브이알에이포인트 filed Critical (주)브이알에이포인트
Priority to KR1020170173509A priority Critical patent/KR102074680B1/en
Publication of KR20190072277A publication Critical patent/KR20190072277A/en
Application granted granted Critical
Publication of KR102074680B1 publication Critical patent/KR102074680B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06K9/00201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/16Real estate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Abstract

본 발명의 일 실시예는 제스처 인식 모듈을 이용하여 대형 디스플레이로부터 키오스크까지의 장비에 3차원 가상공간을 공중에서 손 동작으로 컨트롤하면서 이동 및 인터랙션, 메뉴 선택 등의 기능을 사용할 수 있으며, 디스플레이 모듈에서는 모델하우스 VR에 대한 영상이 제공되고 사용자 인터랙션에 대응하는 영상을 사용자에 제공할 수 있다. 즉, 사용자가 터치 또는 마우스를 조작하는 등의 불편을 제거하고 손으로 특정 제스처를 취함으로써, VR 영상을 확인하고 가상공간에서 이동이나 다른 공간으로의 이동이 가능하여 사용자의 편의성을 증대 시킬 수 있다.One embodiment of the present invention may use functions such as movement and interaction, menu selection while controlling a 3D virtual space in the air by hand gestures on a device from a large display to a kiosk using a gesture recognition module. An image for a model house VR is provided and an image corresponding to a user interaction can be provided to the user. That is, the user can remove the inconvenience such as manipulating the touch or the mouse and take a specific gesture by hand, so that the user can check the VR image and move from virtual space to another space, thereby increasing user convenience. .

Description

제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법 및 장치 {DEVICE AND METHOD FOR MOVING AND CONTROL OF REAL ESTATE MODEL HOUSE VIRTUAL SPACE USING GESTURE RECOGNITION MODULE}Movement and control method and device for real estate model house virtual space using gesture recognition module {DEVICE AND METHOD FOR MOVING AND CONTROL OF REAL ESTATE MODEL HOUSE VIRTUAL SPACE USING GESTURE RECOGNITION MODULE}

본 발명은 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법 및 장치에 관한 것으로서, 보다 상세하게는, 모델하우스에 공간의 제약으로 인해 모두 구현되지 못한 실제 아파트에 대한 주변 환경, 편의 시설, 다른 평형 및 다른 구조의 집에 대해 VR과 AR을 통해 경험해 볼 수 있도록 하는 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for moving and controlling a real estate model house virtual space using a gesture recognition module, and more specifically, a surrounding environment and convenience for an actual apartment that are not all realized due to space limitations in the model house. The present invention relates to a method and apparatus for moving and controlling a real estate model house virtual space using a gesture recognition module that enables users to experience houses of different facilities and different structures and through VR and AR.

종래에는 사람들이 모델하우스를 직접 방문하여 추후 완료 될 아파트에 대해 확인하고 해당 모델하우스 내 구비 된 평형대와 구조에 대해서만 직접 눈으로 확인이 가능 하고 다른 평형이나 다른 구조의 집에 대해서는 도면 또는 구두로 설명하는 형태를 가지고 있었다.In the past, people visit the model house in person to check the apartments to be completed in the future, and only the countertops and structures provided in the model house can be checked with their own eyes. It had a form to do.

이러한 불편을 해소하기 위해 360 파라노믹 이미지를 활용한 사이버 모델하우스를 통해 실제 사진 또는 3D CG를 통해 만들어진 이미지를 붙여서 360도 이미지를 생성하고 PC, 스마트기기, 구글카드보드 등을 활용하여 모델하우스 내 시공되어 있지 않은 형태도 눈으로 확인이 가능하도록 하였다.To solve this inconvenience, create a 360-degree image by pasting an actual photo or an image created through 3D CG through a cyber model house using a 360-paranomic image, and using a PC, smart device, Google cardboard, etc. in the model house. The unconstructed form was also made visible.

하지만, 사진이 촬영된 공간 즉, 정해진 카메라의 동선에 따라서만 진행이 되고 카메라를 중심으로 주변의 360도로 찍힌 이미지만을 확인이 가능하여, 실제 모델하우스에 시공 된 구조를 보는 것과 큰 차이가 있다는 문제점이 존재하였다.However, it is a problem that there is a big difference from seeing the structure constructed in the actual model house, because only the space where the photo was taken, that is, it proceeds only according to the movement of the specified camera, and only the image taken 360 degrees around the camera can be checked. This existed.

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 3D 그래픽으로 만들어진 360도 이미지가 실시간으로 랜더링 되어 화면 속 오브젝트를 고화질로 관찰이 가능하며, 능동적으로 방향을 선택하여 자의적으로 이동하면서 관찰이 가능하도록 하며, 제스처 인식을 통해 복잡한 조작이 아닌 단순한 손동작 만으로 제어가 가능하도록 하는 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법 및 장치를 제공하고자 한다.The present invention is to solve the above-mentioned problems of the prior art, and a 360-degree image made of 3D graphics can be rendered in real time to observe objects in the screen in high quality, and actively select directions and move while voluntarily moving. The present invention is to provide a method and apparatus for moving and controlling a virtual space in a real estate model house using a gesture recognition module, which enables a user to control only a simple hand gesture rather than a complicated operation through gesture recognition.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problems to be achieved by the present embodiment are not limited to the technical problems as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 서버에 의해 수행되는 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법은, 가상공간에 대한 입장 요청을 수신하고, 제스처 인식 모듈을 통해 수신되는 사용자의 손에 의한 인터렉션을 인식하여, 상기 인터렉션에 대응하는 명령을 검색하고, 현재 영상에서 상기 명령이 수행된 영상을 제공한다. 상기 가상공간은 1인칭 시점으로 제공 되며, 상기 가상공간은 실물 모델하우스를 3D VR 컨텐츠로 구현한 것으로써, 실내 전체와 아파트 단지 주변의 환경, 단지 내의 편의 시설 및 단지 전체의 경관을 포함하는 컨텐츠이며, 영상 제공 장치는 지면에 고정되고, 상기 인터렉션을 인식하는 제스처 인식 모듈을 포함하는 몸체부 및 상기 몸체부의 상단에 형성되며, 상기 제스처 인식 모듈을 통해 인식 된 동작에 대응하여 이동 및 제어 되는 영상을 상기 사용자에게 제공하는 디스플레이 모듈이 포함된 디스플레이부를 포함한다.As a technical means for achieving the above-described technical problem, a method for moving and controlling a virtual space in a real estate model house using a gesture recognition module performed by a server receives an entry request for the virtual space and through a gesture recognition module Recognizing the interaction by the user's hand, the command corresponding to the interaction is searched, and an image in which the command is performed is provided in the current image. The virtual space is provided as a first person perspective, and the virtual space is a real model house implemented as 3D VR content, and includes the entire interior and the surroundings of the apartment complex, amenities within the complex, and the entire landscape. The image providing device is fixed to the ground, and is formed on a body part including a gesture recognition module for recognizing the interaction and on the top of the body part, and is moved and controlled in response to an operation recognized through the gesture recognition module. It includes a display unit including a display module for providing the user.

또한, 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법을 수행하는 장치는, 지면에 고정되고, 상기 인터렉션을 인식하는 제스처 인식 모듈을 포함하는 몸체부 및 상기 몸체부의 상단에 형성되며, 상기 제스처 인식 모듈을 통해 인식 된 동작에 대응하여 이동 및 제어 되는 영상을 상기 사용자에게 제공하는 디스플레이 모듈이 포함된 디스플레이부를 포함하고, 상기 제스처 인식 모듈을 가상공간에 대한 입장 요청을 수신하면, 서버로 요청을 전송하여 해당하는 영상을 디스플레이부를 통하여 제공하고, 제스처 인식 모듈을 통해 수신되는 사용자의 손을 인식하고, 상기 인터렉션에 대응하는 영상을 제공한다.In addition, the apparatus for performing the movement and control method for the real estate model house virtual space using the gesture recognition module is fixed to the ground, and is formed on a body portion including a gesture recognition module for recognizing the interaction and on the top of the body portion. , A display unit including a display module for providing the user with an image that is moved and controlled in response to an operation recognized through the gesture recognition module, and receives a gesture request for entry into the virtual space, the server The request is transmitted to provide the corresponding image through the display unit, recognize the user's hand received through the gesture recognition module, and provide the image corresponding to the interaction.

본 발명의 일 실시예는 제스처 인식 모듈을 이용하여 대형 디스플레이로부터 키오스크까지의 장비에 3차원 가상공간을 공중에서 손 동작으로 컨트롤하면서 이동 및 인터랙션, 메뉴 선택 등의 기능을 사용할 수 있다.One embodiment of the present invention may use functions such as movement and interaction, menu selection, etc. while controlling a 3D virtual space in the air by hand gestures on a device from a large display to a kiosk using a gesture recognition module.

디스플레이 모듈에서는 모델하우스 VR에 대한 영상이 제공되고 사용자 인터랙션에 대응하는 영상을 사용자에 제공할 수 있다. 즉, 사용자가 터치 또는 마우스를 조작하는 등의 불편을 제거하고 손으로 특정 제스처를 취함으로써, VR 영상을 확인하고 가상공간에서 이동이나 다른 공간으로의 이동이 가능하여 사용자의 편의성을 증대 시킬 수 있다.In the display module, an image for a model house VR is provided and an image corresponding to a user interaction can be provided to the user. That is, the user can remove the inconvenience such as manipulating the touch or the mouse and take a specific gesture by hand, so that the user can check the VR image and move from virtual space to another space, thereby increasing user convenience. .

도 1은 본 발명의 일 실시예에 따르는 시스템의 구성도 이다.
도 2는 본 발명의 일 실시예에 따르는 서버의 내부구성을 나타내는 블록도이다.
도 3 내지 5는 본 발명의 일 실시예에 따르는 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법을 수행하는 장치의 실제 사진이다.
도 6은 본 발명의 일 실시예에 따르는 키오스크 형태의 장치에 대한 예시도 이다.
도 7은 본 발명의 일 실시예에 따르는 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법을 설명하기 위한 순서도 이다.
1 is a block diagram of a system according to an embodiment of the present invention.
2 is a block diagram showing the internal configuration of a server according to an embodiment of the present invention.
3 to 5 are actual photographs of an apparatus for performing a method of moving and controlling a virtual space in a real estate model house using a gesture recognition module according to an embodiment of the present invention.
6 is an exemplary view of a kiosk type device according to an embodiment of the present invention.
7 is a flowchart illustrating a method for moving and controlling a real estate model house virtual space using a gesture recognition module according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains can easily practice. However, the present invention can be implemented in many different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts irrelevant to the description are omitted, and like reference numerals are assigned to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element in between. . Also, when a part “includes” a certain component, this means that other components may be further included rather than excluding other components, unless otherwise specified.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In the present specification, the term “unit” includes a unit realized by hardware, a unit realized by software, and a unit realized by using both. Further, one unit may be realized by using two or more hardware, and two or more units may be realized by one hardware. Meanwhile, the '~ unit' is not limited to software or hardware, and the '~ unit' may be configured to be in an addressable storage medium or may be configured to play one or more processors. Thus, as an example, '~ unit' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, attributes, and procedures. , Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays and variables. The functions provided within components and '~ units' may be combined into a smaller number of components and '~ units', or further separated into additional components and '~ units'. In addition, the components and '~ unit' may be implemented to play one or more CPUs in the device or secure multimedia card.

이하에서 언급되는 " 단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), VR HMD(예를 들어, HTC VIVE, Oculus Rift, GearVR, DayDream, PSVR 등)등을 포함할 수 있다. 여기서, VR HMD 는 PC용 (예를 들어, HTC VIVE, Oculus Rift, FOVE, Deepon 등)과 모바일용(예를 들어, GearVR, DayDream, 폭풍마경, 구글 카드보드 등) 그리고 콘솔용(PSVR)과 독립적으로 구현되는 Stand Alone 모델(예를 들어, Deepon, PICO 등) 등을 모두 포함한다. 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 스마트폰(smart phone), 태블릿 PC, 웨어러블 디바이스뿐만 아니라, 블루투스(BLE, Bluetooth Low Energy), NFC, RFID, 초음파(Ultrasonic), 적외선, 와이파이(WiFi), 라이파이(LiFi) 등의 통신 모듈을 탑재한 각종 디바이스를 포함할 수 있다.The "terminal" mentioned below may be embodied as a computer or portable terminal capable of accessing a server or other terminal through a network. Here, the computer, for example, a laptop equipped with a web browser (WEB Browser), desktop (desktop), laptop (laptop), VR HMD (e.g., HTC VIVE, Oculus Rift, GearVR, DayDream, PSVR, etc.) It may include. Here, VR HMD is for PC (e.g., HTC VIVE, Oculus Rift, FOVE, Deepon, etc.) and mobile (e.g. GearVR, DayDream, Storm Racing, Google Cardboard, etc.) and console (PSVR). Includes all Stand Alone models (eg Deepon, PICO, etc.) that are implemented independently. The portable terminal is, for example, a wireless communication device that guarantees portability and mobility, as well as a smart phone, a tablet PC, and a wearable device, as well as Bluetooth (BLE, Bluetooth Low Energy), NFC, RFID, and ultrasound (Ultrasonic). , Infrared, Wi-Fi (WiFi), LiFi (LiFi), and may include various devices equipped with a communication module.

또한, "네트워크"는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷 (WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다.In addition, "network" refers to a connection structure capable of exchanging information between each node such as terminals and servers, a local area network (LAN), a wide area network (WAN), and the Internet. (WWW: World Wide Web), wired and wireless data communication networks, telephone networks, and wired and wireless television communication networks. Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi, Bluetooth communication, infrared communication, ultrasound Communication, Visible Light Communication (VLC), LiFi, and the like are included, but are not limited thereto.

또한, 본 명세서에서 가상공간이란, 사용자 단말 등의 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법을 수행하는 장치의 디스플레이 모듈을 통해 제공 되는 1인칭 시점으로 제공되되, 실물 모델하우스를 3D VR 컨텐츠로 구현한 것으로써, 실내 전체와 아파트 단지 주변의 환경, 단지 내의 편의 시설 및 단지 전체의 경관을 포함하는 컨텐츠가 될 수 있다.In addition, in this specification, the virtual space is provided as a first person view provided through a display module of a device that performs a method for moving and controlling a virtual space in a real estate model house using a gesture recognition module such as a user terminal. By implementing 3D VR content, it can be content including the entire interior and surrounding environment of the apartment complex, amenities in the complex, and the landscape of the entire complex.

이하 도 1을 참조하여 본 발명의 일 실시예에 따르는 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법을 수행하기 위한 시스템(10)에 대해 구체적으로 설명한다.Hereinafter, a system 10 for performing a method of moving and controlling a real estate model house virtual space using a gesture recognition module according to an embodiment of the present invention will be described in detail with reference to FIG. 1.

본 발명의 일 실시예에 따르는 시스템(10)은 서버(100)와 단말(200)을 포함할 수 있다. 서버(100)와 단말(200)은 유, 무선 네트워크를 통해 통신 연결될 수 있다.The system 10 according to an embodiment of the present invention may include a server 100 and a terminal 200. The server 100 and the terminal 200 may be communicatively connected through a wired or wireless network.

서버(100)는 단말(200)의 요청에 따라, 요청한 가상공간에 대한 컨텐츠를 검색하고 해당 가상공간에 대해 1인칭 시점의 VR 컨텐츠를 단말(200)을 통해 사용자에게 전달할 수 있다.The server 100 may search for the content of the requested virtual space according to the request of the terminal 200 and deliver the VR content of the first person view point to the user through the terminal 200 for the corresponding virtual space.

단말(200)은 사용자가 소지하는 디바이스 또는 특정 장소에 설치 된 컴퓨팅 장치로서, 부동산 모델하우스 가상공간 어플리케이션이 설치되어 있을 수 있다. 또한, 본 명세서에서 단말(200)은 영상 제공 장치를 포함할 수 있다. 사용자가 특정 가상공간에 대한 입장 요청을 하는 경우 서버(100)로 요청 쿼리를 전송하고 서버(100)로부터 수신한 VR 컨텐츠를 사용자에게 제공할 수 있다.The terminal 200 is a device possessed by a user or a computing device installed in a specific place, and a real estate model house virtual space application may be installed. In addition, in this specification, the terminal 200 may include an image providing device. When a user requests to enter a specific virtual space, a request query may be transmitted to the server 100 and VR content received from the server 100 may be provided to the user.

이하 도 2를 참조하여 본 발명의 일 실시예에 따르는 서버(100)에 대해 구체적으로 설명한다.Hereinafter, a server 100 according to an embodiment of the present invention will be described in detail with reference to FIG. 2.

서버(100)는 단말(200)로부터 쿼리를 전송 받게 되는데, 이때, 쿼리는 새로운 가상공간에 대한 입장, 현재 가상공간에서 다른 가상공간으로의 이동, 현재 가상공간 내에서 시점의 이동에 대한 쿼리를 포함할 수 있다.The server 100 receives a query from the terminal 200, and at this time, the query enters a new virtual space, moves from the current virtual space to another virtual space, and queries for moving the viewpoint within the current virtual space. It can contain.

네트워크로 연결 된 단말(200)이 특정 요청에 대한 쿼리를 전송하게 되면, 서버(100)내 통신모듈(110)을 통해 쿼리가 수신되고, 수신 된 쿼리는 프로세서(130)를 통해 해당 쿼리의 요청을 확인할 수 있다.When the network-connected terminal 200 transmits a query for a specific request, a query is received through the communication module 110 in the server 100, and the received query requests the corresponding query through the processor 130 can confirm.

메모리(120)는 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법을 수행하기 위한 프로그램이 저장되어 있을 수 있다.The memory 120 may store a program for performing a method of moving and controlling a real estate model house virtual space using a gesture recognition module.

프로세서(130)는 쿼리에 따라 단말(200)로 제공하기 위한 VR 컨텐츠를 서버(100)내 DB(140)에서 검색하고, 검색 된 컨테츠를 통신모듈(110)을 통해 단말(200)로 전달할 수 있다.The processor 130 may search for the VR content for providing to the terminal 200 according to the query from the DB 140 in the server 100, and deliver the searched contents to the terminal 200 through the communication module 110. have.

예를 들어, 사용자가 25평형 아파트에 대한 입장을 요청하는 경우, 단말(200)은 서버(100)로 25평형 아파트에 대한 VR 컨텐츠를 요청하는 쿼리를 전송하게 되고, 서버(100)는 해당 쿼리에 맞게 DB(140)에 저장 된 컨텐츠 중 25평형 아파트의 VR 컨텐츠를 단말(200)을 통해 사용자에게 제공할 수 있다.For example, when the user requests admission to the 25-pyeong apartment, the terminal 200 transmits a query requesting VR content for the 25-pyeong apartment to the server 100, and the server 100 queries the corresponding Among the contents stored in the DB 140, VR contents of the 25-pyeong apartment can be provided to the user through the terminal 200.

이하 도 3 내지 5를 참조하여 본 발명의 일 실시예에 따르는 제스처 인식에 대해 구체적으로 설명한다.Hereinafter, gesture recognition according to an embodiment of the present invention will be described in detail with reference to FIGS. 3 to 5.

본 발명의 일 실시예에 따르는 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법은, 가상공간에 대한 입장 요청을 수신하고, 제스처 인식 모듈을 통해 수신되는 사용자의 손에 의한 인터렉션을 인식하여, 인터렉션에 대응하는 명령을 검색하고, 현재 영상에서 명령이 수행된 영상을 제공한다. 가상공간은 1인칭 시점으로 제공 되며, 가상공간은 실물 모델하우스를 3D VR 컨텐츠로 구현한 것으로써, 실내 전체와 아파트 단지 주변의 환경, 단지 내의 편의 시설 및 단지 전체의 경관을 포함하는 컨텐츠이며, 영상 제공 장치는 지면에 고정되고, 인터렉션을 인식하는 제스처 인식 모듈을 포함하는 몸체부(420) 및 몸체부(420)의 상단에 형성되며, 제스처 인식 모듈을 통해 인식 된 동작에 대응하여 이동 및 제어 되는 영상을 사용자에게 제공하는 디스플레이 모듈이 포함된 디스플레이부(420)를 포함할 수 있다.A method for moving and controlling a virtual space in a real estate model house using a gesture recognition module according to an embodiment of the present invention, receives an entry request for the virtual space, and interacts with a user's hand received through the gesture recognition module. Recognizing, searching for a command corresponding to the interaction, and providing an image in which the command is performed in the current image. The virtual space is provided as a first person view, and the virtual space is a 3D VR content that embodies a real model house, and is content that includes the entire interior and the surroundings of the apartment complex, amenities in the complex, and views of the entire complex. The image providing device is fixed to the ground, is formed on the top of the body portion 420 and the body portion 420 including a gesture recognition module for recognizing interactions, and moves and controls in response to motions recognized through the gesture recognition module It may include a display unit 420 that includes a display module for providing a video to the user.

본 발명의 일 실시예에 따르는 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법을 수행함에 있어서 제스처 인식을 통한 인터렉션에 의해 제공되는 영상은 영상에 의한 가상공간 내의 시점의 변경 또는 시점 이동이 이루어지도록 제공될 수 있다.In performing a movement and control method for a virtual space in a real estate model house using a gesture recognition module according to an embodiment of the present invention, an image provided by interaction through gesture recognition changes or views a viewpoint in a virtual space by an image It can be provided for movement to occur.

도 3을 참조하면, 사용자가 양손을 펴고 손바닥을 마주하게 위치하여 오른손과 왼손 사이의 간격을 만들고 있다. 해당 제스처는 메인 메뉴 화면을 활성화 시키는 제스처일 수 있다.Referring to FIG. 3, the user spreads both hands and places the palms facing each other to create a gap between the right hand and the left hand. The gesture may be a gesture that activates the main menu screen.

즉, 사용자가 손바닥을 펼치는 제스처에 대한 사용자 인터랙션에 의해 제공되는 영상은 최초 입장을 위한 선택 입력이 가능한 메인 메뉴 영상이거나, 현재 제공 된 시점에 해당하는 공간에서 다른 공간으로 이동이 가능한 메뉴 영상이 될 수 있다.That is, the image provided by the user interaction with the gesture of the user opening the palm of the hand may be a main menu image capable of inputting a selection for initial entry, or a menu image capable of moving from a space corresponding to a currently provided time to another space. You can.

메뉴가 오픈 되면 특별한 조작이나 명령 지정된 제스처가 아닌 단순하게 가상공간 내에서 해당 구역은 터치하는 동작 만으로 선택이 가능하며, 제공되는 가상공간에 대한 3D 영상을 선택할 수 있다.When the menu is opened, it is possible to select the area within the virtual space by simply touching it, not a special operation or a commanded gesture, and a 3D image of the provided virtual space can be selected.

도 4를 참조하면, 사용자가 주먹을 쥐는 동작을 하고 있으며, 해당 제스처는 가상공간 내에서 앞으로 이동하는 제스처 일 수 있다.Referring to FIG. 4, the user is in a fist gripping motion, and the corresponding gesture may be a gesture moving forward in a virtual space.

즉, 인터랙션에 의해 제공되는 영상은 상기 가상공간 내에서 현재 제공 된 시점이 앞으로 이동하는 영상이 될 수 있다. 현재 디스플레이 모듈을 통해 보여지는 가상공간에 대한 3D 영상에서 바라보는 방향으로 이동할 수 있다.That is, the image provided by the interaction may be an image in which the viewpoint currently provided in the virtual space moves forward. It is possible to move in the direction viewed from the 3D image of the virtual space currently viewed through the display module.

사용자에게 제공되는 가상 공간 3D 영상데이터에서 이동 기능은 넓은 위치에서 이동 할 때, 예를 들어, 사용자가 아파트 단지 주변의 환경을 보고 싶은 경우 아파트 단지 환경을 메뉴에서 선택하여, 아파트 단지 환경에 대한 영상을 제공 받게 되는데, 이때 1인칭시점의 가상공간에 대한 영상을 제공 받게 되고 사용자는 제공된 아파트 주변환경이라는 가상공간에 대한 영상 안에서 자유롭게 이동하면서 주변 환경을 확인할 수 있다.In the virtual space 3D image data provided to the user, the movement function is when moving from a wide location, for example, if the user wants to see the environment around the apartment complex, select the apartment complex environment from the menu, and the image of the apartment complex environment In this case, the image of the virtual space at the first person point of view is provided, and the user can check the surrounding environment while moving freely within the image of the virtual space called the surrounding environment of the apartment.

가상공간에서 앞으로 이동은 현재 1인칭 시점으로 바라보고 있는 방향으로의 이동을 지칭하며, 가상공간에 대한 영상은 360도 영상으로 제공되어 사용자가 전방이 아닌 측면을 바라보거나 뒤를 돌아 보더라도, 지속적으로 가상공간에 대한 영상이 제공되며, 사용자의 몸이 뒤를 돌거나 옆으로 회전하지 않더라도, 시선이 이동하게 되면 서버(100)는 가상공간 내에서는 시선의 이동에 따라 방향을 전환하여 해당 인터렉션에 대응하는 영상을 제공할 수 있다.Moving forward in virtual space refers to moving in the direction you are looking at from the first person point of view, and the image of the virtual space is provided as a 360-degree image, so even if the user looks at the side rather than the front or looks back, it continues to be virtual. An image of a space is provided, and even if the user's body does not turn behind or rotate to the side, when the gaze moves, the server 100 changes the direction in accordance with the gaze movement in the virtual space to correspond to the corresponding interaction Can provide

이하 도 5를 참조하면, 사용자가 손바닥을 펼치는 제스처를 취하고 있으며, 해당 제스처는 현재 위치에서 정지라는 명령의 인터렉션이 될 수 있다.Referring to FIG. 5 below, the user is taking a gesture to open the palm of the hand, and the gesture may be an interaction of a command to stop at the current position.

즉, 사용자가 손바닥을 펼치는 동작을 하는 경우, 손바닥을 펴는 인터랙션에 의해 제공되는 영상은 상기 가상공간 내에서 현재 제공 된 시점에 정지하는 영상이 될 수 있다.That is, when the user opens the palm of the hand, the image provided by the interaction of opening the palm may be a still image at the time currently provided in the virtual space.

예를 들어, 사용자가 넓은 가상공간에 대한 영상을 제공받아 해당 가상공간 영역안에서 주먹을 쥐는 제스처를 통한 인터렉션에 의해 이동하는 도중에 손바닥을 펼치게 되면, 현 위치인 현재 시점에서 영상에 대한 이동이 정지하여, 있을 수 있다.For example, if a user receives an image for a wide virtual space and spreads his palm while moving by interaction through a fist-gesturing gesture in the virtual space area, the movement of the image at the current position, the current position, stops. , There can be.

가상공간에서 정지는 현재 현재 1인칭 시점으로 바라보고 있는 방향으로 이동한 도중 현재 디스플레이를 통해 제공되는 영상에 멈추는 것을 지칭하며, 사용자의 이동이 멈추더라도, 주변의 나무의 흔들림이나, 배치 되어 있는 사람 케릭터의 움직임, 기타 가상공간에 배치 된 사물의 움직임은 사용자의 정지에 관계없이 지속적으로 움직일 수 있다.In virtual space, stop refers to a stop in the image provided through the current display while moving in the direction you are currently looking at in the first person view. Even if the user stops moving, the surrounding trees are shaken or placed. The character's movement and other object's movements placed in the virtual space can continuously move regardless of the user's stoppage.

이하 도 6 내지 7을 참조하여, 본 발명의 일 실시예에 따르는 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법을 수행하는 영상 제공 장치에 대해 구체적으로 설명한다.Hereinafter, an image providing apparatus performing a method of moving and controlling a real estate model house virtual space according to an embodiment of the present invention will be described in detail with reference to FIGS. 6 to 7.

도 6에 도시 된 바와 같이, 지면에 고정될 수 있으며, 제스처 인식 모듈을 포함하는 몸체부(420)와 몸체부(420)의 상단에 구비되어 사용자에게 영상을 제공하는 디스플레이 모듈을 포함하는 디스플레이부(420)로 구성 될 수 있다.As illustrated in FIG. 6, a display unit including a body unit 420 including a gesture recognition module and a display module provided on an upper portion of the body unit 420 that can be fixed to the ground to provide an image to a user It can be composed of 420.

몸체부(420)에 포함되는 제스처 인식 모듈은 디스플레이부(420)에서 영상이 제공되는 화면보다 앞쪽에 배치 될 수 있다.The gesture recognition module included in the body portion 420 may be disposed in front of the screen on which the image is provided on the display unit 420.

도시 된 바와 같이 영상 제공 장치는 키오스크 형태로 구비 될 수 있다.As shown, the image providing device may be provided in the form of a kiosk.

키오스크 형태의 영상 제공 장치에는 부동산 모델하우스 가상공간 어플리케이션이 설치되어 있을 수 있다. 제스처 인식 모듈을 포함할 수 있다. 사용자가 특정 가상공간에 대한 입장 요청을 하는 경우 서버(100)로 요청 쿼리를 전송하고 서버(100)로부터 수신한 VR 컨텐츠를 사용자에게 제공할 수 있다.A real estate model house virtual space application may be installed in the kiosk type video providing device. It may include a gesture recognition module. When a user requests to enter a specific virtual space, a request query may be transmitted to the server 100 and VR content received from the server 100 may be provided to the user.

즉, 키오스크 형태의 영상 제공 장치는 그 형태가 키오스크이지만 단말(200)과 같은 역할을 수행할 수 있다.That is, the image providing device in the form of a kiosk is a kiosk, but may perform the same function as the terminal 200.

본 발명의 일 실시예에 따르는 키오스크 형태의 영상 제공 장치는, 디스플레이부(420)가 몸체부(420) 상단에 구비되되, 몸체부(420)와 디스플레이부(420)의 후면이 예각을 이루도록 기울어져 형성될 수 있다.In the kiosk type image providing apparatus according to an embodiment of the present invention, the display unit 420 is provided at the top of the body unit 420, and the body unit 420 and the rear surfaces of the display unit 420 are inclined to form an acute angle. Can be formed.

즉, 몸체부(420)의 상단에 기울어진 형태를 취하게 되는데, 화면이 제공되는 앞면과 몸체부(420)는 둔각을 이루고 뒷면과 몸체부(420)가 이루는 내각(401)은 예각을 이루도록 기울어 질 수 있다.That is, the inclined shape is taken at the top of the body portion 420, and the front surface and the body portion 420 provided with a screen form an obtuse angle, and the cabinet 401 formed by the back surface and the body portion 420 forms an acute angle. Can be tilted

몸체부(420)의 상단 중 일 영역에 배치되는 제스처 인식 모듈은 디스플레이부(420)를 기준으로 디스플레이부(420)의 하단에 구비될 수 있다. 또는, 디스플레이부(420)가 배치되는 몸체부(410)의 상면에 구비되되, 디스플레이부(420)보다 사용자에게 더 가까운 위치에 구비 될 수 있다.The gesture recognition module disposed in one area of the upper end of the body 420 may be provided at the lower end of the display unit 420 based on the display unit 420. Alternatively, the display unit 420 is provided on the upper surface of the body portion 410 is disposed, it may be provided in a position closer to the user than the display unit 420.

이는 사용자가 영상 제공 장치에 사용자 인터렉션을 위한 제스처를 취할 때 디스플레이 부의 바로 앞쪽에서 진행이 가능할 수 있다.This may be possible when the user makes a gesture for user interaction on the video providing device, in front of the display unit.

디스플레이부(420)가 다른 터치형식의 키오스크처럼 화면이 제공되는 부분이 상단을 바라보도록 하면, 사용자의 눈 높이에 맞지 않는 다는 단점이 존재할 수 있으며, 직각으로 구비되거나 혹은 디스플레이부(420) 전면(화면)과 몸체부(420)가 예각을 이루는 경우에는 제스처 인식이 제대로 수행되지 않을 수 있다.When the display unit 420 causes a portion provided with a screen to look at the top like other touch-type kiosks, there may be a disadvantage that it does not fit the user's eye level, and may be provided at right angles or the front of the display unit 420 ( When the screen) and the body 420 form an acute angle, gesture recognition may not be properly performed.

따라서, 키오스크 형태의 영상 제공 장치는 디스플레이부(420)를 기울어지게 구비 함으로써 제스처 인식 모듈의 인식률을 높일 수 있으며, 사용자가 편리하게 사용하도록 할 수 있다.Accordingly, the kiosk type image providing device may increase the recognition rate of the gesture recognition module by tilting the display unit 420, and allow the user to conveniently use it.

이하 도 8을 참조하여 본 발명의 일 실시예에 따르는 서버에 의해 수행되는 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법에 대한 순서를 상세히 설명한다.Hereinafter, a procedure for a method for moving and controlling a real estate model house virtual space using a gesture recognition module performed by a server according to an embodiment of the present invention will be described in detail with reference to FIG. 8.

우선, 서버(100)은 단말(200)로부터 가상공간에 대한 입장요청을 수신하게 된다(S310). 이때 입장 요청에 대한 쿼리는 메뉴에서 선택한 특정 공간이 될 수 있고, 처음 시작하여 메뉴를 선택 할 수 있는 화면에 대한 요청 쿼리 일 수 있다.First, the server 100 receives an admission request for the virtual space from the terminal 200 (S310). At this time, the query for the admission request may be a specific space selected from the menu, or may be a query for the screen for starting the first time and selecting the menu.

처음 시작한 상황이라면, 입장이 가능한 가상공간에 대한 영상 메뉴를 제공 할 수 있고, 현재 가상공간에 대한 영상을 제공받고 있는 상황에서 메뉴를 통해 다른 영상을 요청하게 되면, 단말(200)로부터 요청을 수신한 특정 가상공간에 대한 영상 데이터를 제공할 수 있다.If it is the first time, it is possible to provide a video menu for a virtual space where admission is possible, and when a different video is requested through a menu in a situation where a video for a virtual space is currently being provided, a request is received from the terminal 200 It is possible to provide image data for a specific virtual space.

이후, 사용자는 현재 제공받은 가상공간에 대한 영상 데이터를 기준으로 이동이 가능 할 수 있다.Thereafter, the user may be able to move based on the image data for the virtual space currently provided.

제스처 인식 모듈은 사용자의 손을 인식하고, 손을 인식한 이후에 손의 모양이나, 방향 등을 고려하여 사용자의 손 동작을 통한 인터렉션을 인식할 수 있다(S320).The gesture recognition module recognizes the user's hand and, after recognizing the hand, may recognize the interaction through the user's hand motion in consideration of the shape or direction of the hand (S320).

주먹을 쥐거나, 손을 펴거나, 양손의 간격을 벌리는 것과 같은 사전에 계획된 인터렉션이 수신 되는 경우 서버(100)는 이에 해당하는 영상 데이터를 제공할 수 있다.When a pre-planned interaction, such as clenching a fist, opening a hand, or opening a gap between both hands, is received, the server 100 may provide corresponding image data.

사용자가 취한 제스처에 따라 제스처 인식 모듈은 사용자의 인터렉션에 대응하는 명령을 검색하고 해당 인터렉션에 의해 요청된 명령이 수행된 영상 데이터를 단말(200)을 통해 사용자에게 제공할 수 있다.According to the gesture taken by the user, the gesture recognition module may search for a command corresponding to the user's interaction and provide image data on which the command requested by the interaction is performed to the user through the terminal 200.

본 발명의 추가 실시예로, 사용자가 한손은 펴고 한손은 주먹을 쥐는 동작을 취하는 제스처를 통한 인터렉션은 현재 바라보는 방향으로 끝까지 갔다가 막다른 길이 나오면 멈추도록 할 수 있다.In a further embodiment of the present invention, the interaction through a gesture in which the user takes the action of spreading one hand and holding the fist in one hand can go to the end in the current viewing direction and stop when a dead end comes out.

또는 현재 바라보는 방향으로 끝까지 이동하다가 막다른 길이 나오면 손을 펴고 있는 방향으로 회전하여 이동할 수 있다.Or you can move to the direction you are currently looking at, and when a dead end comes out, you can move it by rotating in the direction you are spreading your hands.

즉, 두손이 모두 인식되었을 때, 서로 다른 제스처를 취하게 되면, 상이한 두 손의 동작을 인식하여 다양한 인터렉션이 가능하고 다양한 명령을 할 수 있다.That is, when both hands are recognized and different gestures are taken, various interactions are possible and various commands can be made by recognizing the motions of two different hands.

본 발명의 추가 실시예로, 가상공간에 대한 3D 영상이 제공 될 때, 화면을 분할하여, 두개의 화면을 제공 받는 것이 가능할 수 있으며, 화면이 분할되는 경우 각 화면에서 독립적인 동작을 인식하여 각 화면에 독립적인 가상공간을 제공하여, 화멸 별로 사용자 인터렉션에 의한 명령이 수행되도록 할 수 있다.As a further embodiment of the present invention, when a 3D image of a virtual space is provided, it may be possible to divide the screen and receive two screens. By providing an independent virtual space on the screen, commands by user interaction can be performed for each screen.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능 한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. One embodiment of the present invention may also be embodied in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, the computer-readable medium may include any computer storage medium. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.Although the methods and systems of the present invention have been described in connection with specific embodiments, some or all of their components or operations may be implemented using a computer system having a general purpose hardware architecture.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustration only, and those skilled in the art to which the present invention pertains can understand that it can be easily modified to other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and it should be interpreted that all changes or modified forms derived from the meaning and scope of the claims and equivalent concepts thereof are included in the scope of the present invention. do.

10: 시스템 100: 서버
110: 통신 모듈 130: 프로세서
140: DB
200: 단말
400: 영상 제공 장치
410: 몸체부 420: 디스플레이부
401: 몸체부와 디스플레이부 후면 사이의 각
10: system 100: server
110: communication module 130: processor
140: DB
200: terminal
400: video providing device
410: body portion 420: display unit
401: angle between the body and the back of the display

Claims (12)

서버에 의해 수행되는 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법에 있어서,
가상공간에 대한 입장 요청을 수신하는 단계;
상기 가상공간에 대한 부동산 모델하우스 메뉴를 제공하되, 상기 부동산 모델하우스 메뉴는 실내 전체와 아파트 단지 주변의 환경, 단지 내의 편의 시설 및 단지 전체의 경관을 포함하는 컨텐츠를 포함하여 제공하는 단계;
상기 부동산 모델하우스 메뉴 중 어느하나에 대한 선택입력을 수신하고 대응하는 영상을 제공하는 단계;
영상 제공 장치를 통해 수신되는 사용자의 한 손에 의한 인터렉션을 인식하는 단계; 및
상기 인터렉션에 대응하는 명령을 검색하여, 현재 영상에서 상기 명령이 수행된 영상을 제공하는 단계;
를 포함하며,
상기 인터렉션 중 기 설정된 특정 인터렉션을 수신하는 경우, 상기 부동산 모델하우스 메뉴를 제공하는 것이고,
상기 가상공간은,
1인칭 시점으로 제공 되며, 상기 가상공간은 실물 모델하우스를 3D VR 컨텐츠로 구현한 것으로써, 실내 전체와 아파트 단지 주변의 환경, 단지 내의 편의 시설 및 단지 전체의 경관을 포함하는 컨텐츠이며,
상기 영상 제공 장치를 통해 서로 다른 모양의 사용자의 두 손이 모두 인식되는 경우, 두 손의 동작을 인식하여, 각 손의 동작에 대응하는 명령을 기 설정된 방식에 따라 결합한 복합적인 인터렉션이 수행되는 것이고,
상기 영상 제공 장치는,
지면에 고정되고, 상기 인터렉션을 인식하는 제스처 인식 장치를 포함하는 몸체부; 및
상기 몸체부의 상단에 형성되며, 상기 제스처 인식 모듈을 통해 인식 된 동작에 대응하여 이동 및 제어 되는 영상을 상기 사용자에게 제공하는 디스플레이 모듈이 포함된 디스플레이부;
를 포함하는 것인, 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법.
In a method for moving and controlling a real estate model house virtual space using a gesture recognition module performed by a server,
Receiving a request to enter the virtual space;
Providing a real estate model house menu for the virtual space, wherein the real estate model house menu includes content including contents of the entire interior and surroundings of the apartment complex, convenience facilities in the complex, and views of the entire complex;
Receiving a selection input for any one of the real estate model house menus and providing a corresponding image;
Recognizing the interaction by one hand of the user received through the video providing device; And
Searching for a command corresponding to the interaction and providing an image in which the command is performed in the current image;
It includes,
When receiving a predetermined specific interaction among the interactions, the real estate model house menu is provided,
The virtual space,
It is provided as a first person perspective, and the virtual space is a real model house that is implemented as 3D VR content, and includes the entire interior and the surroundings of the apartment complex, amenities within the complex, and the entire landscape.
When both hands of a user having different shapes are recognized through the image providing device, a complex interaction is performed by recognizing the motions of the two hands and combining commands corresponding to the motions of each hand according to a preset method. ,
The video providing device,
A body part fixed to the ground and including a gesture recognition device for recognizing the interaction; And
A display unit formed on an upper portion of the body unit and including a display module providing an image that is moved and controlled in response to an operation recognized by the gesture recognition module to the user;
A method of moving and controlling a real estate model house virtual space using a gesture recognition module.
제 1 항에 있어서,
상기 디스플레이부는,
상기 몸체부와 상기 디스플레이부의 후면이 예각을 이루도록 기울어져 형성되는 것인,
제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법.
According to claim 1,
The display unit,
The body portion and the rear surface of the display portion is formed to be inclined to form an acute angle,
A method for moving and controlling a real estate model house virtual space using a gesture recognition module.
제 1 항에 있어서,
상기 인터렉션에 의해 제공되는 영상은,
상기 영상에 의한 가상공간 내의 시점의 변경 또는 시점 이동이 이루어지도록 제공되는 것인,
제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법.
According to claim 1,
The image provided by the interaction,
It is provided to change the viewpoint or move the viewpoint in the virtual space by the image,
A method for moving and controlling a real estate model house virtual space using a gesture recognition module.
제 3 항에 있어서,
상기 인터렉션은,
상기 사용자가 주먹을 쥐는 동작을 포함하며,
상기 인터렉션에 의해 제공되는 영상은 상기 가상공간 내에서 현재 제공 된 시점이 앞으로 이동하는 영상인 것인,
제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법.
The method of claim 3,
The interaction,
The user comprises the action of clenching a fist,
The image provided by the interaction is an image in which the view point currently provided in the virtual space moves forward,
A method for moving and controlling a real estate model house virtual space using a gesture recognition module.
제 3 항에 있어서,
상기 인터렉션은,
상기 사용자가 손바닥을 펼치는 동작을 포함하며,
상기 인터렉션에 의해 제공되는 영상은 상기 가상공간 내에서 현재 제공 된 시점에 정지하는 영상인 것인,
제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법.
The method of claim 3,
The interaction,
The user includes the operation of spreading the palm,
The image provided by the interaction is an image that stops at the time currently provided in the virtual space,
A method for moving and controlling a real estate model house virtual space using a gesture recognition module.
제 3 항에 있어서,
상기 인터렉션은,
상기 사용자가 양 손의 간격을 벌리는 동작을 포함하며,
상기 인터렉션에 의해 제공되는 영상은 상기 가상공간 내에서 현재 제공 된 시점에 해당하는 공간에서 다른 공간으로 이동이 가능한 메뉴 영상인 것인,
제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법.
The method of claim 3,
The interaction,
The user comprises the operation of opening the gap between both hands,
The image provided by the interaction is a menu image that can be moved from the space corresponding to the currently provided time in the virtual space to another space,
A method for moving and controlling a real estate model house virtual space using a gesture recognition module.
제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법을 수행하는 영상 제공 장치에 있어서,
지면에 고정되고, 인터렉션을 인식하는 영상 제공 장치를 포함하는 몸체부; 및
상기 몸체부의 상단에 형성되며, 상기 영상 제공 장치를 통해 인식 된 동작에 대응하여 이동 및 제어 되는 영상을 사용자에게 제공하는 디스플레이 모듈이 포함된 디스플레이부;
를 포함하고,
상기 영상 제공 장치는 가상공간에 대한 입장 요청을 수신하면, 서버로 요청을 전송하여 해당하는 영상을 디스플레이부를 통하여 제공하되,
상기 가상공간에 대한 부동산 모델하우스 메뉴를 제공하고,
상기 부동산 모델하우스 메뉴는 실내 전체와 아파트 단지 주변의 환경, 단지 내의 편의 시설 및 단지 전체의 경관을 포함하는 컨텐츠를 포함하여 제공하고,
상기 부동산 모델하우스 메뉴 중 어느 하나에 대한 선택입력을 수신하면 대응하는 영상을 제공하고,
영상 제공 장치를 통해 수신되는 사용자의 한 손을 인식하고,
상기 인터렉션에 대응하는 영상을 제공하되,
상기 인터렉션 중 기 설정된 특정 인터렉션을 수신하는 경우, 상기 부동산 모델하우스 메뉴를 제공하는 것이고,
상기 영상 제공 장치를 통해 사용자의 서로 다른 모양의 두 손이 모두 인식되는 경우, 두 손의 동작을 인식하여, 각 손의 동작에 대응하는 명령을 기 설정된 방식에 따라 결합한 복합적인 인터렉션이 수행되는 것이고,
상기 가상공간은,
1인칭 시점으로 제공 되며, 상기 가상공간은 실물 모델하우스를 3D VR 컨텐츠로 구현한 것으로써, 실내 전체와 아파트 단지 주변의 환경, 단지 내의 편의 시설 및 단지 전체의 경관을 포함하는 컨텐츠인 것인,
제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법을 수행하는 영상 제공 장치.
In the image providing apparatus for performing a movement and control method for a real estate model house virtual space using a gesture recognition module,
A body part fixed to the ground and including an image providing device for recognizing an interaction; And
A display unit formed on an upper portion of the body portion and including a display module that provides a user with an image that is moved and controlled in response to an operation recognized by the image providing device;
Including,
When the image providing device receives a request to enter the virtual space, it transmits a request to a server to provide a corresponding image through a display unit,
Providing a real estate model house menu for the virtual space,
The real estate model house menu is provided including contents including the entire interior and surroundings of the apartment complex, amenities in the complex, and views of the entire complex,
When a selection input for any one of the real estate model house menus is received, a corresponding video is provided,
Recognize one hand of the user received through the video providing device,
Provide an image corresponding to the interaction,
When receiving a predetermined specific interaction among the interactions, the real estate model house menu is provided,
When both hands of different shapes of the user are recognized through the image providing device, a complex interaction is performed by recognizing the motions of the two hands and combining commands corresponding to the motions of each hand according to a preset method. ,
The virtual space,
It is provided as a first person perspective, and the virtual space is a real model house that is implemented as 3D VR content, which is content that includes the entire interior and surrounding environment of the apartment complex, amenities in the complex, and the entire landscape.
An image providing device that performs a movement and control method for a real estate model house virtual space using a gesture recognition module.
제 7 항에 있어서,
상기 디스플레이부는,
상기 몸체부와 상기 디스플레이부의 후면이 예각을 이루도록 소정의 각도로 기울어져 형성되는 것인,
제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법을 수행하는 영상 제공 장치.
The method of claim 7,
The display unit,
The body portion and the rear surface of the display portion is formed to be inclined at a predetermined angle to form an acute angle,
An image providing device that performs a movement and control method for a real estate model house virtual space using a gesture recognition module.
제 7 항에 있어서,
상기 인터렉션에 대응하는 영상은,
상기 영상에 의한 가상공간 내의 시점의 변경 또는 시점 이동이 이루어지도록 제공되는 것인,
제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법을 수행하는 영상 제공 장치.
The method of claim 7,
The video corresponding to the interaction,
It is provided to change the viewpoint or move the viewpoint in the virtual space by the image,
An image providing device that performs a movement and control method for a real estate model house virtual space using a gesture recognition module.
제 9 항에 있어서,
상기 인터렉션은,
상기 사용자가 주먹을 쥐는 동작을 포함하며,
상기 인터렉션에 대응하는 영상은 상기 가상공간 내에서 현재 제공 된 시점이 앞으로 이동하는 영상인 것인,
제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법을 수행하는 영상 제공 장치.
The method of claim 9,
The interaction,
The user comprises the action of clenching a fist,
The image corresponding to the interaction is an image in which the viewpoint currently provided in the virtual space moves forward,
An image providing device that performs a movement and control method for a real estate model house virtual space using a gesture recognition module.
제 9 항에 있어서,
상기 인터렉션은,
상기 사용자가 손바닥을 펼치는 동작을 포함하며,
상기 인터렉션에 대응하는 영상은 상기 가상공간 내에서 현재 제공 된 시점에 정지하는 영상인 것인,
제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법을 수행하는 영상 제공 장치.
The method of claim 9,
The interaction,
The user includes the operation of spreading the palm,
The image corresponding to the interaction is an image that stops at the time currently provided in the virtual space,
An image providing device that performs a movement and control method for a real estate model house virtual space using a gesture recognition module.
제 9 항에 있어서,
상기 인터렉션은,
상기 사용자가 양 손의 간격을 벌리는 동작을 포함하며,
상기 인터렉션에 대응하는 영상은 상기 가상공간 내에서 현재 제공 된 시점에 해당하는 공간에서 다른 공간으로 이동이 가능한 메뉴 영상인 것인,
제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법을 수행하는 영상 제공 장치.

The method of claim 9,
The interaction,
The user comprises the operation of opening the gap between both hands,
The image corresponding to the interaction is a menu image that can be moved from the space corresponding to the currently provided time in the virtual space to another space,
An image providing device that performs a movement and control method for a real estate model house virtual space using a gesture recognition module.

KR1020170173509A 2017-12-15 2017-12-15 Device and method for moving and control of real estate model house virtual space using gesture recognition module KR102074680B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170173509A KR102074680B1 (en) 2017-12-15 2017-12-15 Device and method for moving and control of real estate model house virtual space using gesture recognition module

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170173509A KR102074680B1 (en) 2017-12-15 2017-12-15 Device and method for moving and control of real estate model house virtual space using gesture recognition module

Publications (2)

Publication Number Publication Date
KR20190072277A KR20190072277A (en) 2019-06-25
KR102074680B1 true KR102074680B1 (en) 2020-04-08

Family

ID=67065140

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170173509A KR102074680B1 (en) 2017-12-15 2017-12-15 Device and method for moving and control of real estate model house virtual space using gesture recognition module

Country Status (1)

Country Link
KR (1) KR102074680B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112518743B (en) * 2020-11-20 2022-04-01 南京航空航天大学 Multi-mode neural decoding control system and method for on-orbit operation of space manipulator

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4318056B1 (en) * 2008-06-03 2009-08-19 島根県 Image recognition apparatus and operation determination method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8381108B2 (en) * 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
KR20160128119A (en) * 2015-04-28 2016-11-07 엘지전자 주식회사 Mobile terminal and controlling metohd thereof
KR101794233B1 (en) * 2015-05-11 2017-11-07 (주)젠트정보기술 Realistic game content providing system using motion recognition and special effect control technique

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4318056B1 (en) * 2008-06-03 2009-08-19 島根県 Image recognition apparatus and operation determination method

Also Published As

Publication number Publication date
KR20190072277A (en) 2019-06-25

Similar Documents

Publication Publication Date Title
JP6629280B2 (en) Display of augmented reality light guide
US20230267697A1 (en) Object creation with physical manipulation
US8643703B1 (en) Viewer tracking image display
US9483113B1 (en) Providing user input to a computing device with an eye closure
US20150187137A1 (en) Physical object discovery
EP3756169B1 (en) Browser for mixed reality systems
US8451344B1 (en) Electronic devices with side viewing capability
US9294670B2 (en) Lenticular image capture
CN103620620A (en) Using spatial information in device interaction
US20180005440A1 (en) Universal application programming interface for augmented reality
CN113826059A (en) Techniques to set focus in a camera in a mixed reality environment with hand gesture interaction
US20150213784A1 (en) Motion-based lenticular image display
JP2019536140A (en) Method, system and non-transitory computer-readable recording medium for supporting control of object
EP3172721B1 (en) Method and system for augmenting television watching experience
US20220413681A1 (en) Dynamic browser stage
KR102074680B1 (en) Device and method for moving and control of real estate model house virtual space using gesture recognition module
US20150355717A1 (en) Switching input rails without a release command in a natural user interface
US9524036B1 (en) Motions for displaying additional content
WO2024061163A1 (en) Human-computer interaction method, display method, apparatus, and device
JP2018005660A (en) Information processing device, program, position information creation method, and information processing system
Ballendat Visualization of and interaction with digital devices around large surfaces as a function of proximity
KR102525503B1 (en) Method for providing remote control of other terminals using user terminals
US20240153222A1 (en) System and method for providing multiple portals as search results
JP6833319B2 (en) Information processing programs, information processing systems, information processing methods, and information processing equipment
CN117861201A (en) Interaction method and device in game, electronic equipment and readable storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right