KR20200027639A - Method of generating 3 dimensional virtual reality data using 2.5 dimensional virtual exhibition space - Google Patents

Method of generating 3 dimensional virtual reality data using 2.5 dimensional virtual exhibition space Download PDF

Info

Publication number
KR20200027639A
KR20200027639A KR1020180105676A KR20180105676A KR20200027639A KR 20200027639 A KR20200027639 A KR 20200027639A KR 1020180105676 A KR1020180105676 A KR 1020180105676A KR 20180105676 A KR20180105676 A KR 20180105676A KR 20200027639 A KR20200027639 A KR 20200027639A
Authority
KR
South Korea
Prior art keywords
image
exhibition
wall surfaces
space
wall surface
Prior art date
Application number
KR1020180105676A
Other languages
Korean (ko)
Other versions
KR102121397B1 (en
Inventor
박치형
김동리
김남현
조훈제
Original Assignee
디프트(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 디프트(주) filed Critical 디프트(주)
Priority to KR1020180105676A priority Critical patent/KR102121397B1/en
Priority to PCT/KR2019/010368 priority patent/WO2020050516A1/en
Publication of KR20200027639A publication Critical patent/KR20200027639A/en
Application granted granted Critical
Publication of KR102121397B1 publication Critical patent/KR102121397B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention provides a method of generating three-dimensional virtual reality (VR) data using a 2.5-dimensional virtual exhibition space which allows a quick and efficient VR exhibition service. The method comprises: a step of preparing a space image three-dimensionally describing an exhibition space including a plurality of wall surfaces; a step of analyzing the plurality of wall surfaces on the space image to acquire a scale and an inclination value in comparison to the exhibition space of the plurality of wall surfaces of the space image; a step of preparing a wall surface image of a specific wall surface among the plurality of wall surfaces two-dimensionally describing the specific wall surface on the space image; a step of overlapping one or more work images in a specific size at a specific position on the wall surface image; a step of generating a snapshot image of the specific wall surface on which the one or more work images are overlapped and arranged on the wall surface image; a step of using (i) the scale and the inclination value of the specific wall surface on the space image and (ii) the snapshot image to overlap and arrange the snapshot image on the specific wall surface on the space image to follow a three-dimensional effect element of the space image; a step of analyzing the plurality of wall surfaces of the exhibition space to acquire three-dimensional coordinates on the exhibition space of the plurality of wall surfaces of the exhibition image; and a step of using analysis results of the exhibition image to generate three-dimensional VR data corresponding to the exhibition image.

Description

2.5차원 가상 전시 공간을 이용한 3차원 VR 데이터 생성 방법{METHOD OF GENERATING 3 DIMENSIONAL VIRTUAL REALITY DATA USING 2.5 DIMENSIONAL VIRTUAL EXHIBITION SPACE}METHOD OF GENERATING 3 DIMENSIONAL VIRTUAL REALITY DATA USING 2.5 DIMENSIONAL VIRTUAL EXHIBITION SPACE}

본 발명은 가상 전시 공간에 관한 것으로, 보다 상세하게는 2.5차원 가상 전시 공간을 이용한 3차원 VR 데이터 생성 방법에 관한 것이다.The present invention relates to a virtual exhibition space, and more particularly, to a method for generating 3D VR data using a 2.5D virtual exhibition space.

최근 정보통신 기술의 발전에 따라 가상 갤러리 서비스가 제공되고 있다. 예시적으로, 하나의 가상 갤러리 서비스는 2차원의 벽면 이미지에 2차원의 작품 이미지를 배치시키는 플랫한 서비스를 제공하며, 다른 가상 갤러리 서비스는 3차원 엔진을 이용하여 가상 갤러리의 3차원 그래픽을 구성하여 서비스하고 있으며, 또 다른 가상 갤러리 서비스는 VR 기술을 이용하여 가상 현실 갤러리 공간에 전시된 작품을 관람하고 체험할 수 있도록 서비스하고 있다.With the recent development of information and communication technology, a virtual gallery service has been provided. Illustratively, one virtual gallery service provides a flat service for placing a 2D artwork image on a 2D wall image, and the other virtual gallery service constructs a 3D graphic of a virtual gallery using a 3D engine. Another virtual gallery service is using VR technology to view and experience the works displayed in the virtual reality gallery space.

종래의 플랫한 갤러리 서비스는 입체적인 갤러리 서비스를 제공할 수 없는 단점이 있으며, 3차원 엔진을 이용하거나 VR 기술을 이용하는 갤러리 서비스는 데이터의 크기와 수가 상당하여 로딩에 많은 시간이 소요될 뿐만 아니라, 작품 콘텐츠의 훼손이 수반되게 된다. 갤러리 서비스를 이용하기 위한 사용자 단말기 또한 고성능이 요구되는 실정이다.The conventional flat gallery service has a disadvantage that it cannot provide a three-dimensional gallery service, and the gallery service using a 3D engine or VR technology takes a lot of time to load due to the size and number of data, and also works contents. Will be accompanied by corruption. A user terminal for using the gallery service also requires high performance.

공개특허공보 제10-2015-0113246호, 2015.10.08.Publication Patent Publication No. 10-2015-0113246, 2015.10.08.

본 발명이 해결하고자 하는 과제는 2.5차원 가상 전시 공간을 3차원의 가상현실 공간으로 확장하여 신속하고 효율적인 VR 전시 서비스가 가능하게 하는 것이다.The problem to be solved by the present invention is to expand the 2.5-dimensional virtual exhibition space to a 3-dimensional virtual reality space to enable rapid and efficient VR exhibition services.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 3차원 VR 데이터 생성 방법은, 복수의 벽면을 포함하는 전시 공간이 입체적으로 묘사된 공간 이미지를 준비하는 단계, 상기 공간 이미지 상의 복수의 벽면을 분석하여, 상기 공간 이미지의 복수의 벽면의 상기 전시 공간 대비 스케일 및 기울기 값을 획득하는 단계, 상기 공간 이미지 상의 복수의 벽면 중 특정 벽면이 평면적으로 묘사된 상기 특정 벽면의 벽면 이미지를 준비하는 단계, 상기 벽면 이미지 상의 특정 위치에 특정 크기로 하나 이상의 작품 이미지를 오버랩하여 배치시키는 단계, 상기 벽면 이미지 상에 상기 하나 이상의 작품 이미지가 오버랩되어 배치된 상기 특정 벽면의 스냅샷 이미지를 생성하는 단계, (ⅰ) 상기 공간 이미지 상의 상기 특정 벽면의 상기 스케일 및 기울기 값, (ⅱ) 상기 스냅샷 이미지를 이용하여 상기 공간 이미지 상의 상기 특정 벽면 상에 상기 스냅샷 이미지를, 상기 공간 이미지의 입체감 요소를 따르도록, 오버랩하여 배치시켜 전시 이미지를 생성하는 단계, 상기 전시 이미지 상의 복수의 벽면을 분석하여, 상기 전시 이미지의 복수의 벽면의 상기 전시 공간 상의 3차원 좌표를 획득하는 단계, 및 상기 전시 이미지의 분석 결과를 이용하여 상기 전시 이미지에 상응하는 3차원 VR 데이터를 생성하는 단계를 포함한다.The method for generating 3D VR data according to an aspect of the present invention for solving the above-described problem comprises: preparing a spatial image in which an exhibition space including a plurality of wall surfaces is three-dimensionally depicted, and a plurality of wall surfaces on the spatial image Analyzing, acquiring a scale and a slope value of the exhibition space of the plurality of wall surfaces of the spatial image, preparing a wall image of the specific wall surface in which a specific wall surface is flatly depicted among the plurality of wall surfaces on the spatial image, Overlaying and arranging one or more work images at a specific size on a specific position on the wall image, generating a snapshot image of the specific wall on which the one or more work images overlap and arranged on the wall image, (ⅰ ) The scale and slope values of the particular wall surface on the spatial image, (ii) the Generating an exhibition image by overlapping the snapshot image on the specific wall surface of the spatial image using a snapshot image to follow a three-dimensional element of the spatial image, and generating a plurality of wall surfaces on the exhibition image Analyzing, acquiring 3D coordinates on the exhibition space of a plurality of wall surfaces of the exhibition image, and generating 3D VR data corresponding to the exhibition image using the analysis result of the exhibition image .

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific matters of the present invention are included in the detailed description and drawings.

상술한 본 발명에 의하면, (3차원 엔진을 이용한 복잡한 제작 과정을 거치지 않고도) 2.5차원의 입체적인 전시 이미지를 이용하여 3차원 VR 데이터를 자동적으로 생성함으로써, 2.5차원 가상 전시 공간을 3차원의 가상현실 공간으로 확장하여 신속하고 효율적인 VR 전시 서비스가 가능하게 할 수 있다.According to the present invention described above, by automatically generating 3D VR data using a 2.5D stereoscopic display image (without going through a complicated production process using a 3D engine), a 2.5D virtual exhibition space is created in 3D virtual reality. It can be expanded into a space to enable rapid and efficient VR exhibition service.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 가상 전시 공간 제공 서비스가 적용되는 환경을 개략적으로 도시한 블록도이다.
도 2는 본 발명의 실시예에 따른 가상 전시 공간 제공 방법의 공간 이미지 설정 과정을 개략적으로 도시한 흐름도이다.
도 3은 전시 공간이 입체적으로 묘사된 공간 이미지를 개략적으로 도시한 도면이다.
도 4는 공간 이미지가 사용자 단말기를 통해서 사용자에게 제공되는 것을 개략적으로 도시한 도면이다.
도 5 내지 도 6은 복수의 벽면의 스케일과 기울기 값을 분석하는 것을 설명하기 위하여 개략적으로 도시한 도면이다.
도 7은 본 발명의 실시예에 따른 가상 전시 공간 제공 방법의 작품 등록 과정을 개략적으로 도시한 흐름도이다.
도 8 내지 도 9는 특정 벽면의 벽면 이미지 상에 작품 이미지를 배치시키는 것을 설명하기 위하여 개략적으로 도시한 도면이다.
도 10은 본 발명의 실시예에 따른 가상 전시 공간 제공 방법의 작품 관람 과정을 개략적으로 도시한 흐름도이다.
도 11 내지 도 12는 공간 이미지 상에 스냅샷 이미지를 오버랩하여 배치시켜 전시 이미지를 생성하는 것을 설명하기 위하여 개략적으로 도시한 도면이다.
도 13은 본 발명의 실시예에 따른 가상 전시 공간 제공 방법에 의해 생성된 전시 이미지의 예시를 개략적으로 도시한 도면이다.
도 14는 전시 이미지에 상응하는 3차원 VR 데이터가 생성되어 제공되는 환경을 개략적으로 도시한 블록도이다.
도 15는 본 발명의 실시예에 따른 3차원 VR 데이터 생성 방법을 개략적으로 도시한 흐름도이다.
도 16은 전시 이미지를 분석하여 3차원 좌표를 획득하는 것을 설명하기 위하여 개략적으로 도시한 도면이다.
1 is a block diagram schematically showing an environment to which a virtual exhibition space provision service is applied.
2 is a flowchart schematically illustrating a process of setting a spatial image of a method for providing a virtual exhibition space according to an embodiment of the present invention.
3 is a diagram schematically showing a spatial image in which the exhibition space is three-dimensionally depicted.
4 is a diagram schematically showing that a spatial image is provided to a user through a user terminal.
5 to 6 are views schematically illustrating the analysis of the scale and slope values of a plurality of wall surfaces.
7 is a flowchart schematically illustrating a process of registering a work in a method for providing a virtual exhibition space according to an embodiment of the present invention.
8 to 9 are views schematically illustrating the arrangement of a work image on a wall image of a specific wall surface.
10 is a flowchart schematically showing a process of viewing a work of a method for providing a virtual exhibition space according to an embodiment of the present invention.
11 to 12 are views schematically illustrating the creation of an exhibition image by overlapping and disposing a snapshot image on a spatial image.
13 is a diagram schematically showing an example of an exhibition image generated by a method for providing a virtual exhibition space according to an embodiment of the present invention.
14 is a block diagram schematically illustrating an environment in which 3D VR data corresponding to an exhibition image is generated and provided.
15 is a flowchart schematically illustrating a method for generating 3D VR data according to an embodiment of the present invention.
FIG. 16 is a diagram schematically illustrating to obtain a 3D coordinate by analyzing an exhibition image.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below but may be embodied in various different forms, only the present embodiments are intended to complete the disclosure of the present invention, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the invention, which is defined only by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, “comprises” and / or “comprising” does not exclude the presence or addition of one or more other components other than the components mentioned. Throughout the specification, the same reference numerals refer to the same components, and “and / or” includes each and every combination of one or more of the mentioned components. Although "first", "second", etc. are used to describe various components, it goes without saying that these components are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings commonly understood by those skilled in the art to which the present invention pertains. In addition, terms defined in the commonly used dictionary are not ideally or excessively interpreted unless explicitly defined.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.The spatially relative terms “below”, “beneath”, “lower”, “above”, “upper”, etc., are as shown in the figure. It can be used to easily describe a correlation between a component and other components. Spatially relative terms are to be understood as including terms in different directions of components in use or operation in addition to the directions shown in the figures. For example, if a component shown in the drawing is flipped over, the component described as "below" or "beneath" the other component will be placed "above" the other component. You can. Thus, the exemplary term “below” can include both the directions below and above. Components can also be oriented in different directions, and thus spatially relative terms can be interpreted according to orientation.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 "2.5 차원"은 2차원의 평면 상에서 객체를 입체적인 형태로 묘사하여 표현하는 것을 의미하며, "2.5 차원화"는 2차원의 객체를 2.5차원의 객체로 변환하는 것을 의미한다. 2.5차원은 사람의 인지적 착시에 기반한다.In the present specification, "2.5 dimension" means to describe and express an object in a three-dimensional form on a two-dimensional plane, and "2.5 dimensioning" means to convert a two-dimensional object into a 2.5-dimensional object. The 2.5 dimension is based on human cognitive illusion.

본 명세서에서 "작품 이미지"는 아티스트에 의한 창작물로서의 사진, 그림, 및 그 밖의 이미지의 형태로 표현 가능한 임의의 창작물의 이미지를 포함한다.In the present specification, "work image" includes an image of any creation that can be expressed in the form of photographs, pictures, and other images as a creation by an artist.

본 명세서에서 "가상 전시 공간"은 네트워크 상에 존재하는 사이버 공간으로서 전시 이미지 및 작품 이미지에 관한 각종 데이터 및 정보의 열람이 가능한 장소적 의미로 사용된다.In this specification, "virtual exhibition space" is a cyber space existing on a network, and is used as a place meaning that various data and information related to exhibition images and artwork images can be viewed.

본 명세서에서 "3차원 VR 데이터"는 3차원의 가상현실(Virtual Reality; VR) 공간을 정의하는 데이터로서, VR 서비스로 제공 가능한 콘텐츠 데이터를 의미한다.In the present specification, "3D VR data" is data defining a 3D virtual reality (VR) space, and means content data that can be provided by a VR service.

도 1은 가상 전시 공간 제공 서비스가 적용되는 환경을 개략적으로 도시한 블록도이다.1 is a block diagram schematically showing an environment to which a virtual exhibition space provision service is applied.

도 1을 참조하면, 사용자 단말기(100)와 서버(200)가 네트워크를 통해서 서로 연결된다. 사용자 단말기(100)와 서버(200)는 각종 데이터 및/또는 정보를 송수신할 수 있다. 네트워크는 유선 또는 무선 네트워크를 포함한다. 네트워크의 규모, 토폴로지, 통신 방식 등은 실시예에 따라 다양하게 변형되어 제공될 수 있다.Referring to FIG. 1, the user terminal 100 and the server 200 are connected to each other through a network. The user terminal 100 and the server 200 may transmit and receive various data and / or information. Networks include wired or wireless networks. The scale, topology, and communication method of a network may be provided in various variations according to embodiments.

사용자 단말기(100)는 사용자에 의해 사용되는 컴퓨터 시스템을 나타낸다. 예를 들어, 사용자 단말기(100)는 스마트폰, 태블릿, PDA(Personal Digital Assistant) 등과 같은 모바일 컴퓨터 시스템으로 제공될 수 있다. 또는, 사용자 단말기(100)는 노트북, 데스크톱 등과 같은 고정형 컴퓨터 시스템으로 제공될 수 있다. 사용자 단말기(100)는 상술한 예시에 제한되지 않으며, 네트워크를 통해서 서버(200)와 연결 가능하고 디스플레이를 갖춘 임의의 컴퓨터 시스템으로 제공될 수 있다. 사용자 단말기(100)는 서버(200)와 연동하기 위한 애플리케이션을 저장하고 실행할 수 있다. 애플리케이션은 각종 명령어, 데이터 및 정보를 포함할 수 있다.The user terminal 100 represents a computer system used by a user. For example, the user terminal 100 may be provided as a mobile computer system such as a smart phone, a tablet, or a personal digital assistant (PDA). Alternatively, the user terminal 100 may be provided as a fixed computer system such as a laptop or desktop. The user terminal 100 is not limited to the above-described examples, and may be connected to the server 200 through a network and may be provided as an arbitrary computer system having a display. The user terminal 100 may store and execute an application for interworking with the server 200. The application may include various commands, data and information.

서버(200)는 가상 전시 공간을 제공한다. 서버(200)는 사용자 단말기(100)로부터의 요청에 따라 사용자 단말기(100)에게 전시 이미지를 제공한다. 전시 이미지는 후술하는 바와 같이 입체적인 이미지로 제공된다. 일부 실시예에서, 전시 이미지는 투시 원근법에 의하여 드로잉된다. 또한, 전시 이미지는 소정의 시점(view point)과 소정의 개수의 소실점(vanishing point)을 갖도록 드로잉된다. 투시 원근법에 관한 상세한 설명은 본 발명의 요지를 흐릴 수 있으므로 생략한다.The server 200 provides a virtual exhibition space. The server 200 provides an exhibition image to the user terminal 100 according to a request from the user terminal 100. The exhibition image is provided as a three-dimensional image as described below. In some embodiments, the exhibit image is drawn by perspective perspective. In addition, the exhibition image is drawn to have a predetermined view point and a predetermined number of vanishing points. Detailed description of the perspective perspective is omitted because it may obscure the subject matter of the present invention.

후술하는 바와 같이, 입체적인 전시 이미지를 생성하기 위하여 스냅샷 이미지가 이용된다. 스냅샷 이미지는 벽면의 평면 이미지 상에 하나 이상의 작품 이미지가 오버랩되어 배치된 이미지이다. 이러한 평면적인 스냅샷 이미지의 2.5차원화를 통해서 입체적인 전시 이미지가 생성될 수 있다.As described below, a snapshot image is used to create a three-dimensional display image. The snapshot image is an image in which one or more artwork images are overlapped and arranged on a flat image on the wall. Through the 2.5-dimensionalization of such a planar snapshot image, a three-dimensional display image can be generated.

한편, 도 1에 도시된 바와 다르게, 복수의 사용자 단말기(100)가 서버(200)와 서로 연결될 수 있다. 하나의 사용자 단말기(100)는 제1 사용자에 의해 사용되고, 다른 하나의 사용자 단말기(100)는 제2 사용자에 의해 사용될 수 있다. 제1 사용자는 가상 전시 공간의 관리자(예를 들어, 아티스트, 큐레이터 또는 콜렉터 등)로서 후술하는 바와 같이 전시를 위한 작품 이미지를 등록한다. 제2 사용자는 가상 전시 공간의 관람자로서 후술하는 바와 같이 전시 이미지 및 작품 이미지를 열람하고 관람한다. 하나의 사용자가 동시에 제1 사용자 및 제2 사용자로 분류될 수 있음은 자명하게 이해될 것이다.Meanwhile, as illustrated in FIG. 1, a plurality of user terminals 100 may be connected to the server 200. One user terminal 100 may be used by the first user, and the other user terminal 100 may be used by the second user. The first user registers a work image for exhibition as described below as an administrator (eg, an artist, curator, or collector) of the virtual exhibition space. As a spectator of the virtual exhibition space, the second user views and views the exhibition image and the work image as described later. It will be clearly understood that one user can be classified as the first user and the second user at the same time.

도 2는 본 발명의 실시예에 따른 가상 전시 공간 제공 방법의 공간 이미지 설정 과정을 개략적으로 도시한 흐름도이다.2 is a flowchart schematically illustrating a process of setting a spatial image of a method for providing a virtual exhibition space according to an embodiment of the present invention.

도 2를 참조하면, 단계 S310에서, 서버(200)가 전시 공간이 입체적으로 묘사된 공간 이미지를 준비한다. 공간 이미지는 가상의 (즉, 존재하지 않는) 전시 공간을 정의한다. 공간 이미지는 애플리케이션에 내재되어 사용자 단말기(100) 내에 사전 저장될 수 있다.Referring to FIG. 2, in step S310, the server 200 prepares a spatial image in which the exhibition space is three-dimensionally depicted. Spatial images define a virtual (ie non-existent) exhibition space. The spatial image may be pre-stored in the user terminal 100 by being embedded in the application.

도 3은 전시 공간이 입체적으로 묘사된 공간 이미지를 개략적으로 도시한 도면이다. 3 is a diagram schematically showing a spatial image in which the exhibition space is three-dimensionally depicted.

도 3에 도시된 바와 같이, 일부 실시예에서, 공간 이미지(10)는 투시 원근법에 의하여 드로잉된다. 또한, 공간 이미지(10)는 복수의 1점 투시도 또는 2점 투시도가 일체화된 형태를 가질 수 있다. 즉, 공간 이미지(10)는 복수의 시점과 각각의 시점에 상응하는 하나 이상의 소실점을 갖도록 드로잉된다.As shown in Figure 3, in some embodiments, the spatial image 10 is drawn by perspective perspective. In addition, the spatial image 10 may have a form in which a plurality of one-point perspective views or two-point perspective views are integrated. That is, the spatial image 10 is drawn to have a plurality of viewpoints and one or more vanishing points corresponding to each viewpoint.

공간 이미지(10) 내에서 전시 공간은 복수의 면을 포함한다. 여기서, 면은 복수의 벽면(A)과 천장면(B), 바닥면(C)을 포함한다. 일부 실시예에서, 천장면(B)은 천장이 생략되어 개방된 형태로 묘사될 수 있다. 후술하는 바와 같이, 일반적으로, 벽면(A)이 작품 이미지의 배치 및 전시를 위하여 이용될 것이나, 일부 실시예에서, 천장면(B) 또는 바닥면(C)도 작품 이미지의 배치 및 전시를 위하여 이용될 수 있다. 벽면(A)의 개수는 실시예에 따라 다양하게 증감할 수 있다. 벽면(A)의 배치 형태도 실시예에 따라 다양하게 변형될 수 있다.The exhibition space in the spatial image 10 includes a plurality of surfaces. Here, the surface includes a plurality of wall surfaces (A), a ceiling surface (B), and a floor surface (C). In some embodiments, the ceiling surface B may be depicted in an open form with the ceiling omitted. As will be described later, in general, the wall (A) will be used for the placement and display of the work image, but in some embodiments, the ceiling (B) or floor (C) is also used for the placement and display of the work image. Can be used. The number of wall surfaces (A) can be variously increased or decreased depending on the embodiment. The arrangement form of the wall surface A may also be variously modified according to embodiments.

한편, 도 3에는 명확하게 도시되지 않았으나, 일부 실시예에서, 공간 이미지(10)에는 빛, 명암, 색상, 그리고 그림자 등이 더 묘사될 수 있다. 또한, 공간 이미지(10)에는 작품 이외의 (인테리어 디자인용) 사물들이 더 묘사될 수 있다.Meanwhile, although not clearly illustrated in FIG. 3, in some embodiments, light, contrast, color, and shadow may be further depicted in the spatial image 10. In addition, objects (for interior design) other than the work may be further depicted in the spatial image 10.

일부 실시예에서, 공간 이미지(10)에 의해서 정의되는 전시 공간의 각각의 벽면(A)의 비율은 통일되게끔 고정될 수 있다. 즉, 복수의 벽면(A)의 가로 대 세로 비율이 서로 동일한 값으로 고정될 수 있다. 상기 비율은 사전에 결정될 수 있다. 한편, 복수의 벽면(A)의 크기가 통일되게 고정되는 것은 아니다. 예를 들어, 복수의 벽면(A)의 비율이 16:9로 일반적인 모바일 컴퓨터 시스템의 화면 비율로 고정될 수 있다. 이로써, 후술하는 바와 같이, 평면적으로 묘사된 벽면 이미지 또는 스냅샷 이미지를 사용자에게 제공하는 때에 상기 이미지가 사용자 단말기(100)의 화면의 전체 영역에 가득차게 표시될 수 있다. 한편, 복수의 벽면(10)의 비율이 상기 예시에 제한되는 것은 아니다.In some embodiments, the proportion of each wall surface A of the exhibition space defined by the spatial image 10 may be fixed to be unified. That is, the horizontal to vertical ratios of the plurality of wall surfaces A may be fixed to the same value. The ratio can be determined in advance. On the other hand, the sizes of the plurality of wall surfaces A are not fixed uniformly. For example, the ratio of the plurality of wall surfaces A may be fixed to the aspect ratio of a typical mobile computer system at 16: 9. Thus, as described later, when a planarly depicted wall image or snapshot image is provided to a user, the image may be displayed full on the entire area of the screen of the user terminal 100. Meanwhile, the proportions of the plurality of wall surfaces 10 are not limited to the above example.

도 4는 공간 이미지가 사용자 단말기를 통해서 사용자에게 제공되는 것을 개략적으로 도시한 도면이다. 도 4는 사용자 단말기(100)가 스마트폰인 경우를 예시로 한다.4 is a diagram schematically showing that a spatial image is provided to a user through a user terminal. 4 illustrates a case where the user terminal 100 is a smartphone.

도 4에 도시된 바와 같이, 공간 이미지(10)는 수평 방향으로 길게 연장된 형태를 가지므로, 사용자 단말기(100)의 화면에 표시될 수 있는 영역은 제한된다. 가상의 전시 공간 내의 사용자의 시선의 위치에 따라 일부 벽면(예를 들어, 13)은 사용자 단말기(100)의 화면에 표시되고, 다른 일부 벽면(예를 들어, 11, 15)은 사용자 단말기(100)의 화면에 표시되지 않는다. 사용자의 시선의 위치가 이동함에 따라 사용자 단말기(100)의 화면에 표시되는 공간 이미지(10)의 영역이 변경될 수 있다. 사용자의 시선의 위치는 단속적으로 또는 연속적으로 이동할 수 있다. 사용자의 시선의 위치를 이동시키기 위한 조작은 다양한 방식으로 이루어질 수 있다.As illustrated in FIG. 4, since the spatial image 10 has a shape extended in a horizontal direction, an area that can be displayed on the screen of the user terminal 100 is limited. Depending on the position of the user's gaze in the virtual exhibition space, some wall surfaces (eg, 13) are displayed on the screen of the user terminal 100, and other wall surfaces (eg, 11, 15) are displayed on the user terminal 100 ) Is not displayed on the screen. As the position of the user's gaze moves, the area of the spatial image 10 displayed on the screen of the user terminal 100 may be changed. The position of the user's gaze may move intermittently or continuously. The operation for moving the position of the user's gaze may be performed in various ways.

한편, 후술하는 전시 이미지(50)도 공간 이미지(10)와 마찬가지로 사용자 단말기(100)의 화면에 표시될 수 있는 영역이 제한된다.On the other hand, the display image 50 to be described later, like the spatial image 10, is limited to an area that can be displayed on the screen of the user terminal 100.

일부 실시예에서, 공간 이미지(10)는 수직 방향으로 길게 연장된 형태를 가질 수도 있다.In some embodiments, the spatial image 10 may have an elongated shape in the vertical direction.

다시 도 2를 참조하면, 이어서, 단계 S320에서, 서버(200)가 공간 이미지(10) 상의 복수의 벽면을 분석한다. 공간 이미지(10)의 분석 결과, 서버(200)는 공간 이미지(10)의 복수의 벽면의 스케일을 획득하고, 복수의 벽면의 기울기 값을 획득한다. 여기서, 획득된 각각의 벽면의 스케일과 기울기 값은 후술하는 스냅샷 이미지의 조정에 이용된다.Referring again to FIG. 2, in step S320, the server 200 analyzes a plurality of wall surfaces on the spatial image 10. As a result of the analysis of the spatial image 10, the server 200 acquires the scales of the plurality of wall surfaces of the spatial image 10, and acquires the slope values of the plurality of wall surfaces. Here, the obtained scale and tilt values of each wall surface are used for adjustment of a snapshot image described later.

도 5 내지 도 6은 복수의 벽면의 스케일과 기울기 값을 분석하는 것을 설명하기 위하여 개략적으로 도시한 도면이다. 도 5 내지 도 6은 특정 벽면(13)의 스케일과 기울기 값을 분석하는 경우를 예시로 한다.5 to 6 are views schematically illustrating the analysis of the scale and slope values of a plurality of wall surfaces. 5 to 6 exemplify a case in which the scale and the slope value of a specific wall surface 13 are analyzed.

도 5를 참조하면, 스케일은 전시 공간 대비 벽면의 비율을 의미한다. 즉, 스케일은 공간 이미지(10) 상에서 묘사된 전시 공간의 전체 면적(S2) 대비 각각의 벽면(13)의 면적(S1)의 비율(S1:S2)을 의미한다.Referring to FIG. 5, the scale means the ratio of the wall surface to the exhibition space. That is, the scale means the ratio (S1: S2) of the area (S1) of each wall surface 13 to the total area (S2) of the exhibition space depicted on the spatial image (10).

도 6을 참조하면, 기울기 값은, 사용자의 시점이 공간 이미지(10) 내의 각각의 벽면(13)의 정면에 위치한다고 가정하는 경우, 각각의 벽면이 평면 상에서 시계 방향 또는 반시계 방향으로 기울어진 정도를 나타낸다. 서버(200)는 공간 이미지(10)의 복수의 벽면(13)의 네 모서리 좌표를 획득하고, 복수의 벽면(13)의 고정된 비율(예를 들어, 16:9) 및 복수의 벽면(13)의 네 모서리 좌표에 기초하여 복수의 벽면(130)의 기울기 값을 획득할 수 있다.Referring to FIG. 6, if the user's viewpoint is assumed to be located in front of each wall surface 13 in the spatial image 10, the slope value is inclined clockwise or counterclockwise on the plane. Degree. The server 200 acquires coordinates of four corners of the plurality of wall surfaces 13 of the spatial image 10, a fixed ratio (eg, 16: 9) of the plurality of wall surfaces 13 and a plurality of wall surfaces 13 ), It is possible to obtain the slope values of the plurality of wall surfaces 130 based on the four corner coordinates.

도 6은 가상의 전시 공간에서 특정 벽면(13)을 평면 상에서 바라본 모습(즉, 평면도)을 도시한다. 서버(200)는 도 6에 도시된 바와 같은 θ1 또는 θ2의 각도를 기울기 값으로 획득한다. 6 is a view showing a specific wall surface 13 on a plane (ie, a top view) in a virtual exhibition space. The server 200 acquires an angle of θ1 or θ2 as shown in FIG. 6 as a slope value.

도 7은 본 발명의 실시예에 따른 가상 전시 공간 제공 방법의 작품 등록 과정을 개략적으로 도시한 흐름도이다.7 is a flowchart schematically illustrating a process of registering a work in a method for providing a virtual exhibition space according to an embodiment of the present invention.

도 7을 참조하면, 단계 S410에서, 사용자 단말기(100)가 전시 공간이 입체적으로 묘사된 공간 이미지(10)를 화면에 디스플레이한다. 공간 이미지(10)는 전시 공간별로 각각 제공될 수 있다. 제1 사용자는 복수의 전시 공간 중 특정 전시 공간을 선택할 수 있고, 사용자 단말기(100)는 선택된 전시 공간이 묘사된 공간 이미지(10)를 화면에 디스플레이할 수 있다.Referring to FIG. 7, in step S410, the user terminal 100 displays the spatial image 10 on which the exhibition space is three-dimensionally depicted on the screen. The spatial image 10 may be provided for each exhibition space. The first user may select a specific exhibition space among a plurality of exhibition spaces, and the user terminal 100 may display a spatial image 10 on which the selected exhibition space is depicted on the screen.

이어서, 단계 S420에서, 사용자 단말기(100)가 공간 이미지(10) 상의 복수의 벽면 중 특정 벽면에 대한 제1 사용자의 선택을 수신한다. 이어서, 단계 S430에서, 사용자 단말기(100)가 특정 벽면이 평면적으로 묘사된 특정 벽면의 벽면 이미지를 화면에 디스플레이한다. 이어서, 사용자 단말기(100)가 벽면 이미지 상의 특정 위치에 특정 크기로 하나 이상의 작품 이미지를 오버랩하여 배치시키는 제1 사용자의 명령을 수신한다. 그리고, 사용자 단말기(100)는 상기 특정 위치 및 특정 크기를 포함하는 하나 이상의 작품 이미지의 배치 정보를 획득한다.Subsequently, in step S420, the user terminal 100 receives a selection of the first user for a specific wall surface among the plurality of wall surfaces on the spatial image 10. Subsequently, in step S430, the user terminal 100 displays a wall image of the specific wall on which the specific wall is depicted on the screen. Subsequently, the user terminal 100 receives a command of the first user to overlap and place one or more pieces of work images in a specific size at a specific location on the wall image. Then, the user terminal 100 obtains the arrangement information of one or more work images including the specific location and specific size.

도 8 내지 도 9는 특정 벽면의 벽면 이미지 상에 작품 이미지를 배치시키는 것을 설명하기 위하여 개략적으로 도시한 도면이다. 도 8 내지 도 9는 사용자 단말기(100)가 스마트폰인 경우를 예시로 한다.8 to 9 are views schematically illustrating the arrangement of a work image on a wall image of a specific wall surface. 8 to 9 illustrate the case where the user terminal 100 is a smartphone.

도 8을 참조하면, 사용자 단말기(100)가 공간 이미지(10)를 화면에 디스플레이하고, 제1 사용자는 공간 이미지(10) 상의 복수의 벽면 중 특정 벽면(13)을 터치 등의 방식으로 선택할 수 있다.Referring to FIG. 8, the user terminal 100 displays the spatial image 10 on a screen, and the first user can select a specific wall surface 13 among a plurality of wall surfaces on the spatial image 10 by a touch method or the like. have.

도 9를 참조하면, 사용자 단말기(100)가 특정 벽면(13)이 평면적으로 묘사된 벽면 이미지(23)를 화면에 디스플레이한다. 벽면 이미지(23)는 작품이 배치되지 않은 상태의 벽면을 묘사한다. 일부 실시예에서, 벽면 이미지(23)가 사용자 단말기(100)의 화면의 전체 영역에 표시된다. 제1 사용자는 사용자 단말기(200) 또는 클라우드 저장소 등에 저장된 하나 이상의 작품 이미지(31, 32)를 선택하여 벽면 이미지(23) 상에 오버랩하여 배치시킬 수 있다. 제1 사용자는 하나 이상의 작품 이미지(31, 32)를 특정 위치에 특정 크기로 조정하여 배치시킬 수 있다. 도 9에는 두 개의 작품 이미지(31, 32)가 도시되어 있으나, 하나 또는 셋 이상의 작품 이미지가 배치될 수도 있다. 사용자 단말기(100)가 스마트폰인 경우, 하나 이상의 작품 이미지(31, 32)를 배치시키기 위한 제1 사용자의 명령은 터치 또는 특정 제스쳐로 제공될 수 있다. 또한, 제1 사용자의 명령은 하나 이상의 작품 이미지(31, 32)의 이동, 회전, 확대 및 축소 중 하나 이상을 포함할 수 있다.Referring to FIG. 9, the user terminal 100 displays a wall image 23 on which a specific wall 13 is depicted on the screen. The wall image 23 depicts the wall surface in which the work is not arranged. In some embodiments, the wall image 23 is displayed on the entire area of the screen of the user terminal 100. The first user may select one or more work images 31 and 32 stored in the user terminal 200 or a cloud storage, and overlap and arrange them on the wall image 23. The first user may adjust and arrange one or more pieces of work images 31 and 32 to a specific size at a specific location. Although two pieces of work images 31 and 32 are shown in FIG. 9, one or more pieces of work images may be arranged. When the user terminal 100 is a smart phone, a command of the first user for arranging one or more work images 31 and 32 may be provided by a touch or a specific gesture. Also, the first user's command may include one or more of movement, rotation, enlargement, and reduction of one or more work images 31 and 32.

일부 실시예에서, 작품 이미지(31)의 위치는 작품 이미지(31)의 소정의 하나 이상의 모서리(P1)의 좌표 또는 중앙(P2)의 좌표에 의해서 정의될 수 있다. 여기서, 좌표는 작품 이미지(31)가 배치되는 특정 벽면과 상대적인 관계에서 정의된다(즉, 특정 벽면의 좌표계). 예를 들어, 특정 벽면의 소정의 모서리의 좌표가 (0,0)으로 정의되는 것이다. 일부 실시예에서, 작품 이미지(31)의 크기는 특정 벽면의 전체 너비(wd2) 대비 각각의 작품 이미지(31)의 너비(wd1)의 비율(wd1:wd2)로 정의될 수 있다. 그러나, 작품 이미지(31)의 위치와 크기를 정의하는 방식이 이에 제한되는 것은 아니다. In some embodiments, the location of the work image 31 may be defined by the coordinates of one or more corners P1 of the work image 31 or the center P2. Here, the coordinates are defined in relation to a specific wall surface on which the work image 31 is placed (ie, a coordinate system of a specific wall surface). For example, the coordinates of a certain corner of a specific wall surface are defined as (0,0). In some embodiments, the size of the work image 31 may be defined as a ratio (wd1: wd2) of the width wd1 of each work image 31 compared to the total width wd2 of a specific wall surface. However, the method of defining the position and size of the work image 31 is not limited thereto.

이어서, 단계 S450에서, 사용자 단말기(100)가 벽면 이미지(23) 상에 하나 이상의 작품 이미지가 오버랩되어 배치된 특정 벽면의 스냅샷 이미지를 생성한다. 즉, 하나 이상의 작품 이미지가 배치된 벽면 이미지를 촬영 또는 캡처하듯 스냅샷 이미지를 생성한다. 스냅샷 이미지는 후술하는 바와 같이 작품 이미지 등을 서버(200)로부터 수신하여 로딩하기 전에 임시적으로(또는, 일시적으로) 화면에 디스플레이함으로써 사용자가 체감하는 로딩 시간을 감소시키기 위한 용도로 사용된다. 일부 실시예에서, 스냅샷 이미지의 품질은 사전 결정되며, 작품 이미지의 품질보다 낮을 수 있다. 데이터의 크기를 줄이고 로딩 시간을 감소시키기 위함이다. 일부 실시예에서, 스냅샷 이미지는 작품이 배치된 벽면에 한하여 생성될 수 있다.Subsequently, in step S450, the user terminal 100 generates a snapshot image of a specific wall surface in which one or more work images are overlapped and arranged on the wall image 23. That is, a snapshot image is generated as if a wall image in which one or more artwork images are arranged is captured or captured. The snapshot image is used to reduce a loading time experienced by a user by temporarily (or temporarily) displaying a work image or the like on the screen before receiving and loading a work image or the like as described later. In some embodiments, the quality of the snapshot image is predetermined and may be lower than the quality of the artwork image. This is to reduce the size of the data and reduce the loading time. In some embodiments, a snapshot image may be created only on the wall where the work is placed.

이어서, 단계 S460에서, 사용자 단말기(100)가 특정 벽면의 식별 정보, 하나 이상의 작품 이미지의 배치 정보, 스냅샷 이미지(43) 및 하나 이상의 작품 이미지(31, 32)를 서버(200)에 전송한다.Subsequently, in step S460, the user terminal 100 transmits identification information of a specific wall surface, arrangement information of one or more work images, a snapshot image 43, and one or more work images 31 and 32 to the server 200. .

도 10은 본 발명의 실시예에 따른 가상 전시 공간 제공 방법의 작품 관람 과정을 개략적으로 도시한 흐름도이다.10 is a flowchart schematically showing a process of viewing a work of a method for providing a virtual exhibition space according to an embodiment of the present invention.

도 10을 참조하면, 단계 S510 단계에서, 사용자 단말기(100)가 전시 공간이 입체적으로 묘사된 공간 이미지(10)를 준비한다. 공간 이미지(10)는 전시 공간별로 각각 제공될 수 있다. 제2 사용자는 복수의 전시 공간 중 특정 전시 공간을 선택할 수 있고, 사용자 단말기(100)는 선택된 전시 공간이 묘사된 공간 이미지(10)를 준비할 수 있다. 공간 이미지(10)는 애플리케이션에 내재되어 사용자 단말기(100) 내에 사전 저장될 수 있다.Referring to FIG. 10, in step S510, the user terminal 100 prepares a spatial image 10 in which the exhibition space is three-dimensionally depicted. The spatial image 10 may be provided for each exhibition space. The second user can select a specific exhibition space among a plurality of exhibition spaces, and the user terminal 100 can prepare a spatial image 10 in which the selected exhibition space is depicted. The spatial image 10 may be embedded in an application and pre-stored in the user terminal 100.

이어서, 단계 S520에서, 사용자 단말기(100)가 공간 이미지(10) 상의 복수의 벽면 중 특정 벽면의 식별 정보 및 특정 벽면이 평면적으로 묘사되고 특정 벽면 상의 특정 위치에 특정 크기로 하나 이상의 작품이 배치되어 묘사된 상기 특정 벽면의 스냅샷 이미지를 서버(200)로부터 수신한다. 즉, 사용자 단말기(100)가 단계 S450에서 생성된 특정 벽면의 스냅샷 이미지를 수신한다. 일부 실시예에서, 사용자 단말기(100)는 작품 등록 과정에서 작품 이미지가 배치된 벽면에 한하여 스냅샷 이미지를 수신한다. 또한, 사용자 단말기(100)는 하나 이상의 작품 이미지의 배치 정보 및 하나 이상의 작품 이미지(31, 32)를 서버(200)로부터 수신한다.Subsequently, in step S520, the user terminal 100, the identification information of a specific wall among the plurality of walls on the spatial image 10 and the specific wall are depicted in a plane, and one or more pieces are arranged in a specific size at a specific location on the specific wall. The depicted snapshot image of the specific wall surface is received from the server 200. That is, the user terminal 100 receives a snapshot image of a specific wall surface generated in step S450. In some embodiments, the user terminal 100 receives a snapshot image only on the wall where the work image is placed in the process of registering the work. Also, the user terminal 100 receives arrangement information of one or more work images and one or more work images 31 and 32 from the server 200.

이어서, 단계 S530에서, 사용자 단말기(100)가 특정 벽면의 식별 정보에 상응하는 공간 이미지(10) 상의 특정 벽면의 스케일 및 기울기 값, 스냅샷 이미지를 이용하여 스냅샷 이미지를 공간 이미지(10)의 입체감 요소를 따르도록 조정하고, 공간 이미지(10) 상의 특정 벽면 상에 오버랩하여 배치시켜 전시 이미지를 생성한다. 이어서, 단계 S540에서, 사용자 단말기(100)가 전시 이미지를 화면에 디스플레이한다. 여기서, "입체감 요소를 따르도록"이란 원본의 평면적 묘사와 달리 공간 이미지(10) 상의 특정 벽면과 동일한 시점 및 소실점을 갖도록 투시 원근법에 의하여 조정하는 것을 의미한다. 입체감 요소는 예를 들어 시점 또는 소실점을 포함할 수 있다.Subsequently, in step S530, the user terminal 100 uses the snapshot image and the scale and slope values of the specific wall surface on the spatial image 10 corresponding to the identification information of the specific wall surface to determine the snapshot image of the spatial image 10. Adjusted to follow the three-dimensional element, and placed on an overlapping surface on a specific wall on the spatial image 10 to generate an exhibition image. Subsequently, in step S540, the user terminal 100 displays the exhibition image on the screen. Here, "to follow the three-dimensional element" means to adjust by a perspective perspective to have the same viewpoint and vanishing point as a specific wall surface on the spatial image 10, unlike the planar depiction of the original. The three-dimensional element may include, for example, a viewpoint or a vanishing point.

도 11 내지 도 12는 공간 이미지 상에 스냅샷 이미지를 오버랩하여 배치시켜 전시 이미지를 생성하는 것을 설명하기 위하여 개략적으로 도시한 도면이다.11 to 12 are views schematically illustrating the creation of an exhibition image by overlapping and disposing a snapshot image on a spatial image.

도 11을 참조하면, 사용자 단말기(100)가 공간 이미지(10)를 준비한다. 도 11에서는 사용자 단말기(100)가 공간 이미지(10)를 화면에 디스플레이하는 것으로 도시되어 있으나, 이는 공간 이미지(10)와 전시 이미지(50)의 대비를 통해 본 발명의 이해를 돕기 위한 것으로서, 사용자 단말기(100)가 실제로 공간 이미지(10)를 화면에 디스플레이하는 것은 아니다. 공간 이미지(10)는 전시 공간을 묘사할 뿐이므로, 공간 이미지(10)의 특정 벽면(13) 상에는 작품 이미지가 배치되어 있지 않다. 사용자 단말기(100)는, 작품 이미지가 아니라, 상술한 작품 등록 과정에서 생성된 스냅샷 이미지(43)를 서버(200)로부터 수신한다. 그리고, 사용자 단말기(100)는 스냅샷 이미지(43)를 공간 이미지(10)의 입체감 요소를 따르도록 조정하고, 공간 이미지(10) 상의 특정 벽면(13) 상에 오버랩하여 배치시켜 전시 이미지(50)를 생성한다. 전시 이미지(50)는 공간 이미지(10)와 스냅샷 이미지(43)가 합성된 형태로 생성된다. 특히, 하나의 벽면에 다수 개의 작품 이미지가 배치되어 있는 경우, 다수 개의 작품 이미지가 배치되어 있는 벽면에 관한 하나의 스냅샷 이미지만이 서버(200)로부터 수신된다. 그리고, 상기 스냅샷 이미지가 전시 이미지의 생성에 사용된다.Referring to FIG. 11, the user terminal 100 prepares a spatial image 10. In FIG. 11, although the user terminal 100 is shown to display the spatial image 10 on the screen, this is to help the understanding of the present invention through the contrast of the spatial image 10 and the exhibition image 50, and the user The terminal 100 does not actually display the spatial image 10 on the screen. Since the spatial image 10 merely depicts an exhibition space, a work image is not arranged on a specific wall 13 of the spatial image 10. The user terminal 100 receives the snapshot image 43 generated in the above-described work registration process from the server 200, not the work image. Then, the user terminal 100 adjusts the snapshot image 43 to follow the three-dimensional elements of the spatial image 10, and overlaps and arranges on the specific wall surface 13 on the spatial image 10 to display the exhibition image 50. ). The exhibition image 50 is generated in the form of a combination of the spatial image 10 and the snapshot image 43. In particular, when a plurality of work images are arranged on one wall surface, only one snapshot image of the wall surface on which the plurality of work images are arranged is received from the server 200. Then, the snapshot image is used to generate an exhibition image.

이어서, 단계 S550에서, 사용자 단말기(100)는 전시 이미지(50) 상의 복수의 벽면 중 특정 벽면에 대한 제2 사용자의 선택을 수신한다. 이어서, 단계 S560에서, 사용자 단말기(100)가 특정 벽면이 평면적으로 묘사되고 특정 벽면 상의 특정 위치에 특정 크기로 하나 이상의 작품이 배치되어 묘사된 상기 특정 벽면의 스냅샷 이미지를 디스플레이한다. 이어서, 단계 S570에서, 사용자 단말기(100)는 스냅샷 이미지 상의 하나 이상의 작품 중 특정 작품에 대한 제2 사용자의 선택을 수신한다.Subsequently, in step S550, the user terminal 100 receives a second user's selection for a specific wall among the plurality of wall surfaces on the exhibition image 50. Subsequently, in step S560, the user terminal 100 displays a snapshot image of the specific wall surface in which a specific wall surface is depicted in a plane and one or more pieces are arranged in a specific size at a specific location on the specific wall surface. Subsequently, in step S570, the user terminal 100 receives a second user's selection for a specific work among one or more works on the snapshot image.

이어서, 단계 S580에서, 사용자 단말기(100)가 상기 특정 작품의 작품 이미지(예를 들어, 31)의 배치 정보를 이용하여 상기 특정 작품의 작품 이미지를 화면에 디스플레이 한다. 작품 이미지의 배치 정보는 특정 작품의 선택 영역을 판단하기 위하여 이용될 수 있다. 또한, 작품 이미지의 배치 정보는 작품 이미지를 화면에 디스플레이하는 과정에서 애니메이션 등의 효과를 제공하기 위하여 이용될 수 있다. 사용자는 작품 이미지를 선택하고 확대하여 관람할 수도 있다. 이로써, 제2 사용자는 전시 이미지(50) 및 스냅샷 이미지 외에도 각각의 작품 이미지를 상세하게 관람할 수 있다.Subsequently, in step S580, the user terminal 100 displays the work image of the specific work on the screen using the arrangement information of the work image (for example, 31) of the specific work. The arrangement information of the work image may be used to determine a selection area of a specific work. Also, the arrangement information of the work image may be used to provide effects such as animation in the process of displaying the work image on the screen. The user can also select and enlarge the work image to view it. Accordingly, the second user can view each work image in detail in addition to the exhibition image 50 and the snapshot image.

도 13은 본 발명의 실시예에 따른 가상 전시 공간 제공 방법에 의해 생성된 전시 이미지의 예시를 개략적으로 도시한 도면이다.13 is a diagram schematically showing an example of an exhibition image generated by a method for providing a virtual exhibition space according to an embodiment of the present invention.

도 13 (a)의 전시 이미지는 일반적인 갤러리와 유사한 가상의 전시 공간을 제공하며, 도 13 (b)의 전시 이미지는 일반적인 갤러리와 전혀 다른 실외 공간이면서 동시에 벽면이 투명한 형태의 가상의 전시 공간을 제공한다.The exhibition image in FIG. 13 (a) provides a virtual exhibition space similar to a general gallery, and the exhibition image in FIG. 13 (b) is a completely different outdoor space from the general gallery and simultaneously provides a virtual exhibition space with a transparent wall surface. do.

도 13 (a) 및 도 13 (b)의 전시 이미지 모두 사용자 단말기(100)의 화면에 표시되는 영역만을 도시하였다.13 (a) and 13 (b), only the area displayed on the screen of the user terminal 100 is shown.

사용자 단말기는 프로세서 및 메모리를 포함한다. 메모리는 프로세서에 의해 실행되도록 구성되는 컴퓨터 프로그램을 저장한다. 컴퓨터 프로그램은 본 발명의 실시예에 관련하여 설명된 방법 또는 알고리즘의 단계들을 실행하기 위한 명령어들을 포함한다.The user terminal includes a processor and memory. Memory stores computer programs that are configured to be executed by a processor. The computer program includes instructions for executing steps of a method or algorithm described in connection with an embodiment of the invention.

도 14는 전시 이미지에 상응하는 3차원 VR 데이터가 생성되어 제공되는 환경을 개략적으로 도시한 블록도이다.14 is a block diagram schematically illustrating an environment in which 3D VR data corresponding to an exhibition image is generated and provided.

도 14를 참조하면, 사용자 단말기(100)가 전시 이미지(50)을 이용하여 3차원 VR 데이터(60)를 생성한다. 그리고, 사용자 단말기(100)가 3차원 VR 데이터(60)를 VR 단말기(600)에 제공하여, 사용자가 3차원의 가상현실 공간을 체험할 수 있도록 한다. 일부 실시예에서, 3차원 VR 데이터(60)는 VR 단말기(600)에 적합한 포맷, 구조 또는 형태로 후처리될 수 있다. 도 14에서는 설명을 위하여 VR 단말기(600)가 HMD(Head Mounted Display) 유형으로 도시되었으나, 이에 제한되는 것은 아니고, VR 단말기(600)는 본 발명이 속하는 기술분야에서 잘 알려진 다양한 유형으로 제공될 수 있다.Referring to FIG. 14, the user terminal 100 generates 3D VR data 60 using the exhibition image 50. Then, the user terminal 100 provides the 3D VR data 60 to the VR terminal 600, so that the user can experience a 3D virtual reality space. In some embodiments, the 3D VR data 60 may be post-processed in a format, structure, or form suitable for the VR terminal 600. In FIG. 14, for explanation, the VR terminal 600 is shown as a head mounted display (HMD) type, but is not limited thereto, and the VR terminal 600 may be provided in various types well known in the art. have.

한편, 사용자 단말기(100)가 독립적으로 또는 헤드셋과 결합되어 VR 단말기로도 기능할 수 있다. 이 때에는, 사용자 단말기(100)가 3차원 VR 데이터(60)를 사용자에게 직접 제공할 수 있다.Meanwhile, the user terminal 100 may function as a VR terminal independently or in combination with a headset. In this case, the user terminal 100 may directly provide the 3D VR data 60 to the user.

또한, 사용자 단말기(100)에 의해서 생성된 전시 이미지(50)가 서버(200)로 전송되는 경우, 서버(200)가 전시 이미지(50)를 이용하여 3차원 VR 데이터(60)를 생성할 수도 있다. 이러한 경우, 사용자 단말기(100)는 서버(200)로부터 3차원 VR 데이터(60)를 수신하고, 3차원 VR 데이터(60)를 VR 단말기(600)에 또는 사용자에게 직접 제공할 수 있다. In addition, when the exhibition image 50 generated by the user terminal 100 is transmitted to the server 200, the server 200 may generate the 3D VR data 60 using the exhibition image 50. have. In this case, the user terminal 100 may receive the 3D VR data 60 from the server 200 and provide the 3D VR data 60 to the VR terminal 600 or directly to the user.

도 15는 본 발명의 실시예에 따른 3차원 VR 데이터 생성 방법을 개략적으로 도시한 흐름도이다.15 is a flowchart schematically illustrating a method for generating 3D VR data according to an embodiment of the present invention.

도 15를 참조하면, 단계 S710에서, 사용자 단말기(100)가 전시 이미지(50)를 분석한다. 사용자 단말기(100)는 전시 이미지(50) 상의 복수의 벽면을 분석하여, 전시 이미지(50)의 복수의 벽면의 전시 공간 상의 3차원 좌표를 획득한다.15, in step S710, the user terminal 100 analyzes the exhibition image 50. The user terminal 100 analyzes a plurality of wall surfaces on the exhibition image 50 to obtain three-dimensional coordinates on the exhibition space of the plurality of wall surfaces of the exhibition image 50.

도 16은 전시 이미지를 분석하여 3차원 좌표를 획득하는 것을 설명하기 위하여 개략적으로 도시한 도면이다. 도 16은 특정 벽면(53)의 전시 공간 상의 3차원 좌표를 획득하는 경우를 예시로 한다.FIG. 16 is a diagram schematically illustrating to obtain a 3D coordinate by analyzing an exhibition image. 16 exemplifies a case in which three-dimensional coordinates on a specific wall surface 53 on the exhibition space are acquired.

도 16을 참조하면, 가상의 전시 공간에서 특정 벽면(53)을 정면 상에서 바라본 모습(즉, 정면도)와 평면 상에서 바라본 모습(즉, 평면도)가 함께 도시된다. Referring to FIG. 16, in a virtual exhibition space, a view of a specific wall surface 53 viewed from the front (that is, a front view) and a view viewed from a plane (that is, a plan view) are shown together.

벽면(53)의 전시 공간 상의 평면 좌표의 획득을 위하여, 벽면(13)의 네 모서리 좌표가 이용될 수 있다. 전시 이미지(50)의 벽면(53)이 공간 이미지(10)의 벽면(13)과 서로 상응하면, 벽면(53)의 네 모서리 좌표로 벽면(13)의 네 모서리 좌표가 동일하게 이용될 수 있다. 평면 좌표는 전시 공간 상의 객체의 폭과 높이를 정의한다.In order to acquire the plane coordinates on the exhibition space of the wall surface 53, the four corner coordinates of the wall surface 13 may be used. If the wall surface 53 of the exhibition image 50 corresponds to the wall surface 13 of the spatial image 10, the four corner coordinates of the wall surface 13 may be used in the same manner as the four corner coordinates of the wall surface 53. . The plane coordinates define the width and height of the objects in the exhibition space.

그리고, 벽면(53)의 전시 공간 상의 깊이 좌표의 획득을 위하여 벽면(53)의 기울기 값이 이용될 수 있다. 벽면(53)의 기울기 값은 θ1 또는 θ2의 각도로 획득될 수 있다. 벽면(53)의 기울기 값도 상술한 서버(200)에 의한 공간 이미지(10)의 분석 결과를 이용하여 획득될 수 있다. 즉, 전시 이미지(50)의 벽면(53)이 공간 이미지(10)의 벽면(13)과 서로 상응하면, 벽면(53)의 기울기 값으로 벽면(13)의 기울기 값이 동일하게 이용될 수 있다. 본 발명의 실시예에서는 왼손(left-handed) 좌표계가 사용되었으나, 실시예에 따라 오른손(right-handed) 좌표계로 변형되어 사용될 수 있음은 통상의 기술자에게 자명한 사항일 것이다.In addition, the slope value of the wall surface 53 may be used to obtain depth coordinates on the exhibition space of the wall surface 53. The slope value of the wall surface 53 can be obtained at an angle of θ1 or θ2. The inclination value of the wall surface 53 can also be obtained using the analysis result of the spatial image 10 by the server 200 described above. That is, if the wall surface 53 of the exhibition image 50 corresponds to the wall surface 13 of the spatial image 10, the slope value of the wall surface 13 may be used equally as the slope value of the wall surface 53. . In the embodiment of the present invention, a left-handed coordinate system was used, but it will be apparent to those skilled in the art that it can be used by being modified to a right-handed coordinate system according to the embodiment.

벽면(53)의 전시 공간 상의 상대적인 깊이 좌표는, 도 16에 도시된 바와 같이, 벽면(53)의 평면 좌표, 벽면(53)의 폭(d) 및 각종 삼각함수를 이용하여 계산될 수 있다. 도 16에서는, 예를 들어, 벽면(53)의 하부의 두 모서리 간의 상대적인 깊이 차이(z1 - z2)가 계산될 수 있다. 벽면(53)의 폭(d)은 사전 결정될 수 있고, 벽면(53)의 고정된 비율 또는 상술한 기울기 값 등을 이용하여 계산될 수도 있다.The relative depth coordinates of the wall surface 53 on the exhibition space can be calculated using the plane coordinates of the wall surface 53, the width d of the wall surface 53, and various trigonometric functions, as shown in FIG. 16. In FIG. 16, for example, a relative depth difference z1-z2 between two corners of the lower portion of the wall surface 53 may be calculated. The width d of the wall surface 53 may be predetermined, or may be calculated using a fixed ratio of the wall surface 53 or the above-described slope value.

일부 실시예에서, 벽면(13)의 기울기 값이 획득되는 과정에서, 벽면(13)의 전시 공간 상의 깊이 좌표가 획득될 수도 있다. 이 경우, 전시 이미지(50)의 벽면(53)이 공간 이미지(10)의 벽면(13)과 서로 상응하면, 벽면(53)의 깊이 좌표로 벽면(13)의 깊이 좌표가 동일하게 이용될 수 있다.In some embodiments, in a process in which the slope value of the wall surface 13 is obtained, depth coordinates on the exhibition space of the wall surface 13 may be obtained. In this case, if the wall surface 53 of the exhibition image 50 corresponds to the wall surface 13 of the spatial image 10, the depth coordinates of the wall surface 13 may be used as the depth coordinates of the wall surface 53. have.

일부 실시예에서, 3차원 좌표 획득을 위하여, 전시 공간 상의 사용자의 시점과 특정 벽면 간의 깊이 차이가 추가적으로 고려될 수 있다.In some embodiments, in order to obtain 3D coordinates, a difference in depth between a user's viewpoint on a display space and a specific wall surface may be additionally considered.

실시예에 따라, 3차원 좌표는 사용자의 시점을 기준으로 하는 상대 좌표 또는 절대 좌표의 유형으로 획득될 수 있다.According to an embodiment, the 3D coordinates may be obtained in the form of relative or absolute coordinates based on the user's viewpoint.

이어서, 단계 S720에서, 사용자 단말기(100)가 상기 전시 이미지(50)의 분석 결과를 이용하여 전시 이미지(50)에 상응하는 3차원 VR 데이터(60)를 생성한다.Subsequently, in step S720, the user terminal 100 generates 3D VR data 60 corresponding to the exhibition image 50 using the analysis result of the exhibition image 50.

이어서, 단계 S730에서, 사용자 단말기(100)가 3차원 VR 데이터를 VR 단말기(600)를 통해서 또는 직접적으로 사용자에게 제공한다.Subsequently, in step S730, the user terminal 100 provides the 3D VR data to the user through the VR terminal 600 or directly.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어(예를 들어, 주문형 반도체)로 직접 구현되거나, 프로세서에 의해 실행되는 소프트웨어 모듈(예를 들어, 컴퓨터 프로그램)로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 기록될 수 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware (eg, on-demand semiconductor), or as a software module (eg, computer program) executed by a processor, or It can be implemented by a combination of these. The software modules may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It can be recorded on any type of computer readable recording medium well known in the art.

상술한 본 발명의 실시예에 의하면, (3차원 엔진을 이용한 복잡한 제작 과정을 거치지 않고도) 2.5차원의 입체적인 전시 이미지를 이용하여 3차원 VR 데이터를 자동적으로 생성함으로써, 2.5차원 가상 전시 공간을 3차원의 가상현실 공간으로 확장하여 신속하고 효율적인 VR 전시 서비스가 가능하게 할 수 있다.According to the above-described embodiment of the present invention, by automatically generating 3D VR data using a 2.5D stereoscopic display image (without going through a complicated production process using a 3D engine), the 2.5D virtual exhibition space is 3D It can be expanded to the virtual reality space in the area to enable quick and efficient VR exhibition service.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.The embodiments of the present invention have been described above with reference to the accompanying drawings, but a person skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing its technical spirit or essential features. You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all respects and not restrictive.

Claims (10)

컴퓨터에 의해 실현되는 방법으로서,
복수의 벽면을 포함하는 전시 공간이 입체적으로 묘사된 공간 이미지를 준비하는 단계;
상기 공간 이미지 상의 복수의 벽면을 분석하여, 상기 공간 이미지의 복수의 벽면의 상기 전시 공간 대비 스케일 및 기울기 값을 획득하는 단계;
상기 공간 이미지 상의 복수의 벽면 중 특정 벽면이 평면적으로 묘사된 상기 특정 벽면의 벽면 이미지를 준비하는 단계;
상기 벽면 이미지 상의 특정 위치에 특정 크기로 하나 이상의 작품 이미지를 오버랩하여 배치시키는 단계;
상기 벽면 이미지 상에 상기 하나 이상의 작품 이미지가 오버랩되어 배치된 상기 특정 벽면의 스냅샷 이미지를 생성하는 단계;
(ⅰ) 상기 공간 이미지 상의 상기 특정 벽면의 상기 스케일 및 기울기 값, (ⅱ) 상기 스냅샷 이미지를 이용하여 상기 공간 이미지 상의 상기 특정 벽면 상에 상기 스냅샷 이미지를, 상기 공간 이미지의 입체감 요소를 따르도록, 오버랩하여 배치시켜 전시 이미지를 생성하는 단계;
상기 전시 이미지 상의 복수의 벽면을 분석하여, 상기 전시 이미지의 복수의 벽면의 상기 전시 공간 상의 3차원 좌표를 획득하는 단계; 및
상기 전시 이미지의 분석 결과를 이용하여 상기 전시 이미지에 상응하는 3차원 VR 데이터를 생성하는 단계를 포함하는,
3차원 VR 데이터 생성 방법.
As a method realized by a computer,
Preparing a space image in which the exhibition space including a plurality of wall surfaces is three-dimensionally depicted;
Analyzing a plurality of wall surfaces on the spatial image to obtain scale and slope values of the exhibition spaces of the plurality of wall surfaces of the spatial image;
Preparing a wall image of the specific wall surface in which a specific wall surface is planarly described among a plurality of wall surfaces on the spatial image;
Overlapping and arranging one or more pieces of work images in a specific size at a specific position on the wall image;
Generating a snapshot image of the specific wall surface in which the one or more pieces of work images are overlapped on the wall image;
(Iii) the scale and slope values of the specific wall surface on the spatial image, (ii) the snapshot image on the specific wall surface on the spatial image using the snapshot image, and follow the three-dimensional element of the spatial image Creating an exhibition image by arranging and overlapping;
Analyzing a plurality of wall surfaces on the exhibition image to obtain three-dimensional coordinates on the exhibition space of the plurality of wall surfaces of the exhibition image; And
Generating 3D VR data corresponding to the exhibition image using the analysis result of the exhibition image,
3D VR data generation method.
제1항에 있어서,
상기 공간 이미지는 복수의 1점 투시도 또는 2점 투시도가 일체화된 형태를 갖는,
3차원 VR 데이터 생성 방법.
According to claim 1,
The spatial image has a form in which a plurality of one-point perspective views or two-point perspective views are integrated,
3D VR data generation method.
제1항에 있어서,
상기 복수의 벽면의 가로 대 세로 비율은 서로 동일한 값으로 고정되는,
3차원 VR 데이터 생성 방법.
According to claim 1,
The horizontal to vertical ratios of the plurality of wall surfaces are fixed to the same value,
3D VR data generation method.
제1항에 있어서,
상기 전시 이미지 상의 복수의 벽면을 분석하여, 상기 전시 이미지의 복수의 벽면의 상기 전시 공간 상의 3차원 좌표를 획득하는 단계는,
상기 공간 이미지의 분석 결과를 이용하는,
3차원 VR 데이터 생성 방법.
According to claim 1,
Analyzing a plurality of wall surfaces on the exhibition image, and obtaining three-dimensional coordinates on the exhibition space of the plurality of wall surfaces of the exhibition image,
Using the analysis result of the spatial image,
3D VR data generation method.
제4항에 있어서,
상기 공간 이미지 상의 복수의 벽면을 분석하여, 상기 공간 이미지의 복수의 벽면의 상기 전시 공간 대비 스케일 및 기울기 값을 획득하는 단계는,
상기 공간 이미지의 복수의 벽면의 네 모서리 좌표를 획득하는 단계와,
상기 복수의 벽면의 고정된 가로 대 세로 비율 및 상기 공간 이미지의 복수의 벽면의 네 모서리 좌표에 기초하여 상기 공간 이미지의 복수의 벽면의 기울기 값을 획득하는 단계를 포함하는,
3차원 VR 데이터 생성 방법.
According to claim 4,
Analyzing a plurality of wall surfaces on the spatial image, and obtaining a scale and a slope value of the exhibition space of the plurality of wall surfaces of the spatial image,
Acquiring coordinates of four corners of a plurality of wall surfaces of the spatial image;
Obtaining a slope value of a plurality of wall surfaces of the spatial image based on a fixed aspect ratio of the plurality of wall surfaces and coordinates of four corners of the plurality of wall surfaces of the spatial image,
3D VR data generation method.
제5항에 있어서,
상기 전시 이미지 상의 복수의 벽면을 분석하여, 상기 전시 이미지의 복수의 벽면의 상기 전시 공간 상의 3차원 좌표를 획득하는 단계는,
상기 공간 이미지의 복수의 벽면의 기울기 값을 이용하여 상기 전시 이미지의 복수의 벽면의 상기 전시 공간 상의 깊이 좌표를 획득하는,
3차원 VR 데이터 생성 방법.
The method of claim 5,
Analyzing a plurality of wall surfaces on the exhibition image, and obtaining three-dimensional coordinates on the exhibition space of the plurality of wall surfaces of the exhibition image,
Acquiring depth coordinates on the exhibition space of the plurality of wall surfaces of the exhibition image using the slope values of the plurality of wall surfaces of the spatial image,
3D VR data generation method.
제6항에 있어서,
상기 전시 이미지 상의 복수의 벽면을 분석하여, 상기 전시 이미지의 복수의 벽면의 상기 전시 공간 상의 3차원 좌표를 획득하는 단계는,
상기 공간 이미지의 복수의 벽면의 네 모서리 좌표를 이용하여 상기 전시 이미지의 복수의 벽면의 상기 전시 공간 상의 평면 좌표를 획득하는,
3차원 VR 데이터 생성 방법.
The method of claim 6,
Analyzing a plurality of wall surfaces on the exhibition image, and obtaining three-dimensional coordinates on the exhibition space of the plurality of wall surfaces of the exhibition image,
Acquiring plane coordinates on the exhibition space of the plurality of wall surfaces of the exhibition image using coordinates of four corners of the plurality of wall surfaces of the spatial image,
3D VR data generation method.
제1항에 있어서,
상기 3차원 VR 데이터를 사용자에게 제공하는 단계를 더 포함하는,
3차원 VR 데이터 생성 방법.
According to claim 1,
Further comprising the step of providing the 3D VR data to the user,
3D VR data generation method.
프로세서; 및
상기 프로세서에 의해 실행되도록 구성되는 컴퓨터 프로그램을 저장하는 메모리를 포함하며,
상기 컴퓨터 프로그램은 제1항 내지 제8항 중 어느 하나의 항의 3차원 VR 데이터 생성 방법을 실행하기 위한 명령어들을 포함하는,
컴퓨터.
Processor; And
A memory storing a computer program configured to be executed by the processor,
The computer program comprises instructions for executing the method for generating a 3D VR data according to any one of claims 1 to 8,
computer.
컴퓨터와 결합되어, 제1항 내지 제8항 중 어느 하나의 항의 3차원 VR 데이터 생성 방법을 실행시키기 위하여 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer-readable recording medium in combination with a computer to execute the method for generating a 3D VR data according to any one of claims 1 to 8.
KR1020180105676A 2018-09-05 2018-09-05 Method of generating 3 dimensional virtual reality data using 2.5 dimensional virtual exhibition space KR102121397B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180105676A KR102121397B1 (en) 2018-09-05 2018-09-05 Method of generating 3 dimensional virtual reality data using 2.5 dimensional virtual exhibition space
PCT/KR2019/010368 WO2020050516A1 (en) 2018-09-05 2019-08-14 Method for generating three-dimensional vr data by using 2.5-dimensional virtual exhibition space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180105676A KR102121397B1 (en) 2018-09-05 2018-09-05 Method of generating 3 dimensional virtual reality data using 2.5 dimensional virtual exhibition space

Publications (2)

Publication Number Publication Date
KR20200027639A true KR20200027639A (en) 2020-03-13
KR102121397B1 KR102121397B1 (en) 2020-06-10

Family

ID=69721563

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180105676A KR102121397B1 (en) 2018-09-05 2018-09-05 Method of generating 3 dimensional virtual reality data using 2.5 dimensional virtual exhibition space

Country Status (2)

Country Link
KR (1) KR102121397B1 (en)
WO (1) WO2020050516A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112734947B (en) * 2020-12-29 2022-10-14 贝壳技术有限公司 Method and device for 3D content delivery in VR house

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150113246A (en) 2014-03-27 2015-10-08 모젼스랩(주) system and method for providing virtual display space
KR20170051019A (en) * 2015-11-02 2017-05-11 백명섭 Method for 3d virtual gallery management and recording medium storing program for executing the same, and recording medium storing program for executing the same
KR20170107581A (en) * 2015-02-10 2017-09-25 여주희 System and method for providing exhibition in virtual space

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090090983A (en) * 2008-02-22 2009-08-26 이병국 Method for extracting spacial coordimates using multiple cameras image
KR20140082610A (en) * 2014-05-20 2014-07-02 (주)비투지 Method and apaaratus for augmented exhibition contents in portable terminal
WO2016163568A1 (en) * 2015-04-08 2016-10-13 박승철 Stl file including text information, and stl file searching and managing system using same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150113246A (en) 2014-03-27 2015-10-08 모젼스랩(주) system and method for providing virtual display space
KR20170107581A (en) * 2015-02-10 2017-09-25 여주희 System and method for providing exhibition in virtual space
KR20170051019A (en) * 2015-11-02 2017-05-11 백명섭 Method for 3d virtual gallery management and recording medium storing program for executing the same, and recording medium storing program for executing the same

Also Published As

Publication number Publication date
KR102121397B1 (en) 2020-06-10
WO2020050516A1 (en) 2020-03-12

Similar Documents

Publication Publication Date Title
US20210120181A1 (en) Image display system, information processing apparatus, image display method, image display program, image processing apparatus, image processing method, and image processing program
US10777002B2 (en) 3D model generating system, 3D model generating method, and program
CN107193372B (en) Projection method from multiple rectangular planes at arbitrary positions to variable projection center
US11250643B2 (en) Method of providing virtual exhibition space using 2.5-dimensionalization
US10607405B2 (en) 3D model generating system, 3D model generating method, and program
US8970586B2 (en) Building controllable clairvoyance device in virtual world
KR102237520B1 (en) Method of providing virtual exhibition space for efficient data management
CA2985947A1 (en) Generation, transmission and rendering of virtual reality multimedia
JP2014525089A (en) 3D feature simulation
TW200825984A (en) Modeling and texturing digital surface models in a mapping application
US9530243B1 (en) Generating virtual shadows for displayable elements
JP6096634B2 (en) 3D map display system using virtual reality
US20230298280A1 (en) Map for augmented reality
US20210065331A1 (en) Image processing apparatus, image communication system, image processing method, and recording medium
KR102121397B1 (en) Method of generating 3 dimensional virtual reality data using 2.5 dimensional virtual exhibition space
JP2018010473A (en) Image processing apparatus, image processing method, and image processing program
KR20200001237A (en) System for providing augmented reality and method for providing augmented reality service using the same
JP2017016166A (en) Image processing apparatus and image processing method
US8532432B2 (en) Mobile communication terminal having image conversion function and method
JP6357412B2 (en) Information processing apparatus, information processing system, information processing method, and program
KR20190056694A (en) Virtual exhibition space providing method using 2.5 dimensional object tagged with digital drawing element
CN104410793B (en) A kind of image processing method and electronic equipment
CN110310375B (en) Method and system for editing object in panoramic image and computer readable storage medium
JP2023011217A (en) Image processing apparatus, image processing system apparatus, image processing method, program, and recording medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant