WO2018212369A1 - Virtual exhibition space system utilizing 2.5-dimensional image and method for providing same - Google Patents

Virtual exhibition space system utilizing 2.5-dimensional image and method for providing same Download PDF

Info

Publication number
WO2018212369A1
WO2018212369A1 PCT/KR2017/005086 KR2017005086W WO2018212369A1 WO 2018212369 A1 WO2018212369 A1 WO 2018212369A1 KR 2017005086 W KR2017005086 W KR 2017005086W WO 2018212369 A1 WO2018212369 A1 WO 2018212369A1
Authority
WO
WIPO (PCT)
Prior art keywords
exhibition space
virtual exhibition
image
virtual
perspective
Prior art date
Application number
PCT/KR2017/005086
Other languages
French (fr)
Korean (ko)
Inventor
김동리
박치형
윤수현
조인제
Original Assignee
디프트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 디프트 주식회사 filed Critical 디프트 주식회사
Publication of WO2018212369A1 publication Critical patent/WO2018212369A1/en
Priority to US16/685,556 priority Critical patent/US11069126B2/en
Priority to US17/350,710 priority patent/US11651545B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • G06T3/06
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof

Definitions

  • the present invention relates to a virtual exhibition space, and more particularly, to a virtual exhibition space system and a method using the 2.5-dimensional image.
  • one virtual gallery service provides a flat service for arranging exhibition contents on a two-dimensional wall image, and another virtual gallery service constructs and services three-dimensional graphics of a virtual gallery using a three-dimensional engine.
  • another virtual gallery service configures a virtual reality gallery space using VR technology, and provides a service to experience content displayed in the virtual reality gallery space using a VR device.
  • the problem to be solved by the present invention is to provide a virtual exhibition space system and a method using the 2.5-dimensional image.
  • a virtual exhibition space generation unit for generating a virtual exhibition space image, and receives a virtual exhibition space image request from the user terminal
  • a server including a communication unit configured to provide the virtual exhibition space image to the user terminal
  • the virtual exhibition space generation unit includes a predetermined viewpoint and a predetermined number of predetermined virtual exhibition spaces including a plurality of wall surfaces. Construct a perspective view having a vanishing point of, calculate virtual three-dimensional coordinates of a predetermined position on the plurality of wall surfaces within the perspective view based on the vanishing point of the perspective view, and calculate two-dimensional based on the virtual three-dimensional coordinates. Rotate or resize a predetermined content image to display at least one of the plurality of wall surfaces in the perspective view.
  • the virtual exhibition space image is completed using the perspective view in which the content image is disposed on one wall surface.
  • the communication unit receives information about the viewpoint change of the user from the user terminal, the virtual exhibition space generation unit reproduces the virtual exhibition space image based on the information about the viewpoint change, Regenerating the virtual exhibition space image based on the information about the viewpoint change includes reconstructing the perspective view according to the changed viewpoint with respect to the virtual exhibition space.
  • the virtual exhibition space generation unit further completes the virtual exhibition space image by using a plurality of shadow layers having different transparency and a predetermined number of illumination layers,
  • the range of shadow values is determined according to the intensity and position, and the number or arrangement structure of the shadow layers is determined according to the range of the shadow values.
  • a virtual exhibition space system utilizing a 2.5-dimensional image which is a computer-implemented method, comprising: receiving a virtual exhibition space image request from a user, and a virtual exhibition space Generating and providing an image, wherein generating and providing an image of the virtual exhibition space includes a perspective view having a predetermined viewpoint and a predetermined number of vanishing points with respect to the predetermined virtual exhibition space including a plurality of walls.
  • Configuring calculating virtual three-dimensional coordinates of a predetermined position on the plurality of wall surfaces within the perspective view based on the vanishing point of the perspective view, and two-dimensional predetermined ones based on the virtual three-dimensional coordinates.
  • a value and phase the method comprising: completing the virtual display space image using the perspective view of the content images are arranged to.
  • the method further comprises loading a still shot of the virtual exhibition space image received from a server, and generating and providing the virtual exhibition space image comprises: Receiving the content image from the server during the loading of the still shot of and providing a still shot of the virtual exhibition space image by replacing the completed virtual exhibition space image.
  • the method further comprises obtaining information regarding the viewpoint change of the user, and regenerating the virtual exhibition space image based on the information about the viewpoint change.
  • Regenerating the virtual exhibition space image based on the information about the viewpoint change includes reconstructing the perspective view according to the changed viewpoint with respect to the virtual exhibition space.
  • the generating of the virtual exhibition space image may further include completing the virtual exhibition space image by using a plurality of shadow layers having a different transparency and a predetermined number of illumination layers.
  • the range of shadow values is determined according to the light intensity and position of the layer, and the number or arrangement of the shadow layers is determined according to the range of the shadow values.
  • FIG. 1 is a block diagram schematically illustrating a configuration of a virtual exhibition space system using a 2.5-dimensional image according to an embodiment of the present invention.
  • FIG. 2 is a block diagram schematically illustrating a detailed configuration of the server of FIG. 1.
  • FIG. 3 is a diagram conceptually illustrating a perspective view as a 2.5-dimensional image using cognitive optical illusion.
  • FIG. 4 is a diagram conceptually illustrating a deformation of a perspective view according to a user's viewpoint.
  • FIG. 5 is a diagram schematically illustrating data transmission efficiency between a server and a user terminal.
  • FIG. 6 is a diagram conceptually illustrating a digital drawing technique using a multilayer layer.
  • FIG. 7 and 8 are schematic diagrams of exemplary virtual exhibition space images.
  • FIG. 9 is a flowchart schematically illustrating a configuration of a method for providing a virtual exhibition space using a 2.5D image according to an exemplary embodiment of the present invention.
  • FIG. 10 is a flowchart schematically illustrating a detailed configuration of a virtual exhibition space image generation step of FIG. 9.
  • spatially relative terms below “, “ beneath “, “ lower”, “ above “, “ upper” It can be used to easily describe a component's correlation with other components. Spatially relative terms are to be understood as including terms in different directions of components in use or operation in addition to the directions shown in the figures. For example, when flipping a component shown in the drawing, a component described as “below” or “beneath” of another component may be placed “above” the other component. Can be. Thus, the exemplary term “below” can encompass both an orientation of above and below. Components may be oriented in other directions as well, so spatially relative terms may be interpreted according to orientation.
  • content image includes any content that can be expressed as a photograph, a picture, or a portrait or landscape photograph taken by an individual, and other images as a creation by an artist.
  • FIG. 1 is a block diagram schematically illustrating a configuration of a virtual exhibition space system using a 2.5-dimensional image according to an embodiment of the present invention.
  • a virtual exhibition space system using a 2.5D image includes a server 100 and a user terminal 200.
  • the server 100 and the user terminal 200 are connected to each other via a network.
  • the server 100 and the user terminal 200 may transmit and receive various data and / or information.
  • the network includes a wired or wireless network.
  • the size, topology, communication method, etc. of the network may be provided in various modifications according to embodiments.
  • the server 100 provides a virtual exhibition space image to the user terminal 200 in response to a virtual exhibition space image request from the user terminal 200.
  • the virtual exhibition space image is provided as a 2.5-dimensional image.
  • the 2.5-dimensional image represents a two-dimensional image representing a three-dimensional feeling based on cognitive optical illusion.
  • Cognitive optical illusion occurs in the cognitive process according to unconscious inference, and it is an optical illusion that appears because human tends to judge the whole as a whole. Detailed description thereof will be omitted because it may obscure the gist of the present invention.
  • FIG. 2 is a block diagram schematically illustrating a detailed configuration of the server of FIG. 1.
  • the server 100 includes a communication unit 110, a virtual exhibition space generation unit 120, a user personalization unit 130, a user information management unit 140, and a content image storage unit 150.
  • the communication unit 110, the virtual exhibition space generation unit 120, the user personalization unit 130, the user information management unit 150, and the content image storage unit 150 may transmit and receive various data and / or information.
  • the communication unit 110 communicates with the user terminal 200.
  • the communication unit 110 receives a virtual exhibition space image request from the user terminal 200 and provides the virtual exhibition space image to the user terminal 200.
  • the communication unit 110 provides a content image to the user terminal 200.
  • the communication unit 110 receives the information on the user's viewpoint change from the user terminal 200, and provides the user terminal 200 with the modified virtual exhibition space image.
  • the virtual exhibition space generation unit 120 generates a virtual exhibition space image.
  • the virtual exhibition space generation unit 120 configures a perspective view having a predetermined viewpoint and a predetermined number of vanishing points with respect to the predetermined virtual exhibition space.
  • the virtual exhibition space may include a plurality of wall surfaces.
  • the structure of the virtual exhibition space may be provided in advance.
  • the virtual exhibition space generation unit 120 may store data regarding the structure of the virtual exhibition space in advance.
  • the virtual exhibition space generation unit 120 calculates virtual three-dimensional coordinates of a predetermined position on a plurality of wall surfaces in the perspective view based on the vanishing point of the perspective view. For example, three-dimensional coordinates of the edge of each wall surface may be calculated, but are not limited thereto.
  • the virtual exhibition space generation unit 120 rotates or resizes a predetermined content image in two dimensions based on the virtual three-dimensional coordinates and arranges it on at least one of the plurality of wall surfaces in the perspective view.
  • the virtual exhibition space generation unit 120 completes the virtual exhibition space image by using the perspective view in which the content image is arranged.
  • the user personalization unit 130 analyzes the type or category of the preferred content for each user. To this end, the user personalization unit 130 may use the viewing history or feedback history of the user. The user personalization unit 130 may recommend content or exhibition space that the user prefers using the result of analyzing the user's preference information. The recommended content may be reflected in real time in the virtual exhibition space image. Through personalization of the user, the visit rate and purchase rate of the user can be increased.
  • the user information manager 140 manages user information.
  • the user information may include, but is not limited to, a user account, a password, a user's name, gender, age, region, occupation, profile information such as a user's preference information, and the like.
  • the content image storage unit 150 stores the content image. Unlike FIG. 2, the content image storage unit 150 may be provided as a separate server.
  • the server 100 may further include some components not shown in FIG. 2, or may be modified to not include some components shown in FIG. 2.
  • User terminal 200 represents a computer system used by a user.
  • the user terminal 200 may be provided as a mobile computer system such as a smartphone, a tablet, a personal digital assistant (PDA).
  • the user terminal 200 may be provided as a fixed computer system such as a notebook or a desktop.
  • the user terminal 200 is not limited to the above-described example, and may be provided to any computer system that can be connected to the server 100 through a network.
  • the user terminal 200 receives a virtual exhibition space image from the server 100 and provides it to the user.
  • the user terminal 200 receives the data and the content image of the structure of the virtual exhibition space from the server 100 to directly generate the virtual exhibition space image.
  • the user terminal 200 may store data regarding the structure of the virtual exhibition space in advance. The manner in which the user terminal 200 generates the virtual exhibition space image is substantially the same as described above.
  • FIG. 3 is a diagram conceptually illustrating a perspective view as a 2.5-dimensional image using cognitive optical illusion.
  • FIG. 3 a three-dimensional three-dimensional effect that a user can feel is conceptually illustrated by a perspective view having one vanishing point.
  • the virtual exhibition space represented in the perspective view includes a plurality of wall surfaces 11, 12, 13.
  • the predetermined content image 20 is then rotated or resized and placed on the wall surfaces 11, 12, 13.
  • the overall shape of the content image 20 may be modified to express a three-dimensional appearance.
  • one content image 20 is illustrated as being disposed on one wall 11, but is not limited thereto, and each content image may be disposed on each wall 11, 12, and 13. Can be.
  • a plurality of content images may be arranged at a predetermined interval on one wall surface.
  • FIG. 4 is a diagram conceptually illustrating a deformation of a perspective view according to a user's viewpoint.
  • the appearance of the virtual exhibition space displayed by the user changes according to the user's viewpoint. Therefore, the position of the user's viewpoint and vanishing point 15 in the perspective view with respect to the virtual exhibition space must also be changed.
  • the virtual exhibition space generation unit 120 regenerates the virtual exhibition space image based on the information about the viewpoint change provided from the user terminal 200. That is, the virtual exhibition space generation unit 120 reconstructs the perspective view of the virtual exhibition space according to the changed viewpoint of the user. At this time, the content image 20 is also reconstructed together.
  • the user terminal 200 may estimate a change in a user's viewpoint using a gyroscope and generate information about the change in the user's viewpoint, but is not limited thereto.
  • the server 100 may regenerate the virtual exhibition space image by receiving information about the change of viewpoint of the user from the user terminal 200.
  • the user terminal 200 may obtain information about the user's viewpoint change, and reproduce the virtual exhibition space image based on the information.
  • FIG. 5 is a diagram schematically illustrating data transmission efficiency between a server and a user terminal.
  • server 100 creates a still shot (or snapshot) of a virtual exhibit space image.
  • server 100 stores still shots of virtual exhibition space images generated by other computer systems.
  • the server 100 stores a still shot 30 of the virtual exhibition space image generated based on the (center) reference vanishing point position.
  • the server 100 transmits an individual content image to the user terminal 200.
  • the individual content image is for providing a detailed image and reconstructing the virtual exhibition space image according to a change in viewpoint as described below.
  • the user terminal 200 generates a virtual exhibition space image by using the individual content image.
  • the user terminal 200 replaces and provides the still shot 30 with the completed virtual exhibition space image.
  • a fade in / out method may be utilized.
  • the user terminal 200 stores the still shot 30 so that the server 100 does not request the still shot 30 thereafter. Meanwhile, when there is a change or update of the content image arranged in the virtual exhibition space, the server 100 may transmit the still shot 30 reflecting the change or update to the user terminal 200 again.
  • the user terminal 200 receives a zoom-in request for a wall on which the content image in the virtual exhibition space image is disposed, and enlarges the wall portion of the virtual exhibition space image, thereby providing the information provided from the server 100.
  • An individual content image can be used to provide a detailed image of the wall surface that is requested to be zoomed in to. In the case of a zoom out request, substantially the same reduction method may be applied.
  • the user interaction function is not limited to the above example.
  • only the content image preferred by the user or the content image may be transmitted to the user terminal 200 preferentially, thereby enabling fast loading and reducing data usage.
  • FIG. 6 is a diagram conceptually illustrating a digital drawing technique using a multilayer layer.
  • the virtual exhibition space generation unit 120 may include a plurality of shadow layers 40 having a different transparency and a predetermined number of illumination layers (not shown) in addition to the wall 10 and the content image 20. Use it to complete the virtual exhibition space image.
  • the shadow layer 40 may be disposed between the wall surface 10 and the content image 20 or may be disposed above the content image 20. In addition, multiple shadow layers 40 may be disposed. In addition, each shadow layer 40 of the multilayer shadow layer 40 may have a different shape.
  • the virtual exhibition space generation unit 120 may determine a range of shadow values according to the light intensity and position of the lighting layer, and determine the number or arrangement of the shadow layers according to the range of the shadow values. According to the range of the shadow value, a corresponding number of shadow layers 40 may be arranged in the order of high or low transparency. Based on the virtual three-dimensional coordinates of the perspective view, the shape of the shadow layer and the illumination layer may also be rotated or resized to deform. In addition, the overall shape can also be modified.
  • FIG. 7 and 8 are schematic diagrams of exemplary virtual exhibition space images.
  • a virtual exhibition space image generated using a perspective view is illustrated, and the virtual exhibition space includes four wall surfaces 10, and at least one content image 20 is disposed on the wall surface.
  • the content image disposed on the leftmost wall surface is deformed according to the shape of the wall surface in the perspective view.
  • the virtual exhibition space image includes a place 50 associated with the content image 20, for example, a portion of a place where the corresponding picture was taken when the content is a picture.
  • the virtual exhibition space may be composed of a plurality of walls connected to or separated from the place where the corresponding picture is taken.
  • FIGS. 9 is a flowchart schematically illustrating a configuration of a method for providing a virtual exhibition space using a 2.5D image according to an exemplary embodiment of the present invention. Descriptions overlapping with those described in connection with the virtual exhibition space system using the 2.5D image according to the exemplary embodiment of the present invention will be omitted with reference to FIGS. 1 to 8.
  • the user terminal 200 receives a virtual exhibition space image request from a user (S310) and the user terminal 200. ) Loading a still shot of the virtual exhibition space image received from the server 100 (S320), and generating, by the user terminal 200, the virtual exhibition space image to the user (S330).
  • the generating and providing of the virtual exhibition space image by the user terminal 200 includes receiving a content image from the server 100 while loading a still shot of the virtual exhibition space image.
  • the method may further include providing a still shot of the virtual exhibition space image by replacing the still shot with the completed virtual exhibition space image.
  • FIG. 10 is a flowchart schematically illustrating a detailed configuration of a virtual exhibition space image generation step of FIG. 9.
  • a perspective view having a predetermined viewpoint and a predetermined number of vanishing points with respect to a predetermined virtual exhibition space including a plurality of wall surfaces is generated (S331).
  • the user terminal 200 acquires information regarding a change in a viewpoint of a user, and a user.
  • the terminal 200 may further include regenerating a virtual exhibition space image based on the information about the viewpoint change.
  • the regenerating the virtual exhibition space image based on the information about the viewpoint change includes reconstructing the perspective view according to the changed viewpoint with respect to the virtual exhibition space.
  • the generating of the virtual exhibition space image may further include completing a virtual exhibition space image by using a plurality of shadow layers having a different transparency and a predetermined number of illumination layers.
  • the range of shadow values may be determined according to the intensity and position of light of the illumination layer, and the number or arrangement of the shadow layers may be determined according to the range of the shadow values.
  • Computer programs can include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.
  • RAM random access memory
  • ROM read only memory
  • EPROM erasable programmable ROM
  • EEPROM electrically erasable programmable ROM
  • flash memory hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.

Abstract

A virtual exhibition space system utilizing a 2.5-dimensional image and a method for providing same are provided. In the system, a perspective projection having a predetermined viewpoint and a predetermined number of vanishing points is formed with respect to a predetermined virtual exhibition space comprising a plurality of wall surfaces, virtual three-dimensional coordinates in a predetermined location on the plurality of wall surfaces in the perspective projection are calculated on the basis of the vanishing points of the perspective projection, on the basis of the virtual three-dimensional coordinates, a predetermined two-dimensional content image is rotated or resized and positioned on at least one wall surface among the plurality of wall surfaces in the perspective projection, and a virtual exhibition space image is produced by means of the perspective projection on which the content image is positioned.

Description

2.5차원 이미지를 활용한 가상 전시 공간 시스템 및 제공 방법Virtual exhibition space system and method using 2.5D image
본 발명은 가상 전시 공간에 관한 것으로, 보다 상세하게는 2.5차원 이미지를 활용한 가상 전시 공간 시스템 및 제공 방법에 관한 것이다.The present invention relates to a virtual exhibition space, and more particularly, to a virtual exhibition space system and a method using the 2.5-dimensional image.
최근 정보통신 기술의 발전에 따라 가상 갤러리 서비스가 제공되고 있다. 예시적으로, 하나의 가상 갤러리 서비스는 2차원의 벽면 이미지에 전시 콘텐츠를 배치시키는 플랫한 서비스를 제공하며, 다른 가상 갤러리 서비스는 3차원 엔진을 이용하여 가상 갤러리의 3차원 그래픽을 구성하여 서비스하고 있으며, 또 다른 가상 갤러리 서비스는 VR 기술을 이용하여 가상 현실 갤러리 공간을 구성하고, VR 디바이스를 이용하여 가상 현실 갤러리 공간에 전시된 콘텐츠를 체험할 수 있도록 서비스하고 있다.Recently, with the development of information and communication technology, a virtual gallery service has been provided. For example, one virtual gallery service provides a flat service for arranging exhibition contents on a two-dimensional wall image, and another virtual gallery service constructs and services three-dimensional graphics of a virtual gallery using a three-dimensional engine. In addition, another virtual gallery service configures a virtual reality gallery space using VR technology, and provides a service to experience content displayed in the virtual reality gallery space using a VR device.
종래의 플랫한 갤러리 서비스는 입체적인 갤러리 서비스를 제공할 수 없는 단점이 있으며, 3차원 엔진을 이용하거나 VR 기술을 이용하는 갤러리 서비스는 데이터의 크기와 수가 상당하여 로딩에 많은 시간이 소요될 뿐만 아니라, 콘텐츠의 훼손이 수반되게 된다. 갤러리 서비스를 이용하기 위한 사용자 단말기 또한 고성능이 요구되는 실정이다.Conventional flat gallery service has a disadvantage that can not provide a three-dimensional gallery service, the gallery service using a three-dimensional engine or VR technology takes a lot of time to load, as the size and number of data is significant, Corruption will be involved. High performance is also required for the user terminal for using the gallery service.
본 발명이 해결하고자 하는 과제는 2.5차원 이미지를 활용한 가상 전시 공간 시스템 및 제공 방법을 제공하는 것이다.The problem to be solved by the present invention is to provide a virtual exhibition space system and a method using the 2.5-dimensional image.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 2.5차원 이미지를 활용한 가상 전시 공간 시스템은, 가상 전시 공간 이미지를 생성하는 가상 전시 공간 생성부, 및 사용자 단말기로부터 가상 전시 공간 이미지 요청을 수신하고, 상기 사용자 단말기에게 상기 가상 전시 공간 이미지를 제공하는 통신부를 포함하는 서버를 포함하고, 상기 가상 전시 공간 생성부는, 복수의 벽면을 포함하는 소정의 가상 전시 공간에 관하여 소정의 시점과 소정의 개수의 소실점을 갖는 투시도를 구성하고, 상기 투시도의 상기 소실점을 기초로 상기 투시도 내의 상기 복수의 벽면 상의 소정의 위치의 가상의 3차원 좌표를 산출하고, 상기 가상의 3차원 좌표를 기초로 2차원의 소정의 콘텐츠 이미지를 회전 또는 리사이징하여 상기 투시도 내의 상기 복수의 벽면 중 적어도 하나의 벽면 상에 배치시키고, 상기 콘텐츠 이미지가 배치된 상기 투시도를 이용하여 상기 가상 전시 공간 이미지를 완성한다.The virtual exhibition space system using the 2.5-dimensional image according to an aspect of the present invention for solving the above problems, a virtual exhibition space generation unit for generating a virtual exhibition space image, and receives a virtual exhibition space image request from the user terminal And a server including a communication unit configured to provide the virtual exhibition space image to the user terminal, wherein the virtual exhibition space generation unit includes a predetermined viewpoint and a predetermined number of predetermined virtual exhibition spaces including a plurality of wall surfaces. Construct a perspective view having a vanishing point of, calculate virtual three-dimensional coordinates of a predetermined position on the plurality of wall surfaces within the perspective view based on the vanishing point of the perspective view, and calculate two-dimensional based on the virtual three-dimensional coordinates. Rotate or resize a predetermined content image to display at least one of the plurality of wall surfaces in the perspective view. The virtual exhibition space image is completed using the perspective view in which the content image is disposed on one wall surface.
본 발명의 일부 실시예에서, 상기 통신부는 상기 사용자 단말기로부터 사용자의 시점 변화에 관한 정보를 수신하고, 상기 가상 전시 공간 생성부는 상기 시점 변화에 관한 정보를 기초로 상기 가상 전시 공간 이미지를 재생성하고, 상기 시점 변화에 관한 정보를 기초로 상기 가상 전시 공간 이미지를 재생성하는 것은, 상기 가상 전시 공간에 관하여 변화된 시점에 따라 투시도를 재구성하는 것을 포함한다.In some embodiments of the present disclosure, the communication unit receives information about the viewpoint change of the user from the user terminal, the virtual exhibition space generation unit reproduces the virtual exhibition space image based on the information about the viewpoint change, Regenerating the virtual exhibition space image based on the information about the viewpoint change includes reconstructing the perspective view according to the changed viewpoint with respect to the virtual exhibition space.
본 발명의 일부 실시예에서, 상기 가상 전시 공간 생성부는, 서로 다른 투명도를 갖는 복수의 그림자 레이어 및 소정의 개수의 조명 레이어를 더 이용하여 상기 가상 전시 공간 이미지를 완성하되, 상기 조명 레이어의 빛의 세기와 위치에 따라 그림자 값의 범위를 결정하고, 상기 그림자 값의 범위에 따라 상기 그림자 레이어의 개수 또는 배치 구조를 결정한다.In some embodiments of the present invention, the virtual exhibition space generation unit further completes the virtual exhibition space image by using a plurality of shadow layers having different transparency and a predetermined number of illumination layers, The range of shadow values is determined according to the intensity and position, and the number or arrangement structure of the shadow layers is determined according to the range of the shadow values.
상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 2.5차원 이미지를 활용한 가상 전시 공간 시스템은, 컴퓨터에 의해 실현되는 방법으로서, 사용자로부터 가상 전시 공간 이미지 요청을 수신하는 단계, 및 가상 전시 공간 이미지를 생성하여 제공하는 단계를 포함하고, 상기 가상 전시 공간 이미지를 생성하여 제공하는 단계는, 복수의 벽면을 포함하는 소정의 가상 전시 공간에 관하여 소정의 시점과 소정의 개수의 소실점을 갖는 투시도를 구성하는 단계와, 상기 투시도의 상기 소실점을 기초로 상기 투시도 내의 상기 복수의 벽면 상의 소정의 위치의 가상의 3차원 좌표를 산출하는 단계와, 상기 가상의 3차원 좌표를 기초로 2차원의 소정의 콘텐츠 이미지를 회전 또는 리사이징하여 상기 투시도 내의 상기 복수의 벽면 중 적어도 하나의 벽면 상에 배치시키는 단계와, 상기 콘텐츠 이미지가 배치된 상기 투시도를 이용하여 상기 가상 전시 공간 이미지를 완성하는 단계를 포함한다.According to another aspect of the present invention, there is provided a virtual exhibition space system utilizing a 2.5-dimensional image, which is a computer-implemented method, comprising: receiving a virtual exhibition space image request from a user, and a virtual exhibition space Generating and providing an image, wherein generating and providing an image of the virtual exhibition space includes a perspective view having a predetermined viewpoint and a predetermined number of vanishing points with respect to the predetermined virtual exhibition space including a plurality of walls. Configuring, calculating virtual three-dimensional coordinates of a predetermined position on the plurality of wall surfaces within the perspective view based on the vanishing point of the perspective view, and two-dimensional predetermined ones based on the virtual three-dimensional coordinates. Rotate or resize a content image onto at least one of the plurality of wall surfaces in the perspective view. And a value and phase, the method comprising: completing the virtual display space image using the perspective view of the content images are arranged to.
본 발명의 일부 실시예에서, 상기 방법은, 서버로부터 수신된 가상 전시 공간 이미지의 스틸샷을 로딩하는 단계를 더 포함하고, 상기 가상 전시 공간 이미지를 생성하여 제공하는 단계는, 상기 가상 전시 공간 이미지의 스틸샷의 로딩 중에 상기 서버로부터 상기 콘텐츠 이미지를 수신하는 단계와, 상기 가상 전시 공간 이미지의 스틸샷을 상기 완성된 가상 전시 공간 이미지로 교체하여 제공하는 단계를 더 포함한다.In some embodiments of the invention, the method further comprises loading a still shot of the virtual exhibition space image received from a server, and generating and providing the virtual exhibition space image comprises: Receiving the content image from the server during the loading of the still shot of and providing a still shot of the virtual exhibition space image by replacing the completed virtual exhibition space image.
본 발명의 일부 실시예에서, 상기 방법은, 상기 사용자의 시점 변화에 관한 정보를 획득하는 단계, 및 상기 시점 변화에 관한 정보를 기초로 상기 가상 전시 공간 이미지를 재생성하는 단계를 더 포함하고, 상기 시점 변화에 관한 정보를 기초로 상기 가상 전시 공간 이미지를 재생성하는 단계는, 상기 가상 전시 공간에 관하여 변화된 시점에 따라 투시도를 재구성하는 단계를 포함한다.In some embodiments of the present invention, the method further comprises obtaining information regarding the viewpoint change of the user, and regenerating the virtual exhibition space image based on the information about the viewpoint change. Regenerating the virtual exhibition space image based on the information about the viewpoint change includes reconstructing the perspective view according to the changed viewpoint with respect to the virtual exhibition space.
본 발명의 일부 실시예에서, 상기 가상 전시 공간 이미지를 생성하는 단계는, 서로 다른 투명도를 갖는 복수의 그림자 레이어 및 소정의 개수의 조명 레이어를 더 이용하여 상기 가상 전시 공간 이미지를 완성하되, 상기 조명 레이어의 빛의 세기와 위치에 따라 그림자 값의 범위를 결정하고, 상기 그림자 값의 범위에 따라 상기 그림자 레이어의 개수 또는 배치 구조를 결정한다. In some embodiments of the present disclosure, the generating of the virtual exhibition space image may further include completing the virtual exhibition space image by using a plurality of shadow layers having a different transparency and a predetermined number of illumination layers. The range of shadow values is determined according to the light intensity and position of the layer, and the number or arrangement of the shadow layers is determined according to the range of the shadow values.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.
상술한 본 발명에 의하면, 인지적 착시에 기반한 2.5차원 이미지를 이용하여, 종래의 플랫한 갤러리 서비스와 다른 입체적인 가상 전시 공간 서비스를 제공할 수 있다.According to the present invention described above, it is possible to provide a three-dimensional virtual exhibition space service different from the conventional flat gallery service by using a 2.5-dimensional image based on cognitive illusion.
또한, 상술한 본 발명에 의하면, 입체적인 가상 전시 공간 서비스를 제공하기 위하여, 3차원 물리 엔진을 이용하지 않으므로, 입체적인 가상 전시 공간을 빠르게 구성할 수 있으며, 콘텐츠의 훼손을 최소화할 수 있다.In addition, according to the present invention described above, in order to provide a three-dimensional virtual exhibition space service, since the three-dimensional physics engine is not used, it is possible to quickly configure a three-dimensional virtual exhibition space, it is possible to minimize the damage of the content.
또한, 상술한 본 발명에 의하면, 입체적인 가상 전시 공간 서비스를 제공하기 위하여, 스틸샷 타입의 이미지를 우선적으로 이용하므로, 데이터 전송 효율화 및 데이터 사용량 감축이 가능하다.In addition, according to the present invention described above, in order to provide a three-dimensional virtual exhibition space service, since a still shot type image is preferentially used, data transmission efficiency and data usage can be reduced.
또한, 상술한 본 발명에 의하면, 다층의 그림자 레이어 및 조명 레이어를 이용하므로, 보다 세밀하고 실제적인 입체적인 가상 전시 공간을 구성할 수 있다.In addition, according to the present invention described above, by using a multi-layer shadow layer and an illumination layer, it is possible to configure a more detailed and realistic three-dimensional virtual exhibition space.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 실시예에 따른 2.5차원 이미지를 활용한 가상 전시 공간 시스템의 구성을 개략적으로 도시한 블록도이다.1 is a block diagram schematically illustrating a configuration of a virtual exhibition space system using a 2.5-dimensional image according to an embodiment of the present invention.
도 2는 도 1의 서버의 세부 구성을 개략적으로 도시한 블록도이다.FIG. 2 is a block diagram schematically illustrating a detailed configuration of the server of FIG. 1.
도 3은 인지적 착시를 이용한 2.5차원 이미지로서의 투시도를 개념적으로 도시한 도면이다.3 is a diagram conceptually illustrating a perspective view as a 2.5-dimensional image using cognitive optical illusion.
도 4는 사용자의 시점에 따른 투시도의 변형을 개념적으로 도시한 도면이다.4 is a diagram conceptually illustrating a deformation of a perspective view according to a user's viewpoint.
도 5는 서버와 사용자 단말기 간의 데이터 전송 효율화를 개략적으로 도시한 도면이다.5 is a diagram schematically illustrating data transmission efficiency between a server and a user terminal.
도 6은 다층 레이어를 이용한 디지털 소묘 기법을 개념적으로 도시한 도면이다.6 is a diagram conceptually illustrating a digital drawing technique using a multilayer layer.
도 7 및 도 8은 예시적인 가상 전시 공간 이미지를 개략적으로 도시한 도면이다.7 and 8 are schematic diagrams of exemplary virtual exhibition space images.
도 9는 본 발명의 실시예에 따른 2.5차원 이미지를 활용한 가상 전시 공간 제공 방법의 구성을 개략적으로 도시한 흐름도이다.9 is a flowchart schematically illustrating a configuration of a method for providing a virtual exhibition space using a 2.5D image according to an exemplary embodiment of the present invention.
도 10은 도 9의 가상 전시 공간 이미지 생성 단계의 세부 구성을 개략적으로 도시한 흐름도이다.FIG. 10 is a flowchart schematically illustrating a detailed configuration of a virtual exhibition space image generation step of FIG. 9.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be embodied in various different forms, and the present embodiments only make the disclosure of the present invention complete, and those of ordinary skill in the art to which the present invention belongs. It is provided to fully inform the skilled worker of the scope of the invention, which is defined only by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, "comprises" and / or "comprising" does not exclude the presence or addition of one or more other components in addition to the mentioned components. Like reference numerals refer to like elements throughout, and "and / or" includes each and all combinations of one or more of the mentioned components. Although "first", "second", etc. are used to describe various components, these components are of course not limited by these terms. These terms are only used to distinguish one component from another. Therefore, of course, the first component mentioned below may be a second component within the technical spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used in the present specification (including technical and scientific terms) may be used in a sense that can be commonly understood by those skilled in the art. In addition, terms that are defined in a commonly used dictionary are not ideally or excessively interpreted unless they are specifically defined clearly.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.The spatially relative terms " below ", " beneath ", " lower ", " above ", " upper " It can be used to easily describe a component's correlation with other components. Spatially relative terms are to be understood as including terms in different directions of components in use or operation in addition to the directions shown in the figures. For example, when flipping a component shown in the drawing, a component described as "below" or "beneath" of another component may be placed "above" the other component. Can be. Thus, the exemplary term "below" can encompass both an orientation of above and below. Components may be oriented in other directions as well, so spatially relative terms may be interpreted according to orientation.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
본 명세서에서 “콘텐츠 이미지”는 아티스트에 의한 창작물로서의 사진, 그림 또는 개인에 의해서 촬영된 인물 또는 풍경 사진, 및 그 밖의 이미지로 표현 가능한 임의의 콘텐츠를 포함한다.As used herein, the term "content image" includes any content that can be expressed as a photograph, a picture, or a portrait or landscape photograph taken by an individual, and other images as a creation by an artist.
도 1은 본 발명의 실시예에 따른 2.5차원 이미지를 활용한 가상 전시 공간 시스템의 구성을 개략적으로 도시한 블록도이다.1 is a block diagram schematically illustrating a configuration of a virtual exhibition space system using a 2.5-dimensional image according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시예에 따른 2.5차원 이미지를 활용한 가상 전시 공간 시스템은 서버(100)와 사용자 단말기(200)를 포함한다.Referring to FIG. 1, a virtual exhibition space system using a 2.5D image according to an exemplary embodiment of the present invention includes a server 100 and a user terminal 200.
서버(100)와 사용자 단말기(200)는 네트워크를 통해서 서로 연결된다. 서버(100)와 사용자 단말기(200)는 각종 데이터 및/또는 정보를 송수신할 수 있다. 네트워크는 유선 또는 무선 네트워크를 포함한다. 네트워크의 규모, 토폴로지, 통신 방식 등은 실시예에 따라 다양하게 변형되어 제공될 수 있다.The server 100 and the user terminal 200 are connected to each other via a network. The server 100 and the user terminal 200 may transmit and receive various data and / or information. The network includes a wired or wireless network. The size, topology, communication method, etc. of the network may be provided in various modifications according to embodiments.
서버(100)는 사용자 단말기(200)로부터의 가상 전시 공간 이미지 요청에 따라 사용자 단말기(200)에게 가상 전시 공간 이미지를 제공한다. 가상 전시 공간 이미지는 2.5차원 이미지로 제공된다. 본 명세서에서 2.5차원 이미지는 인지적 착시에 기반하여 입체감을 나타내는 2차원 이미지를 나타낸다. 인지적 착시란 무의식적 추론에 따른 인지 과정에서 발생하며, 인간의 인지가 전체적인 것을 종합적으로 판단하려는 경향이 있기 때문에 나타나는 착시로서, 이에 관한 상세한 설명은 본 발명의 요지를 흐릴 수 있으므로 생략한다.The server 100 provides a virtual exhibition space image to the user terminal 200 in response to a virtual exhibition space image request from the user terminal 200. The virtual exhibition space image is provided as a 2.5-dimensional image. In the present specification, the 2.5-dimensional image represents a two-dimensional image representing a three-dimensional feeling based on cognitive optical illusion. Cognitive optical illusion occurs in the cognitive process according to unconscious inference, and it is an optical illusion that appears because human tends to judge the whole as a whole. Detailed description thereof will be omitted because it may obscure the gist of the present invention.
도 2는 도 1의 서버의 세부 구성을 개략적으로 도시한 블록도이다.FIG. 2 is a block diagram schematically illustrating a detailed configuration of the server of FIG. 1.
도 2를 참조하면, 서버(100)는 통신부(110), 가상 전시 공간 생성부(120), 사용자 개인화부(130), 사용자 정보 관리부(140), 콘텐츠 이미지 저장부(150)을 포함한다. 통신부(110), 가상 전시 공간 생성부(120), 사용자 개인화부(130), 사용자 정보 관리부(150), 콘텐츠 이미지 저장부(150)는 각종 데이터 및/또는 정보를 송수신할 수 있다Referring to FIG. 2, the server 100 includes a communication unit 110, a virtual exhibition space generation unit 120, a user personalization unit 130, a user information management unit 140, and a content image storage unit 150. The communication unit 110, the virtual exhibition space generation unit 120, the user personalization unit 130, the user information management unit 150, and the content image storage unit 150 may transmit and receive various data and / or information.
통신부(110)는 사용자 단말기(200)와 통신한다. 일부 실시예에서, 통신부(110)는 사용자 단말기(200)로부터 가상 전시 공간 이미지 요청을 수신하고, 사용자 단말기(200)에게 가상 전시 공간 이미지를 제공한다. 또한, 일부 실시예에서, 통신부(110)는 사용자 단말기(200)에게 콘텐츠 이미지를 제공한다. 또한, 일부 실시예에서, 통신부(110)는 사용자 단말기(200)로부터 사용자의 시점 변화에 관한 정보를 수신하고, 사용자 단말기(200)에게 변형된 가상 전시 공간 이미지를 제공한다. The communication unit 110 communicates with the user terminal 200. In some embodiments, the communication unit 110 receives a virtual exhibition space image request from the user terminal 200 and provides the virtual exhibition space image to the user terminal 200. In addition, in some embodiments, the communication unit 110 provides a content image to the user terminal 200. In addition, in some embodiments, the communication unit 110 receives the information on the user's viewpoint change from the user terminal 200, and provides the user terminal 200 with the modified virtual exhibition space image.
가상 전시 공간 생성부(120)는 가상 전시 공간 이미지를 생성한다. 가상 전시 공간 생성부(120)는 소정의 가상 전시 공간에 관하여 소정의 시점과 소정의 개수의 소실점을 갖는 투시도를 구성한다. 가상의 전시 공간은 복수의 벽면을 포함할 수 있다. 가상의 전시 공간의 구조는 미리 설계되어 제공될 수 있다. 가상 전시 공간 생성부(120)는 가상의 전시 공간의 구조에 관한 데이터를 사전에 저장할 수 있다. 가상 전시 공간 생성부(120)는 투시도의 소실점을 기초로 투시도 내의 복수의 벽면 상의 소정의 위치의 가상의 3차원 좌표를 산출한다. 예를 들어, 각각의 벽면의 에지(edge)의 3차원 좌표가 산출될 수 있으나, 이에 제한되는 것은 아니다. 가상 전시 공간 생성부(120)는 가상의 3차원 좌표를 기초로 2차원의 소정의 콘텐츠 이미지를 회전 또는 리사이징하여 투시도 내의 복수의 벽면 중 적어도 하나의 벽면 상에 배치시킨다. 가상 전시 공간 생성부(120)는 콘텐츠 이미지가 배치된 투시도를 이용하여 가상 전시 공간 이미지를 완성한다.The virtual exhibition space generation unit 120 generates a virtual exhibition space image. The virtual exhibition space generation unit 120 configures a perspective view having a predetermined viewpoint and a predetermined number of vanishing points with respect to the predetermined virtual exhibition space. The virtual exhibition space may include a plurality of wall surfaces. The structure of the virtual exhibition space may be provided in advance. The virtual exhibition space generation unit 120 may store data regarding the structure of the virtual exhibition space in advance. The virtual exhibition space generation unit 120 calculates virtual three-dimensional coordinates of a predetermined position on a plurality of wall surfaces in the perspective view based on the vanishing point of the perspective view. For example, three-dimensional coordinates of the edge of each wall surface may be calculated, but are not limited thereto. The virtual exhibition space generation unit 120 rotates or resizes a predetermined content image in two dimensions based on the virtual three-dimensional coordinates and arranges it on at least one of the plurality of wall surfaces in the perspective view. The virtual exhibition space generation unit 120 completes the virtual exhibition space image by using the perspective view in which the content image is arranged.
사용자 개인화부(130)는 각각의 사용자마다 선호하는 콘텐츠의 유형 또는 카테고리를 분석한다. 이를 위해, 사용자 개인화부(130)는 사용자의 관람 내역 또는 피드백 내역 등을 이용할 수 있다. 사용자 개인화부(130)는 사용자의 선호 정보 분석 결과를 이용하여 사용자가 선호하는 콘텐츠 또는 전시 공간 등을 추천할 수 있다. 추천된 콘텐츠는 가상 전시 공간 이미지에 실시간 반영될 수 있다. 사용자 개인화를 통해서, 사용자의 방문율과 구매율 등을 상승시킬 수 있다.The user personalization unit 130 analyzes the type or category of the preferred content for each user. To this end, the user personalization unit 130 may use the viewing history or feedback history of the user. The user personalization unit 130 may recommend content or exhibition space that the user prefers using the result of analyzing the user's preference information. The recommended content may be reflected in real time in the virtual exhibition space image. Through personalization of the user, the visit rate and purchase rate of the user can be increased.
사용자 정보 관리부(140)는 사용자 정보를 관리한다. 예를 들어, 사용자 정보는 사용자 계정, 패스워드, 사용자의 성명, 성별, 연령, 지역, 직업 등의 프로파일 정보, 사용자의 선호 정보 등을 포함할 수 있으나, 이에 제한되는 것은 아니다.The user information manager 140 manages user information. For example, the user information may include, but is not limited to, a user account, a password, a user's name, gender, age, region, occupation, profile information such as a user's preference information, and the like.
콘텐츠 이미지 저장부(150)는 콘텐츠 이미지를 저장한다. 도 2에 도시된 바와 다르게, 콘텐츠 이미지 저장부(150)는 별도의 서버로 제공될 수 있다.The content image storage unit 150 stores the content image. Unlike FIG. 2, the content image storage unit 150 may be provided as a separate server.
한편, 실시예에 따라, 서버(100)는 도 2에 도시되지 않은 일부 구성을 더 포함하거나, 도 2에 도시된 일부 구성을 포함하지 않도록 변형될 수 있다.In some embodiments, the server 100 may further include some components not shown in FIG. 2, or may be modified to not include some components shown in FIG. 2.
사용자 단말기(200)는 사용자에 의해 사용되는 컴퓨터 시스템을 나타낸다. 예를 들어, 사용자 단말기(200)는 스마트폰, 태블릿, PDA(Personal Digital Assistant) 등과 같은 모바일 컴퓨터 시스템으로 제공될 수 있다. 또는, 사용자 단말기(200)는 노트북, 데스크톱 등과 같은 고정형 컴퓨터 시스템으로 제공될 수도 있다. 사용자 단말기(200)는 상술한 예시에 제한되지 않으며, 네트워크를 통해서 서버(100)와 연결 가능한 임의의 컴퓨터 시스템으로 제공될 수 있다. User terminal 200 represents a computer system used by a user. For example, the user terminal 200 may be provided as a mobile computer system such as a smartphone, a tablet, a personal digital assistant (PDA). Alternatively, the user terminal 200 may be provided as a fixed computer system such as a notebook or a desktop. The user terminal 200 is not limited to the above-described example, and may be provided to any computer system that can be connected to the server 100 through a network.
일부 실시예에서, 사용자 단말기(200)는 서버(100)로부터 가상 전시 공간 이미지를 수신하여 사용자에게 제공한다.In some embodiments, the user terminal 200 receives a virtual exhibition space image from the server 100 and provides it to the user.
또는, 일부 실시예에서, 사용자 단말기(200)는 서버(100)로부터 가상 전시 공간의 구조에 관한 데이터 및 콘텐츠 이미지를 수신하여 가상 전시 공간 이미지를 직접 생성한다. 사용자 단말기(200)는 가상 전시 공간의 구조에 관한 데이터를 사전에 저장할 수 있다. 사용자 단말기(200)가 가상 전시 공간 이미지를 생성하는 방식은 상술한 바와 실질적으로 동일하다.Alternatively, in some embodiments, the user terminal 200 receives the data and the content image of the structure of the virtual exhibition space from the server 100 to directly generate the virtual exhibition space image. The user terminal 200 may store data regarding the structure of the virtual exhibition space in advance. The manner in which the user terminal 200 generates the virtual exhibition space image is substantially the same as described above.
도 3은 인지적 착시를 이용한 2.5차원 이미지로서의 투시도를 개념적으로 도시한 도면이다.3 is a diagram conceptually illustrating a perspective view as a 2.5-dimensional image using cognitive optical illusion.
도 3을 참조하면, 하나의 소실점을 갖는 투시도에 의해서 사용자가 느낄 수 있는 2.5차원의 입체감이 개념적으로 도시된다.Referring to FIG. 3, a three-dimensional three-dimensional effect that a user can feel is conceptually illustrated by a perspective view having one vanishing point.
상술한 바와 같이, 투시도로 표현된 가상 전시 공간은 복수의 벽면(11, 12, 13)을 포함하여 구성된다. 그리고, 소정의 콘텐츠 이미지(20)가 회전 또는 리사이징되어 벽면(11, 12, 13) 상에 배치된다. 또한, 콘텐츠 이미지(20)의 전체적인 형상이 입체감을 표현하기 위하여 변형될 수 있다. 도 3에서는 하나의 콘텐츠 이미지(20)가 하나의 벽면(11) 상에 배치되는 것으로 도시되었으나, 이에 제한되는 것은 아니고, 각각의 콘텐츠 이미지가 각각의 벽면(11, 12, 13) 상에 배치될 수 있다. 또한, 하나의 벽면에 복수의 콘텐츠 이미지가 소정의 간격을 두고 배치될 수도 있다.As described above, the virtual exhibition space represented in the perspective view includes a plurality of wall surfaces 11, 12, 13. The predetermined content image 20 is then rotated or resized and placed on the wall surfaces 11, 12, 13. In addition, the overall shape of the content image 20 may be modified to express a three-dimensional appearance. In FIG. 3, one content image 20 is illustrated as being disposed on one wall 11, but is not limited thereto, and each content image may be disposed on each wall 11, 12, and 13. Can be. In addition, a plurality of content images may be arranged at a predetermined interval on one wall surface.
도 4는 사용자의 시점에 따른 투시도의 변형을 개념적으로 도시한 도면이다.4 is a diagram conceptually illustrating a deformation of a perspective view according to a user's viewpoint.
도 4를 참조하면, 사용자의 시점에 따라 사용자에 의해 보여지게 되는 가상 전시 공간의 모습이 변화하게 된다. 따라서, 가상 전시 공간에 관한 투시도의 사용자의 시점 및 소실점(15)의 위치도 변화되어야 한다. Referring to FIG. 4, the appearance of the virtual exhibition space displayed by the user changes according to the user's viewpoint. Therefore, the position of the user's viewpoint and vanishing point 15 in the perspective view with respect to the virtual exhibition space must also be changed.
이를 위해, 가상 전시 공간 생성부(120)는 사용자 단말기(200)로부터 제공된 시점 변화에 관한 정보를 기초로 가상 전시 공간 이미지를 재생성한다. 즉, 가상 전시 공간 생성부(120)는 사용자의 변화된 시점에 따라 가상 전시 공간에 관한 투시도를 재구성한다. 이 때, 콘텐츠 이미지(20)도 함께 재구성된다.To this end, the virtual exhibition space generation unit 120 regenerates the virtual exhibition space image based on the information about the viewpoint change provided from the user terminal 200. That is, the virtual exhibition space generation unit 120 reconstructs the perspective view of the virtual exhibition space according to the changed viewpoint of the user. At this time, the content image 20 is also reconstructed together.
예를 들어, 사용자 단말기(200)는 자이로스코프를 이용하여 사용자의 시점 변화를 추정하고, 사용자의 시점 변화에 관한 정보를 생성할 수 있으나, 이에 제한되는 것은 아니다.For example, the user terminal 200 may estimate a change in a user's viewpoint using a gyroscope and generate information about the change in the user's viewpoint, but is not limited thereto.
일부 실시예에서, 상술한 바와 같이, 서버(100)는 사용자 단말기(200)로부터 사용자의 시점 변화에 관한 정보를 수신하여 가상 전시 공간 이미지를 재생성할 수 있다.In some embodiments, as described above, the server 100 may regenerate the virtual exhibition space image by receiving information about the change of viewpoint of the user from the user terminal 200.
또는, 일부 실시예에서, 사용자 단말기(200)가 사용자의 시점 변화에 관한 정보를 획득하고, 이를 기초로 가상 전시 공간 이미지를 재생성할 수 있다.Alternatively, in some embodiments, the user terminal 200 may obtain information about the user's viewpoint change, and reproduce the virtual exhibition space image based on the information.
도 5는 서버와 사용자 단말기 간의 데이터 전송 효율화를 개략적으로 도시한 도면이다.5 is a diagram schematically illustrating data transmission efficiency between a server and a user terminal.
도 5를 참조하면, 일부 실시예에서, 서버(100)는 가상 전시 공간 이미지의 스틸샷(또는, 스냅샷)을 생성한다. 또는, 일부 실시예에서, 서버(100)는 다른 컴퓨터 시스템에 의해서 생성된 가상 전시 공간 이미지의 스틸샷을 저장한다. 예를 들어, 서버(100)는 (정중앙의) 기준 소실점 위치를 기초로 생성된 가상 전시 공간 이미지의 스틸샷(30)을 저장한다. 그리고, 사용자 단말기(200)로부터 가상 전시 공간 이미지 요청이 수신되면, 사용자 단말기(200)에게 미리 생성된 스틸샷(30)을 제공한다. 그리고, 사용자 단말기(200)에 의해서 스틸샷(30)이 로딩되어 표시되는 동안, 서버(100)는 사용자 단말기(200)에게 개별 콘텐츠 이미지를 전송한다. 개별 콘텐츠 이미지는 후술하는 바와 같이 상세 이미지의 제공 및 시점 변화에 따른 가상 전시 공간 이미지의 재구성을 위한 것이다. 사용자 단말기(200)는 개별 콘텐츠 이미지를 이용하여 가상 전시 공간 이미지를 생성한다. 가상 전시 공간 이미지가 완성되면, 사용자 단말기(200)는 스틸샷(30)을 완성된 가상 전시 공간 이미지로 교체하여 제공한다. 이 때, 페이드 인/아웃 방식이 활용될 수 있다.Referring to FIG. 5, in some embodiments, server 100 creates a still shot (or snapshot) of a virtual exhibit space image. Alternatively, in some embodiments, server 100 stores still shots of virtual exhibition space images generated by other computer systems. For example, the server 100 stores a still shot 30 of the virtual exhibition space image generated based on the (center) reference vanishing point position. When the virtual exhibition space image request is received from the user terminal 200, the user terminal 200 provides a pre-generated still shot 30. In addition, while the still shot 30 is loaded and displayed by the user terminal 200, the server 100 transmits an individual content image to the user terminal 200. The individual content image is for providing a detailed image and reconstructing the virtual exhibition space image according to a change in viewpoint as described below. The user terminal 200 generates a virtual exhibition space image by using the individual content image. When the virtual exhibition space image is completed, the user terminal 200 replaces and provides the still shot 30 with the completed virtual exhibition space image. In this case, a fade in / out method may be utilized.
사용자 단말기(200)는 스틸샷(30)을 저장하여 이후에는 서버(100)에게 스틸샷(30)을 요청하지 않는다. 한편, 가상 전시 공간에 배치된 콘텐츠 이미지의 변경 또는 업데이트가 있을 경우, 서버(100)는 변경 또는 업데이트가 반영된 스틸샷(30)을 다시 사용자 단말기(200)에게 전송할 수 있다.The user terminal 200 stores the still shot 30 so that the server 100 does not request the still shot 30 thereafter. Meanwhile, when there is a change or update of the content image arranged in the virtual exhibition space, the server 100 may transmit the still shot 30 reflecting the change or update to the user terminal 200 again.
사용자 단말기(200)는 사용자로부터 가상 전시 공간 이미지 내의 콘텐츠 이미지가 배치된 벽면에 관한 줌인 요청을 수신하고, 상기 가상 전시 공간 이미지의 상기 벽면 부분을 확대하는 방식을 통해서, 서버(100)로부터 제공된 상기 개별 콘텐츠 이미지를 이용하여 줌인 요청된 상기 벽면에 관한 상세 이미지를 제공할 수 있게 된다. 줌아웃 요청의 경우, 실질적으로 동일한 축소 방식이 적용될 수 있다. 사용자 인터랙션 기능이 상술한 예시에 제한되는 것은 아니다.The user terminal 200 receives a zoom-in request for a wall on which the content image in the virtual exhibition space image is disposed, and enlarges the wall portion of the virtual exhibition space image, thereby providing the information provided from the server 100. An individual content image can be used to provide a detailed image of the wall surface that is requested to be zoomed in to. In the case of a zoom out request, substantially the same reduction method may be applied. The user interaction function is not limited to the above example.
이로써, 최초에 개별 콘텐츠 이미지를 전송하지 않고, 미리 생성된 스틸샷을 우선 전송하므로, 빠른 로딩이 가능하며 데이터 전송 효율화가 가능하다.This allows for faster loading and streamlined data transfer, since the still shots are created first, instead of the individual content images.
또한, 상술한 사용자 개인화 결과에 따라 사용자가 선호하는 콘텐츠 이미지만을 또는 상기 콘텐츠 이미지를 우선적으로 사용자 단말기(200)에게 전송하여, 빠른 로딩을 가능하게 하는 동시에 데이터 사용량을 감축시킬 수 있다.In addition, according to the above-described user personalization result, only the content image preferred by the user or the content image may be transmitted to the user terminal 200 preferentially, thereby enabling fast loading and reducing data usage.
도 6은 다층 레이어를 이용한 디지털 소묘 기법을 개념적으로 도시한 도면이다.6 is a diagram conceptually illustrating a digital drawing technique using a multilayer layer.
도 6을 참조하면, 가상 전시 공간 생성부(120)는 벽면(10) 및 콘텐츠 이미지(20) 외에 서로 다른 투명도를 갖는 복수의 그림자 레이어(40) 및 소정의 개수의 조명 레이어(미도시)를 더 이용하여 가상 전시 공간 이미지를 완성한다.Referring to FIG. 6, the virtual exhibition space generation unit 120 may include a plurality of shadow layers 40 having a different transparency and a predetermined number of illumination layers (not shown) in addition to the wall 10 and the content image 20. Use it to complete the virtual exhibition space image.
그림자 레이어(40)는 벽면(10) 및 콘텐츠 이미지(20) 사이에 배치되거나, 콘텐츠 이미지(20)의 상위에 배치될 수 있다. 또한, 다층의 그림자 레이어(40)가 배치될 수 있다. 또한, 다층의 그림자 레이어(40)의 각각의 그림자 레이어(40)는 서로 다른 형상을 가질 수 있다.The shadow layer 40 may be disposed between the wall surface 10 and the content image 20 or may be disposed above the content image 20. In addition, multiple shadow layers 40 may be disposed. In addition, each shadow layer 40 of the multilayer shadow layer 40 may have a different shape.
가상 전시 공간 생성부(120)는 상기 조명 레이어의 빛의 세기와 위치에 따라 그림자 값의 범위를 결정하고, 상기 그림자 값의 범위에 따라 상기 그림자 레이어의 개수 또는 배치 구조를 결정할 수 있다. 그림자 값의 범위에 따라 투명도가 높은 또는 낮은 순서로 상응하는 개수의 복수의 그림자 레이어(40)가 배치될 수 있다. 투시도의 가상의 3차원 좌표를 기초로 그림자 레이어 및 조명 레이어의 형태도 회전 또는 리사이징되어 변형될 수 있다. 또한, 그 전체적인 형상도 변형될 수 있다.The virtual exhibition space generation unit 120 may determine a range of shadow values according to the light intensity and position of the lighting layer, and determine the number or arrangement of the shadow layers according to the range of the shadow values. According to the range of the shadow value, a corresponding number of shadow layers 40 may be arranged in the order of high or low transparency. Based on the virtual three-dimensional coordinates of the perspective view, the shape of the shadow layer and the illumination layer may also be rotated or resized to deform. In addition, the overall shape can also be modified.
도 7 및 도 8은 예시적인 가상 전시 공간 이미지를 개략적으로 도시한 도면이다.7 and 8 are schematic diagrams of exemplary virtual exhibition space images.
도 7을 참조하면, 투시도를 이용하여 생성된 가상 전시 공간 이미지가 도시되며, 가상 전시 공간은 4개의 벽면(10)을 포함하며, 적어도 하나의 콘텐츠 이미지(20)가 벽면 상에 배치된다. 특히, 가장 좌측의 벽면에 배치된 콘텐츠 이미지는 투시도 내의 벽면의 형태에 따라 그 형태가 변형되어 있음을 확인할 수 있다.Referring to FIG. 7, a virtual exhibition space image generated using a perspective view is illustrated, and the virtual exhibition space includes four wall surfaces 10, and at least one content image 20 is disposed on the wall surface. In particular, it can be seen that the content image disposed on the leftmost wall surface is deformed according to the shape of the wall surface in the perspective view.
도 8을 참조하면, 가상 전시 공간 이미지는 콘텐츠 이미지(20)와 관계된 장소(50), 예를 들어, 콘텐츠가 사진일 경우 해당 사진이 촬영된 장소에 관한 부분을 포함한다. 가상 전시 공간은 해당 사진이 촬영된 장소와 서로 연결된 또는 분리된 복수의 벽면으로 구성될 수 있다.Referring to FIG. 8, the virtual exhibition space image includes a place 50 associated with the content image 20, for example, a portion of a place where the corresponding picture was taken when the content is a picture. The virtual exhibition space may be composed of a plurality of walls connected to or separated from the place where the corresponding picture is taken.
도 9는 본 발명의 실시예에 따른 2.5차원 이미지를 활용한 가상 전시 공간 제공 방법의 구성을 개략적으로 도시한 흐름도이다. 도 1 내지 도 8을 참조하여 본 발명의 실시예에 따른 2.5차원 이미지를 활용한 가상 전시 공간 시스템과 관련하여 설명한 바와 중복되는 설명은 생략한다.9 is a flowchart schematically illustrating a configuration of a method for providing a virtual exhibition space using a 2.5D image according to an exemplary embodiment of the present invention. Descriptions overlapping with those described in connection with the virtual exhibition space system using the 2.5D image according to the exemplary embodiment of the present invention will be omitted with reference to FIGS. 1 to 8.
도 9를 참조하면, 본 발명의 실시예에 따른 2.5차원 이미지를 활용한 가상 전시 공간 제공 방법은 사용자 단말기(200)가 사용자로부터 가상 전시 공간 이미지 요청을 수신하는 단계(S310), 사용자 단말기(200)가 서버(100)로부터 수신된 가상 전시 공간 이미지의 스틸샷을 로딩하는 단계(S320), 및 사용자 단말기(200)가 가상 전시 공간 이미지를 생성하여 사용자에게 제공하는 단계(S330)를 포함한다.Referring to FIG. 9, in the method for providing a virtual exhibition space using a 2.5D image according to an embodiment of the present invention, the user terminal 200 receives a virtual exhibition space image request from a user (S310) and the user terminal 200. ) Loading a still shot of the virtual exhibition space image received from the server 100 (S320), and generating, by the user terminal 200, the virtual exhibition space image to the user (S330).
명확하게 도시하지 않았으나, 상술한 바와 같이, 사용자 단말기(200)가 가상 전시 공간 이미지를 생성하여 제공하는 단계는, 가상 전시 공간 이미지의 스틸샷의 로딩 중에 서버(100)로부터 콘텐츠 이미지를 수신하는 단계와, 가상 전시 공간 이미지의 스틸샷을 완성된 가상 전시 공간 이미지로 교체하여 제공하는 단계를 더 포함할 수 있다.Although not clearly illustrated, as described above, the generating and providing of the virtual exhibition space image by the user terminal 200 includes receiving a content image from the server 100 while loading a still shot of the virtual exhibition space image. The method may further include providing a still shot of the virtual exhibition space image by replacing the still shot with the completed virtual exhibition space image.
도 10은 도 9의 가상 전시 공간 이미지 생성 단계의 세부 구성을 개략적으로 도시한 흐름도이다.FIG. 10 is a flowchart schematically illustrating a detailed configuration of a virtual exhibition space image generation step of FIG. 9.
도 10을 참조하면, 가상 전시 공간 이미지를 생성하는 단계(S330)는 복수의 벽면을 포함하는 소정의 가상 전시 공간에 관하여 소정의 시점과 소정의 개수의 소실점을 갖는 투시도를 구성하는 단계(S331)와, 투시도의 소실점을 기초로 투시도 내의 복수의 벽면 상의 소정의 위치의 가상의 3차원 좌표를 산출하는 단계(S332)와, 상기 가상의 3차원 좌표를 기초로 2차원의 소정의 콘텐츠 이미지를 회전 또는 리사이징하여 투시도 내의 복수의 벽면 중 적어도 하나의 벽면 상에 배치시키는 단계(S333)와, 상기 콘텐츠 이미지가 배치된 투시도를 이용하여 가상 전시 공간 이미지를 완성하는 단계(S334)를 포함한다.Referring to FIG. 10, in operation S330 of generating a virtual exhibition space image, a perspective view having a predetermined viewpoint and a predetermined number of vanishing points with respect to a predetermined virtual exhibition space including a plurality of wall surfaces is generated (S331). Calculating a virtual three-dimensional coordinate of a predetermined position on a plurality of wall surfaces in the perspective view based on the vanishing point of the perspective view (S332), and rotating the predetermined two-dimensional predetermined content image based on the virtual three-dimensional coordinates. Or resizing and disposing on at least one of the plurality of wall surfaces in the perspective view (S333), and completing the virtual exhibition space image using the perspective view in which the content image is disposed (S334).
명확하게 도시하지 않았으나, 상술한 바와 같이, 본 발명의 실시예에 따른 2.5차원 이미지를 활용한 가상 전시 공간 제공 방법은 사용자 단말기(200)가 사용자의 시점 변화에 관한 정보를 획득하는 단계, 및 사용자 단말기(200)가 상기 시점 변화에 관한 정보를 기초로 가상 전시 공간 이미지를 재생성하는 단계를 더 포함할 수 있다. 그리고, 상기 시점 변화에 관한 정보를 기초로 가상 전시 공간 이미지를 재생성하는 단계는, 가상 전시 공간에 관하여 변화된 시점에 따라 투시도를 재구성하는 단계를 포함한다.Although not clearly illustrated, as described above, in the method of providing a virtual exhibition space using a 2.5D image according to an embodiment of the present invention, the user terminal 200 acquires information regarding a change in a viewpoint of a user, and a user. The terminal 200 may further include regenerating a virtual exhibition space image based on the information about the viewpoint change. The regenerating the virtual exhibition space image based on the information about the viewpoint change includes reconstructing the perspective view according to the changed viewpoint with respect to the virtual exhibition space.
명확하게 도시하지 않았으나, 상술한 바와 같이, 상기 가상 전시 공간 이미지를 생성하는 단계는, 서로 다른 투명도를 갖는 복수의 그림자 레이어 및 소정의 개수의 조명 레이어를 더 이용하여 가상 전시 공간 이미지를 완성하되, 상기 조명 레이어의 빛의 세기와 위치에 따라 그림자 값의 범위를 결정하고, 상기 그림자 값의 범위에 따라 상기 그림자 레이어의 개수 또는 배치 구조를 결정할 수 있다.Although not clearly illustrated, as described above, the generating of the virtual exhibition space image may further include completing a virtual exhibition space image by using a plurality of shadow layers having a different transparency and a predetermined number of illumination layers. The range of shadow values may be determined according to the intensity and position of light of the illumination layer, and the number or arrangement of the shadow layers may be determined according to the range of the shadow values.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 컴퓨터 프로그램으로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 컴퓨터 프로그램은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, in a computer program executed by hardware, or by a combination thereof. Computer programs can include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features. I can understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

Claims (9)

  1. 가상 전시 공간 이미지를 생성하는 가상 전시 공간 생성부; 및A virtual exhibition space generation unit generating a virtual exhibition space image; And
    사용자 단말기로부터 가상 전시 공간 이미지 요청을 수신하고, 상기 사용자 단말기에게 상기 가상 전시 공간 이미지를 제공하는 통신부를 포함하는 서버를 포함하고,A server including a communication unit configured to receive a virtual exhibition space image request from a user terminal and provide the virtual exhibition space image to the user terminal;
    상기 가상 전시 공간 생성부는,The virtual exhibition space generation unit,
    복수의 벽면을 포함하는 소정의 가상 전시 공간에 관하여 소정의 시점과 소정의 개수의 소실점을 갖는 투시도를 구성하고, 상기 투시도의 상기 소실점을 기초로 상기 투시도 내의 상기 복수의 벽면 상의 소정의 위치의 가상의 3차원 좌표를 산출하고, 상기 가상의 3차원 좌표를 기초로 2차원의 소정의 콘텐츠 이미지를 회전 또는 리사이징하여 상기 투시도 내의 상기 복수의 벽면 중 적어도 하나의 벽면 상에 배치시키고, 상기 콘텐츠 이미지가 배치된 상기 투시도를 이용하여 상기 가상 전시 공간 이미지를 완성하는,Construct a perspective view having a predetermined viewpoint and a predetermined number of vanishing points with respect to a predetermined virtual exhibition space including a plurality of wall surfaces, and based on the vanishing points of the perspective views, a virtual of a predetermined position on the plurality of wall surfaces in the perspective view Calculate a three-dimensional coordinate of; and rotate or resize a predetermined two-dimensional content image based on the virtual three-dimensional coordinates and place it on at least one of the plurality of wall surfaces in the perspective view, wherein the content image is Using the arranged perspective to complete the virtual exhibition space image,
    2.5차원 이미지를 활용한 가상 전시 공간 시스템.Virtual exhibition space system using 2.5D image.
  2. 제1항에 있어서,The method of claim 1,
    상기 통신부는 상기 사용자 단말기로부터 사용자의 시점 변화에 관한 정보를 수신하고,The communication unit receives information regarding the change of viewpoint of the user from the user terminal,
    상기 가상 전시 공간 생성부는 상기 시점 변화에 관한 정보를 기초로 상기 가상 전시 공간 이미지를 재생성하고,The virtual exhibition space generation unit regenerates the virtual exhibition space image based on the information about the viewpoint change,
    상기 시점 변화에 관한 정보를 기초로 상기 가상 전시 공간 이미지를 재생성하는 것은, 상기 가상 전시 공간에 관하여 변화된 시점에 따라 투시도를 재구성하는 것을 포함하는,Regenerating the virtual exhibition space image based on the information about the viewpoint change includes reconstructing the perspective view according to the changed viewpoint with respect to the virtual exhibition space.
    2.5차원 이미지를 활용한 가상 전시 공간 시스템.Virtual exhibition space system using 2.5D image.
  3. 제1항에 있어서,The method of claim 1,
    상기 가상 전시 공간 생성부는,The virtual exhibition space generation unit,
    서로 다른 투명도를 갖는 복수의 그림자 레이어 및 소정의 개수의 조명 레이어를 더 이용하여 상기 가상 전시 공간 이미지를 완성하되,The virtual exhibition space image is further completed by using a plurality of shadow layers having a different transparency and a predetermined number of lighting layers,
    상기 조명 레이어의 빛의 세기와 위치에 따라 그림자 값의 범위를 결정하고, 상기 그림자 값의 범위에 따라 상기 그림자 레이어의 개수 또는 배치 구조를 결정하는,Determining a range of shadow values according to the intensity and position of light of the illumination layer, and determining the number or arrangement of the shadow layers according to the range of the shadow values;
    2.5차원 이미지를 활용한 가상 전시 공간 시스템.Virtual exhibition space system using 2.5D image.
  4. 컴퓨터에 의해 실현되는 방법으로서,As a method realized by a computer,
    사용자로부터 가상 전시 공간 이미지 요청을 수신하는 단계; 및Receiving a virtual exhibition space image request from a user; And
    가상 전시 공간 이미지를 생성하여 제공하는 단계를 포함하고,Generating and providing a virtual exhibition space image,
    상기 가상 전시 공간 이미지를 생성하여 제공하는 단계는,Creating and providing the virtual exhibition space image,
    복수의 벽면을 포함하는 소정의 가상 전시 공간에 관하여 소정의 시점과 소정의 개수의 소실점을 갖는 투시도를 구성하는 단계와,Constructing a perspective view having a predetermined viewpoint and a predetermined number of vanishing points with respect to the predetermined virtual exhibition space including a plurality of wall surfaces;
    상기 투시도의 상기 소실점을 기초로 상기 투시도 내의 상기 복수의 벽면 상의 소정의 위치의 가상의 3차원 좌표를 산출하는 단계와,Calculating virtual three-dimensional coordinates of a predetermined position on the plurality of wall surfaces in the perspective view based on the vanishing point of the perspective view;
    상기 가상의 3차원 좌표를 기초로 2차원의 소정의 콘텐츠 이미지를 회전 또는 리사이징하여 상기 투시도 내의 상기 복수의 벽면 중 적어도 하나의 벽면 상에 배치시키는 단계와,Rotating or resizing a predetermined content image in two dimensions based on the virtual three-dimensional coordinates and placing it on at least one of the plurality of wall surfaces in the perspective view;
    상기 콘텐츠 이미지가 배치된 상기 투시도를 이용하여 상기 가상 전시 공간 이미지를 완성하는 단계를 포함하는,Comprising the step of completing the virtual exhibition space image using the perspective view in which the content image is disposed,
    2.5차원 이미지를 활용한 가상 전시 공간 제공 방법.How to provide virtual exhibition space using 2.5D image.
  5. 제4항에 있어서,The method of claim 4, wherein
    서버로부터 수신된 가상 전시 공간 이미지의 스틸샷을 로딩하는 단계를 더 포함하고,Loading a still shot of the virtual exhibition space image received from the server,
    상기 가상 전시 공간 이미지를 생성하여 제공하는 단계는, Creating and providing the virtual exhibition space image,
    상기 가상 전시 공간 이미지의 스틸샷의 로딩 중에 상기 서버로부터 상기 콘텐츠 이미지를 수신하는 단계와,Receiving the content image from the server during loading of the still shot of the virtual exhibition space image;
    상기 가상 전시 공간 이미지의 스틸샷을 상기 완성된 가상 전시 공간 이미지로 교체하여 제공하는 단계를 더 포함하는,And providing a still shot of the virtual exhibition space image by replacing it with the completed virtual exhibition space image.
    2.5차원 이미지를 활용한 가상 전시 공간 제공 방법.How to provide virtual exhibition space using 2.5D image.
  6. 제4항에 있어서,The method of claim 4, wherein
    상기 사용자의 시점 변화에 관한 정보를 획득하는 단계; 및Acquiring information about a change in viewpoint of the user; And
    상기 시점 변화에 관한 정보를 기초로 상기 가상 전시 공간 이미지를 재생성하는 단계를 더 포함하고,Regenerating the virtual exhibition space image based on the information about the viewpoint change;
    상기 시점 변화에 관한 정보를 기초로 상기 가상 전시 공간 이미지를 재생성하는 단계는,Regenerating the virtual exhibition space image based on the information about the viewpoint change,
    상기 가상 전시 공간에 관하여 변화된 시점에 따라 투시도를 재구성하는 단계를 포함하는,Reconstructing a perspective view according to a changed viewpoint with respect to the virtual exhibition space,
    2.5차원 이미지를 활용한 가상 전시 공간 제공 방법.How to provide virtual exhibition space using 2.5D image.
  7. 제4항에 있어서,The method of claim 4, wherein
    상기 가상 전시 공간 이미지를 생성하는 단계는,Generating the virtual exhibition space image,
    서로 다른 투명도를 갖는 복수의 그림자 레이어 및 소정의 개수의 조명 레이어를 더 이용하여 상기 가상 전시 공간 이미지를 완성하되,The virtual exhibition space image is further completed by using a plurality of shadow layers having a different transparency and a predetermined number of lighting layers,
    상기 조명 레이어의 빛의 세기와 위치에 따라 그림자 값의 범위를 결정하고, 상기 그림자 값의 범위에 따라 상기 그림자 레이어의 개수 또는 배치 구조를 결정하는,Determining a range of shadow values according to the intensity and position of light of the illumination layer, and determining the number or arrangement of the shadow layers according to the range of the shadow values;
    2.5차원 이미지를 활용한 가상 전시 공간 제공 방법.How to provide virtual exhibition space using 2.5D image.
  8. 제4항 내지 제7항 중 어느 하나의 항의 2.5차원 이미지를 활용한 가상 전시 공간 제공 방법을 실행하는 컴퓨터 프로그램이 기록된 컴퓨터 판독가능 기록매체.A computer-readable recording medium having recorded thereon a computer program for executing the method for providing a virtual exhibition space using the 2.5-dimensional image of any one of claims 4 to 7.
  9. 컴퓨터와 결합되어, 제4항 내지 제7항 중 어느 하나의 항의 2.5차원 이미지를 활용한 가상 전시 공간 제공 방법을 실행하기 위하여 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램.A computer program, coupled to a computer, stored in a computer readable recording medium for carrying out the method for providing a virtual exhibition space utilizing the 2.5-dimensional image of any one of claims 4 to 7.
PCT/KR2017/005086 2017-05-17 2017-05-17 Virtual exhibition space system utilizing 2.5-dimensional image and method for providing same WO2018212369A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/685,556 US11069126B2 (en) 2017-05-17 2019-11-15 System and method for providing virtual exhibition space utilizing 2.5 dimensional image
US17/350,710 US11651545B2 (en) 2017-05-17 2021-06-17 System and method for providing virtual exhibition space utilizing 2.5 dimensional image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170060766A KR101956098B1 (en) 2017-05-17 2017-05-17 Virtual exhibition space system and providing method using 2.5 dimensional image
KR10-2017-0060766 2017-05-17

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/685,556 Continuation US11069126B2 (en) 2017-05-17 2019-11-15 System and method for providing virtual exhibition space utilizing 2.5 dimensional image

Publications (1)

Publication Number Publication Date
WO2018212369A1 true WO2018212369A1 (en) 2018-11-22

Family

ID=64274041

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/005086 WO2018212369A1 (en) 2017-05-17 2017-05-17 Virtual exhibition space system utilizing 2.5-dimensional image and method for providing same

Country Status (3)

Country Link
US (2) US11069126B2 (en)
KR (1) KR101956098B1 (en)
WO (1) WO2018212369A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112148574A (en) * 2020-09-21 2020-12-29 北京基调网络股份有限公司 Performance data acquisition method, computer equipment and storage medium

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018212369A1 (en) * 2017-05-17 2018-11-22 디프트 주식회사 Virtual exhibition space system utilizing 2.5-dimensional image and method for providing same
KR102237519B1 (en) * 2018-05-08 2021-04-07 디프트(주) Method of providing virtual exhibition space using 2.5 dimensionalization
US11024191B2 (en) * 2019-02-22 2021-06-01 Kujawsko-Pomorski Klaster Brewstera System for a multimodal educational display in a pop-up science center and an educational method for a multimodal educational display in a pop-up science center
CN110020600B (en) * 2019-03-05 2021-04-16 厦门美图之家科技有限公司 Method for generating a data set for training a face alignment model
KR102246642B1 (en) 2019-07-25 2021-05-04 (주)유디엠 Connected virtual space exhibition system with fabrication production relay management system for user behavior information analysis
CN111598978B (en) * 2020-05-08 2023-09-26 上海实迅网络科技有限公司 Article instruction book display system and display method based on AR technology

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050030309A1 (en) * 2003-07-25 2005-02-10 David Gettman Information display
WO2007129065A1 (en) * 2006-05-08 2007-11-15 University Of Plymouth Virtual display method and apparatus
JP2009230635A (en) * 2008-03-25 2009-10-08 Olympus Imaging Corp Image data generating device, image data generating method and image data generating program
JP2015045958A (en) * 2013-08-27 2015-03-12 株式会社リコー Display processing unit, display processing method, and program
JP2016048456A (en) * 2014-08-27 2016-04-07 株式会社リコー Image processor, image processing method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150113246A (en) 2014-03-27 2015-10-08 모젼스랩(주) system and method for providing virtual display space
KR20140082610A (en) * 2014-05-20 2014-07-02 (주)비투지 Method and apaaratus for augmented exhibition contents in portable terminal
KR20160112898A (en) * 2015-03-20 2016-09-28 한국과학기술원 Method and apparatus for providing dynamic service based augmented reality
WO2018212369A1 (en) * 2017-05-17 2018-11-22 디프트 주식회사 Virtual exhibition space system utilizing 2.5-dimensional image and method for providing same
KR102237520B1 (en) * 2018-05-04 2021-04-07 디프트(주) Method of providing virtual exhibition space for efficient data management
KR102237519B1 (en) * 2018-05-08 2021-04-07 디프트(주) Method of providing virtual exhibition space using 2.5 dimensionalization

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050030309A1 (en) * 2003-07-25 2005-02-10 David Gettman Information display
WO2007129065A1 (en) * 2006-05-08 2007-11-15 University Of Plymouth Virtual display method and apparatus
JP2009230635A (en) * 2008-03-25 2009-10-08 Olympus Imaging Corp Image data generating device, image data generating method and image data generating program
JP2015045958A (en) * 2013-08-27 2015-03-12 株式会社リコー Display processing unit, display processing method, and program
JP2016048456A (en) * 2014-08-27 2016-04-07 株式会社リコー Image processor, image processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112148574A (en) * 2020-09-21 2020-12-29 北京基调网络股份有限公司 Performance data acquisition method, computer equipment and storage medium
CN112148574B (en) * 2020-09-21 2021-04-23 北京基调网络股份有限公司 Performance data acquisition method, computer equipment and storage medium

Also Published As

Publication number Publication date
US11651545B2 (en) 2023-05-16
KR101956098B1 (en) 2019-03-11
KR20180126146A (en) 2018-11-27
US11069126B2 (en) 2021-07-20
US20200082604A1 (en) 2020-03-12
US20210312700A1 (en) 2021-10-07

Similar Documents

Publication Publication Date Title
WO2018212369A1 (en) Virtual exhibition space system utilizing 2.5-dimensional image and method for providing same
US10311637B2 (en) Collaborative three-dimensional digital model construction
WO2019212129A1 (en) Virtual exhibition space providing method for efficient data management
CN107660338A (en) The stereoscopic display of object
WO2021238145A1 (en) Generation method and apparatus for ar scene content, display method and apparatus therefor, and storage medium
CN111833423A (en) Presentation method, presentation device, presentation equipment and computer-readable storage medium
US10576727B2 (en) Generating three dimensional projections
WO2019216528A1 (en) Method for providing virtual exhibition space by using 2.5-dimensionalization
CN111142967A (en) Augmented reality display method and device, electronic equipment and storage medium
CN103810748B (en) The building of 3D simulation system, management method and 3D simulator
CN111240175B (en) Projection control method, device and system
US20190378335A1 (en) Viewer position coordination in simulated reality
WO2020138801A1 (en) Multi-depth image generating and viewing
WO2011159085A2 (en) Method and apparatus for ray tracing in a 3-dimensional image system
CN114428573B (en) Special effect image processing method and device, electronic equipment and storage medium
CN114913277A (en) Method, device, equipment and medium for three-dimensional interactive display of object
CN115131531A (en) Virtual object display method, device, equipment and storage medium
CN114049403A (en) Multi-angle three-dimensional face reconstruction method and device and storage medium
Peake et al. The virtual experiences portals—a reconfigurable platform for immersive visualization
WO2017026834A1 (en) Responsive video generation method and generation program
WO2020050516A1 (en) Method for generating three-dimensional vr data by using 2.5-dimensional virtual exhibition space
CN109583983A (en) Merchandise display method and device applied to e-commerce system
CN112106117A (en) Projection of content libraries in three-dimensional environments
KR20190024949A (en) Virtual exhibition space system and providing method using 2.5 dimensional image
CN109727315A (en) One-to-many Cluster Rendering method, apparatus, equipment and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17910095

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 27.03.2020)

122 Ep: pct application non-entry in european phase

Ref document number: 17910095

Country of ref document: EP

Kind code of ref document: A1