WO2020050516A1 - 2.5차원 가상 전시 공간을 이용한 3차원 vr 데이터 생성 방법 - Google Patents

2.5차원 가상 전시 공간을 이용한 3차원 vr 데이터 생성 방법 Download PDF

Info

Publication number
WO2020050516A1
WO2020050516A1 PCT/KR2019/010368 KR2019010368W WO2020050516A1 WO 2020050516 A1 WO2020050516 A1 WO 2020050516A1 KR 2019010368 W KR2019010368 W KR 2019010368W WO 2020050516 A1 WO2020050516 A1 WO 2020050516A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
exhibition
wall surfaces
spatial image
wall surface
Prior art date
Application number
PCT/KR2019/010368
Other languages
English (en)
French (fr)
Inventor
박치형
김동리
김남현
조훈제
Original Assignee
디프트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 디프트 주식회사 filed Critical 디프트 주식회사
Publication of WO2020050516A1 publication Critical patent/WO2020050516A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Definitions

  • the present invention relates to a virtual exhibition space, and more particularly, to a method for generating 3D VR data using a 2.5D virtual exhibition space.
  • one virtual gallery service provides a flat service for placing a 2D artwork image on a 2D wall image, and the other virtual gallery service constructs a 3D graphic of a virtual gallery using a 3D engine.
  • Another virtual gallery service is using VR technology to view and experience the works displayed in the virtual reality gallery space.
  • the conventional flat gallery service has a disadvantage that it cannot provide a three-dimensional gallery service, and the gallery service using a 3D engine or VR technology takes a lot of time to load due to the size and number of data, and also works contents. Will be accompanied by corruption.
  • a user terminal for using the gallery service also requires high performance.
  • the problem to be solved by the present invention is to expand the 2.5-dimensional virtual exhibition space to a 3-dimensional virtual reality space to enable rapid and efficient VR exhibition services.
  • a 2.5D virtual exhibition space is created in 3D virtual reality. It can be expanded into a space to enable rapid and efficient VR exhibition service.
  • FIG. 1 is a block diagram schematically showing an environment to which a virtual exhibition space provision service is applied.
  • FIG. 2 is a flowchart schematically illustrating a process of setting a spatial image of a method for providing a virtual exhibition space according to an embodiment of the present invention.
  • FIG. 3 is a diagram schematically showing a spatial image in which the exhibition space is three-dimensionally depicted.
  • FIG. 4 is a diagram schematically showing that a spatial image is provided to a user through a user terminal.
  • 5 to 6 are views schematically illustrating the analysis of the scale and slope values of a plurality of wall surfaces.
  • FIG. 7 is a flowchart schematically illustrating a process of registering a work in a method for providing a virtual exhibition space according to an embodiment of the present invention.
  • FIG 8 to 9 are views schematically illustrating the arrangement of a work image on a wall image of a specific wall surface.
  • FIG. 10 is a flowchart schematically showing a process of viewing a work of a method for providing a virtual exhibition space according to an embodiment of the present invention.
  • 11 to 12 are views schematically illustrating the creation of an exhibition image by overlapping and disposing a snapshot image on a spatial image.
  • FIG. 13 is a diagram schematically showing an example of an exhibition image generated by a method for providing a virtual exhibition space according to an embodiment of the present invention.
  • FIG. 14 is a block diagram schematically illustrating an environment in which 3D VR data corresponding to an exhibition image is generated and provided.
  • 15 is a flowchart schematically illustrating a method for generating 3D VR data according to an embodiment of the present invention.
  • FIG. 16 is a diagram schematically illustrating to obtain a 3D coordinate by analyzing an exhibition image.
  • spatially relative terms “below”, “beneath”, “lower”, “above”, “upper”, etc. are as shown in the figure. It can be used to easily describe a correlation between a component and other components. Spatially relative terms are to be understood as including terms in different directions of components in use or operation in addition to the directions shown in the figures. For example, if a component shown in the drawing is flipped over, the component described as “below” or “beneath” the other component will be placed “above” the other component. You can. Thus, the exemplary term “below” can include both the directions below and above. Components can also be oriented in different directions, and thus spatially relative terms can be interpreted according to orientation.
  • 2.5 dimension means to describe and express an object in a three-dimensional form on a two-dimensional plane
  • 2.5 dimensioning means to convert a two-dimensional object into a 2.5-dimensional object.
  • the 2.5 dimension is based on human cognitive illusion.
  • work image includes an image of any creation that can be expressed in the form of photographs, pictures, and other images as a creation by an artist.
  • virtual exhibition space is a cyber space existing on a network, and is used as a place meaning that various data and information related to exhibition images and artwork images can be viewed.
  • 3D VR data is data defining a 3D virtual reality (VR) space, and means content data that can be provided by a VR service.
  • FIG. 1 is a block diagram schematically showing an environment to which a virtual exhibition space provision service is applied.
  • the user terminal 100 and the server 200 are connected to each other through a network.
  • the user terminal 100 and the server 200 may transmit and receive various data and / or information.
  • Networks include wired or wireless networks.
  • the scale, topology, and communication method of a network may be provided in various variations according to embodiments.
  • the user terminal 100 represents a computer system used by a user.
  • the user terminal 100 may be provided as a mobile computer system such as a smart phone, a tablet, or a personal digital assistant (PDA).
  • PDA personal digital assistant
  • the user terminal 100 may be provided as a fixed computer system such as a laptop or desktop.
  • the user terminal 100 is not limited to the above-described examples, and may be connected to the server 200 through a network and may be provided as an arbitrary computer system having a display.
  • the user terminal 100 may store and execute an application for interworking with the server 200.
  • the application may include various commands, data and information.
  • the server 200 provides a virtual exhibition space.
  • the server 200 provides an exhibition image to the user terminal 100 according to a request from the user terminal 100.
  • the exhibition image is provided as a three-dimensional image as described below.
  • the exhibit image is drawn by perspective perspective.
  • the exhibition image is drawn to have a predetermined view point and a predetermined number of vanishing points. Detailed description of the perspective perspective is omitted because it may obscure the subject matter of the present invention.
  • a snapshot image is used to create a three-dimensional display image.
  • the snapshot image is an image in which one or more artwork images are overlapped and arranged on a flat image on the wall. Through the 2.5-dimensionalization of such a planar snapshot image, a three-dimensional display image can be generated.
  • a plurality of user terminals 100 may be connected to the server 200.
  • One user terminal 100 may be used by the first user, and the other user terminal 100 may be used by the second user.
  • the first user registers a work image for exhibition as described below as an administrator (eg, an artist, curator, or collector) of the virtual exhibition space.
  • an administrator eg, an artist, curator, or collector
  • the second user views and views the exhibition image and the work image as described later. It will be clearly understood that one user can be classified as the first user and the second user at the same time.
  • FIG. 2 is a flowchart schematically illustrating a process of setting a spatial image of a method for providing a virtual exhibition space according to an embodiment of the present invention.
  • step S310 the server 200 prepares a spatial image in which the exhibition space is three-dimensionally depicted.
  • Spatial images define a virtual (ie non-existent) exhibition space.
  • the spatial image may be pre-stored in the user terminal 100 by being embedded in the application.
  • FIG. 3 is a diagram schematically showing a spatial image in which the exhibition space is three-dimensionally depicted.
  • the spatial image 10 is drawn by perspective perspective.
  • the spatial image 10 may have a form in which a plurality of one-point perspective views or two-point perspective views are integrated. That is, the spatial image 10 is drawn to have a plurality of viewpoints and one or more vanishing points corresponding to each viewpoint.
  • the exhibition space in the spatial image 10 includes a plurality of surfaces.
  • the surface includes a plurality of wall surfaces (A), a ceiling surface (B), and a floor surface (C).
  • the ceiling surface B may be depicted in an open form with the ceiling omitted.
  • the wall (A) will be used for the placement and display of the work image, but in some embodiments, the ceiling (B) or floor (C) is also used for the placement and display of the work image. Can be used.
  • the number of wall surfaces (A) can be variously increased or decreased depending on the embodiment.
  • the arrangement form of the wall surface A may also be variously modified according to embodiments.
  • the proportion of each wall surface A of the exhibition space defined by the spatial image 10 may be fixed to be unified. That is, the horizontal to vertical ratios of the plurality of wall surfaces A may be fixed to the same value. The ratio can be determined in advance.
  • the sizes of the plurality of wall surfaces A are not fixed uniformly.
  • the ratio of the plurality of wall surfaces A may be fixed to the aspect ratio of a typical mobile computer system at 16: 9.
  • the proportions of the plurality of wall surfaces 10 are not limited to the above example.
  • FIG. 4 is a diagram schematically showing that a spatial image is provided to a user through a user terminal. 4 illustrates a case where the user terminal 100 is a smartphone.
  • the spatial image 10 has a shape extended in a horizontal direction, an area that can be displayed on the screen of the user terminal 100 is limited.
  • some wall surfaces eg, 13
  • other wall surfaces eg, 11, 15
  • the position of the user's gaze moves, the area of the spatial image 10 displayed on the screen of the user terminal 100 may be changed.
  • the position of the user's gaze may move intermittently or continuously. The operation for moving the position of the user's gaze may be performed in various ways.
  • the display image 50 to be described later is limited to an area that can be displayed on the screen of the user terminal 100.
  • the spatial image 10 may have an elongated shape in the vertical direction.
  • step S320 the server 200 analyzes a plurality of wall surfaces on the spatial image 10.
  • the server 200 acquires the scales of the plurality of wall surfaces of the spatial image 10, and acquires the slope values of the plurality of wall surfaces.
  • the obtained scale and tilt values of each wall surface are used for adjustment of a snapshot image described later.
  • 5 to 6 are views schematically illustrating the analysis of the scale and slope values of a plurality of wall surfaces. 5 to 6 exemplify a case in which the scale and the slope value of a specific wall surface 13 are analyzed.
  • the scale means the ratio of the wall surface to the exhibition space. That is, the scale means the ratio (S1: S2) of the area (S1) of each wall surface 13 to the total area (S2) of the exhibition space depicted on the spatial image (10).
  • the slope value is inclined clockwise or counterclockwise on the plane. Degree.
  • the server 200 acquires coordinates of four corners of the plurality of wall surfaces 13 of the spatial image 10, a fixed ratio (eg, 16: 9) of the plurality of wall surfaces 13 and a plurality of wall surfaces 13 ), It is possible to obtain the slope values of the plurality of wall surfaces 130 based on the four corner coordinates.
  • FIG. 6 is a view showing a specific wall surface 13 on a plane (ie, a top view) in a virtual exhibition space.
  • the server 200 acquires an angle of ⁇ 1 or ⁇ 2 as shown in FIG. 6 as a slope value.
  • FIG. 7 is a flowchart schematically illustrating a process of registering a work in a method for providing a virtual exhibition space according to an embodiment of the present invention.
  • the user terminal 100 displays the spatial image 10 on which the exhibition space is three-dimensionally depicted on the screen.
  • the spatial image 10 may be provided for each exhibition space.
  • the first user may select a specific exhibition space among a plurality of exhibition spaces, and the user terminal 100 may display a spatial image 10 on which the selected exhibition space is depicted on the screen.
  • step S420 the user terminal 100 receives a selection of the first user for a specific wall surface among the plurality of wall surfaces on the spatial image 10.
  • step S430 the user terminal 100 displays a wall image of the specific wall on which the specific wall is depicted on the screen.
  • the user terminal 100 receives a command of the first user to overlap and place one or more pieces of work images in a specific size at a specific location on the wall image. Then, the user terminal 100 obtains the arrangement information of one or more work images including the specific location and specific size.
  • 8 to 9 are views schematically illustrating the arrangement of a work image on a wall image of a specific wall surface. 8 to 9 illustrate the case where the user terminal 100 is a smartphone.
  • the user terminal 100 displays the spatial image 10 on a screen, and the first user can select a specific wall surface 13 among a plurality of wall surfaces on the spatial image 10 by a touch method or the like. have.
  • the user terminal 100 displays a wall image 23 on which a specific wall 13 is depicted on the screen.
  • the wall image 23 depicts the wall surface in which the work is not arranged.
  • the wall image 23 is displayed on the entire area of the screen of the user terminal 100.
  • the first user may select one or more work images 31 and 32 stored in the user terminal 200 or a cloud storage, and overlap and arrange them on the wall image 23.
  • the first user may adjust and arrange one or more pieces of work images 31 and 32 to a specific size at a specific location. Although two pieces of work images 31 and 32 are shown in FIG. 9, one or more pieces of work images may be arranged.
  • a command of the first user for arranging one or more work images 31 and 32 may be provided by a touch or a specific gesture. Also, the first user's command may include one or more of movement, rotation, enlargement, and reduction of one or more work images 31 and 32.
  • the location of the work image 31 may be defined by the coordinates of one or more corners P1 of the work image 31 or the center P2.
  • the coordinates are defined in relation to a specific wall surface on which the work image 31 is placed (ie, a coordinate system of a specific wall surface).
  • the coordinates of a certain corner of a specific wall surface are defined as (0,0).
  • the size of the work image 31 may be defined as a ratio (wd1: wd2) of the width wd1 of each work image 31 compared to the total width wd2 of a specific wall surface.
  • the method of defining the position and size of the work image 31 is not limited thereto.
  • step S450 the user terminal 100 generates a snapshot image of a specific wall surface in which one or more work images are overlapped and arranged on the wall image 23. That is, a snapshot image is generated as if a wall image in which one or more artwork images are arranged is captured or captured.
  • the snapshot image is used to reduce a loading time experienced by a user by temporarily (or temporarily) displaying a work image or the like on the screen before receiving and loading a work image or the like as described later.
  • the quality of the snapshot image is predetermined and may be lower than the quality of the artwork image. This is to reduce the size of the data and reduce the loading time.
  • a snapshot image may be created only on the wall where the work is placed.
  • step S460 the user terminal 100 transmits identification information of a specific wall surface, arrangement information of one or more work images, a snapshot image 43, and one or more work images 31 and 32 to the server 200. .
  • FIG. 10 is a flowchart schematically showing a process of viewing a work of a method for providing a virtual exhibition space according to an embodiment of the present invention.
  • the user terminal 100 prepares a spatial image 10 in which the exhibition space is three-dimensionally depicted.
  • the spatial image 10 may be provided for each exhibition space.
  • the second user can select a specific exhibition space among a plurality of exhibition spaces, and the user terminal 100 can prepare a spatial image 10 in which the selected exhibition space is depicted.
  • the spatial image 10 may be embedded in an application and pre-stored in the user terminal 100.
  • step S520 the user terminal 100, the identification information of a specific wall among the plurality of walls on the spatial image 10 and the specific wall are depicted in a plane, and one or more pieces are arranged in a specific size at a specific location on the specific wall.
  • the depicted snapshot image of the specific wall surface is received from the server 200. That is, the user terminal 100 receives a snapshot image of a specific wall surface generated in step S450. In some embodiments, the user terminal 100 receives a snapshot image only on the wall where the work image is placed in the process of registering the work. Also, the user terminal 100 receives arrangement information of one or more work images and one or more work images 31 and 32 from the server 200.
  • step S530 the user terminal 100 converts the snapshot image of the spatial image 10 using the scale and slope values and snapshot images of the specific wall surface on the spatial image 10 corresponding to the identification information of the specific wall surface. Adjusted to follow the three-dimensional element, and placed on the specific wall surface on the spatial image 10 overlapping to generate an exhibition image. Subsequently, in step S540, the user terminal 100 displays the exhibition image on the screen.
  • “to follow the three-dimensional element” means to adjust by a perspective perspective to have the same viewpoint and vanishing point as a specific wall surface on the spatial image 10, unlike the planar depiction of the original.
  • the three-dimensional element may include, for example, a viewpoint or a vanishing point.
  • 11 to 12 are views schematically illustrating the creation of an exhibition image by overlapping and disposing a snapshot image on a spatial image.
  • the user terminal 100 prepares a spatial image 10.
  • the user terminal 100 is shown to display the spatial image 10 on the screen, this is to help the understanding of the present invention through the contrast of the spatial image 10 and the exhibition image 50, and the user The terminal 100 does not actually display the spatial image 10 on the screen. Since the spatial image 10 merely depicts an exhibition space, a work image is not arranged on a specific wall 13 of the spatial image 10.
  • the user terminal 100 receives the snapshot image 43 generated in the above-described work registration process from the server 200, not the work image. Then, the user terminal 100 adjusts the snapshot image 43 to follow the three-dimensional elements of the spatial image 10, and overlaps and arranges on the specific wall surface 13 on the spatial image 10 to display the exhibition image 50.
  • the exhibition image 50 is generated in the form of a combination of the spatial image 10 and the snapshot image 43.
  • the snapshot image is used to generate an exhibition image.
  • step S550 the user terminal 100 receives a second user's selection for a specific wall among the plurality of wall surfaces on the exhibition image 50.
  • step S560 the user terminal 100 displays a snapshot image of the specific wall surface in which a specific wall surface is depicted in a plane and one or more pieces are arranged in a specific size at a specific location on the specific wall surface.
  • step S570 the user terminal 100 receives a second user's selection for a specific work among one or more works on the snapshot image.
  • step S580 the user terminal 100 displays the work image of the specific work on the screen using the arrangement information of the work image (for example, 31) of the specific work.
  • the arrangement information of the work image may be used to determine a selection area of a specific work.
  • the arrangement information of the work image may be used to provide effects such as animation in the process of displaying the work image on the screen.
  • the user can also select and enlarge the work image to view it. Accordingly, the second user can view each work image in detail in addition to the exhibition image 50 and the snapshot image.
  • FIG. 13 is a diagram schematically showing an example of an exhibition image generated by a method for providing a virtual exhibition space according to an embodiment of the present invention.
  • the exhibition image in FIG. 13 (a) provides a virtual exhibition space similar to a general gallery
  • the exhibition image in FIG. 13 (b) is a completely different outdoor space from the general gallery and simultaneously provides a virtual exhibition space with a transparent wall surface. do.
  • the user terminal includes a processor and memory.
  • Memory stores computer programs that are configured to be executed by a processor.
  • the computer program includes instructions for executing steps of a method or algorithm described in connection with an embodiment of the invention.
  • FIG. 14 is a block diagram schematically illustrating an environment in which 3D VR data corresponding to an exhibition image is generated and provided.
  • the user terminal 100 generates 3D VR data 60 using the exhibition image 50. Then, the user terminal 100 provides the 3D VR data 60 to the VR terminal 600, so that the user can experience a 3D virtual reality space.
  • the 3D VR data 60 may be post-processed in a format, structure, or form suitable for the VR terminal 600.
  • the VR terminal 600 is shown as a head mounted display (HMD) type, but is not limited thereto, and the VR terminal 600 may be provided in various types well known in the art. have.
  • HMD head mounted display
  • the user terminal 100 may function as a VR terminal independently or in combination with a headset. In this case, the user terminal 100 may directly provide the 3D VR data 60 to the user.
  • the server 200 may generate the 3D VR data 60 using the exhibition image 50.
  • the user terminal 100 may receive the 3D VR data 60 from the server 200 and provide the 3D VR data 60 to the VR terminal 600 or directly to the user.
  • 15 is a flowchart schematically illustrating a method for generating 3D VR data according to an embodiment of the present invention.
  • the user terminal 100 analyzes the exhibition image 50.
  • the user terminal 100 analyzes a plurality of wall surfaces on the exhibition image 50 to obtain three-dimensional coordinates on the exhibition space of the plurality of wall surfaces of the exhibition image 50.
  • FIG. 16 is a diagram schematically illustrating to obtain a 3D coordinate by analyzing an exhibition image. 16 exemplifies a case in which three-dimensional coordinates on a specific wall surface 53 on the exhibition space are acquired.
  • a view of a specific wall surface 53 viewed from the front that is, a front view
  • a view viewed from a plane that is, a plan view
  • the four corner coordinates of the wall surface 13 may be used. If the wall surface 53 of the exhibition image 50 corresponds to the wall surface 13 of the spatial image 10, the four corner coordinates of the wall surface 13 may be used in the same manner as the four corner coordinates of the wall surface 53. .
  • the plane coordinates define the width and height of the objects in the exhibition space.
  • the slope value of the wall surface 53 may be used to obtain depth coordinates on the exhibition space of the wall surface 53.
  • the slope value of the wall surface 53 can be obtained at an angle of ⁇ 1 or ⁇ 2.
  • the inclination value of the wall surface 53 can also be obtained using the analysis result of the spatial image 10 by the server 200 described above. That is, if the wall surface 53 of the exhibition image 50 corresponds to the wall surface 13 of the spatial image 10, the slope value of the wall surface 13 may be used equally as the slope value of the wall surface 53. .
  • a left-handed coordinate system was used, but it will be apparent to those skilled in the art that it can be used by being modified to a right-handed coordinate system according to the embodiment.
  • the relative depth coordinates of the wall surface 53 on the exhibition space can be calculated using the plane coordinates of the wall surface 53, the width d of the wall surface 53, and various trigonometric functions, as shown in FIG. 16.
  • a relative depth difference z1-z2 between two corners of the lower portion of the wall surface 53 may be calculated.
  • the width d of the wall surface 53 may be predetermined, or may be calculated using a fixed ratio of the wall surface 53 or the above-described slope value.
  • depth coordinates on the exhibition space of the wall surface 13 may be obtained.
  • the depth coordinates of the wall surface 13 may be used as the depth coordinates of the wall surface 53. have.
  • a difference in depth between a user's viewpoint on a display space and a specific wall surface may be additionally considered.
  • the 3D coordinates may be obtained in the form of relative or absolute coordinates based on the user's viewpoint.
  • step S720 the user terminal 100 generates 3D VR data 60 corresponding to the exhibition image 50 using the analysis result of the exhibition image 50.
  • step S730 the user terminal 100 provides the 3D VR data to the user through the VR terminal 600 or directly.
  • the steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware (eg, on-demand semiconductor), or as a software module (eg, computer program) executed by a processor, or It can be implemented by a combination of these.
  • the software modules may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It can be recorded on any type of computer readable recording medium well known in the art.
  • the 2.5D virtual exhibition space is 3D It can be expanded to the virtual reality space in the area to enable quick and efficient VR exhibition service.

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

2.5차원 가상 전시 공간을 이용한 3차원 VR 데이터 생성 방법이 제공된다. 상기 방법은, 복수의 벽면을 포함하는 전시 공간이 입체적으로 묘사된 공간 이미지를 준비하는 단계, 상기 공간 이미지 상의 복수의 벽면을 분석하여, 상기 공간 이미지의 복수의 벽면의 상기 전시 공간 대비 스케일 및 기울기 값을 획득하는 단계, 상기 공간 이미지 상의 복수의 벽면 중 특정 벽면이 평면적으로 묘사된 상기 특정 벽면의 벽면 이미지를 준비하는 단계, 상기 벽면 이미지 상의 특정 위치에 특정 크기로 하나 이상의 작품 이미지를 오버랩하여 배치시키는 단계, 상기 벽면 이미지 상에 상기 하나 이상의 작품 이미지가 오버랩되어 배치된 상기 특정 벽면의 스냅샷 이미지를 생성하는 단계, (a) 상기 공간 이미지 상의 상기 특정 벽면의 상기 스케일 및 기울기 값, (b) 상기 스냅샷 이미지를 이용하여 상기 공간 이미지 상의 상기 특정 벽면 상에 상기 스냅샷 이미지를, 상기 공간 이미지의 입체감 요소를 따르도록, 오버랩하여 배치시켜 전시 이미지를 생성하는 단계를 포함한다.

Description

2.5차원 가상 전시 공간을 이용한 3차원 VR 데이터 생성 방법
본 발명은 가상 전시 공간에 관한 것으로, 보다 상세하게는 2.5차원 가상 전시 공간을 이용한 3차원 VR 데이터 생성 방법에 관한 것이다.
최근 정보통신 기술의 발전에 따라 가상 갤러리 서비스가 제공되고 있다. 예시적으로, 하나의 가상 갤러리 서비스는 2차원의 벽면 이미지에 2차원의 작품 이미지를 배치시키는 플랫한 서비스를 제공하며, 다른 가상 갤러리 서비스는 3차원 엔진을 이용하여 가상 갤러리의 3차원 그래픽을 구성하여 서비스하고 있으며, 또 다른 가상 갤러리 서비스는 VR 기술을 이용하여 가상 현실 갤러리 공간에 전시된 작품을 관람하고 체험할 수 있도록 서비스하고 있다.
종래의 플랫한 갤러리 서비스는 입체적인 갤러리 서비스를 제공할 수 없는 단점이 있으며, 3차원 엔진을 이용하거나 VR 기술을 이용하는 갤러리 서비스는 데이터의 크기와 수가 상당하여 로딩에 많은 시간이 소요될 뿐만 아니라, 작품 콘텐츠의 훼손이 수반되게 된다. 갤러리 서비스를 이용하기 위한 사용자 단말기 또한 고성능이 요구되는 실정이다.
본 발명이 해결하고자 하는 과제는 2.5차원 가상 전시 공간을 3차원의 가상현실 공간으로 확장하여 신속하고 효율적인 VR 전시 서비스가 가능하게 하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 3차원 VR 데이터 생성 방법은, 복수의 벽면을 포함하는 전시 공간이 입체적으로 묘사된 공간 이미지를 준비하는 단계, 상기 공간 이미지 상의 복수의 벽면을 분석하여, 상기 공간 이미지의 복수의 벽면의 상기 전시 공간 대비 스케일 및 기울기 값을 획득하는 단계, 상기 공간 이미지 상의 복수의 벽면 중 특정 벽면이 평면적으로 묘사된 상기 특정 벽면의 벽면 이미지를 준비하는 단계, 상기 벽면 이미지 상의 특정 위치에 특정 크기로 하나 이상의 작품 이미지를 오버랩하여 배치시키는 단계, 상기 벽면 이미지 상에 상기 하나 이상의 작품 이미지가 오버랩되어 배치된 상기 특정 벽면의 스냅샷 이미지를 생성하는 단계, (a) 상기 공간 이미지 상의 상기 특정 벽면의 상기 스케일 및 기울기 값, (b) 상기 스냅샷 이미지를 이용하여 상기 공간 이미지 상의 상기 특정 벽면 상에 상기 스냅샷 이미지를, 상기 공간 이미지의 입체감 요소를 따르도록, 오버랩하여 배치시켜 전시 이미지를 생성하는 단계, 상기 전시 이미지 상의 복수의 벽면을 분석하여, 상기 전시 이미지의 복수의 벽면의 상기 전시 공간 상의 3차원 좌표를 획득하는 단계, 및 상기 전시 이미지의 분석 결과를 이용하여 상기 전시 이미지에 상응하는 3차원 VR 데이터를 생성하는 단계를 포함한다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
상술한 본 발명에 의하면, (3차원 엔진을 이용한 복잡한 제작 과정을 거치지 않고도) 2.5차원의 입체적인 전시 이미지를 이용하여 3차원 VR 데이터를 자동적으로 생성함으로써, 2.5차원 가상 전시 공간을 3차원의 가상현실 공간으로 확장하여 신속하고 효율적인 VR 전시 서비스가 가능하게 할 수 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 가상 전시 공간 제공 서비스가 적용되는 환경을 개략적으로 도시한 블록도이다.
도 2는 본 발명의 실시예에 따른 가상 전시 공간 제공 방법의 공간 이미지 설정 과정을 개략적으로 도시한 흐름도이다.
도 3은 전시 공간이 입체적으로 묘사된 공간 이미지를 개략적으로 도시한 도면이다.
도 4는 공간 이미지가 사용자 단말기를 통해서 사용자에게 제공되는 것을 개략적으로 도시한 도면이다.
도 5 내지 도 6은 복수의 벽면의 스케일과 기울기 값을 분석하는 것을 설명하기 위하여 개략적으로 도시한 도면이다.
도 7은 본 발명의 실시예에 따른 가상 전시 공간 제공 방법의 작품 등록 과정을 개략적으로 도시한 흐름도이다.
도 8 내지 도 9는 특정 벽면의 벽면 이미지 상에 작품 이미지를 배치시키는 것을 설명하기 위하여 개략적으로 도시한 도면이다.
도 10은 본 발명의 실시예에 따른 가상 전시 공간 제공 방법의 작품 관람 과정을 개략적으로 도시한 흐름도이다.
도 11 내지 도 12는 공간 이미지 상에 스냅샷 이미지를 오버랩하여 배치시켜 전시 이미지를 생성하는 것을 설명하기 위하여 개략적으로 도시한 도면이다.
도 13은 본 발명의 실시예에 따른 가상 전시 공간 제공 방법에 의해 생성된 전시 이미지의 예시를 개략적으로 도시한 도면이다.
도 14는 전시 이미지에 상응하는 3차원 VR 데이터가 생성되어 제공되는 환경을 개략적으로 도시한 블록도이다.
도 15는 본 발명의 실시예에 따른 3차원 VR 데이터 생성 방법을 개략적으로 도시한 흐름도이다.
도 16은 전시 이미지를 분석하여 3차원 좌표를 획득하는 것을 설명하기 위하여 개략적으로 도시한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
본 명세서에서 "2.5 차원"은 2차원의 평면 상에서 객체를 입체적인 형태로 묘사하여 표현하는 것을 의미하며, "2.5 차원화"는 2차원의 객체를 2.5차원의 객체로 변환하는 것을 의미한다. 2.5차원은 사람의 인지적 착시에 기반한다.
본 명세서에서 "작품 이미지"는 아티스트에 의한 창작물로서의 사진, 그림, 및 그 밖의 이미지의 형태로 표현 가능한 임의의 창작물의 이미지를 포함한다.
본 명세서에서 "가상 전시 공간"은 네트워크 상에 존재하는 사이버 공간으로서 전시 이미지 및 작품 이미지에 관한 각종 데이터 및 정보의 열람이 가능한 장소적 의미로 사용된다.
본 명세서에서 "3차원 VR 데이터"는 3차원의 가상현실(Virtual Reality; VR) 공간을 정의하는 데이터로서, VR 서비스로 제공 가능한 콘텐츠 데이터를 의미한다.
도 1은 가상 전시 공간 제공 서비스가 적용되는 환경을 개략적으로 도시한 블록도이다.
도 1을 참조하면, 사용자 단말기(100)와 서버(200)가 네트워크를 통해서 서로 연결된다. 사용자 단말기(100)와 서버(200)는 각종 데이터 및/또는 정보를 송수신할 수 있다. 네트워크는 유선 또는 무선 네트워크를 포함한다. 네트워크의 규모, 토폴로지, 통신 방식 등은 실시예에 따라 다양하게 변형되어 제공될 수 있다.
사용자 단말기(100)는 사용자에 의해 사용되는 컴퓨터 시스템을 나타낸다. 예를 들어, 사용자 단말기(100)는 스마트폰, 태블릿, PDA(Personal Digital Assistant) 등과 같은 모바일 컴퓨터 시스템으로 제공될 수 있다. 또는, 사용자 단말기(100)는 노트북, 데스크톱 등과 같은 고정형 컴퓨터 시스템으로 제공될 수 있다. 사용자 단말기(100)는 상술한 예시에 제한되지 않으며, 네트워크를 통해서 서버(200)와 연결 가능하고 디스플레이를 갖춘 임의의 컴퓨터 시스템으로 제공될 수 있다. 사용자 단말기(100)는 서버(200)와 연동하기 위한 애플리케이션을 저장하고 실행할 수 있다. 애플리케이션은 각종 명령어, 데이터 및 정보를 포함할 수 있다.
서버(200)는 가상 전시 공간을 제공한다. 서버(200)는 사용자 단말기(100)로부터의 요청에 따라 사용자 단말기(100)에게 전시 이미지를 제공한다. 전시 이미지는 후술하는 바와 같이 입체적인 이미지로 제공된다. 일부 실시예에서, 전시 이미지는 투시 원근법에 의하여 드로잉된다. 또한, 전시 이미지는 소정의 시점(view point)과 소정의 개수의 소실점(vanishing point)을 갖도록 드로잉된다. 투시 원근법에 관한 상세한 설명은 본 발명의 요지를 흐릴 수 있으므로 생략한다.
후술하는 바와 같이, 입체적인 전시 이미지를 생성하기 위하여 스냅샷 이미지가 이용된다. 스냅샷 이미지는 벽면의 평면 이미지 상에 하나 이상의 작품 이미지가 오버랩되어 배치된 이미지이다. 이러한 평면적인 스냅샷 이미지의 2.5차원화를 통해서 입체적인 전시 이미지가 생성될 수 있다.
한편, 도 1에 도시된 바와 다르게, 복수의 사용자 단말기(100)가 서버(200)와 서로 연결될 수 있다. 하나의 사용자 단말기(100)는 제1 사용자에 의해 사용되고, 다른 하나의 사용자 단말기(100)는 제2 사용자에 의해 사용될 수 있다. 제1 사용자는 가상 전시 공간의 관리자(예를 들어, 아티스트, 큐레이터 또는 콜렉터 등)로서 후술하는 바와 같이 전시를 위한 작품 이미지를 등록한다. 제2 사용자는 가상 전시 공간의 관람자로서 후술하는 바와 같이 전시 이미지 및 작품 이미지를 열람하고 관람한다. 하나의 사용자가 동시에 제1 사용자 및 제2 사용자로 분류될 수 있음은 자명하게 이해될 것이다.
도 2는 본 발명의 실시예에 따른 가상 전시 공간 제공 방법의 공간 이미지 설정 과정을 개략적으로 도시한 흐름도이다.
도 2를 참조하면, 단계 S310에서, 서버(200)가 전시 공간이 입체적으로 묘사된 공간 이미지를 준비한다. 공간 이미지는 가상의 (즉, 존재하지 않는) 전시 공간을 정의한다. 공간 이미지는 애플리케이션에 내재되어 사용자 단말기(100) 내에 사전 저장될 수 있다.
도 3은 전시 공간이 입체적으로 묘사된 공간 이미지를 개략적으로 도시한 도면이다.
도 3에 도시된 바와 같이, 일부 실시예에서, 공간 이미지(10)는 투시 원근법에 의하여 드로잉된다. 또한, 공간 이미지(10)는 복수의 1점 투시도 또는 2점 투시도가 일체화된 형태를 가질 수 있다. 즉, 공간 이미지(10)는 복수의 시점과 각각의 시점에 상응하는 하나 이상의 소실점을 갖도록 드로잉된다.
공간 이미지(10) 내에서 전시 공간은 복수의 면을 포함한다. 여기서, 면은 복수의 벽면(A)과 천장면(B), 바닥면(C)을 포함한다. 일부 실시예에서, 천장면(B)은 천장이 생략되어 개방된 형태로 묘사될 수 있다. 후술하는 바와 같이, 일반적으로, 벽면(A)이 작품 이미지의 배치 및 전시를 위하여 이용될 것이나, 일부 실시예에서, 천장면(B) 또는 바닥면(C)도 작품 이미지의 배치 및 전시를 위하여 이용될 수 있다. 벽면(A)의 개수는 실시예에 따라 다양하게 증감할 수 있다. 벽면(A)의 배치 형태도 실시예에 따라 다양하게 변형될 수 있다.
한편, 도 3에는 명확하게 도시되지 않았으나, 일부 실시예에서, 공간 이미지(10)에는 빛, 명암, 색상, 그리고 그림자 등이 더 묘사될 수 있다. 또한, 공간 이미지(10)에는 작품 이외의 (인테리어 디자인용) 사물들이 더 묘사될 수 있다.
일부 실시예에서, 공간 이미지(10)에 의해서 정의되는 전시 공간의 각각의 벽면(A)의 비율은 통일되게끔 고정될 수 있다. 즉, 복수의 벽면(A)의 가로 대 세로 비율이 서로 동일한 값으로 고정될 수 있다. 상기 비율은 사전에 결정될 수 있다. 한편, 복수의 벽면(A)의 크기가 통일되게 고정되는 것은 아니다. 예를 들어, 복수의 벽면(A)의 비율이 16:9로 일반적인 모바일 컴퓨터 시스템의 화면 비율로 고정될 수 있다. 이로써, 후술하는 바와 같이, 평면적으로 묘사된 벽면 이미지 또는 스냅샷 이미지를 사용자에게 제공하는 때에 상기 이미지가 사용자 단말기(100)의 화면의 전체 영역에 가득차게 표시될 수 있다. 한편, 복수의 벽면(10)의 비율이 상기 예시에 제한되는 것은 아니다.
도 4는 공간 이미지가 사용자 단말기를 통해서 사용자에게 제공되는 것을 개략적으로 도시한 도면이다. 도 4는 사용자 단말기(100)가 스마트폰인 경우를 예시로 한다.
도 4에 도시된 바와 같이, 공간 이미지(10)는 수평 방향으로 길게 연장된 형태를 가지므로, 사용자 단말기(100)의 화면에 표시될 수 있는 영역은 제한된다. 가상의 전시 공간 내의 사용자의 시선의 위치에 따라 일부 벽면(예를 들어, 13)은 사용자 단말기(100)의 화면에 표시되고, 다른 일부 벽면(예를 들어, 11, 15)은 사용자 단말기(100)의 화면에 표시되지 않는다. 사용자의 시선의 위치가 이동함에 따라 사용자 단말기(100)의 화면에 표시되는 공간 이미지(10)의 영역이 변경될 수 있다. 사용자의 시선의 위치는 단속적으로 또는 연속적으로 이동할 수 있다. 사용자의 시선의 위치를 이동시키기 위한 조작은 다양한 방식으로 이루어질 수 있다.
한편, 후술하는 전시 이미지(50)도 공간 이미지(10)와 마찬가지로 사용자 단말기(100)의 화면에 표시될 수 있는 영역이 제한된다.
일부 실시예에서, 공간 이미지(10)는 수직 방향으로 길게 연장된 형태를 가질 수도 있다.
다시 도 2를 참조하면, 이어서, 단계 S320에서, 서버(200)가 공간 이미지(10) 상의 복수의 벽면을 분석한다. 공간 이미지(10)의 분석 결과, 서버(200)는 공간 이미지(10)의 복수의 벽면의 스케일을 획득하고, 복수의 벽면의 기울기 값을 획득한다. 여기서, 획득된 각각의 벽면의 스케일과 기울기 값은 후술하는 스냅샷 이미지의 조정에 이용된다.
도 5 내지 도 6은 복수의 벽면의 스케일과 기울기 값을 분석하는 것을 설명하기 위하여 개략적으로 도시한 도면이다. 도 5 내지 도 6은 특정 벽면(13)의 스케일과 기울기 값을 분석하는 경우를 예시로 한다.
도 5를 참조하면, 스케일은 전시 공간 대비 벽면의 비율을 의미한다. 즉, 스케일은 공간 이미지(10) 상에서 묘사된 전시 공간의 전체 면적(S2) 대비 각각의 벽면(13)의 면적(S1)의 비율(S1:S2)을 의미한다.
도 6을 참조하면, 기울기 값은, 사용자의 시점이 공간 이미지(10) 내의 각각의 벽면(13)의 정면에 위치한다고 가정하는 경우, 각각의 벽면이 평면 상에서 시계 방향 또는 반시계 방향으로 기울어진 정도를 나타낸다. 서버(200)는 공간 이미지(10)의 복수의 벽면(13)의 네 모서리 좌표를 획득하고, 복수의 벽면(13)의 고정된 비율(예를 들어, 16:9) 및 복수의 벽면(13)의 네 모서리 좌표에 기초하여 복수의 벽면(130)의 기울기 값을 획득할 수 있다.
도 6은 가상의 전시 공간에서 특정 벽면(13)을 평면 상에서 바라본 모습(즉, 평면도)을 도시한다. 서버(200)는 도 6에 도시된 바와 같은 θ1 또는 θ2의 각도를 기울기 값으로 획득한다.
도 7은 본 발명의 실시예에 따른 가상 전시 공간 제공 방법의 작품 등록 과정을 개략적으로 도시한 흐름도이다.
도 7을 참조하면, 단계 S410에서, 사용자 단말기(100)가 전시 공간이 입체적으로 묘사된 공간 이미지(10)를 화면에 디스플레이한다. 공간 이미지(10)는 전시 공간별로 각각 제공될 수 있다. 제1 사용자는 복수의 전시 공간 중 특정 전시 공간을 선택할 수 있고, 사용자 단말기(100)는 선택된 전시 공간이 묘사된 공간 이미지(10)를 화면에 디스플레이할 수 있다.
이어서, 단계 S420에서, 사용자 단말기(100)가 공간 이미지(10) 상의 복수의 벽면 중 특정 벽면에 대한 제1 사용자의 선택을 수신한다. 이어서, 단계 S430에서, 사용자 단말기(100)가 특정 벽면이 평면적으로 묘사된 특정 벽면의 벽면 이미지를 화면에 디스플레이한다. 이어서, 사용자 단말기(100)가 벽면 이미지 상의 특정 위치에 특정 크기로 하나 이상의 작품 이미지를 오버랩하여 배치시키는 제1 사용자의 명령을 수신한다. 그리고, 사용자 단말기(100)는 상기 특정 위치 및 특정 크기를 포함하는 하나 이상의 작품 이미지의 배치 정보를 획득한다.
도 8 내지 도 9는 특정 벽면의 벽면 이미지 상에 작품 이미지를 배치시키는 것을 설명하기 위하여 개략적으로 도시한 도면이다. 도 8 내지 도 9는 사용자 단말기(100)가 스마트폰인 경우를 예시로 한다.
도 8을 참조하면, 사용자 단말기(100)가 공간 이미지(10)를 화면에 디스플레이하고, 제1 사용자는 공간 이미지(10) 상의 복수의 벽면 중 특정 벽면(13)을 터치 등의 방식으로 선택할 수 있다.
도 9를 참조하면, 사용자 단말기(100)가 특정 벽면(13)이 평면적으로 묘사된 벽면 이미지(23)를 화면에 디스플레이한다. 벽면 이미지(23)는 작품이 배치되지 않은 상태의 벽면을 묘사한다. 일부 실시예에서, 벽면 이미지(23)가 사용자 단말기(100)의 화면의 전체 영역에 표시된다. 제1 사용자는 사용자 단말기(200) 또는 클라우드 저장소 등에 저장된 하나 이상의 작품 이미지(31, 32)를 선택하여 벽면 이미지(23) 상에 오버랩하여 배치시킬 수 있다. 제1 사용자는 하나 이상의 작품 이미지(31, 32)를 특정 위치에 특정 크기로 조정하여 배치시킬 수 있다. 도 9에는 두 개의 작품 이미지(31, 32)가 도시되어 있으나, 하나 또는 셋 이상의 작품 이미지가 배치될 수도 있다. 사용자 단말기(100)가 스마트폰인 경우, 하나 이상의 작품 이미지(31, 32)를 배치시키기 위한 제1 사용자의 명령은 터치 또는 특정 제스쳐로 제공될 수 있다. 또한, 제1 사용자의 명령은 하나 이상의 작품 이미지(31, 32)의 이동, 회전, 확대 및 축소 중 하나 이상을 포함할 수 있다.
일부 실시예에서, 작품 이미지(31)의 위치는 작품 이미지(31)의 소정의 하나 이상의 모서리(P1)의 좌표 또는 중앙(P2)의 좌표에 의해서 정의될 수 있다. 여기서, 좌표는 작품 이미지(31)가 배치되는 특정 벽면과 상대적인 관계에서 정의된다(즉, 특정 벽면의 좌표계). 예를 들어, 특정 벽면의 소정의 모서리의 좌표가 (0,0)으로 정의되는 것이다. 일부 실시예에서, 작품 이미지(31)의 크기는 특정 벽면의 전체 너비(wd2) 대비 각각의 작품 이미지(31)의 너비(wd1)의 비율(wd1:wd2)로 정의될 수 있다. 그러나, 작품 이미지(31)의 위치와 크기를 정의하는 방식이 이에 제한되는 것은 아니다.
이어서, 단계 S450에서, 사용자 단말기(100)가 벽면 이미지(23) 상에 하나 이상의 작품 이미지가 오버랩되어 배치된 특정 벽면의 스냅샷 이미지를 생성한다. 즉, 하나 이상의 작품 이미지가 배치된 벽면 이미지를 촬영 또는 캡처하듯 스냅샷 이미지를 생성한다. 스냅샷 이미지는 후술하는 바와 같이 작품 이미지 등을 서버(200)로부터 수신하여 로딩하기 전에 임시적으로(또는, 일시적으로) 화면에 디스플레이함으로써 사용자가 체감하는 로딩 시간을 감소시키기 위한 용도로 사용된다. 일부 실시예에서, 스냅샷 이미지의 품질은 사전 결정되며, 작품 이미지의 품질보다 낮을 수 있다. 데이터의 크기를 줄이고 로딩 시간을 감소시키기 위함이다. 일부 실시예에서, 스냅샷 이미지는 작품이 배치된 벽면에 한하여 생성될 수 있다.
이어서, 단계 S460에서, 사용자 단말기(100)가 특정 벽면의 식별 정보, 하나 이상의 작품 이미지의 배치 정보, 스냅샷 이미지(43) 및 하나 이상의 작품 이미지(31, 32)를 서버(200)에 전송한다.
도 10은 본 발명의 실시예에 따른 가상 전시 공간 제공 방법의 작품 관람 과정을 개략적으로 도시한 흐름도이다.
도 10을 참조하면, 단계 S510 단계에서, 사용자 단말기(100)가 전시 공간이 입체적으로 묘사된 공간 이미지(10)를 준비한다. 공간 이미지(10)는 전시 공간별로 각각 제공될 수 있다. 제2 사용자는 복수의 전시 공간 중 특정 전시 공간을 선택할 수 있고, 사용자 단말기(100)는 선택된 전시 공간이 묘사된 공간 이미지(10)를 준비할 수 있다. 공간 이미지(10)는 애플리케이션에 내재되어 사용자 단말기(100) 내에 사전 저장될 수 있다.
이어서, 단계 S520에서, 사용자 단말기(100)가 공간 이미지(10) 상의 복수의 벽면 중 특정 벽면의 식별 정보 및 특정 벽면이 평면적으로 묘사되고 특정 벽면 상의 특정 위치에 특정 크기로 하나 이상의 작품이 배치되어 묘사된 상기 특정 벽면의 스냅샷 이미지를 서버(200)로부터 수신한다. 즉, 사용자 단말기(100)가 단계 S450에서 생성된 특정 벽면의 스냅샷 이미지를 수신한다. 일부 실시예에서, 사용자 단말기(100)는 작품 등록 과정에서 작품 이미지가 배치된 벽면에 한하여 스냅샷 이미지를 수신한다. 또한, 사용자 단말기(100)는 하나 이상의 작품 이미지의 배치 정보 및 하나 이상의 작품 이미지(31, 32)를 서버(200)로부터 수신한다.
이어서, 단계 S530에서, 사용자 단말기(100)가 특정 벽면의 식별 정보에 상응하는 공간 이미지(10) 상의 특정 벽면의 스케일 및 기울기 값, 스냅샷 이미지를 이용하여 스냅샷 이미지를 공간 이미지(10)의 입체감 요소를 따르도록 조정하고, 공간 이미지(10) 상의 특정 벽면 상에 오버랩하여 배치시켜 전시 이미지를 생성한다. 이어서, 단계 S540에서, 사용자 단말기(100)가 전시 이미지를 화면에 디스플레이한다. 여기서, "입체감 요소를 따르도록"이란 원본의 평면적 묘사와 달리 공간 이미지(10) 상의 특정 벽면과 동일한 시점 및 소실점을 갖도록 투시 원근법에 의하여 조정하는 것을 의미한다. 입체감 요소는 예를 들어 시점 또는 소실점을 포함할 수 있다.
도 11 내지 도 12는 공간 이미지 상에 스냅샷 이미지를 오버랩하여 배치시켜 전시 이미지를 생성하는 것을 설명하기 위하여 개략적으로 도시한 도면이다.
도 11을 참조하면, 사용자 단말기(100)가 공간 이미지(10)를 준비한다. 도 11에서는 사용자 단말기(100)가 공간 이미지(10)를 화면에 디스플레이하는 것으로 도시되어 있으나, 이는 공간 이미지(10)와 전시 이미지(50)의 대비를 통해 본 발명의 이해를 돕기 위한 것으로서, 사용자 단말기(100)가 실제로 공간 이미지(10)를 화면에 디스플레이하는 것은 아니다. 공간 이미지(10)는 전시 공간을 묘사할 뿐이므로, 공간 이미지(10)의 특정 벽면(13) 상에는 작품 이미지가 배치되어 있지 않다. 사용자 단말기(100)는, 작품 이미지가 아니라, 상술한 작품 등록 과정에서 생성된 스냅샷 이미지(43)를 서버(200)로부터 수신한다. 그리고, 사용자 단말기(100)는 스냅샷 이미지(43)를 공간 이미지(10)의 입체감 요소를 따르도록 조정하고, 공간 이미지(10) 상의 특정 벽면(13) 상에 오버랩하여 배치시켜 전시 이미지(50)를 생성한다. 전시 이미지(50)는 공간 이미지(10)와 스냅샷 이미지(43)가 합성된 형태로 생성된다. 특히, 하나의 벽면에 다수 개의 작품 이미지가 배치되어 있는 경우, 다수 개의 작품 이미지가 배치되어 있는 벽면에 관한 하나의 스냅샷 이미지만이 서버(200)로부터 수신된다. 그리고, 상기 스냅샷 이미지가 전시 이미지의 생성에 사용된다.
이어서, 단계 S550에서, 사용자 단말기(100)는 전시 이미지(50) 상의 복수의 벽면 중 특정 벽면에 대한 제2 사용자의 선택을 수신한다. 이어서, 단계 S560에서, 사용자 단말기(100)가 특정 벽면이 평면적으로 묘사되고 특정 벽면 상의 특정 위치에 특정 크기로 하나 이상의 작품이 배치되어 묘사된 상기 특정 벽면의 스냅샷 이미지를 디스플레이한다. 이어서, 단계 S570에서, 사용자 단말기(100)는 스냅샷 이미지 상의 하나 이상의 작품 중 특정 작품에 대한 제2 사용자의 선택을 수신한다.
이어서, 단계 S580에서, 사용자 단말기(100)가 상기 특정 작품의 작품 이미지(예를 들어, 31)의 배치 정보를 이용하여 상기 특정 작품의 작품 이미지를 화면에 디스플레이 한다. 작품 이미지의 배치 정보는 특정 작품의 선택 영역을 판단하기 위하여 이용될 수 있다. 또한, 작품 이미지의 배치 정보는 작품 이미지를 화면에 디스플레이하는 과정에서 애니메이션 등의 효과를 제공하기 위하여 이용될 수 있다. 사용자는 작품 이미지를 선택하고 확대하여 관람할 수도 있다. 이로써, 제2 사용자는 전시 이미지(50) 및 스냅샷 이미지 외에도 각각의 작품 이미지를 상세하게 관람할 수 있다.
도 13은 본 발명의 실시예에 따른 가상 전시 공간 제공 방법에 의해 생성된 전시 이미지의 예시를 개략적으로 도시한 도면이다.
도 13 (a)의 전시 이미지는 일반적인 갤러리와 유사한 가상의 전시 공간을 제공하며, 도 13 (b)의 전시 이미지는 일반적인 갤러리와 전혀 다른 실외 공간이면서 동시에 벽면이 투명한 형태의 가상의 전시 공간을 제공한다.
도 13 (a) 및 도 13 (b)의 전시 이미지 모두 사용자 단말기(100)의 화면에 표시되는 영역만을 도시하였다.
사용자 단말기는 프로세서 및 메모리를 포함한다. 메모리는 프로세서에 의해 실행되도록 구성되는 컴퓨터 프로그램을 저장한다. 컴퓨터 프로그램은 본 발명의 실시예에 관련하여 설명된 방법 또는 알고리즘의 단계들을 실행하기 위한 명령어들을 포함한다.
도 14는 전시 이미지에 상응하는 3차원 VR 데이터가 생성되어 제공되는 환경을 개략적으로 도시한 블록도이다.
도 14를 참조하면, 사용자 단말기(100)가 전시 이미지(50)을 이용하여 3차원 VR 데이터(60)를 생성한다. 그리고, 사용자 단말기(100)가 3차원 VR 데이터(60)를 VR 단말기(600)에 제공하여, 사용자가 3차원의 가상현실 공간을 체험할 수 있도록 한다. 일부 실시예에서, 3차원 VR 데이터(60)는 VR 단말기(600)에 적합한 포맷, 구조 또는 형태로 후처리될 수 있다. 도 14에서는 설명을 위하여 VR 단말기(600)가 HMD(Head Mounted Display) 유형으로 도시되었으나, 이에 제한되는 것은 아니고, VR 단말기(600)는 본 발명이 속하는 기술분야에서 잘 알려진 다양한 유형으로 제공될 수 있다.
한편, 사용자 단말기(100)가 독립적으로 또는 헤드셋과 결합되어 VR 단말기로도 기능할 수 있다. 이 때에는, 사용자 단말기(100)가 3차원 VR 데이터(60)를 사용자에게 직접 제공할 수 있다.
또한, 사용자 단말기(100)에 의해서 생성된 전시 이미지(50)가 서버(200)로 전송되는 경우, 서버(200)가 전시 이미지(50)를 이용하여 3차원 VR 데이터(60)를 생성할 수도 있다. 이러한 경우, 사용자 단말기(100)는 서버(200)로부터 3차원 VR 데이터(60)를 수신하고, 3차원 VR 데이터(60)를 VR 단말기(600)에 또는 사용자에게 직접 제공할 수 있다.
도 15는 본 발명의 실시예에 따른 3차원 VR 데이터 생성 방법을 개략적으로 도시한 흐름도이다.
도 15를 참조하면, 단계 S710에서, 사용자 단말기(100)가 전시 이미지(50)를 분석한다. 사용자 단말기(100)는 전시 이미지(50) 상의 복수의 벽면을 분석하여, 전시 이미지(50)의 복수의 벽면의 전시 공간 상의 3차원 좌표를 획득한다.
도 16은 전시 이미지를 분석하여 3차원 좌표를 획득하는 것을 설명하기 위하여 개략적으로 도시한 도면이다. 도 16은 특정 벽면(53)의 전시 공간 상의 3차원 좌표를 획득하는 경우를 예시로 한다.
도 16을 참조하면, 가상의 전시 공간에서 특정 벽면(53)을 정면 상에서 바라본 모습(즉, 정면도)와 평면 상에서 바라본 모습(즉, 평면도)가 함께 도시된다.
벽면(53)의 전시 공간 상의 평면 좌표의 획득을 위하여, 벽면(13)의 네 모서리 좌표가 이용될 수 있다. 전시 이미지(50)의 벽면(53)이 공간 이미지(10)의 벽면(13)과 서로 상응하면, 벽면(53)의 네 모서리 좌표로 벽면(13)의 네 모서리 좌표가 동일하게 이용될 수 있다. 평면 좌표는 전시 공간 상의 객체의 폭과 높이를 정의한다.
그리고, 벽면(53)의 전시 공간 상의 깊이 좌표의 획득을 위하여 벽면(53)의 기울기 값이 이용될 수 있다. 벽면(53)의 기울기 값은 θ1 또는 θ2의 각도로 획득될 수 있다. 벽면(53)의 기울기 값도 상술한 서버(200)에 의한 공간 이미지(10)의 분석 결과를 이용하여 획득될 수 있다. 즉, 전시 이미지(50)의 벽면(53)이 공간 이미지(10)의 벽면(13)과 서로 상응하면, 벽면(53)의 기울기 값으로 벽면(13)의 기울기 값이 동일하게 이용될 수 있다. 본 발명의 실시예에서는 왼손(left-handed) 좌표계가 사용되었으나, 실시예에 따라 오른손(right-handed) 좌표계로 변형되어 사용될 수 있음은 통상의 기술자에게 자명한 사항일 것이다.
벽면(53)의 전시 공간 상의 상대적인 깊이 좌표는, 도 16에 도시된 바와 같이, 벽면(53)의 평면 좌표, 벽면(53)의 폭(d) 및 각종 삼각함수를 이용하여 계산될 수 있다. 도 16에서는, 예를 들어, 벽면(53)의 하부의 두 모서리 간의 상대적인 깊이 차이(z1 - z2)가 계산될 수 있다. 벽면(53)의 폭(d)은 사전 결정될 수 있고, 벽면(53)의 고정된 비율 또는 상술한 기울기 값 등을 이용하여 계산될 수도 있다.
일부 실시예에서, 벽면(13)의 기울기 값이 획득되는 과정에서, 벽면(13)의 전시 공간 상의 깊이 좌표가 획득될 수도 있다. 이 경우, 전시 이미지(50)의 벽면(53)이 공간 이미지(10)의 벽면(13)과 서로 상응하면, 벽면(53)의 깊이 좌표로 벽면(13)의 깊이 좌표가 동일하게 이용될 수 있다.
일부 실시예에서, 3차원 좌표 획득을 위하여, 전시 공간 상의 사용자의 시점과 특정 벽면 간의 깊이 차이가 추가적으로 고려될 수 있다.
실시예에 따라, 3차원 좌표는 사용자의 시점을 기준으로 하는 상대 좌표 또는 절대 좌표의 유형으로 획득될 수 있다.
이어서, 단계 S720에서, 사용자 단말기(100)가 상기 전시 이미지(50)의 분석 결과를 이용하여 전시 이미지(50)에 상응하는 3차원 VR 데이터(60)를 생성한다.
이어서, 단계 S730에서, 사용자 단말기(100)가 3차원 VR 데이터를 VR 단말기(600)를 통해서 또는 직접적으로 사용자에게 제공한다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어(예를 들어, 주문형 반도체)로 직접 구현되거나, 프로세서에 의해 실행되는 소프트웨어 모듈(예를 들어, 컴퓨터 프로그램)로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 기록될 수 있다.
상술한 본 발명의 실시예에 의하면, (3차원 엔진을 이용한 복잡한 제작 과정을 거치지 않고도) 2.5차원의 입체적인 전시 이미지를 이용하여 3차원 VR 데이터를 자동적으로 생성함으로써, 2.5차원 가상 전시 공간을 3차원의 가상현실 공간으로 확장하여 신속하고 효율적인 VR 전시 서비스가 가능하게 할 수 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.

Claims (10)

  1. 컴퓨터에 의해 실현되는 방법으로서,
    복수의 벽면을 포함하는 전시 공간이 입체적으로 묘사된 공간 이미지를 준비하는 단계;
    상기 공간 이미지 상의 복수의 벽면을 분석하여, 상기 공간 이미지의 복수의 벽면의 상기 전시 공간 대비 스케일 및 기울기 값을 획득하는 단계;
    상기 공간 이미지 상의 복수의 벽면 중 특정 벽면이 평면적으로 묘사된 상기 특정 벽면의 벽면 이미지를 준비하는 단계;
    상기 벽면 이미지 상의 특정 위치에 특정 크기로 하나 이상의 작품 이미지를 오버랩하여 배치시키는 단계;
    상기 벽면 이미지 상에 상기 하나 이상의 작품 이미지가 오버랩되어 배치된 상기 특정 벽면의 스냅샷 이미지를 생성하는 단계;
    (a) 상기 공간 이미지 상의 상기 특정 벽면의 상기 스케일 및 기울기 값, (b) 상기 스냅샷 이미지를 이용하여 상기 공간 이미지 상의 상기 특정 벽면 상에 상기 스냅샷 이미지를, 상기 공간 이미지의 입체감 요소를 따르도록, 오버랩하여 배치시켜 전시 이미지를 생성하는 단계;
    상기 전시 이미지 상의 복수의 벽면을 분석하여, 상기 전시 이미지의 복수의 벽면의 상기 전시 공간 상의 3차원 좌표를 획득하는 단계; 및
    상기 전시 이미지의 분석 결과를 이용하여 상기 전시 이미지에 상응하는 3차원 VR 데이터를 생성하는 단계를 포함하는,
    3차원 VR 데이터 생성 방법.
  2. 제1항에 있어서,
    상기 공간 이미지는 복수의 1점 투시도 또는 2점 투시도가 일체화된 형태를 갖는,
    3차원 VR 데이터 생성 방법.
  3. 제1항에 있어서,
    상기 복수의 벽면의 가로 대 세로 비율은 서로 동일한 값으로 고정되는,
    3차원 VR 데이터 생성 방법.
  4. 제1항에 있어서,
    상기 전시 이미지 상의 복수의 벽면을 분석하여, 상기 전시 이미지의 복수의 벽면의 상기 전시 공간 상의 3차원 좌표를 획득하는 단계는,
    상기 공간 이미지의 분석 결과를 이용하는,
    3차원 VR 데이터 생성 방법.
  5. 제4항에 있어서,
    상기 공간 이미지 상의 복수의 벽면을 분석하여, 상기 공간 이미지의 복수의 벽면의 상기 전시 공간 대비 스케일 및 기울기 값을 획득하는 단계는,
    상기 공간 이미지의 복수의 벽면의 네 모서리 좌표를 획득하는 단계와,
    상기 복수의 벽면의 고정된 가로 대 세로 비율 및 상기 공간 이미지의 복수의 벽면의 네 모서리 좌표에 기초하여 상기 공간 이미지의 복수의 벽면의 기울기 값을 획득하는 단계를 포함하는,
    3차원 VR 데이터 생성 방법.
  6. 제5항에 있어서,
    상기 전시 이미지 상의 복수의 벽면을 분석하여, 상기 전시 이미지의 복수의 벽면의 상기 전시 공간 상의 3차원 좌표를 획득하는 단계는,
    상기 공간 이미지의 복수의 벽면의 기울기 값을 이용하여 상기 전시 이미지의 복수의 벽면의 상기 전시 공간 상의 깊이 좌표를 획득하는,
    3차원 VR 데이터 생성 방법.
  7. 제6항에 있어서,
    상기 전시 이미지 상의 복수의 벽면을 분석하여, 상기 전시 이미지의 복수의 벽면의 상기 전시 공간 상의 3차원 좌표를 획득하는 단계는,
    상기 공간 이미지의 복수의 벽면의 네 모서리 좌표를 이용하여 상기 전시 이미지의 복수의 벽면의 상기 전시 공간 상의 평면 좌표를 획득하는,
    3차원 VR 데이터 생성 방법.
  8. 제1항에 있어서,
    상기 3차원 VR 데이터를 사용자에게 제공하는 단계를 더 포함하는,
    3차원 VR 데이터 생성 방법.
  9. 프로세서; 및
    상기 프로세서에 의해 실행되도록 구성되는 컴퓨터 프로그램을 저장하는 메모리를 포함하며,
    상기 컴퓨터 프로그램은 제1항 내지 제8항 중 어느 하나의 항의 3차원 VR 데이터 생성 방법을 실행하기 위한 명령어들을 포함하는,
    컴퓨터.
  10. 컴퓨터와 결합되어, 제1항 내지 제8항 중 어느 하나의 항의 3차원 VR 데이터 생성 방법을 실행시키기 위하여 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램.
PCT/KR2019/010368 2018-09-05 2019-08-14 2.5차원 가상 전시 공간을 이용한 3차원 vr 데이터 생성 방법 WO2020050516A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180105676A KR102121397B1 (ko) 2018-09-05 2018-09-05 2.5차원 가상 전시 공간을 이용한 3차원 vr 데이터 생성 방법
KR10-2018-0105676 2018-09-05

Publications (1)

Publication Number Publication Date
WO2020050516A1 true WO2020050516A1 (ko) 2020-03-12

Family

ID=69721563

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/010368 WO2020050516A1 (ko) 2018-09-05 2019-08-14 2.5차원 가상 전시 공간을 이용한 3차원 vr 데이터 생성 방법

Country Status (2)

Country Link
KR (1) KR102121397B1 (ko)
WO (1) WO2020050516A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112734947A (zh) * 2020-12-29 2021-04-30 贝壳技术有限公司 在vr房屋中进行3d内容投放方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090090983A (ko) * 2008-02-22 2009-08-26 이병국 복수의 카메라 영상을 이용한 공간좌표 추출방법
KR20140082610A (ko) * 2014-05-20 2014-07-02 (주)비투지 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치
KR101647371B1 (ko) * 2015-04-08 2016-08-10 (주)선도솔루션 텍스트정보를 포함하는 stl 파일과, 이를 이용한 stl 파일 검색 및 관리시스템
KR20170051019A (ko) * 2015-11-02 2017-05-11 백명섭 전시자 맞춤형 3차원 가상 갤러리 관리 방법
KR20170107581A (ko) * 2015-02-10 2017-09-25 여주희 가상 공간에서의 전시 제공 시스템 및 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150113246A (ko) 2014-03-27 2015-10-08 모젼스랩(주) 가상 전시공간 제공 시스템 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090090983A (ko) * 2008-02-22 2009-08-26 이병국 복수의 카메라 영상을 이용한 공간좌표 추출방법
KR20140082610A (ko) * 2014-05-20 2014-07-02 (주)비투지 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치
KR20170107581A (ko) * 2015-02-10 2017-09-25 여주희 가상 공간에서의 전시 제공 시스템 및 방법
KR101647371B1 (ko) * 2015-04-08 2016-08-10 (주)선도솔루션 텍스트정보를 포함하는 stl 파일과, 이를 이용한 stl 파일 검색 및 관리시스템
KR20170051019A (ko) * 2015-11-02 2017-05-11 백명섭 전시자 맞춤형 3차원 가상 갤러리 관리 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112734947A (zh) * 2020-12-29 2021-04-30 贝壳技术有限公司 在vr房屋中进行3d内容投放方法及装置
CN112734947B (zh) * 2020-12-29 2022-10-14 贝壳技术有限公司 在vr房屋中进行3d内容投放方法及装置

Also Published As

Publication number Publication date
KR102121397B1 (ko) 2020-06-10
KR20200027639A (ko) 2020-03-13

Similar Documents

Publication Publication Date Title
JP7231306B2 (ja) イメージ内のターゲットオブジェクトに自動的にアノテーションするための方法、装置およびシステム
JP6798019B2 (ja) パノラマ画像の表示制御方法、装置及び記憶媒体
US11290651B2 (en) Image display system, information processing apparatus, image display method, image display program, image processing apparatus, image processing method, and image processing program
WO2019212129A1 (ko) 효율적인 데이터 관리를 위한 가상 전시 공간 제공 방법
US20180286098A1 (en) Annotation Transfer for Panoramic Image
WO2014010909A1 (ko) 이동 자유도를 개선한 융합형 가상현실 구현 방법
WO2019216528A1 (ko) 2.5 차원화를 이용한 가상 전시 공간 제공 방법
JP2007072537A (ja) 360°画像撮影装置
US20160188275A1 (en) Vehicle-mounted terminal and method for obtaining resolution of a screen of a handheld terminal
EP3962090A1 (en) Communication terminal, image communication system, method for displaying image, and carrier means
JP2022050979A (ja) 通信端末、画像通信システム、画像表示方法およびプログラム
JP2017212510A (ja) 画像管理装置、プログラム、画像管理システム及び情報端末
JP2022057771A (ja) 通信管理装置、画像通信システム、通信管理方法及びプログラム
WO2020050516A1 (ko) 2.5차원 가상 전시 공간을 이용한 3차원 vr 데이터 생성 방법
JP7241812B2 (ja) 情報可視化システム、情報可視化方法、及びプログラム
JP2017182681A (ja) 画像処理システム、情報処理装置、プログラム
JP2019146155A (ja) 画像処理装置、画像処理方法およびプログラム
WO2021040342A2 (ko) 2d 이미지를 활용하여 3d 컨텐츠를 생성하는 영상 처리 방법 및 영상 처리 장치
CN104410793B (zh) 一种图像处理方法及电子设备
WO2019163449A1 (ja) 画像処理装置、画像処理方法およびプログラム
WO2018128424A1 (ko) 3차원 지리 정보 시스템 웹 서비스를 제공하는 방법
EP4412191A1 (en) Information processing apparatus, information processing system, and information processing method
CN116184685A (zh) 一种三维空间展示系统及方法
KR20240093013A (ko) 특정 공간에 대한 동영상과 복수의 이미지들을 이용하여 3차원 공간 모델링 데이터를 생성하는 장치 및 방법과 이를 위한 프로그램
Kawanabe et al. ChOWDER: A New Approach for Viewing 3D Web GIS on Ultra-High-Resolution Scalable Display

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19856836

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19856836

Country of ref document: EP

Kind code of ref document: A1