WO2022186417A1 - Method and system for providing immersive content by using ultra-high-definition image - Google Patents

Method and system for providing immersive content by using ultra-high-definition image Download PDF

Info

Publication number
WO2022186417A1
WO2022186417A1 PCT/KR2021/003542 KR2021003542W WO2022186417A1 WO 2022186417 A1 WO2022186417 A1 WO 2022186417A1 KR 2021003542 W KR2021003542 W KR 2021003542W WO 2022186417 A1 WO2022186417 A1 WO 2022186417A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
map
content
original image
information
Prior art date
Application number
PCT/KR2021/003542
Other languages
French (fr)
Korean (ko)
Inventor
박길홍
김선욱
이서문
Original Assignee
(주)디피어소시에이츠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210028412A external-priority patent/KR102336156B1/en
Application filed by (주)디피어소시에이츠 filed Critical (주)디피어소시에이츠
Publication of WO2022186417A1 publication Critical patent/WO2022186417A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/214Specialised server platform, e.g. server located in an airplane, hotel, hospital
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Definitions

  • the present invention relates to a method and system for realizing an ultra-high quality image, and a method and system for providing an immersive virtual exhibition space.
  • Virtual reality is a compound word of Virtual, meaning virtual, and Reality, meaning reality.
  • various efforts are being made to enable spatial and temporal experiences close to reality by directly acting on the user's five senses beyond simply realizing a virtual space.
  • Augmented reality is a technology that overlays a 3D virtual image on a real image or background and displays it as a single image.
  • Augmented reality is a technology that places a virtual object in the real space or recognizes a real object and configures a virtual space around it. effort is being made
  • extended reality is a technology that implements various more advanced services such as spatial mapping and object tracking beyond simple content display. Users can experience a 360-degree virtual view without using a headset, and a natural-like experience can be experienced by providing spatial sound. Similarly, in the case of extended reality, efforts are being made to provide realistic and lively content.
  • Patent Publication No. 2000-0054344 relates to a three-dimensional virtual reality museum/shopping mall system and an operating method thereof through the Internet, and is an invention for providing a virtual art museum.
  • One object of the present invention is to provide a method and system for realizing an ultra-high-resolution image that can feel a sense of presence and realism.
  • the present invention is to provide a method and system for realizing an ultra-high-definition image capable of generating an ultra-high-quality image that realistically expresses famous paintings and various works of art.
  • Another object of the present invention is to provide a method and system for realizing an ultra-high-definition image that can provide an experience for a user to see an actual work or an exhibition in an art gallery or museum.
  • One object of the present invention is to provide a method and system for providing an immersive virtual exhibition space that can feel a sense of presence and realism.
  • Another object of the present invention is to provide a method and system for providing an immersive virtual exhibition space in which a user can directly design a virtual exhibition space.
  • the ultra-high-definition masterpiece image implementation method includes the steps of receiving a plurality of different sculptural images corresponding to a target image, and based on the similarity of each of the plurality of sculptural images, the plurality of Combining the pieces of images, applying a canvas map to the original image so that the original image generated as a result of the combination has a predetermined texture, and applying the canvas map to the original image to which the canvas map is applied , applying a normal map to reflect reflection characteristics of virtual light incident on the virtual space.
  • the plurality of fragment images may be images satisfying a preset resolution criterion, and any one of the plurality of fragment images may include image information that at least partially overlaps with the other one.
  • edge blending may be performed on the combined fragment images.
  • the edge blending may be such that the mutually overlapping image information of each of the first fragment image and the second fragment image including mutually overlapping image information among the plurality of fragment images overlap.
  • the original image to which the canvas map is applied may be generated by synthesizing a layer corresponding to the predetermined texture with the original image.
  • the step of applying the normal map may be performed based on light source information defining at least one of a location, a shape, an intensity, and a direction of light for a virtual light source.
  • the reflection angle for each pixel constituting the original image is based on the light source information and a normal vector included in the normal map.
  • the method may further include calculating information and calculating a new pixel value for each pixel constituting the original image based on the reflection angle information.
  • the method for realizing an ultra-high-definition masterpiece image includes changing the light source information, and based on the changed light source information and a normal vector included in the normal map, reflection angle information for each pixel constituting the original image.
  • the method may further include re-calculating a new pixel value for each pixel constituting the original image based on the re-calculation step and the re-calculated reflection angle information.
  • the method for realizing an ultra-high-definition masterpiece image according to the present invention further comprises the step of providing the original image to which the normal map is applied, to an electronic device that reproduces the virtual space, in the providing step, based on the reflection angle information An original image including the calculated new pixel values may be provided.
  • the ultra-high-definition image implementation system a communication unit for receiving a plurality of different pieces of images corresponding to a target image, and a control unit for combining the plurality of pieces of images based on the similarity of each of the plurality of pieces of images Including, wherein the control unit applies a Canvas Map to the original image so that the original image generated as a result of the combination has a predetermined texture, and to the original image to which the Canvas Map is applied, A normal map may be applied to reflect the reflection characteristics of virtual light incident on the virtual space.
  • the program stored in the computer-readable recording medium comprises the steps of receiving a plurality of different pieces of image corresponding to a target image, and based on the similarity of each of the plurality of pieces of images, Combining fragment images, applying a Canvas Map to the original image so that the original image generated as a result of the combination has a predetermined texture, and to the original image to which the Canvas Map is applied,
  • the method may include applying a normal map to reflect the reflection characteristics of virtual light incident on the virtual space.
  • the method for providing an immersive virtual exhibition space includes the steps of specifying main content to be displayed in a virtual exhibition space, and using the visual characteristics of the main content, the virtual exhibition space generating the background content of , generating the immersive content so that the main content is superimposed on at least a part of the background content, and transferring the immersive content to the electronic device so that the immersive content is provided in the virtual exhibition space It may include the step of transmitting.
  • the generating of the background content may include extracting a visual characteristic of the main content, and setting a pattern, texture, or color of the background content by using the extracted visual characteristic.
  • composition information of the background content is matched to the visual characteristic, and the background content may be generated using the composition information matched to the extracted visual characteristic.
  • an image corresponding to the illuminated light may be formed on the background content, and the light direction of the image corresponding to the light may be changed over time.
  • a reflection characteristic of the light incident on the virtual exhibition space may be set to match the light shining on the background content, and a pixel value of the main content may be changed to reflect the reflection characteristic.
  • the background content may be generated by reflecting weather information.
  • the weather information may be information corresponding to a region in which the electronic device is located.
  • the background content may include glass disposed on at least one of a wall and a ceiling of the virtual exhibition space.
  • the generating of the immersive content may include arranging the main content in one area of the background content to generate the immersive content.
  • the system for providing an immersive virtual exhibition space specifies main content to be displayed in a virtual exhibition space, generates background content of the virtual exhibition space by using the visual characteristics of the main content, and the background and a controller for generating the immersive content so that the main content is superimposed on at least a portion of the content, and a communication unit for transmitting the immersive content to an electronic device so that the immersive content is provided in the virtual exhibition space.
  • the program stored in the computer-readable recording medium includes the steps of specifying main content to be displayed in a virtual exhibition space, and using the visual characteristics of the main content to select the background content of the virtual exhibition space. generating the immersive content so that the main content is superimposed on at least a portion of the background content, and transmitting the immersive content to an electronic device so that the immersive content is provided in the virtual exhibition space.
  • the method and system for realizing an ultra-high-resolution image according to the present invention can provide content with a sense of reality and vitality by generating an ultra-high-resolution image.
  • the user can easily access works displayed in art galleries or museums at any time. Through this, users can enjoy rich cultural and artistic contents.
  • art galleries or museums may provide more users with content corresponding to works, thereby enhancing user interest.
  • the method and system for realizing an ultra-high-definition image according to the present invention can generate an ultra-high-definition image exceeding the maximum resolution by using a plurality of different fragment images including at least a part of the image.
  • the ultra-high-resolution image is made of a high-resolution image in which the image quality is not impaired even when enlarged, so that details of an actual object (eg, a masterpiece) can be expressed intact.
  • a super-high-resolution image is provided to the user by a method according to various technologies such as virtual reality, augmented reality, mixed reality, or extended reality
  • the user selects an object corresponding to the image (eg, a masterpiece) on-site ( It can convey a vivid feeling as if you were actually seeing it in a museum or art gallery, for example.
  • the method and system for providing an immersive virtual exhibition space can generate immersive content by generating background content of the virtual exhibition space using the visual characteristics of the main content. Accordingly, the user can feel the texture or color of the main content more realistically, and can be provided with the feeling of viewing an exhibition in an actual exhibition space.
  • the method and system for providing an immersive virtual exhibition space according to the present invention can provide a different environment of the virtual exhibition space according to time and weather. Therefore, if the user wants to view an art work such as a masterpiece on a rainy day, he sets the atmosphere of the virtual exhibition space to the same as on a rainy day, and if he wants to view an art work at night, sets the atmosphere of the virtual exhibition space to night. You can have fun with it and experience it instead of an experience you can't actually experience.
  • immersive content When such immersive content is provided to a user in a method according to various technologies such as virtual reality, augmented reality, mixed reality, or extended reality, the user can easily access works displayed in art galleries or museums at any time. Through this, users can enjoy rich cultural and artistic contents. Furthermore, art galleries or museums may provide more users with content corresponding to works, thereby enhancing user interest.
  • FIG. 1A is a conceptual diagram for explaining an art museum in a virtual space provided by an ultra-high-definition image realization system according to the present invention.
  • 1B is a block diagram of an ultra-high-definition image realization system according to the present invention.
  • FIG. 2 is a flowchart of an ultra-high-definition image implementation method according to the present invention.
  • FIG. 3 is a conceptual diagram for explaining an ultra-high-resolution image according to the present invention.
  • 4A, 4B, and 4C are conceptual diagrams for explaining an original image according to the present invention.
  • FIG. 5 is a conceptual diagram for explaining an original image to which a canvas map according to the present invention is applied.
  • 6 and 7 are conceptual diagrams for explaining an original image to which a normal map according to the present invention is applied.
  • FIG 8 and 9 are conceptual diagrams for explaining an original image to which an AO map according to the present invention is applied.
  • FIG. 10 is a conceptual diagram for explaining a final image according to the present invention.
  • FIG. 11 is a conceptual diagram illustrating virtual reality, augmented reality, mixed reality, or extended reality provided by the method and system for providing an immersive virtual exhibition space according to the present invention.
  • FIG. 12 is a block diagram of a system for providing an immersive virtual exhibition space according to the present invention.
  • FIG. 13 is a flowchart illustrating a method for providing an immersive virtual exhibition space according to the present invention.
  • 18, 19, 20, 21, and 22 are conceptual diagrams for explaining a user interface.
  • the present invention relates to a method and system for realizing an ultra-high-definition image in order to provide a feeling that a user visits a site and consumes content, that is, a feeling of seeing and experiencing with his/her own eyes.
  • a method of generating an ultra-high-resolution image will be described with the accompanying drawings.
  • the ultra-high-resolution image described in the present invention may mean an image that satisfies a preset resolution or a preset pixel criterion.
  • the preset resolution or the preset pixel reference may mean that the resolution of the image is equal to or higher than (or exceeds) the resolution of a specific value, or that the pixels of the image are pixels (pixels per inch) of the specific value or more.
  • FIG. 1A is a conceptual diagram for explaining an art museum in a virtual space provided by the ultra-high-definition image realization system according to the present invention.
  • 1b is a block diagram of an ultra-high-definition image implementation system according to the present invention
  • FIG. 2 is a flowchart of an ultra-high-definition image implementation method according to the present invention
  • FIG. 3 is a conceptual diagram for explaining an ultra-high-definition image according to the present invention
  • 4A, 4B, and 4C are conceptual diagrams for explaining an original image according to the present invention
  • FIG. 5 is a conceptual diagram for explaining an original image to which a canvas map according to the present invention is applied
  • FIGS. 6 and 7 are this view It is a conceptual diagram for explaining an original image to which a normal map according to the present invention is applied, FIGS. 8 and 9 are conceptual diagrams for explaining an original image to which an AO map according to the present invention is applied, and FIG. 10 is a final image according to the present invention. It is a conceptual diagram for explaining an original image to which a normal map according to the present invention is applied, FIGS. 8 and 9 are conceptual diagrams for explaining an original image to which an AO map according to the present invention is applied, and FIG. 10 is a final image according to the present invention. It is a conceptual diagram for
  • the ultra-high-definition image realization system 100 may operate in conjunction with an electronic device capable of outputting (or reproducing) an image. As shown in FIG. 1A , the ultra-high-definition image realization system 100 according to the present invention may operate in conjunction with the head mounted display 10a, the XR glasses 10b, and the electronic device 10c.
  • the ultra-high-definition image realization system 100 according to the present invention outputs an ultra-high-resolution image to the electronic device 10c on the head mounted display 10a or XR glass 10b, so that the user can make art in an art gallery or museum 10d. It is possible to provide an experience similar to actually appreciating the work 10e.
  • the image means a digital image, and may also be referred to as image data.
  • image data information obtained by capturing an art work such as a painting with a scanner or camera and turning it into data can be called an image.
  • a head mounted display (10a hereinafter referred to as 'HMD') (10a) is a generic term for image display devices that can be worn like glasses and enjoy images, and recently also referred to as a face mounted display (FMD).
  • the HMD serves to show the virtual world to the user's eyes after blocking the user's sight and hearing from the outside.
  • the HMD is equipped with a microphone, a stereo speaker, and various sensors in the form of a face worn with a display in front of the eyes.
  • such an HMD may display content such as VR (Virtual Reality).
  • the HMD may display either augmented reality (AR) content or mixed reality (MR) content.
  • AR augmented reality
  • MR mixed reality
  • the content refers to data, data, or information of signs, characters, figures, colors, voices, sounds, images, and images (or a complex of at least two of them).
  • an image will be described as an example.
  • XR Glass eXtended Reality Glasses
  • 10b allows you to view any content uploaded to the app in the electronic device (10c) through the lens, floating in a virtual space.
  • Baseball broadcasts, YouTube, music videos, news, and art works can be viewed on the train or bus, on the sofa or on the bed by adjusting the size of the screen.
  • the electronic device 10c includes at least one of a smart phone, a mobile phone, a tablet PC, a kiosk, a computer, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), and a portable multimedia player (PMP).
  • a smart phone a mobile phone, a tablet PC, a kiosk, a computer, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), and a portable multimedia player (PMP).
  • PDA personal digital assistant
  • PMP portable multimedia player
  • the user can enjoy the image provided by the ultra-high-definition image realization system 100 according to the present invention by wearing it on the head mounted display 10a or the XR glasses 10b. Through this, the user may be provided with the feeling of consuming content by visiting the site of an art gallery or museum, that is, seeing and experiencing the content with their own eyes.
  • extended reality augmented reality
  • augmented reality mixed reality
  • extended reality extended reality
  • the ultra-high-definition image realization system 100 may include at least one of a communication unit 110 , a storage unit 120 , and a control unit 130 .
  • the ultra-high-definition image realization system 100 according to the present invention is not limited to the above-described components, and may further include components that perform the same or similar roles as the functions according to the description of the present specification.
  • the communication unit 110 may transmit/receive data to and from the head mounted display 10a, the XR glasses 10b, the electronic device 10c, and at least one external server described above.
  • the communication unit 110 may receive an image obtained by photographing (or scanning) a work of art from an external server.
  • the communication unit 110 may receive the fragment image 200a from an external server.
  • the fragment image 200a may be understood as an image including at least a portion of the target image.
  • the target image is divided into left and right areas based on the center, the left area is taken or scanned with the camera as a first piece image, and the right area is captured or scanned with the camera as a second piece image.
  • Each of the plurality of fragment images 200a is generated by scanning a portion of the target image with a preset resolution.
  • the N pieces of image 200a are generated by scanning the target image N times with a preset resolution. Accordingly, each of the plurality of fragment images 200a may have a preset resolution.
  • each of the plurality of fragment images 200a may be an ultra-high-resolution image. That is, each of the plurality of fragment images 200a may mean an image satisfying a preset resolution or a preset pixel criterion.
  • any one of the plurality of fragment images 200a may include image information that at least partially overlaps with the other one. Specifically, when the target image is scanned multiple times, a portion of the target image is scanned multiple times. For example, each of the upper left scan image of the target image and the upper center scan image of the target image includes an image corresponding to a specific region of the target image.
  • the overlapping image information may mean an image corresponding to a specific region of the target image, which is included in each of one and the other of the plurality of fragment images.
  • the fifth fragment image 415 and the sixth fragment image 416 equally include one region 415a and 416a of the target image.
  • a region of the target image that is identically included in the plurality of fragment images may be understood as an overlapping image path.
  • the target image described in the present invention may be understood as a work of art such as a painting.
  • the target image may mean the picture itself, or it may mean information obtained by converting the picture into data.
  • the storage unit 120 may also be referred to as a database (DB), and may be configured to store images used in the present invention.
  • the storage unit 120 may store images according to the present invention using a cloud server.
  • controller 130 may be configured to generally control the components described above, the head mounted display 10a, the XR glasses 10b, and the electronic device 10c shown in FIG. 1A .
  • the controller 130 may generate an original image by combining the fragment image 200a received through the communication unit 110 .
  • the original image may be understood as an image generated by combining a plurality of fragment images 200a based on the target image. That is, the original image may correspond to the target image.
  • the original image may be an ultra-high-resolution image. That is, the original image may mean an image that satisfies a preset resolution or preset pixel criteria.
  • control unit 130 to the original image 210, a canvas map (Canvas Map) 220, a normal map (Normal Map) 230 , a mask map (Mask Map) 240 and a coating map (Coat Map)
  • a final image 200b may be generated (see FIG. 2 ).
  • the image is made of a plurality of pixels, and includes coordinate information of each of the plurality of pixels and color information matching the coordinate information.
  • the color information corresponding to each pixel may include at least three channels (eg, color value channels for each of R, G, and B).
  • the “map” includes data corresponding to each pixel constituting the original image 210 and is used for the purpose of imparting a specific effect to the image.
  • the map consists of a plurality of pixels, and each pixel corresponds to each pixel constituting the image.
  • a pixel of the map corresponding to a specific pixel constituting an image includes coordinate information corresponding to the specific pixel, and effect information corresponding to an effect to be applied to the specific pixel is matched to the pixel of the map.
  • each of the effect information corresponding to each pixel constituting the map may include at least three channels, and each channel has a value corresponding to an effect to be applied to the original image pixel corresponding to the corresponding pixel. This can be saved.
  • the map may be understood as an image having the same size as the original image 210 , but it is difficult to be used as a meaningful image by itself.
  • an image corresponding to the map is expressed as a layer superimposed on the original image.
  • applying a map to an image may be understood as synthesizing a layer corresponding to the map on the image. More specifically, synthesizing the map layer with the image may be changing the image information based on the map information. For example, applying a map to an image means that i) a pixel value corresponding to a specific pixel of the image and ii) effect information corresponding to the pixel included in the map are substituted into a preset function to obtain a new pixel value. This may mean acquiring new pixel values for all pixels included in the image by repeating the process.
  • the canvas map 220 described in the present invention may be understood as information representing the material of the object on which the target image is drawn. That is, the canvas map 200 may be understood as a layer corresponding to a predetermined texture.
  • the canvas map may be a layer corresponding to the canvas material
  • the object on which the target image is drawn is wood ( If it is a wooden board used when drawing woodblock prints, etc.), the canvas map may be a layer corresponding to the material of the wood
  • the canvas map Silver may be a layer corresponding to the copper material.
  • the normal map 230 described in the present invention defines the reflection characteristics of each pixel constituting the original image. Specifically, the normal map includes a pixel corresponding to each pixel constituting the original image. Each pixel included in the normal map defines a normal vector of a pixel of the corresponding original image.
  • the normal vector is a vector defining a direction perpendicular to the tangent line passing a certain point (pixel) on the curve of the plane.
  • the normal vector is a vector defining the direction of a normal line, which is a reference in defining the angle of incidence and the angle of reflection when light is incident on a specific point (pixel) of an object.
  • each pixel included in the normal map 230 stores normal vector information (X, Y, and Z angles of 180 degrees on both sides) in a storage space (R, G, B color channels of 0-255 values) in the form of a texture image. ) may contain information stored in That is, the normal map includes information that enables it to be calculated at which angle the light will be reflected when light is incident on a specific pixel of the original image at a specific angle.
  • the normal vector does not definitively define the direction of light reflected from a specific pixel of the original image, but allows it to be calculated in which direction the light will be reflected when light is incident on a specific pixel at a specific angle.
  • the normal vector may be configured to define a specific direction in 3D.
  • the mask map 240 described in the present invention may include a metallic map 241 , an ambient occlusion map 242 and a smoothness map 243 .
  • the mask map 240 includes effect information corresponding to each of a metallic map 241 , an ambient occlusion map 242 , and a smoothness map 243 .
  • the mask map includes a plurality of pixels, and each pixel corresponds to each of the pixels constituting the original image.
  • Each pixel constituting the mask map includes coordinate information, and the coordinate information corresponds to coordinate information of a pixel of an original image to which the corresponding pixel corresponds.
  • Effect information including three channels may be matched to each pixel constituting the mask map.
  • Effect information corresponding to each of a metallic map 241 , an ambient occlusion map 242 , and a smoothness map 243 may be stored in each of the three channels.
  • effect information corresponding to the metallic map 241 to the Red channel For example, by applying effect information corresponding to the metallic map 241 to the Red channel, effect information corresponding to the OA map 242 to the Green channel, and effect information corresponding to the smooth map 243 to the Alpha channel, one You can create a map.
  • one mask map includes effect information corresponding to at least three types of maps through one map. Since effects corresponding to three types of maps can be applied to data allocated to generate one map, the mask map 240 has an advantage in that unnecessary data can be reduced.
  • the metallic map 241 includes information capable of expressing a unique color (eg, gloss, mirror-like reflection) of a metal material included in a target image using specular reflection of light.
  • a unique color eg, gloss, mirror-like reflection
  • An AO map (Ambient Occlusion Map) 242 described in the present invention may include information about an occlusion value between an object (or pixel) and another object (or pixel) in a target image. That is, the AO map 242 may include information on whether the region of the model should receive strong or weak indirect lighting.
  • the smoothness map 243 described in the present invention may include information capable of expressing a feeling of spreading light.
  • the modified image described herein is, in the original image, i) Canvas Map 220, ii) Normal Map 230, ii) Metallic Map 241, iv ) AO map (Ambient Occlusion Map) 242 and vi) may mean a result to which both the smoothness map (Smoothness Map) 243 are applied.
  • the coating map (Coat Map) 250 described in the present invention is the original image 210 generated by merging the fragment images, that is, the original image 210 itself to which no map is applied, or the original image. It may mean information about (210).
  • the final image 200b described in the present invention is i) a canvas map 220, ii) a normal map 230, iii) a metallic map 241, iv ) AO Map (Ambient Occlusion Map) (242), v) Smoothness Map (243) and vi) Coating Map (250) are applied to an image that expresses the texture of the target image and at the same time expresses the original You can keep the data values of the image.
  • a process of receiving a plurality of different pieces of images corresponding to the target image may be performed (S310). That is, the communication unit 110 may receive a plurality of different pieces of images corresponding to the target image.
  • the target image may be understood as a work of art such as a painting.
  • the target image may mean the picture itself, or it may mean information obtained by converting the picture into data.
  • the fragment image 410 may be understood as an image including at least a portion of the target image.
  • the target image is divided into left and right areas based on the center, the left area is taken or scanned with the camera as a first piece image, and the right area is captured or scanned with the camera as a second piece image.
  • the plurality of fragment images 410 may be ultra-high-resolution images. That is, each of the plurality of fragment images 410 may be images satisfying a preset resolution criterion.
  • any one of the plurality of fragment images 410 may include image information that at least partially overlaps with the other one.
  • the overlapping image information may mean an image corresponding to a specific region of the target image, which is included in each of one and the other of the plurality of fragment images.
  • the fifth fragment image 415 and the sixth fragment image 416 equally include one region 415a and 416a of the target image.
  • a region of the target image that is identically included in the plurality of fragment images may be understood as an overlapping image path.
  • a process of combining the plurality of fragment images may be performed ( S320 ).
  • the controller 130 may combine a plurality of fragment images to generate an original image corresponding to the target image.
  • the controller 130 may merge the fragment images by connecting the fragment images based on the target image.
  • the controller 130 may match pieces of images adjacent to each other based on the target image, and connect the matched pieces of images.
  • the controller 130 may combine the fragment images based on image information overlapping each other among the plurality of fragment images.
  • the controller 130 may combine the fragment images including the overlapping images by arranging them adjacent to each other.
  • the second fragment image 412 including image information overlapping the upper portion of the fifth fragment image 415 illustrated in FIG. 4B may be disposed above the fifth fragment image 415 .
  • the sixth fragment image 412 including image information overlapping the right portion of the fifth fragment image 415 may be disposed on the right side of the fifth fragment image 415 .
  • controller 130 may naturally connect the boundaries of the fragment images by performing edge blending on the fragment images combined with the combined fragment images to generate an original image.
  • edge blending refers to performing interpolation on the boundary of the fragment images, overlapping parts of two images with each other so that the two images can be viewed as one smooth image. it means. Edge blending is performed by moving the position of any one of the two images at a preset interval until overlapping image information included in each of the two images overlaps each other.
  • the controller 130 may correct the transparency of the adjacent engraving images differently.
  • the controller 130 may overlap one piece image having a different transparency on one piece image.
  • the controller 130 may change the position of the fragment image having different transparency until the region corresponding to the overlapped image information included in each of the two overlapping fragment images overlaps by more than a preset reference.
  • the controller 130 may adjust the transparency of the two overlapping pieces of images to 0. Through this, the two sculptural images can be connected to each other.
  • the controller 130 may generate an original image by performing edge blending on all of the plurality of different fragment images.
  • the controller 130 may connect the fifth engraved image 415 and the sixth engraved image 416 adjacent to the fifth engraved image 415 by matching each other as shown in FIG. 4C (a) .
  • the fifth fragment image 415 and the sixth fragment image 416 may include the same portions 415a and 416a of the target image.
  • the controller 130 may correct the transparency of the sixth piece image 416 to 90% in order to accurately overlap the same parts 415a and 416a.
  • the control unit 130 overlaps the sixth engraving image 416 with different transparency on the fifth engraving image 415, and until the same parts 415a and 416a match more than a preset standard, the sixth engraving image ( 416) can be changed.
  • the controller 130 sets the transparency of the fifth engraving image 415 and the sixth engraving image 416 to the original of the sixth engraving image 416 .
  • the fifth fragment image 415 and the sixth fragment image 416 may be connected.
  • the controller 130 may generate an original image corresponding to the target image by performing edge blending on all of the nine fragment images 410 .
  • the ultra-high-definition image realization system 100 generates an original image by performing such edge blending, thereby minimizing waste data of a misaligned portion of a connected fragment image or a boundary portion of the fragment images.
  • a sculpture image is generated by shooting each area of the work of art, and edge blending is performed on the sculpture image to generate an original image, resulting in a higher quality You can create an image.
  • the ultra-high-definition realization system 100 can provide a more realistic artwork to the user through extended reality or the like.
  • a canvas map may be applied to the original image so that the original image generated as a result of the combination has a predetermined texture ( S330 ).
  • the canvas map may be understood as information representing the material of an object on which a target image such as a picture is drawn. More specifically, if i) the object on which the target image is drawn is a canvas (fabric used when drawing a picture such as an oil painting), the canvas map may be a layer corresponding to the canvas material, and ii) the object on which the target image is drawn is wood ( If it is a wooden board used when drawing woodblock prints, etc.), the canvas map may be a layer corresponding to the material of the wood, and iii) if the object on which the target image is drawn is a copper plate (a plank-shaped board made of copper), the canvas map Silver may be a layer corresponding to the copper material.
  • the canvas map may be understood as information representing the material of an object on which a target image such as a picture is drawn. More specifically, if i) the object on which the target image is drawn is a canvas (fabric used when drawing a picture such as an oil painting), the canvas map may be a layer
  • the controller 130 may generate a canvas map based on the object on which the target image is drawn.
  • the controller 130 may use an image of the object itself on which the target image is drawn as a canvas map. For example, if the target image is an oil painting, the controller 130 may use an image obtained by photographing a canvas as a canvas map.
  • the controller 130 may obtain a material of the object on which the target image is drawn by using an image obtained by photographing the object on which the target image is drawn, and may generate a canvas map by converting the obtained material into data. For example, if the target image is an oil painting, the control unit 130 obtains the material of the canvas (eg, a material woven by replacing the fabric) from the photographed image of the canvas, and generates information representing the material of the canvas by generating information representing the material of the canvas. You can create maps.
  • the material of the canvas eg, a material woven by replacing the fabric
  • controller 130 may predict the material of the object on which the target image is drawn from the original image.
  • the controller 130 may use the artificial intelligence model generated by machine learning.
  • the controller 130 may configure the information of the canvas map so that the predicted material is expressed.
  • the controller 130 may generate an original image to which the canvas map is applied by synthesizing a layer corresponding to a predetermined texture in the original image.
  • the controller 130 may generate a canvas map image by applying the generated canvas map to the original image. That is, the controller 130 may process the mapping (or blending, overlay) between the original image and the canvas map.
  • control unit 130 substitutes i) a pixel value corresponding to a specific pixel of the original image and ii) effect information corresponding to the specific pixel among information included in the canvas map to the first blending function, You can change the pixel value for a specific pixel in .
  • the controller 130 applies the above-described method to all pixel values constituting the original image.
  • the pixel value of the changed original image may be a pixel value that expresses the texture of the object on which the target image is drawn. For example, suppose the value of a particular pixel contained in the original image before the change was (3, 99, 5). If the object on which the target image is drawn is a canvas, the canvas map includes effect information corresponding to the specific pixel value, and the pixel value of the changed original image to which it is applied may be (34, 104, 29). Also, if the object on which the target image is drawn is copper, the canvas map has information on the copper material, and the pixel value of the changed original image to which this is applied may be (8, 52, 124).
  • the controller 130 may adjust the ratio in which the original image to which the canvas map is applied expresses the material of the object on which the target image is drawn. For example, suppose that the pixel value of a specific pixel included in the original image before the change is (3, 99, 5), and the object on which the target image is drawn is a canvas. When the material of the object is expressed by 3 in the target image, the controller 130 adjusts the parameter value of the first blending function to set the pixel value of a specific pixel included in the original image to which the canvas map is applied (34, 104, 29).
  • the controller 130 adjusts the parameter value of the first blending function to set the pixel value of a specific pixel included in the original image to which the canvas map is applied (101, 164). , 29) can be changed.
  • FIG. 5 is a diagram illustrating the original image 530 to which the canvas map is applied by applying the original image 510 and the canvas map 520 . More specifically, FIG. 5( a ) is a conceptual representation of the original image 510 which fails to express the material of the object on which the target image is drawn or does not reflect the material of the object on which the target image is drawn. 5( b ) is a conceptual representation of a canvas map including material information of an object on which a target image is drawn. 5( c ) is a conceptual representation of the original image 530 to which the canvas map is applied, which expresses the material of the object on which the target image is drawn by applying the canvas map 510 to the original image 510 . That is, the user does not recognize the material of the object on which the target image is drawn through the original image 510 of FIG. 5(a), but the target image is drawn through the original image 530 to which the canvas map of FIG. The material of the object can be recognized.
  • the process of applying a normal map (Nnormal Map) to the original image to which the Canvas Map is applied so that the reflection characteristics of the virtual light incident on the virtual space are reflected (S340). That is, the controller 130 may apply the normal map to the original image to which the canvas map is applied.
  • the normal map includes information that enables it to be calculated at which angle the light will be reflected when light is incident on a specific pixel of the original image at a specific angle.
  • Each pixel constituting the normal map corresponds to a pixel constituting the original image.
  • vector information matched to a pixel corresponding to a specific pixel of the original image among pixels constituting the normal map is matched to the original image.
  • the light source information is information defining a virtual light source, and is used to calculate the incident angle of the virtual light incident on each of the pixels constituting the original image.
  • the light source information defines at least one of a position, a shape, an intensity, and a light traveling direction with respect to the virtual light source.
  • the light source information may include location information of the point light source and information defining that light is emitted in all directions from the point light source.
  • the incident angle of the virtual light incident on each of the pixels constituting the original image may be calculated.
  • the incident angle is applied to an original image to which the normal map is applied (or a normal vector matched to each pixel constituting the original image)
  • information on the reflection angle of light from a specific pixel may be calculated.
  • a new pixel value of the specific pixel may be calculated. If the above-described process is applied to all pixels included in the original image, the original image corresponding to the virtual light source may be generated.
  • the light source information may be changed according to a user's request. Accordingly, the reflection angle information for each pixel constituting the original image may be recalculated based on the changed light source information, and the pixel values of the pixels constituting the original image may be recalculated based on the recalculated reflection angle information. .
  • the normal map may be generated based on the original image.
  • the normal map is generated by forming a normal vector for each pixel constituting the original image.
  • a normal vector for a specific pixel constituting the original image may be generated based on a brightness value of the specific pixel and a brightness value of a pixel adjacent to the specific pixel.
  • the specific pixel is plotted in a 3D space by using the X and Y-axis coordinates of the specific pixel and the brightness value of the specific pixel as the Z-axis coordinates.
  • Two pixels adjacent to the specific pixel are also plotted in a 3D space.
  • three points may be plotted on a three-dimensional space, and a surface including all three points may be specified.
  • the specified plane may be specified as a normal plane of the specific pixel.
  • a vector in a direction perpendicular to the normal plane is specified as a normal vector of the specific pixel.
  • the normal map may provide target images in various environments.
  • the target image such as a work of art displayed in a museum, etc.
  • the target image depends on i) the amount of light according to the displayed time, ii) from which direction the light shines in which direction, iii) the place where the target image is displayed, etc. , the amount and angle of the reflected light are different.
  • the normal map and the light source information are used together, it becomes possible to provide target images in various environments.
  • the normal map allows the three-dimensional effect of the target image to be implemented differently according to the position of the light source and the intensity of light emitted from the light source. That is, the user may feel a different three-dimensional effect with respect to the same target image.
  • FIG. 6 is a conceptual diagram showing the extreme amount of light reflected on target images 610 and 620 according to the direction of light.
  • FIG. 6 (a) is a view of light entering from the left (a) direction of the target image 610 .
  • the first area 610a that is the left area of the target image 610 reflects light
  • the second area 610b that is the right area of the target image 610 does not reflect light. Accordingly, the user can feel the three-dimensional effect of the target image in the first region 610a, but cannot feel the three-dimensional effect of the target image in the second region 610b.
  • FIG. 6 (b) is a view of light entering from the right (b) direction of the target image 620 .
  • the first area 620a that is the left area of the target image 620 does not reflect light
  • the second area 620b that is the right area of the target image 620 reflects light. Accordingly, the user cannot feel the three-dimensional effect of the target image in the first region 620a, but can feel the three-dimensional effect of the target image in the second region 620b.
  • the user may feel the three-dimensional effect of the target image differently according to the amount of light illuminating the target image and the angle of light reflected from the target image.
  • the first region 710a of the target image 710 reflects light
  • the second area 710b does not reflect light.
  • the effect of the normal map is applied to the first region 710a, and the effect for the normal map is not applied to the second region 710b.
  • the first region 730a of the original image 730 to which the normal map is applied may express a three-dimensional effect, whereas the second region 730b may not express the three-dimensional effect.
  • the first area 740a of the target image 740 does not reflect light, and the second area 740b reflects light.
  • the effect of the normal map is applied to the second region 740b, and the effect for the normal map is not applied to the first region 740a.
  • the first region 760a of the original image 740 to which the normal map is applied does not express a three-dimensional effect, whereas the second region 760b may express a three-dimensional effect.
  • Light source information according to these various extended reality situations may be generated.
  • the light source information may be selectively applied to the original image according to an exhibition environment to be implemented.
  • the mask map may include a metallic map, an ambient occlusion map (AO), and a smoothness map. More specifically, the mask map refers to a map in which only core data can be used by applying the Metalic Map to the Red channel, OA to the Green channel, and the Smoothness Map to the Alpha channel.
  • the mask map has an advantage in that unnecessary data can be reduced.
  • a process of applying the metallic map, the AO map, and the smooth map to the original image to which the normal map is applied may be performed.
  • the metallic map, the AO map, and the smooth map may be applied in any order.
  • a process of applying a metallic map, an AO map, and a smooth map to an original image to which a normal map is applied will be described.
  • the present invention by applying the metallic map to the original image to which the normal map is applied, it is possible to express the texture of the metallic material included in the target image.
  • the metallic map includes information that can express a unique color (eg, gloss, mirror-like reflection) of a metal material included in the target image by using the specular reflection of light.
  • a unique color eg, gloss, mirror-like reflection
  • the metal-included portion of the target image may be expressed as a unique color of the corresponding metal.
  • the controller 130 may apply the metallic map to the original image to which the normal map is applied, and may express a unique color of the metal by changing the pixel values of the original image to which the normal map is applied.
  • the controller 130 may change the pixel values of the original image to which the normal map is applied by substituting i) the pixel values of the original image to which the normal map is applied and ii) the metallic map to the third blending function. If the pixel value of the original image with the normal map applied before the change is a pixel value that does not reflect the unique color of the metal material in the target image, the pixel value of the original image with the changed metallic map applied is the original color of the metal material in the target image. This may be a reflected pixel value.
  • the target image is an oil painting
  • pixel values (245, 167, 59) of the original image to which the normal map is applied may substitute the pixel values 245 , 167 , and 59 of the original image and the metallic map to the third blending function.
  • the original image to which the metallic map is applied may have pixel values of (249, 167, 24).
  • the pixel value of the original image to which the normal map was applied before the change does not reflect the specular reflection of the target image, so if the unique color of the metal material is not expressed, the pixel value of the original image to which the changed metallic map is applied is the specular reflection of the target image.
  • the specular reflection of the target image also differs according to the above-described i) the amount of light according to the time the target image is displayed, ii) from which direction the light shines in which direction, iii) the place where the target image is displayed, etc. material can be expressed. For example, if the amount of light is large, the metal material may appear whiter (shiny).
  • the controller 130 may adjust the amount of light shining on the target image and the specular reflection in the target image expressed by the original image to which the metallic map is applied by adjusting the parameter of the third blending function.
  • the controller 130 may control a parameter of the metallic map or a third preset blending function through matching information based on the situation of the extended reality to be implemented.
  • the controller 130 may generate matching information using an artificial intelligence model generated by machine learning, and may generate an original image to which a metallic map is applied based on the matching information.
  • the metallic map by applying the metallic map to the original image (ie, the original image to which the normal map is applied), a unique color of the metal material of the target image can be expressed.
  • the user can recognize the unique color of the metallic material included in the target image through the original image to which the metallic map is applied.
  • the AO map may be applied before applying the metallic map.
  • the AO map may be applied to the original image to which the normal map is applied.
  • the AO map may include information on an occlusion value between each point on the surface of an object (or pixel) and another object (or pixel) in the target image.
  • the original image to which the AO map is applied may be understood as an image in which light and dark portions are displayed as a shaded image.
  • the controller 130 may apply the AO map to the original image to which the metallic map is applied, and may express the shading by changing the pixel values of the original image to which the metallic map is applied.
  • the controller 130 may change the pixel values of the original image to which the metallic map is applied by substituting i) the pixel values of the original image to which the metallic map is applied and ii) the AO map to the fourth preset blending function.
  • the pixel value of the original image to which the metallic map was applied before the change is a pixel value that does not reflect the occlusion value (that is, it is not shaded)
  • the pixel value of the original image to which the changed AO map is applied is the pixel value that reflects the occlusion value (that is, shaded) pixel values.
  • the original image to which the metallic map is applied may have pixel values of ((255, 255, 255), (255, 30, 20), (255, 30, 20)) as shown in (a) of FIG. have.
  • a pixel value of 30 (811) located in row 2, column 2, ii) a pixel value of 20 (812) located in row 2, column 3, iii) a pixel value of 30 (813) located in row 3, column 3, and iv) 3 row 3
  • a shadow shading
  • the pixel value 20 (814) located in the third row and third column generates the largest amount of shading by the surrounding pixel values, and thus the pixel value 20 (814) may be changed to the pixel value 3 (824).
  • the pixel value 20 (812) located in row 2, column 3, and iii) the pixel value 30 (813) located in row 3, column 3 produces relatively less shading, and therefore a pixel value of 5 (822) and a pixel value of 7, respectively (823) may be changed.
  • a pixel value of 30 (811) located in row 2 and column 2 generates relatively the least shading, and thus may be changed to a pixel value of 10 (821). That is, in the original image to which the AO map of FIG. 8(b) is applied, the dark part may be expressed to be darker.
  • FIG. 9(a) is a view showing the original image 910 to which the metallic map is applied.
  • the original image 930 to which the AO map is applied as shown in FIG. 9C may be generated.
  • a shadow 911 may be generated by blocking pixels.
  • the AO map As such, in the present invention, by applying the AO map to the original image (that is, the original image to which the metallic map is applied), the shadow effect is applied and the ambient light is shielded, thereby expressing the texture of the detailed brush touch of the picture.
  • the smooth surface of the target image can be made softer and the rough surface can be expressed more rough.
  • the smoothness map includes information capable of expressing a feeling of spreading light.
  • the controller 130 applies the smooth map to the original image to which the AO map is applied, and by changing the pixel values of the original image to which the AO map is applied, a smooth surface can be expressed more softly and a rough surface can be expressed more rough.
  • the controller 130 may change the pixel values of the original image to which the AO map is applied by substituting i) the pixel values of the original image to which the AO map is applied and ii) the smooth map to the fifth preset blending function.
  • the pixel values of the original image to which the AO map is applied have a smoother surface, and the rough surface of the target image has a rougher value. can have
  • the roughness or softness of the surface of the target image also depends on i) the amount of light according to the time the target image is displayed, ii) whether the light is shining from which direction, iii) the place where the target image is displayed, etc. Accordingly, different metal materials can be expressed. For example, if the amount of light is high, a smooth surface may appear smoother.
  • the controller 130 may adjust the roughness of the surface according to the amount and angle of light illuminating the target image, expressed by the original image to which the smooth map is applied, by adjusting the parameters of the fifth preset blending function.
  • the controller 130 may control the parameters of the smooth map or the fifth preset blending function through matching information based on the situation of the extended reality to be implemented.
  • the controller 130 may generate matching information using an artificial intelligence model generated by machine learning, and may generate an original image to which a smooth map is applied based on the matching information.
  • the smooth surface of the target image can be expressed more softly and the rough surface of the target image can be expressed more rough.
  • the user can recognize the texture of the surface of the target image through the original image to which the smooth map is applied.
  • the coating map ( Coat Map) can be applied to create the final image.
  • the coating map may refer to an original image generated by merging fragment images, that is, an original image to which no map is applied.
  • the final image is a Canvas Map, Normal Map, Metallic Map, AO Map (Ambient Occlusion Map), Smoothness Map and Coating Map applied.
  • the data value of the original image can be maintained while expressing the texture of the target image.
  • the controller 130 may blend the changed image and the original image.
  • the controller 130 may substitute i) the pixel value of the changed image and ii) the pixel value of the original image into the sixth function.
  • the final image generated through this process can maintain the data value of the original image while expressing the texture of the target image.
  • FIG. 10( a ) is a diagram illustrating an original image to which a smooth map is applied or a modified image 1010 .
  • a final image 1030 as shown in FIG. 10(c) may be generated.
  • the user may be provided with an experience such as viewing a work of art in an actual art museum.
  • the method and system for realizing an ultra-high-resolution image according to the present invention can provide content with a sense of reality and vitality by generating an ultra-high-resolution image.
  • the user can easily access works displayed in art galleries or museums at any time. Through this, users can enjoy rich cultural and artistic contents.
  • art galleries or museums may provide more users with content corresponding to works, thereby enhancing user interest.
  • the method and system for realizing an ultra-high-definition image according to the present invention can generate an ultra-high-definition image exceeding the maximum resolution by using a plurality of different fragment images including at least a part of the image.
  • the ultra-high-resolution image is made of a high-resolution image in which the image quality is not impaired even when enlarged, so that details of an actual object (eg, a masterpiece) can be expressed intact.
  • a super-high-resolution image is provided to the user by a method according to various technologies such as virtual reality, augmented reality, mixed reality, or extended reality
  • the user selects an object corresponding to the image (eg, a masterpiece) on-site ( It can convey a vivid feeling as if you were actually seeing it in a museum or art gallery, for example.
  • immersive content is generated using the ultra-high-definition image generated by the ultra-high-definition image realization system 100 according to the present invention, and the immersive content is converted into virtual reality (VR, Virtual Reality), augmented reality (AR, Augmented). Reality), extended reality (XR, eXtended Reality), or mixed reality (MR, Mixed Reality) can be output to electronic devices.
  • VR virtual reality
  • AR Augmented
  • AR Augmented
  • XR extended reality
  • MR mixed reality
  • the present invention by outputting immersive content to an electronic device, virtual reality (VR, Virtual Reality), augmented reality (AR, Augmented Reality), extended reality (XR, eXtended Reality) or mixed reality (MR, Mixed Reality) (hereinafter referred to as virtual reality, etc.), to provide a feeling that the user visits to the site of an exhibition space such as an art gallery or museum and consumes the exhibits, that is, the feeling of seeing and experiencing with their own eyes.
  • VR virtual reality
  • AR Augmented Reality
  • XR extended reality
  • MR mixed Reality
  • virtual reality mixed Reality
  • VR virtual reality
  • Virtual Reality is a compound word of Virtual, meaning virtual, and Reality, meaning reality, and refers to an artificial environment similar to the real one but not the real one.
  • various efforts are being made to enable spatial and temporal experiences close to reality by directly acting on the user's five senses beyond simply realizing a virtual space.
  • AR Augmented Reality
  • Augmented reality is a technology that overlays a 3D virtual image on a real image or background and displays it as a single image.
  • Augmented reality is a technology that places a virtual object in the real space or recognizes a real object and configures a virtual space around it. effort is being made
  • extended reality is a technology that implements various advanced services such as spatial mapping and object tracking beyond simple content display. Users can experience a 360-degree virtual view without using a headset, and a natural-like experience can be experienced by providing spatial sound. Similarly, in the case of extended reality, efforts are being made to provide realistic and lively content.
  • the method for providing an immersive virtual exhibition space is for generating immersive content that can provide a sense of presence and vitality as if the user actually visited the exhibition space by using virtual reality, augmented reality and extended reality.
  • FIG. 11 is a conceptual diagram illustrating virtual reality, augmented reality, mixed reality, or extended reality provided by the method and system for providing an immersive virtual exhibition space according to the present invention.
  • 12 is a configuration diagram of a system for providing an immersive virtual exhibition space according to the present invention
  • FIG. 13 is a flowchart illustrating a method for providing an immersive virtual exhibition space according to the present invention
  • FIGS. 14, 15, 16, and 17 is a conceptual diagram for explaining immersive content according to the present invention
  • FIGS. 18, 19, 20, 21, and 22 are conceptual diagrams for explaining a user interface.
  • the immersive content generation 100 may operate in conjunction with an electronic device capable of outputting (or playing) immersive content.
  • the system 100 for providing an immersive virtual exhibition space according to the present invention may operate in conjunction with the head mounted display 10a, the XR glasses 10b, and the electronic device 10c.
  • the system 100 according to the present invention outputs immersive content to the head mounted display 10a, XR glasses 10b, or electronic device 10c, so that the user can display objects ( 10e) can provide the same experience as actually appreciating it.
  • realistic content refers to something that can be provided to a user through an electronic device capable of outputting immersive content, and includes signs, characters, figures, colors, voices, sounds, images and images (or at least two of them). data, data or information of the above complex).
  • a head mounted display (10a, Head mounted display, hereinafter referred to as 'HMD') is a generic term for image display devices that can be worn like glasses to enjoy an image, and is recently also called a face mounted display (FMD).
  • the HMD serves to show the virtual world to the user's eyes after blocking the user's sight and hearing from the outside.
  • the HMD is equipped with a microphone, a stereo speaker, and various sensors in the form of a face worn with a display in front of the eyes.
  • XR Glasses eXtended Reality Glasses
  • XR Glasses 10b allow users to view any content uploaded to an app in the electronic device 10c through a lens, floating in a virtual space.
  • Baseball broadcasts, YouTube, music videos, news, and art works can be viewed on the train or bus, on the sofa or on the bed by adjusting the size of the screen.
  • the electronic device capable of outputting immersive content described in the present invention is not limited to the head mounted display 10a and the XR glasses 10b, and an electronic device capable of realizing virtual reality, etc. If (10c), the type is not distinguished.
  • electronic device outputting immersive content will be collectively referred to as “electronic device outputting immersive content” or “electronic device”.
  • the system 100 for providing an immersive virtual exhibition space according to the present invention includes a communication unit 110 , an input unit 120 , an output unit 130 , a storage unit 140 , and a control unit 150 . It may include at least one.
  • the system 100 for providing an immersive virtual exhibition space according to the present invention is not limited to the above-described components, and may further include components that perform the same or similar functions as those described herein.
  • the communication unit 110 may transmit/receive data to and from the head mounted display 10a, the XR glasses 10b, the electronic device 10c, and at least one external server described above.
  • the communication unit 110 may transmit the immersive content according to the present invention to an electronic device to which the immersive content is output.
  • the input unit 120 includes a camera or an image input unit for inputting an image signal, a microphone or an audio input unit for inputting an audio signal, and a user input unit (eg, a touch key) for receiving information from a user.
  • a push key mechanical key
  • a keyboard Keyboard
  • a mouse mouse
  • a joypad joypad
  • the output unit 130 may output the immersive content to the view area (eg, the main view area) of the electronic device linked to the system 100 for providing an immersive virtual exhibition space according to the present invention.
  • the storage unit 140 may also be referred to as a database (DB), and may be configured to store contents used and generated in the present invention.
  • the storage unit 140 may store the immersive content according to the present invention by using a cloud server.
  • the storage unit 140 may store “background information” including configuration information of the background content that matches the visual information of the main content.
  • the “main content” may be understood as an exhibit provided to the user through immersive content.
  • the main content may be an image for the picture.
  • the “background content” described in the present invention may be understood as content forming a periphery of the main content. More specifically, the background content is content constituting a virtual exhibition space in which the main content is displayed.
  • the “virtual exhibition space” described in the present invention is an exhibition space implemented in virtual reality, and can be understood as a space in which main contents can be displayed, such as a virtual art gallery, a virtual museum, and a virtual exhibition hall. .
  • the “visual characteristics of the main content” described in the present invention relates to various information that can be seen and recognized by the eye, for example, i) shape, ii) color, iii) contrast, iv) There may be saturation, v) texture, vi) three-dimensionality, vii) resolution, and viii) volume.
  • controller 150 may be configured to generally control the components described above, the head mounted display 10a, the XR glasses 10b, and the electronic device 10c shown in FIG. 11 .
  • controller 150 may generate immersive content by overlapping the main content with one region of the background content.
  • the controller 150 may generate background content by further including light source information in which time information and weather information are reflected in the background content. That is, the controller 150 may generate background content in which the brightness and position of the light source change according to time information and weather information, and use the generated background content to generate immersive content.
  • light source information may be understood as information defining a virtual light source existing in the virtual exhibition space.
  • the light source information may define at least one of a location, a shape, an intensity, and a direction of light for a virtual light source existing in the virtual exhibition space.
  • the controller 150 may change the light characteristic of the main content to reflect the light source information included in the background content. Therefore, when receiving immersive content generated using main content that does not reflect light source information and when receiving immersive content generated using main content reflecting light source information, the user receives the same main content You can feel three-dimensionality and texture differently. Accordingly, the user can experience the same experience as seeing the exhibits in the actual exhibition space.
  • a process of specifying main content displayed in the virtual exhibition space may be performed (S310).
  • the controller 150 may specify main content displayed in the virtual exhibition space.
  • the “virtual exhibition space” is an exhibition space realized in virtual reality, and may be understood as a space in which main contents can be displayed, such as a virtual art gallery, a virtual museum, and a virtual exhibition hall.
  • the virtual exhibition space may include a plurality of virtual exhibition spaces.
  • any one virtual exhibition space may be output to the display of the electronic device on which the immersive content is output.
  • the “main content” may be understood as an exhibit provided to the user through immersive content.
  • the main content may be an image for the picture.
  • the controller 150 may specify the main content through the process of receiving the main content through the communication unit 110 .
  • the communication unit 110 may receive main content from an external server or an external electronic device.
  • control unit 150 may specify the main content based on the user's selection received through the input unit 120 .
  • the controller 150 may output the main content sample to an electronic device such as a terminal possessed by the user or an electronic device through which immersive content is output through the output unit 140 .
  • the user selects the main content that he wants to view, that is, he wants to display in the virtual exhibition space among the main content samples output on the display of the electronic device, and transmits it to the communication unit 110 of the system 100 according to the present invention, or (120) can be entered.
  • the control unit 150 may specify the main content based on the user's selection received through the communication unit 110 or the input unit 120 .
  • the controller 150 may specify the main content based on the user's history stored in the storage 140 .
  • the user may mean a user logged into the system 100 according to the present invention by a user account.
  • the “user history” stored in the storage 140 may include a history of main content specified by the user in the past (a specified main content name, a specific number of times, a specific period, etc.).
  • the controller 150 may specify the main content based on the history of the main content specified by the user in the past. For example, the control unit 150 specifies as the main content content whose number of times specified by the user is equal to or greater than a preset number of times, or the main content specified by the user is not yet output to the display unit of the user's electronic device. If not, the corresponding main content can be specified.
  • the controller 150 may specify the main content using an artificial intelligence model generated by machine learning.
  • the process of generating the background content of the virtual exhibition space may be performed using the visual characteristics of the main content (S320). That is, the controller 150 may generate the background content by using the visual characteristics of the main content.
  • visual characteristics of the main content refers to various information that can be seen and recognized by the eye, for example, i) shape, ii) color, iii) contrast, iv) saturation, v) texture. , vi) three-dimensionality, vii) resolution, and viii) volume.
  • the “background content” described in the present invention may be understood as content forming a periphery of the main content. More specifically, the background content is content constituting a virtual exhibition space in which the main content is displayed.
  • the controller 150 may extract a visual characteristic from the specified main content and determine the composition of the background content to maximize the extracted visual characteristic.
  • a visual characteristic of the main content may be extracted, and a pattern, texture, or color of the background content may be set by using the extracted visual characteristic.
  • the controller 150 may form a predetermined pattern with the shape (or pattern) of the main content, and generate the background content using the pattern.
  • the background content may generate the background content in a regular pattern (eg, a pattern that repeats at regular intervals) as the background content.
  • the controller 150 may configure the color of the background content by using a complementary color of the color of the main content.
  • the controller 150 may generate the background content using purple, which is a complementary color of yellow, and if the color of the main content is green, the controller 150 uses red, which is a complementary color of green, You can create background content.
  • this is only an example for convenience of description.
  • control unit 150 may generate background content based on the background information stored in the storage unit 140 .
  • the “background information” stored in the storage 140 may include configuration information of background content that matches the visual information.
  • configuration information of the background content is matched to the visual characteristic, and the background content may be generated using configuration information matched to the extracted visual characteristic.
  • the controller 150 may generate the background content based on the composition information of the background content matched with the visual information extracted from the main content.
  • the composition information of the background content matched to the oil painting texture is the canvas texture and color (texture and white in which the fabric is interwoven) in the background information.
  • the controller 150 may generate the background content with a canvas texture and color based on the matching information.
  • the process of generating the immersive content may be performed so that the main content is superimposed on at least a part of the background content (S330).
  • the controller 150 may generate immersive content by overlapping the main content with one region of the background content.
  • “realistic content” can be provided to a user through an electronic device capable of outputting immersive content, and includes signs, characters, figures, colors, voices, sounds, images and images (or these data, data, or information of at least two or more of the complexes).
  • immersive content includes VR content and XR content.
  • the controller 150 may generate immersive content by arranging the main content in one area of the background content.
  • the controller 150 may arrange the main content in one area of the background content corresponding to the matching coordinates matching the main content. For example, if the coordinates matching the main content correspond to the left central region of the background content, the controller 150 arranges the main content in the left central region of the background content, and the coordinates matching the main content are on the right side of the background content If it corresponds to the central region, the controller 150 may generate the immersive content by arranging the main content in the right central region of the background content.
  • the controller 150 may generate the immersive content by arranging the main content in a part of the background content based on the user's selection received through the input unit 120 . To this end, the controller 150 outputs the main content and the background content on an electronic device such as a terminal possessed by the user or an electronic device on which the immersive content is output, such as “Place the main content on the background content”. A guide message can be printed.
  • the user can move the main content to one area of the background content by viewing the guide message.
  • the user uses an electronic device or a touch key, a mechanical key, a keyboard, a mouse, a joypad, etc. of the system 100 according to the present invention
  • the main content may be positioned as one area of the background content.
  • the user may output a “Done” button that is output on the display of the electronic device or utter “Done” or “Generate realistic content” by voice.
  • the voice uttered by the user may be input through an electronic device or a microphone or an audio input unit of the system 100 according to the present invention.
  • the control unit 150 may generate the immersive content when a preset time elapses from the time of receiving a command for generating immersive content from the user or outputting a guide message on the display.
  • the immersive content generated in this way may be a state in which the main content is displayed by overlapping a part of the background content.
  • controller 150 may transmit the immersive content to the electronic device so that the immersive content is provided in the virtual exhibition space.
  • the controller 150 may control the communication unit 110 to transmit the immersive content to the electronic device, or may control the output unit 140 to output the immersive content to the display of the electronic device.
  • a user may view main content displayed in the virtual exhibition space through an electronic device that outputs immersive content.
  • the immersive content since the background content is generated based on the visual characteristics of the main content, the user can more realistically feel the texture or color of the main content, and furthermore, viewing the exhibits in the actual exhibition space. You may be provided with the same feeling.
  • the main content may be set to reflect light source information included in the background content.
  • the controller 150 may change the light characteristic of the main content to reflect the light source information included in the background content.
  • a process of receiving a plurality of different pieces of images corresponding to main content may be performed. That is, the communication unit 110 may receive a plurality of different pieces of images corresponding to the main content.
  • the fragment image 410 may be understood as an image including at least a portion of the main content.
  • the main content is divided into left and right areas based on the center, the left area is captured or scanned with the camera as a first piece image, and the right area is captured or scanned with the camera as a second piece image.
  • the left area is captured or scanned with the camera as a first piece image
  • the right area is captured or scanned with the camera as a second piece image.
  • the plurality of fragment images may be ultra-high-resolution images. That is, each of the plurality of fragment images may be images that satisfy a preset resolution criterion.
  • any one of the plurality of fragment images may include image information that at least partially overlaps with the other one.
  • the overlapping image information may mean an image corresponding to a specific region of the main content, which is included in each of the one and the other of the plurality of fragment images.
  • a process of combining a plurality of sculptural images may be performed based on the similarity of each of the plurality of sculptural images.
  • the controller 150 may generate main content by combining a plurality of pieces of images.
  • the controller 150 may merge the fragment images by linking the fragment images based on overlapping image information.
  • the controller 150 may match pieces of images adjacent to each other and connect the matched pieces of images.
  • the controller 150 may combine the fragment images based on image information overlapping each other among the plurality of fragment images.
  • the controller 150 may combine the fragment images including the overlapping images by arranging them adjacent to each other.
  • controller 150 may generate main content by performing edge blending on the combined fragment images to the combined fragment images, thereby naturally connecting the boundaries of the fragment images.
  • edge blending refers to performing interpolation on the boundary of the fragment images, overlapping parts of two images with each other so that the two images can be viewed as one smooth image. it means. Edge blending is performed by moving the position of any one of the two images at a preset interval until overlapping image information included in each of the two images overlaps each other.
  • the controller 150 may correct the transparency of the adjacent engraving images differently.
  • the controller 150 may overlap one piece image having a different transparency on one piece image.
  • the controller 150 may change the position of the fragment image having different transparency until the region corresponding to the overlapped image information included in each of the two overlapping fragment images overlaps by more than a preset reference.
  • the controller 150 may adjust the transparency of the two overlapping pieces of images to 0. Through this, the two sculptural images can be connected to each other.
  • the controller 150 may generate main content by performing edge blending on all of the plurality of different pieces of images.
  • the system 100 generates main content by performing such edge blending, thereby minimizing waste data of a misaligned portion of a connected fragment image or a boundary portion of the fragment images.
  • a sculpture image is generated by photographing each area of the work of art, and edge blending is performed on the sculpture image to generate the main content, resulting in a higher-quality image can create
  • the system 100 according to the present invention can provide a more realistic exhibit to the user through virtual reality or the like.
  • the controller 150 may apply a canvas map to the main content so that the specified main content has a predetermined texture.
  • the canvas map may be understood as information representing the material of an object on which the main content is written or a material constituting the main content. More specifically, i) If the main content is an oil painting created on a canvas (a fabric used for drawing pictures such as oil paintings), the canvas map may be a layer corresponding to the canvas material, ii) the main content is wood (woodblock prints, etc.) If it is a woodblock print created on a wooden board used for drawing), the canvas map may be a layer corresponding to the material of the wood, iii) If the main content is a copper print created on a copper plate (a plank-shaped board made using copper), the canvas map Silver may be a layer corresponding to the copper material.
  • the controller 150 may generate a canvas map based on the object on which the main content is written. More specifically, the controller 150 may use an image of the object itself on which the main content is drawn as a canvas map. For example, if the main content is an oil painting drawn on a canvas, the controller 150 may use an image obtained by photographing the canvas as a canvas map.
  • the controller 150 may obtain a material of the object on which the main content is drawn by using an image obtained by photographing the object on which the main content is drawn, and may generate a canvas map by converting the obtained material into data. For example, if the main content is an oil painting, the control unit 150 obtains the material of the canvas (eg, a material woven by replacing the fabric) from the photographed image of the canvas, and generates information representing the material of the canvas by generating information representing the material of the canvas. You can create maps.
  • the material of the canvas eg, a material woven by replacing the fabric
  • the controller 150 may predict the material of the object on which the main content is drawn from the main content.
  • the controller 150 may use the artificial intelligence model generated by machine learning.
  • the controller 150 may configure the information of the canvas map so that the predicted material is expressed.
  • the controller 150 may generate the main content to which the canvas map is applied by synthesizing a layer corresponding to a pre-specified texture in the main content.
  • the controller 150 may generate a canvas map image by applying the generated canvas map to the main content. That is, the controller 150 may process the mapping (or blending, overlay) between the main content and the canvas map.
  • control unit 150 substitutes i) a pixel value corresponding to a specific pixel of the main content and ii) effect information corresponding to the specific pixel among information included in the canvas map to a first preset function, You can change the pixel value for a specific pixel in the content.
  • the controller 150 applies the above-described method to all pixel values constituting the main content.
  • the changed pixel value of the main content may be a pixel value that expresses the texture of the object on which the main content is drawn. For example, suppose that a specific pixel value included in the main content before the change is (3, 99, 5). If the object on which the main content is drawn is a canvas, the canvas map includes effect information corresponding to the specific pixel value, and the pixel value of the changed main content to which this is applied may be (34, 104, 29).
  • the canvas map has information about the copper material, and the pixel value of the changed main content to which this is applied may be (8, 52, 124).
  • this is merely an example for convenience of description, and information included in the main content to which the canvas map is applied is not limited thereto.
  • the immersive content generated using the main content to which the canvas map is applied is displayed, compared to when the immersive content generated using the main content to which the canvas map is not applied is displayed, the user feels the texture of the exhibit. As a result, you can receive the same experience as viewing the exhibits in an actual exhibition space.
  • a process of applying a normal map to the main content to which the Canvas Map is applied may be performed so that the reflection characteristics of virtual light incident on the virtual exhibition space are reflected. That is, the controller 150 may apply the normal map to the main content to which the canvas map is applied.
  • the normal map includes information enabling calculation of an angle at which light is reflected when light is incident on a specific pixel of the main content at a specific angle.
  • Each pixel constituting the normal map corresponds to a pixel constituting the main content.
  • vector information matched to a pixel corresponding to a specific pixel of the main content among pixels constituting the normal map is matched to the main content.
  • the light source information may be understood as defining a virtual light source existing in the virtual exhibition space.
  • the light source information may define at least one of a location, a shape, an intensity, and a direction of light for a virtual light source existing in the virtual exhibition space.
  • the light source information may include location information of the point light source and information defining that light is emitted in all directions from the point light source.
  • light source information existing in a virtual exhibition space may be implemented by background content.
  • the controller 150 may form a virtual light source existing in a virtual exhibition space by arranging a light source (eg, the sun, the moon, lighting, etc.) in the background content. A detailed method of arranging the light source in the background content will be described later.
  • the incident angle of the virtual light incident on each of the pixels constituting the main content it is possible to calculate the incident angle of the virtual light incident on each of the pixels constituting the main content.
  • the incident angle is applied to the main content to which the normal map is applied (or a normal vector matched to each pixel constituting the main content)
  • information on the reflection angle of light from a specific pixel may be calculated.
  • a new pixel value of the specific pixel may be calculated by applying the calculated reflection angle to a second preset function. If the above-described process is applied to all pixels included in the main content, the main content corresponding to the virtual light source can be generated.
  • controller 150 may apply a mask map to the main content to which the normal map is applied, so that the main content expresses a texture more similar to the actual exhibit.
  • the mask map may include a metallic map, an ambient occlusion map (AO), and a smoothness map. More specifically, the mask map refers to a map in which only core data can be used by applying the Metalic Map to the Red channel, OA to the Green channel, and the Smoothness Map to the Alpha channel.
  • the mask map has an advantage in that unnecessary data can be reduced.
  • the pixel value of the main content may be changed according to how the background content is configured.
  • the main content may have the same pixel value as the main content to which the normal map or the mask map is not applied even if the normal map or the mask map is applied.
  • the background content includes light source information such as the sun
  • the pixel value of the main content may be changed according to the light source information of the sun.
  • the user When a user is provided with immersive content generated using the main content that does not reflect light source information and when receiving immersive content generated using main content that reflects light source information, the user provides three-dimensional effect, even with the same main content, You can feel different textures, etc. Accordingly, the user can experience the same experience as seeing the exhibits in the actual exhibition space.
  • the virtual exhibition space may include a plurality of virtual exhibition spaces.
  • the controller 150 may generate different background content for each virtual exhibition space.
  • the immersive content may include a plurality of virtual exhibition spaces having different background content.
  • any one virtual exhibition space may be output to the display of the electronic device on which the immersive content is output.
  • the controller 150 may create a plurality of virtual exhibition spaces based on a user's selection. To this end, the controller 150 may output a user interface for designing a virtual exhibition space to an electronic device such as a terminal possessed by the user or an electronic device through which immersive content is output. For example, the controller 150 may output a message such as “Please select the number of virtual exhibition spaces” through the display or audio of the electronic device, so that the user can design a plurality of virtual exhibition spaces.
  • the user may select the desired number of virtual exhibition spaces according to the guidance message of the electronic device.
  • the user can use an electronic device or a touch key, a mechanical key, a keyboard, a mouse, a joypad, and the like of the system 100 according to the present invention.
  • the number of virtual exhibition spaces (ex: 6) can be selected.
  • the user may utter “six” by voice.
  • the voice uttered by the user may be input through an electronic device or a microphone or an audio input unit of the system 100 according to the present invention.
  • the controller 150 may form six virtual exhibition spaces 400 as shown in FIG. 14 based on the user's selection.
  • a plurality of virtual exhibition spaces are expressed as a first virtual exhibition space 410 and a second virtual exhibition space 420 .
  • the main content displayed in the first virtual exhibition space 410 is expressed as the first main content
  • the background content of the first virtual exhibition space is expressed as the first background content.
  • each of the plurality of virtual exhibition spaces may have different background contents by using the visual characteristics of the main content displayed in each virtual exhibition space.
  • the first virtual exhibition space 410 is a first virtual exhibition space created using first main contents 511 displayed in the first virtual exhibition space 410 . It may have one background content 510 .
  • the first background content 510 may include eight walls 512 having dot-patterned wallpaper, a white floor 513 , and a ceiling 514 made of glass.
  • the second virtual space 420 may have the second background content 520 generated using the second main content 521 and that shown in FIG. 15B .
  • the second background content 520 may have background content including eight walls 522 having comb-shaped wallpaper, a white floor 523 , and a ceiling 524 made of glass. That is, the first background content 510 and the second background content 520 may be set differently based on the respective visual characteristics of the first main content 511 and the second main content 521 .
  • the background information stored in the storage 140 may include a plurality of pieces of background content configuration information matching the visual characteristics of the main content.
  • configuration information of a plurality of background contents matching a specific visual characteristic of the main content is expressed together with the first configuration information and the second configuration information.
  • the background information may include the first composition information and the second composition information by matching the oil painting texture.
  • the controller 150 may control the communication unit 110 to transmit the first configuration information and the second configuration information to a display of an electronic device such as a terminal possessed by a user or an electronic device on which immersive content is output.
  • the controller 150 may control the first configuration information and the second configuration information to be output to the output unit 130 of the system 100 according to the present invention.
  • the user may select any one of the first configuration information and the second configuration information output to the output unit 130 of the electronic device or the system 100 according to the present invention.
  • the user's selection may be transmitted from the electronic device to the communication unit 110 of the present invention or may be input through the input unit 120 of the present invention.
  • the controller 150 may generate background content based on the user's selection.
  • the controller 150 may generate the background content by reflecting time information in the background content.
  • the controller 150 may generate immersive content using background content whose brightness is changed over time.
  • the storage unit 140 may store brightness information defining the brightness of the background content according to time. For example, suppose that the relatively darkest brightness is 0, and the relatively brightest brightness is 10.
  • the brightness information stored in the storage unit 140 includes i) 6:00 to 8 o'clock to match brightness 2, ii) 8 o'clock to 11 o'clock to match brightness 3, iii) 11 o'clock to 13 o'clock to match brightness 5, iv ) 13 o'clock to 18 o'clock to match brightness 3, v) 18 o'clock to 22 o'clock to match brightness 1, vi) 22 o'clock to 24 o'clock to match brightness 0, vii) 24 o'clock to 5 o'clock to match brightness 0 , viii) may include a brightness of 1 by matching 5 to 6 o'clock. However, this is an example for convenience of description, and brightness information may be more subdivided.
  • the controller 150 may generate the background content so that the brightness of the background content is changed based on the output time. For example, when the time when immersive content is output is 12:00 noon, the user can receive the background content set to the brightness of 5, thereby giving the user the same feeling as viewing the exhibits in the exhibition space during the actual daytime. As another example, when the time at which immersive content is output is 12:00 pm (24 o'clock), the user is provided with the background content set to 0 brightness, so that the user can experience the same feeling as watching an exhibition in an exhibition space at night. can receive
  • the controller 150 may change the pixel value of the main content according to the brightness of the background content that is changed based on the brightness information of the storage unit 140 . That is, the controller 150 may change the pixel value of the main content to reflect the reflection characteristics of the virtual light incident on the virtual exhibition space according to the brightness information of the background content.
  • the main content reflects the light reflection characteristics of the virtual exhibition space corresponding to the brightness 5 of the background content. Pixel values may be changed.
  • the main content is the light of the virtual exhibition space corresponding to the brightness 0 of the background content.
  • a pixel value may be changed to reflect the reflection characteristic.
  • the user is provided with a different three-dimensional effect and texture when viewing the main content through the immersive content during the day and when viewing the main content through the immersive content at night.
  • You will be provided with a lively experience such as
  • the controller 150 may generate background content by further including light source information in which time is reflected in the background content. For example, an image corresponding to the illuminated light may be formed on the background content, and the direction in which the image corresponding to the light is illuminated may change over time.
  • the controller 150 may generate background content in which the brightness and position of the light source change according to the passage of time, and use the generated background content to generate immersive content.
  • the light source may be at least one of the sun, the moon, and lighting. That is, the controller 150 generates the background content including the image corresponding to the light by reflecting information on light sources such as the sun, moon, and lighting whose position (altitude) or intensity changes over time. can do it
  • the controller 150 may set at least one of a wall and a ceiling of the virtual exhibition space as glass through the background content.
  • the background content may include glass disposed on at least one of a wall and a ceiling of the virtual exhibition space.
  • the controller 150 may set the virtual exhibition space to be outdoors.
  • the controller 150 may generate the background content so that the position and intensity of light sources such as the sun, moon, and lighting are changed based on the output time.
  • the controller 150 sets the sun ( 611) so that light incident on the virtual exhibition space from the sun disposed at a predetermined position (altitude) is reflected.
  • the background content 610 may be configured to be relatively bright by light incident on the virtual exhibition space from the sun 611 .
  • the control unit 150 controls the sun 611 of FIG. You can create background content.
  • the controller 150 reaches a predetermined position (altitude) with respect to the user.
  • a light source such as 621 may be disposed, and the background content 620 may be generated such that light incident on the virtual exhibition space from the moon 621 disposed at a predetermined position (altitude) is reflected.
  • the background content 620 may be configured to be relatively dark by light incident on the virtual exhibition space from the moon 621 .
  • the controller 150 may generate the background content 620 by further including a light source such as the lighting 622 .
  • the background content 620 may generate the background content 620 by making the area 623 illuminated by the light 622 relatively bright compared to the other surrounding areas 624 .
  • the controller 150 may change the pixel value of the main content based on the light source information included in the background content. That is, the controller 150 may change the pixel value of the main content to reflect the reflection characteristics of light incident on the virtual exhibition space due to the background content. More specifically, a reflection characteristic of light incident on the virtual exhibition space may be set to match the light shining on the background content, and a pixel value of the main content may be changed to reflect the reflection characteristic.
  • the main content is based on the light source information included in the background content.
  • the pixel value may be changed to reflect the reflection characteristics of the light.
  • the time at which immersive content is output is 8:00 p.m. (20:00)
  • light source information such as the moon and lighting
  • the main content is displayed in the background content.
  • the pixel value may be changed to reflect the light reflection characteristic by the included light source information.
  • the light source information according to the passage of time may be stored in the storage unit 140 by matching with the configuration information.
  • the background content may be generated based on the specified visual information of the main content, and the pixel value of the main content may be changed based on the light source information of the generated background content.
  • the user is provided with main content reflecting the virtual light incident on the virtual exhibition space in the virtual exhibition space including the light source information according to the time of viewing the immersive content, so that the user can view the exhibition more in the actual exhibition space. You can get the same experience as you do.
  • the controller 150 may generate the background content by further including light source information in which the weather information is reflected in the background content.
  • the controller 150 may generate background content in which the brightness and position of the light source change according to the weather, and use the generated background content to generate immersive content.
  • the weather information may be input from the user through the input unit 120 or from an external server through the communication unit 110, weather information of a region in which the user is currently located may be received.
  • the background content is generated by reflecting the weather information, and through this, the brightness of an image corresponding to light can be set according to the weather information.
  • the weather information may be information corresponding to a region in which the electronic device is located.
  • the time at which the immersive content is output is the same at 1 pm (13:00)
  • the light source included in the background content when the user uses the immersive content in Seoul and when the immersive content is used in Jeju Island The information may be different. More specifically, when the weather in Seoul is clear, a user who uses immersive content in Seoul may be provided with immersive content including light source information reflecting the clear weather. On the other hand, when it rains on Jeju Island, a user who uses immersive content on Jeju Island may be provided with immersive content including light source information reflecting rainy weather.
  • a process of generating immersive content may be performed by further reflecting docent content in the main content and background content.
  • the controller 150 may generate immersive content by including the Doston content.
  • the dost content may be understood as a function of describing the main content displayed in the virtual exhibition space.
  • the controller 150 may output the guide 713 to one area of the main view 710 of the electronic device on which the immersive content is output. Furthermore, when a specific main content 711 is output to a specific region of the user's main view 710 , the controller 150 may control a description of the corresponding main content 711 to be output through audio. Furthermore, the controller 150 may control the description 712 of the corresponding main content 711 to be output on one area of the main view 710 .
  • the “main view” may mean a view area corresponding to the user's gaze among a plurality of view areas (or display areas) provided by the electronic device.
  • the controller 150 may output the button 722 together around the main content 721 displayed in the virtual exhibition space.
  • the user may transmit a request for explanation of the corresponding main content 721 to the system 100 according to the present invention by pressing a button 722 located around the main content 721 requiring explanation.
  • the user's request for explanation is an electronic device that outputs immersive content or a user input unit according to the present invention (eg, a touch key, a push key, a mechanical key, a keyboard, a mouse ( mouse), joypad, etc.).
  • a request for explanation of specific main content may be detected by a sensing unit (not shown) of the system 100 according to the present invention.
  • the sensing unit includes a proximity sensor, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and a gravity sensor.
  • G-sensor gyroscope sensor, motion sensor, RGB sensor, infrared sensor (IR sensor: infrared sensor), fingerprint sensor (finger scan sensor), ultrasonic sensor,
  • IR sensor infrared sensor
  • fingerprint sensor fingerprint sensor
  • ultrasonic sensor Optical sensor (eg, camera), microphone (microphone), battery gauge, environmental sensor (eg, barometer, hygrometer, thermometer, radiation detection sensor, thermal sensor, gas detection sensor, etc.) ), and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.).
  • the immersive content according to the present invention may be generated based on a user's input.
  • the immersive content generated based on the user's input has the advantage that it can be variously configured according to the user's taste and purpose (education, event, lecture, etc.).
  • a user interface provided to a user so that the user can compose immersive content will be described.
  • the virtual exhibition space is an art museum and the main content displayed in the virtual exhibition space is a work of art (or a picture) will be described as an example.
  • the control unit 150 is installed on a display unit (hereinafter, referred to as “display unit”) of an electronic device such as a terminal possessed by the user or an electronic device on which immersive content is output, as shown in FIG. 18(a), in a virtual exhibition space. You can control to display a screen asking you to set the viewing environment for (art museum).
  • the control unit 150 is recommended in the system 100 according to the present invention and the option 811 for directly selecting the viewing environment of the virtual exhibition space together with a guide message such as “Do you want to set the museum viewing environment?” on the display unit.
  • An option 812 for selecting a recommended environment may be output.
  • the user may select one of the options by looking at the options output to the display unit.
  • the user selects an option using an electronic device or a touch key, a mechanical key, a keyboard, a mouse, a joypad, etc. of the system 100 according to the present invention.
  • the user may utter “direct selection 811” or “recommended environment selection 812” by voice.
  • the voice uttered by the user may be input through an electronic device or a microphone or an audio input unit of the system 100 according to the present invention.
  • various interior information constituting the background content includes i) the shape of the virtual exhibition space (ex: indoor or outdoor, a hexahedral indoor space, an 8-pillar-shaped indoor space, etc.), ii) the material of the wall of the virtual exhibition space (ex: concrete material, wood material, etc.) or wallpaper (color of wallpaper, pattern of wallpaper, etc.), iii) floor material (concrete, marble, etc.) or color, iv) material of ceiling (glass, wood, concrete, etc.) or color, v) furniture (chairs, lighting fixtures, flowerpots, etc.).
  • the controller 150 may output various interior information to the display unit to provide an interface through which the user can directly compose the background content of the virtual exhibition space.
  • the controller 150 may provide an interface environment capable of generating one background content through a user drag-and-drop method of various interior information.
  • control unit 150 may output a sample of the background content stored in the storage unit 140 to the display unit.
  • the controller 150 may output the composition information of the background content matching the specified visual information of the main content as the recommendation information 821 and 822 to the display unit.
  • the user may select any one of the recommendation information 821 and 822 output to the display unit to generate background content.
  • the controller 150 may receive weather information reflected in the background content from the user.
  • the controller 150 includes a message such as “select the weather in which you want to view an art work” on the display unit, and weather emoticons (emoticon, 911, 912, 913, 914) can be output.
  • the controller 150 may generate background content including light source information reflecting the corresponding weather information. For example, when the user selects the sun emoticon 911, the controller 150 may generate background content by including light source information reflecting sunny weather information.
  • the controller 150 may collect weather information from an external server based on the region where the user is located. In this case, as shown in (b) of FIG. 19 , the controller 150 may output a location access permission option together with a guide message such as “Do you want to allow access to the current location?” on the display unit.
  • the controller 150 detects the user's location through GPS, etc., and corresponds to the detected location. Weather information can be received from an external server. As illustrated in FIG. 19C , the controller 150 may output weather information of a location where the user is located on the display.
  • the controller 150 may receive time information reflected in the background content from the user. In this case, as shown in FIG. 20 , the controller 150 may output an interface for inputting a time together with a message such as “Please select a time to view an art work” on the display unit.
  • the controller 150 may generate background content by including light source information reflecting the corresponding time information. For example, as shown in FIG. 20 , when the user inputs 12:53 noon, the controller 150 places the sun at a position (altitude) corresponding to 12:53 noon, and arranges it at the corresponding position (altitude) Background content may be generated so that virtual light incident on the virtual exhibition space from the sun is reflected.
  • the controller 150 may change the pixel value of the main content according to the light source information included in the background content. Since the description of this process has been described above, it will be omitted.
  • control unit 150 may receive a specific main content input from the user. To this end, the control unit 150, as shown in FIG. 21, along with a message such as “Please select an artist you want to view” on the display unit, along with the name and image of the artist (Klimt 1111, Van Gogh 1112, Renoir (Klimt 1111), Van Gogh (1112), Renoir ( 1113), etc.) can be output.
  • the user may select any one artist (eg, Van Gogh 1112 ) to view among the names and images of the artist output on the display unit.
  • the author's name can be uttered like "Van Gogh”.
  • the controller 150 may output the titles 1122 of the selected artist 1121 to the display unit.
  • the user wants to view by using an electronic device or a touch key, a mechanical key, a keyboard, a mouse, a joypad, etc. of the system 100 according to the present invention. You can select at least one work title, or utter a voice, such as “Starry Night”. The voice uttered by the user may be input through an electronic device or a microphone or an audio input unit of the system 100 according to the present invention.
  • the user may transmit an enlargement request for any one of the main contents displayed in the virtual exhibition space to the system 100 according to the present invention.
  • control unit 150 may output a guide message such as “Do you want to enlarge the selected picture?” as shown in (a) of FIG. 22 .
  • control unit 150 may output the corresponding main content to the main view alone, as shown in FIG.
  • the user may receive a specific gesture 1210 to enlarge or reduce the specific area 1220 of the main content.
  • the controller 150 may reduce the specific area 1220 of the main content when the user closes two fingers, and enlarge the specific area 1220 of the main content when the user opens the two fingers.
  • Such a user's gesture may be detected by a sensing unit (not shown) according to the present invention.
  • the main content in the present invention may be an ultra-high-definition image that is generated by combining a plurality of different sculptural images obtained by photographing a region of an exhibition object (eg, a work of art such as a painting). have.
  • an exhibition object eg, a work of art such as a painting
  • the system 100 according to the present invention can provide a user with a high-quality, clear image without breaking the image quality of the main content even when the user enlarges the main content.
  • the method and system for providing an immersive virtual exhibition space can generate immersive content by generating background content of the virtual exhibition space using the visual characteristics of the main content. Accordingly, the user can feel the texture or color of the main content more realistically, and furthermore, the user can be provided with the feeling of viewing an exhibition in an actual exhibition space.
  • the method and system for providing an immersive virtual exhibition space according to the present invention can provide a different environment of the virtual exhibition space according to time and weather. Therefore, if the user wants to view an art work such as a masterpiece on a rainy day, he sets the atmosphere of the virtual exhibition space to the same as on a rainy day, and if he wants to view an art work at night, sets the atmosphere of the virtual exhibition space to night. You can have fun with it and experience it instead of an experience you can't actually experience.
  • the immersive content is provided to the user by a method according to various technologies such as virtual reality, augmented reality, mixed reality, or extended reality
  • the user can easily access works displayed in art galleries or museums at any time. Through this, users can enjoy rich cultural and artistic contents.
  • art galleries or museums may provide more users with content corresponding to works, thereby enhancing user interest.
  • the present invention described above may be implemented as a program storable in a computer-readable medium (or recording medium), which is executed by one or more processes in a computer.
  • the present invention as seen above can be implemented as computer-readable codes or instructions on a medium in which a program is recorded. That is, the present invention may be provided in the form of a program.
  • the computer-readable medium includes all types of recording devices in which data readable by a computer system is stored.
  • Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is this.
  • the computer-readable medium may be a server or a cloud storage that includes a storage and that an electronic device can access through communication.
  • the computer may download the program according to the present invention from a server or cloud storage through wired or wireless communication.
  • the computer described above is an electronic device equipped with a processor, that is, a CPU (Central Processing Unit, Central Processing Unit), and there is no particular limitation on the type thereof.
  • a processor that is, a CPU (Central Processing Unit, Central Processing Unit)
  • CPU Central Processing Unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A method for realizing an ultra-high-definition masterpiece image, according to the present invention, may comprise the steps of: receiving a plurality of different fragment images corresponding to a target image; combining the plurality of fragment images on the basis of the similarity of each of the plurality of fragment images; applying a canvas map to an original image generated as a result of the combination, so that the original image has a pre-specified texture; and applying a normal map to the original image to which the canvas map has been applied, so that reflection characteristics of virtual light incident on a virtual space are reflected.

Description

초고화질 이미지를 이용한 실감형 컨텐츠 제공 방법 및 시스템Method and system for providing immersive content using ultra-high-resolution images
본 발명은 초고화질의 이미지를 구현하기 위한 방법 및 시스템, 그리고, 실감형 가상 전시 공간을 제공하는 방법 및 시스템에 관한 것이다. The present invention relates to a method and system for realizing an ultra-high quality image, and a method and system for providing an immersive virtual exhibition space.
기술이 발달함에 따라, 사용자들은 다양한 전자기기 및 방법을 이용하여 콘텐츠를 소비하게 되었다.As technology develops, users consume content using various electronic devices and methods.
특히, 가상현실(VR, Virtual Reality), 증강현실(증강현실AR, Augmented Reality), 확장현실(XR, eXtended Reality) 또는 혼합현실(MR, Mixed Reality) 등의 기술은 사용자에게 보다 생동감 있는 콘텐츠를 제공하게 되었다. In particular, technologies such as virtual reality (VR, Virtual Reality), augmented reality (augmented reality, AR), extended reality (XR, eXtended Reality), or mixed reality (MR, Mixed Reality) provide users with more lively content. has been provided
가상현실이란, 가상을 뜻하는 Virtual과 현실을 뜻하는 Reality의 합성어로서, 실제와 유사하지만 실제가 아닌 인공 환경을 의미한다. 가상현실 분야에서는, 단순히 가상의 공간을 구현하는 것을 넘어서서 사용자의 오감에 직접적으로 작용하여 실제에 근접한 공간적, 시간적 체험을 가능케 하기 위한 다양한 노력을 기울이고 있다. Virtual reality is a compound word of Virtual, meaning virtual, and Reality, meaning reality. In the field of virtual reality, various efforts are being made to enable spatial and temporal experiences close to reality by directly acting on the user's five senses beyond simply realizing a virtual space.
나아가, 증강현실은, 현실의 이미지나 배경에 3차원 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 기술이다. 증강현실은 가상의 물체를 현실 공간에 올려 놓거나 현실의 물체를 인식해서 그 주변에 가상의 공간을 구성하는 기술이며, 증강현실 분야 역시, 가상의 공간을 이질감 없이 실제 환경과 유기적으로 연결하기 위하여 다양한 노력을 기울이고 있다. Furthermore, augmented reality is a technology that overlays a 3D virtual image on a real image or background and displays it as a single image. Augmented reality is a technology that places a virtual object in the real space or recognizes a real object and configures a virtual space around it. effort is being made
또한, 확장현실은, 단순한 콘텐츠의 디스플레이 하는 것을 넘어 공간 매핑, 객체 추적 등 더욱 고도화된 다양한 서비스를 구현하는 기술이다. 사용자는 헤드셋을 쓰지 않아도 360도의 가상 뷰를 체험할 수 있으며, 공간음향 제공을 통해 실제와 같이 자연스러운 체험을 할 수 있다. 마찬가지로, 확장현실 역시, 실제와 같은 생동감 있는 콘텐츠를 제공하기 위한 노력을 기울이고 있다. In addition, extended reality is a technology that implements various more advanced services such as spatial mapping and object tracking beyond simple content display. Users can experience a 360-degree virtual view without using a headset, and a natural-like experience can be experienced by providing spatial sound. Similarly, in the case of extended reality, efforts are being made to provide realistic and lively content.
이러한, 가상현실, 증강현실 및 확장현실을 비롯한 다양한 콘텐츠 제공 기술은 사용자에게 생동감 있는 콘텐츠를 제공하는 것이 매우 중요하며, 이를 통해 사용자는 실제 특정 공간을 가지 않더라도, 실제 방문한 것과 같은 현장감 및 생동감을 얻을 수 있다.It is very important to provide lively content to users for various content providing technologies including virtual reality, augmented reality and extended reality, and through this, users can obtain a sense of presence and vitality as if they actually visited, even if they do not actually go to a specific space. can
예를 들어, 미술 작품을 감상할 수 있는 미술관 또는 박물관을 살펴보자. 미술과 또는 박물과 등에는 레오나르도 다빈치(Leonardo da Vinci)의 모나리자, 빈센트 반 고흐(Vincent Willem van Gogh)의 별이 빛나는 밤과 같은 명화가 전시되어 있다. 이러한 명화를 보기 위하여 전세계 사용자들은 장기간의 여행을 계획해야 한다. 그러나, 위에서 살펴본 다양한 기술들은 사용자가 미술관이나 박물관 등에 직접 가지 않고도, 그림과 같은 미술 작품을 감상할 수 있게 한다. For example, consider an art gallery or museum where you can appreciate works of art. Masterpieces such as Leonardo da Vinci's Mona Lisa and Vincent Willem van Gogh's Starry Night are on display in the Art Department or Museum Department. To see these masterpieces, users around the world have to plan a long trip. However, the various technologies discussed above allow a user to appreciate an art work such as a painting without directly going to an art gallery or a museum.
그러나, 가상현실, 증강현실 또는 확장현실 등 콘텐츠 제공 기술을 통해 콘텐츠를 제공함에 있어 중요한 요소는, 사용자가 실제로 해당 공간에 있는 것과 같은 실제감, 생동감이 매우 중요하다. 예를 들어, 저해상도 이미지를 통해 명화를 제공하는 경우, 사용자는 제공받는 이미지와 명화와의 차이가 있어, 직접 가서 해당 명화를 감상하는 것과 같은 만족감을 느끼지 못하고, 여전히 실제 명화를 보고싶어 하는 갈증을 느낀다.However, an important factor in providing content through content providing technology such as virtual reality, augmented reality, or extended reality is a sense of reality and vitality as if the user is actually in the space. For example, when a masterpiece is provided through a low-resolution image, there is a difference between the image and the masterpiece provided, so the user does not feel the satisfaction of going and appreciating the masterpiece in person, and still thirsts to see the real masterpiece. feel
따라서, 다양한 기술 발전의 추세에 맞추어, 사용자가 해당 현장에 방문하여 콘텐츠를 소비하는 것과 같은 느낌, 즉, 직접 눈으로 보고, 체험하는 것과 같은 느낌을 제공할 수 있는 방법이 필요하다. Accordingly, in accordance with the trend of various technological developments, there is a need for a method capable of providing a feeling of a user visiting a corresponding site and consuming content, that is, seeing and experiencing it with their own eyes.
또한, 최근 들어, 스마트 기기가 보급화됨에 따라, 스마트 기기의 내장 카메라, 프로세서 및 어플리케이션을 이용하여, 사용자가 방문하는 박물관, 미술관 등의 전시공간에서 활용되는 경우가 늘어나고 있다.In addition, in recent years, as smart devices become popular, the cases of using the built-in cameras, processors, and applications of smart devices are increasing in exhibition spaces such as museums and art galleries visited by users.
예를 들어, 공개특허 제2000-0054344는 인터넷을 통한 3차원 가상현실 미술관/쇼핑몰 시스템 및 그 운영 방법에 관한 것으로서, 가상 미술관을 제공하는 발명이다. For example, Patent Publication No. 2000-0054344 relates to a three-dimensional virtual reality museum/shopping mall system and an operating method thereof through the Internet, and is an invention for providing a virtual art museum.
그러나, 이러한 공개특허는, 가상현실 상에 미술관을 제공하는 것에 그쳐, 사용자가 실제로 해당 공간에 있는 것과 같은 실제감, 생동감을 느끼지 못한다. However, such a published patent only provides an art museum in virtual reality, and the user does not feel a sense of realism and vitality as if he were actually in the space.
따라서, 다양한 기술 발전의 추세에 맞추어, 사용자가 실제 전시공간을 방문하여, 명화 등과 같은 콘텐츠를 소비하는 것과 같은 느낌, 즉, 직접 눈으로 보고, 체험하는 것과 같은 느낌을 제공할 수 있는 방법이 필요하다. Therefore, in line with the trend of various technological developments, there is a need for a method that can provide a feeling of a user visiting an actual exhibition space and consuming content such as famous paintings, that is, seeing and experiencing it with their own eyes. do.
본 발명의 일 목적은, 현장감 및 실제감을 느낄 수 있는 초고화질 이미지 구현 방법 및 시스템을 제공하기 위한 것이다.SUMMARY OF THE INVENTION One object of the present invention is to provide a method and system for realizing an ultra-high-resolution image that can feel a sense of presence and realism.
특히, 본 발명은, 명화, 다양한 미술 작품을 실감나게 표현하는 초고화질의 이미지를 생성할 수 있는 초고화질 이미지 구현 방법 및 시스템을 제공하는 것이다. In particular, the present invention is to provide a method and system for realizing an ultra-high-definition image capable of generating an ultra-high-quality image that realistically expresses famous paintings and various works of art.
본 발명의 다른 일 목적은, 사용자가 미술관이나 박물관에서 실제로 작품 또는 전시품을 보는 것과 같은 경험을 제공할 수 있는 초고화질 이미지 구현 방법 및 시스템을 제공하는 것이다.Another object of the present invention is to provide a method and system for realizing an ultra-high-definition image that can provide an experience for a user to see an actual work or an exhibition in an art gallery or museum.
본 발명의 일 목적은, 현장감 및 실제감을 느낄 수 있는 실감형 가상 전시 공간 제공 방법 및 시스템을 제공하기 위한 것이다. SUMMARY OF THE INVENTION One object of the present invention is to provide a method and system for providing an immersive virtual exhibition space that can feel a sense of presence and realism.
특히, 본 발명은, 사용자가 미술관이나 박물관에서 실제로 작품 또는 전시품을 보는 것과 같은 경험을 제공할 수 있는 실감형 가상 전시 공간 제공 방법 및 시스템을 제공하는 것이다. In particular, it is an object of the present invention to provide a method and system for providing an immersive virtual exhibition space in which a user can provide an experience such as actually viewing works or exhibits in an art gallery or museum.
본 발명의 다른 일 목적은, 사용자가 가상 전시 공간을 직접 디자인 할 수 있는 실감형 가상 전시 공간 제공 방법 및 시스템을 제공하는 것이다. Another object of the present invention is to provide a method and system for providing an immersive virtual exhibition space in which a user can directly design a virtual exhibition space.
위에서 살펴본 과제를 해결하기 위하여, 본 발명에 따른 초고화질 명화 이미지 구현 방법은, 대상 이미지에 대응되는 서로 다른 복수개의 조각 이미지를 수신하는 단계, 상기 복수개의 조각 이미지 각각의 유사성에 근거하여, 상기 복수개의 조각 이미지를 조합하는 단계, 상기 조합의 결과 생성되는 원본 이미지가 기 특정된 질감을 갖도록 상기 원본 이미지에 캔버스 맵(Canvas Map)을 적용하는 단계 및 상기 캔버스 맵(Canvas Map)이 적용된 원본 이미지에, 가상 공간에 입사되는 가상의 빛의 반사 특성이 반영되도록 노말 맵(Normal Map)을 적용하는 단계를 포함할 수 있다. In order to solve the above problems, the ultra-high-definition masterpiece image implementation method according to the present invention includes the steps of receiving a plurality of different sculptural images corresponding to a target image, and based on the similarity of each of the plurality of sculptural images, the plurality of Combining the pieces of images, applying a canvas map to the original image so that the original image generated as a result of the combination has a predetermined texture, and applying the canvas map to the original image to which the canvas map is applied , applying a normal map to reflect reflection characteristics of virtual light incident on the virtual space.
나아가, 상기 복수개의 조각 이미지는 기 설정된 해상도 기준을 만족하는 이미지들이고, 상기 복수개의 조각 이미지의 어느 하나는 다른 하나와 적어도 일부가 중첩되는 이미지 정보를 포함할 수 있다. Furthermore, the plurality of fragment images may be images satisfying a preset resolution criterion, and any one of the plurality of fragment images may include image information that at least partially overlaps with the other one.
나아가, 상기 원본 이미지를 생성하는 단계는, 상기 조합된 조각 이미지들에 대해 엣지 블렌딩(edge blending)을 수행할 수 있다. Furthermore, in the generating of the original image, edge blending may be performed on the combined fragment images.
나아가, 상기 엣지 블렌딩은, 상기 복수개의 조각 이미지들 중 상호 중첩되는 이미지 정보를 포함하는 제1 조각 이미지 및 제2 조각 이미지 각각의 상기 상호 중첩되는 이미지 정보가 오버랩되도록 하는 것일 수 있다. Furthermore, the edge blending may be such that the mutually overlapping image information of each of the first fragment image and the second fragment image including mutually overlapping image information among the plurality of fragment images overlap.
나아가, 상기 캔버스 맵을 적용하는 단계에서는, 상기 원본 이미지에, 상기 기 특정된 질감에 대응되는 레이어를 합성하여, 상기 캔버스 맵이 적용된 원본 이미지를 생성할 수 있다. Furthermore, in the step of applying the canvas map, the original image to which the canvas map is applied may be generated by synthesizing a layer corresponding to the predetermined texture with the original image.
나아가, 상기 노말 맵을 적용하는 단계는, 가상의 광원에 대한 위치, 형태, 세기, 빛의 진행 방향 중 적어도 하나를 정의하는 광원 정보에 기반하여 수행될 수 있다. Furthermore, the step of applying the normal map may be performed based on light source information defining at least one of a location, a shape, an intensity, and a direction of light for a virtual light source.
나아가, 본 발명에 따른 초고화질 명화 이미지 구현 방법은, 상기 노말 맵을 적용하는 단계에서는, 상기 광원 정보 및 상기 노말 맵에 포함된 노말 벡터에 기반하여, 상기 원본 이미지를 구성하는 픽셀 각각에 대한 반사각 정보를 산출하는 단계 및 상기 반사각 정보에 기반하여, 상기 원본 이미지를 구성하는 픽셀 각각에 대한 새로운 픽셀값을 산출하는 단계를 더 포함할 수 있다. Furthermore, in the method for realizing an ultra-high-definition masterpiece image according to the present invention, in the step of applying the normal map, the reflection angle for each pixel constituting the original image is based on the light source information and a normal vector included in the normal map. The method may further include calculating information and calculating a new pixel value for each pixel constituting the original image based on the reflection angle information.
본 발명에 따른 초고화질 명화 이미지 구현 방법은, 상기 광원 정보를 변경하는 단계, 상기 변경된 광원 정보 및 상기 노말 맵에 포함된 노말 벡터에 기반하여, 상기 원본 이미지를 구성하는 픽셀 각각에 대한 반사각 정보를 재산출하는 단계 및 상기 재산출된 반사각 정보에 기반하여, 상기 원본 이미지를 구성하는 픽셀 각각에 대한 새로운 픽셀값을 재산출하는 단계를 더 포함할 수 있다. The method for realizing an ultra-high-definition masterpiece image according to the present invention includes changing the light source information, and based on the changed light source information and a normal vector included in the normal map, reflection angle information for each pixel constituting the original image. The method may further include re-calculating a new pixel value for each pixel constituting the original image based on the re-calculation step and the re-calculated reflection angle information.
본 발명에 따른 초고화질 명화 이미지 구현 방법은, 상기 노말 맵이 적용된 원본 이미지를, 상기 가상 공간을 재현하는 전자기기에 제공하는 단계를 더 포함하고, 상기 제공하는 단계에서는, 상기 반사각 정보에 기반하여 산출된 새로운 픽셀값을 포함하는 원본 이미지를 제공할 수 있다. The method for realizing an ultra-high-definition masterpiece image according to the present invention further comprises the step of providing the original image to which the normal map is applied, to an electronic device that reproduces the virtual space, in the providing step, based on the reflection angle information An original image including the calculated new pixel values may be provided.
한편, 본 발명에 따른 초고화질 이미지 구현 시스템은, 대상 이미지에 대응되는 서로 다른 복수개의 조각 이미지를 수신하는 통신부 및 상기 복수개의 조각 이미지 각각의 유사성에 근거하여, 상기 복수개의 조각 이미지를 조합하는 제어부를 포함하고, 상기 제어부는, 상기 조합의 결과 생성되는 원본 이미지가 기 특정된 질감을 갖도록 상기 원본 이미지에 캔버스 맵(Canvas Map)을 적용하고, 상기 캔버스 맵(Canvas Map)이 적용된 원본 이미지에, 가상 공간에 입사되는 가상의 빛의 반사 특성이 반영되도록 노말 맵(Normal Map)을 적용할 수 잇다. On the other hand, the ultra-high-definition image implementation system according to the present invention, a communication unit for receiving a plurality of different pieces of images corresponding to a target image, and a control unit for combining the plurality of pieces of images based on the similarity of each of the plurality of pieces of images Including, wherein the control unit applies a Canvas Map to the original image so that the original image generated as a result of the combination has a predetermined texture, and to the original image to which the Canvas Map is applied, A normal map may be applied to reflect the reflection characteristics of virtual light incident on the virtual space.
한편, 본 발명에 따른 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램은, 대상 이미지에 대응되는 서로 다른 복수개의 조각 이미지를 수신하는 단계, 상기 복수개의 조각 이미지 각각의 유사성에 근거하여, 상기 복수개의 조각 이미지를 조합하는 단계, 상기 조합의 결과 생성되는 원본 이미지가 기 특정된 질감을 갖도록 상기 원본 이미지에 캔버스 맵(Canvas Map)을 적용하는 단계 및 상기 캔버스 맵(Canvas Map)이 적용된 원본 이미지에, 가상 공간에 입사되는 가상의 빛의 반사 특성이 반영되도록 노말 맵(Normal Map)을 적용하는 단계를 포함할 수 있다. On the other hand, the program stored in the computer-readable recording medium according to the present invention comprises the steps of receiving a plurality of different pieces of image corresponding to a target image, and based on the similarity of each of the plurality of pieces of images, Combining fragment images, applying a Canvas Map to the original image so that the original image generated as a result of the combination has a predetermined texture, and to the original image to which the Canvas Map is applied, The method may include applying a normal map to reflect the reflection characteristics of virtual light incident on the virtual space.
또한, 위에서 살펴본 과제를 해결하기 위하여, 본 발명에 따른 실감형 가상 전시 공간 제공 방법은, 가상 전시 공간에 전시되는 메인 컨텐츠를 특정하는 단계, 상기 메인 컨텐츠의 시각적 특성을 이용하여, 상기 가상 전시 공간의 배경 컨텐츠를 생성하는 단계, 상기 배경 컨텐츠의 적어도 일부에 상기 메인 컨텐츠가 중첩되도록 실감형 컨텐츠를 생성하는 단계, 및 상기 가상 전시 공간에서 상기 실감형 컨텐츠가 제공되도록 상기 실감형 컨텐츠를 전자기기에 전송하는 단계를 포함할 수 있다. In addition, in order to solve the above problems, the method for providing an immersive virtual exhibition space according to the present invention includes the steps of specifying main content to be displayed in a virtual exhibition space, and using the visual characteristics of the main content, the virtual exhibition space generating the background content of , generating the immersive content so that the main content is superimposed on at least a part of the background content, and transferring the immersive content to the electronic device so that the immersive content is provided in the virtual exhibition space It may include the step of transmitting.
나아가, 상기 배경 컨텐츠를 생성하는 단계는, 상기 메인 컨텐츠의 시각적 특성을 추출하고, 상기 추출된 시각적 특성을 이용하여 상기 배경 컨텐츠의 패턴, 질감 또는 색상을 설정할 수 있다. Furthermore, the generating of the background content may include extracting a visual characteristic of the main content, and setting a pattern, texture, or color of the background content by using the extracted visual characteristic.
나아가, 상기 시각적 특성에는 상기 배경 컨텐츠의 구성 정보가 매칭되며, 상기 배경 컨텐츠는 상기 추출된 시각적 특성에 매칭된 구성 정보를 이용하여 생성될 수 있다. Furthermore, the composition information of the background content is matched to the visual characteristic, and the background content may be generated using the composition information matched to the extracted visual characteristic.
나아가, 상기 배경 컨텐츠에는 비추어지는 광에 해당하는 이미지가 형성되고, 상기 광에 해당하는 이미지는 시간의 흐름에 따라 비추어지는 방향이 변화되는 것을 특징으로 할 수 있다. Furthermore, an image corresponding to the illuminated light may be formed on the background content, and the light direction of the image corresponding to the light may be changed over time.
나아가, 상기 배경 컨텐츠에 비추어지는 광에 매칭되도록 상기 가상 전시 공간에 입사되는 빛의 반사 특성이 설정되고, 상기 반사 특성이 반영되도록 상기 메인 컨텐츠의 픽셀값을 변경될 수 있다. Furthermore, a reflection characteristic of the light incident on the virtual exhibition space may be set to match the light shining on the background content, and a pixel value of the main content may be changed to reflect the reflection characteristic.
나아가, 상기 배경 컨텐츠는 날씨 정보를 반영하여 생성될 수 있다. Furthermore, the background content may be generated by reflecting weather information.
나아가, 상기 날씨 정보는 상기 전자기기가 위치하는 지역에 해당하는 정보일 수 있다. Furthermore, the weather information may be information corresponding to a region in which the electronic device is located.
나아가, 상기 배경 컨텐츠에는 상기 가상 전시 공간의 벽 및 천장 중 적어도 하나에 배치되는 유리가 포함될 수 있다. Furthermore, the background content may include glass disposed on at least one of a wall and a ceiling of the virtual exhibition space.
나아가, 상기 실감형 컨텐츠를 생성하는 단계는, 상기 배경 컨텐츠의 일 영역에 상기 메인 컨텐츠를 배치하여 상기 실감형 컨텐츠를 생성할 수 있다. Furthermore, the generating of the immersive content may include arranging the main content in one area of the background content to generate the immersive content.
한편, 본 발명에 따른 실감형 가상 전시 공간 제공 시스템은, 가상 전시 공간에 전시되는 메인 컨텐츠를 특정하고, 상기 메인 컨텐츠의 시각적 특성을 이용하여, 상기 가상 전시 공간의 배경 컨텐츠를 생성하고, 상기 배경 컨텐츠의 적어도 일부에 상기 메인 컨텐츠가 중첩되도록 실감형 컨텐츠를 생성하는 제어부 및 상기 가상 전시 공간에서 상기 실감형 컨텐츠가 제공되도록 상기 실감형 컨텐츠를 전자기기에 전송하는 통신부를 포함할 수 있다. Meanwhile, the system for providing an immersive virtual exhibition space according to the present invention specifies main content to be displayed in a virtual exhibition space, generates background content of the virtual exhibition space by using the visual characteristics of the main content, and the background and a controller for generating the immersive content so that the main content is superimposed on at least a portion of the content, and a communication unit for transmitting the immersive content to an electronic device so that the immersive content is provided in the virtual exhibition space.
한편, 본 발명에 따른 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램은, 가상 전시 공간에 전시되는 메인 컨텐츠를 특정하는 단계, 상기 메인 컨텐츠의 시각적 특성을 이용하여, 상기 가상 전시 공간의 배경 컨텐츠를 생성하는 단계, 상기 배경 컨텐츠의 적어도 일부에 상기 메인 컨텐츠가 중첩되도록 실감형 컨텐츠를 생성하는 단계, 및 상기 가상 전시 공간에서 상기 실감형 컨텐츠가 제공되도록 상기 실감형 컨텐츠를 전자기기에 전송하는 단계를 포함할 수 있다. Meanwhile, the program stored in the computer-readable recording medium according to the present invention includes the steps of specifying main content to be displayed in a virtual exhibition space, and using the visual characteristics of the main content to select the background content of the virtual exhibition space. generating the immersive content so that the main content is superimposed on at least a portion of the background content, and transmitting the immersive content to an electronic device so that the immersive content is provided in the virtual exhibition space. may include
위에서 살펴본 것과 같이, 본 발명에 따른 초고화질 이미지 구현 방법 및 시스템은, 초고화질의 이미지를 생성하는 것을 통하여, 실제감 및 생동감 있는 콘텐츠를 제공할 수 있다. 이를 통해, 사용자는 미술관 또는 박물관 등에서 전시되는 작품을 언제라도 손쉽게 접할 수 있다. 이를 통해, 사용자는 풍부한 문화 예술 콘텐츠를 향유할 수 있다. 나아가, 미술관 또는 박물관은 보다 많은 사용자에게 작품에 해당하는 콘텐츠를 제공함으로써, 사용자의 관심을 향상시킬 수 있다. As described above, the method and system for realizing an ultra-high-resolution image according to the present invention can provide content with a sense of reality and vitality by generating an ultra-high-resolution image. Through this, the user can easily access works displayed in art galleries or museums at any time. Through this, users can enjoy rich cultural and artistic contents. Furthermore, art galleries or museums may provide more users with content corresponding to works, thereby enhancing user interest.
나아가, 본 발명에 따른 초고화질 이미지 구현 방법 및 시스템은 이미지의 적어도 일부분을 포함하는 복수개의 서로 다른 조각 이미지를 이용하여, 최대 해상도를 넘는 초고화질 명화 이미지를 생성할 수 있다. 이러한 초고화질의 이미지는, 확대 시에도 화질이 손상되지 않는 고해상도의 이미지로 이루어짐으로써, 실제 대상물(예를 들어, 명화)의 디테일이 고스란히 표현될 수 있다. Furthermore, the method and system for realizing an ultra-high-definition image according to the present invention can generate an ultra-high-definition image exceeding the maximum resolution by using a plurality of different fragment images including at least a part of the image. The ultra-high-resolution image is made of a high-resolution image in which the image quality is not impaired even when enlarged, so that details of an actual object (eg, a masterpiece) can be expressed intact.
이러한, 초고화질의 이미지가 가상 현실, 증강현실, 혼합현실, 또는 확장현실 등 다양한 기술에 따른 방법으로 사용자에게 제공되는 경우, 사용자는 해당 이미지에 해당하는 대상물을(예를 들어, 명화) 현장(예를 들어, 박물관 또는 미술관) 에서 실제로 보는 것과 같은 생생한 느낌을 전달할 수 있다. When such a super-high-resolution image is provided to the user by a method according to various technologies such as virtual reality, augmented reality, mixed reality, or extended reality, the user selects an object corresponding to the image (eg, a masterpiece) on-site ( It can convey a vivid feeling as if you were actually seeing it in a museum or art gallery, for example.
또한, 위에서 살펴본 것과 같이, 본 발명에 따른 실감형 가상 전시 공간 제공 방법 및 시스템은, 메인 컨텐츠의 시각적 특성을 이용하여, 가상 전시 공간의 배경 컨텐츠를 생성함으로써, 실감형 컨텐츠를 생성할 수 있다. 따라서, 사용자는 메인 컨텐츠의 질감이나 색상 등을 더욱 실감나게 느낄 수 있고, 실제 전시 공간에서 전시물을 관람하는 것과 같은 느낌을 제공 받을 수 있다. Also, as described above, the method and system for providing an immersive virtual exhibition space according to the present invention can generate immersive content by generating background content of the virtual exhibition space using the visual characteristics of the main content. Accordingly, the user can feel the texture or color of the main content more realistically, and can be provided with the feeling of viewing an exhibition in an actual exhibition space.
나아가, 본 발명에 따른 실감형 가상 전시 공간 제공 방법 및 시스템은, 시간 및 날씨 등에 따라 가상 전시 공간의 환경을 다르게 제공할 수 있다. 따라서, 사용자는 비오는 날 명화와 같은 미술 작품을 관람하고 싶으면 가상 전시 공간의 분위기를 비오는 날과 같이 설정하고, 밤에 미술 작품을 관람하고 싶으면 가상 전시 공간의 분위기를 밤으로 설정함으로써, 미술 작품 감상에 재미를 느끼고, 실제 체험하지 못하는 경험을 대체하여 경험할 수 있다. Furthermore, the method and system for providing an immersive virtual exhibition space according to the present invention can provide a different environment of the virtual exhibition space according to time and weather. Therefore, if the user wants to view an art work such as a masterpiece on a rainy day, he sets the atmosphere of the virtual exhibition space to the same as on a rainy day, and if he wants to view an art work at night, sets the atmosphere of the virtual exhibition space to night. You can have fun with it and experience it instead of an experience you can't actually experience.
이러한, 실감형 컨텐츠가 가상현실, 증강현실, 혼합현실, 또는 확장현실 등 다양한 기술에 따른 방법으로 사용자에게 제공되는 경우, 사용자는 미술관 또는 박물관 등에서 전시되는 작품을 언제라도 손쉽게 접할 수 있다. 이를 통해, 사용자는 풍부한 문화 예술 콘텐츠를 향유할 수 있다. 나아가, 미술관 또는 박물관은 보다 많은 사용자에게 작품에 해당하는 콘텐츠를 제공함으로써, 사용자의 관심을 향상시킬 수 있다. When such immersive content is provided to a user in a method according to various technologies such as virtual reality, augmented reality, mixed reality, or extended reality, the user can easily access works displayed in art galleries or museums at any time. Through this, users can enjoy rich cultural and artistic contents. Furthermore, art galleries or museums may provide more users with content corresponding to works, thereby enhancing user interest.
도1a는 본 발명에 따른 초고화질 이미지 구현 시스템에 의해 제공되는 가상공간의 미술관을 설명하기 위한 개념도이다. 1A is a conceptual diagram for explaining an art museum in a virtual space provided by an ultra-high-definition image realization system according to the present invention.
도 1b는 본 발명에 따른 초고화질 이미지 구현 시스템의 구성도이다.1B is a block diagram of an ultra-high-definition image realization system according to the present invention.
도 2는 본 발명에 따른 초고화질 이미지 구현 방법의 흐름도이다. 2 is a flowchart of an ultra-high-definition image implementation method according to the present invention.
도 3은 본 발명에 따른 초고화질 이미지를 설명하기 위한 개념도이다. 3 is a conceptual diagram for explaining an ultra-high-resolution image according to the present invention.
도 4a, 도 4b, 및 도 4c는 본 발명에 따른 원본 이미지를 설명하기 위한 개념도이다. 4A, 4B, and 4C are conceptual diagrams for explaining an original image according to the present invention.
도 5는 본 발명에 따른 캔버스 맵이 적용된 원본 이미지를 설명하기 위한 개념도이다. 5 is a conceptual diagram for explaining an original image to which a canvas map according to the present invention is applied.
도 6 및 도 7은 본 발명에 따른 노말맵이 적용된 원본 이미지를 설명하기 위한 개념도이다. 6 and 7 are conceptual diagrams for explaining an original image to which a normal map according to the present invention is applied.
도 8 및 도 9는 본 발명에 따른 AO맵이 적용된 원본 이미지를 설명하기 위한 개념도이다.8 and 9 are conceptual diagrams for explaining an original image to which an AO map according to the present invention is applied.
도 10은 본 발명에 따른 최종 이미지를 설명하기 위한 개념도이다. 10 is a conceptual diagram for explaining a final image according to the present invention.
도 11은 본 발명에 따른 실감형 가상 전시 공간 제공 방법 및 시스템에 의해 제공되는 가상현실, 증강현실, 혼합현실, 또는 확장현실을 설명하기 위한 개념도이다. 11 is a conceptual diagram illustrating virtual reality, augmented reality, mixed reality, or extended reality provided by the method and system for providing an immersive virtual exhibition space according to the present invention.
도 12는 본 발명에 따른 실감형 가상 전시 공간 제공 시스템의 구성도이다. 12 is a block diagram of a system for providing an immersive virtual exhibition space according to the present invention.
도 13은 본 발명에 따른 실감형 가상 전시 공간 제공 방법을 설명하기 위한 흐름도이다. 13 is a flowchart illustrating a method for providing an immersive virtual exhibition space according to the present invention.
도 14, 도 15, 도 16, 및 도 17은 본 발명에 따른 실감형 콘텐츠를 설명하기 위한 개념도이다. 14, 15, 16, and 17 are conceptual diagrams for explaining immersive content according to the present invention.
도 18, 도 19, 도 20, 도 21, 및 도 22는 사용자 인터페이스를 설명하기 위한 개념도이다. 18, 19, 20, 21, and 22 are conceptual diagrams for explaining a user interface.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components will be given the same reference numerals regardless of reference numerals, and redundant descriptions thereof will be omitted. The suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers such as first, second, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expression includes the plural expression unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as “comprises” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.
본 발명은, 사용자가 현장에 방문하여 콘텐츠를 소비하는 것과 같은 느낌, 즉, 직접 눈으로 보고, 체험하는 것과 같은 느낌을 제공하기 위하여, 초고화질의 이미지를 구현하는 방법 및 시스템에 관한 것으로서, 이하 첨부된 도면과 함께 초고화질의 이미지를 생성하는 방법에 대하여 살펴본다.The present invention relates to a method and system for realizing an ultra-high-definition image in order to provide a feeling that a user visits a site and consumes content, that is, a feeling of seeing and experiencing with his/her own eyes. A method of generating an ultra-high-resolution image will be described with the accompanying drawings.
한편, 본 발명에서 설명되는 초고화질 이미지는, 기 설정된 해상도 또는 기 설정된 화소 기준을 만족하는 이미지를 의미할 수 있다. 여기서, 기 설정된 해상도 또는 기 설정된 화소 기준이란, 이미지의 해상도가 특정 값의 해상도 이상(또는 초과)이거나, 이미지의 화소가 특정 값 이상의 화소(PPI(pixels per inch))일 것을 의미할 수 있다. Meanwhile, the ultra-high-resolution image described in the present invention may mean an image that satisfies a preset resolution or a preset pixel criterion. Here, the preset resolution or the preset pixel reference may mean that the resolution of the image is equal to or higher than (or exceeds) the resolution of a specific value, or that the pixels of the image are pixels (pixels per inch) of the specific value or more.
먼저, 도 1a는 본 발명에 따른 초고화질 이미지 구현 시스템에 의해 제공되는 가상공간의 미술관을 설명하기 위한 개념도이다. 도 1b는 본 발명에 따른 초고화질 이미지 구현 시스템의 구성도이고, 도 2는 본 발명에 따른 초고화질 이미지 구현 방법의 흐름도이고, 도 3은 본 발명에 따른 초고화질 이미지를 설명하기 위한 개념도이고, 도 4a, 도 4b, 및 도 4c는 본 발명에 따른 원본 이미지를 설명하기 위한 개념도이고, 도 5는 본 발명에 따른 캔버스 맵이 적용된 원본 이미지를 설명하기 위한 개념도이고, 도 6 및 도 7은 본 발명에 따른 노말맵이 적용된 원본 이미지를 설명하기 위한 개념도이고, 도 8 및 도 9는 본 발명에 따른 AO맵이 적용된 원본 이미지를 설명하기 위한 개념도이고, 도 10은 본 발명에 따른 최종 이미지를 설명하기 위한 개념도이다. First, FIG. 1A is a conceptual diagram for explaining an art museum in a virtual space provided by the ultra-high-definition image realization system according to the present invention. 1b is a block diagram of an ultra-high-definition image implementation system according to the present invention, FIG. 2 is a flowchart of an ultra-high-definition image implementation method according to the present invention, and FIG. 3 is a conceptual diagram for explaining an ultra-high-definition image according to the present invention, 4A, 4B, and 4C are conceptual diagrams for explaining an original image according to the present invention, FIG. 5 is a conceptual diagram for explaining an original image to which a canvas map according to the present invention is applied, and FIGS. 6 and 7 are this view It is a conceptual diagram for explaining an original image to which a normal map according to the present invention is applied, FIGS. 8 and 9 are conceptual diagrams for explaining an original image to which an AO map according to the present invention is applied, and FIG. 10 is a final image according to the present invention. It is a conceptual diagram for
본 발명에 따른 초고화질 이미지 구현 시스템(100)은, 이미지를 출력(또는 재생)할 수 있는 전자기기와 연동되어 동작할 수 있다. 도 1a에 도시된 것과 같이, 본 발명에 따른 초고화질 이미지 구현 시스템(100)은 헤드 마운티드 디스플레이(10a), XR 글래스(10b) 및 전자기기(10c)와 연동되어 동작할 수 있다. 본 발명에 따른 초고화질 이미지 구현 시스템(100)은, 헤드 마운티드 디스플레이(10a) 또는 XR 글래스(10b)에 전자기기(10c)에 초고화질 이미지를 출력시킴으로써, 사용자가 미술관이나 박물관(10d)에서 미술작품(10e)을 실제로 감상하는 것과 같은 경험을 제공할 수 있다. The ultra-high-definition image realization system 100 according to the present invention may operate in conjunction with an electronic device capable of outputting (or reproducing) an image. As shown in FIG. 1A , the ultra-high-definition image realization system 100 according to the present invention may operate in conjunction with the head mounted display 10a, the XR glasses 10b, and the electronic device 10c. The ultra-high-definition image realization system 100 according to the present invention outputs an ultra-high-resolution image to the electronic device 10c on the head mounted display 10a or XR glass 10b, so that the user can make art in an art gallery or museum 10d. It is possible to provide an experience similar to actually appreciating the work 10e.
여기서, 이미지(Image)는, 디지털 화상을 의미하며, 이미지 데이터(image data)로 명명될 수도 있다. 예를 들어, 그림과 같은 미술 작품을 스캐너나 카메라로 촬영하여 데이터화 한 정보를 이미지라 할 수 있다. Here, the image means a digital image, and may also be referred to as image data. For example, information obtained by capturing an art work such as a painting with a scanner or camera and turning it into data can be called an image.
한편, 헤드 마운티드 디스플레이(10a, Head mounted display, 이하, 'HMD'이라고 명명함)(10a)는 안경처럼 착용하고 영상을 즐길 수 있는 영상 표시 장치들을 총칭하며, 최근에는 FMD(Face Mounted Display)라고도 부른다. HMD는, 사용자의 시각 및 청각을 외부와 차단한 후 사용자의 시각에 가상세계를 보여주는 역할을 한다. 일 예로서, HMD는, 눈앞에 디스플레이가 오도록 얼굴에 쓰는 형태로 마이크, 스테레오 스피커를 비롯해 여러 센서 등이 탑재돼 있다.On the other hand, a head mounted display (10a, hereinafter referred to as 'HMD') (10a) is a generic term for image display devices that can be worn like glasses and enjoy images, and recently also referred to as a face mounted display (FMD). call The HMD serves to show the virtual world to the user's eyes after blocking the user's sight and hearing from the outside. As an example, the HMD is equipped with a microphone, a stereo speaker, and various sensors in the form of a face worn with a display in front of the eyes.
특히 이러한 HMD는, VR(Virtual Reality) 같은 컨텐츠를 디스플레이 할 수 있다. 나아가 HMD는, AR(Augmented Reality) 컨텐츠 또는 MR(Mixed Reality) 컨텐츠 중 어느 하나를 디스플레이할 수도 있다.In particular, such an HMD may display content such as VR (Virtual Reality). Furthermore, the HMD may display either augmented reality (AR) content or mixed reality (MR) content.
여기서, 컨텐츠(Contents)란, 부호, 문자, 도형, 색채, 음성, 음향, 이미지 및 영상 등(또는 이들 중 적어도 두개 이상의 복합체)의 자료, 데이터 또는 정보를 의미한다. 이하에서는, 이미지를 예를 들어서 설명하도록 한다. Here, the content refers to data, data, or information of signs, characters, figures, colors, voices, sounds, images, and images (or a complex of at least two of them). Hereinafter, an image will be described as an example.
한편, XR글래스(eXtended Reality Glasses)(10b)는 렌즈를 통해 전자기기(10c) 속 앱에 올려진 콘텐츠를, 무엇이든지 가상 공간에 띄워놓고 볼 수 있도록 해준다. 야구중계, 유튜브, 뮤직비디오, 뉴스, 미술 작품 등을 전철이나 버스 안, 소파나 침대 위에서 원화는 화면의 크기로 조절해가며 볼 수 있다.On the other hand, XR Glass (eXtended Reality Glasses) (10b) allows you to view any content uploaded to the app in the electronic device (10c) through the lens, floating in a virtual space. Baseball broadcasts, YouTube, music videos, news, and art works can be viewed on the train or bus, on the sofa or on the bed by adjusting the size of the screen.
나아가, 전자기기(10c)는, 스마트폰(smart phone), 휴대폰, 태블릿 PC, 키오스크(KIOSK), 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), 및 PMP(Portable Multimedia Player) 중 적어도 하나를 포함할 수 있다Furthermore, the electronic device 10c includes at least one of a smart phone, a mobile phone, a tablet PC, a kiosk, a computer, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), and a portable multimedia player (PMP). can contain one
사용자는 헤드 마운티드 디스플레이(10a) 또는 XR 글래스(10b)에 착용하고, 본 발명에 따른 초고화질 이미지 구현 시스템(100)에 의해 제공되는 이미지를 감상할 수 있다. 이를 통해, 사용자는 미술관이나 박물관의 현장에 방문하여 콘텐츠를 소비하는 것과 같은 느낌, 즉, 직접 눈으로 보고, 체험하는 것과 같은 느낌을 제공받을 수 있다. The user can enjoy the image provided by the ultra-high-definition image realization system 100 according to the present invention by wearing it on the head mounted display 10a or the XR glasses 10b. Through this, the user may be provided with the feeling of consuming content by visiting the site of an art gallery or museum, that is, seeing and experiencing the content with their own eyes.
이하에서는, 사용자에게 가상현실, 증강현실, 혼합현실 및 확장현실(이하, 확장현실 등이라 명명함)을 통해 더욱 실감나는 이미지를 제공하기 위하여, 미술 작품에 대한 초고화질 이미지를 구현하는 방법에 대하여 구체적으로 설명하도록 한다. Hereinafter, in order to provide a more realistic image through virtual reality, augmented reality, mixed reality and extended reality (hereinafter referred to as extended reality, etc.) to the user, a method of implementing a super high-resolution image for a work of art Let me explain in detail.
도 1b에 도시된 것과 같이, 본 발명에 따른 초고화질 이미지 구현 시스템(100)은 통신부(110), 저장부(120) 및 제어부(130) 중 적어도 하나를 포함할 수 있다. 이때 본 발명에 따른 초고화질 이미지 구현 시스템(100)은 상술한 구성 요소로 제한되는 것은 아니며, 본 명세서의 설명에 따른 기능과 동일 또는 유사한 역할을 수행하는 구성요소를 더 포함할 수 있다.As shown in FIG. 1B , the ultra-high-definition image realization system 100 according to the present invention may include at least one of a communication unit 110 , a storage unit 120 , and a control unit 130 . At this time, the ultra-high-definition image realization system 100 according to the present invention is not limited to the above-described components, and may further include components that perform the same or similar roles as the functions according to the description of the present specification.
통신부(110)는 앞서 설명한 헤드 마운티드 디스플레이(10a), XR 글래스(10b), 전자기기(10c)와 및 적어도 하나의 외부 서버와 데이터를 송수신할 수 있다. 예를 들어, 통신부(110)는 외부 서버로부터 미술작품을 촬영(또는 스캔)한 이미지를 수신할 수 있다. 또한, 통신부(110)는 외부 서버로부터 조각 이미지(200a)를 수신할 수 있다. The communication unit 110 may transmit/receive data to and from the head mounted display 10a, the XR glasses 10b, the electronic device 10c, and at least one external server described above. For example, the communication unit 110 may receive an image obtained by photographing (or scanning) a work of art from an external server. Also, the communication unit 110 may receive the fragment image 200a from an external server.
여기서, 조각 이미지(200a)는, 대상 이미지의 적어도 일 부분을 포함하는 이미지로 이해될 수 있다. 예를 들어, 대상 이미지를 중앙을 기준으로 좌 ·우로 영역을 구분하고, 좌측 영역을 카메라로 촬영 또는 스캔한 이미지를 제1 조각 이미지, 우측 영역을 카메라로 촬영 또는 스캔한 이미지를 제2 조각 이미지로 이해될 수 있다.Here, the fragment image 200a may be understood as an image including at least a portion of the target image. For example, the target image is divided into left and right areas based on the center, the left area is taken or scanned with the camera as a first piece image, and the right area is captured or scanned with the camera as a second piece image. can be understood as
복수의 조각 이미지(200a) 각각은 기 설정된 해상도로 대상 이미지의 일부를 스캔하여 생성된다. N개의 조각 이미지(200a)는 대상 이미지를 기 설정된 해상도로 N회 스캔함에 따라 생성된다. 이에, 복수의 조각 이미지(200a) 각각은 기 설정된 해상도로 이루어질 수 있다.Each of the plurality of fragment images 200a is generated by scanning a portion of the target image with a preset resolution. The N pieces of image 200a are generated by scanning the target image N times with a preset resolution. Accordingly, each of the plurality of fragment images 200a may have a preset resolution.
이때, 복수의 조각 이미지(200a) 각각은 초고화질 이미지일 수 있다. 즉, 복수의 조각 이미지(200a) 각각은 기 설정된 해상도 또는 기 설정된 화소 기준을 만족하는 이미지를 의미할 수 있다 In this case, each of the plurality of fragment images 200a may be an ultra-high-resolution image. That is, each of the plurality of fragment images 200a may mean an image satisfying a preset resolution or a preset pixel criterion.
나아가, 복수의 조각 이미지(200a)의 어느 하나는 다른 하나와 적어도 일부가 중첩되는 이미지 정보를 포함할 수 있다. 구체적으로, 대상 이미지를 복수 회 스캔 시 대상 이미지의 일부분은 복수 회 스캔 된다. 예를 들어, 대상 이미지의 좌측 상단 스캔 이미지와 대상 이미지의 중앙 상단 스캔 이미지 각각은 대상 이미지의 특정 영역에 대응되는 이미지를 포함한다.Furthermore, any one of the plurality of fragment images 200a may include image information that at least partially overlaps with the other one. Specifically, when the target image is scanned multiple times, a portion of the target image is scanned multiple times. For example, each of the upper left scan image of the target image and the upper center scan image of the target image includes an image corresponding to a specific region of the target image.
여기서 중첩되는 이미지 정보는, 복수의 조각 이미지의 어느 하나와 다른 하나 각각에 포함된, 대상 이미지의 특정 영역에 대응되는 이미지를 의미할 수 있다. 예를 들어, 도 4c를 참조하면, 제5 조각 이미지(415) 및 제6 조각 이미지(416)는 대상 이미지의 일 영역(415a, 416a)을 동일하게 포함하고 있다. 이처럼, 복수의 조각 이미지에 동일하게 포함된 대상 이미지의 일 영역을, 중첩되는 이미지 정로로 이해할 수 있다. Here, the overlapping image information may mean an image corresponding to a specific region of the target image, which is included in each of one and the other of the plurality of fragment images. For example, referring to FIG. 4C , the fifth fragment image 415 and the sixth fragment image 416 equally include one region 415a and 416a of the target image. As such, a region of the target image that is identically included in the plurality of fragment images may be understood as an overlapping image path.
본 발명에서 설명되는 대상 이미지는, 그림과 같은 미술 작품으로 이해될 수 있다. 대상 이미지는 그림 그 자체를 의미할 수 있으며, 그림을 데이터화 한 정보를 의미할 수도 있다.The target image described in the present invention may be understood as a work of art such as a painting. The target image may mean the picture itself, or it may mean information obtained by converting the picture into data.
나아가 저장부(120)는 데이터베이스(Database, DB) 라고도 명명될 수 있으며, 본 발명에서 이용되는 이미지들이 저장되도록 이루어질 수 있다. 예를 들어, 저장부(120)는 클라우드 서버를 이용하여 본 발명에 따른 이미지들을 저장할 수 있다.Furthermore, the storage unit 120 may also be referred to as a database (DB), and may be configured to store images used in the present invention. For example, the storage unit 120 may store images according to the present invention using a cloud server.
나아가, 제어부(130)는, 위에서 살펴본 구성요소들과, 도 1a에 도시된 헤드 마운티드 디스플레이(10a), XR 글래스(10b) 및 전자기기(10c)를 전반적으로 제어하도록 이루어질 수 있다. Furthermore, the controller 130 may be configured to generally control the components described above, the head mounted display 10a, the XR glasses 10b, and the electronic device 10c shown in FIG. 1A .
한편, 제어부(130)는 통신부(110)를 통해 수신한 조각 이미지(200a)를 조합하여 원본 이미지를 생성할 수 있다. Meanwhile, the controller 130 may generate an original image by combining the fragment image 200a received through the communication unit 110 .
여기서, 원본 이미지는, 대상 이미지에 근거하여, 복수개의 조각 이미지(200a)가 조합되어 생성된 이미지로 이해되어 질 수 있다. 즉, 원본 이미지는 대상 이미지와 대응될 수 있다. Here, the original image may be understood as an image generated by combining a plurality of fragment images 200a based on the target image. That is, the original image may correspond to the target image.
이 때, 원본 이미지는 초고화질 이미지일 수 있다. 즉, 원본 이미지는 기 설정된 해상도 또는 기 설정된 화소 기준을 만족하는 이미지를 의미할 수 있다 In this case, the original image may be an ultra-high-resolution image. That is, the original image may mean an image that satisfies a preset resolution or preset pixel criteria.
나아가, 제어부(130)는 원본 이미지(210)에, 캔버스 맵(Canvas Map)(220), 노말 맵(Normal Map)(230) ,마스크 맵(Mask Map)(240) 및 코팅 맵(Coat Map)(250)을 순서대로 적용하여, 최종 이미지(200b)를 생성할 수 있다(도 2 참조) .Further, the control unit 130 to the original image 210, a canvas map (Canvas Map) 220, a normal map (Normal Map) 230 , a mask map (Mask Map) 240 and a coating map (Coat Map) By sequentially applying 250 , a final image 200b may be generated (see FIG. 2 ).
여기서, 이미지는 복수의 픽셀들로 이루어지며, 복수의 픽셀들 각각의 좌표 정보 및 상기 좌표 정보에 매칭되는 색상 정보를 포함한다. 일 실시 예에 있어서, 각각의 픽셀에 대응되는 색상 정보는 적어도 세 개의 채널(예를 들어, R, G, B 각각에 대한 색상 값 채널)을 포함할 수 있다.Here, the image is made of a plurality of pixels, and includes coordinate information of each of the plurality of pixels and color information matching the coordinate information. In an embodiment, the color information corresponding to each pixel may include at least three channels (eg, color value channels for each of R, G, and B).
여기서, “맵(Map)”은 원본 이미지(210)를 구성하는 각 픽셀에 대응되는 데이터를 포함하는 것으로서, 이미지에 특정 효과를 부여하기 위한 목적으로 활용된다. 맵은 원본 이미지(210)와 마찬가지로, 복수의 픽셀로 이루어지며, 각 픽셀은 이미지를 구성하는 각 픽셀에 대응된다. 이미지를 구성하는 특정 픽셀에 대응되는 맵의 픽셀은 상기 특정 픽셀에 대응되는 좌표 정보를 포함하며, 상기 맵의 픽셀에는 상기 특정 픽셀에 적용하고자 하는 효과에 대응되는 효과 정보가 매칭된다. Here, the “map” includes data corresponding to each pixel constituting the original image 210 and is used for the purpose of imparting a specific effect to the image. Like the original image 210 , the map consists of a plurality of pixels, and each pixel corresponds to each pixel constituting the image. A pixel of the map corresponding to a specific pixel constituting an image includes coordinate information corresponding to the specific pixel, and effect information corresponding to an effect to be applied to the specific pixel is matched to the pixel of the map.
일 실시 예에 있어서, 맵을 구성하는 픽셀 각각에 대응되는 효과 정보 각각은 적어도 세 개의 채널을 포함할 수 있으며, 각각의 채널에는 해당 픽셀에 대응되는 원본 이미지 픽셀에 적용하고자 하는 효과에 대응되는 값이 저장될 수 있다.In an embodiment, each of the effect information corresponding to each pixel constituting the map may include at least three channels, and each channel has a value corresponding to an effect to be applied to the original image pixel corresponding to the corresponding pixel. This can be saved.
맵은 원본 이미지(210)와 동일한 크기의 이미지로 이해될 수 있으나, 그 자체만으로는 의미 있는 이미지로 활용되기 어렵다. 본 명세서에서는 맵에 대응되는 이미지를 원본 이미지 상에 중첩되는 레이어(layer)라고 표현한다.The map may be understood as an image having the same size as the original image 210 , but it is difficult to be used as a meaningful image by itself. In this specification, an image corresponding to the map is expressed as a layer superimposed on the original image.
본 명세서에서 “이미지에 맵을 적용”한다는 것은, 이미지에 맵에 대응되는 레이어(layer)를 합성한다는 것으로 이해될 수 있다. 보다 구체적으로, 이미지에 맵의 레이어를 합성하는 것은, 맵의 정보에 근거하여, 이미지 정보를 변경하는 것일 수 있다. 예를 들어, 이미지에 맵을 적용한다는 것은, i)이미지의 특정 픽셀에 대응되는 픽셀값 및 ii)맵에 포함된 상기 픽셀에 대응되는 효과 정보를 기 설정된 함수에 대입하여, 새로운 픽셀값을 획득하는 과정을 반복하여 이미지에 포함된 모든 픽셀에 대한 새로운 픽셀값을 획득하는 것을 의미할 수 있다.In this specification, “applying a map to an image” may be understood as synthesizing a layer corresponding to the map on the image. More specifically, synthesizing the map layer with the image may be changing the image information based on the map information. For example, applying a map to an image means that i) a pixel value corresponding to a specific pixel of the image and ii) effect information corresponding to the pixel included in the map are substituted into a preset function to obtain a new pixel value. This may mean acquiring new pixel values for all pixels included in the image by repeating the process.
나아가, 본 발명에서 설명되는 캔버스 맵(Canvas Map)(220)은, 대상 이미지가 그려진 대상물의 재질을 표현하는 정보로 이해되어 질 수 있다. 즉, 캔버스 맵(200)은 기 특정된 질감에 대응되는 레이어로 이해되어 질 수 있다. Furthermore, the canvas map 220 described in the present invention may be understood as information representing the material of the object on which the target image is drawn. That is, the canvas map 200 may be understood as a layer corresponding to a predetermined texture.
보다 구체적으로, i)대상 이미지가 그려진 대상물이 캔버스(유화 등의 그림을 그릴 때 사용되는 직물)이면, 캔버스 맵은 캔버스 재질에 대응되는 레이어일 수 있고, ii)대상 이미지가 그려진 대상물이 목재(목판화 등을 그릴 때 사용되는 나무 판재)이면, 캔버스 맵은 목재의 재질에 대응되는 레이어일 수 있으며, iii)대상 이미지가 그려진 대상물이 동판(구리를 이용하여 만들어진 널빤지 모양의 판)이면, 캔버스 맵은 구리 재질에 대응되는 레이어일 수 있다. More specifically, if i) the object on which the target image is drawn is a canvas (fabric used when drawing a picture such as an oil painting), the canvas map may be a layer corresponding to the canvas material, and ii) the object on which the target image is drawn is wood ( If it is a wooden board used when drawing woodblock prints, etc.), the canvas map may be a layer corresponding to the material of the wood, and iii) if the object on which the target image is drawn is a copper plate (a plank-shaped board made of copper), the canvas map Silver may be a layer corresponding to the copper material.
본 발명에서 설명되는 노말 맵(Normal Map)(230)은, 원본 이미지를 구성하는 픽셀의 각각의 반사 특성을 정의한다. 구체적으로, 노말 맵은 원본 이미지를 구성하는 픽셀 각각에 대응하는 픽셀을 포함한다. 노말 맵에 포함된 픽셀 각각은 대응되는 원본 이미지의 픽셀의 노말 벡터(Normal Vector)를 정의한다. The normal map 230 described in the present invention defines the reflection characteristics of each pixel constituting the original image. Specifically, the normal map includes a pixel corresponding to each pixel constituting the original image. Each pixel included in the normal map defines a normal vector of a pixel of the corresponding original image.
여기서, 노말 벡터란 평면의 곡선 위 어떤 점(픽셀)을 지나는 접선에 수직한 방향을 정의하는 벡터이다. 쉽게 말해, 노말 벡터는 물체의 특정 지점(픽셀)에 빛이 입사하였을 때, 입사각과 반사각을 정의함에 있어서, 기준이 되는 법선의 방향을 정의하는 벡터이다.Here, the normal vector is a vector defining a direction perpendicular to the tangent line passing a certain point (pixel) on the curve of the plane. In other words, the normal vector is a vector defining the direction of a normal line, which is a reference in defining the angle of incidence and the angle of reflection when light is incident on a specific point (pixel) of an object.
보다 구체적으로, 노말 맵(230)에 포함된 픽셀 각각은 노말 벡터의 정보(양측 180도의 X,Y,Z 각도)를 텍스처 이미지 형태의 저장공간(0-255 값의 R, G, B 색상채널)에 저장된 정보를 포함할 수 있다. 즉, 노말 맵은, 원본 이미지의 특정 픽셀에 특정 각도로 빛이 입사되었을 때, 해당 빛이 어떠한 각도로 반사될지 산출할 수 있도록 하는 정보를 포함한다.More specifically, each pixel included in the normal map 230 stores normal vector information (X, Y, and Z angles of 180 degrees on both sides) in a storage space (R, G, B color channels of 0-255 values) in the form of a texture image. ) may contain information stored in That is, the normal map includes information that enables it to be calculated at which angle the light will be reflected when light is incident on a specific pixel of the original image at a specific angle.
노말 벡터는 원본 이미지의 특정 픽셀에서 반사된 빛의 방향을 확정적으로 정의하는 것이 아니라, 특정 각도로 특정 픽셀에 빛이 입사하였을 때, 어느 방향으로 빛이 반사될 지 산출할 수 있도록 한다.The normal vector does not definitively define the direction of light reflected from a specific pixel of the original image, but allows it to be calculated in which direction the light will be reflected when light is incident on a specific pixel at a specific angle.
일 실시 예에 있어서, 노말 벡터는 3차원 상의 특정 방향을 정의하도록 이루어질 수 있다.In an embodiment, the normal vector may be configured to define a specific direction in 3D.
나아가, 본 발명에서 설명되는 마스크 맵(Mask Map)(240)은 메탈릭 맵(Metallic Map)(241), AO 맵(Ambient Occlusion Map)(242) 및 스무스 맵(Smoothness Map)(243)을 포함할 수 있다. 보다 구체적으로, 마스크 맵(240)은, 메탈릭 맵(Metallic Map)(241), AO 맵(Ambient Occlusion Map)(242) 및 스무스 맵(Smoothness Map)(243) 각각에 대응되는 효과 정보를 포함할 수 있다. 마스크 맵은 복수의 픽셀을 포함하며, 각각의 픽셀은 원본 이미지를 구성하는 픽셀들 각각에 대응된다. 마스크 맵을 구성하는 픽셀 각각은 좌표 정보를 포함하며, 상기 좌표 정보는 해당 픽셀이 대응되는 원본 이미지의 픽셀의 좌표 정보에 대응된다. 마스크 맵을 구성하는 픽셀 각각에는 세 개의 채널을 포함하는 효과 정보가 매칭될 수 있다. 세 개의 채널 각각에는 메탈릭 맵(Metallic Map)(241), AO 맵(Ambient Occlusion Map)(242) 및 스무스 맵(Smoothness Map)(243) 각각에 대응되는 효과 정보가 저장될 수 있다.Furthermore, the mask map 240 described in the present invention may include a metallic map 241 , an ambient occlusion map 242 and a smoothness map 243 . can More specifically, the mask map 240 includes effect information corresponding to each of a metallic map 241 , an ambient occlusion map 242 , and a smoothness map 243 . can The mask map includes a plurality of pixels, and each pixel corresponds to each of the pixels constituting the original image. Each pixel constituting the mask map includes coordinate information, and the coordinate information corresponds to coordinate information of a pixel of an original image to which the corresponding pixel corresponds. Effect information including three channels may be matched to each pixel constituting the mask map. Effect information corresponding to each of a metallic map 241 , an ambient occlusion map 242 , and a smoothness map 243 may be stored in each of the three channels.
예를 들어, Red 채널에 메탈릭 맵(241)에 대응되는 효과 정보, Green채널에 OA 맵(242)에 대응되는 효과 정보, Alpha 채널에는 스무스 맵(243)에 대응되는 효과 정보를 적용함으로써 하나의 맵을 형성할 수 있다.For example, by applying effect information corresponding to the metallic map 241 to the Red channel, effect information corresponding to the OA map 242 to the Green channel, and effect information corresponding to the smooth map 243 to the Alpha channel, one You can create a map.
이를 통해, 하나의 마스크 맵은 하나의 맵을 통해 적어도 세 종류의 맵에 대응하는 효과 정보를 포함한다. 하나의 맵을 생성하기 위해 할당되는 데이터로 세 종류의 맵에 대응되는 효과를 적용할 수 있기 때문에, 상기 마스크 맵(240)은, 불필요한 데이터를 줄일 수 있다는 장점이 있다. Through this, one mask map includes effect information corresponding to at least three types of maps through one map. Since effects corresponding to three types of maps can be applied to data allocated to generate one map, the mask map 240 has an advantage in that unnecessary data can be reduced.
여기서, 메탈릭 맵(Metallic Map)(241)은, 빛의 정반사를 이용하여 대상 이미지에 포함된 금속 재질의 고유한 색(ex: 광택, 거울과 같은 반사)을 표현할 수 있는 정보를 포함하고 있다. Here, the metallic map 241 includes information capable of expressing a unique color (eg, gloss, mirror-like reflection) of a metal material included in a target image using specular reflection of light.
본 발명에서 설명되는 AO 맵(Ambient Occlusion Map)(242)은, 대상 이미지에서, 객체(또는 픽셀)와 또 다른 객체(또는 픽셀) 사이의 폐색(occlusion) 값에 대한 정보를 포함할 수 있다. 즉, AO 맵(242)은 모델의 영역이 강하거나 약한 간접 조명을 받아야 하는지에 대한 정보를 포함할 수 있다. An AO map (Ambient Occlusion Map) 242 described in the present invention may include information about an occlusion value between an object (or pixel) and another object (or pixel) in a target image. That is, the AO map 242 may include information on whether the region of the model should receive strong or weak indirect lighting.
나아가, 본 발명에서 설명되는 스무스 맵(Smoothness Map)(243)은, 빛이 퍼지는 것과 같은 느낌을 표현할 수 있는 정보를 포함할 수 있다. Furthermore, the smoothness map 243 described in the present invention may include information capable of expressing a feeling of spreading light.
본 명세서에서 설명되는 변경 이미지는, 원본 이미지에, i)캔버스 맵(Canvas Map)(220), ii)노말 맵(Normal Map)(230), ii)메탈릭 맵(Metallic Map)(241), iv)AO 맵(Ambient Occlusion Map)(242) 및 vi)스무스 맵(Smoothness Map)(243)이 모두 적용된 결과물을 의미할 수 있다. The modified image described herein is, in the original image, i) Canvas Map 220, ii) Normal Map 230, ii) Metallic Map 241, iv ) AO map (Ambient Occlusion Map) 242 and vi) may mean a result to which both the smoothness map (Smoothness Map) 243 are applied.
나아가, 본 발명에서 설명되는 코팅 맵(Coat Map)(250)은 조각 이미지가 병합되어 생성된 원본 이미지(210), 즉, 그 어떠한 맵도 적용되지 않은 원본 이미지(210) 그 자체, 또는 원본 이미지(210)에 대한 정보를 의미할 수 있다.Furthermore, the coating map (Coat Map) 250 described in the present invention is the original image 210 generated by merging the fragment images, that is, the original image 210 itself to which no map is applied, or the original image. It may mean information about (210).
나아가, 본 발명에서 설명되는 최종 이미지(200b)는 i)캔버스 맵(Canvas Map)(220), ii)노말 맵(Normal Map)(230), iii)메탈릭 맵(Metallic Map)(241), iv)AO 맵(Ambient Occlusion Map)(242), v)스무스 맵(Smoothness Map)(243) 및 vi)코팅 맵(Coat Map)(250)이 적용된 이미지로서, 대상 이미지의 질감을 표현하는 것과 동시에 원본 이미지의 데이터 값을 유지할 수 있다.Furthermore, the final image 200b described in the present invention is i) a canvas map 220, ii) a normal map 230, iii) a metallic map 241, iv ) AO Map (Ambient Occlusion Map) (242), v) Smoothness Map (243) and vi) Coating Map (250) are applied to an image that expresses the texture of the target image and at the same time expresses the original You can keep the data values of the image.
이하에서는, 흐름도와 함께 본 발명에 따른 초고화질 이미지 구현 방법에 대하여 보다 구체적으로 살펴보도록 한다. Hereinafter, a method for realizing an ultra-high-definition image according to the present invention along with a flowchart will be described in more detail.
본 발명에서는 대상 이미지에 대응되는 서로 다른 복수개의 조각 이미지를 수신하는 과정이 진행될 수 있다(S310). 즉, 통신부(110)는 대상 이미지에 대응되는 서로 다른 복수개의 조각 이미지를 수신할 수 있다. In the present invention, a process of receiving a plurality of different pieces of images corresponding to the target image may be performed (S310). That is, the communication unit 110 may receive a plurality of different pieces of images corresponding to the target image.
대상 이미지는, 그림과 같은 미술 작품으로 이해될 수 있다. 대상 이미지는 그림 그 자체를 의미할 수 있으며, 그림을 데이터화 한 정보를 의미할 수도 있다.The target image may be understood as a work of art such as a painting. The target image may mean the picture itself, or it may mean information obtained by converting the picture into data.
조각 이미지는(410), 대상 이미지의 적어도 일 부분을 포함하는 이미지로 이해될 수 있다. 예를 들어, 대상 이미지를 중앙을 기준으로 좌 ·우로 영역을 구분하고, 좌측 영역을 카메라로 촬영 또는 스캔한 이미지를 제1 조각 이미지, 우측 영역을 카메라로 촬영 또는 스캔한 이미지를 제2 조각 이미지로 이해할 수 있다. The fragment image 410 may be understood as an image including at least a portion of the target image. For example, the target image is divided into left and right areas based on the center, the left area is taken or scanned with the camera as a first piece image, and the right area is captured or scanned with the camera as a second piece image. can be understood as
나아가, 복수개의 조각 이미지(410)는 초고화질 이미지일 수 있다. 즉, 복수개의 조각 이미(410) 각각은 기 설정된 해상도 기준을 만족하는 이미지들일 수 있다. Furthermore, the plurality of fragment images 410 may be ultra-high-resolution images. That is, each of the plurality of fragment images 410 may be images satisfying a preset resolution criterion.
나아가, 복수개의 조각 이미지(410)의 어느 하나는 다른 하나와 적어도 일부가 중첩되는 이미지 정보를 포함할 수 있다. Furthermore, any one of the plurality of fragment images 410 may include image information that at least partially overlaps with the other one.
여기서 중첩되는 이미지 정보는, 복수의 조각 이미지의 어느 하나와 다른 하나 각각에 포함된, 대상 이미지의 특정 영역에 대응되는 이미지를 의미할 수 있다. 예를 들어, 도 4c를 참조하면, 제5 조각 이미지(415) 및 제6 조각 이미지(416)는 대상 이미지의 일 영역(415a, 416a)을 동일하게 포함하고 있다. 이처럼, 복수의 조각 이미지에 동일하게 포함된 대상 이미지의 일 영역을, 중첩되는 이미지 정로로 이해할 수 있다. Here, the overlapping image information may mean an image corresponding to a specific region of the target image, which is included in each of one and the other of the plurality of fragment images. For example, referring to FIG. 4C , the fifth fragment image 415 and the sixth fragment image 416 equally include one region 415a and 416a of the target image. As such, a region of the target image that is identically included in the plurality of fragment images may be understood as an overlapping image path.
한편, 본 발명에서는 복수개의 조각 이미지 각각의 유사성에 근거하여, 복수개의 조각 이미지를 조합하는 과정이 진행될 수 있다(S320). 제어부(130)는 복수개의 조각 이미지를 조합하여 대상 이미지와 대응되는 원본 이미지를 생성할 수 있다. Meanwhile, in the present invention, based on the similarity of each of the plurality of fragment images, a process of combining the plurality of fragment images may be performed ( S320 ). The controller 130 may combine a plurality of fragment images to generate an original image corresponding to the target image.
보다 구체적으로, 제어부(130)는 대상 이미지에 근거하여 조각 이미지를 연결함으로써, 조각 이미지를 병합할 수 있다. 제어부(130)는 대상 이미지에 근거하여, 서로 인접한 조각 이미지를 매칭하고, 매칭된 조각 이미지끼리 연결할 수 있다. More specifically, the controller 130 may merge the fragment images by connecting the fragment images based on the target image. The controller 130 may match pieces of images adjacent to each other based on the target image, and connect the matched pieces of images.
이 때, 제어부(130)는 복수개의 조각 이미지들 간에 상호 중첩되는 이미지 정보에 근거하여, 조각 이미지들을 조합할 수 있다. 제어부(130)는 중첩되는 이미지를 포함하는 조각 이미지들 상호간을 서로 인접하게 배열함으로써, 이들을 조합할 수 있다. 예를 들어, 도 4b에 도시된 제5조각 이미지(415)의 상측 부분과 중첩되는 이미지 정보를 포함하는 제2 조각 이미지(412)는, 제5 조각 이미지(415)의 상측에 배치될 수 있다. 또한, 제5조각 이미지(415)의 우측 부분과 중첩되는 이미지 정보를 포함하는 제6 조각 이미지(412)는, 제5 조각 이미지(415)의 우측에 배치될 수 있다. In this case, the controller 130 may combine the fragment images based on image information overlapping each other among the plurality of fragment images. The controller 130 may combine the fragment images including the overlapping images by arranging them adjacent to each other. For example, the second fragment image 412 including image information overlapping the upper portion of the fifth fragment image 415 illustrated in FIG. 4B may be disposed above the fifth fragment image 415 . . Also, the sixth fragment image 412 including image information overlapping the right portion of the fifth fragment image 415 may be disposed on the right side of the fifth fragment image 415 .
나아가, 제어부(130)는 조합된 조각 이미지들에 조합된 조각 이미지들에 대해 엣지 블렌딩(Edge blending)을 수행하여 원본 이미지를 생성함으로써, 조각 이미지들의 경계를 자연스럽게 연결할 수 있다. Furthermore, the controller 130 may naturally connect the boundaries of the fragment images by performing edge blending on the fragment images combined with the combined fragment images to generate an original image.
여기서, 엣지 블렌딩(Edge blending)이란, 조각 이미지들의 경계에 보간(interpolation)작업을 수행하는 것으로서, 두 개의 이미지의 일부를 서로 중첩 시켜, 두 개의 이미지가 매끄러운 하나의 이미지로 보여질 수 있도록 하는 것을 의미한다. 엣지 블렌딩은 두 개의 이미지가 각각에 포함된 중첩되는 이미지 정보가 서로 중첩될 때까지, 상기 두 개의 이미지 중 어느 하나의 위치를 기 설정된 간격으로 이동시킴으로써, 수행된다.Here, edge blending refers to performing interpolation on the boundary of the fragment images, overlapping parts of two images with each other so that the two images can be viewed as one smooth image. it means. Edge blending is performed by moving the position of any one of the two images at a preset interval until overlapping image information included in each of the two images overlaps each other.
일 실시 예에 있어서, 제어부(130)는 인접하는 조각 이미지의 투명도를 서로 다르게 보정할 수 있다. 제어부(130)는 어느 하나의 조각 이미지 위에, 투명도가 다른 하나의 조각 이미지를 오버랩 시킬 수 있다. 제어부(130)는 오버랩 된 두개의 조각 이미지 각각에 포함된 중첩된 이미지 정보에 대응되는 영역이 기 설정된 기준 이상으로 겹쳐질 때 까지, 투명도가 다른 조각 이미지의 위치를 변경할 수 있다. 제어부(130)는, 오버랩 된 두개의 조각 이미지에 포함된 동일 영역이 기 설정된 기준 이상으로 겹쳐지면, 오버랩 된 두개의 조각 이미지의 투명도를 0으로 조정할 수 있다. 이를 통해, 두개의 조각 이미지는 서로 연결될 수 있다. 제어부(130)는 서로 다른 복수의 조각 이미지에 모두에 대해, 엣지 블렌딩을 수행하여 원본 이미지를 생성할 수 있다. In an embodiment, the controller 130 may correct the transparency of the adjacent engraving images differently. The controller 130 may overlap one piece image having a different transparency on one piece image. The controller 130 may change the position of the fragment image having different transparency until the region corresponding to the overlapped image information included in each of the two overlapping fragment images overlaps by more than a preset reference. When the same area included in the two overlapping pieces of images overlaps by more than a preset reference, the controller 130 may adjust the transparency of the two overlapping pieces of images to 0. Through this, the two sculptural images can be connected to each other. The controller 130 may generate an original image by performing edge blending on all of the plurality of different fragment images.
도 4b 및 도 4c와 함께 엣지 블렌딩을 더욱 구체적으로 설명하도록 한다. 제어부(130)는 도 4c의(a)와 같이 제5 조각 이미지(415)와, 제5 조각 이미지(415)에 인접한 제6 조각 이미지(416)를 서로 매칭시켜 연결할 수 있다. 이 때, 제5 조각 이미지(415)와 제6 조각 이미지(416)는, 대상 이미지의 동일 부분(415a, 416a)을 포함하고 있을 수 있다. 제어부(130)는 동일 부분(415a, 416a)을 서로 정확히 겹치기 위해, 제6 조각 이미지(416)의 투명도를 90%로 보정할 수 있다. 제어부(130)는 제5 조각 이미지(415)위로 투명도가 다른 제6 조각 이미지(416)를 오버랩 시키고, 동일 부분(415a, 416a)이 기 설정된 기준 이상으로 일치할 때 까지, 제6 조각 이미지(416)의 위치를 변경시킬 수 있다. 제어부(130)는 동일 부분(415a, 416a)이 기 설정된 기준 이상으로 일치하면, 제5 조각 이미지(415) 및 제 6 조각 이미지(416)의 투명도를 제6조각 이미지(416)의 원본에 대응되는 투명도 값으로 조절함으로써, 제5 조각 이미지(415) 및 제6 조각 이미지(416)를 연결할 수 있다. 나아가, 제어부(130)는 9개의 조각 이미지(410) 전부에 대해 엣지 블렌딩을 수행함으로써, 대상 이미지에 대응되는 원본 이미지를 생성할 수 있다. Edge blending will be described in more detail together with FIGS. 4B and 4C. The controller 130 may connect the fifth engraved image 415 and the sixth engraved image 416 adjacent to the fifth engraved image 415 by matching each other as shown in FIG. 4C (a) . In this case, the fifth fragment image 415 and the sixth fragment image 416 may include the same portions 415a and 416a of the target image. The controller 130 may correct the transparency of the sixth piece image 416 to 90% in order to accurately overlap the same parts 415a and 416a. The control unit 130 overlaps the sixth engraving image 416 with different transparency on the fifth engraving image 415, and until the same parts 415a and 416a match more than a preset standard, the sixth engraving image ( 416) can be changed. When the same parts 415a and 416a match more than a preset criterion, the controller 130 sets the transparency of the fifth engraving image 415 and the sixth engraving image 416 to the original of the sixth engraving image 416 . By adjusting the transparency value to be the same, the fifth fragment image 415 and the sixth fragment image 416 may be connected. Furthermore, the controller 130 may generate an original image corresponding to the target image by performing edge blending on all of the nine fragment images 410 .
본 발명에 따른 초고화질 이미지 구현 시스템(100)은 이러한 엣지 블렌딩을 수행하여, 원본 이미지를 생성함으로써, 연결된 조각 이미지의 어긋난 부분이나, 조각 이미지들의 경계 부분의 쓰레기 데이터를 최소화 할 수 있다. The ultra-high-definition image realization system 100 according to the present invention generates an original image by performing such edge blending, thereby minimizing waste data of a misaligned portion of a connected fragment image or a boundary portion of the fragment images.
나아가, 미술 작품을 한번 촬영하여 하나의 이미지를 생성하는 경우에 비하여, 미술 작품의 일 영역 마다 촬영하여 조각 이미지를 생성하고, 조각 이미지에 엣지 블렌딩을 수행하여 원본 이미지를 생성함으로써, 보다 초고화질의 이미지를 생성할 수 있다. Furthermore, compared to the case of generating a single image by photographing a work of art once, a sculpture image is generated by shooting each area of the work of art, and edge blending is performed on the sculpture image to generate an original image, resulting in a higher quality You can create an image.
이를 통해, 본 발명에 따른 초고화질 구현 시스템(100)은 확장 현실 등을 통해, 사용자에게 보다 실감나는 미술작품을 선사할 수 있다.Through this, the ultra-high-definition realization system 100 according to the present invention can provide a more realistic artwork to the user through extended reality or the like.
한편, 본 발명에서는, 조합의 결과 생성되는 원본 이미지가, 기 특정된 질감을 갖도록 원본 이미지에 캔버스 맵(Canvas Map)을 적용할 수 있다(S330).Meanwhile, in the present invention, a canvas map may be applied to the original image so that the original image generated as a result of the combination has a predetermined texture ( S330 ).
여기서, 캔버스 맵(Canvas Map)은, 그림과 같은 대상 이미지가 그려진 대상물의 재질을 표현하는 정보로 이해되어 질 수 있다. 보다 구체적으로, i)대상 이미지가 그려진 대상물이 캔버스(유화 등의 그림을 그릴 때 사용되는 직물)이면, 캔버스 맵은 캔버스 재질에 대응되는 레이어일 수 있고, ii)대상 이미지가 그려진 대상물이 목재(목판화 등을 그릴 때 사용되는 나무 판재)이면, 캔버스 맵은 목재의 재질에 대응되는 레이어일 수 있으며, iii)대상 이미지가 그려진 대상물이 동판(구리를 이용하여 만들어진 널빤지 모양의 판)이면, 캔버스 맵은 구리 재질에 대응되는 레이어일 수 있다. Here, the canvas map may be understood as information representing the material of an object on which a target image such as a picture is drawn. More specifically, if i) the object on which the target image is drawn is a canvas (fabric used when drawing a picture such as an oil painting), the canvas map may be a layer corresponding to the canvas material, and ii) the object on which the target image is drawn is wood ( If it is a wooden board used when drawing woodblock prints, etc.), the canvas map may be a layer corresponding to the material of the wood, and iii) if the object on which the target image is drawn is a copper plate (a plank-shaped board made of copper), the canvas map Silver may be a layer corresponding to the copper material.
제어부(130)는 대상 이미지가 그려진 대상물에 근거하여, 캔버스 맵을 생성할 수 있다. The controller 130 may generate a canvas map based on the object on which the target image is drawn.
보다 구체적으로, 제어부(130)는 대상 이미지가 그려진 대상물 자체에 대한 이미지를 캔버스 맵으로 사용할 수 있다. 예를 들어, 대상 이미지가 유화이면, 제어부(130)는 캔버스를 촬영한 이미지를 캔버스 맵으로 사용할 수 있다. More specifically, the controller 130 may use an image of the object itself on which the target image is drawn as a canvas map. For example, if the target image is an oil painting, the controller 130 may use an image obtained by photographing a canvas as a canvas map.
나아가, 제어부(130)는 대상 이미지가 그려진 대상물을 촬영한 이미지를 이용하여, 대상 이미지가 그려진 대상물의 재질을 획득하고, 획득한 재질을 데이터화 하여 캔버스 맵을 생성할 수 있다. 예를 들어, 대상 이미지가 유화이면, 제어부(130)는 캔버스를 촬영한 이미지로부터, 캔버스의 재질(ex: 직물이 교체되어 짜여진 재질)을 획득하고, 캔버스의 재질을 표현하는 정보를 생성함으로써 캔버스 맵을 생성할 수 있다. Furthermore, the controller 130 may obtain a material of the object on which the target image is drawn by using an image obtained by photographing the object on which the target image is drawn, and may generate a canvas map by converting the obtained material into data. For example, if the target image is an oil painting, the control unit 130 obtains the material of the canvas (eg, a material woven by replacing the fabric) from the photographed image of the canvas, and generates information representing the material of the canvas by generating information representing the material of the canvas. You can create maps.
나아가, 제어부(130)는 원본 이미지로부터 대상 이미지가 그려진 대상물의 재질을 예측할 수 있다. 이 때, 제어부(130)는 기계학습에 의하여 생성된 인공지능 모델을 이용할 수 있다. 제어부(130)는 예측된 재질이 표현되도록 캔버스 맵의 정보를 구성할 수 있다. Furthermore, the controller 130 may predict the material of the object on which the target image is drawn from the original image. In this case, the controller 130 may use the artificial intelligence model generated by machine learning. The controller 130 may configure the information of the canvas map so that the predicted material is expressed.
제어부(130)는 원본 이미지에 기 특정된 질감에 대응되는 레이어를 합성함으로써, 캔버스 맵이 적용된 원본 이미지를 생성할 수 있다. The controller 130 may generate an original image to which the canvas map is applied by synthesizing a layer corresponding to a predetermined texture in the original image.
즉, 제어부(130)는 이렇게 생성된 캔버스 맵을 원본 이미지에 적용하여 캔버스 맵 이미지를 생성할 수 있다. 즉, 제어부(130)는 원본 이미지와 캔버스 맵을 매핑(또는 블렌딩, 오버레이) 처리할 수 있다. That is, the controller 130 may generate a canvas map image by applying the generated canvas map to the original image. That is, the controller 130 may process the mapping (or blending, overlay) between the original image and the canvas map.
보다 구체적으로, 제어부(130)는 i)원본 이미지의 특정 픽셀에 대응되는 픽셀 값 및 ii)캔버스 맵에 포함된 정보 중 상기 특정 픽셀에 대응되는 효과 정보를 제1 블렌딩 함수에 대입하여, 원본 이미지의 특정 픽셀에 대한 픽셀 값을 변경할 수 있다. 제어부(130)는 상술한 방법을 원본 이미지를 구성하는 모든 픽셀 값에 적용한다. More specifically, the control unit 130 substitutes i) a pixel value corresponding to a specific pixel of the original image and ii) effect information corresponding to the specific pixel among information included in the canvas map to the first blending function, You can change the pixel value for a specific pixel in . The controller 130 applies the above-described method to all pixel values constituting the original image.
변경 전 원본 이미지의 픽셀 값은 대상 이미지가 그려진 대상물의 질감을 표현하지 않는 픽셀 값이라면, 변경된 원본 이미지의 픽셀 값은 대상 이미지가 그려진 대상물의 질감을 표현하는 픽셀 값일 수 있다. 예를 들어, 변경 전 원본 이미지에 포함된 특정 픽셀 값이 (3, 99, 5)이라고 가정하자. 대상 이미지가 그려진 대상물이 캔버스이면, 캔버스 맵은 상기 특정 픽셀 값에 대응되는 효과 정보를 포함하고, 이를 적용한 변경된 원본 이미지의 픽셀 값은 (34, 104, 29)일 수 있다. 또한, 대상 이미지가 그려진 대상물이 구리이면, 캔버스 맵은 구리 재질에 대한 정보를 가지고 있고, 이를 적용한 변경된 원본 이미지의 픽셀 값은 (8, 52, 124)일 수 있다. If the pixel value of the original image before the change is a pixel value that does not express the texture of the object on which the target image is drawn, the pixel value of the changed original image may be a pixel value that expresses the texture of the object on which the target image is drawn. For example, suppose the value of a particular pixel contained in the original image before the change was (3, 99, 5). If the object on which the target image is drawn is a canvas, the canvas map includes effect information corresponding to the specific pixel value, and the pixel value of the changed original image to which it is applied may be (34, 104, 29). Also, if the object on which the target image is drawn is copper, the canvas map has information on the copper material, and the pixel value of the changed original image to which this is applied may be (8, 52, 124).
나아가, 제어부(130)는 제1 블렌딩 함수의 파라미터를 조정함으로써, 캔버스 맵이 적용된 원본 이미지가, 대상 이미지가 그려진 대상물의 재질을 표현하는 비율을 조절할 수 있다. 예를 들어, 변경 전 원본 이미지에 포함된 특정 픽셀의 픽셀 값이 (3, 99, 5)이고, 대상 이미지가 그려진 대상물이 캔버스라고 가정하자. 대상 이미지에 대상물의 재질이 3만큼 표현되어 있을 때 제어부(130)는 제1 블렌딩 함수의 파라미터 값을 조정하여, 캔버스 맵이 적용된 원본 이미지에 포함된 특정 픽셀의 픽셀 값을 (34, 104, 29)로 변경할 수 있다. 또한, 대상 이미지에 대상물의 재질이 97만큼 표현되어 있을 때 제어부(130)는 제1 블렌딩 함수의 파라미터 값을 조정하여, 캔버스 맵이 적용된 원본 이미지에 포함된 특정 픽셀의 픽셀 값을 (101, 164, 29)로 변경할 수 있다.Furthermore, by adjusting the parameter of the first blending function, the controller 130 may adjust the ratio in which the original image to which the canvas map is applied expresses the material of the object on which the target image is drawn. For example, suppose that the pixel value of a specific pixel included in the original image before the change is (3, 99, 5), and the object on which the target image is drawn is a canvas. When the material of the object is expressed by 3 in the target image, the controller 130 adjusts the parameter value of the first blending function to set the pixel value of a specific pixel included in the original image to which the canvas map is applied (34, 104, 29). ) can be changed to In addition, when the material of the object is expressed by 97 in the target image, the controller 130 adjusts the parameter value of the first blending function to set the pixel value of a specific pixel included in the original image to which the canvas map is applied (101, 164). , 29) can be changed.
다만, 이는 설명의 편의를 위한 예시에 불과하고, 캔버스 맵이 적용된 원본 이미지가 포함하는 정보가 이에 한정되는 것은 아니다. However, this is only an example for convenience of description, and information included in the original image to which the canvas map is applied is not limited thereto.
도 5는 원본 이미지(510), 캔버스 맵(520)을 적용함으로써, 캔버스 맵이 적용된 원본 이미지(530)를 표현한 도면이다. 보다 구체적으로, 도 5(a)는 대상 이미지가 그려진 대상물의 재질을 표현하지 못하거나 대상 이미지가 그려진 대상물의 재질을 반영하지 못하는 원본 이미지(510)를 개념적으로 표현한 모습이다. 도 5(b)는 대상 이미지가 그려진 대상물의 재질 정보가 포함된 캔버스 맵을 개념적으로 표현한 모습이다. 그리고, 도 5(c)는 원본 이미지(510)에 캔버스 맵(510)을 적용하여, 대상 이미지가 그려진 대상물의 재질을 표현하는, 캔버스 맵이 적용된 원본 이미지(530)를 개념적으로 표현한 모습이다. 즉, 사용자는 도 5(a)의 원본 이미지(510)를 통해 대상 이미지가 그려진 대상물의 재질을 인지하지 못하지만, 도 5(c)의 캔버스 맵이 적용된 원본 이미지(530)를 통해 대상 이미지가 그려진 대상물의 재질을 인지할 수 있다. FIG. 5 is a diagram illustrating the original image 530 to which the canvas map is applied by applying the original image 510 and the canvas map 520 . More specifically, FIG. 5( a ) is a conceptual representation of the original image 510 which fails to express the material of the object on which the target image is drawn or does not reflect the material of the object on which the target image is drawn. 5( b ) is a conceptual representation of a canvas map including material information of an object on which a target image is drawn. 5( c ) is a conceptual representation of the original image 530 to which the canvas map is applied, which expresses the material of the object on which the target image is drawn by applying the canvas map 510 to the original image 510 . That is, the user does not recognize the material of the object on which the target image is drawn through the original image 510 of FIG. 5(a), but the target image is drawn through the original image 530 to which the canvas map of FIG. The material of the object can be recognized.
따라서, 확장현실 등에 원본 이미지(510)가 디스플레이 될 때에 비하여 캔버스 맵이 적용된 원본 이미지(530)가 디스플레이 될 때, 사용자는, 미술 작품의 질감을 느낌으로써, 실제 미술관 등에서 미술 작품을 보는 것과 같은 경험을 제공받을 수 있다. Therefore, when the original image 530 to which the canvas map is applied is displayed, compared to when the original image 510 is displayed in extended reality, etc., the user feels the texture of the art work, thereby experiencing the same experience as viewing the art work in an actual art museum. can be provided.
이하에서는 더욱 정교하고, 더욱 실제 미술 작품과 유사한 초고화질 이미지를 구현하기 위한 방법을 설명하도록 한다Hereinafter, a method for realizing a more sophisticated, ultra-high-definition image similar to a real work of art will be described.
한편, 본 발명에서, 캔버스 맵(Canvas Map)이 적용된 원본 이미지에, 가상공간에 입사되는 가상의 빛의 반사 특성이 반영되도록 노말 맵(Nnormal Map)을 적용하는 과정이 진행될 수 있다(S340). 즉, 제어부(130)는 캔버스 맵이 적용된 원본 이미지에 노말 맵을 적용할 수 있다. On the other hand, in the present invention, the process of applying a normal map (Nnormal Map) to the original image to which the Canvas Map is applied so that the reflection characteristics of the virtual light incident on the virtual space are reflected (S340). That is, the controller 130 may apply the normal map to the original image to which the canvas map is applied.
노말 맵은, 원본 이미지의 특정 픽셀에 특정 각도로 빛이 입사되었을 때, 해당 빛이 어떠한 각도로 반사될지 산출할 수 있도록 하는 정보를 포함한다.The normal map includes information that enables it to be calculated at which angle the light will be reflected when light is incident on a specific pixel of the original image at a specific angle.
노말 맵을 구성하는 픽셀 각각은 원본 이미지를 구성하는 픽셀에 대응된다. 노말 맵을 원본 이미지에 적용할 경우, 노말 맵을 구성하는 픽셀 중 원본 이미지의 특정 픽셀에 대응되는 픽셀에 매칭된 벡터 정보가 원본 이미지에 매칭된다.Each pixel constituting the normal map corresponds to a pixel constituting the original image. When the normal map is applied to the original image, vector information matched to a pixel corresponding to a specific pixel of the original image among pixels constituting the normal map is matched to the original image.
다만, 광원 정보가 없을 경우, 상기 노말 맵을 원본 이미지에 적용하더라도, 원본 이미지에 아무런 영향을 주지 않는다. However, when there is no light source information, even if the normal map is applied to the original image, it has no effect on the original image.
여기서, 광원 정보는 가상의 광원을 정의하는 정보로, 원본 이미지를 구성하는 픽셀들 각각에 입사하는 가상의 빛의 입사각을 산출하는데 활용된다. 구체적으로, 광원 정보는 가상의 광원에 대한 위치, 형태, 세기, 빛의 진행 방향 중 적어도 하나를 정의한다. Here, the light source information is information defining a virtual light source, and is used to calculate the incident angle of the virtual light incident on each of the pixels constituting the original image. Specifically, the light source information defines at least one of a position, a shape, an intensity, and a light traveling direction with respect to the virtual light source.
예를 들어, 가상의 광원이 점 광원인 경우, 상기 광원 정보는 점 광원의 위치 정보 및 점 광원으로부터 모든 방향으로 빛이 방출되는 것을 정의하는 정보를 포함할 수 있다.For example, when the virtual light source is a point light source, the light source information may include location information of the point light source and information defining that light is emitted in all directions from the point light source.
상기 광원 정보를 활용하면, 원본 이미지를 구성하는 픽셀들 각각에 입사하는 가상의 빛의 입사각을 산출할 수 있다. 상기 입사각을 상기 노말 맵이 적용된 원본 이미지(또는 원본 이미지를 구성하는 픽셀 각각에 매칭된 노말 벡터)에 적용하면, 특정 픽셀에서의 빛이 반사각 정보가 산출될 수 있다. 상기 산출된 반사각을 제2블렌딩 함수에 적용하여, 상기 특정 픽셀의 새로운 픽셀값이 산출될 수 있다. 원본 이미지에 포함된 모든 픽셀에 상술한 과정을 적용하면, 가상의 광원에 대응되는 원본 이미지를 생성할 수 있다.By using the light source information, the incident angle of the virtual light incident on each of the pixels constituting the original image may be calculated. When the incident angle is applied to an original image to which the normal map is applied (or a normal vector matched to each pixel constituting the original image), information on the reflection angle of light from a specific pixel may be calculated. By applying the calculated reflection angle to a second blending function, a new pixel value of the specific pixel may be calculated. If the above-described process is applied to all pixels included in the original image, the original image corresponding to the virtual light source may be generated.
한편, 상기 광원 정보는 사용자 요청에 의해 변경될 수 있다. 이에 따라, 변경된 광원 정보를 기반으로 원본 이미지를 구성하는 픽셀 각각에 대한 반사각 정보가 재산출 될 수 있으며, 재산출된 반사각 정보를 기반으로 원본 이미지를 구성하는 픽셀의 픽셀 값이 재산출 될 수 있다.Meanwhile, the light source information may be changed according to a user's request. Accordingly, the reflection angle information for each pixel constituting the original image may be recalculated based on the changed light source information, and the pixel values of the pixels constituting the original image may be recalculated based on the recalculated reflection angle information. .
상술한 바와 같이, 동일한 노말 맵이 적용된 원본 이미지일지라도, 상기 광원 정보가 달라질 경우, 서로 다른 이미지가 생성될 수 있다. 이를 통해, 본 발명은 원본 이미지에 다양한 광원 효과를 적용할 수 있게 된다. As described above, even in the original image to which the same normal map is applied, when the light source information is different, different images may be generated. Through this, according to the present invention, various light source effects can be applied to the original image.
한편, 노말 맵은 원본 이미지를 기반으로 생성될 수 있다. 노말 맵은 원본 이미지를 구성하는 픽셀 각각에 대한 노말 벡터를 형성함으로써 생성된다. 원본 이미지를 구성하는 특정 픽셀에 대한 노말 벡터는 상기 특정 픽셀의 명도 값 및 상기 특정 픽셀과 인접한 픽셀의 명도 값에 기반하여 생성될 수 있다. Meanwhile, the normal map may be generated based on the original image. The normal map is generated by forming a normal vector for each pixel constituting the original image. A normal vector for a specific pixel constituting the original image may be generated based on a brightness value of the specific pixel and a brightness value of a pixel adjacent to the specific pixel.
일 실시 예에 있어서, 상기 특정 픽셀의 X, Y축 좌표 및 상기 특정 픽셀의 명도 값을 Z축 좌표로 하여, 상기 특정 픽셀을 3차원 공간 상에 플로팅 한다. 상기 특정 픽셀과 인접한 두 픽셀도 3차원 공간상에 플로팅한다. 이 경우, 3차원 공간상에 세 개의 점이 플로팅 될 수 있으며, 상기 세 개의 점을 모두 포함하는 면이 특정될 수 있다. 상기 특정된 면을 상기 특정 픽셀의 법선 면으로 특정할 수 있다. 상기 법선 면에 수직한 방향의 벡터가 상기 특정 픽셀의 노말 벡터로 특정된다.In an embodiment, the specific pixel is plotted in a 3D space by using the X and Y-axis coordinates of the specific pixel and the brightness value of the specific pixel as the Z-axis coordinates. Two pixels adjacent to the specific pixel are also plotted in a 3D space. In this case, three points may be plotted on a three-dimensional space, and a surface including all three points may be specified. The specified plane may be specified as a normal plane of the specific pixel. A vector in a direction perpendicular to the normal plane is specified as a normal vector of the specific pixel.
상술한 과정을 원본 이미지에 포함된 모든 픽셀에 적용하면 노말 맵이 생성된다. 상기 노말 맵은 다양한 환경에서의 대상 이미지를 제공할 수 있도록 한다. When the above-described process is applied to all pixels included in the original image, a normal map is generated. The normal map may provide target images in various environments.
구체적으로, 미술관 등에 전시된 미술 작품과 같은 대상 이미지는, i)전시된 시간에 따른 빛의 양, ii)빛이 어느 방향에서 어느 방향으로 비추는지 여부, iii) 대상 이미지가 전시된 장소 등에 따라, 반사되는 빛의 양 및 각도가 상이하다. 상기 노말 맵 및 광원 정보를 함께 활용하면, 다양한 환경에서의 대상 이미지를 제공하는 것이 가능해진다.Specifically, the target image, such as a work of art displayed in a museum, etc., depends on i) the amount of light according to the displayed time, ii) from which direction the light shines in which direction, iii) the place where the target image is displayed, etc. , the amount and angle of the reflected light are different. When the normal map and the light source information are used together, it becomes possible to provide target images in various environments.
상기 노말 맵은 광원의 위치 및 광원에서 방출되는 빛이 세기에 따라, 대상 이미지의 입체감이 상이하게 구현될 수 있도록 한다. 즉, 사용자는 동일한 대상 이미지에 대해 다른 입체감을 느낄 수 있다. The normal map allows the three-dimensional effect of the target image to be implemented differently according to the position of the light source and the intensity of light emitted from the light source. That is, the user may feel a different three-dimensional effect with respect to the same target image.
도 6은 빛의 방향에 따라 대상 이미지(610, 620)에 반사되는 빛의 양을 극단적으로 표현한 개념도이다. 6 is a conceptual diagram showing the extreme amount of light reflected on target images 610 and 620 according to the direction of light.
도 6의 (a)는 대상 이미지(610)의 좌측(a) 방향에서 빛이 들어오는 모습이다. 도 6의 (a)에서, 대상 이미지(610)의 좌측 영역인 제1 영역(610a)은 빛이 반사되고, 대상 이미지(610)의 우측 영역인 제2 영역(610b)은 빛이 반사되지 않는다. 이에 따라, 사용자는 제1 영역(610a)에서 대상 이미지의 입체감을 느낄 수 있으나, 제2 영역(610b)에서는 대상 이미지의 입체감을 느낄 수 없다. 6 (a) is a view of light entering from the left (a) direction of the target image 610 . In FIG. 6A , the first area 610a that is the left area of the target image 610 reflects light, and the second area 610b that is the right area of the target image 610 does not reflect light. . Accordingly, the user can feel the three-dimensional effect of the target image in the first region 610a, but cannot feel the three-dimensional effect of the target image in the second region 610b.
도 6의 (b)는 대상 이미지(620)의 우측(b) 방향에서 빛이 들어오는 모습이다. 도 6의 (b)에서, 대상 이미지(620)의 좌측 영역인 제1 영역(620a)는 빛이 반사되지 않고, 대상 이미지(620)의 우측 영역인 제2 영역(620b)은 빛이 반사된다. 이에 따라, 사용자는 제1 영역(620a)에서 대상 이미지의 입체감을 느낄 수 없으나, 제2 영역(620b)에서는 대상 이미지의 입체감을 느낄 수 있다.6 (b) is a view of light entering from the right (b) direction of the target image 620 . In FIG. 6B , the first area 620a that is the left area of the target image 620 does not reflect light, and the second area 620b that is the right area of the target image 620 reflects light. . Accordingly, the user cannot feel the three-dimensional effect of the target image in the first region 620a, but can feel the three-dimensional effect of the target image in the second region 620b.
이처럼, 사용자는, 대상 이미지에 비추는 빛의 양 및 대상 이미지에서 반사되는 빛의 각도에 따라, 대상 이미지의 입체감을 다르게 느낄 수 있다.As such, the user may feel the three-dimensional effect of the target image differently according to the amount of light illuminating the target image and the angle of light reflected from the target image.
예를 들어, 도 7의(a)와 함께 대상 이미지(710)의 특정 영역(710a)에만 빛이 들어오는 경우를 가정하여 설명한다. 대상 이미지(710)의 제1 영역(710a)은 빛이 반사되고, 제2 영역(710b)은 빛이 반사되지 않는다. 제1영역(710a)에서는 노말맵에 의한 효과가 적용되고, 제2영역(710b)에는 노말맵에 대한 효과가 적용되지 않는다. 이를 통해, 노말 맵이 적용된 원본 이미지(730)의 제1 영역(730a)은 입체감이 표현되는 반면에, 제2 영역(730b)은 입체감이 표현되지 않을 수 있다. For example, it is assumed that light enters only a specific region 710a of the target image 710 together with FIG. 7A . The first area 710a of the target image 710 reflects light, and the second area 710b does not reflect light. The effect of the normal map is applied to the first region 710a, and the effect for the normal map is not applied to the second region 710b. Through this, the first region 730a of the original image 730 to which the normal map is applied may express a three-dimensional effect, whereas the second region 730b may not express the three-dimensional effect.
도 7의(b)와 함께 대상 이미지(740)의 특정 영역(740b)에 빛이 들어오는 경우를 가정하여 설명한다. 대상 이미지(740)의 제1 영역(740a)은 빛이 반사되지 않고, 제2 영역(740b)은 빛이 반사된다. 제2영역(740b)에서는 노말맵에 의한 효과가 적용되고, 제1영역(740a)에는 노말맵에 대한 효과가 적용되지 않는다. 이를 통해, 노말 맵이 적용된 원본 이미지(740)의 제1 영역(760a)은 입체감이 표현되지 않는 반면에, 제2 영역(760b)은 입체감이 표현될 수 있다. It is assumed that light enters a specific area 740b of the target image 740 together with FIG. 7B . The first area 740a of the target image 740 does not reflect light, and the second area 740b reflects light. The effect of the normal map is applied to the second region 740b, and the effect for the normal map is not applied to the first region 740a. Through this, the first region 760a of the original image 740 to which the normal map is applied does not express a three-dimensional effect, whereas the second region 760b may express a three-dimensional effect.
다만, 이는 설명의 편의를 위하여, 대상 이미지의 일 영역은 빛이 반사되고, 타 영역은 빛이 반사되지 않는 것으로 설명하였으나, 구현하고자 하는 확장 현실 등에 따라, 빛이 반사되는 양 및 각도는 상이할 수 있다.However, for convenience of explanation, it has been described that one area of the target image reflects light and the other area does not reflect light. can
이러한 다양한 확장 현실 상황(날씨, 시간, 장소 등)에 따른 광원 정보가 생성될 수 있다. 상기 광원 정보는 구현하고자 하는 전시 환경에 따라 상기 원본 이미지에 선택적으로 적용될 수 있다.Light source information according to these various extended reality situations (weather, time, place, etc.) may be generated. The light source information may be selectively applied to the original image according to an exhibition environment to be implemented.
이하에서는 더욱 정교하고, 더욱 실제 미술 작품과 유사한 초고화질 이미지를 구현하기 위한 방법을 설명하도록 한다. Hereinafter, a method for realizing an ultra-high-definition image that is more sophisticated and more similar to a real work of art will be described.
한편, 본 발명에서는, 노말맵 이미지에 마스크 맵을 적용하여, 미술 작품에 대한 이미지와 더욱 유사한 초고화질 이미지를 생성되는 과정이 진행될 수 있다. Meanwhile, in the present invention, by applying a mask map to a normal map image, a process of generating an ultra-high-resolution image more similar to an image of a work of art may be performed.
여기서, 마스크 맵(Mask Map)은 메탈릭 맵(Metallic Map), AO 맵(Ambient Occlusion Map) 및 스무스 맵(Smoothness Map)을 포함할 수 있다. 보다 구체적으로, 마스크 맵은, Red 채널에 Metalic Map을, Green채널에 OA을 Alpha 채널에는 Smoothness Map을 적용함으로써 핵심데이터만 사용할 수 있는 맵을 의미한다. 마스크 맵은, 불필요한 데이터를 줄일 수 있다는 장점이 있다. Here, the mask map may include a metallic map, an ambient occlusion map (AO), and a smoothness map. More specifically, the mask map refers to a map in which only core data can be used by applying the Metalic Map to the Red channel, OA to the Green channel, and the Smoothness Map to the Alpha channel. The mask map has an advantage in that unnecessary data can be reduced.
한편, 본 발명에서, 노말 맵이 적용된 원본 이미지에 메탈릭 맵, AO 맵, 스무스 맵을 적용하는 과정이 진행될 수 있다. 메탈릭 맵, AO 맵, 스무스 맵은 순서에 상관없이 적용될 수 있다. 다만, 본 발명에서는 설명의 편의를 위하여, 노말 맵이 적용된 원본 이미지에, 메탈릭 맵, AO 맵, 스무스맵 순서로 적용시키는 과정을 설명하도록 한다. Meanwhile, in the present invention, a process of applying the metallic map, the AO map, and the smooth map to the original image to which the normal map is applied may be performed. The metallic map, the AO map, and the smooth map may be applied in any order. However, in the present invention, for convenience of explanation, a process of applying a metallic map, an AO map, and a smooth map to an original image to which a normal map is applied will be described.
본 발명에서는, 노말맵이 적용된 원본 이미지에 메탈릭 맵을 적용함으로써, 대상 이미지에 포함된 금속 재질에 대한 질감을 표현할 수 있다. In the present invention, by applying the metallic map to the original image to which the normal map is applied, it is possible to express the texture of the metallic material included in the target image.
여기서, 메탈릭 맵(Metallic Map)은, 빛의 정반사를 이용하여 대상 이미지에 포함된 금속 재질의 고유한 색(ex: 광택, 거울과 같은 반사)을 표현할 수 있는 정보를 포함하고 있다. Here, the metallic map includes information that can express a unique color (eg, gloss, mirror-like reflection) of a metal material included in the target image by using the specular reflection of light.
즉, 메탈릭 맵이 적용된 원본 이미지는, 대상 이미지에서 금속이 포함한 부분이, 해당 금속의 고유의 색으로 표현될 수 있다. That is, in the original image to which the metallic map is applied, the metal-included portion of the target image may be expressed as a unique color of the corresponding metal.
보다 구체적으로, 제어부(130)는 노말 맵이 적용된 원본 이미지에 메탈릭 맵을 적용하여, 노말 맵이 적용된 원본 이미지의 픽셀 값을 변경함으로써 금속의 고유의 색을 표현할 수 있다. 제어부(130)는 i)노말 맵이 적용된 원본 이미지의 픽셀 값 및 ii)메탈릭 맵을 제3 블렌딩 함수에 대입하여, 노말 맵이 적용된 원본 이미지의 픽셀 값을 변경할 수 있다. 변경 전 노말 맵이 적용된 원본 이미지의 픽셀 값은 대상 이미지에서 금속 재질의 고유의 색이 반영하지 않은 픽셀 값이라면, 변경 된 메탈릭 맵이 적용된 원본 이미지의 픽셀 값은 대상 이미지에서 금속 재질의 고유의 색이 반영된 픽셀값 일 수 있다. More specifically, the controller 130 may apply the metallic map to the original image to which the normal map is applied, and may express a unique color of the metal by changing the pixel values of the original image to which the normal map is applied. The controller 130 may change the pixel values of the original image to which the normal map is applied by substituting i) the pixel values of the original image to which the normal map is applied and ii) the metallic map to the third blending function. If the pixel value of the original image with the normal map applied before the change is a pixel value that does not reflect the unique color of the metal material in the target image, the pixel value of the original image with the changed metallic map applied is the original color of the metal material in the target image. This may be a reflected pixel value.
예를 들어, 대상 이미지가 유화이고, 노말 맵이 적용된 원본 이미지의 픽셀 값(245, 167, 59)이라고 가정하자. 제어부(130)는 원본 이미지의 픽셀 값(245, 167, 59) 및 메탈릭 맵을 제3 블렌딩 함수에 대입할 수 있다. 이를 통해, 메탈릭 맵이 적용된 원본 이미지는 (249, 167, 24)의 픽셀 값을 가질 수 있다. 변경전 노말 맵이 적용된 원본 이미지의 픽셀값은 대상 이미지의 정반사가 반영되지 않아, 금속 재질의 고유의 색이 표현되지 않은 픽셀 값이라면, 변경된 메탈릭 맵이 적용된 원본 이미지의 픽셀 값은 대상 이미지의 정반사가 반영되어 금속 재질의 고유의 색 이 표현되는 픽셀 값일 수 있다. For example, suppose that the target image is an oil painting, and pixel values (245, 167, 59) of the original image to which the normal map is applied. The controller 130 may substitute the pixel values 245 , 167 , and 59 of the original image and the metallic map to the third blending function. Through this, the original image to which the metallic map is applied may have pixel values of (249, 167, 24). The pixel value of the original image to which the normal map was applied before the change does not reflect the specular reflection of the target image, so if the unique color of the metal material is not expressed, the pixel value of the original image to which the changed metallic map is applied is the specular reflection of the target image. may be a pixel value in which a unique color of a metal material is expressed by reflecting .
한편, 대상 이미지의 정반사 역시, 앞서 설명한 i)대상 이미지가 전시된 시간에 따른 빛의 양, ii)빛이 어느 방향에서 어느 방향으로 비추는지 여부, iii) 대상 이미지가 전시된 장소등에 따라 상이한 금속 재질이 표현될 수 있다. 예를 들어, 빛의 양이 많은 경우, 금속 재질이 더욱 하얗게(광택나게) 보일 수 있다. On the other hand, the specular reflection of the target image also differs according to the above-described i) the amount of light according to the time the target image is displayed, ii) from which direction the light shines in which direction, iii) the place where the target image is displayed, etc. material can be expressed. For example, if the amount of light is large, the metal material may appear whiter (shiny).
제어부(130)는 제3 블렌딩 함수의 파라미터를 조정함으로써, 메탈릭 맵이 적용된 원본 이미지가 표현하는, 대상 이미지에 비추는 빛의 양 및 대상 이미지에서의 정반사를 조절할 수 있다. The controller 130 may adjust the amount of light shining on the target image and the specular reflection in the target image expressed by the original image to which the metallic map is applied by adjusting the parameter of the third blending function.
이러한 다양한 확장 현실 상황(날씨, 시간, 장소 등)과, 이에 따른 메탈릭 맵(또는 제3 기 설정된 블렌딩 함수의 파라미터)는 서로 매칭되어 매칭 정보로서, 저장부(120)에 저장되어 있을 수 있다. These various extended reality situations (weather, time, place, etc.) and the corresponding metallic map (or parameter of the third preset blending function) may be matched with each other and stored in the storage unit 120 as matching information.
제어부(130)는 구현하고자 하는 확장 현실의 상황에 근거하여, 매칭 정보를 통해 메탈릭 맵 또는 제3 기 설정된 블렌딩 함수의 파라미터를 제어할 수 있다. The controller 130 may control a parameter of the metallic map or a third preset blending function through matching information based on the situation of the extended reality to be implemented.
한편, 제어부(130)는 기계학습에 의하여 생성된 인공지능 모델을 이용하여 매칭 정보를 생성하고, 매칭 정보에 근거하여 메탈릭 맵이 적용된 원본 이미지를 생성할 수 있다. Meanwhile, the controller 130 may generate matching information using an artificial intelligence model generated by machine learning, and may generate an original image to which a metallic map is applied based on the matching information.
이처럼, 본 발명에서는 원본 이미지(즉, 노말 맵이 적용된 원본 이미지)에 메탈릭 맵을 적용함으로써, 대상 이미지의 금속 재질의 고유한 색을 표현할 수 있다. 사용자는 메탈릭 맵이 적용된 원본 이미지를 통해 대상 이미지에 포함된 금속 재질의 고유한 색을 인지할 수 있다. As such, in the present invention, by applying the metallic map to the original image (ie, the original image to which the normal map is applied), a unique color of the metal material of the target image can be expressed. The user can recognize the unique color of the metallic material included in the target image through the original image to which the metallic map is applied.
따라서, 확장현실 등에 메탈릭 맵이 적용되지 않은 원본 이미지가 디스플레이 될 때에 비하여 메탈릭 맵이 적용된 원본 이미지가 디스플레이 될 때, 사용자는, 미술 작품에 포함된 금속 재질의 고유한 색 및 이를 통한 질감을 느낌으로써, 실제 미술관 등에서 미술 작품을 보는 것과 같은 경험을 제공받을 수 있다. Therefore, when the original image to which the metallic map is applied is displayed, compared to when the original image to which the metallic map is not applied is displayed in extended reality, etc., the user can feel , you can get the same experience as seeing art works in real art galleries.
한편, 본 발명에서는, 메탈릭 맵이 적용된 원본 이미지에 AO 맵(Ambient Occlusion Map)을 적용함으로써, 대상 이미지에서 구석진 부분에 그림자를 생성하여, 더욱 자연스럽고 사실적인 느낌을 표현할 수 있다.On the other hand, in the present invention, by applying an AO map (Ambient Occlusion Map) to the original image to which the metallic map is applied, it is possible to create a shadow in a corner of the target image, thereby expressing a more natural and realistic feeling.
다만, 앞서 설명한 바와 같이, 메탈릭 맵(Metallic Map), AO 맵(Ambient Occlusion Map) 및 스무스 맵(Smoothness Map)은 순서가 상관없다, 따라서, 메탈릭 맵을 적용하기 이전에, AO맵을 적용할 수도 있다. 이러한 경우, AO 맵은 노말 맵이 적용된 원본 이미지에 적용될 수 있다. However, as described above, the order of the Metallic Map, the Ambient Occlusion Map, and the Smoothness Map does not matter. Therefore, before applying the metallic map, the AO map may be applied. have. In this case, the AO map may be applied to the original image to which the normal map is applied.
여기서, AO 맵(Ambient Occlusion Map)은, 대상 이미지에서, 객체(또는 픽셀)와 또 다른 객체(또는 픽셀)의 표면상의 각 포인트 사이의 폐색(occlusion) 값에 대한 정보를 포함할 수 있다. Here, the AO map (Ambient Occlusion Map) may include information on an occlusion value between each point on the surface of an object (or pixel) and another object (or pixel) in the target image.
즉, AO맵이 적용된 원본 이미지는, 음영 처리된 이미지로 밝고 어두운 부분이 표시된 이미지로 이해되어 질 수 있다. That is, the original image to which the AO map is applied may be understood as an image in which light and dark portions are displayed as a shaded image.
보다 구체적으로, 제어부(130)는 메탈릭 맵이 적용된 원본 이미지에 AO맵을 적용하여, 메탈릭 맵이 적용된 원본 이미지의 픽셀 값을 변경함으로써 음영을 표현할 수 있다. 제어부(130)는 i)메탈릭 맵이 적용된 원본 이미지의 픽셀 값 및 ii)AO 맵을 제4 기 설정된 블렌딩 함수에 대입하여, 메탈릭 맵이 적용된 원본 이미지의 픽셀 값을 변경할 수 있다. 변경 전 메탈릭 맵이 적용된 원본 이미지의 픽셀 값은 폐색값이 반영되지 않은(즉, 음영 처리가 되지 않은) 픽셀 값이라면, 변경 된 AO 맵이 적용된 원본 이미지의 픽셀 값은 폐색값이 반영된(즉, 음영 처리가 된) 픽셀값 일 수 있다. More specifically, the controller 130 may apply the AO map to the original image to which the metallic map is applied, and may express the shading by changing the pixel values of the original image to which the metallic map is applied. The controller 130 may change the pixel values of the original image to which the metallic map is applied by substituting i) the pixel values of the original image to which the metallic map is applied and ii) the AO map to the fourth preset blending function. If the pixel value of the original image to which the metallic map was applied before the change is a pixel value that does not reflect the occlusion value (that is, it is not shaded), the pixel value of the original image to which the changed AO map is applied is the pixel value that reflects the occlusion value (that is, shaded) pixel values.
예를 들어, 메탈릭 맵이 적용된 원본 이미지는 도 8의 (a)와 같이 ((255, 255, 255), (255, 30, 20), (255, 30, 20))의 픽셀 값을 가질 수 있다. 이 때, i)2행 2열에 위치한 픽셀 값 30(811), ii)2행 3열에 위치한 픽셀값 20(812), iii)3행 3열에 위치한 픽셀 값 30(813) 및 iv) 3행 3열에 위치한 픽셀값 20(814)은 그 외의 픽셀 값 255에 의한 환경 차폐로 인해, 그림자(음영)가 생성될 수 있다. 이 때, iv) 3행 3열에 위치한 픽셀 값 20(814)은 주변의 픽셀값들에 의하여 가장 많은 음영이 발생되므로, 픽셀값 20(814)은 픽셀 값3(824)로 변경될 수 있다. 나아가, ii)2행 3열에 위치한 픽셀값 20(812), iii)3행 3열에 위치한 픽셀 값 30(813)은 상대적으로 음영이 덜 생기므로, 각각, 픽셀 값 5(822) 및 픽셀 값7(823)으로 변경될 수 있다. 그리고, i)2행 2열에 위치한 픽셀 값 30(811)은 상대적으로 음영이 가장 적게 발생되므로, 픽셀 값 10(821)로 변경될 수 있다. 즉, 도 8의 (b)의 AO 맵이 적용된 원본 이미지는, 어두운 부분은 더욱 어두워 지도록 표현될 수 있다. For example, the original image to which the metallic map is applied may have pixel values of ((255, 255, 255), (255, 30, 20), (255, 30, 20)) as shown in (a) of FIG. have. In this case, i) a pixel value of 30 (811) located in row 2, column 2, ii) a pixel value of 20 (812) located in row 2, column 3, iii) a pixel value of 30 (813) located in row 3, column 3, and iv) 3 row 3 For the pixel value 20 (814) located in the column, a shadow (shading) may be generated due to environmental shielding by the pixel value 255 other than the pixel value 255 . In this case, iv) the pixel value 20 (814) located in the third row and third column generates the largest amount of shading by the surrounding pixel values, and thus the pixel value 20 (814) may be changed to the pixel value 3 (824). Further, ii) the pixel value 20 (812) located in row 2, column 3, and iii) the pixel value 30 (813) located in row 3, column 3 produces relatively less shading, and therefore a pixel value of 5 (822) and a pixel value of 7, respectively (823) may be changed. Further, i) a pixel value of 30 (811) located in row 2 and column 2 generates relatively the least shading, and thus may be changed to a pixel value of 10 (821). That is, in the original image to which the AO map of FIG. 8(b) is applied, the dark part may be expressed to be darker.
도 9의 (a) 는 메탈릭 맵이 적용된 원본 이미지(910)를 표현한 모습이다. 메탈릭 맵이 적용된 원본 이미지(910)에 도 9의(b)의 AO 맵(920)을 적용함으로써, 도 9의 (c)와 같은 AO맵이 적용된 원본 이미지(930)이 생성될 수 있다. AO 맵이 적용된 원본 이미지(930)는 픽셀의 차폐에 의하여, 음영(911)이 생성이 표현될 수 있다. 9(a) is a view showing the original image 910 to which the metallic map is applied. By applying the AO map 920 of FIG. 9B to the original image 910 to which the metallic map is applied, the original image 930 to which the AO map is applied as shown in FIG. 9C may be generated. In the original image 930 to which the AO map is applied, a shadow 911 may be generated by blocking pixels.
이처럼, 본 발명에서는 원본 이미지(즉, 메탈릭 맵이 적용된 원본 이미지)에 AO맵을 적용함으로써, 그림자 효과를 적용하여, 환경광을 차폐함으로써, 그림의 세부적인 붓터치의 질감을 표현할 수 있다. As such, in the present invention, by applying the AO map to the original image (that is, the original image to which the metallic map is applied), the shadow effect is applied and the ambient light is shielded, thereby expressing the texture of the detailed brush touch of the picture.
따라서, 확장현실 등에 AO 맵이 적용되지 않은 원본 이미지가 디스플레이 될 때에 비하여 AO 맵이 적용된 원본 이미지가 디스플레이 될 때, 사용자는, 미술 작품에 포함된 세부적인 붓터치의 질감을 느낌으로써, 실제 미술관 등에서 미술 작품을 보는 것과 같은 경험을 제공받을 수 있다. Therefore, when the original image to which the AO map is applied is displayed, compared to when the original image to which the AO map is not applied is displayed in extended reality, etc., the user can feel the texture of the detailed brush touch included in the art work, so as to feel the texture of the detailed brush touch included in the art work, etc. You can be provided with the same experience as looking at a work of art.
한편, 본 발명에서는, AO 맵이 적용된 원본 이미지에 스무스 맵(Smoothness Map)을 적용함으로써, 대상 이미지의 부드러운 표면은 더욱 부드럽게 표한하고, 거친 표면을 더욱 거칠게 표현할 수 있다. Meanwhile, in the present invention, by applying a smoothness map to the original image to which the AO map is applied, the smooth surface of the target image can be made softer and the rough surface can be expressed more rough.
여기서, 스무스 맵(Smoothness Map)은, 빛이 퍼지는 것과 같은 느낌을 표현할 수 있는 정보를 포함하고 있다. Here, the smoothness map includes information capable of expressing a feeling of spreading light.
보다 구체적으로, 제어부(130)는 AO 맵이 적용된 원본 이미지에 스무스 맵을 적용하여, AO 맵이 적용된 원본 이미지의 픽셀 값을 변경함으로써 부드러운 표면은 더욱 부드럽게 표현하고, 거친 표면은 더욱 거칠게 표현할 수 있다. 제어부(130)는 i)AO 맵이 적용된 원본 이미지의 픽셀 값 및 ii)스무스 맵을 제5 기 설정된 블렌딩 함수에 대입하여, AO 맵이 적용된 원본 이미지의 픽셀 값을 변경할 수 있다. AO 맵이 적용된 원본 이미지의 픽셀 값은 AO맵이 적용되지 않은 원본 이미지의 픽셀 값에 비하여, 대상 이미지의 부드러운 표면은 더욱 부드럽게 표현되는 값을 가지고, 대상 이미지의 거친 표면은 더욱 거칠게 표현되는 값을 가질 수 있다. More specifically, the controller 130 applies the smooth map to the original image to which the AO map is applied, and by changing the pixel values of the original image to which the AO map is applied, a smooth surface can be expressed more softly and a rough surface can be expressed more rough. . The controller 130 may change the pixel values of the original image to which the AO map is applied by substituting i) the pixel values of the original image to which the AO map is applied and ii) the smooth map to the fifth preset blending function. Compared to the pixel values of the original image to which AO map is applied, the pixel values of the original image to which the AO map is applied have a smoother surface, and the rough surface of the target image has a rougher value. can have
한편, 대상 이미지 표면의 거침 또는 부드러움 역시, 앞서 설명한 i)대상 이미지가 전시된 시간에 따른 빛의 양, ii)빛이 어느 방향에서 어느 방향으로 비추는지 여부, iii) 대상 이미지가 전시된 장소등에 따라, 상이한 금속 재질이 표현될 수 있다. 예를 들어, 빛의 양이 많은 경우, 부드러운 표면은 더욱 부드럽게 보일 수 있다. On the other hand, the roughness or softness of the surface of the target image also depends on i) the amount of light according to the time the target image is displayed, ii) whether the light is shining from which direction, iii) the place where the target image is displayed, etc. Accordingly, different metal materials can be expressed. For example, if the amount of light is high, a smooth surface may appear smoother.
제어부(130)는 제5 기 설정된 블렌딩 함수의 파라미터를 조정함으로써, 스무스 맵이 적용된 원본 이미지가 표현하는, 대상 이미지에 비추는 빛의 양 및 각도에 따른 표면의 거침 정도를 조절할 수 있다. The controller 130 may adjust the roughness of the surface according to the amount and angle of light illuminating the target image, expressed by the original image to which the smooth map is applied, by adjusting the parameters of the fifth preset blending function.
이러한 다양한 확장 현실 상황(날씨, 시간, 장소 등)과, 이에 따른 스무스 맵(또는 제5 기 설정된 블렌딩 함수의 파라미터)는 서로 매칭되어 매칭 정보로서, 저장부(120)에 저장되어 있을 수 있다. These various extended reality situations (weather, time, place, etc.) and the corresponding smooth map (or parameters of the fifth preset blending function) may be matched with each other and stored in the storage unit 120 as matching information.
제어부(130)는 구현하고자 하는 확장 현실의 상황에 근거하여, 매칭 정보를 통해 스무스 맵 또는 제5 기 설정된 블렌딩 함수의 파라미터를 제어할 수 있다. The controller 130 may control the parameters of the smooth map or the fifth preset blending function through matching information based on the situation of the extended reality to be implemented.
한편, 제어부(130)는 기계학습에 의하여 생성된 인공지능 모델을 이용하여 매칭 정보를 생성하고, 매칭 정보에 근거하여 스무스 맵이 적용된 원본 이미지를 생성할 수 있다. Meanwhile, the controller 130 may generate matching information using an artificial intelligence model generated by machine learning, and may generate an original image to which a smooth map is applied based on the matching information.
이처럼, 본 발명에서는 원본 이미지(즉, AO 맵이 적용된 원본 이미지)에 스무스 맵을 적용함으로써, 대상 이미지의 부드러운 표면은 더욱 부드럽게 표현하고, 대상 이미지의 거친 표면은 더욱 거칠게 표현할 수 있다. 사용자는 스무스 맵이 적용된 원본 이미지를 통해 대상 이미지의 표면의 질감을 인지할 수 있다. As such, in the present invention, by applying the smooth map to the original image (ie, the original image to which the AO map is applied), the smooth surface of the target image can be expressed more softly and the rough surface of the target image can be expressed more rough. The user can recognize the texture of the surface of the target image through the original image to which the smooth map is applied.
따라서, 확장현실 등에 스무스 맵이 적용되지 않은 원본 이미지가 디스플레이 될 때에 비하여 스무스 맵이 적용된 원본 이미지가 디스플레이 될 때, 사용자는, 미술 작품 표면의 부드럽고 거친 질감을 느낌으로써, 실제 미술관 등에서 미술 작품을 보는 것과 같은 경험을 제공받을 수 있다. Therefore, when the original image to which the smooth map is applied is displayed, compared to when the original image to which the smooth map is not applied is displayed in extended reality, etc., the user can feel the soft and rough texture of the surface of the art work to see the art work in an actual art museum. You can get the same experience.
한편, 본 발명에서는 캔버스 맵(Canvas Map), 노말 맵(Normal Map), 메탈릭 맵(Metallic Map), AO 맵(Ambient Occlusion Map) 및 스무스 맵(Smoothness Map)이 모두 적용된 원본 이미지에, 코팅 맵(Coat Map)을 적용함으로써, 최종 이미지를 생성할 수 있다. On the other hand, in the present invention, in the original image to which all of Canvas Map, Normal Map, Metallic Map, AO Map (Ambient Occlusion Map) and Smoothness Map are applied, the coating map ( Coat Map) can be applied to create the final image.
여기서, 캔버스 맵(Canvas Map), 노말 맵(Normal Map), 메탈릭 맵(Metallic Map), AO 맵(Ambient Occlusion Map) 및 스무스 맵(Smoothness Map)이 모두 적용된 원본 이미지를 “변경 이미지”라 명명하도록 한다. Here, the original image to which the Canvas Map, Normal Map, Metallic Map, Ambient Occlusion Map, and Smoothness Map are all applied is called “changed image”. do.
또한, 코팅 맵(Coat Map)은 조각 이미지가 병합되어 생성된 원본 이미지, 즉, 그 어떠한 맵도 적용되지 않은 원본 이미지를 의미할 수 있다.Also, the coating map may refer to an original image generated by merging fragment images, that is, an original image to which no map is applied.
또한, 최종 이미지는, 캔버스 맵(Canvas Map), 노말 맵(Normal Map), 메탈릭 맵(Metallic Map), AO 맵(Ambient Occlusion Map), 스무스 맵(Smoothness Map) 및 코팅 맵(Coat Map)이 적용된 이미지로서, 대상 이미지의 질감을 표현하는 것과 동시에 원본 이미지의 데이터 값을 유지할 수 있다. In addition, the final image is a Canvas Map, Normal Map, Metallic Map, AO Map (Ambient Occlusion Map), Smoothness Map and Coating Map applied. As an image, the data value of the original image can be maintained while expressing the texture of the target image.
보다 구체적으로, 제어부(130)는 변경 이미지와 원본 이미지를 블렌딩할 수 있다. 제어부(130)는 i)변경 이미지의 픽셀 값 및 ii)원본 이미지의 픽셀 값을 제 6 함수에 대입할 수 있다. 이러한 과정을 통해 생성된 최종 이미지는, 대상 이미지의 질감을 표현하는 것과 동시에 원본 이미지의 데이터 값을 유지할 수 있다. More specifically, the controller 130 may blend the changed image and the original image. The controller 130 may substitute i) the pixel value of the changed image and ii) the pixel value of the original image into the sixth function. The final image generated through this process can maintain the data value of the original image while expressing the texture of the target image.
도10의 (a) 는 스무스 맵이 적용된 원본 이미지, 또는 변경 이미지(1010)를 표현한 모습이다. 변경 이미지(1010)에 도 10의(b)의 코팅 맵(930)을 적용함으로써, 도 10의 (c)와 같은 최종 이미지(1030)이 생성될 수 있다. 10( a ) is a diagram illustrating an original image to which a smooth map is applied or a modified image 1010 . By applying the coating map 930 of FIG. 10(b) to the modified image 1010, a final image 1030 as shown in FIG. 10(c) may be generated.
이처럼, 본 발명에서는 최종 이미지를 생성함으로써, 대상 이미지의 질감을 표현하는 것과 동시에 원본 이미지의 데이터 값을 유지할 수 있다. As such, in the present invention, by generating the final image, it is possible to express the texture of the target image and maintain the data value of the original image.
따라서, 확장현실 등에 원본 이미지가 디스플레이 될 때에 비하여 최종 이미지가 디스플레이 될 때, 사용자는, 보다 실제 미술관 등에서 미술 작품을 보는 것과 같은 경험을 제공받을 수 있다. Accordingly, when the final image is displayed compared to when the original image is displayed in extended reality or the like, the user may be provided with an experience such as viewing a work of art in an actual art museum.
위에서 살펴본 것과 같이, 본 발명에 따른 초고화질 이미지 구현 방법 및 시스템은, 초고화질의 이미지를 생성하는 것을 통하여, 실제감 및 생동감 있는 콘텐츠를 제공할 수 있다. 이를 통해, 사용자는 미술관 또는 박물관 등에서 전시되는 작품을 언제라도 손쉽게 접할 수 있다. 이를 통해, 사용자는 풍부한 문화 예술 콘텐츠를 향유할 수 있다. 나아가, 미술관 또는 박물관은 보다 많은 사용자에게 작품에 해당하는 콘텐츠를 제공함으로써, 사용자의 관심을 향상시킬 수 있다. As described above, the method and system for realizing an ultra-high-resolution image according to the present invention can provide content with a sense of reality and vitality by generating an ultra-high-resolution image. Through this, the user can easily access works displayed in art galleries or museums at any time. Through this, users can enjoy rich cultural and artistic contents. Furthermore, art galleries or museums may provide more users with content corresponding to works, thereby enhancing user interest.
나아가, 본 발명에 따른 초고화질 이미지 구현 방법 및 시스템은 이미지의 적어도 일부분을 포함하는 복수개의 서로 다른 조각 이미지를 이용하여, 최대 해상도를 넘는 초고화질 명화 이미지를 생성할 수 있다. 이러한 초고화질의 이미지는, 확대 시에도 화질이 손상되지 않는 고해상도의 이미지로 이루어짐으로써, 실제 대상물(예를 들어, 명화)의 디테일이 고스란히 표현될 수 있다. Furthermore, the method and system for realizing an ultra-high-definition image according to the present invention can generate an ultra-high-definition image exceeding the maximum resolution by using a plurality of different fragment images including at least a part of the image. The ultra-high-resolution image is made of a high-resolution image in which the image quality is not impaired even when enlarged, so that details of an actual object (eg, a masterpiece) can be expressed intact.
이러한, 초고화질의 이미지가 가상 현실, 증강현실, 혼합현실, 또는 확장현실 등 다양한 기술에 따른 방법으로 사용자에게 제공되는 경우, 사용자는 해당 이미지에 해당하는 대상물을(예를 들어, 명화) 현장(예를 들어, 박물관 또는 미술관) 에서 실제로 보는 것과 같은 생생한 느낌을 전달할 수 있다. When such a super-high-resolution image is provided to the user by a method according to various technologies such as virtual reality, augmented reality, mixed reality, or extended reality, the user selects an object corresponding to the image (eg, a masterpiece) on-site ( It can convey a vivid feeling as if you were actually seeing it in a museum or art gallery, for example.
한편, 본 발명에 따른 초고화질 이미지 구현 시스템(100)에 의하여 생성된 초고화질 이미지를 이용하여 실감형 컨텐츠를 생성하고, 실감형 컨텐츠를 가상현실(VR, Virtual Reality), 증강현실(AR, Augmented Reality), 확장현실(XR, eXtended Reality) 또는 혼합현실(MR, Mixed Reality)을 구현하는 전자기기에 출력할 수 있다. On the other hand, immersive content is generated using the ultra-high-definition image generated by the ultra-high-definition image realization system 100 according to the present invention, and the immersive content is converted into virtual reality (VR, Virtual Reality), augmented reality (AR, Augmented). Reality), extended reality (XR, eXtended Reality), or mixed reality (MR, Mixed Reality) can be output to electronic devices.
보다 구체적으로, 본 발명은, 실감형 컨텐츠를 전자 기기에 출력함으로써, 가상현실(VR, Virtual Reality), 증강현실(AR, Augmented Reality), 확장현실(XR, eXtended Reality) 또는 혼합현실(MR, Mixed Reality)(이하, 가상현실 등)을 통해, 사용자가 미술관이나, 박물관과 같은 전시 공간 현장에 방문하여 전시물을 소비하는 것과 같은 느낌, 즉, 직접 눈으로 보고, 체험하는 것과 같은 느낌을 제공하기 위한 실감형 가상 전시 공간 제공 방법 및 시스템에 관한 것이다. 이하 첨부된 도면과 함께 실감형 컨텐츠를 생성하는 방법에 대하여 살펴본다. More specifically, the present invention, by outputting immersive content to an electronic device, virtual reality (VR, Virtual Reality), augmented reality (AR, Augmented Reality), extended reality (XR, eXtended Reality) or mixed reality (MR, Mixed Reality) (hereinafter referred to as virtual reality, etc.), to provide a feeling that the user visits to the site of an exhibition space such as an art gallery or museum and consumes the exhibits, that is, the feeling of seeing and experiencing with their own eyes. It relates to a method and system for providing an immersive virtual exhibition space for Hereinafter, a method of generating immersive content will be described with accompanying drawings.
여기서, 가상현실이 (VR, Virtual Reality)란, 가상을 뜻하는 Virtual과 현실을 뜻하는 Reality의 합성어로서, 실제와 유사하지만 실제가 아닌 인공 환경을 의미한다. 가상현실 분야에서는, 단순히 가상의 공간을 구현하는 것을 넘어서서 사용자의 오감에 직접적으로 작용하여 실제에 근접한 공간적, 시간적 체험을 가능케 하기 위한 다양한 노력을 기울이고 있다. Here, virtual reality (VR, Virtual Reality) is a compound word of Virtual, meaning virtual, and Reality, meaning reality, and refers to an artificial environment similar to the real one but not the real one. In the field of virtual reality, various efforts are being made to enable spatial and temporal experiences close to reality by directly acting on the user's five senses beyond simply realizing a virtual space.
나아가, 증강현실(AR, Augmented Reality)은, 현실의 이미지나 배경에 3차원 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 기술이다. 증강현실은 가상의 물체를 현실 공간에 올려 놓거나 현실의 물체를 인식해서 그 주변에 가상의 공간을 구성하는 기술이며, 증강현실 분야 역시, 가상의 공간을 이질감 없이 실제 환경과 유기적으로 연결하기 위하여 다양한 노력을 기울이고 있다. Furthermore, augmented reality (AR, Augmented Reality) is a technology that overlays a 3D virtual image on a real image or background and displays it as a single image. Augmented reality is a technology that places a virtual object in the real space or recognizes a real object and configures a virtual space around it. effort is being made
또한, 확장현실(XR, eXtended Reality)은, 단순한 콘텐츠의 디스플레이 하는 것을 넘어 공간 매핑, 객체 추적 등 더욱 고도화된 다양한 서비스를 구현하는 기술이다. 사용자는 헤드셋을 쓰지 않아도 360도의 가상 뷰를 체험할 수 있으며, 공간음향 제공을 통해 실제와 같이 자연스러운 체험을 할 수 있다. 마찬가지로, 확장현실 역시, 실제와 같은 생동감 있는 콘텐츠를 제공하기 위한 노력을 기울이고 있다. In addition, extended reality (XR, eXtended Reality) is a technology that implements various advanced services such as spatial mapping and object tracking beyond simple content display. Users can experience a 360-degree virtual view without using a headset, and a natural-like experience can be experienced by providing spatial sound. Similarly, in the case of extended reality, efforts are being made to provide realistic and lively content.
이러한, 가상현실, 증강현실 및 확장현실을 비롯한 다양한 콘텐츠 제공 기술은 사용자에게 생동감 있는 콘텐츠를 제공하는 것이 매우 중요하며, 이를 통해 사용자는 실제 특정 공간을 가지 않더라도, 실제 방문한 것과 같은 현장감 및 생동감을 얻을 수 있다.It is very important to provide lively content to users for various content providing technologies including virtual reality, augmented reality and extended reality, and through this, users can obtain a sense of presence and vitality as if they actually visited, even if they do not actually go to a specific space. can
본 발명에 따른 실감형 가상 전시 공간 제공 방법은, 이러한, 가상현실, 증강현실 및 확장현실을 이용하여 사용자에게 전시공간을 실제 방문한 것과 같은 현장감 및 생동감을 제공할 수 있는 실감형 컨텐츠를 생성하기 위한 것으로서, 이하에서는 첨부된 도면과 함께 구체적으로 설명하도록 한다. The method for providing an immersive virtual exhibition space according to the present invention is for generating immersive content that can provide a sense of presence and vitality as if the user actually visited the exhibition space by using virtual reality, augmented reality and extended reality. As such, the following will be described in detail together with the accompanying drawings.
도 11은 본 발명에 따른 실감형 가상 전시 공간 제공 방법 및 시스템에 의해 제공되는 가상현실, 증강현실, 혼합현실, 또는 확장현실을 설명하기 위한 개념도이다. 도 12는 본 발명에 따른 실감형 가상 전시 공간 제공 시스템의 구성도이고, 도 13은 본 발명에 따른 실감형 가상 전시 공간 제공 방법을 설명하기 위한 흐름도고, 도 14, 도 15, 도 16, 및 도 17은 본 발명에 따른 실감형 콘텐츠를 설명하기 위한 개념도이고, 도 18, 도 19, 도 20, 도 21, 및 도 22는 사용자 인터페이스를 설명하기 위한 개념도이다. 11 is a conceptual diagram illustrating virtual reality, augmented reality, mixed reality, or extended reality provided by the method and system for providing an immersive virtual exhibition space according to the present invention. 12 is a configuration diagram of a system for providing an immersive virtual exhibition space according to the present invention, and FIG. 13 is a flowchart illustrating a method for providing an immersive virtual exhibition space according to the present invention, FIGS. 14, 15, 16, and 17 is a conceptual diagram for explaining immersive content according to the present invention, and FIGS. 18, 19, 20, 21, and 22 are conceptual diagrams for explaining a user interface.
본 발명에 따른 실감형 컨텐츠 생성 (100)은, 실감형 컨텐츠를 출력(또는 재생)할 수 있는 전자기기와 연동되어 동작할 수 있다. 도 11에 도시된 것과 같이, 본 발명에 따른 실감형 가상 전시 공간 제공 시스템(100)은 헤드 마운티드 디스플레이(10a), XR 글래스(10b) 및 전자기기(10c)와 연동되어 동작할 수 있다. 본 발명에 따른 시스템(100)은, 헤드 마운티드 디스플레이(10a), XR 글래스(10b) 또는 전자기기(10c)에 실감형 컨텐츠를 출력시킴으로써, 사용자가 미술관이나 박물관 같은 전시 공간(10d)에서 전시물(10e)을 실제로 감상하는 것과 같은 경험을 제공할 수 있다. The immersive content generation 100 according to the present invention may operate in conjunction with an electronic device capable of outputting (or playing) immersive content. 11 , the system 100 for providing an immersive virtual exhibition space according to the present invention may operate in conjunction with the head mounted display 10a, the XR glasses 10b, and the electronic device 10c. The system 100 according to the present invention outputs immersive content to the head mounted display 10a, XR glasses 10b, or electronic device 10c, so that the user can display objects ( 10e) can provide the same experience as actually appreciating it.
여기서, “실감형 컨텐츠”는 실감형 컨텐츠를 출력할 수 있는 전자 기기를 통해 사용자에게 제공될 수 있는 것으로서, 부호, 문자, 도형, 색채, 음성, 음향, 이미지 및 영상 등(또는 이들 중 적어도 두개 이상의 복합체)의 자료, 데이터 또는 정보를 의미할 수 있다. Here, “realistic content” refers to something that can be provided to a user through an electronic device capable of outputting immersive content, and includes signs, characters, figures, colors, voices, sounds, images and images (or at least two of them). data, data or information of the above complex).
한편, 헤드 마운티드 디스플레이(10a, Head mounted display, 이하, 'HMD'이라고 명명함)는 안경처럼 착용하고 영상을 즐길 수 있는 영상 표시 장치들을 총칭하며, 최근에는 FMD(Face Mounted Display)라고도 부른다. HMD는, 사용자의 시각 및 청각을 외부와 차단한 후 사용자의 시각에 가상세계를 보여주는 역할을 한다. 일 예로서, HMD는, 눈앞에 디스플레이가 오도록 얼굴에 쓰는 형태로 마이크, 스테레오 스피커를 비롯해 여러 센서 등이 탑재돼 있다.On the other hand, a head mounted display (10a, Head mounted display, hereinafter referred to as 'HMD') is a generic term for image display devices that can be worn like glasses to enjoy an image, and is recently also called a face mounted display (FMD). The HMD serves to show the virtual world to the user's eyes after blocking the user's sight and hearing from the outside. As an example, the HMD is equipped with a microphone, a stereo speaker, and various sensors in the form of a face worn with a display in front of the eyes.
XR 글래스(eXtended Reality Glasses)(10b)는 렌즈를 통해 전자기기(10c) 속 앱에 올려진 콘텐츠를, 무엇이든지 가상 공간에 띄워놓고 볼 수 있도록 해준다. 야구중계, 유튜브, 뮤직비디오, 뉴스, 미술 작품 등을 전철이나 버스 안, 소파나 침대 위에서 원화는 화면의 크기로 조절해가며 볼 수 있다.XR Glasses (eXtended Reality Glasses) 10b allow users to view any content uploaded to an app in the electronic device 10c through a lens, floating in a virtual space. Baseball broadcasts, YouTube, music videos, news, and art works can be viewed on the train or bus, on the sofa or on the bed by adjusting the size of the screen.
다만, 본 발명에서 설명되는 실감형 컨텐츠를 출력할 수 있는 전자기기는 헤드 마운티드 디스플레이(Head mounted display)(10a) 및 XR 글래스(10b)에 한정되는 것은 아니고, 가상현실 등을 구현할 수 있는 전자기기(10c)라면 그 종류를 구분하지 않는다. 이하에서는, 실감형 컨텐츠를 출력할 수 있는 전자기기를 모두 통칭하여 “실감형 컨텐츠가 출력되는 전자기기” 또는 “전자기기”로 명명하도록 한다. However, the electronic device capable of outputting immersive content described in the present invention is not limited to the head mounted display 10a and the XR glasses 10b, and an electronic device capable of realizing virtual reality, etc. If (10c), the type is not distinguished. Hereinafter, all electronic devices capable of outputting immersive content will be collectively referred to as “electronic device outputting immersive content” or “electronic device”.
이하에서는, 첨부된 도면과 함께, 사용자에게 가상현실, 증강현실, 혼합현실 및 확장현실을 통해 더욱 실감나는 콘텐츠를 제공하기 위하여, 실감형 콘텐츠를 생성하는 방법에 대하여 구체적으로 설명하도록 한다. Hereinafter, together with the accompanying drawings, in order to provide a more realistic content to a user through virtual reality, augmented reality, mixed reality, and extended reality, a method of generating immersive content will be described in detail.
도 12에 도시된 것과 같이, 본 발명에 따른 실감형 가상 전시 공간 제공 시스템(100)은 통신부(110), 입력부(120), 출력부(130), 저장부(140) 및 제어부(150) 중 적어도 하나를 포함할 수 있다. 이때 본 발명에 따른 실감형 가상 전시 공간 제공 시스템(100)은 상술한 구성 요소로 제한되는 것은 아니며, 본 명세서의 설명에 따른 기능과 동일 또는 유사한 역할을 수행하는 구성요소를 더 포함할 수 있다.12 , the system 100 for providing an immersive virtual exhibition space according to the present invention includes a communication unit 110 , an input unit 120 , an output unit 130 , a storage unit 140 , and a control unit 150 . It may include at least one. In this case, the system 100 for providing an immersive virtual exhibition space according to the present invention is not limited to the above-described components, and may further include components that perform the same or similar functions as those described herein.
통신부(110)는 앞서 설명한 헤드 마운티드 디스플레이(10a), XR 글래스(10b), 전자기기(10c)와 및 적어도 하나의 외부 서버와 데이터를 송수신할 수 있다. 예를 들어, 통신부(110)는 본 발명에 따른 실감형 컨텐츠를 실감형 컨텐츠가 출력되는 전자기기에 전송할 수 있다. The communication unit 110 may transmit/receive data to and from the head mounted display 10a, the XR glasses 10b, the electronic device 10c, and at least one external server described above. For example, the communication unit 110 may transmit the immersive content according to the present invention to an electronic device to which the immersive content is output.
입력부(120)는, 영상 신호 입력을 위한 카메라 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(예를 들어, 터치키(touch key), 푸시키(mechanical key), 키보드(Keyboard), 마우스(mouse), 조이패드(joypad) 등)를 포함할 수 있다.The input unit 120 includes a camera or an image input unit for inputting an image signal, a microphone or an audio input unit for inputting an audio signal, and a user input unit (eg, a touch key) for receiving information from a user. , a push key (mechanical key), a keyboard (Keyboard), a mouse (mouse), a joypad (joypad), etc.) may include.
나아가, 출력부(130)는, 본 발명에 따른 실감형 가상 전시 공간 제공 시스템(100)과 연동된 전자기기의 뷰 영역(예를 들어, 메인 뷰 영역)에 실감형 컨텐츠를 출력할 수 있다Furthermore, the output unit 130 may output the immersive content to the view area (eg, the main view area) of the electronic device linked to the system 100 for providing an immersive virtual exhibition space according to the present invention.
나아가 저장부(140)는 데이터베이스(Database, DB) 라고도 명명될 수 있으며, 본 발명에서 이용 및 생성되는 컨텐츠들이 저장되도록 이루어질 수 있다. 예를 들어, 저장부(140)는 클라우드 서버를 이용하여 본 발명에 따른 실감형 컨텐츠를 저장할 수 있다.Furthermore, the storage unit 140 may also be referred to as a database (DB), and may be configured to store contents used and generated in the present invention. For example, the storage unit 140 may store the immersive content according to the present invention by using a cloud server.
나아가, 저장부(140)에는 메인 컨텐츠의 시각적 정보에 매칭되는 배경 컨텐츠의 구성 정보를 포함하는 “배경 정보”가 저장되어 있을 수 있다. Furthermore, the storage unit 140 may store “background information” including configuration information of the background content that matches the visual information of the main content.
여기서, “메인 컨텐츠”는 실감형 컨텐츠를 통해 사용자에게 제공되는 전시물로 이해되어 질 수 있다. 예를 들어, 전시물이 그림이면 메인 컨텐츠는 그림에 대한 이미지일 수 있다. Here, the “main content” may be understood as an exhibit provided to the user through immersive content. For example, if the exhibit is a picture, the main content may be an image for the picture.
본 발명에서 설명되는 “배경 컨텐츠”는 메인 컨텐츠의 주변을 이루는 컨텐츠로 이해되어 질 수 있다. 보다 구체적으로, 배경 컨텐츠는 메인 컨텐츠가 전시되는 가상 전시 공간을 이루는 컨텐츠이다. The “background content” described in the present invention may be understood as content forming a periphery of the main content. More specifically, the background content is content constituting a virtual exhibition space in which the main content is displayed.
본 발명에서 설명되는 “가상 전시 공간”은 전시 공간이 가상의 현실 속에서 구현된 것으로서, 가상의 미술관, 가상의 박물관 및 가상의 전시관 등과 같이 메인 컨텐츠가 전시될 수 있는 공간으로 이해되어 질 수 있다. The “virtual exhibition space” described in the present invention is an exhibition space implemented in virtual reality, and can be understood as a space in which main contents can be displayed, such as a virtual art gallery, a virtual museum, and a virtual exhibition hall. .
한편, 본 발명에서 설명되는 “메인 컨텐츠의 시각적 특성”은, 메인 컨텐츠를 눈으로 보고 인지할 수 있는 다양한 정보에 관한 것으로서, 예를 들어, i)모양, ii)색상,iii)명암, iv)채도, v)질감, vi)입체감, vii)해상도, viii)양감 등이 있을 수 있다. On the other hand, the “visual characteristics of the main content” described in the present invention relates to various information that can be seen and recognized by the eye, for example, i) shape, ii) color, iii) contrast, iv) There may be saturation, v) texture, vi) three-dimensionality, vii) resolution, and viii) volume.
한편, 제어부(150)는, 위에서 살펴본 구성요소들과, 도 11 도시된 헤드 마운티드 디스플레이(10a), XR 글래스(10b) 및 전자기기(10c)를 전반적으로 제어하도록 이루어질 수 있다. Meanwhile, the controller 150 may be configured to generally control the components described above, the head mounted display 10a, the XR glasses 10b, and the electronic device 10c shown in FIG. 11 .
나아가, 제어부(150)는 메인 컨텐츠를 배경 컨텐츠의 일 영역에 오버랩 시켜 실감형 컨텐츠를 생성할 수 있다. Furthermore, the controller 150 may generate immersive content by overlapping the main content with one region of the background content.
보다 구체적으로, 제어부(150)는 배경 컨텐츠에 시간 정보 및 날씨 정보가 반영된 광원 정보를 더 포함시켜 배경 컨텐츠를 생성할 수 있다. 즉, 제어부(150)는 시간 정보 및 날씨 정보에 따라 광원의 밝기 및 위치가 변경되는 배경 컨텐츠를 생성하고, 이를 이용하여 실감형 컨텐츠를 생성할 수 있다. More specifically, the controller 150 may generate background content by further including light source information in which time information and weather information are reflected in the background content. That is, the controller 150 may generate background content in which the brightness and position of the light source change according to time information and weather information, and use the generated background content to generate immersive content.
여기서, “광원 정보”는 가상 전시 공간에 존재하는 가상의 광원을 정의하는 정보로 이해되어 질 수 있다. 구체적으로, 광원 정보는 가상 전시 공간에 존재하는 가상의 광원에 대한 위치, 형태, 세기, 빛의 진행 방향 중 적어도 하나를 정의할 수 있다Here, “light source information” may be understood as information defining a virtual light source existing in the virtual exhibition space. Specifically, the light source information may define at least one of a location, a shape, an intensity, and a direction of light for a virtual light source existing in the virtual exhibition space.
나아가, 제어부(150)는 배경 컨텐츠에 포함되는 광원 정보가 반영되도록 메인 컨텐츠의 빛의 특성을 변경할 수 있다. 따라서, 사용자는, 광원 정보가 반영되지 않은 메인 컨텐츠를 이용하여 생성된 실감형 컨텐츠를 제공 받을 때와, 광원 정보가 반영된 메인 컨텐츠를 이용하여 생성된 실감형 컨텐츠를 제공 받을 때, 동일한 메인 컨텐츠일지라도 입체감, 질감 등을 서로 다르게 느낄 수 있다. 따라서, 사용자는 실제 전시 공간에서 전시물을 눈으로 보는 것과 같은 체험을 경험할 수 있다.Furthermore, the controller 150 may change the light characteristic of the main content to reflect the light source information included in the background content. Therefore, when receiving immersive content generated using main content that does not reflect light source information and when receiving immersive content generated using main content reflecting light source information, the user receives the same main content You can feel three-dimensionality and texture differently. Accordingly, the user can experience the same experience as seeing the exhibits in the actual exhibition space.
이하에서는, 흐름도와 함께 본 발명에 따른 실감형 가상 전시 공간 제공 방법에 대하여 보다 구체적으로 살펴보도록 한다.Hereinafter, a method for providing an immersive virtual exhibition space according to the present invention together with a flowchart will be described in more detail.
본 발명에서는 가상 전시 공간에 전시되는 메인 컨텐츠를 특정하는 과정이 진행되어 질 수 있다(S310). 제어부(150)는 가상 전시 공간에 전시되는 메인 컨텐츠를 특정할 수 있다. In the present invention, a process of specifying main content displayed in the virtual exhibition space may be performed (S310). The controller 150 may specify main content displayed in the virtual exhibition space.
여기서, “가상 전시 공간”은 전시 공간이 가상의 현실 속에서 구현된 것으로서, 가상의 미술관, 가상의 박물관 및 가상의 전시관 등과 같이 메인 컨텐츠가 전시될 수 있는 공간으로 이해되어 질 수 있다. Here, the “virtual exhibition space” is an exhibition space realized in virtual reality, and may be understood as a space in which main contents can be displayed, such as a virtual art gallery, a virtual museum, and a virtual exhibition hall.
가상 전시 공간은 도 14에 도시된 것과 같이, 복수개의 가상 전시 공간으로 이루어질 수 있다. 이러한 경우에, 실감형 컨텐츠가 출력되는 전자기기의 디스플레이에는, 도 15에 도시된 것과 같이, 어느 하나의 가상 전시 공간이 출력될 수 있다. As shown in FIG. 14 , the virtual exhibition space may include a plurality of virtual exhibition spaces. In this case, as shown in FIG. 15 , any one virtual exhibition space may be output to the display of the electronic device on which the immersive content is output.
여기서, “메인 컨텐츠”는 실감형 컨텐츠를 통해 사용자에게 제공되는 전시물로 이해되어 질 수 있다. 예를 들어, 전시물이 그림이면 메인 컨텐츠는 그림에 대한 이미지일 수 있다.Here, the “main content” may be understood as an exhibit provided to the user through immersive content. For example, if the exhibit is a picture, the main content may be an image for the picture.
제어부(150)는 통신부(110)를 통해 메인 컨텐츠를 전송받는 과정을 통해, 메인 컨텐츠를 특정할 수 있다. 이러한 경우, 통신부(110)는 외부 서버 또는 외부 전자기기로부터 메인 컨텐츠를 전송 받을 수 있다. The controller 150 may specify the main content through the process of receiving the main content through the communication unit 110 . In this case, the communication unit 110 may receive main content from an external server or an external electronic device.
나아가, 제어부(150)는 입력부(120)를 통해 입력받은 사용자의 선택에 근거하여, 메인 컨텐츠를 특정할 수 있다. 이를 위해, 제어부(150)는 출력부(140)를 통해 사용자가 소지하는 단말기와 같은 전자기기 또는 실감형 컨텐츠가 출력되는 전자기기에 메인 컨텐츠 샘플을 출력할 수 있다. Furthermore, the control unit 150 may specify the main content based on the user's selection received through the input unit 120 . To this end, the controller 150 may output the main content sample to an electronic device such as a terminal possessed by the user or an electronic device through which immersive content is output through the output unit 140 .
사용자는 전자기기의 디스플레이에 출력되는 메인 컨텐츠 샘플 중 관람하고 싶은, 즉 가상의 전시 공간에 전시하고 싶은 메인 컨텐츠를 선택하여, 본 발명에 따른 시스템(100)의 통신부(110)로 전송하거나, 입력부(120)에 입력할 수 있다. The user selects the main content that he wants to view, that is, he wants to display in the virtual exhibition space among the main content samples output on the display of the electronic device, and transmits it to the communication unit 110 of the system 100 according to the present invention, or (120) can be entered.
제어부(150)는 통신부(110) 또는 입력부(120)를 통해 수신한 사용자의 선택에 근거하여, 메인 컨텐츠를 특정할 수 있다. The control unit 150 may specify the main content based on the user's selection received through the communication unit 110 or the input unit 120 .
한편, 제어부(150)는 저장부(140)에 저장된 사용자의 히스토리에 근거하여, 메인 컨텐츠를 특정할 수 있다. 이러한 경우, 사용자는 본 발명에 따른 시스템(100)에 사용자 계정에 의하여 로그인 된 사용자를 의미할 수 있다. Meanwhile, the controller 150 may specify the main content based on the user's history stored in the storage 140 . In this case, the user may mean a user logged into the system 100 according to the present invention by a user account.
저장부(140)에 저장된 “사용자 히스토리”에는, 사용자가 과거에 특정한 메인 컨텐츠의 이력(특정된 메인 컨텐츠 명, 특정 횟수, 특정 기간 등)이 포함되어 있을 수 있다 .The “user history” stored in the storage 140 may include a history of main content specified by the user in the past (a specified main content name, a specific number of times, a specific period, etc.).
제어부(150)는 사용자가 과거에 특정한 메인 컨텐츠의 이력에 근거하여, 메인 컨텐츠를 특정할 수 있다. 예를 들어, 제어부(150)는 사용자로부터 특정된 횟수가 기 설정된 횟수 이상(또는 초과)인 컨텐츠를 메인 컨텐츠로 특정하거나, 사용자로부터 특정된 메인 컨텐츠가 아직 사용자의 전자기기의 디스플레이부에 출력되지 않은 경우, 해당 메인 컨텐츠를 특정할 수 있다. 제어부(150)는 사용자의 히스토리에 근거하여 메인 컨텐츠를 특정할 때에, 기계학습에 의하여 생성된 인공지능 모델을 이용하여 메인 컨텐츠를 특정할 수도 있다. The controller 150 may specify the main content based on the history of the main content specified by the user in the past. For example, the control unit 150 specifies as the main content content whose number of times specified by the user is equal to or greater than a preset number of times, or the main content specified by the user is not yet output to the display unit of the user's electronic device. If not, the corresponding main content can be specified. When specifying the main content based on the user's history, the controller 150 may specify the main content using an artificial intelligence model generated by machine learning.
나아가, 본 발명에서는 메인 컨텐츠의 시각적 특성을 이용하여, 가상 전시 공간의 배경 컨텐츠를 생성하는 과정이 진행되어질 수 있다(S320). 즉, 제어부(150)는 메인 컨텐츠의 시각적 특성을 이용하여, 배경 컨텐츠를 생성할 수 있다. Furthermore, in the present invention, the process of generating the background content of the virtual exhibition space may be performed using the visual characteristics of the main content (S320). That is, the controller 150 may generate the background content by using the visual characteristics of the main content.
여기서, “메인 컨텐츠의 시각적 특성”은, 메인 컨텐츠를 눈으로 보고 인지할 수 있는 다양한 정보에 관한 것으로서, 예를 들어, i)모양, ii)색상,iii)명암, iv)채도, v)질감, vi)입체감, vii)해상도, viii)양감 등이 있을 수 있다. Here, “visual characteristics of the main content” refers to various information that can be seen and recognized by the eye, for example, i) shape, ii) color, iii) contrast, iv) saturation, v) texture. , vi) three-dimensionality, vii) resolution, and viii) volume.
본 발명에서 설명되는 “배경 컨텐츠”는 메인 컨텐츠의 주변을 이루는 컨텐츠로 이해되어 질 수 있다. 보다 구체적으로, 배경 컨텐츠는 메인 컨텐츠가 전시되는 가상 전시 공간을 이루는 컨텐츠이다. The “background content” described in the present invention may be understood as content forming a periphery of the main content. More specifically, the background content is content constituting a virtual exhibition space in which the main content is displayed.
제어부(150)는 특정된 메인 컨텐츠로부터, 시각적 특성을 추출하고, 추출된 시각적 특성을 극대화 할 수 있도록 배경 컨텐츠의 구성을 결정할 수 있다. 상기 배경 컨텐츠를 생성하는 단계(S320)는, 상기 메인 컨텐츠의 시각적 특성을 추출하고, 상기 추출된 시각적 특성을 이용하여 상기 배경 컨텐츠의 패턴, 질감 또는 색상을 설정할 수 있다. The controller 150 may extract a visual characteristic from the specified main content and determine the composition of the background content to maximize the extracted visual characteristic. In the step of generating the background content ( S320 ), a visual characteristic of the main content may be extracted, and a pattern, texture, or color of the background content may be set by using the extracted visual characteristic.
일 예로, 제어부(150)는 메인 컨텐츠의 모양(또는 무늬)으로 일정한 패턴을 형성하고, 해당 패턴을 이용하여 배경 컨텐츠를 생성할 수 있다. 이러한 경우, 메인 컨텐츠가 나무로 된 그림이라면, 배경 컨텐츠는 나무가 일정한 패턴(ex: 일정 간격으로 반복되는 패턴)으로 배경 컨텐츠를 생성할 수 있다. 또 다른 일 예로, 제어부(150)는 메인 컨텐츠의 색상의 보색을 이용하여 배경 컨텐츠의 색상을 구성할 수 있다. 메인 컨텐츠의 색상이 노란색이면, 제어부(150)는 노란색의 보색색인 보라색을 이용하여 배경 컨텐츠를 생성할 수 있으며, 메인 컨텐츠의 색상이 초록색이면, 제어부(150)는 초록색의 보색인 빨간색을 이용하여 배경 컨텐츠를 생성할 수 있다. 다만, 이는 설명의 편의를 위한 일 예시에 불과하다. For example, the controller 150 may form a predetermined pattern with the shape (or pattern) of the main content, and generate the background content using the pattern. In this case, if the main content is a picture made of wood, the background content may generate the background content in a regular pattern (eg, a pattern that repeats at regular intervals) as the background content. As another example, the controller 150 may configure the color of the background content by using a complementary color of the color of the main content. When the color of the main content is yellow, the controller 150 may generate the background content using purple, which is a complementary color of yellow, and if the color of the main content is green, the controller 150 uses red, which is a complementary color of green, You can create background content. However, this is only an example for convenience of description.
나아가, 제어부(150)는 저장부(140)에 저장된 배경 정보에 근거하여, 배경 컨텐츠를 생성할 수 있다. Furthermore, the control unit 150 may generate background content based on the background information stored in the storage unit 140 .
저장부(140)에 저장된 “배경 정보”에는 시각적 정보에 매칭되는 배경 컨텐츠의 구성 정보가 포함되어 있을 수 있다. 이 때에, 상기 시각적 특성에는 상기 배경 컨텐츠의 구성 정보가 매칭되며, 상기 배경 컨텐츠는 상기 추출된 시각적 특성에 매칭된 구성 정보를 이용하여 생성될 수 있다. The “background information” stored in the storage 140 may include configuration information of background content that matches the visual information. In this case, configuration information of the background content is matched to the visual characteristic, and the background content may be generated using configuration information matched to the extracted visual characteristic.
이와 같이, 제어부(150)는 메인 컨텐츠로부터 추출된 시각적 정보와 매칭되는 배경 컨텐츠의 구성 정보에 근거하여, 배경 컨텐츠를 생성할 수 있다. 예를 들어, 배경 정보에는 유화 질감에 매칭된 배경 컨텐츠의 구성 정보가 캔버스 질감 및 색상(직물이 교차로 짜여진 질감 및 흰색)이라고 가정하자. 제어부(150)는 메인 컨텐츠로부터 추출된 시각적 정보가 유화 질감이면, 매칭 정보에 근거하여 캔버스 질감 및 색상으로 배경 컨텐츠를 생성할 수 있다. In this way, the controller 150 may generate the background content based on the composition information of the background content matched with the visual information extracted from the main content. For example, it is assumed that the composition information of the background content matched to the oil painting texture is the canvas texture and color (texture and white in which the fabric is interwoven) in the background information. If the visual information extracted from the main content is an oil painting texture, the controller 150 may generate the background content with a canvas texture and color based on the matching information.
나아가, 본 발명에서는 배경 컨텐츠의 적어도 일부에 메인 컨텐츠가 중첩되도록 실감형 컨텐츠를 생성하는 과정이 진행되어 질 수 있다(S330). 제어부(150)는 메인 컨텐츠를 배경 컨텐츠의 일 영역에 오버랩 시켜 실감형 컨텐츠를 생성할 수 있다. Furthermore, in the present invention, the process of generating the immersive content may be performed so that the main content is superimposed on at least a part of the background content (S330). The controller 150 may generate immersive content by overlapping the main content with one region of the background content.
앞서 설명한 바와 같이, “실감형 컨텐츠” 는 실감형 컨텐츠를 출력할 수 있는 전자 기기를 통해 사용자에게 제공될 수 있는 것으로서, 부호, 문자, 도형, 색채, 음성, 음향, 이미지 및 영상 등(또는 이들 중 적어도 두개 이상의 복합체)의 자료, 데이터 또는 정보를 의미할 수 있다. 예를 들어, 실감형 컨텐츠에는 VR 컨텐츠, XR 컨텐츠가 있다. As described above, “realistic content” can be provided to a user through an electronic device capable of outputting immersive content, and includes signs, characters, figures, colors, voices, sounds, images and images (or these data, data, or information of at least two or more of the complexes). For example, immersive content includes VR content and XR content.
제어부(150)는 배경 컨텐츠의 일 영역에 메인 컨텐츠를 배치시킴으로써, 실감형 컨텐츠를 생성할 수 있다. 이 때, 제어부(150)는 메인 컨텐츠에 매칭되는 매칭 좌표에 대응되는 배경 컨텐츠의 일 영역에 메인 컨텐츠를 배치 시킬 수 있다. 예를 들어, 메인 컨텐츠에 매칭되는 좌표가 배경 컨텐츠의 좌측 중앙 영역과 대응되면, 제어부(150)는 메인 컨텐츠를 배경 컨텐츠의 좌측 중앙 영역에 배치시키고, 메인 컨텐츠에 매칭되는 좌표가 배경 컨텐츠의 우측 중앙 영역과 대응되면, 제어부(150)는 메인 컨텐츠를 배경 컨텐츠의 우측 중앙 영역에 배치시킴으로써, 실감형 컨텐츠를 생성할 수 있다. The controller 150 may generate immersive content by arranging the main content in one area of the background content. In this case, the controller 150 may arrange the main content in one area of the background content corresponding to the matching coordinates matching the main content. For example, if the coordinates matching the main content correspond to the left central region of the background content, the controller 150 arranges the main content in the left central region of the background content, and the coordinates matching the main content are on the right side of the background content If it corresponds to the central region, the controller 150 may generate the immersive content by arranging the main content in the right central region of the background content.
나아가, 제어부(150)는 입력부(120)를 통해 입력받은 사용자의 선택에 근거하여, 메인 컨텐츠를 배경 컨텐츠의 일부에 배치시켜 실감형 컨텐츠를 생성할 수 있다. 이를 위해, 제어부(150)는 사용자가 소지한 단말기와 같은 전자기기 또는 실감형 컨텐츠가 출력 되는 전자기기 상에 메인 컨텐츠 및 배경 컨텐츠를 출력시키고, “메인 컨텐츠를 배경 컨텐츠에 배치시키세요”와 같은 안내 멘트를 출력할 수 있다. Furthermore, the controller 150 may generate the immersive content by arranging the main content in a part of the background content based on the user's selection received through the input unit 120 . To this end, the controller 150 outputs the main content and the background content on an electronic device such as a terminal possessed by the user or an electronic device on which the immersive content is output, such as “Place the main content on the background content”. A guide message can be printed.
사용자는 안내 멘트를 보고 메인 컨텐츠를 배경 컨텐츠의 일 영역으로 이동 시킬 수 있다. 이러한 경우, 사용자는 전자기기 또는 본 발명에 따른 시스템(100)의 터치키(touch key), 푸시키(mechanical key), 키보드(Keyboard), 마우스(mouse), 조이패드(joypad) 등을 이용하여, 메인 컨텐츠를 배경 컨텐츠의 일영역으로 위치시킬 수 있다. 사용자는 메인 컨텐츠를 배경 컨텐츠의 일 영역에 배치 시킨 후, 전자기기의 디스플레이 상에 출력되는 “완료”버튼을 출력하거나, 음성으로 “완료” 또는 “실감형 컨텐츠 생성”을 발화할 수 있다. 사용자가 발화하는 음성은 전자기기 또는 본 발명에 따른 시스템(100)의 마이크로폰(microphone) 또는 오디오 입력부를 통해 입력될 수 있다. The user can move the main content to one area of the background content by viewing the guide message. In this case, the user uses an electronic device or a touch key, a mechanical key, a keyboard, a mouse, a joypad, etc. of the system 100 according to the present invention, The main content may be positioned as one area of the background content. After arranging the main content in one area of the background content, the user may output a “Done” button that is output on the display of the electronic device or utter “Done” or “Generate realistic content” by voice. The voice uttered by the user may be input through an electronic device or a microphone or an audio input unit of the system 100 according to the present invention.
제어부(150)는 사용자로부터 실감형 컨텐츠의 생성 명령을 수신하거나, 디스플레이에 안내 멘트를 출력한 시점으로부터 기 설정된 시간이 경과하면 실감형 컨텐츠를 생성할 수 있다. 이와 같이 생성된 실감형 컨텐츠는 배경 컨텐츠의 일부에 메인 컨텐츠가 중첩되어, 메인 컨텐츠가 전시되어 있는 모습일 수 있다. The control unit 150 may generate the immersive content when a preset time elapses from the time of receiving a command for generating immersive content from the user or outputting a guide message on the display. The immersive content generated in this way may be a state in which the main content is displayed by overlapping a part of the background content.
나아가, 제어부(150)는 가상 전시 공간에서 실감형 컨텐츠가 제공되도록 실감형 컨텐츠를 전자기기에 전송할 수 있다. 제어부(150)는 전자기기에 실감형 컨텐츠를 전송하도록 통신부(110)를 제어하거나, 전자기기의 디스플레이에 실감형 컨텐츠가 출력되도록 출력부(140)를 제어할 수 있다. Furthermore, the controller 150 may transmit the immersive content to the electronic device so that the immersive content is provided in the virtual exhibition space. The controller 150 may control the communication unit 110 to transmit the immersive content to the electronic device, or may control the output unit 140 to output the immersive content to the display of the electronic device.
사용자는 실감형 컨텐츠가 출력되는 전자기기를 통해, 가상 전시 공간에 전시된 메인 컨텐츠를 관람할 수 있다. 본 발명에 따른 실감형 컨텐츠는, 메인 컨텐츠의 시각적 특성에 근거하여 배경 컨텐츠가 생성되었으므로, 사용자는 메인 컨텐츠의 질감이나 색상 등을 더욱 실감나게 느낄 수 있고, 나아가, 실제 전시 공간에서 전시물을 관람하는 것과 같은 느낌을 제공 받을 수 있다. A user may view main content displayed in the virtual exhibition space through an electronic device that outputs immersive content. In the immersive content according to the present invention, since the background content is generated based on the visual characteristics of the main content, the user can more realistically feel the texture or color of the main content, and furthermore, viewing the exhibits in the actual exhibition space. You may be provided with the same feeling.
이하에서는, 사용자가 실제 전시 공간에서 전시물을 관람하는 것과 같은 느낌을 더욱 생동감 있고 현실감 있게 제공할 수 있는 실감형 컨텐츠를 생성하는 방법에 대하여, 구체적으로 살펴보도록 한다. Hereinafter, a method of generating immersive content that can provide a more vivid and realistic feeling as if a user is viewing an exhibition in an actual exhibition space will be described in detail.
한편, 본 발명에서는 메인 컨텐츠를, 배경 컨텐츠에 포함되는 광원 정보가 반영되도록 설정될 수 있다. 제어부(150)는 배경 컨텐츠에 포함되는 광원 정보가 반영되도록 메인 컨텐츠의 빛의 특성을 변경할 수 있다. Meanwhile, in the present invention, the main content may be set to reflect light source information included in the background content. The controller 150 may change the light characteristic of the main content to reflect the light source information included in the background content.
먼저, 본 발명에서는 메인 컨텐츠에 대응되는 서로 다른 복수개의 조각 이미지를 수신하는 과정이 진행될 수 있다. 즉, 통신부(110)는 메인 컨텐츠에 대응되는 서로 다른 복수개의 조각 이미지를 수신할 수 있다. First, in the present invention, a process of receiving a plurality of different pieces of images corresponding to main content may be performed. That is, the communication unit 110 may receive a plurality of different pieces of images corresponding to the main content.
조각 이미지는(410), 메인 컨텐츠의 적어도 일 부분을 포함하는 이미지로 이해될 수 있다. 예를 들어, 메인 컨텐츠를 중앙을 기준으로 좌·우로 영역을 구분하고, 좌측 영역을 카메라로 촬영 또는 스캔한 이미지를 제1 조각 이미지, 우측 영역을 카메라로 촬영 또는 스캔한 이미지를 제2 조각 이미지로 이해할 수 있다. The fragment image 410 may be understood as an image including at least a portion of the main content. For example, the main content is divided into left and right areas based on the center, the left area is captured or scanned with the camera as a first piece image, and the right area is captured or scanned with the camera as a second piece image. can be understood as
나아가, 복수개의 조각 이미지는 초고화질 이미지일 수 있다. 즉, 복수개의 조각 이미지 각각은 기 설정된 해상도 기준을 만족하는 이미지들일 수 있다. Furthermore, the plurality of fragment images may be ultra-high-resolution images. That is, each of the plurality of fragment images may be images that satisfy a preset resolution criterion.
나아가, 복수개의 조각 이미지의 어느 하나는 다른 하나와 적어도 일부가 중첩되는 이미지 정보를 포함할 수 있다. Furthermore, any one of the plurality of fragment images may include image information that at least partially overlaps with the other one.
여기서 중첩되는 이미지 정보는, 복수의 조각 이미지의 어느 하나와 다른 하나 각각에 포함된, 메인 컨텐츠의 특정 영역에 대응되는 이미지를 의미할 수 있다. Here, the overlapping image information may mean an image corresponding to a specific region of the main content, which is included in each of the one and the other of the plurality of fragment images.
한편, 본 발명에서는 복수개의 조각 이미지 각각의 유사성에 근거하여, 복수개의 조각 이미지를 조합하는 과정이 진행될 수 있다. 제어부(150)는 복수개의 조각 이미지를 조합하여 메인 컨텐츠를 생성할 수 있다. Meanwhile, in the present invention, a process of combining a plurality of sculptural images may be performed based on the similarity of each of the plurality of sculptural images. The controller 150 may generate main content by combining a plurality of pieces of images.
보다 구체적으로, 제어부(150)는 중첩되는 이미지 정보에 근거하여 조각 이미지를 연결함으로써, 조각 이미지를 병합할 수 있다. 제어부(150)는 서로 인접한 조각 이미지를 매칭하고, 매칭된 조각 이미지끼리 연결할 수 있다. More specifically, the controller 150 may merge the fragment images by linking the fragment images based on overlapping image information. The controller 150 may match pieces of images adjacent to each other and connect the matched pieces of images.
이 때, 제어부(150)는 복수개의 조각 이미지들 간에 상호 중첩되는 이미지 정보에 근거하여, 조각 이미지들을 조합할 수 있다. 제어부(150)는 중첩되는 이미지를 포함하는 조각 이미지들 상호간을 서로 인접하게 배열함으로써, 이들을 조합할 수 있다. In this case, the controller 150 may combine the fragment images based on image information overlapping each other among the plurality of fragment images. The controller 150 may combine the fragment images including the overlapping images by arranging them adjacent to each other.
나아가, 제어부(150)는 조합된 조각 이미지들에 조합된 조각 이미지들에 대해 엣지 블렌딩(Edge blending)을 수행하여 메인 컨텐츠를 생성함으로써, 조각 이미지들의 경계를 자연스럽게 연결할 수 있다. Furthermore, the controller 150 may generate main content by performing edge blending on the combined fragment images to the combined fragment images, thereby naturally connecting the boundaries of the fragment images.
여기서, 엣지 블렌딩(Edge blending)이란, 조각 이미지들의 경계에 보간(interpolation)작업을 수행하는 것으로서, 두 개의 이미지의 일부를 서로 중첩 시켜, 두 개의 이미지가 매끄러운 하나의 이미지로 보여질 수 있도록 하는 것을 의미한다. 엣지 블렌딩은 두 개의 이미지가 각각에 포함된 중첩되는 이미지 정보가 서로 중첩될 때까지, 상기 두 개의 이미지 중 어느 하나의 위치를 기 설정된 간격으로 이동시킴으로써, 수행된다.Here, edge blending refers to performing interpolation on the boundary of the fragment images, overlapping parts of two images with each other so that the two images can be viewed as one smooth image. it means. Edge blending is performed by moving the position of any one of the two images at a preset interval until overlapping image information included in each of the two images overlaps each other.
일 실시 예에 있어서, 제어부(150)는 인접하는 조각 이미지의 투명도를 서로 다르게 보정할 수 있다. 제어부(150)는 어느 하나의 조각 이미지 위에, 투명도가 다른 하나의 조각 이미지를 오버랩 시킬 수 있다. 제어부(150)는 오버랩 된 두개의 조각 이미지 각각에 포함된 중첩된 이미지 정보에 대응되는 영역이 기 설정된 기준 이상으로 겹쳐질 때 까지, 투명도가 다른 조각 이미지의 위치를 변경할 수 있다. 제어부(150)는, 오버랩 된 두개의 조각 이미지에 포함된 동일 영역이 기 설정된 기준 이상으로 겹쳐지면, 오버랩 된 두개의 조각 이미지의 투명도를 0으로 조정할 수 있다. 이를 통해, 두개의 조각 이미지는 서로 연결될 수 있다. 제어부(150)는 서로 다른 복수의 조각 이미지에 모두에 대해, 엣지 블렌딩을 수행하여 메인 컨텐츠를 생성할 수 있다. In an embodiment, the controller 150 may correct the transparency of the adjacent engraving images differently. The controller 150 may overlap one piece image having a different transparency on one piece image. The controller 150 may change the position of the fragment image having different transparency until the region corresponding to the overlapped image information included in each of the two overlapping fragment images overlaps by more than a preset reference. When the same area included in the two overlapping pieces of images overlaps by more than a preset reference, the controller 150 may adjust the transparency of the two overlapping pieces of images to 0. Through this, the two sculptural images can be connected to each other. The controller 150 may generate main content by performing edge blending on all of the plurality of different pieces of images.
본 발명에 따른 시스템(100)은 이러한 엣지 블렌딩을 수행하여, 메인 컨텐츠를 생성함으로써, 연결된 조각 이미지의 어긋난 부분이나, 조각 이미지들의 경계 부분의 쓰레기 데이터를 최소화 할 수 있다. The system 100 according to the present invention generates main content by performing such edge blending, thereby minimizing waste data of a misaligned portion of a connected fragment image or a boundary portion of the fragment images.
나아가, 미술 작품을 한번 촬영하여 메인 컨텐츠를 생성하는 경우에 비하여, 미술 작품의 일 영역 마다 촬영하여 조각 이미지를 생성하고, 조각 이미지에 엣지 블렌딩을 수행하여 메인 컨텐츠를 생성함으로써, 보다 초고화질의 이미지를 생성할 수 있다. Furthermore, compared to the case of generating the main content by photographing a work of art once, a sculpture image is generated by photographing each area of the work of art, and edge blending is performed on the sculpture image to generate the main content, resulting in a higher-quality image can create
이를 통해, 본 발명에 따른 시스템(100)은 가상 현실 등을 통해, 사용자에게 보다 실감나는 전시물을 선사할 수 있다.Through this, the system 100 according to the present invention can provide a more realistic exhibit to the user through virtual reality or the like.
한편, 제어부(150)는 특정된 메인 컨텐츠가, 기 특정된 질감을 갖도록 메인 컨텐츠에 캔버스 맵(Canvas Map)을 적용할 수 있다.Meanwhile, the controller 150 may apply a canvas map to the main content so that the specified main content has a predetermined texture.
여기서, 캔버스 맵(Canvas Map)은, 메인 컨텐츠가 작성된 대상물 또는 메인 컨텐츠를 구성하는 재료의 재질을 표현하는 정보로 이해되어 질 수 있다. 보다 구체적으로, i)메인 컨텐츠가 캔버스(유화 등의 그림을 그릴 때 사용되는 직물)에 작성된 유화이면, 캔버스 맵은 캔버스 재질에 대응되는 레이어일 수 있고, ii)메인 컨텐츠가 목재(목판화 등을 그릴 때 사용되는 나무 판재)에 작성된 목판화이면, 캔버스 맵은 목재의 재질에 대응되는 레이어일 수 있으며, iii)메인 컨텐츠가 동판(구리를 이용하여 만들어진 널빤지 모양의 판)에 작성된 동판화이면, 캔버스 맵은 구리 재질에 대응되는 레이어일 수 있다. Here, the canvas map may be understood as information representing the material of an object on which the main content is written or a material constituting the main content. More specifically, i) If the main content is an oil painting created on a canvas (a fabric used for drawing pictures such as oil paintings), the canvas map may be a layer corresponding to the canvas material, ii) the main content is wood (woodblock prints, etc.) If it is a woodblock print created on a wooden board used for drawing), the canvas map may be a layer corresponding to the material of the wood, iii) If the main content is a copper print created on a copper plate (a plank-shaped board made using copper), the canvas map Silver may be a layer corresponding to the copper material.
제어부(150)는 메인 컨텐츠가 작성된 대상물에 근거하여, 캔버스 맵을 생성할 수 있다. 보다 구체적으로, 제어부(150)는 메인 컨텐츠가 그려진 대상물 자체에 대한 이미지를 캔버스 맵으로 사용할 수 있다. 예를 들어, 메인 컨텐츠가 캔버스에 그려진 유화이면, 제어부(150)는 캔버스를 촬영한 이미지를 캔버스 맵으로 사용할 수 있다. The controller 150 may generate a canvas map based on the object on which the main content is written. More specifically, the controller 150 may use an image of the object itself on which the main content is drawn as a canvas map. For example, if the main content is an oil painting drawn on a canvas, the controller 150 may use an image obtained by photographing the canvas as a canvas map.
나아가, 제어부(150)는 메인 컨텐츠가 그려진 대상물을 촬영한 이미지를 이용하여, 메인 컨텐츠가 그려진 대상물의 재질을 획득하고, 획득한 재질을 데이터화 하여 캔버스 맵을 생성할 수 있다. 예를 들어, 메인 컨텐츠가 유화이면, 제어부(150)는 캔버스를 촬영한 이미지로부터, 캔버스의 재질(ex: 직물이 교체되어 짜여진 재질)을 획득하고, 캔버스의 재질을 표현하는 정보를 생성함으로써 캔버스 맵을 생성할 수 있다. Furthermore, the controller 150 may obtain a material of the object on which the main content is drawn by using an image obtained by photographing the object on which the main content is drawn, and may generate a canvas map by converting the obtained material into data. For example, if the main content is an oil painting, the control unit 150 obtains the material of the canvas (eg, a material woven by replacing the fabric) from the photographed image of the canvas, and generates information representing the material of the canvas by generating information representing the material of the canvas. You can create maps.
나아가, 제어부(150) 메인 컨텐츠로부터 메인 컨텐츠가 그려진 대상물의 재질을 예측할 수 있다. 이 때, 제어부(150)는 기계학습에 의하여 생성된 인공지능 모델을 이용할 수 있다. 제어부(150)는 예측된 재질이 표현되도록 캔버스 맵의 정보를 구성할 수 있다. Furthermore, the controller 150 may predict the material of the object on which the main content is drawn from the main content. In this case, the controller 150 may use the artificial intelligence model generated by machine learning. The controller 150 may configure the information of the canvas map so that the predicted material is expressed.
제어부(150)는 메인 컨텐츠에 기 특정된 질감에 대응되는 레이어를 합성함으로써, 캔버스 맵이 적용된 메인 컨텐츠를 생성할 수 있다. The controller 150 may generate the main content to which the canvas map is applied by synthesizing a layer corresponding to a pre-specified texture in the main content.
즉, 제어부(150)는 이렇게 생성된 캔버스 맵을 메인 컨텐츠에 적용하여 캔버스 맵 이미지를 생성할 수 있다. 즉, 제어부(150)는 메인 컨텐츠와 캔버스 맵을 매핑(또는 블렌딩, 오버레이) 처리할 수 있다. That is, the controller 150 may generate a canvas map image by applying the generated canvas map to the main content. That is, the controller 150 may process the mapping (or blending, overlay) between the main content and the canvas map.
보다 구체적으로, 제어부(150)는 i)메인 컨텐츠의 특정 픽셀에 대응되는 픽셀 값 및 ii)캔버스 맵에 포함된 정보 중 상기 특정 픽셀에 대응되는 효과 정보를 제1 기 설정된 함수에 대입하여, 메인 컨텐츠의 특정 픽셀에 대한 픽셀 값을 변경할 수 있다. 제어부(150)는 상술한 방법을 메인 컨텐츠를 구성하는 모든 픽셀 값에 적용한다. More specifically, the control unit 150 substitutes i) a pixel value corresponding to a specific pixel of the main content and ii) effect information corresponding to the specific pixel among information included in the canvas map to a first preset function, You can change the pixel value for a specific pixel in the content. The controller 150 applies the above-described method to all pixel values constituting the main content.
변경 전 메인 컨텐츠의 픽셀 값은 메인 컨텐츠가 그려진 대상물의 질감을 표현하지 않는 픽셀 값이라면, 변경된 메인 컨텐츠의 픽셀 값은 메인 컨텐츠가 그려진 대상물의 질감을 표현하는 픽셀 값일 수 있다. 예를 들어, 변경 전 메인 컨텐츠에 포함된 특정 픽셀 값이 (3, 99, 5)이라고 가정하자. 메인 컨텐츠가 그려진 대상물이 캔버스이면, 캔버스 맵은 상기 특정 픽셀 값에 대응되는 효과 정보를 포함하고, 이를 적용한 변경된 메인 컨텐츠의 픽셀 값은 (34, 104, 29)일 수 있다. 또한, 메인 컨텐츠가 그려진 대상물이 구리이면, 캔버스 맵은 구리 재질에 대한 정보를 가지고 있고, 이를 적용한 변경된 메인 컨텐츠의 픽셀 값은 (8, 52, 124)일 수 있다. 다만, 이는 설명의 편의를 위한 예시에 불과하고, 캔버스 맵이 적용된 메인 컨텐츠가 포함하는 정보가 이에 한정되는 것은 아니다. If the pixel value of the main content before the change is a pixel value that does not express the texture of the object on which the main content is drawn, the changed pixel value of the main content may be a pixel value that expresses the texture of the object on which the main content is drawn. For example, suppose that a specific pixel value included in the main content before the change is (3, 99, 5). If the object on which the main content is drawn is a canvas, the canvas map includes effect information corresponding to the specific pixel value, and the pixel value of the changed main content to which this is applied may be (34, 104, 29). Also, if the object on which the main content is drawn is copper, the canvas map has information about the copper material, and the pixel value of the changed main content to which this is applied may be (8, 52, 124). However, this is merely an example for convenience of description, and information included in the main content to which the canvas map is applied is not limited thereto.
따라서, 캔버스 맵이 적용되지 않은 메인 컨텐츠를 이용하여 생성된 실감형 컨텐츠가 디스플레이 될 때에 비하여, 캔버스 맵이 적용된 메인 컨텐츠를 이용하여 생성된 실감형 컨텐츠가 디스플레이 될 때 사용자는, 전시물을 질감을 느낌으로써, 실제 전시 공간 등에서 전시물을 보는 것과 같은 경험을 제공받을 수 있다. Therefore, when the immersive content generated using the main content to which the canvas map is applied is displayed, compared to when the immersive content generated using the main content to which the canvas map is not applied is displayed, the user feels the texture of the exhibit. As a result, you can receive the same experience as viewing the exhibits in an actual exhibition space.
한편, 본 발명에서는, 캔버스 맵(Canvas Map)이 적용된 메인 컨텐츠에, 가상 전시 공간에 입사되는 가상의 빛의 반사 특성이 반영되도록 노말 맵(Normal Map)을 적용하는 과정이 진행될 수 있다. 즉, 제어부(150)는 캔버스 맵이 적용된 메인 컨텐츠에 노말 맵을 적용할 수 있다. Meanwhile, in the present invention, a process of applying a normal map to the main content to which the Canvas Map is applied may be performed so that the reflection characteristics of virtual light incident on the virtual exhibition space are reflected. That is, the controller 150 may apply the normal map to the main content to which the canvas map is applied.
노말 맵은, 메인 컨텐츠의 특정 픽셀에 특정 각도로 빛이 입사되었을 때, 해당 빛이 어떠한 각도로 반사될지 산출할 수 있도록 하는 정보를 포함한다.The normal map includes information enabling calculation of an angle at which light is reflected when light is incident on a specific pixel of the main content at a specific angle.
노말 맵을 구성하는 픽셀 각각은 메인 컨텐츠를 구성하는 픽셀에 대응된다. 노말 맵을 메인 컨텐츠에 적용할 경우, 노말 맵을 구성하는 픽셀 중 메인 컨텐츠의 특정 픽셀에 대응되는 픽셀에 매칭된 벡터 정보가 메인 컨텐츠에 매칭된다.Each pixel constituting the normal map corresponds to a pixel constituting the main content. When the normal map is applied to the main content, vector information matched to a pixel corresponding to a specific pixel of the main content among pixels constituting the normal map is matched to the main content.
다만, 광원 정보가 없을 경우, 상기 노말 맵을 메인 컨텐츠에 적용하더라도, 메인 컨텐츠에 아무런 영향을 주지 않는다. However, when there is no light source information, even if the normal map is applied to the main content, the main content is not affected.
여기서, 광원 정보는 가상 전시 공간에 존재하는 가상의 광원을 정의하는 정로 이해되어 질 수 있다. 구체적으로, 광원 정보는 가상 전시 공간에 존재하는 가상의 광원에 대한 위치, 형태, 세기, 빛의 진행 방향 중 적어도 하나를 정의할 수 있다. Here, the light source information may be understood as defining a virtual light source existing in the virtual exhibition space. Specifically, the light source information may define at least one of a location, a shape, an intensity, and a direction of light for a virtual light source existing in the virtual exhibition space.
예를 들어, 가상 전시 공간에 존재하는 가상의 광원이 점 광원인 경우, 상기 광원 정보는 점 광원의 위치 정보 및 점 광원으로부터 모든 방향으로 빛이 방출되는 것을 정의하는 정보를 포함할 수 있다. For example, when a virtual light source existing in the virtual exhibition space is a point light source, the light source information may include location information of the point light source and information defining that light is emitted in all directions from the point light source.
본 발명에서는, 가상의 전시 공간에 존재하는 광원 정보는 배경 컨텐츠에 의하여 구현될 수 있다. 제어부(150)는 배경 컨텐츠에 광원(ex: 태양, 달, 조명 등)을 배치시킴으로써, 가상 전시 공간 존재하는 가상의 광원을 형성할 수 있다. 배경 컨텐츠에 광원을 배치하는 자세한 방법은 후술하도록 한다. In the present invention, light source information existing in a virtual exhibition space may be implemented by background content. The controller 150 may form a virtual light source existing in a virtual exhibition space by arranging a light source (eg, the sun, the moon, lighting, etc.) in the background content. A detailed method of arranging the light source in the background content will be described later.
한편, 상기 광원 정보를 활용하면, 메인 컨텐츠를 구성하는 픽셀들 각각에 입사하는 가상의 빛의 입사각을 산출할 수 있다. 상기 입사각을 상기 노말 맵이 적용된 메인 컨텐츠(또는 메인 컨텐츠를 구성하는 픽셀 각각에 매칭된 노말 벡터)에 적용하면, 특정 픽셀에서의 빛이 반사각 정보가 산출될 수 있다. 상기 산출된 반사각을 제2 기 설정된 함수에 적용하여, 상기 특정 픽셀의 새로운 픽셀값이 산출될 수 있다. 메인 컨텐츠에 포함된 모든 픽셀에 상술한 과정을 적용하면, 가상의 광원에 대응되는 메인 컨텐츠를 생성할 수 있다.Meanwhile, by utilizing the light source information, it is possible to calculate the incident angle of the virtual light incident on each of the pixels constituting the main content. When the incident angle is applied to the main content to which the normal map is applied (or a normal vector matched to each pixel constituting the main content), information on the reflection angle of light from a specific pixel may be calculated. A new pixel value of the specific pixel may be calculated by applying the calculated reflection angle to a second preset function. If the above-described process is applied to all pixels included in the main content, the main content corresponding to the virtual light source can be generated.
나아가, 제어부(150)는 노말 맵이 적용된 메인 컨텐츠에 마스크 맵을 적용하여, 메인 컨텐츠가 실제 전시물과 더욱 유사한 질감을 표현하도록 할 수 있다. Furthermore, the controller 150 may apply a mask map to the main content to which the normal map is applied, so that the main content expresses a texture more similar to the actual exhibit.
여기서, 마스크 맵(Mask Map)은 메탈릭 맵(Metallic Map), AO 맵(Ambient Occlusion Map) 및 스무스 맵(Smoothness Map)을 포함할 수 있다. 보다 구체적으로, 마스크 맵은, Red 채널에 Metalic Map을, Green채널에 OA을 Alpha 채널에는 Smoothness Map을 적용함으로써 핵심데이터만 사용할 수 있는 맵을 의미한다. 마스크 맵은, 불필요한 데이터를 줄일 수 있다는 장점이 있다. Here, the mask map may include a metallic map, an ambient occlusion map (AO), and a smoothness map. More specifically, the mask map refers to a map in which only core data can be used by applying the Metalic Map to the Red channel, OA to the Green channel, and the Smoothness Map to the Alpha channel. The mask map has an advantage in that unnecessary data can be reduced.
따라서, 본 발명에 따른 메인 컨텐츠는, 배경 컨텐츠가 어떻게 구성되는지에 따라 메인 컨텐츠의 픽셀값이 변경될 수 있다. 극단적으로 예를 들면, 배경 컨텐츠가 광원 정보를 포함하지 않는다면, 메인 컨텐츠는 노말 맵 또는 마스크 맵을 적용하더라도 노말 맵 또는 마스크 맵을 적용하지 않은 메인 컨텐츠와 동일한 픽셀값을 가질 수 있다. 반면에, 배경 컨텐츠가 태양과 같은 광원 정보를 포함한다면, 메인 컨텐츠는 태양의 광원 정보에 의하여 픽셀값이 변경될 수 있다. Accordingly, in the main content according to the present invention, the pixel value of the main content may be changed according to how the background content is configured. As an extreme example, if the background content does not include light source information, the main content may have the same pixel value as the main content to which the normal map or the mask map is not applied even if the normal map or the mask map is applied. On the other hand, if the background content includes light source information such as the sun, the pixel value of the main content may be changed according to the light source information of the sun.
사용자는, 광원 정보가 반영되지 않은 메인 컨텐츠를 이용하여 생성된 실감형 컨텐츠를 제공 받을 때와, 광원 정보가 반영된 메인 컨텐츠를 이용하여 생성된 실감형 컨텐츠를 제공 받을 때, 동일한 메인 컨텐츠일지라도 입체감, 질감 등을 서로 다르게 느낄 수 있다. 따라서, 사용자는 실제 전시 공간에서 전시물을 눈으로 보는 것과 같은 체험을 경험할 수 있다.When a user is provided with immersive content generated using the main content that does not reflect light source information and when receiving immersive content generated using main content that reflects light source information, the user provides three-dimensional effect, even with the same main content, You can feel different textures, etc. Accordingly, the user can experience the same experience as seeing the exhibits in the actual exhibition space.
이하에서는, 배경 컨텐츠에 의하여 가상 전시 공간의 광원 정보를 구현하는 과정 을 살펴보도록 한다. Hereinafter, a process of realizing light source information of a virtual exhibition space based on background content will be described.
가상 전시 공간은 도 14에 도시된 것과 같이, 복수개의 가상 전시 공간으로 이루어질 수 있다. 이러한 경우에, 제어부(150)는 각각의 가상 전시 공간에 대하여, 서로 다른 배경 컨텐츠를 생성할 수 있다. As shown in FIG. 14 , the virtual exhibition space may include a plurality of virtual exhibition spaces. In this case, the controller 150 may generate different background content for each virtual exhibition space.
실감형 컨텐츠는 서로 다른 배경 컨텐츠를 갖는 복수개의 가상 전시 공간을 포할 수 있다. 이러한 경우에, 실감형 컨텐츠가 출력되는 전자기기의 디스플레이에는, 도 15에 도시된 것과 같이, 어느 하나의 가상 전시 공간이 출력될 수 있다. The immersive content may include a plurality of virtual exhibition spaces having different background content. In this case, as shown in FIG. 15 , any one virtual exhibition space may be output to the display of the electronic device on which the immersive content is output.
제어부(150)는 사용자의 선택에 근거하여 복수개의 가상 전시 공간을 생성할 수 있다. 이를 위해, 제어부(150)는 사용자가 소지한 단말기와 같은 전자기기 또는 실감형 컨텐츠가 출력되는 전자기기에 가상 전시 공간을 설계할 수 있는 사용자 인터페이스를 출력할 수 있다. 예를 들어, 제어부(150)는 전자기기의 디스플레이 또는 오디오를 통해 “가상 전시 공간의 개수를 선택해 주세요”와 같은 멘트를 출력함으로써, 사용자가 복수개의 가상 전시 공간을 설계할 수 있도록 할 수 있다. The controller 150 may create a plurality of virtual exhibition spaces based on a user's selection. To this end, the controller 150 may output a user interface for designing a virtual exhibition space to an electronic device such as a terminal possessed by the user or an electronic device through which immersive content is output. For example, the controller 150 may output a message such as “Please select the number of virtual exhibition spaces” through the display or audio of the electronic device, so that the user can design a plurality of virtual exhibition spaces.
사용자는 전자기기의 안내 멘트에 따라 원하는 가상 전시 공간의 개수를 선택할 수 있다. 이러한 경우, 사용자는 전자기기 또는 본 발명에 따른 시스템(100)의 터치키(touch key), 푸시키(mechanical key), 키보드(Keyboard), 마우스(mouse), 조이패드(joypad) 등을 이용하여 원하는 가상 전시 공간의 개수(ex: 6)를 선택할 수 있다. 또한, 사용자는 “여섯개”를 음성으로 발화할 수 있다. 사용자가 발화한 음성은, 전자기기 또는 본 발명에 따른 시스템(100)의 마이크로폰(microphone) 또는 오디오 입력부를 통해 입력될 수 있다. The user may select the desired number of virtual exhibition spaces according to the guidance message of the electronic device. In this case, the user can use an electronic device or a touch key, a mechanical key, a keyboard, a mouse, a joypad, and the like of the system 100 according to the present invention. The number of virtual exhibition spaces (ex: 6) can be selected. Also, the user may utter “six” by voice. The voice uttered by the user may be input through an electronic device or a microphone or an audio input unit of the system 100 according to the present invention.
제어부(150)는 사용자의 선택에 근거하여 도 14에 도시된 것과 같이, 6개의 가상 전시 공간(400)을 형성할 수 있다. 이하에서는 설명의 편의를 위하여, 복수개의 가상 전시 공간을 제1 가상 전시 공간(410), 제2 가상 전시 공간(420)으로 표현하도록 한다. 나아가, 제1 가상 전시 공간(410)에 전시되는 메인 컨텐츠를 제1 메인 컨텐츠, 제1 가상 전시 공간이 가지는 배경 컨텐츠를 제1 배경 컨텐츠라고 표현하도록 한다. The controller 150 may form six virtual exhibition spaces 400 as shown in FIG. 14 based on the user's selection. Hereinafter, for convenience of explanation, a plurality of virtual exhibition spaces are expressed as a first virtual exhibition space 410 and a second virtual exhibition space 420 . Furthermore, the main content displayed in the first virtual exhibition space 410 is expressed as the first main content, and the background content of the first virtual exhibition space is expressed as the first background content.
한편, 앞서 설명한 바와 같이, 복수개의 가상의 전시 공간은, 각각의 가상 전시 공간에 전시되는 메인 컨텐츠의 시각적 특성을 이용하여, 각각 서로 다른 배경 컨텐츠를 가질 수 있다. Meanwhile, as described above, each of the plurality of virtual exhibition spaces may have different background contents by using the visual characteristics of the main content displayed in each virtual exhibition space.
예를 들어, 제1 가상 전시 공간(410)은, 도 15(a)에 도시된 것과 같이, 제1 가상 전시 공간(410)에 전시되는 제1 메인 컨텐츠들(511)을 이용하여 생성된 제1 배경 컨텐츠(510)를 가질 수 있다. 제1 배경 컨텐츠(510)는 도트 무늬의 벽지를 가지는 8개의 벽(512)과, 흰색의 바닥(513)과, 유리로 구성된 천장(514)를 포함할 수 있다. For example, as shown in FIG. 15A , the first virtual exhibition space 410 is a first virtual exhibition space created using first main contents 511 displayed in the first virtual exhibition space 410 . It may have one background content 510 . The first background content 510 may include eight walls 512 having dot-patterned wallpaper, a white floor 513 , and a ceiling 514 made of glass.
또 다른 예를 들어, 제2 가상 공간(420)은, 도 15(b)에 도시된 것과 제2 메인 컨텐츠들(521)을 이용하여 생성된 제2 배경 컨텐츠(520)를 가질 수 있다. 제2 배경 컨텐츠(520)는 빗살 무늬의 벽지를 가지는 8개의 벽(522)과, 흰색의 바닥과(523), 유리로 구성된 천장(524)를 포함하는 배경 컨텐츠를 가질 수 있다. 즉, 제1 배경 컨텐츠(510) 및 제2 배경 컨텐츠(520)는 제1 메인 컨텐츠(511) 및 제2 메인 컨텐츠(521) 각각의 시각적 특성에 근거하여, 서로 다르게 설정될 수 있다. As another example, the second virtual space 420 may have the second background content 520 generated using the second main content 521 and that shown in FIG. 15B . The second background content 520 may have background content including eight walls 522 having comb-shaped wallpaper, a white floor 523 , and a ceiling 524 made of glass. That is, the first background content 510 and the second background content 520 may be set differently based on the respective visual characteristics of the first main content 511 and the second main content 521 .
한편, 저장부(140)에 저장된 배경 정보에는, 메인 컨텐츠의 시각적 특성과 매칭되는 복수개의 배경 컨텐츠 구성 정보가 포함될 수 있다. 설명의 편의를 위하여, 이하에서는, 메인 컨텐츠의 특정 시각적 특성과 매칭되는 복수개의 배경 컨텐츠의 구성 정보를 제1 구성 정보, 제2 구성 정보와 같이 표현하도록 한다. Meanwhile, the background information stored in the storage 140 may include a plurality of pieces of background content configuration information matching the visual characteristics of the main content. For convenience of explanation, hereinafter, configuration information of a plurality of background contents matching a specific visual characteristic of the main content is expressed together with the first configuration information and the second configuration information.
예를 들어, 배경 정보에는 유화 질감에 매칭되어 제1 구성 정보 및 제2 구성 정보가 포함될 수 있다고 가정하자. 제어부(150)는, 사용자가 소지한 단말기와 같은 전자기기 또는 실감형 컨텐츠가 출력되는 전자기기의 디스플레이에 제1 구성 정보 및 제2 구성 정보가 전송되도록 통신부(110)를 제어할 수 있다. 또는 제어부(150)는 제1 구성 정보 및 제2 구성 정보가 본 발명에 따른 시스템(100)의 출력부(130)에 출력되도록 제어할 수 있다. For example, it is assumed that the background information may include the first composition information and the second composition information by matching the oil painting texture. The controller 150 may control the communication unit 110 to transmit the first configuration information and the second configuration information to a display of an electronic device such as a terminal possessed by a user or an electronic device on which immersive content is output. Alternatively, the controller 150 may control the first configuration information and the second configuration information to be output to the output unit 130 of the system 100 according to the present invention.
사용자는 전자기기 또는 본 발명에 따른 시스템(100)의 출력부(130)에 출력되는 제1 구성 정보 및 제2 구성 정보 중 어느 하나를 선택할 수 있다. 사용자의 선택은, 전자기기로부터 본 발명의 통신부(110)로 전송되거나, 본 발명의 입력부(120)를 통해 입력되어질 수 있다. The user may select any one of the first configuration information and the second configuration information output to the output unit 130 of the electronic device or the system 100 according to the present invention. The user's selection may be transmitted from the electronic device to the communication unit 110 of the present invention or may be input through the input unit 120 of the present invention.
제어부(150)는 사용자의 선택에 근거하여, 배경 컨텐츠를 생성할 수 있다. The controller 150 may generate background content based on the user's selection.
나아가, 제어부(150)는 배경 컨텐츠에 시간 정보를 반영하여, 배경 컨텐츠를 생성할 수 있다. 제어부(150)는 시간의 흐름에 따라 밝기가 변경되는 배경 컨텐츠를 이용하여 실감형 컨텐츠를 생성할 수 있다. Furthermore, the controller 150 may generate the background content by reflecting time information in the background content. The controller 150 may generate immersive content using background content whose brightness is changed over time.
저장부(140)에는 시간에 따른 배경 컨텐츠의 밝기를 정의하는 밝기 정보가 저장되어 있을 수 있다. 예를 들어, 상대적으로 가장 어두운 밝기를 0으로, 상대적으로 가장 밝은 밝기를 10라고 가정하자. 저장부(140)에 저장된 밝기 정보에는 i)6시 내지 8시와 매칭되어 밝기 2, ii)8시 내지 11시와 매칭되어 밝기 3, iii) 11시 내지 13시와 매칭되어 밝기 5, iv)13시 내지 18시와 매칭되어 밝기 3, v)18시 내지 22시와 매칭되어 밝기 1, vi)22시 내지 24시와 매칭되어 밝기 0, vii)24시 내지 5시와 매칭되어 밝기 0, viii)5시 내지 6시와 매칭되어 밝기 1을 포함되어 있을 수 있다. 다만, 이는 설명의 편의를 위한 일 예시로서, 밝기 정보는 보다 세분화되어 있을 수 있다. The storage unit 140 may store brightness information defining the brightness of the background content according to time. For example, suppose that the relatively darkest brightness is 0, and the relatively brightest brightness is 10. The brightness information stored in the storage unit 140 includes i) 6:00 to 8 o'clock to match brightness 2, ii) 8 o'clock to 11 o'clock to match brightness 3, iii) 11 o'clock to 13 o'clock to match brightness 5, iv ) 13 o'clock to 18 o'clock to match brightness 3, v) 18 o'clock to 22 o'clock to match brightness 1, vi) 22 o'clock to 24 o'clock to match brightness 0, vii) 24 o'clock to 5 o'clock to match brightness 0 , viii) may include a brightness of 1 by matching 5 to 6 o'clock. However, this is an example for convenience of description, and brightness information may be more subdivided.
제어부(150)는 실감형 컨텐츠가 전자기기를 통해 출력될 때, 출력되는 시간에 근거하여 배경 컨텐츠의 밝기가 변경되도록 배경 컨텐츠를 생성할 수 있다. 예를 들어, 실감형 컨텐츠가 출력되는 시간이 낮 12시일 경우, 사용자는 밝기 5로 설정된 배경 컨텐츠를 제공받음으로써, 실제 낮에 전시공간에서 전시물을 관람하는 것과 같은 느낌을 받을 수 있다. 또 다른 일 예로, 실감형 컨텐츠가 출력되는 시간이 밤 12시(24시)인 경우, 사용자는 밝기 0으로 설정된 배경 컨텐츠를 제공받음으로써, 실제 밤에 전시공간에서 전시물을 관람하는 것과 같은 느낌을 받을 수 있다. When the immersive content is output through the electronic device, the controller 150 may generate the background content so that the brightness of the background content is changed based on the output time. For example, when the time when immersive content is output is 12:00 noon, the user can receive the background content set to the brightness of 5, thereby giving the user the same feeling as viewing the exhibits in the exhibition space during the actual daytime. As another example, when the time at which immersive content is output is 12:00 pm (24 o'clock), the user is provided with the background content set to 0 brightness, so that the user can experience the same feeling as watching an exhibition in an exhibition space at night. can receive
나아가, 제어부(150)는 저장부(140)의 밝기 정보에 근거하여 변경되는 배경 컨텐츠의 밝기에 따라, 메인 컨텐츠의 픽셀값을 변경할 수 있다. 즉, 제어부(150)는 배경 컨텐츠의 밝기 정보에 따른 가상 전시 공간에 입사되는 가상의 빛의 반사 특성이 반영되도록 메인 컨텐츠의 픽셀값을 변경할 수 있다. Furthermore, the controller 150 may change the pixel value of the main content according to the brightness of the background content that is changed based on the brightness information of the storage unit 140 . That is, the controller 150 may change the pixel value of the main content to reflect the reflection characteristics of the virtual light incident on the virtual exhibition space according to the brightness information of the background content.
예를 들어, 실감형 컨텐츠가 출력되는 시간이 낮 12시이고, 이에 따른 배경 컨텐츠의 밝기가 5일 경우, 메인 컨텐츠는 배경 컨텐츠의 밝기 5에 대응되는 가상 전시 공간의 빛의 반사 특성이 반영되도록 픽셀값이 변경될 수 있다. For example, if the output time of immersive content is 12:00 noon, and the brightness of the background content is 5, the main content reflects the light reflection characteristics of the virtual exhibition space corresponding to the brightness 5 of the background content. Pixel values may be changed.
또 다른 일 예로, 실감형 컨텐츠가 출력되는 시간이 밤 12시(24시)이고, 이에 따른 배경 컨텐츠의 밝기가 0일 경우, 메인 컨텐츠는 배경 컨텐츠의 밝기 0에 대응되는 가상 전시 공간의 빛의 반사 특성이 반영되도록 픽셀값이 변경될 수 있다. As another example, if the time at which the immersive content is output is 12:00 pm (24 o'clock) and the brightness of the background content is 0, the main content is the light of the virtual exhibition space corresponding to the brightness 0 of the background content. A pixel value may be changed to reflect the reflection characteristic.
따라서, 사용자는, 낮에 실감형 컨텐츠를 통해 메인 컨텐츠를 볼 때와, 밤에 실감형 컨텐츠를 통해 메인 컨텐츠를 볼 때 서로 다른 입체감, 질감 등을 제공받음으로써, 더욱 실제 전시공간에서 전시물을 보는 것과 같은 생동감 넘치는 경험을 제공받을 수 있다. Therefore, the user is provided with a different three-dimensional effect and texture when viewing the main content through the immersive content during the day and when viewing the main content through the immersive content at night. You will be provided with a lively experience such as
한편, 제어부(150)는 배경 컨텐츠에 시간이 반영된 광원 정보를 더 포함시켜 배경 컨텐츠를 생성할 수 있다. 예를 들어, 상기 배경 컨텐츠에는 비추어지는 광에 해당하는 이미지가 형성되고, 상기 광에 해당하는 이미지는 시간의 흐름에 따라 비추어지는 방향이 변화될 수 있다.Meanwhile, the controller 150 may generate background content by further including light source information in which time is reflected in the background content. For example, an image corresponding to the illuminated light may be formed on the background content, and the direction in which the image corresponding to the light is illuminated may change over time.
제어부(150)는 시간의 흐름에 따라 광원의 밝기 및 위치가 변경되는 배경 컨텐츠를 생성하고, 이를 이용하여 실감형 컨텐츠를 생성할 수 있다. 이 때, 광원은 태양, 달 및 조명 중 적어도 하나 일 수 있다. 즉, 제어부(150)는 시간의 흐름에 따라 위치(고도) 또는 세기가 변경되는 태양, 달 및 조명과 같은 광원에 대한 정보를 반영하여, 상기 광에 해당하는 이미지를 포함하여 상기 배경 컨텐츠를 생성시킬 수 있다.The controller 150 may generate background content in which the brightness and position of the light source change according to the passage of time, and use the generated background content to generate immersive content. In this case, the light source may be at least one of the sun, the moon, and lighting. That is, the controller 150 generates the background content including the image corresponding to the light by reflecting information on light sources such as the sun, moon, and lighting whose position (altitude) or intensity changes over time. can do it
이러한 경우, 제어부(150)는 배경 컨텐츠를 통해, 가상 전시 공간의 벽 및 천장 중 적어도 하나를 유리로 설정할 수 있다. 예를 들어, 상기 배경 컨텐츠에는 상기 가상 전시 공간의 벽 및 천장 중 적어도 하나에 배치되는 유리가 포함될 수 있다. 또는 제어부(150)는 가상 전시 공간을 실외로 설정할 수 있다. In this case, the controller 150 may set at least one of a wall and a ceiling of the virtual exhibition space as glass through the background content. For example, the background content may include glass disposed on at least one of a wall and a ceiling of the virtual exhibition space. Alternatively, the controller 150 may set the virtual exhibition space to be outdoors.
제어부(150)는 실감형 컨텐츠가 전자기기를 통해 출력될 때, 출력되는 시간에 근거하여 태양, 달 및 조명과 같은 광원의 위치 및 세기가 변경되도록 배경 컨텐츠를 생성할 수 있다. When the immersive content is output through the electronic device, the controller 150 may generate the background content so that the position and intensity of light sources such as the sun, moon, and lighting are changed based on the output time.
예를 들어, 실감형 컨텐츠가 출력되는 시간이 낮 1시(13시) 일 경우, 도 16(a)에 도시된 것과 같이, 제어부(150)는 사용자를 기준으로 일정 위치(고도)에 태양(611)과 같은 광원을 배치시키고, 일정 위치(고도)에 배치된 태양으로부터 가상 전시 공간에 입사되는 빛이 반영되도록 배경 컨텐츠(610)를 생성할 수 있다. 이러한, 경우 배경 컨텐츠(610)는 태양(611)으로부터 가상 전시 공간에 입사되는 빛에 의하여 상대적으로 밝게 구성될 수 있다. 나아가, 실감형 컨텐츠가 출력되는 시간이 낮 3시(15시) 일 경우, 제어부(150)는 도 16(a)의 태양(611)이 보다 서쪽(도 16(a)의 왼쪽)에 배치되도록 배경 컨텐츠를 생성할 수 있다. For example, when the time at which immersive content is output is 1 o'clock (13:00) in the afternoon, as shown in FIG. 16(a), the controller 150 sets the sun ( 611), the background content 610 may be generated so that light incident on the virtual exhibition space from the sun disposed at a predetermined position (altitude) is reflected. In this case, the background content 610 may be configured to be relatively bright by light incident on the virtual exhibition space from the sun 611 . Furthermore, when the time at which the immersive content is output is 3 o'clock in the afternoon (15:00), the control unit 150 controls the sun 611 of FIG. You can create background content.
또 다른 일 예로, 실감형 컨텐츠가 출력되는 시간이 밤 8 시(20시)일 경우, 도 16(b)에 도시된 것과 같이, 제어부(150)는 사용자를 기준으로 일정 위치(고도)에 달(621)과 같은 광원을 배치시키고, 일정 위치(고도)에 배치된 달(621)로부터 가상 전시 공간에 입사되는 빛이 반영되도록 배경 컨텐츠(620)를 생성할 수 있다. 이러한, 경우 배경 컨텐츠(620)는 달(621)로부터 가상 전시 공간에 입사되는 빛에 의하여 상대적으로 어둡게 구성될 수 있다. 나아가, 제어부(150)는 조명(622)과 같은 광원을 더 포함시켜 배경 컨텐츠(620)를 생성할 수 있다. 이러한 경우, 배경 컨텐츠(620)는, 조명(622)이 비추는 영역(623)을 주변 타 영역(624)에 비하여 상대적으로 밝게 하여 배경 컨텐츠(620)를 생성할 수 있다. As another example, when the time at which immersive content is output is 8:00 p.m. (20:00), as shown in FIG. 16(b) , the controller 150 reaches a predetermined position (altitude) with respect to the user. A light source such as 621 may be disposed, and the background content 620 may be generated such that light incident on the virtual exhibition space from the moon 621 disposed at a predetermined position (altitude) is reflected. In this case, the background content 620 may be configured to be relatively dark by light incident on the virtual exhibition space from the moon 621 . Furthermore, the controller 150 may generate the background content 620 by further including a light source such as the lighting 622 . In this case, the background content 620 may generate the background content 620 by making the area 623 illuminated by the light 622 relatively bright compared to the other surrounding areas 624 .
나아가, 제어부(150)는 배경 컨텐츠에 포함된 광원 정보에 근거하여, 메인 컨텐츠의 픽셀값을 변경할 수 있다. 즉, 제어부(150)는 배경 컨텐츠로 인하여, 가상 전시 공간에 입사되는 빛의 반사 특성이 반영되도록 메인 컨텐츠의 픽셀값을 변경할 수 있다. 보다 구체적으로, 상기 배경 컨텐츠에 비추어지는 광에 매칭되도록 상기 가상 전시 공간에 입사되는 빛의 반사 특성이 설정되고, 상기 반사 특성이 반영되도록 상기 메인 컨텐츠의 픽셀값을 변경될 수 있다.Furthermore, the controller 150 may change the pixel value of the main content based on the light source information included in the background content. That is, the controller 150 may change the pixel value of the main content to reflect the reflection characteristics of light incident on the virtual exhibition space due to the background content. More specifically, a reflection characteristic of light incident on the virtual exhibition space may be set to match the light shining on the background content, and a pixel value of the main content may be changed to reflect the reflection characteristic.
예를 들어, 실감형 컨텐츠가 출력되는 시간이 낮 1시(13시) 이고, 이에 따른 배경 컨텐츠의 일 영역에 태양과 같은 광원 정보가 포함된 경우, 메인 컨텐츠는 배경 컨텐츠에 포함된 광원 정보에 의한 빛의 반사 특성이 반영되도록 픽셀값이 변경될 수 있다. For example, when the time at which immersive content is output is 1:00 pm (13:00), and light source information such as the sun is included in one area of the background content, the main content is based on the light source information included in the background content. The pixel value may be changed to reflect the reflection characteristics of the light.
또 다른 일 예를 들어, 실감형 컨텐츠가 출력되는 시간이 밤 8시(20시)이고, 이에 따른 배경 컨텐츠의 일 영역에 달 및 조명과 같은 광원 정보가 포함된 경우, 메인 컨텐츠는 배경 컨텐츠에 포함된 광원 정보에 의한 빛의 반사 특성이 반영되도록 픽셀값이 변경될 수 있다. As another example, if the time at which immersive content is output is 8:00 p.m. (20:00), and accordingly, light source information such as the moon and lighting is included in one area of the background content, the main content is displayed in the background content. The pixel value may be changed to reflect the light reflection characteristic by the included light source information.
한편, 이러한 시간의 흐름에 따른 광원 정보는, 구성 정보와 매칭되어 저장부(140)에 저장되어 이을 수 있다. Meanwhile, the light source information according to the passage of time may be stored in the storage unit 140 by matching with the configuration information.
즉, 본 발명에서는, 특정된 메인 컨텐츠의 시각적 정보에 근거하여, 배경 컨텐츠가 생성되고, 생성된 배경 컨텐츠의 광원 정보에 근거하여 메인 컨텐츠의 픽셀값이 변경될 수 있다. That is, in the present invention, the background content may be generated based on the specified visual information of the main content, and the pixel value of the main content may be changed based on the light source information of the generated background content.
이에 따라, 사용자는 실감형 컨텐츠를 관람하는 시간에 따른 광원 정보를 포함하는 가상 전시 공간에서, 가상 전시 공간에 입사된 가상의 빛이 반영된 메인 컨텐츠를 제공받게 됨으로써, 보다 실제 전시 공간에서 전시물을 관람하는 것과 같은 경험을 제공받을 수 있다. Accordingly, the user is provided with main content reflecting the virtual light incident on the virtual exhibition space in the virtual exhibition space including the light source information according to the time of viewing the immersive content, so that the user can view the exhibition more in the actual exhibition space. You can get the same experience as you do.
나아가, 제어부(150)는 배경 컨텐츠에 날씨 정보가 반영된 광원 정보를 더 포함시켜 배경 컨텐츠를 생성할 수 있다. 제어부(150)는 날씨에 따라 광원의 밝기 및 위치가 변경되는 배경 컨텐츠를 생성하고, 이를 이용하여 실감형 컨텐츠를 생성할 수 있다. 이 때, 날씨 정보는 사용자로부터 입력부(120)를 통해 입력 받거나, 외부 서버로부터 통신부(110)를 통해, 사용자가 현재 위치하는 지역의 날씨 정보를 수신할 수 있다. 이와 같이, 상기 배경 컨텐츠는 날씨 정보를 반영하여 생성되며, 이를 통하여 광에 해당하는 이미지의 밝기 등이 상기 날씨 정보에 따라 설정될 수 있다.Furthermore, the controller 150 may generate the background content by further including light source information in which the weather information is reflected in the background content. The controller 150 may generate background content in which the brightness and position of the light source change according to the weather, and use the generated background content to generate immersive content. In this case, the weather information may be input from the user through the input unit 120 or from an external server through the communication unit 110, weather information of a region in which the user is currently located may be received. In this way, the background content is generated by reflecting the weather information, and through this, the brightness of an image corresponding to light can be set according to the weather information.
또한, 상기 날씨 정보는 상기 전자기기가 위치하는 지역에 해당하는 정보가 될 수 있다. 이러한 경우, 실감형 컨텐츠가 출력되는 시간이 낮 1시(13시)로 동일할 지라도, 사용자가 서울에서 실감형 컨텐츠를 이용하는 경우와, 제주도에서 실감형 컨텐츠를 이용하는 경우, 배경 컨텐츠에 포함된 광원 정보는 상이할 수 있다. 더욱 구체적으로, 서울의 날씨가 맑은 경우, 서울에서 실감형 컨텐츠를 이용하는 사용자는, 맑은 날씨가 반영된 광원 정보를 포함하는 실감형 컨텐츠를 제공받을 수 있다. 반면에, 제주도에 비가 오는 경우, 제주도에서 실감형 컨텐츠를 이용하는 사용자는, 비 오는 날씨가 반영된 광원 정보를 포함하는 실감형 컨텐츠를 제공 받을 수 있다. Also, the weather information may be information corresponding to a region in which the electronic device is located. In this case, even if the time at which the immersive content is output is the same at 1 pm (13:00), the light source included in the background content when the user uses the immersive content in Seoul and when the immersive content is used in Jeju Island The information may be different. More specifically, when the weather in Seoul is clear, a user who uses immersive content in Seoul may be provided with immersive content including light source information reflecting the clear weather. On the other hand, when it rains on Jeju Island, a user who uses immersive content on Jeju Island may be provided with immersive content including light source information reflecting rainy weather.
한편, 본 발명에서는, 메인 컨텐츠 및 배경 컨텐츠에 도스튼(docent) 컨텐츠를 더 반영하여, 실감형 컨텐츠를 생성하는 과정이 진행되어 질 수 있다. 제어부(150)는 도스튼 컨텐츠를 포함시켜 실감형 컨텐츠를 생성할 수 있다. Meanwhile, in the present invention, a process of generating immersive content may be performed by further reflecting docent content in the main content and background content. The controller 150 may generate immersive content by including the Doston content.
여기서, 도스트 컨텐츠는, 가상 전시 공간에 전시된 메인 컨텐츠를 설명하는 기능으로 이해되어 질 수 있다. Here, the dost content may be understood as a function of describing the main content displayed in the virtual exhibition space.
제어부(150)는 도 17의 (a)에 도시된 것과 같이, 실감형 컨텐츠가 출력되는 전자기기의 메인 뷰(710)의 일 영역에 안내인(713)을 출력시킬 수 있다. 나아가, 제어부(150)는 사용자의 메인 뷰(710)의 특정 영역에 특정 메인 컨텐츠(711)가 출력되는 경우, 해당 메인 컨텐츠(711)에 대한 설명이 오디오를 통해 출력되도록 제어할 수 있다. 나아가, 제어부(150)는 해당 메인 컨텐츠(711)에 대한 설명(712)이 메인 뷰(710)의 일 영역에 출력되도록 제어할 수 있다. As shown in (a) of FIG. 17 , the controller 150 may output the guide 713 to one area of the main view 710 of the electronic device on which the immersive content is output. Furthermore, when a specific main content 711 is output to a specific region of the user's main view 710 , the controller 150 may control a description of the corresponding main content 711 to be output through audio. Furthermore, the controller 150 may control the description 712 of the corresponding main content 711 to be output on one area of the main view 710 .
여기서, “메인 뷰”는 전자기기가 제공하는 복수의 뷰 영역(또는 디스플레이 영역 ) 중 사용자의 시선에 대응하는 뷰 영역을 의미할 수 있다. Here, the “main view” may mean a view area corresponding to the user's gaze among a plurality of view areas (or display areas) provided by the electronic device.
나아가, 제어부(150)는 도 17의 (b)에 도시된 것과 같이, 가상 전시 공간에 전시된 메인 컨텐츠(721) 주변에 버튼(722)을 함께 출력시킬 수 있다. Furthermore, as shown in (b) of FIG. 17 , the controller 150 may output the button 722 together around the main content 721 displayed in the virtual exhibition space.
사용자는 설명이 필요한 메인 컨텐츠(721) 주변에 위치하는 버튼(722)을 누름으로써, 본 발명에 따른 시스템(100)에 해당 메인 컨텐츠(721)에 대한 설명 요청을 전송할 수 있다. 이 때, 사용자의 설명 요청은, 실감형 컨텐츠가 출력되는 전자기기 또는 본 발명에 따른 사용자 입력부(예를 들어, 터치키(touch key), 푸시키(mechanical key), 키보드(Keyboard), 마우스(mouse), 조이패드(joypad) 등)를 통해 입력될 수 있다. 나아가, 본 발명에 따른 시스템(100)의 센싱부(미도시)에 의해, 특정 메인 컨텐츠에 대한 설명 요청을 검출할 수 있다. The user may transmit a request for explanation of the corresponding main content 721 to the system 100 according to the present invention by pressing a button 722 located around the main content 721 requiring explanation. In this case, the user's request for explanation is an electronic device that outputs immersive content or a user input unit according to the present invention (eg, a touch key, a push key, a mechanical key, a keyboard, a mouse ( mouse), joypad, etc.). Furthermore, a request for explanation of specific main content may be detected by a sensing unit (not shown) of the system 100 according to the present invention.
여기서, 본 발명에 따른 센싱부(미도시)는, 근접센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(accelerationsensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라), 마이크로폰(microphone), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. Here, the sensing unit (not shown) according to the present invention includes a proximity sensor, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and a gravity sensor. (G-sensor), gyroscope sensor, motion sensor, RGB sensor, infrared sensor (IR sensor: infrared sensor), fingerprint sensor (finger scan sensor), ultrasonic sensor, Optical sensor (eg, camera), microphone (microphone), battery gauge, environmental sensor (eg, barometer, hygrometer, thermometer, radiation detection sensor, thermal sensor, gas detection sensor, etc.) ), and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.).
한편, 본 발명에 따른 실감형 컨텐츠는 사용자의 입력에 근거하여, 생성될 수 있다. 사용자의 입력에 근거하여 생성되는 실감형 컨텐츠는, 사용자의 취향 및 목적(교육, 행사, 강연 등)에 따라 다양하게 구성될 수 있다는 장점이 있다. 이하에서는 사용자가 실감형 컨텐츠를 구성할 수 있도록, 사용자에게 제공되는 사용자 인터페이스를 설명하도록 한다. 설명의 편의를 위하여, 가상 전시 공간이 미술관이고, 가상 전시 공간에 전시되는 메인 컨텐츠가 미술작품(또는 그림)인 경우를 예시로 설명하도록 한다. Meanwhile, the immersive content according to the present invention may be generated based on a user's input. The immersive content generated based on the user's input has the advantage that it can be variously configured according to the user's taste and purpose (education, event, lecture, etc.). Hereinafter, a user interface provided to a user so that the user can compose immersive content will be described. For convenience of explanation, a case in which the virtual exhibition space is an art museum and the main content displayed in the virtual exhibition space is a work of art (or a picture) will be described as an example.
제어부(150)는 사용자가 소지한 단말기와 같은 전자기기 또는 실감형 컨텐츠가 출력되는 전자기기의 디스플레이부(이하, “디스플레이부” 라 명명하도록 함)에 도 18(a)와 같은, 가상 전시 공간(미술관)의 관람 환경 설정 의사를 묻는 화면이 출력되도록 제어할 수 있다. 제어부(150)는 디스플레이부에 “미술관 관람 환경을 설정 하시겠습니까?”와 같은 안내 멘트와 함께, 가상 전시 공간의 관람 환경을 직접 선택할 수 있는 선택지(811)와 본 발명에 따른 시스템(100)에서 추천하는 추천 환경을 선택할 수 있는 선택지(812)를 출력시킬 수 있다. The control unit 150 is installed on a display unit (hereinafter, referred to as “display unit”) of an electronic device such as a terminal possessed by the user or an electronic device on which immersive content is output, as shown in FIG. 18(a), in a virtual exhibition space. You can control to display a screen asking you to set the viewing environment for (art museum). The control unit 150 is recommended in the system 100 according to the present invention and the option 811 for directly selecting the viewing environment of the virtual exhibition space together with a guide message such as “Do you want to set the museum viewing environment?” on the display unit. An option 812 for selecting a recommended environment may be output.
사용자는 디스플레이부에 출력되는 선택지를 보고, 어느 하나의 선택지를 선택할 수 있다. 이러한 경우, 사용자는 전자기기 또는 본 발명에 따른 시스템(100)의 터치키(touch key), 푸시키(mechanical key), 키보드(Keyboard), 마우스(mouse), 조이패드(joypad) 등을 이용하여 선택지를 선택할 수 있다. 나아가, 사용자는 음성으로 “직접 선택(811)”또는 “추천 환경 선택(812)”을 발화할 수 있다. 사용자가 발화하는 음성은 전자기기 또는 본 발명에 따른 시스템(100)의 마이크로폰(microphone) 또는 오디오 입력부를 통해 입력될 수 있다. The user may select one of the options by looking at the options output to the display unit. In this case, the user selects an option using an electronic device or a touch key, a mechanical key, a keyboard, a mouse, a joypad, etc. of the system 100 according to the present invention. can choose Furthermore, the user may utter “direct selection 811” or “recommended environment selection 812” by voice. The voice uttered by the user may be input through an electronic device or a microphone or an audio input unit of the system 100 according to the present invention.
사용자가 직접 선택(811)의 선택지를 선택하는 경우, 제어부(150)는 디스플레이부에 배경 컨텐츠를 구성하는 다양한 인테리어 정보를 출력시킬 수 있다. 예를 들어, 배경 컨텐츠를 구성하는 다양한 인테리어 정보는 i)가상 전시 공간의 모양(ex: 실내 또는 실외, 육면체의 실내 공간, 8기둥 형상의 실내 공간 등), ii)가상 전시 공간의 벽의 재료(ex: 콘크리트 재질, 나무 재질 등) 또는 벽지(벽지의 색상, 벽지의 무늬 등), iii)바닥 재료(콘크리트, 대리석 등) 또는 색상, iv)천정의 재료(유리, 나무, 콘크리트 등) 또는 색상, v)가구(의자, 조명기구, 화분 등)를 포함할 수 있다. When the user selects the option of the direct selection 811 , the controller 150 may output various interior information constituting the background content on the display unit. For example, various interior information constituting the background content includes i) the shape of the virtual exhibition space (ex: indoor or outdoor, a hexahedral indoor space, an 8-pillar-shaped indoor space, etc.), ii) the material of the wall of the virtual exhibition space (ex: concrete material, wood material, etc.) or wallpaper (color of wallpaper, pattern of wallpaper, etc.), iii) floor material (concrete, marble, etc.) or color, iv) material of ceiling (glass, wood, concrete, etc.) or color, v) furniture (chairs, lighting fixtures, flowerpots, etc.).
제어부(150)는 디스플레이부에 다양한 인테리어 정보를 출력시켜, 사용자가 가상 전시 공간의 배경 컨텐츠를 직접 구성할 수 있는 인터페이스를 제공할 수 있다. 예를 들어, 제어부(150)는 사용자가 다양한 인테리어 정보를 드래그 인 드롭(drag-and-drop)하는 방식을 통해, 하나의 배경 컨텐츠를 생성할 수 있는 인터페이스환경을 제공할 수 있다. The controller 150 may output various interior information to the display unit to provide an interface through which the user can directly compose the background content of the virtual exhibition space. For example, the controller 150 may provide an interface environment capable of generating one background content through a user drag-and-drop method of various interior information.
나아가, 사용자가 추천 환경 선택(812) 선택지를 선택하는 경우, 제어부(150)는 저장부(140)에 저장되어 있는 배경 컨텐츠의 샘플을 디스플레이부에 출력할 수 있다. 이러한 경우, 제어부(150)는 특정된 메인 컨텐츠의 시각적 정보와 매칭되는 배경 컨텐츠의 구성 정보를 추천 정보(821, 822)로 디스플레이부에 출력할 수 있다. Furthermore, when the user selects the recommended environment selection 812 option, the control unit 150 may output a sample of the background content stored in the storage unit 140 to the display unit. In this case, the controller 150 may output the composition information of the background content matching the specified visual information of the main content as the recommendation information 821 and 822 to the display unit.
사용자는 디스플레이부에 출력되는 추천 정보(821, 822) 중 어느 하나를 선택하여, 배경 컨텐츠를 생성할 수 있다. The user may select any one of the recommendation information 821 and 822 output to the display unit to generate background content.
한편, 제어부(150)는 사용자로부터 배경 컨텐츠에 반영되는 날씨 정보를 입력받을 수 있다. 이러한 경우, 제어부(150)는 도 19의 (a)에 도시된 것과 같이, 디스플레이부에 “미술작품을 관람하고 싶은 날씨를 선택하세요”와 같은 멘트와 함께, 날씨 이모티콘(emoticon, 911, 912, 913, 914)를 출력할 수 있다. Meanwhile, the controller 150 may receive weather information reflected in the background content from the user. In this case, as shown in (a) of FIG. 19 , the controller 150 includes a message such as “select the weather in which you want to view an art work” on the display unit, and weather emoticons (emoticon, 911, 912, 913, 914) can be output.
제어부(150)는 사용자가 디스플레이에 출력된 날씨 이모티콘 중 어느 하나의 이모티콘을 선택하는 것에 근거하여, 해당 날씨 정보가 반영된 광원 정보를 포함시켜 배경 컨텐츠를 생성할 수 있다. 예를 들어, 사용자가 해 이모티콘(911)을 선택하는 경우, 제어부(150)는 맑은 날씨 정보가 반영된 광원 정보를 포함시켜 배경 컨텐츠를 생성할 수 있다. Based on the user selecting any one of the weather emoticons output on the display, the controller 150 may generate background content including light source information reflecting the corresponding weather information. For example, when the user selects the sun emoticon 911, the controller 150 may generate background content by including light source information reflecting sunny weather information.
나아가, 제어부(150)는 사용자가 위치한 지역을 기반으로, 외부 서버로부터 날씨 정보를 수집할 수 있다. 이러한 경우, 제어부(150)는 도 19의 (b)에 도시된 것과 같이, 디스플레이부에 “현재 위치 접근을 허용 하시겠습니까?”와 같은 안내 멘트와 함께 위치 접근 허용 여부 선택지를 출력할 수 있다. Furthermore, the controller 150 may collect weather information from an external server based on the region where the user is located. In this case, as shown in (b) of FIG. 19 , the controller 150 may output a location access permission option together with a guide message such as “Do you want to allow access to the current location?” on the display unit.
제어부(150)는 사용자가 디스플레이부에 출력된 허용 선택지(921)를 선택하거나, 음성으로 “허용”을 발화하는 것을 입력받은 경우, GPS 등을 통해 사용자의 위치를 검출하고, 검출된 위치에 해당되는 날씨 정보를 외부 서버로부터 수신할 수 있다. 제어부(150)는 도 19의 (c)에 도시된 것과 같이, 사용자가 위치한 위치의 날씨 정보를 디스플레이에 출력할 수 있다. When the user selects the allow option 921 output on the display unit or receives input of uttering “allow” by voice, the controller 150 detects the user's location through GPS, etc., and corresponds to the detected location. Weather information can be received from an external server. As illustrated in FIG. 19C , the controller 150 may output weather information of a location where the user is located on the display.
나아가, 제어부(150)는 사용자로부터 배경 컨텐츠에 반영되는 시간 정보를 입력받을 수 있다. 이러한 경우, 제어부(150)는 도 20에 도시된 것과 같이, 디스플레이부에 “미술작품을 관람하고 싶은 시간을 선택하세요”와 같은 멘트와 함께, 시간을 입력할 수 있는 인터페이스를 출력할 수 있다. Furthermore, the controller 150 may receive time information reflected in the background content from the user. In this case, as shown in FIG. 20 , the controller 150 may output an interface for inputting a time together with a message such as “Please select a time to view an art work” on the display unit.
제어부(150)는 사용자가 입력하는 시간에 근거하여, 해당 시간 정보가 반영된 광원 정보를 포함시켜 배경 컨텐츠를 생성할 수 있다. 예를 들어, 도 20과 같이, 사용자가 낮 12시 53분을 입력하면, 제어부(150)는 낮 12시 53분에 대응되는 위치(고도)에 태양을 배치시키고, 해당 위치(고도)에 배치된 태양으로부터 가상 전시 공간에 입사되는 가상의 빛이 반영되도록 배경 컨텐츠를 생성할 수 있다. Based on the time input by the user, the controller 150 may generate background content by including light source information reflecting the corresponding time information. For example, as shown in FIG. 20 , when the user inputs 12:53 noon, the controller 150 places the sun at a position (altitude) corresponding to 12:53 noon, and arranges it at the corresponding position (altitude) Background content may be generated so that virtual light incident on the virtual exhibition space from the sun is reflected.
나아가, 제어부(150)는 사용자로부터 입력받은 날씨 정보 및 시간 정보가 반영된 광원 정보를 포함하여 배경 컨텐츠를 생성한 경우, 배경 컨텐츠에 포함된 광원 정보에 의하여 메인 컨텐츠의 픽셀값을 변경 시킬 수 있다. 이 과정에 대한 설명은 앞서 설명하였으므로 생략하도록 한다. Furthermore, when the background content is generated including light source information to which weather information and time information received from the user are reflected, the controller 150 may change the pixel value of the main content according to the light source information included in the background content. Since the description of this process has been described above, it will be omitted.
나아가, 제어부(150)는 사용자로부터 특정 메인 컨텐츠를 입력받을 수 있다. 이를 위해, 제어부(150)는 도 21에 도시된 것과 같이 디스플레이부에 “관람하고 싶은 작가를 선택하세요”와 같은 멘트와 함께 작가의 이름 및 이미지(클림트(1111), 고흐(1112), 르누아르(1113) 등)를 출력할 수 있다. Furthermore, the control unit 150 may receive a specific main content input from the user. To this end, the control unit 150, as shown in FIG. 21, along with a message such as “Please select an artist you want to view” on the display unit, along with the name and image of the artist (Klimt 1111, Van Gogh 1112, Renoir (Klimt 1111), Van Gogh (1112), Renoir ( 1113), etc.) can be output.
사용자는 디스플레이부에 출력된 작가의 이름 및 이미지 중 관람하고 싶은 어느 하나의 작가(ex: 고흐(1112))를 선택할 수 있다. 또는 작가의 이름을 “고흐”와 같이 발화할 수 있다The user may select any one artist (eg, Van Gogh 1112 ) to view among the names and images of the artist output on the display unit. Alternatively, the author's name can be uttered like "Van Gogh".
제어부(150)는 사용자로부터 어느 하나의 작가가 선택되면, 선택된 작가(1121)의 작품명(1122)들을 디스플레이부에 출력할 수 있다. 사용자는, 전자기기 또는 본 발명에 따른 시스템(100)의 터치키(touch key), 푸시키(mechanical key), 키보드(Keyboard), 마우스(mouse), 조이패드(joypad) 등을 이용하여 관람하고 싶은 적어도 하나의 작품명을 선택하거나, “별이 빛나는 밤에”와 같이 음성을 발화 할 수 있다. 사용자가 발화하는 음성은 전자기기 또는 본 발명에 따른 시스템(100)의 마이크로폰(microphone) 또는 오디오 입력부를 통해 입력될 수 있다. When any one artist is selected by the user, the controller 150 may output the titles 1122 of the selected artist 1121 to the display unit. The user wants to view by using an electronic device or a touch key, a mechanical key, a keyboard, a mouse, a joypad, etc. of the system 100 according to the present invention. You can select at least one work title, or utter a voice, such as “Starry Night”. The voice uttered by the user may be input through an electronic device or a microphone or an audio input unit of the system 100 according to the present invention.
한편, 사용자는 가상 전시 공간에 전시된 메인 컨텐츠들 중 어느 하나의 메인 컨텐츠에 대한 확대 요청을 본 발명에 따른 시스템(100)으로 전송할 수 있다. Meanwhile, the user may transmit an enlargement request for any one of the main contents displayed in the virtual exhibition space to the system 100 according to the present invention.
제어부(150)는 통신부(110) 또는 입력부(120를 통해 특정 메인 컨텐츠에 대한 확대 요청을 수신하면, 도 22의 (a)와 같이 “선택한 그림을 확대하시겠습니까?”와 같은 안내 멘트를 출력할 수 있다. 제어부(150)는 사용자로부터 선택한 그림의 확대 승낙을 수신하면, 도 22(b)에 도시된 것과 같이, 해당 메인 컨텐츠를 메인 뷰에 단독으로 출력할 수 있다.When receiving an enlargement request for a specific main content through the communication unit 110 or the input unit 120, the control unit 150 may output a guide message such as “Do you want to enlarge the selected picture?” as shown in (a) of FIG. 22 . When receiving approval of enlargement of the selected picture from the user, the control unit 150 may output the corresponding main content to the main view alone, as shown in FIG.
사용자는 특정 제스처(1210)를 입력받아, 메인 컨텐츠의 특정 영역(1220)를 확대 또는 축소할 수 있다. 예를 들어, 제어부(150)는 사용자가 두 손가락을 오므리면 메인 컨텐츠의 특정 영역(1220)을 축소시키고, 두 손가락을 펴면 메인 컨텐츠의 특정 영역(1220)을 확대 시킬 수 있다. 이러한 사용자의 제스처는 본 발명에 따른 센싱부(미도시)의 의하여 검출될 수 있다. The user may receive a specific gesture 1210 to enlarge or reduce the specific area 1220 of the main content. For example, the controller 150 may reduce the specific area 1220 of the main content when the user closes two fingers, and enlarge the specific area 1220 of the main content when the user opens the two fingers. Such a user's gesture may be detected by a sensing unit (not shown) according to the present invention.
한편, 앞서 설명한 바와 같이, 본 발명에서의 메인 컨텐츠는, 전시물(예를 들어, 그림과 같은 미술 작품)의 일 영역을 촬영한 서로 다른 복수개의 조각 이미지를 조합함으로써 생성되는, 초고화질 이미지일 수 있다. On the other hand, as described above, the main content in the present invention may be an ultra-high-definition image that is generated by combining a plurality of different sculptural images obtained by photographing a region of an exhibition object (eg, a work of art such as a painting). have.
따라서, 본 발명에 따른 시스템(100)은 사용자가 메인 컨텐츠를 확대하는 경우에도, 메인 컨텐츠의 화질이 깨지지 않고, 고화질의 선명한 이미지를 사용자에게 제공할 수 있다. Accordingly, the system 100 according to the present invention can provide a user with a high-quality, clear image without breaking the image quality of the main content even when the user enlarges the main content.
위에서 살펴본 것과 같이, 본 발명에 따른 실감형 가상 전시 공간 제공 방법 및 시스템은, 메인 컨텐츠의 시각적 특성을 이용하여, 가상 전시 공간의 배경 컨텐츠를 생성함으로써, 실감형 컨텐츠를 생성할 수 있다. 따라서, 사용자는 메인 컨텐츠의 질감이나 색상 등을 더욱 실감나게 느낄 수 있고, 나아가, 실제 전시 공간에서 전시물을 관람하는 것과 같은 느낌을 제공 받을 수 있다. As described above, the method and system for providing an immersive virtual exhibition space according to the present invention can generate immersive content by generating background content of the virtual exhibition space using the visual characteristics of the main content. Accordingly, the user can feel the texture or color of the main content more realistically, and furthermore, the user can be provided with the feeling of viewing an exhibition in an actual exhibition space.
나아가, 본 발명에 따른 실감형 가상 전시 공간 제공 방법 및 시스템은, 시간 및 날씨 등에 따라 가상 전시 공간의 환경을 다르게 제공할 수 있다. 따라서, 사용자는 비오는 날 명화와 같은 미술 작품을 관람하고 싶으면 가상 전시 공간의 분위기를 비오는 날과 같이 설정하고, 밤에 미술 작품을 관람하고 싶으면 가상 전시 공간의 분위기를 밤으로 설정함으로써, 미술 작품 감상에 재미를 느끼고, 실제 체험하지 못하는 경험을 대체하여 경험할 수 있다. Furthermore, the method and system for providing an immersive virtual exhibition space according to the present invention can provide a different environment of the virtual exhibition space according to time and weather. Therefore, if the user wants to view an art work such as a masterpiece on a rainy day, he sets the atmosphere of the virtual exhibition space to the same as on a rainy day, and if he wants to view an art work at night, sets the atmosphere of the virtual exhibition space to night. You can have fun with it and experience it instead of an experience you can't actually experience.
이러한, 실감형 컨텐츠가 가상 현실, 증강현실, 혼합현실, 또는 확장현실 등 다양한 기술에 따른 방법으로 사용자에게 제공되는 경우, 사용자는 미술관 또는 박물관 등에서 전시되는 작품을 언제라도 손쉽게 접할 수 있다. 이를 통해, 사용자는 풍부한 문화 예술 콘텐츠를 향유할 수 있다. 나아가, 미술관 또는 박물관은 보다 많은 사용자에게 작품에 해당하는 콘텐츠를 제공함으로써, 사용자의 관심을 향상시킬 수 있다. When the immersive content is provided to the user by a method according to various technologies such as virtual reality, augmented reality, mixed reality, or extended reality, the user can easily access works displayed in art galleries or museums at any time. Through this, users can enjoy rich cultural and artistic contents. Furthermore, art galleries or museums may provide more users with content corresponding to works, thereby enhancing user interest.
한편, 위에서 살펴본 본 발명은, 컴퓨터에서 하나 이상의 프로세스에 의하여 실행되며, 이러한 컴퓨터로 판독될 수 있는 매체(또는 기록 매체)에 저장 가능한 프로그램으로서 구현될 수 있다.Meanwhile, the present invention described above may be implemented as a program storable in a computer-readable medium (or recording medium), which is executed by one or more processes in a computer.
나아가, 위에서 살펴본 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드 또는 명령어로서 구현하는 것이 가능하다. 즉, 본 발명은 프로그램의 형태로 제공될 수 있다. Furthermore, the present invention as seen above can be implemented as computer-readable codes or instructions on a medium in which a program is recorded. That is, the present invention may be provided in the form of a program.
한편, 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. Meanwhile, the computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is this.
나아가, 컴퓨터가 읽을 수 있는 매체는, 저장소를 포함하며 전자기기가 통신을 통하여 접근할 수 있는 서버 또는 클라우드 저장소일 수 있다. 이 경우, 컴퓨터는 유선 또는 무선 통신을 통하여, 서버 또는 클라우드 저장소로부터 본 발명에 따른 프로그램을 다운로드 받을 수 있다.Furthermore, the computer-readable medium may be a server or a cloud storage that includes a storage and that an electronic device can access through communication. In this case, the computer may download the program according to the present invention from a server or cloud storage through wired or wireless communication.
나아가, 본 발명에서는 위에서 설명한 컴퓨터는 프로세서, 즉 CPU(Central Processing Unit, 중앙처리장치)가 탑재된 전자기기로서, 그 종류에 대하여 특별한 한정을 두지 않는다.Furthermore, in the present invention, the computer described above is an electronic device equipped with a processor, that is, a CPU (Central Processing Unit, Central Processing Unit), and there is no particular limitation on the type thereof.
한편, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.On the other hand, the above detailed description should not be construed as limiting in all respects, but should be considered as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (10)

  1. 대상 이미지에 대응되는 서로 다른 복수개의 조각 이미지를 수신하는 단계;Receiving a plurality of different pieces of images corresponding to the target image;
    상기 복수개의 조각 이미지 각각의 유사성에 근거하여, 상기 복수개의 조각 이미지를 조합하는 단계;combining the plurality of fragment images based on the similarity of each of the plurality of fragment images;
    상기 조합의 결과 생성되는 원본 이미지가 기 특정된 질감을 갖도록 상기 원본 이미지에 캔버스 맵(Canvas Map)을 적용하는 단계; 및applying a canvas map to the original image so that the original image generated as a result of the combination has a predetermined texture; and
    상기 캔버스 맵(Canvas Map)이 적용된 원본 이미지에, 가상 공간에 입사되는 가상의 빛의 반사 특성이 반영되도록 노말 맵(Normal Map)을 적용하는 단계를 포함하는 것을 특징으로 하는 초고화질 이미지 구현 방법.and applying a normal map to the original image to which the Canvas Map is applied so that reflection characteristics of virtual light incident on a virtual space are reflected.
  2. 제1항에 있어서,According to claim 1,
    상기 복수개의 조각 이미지는 기 설정된 해상도 기준을 만족하는 이미지들이고,The plurality of fragment images are images that satisfy a preset resolution standard,
    상기 복수개의 조각 이미지의 어느 하나는 다른 하나와 적어도 일부가 중첩되는 이미지 정보를 포함하는 것을 특징으로 하는 초고화질 이미지 구현 방법.Any one of the plurality of fragment images comprises image information that at least partially overlaps with the other one.
  3. 제2항에 있어서,3. The method of claim 2,
    상기 원본 이미지를 생성하는 단계는,The step of generating the original image comprises:
    상기 조합된 조각 이미지들에 대해 엣지 블렌딩(edge blending)을 수행하는 것을 특징으로 하는 초고화질 이미지 구현 방법.An ultra-high-definition image implementation method, characterized in that edge blending is performed on the combined fragment images.
  4. 제3항에 있어서,4. The method of claim 3,
    상기 엣지 블렌딩은,The edge blending is
    상기 복수개의 조각 이미지들 중 상호 중첩되는 이미지 정보를 포함하는 제1 조각 이미지 및 제2 조각 이미지 각각의 상기 상호 중첩되는 이미지 정보가 오버랩되도록 하는 것임을 특징으로 하는 초고화질 이미지 구현 방법.The super-high-definition image implementation method, characterized in that the mutually overlapping image information of each of the first fragment image and the second fragment image including mutually overlapping image information among the plurality of fragment images is overlapped.
  5. 제1항에 있어서,According to claim 1,
    상기 캔버스 맵을 적용하는 단계에서는,In the step of applying the canvas map,
    상기 원본 이미지에, 상기 기 특정된 질감에 대응되는 레이어를 합성하여, 상기 캔버스 맵이 적용된 원본 이미지를 생성하는 것을 특징으로 하는 초고화질 이미지 구현 방법.A method for realizing an ultra-high-definition image, characterized in that by synthesizing the original image with a layer corresponding to the specified texture, the original image to which the canvas map is applied is generated.
  6. 제5항에 있어서, 6. The method of claim 5,
    상기 노말 맵을 적용하는 단계는,The step of applying the normal map is,
    가상의 광원에 대한 위치, 형태, 세기, 빛의 진행 방향 중 적어도 하나를 정의하는 광원 정보에 기반하여 수행되는 것을 특징으로 하는 초고화질 이미지 구현 방법.A method for realizing an ultra-high-definition image, characterized in that it is performed based on light source information defining at least one of a location, a shape, an intensity, and a direction of light with respect to a virtual light source.
  7. 제6항에 있어서, 7. The method of claim 6,
    상기 노말 맵을 적용하는 단계에서는,In the step of applying the normal map,
    상기 광원 정보 및 상기 노말 맵에 포함된 노말 벡터에 기반하여, 상기 원본 이미지를 구성하는 픽셀 각각에 대한 반사각 정보를 산출하는 단계; 및calculating reflection angle information for each pixel constituting the original image based on the light source information and a normal vector included in the normal map; and
    상기 반사각 정보에 기반하여, 상기 원본 이미지를 구성하는 픽셀 각각에 대한 새로운 픽셀값을 산출하는 단계를 더 포함하는 것을 특징으로 하는 초고화질 이미지 구현 방법.The method of claim 1, further comprising calculating a new pixel value for each pixel constituting the original image based on the reflection angle information.
  8. 제6항에 있어서,7. The method of claim 6,
    상기 광원 정보를 변경하는 단계; changing the light source information;
    상기 변경된 광원 정보 및 상기 노말 맵에 포함된 노말 벡터에 기반하여, 상기 원본 이미지를 구성하는 픽셀 각각에 대한 반사각 정보를 재산출하는 단계; 및recalculating reflection angle information for each pixel constituting the original image based on the changed light source information and a normal vector included in the normal map; and
    상기 재산출된 반사각 정보에 기반하여, 상기 원본 이미지를 구성하는 픽셀 각각에 대한 새로운 픽셀값을 재산출하는 단계를 더 포함하는 것을 특징으로 하는 초고화질 이미지 구현 방법.Based on the recalculated reflection angle information, the method further comprising the step of recalculating a new pixel value for each pixel constituting the original image.
  9. 제8항에 있어서,9. The method of claim 8,
    상기 노말 맵이 적용된 원본 이미지를, 상기 가상 공간을 재현하는 전자기기에 제공하는 단계를 더 포함하고,The method further comprising the step of providing the original image to which the normal map is applied, to an electronic device that reproduces the virtual space,
    상기 제공하는 단계에서는,In the step of providing,
    상기 반사각 정보에 기반하여 산출된 새로운 픽셀값을 포함하는 원본 이미지를 제공하는 것을 특징으로 하는 초고화질 이미지 구현 방법.A method for realizing an ultra-high-definition image, comprising providing an original image including a new pixel value calculated based on the reflection angle information.
  10. 대상 이미지에 대응되는 서로 다른 복수개의 조각 이미지를 수신하는 통신부; 및a communication unit configured to receive a plurality of different pieces of image corresponding to the target image; and
    상기 복수개의 조각 이미지 각각의 유사성에 근거하여, 상기 복수개의 조각 이미지를 조합하는 제어부를 포함하고,a control unit for combining the plurality of fragment images based on the similarity of each of the plurality of fragment images;
    상기 제어부는, The control unit is
    상기 조합의 결과 생성되는 원본 이미지가 기 특정된 질감을 갖도록 상기 원본 이미지에 캔버스 맵(Canvas Map)을 적용하고, applying a canvas map to the original image so that the original image generated as a result of the combination has a predetermined texture,
    상기 캔버스 맵(Canvas Map)이 적용된 원본 이미지에, 가상 공간에 입사되는 가상의 빛의 반사 특성이 반영되도록 노말 맵(Normal Map)을 적용하는 것을 특징으로 하는 초고화질 이미지 구현 시스템.Super high-definition image realization system, characterized in that applying a normal map (Normal Map) to the original image to which the Canvas Map is applied so that the reflection characteristics of the virtual light incident on the virtual space are reflected.
PCT/KR2021/003542 2021-03-03 2021-03-23 Method and system for providing immersive content by using ultra-high-definition image WO2022186417A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020210028412A KR102336156B1 (en) 2021-03-03 2021-03-03 Method and system for realizing ultra-high quality images
KR10-2021-0028412 2021-03-03
KR1020210030352 2021-03-08
KR10-2021-0030352 2021-03-08

Publications (1)

Publication Number Publication Date
WO2022186417A1 true WO2022186417A1 (en) 2022-09-09

Family

ID=83154516

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/003542 WO2022186417A1 (en) 2021-03-03 2021-03-23 Method and system for providing immersive content by using ultra-high-definition image

Country Status (1)

Country Link
WO (1) WO2022186417A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006323450A (en) * 2005-05-17 2006-11-30 Toppan Printing Co Ltd Simulation image generator, simulation image generation method, computation program, and recording medium recorded with program
KR20100124077A (en) * 2009-05-18 2010-11-26 연세대학교 산학협력단 Apparatus and method for generating non-photorealistic video using non-photorealistic rendering, and the recording media storing the program performing the said method
KR20180082170A (en) * 2017-01-10 2018-07-18 트라이큐빅스 인크. Method and system for detection of three dimension face model
KR20180119695A (en) * 2016-04-06 2018-11-02 페이스북, 인크. Create efficient canvas views from intermediate views
KR20190126411A (en) * 2017-03-21 2019-11-11 매직 립, 인코포레이티드 Methods, Devices, and Systems for Illuminating Spatial Light Modulators

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006323450A (en) * 2005-05-17 2006-11-30 Toppan Printing Co Ltd Simulation image generator, simulation image generation method, computation program, and recording medium recorded with program
KR20100124077A (en) * 2009-05-18 2010-11-26 연세대학교 산학협력단 Apparatus and method for generating non-photorealistic video using non-photorealistic rendering, and the recording media storing the program performing the said method
KR20180119695A (en) * 2016-04-06 2018-11-02 페이스북, 인크. Create efficient canvas views from intermediate views
KR20180082170A (en) * 2017-01-10 2018-07-18 트라이큐빅스 인크. Method and system for detection of three dimension face model
KR20190126411A (en) * 2017-03-21 2019-11-11 매직 립, 인코포레이티드 Methods, Devices, and Systems for Illuminating Spatial Light Modulators

Similar Documents

Publication Publication Date Title
WO2017164716A1 (en) Method and device for processing multimedia information
WO2017116216A1 (en) Method for displaying contents on basis of smart desktop and smart terminal
WO2017111268A1 (en) Deformable display device and image display method using same
WO2012111966A2 (en) Lecture method and device in virtual lecture room
WO2015119444A1 (en) Electronic device and method for controlling displays
WO2016085173A1 (en) Device and method of providing handwritten content in the same
WO2018169135A1 (en) Terminal and method of controlling therefor
WO2017188696A1 (en) Method, device, and recording medium for providing user interface in vr space
WO2015199381A1 (en) Mobile terminal and method for controlling the same
WO2016104952A1 (en) Display apparatus and display method
WO2016175424A1 (en) Mobile terminal and method for controlling same
WO2019125036A1 (en) Image processing method and display apparatus therefor
WO2016093510A1 (en) Display apparatus and display method
WO2019045183A1 (en) System and method for providing voice recognition image feedback
WO2015194773A1 (en) Display device and driving method therefor
WO2021029497A1 (en) Immersive display system and method thereof
WO2020145659A1 (en) Signal processing device and image display apparatus including the same
EP3227800A1 (en) Device and method for outputting response
WO2018190517A1 (en) Electronic apparatus and method for displaying contents thereof
WO2022154387A1 (en) Electronic device and operation method therefor
WO2010120120A2 (en) Method for providing user interaction in laser and apparatus for the same
WO2019066133A1 (en) System for implementing virtual mobile terminal in mixed reality, and control method therefor
WO2022186417A1 (en) Method and system for providing immersive content by using ultra-high-definition image
WO2017018561A1 (en) Exhibition space control system and exhibition space control method
WO2021080154A1 (en) Electronic device and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21929279

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21929279

Country of ref document: EP

Kind code of ref document: A1