WO2022103190A1 - Method and device for generating texture of three-dimensional model - Google Patents

Method and device for generating texture of three-dimensional model Download PDF

Info

Publication number
WO2022103190A1
WO2022103190A1 PCT/KR2021/016503 KR2021016503W WO2022103190A1 WO 2022103190 A1 WO2022103190 A1 WO 2022103190A1 KR 2021016503 W KR2021016503 W KR 2021016503W WO 2022103190 A1 WO2022103190 A1 WO 2022103190A1
Authority
WO
WIPO (PCT)
Prior art keywords
texture
noise
image processing
camera
processing apparatus
Prior art date
Application number
PCT/KR2021/016503
Other languages
French (fr)
Korean (ko)
Inventor
박병재
김희근
이재민
Original Assignee
주식회사 예간아이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 예간아이티 filed Critical 주식회사 예간아이티
Publication of WO2022103190A1 publication Critical patent/WO2022103190A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/44Morphing

Definitions

  • the present invention relates to image processing, and to a method and apparatus for generating a texture of a three-dimensional model.
  • Three-dimensional (3-demension) modeling refers to modeling or virtualizing the real world or the unreal world in a three-dimensional form and implementing it. Such three-dimensional modeling can be accomplished by expressing a three-dimensional target object as geometric data.
  • the 3D modeling may be generated by 3D scanning the target object.
  • a picture created by scanning describes the distance from each point of interest to a surface. Accordingly, the three-dimensional position of each point in the picture can be identified.
  • a scan operation in several directions is required to obtain information in all directions of the target object, and such a scanning operation takes a considerable amount of time.
  • An object of the present invention is to provide a method and apparatus for effectively generating a texture of a three-dimensional model.
  • An object of the present invention is to provide a method and apparatus for effectively removing noise from a texture of a 3D model.
  • An image processing method performed by an image processing apparatus includes generating a basic texture using a reference camera among a plurality of cameras for photographing a target, the plurality of cameras
  • the method may include generating at least one candidate image using at least one candidate camera, and removing noise of the base texture by using the at least one candidate image.
  • the reference camera may include a camera that includes a photographing surface of the target among the plurality of cameras in a photographing range and has a lens direction most similar to a direction perpendicular to the surface.
  • the at least one candidate camera may include at least one camera including a photographing surface of the target among the plurality of cameras in a photographing range.
  • the removing of the noise may include: determining a corrected value by combining values representing pixels on the same three-dimensional coordinates in the base texture and the at least one candidate image; It may include the step of setting as
  • Combination of the values includes averaging the values, and weights for the averaging may vary according to a plurality of regions in which the basic texture is divided.
  • the removing of the noise may include: determining differential values for each candidate image with respect to values representing pixels on the same three-dimensional coordinates in the base texture and the at least one candidate image; This may include applying the value to the base texture.
  • the removing of the noise includes: morphing a 3-dimensional object according to the shape of the boundary line of the basic texture, and projecting the basic texture onto the morphed 3-dimensional object;
  • the method may include morphing the 3D object according to a shape of a boundary line of the auxiliary texture generated from the at least one candidate image, and projecting the auxiliary texture onto the morphed 3D object.
  • the removing of the noise may include: obtaining information related to the noise; extracting noise from the basic texture based on the information related to the noise; and removing the noise in an area in which the noise exists. It may include the step of performing an operation for.
  • the method may further include adjusting the color of the candidate images based on the reference texture.
  • the adjustment value for adjusting the color may be determined based on pixel values of the noise-free portion.
  • An image processing apparatus includes a processor and a memory.
  • the processor generates a basic texture by using a reference camera among a plurality of cameras for photographing a target, and generates at least one candidate image by using at least one candidate camera among the plurality of cameras; , the noise of the base texture may be removed by using the at least one candidate image.
  • the computer-readable recording medium according to an embodiment of the present invention may be a computer-readable recording medium in which a computer program for performing the image processing method according to the above-described embodiment is recorded.
  • FIG. 1 is a diagram illustrating an image processing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an example of a source image capturing environment of a texture of a three-dimensional (3-dimension) model according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an embodiment of a procedure for generating a texture of a 3D model according to an embodiment of the present invention.
  • 4A and 4B are diagrams illustrating examples of mapping of a 3D model and a 2D image expressed in a 3D coordinate system according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating another embodiment of a procedure for generating a texture of a 3D model according to an embodiment of the present invention.
  • references to 'connected', 'connecting', 'fastened', 'fastening', 'coupled', 'coupled', etc., and various variations of these expressions, refer to other elements directly It is used in the sense of being connected or indirectly connected through other elements.
  • the present invention proposes a method and apparatus for generating a texture of a three-dimensional model.
  • the present invention proposes a technique for reducing or removing noise included in a source image in generating a texture of a 3D model.
  • a two-dimensional (2-dimension) image can be used as a source.
  • the two-dimensional image used as the source may include noise depending on the photographing environment.
  • the noise may be caused by lighting, etc. present in a photographing environment of a two-dimensional image.
  • noise may be caused by distortion of the color of pixels in a captured image due to light reflection of lighting. Therefore, in order to improve the quality of a three-dimensional model, it is necessary to remove or reduce noise in a two-dimensional image used as a source of a texture of the three-dimensional model.
  • the image processing apparatus 100 includes a processor 110 , a memory 120 , a communication unit 130 , an input unit 140 , and an output unit 150 .
  • the configuration of FIG. 1 is exemplary, and some of the listed components may be omitted, or other components not listed may be further included.
  • the processor 110 controls the operation of the image processing apparatus 100 .
  • the processor 110 may control at least one of the memory 120 , the communication unit 130 , the input unit 140 , and the output unit 150 . That is, the processor 110 may control other components so that the image processing apparatus 100 performs operations according to various embodiments to be described later.
  • the memory 120 stores data such as a basic program, an application program, and setting information for the operation of the image processing apparatus 100 . Also, the memory 120 stores temporary data generated during the operation of the image processing apparatus 100 . The memory 120 may provide stored data according to the request of the processor 110 .
  • the communication unit 130 performs functions for transmitting and receiving signals to and from another external device (eg, an external camera).
  • the communication unit 130 may support wired communication or wireless communication.
  • the communication unit 130 may perform channel encoding, modulation, demodulation, and channel decoding.
  • the input unit 140 performs functions for detecting a user's input.
  • the input unit 140 may transmit a command or data input by a user to the processor 110 to the processor 110 .
  • the input unit 140 may include at least one hardware module for input.
  • the hardware module may include at least one of a keyboard, a mouse, a digitizer, a sensor, a touchpad, and a button.
  • the output unit 150 outputs data and information to be recognized by a user.
  • the output unit 150 may configure and display a visually recognizable screen.
  • the output unit 150 may be replaced with another device capable of outputting a form recognizable by other senses in addition to being visually recognizable.
  • the output unit 150 may include at least one hardware module for output.
  • hardware modules include speakers, liquid crystal display (LCD), light emitting diode (LED), light emitting polymer display (LPD), organic light emitting diode (OLED), active matrix organic light emitting diode (AMOLED), and FLED. (Flexible LED) may include at least one of.
  • Noise removal according to various embodiments of the present disclosure is performed using a plurality of cameras.
  • An environment for acquiring a source image of a texture according to an embodiment of the present invention is shown in FIG. 2 below.
  • FIG. 2 is a diagram illustrating an example of a source image capturing environment of a texture of a 3D model according to an embodiment of the present invention.
  • a plurality of cameras 211 , 212a , 212b , and 212c are disposed around a photographing target 210 for acquiring a texture.
  • One of the plurality of cameras 211 , 212a , 212b , 212c may be selected as the reference camera 211 , and the others 212a , 212b , 212c may be used as a candidate camera or a child camera.
  • the reference camera 211 among the plurality of cameras 211 , 212a , 212b and 212c is at least one of a field of view (FOV), a distance to the target 210, and an angle to the target 210 .
  • FOV field of view
  • a camera in which a surface to be photographed and a lens direction of the target 210 are closest to a vertical direction and all of the targets 210 are included in the photographing area may be selected as the reference camera 211 .
  • the image captured by the reference camera 2110 becomes a basic texture
  • the images captured by the candidate cameras 212a, 212b, and 212c become an auxiliary texture for compensating for noise of the basic texture.
  • the plurality of cameras 211 , 212a , 212b , and 212c may be understood as some components of the image processing apparatus or may be understood as separate apparatuses. That is, referring to FIGS. 1 and 2 , the plurality of cameras 211 , 212a , 212b , and 212c may be a part of the input unit 140 . Alternatively, the plurality of cameras 211 , 212a , 212b , and 212c may be connected to another device having a communication function, and the image processing apparatus 100 may receive captured images from the other device through the communication unit 130 . .
  • 3 is a diagram illustrating an embodiment of a procedure for generating a texture of a 3D model according to an embodiment of the present invention. 3 illustrates an operation method of the image processing apparatus 100 of FIG. 1 .
  • the image processing apparatus generates a basic texture using a reference camera.
  • the image processing apparatus selects a camera having a camera view that best expresses a texture among a plurality of cameras as a reference camera, and generates a basic texture based on an image captured by the reference camera.
  • the camera view that best expresses the texture may mean that the target for photographing for obtaining the texture includes all, and the direction of the view and the angle between the targets are closest to vertical.
  • the image processing apparatus generates at least one candidate image by using at least one candidate camera.
  • the image processing apparatus acquires at least one image captured by at least one candidate camera different from the primary camera.
  • the at least one candidate camera has a camera view different from the default camera, but has a camera view representing a texture to be used in a 3D model.
  • the at least one candidate camera may be a camera that captures the target at a different angle or distance from the primary camera.
  • the image processing apparatus removes noise from the base texture by using at least one candidate image. For example, the image processing apparatus generates at least one auxiliary texture from at least one candidate image, and corrects at least one pixel value of the basic texture using pixel values of at least one auxiliary texture having the same 3D coordinates. .
  • the image processing apparatus removes noise from the base texture by using at least one candidate image.
  • the noise removal operation using the candidate image may be defined in various ways.
  • the image processing apparatus may combine values representing the same pixel having the same 3D coordinates in the base texture and at least one auxiliary texture, and set the combined value as a value of the corresponding pixel. That is, the image processing apparatus may determine a corrected value for each coordinate by combining values of the base texture and at least one auxiliary texture for each 3D coordinate, and set the corrected value as a pixel value on the corresponding coordinate.
  • combining may include an averaging operation.
  • the averaging may be performed with the same weight regardless of the region of the texture.
  • the image processing apparatus may divide the texture into a plurality of regions and apply different weights according to the regions. For example, in an area in which noise is not generated or generated in a small amount, the image processing apparatus may set the weight of the base texture to be relatively higher than that of the auxiliary textures. On the other hand, with respect to an area in which noise is generated above a certain level, the image processing apparatus may set the weights for the auxiliary textures to be relatively higher than that of the basic textures.
  • the adaptive setting of these weights can be made by leveling the level of noise and defining a combination of weights for each level. Alternatively, the adaptive setting of the weight may be made by quantifying the level of noise and defining a weight determining function having a value indicating the level of noise as an input.
  • the image processing apparatus may remove noise by removing a difference in expression between the base texture and the auxiliary textures.
  • the image processing apparatus may remove a visual expression expressed in the basic texture but not expressed in the auxiliary texture with respect to the same pixel on 3D coordinates.
  • the image processing apparatus may remove noise included in the basic texture based on a difference value for each coordinate between the primary texture and the secondary texture. For example, the image processing apparatus generates a plurality of difference values such as 'basic texture-auxiliary texture #1', 'basic texture-auxiliary texture #2', ... 'basic texture-auxiliary texture #n' for each three-dimensional coordinates.
  • the maximum difference value among the difference values for each coordinate may be applied to the corresponding coordinates of the basic texture.
  • 'primary texture-secondary texture#1', 'primary texture-secondary texture#2', ... of 'primary texture-secondary texture#n', 'primary texture-secondary texture#2' has the maximum value.
  • the image processing apparatus may subtract the 'basic texture-auxiliary texture #2' from the pixel value of the corresponding coordinates.
  • the noise removal operation of removing the difference in expression may be performed based on the average value of two or more auxiliary textures, not the pixel value of one specific auxiliary texture.
  • the image processing apparatus may operate as follows in units of coordinates. The image processing apparatus classifies the pixel values of the primary texture and the auxiliary texture into a plurality of value sections, and then sets the target value by averaging the pixel values of the textures included in the value section to which the most textures belong. Then, the image processing apparatus sets the current value by averaging the pixel values of at least one texture included in the value section to which the basic texture belongs. Finally, the image processing apparatus uses the difference value between the target value and the current value to correct the pixel value of the corresponding coordinate of the base texture (eg, add the difference value to the pixel value).
  • the image processing apparatus may remove noise from the base texture by using the auxiliary textures.
  • morphing and projection operations may be performed. The morphing and projection operations will be described as follows.
  • FIGS. 4A and 4B are diagrams illustrating examples of mapping of a 3D model and a 2D image expressed in a 3D coordinate system according to an embodiment of the present invention.
  • Figure 4a is a three-dimensional model by loading the mesh of the three-dimensional model in the three-dimensional coordinate system, and then projecting the obtained two-dimensional image into the three-dimensional coordinate system according to the shooting information in the direction taken from the position of the camera in the three-dimensional coordinate system.
  • An example in which a mesh and a two-dimensional image are superimposed is shown.
  • projecting a two-dimensional image into a three-dimensional coordinate system means that the two-dimensional image is captured in the shooting direction of the camera from which the two-dimensional image was acquired at the position of the three-dimensional coordinate system corresponding to the position of the camera from which the two-dimensional image was acquired. It means that the 3D space maps the 2D image according to the acquired angle of view of the camera. This may be performed by setting the user's screen view point to the field of view of the corresponding camera, expressing the 3D model to the user, and superimposing the 2D image therewith. 4A shows a result screen according to this.
  • the two-dimensional image of the three-dimensional model may not coincide with the corresponding surface of the three-dimensional shape represented by the mesh.
  • one vertex 410 of the 3D model and one vertex 420 in the 2D image are displaced from each other. This phenomenon may occur depending on the distortion characteristics of the camera and the surface area characteristics of the scan target (eg, a transparent surface).
  • the image processing apparatus may modify the shape of the 3D model so that the expression of the corresponding part of the 3D model matches the 2D image based on the 2D image representing the specific region of the 3D model.
  • the image processing apparatus may display coordinates representing a part (eg, vertices) of the 3D model mesh in a part (eg, vertices) corresponding to the part (eg, vertices) expressed in the 2D image projected in the 3D coordinate system. : By moving to the coordinates where the vertices are expressed), the mesh of the 3D model and the representation of the 2D image can be matched with each other.
  • the image processing apparatus may display coordinates representing a part (eg, vertices) of the 3D model mesh in a part (eg, vertices) corresponding to the part (eg, vertices) expressed in the two-dimensional image projected in the 3D coordinate system. coordinates expressed) is received, and accordingly, the mesh of the 3D model and the representation of the 2D image can be matched with each other.
  • the image processing apparatus may match expressions by moving one vertex 410 of the 3D model to one vertex 420 in the 2D image.
  • the result according to this is shown in FIG. 4B.
  • the image processing apparatus may record the modified details in order to restore the shape of the 3D model modified later.
  • the image processing apparatus may generate a texture using a 2D image corresponding to the mesh of the modified 3D model. For example, the image processing apparatus selects a portion of a two-dimensional image corresponding to a face of a mesh, generates a coordinate correspondence relationship between both data as a UV map, and converts a portion of the two-dimensional image into a texture can be saved as
  • the image processing apparatus restores the shape of the modified 3D model to the original shape by using the shape modification history of the 3D model or the 3D model node position correspondence relationship before and after modification, and restores the texture according to the restored shape to the original 3 It can be applied to the texture of the dimensional model.
  • the shape of the 3D model even if the mesh of the 3D model is modified, since UV expresses the correspondence between the modified mesh and the 2D image as it is, even on the deformed mesh of the modified 3D model, the A texture by a part may be expressed in a deformed shape.
  • the image processing apparatus identifies a difference between a shape of a 2D image corresponding to a view of the camera and a shape of a 3D model corresponding thereto for each view of the camera, and a task list for texture improvement in the order of the camera with the highest difference can be created and presented to the user.
  • a texture creation procedure including the aforementioned morphing and projection operations is described below with reference to FIG. 4 .
  • 5 is a diagram illustrating another embodiment of a procedure for generating a texture of a 3D model according to an embodiment of the present invention. 5 exemplifies an operation method of the image processing apparatus 100 of FIG. 1 .
  • the image processing apparatus selects a reference camera specified as one surface.
  • the image processing apparatus may select a reference camera based on location information, direction information, and location information of a target photographed to obtain a texture and direction information of the cameras.
  • the image processing apparatus may select a camera whose angle between the surface and the lens direction is closest to a right angle as the reference camera while including the entire surface to be used as a texture among the surfaces of the target in the camera view.
  • the image processing apparatus may select a reference camera based on images captured by each of the cameras.
  • the image processing apparatus may select a reference camera as a camera that has captured an image having the highest sharpness among captured images.
  • the image processing apparatus may display images captured by a plurality of cameras, and select a camera that has captured an image designated by a user as a reference camera.
  • the image processing apparatus selects a candidate camera group corresponding to the selected reference camera. That is, the image processing apparatus selects other cameras for capturing other images to be used to remove noise of the basic texture obtained by the reference camera.
  • other cameras included in the candidate camera group may be selected from among cameras included in the shooting range without cutting off the shooting surface of the target.
  • other cameras included in the candidate camera group may be selected from among cameras including all feature points of textures within a shooting range.
  • other cameras included in the candidate camera group may be predefined. That is, a candidate camera group corresponding to each camera may be predefined.
  • the image processing apparatus morphs the 3D object based on the feature point of the target of the reference camera.
  • the shape of the surface of the 3D object and the boundary line may not match due to a shooting angle or the like. Accordingly, the image processing apparatus may change the shape of the 3D object to match the shape of the boundary line of the surface to which the texture is to be mapped with the captured image.
  • the image processing apparatus projects the basic texture captured by the reference camera.
  • the image processing apparatus maps the basic texture to the morphed 3D object.
  • a mask may be applied to the base texture in consideration of the subsequent projection of the auxiliary textures.
  • the image processing apparatus may restore the shape of the morphed 3D object after projection.
  • the image processing device projects the auxiliary texture captured by the candidate camera.
  • the image processing apparatus maps the auxiliary texture to the 3D object.
  • the image processing apparatus may morph the 3D object according to the shape of the boundary line of the auxiliary texture and then project the auxiliary texture.
  • the image processing apparatus may restore the shape of the morphed 3D object. That is, morphing and restoration operations may be performed for each camera before and after texture projection.
  • the image processing apparatus adjusts a color value based on the color of the reference camera. Color values for the same part may be different from each other due to camera settings that capture the target, product characteristics of the camera, and external interference at the time of shooting. Accordingly, the image processing apparatus adjusts color values of candidate images captured by the candidate cameras based on the reference image captured by the reference camera. For example, the image processing apparatus calculates difference values of pixel values for each coordinate between the reference image and one candidate image, and then calculates the average value of the difference values corresponding to the noise-free portion among all the difference values for all pixels of the candidate image. Values can be reflected (eg subtracted). That is, the average value uses the difference values of the noise-free portion, but the color value adjustment is applied to the entire image.
  • the image processing apparatus may select a portion having a relatively low value from among all the distributions of the difference values.
  • the image processing apparatus may select some difference values based on the coordinate values.
  • the image processing apparatus merges the projected textures.
  • the image processing apparatus merges the plurality of projected textures. In this case, merging may be performed on the entire texture or part of the texture.
  • the image processing apparatus may divide the texture into a plurality of regions, identify at least one region in which noise is present, and then merge the textures with respect to the at least one identified region.
  • the image processing apparatus adjusts color values of candidate images according to the reference image.
  • the color values are adjusted based on the analysis result of the pixel values.
  • the image processing apparatus may generate a plurality of color adjustment results and then display the generated results. Accordingly, when the user designates one result, the image processing apparatus may apply the designated result. This is in consideration of errors in judgment of the noise region, and the like.
  • noise included in the basic texture obtained through the primary camera may be removed by using the auxiliary textures obtained through the candidate cameras.
  • the characteristics of noise are known, it is expected that noise can be removed more effectively.
  • the image processing apparatus may utilize information on a cause of noise.
  • noise may be caused by lighting.
  • the image processing apparatus may obtain information on the location, brightness, color, etc. of the installed lighting, and predict the noise characteristics based on the obtained information.
  • the image processing apparatus may obtain information on the surface material of the target to be photographed, and predict noise characteristics based on the material.
  • the image processing apparatus may extract the noise from the basic texture based on the noise characteristic. Accordingly, the image processing apparatus may perform a noise removal operation only in an area in which the extracted noise exists. In this case, the noise removal operation is prevented from being performed even in a noise-free region, so that the amount of computation can be reduced.
  • the image processing apparatus and the image processing method according to the embodiment described above may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium.
  • the computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the medium may be specially designed and configured according to the embodiment, or may be known and available to those skilled in the art of computer software.
  • Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks.
  • - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
  • the content disclosed in this specification may be used to remove noise of a texture.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)

Abstract

The present invention is to generate a texture of a three-dimensional (3-dimension) model, and an image processing method performed by an image processing device according to an embodiment of the present invention may comprise the steps of: generating a basic texture by using a reference camera among a plurality of cameras for photographing a target; generating at least one candidate image by using at least one candidate camera among the plurality of cameras; and removing noise of the basic texture by using the at least one candidate image.

Description

3차원 모델의 텍스처를 생성하기 위한 방법 및 장치Method and apparatus for generating a texture of a three-dimensional model
본 발명은 영상 처리에 관한 것으로, 3차원(3-demension) 모델의 텍스처를 생성하기 위한 방법 및 장치에 대한 것이다.The present invention relates to image processing, and to a method and apparatus for generating a texture of a three-dimensional model.
3차원(3-demension) 모델링은 현실 세계 또는 비현실 세계를 3차원적인 형태로 모델화 또는 가상화하여 구현하는 것을 뜻한다. 이러한 3차원 모델링은 3차원의 대상 객체를 기하학적 데이터로 표현함으로써 이루어질 수 있다.Three-dimensional (3-demension) modeling refers to modeling or virtualizing the real world or the unreal world in a three-dimensional form and implementing it. Such three-dimensional modeling can be accomplished by expressing a three-dimensional target object as geometric data.
과거에는, 현실 세계의 측량성과 기반 3차원 묘사 구축 방식이 비효율적으로 간주됨에 따라 측량성과를 이용하지 않고, 사진이나 현장 답사를 통한 목(目)측에 근거한 대략적 3D 모델링이 이뤄지거나 비현실 세계에 대한 모델링이 주로 이루었다. 그러나, 근래에는, 측량 기술의 발달과 사진 측량 툴의 개발 및 컴퓨터 그래픽 기술의 발전으로 현실 세계에 대한 3D 모델링 작업이 점진적으로 진행되고 있다.In the past, as the method of constructing a three-dimensional depiction based on the survey performance of the real world was considered inefficient, approximate 3D modeling based on the neck side through photos or site visits was made without using survey results, or Modeling was mainly done. However, in recent years, 3D modeling work for the real world has been gradually progressed due to the development of surveying technology, the development of photogrammetry tools, and the development of computer graphics technology.
일 예로, 3D 모델링은 대상 객체를 3D 스캐닝함으로써 생성될 수 있다. 스캐닝에 의해 생성된 픽쳐(picture)는 해당 각 포인트에서 한 표면에 대한 거리를 기술한다. 따라서, 픽처 내의 각 포인트의 3차원 위치가 식별될 수 있다. 이러한 기술의 경우, 대상 객체의 모든 방향들에서의 정보를 입수하기 위해 여러 방향들에서의 스캔 작업이 필요하며, 이러한 스캔 작업은 상당한 작업 시간을 소요하게 한다.As an example, the 3D modeling may be generated by 3D scanning the target object. A picture created by scanning describes the distance from each point of interest to a surface. Accordingly, the three-dimensional position of each point in the picture can be identified. In the case of this technique, a scan operation in several directions is required to obtain information in all directions of the target object, and such a scanning operation takes a considerable amount of time.
본 발명은 3차원(3-demension) 모델의 텍스처(texture)를 효과적으로 생성하기 위한 방법 및 장치를 제공하기 위한 것이다.An object of the present invention is to provide a method and apparatus for effectively generating a texture of a three-dimensional model.
본 발명은 3차원 모델의 텍스처에서 노이즈(noise)를 효과적으로 제거하기 위한 방법 및 장치를 제공하기 위한 것이다.An object of the present invention is to provide a method and apparatus for effectively removing noise from a texture of a 3D model.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be able
본 발명의 일 실시 예에 따른 영상 처리 장치에 의하여 수행되는 영상 처리 방법은, 타겟(target)을 촬영하기 위한 복수의 카메라들 중 기준 카메라를 이용하여 기본 텍스처를 생성하는 단계, 상기 복수의 카메라들 중 적어도 하나의 후보 카메라를 이용하여 적어도 하나의 후보 이미지를 생성하는 단계, 및 상기 적어도 하나의 후보 이미지를 이용하여 상기 기본 텍스처의 노이즈를 제거하는 단계를 포함할 수 있다.An image processing method performed by an image processing apparatus according to an embodiment of the present invention includes generating a basic texture using a reference camera among a plurality of cameras for photographing a target, the plurality of cameras The method may include generating at least one candidate image using at least one candidate camera, and removing noise of the base texture by using the at least one candidate image.
여기서, 상기 기준 카메라는, 상기 복수의 카메라들 중 상기 타겟의 촬영되는 면을 촬영 범위에 포함하고, 상기 면과 수직인 방향과 가장 유사한 렌즈 방향을 가지는 카메라를 포함할 수 있다.Here, the reference camera may include a camera that includes a photographing surface of the target among the plurality of cameras in a photographing range and has a lens direction most similar to a direction perpendicular to the surface.
또한, 상기 적어도 하나의 후보 카메라는, 상기 복수의 카메라들 중 상기 타겟의 촬영되는 면을 촬영 범위에 포함하는 적어도 하나의 카메라를 포함할 수 있다.In addition, the at least one candidate camera may include at least one camera including a photographing surface of the target among the plurality of cameras in a photographing range.
상기 노이즈를 제거하는 단계는, 상기 기본 텍스처 및 상기 적어도 하나의 후보 이미지에서 동일한 3차원 좌표 상의 픽셀을 표현하는 값들을 결합함으로써 보정된 값을 결정하는 단계, 및 상기 보정된 값을 해당 픽셀의 값으로서 설정하는 단계를 포함할 수 있다.The removing of the noise may include: determining a corrected value by combining values representing pixels on the same three-dimensional coordinates in the base texture and the at least one candidate image; It may include the step of setting as
상기 값들의 결합은, 상기 값들의 평균화를 포함하며, 상기 평균화를 위한 가중치들은, 상기 기본 텍스처를 분할한 복수의 영역들에 따라 달라질 수 있다.Combination of the values includes averaging the values, and weights for the averaging may vary according to a plurality of regions in which the basic texture is divided.
상기 노이즈를 제거하는 단계는, 상기 기본 텍스처 및 상기 적어도 하나의 후보 이미지에서 동일한 3차원 좌표 상의 픽셀을 표현하는 값들에 대한 후보 이미지 별 차분(differential) 값들을 결정하는 단계, 및 상기 차분 값들 중 최대 값을 기본 텍스처에 적용하는 단계를 포함할 수 있다.The removing of the noise may include: determining differential values for each candidate image with respect to values representing pixels on the same three-dimensional coordinates in the base texture and the at least one candidate image; This may include applying the value to the base texture.
상기 노이즈를 제거하는 단계는, 상기 기본 텍스처의 경계선의 모양에 따라 3차원(3-dimension) 객체(object)를 모핑(morphing)하고, 모핑된 3차원 객체에 상기 기본 텍스처를 투영하는 단계, 및 상기 적어도 하나의 후보 이미지로부터 생성된 보조 텍스처의 경계선의 모양에 따라 상기 3차원 객체를 모핑하고, 모핑된 3차원 객체에 상기 보조 텍스처를 투영하는 단계를 포함할 수 있다.The removing of the noise includes: morphing a 3-dimensional object according to the shape of the boundary line of the basic texture, and projecting the basic texture onto the morphed 3-dimensional object; The method may include morphing the 3D object according to a shape of a boundary line of the auxiliary texture generated from the at least one candidate image, and projecting the auxiliary texture onto the morphed 3D object.
상기 노이즈를 제거하는 단계는, 상기 노이즈에 관련된 정보를 획득하는 단계, 상기 노이즈에 관련된 정보에 기반하여 상기 기본 텍스처에서 노이즈를 추출하는 단계, 및 상기 노이즈가 존재하는 영역에 대하여 상기 노이즈를 제거하기 위한 연산을 수행하는 단계를 포함할 수 있다.The removing of the noise may include: obtaining information related to the noise; extracting noise from the basic texture based on the information related to the noise; and removing the noise in an area in which the noise exists. It may include the step of performing an operation for.
상기 방법은, 상기 후보 이미지들이 색상을 상기 기준 텍스처에 기반하여 조정하는 단계를 더 포함할 수 있다. 여기서, 상기 색상을 조정하기 위한 조정 값은, 상기 노이즈가 없는 부분의 픽셀 값들에 기반하여 결정될 수 있다.The method may further include adjusting the color of the candidate images based on the reference texture. Here, the adjustment value for adjusting the color may be determined based on pixel values of the noise-free portion.
본 발명의 일 실시 예에 따른 영상 처리 장치는, 프로세서 및 메모리를 포함한다. 상기 프로세서는, 타겟(target)을 촬영하기 위한 복수의 카메라들 중 기준 카메라를 이용하여 기본 텍스처를 생성하고, 상기 복수의 카메라들 중 적어도 하나의 후보 카메라를 이용하여 적어도 하나의 후보 이미지를 생성하고, 상기 적어도 하나의 후보 이미지를 이용하여 상기 기본 텍스처의 노이즈를 제거할 수 있다.An image processing apparatus according to an embodiment of the present invention includes a processor and a memory. The processor generates a basic texture by using a reference camera among a plurality of cameras for photographing a target, and generates at least one candidate image by using at least one candidate camera among the plurality of cameras; , the noise of the base texture may be removed by using the at least one candidate image.
본 발명의 일 실시 예에 따른 컴퓨터로 읽을 수 있는 기록 매체는 전술한 일 실시 예에 따른 영상 처리 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체일 수 있다.The computer-readable recording medium according to an embodiment of the present invention may be a computer-readable recording medium in which a computer program for performing the image processing method according to the above-described embodiment is recorded.
본 발명에 따르면, 3차원(3-dimension) 모델을 위한 보다 우수한 품질의 텍스처(texture)를 생성할 수 있다.According to the present invention, it is possible to generate a texture (texture) of better quality for a three-dimensional (3-dimension) model.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.
도 1은 본 발명의 일 실시 예에 따른 영상 처리 장치를 나타내는 도면이다.1 is a diagram illustrating an image processing apparatus according to an embodiment of the present invention.
도 2는 본 발명의 일 실시 예에 따라 3차원(3-dimension) 모델의 텍스처(texture)의 소스(source) 이미지 촬영 환경의 예를 나타내는 도면이다.2 is a diagram illustrating an example of a source image capturing environment of a texture of a three-dimensional (3-dimension) model according to an embodiment of the present invention.
도 3은 본 발명의 일 실시 예에 따라 3차원 모델의 텍스처를 생성하기 위한 절차의 일 실시 예를 나타내는 도면이다.3 is a diagram illustrating an embodiment of a procedure for generating a texture of a 3D model according to an embodiment of the present invention.
도 4a 및 4b는 본 발명의 일 실시 예에 따른 3차원 좌표계에서 표현되는 3차원 모델 및 2차원 이미지의 맵핑의 예를 나타내는 도면이다.4A and 4B are diagrams illustrating examples of mapping of a 3D model and a 2D image expressed in a 3D coordinate system according to an embodiment of the present invention.
도 5는 본 발명의 일 실시 예에 따라 3차원 모델의 텍스처를 생성하기 위한 절차의 다른 실시 예를 나타내는 도면이다.5 is a diagram illustrating another embodiment of a procedure for generating a texture of a 3D model according to an embodiment of the present invention.
이하의 내용은 단지 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시 되지 않았지만 발명의 원리를 구현하고 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다. The following is merely illustrative of the principles of the invention. Therefore, those skilled in the art can devise various devices that, although not explicitly described or shown herein, embody the principles of the invention and are included in the spirit and scope of the invention. In addition, it should be understood that all conditional terms and examples listed herein are, in principle, expressly intended only for the purpose of understanding the inventive concept and are not limited to the specifically enumerated embodiments and states as such. .
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. The above-described objects, features and advantages will become more apparent through the following detailed description in relation to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the invention pertains will be able to easily practice the technical idea of the invention. .
명세서 및 청구범위에서 "제 1", "제 2", "제 3" 및 "제 4" 등의 용어는, 만약 있는 경우, 유사한 구성요소 사이의 구분을 위해 사용되며, 반드시 그렇지는 않지만 특정 순차 또는 발생 순서를 기술하기 위해 사용된다. 그와 같이 사용되는 용어는 여기에 기술된 본 발명의 실시예가, 예컨대, 여기에 도시 또는 설명된 것이 아닌 다른 시퀀스로 동작할 수 있도록 적절한 환경하에서 호환 가능한 것이 이해될 것이다. 마찬가지로, 여기서 방법이 일련의 단계를 포함하는 것으로 기술되는 경우, 여기에 제시된 그러한 단계의 순서는 반드시 그러한 단계가 실행될 수 있는 순서인 것은 아니며, 임의의 기술된 단계는 생략될 수 있고/있거나 여기에 기술되지 않은 임의의 다른 단계가 그 방법에 부가 가능할 것이다. In the specification and claims, terms such as "first," "second," "third," and "fourth," are used, if any, to distinguish between like elements and, if not necessarily, in a specific sequence. or to describe the order of occurrence. It will be understood that the terms so used are interchangeable under appropriate circumstances to enable the embodiments of the invention described herein to operate, for example, in sequences other than those shown or described herein. Likewise, where methods are described herein as comprising a series of steps, the order of those steps presented herein is not necessarily the order in which those steps may be performed, and any described steps may be omitted and/or Any other steps not described may be added to the method.
또한 명세서 및 청구범위의 "왼쪽", "오른쪽", "앞", "뒤", "상부", "바닥", "위에", "아래에" 등의 용어는, 설명을 위해 사용되는 것이며, 반드시 불변의 상대적 위치를 기술하기 위한 것은 아니다. 그와 같이 사용되는 용어는 여기에 기술된 본 발명의 실시예가, 예컨대, 여기에 도시 또는 설명된 것이 아닌 다른 방향으로 동작할 수 있도록 적절한 환경하에서 호환 가능한 것이 이해될 것이다. 여기서 사용된 용어 "연결된"은 전기적 또는 비 전기적 방식으로 직접 또는 간접적으로 접속되는 것으로 정의된다. 여기서 서로 "인접하는" 것으로 기술된 대상은, 그 문구가 사용되는 문맥에 대해 적절하게, 서로 물리적으로 접촉하거나, 서로 근접하거나, 서로 동일한 일반적 범위 또는 영역에 있는 것일 수 있다. 여기서 "일실시예에서"라는 문구의 존재는 반드시 그런 것은 아니지만 동일한 실시예를 의미한다.Also, terms such as "left", "right", "front", "behind", "top", "bottom", "above", "below" in the specification and claims are used for descriptive purposes, It is not necessarily intended to describe an invariant relative position. It will be understood that the terms so used are interchangeable under appropriate circumstances to enable the embodiments of the invention described herein to operate otherwise than, for example, as shown or described herein. As used herein, the term “connected” is defined as being directly or indirectly connected in an electrical or non-electrical manner. Objects described herein as being "adjacent" to one another may be in physical contact with one another, in proximity to one another, or in the same general scope or area as appropriate for the context in which the phrase is used. The presence of the phrase “in one embodiment” herein refers to the same, but not necessarily, embodiment.
또한 명세서 및 청구범위에서 '연결된다', '연결하는', '체결된다', '체결하는', '결합된다', '결합하는' 등과 이런 표현의 다양한 변형들의 지칭은 다른 구성요소와 직접적으로 연결되거나 다른 구성요소를 통해 간접적으로 연결되는 것을 포함하는 의미로 사용된다. In addition, in the specification and claims, references to 'connected', 'connecting', 'fastened', 'fastening', 'coupled', 'coupled', etc., and various variations of these expressions, refer to other elements directly It is used in the sense of being connected or indirectly connected through other elements.
또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "part" for components used in this specification are given or used in consideration of ease of writing the specification, and do not have a meaning or role distinct from each other by themselves.
또한 본 명세서에서 사용된 용어들은 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprise)' 및/또는 '포함하는(comprising)'은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.In addition, the terms used herein are for the purpose of describing the embodiments and are not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, 'comprise' and/or 'comprising' means that a referenced component, step, operation and/or element is the presence of one or more other components, steps, operations and/or elements. or addition is not excluded.
또한, 발명을 설명함에 있어서 발명과 관련된 공지 기술에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예에 대해 상세하게 설명한다.In addition, in the description of the invention, if it is determined that a detailed description of a known technology related to the invention may unnecessarily obscure the gist of the invention, the detailed description thereof will be omitted. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
이하 본 발명은 3차원(3-demension) 모델의 텍스처를 생성하기 위한 방법 및 장치에 대해 제안한다. 특히, 본 발명은 3차원 모델의 텍스처를 생성함에 있어서, 소스(source) 이미지에 포함된 노이즈(noise)를 감소 또는 제거하기 위한 기술을 제안한다.Hereinafter, the present invention proposes a method and apparatus for generating a texture of a three-dimensional model. In particular, the present invention proposes a technique for reducing or removing noise included in a source image in generating a texture of a 3D model.
3차원 모델에 텍스처를 맵핑하기 위해, 2차원(2-dimension) 이미지가 소스로서 사용될 수 있다. 이때, 소스로서 사용되는 2차원 이미지는 촬영 환경에 따라 노이즈를 포함할 수 있다. 예를 들어, 노이즈는 2차원 이미지의 촬영 환경에 존재하는 조명 등에 의해 발생할 수 있다. 구체적인 예로, 노이즈는 조명의 빛 반사로 인해 캡쳐된 이미지에서 픽셀의 색상이 왜곡되는 것에 의해 발생할 수 있다. 따라서, 3차원 모델의 품질 향상을 위해, 3차원 모델의 텍스처의 소스로서 사용되는 2차원 이미지에서 노이즈를 제거 또는 감소시키는 것이 필요하다.To map a texture to a three-dimensional model, a two-dimensional (2-dimension) image can be used as a source. In this case, the two-dimensional image used as the source may include noise depending on the photographing environment. For example, the noise may be caused by lighting, etc. present in a photographing environment of a two-dimensional image. As a specific example, noise may be caused by distortion of the color of pixels in a captured image due to light reflection of lighting. Therefore, in order to improve the quality of a three-dimensional model, it is necessary to remove or reduce noise in a two-dimensional image used as a source of a texture of the three-dimensional model.
도 1은 본 발명의 일 실시 예에 따른 영상 처리 장치를 나타내는 도면이다. 도 1을 참고하면, 영상 처리 장치(100)는 프로세서(110), 메모리(120), 통신부(130), 입력부(140), 출력부(150)를 포함한다. 도 1의 구성은 예시적인 것으로서, 나열된 구성요소들 중 일부가 생략될 수 있고, 또는 나열되지 않은 다른 구성요소가 더 포함될 수 있다.1 is a diagram illustrating an image processing apparatus according to an embodiment of the present invention. Referring to FIG. 1 , the image processing apparatus 100 includes a processor 110 , a memory 120 , a communication unit 130 , an input unit 140 , and an output unit 150 . The configuration of FIG. 1 is exemplary, and some of the listed components may be omitted, or other components not listed may be further included.
프로세서(110)는 영상 처리 장치(100)의 동작을 제어한다. 이하 설명하는 영상 처리 방법을 수행하기 위하여, 프로세서(110)는 메모리(120), 통신부(130), 입력부(140), 출력부(150) 중 적어도 하나를 제어할 수 있다. 즉, 프로세서(110)는 영상 처리 장치(100)이 후술하는 다양한 실시 예들에 따른 동작들을 수행하도록 다른 구성요소들을 제어할 수 있다.The processor 110 controls the operation of the image processing apparatus 100 . In order to perform the image processing method described below, the processor 110 may control at least one of the memory 120 , the communication unit 130 , the input unit 140 , and the output unit 150 . That is, the processor 110 may control other components so that the image processing apparatus 100 performs operations according to various embodiments to be described later.
메모리(120)는 영상 처리 장치(100)의 동작을 위한 기본 프로그램, 응용 프로그램, 설정 정보 등의 데이터를 저장한다. 또한, 메모리(120)는 영상 처리 장치(100)의 동작 중에 생성되는 임시 데이터를 저장한다. 메모리(120)는 프로세서(110)의 요청에 따라 저장된 데이터를 제공할 수 있다.The memory 120 stores data such as a basic program, an application program, and setting information for the operation of the image processing apparatus 100 . Also, the memory 120 stores temporary data generated during the operation of the image processing apparatus 100 . The memory 120 may provide stored data according to the request of the processor 110 .
통신부(130)는 외부의 다른 장치(예: 외부 카메라)와 신호를 송수신하기 위한 기능들을 수행한다. 통신부(130)는 유선 통신 또는 무선 통신을 지원할 수 있다. 예를 들어, 무선 통신을 수행하는 경우, 통신부(130)는 채널 인코딩, 변조, 복조, 채널 디코딩을 수행할 수 있다.The communication unit 130 performs functions for transmitting and receiving signals to and from another external device (eg, an external camera). The communication unit 130 may support wired communication or wireless communication. For example, when performing wireless communication, the communication unit 130 may perform channel encoding, modulation, demodulation, and channel decoding.
입력부(140)는 사용자의 입력을 감지하기 위한 기능들을 수행한다. 입력부(140)는 사용자로부터 입력된 명령 또는 데이터를 프로세서(110)에 프로세서(110)에 전달할 수 있다. 이를 위해, 입력부(140)는 입력을 위한 적어도 하나의 하드웨어 모듈을 포함할 수 있다. 예를 들어, 하드웨어 모듈은 키보드, 마우스, 디지타이저, 센서, 터치패드, 버튼 중 적어도 하나를 포함할 수 있다. The input unit 140 performs functions for detecting a user's input. The input unit 140 may transmit a command or data input by a user to the processor 110 to the processor 110 . To this end, the input unit 140 may include at least one hardware module for input. For example, the hardware module may include at least one of a keyboard, a mouse, a digitizer, a sensor, a touchpad, and a button.
출력부(150)는 사용자에 의해 인식 가능하도록 데이터 및 정보를 출력한다. 예를 들어, 출력부(150)는 시각적으로 인식 가능한 화면(screen)을 구성하고, 표시할 수 있다. 단, 다양한 실시 예들에 따라, 출력부(150)은 시각적으로 인식 가능한 것 외, 다른 감각으로 인지 가능한 형태의 출력을 할 수 있는 다른 장치로 대체될 수 있다. 이를 위해, 출력부(150)은 출력을 위한 적어도 하나의 하드웨어 모듈을 포함할 수 있다. 예를 들어, 하드웨어 모듈은 스피커, LCD(liquid crystal display), LED(Light Emitting Diode), LPD(light emitting polymer display), OLED(Organic Light Emitting Diode), AMOLED(Active Matrix Organic Light Emitting Diode), FLED(Flexible LED) 중 적어도 하나를 포함할 수 있다. The output unit 150 outputs data and information to be recognized by a user. For example, the output unit 150 may configure and display a visually recognizable screen. However, according to various embodiments, the output unit 150 may be replaced with another device capable of outputting a form recognizable by other senses in addition to being visually recognizable. To this end, the output unit 150 may include at least one hardware module for output. For example, hardware modules include speakers, liquid crystal display (LCD), light emitting diode (LED), light emitting polymer display (LPD), organic light emitting diode (OLED), active matrix organic light emitting diode (AMOLED), and FLED. (Flexible LED) may include at least one of.
본 발명의 다양한 실시 예들에 따른 노이즈 제거는 복수의 카메라들을 이용하여 수행된다. 본 발명의 실시 예에 따른 텍스처의 소스 이미지를 획득하기 위한 환경은 이하 도 2와 같다. Noise removal according to various embodiments of the present disclosure is performed using a plurality of cameras. An environment for acquiring a source image of a texture according to an embodiment of the present invention is shown in FIG. 2 below.
도 2는 본 발명의 일 실시 예에 따라 3차원 모델의 텍스처의 소스 이미지 촬영 환경의 예를 나타내는 도면이다. 도 2를 참고하면, 텍스처를 획득하기 위한 촬영 타겟(target)(210)의 주변에 복수의 카메라들(211, 212a, 212b, 212c)가 배치되어 있다. 복수의 카메라들(211, 212a, 212b, 212c) 중 하나가 기준 카메라(211)로서 선택될 수 있고, 나머지들(212a, 212b, 212c)은 후보 카메라 또는 자식(child) 카메라로서 사용될 수 있다. 여기서, 복수의 카메라들(211, 212a, 212b, 212c) 중 기준 카메라(211)는 화각(field of view, FOV), 타겟(210)과의 거리, 타겟(210)과의 각도 중 적어도 하나에 기반하여 선택될 수 있다. 예를 들어, 타겟(210)의 촬영되는 면과 렌즈 방향이 수직과 가장 가깝고, 촬영 영역에 타겟(210)이 모두 포함되는 카메라가 기준 카메라(211)로서 선택될 수 있다. 이때, 기준 카메라(2110)에 의해 캡쳐된 이미지는 기본 텍스처가 되고, 후보 카메라들(212a, 212b, 212c)에 의해 캡쳐된 이미지들은 기본 텍스처의 노이즈를 보상하기 위한 보조 텍스처가 된다. 2 is a diagram illustrating an example of a source image capturing environment of a texture of a 3D model according to an embodiment of the present invention. Referring to FIG. 2 , a plurality of cameras 211 , 212a , 212b , and 212c are disposed around a photographing target 210 for acquiring a texture. One of the plurality of cameras 211 , 212a , 212b , 212c may be selected as the reference camera 211 , and the others 212a , 212b , 212c may be used as a candidate camera or a child camera. Here, the reference camera 211 among the plurality of cameras 211 , 212a , 212b and 212c is at least one of a field of view (FOV), a distance to the target 210, and an angle to the target 210 . can be selected based on For example, a camera in which a surface to be photographed and a lens direction of the target 210 are closest to a vertical direction and all of the targets 210 are included in the photographing area may be selected as the reference camera 211 . In this case, the image captured by the reference camera 2110 becomes a basic texture, and the images captured by the candidate cameras 212a, 212b, and 212c become an auxiliary texture for compensating for noise of the basic texture.
여기서, 복수의 카메라들(211, 212a, 212b, 212c)은 영상 처리 장치의 일부 구성요소들로 이해되거나 또는 별도의 장치들로 이해될 수 있다. 즉, 도 1 및 도 2를 참고하면, 복수의 카메라들(211, 212a, 212b, 212c)은 입력부(140)의 일부일 수 있다. 또는, 복수의 카메라들(211, 212a, 212b, 212c)은 통신 기능을 가지는 다른 장치와 연결되고, 영상 처리 장치(100)는 통신부(130)를 통해 캡쳐된 이미지들을 다른 장치로부터 수신할 수 있다.Here, the plurality of cameras 211 , 212a , 212b , and 212c may be understood as some components of the image processing apparatus or may be understood as separate apparatuses. That is, referring to FIGS. 1 and 2 , the plurality of cameras 211 , 212a , 212b , and 212c may be a part of the input unit 140 . Alternatively, the plurality of cameras 211 , 212a , 212b , and 212c may be connected to another device having a communication function, and the image processing apparatus 100 may receive captured images from the other device through the communication unit 130 . .
도 3은 본 발명의 일 실시 예에 따라 3차원 모델의 텍스처를 생성하기 위한 절차의 일 실시 예를 나타내는 도면이다. 도 3은 도 1의 영상 처리 장치(100)의 동작 방법을 예시한다.3 is a diagram illustrating an embodiment of a procedure for generating a texture of a 3D model according to an embodiment of the present invention. 3 illustrates an operation method of the image processing apparatus 100 of FIG. 1 .
도 3을 참고하면, 301 단계에서, 영상 처리 장치는 기준 카메라를 이용하여 기본 텍스처를 생성한다. 영상 처리 장치는 복수의 카메라들 중 텍스처를 가장 잘 표현하는 카메라 뷰를 가지는 카메라를 기준 카메라로서 선택하고, 기준 카메라에 의해 캡쳐된 이미지에 기반하여 기본 텍스처를 생성한다. 예를 들어, 텍스처를 가장 잘 표현하는 카메라 뷰는 텍스처를 획득하기 위한 촬영의 타겟이 모두 포함하면서, 뷰의 방향 및 타겟 간 각도가 수직에 가장 가까운 것을 의미할 수 있다.Referring to FIG. 3 , in step 301 , the image processing apparatus generates a basic texture using a reference camera. The image processing apparatus selects a camera having a camera view that best expresses a texture among a plurality of cameras as a reference camera, and generates a basic texture based on an image captured by the reference camera. For example, the camera view that best expresses the texture may mean that the target for photographing for obtaining the texture includes all, and the direction of the view and the angle between the targets are closest to vertical.
303 단계에서, 영상 처리 장치는 적어도 하나의 후보 카메라를 이용하여 적어도 하나의 후보 이미지를 생성한다. 영상 처리 장치는 기본 카메라와 다른 적어도 하나의 후보 카메라에 의해 캡쳐된 적어도 하나의 이미지를 획득한다. 이때, 적어도 하나의 후보 카메라는 기본 카메라와 다른 카메라 뷰를 가지되, 3차원 모델에 사용될 텍스처를 표현하는 카메라 뷰를 가진다. 예를 들어, 적어도 하나의 후보 카메라는 타겟을 기본 카메라와 다른 각도 또는 다른 거리에서 촬영하는 카메라일 수 있다.In operation 303, the image processing apparatus generates at least one candidate image by using at least one candidate camera. The image processing apparatus acquires at least one image captured by at least one candidate camera different from the primary camera. In this case, the at least one candidate camera has a camera view different from the default camera, but has a camera view representing a texture to be used in a 3D model. For example, the at least one candidate camera may be a camera that captures the target at a different angle or distance from the primary camera.
305 단계에서, 영상 처리 장치는 적어도 하나의 후보 이미지를 이용하여 기본 텍스처의 노이즈를 제거한다. 예를 들어, 영상 처리 장치는 적어도 하나의 후보 이미지로부터 적어도 하나의 보조 텍스처를 생성하고, 기본 텍스처의 적어도 하나의 픽셀 값을 동일한 3차원 좌표의 적어도 하나의 보조 텍스처의 픽셀 값을 이용하여 보정한다. In operation 305, the image processing apparatus removes noise from the base texture by using at least one candidate image. For example, the image processing apparatus generates at least one auxiliary texture from at least one candidate image, and corrects at least one pixel value of the basic texture using pixel values of at least one auxiliary texture having the same 3D coordinates. .
도 3을 참고하여 설명한 실시 예에서, 영상 처리 장치는 적어도 하나의 후보 이미지를 이용하여 기본 텍스처의 노이즈를 제거한다. 이때, 후보 이미지를 이용하는 노이즈 제거 동작은 다양하게 정의될 수 있다.In the embodiment described with reference to FIG. 3 , the image processing apparatus removes noise from the base texture by using at least one candidate image. In this case, the noise removal operation using the candidate image may be defined in various ways.
일 실시 예에 따라, 영상 처리 장치는 기본 텍스처 및 적어도 하나의 보조 텍스처에서 동일한 3차원 좌표를 가지는 동일한 픽셀을 표현하는 값들을 결합하고, 결합된 값을 해당 픽셀의 값으로서 설정할 수 있다. 즉, 영상 처리 장치는 3차원 좌표 별로 기본 텍스처 및 적어도 하나의 보조 텍스처의 값들을 결합함으로써 좌표 별 보정된 값을 결정하고, 보정된 값을 해당 좌표 상의 픽셀 값으로 설정할 수 있다. 여기서, 결합은 평균화 연산을 포함할 수 있다. According to an embodiment, the image processing apparatus may combine values representing the same pixel having the same 3D coordinates in the base texture and at least one auxiliary texture, and set the combined value as a value of the corresponding pixel. That is, the image processing apparatus may determine a corrected value for each coordinate by combining values of the base texture and at least one auxiliary texture for each 3D coordinate, and set the corrected value as a pixel value on the corresponding coordinate. Here, combining may include an averaging operation.
이때, 평균화는 텍스처의 영역의 구분 없이 동일한 가중치로 수행될 수 있다. 하지만, 다른 실시 예에 따라, 영상 처리 장치는 텍스처를 복수의 영역들로 분할하고, 영역에 따라 서로 다른 가중치들을 적용될 수 있다. 예를 들어, 노이즈가 적게 발생하거나 발생하지 아니한 영역에 대해, 영상 처리 장치는 기본 텍스처에 대한 가중치를 보조 텍스처들에 비하여 상대적으로 높게 설정할 수 있다. 반면, 노이즈가 일정 수준 이상 발생한 영역에 대해, 영상 처리 장치는 보조 텍스처들에 대한 가중치를 기본 텍스처에 비하여 상대적으로 높게 설정할 수 있다. 이러한 가중치의 적응적 설정은 노이즈의 정도를 레벨화하고, 레벨별로 가중치들의 조합을 정의함으로써 이루어질 수 있다. 또는, 가중치의 적응적 설정은 노이즈의 정도를 수치화하고, 노이즈의 정도를 나타내는 값을 입력으로 하는 가중치 결정 함수를 정의함으로써 이루어질 수 있다. In this case, the averaging may be performed with the same weight regardless of the region of the texture. However, according to another embodiment, the image processing apparatus may divide the texture into a plurality of regions and apply different weights according to the regions. For example, in an area in which noise is not generated or generated in a small amount, the image processing apparatus may set the weight of the base texture to be relatively higher than that of the auxiliary textures. On the other hand, with respect to an area in which noise is generated above a certain level, the image processing apparatus may set the weights for the auxiliary textures to be relatively higher than that of the basic textures. The adaptive setting of these weights can be made by leveling the level of noise and defining a combination of weights for each level. Alternatively, the adaptive setting of the weight may be made by quantifying the level of noise and defining a weight determining function having a value indicating the level of noise as an input.
일 실시 예에 따라, 영상 처리 장치는 기본 텍스처 및 보조 텍스처들 간 표현의 차이를 제거함으로써 노이즈를 제거할 수 있다. 다시 말해, 영상 처리 장치는 3차원 좌표 상 동일한 픽셀에 대하여 기본 텍스처에서 표현되나 보조 텍스처에서 표현되지 아니하는 시각적 표현을 제거할 수 있다. 구체적으로, 영상 처리 장치는, 기본 텍스처 및 보조 텍스처 간 좌표 별 차분 값에 기반하여 기본 텍스처에 포함된 노이즈를 제거할 수 있다. 예를 들어, 영상 처리 장치는 3차원 좌표마다 '기본 텍스처-보조 텍스처#1', '기본 텍스처-보조 텍스처#2', ... '기본 텍스처-보조 텍스처#n' 등 복수의 차분 값들을 생성하고, 좌표 별 차분 값들 중 최대의 차분 값을 기본 텍스처의 해당 좌표에 적용할 수 있다. 예를 들어, '기본 텍스처-보조 텍스처#1', '기본 텍스처-보조 텍스처#2', ... '기본 텍스처-보조 텍스처#n' 중 '기본 텍스처-보조 텍스처#2'가 최대 값을 가지면, 영상 처리 장치는 해당 좌표의 픽셀 값에서 '기본 텍스처-보조 텍스처#2'를 감산할 수 있다.According to an embodiment, the image processing apparatus may remove noise by removing a difference in expression between the base texture and the auxiliary textures. In other words, the image processing apparatus may remove a visual expression expressed in the basic texture but not expressed in the auxiliary texture with respect to the same pixel on 3D coordinates. Specifically, the image processing apparatus may remove noise included in the basic texture based on a difference value for each coordinate between the primary texture and the secondary texture. For example, the image processing apparatus generates a plurality of difference values such as 'basic texture-auxiliary texture #1', 'basic texture-auxiliary texture #2', ... 'basic texture-auxiliary texture #n' for each three-dimensional coordinates. created, and the maximum difference value among the difference values for each coordinate may be applied to the corresponding coordinates of the basic texture. For example, 'primary texture-secondary texture#1', 'primary texture-secondary texture#2', ... of 'primary texture-secondary texture#n', 'primary texture-secondary texture#2' has the maximum value. , the image processing apparatus may subtract the 'basic texture-auxiliary texture #2' from the pixel value of the corresponding coordinates.
이때, 다른 실시 예에 따라, 표현의 차이를 제거하는 방식의 노이즈 제거 동작은 특정 하나의 보조 텍스처의 픽셀 값이 아닌 둘 이상의 보조 텍스처의 평균값에 기반하여 수행될 수 있다. 예를 들어, 영상 처리 장치는 좌표 단위로 다음과 같이 동작할 수 있다. 영상 처리 장치는 기본 텍스처 및 보조 텍스처의 픽셀 값들을 복수의 값 구간 별로 분류한 후, 가장 많은 텍스처들이 속한 값 구간에 포함된 텍스처들의 픽셀 값들을 평균화함으로써, 목표 값을 설정한다. 그리고, 영상 처리 장치는 기본 텍스처가 속한 값 구간에 포함된 적어도 하나의 텍스처들의 픽셀 값들을 평균화함으로써 현재 값을 설정한다. 마지막으로, 영상 처리 장치는 목표 값 및 현재 값의 차이 값을 이용하여 기본 텍스처의 해당 좌표의 픽셀 값을 보정(예: 픽셀 값에 차이 값을 합)한다.In this case, according to another embodiment, the noise removal operation of removing the difference in expression may be performed based on the average value of two or more auxiliary textures, not the pixel value of one specific auxiliary texture. For example, the image processing apparatus may operate as follows in units of coordinates. The image processing apparatus classifies the pixel values of the primary texture and the auxiliary texture into a plurality of value sections, and then sets the target value by averaging the pixel values of the textures included in the value section to which the most textures belong. Then, the image processing apparatus sets the current value by averaging the pixel values of at least one texture included in the value section to which the basic texture belongs. Finally, the image processing apparatus uses the difference value between the target value and the current value to correct the pixel value of the corresponding coordinate of the base texture (eg, add the difference value to the pixel value).
도 3을 참고하여 설명한 실시 예와 같이, 영상 처리 장치는 보조 텍스처들을 이용하여 기본 텍스처의 노이즈를 제거할 수 있다. 이때, 텍스처들 각각을 3차원 객체(object)에 맵핑시키기 위해, 모핑(morphing) 및 투영(projection) 동작이 수행될 수 있다. 모핑 및 투영 동작에 대해 설명하면 다음과 같다.As in the embodiment described with reference to FIG. 3 , the image processing apparatus may remove noise from the base texture by using the auxiliary textures. In this case, in order to map each of the textures to a 3D object, morphing and projection operations may be performed. The morphing and projection operations will be described as follows.
도 4a 및 4b는 본 발명의 일 실시 예에 따른 3차원 좌표계에서 표현되는 3차원 모델 및 2차원 이미지의 맵핑의 예를 나타내는 도면이다. 도 4a은 3차원 좌표계에서 3차원 모델의 메쉬를 로드한 후, 획득한 2차원 이미지를 3차원 좌표계에서의 카메라의 위치에서 촬영된 방향으로 촬영 정보에 따라 3차원 좌표계로 투영함으로써 3차원 모델의 메쉬와 2차원 이미지가 중첩되어 표시되는 예를 나타낸다. 여기서, 2차원 이미지를 3차원 좌표계로 투영한다고 함은, 2차원 이미지가 획득된 카메라의 위치와 대응되는 3차원 좌표계의 위치에서, 2차원 이미지가 획득된 카메라의 촬영 방향으로, 2차원 이미지가 획득된 카메라의 촬영 화각에 따라 2차원 이미지를 3차원 공간이 맵핑하는 것을 의미한다. 이는 해당 카메라의 시야로 사용자의 화면 시점을 설정하여 사용자에게 3차원 모델을 표현하고, 이와 함께 2차원 이미지를 중첩 표현함으로써 수행될 수 있다. 도 4a는 이에 따른 결과 화면을 나타낸다.4A and 4B are diagrams illustrating examples of mapping of a 3D model and a 2D image expressed in a 3D coordinate system according to an embodiment of the present invention. Figure 4a is a three-dimensional model by loading the mesh of the three-dimensional model in the three-dimensional coordinate system, and then projecting the obtained two-dimensional image into the three-dimensional coordinate system according to the shooting information in the direction taken from the position of the camera in the three-dimensional coordinate system. An example in which a mesh and a two-dimensional image are superimposed is shown. Here, projecting a two-dimensional image into a three-dimensional coordinate system means that the two-dimensional image is captured in the shooting direction of the camera from which the two-dimensional image was acquired at the position of the three-dimensional coordinate system corresponding to the position of the camera from which the two-dimensional image was acquired. It means that the 3D space maps the 2D image according to the acquired angle of view of the camera. This may be performed by setting the user's screen view point to the field of view of the corresponding camera, expressing the 3D model to the user, and superimposing the 2D image therewith. 4A shows a result screen according to this.
도 4a에 도시된 바와 같이, 3차원 모델의 2차원 이미지는 메쉬에 의하여 표현되는 3차원 형상의 해당 면과 일치하지 않을 수 있다. 도 4a의 예에서, 3차원 모델의 일 꼭지점(410)과 2D 이미지에서의 일 꼭지점(420)이 서로 어긋나 있다. 이러한 현상은 카메라의 왜곡 특성, 스캔 대상의 표면적 특성(예: 투명한 표면) 등에 따라 발생할 수 있다.As shown in FIG. 4A , the two-dimensional image of the three-dimensional model may not coincide with the corresponding surface of the three-dimensional shape represented by the mesh. In the example of FIG. 4A , one vertex 410 of the 3D model and one vertex 420 in the 2D image are displaced from each other. This phenomenon may occur depending on the distortion characteristics of the camera and the surface area characteristics of the scan target (eg, a transparent surface).
일 실시 예에서, 영상 처리 장치는 3차원 모델의 특정 영역을 표현하는 2차원 이미지를 기준으로 3차원 모델의 해당부분의 표현이 2차원 이미지에 일치하도록, 3차원 모델의 형상을 수정할 수 있다. 예를 들어, 영상 처리 장치는 3차원 모델 메쉬의 일 부분(예: 꼭지점)을 나타내는 좌표를 3차원 좌표계로 투영된 2차원 이미지에서 표현되는 상기 일 부분(예: 꼭지점)에 대응되는 부분(예: 꼭지점이 표현되는 좌표)으로 이동시킴으로써 3차원 모델의 메쉬와 2차원 이미지의 표현을 서로 일치시킬 수 있다. 또는 영상 처리 장치는 3차원 모델 메쉬의 일 부분(예: 꼭지점)을 나타내는 좌표를 3차원 좌표계로 투영된 2차원 이미지에서 표현되는 상기 일 부분(예: 꼭지점)에 대응되는 부분(예: 꼭지점이 표현되는 좌표)으로 이동시키는 사용자 입력을 수신하고, 이에 따라 3차원 모델의 메쉬와 2차원 이미지의 표현을 서로 일치시킬 수 있다.In an embodiment, the image processing apparatus may modify the shape of the 3D model so that the expression of the corresponding part of the 3D model matches the 2D image based on the 2D image representing the specific region of the 3D model. For example, the image processing apparatus may display coordinates representing a part (eg, vertices) of the 3D model mesh in a part (eg, vertices) corresponding to the part (eg, vertices) expressed in the 2D image projected in the 3D coordinate system. : By moving to the coordinates where the vertices are expressed), the mesh of the 3D model and the representation of the 2D image can be matched with each other. Alternatively, the image processing apparatus may display coordinates representing a part (eg, vertices) of the 3D model mesh in a part (eg, vertices) corresponding to the part (eg, vertices) expressed in the two-dimensional image projected in the 3D coordinate system. coordinates expressed) is received, and accordingly, the mesh of the 3D model and the representation of the 2D image can be matched with each other.
도 4a의 예와 같이, 영상 처리 장치는 3차원 모델의 일 꼭지점(410)을 2차원 이미지에서의 일 꼭지점(420)으로 이동시킴으로써 표현을 서로 일치시킬 수 있다. 이에 따른 결과는 도 4b와 같다. 이때, 영상 처리 장치는 추후 수정된 3차원 모델의 형상을 복원하기 위하여 수정된 내역을 기록할 수 있다. As in the example of FIG. 4A , the image processing apparatus may match expressions by moving one vertex 410 of the 3D model to one vertex 420 in the 2D image. The result according to this is shown in FIG. 4B. In this case, the image processing apparatus may record the modified details in order to restore the shape of the 3D model modified later.
그리고, 영상 처리 장치는 수정된 3차원 모델의 메쉬에 대응하는 2차원 이미지를 이용하여 텍스처를 생성할 수 있다. 예를 들어, 영상 처리 장치는 메쉬의 일 면(face)에 대응하는 2차원 이미지의 일 부분을 선택하고, 양 데이터 간의 좌표 대응 관계를 UV 맵으로 생성하며, 2차원 이미지의 일 부분을 이를 텍스처로 저장할 수 있다.In addition, the image processing apparatus may generate a texture using a 2D image corresponding to the mesh of the modified 3D model. For example, the image processing apparatus selects a portion of a two-dimensional image corresponding to a face of a mesh, generates a coordinate correspondence relationship between both data as a UV map, and converts a portion of the two-dimensional image into a texture can be saved as
그리고, 영상 처리 장치는 3차원 모델의 형상 수정내역 또는 수정 전후 3차원 모델 노드 위치 대응관계 등을 이용하여 수정된 3차원 모델의 형상을 원래 형상으로 복원하고, 복원된 형상에 맞춰 텍스처를 원본 3차원 모델의 텍스처에 적용할 수 있다. 3차원 모델의 형상을 복원함으로써, 3차원 모델의 메쉬가 수정되더라도, UV는 수정된 메쉬와 2차원 이미지 간의 대응관계를 그대로 표현하기 때문에, 수정된 3차원 모델의 변형된 메쉬 상에서도 2차원 이미지의 일 부분에 의한 텍스처가 변형된 형상에서 표현될 수 있다. In addition, the image processing apparatus restores the shape of the modified 3D model to the original shape by using the shape modification history of the 3D model or the 3D model node position correspondence relationship before and after modification, and restores the texture according to the restored shape to the original 3 It can be applied to the texture of the dimensional model. By restoring the shape of the 3D model, even if the mesh of the 3D model is modified, since UV expresses the correspondence between the modified mesh and the 2D image as it is, even on the deformed mesh of the modified 3D model, the A texture by a part may be expressed in a deformed shape.
또한, 복수의 카메라들이 사용되는 경우, 소정의 순서에 따라 순차적으로 개별 카메라의 뷰와 그에 기반하여 생성된 2차원 이미지를 이용하여, 3차원 공간을 바라보는 카메라 마다 3차원 모델의 형상을 변형함으로써 텍스처를 개선할 수 있다. 일 실시 예에서, 영상 처리 장치는 카메라의 뷰마다, 카메라의 뷰에 대응하는 2차원 이미지와 그에 대응하는 3차원 모델의 형상의 차이를 식별하고, 차이가 높은 카메라 순으로 텍스처 개선을 위한 작업 리스트를 생성하여 사용자에게 제시할 수도 있다.In addition, when a plurality of cameras are used, by using the views of individual cameras sequentially in a predetermined order and a two-dimensional image generated based thereon, by transforming the shape of the three-dimensional model for each camera looking at the three-dimensional space The texture can be improved. In an embodiment, the image processing apparatus identifies a difference between a shape of a 2D image corresponding to a view of the camera and a shape of a 3D model corresponding thereto for each view of the camera, and a task list for texture improvement in the order of the camera with the highest difference can be created and presented to the user.
전술한 모핑 및 투영 동작을 포함하는 텍스처 생성 절차가 이하 도 4를 참고하여 설명된다.A texture creation procedure including the aforementioned morphing and projection operations is described below with reference to FIG. 4 .
도 5는 본 발명의 일 실시 예에 따라 3차원 모델의 텍스처를 생성하기 위한 절차의 다른 실시 예를 나타내는 도면이다. 도 5는 도 1의 영상 처리 장치(100)의 동작 방법을 예시한다.5 is a diagram illustrating another embodiment of a procedure for generating a texture of a 3D model according to an embodiment of the present invention. 5 exemplifies an operation method of the image processing apparatus 100 of FIG. 1 .
도 5를 참고하면, 501 단계에서, 영상 처리 장치는 하나의 면으로 특정되는 기준 카메라를 선택한다. 일 실시 예에 따라, 영상 처리 장치는 카메라들의 위치 정보, 방향 정보, 텍스처를 획득하기 위해 촬영되는 타겟의 위치 정보, 방향 정보에 기반하여 기준 카메라를 선택할 수 있다. 예를 들어, 영상 처리 장치는 타겟의 면들 중 텍스처로서 사용될 일면 전체를 카메라 뷰에 포함시키면서, 면과 렌즈 방향 간의 각도가 직각에 가장 근접한 카메라를 기준 카메라로서 선택할 수 있다. 다른 실시 예에 따라, 영상 처리 장치는 카메라들 각각에 캡쳐된 이미지들에 기반하여 기준 카메라를 선택할 수 있다. 예를 들어, 영상 처리 장치는 캡쳐된 이미지들 중 가장 높은 선명도를 가지는 이미지를 캡쳐한 카메라를 기준 카메라를 선택할 수 있다. 또 다른 실시 예에 따라, 영상 처리 장치는 복수의 카메라들에 의해 캡쳐된 이미지들을 표시하고, 사용자에 의해 지정된 이미지를 캡쳐한 카메라를 기준 카메라로 선택할 수 있다. Referring to FIG. 5 , in step 501 , the image processing apparatus selects a reference camera specified as one surface. According to an embodiment, the image processing apparatus may select a reference camera based on location information, direction information, and location information of a target photographed to obtain a texture and direction information of the cameras. For example, the image processing apparatus may select a camera whose angle between the surface and the lens direction is closest to a right angle as the reference camera while including the entire surface to be used as a texture among the surfaces of the target in the camera view. According to another embodiment, the image processing apparatus may select a reference camera based on images captured by each of the cameras. For example, the image processing apparatus may select a reference camera as a camera that has captured an image having the highest sharpness among captured images. According to another embodiment, the image processing apparatus may display images captured by a plurality of cameras, and select a camera that has captured an image designated by a user as a reference camera.
403 단계에서, 영상 처리 장치는 선택된 기준 카메라에 대응하는 후보 카메라 그룹을 선택한다. 즉, 영상 처리 장치는 기준 카메라에 의해 획득되는 기본 텍스처의 노이즈를 제거하기 위하 사용할 다른 이미지들을 캡쳐하기 위한 다른 카메라들을 선택한다. 일 실시 예에 따라, 후보 카메라 그룹에 포함되는 다른 카메라들은 타겟의 촬영 면이 잘림 없이 모두 촬영 범위 내에 포함되는 카메라들 중 선택될 수 있다. 다른 실시 예에 따라, 후보 카메라 그룹에 포함되는 다른 카메라들은 텍스처의 특징점들이 모두 촬영 범위 내에 포함되는 카메라들 중 선택될 수 있다. 또 다른 실시 예에 따라, 후보 카메라 그룹에 포함되는 다른 카메라들은 미리 정의될 수 있다. 즉, 각 카메라에 대응하는 후보 카메라 그룹이 미리 정의될 수 있다.In operation 403, the image processing apparatus selects a candidate camera group corresponding to the selected reference camera. That is, the image processing apparatus selects other cameras for capturing other images to be used to remove noise of the basic texture obtained by the reference camera. According to an exemplary embodiment, other cameras included in the candidate camera group may be selected from among cameras included in the shooting range without cutting off the shooting surface of the target. According to another embodiment, other cameras included in the candidate camera group may be selected from among cameras including all feature points of textures within a shooting range. According to another embodiment, other cameras included in the candidate camera group may be predefined. That is, a candidate camera group corresponding to each camera may be predefined.
505 단계에서, 영상 처리 장치는 기준 카메라의 타겟의 특징점을 기준으로 3차원 객체를 모핑(morphing)한다. 타겟을 캡쳐함으로써 얻어진 이미지는 촬영 각도 등으로 인해 3차원 객체의 면과 경계선의 모양이 일치하지 아니할 수 있다. 따라서, 영상 처리 장치는 3차원 객체의 형상을 변형함으로써, 캡쳐된 이미지와 텍스처가 맵핑될 면의 경계선의 모양을 일치시킬 수 있다.In operation 505, the image processing apparatus morphs the 3D object based on the feature point of the target of the reference camera. In the image obtained by capturing the target, the shape of the surface of the 3D object and the boundary line may not match due to a shooting angle or the like. Accordingly, the image processing apparatus may change the shape of the 3D object to match the shape of the boundary line of the surface to which the texture is to be mapped with the captured image.
507 단계에서, 영상 처리 장치는 기준 카메라에 의해 캡쳐된 기본 텍스처를 투영(projection)한다. 다시 말해, 영상 처리 장치는 기본 텍스처를 모핑된 3차원 객체에 맵핑한다. 여기서, 이후에 보조 텍스처들이 더 투영됨을 고려하여, 기본 텍스처에 마스크(mask)가 적용될 수 있다. 도 5에 도시되지 아니하였으나, 영상 처리 장치는 투영 후, 모핑된 3차원 객체의 형상을 복원할 수 있다.In operation 507, the image processing apparatus projects the basic texture captured by the reference camera. In other words, the image processing apparatus maps the basic texture to the morphed 3D object. Here, a mask may be applied to the base texture in consideration of the subsequent projection of the auxiliary textures. Although not shown in FIG. 5 , the image processing apparatus may restore the shape of the morphed 3D object after projection.
509 단계에서, 영상 처리 장치는 후보 카메라에 의해 캡쳐된 보조 텍스처를 투영한다. 다시 말해, 영상 처리 장치는 보조 텍스처를 3차원 객체에 맵핑한다. 이때, 영상 처리 장치는 보조 텍스처의 경계선의 모양에 따라 3차원 객체를 모핑한 후, 보조 텍스처를 투영할 수 있다. 그리고, 영상 처리 장치는 모핑된 3차원 객체의 형상을 복원할 수 있다. 즉, 텍스처 투영의 전후에 모핑 및 복원 동작이 매 카메라 마다 수행될 수 있다.In step 509, the image processing device projects the auxiliary texture captured by the candidate camera. In other words, the image processing apparatus maps the auxiliary texture to the 3D object. In this case, the image processing apparatus may morph the 3D object according to the shape of the boundary line of the auxiliary texture and then project the auxiliary texture. In addition, the image processing apparatus may restore the shape of the morphed 3D object. That is, morphing and restoration operations may be performed for each camera before and after texture projection.
511 단계에서, 영상 처리 장치는 기준 카메라의 색상을 기준으로 컬러 값을 조정한다. 타겟을 촬영하는 카메라의 설정, 카메라의 제품 특성, 촬영 시점에서의 외부 간섭 등으로 인해 동일 부분에 대핸 컬러 값이 서로 다를 수 있다. 따라서, 영상 처리 장치는 기준 카메라에 의해 캡쳐된 기준 이미지를 기준으로 후보 카메라들에 의해 캡쳐된 후보 이미지들의 컬러 값을 조정한다. 예를 들어, 영상 처리 장치는 기준 이미지 및 하나의 후보 이미지 간 좌표 별 픽셀 값들의 차분 값들을 계산한 후, 전체 차분 값들 중 노이즈 없는 부분에 해당하는 차분 값들의 평균 값을 해당 후보 이미지의 모든 픽셀 값들에 반영할 수 있다(예: 감산). 즉, 평균 값은 노이즈가 없는 부분의 차분 값들을 이용하되, 컬러 값 조정은 이미지 전체에 적용된다. 여기서, 노이즈가 없는 부분에 해당하는 차분 값들을 선택하기 위해, 영상 처리 장치는 전체 차분 값들의 분포 중 상대적으로 낮은 값을 가지는 일부를 선택할 수 있다. 또는, 노이즈의 위치를 특정할 수 있다면, 영상 처리 장치는 좌표 값에 기반하여 일부 차분 값들을 선택할 수 있다.In operation 511, the image processing apparatus adjusts a color value based on the color of the reference camera. Color values for the same part may be different from each other due to camera settings that capture the target, product characteristics of the camera, and external interference at the time of shooting. Accordingly, the image processing apparatus adjusts color values of candidate images captured by the candidate cameras based on the reference image captured by the reference camera. For example, the image processing apparatus calculates difference values of pixel values for each coordinate between the reference image and one candidate image, and then calculates the average value of the difference values corresponding to the noise-free portion among all the difference values for all pixels of the candidate image. Values can be reflected (eg subtracted). That is, the average value uses the difference values of the noise-free portion, but the color value adjustment is applied to the entire image. Here, in order to select the difference values corresponding to the noise-free portion, the image processing apparatus may select a portion having a relatively low value from among all the distributions of the difference values. Alternatively, if the location of the noise can be specified, the image processing apparatus may select some difference values based on the coordinate values.
513 단계에서, 영상 처리 장치는 투영된 텍스처들을 병합한다. 영상 처리 장치는 투영된 복수의 텍스처들을 병합한다. 이때, 병합은 텍스처의 전체에 대하여 또는 텍스처의 일부에 대하여 수행될 수 있다. 일 실시 예에 따라, 영상 처리 장치는 텍스처를 복수의 영역들로 분할하고, 노이즈가 존재하는 적어도 하나의 영역을 식별한 후, 식별된 적어도 하나의 영역에 대하여만 텍스처들을 병합할 수 있다. In operation 513, the image processing apparatus merges the projected textures. The image processing apparatus merges the plurality of projected textures. In this case, merging may be performed on the entire texture or part of the texture. According to an embodiment, the image processing apparatus may divide the texture into a plurality of regions, identify at least one region in which noise is present, and then merge the textures with respect to the at least one identified region.
도 5를 참고하여 설명한 실시 예에서, 영상 처리 장치는 기준 이미지에 따라 후보 이미지들의 색상 값을 조정한다. 이때, 픽셀 값들의 분석 결과에 기반하여 색상 값들이 조정되는 것으로 설명되었다. 하지만, 다른 실시 예에 따라, 영상 처리 장치는 복수의 색상 조정 결과들을 생성한 후, 생성된 결과들을 표시할 수 있다. 이에 따라, 사용자가 하나의 결과를 지정하면, 영상 처리 장치는 지정된 결과를 적용할 수 있다. 이는 노이즈 영역의 판단의 오류 등을 고려한 것이다.In the embodiment described with reference to FIG. 5 , the image processing apparatus adjusts color values of candidate images according to the reference image. In this case, it has been described that the color values are adjusted based on the analysis result of the pixel values. However, according to another embodiment, the image processing apparatus may generate a plurality of color adjustment results and then display the generated results. Accordingly, when the user designates one result, the image processing apparatus may apply the designated result. This is in consideration of errors in judgment of the noise region, and the like.
전술한 실시 예들에 따르면, 기본 카메라를 통해 획득된 기본 텍스처에 포함된 노이즈는 후보 카메라들을 통해 획득된 보조 텍스처들을 이용하여 제거될 수 있다. 이때, 노이즈의 특성을 알 수 있다면, 보다 효과적으로 노이즈를 제거할 수 있을 것이 예상된다. According to the above-described embodiments, noise included in the basic texture obtained through the primary camera may be removed by using the auxiliary textures obtained through the candidate cameras. In this case, if the characteristics of noise are known, it is expected that noise can be removed more effectively.
일 실시 예에 따라, 영상 처리 장치는 노이즈의 발생 원인에 대한 정보를 활용할 수 있다. 예를 들어, 노이즈는 조명에 의해 발생할 수 있다. 이 경우, 영상 처리 장치는 설치된 조명의 위치, 밝기, 색상 등에 대한 정보를 획득하고, 획득된 정보에 기반하여 노이즈의 특성을 예측할 수 있다. 나아가, 영상 처리 장치는 촬영되는 타겟의 표면 재질에 대한 정보를 획득하고, 재질에 기반하여 노이즈의 특성을 예측할 수 있다. 노이즈의 특성이 예측되면, 영상 처리 장치는 노이즈의 특성에 기반하여 기본 텍스처에서 노이즈를 추출할 수 있다. 이에 따라, 영상 처리 장치는 추출된 노이즈가 존재하는 영역에 한하여 노이즈 제거 동작을 할 수 있다. 이 경우, 노이즈가 없는 영역에서도 노이즈 제거 연산이 수행되는 것이 방지되어, 연산량이 감소될 수 있다.According to an embodiment, the image processing apparatus may utilize information on a cause of noise. For example, noise may be caused by lighting. In this case, the image processing apparatus may obtain information on the location, brightness, color, etc. of the installed lighting, and predict the noise characteristics based on the obtained information. Furthermore, the image processing apparatus may obtain information on the surface material of the target to be photographed, and predict noise characteristics based on the material. When the noise characteristic is predicted, the image processing apparatus may extract the noise from the basic texture based on the noise characteristic. Accordingly, the image processing apparatus may perform a noise removal operation only in an area in which the extracted noise exists. In this case, the noise removal operation is prevented from being performed even in a noise-free region, so that the amount of computation can be reduced.
앞서 설명된 일 실시 예에 따른 영상 처리 장치 및 영상 처리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예에 따라 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The image processing apparatus and the image processing method according to the embodiment described above may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured according to the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
앞선 실시예에 대한 설명에서 참조된 도면 각각은 설명의 편의를 위해 도시된 일 실시 예에 불과하며, 각 화면에 표시된 정보들의 항목, 내용과 이미지들은 다양한 형태로 변형되어 표시될 수 있다.Each of the drawings referenced in the description of the previous embodiment is merely an embodiment shown for convenience of description, and items, contents, and images of information displayed on each screen may be modified and displayed in various forms.
본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to an embodiment shown in the drawings, this is merely exemplary, and those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the true technical protection scope of the present invention should be defined by the technical spirit of the appended claims.
본 명세서에 개시된 내용은 텍스처의 노이즈를 제거하기 위하여 사용될 수 있다.The content disclosed in this specification may be used to remove noise of a texture.

Claims (12)

  1. 영상 처리 장치에 의하여 수행되는 영상 처리 방법에 있어서,In the image processing method performed by the image processing apparatus,
    타겟(target)을 촬영하기 위한 복수의 카메라들 중 기준 카메라를 이용하여 기본 텍스처를 생성하는 단계;generating a basic texture by using a reference camera among a plurality of cameras for photographing a target;
    상기 복수의 카메라들 중 적어도 하나의 후보 카메라를 이용하여 적어도 하나의 후보 이미지를 생성하는 단계; 및generating at least one candidate image by using at least one candidate camera among the plurality of cameras; and
    상기 적어도 하나의 후보 이미지를 이용하여 상기 기본 텍스처의 노이즈를 제거하는 단계를 포함하는 영상 처리 방법.and removing noise from the base texture by using the at least one candidate image.
  2. 청구항 1에 있어서,The method according to claim 1,
    상기 기준 카메라는, 상기 복수의 카메라들 중 상기 타겟의 촬영되는 면을 촬영 범위에 포함하고, 상기 면과 수직인 방향과 가장 유사한 렌즈 방향을 가지는 카메라를 포함하는 영상 처리 방법.The reference camera includes, among the plurality of cameras, a photographing surface of the target in a photographing range, and includes a camera having a lens direction most similar to a direction perpendicular to the surface.
  3. 청구항 1에 있어서,The method according to claim 1,
    상기 적어도 하나의 후보 카메라는, 상기 복수의 카메라들 중 상기 타겟의 촬영되는 면을 촬영 범위에 포함하는 적어도 하나의 카메라를 포함하는 영상 처리 방법.The at least one candidate camera includes at least one camera including a photographing surface of the target among the plurality of cameras in a photographing range.
  4. 청구항 1에 있어서,The method according to claim 1,
    상기 노이즈를 제거하는 단계는,The step of removing the noise is
    상기 기본 텍스처 및 상기 적어도 하나의 후보 이미지에서 동일한 3차원 좌표 상의 픽셀을 표현하는 값들을 결합함으로써 보정된 값을 결정하는 단계; 및determining a corrected value by combining values representing pixels on the same three-dimensional coordinates in the base texture and the at least one candidate image; and
    상기 보정된 값을 해당 픽셀의 값으로서 설정하는 단계를 포함하는 영상 처리 방법.and setting the corrected value as a value of a corresponding pixel.
  5. 청구항 4에 있어서,5. The method according to claim 4,
    상기 값들의 결합은, 상기 값들의 평균화를 포함하며,Combining the values comprises averaging the values,
    상기 평균화를 위한 가중치들은, 상기 기본 텍스처를 분할한 복수의 영역들에 따라 달라지는 영상 처리 방법.The weights for the averaging are different according to a plurality of regions obtained by dividing the basic texture.
  6. 청구항 1에 있어서,The method according to claim 1,
    상기 노이즈를 제거하는 단계는,The step of removing the noise is
    상기 기본 텍스처 및 상기 적어도 하나의 후보 이미지에서 동일한 3차원 좌표 상의 픽셀을 표현하는 값들에 대한 후보 이미지 별 차분(differential) 값들을 결정하는 단계; 및determining differential values for each candidate image with respect to values representing pixels on the same three-dimensional coordinates in the base texture and the at least one candidate image; and
    상기 차분 값들 중 최대 값을 기본 텍스처에 적용하는 단계를 포함하는 영상 처리 방법.and applying a maximum value among the difference values to a base texture.
  7. 청구항 1에 있어서,The method according to claim 1,
    상기 노이즈를 제거하는 단계는,The step of removing the noise is
    상기 기본 텍스처의 경계선의 모양에 따라 3차원(3-dimension) 객체(object)를 모핑(morphing)하고, 모핑된 3차원 객체에 상기 기본 텍스처를 투영하는 단계; 및morphing a 3-dimensional object according to the shape of the boundary line of the basic texture, and projecting the basic texture onto the morphed 3-dimensional object; and
    상기 적어도 하나의 후보 이미지로부터 생성된 보조 텍스처의 경계선의 모양에 따라 상기 3차원 객체를 모핑하고, 모핑된 3차원 객체에 상기 보조 텍스처를 투영하는 단계를 포함하는 영상 처리 방법.and morphing the 3D object according to a shape of a boundary line of the auxiliary texture generated from the at least one candidate image, and projecting the auxiliary texture onto the morphed 3D object.
  8. 청구항 1에 있어서,The method according to claim 1,
    상기 노이즈를 제거하는 단계는,The step of removing the noise is
    상기 노이즈에 관련된 정보를 획득하는 단계;obtaining information related to the noise;
    상기 노이즈에 관련된 정보에 기반하여 상기 기본 텍스처에서 노이즈를 추출하는 단계; 및extracting noise from the basic texture based on the information related to the noise; and
    상기 노이즈가 존재하는 영역에 대하여 상기 노이즈를 제거하기 위한 연산을 수행하는 단계를 포함하는 영상 처리 방법.and performing an operation for removing the noise with respect to the region where the noise exists.
  9. 청구항 1에 있어서,The method according to claim 1,
    상기 후보 이미지들이 색상을 상기 기준 텍스처에 기반하여 조정하는 단계를 더 포함하는 영상 처리 방법.and adjusting the color of the candidate images based on the reference texture.
  10. 청구항 9에 있어서,10. The method of claim 9,
    상기 색상을 조정하기 위한 조정 값은, 상기 노이즈가 없는 부분의 픽셀 값들에 기반하여 결정되는 영상 처리 방법.The adjustment value for adjusting the color is determined based on pixel values of the noise-free portion.
  11. 영상 처리 장치에 있어서,In the image processing apparatus,
    프로세서 및 메모리를 포함하고,processor and memory;
    상기 프로세서는,The processor is
    타겟(target)을 촬영하기 위한 복수의 카메라들 중 기준 카메라를 이용하여 기본 텍스처를 생성하고,A basic texture is generated using a reference camera among a plurality of cameras for photographing a target,
    상기 복수의 카메라들 중 적어도 하나의 후보 카메라를 이용하여 적어도 하나의 후보 이미지를 생성하고,generating at least one candidate image by using at least one candidate camera among the plurality of cameras;
    상기 적어도 하나의 후보 이미지를 이용하여 상기 기본 텍스처의 노이즈를 제거하는 영상 처리 장치.An image processing apparatus for removing noise from the base texture by using the at least one candidate image.
  12. 청구항 1의 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium in which a computer program for performing the method of claim 1 is recorded.
PCT/KR2021/016503 2020-11-13 2021-11-12 Method and device for generating texture of three-dimensional model WO2022103190A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0151654 2020-11-13
KR1020200151654A KR102551194B1 (en) 2020-11-13 2020-11-13 Method and apparatus for generating textures of 3-dimension model

Publications (1)

Publication Number Publication Date
WO2022103190A1 true WO2022103190A1 (en) 2022-05-19

Family

ID=81601588

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/016503 WO2022103190A1 (en) 2020-11-13 2021-11-12 Method and device for generating texture of three-dimensional model

Country Status (2)

Country Link
KR (1) KR102551194B1 (en)
WO (1) WO2022103190A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030070578A (en) * 2003-08-12 2003-08-30 학교법인고려중앙학원 Method for automatic animation of three dimensions scan face data
KR101748674B1 (en) * 2016-05-18 2017-06-19 연세대학교 산학협력단 Method and apparatus for producing three-dimensional image
KR101875047B1 (en) * 2018-04-24 2018-07-06 주식회사 예간아이티 System and method for 3d modelling using photogrammetry
KR20190059092A (en) * 2017-11-22 2019-05-30 한국전자통신연구원 Method for reconstructing three dimension information of object and apparatus for the same
JP2020166652A (en) * 2019-03-29 2020-10-08 キヤノン株式会社 Image processing apparatus, image processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030070578A (en) * 2003-08-12 2003-08-30 학교법인고려중앙학원 Method for automatic animation of three dimensions scan face data
KR101748674B1 (en) * 2016-05-18 2017-06-19 연세대학교 산학협력단 Method and apparatus for producing three-dimensional image
KR20190059092A (en) * 2017-11-22 2019-05-30 한국전자통신연구원 Method for reconstructing three dimension information of object and apparatus for the same
KR101875047B1 (en) * 2018-04-24 2018-07-06 주식회사 예간아이티 System and method for 3d modelling using photogrammetry
JP2020166652A (en) * 2019-03-29 2020-10-08 キヤノン株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
KR20220065301A (en) 2022-05-20
KR102551194B1 (en) 2023-07-05

Similar Documents

Publication Publication Date Title
JP5680976B2 (en) Electronic blackboard system and program
WO2019066563A1 (en) Camera pose determination and tracking
EP3642802A1 (en) Apparatus for editing image using depth map and method thereof
WO2020171553A1 (en) An electronic device applying bokeh effect to image and controlling method thereof
WO2016053067A1 (en) 3-dimensional model generation using edges
JP2007129709A (en) Method for calibrating imaging device, method for calibrating imaging system including arrangement of imaging devices, and imaging system
JP2010165248A (en) Image processor, image collation method, and program
WO2019156308A1 (en) Apparatus and method for estimating optical image stabilization motion
WO2011065671A2 (en) Apparatus and method for detecting a vertex of an image
WO2020032383A1 (en) Electronic device for providing recognition result of external object by using recognition information about image, similar recognition information related to recognition information, and hierarchy information, and operating method therefor
WO2019035551A1 (en) Apparatus for composing objects using depth map and method for the same
WO2017195984A1 (en) 3d scanning device and method
WO2016006786A1 (en) Rendering system and rendering method thereof
WO2022265347A1 (en) Three-dimensional scene recreation using depth fusion
WO2022059937A1 (en) Robot and control method therefor
EP3066508A1 (en) Method and system for creating a camera refocus effect
WO2019098421A1 (en) Object reconstruction device using motion information and object reconstruction method using same
WO2022103190A1 (en) Method and device for generating texture of three-dimensional model
WO2011078430A1 (en) Sequential searching method for recognizing plurality of feature point-based markers and augmented reality implementing method using same
WO2017086522A1 (en) Method for synthesizing chroma key image without requiring background screen
WO2022203464A2 (en) Method for real-time omnidirectional stereo matching using multi-view fisheye lenses and system therefor
WO2023210884A1 (en) Device and method for removing noise on basis of non-local means
WO2023038369A1 (en) Semantic three-dimensional (3d) building augmentation
WO2019172577A1 (en) Image processing device and method of electronic device
WO2021040342A2 (en) Image processing method and image processing device for generating 3d content by means of 2d images

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21892357

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21892357

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 20.09.2023)

122 Ep: pct application non-entry in european phase

Ref document number: 21892357

Country of ref document: EP

Kind code of ref document: A1