WO2016195167A1 - Content conversion method, content conversion apparatus, and program for multi-layered hologram - Google Patents

Content conversion method, content conversion apparatus, and program for multi-layered hologram Download PDF

Info

Publication number
WO2016195167A1
WO2016195167A1 PCT/KR2015/009492 KR2015009492W WO2016195167A1 WO 2016195167 A1 WO2016195167 A1 WO 2016195167A1 KR 2015009492 W KR2015009492 W KR 2015009492W WO 2016195167 A1 WO2016195167 A1 WO 2016195167A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
content
background image
target image
stacked
Prior art date
Application number
PCT/KR2015/009492
Other languages
French (fr)
Korean (ko)
Inventor
오병기
Original Assignee
주식회사 쓰리디팩토리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 쓰리디팩토리 filed Critical 주식회사 쓰리디팩토리
Publication of WO2016195167A1 publication Critical patent/WO2016195167A1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/26Processes or apparatus specially adapted to produce multiple sub- holograms or to obtain images from them, e.g. multicolour technique
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Definitions

  • the present invention relates to a method, an apparatus and a program for converting content for stacked holograms.
  • the 3D (3D) image technology is a new concept of realistic image media that enhances the quality of visual information unlike the actual 2D image. It is expected to lead the culture.
  • Such a 3D stereoscopic image may be obtained by directly photographing through a plurality of cameras, or may be obtained through a method of converting a 2D planar image into a 3D stereoscopic image having a stereoscopic feeling.
  • depth information is applied to an object of the 2D planar image so that the 2D planar image may be converted into a 3D stereoscopic image.
  • 3D stereoscopic images are displayed in a multi-view autostereoscopic 3D (AS3D; AutoStereoscopic 3D) on a three-dimensional space, and according to an increase in the need to express objects more realistically and consistently, a plurality of 3D images are converted into AS3D images.
  • AS3D Autostereoscopic 3D
  • Technology is being used.
  • a multiview AS3D image integrates and displays a 3D image in a 3D space as a multiview stereoscopic image. Therefore, a problem arises in that the consistency of the three-dimensional effect of the three-dimensional effect is weak at one time point and the three-dimensional effect is relatively strong at another point occurs. This problem causes a ghost phenomenon that causes viewers to experience visual fatigue or dizziness.
  • an object of the present invention is to propose a technology for producing a content for displaying a multi-view 3D stereoscopic image in which a stereoscopic effect is improved without ghosting by using 2D image contents.
  • an embodiment of the present invention proposes a content production method for providing a hologram with improved three-dimensional effect.
  • a content conversion method of a content conversion apparatus for a stacked hologram for generating a stacked hologram from a single 2D video content includes: extracting a still image from the 2D video content according to a predetermined frame rate; Separating the target image and the background image including one or more objects from the extracted still image, performing mapping using the specific map on each of the separated target image and the background image, and the mapped target image And generating a multiview image for each of the background images using depth and stereoscopic values.
  • Another embodiment of the present invention is an extraction module for extracting a still image according to a predetermined frame rate from the 2D image content, and separating the object image and the background image containing one or more objects with respect to the extracted still image, Stacking type from one 2D image content including a mapping module for mapping each target image and background image using a specific map, and a viewpoint conversion module for generating a multiview image for each mapped target image and background image It is characterized by providing a content conversion apparatus for stacked holograms for generating holograms.
  • the target video and the background video can be reproduced on two physically separated displays, thereby creating a three-dimensional image without dizziness or ghosting. Can provide.
  • FIG. 1 is a block diagram showing a main configuration of a content conversion apparatus for stacked holograms according to the present invention.
  • 3A and 3B are exemplary views for explaining generation of a target image and a background image according to an embodiment of the present disclosure.
  • FIG. 4 is a flowchart illustrating a mapping according to an embodiment of the present disclosure.
  • 5A to 5E are exemplary diagrams for explaining mapping of the target image and the background image according to one embodiment of the present specification.
  • 6A and 6B are exemplary diagrams for describing a method of generating a multiview image, according to an exemplary embodiment.
  • FIG. 7 is an exemplary diagram illustrating a format of a target image and a background image content generated according to an embodiment of the present specification.
  • FIG. 8 is an exemplary view for explaining a method for synchronizing a target image and a background image into one file according to an embodiment of the present specification.
  • FIG. 9 is an exemplary view for explaining a setup method for displaying a target image and a background image according to an embodiment of the present specification.
  • FIG. 10 is an exemplary diagram in which a stacked hologram implementing system according to an exemplary embodiment of the present specification is installed.
  • FIG. 11 is an exemplary diagram in which a stacked hologram implementing system according to another exemplary embodiment of the present specification is installed.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • a display panel is used as a generic term for an image that can be viewed by a person.
  • FIG. 1 is a detailed configuration diagram of the main configuration of the content conversion apparatus for a stacked hologram according to the present invention.
  • the apparatus for converting stacked holograms includes an extraction module 110, a mapping module 120, a viewpoint conversion module 130, and a synchronization module 140.
  • the above components are expressed separately according to the function of the stacked hologram content conversion apparatus according to an embodiment of the present invention.
  • One component may be divided into a plurality of components or a plurality of components may be integrated into one component. Such embodiments are also within the scope of the present invention.
  • the extraction module 110 generates a target image and a background image, which are still images, from a video of 2D image content. To this end, the extraction module 110 may extract a still image at a predetermined frame rate from a video of 2D image content.
  • Frame rate refers to the number of frames progressing per second. For example, it consists of 30 frames per second for TV and 24 frames per second for movies. These frames per second can be selected, changed and saved by the user.
  • the 2D image content acquired by the extraction module 110 may be a single view image.
  • the single-view image refers to an image obtained by photographing an object and a background from the same location through the photographing apparatus.
  • the extraction module 110 separates the target image including one or more objects from the extracted still image.
  • the target image is separated and the remaining part becomes the background image.
  • the mapping module 120 converts 2D video content into 3D video. More specifically, the mapping module 120 performs mapping on each of the target image and the background image separated by the extraction module 110.
  • the specific map may be at least one of a depth map, a displacement map, a texture map, and a combination thereof.
  • mapping module 120 converts a plurality of single-view 2D images into a plurality of 3D images by using various conversion techniques including a 3D image converter or a 3D image conversion program.
  • the viewpoint conversion module 130 generates a multiview image for each of the target image and the background image converted into the 3D image.
  • the viewpoint transformation module 140 renders the multiview AS3D image in the three-dimensional space through the projection reconstruction in the three-dimensional space.
  • the viewpoint conversion module 130 displays the plurality of 3D images in a single three-dimensional space and converts the multi-view AS3D images.
  • the synchronization module 140 synchronizes the multi-view AS3D object image and the multi-view AS3D image background image processed separately from one still image of the original 2D image content.
  • FIG. 2 is a flowchart illustrating a content conversion method of a content conversion apparatus for a stacked hologram according to an exemplary embodiment of the present specification.
  • 3 to 6 are exemplary views for explaining a method of extracting a still image according to an embodiment of the present disclosure.
  • FIG. 7 is an exemplary diagram illustrating a format of a target image and a background image content generated according to an embodiment of the present specification.
  • FIG. 8 is an exemplary view for explaining a method for synchronizing a target image and a background image into one file according to an embodiment of the present specification.
  • a still image is extracted according to a predetermined frame rate from one 2D image content acquired by the stacked hologram content converter in step S210.
  • 3A is a diagram illustrating a state in which a plurality of still images are extracted. Each still image extracted in this way is 2D content.
  • step 220 the stacked hologram content converting apparatus extracts one or more objects from the still image extracted in step 210 as the object image, and separates the object image and the background image by defining the unextracted background as the background image.
  • a contour of a desired object such as a human, as a target image
  • a contour of a desired object is drawn in a CG program, and the image and background of the human are based on the contour.
  • an optical flow method to extract a specific region from a frame, an optical flow method, a kernel-based mean-shift method using similarity of object distribution, and a contour based detection of an object boundary ) Tracking methods.
  • Step 230 and 240 are steps for representing such a real object.
  • mapping of the target image and the background image is performed. This step converts simple planar 2D video content into 3D video content.
  • FIG. 4 is a flowchart illustrating a mapping according to an embodiment of the present invention.
  • an image to be performed is a background image. Since the background image is the remaining image obtained by separating the target image from one image, a blank area 601 as shown in FIG. 5A is formed by separating the target image.
  • the pixel is filled in the empty area 601 with reference to the pixels around the empty area 601 and the information about the frame before and after the corresponding image.
  • step 231 If the target image is not a background image in step 231, the process proceeds to step 233, which is the next step without going through step 232.
  • step 233 when there are a plurality of objects included in the working image, which is either the target image or the background image, the depth of each object is extracted, and in step 234, the object is rearranged by referring to the depth value (depth value).
  • the depth value of each pixel represents a three-dimensional distance difference between objects in the image and is expressed as a value between 0 and 255. The closer the distance is, the closer to zero. Therefore, an object having a small depth value is placed before an object having a large depth value.
  • the object T1 having the smallest depth value is disposed at the frontmost surface
  • the object T2 having the middle depth value is disposed at the middle
  • the object having the largest depth value is disposed at the middle
  • an object T1 having the smallest depth value is disposed in front of the display panel D and an object having an intermediate depth value in the display panel D.
  • T2 is disposed, and an object T3 having the largest depth value is disposed behind the display panel D.
  • step 235 the background image and the target image are formed as 3D images by applying a three-dimensional effect to the rearranged object.
  • the object image provided with the three-dimensional effect is illustrated in FIG. 5E.
  • each of the 3D object image and the 3D background image is converted into a multiview image AS3D.
  • a plurality of viewpoint images are generated for the 3D object image and the 3D background image, respectively.
  • three-dimensional image information such as disparity map, motion compensation information, and object segmentation information is extracted from the 3D object image and the 3D background image.
  • N virtual view images are generated.
  • step 250 the AS3D target image converted into a multiview image and the AS3D background image are synchronized.
  • a raster file of the target image and a raster file of the multiview image are generated so that each generated AS3D target image and the AS3D background image are reproduced on separate screens.
  • a raster file generated according to each viewpoint is 9 tile content. It is assumed that each image has a resolution of 1280 ⁇ 720.
  • each viewpoint image of the target image content and each viewpoint image of the background image content may be bundled into a pair of tiles to generate 9 new tiles.
  • the one-eye image of the target video content and the one-eye image of the background image content are grouped into a pair of one-eye image.
  • the paired viewpoint images may be processed for synchronization.
  • the target video content and the background video content may include time information for each unit. During playback, synchronization with time information can be achieved.
  • the image generated by pairing the target video content and the background video content may have a total resolution of 3840 ⁇ 4320 or 7680 ⁇ 2160.
  • FIG. 9 is an exemplary view for explaining a setup method for displaying a target image and a background image according to an embodiment of the present specification.
  • display setting can be performed through a display screen of a PC or the like connected to the playback apparatus.
  • the two displays are set to the extended mode in order to reproduce the object image and the background image on the first display panel and the second display panel, respectively.
  • a nine-eye display is adopted to obtain a stable image when playing content for a stereoscopic image array. It is not limited to this.
  • FIG. 10 is an exemplary diagram in which a stacked hologram implementing system according to an exemplary embodiment of the present specification is installed.
  • the first display panel 210 is installed on the rear side of the two display panels separated from each other, and the second display panel is ceiling mounted in front of the first display panel 210.
  • the target image is plotted by a two-way mirror 230 provided at a 45 degree angle on the second display panel 220 to form a hologram. Therefore, the target image is stacked and displayed in front of the background image output by the first display panel 210 with different depths.
  • the depth that can be expressed in an autostereoscopic 3d display panel is a maximum pop-out distance and a maximum depth in distance.
  • the maximum pop-out distance and maximum depth in distance are 0.5 times the display panel height H, respectively, and the maximum depth distance that can be expressed in one display is the display panel height.
  • FIG. 11 is an exemplary diagram in which a stacked hologram implementing system according to another exemplary embodiment of the present specification is installed.
  • the first display panel 410 and the second display panel 420 are raised on one plane with each other, and two-way mirrors are provided at the angles of 45 degrees.
  • the background image is reproduced on the first display panel 410 disposed further behind the viewer, and the object image is reproduced on the second display panel 420 disposed earlier.
  • the front means a direction closer to the viewer.
  • the background image output from the first display panel 410 is plotted by the first two-way mirror 430 to generate a first hologram, and the target image output from the second display panel 420 is the second two-way mirror 440. ) To generate a second hologram.
  • the first hologram and the second hologram are displayed to be stacked with different depths.
  • first display panel 410 and the second display panel 420 may further provide a sense of depth between the first hologram and the second hologram.
  • each block of the flowchart illustrations and combinations of flowchart illustrations may be performed by computer program instructions. Since these computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, those instructions executed through the processor of the computer or other programmable data processing equipment may be described in flow chart block (s). You will create a module that performs the functions. These computer program instructions may be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner, and thus the computer usable or computer readable memory.
  • Instructions stored in may produce an article of manufacture containing an instruction module that performs the functions described in the flowchart block (s).
  • Computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operating steps may be performed on the computer or other programmable data processing equipment to create a computer-implemented process to create a computer or other programmable data. Instructions for performing the processing equipment may also provide steps for performing the functions described in the flowchart block (s).
  • each block may represent a portion of a module, segment, or code that includes one or more executable instructions for executing a specified logical function (s).
  • logical function e.g., a module, segment, or code that includes one or more executable instructions for executing a specified logical function (s).
  • the functions noted in the blocks may occur out of order.
  • the two blocks shown in succession may in fact be executed substantially concurrently, or the blocks may sometimes be executed in the reverse order, depending on the corresponding function.
  • ' ⁇ part' used in the present embodiment refers to software or a hardware component such as an FPGA or an ASIC, and ' ⁇ part' performs certain roles.
  • ' ⁇ ' is not meant to be limited to software or hardware.
  • ' ⁇ Portion' may be configured to be in an addressable storage medium or may be configured to play one or more processors.
  • ' ⁇ ' means components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and the like. Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.
  • the functionality provided within the components and the 'parts' may be combined into a smaller number of components and the 'parts' or further separated into additional components and the 'parts'.
  • the components and ' ⁇ ' may be implemented to play one or more CPUs in the device or secure multimedia card.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Holo Graphy (AREA)

Abstract

An embodiment of the present invention relates to a content conversion method for generating a multi-layered hologram from one 2D image content by a content conversion apparatus for a multi-layered hologram, the method comprising the steps of: extracting a still image from the 2D image content according to a predetermined frame rate; separating, for the extracted still image, a background image and a target image including one or more objects; performing mapping for each of the separated target and background images, using a specific map; and generating a multi-view image for each of the mapped target and background images, using a depth and a three-dimensional value.

Description

적층형 홀로그램용 콘텐츠 변환방법, 변환장치 및 프로그램Content conversion method, converter and program for stacked hologram
본 발명은 적층형 홀로그램용 콘텐츠 변환방법, 장치 및 프로그램에 관한 것이다. The present invention relates to a method, an apparatus and a program for converting content for stacked holograms.
3차원(이하, 3D) 영상 기술은 기존의 2차원(이하, 2D) 영상과는 달리 사람이 보고 느끼는 실제 영상과 유사하여 시각 정보의 질적 수준을 높여주는 새로운 개념의 실감 영상 미디어로서 차세대 디지털 영상 문화를 주도하게 될 것으로 전망된다. Unlike the existing 2D (2D) image, the 3D (3D) image technology is a new concept of realistic image media that enhances the quality of visual information unlike the actual 2D image. It is expected to lead the culture.
이와 같은 3D 입체영상은 여러 대의 카메라를 통해 직접 촬영함으로써 획득될 수도 있으나, 2D 평면영상을 입체감을 가지는 3D 입체영상으로 변환하는 방식을 통해 획득될 수도 있다. Such a 3D stereoscopic image may be obtained by directly photographing through a plurality of cameras, or may be obtained through a method of converting a 2D planar image into a 3D stereoscopic image having a stereoscopic feeling.
2D 평면영상을 이용하여 3D 입체영상을 생성하는 경우, 2D 평면영상의 객체에 뎁스 정보를 부여함으로써, 2D 평면영상이 입체감을 3D 입체감 있는 영상으로 변환될 수 있도록 한다. When a 3D stereoscopic image is generated using a 2D planar image, depth information is applied to an object of the 2D planar image so that the 2D planar image may be converted into a 3D stereoscopic image.
한편, 3D 입체영상을 다시점 무안경 3D(AS3D; AutoStereoscopic 3D)을 3차원 공간상에 표시하여 객체를 좀 더 사실적이고 일관되게 표현할 필요성의 증대에 따라, 복수의 3D 영상을 AS3D 영상으로 변환하는 기술이 이용되고 있다. On the other hand, 3D stereoscopic images are displayed in a multi-view autostereoscopic 3D (AS3D; AutoStereoscopic 3D) on a three-dimensional space, and according to an increase in the need to express objects more realistically and consistently, a plurality of 3D images are converted into AS3D images. Technology is being used.
그러나, 다시점 AS3D 영상은 3D 영상을 다시점 입체영상으로 3차원 공간상에 통합하여 표시하는 것이다. 그러므로, 한시점에서는 입체감이 약하고 다른 시점에서는 입체감이 비교적 강하게 되는 입체감의 일관성이 떨어지게 되는 문제가 발생하게 된다. 이러한 문제는 시청자로 하여금 시각적인 피로도를 발생시키거나, 어지러움을 느끼게 되는 고스트 현상을 발생시킨다. However, a multiview AS3D image integrates and displays a 3D image in a 3D space as a multiview stereoscopic image. Therefore, a problem arises in that the consistency of the three-dimensional effect of the three-dimensional effect is weak at one time point and the three-dimensional effect is relatively strong at another point occurs. This problem causes a ghost phenomenon that causes viewers to experience visual fatigue or dizziness.
전술한 바와 같이, 2D 영상 콘텐츠를 이용하여, 고스트 현상없이 입체감이 향상된 다시점 3D 입체영상을 디스플레이 하기 위한 콘텐츠를 제작하는 기술을 제시하는 것을 목적으로 한다.As described above, an object of the present invention is to propose a technology for producing a content for displaying a multi-view 3D stereoscopic image in which a stereoscopic effect is improved without ghosting by using 2D image contents.
전술한 목적을 달성하기 위하여, 본 발명의 일 실시예는 입체감이 향상된 홀로그램을 제공하기 위한 콘텐츠 제작 방안을 제시한다. In order to achieve the above object, an embodiment of the present invention proposes a content production method for providing a hologram with improved three-dimensional effect.
본 발명의 일 실시예는 하나의 2D 영상 콘텐츠로부터 적층형 홀로그램을 생성하기 위한 적층형 홀로그램용 콘텐츠 변환장치의 콘텐츠 변환방법으로서, 상기 2D 영상 콘텐츠로부터 미리 정해진 프레임 레이트에 따라 정지영상을 추출하는 단계와, 추출된 정지영상에 대하여, 하나 이상의 객체가 포함된 목적영상과 배경영상을 분리하는 단계와, 분리된 목적영상 및 배경영상 각각에 대하여 특정 맵을 사용하여 맵핑을 수행하는 단계와, 매핑된 목적영상 및 배경영상 각각에 대하여 심도와 입체값을 이용하여 다시점 영상을 생성하는 단계를 포함하는 것을 특징으로 한다. According to an embodiment of the present invention, a content conversion method of a content conversion apparatus for a stacked hologram for generating a stacked hologram from a single 2D video content includes: extracting a still image from the 2D video content according to a predetermined frame rate; Separating the target image and the background image including one or more objects from the extracted still image, performing mapping using the specific map on each of the separated target image and the background image, and the mapped target image And generating a multiview image for each of the background images using depth and stereoscopic values.
본 발명의 다른 실시예는 상기 2D 영상 콘텐츠로부터 미리 정해진 프레임 레이트에 따라 정지영상을 추출하고, 추출된 정지영상에 대하여, 하나 이상의 객체가 포함된 목적영상과 배경영상을 분리하는 추출모듈과, 상기 목적영상 및 배경영상 각각에 대하여 특정 맵을 사용하여 맵핑을 수행하는 맵핑모듈과, 매핑된 목적영상 및 배경영상 각각에 대하여 다시점 영상을 생성하는 시점 변환 모듈을 포함하는 하나의 2D 영상 콘텐츠로부터 적층형 홀로그램을 생성하기 위한 적층형 홀로그램용 콘텐츠 변환장치를 제공하는 것을 특징으로 한다. Another embodiment of the present invention is an extraction module for extracting a still image according to a predetermined frame rate from the 2D image content, and separating the object image and the background image containing one or more objects with respect to the extracted still image, Stacking type from one 2D image content including a mapping module for mapping each target image and background image using a specific map, and a viewpoint conversion module for generating a multiview image for each mapped target image and background image It is characterized by providing a content conversion apparatus for stacked holograms for generating holograms.
본 발명의 실시예에 따르면 하나의 2D 영상 콘텐츠를, 다시점 3D 영상 콘텐츠로 변환하여, 목적영상과 배경영상을 물리적으로 분리된 두개의 디스플레이에서 재생 가능하게 하여 어지러움이나 고스트 현상없이 입체감 높은 영상을 제공할 수 있다. According to an embodiment of the present invention, by converting one 2D video content into a multi-view 3D video content, the target video and the background video can be reproduced on two physically separated displays, thereby creating a three-dimensional image without dizziness or ghosting. Can provide.
도 1은 본 발명에 따른 적층형 홀로그램용 콘텐츠 변환장치의 주요 구성을 도시한 블럭도면이다. 1 is a block diagram showing a main configuration of a content conversion apparatus for stacked holograms according to the present invention.
도 2는 본 명세서의 일 실시 예에 따르는 적층형 홀로그램용 콘텐츠 변환장치의 콘텐츠 변환방법의 흐름도이다.2 is a flowchart illustrating a content conversion method of a content conversion apparatus for a stacked hologram according to an exemplary embodiment of the present specification.
도 3a 및 도 3b는 본 명세서의 일 실시 예에 따르는 목적영상 및 배경영상 생성을 설명하기 위한 예시도이다. 3A and 3B are exemplary views for explaining generation of a target image and a background image according to an embodiment of the present disclosure.
도 4는 본 명세서의 일 실시 예에 따른 맵핑을 설명하기 위한 흐름도이다. 4 is a flowchart illustrating a mapping according to an embodiment of the present disclosure.
도 5a 내지 도 5e는 본 명세서의 일 실시 예에 따르는 목적영상과 배경영상각각의 맵핑을 설명하기 위한 예시도이다. 5A to 5E are exemplary diagrams for explaining mapping of the target image and the background image according to one embodiment of the present specification.
도 6a 및 도 6b는 본 명세서의 일 실시 예에 따라 다시점 영상을 생성하는 방법을 설명하기 위한 예시도이다. 6A and 6B are exemplary diagrams for describing a method of generating a multiview image, according to an exemplary embodiment.
도 7은 본 명세서의 일 실시예에 따라 생성된 목적영상과 배경영상 콘텐츠의 포맷을 나타내는 예시도이다. 7 is an exemplary diagram illustrating a format of a target image and a background image content generated according to an embodiment of the present specification.
도 8은 본 명세서의 일 실시예에 따라 목적영상과 배경영상을 하나의 파일로 동기화하기 위한 방법을 설명하기 위한 예시도이다. 8 is an exemplary view for explaining a method for synchronizing a target image and a background image into one file according to an embodiment of the present specification.
도 9는 본 명세서의 일 실시예에 따른 목적영상과 배경영상을 디스플레이하기 위한 셋업 방법을 설명하기 위한 예시도이다. 9 is an exemplary view for explaining a setup method for displaying a target image and a background image according to an embodiment of the present specification.
도 10은 본 명세서의 일 실시예에 따른 적층형 홀로그램 구현 시스템을 설치한 예시도이다. 10 is an exemplary diagram in which a stacked hologram implementing system according to an exemplary embodiment of the present specification is installed.
도 11은 본 명세서의 다른 실시예에 따른 적층형 홀로그램 구현 시스템을 설치한 예시도이다. 11 is an exemplary diagram in which a stacked hologram implementing system according to another exemplary embodiment of the present specification is installed.
본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It is to be noted that the technical terms used herein are merely used to describe particular embodiments, and are not intended to limit the present invention. In addition, the technical terms used in the present specification should be interpreted as meanings generally understood by those skilled in the art unless they are specifically defined in this specification, and are overly inclusive. It should not be interpreted in the sense of or in the sense of being excessively reduced. In addition, when the technical terms used herein are incorrect technical terms that do not accurately represent the spirit of the present invention, it should be replaced with technical terms that can be understood correctly by those skilled in the art. In addition, the general terms used in the present invention should be interpreted as defined in the dictionary or according to the context before and after, and should not be interpreted in an excessively reduced sense.
또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, the singular forms used herein include the plural forms unless the context clearly indicates otherwise. In the present application, terms such as “consisting of” or “comprising” should not be construed as necessarily including all of the various components, or various steps described in the specification, wherein some of the components or some of the steps It should be construed that it may not be included or may further include additional components or steps.
또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "unit" for the components used herein are given or mixed in consideration of ease of specification, and do not have meanings or roles that are distinguished from each other.
또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다. In addition, terms including ordinal numbers, such as first and second, as used herein may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, and the same or similar components will be given the same reference numerals regardless of the reference numerals, and redundant description thereof will be omitted.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in describing the present invention, when it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easily understanding the spirit of the present invention and should not be construed as limiting the spirit of the present invention by the accompanying drawings.
설명에 앞서, 본 발명에서 혼용하는 '3D', '3차원', '입체'는 동일한 의미로 사용된다. Prior to the description, the terms '3D', 'three-dimensional' and 'stereo' used in the present invention are used interchangeably.
또한, 디스플레이 패널(display panel)은 사람이 볼 수 있는 영상을 총칭한 의미로 사용된다. In addition, a display panel is used as a generic term for an image that can be viewed by a person.
도 1은 본 발명에 따른 적층형 홀로그램용 콘텐츠 변환장치의 주요 구성에 대한 상세 구성도이다.1 is a detailed configuration diagram of the main configuration of the content conversion apparatus for a stacked hologram according to the present invention.
도시된 것과 같이, 본 발명에 따른 적층형 홀로그램용 콘텐츠 변환장치는 추출모듈(110), 맵핑모듈(120), 시점 변환 모듈(130) 및 동기화 모듈(140)을 포함한다. As illustrated, the apparatus for converting stacked holograms according to the present invention includes an extraction module 110, a mapping module 120, a viewpoint conversion module 130, and a synchronization module 140.
위와 같은 구성부는 본 발명의 실시예에 따른 적층형 홀로그램용 콘텐츠 변환장치를 각 기능에 따라 구분하여 표현한 것으로 하나의 구성부가 복수의 구성부로 나뉘어져 구성되거나 복수의 구성부가 하나의 구성부로 통합되어 구현될 수도 있고, 이러한 실시예 또한 본 발명의 권리 범위에 포함된다. The above components are expressed separately according to the function of the stacked hologram content conversion apparatus according to an embodiment of the present invention. One component may be divided into a plurality of components or a plurality of components may be integrated into one component. Such embodiments are also within the scope of the present invention.
추출모듈(110)은 2D 영상 콘텐츠의 동영상으로부터 정지영상인 목적영상과 배경영상을 생성한다. 이를 위해 추출 모듈(110)은 2D 영상 콘텐츠의 동영상으로부터 미리 정해진 프레임 레이트로 정지영상을 추출할 수 있다. 프레임 레이트는 초당 진행되는 프레임의 수를 말한다. 예컨대 TV의 경우 초당 30프레임, 영화의 경우 초당 24 프레임으로 구성된다. 이러한 초당 프레임은 사용자에 의해 선택, 변경, 저장 될 수 있다. The extraction module 110 generates a target image and a background image, which are still images, from a video of 2D image content. To this end, the extraction module 110 may extract a still image at a predetermined frame rate from a video of 2D image content. Frame rate refers to the number of frames progressing per second. For example, it consists of 30 frames per second for TV and 24 frames per second for movies. These frames per second can be selected, changed and saved by the user.
추출모듈(110)이 획득한 2D 영상 콘텐츠는 단일 시점 영상일 수 있다. 단일 시점 영상이란 촬영장치를 통하여 하나의 객체 및 배경을 동일한 위치에서 촬영하여 획득한 영상을 말한다. The 2D image content acquired by the extraction module 110 may be a single view image. The single-view image refers to an image obtained by photographing an object and a background from the same location through the photographing apparatus.
추출모듈(110)은 추출한 정지영상에 대하여, 하나 이상의 객체가 포함된 목적영상을 분리한다. 목적영상이 분리되고 남은 부분이 배경영상이 된다. The extraction module 110 separates the target image including one or more objects from the extracted still image. The target image is separated and the remaining part becomes the background image.
맵핑모듈(120)은 2D 영상 콘텐츠를 3D 영상으로 변환한다. 보다 구체적으로, 맵핑모듈(120)은 추출모듈(110)에서 분리된 목적영상 및 배경영상 각각에 대하여 맵핑을 수행한다. 이 때 사용되는 맵은 상기 특정 맵은 뎁스(depth) 맵, 디스플레이스먼트 맵, 텍스쳐 맵 및 그들의 조합 중 적어도 어느 하나 이상일 수 있다. The mapping module 120 converts 2D video content into 3D video. More specifically, the mapping module 120 performs mapping on each of the target image and the background image separated by the extraction module 110. In this case, the specific map may be at least one of a depth map, a displacement map, a texture map, and a combination thereof.
또한 맵핑모듈(120)은 복수의 단일 시점 2D 영상을 복수의 3D 영상으로 변환하기 위하여 3D 영상 변환기 또는 3D 영상 변환 프로그램을 포함한 다양한 변환 기술을 이용하여 복수의 3D 영상으로 변환한다.In addition, the mapping module 120 converts a plurality of single-view 2D images into a plurality of 3D images by using various conversion techniques including a 3D image converter or a 3D image conversion program.
시점 변환 모듈(130)은 3D 영상으로 변환된 목적영상 및 배경영상 각각에 대하여 다시점 영상을 생성한다. 시점 변환 모듈(140)은 3차원 공간에 프로젝티브 리컨스트럭션을 통해서 3차원 공간에서 다시점 AS3D 영상을 랜더링한다. The viewpoint conversion module 130 generates a multiview image for each of the target image and the background image converted into the 3D image. The viewpoint transformation module 140 renders the multiview AS3D image in the three-dimensional space through the projection reconstruction in the three-dimensional space.
따라서 시점 변환 모듈(130)은 복수의 3D 영상을 단일의 3차원 공간에 표시하여 다시점 AS3D 영상으로 변환한다. Accordingly, the viewpoint conversion module 130 displays the plurality of 3D images in a single three-dimensional space and converts the multi-view AS3D images.
동기화 모듈(140)은 원천 2D 영상 콘텐츠의 하나의 정지영상으로부터 분리되어 처리된 다시점 AS3D 목적영상과 다시점 AS3D 영상 배경영상을 동기화한다. The synchronization module 140 synchronizes the multi-view AS3D object image and the multi-view AS3D image background image processed separately from one still image of the original 2D image content.
이하 도 2 내지 도 8을 참조하여 적층형 홀로그램용 콘텐츠 변환장치의 콘텐츠 변환방법을 설명한다. Hereinafter, a content conversion method of the content conversion apparatus for a stacked hologram will be described with reference to FIGS. 2 to 8.
도 2는 본 명세서의 일 실시 예에 따르는 적층형 홀로그램용 콘텐츠 변환장치의 콘텐츠 변환방법의 흐름도이다.2 is a flowchart illustrating a content conversion method of a content conversion apparatus for a stacked hologram according to an exemplary embodiment of the present specification.
도 3 내지 도 6은 본 명세서의 일 실시 예에 따라 정지영상을 추출하는 방법을 설명하기 위한 예시도이다. 3 to 6 are exemplary views for explaining a method of extracting a still image according to an embodiment of the present disclosure.
도 7은 본 명세서의 일 실시예에 따라 생성된 목적영상과 배경영상 콘텐츠의 포맷을 나타내는 예시도이다. 7 is an exemplary diagram illustrating a format of a target image and a background image content generated according to an embodiment of the present specification.
도 8은 본 명세서의 일 실시예에 따라 목적영상과 배경영상을 하나의 파일로 동기화하기 위한 방법을 설명하기 위한 예시도이다. 8 is an exemplary view for explaining a method for synchronizing a target image and a background image into one file according to an embodiment of the present specification.
먼저 도 2를 참조하면, 단계 S210에서 적층형 홀로그램용 콘텐츠 변환장치가 획득한 하나의 2D 영상 콘텐츠로부터 미리 정해진 프레임 레이트에 따라 정지영상을 추출한다.First, referring to FIG. 2, a still image is extracted according to a predetermined frame rate from one 2D image content acquired by the stacked hologram content converter in step S210.
도 3a는 복수개의 정지영상이 추출된 모습을 예시하는 도면이다. 이와 같이 추출된 각각의 정지영상은 2D 콘텐츠이다. 3A is a diagram illustrating a state in which a plurality of still images are extracted. Each still image extracted in this way is 2D content.
이렇게 추출된 각각의 정지영상에 대하여 다음의 작업을 수행하게 된다. The following operations are performed on each of the extracted still images.
다음, 단계 220에서 적층형 홀로그램용 콘텐츠 변환장치는 단계 210에서 추출한 정지영상에서 하나 이상의 객체를 목적영상으로서 추출하고, 추출되지 않은 배경을 배경영상으로 정의함으로써 목적영상과 배경영상을 분리한다. Next, in step 220, the stacked hologram content converting apparatus extracts one or more objects from the still image extracted in step 210 as the object image, and separates the object image and the background image by defining the unextracted background as the background image.
이와 같이 분리하는데 사용되는 기술의 일 예로서 로토스코핑 기술이 있다. One example of the technique used to separate this is rotoscoping techniques.
실제 촬영한 영상을 바탕으로 하여 각각의 프레임 위에 덧붙여 그리는 기법으로서, 도 3b에 도시한 바와 같이 목적영상으로서 원하는 객체 예컨대 사람의 윤곽선을 CG 프로그램으로 그리고, 이 윤곽선을 기준으로 사람의 영상과 배경의 영상을 분리한다. As a technique of drawing on top of each frame based on the actual photographed image, as shown in FIG. 3B, a contour of a desired object, such as a human, as a target image, is drawn in a CG program, and the image and background of the human are based on the contour. Split the image.
이 외에 프레임에서 특정영역을 추출하기 위하여, 옵티컬(optical flow) 방법, 객체 분포의 유사도를 이용하는 커널 기반의 민-시프트(mean-shift) 방법 및 객체의 경계선을 검출을 기반으로 하는 콘투어(contour) 추적방법 등이 있을 수 있다. 또한, 깊이값을 충분히 활용하여 교합이 발생한 경우에도 원활하게 추적할 수 있다. In addition, to extract a specific region from a frame, an optical flow method, a kernel-based mean-shift method using similarity of object distribution, and a contour based detection of an object boundary ) Tracking methods. In addition, it is possible to smoothly track even when occlusion occurs by fully utilizing the depth value.
2D 평면에서 분리된 각 객체의 뎁스 정보는 단순한 평면 형태를 나타내므로, 실제 객체를 표현하기 위한 방법이 필요하다. 단계 230과 단계 240은 이러한 실제 객체를 표현하기 위한 단계이다.  Since the depth information of each object separated from the 2D plane represents a simple plane shape, a method for representing an actual object is required. Step 230 and 240 are steps for representing such a real object.
단계 230에서는 목적영상과 배경영상 각각에 대하여 맵핑을 수행한다. 이 단계를 통해 단순한 평면 형태의 2D 영상 콘텐츠가 3D 영상 콘텐츠로 변환된다. In operation 230, mapping of the target image and the background image is performed. This step converts simple planar 2D video content into 3D video content.
맵핑을 수행에 대하여, 도 4를 참조하여 이하에 설명한다. Performing mapping will be described below with reference to FIG. 4.
도 4는 본 발명의 일 실시예에 따른 맵핑을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a mapping according to an embodiment of the present invention.
먼저, 단계 231에서 작업을 수행할 영상이 배경영상인지 확인한다. 배경영상은 하나의 영상에서 목적영상을 분리한 나머지 영상이므로, 목적영상의 분리에 의해 도 5a에 도시한 바와 같은 빈 영역(601)이 형성되어 있다. First, in operation 231, it is checked whether an image to be performed is a background image. Since the background image is the remaining image obtained by separating the target image from one image, a blank area 601 as shown in FIG. 5A is formed by separating the target image.
단계 232에서 상기 빈 영역(601) 주위의 픽셀 및 해당 영상의 전/후 프레임의 정보를 참조하여 도 5b와 같이 빈 영역(601)에 픽셀을 채운다. In operation 232, the pixel is filled in the empty area 601 with reference to the pixels around the empty area 601 and the information about the frame before and after the corresponding image.
단계 231에서 배경영상이 아닌 목적영상인 경우, 단계 232를 거치지 않고 바로 다음 단계인 단계 233으로 진행한다. If the target image is not a background image in step 231, the process proceeds to step 233, which is the next step without going through step 232.
단계 233에서는 목적영상 또는 배경영상 중 어느 하나인 작업영상에 포함된 객체가 복수개인 경우 각 객체의 심도를 추출하고, 단계 234에서 심도값(깊이값)을 참조하여 객체를 재배치한다. In step 233, when there are a plurality of objects included in the working image, which is either the target image or the background image, the depth of each object is extracted, and in step 234, the object is rearranged by referring to the depth value (depth value).
각 픽셀의 깊이값은 영상내 객체 사이의 3차원 거리 차이를 나타내며 0부터 255 사이의 값으로 표현된다. 거리가 가까울수록 0에 접근한다. 따라서, 작은 깊이값을 갖는 객체를 큰 깊이값을 갖는 객체보다 앞에 배치한다. The depth value of each pixel represents a three-dimensional distance difference between objects in the image and is expressed as a value between 0 and 255. The closer the distance is, the closer to zero. Therefore, an object having a small depth value is placed before an object having a large depth value.
예컨대 도 5c에 도시한 바와 같이 제일 작은 깊이값을 갖는 객체(T1)를 제일 전면(앞)에 배치하고, 중간 깊이값을 갖는 객체(T2)를 중간에 배치하고, 제일 큰 깊이값을 갖는 객체(T3)를 제일 후면(뒤)에 배치한다. For example, as shown in FIG. 5C, the object T1 having the smallest depth value is disposed at the frontmost surface, the object T2 having the middle depth value is disposed at the middle, and the object having the largest depth value. Place (T3) at the very back (back).
이를 디스플레이 옆면에서 볼 때 도 5d에 도시한 바와 같이, 디스플레이 패널(D)을 중심으로 제일 작은 깊이값을 갖는 객체(T1)이 전면에 배치되고, 디스플레이 패널(D)에 중간 깊이값을 갖는 객체(T2)가 배치되고, 디스플레이 패널(D) 후면에 제일 큰 깊이값을 갖는 객체(T3)가 배치된다. When viewed from the side of the display, as shown in FIG. 5D, an object T1 having the smallest depth value is disposed in front of the display panel D and an object having an intermediate depth value in the display panel D. T2 is disposed, and an object T3 having the largest depth value is disposed behind the display panel D. FIG.
단계 235에서는 재배치된 객체에 입체감을 부여하여 배경영상과 목적영상 각각을 3D 영상으로 형성한다. 이와 같이 입체감이 부여된 목적영상은 도 5e예시되어있다. In step 235, the background image and the target image are formed as 3D images by applying a three-dimensional effect to the rearranged object. The object image provided with the three-dimensional effect is illustrated in FIG. 5E.
이 단계를 갖지 않으면 객체가 종이판 처럼 보이는 카드보드 현상(cardboard Effect)이 발생하게 된다. Without this step, a cardboard effect would appear that would make the object look like a sheet of paper.
다시 도 3을 참조하여, 단계 240에서 3D 목적영상과 3D 배경영상 각각을 다시점 영상(AS3D)으로 변환한다. Referring to FIG. 3 again, in operation 240, each of the 3D object image and the 3D background image is converted into a multiview image AS3D.
3D 목적영상과 3D 배경영상에 대하여 각각 복수개의 시점의 영상을 생성한다. 도 6a와 도 6b에 도시한 바와 같이 단일 시점의 영상에 기초하여 다시점 영상을 생성하기 위하여는 3D 목적영상과 3D 배경영상으로부터 변이맵, 움직임보상 정보, 객체분할 정보 등 3차원 영상 정보를 추출하여 N개의 가상 시점 영상을 생성한다. A plurality of viewpoint images are generated for the 3D object image and the 3D background image, respectively. As shown in FIGS. 6A and 6B, in order to generate a multiview image based on an image of a single viewpoint, three-dimensional image information such as disparity map, motion compensation information, and object segmentation information is extracted from the 3D object image and the 3D background image. N virtual view images are generated.
단계 250에서 다시점 영상으로 변환된 AS3D 목적영상과 AS3D 배경영상을 동기화시킨다. In step 250, the AS3D target image converted into a multiview image and the AS3D background image are synchronized.
각 생성된 AS3D 목적영상과 AS3D 배경영상이 서로 분리된 화면에서 각각 재생되도록 목적영상의 래스터 파일과, 다시점 영상의 래스터 파일을 생성한다. 예컨대, 도 7에 도시한 바와 같이, 본 명세서의 일 실시예에서와 같이 목적영상과 배경영상이 각각 9 시점 영상으로서 생성되었다고 가정하면, 각 시점에 따라 생성된 래스터 파일은 9 타일(tile) 콘텐츠이고, 각 영상이 1280×720의 해상도를 갖는다고 가정한다. A raster file of the target image and a raster file of the multiview image are generated so that each generated AS3D target image and the AS3D background image are reproduced on separate screens. For example, as shown in FIG. 7, assuming that an object image and a background image are each generated as 9 viewpoint images as in the exemplary embodiment of the present specification, a raster file generated according to each viewpoint is 9 tile content. It is assumed that each image has a resolution of 1280 × 720.
각각 생성된 래스터 파일을 동기화하기 위하여, 도 8에 도시한 바와 같이, 목적영상용 콘텐츠의 각시점 영상과 배경영상용 콘텐츠의 각시점 영상을 한쌍의 타일로 묶어 새로운 9개의 타일로 생성할 수 있다. 예컨대 목적영상 콘텐츠의 1안영상과 배경영상 콘텐츠의 1안영상이 한쌍으로 묶여 합쳐진 1안 영상의 콘텐츠가 된다. 한쌍으로 묶인 각 시점 영상은 동기화를 위한 처리가 수행될 수도 있다. 예컨대, 목적영상 콘텐츠와 배경영상 콘텐츠는 임의의 단위마다의 시간정보를 포함할 수 있다. 재생시, 시간정보를 맞추어 동기를 맞출 수 있게 된다. In order to synchronize the generated raster files, as illustrated in FIG. 8, each viewpoint image of the target image content and each viewpoint image of the background image content may be bundled into a pair of tiles to generate 9 new tiles. . For example, the one-eye image of the target video content and the one-eye image of the background image content are grouped into a pair of one-eye image. The paired viewpoint images may be processed for synchronization. For example, the target video content and the background video content may include time information for each unit. During playback, synchronization with time information can be achieved.
목적영상 콘텐츠와 배경영상 콘텐츠를 한 쌍으로 묶어 생성된 영상은 총 3840×4320의 해상도를 가질 수도 있고 7680×2160 일 수도 있다. The image generated by pairing the target video content and the background video content may have a total resolution of 3840 × 4320 or 7680 × 2160.
도 9는 본 명세서의 일 실시예에 따른 목적영상과 배경영상을 디스플레이하기 위한 셋업 방법을 설명하기 위한 예시도이다. 9 is an exemplary view for explaining a setup method for displaying a target image and a background image according to an embodiment of the present specification.
도 9의 (a)와 (b)에 도시한 바와 같이, 재생장치에 연결된 PC 등의 표시화면을 통해 디스플레이 설정을 수행할 수 있다. 제1 디스플레이 패널과 제2 디스플레이 패널에 목적영상과 배경영상을 각각 재생하기 위하여 디스플레이 2개를 확장모드로 설정한다. As shown in Figs. 9A and 9B, display setting can be performed through a display screen of a PC or the like connected to the playback apparatus. The two displays are set to the extended mode in order to reproduce the object image and the background image on the first display panel and the second display panel, respectively.
본 명세서의 실시예에서는, 휘도가 시점 수에 비례하여 감소하고, 해상도 또한 시점 수에 따라 감소하기 때문에, 입체영상 어레이를 위한 콘텐츠 재생시 안정적인 영상을 획득하기 위해서 9안 방식의 디스플레이를 채택하였으나, 이에 한정되는 것은 아니다. 또한 9안 방식의 디스플레이를 채택한 경우, 4K(3840x2160) 이상의 고해상도 LCD 패널을 채택하는 것이, 휘도와 해상도가 저하되는 문제를 방지할 수 있다는 점에서 바람직하다. In the exemplary embodiment of the present specification, since the luminance decreases in proportion to the number of viewpoints and the resolution also decreases with the number of viewpoints, a nine-eye display is adopted to obtain a stable image when playing content for a stereoscopic image array. It is not limited to this. In addition, in the case of adopting a 9-eye display, it is preferable to adopt a high-resolution LCD panel of 4K (3840x2160) or more in that it can prevent the problem of deterioration in brightness and resolution.
도 10은 본 명세서의 일 실시예에 따른 적층형 홀로그램 구현 시스템을 설치한 예시도이다. 10 is an exemplary diagram in which a stacked hologram implementing system according to an exemplary embodiment of the present specification is installed.
도 9에 도시한 바와 같이 분리된 2개의 디스플레이 패널 중 제1 디스플레이 패널(210)는 배경영상을 디스플레이하기 위해 뒷면에 세워지게 설치되고, 제2 디스플레이 패널은 제1 디스플레이 패널(210) 앞의 천정이나 바닥면에 높여 목적영상을 출력한다. 이 때 제2 디스플레이 패널(220)에 45도 각도로 마련된 투웨이 미러(TWO WAY MIRROR)(230)에 의해 목적영상이 플로팅되어 홀로그램을 형성한다. 따라서, 제1 디스플레이 패널(210)에 의해 출력되는 배경영상 앞에 목적영상이 서로 다른 깊이를 갖게 적층되어 표시되게 된다. As shown in FIG. 9, the first display panel 210 is installed on the rear side of the two display panels separated from each other, and the second display panel is ceiling mounted in front of the first display panel 210. On the floor or on the floor to output the target image. At this time, the target image is plotted by a two-way mirror 230 provided at a 45 degree angle on the second display panel 220 to form a hologram. Therefore, the target image is stacked and displayed in front of the background image output by the first display panel 210 with different depths.
일반적으로 무안경 3d 디스플레이 패널에서 표현할 수 있는 깊이감은 최대 돌출(pop-out) 거리와 최대 깊이감(depth in) 거리가 된다. 최대 돌출(pop-out) 거리와 최대 깊이감(depth in) 거리는 각각 디스플레이 패널 높이(H)의 0.5배가 되어, 하나의 디스플레이에서 표현 가능한 최대 깊이감 거리는 디스플레이 패널 높이가 된다. In general, the depth that can be expressed in an autostereoscopic 3d display panel is a maximum pop-out distance and a maximum depth in distance. The maximum pop-out distance and maximum depth in distance are 0.5 times the display panel height H, respectively, and the maximum depth distance that can be expressed in one display is the display panel height.
도 9에 도시된 바와 같이 분리된 디스플레이 패널에 의해 배경영상과 목적영상이 출력되는 경우, 제1 디스플레이 패널과 제2 디스플레 패널 간의 물리적 거리만큼 더 깊은 깊이감을 표현할 수 있게 되고, 이러한 물리적인 거리는 조절가능하다. When the background image and the target image are output by the separated display panel as illustrated in FIG. 9, a depth deeper as much as the physical distance between the first display panel and the second display panel may be expressed, and the physical distance may be adjusted. It is possible.
도 11은 본 명세서의 다른 실시예에 따른 적층형 홀로그램 구현 시스템을 설치한 예시도이다. 11 is an exemplary diagram in which a stacked hologram implementing system according to another exemplary embodiment of the present specification is installed.
제1 디스플레이 패널(410)과 제2 디스플레이 패널(420)은 서로 하나의 평면 상에 높이게 되고, 각각에 45도 각도로 세워진 투웨이 미러가 마련된다. The first display panel 410 and the second display panel 420 are raised on one plane with each other, and two-way mirrors are provided at the angles of 45 degrees.
시청자를 중심으로 더 뒷쪽에 배치된 제1 디스플레이 패널(410)에서 배경영상을 재생시키고, 더 앞쪽에 배치된 제2 디스플레이 패널(420)에서 목적영상을 재생시킨다. 여기서 앞쪽은 시청자와 가까워지는 쪽(방향)을 의미한다.The background image is reproduced on the first display panel 410 disposed further behind the viewer, and the object image is reproduced on the second display panel 420 disposed earlier. In this case, the front means a direction closer to the viewer.
제1 디스플레이 패널(410)에서 출력되는 배경영상은 제1 투웨이 미러(430)에 의해 플로팅되어 제1 홀로그램을 생성하고, 제2 디스플레이 패널(420)에서 출력되는 목적영상은 제2 투웨이 미러(440)에 의해 플로팅되어 제2 홀로그램을 생성한다. The background image output from the first display panel 410 is plotted by the first two-way mirror 430 to generate a first hologram, and the target image output from the second display panel 420 is the second two-way mirror 440. ) To generate a second hologram.
이에 따라, 제1 홀로그램과 제2 홀로그램은 서로 다른 깊이감을 갖고 적층되게 표시된다. Accordingly, the first hologram and the second hologram are displayed to be stacked with different depths.
즉, 제1 디스플레이 패널(410)과 제2 디스플레이 패널(420)의 물리적인 거리만틈 제1 홀로그램과 제2 홀로그램 사이에 깊이감을 추가로 부여할 수 있게 된다. That is, only the physical distance between the first display panel 410 and the second display panel 420 may further provide a sense of depth between the first hologram and the second hologram.
이 때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 모듈을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 모듈을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.At this point, it will be understood that each block of the flowchart illustrations and combinations of flowchart illustrations may be performed by computer program instructions. Since these computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, those instructions executed through the processor of the computer or other programmable data processing equipment may be described in flow chart block (s). You will create a module that performs the functions. These computer program instructions may be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner, and thus the computer usable or computer readable memory. It is also possible for the instructions stored in to produce an article of manufacture containing an instruction module that performs the functions described in the flowchart block (s). Computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operating steps may be performed on the computer or other programmable data processing equipment to create a computer-implemented process to create a computer or other programmable data. Instructions for performing the processing equipment may also provide steps for performing the functions described in the flowchart block (s).
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each block may represent a portion of a module, segment, or code that includes one or more executable instructions for executing a specified logical function (s). It should also be noted that in some alternative implementations, the functions noted in the blocks may occur out of order. For example, the two blocks shown in succession may in fact be executed substantially concurrently, or the blocks may sometimes be executed in the reverse order, depending on the corresponding function.
이 때, 본 실시 예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this case, the term '~ part' used in the present embodiment refers to software or a hardware component such as an FPGA or an ASIC, and '~ part' performs certain roles. However, '~' is not meant to be limited to software or hardware. '~ Portion' may be configured to be in an addressable storage medium or may be configured to play one or more processors. Thus, as an example, '~' means components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and the like. Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functionality provided within the components and the 'parts' may be combined into a smaller number of components and the 'parts' or further separated into additional components and the 'parts'. In addition, the components and '~' may be implemented to play one or more CPUs in the device or secure multimedia card.
본 명세서가 속하는 기술분야의 통상의 지식을 가진 자는 본 명세서가 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 명세서의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 명세서의 범위에 포함되는 것으로 해석되어야 한다.Those skilled in the art will appreciate that the present disclosure may be embodied in other specific forms without changing the technical spirit or essential features of the present disclosure. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. The scope of the present specification is indicated by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and the equivalent concept are included in the scope of the present specification. Should be interpreted.
한편, 본 명세서와 도면에는 본 명세서의 바람직한 실시 예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 명세서의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 명세서의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예 외에도 본 명세서의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 명세서가 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.On the other hand, the present specification and drawings have been described with respect to the preferred embodiments of the present specification, although specific terms are used, it is only used in a general sense to easily explain the technical content of the present specification and to help the understanding of the invention, It is not intended to limit the scope of the specification. It will be apparent to those skilled in the art that other modifications based on the technical spirit of the present disclosure may be implemented in addition to the embodiments disclosed herein.
종래의 다시점 AS3D 영상은 한시점에서는 입체감이 약하고 다른 시점에서는 입체감이 비교적 강하게 되는 입체감의 일관성이 떨어지게 되는 문제가 발생하게 되었으나, 본 발명은 하나의 2D 영상 콘텐츠를, 다시점 3D 영상 콘텐츠로 변환하여, 목적영상과 배경영상을 물리적으로 분리된 두개의 디스플레이에서 재생 가능하게 하여 어지러움이나 고스트 현상없이 입체감 높은 영상을 제공할 수 있다. 이로써, 영상 산업 시장을 더욱 활성화 할 수 있다. Conventional multi-view AS3D video has a problem that the coherence of the three-dimensional effect that the three-dimensional effect is weak at one time point, and the three-dimensional effect is relatively strong at another point of view occurs, but the present invention converts one 2D image content into a multi-view 3D image content Accordingly, the object image and the background image can be reproduced on two physically separated displays, thereby providing a three-dimensional image without dizziness or ghosting. This can further stimulate the imaging industry market.

Claims (10)

  1. 하나의 2D 영상 콘텐츠로부터 적층형 홀로그램을 생성하기 위한 적층형 홀로그램용 콘텐츠 변환장치의 콘텐츠 변환방법으로서,A content conversion method of a content conversion apparatus for stacked holograms for generating stacked holograms from one 2D video content,
    상기 2D 영상 콘텐츠로부터 미리 정해진 프레임 레이트에 따라 정지영상을 추출하는 단계;Extracting a still image from the 2D image content at a predetermined frame rate;
    추출된 정지영상에 대하여, 하나 이상의 객체가 포함된 목적영상과 배경영상을 분리하는 단계; Separating the object image and the background image including one or more objects with respect to the extracted still image;
    분리된 목적영상 및 배경영상 각각에 대하여 특정 맵을 사용하여 맵핑을 수행하는 단계; Mapping each of the separated target image and background image using a specific map;
    매핑된 목적영상 및 배경영상 각각에 대하여 심도와 입체값을 추출하여 다시점 영상을 생성하는 단계Generating a multiview image by extracting depth and stereoscopic values for each of the mapped target image and background image
    를 포함하는 적층형 홀로그램용 콘텐츠 변환방법. Content conversion method for a stacked hologram comprising a.
  2. 제1항에 있어서, The method of claim 1,
    분리된 목적영상 및 배경영상에 대하여 특정 맵을 사용하여 맵핑을 수행하는 단계는, The mapping of the separated target image and the background image using a specific map may include:
    상기 목적영상 및 배경영상에 포함된 하나 이상의 객체에 대하여 각 픽셀의 깊이값을 추출하는 단계; 및 Extracting a depth value of each pixel of at least one object included in the target image and the background image; And
    추출된 깊이값이 큰 객체를 깊이값이 작은 객체보다 전면에 재배치하는 단계 Rearranging the extracted object with larger depth value to the front than the object with smaller depth value
    를 포함하는 것을 특징으로 하는 적층형 홀로그램용 콘텐츠 변환방법. Content conversion method for a stacked hologram comprising a.
  3. 제2항에 있어서, The method of claim 2,
    상기 목적영상에 포함된 하나 이상의 객체에 대하여 각 픽셀의 깊이값을 추출하는 단계 이전에, Before extracting the depth value of each pixel for one or more objects included in the target image,
    분리된 목적영상이 분리된 배경영상의 빈 영역에 빈 영역의 경계 주위의 픽셀을 참조하여 픽셀을 채우는 단계Filling pixels by referring to the pixels around the boundary of the empty area in the empty area of the separated background image
    를 포함하는 것을 특징으로 하는 적층형 홀로그램용 콘텐츠 변환방법. Content conversion method for a stacked hologram comprising a.
  4. 제1항에 있어서, The method of claim 1,
    생성된 목적영상의 다시점 영상과 배경영상의 다시점 영상을 하나의 파일로 묶은 후, 래스터 파일을 생성하고, 생성된 목적영상용 래스터 파일과 배경영상용 래스터 파일을 동기화시킴으로써 재생영상을 생성하는 단계After generating the multi-view image of the generated target image and the multi-view image of the background image into a single file, a raster file is generated, and a reproduced image is generated by synchronizing the generated raster file for the target image with the raster file for the background image. step
    를 더 포함하는 적층형 홀로그램용 콘텐츠 변환방법. Content conversion method for a stacked hologram further comprising.
  5. 제1항에 있어서, The method of claim 1,
    상기 특정 맵은 뎁스(depth) 맵, 디스플레이스먼트 맵, 텍스쳐 맵 및 그들의 조합중 적어도 어느 하나 이상인 것을 특징으로 하는 적층형 홀로그램용 콘텐츠 변환방법. And wherein the specific map is at least one of a depth map, a displacement map, a texture map, and a combination thereof.
  6. 하드웨어와 결합되어, Combined with hardware,
    2D 영상 콘텐츠로부터 미리 정해진 프레임 레이트에 따라 정지영상을 추출하는 단계;Extracting a still image according to a predetermined frame rate from the 2D image content;
    추출된 정지영상에 대하여, 하나 이상의 객체가 포함된 목적영상과 배경영상을 분리하는 단계; Separating the object image and the background image including one or more objects with respect to the extracted still image;
    분리된 목적영상 및 배경영상 각각에 대하여 특정 맵을 사용하여 맵핑을 수행하는 단계; 및Mapping each of the separated target image and background image using a specific map; And
    매핑된 목적영상 및 배경영상 각각에 대하여 심도와 입체값을 이용하여 다시점 영상을 생성하는 단계 Generating a multi-view image using depth and stereoscopic values for each of the mapped target image and background image
    를 실행시키기 위하여 매체에 저장된 컴퓨터프로그램.A computer program stored on the medium for executing.
  7. 하나의 2D 영상 콘텐츠로부터 적층형 홀로그램을 생성하기 위한 적층형 홀로그램용 콘텐츠 변환장치로서,A content conversion device for stacked holograms for generating stacked holograms from one 2D video content,
    상기 2D 영상 콘텐츠로부터 미리 정해진 프레임 레이트에 따라 정지영상을 추출하고, 추출된 정지영상에 대하여, 하나 이상의 객체가 포함된 목적영상과 배경영상을 분리하는 추출모듈;An extraction module which extracts a still image from the 2D image content at a predetermined frame rate, and separates a target image and a background image including one or more objects from the extracted still image;
    상기 목적영상 및 배경영상 각각에 대하여 특정 맵을 사용하여 맵핑을 수행하는 맵핑모듈; 및A mapping module for mapping each target image and the background image using a specific map; And
    매핑된 목적영상 및 배경영상 각각에 대하여 다시점 영상을 생성하는 시점 변환 모듈A viewpoint conversion module for generating a multiview image for each of the mapped target image and background image
    을 포함하는 적층형 홀로그램용 콘텐츠 변환장치. Content conversion device for a stacked hologram comprising a.
  8. 제7에 있어서, The method according to claim 7,
    생성된 목적영상의 다시점 영상과 배경영상의 다시점 영상을 하나의 파일로 묶은 후, 래스터 파일을 생성하고, 생성된 목적영상용 래스터 파일과 배경영상용 래스터 파일을 동기화시키는 동기화 모듈 Synchronization module for creating a raster file after combining the multi-view image of the generated target image and the multi-view image of the background image into a single file, and synchronizing the raster file for the target image and the raster file for the background image
    을 더 포함하는 적층형 홀로그램용 콘텐츠 변환장치. Stacked holographic content converter further comprising a.
  9. 제7항에 있어서,  The method of claim 7, wherein
    상기 추출모듈은 매핑을 수행하기 이전 분리된 목적영상이 분리된 배경영상의 빈 영역에 빈 영역의 경계 주위의 픽셀을 참조하여 픽셀을 채우는 것을 특징으로 하는 적층형 홀로그램용 콘텐츠 변환장치.The extraction module is a content conversion device for a stacked hologram, characterized in that to fill the pixel by referring to the pixel around the boundary of the blank area in the blank area of the background image separated from the separated target image before the mapping.
  10. 제7에 있어서, The method according to claim 7,
    상기 맵핑모듈은 영상에 포함된 하나 이상의 객체에 대하여 각 픽셀의 깊이값을 추출하고, 추출된 깊이값이 큰 객체를 깊이값이 작은 객체보다 전면에 배치하는 것을 특징으로 하는 적층형 홀로그램용 콘텐츠 변환장치. The mapping module extracts a depth value of each pixel with respect to one or more objects included in the image, and arranges an object having a larger extracted depth value in front of an object having a smaller depth value. .
PCT/KR2015/009492 2015-06-01 2015-09-09 Content conversion method, content conversion apparatus, and program for multi-layered hologram WO2016195167A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0077107 2015-06-01
KR1020150077107A KR101754976B1 (en) 2015-06-01 2015-06-01 Contents convert method for layered hologram and apparatu

Publications (1)

Publication Number Publication Date
WO2016195167A1 true WO2016195167A1 (en) 2016-12-08

Family

ID=57441403

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/009492 WO2016195167A1 (en) 2015-06-01 2015-09-09 Content conversion method, content conversion apparatus, and program for multi-layered hologram

Country Status (2)

Country Link
KR (1) KR101754976B1 (en)
WO (1) WO2016195167A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107071392A (en) * 2016-12-23 2017-08-18 网易(杭州)网络有限公司 Image processing method and device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180116708A (en) * 2017-04-17 2018-10-25 주식회사 쓰리디팩토리 Method and apparatus for providing contents for layered hologram

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050001101A (en) * 2003-06-27 2005-01-06 한국과학기술연구원 Method of rendering a 3D image from a 2D image
KR20100036683A (en) * 2008-09-30 2010-04-08 삼성전자주식회사 Method and apparatus for output image
KR20130110339A (en) * 2012-03-29 2013-10-10 한국과학기술원 Method and apparatus for generating 3d stereoscopic image
KR20140003741A (en) * 2012-06-26 2014-01-10 세종대학교산학협력단 Method for manufacturing 3d contents and apparatus for thereof
KR101451236B1 (en) * 2014-03-03 2014-10-15 주식회사 비즈아크 Method for converting three dimensional image and apparatus thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050001101A (en) * 2003-06-27 2005-01-06 한국과학기술연구원 Method of rendering a 3D image from a 2D image
KR20100036683A (en) * 2008-09-30 2010-04-08 삼성전자주식회사 Method and apparatus for output image
KR20130110339A (en) * 2012-03-29 2013-10-10 한국과학기술원 Method and apparatus for generating 3d stereoscopic image
KR20140003741A (en) * 2012-06-26 2014-01-10 세종대학교산학협력단 Method for manufacturing 3d contents and apparatus for thereof
KR101451236B1 (en) * 2014-03-03 2014-10-15 주식회사 비즈아크 Method for converting three dimensional image and apparatus thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107071392A (en) * 2016-12-23 2017-08-18 网易(杭州)网络有限公司 Image processing method and device

Also Published As

Publication number Publication date
KR101754976B1 (en) 2017-07-06
KR20160141446A (en) 2016-12-09

Similar Documents

Publication Publication Date Title
JP5431726B2 (en) Combined exchange of images and related data
US9083963B2 (en) Method and device for the creation of pseudo-holographic images
JP5011316B2 (en) Rendering the output image
WO2010101362A2 (en) Metadata generating method and apparatus and image processing method and apparatus using metadata
JP2008544681A (en) Combined exchange of images and associated depth data
KR20080072634A (en) Stereoscopic format converter
EP2387245A2 (en) Three dimensional (3D) image display apparatus, and driving method thereof
CN103442241A (en) 3D displaying method and 3D displaying device
WO2016056735A1 (en) Multiview image display device and control method therefor
JP5454569B2 (en) 3D image data processing apparatus and 3D image data processing method
US20120120190A1 (en) Display device for use in a frame sequential 3d display system and related 3d display system
CN101697597A (en) Method for generating 3D image
US20120050271A1 (en) Stereoscopic image processing device, method for processing stereoscopic image, and multivision display system
TWI674556B (en) The hardware system for inputting 3d image in a flat panel
WO2016195167A1 (en) Content conversion method, content conversion apparatus, and program for multi-layered hologram
WO2014107014A1 (en) Display method and display apparatus
JP2004102526A (en) Three-dimensional image display device, display processing method, and processing program
KR101912242B1 (en) 3d display apparatus and method for image processing thereof
US9154766B2 (en) Method for outputting three-dimensional (3D) image at increased output frequency and display apparatus thereof
CN207603821U (en) A kind of bore hole 3D systems based on cluster and rendering
WO2016003101A1 (en) Method for displaying stereoscopic image and apparatus thereof
KR101276603B1 (en) Apparatus and method for display 3d image
WO2010050692A2 (en) Image processing method and apparatus
KR20200054846A (en) Apparatus and method for dual stereoscopic display
WO2015119330A1 (en) Tabletop type three-dimensional display system using lens array

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15894340

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15894340

Country of ref document: EP

Kind code of ref document: A1