KR20120045269A - Method and apparatus for generating hologram based on 3d mesh modeling and evolution - Google Patents
Method and apparatus for generating hologram based on 3d mesh modeling and evolution Download PDFInfo
- Publication number
- KR20120045269A KR20120045269A KR1020100106702A KR20100106702A KR20120045269A KR 20120045269 A KR20120045269 A KR 20120045269A KR 1020100106702 A KR1020100106702 A KR 1020100106702A KR 20100106702 A KR20100106702 A KR 20100106702A KR 20120045269 A KR20120045269 A KR 20120045269A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- generating
- information
- mesh
- hologram
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000005286 illumination Methods 0.000 claims description 24
- 238000003384 imaging method Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 6
- 238000005457 optimization Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000009472 formulation Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/04—Processes or apparatus for producing holograms
- G03H1/08—Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/322—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using varifocal lenses or mirrors
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Holo Graphy (AREA)
Abstract
Description
아래의 실시예들은 홀로그램 영상을 생성하기 위한 방법 및 장치에 관한 것이다.The following embodiments are related to a method and apparatus for generating a holographic image.
3D 메쉬 모델링 및 에볼루션에 기반하여 홀로그램을 생성하는 장치 및 방법이 개시된다.An apparatus and method for generating holograms based on 3D mesh modeling and evolution are disclosed.
컴퓨터에 의해 생성된 홀로그램(computer generated hologram; CGH) 기술은 3차원 모델(model) 정보로부터 홀로그램 영상을 생성하는 기술로, 그래픽스 데이터(graphics data)를 홀로그램 영상으로 표현하기 위해 사용된다.Computer generated hologram (CGH) technology is a technology for generating holographic images from three-dimensional model information, and is used to represent graphics data as holographic images.
홀로그램 영상을 캡춰하기 위해 피사체에 레이저(laser) 빔(beam)을 조사하는 방식이 사용될 경우, 피사체가 원거리의 물체 또는 사람일 때 문제가 발생할 수 있다.When a method of irradiating a laser beam on a subject is used to capture a holographic image, a problem may occur when the subject is a distant object or a person.
또한, 이러한 방식은, 참조(reference) 레이저 빔 및 객체(object) 레이저 빔 간 위상(phase) 차를 획득하기 위해, 매우 안정적인 캡춰 환경을 요구한다.This approach also requires a very stable capture environment in order to obtain the phase difference between the reference laser beam and the object laser beam.
또한, 이러한 방식에서 사용되는 캡춰 장비는 소형화되기에 어렵기 때문에, 캡춰 장비의 크기로 인한 문제가 발생될 수 있다.Also, since the capture equipment used in this manner is difficult to miniaturize, problems may arise due to the size of the capture equipment.
본 발명의 일 실시에는, 컬러 및/또는 범위(range) 카메라를 사용하여 실사 객체에 대한 3D 모델을 생성하고, 생성된 3D 모델에 기반하여 CGH 기술을 이용함으로써 홀로그램 영상을 생성하는 장치 및 방법을 제공할 수 있다.An embodiment of the present invention, an apparatus and method for generating a holographic image by generating a 3D model of the photorealistic object using a color and / or range camera, and using the CGH technology based on the generated 3D model Can provide.
본 발명의 일 실시에는, 3D 모델 중 반사광(specular) 부분을 뷰의 변화에 따라 쉬프트(shift)함으로써 반사광을 반영하는 홀로그램 영상을 생성하는 장치 및 방법을 제공할 수 있다.According to one embodiment of the present invention, an apparatus and method for generating a holographic image reflecting reflected light by shifting a specular portion of a 3D model according to a change in a view may be provided.
본 발명의 일측에 따르면, 하나 이상의 카메라로부터 영상 정보를 수신하고 상기 수신된 영상 정보에서 컬러 정보 및 깊이 정보를 획득함으로써 3D 포인트 클라우드를 생성하는 3D 기하 획득부, 상기 3D 포인트 클라우드에 메쉬 모델링 및 메쉬 에볼루션을 적용함으로써 3D 메쉬 정보를 생성하는 3D 메쉬 모델 생성부 및 상기 3D 메쉬 모델에 기반하여 생성된 특정 시점의 2D 영상들을 결합함으로써 홀로그램 패턴 영상을 생성하는 홀로그램 영상 생성부를 포함하는 영상 장치가 제공된다.According to one aspect of the present invention, a 3D geometric acquisition unit for generating a 3D point cloud by receiving image information from at least one camera and obtaining color information and depth information from the received image information, mesh modeling and meshing in the 3D point cloud There is provided an imaging apparatus including a 3D mesh model generator for generating 3D mesh information by applying evolution and a hologram image generator for generating a hologram pattern image by combining 2D images of a specific view generated based on the 3D mesh model. .
상기 3D 기하 획득부는, 카메라 집합으로부터 제공된 영상 데이터에 기반하여 깊이 영상을 획득하는 깊이 영상 획득부, 카메라 집합으로부터 제공된 영상 데이터에 기반하여 컬러 영상을 획득하는 컬러 영상 획득부 및 상기 깊이 영상 및 상기 컬러 영상에 기반하여 3D 포인트 클라우드를 생성하는 3D 포인트 클라우드 생성부를 포함할 수 있다. The 3D geometry acquisition unit may include a depth image acquisition unit obtaining a depth image based on image data provided from a camera set, a color image acquisition unit obtaining a color image based on image data provided from a camera set, and the depth image and the color. It may include a 3D point cloud generator for generating a 3D point cloud based on the image.
상기 깊이 영상 획득부는 상기 카메라 집합을 구성하는 복수 개의 카메라들 각각으로부터 촬영된 서로 상이한 시점에서의 2D 영상에 기반하여 깊이 영상 데이터를 획득할 수 있다.The depth image acquisition unit may acquire depth image data based on 2D images from different viewpoints photographed from each of a plurality of cameras constituting the camera set.
상기 3D 메쉬 모델 생성부는,The 3D mesh model generation unit,
상기 3D 포인트 클라우드에 3D 메쉬 삼각분할을 적용함으로써 메쉬 모델을 생성하는 메쉬 모델링부 및 상기 메쉬 모델 내의 메쉬 노드들을 분리, 생성 또는 변경함으로써 상기 메쉬 모델의 정밀도를 향상시키는 메쉬 에볼루션부를 포함할 수 있다.It may include a mesh modeling unit for generating a mesh model by applying a 3D mesh triangulation to the 3D point cloud and a mesh evolution unit for improving the precision of the mesh model by separating, generating or changing the mesh nodes in the mesh model.
상기 3D 메쉬 모델 생성부는, 상기 3D 기하 획득부로부터 상기 컬러 정보를 제공받아 상기 컬러 정보로부터 조명 정보를 추출하는 조명 정보 추출부를 더 포함할 수 있다. The 3D mesh model generator may further include an illumination information extractor configured to receive the color information from the 3D geometry obtainer and extract illumination information from the color information.
상기 홀로그램 영상 생성부는 상기 조명 정보에 기반하여 상기 3D 메쉬 모델 내의 반사광 부분을 감지할 수 있고, 상기 반사광 부분을 상기 특정 시점의 이동에 비례하도록 쉬프트함으로써 상기 특정 시점에서의 2D 영상들에 반사광을 적용할 수 있다.The holographic image generator may detect a reflected light portion in the 3D mesh model based on the illumination information, and apply the reflected light to the 2D images at the specific viewpoint by shifting the reflected light portion in proportion to the movement of the specific viewpoint. can do.
상기 홀로그램 영상 생성부는, 상기 3D 메쉬 모델을 사용하여 특정 시점에서의 2D 영상들을 생성하는 특정 시점 영상 생성부 및 상기 특정 시점에서의 2D 영상들을 결합함으로써 홀로그램 패턴 영상을 생성하는 홀로그램 패턴 영상 생성부를 포함할 수 있다.The hologram image generator includes a specific viewpoint image generator for generating 2D images at a specific viewpoint using the 3D mesh model and a hologram pattern image generator for generating a hologram pattern image by combining 2D images at the specific viewpoint. can do.
상기 홀로그램 패턴 영상 생성부는 포인트-기반 CGH(computer generated hologram) 방식 또는 푸리에 기반 CGH 방식 중 하나를 사용하여 상기 특정 시점에서의 2D 영상들 각각에 대한 홀로그램 패턴 영상 생성 정보를 생성할 수 있고, 상기 홀로그램 패턴 영상 생성 정보를 결합함으로써 상기 홀로그램 패턴 영상을 생성할 수 있다.The hologram pattern image generator may generate hologram pattern image generation information for each of the 2D images at the specific time point using one of a point-based computer generated hologram (CGH) method or a Fourier-based CGH method. The holographic pattern image may be generated by combining pattern image generation information.
상기 홀로그램 패턴 영상 생성부는 상기 특정 시점에서의 2D 영상이 이전에 생성된 상기 특정 시점에서의 2D 영상과 동일한 경우 이전에 생성된 상기 홀로그램 패턴 영상 생성 정보를 사용할 수 있다.The hologram pattern image generation unit may use the hologram pattern image generation information previously generated when the 2D image at the specific viewpoint is the same as the 2D image at the specific viewpoint previously generated.
상기 홀로그램 패턴 영상 생성부는 상기 특정 시점에서의 2D 영상 및 이전에 생성된 상기 특정 시점에서의 2D 영상을 비교하여, 상기 특정 시점에서의 2D 영상 내에서 변화가 발생한 픽셀이 영향이 미치는 영역에 대해서만 상기 홀로그램 패턴 영상 생성 정보를 재계산할 수 있다.The hologram pattern image generation unit compares the 2D image at the specific time point and the 2D image at the specific time point previously generated, and applies only to an area affected by a pixel having a change in the 2D image at the specific time point. The hologram pattern image generation information may be recalculated.
본 발명의 다른 일측에 따르면, 하나 이상의 카메라로부터 영상 정보를 수신하고 상기 수신된 영상 정보에서 컬러 정보 및 깊이 정보를 획득함으로써 3D 포인트 클라우드를 생성하는 3D 기하 획득 단계, 상기 3D 포인트 클라우드에 메쉬 모델링 및 메쉬 에볼루션을 적용함으로써 3D 메쉬 정보를 생성하는 3D 메쉬 모델 생성 단계 및 상기 3D 메쉬 모델에 기반하여 특정 시점의2D 영상들을 생성하고, 상기 특정 시점의 2D 영상들을 결합함으로써 홀로그램 패턴 영상을 생성하는 홀로그램 영상 생성 단계를 포함하는, 홀로그램 영상 생성 방법이 제공된다.According to another aspect of the invention, the 3D geometric acquisition step of generating a 3D point cloud by receiving image information from at least one camera and obtaining color information and depth information from the received image information, mesh modeling and the 3D point cloud 3D mesh model generation step of generating 3D mesh information by applying mesh evolution and 2D images of a specific viewpoint based on the 3D mesh model, and a hologram image of generating hologram pattern images by combining the 2D images of the specific viewpoint There is provided a holographic image generating method comprising a generating step.
상기 3D 기하 획득 단계는, 카메라 집합으로부터 제공된 영상 데이터에 기반하여 깊이 영상을 획득하는 깊이 영상 획득 단계, 카메라 집합으로부터 제공된 영상 데이터에 기반하여 컬러 영상을 획득하는 컬러 영상 획득 단계 및 상기 깊이 영상 및 상기 컬러 영상에 기반하여 3D 포인트 클라우드를 생성하는 3D 포인트 클라우드 생성 단계를 포함할 수 있다. The 3D geometric acquiring step may include a depth image acquiring step of acquiring a depth image based on image data provided from a camera set, a color image acquiring step of acquiring a color image based on image data provided from a camera set, and the depth image and the The 3D point cloud generation step of generating a 3D point cloud based on the color image may be included.
상기 3D 메쉬 모델 생성 단계는, 상기 3D 포인트 클라우드에 3D 메쉬 삼각분할을 적용함으로써 메쉬 모델을 생성하는 메쉬 모델링 단계 및 상기 메쉬 모델 내의 메쉬 노드들을 분리, 생성 또는 변경함으로써 상기 메쉬 모델의 정밀도를 향상시키는 메쉬 에볼루션 단계를 포함할 수 있다.The 3D mesh model generation step may include a mesh modeling step of generating a mesh model by applying 3D mesh triangulation to the 3D point cloud, and improving precision of the mesh model by separating, generating, or modifying mesh nodes in the mesh model. And mesh evolution step.
상기 3D 메쉬 모델 생성 단계는, 상기 3D 기하 획득부로부터 상기 컬러 정보를 제공받아 상기 컬러 정보로부터 조명 정보를 추출하는 조명 정보 추출 단계를 더 포함할 수 있다.The generating of the 3D mesh model may further include an illumination information extraction step of extracting illumination information from the color information by receiving the color information from the 3D geometry obtainer.
상기 홀로그램 영상 생성 단계는 상기 조명 정보에 기반하여 상기 3D 메쉬 모델 내의 반사광 부분을 감지할 수 있고, 상기 반사광 부분을 상기 특정 시점의 이동에 비례하도록 쉬프트함으로써 상기 특정 시점에서의 2D 영상들에 반사광을 적용할 수 있다. The generating of the hologram image may detect a reflected light portion in the 3D mesh model based on the illumination information, and shift the reflected light portion to be proportional to the movement of the specific view to apply reflected light to the 2D images at the specific view. Applicable
상기 홀로그램 영상 생성 단계는, 상기 3D 메쉬 모델을 사용하여 상기 특정 시점에서의 2D 영상들을 생성하는 특정 시점 영상 생성 단계 및 상기 특정 시점에서의 2D 영상들을 결합함으로써 홀로그램 패턴 영상을 생성하는 홀로그램 패턴 영상 생성 단계를 포함할 수 있다. The holographic image generation step may include generating a holographic pattern image by generating a holographic pattern image by combining a 2D image at a specific viewpoint and a specific viewpoint image generating step of generating 2D images at the specific viewpoint using the 3D mesh model. It may include a step.
상기 홀로그램 패턴 영상 생성 단계는, 포인트-기반 CGH(computer generated hologram) 방식 또는 푸리에 기반 CGH 방식 중 하나를 사용하여 상기 특정 시점에서의 2D 영상들 각각에 대한 홀로그램 패턴 영상 생성 정보를 생성하는 단계 및 상기 홀로그램 패턴 영상 생성 정보를 결합함으로써 상기 홀로그램 패턴 영상을 생성하는 단계를 포함할 수 있다.The generating of the hologram pattern image may include generating hologram pattern image generation information for each of the 2D images at the specific time point using one of a point-based computer generated hologram (CGH) method and a Fourier-based CGH method. And generating the holographic pattern image by combining holographic pattern image generation information.
상기 홀로그램 패턴 영상 생성 단계는 상기 특정 시점에서의 2D 영상이 이전에 생성된 상기 특정 시점에서의 2D 영상과 동일한 경우 이전에 생성된 상기 홀로그램 패턴 영상 생성 정보를 사용할 수 있다.The generating of the hologram pattern image may use the hologram pattern image generation information previously generated when the 2D image at the specific view point is the same as the 2D image at the specific view point previously generated.
상기 홀로그램 패턴 영상 생성 단계는 상기 특정 시점에서의 2D 영상 및 이전에 생성된 상기 특정 시점에서의 2D 영상을 비교하여, 상기 특정 시점에서의 2D 영상 내에서 변화가 발생한 픽셀이 영향이 미치는 영역에 대해서만 상기 홀로그램 패턴 영상 생성 정보를 재계산할 수 있다.The generating of the hologram pattern image compares the 2D image at the specific point in time and the 2D image at the specific point in time previously generated, so that only the area affected by a pixel having a change in the 2D image at the specific point in time is affected. The hologram pattern image generation information may be recalculated.
컬러 및/또는 범위(range) 카메라를 사용하여 실사 객체에 대한 3D 모델을 생성하고, 생성된 3D 모델에 기반하여 CGH 기술을 이용함으로써 홀로그램 영상을 생성하는 장치 및 방법이 제공된다.An apparatus and method are provided for generating a 3D model of a photorealistic object using a color and / or range camera, and generating a holographic image by using CGH technology based on the generated 3D model.
3D 모델 중 반사광 부분을 뷰의 변화에 따라 쉬프트(shift)함으로써 반사광을 반영하는 홀로그램 영상을 생성하는 장치 및 방법이 제공된다.An apparatus and method are provided for generating a holographic image that reflects reflected light by shifting a portion of the reflected light of the 3D model according to a change in a view.
도 1은 본 발명의 일 실시예에 따른 영상 장치(imaging device)의 구조도이다.
도 2는 본 발명의 일 예에 따른 영상 획득을 위한 카메라 집합 및 3D 기하 획득부의 구성을 도시한다.
도 3은 본 발명의 일 예에 따른 메쉬 모델링 및 에볼루션을 설명한다.
도 4는 본 발명의 일 예에 따른 홀로그램 영상 생성을 설명한다.
도 5는 본 발명의 일 실시예에 따른 홀로그램 영상 생성 방법의 흐름도이다.1 is a structural diagram of an imaging device according to an embodiment of the present invention.
2 illustrates a configuration of a camera set and a 3D geometric acquisition unit for image acquisition according to an embodiment of the present invention.
3 illustrates mesh modeling and evolution according to an embodiment of the present invention.
4 illustrates hologram image generation according to an embodiment of the present invention.
5 is a flowchart illustrating a holographic image generating method according to an embodiment of the present invention.
이하에서, 본 발명의 일 실시예를, 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. Like reference numerals in the drawings denote like elements.
도 1은 본 발명의 일 실시예에 따른 영상 장치(imaging device)의 구조도이다.1 is a structural diagram of an imaging device according to an embodiment of the present invention.
영상 처리 장치(100)는 3D 기하 획득부(110), 3D 메쉬 모델 생성부(140) 및 홀로그램 영상 생성부(170)를 포함한다.The image processing apparatus 100 may include a 3D geometry acquirer 110, a 3D
3D 기하 획득부(110)는 하나 이상의(멀티(multi)) 카메라로부터 영상 정보를 수신한다.The 3D geometry acquirer 110 receives image information from one or more (multi) cameras.
3D 기하 획득부(110)는 수신된 영상 정보에서 컬러 정보 및 깊이(depth) 정보를 획득하고, 획득된 컬러 정보 및 깊이 정보를 사용하여 3D 포인트(point) 클라우드(cloud)를 생성한다.The 3D geometry acquirer 110 obtains color information and depth information from the received image information, and generates a 3D point cloud using the obtained color information and depth information.
3D 기하 획득부(110)는 깊이 영상 획득부(120), 컬러 영상 획득부(125) 및 3D 포인트 클라우드 생성부(130)를 포함할 수 있다. The 3D geometry acquirer 110 may include a depth image acquirer 120, a color image acquirer 125, and a 3D
3D 기하 획득부(110)의 구성 및 동작이 도 2를 참조하여 하기에서 설명된다.The configuration and operation of the 3D
3D 메쉬 모델 생성부(140)는 3D 기하 획득부(110)에 의해 생성된 3D 포인트 클라우드에 기반하여 3D 메쉬 정보를 생성한다.The 3D
3D 메쉬 모델 생성부(140)는 생성된 3D 메쉬 정보를 보정할 수 있다.The 3D
3D 메쉬 정보는 위치 정보, 칼라 정보 및 조명 정보를 포함할 수 있다.The 3D mesh information may include location information, color information, and lighting information.
3D 메쉬 모델 생성부(140)는 3D 포인트 클라우드에 메쉬 모델링 및 메쉬 에볼루션을 적용함으로써 3D 메쉬 정보를 생성할 수 있다.The 3D
3D 메쉬 모델 생성부(140)는 메쉬 모델링부(150), 메쉬 에볼루션부(155) 및 조명 정보 추출부(160)를 포함할 수 있다.The 3D mesh
3D 메쉬 모델 생성부(140)의 구성 및 동작이 도 3을 참조하여 하기에서 설명된다.The configuration and operation of the 3D
홀로그램 영상 생성부(170)는 3D 메쉬 모델 생성부(140)에 의해 생성된 3D 메쉬 모델에 기반하여 특정 시점(view point)의 영상들을 생성하고, 생성된 특정 시점의 영상들을 결합함으로써 홀로그램 패턴 영상을 생성한다.The
홀로그램 영상 생성부(170)는 CGH에 기반하여 홀로그램 영상을 생성할 수 있다.The
홀로그램 영상 생성부(170)은 특정 시점(view point) 영상 생성부(180) 및 홀로그램 패턴 영상 생성부(190)를 포함할 수 있다.The
홀로그램 영상 생성부(170)의 구성 및 동작이 도 4를 참조하여 하기에서 설명된다.
The configuration and operation of the
도 2는 본 발명의 일 예에 따른 영상 획득을 위한 카메라 집합 및 3D 기하 획득부(110)의 구성을 도시한다.2 illustrates a configuration of a camera set and a 3D
깊이 영상 및 컬러 영상을 획득하기 위한 정보를 제공하기 위하여 다양한 종류의 카메라 집합(또는, 센서(sensor))이 사용될 수 있다.Various types of camera sets (or sensors) may be used to provide information for obtaining depth images and color images.
카메라 집합은 3차원의 실사 영상을 실시간으로 획득할 수 있다.The camera set may acquire a 3D real-time image in real time.
카메라 집합은 컬러 카메라 및 깊이 카메라의 퓨전(fusion) 시스템(210), 스테레오(stereo) 카메라들(220), 카메라 어레이(230) 및 마이크로 렌즈 어레이(240)일 수 있다.The set of cameras may be a
컬러 카메라 및 깊이 카메라의 퓨전(fusion) 시스템(210)은 하나 이상의 컬러 카메라(212) 및 하나 이상의 깊이 카메라(214)를 포함한다. 컬러 카메라 및 깊이 카메라의 퓨전(fusion) 시스템(210)은 상이한 종류의 카메라를 포함하기 때문에 이종(heterogeneous) 카메라 집합으로 불린다.
스테레오 카메라들(220)은 서로 다른 위치에서 피사체를 촬영하는 2개의 카메라들로 구성된다. 즉, 스테레오 카메라들(220)을 구성하는 양 카메라들은 각각 상이한 시점(view point)에서의 2D 컬러 영상을 촬영한다.The
카메라 어레이(230)는, 예컨대 행 및 열로 배치된, 복수 개의 카메라들로 구성된다. 카메라 어레이(230)를 구성하는 복수 개의 카메라들은 각각 상이한 시점에서의 2D 컬러 영상을 촬영한다.
마이크로 렌즈 어레이(240)는 하나의 카메라에 장착된 렌즈들의 어레이이다. 마이크로 렌즈 어레이(240) 내의 렌즈들은 각각 상이한 시점에서 2D 컬러 영상을 촬영한다.The
깊이 영상 획득부(120)는 카메라 집합으로부터 제공된 영상 데이터에 기반하여 깊이 영상을 획득한다.The
예컨대, 깊이 영상 획득부(120)는 깊이 카메라(214)로부터 깊이 영상 데이터를 제공받을 수 있다.For example, the
예컨대, 깊이 영상 획득부(120)는 스테레오 카메라들(220), 카메라 어레이(230) 또는 마이크로 렌즈 어레이(240)로부터 제공받은 하나 이상의 영상 데이터에 기반하여 깊이 값을 계산함으로써 깊이 영상을 획득할 수 있다.For example, the
또한, 깊이 영상 획득부(120)는 카메라 집합들로부터 서로 다른 시점에서의 2D 영상들을 제공받을 수 있고, 제공받은 2D 영상들에 기반하여 영상의 변이(disparity) 정보를 생성할 수 있다.In addition, the
일반적으로 한 객체를 나타내는 픽셀의 깊이 및 변이는 서로 반비레한다. 따라서, 깊이 영상 획득부(120)는 영상의 변이 정보에 기반하여 깊이 영상 데이터를 획득할 수 있다.In general, the depth and variation of pixels representing an object are inversely proportional to each other. Therefore, the
컬러 영상 획득부(125)는 카메라 집합으로부터 제공된 영상 데이터에 기반하여 컬러 영상을 획득한다.The color
예컨대, 컬러 영상 획득부(125)는 컬러 카메라(212)로부터 컬러 영상 데이터를 제공받을 수 있다. 또한, 컬러 영상 획득부(125)는 스테레오 카메라들(220), 카메라 어레이(230) 또는 마이크로 렌즈 어레이(240)로부터 제공받은 하나 이상의 영상 데이터에 기반하여 컬러 값을 계산함으로써 컬러 영상을 획득할 수 있다.For example, the color
전술된 것처럼, 한 객체를 나타내는 픽셀의 깊이 및 변이는 서로 반비례한다. 따라서, 본 실시예 및 본 발명의 다른 실시예에서의, 깊이에 대한 설명은 변이에도 적용될 수 있음이 자명하다. 예컨대, 깊이 영상 획득부(120)는 변이 영상 획득부로도 명명될 수 있다.As described above, the depth and the variation of pixels representing an object are inversely proportional to each other. Thus, in this embodiment and other embodiments of the present invention, it is obvious that the description of depth can be applied to variations. For example, the
3D 포인트 클라우드 생성부(130)는 생성된 깊이 영상 및 컬러 영상에 기반하여 3D 포인트 클라우드를 생성한다.The 3D
일반적으로, 3D 포인트 클라우드가 나타내는 3D 기하의 정밀도는 촬영된 영상의 복잡도 등에 의해 영향을 받는다. 높은 정밀도의 밀집한(dense) 3D 포인트들을 획득하기 위해, 멀티(multi) 카메라(예컨대, 스테레오 카메라들(220), 카메라 어레이(230) 및 마이크로 렌즈 어레이(240)와 같은) 및 Tof(Time-of-Flight) 방식의 센서(sensor)(예컨대, 깊이 카메라)가 함께 사용될 수 있다.In general, the precision of the 3D geometry represented by the 3D point cloud is affected by the complexity of the captured image. Multi cameras (such as
이러한 경우, 함께 사용되는 카메라들 및 센서들 간의 캘리브레이션이 촬영 이전에 수행될 수 있다. 캘리브레이션은 동일한 피사체를 동일한 위치에서 촬영한 카메라들 및 센서들이 동일한 데이터를 획득하도록, 카메라 또는 센서를 조절하는 것일 수 있다.In this case, calibration between the cameras and sensors used together can be performed prior to imaging. Calibration may be to adjust a camera or a sensor so that cameras and sensors photographing the same subject at the same location acquire the same data.
이러한 영상 정보 생성 방법은, 원거리 배경 캡춰 문제, 실외(outdoor) 캡춰 문제 및 객체에 대한 레이저 빔 조사 문제등을 해결할 수 있다. 또한, 이러한 영상 정보 생성 방법은 상대적으로 작은 크기의 장비를 사용하여 수행될 수 있고, 더 안정적인 홀로그램 캡춰 장비를 사용하여 수행될 수 있다.
The image information generation method may solve a remote background capture problem, an outdoor capture problem, a laser beam irradiation problem on an object, and the like. In addition, the image information generating method may be performed using a relatively small size of the equipment, it may be performed using a more stable hologram capture equipment.
도 3은 본 발명의 일 예에 따른 메쉬 모델링 및 에볼루션을 설명한다.3 illustrates mesh modeling and evolution according to an embodiment of the present invention.
제1 그래프(310)는 3D 포인트 클라우드 생성부(130)에 의해 생성된 3D 포인트 클라우드(312) 및 홀(hole) 필링(filling)(314) 대상 위치를 나타낸다.The
메쉬 모델링부(150)는 3D 포인트 클라우드 생성부(130)로부터 3D 포인트 클라우드(312)를 제공받는다.The
메쉬 모델링부(150)는 홀 필링을 수행할 수 있다.The
홀 필링은 3D 포인트 클라우드(312) 사이에 빈 공간이 있는 경우, 주변 포인트들의 정보를 참조하여 새로운 3D 포인트(322)를 생성하는 것이다.The hole filling is to create a
메쉬 모델링부(150)는 지역 최적화(local optimization) 방식 또는 전역 최적화(global optimization) 방식을 홀 필링을 위해 사용할 수 있다.The
지역 최적화 방식은 주변 포인트들의 컬러/위치 연속성에 기반하여 새로운 3D 포인트를 생성하는 방식이다.The local optimization method is to generate a new 3D point based on the color / location continuity of the surrounding points.
전역 최적화 방식은 현재 생성된 볼륨(volume)을 기반으로 보이지 않는 면을 예측함으로써 새로운 3D 포인트를 생성하는 볼륨 예측(prediction) 방식이다.The global optimization method is a volume prediction method that generates a new 3D point by predicting an invisible surface based on the currently generated volume.
메쉬 모델링부(150)는 전술된 방식에 따라, 홀 필링에 의해 포인트가 생성될 위치(314)를 계산할 수 있다.The
메쉬 모델링부(150)는 새로운 포인트(322)를 생성하고, 최종 포인트 클라우드(320)를 생성한다.The
메쉬 모델링부(150)는 최종 포인트 클라우드(320)에 3D 메쉬 삼각분할(triangulation)을 적용함으로써 메쉬 모델(330)을 생성한다.The
메쉬 모델링부(150)는 최종 포인트 클라우드(320) 내의 포인트들을 에지(edge)(332)로 연결함으로써 3각형들로 구성된 메쉬 모델(330)을 생성한다. 메쉬 모델링부(150)는 딜러니(delaunay) 삼각분할 방법 또는 컬러 에지(edge) 기반 삼각분할 방법을 사용하여 메쉬 모델(330)을 생성할 수 있다.The
메쉬 모델(330)은 3D 기하 획득부에 의해 생성된 3D 위치 정보에 기반하여 생성된 모델이다. 그러나, 메쉬 모델(330) 내의 포인트들은 카메라의 특성 또는 잡음(noise) 등의 이유로 오차(error)를 포함한다.The
메쉬 에볼루션부(155)는 3D 위치 및 컬러 정보를 참조하여 메쉬 모델(330) 내의 메쉬 노드들을 분리, 생성 또는 변경함으로써 메쉬 모델(330)의 정밀도를 향상시킨다.The
예컨대, 메쉬 에볼루션부(155)는 새로운 포인트(342) 및 새로운 포인트(342)와 연결되는 에지들(344)를 추가할 수 있다.For example, the
메쉬 에볼루션부(155)에 의해 메쉬 노드들이 분리, 생성 또는 변경됨으로써 최종 획득 모델(340)이 생성된다.The
메쉬 에볼루션부(155)는 최종적으로 획득된 모델(340)에 컬러 정보를 추가하는 표면 매칭(surface matching) 작업을 수행한다.The
표면 매칭 작업에 의해 컬러 정보가 추가된 노드(352 및 354)를 갖는 최종 획득 모델이 생성된다.The surface matching operation produces a final acquisition model with
영상 장치(100)가 동영상을 처리할 경우, 메쉬 에볼루션부(160)는 각각의 프레임 별로 생성된 모델들 간에 3D 기하 일관성(consistency) 및 컬러 일관성을 고려한 표면 매칭을 수행함으로써 동영상의 화질을 향상시킬 수 있다.When the imaging apparatus 100 processes a video, the
조명 정보 추출부(160)는 3D 기하 획득부(110)로부터 컬러 정보(예컨대, 컬러 영상 획득부(125)가 생성한 컬러 영상)를 제공받아, 컬러 정보로부터 조명 정보를 추출한다.The
조명 정보 추출부(160)는 컬러 영상 내에서 반사광(specular) 부분을 감지(detect)할 수 있다.The
재질의 컬러를 나타내는 성분 중 확산광(diffuse) 성분은 시점 변화에 따른 차이를 발생시키지 않는다. 따라서, 특정 시점의 영상이 생성될 때, 확산광 성분이 적용되는 부분에는 획득된 컬러 값이 그대로 사용될 수 있다.Among the components representing the color of the material, the diffuse component does not cause a difference according to the viewpoint change. Therefore, when an image of a specific time point is generated, the obtained color value may be used as it is in the portion to which the diffused light component is applied.
그러나, 반사광 성분은 시점 변화에 따라 민감한 차이를 발생시킨다. 따라서, 특정 시점의 영상이 생성될 때, 반사광 성분이 적용되는 부분은 영상 및 깊이 기반의 뷰 내삽(view interpolation) 만으로는 처리될 수 없다.However, the reflected light component produces a sensitive difference in accordance with the viewpoint change. Therefore, when an image of a specific viewpoint is generated, the portion to which the reflected light component is applied cannot be processed only by image and depth based view interpolation.
따라서, 조명 정보 추출부(160)가 추출한 반사광에 대한 정보는 이후 특정 시점에서의 영상을 생성하기 위해 홀로그램 영상 생성부(170)에 의하여 사용될 수 있다.Therefore, the information on the reflected light extracted by the
메쉬 에볼루션부(155) 및 조명 정보 추출부(160)의 처리에 의해, 3D 메쉬 모델 생성부(140)는 조명 정보가 포함된 3D 모델 정보를 제공할 수 있다.By processing the
전술된 메쉬 모델링 및 메쉬 에볼루션은 생성된 메쉬 모델에 기반하여 3D 기하 정밀도 및 컬러 화질의 향성 과정을 처리함으로써, 뷰 내삽 등 특정한 2D 시점의 영상들을 기반으로 하는 임의 영상 생성 방식에 비해 더 높은 화질 및 정밀도를 갖는 홀로그램 영상을 제공할 수 있다.The above-described mesh modeling and mesh evolution processes the 3D geometric precision and color quality directing process based on the generated mesh model, thereby providing higher image quality and higher quality than any image generation method based on images of specific 2D viewpoints such as view interpolation. It is possible to provide a holographic image with precision.
3D 메쉬 모델 생성부(140)는, 동영상 내의 프레임에 대해 메쉬 모델링 및 메쉬 에볼루션 작업을 처리할 때, 매 프레임 별로 생성된 3D 메쉬 모델들 간의 3D 기하 및 컬러 일관성(consistency)을 고려할 수 있다. 이러한 경우, 이후 생성될 특정 시점에서의 2D 영상들 간에서는 프레임 간 일관성이 별도로 고려되지 않을 수 있다.
The 3D
도 4는 본 발명의 일 예에 따른 홀로그램 영상 생성을 설명한다.4 illustrates hologram image generation according to an embodiment of the present invention.
특정 시점 영상 생성부(180)는 3D 메쉬 모델 생성부(140)로부터 제공받은 3D 메쉬 모델(410)을 사용하여, 특정 시점에서의 2D 영상(420)들을 생성한다.The specific
특정 시점에서의 2D 영상(420)을 생성하기 위해서, 3D 모델(410) 내의 3차원 상의 모델(surface) 표면 포인트 (x, y, z)를 이용함으로써, 특정 시점 2D 영상(420)에서의 투영(projection) 포인트 (x p , y p )가 계산되어야 한다.Projection in a specific
투영 포인트 (x p , y p )는 하기의 1) 내지 3) 중 하나의 방법으로 계산될 수 있다.The projection point ( x p , y p ) can be calculated by one of the following 1) to 3).
1) 정 투영(orthographic projection) : 평행 육면체 모양의 관측 공간을 사용하는 방법이다. 정 투영이 사용될 경우, 시점 및 객체 간의 거리가 객체의 투영된 모양에 영향을 미치지 않는다.1) Orthographic projection: A method of using a parallelepiped observation space. If positive projection is used, the distance between the viewpoint and the object does not affect the projected shape of the object.
정투영에서, 투영 포인트는 하기의 수학식 1에 의해 계산될 수 있다.In orthographic projection, the projection point can be calculated by Equation 1 below.
영상 평면은 각 및 를 갖는 법선(normal vector)으로 기울어졌다(slanted with).Video plane is angle And Slanted with a normal vector with.
2) 원근 투영(perspective projection) : 공간상의 객체 및 시점을 연결하여 투영면에 표현하는 방식이다. 원근 투영이 사용될 경우, 시점 및 객체 간의 거리에 따라 투영된 물체의 크기가 달라진다.2) Perspective projection: A method of connecting objects and viewpoints in space and expressing them on the projection surface. When perspective projection is used, the size of the projected object depends on the distance between the viewpoint and the object.
원근 투영에서, 투영 포인트는 하기의 수학식 2에 의해 계산될 수 있다.In perspective projection, the projection point can be calculated by Equation 2 below.
여기서, (x 0 , y 0 )은 시점(즉, 카메라)의 위치이고, f는 초첨 거리(focal length)이다.Where ( x 0 , y 0 ) is the position of the viewpoint (ie, the camera) and f is the focal length.
3) 각 직교 투영(angular projection) : 각 직교 평면을 사용하는 투영 방법이다.3) Angular projection: A projection method using each orthogonal plane.
각 직교 투영에서, 투영 포인트는 하기의 수학식 3에 의해 계산될 수 있다.In each orthogonal projection, the projection point can be calculated by the following equation (3).
상기의 투영 방법에 따라 2D 영상들이 생성될 때, 특정 시점 영상 생성부(180)는 투영 시점에 따라 변화되는 반사광 재질 정보를 반영하여 계산된 기하에 대응하는 컬러 정보를 생성할 수 있다.When 2D images are generated according to the projection method, the specific
즉, 특정 시점 영상 생성부(180)는 조명 정보 추출부(160)에 의해 생성된 조명 정보에 기반하여 3D 메쉬 모델 내에서 반사광 부분을 감지할 수 있다.That is, the specific
특정 시점 영상 생성부(180)는 양안시차를 기준으로 표면에서의 쉬프트(shift) 거리(즉, 쉬프트될 픽셀의 개수)를 결정할 수 있다.The specific
특정 시점 영상 생성부(180)는 반사광 컴퍼넌트(component)에 픽셀 쉬프트를 적용하여 3D 객체를 렌더링(rendering)할 수 있다. 이러한 렌더링에 의해 특정 뷰에서의 반사광 이미지가 생성된다.The particular
따라서, 특정 시점 영상 생성부(180)는 반사광 부분을 시점의 이동에 비례하도록 쉬프트함으로써 특정 시점에서의 2D 영상에 반사광을 적용할 수 있다. 따라서, 특정 시점 영상 생성부(180)는 반사광이 적용된 자연스러운 영상을 생성할 수 있으며, 확산광 및 반사광 재질 전체에 대한 특정 시점 영상을 생성할 수 있다.Therefore, the specific
홀로그램 패턴 영상 생성부(190)는 생성된 특정 시점에서의 2D 영상(420)들을 결합함으로써 홀로그램 패턴 영상(440)을 생성한다.The hologram
홀로그램 패턴 영상 생성부(190)는 다양한 방식의 CGH 기술을 적용하여 홀로그램 패턴 영상(440)을 생성할 수 있다. 예컨대, 포인트-기반(point-based) CGH 방식 또는 푸리에(Fourier) 기반 CGH 방식이 홀로그램 패턴 영상(440)을 생성하기 위해 사용될 수 있다.The hologram
홀로그램 패턴 영상 생성부(190)는 특정 시점에서의 2D 영상(420)들 각각에 CGH 기술을 적용하여 홀로그램 패턴 영상(440)을 생성하기 위한 정보(430)를 생성할 수 있고, 상기의 정보(430)를 결합함으로써 홀로그램 패턴 영상(440)을 생성할 수 있다.The hologram
하기에서, 푸리에 방식의 CGH 영상 생성 방식이 설명된다.In the following, a Fourier type CGH image generation method is described.
하기의 수학식 4는 프레넬 회절(Fresnel diffraction)의 원리에 따라, 프레넬-키르히호프 공식(Fresnel-Kirchhoff formulation)을 이용하여 홀로그램 캡춰 과정의 객체 빔(object beam)을 계산하는 수식이다.Equation 4 below is a formula for calculating the object beam of the hologram capturing process using the Fresnel-Kirchhoff formulation according to the principle of Fresnel diffraction.
및 는 각각 수평 및 수직 방향의 각을 나타낸다. 즉, 는 뷰 각(angle)을 나타낸다. And Denotes angles in the horizontal and vertical directions, respectively. In other words, Represents the view angle.
는 에 대응하는 투영된 이미지이다. 이 때, 는 투영의 좌표 시스템(coordinate system)이다. Is Is a projected image corresponding to. At this time, Is the coordinate system of the projection.
b는 실수 값을 갖는 상수(real-valued constant)이다. b is a real-valued constant.
s(m, n)은 객체의 m 및 n 번째 원근(perspective)이다. s ( m , n ) is the mth and nth perspectives of the object.
각각의 m 및 n에 대해서 s(m, n)이 계산됨으로써 객체 빔이 계산될 수 있다.The object beam can be calculated by calculating s ( m , n ) for each m and n .
홀로그램 패턴 영상 생성부(190)는 수학식 4에서 사용된 가상의 침조(reference) 빔 및 수학식 4에 의해 계산된 객체 빔을 이용하여 홀로그램의 프린지(fringe) 패턴(pattern)을 생성할 수 있다.The hologram
영상 장치(100)가 동영상을 재생할 경우, 홀로그램 영상 생성부(170)(또는, 홀로그램 패턴 영상 생성부(190))는 현재 프레임(즉, 2D 영상(420))이 이전 프레임(즉, 이전에 처리된 2D 영상(420))에 비해 변경되었을 경우에만, 홀로그램 패턴 영상(440)을 생성하기 위한 작업(예컨대, 홀로그램 패턴 영상 생성 정보의 계산)을 수행할 수 있다.When the imaging apparatus 100 plays a video, the hologram image generating unit 170 (or the hologram pattern image generating unit 190) may have a current frame (that is, the 2D image 420) before the previous frame (that is, the previous frame). Only when it is changed compared to the processed
예컨대, 홀로그램 영상 생성부(170)(또는, 홀로그램 패턴 영상 생성부(190))는 p(t-1) 및 p(t) 사이에 움직임(motion)이 있을 경우에만, 특정 순간 t에서의 객체 빔을 계산할 수 있고, p(t-1) 및 p(t) 사이에 움직임이 없는 경우에는 이전 순간 t-1에서 계산된 객체 빔을 그대로 사용할 수 있다.For example, the holographic image generator 170 (or a holographic pattern image generation unit 190) is an object of the p (t- 1) and p (t) only if there is movement (motion) between a particular moment t If it is possible to calculate the beam, there is no movement between p (t- 1) and p (t) may be used as the object beam from the previous calculation time t- 1.
영상 장치(100)가 동영상을 재생할 경우, 홀로그램 영생 생성부(170)(또는, 홀로그램 패턴 영상 생성부(190))는 현재 프레임(즉, 2D 영상(420)) 및 이전 프레임(즉, 이전에 처리된 2D 영상(420))을 비교하여, 현재 프레임 중 이전 프레임에 비해 변화가 발생한 픽셀을 추출할 수 있다.When the image device 100 plays a video, the hologram eternal generation unit 170 (or the hologram pattern image generation unit 190) may display the current frame (ie, the 2D image 420) and the previous frame (that is, the previous frame). The processed 2D image 420) may be compared to extract a pixel in which a change has occurred compared to a previous frame of the current frame.
홀로그램 영생 생성부(170)(또는, 홀로그램 패턴 영상 생성부(190))는 상기의 변화가 발생한 픽셀이 영향을 미치는 영역에 대해서만 홀로그램 패턴 영상 정보를 생성하고, 변화가 발생한 픽셀에 의한 영향이 미치지 않는 영역에 대해서는 이전에 생성된 홀로그램 패턴 영상 생성 정보를 사용할 수 있다.The hologram eternal generation unit 170 (or the hologram pattern image generation unit 190) generates hologram pattern image information only in an area affected by the pixel in which the change occurs, and the influence of the pixel in which the change occurs is not affected. For regions that are not used, previously generated holographic pattern image generation information may be used.
예컨대, 전술된 수학식 4에서, s(m, n)을 계산함에 있어서, 홀로그램 영상 생성부(170)(또는, 홀로그램 패턴 영상 생성부(190))는 p mn 내의 각각의 픽셀들 중 변경된 부분 내의 픽셀 을 추출할 수 있고, 하기의 수학식 5를 사용하여 현재 시각 t의 S t (p mn )을 계산할 수 있다.For example, in the above-described Equation 4, in calculating s ( m , n ), the hologram image generator 170 (or the hologram pattern image generator 190) is a modified portion of each pixel in p mn . Pixels within May be extracted and S t ( p mn ) of the current time t may be calculated using Equation 5 below.
도 5는 본 발명의 일 실시예에 따른 홀로그램 영상 생성 방법의 흐름도이다.5 is a flowchart illustrating a holographic image generating method according to an embodiment of the present invention.
홀로그램 영상 생성 방법은 크게 3D 기하 획득 단계(S520, S525 및 S530), 3D 메쉬 모델 생성 단계(S550, S555 및 S560) 및 홀로그램 영상 생성 단계(S580 및 S590)를 포함한다.The hologram image generating method includes a 3D geometric acquisition step (S520, S525 and S530), a 3D mesh model generation step (S550, S555 and S560) and a hologram image generation step (S580 and S590).
우선, 3D 기하 획득 단계(S520, S525 및 S530)를 설명한다.First, the 3D geometry acquisition steps S520, S525, and S530 will be described.
3D 기하 획득 단계(S520, S525 및 S530)는 하나 이상의 카메라로부터 영상 정보를 수신하고 수신된 영상 정보에서 컬러 정보 및 깊이 정보를 획득함으로써 3D 포인트 클라우드를 생성한다.The 3D geometric acquisition steps S520, S525, and S530 generate a 3D point cloud by receiving image information from one or more cameras and obtaining color information and depth information from the received image information.
깊이 영상 획득 단계(S520)에서, 카메라 집합으로부터 제공된 영상 데이터에 기반하여 깊이 영상이 획득된다.In a depth image acquisition step (S520), a depth image is obtained based on image data provided from a camera set.
컬러 영상 획득 단계(S525)에서, 카메라 집합으로부터 제공된 영상 데이터에 기반하여 컬러 영상이 획득된다.In a color image acquisition step (S525), a color image is obtained based on image data provided from a camera set.
3D 포인트 클라우드 생성 단계(S530)에서, 깊이 영상 획득 단계(S520)에서 획득된 깊이 영상 및 컬러 영상 획득 단계(S525)에서 획득된 컬러 영상에 기반하여 3D 포인트 클라우드가 생성된다.In the 3D point cloud generation step S530, a 3D point cloud is generated based on the depth image acquired in the depth image acquisition step S520 and the color image obtained in the color image acquisition step S525.
다음으로, 3D 메쉬 모델 생성 단계(S550, S555 및 S560)를 설명한다.Next, 3D mesh model generation steps (S550, S555, and S560) will be described.
3D 메쉬 모델 생성 단계(S550, S555 및 S560)에서, 3D 기하 획득 단계(S520, S525 및 S530)에서 생성된 3D 포인트 클라우드에 메쉬 모델링 및 메쉬 에볼루션을 적용함으로써 3D 메쉬 정보가 생성된다.In the 3D mesh model generation steps (S550, S555, and S560), 3D mesh information is generated by applying mesh modeling and mesh evolution to the 3D point cloud generated in the 3D geometry acquisition steps (S520, S525, and S530).
메쉬 모델링 단계(S550)에서, 3D 포인트 클라우드에 3D 메쉬 삼각분할을 적용함으로써 메쉬 모델이 생성된다.In the mesh modeling step S550, a mesh model is generated by applying 3D mesh triangulation to the 3D point cloud.
메쉬 에볼루션 단계(S555)에서, 메쉬 모델 내의 메쉬 노드들을 분리, 생성 또는 변경함으로써 상기 메쉬 모델의 정밀도가 향상된다.In mesh evolution step S555, the precision of the mesh model is improved by separating, generating, or changing mesh nodes in the mesh model.
조명 정보 추출 단계(S560)에서, 3D 기하 획득 단계(S520, S525 및 S530)로부터 제공된 컬러 정보로부터 조명 정보가 추출된다.In the illumination information extraction step S560, illumination information is extracted from the color information provided from the 3D geometry acquisition steps S520, S525, and S530.
다음으로, 홀로그램 영상 생성 단계(S580 및 S590)를 설명한다.Next, hologram image generation steps S580 and S590 will be described.
홀로그램 영상 생성 단계(S580 및 S590)에서, 3D 메쉬 모델 생성 단계(S550, S555 및 S560)에서 생성된 3D 메쉬 모델에 기반하여 특정 시점의 2D 영상들이 생성되고, 생성된 특정 시점의 2D 영상들을 결합함으로써 홀로그램 패턴 영상이 생성된다.In the hologram image generation steps S580 and S590, 2D images of a specific view are generated based on the 3D mesh model generated in the 3D mesh model generation steps S550, S555 and S560, and the 2D images of the specific view generated are combined. As a result, a holographic pattern image is generated.
홀로그램 영상 생성 단계(S580 및 S590)에서, 조명 정보 추출 단계(S560)에서 추출된 조명 정보에 기반하여 3D 메쉬 모델 내의 반사광 부분이 감지될 수 있고, 감지된 반사광 부분을 특정 시점의 이동에 비례하도록 쉬프트함으로써 특정 시점에서의 2D 영상들에 반사광이 적용될 수 있다.In the hologram image generation steps S580 and S590, the reflected light portion in the 3D mesh model may be detected based on the illumination information extracted in the illumination information extraction step S560, and the detected reflected light portion may be proportional to the movement of a specific viewpoint. By shifting, the reflected light may be applied to the 2D images at a specific viewpoint.
특정 시점 영상 생성 단계(S580)에서, 3D 메쉬 모델을 사용하여 특정 시점에서의 2D 영상들이 생성된다.In a specific viewpoint image generation step S580, 2D images at a specific viewpoint are generated using the 3D mesh model.
홀로그램 패턴 영상 생성 단계(S590)에서, 생성된 특정 시점에서의 2D 영상들을 결합함으로써 홀로그램 패턴 영상이 생성된다.In the hologram pattern image generation step (S590), the hologram pattern image is generated by combining the generated 2D images at a specific time point.
홀로그램 패턴 영상 생성 단계(S590)는, 포인트-기반 CGH 방식 또는 푸리에 기반 CGH 방식 중 하나를 사용하여 특정 시점에서의 2D 영상들 각각에 대한 홀로그램 패턴 영상 생성 정보를 생성하는 단계를 포함할 수 있으며, 생성된 홀로그램 패턴 영상 생성 정보를 결합함으로써 상기 홀로그램 패턴 영상을 생성하는 단계를 포함할 수 있다.The hologram pattern image generation step (S590) may include generating hologram pattern image generation information for each of the 2D images at a specific time point using one of a point-based CGH scheme or a Fourier-based CGH scheme. The method may include generating the holographic pattern image by combining the generated holographic pattern image generation information.
홀로그램 패턴 영상 생성 단계(S590)에서, 특정 시점에서의 2D 영상이 이전에 생성된 동일한 특정 시점에서의 2D 영상과 동일한 경우, 이전에 생성된 홀로그램 패턴 영상 생성 정보가 사용될 수 있다. In the hologram pattern image generation step (S590), when the 2D image at the specific view point is the same as the 2D image at the same specific view point previously generated, previously generated hologram pattern image generation information may be used.
홀로그램 패턴 영상 생성 단계(S590)에서, 특정 시점에서의 2D 영상 및 이전에 생성된 동일한 특정 시점에서의 2D 영상이 비교될 수 있다. 또한, 특정 시점에서의 2D 영상 내에서 변화가 발생한 픽셀이 영향이 미치는 영역에 대해서만 홀로그램 패턴 영상 생성 정보가 재계산될 수 있다.In the hologram pattern image generation step (S590), the 2D image at a specific time point and the 2D image at the same specific time point previously generated may be compared. In addition, the hologram pattern image generation information may be recalculated only in an area affected by a pixel having a change in the 2D image at a specific time point.
앞서 도 1 내지 도 4를 참조하여 설명된 본 발명의 일 실시예에 따른 기술 적 내용들이 본 실시예에도 그대로 적용될 수 있다. 따라서 보다 상세한 설명은 이하 생략하기로 한다.
Technical contents according to an embodiment of the present invention described above with reference to FIGS. 1 to 4 may be applied to the present embodiment as it is. Therefore, more detailed description will be omitted below.
본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Method according to an embodiment of the present invention is implemented in the form of program instructions that can be executed by various computer means may be recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.
100: 영상 장치
110: 3D 기하 획득부
140: 3D 메쉬 모델 생성부
170: 홀로그램 영상 생성부100: video device
110: 3D Geometry
140: 3D mesh model generation unit
170: hologram image generating unit
Claims (20)
상기 3D 포인트 클라우드에 메쉬 모델링 및 메쉬 에볼루션을 적용함으로써 3D 메쉬 정보를 생성하는 3D 메쉬 모델 생성부; 및
상기 3D 메쉬 모델에 기반하여 생성된 특정 시점의 2D 영상들을 결합함으로써 홀로그램 패턴 영상을 생성하는 홀로그램 영상 생성부
를 포함하는 영상 장치.A 3D geometry obtainer for generating 3D point clouds by receiving image information from at least one camera and obtaining color information and depth information from the received image information;
A 3D mesh model generator for generating 3D mesh information by applying mesh modeling and mesh evolution to the 3D point cloud; And
Hologram image generation unit for generating a holographic pattern image by combining 2D images of a specific view generated based on the 3D mesh model
Imaging device comprising a.
상기 3D 기하 획득부는,
카메라 집합으로부터 제공된 영상 데이터에 기반하여 깊이 영상을 획득하는 깊이 영상 획득부;
카메라 집합으로부터 제공된 영상 데이터에 기반하여 컬러 영상을 획득하는 컬러 영상 획득부; 및
상기 깊이 영상 및 상기 컬러 영상에 기반하여 3D 포인트 클라우드를 생성하는 3D 포인트 클라우드 생성부
를 포함하는, 영상 장치.The method of claim 1,
The 3D geometric acquisition unit,
A depth image obtaining unit obtaining a depth image based on image data provided from a camera set;
A color image obtaining unit obtaining a color image based on image data provided from a camera set; And
3D point cloud generating unit for generating a 3D point cloud based on the depth image and the color image
Including, the imaging device.
상기 깊이 영상 획득부는 상기 카메라 집합을 구성하는 복수 개의 카메라들 각각으로부터 촬영된 서로 상이한 시점에서의 2D 영상에 기반하여 깊이 영상 데이터를 획득하는, 영상 장치.The method of claim 2,
The depth image obtaining unit obtains depth image data based on 2D images from different viewpoints photographed from each of a plurality of cameras constituting the camera set.
상기 3D 메쉬 모델 생성부는,
상기 3D 포인트 클라우드에 3D 메쉬 삼각분할을 적용함으로써 메쉬 모델을 생성하는 메쉬 모델링부; 및
상기 메쉬 모델 내의 메쉬 노드들을 분리, 생성 또는 변경함으로써 상기 메쉬 모델의 정밀도를 향상시키는 메쉬 에볼루션부
를 포함하는, 영상 장치.The method of claim 1,
The 3D mesh model generation unit,
A mesh modeling unit generating a mesh model by applying 3D mesh triangulation to the 3D point cloud; And
Mesh evolution unit that improves the precision of the mesh model by separating, generating or changing mesh nodes in the mesh model
Including, the imaging device.
상기 3D 메쉬 모델 생성부는,
상기 3D 기하 획득부로부터 상기 컬러 정보를 제공받아 상기 컬러 정보로부터 조명 정보를 추출하는 조명 정보 추출부
를 더 포함하는, 영상 장치.The method of claim 4, wherein
The 3D mesh model generation unit,
An illumination information extracting unit which receives the color information from the 3D geometry obtaining unit and extracts lighting information from the color information.
Further comprising, the imaging device.
상기 홀로그램 영상 생성부는 상기 조명 정보에 기반하여 상기 3D 메쉬 모델 내의 반사광 부분을 감지하고, 상기 반사광 부분을 상기 특정 시점의 이동에 비례하도록 쉬프트함으로써 상기 특정 시점에서의 2D 영상들에 반사광을 적용하는, 영상 장치.The method of claim 5,
The hologram image generator detects the reflected light portion in the 3D mesh model based on the illumination information, and applies the reflected light to the 2D images at the specific viewpoint by shifting the reflected light portion in proportion to the movement of the specific viewpoint. Imaging device.
상기 홀로그램 영상 생성부는,
상기 3D 메쉬 모델을 사용하여 특정 시점에서의 2D 영상들을 생성하는 특정 시점 영상 생성부; 및
상기 특정 시점에서의 2D 영상들을 결합함으로써 홀로그램 패턴 영상을 생성하는 홀로그램 패턴 영상 생성부
를 포함하는, 영상 장치.The method of claim 1,
The hologram image generator,
A specific view image generation unit generating 2D images at a specific view using the 3D mesh model; And
Hologram pattern image generation unit for generating a hologram pattern image by combining the 2D images at the specific time point
Including, the imaging device.
상기 홀로그램 패턴 영상 생성부는 포인트-기반 CGH(computer generated hologram) 방식 또는 푸리에 기반 CGH 방식 중 하나를 사용하여 상기 특정 시점에서의 2D 영상들 각각에 대한 홀로그램 패턴 영상 생성 정보를 생성하고, 상기 홀로그램 패턴 영상 생성 정보를 결합함으로써 상기 홀로그램 패턴 영상을 생성하는, 영상 장치.The method of claim 7, wherein
The hologram pattern image generating unit generates hologram pattern image generation information for each of the 2D images at the specific time point using one of a point-based computer generated hologram (CGH) method or a Fourier-based CGH method, and the hologram pattern image And generating the holographic pattern image by combining generation information.
상기 홀로그램 패턴 영상 생성부는 상기 특정 시점에서의 2D 영상이 이전에 생성된 상기 특정 시점에서의 2D 영상과 동일한 경우 이전에 생성된 상기 홀로그램 패턴 영상 생성 정보를 사용하는, 영상 장치.The method of claim 8,
And the hologram pattern image generation unit uses the hologram pattern image generation information previously generated when the 2D image at the specific viewpoint is the same as the 2D image at the specific viewpoint previously generated.
상기 홀로그램 패턴 영상 생성부는 상기 특정 시점에서의 2D 영상 및 이전에 생성된 상기 특정 시점에서의 2D 영상을 비교하여, 상기 특정 시점에서의 2D 영상 내에서 변화가 발생한 픽셀이 영향이 미치는 영역에 대해서만 상기 홀로그램 패턴 영상 생성 정보를 재계산하는, 영상 장치.The method of claim 8,
The hologram pattern image generation unit compares the 2D image at the specific time point and the 2D image at the specific time point previously generated, and applies only to an area affected by a pixel having a change in the 2D image at the specific time point. An image device for recalculating holographic pattern image generation information.
상기 3D 포인트 클라우드에 메쉬 모델링 및 메쉬 에볼루션을 적용함으로써 3D 메쉬 정보를 생성하는 3D 메쉬 모델 생성 단계; 및
상기 3D 메쉬 모델에 기반하여 특정 시점의2D 영상들을 생성하고, 상기 특정 시점의 2D 영상들을 결합함으로써 홀로그램 패턴 영상을 생성하는 홀로그램 영상 생성 단계
를 포함하는, 홀로그램 영상 생성 방법.3D geometry acquisition step of generating a 3D point cloud by receiving image information from at least one camera and obtaining color information and depth information from the received image information;
A 3D mesh model generation step of generating 3D mesh information by applying mesh modeling and mesh evolution to the 3D point cloud; And
Generating hologram images based on the 3D mesh model to generate 2D images of a specific viewpoint and generating a holographic pattern image by combining the 2D images of the specific viewpoint.
Including, holographic image generation method.
상기 3D 기하 획득 단계는,
카메라 집합으로부터 제공된 영상 데이터에 기반하여 깊이 영상을 획득하는 깊이 영상 획득 단계;
카메라 집합으로부터 제공된 영상 데이터에 기반하여 컬러 영상을 획득하는 컬러 영상 획득 단계; 및
상기 깊이 영상 및 상기 컬러 영상에 기반하여 3D 포인트 클라우드를 생성하는 3D 포인트 클라우드 생성 단계
를 포함하는, 홀로그램 영상 생성 방법.The method of claim 11,
The 3D geometry acquisition step,
A depth image obtaining step of obtaining a depth image based on image data provided from a camera set;
Obtaining a color image based on the image data provided from the camera set; And
3D point cloud generation step of generating a 3D point cloud based on the depth image and the color image
Including, holographic image generation method.
상기 3D 메쉬 모델 생성 단계는,
상기 3D 포인트 클라우드에 3D 메쉬 삼각분할을 적용함으로써 메쉬 모델을 생성하는 메쉬 모델링 단계; 및
상기 메쉬 모델 내의 메쉬 노드들을 분리, 생성 또는 변경함으로써 상기 메쉬 모델의 정밀도를 향상시키는 메쉬 에볼루션 단계
를 포함하는, 홀로그램 영상 생성 방법.The method of claim 11,
The 3D mesh model generation step,
A mesh modeling step of generating a mesh model by applying 3D mesh triangulation to the 3D point cloud; And
Mesh evolution step of improving the precision of the mesh model by separating, generating or modifying mesh nodes in the mesh model
Including, holographic image generation method.
상기 3D 메쉬 모델 생성 단계는,
상기 3D 기하 획득부로부터 상기 컬러 정보를 제공받아 상기 컬러 정보로부터 조명 정보를 추출하는 조명 정보 추출 단계
를 더 포함하는, 홀로그램 영상 생성 방법.The method of claim 13,
The 3D mesh model generation step,
An illumination information extraction step of extracting illumination information from the color information by receiving the color information from the 3D geometric acquisition unit;
Further comprising a, holographic image generation method.
상기 홀로그램 영상 생성 단계는 상기 조명 정보에 기반하여 상기 3D 메쉬 모델 내의 반사광 부분을 감지하고, 상기 반사광 부분을 상기 특정 시점의 이동에 비례하도록 쉬프트함으로써 상기 특정 시점에서의 2D 영상들에 반사광을 적용하는, 홀로그램 영상 생성 방법.The method of claim 14,
The generating of the hologram image detects the reflected light portion in the 3D mesh model based on the illumination information, and applies the reflected light to the 2D images at the specific viewpoint by shifting the reflected light portion in proportion to the movement of the specific viewpoint. , Holographic image generation method.
상기 홀로그램 영상 생성 단계는,
상기 3D 메쉬 모델을 사용하여 상기 특정 시점에서의 2D 영상들을 생성하는 특정 시점 영상 생성 단계; 및
상기 특정 시점에서의 2D 영상들을 결합함으로써 홀로그램 패턴 영상을 생성하는 홀로그램 패턴 영상 생성 단계
를 포함하는, 홀로그램 영상 생성 방법.The method of claim 11,
The hologram image generating step,
A specific viewpoint image generation step of generating 2D images at the specific viewpoint using the 3D mesh model; And
Hologram pattern image generation step of generating a hologram pattern image by combining the 2D images at the specific time point
Including, holographic image generation method.
상기 홀로그램 패턴 영상 생성 단계는,
포인트-기반 CGH(computer generated hologram) 방식 또는 푸리에 기반 CGH 방식 중 하나를 사용하여 상기 특정 시점에서의 2D 영상들 각각에 대한 홀로그램 패턴 영상 생성 정보를 생성하는 단계; 및
상기 홀로그램 패턴 영상 생성 정보를 결합함으로써 상기 홀로그램 패턴 영상을 생성하는 단계
를 포함하는, 홀로그램 영상 생성 방법.The method of claim 16,
The hologram pattern image generation step,
Generating holographic pattern image generation information for each of the 2D images at the specific viewpoint using one of a point-based computer generated hologram (CGH) method and a Fourier-based CGH method; And
Generating the hologram pattern image by combining the hologram pattern image generation information
Including, holographic image generation method.
상기 홀로그램 패턴 영상 생성 단계는 상기 특정 시점에서의 2D 영상이 이전에 생성된 상기 특정 시점에서의 2D 영상과 동일한 경우 이전에 생성된 상기 홀로그램 패턴 영상 생성 정보를 사용하는, 홀로그램 영상 생성 방법.The method of claim 17,
The generating of the hologram pattern image uses the hologram pattern image generation information previously generated when the 2D image at the specific view point is the same as the 2D image at the specific view point previously generated.
상기 홀로그램 패턴 영상 생성 단계는 상기 특정 시점에서의 2D 영상 및 이전에 생성된 상기 특정 시점에서의 2D 영상을 비교하여, 상기 특정 시점에서의 2D 영상 내에서 변화가 발생한 픽셀이 영향이 미치는 영역에 대해서만 상기 홀로그램 패턴 영상 생성 정보를 재계산하는, 홀로그램 영상 생성 방법.The method of claim 17,
The generating of the hologram pattern image compares the 2D image at the specific point in time and the 2D image at the specific point in time previously generated, so that only the area affected by a pixel having a change in the 2D image at the specific point in time is affected. And recalculating the hologram pattern image generation information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100106702A KR20120045269A (en) | 2010-10-29 | 2010-10-29 | Method and apparatus for generating hologram based on 3d mesh modeling and evolution |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100106702A KR20120045269A (en) | 2010-10-29 | 2010-10-29 | Method and apparatus for generating hologram based on 3d mesh modeling and evolution |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20120045269A true KR20120045269A (en) | 2012-05-09 |
Family
ID=46264767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100106702A KR20120045269A (en) | 2010-10-29 | 2010-10-29 | Method and apparatus for generating hologram based on 3d mesh modeling and evolution |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20120045269A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101356378B1 (en) * | 2012-07-02 | 2014-01-28 | 충북대학교 산학협력단 | Method for displaying of three-dimensional integral imaging using camera and apparatus thereof |
KR20160089758A (en) * | 2015-01-20 | 2016-07-28 | 주식회사 엘지유플러스 | Support Method And Server Of 3-Dimension Printer |
CN105872473A (en) * | 2016-05-18 | 2016-08-17 | 西安银石科技发展有限责任公司 | Locomotive overhaul system and method based on video identification realized by hologram dual cameras |
US9727023B2 (en) | 2013-04-15 | 2017-08-08 | Samsung Electronics Co., Ltd. | Apparatus and method for generating hologram pattern |
KR20190136363A (en) * | 2018-05-30 | 2019-12-10 | 주식회사 공간정보 | The Connection System for Remote Sensing data and Cloud-Based Platform |
KR20200024105A (en) * | 2018-08-27 | 2020-03-06 | 주식회사 쓰리디팩토리 | Computer graphics synthesis system and method thereof |
KR102128535B1 (en) * | 2019-11-19 | 2020-06-30 | 주식회사 오드래빗미디어 | System for providing hologram |
US10775540B2 (en) | 2015-02-26 | 2020-09-15 | Samsung Electronics Co., Ltd. | Method of forming light modulating signal for displaying 3D image, and apparatus and method for displaying 3D image |
KR102277098B1 (en) | 2020-02-25 | 2021-07-15 | 광운대학교 산학협력단 | A volume hologram generation method using point cloud and mesh |
WO2024136304A1 (en) * | 2022-12-20 | 2024-06-27 | 한국전자기술연구원 | Method for inserting holographic security code into holographic recording medium and method for reading holographic security code |
-
2010
- 2010-10-29 KR KR1020100106702A patent/KR20120045269A/en not_active Application Discontinuation
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101356378B1 (en) * | 2012-07-02 | 2014-01-28 | 충북대학교 산학협력단 | Method for displaying of three-dimensional integral imaging using camera and apparatus thereof |
US9727023B2 (en) | 2013-04-15 | 2017-08-08 | Samsung Electronics Co., Ltd. | Apparatus and method for generating hologram pattern |
KR20160089758A (en) * | 2015-01-20 | 2016-07-28 | 주식회사 엘지유플러스 | Support Method And Server Of 3-Dimension Printer |
US10775540B2 (en) | 2015-02-26 | 2020-09-15 | Samsung Electronics Co., Ltd. | Method of forming light modulating signal for displaying 3D image, and apparatus and method for displaying 3D image |
CN105872473A (en) * | 2016-05-18 | 2016-08-17 | 西安银石科技发展有限责任公司 | Locomotive overhaul system and method based on video identification realized by hologram dual cameras |
KR20190136363A (en) * | 2018-05-30 | 2019-12-10 | 주식회사 공간정보 | The Connection System for Remote Sensing data and Cloud-Based Platform |
KR20200024105A (en) * | 2018-08-27 | 2020-03-06 | 주식회사 쓰리디팩토리 | Computer graphics synthesis system and method thereof |
KR102128535B1 (en) * | 2019-11-19 | 2020-06-30 | 주식회사 오드래빗미디어 | System for providing hologram |
KR102277098B1 (en) | 2020-02-25 | 2021-07-15 | 광운대학교 산학협력단 | A volume hologram generation method using point cloud and mesh |
US11733649B2 (en) | 2020-02-25 | 2023-08-22 | Kwangwoon University Industry-Academic Collaboration Foundation | Method of generating volume hologram using point cloud and mesh |
WO2024136304A1 (en) * | 2022-12-20 | 2024-06-27 | 한국전자기술연구원 | Method for inserting holographic security code into holographic recording medium and method for reading holographic security code |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20120045269A (en) | Method and apparatus for generating hologram based on 3d mesh modeling and evolution | |
CN108734776B (en) | Speckle-based three-dimensional face reconstruction method and equipment | |
JP6974873B2 (en) | Devices and methods for retrieving depth information from the scene | |
US20180192033A1 (en) | Multi-view scene flow stitching | |
EP2272050B1 (en) | Using photo collections for three dimensional modeling | |
WO2021140886A1 (en) | Three-dimensional model generation method, information processing device, and program | |
US20210241495A1 (en) | Method and system for reconstructing colour and depth information of a scene | |
JP6201476B2 (en) | Free viewpoint image capturing apparatus and method | |
KR20100119559A (en) | Method and system for converting 2d image data to stereoscopic image data | |
KR20090055803A (en) | Method and apparatus for generating multi-viewpoint depth map, method for generating disparity of multi-viewpoint image | |
KR101181199B1 (en) | Stereoscopic image generation method of background terrain scenes, system using the same and recording medium for the same | |
JP2016537901A (en) | Light field processing method | |
KR102152432B1 (en) | A real contents producing system using the dynamic 3D model and the method thereof | |
US20140300941A1 (en) | Method and apparatus for generating hologram based on multi-view image | |
JP5852093B2 (en) | Video processing apparatus, video processing method, and program | |
JP6300346B2 (en) | IP stereoscopic image estimation apparatus and program thereof | |
TW202014993A (en) | Information processing device, program, and information processing method | |
KR101411568B1 (en) | A Hologram Generating Method using Virtual View-point Depth Image Synthesis | |
KR101399274B1 (en) | multi 3-DIMENSION CAMERA USING MULTI PATTERN BEAM AND METHOD OF THE SAME | |
JP7184203B2 (en) | Image processing device, three-dimensional measurement system, image processing method | |
CN110443228A (en) | A kind of method for pedestrian matching, device, electronic equipment and storage medium | |
US20240054667A1 (en) | High dynamic range viewpoint synthesis | |
JP6595878B2 (en) | Element image group generation apparatus and program thereof | |
CN104463958A (en) | Three-dimensional super-resolution method based on disparity map fusing | |
KR20220078447A (en) | Operation method of image restoration apparatus for restoring low-density area |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |