KR20120045269A - Method and apparatus for generating hologram based on 3d mesh modeling and evolution - Google Patents

Method and apparatus for generating hologram based on 3d mesh modeling and evolution Download PDF

Info

Publication number
KR20120045269A
KR20120045269A KR1020100106702A KR20100106702A KR20120045269A KR 20120045269 A KR20120045269 A KR 20120045269A KR 1020100106702 A KR1020100106702 A KR 1020100106702A KR 20100106702 A KR20100106702 A KR 20100106702A KR 20120045269 A KR20120045269 A KR 20120045269A
Authority
KR
South Korea
Prior art keywords
image
generating
information
mesh
hologram
Prior art date
Application number
KR1020100106702A
Other languages
Korean (ko)
Inventor
이승규
하인우
성기영
남동경
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100106702A priority Critical patent/KR20120045269A/en
Publication of KR20120045269A publication Critical patent/KR20120045269A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/08Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/322Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using varifocal lenses or mirrors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Holo Graphy (AREA)

Abstract

PURPOSE: A method and an apparatus for generating three-dimensional mesh modeling and evolution based hologram are provided to generate a three-dimensional model about a real object and to generate a hologram by using a CGH technology based on a three-dimensional model. CONSTITUTION: A three-dimensional geometry obtaining unit(110) receives image information from one or more cameras. The three-dimensional geometry obtaining unit generates a three-dimensional point cloud by obtaining color information and depth information. A three-dimensional mesh model generating unit(140) applies mesh modeling and mesh evolution to the three-dimensional point cloud. A hologram image generating unit(170) combines two-dimensional images of the generated specific point based on the three-dimensional mesh model.

Description

3D 메쉬 모델링 및 에볼루션에 기반한 홀로그램 생성 방법 및 장치{METHOD AND APPARATUS FOR GENERATING HOLOGRAM BASED ON 3D MESH MODELING AND EVOLUTION}TECHNICAL AND APPARATUS FOR GENERATING HOLOGRAM BASED ON 3D MESH MODELING AND EVOLUTION

아래의 실시예들은 홀로그램 영상을 생성하기 위한 방법 및 장치에 관한 것이다.The following embodiments are related to a method and apparatus for generating a holographic image.

3D 메쉬 모델링 및 에볼루션에 기반하여 홀로그램을 생성하는 장치 및 방법이 개시된다.An apparatus and method for generating holograms based on 3D mesh modeling and evolution are disclosed.

컴퓨터에 의해 생성된 홀로그램(computer generated hologram; CGH) 기술은 3차원 모델(model) 정보로부터 홀로그램 영상을 생성하는 기술로, 그래픽스 데이터(graphics data)를 홀로그램 영상으로 표현하기 위해 사용된다.Computer generated hologram (CGH) technology is a technology for generating holographic images from three-dimensional model information, and is used to represent graphics data as holographic images.

홀로그램 영상을 캡춰하기 위해 피사체에 레이저(laser) 빔(beam)을 조사하는 방식이 사용될 경우, 피사체가 원거리의 물체 또는 사람일 때 문제가 발생할 수 있다.When a method of irradiating a laser beam on a subject is used to capture a holographic image, a problem may occur when the subject is a distant object or a person.

또한, 이러한 방식은, 참조(reference) 레이저 빔 및 객체(object) 레이저 빔 간 위상(phase) 차를 획득하기 위해, 매우 안정적인 캡춰 환경을 요구한다.This approach also requires a very stable capture environment in order to obtain the phase difference between the reference laser beam and the object laser beam.

또한, 이러한 방식에서 사용되는 캡춰 장비는 소형화되기에 어렵기 때문에, 캡춰 장비의 크기로 인한 문제가 발생될 수 있다.Also, since the capture equipment used in this manner is difficult to miniaturize, problems may arise due to the size of the capture equipment.

본 발명의 일 실시에는, 컬러 및/또는 범위(range) 카메라를 사용하여 실사 객체에 대한 3D 모델을 생성하고, 생성된 3D 모델에 기반하여 CGH 기술을 이용함으로써 홀로그램 영상을 생성하는 장치 및 방법을 제공할 수 있다.An embodiment of the present invention, an apparatus and method for generating a holographic image by generating a 3D model of the photorealistic object using a color and / or range camera, and using the CGH technology based on the generated 3D model Can provide.

본 발명의 일 실시에는, 3D 모델 중 반사광(specular) 부분을 뷰의 변화에 따라 쉬프트(shift)함으로써 반사광을 반영하는 홀로그램 영상을 생성하는 장치 및 방법을 제공할 수 있다.According to one embodiment of the present invention, an apparatus and method for generating a holographic image reflecting reflected light by shifting a specular portion of a 3D model according to a change in a view may be provided.

본 발명의 일측에 따르면, 하나 이상의 카메라로부터 영상 정보를 수신하고 상기 수신된 영상 정보에서 컬러 정보 및 깊이 정보를 획득함으로써 3D 포인트 클라우드를 생성하는 3D 기하 획득부, 상기 3D 포인트 클라우드에 메쉬 모델링 및 메쉬 에볼루션을 적용함으로써 3D 메쉬 정보를 생성하는 3D 메쉬 모델 생성부 및 상기 3D 메쉬 모델에 기반하여 생성된 특정 시점의 2D 영상들을 결합함으로써 홀로그램 패턴 영상을 생성하는 홀로그램 영상 생성부를 포함하는 영상 장치가 제공된다.According to one aspect of the present invention, a 3D geometric acquisition unit for generating a 3D point cloud by receiving image information from at least one camera and obtaining color information and depth information from the received image information, mesh modeling and meshing in the 3D point cloud There is provided an imaging apparatus including a 3D mesh model generator for generating 3D mesh information by applying evolution and a hologram image generator for generating a hologram pattern image by combining 2D images of a specific view generated based on the 3D mesh model. .

상기 3D 기하 획득부는, 카메라 집합으로부터 제공된 영상 데이터에 기반하여 깊이 영상을 획득하는 깊이 영상 획득부, 카메라 집합으로부터 제공된 영상 데이터에 기반하여 컬러 영상을 획득하는 컬러 영상 획득부 및 상기 깊이 영상 및 상기 컬러 영상에 기반하여 3D 포인트 클라우드를 생성하는 3D 포인트 클라우드 생성부를 포함할 수 있다. The 3D geometry acquisition unit may include a depth image acquisition unit obtaining a depth image based on image data provided from a camera set, a color image acquisition unit obtaining a color image based on image data provided from a camera set, and the depth image and the color. It may include a 3D point cloud generator for generating a 3D point cloud based on the image.

상기 깊이 영상 획득부는 상기 카메라 집합을 구성하는 복수 개의 카메라들 각각으로부터 촬영된 서로 상이한 시점에서의 2D 영상에 기반하여 깊이 영상 데이터를 획득할 수 있다.The depth image acquisition unit may acquire depth image data based on 2D images from different viewpoints photographed from each of a plurality of cameras constituting the camera set.

상기 3D 메쉬 모델 생성부는,The 3D mesh model generation unit,

상기 3D 포인트 클라우드에 3D 메쉬 삼각분할을 적용함으로써 메쉬 모델을 생성하는 메쉬 모델링부 및 상기 메쉬 모델 내의 메쉬 노드들을 분리, 생성 또는 변경함으로써 상기 메쉬 모델의 정밀도를 향상시키는 메쉬 에볼루션부를 포함할 수 있다.It may include a mesh modeling unit for generating a mesh model by applying a 3D mesh triangulation to the 3D point cloud and a mesh evolution unit for improving the precision of the mesh model by separating, generating or changing the mesh nodes in the mesh model.

상기 3D 메쉬 모델 생성부는, 상기 3D 기하 획득부로부터 상기 컬러 정보를 제공받아 상기 컬러 정보로부터 조명 정보를 추출하는 조명 정보 추출부를 더 포함할 수 있다. The 3D mesh model generator may further include an illumination information extractor configured to receive the color information from the 3D geometry obtainer and extract illumination information from the color information.

상기 홀로그램 영상 생성부는 상기 조명 정보에 기반하여 상기 3D 메쉬 모델 내의 반사광 부분을 감지할 수 있고, 상기 반사광 부분을 상기 특정 시점의 이동에 비례하도록 쉬프트함으로써 상기 특정 시점에서의 2D 영상들에 반사광을 적용할 수 있다.The holographic image generator may detect a reflected light portion in the 3D mesh model based on the illumination information, and apply the reflected light to the 2D images at the specific viewpoint by shifting the reflected light portion in proportion to the movement of the specific viewpoint. can do.

상기 홀로그램 영상 생성부는, 상기 3D 메쉬 모델을 사용하여 특정 시점에서의 2D 영상들을 생성하는 특정 시점 영상 생성부 및 상기 특정 시점에서의 2D 영상들을 결합함으로써 홀로그램 패턴 영상을 생성하는 홀로그램 패턴 영상 생성부를 포함할 수 있다.The hologram image generator includes a specific viewpoint image generator for generating 2D images at a specific viewpoint using the 3D mesh model and a hologram pattern image generator for generating a hologram pattern image by combining 2D images at the specific viewpoint. can do.

상기 홀로그램 패턴 영상 생성부는 포인트-기반 CGH(computer generated hologram) 방식 또는 푸리에 기반 CGH 방식 중 하나를 사용하여 상기 특정 시점에서의 2D 영상들 각각에 대한 홀로그램 패턴 영상 생성 정보를 생성할 수 있고, 상기 홀로그램 패턴 영상 생성 정보를 결합함으로써 상기 홀로그램 패턴 영상을 생성할 수 있다.The hologram pattern image generator may generate hologram pattern image generation information for each of the 2D images at the specific time point using one of a point-based computer generated hologram (CGH) method or a Fourier-based CGH method. The holographic pattern image may be generated by combining pattern image generation information.

상기 홀로그램 패턴 영상 생성부는 상기 특정 시점에서의 2D 영상이 이전에 생성된 상기 특정 시점에서의 2D 영상과 동일한 경우 이전에 생성된 상기 홀로그램 패턴 영상 생성 정보를 사용할 수 있다.The hologram pattern image generation unit may use the hologram pattern image generation information previously generated when the 2D image at the specific viewpoint is the same as the 2D image at the specific viewpoint previously generated.

상기 홀로그램 패턴 영상 생성부는 상기 특정 시점에서의 2D 영상 및 이전에 생성된 상기 특정 시점에서의 2D 영상을 비교하여, 상기 특정 시점에서의 2D 영상 내에서 변화가 발생한 픽셀이 영향이 미치는 영역에 대해서만 상기 홀로그램 패턴 영상 생성 정보를 재계산할 수 있다.The hologram pattern image generation unit compares the 2D image at the specific time point and the 2D image at the specific time point previously generated, and applies only to an area affected by a pixel having a change in the 2D image at the specific time point. The hologram pattern image generation information may be recalculated.

본 발명의 다른 일측에 따르면, 하나 이상의 카메라로부터 영상 정보를 수신하고 상기 수신된 영상 정보에서 컬러 정보 및 깊이 정보를 획득함으로써 3D 포인트 클라우드를 생성하는 3D 기하 획득 단계, 상기 3D 포인트 클라우드에 메쉬 모델링 및 메쉬 에볼루션을 적용함으로써 3D 메쉬 정보를 생성하는 3D 메쉬 모델 생성 단계 및 상기 3D 메쉬 모델에 기반하여 특정 시점의2D 영상들을 생성하고, 상기 특정 시점의 2D 영상들을 결합함으로써 홀로그램 패턴 영상을 생성하는 홀로그램 영상 생성 단계를 포함하는, 홀로그램 영상 생성 방법이 제공된다.According to another aspect of the invention, the 3D geometric acquisition step of generating a 3D point cloud by receiving image information from at least one camera and obtaining color information and depth information from the received image information, mesh modeling and the 3D point cloud 3D mesh model generation step of generating 3D mesh information by applying mesh evolution and 2D images of a specific viewpoint based on the 3D mesh model, and a hologram image of generating hologram pattern images by combining the 2D images of the specific viewpoint There is provided a holographic image generating method comprising a generating step.

상기 3D 기하 획득 단계는, 카메라 집합으로부터 제공된 영상 데이터에 기반하여 깊이 영상을 획득하는 깊이 영상 획득 단계, 카메라 집합으로부터 제공된 영상 데이터에 기반하여 컬러 영상을 획득하는 컬러 영상 획득 단계 및 상기 깊이 영상 및 상기 컬러 영상에 기반하여 3D 포인트 클라우드를 생성하는 3D 포인트 클라우드 생성 단계를 포함할 수 있다. The 3D geometric acquiring step may include a depth image acquiring step of acquiring a depth image based on image data provided from a camera set, a color image acquiring step of acquiring a color image based on image data provided from a camera set, and the depth image and the The 3D point cloud generation step of generating a 3D point cloud based on the color image may be included.

상기 3D 메쉬 모델 생성 단계는, 상기 3D 포인트 클라우드에 3D 메쉬 삼각분할을 적용함으로써 메쉬 모델을 생성하는 메쉬 모델링 단계 및 상기 메쉬 모델 내의 메쉬 노드들을 분리, 생성 또는 변경함으로써 상기 메쉬 모델의 정밀도를 향상시키는 메쉬 에볼루션 단계를 포함할 수 있다.The 3D mesh model generation step may include a mesh modeling step of generating a mesh model by applying 3D mesh triangulation to the 3D point cloud, and improving precision of the mesh model by separating, generating, or modifying mesh nodes in the mesh model. And mesh evolution step.

상기 3D 메쉬 모델 생성 단계는, 상기 3D 기하 획득부로부터 상기 컬러 정보를 제공받아 상기 컬러 정보로부터 조명 정보를 추출하는 조명 정보 추출 단계를 더 포함할 수 있다.The generating of the 3D mesh model may further include an illumination information extraction step of extracting illumination information from the color information by receiving the color information from the 3D geometry obtainer.

상기 홀로그램 영상 생성 단계는 상기 조명 정보에 기반하여 상기 3D 메쉬 모델 내의 반사광 부분을 감지할 수 있고, 상기 반사광 부분을 상기 특정 시점의 이동에 비례하도록 쉬프트함으로써 상기 특정 시점에서의 2D 영상들에 반사광을 적용할 수 있다. The generating of the hologram image may detect a reflected light portion in the 3D mesh model based on the illumination information, and shift the reflected light portion to be proportional to the movement of the specific view to apply reflected light to the 2D images at the specific view. Applicable

상기 홀로그램 영상 생성 단계는, 상기 3D 메쉬 모델을 사용하여 상기 특정 시점에서의 2D 영상들을 생성하는 특정 시점 영상 생성 단계 및 상기 특정 시점에서의 2D 영상들을 결합함으로써 홀로그램 패턴 영상을 생성하는 홀로그램 패턴 영상 생성 단계를 포함할 수 있다. The holographic image generation step may include generating a holographic pattern image by generating a holographic pattern image by combining a 2D image at a specific viewpoint and a specific viewpoint image generating step of generating 2D images at the specific viewpoint using the 3D mesh model. It may include a step.

상기 홀로그램 패턴 영상 생성 단계는, 포인트-기반 CGH(computer generated hologram) 방식 또는 푸리에 기반 CGH 방식 중 하나를 사용하여 상기 특정 시점에서의 2D 영상들 각각에 대한 홀로그램 패턴 영상 생성 정보를 생성하는 단계 및 상기 홀로그램 패턴 영상 생성 정보를 결합함으로써 상기 홀로그램 패턴 영상을 생성하는 단계를 포함할 수 있다.The generating of the hologram pattern image may include generating hologram pattern image generation information for each of the 2D images at the specific time point using one of a point-based computer generated hologram (CGH) method and a Fourier-based CGH method. And generating the holographic pattern image by combining holographic pattern image generation information.

상기 홀로그램 패턴 영상 생성 단계는 상기 특정 시점에서의 2D 영상이 이전에 생성된 상기 특정 시점에서의 2D 영상과 동일한 경우 이전에 생성된 상기 홀로그램 패턴 영상 생성 정보를 사용할 수 있다.The generating of the hologram pattern image may use the hologram pattern image generation information previously generated when the 2D image at the specific view point is the same as the 2D image at the specific view point previously generated.

상기 홀로그램 패턴 영상 생성 단계는 상기 특정 시점에서의 2D 영상 및 이전에 생성된 상기 특정 시점에서의 2D 영상을 비교하여, 상기 특정 시점에서의 2D 영상 내에서 변화가 발생한 픽셀이 영향이 미치는 영역에 대해서만 상기 홀로그램 패턴 영상 생성 정보를 재계산할 수 있다.The generating of the hologram pattern image compares the 2D image at the specific point in time and the 2D image at the specific point in time previously generated, so that only the area affected by a pixel having a change in the 2D image at the specific point in time is affected. The hologram pattern image generation information may be recalculated.

컬러 및/또는 범위(range) 카메라를 사용하여 실사 객체에 대한 3D 모델을 생성하고, 생성된 3D 모델에 기반하여 CGH 기술을 이용함으로써 홀로그램 영상을 생성하는 장치 및 방법이 제공된다.An apparatus and method are provided for generating a 3D model of a photorealistic object using a color and / or range camera, and generating a holographic image by using CGH technology based on the generated 3D model.

3D 모델 중 반사광 부분을 뷰의 변화에 따라 쉬프트(shift)함으로써 반사광을 반영하는 홀로그램 영상을 생성하는 장치 및 방법이 제공된다.An apparatus and method are provided for generating a holographic image that reflects reflected light by shifting a portion of the reflected light of the 3D model according to a change in a view.

도 1은 본 발명의 일 실시예에 따른 영상 장치(imaging device)의 구조도이다.
도 2는 본 발명의 일 예에 따른 영상 획득을 위한 카메라 집합 및 3D 기하 획득부의 구성을 도시한다.
도 3은 본 발명의 일 예에 따른 메쉬 모델링 및 에볼루션을 설명한다.
도 4는 본 발명의 일 예에 따른 홀로그램 영상 생성을 설명한다.
도 5는 본 발명의 일 실시예에 따른 홀로그램 영상 생성 방법의 흐름도이다.
1 is a structural diagram of an imaging device according to an embodiment of the present invention.
2 illustrates a configuration of a camera set and a 3D geometric acquisition unit for image acquisition according to an embodiment of the present invention.
3 illustrates mesh modeling and evolution according to an embodiment of the present invention.
4 illustrates hologram image generation according to an embodiment of the present invention.
5 is a flowchart illustrating a holographic image generating method according to an embodiment of the present invention.

이하에서, 본 발명의 일 실시예를, 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. Like reference numerals in the drawings denote like elements.

도 1은 본 발명의 일 실시예에 따른 영상 장치(imaging device)의 구조도이다.1 is a structural diagram of an imaging device according to an embodiment of the present invention.

영상 처리 장치(100)는 3D 기하 획득부(110), 3D 메쉬 모델 생성부(140) 및 홀로그램 영상 생성부(170)를 포함한다.The image processing apparatus 100 may include a 3D geometry acquirer 110, a 3D mesh model generator 140, and a hologram image generator 170.

3D 기하 획득부(110)는 하나 이상의(멀티(multi)) 카메라로부터 영상 정보를 수신한다.The 3D geometry acquirer 110 receives image information from one or more (multi) cameras.

3D 기하 획득부(110)는 수신된 영상 정보에서 컬러 정보 및 깊이(depth) 정보를 획득하고, 획득된 컬러 정보 및 깊이 정보를 사용하여 3D 포인트(point) 클라우드(cloud)를 생성한다.The 3D geometry acquirer 110 obtains color information and depth information from the received image information, and generates a 3D point cloud using the obtained color information and depth information.

3D 기하 획득부(110)는 깊이 영상 획득부(120), 컬러 영상 획득부(125) 및 3D 포인트 클라우드 생성부(130)를 포함할 수 있다. The 3D geometry acquirer 110 may include a depth image acquirer 120, a color image acquirer 125, and a 3D point cloud generator 130.

3D 기하 획득부(110)의 구성 및 동작이 도 2를 참조하여 하기에서 설명된다.The configuration and operation of the 3D geometry acquisition unit 110 are described below with reference to FIG. 2.

3D 메쉬 모델 생성부(140)는 3D 기하 획득부(110)에 의해 생성된 3D 포인트 클라우드에 기반하여 3D 메쉬 정보를 생성한다.The 3D mesh model generator 140 generates 3D mesh information based on the 3D point cloud generated by the 3D geometry acquirer 110.

3D 메쉬 모델 생성부(140)는 생성된 3D 메쉬 정보를 보정할 수 있다.The 3D mesh model generator 140 may correct the generated 3D mesh information.

3D 메쉬 정보는 위치 정보, 칼라 정보 및 조명 정보를 포함할 수 있다.The 3D mesh information may include location information, color information, and lighting information.

3D 메쉬 모델 생성부(140)는 3D 포인트 클라우드에 메쉬 모델링 및 메쉬 에볼루션을 적용함으로써 3D 메쉬 정보를 생성할 수 있다.The 3D mesh model generator 140 may generate 3D mesh information by applying mesh modeling and mesh evolution to the 3D point cloud.

3D 메쉬 모델 생성부(140)는 메쉬 모델링부(150), 메쉬 에볼루션부(155) 및 조명 정보 추출부(160)를 포함할 수 있다.The 3D mesh model generation unit 140 may include a mesh modeling unit 150, a mesh evolution unit 155, and an illumination information extraction unit 160.

3D 메쉬 모델 생성부(140)의 구성 및 동작이 도 3을 참조하여 하기에서 설명된다.The configuration and operation of the 3D mesh model generator 140 will be described below with reference to FIG. 3.

홀로그램 영상 생성부(170)는 3D 메쉬 모델 생성부(140)에 의해 생성된 3D 메쉬 모델에 기반하여 특정 시점(view point)의 영상들을 생성하고, 생성된 특정 시점의 영상들을 결합함으로써 홀로그램 패턴 영상을 생성한다.The hologram image generator 170 generates images of a specific view point based on the 3D mesh model generated by the 3D mesh model generator 140, and combines the generated images of the specific viewpoints to form a hologram pattern image. Create

홀로그램 영상 생성부(170)는 CGH에 기반하여 홀로그램 영상을 생성할 수 있다.The hologram image generator 170 may generate a hologram image based on the CGH.

홀로그램 영상 생성부(170)은 특정 시점(view point) 영상 생성부(180) 및 홀로그램 패턴 영상 생성부(190)를 포함할 수 있다.The hologram image generator 170 may include a specific view point image generator 180 and a hologram pattern image generator 190.

홀로그램 영상 생성부(170)의 구성 및 동작이 도 4를 참조하여 하기에서 설명된다.
The configuration and operation of the hologram image generator 170 will be described below with reference to FIG. 4.

도 2는 본 발명의 일 예에 따른 영상 획득을 위한 카메라 집합 및 3D 기하 획득부(110)의 구성을 도시한다.2 illustrates a configuration of a camera set and a 3D geometric acquisition unit 110 for image acquisition according to an embodiment of the present invention.

깊이 영상 및 컬러 영상을 획득하기 위한 정보를 제공하기 위하여 다양한 종류의 카메라 집합(또는, 센서(sensor))이 사용될 수 있다.Various types of camera sets (or sensors) may be used to provide information for obtaining depth images and color images.

카메라 집합은 3차원의 실사 영상을 실시간으로 획득할 수 있다.The camera set may acquire a 3D real-time image in real time.

카메라 집합은 컬러 카메라 및 깊이 카메라의 퓨전(fusion) 시스템(210), 스테레오(stereo) 카메라들(220), 카메라 어레이(230) 및 마이크로 렌즈 어레이(240)일 수 있다.The set of cameras may be a fusion system 210, a stereo cameras 220, a camera array 230 and a micro lens array 240 of a color camera and a depth camera.

컬러 카메라 및 깊이 카메라의 퓨전(fusion) 시스템(210)은 하나 이상의 컬러 카메라(212) 및 하나 이상의 깊이 카메라(214)를 포함한다. 컬러 카메라 및 깊이 카메라의 퓨전(fusion) 시스템(210)은 상이한 종류의 카메라를 포함하기 때문에 이종(heterogeneous) 카메라 집합으로 불린다.Fusion system 210 of color cameras and depth cameras includes one or more color cameras 212 and one or more depth cameras 214. Fusion systems 210 of color cameras and depth cameras are called heterogeneous camera sets because they include different kinds of cameras.

스테레오 카메라들(220)은 서로 다른 위치에서 피사체를 촬영하는 2개의 카메라들로 구성된다. 즉, 스테레오 카메라들(220)을 구성하는 양 카메라들은 각각 상이한 시점(view point)에서의 2D 컬러 영상을 촬영한다.The stereo cameras 220 are composed of two cameras photographing a subject at different positions. That is, both cameras constituting the stereo cameras 220 respectively photograph 2D color images from different view points.

카메라 어레이(230)는, 예컨대 행 및 열로 배치된, 복수 개의 카메라들로 구성된다. 카메라 어레이(230)를 구성하는 복수 개의 카메라들은 각각 상이한 시점에서의 2D 컬러 영상을 촬영한다.Camera array 230 is comprised of a plurality of cameras, arranged in rows and columns, for example. The plurality of cameras constituting the camera array 230 respectively photograph 2D color images from different viewpoints.

마이크로 렌즈 어레이(240)는 하나의 카메라에 장착된 렌즈들의 어레이이다. 마이크로 렌즈 어레이(240) 내의 렌즈들은 각각 상이한 시점에서 2D 컬러 영상을 촬영한다.The micro lens array 240 is an array of lenses mounted in one camera. The lenses in the micro lens array 240 respectively photograph 2D color images at different viewpoints.

깊이 영상 획득부(120)는 카메라 집합으로부터 제공된 영상 데이터에 기반하여 깊이 영상을 획득한다.The depth image acquirer 120 obtains a depth image based on image data provided from a camera set.

예컨대, 깊이 영상 획득부(120)는 깊이 카메라(214)로부터 깊이 영상 데이터를 제공받을 수 있다.For example, the depth image acquirer 120 may receive depth image data from the depth camera 214.

예컨대, 깊이 영상 획득부(120)는 스테레오 카메라들(220), 카메라 어레이(230) 또는 마이크로 렌즈 어레이(240)로부터 제공받은 하나 이상의 영상 데이터에 기반하여 깊이 값을 계산함으로써 깊이 영상을 획득할 수 있다.For example, the depth image acquirer 120 may acquire a depth image by calculating a depth value based on one or more image data provided from the stereo cameras 220, the camera array 230, or the micro lens array 240. have.

또한, 깊이 영상 획득부(120)는 카메라 집합들로부터 서로 다른 시점에서의 2D 영상들을 제공받을 수 있고, 제공받은 2D 영상들에 기반하여 영상의 변이(disparity) 정보를 생성할 수 있다.In addition, the depth image acquirer 120 may receive 2D images from different cameras from different sets of cameras, and may generate disparity information of the image based on the provided 2D images.

일반적으로 한 객체를 나타내는 픽셀의 깊이 및 변이는 서로 반비레한다. 따라서, 깊이 영상 획득부(120)는 영상의 변이 정보에 기반하여 깊이 영상 데이터를 획득할 수 있다.In general, the depth and variation of pixels representing an object are inversely proportional to each other. Therefore, the depth image acquirer 120 may obtain depth image data based on the variation information of the image.

컬러 영상 획득부(125)는 카메라 집합으로부터 제공된 영상 데이터에 기반하여 컬러 영상을 획득한다.The color image acquisition unit 125 acquires a color image based on image data provided from a camera set.

예컨대, 컬러 영상 획득부(125)는 컬러 카메라(212)로부터 컬러 영상 데이터를 제공받을 수 있다. 또한, 컬러 영상 획득부(125)는 스테레오 카메라들(220), 카메라 어레이(230) 또는 마이크로 렌즈 어레이(240)로부터 제공받은 하나 이상의 영상 데이터에 기반하여 컬러 값을 계산함으로써 컬러 영상을 획득할 수 있다.For example, the color image acquisition unit 125 may receive color image data from the color camera 212. In addition, the color image acquisition unit 125 may obtain a color image by calculating a color value based on one or more image data provided from the stereo cameras 220, the camera array 230, or the micro lens array 240. have.

전술된 것처럼, 한 객체를 나타내는 픽셀의 깊이 및 변이는 서로 반비례한다. 따라서, 본 실시예 및 본 발명의 다른 실시예에서의, 깊이에 대한 설명은 변이에도 적용될 수 있음이 자명하다. 예컨대, 깊이 영상 획득부(120)는 변이 영상 획득부로도 명명될 수 있다.As described above, the depth and the variation of pixels representing an object are inversely proportional to each other. Thus, in this embodiment and other embodiments of the present invention, it is obvious that the description of depth can be applied to variations. For example, the depth image acquirer 120 may also be referred to as a disparity image acquirer.

3D 포인트 클라우드 생성부(130)는 생성된 깊이 영상 및 컬러 영상에 기반하여 3D 포인트 클라우드를 생성한다.The 3D point cloud generator 130 generates a 3D point cloud based on the generated depth image and color image.

일반적으로, 3D 포인트 클라우드가 나타내는 3D 기하의 정밀도는 촬영된 영상의 복잡도 등에 의해 영향을 받는다. 높은 정밀도의 밀집한(dense) 3D 포인트들을 획득하기 위해, 멀티(multi) 카메라(예컨대, 스테레오 카메라들(220), 카메라 어레이(230) 및 마이크로 렌즈 어레이(240)와 같은) 및 Tof(Time-of-Flight) 방식의 센서(sensor)(예컨대, 깊이 카메라)가 함께 사용될 수 있다.In general, the precision of the 3D geometry represented by the 3D point cloud is affected by the complexity of the captured image. Multi cameras (such as stereo cameras 220, camera array 230 and micro lens array 240) and Tof (Time-of) to obtain high precision dense 3D points Sensors (e.g., depth cameras) of the -Flight type can be used together.

이러한 경우, 함께 사용되는 카메라들 및 센서들 간의 캘리브레이션이 촬영 이전에 수행될 수 있다. 캘리브레이션은 동일한 피사체를 동일한 위치에서 촬영한 카메라들 및 센서들이 동일한 데이터를 획득하도록, 카메라 또는 센서를 조절하는 것일 수 있다.In this case, calibration between the cameras and sensors used together can be performed prior to imaging. Calibration may be to adjust a camera or a sensor so that cameras and sensors photographing the same subject at the same location acquire the same data.

이러한 영상 정보 생성 방법은, 원거리 배경 캡춰 문제, 실외(outdoor) 캡춰 문제 및 객체에 대한 레이저 빔 조사 문제등을 해결할 수 있다. 또한, 이러한 영상 정보 생성 방법은 상대적으로 작은 크기의 장비를 사용하여 수행될 수 있고, 더 안정적인 홀로그램 캡춰 장비를 사용하여 수행될 수 있다.
The image information generation method may solve a remote background capture problem, an outdoor capture problem, a laser beam irradiation problem on an object, and the like. In addition, the image information generating method may be performed using a relatively small size of the equipment, it may be performed using a more stable hologram capture equipment.

도 3은 본 발명의 일 예에 따른 메쉬 모델링 및 에볼루션을 설명한다.3 illustrates mesh modeling and evolution according to an embodiment of the present invention.

제1 그래프(310)는 3D 포인트 클라우드 생성부(130)에 의해 생성된 3D 포인트 클라우드(312) 및 홀(hole) 필링(filling)(314) 대상 위치를 나타낸다.The first graph 310 represents the 3D point cloud 312 and the hole filling 314 target position generated by the 3D point cloud generator 130.

메쉬 모델링부(150)는 3D 포인트 클라우드 생성부(130)로부터 3D 포인트 클라우드(312)를 제공받는다.The mesh modeling unit 150 receives the 3D point cloud 312 from the 3D point cloud generation unit 130.

메쉬 모델링부(150)는 홀 필링을 수행할 수 있다.The mesh modeling unit 150 may perform hole filling.

홀 필링은 3D 포인트 클라우드(312) 사이에 빈 공간이 있는 경우, 주변 포인트들의 정보를 참조하여 새로운 3D 포인트(322)를 생성하는 것이다.The hole filling is to create a new 3D point 322 by referring to the information of the surrounding points when there is an empty space between the 3D point clouds 312.

메쉬 모델링부(150)는 지역 최적화(local optimization) 방식 또는 전역 최적화(global optimization) 방식을 홀 필링을 위해 사용할 수 있다.The mesh modeling unit 150 may use a local optimization method or a global optimization method for hole filling.

지역 최적화 방식은 주변 포인트들의 컬러/위치 연속성에 기반하여 새로운 3D 포인트를 생성하는 방식이다.The local optimization method is to generate a new 3D point based on the color / location continuity of the surrounding points.

전역 최적화 방식은 현재 생성된 볼륨(volume)을 기반으로 보이지 않는 면을 예측함으로써 새로운 3D 포인트를 생성하는 볼륨 예측(prediction) 방식이다.The global optimization method is a volume prediction method that generates a new 3D point by predicting an invisible surface based on the currently generated volume.

메쉬 모델링부(150)는 전술된 방식에 따라, 홀 필링에 의해 포인트가 생성될 위치(314)를 계산할 수 있다.The mesh modeling unit 150 may calculate a position 314 where a point is to be generated by hole filling according to the above-described method.

메쉬 모델링부(150)는 새로운 포인트(322)를 생성하고, 최종 포인트 클라우드(320)를 생성한다.The mesh modeling unit 150 generates a new point 322 and generates a final point cloud 320.

메쉬 모델링부(150)는 최종 포인트 클라우드(320)에 3D 메쉬 삼각분할(triangulation)을 적용함으로써 메쉬 모델(330)을 생성한다.The mesh modeling unit 150 generates the mesh model 330 by applying 3D mesh triangulation to the final point cloud 320.

메쉬 모델링부(150)는 최종 포인트 클라우드(320) 내의 포인트들을 에지(edge)(332)로 연결함으로써 3각형들로 구성된 메쉬 모델(330)을 생성한다. 메쉬 모델링부(150)는 딜러니(delaunay) 삼각분할 방법 또는 컬러 에지(edge) 기반 삼각분할 방법을 사용하여 메쉬 모델(330)을 생성할 수 있다.The mesh modeling unit 150 generates a mesh model 330 composed of triangles by connecting points in the final point cloud 320 to an edge 332. The mesh modeling unit 150 may generate the mesh model 330 by using a delaunay triangulation method or a color edge based triangulation method.

메쉬 모델(330)은 3D 기하 획득부에 의해 생성된 3D 위치 정보에 기반하여 생성된 모델이다. 그러나, 메쉬 모델(330) 내의 포인트들은 카메라의 특성 또는 잡음(noise) 등의 이유로 오차(error)를 포함한다.The mesh model 330 is a model generated based on the 3D position information generated by the 3D geometry acquirer. However, points in the mesh model 330 contain errors for reasons such as camera characteristics or noise.

메쉬 에볼루션부(155)는 3D 위치 및 컬러 정보를 참조하여 메쉬 모델(330) 내의 메쉬 노드들을 분리, 생성 또는 변경함으로써 메쉬 모델(330)의 정밀도를 향상시킨다.The mesh evolution unit 155 improves the precision of the mesh model 330 by separating, generating, or changing mesh nodes in the mesh model 330 with reference to 3D position and color information.

예컨대, 메쉬 에볼루션부(155)는 새로운 포인트(342) 및 새로운 포인트(342)와 연결되는 에지들(344)를 추가할 수 있다.For example, the mesh evolution unit 155 may add a new point 342 and edges 344 connected to the new point 342.

메쉬 에볼루션부(155)에 의해 메쉬 노드들이 분리, 생성 또는 변경됨으로써 최종 획득 모델(340)이 생성된다.The mesh acquisition unit 155 separates, generates, or changes mesh nodes to generate the final acquisition model 340.

메쉬 에볼루션부(155)는 최종적으로 획득된 모델(340)에 컬러 정보를 추가하는 표면 매칭(surface matching) 작업을 수행한다.The mesh evolution unit 155 performs a surface matching operation to add color information to the finally obtained model 340.

표면 매칭 작업에 의해 컬러 정보가 추가된 노드(352 및 354)를 갖는 최종 획득 모델이 생성된다.The surface matching operation produces a final acquisition model with nodes 352 and 354 added with color information.

영상 장치(100)가 동영상을 처리할 경우, 메쉬 에볼루션부(160)는 각각의 프레임 별로 생성된 모델들 간에 3D 기하 일관성(consistency) 및 컬러 일관성을 고려한 표면 매칭을 수행함으로써 동영상의 화질을 향상시킬 수 있다.When the imaging apparatus 100 processes a video, the mesh evolution unit 160 may perform a surface matching considering 3D geometric consistency and color consistency between models generated for each frame to improve image quality of the video. Can be.

조명 정보 추출부(160)는 3D 기하 획득부(110)로부터 컬러 정보(예컨대, 컬러 영상 획득부(125)가 생성한 컬러 영상)를 제공받아, 컬러 정보로부터 조명 정보를 추출한다.The illumination information extractor 160 receives color information (eg, a color image generated by the color image acquirer 125) from the 3D geometric acquirer 110, and extracts illumination information from the color information.

조명 정보 추출부(160)는 컬러 영상 내에서 반사광(specular) 부분을 감지(detect)할 수 있다.The illumination information extractor 160 may detect a specular portion of the color image.

재질의 컬러를 나타내는 성분 중 확산광(diffuse) 성분은 시점 변화에 따른 차이를 발생시키지 않는다. 따라서, 특정 시점의 영상이 생성될 때, 확산광 성분이 적용되는 부분에는 획득된 컬러 값이 그대로 사용될 수 있다.Among the components representing the color of the material, the diffuse component does not cause a difference according to the viewpoint change. Therefore, when an image of a specific time point is generated, the obtained color value may be used as it is in the portion to which the diffused light component is applied.

그러나, 반사광 성분은 시점 변화에 따라 민감한 차이를 발생시킨다. 따라서, 특정 시점의 영상이 생성될 때, 반사광 성분이 적용되는 부분은 영상 및 깊이 기반의 뷰 내삽(view interpolation) 만으로는 처리될 수 없다.However, the reflected light component produces a sensitive difference in accordance with the viewpoint change. Therefore, when an image of a specific viewpoint is generated, the portion to which the reflected light component is applied cannot be processed only by image and depth based view interpolation.

따라서, 조명 정보 추출부(160)가 추출한 반사광에 대한 정보는 이후 특정 시점에서의 영상을 생성하기 위해 홀로그램 영상 생성부(170)에 의하여 사용될 수 있다.Therefore, the information on the reflected light extracted by the illumination information extractor 160 may be used by the hologram image generator 170 to generate an image at a specific time point.

메쉬 에볼루션부(155) 및 조명 정보 추출부(160)의 처리에 의해, 3D 메쉬 모델 생성부(140)는 조명 정보가 포함된 3D 모델 정보를 제공할 수 있다.By processing the mesh evolution unit 155 and the illumination information extractor 160, the 3D mesh model generator 140 may provide 3D model information including the illumination information.

전술된 메쉬 모델링 및 메쉬 에볼루션은 생성된 메쉬 모델에 기반하여 3D 기하 정밀도 및 컬러 화질의 향성 과정을 처리함으로써, 뷰 내삽 등 특정한 2D 시점의 영상들을 기반으로 하는 임의 영상 생성 방식에 비해 더 높은 화질 및 정밀도를 갖는 홀로그램 영상을 제공할 수 있다.The above-described mesh modeling and mesh evolution processes the 3D geometric precision and color quality directing process based on the generated mesh model, thereby providing higher image quality and higher quality than any image generation method based on images of specific 2D viewpoints such as view interpolation. It is possible to provide a holographic image with precision.

3D 메쉬 모델 생성부(140)는, 동영상 내의 프레임에 대해 메쉬 모델링 및 메쉬 에볼루션 작업을 처리할 때, 매 프레임 별로 생성된 3D 메쉬 모델들 간의 3D 기하 및 컬러 일관성(consistency)을 고려할 수 있다. 이러한 경우, 이후 생성될 특정 시점에서의 2D 영상들 간에서는 프레임 간 일관성이 별도로 고려되지 않을 수 있다.
The 3D mesh model generator 140 may consider 3D geometry and color consistency between 3D mesh models generated for each frame when processing the mesh modeling and mesh evolution operations for the frames in the video. In this case, interframe consistency may not be separately considered between 2D images at a specific time point to be generated later.

도 4는 본 발명의 일 예에 따른 홀로그램 영상 생성을 설명한다.4 illustrates hologram image generation according to an embodiment of the present invention.

특정 시점 영상 생성부(180)는 3D 메쉬 모델 생성부(140)로부터 제공받은 3D 메쉬 모델(410)을 사용하여, 특정 시점에서의 2D 영상(420)들을 생성한다.The specific view image generator 180 generates 2D images 420 at a specific view using the 3D mesh model 410 provided from the 3D mesh model generator 140.

특정 시점에서의 2D 영상(420)을 생성하기 위해서, 3D 모델(410) 내의 3차원 상의 모델(surface) 표면 포인트 (x, y, z)를 이용함으로써, 특정 시점 2D 영상(420)에서의 투영(projection) 포인트 (x p , y p )가 계산되어야 한다.Projection in a specific viewpoint 2D image 420 by using a three-dimensional surface model surface ( x , y , z ) in the 3D model 410 to generate the 2D image 420 at the specific viewpoint. The (projection) point ( x p , y p ) must be calculated.

투영 포인트 (x p , y p )는 하기의 1) 내지 3) 중 하나의 방법으로 계산될 수 있다.The projection point ( x p , y p ) can be calculated by one of the following 1) to 3).

1) 정 투영(orthographic projection) : 평행 육면체 모양의 관측 공간을 사용하는 방법이다. 정 투영이 사용될 경우, 시점 및 객체 간의 거리가 객체의 투영된 모양에 영향을 미치지 않는다.1) Orthographic projection: A method of using a parallelepiped observation space. If positive projection is used, the distance between the viewpoint and the object does not affect the projected shape of the object.

정투영에서, 투영 포인트는 하기의 수학식 1에 의해 계산될 수 있다.In orthographic projection, the projection point can be calculated by Equation 1 below.

Figure pat00001
Figure pat00001

영상 평면은 각

Figure pat00002
Figure pat00003
를 갖는 법선(normal vector)으로 기울어졌다(slanted with).Video plane is angle
Figure pat00002
And
Figure pat00003
Slanted with a normal vector with.

2) 원근 투영(perspective projection) : 공간상의 객체 및 시점을 연결하여 투영면에 표현하는 방식이다. 원근 투영이 사용될 경우, 시점 및 객체 간의 거리에 따라 투영된 물체의 크기가 달라진다.2) Perspective projection: A method of connecting objects and viewpoints in space and expressing them on the projection surface. When perspective projection is used, the size of the projected object depends on the distance between the viewpoint and the object.

원근 투영에서, 투영 포인트는 하기의 수학식 2에 의해 계산될 수 있다.In perspective projection, the projection point can be calculated by Equation 2 below.

Figure pat00004
Figure pat00004

여기서, (x 0 , y 0 )은 시점(즉, 카메라)의 위치이고, f는 초첨 거리(focal length)이다.Where ( x 0 , y 0 ) is the position of the viewpoint (ie, the camera) and f is the focal length.

3) 각 직교 투영(angular projection) : 각 직교 평면을 사용하는 투영 방법이다.3) Angular projection: A projection method using each orthogonal plane.

각 직교 투영에서, 투영 포인트는 하기의 수학식 3에 의해 계산될 수 있다.In each orthogonal projection, the projection point can be calculated by the following equation (3).

Figure pat00005
Figure pat00005

상기의 투영 방법에 따라 2D 영상들이 생성될 때, 특정 시점 영상 생성부(180)는 투영 시점에 따라 변화되는 반사광 재질 정보를 반영하여 계산된 기하에 대응하는 컬러 정보를 생성할 수 있다.When 2D images are generated according to the projection method, the specific view image generator 180 may generate color information corresponding to a calculated geometry by reflecting reflected light material information that changes according to the projection view point.

즉, 특정 시점 영상 생성부(180)는 조명 정보 추출부(160)에 의해 생성된 조명 정보에 기반하여 3D 메쉬 모델 내에서 반사광 부분을 감지할 수 있다.That is, the specific view image generator 180 may detect the reflected light portion in the 3D mesh model based on the illumination information generated by the illumination information extractor 160.

특정 시점 영상 생성부(180)는 양안시차를 기준으로 표면에서의 쉬프트(shift) 거리(즉, 쉬프트될 픽셀의 개수)를 결정할 수 있다.The specific view image generator 180 may determine a shift distance (ie, the number of pixels to be shifted) from the surface based on the binocular disparity.

특정 시점 영상 생성부(180)는 반사광 컴퍼넌트(component)에 픽셀 쉬프트를 적용하여 3D 객체를 렌더링(rendering)할 수 있다. 이러한 렌더링에 의해 특정 뷰에서의 반사광 이미지가 생성된다.The particular view image generator 180 may render a 3D object by applying a pixel shift to the reflected light component. This rendering produces a reflected light image in a particular view.

따라서, 특정 시점 영상 생성부(180)는 반사광 부분을 시점의 이동에 비례하도록 쉬프트함으로써 특정 시점에서의 2D 영상에 반사광을 적용할 수 있다. 따라서, 특정 시점 영상 생성부(180)는 반사광이 적용된 자연스러운 영상을 생성할 수 있으며, 확산광 및 반사광 재질 전체에 대한 특정 시점 영상을 생성할 수 있다.Therefore, the specific view image generator 180 may apply the reflected light to the 2D image at the specific view by shifting the reflected light portion in proportion to the movement of the view. Accordingly, the specific view image generator 180 may generate a natural image to which the reflected light is applied, and may generate a specific view image of all the diffused light and the reflected light material.

홀로그램 패턴 영상 생성부(190)는 생성된 특정 시점에서의 2D 영상(420)들을 결합함으로써 홀로그램 패턴 영상(440)을 생성한다.The hologram pattern image generator 190 generates the hologram pattern image 440 by combining the generated 2D images 420 at a specific time point.

홀로그램 패턴 영상 생성부(190)는 다양한 방식의 CGH 기술을 적용하여 홀로그램 패턴 영상(440)을 생성할 수 있다. 예컨대, 포인트-기반(point-based) CGH 방식 또는 푸리에(Fourier) 기반 CGH 방식이 홀로그램 패턴 영상(440)을 생성하기 위해 사용될 수 있다.The hologram pattern image generator 190 may generate the hologram pattern image 440 by applying various CGH techniques. For example, a point-based CGH scheme or a Fourier-based CGH scheme may be used to generate the hologram pattern image 440.

홀로그램 패턴 영상 생성부(190)는 특정 시점에서의 2D 영상(420)들 각각에 CGH 기술을 적용하여 홀로그램 패턴 영상(440)을 생성하기 위한 정보(430)를 생성할 수 있고, 상기의 정보(430)를 결합함으로써 홀로그램 패턴 영상(440)을 생성할 수 있다.The hologram pattern image generator 190 may generate the information 430 for generating the hologram pattern image 440 by applying the CGH technology to each of the 2D images 420 at a specific time point. The hologram pattern image 440 may be generated by combining the 430.

하기에서, 푸리에 방식의 CGH 영상 생성 방식이 설명된다.In the following, a Fourier type CGH image generation method is described.

하기의 수학식 4는 프레넬 회절(Fresnel diffraction)의 원리에 따라, 프레넬-키르히호프 공식(Fresnel-Kirchhoff formulation)을 이용하여 홀로그램 캡춰 과정의 객체 빔(object beam)을 계산하는 수식이다.Equation 4 below is a formula for calculating the object beam of the hologram capturing process using the Fresnel-Kirchhoff formulation according to the principle of Fresnel diffraction.

Figure pat00006
Figure pat00006

Figure pat00007
Figure pat00008
는 각각 수평 및 수직 방향의 각을 나타낸다. 즉,
Figure pat00009
는 뷰 각(angle)을 나타낸다.
Figure pat00007
And
Figure pat00008
Denotes angles in the horizontal and vertical directions, respectively. In other words,
Figure pat00009
Represents the view angle.

Figure pat00010
Figure pat00011
에 대응하는 투영된 이미지이다. 이 때,
Figure pat00012
는 투영의 좌표 시스템(coordinate system)이다.
Figure pat00010
Is
Figure pat00011
Is a projected image corresponding to. At this time,
Figure pat00012
Is the coordinate system of the projection.

b는 실수 값을 갖는 상수(real-valued constant)이다. b is a real-valued constant.

s(m, n)은 객체의 mn 번째 원근(perspective)이다. s ( m , n ) is the mth and nth perspectives of the object.

각각의 mn에 대해서 s(m, n)이 계산됨으로써 객체 빔이 계산될 수 있다.The object beam can be calculated by calculating s ( m , n ) for each m and n .

홀로그램 패턴 영상 생성부(190)는 수학식 4에서 사용된 가상의 침조(reference) 빔 및 수학식 4에 의해 계산된 객체 빔을 이용하여 홀로그램의 프린지(fringe) 패턴(pattern)을 생성할 수 있다.The hologram pattern image generator 190 may generate a fringe pattern of the hologram using the virtual reference beam used in Equation 4 and the object beam calculated by Equation 4. .

영상 장치(100)가 동영상을 재생할 경우, 홀로그램 영상 생성부(170)(또는, 홀로그램 패턴 영상 생성부(190))는 현재 프레임(즉, 2D 영상(420))이 이전 프레임(즉, 이전에 처리된 2D 영상(420))에 비해 변경되었을 경우에만, 홀로그램 패턴 영상(440)을 생성하기 위한 작업(예컨대, 홀로그램 패턴 영상 생성 정보의 계산)을 수행할 수 있다.When the imaging apparatus 100 plays a video, the hologram image generating unit 170 (or the hologram pattern image generating unit 190) may have a current frame (that is, the 2D image 420) before the previous frame (that is, the previous frame). Only when it is changed compared to the processed 2D image 420, an operation (eg, calculation of hologram pattern image generation information) for generating the hologram pattern image 440 may be performed.

예컨대, 홀로그램 영상 생성부(170)(또는, 홀로그램 패턴 영상 생성부(190))는 p(t-1) 및 p(t) 사이에 움직임(motion)이 있을 경우에만, 특정 순간 t에서의 객체 빔을 계산할 수 있고, p(t-1) 및 p(t) 사이에 움직임이 없는 경우에는 이전 순간 t-1에서 계산된 객체 빔을 그대로 사용할 수 있다.For example, the holographic image generator 170 (or a holographic pattern image generation unit 190) is an object of the p (t- 1) and p (t) only if there is movement (motion) between a particular moment t If it is possible to calculate the beam, there is no movement between p (t- 1) and p (t) may be used as the object beam from the previous calculation time t- 1.

영상 장치(100)가 동영상을 재생할 경우, 홀로그램 영생 생성부(170)(또는, 홀로그램 패턴 영상 생성부(190))는 현재 프레임(즉, 2D 영상(420)) 및 이전 프레임(즉, 이전에 처리된 2D 영상(420))을 비교하여, 현재 프레임 중 이전 프레임에 비해 변화가 발생한 픽셀을 추출할 수 있다.When the image device 100 plays a video, the hologram eternal generation unit 170 (or the hologram pattern image generation unit 190) may display the current frame (ie, the 2D image 420) and the previous frame (that is, the previous frame). The processed 2D image 420) may be compared to extract a pixel in which a change has occurred compared to a previous frame of the current frame.

홀로그램 영생 생성부(170)(또는, 홀로그램 패턴 영상 생성부(190))는 상기의 변화가 발생한 픽셀이 영향을 미치는 영역에 대해서만 홀로그램 패턴 영상 정보를 생성하고, 변화가 발생한 픽셀에 의한 영향이 미치지 않는 영역에 대해서는 이전에 생성된 홀로그램 패턴 영상 생성 정보를 사용할 수 있다.The hologram eternal generation unit 170 (or the hologram pattern image generation unit 190) generates hologram pattern image information only in an area affected by the pixel in which the change occurs, and the influence of the pixel in which the change occurs is not affected. For regions that are not used, previously generated holographic pattern image generation information may be used.

예컨대, 전술된 수학식 4에서, s(m, n)을 계산함에 있어서, 홀로그램 영상 생성부(170)(또는, 홀로그램 패턴 영상 생성부(190))는 p mn 내의 각각의 픽셀들 중 변경된 부분 내의 픽셀

Figure pat00013
을 추출할 수 있고, 하기의 수학식 5를 사용하여 현재 시각 tS t (p mn )을 계산할 수 있다.For example, in the above-described Equation 4, in calculating s ( m , n ), the hologram image generator 170 (or the hologram pattern image generator 190) is a modified portion of each pixel in p mn . Pixels within
Figure pat00013
May be extracted and S t ( p mn ) of the current time t may be calculated using Equation 5 below.

Figure pat00014
Figure pat00014

도 5는 본 발명의 일 실시예에 따른 홀로그램 영상 생성 방법의 흐름도이다.5 is a flowchart illustrating a holographic image generating method according to an embodiment of the present invention.

홀로그램 영상 생성 방법은 크게 3D 기하 획득 단계(S520, S525 및 S530), 3D 메쉬 모델 생성 단계(S550, S555 및 S560) 및 홀로그램 영상 생성 단계(S580 및 S590)를 포함한다.The hologram image generating method includes a 3D geometric acquisition step (S520, S525 and S530), a 3D mesh model generation step (S550, S555 and S560) and a hologram image generation step (S580 and S590).

우선, 3D 기하 획득 단계(S520, S525 및 S530)를 설명한다.First, the 3D geometry acquisition steps S520, S525, and S530 will be described.

3D 기하 획득 단계(S520, S525 및 S530)는 하나 이상의 카메라로부터 영상 정보를 수신하고 수신된 영상 정보에서 컬러 정보 및 깊이 정보를 획득함으로써 3D 포인트 클라우드를 생성한다.The 3D geometric acquisition steps S520, S525, and S530 generate a 3D point cloud by receiving image information from one or more cameras and obtaining color information and depth information from the received image information.

깊이 영상 획득 단계(S520)에서, 카메라 집합으로부터 제공된 영상 데이터에 기반하여 깊이 영상이 획득된다.In a depth image acquisition step (S520), a depth image is obtained based on image data provided from a camera set.

컬러 영상 획득 단계(S525)에서, 카메라 집합으로부터 제공된 영상 데이터에 기반하여 컬러 영상이 획득된다.In a color image acquisition step (S525), a color image is obtained based on image data provided from a camera set.

3D 포인트 클라우드 생성 단계(S530)에서, 깊이 영상 획득 단계(S520)에서 획득된 깊이 영상 및 컬러 영상 획득 단계(S525)에서 획득된 컬러 영상에 기반하여 3D 포인트 클라우드가 생성된다.In the 3D point cloud generation step S530, a 3D point cloud is generated based on the depth image acquired in the depth image acquisition step S520 and the color image obtained in the color image acquisition step S525.

다음으로, 3D 메쉬 모델 생성 단계(S550, S555 및 S560)를 설명한다.Next, 3D mesh model generation steps (S550, S555, and S560) will be described.

3D 메쉬 모델 생성 단계(S550, S555 및 S560)에서, 3D 기하 획득 단계(S520, S525 및 S530)에서 생성된 3D 포인트 클라우드에 메쉬 모델링 및 메쉬 에볼루션을 적용함으로써 3D 메쉬 정보가 생성된다.In the 3D mesh model generation steps (S550, S555, and S560), 3D mesh information is generated by applying mesh modeling and mesh evolution to the 3D point cloud generated in the 3D geometry acquisition steps (S520, S525, and S530).

메쉬 모델링 단계(S550)에서, 3D 포인트 클라우드에 3D 메쉬 삼각분할을 적용함으로써 메쉬 모델이 생성된다.In the mesh modeling step S550, a mesh model is generated by applying 3D mesh triangulation to the 3D point cloud.

메쉬 에볼루션 단계(S555)에서, 메쉬 모델 내의 메쉬 노드들을 분리, 생성 또는 변경함으로써 상기 메쉬 모델의 정밀도가 향상된다.In mesh evolution step S555, the precision of the mesh model is improved by separating, generating, or changing mesh nodes in the mesh model.

조명 정보 추출 단계(S560)에서, 3D 기하 획득 단계(S520, S525 및 S530)로부터 제공된 컬러 정보로부터 조명 정보가 추출된다.In the illumination information extraction step S560, illumination information is extracted from the color information provided from the 3D geometry acquisition steps S520, S525, and S530.

다음으로, 홀로그램 영상 생성 단계(S580 및 S590)를 설명한다.Next, hologram image generation steps S580 and S590 will be described.

홀로그램 영상 생성 단계(S580 및 S590)에서, 3D 메쉬 모델 생성 단계(S550, S555 및 S560)에서 생성된 3D 메쉬 모델에 기반하여 특정 시점의 2D 영상들이 생성되고, 생성된 특정 시점의 2D 영상들을 결합함으로써 홀로그램 패턴 영상이 생성된다.In the hologram image generation steps S580 and S590, 2D images of a specific view are generated based on the 3D mesh model generated in the 3D mesh model generation steps S550, S555 and S560, and the 2D images of the specific view generated are combined. As a result, a holographic pattern image is generated.

홀로그램 영상 생성 단계(S580 및 S590)에서, 조명 정보 추출 단계(S560)에서 추출된 조명 정보에 기반하여 3D 메쉬 모델 내의 반사광 부분이 감지될 수 있고, 감지된 반사광 부분을 특정 시점의 이동에 비례하도록 쉬프트함으로써 특정 시점에서의 2D 영상들에 반사광이 적용될 수 있다.In the hologram image generation steps S580 and S590, the reflected light portion in the 3D mesh model may be detected based on the illumination information extracted in the illumination information extraction step S560, and the detected reflected light portion may be proportional to the movement of a specific viewpoint. By shifting, the reflected light may be applied to the 2D images at a specific viewpoint.

특정 시점 영상 생성 단계(S580)에서, 3D 메쉬 모델을 사용하여 특정 시점에서의 2D 영상들이 생성된다.In a specific viewpoint image generation step S580, 2D images at a specific viewpoint are generated using the 3D mesh model.

홀로그램 패턴 영상 생성 단계(S590)에서, 생성된 특정 시점에서의 2D 영상들을 결합함으로써 홀로그램 패턴 영상이 생성된다.In the hologram pattern image generation step (S590), the hologram pattern image is generated by combining the generated 2D images at a specific time point.

홀로그램 패턴 영상 생성 단계(S590)는, 포인트-기반 CGH 방식 또는 푸리에 기반 CGH 방식 중 하나를 사용하여 특정 시점에서의 2D 영상들 각각에 대한 홀로그램 패턴 영상 생성 정보를 생성하는 단계를 포함할 수 있으며, 생성된 홀로그램 패턴 영상 생성 정보를 결합함으로써 상기 홀로그램 패턴 영상을 생성하는 단계를 포함할 수 있다.The hologram pattern image generation step (S590) may include generating hologram pattern image generation information for each of the 2D images at a specific time point using one of a point-based CGH scheme or a Fourier-based CGH scheme. The method may include generating the holographic pattern image by combining the generated holographic pattern image generation information.

홀로그램 패턴 영상 생성 단계(S590)에서, 특정 시점에서의 2D 영상이 이전에 생성된 동일한 특정 시점에서의 2D 영상과 동일한 경우, 이전에 생성된 홀로그램 패턴 영상 생성 정보가 사용될 수 있다. In the hologram pattern image generation step (S590), when the 2D image at the specific view point is the same as the 2D image at the same specific view point previously generated, previously generated hologram pattern image generation information may be used.

홀로그램 패턴 영상 생성 단계(S590)에서, 특정 시점에서의 2D 영상 및 이전에 생성된 동일한 특정 시점에서의 2D 영상이 비교될 수 있다. 또한, 특정 시점에서의 2D 영상 내에서 변화가 발생한 픽셀이 영향이 미치는 영역에 대해서만 홀로그램 패턴 영상 생성 정보가 재계산될 수 있다.In the hologram pattern image generation step (S590), the 2D image at a specific time point and the 2D image at the same specific time point previously generated may be compared. In addition, the hologram pattern image generation information may be recalculated only in an area affected by a pixel having a change in the 2D image at a specific time point.

앞서 도 1 내지 도 4를 참조하여 설명된 본 발명의 일 실시예에 따른 기술 적 내용들이 본 실시예에도 그대로 적용될 수 있다. 따라서 보다 상세한 설명은 이하 생략하기로 한다.
Technical contents according to an embodiment of the present invention described above with reference to FIGS. 1 to 4 may be applied to the present embodiment as it is. Therefore, more detailed description will be omitted below.

본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Method according to an embodiment of the present invention is implemented in the form of program instructions that can be executed by various computer means may be recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.

100: 영상 장치
110: 3D 기하 획득부
140: 3D 메쉬 모델 생성부
170: 홀로그램 영상 생성부
100: video device
110: 3D Geometry
140: 3D mesh model generation unit
170: hologram image generating unit

Claims (20)

하나 이상의 카메라로부터 영상 정보를 수신하고 상기 수신된 영상 정보에서 컬러 정보 및 깊이 정보를 획득함으로써 3D 포인트 클라우드를 생성하는 3D 기하 획득부;
상기 3D 포인트 클라우드에 메쉬 모델링 및 메쉬 에볼루션을 적용함으로써 3D 메쉬 정보를 생성하는 3D 메쉬 모델 생성부; 및
상기 3D 메쉬 모델에 기반하여 생성된 특정 시점의 2D 영상들을 결합함으로써 홀로그램 패턴 영상을 생성하는 홀로그램 영상 생성부
를 포함하는 영상 장치.
A 3D geometry obtainer for generating 3D point clouds by receiving image information from at least one camera and obtaining color information and depth information from the received image information;
A 3D mesh model generator for generating 3D mesh information by applying mesh modeling and mesh evolution to the 3D point cloud; And
Hologram image generation unit for generating a holographic pattern image by combining 2D images of a specific view generated based on the 3D mesh model
Imaging device comprising a.
제1항에 있어서,
상기 3D 기하 획득부는,
카메라 집합으로부터 제공된 영상 데이터에 기반하여 깊이 영상을 획득하는 깊이 영상 획득부;
카메라 집합으로부터 제공된 영상 데이터에 기반하여 컬러 영상을 획득하는 컬러 영상 획득부; 및
상기 깊이 영상 및 상기 컬러 영상에 기반하여 3D 포인트 클라우드를 생성하는 3D 포인트 클라우드 생성부
를 포함하는, 영상 장치.
The method of claim 1,
The 3D geometric acquisition unit,
A depth image obtaining unit obtaining a depth image based on image data provided from a camera set;
A color image obtaining unit obtaining a color image based on image data provided from a camera set; And
3D point cloud generating unit for generating a 3D point cloud based on the depth image and the color image
Including, the imaging device.
제2항에 있어서,
상기 깊이 영상 획득부는 상기 카메라 집합을 구성하는 복수 개의 카메라들 각각으로부터 촬영된 서로 상이한 시점에서의 2D 영상에 기반하여 깊이 영상 데이터를 획득하는, 영상 장치.
The method of claim 2,
The depth image obtaining unit obtains depth image data based on 2D images from different viewpoints photographed from each of a plurality of cameras constituting the camera set.
제1항에 있어서,
상기 3D 메쉬 모델 생성부는,
상기 3D 포인트 클라우드에 3D 메쉬 삼각분할을 적용함으로써 메쉬 모델을 생성하는 메쉬 모델링부; 및
상기 메쉬 모델 내의 메쉬 노드들을 분리, 생성 또는 변경함으로써 상기 메쉬 모델의 정밀도를 향상시키는 메쉬 에볼루션부
를 포함하는, 영상 장치.
The method of claim 1,
The 3D mesh model generation unit,
A mesh modeling unit generating a mesh model by applying 3D mesh triangulation to the 3D point cloud; And
Mesh evolution unit that improves the precision of the mesh model by separating, generating or changing mesh nodes in the mesh model
Including, the imaging device.
제4항에 있어서,
상기 3D 메쉬 모델 생성부는,
상기 3D 기하 획득부로부터 상기 컬러 정보를 제공받아 상기 컬러 정보로부터 조명 정보를 추출하는 조명 정보 추출부
를 더 포함하는, 영상 장치.
The method of claim 4, wherein
The 3D mesh model generation unit,
An illumination information extracting unit which receives the color information from the 3D geometry obtaining unit and extracts lighting information from the color information.
Further comprising, the imaging device.
제5항에 있어서,
상기 홀로그램 영상 생성부는 상기 조명 정보에 기반하여 상기 3D 메쉬 모델 내의 반사광 부분을 감지하고, 상기 반사광 부분을 상기 특정 시점의 이동에 비례하도록 쉬프트함으로써 상기 특정 시점에서의 2D 영상들에 반사광을 적용하는, 영상 장치.
The method of claim 5,
The hologram image generator detects the reflected light portion in the 3D mesh model based on the illumination information, and applies the reflected light to the 2D images at the specific viewpoint by shifting the reflected light portion in proportion to the movement of the specific viewpoint. Imaging device.
제1항에 있어서,
상기 홀로그램 영상 생성부는,
상기 3D 메쉬 모델을 사용하여 특정 시점에서의 2D 영상들을 생성하는 특정 시점 영상 생성부; 및
상기 특정 시점에서의 2D 영상들을 결합함으로써 홀로그램 패턴 영상을 생성하는 홀로그램 패턴 영상 생성부
를 포함하는, 영상 장치.
The method of claim 1,
The hologram image generator,
A specific view image generation unit generating 2D images at a specific view using the 3D mesh model; And
Hologram pattern image generation unit for generating a hologram pattern image by combining the 2D images at the specific time point
Including, the imaging device.
제7항에 있어서,
상기 홀로그램 패턴 영상 생성부는 포인트-기반 CGH(computer generated hologram) 방식 또는 푸리에 기반 CGH 방식 중 하나를 사용하여 상기 특정 시점에서의 2D 영상들 각각에 대한 홀로그램 패턴 영상 생성 정보를 생성하고, 상기 홀로그램 패턴 영상 생성 정보를 결합함으로써 상기 홀로그램 패턴 영상을 생성하는, 영상 장치.
The method of claim 7, wherein
The hologram pattern image generating unit generates hologram pattern image generation information for each of the 2D images at the specific time point using one of a point-based computer generated hologram (CGH) method or a Fourier-based CGH method, and the hologram pattern image And generating the holographic pattern image by combining generation information.
제8항에 있어서,
상기 홀로그램 패턴 영상 생성부는 상기 특정 시점에서의 2D 영상이 이전에 생성된 상기 특정 시점에서의 2D 영상과 동일한 경우 이전에 생성된 상기 홀로그램 패턴 영상 생성 정보를 사용하는, 영상 장치.
The method of claim 8,
And the hologram pattern image generation unit uses the hologram pattern image generation information previously generated when the 2D image at the specific viewpoint is the same as the 2D image at the specific viewpoint previously generated.
제8항에 있어서,
상기 홀로그램 패턴 영상 생성부는 상기 특정 시점에서의 2D 영상 및 이전에 생성된 상기 특정 시점에서의 2D 영상을 비교하여, 상기 특정 시점에서의 2D 영상 내에서 변화가 발생한 픽셀이 영향이 미치는 영역에 대해서만 상기 홀로그램 패턴 영상 생성 정보를 재계산하는, 영상 장치.
The method of claim 8,
The hologram pattern image generation unit compares the 2D image at the specific time point and the 2D image at the specific time point previously generated, and applies only to an area affected by a pixel having a change in the 2D image at the specific time point. An image device for recalculating holographic pattern image generation information.
하나 이상의 카메라로부터 영상 정보를 수신하고 상기 수신된 영상 정보에서 컬러 정보 및 깊이 정보를 획득함으로써 3D 포인트 클라우드를 생성하는 3D 기하 획득 단계;
상기 3D 포인트 클라우드에 메쉬 모델링 및 메쉬 에볼루션을 적용함으로써 3D 메쉬 정보를 생성하는 3D 메쉬 모델 생성 단계; 및
상기 3D 메쉬 모델에 기반하여 특정 시점의2D 영상들을 생성하고, 상기 특정 시점의 2D 영상들을 결합함으로써 홀로그램 패턴 영상을 생성하는 홀로그램 영상 생성 단계
를 포함하는, 홀로그램 영상 생성 방법.
3D geometry acquisition step of generating a 3D point cloud by receiving image information from at least one camera and obtaining color information and depth information from the received image information;
A 3D mesh model generation step of generating 3D mesh information by applying mesh modeling and mesh evolution to the 3D point cloud; And
Generating hologram images based on the 3D mesh model to generate 2D images of a specific viewpoint and generating a holographic pattern image by combining the 2D images of the specific viewpoint.
Including, holographic image generation method.
제11항에 있어서,
상기 3D 기하 획득 단계는,
카메라 집합으로부터 제공된 영상 데이터에 기반하여 깊이 영상을 획득하는 깊이 영상 획득 단계;
카메라 집합으로부터 제공된 영상 데이터에 기반하여 컬러 영상을 획득하는 컬러 영상 획득 단계; 및
상기 깊이 영상 및 상기 컬러 영상에 기반하여 3D 포인트 클라우드를 생성하는 3D 포인트 클라우드 생성 단계
를 포함하는, 홀로그램 영상 생성 방법.
The method of claim 11,
The 3D geometry acquisition step,
A depth image obtaining step of obtaining a depth image based on image data provided from a camera set;
Obtaining a color image based on the image data provided from the camera set; And
3D point cloud generation step of generating a 3D point cloud based on the depth image and the color image
Including, holographic image generation method.
제11항에 있어서,
상기 3D 메쉬 모델 생성 단계는,
상기 3D 포인트 클라우드에 3D 메쉬 삼각분할을 적용함으로써 메쉬 모델을 생성하는 메쉬 모델링 단계; 및
상기 메쉬 모델 내의 메쉬 노드들을 분리, 생성 또는 변경함으로써 상기 메쉬 모델의 정밀도를 향상시키는 메쉬 에볼루션 단계
를 포함하는, 홀로그램 영상 생성 방법.
The method of claim 11,
The 3D mesh model generation step,
A mesh modeling step of generating a mesh model by applying 3D mesh triangulation to the 3D point cloud; And
Mesh evolution step of improving the precision of the mesh model by separating, generating or modifying mesh nodes in the mesh model
Including, holographic image generation method.
제13항에 있어서,
상기 3D 메쉬 모델 생성 단계는,
상기 3D 기하 획득부로부터 상기 컬러 정보를 제공받아 상기 컬러 정보로부터 조명 정보를 추출하는 조명 정보 추출 단계
를 더 포함하는, 홀로그램 영상 생성 방법.
The method of claim 13,
The 3D mesh model generation step,
An illumination information extraction step of extracting illumination information from the color information by receiving the color information from the 3D geometric acquisition unit;
Further comprising a, holographic image generation method.
제14항에 있어서,
상기 홀로그램 영상 생성 단계는 상기 조명 정보에 기반하여 상기 3D 메쉬 모델 내의 반사광 부분을 감지하고, 상기 반사광 부분을 상기 특정 시점의 이동에 비례하도록 쉬프트함으로써 상기 특정 시점에서의 2D 영상들에 반사광을 적용하는, 홀로그램 영상 생성 방법.
The method of claim 14,
The generating of the hologram image detects the reflected light portion in the 3D mesh model based on the illumination information, and applies the reflected light to the 2D images at the specific viewpoint by shifting the reflected light portion in proportion to the movement of the specific viewpoint. , Holographic image generation method.
제11항에 있어서,
상기 홀로그램 영상 생성 단계는,
상기 3D 메쉬 모델을 사용하여 상기 특정 시점에서의 2D 영상들을 생성하는 특정 시점 영상 생성 단계; 및
상기 특정 시점에서의 2D 영상들을 결합함으로써 홀로그램 패턴 영상을 생성하는 홀로그램 패턴 영상 생성 단계
를 포함하는, 홀로그램 영상 생성 방법.
The method of claim 11,
The hologram image generating step,
A specific viewpoint image generation step of generating 2D images at the specific viewpoint using the 3D mesh model; And
Hologram pattern image generation step of generating a hologram pattern image by combining the 2D images at the specific time point
Including, holographic image generation method.
제16항에 있어서,
상기 홀로그램 패턴 영상 생성 단계는,
포인트-기반 CGH(computer generated hologram) 방식 또는 푸리에 기반 CGH 방식 중 하나를 사용하여 상기 특정 시점에서의 2D 영상들 각각에 대한 홀로그램 패턴 영상 생성 정보를 생성하는 단계; 및
상기 홀로그램 패턴 영상 생성 정보를 결합함으로써 상기 홀로그램 패턴 영상을 생성하는 단계
를 포함하는, 홀로그램 영상 생성 방법.
The method of claim 16,
The hologram pattern image generation step,
Generating holographic pattern image generation information for each of the 2D images at the specific viewpoint using one of a point-based computer generated hologram (CGH) method and a Fourier-based CGH method; And
Generating the hologram pattern image by combining the hologram pattern image generation information
Including, holographic image generation method.
제17항에 있어서,
상기 홀로그램 패턴 영상 생성 단계는 상기 특정 시점에서의 2D 영상이 이전에 생성된 상기 특정 시점에서의 2D 영상과 동일한 경우 이전에 생성된 상기 홀로그램 패턴 영상 생성 정보를 사용하는, 홀로그램 영상 생성 방법.
The method of claim 17,
The generating of the hologram pattern image uses the hologram pattern image generation information previously generated when the 2D image at the specific view point is the same as the 2D image at the specific view point previously generated.
제17항에 있어서,
상기 홀로그램 패턴 영상 생성 단계는 상기 특정 시점에서의 2D 영상 및 이전에 생성된 상기 특정 시점에서의 2D 영상을 비교하여, 상기 특정 시점에서의 2D 영상 내에서 변화가 발생한 픽셀이 영향이 미치는 영역에 대해서만 상기 홀로그램 패턴 영상 생성 정보를 재계산하는, 홀로그램 영상 생성 방법.
The method of claim 17,
The generating of the hologram pattern image compares the 2D image at the specific point in time and the 2D image at the specific point in time previously generated, so that only the area affected by a pixel having a change in the 2D image at the specific point in time is affected. And recalculating the hologram pattern image generation information.
제11항 내지 제19항 중 어느 한 항의 홀로그램 영상 생성 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium containing a program for performing the method for generating the hologram image of any one of claims 11 to 19.
KR1020100106702A 2010-10-29 2010-10-29 Method and apparatus for generating hologram based on 3d mesh modeling and evolution KR20120045269A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100106702A KR20120045269A (en) 2010-10-29 2010-10-29 Method and apparatus for generating hologram based on 3d mesh modeling and evolution

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100106702A KR20120045269A (en) 2010-10-29 2010-10-29 Method and apparatus for generating hologram based on 3d mesh modeling and evolution

Publications (1)

Publication Number Publication Date
KR20120045269A true KR20120045269A (en) 2012-05-09

Family

ID=46264767

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100106702A KR20120045269A (en) 2010-10-29 2010-10-29 Method and apparatus for generating hologram based on 3d mesh modeling and evolution

Country Status (1)

Country Link
KR (1) KR20120045269A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101356378B1 (en) * 2012-07-02 2014-01-28 충북대학교 산학협력단 Method for displaying of three-dimensional integral imaging using camera and apparatus thereof
KR20160089758A (en) * 2015-01-20 2016-07-28 주식회사 엘지유플러스 Support Method And Server Of 3-Dimension Printer
CN105872473A (en) * 2016-05-18 2016-08-17 西安银石科技发展有限责任公司 Locomotive overhaul system and method based on video identification realized by hologram dual cameras
US9727023B2 (en) 2013-04-15 2017-08-08 Samsung Electronics Co., Ltd. Apparatus and method for generating hologram pattern
KR20190136363A (en) * 2018-05-30 2019-12-10 주식회사 공간정보 The Connection System for Remote Sensing data and Cloud-Based Platform
KR20200024105A (en) * 2018-08-27 2020-03-06 주식회사 쓰리디팩토리 Computer graphics synthesis system and method thereof
KR102128535B1 (en) * 2019-11-19 2020-06-30 주식회사 오드래빗미디어 System for providing hologram
US10775540B2 (en) 2015-02-26 2020-09-15 Samsung Electronics Co., Ltd. Method of forming light modulating signal for displaying 3D image, and apparatus and method for displaying 3D image
KR102277098B1 (en) 2020-02-25 2021-07-15 광운대학교 산학협력단 A volume hologram generation method using point cloud and mesh
WO2024136304A1 (en) * 2022-12-20 2024-06-27 한국전자기술연구원 Method for inserting holographic security code into holographic recording medium and method for reading holographic security code

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101356378B1 (en) * 2012-07-02 2014-01-28 충북대학교 산학협력단 Method for displaying of three-dimensional integral imaging using camera and apparatus thereof
US9727023B2 (en) 2013-04-15 2017-08-08 Samsung Electronics Co., Ltd. Apparatus and method for generating hologram pattern
KR20160089758A (en) * 2015-01-20 2016-07-28 주식회사 엘지유플러스 Support Method And Server Of 3-Dimension Printer
US10775540B2 (en) 2015-02-26 2020-09-15 Samsung Electronics Co., Ltd. Method of forming light modulating signal for displaying 3D image, and apparatus and method for displaying 3D image
CN105872473A (en) * 2016-05-18 2016-08-17 西安银石科技发展有限责任公司 Locomotive overhaul system and method based on video identification realized by hologram dual cameras
KR20190136363A (en) * 2018-05-30 2019-12-10 주식회사 공간정보 The Connection System for Remote Sensing data and Cloud-Based Platform
KR20200024105A (en) * 2018-08-27 2020-03-06 주식회사 쓰리디팩토리 Computer graphics synthesis system and method thereof
KR102128535B1 (en) * 2019-11-19 2020-06-30 주식회사 오드래빗미디어 System for providing hologram
KR102277098B1 (en) 2020-02-25 2021-07-15 광운대학교 산학협력단 A volume hologram generation method using point cloud and mesh
US11733649B2 (en) 2020-02-25 2023-08-22 Kwangwoon University Industry-Academic Collaboration Foundation Method of generating volume hologram using point cloud and mesh
WO2024136304A1 (en) * 2022-12-20 2024-06-27 한국전자기술연구원 Method for inserting holographic security code into holographic recording medium and method for reading holographic security code

Similar Documents

Publication Publication Date Title
KR20120045269A (en) Method and apparatus for generating hologram based on 3d mesh modeling and evolution
CN108734776B (en) Speckle-based three-dimensional face reconstruction method and equipment
JP6974873B2 (en) Devices and methods for retrieving depth information from the scene
US20180192033A1 (en) Multi-view scene flow stitching
EP2272050B1 (en) Using photo collections for three dimensional modeling
WO2021140886A1 (en) Three-dimensional model generation method, information processing device, and program
US20210241495A1 (en) Method and system for reconstructing colour and depth information of a scene
JP6201476B2 (en) Free viewpoint image capturing apparatus and method
KR20100119559A (en) Method and system for converting 2d image data to stereoscopic image data
KR20090055803A (en) Method and apparatus for generating multi-viewpoint depth map, method for generating disparity of multi-viewpoint image
KR101181199B1 (en) Stereoscopic image generation method of background terrain scenes, system using the same and recording medium for the same
JP2016537901A (en) Light field processing method
KR102152432B1 (en) A real contents producing system using the dynamic 3D model and the method thereof
US20140300941A1 (en) Method and apparatus for generating hologram based on multi-view image
JP5852093B2 (en) Video processing apparatus, video processing method, and program
JP6300346B2 (en) IP stereoscopic image estimation apparatus and program thereof
TW202014993A (en) Information processing device, program, and information processing method
KR101411568B1 (en) A Hologram Generating Method using Virtual View-point Depth Image Synthesis
KR101399274B1 (en) multi 3-DIMENSION CAMERA USING MULTI PATTERN BEAM AND METHOD OF THE SAME
JP7184203B2 (en) Image processing device, three-dimensional measurement system, image processing method
CN110443228A (en) A kind of method for pedestrian matching, device, electronic equipment and storage medium
US20240054667A1 (en) High dynamic range viewpoint synthesis
JP6595878B2 (en) Element image group generation apparatus and program thereof
CN104463958A (en) Three-dimensional super-resolution method based on disparity map fusing
KR20220078447A (en) Operation method of image restoration apparatus for restoring low-density area

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application