KR101857977B1 - Image apparatus for combining plenoptic camera and depth camera, and image processing method - Google Patents

Image apparatus for combining plenoptic camera and depth camera, and image processing method Download PDF

Info

Publication number
KR101857977B1
KR101857977B1 KR1020110081022A KR20110081022A KR101857977B1 KR 101857977 B1 KR101857977 B1 KR 101857977B1 KR 1020110081022 A KR1020110081022 A KR 1020110081022A KR 20110081022 A KR20110081022 A KR 20110081022A KR 101857977 B1 KR101857977 B1 KR 101857977B1
Authority
KR
South Korea
Prior art keywords
image
information
depth
view images
images
Prior art date
Application number
KR1020110081022A
Other languages
Korean (ko)
Other versions
KR20130019080A (en
Inventor
이승규
김도균
심현정
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020110081022A priority Critical patent/KR101857977B1/en
Publication of KR20130019080A publication Critical patent/KR20130019080A/en
Application granted granted Critical
Publication of KR101857977B1 publication Critical patent/KR101857977B1/en

Links

Images

Abstract

플래놉틱 카메라와 깊이 카메라를 결합하여 상기 플래놉틱 카메라에서 생성된 다시점 영상과 상기 깊이 카메라에서 생성된 깊이 영상을 정합함으로써, 3차원 영상을 생성하는 영상 장치 및 영상 처리 방법에 관한 것이다.Dimensional image by matching a multi-view image generated by the panoramic camera and a depth image generated by the depth camera by combining a panoramic camera and a depth camera, and an image processing method for generating a three-dimensional image.

Description

플래놉틱 카메라와 깊이 카메라를 결합한 영상 장치 및 영상 처리 방법{IMAGE APPARATUS FOR COMBINING PLENOPTIC CAMERA AND DEPTH CAMERA, AND IMAGE PROCESSING METHOD}TECHNICAL FIELD [0001] The present invention relates to an image device and an image processing method that combine a planar camera and a depth camera,

두 카메라 간의 결합을 통해 생성된 영상을 처리하는 기술에 관한 것이다.And a technique for processing an image generated through coupling between two cameras.

한 개 이상의 다시점 영상을 획득할 수 있는 집적 영상(Integral Imaging) 기술은 라이트 필드(Light Field) 영상을 획득할 수 있는 방식으로 알려져 있다. 그러나, 다시점 영상을 획득하는 플래놉틱 카메라(Plenoptic Camera)의 렌즈 어레이(array)를 정밀하게 제작하는데 한계가 있다. 또한, 플래놉틱 카메라는 공간 해상도와 시점 해상도의 제약으로 리얼 3차원 영상을 획득하는 데는 한계를 보인다.An integral imaging technique capable of acquiring one or more multi-view images is known as a method capable of acquiring a light field image. However, there is a limitation in precisely manufacturing a lens array of a plenoptic camera for acquiring multi-view images. In addition, the plannop camera has limitations in acquiring real 3D images due to limitation of spatial resolution and viewpoint resolution.

한편, 컬러 카메라와 깊이 카메라를 결합한 컬러-깊이 카메라는 다양한 시점 영상의 라이트 필드(Light Field) 획득이 불가능하다. 따라서, 다수의 컬러-깊이 카메라를 사용하는 방식이 제안되고 있으나, 이는 카메라 시스템의 크기 등의 문제로 소비자 장치(Consumer Device)화하는 데에 문제가 발생한다.On the other hand, a color depth camera combining a color camera and a depth camera can not acquire a light field of various viewpoint images. Therefore, although a method of using a plurality of color-depth cameras has been proposed, there is a problem in making it a consumer device due to a problem such as a size of a camera system.

일실시예에 따른 영상 장치는 시점이 서로 상이한 복수의 시점 영상들을 포함하는 집적 영상을 생성하는 플래놉틱 카메라, 깊이 영상을 생성하는 깊이 카메라, 및 상기 집적 영상과 상기 깊이 영상을 정합하여 3차원 영상을 생성하는 영상 정합부를 포함한다.The imaging apparatus according to an embodiment includes a planar camera that generates an integrated image including a plurality of view images having different viewpoints, a depth camera that generates a depth image, And an image matching unit for generating an image.

상기 영상 정합부는 상기 플래놉틱 카메라와 상기 깊이 카메라의 상대적 위치를 측정하고, 상기 측정된 상대적 위치에 기초하여 상기 집적 영상과 상기 깊이 영상을 정합할 수 있다.The image matching unit may measure a relative position of the planar camera and the depth camera, and may match the integrated image and the depth image based on the measured relative position.

상기 영상 정합부는 상기 복수의 시점 영상들 중에서 어느 하나의 시점 영상과 상기 깊이 영상 간의 회전 정보 또는 이동 정보를 계산하고, 계산된 회전 정보 또는 이동 정보를 이용하여 상기 집적 영상과 상기 깊이 영상을 정합할 수 있다.The image matching unit calculates rotation information or movement information between any one viewpoint image and the depth image among the plurality of viewpoint images and matches the integrated image and the depth image using the calculated rotation information or movement information .

상기 영상 정합부는 상기 복수의 시점 영상들 중에서 어느 하나의 시점 영상과 상기 깊이 영상 간의 호모그라피를 획득하고, 획득한 호모그라피를 이용하여 상기 집적 영상과 상기 깊이 영상을 정합할 수 있다.The image matching unit may obtain a homography between any one view image and the depth image among the plurality of view images and may match the accumulated image and the depth image using the obtained homography.

상기 영상 정합부는 상기 복수의 시점 영상들 중에서 소수 시점 영상들의 픽셀값들을 과반수 시점 영상들의 픽셀값들로 변경하여 상기 집적 영상과 상기 깊이 영상 간의 형상 정보를 개선하고, 개선된 형상 정보를 이용하여 상기 집적 영상과 상기 깊이 영상을 정합할 수 있다.The image matching unit may improve the shape information between the integrated image and the depth image by changing the pixel values of the decimal viewpoint images among the plurality of viewpoint images to pixel values of the majority viewpoint images, The integrated image and the depth image can be matched.

상기 영상 정합부는 상기 복수의 시점 영상들과 연관된 컬러 정보의 변화량을 산출하고, 산출된 변화량에 기초하여 상기 복수의 시점 영상들에 포함된 객체의 재질 정보, 조명 정보 및 컬러 정보를 예측하고, 예측된 재질 정보, 조명 정보 및 컬러 정보 각각에 따라 상기 복수의 시점 영상들에 포함된 픽셀을 세분화할 수 있다.Wherein the image matching unit calculates the amount of change of the color information associated with the plurality of viewpoint images, predicts the material information, the illumination information, and the color information of the object included in the plurality of viewpoint images based on the calculated amount of change, The pixels included in the plurality of view-point images can be subdivided according to the material information, the illumination information, and the color information.

상기 영상 정합부는 선정된 영역 내의 세분화된 픽셀들에 포함된 라이트 필드를 이용하여 상기 선정된 영역 내의 픽셀과 연관된 대표 라이트 필드 정보를 획득하고, 획득한 대표 라이트 필드 정보에 기초하여 상기 집적 영상과 상기 깊이 영상을 정합할 수 있다.Wherein the image matching unit acquires representative light field information associated with pixels in the selected area using a light field included in the subdivided pixels in the selected area, Depth images can be matched.

다른 실시예에 따른 영상 장치는 시점이 각각 상이한 다시점 영상들을 생성하는 플래놉틱 카메라, 깊이 영상을 생성하는 깊이 카메라, 및 상기 다시점 영상들간의 조명 정보 또는 재질 정보를 매칭하고, 상기 매칭된 조명 정보 또는 재질 정보에 기초하여 상기 다시점 영상들과 상기 깊이 영상 간의 3차원 형상 정보를 획득하는 형상 캡처링부를 포함한다.The video apparatus according to another embodiment may include a plurality of multi-viewpoint images having different viewpoints, a depth camera for generating depth images, and illumination information or material information between the multi-viewpoint images, Dimensional shape information between the multi-view images and the depth image based on information or material information.

상기 형상 캡처링부는 상기 다시점 영상들에 포함된 소수 다시점 영상들의 픽셀값들을 과반수 다시점 영상들의 픽셀값들로 변경하여 상기 다시점 영상들간의 조명 정보 또는 재질 정보를 매칭할 수 있다.The shape capturing unit may convert the pixel values of the fractional multi-view images included in the multi-view images into pixel values of the majority multi-view images to match the illumination information or the material information of the multi-view images.

상기 영상 장치는 상기 3차원 형상 정보를 이용하여 상기 다시점 영상들과 상기 깊이 영상을 정합하는 영상 처리부를 더 포함할 수 있다.The image device may further include an image processor for matching the multi-view images with the depth images using the three-dimensional shape information.

또 다른 실시예에 따른 영상 장치는 시점이 서로 상이한 다시점 영상들을 생성하는 플래놉틱 카메라, 깊이 영상을 생성하는 깊이 카메라, 상기 다시점 영상들에 포함된 객체의 재질 정보, 조명 정보 및 컬러 정보에 따라 상기 다시점 영상들에 포함된 픽셀을 세분화하는 픽셀 세분화부, 및 상기 세분화된 픽셀을 이용하여 상기 다시점 영상들과 상기 깊이 영상을 정합하는 영상 처리부를 포함한다.According to another embodiment of the present invention, there is provided a display apparatus including a planar camera for generating multi-view images having different viewpoints, a depth camera for generating a depth image, material information of an object included in the multi-view images, And an image processor for matching the multi-view images with the depth image using the subdivided pixels.

상기 픽셀 세분화부는 상기 다시점 영상들로부터 획득한 컬러 정보의 변화량을 이용하여 상기 다시점 영상들에 포함된 객체의 재질 정보, 조명 정보 및 컬러 정보를 예측하고, 예측된 재질 정보, 조명 정보 및 컬러 정보에 따라 상기 다시점 영상들에 포함된 픽셀을 세분화할 수 있다.The pixel segmentation unit predicts material information, illumination information, and color information of an object included in the multi-view images using the amount of change of the color information acquired from the multi-view images, and outputs the predicted material information, The pixels included in the multi-view images can be subdivided according to the information.

상기 영상 처리부는 선정된 영역 내의 세분화된 픽셀들에 포함된 라이트 필드값을 합하여 상기 선정된 영역 내의 픽셀과 연관된 대표 라이트 필드 정보를 획득하고, 획득한 대표 라이트 필드 정보에 기초하여 상기 다시점 영상들과 상기 깊이 영상을 정합할 수 있다.Wherein the image processing unit acquires representative light field information associated with pixels in the selected area by summing the light field values included in the subdivided pixels in the selected area, and based on the acquired representative light field information, And the depth image can be matched.

영상 처리 방법은 시점이 서로 상이한 복수의 시점 영상들을 생성하는 플래놉틱 카메라의 기능을 제공하는 단계, 깊이 영상을 생성하는 깊이 카메라의 기능을 제공하는 단계, 및 상기 플래놉틱 카메라의 기능과 상기 깊이 카메라의 기능을 결합한 카메라를 구현하는 단계를 포함한다.The image processing method includes: providing a function of a panoramic camera that generates a plurality of viewpoint images having different viewpoints; providing a function of a depth camera to generate a depth image; And implementing a camera incorporating the functions of FIG.

플래놉틱 카메라와 깊이 카메라 간의 결합을 통해 리얼 3차원 영상을 획득할 수 있다.The real 3D image can be obtained through the combination of the panoptik camera and the depth camera.

플래놉틱 카메라와 깊이 카메라가 결합된 영상 장치로부터 3차원 형상 정보를 획득할 수 있다.3D shape information can be obtained from an imaging device that combines a planar camera and a depth camera.

라이트 필드의 재질 정보, 조명 정보를 쉽게 획득할 수 있다.The material information of the light field, and the light information can be easily obtained.

작은 크기의 카메라로 라이트 필드 형상을 캡쳐링하는 장치의 구현이 가능하다.It is possible to implement a device that captures the light field shape with a small size camera.

플래놉틱 카메라와 깊이 카메라의 결합을 통해 공간 해상도와 시점 해상도를 높일 수 있다.The combination of the panoptik camera and the depth camera can increase the spatial and view resolution.

덴스(Dense) 라이트 필드를 획득할 수 있다.You can acquire a Dense light field.

도 1은 본 발명의 일실시예에 따른 영상 장치의 구성을 도시한 블록도이다.
도 2는 종래기술과 비교하여 본 발명에서 시점 해상도를 높이는 일례를 도시한 도면이다.
도 3은 본 발명의 다른 실시예에 따른 영상 장치의 구성을 도시한 블록도이다.
도 4는 형상 정보를 개선하는 일례를 도시한 도면이다.
도 5는 본 발명의 또 다른 실시예에 따른 영상 장치의 구성을 도시한 블록도이다.
도 6은 영상 내에서 재질 정보와 조명 정보를 예측하는 일례를 도시한 도면이다.
도 7은 픽셀 세분화를 통해 대표 라이트 필드 정보를 획득하는 일례를 도시한 도면이다.
도 8은 본 발명의 일실시예에 따른 영상 처리 방법의 순서를 도시한 흐름도이다.
1 is a block diagram showing the configuration of a video apparatus according to an embodiment of the present invention.
2 is a diagram illustrating an example of increasing the viewpoint resolution according to the present invention in comparison with the prior art.
3 is a block diagram showing the configuration of a video apparatus according to another embodiment of the present invention.
4 is a diagram showing an example of improving the shape information.
5 is a block diagram illustrating a configuration of a video apparatus according to another embodiment of the present invention.
6 is a diagram showing an example of predicting material information and illumination information in an image.
FIG. 7 is a diagram showing an example of acquiring representative light field information through pixel segmentation.
8 is a flowchart illustrating a procedure of an image processing method according to an embodiment of the present invention.

이하, 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 다양한 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings and accompanying drawings, but the present invention is not limited to or limited by the embodiments.

도 1은 본 발명의 일실시예에 따른 영상 장치의 구성을 도시한 블록도이다.1 is a block diagram showing the configuration of a video apparatus according to an embodiment of the present invention.

도 1을 참고하면, 영상 장치(100)는 플래놉틱 카메라(110), 깊이 카메라(120), 및 영상 정합부(130)를 포함할 수 있다.Referring to FIG. 1, the imaging apparatus 100 may include a planar panoramic camera 110, a depth camera 120, and an image matching unit 130.

실시예에 따라, 영상 장치(100)는 플래놉틱 카메라(110)와 깊이 카메라(120)를 하나의 보디(body)로 연결한 카메라이거나, 하나의 보디 안에 플래놉틱 카메라(110)와 깊이 카메라(120)의 기능이 구현된 카메라일 수도 있다.According to an embodiment, the imaging apparatus 100 may be a camera in which the planar panoramic camera 110 and the depth camera 120 are connected by a single body, 120 may be implemented as a camera.

플래놉틱 카메라(110, Plenoptic Camera)는 시점이 서로 상이한 복수의 시점 영상들을 포함하는 집적 영상(integral Image)을 생성한다. 플래놉틱 카메라(110)는 복수의 렌즈들을 어레이(array)를 통해 복수의 서로 상이한 시점을 가지는 복수의 시점 영상들을 생성할 수 있다. 이러한, 복수의 시점 영상들이 포함된 영상이 집적 영상이다. A Plenoptic Camera 110 generates an integral image including a plurality of view images having different viewpoints. The planar panoramic camera 110 can generate a plurality of view images having a plurality of different view points through an array of lenses. Such an image including a plurality of viewpoint images is an integrated image.

깊이 카메라(120, Depth Camera)는 한 시점에서의 깊이 영상을 생성한다.A depth camera (120, Depth Camera) creates a depth image at a point in time.

영상 정합부(130)는 복수의 시점 영상을 포함하는 집적 영상과 한 시점의 깊이 영상을 정합(Calibration)함으로써, 3차원 영상을 생성할 수 있다.The image matching unit 130 may generate a three-dimensional image by calibrating an accumulated image including a plurality of view images and a depth image at one view.

실시예로, 영상 정합부(130)는 플래놉틱 카메라(110)와 깊이 카메라(120)의 상대적 위치를 측정할 수 있다. 상대적 위치는 플래놉틱 카메라(110)와 깊이 카메라(120)간에 떨어져 있는 거리, 또는 플래놉틱 카메라(110)와 깊이 카메라(120)간의 초점거리의 차이일 수 있다. 영상 정합부(130)는 상기 측정된 상대적 위치에 기초하여 상기 집적 영상과 상기 깊이 영상을 정합할 수 있다.In an embodiment, the image matching unit 130 may measure the relative positions of the planar panoramic camera 110 and the depth camera 120. The relative position may be the distance between the plannop camera 110 and the depth camera 120 or the focal distance between the plannop camera 110 and the depth camera 120. [ The image matching unit 130 may match the integrated image with the depth image based on the measured relative position.

다른 실시예로, 영상 정합부(130)는 상기 복수의 시점 영상들 중에서 어느 하나의 시점 영상과 상기 깊이 영상 간의 회전 정보 또는 이동 정보를 계산할 수 있다. 회전(rotation) 정보 또는 이동(translation) 정보는 서로 다른 두 개의 영상간의 정합을 위해 많이 사용되는 방식 중 하나이다. 참고로, 영상 정합부(130)는 플래놉틱 카메라(110)의 상기 복수의 렌즈들의 어레이 구성에 따라 상기 복수의 시점 영상간의 시점 차이를 알 수 있다. 따라서, 영상 정합부(130)는 상기 집적 영상 내에 포함된 모든 시점 영상과 상기 깊이 영상간의 회전 정보 또는 이동 정보를 모두 계산할 수 있다. 영상 정합부(130)는 상기 계산된 회전 정보 또는 이동 정보를 이용하여 상기 집적 영상과 상기 깊이 영상을 정합할 수 있다.In another embodiment, the image matching unit 130 may calculate rotation information or movement information between any one view image and the depth image among the plurality of view images. Rotation information or translation information is one of the popular methods for matching between two different images. For reference, the image matching unit 130 can recognize a viewpoint difference between the plurality of viewpoint images according to the array configuration of the plurality of lenses of the planar panoramic camera 110. [ Accordingly, the image matching unit 130 can calculate both the rotation information and the movement information between all view images included in the integrated image and the depth image. The image matching unit 130 may match the integrated image and the depth image using the calculated rotation information or movement information.

또 다른 실시예로, 영상 정합부(130)는 상기 복수의 시점 영상들 중에서 어느 하나의 시점 영상과 상기 깊이 영상 간의 호모그라피(homography)를 획득할 수 있다. 호모그라피는 영상을 보정하기 위해 많이 사용되는 방식 중 하나이다. 영상 정합부(130)는 상기 획득한 호모그라피를 이용하여 상기 집적 영상과 상기 깊이 영상을 정합할 수 있다.In another embodiment, the image matching unit 130 may obtain homography between any one view image and the depth image among the plurality of view images. Homography is one of the popular methods for correcting images. The image matching unit 130 may match the depth image with the integrated image using the obtained homography.

또 다른 실시예로, 영상 정합부(130)는 상기 복수의 시점 영상들 중에서 소수 시점 영상들의 픽셀값들을 과반수 시점 영상들의 픽셀값들로 변경함으로써, 상기 집적 영상과 상기 깊이 영상 간의 형상 정보를 개선할 수 있다. 예컨대, 상기 복수의 시점 영상들이 '10개' 있다고 가정한다면, 10개 중 3개의 소수 시점 영상들의 픽셀값이 7개의 과반수 시점 영상들의 픽셀값과 다를 수 있다. 영상 정합부(130)는 상기 소수 시점 영상들 3개의 픽셀값을 상기 과반수 시점 영상들의 픽셀값으로 변경할 수 있다. In yet another embodiment, the image matching unit 130 may improve the shape information between the integrated image and the depth image by changing the pixel values of the decimal point view images among the plurality of view point images to pixel values of the majority viewpoint images can do. For example, if it is assumed that the plurality of viewpoint images are " 10 ", pixel values of three decimal point viewpoint images may be different from pixel values of seven majority viewpoint images. The image matching unit 130 may change the pixel values of the decimal point view images to the pixel values of the majority view images.

즉, 영상 정합부(130)는 포토메트리(photometry), 텍스처(texture) 등 시점간 일관성(consistency)을 최대화함으로써, 3차원 형상 정보의 정밀도를 향상시킬 수 있다. 이렇게, 영상 정합부(130)는 상기 깊이 영상의 정밀도를 향상시킬 수 있다. 영상 정합부(130)는 상기 개선된 형상 정보를 이용하여 상기 집적 영상과 상기 깊이 영상을 정합할 수 있다.That is, the image matching unit 130 can maximize the consistency between the viewpoints such as photometry and texture, thereby improving the accuracy of the three-dimensional shape information. In this way, the image matching unit 130 can improve the accuracy of the depth image. The image matching unit 130 may match the depth image with the integrated image using the improved shape information.

도 2는 종래기술과 비교하여 본 발명에서 시점 해상도를 높이는 일례를 도시한 도면이다.2 is a diagram illustrating an example of increasing the viewpoint resolution according to the present invention in comparison with the prior art.

도 2를 참고하면, 컬러 카메라와 깊이 카메라를 결합한 카메라(210, 'cdCam'라고도 함)에서는 깊이 카메라에서 얻어진 3차원 픽셀과 컬러 정보를 획득할 수 있다. 이때, 얻어진 컬러 정보는 하나의 시점에서 관찰된 라이트 레이 정보를 나타낸다.Referring to FIG. 2, a camera 210 (also referred to as a 'cdCam') combining a color camera and a depth camera can acquire three-dimensional pixels and color information obtained from a depth camera. At this time, the obtained color information represents the light ray information observed at one point in time.

반면, 플래놉틱 카메라와 깊이 카메라를 결합한 카메라(220, 'pdCam'라고도 함)에서는 깊이 카메라에서 얻어진 3차원 픽셀과, 복수의 시점에서의 컬러 정보를 획득할 수 있다. 즉, 제한적인 개수(시점 해상도)의 라이트 필드 정보를 획득할 수 있는 것이다.On the other hand, a camera (220, also referred to as 'pdCam') combining a panoptic camera and a depth camera can acquire three-dimensional pixels obtained from a depth camera and color information at a plurality of points of view. That is, it is possible to acquire the light field information of a limited number (viewpoint resolution).

예컨대, 플래놉틱 카메라(110)는 렌즈 어레이가 서로 다른 위치에 놓여 있어, 각 3차원 픽셀도 서로 다른 깊이를 가진다. 따라서, 각 3차원 픽셀에서 관찰되는 라이트 필드 정보는 모두 동일한 각도에서 얻어지는 것이라고 볼 수 없다. 그러나, 상기 라이트 필드 정보는 시점 해상도를 높이는데 활용될 수 있다.For example, the planar panoramic camera 110 has different arrays of lens arrays, and each three-dimensional pixel has a different depth. Therefore, the light field information observed in each of the three-dimensional pixels can not be regarded as being obtained from the same angle. However, the light field information can be utilized to increase the viewpoint resolution.

또 다른 실시예로, 영상 정합부(130)는 상기 복수의 시점 영상들과 연관된 컬러 정보의 변화량을 산출할 수 있다. 영상 정합부(130)는 상기 산출된 변화량에 기초하여 상기 복수의 시점 영상들에 포함된 객체의 재질 정보, 조명 정보 및 컬러 정보를 예측할 수 있다. 영상 정합부(130)는 예측된 재질 정보, 조명 정보 및 컬러 정보 각각에 따라 상기 복수의 시점 영상들에 포함된 픽셀을 세분화할 수 있다.In yet another embodiment, the image matching unit 130 may calculate the amount of change in color information associated with the plurality of view images. The image matching unit 130 may predict the material information, the illumination information, and the color information of the object included in the plurality of view images based on the calculated amount of change. The image matching unit 130 may subdivide pixels included in the plurality of view images according to predicted material information, illumination information, and color information, respectively.

예컨대, 영상 정합부(130)는 하나의 3차원 픽셀에 대하여, 상기 예측된 재질 정보에 따라 픽셀을 세분화하여 제1 픽셀을 만들고, 상기 예측된 조명 정보에 따라 픽셀을 세분화하여 제2 픽셀을 만들며, 상기 예측된 컬러 정보에 따라 픽셀을 세분화하여 제3 픽셀을 만들 수 있다.For example, the image matching unit 130 creates a first pixel by subdividing a pixel according to the predicted material information for one three-dimensional pixel, and subdivides the pixel according to the predicted illumination information to create a second pixel , The third pixel may be created by subdividing the pixel according to the predicted color information.

이후, 영상 정합부(130)는 상기 3차원 픽셀에 대하여, 세분화된 상기 제1 픽셀 내지 상기 제3 픽셀에 포함된 라이트 필드를 합하여, 상기 3차원 픽셀을 대표하는 대표 라이트 필드 정보를 획득할 수 있다. 영상 정합부(130)는 상기 획득한 대표 라이트 필드 정보에 기초하여 상기 집적 영상과 상기 깊이 영상을 정합할 수 있다. 따라서, 영상 정합부(130)는 상기 대표 라이트 필드 정보를 이용하여 상기 집적 영상과 상기 깊이 영상을 정합함으로써, 정합한 3차원 영상에 대한 시점 해상도를 높일 수 있다.Then, the image matching unit 130 obtains the representative light field information representative of the three-dimensional pixel by summing the light fields included in the subdivided first pixel to the third pixel with respect to the three-dimensional pixel have. The image matching unit 130 may match the integrated image and the depth image based on the acquired representative light field information. Accordingly, the image matching unit 130 can increase the viewpoint resolution of the matched three-dimensional image by matching the accumulated image and the depth image using the representative light field information.

도 3은 본 발명의 다른 실시예에 따른 영상 장치의 구성을 도시한 블록도이다.3 is a block diagram showing the configuration of a video apparatus according to another embodiment of the present invention.

도 3을 참고하면, 영상 장치(300)는 플래놉틱 카메라(310), 깊이 카메라(220), 형상 캡쳐링부(330), 및 영상 처리부(340)를 포함할 수 있다.3, the imaging apparatus 300 may include a planar panoramic camera 310, a depth camera 220, a shape capturing unit 330, and an image processing unit 340.

실시예에 따라, 영상 장치(300)는 플래놉틱 카메라(310)와 깊이 카메라(320)를 하나의 보디로 연결한 카메라이거나, 하나의 보디 안에 플래놉틱 카메라(310)와 깊이 카메라(320)의 기능이 구현된 카메라일 수도 있다.According to an embodiment, the imaging device 300 may be a camera that connects the planar panoramic camera 310 and the depth camera 320 by one body, or may be a camera that connects the planar panoramic camera 310 and the depth camera 320 It may be a camera with function implemented.

플래놉틱 카메라(310)는 시점이 서로 상이한 다시점 영상들을 생성한다. 플래놉틱 카메라(310)는 복수의 렌즈들을 어레이를 통해 복수의 서로 상이한 시점을 가지는 다시점 영상들을 생성할 수 있다. The planar camera 310 generates multi-view images having different viewpoints. The planar panoramic camera 310 can generate multiple viewpoint images having a plurality of different viewpoints through an array of lenses.

깊이 카메라(320)는 한 시점에서의 깊이 영상을 생성한다.The depth camera 320 generates a depth image at one point in time.

형상 캡쳐링부(330)는 상기 다시점 영상들간의 조명 정보 또는 재질 정보를 매칭한다. 실시예로, 형상 캡쳐링부(330)는 상기 다시점 영상들에 포함된 소수 다시점 영상들의 픽셀값들을 과반수 다시점 영상들의 픽셀값들로 변경함으로써, 상기 다시점 영상들간의 조명 정보 또는 재질 정보를 매칭할 수 있다.The shape capturing unit 330 matches illumination information or material information between the multi-view images. In an embodiment, the shape capturing unit 330 may convert the pixel values of the fractional multi-view images included in the multi-view images into the pixel values of the majority multi-view images, so that the illumination information or the material information Can be matched.

형상 캡쳐링부(330)는 상기 매칭된 조명 정보 또는 재질 정보에 기초하여 상기 다시점 영상들과 상기 깊이 영상 간의 3차원 형상 정보를 획득할 수 있다. 형상 캡쳐링부(330)는 상기 조명 정보 또는 상기 재질 정보의 일관성을 최대화함으로써, 상기 3차원 형상 정보의 정밀도를 향상시킬 수 있다. The shape capturing unit 330 may acquire three-dimensional shape information between the multi-view images and the depth images based on the matched illumination information or material information. The shape capturing unit 330 may maximize the consistency of the illumination information or the material information, thereby improving the accuracy of the three-dimensional shape information.

영상 처리부(340)는 상기 3차원 형상 정보를 이용하여 상기 다시점 영상들과 상기 깊이 영상을 정합할 수 있다. 상기 3차원 형상 정보의 정밀도를 향상시키면, 상기 깊이 영상의 정밀도도 향상시킬 수 있다. 따라서, 영상 처리부(340)는 상기 깊이 영상의 정밀도를 향상시켜, 상기 다시점 영상들과 상기 깊이 영상을 정합을 용이하게 처리할 수 있다.The image processing unit 340 may match the depth image with the multi-view images using the three-dimensional shape information. If the accuracy of the three-dimensional shape information is improved, the accuracy of the depth image can also be improved. Accordingly, the image processing unit 340 can improve the precision of the depth image and easily process the matching of the multi-view images and the depth image.

도 4는 형상 정보를 개선하는 일례를 도시한 도면이다.4 is a diagram showing an example of improving the shape information.

도 4를 참고하면, 플래놉틱 카메라(310)에서 획득한 다시점 영상은 주변 다시점 영상에 해당한다. 따라서, 형상 캡쳐링부(330)는 상기 다시점 영상들 간의 시점을 일관성 높게 처리함으로써, 3차원 형상 정보의 정밀도를 향상시킬 수 있다.Referring to FIG. 4, the multi-view image acquired by the planar panoramic camera 310 corresponds to the surrounding multi-view image. Accordingly, the shape capturing unit 330 can improve the accuracy of the three-dimensional shape information by processing the viewpoints of the multi-view images with high consistency.

도면부호(410)를 참고하면, 형상 캡쳐링부(330)는 상기 다시점 영상들에 포함된 소수 다시점 영상들의 픽셀값들(점선 표시 화살표)을 과반수 다시점 영상들의 픽셀값들(실선 표시 화살표)로 변경할 수 있다. 이를 통해, 형상 캡쳐링부(330)는 상기 다시점 영상들간의 조명 정보 또는 재질 정보를 일관되게 매칭할 수 있다.Referring to reference numeral 410, the shape capturing unit 330 divides the pixel values (dotted arrows) of the faint multi-view images included in the multi-view images into pixel values of the majority multi-view images ). Accordingly, the shape capturing unit 330 can consistently match illumination information or material information between the multi-view images.

이 경우, 도면부호(410)의 3차원 형상 정보(점선 동그라미)가 도면부호(420)의 3차원 형상 정보(실선 동그라미)와 같이 개선되는 것을 알 수 있다. 이렇게, 상기 3차원 형상 정보의 정밀도를 향상시켜, 상기 깊이 영상의 정밀도도 향상시킬 수 있다. In this case, it can be seen that the three-dimensional shape information (dotted line circle) of the reference numeral 410 is improved like the three-dimensional shape information (solid line circle) of the reference numeral 420. In this way, the accuracy of the three-dimensional shape information can be improved, and the precision of the depth image can also be improved.

도 5는 본 발명의 또 다른 실시예에 따른 영상 장치의 구성을 도시한 블록도이다.5 is a block diagram illustrating a configuration of a video apparatus according to another embodiment of the present invention.

도 5를 참고하면, 영상 장치(500)는 플래놉틱 카메라(510), 깊이 카메라(520), 픽셀 세분화부(530), 및 영상 처리부(540)를 포함할 수 있다.5, the imaging device 500 may include a planar panoramic camera 510, a depth camera 520, a pixel granularity 530, and an image processing unit 540.

실시예에 따라, 영상 장치(500)는 플래놉틱 카메라(510)와 깊이 카메라(520)를 하나의 보디로 연결한 카메라이거나, 하나의 보디 안에 플래놉틱 카메라(510)와 깊이 카메라(520)의 기능이 구현된 카메라일 수도 있다.According to an embodiment, the imaging device 500 may be a camera in which the planar panoramic camera 510 and the depth camera 520 are connected to each other by a single body, It may be a camera with function implemented.

플래놉틱 카메라(510)는 시점이 서로 상이한 다시점 영상들을 생성한다. 플래놉틱 카메라(510)는 복수의 렌즈들을 어레이를 통해 복수의 서로 상이한 시점을 가지는 다시점 영상들을 생성할 수 있다. The planar camera 510 generates multi-view images having different viewpoints. The plannote camera 510 can generate multiple point-in-time multi-view images through a plurality of lenses array.

깊이 카메라(520)는 한 시점에서의 깊이 영상을 생성한다.The depth camera 520 generates a depth image at one point in time.

픽셀 세분화부(530)는 상기 다시점 영상들에 포함된 객체의 재질 정보, 조명 정보 및 컬러 정보에 따라 상기 다시점 영상들에 포함된 픽셀을 세분화한다. 실시예로, 픽셀 세분화부(530)는 상기 다시점 영상들로부터 획득한 컬러 정보의 변화량을 산출할 수 있다. 픽셀 세분화부(530)는 상기 산출된 변화량을 이용하여 상기 다시점 영상들에 포함된 객체의 재질 정보, 조명 정보 및 컬러 정보를 예측할 수 있다.The pixel subdivide unit 530 subdivides the pixels included in the multi-view images according to the material information, the illumination information, and the color information of the object included in the multi-view images. In an embodiment, the pixel segmentation unit 530 may calculate a variation amount of color information acquired from the multi-view images. The pixel segmentation unit 530 may predict the material information, the illumination information, and the color information of the object included in the multi-view images using the calculated amount of change.

도 6은 영상 내에서 재질 정보와 조명 정보를 예측하는 일례를 도시한 도면이다.6 is a diagram showing an example of predicting material information and illumination information in an image.

도 6을 참고하면, 위에 표시된 두 개의 동그라미 색상(흰색)과 아래 표시된 두 개의 동그라미(검은색) 색상이 다른 것을 알 수 있다. 또한, 위에 표시된 두 개의 동그라미에 포함된 라이트 레이(실선 화살표)와, 아래 표시된 두 개의 동그라미에 포함된 라이트 레이(점선 화살표, 실선 화살표)가 다른 것을 알 수 있다. 실제 화살표는 라이트 레이에 따른 색상 변화를 나타내는 것이나, 도면 상에서는 색상 변화의 직관적 표시가 어려워 모양 변화로 표시하였다. 상기 표시된 동그라미의 색상, 화살표 모양은 객체의 재질 정보, 조명 정보(조명 환경) 및 컬러 정보에 따라 각각 다른 색상 또는 모양을 가질 수 있다. 따라서, 픽셀 세분화부(530)는 상기 산출된 변화량을 이용하여 상기 다시점 영상들에 포함된 객체의 재질 정보, 조명 정보 및 컬러 정보를 예측할 수 있다.Referring to FIG. 6, it can be seen that the two circle colors (white) shown above are different from the two circles (black) colors shown below. In addition, the light ray (solid line arrow) included in the two circles shown above and the light ray (dotted line arrow, solid line arrow) included in the two circles shown below are different. Actual arrows indicate the color change according to the light ray, but in the drawing, it is difficult to intuitively display the color change, so that the shape change is indicated. The colors and arrow shapes of the circles indicated may have different colors or shapes depending on the material information of the object, the illumination information (illumination environment), and the color information. Accordingly, the pixel segmentation unit 530 can predict the material information, the illumination information, and the color information of the object included in the multi-view images using the calculated amount of change.

픽셀 세분화부(530)는 상기 예측된 재질 정보, 조명 정보 및 컬러 정보에 따라 상기 다시점 영상들에 포함된 픽셀을 세분화할 수 있다. 예컨대, 픽셀 세분화부(530)는 하나의 3차원 픽셀에 대하여, 상기 예측된 재질 정보에 따라 픽셀을 세분화하여 제1 픽셀을 만들고, 상기 예측된 조명 정보에 따라 픽셀을 세분화하여 제2 픽셀을 만들며, 상기 예측된 컬러 정보에 따라 픽셀을 세분화하여 제3 픽셀을 만들 수 있다.The pixel subdivider 530 may subdivide pixels included in the multi-view images according to the predicted material information, illumination information, and color information. For example, the pixel refinement unit 530 may generate a first pixel by subdividing a pixel according to the predicted material information for one three-dimensional pixel, subdivide the pixel according to the predicted illumination information to create a second pixel , The third pixel may be created by subdividing the pixel according to the predicted color information.

영상 처리부(540)는 상기 세분화된 픽셀을 이용하여 상기 다시점 영상들과 상기 깊이 영상을 정합한다. 영상 처리부(540)는 선정된 영역 내의 세분화된 픽셀들에 포함된 라이트 필드값을 합하여 상기 선정된 영역 내의 픽셀과 연관된 대표 라이트 필드 정보를 획득할 수 있다. 선정된 영역은 픽셀을 세분화한 영역으로서, 예컨대, 하나의 픽셀 또는 하나 이상의 픽셀을 포함하는 영역일 수 있다.The image processor 540 uses the subdivided pixels to match the multi-view images with the depth images. The image processor 540 can obtain the representative light field information associated with the pixels in the selected area by summing the light field values included in the subdivided pixels in the selected area. The selected area may be a subdivided area of pixels, for example, one pixel or an area including one or more pixels.

영상 처리부(540)는 상기 획득한 대표 라이트 필드 정보에 기초하여 상기 다시점 영상들과 상기 깊이 영상을 정합할 수 있다.The image processor 540 may match the depth image with the multi-view images based on the acquired representative light field information.

도 7은 픽셀 세분화를 통해 대표 라이트 필드 정보를 획득하는 일례를 도시한 도면이다.FIG. 7 is a diagram showing an example of acquiring representative light field information through pixel segmentation.

도 7을 참고하면, 픽셀 세분화부(530)는 하나의 3차원 픽셀을 재질 정보, 조명 정보 및 컬러 정보 각각에 따라 제1 픽셀(710), 제2 픽셀(720), 제3 픽셀(730)로 세분화할 수 있다. 영상 처리부(540)는 제1 픽셀(710)의 라이트 필드, 제2 픽셀(720)의 라이트 필드, 제3 픽셀(730)의 라이트 필드를 모두 합하여, 상기 3차원 픽셀을 대표하는 대표 라이트 필드 정보(740)를 획득할 수 있다.7, the pixel segmentation unit 530 divides one of the three-dimensional pixels into a first pixel 710, a second pixel 720, a third pixel 730, and a third pixel 740 according to material information, illumination information, . The image processor 540 combines the light field of the first pixel 710, the light field of the second pixel 720, and the light field of the third pixel 730 to generate representative light field information (740).

따라서, 영상 처리부(540)는 상기 대표 라이트 필드 정보를 이용하여 상기 다시점 영상들과 상기 깊이 영상을 정합함으로써, 정합한 3차원 영상에 대한 시점 해상도를 높일 수 있다.Accordingly, the image processing unit 540 can increase the viewpoint resolution of the matched three-dimensional image by matching the multi-view images with the depth image using the representative light field information.

도 8은 본 발명의 일실시예에 따른 영상 처리 방법의 순서를 도시한 흐름도이다. 도 8의 영상 처리 방법은 도 1, 도 3, 또는 도 5에 도시한 영상 장치에 의해 구현될 수 있다.8 is a flowchart illustrating a procedure of an image processing method according to an embodiment of the present invention. The image processing method of FIG. 8 can be implemented by the image device shown in FIG. 1, FIG. 3, or FIG.

도 8을 참고하면, 단계 810에서, 영상 처리 방법은 시점이 서로 상이한 복수의 시점 영상들을 생성하는 플래놉틱 카메라의 기능을 제공한다.Referring to FIG. 8, in step 810, the image processing method provides a function of a planar panoramic camera to generate a plurality of view images having different viewpoints.

단계 820에서, 상기 영상 처리 방법은 깊이 영상을 생성하는 깊이 카메라의 기능을 제공한다.In step 820, the image processing method provides the function of a depth camera to generate a depth image.

단계 830에서, 상기 영상 처리 방법은 상기 플래놉틱 카메라의 기능과 상기 깊이 카메라의 기능을 결합한 카메라를 구현할 수 있다.In step 830, the image processing method may implement a camera that combines the functions of the panoramic camera and the depth camera.

실시예로, 상기 영상 처리 방법은 상기 플래놉틱 카메라와 상기 깊이 카메라의 상대적 위치를 측정하고, 상기 측정된 상대적 위치에 기초하여 상기 복수의 시점 영상들과 상기 깊이 영상을 정합할 수 있다.In an embodiment, the image processing method may measure a relative position of the panoramic camera and the depth camera, and may match the plurality of view images with the depth image based on the measured relative position.

다른 실시예로, 상기 영상 처리 방법은 상기 복수의 시점 영상들 중에서 어느 하나의 시점 영상과 상기 깊이 영상 간의 회전 정보 또는 이동 정보를 계산하고, 상기 계산된 회전 정보 또는 이동 정보를 이용하여 상기 복수의 시점 영상들과 상기 깊이 영상을 정합할 수 있다.In another embodiment, the image processing method may include calculating rotation information or movement information between any one of the plurality of viewpoint images and the depth image, and using the calculated rotation information or movement information, The viewpoint images and the depth images can be matched.

또 다른 실시예로, 상기 영상 처리 방법은 상기 복수의 시점 영상들 중에서 어느 하나의 시점 영상과 상기 깊이 영상 간의 호모그라피를 획득하고, 상기 획득한 호모그라피를 이용하여 상기 복수의 시점 영상들과 상기 깊이 영상을 정합할 수 있다.In still another embodiment, the image processing method may further include obtaining a homography between any one view image and the depth image among the plurality of view images, and using the obtained homography, Depth images can be matched.

또 다른 실시예로, 상기 영상 처리 방법은 상기 복수의 시점 영상들 중에서 소수의 시점 영상들의 픽셀값들을 과반수의 시점 영상들의 픽셀값들로 변경함으로써, 상기 복수의 시점 영상들과 상기 깊이 영상 간의 3차원 형상 정보를 개선할 수 있다.In still another embodiment, the image processing method may further include converting pixel values of a plurality of viewpoint images of the plurality of viewpoint images into pixel values of a majority of viewpoint images, Dimensional shape information can be improved.

또 다른 실시예로, 상기 영상 처리 방법은 상기 복수의 시점 영상들과 연관된 컬러 정보의 변화량을 산출하고, 상기 산출된 변화량에 기초하여 상기 복수의 시점 영상들에 포함된 객체의 재질 정보, 조명 정보 및 컬러 정보를 예측함으로써, 상기 예측된 재질 정보, 조명 정보 및 컬러 정보 각각에 따라 상기 복수의 시점 영상들에 포함된 픽셀을 세분화할 수 있다. 상기 영상 처리 방법은 선정된 영역 내의 세분화된 픽셀들에 포함된 라이트 필드를 이용하여 상기 선정된 영역 내의 픽셀과 연관된 대표 라이트 필드 정보를 획득할 수 있다.According to another embodiment, the image processing method may further include calculating a change amount of color information associated with the plurality of view-point images, and based on the calculated amount of change, the material information of the object included in the plurality of view- And color information, the pixels included in the plurality of view images can be subdivided according to each of the predicted material information, illumination information, and color information. The image processing method may obtain representative light field information associated with pixels in the selected region using a light field included in the subdivided pixels in the selected region.

본 발명의 실시예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. The methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

100: 영상 장치
110: 플래놉틱 카메라
120: 깊이 카메라
130: 영상 정합부
100: Imaging device
110: Plano camera
120: Depth camera
130:

Claims (20)

시점이 서로 상이한 복수의 시점 영상들을 포함하는 집적 영상(integral Image)을 생성하는 플래놉틱(Plenoptic) 카메라;
깊이(Depth) 영상을 생성하는 깊이 카메라; 및
상기 집적 영상과 상기 깊이 영상을 정합(Calibration)하여 3차원 영상을 생성하는 영상 정합부
를 포함하며,
상기 영상 정합부는,
상기 복수의 시점 영상들과 연관된 컬러 정보의 변화량을 산출하고, 산출된 변화량에 기초하여 상기 복수의 시점 영상들에 포함된 객체의 재질 정보, 조명 정보 및 컬러 정보 중 적어도 하나를 예측하는, 영상 장치.
A Plenoptic camera for generating an integral image including a plurality of viewpoint images whose viewpoints are different from each other;
A depth camera for generating a depth image; And
Dimensional image by calibrating the integrated image and the depth image to generate a three-
/ RTI >
Wherein the image matching unit comprises:
And a color information obtaining unit for calculating at least one of material information, illumination information, and color information of an object included in the plurality of view images based on the calculated amount of change, .
제1항에 있어서,
상기 영상 정합부는,
상기 플래놉틱 카메라와 상기 깊이 카메라의 상대적 위치를 측정하고, 상기 측정된 상대적 위치에 기초하여 상기 집적 영상과 상기 깊이 영상을 정합하는, 영상 장치.
The method according to claim 1,
Wherein the image matching unit comprises:
Measuring a relative position of the planar camera and the depth camera, and matching the integrated image and the depth image based on the measured relative position.
제1항에 있어서,
상기 영상 정합부는,
상기 복수의 시점 영상들 중에서 어느 하나의 시점 영상과 상기 깊이 영상 간의 회전 정보 또는 이동(translation) 정보를 계산하고, 계산된 회전 정보 또는 이동 정보를 이용하여 상기 집적 영상과 상기 깊이 영상을 정합하는, 영상 장치.
The method according to claim 1,
Wherein the image matching unit comprises:
Calculating rotation information or translation information between any one viewpoint image and the depth image of the plurality of viewpoint images and matching the integrated image and the depth image using the calculated rotation information or movement information, Imaging device.
제1항에 있어서,
상기 영상 정합부는,
상기 복수의 시점 영상들 중에서 어느 하나의 시점 영상과 상기 깊이 영상 간의 호모그라피(homography)를 획득하고, 획득한 호모그라피를 이용하여 상기 집적 영상과 상기 깊이 영상을 정합하는, 영상 장치.
The method according to claim 1,
Wherein the image matching unit comprises:
Acquiring homography between one of the plurality of viewpoint images and the depth image, and matching the integrated image and the depth image using the acquired homography.
제1항에 있어서,
상기 영상 정합부는,
상기 복수의 시점 영상들 중에서 소수 시점 영상들의 픽셀값들을 과반수 시점 영상들의 픽셀값들로 변경하여 상기 집적 영상과 상기 깊이 영상 간의 형상 정보를 개선하고, 개선된 형상 정보를 이용하여 상기 집적 영상과 상기 깊이 영상을 정합하는, 영상 장치.
The method according to claim 1,
Wherein the image matching unit comprises:
And changing the pixel values of the fractional view images to the pixel values of the majority view images to improve shape information between the integrated image and the depth image, Imaging device to match depth images.
제1항에 있어서,
상기 영상 정합부는,
상기 예측된 재질 정보, 조명 정보 및 컬러 정보 중 적어도 하나에 따라 상기 복수의 시점 영상들에 포함된 픽셀을 세분화하는, 영상 장치.
The method according to claim 1,
Wherein the image matching unit comprises:
And subdivides pixels included in the plurality of view images according to at least one of the predicted material information, illumination information, and color information.
시점이 서로 상이한 복수의 시점 영상들을 포함하는 집적 영상(integral Image)을 생성하는 플래놉틱(Plenoptic) 카메라; 
깊이(Depth) 영상을 생성하는 깊이 카메라; 및
상기 집적 영상과 상기 깊이 영상을 정합(Calibration)하여 3차원 영상을 생성하는 영상 정합부
를 포함하며
상기 영상 정합부는,
선정된 영역 내의 세분화된 픽셀들에 포함된 라이트 필드를 이용하여 상기 선정된 영역 내의 픽셀과 연관된 대표 라이트 필드 정보를 획득하고, 획득한 대표 라이트 필드 정보에 기초하여 상기 집적 영상과 상기 깊이 영상을 정합하는, 영상 장치.
A Plenoptic camera for generating an integral image including a plurality of viewpoint images whose viewpoints are different from each other;
A depth camera for generating a depth image; And
Dimensional image by calibrating the integrated image and the depth image to generate a three-
And it includes a
Wherein the image matching unit comprises:
Acquiring representative light field information associated with pixels in the selected region using the light field contained in the subdivided pixels in the selected region, and matching the integrated image and the depth image based on the acquired representative light field information Video device.
시점이 각각 상이한 다시점 영상들을 생성하는 플래놉틱 카메라;
깊이 영상을 생성하는 깊이 카메라;
상기 다시점 영상들간의 조명 정보 또는 재질 정보를 매칭하고, 상기 매칭된 조명 정보 또는 재질 정보에 기초하여 상기 다시점 영상들과 상기 깊이 영상 간의 3차원 형상 정보를 획득하는 형상 캡처링부; 및
상기 3차원 형상 정보를 이용하여 상기 다시점 영상들과 상기 깊이 영상을 정합하는 영상 처리부
를 포함하며,
상기 영상 처리부는,
상기 복수의 시점 영상들과 연관된 컬러 정보의 변화량을 산출하고, 산출된 변화량에 기초하여 상기 복수의 시점 영상들에 포함된 객체의 재질 정보, 조명 정보 및 컬러 정보 중 적어도 하나를 예측하는, 영상 장치.
A panoramic camera for generating multi-view images having different viewpoints;
A depth camera for generating a depth image;
A shape capturing unit for matching illumination information or material information between the multi-view images and acquiring three-dimensional shape information between the multi-view images and the depth image based on the matched illumination information or material information; And
Dimensional image, and the depth image is matched with the multi-view images using the three-
/ RTI >
Wherein the image processing unit comprises:
And a color information obtaining unit for calculating at least one of material information, illumination information, and color information of an object included in the plurality of view images based on the calculated amount of change, .
제8항에 있어서,
상기 형상 캡처링부는,
상기 다시점 영상들에 포함된 소수 다시점 영상들의 픽셀값들을 과반수 다시점 영상들의 픽셀값들로 변경하여 상기 다시점 영상들간의 조명 정보 또는 재질 정보를 매칭하는, 영상 장치.
9. The method of claim 8,
The shape capturing unit includes:
And converts the pixel values of the fractional multi-view images included in the multi-view images into pixel values of the majority multi-view images to match the illumination information or the material information of the multi-view images.
삭제delete 시점이 서로 상이한 다시점 영상들을 생성하는 플래놉틱 카메라;
깊이 영상을 생성하는 깊이 카메라;
상기 다시점 영상들에 포함된 객체의 재질 정보, 조명 정보 및 컬러 정보에 따라 상기 다시점 영상들에 포함된 픽셀을 세분화하는 픽셀 세분화부; 및
상기 세분화된 픽셀을 이용하여 상기 다시점 영상들과 상기 깊이 영상을 정합하는 영상 처리부
를 포함하는, 영상 장치.
A panoramic camera for generating multi-view images having different viewpoints;
A depth camera for generating a depth image;
A pixel subdivision unit for subdividing pixels included in the multi-view images according to material information, illumination information, and color information of an object included in the multi-view images; And
And an image processor for matching the multi-view images with the depth image using the subdivided pixels,
/ RTI >
제11항에 있어서,
상기 픽셀 세분화부는,
상기 다시점 영상들로부터 획득한 컬러 정보의 변화량을 이용하여 상기 다시점 영상들에 포함된 객체의 재질 정보, 조명 정보 및 컬러 정보를 예측하고, 예측된 재질 정보, 조명 정보 및 컬러 정보에 따라 상기 다시점 영상들에 포함된 픽셀을 세분화하는, 영상 장치.
12. The method of claim 11,
Wherein the pixel segmentation unit comprises:
Point information, estimating material information, illumination information, and color information of an object included in the multi-view images using the amount of change in color information acquired from the multi-view images, And subdivides the pixels contained in the multi-view images.
제11항에 있어서,
상기 영상 처리부는,
선정된 영역 내의 세분화된 픽셀들에 포함된 라이트 필드값을 합하여 상기 선정된 영역 내의 픽셀과 연관된 대표 라이트 필드 정보를 획득하고, 획득한 대표 라이트 필드 정보에 기초하여 상기 다시점 영상들과 상기 깊이 영상을 정합하는, 영상 장치.
12. The method of claim 11,
Wherein the image processing unit comprises:
The method includes: acquiring representative light field information associated with pixels in the selected region by summing light field values included in the subdivided pixels in the selected region; Of the imaging device.
시점이 서로 상이한 복수의 시점 영상들을 생성하는 플래놉틱 카메라의 기능을 제공하는 단계;
깊이 영상을 생성하는 깊이 카메라의 기능을 제공하는 단계;
상기 플래놉틱 카메라의 기능과 상기 깊이 카메라의 기능을 결합한 카메라를 구현하여, 상기 복수의 시점 영상들과 상기 깊이 영상을 정합하는 단계;
상기 복수의 시점 영상들과 연관된 컬러 정보의 변화량을 산출하는 단계; 및
상기 산출된 변화량에 기초하여 상기 복수의 시점 영상들에 포함된 객체의 재질 정보, 조명 정보 및 컬러 정보 중 적어도 하나를 예측하는 단계
를 포함하는, 영상 처리 방법.
Providing a function of a planar panoramic camera to generate a plurality of viewpoint images having different viewpoints;
Providing a function of a depth camera to generate a depth image;
A camera combining the function of the panoramic camera and the function of the depth camera, and matching the plurality of view images with the depth image;
Calculating a variation amount of color information associated with the plurality of viewpoint images; And
Estimating at least one of material information, illumination information, and color information of an object included in the plurality of view images based on the calculated amount of change;
And an image processing method.
삭제delete 제14항에 있어서,
상기 복수의 시점 영상들과 상기 깊이 영상을 정합하는 단계는,
상기 복수의 시점 영상들 중에서 어느 하나의 시점 영상과 상기 깊이 영상 간의 회전 정보 또는 이동 정보를 계산하는 단계; 및
상기 계산된 회전 정보 또는 이동 정보를 이용하여 상기 복수의 시점 영상들과 상기 깊이 영상을 정합하는 단계
를 포함하는, 영상 처리 방법.
15. The method of claim 14,
Wherein the step of matching the plurality of view images with the depth image comprises:
Calculating rotation information or movement information between any one viewpoint image and the depth image among the plurality of viewpoint images; And
Matching the plurality of view images with the depth image using the calculated rotation information or movement information
And an image processing method.
제14항에 있어서,
상기 복수의 시점 영상들과 상기 깊이 영상을 정합하는 단계는,
상기 복수의 시점 영상들 중에서 어느 하나의 시점 영상과 상기 깊이 영상 간의 호모그라피를 획득하는 단계; 및
상기 획득한 호모그라피를 이용하여 상기 복수의 시점 영상들과 상기 깊이 영상을 정합하는 단계
를 포함하는, 영상 처리 방법.
15. The method of claim 14,
Wherein the step of matching the plurality of view images with the depth image comprises:
Acquiring a homography between any one viewpoint image and the depth image among the plurality of viewpoint images; And
Matching the plurality of view images with the depth image using the obtained homography;
And an image processing method.
제14항에 있어서,
상기 복수의 시점 영상들 중에서 소수 시점 영상들의 픽셀값들을 과반수 시점 영상들의 픽셀값들로 변경하는 단계; 및
상기 복수의 시점 영상들과 상기 깊이 영상 간의 3차원 형상 정보를 개선하는 단계
를 더 포함하는, 영상 처리 방법.
15. The method of claim 14,
Changing pixel values of decimal point view images among the plurality of view point images into pixel values of majority viewpoint images; And
A step of improving three-dimensional shape information between the plurality of view-point images and the depth image
Further comprising the steps of:
제14항에 있어서,
상기 예측하는 단계는,
상기 예측된 재질 정보, 조명 정보 및 컬러 정보 중 적어도 하나에 따라 상기 복수의 시점 영상들에 포함된 픽셀을 세분화하는 단계
를 포함하는, 영상 처리 방법.
15. The method of claim 14,
Wherein the predicting comprises:
Subdividing pixels included in the plurality of view images according to at least one of the predicted material information, illumination information, and color information
And an image processing method.
제19항에 있어서,
상기 복수의 시점 영상들에 포함된 픽셀을 세분화하는 단계는,
선정된 영역 내의 세분화된 픽셀들에 포함된 라이트 필드를 이용하여 상기 선정된 영역 내의 픽셀과 연관된 대표 라이트 필드 정보를 획득하는 단계
를 포함하는, 영상 처리 방법.
20. The method of claim 19,
Wherein the subdividing the pixels included in the plurality of view-
Acquiring representative light field information associated with a pixel in the selected region using a light field included in the subdivided pixels in the selected region
And an image processing method.
KR1020110081022A 2011-08-16 2011-08-16 Image apparatus for combining plenoptic camera and depth camera, and image processing method KR101857977B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110081022A KR101857977B1 (en) 2011-08-16 2011-08-16 Image apparatus for combining plenoptic camera and depth camera, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110081022A KR101857977B1 (en) 2011-08-16 2011-08-16 Image apparatus for combining plenoptic camera and depth camera, and image processing method

Publications (2)

Publication Number Publication Date
KR20130019080A KR20130019080A (en) 2013-02-26
KR101857977B1 true KR101857977B1 (en) 2018-05-15

Family

ID=47897303

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110081022A KR101857977B1 (en) 2011-08-16 2011-08-16 Image apparatus for combining plenoptic camera and depth camera, and image processing method

Country Status (1)

Country Link
KR (1) KR101857977B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022065552A1 (en) * 2020-09-25 2022-03-31 엘지전자 주식회사 Mobile terminal and control method thereof

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102012697B1 (en) * 2013-03-25 2019-08-21 삼성전자주식회사 System of matching multiple integral photography camera and method of the same
EP3264759A1 (en) 2016-06-30 2018-01-03 Thomson Licensing An apparatus and a method for generating data representative of a pixel beam

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
비특허문헌1
비특허문헌2

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022065552A1 (en) * 2020-09-25 2022-03-31 엘지전자 주식회사 Mobile terminal and control method thereof
US11558555B2 (en) 2020-09-25 2023-01-17 Lg Electronics Inc. Mobile terminal and method for controlling same

Also Published As

Publication number Publication date
KR20130019080A (en) 2013-02-26

Similar Documents

Publication Publication Date Title
JP7043085B2 (en) Devices and methods for acquiring distance information from a viewpoint
US10455218B2 (en) Systems and methods for estimating depth using stereo array cameras
US9208396B2 (en) Image processing method and device, and program
JP6456156B2 (en) Normal line information generating apparatus, imaging apparatus, normal line information generating method, and normal line information generating program
JP5762211B2 (en) Image processing apparatus, image processing method, and program
JP6786225B2 (en) Image processing equipment, imaging equipment and image processing programs
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
EP2504992A2 (en) Image processing apparatus and method
JP2008242658A (en) Three-dimensional object imaging apparatus
US9704255B2 (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
JP2014011526A (en) Image processing apparatus, imaging apparatus, and image processing method
JP5882789B2 (en) Image processing apparatus, image processing method, and program
CN102387374A (en) Device and method for acquiring high-precision depth map
CN102997891A (en) Device and method for measuring scene depth
JP6234401B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
CN108805921A (en) Image-taking system and method
KR101857977B1 (en) Image apparatus for combining plenoptic camera and depth camera, and image processing method
JP2013044597A (en) Image processing device and method, and program
GB2569609A (en) Method and device for digital 3D reconstruction
JP2013120435A (en) Image processing apparatus and image processing method, and program
JP2013175821A (en) Image processing device, image processing method, and program
JP5863280B2 (en) Imaging apparatus, image processing method, and program
JP5689693B2 (en) Drawing processor
JP2011182325A (en) Image pickup device
JP2013110711A (en) Image processing apparatus, image processing method and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant