KR20110099526A - Method for converting two dimensional images into three dimensional images - Google Patents
Method for converting two dimensional images into three dimensional images Download PDFInfo
- Publication number
- KR20110099526A KR20110099526A KR1020100018604A KR20100018604A KR20110099526A KR 20110099526 A KR20110099526 A KR 20110099526A KR 1020100018604 A KR1020100018604 A KR 1020100018604A KR 20100018604 A KR20100018604 A KR 20100018604A KR 20110099526 A KR20110099526 A KR 20110099526A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- depth map
- generating
- map
- depth
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/003—Aspects relating to the "2D+depth" image format
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 2차원 평면 영상을 3차원 입체 영상으로 변환하는 방법에 관한 것이고, 구체적으로 2차원 평면 영상으로부터 깊이 지도를 생성하고 좌측 영상을 복사하여 깊이 지도를 기초로 변위지도를 적용하여 우측 영상을 생성하고 그리고 다른 시차 정보를 가진 좌측 영상과 우측 영상을 조합하여 2차원 평면 영상을 3차원 입체 영상으로 변환하는 방법에 관한 것이다. 평면 영상을 입체 영상으로 변환하는 방법은 2차원 영상을 선택하는 단계; 2차원 영상으로부터 움직임 벡터를 추출하여 깊이지도를 생성하는 단계; 생성된 깊이지도를 기초로 변위 맵 방식을 적용하여 서로 다른 시차 정보를 가진 좌측 영상과 우측 영상을 생성하는 단계; 및 서로 다른 시차 정보를 가진 좌측 영상과 우측 영상을 조합하여 3차원 영상을 생성하는 단계를 포함한다. The present invention relates to a method for converting a 2D planar image into a 3D stereoscopic image. Specifically, a depth map is generated from a 2D planar image, a left image is copied, and a right side image is applied by applying a displacement map based on the depth map. The present invention relates to a method for generating and converting a two-dimensional plane image into a three-dimensional stereoscopic image by combining a left image and a right image having different parallax information. The method for converting a planar image into a stereoscopic image includes selecting a 2D image; Generating a depth map by extracting a motion vector from the 2D image; Generating a left image and a right image having different disparity information by applying a displacement map method based on the generated depth map; And generating a 3D image by combining a left image and a right image having different disparity information.
Description
본 발명은 2차원 평면 영상을 3차원 입체 영상으로 변환하는 방법에 관한 것이고, 구체적으로 2차원 평면 영상으로부터 깊이 지도를 생성하고 좌측 영상을 복사하여 깊이 지도를 기초로 변위지도를 적용하여 우측 영상을 생성하고 그리고 서로 다른 시차 정보를 가진 좌측 영상과 우측 영상을 조합하여 2차원 평면 영상을 3차원 입체 영상으로 변환하는 방법에 관한 것이다. The present invention relates to a method for converting a 2D planar image into a 3D stereoscopic image. Specifically, a depth map is generated from a 2D planar image, a left image is copied, and a right side image is applied by applying a displacement map based on the depth map. The present invention relates to a method of generating and converting a 2D planar image into a 3D stereoscopic image by combining a left image and a right image having different disparity information.
일반적으로 입체 영상의 제작은 입체 영상 카메라로 직접 촬영하여 생성하는 방법과 기존의 2차원 비디오 영상을 3차원 입체 영상으로 변환하는 방법으로 이루어질 수 있다. 2차원 비디오 영상을 3차원 입체 영상으로 변환하는 것은 이미 만들어진 비디오 콘텐츠가 활용될 수 있다는 이점을 가진다. In general, the production of a stereoscopic image may be performed by directly photographing and generating a stereoscopic image camera and converting a conventional 2D video image into a 3D stereoscopic image. Converting a two-dimensional video image to a three-dimensional stereoscopic image has the advantage that already produced video content can be utilized.
2차원 평면 영상을 3차원 입체 영상으로 변환시키기 위하여 단일 비디오 영상으로부터 서로 다른 시차 정보를 가지는 좌측 영상과 우측 영상이 만들어져야 한다. 좌측 영상은 2차원 평면 영상으로부터 생성될 수 있지만 그와 시차를 가진 우측 영상은 좌측 영상으로부터 만들어져야 한다. 2차원 평면 영상으로부터 시차 정보를 추출하기 위하여 일반적으로 움직임 정보 또는 소실점과 같은 것들이 이용된다. 움직임 정보는 평면의 영상을 공간으로 인식되도록 만들어주는 깊이지도의 생성을 위하여 사용될 수 있다. 일반적으로 2차원 평면 영상의 입체 영상으로 변환 효율은 이와 같은 깊이지도(Depth Map)의 생성 속도 및 정확성에 의하여 결정될 수 있다. In order to convert a 2D planar image into a 3D stereoscopic image, a left image and a right image having different disparity information must be generated from a single video image. The left image can be generated from a two-dimensional plane image, but the right image with parallax with it should be made from the left image. In order to extract parallax information from a two-dimensional plane image, things such as motion information or vanishing point are generally used. The motion information may be used to generate a depth map that makes the image of the plane recognized as a space. In general, the conversion efficiency of a 2D planar image into a stereoscopic image may be determined by the generation speed and accuracy of such a depth map.
공지된 입체 변환 방법으로 2차원 평면 영상의 각 프레임을 한 장씩 포토샵으로 페인팅을 하여 깊이지도를 생성하는 방법이 있다. 그러나 이러한 방법은 시간과 비용 면에서 효율성이 떨어진다는 문제점을 가진다. 이와 같은 문제점을 해결하기 위한 선행기술로 특허공개번호 제2008-0065889호 “그물 지도를 이용한 이차원 영상으로부터 입체 영상 생성 장치 및 그 방법”이 있다. 상기 선행기술은 이차원 영상 파일을 입력받아 그물 지도와 겹쳐서 디스플레이를 하고, 사용자로부터 그물 지도의 모양 및 깊이 정보를 입력 받아 그물 지도를 편집하고, 그물 지도의 모양 및 깊이 정보에 따라 이차원 영상을 구성하는 화소의 상대적인 깊이 정보를 연산하고 그리고 이차원 영상의 깊이 정보를 이용하여 입체 영상 파일을 생성하는 입체 영상 생성 방법에 대하여 개시하고 있다. A known stereoscopic conversion method is a method of generating a depth map by painting each frame of a 2D planar image one by one with Photoshop. However, this method has a problem in that it is inefficient in terms of time and cost. As a prior art for solving such a problem, there is a patent application No. 2008-0065889 "A stereoscopic image generating apparatus and method thereof from a two-dimensional image using a net map". The prior art receives a two-dimensional image file and displays a superimposed with the net map, edits the net map by receiving the shape and depth information of the net map from the user, and configures the two-dimensional image according to the shape and depth information of the net map Disclosed is a stereoscopic image generating method of calculating relative depth information of pixels and generating a stereoscopic image file using depth information of a two-dimensional image.
선행기술은 입체 영상의 생성을 위하여 필요한 깊이 정보를 획득하는 구체적인 방법에 대하여 개시하고 있지 아니하다. 이차원 영상으로부터 3차원 입체 영상을 생성하기 위하여 빠르고 정확한 깊이지도의 생성이 선행되어야 한다. The prior art does not disclose a specific method of obtaining depth information necessary for generating a stereoscopic image. In order to generate a 3D stereoscopic image from the 2D image, a quick and accurate depth map must be generated.
본 발명은 선행기술이 가진 위와 같은 문제점을 해결하기 위한 것으로 아래와 같은 목적을 가진다. The present invention is to solve the above problems with the prior art has the following object.
본 발명의 목적은 2차원 평면 영상을 3차원 입체 영상으로 빠르고 정확하게 변환하는 방법을 제공하는 것이다. An object of the present invention is to provide a method for quickly and accurately converting a two-dimensional planar image into a three-dimensional stereoscopic image.
본 발명의 적절한 실시 형태에 따르면, 평면 영상을 입체 영상으로 변환하는 방법은 2차원 영상을 선택하는 단계; 2차원 영상으로부터 움직임 벡터를 추출하여 깊이지도를 생성하는 단계; 생성된 깊이지도를 기초로 변위 맵 방식을 적용하여 서로 다른 시차 정보를 가진 좌측 영상과 우측 영상을 생성하는 단계; 및 서로 다른 시차 정보를 가진 좌측 영상과 우측 영상을 조합하여 3차원 영상을 생성하는 단계를 포함한다. According to a preferred embodiment of the present invention, a method for converting a planar image to a stereoscopic image includes selecting a two-dimensional image; Generating a depth map by extracting a motion vector from the 2D image; Generating a left image and a right image having different disparity information by applying a displacement map method based on the generated depth map; And generating a 3D image by combining a left image and a right image having different disparity information.
본 발명의 다른 적절한 실시 형태에 따르면, 깊이지도를 보정하는 단계를 더 포함한다. According to another suitable embodiment of the present invention, the method further includes correcting the depth map.
본 발명의 또 다른 적절한 실시 형태에 따르면, 깊이지도의 보정은 영상 트래킹을 통한 오브젝트 매트(Object Matte)의 생성에 의하여 이루어진다. According to another suitable embodiment of the present invention, the correction of the depth map is made by generating an object matte through image tracking.
본 발명의 또 다른 적절한 실시 형태에 따르면, 깊이지도의 보정은 원본 영상과 대조 후에 이미지 프로세싱을 하는 방법으로 이루어진다. According to another suitable embodiment of the present invention, the correction of the depth map is made by a method of image processing after contrast with the original image.
본 발명의 또 다른 적절한 실시 형태에 따르면, 변위 맵 방식에 의한 시차 정보는 수평 시차 값만을 기준으로 만들어진다.According to another suitable embodiment of the present invention, the parallax information by the displacement map method is made based only on the horizontal parallax value.
본 발명에 따른 방법은 빠르고 정확하게 깊이지도를 생성하여 2차원 영상을 3차원 입체 영상으로 변환시킬 수 있도록 한다는 장점을 가진다. 특별히 본 발명에 따른 방법은 연속적인 이미지 또는 액션 장면이 많은 2차원 동영상의 경우 적용이 간단하고 입체 효과가 상승될 수 있도록 한다는 이점을 가진다.The method according to the present invention has an advantage of generating a depth map quickly and accurately to convert a 2D image into a 3D stereoscopic image. In particular, the method according to the present invention has the advantage that the application is simple and the stereoscopic effect can be increased in the case of a two-dimensional video having a large number of continuous images or action scenes.
도 1은 본 발명에 따른 변환 방법을 개략적으로 도시한 것이다. 1 schematically shows a conversion method according to the invention.
아래에서 본 발명은 첨부된 도면에 제시된 실시 예를 참조하여 상세하게 설명이 되지만 실시 예는 본 발명의 명확한 이해를 위한 것으로 본 발명은 이에 제한되지 않는다. Hereinafter, the present invention will be described in detail with reference to the embodiments set forth in the accompanying drawings, but the embodiments are provided for clarity of understanding and the present invention is not limited thereto.
도 1은 본 발명에 따른 변환 방법을 개략적으로 도시한 것이다. 1 schematically shows a conversion method according to the invention.
본 발명에 따른 2차원 영상을 3차원 입체 영상으로 변환하는 방법은 2차원 영상을 선택하는 단계; 2차원 영상으로부터 움직임 벡터를 추출하여 깊이지도를 생성하는 단계; 생성된 깊이지도를 기초로 변위 맵 방식을 적용하여 서로 다른 시차 정보를 가진 좌측 영상과 우측 영상을 생성하는 단계; 및 서로 다른 시차 정보를 가진 좌측 영상과 우측 영상을 조합하여 3차원 영상을 생성하는 단계를 포함한다. Method for converting a two-dimensional image to a three-dimensional stereoscopic image according to the present invention comprises the steps of selecting a two-dimensional image; Generating a depth map by extracting a motion vector from the 2D image; Generating a left image and a right image having different disparity information by applying a displacement map method based on the generated depth map; And generating a 3D image by combining a left image and a right image having different disparity information.
구체적으로 도 1에 도시된 것처럼, 본 발명에 따른 방법은 2차원 영상을 선택하는 단계(S11); 2차원 영상으로부터 움직임 벡터를 이용하여 1차 깊이지도를 생성하는 단계(S12); 1차 깊이지도를 보정하는 단계(S13); 보정된 1차 깊이지도를 원본 영상과 대조하여 수정하고 최종 깊이지도를 완성하는 단계(S14); 깊이지도를 기초로 변위 맵 방식을 적용하여 서로 다른 시차 정보를 가진 좌측 영상과 우측 영상을 생성하는 단계(S15); 및 생성된 좌측 영상과 우측 영상을 조합하여 3차원 입체 영상을 생성하는 단계(S16)를 포함한다. Specifically, as shown in Figure 1, the method according to the invention comprises the steps of selecting a two-dimensional image (S11); Generating a first depth map using a motion vector from the 2D image (S12); Correcting the primary depth map (S13); Correcting the corrected first depth map by contrasting the original image and completing a final depth map (S14); Generating a left image and a right image having different disparity information by applying a displacement map method based on the depth map (S15); And generating a 3D stereoscopic image by combining the generated left image and the right image (S16).
2차원 영상은 이미 만들어지거나 또는 향후 만들어질 수 있는 임의의 2차원 영상으로 영화 또는 게임용 영상을 포함하는 이 분야에서 공지된 모든 형태가 될 수 있다. 입체 영상으로 변환이 되기로 선택이 된 2차원 영상은 원본 영상이 되면서 이와 동시에 좌측 영상이 될 수 있다. 본 명세서에서 좌측 영상이란 입체 영상의 생성을 위하여 시차를 가지도록 만들어지는 2개의 영상 중 어느 하나를 말한다. The two-dimensional image may be any form known in the art including a movie or game image as any two-dimensional image that has already been made or may be made in the future. The two-dimensional image selected to be converted to the stereoscopic image may become the original image and at the same time the left image. In the present specification, the left image refers to any one of two images made to have a parallax for generating a stereoscopic image.
선택된 2차원 영상으로부터 1차 깊이지도(Depth Map)가 생성될 수 있다. 깊이지도란 영상 내에 존재하는 사물들 사이에 대한 3차원 거리 차이를 나타내는 지도로 영상을 나타내는 각각의 픽셀은 0 내지 255 범위의 값을 가질 수 있다. 일반적으로 밝은 색은 큰 값을 가지면서 가까운 쪽에 있는 것을 의미한다. 깊이지도는 움직임 벡터로부터 만들어질 수 있다. 움직임 벡터(motion vector)는 움직임 추측 과정에서 키(key) 요소가 되는 것으로 H.264/MPEG-4 AVC 표준에 따르면 디코딩이 된 화면의 좌표로부터 기준 화면의 좌표에 이르는 오프셋(offset)을 제공하도록 상호 예측을 위하여 사용되는 2차원 벡터로 정의된다. 움직임 벡터 또는 움직임 정보를 추출하기 위하여 다양한 알고리즘이 사용될 수 있다. 예를 들어 각각의 블록 단위로 움직임 정보를 추출하여 영상 전체의 움직임을 파악하기 쉬운 광류(Optical Flow)를 이용하는 알고리즘과 KTL(Lucas-Kanade-Tomasi Tracker) 알고리즘과 같은 것이 있다. 광류를 이용하는 방법은 알고리즘이 간단하고 MPEG 비디오 파일의 경우 비디오 데이터 안에 광류를 이용한 움직임 정보가 내재되어 있어 적용이 쉽다는 이점을 가지는 반면 노이즈에 민감하여 정확한 움직임 정보가 추출되기 어렵다는 단점을 가진다. 이에 비하여 KLT 추적 알고리즘은 노이즈에 대하여 강건하고 정교한 움직임의 추출이 가능하지만 알고리즘이 복잡하다는 단점을 가진다. 본 발명에 따른 3차원 입체 영상 변환 방법의 경우 임의의 알고리즘이 적용될 수 있지만 바람직하게 광류를 이용한 방법이 적용될 수 있다. 광류(Optical flow)란 관측자(눈 또는 카메라)와 장면 사이에 상대적인 움직임에 의하여 발생된 시각적인 장면에서 물체, 표면 및 가장자리의 상대적인 운동 형태를 말한다. 운동 탐지, 물체 분할, 시간-대-충돌 및 확장 계산의 초점, 운동 보완 인코딩 및 입체 불일치 측정과 같은 광류 기술은 물체 표면 및 가장 자리의 광류를 이용한다. 광류를 이용하여 움직임 벡터를 추출하는 방법은 이 분야에서 공지되어 있고 예를 들어 The Foundry Nuke v6.0 또는 플러그인 Furnace4.2와 같은 프로그램을 이용하여 움직임 벡터를 추출하여 깊이지도를 생성할 수 있다. 구체적으로 thefoundry 사의 플러그인 Furnace 4.2와 같은 프로그램에서 F_vectorgenerator를 이용하여 움직임 벡터가 추출되고 그리고 추출된 움직임 벡터는 F_depth의 벡터값으로 인식되어 깊이지도가 생성될 수 있다. A first depth map may be generated from the selected 2D image. The depth map is a map representing a three-dimensional distance difference between objects existing in the image, and each pixel representing the image may have a value ranging from 0 to 255. In general, bright colors mean they are on the near side with large values. Depth maps can be created from motion vectors. The motion vector is a key element in the motion estimation process, and according to the H.264 / MPEG-4 AVC standard, it provides an offset from the decoded screen coordinates to the reference screen coordinates. It is defined as a two-dimensional vector used for mutual prediction. Various algorithms can be used to extract motion vectors or motion information. For example, there are algorithms that use optical flow, which is easy to grasp the motion of the entire image by extracting motion information for each block, and a Lucas-Kanade-Tomasi Tracker (KTL) algorithm. The method using the optical flow has the advantage that the algorithm is simple and the MPEG video file has the advantage of easy application because the motion data using the optical flow is embedded in the video data, but it is difficult to extract the accurate motion information because it is sensitive to noise. On the other hand, the KLT tracking algorithm can extract robust and precise motions against noise, but has the disadvantage of complicated algorithm. In the case of the 3D stereoscopic image conversion method according to the present invention, any algorithm may be applied, but a method using an optical flow may be preferably applied. Optical flow refers to the relative movement of objects, surfaces, and edges in a visual scene caused by relative movement between the observer (eye or camera) and the scene. Optical flow techniques such as motion detection, object segmentation, focus of time-to-collision and extension calculations, motion complementary encoding, and stereoscopic mismatch measurements utilize object surfaces and edged optical flows. Methods of extracting motion vectors using optical flow are known in the art and can be used to generate depth maps by extracting motion vectors using programs such as The Foundry Nuke v6.0 or plug-in Furnace4.2, for example. In detail, a motion vector may be extracted using F_vectorgenerator in a program such as the plug-in Furnace 4.2 of thefoundry, and the extracted motion vector may be recognized as a vector value of F_depth to generate a depth map.
제시된 프로그램 또는 움직임 벡터의 추출 방법 및 그에 의한 깊이지도의 생성 방법은 예시적인 것으로 다양한 프로그램이 사용될 수 있으며 또한 다양한 방법으로 깊이지도가 생성될 수 있고 본 발명은 특정한 프로그램 또는 방법에 의하여 제한되지 않는다. The presented method of extracting the program or motion vector and the method of generating the depth map by way of example are various programs can be used, and the depth map can be generated in various ways, and the present invention is not limited by the specific program or method.
광류를 이용한 알고리즘으로부터 움직임 벡터를 추출하여 만들어진 1차 깊이지도는 정교한 움직임 정보가 부족하면서 노이즈에 민감하다는 단점을 가진다. 또한 전경(Foreground)과 배경(Background) 물체가 서로 바뀌어 인식될 수 있다는 단점을 가진다. 이와 같은 단점을 보완하기 위하여 만들어진 1차 깊이지도에 대한 검수가 행해지고 오류가 발견되면 수정이 될 수 있다. 오류가 생긴 것으로 판단되면 오브젝트 추적 과정(Object Tracking)을 통하여 물체의 움직임을 추적하여 오브젝트 매트(Object Matte)를 생성한다. 그리고 생성된 오브젝트 매트를 1차 깊이지도에 추가하여 깊이 정보를 수정하여 2차 깊이지도를 생성한다. 필요한 경우 3D 추적(Tracking)을 통하여 실제 3D 공간 값을 추출하여 1차 깊이지도가 수정될 수 있다. 이와 같은 2차 깊이지도의 생성과정은 프로그램을 통하여 자동으로 진행될 수 있다. 예를 들어 Imagineer System Mokey, Mocha, Motor 또는 Pixelfarm PFTrack과 같은 프로그램을 통하여 2차 깊이지도가 만들어질 수 있다. 2차 깊이지도가 반드시 생성되어야 하는 것은 아니며 또한 2차 깊이지도가 위에서 제시된 방법에 따라 형성되어야 하는 것도 아니다. 2차 깊이지도는 오류의 수정이 요구되는 경우 만들어질 수 있고 그리고 다양한 방법에 따라 만들어질 수 있다. The first-depth depth map created by extracting the motion vector from the algorithm using optical flow has the disadvantage of being sensitive to noise while lacking sophisticated motion information. In addition, the foreground and background objects have a disadvantage in that they can be recognized. In order to make up for this drawback, the primary depth map, which is created, is inspected and corrected when an error is found. If it is determined that an error has occurred, an object matte is generated by tracking the movement of the object through object tracking. The generated object mat is added to the primary depth map to modify the depth information to generate the secondary depth map. If necessary, the first depth map may be modified by extracting the actual 3D spatial value through 3D tracking. The generation of such a second depth map may be automatically performed through a program. For example, secondary depth maps can be created through programs such as the Imagineer System Mokey, Mocha, Motor or Pixelfarm PFTrack. Secondary depth maps do not have to be generated nor do they have to be formed according to the method presented above. Secondary depth maps can be made when correction of errors is required and can be made in a variety of ways.
2차 깊이지도는 원본 영상에 대한 깊이 정보만을 담고 있으므로 이로 인하여 영상의 본질인 미적인 부분이 퇴색되어 있을 수 있다. 예를 들어 미적인 표현을 위한 색감변화를 담고 있지 않을 수 있으며 또한 원본 영상의 손상에 따른 오류를 그대로 가질 수 있다. 이와 같은 문제들은 깊이지도에 따른 영상을 원본 영상과 대조하여 이미지 프로세싱을 행하여 수정될 수 있다. Since the second depth map contains only depth information of the original image, the aesthetic part, which is the essence of the image, may be faded. For example, it may not contain color change for aesthetic expression and may have errors due to damage of the original image. Such problems may be corrected by performing image processing by contrasting an image based on a depth map with an original image.
깊이지도의 생성 과정에서 움직임 정보가 없는 정지 상태의 화면은 원근 정보로부터 깊이 정보가 얻어질 수 있다. 대안으로 화면 전체에 깊이를 주거나, 24비트 RGB 값에 의해 깊이 정보를 얻는 방법 또는 물체의 깊이 속성을 해석하여 그레이 레벨(Gray Level)을 주어 유사적으로 입체를 가정하여 깊이 정보를 얻는 방법이 사용될 수 있다. 원근 정보로부터 깊이 정보를 얻기 위하여 허프 변환(Hough Transform)이 이용될 수 있다. 구체적으로 허프 변환을 이용하여 영상 내의 직선 성분이 추출되고 주요한 직선 성분의 교차점이 소실점으로 간주될 수 있다. 그리고 정지 화면의 깊이 정보는 소실점으로부터 판단된 원근으로부터 얻어질 수 있다. 정지 화면의 깊이 정보는 위에서 제시된 방법을 포함하는 다양한 방법을 통하여 얻어질 수 있고 그리고 깊이지도에 추가될 수 있다. Depth information may be obtained from perspective information of the still image without motion information in the depth map generation process. Alternatively, a method of obtaining depth information by giving depth to the entire screen, obtaining depth information by a 24-bit RGB value, or analyzing a depth property of an object and giving a gray level by similarly assuming a three-dimensional image may be used. Can be. Hough transform may be used to obtain depth information from perspective information. In detail, a linear component in an image is extracted using a Hough transform, and an intersection point of major linear components may be regarded as a vanishing point. And the depth information of the still image can be obtained from the perspective determined from the vanishing point. Depth information of a still picture may be obtained through various methods including the method described above, and may be added to the depth map.
깊이지도가 만들어지면 이를 기초로 시차 정보가 생성될 수 있다. 시차 정보는 아래와 같은 방법으로 식에 의하여 구해질 수 있다. When the depth map is generated, parallax information may be generated based on the depth map. The parallax information can be obtained by the equation as follows.
시차(Parallax) = M×{1-(깊이 값/256)} ------ 수식 (1)Parallax = M × {1- (Depth Value / 256)} ------ Equation (1)
위와 같은 식을 적용하여 깊이지도로부터 시차 정보를 가진 영상이 생성될 수 있다. 시차를 가진 영상을 생성하기 위하여 변위 지도(displacement map)가 적용될 수 있다. 변위 지도는 변위 맵 방식(displacement mapping)에 의하여 만들어질 수 있다. 구체적으로 변위 맵 방식이란 가공 표면(textured surface) 위에서 가공 함수(texture function)가 표면 위의 각각의 점에서 평가한 값에 의하여 국지적 표면 수직 벡터를 따라 점들의 실제 기하학적 위치가 이동되는 효과를 발생시키기 위한 컴퓨터 그래픽 기술을 의미한다. 변위 맵 방식은 일반적으로 변위 강도를 조절하기 위하여 사용되는 가공 맵 방식을 포함하고 변위 방향은 일반적으로 국지적 표면에 수직되는 방향이 된다. 변위 맵을 위하여 미세다각형에 기초하는 레이즈 알고리즘(Reyes algorithm) 또는 이와 유사한 접근 방식이 사용될 수 있다. 변위 맵 방식을 적용하기 위한 다양한 형태의 프로그램이 개발되어 있고 본 발명에 따른 방법에 의하면 개발된 또는 향후 개발될 다양한 형태의 프로그램을 채용하여 변위 맵이 만들어질 수 있다. 예를 들어 어도비사의 AfterEffects CS4와 같은 프로그램에 의하여 변위 맵이 만들어지고 그리고 시차 영상이 만들어질 수 있다. An image having parallax information may be generated from the depth map by applying the above equation. A displacement map may be applied to generate an image with parallax. Displacement maps can be created by displacement mapping. Specifically, the displacement map method is used to generate the effect that the texture function is moved along the local surface vertical vector by the value of the texture function evaluated at each point on the surface on the textured surface. Stands for Computer Graphics Technology. The displacement map method generally includes a machining map method used to adjust the displacement strength and the displacement direction is generally a direction perpendicular to the local surface. For the displacement map a micropolygon-based Reyes algorithm or similar approach may be used. Various types of programs have been developed for applying the displacement map method, and according to the method according to the present invention, a displacement map may be made by employing various types of programs developed or to be developed in the future. For example, a displacement map can be created and a parallax image can be made by a program such as Adobe's AfterEffects CS4.
변위 맵 방식에 의한 시차 영상의 생성을 위하여 깊이지도가 기초가 된다. 일반적으로 깊이지도는 수평 움직임과 수직 움직임을 포함하고 있고 수직 움직임이 시차로 변환되면 시각에 어지러움과 같은 현상이 발생될 수 있다. 그러므로 수직 움직임은 수평 시차로 변환되어야 한다. 그러므로 실질적으로 수평 시차만이 시차 영상의 생성을 위하여 사용될 수 있다. 다른 한편으로 최대 시차 값이 결정되고 깊이지도에서 정해진 임계값을 벗어나는 수평 또는 수직 움직임은 최대 시차 값으로 변환이 되어야 한다. The depth map is the basis for the generation of the parallax image by the displacement map method. In general, the depth map includes horizontal and vertical movements, and when the vertical movement is converted into parallax, a phenomenon such as dizziness may occur. Therefore, vertical motion must be converted to horizontal parallax. Therefore, substantially only horizontal parallax can be used for generation of parallax images. On the other hand, the maximum parallax value is determined and horizontal or vertical movement beyond the threshold defined in the depth map should be converted to the maximum parallax value.
이와 같은 방식으로 깊이지도에 기초하여 변위 지도를 적용하여 시차 정보가 만들어지면 시차 영상이 생성될 수 있다. 시차 영상은 왼쪽 영상과 오른쪽 영상으로 만들어질 수 있고 위의 수식 (1)로 주어진 식에 따라 왼쪽 영상은 (시차/2)만큼 왼쪽으로 이동되어 그리고 오른쪽 영상은 (시차/2)만큼 오른쪽으로 이동된 형태로 만들어질 수 있다. In this manner, when the parallax information is generated by applying the displacement map based on the depth map, the parallax image may be generated. The parallax image can be made into the left image and the right image, and according to the equation given by Equation (1) above, the left image is shifted to the left by (parallax / 2) and the right image is shifted to the right by (parallax / 2) Can be made in the form of
시차를 가진 왼쪽 영상과 오른쪽 영상은 예를 들어 RealID 시스템, 돌비시스템 또는 XpanD시스템과 같은 3D 영상 장치에 의하여 입체 영상으로 재현될 수 있다. 또는 3D 구현이 가능한 컴퓨터 화면에 재생될 수 있다. The left and right images with parallax may be reproduced as stereoscopic images by, for example, a 3D imaging device such as a RealID system, a Dolby system, or an XpanD system. Or it can be played on a computer screen capable of 3D implementation.
위에서 설명한 본 발명에 따른 2차원 영상을 3차원 입체 영상으로 변환하는 방법은 빠르고 정확하게 변환이 이루어지도록 한다는 장점을 가진다. 특별히 본 발명에 따른 방법은 연속적인 이미지 또는 액션 장면이 많은 2차원 동영상의 경우 적용이 간단하고 입체 효과가 상승될 수 있도록 한다는 이점을 가진다. The method of converting a 2D image into a 3D stereoscopic image according to the present invention described above has an advantage that the conversion is performed quickly and accurately. In particular, the method according to the present invention has the advantage that the application is simple and the stereoscopic effect can be increased in the case of a two-dimensional video having a large number of continuous images or action scenes.
이 분야에서 통상의 지식을 가진 자는 제시된 실시 예를 참조하여 본 발명의 기술적 사상을 벗어나지 않는 범위에서 다양한 변형 및 수정 발명을 만들 수 있을 것이다. 본 발명은 이와 같은 변형 및 수정 발명에 의하여 제한되지 않으면 다만 아래에 첨부된 청구범위에 의하여 제한된다. Those skilled in the art will be able to make various modifications and modifications without departing from the technical spirit of the present invention with reference to the presented embodiments. The invention is not limited by these variations and modifications, but is only limited by the scope of the appended claims.
S11: 2차원 영상 선택 S12: 깊이지도 생성 S13: 깊이지도 보정
S14: 최종 깊이지도 완성 S15: 좌측 영상 및 우측 영상 생성
S16: 입체 영상 생성S11: 2D image selection S12: Depth map generation S13: Depth map correction
S14: Final depth map completion S15: Left image and right image generation
S16: stereoscopic image generation
Claims (5)
2차원 영상으로부터 움직임 벡터를 추출하여 깊이지도를 생성하는 단계;
생성된 깊이지도를 기초로 변위 맵 방식을 적용하여 서로 다른 시차 정보를 가진 좌측 영상과 우측 영상을 생성하는 단계; 및
서로 다른 시차 정보를 가진 좌측 영상과 우측 영상을 조합하여 3차원 영상을 생성하는 단계를 포함하는 평면 영상을 입체 영상으로 변환하는 방법. Selecting a two-dimensional image;
Generating a depth map by extracting a motion vector from the 2D image;
Generating a left image and a right image having different disparity information by applying a displacement map method based on the generated depth map; And
A method of converting a planar image into a stereoscopic image, comprising: generating a 3D image by combining a left image and a right image having different parallax information.
The method of claim 1, wherein the disparity information by the displacement map method is generated based only on a horizontal disparity value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100018604A KR101103511B1 (en) | 2010-03-02 | 2010-03-02 | Method for Converting Two Dimensional Images into Three Dimensional Images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100018604A KR101103511B1 (en) | 2010-03-02 | 2010-03-02 | Method for Converting Two Dimensional Images into Three Dimensional Images |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110099526A true KR20110099526A (en) | 2011-09-08 |
KR101103511B1 KR101103511B1 (en) | 2012-01-19 |
Family
ID=44952378
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100018604A KR101103511B1 (en) | 2010-03-02 | 2010-03-02 | Method for Converting Two Dimensional Images into Three Dimensional Images |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101103511B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101285111B1 (en) * | 2012-02-01 | 2013-07-17 | (주)리얼디스퀘어 | Conversion device for two dimensional image to three dimensional image, and method thereof |
WO2013118955A1 (en) * | 2012-02-10 | 2013-08-15 | 에스케이플래닛 주식회사 | Apparatus and method for depth map correction, and apparatus and method for stereoscopic image conversion using same |
WO2014137053A1 (en) * | 2013-03-05 | 2014-09-12 | 엘지전자 주식회사 | Image processing device and method therefor |
KR101475936B1 (en) * | 2013-05-03 | 2014-12-23 | 고려대학교 산학협력단 | 3d media distribution system |
CN108334523A (en) * | 2017-01-20 | 2018-07-27 | 腾讯科技(深圳)有限公司 | The construction method and device of road scene map |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6384859B1 (en) | 1995-03-29 | 2002-05-07 | Sanyo Electric Co., Ltd. | Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information |
KR100400209B1 (en) * | 1996-10-31 | 2003-12-31 | 삼성전자주식회사 | Apparatus for generating three-dimensional moving pictures from tv signals |
KR100603601B1 (en) * | 2004-11-08 | 2006-07-24 | 한국전자통신연구원 | Apparatus and Method for Production Multi-view Contents |
-
2010
- 2010-03-02 KR KR1020100018604A patent/KR101103511B1/en not_active IP Right Cessation
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101285111B1 (en) * | 2012-02-01 | 2013-07-17 | (주)리얼디스퀘어 | Conversion device for two dimensional image to three dimensional image, and method thereof |
WO2013118955A1 (en) * | 2012-02-10 | 2013-08-15 | 에스케이플래닛 주식회사 | Apparatus and method for depth map correction, and apparatus and method for stereoscopic image conversion using same |
WO2014137053A1 (en) * | 2013-03-05 | 2014-09-12 | 엘지전자 주식회사 | Image processing device and method therefor |
KR101475936B1 (en) * | 2013-05-03 | 2014-12-23 | 고려대학교 산학협력단 | 3d media distribution system |
CN108334523A (en) * | 2017-01-20 | 2018-07-27 | 腾讯科技(深圳)有限公司 | The construction method and device of road scene map |
CN108334523B (en) * | 2017-01-20 | 2022-04-12 | 腾讯科技(深圳)有限公司 | Road scene map construction method and device |
Also Published As
Publication number | Publication date |
---|---|
KR101103511B1 (en) | 2012-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9237330B2 (en) | Forming a stereoscopic video | |
Feng et al. | Object-based 2D-to-3D video conversion for effective stereoscopic content generation in 3D-TV applications | |
CN103345736B (en) | A kind of virtual viewpoint rendering method | |
CN102665086B (en) | Method for obtaining parallax by using region-based local stereo matching | |
US8611642B2 (en) | Forming a steroscopic image using range map | |
US20130127988A1 (en) | Modifying the viewpoint of a digital image | |
US20160065931A1 (en) | Method and Apparatus for Computing a Synthesized Picture | |
US20140198101A1 (en) | 3d-animation effect generation method and system | |
US20130129192A1 (en) | Range map determination for a video frame | |
CN103250184A (en) | Depth estimation based on global motion | |
GB2483434A (en) | Detecting stereoscopic disparity by comparison with subset of pixel change points | |
KR101103511B1 (en) | Method for Converting Two Dimensional Images into Three Dimensional Images | |
KR20160072165A (en) | Remapping a depth map for 3d viewing | |
US20100158482A1 (en) | Method for processing a video data set | |
WO2012117706A1 (en) | Video processing device, video processing method, program | |
Schmeing et al. | Depth image based rendering | |
KR101125061B1 (en) | A Method For Transforming 2D Video To 3D Video By Using LDI Method | |
Zhang et al. | Interactive stereoscopic video conversion | |
US9208549B2 (en) | Method and apparatus for color transfer between images | |
Brosch et al. | Segmentation-based depth propagation in videos | |
De Sorbier et al. | Augmented reality for 3D TV using depth camera input | |
Knorr et al. | From 2D-to stereo-to multi-view video | |
Hua et al. | A depth optimization method for 2D-to-3D conversion based on RGB-D images | |
Lai et al. | An efficient depth image-based rendering with depth reliability maps for view synthesis | |
Ikeya et al. | Depth estimation from three cameras using belief propagation: 3D modelling of sumo wrestling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |