KR20120095059A - Method of converting 2d images to 3d images - Google Patents

Method of converting 2d images to 3d images Download PDF

Info

Publication number
KR20120095059A
KR20120095059A KR1020110014457A KR20110014457A KR20120095059A KR 20120095059 A KR20120095059 A KR 20120095059A KR 1020110014457 A KR1020110014457 A KR 1020110014457A KR 20110014457 A KR20110014457 A KR 20110014457A KR 20120095059 A KR20120095059 A KR 20120095059A
Authority
KR
South Korea
Prior art keywords
image
white
black
depth map
effect
Prior art date
Application number
KR1020110014457A
Other languages
Korean (ko)
Inventor
홍순호
김광욱
이대희
최광식
Original Assignee
(주)스튜디오 로프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)스튜디오 로프트 filed Critical (주)스튜디오 로프트
Priority to KR1020110014457A priority Critical patent/KR20120095059A/en
Publication of KR20120095059A publication Critical patent/KR20120095059A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Abstract

PURPOSE: A method for converting a two-dimensional image into a three-dimensional image is provided to maximize distance the sense of distance and the sense of depth by giving three-dimensional effect. CONSTITUTION: A lighting layer is generated. A light is generated by a brush. The light is generated by a mask. A depth map is generated. A three-dimensional effect is generated through the depth map. Right and left images are generated. A lens blur is applied to the left image and the right image.

Description

2D 이미지를 3D 입체 이미지로 전환시키는 방법 {METHOD OF CONVERTING 2D IMAGES TO 3D IMAGES}How to convert 2D image to 3D stereoscopic image {METHOD OF CONVERTING 2D IMAGES TO 3D IMAGES}

본 발명은, 2D 애니메이션을 3D 입체 변환 방식에 의해 3D 이미지로 전환(converting)하는 방법, 및 2D 애니메이션을 3D 애니메이션으로 입체 작업하는 방법에 관한 것이다.
The present invention relates to a method of converting a 2D animation into a 3D image by a 3D stereoscopic conversion method, and a method of stereoscopically working a 2D animation into a 3D animation.

사람은 왼쪽 눈과 오른쪽 눈에서 서로 다른 각도로 물체를 바라봄으로써 입체감을 느끼게 된다. 이와 같은 원리에 기초하여 3D 입체 영상을 구현하고 제공하기 위해서는, 왼쪽 눈과 오른쪽 눈의 시각 위치에서 따로 촬영한 2개의 영상을 왼쪽 눈과 오른쪽 눈에 각각 보여주는 방식에 의해, 인공적으로 입체 영상을 구현한다.A person feels three-dimensional by looking at an object from different angles in his left and right eyes. In order to implement and provide 3D stereoscopic images based on the above principle, stereoscopic images are artificially implemented by displaying two images respectively captured at the left and right eye visual locations, respectively, to the left and right eyes. do.

그러나, 이와 같은 종래의 기술이 효과를 발휘하기 위해서는 상기와 같이 왼쪽 눈에 보여질 영상과 오른쪽 눈에 보여질 영상이 각각 존재해야 하므로 입체 영상을 만들기 위해서는 2대의 카메라를 이용하여 새로이 영상을 제작해야 하는 어려움이 있었다. 이는 기존에 존재하던 수많은 2차원 영상(애니메이션을 포함)을 입체 영상 구현시스템에서는 활용할 수가 없다는 것을 말해준다.However, in order for the conventional technology to be effective, the image to be seen in the left eye and the image to be seen in the right eye must exist respectively as described above. Therefore, in order to create a stereoscopic image, two images must be newly produced. There was a difficulty. This means that many existing two-dimensional images (including animation) cannot be used in a stereoscopic image implementation system.

특히, 2D 애니메이션을 3D 이미지로의 입체 변환 시 그림이라는 특성 때문에 볼륨감(입체감)을 만들어내지 못하고 카드와 같은 판의 효과만을 내고 있는 상태이다. 이렇듯, 애니메이션과 같은 2차원 영상은 일반적인 영상에 비해 3D 이미지로의 전환시키는데 있어서 어려움이 많다. 왜냐하면 종래의 2D 애니메이션의 경우에는 일반적으로 조명효과뿐만 아니라 입체효과를 포함하지 않기 때문이다. 또한, 조명효과 및 입체효과를 예상하는 것은 쉽지 않기 때문이다.In particular, when the 2D animation is converted to a 3D image, due to the characteristics of the picture, it does not create a sense of volume (three-dimensional feeling), only the effect of a plate like a card. As such, two-dimensional images such as animations are more difficult to convert to 3D images than general images. This is because conventional 2D animation does not generally include not only lighting effects but also stereoscopic effects. In addition, it is because it is not easy to predict lighting effects and stereoscopic effects.

따라서, 본 발명은 상기 문제점을 해결하기 위하여 발명된 것으로, 그 목적으로 하는 바는 일반 2차원 영상 자료, 바람직하게는 2D 애니메이션을 3D 애니메이션으로 전환하는 방법에 관한 것이다.
Accordingly, the present invention has been invented to solve the above problems, and an object thereof is related to a method for converting general 2D image data, preferably 2D animation into 3D animation.

본원에서 사용되는 뎁스맵(Depth Map)이란, 2D 이미지 상의 사물의 깊이 값을 보여주는 대조 이미지를 칭한다. 보는 쪽에서 먼 부분과 가까운 부분을 나타내기 위한 기준 이미지의 맵이다. 예를 들어, 본 발명에서는, 보는 쪽에 가까운 부분은 흰색, 먼 부분은 검정색으로, 그리고 보는 쪽에서의 원근감에 따라 각각의 위치를 흰색과 검은색의 그라데이션 방식으로, 표현하였다. 도 1 및 도 9가 예시적으로 참조된다. 예를 들어 도 1의 경우 원기둥에 대한 뎁스맵을 나타낸 것으로서, 원기둥의 가운데 볼록한 부분이 원기둥을 바라볼 때 가장 가까운 부분에 해당하므로 흰색으로 나타낸 것이고, 원기둥의 가장 볼록한 부분을 기준으로 하여 바라볼 때 좌우로 점점 멀어지므로 그라데이션 방식으로 점점 어두운 색으로 나타낸 것이다. 이는, 원본 이미지의 픽셀의 이동, 예를 들어, 디스플레이스먼트 맵(Displacement Map) 효과의 적용의 기준으로 사용되며, 이는 이하에서 자세하게 설명될 것이다.As used herein, a depth map refers to a contrast image showing a depth value of an object on a 2D image. It is a map of the reference image to represent the part far from the viewer. For example, in the present invention, the portions near the viewing side are white, the far portions are black, and each position is expressed in a gradient manner of white and black according to the perspective from the viewing side. 1 and 9 are exemplarily referred to. For example, in FIG. 1, a depth map of a cylinder is shown. The convex portion of the cylinder corresponds to the closest portion when the cylinder is viewed, and is shown in white, and when viewed based on the most convex portion of the cylinder. It is getting farther to the left and right, so it is gradually darkened in a gradient manner. This is used as a basis for the movement of the pixels of the original image, for example the application of the displacement map effect, which will be described in detail below.

본원에서 사용되는 “흰색과 검은색의 그라데이션 방식으로”의 의미는, 흰색과 검은색 사이의 색으로, 이미지의 각 픽셀의, 높이의 차이(보는 쪽에서의 원근 차이), 즉, 카메라로부터 멀어지는 거리의 차이를 표현하였음을 의미한다.As used herein, “in white and black gradient” means the difference in height (perspective difference on the viewing side) of each pixel in an image, the color between white and black, that is, the distance away from the camera. It means that the difference is expressed.

본원 발명은, 2D 이미지를 3D 입체 이미지로 전환시키는 방법으로서, 2D 이미지에서, 빛을 가장 많이 받는 하이라이트 부분은 흰색, 빛을 받지 못하는 부분은 검은색으로, 흰색과 검은색의 그라데이션 방식으로 표시되는 조명 레이어를 형성하고; 보는 쪽에서 가장 가까운 부분은 흰색으로 표시하고 보는 쪽에서 가장 먼 부분은 검은색으로, 흰색과 검은색의 그라데이션 방식으로 표시되는, 뎁스맵 레이어를 형성하며; 상기 뎁스맵의 흰색과 검은색의 그라데이션 값에 기초하여, 우안 영상을 위한 이미지의 픽셀을 좌로 이동되고, 좌안 영상을 위한 이미지의 픽셀은 우로 이동하며, 여기서, 상기 이동에 있어서, 흰색 부분은 미리 정한 범위 중 가장 큰 범위로 이동되고, 검은색 부분은 미리 정한 범위 중 가장 작은 범위로 이동되는, 2D 이미지를 3D 입체 이미지로 전환시키는 방법에 관한 것이다.According to the present invention, a method of converting a 2D image into a 3D stereoscopic image, in which a highlight portion that receives the most light is white, and a portion that does not receive light is displayed in white and a black gradient method in the 2D image. Forming an illumination layer; Forming a depth map layer in which the portion closest to the viewing side is displayed in white, and the portion furthest from the viewing side is in black and displayed in a gradient manner of white and black; Based on the white and black gradation values of the depth map, the pixels of the image for the right eye image are moved to the left, and the pixels of the image for the left eye image are to the right, where the white portion is previously It relates to a method of converting a 2D image into a 3D stereoscopic image, which is moved to the largest range of the predetermined range, and the black part is moved to the smallest range of the predetermined range.

추가로, 입체감을 더욱 높이기 위해, 본 발명은 상기 좌안 및 우안 영상에, 초점거리에 가장 가까운 부분에 최소 블러(blur)효과를 주고, 초점거리에서 가장 먼 부분에 최대 블러 효과를 포함할 수 있다.
In addition, in order to further increase the stereoscopic effect, the present invention may provide a minimum blur effect to a portion closest to a focal length to the left and right eye images, and include a maximum blur effect to a portion farthest from the focal length. .

도 1은 원기둥 모양의 2D 이미지에 대응한 뎁스맵 이미지이다.
도 2는 원기둥 모양의 2D 이미지에 조명 효과 적용된 이미지로서, 픽셀 단위로 나눠져 있는 이미지이다.
도 3은 원기둥 모양의 2D 이미지에 조명 효과가 적용되지 전의 이미지로서, 픽셀 단위로 나눠져 있는 이미지이다.
도 4는 상기 도 2의 이미지를 좌 우로 나란히 배치한 이미지이다.
도 5는 도 1의 뎁스맵에 기초하여, 디스플레이스먼트 맵(Displacement Map) 효과가 부여되어, 이미지의 픽셀이 이동된 이미지이다.
도 6 내지 도 9는 마스크에 의한 뎁스맵 생성 과정을 보여주는 이미지들이다.
도 10은 입체 이미지가 평면 필름에 투영되어 2D 이미지가 형성되는 원리를 설명하는 도면이다.
도 11은 두 눈으로 사물을 보는 모습을 나타내는 도면이다.
도 12는 우안 및 좌안 영상이 만들어지는 원리를 설명하기 위한 도면이다.
도 13은 본 발명의 2D 애니메이션을 3D 애니메이션으로 바꾸는 방법을 보여주는 순서도이다.
1 is a depth map image corresponding to a cylindrical 2D image.
FIG. 2 is an image in which a light effect is applied to a cylindrical 2D image and is divided into pixels.
FIG. 3 is an image divided before the lighting effect is applied to a cylindrical 2D image, and is divided into pixels.
4 is an image in which the image of FIG. 2 is arranged side by side.
FIG. 5 is an image in which pixels of an image are shifted by applying a displacement map effect based on the depth map of FIG. 1.
6 to 9 are images showing a depth map generation process by a mask.
10 is a view for explaining the principle that a stereoscopic image is projected onto a flat film to form a 2D image.
11 is a view showing a state of seeing an object with both eyes.
12 is a view for explaining the principle of making the right eye and left eye images.
13 is a flowchart illustrating a method of converting a 2D animation of the present invention into a 3D animation.

도 13에서 참조되는 바와 같이, 본 발명의 개략적인 2D 애니메이션의 3D 애니메이션으로의 전환 방법은 다음과 같다. 원본 영상으로부터 대상 이미지들을 추출한다. 과거 필름의 해상도(예를 들어, 640 x 480)를 그대로 둔 채 사이즈만 HD 보다 더 크게(예를 들어, 3840 x 2160) 키운다(사이즈 조정). 추출되어 사이즈가 조정된 이미지를 직접 작화지에 프린트하고, 상기 프린트된 이미지 상의 연필선과 색 부분을 보정한다. 이렇게 보정된 이미지를 스캐너를 이용하여 고해상도로 스캔 한다. 3D TV의 경우 FULL HD를 기본으로 하기 때문에 이에 맞는 해상도, 예를 들어 1920 x 1080으로 스캔 한다. 스캔 된 이미지 파일을 Photoshop 또는 영상 효과 프로그램(After effects. Nuke. Cinema 4D)과 같은 컴퓨터용 이미지 편집 프로그램에서 로딩하여 별도의 레이어를 이용하여 이미지 조명 효과를 삽입한다. 이는 아래에서 자세히 설명될 것이다. As referred to in Figure 13, the method of converting the schematic 2D animation of the present invention to 3D animation is as follows. Extract target images from original image. Keep the size of the old film (e.g., 640 x 480) larger than HD (e.g., 3840 x 2160) while keeping the resolution (e.g., 640 x 480). The extracted and resized image is printed directly on the drawing paper, and the pencil lines and color portions on the printed image are corrected. The corrected image is scanned at high resolution using a scanner. Since 3D TVs are based on FULL HD, they scan at the appropriate resolution, such as 1920 x 1080. The scanned image file is loaded into a computer image editing program such as Photoshop or After Effects.Nuke.Cinema 4D to insert image lighting effects using a separate layer. This will be explained in detail below.

한편, 상기 고해상도로 스캔 된 이미지 파일에 기초하여, 뎁스(depth) 스크립트 및 뎁스맵을 만든다. 상기 뎁스맵에 대해서 아래에서 자세히 설명될 것이다. 상기 만들어진 뎁스맵을 기초로, 디스플레이스먼트 맵(Displacement map) 효과를 주어 좌안과 우안 이미지를 생성하며, 이는 아래에서 자세히 설명될 것이다. 상기 생성된 좌안과 우안 이미지를 보정하고 후속하여 입체 영상을 생성하여 3D 애니메이션 영상으로 저장한다.Meanwhile, a depth script and a depth map are generated based on the image file scanned at the high resolution. The depth map will be described in detail below. Based on the created depth map, a displacement map effect is generated to generate left and right eye images, which will be described in detail below. The generated left and right eye images are corrected, and a stereoscopic image is subsequently generated and stored as a 3D animation image.

아래에서는 본 발명의 조명 레이어; 뎁스맵 레이어; 및 픽셀의 이동을 구현하는 대표적인 예를 예시적으로 설명한다.
Below is an illumination layer of the present invention; Depth map layer; And a representative example of implementing pixel movement by way of example.

1. 조명효과 삽입(조명 1. Insert lighting effect (lighting) 레이어Layer 생성) produce)

본 발명의 특징은, 그라데이션을 이용한 조명 효과를 부가해서, 2D 이미지에 입체감을 구현한다는 점이다. 종래의 2D 애니메이션의 3D 애니메이션의 전환에는 이러한 조명효과 삽입에 대해 생각하지 못했고, 단순히 그림자 처리를 하는 정도였다. 본원 발명자들은 조명효과의 삽입이 입체감의 제대로 된 구현이 가능함을 알아낸 것이다. 이에, 본 발명자들은, 2D 애니메이션에 입체감을 더 높이기 위해, 조명의 효과를 적용시켰다. 이 조명효과의 적용 방법은 아래에서 자세히 소개 되는 방법에 의해 구현하였다. 이처럼 2D 애니메이션의 특징인 단색 면에 조명 효과를 주어 색의 변화를 만들어 주었다. 이와 같은 본 발명의 그라데이션을 이용한 방식의 조명효과의 첨가는 입체감(볼륨감)이 제대로 살아나게 하였다. 다만, 조명에 의한 효과가 너무 강하게 나타나면 원본 느낌이 변할 우려가 있으므로, 바람직하게는 50% 이하의 조명 효과를 주어 원본의 느낌을 최대한 살리는 방식을 취하고 있다. 도 2는 그라데이션을 이용한 방식의 조명 효과를 추가한 예시적인 도면이다.
A feature of the present invention is that it adds an illumination effect using a gradation to implement a three-dimensional effect on a 2D image. In the conversion of 3D animations from conventional 2D animations, we did not think about inserting lighting effects, but simply shadowed them. The inventors have found that the insertion of the lighting effect can be properly implemented three-dimensional. Thus, the present inventors applied the effect of lighting to further increase the three-dimensional effect on the 2D animation. The method of applying this lighting effect is implemented by the method introduced in detail below. In this way, the light effect was applied to the solid surface, which is the characteristic of 2D animation, to change the color. Such addition of the lighting effect of the method using the gradation of the present invention allows the three-dimensional (volume) feeling to be properly alive. However, if the effect of the lighting is too strong there is a possibility that the original feeling may change, preferably to give a lighting effect of 50% or less to take full advantage of the original feeling. 2 is an exemplary diagram to add a lighting effect of the method using a gradient.

1.1. 조명효과 넣는 방법(브러시에 의한 조명 생성)1.1. How to put lighting effects (lighting by brush)

도 2를 참고하면, 조명 효과가 추가된 예를 참고할 수 있다. 레이어 분리 작업이 모두 끝난 또는 해상도 보완작업이 모두 끝난 이미지 소스를, 포토샵에서 레이어 1개 또는 2개 이상을 생성시켜 브러시 툴로 빛을 받는 하이라이트 부분은 흰색 오버레이(overlay) 효과를 적용하였고, 어두워지는 그림자 부분(본 명세서에서 “그림자 부분”이라 함은 실제 이미지의 그림자를 의미하는 것이 아니고 빛이 들어오는 방향의 반대편에 위치한 부분을 어둡게 나타낸 부분임)은 검은색 오버레이(overlay) 효과를 적용하였으며, 하이라이트 부분과 어두워지는 그림자 부분은 대상 이미지에서 조명이 들어오는 방향을 고려하여 선택된다. 상기 하이라이트와 그림자 부분의 경계는 페더(feather) 효과를 주어, 그라데이션을 최대한 살려 부드럽고 자연스럽게 한다. 여기서 상기 페더 값은 바람직하게 4-6이었다. 이러한 효과가 은근히 적용되도록 하기 위해서 상기 레이어에 투명도 효과를 주었다. 바람직하게는 상기 투명도 값은 50% 였다. 도 2를 참고하면, 좌측이 밝은 하이라이트 부분이고 우측으로 갈수록 점점 어두워지는 그림자 부분을 나타내고 있음을 알 수 있다. 즉, 원래 이미지인 원기둥에 조명이 좌측에서 들어오고 있으며 따라서 원기둥의 좌측 부분은 밝은 부분(하이라이트 부분)에 해당하고 우측 부분은 어두운 부분(그림자 부분)에 해당하며, 도 2는 그라데이션을 살려서 원기둥 2D 이미지에 조명 효과를 표현한 것이다.
Referring to FIG. 2, reference may be made to an example in which a lighting effect is added. For image sources that have finished layer separation or finished resolution enhancement, create one or two layers in Photoshop and highlight them with a brush tool to apply white overlay effects and darken shadows. The part (the “shadow part” in this specification does not mean the shadow of the actual image, but is a dark part of the part opposite to the direction of light coming in), and the black overlay effect is applied and the highlight part The part of the shadow that becomes darker and darker is selected by considering the direction of illumination from the target image. The boundary between the highlight and the shadow part has a feather effect, making the gradation smooth and natural. Wherein the feather value is preferably 4-6. Transparency was applied to the layer so that this effect was applied quietly. Preferably the transparency value is 50%. Referring to FIG. 2, it can be seen that the left side represents a bright highlight portion and the shadow portion gradually darkens toward the right side. In other words, the original image of the cylinder is illuminated from the left, so the left part of the cylinder corresponds to the bright part (highlight part) and the right part corresponds to the dark part (shadow part), and Fig. 2 is a cylindrical 2D The lighting effect is expressed in the image.

1.2. 조명효과 넣는 방법(마스크에 의한 조명 생성)1.2. How to add lighting effects (creating lights by masks)

영상 효과 프로그램(After effects. Nuke. Cinema 4D 등)의 기본기능인 마스크와 펜툴을 이용해 위에서 설명한 브러시 효과를 생성하였다. 이 방법은, 원본 소스의 레이어가 분리되지 않아도 작업이 가능하다. 원본 소스 이미지 위에 단색(solid) 레이어를 만들고 하이라이트 부분이나 그림자 부분을 펜툴을 이용해 마스크를 만들어 주었다. 이 때 마스크 선이 칼로 자른 듯 정확한데 가장자리 외곽선을 상기 설명한 바와 같이, 페더 효과를 주어 부드럽고 자연스럽게 한다. 예를 들어, 페더 값 4-6이었다. 도 6 내지 9가 참조될 수 있다.
The brush effect described above was created using the mask and pen tool which is the basic function of the video effects program (After effects. Nuke. Cinema 4D, etc.). This method works even if the layers of the original source are not separated. I created a solid layer over the original source image and masked the highlights or shadows with the Pen tool. At this point, the mask line is precisely cut with a knife, and the edge outline is smoothed and natural as described above. For example, it was a feather value of 4-6. 6-9 may be referred to.

2. 2. 뎁스맵Depth map 만들기 to make

뎁스맵 작업은 도 6 내지 도 9가 참조된다. 본 발명에서는, 보는 쪽에 가까운 부분을 흰색, 먼 부분을 검정색으로 표현하였다. 이를 구현하기 위해, 별도의 검정색 레이어를 만들었다(도 6). 그 위에 사물의 가까운 부분에 흰색 레이어를 만들었다(도 7). 상기 흰색의 레이어를 만든 후 깊이감을 나타내는 등고선을 펜툴을 이용하여 프레임 단위로 모양을 만들었다. 이후 위에서 설명한 바와 같이, 마스크의 페더 값을 조절(페더값 4-6)하여 자연스럽고 부드러운 그라데이션을 만들어주었다(도 8 및 도 9). 도 1은 이러한 방식으로 만들어진 뎁스맵의 예시이고, 도 1은 이미 설명한 바와 같이 원기둥에 대한 뎁스맵을 나타낸다.
6 to 9 are referred to for the depth map operation. In the present invention, the portion near the viewing side is expressed in white and the portion farther in black. To implement this, a separate black layer was created (FIG. 6). A white layer was made on the near part of the object on it (Fig. 7). After the white layer was made, contours representing depth were made in a frame unit using a pen tool. As described above, by adjusting the feather value of the mask (feather value 4-6) to create a natural and smooth gradation (Figs. 8 and 9). FIG. 1 is an example of a depth map made in this manner, and FIG. 1 shows a depth map for a cylinder as already described.

3. 3. 뎁스맵을Depth map 이용한 입체감 생성 방법 How to create 3D effect

통상 2D 그림은 도 10에서 보는 바와 같이 입체를 2차원 평면(도 10에서는 필름)에 반영하기 때문에, 입체로 보이지 않는다. 사람이 사물을 입체감 있게 느끼는 것은, 두 개의 사람의 눈으로 사물을 관찰하기 때문이다(도 11). 그렇기 때문에 그림을 입체로 표현하려면 사람의 눈과 같은 두 개의 시점으로 바라본 두 개의 그림이 필요한 것이다. 원본 영상이 있으면 도 12에서 보는 바와 같이, 좌안 영상을 만드는 것은 원본을 오른쪽으로 돌리는 것을 본 영상이고, 우안 영상은 원본을 왼쪽으로 돌린 것을 본 영상이다. 하지만 실제로 돌릴 수 없기 때문에 픽셀을 좌측과 우측으로 이동시켜야 한다. 이때 사물을 바라보는 쪽에서 두 눈과 가장 가까운 사물의 돌출 부분이 눈과 가깝기 때문에 좌안과 우안으로만 각각 봤을 때 이동 간격이 가장 커야 할 것이고, 두 눈으로부터 가장 먼 사물의 부분은 이동 간격이 가장 작을 것이다. 그러므로, 사물을 우안으로 본 우안 영상과 좌안으로 본 좌안 영상을 만들 때, 눈과 가장 가까운 부분은 많이 이동시키고, 가장 먼 부분은 적게 이동시켜야 한다. 이미 설명한 바와 같이 뎁스맵의 흰 부분은 눈에서 가까운 부분이고, 검은 부분은 눈에서 먼 부분이므로, 뎁스맵을 이용해 우안 및 좌안 영상을 만들 때, 픽셀의 이동 정도는 만들어진 뎁스맵을 이용하여 흰 부분은 많이 이동시키고, 어두운 부분은 적게 이동시킴에 의해 입체감이 구현될 수 있는 것이다(디스플레이스먼트 맵 효과 적용). 이러한 좌안 및 우안 영상을 생성하는 것은 이하에서 추가적으로 설명된다.Normally, a 2D picture is not shown in three dimensions because it reflects a three-dimensional plane on a two-dimensional plane (film in FIG. 10) as shown in FIG. The reason why a person feels things three-dimensionally is because they observe things with the eyes of two people (Fig. 11). Therefore, to express a picture in three dimensions requires two pictures viewed from two viewpoints, such as the human eye. If there is an original image, as shown in FIG. 12, creating a left eye image is an image of turning the original to the right, and a right eye image of an image of turning the original to the left. But because you can't actually turn it, you have to move the pixels left and right. At this time, since the protruding part of the object closest to both eyes is close to the eye from the side of looking at the object, the moving distance should be the largest when viewed only with the left eye and the right eye, respectively. will be. Therefore, when making a right eye image viewed from the right eye and a left eye image viewed from the left eye, the part closest to the eye should be moved more and the part farthest is less. As mentioned earlier, the white part of the depth map is close to the eye and the black part is far from the eye, so when creating the right and left eye images using the depth map, the degree of movement of pixels is determined by using the created depth map. By moving a lot and moving the dark part less, a three-dimensional effect can be realized (applied with the display map effect). Generating such left and right eye images is described further below.

이와 같은 방식으로 원본 이미지의 픽셀을 이동시키기 위해, Photoshop 또는 영상 효과 프로그램을 사용하였다. 상기 생성된 뎁스맵을 이용하여 이펙트 툴인 디스플레이스먼트 맵(Displacement Map) 효과를 주었다. 이처럼 디스플레이스먼트 맵(Displacement Map)의 효과를 이용하여 흰색 내지 검정색의 그라데이션 색 데이터를 이용해, 픽셀들의 위치를, 뎁스맵을 이용해 적절히 이동시켜 입체 효과를 주었다.
To move the pixels of the original image in this way, we used Photoshop or a video effects program. The generated depth map was used to give a displacement map effect which is an effect tool. As described above, the position of the pixels is appropriately shifted using the depth map by using white to black gradation color data by using the displacement map effect, thereby giving a stereoscopic effect.

4. 좌우 영상 만들기4. Create left and right video

도 4를 참고하면 조명 효과가 가해진 원본 영상을 좌 우로 나란히 배치하였다. 교차 방식을 위해 좌안 영상을 오른쪽에, 그리고 우안 영상을 왼쪽에 배치하였다. 이러한 영상 밑에 해당 이미지의 뎁스맵(도 1의 뎁스맵)을 놓는다. 이후 상기 좌우로 배치한 원본 영상에 각각 디스플레이스먼트 맵(Displacement Map) 효과를 주었다. 뎁스맵에 영향을 받은 디스플레이스먼트 맵(Displacement Map)은 원본의 픽셀을 이동시켰다. 좌측에 있는 우안 영상이 될 원본에 (+) 값을 주어 뎁스맵에서 밝은 부분의 픽셀들이 좌측으로 이동하였다. 우측에 있는 좌안 영상이 될 원본에 (-) 값을 주어 뎁스맵에서 밝은 부분의 픽셀들이 우측으로 이동하였다. 즉 도 5에서 보는 바와 같이 우안 영상의 픽셀들은 좌측으로 이동하고, 좌안 영상의 픽셀들은 우측으로 이동한다. 앞서 설명한 바와 같이, 우안 영상 및 좌안 영상 각각에서 밝은 색이 이동하는 방향과 어두운 색이 이동하는 방향은 다르지 않지만, 다만 이동되는 거리가 밝은 색은 많이 이동하고 어두운 색은 조금 이동하게 되는 것이다.
Referring to FIG. 4, the original images to which the lighting effect is applied are arranged side by side. The left eye image was placed on the right side and the right eye image on the left side. The depth map (depth map of FIG. 1) of the image is placed under the image. Thereafter, displacement maps were applied to the original images arranged left and right. The displacement map affected by the depth map moved the original pixels. The bright pixels in the depth map were shifted to the left by giving a positive value to the left eye image. Bright pixels in the depth map were shifted to the right by giving a negative value to the original to be the left eye image on the right. That is, as shown in FIG. 5, pixels of the right eye image move to the left and pixels of the left eye image move to the right. As described above, in the right eye image and the left eye image, the direction in which the light color moves and the direction in which the dark color moves is not different.

5. 렌즈 블러(5. Lens Blur ( LenzLenz BlurBlur ))

거리감(깊이감)을 극대화 하기 위한 방법으로 본 발명은 렌즈 블러를 추가로 주는 것을 고려하였다. 초점거리에 가까운 것은 선명하고 초점에서 멀어질수록 블러 값이 커지며, 뎁스맵에 의한 픽셀 이동으로 생성된 입체감이 블러를 주는 것으로 더욱 극대화 된다.As a method for maximizing the sense of distance (depth), the present invention considered providing additional lens blur. The closer to the focal length, the sharper and farther away from the focal point, the greater the blur value, and the greater the blurring of the three-dimensional effect generated by the pixel movement due to the depth map.

좌안과 우안 영상에 렌즈 블러를 주면 뎁스맵의 영향을 받아 밝은 부분이 블러값을 가장 많이 받고 어두운 부분이 블러값을 적게 받는다. 렌즈 블러의 옵션에서 인버트(invert)를 체크해주면 반대로 밝은 부분의 블러값이 가장 작고, 어두운 부분의 블러값이 커지게 된다.
When the lens blur is applied to the left and right eye images, the bright part receives the most blur and the dark part receives the blur due to the depth map. If you check Invert in the option of lens blur, on the contrary, the blur value of the bright part is the smallest and the blur value of the dark part is increased.

상기에서 설명한 입체감을 나타내기 위한 효과들에 부가하여, 추가적으로 공기(대기)표현으로 거리감(깊이감)을 극대화 할 수도 있다. 일반적으로 단순히 좌우로 벌리는 방법으로 사물간의 거리감을 나타내는데 애니메이션 배경을 그릴 때 쓰는 방법 중 하나로 공기 중에 있는 빛의 영향을 받은 유기체를 표현하는 방법이 있다. 예를 들어 창문 틈으로 새어 들어 오는 햇살 같은 것이 있다. 빛의 영향을 받은 유기체 레이어를 추가하여 거리(깊이)감을 극대화 할 수 있다. 레이어의 표현이 눈에 보이진 않지만, 그 레이어가 있을 때와 없을 때의 깊이 감의 차이는 눈으로 느껴진다.In addition to the effects for displaying the three-dimensional effect described above, it is also possible to maximize the sense of distance (depth) by the air (air) expression. In general, the distance between objects is expressed by simply spreading them to the left and right. One of the methods used to draw an animated background is to express an organism affected by light in the air. For example, there is sunlight that leaks through a window. You can maximize the sense of distance by adding a layer of organisms affected by light. The expression of the layer is invisible, but the difference in depth with and without the layer is visible.

이상에서는 예시적으로 참조하여 설명하였지만, 해당 기술 분야의 당업자는 하기의 청구의 범위에 기재된 본 발명의 사상 및 취지로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
Although described above by way of example only, it will be understood by those skilled in the art that the present invention may be variously modified and changed without departing from the spirit and spirit of the present invention as set forth in the claims below. will be.

Claims (2)

2D 이미지를 3D 입체 이미지로 전환시키는 방법으로서,
2D 이미지에서, 빛을 가장 많이 받는 하이라이트 부분은 흰색, 빛을 받지 못하는 부분은 검은색으로, 흰색과 검은색의 그라데이션 방식으로 표시되는 조명 레이어를 형성하고,
보는 쪽에서 가장 가까운 부분은 흰색으로 표시하고 보는 쪽에서 가장 먼 부분은 검은색으로, 흰색과 검은색의 그라데이션 방식으로 표시되는 뎁스맵 레이어를 형성하며,
상기 뎁스맵의 흰색과 검은색의 그라데이션 값에 기초하여, 우안 영상을 위한 이미지는 좌로 이동되고, 좌안 영상을 위한 이미지는 우로 이동하며, 여기서, 상기 이동에 있어서, 흰색 부분은 미리 정한 범위 중 가장 큰 범위로 이동되고, 검은색 부분은 미리 정한 범위 중 가장 작은 범위로 이동되는,
2D 이미지를 3D 입체 이미지로 전환시키는 방법.
As a method of converting a 2D image into a 3D stereoscopic image,
In a 2D image, the highlights that receive the most light are white, the areas that don't receive light are black, forming a light layer that is displayed in a gradient between white and black,
The depth closest to the viewing side is shown in white and the farthest away from the viewing side is in black, forming a depth map layer that is displayed in a gradient between white and black.
Based on the white and black gradation values of the depth map, the image for the right eye image is shifted to the left, and the image for the left eye image is shifted to the right, wherein in the movement, the white portion is the most out of a predetermined range. Is moved to a larger range, and the black part is moved to the smallest of the predefined ranges,
How to convert 2D image into 3D stereoscopic image.
제 1항에 있어서,
상기 좌안 및 우안 영상에, 초점거리에 가장 가까운 부분에 최소 블러(blur)효과를 주고, 초점거리에서 가장 먼 부분에 최대 블러 효과를 준,
2D 이미지를 3D 입체 이미지로 전환시키는 방법.
The method of claim 1,
In the left and right eye images, a minimum blur effect is given to a portion closest to a focal length, and a maximum blur effect is given to a portion farthest from a focal length.
How to convert 2D image into 3D stereoscopic image.
KR1020110014457A 2011-02-18 2011-02-18 Method of converting 2d images to 3d images KR20120095059A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110014457A KR20120095059A (en) 2011-02-18 2011-02-18 Method of converting 2d images to 3d images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110014457A KR20120095059A (en) 2011-02-18 2011-02-18 Method of converting 2d images to 3d images

Publications (1)

Publication Number Publication Date
KR20120095059A true KR20120095059A (en) 2012-08-28

Family

ID=46885702

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110014457A KR20120095059A (en) 2011-02-18 2011-02-18 Method of converting 2d images to 3d images

Country Status (1)

Country Link
KR (1) KR20120095059A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014085573A1 (en) * 2012-11-27 2014-06-05 Legend3D, Inc. Line depth augmentation system and method for conversion of 2d images to 3d images
US8897596B1 (en) 2001-05-04 2014-11-25 Legend3D, Inc. System and method for rapid image sequence depth enhancement with translucent elements
US8953905B2 (en) 2001-05-04 2015-02-10 Legend3D, Inc. Rapid workflow system and method for image sequence depth enhancement
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8897596B1 (en) 2001-05-04 2014-11-25 Legend3D, Inc. System and method for rapid image sequence depth enhancement with translucent elements
US8953905B2 (en) 2001-05-04 2015-02-10 Legend3D, Inc. Rapid workflow system and method for image sequence depth enhancement
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9007365B2 (en) 2012-11-27 2015-04-14 Legend3D, Inc. Line depth augmentation system and method for conversion of 2D images to 3D images
WO2014085573A1 (en) * 2012-11-27 2014-06-05 Legend3D, Inc. Line depth augmentation system and method for conversion of 2d images to 3d images
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning

Similar Documents

Publication Publication Date Title
KR20120095059A (en) Method of converting 2d images to 3d images
JP7283513B2 (en) VIDEO DISPLAY DEVICE, VIDEO PROJECTION DEVICE, THEIR METHOD AND PROGRAM
JP2010154422A (en) Image processor
US20090219383A1 (en) Image depth augmentation system and method
JP2006042298A (en) Stereoscopic vision image creation method and apparatus
US11398007B2 (en) Video generation device, video generation method, program, and data structure
CN109510975B (en) Video image extraction method, device and system
KR20200129657A (en) Method for gaining 3D model video sequence
EP3057316B1 (en) Generation of three-dimensional imagery to supplement existing content
Stavrakis et al. Image-based stereoscopic painterly rendering
Liu et al. Stereo-based bokeh effects for photography
US8786681B1 (en) Stereoscopic conversion
EP4150560B1 (en) Single image 3d photography with soft-layering and depth-aware inpainting
US9118902B1 (en) Stereoscopic conversion
KR101567002B1 (en) Computer graphics based stereo floting integral imaging creation system
WO2012115293A1 (en) Method for converting a 2d image into a 3d image
CN116824029B (en) Method, device, electronic equipment and storage medium for generating holographic shadow
WO2009018557A1 (en) Method and software for transforming images
Jacquemin et al. Shadow casting for soft and engaging immersion in augmented virtuality artworks
Teréki et al. Informational aesthetic measure for 3d stereoscopic imaging
JP2023153534A (en) Image processing apparatus, image processing method, and program
Sommerer et al. Time-lapse: an immersive interactive environment based on historic stereo images
CN117061720A (en) Stereo image pair generation method based on monocular image and depth image rendering
CN118038516A (en) Method, system, electronic device and storage medium for driving photo digital person speaking
Tövissy et al. AUTOMATED STEREOSCOPIC IMAGE CONVERSION AND RECONSTRUCTION. DISPLAYING OBJECTS IN THEIR REAL DIMENSIONS (STEREOSCOPIC IMAGE CONVERSION)

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application