KR101323195B1 - 3D image generating method from 2D images - Google Patents

3D image generating method from 2D images Download PDF

Info

Publication number
KR101323195B1
KR101323195B1 KR1020110135396A KR20110135396A KR101323195B1 KR 101323195 B1 KR101323195 B1 KR 101323195B1 KR 1020110135396 A KR1020110135396 A KR 1020110135396A KR 20110135396 A KR20110135396 A KR 20110135396A KR 101323195 B1 KR101323195 B1 KR 101323195B1
Authority
KR
South Korea
Prior art keywords
image
conversion relationship
images
camera
reference frame
Prior art date
Application number
KR1020110135396A
Other languages
Korean (ko)
Other versions
KR20130068338A (en
Inventor
김태정
Original Assignee
(주)쓰리디랩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)쓰리디랩스 filed Critical (주)쓰리디랩스
Priority to KR1020110135396A priority Critical patent/KR101323195B1/en
Publication of KR20130068338A publication Critical patent/KR20130068338A/en
Application granted granted Critical
Publication of KR101323195B1 publication Critical patent/KR101323195B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 2차원 영상에서 3차원 영상 생성 방법에 관한 것으로서, 더욱 상세하게는 별도의 스테레오 촬영장치를 사용하지 않고 다수의 일반 카메라를 이용하여 촬영된 2D 영상으로부터 3D TV나 3D 스크린 등의 3D 디스플레이장치를 통해서 시청자가 입체감 있게 시청할 수 있는 3D영상을 생성하는 2차원 영상에서 3차원 영상 생성 방법에 관한 것이다.
상기한 목적을 달성하기 위한 본 발명은 제1,2카메라에서 촬영한 제1,2영상을 영상 변환장치에 구비된 영상 저장부에 저장하는 영상 촬영 및 입력 단계와, 상기 제1,2영상에서 각각 기준 프레임을 선택하는 기준 프레임 결정 단계와, 상기 기준 프레임 결정 단계에서 결정된 기준 프레임 사이의 변환 관계를 설정하는 변환 관계 설정 단계와, 상기 변환 관계 설정 단계에서 설정한 변환 관계를 사용하여 제1,2 영상을 변환하여 좌안을 위한 좌측영상과 우안을 위한 우측영상을 생성하는 3D 영상 생성단계로 이루어지는 것을 특징으로 한다.
The present invention relates to a method for generating a 3D image from a 2D image, and more particularly, to a 3D display such as a 3D TV or a 3D screen from a 2D image photographed using a plurality of general cameras without using a separate stereo photographing apparatus. The present invention relates to a method of generating a 3D image from a 2D image for generating a 3D image that can be viewed in a stereoscopic manner through a device.
The present invention for achieving the above object is an image capture and input step of storing the first and second images taken by the first and second cameras in the image storage unit provided in the image conversion apparatus, and in the first and second images A first, a transform relationship setting step of setting a reference frame for selecting a reference frame, a conversion relationship between the reference frames determined in the reference frame determination step, and a conversion relationship set in the conversion relationship setting step are used. And converting the two images to generate a left image for the left eye and a right image for the right eye.

Description

2차원 영상에서 3차원 영상 생성 방법{3D image generating method from 2D images}3D image generating method from 2D images

본 발명은 2차원 영상에서 3차원 영상 생성 방법에 관한 것으로서, 더욱 상세하게는 별도의 스테레오 촬영장치를 사용하지 않고 다수의 일반 카메라를 이용하여 촬영된 2D 영상으로부터 3D TV나 3D 스크린 등의 3D 디스플레이장치를 통해서 시청자가 입체감 있게 시청할 수 있는 3D영상을 생성하는 2차원 영상에서 3차원 영상 생성 방법에 관한 것이다.
The present invention relates to a method for generating a 3D image from a 2D image, and more particularly, to a 3D display such as a 3D TV or a 3D screen from a 2D image photographed using a plurality of general cameras without using a separate stereo photographing apparatus. The present invention relates to a method of generating a 3D image from a 2D image for generating a 3D image that can be viewed in a stereoscopic manner through a device.

일반적으로 3D 영상 생성방법은 크게 스테레오 카메라를 사용하여 직접 3D 영상을 촬영하는 방법과 일반 카메라로 촬영된 2D 영상을 3D 영상으로 변환하는 방법이 있다. Generally, 3D image generation methods include a method of directly photographing a 3D image using a stereo camera and a method of converting a 2D image captured by a general camera into a 3D image.

이 중에서 스테레오 카메라를 이용하여 3D 영상을 촬영하는 방법은 스테레오 리그라고 불리는 특수한 촬영장치를 사용하는 방식으로, 스테레오 리그의 특정위치에 좌안용 카메라와 우안용 카메라를 설치하고 두 카메라로 동시에 동일한 피사체를 촬영하여 3D 영상을 생성하는 방식이다. Among these methods, 3D video recording using a stereo camera uses a special shooting device called a stereo rig. A left eye camera and a right eye camera are installed at a specific position of the stereo rig, and both cameras simultaneously capture the same subject. 3D video is generated by shooting.

이러한 스테레오 리그는 좌우 카메라의 시선을 고정하여 촬영범위가 제한적인 고정식과 좌우 카메라를 회전할 수 있게 하여 더 넓은 촬영범위를 가지도록 하는 회전식이 있다. 두가지 방식의 스테레오 리그 모두는 카메라 장착 시 사용자가 수동으로 좌우 카메라를 정렬해야 하고 입체감의 중심이 되는 0점시차를 수동으로 조절해야 하며, 장면이동, 장면확대/축소, 촬영거리 변경 시, 매번 카메라 정렬 및 0점시차 조절과정을 반복해야 하는 단점이 있다.These stereo rigs have a fixed range of fixation of the left and right cameras so that the fixed range and the left and right cameras can be rotated to have a wider shooting range. Both types of stereo rigs require the user to manually align the left and right cameras when the camera is mounted, and manually adjust the zero-point parallax, which is the center of the three-dimensional experience. The disadvantage is that the alignment and zero parallax adjustment process must be repeated.

그리고, 기존의 3D 영상 생성방법 중, 일반 카메라에서 촬영된 단일 2D 영상을 3D 영상으로 변환하는 방법은 단일 2D 영상 내에 촬영된 피사체와 카메라 간의 거리정보를 수작업을 통해서 입력하고 이를 이용하여 3D 영상을 생성하는 방식이다.In the existing 3D image generating method, a method of converting a single 2D image photographed by a general camera into a 3D image is input manually by inputting distance information between a subject and a camera photographed in a single 2D image and using the 3D image. This is how you create it.

이러한 3D 영상을 생성하는 방법의 일예로 도 1 및 도 2에 도시된 바와 같은 한국등록특허 제10-0793076호에 기재된 기술이 있는데, 그 기술적 특징은 에지 적응형 스테레오/다시점 영상 정합 장치에 있어서, 두 시점 이상의 카메라로부터 스테레오/다시점 영상(비디오)을 획득하기 위한 영상 획득 수단과 상기 영상 획득 수단으로부터 전달받은 정합할 영상에서 에지를 추출하기 위한 에지 추출 수단(102)과 상기 에지 추출 수단(102)에서 추출한 에지의 분포를 조사하여 에지 분포 형태에 따라 적용할 정합창틀을 선택하기 위한 정합창틀 선택 수단(103)과 상기 정합창틀 선택 수단(103)에서 선택한 정합창틀을 이용하여 변이 탐색 범위 내에서 변이를 탐색하기 위한 변이 탐색 수단(104) 및 상기 변이를 변이지도로 저장하기 위한 변이지도 저장 수단(106)을 포함하여 이루어지고, 상기 정합창틀 선택 수단(103)은, 상기 에지 추출 수단(102)에서 추출한 에지의 분포를 조사하여 각 에지 성분의 분포 형태에 따라, 기 분류되어 있는 다수의 정합창틀 중에서 적용할 하나의 정합창틀을 결정하는 것을 특징으로 한다.As an example of a method of generating such a 3D image, there is a technology described in Korean Patent No. 10-0793076 as shown in FIGS. 1 and 2. The technical feature of the method is an edge-adaptive stereo / multi-view image matching device. Edge extracting means (102) and edge extracting means (102) for extracting an edge from an image to be matched from the image acquiring means; In the variation search range using the matching window frame selecting means 103 for selecting the matching window frame to be applied according to the edge distribution type and the matching window frame selected by the matching window frame selecting means 103 by examining the distribution of the edges extracted in 102). A variation search means 104 for searching for a variation in the variation map storage means 106 for storing the variation as a variation map. The matching window frame selecting means 103 is configured to examine the distribution of the edges extracted by the edge extraction means 102 and apply one of a plurality of matching window frames that are previously classified according to the distribution form of each edge component. Characterized in determining the matching window frame.

그런데, 한국등록특허 제10-0793076호에 기재된 기술은 2D 영상을 3D영상으로 생성할 수 있는 장점은 있으나, 2D 영상을 촬영하기 위하여 특정 위치 특정 각도에 설치된 카메라를 구비하여야 하며, 각 카메라에 대한 정보를 사용자가 직접 입력하여야 하며, 3D 영상을 생성하기 위해서는 변이지도가 반드시 필요하는 등의 문제점이 있다.
By the way, the technology described in Korean Patent Registration No. 10-0793076 has the advantage of generating a 2D image as a 3D image, but in order to capture the 2D image must be provided with a camera installed at a specific position specific angle, for each camera There is a problem that a user must directly input the information, and a disparity map is necessary to generate a 3D image.

본 발명은 상기한 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 스테레오 리그와 같은 특정위치 특정 각도에 카메라를 장착하여 촬영한 2D 영상이 아니더라도 일반적인 카메라로 촬영한 두개 이상의 2D 영상으로부터 자동으로 3D 영상을 생성할 수 있는 2D 영상에서 3D영상 생성 방법을 제공하는 것이다.The present invention has been made to solve the above problems, an object of the present invention is to automatically from two or more 2D images taken with a general camera even if the camera is not a 2D image taken by mounting the camera at a specific position specific angle, such as a stereo rig The present invention provides a method of generating a 3D image from a 2D image capable of generating a 3D image.

그리고, 본 발명의 다른 목적은 일반적인 카메라로 촬영한 두개 이상의 2D 영상에 대한 카메라의 각도나 거리 등의 정보를 입력하지 않더라도, 상대 위치 및 각도를 직접 산출하여 용이하게 2D 영상에서 3D 영상을 생성할 수 있는 2D 영상에서 3D영상 생성 방법을 제공하는 것이다.
Another object of the present invention is to easily generate a 3D image from a 2D image by directly calculating a relative position and angle even without inputting information such as an angle or a distance of a camera for two or more 2D images captured by a general camera. It is to provide a method for generating a 3D image from a 2D image.

이러한 문제점을 해결하기 위한 본 발명은;SUMMARY OF THE INVENTION [0006]

제1,2카메라에서 촬영한 제1,2영상을 영상 변환 장치에 구비된 영상 저장부에 저장하는 영상 촬영 및 입력 단계와, 상기 제1,2영상에서 각각 기준 프레임을 선택하는 기준 프레임 결정 단계와, 상기 기준 프레임 결정 단계에서 결정된 기준 프레임 사이의 변환 관계를 설정하는 변환 관계 설정 단계와, 상기 변환 관계 설정 단계에서 설정한 변환 관계를 사용하여 제1,2 영상을 변환하여 좌안을 위한 좌측영상과 우안을 위한 우측영상을 생성하는 3D 영상 생성단계로 이루어지는 것을 특징으로 한다.Image capture and input step of storing the first and second images taken by the first and second cameras in the image storage unit provided in the image conversion device, and the step of determining the reference frame to select the reference frame from the first and second images, respectively And a conversion relationship setting step of setting a conversion relationship between the reference frames determined in the reference frame determination step, and converting the first and second images by using the conversion relationship set in the conversion relationship setting step, and left image for the left eye. And a 3D image generation step of generating a right image for the right eye and the right eye.

여기서, 상기 변환 관계 설정 단계는, 제1,2영상의 기준 프레임에서 서로 대응되는 상응점을 추출하는 상응점 추출 과정과, 상기 상응점 추출 과정에서 추출한 상응점을 사용하여 제1,2카메라의 상대 위치와 상대 각도를 산출하는 상대 위치 및 각도 산출 과정과, 상기 제1,2카메라의 상대 위치와 상대 각도를 고려하여 좌안을 위한 좌측영상과 우안을 위한 우측영상을 생성하기 위한 변환 관계를 설정하는 변환 관계 설정 과정으로 이루어지는 것을 특징으로 한다.The converting relationship setting step may include: extracting a corresponding point corresponding to each other in a reference frame of the first and second images, and using the corresponding point extracted in the corresponding point extracting process. Set the relative position and angle calculation process for calculating the relative position and the relative angle, and the conversion relationship for generating the left image for the left eye and the right image for the right eye in consideration of the relative position and the relative angle of the first and second cameras. It is characterized by consisting of a conversion relationship setting process.

그리고, 상기 상대 위치 및 각도 산출 과정에서는 상대 표정 요소 측정 기법을 사용하여 제1,2카메라의 상대 위치와 상대 각도를 산출하는 것을 특징으로 한다.In the process of calculating the relative position and angle, the relative position and the relative angle of the first and second cameras are calculated using a relative facial expression element measuring technique.

또한, 상기 기준 프레임 결정 단계에서는 제1영상과 제2영상 각각으로부터 촬영장면이 바뀌거나 카메라의 초점거리가 바뀐 경우, 카메라의 위치 및 촬영방향이 변경된 경우 등에 해당되는 프레임을 추출하고 각각 추출된 제1영상과 제2영상의 프레임과 동일 시각에 촬영된 제2영상과 제1영상의 프레임을 선택하여 이를 쌍으로 하여 영상변환 관계수립에 사용할 수 있는 기준프레임으로 설정하는 것을 특징으로 한다.
Further, in the step of determining the reference frame, if the photographing scene is changed or the focal length of the camera is changed from each of the first image and the second image, the frame corresponding to the case where the camera position and the photographing direction is changed is extracted and extracted respectively. The frame of the second image and the first image photographed at the same time as the frame of the first image and the second image is selected and set as a reference frame that can be used for establishing an image transformation relationship.

상기한 구성의 본 발명에 따르면, 스테레오 리그와 같은 특정위치 특정 각도에 카메라를 장착하여 촬영한 2D 영상이 아니더라도 일반적인 카메라로 촬영한 두개 이상의 2D 영상으로부터 자동으로 3D 영상을 생성할 수 있는 효과가 있다.According to the present invention having the above-described configuration, even if the 2D image taken by mounting the camera at a specific position specific angle, such as a stereo rig, there is an effect that can automatically generate a 3D image from two or more 2D images taken with a general camera .

그리고, 본 발명은 일반적인 카메라로 촬영한 두개 이상의 2D 영상에 대한 카메라의 각도나 거리 등의 정보를 입력하지 않더라도, 상대 위치 및 각도를 직접 산출하여 용이하게 2D 영상에서 3D 영상을 생성할 수 있는 효과가 있다.
In addition, the present invention is an effect that can easily generate a 3D image from the 2D image by directly calculating the relative position and angle even without inputting information such as the angle or distance of the camera for two or more 2D images taken with a general camera There is.

도 1은 종래의 3D 영상 정합 장치의 구성도이다.
도 2는 종래의 3D 영상 정합 방법의 흐름도이다.
도 3은 본 발명에 따른 2D 영상에서 3D영상 생성 장치의 블럭도이다.
도 4는 본 발명에 따른 2D 영상에서 3D영상 생성 방법의 흐름도이다.
도 5는 본 발명에 따른 2D 영상에서 3D영상 생성 방법의 변환 관계 수립 단계의 세부과정에 대한 흐름도이다.
도 6은 본 발명에 따른 제1영상과 제2영상의 상응점의 관계를 보여주는 개념도이다.
1 is a block diagram of a conventional 3D image registration device.
2 is a flowchart of a conventional 3D image registration method.
3 is a block diagram of a 3D image generating apparatus in a 2D image according to the present invention.
4 is a flowchart of a method for generating a 3D image from a 2D image according to the present invention.
5 is a flowchart illustrating a detailed process of establishing a conversion relationship of a 3D image generating method in a 2D image according to the present invention.
6 is a conceptual diagram illustrating a relationship between corresponding points of a first image and a second image according to the present invention.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 보다 상세하게 설명한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. 그리고, 본 발명은 다수의 상이한 형태로 구현될 수 있고, 기술된 실시 예에 한정되지 않음을 이해하여야 한다.
Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the present invention. The same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted. It is to be understood that the present invention may be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.

도 3은 본 발명에 따른 2D 영상에서 3D영상 생성 장치의 블럭도이고, 도 4는 본 발명에 따른 2D 영상에서 3D영상 생성 방법의 흐름도이고, 도 5는 본 발명에 따른 2D 영상에서 3D영상 생성 방법의 변환 관계 수립 단계의 세부과정에 대한 흐름도이고, 도 6은 본 발명에 따른 제1영상과 제2영상의 상응점의 관계를 보여주는 개념도이다.
3 is a block diagram of an apparatus for generating a 3D image from a 2D image according to the present invention, FIG. 4 is a flowchart of a method of generating a 3D image from a 2D image according to the present invention, and FIG. 5 is a 3D image generated from a 2D image according to the present invention. 6 is a flowchart illustrating a detailed process of establishing a conversion relationship of a method, and FIG. 6 is a conceptual diagram illustrating a relationship between corresponding points of a first image and a second image according to the present invention.

본 발명은 일반적인 카메라에서 촬영한 영상을 이용하여, 2D 영상에서 3D영상 생성 방법에 관한 것으로, 우선, 3D영상 생성하기 위한 영상 변환 장치(200)를 살펴보면 도 3에 도시된 바와 같이 영상 저장부(220), 기준프레임 추출부(280), 상응점 검출부(280), 상대 위치 산출부(230), 변환 관계 저장부(240), 영상 변환부(250) 및 전술한 구성들을 제어하기 위한 메인 프로세서(210)로 이루어진다.The present invention relates to a method for generating a 3D image from a 2D image by using an image captured by a general camera. First, an image converting apparatus 200 for generating a 3D image will be described with reference to FIG. 220, the reference frame extractor 280, the correspondence point detector 280, the relative position calculator 230, the conversion relationship storage 240, the image converter 250, and the main processor for controlling the above-described components. It consists of 210.

여기서, 상기 영상 저장부(220)는 제1카메라(260)와 제2카메라(270)로 촬영한 제1,2영상을 저장하게 되고, 상기 기준프레임 추출부(280)는 제1,2영상으로부터 촬영 장면이 바뀌거나 카메라의 초점거리가 바뀐 경우, 카메라의 위치 및 촬영 방향이 변경된 경우 등에 해당되는 기준프레임을 추출하게 되고, 상기 상응점 검출부(290)는 상기 기준프레임에서 서로 대응되는 상응점들을 추출하게 되며, 상기 상대 위치 산출부(230)는 상기 상응점들로부터 제1카메라(260)와 제2카메라(270)의 상대 위치와 각도를 산출하게 된다.Here, the image storage unit 220 stores the first and second images taken by the first camera 260 and the second camera 270, and the reference frame extractor 280 stores the first and second images. When the shooting scene is changed or the focal length of the camera is changed from, the reference frame corresponding to the case where the position and the shooting direction of the camera is changed is extracted, the correspondence point detector 290 corresponding points corresponding to each other in the reference frame The relative position calculating unit 230 calculates the relative position and angle of the first camera 260 and the second camera 270 from the corresponding points.

그리고, 상기 변환 관계 저장부(240)는 제1카메라(260)와 제2카메라(270)의 상대 위치와 각도를 고려하여 제1,2영상을 좌안을 위한 좌측영상과 우안을 위한 우측영상으로 변환하기 위한 변환 관계를 설정하여 저장하게 된다.The conversion relationship storage unit 240 converts the first and second images into a left image for the left eye and a right image for the right eye in consideration of the relative positions and angles of the first camera 260 and the second camera 270. The conversion relationship for conversion is set and saved.

또한, 상기 영상 변환부(250)에서는 상기 변환 관계 저장부(240)에 저장된 변환 관계를 사용하여 제1,2영상을 변환하여 입체감을 느낄 수 있는 좌측영상과 우측영상을 생성하게 된다.In addition, the image conversion unit 250 converts the first and second images using the conversion relation stored in the conversion relationship storage unit 240 to generate a left image and a right image that can feel a three-dimensional effect.

그리고, 상기 영상 변환 장치(200)를 사용하여 2D 영상에서 3D영상 생성 방법을 살펴보면, 도 4에 도시된 바와 같이 상기 제1,2카메라(260,270)에서 촬영한 제1,2영상을 영상 변환 장치(200)에 구비된 영상 저장부(220)에 저장하는 영상 촬영 및 입력 단계(S100)와 상기 제1,2영상에서 각각 기준 프레임을 선택하는 기준 프레임 결정 단계(S200)와 상기 기준 프레임 결정 단계(S200)에서 결정된 기준 프레임 사이의 변환 관계를 설정하는 변환 관계 설정 단계(S300)와 상기 변환 관계 설정 단계(S300)에서 설정한 변환 관계를 사용하여 제1,2 영상을 변환하여 좌안을 위한 좌측영상과 우안을 위한 우측영상을 생성하는 3D 영상 생성단계(S400)로 이루어진다.In addition, referring to the method of generating a 3D image from the 2D image using the image conversion apparatus 200, as illustrated in FIG. 4, the image conversion apparatus may capture the first and second images captured by the first and second cameras 260 and 270. Image capture and input step (S100) and the reference frame determination step (S200) and the reference frame determination step of selecting the reference frame from the first and second images, respectively, stored in the image storage unit 220 provided in (200) The left and right for the left eye by converting the first and second images using the conversion relationship setting step S300 for setting the conversion relationship between the reference frames determined in S200 and the conversion relationship set in the conversion relationship setting step S300. 3D image generation step (S400) for generating the image and the right image for the right eye.

여기서, 상기 기준 프레임 결정 단계(S200)에서는 상기 기준 프레임 추출부(280)를 통하여 제1영상과 제2영상 각각으로부터 촬영장면이 바뀌거나 카메라의 초점거리가 바뀐 경우, 카메라의 위치 및 촬영방향이 변경된 경우 등에 해당되는 프레임을 추출하고 각각 추출된 제1영상과 제2영상의 프레임과 동일 시각에 촬영된 제2영상과 제1영상의 프레임을 선택하여 이를 쌍으로 하여 영상변환 관계수립에 사용할 수 있는 기준프레임으로 설정하게 된다.Here, in the step of determining the reference frame (S200), when the photographing scene is changed or the focal length of the camera is changed from each of the first and second images through the reference frame extractor 280, the position and the photographing direction of the camera are changed. The frame corresponding to the changed case can be extracted, and the frames of the second image and the first image photographed at the same time as the extracted first image and the second image frame can be selected and used as pairs to establish the relationship between the images. It is set as the reference frame.

그리고, 상기 변환 관계 설정 단계(S300)는 도 5에 도시된 바와 같이, 제1,2영상의 기준 프레임에서 서로 대응되는 상응점을 추출하는 상응점 추출 과정(S310)과 상기 상응점 추출 과정에서 추출한 상응점을 사용하여 제1,2카메라의 상대 위치와 상대 각도를 산출하는 상대 위치 및 각도 산출 과정(S320)과 상기 제1,2카메라의 상대 위치와 상대 각도를 고려하여 좌안을 위한 좌측영상과 우안을 위한 우측영상을 생성하기 위한 변환 관계를 설정하는 변환 관계 설정 과정(S330)으로 이루어진다.And, as shown in Figure 5, the conversion relationship setting step (S300), in the correspondence point extraction process (S310) and the correspondence point extraction process for extracting a corresponding point corresponding to each other in the reference frame of the first and second images The left image for the left eye in consideration of the relative position and angle calculation process (S320) of calculating the relative position and the relative angle of the first and second cameras using the extracted corresponding points and the relative position and the relative angle of the first and second cameras. And a conversion relationship setting process of setting a conversion relationship for generating a right image for the right eye and the right eye.

여기서, 상기 상응점 추출 과정(S310)에서는 제1,2영상에서 추출한 대응되는 기준 프레임에서 피사체의 동일한 부분을 나타내는 점을 추출하여 상응점으로 설정하게 된다.Here, in the corresponding point extraction process (S310), a point representing the same part of the subject is extracted from the corresponding reference frame extracted from the first and second images and set as a corresponding point.

이때, 상기 제1영상과 제2영상은 동일한 위치에서 촬영한 것이 아니고 제1,2카메라(260,270)의 촬영 각도가 서로 다르기 때문에, 상기 상응점은 도 6에 도시된 바와 같이 제1영상의 기준 프레임에서 추출한 상응점(A,B,C)과 제2영상의 기준 프레임에서 추출한 상응점(A',B',C')은 동일한 프레임에서 비교하여 보면, 서로 다른 위치 및 각도의 오프셋을 형성하게 된다. In this case, since the first and second images are not photographed at the same position and the photographing angles of the first and second cameras 260 and 270 are different from each other, the corresponding point is the reference of the first image as shown in FIG. 6. Corresponding points A, B and C extracted from a frame and corresponding points A ', B' and C 'extracted from a reference frame of the second image form offsets of different positions and angles when compared in the same frame. Done.

그래서, 상기 상대 위치 및 각도 산출 과정(S320)에서는 상기 상응점(A, A', B, B', C, C')의 위치를 고려하여, 상대 표정 요소 측정 기법을 사용하여 제1,2카메라(250,260) 간의 상대 위치와 상대 각도를 산출하게 된다.Thus, in the relative position and angle calculation process (S320) in consideration of the position of the corresponding points (A, A ', B, B', C, C '), using the relative facial expression element measurement technique, the first and second The relative position and relative angle between the cameras 250 and 260 are calculated.

즉, 기준프레임의 상응점(A, A', B, B', C, C')을 이용하여 제1카메라(260)(또는 제2카메라(270))의 투영중심 및 제1카메라(260)(또는 제2카메라(270))의 촬영방향을 기준으로 하여 제2카메라(270)(또는 제1카메라(260))의 위치(통상적인 3차원 좌표인 X, Y, Z) 및 제2카메라의 촬영방향의 3축회전각도(통상적인 3차원상의 각도인

Figure 112011099805210-pat00001
)를 산출하게 된다.That is, the projection center of the first camera 260 (or the second camera 270) and the first camera 260 using the corresponding points A, A ', B, B', C, and C 'of the reference frame. Position of the second camera 270 (or the first camera 260) (or generally, three-dimensional coordinates X, Y, Z) and the second based on the photographing direction of the second camera 270 (or the second camera 270). 3-axis rotation angle of the camera's shooting direction (the normal three-dimensional angle
Figure 112011099805210-pat00001
).

여기서, 제1,2카메라(250,260) 간의 상대 위치와 상대 각도를 산출하는 일예를 들면, 제1영상의 기준프레임의 상응점 좌표를 (x, y), 제2영상의 기준프레임의 상응점 좌표를 (x', y'), 제1카메라(260)의 초점거리를 f, 제2카메라의 초점거리를 f'이라고 하면 제1,2카메라(260,270) 간의 상대위치 및 상대 각도는 제1영상의 기준프레임의 상응점 벡터 Sq, 제2영상의 기준프레임의 상응점 벡터 S'q' 및 제1,2카메라의 상대위치벡터 B간의 아래와 같은 관계식을 사용하여 산출할 수 있다.In this case, for example, the relative point coordinates of the first and second cameras 250 and 260 are calculated to correspond to the corresponding point coordinates of the reference frame of the first image (x, y) and the corresponding point coordinates of the reference frame of the second image. When (x ', y'), the focal length of the first camera 260 is f, the focal length of the second camera is f ', the relative position and relative angle between the first and second cameras 260, 270 is the first image It can be calculated using the following relationship between the corresponding point vector Sq of the reference frame of, the corresponding point vector S'q 'of the reference frame of the second image, and the relative position vector B of the first and second cameras.

Figure 112011099805210-pat00002

Figure 112011099805210-pat00002

한편, 상기 변환 관계 설정 과정(S330)에서는 상대 위치 및 각도 결정과정(S320)에서 얻어진 위치 및 각도를 이용하여 제1,2카메라(260,270) 간의 상대위치 및 각도차이로 인해서 발생하는 Y 시차(상하 시차)가 제거되고 제1,2카메라(260,270) 간의 축척을 일치시키도록 제1영상 및 제2영상을 변환하여 좌측영상과 우측영상을 생성하도록 하는 변환 관계를 설정하게 된다.Meanwhile, in the conversion relationship setting process (S330), Y parallax (up and down) generated due to the relative position and angle difference between the first and second cameras 260 and 270 using the position and angle obtained in the relative position and angle determination process (S320). Parallax) is removed and the first and second images are converted to match the scale between the first and second cameras 260 and 270 so as to set a conversion relationship for generating a left image and a right image.

여기서, 상기 변환관계 설정과정(S330)의 일례로, 변환 전의 영상점 좌표를 (x, y), 변환 후의 영상점 좌표를 (xx, yy)라고 하면 아래와 같은 변환관계식의 계수값들을 상대 위치 및 상대각도로부터 추출하여 사용할 수 있다.Here, as an example of the conversion relationship setting process (S330), if the coordinate of the image point before the conversion is (x, y) and the coordinate of the image point after the conversion is (xx, yy), the coefficient values of the conversion relation are as follows. Can be extracted from relative angles.

Figure 112011099805210-pat00003

Figure 112011099805210-pat00003

그리고, 3D 영상 생성단계(S400)에서는 상기 제1,2영상의 모든 프레임에 대하여, 상기 변환 관계 설정 단계(S300)에서 설정한 변환 관계를 적용하여 좌안을 위한 좌측영상과 우안을 위한 우측영상으로 변환시키게 된다.
In the 3D image generating step (S400), the left and right eyes for the left eye and the right eyes for the right eye are applied to all frames of the first and second images by applying the conversion relationship set in the conversion relationship setting step (S300). Will be converted.

이상에서 본 발명의 바람직한 실시 예를 설명하였으나, 본 발명의 권리범위는 이에 한정되지 않으며, 본 발명의 실시 예와 실질적으로 균등한 범위에 있는 것까지 본 발명의 권리 범위가 미치는 것으로 본 발명의 정신을 벗어나지 않는 범위 내에서 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것이다.
While the present invention has been described in connection with certain exemplary embodiments, it is to be understood that the scope of the present invention is not limited to the disclosed embodiments, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

본 발명은 2차원 영상에서 3차원 영상 생성 방법에 관한 것으로서, 더욱 상세하게는 별도의 스테레오 촬영장치를 사용하지 않고 다수의 일반 카메라를 이용하여 촬영된 2D 영상으로부터 3D TV나 3D 스크린 등의 3D 디스플레이장치를 통해서 시청자가 입체감 있게 시청할 수 있는 3D영상을 생성하는 2차원 영상에서 3차원 영상 생성 방법에 관한 것이다.
The present invention relates to a method for generating a 3D image from a 2D image, and more particularly, to a 3D display such as a 3D TV or a 3D screen from a 2D image photographed using a plurality of general cameras without using a separate stereo photographing apparatus. The present invention relates to a method of generating a 3D image from a 2D image for generating a 3D image that can be viewed in a stereoscopic manner through a device.

200 : 영상 변환 장치 210 : 메인 프로세서
220 : 영상 저장부 230 : 상대 위치 산출부
240 : 변환 관계 저장부 250 : 영상 변환부
260 : 제1카메라 270 : 제2카메라
280 : 기준프레임 추출부 290 : 상응점 검출부
300 : 피사체
L : 좌안 R : 우안
200: video conversion device 210: main processor
220: image storage unit 230: relative position calculation unit
240: conversion relationship storage unit 250: image conversion unit
260: first camera 270: second camera
280: reference frame extraction unit 290: correspondence point detection unit
300: subject
L: Left eye R: Right eye

Claims (4)

제1,2카메라에서 촬영한 제1,2영상을 영상 변환 장치에 구비된 영상 저장부에 저장하는 영상 촬영 및 입력 단계와,
상기 제1,2영상에서 각각 기준 프레임을 선택하는 기준 프레임 결정 단계와,
상기 기준 프레임 결정 단계에서 결정된 기준 프레임 사이의 변환 관계를 설정하는 변환 관계 설정 단계와,
상기 변환 관계 설정 단계에서 설정한 변환 관계를 사용하여 제1,2 영상을 변환하여 좌안을 위한 좌측영상과 우안을 위한 우측영상을 생성하는 3D 영상 생성단계로 이루어지고,
상기 변환 관계 설정 단계는,
제1,2영상의 기준 프레임에서 서로 대응되는 상응점을 추출하는 상응점 추출 과정과,
상기 상응점 추출 과정에서 추출한 상응점을 사용하여 상대 표정 요소 측정 기법을 통하여 제1,2카메라의 상대 위치와 상대 각도를 산출하는 상대 위치 및 각도 산출 과정과,
상기 제1,2카메라의 상대 위치와 상대 각도를 고려하여 좌안을 위한 좌측영상과 우안을 위한 우측영상을 생성하기 위한 변환 관계를 설정하는 변환 관계 설정 과정으로 이루어지며,
상기 기준 프레임 결정 단계에서는 제1영상과 제2영상 각각으로부터 촬영장면이 바뀌거나 카메라의 초점거리가 바뀐 경우, 카메라의 위치 및 촬영방향이 변경된 경우에 해당되는 프레임을 추출하고 각각 추출된 제1영상과 제2영상의 프레임과 동일 시각에 촬영된 제2영상과 제1영상의 프레임을 선택하여 이를 쌍으로 하여 영상변환 관계수립에 사용할 수 있는 기준프레임으로 설정하는 것을 특징으로 하는 2차원 영상에서 3차원 영상 생성 방법.
An image capturing and input step of storing the first and second images captured by the first and second cameras in an image storage unit provided in the image converting apparatus;
A reference frame determining step of selecting reference frames from the first and second images, respectively;
A conversion relationship setting step of setting a conversion relationship between the reference frames determined in the reference frame determining step;
3D image generation step of generating the left image for the left eye and the right image for the right eye by converting the first and second images using the conversion relationship set in the conversion relationship setting step,
The conversion relationship setting step,
A correspondence point extraction process of extracting correspondence points corresponding to each other from the reference frames of the first and second images;
A relative position and angle calculation process of calculating a relative position and a relative angle of the first and second cameras by using a relative expression factor measuring technique using the corresponding points extracted in the corresponding point extraction process;
A conversion relationship setting process of setting a conversion relationship for generating a left image for the left eye and a right image for the right eye in consideration of the relative position and the relative angle of the first and second cameras,
In the step of determining the reference frame, when the shooting scene is changed or the focal length of the camera is changed from each of the first image and the second image, a frame corresponding to the case where the position and the shooting direction of the camera is changed is extracted and the first image is extracted. In the two-dimensional image, characterized in that the frame of the second image and the first image photographed at the same time as the frame of the second image and select the pair and set it as a reference frame that can be used to establish the relationship between the image conversion 3D image generation method.
삭제delete 삭제delete 삭제delete
KR1020110135396A 2011-12-15 2011-12-15 3D image generating method from 2D images KR101323195B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110135396A KR101323195B1 (en) 2011-12-15 2011-12-15 3D image generating method from 2D images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110135396A KR101323195B1 (en) 2011-12-15 2011-12-15 3D image generating method from 2D images

Publications (2)

Publication Number Publication Date
KR20130068338A KR20130068338A (en) 2013-06-26
KR101323195B1 true KR101323195B1 (en) 2013-10-30

Family

ID=48863975

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110135396A KR101323195B1 (en) 2011-12-15 2011-12-15 3D image generating method from 2D images

Country Status (1)

Country Link
KR (1) KR101323195B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100134288A (en) * 2009-06-15 2010-12-23 이상화 Stereoscopic image system and stereoscopic image processing method
KR20110006360A (en) * 2009-07-14 2011-01-20 한국생산기술연구원 Calibration method and apparatus for three dimentional solid color image acquirement

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100134288A (en) * 2009-06-15 2010-12-23 이상화 Stereoscopic image system and stereoscopic image processing method
KR20110006360A (en) * 2009-07-14 2011-01-20 한국생산기술연구원 Calibration method and apparatus for three dimentional solid color image acquirement

Also Published As

Publication number Publication date
KR20130068338A (en) 2013-06-26

Similar Documents

Publication Publication Date Title
US10540806B2 (en) Systems and methods for depth-assisted perspective distortion correction
US9344701B2 (en) Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation
US8436893B2 (en) Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3D) images
US9635348B2 (en) Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional images
CN107077743B (en) System and method for dynamic calibration of an array camera
JP5392415B2 (en) Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation
EP3447730B1 (en) Three-dimensional reconstruction method
KR101377325B1 (en) Stereoscopic image, multi-view image and depth image acquisition appratus and its control method
KR101804205B1 (en) Apparatus and method for image processing
WO2020007320A1 (en) Method for fusing multi-visual angle images, apparatus, computer device, and storage medium
US8144974B2 (en) Image processing apparatus, method, and program
KR20150120066A (en) System for distortion correction and calibration using pattern projection, and method using the same
KR20100119559A (en) Method and system for converting 2d image data to stereoscopic image data
KR20060063558A (en) A depth information-based stereo/multi-view stereo image matching apparatus and method
WO2011125937A1 (en) Calibration data selection device, method of selection, selection program, and three dimensional position measuring device
US20130258059A1 (en) Three-dimensional (3d) image photographing apparatus and method
JP2013044597A (en) Image processing device and method, and program
JP2020191624A (en) Electronic apparatus and control method for the same
KR20110133677A (en) Method and apparatus for processing 3d image
KR20110025083A (en) Apparatus and method for displaying 3d image in 3d image system
KR101323195B1 (en) 3D image generating method from 2D images
CN104463958A (en) Three-dimensional super-resolution method based on disparity map fusing
KR101142279B1 (en) An apparatus for aligning images in stereo vision system and the method thereof
JP6292785B2 (en) Image processing apparatus, image processing method, and program
JP2009237652A (en) Image processing apparatus and method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161017

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171017

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180927

Year of fee payment: 6