KR20090037247A - Method and device for transformation from multi focused 2d image to 3d image, and recording media - Google Patents

Method and device for transformation from multi focused 2d image to 3d image, and recording media Download PDF

Info

Publication number
KR20090037247A
KR20090037247A KR1020070102801A KR20070102801A KR20090037247A KR 20090037247 A KR20090037247 A KR 20090037247A KR 1020070102801 A KR1020070102801 A KR 1020070102801A KR 20070102801 A KR20070102801 A KR 20070102801A KR 20090037247 A KR20090037247 A KR 20090037247A
Authority
KR
South Korea
Prior art keywords
image data
focus
focal
parallax
dimensional image
Prior art date
Application number
KR1020070102801A
Other languages
Korean (ko)
Other versions
KR100915039B1 (en
Inventor
최명렬
Original Assignee
최명렬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 최명렬 filed Critical 최명렬
Priority to KR1020070102801A priority Critical patent/KR100915039B1/en
Publication of KR20090037247A publication Critical patent/KR20090037247A/en
Application granted granted Critical
Publication of KR100915039B1 publication Critical patent/KR100915039B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

A method and a device for converting 3d video by using multi focus 2d video and a recording medium therefor are provided to have a function of converting plural photographed multi focus 2D videos into 3D video, thereby producing cheap and natural 3D video. A video photographing unit(150) photographs a subject through one lens. A focus information determination unit(160) reads preview video data. A focus control unit(155) automatically focuses a focus location determined according to the number of focuses. The video photographing unit photographs multi focus 2D video. The focus information determination unit reads preview video data. The focus information determination unit N focus location information with regard to the subject. A video converting module(100) generates right and left eye video data. A screen output unit(180) scales down and outputs the video data at a scaled down ratio.

Description

다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 방법 및 변환 장치와 이를 위한 기록매체{Method and Device for Transformation from Multi Focused 2D Image to 3D Image, and Recording Media}Method and device for transforming 3D stereoscopic image using multi-focus 2D image and recording medium {Method and Device for Transformation from Multi Focused 2D Image to 3D Image, and Recording Media}

도 1은 본 발명의 실시 방법에 따라 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치 구성을 도시한 도면이다.1 is a diagram illustrating a configuration of a 3D stereoscopic image conversion apparatus using a multifocal 2D image according to an exemplary embodiment of the present invention.

도 2a와 도 2b는 본 발명의 실시 방법에 따라 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위한 초점정보 결정 방법을 도시한 도면이다.2A and 2B illustrate a method of determining focus information for 3D stereoscopic image conversion using a multifocal 2D image according to an exemplary embodiment of the present invention.

도 3a와 도 3b는 본 발명의 실시 방법에 따라 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위한 초점거리 연산 방법을 도시한 도면이다.3A and 3B illustrate a focal length calculation method for 3D stereoscopic image conversion using a multifocal 2D image according to an exemplary embodiment of the present invention.

도 4a와 도 4b는 본 발명의 실시 방법에 따라 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위한 초점중첩 과정을 도시한 도면이다.4A and 4B illustrate a focus overlapping process for converting 3D stereoscopic images using a multifocal 2D image according to an exemplary embodiment of the present invention.

도 5a와 도 5b는 본 발명의 실시 방법에 따라 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위한 깊이값 연산 과정을 도시한 도면이다.5A and 5B illustrate a depth value calculation process for 3D stereoscopic image conversion using a multifocal 2D image according to an exemplary embodiment of the present invention.

도 6은 본 발명의 실시 방법에 따라 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위한 거리인식 방법을 도시한 도면이다.FIG. 6 is a diagram illustrating a distance recognition method for 3D stereoscopic image conversion using a multifocal 2D image according to an exemplary embodiment of the present invention.

도 7은 본 발명의 실시 방법에 따라 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위한 시차처리 방법을 도시한 도면이다.7 is a diagram illustrating a parallax processing method for 3D stereoscopic image conversion using a multifocal 2D image according to an exemplary embodiment of the present invention.

도 8a와 도 8b는 본 발명의 일 실시 방법에 따른 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 과정을 도시한 도면이다.8A and 8B illustrate a 3D stereoscopic image conversion process using a multifocal 2D image according to an exemplary embodiment of the present invention.

도 9a와 도 9b는 본 발명의 다른 일 실시 방법에 따른 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 과정을 도시한 도면이다.9A and 9B illustrate a 3D stereoscopic image conversion process using a multifocal 2D image according to another exemplary embodiment of the present invention.

<도면의 주요부분에 대한 설명><Description of main parts of drawing>

100 : 영상 변환 모듈 105 : 입력영상 축소부100: image conversion module 105: input image reduction unit

110 : 초점거리 연산부 115 : 초점중첩 처리부110: focal length calculation unit 115: focus overlap processing unit

120 : 깊이값 연산부 125 : 깊이값 영상 합성부120: depth value calculator 125: depth value image synthesis unit

130 : 축소비율 산출부 135 : 시차 처리부130: reduction ratio calculation unit 135: parallax processing unit

140 : 좌우 영상 생성부 145 : 2D 영상 촬영 모듈140: left and right image generating unit 145: 2D image recording module

150 : 영상 촬영부 155 : 초점 제어부150: image capture unit 155: focus control unit

160 : 초점정보 결정부 165 : 영상 획득부160: focus information determiner 165: image acquisition unit

170 : 원시 영상 저장부 175 : 키 입력부170: raw image storage unit 175: key input unit

180 : 화면 출력부 183 : 저장매체180: screen output unit 183: storage medium

185 : 3D 영상 출력 모듈 190 : 영상 출력부185: 3D image output module 190: image output unit

193 : 영상 저장부 195 : 통신부193: Image storage unit 195: Communication unit

본 발명은 2차원 영상에 대한 N(N>1)개의 초점위치와 초점수를 결정하는 단계와, 상기 결정된 N(N>1)개의 초점위치와 초점수에 대응하는 N(N>1)개 다중 초점 2차원 영상 데이터가 획득되면, 상기 N(N>1)개 다중 초점 2차원 영상 데이터에 대한 N(N>1)개의 초점거리를 연산하는 단계와, 상기 연산된 N(N>1)개의 초점거리에 반비례하는 N(N>1)개의 깊이값을 연산하는 단계와, N(N>1)개의 깊이값에 따라 N(N>1)개 다중 초점 2차원 영상 데이터를 합성하는 단계와, 상기 N(N>1)개 다중 초점 2차원 영상 데이터 중, 영시차(Zero Parallax) 영상 데이터와 양시차(Positive Parallax) 영상 데이터와 음시차(Negative Parallax) 영상 데이터를 확인하고, 상기 확인된 영시차를 기준으로 적어도 하나 이상의 양시차 영상 데이터에 대한 시차각을 기반으로 양시차 방향 픽셀 이동 정보를 확인하고, 상기 확인된 영시차를 기준으로 적어도 하나 이상의 음시차 영상 데이터에 대한 시차각을 기반으로 음시차 방향 픽셀 이동 정보를 확인하는 단계 및 상기 확인된 양시차 방향 픽셀 이동 정보를 적어도 하나 이상의 양시차 영상 데이터에 적용하고, 상기 확인된 음시차 방향 픽셀 이동 정보를 적어도 하나 이상의 음시차 영상 데이터에 적용하여 좌안 영상 데이터와 우안 영상 데이터를 생성하는 단계를 포함하는 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 방법에 관한 것이다.The present invention provides a method of determining N (N> 1) focal positions and focal number for a two-dimensional image, and N (N> 1) corresponding to the determined N (N> 1) focal positions and focal number. Computing N (N> 1) focal lengths for the N (N> 1) multifocal two-dimensional image data when multi-focus two-dimensional image data is obtained, and calculating the calculated N (N> 1). Calculating N (N> 1) depth values in inverse proportion to the focal lengths, synthesizing N (N> 1) multi-focus two-dimensional image data according to N (N> 1) depth values, and In addition, among the N (N> 1) multi-focus two-dimensional image data, zero parallax image data, positive parallax image data, and negative parallax image data are identified, and the identified Checks the bi-parallel direction pixel movement information based on the parallax angles for at least one bi-division image data based on the zero parallax Checking the disparity direction pixel shift information based on the disparity angle of the at least one disparity image data based on the zero parallax, and applying the identified disparity direction pixel shift information to the at least one disparity image data And generating left eye image data and right eye image data by applying the identified parallax direction pixel shift information to at least one or more parallax image data. It is about.

2차원 영상에서 3차원 입체 영상으로 변환하는 방법에는 기존의 2차원 영상 을 3차원 입체영상으로 변환하는 방법과, 3차원 입체 영상을 위해 촬영된 2차원 영상을 3차원 입체 영상으로 변환하는 방법으로 구분될 수 있다.The method of converting a 2D image into a 3D stereoscopic image includes converting a conventional 2D image into a 3D stereoscopic image and converting a 2D image photographed for a 3D stereoscopic image into a 3D stereoscopic image. Can be distinguished.

여기서, 기존의 2차원 영상을 3차원 입체영상으로 변환하는 방법은, 단일 렌즈로 촬영된 2차원 영상(또는 블록단위 영상)을 이미지 프로세싱을 통해 선명도를 보정하고, 상기 2차원 영상을 시차 처리를 위해 좌우로 일정 크기만큼 픽셀을 이동하여 3차원 입체 영상으로 변환하는 방법이 일반적으로 사용된다.Here, the conventional method of converting a two-dimensional image to a three-dimensional stereoscopic image, correcting the sharpness of the two-dimensional image (or block unit image) taken by a single lens through image processing, and the parallax processing of the two-dimensional image For this purpose, a method of moving a pixel by a predetermined size from side to side and converting the pixel into a 3D stereoscopic image is generally used.

그러나, 상기 2차원 영상을 3차원 입체영상으로 변환하는 방법은, 초점거리(또는 깊이값)를 고려하지 않고 전체 2차원 영상(또는 블록단위 영상)을 좌우로 일정 크기만큼 픽셀을 이동하여 3차원 입체 영상으로 변환하기 때문에 3차원 입체 영상을 감상하는 관람자에게 심한 어지러움증을 유발하는 문제점을 포함하고 있다.However, in the method of converting the 2D image into the 3D stereoscopic image, the 3D image is shifted by a predetermined size to the left and right of the entire 2D image (or block unit image) without considering the focal length (or depth value). Because it converts to a stereoscopic image, it includes a problem that causes severe dizziness for viewers who are viewing 3D stereoscopic images.

또한, 3차원 입체 영상을 위해 촬영된 2차원 영상을 3차원 입체 영상으로 변환하는 방법은, 2개의 카메라(Stereoscopic Camera) 또는 2개의 렌즈(Stereoscopic Lens)를 통해 하나의 피사체에 대한 2개의 영상을 촬영하고, 상기 촬영된 2개의 영상을 3차원 입체 영상으로 변환하는 방법이 일반적으로 사용된다.In addition, a method of converting a 2D image photographed for a 3D stereoscopic image into a 3D stereoscopic image may include two images of a single subject through two cameras or two lenses. A method of photographing and converting the two captured images into a three-dimensional stereoscopic image is generally used.

그러나, 상기 3차원 입체 영상을 위해 촬영된 2차원 영상을 3차원 입체 영상으로 변환하는 방법은, 고가의 카메라(또는 렌즈)를 필요로 하기 때문에, 일반 디 지털 카메라(또는 비디오 카메라)에 구비되기에 난해한 문제점을 포함하고 있다.However, since the method of converting the 2D image photographed for the 3D stereoscopic image into the 3D stereoscopic image requires an expensive camera (or lens), a general digital camera (or video camera) is provided. Contains esoteric issues.

상기 문제점을 해결하기 위한 본 발명의 목적은, 2차원 영상에 대한 N(N>1)개의 초점위치와 초점수를 결정하는 초점수 결정부와, N(N>1)개의 초점위치에 대하여 N(N>1)개의 초점수만큼 다중 초점을 제어하는 초점 제어부와, 상기 초점제어에 의해 N(N>1)개 다중 초점 2차원 영상 데이터를 획득하는 영상 획득부와, N(N>1)개 다중 초점 2차원 영상 데이터에 대한 N(N>1)개의 초점거리를 연산하는 초점거리 연산부와, 상기 연산된 N(N>1)개의 초점거리에 반비례하는 N(N>1)개의 깊이값을 연산하는 깊이값 연산부와, N(N>1)개의 깊이값에 따라 N(N>1)개 다중 초점 2차원 영상 데이터를 합성하는 깊이값 영상 합성부와, N(N>1)개 다중 초점 2차원 영상 데이터 중, 영시차(Zero Parallax) 영상 데이터와 양시차(Positive Parallax) 영상 데이터와 음시차(Negative Parallax) 영상 데이터를 확인하고, 상기 확인된 영시차를 기준으로 적어도 하나 이상의 양시차 영상 데이터에 대한 시차각을 기반으로 양시차 방향 픽셀 이동 정보를 확인하고, 상기 확인된 영시차를 기준으로 적어도 하나 이상의 음시차 영상 데이터에 대한 시차각을 기반으로 음시차 방향 픽셀 이동 정보를 확인하는 시차정보 확인부 및 상기 확인된 양시차 방향 픽셀 이동 정보를 적어도 하나 이상의 양시차 영상 데이터에 적용하고, 상기 확인된 음시차 방향 픽셀 이동 정보를 적어도 하나 이상의 음시차 영상 데이터에 적용하여 좌안 영상 데이터와 우안 영상 데이터를 생성하는 좌우 영상 생성부를 구비하는 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치를 제공함에 있다.An object of the present invention for solving the above problems is a focal number determiner for determining N (N> 1) focal positions and focal number for a two-dimensional image, and N for N (N> 1) focal positions. A focus control unit for controlling the multi-focus by (N> 1) focal number, an image acquisition unit for acquiring N (N> 1) multi-focus two-dimensional image data by the focus control, and N (N> 1) A focal length calculator for calculating N (N> 1) focal lengths for the multi-focal two-dimensional image data, and N (N> 1) depth values in inverse proportion to the calculated N (N> 1) focal lengths A depth value calculating unit for calculating a P, a depth value image combining unit for synthesizing N (N> 1) multi-focus two-dimensional image data according to N (N> 1) depth values, and N (N> 1) multiples Of the two-dimensional image data, zero parallax image data, positive parallax image data, and negative parallax image data are identified. Checks pixel direction information in both directions based on the disparity angles of the at least one billax image data based on the identified zero parallax, and disparity the at least one disparity image data based on the identified zero parallax A parallax information confirming unit that verifies the parallax direction pixel movement information based on an angle, and applies the identified bilateral parallax direction pixel movement information to at least one or more parallax image data, and applies the identified parallax direction pixel movement information to at least The present invention provides a three-dimensional stereoscopic image conversion apparatus using a multi-focus two-dimensional image having a left and right image generating unit for generating left eye image data and right eye image data by applying to one or more disparity image data.

본 발명에 따른 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 방법은, 2차원 영상에 대한 N(N>1)개의 초점위치와 초점수를 결정하는 단계와, 상기 결정된 N(N>1)개의 초점위치와 초점수에 대응하는 N(N>1)개 다중 초점 2차원 영상 데이터가 획득되면, 상기 N(N>1)개 다중 초점 2차원 영상 데이터에 대한 N(N>1)개의 초점거리를 연산하는 단계와, 상기 연산된 N(N>1)개의 초점거리에 반비례하는 N(N>1)개의 깊이값을 연산하는 단계와, N(N>1)개의 깊이값에 따라 N(N>1)개 다중 초점 2차원 영상 데이터를 합성하는 단계와, 상기 N(N>1)개 다중 초점 2차원 영상 데이터 중, 영시차(Zero Parallax) 영상 데이터와 양시차(Positive Parallax) 영상 데이터와 음시차(Negative Parallax) 영상 데이터를 확인하고, 상기 확인된 영시차를 기준으로 적어도 하나 이상의 양시차 영상 데이터에 대한 시차각을 기반으로 양시차 방향 픽셀 이동 정보를 확인하고, 상기 확인된 영시차를 기준으로 적어도 하나 이상의 음시차 영상 데이터에 대한 시차각을 기반으로 음시차 방향 픽셀 이동 정보를 확인하는 단계 및 상기 확인된 양시차 방향 픽셀 이동 정보를 적어도 하나 이상의 양시차 영상 데이터에 적용하고, 상기 확인된 음시차 방향 픽셀 이동 정보를 적어도 하나 이상의 음시차 영상 데이터에 적용하여 좌안 영상 데이터와 우안 영상 데이터를 생성하는 단계를 포함하여 이루어지는 것을 특징으로 한다.According to an embodiment of the present invention, a method of converting a 3D stereoscopic image using a multifocal 2D image includes determining N (N> 1) focal positions and a number of focal points for a 2D image, and determining the determined N (N> 1). When N (N> 1) multi-focus two-dimensional image data corresponding to three focal positions and the number of foci are acquired, N (N> 1) focal points for the N (N> 1) multi-focus two-dimensional image data Calculating a distance; calculating N (N> 1) depth values in inverse proportion to the calculated N (N> 1) focal lengths; and N (N> 1) depth values according to N (N> 1) depth values. N> 1) synthesizing the multi-focus two-dimensional image data, and among the N (N> 1) multi-focus two-dimensional image data, zero parallax image data and positive parallax image data And negative parallax image data, and at least one positive parallax image data based on the identified zero parallax. Confirming the bilateral parallax direction pixel movement information on the basis of the difference, and identifying the parallax direction pixel movement information based on the parallax angle for at least one parallax image data based on the identified zero parallax; Generating left eye image data and right eye image data by applying the bilateral parallax direction pixel shift information to at least one positive parallax image data, and applying the identified parallax direction pixel shift information to the at least one parallax image data; It is characterized by comprising.

본 발명에 따른 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 방법은, 상기 결정된 N(N>1)개의 초점위치와 초점수에 대응하는 N(N>1)개 다중 초점 2차원 영상 데이터가 획득되면, 상기 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 기 설정된 변환 크기(또는 해상도)로 변환하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.In the 3D stereoscopic image conversion method using the multifocal 2D image according to the present invention, the N (N> 1) multifocal 2D image data corresponding to the determined N (N> 1) focal positions and the number of focal points The method may further include converting the size (or resolution) of the N (N> 1) two-dimensional image data into a preset conversion size (or resolution).

본 발명에 따른 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 방법은, N(N>1)개의 2차원 영상 데이터의 초점위치가 시선방향에 따라 정렬되도록 중첩하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.The three-dimensional stereoscopic image conversion method using the multi-focus two-dimensional image according to the present invention, further comprising the step of overlapping so that the focal position of the N (N> 1) two-dimensional image data aligned in accordance with the line of sight direction It is done.

본 발명에 따른 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 방법은, 상기 좌안 영상 데이터와 우안 영상 데이터에 대응하는 시차각 정보와 초점거리 정보를 기반으로 상기 좌우 영상 데이터에 대한 수평 방향 왜곡을 수정하는 축소비율을 산출하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.In the 3D stereoscopic image conversion method using the multifocal 2D image according to the present invention, the horizontal distortion of the left and right image data is corrected based on the disparity angle information and the focal length information corresponding to the left eye image data and the right eye image data. Comprising the step of calculating the reduction ratio to be corrected.

한편, 상기 전술한 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 방법을 실행하는 프로그램을 기록한 기록매체를 포함한다.On the other hand, it includes a recording medium recording a program for executing the three-dimensional stereoscopic image conversion method using the above-described multi-focus two-dimensional image.

한편, 본 발명에 따른 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치는, 2차원 영상에 대한 N(N>1)개의 초점위치와 초점수를 결정하는 초점수 결정 부와, N(N>1)개의 초점위치에 대하여 N(N>1)개의 초점수만큼 다중 초점을 제어하는 초점 제어부와, 상기 초점제어에 의해 N(N>1)개 다중 초점 2차원 영상 데이터를 획득하는 영상 획득부와, N(N>1)개 다중 초점 2차원 영상 데이터에 대한 N(N>1)개의 초점거리를 연산하는 초점거리 연산부와, 상기 연산된 N(N>1)개의 초점거리에 반비례하는 N(N>1)개의 깊이값을 연산하는 깊이값 연산부와, N(N>1)개의 깊이값에 따라 N(N>1)개 다중 초점 2차원 영상 데이터를 합성하는 깊이값 영상 합성부와, N(N>1)개 다중 초점 2차원 영상 데이터 중, 영시차(Zero Parallax) 영상 데이터와 양시차(Positive Parallax) 영상 데이터와 음시차(Negative Parallax) 영상 데이터를 확인하고, 상기 확인된 영시차를 기준으로 적어도 하나 이상의 양시차 영상 데이터에 대한 시차각을 기반으로 양시차 방향 픽셀 이동 정보를 확인하고, 상기 확인된 영시차를 기준으로 적어도 하나 이상의 음시차 영상 데이터에 대한 시차각을 기반으로 음시차 방향 픽셀 이동 정보를 확인하는 시차정보 확인부 및 상기 확인된 양시차 방향 픽셀 이동 정보를 적어도 하나 이상의 양시차 영상 데이터에 적용하고, 상기 확인된 음시차 방향 픽셀 이동 정보를 적어도 하나 이상의 음시차 영상 데이터에 적용하여 좌안 영상 데이터와 우안 영상 데이터를 생성하는 좌우 영상 생성부를 구비하여 이루어지는 것을 특징으로 한다.On the other hand, the three-dimensional stereoscopic image conversion apparatus using a multi-focus two-dimensional image according to the present invention, the focus number determination unit for determining the N (N> 1) focus positions and the number of focus for the two-dimensional image, N (N A focus control unit for controlling multiple focuses by N (N> 1) focal points for> 1) focal positions, and image acquisition for acquiring N (N> 1) multi-focus two-dimensional image data by the focus control And a focal length calculator for calculating N (N> 1) focal lengths for N (N> 1) multi-focal two-dimensional image data, and inversely proportional to the calculated focal lengths of N (N> 1). A depth value calculating unit for calculating N (N> 1) depth values, a depth value image combining unit for synthesizing N (N> 1) multi-focus two-dimensional image data according to N (N> 1) depth values, and Zero parallax image data, positive parallax image data, and negative parallax among N (N> 1) multi-focus 2D image data Parallax) checks the image data, and checks the bi-parallel direction pixel movement information based on the disparity angles for at least one bi-division image data based on the identified zero parallax, and at least one on the basis of the identified zero parallax The parallax information confirming unit which checks the parallax direction pixel movement information based on the parallax angle with respect to the parallax image data above, and applies the identified bilateral parallax direction pixel movement information to at least one or more parallax image data. And a left and right image generating unit generating left eye image data and right eye image data by applying the disparity direction pixel shift information to at least one disparity image data.

본 발명에 따른 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치는, 상기 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 기 설정된 변환 크기(또는 해상도)로 변환하는 입력영상 축소부를 더 구비하여 이루어지는 것을 특징 으로 한다.A three-dimensional stereoscopic image conversion apparatus using a multi-focus two-dimensional image according to the present invention, the input for converting the size (or resolution) of the N (N> 1) two-dimensional image data to a preset conversion size (or resolution) Characterized in that it further comprises an image reduction unit.

본 발명에 따른 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치는, N(N>1)개의 2차원 영상 데이터의 초점위치가 시선방향에 따라 정렬되도록 중첩하는 초점중첩 처리부를 더 구비하여 이루어지는 것을 특징으로 한다.The three-dimensional stereoscopic image converting apparatus using the multi-focus two-dimensional image according to the present invention further comprises a focus overlapping processing unit which overlaps so that the focal positions of N (N> 1) two-dimensional image data are aligned along the line of sight. It is characterized by.

본 발명에 따른 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치는, 상기 좌안 영상 데이터와 우안 영상 데이터에 대응하는 시차각 정보와 초점거리 정보를 기반으로 상기 좌우 영상 데이터에 대한 수평 방향 왜곡을 수정하는 축소비율을 산출하는 축소비율 산출부를 더 구비하여 이루어지는 것을 특징으로 한다.According to an embodiment of the present invention, a 3D stereoscopic image conversion apparatus using a multifocal 2D image includes horizontal distortion of the left and right image data based on disparity angle information and focal length information corresponding to the left eye image data and the right eye image data. A reduction ratio calculation unit for calculating a reduction ratio to be corrected is further provided.

본 발명에 따른 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치에 있어서, 상기 초점수 결정부는, 2차원 영상 데이터에 포함된 N(N>1)개의 객체에 대한 패턴 인식(또는 이미지 인식)을 통해 상기 2차원 영상 데이터에 N(N>1)개의 객체-사람, 동물, 물건과 같이 배경(또는 다른 객체)와 구분되는 경계를 포함하는 피사체-가 포함되어 있는지 확인하고, 상기 확인결과 N(N>1)개의 객체가 확인되면, 상기 확인된 객체의 중심위치를 N(N>1)개의 초점위치로 결정하고, 상기 확인결과 객체가 확인되지 않으면, 상기 2차원 영상 데이터를 상하 방향(또는 좌우 방향, 또는 격자 방향)으로 N(N>1)개의 초점영역으로 구분하고, 상기 구분된 초점영역의 중 심위치를 N(N>1)개의 초점위치로 결정하는 것을 특징으로 한다.In the three-dimensional stereoscopic image conversion apparatus using a multi-focus two-dimensional image according to the present invention, the focus number determiner, pattern recognition (or image recognition) for N (N> 1) objects included in the two-dimensional image data Check whether the 2D image data includes N (N> 1) objects-a subject including a boundary distinct from a background (or other object) such as a person, an animal, or an object. If (N> 1) objects are identified, the center position of the identified object is determined as N (N> 1) focal positions. If the object is not confirmed as the result of the checking, the 2D image data is determined in a vertical direction ( Or in the left-right direction or the lattice direction), and divide the focus points into N (N> 1) focus regions, and determine the center positions of the divided focus regions as N (N> 1) focus positions.

이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다. 또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Hereinafter, with reference to the accompanying drawings and description will be described in detail the operating principle of the preferred embodiment of the present invention. However, the drawings and the following description shown below are for the preferred method among various methods for effectively explaining the features of the present invention, the present invention is not limited only to the drawings and description below. In addition, in the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. Terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to intentions or customs of users or operators. Therefore, the definition should be made based on the contents throughout the present invention.

또한, 이하 실시되는 본 발명의 바람직한 실시예는 본 발명을 이루는 기술적 구성요소를 효율적으로 설명하기 위해 각각의 시스템 기능구성에 기 구비되어 있거나, 또는 본 발명이 속하는 기술분야에서 통상적으로 구비되는 시스템 기능구성은 가능한 생략하고, 본 발명을 위해 추가적으로 구비되어야 하는 기능구성을 위주로 설명한다. 만약 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면, 하기에 도시하지 않고 생략된 기능구성 중에서 종래에 기 사용되고 있는 구성요소의 기능을 용이하게 이해할 수 있을 것이며, 또한 상기와 같이 생략된 구성요소와 본 발 명을 위해 추가된 구성요소 사이의 관계도 명백하게 이해할 수 있을 것이다. In addition, preferred embodiments of the present invention to be carried out below are provided in each system functional configuration to efficiently describe the technical components constituting the present invention, or system functions that are commonly provided in the technical field to which the present invention belongs. The configuration will be omitted, and described mainly on the functional configuration to be additionally provided for the present invention. If those skilled in the art to which the present invention pertains, it will be able to easily understand the function of the components that are conventionally used among the omitted functional configuration not shown below, and also the configuration omitted as described above The relationship between the elements and the components added for the present invention will also be clearly understood.

또한, 이하 실시예는 본 발명의 핵심적인 기술적 특징을 효율적으로 설명하기 위해 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 명백하게 이해할 수 있도록 용어를 적절하게 변형, 또는 통합, 또는 분리하여 사용할 것이나, 이에 의해 본 발명이 한정되는 것은 결코 아니다. In addition, the following examples will be used to appropriately modify, integrate, or separate the terminology so that those skilled in the art to which the present invention pertains may clearly understand the present invention. The present invention is by no means limited thereto.

결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.As a result, the technical spirit of the present invention is determined by the claims, and the following examples are one means for efficiently explaining the technical spirit of the present invention to those skilled in the art to which the present invention pertains. It is only.

도면1는 본 발명의 실시 방법에 따라 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치 구성을 도시한 도면이다.1 is a diagram showing the configuration of a three-dimensional stereoscopic image conversion apparatus using a multi-focus two-dimensional image according to an embodiment of the present invention.

보다 상세하게 본 도면1는 자동초점 제어 기능을 구비한 디지털 카메라(또는 비디오 카메라)에 있어서, 동일한 피사체에 대하여 서로 다른 초점거리를 갖는 복수개의 2차원 영상을 촬영하고, 상기 촬영된 복수개의 2차원 영상에 대한 초점거리와 깊이값을 기반으로 좌안과 우안에 대응하는 좌/우 영상을 생성하여 3차원 입체 영상으로 변환하는 장치 구성에 대한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면1를 참조 및/또는 변형하여 상기 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치 구성에 대한 다양한 실시 방법을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면1에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, in FIG. 1, in a digital camera (or video camera) having an autofocus control function, a plurality of two-dimensional images having different focal lengths are photographed with respect to the same subject, and the plurality of photographed two-dimensional images are taken. A device configuration for generating left and right images corresponding to left and right eyes and converting them into 3D stereoscopic images based on a focal length and depth value for the image, and having a general knowledge in the art. If it is possible to infer various implementation methods for constructing a 3D stereoscopic image conversion apparatus using the multi-focus 2D image by referring to and / or modifying the drawing 1, the present invention includes all the inferred implementation methods. It is made by, and the technical features are not limited only to the implementation method shown in FIG.

예컨대, 본 도면1에 도시된 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치 실시예는 하나의 렌즈로 2차원 영상을 촬영하며, 상기 2차원 영상에 대한 자동초점 제어 기능을 구비한 디지털 카메라(또는 비디오 카메라)에 구비되는 것으로 도시하여 설명하지만, 상기 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치가 본 도면1에 도시된 실시예로 한정되는 것은 아니며, 당업자의 의도에 따라 상기 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치는 상기 디지털 카메라(또는 비디오 카메라)와 연결된 외부 장치 형태로 구현되거나, 또는 상기 디지털 카메라(또는 비디오 카메라)와 통신망을 통해 연결된 장치(또는 서버) 형태로 구현되는 것이 모두 가능하며, 이에 의해 본 발명이 한정되지 아니함을 명백하게 밝혀두는 바이다.For example, an embodiment of a 3D stereoscopic image converting apparatus using a multifocal 2D image shown in FIG. 1 captures a 2D image with a single lens and has a digital camera having an autofocus control function for the 2D image. (Or a video camera), it will be described as being provided, but the three-dimensional stereoscopic image conversion apparatus using the multi-focus two-dimensional image is not limited to the embodiment shown in FIG. The 3D stereoscopic image converting apparatus using the focus 2D image may be implemented in the form of an external device connected to the digital camera (or video camera), or in the form of a device (or server) connected to the digital camera (or video camera) through a communication network. It is to be understood that the present invention is not limited to this, it is possible to implement both.

일반적으로 하나의 렌즈로 2차원 영상을 촬영하는 디지털 카메라(또는 비디오 카메라)는, 상기 디지털 카메라(또는 비디오 카메라)를 동작을 제어하거나, 또는 상기 디지털 카메라(또는 비디오 카메라)를 통해 2차원 영상을 촬영하기 위한 키 데이터를 발생시키는 키 입력부(175)와, 상기 2차원 영상을 촬영하기 위한 키 데이터에 대응하여 하나의 렌즈를 통해 피사체에 대한 2차원 영상을 촬영하는 영상 촬영부(150)와, CCD(Charge Coupled Device)를 통해 상기 영상 촬영부(150)가 촬영한 2차원 영상에 대응하는 2차원 영상 데이터를 획득하는 영상 획득부(165)와, 상기 디지털 카메라(또는 비디오 카메라)에 대한 각종 제어 화면, 또는 상기 영상 획득부(165)를 통해 획득된 2차원 영상 데이터를 출력하는 화면 출력부(180)와, 상기 촬영된 2차원 영상 데이터를 저장하는 저장매체(183)를 구비하여 이루어지는 것을 특징으로 하며, 상기 2차원 영상에 대한 자동초점 기능을 제어하는 초점 제어부(155)를 더 구비하여 이루어지는 것을 특징으로 한다.In general, a digital camera (or video camera) for photographing a two-dimensional image with one lens controls an operation of the digital camera (or a video camera), or a two-dimensional image is captured through the digital camera (or a video camera). A key input unit 175 for generating key data for photographing, an image capturing unit 150 for photographing a 2D image of a subject through a single lens corresponding to the key data for capturing the 2D image, Image acquisition unit 165 for acquiring 2D image data corresponding to a 2D image captured by the image capturing unit 150 through a charge coupled device (CCD), and various types of digital cameras (or video cameras). A screen output unit 180 for outputting 2D image data acquired through a control screen or the image acquisition unit 165, and a low storing image 2D image data. It characterized in that obtained by having a medium (183), and further characterized in that comprising the further focus control unit 155 for controlling the auto focus function of the 2-D image.

본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 자동초점 기능을 통해 2차원 영상을 촬영하는 상기 디지털 카메라(또는 비디오 카메라) 구성에 대한 기술적 특징을 기 숙지하고 있을 것이므로, 이에 대한 상세한 설명은 편의상 생략한다.Those skilled in the art will be familiar with the technical features of the digital camera (or video camera) configuration to shoot a two-dimensional image through the autofocus function, detailed description thereof Is omitted for convenience.

본 발명에 따르면, 상기 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위해 상기 영상 촬영부(150)는 고속 촬영 기능을 구비하여 이루어지는 것을 특징으로 하며, 상기 영상 획득부(165)의 CCD 감도는 상기 고속 촬영에 용이하도록 높은 것을 특징으로 하며, 상기 초점 제어부(155)는 상기 고속 촬영에 용이하도록 상기 영상 촬영부(150)의 초점을 고속으로 제어하는 것을 특징으로 한다.According to the present invention, the image capturing unit 150 has a high speed photographing function for converting a 3D stereoscopic image using the multi-focus 2D image, and the CCD sensitivity of the image capturing unit 165 is provided. It is characterized in that the high to facilitate the high-speed shooting, the focus control unit 155 is characterized in that for controlling the focus of the image capture unit 150 at a high speed to facilitate the high-speed shooting.

도면1를 참조하면, 상기 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변 환 장치는, 상기 영상 촬영부(150)에 의해 촬영되어, 상기 영상 획득부(165)를 통해 획득되는 미리보기 영상 데이터를 판독하여 상기 영상 촬영부(150)를 통해 촬영되는 피사체에 대한 적어도 하나 이상의 초점위치 정보와 초점수 정보를 결정하는 초점정보 결정부(160)와, 상기 결정된 초점수에 따라 상기 결정된 초점위치를 자동으로 초점하도록 제어하는 초점 제어부(155)와, 상기 초점 제어부(155)의 제어에 따라 상기 피사체의 초점위치를 상기 초점수 만큼 자동 초점하여 복수개의 다중 초점 2차원 영상을 촬영하는 영상 촬영부(150)와, 상기 영상 촬영부(150)에 의해 촬영된 다중 초점 2차원 영상에 대응하는 복수개의 다중 초점 2차원 영상 데이터를 획득하는 영상 획득부(165)를 구비하여 이루어지는 것을 특징으로 하며, 당업자의 의도에 따라 상기 촬영된 복수개의 다중 초점 2차원 영상 데이터를 저장매체(183)에 저장하는 원시 영상 저장부(170)를 더 구비하여 이루어진 2D 영상 촬영 모듈(145)을 포함하여 이루어지는 것을 특징으로 한다.Referring to FIG. 1, the 3D stereoscopic image converting apparatus using the multi-focus 2D image is captured by the image capturing unit 150, and the preview image data obtained by the image capturing unit 165. A focus information determination unit 160 for determining at least one or more focus position information and focus number information of the subject photographed by the image capturing unit 150 and reading the determined focus position according to the determined focus number; A focus controller 155 which controls to focus automatically, and an image photographing unit which photographs a plurality of multi-focus two-dimensional images by automatically focusing the focus position of the subject by the number of the focal points under the control of the focus controller 155 ( 150 and an image acquisition unit 165 for acquiring a plurality of multi-focus two-dimensional image data corresponding to the multi-focus two-dimensional image photographed by the image capturing unit 150. 2D image capturing module 145 further comprising a raw image storage unit 170 for storing the plurality of multi-focus two-dimensional image data photographed in the storage medium 183 according to the intention of the skilled person. It is characterized by comprising a).

상기 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 기능이 구비되는 디지털 카메라(또는 비디오 카메라)는, 상기 영상 촬영부(150)를 통해 하나의 렌즈로 피사체를 촬영하고, 상기 영상 획득부(165)를 통해 상기 촬영된 2차원 영상에 대한 미리보기 영상 데이터를 획득하는데, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터를 판독하여 상기 영상 촬영부(150)를 통해 촬영되는 피사체에 대한 N(N>1)개의 초점위치 정보를 결정하고, 상기 초점위치 개수를 상기 피사체에 대한 초점수 정보로 결정하는 것을 특징으로 한다.A digital camera (or video camera) equipped with a 3D stereoscopic image conversion function using the multifocal 2D image captures a subject with one lens through the image capturing unit 150, and the image capturing unit 165. ) To obtain preview image data of the photographed 2D image, wherein the focus information determiner 160 reads the preview image data to obtain an image of the subject photographed through the image photographing unit 150. N (N> 1) pieces of focal position information are determined, and the number of focal positions is determined as focal number information for the subject.

상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터에 N(N>1)개의 객체(예컨대, 사람, 동물, 물건과 같이 배경(또는 다른 객체)와 구분되는 경계를 포함하는 피사체)가 포함되어 있는지 확인하는 것을 특징으로 한다.The focus information determiner 160 includes N (N> 1) objects (eg, a subject including a boundary distinct from a background (or another object) such as a person, an animal, or an object) in the preview image data. It is characterized by checking whether there is.

본 발명의 일 실시 방법에 따르면, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터에 포함된 N(N>1)개의 객체를 패턴 인식(또는 이미지 인식)을 통해 자동 인식하는 것이 바람직하다.According to an exemplary embodiment of the present invention, the focus information determiner 160 automatically recognizes N (N> 1) objects included in the preview image data through pattern recognition (or image recognition). .

본 발명의 다른 일 실시 방법에 따르면, 상기 초점정보 결정부(160)는 상기 키 입력부(175)와 연계하여 상기 미리보기 영상 데이터에 포함된 N(N>1)개의 객체를 수동으로 선택하는 것이 가능하며, 이에 의해 본 발명이 한정되지 아니한다.According to another exemplary embodiment of the present invention, the focus information determiner 160 manually selects N (N> 1) objects included in the preview image data in association with the key input unit 175. It is possible, and the invention is not limited thereby.

만약 상기 미리보기 영상 데이터 내에 N(N>1)개의 객체가 포함된 경우, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터 내에 포함된 N(N>1)개의 객체의 중심위치를 N(N>1)개의 초점위치로 결정하는 것을 특징으로 하며, 상기 N(N>1)개의 초점위치 개수를 N(N>1)개의 초점수로 결정하는 것을 특징으로 한다.If N (N> 1) objects are included in the preview image data, the focus information determiner 160 sets N center positions of N (N> 1) objects included in the preview image data. And (N> 1) focal positions, wherein the number of N (N> 1) focal positions is determined as N (N> 1) focal positions.

본 발명의 실시 방법에 따르면, 상기 N(N>1)개의 초점수 정보는 상기 영상 촬영부(150)가 단위시간(예컨대, 50ms 등) 동안 촬영 가능한 최대 촬영수, 또는 상 기 초점 제어부(155)가 단위시간 동안 상기 영상 촬영부(150)의 초점을 제어할 수 있는 최대 제어횟수, 또는 상기 영상 획득부(165)가 단위시간 동안 상기 영상 촬영부(150)로부터 2차원 영상 데이터를 획득할 수 있는 최대 영상 데이터 획득수를 적어도 하나 이상 포함하는 한도 초점수 보다 작게 설정되는 것이 바람직하다.According to the exemplary embodiment of the present invention, the N (N> 1) pieces of focal number information may include the maximum number of shots that the image capturing unit 150 can take for a unit time (eg, 50 ms, etc.) or the focus control unit 155. ) Can control the focus of the image capturing unit 150 for a unit time, or the image obtaining unit 165 can acquire 2D image data from the image capturing unit 150 for a unit time. It is preferable to set smaller than the limit focal number including at least one of the maximum number of image data acquisition possible.

본 발명의 일 실시 방법에 따라 상기 미리보기 영상 데이터 내에 포함된 초점위치 개수(또는 초점수)가 상기 한도 초점수보다 많은 경우, 상기 초점정보 촬영부는 상기 미리보기 영상 데이터에 포함된 객체 중에서 상기 미리보기 영상 데이터의 중심위치(또는 상단, 또는 하단, 또는 좌측, 또는 우측)에 있는 객체 중 상기 한도 초점수 이내의 객체에 대한 N(N>1)개의 초점위치를 결정하는 것이 바람직하다.According to an exemplary embodiment of the present disclosure, when the number of focus positions (or the number of focal points) included in the preview image data is greater than the limit focal number, the focus information photographing unit may include the preview image among the objects included in the preview image data. It is preferable to determine N (N> 1) focal positions for objects within the above limit focal number among objects at the center position (or top, bottom, left, or right) of the viewing image data.

본 발명의 다른 일 실시 방법에 따라 상기 미리보기 영상 데이터 내에 포함된 초점위치 개수(또는 초점수)가 상기 한도 초점수보다 적은 경우, 상기 초점정보 촬영부는 상기 미리보기 영상 데이터에 포함된 N(N>1)개의 객체에 대한 N(N>1)개의 초점위치를 결정하는 것이 바람직하다.According to another exemplary embodiment of the present invention, when the number of focus positions (or the number of focus points) included in the preview image data is less than the limit focus number, the focus information photographing unit includes N (N) included in the preview image data. It is desirable to determine N (N> 1) focal positions for> 1) objects.

반면 상기 미리보기 영상 데이터 내에 식별 가능한 객체가 포함되지 않은 경우(예컨대, 하늘, 수평선, 산악지형이 없는 평야 등), 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터를 N(N>1)개의 초점영역으로 구분하고, N(N>1)개 초 점영역의 중심위치를 N(N>1)개의 초점위치로 결정하는 것을 특징으로 하며, 상기 N(N>1)개의 초점위치 개수를 N(N>1)개의 초점수로 결정하는 것을 특징으로 한다.On the other hand, when the identifiable object is not included in the preview image data (for example, a sky, a horizon, a plain without a mountainous terrain, etc.), the focus information determiner 160 stores the preview image data by N (N> 1). N) (N> 1) focus area, and the center of the N (N> 1) focus area is determined as N (N> 1) focus position, the number of N (N> 1) focus position Is determined as N (N> 1) focal number.

본 발명의 실시 방법에 따르면, 상기 N(N>1)개의 초점수 정보는 상기 영상 촬영부(150)가 단위시간 동안 촬영 가능한 최대 촬영수, 또는 상기 초점 제어부(155)가 단위시간 동안 상기 영상 촬영부(150)의 초점을 제어할 수 있는 최대 제어횟수, 또는 상기 영상 획득부(165)가 단위시간 동안 상기 영상 촬영부(150)로부터 2차원 영상 데이터를 획득할 수 있는 최대 영상 데이터 획득수를 적어도 하나 이상 포함하는 한도 초점수 보다 작게 설정되는 것이 바람직하다.According to the exemplary embodiment of the present invention, the N (N> 1) pieces of focal number information may include the maximum number of shots that the image capturing unit 150 can capture for a unit time, or the focus control unit 155 captures the image for a unit time. Maximum number of control times for controlling the focus of the photographing unit 150 or maximum number of image data acquisition units for obtaining the 2D image data from the image photographing unit 150 by the image obtaining unit 165 for a unit time. It is preferably set smaller than the limit focal number including at least one.

본 발명의 일 실시 방법에 따르면, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터를 상하 방향으로 N(N>1)개의 초점영역으로 구분하고, 상기와 같이 상하 방향으로 구분된 N(N>1)개 초점영역의 중심위치를 N(N>1)개의 초점위치로 결정하는 것이 바람직하다.According to the exemplary embodiment of the present invention, the focus information determiner 160 divides the preview image data into N (N> 1) focal regions in the vertical direction, and N ( It is preferable to determine the center position of N> 1) focal regions as N (N> 1) focal positions.

본 발명의 다른 일 실시 방법에 따르면, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터를 좌우 방향으로 N(N>1)개의 초점영역으로 구분하고, 상기와 같이 좌우 방향으로 구분된 N(N>1)개 초점영역의 중심위치를 N(N>1)개의 초점위치로 결정하는 것이 바람직하다.According to another exemplary embodiment of the present invention, the focus information determiner 160 divides the preview image data into N (N> 1) focal regions in the left and right directions, and the N divided in the left and right directions as described above. It is preferable to determine the center positions of the (N> 1) focal regions as N (N> 1) focal positions.

본 발명의 또다른 일 실시 방법에 따르면, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터를 격자 모양에 따라 N(N>1)개의 초점영역으로 구분하고, 상기와 같이 격자 모양으로 구분된 N(N>1)개 초점영역의 중심위치를 N(N>1)개의 초점위치로 결정하는 것이 바람직하다.According to another exemplary embodiment of the present invention, the focus information determiner 160 divides the preview image data into N (N> 1) focal regions according to a grid shape, and divides the preview image data into a grid shape as described above. It is preferable to determine the center position of the N (N> 1) focusing areas as N (N> 1) focusing positions.

상기 초점정보 결정부(160)에 의해 상기 N(N>1)개의 초점위치 정보와 N(N>1)개의 초점수가 결정되면, 상기 초점 제어부(155)는 상기 영상 촬영부(150)의 초점을 상기 N(N>1)개의 초점위치 중, 제1 초점위치에 자동 초점하도록 제어하는 것을 특징으로 하며, 상기 영상 촬영부(150)는 상기 제1 초점위치에 대한 2차원 영상을 촬영하는 것을 특징으로 하며, 상기 영상 획득부(165)는 상기 제1 2차원 영상에 대응하는 제1 2차원 영상 데이터를 획득하는 것을 특징으로 한다.When the N (N> 1) focal position information and the N (N> 1) focal number are determined by the focus information determiner 160, the focus controller 155 may focus on the image capturing unit 150. It characterized in that the control to auto-focus to the first focusing position of the N (N> 1) of the focusing position, the image capture unit 150 is to take a two-dimensional image of the first focusing position The image acquisition unit 165 may obtain first two-dimensional image data corresponding to the first two-dimensional image.

이후, 상기 초점 제어부(155)는 상기 영상 촬영부(150)의 초점을 상기 N(N>1)개의 초점위치 중, 제n(n=2,3,...,N) 초점위치에 자동 초점하도록 제어하는 것을 특징으로 하며, 상기 영상 촬영부(150)는 상기 제n(n=2,3,...,N) 초점위치에 대한 2차원 영상을 촬영하는 것을 특징으로 하며, 상기 영상 획득부(165)는 상기 제n(n=2,3,...,N) 2차원 영상에 대응하는 제n(n=2,3,...,N) 2차원 영상 데이터를 획득하는 것을 특징으로 한다.Thereafter, the focus controller 155 automatically focuses the image capturing unit 150 to the nth (n = 2, 3, ..., N) focusing positions among the N (N> 1) focusing positions. It characterized in that the control to focus, the image capturing unit 150 is characterized in that for taking a two-dimensional image of the n (n = 2, 3, ..., N) focus position, the image The obtaining unit 165 acquires n (n = 2,3, ..., N) 2D image data corresponding to the n (n = 2,3, ..., N) 2D image. It is characterized by.

본 발명에 따르면, 상기 초점 제어부(155)는 상기 제1 내지 제 n(n=2,3,...,N) 초점위치를 자동 초점하도록 제어하는 동안, 상기 제1 내지 제n(n=2,3,...,N) 초점위치에 대한 초점제어 정보를 생성하는 것을 특징으로 하며, 상기 초점제어 정보는 상기 제1 내지 제n(n=2,3,...,N) 초점위치를 자동 초점하기 위한 렌즈 이격거리 정보와, 상기 이격된 렌즈의 굴절율 정보(또는 배율 정보)를 포함하여 이루어지는 것을 특징으로 한다.According to the present invention, the focus control unit 155 controls the first to nth (n = 2,3, ..., N) focus positions to be autofocused, while the first to nth (n = 2, 3, ..., N) focus control information for the focus position is generated, wherein the focus control information is the first to n th (n = 2, 3, ..., N) focus And lens separation distance information for autofocusing a position, and refractive index information (or magnification information) of the spaced lens.

본 발명의 일 실시 방법에 따라 상기 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치가 디지털 카메라에 구비된 경우, 상기 초점정보 결정부(160)에 의해 결정된 N(N>1)개의 초점위치 정보와 N(N>1)개의 초점수에 따라 상기 초점 제어부(155)가 자동 초점을 N(N>1)회 제어하고, 상기 영상 촬영부(150)가 상기 자동 초점 제어에 따라 N(N>1)개의 2차원 영상을 촬영하고, 상기 영상 획득부(165)가 상기 촬영된 N(N>1)개의 2차원 영상에 대응하는 N(N>1)개의 2차원 영상 데이터를 획득하는 다중 초점 2차원 영상 데이터 획득 주기는 단위시간 동안 1회 수행되는 것이 바람직하다.According to an exemplary embodiment of the present invention, when the digital camera is provided with a 3D stereoscopic image converting apparatus using the multifocal 2D image, N (N> 1) focal positions determined by the focus information determiner 160 The focus control unit 155 controls the auto focus N (N> 1) times according to the information and the number of N (N> 1) focal points, and the image capturing unit 150 controls the N (N) according to the autofocus control. > 1) two-dimensional images, and the image acquisition unit 165 acquires N (N> 1) two-dimensional image data corresponding to the photographed N (N> 1) two-dimensional images The focal two-dimensional image data acquisition cycle is preferably performed once for a unit time.

본 발명의 다른 일 실시 방법에 따라 상기 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치가 비디오 카메라에 구비된 경우, 상기 초점정보 결정부(160)에 의해 결정된 N(N>1)개의 초점위치 정보와 N(N>1)개의 초점수에 따라 상기 초점 제어부(155)가 자동 초점을 N(N>1)회 제어하고, 상기 영상 촬영부(150)가 상기 자동 초점 제어에 따라 N(N>1)개의 2차원 영상을 촬영하고, 상기 영상 획득 부(165)가 상기 촬영된 N(N>1)개의 2차원 영상에 대응하는 N(N>1)개의 2차원 영상 데이터를 획득하는 다중 초점 2차원 영상 데이터 획득 주기는 상기 비디오 카메라의 초당 프레임수 만큼 반복되는 것이 바람직하다.According to another exemplary embodiment of the present invention, when a 3D stereoscopic image conversion apparatus using the multifocal 2D image is provided in a video camera, N (N> 1) focal points determined by the focus information determiner 160 are provided. The focus controller 155 controls the autofocus N (N> 1) times according to the position information and the number of N (N> 1) focal points, and the image capturing unit 150 controls the N (N (N> 1)) according to the autofocus control. N> 1) two-dimensional images are captured, and the image acquisition unit 165 acquires N (N> 1) two-dimensional image data corresponding to the photographed N (N> 1) two-dimensional images. The multi-focus two-dimensional image data acquisition period is preferably repeated by the number of frames per second of the video camera.

예컨대, 상기 비디오 카메라가 초당 15프레임을 촬영한다면, 상기 다중 초점 2차원 영상 데이터 획득 주기는 초당 15회 반복되는 것이 바람직하며, 이 때 상기 초점정보 결정부(160)에 의해 결정된 초점수가 4개라면, 상기 초점 제어부(155)는 초당 60회 자동 초점을 제어하고, 상기 영상 촬영부(150)는 초당 60회의 2차원 영상을 촬영하고, 상기 영상 획득부(165)는 초당 60회의 2차원 영상 데이터를 획득하게 된다.For example, if the video camera captures 15 frames per second, the multi-focus two-dimensional image data acquisition cycle is preferably repeated 15 times per second, and if the number of focal points determined by the focus information determiner 160 is four The focus control unit 155 controls autofocus 60 times per second, the image capturing unit 150 captures 60 2D images per second, and the image obtaining unit 165 performs 60 2D image data per second. Will be obtained.

상기 영상 획득부(165)를 통해 획득된 복수개의 다중 초점 2차원 영상 데이터를 실시간 3차원 입체 영상 데이터로 변환하지 않는 경우, 상기 원시 영상 저장부(170)는 하나의 다중 초점 2차원 영상 데이터 획득 주기 동안 획득된 N(N>1)개의 2차원 영상 데이터와, 각 2차원 영상 데이터에 대한 초점위치 정보와, 초점제어 정보를 연계하여 이루어진 다중 초점 2차원 영상 데이터 파일을 저장매체(183)에 저장하는 것을 특징으로 하며, 이후 상기 저장매체(183)에 저장된 다중 초점 2차원 영상 데이터는 영상 변환 모듈(100)을 통해 3차원 입체 영상 데이터로 변환된다.When the plurality of multi-focus 2D image data acquired through the image acquisition unit 165 is not converted into real-time 3D stereoscopic image data, the raw image storage unit 170 acquires one multi-focus 2D image data. The storage medium 183 stores N (N> 1) two-dimensional image data acquired during the cycle, the focal position information for each two-dimensional image data, and the focus control information in association with the multi-focus two-dimensional image data file. The multifocal 2D image data stored in the storage medium 183 is converted into 3D stereoscopic image data through the image conversion module 100.

도면1를 참조하면, 상기 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변 환 장치는, 상기 2D 영상 촬영 모듈(145)을 통해 촬영된 N(N>1)개의 2차원 영상 데이터를 축소하는 입력영상 축소부(105)와, 상기 N(N>1)개의 2차원 영상 데이터에 대한 초점제어 정보를 기반으로 상기 N(N>1)개의 2차원 영상 데이터에 대한 초점거리를 연산하는 초점거리 연산부(110)와, N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)가 시선방향에 따라 정렬되도록 중첩하는 초점중첩 처리부(115)와, N(N>1)개의 2차원 영상 데이터에 대한 초점거리에 반비례하여 N(N>1)개의 2차원 영상 데이터에 대한 깊이값을 연산하는 깊이값 연산부(120)와, 초점이 중첩된 N(N>1)개의 2차원 영상 데이터를 상기 깊이값에 따라 합성하는 깊이값 영상 합성부(125)와, 상기 초점거리와 깊이값을 기반으로 좌안과 우안에 대응하는 시차처리 정보를 확인하는 시차정보 확인부와, 상기 시차 정보에 따라 상기 합성된 2차원 영상 데이터에 시차를 처리하여 좌안 영상 데이터와 우안 영상 데이터를 생성하는 좌우 영상 생성부(140)를 구비하여 이루어지는 것을 특징으로 하며, 상기 좌우 영상 데이터에 대한 수평 방향 왜곡을 수정하는 축소비율을 산출하는 축소비율 산출부(130)를 더 구비하여 이루어진 영상 변환 모듈(100)을 포함하여 이루어지는 것을 특징으로 한다.Referring to FIG. 1, the 3D stereoscopic image converting apparatus using the multifocal 2D image is an input for reducing N (N> 1) 2D image data captured by the 2D image capturing module 145. An image reduction unit 105 and a focal length calculation unit that calculates a focal length of the N (N> 1) 2D image data based on the focus control information of the N (N> 1) 2D image data A focus overlapping processing unit 115 overlapping the 110 so that an object (or a focus area) corresponding to the focal position of the N (N> 1) two-dimensional image data is aligned along the line of sight, and N (N> 1) Depth value calculator 120 that calculates depth values for N (N> 1) two-dimensional image data in inverse proportion to the focal lengths for) two-dimensional image data, and N (N> 1) overlapping focal points. A depth image synthesizer 125 for synthesizing 2D image data according to the depth value, and the focal length and depth A disparity information checking unit for checking disparity processing information corresponding to the left eye and the right eye based on the left and right images; And a reduction ratio calculating unit 130 for calculating a reduction ratio for correcting horizontal distortion with respect to the left and right image data. It is characterized by comprising.

상기 2D 영상 촬영 모듈(145)의 영상 획득부(165)를 통해 N(N>1)개의 2차원 영상 데이터가 획득되면, 상기 입력영상 축소부(105)는 상기 영상 변환 모듈(100)의 데이터 처리 속도에 대응하여 상기 좌/우 영상 데이터를 기 설정된 변환시간 안에 생성하기 위해 상기 2차원 영상 데이터 개수(N)에 대응하는 변환 크기(또는 해 상도)를 확인하는 것을 특징으로 한다.When N (N> 1) two-dimensional image data is acquired through the image acquisition unit 165 of the 2D image capturing module 145, the input image reduction unit 105 may convert the data of the image conversion module 100. In order to generate the left / right image data within a preset conversion time corresponding to the processing speed, the conversion size (or resolution) corresponding to the number N of 2D image data may be checked.

여기서, 상기 영상 변환 모듈(100)의 데이터 처리 속도가 일정하다면, 상기 변환시간이 짧을수록 상기 변환 크기(또는 해상도)가 작아지고, 상기 변환시간이 길수록 상기 변환 크기(또는 해상도)가 커질 것이며, 또한 상기 2차원 영상 데이터 개수(N)가 많을수록 상기 변환 크기(또는 해상도)가 작아지고, 상기 2차원 영상 데이터 개수(N)가 적을수록 상기 변환 크기(또는 해상도)가 커질 것이다.Here, if the data processing speed of the image conversion module 100 is constant, the shorter the conversion time, the smaller the transform size (or resolution), and the longer the conversion time, the larger the transform size (or resolution), The larger the number N of 2D image data, the smaller the transform size (or resolution), and the smaller the number N of 2D image data, the larger the transform size (or resolution).

예컨대, 상기 영상 획득부(165)를 통해 입력되는 N(N>1)개의 2차원 영상 데이터가 하나의 정지 이미지라면, 상기 변환시간이 수초 이내로 길어도 무방할 것이나, 상기 영상 획득부(165)를 통해 입력되는 N(N>1)개의 2차원 영상 데이터가 동영상이라면, 상기 변환시간은 초당 프레임 수에 대응하는 수~수십 밀리 초 이내로 짧아야 한다.For example, if the N (N> 1) two-dimensional image data input through the image acquisition unit 165 is one still image, the conversion time may be longer than several seconds, but the image acquisition unit 165 may be If the N (N> 1) two-dimensional image data input through the video, the conversion time should be short within a few to several tens of milliseconds corresponding to the number of frames per second.

상기 변환 크기(또는 해상도)가 확인되면, 상기 입력영상 축소부(105)는 상기 영상 획득부(165)로부터 입력되는 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 상기 확인된 크기(또는 해상도)에 맞게 축소하는 것을 특징으로 한다.When the conversion size (or resolution) is confirmed, the input image reduction unit 105 confirms the size (or resolution) of N (N> 1) two-dimensional image data input from the image acquisition unit 165. It is characterized in that the reduction to match the size (or resolution).

만약 상기 영상 획득부(165)로부터 입력되는 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)가 상기 확인된 변환 크기(또는 해상도)보다 작거나 같다면, 상기 입력영상 축소부(105)가 상기 N(N>1)개의 2차원 영상 데이터를 축소하지 않아도 무방하며, 이에 의해 본 발명이 한정되지 아니한다.If the size (or resolution) of the N (N> 1) two-dimensional image data input from the image acquisition unit 165 is smaller than or equal to the identified conversion size (or resolution), the input image reduction unit ( 105 does not need to reduce the N (N> 1) two-dimensional image data, and the present invention is not limited thereto.

본 발명의 실시 방법에 따르면, 상기 입력영상 축소부(105)는 상기 초점거리 연산부(110)와 연계하여 상기 N(N>1)개의 2차원 영상 데이터에 대한 초점거리를 연산하고, 상기 깊이값 연산부(120)와 연계하여 상기 초점거리에 반비례하여 N(N>1)개의 2차원 영상 데이터에 대한 깊이값을 연산하고, 상기 시차정보 확인부와 연계하여 상기 초점거리와 깊이값을 기반으로 좌안과 우안에 대응하는 시차각을 확인하고, 상기 축소비율 산출부(130)와 연계하여 상기 생성될 좌우 영상 데이터에 대한 수평 방향 왜곡을 수정하는 축소비율을 산출한 후, 상기 2차원 영상 데이터의 수평 방향 크기를 상기 축소비율에 따라 더 수정하여 상기 입력되는 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 축소하는 것이 바람직하며, 이후 상기 깊이값 영상 합성부(125)가 상기 N(N>1)개의 2차원 영상 데이터를 상기 깊이값에 따라 합성하고, 상기 좌우 영상 생성부(140)가 상기 시차 정보에 따라 상기 합성된 2차원 영상 데이터에 시차를 처리하여 좌안 영상 데이터와 우안 영상 데이터를 생성하는 것이 바람직하다.According to the exemplary embodiment of the present invention, the input image reduction unit 105 calculates a focal length for the N (N> 1) two-dimensional image data in association with the focal length calculation unit 110 and the depth value. A depth value is calculated for N (N> 1) two-dimensional image data in inverse proportion to the focal length in association with the calculation unit 120, and a left eye based on the focal length and depth value in conjunction with the parallax information checking unit. After checking the parallax angle corresponding to the right eye and the right eye, and calculating the reduction ratio for correcting the horizontal distortion of the generated left and right image data in connection with the reduction ratio calculating unit 130, the horizontal of the two-dimensional image data It is preferable to further reduce the size (or resolution) of the input N (N> 1) two-dimensional image data by further modifying the direction size according to the reduction ratio, and then the depth value image synthesizer 125 is configured to reduce the size. N (N> 1) Synthesizing 2D image data according to the depth value, and the left and right image generating unit 140 generates left eye image data and right eye image data by processing parallax on the synthesized 2D image data according to the parallax information. It is preferable.

상기 초점거리 연산부(110)는 상기 2D 영상 촬영 모듈(145)에 구비된 초점정보 결정부(160)에 의해 결정된 초점위치 정보와 초점수 정보를 기반으로 상기 영상 촬영부(150)가 N(N>1)개의 2차원 영상을 촬영하도록 제어하는 과정에서 상기 초점 제어부(155)에 의해 확인된 N(N>1)개의 초점제어 정보(예컨대, 자동 초점을 위한 렌즈 이격거리 정보와, 상기 이격된 렌즈의 굴절율 정보(또는 배율 정보) 등)를 이용하여 상기 N(N>1)개의 2차원 영상 데이터에 포함된 객체(또는 초점영역)와 렌즈 간 초점거리를 연산하는 것을 특징으로 한다.The focal length calculating unit 110 is based on the focal position information and the focus number information determined by the focus information determining unit 160 included in the 2D image capturing module 145, and the image capturing unit 150 is N (N). N (N> 1) pieces of focus control information (eg, lens separation distance information for auto focus and the spaced apart information) identified by the focus control unit 155 in the process of controlling to capture> 1) two-dimensional images. The focal length between the lens and the object (or focal region) included in the N (N> 1) pieces of 2D image data is calculated using the refractive index information (or magnification information) of the lens.

본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 상기 기본 렌즈위치에서 자동 초점을 위한 렌즈 이격거리 정보와, 상기 이격된 렌즈의 굴절율 정보(또는 배율 정보)를 이용하여 상기 N(N>1)개의 2차원 영상 데이터에 포함된 객체(또는 초점영역)와 렌즈 간 초점거리를 연산하는 과정을 유추할 수 있을 것이므로, 이에 대한 상세한 설명은 편의상 생략하기로 한다.Those skilled in the art to the present invention, by using the lens separation distance information for the auto focus at the primary lens position, and the refractive index information (or magnification information) of the spaced lens using the N (N> Since a process of calculating a focal length between an object (or a focus area) and a lens included in 1) 2D image data may be inferred, a detailed description thereof will be omitted for convenience.

상기 초점거리 연산부(110)에 의해 상기 획득된 N(N>1)개의 2차원 영상 데이터에 대한 초점거리가 연산되면, 상기 초점중첩 처리부(115)는 상기 N(N>1)개의 2차원 영상 데이터에 대응하는 초점위치 정보를 확인하고, 상기 초점위치에 대응하는 객체(또는 초점영역)가 시선방향에 따라 정렬되도록 중첩하는 것을 특징으로 한다.When the focal lengths for the N (N> 1) two-dimensional image data obtained by the focal length calculation unit 110 are calculated, the focal overlap processing unit 115 performs the N (N> 1) two-dimensional images. Checking the focus position information corresponding to the data, it characterized in that the overlapping object (or focus area) corresponding to the focus position to be aligned in the line of sight.

만약 정지된 피사체를 촬영하는 경우, 상기 초점 제어부(155)의 초점 제어에 의해 상기 영상 촬영부(150)가 단위시간 동안 N(N>1)개의 2차원 영상을 촬영하는 동안 상기 피사체가 이동하지 않을 것이나, 상기 피사체가 이동하는 경우, 상기 초 점 제어부(155)의 초점 제어에 의해 상기 영상 촬영부(150)가 단위시간 동안 N(N>1)개의 2차원 영상을 촬영하는 동안 상기 피사체가 이동할 것이므로, 상기 초점중첩 처리부(115)는 상기 N(N>1)개의 2차원 영상 데이터에 대응하는 초점위치 정보를 확인하여 상기 N(N>1)개의 2차원 영상 데이터에 포함된 N(N>1)개의 객체(또는 초점영역)를 확인하고, 상기 확인된 N(N>1)개의 객체(또는 초점영역)가 시선방향에 따라 정렬되도록 중첩하는 것을 특징으로 한다.When photographing a stationary subject, the subject does not move while the image capturing unit 150 captures N (N> 1) two-dimensional images for a unit of time by focus control of the focus controller 155. However, when the subject moves, the subject is controlled while the image capturing unit 150 captures N (N> 1) two-dimensional images for a unit of time by focus control of the focus controller 155. Since the focus overlapping processor 115 checks the focus position information corresponding to the N (N> 1) two-dimensional image data, the focus overlap processing unit 115 includes N (N> 1) two-dimensional image data included in the N (N> 1) two-dimensional image data. > 1) objects (or focal regions) are identified, and the identified N (N> 1) objects (or focal regions) overlap so as to be aligned along the line of sight.

본 발명의 일 실시 방법에 따라 상기 N(N>1)개의 2차원 영상 데이터에 N(N>1)개의 객체가 포함된 경우, 상기 초점중첩 처리부(115)는 N(N>1)개의 객체에 대한 경계가 중첩되도록 처리하는 것이 바람직하다.According to an embodiment of the present invention, when the N (N> 1) two-dimensional image data includes N (N> 1) objects, the focus overlap processing unit 115 may have N (N> 1) objects. It is desirable to treat the boundaries for to overlap.

본 발명의 다른 일 실시 방법에 따라 상기 N(N>1)개의 2차원 영상 데이터에 N(N>1)개의 초점영역이 포함된 경우, 상기 초점중첩 처리부(115)는 N(N>1)개의 초점영역 경계가 중첩되도록 처리하는 것이 바람직하다.According to another exemplary embodiment of the present invention, when the N (N> 1) two-dimensional image data includes N (N> 1) focal regions, the focus overlap processing unit 115 may have N (N> 1). It is desirable to process the borders of the two focal regions so that they overlap.

상기 초점거리 연산부(110)에 의해 상기 획득된 N(N>1)개의 2차원 영상 데이터에 대한 초점거리가 연산되면, 상기 깊이값 연산부(120)는 N(N>1)개의 2차원 영상 데이터에 대한 초점거리가 가까운 것에서 먼 순서대로 배열하여 N(N>1)개의 2차원 영상 데이터에 대한 깊이값을 연산하는 것을 특징으로 하며, 하나의 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 하 나의 깊이값이 설정되는 것이 바람직하다.When the focal lengths for the N (N> 1) two-dimensional image data obtained by the focal length calculator 110 are calculated, the depth value calculator 120 performs N (N> 1) two-dimensional image data. A depth value for N (N> 1) two-dimensional image data is calculated by arranging them in a distant order from the closest to the focal length. It is preferable that one depth value is set in the object (or the focus area) corresponding to.

본 발명의 실시 방법에 따르면, N(N>1)개의 2차원 영상 데이터에 대한 초점거리가 가까운 2차원 영상 데이터의 깊이값은 '1'로 설정되고, 상기 초점거리가 두 번째로 가까운 2차원 영상 데이터의 깊이값은 '2'로 설정되고, 상기 초점거리가 가장 먼 2차원 영상 데이터의 깊이값은 'N'으로 설정되는 것이 바람직하다.According to an exemplary embodiment of the present invention, a depth value of two-dimensional image data having close focal lengths for N (N> 1) two-dimensional image data is set to '1', and the two-dimensional closest focal length is two-dimensional. Preferably, the depth value of the image data is set to '2', and the depth value of the two-dimensional image data having the furthest focal length is set to 'N'.

상기 초점중첩 처리부(115)에 의해 N(N>1)개의 2차원 영상 데이터의 초점위치가 중첩되고, 상기 깊이값 연산부(120)에 의해 N(N>1)개의 2차원 영상 데이터에 대한 깊이값이 연산되면, 상기 깊이값 영상 합성부(125)는 상기 초점이 중첩된 N(N>1)개의 2차원 영상 데이터를 상기 깊이값에 따라 배열하고, 상기 배열된 N(N>1)개의 2차원 영상 데이터를 상기 깊이값에 합성하는 것을 특징으로 한다.The focus overlapping unit 115 overlaps the focus positions of the N (N> 1) two-dimensional image data, and the depth value calculating unit 120 depths the N (N> 1) two-dimensional image data. When the value is calculated, the depth value image synthesizer 125 arranges the N (N> 1) two-dimensional image data of which the focus is overlapped according to the depth value, and the arranged N (N> 1) pieces And combining two-dimensional image data with the depth value.

본 발명의 실시 방법에 따르면, 상기 깊이값 영상 합성부(125)는 N(N>1)개의 2차원 영상 데이터 중, 제m(1<=m<=N) 깊이값에 대응하는 2차원 영상 데이터의 초점위치에 대응하는 제m(0<=m<N) 객체(또는 초점영역)을 선명하게 처리하고, 상기 제m(1<=m<=N) 깊이값에 대응하는 2차원 영상 데이터에서 다른 객체(또는 초점영역) 영역을 투명(또는 제m(1<=m<=N) 객체(또는 초점영역)에서 멀어질수록 투명도가 증가)하게 처리하고, 상기 제m(1<=m<=N) 깊이값 이외에 제k(0<=k<N, m!=k) 깊이값에 대응하는 2차원 영상 데이터의 초점위치에 대응하는 제k(0<=k<N, m!=k) 객체(또는 초점영역)을 선명하게 처리하고, 상기 제k(0<=k<N, m!=k) 깊이값에 대응하는 2차원 영상 데이터에서 다른 객체(또는 초점영역) 영역을 투명(또는 제k(0<=k<N, m!=k) 객체(또는 초점영역)에서 멀어질수록 투명도가 증가)하게 처리한 후, 상기 제m(1<=m<=N) 깊이값에 대응하는 2차원 영상 데이터와 제k(0<=k<N, m!=k) 깊이값에 대응하는 2차원 영상 데이터를 합성함으로써, N(N>1)개의 2차원 영상 데이터에 포함된 N(N>1)개의 객체(또는 초점영역)가 선명하게 출력되도록 합성하는 것이 바람직하다.According to the exemplary embodiment of the present invention, the depth value image synthesis unit 125 may include a 2D image corresponding to an mth (1 <= m <= N) depth value among N (N> 1) two-dimensional image data. Two-dimensional image data corresponding to the mth (0 <= m <N) object (or focus area) corresponding to the focal position of the data sharply and corresponding to the mth (1 <= m <= N) depth value Process another object (or focus area) in the transparent (or mth (1 <= m <= N) direction as the distance from the object (or focus area) increases), and the m (1 <= m <= N) In addition to the depth value, k (0 <= k <N, m! = K) corresponds to the focus position of the two-dimensional image data corresponding to the depth value k (0 <= k <N, m! = k) Clearly processes an object (or a focus area) and transparently clears another object (or focus area) area in the 2D image data corresponding to the k-th (0 <= k <N, m! = k) depth value. (Or transparency increases as you move away from the k (0 <= k <N, m! = K) object (or focus area)) The 2D image data corresponding to the mth (1 <= m <= N) depth value and the 2D image data corresponding to the kth (0 <= k <N, m! = K) depth value By combining, it is preferable to synthesize so that N (N> 1) objects (or focus areas) included in the N (N> 1) two-dimensional image data are clearly output.

인간이 좌안과 우안을 통해 거리를 인식하는 방법은, 상기 좌안과 우안의 거리와, 상기 좌안과 우안에서 초점까지 거리에 대한 삼각함수(또는 로그함수)를 포함하는 비선형 함수로 이루어지는데, 상기 시차정보 확인부는 상기 초점거리 연산부(110)에 의해 연산된 깊이값에 따른 N(N>1)개의 2차원 영상 데이터에 대한 N(N>1)개의 초점거리와, 좌안과 우안 사이의 양안 거리(예컨대, 평균 안면 크기에 따른 평균 양안 거리, 키 입력부(175)를 통해 설정 가능)를 기반으로 N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 N(N>1)개의 시차각 정보를 산출(또는 확인)하는 것을 특징으로 한다.The method of recognizing a distance through a left eye and a right eye includes a nonlinear function including a distance between the left eye and the right eye and a trigonometric function (or logarithmic function) for the distance from the left eye and the right eye to the focal point. The information checking unit has N (N> 1) focal lengths for the N (N> 1) two-dimensional image data according to the depth value calculated by the focal length calculating unit 110 and the binocular distance between the left and right eyes ( For example, the focus of N (N> 1) two-dimensional image data (or N (N> 1) two-dimensional image data based on the average binocular distance according to the average face size, which can be set by the key input unit 175). N (N> 1) disparity angle information of an object (or a focus area) corresponding to a position is calculated (or confirmed).

또한, 상기 시차정보 확인부는 N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)) 중, 영시 차(Zero Parallax)로 처리할 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))을 확인하는 것을 특징으로 한다.In addition, the parallax information confirming unit may zero-zero difference among N (N> 1) two-dimensional image data (or an object (or a focus area) corresponding to a focal position of N (N> 1) two-dimensional image data). Parallax) is characterized by identifying the parallax target two-dimensional image data (or an object (or a focus area) corresponding to the focus position of the two-dimensional image data) to be processed.

본 발명의 일 실시 방법에 따르면, 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))는, N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)) 중, 초점거리가 중간(예컨대, 가장 가까운 초점거리와 가장 먼 초점거리의 중간값)에 위치하거나, 또는 깊이값이 중간(예컨대, 가장 작은 깊이값과 가장 큰 깊이값의 중간값)에 위치하는 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))를 상기 영시차 대상으로 확인하는 것이 바람직하다.According to an exemplary embodiment of the present invention, the zero-parallel target 2D image data (or an object (or a focus area) corresponding to a focal position of the 2D image data) includes N (N> 1) pieces of 2D image data ( Or among the N (N> 1) pieces of two-dimensional image data (or an object corresponding to the focal point), the focal length is located in the middle (for example, the middle of the closest and farthest focal lengths) Or two-dimensional image data (or an object (or focus area) corresponding to a focal position of the two-dimensional image data) in which the depth value is located in the middle (for example, the middle value of the smallest depth value and the largest depth value). It is desirable to confirm as a zero time difference object.

본 발명의 다른 일 실시 방법에 따르면, 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))는, N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)) 중, 초점거리가 가장 가깝거나, 또는 깊이값이 가장 작은 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))를 상기 영시차 대상으로 확인하는 것이 바람직하다.According to another exemplary embodiment of the present invention, the zero parallax target two-dimensional image data (or an object (or a focus area) corresponding to a focal position of the two-dimensional image data) includes N (N> 1) two-dimensional image data. (Or two-dimensional image data (or two-dimensional image) having the shortest focal length or the smallest depth value (or an object corresponding to the focal position of N (N> 1) two-dimensional image data). Preferably, the object (or focus area) corresponding to the focus position of the data is identified as the zero parallax object.

본 발명의 또다른 일 실시 방법에 따르면, 상기 영시차 대상 2차원 영상 데 이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))는, N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)) 중, 초점거리가 가장 멀거나, 또는 깊이값이 가장 큰 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))를 상기 영시차 대상으로 확인하는 것이 바람직하다.According to another exemplary embodiment of the present invention, the parallax target 2D image data (or an object (or a focal region) corresponding to a focal position of the 2D image data) includes N (N> 1) 2D images. Among the image data (or an object (or focus area) corresponding to the focal position of N (N> 1) two-dimensional image data), the two-dimensional image data (or two having the largest focal length or the largest depth value) Preferably, the object (or focus area) corresponding to the focus position of the 3D image data is identified as the zero parallax object.

또한, 상기 시차정보 확인부는 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))보다 초점거리가 가깝거나, 또는 깊이값이 작은 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))을 양시차(Positive Parallax) 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))로 확인하고, 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))보다 초점거리가 멀거나, 또는 깊이값이 큰 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))을 음시차(Negative Parallax) 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))로 확인하는 것을 특징으로 한다.The parallax information confirming unit may be two-dimensional image data having a smaller focal length or a smaller depth than the two-dimensional image data (or an object corresponding to the focal position of the two-dimensional image data). (Or an object (or focus area) corresponding to the focal position of the 2D image data) and the two-dimensional image data (or an object corresponding to the focus position of the 2D image data) 2D image data (or 2) having a larger focal length or greater depth than the zero-parallel target 2D image data (or an object corresponding to a focal position of the 2D image data). An object (or second) corresponding to the focal position of the 2D image data (or a second object) corresponding to the focal position of the 2D image data is negative parallax. Point area)).

또한, 상기 시차정보 확인부는 N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 N(N>1) 개의 시차각 정보와 초점거리 정보를 삼각함수(또는 로그함수)에 대입하여, 상기 양시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 양시차 방향 픽셀이동 정보와, 상기 음시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 음시차 방향 픽셀이동 정보를 확인하는 것을 특징으로 한다.The disparity information checking unit may further include N (N> 1) for N (N> 1) two-dimensional image data (or an object (or focal region) corresponding to a focal position of N (N> 1) two-dimensional image data). 1) the parallax angle information and the focal length information are substituted into the trigonometric function (or logarithmic function) to the two-dimensional parallax target two-dimensional image data (or an object (or focal region) corresponding to the focal position of the two-dimensional image data). Verifying the parallax direction pixel movement information and the parallax direction pixel movement information of the parallax target 2D image data (or an object (or a focus area) corresponding to the focal position of the 2D image data). do.

본 발명의 실시 방법에 따르면, 상기 시차정보 확인부에 의해 확인되는 시차처리 정보는, 상기 합성된 2차원 영상 데이터에 포함된 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))와, 적어도 하나 이상의 양시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))과 양시차 방향 픽셀이동 정보와, 적어도 하나 이상의 음시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))과 음시차 방향 픽셀이동 정보를 포함하여 이루어지는 것이 바람직하다.According to the exemplary embodiment of the present invention, the parallax processing information checked by the parallax information confirming unit corresponds to the zero-disparity target 2D image data (or the focal position of the 2D image data included in the synthesized 2D image data). Object (or focal region)), at least one or more two-dimensional parallax image data (or an object (or focal region) corresponding to a focal position of the two-dimensional image data), bi-directional parallax direction pixel movement information, and at least one Preferably, the above parallax target two-dimensional image data (or an object (or a focus area) corresponding to the focal position of the two-dimensional image data) and the parallax direction pixel movement information are included.

상기 시차정보 확인부에 의해 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))이 확인되고, 상기 영시차를 기준으로 적어도 하나 이상의 양시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))과 양시차 방향 픽셀이동 정보가 확인되고, 적어도 하나 이상의 음시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))과 음시차 방향 픽셀이동 정보가 확인되면, 상기 좌우 영상 생성부(140)는 상기 합성된 2차원 영상 데이터에 포함된 양시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대응하는 픽셀 위치를 양시차 방향 픽셀이동 정보에 따라 좌방향과 우방향으로 이동하고, 또한 상기 합성된 2차원 영상 데이터에 포함된 상기 음시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대응하는 픽셀 위치를 음시차 방향 픽셀이동 정보에 따라 좌방향과 우방향으로 이동함으로써, 상기 합성된 2차원 영상 데이터에 대한 좌안 영상 데이터와 우안 영상 데이터를 생성하는 것을 특징으로 한다.The parallax information checking unit checks the parallax target 2D image data (or an object (or a focus area) corresponding to the focus position of the 2D image data), and based on the parallax, at least one or more parallax targets 2 Two-dimensional image data (or an object (or a focus area) corresponding to a focal position of the two-dimensional image data) and bi-parallel direction pixel movement information are confirmed, and at least one or more parallax target two-dimensional image data (or two-dimensional image data) When the object (or focal region) corresponding to the focal position and the parallax direction pixel movement information are confirmed, the left and right image generating unit 140 performs bi-parallel target two-dimensional image data (the two-dimensional image data included in the synthesized two-dimensional image data). Or the pixel position corresponding to the object (or focal region) corresponding to the focal position of the 2D image data in the left and right directions according to the bi-parallel pixel movement information. And shift the pixel position corresponding to the parallax target 2D image data (or an object (or a focus area) corresponding to the focus position of the 2D image data) included in the synthesized 2D image data. The left eye image data and the right eye image data of the synthesized two-dimensional image data are generated by moving in the left direction and the right direction according to the pixel movement information.

본 발명에 따르면, 상기 좌안 영상 데이터와 우안 영상 데이터는 단일 렌즈로 촬영된 2차원 영상 데이터를 기반으로 생성되기 때문에, 상기 생성된 좌안 영상 데이터와 우안 영상 데이터는 실제 인간의 눈으로 바라보는 것보다 좌우 방향으로 펼쳐진 것처럼 왜곡되는데, 상기 축소비율 산출부(130)는 상기 좌안 영상 데이터와 우안 영상 데이터에 대응하는 시차각 정보와 초점거리 정보를 삼각함수(또는 로그함수)에 대입하여 수평 방향으로 왜곡된 영상 데이터를 축소 보정하기 위한 축소비율을 산출하는 것을 특징으로 한다.According to the present invention, since the left eye image data and the right eye image data are generated based on the two-dimensional image data photographed by a single lens, the generated left eye image data and the right eye image data are not viewed by an actual human eye. The distortion ratio calculation unit 130 distorts the horizontal disparity information and the focal length information corresponding to the left eye image data and the right eye image data into a trigonometric function (or logarithmic function) and distorts them in the horizontal direction. And a reduction ratio for reducing and correcting the received image data.

본 발명의 실시 방법에 따르면, 상기 축소비율 산출부(130)는 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대응하는 시차각 정보와 초점거리 정보를 삼각함수(또는 로그함수)에 대입하여 상기 좌안 영상 데이터와 우안 영상 데이터에 대한 축소비율을 산출하는 것이 바람직하다.According to the exemplary embodiment of the present invention, the reduction ratio calculator 130 disparity angle information corresponding to the zero parallax target two-dimensional image data (or an object (or a focus area) corresponding to the focus position of the two-dimensional image data). And a focal length information is substituted into a trigonometric function (or logarithmic function) to calculate a reduction ratio for the left eye image data and the right eye image data.

본 발명의 다른 실시 방법에 따르면, 상기 축소비율 산출부(130)는 상기 좌안 영상 데이터와 우안 영상 데이터를 생성하기 위해 이용된 N(N>1)의 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)) 중 어느 하나의 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대응하는 시차각 정보와 초점거리 정보를 삼각함수(또는 로그함수)에 대입하여 상기 좌안 영상 데이터와 우안 영상 데이터에 대한 축소비율을 산출하는 것이 가능하며, 이에 의해 본 발명이 한정되지 아니한다.According to another exemplary embodiment of the present invention, the reduction ratio calculator 130 may include N (N> 1) two-dimensional image data (or two-dimensional image data) used to generate the left eye image data and the right eye image data. The parallax angle information and the focal length information corresponding to any two-dimensional image data (or an object (or a focal region) corresponding to the focal position of the two-dimensional image data) of the object corresponding to the focal position It is possible to calculate a reduction ratio for the left eye image data and the right eye image data by substituting a trigonometric function (or logarithmic function), and the present invention is not limited thereto.

도면1를 참조하면, 상기 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치는, 상기 영상 변환 모듈(100)에 의해 생성된 좌안 영상 데이터와 우안 영상 데이터를 상기 산출된 축소비율에 따라 축소하여 화면 출력부(180)를 통해 출력하거나, 또는 통신부(195)를 통해 전송하는 영상 출력부(190)를 구비하거나, 상기 영상 변환 모듈(100)에 의해 생성된 좌안 영상 데이터와 우안 영상 데이터를 일대일 매칭하여 저장매체(183)에 저장하는 영상 저장부(193)를 구비하여 이루어지는 것을 특징으로 한다.Referring to FIG. 1, the 3D stereoscopic image conversion apparatus using the multifocal 2D image may be configured to reduce the left eye image data and the right eye image data generated by the image conversion module 100 according to the calculated reduction ratio. The image output unit 190 may be output through the screen output unit 180 or transmitted through the communication unit 195, or the left eye image data and the right eye image data generated by the image conversion module 100 may be one-to-one. And an image storage unit 193 that matches and stores the image storage unit 193 in the storage medium 183.

상기 영상 변환 모듈(100)에 구비된 좌우 영상 생성부(140)에 의해 좌안 영상 데이터와 우안 영상 데이터가 생성되고, 상기 축소비율 산출부(130)에 의해 상기 생성된 좌안 영상 데이터와 우안 영상 데이터에 대한 축소비율이 산출되면, 상기 영상 출력부(190)는 상기 축소비율에 따라 상기 좌안 영상 데이터와 우안 영상 데이터를 축소하여 상기 화면 출력부(180)를 통해 출력하는 것을 특징으로 하며, 상기 화면 출력부(180)는 3차원 입체 영상을 출력하기 위한 기능 구성을 포함하여 이루어지는 것이 바람직하다.Left and right image data and right eye image data are generated by the left and right image generator 140 included in the image conversion module 100, and the left and right image data and the right eye image data are generated by the reduction ratio calculator 130. When the reduction ratio is calculated, the image output unit 190 reduces the left eye image data and the right eye image data according to the reduction ratio, and outputs the same through the screen output unit 180. The output unit 180 preferably includes a functional configuration for outputting a 3D stereoscopic image.

또한, 상기 영상 출력부(190)는 상기 축소비율에 따라 상기 좌안 영상 데이터와 우안 영상 데이터를 축소하여 상기 통신부(195)를 통해 다른 출력장치, 또는 통신망 상의 서버(또는 장치)로 전송하는 것을 특징으로 한다.In addition, the image output unit 190 reduces the left eye image data and the right eye image data according to the reduction ratio and transmits them to another output device or a server (or device) on the communication network through the communication unit 195. It is done.

상기 영상 저장부(193)는 상기 영상 변환 모듈(100)에 의해 생성된 좌안 영상 데이터와 우안 영상 데이터를 일대일 매칭하여 상기 저장매체(183)에 저장하는 것을 특징으로 하며, 상기 축소비율에 따라 상기 좌안 영상 데이터와 우안 영상 데이터를 축소하여 상기 저장매체(183)에 저장하는 것이 바람직하다.The image storage unit 193 may match left-eye image data and right-eye image data generated by the image conversion module 100 to one-to-one and store them in the storage medium 183. The left eye image data and the right eye image data may be reduced and stored in the storage medium 183.

도면2a와 도면2b는 본 발명의 실시 방법에 따라 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위한 초점정보 결정 방법을 도시한 도면이다.2A and 2B illustrate a method of determining focus information for 3D stereoscopic image conversion using a multifocal 2D image according to an exemplary embodiment of the present invention.

보다 상세하게 본 도면2a와 도면2b는 도면1에 도시된 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치에 구비된 초점정보 결정부(160)가 피사체에 대한 N(N>1)개의 초점위치 정보와 초점수 정보를 결정하는 방법을 도시한 것으로서, 구체적으로 도면2a는 상기 영상 촬영부(150)를 통해 촬영되어 입력되는 미리보기 영상 데이터 내에 식별 가능한 객체가 포함되지 않은 경우, N(N>1)개의 초점영역에 대한 N(N>1)개의 초점위치 정보와 초점수 정보를 결정하는 방법을 도시한 것이고, 도면2b는 상기 영상 촬영부(150)를 통해 촬영되어 입력되는 미리보기 영상 데이터 내에 식별 가능한 객체가 포함된 경우, N(N>1)개의 객체에 대한 N(N>1)개의 초점위치 정보와 초점수 정보를 결정하는 방법을 도시한 것이다.In detail, FIGS. 2A and 2B illustrate that N (N> 1) focal points of a subject are determined by the focus information determiner 160 included in the 3D stereoscopic image converting apparatus using the multifocal 2D image shown in FIG. 1. As a method of determining position information and focus number information, specifically, FIG. 2A illustrates N (N) when no identifiable object is included in the preview image data photographed and input through the image capturing unit 150. FIG. 2B illustrates a method of determining N (N> 1) focal position information and focus number information of> 1) focal regions, and FIG. 2B shows a preview image captured and input by the image capturing unit 150. When the identifiable object is included in the data, a method of determining N (N> 1) focal position information and focus number information for N (N> 1) objects is illustrated.

본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면2a와 도면2b를 참조 및/또는 변형하여 상기 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위한 초점정보 결정 방법에 대한 다양한 실시 방법을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면2a와 도면2b에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.Those skilled in the art to which the present invention pertains, various methods for determining the focus information for the three-dimensional stereoscopic image conversion using the multi-focus two-dimensional image by referring to and / or modifying the drawings 2a and 2b Although the implementation method may be inferred, the present invention includes all the implementation methods inferred above, and the technical features are not limited only to the implementation methods shown in FIGS. 2A and 2B.

도면2a와 도면2b를 참조하면, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터에 포함된 N(N>1)개의 객체를 패턴 인식(또는 이미지 인식)을 통해 자동 인식하거나, 또는 상기 키 입력부(175)와 연계하여 상기 미리보기 영상 데이터에 포함된 N(N>1)개의 객체를 수동으로 선택함으로써, 상기 미리보기 영상 데이터 에 N(N>1)개의 객체(예컨대, 사람, 동물, 물건과 같이 배경(또는 다른 객체)와 구분되는 경계를 포함하는 피사체)가 포함되어 있는지 확인하는 것을 특징으로 한다.2A and 2B, the focus information determiner 160 automatically recognizes N (N> 1) objects included in the preview image data through pattern recognition (or image recognition), or By manually selecting N (N> 1) objects included in the preview image data in association with the key input unit 175, N (N> 1) objects (eg, human, animal) are included in the preview image data. , Object such as an object including a boundary distinguishing from a background (or other object) is included.

상기 영상 촬영부(150)를 통해 촬영되어 입력되는 미리보기 영상 데이터 내에 식별 가능한 객체가 포함되지 않은 도면2a를 참조하면, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터를 N(N>1)개의 초점영역으로 구분하고, N(N>1)개 초점영역의 중심위치를 N(N>1)개의 초점위치로 결정하는 것을 특징으로 하며, 상기 N(N>1)개의 초점위치 개수를 N(N>1)개의 초점수로 결정하는 것을 특징으로 한다.Referring to FIG. 2A, in which the identifiable object is not included in the preview image data photographed and input by the image capturing unit 150, the focus information determiner 160 stores the preview image data as N (N>). 1) dividing into focus areas, and determining the center positions of the N (N> 1) focus areas as N (N> 1) focus points, and the number of N (N> 1) focus points. Is determined as N (N> 1) focal number.

여기서, 상기 N(N>1)개의 초점수 정보는 상기 영상 촬영부(150)가 단위시간 동안 촬영 가능한 최대 촬영수, 또는 상기 초점 제어부(155)가 단위시간 동안 상기 영상 촬영부(150)의 초점을 제어할 수 있는 최대 제어횟수, 또는 상기 영상 획득부(165)가 단위시간 동안 상기 영상 촬영부(150)로부터 2차원 영상 데이터를 획득할 수 있는 최대 영상 데이터 획득수를 적어도 하나 이상 포함하는 한도 초점수 보다 작게 설정되는 것이 바람직하다.Here, the N (N> 1) pieces of focal number information is the maximum number of shots that the image capturing unit 150 can capture for a unit time, or the focus control unit 155 of the image capturing unit 150 for a unit time. At least one maximum control number for controlling the focus, or at least one maximum number of image data acquisition that the image acquisition unit 165 can obtain two-dimensional image data from the image capture unit 150 for a unit time It is preferable to set smaller than the limit focal number.

본 발명의 일 실시 방법에 따르면, 상기 초점정보 결정부(160)는 본 도면2a에 도시된 바와 같이 상기 미리보기 영상 데이터를 상하 방향으로 N(N>1)개의 초점영역으로 구분하고, 상기와 같이 상하 방향으로 구분된 N(N>1)개 초점영역의 중심 위치를 N(N>1)개의 초점위치로 결정하는 것이 바람직하다.According to an exemplary embodiment of the present invention, the focus information determiner 160 divides the preview image data into N (N> 1) focal regions in the vertical direction as shown in FIG. 2A. As described above, it is preferable to determine the center positions of the N (N> 1) focal regions divided in the vertical direction as the N (N> 1) focal positions.

본 발명의 다른 일 실시 방법에 따르면, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터를 좌우 방향으로 N(N>1)개의 초점영역으로 구분하고, 상기와 같이 좌우 방향으로 구분된 N(N>1)개 초점영역의 중심위치를 N(N>1)개의 초점위치로 결정하는 것이 바람직하다.According to another exemplary embodiment of the present invention, the focus information determiner 160 divides the preview image data into N (N> 1) focal regions in the left and right directions, and the N divided in the left and right directions as described above. It is preferable to determine the center positions of the (N> 1) focal regions as N (N> 1) focal positions.

본 발명의 또다른 일 실시 방법에 따르면, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터를 격자 모양에 따라 N(N>1)개의 초점영역으로 구분하고, 상기와 같이 격자 모양으로 구분된 N(N>1)개 초점영역의 중심위치를 N(N>1)개의 초점위치로 결정하는 것이 바람직하다.According to another exemplary embodiment of the present invention, the focus information determiner 160 divides the preview image data into N (N> 1) focal regions according to a grid shape, and divides the preview image data into a grid shape as described above. It is preferable to determine the center position of the N (N> 1) focusing areas as N (N> 1) focusing positions.

상기 영상 촬영부(150)를 통해 촬영되어 입력되는 미리보기 영상 데이터 내에 식별 가능한 객체가 포함된 도면2b를 참조하면, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터 내에 포함된 N(N>1)개의 객체의 중심위치를 N(N>1)개의 초점위치로 결정하는 것을 특징으로 하며, 상기 N(N>1)개의 초점위치 개수를 N(N>1)개의 초점수로 결정하는 것을 특징으로 한다.Referring to FIG. 2B including an object that can be identified in the preview image data photographed and input by the image capturing unit 150, the focus information determiner 160 includes N (N) included in the preview image data. And N (N> 1) focal positions, and determine the number of N (N> 1) focal positions as N (N> 1) focal points. It is characterized by.

여기서, 상기 N(N>1)개의 초점수 정보는 상기 영상 촬영부(150)가 단위시간(예컨대, 50ms 등) 동안 촬영 가능한 최대 촬영수, 또는 상기 초점 제어부(155)가 단위시간 동안 상기 영상 촬영부(150)의 초점을 제어할 수 있는 최대 제어횟수, 또는 상기 영상 획득부(165)가 단위시간 동안 상기 영상 촬영부(150)로부터 2차원 영상 데이터를 획득할 수 있는 최대 영상 데이터 획득수를 적어도 하나 이상 포함하는 한도 초점수 보다 작게 설정되는 것이 바람직하다.Here, the N (N> 1) pieces of focal number information is the maximum number of shots that the image capturing unit 150 can take for a unit time (for example, 50 ms, etc.) or the focus control unit 155 takes the image for a unit time. Maximum number of control times for controlling the focus of the photographing unit 150 or maximum number of image data acquisition units for obtaining the 2D image data from the image photographing unit 150 by the image obtaining unit 165 for a unit time. It is preferably set smaller than the limit focal number including at least one.

본 발명의 일 실시 방법에 따라 상기 미리보기 영상 데이터 내에 포함된 초점위치 개수(또는 초점수)가 상기 한도 초점수보다 많은 경우, 상기 초점정보 촬영부는 상기 미리보기 영상 데이터에 포함된 객체 중에서 상기 미리보기 영상 데이터의 중심위치(또는 상단, 또는 하단, 또는 좌측, 또는 우측)에 있는 객체 중 상기 한도 초점수 이내의 객체에 대한 N(N>1)개의 초점위치를 결정하는 것이 바람직하다.According to an exemplary embodiment of the present disclosure, when the number of focus positions (or the number of focal points) included in the preview image data is greater than the limit focal number, the focus information photographing unit may include the preview image among the objects included in the preview image data. It is preferable to determine N (N> 1) focal positions for objects within the above limit focal number among objects at the center position (or top, bottom, left, or right) of the viewing image data.

본 발명의 다른 일 실시 방법에 따라 상기 미리보기 영상 데이터 내에 포함된 초점위치 개수(또는 초점수)가 상기 한도 초점수보다 적은 경우, 상기 초점정보 촬영부는 상기 미리보기 영상 데이터에 포함된 N(N>1)개의 객체에 대한 N(N>1)개의 초점위치를 결정하는 것이 바람직하다.According to another exemplary embodiment of the present invention, when the number of focus positions (or the number of focus points) included in the preview image data is less than the limit focus number, the focus information photographing unit includes N (N) included in the preview image data. It is desirable to determine N (N> 1) focal positions for> 1) objects.

도면3a와 도면3b는 본 발명의 실시 방법에 따라 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위한 초점거리 연산 방법을 도시한 도면이다.3A and 3B illustrate a focal length calculation method for 3D stereoscopic image conversion using a multifocal 2D image according to an exemplary embodiment of the present invention.

보다 상세하게 본 도면3a와 도면3b는 도면1에 도시된 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치에 구비된 초점거리 연산부(110)가 N(N>1)개의 2차원 영상 데이터에 대한 초점제어 정보를 기반으로 상기 N(N>1)개의 2차원 영상 데이터에 대한 초점거리를 연산하는 방법을 도시한 것으로서, 구체적으로 도면3a는 상기 영상 촬영부(150)를 통해 촬영되어 입력되는 미리보기 영상 데이터 내에 식별 가능한 객체가 포함되지 않은 경우, N(N>1)개의 2차원 영상 데이터에 대한 초점거리를 연산하는 방법을 도시한 것이고, 도면3b는 상기 영상 촬영부(150)를 통해 촬영되어 입력되는 미리보기 영상 데이터 내에 식별 가능한 객체가 포함된 경우, N(N>1)개의 2차원 영상 데이터에 대한 초점거리를 연산하는 방법을 도시한 것이다.In detail, FIGS. 3A and 3B show that the focal length calculation unit 110 included in the 3D stereoscopic image converting apparatus using the multifocal 2D image shown in FIG. 1 is applied to N (N> 1) 2D image data. FIG. 3A illustrates a method of calculating a focal length for the N (N> 1) two-dimensional image data based on the focus control information. More specifically, FIG. 3A is photographed and input through the image capturing unit 150. When the identifiable object is not included in the preview image data, a method of calculating a focal length for N (N> 1) two-dimensional image data is illustrated, and FIG. 3B is provided through the image capturing unit 150. When a identifiable object is included in the preview image data photographed and input, a method of calculating a focal length for N (N> 1) two-dimensional image data is illustrated.

본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면3a와 도면3b를 참조 및/또는 변형하여 상기 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위한 초점거리 연산 방법에 대한 다양한 실시 방법을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면3a와 도면3b에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.Those skilled in the art to which the present invention pertains, various reference to the focal length calculation method for the three-dimensional stereoscopic image conversion using the multi-focal two-dimensional image by referring to and / or modifying the drawings 3a and 3b Although the implementation method may be inferred, the present invention includes all the implementation methods inferred above, and the technical features are not limited only to the implementation methods shown in FIGS. 3A and 3B.

도면3a와 도면3b를 참조하면, 상기 초점거리 연산부(110)는 초점정보 결정부(160)에 의해 결정된 초점위치 정보와 초점수 정보를 기반으로 상기 영상 촬영부(150)가 N(N>1)개의 2차원 영상을 촬영하도록 제어하는 과정에서 상기 초점 제어부(155)에 의해 확인된 N(N>1)개의 초점제어 정보(예컨대, 자동 초점을 위한 렌즈 이격거리 정보와, 상기 이격된 렌즈의 굴절율 정보(또는 배율 정보) 등)를 이용하여 상기 N(N>1)개의 2차원 영상 데이터에 포함된 객체(또는 초점영역)와 렌즈 간 초점거리를 연산하는 것을 특징으로 한다.Referring to FIGS. 3A and 3B, the focal length calculator 110 determines that the image capturing unit 150 is N (N> 1) based on the focal position information and the focal number information determined by the focus information determiner 160. N (N> 1) pieces of focus control information (for example, lens separation distance information for auto focusing and the spaced apart lenses) identified by the focus control unit 155 in the process of controlling to take two 2D images. The focal length between the lens and the object (or focal region) included in the N (N> 1) pieces of 2D image data is calculated using refractive index information (or magnification information).

상기 영상 촬영부(150)를 통해 촬영되어 입력되는 미리보기 영상 데이터 내에 식별 가능한 객체가 포함되지 않은 도면3a를 참조하면, N(N>1)개의 초점영역이 상기 도면2a에 도시된 바와 같이 상하 방향으로 구분되는 경우, 상기 초점거리 연산부(110)는 각 초점영역을 자동 초점하는 과정에서 확인된 초점제어 정보(예컨대, 자동 초점을 위한 렌즈 이격거리 정보와, 상기 이격된 렌즈의 굴절율 정보(또는 배율 정보) 등)를 이용하여 각각의 2차원 영상 데이터에 대한 초점거리를 연산하는 것을 특징으로 하며, 맨 아래 영역의 초점거리가 가장 가깝고, 맨 위 영역의 초점거리가 가장 멀도록 연산하는 것을 특징으로 한다.Referring to FIG. 3a in which the identifiable object is not included in the preview image data photographed and input by the image capturing unit 150, N (N> 1) focus regions are vertically upper and lower as shown in FIG. 2a. In the case of dividing in the direction, the focal length calculator 110 determines the focus control information (eg, lens separation distance information for auto focus and the refractive index information of the spaced apart lens) identified in the process of auto focusing each focus area. Magnification information), etc.), to calculate a focal length for each two-dimensional image data, and to calculate the focal length of the bottom area is the closest and the focal length of the top area is the farthest. It is done.

이 때, 상기 N(N>1)개의 2차원 영상 데이터에서 자동 초점된 초점영역은 선명한 영상 데이터를 포함하고, 상기 초점영역에서 멀어질수록 흐릿한 영상 데이터를 포함하여 이루어진다.At this time, the focus area that is autofocused in the N (N> 1) two-dimensional image data includes clear image data, and includes blurry image data as the distance from the focus area increases.

상기 영상 촬영부(150)를 통해 촬영되어 입력되는 미리보기 영상 데이터 내에 식별 가능한 객체가 포함된 도면3b를 참조하면, 도면2b에 도시된 바와 같이 미리보기 영상 데이터 내에서 N(N>1)개의 객체가 식별된 경우, 상기 초점거리 연산 부(110)는 각 객체를 자동 초점하는 과정에서 확인된 초점제어 정보(예컨대, 자동 초점을 위한 렌즈 이격거리 정보와, 상기 이격된 렌즈의 굴절율 정보(또는 배율 정보) 등)를 이용하여 각각의 2차원 영상 데이터에 대한 초점거리를 연산하는 것을 특징으로 하며, 상기 렌즈 이격거리가 짧은 객체가 가장 가깝고, 렌즈 이격거리가 긴 객체가 가장 멀도록 연산하는 것을 특징으로 한다.Referring to FIG. 3B including an object that can be identified in the preview image data photographed and input by the image capturing unit 150, as shown in FIG. 2B, N (N> 1) pieces of the preview image data are shown. When the object is identified, the focal length calculator 110 determines the focus control information (eg, lens separation distance information for auto focus and the refractive index information of the spaced apart lens) identified in the process of auto focusing each object. Magnification information), etc.) to calculate a focal length for each two-dimensional image data, wherein the object having the shortest lens separation distance is the closest, and the object having the long lens separation distance is calculated to be the farthest. It features.

이 때, 상기 N(N>1)개의 2차원 영상 데이터에서 자동 초점된 객체는 선명한 영상 데이터를 포함하고, 상기 초점영역에서 멀어질수록 흐릿한 영상 데이터를 포함하여 이루어진다.In this case, the autofocused object in the N (N> 1) two-dimensional image data includes clear image data and includes blurry image data as it moves away from the focus area.

도면4a와 도면4b는 본 발명의 실시 방법에 따라 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위한 초점중첩 과정을 도시한 도면이다.4A and 4B illustrate a focus overlapping process for converting a 3D stereoscopic image using a multifocal 2D image according to an exemplary embodiment of the present invention.

보다 상세하게 본 도면4a와 도면4b는 도면1에 도시된 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치에 구비된 초점중첩 처리부(115)가 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)가 시선방향에 따라 정렬되도록 중첩하는 방법을 도시한 것으로서, 구체적으로 도면4a는 상기 영상 촬영부(150)를 통해 촬영되어 입력되는 미리보기 영상 데이터 내에 식별 가능한 객체가 포함되지 않은 경우, N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 초점영역이 시선방향에 따라 정렬되도록 중첩하는 방법을 도시한 것이고, 도면4b는 상기 영상 촬영부(150)를 통해 촬영되어 입력되는 미리보기 영상 데이터 내에 식별 가능한 객체가 포함된 경우, N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체가 시선방향에 따라 정렬되도록 중첩하는 방법을 도시한 것이다.In detail, FIGS. 4A and 4B show that the focus overlap processing unit 115 included in the 3D stereoscopic image converting apparatus using the multifocal 2D image shown in FIG. A method of overlapping an object (or a focus area) corresponding to a focal position so as to be aligned according to a line of sight, specifically, FIG. 4A is identified in the preview image data captured and input through the image capturing unit 150. When the possible objects are not included, a method of overlapping the focus areas corresponding to the focal positions of the N (N> 1) two-dimensional image data to be aligned along the line of sight is illustrated, and FIG. 4B illustrates the image capturing unit ( When the identifiable object is included in the preview image data captured and input through 150, an object corresponding to the focal position of the N (N> 1) two-dimensional image data is determined according to the visual direction. How to overlap so that illustrates a.

본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면4a와 도면4b를 참조 및/또는 변형하여 상기 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위한 초점중첩 과정에 대한 다양한 실시 방법을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면4a와 도면4b에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.Those skilled in the art to which the present invention pertains, various implementations of the focus overlap process for the three-dimensional stereoscopic image conversion using the multi-focus two-dimensional image by referring to and / or modified with reference to the drawings 4a and 4b The method may be inferred, but the present invention includes all the inferred implementation methods, and the technical features are not limited to the implementation method shown in FIGS. 4A and 4B.

도면4a와 도면4b를 참조하면, 상기 초점중첩 처리부(115)는 상기 N(N>1)개의 2차원 영상 데이터에 대응하는 초점위치 정보를 확인하고, 상기 초점위치에 대응하는 객체(또는 초점영역)가 시선방향에 따라 정렬되도록 중첩하는 것을 특징으로 한다.4A and 4B, the focus overlapping processor 115 checks focus position information corresponding to the N (N> 1) two-dimensional image data, and identifies an object (or a focus area) corresponding to the focus position. ) Is superimposed so as to be aligned along the line of sight.

만약 정지된 피사체를 촬영하는 경우, 상기 초점 제어부(155)의 초점 제어에 의해 상기 영상 촬영부(150)가 단위시간 동안 N(N>1)개의 2차원 영상을 촬영하는 동안 상기 피사체가 이동하지 않을 것이나, 상기 피사체가 이동하는 경우, 상기 초점 제어부(155)의 초점 제어에 의해 상기 영상 촬영부(150)가 단위시간 동안 N(N>1)개의 2차원 영상을 촬영하는 동안 상기 피사체가 이동할 것이므로, 상기 초 점중첩 처리부(115)는 상기 N(N>1)개의 2차원 영상 데이터에 대응하는 초점위치 정보를 확인하여 상기 N(N>1)개의 2차원 영상 데이터에 포함된 N(N>1)개의 객체(또는 초점영역)를 확인하고, 상기 확인된 N(N>1)개의 객체(또는 초점영역)가 시선방향에 따라 정렬되도록 중첩하는 것을 특징으로 한다.When photographing a stationary subject, the subject does not move while the image capturing unit 150 captures N (N> 1) two-dimensional images for a unit of time by focus control of the focus controller 155. However, when the subject moves, the subject moves while the image capturing unit 150 captures N (N> 1) two-dimensional images for a unit time by focus control of the focus controller 155. Since the focus overlapping processing unit 115 checks the focus position information corresponding to the N (N> 1) two-dimensional image data, the focus overlap processing unit 115 includes N (N> 1) two-dimensional image data included in the N (N> 1) two-dimensional image data. > 1) objects (or focal regions) are identified, and the identified N (N> 1) objects (or focal regions) overlap so as to be aligned along the line of sight.

상기 영상 촬영부(150)를 통해 촬영되어 입력되는 미리보기 영상 데이터 내에 식별 가능한 객체가 포함되지 않은 도면4a를 참조하면, 상기 도면2a에 도시된 바와 같이 상기 N(N>1)개의 2차원 영상 데이터에 N(N>1)개의 초점영역이 포함된 경우, 상기 초점중첩 처리부(115)는 N(N>1)개의 초점영역 경계가 중첩되도록 처리하는 것을 특징으로 한다.Referring to FIG. 4A, in which the identifiable object is not included in the preview image data photographed and input through the image capturing unit 150, as illustrated in FIG. 2A, the N (N> 1) two-dimensional images are included. When N (N> 1) focus areas are included in the data, the focus overlapping processing unit 115 may process N (N> 1) focus area boundaries to overlap.

상기 영상 촬영부(150)를 통해 촬영되어 입력되는 미리보기 영상 데이터 내에 식별 가능한 객체가 포함된 도면4b를 참조하면, N(N>1)개의 2차원 영상 데이터에 N(N>1)개의 객체가 포함된 경우, 상기 초점중첩 처리부(115)는 N(N>1)개의 객체에 대한 경계가 중첩되도록 처리하는 것을 특징으로 한다.Referring to FIG. 4B, in which the identifiable object is included in the preview image data photographed and input by the image capturing unit 150, N (N> 1) objects are included in N (N> 1) two-dimensional image data. If is included, the focus overlapping processor 115 is characterized in that the processing for overlapping the boundaries for the N (N> 1) objects.

도면5a와 도면5b는 본 발명의 실시 방법에 따라 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위한 깊이값 연산 과정을 도시한 도면이다.5A and 5B illustrate a depth value calculation process for 3D stereoscopic image conversion using a multifocal 2D image according to an exemplary embodiment of the present invention.

보다 상세하게 본 도면5a와 도면5b는 도면1에 도시된 다중 초점 2차원 영상 을 이용한 3차원 입체 영상 변환 장치에 구비된 깊이값 연산부(120)가 N(N>1)개의 2차원 영상 데이터에 대한 초점거리에 반비례하여 N(N>1)개의 2차원 영상 데이터에 대한 깊이값을 연산하는 방법을 도시한 것으로서, 구체적으로 도면5a는 상기 영상 촬영부(150)를 통해 촬영되어 입력되는 미리보기 영상 데이터 내에 식별 가능한 객체가 포함되지 않은 경우, N(N>1)개의 2차원 영상 데이터에 포함된 초점영역의 초점거리에 반비례하여 N(N>1)개의 2차원 영상 데이터에 대한 깊이값을 연산하는 방법을 도시한 것이고, 도면5b는 상기 영상 촬영부(150)를 통해 촬영되어 입력되는 미리보기 영상 데이터 내에 식별 가능한 객체가 포함된 경우, N(N>1)개의 2차원 영상 데이터에 포함된 객체의 초점거리에 반비례하여 N(N>1)개의 2차원 영상 데이터에 대한 깊이값을 연산하는 방법을 도시한 것이다.In detail, FIGS. 5A and 5B show that the depth calculator 120 included in the 3D stereoscopic image converting apparatus using the multifocal 2D image shown in FIG. 1 applies N (N> 1) two-dimensional image data. FIG. 5A illustrates a method of calculating depth values of N (N> 1) two-dimensional image data in inverse proportion to a focal length. Specifically, FIG. 5A is a preview captured by the image capturing unit 150. When the identifiable object is not included in the image data, depth values of N (N> 1) two-dimensional image data are inversely proportional to the focal length of the focal region included in the N (N> 1) two-dimensional image data. FIG. 5B is a diagram illustrating a calculation method, and FIG. 5B is included in N (N> 1) two-dimensional image data when an identifiable object is included in the preview image data captured and input by the image capturing unit 150. The focal length of the object Inversely proportional to illustrate a method of calculating a depth value for the N (N> 1) of the two-dimensional image data.

본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면5a와 도면5b를 참조 및/또는 변형하여 상기 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위한 깊이값 연산 과정에 대한 다양한 실시 방법을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면5a와 도면5b에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.Those skilled in the art to which the present invention pertains, various methods for depth value calculation process for 3D stereoscopic image conversion using the multi-focus 2D image by referring to and / or modifying the drawings 5a and 5b. Although the implementation method may be inferred, the present invention includes all the implementation methods inferred, and the technical features are not limited only to the implementation methods shown in FIGS. 5A and 5B.

도면5a와 도면5b를 참조하면, 상기 깊이값 연산부(120)는 N(N>1)개의 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 초점거리에 반비례하여 하나의 하나의 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 하나의 깊이값이 설정되도록 연산하는 것을 특징으로 한다.5A and 5B, the depth calculator 120 focuses on N (N> 1) two-dimensional image data (or an object (or a focus area) corresponding to a focus position of the two-dimensional image data). And calculating one depth value in one piece of 2D image data (or an object (or a focus area) corresponding to a focus position of the 2D image data) in inverse proportion to the distance.

상기 영상 촬영부(150)를 통해 촬영되어 입력되는 미리보기 영상 데이터 내에 식별 가능한 객체가 포함되지 않은 도면5a를 참조하면, 상기 도면2a에 도시된 바와 같이 상기 N(N>1)개의 2차원 영상 데이터에 N(N>1)개의 초점영역이 포함된 경우, 상기 깊이값 연산부(120)는 N(N>1)개의 초점영역 중 초점거리가 가까운 2차원 영상 데이터의 깊이값은 '1'로 설정하고, 상기 초점거리가 두 번째로 가까운 2차원 영상 데이터의 깊이값은 '2'로 설정하고, 상기 초점거리가 가장 먼 2차원 영상 데이터의 깊이값은 'N'으로 설정하는 것을 특징으로 한다.Referring to FIG. 5A, in which the identifiable object is not included in the preview image data photographed and input by the image capturing unit 150, as illustrated in FIG. 2A, the N (N> 1) two-dimensional images are included. When the data includes N (N> 1) focal regions, the depth calculator 120 determines a depth value of 2D image data having a near focal length among the N (N> 1) focal regions as '1'. The depth value of the 2D image data having the second closest focal length is set to '2', and the depth value of the 2D image data having the furthest focal length is set to 'N'. .

상기 영상 촬영부(150)를 통해 촬영되어 입력되는 미리보기 영상 데이터 내에 식별 가능한 객체가 포함된 도면5b를 참조하면, N(N>1)개의 2차원 영상 데이터에 N(N>1)개의 객체가 포함된 경우, 상기 깊이값 연산부(120)는 N(N>1)개의 객체 중 초점거리가 가까운 2차원 영상 데이터의 깊이값은 '1'로 설정하고, 상기 초점거리가 두 번째로 가까운 2차원 영상 데이터의 깊이값은 '2'로 설정하고, 상기 초점거리가 가장 먼 2차원 영상 데이터의 깊이값은 'N'으로 설정하는 것을 특징으로 한다.Referring to FIG. 5B, in which the identifiable object is included in the preview image data captured and input by the image capturing unit 150, N (N> 1) objects are included in N (N> 1) two-dimensional image data. Is included, the depth calculator 120 sets the depth value of the two-dimensional image data having the closest focal length among the N (N> 1) objects to '1' and the second closest to the focal length. The depth value of the 2D image data is set to '2', and the depth value of the 2D image data having the furthest focal length is set to 'N'.

도면6는 본 발명의 실시 방법에 따라 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위한 거리인식 방법을 도시한 도면이다.6 is a diagram illustrating a distance recognition method for 3D stereoscopic image conversion using a multifocal 2D image according to an exemplary embodiment of the present invention.

보다 상세하게 본 도면6는 도면1에 도시된 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치에 구비된 시차정보 확인부가 상기 초점거리와 깊이값을 기반으로 좌안과 우안에 대응하는 거리를 인식하는 방법을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면6를 참조 및/또는 변형하여 상기 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위한 거리인식 방법에 대한 다양한 실시 방법을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면6에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, in FIG. 6, the parallax information confirming unit included in the 3D stereoscopic image converting apparatus using the multifocal 2D image shown in FIG. 1 recognizes a distance corresponding to the left and right eyes based on the focal length and the depth value. As shown in the drawings, a person of ordinary skill in the art to which the present invention pertains can refer to and / or modify the drawing 6 and distance recognition method for 3D stereoscopic image conversion using the multifocal 2D image. Various embodiments of the present invention can be inferred, but the present invention includes all the implementation methods inferred above, and the technical features are not limited only to the embodiment shown in FIG.

인간이 좌안과 우안을 통해 거리를 인식하는 방법은, 상기 좌안과 우안의 거리와, 상기 좌안과 우안에서 초점까지 거리에 대한 삼각함수(또는 로그함수)를 포함하는 비선형 함수로 이루어지는데, 도면6를 참조하면, 인간은 각 개인의 시력(또는 보정시력)에 따라 초점을 맞출 수 있는 범위(본 도면6에서 "최소거리"라고 함) 내에 있는 피사체는 삼각함수에 따라 거리를 인식하고, 상기 초점을 맞추기 난해한 범위(예컨대, 최소거리보다 먼 거리)에 있는 피사체는 로그함수에 따라 거리를 인식하는 것을 특징으로 한다.A method of recognizing a distance through a left eye and a right eye includes a nonlinear function including a distance between the left eye and the right eye and a trigonometric function (or logarithmic function) for the distance from the left eye and the right eye to the focal point. Referring to FIG. 6, a human subject within a range capable of focusing according to each person's vision (or corrected vision) (referred to as “minimum distance” in FIG. 6) recognizes a distance according to a trigonometric function, and focuses on the subject. The subject in a difficult range (eg, a distance farther than the minimum distance) is characterized by recognizing the distance according to the logarithmic function.

반면 상기 도면1에 도시된 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치가 구비되는 디지털 카메라(또는 비디오 카메라)는 렌즈 성능(또는 배율)에 따라 상기 로그함수 영역에 존재하는 피사체까지도 선명하게 초점을 맞출 수 있다.On the other hand, a digital camera (or video camera) equipped with a three-dimensional stereoscopic image conversion apparatus using a multi-focus two-dimensional image shown in FIG. 1 sharply even a subject existing in the logarithmic function area according to lens performance (or magnification). You can focus.

상기 초점거리 연산부(110)에 의해 N(N>1)개의 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 초점거리가 연산되면, 상기 시차정보 확인부는 상기 초점거리가 상기 삼각함수로 인식되는 최소거리 내에 존재하는지, 또는 로그함수로 인식되는 최소거리 밖에 존재하는지 확인하는 것을 특징으로 하며, 여기서 상기 최소거리는 상기 다중 초점 2차원 영상으로부터 변환된 3차원 입체 영상을 시청하는 시청자 그룹의 평균값을 이용하거나, 또는 상기 키 입력부(175)를 통해 상기 최소거리를 직접 설정하거나, 또는 상기 키 입력부(175)를 통해 시력(또는 보정시력) 값을 입력하면, 상기 시력(또는 보정시력)에 대응하는 최소거리가 자동 설정되는 것이 바람직하다.When the focal length is calculated by the focal length calculator 110 for N (N> 1) two-dimensional image data (or an object (or a focal region) corresponding to a focal position of the two-dimensional image data), the parallax information The identification unit may determine whether the focal length is within the minimum distance recognized by the trigonometric function or outside the minimum distance recognized by the logarithmic function, wherein the minimum distance is 3 converted from the multi-focus 2D image. By using an average value of a group of viewers viewing a 3D stereoscopic image, directly setting the minimum distance through the key input unit 175, or inputting a visual acuity (or corrected vision) value through the key input unit 175. Preferably, the minimum distance corresponding to the visual acuity (or correction visual acuity) is automatically set.

본 발명의 실시 방법에 따르면, 상기 제1 내지 제n(n=2,3,...,N) 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))의 초점거리가 상기 최소거리 밖(예컨대, 로그함수 영역)에 위치하면, 상기 시차정보 확인부는 해당 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))을 시차처리 범위에서 배제하는 것이 바람직하며, 당업자의 의도에 따라 N(N>1)개의 2차원 영상 데이터가 전체적으로 확대된 경우(예컨대, 망원 렌즈를 이용하여 촬영한 경우), 상기 최소거리의 시작위치를 렌즈에서 피사체로 일정 거리가 떨어진 위치에 가상으로 설정하여 상기 피사체를 상기 최소거리 내에 위치하도록 설정하는 것이 가능하다.According to an embodiment of the present invention, the first to n-th (n = 2,3, ..., N) two-dimensional image data (or an object (or a focus area) corresponding to a focal position of the two-dimensional image data) When the focal length is outside the minimum distance (eg, a logarithmic region), the parallax information checking unit disparages the corresponding 2D image data (or an object (or a focal region) corresponding to the focal position of the 2D image data) It is preferable to exclude from the processing range, and when the N (N> 1) two-dimensional image data is enlarged as a whole (for example, by using a telephoto lens), the starting position of the minimum distance is determined. It is possible to set the subject to be located within the minimum distance by virtually setting a position away from the lens by the subject.

상기 초점거리가 상기 최소거리 내에 위치하는 N(N>1)개의 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 있어서, 상기 시차정보 확인부는 상기 초점거리 연산부(110)에 의해 연산된 깊이값에 따른 N(N>1)개의 2차원 영상 데이터에 대한 N(N>1)개의 초점거리와, 좌안과 우안 사이의 양안 거리(예컨대, 평균 안면 크기에 따른 평균 양안 거리, 키 입력부(175)를 통해 설정 가능)를 기반으로 N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 N(N>1)개의 시차각 정보를 산출(또는 확인)하는 것을 특징으로 한다.In the N (N> 1) two-dimensional image data (or an object corresponding to a focal position of the two-dimensional image data) in which the focal length is located within the minimum distance, the parallax information checking unit is arranged in the focal point. N (N> 1) focal lengths for the N (N> 1) two-dimensional image data according to the depth value calculated by the distance calculating unit 110 and the binocular distance between the left and right eyes (eg, average face size) An object corresponding to the focal position of N (N> 1) two-dimensional image data (or N (N> 1) two-dimensional image data) based on an average binocular distance according to (Or focal region)) N (N> 1) pieces of parallax angle information are calculated (or confirmed).

도면7는 본 발명의 실시 방법에 따라 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위한 시차처리 방법을 도시한 도면이다.7 illustrates a parallax processing method for 3D stereoscopic image conversion using a multifocal 2D image according to an exemplary embodiment of the present invention.

보다 상세하게 본 도면7는 도면1에 도시된 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치에 구비된 시차정보 확인부가 상기 초점거리와 깊이값을 기반으로 좌안과 우안에 대응하는 시차처리 정보를 생성하는 방법을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면7를 참조 및 /또는 변형하여 상기 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환을 위한 시차처리 방법에 대한 다양한 실시 방법을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면7에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, in FIG. 7, the parallax information checking unit included in the 3D stereoscopic image converting apparatus using the multifocal 2D image shown in FIG. 1 corresponds to the left and right eyes based on the focal length and depth values. As a method for generating a digital signal, a person having ordinary skill in the art to which the present invention pertains can perform parallax for converting a 3D stereoscopic image using the multifocal 2D image by referring to and / or modifying the drawing 7. Various implementation methods for the processing method may be inferred, but the present invention includes all the implementation methods inferred above, and the technical features are not limited only to the implementation method shown in FIG.

상기 도면6에 도시된 거리인식 방법을 통해 상기 초점거리가 상기 최소거리 내에 위치하는 N(N>1)개의 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 시차각 정보가 산출(또는 확인)되면, Through the distance recognition method shown in FIG. 6, N (N> 1) two-dimensional image data (or an object corresponding to a focal position of two-dimensional image data) in which the focal length is located within the minimum distance. Once the parallax information for) is calculated (or confirmed),

상기 시차정보 확인부는 N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)) 중, 영시차(Zero Parallex)로 처리할 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))을 확인하는 것을 특징으로 한다.The parallax information checking unit performs zero parallax among N (N> 1) two-dimensional image data (or an object (or a focus area) corresponding to a focal position of N (N> 1) two-dimensional image data). It is characterized by identifying the zero-parallel target two-dimensional image data (or an object (or a focal region) corresponding to the focal position of the two-dimensional image data) to be processed.

본 발명의 일 실시 방법에 따르면, 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))는, N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)) 중, 초점거리가 중간(예컨대, 가장 가까운 초점거리와 가장 먼 초점거리의 중간값)에 위치하거나, 또는 깊이값이 중간(예컨대, 가장 작은 깊이값과 가장 큰 깊이값의 중간값)에 위치하는 2차원 영상 데이터(또는 2차원 영상 데이 터의 초점위치에 대응하는 객체(또는 초점영역))를 상기 영시차 대상으로 확인하는 것이 바람직하다.According to an exemplary embodiment of the present invention, the zero-parallel target 2D image data (or an object (or a focus area) corresponding to a focal position of the 2D image data) includes N (N> 1) pieces of 2D image data ( Or among the N (N> 1) pieces of two-dimensional image data (or an object corresponding to the focal point), the focal length is located in the middle (for example, the middle of the closest and farthest focal lengths) Or two-dimensional image data (or an object corresponding to a focal position of the two-dimensional image data) whose depth value is located in the middle (eg, the middle of the smallest depth value and the largest depth value). It is preferable to confirm with the said zero parallax object.

본 발명의 다른 일 실시 방법에 따르면, 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))는, N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)) 중, 초점거리가 가장 가깝거나, 또는 깊이값이 가장 작은 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))를 상기 영시차 대상으로 확인하는 것이 바람직하다.According to another exemplary embodiment of the present invention, the zero parallax target two-dimensional image data (or an object (or a focus area) corresponding to a focal position of the two-dimensional image data) includes N (N> 1) two-dimensional image data. (Or two-dimensional image data (or two-dimensional image) having the shortest focal length or the smallest depth value (or an object corresponding to the focal position of N (N> 1) two-dimensional image data). Preferably, the object (or focus area) corresponding to the focus position of the data is identified as the zero parallax object.

본 발명의 또다른 일 실시 방법에 따르면, 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))는, N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)) 중, 초점거리가 가장 멀거나, 또는 깊이값이 가장 큰 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))를 상기 영시차 대상으로 확인하는 것이 바람직하다.According to another exemplary embodiment of the present invention, the zero-parallel target 2D image data (or an object (or a focal region) corresponding to a focal position of the 2D image data) includes N (N> 1) 2D images. Two-dimensional image data (or two-dimensional) having the longest focal length or the largest depth value among the data (or objects (or focal regions) corresponding to the focal positions of N (N> 1) two-dimensional image data) Preferably, the object (or focus area) corresponding to the focus position of the image data is identified as the zero parallax object.

또한, 상기 시차정보 확인부는 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))보다 초점거리가 가깝거나, 또는 깊이값이 작은 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위 치에 대응하는 객체(또는 초점영역))을 양시차(Positive Parallex) 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))로 확인하고, 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))보다 초점거리가 멀거나, 또는 깊이값이 큰 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))을 음시차(Negative Parallex) 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))로 확인하는 것을 특징으로 한다.The parallax information confirming unit may be two-dimensional image data having a smaller focal length or a smaller depth than the two-dimensional image data (or an object corresponding to the focal position of the two-dimensional image data). (Or an object (or focus area) corresponding to the focal position of the 2D image data) is a positive parallex target 2D image data (or an object (or focus area) corresponding to the focal position of the 2D image data). 2D image data (or a larger focal length or greater depth than the zero-parallel target 2D image data (or an object (or a focus area) corresponding to the focal position of the 2D image data)) An object corresponding to a focal position of two-dimensional image data (or an object corresponding to a focal position of two-dimensional image data) (or a focus area) Characterized in that a check point area)).

또한, 상기 시차정보 확인부는 N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 N(N>1)개의 시차각 정보와 초점거리 정보를 삼각함수(또는 로그함수)에 대입하여, 본 도면7에 도시된 바와 같이 상기 양시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 양시차 방향 픽셀이동 정보와, 상기 음시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 음시차 방향 픽셀이동 정보를 확인하는 것을 특징으로 한다.The disparity information checking unit may further include N (N> 1) for N (N> 1) two-dimensional image data (or an object (or focal region) corresponding to a focal position of N (N> 1) two-dimensional image data). 1) disparity angle information and focal length information are substituted into a trigonometric function (or logarithmic function), and as shown in FIG. 7, the two-dimensional parallax object 2D image data (or the focal position of the 2D image data) Bilateral parallax pixel movement information for an object (or focal region) and parallax pixel for the parallax target 2D image data (or an object (or focal region) corresponding to a focal position of the 2D image data) Characterize the movement information.

도면8a와 도면8b는 본 발명의 일 실시 방법에 따른 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 과정을 도시한 도면이다.8A and 8B illustrate a 3D stereoscopic image conversion process using a multifocal 2D image according to an exemplary embodiment of the present invention.

보다 상세하게 본 도면8a와 도면8b는 도면1에 도시된 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치에서, 상기 N(N>1)개의 초점정보를 결정하고, 상기 결정된 N(N>1)개의 초점정보를 기반으로 N(N>1)개의 2차원 영상 데이터를 획득하고, 상기 획득된 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 일정 변환 크기(또는 해상도)로 축소하고, 상기 N(N>1)개의 2차원 영상 데이터에 대한 초점거리를 연산하고, 초점중첩을 처리하고, 상기 초점거리에 반비례하는 깊이값을 연산하여 N(N>1)개의 2차원 영상 데이터를 합성하고, 상기 합성된 2차원 영상 데이터에 대한 시차처리 정보를 확인하고, 상기 시차처리 정보를 기반으로 좌안 영상 데이터와 우안 영상 데이터를 생성하는 실시 방법을 도시한 도면이다.In more detail, FIGS. 8A and 8B illustrate N (N> 1) pieces of focus information in the 3D stereoscopic image conversion apparatus using the multi-focus 2D image shown in FIG. 1, and the determined N (N> 1) Acquire N (N> 1) 2D image data based on the focus information, and convert the size (or resolution) of the obtained N (N> 1) 2D image data into a predetermined transform size (or resolution). 2), calculate a focal length for the N (N> 1) two-dimensional image data, process a focal overlap, and calculate a depth value inversely proportional to the focal length. A method of synthesizing dimensional image data, checking disparity processing information on the synthesized 2D image data, and generating left eye image data and right eye image data based on the disparity processing information.

본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면8a와 도면8b를 참조 및/또는 변형하여 상기 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 과정에 대한 다양한 실시 방법을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면8a와 도면8b에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.Those skilled in the art to which the present invention pertains may refer to and / or modify the drawings 8a and 8b to infer various implementation methods for the 3D stereoscopic image conversion process using the multifocal 2D image. As will be appreciated, the present invention includes all the inferred implementation methods, and the technical features are not limited to the implementation method shown in FIGS. 8A and 8B.

예컨대, 본 도면8a와 도면8b에서 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 과정에서 다중 초점 2차원 영상을 합성하는 과정은, (N>1)개의 2차원 영상 데이터에 대한 초점거리를 연산하고, 초점중첩을 처리하고, 상기 초점거리에 반 비례하는 깊이값을 연산하는 과정을 통해 이루어지는 것으로 도시하지만, 상기 다중 초점 2차원 영상을 합성하는 과정이 반드시 기 순서에 따라 처리되는 것은 결코 아니며, 당업자의 의도에 따라 일부 과정의 순서를 변경(또는 생략)할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.For example, in the process of synthesizing a multi-focus two-dimensional image in a three-dimensional stereoscopic image conversion process using the multi-focus two-dimensional image in FIGS. 8A and 8B, the focal lengths for (N> 1) two-dimensional image data are calculated. Although a process of focus overlapping and calculating a depth value that is inversely proportional to the focal length is shown, the process of synthesizing the multifocal two-dimensional image is not necessarily processed according to a previous order. The order of some of the processes may be changed (or omitted) according to the intention of those skilled in the art, and the present invention is not limited thereto.

또는, 본 도면8a와 도면8b에서 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 과정에서 상기 획득되는 (N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 축소한 후, 상기 초점거리와 깊이값을 연산하여 (N>1)개의 2차원 영상 데이터를 합성한 후 상기 시차처리 정보를 확인하는 과정을 포함하는 것으로 도시하지만, 상기 획득되는 (N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 축소하는 것은 상기 초점거리와 시차처리 정보가 확인된 후 상기 (N>1)개의 2차원 영상 데이터를 합성하기 전에 수행되어도 무방하며, 이에 의해 본 발명이 한정되지 아니한다.Alternatively, the focal length is reduced after reducing the size (or resolution) of the (N> 1) pieces of 2D image data obtained in a 3D stereoscopic image conversion process using a multifocal 2D image in FIGS. 8A and 8B. And calculating the parallax processing information after calculating (N> 1) two-dimensional image data by calculating a depth value and a depth value, but the size of the obtained (N> 1) two-dimensional image data. (Or the resolution) may be reduced after the focal length and the parallax processing information are confirmed and before synthesizing the (N> 1) two-dimensional image data, and the present invention is not limited thereto.

도면8a와 도면8b를 참조하면, 상기 도면1에 도시된 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치에 구비된 초점정보 결정부(160)는 상기 영상 촬영부(150)를 통해 촬영되어 입력되는 미리보기 영상 데이터에 포함된 N(N>1)개의 객체를 패턴 인식(또는 이미지 인식)을 통해 자동 인식하거나, 또는 상기 키 입력부(175)와 연계하여 상기 미리보기 영상 데이터에 포함된 N(N>1)개의 객체를 수동으로 선택함으로써, 상기 미리보기 영상 데이터에 N(N>1)개의 객체(예컨대, 사람, 동물, 물건과 같이 배경(또는 다른 객체)와 구분되는 경계를 포함하는 피사체)가 포함되어 있는지 확인함으로써, 상기 도면2a 또는 도면2b에 도시된 바와 같이 N(N>1)개의 객체(또는 초점영역)에 대한 N(N>1)개의 초점위치와 초점수를 결정한다(800).8A and 8B, the focus information determiner 160 included in the 3D stereoscopic image converting apparatus using the multifocal 2D image illustrated in FIG. 1 is photographed by the image capturing unit 150. N (N> 1) objects included in the input preview image data are automatically recognized through pattern recognition (or image recognition), or N included in the preview image data in connection with the key input unit 175. By manually selecting (N> 1) objects, the preview image data includes boundaries that are distinguished from N (N> 1) objects (e.g., a background (or other object, such as a person, an animal, or an object)). By determining whether a subject is included, N (N> 1) focal points and the number of foci of the N (N> 1) objects (or focal regions) are determined as shown in FIG. 2A or 2B. (800).

본 발명의 일 실시 방법에 따라 상기 미리보기 영상 데이터 내에 식별 가능한 객체가 포함되지 않은 경우, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터를 N(N>1)개의 초점영역으로 구분하고, N(N>1)개 초점영역의 중심위치를 N(N>1)개의 초점위치로 결정하는 것이 바람직하며, 상기 N(N>1)개의 초점위치 개수를 N(N>1)개의 초점수로 결정하는 것이 바람직하다.According to an exemplary embodiment of the present invention, when the identifiable object is not included in the preview image data, the focus information determiner 160 divides the preview image data into N (N> 1) focal regions. Preferably, the center positions of the N (N> 1) focal regions are determined as N (N> 1) focal positions, and the number of N (N> 1) focal positions is N (N> 1) focal points. It is preferable to determine the number.

여기서, 상기 N(N>1)개의 초점수 정보는 상기 영상 촬영부(150)가 단위시간 동안 촬영 가능한 최대 촬영수, 또는 상기 초점 제어부(155)가 단위시간 동안 상기 영상 촬영부(150)의 초점을 제어할 수 있는 최대 제어횟수, 또는 상기 영상 획득부(165)가 단위시간 동안 상기 영상 촬영부(150)로부터 2차원 영상 데이터를 획득할 수 있는 최대 영상 데이터 획득수를 적어도 하나 이상 포함하는 한도 초점수 보다 작게 설정되는 것이 바람직하다.Here, the N (N> 1) pieces of focal number information is the maximum number of shots that the image capturing unit 150 can capture for a unit time, or the focus control unit 155 of the image capturing unit 150 for a unit time. At least one maximum control number for controlling the focus, or at least one maximum number of image data acquisition that the image acquisition unit 165 can obtain two-dimensional image data from the image capture unit 150 for a unit time It is preferable to set smaller than the limit focal number.

본 발명의 일 실시 방법에 따르면, 상기 초점정보 결정부(160)는 본 도면8a와 도면8ba에 도시된 바와 같이 상기 미리보기 영상 데이터를 상하 방향으로 N(N>1)개의 초점영역으로 구분하고, 상기와 같이 상하 방향으로 구분된 N(N>1)개 초점영역의 중심위치를 N(N>1)개의 초점위치로 결정하는 것이 바람직하다.According to the exemplary embodiment of the present invention, the focus information determiner 160 divides the preview image data into N (N> 1) focal regions in the vertical direction as shown in FIGS. 8A and 8BA. As described above, it is preferable to determine the center positions of the N (N> 1) focal regions divided in the vertical direction as the N (N> 1) focal positions.

본 발명의 다른 일 실시 방법에 따르면, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터를 좌우 방향으로 N(N>1)개의 초점영역으로 구분하고, 상기와 같이 좌우 방향으로 구분된 N(N>1)개 초점영역의 중심위치를 N(N>1)개의 초점위치로 결정하는 것이 바람직하다.According to another exemplary embodiment of the present invention, the focus information determiner 160 divides the preview image data into N (N> 1) focal regions in the left and right directions, and the N divided in the left and right directions as described above. It is preferable to determine the center positions of the (N> 1) focal regions as N (N> 1) focal positions.

본 발명의 또다른 일 실시 방법에 따르면, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터를 격자 모양에 따라 N(N>1)개의 초점영역으로 구분하고, 상기와 같이 격자 모양으로 구분된 N(N>1)개 초점영역의 중심위치를 N(N>1)개의 초점위치로 결정하는 것이 바람직하다.According to another exemplary embodiment of the present invention, the focus information determiner 160 divides the preview image data into N (N> 1) focal regions according to a grid shape, and divides the preview image data into a grid shape as described above. It is preferable to determine the center position of the N (N> 1) focusing areas as N (N> 1) focusing positions.

본 발명의 다른 일 실시 방법에 따라 상기 미리보기 영상 데이터 내에 식별 가능한 객체가 포함된 경우, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터 내에 포함된 N(N>1)개의 객체의 중심위치를 N(N>1)개의 초점위치로 결정하는 것이 바람직하며, 상기 N(N>1)개의 초점위치 개수를 N(N>1)개의 초점수로 결정하는 것이 바람직하다.According to another exemplary embodiment of the present invention, when the identifiable object is included in the preview image data, the focus information determiner 160 may include the centers of N (N> 1) objects included in the preview image data. Preferably, the position is determined to be N (N> 1) focal positions, and the number of N (N> 1) focal positions is preferably determined to be N (N> 1) focal positions.

여기서, 상기 N(N>1)개의 초점수 정보는 상기 영상 촬영부(150)가 단위시간 (예컨대, 50ms 등) 동안 촬영 가능한 최대 촬영수, 또는 상기 초점 제어부(155)가 단위시간 동안 상기 영상 촬영부(150)의 초점을 제어할 수 있는 최대 제어횟수, 또는 상기 영상 획득부(165)가 단위시간 동안 상기 영상 촬영부(150)로부터 2차원 영상 데이터를 획득할 수 있는 최대 영상 데이터 획득수를 적어도 하나 이상 포함하는 한도 초점수 보다 작게 설정되는 것이 바람직하다.In this case, the N (N> 1) pieces of focus information is the maximum number of shots that the image capturing unit 150 can take for a unit time (for example, 50 ms, etc.) or the focus control unit 155 takes the image for a unit time. Maximum number of control times for controlling the focus of the photographing unit 150 or maximum number of image data acquisition units for obtaining the 2D image data from the image photographing unit 150 by the image obtaining unit 165 for a unit time. It is preferably set smaller than the limit focal number including at least one.

본 발명의 일 실시 방법에 따라 상기 미리보기 영상 데이터 내에 포함된 초점위치 개수(또는 초점수)가 상기 한도 초점수보다 많은 경우, 상기 초점정보 촬영부는 상기 미리보기 영상 데이터에 포함된 객체 중에서 상기 미리보기 영상 데이터의 중심위치(또는 상단, 또는 하단, 또는 좌측, 또는 우측)에 있는 객체 중 상기 한도 초점수 이내의 객체에 대한 N(N>1)개의 초점위치를 결정하는 것이 바람직하다.According to an exemplary embodiment of the present disclosure, when the number of focus positions (or the number of focal points) included in the preview image data is greater than the limit focal number, the focus information photographing unit may include the preview image among the objects included in the preview image data. It is preferable to determine N (N> 1) focal positions for objects within the above limit focal number among objects at the center position (or top, bottom, left, or right) of the viewing image data.

본 발명의 다른 일 실시 방법에 따라 상기 미리보기 영상 데이터 내에 포함된 초점위치 개수(또는 초점수)가 상기 한도 초점수보다 적은 경우, 상기 초점정보 촬영부는 상기 미리보기 영상 데이터에 포함된 N(N>1)개의 객체에 대한 N(N>1)개의 초점위치를 결정하는 것이 바람직하다.According to another exemplary embodiment of the present invention, when the number of focus positions (or the number of focus points) included in the preview image data is less than the limit focus number, the focus information photographing unit includes N (N) included in the preview image data. It is desirable to determine N (N> 1) focal positions for> 1) objects.

상기 초점정보 결정부(160)에 의해 상기 N(N>1)개의 초점위치 정보와 N(N>1)개의 초점수가 결정되면, 상기 초점 제어부(155)는 상기 영상 촬영부(150)의 초점 을 상기 N(N>1)개의 초점위치 중, 제1 초점위치에 자동 초점하도록 제어하여 상기 영상 촬영부(150)를 통해 제1 2차원 영상을 촬영하며(805), 상기 영상 획득부(165)는 제1 초점위치에 대한 제1 2차원 영상 데이터를 획득하고(810), 이에 대응하여 상기 초점 제어부(155)는 상기 제1 자동 초점에 대한 제1 초점제어 정보를 확인하며(815), 상기 과정은 N(N>1)개의 초점위치에 대한 N(N>1)개의 2차원 영상 데이터가 획득되고, N(N>1)개의 초점위치 초점제어 정보가 확인될 때까지(825), 제n(n=2,3,...,N) 초점위치에 대하여 반복적으로 수행된다(820).When the N (N> 1) focal position information and the N (N> 1) focal number are determined by the focus information determiner 160, the focus controller 155 may focus on the image capturing unit 150. Control to autofocus to a first focus position among the N (N> 1) focus positions to capture a first 2D image through the image capturing unit 150 (805), and the image obtaining unit 165 ) Acquires the first two-dimensional image data for the first focus position (810), and correspondingly, the focus controller 155 confirms the first focus control information for the first auto focus (815), In the process, until N (N> 1) two-dimensional image data for N (N> 1) focal positions are obtained and N (N> 1) focal position focus control information is confirmed (825), In operation 820, the n th (n = 2,3, ..., N) focal point is repeatedly performed.

상기 과정을 통해 N(N>1)개의 2차원 영상 데이터가 획득되고, N(N>1)개의 초점위치 초점제어 정보가 확인되면(825), 상기 입력영상 축소부(105)는 상기 2차원 영상 데이터 개수(N)에 대응하는 변환 크기(또는 해상도)를 확인하고, 상기 입력되는 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)와 상기 확인된 크기(또는 해상도)를 비교하여 상기 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 축소 변환할지 확인한다(830).When the N (N> 1) two-dimensional image data is obtained through the process, and the N (N> 1) focal position focus control information is confirmed (825), the input image reduction unit 105 performs the two-dimensional image. Check the conversion size (or resolution) corresponding to the number N of image data, and compare the size (or resolution) of the input N (N> 1) two-dimensional image data with the checked size (or resolution). In operation 830, it is checked whether to reduce or reduce the size (or resolution) of the N (N> 1) two-dimensional image data.

본 발명의 실시 방법에 따르면, 상기 입력영상 축소부(105)는 상기 영상 변환 모듈(100)의 데이터 처리 속도에 대응하여 상기 좌/우 영상 데이터를 기 설정된 변환시간 안에 생성하기 위한 변환 크기(또는 해상도)를 확인하는 것이 바람직하다.According to the exemplary embodiment of the present invention, the input image reduction unit 105 may convert the left / right image data within a preset conversion time (or corresponding to the data processing speed of the image conversion module 100). Resolution).

여기서, 상기 영상 변환 모듈(100)의 데이터 처리 속도가 일정하다면, 상기 변환시간이 짧을수록 상기 변환 크기(또는 해상도)가 작아지고, 상기 변환시간이 길수록 상기 변환 크기(또는 해상도)가 커질 것이며, 또한 상기 2차원 영상 데이터 개수(N)가 많을수록 상기 변환 크기(또는 해상도)가 작아지고, 상기 2차원 영상 데이터 개수(N)가 적을수록 상기 변환 크기(또는 해상도)가 커질 것이다.Here, if the data processing speed of the image conversion module 100 is constant, the shorter the conversion time, the smaller the transform size (or resolution), and the longer the conversion time, the larger the transform size (or resolution), The larger the number N of 2D image data, the smaller the transform size (or resolution), and the smaller the number N of 2D image data, the larger the transform size (or resolution).

예컨대, 상기 영상 획득부(165)를 통해 입력되는 N(N>1)개의 2차원 영상 데이터가 하나의 정지 이미지라면, 상기 변환시간이 수초 이내로 길어도 무방할 것이나, 상기 영상 획득부(165)를 통해 입력되는 N(N>1)개의 2차원 영상 데이터가 동영상이라면, 상기 변환시간은 초당 프레임 수에 대응하는 수~수십 밀리 초 이내로 짧아야 한다.For example, if the N (N> 1) two-dimensional image data input through the image acquisition unit 165 is one still image, the conversion time may be longer than several seconds, but the image acquisition unit 165 may be If the N (N> 1) two-dimensional image data input through the video, the conversion time should be short within a few to several tens of milliseconds corresponding to the number of frames per second.

상기 변환 크기(또는 해상도)가 확인되면, 상기 입력영상 축소부(105)는 상기 영상 획득부(165)로부터 입력되는 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 상기 확인된 크기(또는 해상도)에 맞게 축소 변형할지 확인하는데, 만약 상기 영상 획득부(165)로부터 입력되는 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)가 상기 확인된 변환 크기(또는 해상도)보다 작거나 같다면, 상기 입력영상 축소부(105)가 상기 N(N>1)개의 2차원 영상 데이터를 축소하지 않아도 무방하다.When the conversion size (or resolution) is confirmed, the input image reduction unit 105 confirms the size (or resolution) of N (N> 1) two-dimensional image data input from the image acquisition unit 165. The size (or resolution) of the N (N> 1) two-dimensional image data input from the image acquisition unit 165 is determined as the transformed size (or Resolution), the input image reduction unit 105 may not reduce the N (N> 1) two-dimensional image data.

만약 상기 확인결과 상기 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상 도)를 축소 변환해야 한다면(835), 상기 입력영상 축소부(105)는 상기 획득된 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 상기 변환 크기(또는 해상도)에 맞게 축소 변환한다(840).If the result of the check indicates that the size (or resolution) of the N (N> 1) two-dimensional image data needs to be reduced and converted (835), the input image reduction unit 105 may obtain the obtained N (N> 1). The size (or resolution) of two pieces of 2D image data is reduced and converted according to the conversion size (or resolution) (840).

상기 초점거리 연산부(110)는 상기 확인된 N(N>1)개의 초점제어 정보(예컨대, 자동 초점을 위한 렌즈 이격거리 정보와, 상기 이격된 렌즈의 굴절율 정보(또는 배율 정보) 등)를 이용하여 상기 도면3a 또는 도면3b에 도시된 바와 같이 상기 N(N>1)개의 2차원 영상 데이터에 포함된 객체(또는 초점영역)와 렌즈 간 초점거리를 연산한다(845).The focal length calculator 110 uses the identified N (N> 1) pieces of focus control information (eg, lens separation distance information for auto focus, refractive index information (or magnification information), etc. of the spaced apart lens). As shown in FIG. 3A or 3B, a focal length between an object (or a focal region) and a lens included in the N (N> 1) two-dimensional image data is calculated (845).

만약 N(N>1)개의 2차원 영상 데이터에 대한 초점거리가 연산되면(850), 상기 초점중첩 처리부(115)는 상기 N(N>1)개의 2차원 영상 데이터에 대응하는 초점위치 정보를 확인하고, 상기 초점위치에 대응하는 객체(또는 초점영역)가 시선방향에 따라 정렬하여 상기 도면4a 또는 도면4b에 도시된 바와 같이 중첩되도록 처리한다(855).If the focal lengths for the N (N> 1) two-dimensional image data are calculated (850), the focus overlap processing unit 115 provides the focal position information corresponding to the N (N> 1) two-dimensional image data. In operation 855, the object (or the focus area) corresponding to the focus position is aligned in line of sight and overlapped as shown in FIG. 4A or 4B.

만약 상기 N(N>1)개의 2차원 영상 데이터가 중첩 처리되면(860), 상기 깊이값 연산부(120)는 N(N>1)개의 2차원 영상 데이터에 대한 초점거리가 가까운 것에서 먼 순서대로 배열하여 N(N>1)개의 2차원 영상 데이터에 대한 깊이값을 연산하며(865), 여기서 하나의 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 하나의 깊이값이 설정되는 것이 바람직하다.If the N (N> 1) two-dimensional image data are superimposed (860), the depth calculator 120 performs the order in which the focal lengths for the N (N> 1) two-dimensional image data are close to each other in a distant order. Arranged to calculate depth values for N (N> 1) two-dimensional image data (865), where one two-dimensional image data (or an object corresponding to a focal position of the two-dimensional image data (or a focus area)) Preferably, one depth value is set at.

본 발명의 실시 방법에 따르면, N(N>1)개의 2차원 영상 데이터에 대한 초점거리가 가까운 2차원 영상 데이터의 깊이값은 '1'로 설정되고, 상기 초점거리가 두 번째로 가까운 2차원 영상 데이터의 깊이값은 '2'로 설정되고, 상기 초점거리가 가장 먼 2차원 영상 데이터의 깊이값은 'N'으로 설정되는 것이 바람직하다.According to an exemplary embodiment of the present invention, a depth value of two-dimensional image data having close focal lengths for N (N> 1) two-dimensional image data is set to '1', and the two-dimensional closest focal length is two-dimensional. Preferably, the depth value of the image data is set to '2', and the depth value of the two-dimensional image data having the furthest focal length is set to 'N'.

만약 상기 N(N>1)개의 2차원 영상 데이터에 대한 깊이값이 연산되면(870), 상기 깊이값 영상 합성부(125)는 상기 초점이 중첩된 N(N>1)개의 2차원 영상 데이터를 상기 깊이값에 따라 배열하고, 상기 배열된 N(N>1)개의 2차원 영상 데이터를 상기 깊이값에 합성하여 합선된 2차원 영상 데이터를 생성한다(875).If depth values of the N (N> 1) two-dimensional image data are calculated (870), the depth value image synthesis unit 125 performs N (N> 1) two-dimensional image data of which the focus is overlapped. Are arranged according to the depth value, and the arranged N (N> 1) two-dimensional image data are synthesized to the depth value to generate short-circuit two-dimensional image data (875).

본 발명의 실시 방법에 따르면, 상기 깊이값 영상 합성부(125)는 N(N>1)개의 2차원 영상 데이터 중, 제m(1<=m<=N) 깊이값에 대응하는 2차원 영상 데이터의 초점위치에 대응하는 제m(0<=m<N) 객체(또는 초점영역)을 선명하게 처리하고, 상기 제m(1<=m<=N) 깊이값에 대응하는 2차원 영상 데이터에서 다른 객체(또는 초점영역) 영역을 투명(또는 제m(1<=m<=N) 객체(또는 초점영역)에서 멀어질수록 투명도가 증가)하게 처리하고, 상기 제m(1<=m<=N) 깊이값 이외에 제k(0<=k<N, m!=k) 깊이값에 대응하는 2차원 영상 데이터의 초점위치에 대응하는 제k(0<=k<N, m!=k) 객체(또는 초점영역)을 선명하게 처리하고, 상기 제k(0<=k<N, m!=k) 깊이값에 대응하는 2차원 영상 데이터에서 다른 객체(또는 초점영역) 영역을 투명(또는 제k(0<=k<N, m!=k) 객체(또는 초점영역)에서 멀어질수록 투명도가 증가)하게 처리한 후, 상기 제m(1<=m<=N) 깊이값에 대응하는 2차원 영상 데이터와 제k(0<=k<N, m!=k) 깊이값에 대응하는 2차원 영상 데이터를 합성함으로써, N(N>1)개의 2차원 영상 데이터에 포함된 N(N>1)개의 객체(또는 초점영역)가 선명하게 출력되도록 합성하는 것이 바람직하다.According to the exemplary embodiment of the present invention, the depth value image synthesis unit 125 may include a 2D image corresponding to an mth (1 <= m <= N) depth value among N (N> 1) two-dimensional image data. Two-dimensional image data corresponding to the mth (0 <= m <N) object (or focus area) corresponding to the focal position of the data sharply and corresponding to the mth (1 <= m <= N) depth value Process another object (or focus area) in the transparent (or mth (1 <= m <= N) direction as the distance from the object (or focus area) increases), and the m (1 <= m <= N) In addition to the depth value, k (0 <= k <N, m! = K) corresponds to the focus position of the two-dimensional image data corresponding to the depth value k (0 <= k <N, m! = k) Clearly processes an object (or a focus area) and transparently clears another object (or focus area) area in the 2D image data corresponding to the k-th (0 <= k <N, m! = k) depth value. (Or transparency increases as you move away from the k (0 <= k <N, m! = K) object (or focus area)) The 2D image data corresponding to the mth (1 <= m <= N) depth value and the 2D image data corresponding to the kth (0 <= k <N, m! = K) depth value By combining, it is preferable to synthesize so that N (N> 1) objects (or focus areas) included in the N (N> 1) two-dimensional image data are clearly output.

이후, 시차정보 확인부는 인간의 좌안과 우안을 통한 거리인식 방법에 따라 상기 좌안과 우안에 대응하는 시차처리 정보를 확인한다(880).Subsequently, the parallax information checking unit checks the parallax processing information corresponding to the left and right eyes according to the distance recognition method through the left and right eyes of a human (880).

본 발명의 실시 방법에 다르면, 상기 시차정보 확인부는 상기 초점거리 연산부(110)에 의해 연산된 깊이값에 따른 N(N>1)개의 2차원 영상 데이터에 대한 N(N>1)개의 초점거리와, 좌안과 우안 사이의 양안 거리(예컨대, 평균 안면 크기에 따른 평균 양안 거리, 키 입력부(175)를 통해 설정 가능)를 기반으로 N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 N(N>1)개의 시차각 정보를 산출(또는 확인)하는 것이 바람직하다.According to the exemplary embodiment of the present invention, the parallax information checking unit has N (N> 1) focal lengths for N (N> 1) two-dimensional image data according to the depth value calculated by the focal length calculating unit 110. And N (N> 1) two-dimensional image data (or N (N) based on the binocular distance between the left eye and the right eye (for example, the average binocular distance according to the average face size, which can be set through the key input unit 175). It is preferable to calculate (or confirm) N (N> 1) parallax angle information for an object (or a focus area) corresponding to a focus position of> 1) two-dimensional image data.

또한, 상기 시차정보 확인부는 상기 도면7에 도시된 바와 같이 N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객 체(또는 초점영역)) 중, 영시차(Zero Parallex)로 처리할 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))을 확인하는 것이 바람직하다.Also, as shown in FIG. 7, the parallax information checking unit (or focal point) corresponds to a focal position of N (N> 1) two-dimensional image data (or N (N> 1) two-dimensional image data). Region)), it is preferable to identify the zero-parallel target two-dimensional image data (or an object (or a focal region) corresponding to the focal position of the two-dimensional image data) to be processed by zero parallax.

본 발명의 일 실시 방법에 따르면, 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))는, N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)) 중, 초점거리가 중간(예컨대, 가장 가까운 초점거리와 가장 먼 초점거리의 중간값)에 위치하거나, 또는 깊이값이 중간(예컨대, 가장 작은 깊이값과 가장 큰 깊이값의 중간값)에 위치하는 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))를 상기 영시차 대상으로 확인하는 것이 바람직하다.According to an exemplary embodiment of the present invention, the zero-parallel target 2D image data (or an object (or a focus area) corresponding to a focal position of the 2D image data) includes N (N> 1) pieces of 2D image data ( Or among the N (N> 1) pieces of two-dimensional image data (or an object corresponding to the focal point), the focal length is located in the middle (for example, the middle of the closest and farthest focal lengths) Or two-dimensional image data (or an object (or focus area) corresponding to a focal position of the two-dimensional image data) in which the depth value is located in the middle (for example, the middle value of the smallest depth value and the largest depth value). It is desirable to confirm as a zero time difference object.

본 발명의 다른 일 실시 방법에 따르면, 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))는, N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)) 중, 초점거리가 가장 가깝거나, 또는 깊이값이 가장 작은 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))를 상기 영시차 대상으로 확인하는 것이 바람직하다.According to another exemplary embodiment of the present invention, the zero parallax target two-dimensional image data (or an object (or a focus area) corresponding to a focal position of the two-dimensional image data) includes N (N> 1) two-dimensional image data. (Or two-dimensional image data (or two-dimensional image) having the shortest focal length or the smallest depth value (or an object corresponding to the focal position of N (N> 1) two-dimensional image data). Preferably, the object (or focus area) corresponding to the focus position of the data is identified as the zero parallax object.

본 발명의 또다른 일 실시 방법에 따르면, 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))는, N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)) 중, 초점거리가 가장 멀거나, 또는 깊이값이 가장 큰 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))를 상기 영시차 대상으로 확인하는 것이 바람직하다.According to another exemplary embodiment of the present invention, the zero-parallel target 2D image data (or an object (or a focal region) corresponding to a focal position of the 2D image data) includes N (N> 1) 2D images. Two-dimensional image data (or two-dimensional) having the longest focal length or the largest depth value among the data (or objects (or focal regions) corresponding to the focal positions of N (N> 1) two-dimensional image data) Preferably, the object (or focus area) corresponding to the focus position of the image data is identified as the zero parallax object.

또한, 상기 시차정보 확인부는 상기 도면7에 도시된 바와 같이 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))보다 초점거리가 가깝거나, 또는 깊이값이 작은 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))을 양시차(Positive Parallex) 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))로 확인하고, 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))보다 초점거리가 멀거나, 또는 깊이값이 큰 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))을 음시차(Negative Parallex) 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))로 확인하는 것이 바람직하다.Also, as shown in FIG. 7, the disparity information checking unit has a focal length that is closer than the zero parallax target two-dimensional image data (or an object (or a focal region) corresponding to the focal position of the two-dimensional image data), or Two-dimensional image data having a small depth value (or an object (or a focal region) corresponding to the focal position of the two-dimensional image data) corresponds to the two-dimensional image data (or the focal position of the two-dimensional image data) subject to positive parallex Object (or focus area), and the focal length is farther than the zero parallax target 2D image data (or the object (or focus area) corresponding to the focus position of the 2D image data), or the depth value is Large two-dimensional image data (or an object (or a focus area) corresponding to a focal position of the two-dimensional image data) is subjected to a negative parallex target two-dimensional image data (or second of two-dimensional image data). To make an object (or the focal region)) corresponding to the position are preferred.

또한, 상기 시차정보 확인부는 상기 도면7에 도시된 바와 같이 N(N>1)개의 2 차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 N(N>1)개의 시차각 정보와 초점거리 정보를 삼각함수(또는 로그함수)에 대입하여, 상기 양시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 양시차 방향 픽셀이동 정보와, 상기 음시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 음시차 방향 픽셀이동 정보를 확인하는 것이 바람직하다.Also, as shown in FIG. 7, the disparity information checking unit (or focus area) corresponds to a focal position of N (N> 1) two-dimensional image data (or N (N> 1) two-dimensional image data). N (N> 1) disparity angle information and focal length information for)) are substituted into a trigonometric function (or logarithmic function) to correspond to the focal position of the two-dimensional parallax object 2D image data (or 2D image data). Bilateral parallax pixel movement information for an object (or focal region) and parallax pixel for the parallax target 2D image data (or an object (or focal region) corresponding to a focal position of the 2D image data) It is desirable to confirm the movement information.

본 발명의 실시 방법에 따르면, 상기 시차정보 확인부에 의해 확인되는 시차처리 정보는, 상기 합성된 2차원 영상 데이터에 포함된 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))와, 적어도 하나 이상의 양시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))과 양시차 방향 픽셀이동 정보와, 적어도 하나 이상의 음시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))과 음시차 방향 픽셀이동 정보를 포함하여 이루어지는 것이 바람직하다.According to the exemplary embodiment of the present invention, the parallax processing information checked by the parallax information confirming unit corresponds to the zero-disparity target 2D image data (or the focal position of the 2D image data included in the synthesized 2D image data). Object (or focal region)), at least one or more two-dimensional parallax image data (or an object (or focal region) corresponding to a focal position of the two-dimensional image data), bi-directional parallax direction pixel movement information, and at least one Preferably, the above parallax target two-dimensional image data (or an object (or a focus area) corresponding to the focal position of the two-dimensional image data) and the parallax direction pixel movement information are included.

만약 상기 좌안과 우안에 대응하는 시차처리 정보가 확인되면(885), 상기 좌우 영상 생성부(140)는 상기 도면7에 도시된 바와 같이 상기 합성된 2차원 영상 데이터에 포함된 양시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치 에 대응하는 객체(또는 초점영역))에 대응하는 픽셀 위치를 양시차 방향 픽셀이동 정보에 따라 좌방향과 우방향으로 이동하고, 또한 상기 합성된 2차원 영상 데이터에 포함된 상기 음시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대응하는 픽셀 위치를 음시차 방향 픽셀이동 정보에 따라 좌방향과 우방향으로 이동함으로써, 상기 합성된 2차원 영상 데이터에 대한 좌안 영상 데이터와 우안 영상 데이터를 생성한다(890).If the parallax processing information corresponding to the left eye and the right eye is confirmed (885), the left and right image generating unit 140, as shown in FIG. 7, the two-dimensional parallax object 2D included in the synthesized two-dimensional image data The pixel position corresponding to the image data (or an object (or a focal region) corresponding to the focal position of the two-dimensional image data) is moved in the left and right directions according to the bi-directional pixel movement information, and the synthesized two-dimensional Pixel positions corresponding to the parallax target 2D image data (or an object (or a focus area) corresponding to the focal position of the 2D image data) included in the image data may be left and right according to the parallax direction pixel movement information. In operation 890, left eye image data and right eye image data of the synthesized two-dimensional image data are generated.

만약 상기 합성된 2차원 영상 데이터에 대한 좌안 영상 데이터와 우안 영상 데이터가 생성되면(892), 상기 축소비율 산출부(130)는 상기 좌안 영상 데이터와 우안 영상 데이터에 대응하는 시차각 정보와 초점거리 정보를 삼각함수(또는 로그함수)에 대입하여 수평 방향으로 왜곡된 영상 데이터를 축소 보정하기 위한 축소비율을 산출한다(894).If left eye image data and right eye image data for the synthesized 2D image data are generated (892), the reduction ratio calculator 130 may disparity angle information and focal length corresponding to the left eye image data and the right eye image data. The reduction ratio for reducing and correcting the image data distorted in the horizontal direction is calculated by substituting the information into a trigonometric function (or logarithmic function) (894).

본 발명의 실시 방법에 따르면, 상기 축소비율 산출부(130)는 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대응하는 시차각 정보와 초점거리 정보를 삼각함수(또는 로그함수)에 대입하여 상기 좌안 영상 데이터와 우안 영상 데이터에 대한 축소비율을 산출하는 것이 바람직하다.According to the exemplary embodiment of the present invention, the reduction ratio calculator 130 disparity angle information corresponding to the zero parallax target two-dimensional image data (or an object (or a focus area) corresponding to the focus position of the two-dimensional image data). And a focal length information is substituted into a trigonometric function (or logarithmic function) to calculate a reduction ratio for the left eye image data and the right eye image data.

본 발명의 다른 실시 방법에 따르면, 상기 축소비율 산출부(130)는 상기 좌 안 영상 데이터와 우안 영상 데이터를 생성하기 위해 이용된 N(N>1)의 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)) 중 어느 하나의 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대응하는 시차각 정보와 초점거리 정보를 삼각함수(또는 로그함수)에 대입하여 상기 좌안 영상 데이터와 우안 영상 데이터에 대한 축소비율을 산출하는 것이 가능하며, 이에 의해 본 발명이 한정되지 아니한다.According to another exemplary embodiment of the present invention, the reduction ratio calculator 130 may use N (N> 1) two-dimensional image data (or two-dimensional image data) used to generate the left eye image data and the right eye image data. Parallax angle information and focal length information corresponding to any two-dimensional image data (or an object (or a focal region) corresponding to a focal position of the two-dimensional image data) of the object corresponding to the focal position of It is possible to calculate a reduction ratio for the left eye image data and the right eye image data by substituting a trigonometric function (or a logarithmic function), and the present invention is not limited thereto.

만약 상기 좌안 영상 데이터와 우안 영상 데이터에 대한 축소비율이 산출되면(896), 상기 영상 출력부(190)는 상기 생성된 좌안 영상 데이터와 우안 영상 데이터를 상기 산출된 축소비율에 따라 축소하여 화면 출력부(180)를 통해 출력하거나, 또는 통신부(195)를 통해 전송하며, 또는 상기 영상 저장부(193)는 상기 생성된 좌안 영상 데이터와 우안 영상 데이터를 일대일 매칭하여 상기 저장매체(183)에 저장한다(898).If a reduction ratio of the left eye image data and the right eye image data is calculated (896), the image output unit 190 reduces the generated left eye image data and the right eye image data according to the calculated reduction ratio and outputs the screen. Output through the unit 180 or through the communication unit 195, or the image storage unit 193 is one-to-one matching the generated left eye image data and the right eye image data is stored in the storage medium 183 (898).

도면9a와 도면9b는 본 발명의 다른 일 실시 방법에 따른 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 과정을 도시한 도면이다.9A and 9B illustrate a 3D stereoscopic image conversion process using a multifocal 2D image according to another exemplary embodiment of the present invention.

보다 상세하게 본 도면9a와 도면9b는 도면1에 도시된 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치에서, 상기 N(N>1)개의 초점정보를 결정하고, 상기 결정된 N(N>1)개의 초점정보를 기반으로 N(N>1)개의 2차원 영상 데이터를 획 득하고, 상기 N(N>1)개의 2차원 영상 데이터에 대한 초점거리를 연산하고, 상기 초점거리에 반비례하는 깊이값을 연산하여 시차처리 정보를 확인하고, 상기 초점거리와 시차처리 정보에 따라 상기 수평 방향 축소비율을 산출하고, 상기 획득된 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 일정 변환 크기(또는 해상도)로 축소하되 상기 축소비율을 적용하여 축소한 후, 상기 N(N>1)개의 2차원 영상 데이터에 대한 초점중첩을 처리하고, 상기 초점거리에 반비례하는 깊이값을 연산하여 N(N>1)개의 2차원 영상 데이터를 합성하고, 상기 시차처리 정보를 기반으로 좌안 영상 데이터와 우안 영상 데이터를 생성하는 실시 방법을 도시한 도면이다.In more detail, FIGS. 9A and 9B illustrate the N (N> 1) pieces of focus information in the 3D stereoscopic image conversion apparatus using the multifocal 2D image shown in FIG. 1, and the determined N (N> 1) Acquiring N (N> 1) two-dimensional image data based on the focus information, calculating a focal length for the N (N> 1) two-dimensional image data, and depth inversely proportional to the focal length Calculates the parallax processing information, calculates the horizontal reduction ratio according to the focal length and the parallax processing information, and calculates the size (or resolution) of the obtained N (N> 1) two-dimensional image data. After reducing to a predetermined conversion size (or resolution), the image is reduced by applying the reduction ratio, and focusing is performed on the N (N> 1) two-dimensional image data, and a depth value inversely proportional to the focal length is calculated. N (N> 1) two-dimensional image data And a diagram showing an exemplary method for generating the left eye image data and right eye image data based on the differential management information.

본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 상기 도면8a와 도면8b에 도시된 변환 과정과 본 도면9a와 도면9b에 도시된 변환 과정을 참조 및/또는 응용(예컨대, 일부 과정 생략, 또는 순서 변경 등)하여 상기 다중 초점 2차원 영상을 3차원 입체 영상으로 변환하는 다양한 실시 방법을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면9a와 도면9b에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.Those skilled in the art to which the present invention pertains refer to the conversion process shown in FIGS. 8A and 8B and the conversion process shown in FIGS. Or an order change) to infer various implementation methods for converting the multi-focus two-dimensional image into a three-dimensional stereoscopic image, but the present invention includes all the inferred implementation methods. The technical features are not limited only to the implementation method shown in Fig. 9B.

도면9a와 도면9b를 참조하면, 상기 도면1에 도시된 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치에 구비된 초점정보 결정부(160)는 상기 영상 촬영부(150)를 통해 촬영되어 입력되는 미리보기 영상 데이터에 포함된 N(N>1)개의 객체를 패턴 인식(또는 이미지 인식)을 통해 자동 인식하거나, 또는 상기 키 입력 부(175)와 연계하여 상기 미리보기 영상 데이터에 포함된 N(N>1)개의 객체를 수동으로 선택함으로써, 상기 미리보기 영상 데이터에 N(N>1)개의 객체(예컨대, 사람, 동물, 물건과 같이 배경(또는 다른 객체)와 구분되는 경계를 포함하는 피사체)가 포함되어 있는지 확인함으로써, 상기 도면2a 또는 도면2b에 도시된 바와 같이 N(N>1)개의 객체(또는 초점영역)에 대한 N(N>1)개의 초점위치와 초점수를 결정한다(900).9A and 9B, the focus information determiner 160 included in the 3D stereoscopic image converting apparatus using the multifocal 2D image illustrated in FIG. 1 is photographed by the image capturing unit 150. N (N> 1) objects included in the input preview image data are automatically recognized through pattern recognition (or image recognition) or included in the preview image data in association with the key input unit 175. By manually selecting N (N> 1) objects, the preview image data includes a boundary that is separated from the background (or other objects, such as humans, animals, or objects) in the preview image data. To determine N (N> 1) focal positions and the number of focal points for N (N> 1) objects (or focal regions) as shown in FIG. 2A or 2B. (900).

본 발명의 일 실시 방법에 따라 상기 미리보기 영상 데이터 내에 식별 가능한 객체가 포함되지 않은 경우, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터를 N(N>1)개의 초점영역으로 구분하고, N(N>1)개 초점영역의 중심위치를 N(N>1)개의 초점위치로 결정하는 것이 바람직하며, 상기 N(N>1)개의 초점위치 개수를 N(N>1)개의 초점수로 결정하는 것이 바람직하다.According to an exemplary embodiment of the present invention, when the identifiable object is not included in the preview image data, the focus information determiner 160 divides the preview image data into N (N> 1) focal regions. Preferably, the center positions of the N (N> 1) focal regions are determined as N (N> 1) focal positions, and the number of N (N> 1) focal positions is N (N> 1) focal points. It is preferable to determine the number.

여기서, 상기 N(N>1)개의 초점수 정보는 상기 영상 촬영부(150)가 단위시간 동안 촬영 가능한 최대 촬영수, 또는 상기 초점 제어부(155)가 단위시간 동안 상기 영상 촬영부(150)의 초점을 제어할 수 있는 최대 제어횟수, 또는 상기 영상 획득부(165)가 단위시간 동안 상기 영상 촬영부(150)로부터 2차원 영상 데이터를 획득할 수 있는 최대 영상 데이터 획득수를 적어도 하나 이상 포함하는 한도 초점수 보다 작게 설정되는 것이 바람직하다.Here, the N (N> 1) pieces of focal number information is the maximum number of shots that the image capturing unit 150 can capture for a unit time, or the focus control unit 155 of the image capturing unit 150 for a unit time. At least one maximum control number for controlling the focus, or at least one maximum number of image data acquisition that the image acquisition unit 165 can obtain two-dimensional image data from the image capture unit 150 for a unit time It is preferable to set smaller than the limit focal number.

본 발명의 일 실시 방법에 따르면, 상기 초점정보 결정부(160)는 본 도면9a와 도면9ba에 도시된 바와 같이 상기 미리보기 영상 데이터를 상하 방향으로 N(N>1)개의 초점영역으로 구분하고, 상기와 같이 상하 방향으로 구분된 N(N>1)개 초점영역의 중심위치를 N(N>1)개의 초점위치로 결정하는 것이 바람직하다.According to the exemplary embodiment of the present invention, the focus information determiner 160 divides the preview image data into N (N> 1) focal regions in the vertical direction as shown in FIGS. 9A and 9BA. As described above, it is preferable to determine the center positions of the N (N> 1) focal regions divided in the vertical direction as the N (N> 1) focal positions.

본 발명의 다른 일 실시 방법에 따르면, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터를 좌우 방향으로 N(N>1)개의 초점영역으로 구분하고, 상기와 같이 좌우 방향으로 구분된 N(N>1)개 초점영역의 중심위치를 N(N>1)개의 초점위치로 결정하는 것이 바람직하다.According to another exemplary embodiment of the present invention, the focus information determiner 160 divides the preview image data into N (N> 1) focal regions in the left and right directions, and the N divided in the left and right directions as described above. It is preferable to determine the center positions of the (N> 1) focal regions as N (N> 1) focal positions.

본 발명의 또다른 일 실시 방법에 따르면, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터를 격자 모양에 따라 N(N>1)개의 초점영역으로 구분하고, 상기와 같이 격자 모양으로 구분된 N(N>1)개 초점영역의 중심위치를 N(N>1)개의 초점위치로 결정하는 것이 바람직하다.According to another exemplary embodiment of the present invention, the focus information determiner 160 divides the preview image data into N (N> 1) focal regions according to a grid shape, and divides the preview image data into a grid shape as described above. It is preferable to determine the center position of the N (N> 1) focusing areas as N (N> 1) focusing positions.

본 발명의 다른 일 실시 방법에 따라 상기 미리보기 영상 데이터 내에 식별 가능한 객체가 포함된 경우, 상기 초점정보 결정부(160)는 상기 미리보기 영상 데이터 내에 포함된 N(N>1)개의 객체의 중심위치를 N(N>1)개의 초점위치로 결정하는 것이 바람직하며, 상기 N(N>1)개의 초점위치 개수를 N(N>1)개의 초점수로 결정하는 것이 바람직하다.According to another exemplary embodiment of the present invention, when the identifiable object is included in the preview image data, the focus information determiner 160 may include the centers of N (N> 1) objects included in the preview image data. Preferably, the position is determined to be N (N> 1) focal positions, and the number of N (N> 1) focal positions is preferably determined to be N (N> 1) focal positions.

여기서, 상기 N(N>1)개의 초점수 정보는 상기 영상 촬영부(150)가 단위시간(예컨대, 50ms 등) 동안 촬영 가능한 최대 촬영수, 또는 상기 초점 제어부(155)가 단위시간 동안 상기 영상 촬영부(150)의 초점을 제어할 수 있는 최대 제어횟수, 또는 상기 영상 획득부(165)가 단위시간 동안 상기 영상 촬영부(150)로부터 2차원 영상 데이터를 획득할 수 있는 최대 영상 데이터 획득수를 적어도 하나 이상 포함하는 한도 초점수 보다 작게 설정되는 것이 바람직하다.Here, the N (N> 1) pieces of focal number information is the maximum number of shots that the image capturing unit 150 can take for a unit time (for example, 50 ms, etc.) or the focus control unit 155 takes the image for a unit time. Maximum number of control times for controlling the focus of the photographing unit 150 or maximum number of image data acquisition units for obtaining the 2D image data from the image photographing unit 150 by the image obtaining unit 165 for a unit time. It is preferably set smaller than the limit focal number including at least one.

본 발명의 일 실시 방법에 따라 상기 미리보기 영상 데이터 내에 포함된 초점위치 개수(또는 초점수)가 상기 한도 초점수보다 많은 경우, 상기 초점정보 촬영부는 상기 미리보기 영상 데이터에 포함된 객체 중에서 상기 미리보기 영상 데이터의 중심위치(또는 상단, 또는 하단, 또는 좌측, 또는 우측)에 있는 객체 중 상기 한도 초점수 이내의 객체에 대한 N(N>1)개의 초점위치를 결정하는 것이 바람직하다.According to an exemplary embodiment of the present disclosure, when the number of focus positions (or the number of focal points) included in the preview image data is greater than the limit focal number, the focus information photographing unit may include the preview image among the objects included in the preview image data. It is preferable to determine N (N> 1) focal positions for objects within the above limit focal number among objects at the center position (or top, bottom, left, or right) of the viewing image data.

본 발명의 다른 일 실시 방법에 따라 상기 미리보기 영상 데이터 내에 포함된 초점위치 개수(또는 초점수)가 상기 한도 초점수보다 적은 경우, 상기 초점정보 촬영부는 상기 미리보기 영상 데이터에 포함된 N(N>1)개의 객체에 대한 N(N>1)개의 초점위치를 결정하는 것이 바람직하다.According to another exemplary embodiment of the present invention, when the number of focus positions (or the number of focus points) included in the preview image data is less than the limit focus number, the focus information photographing unit includes N (N) included in the preview image data. It is desirable to determine N (N> 1) focal positions for> 1) objects.

상기 초점정보 결정부(160)에 의해 상기 N(N>1)개의 초점위치 정보와 N(N>1)개의 초점수가 결정되면, 상기 초점 제어부(155)는 상기 영상 촬영부(150)의 초점을 상기 N(N>1)개의 초점위치 중, 제1 초점위치에 자동 초점하도록 제어하여 상기 영상 촬영부(150)를 통해 제1 2차원 영상을 촬영하며(905), 상기 영상 획득부(165)는 제1 초점위치에 대한 제1 2차원 영상 데이터를 획득하고(910), 이에 대응하여 상기 초점 제어부(155)는 상기 제1 자동 초점에 대한 제1 초점제어 정보를 확인하며(915), 상기 과정은 N(N>1)개의 초점위치에 대한 N(N>1)개의 2차원 영상 데이터가 획득되고, N(N>1)개의 초점위치 초점제어 정보가 확인될 때까지(925), 제n(n=2,3,...,N) 초점위치에 대하여 반복적으로 수행된다(920).When the N (N> 1) focal position information and the N (N> 1) focal number are determined by the focus information determiner 160, the focus controller 155 may focus on the image capturing unit 150. Control to autofocus on a first focus position among the N (N> 1) focus positions to capture a first 2D image through the image capturing unit 150 (905), and the image obtaining unit 165 ) Acquires the first two-dimensional image data for the first focusing position (910), and correspondingly, the focus controller 155 confirms the first focus control information for the first auto focus (915). In the process, until N (N> 1) two-dimensional image data for N (N> 1) focal positions are obtained, and N (N> 1) focal position focus control information is confirmed (925), It is repeatedly performed 920 for the nth (n = 2, 3, ..., N) focal position.

상기 과정을 통해 N(N>1)개의 2차원 영상 데이터가 획득되고, N(N>1)개의 초점위치 초점제어 정보가 확인되면(925), 상기 초점거리 연산부(110)는 상기 확인된 N(N>1)개의 초점제어 정보(예컨대, 자동 초점을 위한 렌즈 이격거리 정보와, 상기 이격된 렌즈의 굴절율 정보(또는 배율 정보) 등)를 이용하여 상기 도면3a 또는 도면3b에 도시된 바와 같이 상기 N(N>1)개의 2차원 영상 데이터에 포함된 객체(또는 초점영역)와 렌즈 간 초점거리를 연산한다(930).When the N (N> 1) two-dimensional image data is obtained through the process, and the N (N> 1) focal position focus control information is confirmed (925), the focal length calculator 110 determines the identified N As shown in FIG. 3A or FIG. 3B using (N> 1) pieces of focus control information (eg, lens separation distance information for auto focus, refractive index information (or magnification information) of the spaced lens, etc.) The focal length between the object (or focal region) included in the N (N> 1) two-dimensional image data and the lens is calculated (930).

만약 N(N>1)개의 2차원 영상 데이터에 대한 초점거리가 연산되면(935), 상기 초점중첩 처리부(115)는 상기 N(N>1)개의 2차원 영상 데이터에 대응하는 초점위치 정보를 확인하고, 상기 초점위치에 대응하는 객체(또는 초점영역)가 시선방향에 따 라 정렬하여 상기 도면4a 또는 도면4b에 도시된 바와 같이 중첩되도록 처리한다(940).If the focal lengths for the N (N> 1) two-dimensional image data are calculated (935), the focus overlapping processing unit 115 provides the focal position information corresponding to the N (N> 1) two-dimensional image data. In operation 940, the object (or the focus area) corresponding to the focus position is aligned in line of sight and overlapped as shown in FIG. 4A or 4B.

만약 상기 N(N>1)개의 2차원 영상 데이터가 중첩 처리되면(945), 상기 깊이값 연산부(120)는 N(N>1)개의 2차원 영상 데이터에 대한 초점거리가 가까운 것에서 먼 순서대로 배열하여 N(N>1)개의 2차원 영상 데이터에 대한 깊이값을 연산하며(950), 여기서 하나의 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 하나의 깊이값이 설정되는 것이 바람직하다.If the N (N> 1) two-dimensional image data are superimposed (945), the depth calculator 120 may be arranged in the order in which the focal lengths for the N (N> 1) two-dimensional image data are close to each other. Arranged to calculate depth values for N (N> 1) two-dimensional image data (950), wherein one two-dimensional image data (or an object corresponding to a focal position of the two-dimensional image data (or focus area)) Preferably, one depth value is set at.

본 발명의 실시 방법에 따르면, N(N>1)개의 2차원 영상 데이터에 대한 초점거리가 가까운 2차원 영상 데이터의 깊이값은 '1'로 설정되고, 상기 초점거리가 두 번째로 가까운 2차원 영상 데이터의 깊이값은 '2'로 설정되고, 상기 초점거리가 가장 먼 2차원 영상 데이터의 깊이값은 'N'으로 설정되는 것이 바람직하다.According to an exemplary embodiment of the present invention, a depth value of two-dimensional image data having close focal lengths for N (N> 1) two-dimensional image data is set to '1', and the two-dimensional closest focal length is two-dimensional. Preferably, the depth value of the image data is set to '2', and the depth value of the two-dimensional image data having the furthest focal length is set to 'N'.

만약 상기 N(N>1)개의 2차원 영상 데이터에 대한 깊이값이 연산되면(955), 시차정보 확인부는 인간의 좌안과 우안을 통한 거리인식 방법에 따라 상기 좌안과 우안에 대응하는 시차각 정보를 확인한다(960).If depth values of the N (N> 1) two-dimensional image data are calculated (955), the parallax information checking unit determines the disparity angle information corresponding to the left and right eyes according to a distance recognition method through the left and right eyes of a human being. Check (960).

본 발명의 실시 방법에 다르면, 상기 시차정보 확인부는 상기 초점거리 연산부(110)에 의해 연산된 깊이값에 따른 N(N>1)개의 2차원 영상 데이터에 대한 N(N>1)개의 초점거리와, 좌안과 우안 사이의 양안 거리(예컨대, 평균 안면 크기에 따른 평균 양안 거리, 키 입력부(175)를 통해 설정 가능)를 기반으로 N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 N(N>1)개의 시차각 정보를 산출(또는 확인)하는 것이 바람직하다.According to the exemplary embodiment of the present invention, the parallax information checking unit has N (N> 1) focal lengths for N (N> 1) two-dimensional image data according to the depth value calculated by the focal length calculating unit 110. And N (N> 1) two-dimensional image data (or N (N) based on the binocular distance between the left eye and the right eye (for example, the average binocular distance according to the average face size, which can be set through the key input unit 175). It is preferable to calculate (or confirm) N (N> 1) parallax angle information for an object (or a focus area) corresponding to a focus position of> 1) two-dimensional image data.

만약 상기 좌안과 우안에 대응하는 시차각 정보가 확인되면(965), 상기 축소비율 산출부(130)는 상기 좌안 영상 데이터와 우안 영상 데이터에 대응하는 시차각 정보와 초점거리 정보를 삼각함수(또는 로그함수)에 대입하여 수평 방향으로 왜곡된 영상 데이터를 축소 보정하기 위한 축소비율을 산출한다(970).If the disparity angle information corresponding to the left eye and the right eye is confirmed (965), the reduction ratio calculating unit 130 triangulates the disparity angle information and the focal length information corresponding to the left eye image data and the right eye image data. In operation 970, the reduction ratio for reducing and correcting the image data distorted in the horizontal direction is calculated by substituting the logarithmic function.

본 발명의 실시 방법에 따르면, 상기 축소비율 산출부(130)는 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대응하는 시차각 정보와 초점거리 정보를 삼각함수(또는 로그함수)에 대입하여 상기 좌안 영상 데이터와 우안 영상 데이터에 대한 축소비율을 산출하는 것이 바람직하다.According to the exemplary embodiment of the present invention, the reduction ratio calculator 130 disparity angle information corresponding to the zero parallax target two-dimensional image data (or an object (or a focus area) corresponding to the focus position of the two-dimensional image data). And a focal length information is substituted into a trigonometric function (or logarithmic function) to calculate a reduction ratio for the left eye image data and the right eye image data.

본 발명의 다른 실시 방법에 따르면, 상기 축소비율 산출부(130)는 상기 좌안 영상 데이터와 우안 영상 데이터를 생성하기 위해 이용된 N(N>1)의 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)) 중 어느 하나의 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대응하는 시차각 정보와 초점거리 정보를 삼각함수(또는 로그함수)에 대입하여 상기 좌안 영상 데이터와 우안 영상 데이터에 대한 축소비율을 산출하는 것이 가능하며, 이에 의해 본 발명이 한정되지 아니한다.According to another exemplary embodiment of the present invention, the reduction ratio calculator 130 may include N (N> 1) two-dimensional image data (or two-dimensional image data) used to generate the left eye image data and the right eye image data. The parallax angle information and the focal length information corresponding to any two-dimensional image data (or an object (or a focal region) corresponding to the focal position of the two-dimensional image data) of the object corresponding to the focal position It is possible to calculate a reduction ratio for the left eye image data and the right eye image data by substituting a trigonometric function (or logarithmic function), and the present invention is not limited thereto.

만약 상기 축소비율이 산출되면(975), 상기 입력영상 축소부(105)는 상기 2차원 영상 데이터 개수(N)에 대응하는 변환 크기(또는 해상도)를 확인하고, 상기 입력되는 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)와 상기 확인된 크기(또는 해상도)를 비교하여 상기 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 축소 변환할지 확인한다(980).If the reduction ratio is calculated (975), the input image reduction unit 105 checks the transform size (or resolution) corresponding to the number N of 2D image data, and inputs N (N> 1). Comparing the size (or resolution) of the 2D image data with the checked size (or resolution) to determine whether to reduce or reduce the size (or resolution) of the N (N> 1) 2D image data (980). ).

본 발명의 실시 방법에 따르면, 상기 입력영상 축소부(105)는 상기 영상 변환 모듈(100)의 데이터 처리 속도에 대응하여 상기 좌/우 영상 데이터를 기 설정된 변환시간 안에 생성하기 위한 변환 크기(또는 해상도)를 확인하는 것이 바람직하다.According to the exemplary embodiment of the present invention, the input image reduction unit 105 may convert the left / right image data within a preset conversion time (or corresponding to the data processing speed of the image conversion module 100). Resolution).

여기서, 상기 영상 변환 모듈(100)의 데이터 처리 속도가 일정하다면, 상기 변환시간이 짧을수록 상기 변환 크기(또는 해상도)가 작아지고, 상기 변환시간이 길수록 상기 변환 크기(또는 해상도)가 커질 것이며, 또한 상기 2차원 영상 데이터 개수(N)가 많을수록 상기 변환 크기(또는 해상도)가 작아지고, 상기 2차원 영상 데 이터 개수(N)가 적을수록 상기 변환 크기(또는 해상도)가 커질 것이다.Here, if the data processing speed of the image conversion module 100 is constant, the shorter the conversion time, the smaller the transform size (or resolution), and the longer the conversion time, the larger the transform size (or resolution), The larger the number N of 2D image data, the smaller the transform size (or resolution), and the smaller the number N of the 2D image data, the larger the transform size (or resolution).

예컨대, 상기 영상 획득부(165)를 통해 입력되는 N(N>1)개의 2차원 영상 데이터가 하나의 정지 이미지라면, 상기 변환시간이 수초 이내로 길어도 무방할 것이나, 상기 영상 획득부(165)를 통해 입력되는 N(N>1)개의 2차원 영상 데이터가 동영상이라면, 상기 변환시간은 초당 프레임 수에 대응하는 수~수십 밀리 초 이내로 짧아야 한다.For example, if the N (N> 1) two-dimensional image data input through the image acquisition unit 165 is one still image, the conversion time may be longer than several seconds, but the image acquisition unit 165 may be If the N (N> 1) two-dimensional image data input through the video, the conversion time should be short within a few to several tens of milliseconds corresponding to the number of frames per second.

상기 변환 크기(또는 해상도)가 확인되면, 상기 입력영상 축소부(105)는 상기 영상 획득부(165)로부터 입력되는 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 상기 확인된 크기(또는 해상도)에 맞게 축소 변형할지 확인하는데, 만약 상기 영상 획득부(165)로부터 입력되는 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)가 상기 확인된 변환 크기(또는 해상도)보다 작거나 같다면, 상기 입력영상 축소부(105)가 상기 N(N>1)개의 2차원 영상 데이터를 축소하지 않아도 무방하다.When the conversion size (or resolution) is confirmed, the input image reduction unit 105 confirms the size (or resolution) of N (N> 1) two-dimensional image data input from the image acquisition unit 165. The size (or resolution) of the N (N> 1) two-dimensional image data input from the image acquisition unit 165 is determined as the transformed size (or Resolution), the input image reduction unit 105 may not reduce the N (N> 1) two-dimensional image data.

만약 상기 확인결과 상기 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 축소 변환하지 않는다면(982), 상기 입력영상 축소부(105)는 상기 획득된 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 상기 산출된 축소비율에 맞게 축소 변환한다(984).If the result of the check does not reduce or reduce the size (or resolution) of the N (N> 1) two-dimensional image data (982), the input image reduction unit 105 is the obtained N (N> 1) The size (or resolution) of the 2D image data is reduced and converted according to the calculated reduction ratio (984).

반면 상기 확인결과 상기 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 축소 변환해야 한다면(982), 상기 입력영상 축소부(105)는 상기 획득된 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 상기 변환 크기(또는 해상도)에 맞게 축소 변환하되, 상기 산출된 축소비율에 맞게 축소 변환한다(986).On the other hand, if it is determined that the size (or resolution) of the N (N> 1) two-dimensional image data is reduced and converted (982), the input image reduction unit 105 is the obtained N (N> 1) The size (or resolution) of the 2D image data is reduced and converted according to the conversion size (or resolution), and then reduced and converted according to the calculated reduction ratio (986).

상기 깊이값 영상 합성부(125)는 상기 초점이 중첩된 N(N>1)개의 2차원 영상 데이터를 상기 깊이값에 따라 배열하고, 상기 배열된 N(N>1)개의 2차원 영상 데이터를 상기 깊이값에 합성하여 합선된 2차원 영상 데이터를 생성한다(988).The depth image synthesizing unit 125 arranges N (N> 1) two-dimensional image data of which the focal points are overlapped according to the depth value, and arranges the N (N> 1) two-dimensional image data arranged. In operation 988, short-circuit two-dimensional image data is generated by combining the depth value.

본 발명의 실시 방법에 따르면, 상기 깊이값 영상 합성부(125)는 N(N>1)개의 2차원 영상 데이터 중, 제m(1<=m<=N) 깊이값에 대응하는 2차원 영상 데이터의 초점위치에 대응하는 제m(0<=m<N) 객체(또는 초점영역)을 선명하게 처리하고, 상기 제m(1<=m<=N) 깊이값에 대응하는 2차원 영상 데이터에서 다른 객체(또는 초점영역) 영역을 투명(또는 제m(1<=m<=N) 객체(또는 초점영역)에서 멀어질수록 투명도가 증가)하게 처리하고, 상기 제m(1<=m<=N) 깊이값 이외에 제k(0<=k<N, m!=k) 깊이값에 대응하는 2차원 영상 데이터의 초점위치에 대응하는 제k(0<=k<N, m!=k) 객체(또는 초점영역)을 선명하게 처리하고, 상기 제k(0<=k<N, m!=k) 깊이값에 대응하는 2차원 영상 데이터에서 다른 객체(또는 초점영역) 영역을 투명(또는 제k(0<=k<N, m!=k) 객체(또는 초점영역)에서 멀어질수록 투명도가 증가)하게 처리한 후, 상기 제m(1<=m<=N) 깊이값에 대응하는 2차원 영상 데이터와 제k(0<=k<N, m!=k) 깊이값에 대응하는 2차원 영상 데이터를 합성함으로써, N(N>1)개의 2차원 영상 데이터에 포함된 N(N>1)개의 객체(또는 초점영역)가 선명하게 출력되도록 합성하는 것이 바람직하다.According to the exemplary embodiment of the present invention, the depth value image synthesis unit 125 may include a 2D image corresponding to an mth (1 <= m <= N) depth value among N (N> 1) two-dimensional image data. Two-dimensional image data corresponding to the mth (0 <= m <N) object (or focus area) corresponding to the focal position of the data sharply and corresponding to the mth (1 <= m <= N) depth value Process another object (or focus area) in the transparent (or mth (1 <= m <= N) direction as the distance from the object (or focus area) increases), and the m (1 <= m <= N) In addition to the depth value, k (0 <= k <N, m! = K) corresponds to the focus position of the two-dimensional image data corresponding to the depth value k (0 <= k <N, m! = k) Clearly processes an object (or a focus area) and transparently clears another object (or focus area) area in the 2D image data corresponding to the k-th (0 <= k <N, m! = k) depth value. (Or transparency increases as you move away from the k (0 <= k <N, m! = K) object (or focus area)) The 2D image data corresponding to the mth (1 <= m <= N) depth value and the 2D image data corresponding to the kth (0 <= k <N, m! = K) depth value By combining, it is preferable to synthesize so that N (N> 1) objects (or focus areas) included in the N (N> 1) two-dimensional image data are clearly output.

상기 시차정보 확인부는 상기 시차각 정보와 초점거리 및 깊이값을 통해 상기 합선된 2차원 영상 데이터에 대하여 상기 좌안과 우안에 대응하는 시차처리 정보를 확인한다(990).The parallax information checking unit checks the parallax processing information corresponding to the left eye and the right eye with respect to the shorted 2D image data through the parallax angle information, the focal length, and the depth value (990).

또한, 상기 시차정보 확인부는 상기 도면7에 도시된 바와 같이 N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)) 중, 영시차(Zero Parallex)로 처리할 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))을 확인하는 것이 바람직하다.Also, as shown in FIG. 7, the parallax information checking unit (or focus area) corresponds to a focal position of N (N> 1) two-dimensional image data (or N (N> 1) two-dimensional image data). It is preferable to identify the zero-parallel target two-dimensional image data (or an object (or a focal region) corresponding to the focal position of the two-dimensional image data) to be processed by zero parallax.

본 발명의 일 실시 방법에 따르면, 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))는, N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)) 중, 초점거리가 중간(예컨대, 가장 가까운 초점거리와 가장 먼 초점거리의 중간값)에 위치하거나, 또는 깊이값이 중간(예컨대, 가장 작은 깊이값과 가장 큰 깊이값의 중간값)에 위치하는 2차원 영상 데이터(또는 2차원 영상 데이 터의 초점위치에 대응하는 객체(또는 초점영역))를 상기 영시차 대상으로 확인하는 것이 바람직하다.According to an exemplary embodiment of the present invention, the zero-parallel target 2D image data (or an object (or a focus area) corresponding to a focal position of the 2D image data) includes N (N> 1) pieces of 2D image data ( Or among the N (N> 1) pieces of two-dimensional image data (or an object corresponding to the focal point), the focal length is located in the middle (for example, the middle of the closest and farthest focal lengths) Or two-dimensional image data (or an object corresponding to a focal position of the two-dimensional image data) whose depth value is located in the middle (eg, the middle of the smallest depth value and the largest depth value). It is preferable to confirm with the said zero parallax object.

본 발명의 다른 일 실시 방법에 따르면, 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))는, N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)) 중, 초점거리가 가장 가깝거나, 또는 깊이값이 가장 작은 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))를 상기 영시차 대상으로 확인하는 것이 바람직하다.According to another exemplary embodiment of the present invention, the zero parallax target two-dimensional image data (or an object (or a focus area) corresponding to a focal position of the two-dimensional image data) includes N (N> 1) two-dimensional image data. (Or two-dimensional image data (or two-dimensional image) having the shortest focal length or the smallest depth value (or an object corresponding to the focal position of N (N> 1) two-dimensional image data). Preferably, the object (or focus area) corresponding to the focus position of the data is identified as the zero parallax object.

본 발명의 또다른 일 실시 방법에 따르면, 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))는, N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역)) 중, 초점거리가 가장 멀거나, 또는 깊이값이 가장 큰 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))를 상기 영시차 대상으로 확인하는 것이 바람직하다.According to another exemplary embodiment of the present invention, the zero-parallel target 2D image data (or an object (or a focal region) corresponding to a focal position of the 2D image data) includes N (N> 1) 2D images. Two-dimensional image data (or two-dimensional) having the longest focal length or the largest depth value among the data (or objects (or focal regions) corresponding to the focal positions of N (N> 1) two-dimensional image data) Preferably, the object (or focus area) corresponding to the focus position of the image data is identified as the zero parallax object.

또한, 상기 시차정보 확인부는 상기 도면7에 도시된 바와 같이 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))보다 초점거리가 가깝거나, 또는 깊이값이 작은 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))을 양시차(Positive Parallex) 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))로 확인하고, 상기 영시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))보다 초점거리가 멀거나, 또는 깊이값이 큰 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))을 음시차(Negative Parallex) 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))로 확인하는 것이 바람직하다.Also, as shown in FIG. 7, the disparity information checking unit has a focal length that is closer than the zero parallax target two-dimensional image data (or an object (or a focal region) corresponding to the focal position of the two-dimensional image data), or Two-dimensional image data having a small depth value (or an object (or a focal region) corresponding to the focal position of the two-dimensional image data) corresponds to the two-dimensional image data (or the focal position of the two-dimensional image data) subject to positive parallex Object (or focus area), and the focal length is farther than the zero parallax target 2D image data (or the object (or focus area) corresponding to the focus position of the 2D image data), or the depth value is Large two-dimensional image data (or an object (or a focus area) corresponding to a focal position of the two-dimensional image data) is subjected to a negative parallex target two-dimensional image data (or second of two-dimensional image data). It is preferable to check with an object (or a focus area) corresponding to the point position.

또한, 상기 시차정보 확인부는 상기 도면7에 도시된 바와 같이 N(N>1)개의 2차원 영상 데이터(또는 N(N>1)개의 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 N(N>1)개의 시차각 정보와 초점거리 정보를 삼각함수(또는 로그함수)에 대입하여, 상기 양시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 양시차 방향 픽셀이동 정보와, 상기 음시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대한 음시차 방향 픽셀이동 정보를 확인하는 것이 바람직하다.Also, as shown in FIG. 7, the parallax information checking unit (or focus area) corresponds to a focal position of N (N> 1) two-dimensional image data (or N (N> 1) two-dimensional image data). N (N> 1) disparity angle information and focal length information for)) are substituted into a trigonometric function (or logarithmic function) to correspond to the focal position of the two-dimensional parallax object 2D image data (or 2D image data). Bilateral parallax pixel movement information for an object (or focal region) and parallax pixel for the parallax target 2D image data (or an object (or focal region) corresponding to a focal position of the 2D image data) It is desirable to confirm the movement information.

본 발명의 실시 방법에 따르면, 상기 시차정보 확인부에 의해 확인되는 시차처리 정보는, 상기 2차원 영상 데이터에 포함된 영시차 대상 2차원 영상 데이터(또 는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))와, 적어도 하나 이상의 양시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))과 양시차 방향 픽셀이동 정보와, 적어도 하나 이상의 음시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))과 음시차 방향 픽셀이동 정보를 포함하여 이루어지는 것이 바람직하다.According to the exemplary embodiment of the present invention, the parallax processing information checked by the parallax information confirming unit may correspond to the zero parallax target 2D image data (or the focal position of the 2D image data included in the 2D image data). Object (or focal region)), at least one or more parallax target two-dimensional image data (or an object (or focal region) corresponding to a focal position of the two-dimensional image data), bi-parallel direction pixel movement information, and at least one or more Preferably, the parallax object includes two-dimensional image data (or an object (or a focus area) corresponding to a focal position of the two-dimensional image data) and the parallax direction pixel movement information.

만약 상기 시차처리 정보가 확인되면(992), 상기 좌우 영상 생성부(140)는 상기 도면7에 도시된 바와 같이 상기 합성된 2차원 영상 데이터에 포함된 양시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대응하는 픽셀 위치를 양시차 방향 픽셀이동 정보에 따라 좌방향과 우방향으로 이동하고, 또한 상기 합성된 2차원 영상 데이터에 포함된 상기 음시차 대상 2차원 영상 데이터(또는 2차원 영상 데이터의 초점위치에 대응하는 객체(또는 초점영역))에 대응하는 픽셀 위치를 음시차 방향 픽셀이동 정보에 따라 좌방향과 우방향으로 이동함으로써, 상기 합성된 2차원 영상 데이터에 대한 좌안 영상 데이터와 우안 영상 데이터를 생성한다(994).If the parallax processing information is confirmed (992), the left and right image generating unit 140 as shown in Figure 7 the two-dimensional image data (or two-dimensional) of the two parallax object included in the synthesized two-dimensional image data A pixel position corresponding to an object (or a focal region) corresponding to a focal position of the image data is moved in the left and right directions according to the parallax direction pixel movement information, and is further included in the synthesized two-dimensional image data. By moving the pixel position corresponding to the parallax target two-dimensional image data (or an object (or a focus area) corresponding to the focal position of the two-dimensional image data) in the left and right directions according to the disparity direction pixel movement information, The left eye image data and the right eye image data of the synthesized 2D image data are generated (994).

만약 상기 합성된 2차원 영상 데이터에 대한 좌안 영상 데이터와 우안 영상 데이터가 생성되면(996), 상기 영상 출력부(190)는 상기 생성된 좌안 영상 데이터와 우안 영상 데이터를 상기 화면 출력부(180)를 통해 출력하거나, 또는 통신 부(195)를 통해 전송하며, 또는 상기 영상 저장부(193)는 상기 생성된 좌안 영상 데이터와 우안 영상 데이터를 일대일 매칭하여 상기 저장매체(183)에 저장한다(998).If left eye image data and right eye image data for the synthesized 2D image data are generated (996), the image output unit 190 outputs the generated left eye image data and right eye image data to the screen output unit 180. Or through the communication unit 195, or the image storage unit 193 matches the generated left eye image data and right eye image data in one-to-one correspondence and stores them in the storage medium 183 (998). ).

본 발명에 따르면, 자동 초점 기능이 구비된 디지털 카메라(또는 비디오 카메라)에 초점위치와 초점수 결정에 따라 고속으로 다중 초점 2차원 영상을 촬영하도록 하고, 상기 촬영된 복수개의 다중 초점 2차원 영상을 초점거리 및 깊이값에 따라 합성하여 3차원 입체 영상으로 변환하는 기능을 구비함으로써, 저렴하면서도 자연스러운 3차원 입체 영상을 제작하도록 하는 이점이 있다.According to the present invention, a digital camera (or video camera) equipped with an auto focus function is configured to capture a multi-focus two-dimensional image at high speed according to a focal position and the number of focal points, and the photographed plurality of multi-focus two-dimensional images are taken. By having a function of converting to a 3D stereoscopic image by synthesizing according to the focal length and the depth value, there is an advantage to produce a cheap and natural 3D stereoscopic image.

Claims (10)

2차원 영상에 대한 N(N>1)개의 초점위치와 초점수를 결정하는 단계;Determining N (N> 1) focal positions and the number of foci of the two-dimensional image; 상기 결정된 N(N>1)개의 초점위치와 초점수에 대응하는 N(N>1)개 다중 초점 2차원 영상 데이터가 획득되면, 상기 N(N>1)개 다중 초점 2차원 영상 데이터에 대한 N(N>1)개의 초점거리를 연산하는 단계;When the N (N> 1) multi-focus two-dimensional image data corresponding to the determined N (N> 1) focal positions and the number of foci are acquired, the N (N> 1) multi-focus two-dimensional image data is obtained. Calculating N (N> 1) focal lengths; 상기 연산된 N(N>1)개의 초점거리에 반비례하는 N(N>1)개의 깊이값을 연산하는 단계;Calculating N (N> 1) depth values in inverse proportion to the calculated N (N> 1) focal lengths; N(N>1)개의 깊이값에 따라 N(N>1)개 다중 초점 2차원 영상 데이터를 합성하는 단계;Synthesizing N (N> 1) multifocal two-dimensional image data according to N (N> 1) depth values; 상기 N(N>1)개 다중 초점 2차원 영상 데이터 중, 영시차(Zero Parallax) 영상 데이터와 양시차(Positive Parallax) 영상 데이터와 음시차(Negative Parallax) 영상 데이터를 확인하고, 상기 확인된 영시차를 기준으로 적어도 하나 이상의 양시차 영상 데이터에 대한 시차각을 기반으로 양시차 방향 픽셀 이동 정보를 확인하고, 상기 확인된 영시차를 기준으로 적어도 하나 이상의 음시차 영상 데이터에 대한 시차각을 기반으로 음시차 방향 픽셀 이동 정보를 확인하는 단계; 및The zero parallax image, the positive parallax image data, and the negative parallax image data are identified among the N (N> 1) multi-focus 2D image data. Confirms bi-parallel direction pixel movement information based on a disparity angle with respect to at least one disparity image data based on a difference, and based on the disparity angle with respect to at least one disparity image data based on the identified zero disparity Confirming disparity direction pixel movement information; And 상기 확인된 양시차 방향 픽셀 이동 정보를 적어도 하나 이상의 양시차 영상 데이터에 적용하고, 상기 확인된 음시차 방향 픽셀 이동 정보를 적어도 하나 이상의 음시차 영상 데이터에 적용하여 좌안 영상 데이터와 우안 영상 데이터를 생성하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 다중 초점 2차원 영상을 이용 한 3차원 입체 영상 변환 방법.The left eye image data and the right eye image data are generated by applying the identified bilateral parallax direction pixel movement information to at least one bilateral parallax image data, and applying the identified parallax direction pixel movement information to at least one parallax image data. 3D stereoscopic image conversion method using a multi-focus two-dimensional image, characterized in that it comprises a. 제 1항에 있어서, The method of claim 1, 상기 결정된 N(N>1)개의 초점위치와 초점수에 대응하는 N(N>1)개 다중 초점 2차원 영상 데이터가 획득되면, 상기 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 기 설정된 변환 크기(또는 해상도)로 변환하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 방법.When the N (N> 1) multi-focus 2D image data corresponding to the determined N (N> 1) focal positions and the number of foci are acquired, the size (or And converting the resolution into a preset conversion size (or resolution). 제 1항에 있어서, The method of claim 1, N(N>1)개의 2차원 영상 데이터의 초점위치가 시선방향에 따라 정렬되도록 중첩하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 방법.And superimposing so that the focal positions of the N (N> 1) two-dimensional image data are aligned along the line of sight. 제 1항에 있어서, The method of claim 1, 상기 좌안 영상 데이터와 우안 영상 데이터에 대응하는 시차각 정보와 초점거리 정보를 기반으로 상기 좌우 영상 데이터에 대한 수평 방향 왜곡을 수정하는 축소비율을 산출하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 방법.And calculating a reduction ratio for correcting horizontal distortion of the left and right image data based on the parallax angle information and the focal length information corresponding to the left eye image data and the right eye image data. 3D stereoscopic image conversion method using 2D image. 상기 제 1항의 방법을 실행하는 프로그램을 기록한 것을 특징으로 하는 기록매체.A recording medium comprising a program for executing the method of claim 1. 2차원 영상에 대한 N(N>1)개의 초점위치와 초점수를 결정하는 초점수 결정부;A focal number determiner for determining N (N> 1) focal positions and the number of foci of the two-dimensional image; N(N>1)개의 초점위치에 대하여 N(N>1)개의 초점수만큼 다중 초점을 제어하는 초점 제어부;A focus control unit controlling multiple focuses for N (N> 1) focal positions by N (N> 1) focal points; 상기 초점제어에 의해 N(N>1)개 다중 초점 2차원 영상 데이터를 획득하는 영상 획득부;An image obtaining unit obtaining N (N> 1) multi-focus two-dimensional image data by the focus control; N(N>1)개 다중 초점 2차원 영상 데이터에 대한 N(N>1)개의 초점거리를 연산하는 초점거리 연산부;A focal length calculator configured to calculate N (N> 1) focal lengths for N (N> 1) multifocal two-dimensional image data; 상기 연산된 N(N>1)개의 초점거리에 반비례하는 N(N>1)개의 깊이값을 연산하는 깊이값 연산부;A depth value calculator for calculating N (N> 1) depth values in inverse proportion to the calculated N (N> 1) focal lengths; N(N>1)개의 깊이값에 따라 N(N>1)개 다중 초점 2차원 영상 데이터를 합성하는 깊이값 영상 합성부;A depth image synthesizing unit for synthesizing N (N> 1) multifocal two-dimensional image data according to N (N> 1) depth values; N(N>1)개 다중 초점 2차원 영상 데이터 중, 영시차(Zero Parallax) 영상 데이터와 양시차(Positive Parallax) 영상 데이터와 음시차(Negative Parallax) 영상 데이터를 확인하고, 상기 확인된 영시차를 기준으로 적어도 하나 이상의 양시차 영상 데이터에 대한 시차각을 기반으로 양시차 방향 픽셀 이동 정보를 확인하고, 상기 확인된 영시차를 기준으로 적어도 하나 이상의 음시차 영상 데이터에 대한 시차각을 기반으로 음시차 방향 픽셀 이동 정보를 확인하는 시차정보 확인부; 및Of the N (N> 1) multi-focus two-dimensional image data, zero parallax image data, positive parallax image data and negative parallax image data are checked, and the identified zero parallax Determine the bi-parallel direction pixel movement information based on the parallax angles for the at least one positive parallax image data, and based on the parallax angles for the at least one negative parallax image data based on the identified zero parallax. A parallax information checking unit for checking parallax direction pixel movement information; And 상기 확인된 양시차 방향 픽셀 이동 정보를 적어도 하나 이상의 양시차 영상 데이터에 적용하고, 상기 확인된 음시차 방향 픽셀 이동 정보를 적어도 하나 이상의 음시차 영상 데이터에 적용하여 좌안 영상 데이터와 우안 영상 데이터를 생성하는 좌우 영상 생성부;를 구비하여 이루어지는 것을 특징으로 하는 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치.The left eye image data and the right eye image data are generated by applying the identified bilateral parallax direction pixel movement information to at least one bilateral parallax image data, and applying the identified parallax direction pixel movement information to at least one parallax image data. And a left and right image generating unit. 제 6항에 있어서, The method of claim 6, 상기 N(N>1)개의 2차원 영상 데이터의 크기(또는 해상도)를 기 설정된 변환 크기(또는 해상도)로 변환하는 입력영상 축소부를 더 구비하여 이루어지는 것을 특징으로 하는 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 방법.3, further comprising an input image reduction unit for converting the size (or resolution) of the N (N> 1) two-dimensional image data into a preset conversion size (or resolution). 3D stereoscopic image conversion method. 제 6항에 있어서, The method of claim 6, N(N>1)개의 2차원 영상 데이터의 초점위치가 시선방향에 따라 정렬되도록 중첩하는 초점중첩 처리부를 더 구비하여 이루어지는 것을 특징으로 하는 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치.And a focus overlapping processor overlapping the focus positions of the N (N> 1) two-dimensional image data so as to be aligned along the line of sight. 제 6항에 있어서, The method of claim 6, 상기 좌안 영상 데이터와 우안 영상 데이터에 대응하는 시차각 정보와 초점거리 정보를 기반으로 상기 좌우 영상 데이터에 대한 수평 방향 왜곡을 수정하는 축소비율을 산출하는 축소비율 산출부를 더 구비하여 이루어지는 것을 특징으로 하는 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치.And a reduction ratio calculator for calculating a reduction ratio for correcting horizontal distortion of the left and right image data based on the parallax angle information and the focal length information corresponding to the left eye image data and the right eye image data. 3D stereoscopic image conversion device using multi-focus 2D image. 제 6항에 있어서, 상기 초점수 결정부는,The method of claim 6, wherein the focus number determiner, 2차원 영상 데이터에 포함된 N(N>1)개의 객체에 대한 패턴 인식(또는 이미지 인식)을 통해 상기 2차원 영상 데이터에 N(N>1)개의 객체-사람, 동물, 물건과 같이 배경(또는 다른 객체)와 구분되는 경계를 포함하는 피사체-가 포함되어 있는지 확인하고,Through pattern recognition (or image recognition) on N (N> 1) objects included in 2D image data, the background (such as N (N> 1) objects-people, animals, objects, etc. Or subjects with boundaries that separate them from other objects), 상기 확인결과 N(N>1)개의 객체가 확인되면, 상기 확인된 객체의 중심위치를 N(N>1)개의 초점위치로 결정하고,When N (N> 1) objects are confirmed as the result of the check, the center position of the identified object is determined as N (N> 1) focal positions, 상기 확인결과 객체가 확인되지 않으면, 상기 2차원 영상 데이터를 상하 방 향(또는 좌우 방향, 또는 격자 방향)으로 N(N>1)개의 초점영역으로 구분하고, 상기 구분된 초점영역의 중심위치를 N(N>1)개의 초점위치로 결정하는 것을 특징으로 하는 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 장치.If the object is not confirmed as a result of the checking, the 2D image data is divided into N (N> 1) focal regions in the vertical direction (or the horizontal direction or the lattice direction), and the center position of the divided focal regions is determined. 3D stereoscopic image conversion device using a multi-focus two-dimensional image, characterized in that determined by the N (N> 1) focal positions.
KR1020070102801A 2007-10-11 2007-10-11 Method and Device for Transformation from Multi Focused 2D Image to 3D Image, and Recording Media KR100915039B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070102801A KR100915039B1 (en) 2007-10-11 2007-10-11 Method and Device for Transformation from Multi Focused 2D Image to 3D Image, and Recording Media

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070102801A KR100915039B1 (en) 2007-10-11 2007-10-11 Method and Device for Transformation from Multi Focused 2D Image to 3D Image, and Recording Media

Publications (2)

Publication Number Publication Date
KR20090037247A true KR20090037247A (en) 2009-04-15
KR100915039B1 KR100915039B1 (en) 2009-09-02

Family

ID=40762030

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070102801A KR100915039B1 (en) 2007-10-11 2007-10-11 Method and Device for Transformation from Multi Focused 2D Image to 3D Image, and Recording Media

Country Status (1)

Country Link
KR (1) KR100915039B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101107153B1 (en) * 2011-09-07 2012-01-31 (주)진명아이앤씨 Video data conversion method and apparatus for 3d tv
KR20120013769A (en) * 2010-08-06 2012-02-15 삼성전자주식회사 Method and apparatus for processing image
US8687470B2 (en) 2011-10-24 2014-04-01 Lsi Corporation Optical disk playback device with three-dimensional playback functionality
GB2511888A (en) * 2013-03-14 2014-09-17 Csr Technology Inc System and method for real time 2D to 3D conversion of a video in a digital camera
US9501834B2 (en) 2011-08-18 2016-11-22 Qualcomm Technologies, Inc. Image capture for later refocusing or focus-manipulation
WO2018084536A1 (en) * 2016-11-01 2018-05-11 주식회사 케이티 Time slice image provision server, method and user terminal
CN111164603A (en) * 2017-10-03 2020-05-15 富士通株式会社 Gesture recognition system, image correction program, and image correction method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3086577B2 (en) * 1993-12-22 2000-09-11 三洋電機株式会社 3D image conversion method for 2D images
JPH08331607A (en) * 1995-03-29 1996-12-13 Sanyo Electric Co Ltd Three-dimensional display image generating method
JP4729812B2 (en) * 2001-06-27 2011-07-20 ソニー株式会社 Image processing apparatus and method, recording medium, and program
KR101212223B1 (en) * 2005-07-18 2012-12-13 삼성디스플레이 주식회사 Device taking a picture and method to generating the image with depth information

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120013769A (en) * 2010-08-06 2012-02-15 삼성전자주식회사 Method and apparatus for processing image
US9501834B2 (en) 2011-08-18 2016-11-22 Qualcomm Technologies, Inc. Image capture for later refocusing or focus-manipulation
KR101107153B1 (en) * 2011-09-07 2012-01-31 (주)진명아이앤씨 Video data conversion method and apparatus for 3d tv
US8687470B2 (en) 2011-10-24 2014-04-01 Lsi Corporation Optical disk playback device with three-dimensional playback functionality
GB2511888A (en) * 2013-03-14 2014-09-17 Csr Technology Inc System and method for real time 2D to 3D conversion of a video in a digital camera
US10237528B2 (en) 2013-03-14 2019-03-19 Qualcomm Incorporated System and method for real time 2D to 3D conversion of a video in a digital camera
GB2511888B (en) * 2013-03-14 2020-04-29 Qualcomm Inc System and method for real time 2D to 3D conversion of video in a digital camera
WO2018084536A1 (en) * 2016-11-01 2018-05-11 주식회사 케이티 Time slice image provision server, method and user terminal
US10979773B2 (en) 2016-11-01 2021-04-13 Kt Corporation Generation of time slice video having focus on selected object
CN111164603A (en) * 2017-10-03 2020-05-15 富士通株式会社 Gesture recognition system, image correction program, and image correction method

Also Published As

Publication number Publication date
KR100915039B1 (en) 2009-09-02

Similar Documents

Publication Publication Date Title
JP5968107B2 (en) Image processing method, image processing apparatus, and program
JP5140210B2 (en) Imaging apparatus and image processing method
JP5204350B2 (en) Imaging apparatus, playback apparatus, and image processing method
KR100915039B1 (en) Method and Device for Transformation from Multi Focused 2D Image to 3D Image, and Recording Media
JP5320524B1 (en) Stereo camera
JP5204349B2 (en) Imaging apparatus, playback apparatus, and image processing method
JP5814692B2 (en) Imaging apparatus, control method therefor, and program
CN103973957B (en) Binocular 3D automatic focusing system for camera and method
JP6548367B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
CN101884222A (en) Image processing for supporting a stereoscopic presentation
JP6452360B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US9253470B2 (en) 3D camera
WO2015192547A1 (en) Method for taking three-dimensional picture based on mobile terminal, and mobile terminal
CN103019001A (en) Automatic focusing method and device
CN103370943A (en) Imaging device and imaging method
CN102822740A (en) Three dimensional imaging device and method for automatically adjusting the focal point of a three dimensional imaging device
KR101083824B1 (en) stereo camera system and parallax detection method using thereof
KR20150003576A (en) Apparatus and method for generating or reproducing three-dimensional image
GB2585197A (en) Method and system for obtaining depth data
KR101994473B1 (en) Method, apparatus and program sotred in recording medium for refocucing of planar image
CN107155102A (en) 3D automatic focusing display method and system thereof
CN110087059B (en) Interactive auto-stereoscopic display method for real three-dimensional scene
KR101275127B1 (en) 3-dimension camera using focus variable liquid lens applied and method of the same
CN103426143A (en) Image editing method and correlation fuzzy parameter establishing method
JP2014036347A (en) Image pickup apparatus, image pickup system, method of controlling image pickup apparatus, program, and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee