KR20100080704A - 영상 데이터 획득 방법 및 장치 - Google Patents

영상 데이터 획득 방법 및 장치 Download PDF

Info

Publication number
KR20100080704A
KR20100080704A KR1020090000115A KR20090000115A KR20100080704A KR 20100080704 A KR20100080704 A KR 20100080704A KR 1020090000115 A KR1020090000115 A KR 1020090000115A KR 20090000115 A KR20090000115 A KR 20090000115A KR 20100080704 A KR20100080704 A KR 20100080704A
Authority
KR
South Korea
Prior art keywords
image data
photographing means
focused
photographing
focal length
Prior art date
Application number
KR1020090000115A
Other languages
English (en)
Inventor
박현수
윤두섭
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090000115A priority Critical patent/KR20100080704A/ko
Priority to PCT/KR2009/007473 priority patent/WO2010076988A2/en
Priority to EP09836309A priority patent/EP2374281A4/en
Priority to JP2011544357A priority patent/JP2012514886A/ja
Priority to CN2009801521906A priority patent/CN102265627A/zh
Priority to US12/650,917 priority patent/US20100171815A1/en
Publication of KR20100080704A publication Critical patent/KR20100080704A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

동일한 장면을 촬영한 2차원 영상 데이터들을 이용하여 3차원 영상 데이터를 획득하는 방법에 있어서 장면을 구성하는 성분들 중 소정의 조건을 만족하는 성분인 기준 성분이 포커싱 되도록 촬영 수단의 초점 거리를 설정하고, 촬영 수단의 조리개 값을 달리하여 복수 개의 2차원 영상 데이터들을 획득한 후, 복수 개의 2차원 영상 데이터들 간의 관계를 이용하여 3차원 영상 데이터를 획득하는 영상 데이터 획득 방법 및 장치가 개시된다.
3차원, 깊이 맵

Description

영상 데이터 획득 방법 및 장치{Method and apparatus for obtaining image data}
본 발명은 영상 데이터를 획득하는 방법 및 장치에 관한 것이며, 특히 3차원 영상 데이터를 획득하는 방법 및 장치에 관한 것이다.
오늘날 정보 통신 기술의 발달에 힘입어 3차원 영상 기술이 널리 보급되고 있다. 3차원 영상 기술은 2차원 영상에 깊이에 대한 정보를 부여하여 보다 사실적인 영상을 표현하는 기술이다.
사람의 눈은 가로 방향으로 소정 거리만큼 떨어져 있으므로 좌안과 우안이 보는 2차원 영상이 서로 다른데 이를 양안시차라고 한다. 뇌는 서로 다른 두 개의 2차원 영상을 융합하여 원근감과 실재감이 있는 3차원 영상을 생성한다.
3차원 영상을 제공하기 위하여 깊이에 대한 정보가 반영된 3차원 영상 데이터를 제작하거나, 2차원 영상 데이터를 변환하여 3차원 영상 데이터를 생성한다.
본 발명의 목적은 3차원 영상 데이터를 효과적으로 획득하는 방법 및 장치를 제공하는 것이다.
상기의 목적을 달성하기 위한 본 발명의 하나의 특징은, 동일한 장면을 촬영한 2차원 영상 데이터들을 이용하여 3차원 영상 데이터를 획득하는 방법에 있어서, 상기 장면을 구성하는 복수 개의 성분들 중 소정의 조건을 만족하는 성분인 기준 성분이 포커싱 되도록 촬영 수단의 초점 거리를 설정하는 단계; 상기 촬영 수단의 조리개 값을 달리하여 복수 개의 2차원 영상 데이터들을 획득하는 단계; 및 상기 복수 개의 2차원 영상 데이터들 간의 관계를 이용하여 3차원 영상 데이터를 획득하는 단계를 포함하는 것이다.
상기 기준 성분은, 상기 성분들 중 상기 촬영 수단과의 거리가 최소인 제 1 성분 또는 상기 촬영 수단과의 거리가 최대인 제 2 성분일 수 있다.
상기 초점 거리를 설정하는 단계는, 복수 개의 초점 측정 영역을 상기 장면내에서 설정하는 단계; 상기 초점 측정 영역들이 포커싱 되는 초점 거리들을 측정하는 단계; 및 상기 측정된 초점 거리들에 기초하여, 상기 초점 측정 영역들 중 하나를 상기 기준 성분으로 결정하는 단계를 포함할 수 있다.
상기 기준 성분은, 상기 초점 측정 영역들 중 최소의 초점 거리에서 포커싱 되는 제 1 초점 측정 영역일 수 있다.
상기 기준 성분은, 상기 초점 측정 영역들 중 최대의 초점 거리에서 포커싱 되는 제 2 초점 측정 영역일 수 있다.
상기 측정하는 단계는, 상기 촬영 수단의 조리개 값을 최소로 하여, 상기 초점 측정 영역들이 포커싱 되는 초점 거리들을 측정할 수 있다.
상기 측정하는 단계는, 상기 촬영 수단의 조리개 값을 최대로 하여, 상기 초점 측정 영역들이 포커싱되는 상기 초점 거리들을 측정할 수 있다.
상기 2차원 영상 데이터를 획득하는 단계는, 상기 촬영 수단의 조리개 값을 최소 값으로 설정하여 상기 장면을 촬영한 제 1 영상 데이터 및 상기 촬영 수단의 조리개 값을 최대 값으로 설정하여 상기 장면을 촬영한 제 2 영상 데이터를 획득할 수 있다.
상기 3차원 영상 데이터를 획득하는 단계는, 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 비교하여, 상기 2차원 영상 데이터내의 각각의 픽셀들에 대하여, 초점이 어긋난 정도를 나타내는 정보를 생성하는 단계; 및 상기 생성된 정보에 기초하여, 상기 2차원 영상 데이터들에 대응하는 깊이 맵을 생성하는 단계를 포함할 수 있다.
본 발명의 다른 실시예에 따른 하나의 특징은, 동일한 장면을 촬영한 2차원 영상 데이터들을 이용하여 3차원 영상 데이터를 획득하는 장치에 있어서, 상기 장면을 구성하는 복수 개의 성분들 중 소정의 조건을 만족하는 성분인 기준 성분이 포커싱 되도록 촬영 수단의 초점 거리를 설정하는 초점 거리 설정부; 상기 촬영 수단의 조리개 값을 달리하여 복수 개의 2차원 영상 데이터들을 획득하는 제 1 획득부; 및 상기 복수 개의 2차원 영상 데이터들 간의 관계를 이용하여 3차원 영상 데이터를 획득하는 제 2 획득부를 포함하는 것이다.
이하에서는 첨부된 도면을 참고하여 본 발명의 바람직한 실시예를 상세히 설명한다.
2차원 영상 데이터를 이용하여 3차원 영상 데이터를 생성하기 위해서는 촬영 대상과 카메라간의 거리를 나타내는 정보가 필요하다. 이러한 정보의 일 예가 깊이 정보이다. 깊이 정보는 2차원 영상 데이터를 구성하는 픽셀별로, 픽셀이 나타내는 대상과 카메라가 얼마나 떨어져 있는지를 나타낸다.
깊이 정보를 획득하기 위해서는 다음의 세 가지 방법을 사용할 수 있다.
첫째, 촬영된 사물의 모양을 분석하여 깊이 정보를 획득할 수 있다. 이 방법은 한 장의 2차원 영상 데이터를 이용한다는 점에서는 경제적이다. 그러나, 사물의 모양을 분석하는 장치 또는 방법을 구현하는 것이 난해하여 실용화가 힘들다는 문제점이 있다.
둘째, 동일한 대상을 다른 각도에서 촬영한 둘 이상의 2차원 영상 데이터를 분석하여 깊이 정보를 획득하는 것이다. 이 방법은 구현이 용이하다는 점에서 많이 사용되는 방법이다. 그러나, 동일한 대상을 다른 각도에서 촬영하기 위해서는 촬영 수단(예를 들면, 카메라)이 상이한 광 경로를 갖는 복수의 광학계를 구비하여야 한다. 광학계는 고가의 물품이므로, 촬영 수단이 광학계를 둘 이상 구비하는 것은 비경제적이다.
셋째, 동일한 대상을 촬영한 둘 이상의 2차원 영상 데이터를 분석하여 3차원 영상 데이터를 획득할 수 있다. 일 예로, "Simple range cameras based on focal error"(A. Pentland, S. Scherock, T.Darrell, and B. Girod) 논문에는 초점이 맞는 영상과 초점이 맞지 않는 영상을 분석하여 깊이 정보를 획득하는 구성이 개시되어 있다. 아래의 [수학식 1]은 상술한 논문에서 발췌한 둘 이상의 2차원 영상 데이터를 이용하여 깊이 정보를 획득하는데 사용되는 수학식이다. [수학식 1]은 둘 이상의 영상 데이터를 이용하여 3차원 영상 데이터를 획득하는 일 예에 불과하며, 본 발명이 여기에 한정되는 것은 아니다.
[수학식 1]
Figure 112009000084386-PAT00001
[수학식 1]에서, f는 카메라 렌즈의 초점 값이고, D는 카메라와 렌즈 사이에 위치한 영상면간의 거리이며, r은 초점이 맞지 않아 촬영 대상이 뿌옇게 표시되는 부분의 반경이다. 또한, k는 변환 상수이며, fnumber는 카메라의 f수치로써 카메라 렌즈의 초점 거리를 렌즈 조리개로 나눈 값이다. 이 중, r을 제외한 나머지 값은 카메라의 물리적인 조건과 관련된 것이므로 촬영과 동시에 획득할 수 있다. 따라서, 촬영된 영상으로부터 r 값을 획득하면 깊이 정보를 획득할 수 있다.
수학식 1에서 사용되는 카메라 렌즈의 초점 값 f는 렌즈의 물리적인 특징을 나타내는 것으로써 동일한 카메라로 촬영 대상을 촬영하는 동안에는 초점 값 f를 변경할 수 없다. 그러나, 후술할 초점 거리는 렌즈 간의 거리를 조절하여 촬영 대상이 포커싱되도록 하는데 것으로써 동일한 카메라로 촬영 대상을 촬영하는 동안에 도 초점 거리를 변경할 수 있다.
수학식 1과 같이 둘 이상의 2차원 영상 데이터를 이용하여 깊이 정보를 획득하고자 하는 경우, 하나의 2차원 영상 데이터는 촬영되는 장면을 구성하는 모든 성분들이 선명하게 나타나고, 다른 하나의 2차원 영상 데이터는 촬영되는 장면을 구성하는 성분들 중 일부 성분은 선명하게 나타나고, 나머지 성분은 흐리게 나타나는 것이 바람직하다. 이하에서는 설명의 편의를 위하여 장면 내의 모든 성분들이 선명하게 나타나는 영상 데이터를 제 1 영상 데이터로 명명하고, 일부 성분들만이 선명하게 나타내는 영상 데이터를 제 2 영상 데이터로 명명한다.
본 명세서에서 성분은 촬영되는 장면을 소정 크기로 나눈 조각을 의미한다. 모든 성분의 크기가 동일할 수도 있으며, 다를 수도 있다. 일 예로, 사람이 서 있는 장면을 촬영하고자 하는 경우 '사람'이 하나의 성분이 될 수도 있고, '사람'의 '팔' 및 '다리'가 성분이 될 수도 있다.
장면을 구성하는 모든 구성 성분들이 선명하게 나타나는 제 1 영상 데이터와 일부 구성 성분들만이 선명하게 나타나는 제 2 영상 데이터를 획득하기 위한 하나의 방법은 촬영 수단의 조리개 값을 달리하여 동일한 장면을 촬영하는 것이다. 조리개 값을 달리하여 동일한 장면을 촬영한 본 발명의 일 실시예에 관한 자세한 설명은 도 1a 및 도 1b에서 후술한다.
도 1a는 본 발명의 일 실시예에 따른 촬영 수단의 조리개를 닫은 상태로 촬영 대상을 촬영한 예이다.
도 1a의 좌측에는 조리개를 조인 촬영 수단의 일 예가 도시된다. 조리개를 조인 상태에서 촬영 대상을 촬영하면 도 1a의 우측과 같이 촬영되는 장면내의 모든 구성 성분들이 선명하게 나타난다. 따라서, 촬영 수단의 조리개를 조인 상태로 촬영 대상을 촬영하여 제 1 영상 데이터를 획득할 수 있다.
도 1b는 본 발명의 일 실시예에 따른 촬영 수단의 조리개를 개방한 상태로 촬영 대상을 촬영한 예이다.
도 1b의 좌측에는 조리개가 개방된 촬영 수단의 일 예가 도시된다. 조리개를 개방한 상태에서 촬영 대상을 촬영하면 도 1b의 우측과 같이 촬영되는 장면내의 일부 구성 성분만이 선명하게 나타난다. 즉, 포커싱 된 특정 영역은 선명하게 나타나고 나머지 영역은 뿌옇게 나타난다. 따라서, 촬영 수단의 조리개를 개방한 상태로 촬영 대상을 촬영하여 제 2 영상 데이터를 획득할 수 있다.
도 1a 및 도 1b에서는 촬영 수단의 조리개 값을 달리하여 제 1 영상 데이터와 제 2 영상 데이터를 획득하였으나, 제 1 영상 데이터와 제 2 영상 데이터를 획득하는 방법이 여기에 한정되는 것은 아니다.
제 1 영상 데이터와 제 2 영상 데이터가 획득되면, 수학식 1에 의하여 깊이 정보를 획득할 수 있다. 수학식 1에 의하여 깊이 정보를 계산하는 경우, 해당 픽셀이 나타내는 사물이 기준 위치(예를 들면 카메라)로부터 얼마나 떨어져 있는지를 알 수 있다. 그러나, 해당 픽셀이 나타내는 사물이 기준 위치의 앞에 위치하는지 뒤에 위치하는지는 알 수가 없다. 이하에서는 도 2를 참고하여 이러한 문제점을 살펴보기로 한다.
도 2는 본 발명의 일 실시예에 따른 영상 획득 장치를 이용하여 획득한 제 2 영상 데이터의 일 예이다.
도 2를 참고하면, 제 2 영상 데이터내의 '5'번 영역과 '7'번 영역이 가장 선명함을 알 수 있다. 이는, '5'번 영역과 '7'번 영역이 포커싱 되었음을 의미한다. 수학식 1에 따라 'r'값을 계산하면, '5'번 영역 및 '7'번 영역에 해당하는 'r'값이 최소가 된다. 이 때, '5'번 영역 또는 '7'번 영역이 나타내는 사물의 위치가 기준 위치가 된다.
반면, 나머지 영역은 '5'번 영역 및 '7'번 영역에 비하여 뿌옇게 나타나게 된다. 수학식 1에 따라 'r'값을 계산하면, '5'번 영역 및 '7'번 영역에 해당하는 'r'값에 비하여 나머지 영역에 해당하는 'r'값이 큰 것을 알 수 있다. 수학식 1에서는 초점이 어긋난 정도에 비례하여, 'r'값이 커지게 된다. 따라서, 영역이 나타내는 'r'값이 크면 클수록 해당 영역이 나타내는 사물은 기준 위치로부터 멀리 떨어져 있게 된다.
만일, '4','1','8'번 영역이 뿌옇게 흐려진 정도(즉, 초점이 어긋난 정도)가 동일하다면, 수학식 1에 따라 '4','1','8'번 영역에 대하여 계산한 'r'값이 동일할 것이다. 이는 '4','1','8'번 영역에 해당하는 사물들 각각은 기준 위치로부터 동일한 거리만큼 떨어져 있음을 의미한다.
그러나, '4','1','8'번 영역에 해당하는 사물이 모두 기준 위치의 앞쪽에 위치하거나, 모두 기준 위치의 뒷쪽에 위치하는지는 알 수가 없다. 즉, 크기에 관한 정보는 제공되나, 부호에 관한 정보는 제공되지 않는다.
따라서, '4'번 영역이 나타내는 사물이 '5'번 영역이 나타내는 사물보다 '10cm'앞에 위치하고, '6'번 영역이 나타내는 사물이 '5'번 영역이 나타내는 사물보다 '10cm뒤에 위치함에도 불구하고, '4'번 영역이 나타내는 사물과 '6'번 영역이 나타내는 사물이 모두 기준 위치의 앞쪽(또는 뒤쪽)에 위치하는 것으로 판단될 우려가 있다.
이와 같은 문제점을 해결하기 위한 하나의 방법으로는 촬영될 장면내의 성분들 중 가장 먼 곳에 위치한 성분이 포커싱 되도록 초점 거리를 조절하여 제 2 영상 데이터를 획득할 수 있다. 이 경우, 장면내의 모든 성분들은 포커싱 된 성분보다 가까운 곳에 위치하게 된다.
유사하게, 장면내의 성분들 중 가장 가까운 곳에 위치한 성분이 포커싱 되도록 초점 거리를 조절하여 제 2 영상 데이터를 획득할 수 있다. 이 경우, 장면내의 모든 성분들은 포커싱 된 성분보다 먼 곳에 위치하게 된다.
도 3은 본 발명의 일 실시예에 따른 영상 데이터 획득 장치에 관한 블록도를 나타낸다.
본 발명의 일 실시예에 따른 영상 데이터 획득 장치(300)는 초점 거리 설정부(310), 제 1 획득부(320) 및 제 2 획득부(330)를 포함한다.
초점 거리 설정부(310)는 촬영될 장면을 구성하는 복수 개의 성분들 중 소정의 조건을 만족하는 성분인 기준 성분이 포커싱 되도록 촬영 수단의 초점 거리를 설정한다. 기준 성분은 실시 예에 따라서 다양할 수 있다. 일 예로, 장면을 구성하는 복수 개의 성분들 중 촬영 수단으로부터 가장 먼 곳에 위치한 제 1 성분을 기준 성분으로 설정하거나, 촬영 수단으로부터 가장 가까운 곳에 위치인 제 2 성분을 기 준 성분으로 설정할 수도 있다.
제 1 성분 또는 제 2 성분을 기준 성분으로 설정하기 위해서는 장면을 구성하는 모든 성분들과 촬영 수단과의 거리를 측정하는 것이 바람직하다. 그러나, 장면내의 모든 성분들과 촬영 수단과의 거리를 측정한다는 것은 실질적으로 불가능하다. 따라서, 장면내에서 하나 이상의 영역을 지정하고, 지정된 영역과 촬영 수단과의 거리를 측정한 후, 이들 영역들 중 하나를 기준 위치로 선정하는 것이 바람직하다. 제 1 성분 또는 제 2 성분을 기준 성분으로 설정하는 일 예에 관한 자세한 설명은 도 4에서 후술한다.
제 1 획득부(320)는 촬영 수단의 조리개 값을 달리하여 복수 개의 2차원 영상 데이터들을 획득한다. 이 때, 촬영 수단의 초점 거리는 초점 거리 설정부(310)에서 설정된 초점 거리를 유지하는 것이 바람직하다.
먼저, 제 1 획득부(320)는 촬영 수단의 조리개 값을 최소 값으로 설정하여 촬영 대상을 촬영함으로써 제 1 영상 데이터를 획득한다. 이어서, 제 1 획득부(320)는 촬영 수단의 조리개 값을 최대 값으로 설정하여 동일한 촬영 대상을 촬영함으로써 제 2 영상 데이터를 획득한다. 상술한 바와 같이 제 2 영상 데이터에서는 기준 성분만이 선명하게 나타나고, 나머지 성분들은 흐릿하게 나타날 것이다.
제 2 획득부(330)는 복수 개의 2차원 영상 데이터들 간의 관계를 이용하여 3차원 영상 데이터를 획득한다. 제 2 획득부(330)는 정보 생성부(미도시) 및 깊이 맵 생성부(미도시)를 포함할 수 있다. 정보 생성부(미도시)는 제 1 영상 데이터와 제 2 영상 데이터를 비교하여, 제 2 영상 데이터내의 픽셀들 각각에 대하여 초점이 어긋난 정도를 나타내는 정보를 생성한다. 초점이 어긋난 정도를 나타내는 정보는 수학식 1의 r이다.
깊이 맵 생성부(미도시)는 생성된 정보에 기초하여, 2차원 영상 데이터들에 대응하는 깊이 맵을 생성한다.
도 4는 도 3의 초점 거리 설정부(310)의 일 예에 관한 블록도를 나타낸다.
본 발명의 일 실시예에 따른 초점 거리 설정부(310)는 설정부(312), 측정부(314) 및 결정부(316)을 포함한다.
설정부(312)는 초점 거리를 측정하는데 사용될 적어도 하나의 초점 거리 측정 영역을 장면내에서 설정한다. 초점 거리 측정 영역은 사용자가 직접 지정할 수도 있으나, 설정부(312)가 자동으로 지정할 수도 있다.
측정부(314)는 측정 영역들 각각이 포커싱되는 초점 거리를 측정한다. 최근 개발된 자동 초점 기능은 사용자의 조작 없이도 특정 영역이 포커싱 되도록 하는 기능이다. 이러한 자동 초점 기능을 이용하면 측정 영역들이 포커싱되는 초점 거리를 쉽게 측정할 수 있다.
측정 영역들이 포커싱되는 초점 거리를 측정함에 있어서, 촬영 수단의 조리개는 조인 상태일 수도 있으나, 개방한 상태일 수도 있다. 그러나, 촬영 수단의 조리개를 개방한 상태에서 측정 영역이 포커싱되었는지를 보다 정확하게 알 수 있기 때문에, 촬영 수단의 조리개를 개방한 상태로 측정 영역이 포커싱되는 초점 거리를 측정하는 것이 바람직하다.
결정부(316)는 측정 영역이 포커싱되는 초점 거리에 기초하여 복수 개의 측 정 영역들 중 하나를 기준 성분으로 결정한다. 일 예로, 가장 짧은 초점 거리에서 포커싱되는 측정 영역을 기준 성분으로 결정하거나, 가장 긴 초점 거리에서 포커싱되는 측정 영역을 기준 성분으로 결정할 수도 있다.
도 5는 본 발명의 일 실시예에 따른 영상 데이터 획득 장치(300)를 이용하여 획득한 제 2 영상 데이터의 일 예이다.
도 5를 참고하면, 설정부(312)는 9개의 측정 영역을 설정하였다. 따라서, 측정부(314)는 9개의 측정 영역들 각각에 대하여, 포커싱 되는 초점 거리를 계산하였다. 일 예로, '1'번 영역이 포커싱되는 초점 거리는 '50'이며, '6'번 영역이 포커싱되는 초점 거리는 '10'이며, '2'번 영역이 포커싱되는 초점 거리는 '50'이다.
결정부(316)는 측정부(314)가 측정한 초점 거리들에 기초하여 9개의 측정 영역들 중 하나를 기준 성분으로 결정한다. 이 때, 결정부(314)는 가장 작은 초점 거리에서 포커싱 되는 측정 영역을 기준 성분으로 결정하거나, 가장 큰 초점 거리에서 포커싱되는 측정 영역을 기준 성분으로 설정할 수 있다. 도 5에서는 가장 작은 초점 거리에서 포커싱 되는 측정 영역을 기준 성분으로 결정하였다.
따라서, '6'번 영역이 기준 성분으로 결정된다.
이 후, 제 1 획득부(320)는 '6'번 영역이 포커싱 되도록 초점 거리를 유지한 상태로 조리개 값을 변화시키면서 복수 개의 2차원 영상 데이터를 획득한다. 일 예로, 제 1 획득부(320)는 조리개를 모두 조인 상태에서 촬영 대상을 촬영하여 제 1 영상 데이터를 획득하고, 조리개를 모두 개방한 상태에서 촬영 대상을 촬영하여 제 2 영상 데이터를 획득한다.
다음으로, 제 2 획득부(330)는 복수 개의 2차원 영상 데이터들 간의 관계를 이용하여 3차원 영상 데이터를 획득한다. 이 때, 상술한 수학식 1이 이용될 수 있다.
도 6은 본 발명의 일 실시예에 따른 영상 데이터 획득 방법에 관한 흐름도를 나타낸다.
단계 s610은 기준 성분이 포커싱 되도록 촬영 수단의 초점 거리를 설정한다. 기준 성분은 촬영될 장면을 구성하는 복수 개의 성분들 중 소정의 조건을 만족하는 성분을 의미한다. 기준 성분은, 복수 개의 성분들 중 촬영 수단과의 거리가 최소인 제 1 성분이나 촬영 수단과의 거리가 최대인 제 2 성분 중 하나일 수 있다.
단계 s620에서는, 촬영 수단의 조리개 값을 달리하여 복수 개의 2차원 영상 데이터들을 획득한다. 이 때, 촬영 수단의 초점 거리는 단계 s610에서 설정된 상태로 유지하는 것이 바람직하다.
단계 s630에서는, 복수 개의 2차원 영상 데이터들간의 관계를 이용하여 3차원 영상 데이터를 획득한다.
도 7은 본 발명의 다른 실시예에 따른 영상 데이터 획득 방법에 관한 흐름도를 나타낸다.
단계 s710에서는, 촬영 수단의 촬영 모드를 제 1 모드로 설정한다. 촬영 모드는 조리개를 조인 상태에 따라서 분류될 수 있다. 일 예로 제 1 모드는 촬영 수단이 허용하는 범위내에서 조리개를 모두 개방한 상태를 나타내고, 제 2 모드는 촬영 수단이 허용하는 범위내에서 조리개를 모두 조인 상태를 나타낼 수 있다.
단계 s720에서는, 촬영 수단의 초점 거리를 증가(또는 감소)시킨다. 이 때, 초점 거리를 변화시키는 양은 실시 예에 따라서 다양할 수 있다.
단계 s730에서는, 현재의 초점 거리에서 포커싱되는 측정 영역이 존재하는지를 판단한다. 측정 영역은 장면내에서 초점 거리를 측정하는데 사용될 영역을 의미한다. 현재의 초점 거리에서 포커싱되는 측정 영역이 존재하면, 단계 s732를 수행하여 해당 측정 영역과 초점 거리를 바인딩하여 저장한다.
단계 s740에서는 현재의 초점 거리가 촬영 수단이 허용하는 최대(또는 최소)초점 거리인 경우에는 단계 s750을 수행한다. 그러나, 현재의 초점 거리가 촬영 수단이 허용하는 최대(또는 최소) 초점 거리가 아닌 경우에는 단계 s720을 다시 수행한다.
단계 s750에서는, 저장된 초점 거리에 기초하여 최소의 초점 거리에서 포커싱된 측정 영역을 기준 성분으로 결정한다. 또한, 촬영 수단의 초점 거리를 기준 성분이 포커싱되는 초점 거리로 설정한다.
단계 s760에서는, 촬영 수단을 이용하여 촬영 대상을 촬영한다. 제 1 모드는 조리개가 개방된 상태이므로, 단계 s760에서 획득된 영상 데이터는 기준 성분만이 선명하고 나머지 성분들은 선명하지 않은 제 2 영상 데이터이다.
단계 s770에서는, 촬영 모드를 제 2 모드로 변경한다.
단계 s780에서는, 촬영 수단을 이용하여 촬영 대상을 촬영한다. 제 2 모드는 조리개를 조인 상태이므로, 단계 s780에서 획득된 영상 데이터는 장면내의 모든 영역이 선명한 제 1 영상 데이터이다.
단계 s790에서는, 제 1 영상 데이터 및 제 2 영상 데이터간의 관계를 이용하여 3차원 영상 데이터를 획득한다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
1a는 본 발명의 일 실시예에 따른 촬영 수단의 조리개를 닫은 상태로 촬영 대상을 촬영한 예이다.
도 1b는 본 발명의 일 실시예에 따른 촬영 수단의 조리개를 개방한 상태로 촬영 대상을 촬영한 예이다.
도 2는 본 발명의 일 실시예에 따른 영상 획득 장치를 이용하여 획득한 제 2 영상 데이터의 일 예이다.
도 3은 본 발명의 일 실시예에 따른 영상 데이터 획득 장치에 관한 블록도를 나타낸다.
도 4는 도 3의 초점 거리 설정부(310)의 일 예에 관한 블록도를 나타낸다.
도 5는 본 발명의 일 실시예에 따른 영상 데이터 획득 장치(300)를 이용하여 획득한 제 2 영상 데이터의 일 예이다.
도 6은 본 발명의 일 실시예에 따른 영상 데이터 획득 방법에 관한 흐름도를 나타낸다.
도 7은 본 발명의 다른 실시예에 따른 영상 데이터 획득 방법에 관한 흐름도를 나타낸다.

Claims (19)

  1. 동일한 장면을 촬영한 2차원 영상 데이터들을 이용하여 3차원 영상 데이터를 획득하는 방법에 있어서,
    상기 장면을 구성하는 복수 개의 성분들 중 소정의 조건을 만족하는 성분인 기준 성분이 포커싱 되도록 촬영 수단의 초점 거리를 설정하는 단계;
    상기 촬영 수단의 조리개 값을 달리하여 복수 개의 2차원 영상 데이터들을 획득하는 단계; 및
    상기 복수 개의 2차원 영상 데이터들 간의 관계를 이용하여 3차원 영상 데이터를 획득하는 단계를 포함하는 것을 특징으로 하는 영상 데이터 획득 방법.
  2. 제 1 항에 있어서, 상기 기준 성분은,
    상기 성분들 중 상기 촬영 수단과의 거리가 최소인 제 1 성분 또는 상기 촬영 수단과의 거리가 최대인 제 2 성분인 것을 특징으로 하는 영상 데이터 획득 방법.
  3. 제 1항에 있어서, 상기 초점 거리를 설정하는 단계는,
    복수 개의 초점 측정 영역을 상기 장면내에서 설정하는 단계;
    상기 초점 측정 영역들이 포커싱 되는 초점 거리들을 측정하는 단계; 및
    상기 측정된 초점 거리들에 기초하여, 상기 초점 측정 영역들 중 하나를 상 기 기준 성분으로 결정하는 단계를 포함하는 것을 특징으로 하는 영상 데이터 획득 방법.
  4. 제 3항에 있어서, 상기 기준 성분은,
    상기 초점 측정 영역들 중 최소의 초점 거리에서 포커싱 되는 제 1 초점 측정 영역인 것을 특징으로 하는 영상 데이터 획득 방법.
  5. 제 3항에 있어서, 상기 기준 성분은,
    상기 초점 측정 영역들 중 최대의 초점 거리에서 포커싱 되는 제 2 초점 측정 영역인 것을 특징으로 하는 영상 데이터 획득 방법.
  6. 제 3항에 있어서, 상기 측정하는 단계는,
    상기 촬영 수단의 조리개 값을 최소로 하여, 상기 초점 측정 영역들이 포커싱 되는 초점 거리들을 측정하는 것을 특징으로 하는 영상 데이터 획득 방법.
  7. 제 3항에 있어서, 상기 측정하는 단계는,
    상기 촬영 수단의 조리개 값을 최대로 하여, 상기 초점 측정 영역들이 포커싱되는 상기 초점 거리들을 측정하는 것을 특징으로 하는 영상 데이터 획득 방법.
  8. 제 1항에 있어서, 상기 2차원 영상 데이터를 획득하는 단계는,
    상기 촬영 수단의 조리개 값을 최소 값으로 설정하여 상기 장면을 촬영한 제 1 영상 데이터 및 상기 촬영 수단의 조리개 값을 최대 값으로 설정하여 상기 장면을 촬영한 제 2 영상 데이터를 획득하는 것을 특징으로 하는 영상 데이터 획득 방법.
  9. 제 8항에 있어서, 상기 3차원 영상 데이터를 획득하는 단계는,
    상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 비교하여, 상기 2차원 영상 데이터내의 각각의 픽셀들에 대하여, 초점이 어긋난 정도를 나타내는 정보를 생성하는 단계; 및
    상기 생성된 정보에 기초하여, 상기 2차원 영상 데이터들에 대응하는 깊이 맵을 생성하는 단계를 포함하는 것을 특징으로 하는 영상 데이터 획득 방법.
  10. 동일한 장면을 촬영한 2차원 영상 데이터들을 이용하여 3차원 영상 데이터를 획득하는 장치에 있어서,
    상기 장면을 구성하는 복수 개의 성분들 중 소정의 조건을 만족하는 성분인 기준 성분이 포커싱 되도록 촬영 수단의 초점 거리를 설정하는 초점 거리 설정부;
    상기 촬영 수단의 조리개 값을 달리하여 복수 개의 2차원 영상 데이터들을 획득하는 제 1 획득부; 및
    상기 복수 개의 2차원 영상 데이터들 간의 관계를 이용하여 3차원 영상 데이터를 획득하는 제 2 획득부를 포함하는 것을 특징으로 하는 영상 데이터 획득 장 치.
  11. 제 10 항에 있어서, 상기 기준 성분은,
    상기 성분들 중 상기 촬영 수단과의 거리가 최소인 제 1 성분 또는 상기 촬영 수단과의 거리가 최대인 제 2 성분인 것을 특징으로 하는 영상 데이터 획득 장치.
  12. 제 10항에 있어서, 상기 초점 거리 설정부는,
    복수 개의 초점 측정 영역을 상기 장면내에서 설정하는 설정부;
    상기 복수 개의 초점 측정 영역들 각각에 대하여, 상기 초점 측정 영역들이 포커싱되는 초점 거리들을 측정하는 측정부;
    상기 측정된 초점 거리들에 기초하여, 상기 초점 측정 영역들 중 하나를 상기준 성분으로 결정하는 결정부를 포함하는 것을 특징으로 하는 영상 데이터 획득 장치.
  13. 제 12항에 있어서, 상기 기준 성분은,
    상기 초점 측정 영역들 중 최소의 초점 거리에서 포커싱 되는 초점 측정 영역인 것을 특징으로 하는 영상 데이터 획득 장치.
  14. 제 12항에 있어서, 상기 기준 성분은,
    상기 초점 측정 영역들 중 최대의 초점 거리에서 포커싱 되는 초점 측정 영역인 것을 특징으로 하는 영상 데이터 획득 장치.
  15. 제 12항에 있어서, 상기 측정부는,
    상기 촬영 수단의 조리개 값을 최소로 하여, 상기 초점 영역들이 포커싱되는 상기 초점 거리들을 측정하는 것을 특징으로 하는 영상 데이터 획득 장치.
  16. 제 12항에 있어서, 상기 측정부는,
    상기 촬영 수단의 조리개 값을 최대로 하여, 상기 초점 영역 들이 포커싱되는 상기 초점 거리들을 측정하는 것을 특징으로 하는 영상 데이터 획득 장치.
  17. 제 10항에 있어서, 상기 제 1 획득부는,
    상기 촬영 수단의 조리개 값을 최소값으로 설정하여 상기 장면을 촬영한 제 1 영상 데이터 및 상기 촬영 수단의 조리개 값을 최대값으로 설정하여 상기 장면을 촬영한 제 2 영상 데이터를 획득하는 것을 특징으로 하는 영상 데이터 획득 장치.
  18. 제 17항에 있어서, 상기 제 2 획득부는,
    상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 비교하여, 상기 2차원 영상 데이터들내의 각각의 픽셀들에 대하여, 초점이 어긋난 정도를 나타내는 정보를 생성하는 정보 생성부; 및
    상기 생성된 정보에 기초하여, 상기 2차원 영상 데이터들에 대응하는 깊이 맵을 생성하는 깊이 맵 생성부를 포함하는 것을 특징으로 하는 영상 데이터 획득 장치.
  19. 제 1항 내지 제 9항 중 어느 한 항의 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체.
KR1020090000115A 2009-01-02 2009-01-02 영상 데이터 획득 방법 및 장치 KR20100080704A (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020090000115A KR20100080704A (ko) 2009-01-02 2009-01-02 영상 데이터 획득 방법 및 장치
PCT/KR2009/007473 WO2010076988A2 (en) 2009-01-02 2009-12-18 Image data obtaining method and apparatus therefor
EP09836309A EP2374281A4 (en) 2009-01-02 2009-12-18 METHOD FOR OBTAINING IMAGE DATA AND DEVICE THEREFOR
JP2011544357A JP2012514886A (ja) 2009-01-02 2009-12-18 映像データ獲得方法及び装置
CN2009801521906A CN102265627A (zh) 2009-01-02 2009-12-18 图像数据获得方法和图像数据获得设备
US12/650,917 US20100171815A1 (en) 2009-01-02 2009-12-31 Image data obtaining method and apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090000115A KR20100080704A (ko) 2009-01-02 2009-01-02 영상 데이터 획득 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20100080704A true KR20100080704A (ko) 2010-07-12

Family

ID=42310317

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090000115A KR20100080704A (ko) 2009-01-02 2009-01-02 영상 데이터 획득 방법 및 장치

Country Status (6)

Country Link
US (1) US20100171815A1 (ko)
EP (1) EP2374281A4 (ko)
JP (1) JP2012514886A (ko)
KR (1) KR20100080704A (ko)
CN (1) CN102265627A (ko)
WO (1) WO2010076988A2 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103900532A (zh) * 2012-12-27 2014-07-02 财团法人工业技术研究院 深度影像捕获设备、其校正方法与量测方法
WO2015026041A1 (ko) * 2013-08-20 2015-02-26 삼성테크윈 주식회사 영상 처리 장치 및 방법
KR20200114117A (ko) * 2019-03-27 2020-10-07 서울대학교산학협력단 거리 측정 장치 및 방법
KR20200114114A (ko) * 2019-03-27 2020-10-07 서울대학교산학협력단 거리 측정 장치

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012092246A2 (en) * 2010-12-27 2012-07-05 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation
JP5611469B2 (ja) * 2011-09-09 2014-10-22 富士フイルム株式会社 立体撮像装置および方法
JP5966535B2 (ja) * 2012-04-05 2016-08-10 ソニー株式会社 情報処理装置、プログラム及び情報処理方法
US10257506B2 (en) * 2012-12-28 2019-04-09 Samsung Electronics Co., Ltd. Method of obtaining depth information and display apparatus
KR102068048B1 (ko) * 2013-05-13 2020-01-20 삼성전자주식회사 3차원 영상 제공 시스템 및 방법
TWI549478B (zh) * 2014-09-04 2016-09-11 宏碁股份有限公司 產生三維影像的方法及其電子裝置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5285231A (en) * 1990-11-29 1994-02-08 Minolta Camera Kabushiki Kaisha Camera having learning function
US5384615A (en) * 1993-06-08 1995-01-24 Industrial Technology Research Institute Ambient depth-of-field simulation exposuring method
TW262541B (ko) * 1994-05-09 1995-11-11 Image Technology Internat Inc
WO1998045808A1 (en) * 1997-04-04 1998-10-15 Alfa Laval Agri Ab Method and apparatus for generating image information when carrying out animal related operations
US6195455B1 (en) * 1998-07-01 2001-02-27 Intel Corporation Imaging device orientation information through analysis of test images
GB2354389A (en) * 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
US20030112326A1 (en) * 2001-08-17 2003-06-19 Byoungyi Yoon Method and system for transmitting or storing stereoscopic images and photographing ratios for the images
JP2004264827A (ja) * 2003-02-10 2004-09-24 Chinon Ind Inc 焦点距離検出方法及び合焦装置
JP4734552B2 (ja) * 2005-03-15 2011-07-27 名古屋市 路面の3次元形状の計測方法及びその装置
FR2887347B1 (fr) 2005-06-17 2007-09-21 Canon Res Ct France Soc Par Ac Procede et dispositif de construction d'une carte de profondeur d'une image numerique
US20070019883A1 (en) * 2005-07-19 2007-01-25 Wong Earl Q Method for creating a depth map for auto focus using an all-in-focus picture and two-dimensional scale space matching
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
JP2007133301A (ja) * 2005-11-14 2007-05-31 Nikon Corp オートフォーカスカメラ
WO2007063478A2 (en) * 2005-12-02 2007-06-07 Koninklijke Philips Electronics N.V. Stereoscopic image display method and apparatus, method for generating 3d image data from a 2d image data input and an apparatus for generating 3d image data from a 2d image data input
KR100819728B1 (ko) * 2006-09-15 2008-04-07 장순욱 입체카메라용 셔터장치 및 촬상장치
KR20090000115A (ko) 2007-01-03 2009-01-07 손병락 모바일 알에프아이디를 이용한 시각장애인 길안내 시스템및 그 방법
KR100866491B1 (ko) * 2007-01-30 2008-11-03 삼성전자주식회사 영상 처리 방법 및 장치
EP2007135B1 (en) 2007-06-20 2012-05-23 Ricoh Company, Ltd. Imaging apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103900532A (zh) * 2012-12-27 2014-07-02 财团法人工业技术研究院 深度影像捕获设备、其校正方法与量测方法
US9319660B2 (en) 2012-12-27 2016-04-19 Industrial Technology Research Institute Device for acquiring depth image, calibrating method and measuring method therefor
WO2015026041A1 (ko) * 2013-08-20 2015-02-26 삼성테크윈 주식회사 영상 처리 장치 및 방법
KR20150021350A (ko) * 2013-08-20 2015-03-02 삼성테크윈 주식회사 영상 처리 장치 및 방법
US9648224B2 (en) 2013-08-20 2017-05-09 Hanwha Techwin Co., Ltd. Apparatus and method of processing image
KR20200114117A (ko) * 2019-03-27 2020-10-07 서울대학교산학협력단 거리 측정 장치 및 방법
KR20200114114A (ko) * 2019-03-27 2020-10-07 서울대학교산학협력단 거리 측정 장치

Also Published As

Publication number Publication date
JP2012514886A (ja) 2012-06-28
US20100171815A1 (en) 2010-07-08
CN102265627A (zh) 2011-11-30
EP2374281A2 (en) 2011-10-12
WO2010076988A3 (en) 2010-09-23
WO2010076988A2 (en) 2010-07-08
EP2374281A4 (en) 2012-11-21

Similar Documents

Publication Publication Date Title
KR20100080704A (ko) 영상 데이터 획득 방법 및 장치
US9466114B2 (en) Method and system for automatic 3-D image creation
JP5260705B2 (ja) 3次元拡張現実提供装置
US9992478B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images
JP6415179B2 (ja) 画像処理装置、画像処理方法、および撮像装置並びにその制御方法
JP2015032144A (ja) 撮像装置およびその制御方法
JP2011166264A (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP6452360B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
CN104052919A (zh) 摄像装置、摄像系统及信号处理装置
JPWO2011125937A1 (ja) キャリブレーションデータ選択装置、選択方法、及び選択プログラム、並びに三次元位置測定装置
CN104639927A (zh) 拍摄立体影像的方法以及电子装置
JP2014153890A5 (ko)
CN103004178B (zh) 拍摄装置、程序及拍摄方法
JP5929922B2 (ja) 画像処理装置および画像処理方法
JP2012178688A (ja) 立体画像撮影装置
JP2014112783A (ja) 画像処理装置、画像処理方法およびプログラム、並びに画像処理装置を備えた撮像装置
JP2014022806A (ja) 撮像装置および撮像装置制御方法
WO2017104111A1 (en) Data recording apparatus, image capturing apparatus, data recording method, and storage medium
KR20180048082A (ko) 집적영상 디스플레이의 화질 평가 장치 및 방법
JP6089742B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
US11170514B2 (en) Image processing apparatus, image processing method, 3D printing system, and storage medium
KR20100087920A (ko) 영상 데이터 획득 방법 및 장치
JP6491442B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JP2017161941A (ja) 再生装置、撮像装置および再生装置の制御方法
KR101501591B1 (ko) 로컬 워핑과 텍스쳐 합성을 이용한 스테레오 영상의 초점 보정 방법 및 그 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application