KR101121034B1 - 복수의 이미지들로부터 카메라 파라미터를 얻기 위한 시스템과 방법 및 이들의 컴퓨터 프로그램 제품 - Google Patents

복수의 이미지들로부터 카메라 파라미터를 얻기 위한 시스템과 방법 및 이들의 컴퓨터 프로그램 제품 Download PDF

Info

Publication number
KR101121034B1
KR101121034B1 KR1020090126361A KR20090126361A KR101121034B1 KR 101121034 B1 KR101121034 B1 KR 101121034B1 KR 1020090126361 A KR1020090126361 A KR 1020090126361A KR 20090126361 A KR20090126361 A KR 20090126361A KR 101121034 B1 KR101121034 B1 KR 101121034B1
Authority
KR
South Korea
Prior art keywords
image
initial
images
series
obtaining
Prior art date
Application number
KR1020090126361A
Other languages
English (en)
Other versions
KR20110059506A (ko
Inventor
추-취에 띠엔
포-하오 황
치아-밍 쳉
하오-량 양
샤오-웨이 첸
상-홍 라이
수산 동
쳉-다 리우
테-루 차이
정-신 샤오
Original Assignee
인스티튜트 포 인포메이션 인더스트리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인스티튜트 포 인포메이션 인더스트리 filed Critical 인스티튜트 포 인포메이션 인더스트리
Publication of KR20110059506A publication Critical patent/KR20110059506A/ko
Application granted granted Critical
Publication of KR101121034B1 publication Critical patent/KR101121034B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

이미지들로부터 카메라 파라미터들을 얻는 시스템들 및 방법들이 제공된다. 우선, 원운동 중인 대상 물체에 대한 일련의 초기 이미지들(a sequence of original images)이 얻어진다. 그리고, 각각의 초기 이미지 내에서 상기 대상 물체에 대응하는 배경 이미지(background imageforeground image)와 전경 이미지(foreground image)가 분할된다. 다음으로, 각각의 초기 이미지 내에서 상기 대상 물체에 대하여 그림자 검출(shadow detection)이 수행된다. 제1 임계값(threshold) 및 제2 임계값이 각각, 대응하는 배경 및 전경 이미지들에 의해 결정된다. 각각의 초기 이미지 내에서 상기 대상 물체에 대한 실루엣 데이타(silhouette data) 및 특징 정보(feature information)를 얻기 위해 각각의 초기 이미지, 대응하는 배경 이미지, 제1 및 제2 임계값이 사용된다. 전체적인 특징 정보 및 원운동의 기하학적 특성에 기초하여 적어도 하나의 파라미터가 얻어진다.
카메라 파라미터, 임계값, 배경 이미지, 전경 이미지, 원운동

Description

복수의 이미지들로부터 카메라 파라미터를 얻기 위한 시스템과 방법 및 이들의 컴퓨터 프로그램 제품 {SYSTEM AND METHOD FOR OBTAINING CAMERA PARAMETERS FROM MULTIPLE IMAGES AND COMPUTER PROGRAM PRODUCTS THEREOF}
본 발명은 복수의 카메라 파라미터들을 복수의 대응하는 이미지들로부터 얻기 위한 기술에 관한 것으로서, 더욱 상세하게는, 2차원(2D) 이미지들에 기초한 3D 모델을 구성하기 위해 2D 이미지들의 카메라 파라미터들이 필요할 때 복수의 카메라 파라미터들을 대응하는 2D 이미지들로부터 얻기 위한 기술에 관한 것이다.
디지털 이미지 프로세싱의 이점들 그리고 멀티미디어 장치들의 대중화에 따라, 사용자들은 더 이상 평면 표면의 또는 2차원의(2D) 이미지들에 만족하지 않는다. 따라서, 3차원의(3D) 모델들을 디스플레이하는 것에 대한 수요가 증가하고 있다. 그리고, 인터넷 기술 발전에 따라, 온라인 게임, 가상의 비즈니스 도시(virtual business cities), 및 디지털 박물관 애플리케이션(digital museum application)에 대한 수요가 또한 증가하고 있다. 따라서, 사진같은(photorealistic) 3D 모델 디스플레이 기술이 개발되고 있으며, 인터넷 상에서 검색하고 상호작용할 때 사용자 체험이 크게 증대되고 있다.
통상적으로, 다른 투시 각도(view angle)들을 갖는 3D 모델/장면(scene)을 구성하기 위해 복수의 2D 이미지들이 사용된다. 예를 들어, 3D 레이저 스캐너 또는 일반적인 디지털 카메라와 같은 특정(specific) 또는 불특정(non-specific) 이미지 캡쳐링 장치(image capturing apparatus)가, 고정된 이미지 캡쳐 각도 및 이미지 캡쳐 위치에 있는 대상 물체를 촬영하기 위해 사용될 수 있다. 이후, 가로세로 비(aspect ratio), 초점 거리, 이미지 캡쳐 각도(image capture angle) 및 이미지 캡쳐 위치(image capture position) 등의 내적 및 외적 파라미터들(intrinsi and extrinsic parameters)에 따라, 그 장면에서의 3D 모델이 구성될 수 있다.
불특정 이미지 캡쳐링 장치의 경우, 카메라 파라미터들이 알려지지 않기 때문에, 사용자는 불특정 이미지 캡쳐링 장치의 내적 및 외적 파라미터들과 같은, 3D 모델을 구성하기 위한 카메라 파라미터들을 입력할 필요가 있다. 하지만, 사용자에 의해 입력된 파라미터들이 부정확하거나 틀리면, 3D 모델 구성시 에러들이 발생할 수 있다. 더욱이, 이미지를 캡쳐링하기 위해 특정된 이미지 캡쳐링 장치를 사용할 때에는, 카메라 파라미터들이 이미 알려지거나 설정(set)될 수 있기 때문에, 카메라 파라미터들을 입력하거나 그외의 어떤 정렬을 수행함 없이 정확한 3D 모델이 구성될 수 있다. 그러나 특정된 이미지 캡쳐링 장치를 사용하는 것의 단점은, 이미지 캡쳐링 장치의 이미지 캡쳐의 각도 및 위치가 고정되는 결과 대상 물체의 크기가 제한되고, 특정된 이미지 캡쳐링 장치의 구매 및 유지에 추가적인 비용이 요구된다는 것이다.
통상적으로, 한 장면에는 몇 개의 고정된 특징 포인트(feature point)들이 마킹(marking)될 수 있으며, 디지털 카메라 또는 비디오 카메라와 같은 일반적인 이미지 캡쳐링 장치에 의해 여러 투시 각도들에서 대상 물체의 2D 이미지들이 캡쳐링됨으로써 3D 모델을 구성한다. 그러나, 사용자는 여전히 파라미터들을 입력해야 하며, 대상 물체의 실루엣(silhouette)을 얻을 수 있도록 이미지들에서 대상 물체를 대비시키기 위해 특징 포인트들이 미리 마킹되어야 한다. 대상 물체에 어떠한 특징 포인트도 없거나 특징 포인트들이 충분히 정확하지 않을 때, 얻어진 실루엣 데이타는 부정확하며 구성된 3D 모델은 디스플레이 효과(display effect)를 떨어뜨리는 결점들을 포함할 수 있다.
따라서, 특정된 이미지 캡쳐링 장치들을 사용하거나 대상 물체에 특징 포인트들을 마킹함 없이 대응하는 이미지들로부터 카메라 파라미터들을 얻기 위한 시스템 및 방법이 요구된다. 카메라 파라미터들은 대상 물체의 2D 이미지들에 기초하여 신속하고도 정확하게 자동적으로 얻어져야 한다. 그리하여, 사용자는 이미지 캡쳐링 장치의 파라미터들을 입력할 필요가 없게 될 것이다. 얻어진 카메라 파라미터들은 3D 모델의 정확도와 비젼 효과(vision effect)를 개선시키기 위해 사용될 수 있으며, 또한 이미지들 간의 관계를 설립하기 위해 사용될 수 있다. 추가적으로, 얻어진 카메라 파라미터들은 종래 기술의 다른 이미지 프로세싱 기술들에서 사용될 수 있다.
복수의 이미지들로부터 카메라 파라미터들을 얻기 위한 시스템들 및 방법들이 제공된다. 복수의 이미지들로부터 카메라 파라미터들을 얻기 위한 시스템의 예시적인 일 실시예는, 복수의 초기 이미지들을 갖는 일련의 초기 이미지들을 얻고, 각각의 초기 이미지 내에서 대상 물체에 대응하는 배경 이미지 및 전경 이미지를 분할하며, 각각의 초기 이미지 내에서 대상 물체에 대한 그림자 검출을 수행하고, 대응하는 배경 및 전경 이미지들에 따른 제1 및 제2 임계값을 결정하며, 각각의 초기 이미지, 대응하는 배경 이미지 및 대응하는 제1 임계값을 사용하여 실루엣 데이타를 얻고, 각각의 초기 이미지 및 대응하는 제2 임계값을 사용하여 각각의 초기 이미지 내에서 상기 대상 물체에 대한 특징 정보를 얻는 프로세싱 모듈로서, 여기서 상기 일련의 초기 이미지들의 각각의 초기 이미지는 원운동 중인 상기 대상 물체를 캡쳐링함으로써 얻어지며 상기 실루엣 데이타는 각각의 초기 이미지 내의 상기 대상 물체에 대응하는 프로세싱 모듈; 및 상기 일련의 초기 이미지들의 전체적인 특징 정보 및 원운동의 기하학적 특성에 기초하여 상기 초기 이미지들에 대한 적어도 하나의 카메라 파라미터를 얻는 계산 모듈;을 포함하고, 상기 대상 물체가 원운동 중일 때 상기 대상 물체를 캡쳐링함으로써 상기 일련의 초기 이미지들을 ㅅ생성하는 이미지 캡쳐링 유닛을 더 포함한다.
본 발명의 다른 관점에서, 복수의 이미지들로부터 카메라 파라미터들을 얻는 방법은, 복수의 초기 이미지들을 갖는 일련의 초기 이미지들을 얻는 단계로서, 여기서 상기 일련의 초기 이미지들의 각각의 초기 이미지는 원운동 중인 대상 물체를 연속적으로 캡쳐링함으로써 얻어지는 단계; 각각의 초기 이미지 내에서 상기 대상 물체에 대응하는 배경 이미지와 전경 이미지를 분할하는 단계; 각각의 초기 이미지에서 상기 대상 물체에 대한 그림자 검출을 수행하고 상기 대응하는 배경 및 전경 이미지들에 의해 제1 임계값 및 제2 임계값을 결정하는 단계; 각각의 초기 이미지, 상기 대응하는 배경 이미지 및 상기 대응하는 제1 임계값을 사용하여 실루엣 데이타를 얻는 단계로서, 여기서 상기 실루엣 데이타는 각각의 초기 이미지 내에서의 상기 대상 물체에 대응하는 단계; 각각의 초기 이미지 및 대응하는 제2 임계값을 사용하여 각각의 초기 이미지 내에서 상기 대상 물체에 대한 특징 정보를 얻는 단계; 및 상기 일련의 초기 이미지들의 전체적인 특징 정보와 원운동의 기하학적 특성에 기초하여 상기 초기 이미지들에 대한 적어도 하나의 카메라 파라미터를 얻는 단계;를 포함하고, 상기 대상 물체가 원운동 중에 있을 때 상기 대상 물체를 캡쳐링함으로써 상기 일련의 초기 이미지들을 생성하는 이미지 캡쳐링 유닛을 제공하는 단계를 더 포함한다.
복수의 이미지들로부터 카메라 파라미터들을 얻기 위한 상기 방법은 프로그램 코드를 형성할 수 있다. 상기 프로그램 코드가 기계에 로딩되어 실행될 때, 상기 기계는 개시되는 실시예들을 실행하기 위한 장치가 된다.
이하에서 첨부된 도면들을 참조하여 실시예들에 대해 상세하게 기술한다.
이하의 설명은 본 발명을 가장 바람직하게 개시한 것이다. 이러한 설명은 본 발명의 일반적인 원리들을 조명하기 위한 목적을 갖는 것이며 제한적인 의미로 받아들여지지 않아야 한다. 본 발명의 범위는 첨부된 청구항들을 참조할 때 가장 적절하게 결정된다.
도 1a는 본 발명의 일 실시예에 따른 시스템(10)의 블럭도이다. 도 1a에 도시된 바와 같이, 시스템(10)은 일반적으로, 복수의 이미지들로부터 카메라 파라미 터들을 얻기 위한 프로세싱 모듈(104 : processing module) 및 계산 모듈(106 : calculation module)을 일반적으로 포함한다. 도 1b에 도시된 바와 같이, 본 발명의 다른 실시예에서는, 시스템(10)은 이미지 캡쳐링 유닛(102 : image capturing unit), 프로세싱 모듈(104), 계산 모듈(106) 및 통합 모듈(110 : integration module)을 포함한다.
도 1a에 도시된 실시예에서, 프로세싱 모듈(104)은 복수의 초기 이미지들을 갖는 일련의 초기 이미지들(112)을 얻고, 각각의 이미지에서 배경 골격 이미지(skeleton background image)와 대상 물체에 대응하는 전경 골격 이미지(skeleton foreground image)를 분할한다. 도 1b에 도시된 실시예에서는, 도 2 및 3에 도시된 바와 같은 대상 물체의 일련의 초기 이미지들(112)을 제공하기 위해, CCD(charge-coupled device)와 같은 이미지 캡쳐링 유닛(102)으로부터 일련의 초기 이미지들(112)이 얻어질 수 있다. 다른 실시예에서, 일련의 초기 이미지들(112)은 저장 모듈(도 1b에 도시되지 않음)에 사전-저장(pre-store)될 수도 있다. 상기 저장 모듈은 일시적인 또는 영구적인 저장 칩, 기록 매체, 장치 또는 장비일 수 있으며, 이를테면 램(RAM), 롬(ROM), 플래시 메모리(flash memory), 하드 디스크, 디스크(CD, DVD, BD를 포함), 자기 테이프 및 그것들의 기록-재상 장치들일 수 있다.
도 2는 본 발명의 일 실시예에 따른 이미지 캡쳐링 유닛(102)에 의해 이미지를 캡쳐링하는 방법을 도시하는 도면이다. 도 3은 본 발명의 일 실시예에 따른 대상 물체(208)의 이미지를 캡쳐링하는 방법을 도시하는 도면이다.
도 2를 참조하면, 대상 물체(208)을 캡쳐링할 때, 대상 물체(208)는 우선 턴테이블(206 : turntable) 위에 배치된다. 본 실시예에서는, 턴테이블(206)이 제어 모듈(미도시)에 의해 일정한 속도로 시계 또는 반시계 방향으로 회전함으로써, 대상 물체(208)는 시계 또는 반시계 방향의 원운동 중에 있게 된다. 그리고, 이미지 캡쳐링 유닛(202)은 턴테이블(206) 외부에서 고정 위치하여 대상 물체(208)를 캡쳐링한다. 단색상 커튼(204 : monochromatic curtain)은 전경(foreground)의 대상 물체(208)와 구분되는 단색상의 배경을 제공한다.
턴테이블(206)이 일정한 속도로 회전하기 시작할 때, 즉 원운동 하에 있을 때, 이미지 캡쳐링 유닛(102)은 턴테이블(206)이 완전히 한 바퀴 회전할 때까지(즉 360도) 시간 간격으로 또는 일정한 여러 각도에서 원운동 중인 대상 물체(208)를 연속적으로 캡쳐링함으로써, 도 3에서 일련의 초기 이미지들(S1 내지 S9)로 도시된 바와 같이, 대상 물체(208)가 있는 복수의 초기 이미지들을 연속적으로 생성한다. 일련의 초기 이미지들(S1 내지 S9)의 각각의 초기 이미지는 다른 위치 및 다른 투시 각도(view angle)에서의 대상 물체(208)의 2D 이미지를 제공한다.
이미지 캡쳐링 유닛(102)에 의해 캡쳐링된 초기 이미지들의 개수는 대상 물체(208)의 표면 특징에 따라 결정될 수 있다. 예로써, 초기 이미지들의 갯수가 많다는 것은, 다른 위치들 및 다른 투시 각도들에서 얻어진 더 많은 2D 이미지들이 있음을 의미하며, 이에 의해 대상 물체의 3D 공간에서의 보다 정확한 기하학적 정보가 얻어질 수 있다. 본 발명의 일 실시예에 따르면, 대상 물체(208)가 균일한 표면을 갖는다면, 이미지 캡쳐링 유닛(102)에 의해 캡쳐링되는 초기 이미지들의 갯수 는 '12'로 설정될 수 있는데, 이는 이미지 캡쳐링 유닛(102)이 30도 간격으로 대상 물체(208)를 캡쳐링할 수 있음을 의미한다. 본 발명의 다른 실시예에 따르면, 대상 물체(208)가 불균일한 표면을 갖는다면, 이미지 캡쳐링 유닛(102)에 의해 캡쳐링되는 초기 이미지들의 갯수는 '36'으로 설정될 수 있는데, 이는 이미지 캡쳐링 유닛(102)이 10도 간격으로 대상 물체(208)를 캡쳐링할 수 있음을 의미한다.
대상 물체(208)는 턴테이블(206) 밖에 위치하지 않는 한 어떠한 위치에도 배치될 수 있음을 유념할 필요가 있다.
추가적으로, 이미지 캡쳐링 유닛(102)이 대상 물체(208)에 대한 이미지들을 캡쳐링할 때, 이미지 캡쳐링 범위는 모든 이미지에서 대상 물체(208)를 커버하면 되고 턴테이블(206) 전체를 커버할 필요는 없음을 유념할 필요가 있다.
도 1a 및 도 1b를 참조하면, 일련의 초기 이미지들(112)을 수신한 이후, 프로세싱 모듈(104)은, 도 3에 도시된 이미지 S1과 같은 각각의 초기 이미지에 대하여 배경 골격 이미지와 (도 2 및 3에 도시된 바와 같은) 대상 물체(208)에 대응하는 전경 골격 이미지를 분할한다.
본 발명의 일 실시예에서, 프로세싱 모듈(104)은 각각의 초기 이미지로부터 우선 N 차원의 가우스 확률밀도함수(Gaussian probability density function)를 구함으로써, 통계적인 배경 모델을 구성한다. 즉, 픽셀(pixel)들의 통계를 수집하기 위한 다변수 가우스 모델(multivariate Gaussian model):
Figure 112009078246022-pat00001
여기서 X는 초기 이미지의 픽셀 벡터(pixel vector)이고,
Figure 112009078246022-pat00002
는 그 벡터들의 평균이며
Figure 112009078246022-pat00003
는 상기 확률밀도함수의 공분산 매트릭스(covariance matrix)이다.
배경 및 전경 골격 이미지들을 얻은 후, 프로세싱 모듈(104)은 각각의 초기 이미지 내에서 대상 물체(208)에 대한 그림자 검출(shadow detection)을 수행한다. 보다 구체적으로, 프로세싱 모듈(104)은 전경 이미지 상에서의 배경 또는 전경 그림자들의 효과를 제거하기 위해 각각의 초기 이미지에 대한 그림자 검출을 수행한다. 이는, 대상 물체(208)가 장면(scene)에서 이동할 때 대상 물체(208) 또는 다른 물체들에 의해 차단되는 빛으로 인해 그림자가 발생될 수 있기 때문이다. 그림자는 전경 이미지를 분할할 때 잘못된 판단을 야기한다.
본 발명의 일 실시예에서, 그림자 영역에서의 조명의 양 분포가 동일하다면, 프로세싱 모듈(104)은 빨강, 초록 및 파랑(RGB) 칼라 영역의 칼라 벡터들의 각도 차이에 따라 그림자 영역을 검출할 수 있다. 두 개의 초기 이미지들의 칼라 벡터들 사이의 각도가 미리 결정된 임계값(threshold)을 초과할 때, 그 특정 영역은 배경으로 간주될 수 있다. 즉, 벡터 간의 각도가 크다는 것은, 특정 영역에서의 조명의 양이 균일하지 않으며, 그 특정 영역은 대상 물체(208)가 배치된 위치임을 의미한다. 보다 구체적으로, 칼라 벡터들의 각도 차이는 다음과 같은 벡터들의 내적(inner product)을 사용함으로써 얻어질 수 있다:
Figure 112009078246022-pat00004
여기서 c1 및 c2는 칼라 벡터이다. 두 개의 칼라 벡터들 c1 및 c2의 내적을 얻은 후, 두 개의 칼라 벡터들 간의 각도가 acos 함수를 통해 얻어질 수 있다.
전술한 그림자 검출 방법을 수행함으로써, 대상 물체(208)에 의해 발생된 전경에서의 간섭(interference)이 효과적으로 감소될 수 있다. 특히, 프로세싱 모듈(104)은 각각의 초기 이미지의 그림자 영역 및 대응하는 배경 골격 이미지에 따른 제1 임계값을 결정할 수 있다. 보다 구체적으로, 프로세싱 모듈(104)은 제1 임계값을 결정하기 위해, 전술한 방법에 따른 배경 골격 이미지에 대한 그림자 검출을 수행할 수 있다. 프로세싱 모듈(104)은, 배경 이미지를 필터링하기 위해, 배경 골격 이미지로부터 상기 제1 임계값을 뺄 수 있다. 즉, 그것으로부터 보다 정확한 배경 이미지가 얻어질 수 있다. 다음으로, 프로세싱 모듈(104)은 필터링된 배경 이미지 및 대응하는 초기 이미지에 따라 대상 물체(208)의 전체적인 실루엣 데이타(116 : silhouette data)를 얻는다.
그리고, 프로세싱 모듈(104)은 각각의 초기 이미지 및 대응하는 전경 골격 이미지에 따른 제2 임계값을 결정할 수 있다. 동작시, 프로세싱 모듈(104)은, 제2 임계값을 결정하고 초기 이미지들에 대응하는 특징 정보(114 : feature information)를 얻기 위해, 전술한 방법에 따른 전경 골격 이미지에 대한 그림자 검출을 수행할 수 있다. 제2 임계값을 결정한 후, 프로세싱 모듈(104)은, 대상 물체(208)와 관련된 특징 정보(114)를 얻기 위해, 각각의 초기 이미지로부터 상기 제2 임계값을 뺀다.
도 1a에 도시된 실시예에서, 계산 모듈(106)이 상기 특징 정보(114)를 수신 한다. 특히, 계산 모듈(106)은 일련의 초기 이미지들(112)의 전체적인 특징 정보(114) 및 원운동의 기하학적 특성에 기초하여 일련의 초기 이미지들(112)과 관련된 카메라 파라미터들(118)을 얻는다. 도 1b에 도시된 실시예에서는, 이미지 캡쳐링 유닛(102)을 통해 (도 2에 도시된 바와 같은) 대상 물체(208)를 캡쳐링함으로써 일련의 초기 이미지들(112)이 얻어진다. 따라서, 계산 모듈(106)은 이미지 캡쳐링시 캡쳐링 유닛(102)에 의해 사용된 카메라 파라미터(118)를 얻을 수 있다. 도 1a 및 도 1b에 도시된 바와 같은 시스템(10)은, 일련의 초기 이미지들(112)에 의해 제공된 이미지 데이타에 따라, 일련의 초기 이미지들(112)에 대응하는 카메라 파라미터들(118)을 신속하고 정확하게 얻을 수 있다.
특히, 카메라 파라미터들(118)은 내적(intrinsic) 파라미터들 및 외적(extrinsic) 파라미터들을 포함할 수 있다. 다른 사양의 이미지 캡쳐링 유닛들(102)은, 상이한 가로세로 비(aspect ratio), 초점 거리, 이미지들의 중앙 위치, 및 왜곡 계수(distortion coefficient) 등과 같은 상이한 내적 파라미터들을 가질 수 있다. 그리고, 이미지 캡쳐링시 이미지 캡쳐 위치 또는 이미지 캡쳐 각도와 같은 외적 파라미터들은 내적 파라미터들 및 일련의 초기 이미지들(112)에 따라 얻어질 수 있다. 상기 실시예들에서, 계산 모듈(106)은 실루엣-기초 알고리즘(silhouette-based algorithm)에 기초하여 카메라 파라미터들(118)을 얻을 수 있다. 예로써, 두 세트의 이미지 에피폴들(image epipoles)이 초기 이미지들의 특징 정보(114)에 따라 얻어질 수 있다. 다음으로, 두 세트의 이미지 에피폴들을 사용하여 이미지 캡쳐링 유닛(102)의 초점 거리가 얻어질 수 있다. 원운동 하에서의 이미 지 불변량(invariant)에 의해 이미지 캡쳐링 유닛(102)의 내적 파라미터들 및 외적 파라미터들이 또한 얻어질 수 있다.
도 1b를 참조하면, 통합 모듈(110)은 대상 물체(208)의 대응하는 3차원 모델을 구성하기 위해 일련의 초기 이미지들(112)의 총 실루엣 데이타(116) 및 이미지 캡쳐링 유닛(102)의 카메라 파라미터들(118)을 수신한다. 본 발명의 일 실시예에서, 통합 모듈(110)은 비주얼 헐 알고리즘(visual hull algorithm)을 사용하여 실루엣 데이타(116)와 내적 및 외적 파라미터들에 의해 3차원 공간에서의 대상 물체(208)의 정보를 얻을 수 있다. 예로써, 카메라 렌즈의 특성들에 기한 이미지 왜곡(image distortion)이 보정(calibration) 프로세스를 통해 회복될 수 있다. 이미지 캡쳐링 유닛(102)의 내적 파라미터들과 같은 카메라 파라미터들에 의해 변환 매트릭스(transformation matrix)가 결정될 수 있어서, 실제 공간에서의 좌표들과 초기 이미지들에서의 각각의 픽셀 사이의 기하학적 관계를 얻을 수 있다. 다음으로, 보정된 실루엣 데이타가 얻어질 수 있고, 보정된 실루엣 데이타에 의해 대상 물체(208)의 3차원 모델이 구성될 수 있다.
도 1a에 도시된 시스템(10)과 같은 다른 실시예들에서는, 카메라 파라미터들(118)을 얻은 후, 카메라 파라미터들(118)이 다른 통합 모듈(도 1a에 도시되지 않음)로 전달될 수 있다. 통합 모듈은 일련의 초기 이미지들(112)을 수신하고, 카메라 파라미터들(118)에 의해 일련의 초기 이미지들(112)에서의 초기 이미지들을 보정한다. 다음으로, 보정된 초기 이미지들에 의해 대상 물체(208)의 3차원 모델이 구성된다. 특히, 이미지 캡쳐링 유닛(102)이 이미지들을 캡쳐링할 때, 상기 물체는 카메라 렌즈를 통해 캡쳐링되고 나서, 실제 이미지들로서 투사된다. 다음으로, 카메라 렌즈의 특성에 기한 이미지 왜곡이 보정 프로세스에 의해 회복된다. 다음으로, 이미지 캡쳐링 유닛(102)은, 실제 공간에서의 좌표와 초기 이미지들의 각각의 픽셀 간의 기하학적 관계를 얻기 위해, 카메라 파라미터들(118)에 따른 변환 매트릭스를 결정한다. 즉, 상기 변환 매트릭스는 각각의 초기 이미지의 이미지 좌표 시스템을 세계 좌표 시스템(World Coordinate System)으로 변환함으로써 보정된 초기 이미지를 얻기 위한 보정 프로세스에서 사용된다. 다음으로, 도 1b에 도시된 통합 모듈(110)과 같은 통합 모듈이 보정된 초기 이미지들에 따른 3차원 모델을 구성한다.
도 4는 본 발명의 일 실시예에 따른 방법(40)의 흐름도이다. 도 1a 및 도 4를 참조하면, 우선, 복수의 초기 이미지들을 갖는 일련의 초기 이미지들(112)이 얻어진다(S402 단계). 본 발명의 일 실시예에서, 상기 일련의 초기 이미지들(112)은 이미지 캡쳐링 유닛(102)에 의해 제공될 수 있다. 본 발명의 다른 실시예에서, 상기 일련의 초기 이미지들(112)은 저장 모듈(도 1a에 미도시됨)로부터 수신될 수 있다. 전술한 바와 같이, 일련의 초기 이미지들(112) 내의 각각의 초기 이미지는 원운동 중인 (도 2 및 도 3에 도시된 것과 같은) 대상 물체(208)를 연속적으로 캡쳐링함으로써 얻어진다. 이미지들을 캡쳐링하는 방법은 도 2 및 도 3 그리고 대응하는 실시예들에서 앞서 설명되었으므로, 여기서는 생략하기로 한다.
다음으로, 프로세싱 모듈(104)이 각각의 초기 이미지 내에서 대상 물체(208)에 대응하는 배경 이미지와 전경 이미지를 분할한다(S404 단계).
다음으로, 프로세싱 모듈(104)은 각각의 초기 이미지에서 대상 물체(208)에 대한 그림자 검출을 수행한다. 프로세싱 모듈(104)은 제1 임계값을 결정하기 위해 얻어진 배경 이미지에서 그림자 영역을 검출한다. 이와 유사하게, 프로세싱 모듈(104)은 제2 임계값을 결정하기 위해 얻어진 전경 이미지에서 그림자 영역을 검출한다(S406 단계). 전술한 바와 같이, 상기 두 개의 임계값들을 사용함으로써, 대상 물체(208)와 관련된 총 실루엣 데이타(116) 및 특징 정보(114)가 얻어질 수 있다.
보다 명확하게, 프로세싱 모듈(104)은 보다 정확한 배경 이미지를 얻기 위해 배경 이미지로부터 제1 임계값을 추출한다. 다음으로, 각각의 초기 이미지에서의 대상 물체(208)의 총 실루엣 데이타(116)가 필터링된 배경 이미지 및 대응하는 초기 이미지들에 따라 얻어진다(S408 단계).
더욱이, 프로세싱 모듈(104)은 전경 이미지 및 그림자에 따른 제2 임계값을 결정하며, 대상 물체(208)와 관련된 특징 정보(114)를 얻기 위해 초기 이미지로부터 제2 임계값을 추출한다(S410 단계).
다음으로, 일련의 초기 이미지들(112)로부터 총 특징 정보를 얻은 후, 계산 모듈(106)은 카메라 파라미터들(118) 즉, 일련의 초기 이미지들의 총 특징 정보와 원운동의 기하학적 특성에 기초하여 이미지 캡쳐링 유닛(102)이 대상 물체를 캡쳐링할 때 사용되는 내적 및 외적 파라미터들을 얻는다(S412 단계). 따라서, 도 4에 도시된 바와 같은 방법(40)에서, 일련의 초기 이미지들(112)에 대응하는 카메라 파라미터들(118)은 일련의 초기 이미지들(112)에 의해 제공되는 이미지 데이타에 따 라 신속하고 정확하게 얻어질 수 있다.
또한, 도 1b 및 도 4를 참조하면, 통합 모듈(110)은 일련의 초기 이미지들(112)의 총 실루엣 데이타(116) 및 이미지 캡쳐링 유닛(102)의 카메라 파라미터들(118)에 따라 대상 물체(208)에 대응하는 3차원 모델을 구성할 수 있다(S414 단계). 본 발명의 일 실시예에서, 통합 모듈(110)은 비주얼 헐 알고리즘을 사용함으로써 실루엣 데이타(116) 그리고 내적 및 외적 파라미터들에 따라 3차원 공간에서의 대상 물체(208)의 정보를 얻는다.
결론적으로, 본 발명의 실시예들에 따르면, 사용자에 의해 입력된 부정확하거나 틀린 파라미터들을 사용하여 3D 모델을 구성할 때 에러들이 발생하는 기존의 문제점이, 특정한 이미지 캡쳐링 장치를 사용하거나 대상 물체 상에서 특징 포인트들(feature points)을 마킹하는 것 없이도, 줄여질 수 있다. 즉, 본 발명의 실시예들에 따르면, 다른 위치들 및 다른 투시 각도들 조건에서 대상 물체의 2차원 이미지 데이타를 사용함으로써 두 개의 임계값들이 얻어질 수 있으며, 그리하여 이미지들을 캡쳐링 할 때, 3차원 모델 구성시 요구되는 실루엣 데이타, 및 이미지 캡쳐링 장치의 카메라 파라미터들을 얻을 수 있다. 따라서, 3차원 모델은 신속하고 정확하게 구성될 수 있다.
복수의 이미지들로부터 카메라 파라미터들을 얻기 위한 상기 시스템 및 방법 시스템, 또는 그것들의 특정 관점들 또는 일부분들은, 플로피 디스크, CD-ROM, 하드 드라이브, 또는 다른 기계-판독용(예로써, 컴퓨터-판독용) 저장 매체, 또는 외형 또는 형상적인 제한 없는 컴퓨터 프로그램 제품들과 같은 실체적인 매체 내에 구체화되는 프로그램 코드를 형성할 수 있으며, 상기 프로그램 코드가 컴퓨터와 같은 기계에 로딩되어 실행될 때, 그 기계는 상기 방법들을 실행하는 장치가 된다. 상기 방법들은 또한 전기적인 와이어 또는 케이블과 같은 전송 매체, 광 섬유, 또는 다른 어떤 전송 형태를 통해 전송되는 프로그램 형태로 구체화될 수도 있으며, 상기 프로그램 코드가 컴퓨터와 같은 기계에 수신되어 로딩되고 실행될 때 상기 기계는 전술한 방법들을 실행하는 장치가 된다. 일반적인 용도의 프로세서 상에서 수행될 때, 응용프로그램에 유사하게 특정 논리 회로들을 동작시키는 유일한 장치를 제공하기 위해, 상기 프로그램 코드는 상기 프로세서에 결합된다.
본 발명은 예시적으로 그리고 바람직한 실시예 형태로 기술되었지만, 본 발명이 그에 한정되지 않는다는 것이 이해될 수 있다. 오히려, 본 발명은 여러 수정들 및 유사한 구조들을 포함한다. 따라서, 그와 같은 수정들 및 유사 구조들을 포함하도록 첨부된 청구항들의 범위는 가장 넓게 해석되는 것이 타당하다. 각 모듈의 분리, 조합 또는 정렬은 앞서 개시된 바와 같은 본 발명의 사상을 벗어남 없이 만들어질 수 있으며, 그것은 본 발명의 범위 내에 속한다.
본 발명은 첨부된 도면들을 참조하는 이하의 기술들 및 예시들에 의해 보다 쉽게 이해될 수 있다.
도 1a는 본 발명의 일 실시예에 따른 시스템의 블럭도이다.
도 1b는 본 발명의 다른 실시예에 따른 시스템의 블럭도이다.
도 2는 본 발명의 일 실시예에 따른 이미지 캡쳐링 유닛에 의해 이미지를 캡쳐링하는 방법을 도시하는 도면이다.
도 3은 본 발명의 일 실시예에 따른 대상 물체의 이미지를 캡쳐링하는 방법을 도시하는 도면이다.
도 4는 본 발명의 일 실시예에 따른 상기 방법의 흐름도이다.

Claims (20)

  1. 복수의 초기 이미지들을 갖는 일련의 초기 이미지들을 얻고, 각각의 초기 이미지 내에서 대상 물체에 대응하는 배경 이미지 및 전경 이미지를 분할하며, 각각의 초기 이미지 내에서 대상 물체에 대한 그림자 검출을 수행하고, 대응하는 배경 및 전경 이미지들에 따른 제1 및 제2 임계값을 결정하며, 각각의 초기 이미지, 대응하는 배경 이미지 및 대응하는 제1 임계값을 사용하여 실루엣 데이타를 얻고, 각각의 초기 이미지 및 대응하는 제2 임계값을 사용하여 각각의 초기 이미지 내에서 상기 대상 물체에 대한 특징 정보를 얻는 프로세싱 모듈로서, 여기서 상기 일련의 초기 이미지들의 각각의 초기 이미지는 원운동 중인 상기 대상 물체를 캡쳐링함으로써 얻어지며 상기 실루엣 데이타는 각각의 초기 이미지 내의 상기 대상 물체에 대응하는 프로세싱 모듈; 및
    상기 일련의 초기 이미지들의 전체적인 특징 정보 및 원운동의 기하학적 특성에 기초하여 상기 초기 이미지들에 대한 적어도 하나의 카메라 파라미터를 얻는 계산 모듈;을 포함하고,
    상기 대상 물체가 원운동 중일 때 상기 대상 물체를 캡쳐링함으로써 상기 일련의 초기 이미지들을 생성하는 이미지 캡쳐링 유닛;을 더 포함하는, 복수의 이미지들로부터 카메라 파라미터들을 얻기 위한 시스템.
  2. 제1항에 있어서,
    상기 적어도 하나의 카메라 파라미터는 내적 파라미터 및 외적 파라미터 중에서 적어도 하나를 포함하고, 상기 내적 파라미터는 초점 거리, 가로세로 비, 및 각각의 초기 이미지의 중앙 위치 중에서 적어도 하나를 포함하며, 상기 외적 파라미터는 상기 내적 파라미터와 상기 일련의 초기 이미지들에 의해 얻어지고 상기 대상 물체 캡쳐링시의 이미지 캡쳐 각도와 이미지 캡쳐 위치 중에서 적어도 하나인, 복수의 이미지들로부터 카메라 파라미터들을 얻기 위한 시스템.
  3. 삭제
  4. 제1항에 있어서,
    상기 이미지 캡쳐링 유닛은 상기 원운동 중인 상기 대상 물체가 다수의 일정 각도 상에 배치될 때 상기 대상 물체를 캡쳐링함으로써 상기 일련의 초기 이미지들을 생성하는, 복수의 이미지들로부터 카메라 파라미터들을 얻기 위한 시스템.
  5. 제1항에 있어서,
    상기 일련의 초기 이미지들의 상기 실루엣 데이타 및 상기 적어도 하나의 카메라 파라미터에 의해 상기 대상 물체에 대응하는 3차원 모델을 구성하는 통합 모듈;을 더 포함하는, 복수의 이미지들로부터 카메라 파라미터들을 얻기 위한 시스템.
  6. 제1항에 있어서,
    상기 제1 임계값은 각각의 초기 이미지의 그림자 검출 및 상기 대응하는 배경 이미지에 의해 얻어지며, 상기 제2 임계값은 각각의 초기 이미지의 그림자 영역 및 상기 대응하는 전경 이미지에 의해 얻어지는, 복수의 이미지들로부터 카메라 파라미터들을 얻기 위한 시스템.
  7. 제1항에 있어서,
    상기 프로세싱 모듈은 확률밀도함수를 사용함으로써 각각의 초기 이미지에 대응하는 배경 이미지와 전경 이미지를 분할하는, 복수의 이미지들로부터 카메라 파라미터들을 얻기 위한 시스템.
  8. 제1항에 있어서,
    상기 적어도 하나의 카메라 파라미터에 의해 상기 초기 이미지들의 보정 프로세스를 수행하며, 상기 보정된 초기 이미지들 및 상기 적어도 하나의 카메라 파라미터에 의해 상기 대상 물체에 대응하는 3차원 모델을 구성하는 통합 모듈;을 더 포함하는, 복수의 이미지들로부터 카메라 파라미터들을 얻기 위한 시스템.
  9. 제1항에 있어서,
    상기 프로세싱 모듈은 상기 배경 이미지로부터 상기 제1 임계값을 추출함으 로써 상기 배경 이미지를 필터링하며, 각각의 초기 이미지와 상기 필터링된 배경 이미지에 의해 상기 실루엣 데이타를 얻는, 복수의 이미지들로부터 카메라 파라미터들을 얻기 위한 시스템.
  10. 제1항에 있어서,
    상기 프로세싱 모듈은 각각의 초기 이미지로부터 상기 제2 임계값을 추출함으로써 각각의 초기 이미지 내에서 상기 대상 물체에 대한 특징 정보를 얻는, 복수의 이미지들로부터 카메라 파라미터들을 얻기 위한 시스템.
  11. 복수의 초기 이미지들을 갖는 일련의 초기 이미지들을 얻는 단계로서, 여기서 상기 일련의 초기 이미지들의 각각의 초기 이미지는 원운동 중인 대상 물체를 연속적으로 캡쳐링함으로써 얻어지는, 초기 이미지들을 얻는 단계;
    각각의 초기 이미지 내에서 상기 대상 물체에 대응하는 배경 이미지와 전경 이미지를 분할하는 단계;
    각각의 초기 이미지에서 상기 대상 물체에 대한 그림자 검출을 수행하고, 상기 대응하는 배경 및 전경 이미지들에 의해 제1 임계값 및 제2 임계값을 결정하는 단계;
    각각의 초기 이미지, 상기 대응하는 배경 이미지 및 상기 대응하는 제1 임계값을 사용하여 실루엣 데이타를 얻는 단계로서, 여기서 상기 실루엣 데이타는 각각의 초기 이미지 내에서의 상기 대상 물체에 대응하는, 실루엣 데이타를 얻는 단계;
    각각의 초기 이미지 및 대응하는 제2 임계값을 사용하여 각각의 초기 이미지 내에서 상기 대상 물체에 대한 특징 정보를 얻는 단계; 및
    상기 일련의 초기 이미지들의 전체적인 특징 정보와 원운동의 기하학적 특성에 기초하여 상기 초기 이미지들에 대한 적어도 하나의 카메라 파라미터를 얻는 단계;를 포함하고,
    상기 대상 물체가 원운동 중에 있을 때 상기 대상 물체를 캡쳐링함으로써 상기 일련의 초기 이미지들을 생성하는 이미지 캡쳐링 유닛을 제공하는 단계;를 더 포함하는, 복수의 이미지들로부터 카메라 파라미터들을 얻는 방법.
  12. 제11항에 있어서,
    상기 적어도 하나의 카메라 파라미터는 내적 파라미터 및 외적 파라미터 중에서 적어도 하나를 포함하고, 상기 내적 파라미터는 초점 거리, 가로세로 비, 및 각각의 초기 이미지의 중앙 위치 중에서 적어도 하나를 포함하며, 상기 외적 파라미터는 상기 내적 파라미터와 상기 일련의 초기 이미지들에 의해 얻어지고 상기 대상 물체 캡쳐링시의 이미지 캡쳐 각도와 이미지 캡쳐 위치 중에서 적어도 하나인, 복수의 이미지들로부터 카메라 파라미터들을 얻는 방법.
  13. 삭제
  14. 제11항에 있어서,
    상기 이미지 캡쳐링 유닛은 상기 원운동 중인 상기 대상 물체가 다수의 일정 각도 상에 배치될 때 상기 대상 물체를 캡쳐링함으로써 상기 일련의 초기 이미지들을 생성하는, 복수의 이미지들로부터 카메라 파라미터들을 얻는 방법.
  15. 제11항에 있어서,
    상기 일련의 초기 이미지들의 상기 실루엣 데이타와 상기 적어도 하나의 카메라 파라미터에 의해 상기 대상 물체에 대응하는 3차원 모델을 구성하는 단계;를 더 포함하는, 복수의 이미지들로부터 카메라 파라미터들을 얻는 방법.
  16. 제11항에 있어서,
    상기 제1 임계값은 각각의 초기 이미지의 그림자 검출 및 상기 대응하는 배경 이미지에 의해 얻어지며, 상기 제2 임계값은 각각의 초기 이미지의 그림자 영역 및 상기 대응하는 전경 이미지에 의해 얻어지는, 복수의 이미지들로부터 카메라 파라미터들을 얻는 방법.
  17. 제11항에 있어서,
    상기 적어도 하나의 카메라 파라미터에 따라 상기 초기 이미지에 대한 보정 프로세스를 수행하며, 상기 보정된 초기 이미지들과 상기 적어도 하나의 카메라 파라미터에 의해 상기 대상 물체에 대응하는 3차원 모델을 구성하는 단계;를 더 포함하는, 복수의 이미지들로부터 카메라 파라미터들을 얻는 방법.
  18. 제11항에 있어서,
    상기 배경 이미지로부터 상기 제1 임계값을 추출함으로써 상기 배경 이미지가 필터링되며, 상기 실루엣 데이타는 각각의 초기 이미지와 상기 필터링된 배경 이미지에 의해 얻어지는, 복수의 이미지들로부터 카메라 파라미터들을 얻는 방법.
  19. 제11항에 있어서,
    초기 각각의 초기 이미지 내에서 상기 대상 물체에 대한 상기 특징 정보는 각각의 초기 이미지로부터 상기 제2 임계값을 추출함으로써 얻어지는, 복수의 이미지들로부터 카메라 파라미터들을 얻는 방법.
  20. 복수의 초기 이미지들을 갖는 일련의 초기 이미지들을 얻기 위한 제1 프로그램 코드로서, 여기서 상기 일련의 초기 이미지들 내의 각각의 초기 이미지는 이미지 캡쳐링 유닛을 통해 원운동 중인 대상 물체를 연속적으로 캡쳐링함으로써 얻어지는, 제1 프로그램 코드;
    각각의 초기 이미지 내에서 상기 대상 물체에 대응하는 배경 이미지 및 전경 이미지를 분할하는 제2 프로그램 코드;
    각각의 초기 이미지에서 상기 대상 물체에 대한 그림자 검출을 수행하고 상기 대응하는 배경 및 전경 이미지들에 의해 제1 임계값 및 제2 임계값을 결정하는 제3 프로그램 코드;
    각각의 초기 이미지, 상기 대응하는 배경 이미지 및 상기 대응하는 제1 임계값을 사용하여 실루엣 데이타를 얻는 제4 프로그램 코드로서, 여기서 상기 실루엣 데이타는 각각의 초기 이미지 내에서의 상기 대상 물체에 대응하는, 제4 프로그램 코드;
    각각의 초기 이미지 및 대응하는 제2 임계값을 사용하여 각각의 초기 이미지 내에서 상기 대상 물체에 대한 특징 정보를 얻는 제5 프로그램 코드; 및
    상기 일련의 초기 이미지들의 전체적인 특징 정보와 원운동의 기하학적 특성에 기초하여 상기 초기 이미지들에 대한 적어도 하나의 카메라 파라미터를 얻는 제6 프로그램 코드;를 포함하고,
    상기 적어도 하나의 카메라 파라미터는 내적 파라미터 및 외적 파라미터 중에서 적어도 하나를 포함하고, 상기 내적 파라미터는 초점 거리, 가로세로 비, 및 각각의 초기 이미지의 중앙 위치 중에서 적어도 하나를 포함하며, 상기 외적 파라미터는 상기 내적 파라미터와 상기 일련의 초기 이미지들에 의해 얻어지고 상기 대상 물체 캡쳐링시의 이미지 캡쳐 각도와 이미지 캡쳐 위치 중에서 적어도 하나인, 복수의 이미지들로부터 카메라 파라미터들을 얻는 방법을 실행하기 위해 기계에 로딩되기 위한 기록 매체.
KR1020090126361A 2009-11-27 2009-12-17 복수의 이미지들로부터 카메라 파라미터를 얻기 위한 시스템과 방법 및 이들의 컴퓨터 프로그램 제품 KR101121034B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW098140521 2009-11-27
TW098140521A TW201118791A (en) 2009-11-27 2009-11-27 System and method for obtaining camera parameters from a plurality of images, and computer program products thereof

Publications (2)

Publication Number Publication Date
KR20110059506A KR20110059506A (ko) 2011-06-02
KR101121034B1 true KR101121034B1 (ko) 2012-03-20

Family

ID=44068552

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090126361A KR101121034B1 (ko) 2009-11-27 2009-12-17 복수의 이미지들로부터 카메라 파라미터를 얻기 위한 시스템과 방법 및 이들의 컴퓨터 프로그램 제품

Country Status (3)

Country Link
US (1) US20110128354A1 (ko)
KR (1) KR101121034B1 (ko)
TW (1) TW201118791A (ko)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11570369B1 (en) 2010-03-09 2023-01-31 Stephen Michael Swinford Indoor producing of high resolution images of the commonly viewed exterior surfaces of vehicles, each with the same background view
US8836785B2 (en) * 2010-03-09 2014-09-16 Stephen Michael Swinford Production and internet-viewing of high-resolution images of the commonly viewed exterior surfaces of vehicles, each with the same background view
US9030536B2 (en) 2010-06-04 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for presenting media content
US9787974B2 (en) 2010-06-30 2017-10-10 At&T Intellectual Property I, L.P. Method and apparatus for delivering media content
US8918831B2 (en) 2010-07-06 2014-12-23 At&T Intellectual Property I, Lp Method and apparatus for managing a presentation of media content
US9049426B2 (en) 2010-07-07 2015-06-02 At&T Intellectual Property I, Lp Apparatus and method for distributing three dimensional media content
US9560406B2 (en) 2010-07-20 2017-01-31 At&T Intellectual Property I, L.P. Method and apparatus for adapting a presentation of media content
US9232274B2 (en) 2010-07-20 2016-01-05 At&T Intellectual Property I, L.P. Apparatus for adapting a presentation of media content to a requesting device
US9032470B2 (en) 2010-07-20 2015-05-12 At&T Intellectual Property I, Lp Apparatus for adapting a presentation of media content according to a position of a viewing apparatus
US8994716B2 (en) * 2010-08-02 2015-03-31 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US8438502B2 (en) 2010-08-25 2013-05-07 At&T Intellectual Property I, L.P. Apparatus for controlling three-dimensional images
US8947511B2 (en) 2010-10-01 2015-02-03 At&T Intellectual Property I, L.P. Apparatus and method for presenting three-dimensional media content
KR101763938B1 (ko) * 2010-11-03 2017-08-01 삼성전자주식회사 위치정보 기반의 영상데이터의 처리 방법 및 장치
US8947497B2 (en) 2011-06-24 2015-02-03 At&T Intellectual Property I, Lp Apparatus and method for managing telepresence sessions
US9602766B2 (en) 2011-06-24 2017-03-21 At&T Intellectual Property I, L.P. Apparatus and method for presenting three dimensional objects with telepresence
US9030522B2 (en) 2011-06-24 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US9445046B2 (en) 2011-06-24 2016-09-13 At&T Intellectual Property I, L.P. Apparatus and method for presenting media content with telepresence
US8587635B2 (en) 2011-07-15 2013-11-19 At&T Intellectual Property I, L.P. Apparatus and method for providing media services with telepresence
EP2756682A4 (en) * 2011-09-12 2015-08-19 Intel Corp NETWORK CAPTURE AND 3D DISPLAY OF LOCALIZED AND SEGMENTED IMAGES
KR101292074B1 (ko) * 2011-11-16 2013-07-31 삼성중공업 주식회사 카메라를 이용한 계측 시스템 및 이를 이용한 카메라 캘리브레이션 방법
TWI503579B (zh) * 2013-06-07 2015-10-11 Young Optics Inc 立體影像裝置、其立體影像掃描底座及其運作方法
CN103679788B (zh) * 2013-12-06 2017-12-15 华为终端(东莞)有限公司 一种移动终端中3d图像的生成方法和装置
TWI510052B (zh) * 2013-12-13 2015-11-21 Xyzprinting Inc 掃描裝置
US11051000B2 (en) * 2014-07-14 2021-06-29 Mitsubishi Electric Research Laboratories, Inc. Method for calibrating cameras with non-overlapping views
TWI524758B (zh) 2014-12-09 2016-03-01 財團法人工業技術研究院 電子裝置及其漸增式姿態估算及攝影方法
TW201715472A (zh) * 2015-10-26 2017-05-01 原相科技股份有限公司 影像分區門檻值決定方法、手勢判斷方法、影像感測系統以及手勢判斷系統
CN109727308A (zh) * 2017-10-30 2019-05-07 三纬国际立体列印科技股份有限公司 实体物件的三维点云模型生成设备及生成方法
US10504251B1 (en) * 2017-12-13 2019-12-10 A9.Com, Inc. Determining a visual hull of an object
CN108320320B (zh) * 2018-01-25 2021-04-20 重庆爱奇艺智能科技有限公司 一种信息显示方法、装置及设备
KR20230135660A (ko) * 2021-02-28 2023-09-25 레이아 인코포레이티드 3d 모델링 향상을 위해 임시 텍스처 적용을 제공하는 방법 및 시스템

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090119442A (ko) * 2008-05-16 2009-11-19 전남대학교산학협력단 단일 카메라를 이용한 삼차원 인체 포즈 인식 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5063448A (en) * 1989-07-31 1991-11-05 Imageware Research And Development Inc. Apparatus and method for transforming a digitized signal of an image
US6616347B1 (en) * 2000-09-29 2003-09-09 Robert Dougherty Camera with rotating optical displacement unit
GB2370737B (en) * 2000-10-06 2005-03-16 Canon Kk Image processing apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090119442A (ko) * 2008-05-16 2009-11-19 전남대학교산학협력단 단일 카메라를 이용한 삼차원 인체 포즈 인식 방법

Also Published As

Publication number Publication date
US20110128354A1 (en) 2011-06-02
TW201118791A (en) 2011-06-01
KR20110059506A (ko) 2011-06-02

Similar Documents

Publication Publication Date Title
KR101121034B1 (ko) 복수의 이미지들로부터 카메라 파라미터를 얻기 위한 시스템과 방법 및 이들의 컴퓨터 프로그램 제품
CN111179358B (zh) 标定方法、装置、设备及存储介质
US10867430B2 (en) Method and system of 3D reconstruction with volume-based filtering for image processing
CN109242961B (zh) 一种脸部建模方法、装置、电子设备和计算机可读介质
CN108475433B (zh) 用于大规模确定rgbd相机姿势的方法和系统
CN103337094B (zh) 一种应用双目摄像机实现运动三维重建的方法
US7554575B2 (en) Fast imaging system calibration
CN108694741B (zh) 一种三维重建方法及装置
CN109003311B (zh) 一种鱼眼镜头的标定方法
WO2017023210A1 (en) Generating a merged, fused three-dimensional point cloud based on captured images of a scene
US20190051036A1 (en) Three-dimensional reconstruction method
US20150124059A1 (en) Multi-frame image calibrator
JPWO2011115142A1 (ja) 画像処理装置、方法、プログラム及び記録媒体
JP2016151955A (ja) 画像処理装置、撮像装置、距離計測装置、および画像処理方法
CN109525786B (zh) 视频处理方法、装置、终端设备及存储介质
JP7159384B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN115035235A (zh) 三维重建方法及装置
US20110085026A1 (en) Detection method and detection system of moving object
CN115953483A (zh) 一种参数标定方法、装置、计算机设备及存储介质
CN110120012A (zh) 基于双目摄像头的同步关键帧提取的视频拼接方法
JP6429483B2 (ja) 情報処理装置、撮像装置、情報処理システム、情報処理方法およびプログラム
JP2016114445A (ja) 3次元位置算出装置およびそのプログラム、ならびに、cg合成装置
US9380285B2 (en) Stereo image processing method, stereo image processing device and display device
JP2013200840A (ja) 映像処理装置、映像処理方法、映像処理プログラム、及び映像表示装置
CN108269278A (zh) 一种场景建模的方法及装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150205

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160205

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180207

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20200213

Year of fee payment: 9