KR101096807B1 - 3차원 위치 정보 획득 장치 및 방법 - Google Patents
3차원 위치 정보 획득 장치 및 방법 Download PDFInfo
- Publication number
- KR101096807B1 KR101096807B1 KR1020100008807A KR20100008807A KR101096807B1 KR 101096807 B1 KR101096807 B1 KR 101096807B1 KR 1020100008807 A KR1020100008807 A KR 1020100008807A KR 20100008807 A KR20100008807 A KR 20100008807A KR 101096807 B1 KR101096807 B1 KR 101096807B1
- Authority
- KR
- South Korea
- Prior art keywords
- target object
- pixels
- image
- distance
- acquisition unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000004364 calculation method Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
하나의 카메라 또는 하나의 센서를 이용하여 영상에서 3차원 위치 정보를 획득할 수 있는 장치 및 방법이 개시된다. 본 발명의 일 양상에 따르면, 기준 물체를 이용하여 거리 별 픽셀 개수가 기록된 제 1 테이블을 준비하고, 준비된 제 1 테이블 및 정해진 초점 거리를 이용하여 타겟 물체의 거리 별 픽셀 개수가 기록된 제 2 테이블을 생성한다. 그리고 제 2 테이블을 참조하여 검출된 픽셀 개수에 따라 거리 정보를 추출한다.
Description
영상 기반의 3차원 입력 시스템과 관련된다.
영상에서 3차원 위치 정보를 추출하기 위해서는 2개 이상의 카메라 또는 센서가 이용되는 것이 일반적이다. 통상적으로, 2개의 카메라를 직교로 배치하여 촬영 공간을 형성하고, 촬영 공간 내의 물체를 2개의 카메라가 동시에 촬영한 후, 어느 하나의 카메라 영상은 XY 평면의 입력 값으로 사용하고, 다른 하나의 카메라 영상은 Z축의 입력 값으로 사용하게 된다.
그런데, 이러한 방법은 다수의 카메라를 이용하기 때문에 전체 장치의 부피가 커져서 소형화가 어렵다. 또한 각각의 카메라로부터 획득된 데이터를 처리해야 하기 때문에 데이터 계산 량이 많고 처리 속도도 느리다.
하나의 카메라 또는 센서를 이용하여 빠르게 3차원 위치 정보를 획득할 수 있는 장치 및 방법이 제공된다.
본 발명의 일 양상에 따른 3차원 위치 정보 제공 장치는, 기준 물체(reference object) 또는 타겟 물체(target object)가 포함된 영상을 획득하는 영상 획득부, 기준 물체의 거리 별 픽셀 개수가 기록된 제 1 테이블이 저장되는 제 1 테이블 저장부, 기준 물체 또는 타겟 물체의 중심 픽셀 및 픽셀 개수를 검출하는 픽셀 검출부, 제 1 테이블 및 기준 거리에서 검출된 타겟 물체의 픽셀 개수를 이용하여 제 1 테이블에 대응되는 제 2 테이블을 생성하는 제 2 테이블 생성부, 및 타겟 물체의 중심 픽셀을 이용하여 타겟 물체의 2차원 위치를 추정하고, 타겟 물체의 픽셀 개수 및 제 2 테이블을 이용하여 타겟 물체의 1차원 거리를 추정하는 위치 추정부를 포함할 수 있다.
본 발명의 다른 양상에 따른 3차원 위치 정보 제공 장치는, 타겟 물체(target object)가 포함된 영상을 획득하는 영상 획득부, 영상에서 타겟 물체의 중심 픽셀 및 픽셀 개수를 검출하는 픽셀 검출부, 사용자로부터 타겟 물체의 크기 정보를 수신하고, 수신된 크기 정보를 이용하여 검출된 픽셀 개수를 보정하는 픽셀 개수 보정부, 및 검출된 중심 픽셀을 이용하여 타겟 물체의 2차원 위치를 추정하고, 상정된 픽셀 개수 및 기준 물체(reference object)의 거리 별 픽셀 개수가 기록된 기준 테이블을 이용하여 타겟 물체의 1차원 거리를 추정하는 위치 추정부를 포함할 수 있다.
본 발명의 일 양상에 따른 3차원 위치 정보 제공 방법은, 타겟 물체(target object)가 포함된 제 1 영상을 획득하는 단계, 제 1 영상에서 타겟 물체의 제 1 픽셀 개수를 검출하는 단계, 검출된 제 1 픽셀 개수 및 기준 물체(reference object)의 거리 별 픽셀 개수가 기록된 제 1 테이블을 이용하여 상기 제 1 테이블에 대응되는 제 2 테이블을 생성하는 단계, 임의의 거리에서 타겟 물체가 포함된 제 2 영상을 획득하는 단계, 제 2 영상에서 타겟 물체의 중심 픽셀 및 제 2 픽셀 개수를 검출하는 단계, 및 중심 픽셀을 이용하여 타겟 물체의 2차원 위치 정보를 추정하고, 제 2 픽셀 개수 및 제 2 테이블을 이용하여 타겟 물체의 1차원 거리 정보를 추정하는 단계를 포함할 수 있다.
본 발명의 다른 양상에 따른 3차원 위치 정보 제공 방법은, 타겟 물체(target object)가 포함된 영상을 획득하는 단계, 영상에서 타겟 물체의 중심 픽셀 및 픽셀 개수를 검출하는 단계, 사용자로부터 타겟 물체의 크기 정보를 수신하고, 수신된 크기 정보를 이용하여 검출된 픽셀 개수를 보정하는 단계, 및 검출된 중심 픽셀을 이용하여 타겟 물체의 2차원 위치 정보를 추정하고, 보정된 픽셀 개수 및 기준 물체(reference object)의 거리 별 픽셀 개수가 기록된 기준 테이블을 이용하여 타겟 물체의 1차원 거리 정보를 추정하는 단계를 포함할 수 있다.
개시된 내용에 따르면, 하나의 카메라 또는 하나의 센서를 이용하여 3차원 위치 정보를 획득할 수 있다. 또한, 간단한 테이블 룩업을 통해 거리 정보 또는 깊이 정보가 추출되기 때문에 계산 량 및 계산 속도를 줄일 수 있다.
도 1은 본 발명의 일 실시예에 따른 3차원 영상 획득 장치를 도시한다.
도 2는 본 발명의 일 실시예에 따른 3차원 영상 획득 방법을 도시한다.
도 3은 본 발명의 다른 실시예에 따른 3차원 영상 획득 장치를 도시한다.
도 4는 본 발명의 다른 실시예에 따른 3차원 영상 획득 방법을 도시한다.
도 5는 본 발명의 일 실시예에 따른 중심 픽셀 및 픽셀 개수를 도시한다.
도 2는 본 발명의 일 실시예에 따른 3차원 영상 획득 방법을 도시한다.
도 3은 본 발명의 다른 실시예에 따른 3차원 영상 획득 장치를 도시한다.
도 4는 본 발명의 다른 실시예에 따른 3차원 영상 획득 방법을 도시한다.
도 5는 본 발명의 일 실시예에 따른 중심 픽셀 및 픽셀 개수를 도시한다.
이하, 첨부된 도면을 참조하여 본 발명의 실시를 위한 구체적인 예를 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 3차원 위치 정보 획득 장치를 도시한다.
도 1을 참조하면, 위치 정보 획득 장치(100)는 영상 획득부(101), 픽셀 검출부(102), 제 1 테이블 저장부(103), 제 2 테이블 생성부(104), 및 위치 추정부(105)를 포함한다.
영상 획득부(101)는 기준 물체 또는 타겟 물체가 포함된 영상을 획득한다. 기준 물체는 미리 정해진 단위 크기를 갖는 물체를 말하고, 타겟 물체는 위치 측정의 대상이 되는 물체를 말한다.
또한, 영상 획득부(101)는 빛을 감지하고 감지된 빛에 대응되는 영상 신호를 생성하는 이미지 센서 어레이, 및 빛이 이미지 센서 어레이에 모이도록 초점을 조절하는 렌즈 등으로 구성될 수 있다. 그 밖에도, CCD 또는 CMOS 광 센서 등 다양한 센서를 통해 영상 획득부(101)를 구현할 수 있다.
픽셀 검출부(102)는 획득된 영상 내에 존재하는 물체에 대한 중심 픽셀 및 픽셀 개수를 검출한다. 예를 들어, 픽셀 검출부(102)는 획득된 영상에서 기준 물체 또는 타겟 물체가 존재하는 부분을 소정의 사각형으로 나타내고, 사각형의 중심 및 사각형이 차지하는 픽셀의 개수를 검출할 수 있다.
도 5는 본 발명의 일 실시예에 따른 중심 픽셀 및 픽셀 개수를 도시한다.
도 5를 참조하면, 픽셀 검출부(102)는 물체(501)가 존재하는 부분에 사각형(502)을 설정하고, 사각형(502)의 중심에 대응되는 픽셀(503)의 좌표(예컨대, m, n)와 정사각형(502)이 차지하고 있는 픽셀의 개수(예컨대, Num)를 검출할 수 있다. 중심 픽셀 및 픽셀 개수는 물체(501)의 위치에 따라 달라질 수 있는데, 예를 들어, 픽셀 개수의 경우 물체(501)가 가까이 있을수록 증가함을 알 수 있다.
다시 도 1에서, 제 1 테이블 저장부(103)에는 기준 물체에 대한 거리 별 픽셀 개수가 기록된 제 1 테이블이 저장되어 있다. 여기서 거리란 영상 획득부(101)로부터 어떤 물체까지의 떨어진 정도가 될 수 있다.
제 1 테이블을 생성하기 위해, 예컨대, 단위 크기(1cm x 1cm)를 갖는 기준 물체를 정해진 거리에 놓고 영상 획득부(101)가 기준 물체에 대한 영상을 획득하면, 픽셀 검출부(102)가 기준 물체에 대한 픽셀 개수를 검출하고, 제 1 테이블 저장부(103)가 정해진 거리와 픽셀 개수를 저장하는 것이 가능하다. 그리고 정해진 거리에 변화를 주면서 위 과정을 반복하면, 거리에 따른 픽셀 개수를 기록한 제 1 테이블을 생성할 수 있다. 다시 말해, 기 설정된 거리에 기준 물체를 놓고 픽셀 개수를 기록하되, 설정된 거리에 변화를 주면서 거리와 픽셀 개수와의 관계를 파악하도록 한다.
제 1 테이블의 예는 다음과 같다.
표 1에서, 거리는 기준 물체와 영상 획득부(101) 간의 거리가 될 수 있고, 픽셀 개수는 촬영된 영상에서 기준 물체가 차지하는 부분에 대응되는 소정의 사각형의 픽셀 개수가 될 수 있다.
본 실시예에 따라, 제 1 테이블은 위치 정보 획득 장치(100)의 생산 시에 미리 생성해서 제 1 테이블 저장부(103)에 저장시킬 수도 있고, 사용자가 기준 물체를 이용해서 생산 이후 사용 시에 생성할 수도 있다.
또한, 제 1 테이블은 기준 물체의 크기에 따라 다수 개가 생성 및 저장될 수도 있다. 예를 들어 위 표 1이 1cm x 1cm 크기의 기준 물체에 관한 것이라면, 1cm x 2cm 또는 2cm x 2cm 크기를 갖는 기준 물체 각각에 대해서도 제 1 테이블을 생성 및 저장할 수 있다.
제 2 테이블 생성부(104)는 제 1 테이블 및 기준 거리에서 검출된 타겟 물체의 픽셀 개수를 이용하여 제 1 테이블에 대응되는 제 2 테이블을 생성한다.
일 예로써, 기준 거리란 영상 획득부(101)의 자동 초점 조절 기능을 오프(OFF)한 상태에서 영상 획득을 위해 영상 획득부(101)를 움직이면서 타겟 물체에 초점을 맞추었을 때의 영상 획득부(101)와 타겟 물체 간의 거리로 정의될 수 있다. 이러한 기준 거리는 영상 획득부(101)의 특성에 따라 고정된 값을 갖는다. 즉, 영상 획득부(101)와 타겟 물체 간의 거리가 특정한 값을 가질 때 초점이 맞게 되는데, 초점이 맞았을 때의 거리를 기준 거리로 정의할 수 있다.
다른 예로써, 기준 거리는 영상 획득부(101)의 자동 초점 조절 기능을 온(ON)시킨 상태에서 타겟 물체를 임의의 위치에 놓고 자동 초점 조절 기능으로 초점을 맞춘 뒤 영상 획득부(101)의 렌즈 조정 값, 또는 초점 거리 조정 값 등을 토대로 구해질 수도 있다.
표 1과 같은 제 1 테이블이 준비된 상태에서, 기준 거리가 10cm이고, 기준 거리에서의 검출된 타겟 물체의 픽셀 개수가 3000개라고 가정하자. 그러면 표 1과의 비례 관계를 이용해서 다음과 같은 제 2 테이블을 생성할 수 있다.
즉, 표 2를 참조하면, 기준 거리에서의 픽셀 개수가 검출되면, 기준 거리가 아닌 다른 거리에 대응되는 픽셀 개수는 비례 관계를 이용해서 계산할 수 있다.
위치 추정부(105)는 픽셀 검출부(102)에 의해 검출된 타겟 물체의 중심 픽셀(예컨대, 501)을 이용하여 타겟 물체의 2차원 위치를 추정한다. 여기서 2차원 위치는, 영상 표면을 xy 평면으로 정의하고, 영상의 깊이(depth) 방향을 z축으로 정의했을 때의 x, y 좌표가 될 수 있다. 예컨대, 위치 추정부(105)는 타겟 물체의 중심 픽셀(501)의 좌표 값(m, n)을 xy 평면 상의 좌표 값으로 이용할 수 있다.
또한, 위치 추정부(105)는 픽셀 검출부(102)에 의해 검출된 픽셀 개수 및 제 2 테이블 생성부(104)가 생성한 제 2 테이블을 이용하여 타겟 물체의 1차원 거리를 추정한다. 여기서 1차원 거리란, 영상 표면을 xy 평면으로 정의하고, 영상의 깊이(depth) 방향을 z축으로 정의했을 때의 z 좌표가 될 수 있다. 즉 영상 획득부(101)와 타겟 물체까지의 거리가 될 수 있다. 예컨대, 위치 추정부(105)는 임의의 거리에서 검출된 픽셀 개수를 표 2의 제 2 테이블과 비교해서 거리를 계산하는 것이 가능하다. 만약, 검출된 픽셀 개수가 2000개라고 가정하면, 위치 추정부(105)는 표 2를 참조하여, 타겟 물체의 거리가 약 12cm임을 추정할 수 있다.
본 발명의 일 실시예에 따라, 영상 획득부(101)는 단수 개일 수 있다. 즉 위치 정보 획득 장치(100)는 스테레오 카메라를 사용하지 않고도 간단한 테이블 룩업을 통해 타겟 물체까지의 거리 정보를 획득할 수 있다.
도 2는 본 발명의 일 실시예에 따른 3차원 위치 정보 획득 방법을 도시한다.
도 2를 참조하면, 위치 정보 획득 방법(200)은, 기준 거리에서 타겟 물체가 포함된 제 1 영상을 획득한다(201). 예를 들어, 영상 획득부(101)가 기준 거리에 위치한 타겟 물체의 영상을 획득할 수 있다. 여기서 기준 거리는 영상을 얻기 위해 영상 획득부(101)를 움직이면서 타겟 물체에 초점을 맞추었을 때의 영상 획득부(101)와 타겟 물체 간의 거리로 정의될 수 있으며, 이러한 기준 거리는 영상 획득부(101)의 특성에 따라 고정된 값을 갖는다. 또한, 영상 획득부(101)에 구비된 자동 초점 조절 기능의 특성 조정 값을 토대로 기준 거리를 계산할 수도 있다.
그리고, 위치 정보 획득 방법(200)은, 획득된 제 1 영상에서 타겟 물체의 제 1 픽셀 개수를 검출한다(202). 예를 들어, 픽셀 검출부(102)가, 도 5와 같이, 획득된 제 1 영상의 타겟 물체가 존재하는 부분에 소정의 사각형을 설정하고, 설정된 사각형이 차지하는 픽셀의 개수를 카운트할 수 있다.
그리고, 위치 정보 획득 방법(200)은, 기준 거리에서 검출된 타겟 물체의 제 1 픽셀 개수와 기준 물체의 거리 별 픽셀 개수가 기록된 제 1 테이블을 이용하여 제 1 테이블에 대응되는 제 2 테이블을 생성한다(203). 예를 들어, 제 2 테이블 생성부(104)가 제 1 테이블 저장부(103)에 저장된 제 1 테이블(표 1 참조)과 기준 거리에서 검출된 타겟 물체의 픽셀 개수 간의 비례 관계를 이용하여 표 2와 같은 제 2 테이블을 생성할 수 있다.
그리고, 위치 정보 획득 방법(200)은, 임의의 거리에서 타겟 물체가 포함된 제 2 영상을 획득한다(204). 예를 들어, 기준 거리에 있던 타겟 물체를 다른 위치로 옮긴 후, 영상 획득부(101)가 타겟 물체의 영상을 획득할 수 있다.
그리고, 위치 정보 획득 방법(200)은, 획득된 제 2 영상에서 타겟 물체의 중심 픽셀 및 제 2 픽셀 개수를 검출한다(205). 예를 들어, 픽셀 검출부(102)가, 도 5와 같이, 획득된 제 2 영상의 타겟 물체가 존재하는 부분에 소정의 사각형을 설정하고, 설정된 사각형이 차지하는 픽셀의 개수를 카운트할 수 있다.
그리고, 위치 정보 획득 방법(200)은, 검출된 중심 픽셀을 이용하여 타겟 물체의 2차원 위치 정보를 추정하고, 검출된 제 2 픽셀 개수 및 생성된 제 2 테이블을 이용하여 타겟 물체의 1차원 거리 정보를 추정한다(206). 예를 들어, 위치 추정부(105)가 검출된 중심 픽셀의 좌표를 xy 평면 좌표 값에 대응시킬 수 있다. 또한, 제 2 픽셀 개수가 2000개이고, 생성된 제 2 테이블이 표 2와 같다면, 위치 추정부(105)는 z 좌표 값을 약 12cm에 대응시킬 수 있다.
도 3은 본 발명의 다른 실시예에 따른 3차원 위치 정보 획득 장치를 도시한다.
도 3을 참조하면, 위치 정보 획득 장치(300)는 영상 획득부(301), 픽셀 검출부(302), 픽셀 개수 보정부(303), 위치 추정부(304), 및 기준 테이블 저장부(305)를 포함한다.
영상 획득부(301)는 타겟 물체(target object)가 포함된 영상을 획득한다. 영상 획득부(301)의 구체적 내용은 도 1의 영상 획득부(101)와 동일하다.
픽셀 검출부(302)는 획득된 영상에서 타겟 물체의 중심 픽셀 및 픽셀 개수를 검출한다. 예컨대, 픽셀 검출부(302)는 도 5와 같이 획득된 영상에서 타겟 물체(501)의 중심 픽셀(m, n) 및 픽셀 개수(Num)를 검출할 수 있다.
픽셀 개수 보정부(303)는 타겟 물체의 크기 정보를 수신한다. 타겟 물체의 크기 정보는 기준 물체와 타겟 물체 간의 크기 차이가 될 수 있다. 여기서 크기란 물체의 특정 면(예컨대, 영상 획득부(301)에 대향하는 면)에 대한 표면적을 말한다. 예를 들어, 기준 물체의 크기가 1cm x 1cm이고, 타겟 물체의 크기가 1cm x 2cm인 경우, 타겟 물체의 크기 정보는 2가 될 수 있다. 타겟 물체의 크기 정보는 사용자로부터 입력 받을 수 있다. 예를 들어, 사용자가 단위 크기를 갖는 기준 물체와 타겟 물체의 겉보기 크기를 비교하여 타겟 물체가 기준 물체보다 몇 배 큰지 또는 몇 배 작은지 등을 타겟 물체의 크기 정보로서 입력하는 것이 가능하다.
또한, 픽셀 개수 보정부(303)는 수신된 타겟 물체의 크기 정보를 이용하여 검출된 픽셀 개수를 보정한다. 이 때 픽셀 개수 보정부(303)는 수신된 크기 정보에 반비례하도록 검출된 픽셀 개수를 보정할 수 있다. 예를 들어, 수신된 타겟 물체의 크기 정보가 2이고, 검출된 픽셀 개수가 2000개인 경우, 픽셀 개수를 1000개로 보정될 수 있다. 다만, 이러한 반비례 관계는 설명의 편의를 위해 예시한 것으로 검출된 픽셀 개수의 보정 정도는 영상 획득부(301)의 렌즈 특성, 영상 내의 타겟 물체의 위치 등에 따라 달라질 수 있다.
위치 추정부(304)는 픽셀 검출부(302)에 의해 검출된 중심 픽셀을 이용하여 타겟 물체의 2차원 위치를 추정한다.
또한, 위치 추정부(304)는 보정된 픽셀 개수 및 기준 테이블 저장부(305)에 저장된 기준 테이블을 이용하여 타겟 물체의 1차원 거리를 추정한다. 여기서 기준 테이블은 기준 물체의 거리 별 픽셀 개수가 기록된 테이블로, 표 1과 같이 나타낼 수 있다. 예를 들어, 보정된 픽셀 개수가 1000개인 경우, 위치 추정부(304)는 표 1을 참조하여 타겟 물체의 거리를 약 17cm로 계산할 수 있다.
도 4는 본 발명의 다른 실시예에 따른 3차원 위치 추정 방법을 도시한다.
도 4를 참조하면, 위치 추정 방법(400)은, 타겟 물체(target object)가 포함된 영상을 획득한다(401).
그리고, 위치 추정 방법(400)은, 획득된 영상에서 타겟 물체의 중심 픽셀 및 픽셀 개수를 검출한다(402).
그리고, 위치 추정 방법(400)은, 사용자로부터 타겟 물체의 크기 정보를 수신하고, 수신된 크기 정보를 이용하여 검출된 픽셀 개수를 보정한다(403). 예를 들어, 픽셀 개수 보정부(303)가 사용자로부터 타겟 물체와 기준 물체 간의 크기 차이를 수신하고, 수신된 크기 차이로 검출된 픽셀 개수를 나누어줄 수 있다.
그리고, 위치 추정 방법(400)은, 검출된 중심 픽셀을 이용하여 상기 타겟 물체의 2차원 위치 정보를 추정하고, 보정된 픽셀 개수 및 기준 물체의 거리 별 픽셀 개수가 기록된 기준 테이블을 이용하여 상기 타겟 물체의 1차원 거리 정보를 추정한다(404). 기준 테이블은 표 1과 같이 미리 준비되어 있다.
즉, 기준 테이블을 살펴보면, 픽셀 개수에 따라 기준 물체까지 떨어진 거리를 알 수 있는데, 기준 물체가 아닌 타겟 물체의 크기 정보를 통해 타겟 물체의 픽셀 개수가 기준 물체의 픽셀 개수와 비례하게 되었으므로, 보정된 픽셀 개수 및 기준 테이블을 이용해서 타겟 물체의 거리를 알아낼 수 있다.
한편, 본 발명의 실시 예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
이상에서 본 발명의 실시를 위한 구체적인 예를 살펴보았다. 전술한 실시 예들은 본 발명을 예시적으로 설명하기 위한 것으로 본 발명의 권리범위가 특정 실시 예에 한정되지 아니할 것이다.
Claims (10)
- 기준 물체(reference object) 또는 타겟 물체(target object)가 포함된 영상을 획득하는 영상 획득부;
기준 물체 또는 타겟 물체의 중심 픽셀 및 픽셀 개수를 검출하는 픽셀 검출부;
기준 물체에 관한 거리 별 픽셀 개수가 기록된 제 1 테이블이 저장되는 제 1 테이블 저장부;
제 1 테이블 및 기준 거리에서 검출된 타겟 물체의 픽셀 개수를 이용하여 제 1 테이블에 대응되는 제 2 테이블을 생성하는 제 2 테이블 생성부; 및
타겟 물체의 중심 픽셀을 이용하여 타겟 물체의 2차원 위치를 추정하고, 타겟 물체의 픽셀 개수 및 제 2 테이블을 이용하여 타겟 물체의 1차원 거리를 추정하는 위치 추정부; 를 포함하는 3차원 위치 정보 획득 장치.
- 제 1 항에 있어서, 상기 기준 거리는,
상기 영상 획득부의 자동 초점 조절 기능을 오프한 상태에서 상기 영상 획득부를 움직이면서 타겟 물체에 초점을 맞추었을 때의 상기 영상 획득부와 타겟 물체 간의 거리로 정의되는 3차원 위치 정보 획득 장치.
- 제 2 항에 있어서, 상기 기준 거리는,
상기 영상 획득부의 특성에 따라 고정된 값을 갖는 3차원 위치 정보 획득 장치.
- 제 1 항에 있어서, 상기 기준 거리는,
상기 영상 획득부의 자동 초점 조절 기능에 따른 상기 영상 획득부의 특성 조정 값을 토대로 계산되는 3차원 위치 정보 획득 장치.
- 타겟 물체(target object)가 포함된 영상을 획득하는 영상 획득부;
상기 영상에서 상기 타겟 물체의 중심 픽셀 및 픽셀 개수를 검출하는 픽셀 검출부;
사용자로부터 상기 타겟 물체의 크기 정보를 수신하고, 수신된 크기 정보를 이용하여 검출된 픽셀 개수를 보정하는 픽셀 개수 보정부; 및
검출된 중심 픽셀을 이용하여 상기 타겟 물체의 2차원 위치를 추정하고, 상기 보정된 픽셀 개수 및 기준 물체(reference object)의 거리 별 픽셀 개수가 기록된 기준 테이블을 이용하여 상기 타겟 물체의 1차원 거리를 추정하는 위치 추정부; 를 포함하는 3차원 위치 정보 획득 장치.
- 제 5 항에 있어서, 상기 타겟 물체의 크기 정보는,
상기 기준 물체와 상기 타겟 물체 간의 크기 차이에 기초하여 정의되는 3차원 위치 정보 획득 장치.
- 타겟 물체(target object)가 포함된 제 1 영상을 획득하는 단계;
상기 제 1 영상에서 상기 타겟 물체의 제 1 픽셀 개수를 검출하는 단계;
검출된 제 1 픽셀 개수 및 기준 물체(reference object)의 거리 별 픽셀 개수가 기록된 제 1 테이블을 이용하여 상기 제 1 테이블에 대응되는 제 2 테이블을 생성하는 단계;
임의의 거리에서 상기 타겟 물체가 포함된 제 2 영상을 획득하는 단계;
상기 제 2 영상에서 상기 타겟 물체의 중심 픽셀 및 제 2 픽셀 개수를 검출하는 단계; 및
상기 중심 픽셀을 이용하여 상기 타겟 물체의 2차원 위치 정보를 추정하고, 상기 제 2 픽셀 개수 및 상기 제 2 테이블을 이용하여 상기 타겟 물체의 1차원 거리 정보를 추정하는 단계; 를 포함하는 3차원 위치 정보 획득 방법.
- 제 7 항에 있어서, 상기 기준 거리는,
상기 제 1 영상 또는 상기 제 2 영상을 획득하기 위한 영상 획득부의 특성에 따라 고정된 값을 갖는 3차원 위치 정보 획득 방법.
- 타겟 물체(target object)가 포함된 영상을 획득하는 단계;
상기 영상에서 상기 타겟 물체의 중심 픽셀 및 픽셀 개수를 검출하는 단계;
사용자로부터 상기 타겟 물체의 크기 정보를 수신하고, 수신된 크기 정보를 이용하여 상기 검출된 픽셀 개수를 보정하는 단계; 및
상기 검출된 중심 픽셀을 이용하여 상기 타겟 물체의 2차원 위치 정보를 추정하고, 상기 보정된 픽셀 개수 및 기준 물체(reference object)의 거리 별 픽셀 개수가 기록된 기준 테이블을 이용하여 상기 타겟 물체의 1차원 거리 정보를 추정하는 단계; 를 포함하는 3차원 위치 정보 획득 방법.
- 제 9 항에 있어서, 상기 타겟 물체의 크기 정보는,
상기 기준 물체와 상기 타겟 물체 간의 크기 차이에 기초하여 정의되는 3차원 위치 정보 획득 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100008807A KR101096807B1 (ko) | 2010-01-29 | 2010-01-29 | 3차원 위치 정보 획득 장치 및 방법 |
US12/985,192 US20110187828A1 (en) | 2010-01-29 | 2011-01-05 | Apparatus and method for obtaining 3d location information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100008807A KR101096807B1 (ko) | 2010-01-29 | 2010-01-29 | 3차원 위치 정보 획득 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110089021A KR20110089021A (ko) | 2011-08-04 |
KR101096807B1 true KR101096807B1 (ko) | 2011-12-22 |
Family
ID=44341286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100008807A KR101096807B1 (ko) | 2010-01-29 | 2010-01-29 | 3차원 위치 정보 획득 장치 및 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20110187828A1 (ko) |
KR (1) | KR101096807B1 (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101382806B1 (ko) * | 2014-02-28 | 2014-04-17 | 성균관대학교산학협력단 | 단말기의 카메라에 입력된 손가락 영상을 이용한 3차원 좌표 생성 방법 및 카메라에 입력된 손가락 영상을 이용하여 3차원 좌표를 생성하는 이동 단말기 |
KR101396098B1 (ko) * | 2014-02-28 | 2014-05-15 | 성균관대학교산학협력단 | 단말기의 모노 카메라에 입력된 손가락 영상을 이용한 3차원 좌표 생성 방법 및 모노 카메라에 입력된 손가락 영상을 이용하여 3차원 좌표를 생성하는 이동 단말기 |
KR101491413B1 (ko) * | 2014-05-27 | 2015-02-06 | 성균관대학교산학협력단 | 단말기의 모노 카메라에 입력된 손가락 영상을 이용한 3차원 좌표 생성 방법 및 모노 카메라에 입력된 손가락 영상을 이용하여 3차원 좌표를 생성하는 이동 단말기 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140019950A (ko) | 2012-08-07 | 2014-02-18 | 성균관대학교산학협력단 | 단말기의 모노 카메라에 입력된 손가락 영상을 이용한 3차원 좌표 생성 방법 및 모노 카메라에 입력된 손가락 영상을 이용하여 3차원 좌표를 생성하는 이동 단말기 |
KR101879855B1 (ko) * | 2012-12-22 | 2018-07-19 | (주)지오투정보기술 | 영상의 왜곡보정을 통해 공간모델링을 수행하는 수치지도제작 시스템 |
KR101465896B1 (ko) * | 2013-09-26 | 2014-11-26 | 성균관대학교산학협력단 | 전면부 카메라 및 후면부 카메라를 이용하여 제어 명령을 생성하는 이동 단말 |
US10999559B1 (en) * | 2015-09-11 | 2021-05-04 | Ambarella International Lp | Electronic side-mirror with multiple fields of view |
US10360477B2 (en) | 2016-01-11 | 2019-07-23 | Kla-Tencor Corp. | Accelerating semiconductor-related computations using learning based models |
KR101976605B1 (ko) | 2016-05-20 | 2019-05-09 | 이탁건 | 전자기기 및 그 동작 방법 |
US11080880B2 (en) | 2017-08-25 | 2021-08-03 | Maker Trading Pte Ltd | Machine vision system and method for identifying locations of target elements |
KR102084252B1 (ko) | 2017-11-29 | 2020-03-03 | 한국전자통신연구원 | 단일 카메라 영상을 이용하여 초기 3차원 궤적 및 속도를 동시에 복원하는 시스템 및 그 방법 |
CN111862146B (zh) * | 2019-04-30 | 2023-08-29 | 北京魔门塔科技有限公司 | 一种目标对象的定位方法及装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6384859B1 (en) * | 1995-03-29 | 2002-05-07 | Sanyo Electric Co., Ltd. | Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information |
US7277599B2 (en) * | 2002-09-23 | 2007-10-02 | Regents Of The University Of Minnesota | System and method for three-dimensional video imaging using a single camera |
KR100816301B1 (ko) * | 2006-05-24 | 2008-03-24 | 엠텍비젼 주식회사 | 색상 편차 보상 장치, 보상 방법 및 이를 이용한 이미지프로세서, 디지털 처리 장치, 기록매체 |
-
2010
- 2010-01-29 KR KR1020100008807A patent/KR101096807B1/ko active IP Right Grant
-
2011
- 2011-01-05 US US12/985,192 patent/US20110187828A1/en not_active Abandoned
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101382806B1 (ko) * | 2014-02-28 | 2014-04-17 | 성균관대학교산학협력단 | 단말기의 카메라에 입력된 손가락 영상을 이용한 3차원 좌표 생성 방법 및 카메라에 입력된 손가락 영상을 이용하여 3차원 좌표를 생성하는 이동 단말기 |
KR101396098B1 (ko) * | 2014-02-28 | 2014-05-15 | 성균관대학교산학협력단 | 단말기의 모노 카메라에 입력된 손가락 영상을 이용한 3차원 좌표 생성 방법 및 모노 카메라에 입력된 손가락 영상을 이용하여 3차원 좌표를 생성하는 이동 단말기 |
KR101491413B1 (ko) * | 2014-05-27 | 2015-02-06 | 성균관대학교산학협력단 | 단말기의 모노 카메라에 입력된 손가락 영상을 이용한 3차원 좌표 생성 방법 및 모노 카메라에 입력된 손가락 영상을 이용하여 3차원 좌표를 생성하는 이동 단말기 |
Also Published As
Publication number | Publication date |
---|---|
KR20110089021A (ko) | 2011-08-04 |
US20110187828A1 (en) | 2011-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101096807B1 (ko) | 3차원 위치 정보 획득 장치 및 방법 | |
US10165254B2 (en) | Method for obtaining light-field data using a non-light-field imaging device, corresponding device, computer program product and non-transitory computer-readable carrier medium | |
KR102143456B1 (ko) | 심도 정보 취득 방법 및 장치, 그리고 이미지 수집 디바이스 | |
US8805021B2 (en) | Method and apparatus for estimating face position in 3 dimensions | |
KR101666959B1 (ko) | 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법 | |
KR102166691B1 (ko) | 객체의 3차원 형상을 산출하는 장치 및 방법 | |
KR20160140452A (ko) | 이미지 기반의 라이트 필드를 사용자의 디바이스 상에 표시하기 위한 방법 및 장치, 및 대응하는 컴퓨터 프로그램 제품 | |
RU2020109861A (ru) | Оборудование и способ для формирования представления сцены | |
US7941042B2 (en) | Auto-focus method, medium, and apparatus for image-capturing | |
US8144974B2 (en) | Image processing apparatus, method, and program | |
KR20170056698A (ko) | 자동 포커싱 방법, 장치 및 전자 장치 | |
EP2028840A2 (en) | Apparatus and method for estimating motion due to hand trembling and image pickup device using the same | |
CN107517346B (zh) | 基于结构光的拍照方法、装置及移动设备 | |
WO2009008864A1 (en) | System and method for three-dimensional object reconstruction from two-dimensional images | |
JP6304244B2 (ja) | 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム | |
US9905011B2 (en) | Apparatus, system, and method for processing information and program for the same | |
EP2887313B1 (en) | Image processing apparatus, system, image processing method, and computer-readable recording medium | |
CN105791801A (zh) | 图像处理装置、图像拾取装置和图像处理方法 | |
US20150178595A1 (en) | Image processing apparatus, imaging apparatus, image processing method and program | |
JP2008070120A (ja) | 距離計測装置 | |
CN112116068B (zh) | 一种环视图像拼接方法、设备及介质 | |
CN107360354B (zh) | 拍照方法、装置、移动终端和计算机可读存储介质 | |
JP2017103688A5 (ko) | ||
JP5968379B2 (ja) | 画像処理装置およびその制御方法 | |
KR102265109B1 (ko) | 영상 처리 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20141212 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20151201 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20170529 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20181203 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20191207 Year of fee payment: 9 |