KR20090050567A - Tof 카메라를 이용한 로봇의 물체 자세 인식 방법 - Google Patents

Tof 카메라를 이용한 로봇의 물체 자세 인식 방법 Download PDF

Info

Publication number
KR20090050567A
KR20090050567A KR1020070117082A KR20070117082A KR20090050567A KR 20090050567 A KR20090050567 A KR 20090050567A KR 1020070117082 A KR1020070117082 A KR 1020070117082A KR 20070117082 A KR20070117082 A KR 20070117082A KR 20090050567 A KR20090050567 A KR 20090050567A
Authority
KR
South Korea
Prior art keywords
recognized
image
group data
point group
camera
Prior art date
Application number
KR1020070117082A
Other languages
English (en)
Other versions
KR100920931B1 (ko
Inventor
전세웅
이종배
박창우
김봉석
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020070117082A priority Critical patent/KR100920931B1/ko
Publication of KR20090050567A publication Critical patent/KR20090050567A/ko
Application granted granted Critical
Publication of KR100920931B1 publication Critical patent/KR100920931B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03KPULSE TECHNIQUE
    • H03K19/00Logic circuits, i.e. having at least two inputs acting on one output; Inverting circuits
    • H03K19/20Logic circuits, i.e. having at least two inputs acting on one output; Inverting circuits characterised by logic function, e.g. AND, OR, NOR, NOT circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 TOF(Time of Flight) 카메라를 이용한 로봇의 물체 자세 인식방법에 관한 것으로서, TOF 카메라를 이용하여 인식 대상 물체의 거리 정보 이미지를 획득하고, 일반 영상 카메라를 통해 촬영한 영상 이미지에서 에지(Edge) 이미지를 검출한 후, 거리 정보 이미지와 에지 이미지를 AND 연산하여 인식 대상 물체의 실효성 있는 특징점(Constrained Feature)들로 이루어진 3차원 점군 데이터(3D Point Cloud)를 획득하고, 이를 데이터 베이스에 저장된 인식 대상 물체 전체의 3차원 점군 데이터와 정합함으로써, 인식 대상 물체의 자세를 인식하는 것을 특징으로 한다.
본 발명에 의하면, 유리나 투명 아크릴판과 같은 비 시인성 물체들의 경우에도 양질의 3차원 점군 데이터를 얻을 수 있고, 실효성 있는 특징점(Constrained Feature)들로 이루어진 3차원 점군 데이터(3D Point Cloud)를 사용함으로써, ICP(Iterative Closest Point) 알고리즘 수행시 작업 시간을 획기적으로 줄일 수 있다.
로봇, 물체 자세 인식, TOF 카메라, 3D Point Cloud, 특징점

Description

TOF 카메라를 이용한 로봇의 물체 자세 인식 방법{ Method for object pose recognition of robot by using TOF camera }
본 발명은 TOF(Time of Flight) 카메라를 이용한 로봇의 물체 자세 인식방법에 관한 것으로, 보다 상세하게는 로봇이 가정 또는 공장 현장에 있어서 물체의 종류를 알고 있다고 하였을 때, 물체의 자세(Pose)를 정확히 인식하여 파지하도록 하기 위한 물체 자세 인식 방법에 관한 것이다.
최근 로봇 산업은 산업용 로봇에서 출발하여 군사용이나 과학기술 용도를 벗어나 가정용 로봇으로까지 그 활동 영역을 넓혀가고 있다.
여기서, 로봇이 주어진 임무를 수행하기 위해서는 물체 인식(Object Recognition) 기술이 필수적이다. 물체 인식 기술이란 영상 처리를 통해 일정 공간 속에 놓인 컵, 책상, 의자, 전화 등과 같이 다양한 물체들을 구분해내는 기술을 말한다.
예를 들어, 가정용 로봇에게 "식탁 위에 있는 빵을 갖고 와라"고 명령했을 때, 가정용 로봇이 "식탁"과 "빵"이 무엇인지 그리고 어디에 있는지를 인식해야 한 다.
물체 인식 기술은 1970년대 컴퓨터가 본격적으로 나오면서부터 활발히 연구되어 왔고, 1980년대에 2차원 모양 매칭에 기반하여 주로 산업 비전에서 부품 검사 등에 이용되었으며, 1980년대 말부터 3차원 모델기반의 물체 인식 기술이 활발히 연구되었다. 특히 3차원 다면체 인식을 위해 얼라인먼트(Alignment) 기법이 성공적으로 적용되었다.
그리고 1990년대 중반부터 영상기반기법이 대두되면서 좀 더 본격적인 물체인식연구가 진행되었는데, PCA(Principle Component Analysis)와 같은 주성분 분석기법을 이용한 물체 인식 기술이 그 중 한 예이다.
물체 인식 기술 중 3차원 인식 기술은 물체에 대한 3차원 정보를 추출하는 단계, 3차원 영상 데이터로부터 물체의 기하학적인 특징을 추출하는 단계, 추출된 기하학적인 특징의 유효성을 검증하는 단계, 실측 데이터와 데이터 베이스 내의 데이터를 서로 비교 분석하는 단계, 물체를 인식하는 단계 등으로 구분되어 진행된다.
종래의 물체 인식 기술은 데이터 베이스 상에 있는 물체와 인식 대상 물체 전체의 3차원 점군(3D Point Cloud) 데이터를 이용하여 정합하는 과정을 수행함으로써, 물체를 인식하는데 많은 시간이 소요된다는 문제점이 있다.
그리고, 종래에는 스테레오 카메라를 이용하여 3차원 점군(3D Point Cloud) 데이터를 획득하였는데, 인식 대상 물체에 특징(Feature)이 없는 경우, 예를 들면 유리나 투명 아크릴판과 같은 물체 또는 인식 대상 물체와 주위 배경이 동일한 색상을 가지는 경우 등에는 양질의 3차원 점군 데이터를 획득하기 어렵고, 조명의 영향을 많이 받는다는 문제점이 있다.
따라서, 물체를 인식하는데 소요되는 시간을 줄이고, 비 시인성 물체의 경우에도 양질의 3차원 점군 데이터를 획득할 수 있는 방안이 필요하다.
이와 같은 문제점을 해결하기 위한 본 발명의 TOF 카메라를 이용한 로봇의 물체 자세 인식 방법의 바람직한 실시예는, 인식 대상 물체 전체의 3차원 점군 데이터(3D Point Cloud)를 획득하여 데이터 베이스에 저장하는 단계와, TOF(Time of Flight) 카메라 및 일반 영상 카메라로 상기 인식 대상 물체를 각각 촬영한 후, 상기 촬영한 영상으로부터 3차원 점군 데이터를 획득하는 단계와, 상기 데이터 베이스에 저장된 물체 전체의 3차원 점군 데이터와 상기 촬영한 영상으로부터 획득한 3 차원 점군 데이터를 정합하여 상기 촬영한 인식 대상 물체의 자세를 인식하는 단계를 포함하여 이루어지며, 상기 3차원 점군 데이터는 상기 인식 대상 물체의 실효성 있는 특징점(Constrained Feature)들로 이루어지는 것을 특징으로 한다.
여기서, 상기 인식 대상 물체 전체의 3차원 점군 데이터(3D Point Cloud)를 획득하는 단계는, 상기 인식 대상 물체의 전면부의 3차원 점군 데이터를 획득하는 단계와, 상기 인식 대상 물체의 후면부의 3차원 점군 데이터를 획득하는 단계와, 상기 인식 대상 물체의 전면부의 3차원 점군 데이터와 상기 인식 대상 물체의 후면부의 3차원 점군 데이터를 병합(Merge)하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
또한, 상기 3차원 점군 데이터의 획득은, 상기 TOF 카메라를 이용하여 상기 인식 대상 물체의 거리 정보 이미지를 획득하는 단계와, 상기 일반 영상 카메라를 통해 촬영한 영상 이미지에서 상기 인식 대상 물체의 에지(Edge) 이미지를 검출하는 단계와, 상기 거리 정보 이미지와 상기 에지 이미지를 AND 연산하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 의하면, IR TOF(Time of Flight) 카메라를 이용하여 물체의 거리 정보를 획득하기 때문에, 유리나 투명 아크릴판과 같은 비 시인성 물체들의 경우에도 물체의 거리 정보를 정확히 얻을 수 있으며 조명의 영향도 받지 않아 양질의 3D 점군 데이터를 얻을 수 있다.
그리고, 본 발명은 3D Point Cloud를 획득하는 방식에 있어서, TOF 카메라를 이용하여 거리 정보를 획득하고, 일반 영상 카메라로 촬영한 영상에서 캐니 에지 이미지를 추출한 후, 상기 거리 정보 이미지와 캐니 에지 이미지를 AND 연산하여 획득함으로써, 점 군의 개수가 줄어들어 ICP(Iterative Closest Point) 알고리즘 수행시 작업 시간을 획기적으로 줄일 수 있다.
또한, 본 발명에 의해 획득한 3D Point Cloud는 인식 대상 물체의 실효성 있는 특징점(Constrained Feature) 들로 이루어지기 때문에, 3D Point Cloud의 점 군의 개수가 줄어들더라도 인식 대상 물체의 3차원 정보를 잘 반영하게 된다.
이하, 도 1 내지 도 4를 참조하여 본 발명의 TOF(Time of Flight) 카메라를 이용한 로봇의 물체 자세 인식 방법에 대해 상세히 설명한다.
본 발명을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술 되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 TOF 카메라를 이용한 로봇의 물체 자세 인식 방법의 개괄 적인 흐름을 나타낸 순서도이다.
이에 도시된 바와 같이, 먼저 로봇이 파지하고자하는 물체 전체의 3D Point Cloud(3차원 점군 데이터)를 획득하여 데이터 베이스에 저장한다(S 100). 여기서, 상기 획득한 3D Point Cloud는 상기 물체의 실효성 있는 특징점(Constrained Feature)들로 이루어진다.
이때, 상기 물체 전체의 3D Point Cloud DB를 생성하는 방법은 다음과 같다. 즉, TOF 카메라 및 일반 영상 카메라로 상기 물체의 전면부를 촬상하여 전면부의 3D Point Cloud를 획득하고, TOF 카메라 및 일반 영상 카메라로 상기 물체의 후면부를 촬상하여 후면부의 3D Point Cloud를 획득한 후, 이를 정교하게 병합(Merge)하여 상기 물체의 전체 3D Point Cloud를 획득한다.
다음으로, 로봇의 TOF 카메라 및 일반 영상 카메라를 이용하여 현재 공간상에 있는 인식 대상 물체의 3D Point Cloud를 획득한다(S 110). 여기서, 3D Point Cloud는 상기 인식 대상 물체의 실효성 있는 특징점(Constrained Feature)들로 이루어진다.
상기 단계 S 100 및 단계 S 110에서, 상기 물체의 3D Point Cloud를 획득하는 과정은 이후에 자세히 설명하기로 한다.
이어서, 상기 인식 대상 물체의 3D Point Cloud와 데이터 베이스 상에 저장되어 있는 3D Point Cloud를 정합(Matching) 하는 과정을 수행함으로써, 현재 공간 상에 있는 인식 대상 물체의 포즈가 데이터 베이스 상에 저장된 기준 포즈에서 어느 정도 변화하여 있는지를 검출한다(S 120).
여기서, 공간좌표(X, Y, Z)의 형태로 구성된 상기 3D Point Cloud는 각기 획득한 위치 및 물체의 포즈가 서로 다르기 때문에 이를 정합하는 데에는 수학적인 방법이 필요하며, 이때 사용되는 알고리즘으로 ICP(Iterative Closest Point) 알고리즘이 있다.
상기 ICP 알고리즘은 두 개의 3차원 점군 데이터(3D Point Cloud)의 대응관계를 모르는 상황에서도 적용가능하다는 장점이 있다.
상기 ICP 알고리즘을 통해 두 개의 3차원 점군 데이터 사이의 관계를 나타내는 벡터 즉, 회전 벡터(Rotation Vector)와 병진 벡터(Translation Vector)를 구할 수 있으며, 이를 통해 현재 공간상에 있는 물체의 포즈(Pose)가 데이터 베이스 상에 저장된 물체의 기준 포즈와 얼마만큼의 변화(즉, 회전 및 이동의 변화)가 있는지를 정확히 인식할 수 있게 된다.
한편, ICP 알고리즘을 통해 인식 대상 물체의 3D Point Cloud와 데이터 베이스 상에 저장되어 있는 3D Point Cloud를 정합하는 과정을 살펴보면 다음과 같다.
i) 입력된 두 영상 데이터 간에 미리 정의된 영역에서 데이터의 각 점마다 대응하는 가장 가까운 모델의 점 집합(Point Set)을 찾는다. 이때 각 점들 간의 거리는 유클리디안 거리(Euclidean Distance)를 이용하여 계산한다.
ii) 상기 구해진 각 점 집합(Point Set) 간의 거리를 최소화하는 3차원 변환 파라미터 즉, 회전 벡터(Rotation Vector)와 병진 벡터(Translation Vector)를 구한다.
iii) 상기 점 집합(Point Set) 간의 정합을 위해 상기 ii) 과정에서 구한 회전 벡터(Rotation Vector) 및 병진 벡터(Translation Vector)를 적용하여 데이터 점들을 변환한다.
즉, 상기 병진 벡터(Translation Vector)를 통해 대상 데이터를 이동시키면서 두 영상 데이터에서 거리가 가장 가까운 점 집합을 찾고, 그 거리를 최소화시키는 회전 벡터(Rotation Vector)를 구하여 두 영상 데이터를 일치시켜 나간다.
iv) 거리 오차가 최소가 될 때까지 위의 과정을 반복하여 두 영상 데이터를 일치시킨다.
이와 같이 ICP 알고리즘을 이용한 3차원 영상 정합 과정을 도 2에서 개략적으로 나타내었다.
본 발명에서는 먼저 로봇이 파지하고자 하는 물체의 모든 3차원 좌표값을 알고 있는 기준 모델을 정하여 두고, 현재 공간상에 있는 상기 물체를 촬영하여 얻어진 3차원 좌표값들이 기준 모델의 3차원 좌표값들로부터 얼마만큼 차이가 있는지를 계산하여 주어진 물체의 포즈를 인식하도록 하는데, 이때 기준 모델과 현재 얻어진 영상을 정합하는 방법으로 ICP 알고리즘을 사용한다.
또한, 본 발명에서는 물체의 3D Point Cloud를 획득하는 경우, 물체의 전체 면에 대한 점군 데이터가 아닌 물체의 실효성 있는 특징점(Constrained Feature)들로 이루어진 점군 데이터를 사용한다.
도 3은 본 발명의 3D Point Cloud를 획득하는 과정을 나타낸 순서도이다. 이러한 과정은 물체 전체의 3D Point Cloud DB를 생성(즉, 물체의 전면부의 3D Point Cloud를 획득할 때와 물체의 후면부의 3D Point Cloud를 획득할 때)하는 경우와, 현재 공간상에 있는 인식 대상 물체의 3D Point Cloud를 획득하는 경우에 모두 사용된다.
먼저, 로봇의 IR TOF(Time of Flight) 카메라로 현재 공간상에 있는 인식 대상 물체를 촬영하여 상기 인식 대상 물체의 거리 정보 및 3차원 좌표값을 획득한다(S 200).
본 발명에서는 IR TOF 카메라를 이용하여 인식 대상 물체의 3차원 공간상에서의 거리 및 위치 정보를 얻게 되는데, 여기서 TOF(Time of Flight)는 적외선(Infrared Ray)이 방출된 후, 전방의 장애물에 반사되어 검출되는 시간을 의미한다.
상기 TOF(Time of Flight)를 통한 거리 측정 방식에 대해 도 4를 참조하여 살펴보기로 한다.
이에 도시된 바와 같이, TOF(Time of Flight)는 적외선이 IR TOF 카메라의 발광 소자에서 방출된 시각 tt와 상기 적외선이 전방의 장애물에 반사되어 검출된 시각 tr의 차이에 의한 값으로 다음과 수학식 1과 같이 정의된다.
TOF = tr - tt
그리고, 상기 IR TOF 카메라를 통해 측정되는 물체의 거리 d는 다음 수학식 2와 같이 나타낼 수 있다.
d = (c × TOF)/2
여기서, c는 적외선의 속도를 의미한다.
상기 IR TOF(Time of Flight) 카메라를 이용하면 상기 인식 대상 물체의 거리 정보 및 위치 정보를 명확히 알 수 있으며, 조명 등 다른 환경에 영향을 받지 않는다는 장점이 있다.
즉, IR TOF(Time of Flight) 카메라는 적외선을 방출한 후, 전방의 물체에 반사되는 적외선을 검출하는 방식이기 때문에, 유리나 투명 아크릴판과 같은 비 시인성 물체들의 경우에도 물체의 거리를 정확히 계산할 수 있고, 물체와 주위 배경의 색상이 동일한 경우에도 물체를 쉽게 식별하여 거리를 검출할 수 있으며, 조명에도 영향을 받지 않는 장점이 있다.
다음으로, 일반 영상 카메라를 이용하여 인식 대상 물체를 촬영한 후, 촬영한 영상에서 인식 대상 물체의 에지(Edge)를 추출한다(S 210).
즉, 본 발명에서는 두 대의 카메라를 이용하게 되는데, 인식 대상 물체의 거리 정보 및 위치 정보는 TOF 카메라를 이용하여 얻게 되고, 인식 대상 물체의 영상 정보는 일반 영상 카메라를 이용하여 얻는다.
상기 인식 대상 물체의 에지(Edge)는 캐니 에지 알고리즘(Canny Edge Algorithm)을 이용하여 추출하는 것이 바람직하다.
상기 캐니 에지 알고리즘은 i) 이미지에 존재하는 대부분의 실제 에지(Edge)를 추출할 수 있어야 하고(Good Detection), ii) 추출된 에지는 실제 이미지 내에서 가능한 가까이 있어야 하며(Good Localization), iii) 이미지 내의 주어진 에지는 단 한 번만 표시되어야 하고, 이미지의 잡음이 잘못된 에지를 만들어서는 안 된다(Minimum Response)는 조건을 만족하여 우수한 성능을 나타낸다.
본 발명에서 캐니 에지 알고리즘을 사용하여 인식 대상 물체의 에지를 추출하는 과정은 다음과 같다.
step 1. 먼저 이미지 내의 잡음(Noise)을 줄이기 위해 가우시안 필터(Gaussian Filter)를 이용하여 평활화(Equalization)를 실시한다. 이때, 가우시안 마스크(Gaussian Mask)를 크게 할수록 잡음에 대한 민감도는 떨어지게 된다.
step 2. x, y 축 소벨 연산자(Sobel Operator)를 사용하여 기울기(Gradient)의 크기를 계산하고, 상기 소벨 연산자에 의해 구해진 x, y 축 벡터를 이용해 기울기의 방향을 구한다.
step 3. 정해진 기울기 방향에 따라 비 최대치 억제(non-maximum suppression) 과정을 적용한다. 이는 정해진 기울기 방향에 존재하는 평활화된 픽셀(equalized pixel) 값 중 최대 값(maximum)을 제외하고 0으로 지정하는 것으로, 최소한의 에지를 구할 수 있게 된다.
step 4. 에지(Edge)의 결정은 히스테리시스(Hysteresis)라는 기법을 통해 이루어지며, 이 방법은 에지를 이루는 픽셀(Pixel) 값의 편차가 클 경우 단일한 임계(Threshold) 값이 적용되었을 때 에지의 일정 부분이 제거되는 것을 방지하기 위한 것이다.
따라서, 로우(Low)와 하이(High) 두 개의 임계값이 사용되며, 하이(High) 보다 큰 값은 edge로 간주하고, 로우(Low) 보다 작은 값은 non-edge로 간주한다. 그리고 로우(Low)와 하이(High) 사이의 값은 주변에 하이(High) 이상인 값이 있을 경우 에지로 간주한다.
이어서, 상기 TOF 카메라로 촬영한 거리 정보 이미지와 인식 대상 물체의 에지(Edge) 이미지를 앤드(AND) 연산하여 3D Point Cloud를 획득한다(S 220).
즉, TOF 카메라를 이용하여 3D 정보가 포함되어 있는 거리 정보를 획득하고, 일반 영상 카메라로 촬영한 영상으로부터 캐니 에지 알고리즘을 통해 2차원 에지 데이터를 추출한 후, 상기 거리 정보와 에지 데이터를 AND 연산한다.
상기 거리 정보 이미지와 캐니 에지 이미지를 AND 연산하여 얻어지는 것이 실효성있는 특징점 에지(Constrained Feature Edge)인데, 이것이 촬영 영상의 3D Point Cloud가 된다.
이와 같이 본 발명은 3D Point Cloud를 획득하는 방식에 있어서, TOF 카메라를 이용하여 거리 정보를 획득하고, 일반 영상 카메라로 촬영한 영상에서 캐니 에 지 이미지를 추출한 후, 상기 거리 정보 이미지와 캐니 에지 이미지를 AND 연산하는 것에 그 특징이 있다.
이러한 방식으로 3D Point Cloud를 획득하면 점 군의 개수가 줄어들어 ICP(Iterative Closest Point) 알고리즘 수행시 작업 시간을 획기적으로 줄일 수 있다.
본 발명에 의해 획득한 3D Point Cloud는 인식 대상 물체의 실효성 있는 특징점(Constrained Feature) 들로 이루어지기 때문에, 3D Point Cloud의 점 군의 개수가 줄어들더라도 인식 대상 물체의 3차원 정보를 잘 반영하며, 그로 인해 ICP(Iterative Closest Point) 알고리즘 수행시 두 영상 간의 정합에 지장을 주지 않는다.
즉, 기존에는 ICP(Iterative Closest Point) 알고리즘 수행시 작업 시간을 줄이고자 3D Point Cloud의 점 군의 개수를 줄였을 때, 3D Point Cloud에 인식 대상 물체의 3차원 정보가 제대로 반영되지 않아 매칭이 잘 되지 않았는데, 본 발명에 의하면 이러한 문제를 해결할 수 있게 된다.
이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다.
그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되 며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
도 1은 본 발명의 TOF 카메라를 이용한 로봇의 물체 자세 인식 방법의 개괄적인 흐름을 나타낸 순서도.
도 2는 ICP 알고리즘을 이용한 3차원 영상 정합 과정을 나타낸 도면.
도 3은 본 발명의 3D Point Cloud를 획득하는 과정을 나타낸 순서도.
도 4는 거리 측정에 있어서 TOF(Time of Flight)를 나타낸 그래프.

Claims (7)

  1. 인식 대상 물체 전체의 3차원 점군 데이터(3D Point Cloud)를 획득하여 데이터 베이스에 저장하는 단계;
    TOF(Time of Flight) 카메라 및 일반 영상 카메라로 상기 인식 대상 물체를 각각 촬영한 후, 상기 촬영한 영상으로부터 3차원 점군 데이터를 획득하는 단계; 및
    상기 데이터 베이스에 저장된 물체 전체의 3차원 점군 데이터와 상기 촬영한 영상으로부터 획득한 3차원 점군 데이터를 정합하여 상기 촬영한 인식 대상 물체의 자세를 인식하는 단계를 포함하여 이루어지며,
    상기 3차원 점군 데이터는 상기 인식 대상 물체의 실효성 있는 특징점(Constrained Feature)들로 이루어지는 것을 특징으로 하는 TOF 카메라를 이용한 로봇의 물체 자세 인식 방법.
  2. 제1항에 있어서,
    상기 인식 대상 물체 전체의 3차원 점군 데이터(3D Point Cloud)를 획득하는 단계는,
    상기 인식 대상 물체의 전면부의 3차원 점군 데이터를 획득하는 단계;
    상기 인식 대상 물체의 후면부의 3차원 점군 데이터를 획득하는 단계; 및
    상기 인식 대상 물체의 전면부의 3차원 점군 데이터와 상기 인식 대상 물체의 후면부의 3차원 점군 데이터를 병합(Merge)하는 단계를 포함하여 이루어지는 것을 특징으로 하는 TOF 카메라를 이용한 로봇의 물체 자세 인식 방법.
  3. 제1항에 있어서,
    상기 데이터 베이스에 저장된 물체 전체의 3차원 점군 데이터와 상기 촬영한 영상으로부터 획득한 3차원 점군 데이터의 정합은 ICP(Iterative Closest Point) 알고리즘을 이용하여 수행하는 것을 특징으로 하는 TOF 카메라를 이용한 로봇의 물체 자세 인식 방법.
  4. 제3항에 있어서,
    상기 촬영한 인식 대상 물체의 자세를 인식하는 단계는,
    상기 ICP(Iterative Closest Point) 알고리즘을 수행한 결과 얻어진 회전 벡터(Rotation Vector) 및 병진 벡터(Translation Vector)를 이용하는 것을 특징으로 하는 TOF 카메라를 이용한 로봇의 물체 자세 인식 방법.
  5. 제1항 내지 제3항 중 어느 하나의 항에 있어서,
    상기 3차원 점군 데이터의 획득은,
    상기 TOF 카메라를 이용하여 상기 인식 대상 물체의 거리 정보 이미지를 획득하는 단계;
    상기 일반 영상 카메라를 통해 촬영한 영상 이미지에서 상기 인식 대상 물체의 에지(Edge) 이미지를 검출하는 단계; 및
    상기 거리 정보 이미지와 상기 에지 이미지를 AND 연산하는 단계를 포함하여 이루어지는 것을 특징으로 하는 TOF 카메라를 이용한 로봇의 물체 자세 인식 방법.
  6. 제5항에 있어서,
    상기 에지(Edge) 이미지의 검출은,
    캐니 에지 알고리즘(Canny Edge Algorithm)을 이용하는 것을 특징으로 하는 TOF 카메라를 이용한 로봇의 물체 자세 인식 방법.
  7. 제5항에 있어서,
    상기 에지(Edge) 이미지를 검출하는 단계는,
    상기 인식 대상 물체의 영상에 가우시안 필터(Gaussian Filter)를 이용하여 평활화(Equalization)를 실시하는 단계;
    미분 연산자를 이용하여 상기 영상의 기울기(Gradient) 크기 및 기울기 방향 을 구하는 단계;
    상기 기울기 방향에 따라 상기 영상에 비 최대치 억제(non-maximum suppression)과정을 적용하는 단계; 및
    히스테리시스(Hystersis) 기법을 사용하여 상기 영상의 에지를 검출하는 단계를 포함하여 이루어지는 것을 특징으로 하는 TOF 카메라를 이용한 로봇의 물체 자세 인식 방법.
KR1020070117082A 2007-11-16 2007-11-16 Tof 카메라를 이용한 로봇의 물체 자세 인식 방법 KR100920931B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070117082A KR100920931B1 (ko) 2007-11-16 2007-11-16 Tof 카메라를 이용한 로봇의 물체 자세 인식 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070117082A KR100920931B1 (ko) 2007-11-16 2007-11-16 Tof 카메라를 이용한 로봇의 물체 자세 인식 방법

Publications (2)

Publication Number Publication Date
KR20090050567A true KR20090050567A (ko) 2009-05-20
KR100920931B1 KR100920931B1 (ko) 2009-10-12

Family

ID=40859013

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070117082A KR100920931B1 (ko) 2007-11-16 2007-11-16 Tof 카메라를 이용한 로봇의 물체 자세 인식 방법

Country Status (1)

Country Link
KR (1) KR100920931B1 (ko)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110080327A (ko) * 2010-01-05 2011-07-13 삼성전자주식회사 얼굴 인식 장치 및 그 방법
KR101120632B1 (ko) * 2010-04-21 2012-03-20 주식회사 매크로그래프 움직임이 있는 점 데이터의 정합 방법과 상기 방법을 수행할 수 있는 장치
WO2012111976A3 (ko) * 2011-02-16 2012-12-20 Kim Seok-Joong 표시면에 포인터를 사용하지 않는 가상 터치 장치
WO2013009040A3 (ko) * 2011-07-11 2013-03-07 Kim Seok-Joong 3차원 모델링된 전자기기의 가상터치를 이용한 원격 조작 장치 및 방법
KR101272458B1 (ko) * 2012-05-11 2013-06-07 김석중 포인터를 사용하지 않는 가상 터치 장치 및 방법
US8670593B2 (en) 2010-11-03 2014-03-11 Samsung Electronics Co., Ltd. Apparatus and method for dynamically controlling integration time of depth camera for accuracy improvement
KR101387892B1 (ko) * 2012-06-29 2014-04-21 인텔렉추얼디스커버리 주식회사 온도 정보를 사용한 동작 인식 장치 및 방법
US9165211B2 (en) 2010-10-20 2015-10-20 Samsung Electronics Co., Ltd. Image processing apparatus and method
US9258548B2 (en) 2010-12-27 2016-02-09 Samsung Electronics Co., Ltd. Apparatus and method for generating depth image
KR20160147196A (ko) * 2015-06-12 2016-12-22 삼성전자주식회사 엑스선 장치 및 엑스선 촬영 방법
KR102063845B1 (ko) * 2019-06-21 2020-01-08 국방과학연구소 영상 기반 계측 장치 및 그 방법
KR20200043941A (ko) * 2014-01-29 2020-04-28 엘지이노텍 주식회사 깊이 정보 추출 장치
US10943401B2 (en) 2019-02-01 2021-03-09 International Business Machines Corporation Active visual recognition in mobile augmented reality
US11023730B1 (en) 2020-01-02 2021-06-01 International Business Machines Corporation Fine-grained visual recognition in mobile augmented reality

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101791590B1 (ko) 2010-11-05 2017-10-30 삼성전자주식회사 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법
KR101888564B1 (ko) 2011-12-29 2018-08-16 삼성전자주식회사 깊이 센서, 및 이의 깊이 계산 방법
KR20200050246A (ko) 2018-11-01 2020-05-11 삼성전자주식회사 2차원 영상으로부터 3차원 객체를 검출하는 방법 및 장치
KR102252866B1 (ko) 2019-05-08 2021-05-18 주식회사 바이오로그디바이스 ToF 카메라를 이용한 안면인식 방법
KR102426744B1 (ko) 2020-12-10 2022-07-29 주식회사 리페어코리아 Tof 카메라와 머신러닝 알고리즘을 활용한 자율주행 팔로잉 모빌리티의 동작 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128550A (ja) * 1995-10-31 1997-05-16 Omron Corp 画像処理方法およびその装置
JP3377465B2 (ja) 1999-04-08 2003-02-17 ファナック株式会社 画像処理装置
JP3834297B2 (ja) * 2003-05-12 2006-10-18 ファナック株式会社 画像処理装置
KR100585709B1 (ko) 2004-12-29 2006-06-07 엘지전자 주식회사 로봇청소기의 움직임 추적장치 및 방법

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110080327A (ko) * 2010-01-05 2011-07-13 삼성전자주식회사 얼굴 인식 장치 및 그 방법
KR101120632B1 (ko) * 2010-04-21 2012-03-20 주식회사 매크로그래프 움직임이 있는 점 데이터의 정합 방법과 상기 방법을 수행할 수 있는 장치
US9165211B2 (en) 2010-10-20 2015-10-20 Samsung Electronics Co., Ltd. Image processing apparatus and method
US8670593B2 (en) 2010-11-03 2014-03-11 Samsung Electronics Co., Ltd. Apparatus and method for dynamically controlling integration time of depth camera for accuracy improvement
US9258548B2 (en) 2010-12-27 2016-02-09 Samsung Electronics Co., Ltd. Apparatus and method for generating depth image
WO2012111976A3 (ko) * 2011-02-16 2012-12-20 Kim Seok-Joong 표시면에 포인터를 사용하지 않는 가상 터치 장치
US9367138B2 (en) 2011-07-11 2016-06-14 VTouch Co., Ltd. Remote manipulation device and method using a virtual touch of a three-dimensionally modeled electronic device
EP2733585A2 (en) * 2011-07-11 2014-05-21 VTouch Co., Ltd. Remote manipulation device and method using a virtual touch of a three-dimensionally modeled electronic device
EP2733585A4 (en) * 2011-07-11 2015-01-14 Vtouch Co Ltd TELEMANIPULATION DEVICE AND METHOD USING A VIRTUAL CONTACT OF A THREE-DIMENSIONALLY MODELED ELECTRONIC DEVICE
CN103688236A (zh) * 2011-07-11 2014-03-26 维塔驰有限公司 利用三维模拟电子设备的虚拟触摸的远程操作装置及方法
WO2013009040A3 (ko) * 2011-07-11 2013-03-07 Kim Seok-Joong 3차원 모델링된 전자기기의 가상터치를 이용한 원격 조작 장치 및 방법
CN103688236B (zh) * 2011-07-11 2017-03-22 维塔驰有限公司 利用三维模拟电子设备的虚拟触摸的远程操作装置及方法
KR101272458B1 (ko) * 2012-05-11 2013-06-07 김석중 포인터를 사용하지 않는 가상 터치 장치 및 방법
KR101387892B1 (ko) * 2012-06-29 2014-04-21 인텔렉추얼디스커버리 주식회사 온도 정보를 사용한 동작 인식 장치 및 방법
KR20200043941A (ko) * 2014-01-29 2020-04-28 엘지이노텍 주식회사 깊이 정보 추출 장치
KR20160147196A (ko) * 2015-06-12 2016-12-22 삼성전자주식회사 엑스선 장치 및 엑스선 촬영 방법
US10943401B2 (en) 2019-02-01 2021-03-09 International Business Machines Corporation Active visual recognition in mobile augmented reality
KR102063845B1 (ko) * 2019-06-21 2020-01-08 국방과학연구소 영상 기반 계측 장치 및 그 방법
US11023730B1 (en) 2020-01-02 2021-06-01 International Business Machines Corporation Fine-grained visual recognition in mobile augmented reality

Also Published As

Publication number Publication date
KR100920931B1 (ko) 2009-10-12

Similar Documents

Publication Publication Date Title
KR100920931B1 (ko) Tof 카메라를 이용한 로봇의 물체 자세 인식 방법
KR100930626B1 (ko) 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법
US10456918B2 (en) Information processing apparatus, information processing method, and program
US10083512B2 (en) Information processing apparatus, information processing method, position and orientation estimation apparatus, and robot system
US8265425B2 (en) Rectangular table detection using hybrid RGB and depth camera sensors
JP4923101B2 (ja) 画像間の空間対応を判別して三次元再構成をする方法および装置
JP6983828B2 (ja) ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法
JP2011123071A (ja) 撮像装置、オクルージョン領域の探索方法、及びプログラム
KR102011564B1 (ko) 비전 시스템에서 3d 정렬 알고리즘의 자동 선택을 위한 시스템 및 방법
US9886769B1 (en) Use of 3D depth map with low and high resolution 2D images for gesture recognition and object tracking systems
Tran et al. Non-contact gap and flush measurement using monocular structured multi-line light vision for vehicle assembly
Huang et al. Mobile robot localization using ceiling landmarks and images captured from an rgb-d camera
JP6817742B2 (ja) 情報処理装置およびその制御方法
Dune et al. One click focus with eye-in-hand/eye-to-hand cooperation
WO2018065757A1 (en) Proximity sensor and corresponding distance measuring method
Ciliberto et al. A heteroscedastic approach to independent motion detection for actuated visual sensors
Hadi et al. Fusion of thermal and depth images for occlusion handling for human detection from mobile robot
Wang et al. An automatic self-calibration approach for wide baseline stereo cameras using sea surface images
KR20090070258A (ko) 3차원 기하학 정보를 이용한 실시간 지시 영역 추정 방법
JP5293429B2 (ja) 移動物体検出装置、及び移動物体検出方法
JP6606340B2 (ja) 画像検出装置、画像検出方法およびプログラム
Chakravorty et al. Automatic image registration in infrared-visible videos using polygon vertices
KR101668649B1 (ko) 주변 환경 모델링 방법 및 이를 수행하는 장치
KR101669850B1 (ko) 센서 켈리브레이션 방법 및 이를 위한 전자 장치와 마커 보드 장치
KR101747350B1 (ko) 비주얼 서보잉을 위한 객체의 좌표 인식 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130621

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140708

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150626

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170523

Year of fee payment: 8

R401 Registration of restoration
FPAY Annual fee payment

Payment date: 20181001

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20190930

Year of fee payment: 11