KR101233938B1 - 객체 추적 로봇 및 그 방법 - Google Patents

객체 추적 로봇 및 그 방법 Download PDF

Info

Publication number
KR101233938B1
KR101233938B1 KR1020100082996A KR20100082996A KR101233938B1 KR 101233938 B1 KR101233938 B1 KR 101233938B1 KR 1020100082996 A KR1020100082996 A KR 1020100082996A KR 20100082996 A KR20100082996 A KR 20100082996A KR 101233938 B1 KR101233938 B1 KR 101233938B1
Authority
KR
South Korea
Prior art keywords
vertices
image
robot
distance
marker
Prior art date
Application number
KR1020100082996A
Other languages
English (en)
Other versions
KR20120019661A (ko
Inventor
남윤영
조승한
홍상진
조위덕
스타나세빅 밀루틴
Original Assignee
아주대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아주대학교산학협력단 filed Critical 아주대학교산학협력단
Priority to KR1020100082996A priority Critical patent/KR101233938B1/ko
Publication of KR20120019661A publication Critical patent/KR20120019661A/ko
Application granted granted Critical
Publication of KR101233938B1 publication Critical patent/KR101233938B1/ko

Links

Images

Abstract

객체 추적 로봇 및 그 방법이 개시된다. 본 발명의 실시예에 따른 객체 추적 로봇은, 객체 또는 객체에 부착된 마커를 촬영하는 카메라, 객체의 RFID 태그로부터 RFID 정보를 수신하는 RF 리시버, 레이저 신호를 수신하는 레이저 센서; 및 상기 카메라에서 수신된 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인하고, 추적하고자 하는 객체인 경우 상기 레이저 센서에 수신된 레이저 신호를 이용하여 객체와의 거리를 계산해서 객체와 일정한 거리를 유지하도록 구동모터를 제어하는 제어부를 포함한다.

Description

객체 추적 로봇 및 그 방법{ROBOT AND METHOD OF TRACING OBJECT}
본 발명은 객체 추적 로봇 및 그 방법에 관한 것으로, 더욱 자세하게는 이동하는 객체를 일정한 거리를 두고서 추적하는 기술에 관한 것이다.
이동하는 물체나 사람을 추적하는 로봇은 물체 또는 사람에 부착된 GPS(Global Positioning System) 수신기로부터 수신된 위치정보를 이용하여, 물체 또는 사람을 추적하였다. 그런데 GPS 수신기는 실내에 위치한 경우 주위 환경에 따른 간섭으로 인해서 위성으로부터 수신되는 신호의 감쇄가 심해서 물체 또는 사람의 위치를 정확히 파악할 수 없게 된다. 이로 인해서 로봇은 물체 또는 사람의 추적을 원활하게 수행할 수 없게 된다.
이를 극복하기 위해서 관성측정장치를 물체나 사람에 부착하는 방법이 제시되었으나 특별한 기구 설계가 요구되면 구현비용이 증가하는 문제점이 있다.
실내에서 이동하는 객체의 형상정보, 객체에 부착된 마커 정보, 객체의 RFID 태그 정보 중 어느 하나를 이용하여 객체를 인식하고, 인식된 객체와의 거리정보를 이용하여 모터의 구동을 제어해서 인식된 객체를 일정한 거리를 두고서 추적하는 객체 추적 로봇 및 그 방법이 제안된다.
본 발명의 일 양상에 따른 객체 추적 로봇은, 객체 또는 객체에 부착된 마커를 촬영하는 카메라; 객체의 RFID 태그로부터 RFID 정보를 수신하는 RF 리시버; 레이저 신호를 수신하는 레이저 센서; 및 상기 카메라에서 수신된 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인하고, 추적하고자 하는 객체인 경우 상기 레이저 센서에 수신된 레이저 신호를 이용하여 객체와의 거리를 계산해서 객체와 일정한 거리를 유지하도록 구동모터를 제어하는 제어부를 포함한다.
상기 마커는, 흑색 테두리 내에 흑색 및 백색의 셀로 구성되며, 4비트의 체크썸, 32비트의 에러교정데이터 및 28비트의 정보로 인코딩될 수 있다.
상기 흑색 테두리는, 이미지가 블로어(blur) 되거나 초점이 맞지 않는 경우에 디코딩을 용이하게 하는 역할을 할 수 있다.
상기 제어부는, 객체의 형상, 색상 및 질감 중 적어도 어느 하나를 통하여 상기 카메라에서 수신된 객체 이미지와 미리 저장된 객체의 이미지의 유사 여부를 판단할 수 있다.
상기 제어부는, 상기 카메라에서 수신된 객체 이미지를 아래의 수학식을 이용하여 HSV 데이터로 변환해서 해당 데이터의 각 픽셀의 색상과 채도 데이터를 X축이 색상(Hue: H)으로 정의되고 Y축이 채도(Saturation : S)로 정의되는 H-S 2차원 공간에 표현하고, LBG(Linde-Buzo-Gray) 알고리즘을 적용해서 H-S 2차원 공간에 표현된 HSV 데이터에서 색상 클러스터를 추출하며 미리 저장된 객체의 이미지에 대해서도 H-S 2차원 공간으로 표현해서 LBG 알고리즘을 적용해서 색상 클러스터를 추출하며, 상기 추출된 구한 색상 클러스터들의 중점들끼리의 최소 거리의 합을 누적 계산해서 상기 계산된 최소 거리의 합을 이용하여 수신된 객체 이미지의 색상과 미리 저장된 객체 이미지의 색상의 유사 여부를 판단할 수 있다.
[수 학 식]
Figure 112010055254400-pat00001
이때, H는 색상을 나타내고, S는 채도를 나타내고, V는 명도(Value)를 나타낸다. 그리고, R, G 및 B는 각각 빨강, 초록 및 파랑을 나타낸다.
상기 제어부는, 상기 계산된 최소 거리의 합이 작을수록 두 이미지의 색상 유사성이 높은 것으로 판단할 수 있다.
상기 제어부는, 상기 카메라에서 수신된 마커 이미지를 설정된 크기의 픽셀 블록(block)으로 다운스케일(downscale) 하여 하나의 슈퍼(super) 픽셀의 마커 이미지로 만든 후, 다운스케일된 마커 이미지에 대한 그레이스케일(grayscale) 값의 히스토그램을 계산하고, 2-means 분류기를 이용하여 이미지를 바이너리화 하기 위해 그레이스케일값에 대한 임계값을 찾고, BFS(Breadth-first-search)를 사용하여 슈퍼 픽셀의 마커 이미지 내 각 블록에 연결된 컴포넌트를 검색하고, 상기 검색된 컴포넌트들에 대해서 호프 변환(Hough transform)을 하여 1차로 각 연결된 컴포넌트의 네 개의 코너점을 찾고, 상기 1차로 네 개의 코너점을 찾은 후 상기 네 개의 코너점 주변의 픽셀들을 파악해서 파악된 주변의 픽셀들 중 마커의 기울어짐을 가장 최소화하는 네 개의 코너점을 산출하고, 상기 산출된 네 개의 코너점의 각도를 평행-평행-매핑(plane-to-plane homography)으로 설정된 마커의 위치에 맞도록 조절하여 일치 여부를 판단할 수 있다.
상기 제어부는, 상기 계산된 거리에 대해서 Split-and-Merge 알고리즘을 이용하여 주변의 경계선 및 꼭지점을 찾아내고, 상기 찾아낸 주변의 꼭지점들을 주변 환경의 꼭지점들의 절대적인 좌표로 구성된 맵 정보와 비교하여 로봇의 위치와 이동방향을 계산할 수 있다.
상기 제어부는, 상기 꼭지점들의 동일한 패턴을 맵 정보에서 찾아내기 위해 꼭지점들 사이의 거리와 각 정보를 이용하되, 상기 동일한 패턴을 갖는 꼭지점들을 맵정보에서 찾은 이후에 로봇의 위치를 아래의 수학식을 이용하여 파악할 수 있다.
[수 학 식]
Figure 112010055254400-pat00002
,
Figure 112010055254400-pat00003
,
Figure 112010055254400-pat00004
이때,
Figure 112010055254400-pat00005
은 절대원점을 기준으로 한 계산된 로봇의 이동방향이고,
Figure 112010055254400-pat00006
은 동일한 패턴을 갖는 꼭지점들의 개수이고,
Figure 112010055254400-pat00007
는 꼭지점들의 인덱스이고,
Figure 112010055254400-pat00008
는 인덱스 i의 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점이고,
Figure 112010055254400-pat00009
는 인덱스 i의 맵정보에 저장된 꼭지점이고,
Figure 112010055254400-pat00010
는 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점들의 집합이고,
Figure 112010055254400-pat00011
은 맵정보에 저장된 꼭지점들의 집합이고,
Figure 112010055254400-pat00012
는 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점 인덱스 i를 기준으로 꼭지점 인덱스 j가 이루는 각이고,
Figure 112010055254400-pat00013
은 맵정보의 꼭지점 인덱스 i를 기준으로 꼭지점 인덱스 j가 이루는 각이고,
Figure 112010055254400-pat00014
은 절대원점을 기준으로 한 계산된 로봇의 x축 방향 좌표이고,
Figure 112010055254400-pat00015
은 절대원점을 기준으로 한 계산된 로봇의 y축 방향 좌표이고,
Figure 112010055254400-pat00016
는 레인지 파인더의 데이터로부터 추출된 꼭지점 인덱스
Figure 112010055254400-pat00017
의 x축 방향 상대좌표이고,
Figure 112010055254400-pat00018
는 맵정보의 꼭지점 인덱스
Figure 112010055254400-pat00019
의 x축 방향 절대좌표이고,
Figure 112010055254400-pat00020
는 레인지 파인더의 데이터로부터 추출된 꼭지점 인덱스
Figure 112010055254400-pat00021
의 y축 방향 상대좌표이고,
Figure 112010055254400-pat00022
는 맵정보의 꼭지점 인덱스
Figure 112010055254400-pat00023
의 y축 방향 절대좌표이다.
상기 제어부는, 상기 맵에 저장된 꼭지점들과 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점들의 패턴을 비교하여 가장 높은 상관도를 갖는 꼭지점들을 선택하고, 찾은 패턴의 위치를 이용하여 로봇의 위치를 유추할 수 있다.
본 발명의 다른 양상에 따른 객체 추적 로봇의 객체 추적 방법은, 객체 또는 객체에 부착된 마커를 촬영하고, 객체의 RFID 태그로부터 RFID 정보를 수신하고, 레이저 신호를 수신하는 데이터 수집 단계; 상기 카메라에서 수신된 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인하는 단계; 및 상기 해당 객체가 추적하고자 하는 객체인 경우 상기 레이저 센서에 수신된 레이저 신호를 이용하여 객체와의 거리를 계산해서 객체와 일정한 거리를 유지하도록 구동모터를 제어하는 단계를 포함한다.
본 발명의 실시예에 따른 객체 추적 로봇에 따르면, 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인하고, 추적하고자 하는 객체인 경우 레이저 센서에서 수신된 객체와의 거리정보를 이용하여 객체와 일정한 거리를 유지하도록 구동모터를 제어해서 구동모터에 연결된 바퀴의 회전수를 제어함으로써, 실내에서도 물체 또는 사람의 추적을 원활하게 수행할 수 있게 된다.
도 1은 본 발명의 실시예에 따른 객체 추적 로봇의 구성을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 마커를 나타낸 도면이다.
도 3a는 레인지파인더가 일정한 각 간격으로 레이저를 송출하고 송출된 레이저가 주변 환경으로부터 반사되어 돌아오는 시간을 이용하여 얻어진 거리를 나타낸 도면이다.
도 3b는 도 3a에 도시된 각각의 거리에 대해서 Split-and-Merge 알고리즘을 적용해서 찾아낸 주변의 경계선 및 꼭지점과 로봇의 위치를 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 객체추적로봇의 객체추적방법에 대한 플로차트이다.
이하에서는 첨부한 도면을 참조하여 본 발명의 실시예를 상세히 설명한다. 본 발명의 실시예를 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술 되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 실시예에 따른 객체 추적 로봇의 구성을 나타낸 도면이다.
도시된 바와 같이 본 발명의 실시예에 따른 객체 추적 로봇은, 카메라(1), 레이저 센서(2), RF 리시버(3), 제어부(4) 및 구동모터(5)를 포함한다.
카메라(1)는 객체 또는 객체에 부착된 마커를 촬영하여 촬영된 객체 이미지 또는 마커 이미지를 제어부(4)에 제공한다. 이때, 객체에 부착된 마커는 도 2에 도시된 바와 같이 흑색 테두리(10) 내에 가로×세로, 8×8로 이루어진 흑색과 백색의 셀로 구성되며, 4비트의 체크썸, 32비트의 에러교정데이터 및 28비트의 정보로 인코딩될 수 있다. 흑색 테두리(10)는 이미지가 블로어(blur) 되거나 초점이 맞지 않는 경우에 디코딩을 용이하게 하는 역할을 한다.
RF 리시버(3)는 객체의 RFID 태그로부터 RFID 정보를 수신하여 제어부(4)에 제공한다.
레이저 센서(2)는 레이저 신호를 수신하여 제어부(4)에 제공한다.
제어부(4)는 카메라(1)에서 수신된 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인하고, 추적하고자 하는 객체인 경우 레이저 센서(2)에서 제공된 레이저 신호를 이용하여 객체와의 거리정보를 계산하고 계산된 거리정보를 이용하여 구동모터(5)의 제어를 통해 구동모터(5)에 연결된 바퀴(6, 7)의 회전수를 제어한다. 이를 통해서 객체 추적 로봇이 일정한 거리를 두면서 객체를 추적할 수 있게 된다.
이때, 제어부(4)는 카메라(1)에서 수신된 객체 이미지와 미리 저장된 객체의 이미지의 유사 여부로서 촬영된 객체가 추적하고자 하는 객체인가를 확인한다. 이미지의 일치 여부는 객체의 형상, 색상 및 질감 중 적어도 어느 하나를 통하여 이루어질 수 있다.
이 중 색상을 통하여 이미지의 일치 여부의 판단은 다음과 같이 이루어질 수 있다. 즉, 제어부(4)는 카메라(1)에서 수신된 객체 이미지를 아래의 수학식 1을 이용하여 HSV 데이터로 변환하고, 변환된 HSV 데이터의 각 픽셀의 색상과 채도 데이터를 X축이 색상(Hue: H)으로 정의되고 Y축이 채도(Saturation : S)로 정의되는 H-S 2차원 공간에 표현한다. 제어부(4)는 LBG(Linde-Buzo-Gray) 알고리즘을 적용해서 H-S 2차원 공간에 표현된 HSV 데이터에서 색상 클러스터를 추출한다. 이와 동시에 미리 저장된 객체의 이미지에 대해서도 H-S 2차원 공간으로 표현해서 LBG 알고리즘을 적용해서 색상 클러스터를 추출한다.
Figure 112010055254400-pat00024
이때, H는 색상을 나타내고, S는 채도를 나타내고, V는 명도(Value)를 나타낸다. 그리고, R, G 및 B는 각각 빨강, 초록 및 파랑을 나타낸다.
제어부(4)는 LBG 알고리즘을 이용하여 구한 색상 클러스터들의 중점들끼리의 최소 거리의 합을 누적 계산하고, 계산된 최소 거리의 합을 이용하여 수신된 객체 이미지와 미리 저장된 객체의 이미지의 유사 여부를 판단한다. 이때, 제어부(4)는 계산된 최소 거리의 합이 작을수록 두 이미지의 색상 유사성이 높은 것으로 판단할 수 있다.
한편, 마커를 부착한 객체가 추적하고자 하는 객체인가의 확인 과정에 대해서 살펴보기로 한다. 객체마다 마커의 부착 위치가 달라질 수 있기 때문에, 마커의 위치 및 각도 조절이 필요하게 된다. 이를 위해서 제어부(4)는 카메라(1)에서 수신된 마커 이미지를 설정된 크기의 5X5 픽셀 블록(block)으로 다운스케일(downscale) 하여 하나의 슈퍼(super) 픽셀의 마커 이미지로 만든 후, 다운스케일된 마커 이미지에 대한 그레이스케일(grayscale) 값의 히스토그램을 계산한다. 이후 제어부(4)는 2-means 분류기를 이용하여 이미지를 바이너리화 하기 위해 그레이스케일값에 대한 임계값을 찾는다. 이때, 그레이스케일값에 대한 임계값은 슈퍼픽셀의 마커 이미지 내 임의의 블록이 흑색 픽셀인지 또는 백색 픽셀인지를 결정하는데 사용된다. 이러한 바이너리화 과정을 통해서 주변의 빛에 적응적이고 빛의 변화에서도 2D 마커의 테두리를 찾을 수 있게 된다.
이후 제어부(4)는 BFS(Breadth-first-search)를 사용하여 슈퍼 픽셀의 마커 이미지 내 각 블록에 연결된 컴포넌트를 검색한다. 이때, 컴포넌트는 슈퍼 픽셀의 마커 이미지 내 흑색 블록을 나타낼 수 있다.
제어부(4)는 검색된 컴포넌트들에 대해서 호프 변환(Hough transform)을 하여 1차로 각 연결된 컴포넌트의 네 개의 코너점을 찾는다. 제어부(4)는 상기 1차로 네 개의 코너점을 찾은 후, 상기 네 개의 코너점 주변의 픽셀들을 파악해서 파악된 주변의 픽셀들 중 마커의 기울어짐을 가장 최소화하는 네 개의 코너점을 산출한다. 이렇게 두 번에 걸쳐서 네 개의 코너점을 찾는 이유는 1차로 호프변환을 통해 파악된 네 개의 코너점의 경우 마커의 기울어짐이 반영되지 않았기 때문이다.
이후 제어부(4)는 마커가 임의의 각도로 캡쳐될 수 있기 때문에 균형 조정을 위해서 상기 산출된 네 개의 코너점을 평행-평행-매핑(plane-to-plane homography) 으로 조정을 한다. 즉, 산출된 네 개의 코너점의 각도를 평행-평행-매핑으로 설정된 마커의 위치에 맞도록 조절한다. 제어부(4)는 평행-평행-매핑으로 각도가 조정된 마커와 설정된 마커의 일치 여부를 확인하여 마커를 부착한 객체가 추적하고자 하는 객체인가를 판단한다.
한편, 제어부(4)는 레인지 파인더(미도시)를 포함할 수 있다. 레인지 파인더는 일정한 각 간격으로 레이저를 주변으로 방사 한다. 제어부(4)는 레이저 파인더로부터 방사된 각각의 레이저가 주변 환경에 반사되어 레이저 센서(2)에 돌아오는 시간을 이용하여 레이저가 반사된 지점까지의 거리를 계산한다. 이에 따라 제어부(4)는 레이저의 일정 간격마다 반사되는 지점까지의 거리정보를 얻을 수 있게 된다. 즉, 제어부(4)는 레인지 파인더를 이용하여 주변 환경까지의 거리정보를 파악함으로써 추적하고자 하는 객체까지의 거리를 정확히 파악할 수 있게 된다.
이때, 레인지파인더가 일정한 각 간격으로 레이저를 송출하고 송출된 레이저가 주변 환경으로부터 반사되어 돌아오는 시간을 이용하여 얻어진 거리를 나타낸 도면이 도 3a에 도시되어 있고, 도 3a에 도시된 각각의 거리에 대해서 Split-and-Merge 알고리즘을 적용해서 찾아낸 주변의 경계선 및 꼭지점과 로봇의 위치를 나타낸 도면이 도 3b에 도시되어 있다.
제어부(4)는 Split-and-Merge 알고리즘을 이용하여 찾아낸 주변의 꼭지점들을 주변 환경의 꼭지점들의 절대적인 좌표로 구성된 맵 정보와 비교하여 로봇의 위치와 이동방향을 계산한다. 이때 꼭지점들의 동일한 패턴을 맵 정보에서 찾아내기 위해 꼭지점들 사이의 거리와 각 정보를 이용한다. 제어부(4)는 동일한 패턴을 갖는 꼭지점들을 맵정보에서 찾은 이후에 로봇의 위치를 아래의 수학식 2를 이용하여 파악할 수 있다. 이때, 로봇의 위치는 맵에 저장된 꼭지점들과 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점들의 패턴을 비교하여 가장 높은 상관도를 갖는 꼭지점들을 선택하고, 찾은 패턴의 위치를 이용하여 로봇의 위치를 유추할 수 있다.
Figure 112010055254400-pat00025
Figure 112010055254400-pat00026
,
Figure 112010055254400-pat00027
이때,
Figure 112010055254400-pat00028
은 절대원점을 기준으로 한 계산된 로봇의 이동방향이고,
Figure 112010055254400-pat00029
은 동일한 패턴을 갖는 꼭지점들의 개수이고,
Figure 112010055254400-pat00030
는 꼭지점들의 인덱스이고,
Figure 112010055254400-pat00031
는 인덱스 i의 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점이고,
Figure 112010055254400-pat00032
는 인덱스 i의 맵정보에 저장된 꼭지점이고,
Figure 112010055254400-pat00033
는 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점들의 집합이고,
Figure 112010055254400-pat00034
은 맵정보에 저장된 꼭지점들의 집합이고,
Figure 112010055254400-pat00035
는 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점 인덱스 i를 기준으로 꼭지점 인덱스 j가 이루는 각이고,
Figure 112010055254400-pat00036
은 맵정보의 꼭지점 인덱스 i를 기준으로 꼭지점 인덱스 j가 이루는 각이고,
Figure 112010055254400-pat00037
은 절대원점을 기준으로 한 계산된 로봇의 x축 방향 좌표이고,
Figure 112010055254400-pat00038
은 절대원점을 기준으로 한 계산된 로봇의 y축 방향 좌표이고,
Figure 112010055254400-pat00039
는 레인지 파인더의 데이터로부터 추출된 꼭지점 인덱스
Figure 112010055254400-pat00040
의 x축 방향 상대좌표이고,
Figure 112010055254400-pat00041
는 맵정보의 꼭지점 인덱스
Figure 112010055254400-pat00042
의 x축 방향 절대좌표이고,
Figure 112010055254400-pat00043
는 레인지 파인더의 데이터로부터 추출된 꼭지점 인덱스
Figure 112010055254400-pat00044
의 y축 방향 상대좌표이고,
Figure 112010055254400-pat00045
는 맵정보의 꼭지점 인덱스
Figure 112010055254400-pat00046
의 y축 방향 절대좌표이다.
도 4는 본 발명의 실시예에 따른 객체추적로봇의 객체추적로봇에 대한 플로차트이다.
도 4에 도시된 바와 같이, 객체추적로봇은 객체 또는 객체에 부착된 마커를 촬영하고, 객체의 RFID 태그로부터 RFID 정보를 수신하고, 레이저 신호를 수신한다(S1).
객체 추적 로봇은 카메라에서 수신된 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인한다(S2). 이때, 객체 추적 로봇은 객체의 형상, 색상 및 질감 중 적어도 어느 하나를 통하여 상기 카메라에서 수신된 객체 이미지와 미리 저장된 객체의 이미지의 유사 여부를 판단할 수 있다. 특히, 색상을 통하여 유사 여부에 대한 판단을 다음과 같이 수행할 수 있다. 즉, 객체 추적 로봇은 카메라에서 수신된 객체 이미지를 상기 수학식 1을 이용하여 HSV 데이터로 변환해서 해당 데이터의 각 픽셀의 색상과 채도 데이터를 X축이 색상(Hue: H)으로 정의되고 Y축이 채도(Saturation : S)로 정의되는 H-S 2차원 공간에 표현한다. 이후, 객체 추적 로봇은 LBG(Linde-Buzo-Gray) 알고리즘을 적용해서 H-S 2차원 공간에 표현된 HSV 데이터에서 색상 클러스터를 추출하며 미리 저장된 객체의 이미지에 대해서도 H-S 2차원 공간으로 표현해서 LBG 알고리즘을 적용해서 색상 클러스터를 추출한다. 객체 추적 로봇은 상기 추출된 구한 색상 클러스터들의 중점들끼리의 최소 거리의 합을 누적 계산해서 상기 계산된 최소 거리의 합을 이용하여 수신된 객체 이미지의 색상과 미리 저장된 객체 이미지의 색상의 유사 여부를 판단한다. 이때, 객체 추적 로봇은 상기 계산된 최소 거리의 합이 작을수록 두 이미지의 색상 유사성이 높은 것으로 판단할 수 있다.
한편, 객체 추적 로봇은 마커를 이용하여 추적 객체인가에 대한 판단을 다음과 같이 수행할 수 있다. 즉, 객체 추적 로봇은 상기 카메라에서 수신된 마커 이미지를 설정된 크기의 픽셀 블록(block)으로 다운스케일(downscale) 하여 하나의 슈퍼(super) 픽셀의 마커 이미지로 만든 후, 다운스케일된 마커 이미지에 대한 그레이스케일(grayscale) 값의 히스토그램을 계산한다. 객체 추적 로봇은 2-means 분류기를 이용하여 이미지를 바이너리화 하기 위해 그레이스케일값에 대한 임계값을 찾고, BFS(Breadth-first-search)를 사용하여 슈퍼 픽셀의 마커 이미지 내 각 블록에 연결된 컴포넌트를 검색한다. 객체 추적 로봇은 상기 검색된 컴포넌트들에 대해서 호프 변환(Hough transform)을 하여 1차로 각 연결된 컴포넌트의 네 개의 코너점을 찾는다. 객체 추적 로봇은 상기 1차로 네 개의 코너점을 찾은 후 상기 네 개의 코너점 주변의 픽셀들을 파악해서 파악된 주변의 픽셀들 중 마커의 기울어짐을 가장 최소화하는 네 개의 코너점을 산출한다. 객체 추적 로봇은 상기 산출된 네 개의 코너점의 각도를 평행-평행-매핑(plane-to-plane homography)으로 설정된 마커의 위치에 맞도록 조절하여 일치 여부를 판단할 수 있다.
이렇게 해당 객체가 추적하고자 하는 객체인 경우, 객체 추적 로봇은 레이저 센서에 수신된 레이저 신호를 이용하여 객체와의 거리를 계산해서 객체와 일정한 거리를 유지하도록 구동모터를 제어한다(S3). 이때, 객체 추적 로봇은, 상기 계산된 거리에 대해서 Split-and-Merge 알고리즘을 이용하여 주변의 경계선 및 꼭지점을 찾아내고, 상기 찾아낸 주변의 꼭지점들을 주변 환경의 꼭지점들의 절대적인 좌표로 구성된 맵 정보와 비교하여 로봇의 위치와 이동방향을 계산할 수 있다. 상기 꼭지점들의 동일한 패턴을 맵 정보에서 찾아내기 위해 꼭지점들 사이의 거리와 각 정보를 이용하되, 상기 동일한 패턴을 갖는 꼭지점들을 맵정보에서 찾은 이후에 로봇의 위치를 상기 수학식 2를 이용하여 파악할 수 있다. 이렇게 맵에 저장된 꼭지점들과 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점들의 패턴을 비교하여 가장 높은 상관도를 갖는 꼭지점들을 선택하고, 찾은 패턴의 위치를 이용하여 로봇의 위치를 유추할 수 있게 된다.
이제까지 본 발명에 대하여 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 따라서 본 발명의 범위는 전술한 실시예에 한정되지 않고 특허청구범위에 기재된 내용 및 그와 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.

Claims (18)

  1. 객체 또는 촬영시 이미지가 블로어(blur) 되거나 초점이 맞지 않은 경우에 디코딩을 용이하게 해주는 구성을 가지며 객체에 부착되는 마커를 촬영하는 카메라;
    객체의 RFID 태그로부터 RFID 정보를 수신하는 RF 리시버;
    레이저 신호를 수신하는 레이저 센서; 및
    상기 카메라에서 수신된 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인하고, 추적하고자 하는 객체인 경우 상기 레이저 센서에 수신된 레이저 신호를 이용하여 객체와의 거리를 계산해서 객체와 일정한 거리를 유지하도록 구동모터를 제어하는 제어부를 포함하는, 객체 추적 로봇.
  2. 제 1 항에 있어서,
    상기 마커는,
    흑색 테두리 내에 흑색 및 백색의 셀로 구성되며, 4비트의 체크썸, 32비트의 에러교정데이터 및 28비트의 정보로 인코딩되며,
    상기 흑색 테두리는, 촬영시 이미지가 블로어 되거나 초점이 맞지 않는 경우에 디코딩을 용이하게 하는 역할을 하는, 객체 추적 로봇.
  3. 삭제
  4. 제 1 항에 있어서,
    상기 제어부는,
    객체의 형상, 색상 및 질감 중 적어도 어느 하나를 통하여 상기 카메라에서 수신된 객체 이미지와 미리 저장된 객체의 이미지의 유사 여부를 판단하는, 객체 추적 로봇.
  5. 제 4 항에 있어서,
    상기 제어부는,
    상기 카메라에서 수신된 객체 이미지를 아래의 수학식을 이용하여 HSV 데이터로 변환해서 해당 데이터의 각 픽셀의 색상과 채도 데이터를 X축이 색상(Hue: H)으로 정의되고 Y축이 채도(Saturation : S)로 정의되는 H-S 2차원 공간에 표현하고, LBG(Linde-Buzo-Gray) 알고리즘을 적용해서 H-S 2차원 공간에 표현된 HSV 데이터에서 색상 클러스터를 추출하며 미리 저장된 객체의 이미지에 대해서도 H-S 2차원 공간으로 표현해서 LBG 알고리즘을 적용해서 색상 클러스터를 추출하며, 상기 추출된 구한 색상 클러스터들의 중점들끼리의 최소 거리의 합을 누적 계산해서 상기 계산된 최소 거리의 합을 이용하여 수신된 객체 이미지의 색상과 미리 저장된 객체 이미지의 색상의 유사 여부를 판단하는, 객체 추적 로봇.
    [수 학 식]
    Figure 112010055254400-pat00047

    이때, H는 색상을 나타내고, S는 채도를 나타내고, V는 명도(Value)를 나타낸다. 그리고, R, G 및 B는 각각 빨강, 초록 및 파랑을 나타낸다.
  6. 제 5 항에 있어서,
    상기 제어부는,
    상기 계산된 최소 거리의 합이 작을수록 두 이미지의 색상 유사성이 높은 것으로 판단하는, 객체 추적 로봇.
  7. 제 1 항에 있어서,
    상기 제어부는,
    상기 카메라에서 수신된 마커 이미지를 설정된 크기의 픽셀 블록(block)으로 다운스케일(downscale) 하여 하나의 슈퍼(super) 픽셀의 마커 이미지로 만든 후, 다운스케일된 마커 이미지에 대한 그레이스케일(grayscale) 값의 히스토그램을 계산하고, 2-means 분류기를 이용하여 이미지를 바이너리화 하기 위해 그레이스케일값에 대한 임계값을 찾고, BFS(Breadth-first-search)를 사용하여 슈퍼 픽셀의 마커 이미지 내 각 블록에 연결된 컴포넌트를 검색하고, 상기 검색된 컴포넌트들에 대해서 호프 변환(Hough transform)을 하여 1차로 각 연결된 컴포넌트의 네 개의 코너점을 찾고, 상기 1차로 네 개의 코너점을 찾은 후 상기 네 개의 코너점 주변의 픽셀들을 파악해서 파악된 주변의 픽셀들 중 마커의 기울어짐을 가장 최소화하는 네 개의 코너점을 산출하고, 상기 산출된 네 개의 코너점의 각도를 평행-평행-매핑(plane-to-plane homography)으로 설정된 마커의 위치에 맞도록 조절하여 일치 여부를 판단하는, 객체 추적 로봇.
  8. 제 1 항에 있어서,
    상기 제어부는,
    상기 계산된 거리에 대해서 Split-and-Merge 알고리즘을 이용하여 주변의 경계선 및 꼭지점을 찾아내고, 상기 찾아낸 주변의 꼭지점들을 주변 환경의 꼭지점들의 절대적인 좌표로 구성된 맵 정보와 비교하여 로봇의 위치와 이동방향을 계산하는, 객체 추적 로봇.
  9. 제 8 항에 있어서,
    상기 제어부는,
    상기 꼭지점들의 동일한 패턴을 맵 정보에서 찾아내기 위해 꼭지점들 사이의 거리와 각 정보를 이용하되,
    상기 동일한 패턴을 갖는 꼭지점들을 맵정보에서 찾은 이후에 로봇의 위치를 아래의 수학식을 이용하여 파악하는, 객체 추적 로봇.
    [수 학 식]
    Figure 112010055254400-pat00048
    ,
    Figure 112010055254400-pat00049
    ,
    Figure 112010055254400-pat00050

    이때,
    Figure 112010055254400-pat00051
    은 절대원점을 기준으로 한 계산된 로봇의 이동방향이고,
    Figure 112010055254400-pat00052
    은 동일한 패턴을 갖는 꼭지점들의 개수이고,
    Figure 112010055254400-pat00053
    는 꼭지점들의 인덱스이고,
    Figure 112010055254400-pat00054
    는 인덱스 i의 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점이고,
    Figure 112010055254400-pat00055
    는 인덱스 i의 맵정보에 저장된 꼭지점이고,
    Figure 112010055254400-pat00056
    는 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점들의 집합이고,
    Figure 112010055254400-pat00057
    은 맵정보에 저장된 꼭지점들의 집합이고,
    Figure 112010055254400-pat00058
    는 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점 인덱스 i를 기준으로 꼭지점 인덱스 j가 이루는 각이고,
    Figure 112010055254400-pat00059
    은 맵정보의 꼭지점 인덱스 i를 기준으로 꼭지점 인덱스 j가 이루는 각이고,
    Figure 112010055254400-pat00060
    은 절대원점을 기준으로 한 계산된 로봇의 x축 방향 좌표이고,
    Figure 112010055254400-pat00061
    은 절대원점을 기준으로 한 계산된 로봇의 y축 방향 좌표이고,
    Figure 112010055254400-pat00062
    는 레인지 파인더의 데이터로부터 추출된 꼭지점 인덱스
    Figure 112010055254400-pat00063
    의 x축 방향 상대좌표이고,
    Figure 112010055254400-pat00064
    는 맵정보의 꼭지점 인덱스
    Figure 112010055254400-pat00065
    의 x축 방향 절대좌표이고,
    Figure 112010055254400-pat00066
    는 레인지 파인더의 데이터로부터 추출된 꼭지점 인덱스
    Figure 112010055254400-pat00067
    의 y축 방향 상대좌표이고,
    Figure 112010055254400-pat00068
    는 맵정보의 꼭지점 인덱스
    Figure 112010055254400-pat00069
    의 y축 방향 절대좌표이다.
  10. 제 9 항에 있어서,
    상기 제어부는,
    상기 맵에 저장된 꼭지점들과 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점들의 패턴을 비교하여 가장 높은 상관도를 갖는 꼭지점들을 선택하고, 찾은 패턴의 위치를 이용하여 로봇의 위치를 유추하는, 객체 추적 로봇.
  11. 객체 또는 촬영시 이미지가 블로어(blur) 되거나 초점이 맞지 않은 경우에 디코딩을 용이하게 해주는 구성을 가지며 객체에 부착되는 마커를 촬영하고, 객체의 RFID 태그로부터 RFID 정보를 수신하고, 레이저 신호를 수신하는 데이터 수집 단계;
    카메라에서 수신된 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인하는 단계; 및
    상기 해당 객체가 추적하고자 하는 객체인 경우 상기 레이저 센서에 수신된 레이저 신호를 이용하여 객체와의 거리를 계산해서 객체와 일정한 거리를 유지하도록 구동모터를 제어하는 단계를 포함하는, 객체 추적 로봇의 객체 추적 방법.
  12. 제 11 항에 있어서,
    상기 카메라에서 수신된 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인하는 단계는,
    객체의 형상, 색상 및 질감 중 적어도 어느 하나를 통하여 상기 카메라에서 수신된 객체 이미지와 미리 저장된 객체의 이미지의 유사 여부를 판단하는 단계를 포함하는, 객체 추적 로봇의 객체 추적 방법.
  13. 제 12 항에 있어서,
    상기 객체의 형상, 색상 및 질감 중 적어도 어느 하나를 통하여 상기 카메라에서 수신된 객체 이미지와 미리 저장된 객체의 이미지의 유사 여부를 판단하는 단계는,
    상기 카메라에서 수신된 객체 이미지를 아래의 수학식을 이용하여 HSV 데이터로 변환해서 해당 데이터의 각 픽셀의 색상과 채도 데이터를 X축이 색상(Hue: H)으로 정의되고 Y축이 채도(Saturation : S)로 정의되는 H-S 2차원 공간에 표현하는 단계;
    LBG(Linde-Buzo-Gray) 알고리즘을 적용해서 H-S 2차원 공간에 표현된 HSV 데이터에서 색상 클러스터를 추출하며 미리 저장된 객체의 이미지에 대해서도 H-S 2차원 공간으로 표현해서 LBG 알고리즘을 적용해서 색상 클러스터를 추출하는 단계; 및
    상기 추출된 구한 색상 클러스터들의 중점들끼리의 최소 거리의 합을 누적 계산해서 상기 계산된 최소 거리의 합을 이용하여 수신된 객체 이미지의 색상과 미리 저장된 객체 이미지의 색상의 유사 여부를 판단하는 단계를 포함하는, 객체 추적 로봇의 객체 추적 방법.
    [수 학 식]
    Figure 112010055254400-pat00070

    이때, H는 색상을 나타내고, S는 채도를 나타내고, V는 명도(Value)를 나타낸다. 그리고, R, G 및 B는 각각 빨강, 초록 및 파랑을 나타낸다.
  14. 제 13 항에 있어서,
    상기 추출된 구한 색상 클러스터들의 중점들끼리의 최소 거리의 합을 누적 계산해서 상기 계산된 최소 거리의 합을 이용하여 수신된 객체 이미지의 색상과 미리 저장된 객체 이미지의 색상의 유사 여부를 판단하는 단계는,
    상기 계산된 최소 거리의 합이 작을수록 두 이미지의 색상 유사성이 높은 것으로 판단하는, 객체 추적 로봇의 객체 추적 방법.
  15. 제 11 항에 있어서,
    상기 카메라에서 수신된 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인하는 단계는,
    상기 카메라에서 수신된 마커 이미지를 설정된 크기의 픽셀 블록(block)으로 다운스케일(downscale) 하여 하나의 슈퍼(super) 픽셀의 마커 이미지로 만든 후, 다운스케일된 마커 이미지에 대한 그레이스케일(grayscale) 값의 히스토그램을 계산하는 단계;
    2-means 분류기를 이용하여 이미지를 바이너리화 하기 위해 그레이스케일값에 대한 임계값을 찾고, BFS(Breadth-first-search)를 사용하여 슈퍼 픽셀의 마커 이미지 내 각 블록에 연결된 컴포넌트를 검색하는 단계;
    상기 검색된 컴포넌트들에 대해서 호프 변환(Hough transform)을 하여 1차로 각 연결된 컴포넌트의 네 개의 코너점을 찾는 단계;
    상기 1차로 네 개의 코너점을 찾은 후 상기 네 개의 코너점 주변의 픽셀들을 파악해서 파악된 주변의 픽셀들 중 마커의 기울어짐을 가장 최소화하는 네 개의 코너점을 산출하는 단계; 및
    상기 산출된 네 개의 코너점의 각도를 평행-평행-매핑(plane-to-plane homography)으로 설정된 마커의 위치에 맞도록 조절하여 일치 여부를 판단하는 단계를 포함하는, 객체 추적 로봇의 객체 추적 방법.
  16. 제 11 항에 있어서,
    상기 해당 객체가 추적하고자 하는 객체인 경우 상기 레이저 센서에 수신된 레이저 신호를 이용하여 객체와의 거리를 계산해서 객체와 일정한 거리를 유지하도록 구동모터를 제어하는 단계는,
    상기 계산된 거리에 대해서 Split-and-Merge 알고리즘을 이용하여 주변의 경계선 및 꼭지점을 찾아내는 단계; 와
    상기 찾아낸 주변의 꼭지점들을 주변 환경의 꼭지점들의 절대적인 좌표로 구성된 맵 정보와 비교하여 로봇의 위치와 이동방향을 계산하는 단계를 포함하는, 객체 추적 로봇의 객체 추적 방법.
  17. 제 16 항에 있어서,
    상기 찾아낸 주변의 꼭지점들을 주변 환경의 꼭지점들의 절대적인 좌표로 구성된 맵 정보와 비교하여 로봇의 위치와 이동방향을 계산하는 단계는,
    상기 꼭지점들의 동일한 패턴을 맵 정보에서 찾아내기 위해 꼭지점들 사이의 거리와 각 정보를 이용하되,
    상기 동일한 패턴을 갖는 꼭지점들을 맵정보에서 찾은 이후에 로봇의 위치를 아래의 수학식을 이용하여 파악하는, 객체 추적 로봇의 객체 추적 방법.
    [수 학 식]
    Figure 112010055254400-pat00071
    ,
    Figure 112010055254400-pat00072
    ,
    Figure 112010055254400-pat00073

    이때,
    Figure 112010055254400-pat00074
    은 절대원점을 기준으로 한 계산된 로봇의 이동방향이고,
    Figure 112010055254400-pat00075
    은 동일한 패턴을 갖는 꼭지점들의 개수이고,
    Figure 112010055254400-pat00076
    는 꼭지점들의 인덱스이고,
    Figure 112010055254400-pat00077
    는 인덱스 i의 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점이고,
    Figure 112010055254400-pat00078
    는 인덱스 i의 맵정보에 저장된 꼭지점이고,
    Figure 112010055254400-pat00079
    는 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점들의 집합이고,
    Figure 112010055254400-pat00080
    은 맵정보에 저장된 꼭지점들의 집합이고,
    Figure 112010055254400-pat00081
    는 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점 인덱스 i를 기준으로 꼭지점 인덱스 j가 이루는 각이고,
    Figure 112010055254400-pat00082
    은 맵정보의 꼭지점 인덱스 i를 기준으로 꼭지점 인덱스 j가 이루는 각이고,
    Figure 112010055254400-pat00083
    은 절대원점을 기준으로 한 계산된 로봇의 x축 방향 좌표이고,
    Figure 112010055254400-pat00084
    은 절대원점을 기준으로 한 계산된 로봇의 y축 방향 좌표이고,
    Figure 112010055254400-pat00085
    는 레인지 파인더의 데이터로부터 추출된 꼭지점 인덱스
    Figure 112010055254400-pat00086
    의 x축 방향 상대좌표이고,
    Figure 112010055254400-pat00087
    는 맵정보의 꼭지점 인덱스
    Figure 112010055254400-pat00088
    의 x축 방향 절대좌표이고,
    Figure 112010055254400-pat00089
    는 레인지 파인더의 데이터로부터 추출된 꼭지점 인덱스
    Figure 112010055254400-pat00090
    의 y축 방향 상대좌표이고,
    Figure 112010055254400-pat00091
    는 맵정보의 꼭지점 인덱스
    Figure 112010055254400-pat00092
    의 y축 방향 절대좌표이다.
  18. 제 17 항에 있어서,
    상기 찾아낸 주변의 꼭지점들을 주변 환경의 꼭지점들의 절대적인 좌표로 구성된 맵 정보와 비교하여 로봇의 위치와 이동방향을 계산하는 단계는,
    상기 맵에 저장된 꼭지점들과 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점들의 패턴을 비교하여 가장 높은 상관도를 갖는 꼭지점들을 선택하고, 찾은 패턴의 위치를 이용하여 로봇의 위치를 유추하는, 객체 추적 로봇의 객체 추적 방법.
KR1020100082996A 2010-08-26 2010-08-26 객체 추적 로봇 및 그 방법 KR101233938B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100082996A KR101233938B1 (ko) 2010-08-26 2010-08-26 객체 추적 로봇 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100082996A KR101233938B1 (ko) 2010-08-26 2010-08-26 객체 추적 로봇 및 그 방법

Publications (2)

Publication Number Publication Date
KR20120019661A KR20120019661A (ko) 2012-03-07
KR101233938B1 true KR101233938B1 (ko) 2013-02-15

Family

ID=46128496

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100082996A KR101233938B1 (ko) 2010-08-26 2010-08-26 객체 추적 로봇 및 그 방법

Country Status (1)

Country Link
KR (1) KR101233938B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101508860B1 (ko) 2013-12-31 2015-04-07 고려대학교 산학협력단 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법
KR102028622B1 (ko) * 2018-01-31 2019-10-04 주식회사 에디테크놀로지 드론을 이용한 객체 자동 추적 방법 및 시스템
KR102587926B1 (ko) * 2021-02-03 2023-10-12 (주)서울로보틱스 객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체
WO2023200075A1 (ko) * 2022-04-12 2023-10-19 (주)서울로보틱스 객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100612858B1 (ko) * 2004-08-23 2006-08-14 삼성전자주식회사 로봇을 이용하여 사람을 추적하는 방법 및 장치
KR100823739B1 (ko) * 2006-12-08 2008-04-21 한국전자통신연구원 주변 환경 변화에 신속하게 적응하여 환경 지도를 작성할수 있는 이동체의 환경 지도 작성 장치 및 그 방법
JP2009052940A (ja) 2007-08-24 2009-03-12 Toshiba Corp 移動物体検出装置および自律移動物体
KR20100086589A (ko) * 2009-01-23 2010-08-02 성균관대학교산학협력단 지그비의 수신신호세기를 이용한 지능형 이동로봇의 이동 대상물 추적 제어 장치 및 그 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100612858B1 (ko) * 2004-08-23 2006-08-14 삼성전자주식회사 로봇을 이용하여 사람을 추적하는 방법 및 장치
KR100823739B1 (ko) * 2006-12-08 2008-04-21 한국전자통신연구원 주변 환경 변화에 신속하게 적응하여 환경 지도를 작성할수 있는 이동체의 환경 지도 작성 장치 및 그 방법
JP2009052940A (ja) 2007-08-24 2009-03-12 Toshiba Corp 移動物体検出装置および自律移動物体
KR20100086589A (ko) * 2009-01-23 2010-08-02 성균관대학교산학협력단 지그비의 수신신호세기를 이용한 지능형 이동로봇의 이동 대상물 추적 제어 장치 및 그 방법

Also Published As

Publication number Publication date
KR20120019661A (ko) 2012-03-07

Similar Documents

Publication Publication Date Title
US11170466B2 (en) Dense structure from motion
US20200334843A1 (en) Information processing apparatus, control method for same, non-transitory computer-readable storage medium, and vehicle driving support system
CN105841687B (zh) 室内定位方法和系统
JP4612635B2 (ja) 低照度の深度に適応可能なコンピュータ視覚を用いた移動物体検出
US9625912B2 (en) Methods and systems for mobile-agent navigation
US9400941B2 (en) Method of matching image features with reference features
US10824853B2 (en) Human detection system for construction machine
JP5747549B2 (ja) 信号機検出装置及びプログラム
Gschwandtner et al. Infrared camera calibration for dense depth map construction
WO2022078513A1 (zh) 定位方法、装置、自移动设备和存储介质
WO2022078488A1 (zh) 定位方法、装置、自移动设备和存储介质
US11189042B2 (en) Information processing device, information processing method, and computer program
WO2009142841A2 (en) Rectangular table detection using hybrid rgb and depth camera sensors
US20220189055A1 (en) Item detection device, item detection method, and industrial vehicle
JP2019125116A (ja) 情報処理装置、情報処理方法、およびプログラム
US20170073934A1 (en) Human detection system for construction machine
JP6278791B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム
KR102089343B1 (ko) 어라운드 뷰 모니터링 시스템 및 카메라 공차 보정 방법
CN107527368B (zh) 基于二维码的三维空间姿态定位方法与装置
KR101233938B1 (ko) 객체 추적 로봇 및 그 방법
CN110942470A (zh) 图像处理装置
JP6278790B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム
JP6410231B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
WO2020090897A1 (ja) 位置検出装置、位置検出システム、遠隔制御装置、遠隔制御システム、位置検出方法、及びプログラム
Mutka et al. A low cost vision based localization system using fiducial markers

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151224

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170102

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190107

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20200102

Year of fee payment: 8