KR101233938B1 - 객체 추적 로봇 및 그 방법 - Google Patents
객체 추적 로봇 및 그 방법 Download PDFInfo
- Publication number
- KR101233938B1 KR101233938B1 KR1020100082996A KR20100082996A KR101233938B1 KR 101233938 B1 KR101233938 B1 KR 101233938B1 KR 1020100082996 A KR1020100082996 A KR 1020100082996A KR 20100082996 A KR20100082996 A KR 20100082996A KR 101233938 B1 KR101233938 B1 KR 101233938B1
- Authority
- KR
- South Korea
- Prior art keywords
- vertices
- image
- robot
- distance
- marker
- Prior art date
Links
Images
Abstract
객체 추적 로봇 및 그 방법이 개시된다. 본 발명의 실시예에 따른 객체 추적 로봇은, 객체 또는 객체에 부착된 마커를 촬영하는 카메라, 객체의 RFID 태그로부터 RFID 정보를 수신하는 RF 리시버, 레이저 신호를 수신하는 레이저 센서; 및 상기 카메라에서 수신된 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인하고, 추적하고자 하는 객체인 경우 상기 레이저 센서에 수신된 레이저 신호를 이용하여 객체와의 거리를 계산해서 객체와 일정한 거리를 유지하도록 구동모터를 제어하는 제어부를 포함한다.
Description
본 발명은 객체 추적 로봇 및 그 방법에 관한 것으로, 더욱 자세하게는 이동하는 객체를 일정한 거리를 두고서 추적하는 기술에 관한 것이다.
이동하는 물체나 사람을 추적하는 로봇은 물체 또는 사람에 부착된 GPS(Global Positioning System) 수신기로부터 수신된 위치정보를 이용하여, 물체 또는 사람을 추적하였다. 그런데 GPS 수신기는 실내에 위치한 경우 주위 환경에 따른 간섭으로 인해서 위성으로부터 수신되는 신호의 감쇄가 심해서 물체 또는 사람의 위치를 정확히 파악할 수 없게 된다. 이로 인해서 로봇은 물체 또는 사람의 추적을 원활하게 수행할 수 없게 된다.
이를 극복하기 위해서 관성측정장치를 물체나 사람에 부착하는 방법이 제시되었으나 특별한 기구 설계가 요구되면 구현비용이 증가하는 문제점이 있다.
실내에서 이동하는 객체의 형상정보, 객체에 부착된 마커 정보, 객체의 RFID 태그 정보 중 어느 하나를 이용하여 객체를 인식하고, 인식된 객체와의 거리정보를 이용하여 모터의 구동을 제어해서 인식된 객체를 일정한 거리를 두고서 추적하는 객체 추적 로봇 및 그 방법이 제안된다.
본 발명의 일 양상에 따른 객체 추적 로봇은, 객체 또는 객체에 부착된 마커를 촬영하는 카메라; 객체의 RFID 태그로부터 RFID 정보를 수신하는 RF 리시버; 레이저 신호를 수신하는 레이저 센서; 및 상기 카메라에서 수신된 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인하고, 추적하고자 하는 객체인 경우 상기 레이저 센서에 수신된 레이저 신호를 이용하여 객체와의 거리를 계산해서 객체와 일정한 거리를 유지하도록 구동모터를 제어하는 제어부를 포함한다.
상기 마커는, 흑색 테두리 내에 흑색 및 백색의 셀로 구성되며, 4비트의 체크썸, 32비트의 에러교정데이터 및 28비트의 정보로 인코딩될 수 있다.
상기 흑색 테두리는, 이미지가 블로어(blur) 되거나 초점이 맞지 않는 경우에 디코딩을 용이하게 하는 역할을 할 수 있다.
상기 제어부는, 객체의 형상, 색상 및 질감 중 적어도 어느 하나를 통하여 상기 카메라에서 수신된 객체 이미지와 미리 저장된 객체의 이미지의 유사 여부를 판단할 수 있다.
상기 제어부는, 상기 카메라에서 수신된 객체 이미지를 아래의 수학식을 이용하여 HSV 데이터로 변환해서 해당 데이터의 각 픽셀의 색상과 채도 데이터를 X축이 색상(Hue: H)으로 정의되고 Y축이 채도(Saturation : S)로 정의되는 H-S 2차원 공간에 표현하고, LBG(Linde-Buzo-Gray) 알고리즘을 적용해서 H-S 2차원 공간에 표현된 HSV 데이터에서 색상 클러스터를 추출하며 미리 저장된 객체의 이미지에 대해서도 H-S 2차원 공간으로 표현해서 LBG 알고리즘을 적용해서 색상 클러스터를 추출하며, 상기 추출된 구한 색상 클러스터들의 중점들끼리의 최소 거리의 합을 누적 계산해서 상기 계산된 최소 거리의 합을 이용하여 수신된 객체 이미지의 색상과 미리 저장된 객체 이미지의 색상의 유사 여부를 판단할 수 있다.
[수 학 식]
이때, H는 색상을 나타내고, S는 채도를 나타내고, V는 명도(Value)를 나타낸다. 그리고, R, G 및 B는 각각 빨강, 초록 및 파랑을 나타낸다.
상기 제어부는, 상기 계산된 최소 거리의 합이 작을수록 두 이미지의 색상 유사성이 높은 것으로 판단할 수 있다.
상기 제어부는, 상기 카메라에서 수신된 마커 이미지를 설정된 크기의 픽셀 블록(block)으로 다운스케일(downscale) 하여 하나의 슈퍼(super) 픽셀의 마커 이미지로 만든 후, 다운스케일된 마커 이미지에 대한 그레이스케일(grayscale) 값의 히스토그램을 계산하고, 2-means 분류기를 이용하여 이미지를 바이너리화 하기 위해 그레이스케일값에 대한 임계값을 찾고, BFS(Breadth-first-search)를 사용하여 슈퍼 픽셀의 마커 이미지 내 각 블록에 연결된 컴포넌트를 검색하고, 상기 검색된 컴포넌트들에 대해서 호프 변환(Hough transform)을 하여 1차로 각 연결된 컴포넌트의 네 개의 코너점을 찾고, 상기 1차로 네 개의 코너점을 찾은 후 상기 네 개의 코너점 주변의 픽셀들을 파악해서 파악된 주변의 픽셀들 중 마커의 기울어짐을 가장 최소화하는 네 개의 코너점을 산출하고, 상기 산출된 네 개의 코너점의 각도를 평행-평행-매핑(plane-to-plane homography)으로 설정된 마커의 위치에 맞도록 조절하여 일치 여부를 판단할 수 있다.
상기 제어부는, 상기 계산된 거리에 대해서 Split-and-Merge 알고리즘을 이용하여 주변의 경계선 및 꼭지점을 찾아내고, 상기 찾아낸 주변의 꼭지점들을 주변 환경의 꼭지점들의 절대적인 좌표로 구성된 맵 정보와 비교하여 로봇의 위치와 이동방향을 계산할 수 있다.
상기 제어부는, 상기 꼭지점들의 동일한 패턴을 맵 정보에서 찾아내기 위해 꼭지점들 사이의 거리와 각 정보를 이용하되, 상기 동일한 패턴을 갖는 꼭지점들을 맵정보에서 찾은 이후에 로봇의 위치를 아래의 수학식을 이용하여 파악할 수 있다.
[수 학 식]
이때, 은 절대원점을 기준으로 한 계산된 로봇의 이동방향이고, 은 동일한 패턴을 갖는 꼭지점들의 개수이고, 는 꼭지점들의 인덱스이고, 는 인덱스 i의 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점이고, 는 인덱스 i의 맵정보에 저장된 꼭지점이고, 는 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점들의 집합이고, 은 맵정보에 저장된 꼭지점들의 집합이고, 는 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점 인덱스 i를 기준으로 꼭지점 인덱스 j가 이루는 각이고, 은 맵정보의 꼭지점 인덱스 i를 기준으로 꼭지점 인덱스 j가 이루는 각이고, 은 절대원점을 기준으로 한 계산된 로봇의 x축 방향 좌표이고, 은 절대원점을 기준으로 한 계산된 로봇의 y축 방향 좌표이고, 는 레인지 파인더의 데이터로부터 추출된 꼭지점 인덱스 의 x축 방향 상대좌표이고, 는 맵정보의 꼭지점 인덱스 의 x축 방향 절대좌표이고, 는 레인지 파인더의 데이터로부터 추출된 꼭지점 인덱스 의 y축 방향 상대좌표이고, 는 맵정보의 꼭지점 인덱스 의 y축 방향 절대좌표이다.
상기 제어부는, 상기 맵에 저장된 꼭지점들과 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점들의 패턴을 비교하여 가장 높은 상관도를 갖는 꼭지점들을 선택하고, 찾은 패턴의 위치를 이용하여 로봇의 위치를 유추할 수 있다.
본 발명의 다른 양상에 따른 객체 추적 로봇의 객체 추적 방법은, 객체 또는 객체에 부착된 마커를 촬영하고, 객체의 RFID 태그로부터 RFID 정보를 수신하고, 레이저 신호를 수신하는 데이터 수집 단계; 상기 카메라에서 수신된 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인하는 단계; 및 상기 해당 객체가 추적하고자 하는 객체인 경우 상기 레이저 센서에 수신된 레이저 신호를 이용하여 객체와의 거리를 계산해서 객체와 일정한 거리를 유지하도록 구동모터를 제어하는 단계를 포함한다.
본 발명의 실시예에 따른 객체 추적 로봇에 따르면, 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인하고, 추적하고자 하는 객체인 경우 레이저 센서에서 수신된 객체와의 거리정보를 이용하여 객체와 일정한 거리를 유지하도록 구동모터를 제어해서 구동모터에 연결된 바퀴의 회전수를 제어함으로써, 실내에서도 물체 또는 사람의 추적을 원활하게 수행할 수 있게 된다.
도 1은 본 발명의 실시예에 따른 객체 추적 로봇의 구성을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 마커를 나타낸 도면이다.
도 3a는 레인지파인더가 일정한 각 간격으로 레이저를 송출하고 송출된 레이저가 주변 환경으로부터 반사되어 돌아오는 시간을 이용하여 얻어진 거리를 나타낸 도면이다.
도 3b는 도 3a에 도시된 각각의 거리에 대해서 Split-and-Merge 알고리즘을 적용해서 찾아낸 주변의 경계선 및 꼭지점과 로봇의 위치를 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 객체추적로봇의 객체추적방법에 대한 플로차트이다.
도 2는 본 발명의 실시예에 따른 마커를 나타낸 도면이다.
도 3a는 레인지파인더가 일정한 각 간격으로 레이저를 송출하고 송출된 레이저가 주변 환경으로부터 반사되어 돌아오는 시간을 이용하여 얻어진 거리를 나타낸 도면이다.
도 3b는 도 3a에 도시된 각각의 거리에 대해서 Split-and-Merge 알고리즘을 적용해서 찾아낸 주변의 경계선 및 꼭지점과 로봇의 위치를 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 객체추적로봇의 객체추적방법에 대한 플로차트이다.
이하에서는 첨부한 도면을 참조하여 본 발명의 실시예를 상세히 설명한다. 본 발명의 실시예를 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술 되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 실시예에 따른 객체 추적 로봇의 구성을 나타낸 도면이다.
도시된 바와 같이 본 발명의 실시예에 따른 객체 추적 로봇은, 카메라(1), 레이저 센서(2), RF 리시버(3), 제어부(4) 및 구동모터(5)를 포함한다.
카메라(1)는 객체 또는 객체에 부착된 마커를 촬영하여 촬영된 객체 이미지 또는 마커 이미지를 제어부(4)에 제공한다. 이때, 객체에 부착된 마커는 도 2에 도시된 바와 같이 흑색 테두리(10) 내에 가로×세로, 8×8로 이루어진 흑색과 백색의 셀로 구성되며, 4비트의 체크썸, 32비트의 에러교정데이터 및 28비트의 정보로 인코딩될 수 있다. 흑색 테두리(10)는 이미지가 블로어(blur) 되거나 초점이 맞지 않는 경우에 디코딩을 용이하게 하는 역할을 한다.
RF 리시버(3)는 객체의 RFID 태그로부터 RFID 정보를 수신하여 제어부(4)에 제공한다.
레이저 센서(2)는 레이저 신호를 수신하여 제어부(4)에 제공한다.
제어부(4)는 카메라(1)에서 수신된 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인하고, 추적하고자 하는 객체인 경우 레이저 센서(2)에서 제공된 레이저 신호를 이용하여 객체와의 거리정보를 계산하고 계산된 거리정보를 이용하여 구동모터(5)의 제어를 통해 구동모터(5)에 연결된 바퀴(6, 7)의 회전수를 제어한다. 이를 통해서 객체 추적 로봇이 일정한 거리를 두면서 객체를 추적할 수 있게 된다.
이때, 제어부(4)는 카메라(1)에서 수신된 객체 이미지와 미리 저장된 객체의 이미지의 유사 여부로서 촬영된 객체가 추적하고자 하는 객체인가를 확인한다. 이미지의 일치 여부는 객체의 형상, 색상 및 질감 중 적어도 어느 하나를 통하여 이루어질 수 있다.
이 중 색상을 통하여 이미지의 일치 여부의 판단은 다음과 같이 이루어질 수 있다. 즉, 제어부(4)는 카메라(1)에서 수신된 객체 이미지를 아래의 수학식 1을 이용하여 HSV 데이터로 변환하고, 변환된 HSV 데이터의 각 픽셀의 색상과 채도 데이터를 X축이 색상(Hue: H)으로 정의되고 Y축이 채도(Saturation : S)로 정의되는 H-S 2차원 공간에 표현한다. 제어부(4)는 LBG(Linde-Buzo-Gray) 알고리즘을 적용해서 H-S 2차원 공간에 표현된 HSV 데이터에서 색상 클러스터를 추출한다. 이와 동시에 미리 저장된 객체의 이미지에 대해서도 H-S 2차원 공간으로 표현해서 LBG 알고리즘을 적용해서 색상 클러스터를 추출한다.
이때, H는 색상을 나타내고, S는 채도를 나타내고, V는 명도(Value)를 나타낸다. 그리고, R, G 및 B는 각각 빨강, 초록 및 파랑을 나타낸다.
제어부(4)는 LBG 알고리즘을 이용하여 구한 색상 클러스터들의 중점들끼리의 최소 거리의 합을 누적 계산하고, 계산된 최소 거리의 합을 이용하여 수신된 객체 이미지와 미리 저장된 객체의 이미지의 유사 여부를 판단한다. 이때, 제어부(4)는 계산된 최소 거리의 합이 작을수록 두 이미지의 색상 유사성이 높은 것으로 판단할 수 있다.
한편, 마커를 부착한 객체가 추적하고자 하는 객체인가의 확인 과정에 대해서 살펴보기로 한다. 객체마다 마커의 부착 위치가 달라질 수 있기 때문에, 마커의 위치 및 각도 조절이 필요하게 된다. 이를 위해서 제어부(4)는 카메라(1)에서 수신된 마커 이미지를 설정된 크기의 5X5 픽셀 블록(block)으로 다운스케일(downscale) 하여 하나의 슈퍼(super) 픽셀의 마커 이미지로 만든 후, 다운스케일된 마커 이미지에 대한 그레이스케일(grayscale) 값의 히스토그램을 계산한다. 이후 제어부(4)는 2-means 분류기를 이용하여 이미지를 바이너리화 하기 위해 그레이스케일값에 대한 임계값을 찾는다. 이때, 그레이스케일값에 대한 임계값은 슈퍼픽셀의 마커 이미지 내 임의의 블록이 흑색 픽셀인지 또는 백색 픽셀인지를 결정하는데 사용된다. 이러한 바이너리화 과정을 통해서 주변의 빛에 적응적이고 빛의 변화에서도 2D 마커의 테두리를 찾을 수 있게 된다.
이후 제어부(4)는 BFS(Breadth-first-search)를 사용하여 슈퍼 픽셀의 마커 이미지 내 각 블록에 연결된 컴포넌트를 검색한다. 이때, 컴포넌트는 슈퍼 픽셀의 마커 이미지 내 흑색 블록을 나타낼 수 있다.
제어부(4)는 검색된 컴포넌트들에 대해서 호프 변환(Hough transform)을 하여 1차로 각 연결된 컴포넌트의 네 개의 코너점을 찾는다. 제어부(4)는 상기 1차로 네 개의 코너점을 찾은 후, 상기 네 개의 코너점 주변의 픽셀들을 파악해서 파악된 주변의 픽셀들 중 마커의 기울어짐을 가장 최소화하는 네 개의 코너점을 산출한다. 이렇게 두 번에 걸쳐서 네 개의 코너점을 찾는 이유는 1차로 호프변환을 통해 파악된 네 개의 코너점의 경우 마커의 기울어짐이 반영되지 않았기 때문이다.
이후 제어부(4)는 마커가 임의의 각도로 캡쳐될 수 있기 때문에 균형 조정을 위해서 상기 산출된 네 개의 코너점을 평행-평행-매핑(plane-to-plane homography) 으로 조정을 한다. 즉, 산출된 네 개의 코너점의 각도를 평행-평행-매핑으로 설정된 마커의 위치에 맞도록 조절한다. 제어부(4)는 평행-평행-매핑으로 각도가 조정된 마커와 설정된 마커의 일치 여부를 확인하여 마커를 부착한 객체가 추적하고자 하는 객체인가를 판단한다.
한편, 제어부(4)는 레인지 파인더(미도시)를 포함할 수 있다. 레인지 파인더는 일정한 각 간격으로 레이저를 주변으로 방사 한다. 제어부(4)는 레이저 파인더로부터 방사된 각각의 레이저가 주변 환경에 반사되어 레이저 센서(2)에 돌아오는 시간을 이용하여 레이저가 반사된 지점까지의 거리를 계산한다. 이에 따라 제어부(4)는 레이저의 일정 간격마다 반사되는 지점까지의 거리정보를 얻을 수 있게 된다. 즉, 제어부(4)는 레인지 파인더를 이용하여 주변 환경까지의 거리정보를 파악함으로써 추적하고자 하는 객체까지의 거리를 정확히 파악할 수 있게 된다.
이때, 레인지파인더가 일정한 각 간격으로 레이저를 송출하고 송출된 레이저가 주변 환경으로부터 반사되어 돌아오는 시간을 이용하여 얻어진 거리를 나타낸 도면이 도 3a에 도시되어 있고, 도 3a에 도시된 각각의 거리에 대해서 Split-and-Merge 알고리즘을 적용해서 찾아낸 주변의 경계선 및 꼭지점과 로봇의 위치를 나타낸 도면이 도 3b에 도시되어 있다.
제어부(4)는 Split-and-Merge 알고리즘을 이용하여 찾아낸 주변의 꼭지점들을 주변 환경의 꼭지점들의 절대적인 좌표로 구성된 맵 정보와 비교하여 로봇의 위치와 이동방향을 계산한다. 이때 꼭지점들의 동일한 패턴을 맵 정보에서 찾아내기 위해 꼭지점들 사이의 거리와 각 정보를 이용한다. 제어부(4)는 동일한 패턴을 갖는 꼭지점들을 맵정보에서 찾은 이후에 로봇의 위치를 아래의 수학식 2를 이용하여 파악할 수 있다. 이때, 로봇의 위치는 맵에 저장된 꼭지점들과 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점들의 패턴을 비교하여 가장 높은 상관도를 갖는 꼭지점들을 선택하고, 찾은 패턴의 위치를 이용하여 로봇의 위치를 유추할 수 있다.
이때, 은 절대원점을 기준으로 한 계산된 로봇의 이동방향이고, 은 동일한 패턴을 갖는 꼭지점들의 개수이고, 는 꼭지점들의 인덱스이고, 는 인덱스 i의 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점이고, 는 인덱스 i의 맵정보에 저장된 꼭지점이고, 는 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점들의 집합이고, 은 맵정보에 저장된 꼭지점들의 집합이고, 는 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점 인덱스 i를 기준으로 꼭지점 인덱스 j가 이루는 각이고, 은 맵정보의 꼭지점 인덱스 i를 기준으로 꼭지점 인덱스 j가 이루는 각이고, 은 절대원점을 기준으로 한 계산된 로봇의 x축 방향 좌표이고, 은 절대원점을 기준으로 한 계산된 로봇의 y축 방향 좌표이고, 는 레인지 파인더의 데이터로부터 추출된 꼭지점 인덱스 의 x축 방향 상대좌표이고, 는 맵정보의 꼭지점 인덱스 의 x축 방향 절대좌표이고, 는 레인지 파인더의 데이터로부터 추출된 꼭지점 인덱스 의 y축 방향 상대좌표이고, 는 맵정보의 꼭지점 인덱스 의 y축 방향 절대좌표이다.
도 4는 본 발명의 실시예에 따른 객체추적로봇의 객체추적로봇에 대한 플로차트이다.
도 4에 도시된 바와 같이, 객체추적로봇은 객체 또는 객체에 부착된 마커를 촬영하고, 객체의 RFID 태그로부터 RFID 정보를 수신하고, 레이저 신호를 수신한다(S1).
객체 추적 로봇은 카메라에서 수신된 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인한다(S2). 이때, 객체 추적 로봇은 객체의 형상, 색상 및 질감 중 적어도 어느 하나를 통하여 상기 카메라에서 수신된 객체 이미지와 미리 저장된 객체의 이미지의 유사 여부를 판단할 수 있다. 특히, 색상을 통하여 유사 여부에 대한 판단을 다음과 같이 수행할 수 있다. 즉, 객체 추적 로봇은 카메라에서 수신된 객체 이미지를 상기 수학식 1을 이용하여 HSV 데이터로 변환해서 해당 데이터의 각 픽셀의 색상과 채도 데이터를 X축이 색상(Hue: H)으로 정의되고 Y축이 채도(Saturation : S)로 정의되는 H-S 2차원 공간에 표현한다. 이후, 객체 추적 로봇은 LBG(Linde-Buzo-Gray) 알고리즘을 적용해서 H-S 2차원 공간에 표현된 HSV 데이터에서 색상 클러스터를 추출하며 미리 저장된 객체의 이미지에 대해서도 H-S 2차원 공간으로 표현해서 LBG 알고리즘을 적용해서 색상 클러스터를 추출한다. 객체 추적 로봇은 상기 추출된 구한 색상 클러스터들의 중점들끼리의 최소 거리의 합을 누적 계산해서 상기 계산된 최소 거리의 합을 이용하여 수신된 객체 이미지의 색상과 미리 저장된 객체 이미지의 색상의 유사 여부를 판단한다. 이때, 객체 추적 로봇은 상기 계산된 최소 거리의 합이 작을수록 두 이미지의 색상 유사성이 높은 것으로 판단할 수 있다.
한편, 객체 추적 로봇은 마커를 이용하여 추적 객체인가에 대한 판단을 다음과 같이 수행할 수 있다. 즉, 객체 추적 로봇은 상기 카메라에서 수신된 마커 이미지를 설정된 크기의 픽셀 블록(block)으로 다운스케일(downscale) 하여 하나의 슈퍼(super) 픽셀의 마커 이미지로 만든 후, 다운스케일된 마커 이미지에 대한 그레이스케일(grayscale) 값의 히스토그램을 계산한다. 객체 추적 로봇은 2-means 분류기를 이용하여 이미지를 바이너리화 하기 위해 그레이스케일값에 대한 임계값을 찾고, BFS(Breadth-first-search)를 사용하여 슈퍼 픽셀의 마커 이미지 내 각 블록에 연결된 컴포넌트를 검색한다. 객체 추적 로봇은 상기 검색된 컴포넌트들에 대해서 호프 변환(Hough transform)을 하여 1차로 각 연결된 컴포넌트의 네 개의 코너점을 찾는다. 객체 추적 로봇은 상기 1차로 네 개의 코너점을 찾은 후 상기 네 개의 코너점 주변의 픽셀들을 파악해서 파악된 주변의 픽셀들 중 마커의 기울어짐을 가장 최소화하는 네 개의 코너점을 산출한다. 객체 추적 로봇은 상기 산출된 네 개의 코너점의 각도를 평행-평행-매핑(plane-to-plane homography)으로 설정된 마커의 위치에 맞도록 조절하여 일치 여부를 판단할 수 있다.
이렇게 해당 객체가 추적하고자 하는 객체인 경우, 객체 추적 로봇은 레이저 센서에 수신된 레이저 신호를 이용하여 객체와의 거리를 계산해서 객체와 일정한 거리를 유지하도록 구동모터를 제어한다(S3). 이때, 객체 추적 로봇은, 상기 계산된 거리에 대해서 Split-and-Merge 알고리즘을 이용하여 주변의 경계선 및 꼭지점을 찾아내고, 상기 찾아낸 주변의 꼭지점들을 주변 환경의 꼭지점들의 절대적인 좌표로 구성된 맵 정보와 비교하여 로봇의 위치와 이동방향을 계산할 수 있다. 상기 꼭지점들의 동일한 패턴을 맵 정보에서 찾아내기 위해 꼭지점들 사이의 거리와 각 정보를 이용하되, 상기 동일한 패턴을 갖는 꼭지점들을 맵정보에서 찾은 이후에 로봇의 위치를 상기 수학식 2를 이용하여 파악할 수 있다. 이렇게 맵에 저장된 꼭지점들과 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점들의 패턴을 비교하여 가장 높은 상관도를 갖는 꼭지점들을 선택하고, 찾은 패턴의 위치를 이용하여 로봇의 위치를 유추할 수 있게 된다.
이제까지 본 발명에 대하여 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 따라서 본 발명의 범위는 전술한 실시예에 한정되지 않고 특허청구범위에 기재된 내용 및 그와 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.
Claims (18)
- 객체 또는 촬영시 이미지가 블로어(blur) 되거나 초점이 맞지 않은 경우에 디코딩을 용이하게 해주는 구성을 가지며 객체에 부착되는 마커를 촬영하는 카메라;
객체의 RFID 태그로부터 RFID 정보를 수신하는 RF 리시버;
레이저 신호를 수신하는 레이저 센서; 및
상기 카메라에서 수신된 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인하고, 추적하고자 하는 객체인 경우 상기 레이저 센서에 수신된 레이저 신호를 이용하여 객체와의 거리를 계산해서 객체와 일정한 거리를 유지하도록 구동모터를 제어하는 제어부를 포함하는, 객체 추적 로봇. - 제 1 항에 있어서,
상기 마커는,
흑색 테두리 내에 흑색 및 백색의 셀로 구성되며, 4비트의 체크썸, 32비트의 에러교정데이터 및 28비트의 정보로 인코딩되며,
상기 흑색 테두리는, 촬영시 이미지가 블로어 되거나 초점이 맞지 않는 경우에 디코딩을 용이하게 하는 역할을 하는, 객체 추적 로봇. - 삭제
- 제 1 항에 있어서,
상기 제어부는,
객체의 형상, 색상 및 질감 중 적어도 어느 하나를 통하여 상기 카메라에서 수신된 객체 이미지와 미리 저장된 객체의 이미지의 유사 여부를 판단하는, 객체 추적 로봇. - 제 4 항에 있어서,
상기 제어부는,
상기 카메라에서 수신된 객체 이미지를 아래의 수학식을 이용하여 HSV 데이터로 변환해서 해당 데이터의 각 픽셀의 색상과 채도 데이터를 X축이 색상(Hue: H)으로 정의되고 Y축이 채도(Saturation : S)로 정의되는 H-S 2차원 공간에 표현하고, LBG(Linde-Buzo-Gray) 알고리즘을 적용해서 H-S 2차원 공간에 표현된 HSV 데이터에서 색상 클러스터를 추출하며 미리 저장된 객체의 이미지에 대해서도 H-S 2차원 공간으로 표현해서 LBG 알고리즘을 적용해서 색상 클러스터를 추출하며, 상기 추출된 구한 색상 클러스터들의 중점들끼리의 최소 거리의 합을 누적 계산해서 상기 계산된 최소 거리의 합을 이용하여 수신된 객체 이미지의 색상과 미리 저장된 객체 이미지의 색상의 유사 여부를 판단하는, 객체 추적 로봇.
[수 학 식]
이때, H는 색상을 나타내고, S는 채도를 나타내고, V는 명도(Value)를 나타낸다. 그리고, R, G 및 B는 각각 빨강, 초록 및 파랑을 나타낸다. - 제 5 항에 있어서,
상기 제어부는,
상기 계산된 최소 거리의 합이 작을수록 두 이미지의 색상 유사성이 높은 것으로 판단하는, 객체 추적 로봇. - 제 1 항에 있어서,
상기 제어부는,
상기 카메라에서 수신된 마커 이미지를 설정된 크기의 픽셀 블록(block)으로 다운스케일(downscale) 하여 하나의 슈퍼(super) 픽셀의 마커 이미지로 만든 후, 다운스케일된 마커 이미지에 대한 그레이스케일(grayscale) 값의 히스토그램을 계산하고, 2-means 분류기를 이용하여 이미지를 바이너리화 하기 위해 그레이스케일값에 대한 임계값을 찾고, BFS(Breadth-first-search)를 사용하여 슈퍼 픽셀의 마커 이미지 내 각 블록에 연결된 컴포넌트를 검색하고, 상기 검색된 컴포넌트들에 대해서 호프 변환(Hough transform)을 하여 1차로 각 연결된 컴포넌트의 네 개의 코너점을 찾고, 상기 1차로 네 개의 코너점을 찾은 후 상기 네 개의 코너점 주변의 픽셀들을 파악해서 파악된 주변의 픽셀들 중 마커의 기울어짐을 가장 최소화하는 네 개의 코너점을 산출하고, 상기 산출된 네 개의 코너점의 각도를 평행-평행-매핑(plane-to-plane homography)으로 설정된 마커의 위치에 맞도록 조절하여 일치 여부를 판단하는, 객체 추적 로봇. - 제 1 항에 있어서,
상기 제어부는,
상기 계산된 거리에 대해서 Split-and-Merge 알고리즘을 이용하여 주변의 경계선 및 꼭지점을 찾아내고, 상기 찾아낸 주변의 꼭지점들을 주변 환경의 꼭지점들의 절대적인 좌표로 구성된 맵 정보와 비교하여 로봇의 위치와 이동방향을 계산하는, 객체 추적 로봇. - 제 8 항에 있어서,
상기 제어부는,
상기 꼭지점들의 동일한 패턴을 맵 정보에서 찾아내기 위해 꼭지점들 사이의 거리와 각 정보를 이용하되,
상기 동일한 패턴을 갖는 꼭지점들을 맵정보에서 찾은 이후에 로봇의 위치를 아래의 수학식을 이용하여 파악하는, 객체 추적 로봇.
[수 학 식]
,
,
이때, 은 절대원점을 기준으로 한 계산된 로봇의 이동방향이고, 은 동일한 패턴을 갖는 꼭지점들의 개수이고, 는 꼭지점들의 인덱스이고, 는 인덱스 i의 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점이고, 는 인덱스 i의 맵정보에 저장된 꼭지점이고, 는 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점들의 집합이고, 은 맵정보에 저장된 꼭지점들의 집합이고, 는 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점 인덱스 i를 기준으로 꼭지점 인덱스 j가 이루는 각이고, 은 맵정보의 꼭지점 인덱스 i를 기준으로 꼭지점 인덱스 j가 이루는 각이고, 은 절대원점을 기준으로 한 계산된 로봇의 x축 방향 좌표이고, 은 절대원점을 기준으로 한 계산된 로봇의 y축 방향 좌표이고, 는 레인지 파인더의 데이터로부터 추출된 꼭지점 인덱스 의 x축 방향 상대좌표이고, 는 맵정보의 꼭지점 인덱스 의 x축 방향 절대좌표이고, 는 레인지 파인더의 데이터로부터 추출된 꼭지점 인덱스 의 y축 방향 상대좌표이고, 는 맵정보의 꼭지점 인덱스 의 y축 방향 절대좌표이다. - 제 9 항에 있어서,
상기 제어부는,
상기 맵에 저장된 꼭지점들과 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점들의 패턴을 비교하여 가장 높은 상관도를 갖는 꼭지점들을 선택하고, 찾은 패턴의 위치를 이용하여 로봇의 위치를 유추하는, 객체 추적 로봇. - 객체 또는 촬영시 이미지가 블로어(blur) 되거나 초점이 맞지 않은 경우에 디코딩을 용이하게 해주는 구성을 가지며 객체에 부착되는 마커를 촬영하고, 객체의 RFID 태그로부터 RFID 정보를 수신하고, 레이저 신호를 수신하는 데이터 수집 단계;
카메라에서 수신된 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인하는 단계; 및
상기 해당 객체가 추적하고자 하는 객체인 경우 상기 레이저 센서에 수신된 레이저 신호를 이용하여 객체와의 거리를 계산해서 객체와 일정한 거리를 유지하도록 구동모터를 제어하는 단계를 포함하는, 객체 추적 로봇의 객체 추적 방법. - 제 11 항에 있어서,
상기 카메라에서 수신된 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인하는 단계는,
객체의 형상, 색상 및 질감 중 적어도 어느 하나를 통하여 상기 카메라에서 수신된 객체 이미지와 미리 저장된 객체의 이미지의 유사 여부를 판단하는 단계를 포함하는, 객체 추적 로봇의 객체 추적 방법. - 제 12 항에 있어서,
상기 객체의 형상, 색상 및 질감 중 적어도 어느 하나를 통하여 상기 카메라에서 수신된 객체 이미지와 미리 저장된 객체의 이미지의 유사 여부를 판단하는 단계는,
상기 카메라에서 수신된 객체 이미지를 아래의 수학식을 이용하여 HSV 데이터로 변환해서 해당 데이터의 각 픽셀의 색상과 채도 데이터를 X축이 색상(Hue: H)으로 정의되고 Y축이 채도(Saturation : S)로 정의되는 H-S 2차원 공간에 표현하는 단계;
LBG(Linde-Buzo-Gray) 알고리즘을 적용해서 H-S 2차원 공간에 표현된 HSV 데이터에서 색상 클러스터를 추출하며 미리 저장된 객체의 이미지에 대해서도 H-S 2차원 공간으로 표현해서 LBG 알고리즘을 적용해서 색상 클러스터를 추출하는 단계; 및
상기 추출된 구한 색상 클러스터들의 중점들끼리의 최소 거리의 합을 누적 계산해서 상기 계산된 최소 거리의 합을 이용하여 수신된 객체 이미지의 색상과 미리 저장된 객체 이미지의 색상의 유사 여부를 판단하는 단계를 포함하는, 객체 추적 로봇의 객체 추적 방법.
[수 학 식]
이때, H는 색상을 나타내고, S는 채도를 나타내고, V는 명도(Value)를 나타낸다. 그리고, R, G 및 B는 각각 빨강, 초록 및 파랑을 나타낸다. - 제 13 항에 있어서,
상기 추출된 구한 색상 클러스터들의 중점들끼리의 최소 거리의 합을 누적 계산해서 상기 계산된 최소 거리의 합을 이용하여 수신된 객체 이미지의 색상과 미리 저장된 객체 이미지의 색상의 유사 여부를 판단하는 단계는,
상기 계산된 최소 거리의 합이 작을수록 두 이미지의 색상 유사성이 높은 것으로 판단하는, 객체 추적 로봇의 객체 추적 방법. - 제 11 항에 있어서,
상기 카메라에서 수신된 객체 이미지, 마커 이미지 및 RFID 태그로부터 수신된 RFID 정보 중 어느 하나를 이용하여 해당 객체가 추적하고자 하는 객체인가를 확인하는 단계는,
상기 카메라에서 수신된 마커 이미지를 설정된 크기의 픽셀 블록(block)으로 다운스케일(downscale) 하여 하나의 슈퍼(super) 픽셀의 마커 이미지로 만든 후, 다운스케일된 마커 이미지에 대한 그레이스케일(grayscale) 값의 히스토그램을 계산하는 단계;
2-means 분류기를 이용하여 이미지를 바이너리화 하기 위해 그레이스케일값에 대한 임계값을 찾고, BFS(Breadth-first-search)를 사용하여 슈퍼 픽셀의 마커 이미지 내 각 블록에 연결된 컴포넌트를 검색하는 단계;
상기 검색된 컴포넌트들에 대해서 호프 변환(Hough transform)을 하여 1차로 각 연결된 컴포넌트의 네 개의 코너점을 찾는 단계;
상기 1차로 네 개의 코너점을 찾은 후 상기 네 개의 코너점 주변의 픽셀들을 파악해서 파악된 주변의 픽셀들 중 마커의 기울어짐을 가장 최소화하는 네 개의 코너점을 산출하는 단계; 및
상기 산출된 네 개의 코너점의 각도를 평행-평행-매핑(plane-to-plane homography)으로 설정된 마커의 위치에 맞도록 조절하여 일치 여부를 판단하는 단계를 포함하는, 객체 추적 로봇의 객체 추적 방법. - 제 11 항에 있어서,
상기 해당 객체가 추적하고자 하는 객체인 경우 상기 레이저 센서에 수신된 레이저 신호를 이용하여 객체와의 거리를 계산해서 객체와 일정한 거리를 유지하도록 구동모터를 제어하는 단계는,
상기 계산된 거리에 대해서 Split-and-Merge 알고리즘을 이용하여 주변의 경계선 및 꼭지점을 찾아내는 단계; 와
상기 찾아낸 주변의 꼭지점들을 주변 환경의 꼭지점들의 절대적인 좌표로 구성된 맵 정보와 비교하여 로봇의 위치와 이동방향을 계산하는 단계를 포함하는, 객체 추적 로봇의 객체 추적 방법. - 제 16 항에 있어서,
상기 찾아낸 주변의 꼭지점들을 주변 환경의 꼭지점들의 절대적인 좌표로 구성된 맵 정보와 비교하여 로봇의 위치와 이동방향을 계산하는 단계는,
상기 꼭지점들의 동일한 패턴을 맵 정보에서 찾아내기 위해 꼭지점들 사이의 거리와 각 정보를 이용하되,
상기 동일한 패턴을 갖는 꼭지점들을 맵정보에서 찾은 이후에 로봇의 위치를 아래의 수학식을 이용하여 파악하는, 객체 추적 로봇의 객체 추적 방법.
[수 학 식]
,
,
이때, 은 절대원점을 기준으로 한 계산된 로봇의 이동방향이고, 은 동일한 패턴을 갖는 꼭지점들의 개수이고, 는 꼭지점들의 인덱스이고, 는 인덱스 i의 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점이고, 는 인덱스 i의 맵정보에 저장된 꼭지점이고, 는 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점들의 집합이고, 은 맵정보에 저장된 꼭지점들의 집합이고, 는 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점 인덱스 i를 기준으로 꼭지점 인덱스 j가 이루는 각이고, 은 맵정보의 꼭지점 인덱스 i를 기준으로 꼭지점 인덱스 j가 이루는 각이고, 은 절대원점을 기준으로 한 계산된 로봇의 x축 방향 좌표이고, 은 절대원점을 기준으로 한 계산된 로봇의 y축 방향 좌표이고, 는 레인지 파인더의 데이터로부터 추출된 꼭지점 인덱스 의 x축 방향 상대좌표이고, 는 맵정보의 꼭지점 인덱스 의 x축 방향 절대좌표이고, 는 레인지 파인더의 데이터로부터 추출된 꼭지점 인덱스 의 y축 방향 상대좌표이고, 는 맵정보의 꼭지점 인덱스 의 y축 방향 절대좌표이다. - 제 17 항에 있어서,
상기 찾아낸 주변의 꼭지점들을 주변 환경의 꼭지점들의 절대적인 좌표로 구성된 맵 정보와 비교하여 로봇의 위치와 이동방향을 계산하는 단계는,
상기 맵에 저장된 꼭지점들과 레이저가 반사된 지점까지의 거리를 이용하여 추출된 꼭지점들의 패턴을 비교하여 가장 높은 상관도를 갖는 꼭지점들을 선택하고, 찾은 패턴의 위치를 이용하여 로봇의 위치를 유추하는, 객체 추적 로봇의 객체 추적 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100082996A KR101233938B1 (ko) | 2010-08-26 | 2010-08-26 | 객체 추적 로봇 및 그 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100082996A KR101233938B1 (ko) | 2010-08-26 | 2010-08-26 | 객체 추적 로봇 및 그 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120019661A KR20120019661A (ko) | 2012-03-07 |
KR101233938B1 true KR101233938B1 (ko) | 2013-02-15 |
Family
ID=46128496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100082996A KR101233938B1 (ko) | 2010-08-26 | 2010-08-26 | 객체 추적 로봇 및 그 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101233938B1 (ko) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101508860B1 (ko) | 2013-12-31 | 2015-04-07 | 고려대학교 산학협력단 | 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법 |
KR102028622B1 (ko) * | 2018-01-31 | 2019-10-04 | 주식회사 에디테크놀로지 | 드론을 이용한 객체 자동 추적 방법 및 시스템 |
KR102587926B1 (ko) * | 2021-02-03 | 2023-10-12 | (주)서울로보틱스 | 객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체 |
WO2023200075A1 (ko) * | 2022-04-12 | 2023-10-19 | (주)서울로보틱스 | 객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100612858B1 (ko) * | 2004-08-23 | 2006-08-14 | 삼성전자주식회사 | 로봇을 이용하여 사람을 추적하는 방법 및 장치 |
KR100823739B1 (ko) * | 2006-12-08 | 2008-04-21 | 한국전자통신연구원 | 주변 환경 변화에 신속하게 적응하여 환경 지도를 작성할수 있는 이동체의 환경 지도 작성 장치 및 그 방법 |
JP2009052940A (ja) | 2007-08-24 | 2009-03-12 | Toshiba Corp | 移動物体検出装置および自律移動物体 |
KR20100086589A (ko) * | 2009-01-23 | 2010-08-02 | 성균관대학교산학협력단 | 지그비의 수신신호세기를 이용한 지능형 이동로봇의 이동 대상물 추적 제어 장치 및 그 방법 |
-
2010
- 2010-08-26 KR KR1020100082996A patent/KR101233938B1/ko active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100612858B1 (ko) * | 2004-08-23 | 2006-08-14 | 삼성전자주식회사 | 로봇을 이용하여 사람을 추적하는 방법 및 장치 |
KR100823739B1 (ko) * | 2006-12-08 | 2008-04-21 | 한국전자통신연구원 | 주변 환경 변화에 신속하게 적응하여 환경 지도를 작성할수 있는 이동체의 환경 지도 작성 장치 및 그 방법 |
JP2009052940A (ja) | 2007-08-24 | 2009-03-12 | Toshiba Corp | 移動物体検出装置および自律移動物体 |
KR20100086589A (ko) * | 2009-01-23 | 2010-08-02 | 성균관대학교산학협력단 | 지그비의 수신신호세기를 이용한 지능형 이동로봇의 이동 대상물 추적 제어 장치 및 그 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR20120019661A (ko) | 2012-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11170466B2 (en) | Dense structure from motion | |
US20200334843A1 (en) | Information processing apparatus, control method for same, non-transitory computer-readable storage medium, and vehicle driving support system | |
CN105841687B (zh) | 室内定位方法和系统 | |
JP4612635B2 (ja) | 低照度の深度に適応可能なコンピュータ視覚を用いた移動物体検出 | |
US9625912B2 (en) | Methods and systems for mobile-agent navigation | |
US9400941B2 (en) | Method of matching image features with reference features | |
US10824853B2 (en) | Human detection system for construction machine | |
JP5747549B2 (ja) | 信号機検出装置及びプログラム | |
Gschwandtner et al. | Infrared camera calibration for dense depth map construction | |
WO2022078513A1 (zh) | 定位方法、装置、自移动设备和存储介质 | |
WO2022078488A1 (zh) | 定位方法、装置、自移动设备和存储介质 | |
US11189042B2 (en) | Information processing device, information processing method, and computer program | |
WO2009142841A2 (en) | Rectangular table detection using hybrid rgb and depth camera sensors | |
US20220189055A1 (en) | Item detection device, item detection method, and industrial vehicle | |
JP2019125116A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20170073934A1 (en) | Human detection system for construction machine | |
JP6278791B2 (ja) | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム | |
KR102089343B1 (ko) | 어라운드 뷰 모니터링 시스템 및 카메라 공차 보정 방법 | |
CN107527368B (zh) | 基于二维码的三维空间姿态定位方法与装置 | |
KR101233938B1 (ko) | 객체 추적 로봇 및 그 방법 | |
CN110942470A (zh) | 图像处理装置 | |
JP6278790B2 (ja) | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム | |
JP6410231B2 (ja) | 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム | |
WO2020090897A1 (ja) | 位置検出装置、位置検出システム、遠隔制御装置、遠隔制御システム、位置検出方法、及びプログラム | |
Mutka et al. | A low cost vision based localization system using fiducial markers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20151224 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170102 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190107 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20200102 Year of fee payment: 8 |