KR101251184B1 - 구동 명령을 이용한 비젼 트래킹 시스템 및 방법 - Google Patents

구동 명령을 이용한 비젼 트래킹 시스템 및 방법 Download PDF

Info

Publication number
KR101251184B1
KR101251184B1 KR1020100075515A KR20100075515A KR101251184B1 KR 101251184 B1 KR101251184 B1 KR 101251184B1 KR 1020100075515 A KR1020100075515 A KR 1020100075515A KR 20100075515 A KR20100075515 A KR 20100075515A KR 101251184 B1 KR101251184 B1 KR 101251184B1
Authority
KR
South Korea
Prior art keywords
movement
driving
control signal
movement information
vision
Prior art date
Application number
KR1020100075515A
Other languages
English (en)
Other versions
KR20120013513A (ko
Inventor
조동일
박재홍
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020100075515A priority Critical patent/KR101251184B1/ko
Priority to PCT/KR2011/001190 priority patent/WO2012018168A1/ko
Priority to US13/319,608 priority patent/US9996084B2/en
Priority to JP2013523076A priority patent/JP5760084B2/ja
Publication of KR20120013513A publication Critical patent/KR20120013513A/ko
Application granted granted Critical
Publication of KR101251184B1 publication Critical patent/KR101251184B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Abstract

비젼 트래킹(vision tracking) 시스템은, 제1 몸체 및 제2 몸체를 포함하는 이동 가능한 물체의 구동을 제어하기 위한 것으로서, 구동 명령에 따라 제1 몸체를 구동시키는 제1 구동부; 상기 구동 명령을 이용하여, 상기 제1 몸체의 움직임에 대응하여 상기 제2 몸체를 구동시키기 위한 제어 신호를 생성하는 제어부; 및 상기 제1 몸체 및 상기 제2 몸체 사이에 연결되며, 상기 제어 신호에 따라 상기 제2 몸체를 구동시키는 제2 구동부를 포함할 수 있다. 비젼 트래킹 시스템을 이용하여, 이동 로봇 등의 이동 가능한 물체가 이동 중인 경우에도 상기 물체에 포함된 비젼 센서가 인식 대상 목표를 주시하도록 함으로써 안정적인 영상 정보를 얻을 수 있는 이점이 있다.

Description

구동 명령을 이용한 비젼 트래킹 시스템 및 방법{VISION TRACKING SYSTEM AND METHOD USING MOTION COMMANDS}
실시예들은 구동 명령을 이용한 비젼 트래킹(vision tracking) 시스템 및 방법에 관한 것이다. 상세하게는, 구동 명령을 이용하거나 구동 명령과 이동 가능한 물체에서 감지된 이동 정보를 함께 이용하여 물체에 포함된 비젼 센서가 인식 대상 목표를 주시하도록 물체의 구동을 제어할 수 있는 구동 명령을 이용한 비젼 트래킹 시스템 및 방법에 관한 것이다.
인간의 노력을 대체하여 무인 경비 등의 업무를 수행하는 이동 로봇이 널리 사용되고 있다. 이러한 이동 로봇의 작업 수행을 위해서는 주행부를 사용하여 로봇의 이동 및 방향 전환을 수행하는 기능이 필수적으로 요구된다. 또한 이동 로봇에 있어서는, 특정 사물을 인식하거나 추적하는 등의 기능을 수행하기 위하여 외부로부터 영상 신호를 획득하는 비젼(vision) 시스템을 구현하는 것이 핵심 기능 중의 하나에 해당한다.
그러나, 이동 로봇의 주행부와 비젼 시스템은 모두 동일한 몸체에 연결되어 있으므로, 로봇의 주행부가 회전하거나 또는 비젼 시스템이 위치한 부분이 회전하는 경우 비젼 시스템이 인식하고자 하는 목표물이 비젼 시스템의 입력 범위를 벗어나게 되는 문제점이 있다. 또한, 목표물이 입력 범위를 벗어나지 않더라도 비젼 시스템이 획득하는 영상 신호에 번짐(blurring) 등의 현상이 발생하게 되어 비젼 시스템의 물체 인식률 및 정확도가 감소하게 되는 문제점이 있다.
본 발명의 일 측면에 따르면, 구동 명령을 이용하거나 구동 명령과 이동 가능한 물체에서 감지된 이동 정보를 함께 이용하여 상기 물체에 포함된 비젼 센서가 인식 대상 목표를 주시하도록 상기 물체의 구동을 제어할 수 있는 구동 명령을 이용한 비젼 트래킹(vision tracking) 시스템 및 방법을 제공할 수 있다.
일 실시예에 따른 비젼 트래킹(vision tracking) 시스템은, 제1 몸체 및 제2 몸체를 포함하는 이동 가능한 물체의 구동을 제어하기 위한 것으로서, 구동 명령에 따라 제1 몸체를 구동시키는 제1 구동부; 상기 구동 명령을 이용하여, 상기 제1 몸체의 움직임에 대응하여 상기 제2 몸체를 구동시키기 위한 제어 신호를 생성하는 제어부; 및 상기 제1 몸체 및 상기 제2 몸체 사이에 연결되며, 상기 제어 신호에 따라 상기 제2 몸체를 구동시키는 제2 구동부를 포함할 수 있다.
상기 제어부는 상기 구동 명령을 상기 제1 몸체의 움직임에 대응되는 제1 이동 정보를 생성할 수 있다. 상기 비젼 트래킹 시스템은, 상기 제1 몸체에 위치하며, 상기 제1 몸체의 움직임을 감지하여 상기 제1 몸체의 움직임에 대응되는 제2 이동 정보를 생성하는 감지부를 더 포함할 수 있다. 이때, 상기 제어부는 상기 제1 이동 정보 및 상기 제2 이동 정보를 이용하여 상기 제어 신호를 생성할 수 있다.
또한, 상기 제어부는 상기 제1 이동 정보 및 상기 제2 이동 정보를 비교하여 상기 제1 몸체의 움직임 중 발생하는 외란을 측정할 수도 있다.
상기 비젼 트래킹 시스템은, 상기 제2 몸체에 위치하며 영상 정보를 수신하는 비젼 센서를 더 포함할 수 있다. 이때, 상기 제어부는 상기 비젼 센서에서 수신된 영상 정보를 되먹임 신호로 이용하여 상기 제어 신호를 생성할 수도 있다.
일 실시예에 따른 비젼 트래킹 방법은, 제1 몸체 및 제2 몸체를 포함하는 이동 가능한 물체의 구동을 제어하기 위한 것으로서, 구동 명령에 따라 상기 제1 몸체를 구동시키는 단계; 상기 구동 명령을 이용하여, 상기 제1 몸체의 움직임에 대응하여 상기 제2 몸체를 구동시키기 위한 제어 신호를 생성하는 단계; 및 상기 제어 신호에 따라 상기 제2 몸체를 구동시키는 단계를 포함할 수 있다.
상기 제어 신호를 생성하는 단계는, 상기 구동 명령을 이용하여 상기 제1 몸체의 움직임에 대응되는 제1 이동 정보를 생성하는 단계를 포함할 수 있다. 또한, 상기 제어 신호를 생성하는 단계는, 상기 제1 몸체의 움직임을 감지하여 상기 제1 몸체의 움직임에 대응되는 제2 이동 정보를 생성하는 단계; 및 상기 제1 이동 정보 및 상기 제2 이동 정보를 이용하여 상기 제어 신호를 생성하는 단계를 포함할 수도 있다.
상기 비젼 트래킹 방법은, 상기 제1 이동 정보 및 상기 제2 이동 정보를 비교하여 상기 제1 몸체의 움직임 중 발생하는 외란을 측정하는 단계를 더 포함할 수도 있다.
또한, 상기 제2 몸체는 영상 정보를 수신하는 비젼 센서를 포함하되, 상기 제어 신호를 생성하는 단계는, 상기 비젼 센서에서 수신된 영상 정보를 되먹임 신호로 이용하여 상기 제어 신호를 생성하는 단계를 포함할 수도 있다.
본 발명의 일 측면에 따른 비젼 트래킹(vision tracking) 시스템 및 방법을 이용하면, 이동 로봇을 구동시키기 위한 구동 명령을 이용하거나 또는 이러한 구동 명령에 더하여 추가적으로 다양한 센서를 이용한 감지 결과를 이용하여 이동 로봇의 이동 정보를 파악할 수 있다. 파악된 이동 정보에 기초하여 이동 로봇의 구동을 제어함으로써, 이동 로봇이 선형 및/또는 회전 이동하는 경우에도 이동 로봇의 비젼 센서의 지향점을 인식 대상 목표를 향하여 일정하게 유지할 수 있다. 즉, 목표가 비젼 센서의 출력 영상 프레임의 중심에 지속적으로 위치하도록 할 수 있다.
따라서, 이동 로봇이 움직이는 경우에도 비젼 센서가 인식 대상 목표를 주시하게 되므로, 목표가 비젼 센서의 인식 범위를 벗어나거나 또는 인식 범위를 벗어나지 않더라도 영상에 번짐(blurring) 등의 현상이 발생하는 것을 방지할 수 있다. 따라서, 이동 로봇의 이동 중에도 안정적인 영상 정보를 얻을 수 있어 비젼 센서의 인식률 및 트래킹 성공율을 향상시킬 수 있다. 또한, 구동 명령을 이용하여 예측한 이동 정보와 다양한 센서를 이용하여 실제로 감지한 이동 정보를 비교하여, 주행 중에 발생할 수 있는 미끄러짐 또는 충돌 등의 현상을 측정할 수 있다.
도 1은 일 실시예에 따른 비젼 트래킹(vision tracking) 시스템의 구성을 도시한 블록도이다.
도 2는 일 실시예에 따른 비젼 트래킹 시스템이 적용된 이동 가능한 물체를 나타내는 개략도이다.
도 3은 일 실시예에 따른 비젼 트래킹 시스템이 적용된 물체가 이동하는 경우 제2 몸체의 지향 방향이 회전하는 상태를 도시한 개략적인 평면도이다.
도 4는 일 실시예에 따른 비젼 트래킹 시스템이 적용된 물체가 이동하는 경우 비젼 센서의 출력 영상을 도시한 개략도이다.
도 5는 이동 가능한 물체에 미끄러짐 현상이 발생하는 경우와 발생하지 않는 경우의 이동 경로를 예시적으로 도시한 평면도이다.
도 6은 일 실시예에 따른 비젼 트래킹 방법의 순서도이다.
이하에서, 도면을 참조하여 본 발명의 몇몇 실시예들에 대하여 상세히 살펴본다.
도 1은 일 실시예에 따른 비젼 트래킹(vision tracking) 시스템의 구성을 도시한 블록도이다.
도 1을 참조하면, 비젼 트래킹 시스템은 제1 구동부(20), 제어부(30) 및 제2 구동부(40)를 포함할 수 있다. 일 실시예에서, 비젼 트래킹 시스템은 구동 명령 생성부(10)를 더 포함할 수도 있다. 다른 실시예에서, 비젼 트래킹 시스템은 비젼 센서(50)를 더 포함할 수도 있다. 또 다른 실시예에서, 비젼 트래킹 시스템은 감지부(60)를 더 포함할 수도 있다.
본 명세서에서 부(unit), 장치(device) 또는 시스템(system) 등의 용어는 하드웨어, 하드웨어와 소프트웨어의 조합, 또는 소프트웨어 등 컴퓨터 관련 엔티티(entity)를 지칭할 수 있다. 예를 들어, 본 명세서에 기재된 부, 장치 또는 시스템에는 실행중인 프로세스, 프로세서, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램 및/또는 컴퓨터가 포함될 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 컴퓨터에서 실행중인 애플리케이션(application) 및 컴퓨터의 양쪽이 모두 부, 장치 또는 시스템에 해당될 수 있다.
도 2는 일 실시예에 따른 비젼 트래킹 시스템이 이동 가능한 물체에 적용된 상태를 나타내는 개략도이다.
이동 가능한 물체는 제1 몸체(1) 및 제2 몸체(2)를 포함할 수 있다. 여기서, 이동 가능한 물체는 자동 또는 수동 조작에 의해 선형 및/또는 회전 이동할 수 있는 물체로서, 예를 들어 이동 로봇일 수 있다. 이때, 제1 몸체(1)는 몸통 또는 다리 등과 같이 이동 로봇의 주행을 위한 장치가 장착되는 부분일 수 있으며, 제2 몸체(2)는 머리 또는 눈 등과 같이 이동 로봇의 비젼 센서가 장착되는 부분일 수 있다. 제1 몸체(1) 및 제2 몸체(2) 각각은 반드시 하나의 일체화된 부분을 지칭하는 것은 아니며, 서로 연관된 복수 개의 부분을 포함할 수도 있다.
본 명세서에 기재된 실시예들에서는 설명의 편의를 위해 일 실시예에 따른 비젼 트래킹 시스템이 적용되는 이동 가능한 물체를 이동 로봇에 기초하여 설명하나, 본 발명의 사상은 이에 한정되는 것은 아니다.
이하에서는, 도 1 및 도 2를 참조하여 일 실시예에 따른 비젼 트래킹 시스템에 대하여 설명한다.
구동 명령 생성부(10)는 제1 몸체(1)를 구동시키기 위한 구동 명령을 생성하기 위한 부분이다. 구동 명령 생성부(10)에서 생성된 구동 명령이 제1 구동부(20)로 전달되어 제1 몸체(10)를 선형 또는 회전 이동시키는 등의 구동이 이루어진다. 구동 명령 생성부(10)에서 생성되는 구동 명령은 이동 로봇을 구동하기 위한 하나 이상의 명령(command), 신호(signal) 및/또는 입력(input) 등을 포함하는 포괄적인 정보를 지칭한다. 예를 들어, 구동 명령에는 이동 로봇의 이동 거리, 이동 속도, 회전 각도, 회전 속도 또는 이동 도착 지점 정보 등 이동 로봇의 선형 또는 회전 이동을 정의하기 위한 하나 이상의 정보가 포함될 수 있다.
일 실시예에서, 구동 명령 생성부(10)는 제1 몸체(1) 내에 위치하여 이동 로봇의 일부를 구성할 수 있다. 이 경우, 구동 명령 생성부(10)에서 생성되는 구동 명령은 이동 로봇 자체에서 지능 제어를 통해 자동적으로 생성될 수 있다. 그러나, 이는 예시적인 것으로서, 다른 실시예에서 구동 명령 생성부(10)는 제1 몸체(1)의 외부에 위치하며 유선 및/또는 무선 통신을 통하여 이동 로봇에 구동 명령을 전달할 수도 있다. 이 경우, 구동 명령 생성부(10)에서 생성되는 구동 명령은 이동 로봇 외부의 사용자에 수동 입력되어 이동 로봇으로 전달될 수 있다.
제1 구동부(20)는 구동 명령 생성부(10)에서 생성된 구동 명령을 수신하고, 수신된 구동 명령에 따라 제1 몸체(1)를 구동시키기 위한 부분이다. 예를 들어, 제1 구동부(20)는 구동 명령에 의해 지정된 이동 거리, 이동 속도 또는 도착 지점 정보를 이용하여 제1 몸체(1)를 이동시키거나, 또는 구동 명령에 의해 지정된 회전 각도 또는 회전 속도로 제1 몸체(1)를 회전시키는 등의 구동을 수행할 수 있다.
도 2에 도시된 일 실시예에서 제1 구동부(20)는 제1 몸체(1)의 하부에 위치하는 바퀴의 형상을 갖는다. 그러나 이는 예시적인 것으로서, 제1 구동부(20)는 바퀴 외에 제1 몸체(1)의 선형 또는 회전 이동을 위한 다른 상이한 수단으로 구성될 수도 있다. 또한, 도 2에 도시된 제1 몸체(1) 및 제2 몸체(2) 역시 설명의 편의를 위하여 예시적으로 가시화된 것으로서, 제1 몸체(2) 및 제2 몸체(2) 각각의 크기, 개수, 형상 및/또는 이들 사이의 연결 방식은 도 2에 도시된 것으로 한정되지 않는다.
제2 구동부(40)는 제어부(30)에서 생성되는 제어 신호에 따라 제2 몸체(2)를 구동시키기 위한 부분이다. 제2 구동부(40)는 제1 몸체(1) 및 제2 몸체(2) 사이에 연결될 수 있다. 제2 구동부(40)는 제2 몸체(2)를 선형 또는 회전 이동시키는 등의 구동을 수행하기 위한 임의의 장치일 수 있으며, 예를 들어, 선형 모션 구동기 및/또는 회전 모션 구동기일 수 있다. 또한, 제2 구동부(40)는 축 방향을 따라 제2 몸체(2)를 이동시키거나 또는 축 방향을 기준으로 제2 몸체(2)를 회전시키기 위한 하나 이상의 구동축을 포함할 수도 있다.
비젼 센서(50)는 제2 몸체(2)에 위치하며 인식 대상 목표의 영상 정보를 수신하기 위한 부분이다. 예를 들어, 비젼 센서(50)는 제2 몸체(2)에 장착되거나 제2 몸체(2) 내에 삽입 또는 일체화된 형태로 위치할 수 있다. 비젼 센서(50)는 영상 정보의 수신이 가능한 임의의 장치일 수 있으며, 예를 들어, 단안 카메라(monocular camera), 스테레오 카메라(stereo camera) 또는 다른 적당한 영상 획득 수단을 포함할 수 있다.
비젼 센서(50)가 위치하는 제2 몸체(2)는 제1 몸체(1)와 직접 또는 간접적으로 연결되어 있으므로, 제1 몸체(1)가 선형 또는 회전 이동하여 움직이면 제2 몸체(2)의 위치 및/또는 방향도 영향을 받아 변화하며, 그 결과 제2 몸체(2)에 위치하는 비젼 센서(50)에 수신되는 영상 정보 또한 영향을 받게 된다. 따라서, 제1 몸체(1)가 움직임에 따라 목표가 비젼 센서(50)의 입력 범위를 벗어나거나, 또는 비젼 센서(50)의 입력 범위를 벗어나지 않더라도 비젼 센서(50)에서 수신되는 영상 정보에 번짐(blurring) 등의 현상이 발생할 수 있다.
이를 방지하기 위하여, 제어부(30)는 구동 명령 생성부(10)에서 생성된 구동 명령을 수신하고, 수신된 구동 명령으로부터 예측되는 제1 몸체(1)의 움직임에 대응되도록 제2 몸체(2)를 구동시키기 위한 제어 신호를 생성한다. 예를 들어, 제어부(30)는 구동 명령으로부터 예측된 제1 몸체(1)의 이동 방향 또는 회전 방향을 산출하고, 산출된 이동 방향 또는 회전 방향과 반대 방향으로 제2 몸체(2)를 이동시키거나 회전시키기 위한 제어 신호를 생성할 수 있다.
도 3은 제어부에 의한 동작의 결과 제1 몸체의 움직임에 대응하여 제2 몸체의 지향 방향이 회전하는 상태를 개략적으로 도시한 평면도이다. 도 3을 참조하면, 제1 몸체(1)는 제1 구동부(20)에 의하여 도면에서 화살표 방향으로 직선으로 이동할 수 있다. 한편, 비젼 센서의 인식 대상 목표물(3)은 제1 몸체(1)의 이동 방향에 대해 소정의 각도(θ)만큼 우측으로 회전된 방향에 위치할 수 있다. 제1 몸체(1)가 화살표 방향으로 이동함에 따라 제1 몸체(1)와 목표물(3) 사이의 각도(θ)는 더 증가하게 된다.
이때, 제어부는 제1 몸체(1)를 구동시키기 위한 구동 명령으로부터 제1 몸체(1)의 예측된 이동 정보를 산출하고, 제1 몸체(1)의 이동으로 인한 영향을 최소화하도록 제2 몸체(2)를 제어하기 위한 제어 신호를 생성할 수 있다. 즉, 제1 몸체(1)가 화살표 방향으로 이동함에 따라 제어부는 제어 신호를 통하여 제2 몸체(2)의 지향 방향을 점차 우측으로 회전시킬 수 있다. 그 결과, 제2 몸체(2)에 위치하는 비젼 센서는 제1 몸체(1)의 주행에도 불구하고 항상 목표물(3)을 주시하게 되므로, 목표물(3)의 안정적인 영상 정보를 얻을 수 있다.
도 3에서는 제1 몸체(1)가 일 방향으로 선형 이동하는 경우의 동작에 대하여 예시적으로 설명하였으나, 제어부는 제1 몸체(1)가 선형 및/또는 회전 이동을 포함하여 임의의 주행을 하는 경우에도 제1 몸체(1)의 이동 정보를 바탕으로 제1 몸체(1)와 목표물(3)이 이루는 각도(θ)를 산출하여 제1 몸체(1)의 움직임에 대응되도록 제2 몸체(2)를 회전시킬 수 있다. 또한, 도 3에서는 제어부에 의해 제2 몸체(2)의 지향 방향을 회전시키는 동작에 대하여 예시적으로 설명하였으나, 제어부는 하나 이상의 구동축 방향으로 제2 몸체(2)를 이동시킴으로서 제1 몸체(1)의 움직임에 대응시켜 제2 몸체(2)의 위치를 변경하는 것도 가능하다.
다시 도 1 및 도 2를 참조하면, 전술한 것과 같은 제어를 위해 제어부(30)는 제1 몸체(1)를 구동시키기 위한 구동 명령을 앞먹임 신호로 이용하여 이로부터 예측되는 제1 몸체(1)의 움직임을 나타내는 제1 이동 정보를 생성하고, 제1 이동 정보에 대응되도록 제어 신호를 생성할 수 있다. 이때, 구동 명령으로부터 이동 정보를 예측하기 위해, 규칙 기반 방법(rule based method) 또는 칼만 필터(Kalman filter)를 이용한 방법 등을 포함한 다양한 예측 제어 기술이 적용될 수 있다. 또한, 제어부(30)는 이러한 예측 제어 기술을 구현하기 위한 P, PI, PD 또는 PID 제어기 등 다양한 제어 회로 등을 포함할 수 있다. 그러나, 본 발명의 실시예들에서 제어부(30)의 구성은 특정 제어 기술 또는 회로 구성 등으로 한정되는 것은 아니다.
도 4는 이동 가능한 물체에 일 실시예에 따른 비젼 트래킹 시스템이 적용된 결과 얻어지는 비젼 센서의 출력 영상 프레임을 개략적으로 도시한 도면이다. 도 4를 참조하면, 이동 로봇의 제1 몸체의 움직임에 대응되도록 제2 몸체를 구동시킨 결과, 제1 몸체의 움직임에도 불구하고 제2 몸체의 비젼 센서에서 얻어지는 영상 정보에서 인식 대상 목표물(3)은 영상 프레임을 벗어나지 않고 영상 프레임 중앙의 위치를 유지할 수 있다. 따라서, 안정적인 영상 정보를 얻을 수 있으며 영상 정보에 번짐 등의 현상이 발생하는 것을 방지할 수 있다.
한편, 이동 로봇의 이동 중에는 미끄러짐이나 충돌 등과 같은 외란(disturbance)이 발생할 수 있다. 이 경우, 구동 명령으로부터 예측되는 제1 몸체(1)의 이동과 실제 제1 몸체(1)의 이동 사이에 오차가 발생할 가능성이 있다. 도 5는 이동 로봇의 이동시에 발생하는 미끄러짐이나 충돌 등의 영향을 나타내는 개략적인 평면도이다.
도 5를 참조하면, 제1 몸체(1) 및 제2 몸체(2)로 이루어지는 이동 로봇의 이동 경로가 화살표롤 도시된다. 도면에서 실선으로 표시된 화살표(100, 110, 120, 130)는 구동 명령으로부터 예측된 이동 로봇의 이동 경로를 나타내며, 점선으로 표시된 화살표(200, 210, 220, 230)는 실제 이동 로봇의 이동 경로를 나타낸다. 도시되는 바와 같이 실선 화살표(110)와 점선 화살표(210) 사이 및 실선 화살표(130)와 점선 화살표(230) 사이에 오차가 존재하는 것을 확인할 수 있다. 이는 이동 로봇이 방향을 전환하는 경우 일부 영역(A, B)에서 미끄러짐이 발생한 것을 나타낸다.
이와 같은 오차를 보정하기 위하여, 일 실시예에서 제어부(30)는 구동 명령으로부터 산출된 제1 이동 정보와 함께 감지부(60)에서 생성된 제2 이동 정보를 이용하여 전술한 제어 신호를 생성할 수 있다. 감지부(60)는 제1 몸체(1)의 실제 이동 정보를 감지하기 위한 것으로서, 제1 몸체(1)상에 장착되거나 제1 몸체(1) 내부에 위치하는 다양한 센서 등의 소자를 포함하여 구성될 수 있다. 예컨대, 감지부(60)는 제1 몸체(1)의 위치를 감지하여 얻은 위치센싱정보를 이용하여 제2 이동 정보를 생성할 수도 있다.
일 실시예에서, 감지부(60)는 엔코더(encoder), 관성 센서, 실내(indoor) GPS(Global Positioning System), 랜드마크(landmark) 장치, 거리 센서 또는 다른 적당한 소자를 하나 이상 포함할 수 있다. 일 예로, 엔코더의 경우 제1 몸체(1)를 구동시키기 위한 제1 구동부(21)의 회전수를 이용하여 제1 몸체(1)의 선형 또는 회전 이동을 감지할 수 있다. 또한, 랜드마크 장치의 경우 이동 로봇의 환경에 미리 설치된 하나 이상의 랜드마크를 이용하여 제1 몸체(1)의 위치 변화를 감지할 수 있다. 또한, 실내 GPS의 경우 지정된 위치에 절대 좌표계의 절대값을 가지고 있는 신호 송신기 및/또는 수신기를 설치하고 제1 몸체(1)의 감지부(60)에서 이와 통신하여 삼각 측량을 통해 제1 몸체(1)의 위치 변화를 감지할 수도 있다.
감지부(60)를 이용하는 경우, 제어부(30)는 구동 명령을 이용하여 생성된 제1 이동 정보 및 감지부(60)로부터 수신된 제2 이동 정보를 함께 앞먹임 신호로 이용하여 제어 신호를 생성할 수 있다. 따라서, 이동 로봇의 미끄러짐이나 충돌 등에 의한 오차를 보정하고 보다 정확한 이동 정보를 산출할 수 있게 된다. 이 경우, 제어부(30)는 제1 이동 정보 및 제2 이동 정보로부터 제어 신호를 생성하기 위해 비례 제어 방식, 퍼지 이론(Fuzzy logic), 유전자 알고리즘 또는 신경 회로망 등의 방식을 채택할 수도 있다. 그러나 이는 예시적인 것으로서, 제어부(30)의 구성은 특정 기법 또는 회로에 한정되는 것은 아니다.
또한, 감지부(60)를 이용하는 경우, 제어부(30)는 구동 명령을 이용하여 생성된 제1 이동 정보와 감지부(60)로부터 수신된 제2 이동 정보를 비교하여 미끄러짐이나 충돌 등 외란의 발생 여부나 정도를 측정할 수 있다. 예를 들어, 제어부(30)는 제1 이동 정보 및 제2 이동 정보의 비교 결과에 따라 미끄러짐이나 충돌의 크기 및/또는 범위를 산출할 수도 있다.
한편, 제어부(30)는 구동 명령 및 감지부(60)의 감지 결과를 앞먹임 신호로 이용할 뿐만 아니라, 제2 몸체(2)의 비젼 센서(50)에서 수신되는 영상 정보를 되먹임 신호로 이용하여 제어 신호를 생성할 수도 있다. 비젼 센서(50)에서 실제로 수신되는 영상 정보를 되먹임 신호로 이용하여 피드백을 수행함으로써, 보다 정밀하게 제2 몸체(2)의 구동을 제어하여 비젼 센서(50)에 수신되는 영상 정보의 안정성을 높일 수 있다.
이상에서 설명한 실시예에서는 특정 인식 대상 목표를 주시하기 위해 이동 로봇에서 비젼 센서가 위치하는 제2 몸체 부분을 구동시키도록 트래킹 시스템을 구현하였으나, 이는 예시적인 것으로서 본 발명에 따른 비젼 트래킹 시스템은 이동 로봇의 다른 부분의 위치 및/또는 방향을 일정하게 유지하기 위한 안정화 및 제어에도 적용될 수 있다. 또한, 이동 로봇 외에도 구동 명령으로 제어되는 임의의 무인 장치에 포함된 비젼 센서의 트래킹 기능 구현에도 적용될 수 있다.
도 6은 일 실시예에 따른 비젼 트래킹 방법을 나타내는 순서도이다.
도 6을 참조하면, 먼저 이동 로봇의 제1 몸체를 구동시키기 위한 구동 명령을 생성할 수 있다(S1). 구동 명령에는 이동 로봇의 이동 거리, 이동 속도, 회전 각도, 회전 속도 또는 이동 도착 지점 정보 등 이동 로봇의 선형 또는 회전 이동을 정의하기 위한 하나 이상의 정보가 포함될 수 있다. 이러한 구동 명령은 이동 로봇의 외부로부터 생성되어 유선 및/또는 무선 통신을 통하여 이동 로봇에 전달될 수도 있으며, 또는 이동 로봇의 내부에서 자체적으로 생성될 수도 있다.
다음으로, 생성된 구동 명령에 따라 제1 몸체를 구동시킬 수 있다(S2). 이동 로봇의 제1 몸체 및 제2 몸체는 직접 또는 간접적으로 서로 연결되어 있으므로, 구동 명령에 따라 제1 몸체가 선형 또는 회전 이동하면 제2 몸체의 위치 또는 방향도 이에 따라 변화하게 된다. 또한, 제2 몸체는 인식 대상 목표의 영상 정보를 수신하기 위한 비젼 센서를 포함하며, 그 결과 제1 몸체의 움직임에 따라 비젼 센서에 수신되는 영상 정보 또한 영향을 받게 된다.
이러한 영향을 최소화하기 위한 과정으로서, 먼저 구동 명령을 이용하여 제1 몸체의 움직임에 대응되는 제1 이동 정보를 생성할 수 있다(S3). 예를 들어, 규칙 기반 방법, 칼만 필터를 이용한 방법 등 다양한 예측 제어 기술을 적용하여 구동 명령으로부터 제1 몸체의 움직임을 예측하여 제1 이동 정보를 생성할 수 있다.
다음으로, 이동 로봇에서 제1 몸체의 움직임을 감지하여 제2 이동 정보를 생성할 수 있다(S4). 제2 이동 정보는, 제1 몸체에 포함된 엔코더, 관성 센서, 실내 GPS, 랜드마크 장치, 거리 센서 또는 다른 적당한 센서 소자를 이용한 센싱 결과로부터 생성될 수 있다. 그러나, 이는 예시적인 것으로서, 다른 실시예에서는 제2 이동 정보 없이 제1 이동 정보만을 이용하여 비젼 트래킹을 수행하는 것도 가능하다.
다음으로, 제1 이동 정보 및 제2 이동 정보를 이용하여 제어 신호를 생성할 수 있다(S5). 생성된 제어 신호는 제1 이동 정보 및 제2 이동 정보로부터 산출되는 제1 몸체의 움직임에 대응되도록 제2 몸체를 구동시키기 위한 것이다. 예를 들어, 제어 신호는 제1 몸체의 이동 방향 또는 회전 방향과 반대 방향으로 제2 몸체를 이동시키거나 회전시키기 위한 신호일 수 있다. 한편, 전술한 제2 이동 정보의 생성 단계(S4)를 수행하지 않는 경우, 제어 신호의 생성 단계(S5)에서 제어 신호는 제1 이동 정보만을 이용하여 생성될 수도 있다.
다음으로, 생성된 제어 신호에 따라 제2 몸체를 구동시킬 수 있다(S6). 그 결과, 제1 몸체의 움직임에 대응되는 방향으로 제2 몸체가 이동하거나 회전하게 되므로, 제2 몸체에 위치하는 비젼 센서에서 수신되는 영상 정보에 대한 제1 몸체의 움직임의 영향을 최소화할 수 있다. 따라서, 이동 로봇이 움직이는 경우에도 비젼 센서가 목표를 주시할 수 있어 안정적인 영상 정보를 얻을 수 있으며, 영상 정보에 번짐 등의 현상이 발생하는 것을 방지할 수 있다.
일 실시예에서, 비젼 트래킹 방법은 제2 몸체의 비젼 센서에서 영상 정보를 수신하는 단계(S7) 및 수신된 영상 정보를 제어부에 되먹임하는 단계(S8)를 더 포함할 수도 있다. 이 경우 전술한 제1 영상 정보 및 제2 영상 정보를 앞먹임 신호로 이용하는 것에 더하여, 비젼 센서에서 수신되는 영상 정보를 되먹임 신호로 이용하여 피드백을 수행함으로써, 제어 신호의 생성 단계(S5)에서 보다 정밀하게 제2 몸체를 제어할 수 있는 제어 신호를 생성할 수 있다. 그러나 이는 예시적인 것으로서, 되먹임 신호 없이 제1 이동 정보 및 제2 이동 정보만을 앞먹임 신호로 이용하여 제어 신호를 생성할 수도 있다.
또한 일 실시예에서, 비젼 트래킹 방법은 제1 이동 정보 및 제2 이동 정보를 비교하여 미끄러짐 또는 충돌과 같은 외란을 측정하는 단계를 더 포함할 수도 있다(S9). 이동 로봇의 이동 중에는 미끄러짐이나 충돌 등과 같은 외란이 발생할 수 있으므로, 구동 명령으로부터 예측되는 제1 몸체의 움직임과 실제 제1 몸체의 움직임 사이에 오차가 발생할 수 있다. 따라서, 구동 명령으로부터 생성된 제1 이동 정보와 실제 제1 몸체에 위치하는 다양한 센서들로부터 생성된 제2 이동 정보를 비교함으로써, 미끄러짐이나 충돌 등의 발생 여부 및/또는 정도를 측정할 수 있다.
본 명세서에서 실시예들에 따른 비젼 트래킹 방법은 도면에 제시된 순서도를 참조로 하여 설명되었다. 간단히 설명하기 위하여 상기 방법은 일련의 블록들로 도시되고 설명되었으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 다른 블록들과 본 명세서에서 도시되고 기술된 것과 상이한 순서로 또는 동시에 일어날 수도 있으며, 동일한 또는 유사한 결과를 달성하는 다양한 다른 분기, 흐름 경로, 및 블록의 순서들이 구현될 수 있다. 또한, 본 명세서에서 기술되는 방법의 구현을 위하여 도시된 모든 블록들이 요구되지 않을 수도 있다.
또한, 이상에서 살펴본 본 발명은 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 발명의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.

Claims (17)

  1. 제1 몸체 및 제2 몸체를 포함하는 이동 가능한 물체의 구동을 제어하기 위한 비젼 트래킹 시스템으로서,
    제1 몸체를 구동시키기 위한 구동 명령을 수신하는 제1 구동부;
    상기 구동 명령으로부터 예측되는 상기 제1 몸체의 움직임을 나타내는 제1 이동 정보를 생성하고, 상기 제1 이동 정보를 이용하여, 상기 제1 몸체의 움직임에 대응하여 상기 제2 몸체를 구동시키기 위한 제어 신호를 생성하는 제어부; 및
    상기 제1 몸체 및 상기 제2 몸체 사이에 연결되며, 상기 제어 신호에 따라 상기 제2 몸체를 구동시키는 제2 구동부를 포함하는 것을 특징으로 하는 비젼 트래킹 시스템.
  2. 제 1항에 있어서,
    상기 구동 명령은, 상기 제1 몸체의 이동 거리, 이동 속도, 회전 각도, 회전 속도 및 이동 도착 지점 정보 중 하나 이상을 포함하는 것을 특징으로 하는 비젼 트래킹 시스템.
  3. 삭제
  4. 제 1항에 있어서,
    상기 제1 몸체에 위치하며, 상기 제1 몸체의 움직임을 감지하여 상기 제1 몸체의 움직임에 대응되는 제2 이동 정보를 생성하는 감지부를 더 포함하는 것을 특징으로 하는 비젼 트래킹 시스템.
  5. 제 4항에 있어서,
    상기 감지부는, 엔코더, 관성 센서, 실내 GPS, 랜드마크 장치 및 거리 센서 중 하나 이상을 포함하는 것을 특징으로 하는 비젼 트래킹 시스템.
  6. 제 4항에 있어서,
    상기 제어부는 상기 제1 이동 정보 및 상기 제2 이동 정보를 이용하여 상기 제어 신호를 생성하는 것을 특징으로 하는 비젼 트래킹 시스템.
  7. 제 4항에 있어서,
    상기 제어부는 상기 제1 이동 정보 및 상기 제2 이동 정보를 비교하여 상기 제1 몸체의 움직임 중 발생하는 외란을 측정하는 것을 특징으로 하는 비젼 트래킹 시스템.
  8. 제 1항에 있어서,
    상기 제2 몸체에 위치하며 영상 정보를 수신하는 비젼 센서를 더 포함하는 것을 특징으로 하는 비젼 트래킹 시스템.
  9. 제 8항에 있어서,
    상기 제어부는, 상기 비젼 센서에서 수신된 영상 정보를 되먹임 신호로 이용하여 상기 제어 신호를 생성하는 것을 특징으로 하는 비젼 트래킹 시스템.
  10. 제 1항에 있어서,
    상기 구동 명령을 생성하기 위한 구동 명령 생성부를 더 포함하는 것을 특징으로 하는 비젼 트래킹 시스템.
  11. 제1 몸체 및 제2 몸체를 포함하는 이동 가능한 물체의 구동을 제어하기 위한 비젼 트래킹 방법으로서,
    상기 제1 몸체를 구동시키기 위한 구동 명령을 수신하는 단계;
    상기 구동 명령으로부터 예측되는 상기 제1 몸체의 움직임을 나타내는 제1 이동 정보를 생성하는 단계;
    상기 제1 이동 정보를 이용하여, 상기 제1 몸체의 움직임에 대응하여 상기 제2 몸체를 구동시키기 위한 제어 신호를 생성하는 단계; 및
    상기 제어 신호에 따라 상기 제2 몸체를 구동시키는 단계를 포함하는 것을 특징으로 하는 비젼 트래킹 방법.
  12. 제 11항에 있어서,
    상기 구동 명령은, 상기 제1 몸체의 이동 거리, 이동 속도, 회전 각도, 회전 속도 및 이동 도착 지점 정보 중 하나 이상을 포함하는 것을 특징으로 하는 비젼 트래킹 방법.
  13. 삭제
  14. 제 11항에 있어서,
    상기 제어 신호를 생성하는 단계는,
    상기 제1 몸체의 움직임을 감지하여 상기 제1 몸체의 움직임에 대응되는 제2 이동 정보를 생성하는 단계; 및
    상기 제1 이동 정보 및 상기 제2 이동 정보를 이용하여 상기 제어 신호를 생성하는 단계를 포함하는 것을 특징으로 하는 비젼 트래킹 방법.
  15. 제 14항에 있어서,
    상기 제1 이동 정보 및 상기 제2 이동 정보를 비교하여 상기 제1 몸체의 움직임 중 발생하는 외란을 측정하는 단계를 더 포함하는 것을 특징으로 하는 비젼 트래킹 방법.
  16. 제 11항에 있어서,
    상기 제2 몸체는 영상 정보를 수신하는 비젼 센서를 포함하되,
    상기 제어 신호를 생성하는 단계는, 상기 비젼 센서에서 수신된 영상 정보를 되먹임 신호로 이용하여 상기 제어 신호를 생성하는 단계를 포함하는 것을 특징으로 하는 비젼 트래킹 방법.
  17. 제 11항에 있어서,
    상기 제1 몸체를 구동시키는 단계 전에, 상기 구동 명령을 생성하는 단계를 더 포함하는 것을 특징으로 하는 비젼 트래킹 방법.
KR1020100075515A 2010-08-05 2010-08-05 구동 명령을 이용한 비젼 트래킹 시스템 및 방법 KR101251184B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020100075515A KR101251184B1 (ko) 2010-08-05 2010-08-05 구동 명령을 이용한 비젼 트래킹 시스템 및 방법
PCT/KR2011/001190 WO2012018168A1 (ko) 2010-08-05 2011-02-23 타겟 트래킹을 위한 구동 명령 기반 비젼 장치 제어 시스템 및 방법
US13/319,608 US9996084B2 (en) 2010-08-05 2011-02-23 System and method of controlling vision device for tracking target based on motion commands
JP2013523076A JP5760084B2 (ja) 2010-08-05 2011-02-23 ターゲット・トラッキングのための駆動指令基盤のビジョン装置の制御システム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100075515A KR101251184B1 (ko) 2010-08-05 2010-08-05 구동 명령을 이용한 비젼 트래킹 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20120013513A KR20120013513A (ko) 2012-02-15
KR101251184B1 true KR101251184B1 (ko) 2013-04-08

Family

ID=45559654

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100075515A KR101251184B1 (ko) 2010-08-05 2010-08-05 구동 명령을 이용한 비젼 트래킹 시스템 및 방법

Country Status (4)

Country Link
US (1) US9996084B2 (ko)
JP (1) JP5760084B2 (ko)
KR (1) KR101251184B1 (ko)
WO (1) WO2012018168A1 (ko)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5954241B2 (ja) * 2012-10-05 2016-07-20 Jfeスチール株式会社 金属板用自走式検査装置および検査方法
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US9314924B1 (en) * 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
CN103776455A (zh) * 2013-12-12 2014-05-07 武汉汉迪机器人科技有限公司 红外离散光源寻迹导航系统及该寻迹导航系统的控制方法
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
JP6586991B2 (ja) * 2015-02-23 2019-10-09 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10397484B2 (en) * 2015-08-14 2019-08-27 Qualcomm Incorporated Camera zoom based on sensor data
JP6755755B2 (ja) * 2016-01-28 2020-09-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 飛行高度制御装置、無人飛行体、飛行高度制御方法及び飛行高度制御プログラム
JP6634314B2 (ja) * 2016-03-01 2020-01-22 株式会社タクマ 無人航空機を用いた施設内点検システム
WO2020077481A1 (en) * 2018-10-15 2020-04-23 Lingdong Technology (Beijing) Co. Ltd Self-driving vehicle system with steerable camera and indicator
KR20210000153A (ko) 2019-06-24 2021-01-04 엘지전자 주식회사 위치 인식을 위한 영상의 획득 방법 및 이를 구현하는 로봇
US11507096B2 (en) * 2020-02-11 2022-11-22 Sphero, Inc. Method and system for controlling movement of a device
CN114102256B (zh) * 2021-11-04 2022-09-06 清华大学 机床旋转轴几何误差识别方法、装置及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09149309A (ja) * 1995-11-24 1997-06-06 Fuji Electric Co Ltd 走行型点検ロボット
KR20090043461A (ko) * 2007-10-29 2009-05-06 재단법인서울대학교산학협력재단 전정안 반사를 응용한 안정화 제어 시스템 및 방법
KR20090074410A (ko) * 2008-01-02 2009-07-07 주식회사 마이크로로봇 로봇의 주행 제어 시스템 및 그 방법
KR20100071150A (ko) * 2008-12-19 2010-06-29 서울대학교산학협력단 엔코더를 이용한 비젼 트래킹 시스템 및 방법

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3139171B2 (ja) * 1992-09-29 2001-02-26 スズキ株式会社 遠隔操縦車両搭載カメラ制御システム
JPH07234447A (ja) * 1993-12-28 1995-09-05 Canon Inc 撮影ユニットおよびカメラ
JP4219996B2 (ja) * 1997-03-17 2009-02-04 富士通株式会社 ロボット
JPH10318805A (ja) * 1997-05-15 1998-12-04 Toshiba Fa Syst Eng Kk 移動点検システム
US6539284B2 (en) * 2000-07-25 2003-03-25 Axonn Robotics, Llc Socially interactive autonomous robot
JP3833614B2 (ja) * 2001-02-19 2006-10-18 本田技研工業株式会社 目標認識装置および目標認識方法
JP3968501B2 (ja) * 2001-11-30 2007-08-29 ソニー株式会社 ロボットの自己位置同定システム及び自己位置同定方法
SE526119C2 (sv) * 2003-11-24 2005-07-05 Abb Research Ltd Metod och system för programmering av en industrirobot
KR100590549B1 (ko) * 2004-03-12 2006-06-19 삼성전자주식회사 3차원 포인팅 방법을 이용한 로봇의 원격 제어 방법 및이를 구현한 로봇 제어 시스템
ATE524783T1 (de) * 2004-03-27 2011-09-15 Harvey Koselka Autonomer persönlicher dienstroboter
JP4477924B2 (ja) * 2004-03-31 2010-06-09 本田技研工業株式会社 移動ロボットの外部検出装置
JP2006139525A (ja) * 2004-11-12 2006-06-01 Hitachi Home & Life Solutions Inc 自律移動型ロボット
JP4316477B2 (ja) * 2004-11-18 2009-08-19 パナソニック株式会社 移動ロボットの追従方法
KR100585680B1 (ko) * 2004-12-10 2006-06-07 엘지전자 주식회사 이동 로봇의 구동바퀴 속도지령치 생성방법
KR100608650B1 (ko) * 2004-12-15 2006-08-08 엘지전자 주식회사 로봇의 목표물 추적방법
KR100594165B1 (ko) * 2005-05-24 2006-06-28 삼성전자주식회사 네트워크 기반 로봇 제어 시스템 및 네트워크 기반 로봇제어 시스템에서 로봇 속도 제어 방법
EP2050544B1 (en) * 2005-09-30 2011-08-31 iRobot Corporation Robot system with wireless communication by TCP/IP transmissions
DE102005058867B4 (de) * 2005-12-09 2018-09-27 Cine-Tv Broadcast Systems Gmbh Verfahren und Vorrichtung zum Bewegen einer auf einem Schwenk- und Neigekopf angeordneten Kamera entlang einer vorgegebenen Bewegungsbahn
JP4751192B2 (ja) * 2005-12-12 2011-08-17 本田技研工業株式会社 移動ロボット
KR100791381B1 (ko) * 2006-06-01 2008-01-07 삼성전자주식회사 이동 로봇의 원격 조종을 위한 충돌방지 시스템, 장치 및방법
JP4709101B2 (ja) * 2006-09-01 2011-06-22 キヤノン株式会社 自動追尾カメラ装置
US7606411B2 (en) * 2006-10-05 2009-10-20 The United States Of America As Represented By The Secretary Of The Navy Robotic gesture recognition system
KR100763521B1 (ko) * 2006-10-31 2007-10-04 한국전자통신연구원 이동 로봇의 시선 안정화 장치
KR100797001B1 (ko) * 2006-12-19 2008-01-22 한국생산기술연구원 주행하체를 갖는 인간형 로봇
KR100906991B1 (ko) * 2007-11-07 2009-07-10 전자부품연구원 로봇의 비시인성 장애물 탐지방법
EP2071515A1 (en) * 2007-12-11 2009-06-17 Honda Research Institute Europe GmbH Visually tracking an object in real world using 2D appearance and multicue depth estimations
US20100152897A1 (en) * 2008-12-16 2010-06-17 MULLER Jeffrey Method & apparatus for controlling the attitude of a camera associated with a robotic device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09149309A (ja) * 1995-11-24 1997-06-06 Fuji Electric Co Ltd 走行型点検ロボット
KR20090043461A (ko) * 2007-10-29 2009-05-06 재단법인서울대학교산학협력재단 전정안 반사를 응용한 안정화 제어 시스템 및 방법
KR20090074410A (ko) * 2008-01-02 2009-07-07 주식회사 마이크로로봇 로봇의 주행 제어 시스템 및 그 방법
KR20100071150A (ko) * 2008-12-19 2010-06-29 서울대학교산학협력단 엔코더를 이용한 비젼 트래킹 시스템 및 방법

Also Published As

Publication number Publication date
US20120212623A1 (en) 2012-08-23
KR20120013513A (ko) 2012-02-15
JP2013534339A (ja) 2013-09-02
JP5760084B2 (ja) 2015-08-05
US9996084B2 (en) 2018-06-12
WO2012018168A1 (ko) 2012-02-09

Similar Documents

Publication Publication Date Title
KR101251184B1 (ko) 구동 명령을 이용한 비젼 트래킹 시스템 및 방법
JP5668770B2 (ja) ロボットシステム、及び、ロボットシステムの制御方法
JP5835254B2 (ja) ロボットシステム、及び、ロボットシステムの制御方法
US20090093907A1 (en) Robot System
KR101475826B1 (ko) 백스테핑 기법을 이용한 선도 추종자 대형제어 장치, 방법 및 이동로봇
WO2012153629A1 (ja) 運動予測制御装置と方法
CN107407931A (zh) 通过触碰操纵器实现的鲁棒的直观的操作方法
US10513036B2 (en) Calibration system and calibration method
AU2007360479B2 (en) System for the precision localization of a target on the ground by a flying platform and associated method of operation
US11137768B2 (en) Position estimation system, position detection method, and program
US11392106B2 (en) Servomotor adjustment device and servomotor adjustment method
JP7000363B2 (ja) ロボット制御装置および管理システム
JP5439552B2 (ja) ロボットシステム
JP2020093373A (ja) ロボット干渉判定装置、ロボット干渉判定方法、ロボット制御装置、およびロボット制御システム
WO2021065879A1 (ja) 監視システム、監視方法およびプログラム
KR101194073B1 (ko) Igps를 이용한 비젼 트래킹 시스템 및 방법
KR101209391B1 (ko) 거리 센서를 이용한 비젼 트래킹 시스템 및 방법
KR20080053085A (ko) 이동 로봇의 이동제어 시스템
KR101122857B1 (ko) 랜드마크를 이용한 비젼 트래킹 시스템 및 방법
KR101019336B1 (ko) 관성 센서를 이용한 안정화 제어 시스템 및 방법
KR101929114B1 (ko) 모션인식 기반의 원격제어 방법
Sanchez et al. Autonomous navigation with deadlock detection and avoidance
KR101170873B1 (ko) 엔코더를 이용한 비젼 트래킹 시스템 및 방법
WO2023162017A1 (ja) 位置姿勢推定装置、位置姿勢推定システム、およびセンサ設置方法
KR20110120128A (ko) 차량용 레이더 및 비젼 시스템의 방향 제어 시스템 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160122

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170224

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180222

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20200302

Year of fee payment: 8