KR100533954B1 - 비전 기반 이동로봇의 위치 제어 시스템 - Google Patents

비전 기반 이동로봇의 위치 제어 시스템 Download PDF

Info

Publication number
KR100533954B1
KR100533954B1 KR10-2003-0094380A KR20030094380A KR100533954B1 KR 100533954 B1 KR100533954 B1 KR 100533954B1 KR 20030094380 A KR20030094380 A KR 20030094380A KR 100533954 B1 KR100533954 B1 KR 100533954B1
Authority
KR
South Korea
Prior art keywords
mobile robot
value
vision
control
error
Prior art date
Application number
KR10-2003-0094380A
Other languages
English (en)
Other versions
KR20050062713A (ko
Inventor
정슬
장평수
Original Assignee
충남대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충남대학교산학협력단 filed Critical 충남대학교산학협력단
Priority to KR10-2003-0094380A priority Critical patent/KR100533954B1/ko
Publication of KR20050062713A publication Critical patent/KR20050062713A/ko
Application granted granted Critical
Publication of KR100533954B1 publication Critical patent/KR100533954B1/ko

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 비전을 이용한 영상인식을 통해 이동로봇의 위치를 보정할 수 있도록 함과 더불어 비전을 이용한 이동로봇의 위치제어방식에서 발생하는 오차는 신경회로망을 사용하여 실시간으로 줄일 수 있도록 한 비전 기반 이동로봇의 위치 제어 시스템을 제공한다.
이는 이동로봇은 내부 엔코더 기반 PD제어를 행하고, 컴퓨터 시스템은 비전 카메라 시스템으로부터 입력되는 이동로봇의 현재위치정보를 바탕으로 한 비전 PD제어에 이 비전 PD제어로 인해 발생하는 추종 오차를 줄이기 위한 신경회로망의 출력을 반영하여 이동로봇이 정해진 경로를 추종하도록 됨에 의해 달성될 수 있으며, 이러한 본 발명은 비전 피드백 PD제어방식에서 발생하는 오차를 신경회로망을 사용하여 실시간으로 줄일 수 있도록 함으로써 이동로봇의 위치 추종 성능을 향상시킬 수 있게 된다.

Description

비전 기반 이동로봇의 위치 제어 시스템{A POSITION TRACKING CONTROL SYSTEM OF MOBILE ROBOT BASED OF VISION}
본 발명은 이동로봇의 위치 제어 시스템에 관한 것으로, 특히 비전을 이용한 영상인식을 통해 이동로봇의 위치를 보정할 수 있도록 함과 더불어 비전을 이용한 이동로봇의 위치제어방식에서 발생하는 오차는 신경회로망(Neural Network)을 사용하여 실시간으로 줄일 수 있도록 한 비전 기반 이동로봇의 위치 제어 시스템에 관한 것이다.
이동로봇에 관한 연구는 장애물 회피나 위치추적(Localization), 빠른 움직임의 속도제어 등이 대부분이다. 다양한 센서의 융합과 함께 필터 설계를 통한 위치 추정과 장애물 회피 등은 이동로봇의 자율주행을 완성하는데 필요한 기술들로 많은 연구가 진척되어 있으며 활발하다. 이는 대부분의 이동로봇의 작업 환경을 살펴보면 정확한 경로 트랙킹이 필요 없이 속도 제어를 통해 목표점에 도달하는 것이 가능하기 때문이다.
하지만, 이동로봇을 사용하여 글자를 쓴다거나 그림을 그리는 경우에는 정확한 위치제어가 필요하며, 특히, 이동로봇을 사용하여 선박과 같은 큰 물체를 용접하거나 글라인딩(grinding)을 하는 경우, 도로의 갈라진 틈새를 추종하는 경우 등과 같은 작업에 필요한 힘 제어를 하는 경우에는 정확한 위치제어가 필요하게 된다.
이동로봇은 non-holonomic 시스템으로 상태변수와 제어 입력변수의 수가 다르므로 동력학을 기반으로 하는 위치 제어시 구속조건을 만족해야 하고, 제어 변수를 선택적으로 취해야 하므로 제어가 어렵다. 또한 바퀴의 슬립이나 바퀴의 불균형 등의 동적인 요소를 고려하지 않는데서 오는 불확실성에 의해 위치오차가 발생한다. 이러한 오차를 보상하는 강인한 제어 알고리즘으로 백스테핑 제어 방식이 제안되었다. 또한 불확실성 요소들을 보상하고자 신경회로망을 사용한 지능 제어 방식도 시뮬레이션을 통해 제안되었다. 하지만 이러한 제어방식은 센서의 정확성을 가정한 상태에서 시뮬레이션 한 결과이므로 실제의 경우에 있어서는 위치추적을 해야 한다.
그러므로, 제어 알고리즘과 상관없이 위치제어를 정확하게 하기 위해서는 dead-reckoning을 보정하는데 필요한 절대센서가 필요하다. 절대 센서가 없이는 위치제어를 정확하게 할 수 없게 된다. 절대 센서로는 공간에서 사용할 수 있는 DGPS, 바다 속에서 사용하는 LBL(Long Base Line) 등이 있으며, 종래 엔코더 기반의 PD제어방식에 대하여 도 1을 참조로 살펴보면 다음과 같다.
이는 컴퓨터 시스템(10)으로부터 출력되는 이동로봇(20)이 이동해야할 경로값인 기준 경로값에 따라 이동로봇(20)이 내부적으로 엔코더 정보에 의해 위치를 추종하도록 된 것이며, 이때 이동로봇(20)은 그 내부의 기준 구동값 출력부(21)에서 컴퓨터 시스템(10)으로부터 출력되는 기준 경로값(도 1에서 θ d 는 원하는 바퀴의 회전수의 2 x 1 벡터 θ d = [θ dR θ dL ] T , θ DR, θ DL 각각 원하는 오른쪽,왼쪽 바퀴의 회전수)을 입력받아 이동로봇(20)이 진행해야할 바퀴의 구동값을 출력하면 PD콘트롤러(22),(23)에서 상기 기준 구동값 출력부(21)의 출력에 따라 이동로봇(20)의 좌우바퀴를 구동하는 구동모터(Left Motor),(Right Motor)(24),(25)의 구동 제어값을 출력하게 되고, 이에 따라 좌우바퀴를 구동하는 구동모터(24),(25)가 구동되어 이동로봇(20)의 도시하지 않은 왼쪽과 오른쪽 바퀴를 구동하게 된다.
상기 좌우바퀴를 구동하는 구동모터(24),(25)의 구동에 따른 이동로봇(20)의 왼쪽과 오른쪽 바퀴의 위치값이 엔코더(26),(27)로 피드백되면 엔코더(26),(27)에서 왼쪽과 오른쪽 바퀴의 현재 위치를 검출하여 오차 보상부(28),(29)로 입력하며(도 1에서 θ R, θ L 는 로봇의 오른쪽,왼쪽 바퀴의 회전수), 이에 따라 오차 보상부(28),(29)에서는 상기 기준 구동값 출력부(21)에서 출력되는 값과 엔코더(26),(27)로부터 입력되는 값의 오차값 즉, 이동로봇(20)이 정해진 경로값에 따라 움직여야할 위치와 현재 로봇의 위치의 차이값을 만들어 PD콘트롤러(22),(23)로 입력한다.
상기 PD콘트롤러(22),(23)는 이를 바탕으로 로봇 구동부인 왼쪽과 오른쪽 바퀴를 구동하는 구동모터(24),(25)의 제어입력을 만들어 좌우바퀴를 구동하는 구동모터(24),(25)의 구동을 제어함에 따라 이동로봇(20)이 정해진 경로를 추종하도록 하고 있다.
그러나 이와 같이 이동로봇 내부에 장착되어 있는 엔코더를 사용하는 엔코더 기반의 PD제어방식은 바퀴와 마찰면과의 미끄러짐에 의해 발생되는 오차와 이동로봇 자체의 구조에 의한 불균형 등에 의해 생기는 오차, 그리고 헤딩각 정보의 부재 때문에 dead-reckoning 상태에 처하게 되어 정확한 위치 제어가 어렵게 된다. 로봇이 자율 주행시 바퀴의 회전에 의한 제어는 헤딩각을 측정할 수 있는 센서 정보가 필요하지만, 이 경우에는 단지 엔코더 정보에 의존하여 위치를 제어한다.
결과적으로, 이 제어 방식은 동력학을 근거로 각 바퀴의 토크를 제어한 것으로, 조인트 공간과 직교공간과의 관계를 고려하지 않아 dead-reckoning에 처하게 된다.
따라서 본 발명은 이러한 점을 감안한 것으로, 본 발명은 비전으로 로봇의 위치정보를 추출하여 기준 경로와 비교하여 오차를 만든 다음, 제어기를 거쳐 생성된 제어입력을 로봇에 전달하여 위치를 매 샘플마다 보정할 수 있도록 하되, 비전 정보를 사용하는 제어방식으로는 기존의 내부 제어루프가 있고 바깥에 외부 제어루프를 첨가함으로써 추종오차를 줄일 수 있도록 하며, 비전 피드백 PD제어방식에서 발생하는 오차는 신경회로망을 사용하여 실시간으로 줄일 수 있도록 한 비전 기반 이동로봇의 위치 제어 시스템을 제공함에 그 목적이 있다.
이러한 목적을 달성하기 위한 본 발명에 따른 비전 기반 이동로봇의 위치 제어 시스템은, 바퀴구동식 이동로봇; 스테이지 내의 상기 이동로봇을 촬영하여 이로부터 이동로봇의 현재의 자세정보를 포함하는 위치정보를 출력하는 비전 카메라 시스템; 상기 이동로봇의 이동해야할 경로값인 기준 경로값과 상기 비전 카메라 시스템으로부터 입력되는 이동로봇의 현재위치정보와의 오차값을 추출하여 그 오차값에 의해 상기 기준 경로값을 보상하여 이 보상값에 의해 이동로봇이 정해진 경로를 추종하도록 하는 컴퓨터 시스템;으로 구성된 것을 특징으로 한다.
상기 이동로봇은 내부 엔코더 기반 PD제어를 행하고, 상기 컴퓨터 시스템은 상기 비전 카메라 시스템으로부터 입력되는 이동로봇의 현재위치정보를 바탕으로 한 비전 PD제어를 행하도록 된 것을 특징으로 한다.
또한, 본 발명의 다른 실시 예에 따른 비전 기반 이동로봇의 위치 제어 시스템은, 바퀴구동식 이동로봇; 스테이지 내의 상기 이동로봇을 촬영하여 이로부터 이동로봇의 현재의 자세정보를 포함하는 위치정보를 출력하는 비전 카메라 시스템; 상기 이동로봇의 이동해야할 경로값인 기준 경로값과 상기 비전 카메라 시스템으로부터 입력되는 이동로봇의 현재위치정보와의 오차값을 추출하여 그 오차값에 의해 상기 기준 경로값을 보상하여 이 보상값에 의해 이동로봇이 정해진 경로를 추종하도록 하되, 이동로봇의 추종 오차를 줄이기 위해 신경회로망의 출력을 반영하여 이동로봇이 정해진 경로를 추종하도록 하는 컴퓨터 시스템;으로 구성된 것을 특징으로 한다.
상기 이동로봇은 내부 엔코더 기반 PD제어를 행하고, 상기 컴퓨터 시스템은 상기 비전 카메라 시스템으로부터 입력되는 이동로봇의 현재위치정보를 바탕으로 한 비전 PD제어에 이 비전 PD제어로 인해 발생하는 추종 오차를 줄이기 위한 신경회로망의 출력을 반영하여 이동로봇이 정해진 경로를 추종하도록 된 것을 특징으로 한다.
이하, 본 발명을 첨부된 도면을 참조로 하여 보다 상세히 설명한다.
도 2는 본 발명의 전체적인 개념도를 도시한 것으로, 본 발명은 스테이지(100) 내의 이동로봇(200)을 촬영하여 이로부터 이동로봇(200)의 현재의 위치정보를 출력하는 비전 카메라 시스템(300), 상기 이동로봇(200)이 이동해야할 경로값인 기준 경로값과 상기 비전 카메라 시스템(300)으로부터 입력되는 이동로봇(200)의 현재위치정보와의 오차값을 추출하여 그 오차값에 의해 기준 경로값을 보상하여 이 보상값에 의해 이동로봇(200)이 정해진 경로를 추종하도록 하는 컴퓨터 시스템(400)으로 구성된다.
상기 비전 카메라 시스템(300)은 도 3에 도시한 바와 같이, 이동로봇(200)의 위치파악을 위해 이동로봇(200)에 장착된 마커(210)를 촬영하는 카메라부(310)와, 상기 카메라부(310)에 의해 촬영된 이동로봇(200)의 마커 데이터를 파악하여 이를 상기 컴퓨터 시스템(400)으로 출력하는 비전 콘트롤러(320)로 구성된다. 여기서, 상기 비전 카메라 시스템(300)은 카메라부(310)만을 구비하고 카메라부(310)의 출력영상신호는 상기 컴퓨터 시스템(400)에서 처리하도록 할 수도 있을 것이다.
본 발명은 상기 도 2와 같은 개념에서 이동로봇(200) 및 컴퓨터 시스템(400)을 다양한 형태로 구성하여 이동로봇(200)의 위치제어를 행하도록 된 것으로, 이하에서 각각의 실시 예에 대하여 살펴본다.
도 4는 본 발명의 비전 기반 이동로봇의 위치 제어 시스템의 제1 실시 예의 구성도를 도시한 것으로, 이는 종래 엔코더 대신 비전 센서를 이용하여 이동로봇을 제어할 수 있도록 구성한 비전 PD제어방식의 경우이다.
도시한 바와 같이, 컴퓨터 시스템(400)은 이동로봇(200)이 이동해야할 경로값인 기준 경로값을 출력하는 기준 경로값 출력부(401), 이동로봇(200)에 장착된 마커(210)를 촬영하여 이동로봇(200)의 현재위치정보를 출력하는 비전 카메라 시스템(300)으로부터 입력되는 이동로봇(200)의 현재위치정보와 상기 기준 경로값 출력부(401)에서 제공되는 기준 경로값의 오차값 즉, 이동로봇(200)이 정해진 경로값에 따라 움직여야할 위치와 현재 이동로봇(200)의 위치의 차이값을 출력하는 오차 보상부(402),(403), 상기 오차 보상부(402),(403)에서 출력되는 오차값에 따라 상기 기준 경로값을 보상하여 이동로봇(200)의 구동 제어값을 출력하는 PD콘트롤러(404),(405), 상기 PD콘트롤러(404),(405)에서 출력되는 구동 제어값으로부터 이동로봇(200)의 좌우 바퀴를 구동하는 구동모터(201),(202)의 구동값을 출력하는 구동값 출력부(406),(407)로 구성된다.
이와 같이 구성된 본 발명의 제1 실시 예는 비전 카메라 시스템(300)을 이용하여 이동로봇(200) 위에 장착된 마커(210)를 통해 이동로봇(200)의 현재위치정보 즉, 위치와 자세정보를 알아내 이로부터 이동로봇(200)의 현재위치와 움직여야할 위치와의 오차를 만들어 이 오차를 사용하여 PD콘트롤러(404),(405)를 통과시켜 이동로봇(200)을 구동하는 구동모터(201),(202)의 제어입력을 만들어 이를 유선 또는 무선으로 이동로봇(200)에 전송하여 이동로봇(200)을 구동하는 것으로, 모든 계산은 컴퓨터 시스템(400)에서 행하고 이동로봇(200)을 구동하는 구동모터(201),(202)의 PWM값만을 전송하는 방식이다.
즉, 비전 카메라 시스템(300)의 카메라부(310)에 의해 이동로봇(200)의 마커(201)를 촬영하면 이를 바탕으로 비전 콘트롤러(320)에서 이동로봇(200)의 현재위치정보를 파악하여 이를 컴퓨터 시스템(400)에 입력해준다.
이에 따라 컴퓨터 시스템(400)의 오차 보상부(402),(403)는 기준 경로값 출력부(401)에서 제공되는 기준 경로값과 상기 비전 콘트롤러(320)에서 제공되는 현재 이동로봇(200)의 위치정보로부터 이동로봇(200)이 정해진 경로를 따라 움직여야할 위치와 현재 이동로봇(200)의 위치의 차이값인 오차값을 출력하며, 이에 따라 PD콘트롤러(404),(405)에서 상기 기준 경로값을 보상하여 이동로봇(200)을 구동하는 구동모터(201),(202)의 제어입력을 만들어 이를 유선 또는 무선으로 이동로봇(200)에 전송하여 이동로봇(200)이 원래의 기준 경로를 추종할 수 있도록 한다. 여기서, 제어 데이터의 무선 전송을 위해서는 컴퓨터 시스템(400) 및 이동로봇(200)에 각각 무선 송신부와 수신부를 구비하여야 함은 물론이다.
이러한 본 발명의 제1 실시 예는 도 9에 도시한 바와 같이, 이동로봇(200)이 목표점에 정확하게 도달하였으나, 코너 부분에서 회전시 오버슈트가 발생한 것이 관찰되며, 소정 시간(20msec) 마다 영상처리를 하여 에러를 얻어 PD제어하고 매번 실제 모터를 구동하는데 사용되는 PWM값을 출력하며, 이 경우에는 영상처리를 얼마나 잘하는가가 실험결과에 큰 영향을 미친다.
도 5는 본 발명의 제2 실시 예의 구성도를 도시한 것으로, 상기 제1 실시 예의 비전 기반 PD제어방식에 신경회로망을 추가한 방식으로 PD제어로 인해 발생하는 추종 오차를 더 줄일 수 있도록 신경회로망을 사용하는 실시 예이다.
도시한 바와 같이, 상기 제1 실시 예의 컴퓨터 시스템(400)에 신경회로망(418) 및 이동로봇(200)의 구동에 신경회로망(418)의 출력을 반영할 신경회로망 출력 보상부(419a),(419b)가 더 구비된다.
이러한 제2 실시 예는 상기 제1 실시 예와 마찬가지로 비전 카메라 시스템(300)의 카메라부(310)에 의해 이동로봇(200)의 마커(201)를 촬영하면 이를 바탕으로 비전 콘트롤러(320)에서 이동로봇(200)의 현재위치정보(자세정보포함)를 파악하여 이를 컴퓨터 시스템(400)에 입력해주며, 이에 따라 컴퓨터 시스템(400)의 오차 보상부(412),(413)는 기준 경로값 출력부(411)에서 제공되는 기준 경로값과 상기 비전 콘트롤러(320)에서 제공되는 현재 이동로봇(200)의 위치정보로부터 이동로봇(200)이 정해진 경로값에 따라 움직여야할 위치와 현재 이동로봇(200)의 위치의 차이값인 오차값을 출력한다.
또한, 본 발명의 제2 실시 예는 상기 기준 경로값 출력부(411)의 출력을 신경회로망(418)을 통해 학습시켜 이를 신경회로망 출력 보상부(419a),(419b)에서 상기 오차 보상부(412),(413)의 출력에 반영하여 이 값이 PD콘트롤러(414),(415)에 입력되도록 하며, 이에 따라 PD콘트롤러(414),(415)는 기준 경로값을 보상하여 이동로봇(200)을 구동하는 구동모터(211),(212)의 제어입력을 만들어 이를 유선 또는 무선으로 이동로봇(200)에 전송하여 이동로봇(200)이 정해진 궤적을 따라 구동될 수 있도록 한다.
여기서, 신경회로망에 대하여 도 6을 참조로 간략히 살펴보면, 본 발명에서의 신경회로망은 입력층-은닉층-출력층으로 구성된 일반적인 Feedforward Multi-Layered 신경회로망을 사용하며, 입력으로는 기준 입력과 실제 상태 값의 차이인 오차를 사용하였으며, 은닉층의 뉴론수는 9개를 사용하고, 출력층은 모두 2개의 뉴론을 사용하며, 출력층의 두 출력은 PD콘트롤러를 거치면서 각각 미분된 뒤에 더해진다. 학습율은 시행오차를 거쳐 최적화하고, 실시간 신경회로망제어로는 DSP를 사용하여 처리한다.
상기와 같은 본 발명의 제2 실시 예는 도 10에 나타낸 바와 같이, 상기 제1 실시 예에 비해 위치 추종 성능이 매우 좋아진 것을 알 수 있다.
신경회로망을 추가한 경우에도 몇 가지 셋팅 해주어야하는 값들이 있다. 특히 온-라인으로 실행되는 경우에는 하드웨어적인 성능에 따라 임의의 값으로 선택되는 바이어스값과 웨이트값의 범위가 중요하다. 초기에 바이어스값과 웨이트값이 너무 작으면 신경회로망이 성능을 발휘하는데 어느 정도의 시간이 소요된다. 또한, 학습율을 설정하는데 있어서도 몇 번의 실험을 거쳐 최적으로 설정한다.
도 7은 본 발명의 제3 실시 예의 구성도를 도시한 것으로, 엔코더 기반 PD제어방식과 비전기반 PD제어방식을 혼합 사용한 실시 예이다.
도시한 바와 같이, 이동로봇(200)의 현재의 위치정보를 출력하는 비전 카메라 시스템(300), 상기 비전 카메라 시스템(300)으로부터 입력되는 이동로봇(200)의 현재위치정보를 바탕으로 한 비전 PD제어방식을 채용한 컴퓨터 시스템(400) 및 엔코더 기반 PD제어방식의 이동로봇(200)으로 구성된다.
이러한 본 발명의 제3 실시 예는 비전 카메라 시스템(300)에서 이동로봇(200)의 현재위치정보(자세정보포함)를 파악하여 이를 컴퓨터 시스템(400)에 입력해주면 컴퓨터 시스템(400)의 오차 보상부(422)에서 기준 경로값 출력부(421)에서 제공되는 기준 경로값과 상기 비전 카메라 시스템(300)에서 제공되는 현재 이동로봇(200)의 위치정보로부터 이동로봇(200)이 정해진 경로값에 따라 움직여야할 위치와 현재 이동로봇(200)의 위치의 차이값인 오차값을 출력하면 컴퓨터 시스템(400)의 PD콘트롤러(423)에서 이동로봇(200)의 구동 제어값을 출력하며, 이는 기준 경로값 출력부(421)의 출력과 함께 이동로봇(200) 내의 기준 구동값 출력부(221)에 입력되어 이동로봇(200)이 정해진 경로를 추종할 수 있도록 구동되어야 할 구동값으로 출력되며, 이는 PD콘트롤러(222),(223)로 입력된다.
이때, PD콘트롤러(222),(223)에는 엔코더(226),(227)를 통해 입력되는 이동로봇(200)의 현재의 위치값과 상기 기준 구동값 출력부(221)의 출력이 오차 보상부(228),(229)를 통해 얻어지는 오차값 즉, 이동로봇(200)이 정해진 경로값에 따라 움직여야할 위치와 현재 로봇 위치의 차이값이 입력되며, 이에 따라 PD콘트롤러(222),(223)는 구동모터(224),(225)의 구동 제어값을 출력하여 이동로봇(200)이 정해진 경로를 추종하도록 된다.
이러한 본 발명의 제3 실시 예는 내부 루프는 엔코더 기반의 PD제어이고 외부 루프는 비전 기반의 PD제어를 사용하였으며, 이 제어 구조는 시스템 자체의 제어기를 수정하기 않고 외부에서 시스템의 출력을 조절할 수 있는 장점이 있다. 외부 PD제어는 내부 제어기로 인해 발생하는 오차를 줄이며, 이 제어 방식의 문제는 외부 루프의 샘플링시간이 충분히 빨라야 내부 제어기로 생기는 Dead-Reckoning을 보정하여 오차를 줄일 수 있다.
상기 제3 실시 예는 도 11에 도시한 바와 같이, 계속 오실레이션이 발생하는데 그 이유는 로봇 자체의 시스템 루프시간은 2msec이지만 비전을 통하여 로봇에 명령이 전달되는 시간은 20msec로 10배가 느리기 때문이다. 컴퓨터에서 비전 처리를 통하여 한번의 명령이 전달되면 다음 명령이 다시 전달될 때까지 로봇은 엔코더로부터 받은 정보를 이용하여 로봇의 위치 오차를 보정하려고 노력한다. 따라서 다음 명령이 전달될 때까지 로봇이 오차를 더 크게 만들 수 있다는 것이다. 결국, 비전에서 얻게되는 정보와 로봇이 구동하면서 얻게되는 정보와의 샘플링 시간문제가 발생하는 것이다. 이로인해 계속된 오실레이션이 발생하게 된다. 오실레이션이 많은 이유 중 하나는 로봇이 주행하는데 있어서 먼 거리를 한번에 주행하도록 하지 않고 매 샘플링 타임마다 로봇의 원하는 위치와 자세각을 주기 때문이다.
도 8은 본 발명의 제4 실시 예의 구성도를 도시한 것으로, 제3 실시 예에 신경회로망을 추가한 실시 예이다.
도시한 바와 같이, 도 7의 컴퓨터 시스템(400)에 신경회로망(433)이 추가 구성된 것으로, 기준 경로값 출력부(431)의 출력을 신경회로망(433)을 통해 이를 신경회로망 출력 보상부(434)에서 비전 카메라 시스템(300)으로부터 입력되는 이동로봇(200)의 현재의 위치정보와 기준 경로값 출력부(431)에서 출력되는 기준 경로값과의 차이값을 출력하는 오차 보상부(432)의 출력에 반영하여 이 값이 PD콘트롤러(435)에 입력되도록 하며, 이에 따라 PD콘트롤러(435)는 기준 경로값을 보상하여 이동로봇(200)의 구동 제어값을 출력하며, 이는 이동로봇(200) 내의 기준 구동값 출력부(231)를 통해 이동로봇(200) 내의 PD콘트롤러(232),(233)로 입력되어 상기 제3 실시 예와 마찬가지로 , 이동로봇(200)이 정해진 경로를 추종하도록 된다.
상기 제4 실시 예는 오실레이션을 줄이기 위해 신경회로망을 사용한 경우로, 도 12에 나타낸 바와 같이, 도 11에 비해 위치 추종이 향상된 것을 볼 수 있다.
그러나, 상기 제3 실시 예와 마찬가지로 전체 시스템 루프 시간이 로봇 자체의 내부 루프보다 10배가 늦기 때문에 진동이 발생하는 것 자체를 없앨 수는 없다. 하지만, 결과적으로 실험을 통하여 신경회로망을 사용했을 경우에 더 좋은 결과를 얻을 수 있음을 볼 수 있으며, 비전 처리에 있어 충분히 빠른 비전 전용보드를 사용하면 더 좋은 추종 결과를 얻을 수 있을 것이다.
또한, 본 발명은 비전 이외에 레이저나 초음파를 이용하여 이동로봇의 위치제어를 할 있을 것이며, 레이저를 이용할 경우 컴퓨터 시스템측에는 레이저 발광수단을 구비하고, 이동로봇측에는 레 이저 수광수단을 구비하여야 하며, 해저 등에서 이용 가능한 초음파 위제 제어일 경우 컴퓨터 시스템측에는 초음파발생수단을 구비하고, 이동로봇측에는 초음파수신수단을 구비하여야 할 것이다.
본 발명은 상기에 기술된 실시 예에 의해 한정되지 않고, 당업자들에 의해 다양한 변형 및 변경을 가져올 수 있으며, 이는 첨부된 청구항에서 정의되는 본 발명의 취지와 범위에 포함된다.
이상에서 살펴본 바와 같이 본 발명에 따른 비전 기반 이동로봇의 위치 제어 시스템은, 비전으로 로봇의 위치정보를 추출하여 기준 경로와 비교하여 오차를 만든 다음, PD제어기를 거쳐 생성된 제어입력을 로봇에 전달하여 위치를 매 샘플마다 보정할 수 있도록 하되, 비전 정보를 사용하는 제어방식으로는 기존의 내부 제어루프가 있고 바깥에 외부 제어루프를 첨가함으로써 추종오차를 줄일 수 있도록 하며, 비전 피드백 PD제어방식에서 발생하는 오차를 신경회로망을 사용하여 실시간으로 줄일 수 있도록 함으로써 이동로봇의 위치 추종 성능을 향상시킬 수 있게 된다.
도 1은 일반적인 엔코더 기반 PD제어방식의 이동로봇 위치 제어 시스템의 구성도.
도 2는 본 발명의 개념 구성도.
도 3은 도 2의 비전 카메라 시스템의 구성도.
도 4는 본 발명의 비전 기반 이동로봇의 위치 제어 시스템의 제1 실시 예도.
도 5는 본 발명의 비전 기반 이동로봇의 위치 제어 시스템의 제2 실시 예도.
도 6은 도 5의 신경회로망의 구성도.
도 7은 본 발명의 비전 기반 이동로봇의 위치 제어 시스템의 제3 실시 예도.
도 8은 본 발명의 비전 기반 이동로봇의 위치 제어 시스템의 제4 실시 예도.
도 9 내지 도 12는 본 발명의 제1 내지 제4 실시 예에 따른 실험 결과를 나타낸 그래프.
<도면의 주요부분에 대한 부호의 설명>
100 : 스테이지 200 : 이동로봇
300 : 비전 카메라 시스템 400 : 컴퓨터 시스템
201,202,211,212,224,225,234,235 : 구동모터
211,221,231 : 기준 구동값 출력부
222,223,232,233 : 이동로봇의 PD콘트롤러
226,227,236,237 : 엔코더
401,411,421,431 : 기준 경로값 출력부
228,229,238,239,402,403,412,413,422,432 : 오차 보상부
406,407,416,417 : 구동값 출력부
404,405,414,415,423,4435: 컴퓨터 시스템의 PD콘트롤러
418,433 : 신경회로망
419a,419b,434 : 신경회로망 출력 보상부

Claims (8)

  1. (A) 촬영용 마커가 장착된 바퀴구동식 이동로봇;
    (B) 상기 이동로봇에 장착된 마커를 촬영하여 이로부터 이동로봇의 현재의 자세정보를 포함하는 위치정보를 제공하는 비전카메라 시스템;
    (C) 상기 이동로봇이 이동해야할 지정된 경로값인 기준 경로값과, 상기 비전 카메라 시스템으로부터 입력되는 위치정보로부터 상기 이동로봇의 재위치정보와의 오차값을 추출하고, 추출된 오차값으로 상기 기준 경로값을 보상하여 이 보상값에 의해 이동로봇이 지정된 경로를 추종하도록 하는 구동제어값을 제공하는 컴퓨터 시스템;
    으로 구성된 것을 특징으로 하는 비전 기반 이동로봇의 위치 제어 시스템.
  2. 제 1 항에 있어서, 상기 컴퓨터 시스템은
    상기 이동로봇의 기준 경로값을 출력하는 기준 경로값 출력부;
    상기 비젼 카메라 시스템으로부터 입력되는 이동로봇의 현재위치정보와 상기 기준 경로값 출력부에서 제공되는 기준 경로값의 오차값을 출력하는 제1,제2 오차 보상부;
    상기 제1,제2 오차 보상부에서 출력되는 오차값에 따라 상기 기준 경로값을 보상하여 이동로봇의 구동 제어값을 출력하는 제1,제2 PD콘트롤러;
    상기 제1,제2 PD콘트롤러에서 출력되는 구동 제어값으로부터 이동로봇의 좌우 바퀴를 구동하는 구동모터의 구동값을 출력하는 제1,제2 구동값 출력부;로 구성되어 상기 비전 카메라 시스템으로부터 입력되는 이동로봇의 현재위치정보를 바탕으로 한 비전 PD제어를 행하도록 된 것을 특징으로 하는 비전 기반 이동로봇의 위치 제어 시스템.
  3. 제 1 항에 있어서, 상기 이동로봇은 내부 엔코더 기반 PD제어를 행하고, 상기 컴퓨터 시스템은 상기 비전 카메라 시스템으로부터 입력되는 이동로봇의 현재위치정보를 바탕으로 한 비전 PD제어를 행하도록 된 것을 특징으로 하는 비전 기반 이동로봇의 위치 제어 시스템.
  4. 제 3 항에 있어서, 상기 컴퓨터 시스템은
    상기 이동로봇의 기준 경로값을 출력하는 기준 경로값 출력부;
    상기 비젼 카메라 시스템으로부터 입력되는 이동로봇의 현재위치정보와 상기 기준 경로값 출력부에서 제공되는 기준 경로값의 오차값을 출력하는 오차 보상부;
    상기 오차 보상부에서 출력되는 오차값에 따라 상기 기준 경로값을 보상하여 이동로봇의 구동 제어값을 출력하는 PD콘트롤러;로 구성되는 것을 특징으로 하는 비전 기반 이동로봇의 위치 제어 시스템.
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
KR10-2003-0094380A 2003-12-22 2003-12-22 비전 기반 이동로봇의 위치 제어 시스템 KR100533954B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2003-0094380A KR100533954B1 (ko) 2003-12-22 2003-12-22 비전 기반 이동로봇의 위치 제어 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2003-0094380A KR100533954B1 (ko) 2003-12-22 2003-12-22 비전 기반 이동로봇의 위치 제어 시스템

Publications (2)

Publication Number Publication Date
KR20050062713A KR20050062713A (ko) 2005-06-27
KR100533954B1 true KR100533954B1 (ko) 2005-12-07

Family

ID=37254663

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2003-0094380A KR100533954B1 (ko) 2003-12-22 2003-12-22 비전 기반 이동로봇의 위치 제어 시스템

Country Status (1)

Country Link
KR (1) KR100533954B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012124933A2 (ko) * 2011-03-11 2012-09-20 고려대학교 산학협력단 로봇의 위치 인식 장치 및 방법
KR101906329B1 (ko) * 2010-12-15 2018-12-07 한국전자통신연구원 카메라 기반의 실내 위치 인식 장치 및 방법

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100780000B1 (ko) * 2006-05-18 2007-11-28 주식회사 대곤코퍼레이션 실시간 보상이 가능한 인코더 컴펜세이터
CN110989597B (zh) * 2019-12-05 2022-06-10 南京理工大学 一种集成模糊神经网络的自适应路径跟踪方法
CN116039636B (zh) * 2022-12-15 2024-01-30 南通大学 考虑车轮打滑的轮式移动机器人自适应神经网络控制方法
KR102623494B1 (ko) * 2022-12-27 2024-01-10 동아대학교 산학협력단 포즈인식 패키지를 이용한 보행 분석 장치, 방법 및 프로그램 기록 매체

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101906329B1 (ko) * 2010-12-15 2018-12-07 한국전자통신연구원 카메라 기반의 실내 위치 인식 장치 및 방법
WO2012124933A2 (ko) * 2011-03-11 2012-09-20 고려대학교 산학협력단 로봇의 위치 인식 장치 및 방법
WO2012124933A3 (ko) * 2011-03-11 2012-12-27 고려대학교 산학협력단 로봇의 위치 인식 장치 및 방법
KR101239532B1 (ko) * 2011-03-11 2013-03-06 고려대학교 산학협력단 로봇의 위치 인식 장치 및 방법

Also Published As

Publication number Publication date
KR20050062713A (ko) 2005-06-27

Similar Documents

Publication Publication Date Title
US6704619B1 (en) Method and system for universal guidance and control of automated machines
Shojaei et al. Line-of-sight target tracking control of underactuated autonomous underwater vehicles
Simetti et al. Autonomous underwater intervention: Experimental results of the MARIS project
US9996084B2 (en) System and method of controlling vision device for tracking target based on motion commands
US20110106310A1 (en) Robot and task execution system
US20010044789A1 (en) Neurointerface for human control of complex machinery
US20200189101A1 (en) Trajectory generation system and trajectory generating method
US20040210346A1 (en) Method and apparatus for allowing mobile robot to return to docking station
Williams et al. A decoupled, distributed AUV control architecture
KR100533954B1 (ko) 비전 기반 이동로봇의 위치 제어 시스템
Kim et al. Underwater vehicle manipulators
Datta et al. Development of autonomous mobile robot with manipulator for manufacturing environment
US6463357B1 (en) Method and system for precision operational control of automated machines
Karras et al. Localization of an underwater vehicle using an IMU and a laser-based vision system
Sarrafan et al. High-gain observer-based neural adaptive feedback linearizing control of a team of wheeled mobile robots
Baeten et al. Combining force control and visual servoing for planar contour following
US11389969B2 (en) Automatic machine and control device
Cong Combination of two visual servoing techniques in contour following task
Olmedo et al. Mobile robot system architecture for people tracking and following applications
US20220297293A1 (en) Dynamic torque saturation limits for robot actuator(s)
Chikurtev Optimizing the Navigation for Mobile Robot for Inspection by Using Robot Operating System
Louro et al. Motion control for autonomous tugger vehicles in dynamic factory floors shared with human operators
Lingemann et al. About the control of high speed mobile indoor robots
Marchand et al. Controlling the manipulator of an underwater ROV using a coarse calibrated pan/tilt camera
Lee et al. Navigation and Control System of a Deep-sea Unmanned Underwater Vehicle'HEMIRE'

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121102

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20131031

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20161025

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20171025

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20181030

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20191031

Year of fee payment: 15