KR100593503B1 - 이동로봇의 위치인식 장치 및 방법 - Google Patents

이동로봇의 위치인식 장치 및 방법 Download PDF

Info

Publication number
KR100593503B1
KR100593503B1 KR1020040064013A KR20040064013A KR100593503B1 KR 100593503 B1 KR100593503 B1 KR 100593503B1 KR 1020040064013 A KR1020040064013 A KR 1020040064013A KR 20040064013 A KR20040064013 A KR 20040064013A KR 100593503 B1 KR100593503 B1 KR 100593503B1
Authority
KR
South Korea
Prior art keywords
markers
mobile robot
marker
image
image data
Prior art date
Application number
KR1020040064013A
Other languages
English (en)
Other versions
KR20060015163A (ko
Inventor
고영우
하문수
Original Assignee
주식회사 넥스트아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥스트아이 filed Critical 주식회사 넥스트아이
Priority to KR1020040064013A priority Critical patent/KR100593503B1/ko
Publication of KR20060015163A publication Critical patent/KR20060015163A/ko
Application granted granted Critical
Publication of KR100593503B1 publication Critical patent/KR100593503B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • B25J9/162Mobile manipulator, movable base with manipulator arm mounted on it
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 이동로봇의 위치 인식장치 및 방법에 관한 것으로 특히, 천장에 3개가 한세트로 이루어지고 각각의 세트는 표식부간에 모두 상이한 배치거리를 가지는 표식부를 촬상하고 픽셀좌표를 분석하며 저장된 표식부의 위치정보를 이용하여 비교 및 연산함으로써 이동로봇의 위치 및 방향을 정확하게 인식할 수 있는 이동로봇의 위치인식 장치 및 방법에 관한 것이다.
이동로봇, 위치인식

Description

이동로봇의 위치인식 장치 및 방법{Localization Apparatus And Method of Mobile Robot}
도 1은 종래의 이동로봇의 위치인식 장치의 블럭도.
도 2는 도 1의 위치인식 장치의 위치인식 과정을 나타낸 흐름도.
도 3은 본 발명의 이동로봇의 위치인식 장치의 블럭도.
도 4는 본 발명의 표식부가 천장에 배치된 실시예를 나타낸 평면도.
도 5는 적외선 LED가 적외선 필터에 의해 필터링되어 촬상된 상태를 나타낸 개략도.
도 6은 본 발명의 위치인식 방법을 나타낸 흐름도.
도 7은 촬상된 1개의 표식부의 이미지가 픽셀좌표상에 나타난 상태를 나타낸 개략도.
도 8은 촬상된 2개의 표식부의 이미지가 픽셀좌표상에 나타난 상태를 나타낸 개략도.
도 9는 촬상된 3개의 표식부의 이미지가 픽셀좌표상에 나타난 상태를 나타낸 개략도.
*도면의 주요부분에 대한 설명*
10: 이동로봇 11: 감지부 13: 제어부
15: 메모리부 17: 구동부 20 :표식부
S11: 이미지데이터 생성단계
S13: 개수 판단단계 S15: 이동단계
S17: 위치인식 단계 (X,Y): 절대좌표
(x,y): 픽셀좌표 (xc,yc)카메라 중심의 픽셀좌표
F : 스케일팩터 3n(n=1,2,...,n): n번째 표식부 세트
Dn1, Dn2, Dn3: n번째 표식부 세트에서 표식부간의 실제거리
Dc: 표식부간의 환산거리
Pd: 픽셀좌표상에서 표식부간의 거리
a:절대좌표축에 대한 픽셀좌표축의 각도
Dx, Dy: 절대좌표축에 대한 픽셀좌표축의 옵셋
본 발명은 이동로봇의 위치 인식장치 및 방법에 관한 것으로 특히, 천장에 3개가 한세트로 이루지고 각각의 세트는 표식부간에 모두 상이한 배치거리를 가지는 표식부를 촬상하고 픽셀좌표를 분석하며 저장된 표식부의 위치정보를 이용하여 비교 및 연산함으로써 이동로봇의 위치 및 방향을 정확하게 인식할 수 있는 이동로봇의 위치인식 장치 및 방법에 관한 것이다.
이동로봇(Mobile Robot)은 로봇암과는 달리 한 장소에 고정되어 설치되지 않 고, 바퀴(Wheel) 또는 로봇다리(Robot Leg)로 구동되어 비교적 자유롭게 이동할 수 있는 로봇이다. 이동로봇은 산업현장에서 제품을 옮기거나 조립하는 작업을 수행하기도하고, 가정에서는 청소나 물건을 옮기기도 한다.
이처럼, 산업분야 또는 가정에서 이동로봇을 활용하기 위해서는 이동로봇이 자신의 위치와 방향을 정확히 인식하는 것이 무엇보다 중요하다.
이동로봇의 자기위치 인식기술은 엔코더(Encoder)와 같은 주행거리계 및 초음파 센서와 레이저 등을 이용한 거리측정 장치와 같은 거리계측, 장애물 검출이 가능한 장치 등을 이용하여 이동로봇의 상대적인 자기위치를 인식하는 기술과, 영상처리장치를 이용하여 실내의 소정의 위치에 부착된 인공표식이나 자연사물의 위치를 검출함으로써 이동로봇의 절대적인 위치를 인식하는 기술로 구분된다.
상기 상대적인 자기위치 인식기술의 특징은 이동로봇이 주행하여야 할 환경정보가 미리 주어져 있지 않더라도 이동로봇에 장착되어진 초음파 센서나 레이저를 이용한 거리측정 장치, 엔코더 등을 이용하여 외부장치의 도움 없이도 이동로봇 스스로 환경지도의 작성을 통해서 자율주행이 가능한 장점이 있는 반면에, 주행거리계인 엔코더의 경우 주행시간이 증가함으로써 슬립(Slip)현상 등에 의해 위치오차가 누적될 수 있으며, 특히 이러한 위치오차는 충돌이나 회피동작시에 더욱 심화된된다. 또한, 사람에 의해 인위적으로 이동로봇의 위치가 변화될 경우 자기위치를 인식하지 못하게 되는 경우도 발생한다.
따라서, 최근에는 이동로봇이 자신의 위치를 인식하고 있지 못하더라도 주어진 환경지도 정보와 주변의 특징정보를 이용하여 자기위치를 재추정할 수 있는 절 대적인 위치인식 기술이 연구되고 있다.
도 1은 종래의 이동로봇의 위치 인식장치의 블럭도이고, 도 2는 위치 인식장치의 위치 인식과정을 나타낸 흐름도이다.
종래의 이동로봇의 위치 인식장치는 1개의 인공표식을 인식하는 천장지향형 컬러카메라(33)와, 상기 천장지향형 컬러카메라(33)에 의해 인식된 1개의 인공표식에 대한 영상신호를 처리하고 출력하는 영상신호처리 및 출력부(31)와, 상기 영상신호처리 및 출력부와 이동로봇을 제어하는 메인제어부(32)를 포함한다.
이와 같은, 종래의 이동로봇의 위치 인식장치를 이용한 위치 인식방법은 천장지향형 컬러카메라와 천장에 설치된 표식간의 관계를 설정하기 위한 오프라인 카메라를 보정하여 카메라와 표식간의 위치 및 자세변환단계를 도출하는 단계(S31), 상기 천장지향형 컬러카메라(33)에 의해 촬상된 영상신호와 미리 등록된 표식패턴과의 비교를 통해 영상내 표식패턴의 번호 및 영상위치를 검출하는 단계(S32) 및 검출된 상기 표식패턴의 영상위치 정보와 절대좌표계 기준 위치정보를 통해 이동로봇이 자기 위치를 추정하고 인식하는 단계(S33)를 포함한다.
그러나, 상기와 같은 종래의 위치 인식장치 및 인식방법은 1개의 인공표식만을 이용하여 이미 등록된 패턴과 비교를 통해 위치를 파악하기 때문에 인공표식의 크기가 상대적으로 작은 경우 패턴의 분석 및 비교가 어려워 이동로봇의 위치 및 방향을 정확하게 인식할 수 없는 문제점이 있다.
그리고, 천장에 각각 다른 패턴을 가지는 인공표식을 다수개 설치하고, 각각의 패턴에 대해 등록해야하기 때문에 작업이 불편한 문제점이 있다.
또한, 이동로봇의 작업현장의 주변환경에 따라 카메라의 촬상시 여러가지 노이즈가 발생함에 따라 상기 천장지향형 컬러카메라(33)의 정확한 패턴 식별이 어려워 이동로봇의 위치 및 방향을 정확하게 인식하기 어려운 문제점이 있다.
본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로,
본 발명은 천장에 부착된 3개의 표식부를 촬상하고 촬상된 표식부의 픽셀좌표와 저장된 표식부의 위치정보를 비교 및 연산함으로써 이동로봇의 위치 및 방향을 정확하게 인식할 수 있는 이동로봇의 위치 인식장치 및 방법을 제공하는 것을 목적으로 한다.
본 발명은 표식부를 적외선 LED로 구성하고 감시부 카메라에 적외선 필터를 장착하여 적외선 이외의 빛은 필터링하여 노이즈를 제거함으로써 이동로봇의 위치 및 방향을 정확하게 인식할 수 있는 이동로봇의 위치 인식장치 및 방법을 제공하는 것을 목적으로 한다.
본 발명은 각각 다른 패턴을 가지는 표식부를 구비하고 각각의 패턴에 대해 등록할 필요없이 동일한 형태를 가지는 다수개의 표식부를 설치하면 되기 때문에 설치작업이 편리한 이동로봇의 위치 인식장치 및 방법을 제공하는 것을 그 목적으로 한다.
본 발명은, 상기와 같은 목적을 달성하기 위해서 다음과 같은 실시예에 의해 구현된다.
본 발명의 제1실시예에 따르면, 본 발명의 이동로봇의 위치 인식장치는, 이동로봇의 작업영역의 천장에 설치된 3개의 표식부가 한세트로 이루어지며, 3개의 표식부간의 거리가 상이한 다수의 표식부 세트와, 상기 표식부를 촬상하여 영상 이미지를 획득하고 이미지 데이터를 생성하는 감지부와, 상기 표식부의 위치정보가 기록된 메모리부와, 상기 이미지 데이터를 처리하여 2개 이하의 표식부가 촬상된 경우에는 이동하라는 신호를 출력하고, 3개 이상의 표식부가 촬상된 경우에는 각 표식부의 픽셀좌표를 분석하여 상기 메모리부의 표식부의 위치정보와 비교함으로써 이동로봇의 위치 및 방향을 인식할 수 있는 제어부와, 상기 제어부로부터 입력된 신호에 의해 이동로봇을 구동시키는 구동부로 이루어진 것을 특징으로 한다.
본 발명의 제2실시예에 따르면, 본 발명의 이동로봇의 위치 인식장치는, 상기 제1실시예에 있어서, 상기 표식부는 적외선 LED를 가지고, 상기 감지부는 적외선 필터를 구비한 것을 특징으로 한다.
본 발명의 제3실시예에 따르면, 본 발명의 이동로봇의 위치인식 장치는, 상기 제2실시예에 있어서, 3개의 적외선 LED간의 거리는 적어도 2개 이상이 상이한 것을 특징으로 한다.
본 발명의 제4실시예에 따르면,본 발명의 이동로봇의 위치인식 장치는 상기 제3실시예에 있어서, 3개의 적외선 LED는 직삼각형으로 배치되는 것을 특징으로 한다.
본 발명의 제5실시예에 따르면, 본 발명의 이동로봇의 위치 인식방법은, 감지부가 이동로봇의 작업영역의 천장에 설치된 3개의 표식부가 한세트로 이루어지고, 3개의 표식부간의 거리가 상이한 다수의 표식부 세트에서 표식부를 촬상하여 이를 통해 영상이미지를 획득하고 이미지 데이터를 생성하는 이미지 데이터 생성단계와, 제어부가 상기 이미지 데이터를 분석하여 3개 이상의 표식부가 인식되는지 판단하는 개수 판단단계와, 상기 개수 판단단계에서 2개 이하의 표식부가 인식되는 경우 픽셀좌표를 분석하여 구동부를 구동시키는 이동단계와, 상기 개수 판단단계에서 3개 이상의 표식부가 인식된 경우에는 픽셀좌표를 분석하여 이동로봇의 위치 및 방향을 인식할 수 있는 위치인식단계를 포함하는 것을 특징으로 한다.
본 발명의 제6실시예에 따르면, 본 발명의 이동로봇의 위치 인식방법은, 상기 제5실시예에 있어서, 상기 위치인식 단계는 촬상된 표식부의 절대좌표를 구하는 단계와, 이동로봇의 카메라 방향을 구하는 단계와, 로봇의 카메라 중심의 절대좌표를 구하는 단계로 이루어지는 것을 특징으로 한다.
본 발명의 제7실시예에 따르면, 본 발명의 이동로봇의 위치 인식방법은, 상기 제6실시예 있어서, 촬상된 표식부의 절대좌표를 구하는 단계는 각 표식부간의 픽셀좌표상의 거리를 구하는 단계와, 스케일 팩터를 이용하여 환산거리로 변환하는 단계와, 절대좌표계상의 표식부 세트의 표식부간의 실제거리를 연산하는 단계와 환산거리와 실제거리를 비교하여 상호일치하는 표식부세트를 찾아내는 단계로 이루어지는 것을 특징으로 한다.
본 발명의 제8실시예에 따르면, 본 발명의 이동로봇의 위치 인식방법은, 상기 제6실시예 있어서, 상기 이동단계는 중심점의 픽셀좌표를 검출하는 단계와, 상기 개수 판단단계에서 파악된 표식부의 개수가 1개인 경우 이동로봇을 표식부를 향해 이동하고, 표식부의 개수가 2개인 경우 양표식부의 중심으로 이동하는 단계를 포함하는 것을 특징으로 한다.
본 발명의 제9실시예에 따르면, 본 발명의 이동로봇의 위치 인식방법은, 상기 제5실시예 내지 제8실시예 중 어느 하나의 실시예에 있어서, 상기 이미지 데이터 생성단계는 적외선 필터를 이용하여 적외선 이외의 빛을 필터링함으로써 영상이미지를 획득하는 단계를 추가로 포함하는 것을 특징으로 한다.
출원인은 이하에서 첨부된 도면을 참고하여 본 발명의 이동로봇의 위치 인식장치 및 방법에 대해 상세하게 설명한다.
도 3은, 본 발명의 이동로봇의 위치 인식장치의 개략적인 구성을 나타낸 블럭도이다. 도 3에 도시된 바에 의하면, 본 발명의 이동로봇의 위치 인식장치는, 일정한 위치정보를 가지고 천장에 설치되는 표식부(20)와, 상기 표시부(20)를 촬상하여 표식부(20)가 점의 형태로 나타나는 이미지 데이터를 생성하는 감지부(11)와, 상기 감지부(11)로부터 이미지 데이터를 전송받아서 이동로봇의 위치 및 방향을 파악하고 구동하는 제어부(13)와, 상기 표식부(20)의 위치정보가 저장된 메모리부(15) 및 상기 제어부(13)에 의해 구동되는 구동부(17)를 포함한다.
상기 표식부(20)는 이동로봇의 작업영역의 천장에 3개가 한세트를 이루어 배치된다. 이는 최소 3개의 점이 있어야만 점간의 거리 및 촬상방향을 분석하여 이동로봇의 위치와 방향을 구할 수 있기 때문이다. 상기 표식부(20)는, 도 4에 도시한 바와 같이, 천장에 다수개의 표식부 세트(31, 32,...,3n)가 배치되는데, 이동로봇의 위치를 파악하기 위해서 상기 감지부(11)의 촬상영역에 적어도 하나의 표식부(20)가 촬상되도록 배치된다. 표식부 세트(31, 32, 33,...,3n)의 크기는 감지부 (11)의 촬상영역보다 작아야 한다. 또한, 상기 표식부 세트(31, 32,...,3n)에 있어서, 표식부간의 거리(D11,D12,D13), (D21,D22,D23),...,(Dn1,Dn2,Dn3)는 모두 상이하다. 즉, Dni≠Dmj(n,m은 표식부 세트를 구분하는 변수,i,j는 동일 표식부 세트에서 표식부간의 거리를 구분하는 변수 i,j=1,2,3)이다. 그런데, 각각의 표식부 세트(31, 32,...,3n)는 정삼각형으로 배열되어서는 않되는데, 이와 같은 경우에는 이동로봇의 방향을 파악할 수 없기 때문이다. 상기 표식부(20)의 설치 및 절대좌표의 등록을 용이하게 하기 위해서 상기 표식부(20)를 정삼각형을 제외한 이등변 삼각형의 형태로 배치할 수 있다.
상기 표식부(20)는 EL(Electro Luminescence)시트 또는 LED(Light Emitting Diode) 등으로 이루어지며, 바람직하게는 적외선 LED로 이루어진다. 적외선 LED는 사람의 눈에 의해 식별되지 않기 때문에 편리하다. 그리고, 상기 감지부(11)에 부착된 적외선 필터에 의해 적외선 이외의 모든 빛은 필터링되기 때문에 도 5에 도시한 바와 같이, 적외선 LED는 검은 바탕에 흰 점으로 표시된다. 따라서, 다른 조명에 의한 빛에 의한 노이즈를 줄일 수 있어 표식부(20)의 위치를 더욱더 정확하게 인식할 수 있다.
상기 감지부(11)는 상기 표식부(20)를 촬상하여 영상이미지를 획득하고 이미지 데이터를 생성하여 상기 제어부(13)에 전송한다. 상기 감지부(11)는 CCD카메라 또는 CMOS카메라가 사용될 수 있다. 상기 감지부(11)는 천장에 설치된 상기 표식부(20)를 촬상하기 위해 이동로봇에 수직으로 천장을 향해 설치되어 있다. 상기 감지부(11)의 카메라에는 적외선 필터가 부착된다. 이는 상기 표식부(20)가 적외선 LED 로 구성된 경우, 적외선 이외의 빛을 필터링하고 적외선 LED의 이미지만 촬상함으로써 표식부(20)를 정확하게 인식하기 위함이다.
상기 메모리부(15)에는 상기 표식부(20)의 절대좌표(X,Y), 스케일 팩터(F)가 저장되어 있다. 스케일 팩터(F)는 카메라의 촬상영역과 해상도에 의해 결정되는 인자로서, 한 픽셀당 대응되는 실제 거리를 의미한다. 예를 들어, 카메라의 해상도가 640×480이고 촬상영역이 640×480(cm)이면, 스캐일 팩터(F)는 F=1cm/pixel이다. 상기 메모리부(15)에 저장된 데이터는 상기 제어부(13)에 의해 이용되어 이동로봇의 위치를 파악하는 자료가 된다. 상기 메모리부(15)는 비휘발성 메모리가 사용되는데, 읽기와 쓰기가 모두 가능한 EEPROM(Electrical Erasable and Programable Read Only Memory) 또는 읽기 동작만이 가능한 EPROM(Electrical Programable ROM)이 사용된다. 상기 EEPROM은 읽기와 쓰기가 모두 가능하므로 저장되는 각종 데이터를 이동로봇이 사용되는 환경에 따라 변경할 수 있어, 본 발명의 위치 인식장치에 유연성을 제공한다.
상기 제어부(13)는 상기 감지부(11)로부터 이미지 데이터를 전송받아서 촬상된 표식부(20)가 3개 이상인지 우선 판단한다. 이는, 촬상된 표식부(20)가 1개 또는 2개인 경우 표식부(20)의 절대좌표를 모두 알 수 없기 때문에 이동로봇을 3개 이상의 표식부가 촬상되는 위치로 이동시키기 위해서이다.
상기 제어부(13)는 촬상된 표식부(20)의 개수가 1개인 경우 표식부(20)의 중심점의 픽셀좌표(x,y)를 분석한 후, 픽셀좌표상에서 표식부(20)의 중심점의 좌표와 카메라 중심의 픽셀좌표(xc,yc)와의 거리(Pd) 및 방향(a)를 구한다. 그리고, 상 기 제어부(13)는 스케일 팩터(F)를 이용하여 픽셀좌표상에서 거리(Pd)를 환산거리(Dc)로 변환하고 상기 구동부(17)에 a방향으로 Dc만큼 이동하라는 명령을 인가한다.
상기 제어부(13)는 촬상된 표식부(20)의 개수가 2개인 경우 각 표식부(20)의 중심점의 픽셀좌표(x1,y1), (x2,y2)를 구하고, 이들 픽셀좌표 (x1,y1)과 (x2,y2)간의 중점의 픽셀좌표 (x3,y3)와 카메라 중심의 픽셀좌표(xc,yc)와의 거리(Pd) 및 방향(a)를 구한다. 그리고, 상기 제어부(13)는 스케일 팩터(F)를 이용하여 픽셀좌표계상에서 거리(Pd)를 환산거리(Dc)로 변환하고 상기 구동부(17)에 a방향으로 Dc만큼 이동하라는 명령을 인가한다.
그리고, 촬상된 표식부(20)의 개수가 3개 이상인 경우 상기 제어부(13)는 각 표식부(20)의 중심점의 픽셀좌표 (x1,y1), (x2,y2), (x3,y3)와 각 표식부(20)간의 픽셀좌표상에서의 거리Pd1, Pd2, Pd3를 구하고 스케일 팩터(F)를 이용하여 절대좌표계상에서의 환산거리 Dc1, Dc2, Dc3로 변환한다. 그 후, 상기 제어부(13)는 상기 메모리부(15)에 저장된 표식부(20)의 절대좌표(X,Y)를 이용하여 절대좌표상에서 각 표식부 세트(31, 32, ...,3n)의 표식부(20)간의 실제거리 Dn1, Dn2, Dn3를 파악한 후, 상기 Dc1, Dc2, Dc3와 가장 근사한 Dn1, Dn2, Dn3를 갖는 표식부 세트(3n)을 검색하고 점들간의 거리를 비교함으로써 표식부 세트의 절대좌표(X1,Y2), (X2,Y2), (X3,Y3)를 구한다. 또한, 픽셀좌표(x,y)와 절대좌표(X,Y)를 이용하여 카메라의 회전방향(a) 및 픽셀좌표의 절대좌표에 대한 옵셋(Dx,Dy)를 구하고, 이를 이용하여 카메라의 중심의 픽셀좌표(xc,yc)의 절대좌표를 구하여 이동로봇의 위치 와 방향을 파악한다.
상기 제어부(13)는 촬상된 3개의 표식부(20)가 각각 다른 표식부 세트(31, 32, ...,3n)에 속하더라도 상기 메모리부(15)에 저장된 표식부(20)의 절대좌표를 이용하여 표식부(20)간의 거리를 구하고 환산거리 Dc1, Dc2, Dc3와 비교하여 가장 근사한 거리를 인식함으로써 절대좌표 (X1,Y2), (X2,Y2), (X3,Y3)를 파악할 수 있다. 또한, 상기 제어부(13)는 3개의 표식부(20)로 이루어지는 삼각형의 세개의 내각의 크기를 상호 비교함으로써 절대좌표 (X1,Y2), (X2,Y2), (X3,Y3)를 파악할 수도 있다.
상기 구동부(17)는 상기 제어부(13)의 명령에 의해 이동로봇을 3개의 표식부(20)가 촬상되는 위치로 이동하는 역할을 한다. 상기 구동부(17)는 전후좌우의 이동이 가능하도록 2개 이상의 바퀴와 각각의 바퀴를 구동하기 위한 모터 및 상기 제어부(13)의 신호에 의해 모터를 제어하는 모터 드라이브로 이루어진다.
출원인은 이하에서 첨부된 도면을 참고하여 본 발명의 위치 인식방법을 설명한다.
본 발명의 이동로봇의 위치 인식방법은, 도 6에 도시된 바와 같이, 이미지 데이터 생성단계(S11), 개수 판단단계(S13), 이동단계(S15) 및 위치 인식단계(S17)를 포함한다.
상기 이미지 데이터 생성단계(S11)는 상기 감지부(11)의 적외선 필터가 장착된 카메라로 상기 표식부(20)인 적외선 LED를 촬상한다. 이 때, 적외선 필터에 의해 적외선 이외의 빛은 모두 필터링된다. 그 후, 촬상된 이미지를 상기 제어부(13) 에서 처리 가능하도록 이미지 데이터로 변경하여 제어부(13)에 전송한다.
상기 개수 판단단계(S13)에서는, 상기 제어부(13)가 이미지 데이터 생성단계(S11)에서 생성된 이미지 데이터를 이용하여 영상처리를 함으로써 촬상된 적외선 LED의 개수를 파악한다. 여기서, 영상처리를 통하여 촬상된 LED의 갯수를 파악하는 것은 이건 출원전에 이미 공지된 기술에 해당하므로 이에 대한 상세한 설명은 생략한다. 촬상된 적외선 LED의 개수가 1개 또는 2개이면 상기 이동단계(S15)로 나아가고 촬상된 적외선 LED의 개수가 3개 이상이면 상기 위치 인식단계(S17)로 진행한다.
상기 이동단계(S15)에서는 촬상된 적외선 LED의 개수가 1개인 경우, 상기 제어부(13)가 상기 적외선 LED의 중심을 향해 이동하라는 명령을 상기 구동부(17)에 인가하여 이동로봇을 이동시킨다. 도 7을 통해 설명하면, 카메라의 촬상영역이 640×480(cm)이고 해상도가 640×480인 카메라의 경우 스케일 팩터는 F=1cm/pixel이다. 여기서, 촬상된 LED의 중심점의 픽셀좌표(370,190)는 카메라 중심의 픽셀좌표(320,240)에서 a=-45°방향으로 Pd=70.7(pixel) 떨어진 곳에 위치하는데 Pd를 스케일 팩터(F)를 이용하여 환산하면 환산거리 Dc=70.7cm가 된다. 따라서, 상기 제어부(13)는 상기 구동부(17)에 a=-45°방향으로 Dc=70.7cm만큼 이동하라는 명령을 한다. 여기서, '-'부호는 반시계 방향(ccw)을 의미한다.
상기 이동단계(S15)에서 촬상된 적외선 LED의 개수가 2개인 경우, 상기 제어부(13)가 상기 구동부(17)에 양 LED를 연결하는 직선의 중점으로 이동하라는 명령을 인가한다. 도 8(카메라의 촬상영역과 해상도는 도 7과 동일)을 통해 설명하면, 상기 제어부(13)는 촬상된 두 개의 LED의 중심점의 픽셀좌표 (300,185) 및 (400,235)로부터 두 점을 잇는 직선상의 중점의 픽셀좌표 (350,210)를 구한다. 여기서, 촬상된 2개의 LED의 중점의 픽셀좌표 (350,210)는 카메라 중심의 픽셀좌표 (320,240)로부터 a=-45°방향으로 Pd=42.42(pixel)만큼 떨어진 곳에 위치하는데, 스케일 팩터(F=1cm/pixel)를 이용하여 환산거리(Dc)를 구하면 Dc=42.42cm가 된다. 따라서, 상기 제어부(13)는 상기 구동부(17)에 a=-45°방향으로 Dc=42.42cm만큼 이동하라는 명령을 한다.
상기 위치 인식단계(S17)는 상기 개수 파악단계(S13)에서 파악된 촬상 이미지에서 점의 개수가 3개 이상인 경우 이동로봇의 위치 및 방향을 인식한다. 도 9a는 절대좌표계(X,Y)상에서 3개의 LED 즉, 1(4,4), 2(4,6) 및 3(6,6)를 나타낸 개략도이고, 도 9b는 픽셀좌표계(x,y)상에서 촬상된 3개의 LED 즉, A(242,89), B(101,230) 및 C(240,370)를 나타낸 개략도이다(각, LED의 픽셀좌표는 영상분석을 통하여 연산 가능하며, 이는 공지기술의 영역에 속한다. 카메라의 촬상영역 및 해상도는 도 7 및 도 8과 동일). 상기 위치인식 단계(S17)는 촬상된 표식부(20)의 절대좌표를 찾아내는 단계와, 카메라의 방향(a)를 인식하는 단계와, 카메라 중심의 절대좌표를 구하는 단계로 이루어진다.
표식부(20)의 절대좌표를 찾아내는 단계는, 상기 제어부(13)가 이미지 데이터를 분석하여 먼저 3개의 표식부의 중심점의 픽셀좌표 A(242,89), B(101,230), C(240,370)을 검출하고, 픽셀좌표간의 거리 Pd1=199.4(pixel), Pd2=197.2(pixel), Pd3=281(pixel)를 구하며, 이어서 스케일 팩터(F=1cm/pixel)를 이용하여 환산거리 (Dc) Dc1=199.4cm, Dc2=197.2cm, Dc3=281cm를 구한다. 그 후, 상기 제어부(13)는 상기 메모리부(15)에 저장된 각LED의 절대좌표를 이용하여 표식부 세트(31,32,...,3n)간의 실제거리 Dn1, Dn2, Dn3를 계산하는데, 각 표식부 세트(31,32,...,3n)의 실제거리 Dn1, Dn2, Dn3는 모두 상이하므로 환산거리 Dc1, Dc2, Dc3 세 개의 값과 각각 가장 근사한 실제거리 Dn1, Dn2, Dn3 즉, 2m, 2m, 2.828m를 가진 표식부 세트(3n)를 찾게된다. 따라서, 상기 제어부(13)는 각각의 Dc1, Dc2, Dc3와 Dn1, Dn2, Dn3를 비교하여 각 점들의 위치관계를 파악함으로써 픽셀좌표 A점은 절대좌표에서 제1점(4,4), B점은 절대좌표에서 제2점(4,6), C점은 절대좌표에서 제3점(6,6)임을 파악하며, 이동로봇이 촬영한 표식부 세트가 3n임을 판단하게 된다.
다음으로, 카메라의 방향(a)은 절대좌표계(X,Y)와 픽셀좌표계(x,y)는 다음과 같은 행렬관계식에 의해 계산된다.
Figure 112004036332678-pat00001
(1)
여기서, a는 절대좌표축(X,Y)에 대한 픽셀좌표축(x,y)의 각도이고, Dx, Dy는 절대좌표축에 대한 픽셀좌표축의 옵셋이다. 절대좌표계 1점 및 2점의 값과 픽셀좌표계 A 점 및 B점의 값을 (1)식에 대입하면 아래와 같은 관계식이 성립한다. 즉,
Figure 112004036332678-pat00002
(2)
Figure 112004036332678-pat00003
(3)
Figure 112004036332678-pat00004
(4)
Figure 112004036332678-pat00005
(5)
상기 (2)식에서 (4)식을 빼고 (3)식에서 (5)식을 빼서 정리하면,
Figure 112004036332678-pat00006
(6)
Figure 112004036332678-pat00007
(7)
상기 (6)식 및 (7)식으로부터 sina=-0.7092, cosa=0.7092이고 a=-45.17°이므로 카메라는 절대좌표의 X축으로부터 반시계 방향으로 45.17°를 향하고 있음을 알 수 있다.
마지막으로, 카메라 중심(xc,yc)의 절대좌표를 구하기 위해서 a=-45.17°를 (2)식 및 (3)식에 대입하여 Dx=1.652(m), Dy=5.085(m)를 구한다. 여기서 표식부 중심의 픽셀좌표는 (320,240)이므로 sina=-0.7092, cosa=0.7092, Dx=165.2cm, Dy=508.5cm, xc=320 및 yc=240을 (1)식에 대입하면 다음과 같다. 즉,
Figure 112004036332678-pat00008
(8)
(8)식에서, 카메라 중심의 절대좌표는 (562.3cm, 451.7cm)임을 알 수 있다. 여기서, 카메라 중심의 절대좌표를 구하는 것은 절대좌표계상에서 이동로봇의 위치를 확인하기 위함이다.
이상에서 상기 제어부(13)는 카메라의 중심이 절대좌표계상에서 (5.623m, 4.517m)에 위치하고 -45.17°를 향하고 있음을 알 수 있어 이동로봇의 위치 및 방향을 정확하게 인식할 수 있게된다.
상기 위치인식단계(S17)는 촬상된 3개의 표식부(20)가 각각 다른 표식부 세트(31, 32, ...,3n)에 속하더라도, 상기 제어부(13)가 상기 메모리부(15)에 저장된 표식부(20)의 절대좌표를 이용하여 표식부(20)간의 거리를 구하고 환산거리 Dc1, Dc2, Dc3와 비교하여 가장 근사한 거리를 인식함으로써 절대좌표 (X1,Y2), (X2,Y2), (X3,Y3)를 파악할 수 있다. 또한, 상기 제어부(13)는 3개의 표식부(20)로 이루어지는 삼각형의 세개의 내각의 크기를 상호 비교함으로써 절대좌표 (X1,Y2), (X2,Y2), (X3,Y3)를 파악할 수도 있다.
이상과 같은 내용은 본 발명의 기술적 사상을 구현하는 실시예에 불과한 것으로, 본 발명은 상기와 같은 실시예에 한정되지 않고 본 발명의 기술적 사상을 구현하는 한 어떠한 실시예 또는 변경예도 본 발명의 범위에 속하는 것으로 해석되어야 한다.
본 발명은 상기와 같은 구성으로 인하여 다음과 같은 효과를 가진다.
본 발명의 이동로봇 위치 인식장치 및 방법은 천장에 부착된 3개의 표식부를 촬상하고 픽셀좌표를 분석하여 저장된 표식부의 절대좌표와 비교함으로써 이동로봇의 위치 및 방향을 정확하게 인식할 수 있는 효과를 도모할 수 있다.
본 발명의 이동로봇의 위치 인식장치 및 방법은 표식부를 적외선 LED로 구성하고 감시부 카메라에 적외선 필터를 장착하여 표식부 이외의 빛은 필터링하여 노 이즈를 제거함으로써 이동로봇의 위치 및 방향을 정확하게 인식할 수 있는 효과를 가진다.
본 발명의 이동로봇의 위치 인식장치 및 방법은 각각 다른 패턴을 가지는 표식부를 구비하고 각각의 패턴에 대해 등록할 필요없이 동일한 형태를 가지는 다수개의 표식부를 거리만 달리하여 설치하면 되기 때문에 설치작업이 편리한 효과를 도모할 수 있다.

Claims (9)

  1. 이동로봇의 작업영역의 천장에 설치된 3개의 표식부가 한세트로 이루어지며, 3개의 표식부간의 거리가 상이한 다수의 표식부 세트와,
    상기 표식부를 촬상하여 영상 이미지를 획득하고 이미지 데이터를 생성하는 감지부와,
    상기 표식부의 위치정보가 기록된 메모리부와,
    상기 이미지 데이터를 처리하여 2개 이하의 표식부가 촬상된 경우에는 이동하라는 신호를 출력하고, 3개 이상의 표식부가 촬상된 경우에는 각 표식부의 픽셀좌표를 분석하여 상기 메모리부의 표식부의 위치정보와 비교함으로써 이동로봇의 위치 및 방향을 인식할 수 있는 제어부와,
    상기 제어부로부터 입력된 신호에 의해 이동로봇을 구동시키는 구동부로 이루어진 것을 특징으로 하는 이동로봇의 위치인식 장치.
  2. 제 1 항에 있어서, 상기 표식부는 적외선 LED를 가지고, 상기 감지부는 적외선 필터를 구비한 것을 특징으로 하는 이동로봇의 위치인식 장치.
  3. 제 2 항에 있어서, 3개의 적외선 LED간의 거리는 적어도 2개 이상이 상이한 것을 특징으로 하는 이동로봇의 위치인식 장치.
  4. 제 3 항에 있어서, 3개의 적외선 LED는 정삼각형을 제외한 이등변 삼각형으로 배치되는 것을 특징으로 하는 이동로봇의 위치인식 장치.
  5. 감지부가 이동로봇의 작업영역의 천장에 설치된 3개의 표식부가 한세트로 이루어지고, 3개의 표식부간의 거리가 상이한 다수의 표식부 세트에서 표식부를 촬상하여 이를 통해 영상이미지를 획득하고 이미지 데이터를 생성하는 이미지 데이터 생성단계와,
    제어부가 상기 이미지 데이터를 분석하여 3개 이상의 표식부가 인식되는지 판단하는 개수 판단단계와,
    상기 개수 판단단계에서 2개 이하의 표식부가 인식되는 경우 픽셀좌표를 분석하여 구동부를 구동시키는 이동단계와,
    상기 개수 판단단계에서 3개 이상의 표식부가 인식된 경우에는 픽셀좌표를 분석하여 이동로봇의 위치 및 방향을 인식할 수 있는 위치인식단계를 포함하는 것을 특징으로 하는 이동로봇의 위치인식 방법.
  6. 제 5 항에 있어서, 상기 위치인식 단계는 촬상된 표식부의 절대좌표를 구하는 단계와, 이동로봇의 카메라 방향을 구하는 단계와, 이동로봇의 카메라 중심의 절대좌표를 구하는 단계로 이루어지는 것을 특징으로 하는 이동로봇의 위치인식 방법.
  7. 제 6 항에 있어서, 촬상된 표식부의 절대좌표를 구하는 단계는 각 표식부간의 픽셀좌표상의 거리를 구하는 단계와, 스케일 팩터를 이용하여 환산거리로 변환 하는 단계와, 절대좌표계상의 표식부간의 실제거리를 연산하는 단계와 환산거리와 실제거리를 비교하여 상호일치하는 표식부를 찾아내는 단계로 이루어지는 것을 특징으로 하는 이동로봇의 위치인식 방법.
  8. 제 6 항에 있어서, 상기 이동단계는 중심점의 픽셀좌표를 검출하는 단계와, 상기 개수 판단단계에서 파악된 표식부의 개수가 1개인 경우 이동로봇을 표식부를 향해 이동하고, 표식부의 개수가 2개인 경우 양표식부의 중심으로 이동하는 단계를 포함하는 것을 특징으로 하는 이동로봇의 위치인식 방법.
  9. 제 5 항 내지 제 8 항 중 어느 하나의 항에 있어서, 상기 이미지 데이터 생성단계는 적외선 필터를 이용하여 적외선 이외의 빛을 필터링함으로써 영상이미지를 획득하는 단계를 추가로 포함하는 것을 특징으로 하는 이동로봇의 위치인식 방법.
KR1020040064013A 2004-08-13 2004-08-13 이동로봇의 위치인식 장치 및 방법 KR100593503B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040064013A KR100593503B1 (ko) 2004-08-13 2004-08-13 이동로봇의 위치인식 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040064013A KR100593503B1 (ko) 2004-08-13 2004-08-13 이동로봇의 위치인식 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20060015163A KR20060015163A (ko) 2006-02-16
KR100593503B1 true KR100593503B1 (ko) 2006-06-30

Family

ID=37124010

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040064013A KR100593503B1 (ko) 2004-08-13 2004-08-13 이동로봇의 위치인식 장치 및 방법

Country Status (1)

Country Link
KR (1) KR100593503B1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100809317B1 (ko) * 2006-07-28 2008-03-05 두얼메카닉스 주식회사 위치 검출 방법 및 그 방법을 이용한 이동 장치
KR100773271B1 (ko) * 2006-10-25 2007-11-05 전자부품연구원 단일 카메라를 이용한 이동 로봇의 위치 측정 방법
KR100924994B1 (ko) * 2006-12-02 2009-11-04 한국전자통신연구원 적외선 센서와 카메라를 이용한 이동로봇의 자동충전시스템 및 그 방법
KR100825919B1 (ko) 2006-12-18 2008-04-28 엘지전자 주식회사 거리 측정 센서, 거리 측정 센서를 가진 이동로봇 및 그를이용한 이동로봇 주행 방법
KR100919944B1 (ko) * 2007-03-19 2009-10-01 주식회사 유진로봇 이동로봇의 맵 생성 시스템 및 맵 생성방법
KR100871114B1 (ko) * 2007-04-03 2008-11-28 엘지전자 주식회사 이동로봇 및 그 동작방법
WO2017188706A1 (ko) * 2016-04-25 2017-11-02 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
SE1851620A1 (en) * 2018-12-20 2020-06-21 Epiroc Rock Drills Ab Method and device for determining the position of a mining and / or construction machine

Also Published As

Publication number Publication date
KR20060015163A (ko) 2006-02-16

Similar Documents

Publication Publication Date Title
KR100785784B1 (ko) 인공표식과 오도메트리를 결합한 실시간 위치산출 시스템및 방법
JP4264380B2 (ja) 自己位置同定方法及び該装置
JP3883006B2 (ja) ロボット掃除機の位置認識標識の検出方法及びこの検出方法を適用したロボット掃除機
JP4584213B2 (ja) カメラ及び標識を用いた移動ロボットの測位システム及び方法
JP5588812B2 (ja) 画像処理装置及びそれを用いた撮像装置
EP2144131B1 (en) Apparatus and method of building map for mobile robot
KR100669250B1 (ko) 인공표식 기반의 실시간 위치산출 시스템 및 방법
US11614743B2 (en) System and method for navigating a sensor-equipped mobile platform through an environment to a destination
Gschwandtner et al. Infrared camera calibration for dense depth map construction
KR20090061296A (ko) 이동 로봇의 자세 보정 방법 및 장치
KR20090061355A (ko) 이동로봇의 주행 제어 방법 및 이를 이용한 이동 로봇
KR100593503B1 (ko) 이동로봇의 위치인식 장치 및 방법
KR100749923B1 (ko) 카메라와 표식을 이용한 이동 로봇의 측위 시스템 및 방법
CN108544494A (zh) 一种基于惯性和视觉特征的定位装置、方法及机器人
KR100564236B1 (ko) 이동 로봇의 자기위치인식 장치 및 방법
Abdulla et al. Multi-floor navigation method for mobile robot transportation based on StarGazer sensors in life science automation
CN103056864A (zh) 轮式运动机器人位置与角度的实时检测装置及方法
JP2020087180A (ja) 移動体追跡方法及びこれに用いる画像処理装置
KR100784125B1 (ko) 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법
KR20140053712A (ko) 센서 융합에 의한 실내로봇용 위치인식 방법
KR20120108277A (ko) 자연랜드마크와 인공랜드마크를 인식하는 지능형 이동로봇의 위치인식 방법
KR101305405B1 (ko) 측면의 랜드마크를 인식하는 지능형 이동로봇의 위치인식 방법
KR100844640B1 (ko) 물체 인식 및 거리 계측 방법
Cucchiara et al. Efficient Stereo Vision for Obstacle Detection and AGV Navigation.
KR100939213B1 (ko) 인공 표식물의 위치 획득 장치 및 그 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee