KR20100096970A - 위치 인식 시스템 및 그 방법 - Google Patents

위치 인식 시스템 및 그 방법 Download PDF

Info

Publication number
KR20100096970A
KR20100096970A KR1020090037400A KR20090037400A KR20100096970A KR 20100096970 A KR20100096970 A KR 20100096970A KR 1020090037400 A KR1020090037400 A KR 1020090037400A KR 20090037400 A KR20090037400 A KR 20090037400A KR 20100096970 A KR20100096970 A KR 20100096970A
Authority
KR
South Korea
Prior art keywords
pattern
mobile platform
beacon
image
information
Prior art date
Application number
KR1020090037400A
Other languages
English (en)
Other versions
KR101356644B1 (ko
Inventor
홍준표
유경환
주재만
김동원
정우람
정재영
장휘찬
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US12/659,078 priority Critical patent/US20100215216A1/en
Publication of KR20100096970A publication Critical patent/KR20100096970A/ko
Application granted granted Critical
Publication of KR101356644B1 publication Critical patent/KR101356644B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern

Abstract

본 발명은 모바일 플랫폼의 자율 주행을 위한 위치 인식이 가능한 위치 인식 시스템 및 그 방법에 관한 것이다.
이를 위해 본 발명은 모바일 플랫폼의 자율 주행을 위한 위치 인식을 위해 인식 가능한 영상 패턴을 가지는 비컨(3차원 구조물)을 사용자가 원하는 임의의 위치에 배치하고, 비컨의 영상 패턴 정보를 알고 있는 모바일 플랫폼은 비컨의 영상을 촬영하여 촬영된 영상에서 인식해야 할 패턴을 찾아 분석한다. 이후 패턴 분석을 통해 모바일 플랫폼의 상대 거리 및 상대 각도를 계산하여 모바일 플랫폼의 위치를 정확하게 인식할 수 있도록 한다.

Description

위치 인식 시스템 및 그 방법{SYSTEM FOR LOCALIZATION AND METHOD THEREOF}
본 발명은 모바일 플랫폼의 자율 주행을 위한 위치 인식이 가능한 위치 인식 시스템 및 그 방법에 관한 것으로, 더욱 상세하게는 인식 가능한 패턴을 가지는 비컨(3차원 구조물)의 영상 정보를 이용하여 모바일 플랫폼의 위치를 인식하는 위치 인식 시스템 및 그 방법에 관한 것이다.
지능형 무인화 기술이 발달됨에 따라 자기 위치 인식 기술에 대한 많은 연구가 진행되고 있다. 관성항법을 이용한 위치 인식 기술은 항공기나 미사일 등과 같이 한정된 곳에 사용되었으나, 인공위성을 활용한 GPS(Global Positioning System)가 상용화됨에 따라 위치 인식 기술이 다양한 분야에서 사용되고 있으며 상업적으로도 막대한 부가가치를 창출하고 있다. 그러나 위치 인식 기술이 아직까지는 실내나 도심지에서 좋은 성능을 내지 못하고 있기 때문에 어떠한 장소에서도 좋은 성능을 낼 수 있는 솔루션을 찾기 위하여 많은 연구가 진행되고 있는 상황이며, 최근에는 실내에서 사용할 수 있는 모바일 제품들에 위치 인식 기술을 탑재함으로서 다양한 기능의 구현은 물론, 이로 인해 발생되는 부가가치 또한 적지 않을 것을 예상된다.
예를 들면, 최근 들어 다양한 분야에서 활용되고 있는 로봇(가정에서의 가사 도우미 로봇, 공공장소용 서비스 로봇, 생산 현장에서의 반송 로봇, 작업자 지원 로봇 등)의 경우 자율적으로 이동하기 위해서는 주변 환경에 대한 사전 정보 없이 자기의 위치를 인식하고, 환경에 대한 정보로부터 지도를 작성하는 위치 인식(Localization)과 지도 작성(Map-building)의 과정이 동시에 수행되어야 한다.
이를 위해 종래에는 로봇과 분리된 위치정보 송출장치(비컨)를 실내(또는 건물)의 특정 위치에 고정하거나 또는 이동 가능하게 설치하여 위치정보 송출장치에서 송출하는 신호를 로봇에서 수신하고, 이를 바탕으로 위치정보 송출장치로부터 로봇이 위치한 상대 위치를 파악하는 방법이 많이 이용되고 있다.
그러나, 고정식 위치정보 송출장치의 경우 로봇의 정확한 위치 인식을 위해 사용자가 필요에 따라 위치정보 송출장치를 이동시켜야 하는 번거로움이 있고, 이동식 위치정보 송출장치의 경우에는 이동 가능하다는 장점이 있긴 하나 신호 송출에 필요한 전원을 위해 배터리를 사용해야 한다.
본 발명은 인식 가능한 패턴을 가지는 비컨(3차원 구조물)의 영상 정보를 이용하여 모바일 플랫폼이 상대적인 자기의 위치를 정확하게 인식할 수 있는 위치 인식 시스템 및 그 방법을 제시하고자 한다.
이를 위해 본 발명의 실시예는 인식 가능한 영상 패턴을 가지는 비컨; 상기 비컨의 영상 패턴을 이용하여 위치를 인식하는 모바일 플랫폼을 포함한다.
상기 비컨은 상기 모바일 플랫폼과 분리되게 배치하는 다각형 구조물인 것을 특징으로 한다.
상기 다각형 구조물은 두 개 이상의 면을 가지며, 상기 각각의 면에는 상기 인식 가능한 영상 패턴이 적어도 하나 이상 인쇄되어 있는 것을 특징으로 한다.
상기 각각의 면에 인쇄된 영상 패턴들은 동일하거나 또는 서로 다른 영상 패턴의 형상을 갖는 것을 특징으로 한다.
상기 모바일 플랫폼은 상기 비컨을 촬영하여 상기 비컨의 단일 영상 정보를 획득하는 영상 획득부와, 상기 획득된 단일 영상 정보를 분석하여 상기 모바일 플랫폼이 위치한 좌표 정보를 파악하는 제어부를 포함한다.
상기 파악된 좌표 정보는 상기 비컨을 기준으로 한 상기 모바일 플랫폼의 상대 거리와 상대 각도인 것을 특징으로 한다.
상기 제어부는 상기 촬영된 영상에서 상기 비컨이나 상기 인식된 패턴의 높이를 측정하여 상기 상대 거리를 계산하는 것을 특징으로 한다.
상기 제어부는 상기 촬영된 영상에서 상기 비컨이나 상기 인식된 패턴의 너비를 측정하여 상기 상대 각도를 계산하는 것을 특징으로 한다.
상기 제어부는 상기 촬영된 영상에서 상기 다각형 구조물의 한 면이 보일 경우, 상기 인식된 패턴의 좌우 높이를 비교하여 상기 비컨을 기준으로 한 상기 모바일 플랫폼의 상대 각도를 계산하는 것을 특징으로 한다.
상기 제어부는 상기 촬영된 영상에서 상기 다각형 구조물의 두 면이 보일 경우, 상기 인식된 두 패턴의 너비 비율을 이용하여 상기 비컨을 기준으로 한 상기 모바일 플랫폼의 상대 각도를 계산하는 것을 특징으로 한다.
상기 모바일 플랫폼은 상기 다각형 구조물의 각 면에 인쇄된 패턴 정보와 상기 비컨의 기하학적 정보를 저장하는 저장부를 더 포함한다.
상기 모바일 플랫폼은 상기 비컨을 기준으로 상기 모바일 플랫폼이 위치한 특정 영역에서 작업을 수행하는 것을 특징으로 한다.
상기 비컨은 상기 모바일 플랫폼과 결합되게 부착하는 다각형 구조물인 것을 특징으로 한다.
상기 위치 인식 시스템은 상기 비컨을 촬영하여 상기 비컨의 단일 영상 정보를 획득하는 영상 획득부를 더 포함하고, 상기 영상 획득부는 상기 모바일 플랫폼과 분리되게 배치하는 것을 특징으로 한다.
상기 모바일 플랫폼은 상기 획득된 단일 영상 정보를 분석하여 상기 모바일 플랫폼이 위치한 좌표 정보를 파악하는 제어부를 더 포함한다.
상기 위치 인식 시스템은 상기 획득된 단일 영상 정보를 상기 모바일 플랫폼 에 전달하는 통신부를 더 포함하고, 상기 통신부는 가청 주파수, 초음파, 가시광선, 적외선, 레이저, 무선(RF) 신호 중 하나를 전달하는 것을 특징으로 한다.
또한, 본 발명의 다른 실시예는 인식 가능한 영상 패턴을 가지는 비컨을 촬영하여 상기 비컨의 영상 패턴을 인식하고; 마스크 패턴을 이용하여 상기 인식된 영상 패턴으로부터 후보 패턴을 검색하고; 검사 패턴을 이용하여 상기 검색된 후보 패턴에서 정상 패턴인 것을 추출하고; 상기 추출된 패턴의 크기 정보를 이용하여 상기 비컨을 기준으로 한 모바일 플랫폼의 상대 거리와 상대 각도를 계산하고; 상기 계산된 상대 거리와 상대 각도를 이용하여 상기 모바일 플랫폼의 위치를 인식하는 것을 특징으로 한다.
상기 크기 정보는 상기 패턴 중심의 높이 정보, 상기 패턴 좌우의 꼭지점 정보, 상기 패턴 좌우의 너비 정보를 포함한다.
또한, 본 발명의 다른 실시예는 상기 추출된 패턴이 가지는 면의 수를 판단하는 것을 더 포함하고, 상기 상대 거리와 상대 각도를 계산하는 것은, 상기 패턴의 중심 높이를 이용하여 상대 거리를 계산하고 상기 패턴의 좌우 높이를 비교하여 상대 각도를 계산하는 것을 특징으로 한다.
또한, 본 발명의 다른 실시예는 상기 추출된 패턴이 가지는 면의 수를 판단하는 것을 더 포함하고, 상기 상대 거리와 상대 각도를 계산하는 것은, 상기 패턴의 중심 높이를 이용하여 상대 거리를 계산하고 상기 패턴의 좌우 너비 비율을 이용하여 상대 각도를 계산하는 것을 특징으로 한다.
이러한 본 발명의 실시예에 의하면 모바일 플랫폼의 자율 주행을 위한 위치 인식을 위해 인식 가능한 패턴을 가지고 이동 가능한 비컨(3차원 구조물)을 사용자가 원하는 위치에 간단하게 배치하고, 비컨의 패턴 정보를 이미 알고 있는 모바일 플랫폼은 비컨의 영상을 촬영하여 촬영된 영상 패턴을 분석하고 그 분석 결과에 따라 모바일 플랫폼의 상대 거리 및 상대 각도를 계산하여 모바일 플랫폼의 위치를 정확하게 인식할 수 있게 된다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세히 설명한다.
도 1은 본 발명의 실시예에 의한 위치 인식 시스템의 전체 구성도로서, 영상 인식용 패턴을 가지며 이동 가능한 비컨(10)과, 자율적으로 이동하면서 원격으로 비컨(10)을 촬영하여 자기의 위치를 인식하는 모바일 플랫폼(20)을 포함한다.
비컨(10)은 사용자가 원하는 위치에 모바일 플랫폼(20)과 분리 또는 결합되게 배치하는 3차원 구조물로서, 2개 이상의 면(a, b)을 가지는 다각형 도형(예를 들어, 삼각 기둥, 큐빅 등)을 사용한다. 이 다각형 도형의 각각의 면(a, b)에는 기하학적인 영상 패턴이 1개 이상 인쇄되며 각각의 면(a, b)에 인쇄되는 영상 패턴은 동일하거나 또는 서로 다른 영상 패턴을 가지도록 구성한다.
모바일 플랫폼(20)은 이동하는 로봇 본체(22)와, 로봇 본체(22)에 설치된 영상 획득부(24)를 구비하며, 비컨(10)의 기하학적인 영상 패턴 정보를 알고 있는 상태에서 비컨(10)을 원격으로 촬영하여 촬영된 영상 패턴을 기하학적으로 분석하고 이를 통해 자기의 위치를 인식한다.
도 2는 본 발명의 실시예에 의한 모바일 플랫폼의 제어 블록도로서, 영상 획득부(24), 제어부(26), 저장부(28) 및 구동부(30)를 포함한다.
영상 획득부(24)는 모바일 플랫폼(20)이 알려지지 않은 환경을 이동할 때 이동하는 경로 상에 위치하는 비컨(10; 3차원 구조물)을 원격으로 촬영하여 비컨(10)의 영상 정보(기하학적인 영상 패턴의 높이 및 너비 정보)를 획득하는 3차원 측정장비(예를 들어, 스테레오 카메라, Time of Flight 카메라 등)이다. 3차원 측정장비는 카메라의 각각의 픽셀에 비컨(10)의 영상 정보를 알 수 있을 뿐만 아니라 센서와 픽셀이 검출한 비컨(10)의 거리 정보까지 알 수 있어 위치 인식이나 장애물 검출방법에 있어서 더 많은 정보로 활용할 수 있다.
제어부(26)는 영상 획득부(24)를 통해 획득된 영상 정보(기하학적인 영상 패턴의 높이 및 너비 정보)를 입력받아 모바일 플랫폼(20)이 위치한 좌표 정보를 파악하는 것으로, 영상 획득부(24)에 의해 획득된 영상 정보에서 기하학적인 영상 패턴의 높이와 너비(좌우 폭)를 측정하고, 측정된 영상 패턴의 높이와 너비를 이용하여 모바일 플랫폼(20)의 상대 거리와 상대 각도를 계산하고, 여 모바일 플랫폼(20)의 위치를 인식하는 중앙 연산 장치(CPU)이다.
저장부(28)는 비컨(10)의 각 면(a, b...)에 인쇄된 패턴 정보(기하학적인 영상 패턴의 높이 및 너비 정보)와 비컨(10)의 정보(비컨의 높이 및 너비 정보)를 저장하는 메모리로, 모바일 플랫폼(20)의 현재위치와 최종 목표위치를 저장하고 있어야 한다.
구동부(30)는 제어부(26)에서 인식된 위치 정보를 기반으로 하여 모바일 플 랫폼(20)이 벽이나 장애물과의 충돌없이 주행하고자 하는 경로를 자율적으로 이동하도록 구동한다.
이하, 상기와 같이 구성된 위치 인식 시스템 및 그 방법의 동작과정 및 작용효과를 설명한다.
도 3은 본 발명의 실시예에 의한 위치 인식 시스템에서 비컨의 3차원 정보를 나타낸 도면으로, 3차원 공간상에서 비컨(10)의 좌표 정보를 나타낸 것이다.
도 3에서, Bx, By는 비컨(10)의 X, Y축 크기이고, Bz는 비컨(10)의 높이이다.
도 4는 본 발명의 실시예에 의한 위치 인식 시스템의 동작 원리를 공간상에서 설명한 개념도이다.
도 4에서 보듯이, 모바일 플랫폼(20)은 부착된 영상 획득부(24)를 통해 인식 가능한 영상 패턴을 가지는 비컨(10)을 촬영하게 되는데, 모바일 플랫폼(20)의 위치에 따라 촬영되는 비컨(10)의 영상 정보가 달라짐을 알 수 있다.
즉, 2개의 면(a, b)을 가지는 다각형 도형으로 이루어진 비컨(10)이 고정되어 있는 상태에서 모바일 플랫폼(20)이 이동함에 따라 영상 획득부(24)를 통해 촬영되는 비컨(10)의 영상은 a 또는 b의 한 면만 보이는 위치가 존재할 수 있고, 또한 a와 b의 두 면이 다 보이는 위치가 존재할 수 있다.
도 4에서, ⓢ는 영상 획득부(24)의 카메라 스크린에 나타난 비컨(10)의 형상을 나타낸 것이고, F는 Focus 거리이다.
도 5는 본 발명의 실시예에 의한 위치 인식 시스템의 동작 원리를 평면상에 서 설명한 개념도이다.
도 5에서, 비컨(10)은 인식 가능한 패턴이 2개의 면(a, b)에 인쇄된 삼각 기둥을 사용하고 2개의 면(a, b)에 인쇄된 패턴은 서로 다른 패턴을 가지며, 모바일 플랫폼(20)은 2개의 면(a, b)에 인쇄된 영상 패턴의 기하학적 정보(높이와 너비 정보)를 미리 알고 있어야 한다.
모바일 플랫폼(20)이 이동하는 환경에 위치한 비컨(10)의 영상을 촬영하도록 모바일 플랫폼(20)에 부착된 영상 획득부(24)는 촬영된 영상 정보에서 인식해야 할 영상 패턴을 찾아 제어부(26)에 전달한다.
이때, 인식된 영상 패턴은 거리에 따라 높이가 달라 보이므로 제어부(26)는 모바일 플랫폼(20)에서 비컨(10)까지의 상대 거리를 계산하고, 또한 인식된 영상 패턴은 보는 각도에 따라 좌우의 폭(너비)이 달라 보이므로 제어부(26)는 비컨(10)을 기준으로 한 모바일 플랫폼(20)의 상대 각도를 계산한다.
따라서, 제어부(26)는 모바일 플랫폼(20)에서 비컨(10)까지의 상대 거리와 모바일 플랫폼(20)의 상대 각도 즉, 2차원 패턴을 이용하여 비컨(10)을 기준으로 한 모바일 플랫폼(20)의 상대적인 위치를 파악하는데 이를 도 6을 참조하여 설명한다.
도 6은 본 발명의 실시예에 의한 모바일 플랫폼에서 비컨의 영상 패턴을 매칭하여 위치를 인식하는 방법을 도시한 동작 순서도이다.
도 6에서, 영상 획득부(24)는 모바일 플랫폼(20)이 이동하는 경로 상에 위치하는 비컨(10)의 영상을 촬영하여 영상 정보를 획득한다(100).
영상 획득부(24)를 통해 획득된 영상 정보는 제어부(26)에 입력되고, 제어부(26)는 획득된 영상 정보의 기하학적인 영상 패턴으로부터 도 7에 도시한 마스크 패턴을 이용하여 후보 패턴들을 검색한다(102). 마스크 패턴을 이용하여 후보 패턴들을 검색하는 방법은 획득된 영상 패턴과 마스크 패턴의 매칭을 통해 검색한다.
마스크 패턴을 이용하여 후보 패턴들이 검색되면, 제어부(26)는 검색된 후보 패턴들이 정상 패턴인지 또는 오류 패턴인지 검사하기 위하여 미리 저장된 검사 패턴을 이용하여 검색된 후보 패턴들의 패턴 오류를 검사하고, 검색된 후보 패턴들 중에서 정상 패턴인 것만을 추출한다(104).
검사 패턴을 이용하여 정상 패턴인 후보 패턴이 추출되면, 제어부(26)는 추출된 후보 패턴(정상 패턴인 후보 패턴)의 크기 정보(예를 들면, 패턴 중심의 높이 정보, 패턴 좌우의 꼭지점 정보, 패턴 좌우의 너비 정보 등)를 측정하고(106), 추출된 후보 패턴(정상 패턴인 후보 패턴)에 ID(Identification)를 부여하여 코드화된 패턴을 인식한다(108).
이후, 인식된 패턴이 한 면을 가지는가 판단하여(110), 인식된 패턴이 a 또는 b 중 한 면을 가지는 경우 인식된 패턴의 중심 높이를 이용하여 상대 거리 r를 계산하고 인식된 패턴의 좌우 꼭지점 정보 즉, 좌우 높이를 비교하여 상대 각도 θ를 계산한다(112).
단계 110의 판단 결과, 인식된 패턴이 a와 b의 두 면을 다 가지는 경우, 인식된 패턴의 중심 높이를 이용하여 상대 거리 r를 계산하고 인식된 패턴의 좌우 너비 정보 즉, 좌우 너비 비율을 이용하여 상대 각도 θ를 계산한다(114).
이와 같이, 인식된 영상 패턴에서 보이는 면에 따라 계산된 상대 거리 r과 상대 거리 r을 이용하여 모바일 플랫폼(20)의 상대 위치(x, y, ψ)를 파악한다(116).
한편, 인식된 영상 패턴은 영상 획득부(24)의 해상도에 따라 한계가 있으므로 입체 도형을 이용하는 경우 더 정확한 각도를 알아낼 수 있으며, 도 5에 도시한 바와 같이 삼각 기둥의 두 빗면에 인쇄된 패턴을 보는 경우, 모바일 플랫폼(20)은 삼각형의 이등변 중심선을 기준으로 몇 도가 비뚤어져 있는지를 체크하여 비컨(10)을 기준으로 한 모바일 플랫폼(20)의 상대 각도를 더 정확하게 판별해 줌으로서 도킹 등 정밀한 정렬이 필요한 경우에 적용할 수 있다.
도 8은 본 발명의 실시예에 의한 모바일 플랫폼에서 비컨까지의 거리를 계산하는 과정을 설명한 도면이고, 도 9는 본 발명의 실시예에 의한 영상 획득부의 카메라 스크린에 나타난 비컨의 영상을 나타낸 도면이다.
도 8에서, Dv는 모바일 플랫폼(20)에서 비컨(10)까지의 거리이고, Bz는 모바일 플랫폼(20)에서 비컨(10)까지의 거리가 Dv일 때 비컨(10)의 높이이며, F는 모바일 플랫폼(20)에서 Focus까지의 거리이고, SH0는 모바일 플랫폼(20)에서 Focus까지의 거리가 F일 때 비컨(10)의 높이이다.
따라서, 모바일 플랫폼(20)에서 비컨(10)까지의 거리 Dv를 구하면, 아래의 [식 1]로 표현할 수 있다.
[식 1]
F : SH0 = Dv : Bz
Dv → BzF/SH0
도 9에서, 비컨(10)의 영상에서 중첩 영역 SH0를 기준으로 SH1, SH2, S1, S2의 비율(Ratio)을 구하면 아래의 [식 2]로 표현할 수 있다.
[식 2]
Ratio1 → S1/SH0
Ratio2 → S2/SH0
RatioH1 → SH1/SH0
RatioH2 → SH2/SH0
그리고, 비컨(10)의 영상에서 중첩 영역 SH0를 비컨(10)의 실제 기둥 높이로 만들어 각 지점의 거리를 파악하면 아래의 [식 3]로 표현할 수 있다.
[식 3]
Dv1 → Ratio1 × Bz
Dv2 → Ratio2 × Bz
DvH1 → RatioH1 × Bz
DvH2 → RatioH2 × Bz
도 10은 본 발명의 실시예에 의한 위치 인식 시스템에서 비컨을 기준으로 한 모바일 플랫폼의 상대 각도를 계산하는 과정을 설명한 도면으로, a와 b의 두 면이 다 보이는 위치에서 모바일 플랫폼(20)의 상대 각도를 계산하는 것이다.
도 10에서, 각 V1, V, V2가 원점을 지나는 직선을 수식으로 표기하면 아래의 [식 4]와 같이 표현할 수 있다.
[식 4]
Figure 112009025950374-PAT00001
그리고, V와 V1을 지나는 직선과, V와 V2를 지나는 직선을 수식으로 표기하면 아래의 [식 5]와 같이 표현할 수 있다.
[식 5]
Figure 112009025950374-PAT00002
[식 4]의 Cos(θ), Sin(θ)의 값은 아래의 [식 6]에 의해 구할 수 있다.
[식 6]
Figure 112009025950374-PAT00003
따라서, 두 면이 다 보이는 비컨(10)을 기준으로 한 모바일 플랫폼(20)의 상대 각도 V는 아래의 [식 7]과 같이 표현할 수 있다.
[식 7]
Figure 112009025950374-PAT00004
도 11은 본 발명의 실시예에 의한 위치 인식 시스템에서 비컨을 기준으로 한 모바일 플랫폼의 상대 각도를 계산하는 과정을 설명한 도면으로, a 또는 b의 한 면만 보이는 위치에서 모바일 플랫폼(20)의 상대 각도를 계산하는 것이다.
도 11에서, 각 V1, V2가 원점을 지나는 직선을 수식으로 표기하면 아래의 [식 8]과 같이 표현할 수 있다.
[식 8]
Figure 112009025950374-PAT00005
그리고, V, V1, (Bx, By)을 동시에 지나는 직선을 수식으로 표기하면 아래의 [식 9]와 같이 표현할 수 있다.
[식 9]
Figure 112009025950374-PAT00006
[식 9]에서 V에서 V1까지의 거리 DvH1과 비컨(10)에서 V까지의 거리 Bz는 아래의 [식 10]과 같이 표현할 수 있다.
[식 10]
Figure 112009025950374-PAT00007
[식 8]의 Cos(θ), Sin(θ)의 값은 아래의 [식 11]에 의해 구할 수 있다.
[식 11]
Figure 112009025950374-PAT00008
따라서, 한 면만 보이는 비컨(10)을 기준으로 한 모바일 플랫폼(20)의 상대 각도 V는 아래의 [식 12]와 같이 표현할 수 있다.
[식 12]
Figure 112009025950374-PAT00009
상기의 [식 1]에서 [식 12]를 통해 모바일 플랫폼(20)의 상대 거리와 상대 각도를 계산하는 과정을 요약하면 아래의 [식 13] ~ [식 15]로 표현할 수 있다.
모바일 플랫폼(20)에서 비컨(10)까지의 거리(Dist)를 표현하는 [식 13]는,
Figure 112009025950374-PAT00010
두 면이 다 보이는 경우, 비컨(10)을 기준으로 한 모바일 플랫폼(20)의 상대 각도(θ)를 표현하는 [식 14]는,
Figure 112009025950374-PAT00011
한 면만 보이는 경우, 비컨(10)을 기준으로 한 모바일 플랫폼(20)의 상대 각도(θ)를 표현하는 [식 15]는,
Figure 112009025950374-PAT00012
와 같다.
다음에는, 본 발명의 실시예에 의한 위치 인식 시스템을 실제 적용한 예를 설명한다.
도 12 내지 도 15는 본 발명의 실시예에 의한 위치 인식 시스템을 이용하여 모바일 플랫폼의 위치를 인식하는 윈도우 영상을 나타낸 도면이다.
도 12 내지 도 15에서, 패턴 인식 '+' 표시의 가로와 세로는 각각 인식된 패턴의 너비와 높이를 의미하고, 각 윈도우 영상은 삼각형 비컨(10)을 기준으로 한 모바일 플랫폼(20)의 상대 거리와 상대 각도를 표시한다.
이때, 모바일 플랫폼(20)의 상대 거리와 상대 각도는 필요에 따라 삼각 함수를 이용하여 모바일 플랫폼(20)의 좌표와 모바일 플랫폼(20)의 지향 각도로 변환된다.
이와 같이, 본 발명의 실시예에 의한 위치 인식 시스템은 모바일 플랫폼(20)의 자율 주행을 위한 위치 인식을 위해 인식 가능한 패턴을 가지는 비컨(10; 3차원 구조물)을 임의의 장소에 배치하고, 모바일 플랫폼(20)에서 그 비컨(10)을 기준으로 하여 상대 거리와 상대 각도를 계산함으로서 모바일 플랫폼(20)의 위치를 정확하게 인식할 수 있게 된다. 나아가 영역을 임의의 개수로 나누어 영역에 따른 동작 처리가 가능하며, 충전 스테이션에 적용할 경우 영상 정보를 이용하여 도킹도 가능하게 된다.
한편, 본 발명의 실시예에서는 인식 가능한 패턴을 가지는 비컨(10)을 모바일 플랫폼(20)과 분리되게 배치하고, 3차원 측정장비인 영상 획득부(24)를 모바일 플랫폼(20)에 부착하는 것을 예로 들어 설명하였으나, 본 발명은 이에 한정되지 않고 비컨(10)을 모바일 플랫폼(20)에 부착하고 영상 획득부(24)를 모바일 플랫폼(20)과 분리되게 배치하여도 본 발명과 동일한 목적 및 효과를 달성할 수 있음은 물론이다. 영상 획득부(24)를 모바일 플랫폼(20)과 분리되게 배치한 경우에는 영상 획득부(24)에서 획득한 비컨(10)의 단일 영상 정보를 모바일 플랫폼(20)에 전달하기 위한 통신부를 별도로 마련하며, 통신부를 통해 전달되는 신호는 가청 주파수, 초음파, 가시광선, 적외선, 레이저, 무선(RF) 신호 중 하나를 사용할 수 있다.
또한, 본 발명의 실시예에서는 패턴의 매칭을 위한 방법으로 마스크 패턴과 검사 패턴을 이용하여 패턴 자체를 매칭하는 것을 예로 들어 설명하였으나, 본 발명은 이에 한정되지 않고 SURF(Speeded Up Robust Features)나 SIFT(Scale Invariant Feature Transform)를 이용하여 패턴의 특징점을 매칭하는 방법을 사용할 수도 있다.
또한, 본 발명의 실시예에 의한 모바일 플랫폼(20)은 바퀴로 구동되는 이동 로봇을 예로 들어 설명하였으나, 본 발명은 이에 한정되지 않고 다리로 구동되는 이족 보행 로봇에서도 동일한 목적 및 효과를 달성할 수 있다.
도 1은 본 발명의 실시예에 의한 위치 인식 시스템의 전체 구성도이다.
도 2는 본 발명의 실시예에 의한 모바일 플랫폼의 제어 블록도이다.
도 3은 본 발명의 실시예에 의한 위치 인식 시스템에서 비컨의 3차원 정보를 나타낸 도면이다.
도 4는 본 발명의 실시예에 의한 위치 인식 시스템의 동작 원리를 공간상에서 설명한 개념도이다.
도 5는 본 발명의 실시예에 의한 위치 인식 시스템의 동작 원리를 평면상에서 설명한 개념도이다.
도 6은 본 발명의 실시예에 의한 모바일 플랫폼에서 비컨의 영상 패턴을 매칭하여 위치를 인식하는 방법을 도시한 동작 순서도이다.
도 7은 도 6의 패턴 매칭에 사용되는 마스크 패턴의 예시도이다.
도 8은 본 발명의 실시예에 의한 모바일 플랫폼에서 비컨까지의 거리를 계산하는 과정을 설명한 도면이다.
도 9는 본 발명의 실시예에 의한 영상 획득부의 카메라 스크린에 나타난 비컨의 영상을 나타낸 도면이다.
도 10은 본 발명의 실시예에 의한 위치 인식 시스템에서 두 면이 보일 경우, 비컨을 기준으로 한 모바일 플랫폼의 상대 각도를 계산하는 과정을 설명한 도면이다.
도 11은 본 발명의 실시예에 의한 위치 인식 시스템에서 한 면이 보일 경우, 비컨을 기준으로 한 모바일 플랫폼의 상대 각도를 계산하는 과정을 설명한 도면이다.
도 12 내지 도 15는 본 발명의 실시예에 의한 위치 인식 시스템을 이용하여 모바일 플랫폼의 위치를 인식하는 윈도우 영상을 나타낸 도면이다.
*도면의 주요 부분에 대한 부호의 설명*
10 : 비컨 20 : 모바일 플랫폼
22 : 로봇 본체 24 : 영상 획득부
26 : 제어부 28 : 저장부
30 : 구동부

Claims (26)

  1. 인식 가능한 영상 패턴을 가지는 비컨;
    상기 비컨의 영상 패턴을 이용하여 위치를 인식하는 모바일 플랫폼을 포함하는 위치 인식 시스템.
  2. 제1항에 있어서,
    상기 비컨은 상기 모바일 플랫폼과 분리되게 배치하는 다각형 구조물인 위치 인식 시스템.
  3. 제2항에 있어서,
    상기 다각형 구조물은 두 개 이상의 면을 가지며, 상기 각각의 면에는 상기 인식 가능한 영상 패턴이 적어도 하나 이상 인쇄되어 있는 위치 인식 시스템.
  4. 제3항에 있어서,
    상기 각각의 면에 인쇄된 영상 패턴들은 동일하거나 또는 서로 다른 패턴의 형상을 갖는 위치 인식 시스템.
  5. 제1항에 있어서,
    상기 모바일 플랫폼은 상기 비컨을 촬영하여 상기 비컨의 단일 영상 정보를 획득하는 영상 획득부와, 상기 획득된 단일 영상 정보를 분석하여 상기 모바일 플랫폼이 위치한 좌표 정보를 파악하는 제어부를 포함하는 위치 인식 시스템.
  6. 제5항에 있어서,
    상기 파악된 좌표 정보는 상기 비컨을 기준으로 한 상기 모바일 플랫폼의 상대 거리와 상대 각도인 위치 인식 시스템.
  7. 제6항에 있어서,
    상기 제어부는 상기 촬영된 영상에서 상기 인식된 패턴의 높이를 측정하여 상기 상대 거리를 계산하는 위치 인식 시스템.
  8. 제6항에 있어서,
    상기 제어부는 상기 촬영된 영상에서 상기 인식된 패턴의 너비를 측정하여 상기 상대 각도를 계산하는 위치 인식 시스템.
  9. 제6항에 있어서,
    상기 제어부는 상기 촬영된 영상에서 상기 다각형 구조물의 한 면이 보일 경우, 상기 인식된 패턴의 좌우 높이를 비교하여 상기 비컨을 기준으로 한 상기 모바일 플랫폼의 상대 각도를 계산하는 위치 인식 시스템.
  10. 제6항에 있어서,
    상기 제어부는 상기 촬영된 영상에서 상기 다각형 구조물의 두 면이 보일 경우, 상기 인식된 두 패턴의 너비 비율을 이용하여 상기 비컨을 기준으로 한 상기 모바일 플랫폼의 상대 각도를 계산하는 위치 인식 시스템.
  11. 제5항에 있어서,
    상기 모바일 플랫폼은 상기 다각형 구조물의 각 면에 인쇄된 영상 패턴의 기하학적 정보를 저장하는 저장부를 더 포함하는 위치 인식 시스템.
  12. 제1항에 있어서,
    상기 모바일 플랫폼은 상기 비컨을 기준으로 상기 모바일 플랫폼이 위치한 특정 영역에서 작업을 수행하는 위치 인식 시스템.
  13. 제1항에 있어서,
    상기 비컨은 상기 모바일 플랫폼과 결합되게 부착하는 다각형 구조물인 위치 인식 시스템.
  14. 제13항에 있어서,
    상기 다각형 구조물은 두 개 이상의 면을 가지며, 상기 각각의 면에는 상기 인식 가능한 영상 패턴이 적어도 하나 이상 인쇄되어 있는 위치 인식 시스템.
  15. 제14항에 있어서,
    상기 위치 인식 시스템은 상기 비컨을 촬영하여 상기 비컨의 단일 영상 정보를 획득하는 영상 획득부를 더 포함하고,
    상기 영상 획득부는 상기 모바일 플랫폼과 분리되게 배치하는 위치 인식 시스템.
  16. 제15항에 있어서,
    상기 모바일 플랫폼은 상기 획득된 단일 영상 정보를 분석하여 상기 모바일 플랫폼이 위치한 좌표 정보를 파악하는 제어부를 더 포함하는 위치 인식 시스템.
  17. 제16항에 있어서,
    상기 파악된 좌표 정보는 상기 비컨을 기준으로 한 상기 모바일 플랫폼의 상대 거리와 상대 각도인 위치 인식 시스템.
  18. 제16항에 있어서,
    상기 제어부는 상기 촬영된 영상에서 상기 비컨이나 상기 인식된 패턴의 높이를 측정하여 상기 상대 거리를 계산하는 위치 인식 시스템.
  19. 제16항에 있어서,
    상기 제어부는 상기 촬영된 영상에서 상기 비컨이나 상기 인식된 패턴의 너비를 측정하여 상기 상대 각도를 계산하는 위치 인식 시스템.
  20. 제16항에 있어서,
    상기 제어부는 상기 촬영된 영상에서 상기 다각형 구조물의 한 면이 보일 경우, 상기 인식된 패턴의 좌우 높이를 비교하여 상기 비컨을 기준으로 한 상기 모바일 플랫폼의 상대 각도를 계산하는 위치 인식 시스템.
  21. 제16항에 있어서,
    상기 제어부는 상기 촬영된 영상에서 상기 다각형 구조물의 두 면이 보일 경우, 상기 인식된 두 패턴의 너비 비율을 이용하여 상기 비컨을 기준으로 한 상기 모바일 플랫폼의 상대 각도를 계산하는 위치 인식 시스템.
  22. 제15항에 있어서,
    상기 위치 인식 시스템은 상기 획득된 단일 영상 정보를 상기 모바일 플랫폼에 전달하는 통신부를 더 포함하고,
    상기 통신부는 가청 주파수, 초음파, 가시광선, 적외선, 레이저, 무선(RF) 신호 중 하나를 전달하는 위치 인식 시스템.
  23. 인식 가능한 영상 패턴을 가지는 비컨을 촬영하여 상기 비컨의 영상 패턴을 인식하고;
    마스크 패턴을 이용하여 상기 인식된 영상 패턴으로부터 후보 패턴을 검색하고;
    검사 패턴을 이용하여 상기 검색된 후보 패턴에서 정상 패턴인 것을 추출하고;
    상기 추출된 패턴의 크기 정보를 이용하여 상기 비컨을 기준으로 한 모바일 플랫폼의 상대 거리와 상대 각도를 계산하고;
    상기 계산된 상대 거리와 상대 각도를 이용하여 상기 모바일 플랫폼의 위치를 인식하는 위치 인식 방법.
  24. 제23항에 있어서,
    상기 크기 정보는 상기 패턴 중심의 높이 정보, 상기 패턴 좌우의 꼭지점 정보, 상기 패턴 좌우의 너비 정보를 포함하는 위치 인식 방법.
  25. 제23항에 있어서,
    상기 추출된 패턴이 가지는 면의 수를 판단하는 것을 더 포함하고,
    상기 상대 거리와 상대 각도를 계산하는 것은,
    상기 패턴의 중심 높이를 이용하여 상대 거리를 계산하고 상기 패턴의 좌우 높이를 비교하여 상대 각도를 계산하는 위치 인식 방법.
  26. 제23항에 있어서,
    상기 추출된 패턴이 가지는 면의 수를 판단하는 것을 더 포함하고,
    상기 상대 거리와 상대 각도를 계산하는 것은,
    상기 패턴의 중심 높이를 이용하여 상대 거리를 계산하고 상기 패턴의 좌우 너비 비율을 이용하여 상대 각도를 계산하는 위치 인식 방법.
KR1020090037400A 2009-02-25 2009-04-29 위치 인식 시스템 및 그 방법 KR101356644B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/659,078 US20100215216A1 (en) 2009-02-25 2010-02-24 Localization system and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15529509P 2009-02-25 2009-02-25
US61/155,295 2009-02-25

Publications (2)

Publication Number Publication Date
KR20100096970A true KR20100096970A (ko) 2010-09-02
KR101356644B1 KR101356644B1 (ko) 2014-02-04

Family

ID=43004433

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090037400A KR101356644B1 (ko) 2009-02-25 2009-04-29 위치 인식 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR101356644B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101136743B1 (ko) * 2011-04-27 2012-04-19 목포대학교산학협력단 거리 및 각도측정 기능을 갖는 위치측정장치
KR20160146379A (ko) * 2015-06-12 2016-12-21 엘지전자 주식회사 이동 로봇 및 그 제어방법
CN107655480A (zh) * 2017-09-19 2018-02-02 深圳市深层互联科技有限公司 一种机器人定位导航方法、系统、存储介质及机器人
KR102466484B1 (ko) * 2022-03-23 2022-11-11 한화시스템 주식회사 정찰 시스템 및 정찰 시스템의 운용 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101988278B1 (ko) 2017-10-31 2019-06-12 한국전력공사 영상 속 사물의 3d 인식 및 사물의 기준점과 표지물과의 상대좌표 정보를 이용한 실시간 영상에 표지물 위치 증강 장치, 이의 방법 및 이 방법을 저장한 컴퓨터 판독 가능 저장 매체

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100590210B1 (ko) * 2004-12-09 2006-06-19 한국전자통신연구원 Rfid 를 이용한 이동로봇 위치 인식 및 주행방법과,이를 적용한 이동로봇 시스템
KR101241411B1 (ko) * 2006-05-12 2013-03-11 삼성전자주식회사 이동 로봇의 실내 지도 작성 장치 및 방법
KR100794728B1 (ko) 2006-08-11 2008-01-15 주식회사 나인티시스템 고속이동로봇의 위치 파악 시스템 및 그 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101136743B1 (ko) * 2011-04-27 2012-04-19 목포대학교산학협력단 거리 및 각도측정 기능을 갖는 위치측정장치
KR20160146379A (ko) * 2015-06-12 2016-12-21 엘지전자 주식회사 이동 로봇 및 그 제어방법
CN107655480A (zh) * 2017-09-19 2018-02-02 深圳市深层互联科技有限公司 一种机器人定位导航方法、系统、存储介质及机器人
KR102466484B1 (ko) * 2022-03-23 2022-11-11 한화시스템 주식회사 정찰 시스템 및 정찰 시스템의 운용 방법

Also Published As

Publication number Publication date
KR101356644B1 (ko) 2014-02-04

Similar Documents

Publication Publication Date Title
Ellenberg et al. Use of unmanned aerial vehicle for quantitative infrastructure evaluation
US9921069B2 (en) Map data creation device, autonomous movement system and autonomous movement control device
CN113474677A (zh) 用于uav在管道上停落的自动化方法
US20210405654A1 (en) Autonomous taking off, positioning and landing of unmanned aerial vehicles (uav) on a mobile platform
US20100215216A1 (en) Localization system and method
Agarwal et al. Metric localization using google street view
US9020301B2 (en) Method and system for three dimensional mapping of an environment
JP5586967B2 (ja) ロボットおよびロボットシステム
KR102117313B1 (ko) 그래디언트 추정 장치, 그래디언트 추정 방법, 컴퓨터 프로그램 및 제어 시스템
KR101356644B1 (ko) 위치 인식 시스템 및 그 방법
Ye et al. A visual odometry method based on the SwissRanger SR4000
KR20160027605A (ko) 사용자기기의 실내 위치를 측정하기 위한 측위방법 및 이를 구현하기 위한 장치
Zhang et al. Seeing Eye Phone: a smart phone-based indoor localization and guidance system for the visually impaired
Patruno et al. An embedded vision system for real-time autonomous localization using laser profilometry
CN111780715A (zh) 一种视觉测距方法
Mautz et al. Optical indoor positioning systems
Zhao et al. An efficient extrinsic calibration of a multiple laser scanners and cameras' sensor system on a mobile platform
KR101720097B1 (ko) 사용자 기기의 측위방법
Hsu et al. Application of multisensor fusion to develop a personal location and 3D mapping system
Wang et al. UAV navigation in large-scale GPS-denied bridge environments using fiducial marker-corrected stereo visual-inertial localisation
Ruotsalainen Visual gyroscope and odometer for pedestrian indoor navigation with a smartphone
Tsukiyama Global navigation system with RFID tags
Burdziakowski Towards precise visual navigation and direct georeferencing for MAV using ORB-SLAM2
CN108564626B (zh) 用于确定安装于采集实体的相机之间的相对姿态角的方法和装置
US20220018950A1 (en) Indoor device localization

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161228

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171228

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee