KR100561863B1 - 가상 센서를 이용한 로봇의 네비게이션 방법 및 장치 - Google Patents

가상 센서를 이용한 로봇의 네비게이션 방법 및 장치 Download PDF

Info

Publication number
KR100561863B1
KR100561863B1 KR1020040011013A KR20040011013A KR100561863B1 KR 100561863 B1 KR100561863 B1 KR 100561863B1 KR 1020040011013 A KR1020040011013 A KR 1020040011013A KR 20040011013 A KR20040011013 A KR 20040011013A KR 100561863 B1 KR100561863 B1 KR 100561863B1
Authority
KR
South Korea
Prior art keywords
virtual
obstacles
robot
generated
sensors
Prior art date
Application number
KR1020040011013A
Other languages
English (en)
Other versions
KR20050082541A (ko
Inventor
명현
홍영진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020040011013A priority Critical patent/KR100561863B1/ko
Priority to US11/060,494 priority patent/US8712588B2/en
Publication of KR20050082541A publication Critical patent/KR20050082541A/ko
Application granted granted Critical
Publication of KR100561863B1 publication Critical patent/KR100561863B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B11/00Automatic controllers
    • G05B11/01Automatic controllers electric
    • G05B11/36Automatic controllers electric with provision for obtaining particular characteristics, e.g. proportional, integral, differential
    • G05B11/42Automatic controllers electric with provision for obtaining particular characteristics, e.g. proportional, integral, differential for obtaining a characteristic which is both proportional and time-dependent, e.g. P.I., P.I.D.
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Abstract

본 발명은 로봇의 네비게이션 성능을 향상시키는 방법 및 장치에 관한 것으로, 본 발명에 따른 가상 센서 이용 네비게이션 방법은 실제 센서들에 의해 생성된 장애물들의 위치 정보들을 기반으로 가상적으로 존재하는 가상 센서들에 의해 생성될 것으로 추정되는 장애물들의 위치 정보들을 생성하는 단계; 및 생성된 장애물들의 위치 정보들에 따라 주행을 제어하는 단계를 포함하며, 이미 설치된 실제 센서들의 개수 및 배열의 한계를 극복할 수 있다.

Description

가상 센서를 이용한 로봇의 네비게이션 방법 및 장치 {Navigation method and navigation apparatus using virtual sensor for mobile robot}
도 1은 본 발명의 바람직한 일 실시예에 따른 로봇의 구성도이다.
도 2는 본 발명의 바람직한 일 실시예에 따른 로봇에 사용되는 센서들의 배열 타입들을 도시한 도면이다.
도 3은 본 발명에 따른 바람직한 일 실시예에서 사용되는 여러 종류의 격자 지도들을 도시한 도면이다.
도 4는 도 1에 도시된 가상 센서 정보 생성부의 상세 구성도이다.
도 5는 본 발명의 바람직한 일 실시예에 따른 로봇에 사용된 가상 센서 정보 생성 프로그램을 도시한 도면이다.
도 6은 본 발명의 바람직한 일 실시예에 따른 로봇의 동작 예를 도시한 도면이다.
도 7은 본 발명의 바람직한 일 실시예에 따른 가상 센서 이용 네비게이션 방법의 흐름도이다.
도 8은 도 1에 도시된 로봇의 성능을 실험하기 위한 실험 환경을 도시한 도면이다.
도 9는 도 8에 도시된 실험 환경에서의 제 1 실험 결과를 도시한 도면이다.
도 10은 도 8에 도시된 실험 환경에서의 제 2 실험 결과를 도시한 도면이다.
본 발명은 로봇의 네비게이션 성능을 향상시키는 방법 및 장치에 관한 것으로, 보다 상세하게는 장애물들을 감지하는 센서에 관한 것이다.
종래에는 로봇 네비게이션을 위해 다음과 같은 여러 가지 방식들이 사용되어 왔다.
VFH(Vector Field Histogram) 알고리즘("Real-time obstacle avoidance for fast mobile robots in cluttered environments", IEEE International Conference on Robotics and Automation, vol.1, pp.572-577, 1990), 미국 특허 5006988("Obstacle avoiding navigation system") 등과 같은 지도 기반의 네비게이션 방식은 장애물의 유무를 각도에 따라 히스토그램으로 나타낸 것으로서, 장애물과의 실질적인 거리 정보를 포함하고 있지 않기 때문에 장애물을 회피하는 것은 가능하였으나 장애물에 근접하여 주행하도록 로봇을 네비게이션하는 것은 불가능하다는 문제점이 있었다.
Bug, Bug2, DistBug, VisBug 등과 같은 센서 기반 네비게이션 방식은 센서가 설치되지 않은 방향에 존재하는 장애물을 감지할 수 없다는 문제점이 있었다. 즉, 장애물의 위치를 정확하게 측정하기 위해서는 많은 센서들을 필요로 한다는 문제점이 있었다.
이러한 문제점을 해결하기 위한 미국 특허 53099212("Scanning rangefinder with range to frequency conversion"), 일본 특허 2002-215238("무인 반송차의 장애물 검출 센서") 등과 같은 회전 센서 기반의 네비게이션 방식은 센서들의 수를 줄이기 위해 센서를 회전시키거나 센서에 부착된 부가 장치(거울, 프리즘 등)를 회전시킴으로서 많은 센서들을 설치한 듯한 효과를 낼 수 있었으나, 회전으로 인한 지연 시간이 발생하고, 거울/프리즘 회전 기구와 같은 복잡한 기구에 대한 설계가 요구된다는 문제점이 있었다.
본 발명이 이루고자 하는 기술적 과제는 가상적으로 존재하는 가상 센서들을 기반으로 로봇의 주행을 제어함으로서, 이미 설치된 실제 센서들의 개수 및 배열의 한계를 극복할 수 있는 방법 및 장치를 제공하는데 있다.
상기 기술적 과제를 해결하기 위한 본 발명에 따른 가상 센서 이용 네비게이션 방법은 실제 센서들에 의해 생성된 장애물들의 위치 정보들을 기반으로 가상적으로 존재하는 가상 센서들에 의해 생성될 것으로 추정되는 장애물들의 위치 정보들을 생성하는 단계; 및 상기 생성된 장애물들의 위치 정보들에 따라 주행을 제어하는 단계를 포함한다.
상기 다른 기술적 과제를 해결하기 위한 본 발명에 따른 가상 센서 이용 네비게이션 장치는 실제 센서들에 의해 생성된 장애물들의 위치 정보들을 기반으로 가상적으로 존재하는 가상 센서들에 의해 생성될 것으로 추정되는 장애물들의 위치 정보들을 생성하는 가상 센서 정보 생성부; 및 상기 가상 센서 정보 생성부에서 생성된 장애물들의 위치 정보들에 따라 주행을 제어하는 제어부를 포함한다.
상기 또 다른 기술적 과제를 해결하기 위하여, 본 발명은 상기된 가상 센서 이용 네비게이션 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.
이하에서는 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다.
도 1은 본 발명의 바람직한 일 실시예에 따른 로봇의 구성도이다.
도 1을 참조하면, 로봇은 3개의 실제 센서들(11-13), 2개의 바퀴(14-15), 센서 배열 타입 선택부(1), 지도 갱신부(2), 가상 센서 정보 생성부(3), 제어부(4), 주행부(5), 및 로봇 위치 정보 생성부(6)로 구성된다.
실제 센서(Physical Sensor)들에 해당하는 PS0(11), PS1(12), 및 PS2(13)는 이 센서들이 감지할 수 있는 영역 내에 존재하는 장애물들을 감지하고, 감지된 장애물들의 위치 정보를 생성한다. 현재, 이러한 센서로는 초음파 센서, 적외선 센서, 레이저 센서 등이 사용되고 있다. 일반적으로 많이 사용되는 초음파 센서의 동작 원리를 살펴보기로 하자. 초음파 센서는 전방으로 초음파를 발신한다. 이어서, 발신된 경로 상에 장애물이 존재하는 경우, 이 장애물에 의해 발신된 초음파는 반사된다. 이어서, 반사된 초음파는 초음파 센서로 수신된다. 이때, 초음파의 속도 및 발수신 시각의 차이로부터 장애물까지의 거리를 측정할 수 있고, 초음파 센서의 방향이 장애물이 존재하는 방향이 되므로, 장애물의 위치를 파악할 수 있게 된다. 다른 센서들의 동작 원리도 유사하다.
센서 배열 타입 선택부(1)는 센서 배열 타입 데이터베이스에 저장된 센서 배열 타입들 중 어느 하나를 선택받는다.
도 2는 본 발명의 바람직한 일 실시예에 따른 로봇에 사용되는 센서들의 배열 타입들을 도시한 도면이다.
도 2를 참조하면, 센서들의 배열 타입들로는 타입 I, 타입 II, 타입 III가 있다.
타입 I는 총 7개의 센서들이 0도, 30도, 60도, 90도, 120도, 160도, 180도에 배열된 타입으로서, 센서들이 규칙적으로 배열되어 있어 센서들에 의해 생성된 장애물들의 위치 정보를 이용하여 로봇의 주행을 제어하기가 용이하나, 타입 I는 아래에 기술될 타입 II, 타입 III에 비해 장애물들을 보다 정확하게 감지하지는 못한다.
타입 II, 타입 III는 도시된 바와 같이, 센서들이 복잡하게 배열되어 있다. 타입 II에서 C1-C4는 접촉 센서(contact sensor)들에 해당하고, F1-F3은 전면 센서(front sensor)들에 해당하고, O1-O2는 사면 센서(oblique sensor)들에 해당하고, W1-W2는 벽면 센서(wall sensor)들에 해당하고, B1-B2는 후면 센서(back sensor)들에 해당한다. 타입 III에서 L1-L5는 좌측 센서(left sensor)들에 해당하고, R1-R5는 우측 센서(right sensor)들에 해당하고, F는 전면 센서에 해당하고, B는 후면 센서에 해당한다. 타입 II, 타입 III는 센서들이 불규칙적으로 배열되어 있어 센서들에 의해 생성된 장애물들의 위치 정보를 이용하여 장애물들을 보다 정 확하게 감지할 수 있으나, 타입 I에 비해 로봇의 주행을 제어하기가 용이하지 않다. 따라서, 로봇 시스템 설계자는 요구되는 로봇의 성능 및 자신의 설계 능력을 고려하여 적절한 타입을 선택하면 된다. 본 실시예에 따른 로봇의 경우, 보다 이해하기 쉽게 설명하기 위해 타입 I를 선택하여 설계하였으나, 타입 II 또는 타입 III을 선택하여 설계하는 경우에도 동일한 논리로서 설계할 수 있다. 물론, 사용자의 취향이나 목적 또는 로봇의 성능 향상을 위해서 다른 타입의 배열을 고안할 수도 있다.
다시 도 1을 참조하면, 지도 갱신부(2)는 PS0(11), PS1(12), 및 PS2(13)에 의해 생성된 장애물들의 위치 정보들에 따라 로봇이 주행하는 영역을 나타내는 지도 상의 셀들에 기록된 장애물들이 존재할 확률 값을 갱신한다. 본 실시예에서, 확률 값이 갱신되는 셀들은 실제 센서에 의해 감지될 수 있는 영역 내에 있는 셀들에 해당할 것이다. 가상 센서(Virtual Sensor)에 의해 감지될 수 있는 영역은 실제 센서에 의해 감지될 수 있는 영역 내에서 로봇 시스템 설계자 또는 사용자가 자유롭게 설정할 수 있기 때문에, 로봇이 장애물들에 대해 일정 거리를 유지하며 주행하게 할 수 있다. 다시 말하면, 가상 센서에 의해 감지될 수 영역에 장애물이 존재하는 경우, 로봇은 이 장애물을 회피하게 되고, 그 결과 로봇은 장애물들로부터 이 영역에 해당하는 거리만큼 떨어져 주행하게 된다.
도 3은 본 발명에 따른 바람직한 일 실시예에서 사용되는 여러 종류의 격자 지도들을 도시한 도면이다.
도 3을 참조하면, 격자 지도들로는 섹터 격자 지도(sector grid map), 정규 격자 지도(regular grid map), 쿼드 격자 지도(quad grid map)가 있다. 섹터 격자 지도는 섹터 모양의 셀들로 분할되어 있고, 정규 격자 지도는 동일한 크기의 사각형 모양의 셀들로 분할되어 있고, 쿼드 격자 지도는 다양한 크기의 사각형 모양의 셀들로 분할되어 있다. 이러한 셀 각각에는 그 셀 내에 장애물이 존재할 확률 값이 기록되어 있다.
일반적으로 많이 사용되는 정규 격자 지도를 예로 들어, 지도 기반의 네비게이션 방식의 원리를 설명하면 다음과 같다. 도시된 정규 격자 지도에는 초음파 센서의 감지 영역이 도시되어 있다. 초음파의 특성 상, 초음파 센서의 감지 영역은 원추형으로 나타난다. 이 원추형 영역 중 셀(31)을 포함하는 둘레에 장애물이 존재하면, 초음파 센서는 반사 신호를 수신하게 된다. 이때, 이 둘레에 포함된 셀들 모두에는 장애물이 존재하는 것으로 감지된다. 따라서, 한번의 측정만으로는 정확한 장애물의 위치 정보를 생성할 수 없다. 로봇의 이동성을 고려하여, 로봇의 이동에 따른 여러 위치에서 여러 번 측정하고, 이렇게 측정된 값들을 셀들의 확률 값에 반영함으로서 보다 정확한 장애물의 위치 정보를 생성할 수 있게 된다.
본 실시예에서는 다음과 같은 수식을 이용하여 지도를 갱신한다.
grid(Gx, Gy) = grid(Gx, Gy) + I
여기에서, grid(Gx, Gy)는 좌표 (Gx, Gy)에 존재하는 셀의 확률 값을 나타내고, I는 확률 값의 증가분 또는 감소분을 나타낸다. 일반적인 확률 값은 0 ~ 1 사이의 실수로 나타내어지나, 여기서는 편의상 0 ~ 15 사이의 정수로 나타내기로 한 다. 또한, 0보다 작으면 0으로, 15보다 크면 15로 제한된다. 일례로서, 만약, 셀 내에 장애물이 존재하면 I = 3이 되고, 셀 내에 장애물이 존재하지 않으면 I = -1이 된다. 지도를 구축하는 처음 단계에서 모든 셀들의 확률 값들을 0으로 설정하고, 이후 로봇이 이동해가면서 지도를 갱신하게 된다. 로봇은 현재 지도를 기반으로 장애물이 존재할 확률이 특정 임계값보다 높은 값들이 기록된 셀들을 피해감으로서 장애물을 보다 정확하게 회피할 수 있게 된다.
초음파 센서가 도시된 영역의 반사 신호를 수신하였다면, 셀(31)의 확률 값에는 3이 부가되고, 로봇과 셀(31) 사이의 셀들(32-36)의 확률 값에는 -1이 부가된다. 로봇과 셀(31) 사이에 장애물이 존재하지 않았기 때문에 셀(31)로부터 반사된 반사 신호가 초음파 센서로 수신될 수 있었던 것이고, 이와 같은 이유로 로봇과 셀(31) 사이의 셀들(32-36)의 확률 값에는 -1이 부가되었다.
다시 도 1을 참조하면, 가상 센서 정보 생성부(3)는 실제 센서들 PS0(11), PS1(12), 및 PS2(13)에 의해 생성된 장애물들의 위치 정보들을 기반으로 센서 배열 타입 선택부(1)에서 선택된 센서 배열 타입, 즉 타입 I에 따른 위치들에 가상적으로 존재하는 가상 센서들 VS0(21), VS1(22), VS2(23), VS3(24), VS4(25), VS5(26), 및 VS6(27)에 의해 생성될 것으로 추정되는 장애물들의 위치 정보들을 생성한다. 다시 말하면, 가상 센서 정보 생성부(3)는 실제 센서들 PS0(11), PS1(12), 및 PS2(13)에 의해 이미 생성된 장애물들의 위치 정보를 이용하여 만약 타입 I에 따른 위치들에 실제 센서들이 설치되어 있다면, 이러한 실제 센서들에 의해 생성될 것으로 추정되는 장애물들의 위치 정보를 생성한다. 본 실시예에 따르면, 가상 센서 정 보 생성부(3)는 가상 센서들의 방향각들, 즉 0도, 30도, 60도, 90도, 120도, 160도, 180도에 존재하는 장애물들의 위치 정보들과 로봇 위치 정보 생성부(6)에서 생성된 로봇의 현재 위치 정보의 차이로부터 가상 센서들에 의해 생성될 것으로 추정되는 거리 정보들을 생성한다. 실제 센서에 의해 생성되는 장애물들의 위치 정보란 초음파의 속도 및 발수신 시각의 차이로부터 측정될 수 있는 장애물까지의 거리 정보이므로, 가상 센서들의 방향각들, 즉 0도, 30도, 60도, 90도, 120도, 160도, 180도에 존재하는 장애물들의 위치 정보들만 알고 있으면, 장애물들의 위치 정보들과 로봇의 현재 위치 정보의 차이로부터 장애물들과 로봇과의 거리를 계산해낼 수 있기 때문에 가상 센서들에 의해 생성될 것으로 추정되는 거리 정보들을 생성할 수 있게 된다.
본 실시예에서는 실제 센서들 PS0(11), PS1(12), 및 PS2(13)에 의해 생성된 장애물들의 위치 정보들이 기록된 지도를 이용한다. 즉, 가상 센서 정보 생성부(3)는 지도 갱신부(2)에서 갱신된 확률 값을 갖는 셀들 중 임계값 이상인 확률 값을 갖는 셀들의 위치 정보와 로봇의 현재 위치 정보의 차이로부터 가상 센서들 VS0(21), VS1(22), VS2(23), VS3(24), VS4(25), VS5(26), 및 VS6(27)에 의해 생성될 것으로 추정되는 장애물들과 로봇간의 거리 정보들을 생성한다. 임계값 이상인 확률 값을 갖는 셀들의 위치 정보가 장애물들의 위치 정보에 해당한다. 상기한 바와 같이, 지도를 구축하는 처음 단계에서 모든 셀들의 확률 값들을 0으로 설정하고, 이후 셀 내에 장애물이 존재하면 그 셀의 확률 값에 3을 부가하고, 셀 내에 장애물이 존재하지 않으면 그 셀의 확률 값에 -1을 부가하는 경우에 있어서 예를 들 어, 임계값을 4로 설정할 수 있다. 이때, 확률 값이 4 이상인 셀들에는 장애물들이 존재하는 것으로 취급되게 된다. 즉, 가상 센서 정보 생성부(3)는 4 이상인 확률 값을 갖는 셀들의 위치 정보와 로봇의 현재 위치 정보의 차이로부터 가상 센서들 VS0(21), VS1(22), VS2(23), VS3(24), VS4(25), VS5(26), 및 VS6(27)에 의해 생성될 것으로 추정되는 장애물들과 로봇간의 거리 정보들을 생성한다.
도 4는 도 1에 도시된 가상 센서 정보 생성부(3)의 상세 구성도이다.
도 4를 참조하면, 가상 센서 정보 생성부(3)는 가상 센서 아이디 생성부(31) 및 가상 센서 거리 생성부(32)로 구성된다.
가상 센서 아이디 생성부(31)는 센서 배열 타입 선택부(1)에서 선택된 센서 배열 타입에 따른 위치들에 가상적으로 존재하는 가상 센서들의 방향각들과 로봇 위치 정보 생성부(6)에서 생성된 로봇의 현재 방향각을 기반으로 가상 센서들의 아이디들을 생성한다. 가상 센서는 가상적으로 존재하는 것으로서, 서로 간에 식별이 필요하다. 가상 센서 아이디 생성부(31)는 가상 센서들을 식별하기 위하여 가상 센서들에 아이디들을 부여하는 역할을 한다. 본 실시예에 따르면, 가상 센서 아이디 생성부(31)는 다음과 같은 수학식 2를 이용하여 타입 I에 따른 위치들의 방향각들 즉 0도, 30도, 60도, 90도, 120도, 160도, 180도와 로봇의 현재 방향각의 차이로부터 가상 센서들의 아이디들을 생성한다.
Figure 112004006869995-pat00001
Figure 112004006869995-pat00002
SensorID=int(+(α-θ)ㆍ)
여기에서, int()는 소수점 아래에 해당하는 값은 버리는 함수이고, Nvs는 가상 센서들의 개수이고, α는 각 셀의 방향각이고, θ는 로봇의 현재 방향각이다. 이때, (α-θ)의 절대값은 π보다 작거나 같은 값을 가지게 될 것이고, SensorID는 0부터 Nvs-1까지의 값을 가지게 될 것이다. 본 실시예에서 Nvs는 7이므로, 이 값을 수학식에 대입하면, 로봇의 주행 방향에 상관없이, 항상VS0(21)의 센서 아이디가 0이 되고, VS1(22)의 센서 아이디가 1이 되고, VS2(23)의 센서 아이디가 2가 되고, VS3(24)의 센서 아이디가 3이 되고, VS4(25)의 센서 아이디가 4가 되고, VS5(26)의 센서 아이디가 5가 되고, VS6(27)의 센서 아이디가 6이 된다.
가상 센서 거리 생성부(32)는 실제 센서들 PS0(11), PS1(12), 및 PS2(13)에 의해 생성된, 가상 센서들의 방향각들에 존재하는 장애물들의 위치 정보들과 로봇 위치 정보 생성부(6)에서 생성된 로봇의 현재 위치 정보의 차이로부터 가상 센서 아이디 생성부(31)에서 생성된 아이디를 갖는 가상 센서들에 의해 생성될 것으로 추정되는 장애물들과 로봇간의 거리 정보들을 생성한다. 본 실시예에 따르면, 가상 센서 거리 정보 생성부(32)는 다음과 같은 수학식 3을 이용하여 지도 갱신부(2)에서 갱신된 확률 값을 갖는 셀들 중 임계값 4 이상인 확률 값을 갖는 셀들의 위치 정보와 로봇의 현재 위치 정보의 차이로부터 가상 센서 아이디 생성부(31)에서 생성된 아이디를 갖는 가상 센서들에 의해 생성될 것으로 추정되는 장애물들과 로봇간의 거리 정보들을 생성한다.
Figure 112004006869995-pat00003
range[SensorID]=
여기에서, (Gx, Gy)는 임계값 4 이상인 확률 값을 갖는 셀들의 위치 정보이고, (Rx, Ry)는 로봇의 현재 위치 정보로서, 임계값 4 이상인 확률 값을 갖는 셀들과 로봇의 거리 값들이 산출되게 된다. 이 산출된 값들이 바로 장애물들과 로봇간의 거리 정보들에 해당된다.
도 5는 본 발명의 바람직한 일 실시예에 따른 로봇에 사용된 가상 센서 정보 생성 프로그램을 도시한 도면이다.
도 5를 참조하면, 다음과 같은 순서로 가상 센서 정보 생성 프로그램이 실행되게 된다. 먼저, for(Gx, Gy within maximum range){}에 따라 최대 거리(maximum range)에 존재하는 모든 셀들에 대하여 {}을 수행하게 된다. 여기에서, 최대 거리는 가상 센서에 의해 감지될 수 있는 영역에 해당되고, 상기한 바와 같이 로봇 시스템 설계자 또는 사용자가 자유롭게 설정할 수 있기 때문에, 로봇이 장애물들에 대해 최대 거리에 해당하는 일정 거리를 유지하며 주행하게 할 수 있다. 본 발명을 청소 로봇 등에 적용하는 경우, 사용 환경에 따라 적당한 값으로 설정하면 된다.
이어서, if(grid[Gx][Gy]≥Threshold){}에 따라 셀의 확률 값이 4 이상인 경우에만 {}을 수행하게 된다. 이어서, SensorID=int(
Figure 112004006869995-pat00004
+(α-θ)ㆍ
Figure 112004006869995-pat00005
) 및 range=
Figure 112004006869995-pat00006
ㆍmeter/grid에 따라 가상 센서들의 센서 아이디들 및 셀들과 로봇의 거리를 산출한다. 이어서, if (range<range(SensorID)) then range[SensorID]=range에 따라 동일한 가상 센서에 대하여, 즉 동일한 방향각에 대하여 4 이상인 확률 값을 갖는 셀들이 다수 존재하는 경우, 로봇과 가장 가까운 거 리에 있는 셀과 로봇의 거리를 이 가상 센서에 의해 생성될 것으로 추정되는 장애물들과 로봇간의 거리 정보로 한다. 이것은 여러 셀에 걸쳐 장애물이 존재하는 경우, 로봇과 가장 가까운 거리에 있는 셀의 위치가 이 장애물의 경계에 해당한다는 것을 고려한 것이다.
도 6은 본 발명의 바람직한 일 실시예에 따른 로봇의 동작 예를 도시한 도면이다.
도 5를 참조하면, 지도 상의 셀들 각각에는 여러 가지 확률 값들이 기록되어 있다. 도시된 지도는 지도 전체 중 가상 센서들에 의해 감지될 수 있는 영역만큼만 나타낸 것이다. 임계값이 4인 경우, 도시된 바와 같이 0도에 위치하는 VS0(21), 30도에 위치하는 VS1(22), 120도에 위치하는 VS4(25), 180도에 위치하는 VS6(27)에 의해 장애물이 존재하는 것으로 감지될 것이고, 이 센서들은 장애물들과 로봇간의 거리 정보들을 생성할 것이다. 즉, 본 실시예에 따르면 상기된 프로그램을 이용하여, 개별적인 아이디를 갖는 가상 센서들에 의해 생성될 것으로 추정되는 장애물들과 로봇간의 거리 정보들을 생성할 수 있다.
다시 도 1을 참조하면, 제어부(4)는 가상 센서 정보 생성부(3)에서 생성된 장애물들의 위치 정보들에 따라 주행을 제어한다. 가상 센서들은 실제로 존재하지 않는 센서들이기는 하나, 제어부(4)의 측면에서 보았을 때, 실제 센서들에서 생성된 장애물들의 위치 정보와 동일한 정보들이 제어부(4)로 입력되므로, 제어부(4)는 고속으로 처리되는 센서 기반의 제어를 수행할 수 있다. 즉, 제어부(4)는 센서 기반 제어 기법에 해당하는 퍼지 규칙 기반 제어 기법, 신경 망 기반 제어 기법, PID(Proportional Integral Derivative) 제어 기법 등을 각각 또는 혼합 사용하여 주행을 제어할 수 있다.
주행부(5)는 제어부(4)의 제어에 따라 2개의 바퀴(14-15)를 구동하는 2개의 구동 장치들, 예를 들면 2개의 모터들의 회전 속도들을 조정함으로서 이에 따른 주행 방향과 주행 속도로 주행하게 한다.
로봇 위치 정보 생성부(6)는 주행부(5)에서의 주행에 따라 회전하는 2개의 바퀴(14-15)에 회전수를 측정할 수 있는 엔코더(encoder)를 이용하여 로봇의 현재 위치 정보를 생성한다. 로봇 위치 정보 생성부(6)에서 생성된 로봇의 현재 위치 정보는 지도 갱신부(2) 및 가상 센서 정보 생성부(3)로 피드백(feedback)된다.
도 7은 본 발명의 바람직한 일 실시예에 따른 가상 센서 이용 네비게이션 방법의 흐름도이다.
도 7을 참조하면, 가상 센서 이용 네비게이션 방법은 다음과 같은 단계들로 구성된다. 이하, 기술될 가상 센서 이용 네비게이션 방법은 도 1에 도시된 로봇에서 수행되는 방법으로서, 이상 기술된 모든 사항이 가상 센서 이용 네비게이션 방법에도 적용된다.
먼저, 로봇 시스템 설계자 또는 사용자로부터 소정의 센서 배열 타입을 선택받는다(71). 이어서, 실제 센서들에 의해 장애물들의 위치 정보들을 생성한다(72). 이어서, 실제 센서들에 의해 생성된 장애물들의 위치 정보들에 따라 소정의 영역을 나타내는 지도 상의 셀들에 기록된 장애물들이 존재할 확률 값을 갱신한다(73).
이어서, 생성된 장애물들의 위치 정보들을 기반으로 선택된 센서 배열 타입 에 따른 위치들에 가상적으로 존재하는 가상 센서들에 의해 생성될 것으로 추정되는 장애물들의 위치 정보들을 생성한다(74). 즉, 가상 센서들의 방향각들에 존재하는 장애물들의 위치 정보들과 로봇의 현재 위치 정보의 차이로부터 가상 센서들에 의해 생성될 것으로 추정되는 장애물들과 로봇간의 거리 정보들을 생성한다. 74 단계는 다음과 같은 단계들로 구성된다. 가상 센서들의 방향각들과 로봇의 현재 방향각을 기반으로 가상 센서들의 아이디들을 생성하고, 이어서 가상 센서들의 방향각들에 존재하는 장애물들의 위치 정보들과 상기 로봇의 현재 위치 정보의 차이로부터 생성된 아이디를 갖는 가상 센서들에 의해 생성될 것으로 추정되는 장애물들과 로봇간의 거리 정보들을 생성한다. 보다 상세히 설명하면, 가상 센서들의 방향각들과 로봇의 현재 방향각의 차이로부터 가상 센서들의 아이디들을 생성하고, 이어서 갱신된 확률 값을 갖는 셀들 중 소정의 임계값 이상인 확률 값을 갖는 셀들의 위치 정보와 로봇의 현재 위치 정보의 차이로부터 생성된 아이디를 갖는 가상 센서들에 의해 생성될 것으로 추정되는 장애물들과 로봇간의 거리 정보들을 생성한다.
이어서, 생성된 장애물들의 위치 정보들에 따라 주행을 제어한다. 즉, 가상 센서들을 기반으로 주행을 제어한다(75). 보다 상세히 설명하면, 센서 기반 제어 기법에 해당하는 퍼지 룰 기반 제어 기법, 신경 망 기반 제어 기법, PID(Proportional Integral Derivative) 제어 기법 등을 각각 또는 혼합 사용하여 상기 주행을 제어한다. 이어서, 제어에 따라 주행한다(76). 이어서, 주행에 따른 로봇의 현재 위치 정보를 생성한다(77).
도 8은 도 1에 도시된 로봇의 성능을 실험하기 위한 실험 환경을 도시한 도 면이다.
도 8을 참조하면, 로봇의 성능을 실험하기 위하여 시뮬레이터(simulator)를 제작하여 사용하였다. 로봇의 주행 영역은 (-3, -3)~(3, 3)m2이고, 도시된 바와 같이 평면, 오목면, 볼록면으로 이루어진 벽면을 따라 주행할 수 있는 지를 실험하였다.
도 9는 도 8에 도시된 실험 환경에서의 제 1 실험 결과를 도시한 도면이다.
도 9를 참조하면, 3개의 실제 센서들이 설치된 로봇이 벽면으로부터 40cm 떨어져 주행하는 실험을 하였다. 그 결과, 센서 개수의 부족으로 인하여 장애물을 회피하지 못하고 충돌이 발생하였다. 다음으로, 3개의 실제 센서들이 설치된 로봇에 본 발명을 적용하여, 7개의 가상 센서들이 설치된 로봇이 벽면으로부터 35cm 떨어져 주행하는 실험을 하였다. 그 결과, 7개의 가상 센서들로부터의 장애물의 위치 정보들을 사용하여 장애물을 회피할 수 있었다.
도 10은 도 8에 도시된 실험 환경에서의 제 2 실험 결과를 도시한 도면이다.
도 9를 참조하면, 5개의 실제 센서들이 설치된 로봇이 벽면으로부터 35cm 떨어져 주행하는 실험을 하였다. 그 결과, 도 9의 경우보다 센서 개수는 2개 증가하였으나, 벽면과의 거리가 좁아진 관계로 인하여 장애물을 회피하지 못하고 충돌이 발생하였다. 다음으로, 5개의 실제 센서들이 설치된 로봇에 본 발명을 적용하여, 7개의 가상 센서들이 설치된 로봇이 벽면으로부터 40cm 떨어져 주행하는 실험을 하였다. 그 결과, 7개의 가상 센서들로부터의 장애물의 위치 정보들을 사용하여 장애 물을 회피할 수 있었다.
본 발명에 따르면, 가상적으로 존재하는 가상 센서들을 기반으로 로봇의 주행을 제어함으로서, 이미 설치된 실제 센서들의 개수 및 배열의 한계를 극복할 수 있고, 그 결과 물리적으로 완성된 로봇의 네비게이션 성능을 개선할 수 있다는 효과가 있다. 또한, 실제 센서들의 개수 및 배열이 변경되더라도 가상 센서들의 개수 및 배열은 일정하게 유지할 수 있기 때문에 변경 전과 동일한 제어 알고리즘을 그대로 사용할 수 있다는 효과가 있다.
또한, 가상 센서의 감지 영역을 자유롭게 설정할 수 있기 때문에, 로봇 시스템 설계자 또는 사용자가 원하는 거리만큼 장애물에 근접하여 주행하도록 로봇을 네비게이션할 수 있다는 효과가 있고, 장애물에 근접하여 주행하여야 하는 청소 로봇 등에 적용할 수 있다.

Claims (15)

  1. (a) 실제 센서들에 의해 생성된 장애물들의 위치 정보들을 기반으로 소정의 센서 배열 타입에 따른 위치들에 가상적으로 존재하는 가상 센서들에 의해 생성될 것으로 추정되는 장애물들의 위치 정보들을 생성하는 단계; 및
    (b) 상기 (a) 단계에서 생성된 장애물들의 위치 정보들에 따라 주행을 제어하는 단계를 포함하는 것을 특징으로 하는 가상 센서 이용 네비게이션 방법.
  2. 제 1 항에 있어서,
    상기 (a) 단계는
    상기 가상 센서들의 방향각들에 존재하는 장애물들의 위치 정보들과 로봇의 현재 위치 정보의 차이로부터 상기 가상 센서들에 의해 생성될 것으로 추정되는 장애물들과 로봇간의 거리 정보들을 생성하는 것을 특징으로 하는 가상 센서 이용 네비게이션 방법.
  3. 제 1 항에 있어서,
    상기 (b) 단계는
    센서 기반 제어 기법에 해당하는 퍼지 룰 기반 제어 기법, 신경 망 기반 제어 기법, 및/또는 PID(Proportional Integral Derivative) 제어 기법을 각각 또는 혼합 사용하여 상기 주행을 제어하는 것을 특징으로 하는 가상 센서 이용 네비게이션 방법.
  4. 제 1 항에 있어서,
    (c) 소정의 센서 배열 타입을 선택받는 단계를 포함하고,
    상기 (a) 단계는 상기 (c) 단계에서 선택된 소정의 센서 배열 타입에 따른 위치들에 가상적으로 존재하는 가상 센서에 의해 생성될 것으로 추정되는 장애물들의 위치 정보들을 생성하는 것을 특징으로 하는 가상 센서 이용 네비게이션 방법.
  5. 제 1 항에 있어서,
    상기 (a) 단계는
    (a1) 상기 가상 센서들의 방향각들과 로봇의 현재 방향각을 기반으로 상기 가상 센서들의 아이디들을 생성하는 단계; 및
    (a2) 상기 가상 센서들의 방향각들에 존재하는 장애물들의 위치 정보들과 상기 로봇의 현재 위치 정보의 차이로부터 상기 (a1) 단계에서 생성된 아이디를 갖는 가상 센서들에 의해 생성될 것으로 추정되는 장애물들과 로봇간의 거리 정보들을 생성하는 단계를 포함하는 것을 특징으로 하는 가상 센서 이용 네비게이션 방법.
  6. 제 1 항에 있어서,
    (d) 상기 실제 센서들에 의해 생성된 장애물들의 위치 정보들에 따라 소정의 영역을 나타내는 지도 상의 셀들에 기록된 장애물들이 존재할 확률 값을 갱신하는 단계를 포함하고,
    상기 (a) 단계는 상기 (d) 단계에서 갱신된 확률 값을 갖는 셀들 중 소정의 임계값 이상인 확률 값을 갖는 셀들의 위치 정보와 상기 로봇의 현재 위치 정보의 차이로부터 상기 가상 센서들에 의해 생성될 것으로 추정되는 장애물들과 로봇간의 거리 정보들을 생성하는 것을 특징으로 하는 가상 센서 이용 네비게이션 방법.
  7. 제 6 항에 있어서,
    상기 (a) 단계는
    (a1) 상기 가상 센서들의 방향각들과 상기 로봇의 현재 방향각의 차이로부터 상기 가상 센서들의 아이디들을 생성하는 단계; 및
    (a2) 상기 (d) 단계에서 갱신된 확률 값을 갖는 셀들 중 소정의 임계값 이상인 확률 값을 갖는 셀들의 위치 정보와 상기 로봇의 현재 위치 정보의 차이로부터 상기 (a1) 단계에서 생성된 아이디를 갖는 가상 센서들에 의해 생성될 것으로 추정되는 장애물들과 로봇간의 거리 정보들을 생성하는 단계를 포함하는 것을 특징으로 하는 가상 센서 이용 네비게이션 방법.
  8. 실제 센서들에 의해 생성된 장애물들의 위치 정보들을 기반으로 소정의 센서 배열 타입에 따른 위치들에 가상적으로 존재하는 가상 센서들에 의해 생성될 것으로 추정되는 장애물들의 위치 정보들을 생성하는 가상 센서 정보 생성부; 및
    상기 가상 센서 정보 생성부에서 생성된 장애물들의 위치 정보들에 따라 주행을 제어하는 제어부를 포함하는 것을 특징으로 하는 가상 센서 이용 네비게이션 장치.
  9. 제 8 항에 있어서,
    상기 가상 센서 정보 생성부는
    상기 가상 센서들의 방향각들에 존재하는 장애물들의 위치 정보들과 로봇의 현재 위치 정보의 차이로부터 상기 가상 센서들에 의해 생성될 것으로 추정되는 장애물들과 로봇간의 거리 정보들을 생성하는 것을 특징으로 하는 가상 센서 이용 네 비게이션 장치.
  10. 제 8 항에 있어서,
    상기 제어부는
    센서 기반 제어 기법에 해당하는 퍼지 룰 기반 제어 기법, 신경 망 기반 제어 기법, 및/또는 PID(Proportional Integral Derivative) 제어 기법을 각각 또는 혼합 사용하여 상기 주행을 제어하는 것을 특징으로 하는 가상 센서 이용 네비게이션 장치.
  11. 제 8 항에 있어서,
    소정의 센서 배열 타입을 선택받는 센서 배열 타입 선택부를 포함하고,
    상기 가상 센서 정보 생성부는 상기 센서 배열 타입 선택부에서 선택된 소정의 센서 배열 타입에 따른 위치들에 가상적으로 존재하는 가상 센서에 의해 생성될 것으로 추정되는 장애물들의 위치 정보들을 생성하는 것을 특징으로 하는 가상 센서 이용 네비게이션 장치.
  12. 제 8 항에 있어서,
    상기 가상 센서 정보 생성부는
    상기 가상 센서들의 방향각들과 로봇의 현재 방향각을 기반으로 상기 가상 센서들의 아이디들을 생성하는 가상 센서 아이디 생성부; 및
    상기 가상 센서들의 방향각들에 존재하는 장애물들의 위치 정보들과 상기 로봇의 현재 위치 정보의 차이로부터 상기 가상 센서 아이디 생성부에서 생성된 아이디를 갖는 가상 센서들에 의해 생성될 것으로 추정되는 장애물들과 로봇간의 거리 정보들을 생성하는 가상 센서 거리 생성부를 포함하는 것을 특징으로 하는 가상 센서 이용 네비게이션 장치.
  13. 제 8 항에 있어서,
    상기 실제 센서들에 의해 생성된 장애물들의 위치 정보들에 따라 소정의 영역을 나타내는 지도 상의 셀들에 기록된 장애물들이 존재할 확률 값을 갱신하는 지도 갱신부를 포함하고,
    상기 가상 센서 정보 생성부는 상기 지도 갱신부에서 갱신된 확률 값을 갖는 셀들 중 소정의 임계값 이상인 확률 값을 갖는 셀들의 위치 정보와 상기 로봇의 현재 위치 정보의 차이로부터 상기 가상 센서들에 의해 생성될 것으로 추정되는 장애물들과 로봇간의 거리 정보들을 생성하는 것을 특징으로 하는 가상 센서 이용 네비게이션 장치.
  14. 제 13 항에 있어서,
    상기 가상 센서 정보 생성부는
    상기 가상 센서들의 방향각들과 상기 로봇의 현재 방향각의 차이로부터 상기 가상 센서들의 아이디들을 생성하는 가상 센서 아이디 생성부; 및
    상기 지도 갱신부에서 갱신된 확률 값을 갖는 셀들 중 소정의 임계값 이상인 확률 값을 갖는 셀들의 위치 정보와 상기 로봇의 현재 위치 정보의 차이로부터 상기 가상 센서 아이디 생성부에서 생성된 아이디를 갖는 가상 센서들에 의해 생성될 것으로 추정되는 장애물들과 로봇간의 거리 정보들을 생성하는 가상 센서 거리 정보 생성부를 포함하는 것을 특징으로 하는 가상 센서 이용 네비게이션 장치.
  15. (a) 실제 센서들에 의해 생성된 장애물들의 위치 정보들을 기반으로 소정의 센서 배열 타입에 따른 위치들에 가상적으로 존재하는 가상 센서들에 의해 생성될 것으로 추정되는 장애물들의 위치 정보들을 생성하는 단계; 및
    (b) 상기 (a) 단계에서 생성된 장애물들의 위치 정보들에 따라 주행을 제어하는 단계를 포함하는 것을 특징으로 하는 가상 센서 이용 네비게이션 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020040011013A 2004-02-19 2004-02-19 가상 센서를 이용한 로봇의 네비게이션 방법 및 장치 KR100561863B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020040011013A KR100561863B1 (ko) 2004-02-19 2004-02-19 가상 센서를 이용한 로봇의 네비게이션 방법 및 장치
US11/060,494 US8712588B2 (en) 2004-02-19 2005-02-18 Method and/or apparatus for navigating mobile robot using virtual sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040011013A KR100561863B1 (ko) 2004-02-19 2004-02-19 가상 센서를 이용한 로봇의 네비게이션 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20050082541A KR20050082541A (ko) 2005-08-24
KR100561863B1 true KR100561863B1 (ko) 2006-03-16

Family

ID=34858748

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040011013A KR100561863B1 (ko) 2004-02-19 2004-02-19 가상 센서를 이용한 로봇의 네비게이션 방법 및 장치

Country Status (2)

Country Link
US (1) US8712588B2 (ko)
KR (1) KR100561863B1 (ko)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8412377B2 (en) 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US8788092B2 (en) 2000-01-24 2014-07-22 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US6956348B2 (en) 2004-01-28 2005-10-18 Irobot Corporation Debris sensor for cleaning apparatus
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US8396592B2 (en) 2001-06-12 2013-03-12 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US7429843B2 (en) 2001-06-12 2008-09-30 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US9128486B2 (en) 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
US8428778B2 (en) 2002-09-13 2013-04-23 Irobot Corporation Navigational control system for a robotic device
US8386081B2 (en) * 2002-09-13 2013-02-26 Irobot Corporation Navigational control system for a robotic device
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
DE112005000738T5 (de) 2004-03-29 2007-04-26 Evolution Robotics, Inc., Pasadena Verfahren und Vorrichtung zur Positionsbestimmung unter Verwendung von reflektierten Lichtquellen
JP2008508572A (ja) 2004-06-24 2008-03-21 アイロボット コーポレーション 携帯ロボットのプログラミングおよび診断ツール
US7706917B1 (en) 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
EP2279686B1 (en) 2005-02-18 2012-11-14 iRobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
US8392021B2 (en) 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
KR101099808B1 (ko) 2005-12-02 2011-12-27 아이로보트 코퍼레이션 로봇 시스템
ATE442619T1 (de) 2005-12-02 2009-09-15 Irobot Corp Modularer roboter
KR101300493B1 (ko) 2005-12-02 2013-09-02 아이로보트 코퍼레이션 커버리지 로봇 이동성
EP2816434A3 (en) 2005-12-02 2015-01-28 iRobot Corporation Autonomous coverage robot
ES2623920T3 (es) 2005-12-02 2017-07-12 Irobot Corporation Sistema de robot.
US8087117B2 (en) 2006-05-19 2012-01-03 Irobot Corporation Cleaning robot roller processing
US8417383B2 (en) 2006-05-31 2013-04-09 Irobot Corporation Detecting robot stasis
US20080004749A1 (en) * 2006-06-30 2008-01-03 Honeywell International, Inc. System and method for generating instructions for a robot
KR100834571B1 (ko) * 2006-09-28 2008-06-02 한국전자통신연구원 자율이동로봇의 최적 경로를 통한 환경 지도 작성 장치 및그 방법
JP4270259B2 (ja) * 2006-10-05 2009-05-27 日産自動車株式会社 障害物回避制御装置
KR101414321B1 (ko) 2007-05-09 2014-07-01 아이로보트 코퍼레이션 자동 커버리지 로봇
JP4788722B2 (ja) * 2008-02-26 2011-10-05 トヨタ自動車株式会社 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造
JP5073609B2 (ja) * 2008-08-11 2012-11-14 日東電工株式会社 光導波路の製造方法
KR101006211B1 (ko) * 2008-12-01 2011-01-07 한국기술교육대학교 산학협력단 센서를 구비한 이동체의 센싱 범위 확장 방법
JP5216690B2 (ja) * 2009-06-01 2013-06-19 株式会社日立製作所 ロボット管理システム、ロボット管理端末、ロボット管理方法およびプログラム
US8265870B1 (en) * 2010-01-20 2012-09-11 Sandia Corporation Real-time method for establishing a detection map for a network of sensors
CN102724903B (zh) 2010-02-16 2015-11-25 艾罗伯特公司 真空吸尘器毛刷
FR2979428B1 (fr) * 2011-08-24 2013-10-04 Commissariat Energie Atomique Methode de localisation d'un objet au moyen d'une grille de reference
KR101954144B1 (ko) * 2012-06-08 2019-03-05 엘지전자 주식회사 로봇 청소기와, 이의 제어 방법, 및 이를 포함한 로봇 청소 시스템
EP2872856B1 (en) 2012-07-13 2019-09-18 International Electronic Machines Corp. Straight line path planning
TWI481980B (zh) * 2012-12-05 2015-04-21 Univ Nat Chiao Tung 電子裝置及其導航方法
US8768559B1 (en) * 2013-01-22 2014-07-01 Qunomic Virtual Technology, LLC Line projection system
JP2015215651A (ja) * 2014-05-08 2015-12-03 株式会社日立製作所 ロボットおよび自己位置推定方法
KR101697857B1 (ko) * 2015-04-08 2017-01-18 엘지전자 주식회사 이동 로봇 및 그의 위치인식방법
CN105078720B (zh) * 2015-09-06 2017-11-14 京东方科技集团股份有限公司 一种智能导盲装置
US9740944B2 (en) * 2015-12-18 2017-08-22 Ford Global Technologies, Llc Virtual sensor data generation for wheel stop detection
US10353400B2 (en) * 2016-05-23 2019-07-16 Asustek Computer Inc. Navigation system and navigation method
DE102017221940A1 (de) * 2017-12-05 2019-06-06 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Fahrerassistenzsystem zum Steuern eines Kraftfahrzeugs und Kraftfahrzeug
US11256261B1 (en) * 2018-10-16 2022-02-22 Amazon Technologies, Inc. System for movement of autonomous mobile device
US11526182B2 (en) * 2019-03-25 2022-12-13 Cbn Nano Technologies Inc. Sensing and operation of devices in viscous flow using derived parameters to reduce data-handling requirements
US11429110B1 (en) * 2019-05-24 2022-08-30 Amazon Technologies, Inc. System for obstacle avoidance by autonomous mobile device
US11880209B2 (en) * 2020-05-15 2024-01-23 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
CN113985881B (zh) * 2021-10-29 2023-07-11 温州大学 一种基于双向爬虫的移动机器人路径规划方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5124918A (en) * 1990-01-18 1992-06-23 Case Western Reserve University Neural-based autonomous robotic system
JP2769052B2 (ja) * 1991-04-09 1998-06-25 インターナショナル・ビジネス・マシーンズ・コーポレイション 自律移動機械、移動機械の制御装置及び方法
US5341459A (en) * 1991-05-09 1994-08-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Generalized compliant motion primitive
US5400244A (en) * 1991-06-25 1995-03-21 Kabushiki Kaisha Toshiba Running control system for mobile robot provided with multiple sensor information integration system
US5309212A (en) 1992-09-04 1994-05-03 Yaskawa Electric Corporation Scanning rangefinder with range to frequency conversion
KR970002011B1 (ko) 1993-10-12 1997-02-20 고등기술연구원 연구조합 증기발생 가스화기를 구비한 석탄가스화 복합발전 시스템
JP2501010B2 (ja) * 1993-10-25 1996-05-29 インターナショナル・ビジネス・マシーンズ・コーポレイション 移動ロボットの誘導装置
DE4408982C1 (de) * 1994-03-16 1995-05-18 Deutsche Forsch Luft Raumfahrt Autonomes Navigationssystem für einen mobilen Roboter oder Manipulator
JP2002215238A (ja) 2001-01-16 2002-07-31 Hokuyo Automatic Co 無人搬送車の障害物検出センサ
WO2004018159A1 (ja) * 2002-08-26 2004-03-04 Sony Corporation 環境同定装置及び環境同定方法、並びにロボット装置
US7117090B2 (en) * 2003-08-28 2006-10-03 Siemens Aktiengesellschaft Moving vehicle in cuboidal panorama

Also Published As

Publication number Publication date
KR20050082541A (ko) 2005-08-24
US8712588B2 (en) 2014-04-29
US20050187678A1 (en) 2005-08-25

Similar Documents

Publication Publication Date Title
KR100561863B1 (ko) 가상 센서를 이용한 로봇의 네비게이션 방법 및 장치
Simmons The curvature-velocity method for local obstacle avoidance
Scherer et al. River mapping from a flying robot: state estimation, river detection, and obstacle mapping
US5363305A (en) Navigation system for a mobile robot
Jetto et al. Development and experimental validation of an adaptive extended Kalman filter for the localization of mobile robots
Borenstein et al. The vector field histogram-fast obstacle avoidance for mobile robots
EP1868056B1 (en) Moving apparatus, method, and medium for compensating position of the moving apparatus
EP2107392A1 (en) Object recognition system for autonomous mobile body
CN114599995A (zh) 根据静止路边对象的雷达回波估计面内速度
CN108274467A (zh) 机器人走直线的控制方法和芯片及机器人
Ge et al. Boundary following and globally convergent path planning using instant goals
EP3026520A2 (en) Moving amount estimating apparatus, autonomous mobile body, and moving amount estimating method
KR20110080322A (ko) 로봇의 슬립 감지 장치 및 방법
CN106956267A (zh) 机器人手臂避障方法和系统
CN114879660B (zh) 一种基于目标驱动的机器人环境感知方法
EP3732549A1 (en) Method for predicting a motion of an object, method for calibrating a motion model, method for deriving a predefined quantity and method for generating a virtual reality view
Erickson et al. Probabilistic localization with a blind robot
Guglielmelli et al. Avoiding obstacles by using a proximity US/IR sensitive skin
Sonali et al. Obstacle avoidance for a mobile exploration robot using a single ultrasonic range sensor
CN111481126B (zh) 机器人沿边行走的异常检测方法和脱卡的处理方法
CN112345798B (zh) 位置姿势推定装置以及位置姿势推定方法
CN115576323A (zh) 一种机器人移动路径的控制方法、装置、设备及介质
CN112849125B (zh) 打滑检测控制方法、装置、移动机器人及存储介质
Marques et al. Autonomous robot for mapping using ultrasonic sensors
US11079763B2 (en) Trajectory planning method and system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130221

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140221

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150212

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160218

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170220

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20180220

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20190220

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20200225

Year of fee payment: 15