KR100801527B1 - 이동 로봇, 그 제어 방법 및 프로그램을 기록한 컴퓨터로판독 가능한 기록 매체 - Google Patents

이동 로봇, 그 제어 방법 및 프로그램을 기록한 컴퓨터로판독 가능한 기록 매체 Download PDF

Info

Publication number
KR100801527B1
KR100801527B1 KR1020060093893A KR20060093893A KR100801527B1 KR 100801527 B1 KR100801527 B1 KR 100801527B1 KR 1020060093893 A KR1020060093893 A KR 1020060093893A KR 20060093893 A KR20060093893 A KR 20060093893A KR 100801527 B1 KR100801527 B1 KR 100801527B1
Authority
KR
South Korea
Prior art keywords
image
edge
traveling
predicted
edge image
Prior art date
Application number
KR1020060093893A
Other languages
English (en)
Other versions
KR20070113939A (ko
Inventor
나오유키 사와사키
Original Assignee
후지쯔 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후지쯔 가부시끼가이샤 filed Critical 후지쯔 가부시끼가이샤
Publication of KR20070113939A publication Critical patent/KR20070113939A/ko
Application granted granted Critical
Publication of KR100801527B1 publication Critical patent/KR100801527B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 카메라의 화상을 이용하여 간단하고 정확하게 이동 로봇의 현재의 주행 위치를 추정 가능하게 하는 것을 목적으로 한다.
경로 계획부(24)는 추정된 현재의 주행 위치에 기초하여 목적지까지의 주행 경로를 계획하고 주행 지령을 주행 제어부(26)에 출력하여 주행 경로에 따르도록 주행 제어한다. 주행 위치 예측부(34)는 추정된 현재의 주행 위치에 차륜 회전각 센서(32)에 의해 검출한 주행 거리를 누적하여 현재의 주행 위치를 예측한다. 예측 화상 생성부(36)는 예측된 현재의 주행 위치 및 그 주변의 후보 위치에 카메라(18)를 가상적으로 배치하여 촬상되는 에지 정보로 이루어지는 예측 에지 화상을 환경 레이아웃 정보에 기초하여 복수개 생성하고, 에지 화상 생성부(44)는 카메라(18)로 촬영한 실제 화상으로부터 실제 에지 화상을 생성한다. 위치 추정부(40)는 에지 화상과 복수의 예측 에지 화상을 비교하여 유사도가 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하여 경로 계획부(24) 및 주행 위치 예측부(34)의 주행 위치를 갱신한다.

Description

이동 로봇, 그 제어 방법 및 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체{MOBILE ROBOT, AND CONTROL METHOD AND PROGRAM FOR THE SAME}
도 1은 본 발명에 의한 이동 로봇의 실시예의 설명도.
도 2는 도 1의 실시예가 적용되는 이동 로봇의 하드웨어 구성의 블록도.
도 3은 본 발명에 의한 이동 로봇 제어 장치의 실시예를 도시한 기능 구성의 블록도.
도 4는 본 실시예의 경로 계획으로 생성된 예정 경로의 설명도.
도 5는 주행 중에 실행되는 카메라 촬영 화상을 이용한 본 실시예에 의한 주행 위치의 추정 처리의 설명도.
도 6은 예측 에지 화상의 생성을 행하는 예측 주행 위치의 주변에 설정하는 후보 위치의 설명도.
도 7은 본 실시예의 위치 추정 처리에 있어서 실제 에지 화상과 예측 에지 화상의 유사도를 상관 계산으로 구하는 처리의 설명도.
도 8은 본 실시예의 위치 추정 처리에 있어서 실제 에지 화상과 예측 에지 화상의 유사도를 화소가 중복되는 수로 구하는 처리의 설명도.
도 9는 본 실시예에 있어서의 주행 위치 추정 처리의 흐름도.
〈도면의 주요 부분에 대한 부호의 설명〉
10 : 이동 로봇
12 : 머리 부분
14 : 보디
16 : 이동부
18, 18-1∼18-n : 카메라
20-1, 20-2 : 아암
22 : 터치 패널 부착 LCD
24 : 경로 계획부
26 : 주행 제어부
28-1, 28-2∼28-n : 모터
30-1, 30-2 : 구동륜
30-3, 30-4 : 보조륜
32 : 차륜 회전각 센서
32-1∼32-n : 센서
34 : 주행 위치 예측부
36 : 예측 화상 생성부
38 : 환경 레이아웃 정보 데이터베이스
40 : 위치 추정부
42 : 화상 입력부
44 : 에지 화상 생성부
46 : CPU 보드
48 : DSP 보드
50 : 화상 처리 보드
52 : 네트워크 버스
54 : 스피커
56 : 센서 보드
58 : 모터 제어 보드
60 : 카메라 전환 보드
62 : 목적지
64 : 예정 경로
66-1∼66-4 : 방
68 : 복도
70 : 예측 주행 위치
72 : 후보 위치 매트릭스
74 : 카메라 시선 방향
76 : 실제 화상
78 : 에지 추출
80 : 실제 에지 화상
82-1∼82-n : 예측 에지 화상
84 : 상관 계산
86-1∼86-n : 중복 판정 화상
본 발명은 사람의 안내나 유도, 물건의 반송, 순회나 순찰 등 다용도로 활동을 할 수 있는 이동 로봇, 그 제어 방법 및 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체에 관한 것으로, 특히 카메라의 촬영 화상으로부터 현재의 주행 위치를 추정하면서 목적 위치로 주행하는 이동 로봇, 그 제어 방법 및 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체에 관한 것이다.
최근, 제조 현장에서 작업하고 있는 산업용 로봇 이외에 가정, 복지, 의료, 공공의 개인 용도에 대응할 수 있는 이동 로봇 개발이 진행되고 있다.
이러한 이동 로봇에는 센서를 이용하여 주행중의 자기 위치를 추정하여, 원하는 궤도(경로)에 따르도록 제어하는 자기 위치 추정법에 의한 자율 이동 기능이 필요하다. 이동 로봇의 자기 위치 추정법으로서는 회전각 센서로 얻어지는 차륜의 회전각으로부터 이동 로봇의 모델을 이용하여 주행 위치를 추정하는 데드레코닝이 많이 이용되고 있다.
또한, 환경에 이동 로봇이 위치를 인식하기 위한 특별한 마크, 예컨대 백선 등의 가이드, 자기 레일, 코너 큐브를 이용하는 방법도 이용된다.
게다가, 특별한 마크를 이용하지 않는 방법으로서는, 카메라로 얻어지는 화상으로부터 벽이나 바닥의 에지 위치와 방향을 계측하여 로봇의 위치와 자세를 추 정하는 방법도 제안되어 있다(특허 문헌 1).
[특허 문헌 1] 일본 특개평 제9-053939호 공보
그러나, 이러한 종래의 이동 로봇의 자기 위치 추정법은 다음과 같은 문제가 있다.
우선, 차륜의 회전각으로부터 이동 로봇의 주행 위치를 추정하는 데드레코닝은 차륜의 슬립 등으로 인한 오차의 축적에 문제가 있다. 이 때문에 데드레코닝과 자이로센서를 조합시키는 방법도 많이 이용되고 있지만, 슬립 등의 영향을 배제할 수 있는 반면, 자이로의 드리프트로 인한 오차의 축적에 문제가 있다.
또한, 환경에 로봇이 위치를 인식하기 위한 특별한 마크를 이용하는 방법은 환경 측에 특별한 마크를 부설하지 않으면 비용이 상승된다고 하는 문제가 있다.
게다가, 카메라의 화상으로부터 벽이나 바닥의 에지 위치와 방향을 계측하여 로봇의 위치와 자세를 추정하는 방법은 실제 공간에서의 복수 종류의 이미 정해진 화상 특징의 위치를 미리 등록해야 하며, 현재 상태에서는 이 등록 작업은 현장에서 눈으로 확인함으로 특징을 판별하여 그 위치를 차례대로 계측하여 등록하는 등의 인위적인 작업이며, 방대한 수고와 시간이 필요하다는 문제가 있다.
본 발명은 카메라의 화상을 이용하여 간단하고 정확히 주행 위치를 추정할 수 있는 이동 로봇, 그 제어 방법 및 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체를 제공하는 것을 목적으로 한다.
본 발명은 이동 로봇을 제공한다. 본 발명은 시설 등의 환경을 주행하는 이동 로봇에 있어서,
추정된 현재의 주행 위치에 기초하여 목적지까지의 주행 경로를 계획하여 주행 지령을 출력하는 경로 계획부와,
경로 계획부의 주행 지령에 기초하여 주행 경로에 따르도록 주행 제어하는 주행 제어부와,
추정된 현재의 주행 위치에 차륜의 회전각 센서에 의해 검출한 주행 거리를 누적하여 현재의 주행 위치를 예측하는 위치 예측부와,
위치 예측부에서 예측된 현재의 주행 위치 및 그 주변의 후보 위치에 촬상부를 가상적으로 배치하여 촬상되는 에지 정보로 이루어지는 예측 에지 화상을 환경 레이아웃 정보에 기초하여 복수개 생성하는 예측 화상 생성부와,
촬상부에서 촬영된 주행 방향의 실제 화상으로부터 에지 정보를 추출하고 실제 에지 화상을 생성하는 에지 화상 생성부와,
실제 에지 화상과 복수의 예측 에지 화상을 비교하여 유사도가 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하여 경로 계획부 및 위치 예측부의 주행 위치를 갱신하는 위치 추정부
를 구비하는 것을 특징으로 한다.
여기서, 위치 추정부는 실제 화상의 미분 처리에 의해 생성된 실제 에지 화상과 각 예측 에지 화상과의 상관(相關)을 연산하여 상관이 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정한다.
또한 위치 추정부는 실제 화상의 미분 처리에 의해 생성된 실제 에지 화상과 각 예측 에지 화상과의 중복 화소수를 연산하여 중복 화소수가 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하도록 해도 좋다.
예측 화상 생성부는 후보 위치마다 상기 촬상부의 촬상 방향을 변화시켜 복수의 예측 에지 화상을 생성한다.
예측 화상 생성부는 촬상부의 카메라 파라메터와 레이아웃 정보의 3차원 좌표에 기초하여 예측 에지 화상을 생성한다.
본 발명의 이동 로봇은 소정 주행 거리 또는 소정 이동 시간마다 실제 에지 화상과 복수의 예측 에지 화상에 기초하는 현재의 주행 위치의 추정 처리를 반복한다.
(방법)
본 발명은 이동 로봇 제어 방법을 제공한다. 본 발명은 시설 등의 환경을 주행하는 이동 로봇 제어 방법에 있어서,
추정된 현재의 주행 위치에 기초하여 목적지까지의 주행 경로를 계획하여 주행 지령을 출력하는 경로 계획 단계와,
경로 계획 단계의 주행 지령에 기초하여 주행 경로에 따르도록 주행 제어하는 주행 제어 단계와,
추정된 현재의 주행 위치에 차륜의 회전각 센서에 의해 검출한 주행 거리를 누적하여 현재의 주행 위치를 예측하는 위치 예측 단계와,
위치 예측 단계에서 예측된 현재의 주행 위치 및 그 주변의 후보 위치에 촬 상부를 가상적으로 배치하여 촬상되는 에지 정보로 이루어지는 예측 에지 화상을 환경 레이아웃 정보에 기초하여 복수개 생성하는 예측 화상 생성 단계와,
촬상부에서 촬영된 주행 방향의 실제 화상으로부터 에지 정보를 추출하고 실제 에지 화상을 생성하는 에지 화상 생성 단계와,
실제 에지 화상과 복수의 예측 에지 화상을 비교하여 유사도가 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하여 경로 계획 단계 및 위치 예측 단계의 주행 위치를 갱신하는 위치 추정 단계를 포함하는 것을 특징으로 한다.
(프로그램)
본 발명은 이동 로봇을 제어하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체를 제공한다. 본 발명의 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체는 시설 등의 환경을 주행하는 이동 로봇의 컴퓨터로,
추정된 현재의 주행 위치에 기초하여 목적지까지의 주행 경로를 계획하여 주행 지령을 출력하는 경로 계획 단계와,
경로 계획 단계의 주행 지령에 기초하여 주행 경로에 따르도록 주행 제어하는 주행 제어 단계와,
추정된 현재의 주행 위치에 차륜의 회전각 센서에 의해 검출한 주행 거리를 누적하여 현재의 주행 위치를 예측하는 위치 예측 단계와,
위치 예측 단계에서 예측된 현재의 주행 위치 및 그 주변의 후보 위치에 촬상부를 가상적으로 배치하여 촬상되는 에지 정보로 이루어지는 예측 에지 화상을 환경 레이아웃 정보에 기초하여 복수개 생성하는 예측 화상 생성 단계와,
촬상부에서 촬영된 주행 방향의 실제 화상으로부터 에지 정보를 추출하고 실제 에지 화상을 생성하는 에지 화상 생성 단계와,
실제 에지 화상과 복수의 예측 에지 화상을 비교하여 유사도가 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하여 경로 계획 단계 및 위치 예측 단계의 주행 위치를 갱신하는 위치 추정 단계
를 실행시키는 것을 특징으로 한다.
도 1은 본 발명에 의한 이동 로봇의 실시예의 설명도이다. 도 1에 있어서 본 실시예의 이동 로봇(10)은 머리 부분(12), 보디(14), 이동부(16), 좌측 아암(20-1) 및 우측 아암(20-2)의 5개 유닛으로 구성된다. 이동 로봇(10)의 크기는 평면적으로 본 직경이 약 60 cm, 높이가 130 cm 정도이다.
머리 부분(12)은 보디(14)에 대하여 수평 둘레로 회전할 수 있고, 머리 부분(12)에는 전방을 향해서 CCD 등의 촬상 소자를 이용한 카메라(18)가 장착되어 있다. 카메라(18)의 시선 방향은 머리 부분(12)을 회전함으로써 조정할 수 있다. 또한, 머리 부분(12)에 시선 방향이 다른 복수의 카메라를 탑재하고 있으면, 카메라 전환을 행함으로써 팬(pan)·틸트(tilt) 기구를 사용하지 않고 순간에 시선 방향을 변경하는 것이 가능하다.
좌측 아암(20-1) 및 우측 아암(20-2)은 임의의 위치로 손끝이 이동 가능한 4 개의 자유도 간접 및 유지 작업에 필요한 그립퍼를 설치하고 있다. 보디(14)에는 터치 패널 부착 LCD(22)가 탑재되어 있고, 이동 로봇(10)에 있어서의 각종 표시나 필요한 조작을 할 수 있도록 하고 있다. 이동부(16)에는 좌우의 구동륜과 보조륜이 설치되어 있어, 좌우의 구동륜의 독립 구동에 의해 직진, 후퇴, 선회를 할 수 있다.
도 2는 본 실시예의 이동 로봇에 삽입되는 하드웨어 구성의 블럭도이다. 도 2에 있어서 이동 로봇(10)에는 이동 로봇 제어 장치로서 CPU 보드(46), DSP 보드(48) 및 화상 처리 보드(50)가 내장되고 각각 네트워크 버스(52)에 의해 접속되어 있다. CPU 보드(46)에는 터치 패널 부착 LCD(22)나 스피커(54)가 접속되고, CPU 보드(46)는 사용자 인터페이스나 작업 지시 등의 처리를 행한다.
DSP 보드(48)에는 센서 보드(56)를 통해 각종 센서(32-1∼32-n)가 접속되고, 또한 모터 제어 보드(58)를 통해 각종 구동에 사용하는 모터(28-1∼28-n)가 접속되어 있다. DSP 보드(48)는 이동 로봇의 주행 제어 등을 포함하는 주로 실시간 처리를 실행한다.
화상 처리 보드(50)에는 카메라 전환 보드(60)를 통해 이동 로봇에 탑재되어 있는 복수의 카메라(18-1∼18-n)가 접속되어 있다. 화상 처리 보드(50)는 카메라 전환 보드(60)에 의해 화상 처리를 필요로 하는 카메라(18-1∼18-n) 중 어느 하나를 전환 선택하고, 선택한 카메라로부터 판독한 화상 정보를 화상 처리 보드(50)에 의해 화상 처리하여 필요한 로봇 조작을 행한다.
도 3은 본 발명에 의한 이동 로봇 제어 장치의 실시예를 도시한 기능 구성의 블록도이며, 도 2에 도시한 이동 로봇의 하드웨어 구성에 의한 환경에서 실현된다.
도 3에 있어서, 본 실시예의 이동 로봇 제어 장치는 경로 계획부(24), 주행 제어부(26), 주행 위치 예측부(34), 예측 화상 생성부(36), 환경 레이아웃 정보 데 이터베이스(38), 위치 추정부(40), 화상 입력부(42) 및 에지 화상 생성부(44)로 구성된다.
경로 계획부(24)는 위치 추정부(40)에서 결정된 현재의 주행 위치를 토대로 미리 설정한 목적지까지의 주행 경로를 계획하여 주행 제어부(26)에 주행 지령을 발행한다. 이 주행 지령을 받아 주행 제어부(26)는 모터(28-1, 28-2)의 구동에 의해 좌우의 구동륜(30-1, 30-2)을 독립적으로 구동하여 목적지까지의 예정 경로에 따라서 이동 로봇을 주행시킨다.
주행 제어부(26)는 제어 부하로서 모터(28-1, 28-2)를 접속하고 있고, 모터(28-1, 28-2)는 도 1의 이동부(26)에 설치하고 있는 좌우의 구동륜(30-1, 30-2)을 독립적으로 구동한다. 또한, 보조륜(30-3, 30-4)에 대해서는 차륜각 센서(32)가 설치되어 있고, 구동륜(30-1, 30-2)의 이동에 따른 보조륜(30-3, 30-4)의 회전에 따른 펄스 신호를 출력한다. 또한, 보조륜은 하나라도 좋다.
계획 경로에 따른 이동 로봇의 주행 제어는 예컨대 도 4의 레이아웃 환경을 예로 들면 다음과 같이 된다. 경로 계획부(24)는 현재의 이동 로봇(10)의 위치에 대하여 임의의 목적지(62)를 설정하면 목적지(62)에 이르는 방(66-1∼66-4)으로 둘러싸인 복도(68)를 통하는 예컨대 최단 루트를 예정 경로(64)로서 계획한다.
예정 경로(64)가 계획되면 위치 추정부(40)로부터 얻어지는 현재의 주행 위치와 예정 경로(64)를 비교하여 예정 경로(64)에 따르도록 주행 지령을 주행 제어부(26)에 출력한다. 주행 제어부(26)는 모터(28-1, 28-2)의 구동에 의한 구동륜(30-1, 30-2)의 구동으로 이동 로봇을 예정 경로(64)에 의해 주행시킨다.
경로 계획부(24)에 의한 주행 지령은 예정 경로(64)에 있어서의 직진 이동 거리(L1, L2, L3)와, 진로 변경점(P1, P2)에 있어서의 진로 변경 정보를 이용하여 주행 중에 차륜 회전각 센서(32)로부터 검출되는 펄스를 카운트하여 1 펄스당의 주행 거리를 곱셈하여 누적하는 것으로 주행 거리를 구하고, 예정 경로(64)의 설정 거리(L1)에 일치했을 때에 진로 변경점(P1)의 도달을 인식하여 진행 방향을 좌측 90도 방향으로 선회하고, 계속해서 직진 거리(L2)를 주행하고, 진로 변경점(P2)에서 진행 방향을 우측 90도 선회하여 최종적으로 주행 거리(L3)의 주행으로 목적지(62)에 도달하게 된다.
이러한 예정 경로(64)에 따른 경로 계획부(24)로부터의 주행 지령에 기초하는 주행 제어부(26)에 의한 주행 제어에 있어서는 차륜 회전각 센서(32)의 검출 정밀도는 차륜의 슬립율 등으로 인해 오차가 생겨, 추정한 주행 위치와 실제의 주행 위치 사이에 오차가 생기기 때문에, 본 실시예에 있어서는 카메라(18)로 촬영한 화상을 이용하여 이동 로봇의 정확한 현재의 주행 위치를 추정하고, 이것을 갱신하면서 주행 제어를 행함으로써 예정 경로(64)에 따른 목적지(62)로의 주행을 정확하고 원활하게 행한다.
본 실시예에 있어서의 이동 로봇의 현재 주행 위치의 추정은 주행 위치 예측부(34), 예측 화상 생성부(36), 촬상부로서의 카메라(18), 화상 입력부(42), 에지 화상 생성부(44) 및 위치 추정부(40)에 의해 행해진다.
주행 위치 예측부(34)는 위치 추정부(40)에 있어서 추정된 주행 위치에 차륜 회전각 센서(32)로부터의 검출 펄스에 기초하여 계산한 주행 거리를 누적하여 현재 의 주행 위치를 예측한다.
예측 화상 생성부(36)는 환경 레이아웃 정보 데이터베이스(38)에 미리 기억하고 있는 기둥이나 벽의 위치, 높이 등 환경 레이아웃 정보에 기초하여 주행 위치 예측부(34)에서 예측된 현재의 주행 위치 및 그 주변의 후보 위치에 카메라(18)를 가상적으로 배치하여 촬상되는 에지 정보로 이루어지는 예측 에지 화상을 복수개 생성한다.
여기서 예측 화상 생성부(36)에 의한 예측 에지 화상의 생성은 주행 위치 예측부(34)에서 구한 주행 거리가 일정 거리 ΔL, 예컨대 ΔL = 1 m에 도달할 때마다 실행한다. 화상 입력부(42)는 카메라(18)로 촬영된 이동 로봇의 진행 방향의 화상을 주행 위치 예측부(34)에서 일정 거리 ΔL을 주행할 때마다 입력하고, 에지 화상 생성부(44)에 출력하여 실제 화상에서의 기둥이나 벽의 에지만을 추출한 실제 에지 화상을 생성하여 위치 추정부(4O)에 출력한다.
위치 추정부(40)는 에지 화상 생성부(44)로부터 출력된 실제 에지 화상과 예측 화상 생성부(36)로 생성된 복수의 후보 위치의 예측 에지 화상을 비교하여 유사도가 최대가 되는 예측 에지 화상의 후보 위치를 현재의 주행 위치로 추정하여 경로 계획부(24) 및 주행 위치 예측부(34)에 있어서의 주행 위치를 추정된 정확한 주행 위치로 갱신한다.
도 5는 주행 중에 실행되는 카메라 촬영 화상을 이용한 본 실시예에 의한 주행 위치의 추정 처리의 설명도이다. 도 5는 도 4에 도시한 예정 경로(64)에 따른 이동 로봇(10)의 주행 중에 예정 경로(64)의 진행 방향 변경점(P1)에서 좌측 방향 으로 90도 선회한 후의 이동 로봇(10)의 상태이며, 이 타이밍으로 카메라 촬영 화상을 이용한 주행 위치의 추정 처리가 행하여졌다고 한다.
이 경우, 이동 로봇(10)은 화살표로 도시하는 방향으로 진행하고 있고, 또한 이동 로봇에 탑재된 카메라(18)도 화살표로 도시하는 시선 방향으로 되어 있어 파선으로 도시하는 시야각 α로 실제 화상을 촬영하고 있다.
이 도 5에 있어서의 이동 로봇(10)의 위치는 도 3의 주행 위치 예측부(34)에 있어서의 전회의 추정 위치에 대하여 차륜 회전각 센서(32)의 검출 펄스에 기초하여 계산한 주행 거리를 누적한 예측 위치로서 인식되어 있고, 실제로는 차륜의 슬립으로 인한 오차를 갖는 것이므로, 예측 위치와 현재의 이동 로봇(10)의 위치와는 반드시 일치하지 않는 경우가 있다.
이 이동 로봇(10)의 주행 위치 예측부(34)에 기초하는 예측 주행 위치에 있어서, 도 3의 예측 화상 생성부(36)는 예컨대 도 6과 같이 예측 주행 위치(70)를 중심으로 x 방향에 p개, y 방향에 q 개로 이루어지는 (p × q)의 후보 위치 매트릭스(72)를 설정하여 후보 위치 매트릭스(72)의 예측 주행 위치(70)를 포함하는 매트릭스 교점을 후보 위치로 한다.
그리고, 각 후보 위치에 카메라(18)를 가상적으로 배치하여 촬영함으로써 얻어진 에지 화상을 환경 레이아웃 정보 데이터베이스(38)에 미리 기억하고 있는 기둥이나 벽의 위치 및 높이 등의 레이아웃 정보로부터 예측 에지 화상으로서 생성한다. 도 6의 후보 위치 매트릭스(72)의 경우, 예측 주행 위치(70)를 포함하여 후보 위치의 수는 (p × q)개소가 된다. 이 후보 위치 매트릭스(72)로서는 예컨대 예측 주행 위치(70)를 통하는 중심선을 경계로 ± 15 cm의 후보 범위를 설정하고 있고, 후보점의 수로서의 (p×q)는 예컨대 1000점 정도를 설정한다.
또한, 본 실시예에 있어서는, 예측 주행 위치(70)를 포함하는 각 후보 위치 마다 카메라의 시선 방향을 로봇 이동 방향으로 일치한 시선 방향(74-1)에 대하여 좌우로 ± 6도 정도 변화시킨 시선 방향(74-2, 74-3)으로 향했다고 상정하고, 레이 아웃 정보로부터 예측 에지 화상을 생성한다.
이에 따라서 현재의 예측 주행 위치(70)에 있어서의 정확한 주행 위치의 추정에 부가하여, 예측 주행 위치(70)에 있어서의 이동 로봇의 이동 방향에 관해서도 정확한 방향 추정을 실현할 수 있다.
또한, 후보 위치 매트릭스(72)에 있어서의 각 후보 위치에 관해서는 카메라 시선 방향을 이동 방향에 일치한 시선 방향(74-1)으로만 고정하여, ± 6도가 되는 좌우 방향의 시선 방향(74-2, 74-3)의 이동을 생략해도 좋다.
또한, 예측 주행 위치(70)의 주변에 설정하는 예측 에지 화상을 생성하기 위한 후보 위치의 수는 이동 로봇에 탑재하고 있는 도 2의 화상 처리 보드(50)의 처리 능력에 의존하여 적절한 후보 위치의 수를 결정할 수 있다.
여기서, 도 3에 도시한 위치 추정부(40)에 의한 실제 에지 화상과 복수의 예측 에지 화상을 비교하여 유사도가 최대가 되는 후보 위치의 판정은,
(1) 실제 에지 화상과 예측 에지 화상의 상관을 연산하여 상관이 최대가 되는 후보 위치를 주행 위치로 추정하는 방법, 또는
(2) 실제 에지 화상과 예측 에지 화상의 중복 화소수를 연산하여 중복 화소 수가 최대가 되는 후보 위치를 주행 위치로 추정하는 방법 중 어느 것을 사용할 수 있다.
도 7은 상관 계산에 의한 유사도의 판정 처리의 설명도이다. 도 7에 있어서, 카메라(18)로 촬영한 실제 화상(76)에 관해서 예컨대 미분 처리 등을 실시함으로써 에지 추출(78)이 행해지고, 실제 화상(76) 중의 복도와 벽 및 천장과의 경계가 되는 에지 부분을 추출한 실제 에지 화상(80)을 얻을 수 있다.
한편, 실제 화상(76)의 입력에 동기하여, 예컨대 도 6에 도시한 바와 같이 예측주행 위치(70) 주변에 설정한 후보 위치에 카메라(18)를 배치했다고 상정하여, 레이아웃 정보로부터 예측 에지 화상(82-1∼82-n)이 생성된다. 그리고 상관 계산(84)에 있어서, 실제 에지 화상(80)과 예측 에지 화상(82-1∼82-n)의 각각에 대하여 상관 계산을 행한다.
여기서 도 6에 있어서의 예측 주행 위치(70)의 주위에 설정한 후보 위치에 카메라(18)를 가상적으로 배치한 상태로 레이아웃 정보에 기초하는 예측 에지 화상(82-1∼82-n)의 생성은 카메라(18)의 카메라 파라메터에 기초하는 연산으로부터 구할 수 있다.
본 실시예에서 예측 에지 화상을 후보 위치에 설정한 카메라에 의해 촬상하는 경우, 카메라는 레이아웃 정보에 기초하는 3차원 레이아웃 공간을 후보 위치에 설정한 카메라로부터 본 2차원의 평면 화상으로 변환하면 된다.
이 관계를 수식화함으로써, 각 후보 위치에 카메라를 가상적으로 설정한 경우의 3차원 레이아웃 공간의 평면 화상으로서 예측 에지 화상을 작성할 수 있다.
이 3차원 레이아웃 공간을 2차원의 평면 화상으로 변환하는 관계식으로 이용하는 계수가 카메라 파라메터이다. 즉, 레이아웃 3차원 공간상의 점(X, Y, Z)이 카메라 화상상의 점(Xc, Yc)에 찍혀 있었다고 하면, 양자의 관계는 다음의 수학식 1로 주어진다.
Figure 112006070142453-pat00001
여기서, Hc는 매체 변수이다. 또한, 3×4의 행렬의 계수 C11∼C34가 카메라 파라메터이며, 카메라의 위치나 자세, 렌즈의 가격 등의 정보가 모두 포함되어 있다.
이 카메라 파라메터(C11∼C34)는 모두 12 개 있기 때문에, 레이아웃 3차원 공간과 카메라의 2차원 화상에 있어서의 6점 이상의 기준점에 의해 카메라 파라메터 C11∼C34의 값을 미리 결정할 수 있다.
이와 같이 하여 카메라의 카메라 파라메터(C11∼C34)의 값이 미리 결정되어 있으면, 임의의 후보 위치에 카메라를 설치했을 때에, 레이아웃 3차원 공간을 예측 에지 화상으로 변환할 때의 변환식은 다음의 수학식 2 및 수학식 3으로 주어지게 된다.
Figure 112006070142453-pat00002
Figure 112006070142453-pat00003
이 수학식 2 및 수학식 3을 후보 위치를 기준으로 한 레이아웃 3차원 공간에서의 에지를 나타내는 화소 좌표(X, Y, Z)의 모두에 대해 적용하여 구함으로써 예측 에지 화상상의 에지를 나타내는 모든 화소를 구할 수 있다.
또한, 도 7의 실제 에지 화상(80)과 예측 에지 화상(82-1∼82-n) 사이에서 행하는 상관 계산(84)은 다음의 수학식 4로 주어진다.
Figure 112006070142453-pat00004
여기서, 수학식 4에 있어서의 Rij는 레이아웃 3차원 공간에서의 에지 화상의 각 화소를 나타내고, Sij는 예측 에지 화상의 각 화소값을 나타내고, 또한 n은 화상의 화소수이다.
이러한 본 실시예에 있어서의 화상을 이용한 현재의 주행 위치의 추정으로서 는, 실제 화상으로부터 실제 에지 화상을 추출하고, 그것과 비교하는 환경에 관해서도 실제 환경의 화상 정보와는 무관계한 기둥이나 벽의 위치, 높이를 나타내는 지도 정보로서의 레이아웃 정보만으로 이루어지는 예측 에지 화상이며, 레이아웃 정보는 실제의 환경 화상과 비교하면 데이터량은 극단적으로 적고, 환경의 설계 도면 등의 정보로부터 간단히 취득할 수 있으며, 이동 로봇에 대한 레이아웃 정보의 등록 처리는 간단하고 용이하게 행할 수 있다.
또한, 현재의 주행 위치의 추정 처리에 관해서도, 실제 화상으로부터 추출한 실제 에지 화상과 예측 주행 위치의 주위에 설정한 후보 위치에서 본 레이아웃 정보에 기초하여 작성된 예측 에지 화상과의 상관 계산 등에 의한 유사도의 매칭으로, 최대 유사도가 되는 후보 위치를 주행 위치로서 추정하기 때문에, 화상 처리라도 화소수가 에지 화상이므로 충분히 적고, 보다 고속이며 소규모인 장치로 정확한 현재 위치의 추정을 행할 수 있다.
도 8은 본 실시예의 위치 추정에 있어서 실제 에지 화상과 예측 에지 화상의 유사도를, 에지를 구성하는 화소의 중복 수로 구하는 처리의 설명도이다.
도 8에 있어서, 실제 화상(76)에 대해서 미분 처리 등에 의해 에지 추출(78)을 행하고 실제 에지 화상(80)을 구한다. 한편, 동일한 타이밍으로 예측 주행 위치의 주변에 설정한 후보 위치마다 예측 에지 화상(82-1∼82-n)이 레이아웃 정보로부터 생성되어 있다.
이 상태에서 실제 에지 화상(80)과 가장 유사한 예측 에지 화상을 검출하기 위해서, 이 실시예에 있어서는 예컨대 실제 에지 화상(80)과 예측 에지 화상(82-1) 을 중합시킨 중복 판정 화상(86-1)을 생성하여, 중복 판정 화상(86-1) 중에서의 실제 에지 화상(80)의 에지 부분과 예측 에지 화상(82-1)의 에지 부분이 중복되고 있는 부분의 화소의 총수를 구한다.
이러한 실제 에지 화상(80)과 예측 에지 화상(82-1∼82-n)과의 중복 판정 화상(86-1∼86-n)에 관해서 에지 화상의 화소 중복 수를 각각 구하고, 최대 중복 화소수가 되는 예측 에지 화상(82-i)을 판정하여, 그 후보 위치를 현재의 주행 위치로 추정한다.
여기서, 도 7의 상관 계산에 의한 최대 유사도의 판정과 도 8의 중복 화소수에 의한 최대 유사도의 판정을 비교하면, 실제 에지 화상(80)의 추출이 불충분하고 에지가 도중에서 끊기는 경우, 상관 계산에 의한 경우에는 도중에서 끊긴 분만큼 상관치가 낮아지지만, 에지 중복 화소수의 경우에는, 실제 에지 화상의 에지에 도중에서 끊어짐이 생기더라도 에지가 중합되는 부분 이외의 에지의 도중에서 끊어짐이라면 중복 화소수의 판정에 에지의 도중에서 끊어짐이 영향을 주지 않고, 상관 계산과 비교하여 보다 안정적인 최대 유사도의 비교 처리를 행할 수 있다.
또한, 도 7의 상관 계산에 의한 최대 유사도와 도 8의 중복 화소수에 의한 최대 유사도의 판정을 개별적으로 행해도 좋고, 양자를 조합시켜도 좋다. 예컨대, 도 7의 상관 계산으로 구한 상관치를 정렬하여 상위 소정수의 후보 위치를 선택하고, 선택한 후보의 예측 에지 화상에 관해서 도 8의 중복 화소수의 판정 처리를 적용하여, 최대 중복 화소수의 예측 에지 화상에 대응한 후보 위치를 주행 위치로 추정해도 좋다.
도 9는 본 실시예에 있어서의 주행 위치 추정 처리의 흐름도이며, 도 3을 참조하여 설명하면 다음과 같이 된다.
도 9에 있어서 우선 단계 S1에서 예컨대 주행 위치 예측부(34)가 차륜 회전각 센서(32)로부터 출력되는 펄스에 기초하여 주행 거리가 설정 거리 ΔL에 도달하였는지의 여부를 체크하고, 설정 거리 ΔL에 도달하면 단계 S2에서 주행 거리를 클리어한 후, 단계 S3 이후의 주행 위치의 추정 처리를 시작한다.
이 주행 위치의 추정 처리는 단계 S3에서 최대 유사도를 제로로 초기화한 후, 단계 S4에서 화상 입력부(42)에 의해 카메라(18)로 그때 촬영하고 있는 카메라 화상을 취득하여 에지 화상 생성부(44)에서 미분 처리 등에 의해 에지 화상을 생성한다.
다음에, 단계 S5에서 주행 위치 예측부(34)에서 예측된 현재의 주행 위치를 취득하고 예측 화상 생성부(36)에 의해 단계 S6에서 예측 주행 위치의 주변에 후보 위치를 예컨대 도 6과 같이 설정한다.
다음에, 단계 S7에서 후보 위치의 하나를 선택하고, 선택한 후보 위치에 있어서의 예측 에지 화상을 생성한다. 구체적으로는, 선택한 후보 위치에 카메라(18)를 가상적으로 설치한 것으로 하고, 환경 레이아웃 정보 데이터베이스(38)의 레이아웃 정보로부터 취득되는 레이아웃 3차원 공간에 관해서 상기 수학식 2 및 수학식 3의 카메라 파라메터(C11∼C34)를 이용한 연산에 의해 레이아웃 3차원 정보의 에지 화상을 2차원 평면의 에지 화상으로 변환하여 예측 에지 화상을 생성한다.
다음에, 단계 S8에서 실제 에지 화상과 예측 에지 화상의 유사도를 계산한 다. 이 유사도의 계산은 도 7에 도시한 상관 계산(84) 또는 도 8에 도시한 에지 중복 화소수 중 어느 것으로 한다.
이어서, 단계 S9에서 계산된 유사도를 그 때의 최대 유사도와 비교한다. 이 때 최초의 비교 처리이므로 최대 유사도는 단계 S3에서 초기화한 제로이며, 따라서 계산한 유사도는 반드시 제로 이상이 되어 단계 S10으로 진행하고, 최대 유사도를 단계 S8로 계산한 유사도로 갱신하여 그 때의 후보 위치를 기록한다.
계속해서, 단계 S11로 진행하고, 처리한 후보 위치의 수가 미리 정한 임계치 미만이면 단계 S6으로 되돌아가고, 다음 후보 위치를 생성하여 단계 S7∼S10의 처리를 반복한다. 이 단계 S6∼S11의 처리의 반복에 의해 복수의 후보점의 예측 에지 화상에 관하여 최대 유사도가 되는 후보 위치가 항상 기록 결과로서 남는다.
단계 S11에서 후보 위치수가 임계치를 초과하면 단계 S12로 진행하고, 이 때 단계 S10에서 기록하고 있는 후보 위치가 최대 유사도의 후보 위치이므로 이것을 현재의 주행 위치로서 설정한다.
계속해서, 단계 S13에서 목적지에 도달했는지 아닌지를 체크하여 미도달이면 단계 S1로 되돌아가 동일한 처리를 반복하고, 목적지에 도달하면 일련의 주행 위치 추정 처리를 종료한다.
또한, 본 발명은 이동 로봇에 탑재되어 있는 컴퓨터, 구체적으로는 도 2와 같은 하드웨어 구성으로 실행되는 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체를 제공하는 것으로, 이 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체의 내용은 도 9의 흐름도에 따른 내용이 된다.
또한, 본 발명은 그 목적과 이점을 손상하지 않는 적절한 변형을 포함하고, 또한 상기한 실시예에 도시한 수치에 의한 한정은 받지 않는다.
여기서, 본 발명의 특징을 통합하여 열거하면 다음의 부기와 같이 된다.
(부기)
(부기 1)
시설 등의 환경을 주행하는 이동 로봇에 있어서,
추정된 현재의 주행 위치에 기초하여 목적지까지의 주행 경로를 계획하여 주행 지령을 출력하는 경로 계획부와,
상기 경로 계획부의 주행 지령에 기초하여 상기 주행 경로에 따르도록 주행 제어하는 주행 제어부와,
추정된 현재의 주행 위치에 차륜의 회전각 센서에 의해 검출한 주행 거리를 누적하여 현재의 주행 위치를 예측하는 위치 예측부와,
상기 위치 예측부에서 예측된 현재의 주행 위치 및 그 주변의 후보 위치에 상기 촬상부를 가상적으로 배치하여 촬상되는 에지 정보로 이루어지는 예측 에지 화상을 상기 환경 레이아웃 정보에 기초하여 복수개 생성하는 예측 화상 생성부와,
촬상부에서 촬영된 주행 방향의 실제 화상으로부터 에지 정보를 추출하고 실제 에지 화상을 생성하는 에지 화상 생성부와,
상기 실제 에지 화상과 상기 복수의 예측 에지 화상을 비교하여 유사도가 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하여 상기 경로 계획부 및 상기 위치 예측부의 주행 위치를 갱신하는 위치 추정부
를 구비하는 것을 특징으로 하는 이동 로봇.
(부기 2)
부기 1에 기재된 이동 로봇에 있어서, 상기 위치 추정부는 상기 실제 화상의 미분 처리에 의해 생성된 실제 에지 화상과 각 예측 에지 화상과의 상관을 연산하여 상관이 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하는 것을 특징으로 하는 이동 로봇.
(부기 3)
부기 1에 기재된 이동 로봇에 있어서, 상기 위치 추정부는 상기 실제 화상의 미분 처리에 의해 생성된 실제 에지 화상과 각 예측 에지 화상과의 중복 화소수를 연산하여 중복 화소수가 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하는 것을 특징으로 하는 이동 로봇.
(부기 4)
부기 2 또는 3에 기재된 이동 로봇에 있어서,
상기 예측 화상 생성부는 상기 후보 위치마다 상기 촬상부의 촬상 방향을 변화시켜 복수의 예측 에지 화상을 생성하는 것을 특징으로 하는 이동 로봇.
(부기 5)
부기 1에 기재된 이동 로봇에 있어서, 상기 예측 화상 생성부는 상기 촬상부의 카메라 파라메터와 상기 레이아웃 정보의 3차원 좌표에 기초하여 예측 에지 화상을 생성하는 것을 특징으로 하는 이동 로봇.
(부기 6)
부기 1에 기재된 이동 로봇에 있어서, 소정 주행 거리 또는 소정 이동 시간마다 상기 실제 에지 화상과 복수의 예측 에지 화상에 기초하는 현재의 주행 위치의 추정 처리를 반복하는 것을 특징으로 하는 이동 로봇.
(부기 7)
시설 등의 환경을 주행하는 이동 로봇 제어 방법에 있어서,
추정된 현재의 주행 위치에 기초하여 목적지까지의 주행 경로를 계획하여 주행 지령을 출력하는 경로 계획 단계와,
상기 경로 계획 단계의 주행 지령에 기초하여 상기 주행 경로에 따르도록 주행 제어하는 주행 제어 단계와,
추정된 현재의 주행 위치에 차륜의 회전각 센서에 의해 검출한 주행 거리를 누적하여 현재의 주행 위치를 예측하는 위치 예측 단계와,
상기 위치 예측 단계에서 예측된 현재의 주행 위치 및 그 주변의 후보 위치에 촬상부를 가상적으로 배치하여 촬상되는 에지 정보로 이루어지는 예측 에지 화상을 상기 환경 레이아웃 정보에 기초하여 복수개 생성하는 예측 화상 생성 단계와,
촬상부에서 촬영된 주행 방향의 실제 화상으로부터 에지 정보를 추출하고 실제 에지 화상을 생성하는 에지 화상 생성 단계와,
상기 실제 에지 화상과 상기 복수의 예측 에지 화상을 비교하여 유사도가 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하여 상기 경로 계획 단계 및 상기 위치 예측 단계의 주행 위치를 갱신하는 위치 추정 단계
를 포함하는 것을 특징으로 하는 이동 로봇 제어 방법.
(부기 8)
부기 7에 기재된 이동 로봇 제어 방법에 있어서, 상기 위치 추정 단계는 상기 실제 화상의 미분 처리에 의해 생성한 실제 에지 화상과 각 예측 에지 화상과의 상관을 연산하여 상관이 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하는 것을 특징으로 하는 이동 로봇 제어 방법.
(부기 9)
부기 7에 기재된 이동 로봇 제어 방법에 있어서, 상기 위치 추정 단계는 상기 실제 화상의 미분 처리에 의해 생성된 실제 에지 화상과 각 예측 에지 화상과의 중복 화소수를 연산하여 중복 화소수가 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하는 것을 특징으로 하는 이동 로봇 제어 방법.
(부기 10)
부기 8 또는 9에 기재된 이동 로봇 제어 방법에 있어서,
상기 예측 화상 생성 단계는 상기 후보 위치마다 상기 촬상 단계의 촬상 방향을 변화시켜 복수의 예측 에지 화상을 생성하는 것을 특징으로 하는 이동 로봇 제어 방법.
(부기 11)
부기 7에 기재된 이동 로봇 제어 방법에 있어서, 상기 예측 화상 생성 단계는 상기 촬상 단계의 카메라 파라미터와 상기 레이아웃 정보의 3차원 좌표에 기초하여 예측 에지 화상을 생성하는 것을 특징으로 하는 이동 로봇 제어 방법.
(부기 12)
부기 7에 기재된 이동 로봇 제어 방법에 있어서, 소정 주행 거리 또는 소정 이동 시간마다 상기 실제 에지 화상과 복수의 예측 에지 화상에 기초하는 현재의 주행 위치의 추정 처리를 반복하는 것을 특징으로 하는 이동 로봇 제어 방법.
(부기 13)
시설 등의 환경을 주행하는 이동 로봇의 컴퓨터로,
추정된 현재의 주행 위치에 기초하여 목적지까지의 주행 경로를 계획하여 주행 지령을 출력하는 경로 계획 단계와,
상기 경로 계획 단계의 주행 지령에 기초하여 상기 주행 경로에 따르도록 주행 제어하는 주행 제어 단계와,
추정된 현재의 주행 위치에 차륜의 회전각 센서에 의해 검출한 주행 거리를 누적하여 현재의 주행 위치를 예측하는 위치 예측 단계와,
상기 위치 예측 단계에서 예측된 현재의 주행 위치 및 그 주변의 후보 위치에 촬상부를 가상적으로 배치하여 촬상되는 에지 정보로 이루어지는 예측 에지 화상을 상기 환경 레이아웃 정보에 기초하여 복수개 생성하는 예측 화상 생성 단계와,
촬상부에서 촬영된 주행 방향의 실제 화상으로부터 에지 정보를 추출하고 실제 에지 화상을 생성하는 에지 화상 생성 단계와,
상기 실제 에지 화상과 상기 복수의 예측 에지 화상을 비교하여 유사도가 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하여 상기 경로 계획 단 계 및 상기 위치 예측 단계의 주행 위치를 갱신하는 위치 추정 단계
를 실행시키는 것을 특징으로 하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체.
(부기 14)
부기 13에 기재된 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체에 있어서, 상기 위치 추정 단계는 상기 실제 화상의 미분 처리에 의해 생성된 실제 에지 화상과 각 예측 에지 화상의 상관을 연산하여 상관이 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하는 것을 특징으로 하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체.
(부기 15)
부기 13에 기재된 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체에 있어서, 상기 위치 추정 단계는 상기 실제 화상의 미분 처리에 의해 생성된 실제 에지 화상과 각 예측 에지 화상과의 중복 화소수를 연산하여 중복 화소수가 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하는 것을 특징으로 하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체.
(부기 16)
부기 14 또는 15에 기재된 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체에 있어서, 상기 예측 화상 생성 단계는 상기 후보 위치마다 상기 촬상 단계의 촬상 방향을 변화시켜 복수의 예측 에지 화상을 생성하는 것을 특징으로 하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체.
(부기 17)
부기 13에 기재된 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체에 있어서, 상기 예측 화상 생성 단계는 상기 촬상 단계의 카메라 파라메터와 상기 레이아웃 정보의 3차원 좌표에 기초하여 예측 에지 화상을 생성하는 것을 특징으로 하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체.
(부기 18)
부기 13에 기재된 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체에 있어서, 소정 주행 거리 또는 소정 이동 시간마다 상기 실제 에지 화상과 복수의 예측 에지 화상에 기초하는 현재의 주행 위치의 추정 처리를 반복하는 것을 특징으로 하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체.
본 발명에 따르면, 차륜의 회전각 센서를 이용한 데드레코닝에 의해 예측한 이동 로봇의 현재의 주행 위치의 주변에 복수의 후보 위치를 설정하여 기둥이나 벽의 위치나 높이 등의 환경 레이아웃 정보에 기초하여 각 후보 위치에 촬상부를 가상적으로 배치하여 촬상되는 에지 정보로 이루어지는 예측 에지 화상을 생성하고, 이들 후보 위치에 있어서 예측 에지 화상과 실제 화상으로부터 에지 정보를 추출한 실제 에지 화상을 비교하여 가장 유사한 예측 에지 화상의 후보 위치를 로봇의 현재의 주행 위치로 추정하고 있기 때문에, 벽, 기둥 위치 등을 기술한 비교적 단순한 환경의 레이아웃 정보를 이동 로봇에 미리 기억해 두는 것만으로 예측 에지 화상을 용이하게 생성할 수 있고, 실제 공간에서의 복수 종류의 이미 정해진 화상 특 징의 위치를 미리 등록하는 작업을 필요로 하지 않고, 카메라 화상을 이용한 자기 위치 추정을 간단하고 정확히 행할 수 있다.
또한, 예측 에지 화상의 실제 에지 화상의 비교에 의한 유사도의 판단을 화상의 상관치에 의해 평가하여, 상관치가 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정함으로써, 예측 에지 화상과 실제 에지 화상의 세부 차이의 영향을 배제하고 안정된 비교 처리를 실현할 수 있으며, 게다가 에지 정보의 상관 계산으로 완료되기 때문에 계산량이 감소되어 소규모인 장치로 실현할 수 있다.
또한, 예측 에지 화상의 실제 에지 화상의 비교에 의한 유사도의 판단을 에지 화상의 중복 화소수에 의해 평가하여 중복 화소수가 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정함으로써, 화상 상관과 비교하여 더욱 안정된 비교 처리를 실현할 수 있고, 부가해서 일치하는 에지 화소의 총수의 계산이기 때문에 상관 계산과 비교하여 더욱 적은 계산량으로 실현할 수 있다.
또한, 후보 위치마다 촬상부의 촬상 방향을 변화시켜 복수의 예측 에지 화상을 생성하고 있기 때문에, 동일한 후보 위치에서 촬상 방향이 다른 복수의 예측 에지 화상을 생성하여 실제 에지 화상과 비교하게 되고, 실제 화상의 촬영 방향이 계획된 주행 방향으로부터 어긋나 있었다고 해도, 최대 유사도의 예측 에지 화상을 얻을 수 있다면 정확한 주행 위치로 추정하여, 주행 위치의 추정 정밀도를 더욱 높일 수 있다.
또한, 후보 위치에 가상적으로 촬상부를 배치하여 생성하는 예측 에지 화상의 생성은 촬상부의 카메라 파라메터와 레이아웃 정보의 3차원 좌표에 기초하여 간 단하고 정확하게 생성할 수 있다.
더욱이, 소정 주행 거리 또는 소정 이동 시간의 처리 주기로 실제 에지 화상과 복수의 예측 에지 화상에 기초하는 현재의 주행 위치의 추정 처리를 반복하고 있기 때문에, 처리 주기를 짧게 함으로써 추정 정밀도를 높일 수 있다.

Claims (5)

  1. 시설 등의 환경을 주행하는 이동 로봇에 있어서,
    추정된 현재의 주행 위치에 기초하여 목적지까지의 주행 경로를 계획하여 주행 지령을 출력하는 경로 계획부와;
    상기 경로 계획부의 주행 지령에 기초하여 상기 주행 경로에 추종하도록 주행 제어하는 주행 제어부와;
    추정된 현재의 주행 위치에 차륜의 회전각 센서에 의해 검출한 주행 거리를 누적하여 현재의 주행 위치를 예측하는 위치 예측부와;
    상기 위치 예측부에서 예측된 현재의 주행 위치 및 그 주변의 후보 위치에 촬상부를 가상적으로 배치하여 촬상되는 에지 정보로 이루어지는 예측 에지 화상을 상기 환경의 레이아웃 정보에 기초하여 복수개 생성하는 예측 화상 생성부와;
    상기 촬상부에서 촬영된 주행 방향의 실제 화상으로부터 에지 정보를 추출하여 실제 에지 화상을 생성하는 에지 화상 생성부와;
    상기 실제 에지 화상과 상기 복수의 예측 에지 화상을 비교하여 유사도가 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하여 상기 경로 계획부 및 상기 위치 예측부의 주행 위치를 갱신하는 위치 추정부
    를 구비하는 것을 특징으로 하는 이동 로봇.
  2. 제1항에 있어서, 상기 위치 추정부는, 상기 실제 화상의 미분 처리에 의해 생성된 실제 에지 화상과 각 예측 에지 화상과의 상관을 연산하여, 상관이 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하는 것을 특징으로 하는 이동 로봇.
  3. 제1항에 있어서, 상기 위치 추정부는, 상기 실제 화상의 미분 처리에 의해 생성된 실제 에지 화상과 각 예측 에지 화상과의 중복 화소수를 연산하여, 중복 화소수가 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하는 것을 특징으로 하는 이동 로봇.
  4. 시설 등의 환경을 주행하는 이동 로봇 제어 방법에 있어서,
    추정된 현재의 주행 위치에 기초하여 목적지까지의 주행 경로를 계획하여 주행 지령을 출력하는 경로 계획 단계와;
    상기 경로 계획 단계의 주행 지령에 기초하여 상기 주행 경로에 추종하도록 주행 제어하는 주행 제어 단계와;
    추정된 현재의 주행 위치에 차륜의 회전각 센서에 의해 검출한 주행 거리를 누적하여 현재의 주행 위치를 예측하는 위치 예측 단계와;
    상기 위치 예측 단계에서 예측된 현재의 주행 위치 및 그 주변의 후보 위치에 촬상부를 가상적으로 배치하여 촬상되는 에지 정보로 이루어지는 예측 에지 화상을 상기 환경의 레이아웃 정보에 기초하여 복수개 생성하는 예측 화상 생성 단계와;
    상기 촬상부에서 촬영된 주행 방향의 실제 화상으로부터 에지 정보를 추출하여 실제 에지 화상을 생성하는 에지 화상 생성 단계와;
    상기 실제 에지 화상과 상기 복수의 예측 에지 화상을 비교하여 유사도가 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하여 상기 경로 계획 단계 및 상기 위치 예측 단계의 주행 위치를 갱신하는 위치 추정 단계
    를 포함하는 것을 특징으로 하는 이동 로봇 제어 방법.
  5. 시설 등의 환경을 주행하는 이동 로봇의 컴퓨터로,
    추정된 현재의 주행 위치에 기초하여 목적지까지의 주행 경로를 계획하여 주행 지령을 출력하는 경로 계획 단계와;
    상기 경로 계획 단계의 주행 지령에 기초하여 상기 주행 경로에 추종하도록 주행 제어하는 주행 제어 단계와;
    추정된 현재의 주행 위치에 차륜의 회전각 센서에 의해 검출한 주행 거리를 누적하여 현재의 주행 위치를 예측하는 위치 예측 단계와;
    상기 위치 예측 단계에서 예측된 현재의 주행 위치 및 그 주변의 후보 위치에 촬상부를 가상적으로 배치하여 촬상되는 에지 정보로 이루어지는 예측 에지 화상을 상기 환경의 레이아웃 정보에 기초하여 복수개 생성하는 예측 화상 생성 단계와;
    상기 촬상부에서 촬영된 주행 방향의 실제 화상으로부터 에지 정보를 추출하고 실제 에지 화상을 생성하는 에지 화상 생성 단계와;
    상기 실제 에지 화상과 상기 복수의 예측 에지 화상을 비교하여 유사도가 최대가 되는 예측 에지 화상의 후보 위치를 주행 위치로 추정하여 상기 경로 계획 단계 및 상기 위치 예측 단계의 주행 위치를 갱신하는 위치 추정 단계
    를 실행시키는 것을 특징으로 하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체.
KR1020060093893A 2006-05-26 2006-09-27 이동 로봇, 그 제어 방법 및 프로그램을 기록한 컴퓨터로판독 가능한 기록 매체 KR100801527B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006146218A JP2007316966A (ja) 2006-05-26 2006-05-26 移動ロボット、その制御方法及びプログラム
JPJP-P-2006-00146218 2006-05-26

Publications (2)

Publication Number Publication Date
KR20070113939A KR20070113939A (ko) 2007-11-29
KR100801527B1 true KR100801527B1 (ko) 2008-02-12

Family

ID=38480680

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060093893A KR100801527B1 (ko) 2006-05-26 2006-09-27 이동 로봇, 그 제어 방법 및 프로그램을 기록한 컴퓨터로판독 가능한 기록 매체

Country Status (5)

Country Link
US (1) US20070276541A1 (ko)
EP (1) EP1860515A3 (ko)
JP (1) JP2007316966A (ko)
KR (1) KR100801527B1 (ko)
CN (1) CN101078632A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101100827B1 (ko) * 2009-11-30 2012-01-02 한국생산기술연구원 도로주행 로봇의 자기 위치 인식방법

Families Citing this family (149)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040162637A1 (en) 2002-07-25 2004-08-19 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
US7813836B2 (en) 2003-12-09 2010-10-12 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US8077963B2 (en) 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
US8849679B2 (en) 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
WO2008100865A1 (en) 2007-02-13 2008-08-21 Nye Paul H A personal affector machine
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
JP2009011362A (ja) * 2007-06-29 2009-01-22 Sony Computer Entertainment Inc 情報処理システム、ロボット装置及びその制御方法
JP4661838B2 (ja) * 2007-07-18 2011-03-30 トヨタ自動車株式会社 経路計画装置及び方法、コスト評価装置、並びに移動体
WO2009136969A2 (en) * 2008-01-22 2009-11-12 Carnegie Mellon University Apparatuses, systems, and methods for apparatus operation and remote sensing
JP4978494B2 (ja) * 2008-02-07 2012-07-18 トヨタ自動車株式会社 自律移動体、及びその制御方法
KR100926783B1 (ko) * 2008-02-15 2009-11-13 한국과학기술연구원 물체인식 및 인식된 물체를 포함하는 주변 환경 정보를바탕으로 한 로봇의 자기 위치 추정 방법
US10875182B2 (en) 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
CN101546424B (zh) * 2008-03-24 2012-07-25 富士通株式会社 图像处理方法和装置及水印检测系统
US8179418B2 (en) 2008-04-14 2012-05-15 Intouch Technologies, Inc. Robotic based health care system
US8170241B2 (en) 2008-04-17 2012-05-01 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
JP5213237B2 (ja) * 2008-04-17 2013-06-19 パナソニック株式会社 撮像位置判定方法及び撮像位置判定装置
KR100974543B1 (ko) * 2008-06-09 2010-08-11 삼성중공업 주식회사 도장 시뮬레이션 시스템 및 방법과 이를 위한 기록매체
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9842192B2 (en) 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
JP4806435B2 (ja) * 2008-09-10 2011-11-02 日本輸送機株式会社 3次元モデルを用いた自己位置認識手法及び自己位置認識システム
KR101538775B1 (ko) 2008-09-12 2015-07-30 삼성전자 주식회사 전방 영상을 이용한 위치 인식 장치 및 방법
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
KR101202695B1 (ko) * 2008-10-01 2012-11-19 무라다기카이가부시끼가이샤 자율 이동 장치
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
US8234032B2 (en) * 2008-11-10 2012-07-31 Electronics And Telecommunications Research Institute Method and apparatus for generating safe path of mobile robot
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US9138891B2 (en) 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
KR101553522B1 (ko) * 2008-12-29 2015-09-16 삼성전자 주식회사 로봇 및 그 제어 방법
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
KR101524020B1 (ko) * 2009-03-06 2015-05-29 엘지전자 주식회사 로봇 청소기의 점진적 지도 작성 및 위치 보정 방법
US8897920B2 (en) 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
JP5310285B2 (ja) * 2009-06-12 2013-10-09 日産自動車株式会社 自己位置推定装置及び自己位置推定方法
US8384755B2 (en) 2009-08-26 2013-02-26 Intouch Technologies, Inc. Portable remote presence robot
US11399153B2 (en) 2009-08-26 2022-07-26 Teladoc Health, Inc. Portable telepresence apparatus
WO2011064821A1 (ja) 2009-11-27 2011-06-03 トヨタ自動車株式会社 自律移動体及びその制御方法
KR101146128B1 (ko) * 2009-12-22 2012-05-16 연세대학교 산학협력단 분할 기반 이미지 매칭을 이용한 내비게이션 방법 및 장치
CN101738195B (zh) * 2009-12-24 2012-01-11 厦门大学 基于环境建模与自适应窗口的移动机器人路径规划方法
US11154981B2 (en) 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
NO20100339A1 (no) * 2010-03-10 2011-05-23 Seabed Rig As Fremgangsmåte og anordning for å sikre drift av automatisk eller autonomt utstyr
US9014848B2 (en) * 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
US10343283B2 (en) 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US10808882B2 (en) 2010-05-26 2020-10-20 Intouch Technologies, Inc. Tele-robotic system with a robot face placed on a chair
DE102010017689A1 (de) * 2010-07-01 2012-01-05 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Gerät sowie Verfahren zur Orientierung eines solchen Gerätes
KR101598773B1 (ko) * 2010-10-21 2016-03-15 (주)미래컴퍼니 수술용 로봇의 움직임 제어/보상 방법 및 장치
KR101731968B1 (ko) * 2010-11-01 2017-05-04 삼성전자주식회사 로봇의 리로케이션 장치 및 방법
JP4937400B1 (ja) * 2010-11-05 2012-05-23 株式会社東芝 探索省略領域設定関数生成方法、探索省略領域設定方法、オブジェクト探索方法、探索省略領域設定関数生成装置、探索省略領域設定装置、及びオブジェクト探索装置
US9264664B2 (en) 2010-12-03 2016-02-16 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
US12093036B2 (en) 2011-01-21 2024-09-17 Teladoc Health, Inc. Telerobotic system with a dual application screen presentation
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
EP2668008A4 (en) * 2011-01-28 2018-01-24 Intouch Technologies, Inc. Interfacing with a mobile telepresence robot
US10769739B2 (en) 2011-04-25 2020-09-08 Intouch Technologies, Inc. Systems and methods for management of information among medical providers and facilities
WO2012153629A1 (ja) * 2011-05-12 2012-11-15 株式会社Ihi 運動予測制御装置と方法
JP5092037B1 (ja) * 2011-05-16 2012-12-05 株式会社東芝 探索省略領域設定関数生成方法、探索省略領域設定方法、オブジェクト探索方法、探索省略領域設定関数生成装置、探索省略領域設定装置、及びオブジェクト探索装置
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
CN102288176B (zh) * 2011-07-07 2013-01-30 中国矿业大学(北京) 基于信息融合的煤矿救灾机器人导航系统及方法
KR101264914B1 (ko) 2011-07-11 2013-05-15 (주)유알에프 주행환경 변화에 강건하게 영상 내 로봇 경로선을 검출하는 방법
US8836751B2 (en) 2011-11-08 2014-09-16 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
CN102547126A (zh) * 2012-01-17 2012-07-04 苏州佳世达电通有限公司 监视系统及其控制方法
JP5804185B2 (ja) * 2012-03-06 2015-11-04 日産自動車株式会社 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US9251313B2 (en) 2012-04-11 2016-02-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
EP2852475A4 (en) 2012-05-22 2016-01-20 Intouch Technologies Inc SOCIAL BEHAVIOR OF A MEDICAL TELEPRESCENT ROBOT
CN103488172B (zh) * 2012-06-13 2016-10-05 苏州宝时得电动工具有限公司 自动工作系统及其控制方法
KR102142162B1 (ko) * 2012-08-27 2020-09-14 에이비 엘렉트로룩스 로봇 위치 선정 시스템
CN102854880B (zh) * 2012-10-08 2014-12-31 中国矿业大学 面向混合地形区域不确定环境的机器人全局路径规划方法
JP6054136B2 (ja) * 2012-10-23 2016-12-27 シャープ株式会社 機器制御装置、および自走式電子機器
CN103988135B (zh) * 2012-12-10 2016-10-19 三菱电机株式会社 Nc程序检索方法、nc程序检索装置、nc程序生成方法以及nc程序生成装置
KR102058918B1 (ko) * 2012-12-14 2019-12-26 삼성전자주식회사 홈 모니터링 방법 및 장치
US10219665B2 (en) 2013-04-15 2019-03-05 Aktiebolaget Electrolux Robotic vacuum cleaner with protruding sidebrush
WO2014169943A1 (en) 2013-04-15 2014-10-23 Aktiebolaget Electrolux Robotic vacuum cleaner
CN103383569B (zh) * 2013-05-31 2016-12-28 浙江工业大学 基于线性时序逻辑的移动机器人最优巡回路径设定方法
SG2013042890A (en) * 2013-06-03 2015-01-29 Ctrlworks Pte Ltd Method and apparatus for offboard navigation of a robotic device
CN103552091B (zh) * 2013-09-29 2015-09-16 江苏恒义汽配制造有限公司 机械手装置上的移送滚轮与轨道状态的检测装置
CN105792996B (zh) * 2013-11-28 2017-07-25 三菱电机株式会社 机器人系统以及机器人系统的控制方法
EP3082537B1 (en) 2013-12-19 2020-11-18 Aktiebolaget Electrolux Robotic cleaning device and method for landmark recognition
EP3082544B1 (en) 2013-12-19 2020-10-07 Aktiebolaget Electrolux Robotic vacuum cleaner with side brush moving in spiral pattern
WO2015090397A1 (en) 2013-12-19 2015-06-25 Aktiebolaget Electrolux Robotic cleaning device
ES2675786T3 (es) 2013-12-19 2018-07-12 Aktiebolaget Electrolux Control de velocidad adaptativo de cepillo lateral rotatorio
JP6494118B2 (ja) 2013-12-19 2019-04-03 アクチエボラゲット エレクトロルックス 障害物の乗り上げの検出に伴うロボット掃除機の制御方法、並びに、当該方法を有するロボット掃除機、プログラム、及びコンピュータ製品
CN105793790B (zh) 2013-12-19 2022-03-04 伊莱克斯公司 优先化清洁区域
WO2015090402A1 (en) 2013-12-19 2015-06-25 Aktiebolaget Electrolux Robotic cleaning device with perimeter recording function
CN105848545B (zh) 2013-12-20 2019-02-19 伊莱克斯公司 灰尘容器
CN103767708A (zh) * 2014-01-24 2014-05-07 成都万先自动化科技有限责任公司 呼气检测癌症医用机器人
JP5850958B2 (ja) * 2014-01-24 2016-02-03 ファナック株式会社 ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置
JP5910647B2 (ja) * 2014-02-19 2016-04-27 トヨタ自動車株式会社 移動ロボットの移動制御方法
JP5949814B2 (ja) * 2014-03-06 2016-07-13 トヨタ自動車株式会社 自律移動ロボット、及びその制御方法
JP6599603B2 (ja) * 2014-04-18 2019-10-30 東芝ライフスタイル株式会社 自律走行体
KR101776620B1 (ko) * 2014-06-17 2017-09-11 주식회사 유진로봇 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
EP3167341B1 (en) 2014-07-10 2018-05-09 Aktiebolaget Electrolux Method for detecting a measurement error in a robotic cleaning device
US10518879B1 (en) * 2014-07-10 2019-12-31 Hrl Laboratories, Llc System and method for drift-free global trajectory estimation of a mobile platform
KR102271785B1 (ko) 2014-09-08 2021-06-30 에이비 엘렉트로룩스 로봇 진공 청소기
KR102271782B1 (ko) 2014-09-08 2021-06-30 에이비 엘렉트로룩스 로봇 진공 청소기
EP3230814B1 (en) 2014-12-10 2021-02-17 Aktiebolaget Electrolux Using laser sensor for floor type detection
US10874271B2 (en) 2014-12-12 2020-12-29 Aktiebolaget Electrolux Side brush and robotic cleaner
JP6879478B2 (ja) 2014-12-16 2021-06-02 アクチエボラゲット エレクトロルックス ロボット掃除機のための経験ベースロードマップ
CN106998984B (zh) 2014-12-16 2021-07-27 伊莱克斯公司 用于机器人清洁设备的清洁方法
DK3123260T3 (da) 2014-12-31 2021-06-14 Sz Dji Technology Co Ltd Selektiv behandling af sensordata
JP6456405B2 (ja) * 2015-01-16 2019-01-23 株式会社日立製作所 3次元情報算出装置、3次元情報算出方法、および自律移動装置
US10168699B1 (en) * 2015-01-30 2019-01-01 Vecna Technologies, Inc. Interactions between a vehicle and a being encountered by the vehicle
EP3261547B1 (en) * 2015-02-23 2021-06-09 Siemens Healthcare GmbH Method and system for automated positioning of a medical diagnostic device
JP6411917B2 (ja) * 2015-02-27 2018-10-24 株式会社日立製作所 自己位置推定装置および移動体
JP6743828B2 (ja) 2015-04-17 2020-08-19 アクチエボラゲット エレクトロルックス ロボット掃除機およびロボット掃除機を制御する方法
JP6736831B2 (ja) 2015-09-03 2020-08-05 アクチエボラゲット エレクトロルックス ロボット清掃デバイスのシステム、清掃デバイスを制御する方法、コンピュータプログラム及びコンピュータプログラム製品
JP6782903B2 (ja) * 2015-12-25 2020-11-11 学校法人千葉工業大学 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
JP6489566B2 (ja) * 2016-01-20 2019-03-27 三菱電機株式会社 3次元計測装置及びその計測支援処理方法
USD857072S1 (en) * 2016-01-22 2019-08-20 Symbotic, LLC Automated guided vehicle
JP7035300B2 (ja) 2016-03-15 2022-03-15 アクチエボラゲット エレクトロルックス ロボット清掃デバイス、ロボット清掃デバイスにおける、断崖検出を遂行する方法、コンピュータプログラム、およびコンピュータプログラム製品
DE112017001573B4 (de) * 2016-03-28 2020-01-30 Groove X, Inc. Autonom agierender Roboter, der eine Begrüssungsaktion durchführt
CN105865451B (zh) * 2016-04-19 2019-10-01 深圳市神州云海智能科技有限公司 用于移动机器人室内定位的方法和设备
CN109068908B (zh) 2016-05-11 2021-05-11 伊莱克斯公司 机器人清洁设备
EP3508049B1 (en) 2016-06-30 2022-08-24 Techtronic Outdoor Products Technology Limited An autonomous lawn mower
US11172608B2 (en) 2016-06-30 2021-11-16 Tti (Macao Commercial Offshore) Limited Autonomous lawn mower and a system for navigating thereof
CN106217385A (zh) * 2016-07-19 2016-12-14 东莞市优陌儿智护电子科技有限公司 三马达陪护机器人
JP6392817B2 (ja) * 2016-08-04 2018-09-19 ファナック株式会社 シミュレーション装置
US10210603B2 (en) * 2016-10-17 2019-02-19 Conduent Business Services Llc Store shelf imaging system and method
KR102567525B1 (ko) * 2016-11-17 2023-08-16 삼성전자주식회사 이동 로봇 시스템, 이동 로봇 및 이동 로봇 시스템의 제어 방법
CN106647409B (zh) * 2016-12-30 2018-12-21 华南智能机器人创新研究院 一种定位控制工业机器人作业的方法及系统
USD871475S1 (en) * 2017-02-17 2019-12-31 Safelog Gmbh Automated guided vehicle
US11862302B2 (en) 2017-04-24 2024-01-02 Teladoc Health, Inc. Automated transcription and documentation of tele-health encounters
JP2018185240A (ja) * 2017-04-26 2018-11-22 大成建設株式会社 位置特定装置
CN107030711A (zh) * 2017-04-27 2017-08-11 陆兴华 一种新型送餐机器人
KR20200013657A (ko) 2017-06-02 2020-02-07 에이비 엘렉트로룩스 로봇 청소 장치 전방의 표면의 레벨차를 검출하는 방법
US10425622B2 (en) 2017-07-18 2019-09-24 The United States Of America As Represented By The Secretary Of The Army Method of generating a predictive display for tele-operation of a remotely-operated ground vehicle
CN107515606A (zh) * 2017-07-20 2017-12-26 北京格灵深瞳信息技术有限公司 机器人实现方法、控制方法及机器人、电子设备
US10483007B2 (en) 2017-07-25 2019-11-19 Intouch Technologies, Inc. Modular telehealth cart with thermal imaging and touch screen user interface
CN108712946B (zh) * 2017-08-23 2021-11-09 深圳蓝胖子机器智能有限公司 货物摆放方法、装置、系统以及电子设备和可读存储介质
US11636944B2 (en) 2017-08-25 2023-04-25 Teladoc Health, Inc. Connectivity infrastructure for a telehealth platform
JP6989210B2 (ja) 2017-09-26 2022-01-05 アクチエボラゲット エレクトロルックス ロボット清掃デバイスの移動の制御
JP7353747B2 (ja) * 2018-01-12 2023-10-02 キヤノン株式会社 情報処理装置、システム、方法、およびプログラム
JP6638753B2 (ja) * 2018-03-19 2020-01-29 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
US10617299B2 (en) 2018-04-27 2020-04-14 Intouch Technologies, Inc. Telehealth cart that supports a removable tablet with seamless audio/video switching
CN108772841A (zh) * 2018-05-30 2018-11-09 深圳市创艺工业技术有限公司 一种智能巡逻机器人
KR20190141303A (ko) * 2018-06-14 2019-12-24 엘지전자 주식회사 이동 로봇의 동작 방법
JP2020005146A (ja) * 2018-06-28 2020-01-09 株式会社リコー 出力制御装置、表示端末、情報処理装置、移動体、遠隔制御システム、出力制御方法、プログラムおよび撮影制御装置
US10940851B2 (en) * 2018-12-12 2021-03-09 Waymo Llc Determining wheel slippage on self driving vehicle
JP7234724B2 (ja) * 2019-03-20 2023-03-08 株式会社リコー ロボットおよび制御システム
CN112017239B (zh) * 2019-05-31 2022-12-20 北京市商汤科技开发有限公司 确定目标对象朝向方法、智能驾驶控制方法和装置及设备
EP3984000A4 (en) * 2019-06-12 2023-06-28 Boom Interactive, Inc. Data serialization extrusion for converting two-dimensional images to three-dimensional geometry
SE545284C2 (en) * 2019-12-12 2023-06-20 Husqvarna Ab Exit path determination for a robotic work tool
CN111123953B (zh) * 2020-01-09 2022-11-01 重庆弘玑隆程科技有限公司 人工智能大数据下粒子化移动机器人组及其控制方法
CN111307165B (zh) * 2020-03-06 2021-11-23 新石器慧通(北京)科技有限公司 一种车辆的定位方法、定位系统及无人车辆
CN113885485B (zh) * 2020-06-17 2023-12-22 苏州科瓴精密机械科技有限公司 机器人行走控制方法、系统,机器人及存储介质
CN111938513B (zh) * 2020-06-30 2021-11-09 珠海市一微半导体有限公司 一种机器人越障的沿边路径选择方法、芯片及机器人
JP7538647B2 (ja) * 2020-07-27 2024-08-22 キヤノン株式会社 視線位置処理装置、撮像装置、学習装置、視線位置処理方法、学習方法、及びプログラム
CN117245672B (zh) * 2023-11-20 2024-02-02 南昌工控机器人有限公司 摄像头支架模块化装配的智能运动控制系统及其方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050114312A (ko) * 2004-06-01 2005-12-06 안희태 초음파위성을 이용한 청소로봇

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2861014B2 (ja) * 1989-01-18 1999-02-24 株式会社デンソー 物体認識装置
US5307419A (en) * 1990-11-30 1994-04-26 Honda Giken Kogyo Kabushiki Kaisha Control device of an autonomously moving body and evaluation method for data thereof
JP3176701B2 (ja) * 1992-04-15 2001-06-18 本田技研工業株式会社 移動体の現在位置認識処理装置
JPH06259131A (ja) * 1993-03-09 1994-09-16 Olympus Optical Co Ltd 移動ロボットの誘導制御装置
US5525883A (en) * 1994-07-08 1996-06-11 Sara Avitzour Mobile robot location determination employing error-correcting distributed landmarks
JPH0953939A (ja) * 1995-08-18 1997-02-25 Fujitsu Ltd 自走車の自己位置測定装置および自己位置測定方法
EP1145086B1 (de) * 1998-07-08 2004-11-17 Siemens Aktiengesellschaft Verfahren und anordnung zur ermittlung eines ähnlichkeitsmasses einer ersten struktur mit mindestens einer vorgegebenen zweiten struktur
US7366595B1 (en) * 1999-06-25 2008-04-29 Seiko Epson Corporation Vehicle drive assist system
US20020169586A1 (en) * 2001-03-20 2002-11-14 Rankin James Stewart Automated CAD guided sensor planning process
JP2004012429A (ja) * 2002-06-11 2004-01-15 Mitsubishi Heavy Ind Ltd 自己位置/姿勢同定装置、及び自己位置/姿勢同定方法
JPWO2004102222A1 (ja) * 2003-05-13 2006-07-13 富士通株式会社 物体検出装置、物体検出方法、物体検出プログラム、距離センサ
JP4264380B2 (ja) * 2004-04-28 2009-05-13 三菱重工業株式会社 自己位置同定方法及び該装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050114312A (ko) * 2004-06-01 2005-12-06 안희태 초음파위성을 이용한 청소로봇

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101100827B1 (ko) * 2009-11-30 2012-01-02 한국생산기술연구원 도로주행 로봇의 자기 위치 인식방법

Also Published As

Publication number Publication date
JP2007316966A (ja) 2007-12-06
CN101078632A (zh) 2007-11-28
EP1860515A2 (en) 2007-11-28
US20070276541A1 (en) 2007-11-29
KR20070113939A (ko) 2007-11-29
EP1860515A3 (en) 2011-05-11

Similar Documents

Publication Publication Date Title
KR100801527B1 (ko) 이동 로봇, 그 제어 방법 및 프로그램을 기록한 컴퓨터로판독 가능한 기록 매체
US10268201B2 (en) Vehicle automated parking system and method
KR102220564B1 (ko) 멀티 센서를 이용하여 위치를 추정하는 방법 및 이를구현하는 로봇
CN110275540A (zh) 用于扫地机器人的语义导航方法及其系统
JP4798450B2 (ja) ナビゲーション装置とその制御方法
JP2019028843A (ja) 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
JP2009169845A (ja) 自律移動ロボット及び地図更新方法
JP2012075060A (ja) 画像処理装置及びそれを用いた撮像装置
JP5064313B2 (ja) 携帯情報端末
EP4050449A1 (en) Method and device for robot positioning, smart robot, and storage medium
CN108481327A (zh) 一种增强视觉的定位装置、定位方法及机器人
JP4042517B2 (ja) 移動体およびその位置検出装置
CN110119138A (zh) 用于自动驾驶车辆的自定位方法、系统和机器可读介质
JP6609588B2 (ja) 自律型モビリティシステムおよび自律型モビリティの制御方法
CN111993383A (zh) 服务器硬盘自动更换机器人及服务器硬盘自动更换方法
CN118258406B (zh) 一种基于视觉语言模型的自动导引车导航方法及装置
JP2017120551A (ja) 自律走行装置
KR20110060315A (ko) 도로주행 로봇의 자기 위치 인식방법
JP5169273B2 (ja) 移動ロボットの制御装置および移動ロボットシステム
CN111176305A (zh) 一种视觉导航方法
KR101707878B1 (ko) 복수의 영상 및 보행자 추측 항법 기술을 이용한 사용자 위치 추정 장치 및 그 방법
EP3795952A1 (en) Estimation device, estimation method, and computer program product
CN113537100B (zh) 一种车辆辅助驾驶系统、车道线时空拟合的系统和方法、fpga芯片
JP4046186B2 (ja) 自己位置計測方法及び装置
JP2009159241A (ja) 駐車時停止支援システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee