JP2004098233A - Autonomous mobile robot - Google Patents

Autonomous mobile robot Download PDF

Info

Publication number
JP2004098233A
JP2004098233A JP2002264808A JP2002264808A JP2004098233A JP 2004098233 A JP2004098233 A JP 2004098233A JP 2002264808 A JP2002264808 A JP 2002264808A JP 2002264808 A JP2002264808 A JP 2002264808A JP 2004098233 A JP2004098233 A JP 2004098233A
Authority
JP
Japan
Prior art keywords
moving
travel
robot
movement
autonomous mobile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002264808A
Other languages
Japanese (ja)
Inventor
Shinichi Yamamoto
山本 真一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2002264808A priority Critical patent/JP2004098233A/en
Publication of JP2004098233A publication Critical patent/JP2004098233A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an autonomous mobile robot which determines an optimum moving route. <P>SOLUTION: This autonomous mobile robot 1 is provided with designation means 30 and 40 for designating a moving start point and a moving end point, a retrieval means 50 for retrieving a plurality of moving routes from the moving start point to the moving end point, a calculation means 50 for calculating at least one of moving cost and moving time required for each of the plurality of moving routes, a determination means 50 for determining one of the plurality of moving routes as an optimum moving route based on at least one of the moving cost and moving time required for each of the plurality of moving routes, a moving means 170 for making the autonomous mobile robot 1 movable, and control means 50, 120 and 130 for controlling the moving means 170 to move the autonomous mobile robot 1 along an optimum moving route. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、自律的に移動することが可能な自律移動ロボットに関する。
【0002】
【従来の技術】
近年、人と共存する環境で人間の制御によらず自律的に移動する自律移動ロボットの研究開発がさかんに行われ、実用化も進んでいる。自律移動ロボットは、様々な役割を果たすものとして期待されている。例えば、自律移動ロボットを工場内の無人搬送車として用いたり、プラントの保守点検に応用したり、福祉施設において介護者を追走し荷物運搬などの作業補助を行うために用いたり、さらには盲導犬の代役として用いたりすることなどが期待されている。
【0003】
また、自律移動ロボットの移動を制御する方式(ナビゲーション方式)としては、出発地点から目標地点までの地図上の経路を用いた方式(例えば、非特許文献1を参照)、視覚センサよる走行環境の認識結果からロボット動作経路を生成し、ロボット動作経路と視覚センサからの情報とに基づく走行指令に従う方式(例えば、特許文献1を参照)、ICタグを用いた方式、ライン・ランドマークをトレースしながら移動する視覚システム方式などが知られている。
【0004】
自律移動ロボットは、上述したナビゲーション方式に従って、屋内環境(工場内や病院内など)において移動したり、屋外環境(一般道路など)において移動したりする。
【0005】
【特許文献1】
特開平9−267276号公報
【非特許文献1】
日本ロボット学会誌(October 1987,Vol.5 No.5 PP.19−28)
【0006】
【発明が解決しようとする課題】
しかし、従来の自律移動ロボットは出発地点から目標地点までの移動を自律的に行うことができるものの、自律移動ロボットに屋外環境において人間に貢献する行動をとらせる場合を想定して、自律移動ロボットの行動計画において移動ルートの決定を移動コスト・移動時間の観点から行うことは未だ考慮されていなかった。その結果、自律移動ロボットが移動コストの高いまたは移動時間の長い移動ルートを移動することが多くなり、経済的に無駄であった。
【0007】
そこで、本発明者は、自律移動ロボット自らが移動する場合においても移動コストが発生しているという事実に鑑み、自律移動ロボット自身の移動コストや公共の交通手段を利用した移動コストなどの各種移動コストや移動時間を考慮した総合的判断に基づいて移動ルートを決定することを考えた。
【0008】
従って、本発明の目的は、複数の移動ルートのそれぞれに必要な移動コストおよび移動時間のうちの少なくとも一方に基づいて、最適な移動ルートを決定することを可能にする自律移動ロボットを提供することにある。
【0009】
【課題を解決するための手段】
本発明の自律移動ロボットは、移動開始地点と移動終了地点とを指定する指定手段と、前記移動開始地点から前記移動終了地点に至る複数の移動ルートを検索する検索手段と、前記複数の移動ルートのそれぞれに必要な移動コストおよび移動時間のうちの少なくとも一方を算出する算出手段と、前記複数の移動ルートのそれぞれに必要な移動コストおよび移動時間のうちの少なくとも一方に基づいて、前記複数の移動ルートのうちの1つを最適な移動ルートとして決定する決定手段と、自律移動ロボットが移動することを可能にする移動手段と、前記最適な移動ルートに沿って前記自律移動ロボットが移動するように前記移動手段を制御する制御手段とを備えており、これにより、上記目的が達成される。
【0010】
前記算出手段は、道路の傾斜の度合いを考慮して前記移動コストを算出してもよい。
【0011】
前記算出手段は、前記移動コストおよび前記移動時間を算出し、前記移動コストおよび前記移動時間に基づいて、前記最適な移動ルートを決定してもよい。
【0012】
前記複数の移動ルートは、交通手段を利用する移動ルートと、前記自律移動ロボットによる移動のみの移動ルートとを含んでいてもよい。
【0013】
前記交通手段を利用する移動ルートに必要な移動コストは、前記交通手段の運賃と、前記自律移動ロボットによる移動に必要な移動コストとを含んでいてもよい。
【0014】
前記交通手段の運賃に関する情報をネットワーク経由で取得する取得手段をさらに備えていてもよい。
【0015】
前記複数の移動ルートのうちの少なくとも1つは、エネルギー供給場所を中継した移動ルートであってもよい。
【0016】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施の形態を説明する。
【0017】
図1は、本発明の実施の形態の自律移動ロボットの一例としてのロボット1の外観を示す。
【0018】
ロボット1は、自らが移動することを可能にする移動部170を有している。
【0019】
移動部170のメカニズムとしては任意のメカニズムを採用することができる。例えば、移動部170が手足に設置されたローラ172を含む場合には、ローラ172の回転を制御することにより、ロボット1は、前進、後退、坂道の上り下りなどの動作を行うことが可能になる。あるいは、ロボット1は、タイヤ式や脚式などの移動式ロボットでもよい。ロボット1は、人のような二足直立歩行を行う動物を模倣した人間型ロボットでもよいし、4足歩行の動物を模倣したペット型ロボットでもよい。
【0020】
ロボット1は、「目」に相当するカメラ10と、「口」に相当するスピーカ110(音声インターフェース)およびアンテナ62(通信インターフェース)と、「耳」に相当するマイク30(音声インターフェース)およびアンテナ62(通信インタフェース)と、「首」や「腕」に相当する可動部180とを有していることが好ましい。
【0021】
また、ロボット1は、超音波センサなどの距離センサ80を有していてもよい。距離センサ80は、例えば、ロボット1の正面に設置される。距離センサ80を用いてロボット1の移動経路上にある障害物までの距離を測定することにより、ロボット1はその障害物を避けて移動することが可能になる。
【0022】
ロボット1には、エネルギー供給口92が設けられている。例えば、ロボット1の電源部が燃料電池(例えば、固体高分子型の燃料電池)である場合には、エネルギー供給口92を介して燃料となるエタノールがロボット1に供給される。
【0023】
図2は、ロボット1の内部構成を示す。
【0024】
画像認識部20は、カメラ10(画像入力部)から画像を取り込み、その取り込んだ画像を認識し、その認識結果を処理部50に出力する。
【0025】
音声認識部40は、マイク30(音声入力部)から音声を取り込み、その取り込んだ音声を認識し、その認識結果を処理部50に出力する。
【0026】
例えば、ロボット1の所有者は、ロボット1に音声で指示を出すものと仮定する。音声による指示は、音声入力部30に入力される。音声による指示は、「北緯○○東経○○の地点から北緯××東経××の地点に移動しなさい」というように移動開始地点の座標と移動終了地点の座標とを明示するタイプの指示であってもよいし、「△△という場所に移動に移動しなさい」というように移動開始地点の座標と移動終了地点の座標とを明示しないタイプの指示であってもよい。音声認識部40は、音声入力部30に入力された音声による指示を解析することにより、移動開始地点と移動終了地点とを認識する。例えば、音声による指示が「北緯○○東経○○の地点から北緯××東経××の地点に移動しなさい」という指示である場合には、音声認識部40は、(移動開始地点=北緯○○東経○○の地点、移動終了地点=北緯××東経××の地点)と認識する。例えば、音声による指示が「○○という場所に移動に移動しなさい」という指示である場合には、音声認識部40は、(移動開始地点=現在地(すなわち、北緯○○東経○○の地点)、移動終了地点=△△という場所(すなわち、北緯××東経××の地点))と認識する。現在地の座標が北緯○○東経○○であることは、例えば、後述する位置検出部70の出力を参照することにより認識され得る。△△という場所の座標が北緯××東経××であることは、例えば、後述する地図データベース150を参照することにより認識され得る。
【0027】
このように、音声入力部30と音声認識部40とを用いて、移動開始地点と移動終了地点とを指定することができる。この場合には、音声入力部30と音声認識部40とが移動開始地点と移動終了地点とを指定する指定手段として機能することになる。
【0028】
もちろん、移動開始地点と移動終了地点とを指定する方法が、上述した音声を用いた方法に限定されるわけではない。音声以外の任意の情報を用いて、移動開始地点と移動終了地点とを指定するようにしてもよい。例えば、画像を用いて移動開始地点と移動終了地点とを指定するようにしてもよい。この場合には、画像入力手段10と画像認識手段20とが移動開始地点と移動終了地点とを指定する指定手段として機能することになる。あるいは、ロボット1が文字を入力する文字入力手段(図示せず)をさらに備えている場合には、文字を用いて移動開始地点と移動終了地点とを指定するようにしてもよい。この場合には、文字入力手段が移動開始地点と移動終了地点とを指定する指定手段として機能することになる。
【0029】
処理部50は、移動開始地点から移動終了地点に至る複数の移動ルートを検索し、その複数の移動ルートのそれぞれに必要な移動コストおよび移動時間のうちの少なくとも一方を算出し、その複数の移動ルートのそれぞれに必要な移動コストおよび移動時間のうちの少なくとも一方に基づいてその複数の移動ルートのうちの1つを最適な移動ルートとして決定する。処理部50は、その複数の移動ルートのそれぞれに必要な移動コストのみに基づいて最適な移動ルートを決定してもよいし、その複数の移動ルートのそれぞれに必要な移動時間のみに基づいて最適な移動ルートを決定してもよいし、移動コストおよび移動時間の両方に基づいて最適な移動ルートを決定してもよい。
【0030】
このように、処理部50は、移動開始地点から移動終了地点に至る複数の移動ルートを検索する検索手段と、その複数の移動ルートのそれぞれに必要な移動コストおよび移動時間のうちの少なくとも一方を算出する算出手段と、その複数の移動ルートのそれぞれに必要な移動コストおよび移動時間のうちの少なくとも一方に基づいてその複数の移動ルートのうちの1つを最適な移動ルートとして決定する決定手段として機能することができる。処理部50は、例えば、プログラムを格納するメモリ52と、そのメモリ52に格納されたプログラムを実行するCPU54とを含む。この場合、処理部50の機能および動作は、CPU54がメモリ52に格納されたプログラムを実行することによって実現される。
【0031】
さらに、処理部50は、最適な移動ルートに沿ってロボット1が移動するように動作制御部120を制御する。例えば、処理部50は、位置検出部70によって検出されたロボット1の現在位置と最適な移動ルートとの距離が所定の距離以下となるように制御信号を生成し、その制御信号を動作制御部120に出力する。ロボット1の現在位置と最適な移動ルートとの距離は、例えば、後述する地図データベース150を参照することにより認識され得る。ロボット1の現在位置と最適な移動ルートとは、いずれも、地図データベース150に格納されている地図情報の上にプロットされ得るからである。
【0032】
動作制御部120は、処理部50から出力される制御信号に応じて各種のアクチュエータ130を駆動する。例えば、ロボット1が移動することを可能にする移動部170がローラ172を含む場合には、アクチュエータ130は、ローラ172の回転を制御するモータ174を含む。この場合、動作制御部120は、処理部50から出力される制御信号に応じてローラ172の回転を制御するモータ174を駆動する。これにより、ロボット1は、前進、後退、右転舵、左転舵などの動作を行うことが可能になる。
【0033】
このように、処理部50と動作制御部120とアクチュエータ130とは、最適な移動ルートに沿ってロボット1が移動するように移動部170を制御する制御手段として機能する。また、移動部170は、ロボット1が移動することを可能にする移動手段として機能する。
【0034】
地図データベース150には、地図情報が格納されている。地図情報は、特定の地域の地図を表すものであってもよいし、世界地図を表すものであってもよい。地図情報には、道路情報や、公共の交通手段の情報や、建物の所在地情報などの各種情報が含まれている。位置検出部70は、ロボット1の現在位置を検出する。位置検出部70は、例えば、GPS(Grobal Positioning System)を用いて実現することができる。
【0035】
なお、処理部50は、音声認識した結果に基づいて対話を理解する機能や、対話データベース140を検索して応答文を生成する機能を有していてもよい。さらに、この応答文を音声合成部100に出力するようにし、音声合成部100によって合成された音声をスピーカなどの音声出力部110から出力するようにしてもよい。
【0036】
対話データベース140には、対話のパターンや応答文の生成規則が格納されている。
【0037】
情報データベース160には、今日の天気やニュースなどの情報や、各種一般常識などの知識や、ロボット1の所有者に関する情報(例えば、性別、年齢、名前、職業、性格、趣味、生年月日などの情報)や、ロボット1に関する情報(例えば、型番、内部構成などの情報)が格納されている。今日の天気やニュースなどの情報は、例えば、ロボット1の外部から送受信部60(通信部)および処理部50を介して取得され、情報データベース160に格納される。ロボット1は、対話型のエージェントであってもよい。
【0038】
電源部90は、ロボット1の外部からエネルギー供給口92を介してエネルギーの供給を受けることができるように構成されている。電源部90は、ロボット1の各部に電力を供給する。電源部90は、例えば、燃料電池(例えば、固体高分子型の燃料電池)であってもよいし、充電式のバッテリであってもよい。
【0039】
図3は、移動開始地点から移動終了地点に至る複数の移動ルートのうちの1つを最適な移動ルートとして決定する処理の手順を示す。この処理は、例えば、プログラムの形式で処理部50内のメモリ52に格納され得る。この処理は、例えば、処理部50内のCPU54によって実行され得る。
【0040】
ここでは、ロボット1が、ロボット1の部品(例えば、CCD)の取り替えのためにロボット部品販売店まで出かける場合を例にとり、その処理の手順を説明する。
【0041】
ステップST1:移動開始地点と移動終了地点とが指定される。例えば、ロボット1の所有者が「部品の取り替えのためにロボット部品販売店まで出かけなさい」という指示を音声でロボット1に出したと仮定する。この場合、音声認識部40は、音声入力部30によって入力された音声を分析することにより、移動開始地点と移動終了地点とを認識する。この例では、移動開始地点は現在地であり、移動終了地点はロボット部品販売店である。ここで、音声認識の手法は問わない。音声認識部40は、音声認識結果(すなわち、移動開始地点および移動終了地点)を処理部50に出力する。
【0042】
ステップST2:処理部50は、移動開始地点から移動終了地点に至る複数の移動ルートを検索する。
【0043】
図4は、地図情報を用いて移動開始地点から移動終了地点に至る複数の移動ルートを検索した結果を示す。地図情報は、地図データベース150に格納されている。図4に示される例は、移動開始地点から移動終了地点に至る複数の移動ルートとして、3つの移動ルートR1、R2、R3が検索された例を示している。移動ルートR1は、ロボット1が交通手段を利用する移動ルート(すなわち、ロボット1が移動開始地点からA駅まで走行し、A駅からB駅まで鉄道を利用し、B駅から移動終了地点まで走行する移動ルート)を示す。移動ルートR2、R3は、いずれも、ロボット1が交通手段を利用しない移動ルート(すなわち、ロボット1が移動開始地点から移動終了地点まで走行する移動ルート)を示す。
【0044】
なお、移動開始地点から移動終了地点に至る複数のルートを検索するために地図情報を用いることは必須ではない。例えば、移動開始地点と移動終了地点との組み合わせが予め決められており、その組み合わせに対応する複数の移動ルートが予め決められている場合には、地図情報を参照することなく、移動開始地点と移動終了地点とに対応する複数の移動ルートを検索することができる。
【0045】
ステップST3:処理部50は、ステップST2で検索された複数の移動ルートのそれぞれについて、移動コストおよび移動時間のうちの少なくとも一方を算出する。
【0046】
図4に示される例では、移動ルートR1に沿ってロボット1が移動開始地点(現在地)から移動終了地点(目的地)まで移動するのに必要な移動コストは、230円と算出される。ロボット1が移動開始地点(現在地)からA駅まで自分自身で移動するのに必要な移動コスト(20円)と、ロボット1がA駅からB駅まで鉄道を利用して移動するのに必要な移動コスト(すなわち、A駅からB駅までの鉄道の運賃)(200円)と、ロボット1がB駅から移動終了地点(目的地)まで自分自身で移動するのに必要な移動コスト(10円)との合計が230円だからである。なお、鉄道などの公共の交通手段の運賃は、ネットワーク経由で取得することが可能である。例えば、処理部50は、ネットワーク経由でアンテナ62、送受信部60を介して交通手段の運賃を取得する取得手段として機能し得る。
【0047】
同様に、移動ルートR2に沿ってロボット1が移動開始地点(現在地)から移動終了地点(目的地)まで移動するのに必要な移動コストは、200円と算出され、移動ルートR3に沿ってロボット1が移動開始地点(現在地)から移動終了地点(目的地)まで移動するのに必要な移動コストは、300円と算出される。
【0048】
ロボット1が第1の地点から第2の地点まで自分自身で移動するのに必要な移動コストは、(数1)に従って算出される。
【0049】
【数1】
移動コストC=Σi=1 N *(L/E)*k
ここで、Lは第1の地点から第2の地点までをN個の区間に分割したときの第i番目の区間の距離を示し、Eは単位エネルギー量あたりロボット1が移動可能な距離(燃費)を示し、kは単位エネルギー量あたりの移動コスト(エネルギー単価)を示し、aは第i番目の区間の傾斜係数を示す。例えば、Lの単位はkm、Eの単位はkm/l、kの単位は円/lである。ここで、i=1、2、・・・、Nである。Nは1以上の任意の整数である。
【0050】
なお、本明細書では、「Σi=1 N 」という表記は、「X+X+・・・X」という表記と同義であるとする。ここで、Xは任意の記号である。
【0051】
例えば、ロボット1の電源部90が燃料電池である場合には、エネルギー単価は燃料(例えば、エタノール)の単価である。ロボット1の電源部90が充電式のバッテリである場合には、エネルギー単価は電気エネルギーの給電単価である。
【0052】
傾斜係数aは、道路が平坦な場合には1に設定されており、道路が上り坂である場合にはその道路の傾斜の度合いに応じて1<a<10の範囲に設定されており、道路が下り坂である場合にはその道路の傾斜の度合いに応じて0.1<a<1の範囲に設定されている。
【0053】
図5は、傾斜係数aと道路の傾斜の度合いとの関係を示す。図5の(a)は道路が平坦な場合にはa=1であることを示し、図5の(b)は道路が上り坂である場合には1<a<10であることを示し、図5(c)は道路が下り坂である場合には0.1<a<1であることを示す。
【0054】
図4に示される例では、移動ルートR2の方が移動ルートR3に比べて移動距離L(=L+L+・・・+L)が長いにもかかわらず、移動コストCは小さい。これは、移動ルートR2の道路は平坦であるのに対し、移動ルートR3の道路の傾斜の度合いが大きいからである。
【0055】
燃費Eとエネルギー単価kとは、例えば、情報データベース160に格納されている。傾斜係数aは、例えば、地図データベース150に格納されている。
【0056】
図6は、地図データベース150に格納されている傾斜係数a、a、aの一例を示す。
【0057】
図6に示される例では、県道○○号線(上り)の道路は、3つの区間(第1の区間p1<p<p2、第2の区間p2<p<p3、第3の区間p3<p<p4)に分割されており、第1の区間では傾斜係数aが1に設定されており(a=1)、第2の区間では傾斜係数aが7に設定されており(a=7)、第3の区間では傾斜係数aが0.3に設定されている(a=0.3)。このように、傾斜係数a、a、aを用いることにより、県道○○号線(上り)の道路が平坦な状態から上りの状態にかわり、その後、上りの状態から下りの状態にかわることを表現することができる。
【0058】
県道○○号線(下り)の道路の状態は、県道○○号線(上り)の道路の状態の逆であることが分かる。従って、県道○○号線(下り)の道路の傾斜係数をb、県道○○号線(上り)の道路の傾斜係数をaとすると、b=1/aとなる。すなわち、県道○○号線(下り)の道路については、第1の区間では傾斜係数bが1に設定されており(b=1)、第2の区間では傾斜係数bが1/7に設定されており(b=1/7)、第3の区間では傾斜係数bが1/0.3に設定されている(b=1/0.3)。
【0059】
県道○○号線(上り)の道路の傾斜係数aを地図データベース150に格納しておけば、県道○○号線(下り)の道路の傾斜係数bを地図データベース150格納しておく必要はない。b=1/aによりbの値を計算で求めることができるからである。これにより、傾斜係数を格納するために必要な地図データベース150の容量を節約することができる。
【0060】
図4に示される例では、移動ルートR1に沿ってロボット1が移動開始地点(現在地)から移動終了地点(目的地)まで移動するのに必要な移動時間(推定移動時間)は30分と算出される。同様に、移動ルートR2に沿った推定移動時間は1時間と算出され、移動ルートR3に沿った推定移動時間は1時間と算出される。
【0061】
ロボット1が第1の地点から第2の地点まで自分自身で移動するのに必要な移動時間(推定移動時間)は、(数2)に従って算出される。
【0062】
【数2】
移動時間T=Σi=1 N *d*(L/V)+MT
ここで、Lは第1の地点から第2の地点までをN個の区間に分割したときの第i番目の区間の距離を示し、Vはロボット1の平均移動速度を示し、MTは交通手段を利用した時の移動時間と交通手段を利用する際に予想される待ち時間との合計を示し、dは定数を示し、aは第i番目の区間の傾斜係数を示す。例えば、Lの単位はkm、Vの単位はkm/h、MTの単位はhである。ここで、i=1、2、・・・、Nである。Nは1以上の任意の整数である。
【0063】
ステップST4:処理部50は、ステップST3において算出された移動コストおよび移動時間のうちの少なくとも一方に基づいて、複数の移動ルートのうちの1つを最適な移動ルートとして決定する。
【0064】
処理部50は、ステップST3において算出された移動コストのみに基づいて最適な移動ルートを決定してもよい。この場合、処理部50は、例えば、移動コストが最も小さい移動ルートを最適な移動ルートとして決定する。図4に示される例では、移動ルートR2が最適な移動ルートとして決定される。移動ルートR2の移動コスト(200円)が移動ルートR1〜R3の中では最小だからである。
【0065】
あるいは、処理部50は、ステップST3において算出された移動時間のみに基づいて最適な移動ルートを決定してもよい。この場合、処理部50は、例えば、移動時間が最も短い移動ルートを最適な移動ルートとして決定する。図4に示される例では、移動ルートR1が最適な移動ルートとして決定される。移動ルートR1の移動時間(30分)が移動ルートR1〜R3の中では最小だからである。
【0066】
あるいは、処理部50は、ステップST3において算出された移動コストおよび移動時間の両方に基づいて最適な移動ルートを決定してもよい。この場合、処理部50は、様々な方式に従って最適な移動ルートを決定し得る。例えば、処理部50は、移動コストを第1優先(または、第2優先)の評価基準として用い、移動時間を第2優先(または、第1優先)の評価基準として用いる優先方式に従って最適な移動ルートを決定してもよいし、移動コストの評価点と移動時間の評価点の合計を評価基準として用いる評価点方式に従って最適な移動ルートを決定してもよいし、移動コストの評価点が基準点以下のものと移動時間の評価点が基準点以下のものとを排除する排除方式に従って最適な移動ルートを決定してもよいし、これらの方式を適宜組み合わせて最適な移動ルートを決定してもよい。
【0067】
なお、ステップST4において、ステップST3において算出された移動コストのみに基づいて最適な移動ルートを決定する場合には、ステップST3において移動時間の算出を省略することができる。ステップST4において、ステップST3において算出された移動時間のみに基づいて最適な移動ルートを決定する場合には、ステップST3において移動コストの算出を省略することができる。これにより、処理部50が無駄な計算を行うことを省くことが可能になる。
【0068】
以上のように、本実施の形態によれば、複数の移動ルートのそれぞれに必要な移動コストおよび移動時間のうちの少なくとも1つに基づいて、その複数の移動ルートのうちの1つが最適な移動ルートとして決定される。これにより、ロボット1の所有者の意図を反映させた状態で移動ルートを決定することが可能になる。
【0069】
なお、上述した実施の形態では、ロボット1が、自分自身の部品(例えば、CCD)の取り替えのためにロボット部品販売店まで出かける場合を例にとり説明したが、これに限定されない。本発明によれば、犬の散歩、買い物などの各種の”お使い”(用事)をロボット1に行わせることが可能にある。
【0070】
図7は、最適な移動ルートを決定する処理(図3)の変形例の処理の手順を示す。この処理は、移動開始地点から移動終了地点までロボット1が移動する途中でロボット1にエネルギーを補給することを考慮したものである。
【0071】
図7のステップST61、ST62、ST63、ST65は、それぞれ、図3のステップST1、ST2、ST3、ST4と同一である。従って、ここでは詳しい説明を省略する。
【0072】
ステップST64:処理部50は、ステップST62において検索された複数の移動ルートのすべてについて、ロボット1が目的地に達するのに必要な片道分の燃料F(または、目的地に達して現在地まで戻るのに必要な往復分の燃料2F)を現在、ロボット1が備えているかを判定する。このような判定は、(数3)を満足しているか否かを判定することにより行うことができる。(数3)を満足している場合には、処理はステップST65に進み、(数3)を満足していない場合には、処理はステップST66に進む。
【0073】
【数3】
燃料F>Σi=1 N *(L/E)
ステップST66:処理部50は、ステップST62において検索された複数の移動ルートから最寄りのエネルギー供給場所を求め、そのエネルギー供給場所まで残存燃料で移動することができるか否かを判定する。この判定も、(数3)を満足しているか否かを判定することにより行うことができる。(数3)を満足している場合には、処理はステップST67に進み、(数3)を満足していない場合には、処理はステップST69に進む。
【0074】
ステップST67:エネルギー供給場所にロボット1が移動することができる場合に、このステップが実行される。処理部50は、ステップST62において検索された複数の移動ルートのうち、ステップST64において(数3)を満足しないと判定された移動ルートに対してその移動ルートの最寄りのエネルギー供給場所まで一旦、所定の移動ルートをはずれてエネルギー補給を行い、その後、所定の移動ルートに戻る移動ルートと移動コストとを再計算する。
【0075】
なお、「エネルギー供給場所」とは、ロボット1の電源部90が燃料電池である場合には、その燃料電池の燃料(例えば、エタノール)を供給するための場所(燃料供給場所)をいい、ロボット1の電源部90が充電式のバッテリである場合には、そのバッテリを充電するための場所(充電ステーション)をいうものとする。
【0076】
ステップST68:処理部50は、ステップST62の移動ルートをステップST67で再計算された移動ルートに置き換えることにより得られた複数の移動ルートのうち、所定の条件に適合する移動ルートを最適な移動ルートとして決定する。
【0077】
ステップST69:エネルギー供給場所にロボット1が移動することができない場合に、このステップが実行される。この場合、ロボット1は、所有者の”お使い”をすることができないことになる。その結果、ロボット1は、”お使い”を取りやめる旨を所有者に知らせる。
【0078】
図8は、エネルギー補給のために移動ルートを離れ、エネルギー補給後に再度移動ルートに戻る移動ルートを示す。図8に示される移動ルートR1’、R2’、R3’は、図4に示される移動ルートR1、R2、R3をエネルギー供給場所を中継するように変更したものである。
【0079】
なお、複数の移動ルートが検索された後にエネルギー残量を考慮してその検索された複数の移動ルートを必要に応じてエネルギー供給場所を中継するように変更する代わりに、エネルギー残量を考慮して複数の移動ルートを検索するようにしてもよい。
【0080】
なお、図7に示される処理は、エネルギー供給場所の数が比較的少ない場合(例えば、エネルギー供給場所がほぼ1kmおきに設置されているような場合)に好適である。一方、エネルギー供給場所の数が比較的多い場合(例えば、エネルギー供給場所がほぼ100mおきに設置されているような場合)には、図7に示される処理は特に必要とされない。この場合には、ロボット1がエネルギー残量を計測し、その量が所定量以下になったときに最寄のエネルギー供給場所に向かうようにすれば足りるからである。また、ロボット1がエネルギー補給用のカートリッジを持ち運んでいる場合には、図7に示される処理は不要である。エネルギー補給用のカートリッジから適時にエネルギーを補給することができるからである。
【0081】
なお、本実施の形態では、燃料電池の燃料を液体燃料(エタノール)としたが、水素ガスなどの気体を燃料としてもよく、さらに液体燃料をエネルギー供給口92から入れるとしたが、カートリッジタイプの物を差し替えることにしても問題ない。
【0082】
また、本実施の形態では、ナビゲーション(道案内)を行う方式としてロボットが移動するときにその現在地から目的地までの移動ルートとその周りの環境情報を持った世界地図を活用して移動する方法を用いたが、非接触型ICタグに記録した移動環境情報(次に読むタグの場所などの移動情報と、階段の段数、高さなどの環境情報)とを元にナビゲーションを行うICタグナビゲーション方式や、ライン・ランドマークをトレースしながら移動する方法などを単独又は組み合わせて用いてもよい。
【0083】
上述したように、ロボット1は、最適な移動ルートに沿って移動することになる。その移動の途中でロボット1は様々な情報を入手することができる。入手した情報と事前にロボット1に格納された所望の情報とを照合することにより、その所望の情報に近い情報を取得することが可能になる。
【0084】
図9は、ロボット1の所有者が所望する情報をロボット1が取得する処理の手順を示す。
【0085】
ステップST91では、ロボット1の所有者が所望する情報をロボット1の情報データベース160に記憶しておく。ロボット1の所有者が所望する情報は、例えば、その所有者が関心のある情報(例えば、趣味の情報、捜し物の情報など)である。
【0086】
図10は、ロボット1の所有者が所望する情報の一例を示す。
【0087】
図10に示されるように、ロボット1の所有者が所望する情報が「迷子の犬」である場合には、その犬を特定するための情報として犬を分類するための階層情報(例えば、種:ポメラリアン、毛色:オレンジ)と、ロボット1の所有者が所望する情報に関連する情報(関連情報)とを情報データベース160に記憶しておくことが好ましい。ロボット1の所有者が所望する他の情報として、作家が○○の新刊の書籍情報や、750〜1500ccの型で車種がハーレダビットソンのバイク情報が記憶されている。ステップST91の事前準備を行った後に、ステップST92では、ロボット1は最適な移動ルートに従って移動を開始する。
【0088】
ステップST93では、処理部50は、ステップST91で事前に記憶した所望する情報と少なくとも同一カテゴリの情報を取得する。これは、ロボット1の識別能力が低い場合でも、所望する情報に近い候補を取得するためである。例えば、所望する犬と近い動物をロボット1のカメラ10が認識した場合、まずは少なくとも同一カテゴリということで、その動物が犬であるか否かを判定し、そうであれば、その動物の画像を取得する。
【0089】
ステップST94では、処理部50は、その取得した情報が所望する情報に近いか否かを判定する。先ほどの例では取得した犬の画像から毛色がオレンジでポメラリアン種であるか否かを判定する。それには、ポメラリアン種の体高がオス、メスともに20cm前後であり、体重がオス1.3〜3.2kg、メス1.8〜2.3kgであり、毛が長くふさふさであるといった情報も活用される。その判定(照合)は処理部50によって行われる。その判定の結果、取得した情報が所望する情報に近いと判定された場合には、ステップST95において、処理部50は、取得した情報に関連する情報(関連情報)を取得し、その関連情報を情報データベース160に記憶する。この例では、例えば、関連情報は犬の画像を取得した場所、時間などを示す。また現在の飼い主がおれば、その飼い主にその犬の関連する情報として例えば、何時から飼い出したのか、どこでその犬を取得したかなどの情報を対話で聞き出して、それら関連情報をその犬の画像と共に情報データベース160に記憶する。
【0090】
ステップST96では、所有者に上記関連情報を連絡する。この連絡時期は、速やかに連絡を行ってもよいし、用事が済んで所有者の元に帰ってから報告をしてもよい。
【0091】
ステップST94の判定において「NO」である場合には、処理はステップST97に進み、ステップST93で取得した情報を廃棄する。ここで、ステップST93の情報の取得方法は、カメラによる画像の取得であってもよいし、送受信部による地域放送の受信によって得られた文字情報、音声情報であってもよい。例えば、書店の前をロボットが通りかかったときに、書店がローカル的な放送で広告・宣伝している書籍の新刊情報を取得してもよい。この取得情報と所望する情報との比較において作家が○○と同じであれば、その関連する情報として発行時期やタイトル、書店の場所、名前などの関連情報を併せて取得し、その関連情報を情報データベース160に記憶する。
【0092】
以上のようにして、ロボット1が移動中に画像または放送の受信などで入手した情報を、以前から所有者が探していた、欲しい情報と照合させて近い情報であれば、ロボット1内に記憶することができるので、予期しない情報が得られることになる。
【0093】
他に所望する情報例としては、指名手配の人、迷子の猫、欲しいバッグ、骨董品などが挙げられる。ロボット1の移動中に偶然得られる情報を逃さず取得できるので、ロボット1の所有者に満足感が得られる。
【0094】
【発明の効果】
以上のように、本発明の自律移動ロボットによれば、複数の移動ルートのそれぞれに必要な移動コストおよび移動時間のうちの少なくとも一方に基づいて、その複数の移動ルートのうちの1つが最適な移動ルートとして決定される。これにより、ロボットの所有者の意図を反映させて移動ルートを決定することが可能になる。また、特に移動コストを重視すれば、経済的な無駄を省くことができる。その結果、ロボットの所有者にとっては非常に満足度の高い結果となる。
【図面の簡単な説明】
【図1】本発明の実施の形態の自律移動ロボットの一例としてのロボット1の外観を示す図
【図2】ロボット1の内部構成を示す図
【図3】移動開始地点から移動終了地点に至る複数の移動ルートのうちの1つを最適な移動ルートとして決定する処理の手順を示すフローチャート
【図4】地図情報を用いて移動開始地点から移動終了地点に至る複数の移動ルートを検索した結果を示す図
【図5】傾斜係数aと道路の傾斜の度合いとの関係を示す図
【図6】地図データベース150に格納されている傾斜係数a、a、aの一例を示す図
【図7】最適な移動ルートを決定する処理(図3)の変形例の処理の手順を示すフローチャート
【図8】エネルギー補給のために移動ルートを離れ、エネルギー補給後に再度移動ルートに戻る移動ルートを示す図
【図9】ロボット1の所有者が所望する情報をロボット1が取得する処理の手順を示すフローチャート
【図10】ロボット1の所有者が所望する情報の一例を示す図
【符号の説明】
30 音声入力部
40 音声認識部
50 処理部
120 動作制御部
130 アクチュエータ
150 地図データベース
170 移動部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an autonomous mobile robot that can move autonomously.
[0002]
[Prior art]
In recent years, research and development of autonomous mobile robots that move autonomously in a coexisting environment without human control have been actively performed, and their practical use has been progressing. Autonomous mobile robots are expected to play various roles. For example, autonomous mobile robots can be used as unmanned transport vehicles in factories, applied to maintenance and inspection of plants, used to follow caregivers in welfare facilities to assist with work such as carrying luggage, and even guide dogs. It is expected that it will be used as a substitute for the game.
[0003]
As a method for controlling the movement of the autonomous mobile robot (navigation method), a method using a route on a map from a departure point to a destination point (for example, see Non-Patent Document 1), A robot operation path is generated from the recognition result, and a method according to a traveling command based on the robot operation path and information from a visual sensor (for example, see Patent Document 1), a method using an IC tag, and tracing a line / landmark are used. A visual system system that moves while moving is known.
[0004]
The autonomous mobile robot moves in an indoor environment (such as in a factory or a hospital) or moves in an outdoor environment (such as a general road) according to the above-described navigation method.
[0005]
[Patent Document 1]
JP-A-9-267276
[Non-patent document 1]
Journal of the Robotics Society of Japan (October 1987, Vol. 5 No. 5 PP. 19-28)
[0006]
[Problems to be solved by the invention]
However, while conventional autonomous mobile robots can autonomously move from the starting point to the target point, the autonomous mobile robot assumes that the autonomous mobile robot will take actions that contribute to humans in the outdoor environment. It has not yet been considered in the action plan to determine the travel route from the viewpoint of travel cost and travel time. As a result, the autonomous mobile robot often moves on a moving route having a high moving cost or a long moving time, which is economically wasteful.
[0007]
In view of the fact that the cost of moving the autonomous mobile robot itself is incurred even when the autonomous mobile robot itself moves, the present inventor has proposed various types of movement such as the cost of moving the autonomous mobile robot itself and the cost of moving using public transportation. We considered to decide the moving route based on the comprehensive judgment considering the cost and the moving time.
[0008]
Accordingly, it is an object of the present invention to provide an autonomous mobile robot that can determine an optimal travel route based on at least one of a travel cost and a travel time required for each of a plurality of travel routes. It is in.
[0009]
[Means for Solving the Problems]
The autonomous mobile robot according to the present invention includes a designation unit that designates a movement start point and a movement end point, a search unit that searches for a plurality of movement routes from the movement start point to the movement end point, and the plurality of movement routes. Calculating means for calculating at least one of a moving cost and a moving time required for each of the plurality of moving routes, and calculating the plurality of moving routes based on at least one of a moving cost and a moving time required for each of the plurality of moving routes. Deciding means for deciding one of the routes as an optimum moving route, moving means for enabling the autonomous mobile robot to move, and moving the autonomous mobile robot along the optimum moving route. Control means for controlling the moving means, whereby the object is achieved.
[0010]
The calculating means may calculate the moving cost in consideration of a degree of inclination of a road.
[0011]
The calculating means may calculate the moving cost and the moving time, and determine the optimum moving route based on the moving cost and the moving time.
[0012]
The plurality of travel routes may include a travel route using a means of transportation and a travel route only for movement by the autonomous mobile robot.
[0013]
The travel cost required for the travel route using the transportation means may include a fare for the transportation means and a travel cost required for traveling by the autonomous mobile robot.
[0014]
The information processing apparatus may further include an acquisition unit configured to acquire information on the fare of the transportation means via a network.
[0015]
At least one of the plurality of travel routes may be a travel route that relays an energy supply location.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0017]
FIG. 1 shows an appearance of a robot 1 as an example of an autonomous mobile robot according to an embodiment of the present invention.
[0018]
The robot 1 has a moving unit 170 that allows the robot 1 to move.
[0019]
Any mechanism can be adopted as the mechanism of the moving unit 170. For example, when the moving unit 170 includes a roller 172 installed on a limb, by controlling the rotation of the roller 172, the robot 1 can perform operations such as moving forward, retreating, and going up and down a slope. Become. Alternatively, the robot 1 may be a mobile robot such as a tire type or a leg type. The robot 1 may be a humanoid robot imitating an animal such as a human who walks upright on two legs, or a pet robot imitating an animal walking on four legs.
[0020]
The robot 1 includes a camera 10 corresponding to “eyes”, a speaker 110 (voice interface) and an antenna 62 (communication interface) corresponding to “mouth”, and a microphone 30 (voice interface) and antenna 62 corresponding to “ears”. It is preferable to have a (communication interface) and a movable part 180 corresponding to a “neck” or an “arm”.
[0021]
Further, the robot 1 may include a distance sensor 80 such as an ultrasonic sensor. The distance sensor 80 is installed, for example, in front of the robot 1. By measuring the distance to an obstacle on the movement path of the robot 1 using the distance sensor 80, the robot 1 can move avoiding the obstacle.
[0022]
The robot 1 is provided with an energy supply port 92. For example, when the power supply unit of the robot 1 is a fuel cell (for example, a polymer electrolyte fuel cell), ethanol serving as fuel is supplied to the robot 1 through the energy supply port 92.
[0023]
FIG. 2 shows the internal configuration of the robot 1.
[0024]
The image recognition unit 20 captures an image from the camera 10 (image input unit), recognizes the captured image, and outputs the recognition result to the processing unit 50.
[0025]
The voice recognition unit 40 captures voice from the microphone 30 (voice input unit), recognizes the captured voice, and outputs the recognition result to the processing unit 50.
[0026]
For example, it is assumed that the owner of the robot 1 gives an instruction to the robot 1 by voice. The voice instruction is input to the voice input unit 30. The voice instruction is a type of instruction that clearly indicates the coordinates of the movement start point and the coordinates of the movement end point, such as "move from the point of north latitude xx east longitude xx to the point of north xx east longitude xx". Alternatively, the instruction may be of a type that does not explicitly indicate the coordinates of the movement start point and the coordinates of the movement end point, such as “move to the location of △△”. The voice recognition unit 40 recognizes a movement start point and a movement end point by analyzing a voice instruction input to the voice input unit 30. For example, when the instruction by voice is an instruction to “move from the point of north latitude xx east longitude xx to the point of north xx east longitude xx”, the voice recognition unit 40 determines that (movement start point = north latitude xx ○ East longitude XX, end point of movement = north latitude xx east longitude XX). For example, when the instruction by voice is an instruction to “move to a place called XX”, the voice recognition unit 40 determines that (movement start point = current location (that is, the point of north latitude XX east longitude XX)) , The end point of the movement = △△ (that is, the point of north latitude xx east longitude xx). The fact that the coordinates of the current position are north latitude xx east longitude xx can be recognized, for example, by referring to the output of the position detection unit 70 described later. The fact that the coordinates of the place of Δ △ is latitude XX east longitude XX can be recognized by referring to a map database 150 described later, for example.
[0027]
In this manner, the movement start point and the movement end point can be specified using the voice input unit 30 and the voice recognition unit 40. In this case, the voice input unit 30 and the voice recognition unit 40 function as a specifying unit that specifies a movement start point and a movement end point.
[0028]
Of course, the method of designating the movement start point and the movement end point is not limited to the above-described method using sound. The movement start point and the movement end point may be specified using arbitrary information other than the voice. For example, a movement start point and a movement end point may be specified using an image. In this case, the image input means 10 and the image recognizing means 20 function as designating means for designating a movement start point and a movement end point. Alternatively, when the robot 1 further includes character input means (not shown) for inputting characters, the movement start point and the movement end point may be designated using characters. In this case, the character input means functions as a designation means for designating a movement start point and a movement end point.
[0029]
The processing unit 50 searches for a plurality of movement routes from the movement start point to the movement end point, calculates at least one of a movement cost and a movement time required for each of the plurality of movement routes, and calculates the plurality of movement routes. One of the plurality of travel routes is determined as the optimal travel route based on at least one of the travel cost and travel time required for each of the routes. The processing unit 50 may determine the optimal travel route based only on the travel cost required for each of the plurality of travel routes, or may determine the optimal travel route based on only the travel time required for each of the plurality of travel routes. A suitable moving route may be determined, or an optimum moving route may be determined based on both the moving cost and the moving time.
[0030]
In this way, the processing unit 50 searches for a plurality of travel routes from the travel start point to the travel end point, and at least one of the travel cost and travel time required for each of the travel routes. Calculating means for calculating, and determining means for determining one of the plurality of travel routes as an optimal travel route based on at least one of a travel cost and a travel time required for each of the plurality of travel routes. Can work. The processing unit 50 includes, for example, a memory 52 that stores a program, and a CPU 54 that executes the program stored in the memory 52. In this case, the functions and operations of the processing unit 50 are realized by the CPU 54 executing a program stored in the memory 52.
[0031]
Further, the processing unit 50 controls the operation control unit 120 so that the robot 1 moves along the optimal movement route. For example, the processing unit 50 generates a control signal such that the distance between the current position of the robot 1 detected by the position detection unit 70 and the optimal movement route is equal to or less than a predetermined distance, and converts the control signal into an operation control unit. Output to 120. The distance between the current position of the robot 1 and the optimal movement route can be recognized by referring to, for example, a map database 150 described later. This is because both the current position of the robot 1 and the optimum movement route can be plotted on the map information stored in the map database 150.
[0032]
The operation control unit 120 drives various actuators 130 according to a control signal output from the processing unit 50. For example, when the moving unit 170 that enables the robot 1 to move includes the roller 172, the actuator 130 includes a motor 174 that controls the rotation of the roller 172. In this case, the operation control unit 120 drives the motor 174 that controls the rotation of the roller 172 according to the control signal output from the processing unit 50. Thus, the robot 1 can perform operations such as forward, backward, right turn, and left turn.
[0033]
As described above, the processing unit 50, the operation control unit 120, and the actuator 130 function as a control unit that controls the moving unit 170 so that the robot 1 moves along the optimal movement route. The moving unit 170 functions as a moving unit that enables the robot 1 to move.
[0034]
The map database 150 stores map information. The map information may represent a map of a specific area, or may represent a world map. The map information includes various information such as road information, public transportation information, and building location information. The position detection unit 70 detects the current position of the robot 1. The position detection unit 70 can be realized by using, for example, a GPS (Global Positioning System).
[0035]
Note that the processing unit 50 may have a function of understanding a dialogue based on the result of voice recognition, and a function of searching the dialogue database 140 and generating a response sentence. Furthermore, the response sentence may be output to the voice synthesis unit 100, and the voice synthesized by the voice synthesis unit 100 may be output from the voice output unit 110 such as a speaker.
[0036]
The conversation database 140 stores conversation patterns and rules for generating response sentences.
[0037]
The information database 160 stores information such as today's weather and news, knowledge such as various common senses, and information about the owner of the robot 1 (eg, gender, age, name, occupation, character, hobby, date of birth, etc.). And information on the robot 1 (for example, information such as a model number and an internal configuration). Information such as today's weather and news is acquired from the outside of the robot 1 via the transmission / reception unit 60 (communication unit) and the processing unit 50, and stored in the information database 160, for example. The robot 1 may be an interactive agent.
[0038]
The power supply unit 90 is configured to be able to receive energy supply from outside the robot 1 via an energy supply port 92. The power supply unit 90 supplies power to each unit of the robot 1. The power supply unit 90 may be, for example, a fuel cell (for example, a polymer electrolyte fuel cell) or a rechargeable battery.
[0039]
FIG. 3 shows a procedure of a process for determining one of a plurality of travel routes from a travel start point to a travel end point as an optimal travel route. This processing can be stored in the memory 52 in the processing unit 50 in the form of a program, for example. This processing can be executed by the CPU 54 in the processing unit 50, for example.
[0040]
Here, the procedure of the process will be described by taking, as an example, a case where the robot 1 goes to a robot parts store to replace parts (for example, a CCD) of the robot 1.
[0041]
Step ST1: A movement start point and a movement end point are designated. For example, it is assumed that the owner of the robot 1 has issued a voice instruction to the robot 1 "go to a robot parts store to replace parts." In this case, the voice recognition unit 40 recognizes the movement start point and the movement end point by analyzing the voice input by the voice input unit 30. In this example, the movement start point is the current position, and the movement end point is the robot parts store. Here, the method of voice recognition does not matter. The voice recognition unit 40 outputs the voice recognition result (that is, the movement start point and the movement end point) to the processing unit 50.
[0042]
Step ST2: The processing unit 50 searches for a plurality of movement routes from the movement start point to the movement end point.
[0043]
FIG. 4 shows a result of searching for a plurality of travel routes from a travel start point to a travel end point using map information. The map information is stored in the map database 150. The example illustrated in FIG. 4 illustrates an example in which three movement routes R1, R2, and R3 are searched as a plurality of movement routes from a movement start point to a movement end point. The travel route R1 is a travel route in which the robot 1 uses transportation means (that is, the robot 1 travels from the travel start point to the A station, travels from the A station to the B station by rail, and travels from the B station to the travel end point. Travel route). Each of the movement routes R2 and R3 indicates a movement route in which the robot 1 does not use transportation means (that is, a movement route in which the robot 1 travels from a movement start point to a movement end point).
[0044]
It is not essential to use the map information to search for a plurality of routes from the movement start point to the movement end point. For example, when a combination of a movement start point and a movement end point is determined in advance, and a plurality of movement routes corresponding to the combination are determined in advance, the movement start point and the movement start point are referred to without referring to the map information. A plurality of travel routes corresponding to the travel end point can be searched.
[0045]
Step ST3: The processing unit 50 calculates at least one of the moving cost and the moving time for each of the plurality of moving routes searched in step ST2.
[0046]
In the example shown in FIG. 4, the movement cost required for the robot 1 to move from the movement start point (current position) to the movement end point (destination) along the movement route R1 is calculated to be 230 yen. The moving cost (20 yen) required for the robot 1 to move from the movement start point (current position) to the A station by itself, and the moving cost required for the robot 1 to move from the A station to the B station by rail. The moving cost (that is, the fare of the railway from Station A to Station B) (200 yen) and the moving cost required for the robot 1 to move from Station B to the end point (destination) by itself (10 yen) )) Is 230 yen. In addition, fares for public transportation such as railways can be obtained via a network. For example, the processing unit 50 can function as an obtaining unit that obtains the fare of the means of transportation via the antenna 62 and the transmission / reception unit 60 via the network.
[0047]
Similarly, the movement cost required for the robot 1 to move from the movement start point (current position) to the movement end point (destination) along the movement route R2 is calculated as 200 yen, and the robot 1 moves along the movement route R3. The travel cost required for 1 to travel from the travel start point (current location) to the travel end point (destination) is calculated to be 300 yen.
[0048]
The moving cost required for the robot 1 to move from the first point to the second point by itself is calculated according to (Equation 1).
[0049]
(Equation 1)
Travel cost C = Σi = 1 Nai* (Li/ E) * k
Where LiIndicates the distance of the i-th section when the section from the first point to the second point is divided into N sections, E indicates the distance (fuel efficiency) that the robot 1 can move per unit energy amount, k indicates the moving cost per unit energy amount (energy unit price), and aiIndicates the slope coefficient of the i-th section. For example, LiIs km, the unit of E is km / l, and the unit of k is circle / l. Here, i = 1, 2,..., N. N is an arbitrary integer of 1 or more.
[0050]
In this specification, “Σi = 1 NXiIs written as "X1+ X2+ ... XNIs synonymous with the notation "." Here, X is an arbitrary symbol.
[0051]
For example, when the power supply unit 90 of the robot 1 is a fuel cell, the energy unit price is the unit price of fuel (for example, ethanol). When the power supply unit 90 of the robot 1 is a rechargeable battery, the energy unit price is a power supply unit price of electric energy.
[0052]
Slope coefficient aiIs set to 1 when the road is flat, and 1 <a according to the degree of inclination of the road when the road is uphill.i<10, and when the road is downhill, 0.1 <a according to the degree of inclination of the road.i<1 is set.
[0053]
FIG. 5 shows the slope coefficient aiAnd the degree of inclination of the road. (A) of FIG. 5 shows that when the road is flat, ai= 1, and FIG. 5B shows that 1 <a when the road is uphill.iFIG. 5C shows that 0.1 <a when the road is downhill.i<1.
[0054]
In the example shown in FIG. 4, the moving route R2 has a moving distance L (= L1+ L2+ ... + LN), The moving cost C is small. This is because the road of the movement route R2 is flat, whereas the road of the movement route R3 has a large degree of inclination.
[0055]
The fuel efficiency E and the energy unit price k are stored in the information database 160, for example. Slope coefficient aiAre stored in the map database 150, for example.
[0056]
FIG. 6 shows the slope coefficient a stored in the map database 150.1, A2, A3An example is shown below.
[0057]
In the example shown in FIG. 6, the road on the prefectural road XX (up) is divided into three sections (a first section p1 <p <p2, a second section p2 <p <p3, and a third section p3 <p <P4), and in the first section, the slope coefficient a1Is set to 1 (a1= 1), the slope coefficient a in the second section2Is set to 7 (a2= 7), the slope coefficient a in the third section3Is set to 0.3 (a3= 0.3). Thus, the slope coefficient a1, A2, A3By using, it is possible to express that the road on the prefectural road XX (up) changes from a flat state to an up state, and then changes from an up state to a down state.
[0058]
It can be seen that the state of the road on the prefectural road XX (down) is opposite to the state of the road on the prefectural road XX (up). Therefore, the slope coefficient of the road on the prefectural road XX (down) is bi, The slope coefficient of the prefectural road XX (up) is aiThen, bi= 1 / aiBecomes That is, for the prefectural road XX (downward) road, the slope coefficient b in the first section1Is set to 1 (b1= 1), the slope coefficient b in the second section2Is set to 1/7 (b2= 1/7), and the slope coefficient b in the third section3Is set to 1 / 0.3 (b3= 1 / 0.3).
[0059]
Slope coefficient a of prefectural road XX (up)iIs stored in the map database 150, the slope coefficient b of the prefectural road XX (down)iNeed not be stored in the map database 150. bi= 1 / aiBy biCan be obtained by calculation. Thereby, the capacity of the map database 150 required for storing the slope coefficient can be saved.
[0060]
In the example shown in FIG. 4, the movement time (estimated movement time) required for the robot 1 to move from the movement start point (current position) to the movement end point (destination) along the movement route R1 is calculated to be 30 minutes. Is done. Similarly, the estimated travel time along the travel route R2 is calculated as one hour, and the estimated travel time along the travel route R3 is calculated as one hour.
[0061]
The moving time (estimated moving time) required for the robot 1 to move from the first point to the second point by itself is calculated according to (Equation 2).
[0062]
(Equation 2)
Travel time T = Σi = 1 Nai* D * (Li/ V) + MT
Where LiRepresents the distance of the i-th section when the section from the first point to the second point is divided into N sections, V represents the average moving speed of the robot 1, and MT represents the time when using the means of transportation. Indicates the sum of the travel time and the expected waiting time when using the means of transportation, d indicates a constant, and aiIndicates the slope coefficient of the i-th section. For example, LiIs km, the unit of V is km / h, and the unit of MT is h. Here, i = 1, 2,..., N. N is an arbitrary integer of 1 or more.
[0063]
Step ST4: The processing unit 50 determines one of the plurality of travel routes as an optimal travel route based on at least one of the travel cost and travel time calculated in step ST3.
[0064]
The processing unit 50 may determine an optimal travel route based only on the travel cost calculated in step ST3. In this case, the processing unit 50 determines, for example, a travel route with the smallest travel cost as the optimal travel route. In the example shown in FIG. 4, the movement route R2 is determined as the optimum movement route. This is because the traveling cost (200 yen) of the traveling route R2 is the smallest among the traveling routes R1 to R3.
[0065]
Alternatively, the processing unit 50 may determine an optimal movement route based only on the movement time calculated in step ST3. In this case, the processing unit 50 determines, for example, a travel route with the shortest travel time as the optimal travel route. In the example shown in FIG. 4, the travel route R1 is determined as the optimal travel route. This is because the traveling time (30 minutes) of the traveling route R1 is the shortest of the traveling routes R1 to R3.
[0066]
Alternatively, the processing unit 50 may determine an optimal travel route based on both the travel cost and travel time calculated in step ST3. In this case, the processing unit 50 can determine an optimal movement route according to various methods. For example, the processing unit 50 uses the moving cost as a first-priority (or second-priority) evaluation criterion and uses the moving time as a second-priority (or first-priority) evaluation criterion in accordance with a priority method that is optimal. The route may be determined, the optimal travel route may be determined according to an evaluation point method using the sum of the evaluation points of the travel cost and the travel time as an evaluation criterion, or the evaluation point of the travel cost may be a criterion. The optimal travel route may be determined according to an exclusion method that excludes those below the point and the evaluation point of the travel time below the reference point, or by appropriately combining these methods to determine the optimal travel route. Is also good.
[0067]
Note that, in step ST4, when determining the optimal movement route based only on the movement cost calculated in step ST3, the calculation of the movement time can be omitted in step ST3. In step ST4, when determining the optimum travel route based only on the travel time calculated in step ST3, the calculation of the travel cost can be omitted in step ST3. This makes it possible to eliminate the need for the processing unit 50 to perform useless calculations.
[0068]
As described above, according to the present embodiment, based on at least one of the moving cost and the moving time required for each of the plurality of moving routes, one of the plurality of moving routes is optimally moved. Determined as root. This makes it possible to determine the movement route in a state in which the intention of the owner of the robot 1 is reflected.
[0069]
In the above-described embodiment, the case where the robot 1 goes to a robot parts store to replace its own part (for example, a CCD) has been described as an example, but the present invention is not limited to this. According to the present invention, it is possible to cause the robot 1 to perform various "uses" (business) such as walking a dog or shopping.
[0070]
FIG. 7 shows a processing procedure of a modification of the processing (FIG. 3) for determining the optimum movement route. This processing takes into consideration that energy is supplied to the robot 1 during the movement of the robot 1 from the movement start point to the movement end point.
[0071]
Steps ST61, ST62, ST63, and ST65 in FIG. 7 are the same as steps ST1, ST2, ST3, and ST4 in FIG. 3, respectively. Therefore, detailed description is omitted here.
[0072]
Step ST64: For all of the plurality of travel routes searched in step ST62, the processing unit 50 returns the fuel F for one way required for the robot 1 to reach the destination (or returns to the current location after reaching the destination). It is determined whether the robot 1 is currently equipped with the reciprocating fuel 2F) required for the robot 1. Such a determination can be made by determining whether or not (Equation 3) is satisfied. If (Equation 3) is satisfied, the process proceeds to step ST65. If (Equation 3) is not satisfied, the process proceeds to step ST66.
[0073]
(Equation 3)
Fuel F> Σi = 1 Nai* (Li/ E)
Step ST66: The processing unit 50 obtains the nearest energy supply location from the plurality of travel routes searched in step ST62, and determines whether or not it is possible to move to the energy supply location with the remaining fuel. This determination can also be made by determining whether or not (Equation 3) is satisfied. If (Equation 3) is satisfied, the process proceeds to step ST67. If (Equation 3) is not satisfied, the process proceeds to step ST69.
[0074]
Step ST67: This step is executed when the robot 1 can move to the energy supply place. The processing unit 50 determines a predetermined one of the plurality of travel routes searched in step ST62 up to the nearest energy supply location of the travel route determined not to satisfy Equation 3 in step ST64. , The energy is replenished after deviating from the moving route, and the moving route and the moving cost returning to the predetermined moving route are recalculated.
[0075]
When the power supply unit 90 of the robot 1 is a fuel cell, the “energy supply place” refers to a place (fuel supply place) for supplying fuel (for example, ethanol) of the fuel cell. When the one power supply unit 90 is a rechargeable battery, it refers to a place (charging station) for charging the battery.
[0076]
Step ST68: The processing unit 50 selects a movement route that satisfies predetermined conditions from among a plurality of movement routes obtained by replacing the movement route of step ST62 with the movement route recalculated in step ST67. To be determined.
[0077]
Step ST69: This step is executed when the robot 1 cannot move to the energy supply place. In this case, the robot 1 cannot perform "own use" of the owner. As a result, the robot 1 informs the owner that he / she will cancel the "use".
[0078]
FIG. 8 shows a travel route that leaves the travel route for energy replenishment and returns to the travel route again after energy replenishment. The moving routes R1 ', R2', R3 'shown in FIG. 8 are obtained by changing the moving routes R1, R2, R3 shown in FIG. 4 so as to relay the energy supply location.
[0079]
It should be noted that, after a plurality of travel routes have been searched, instead of changing the searched plurality of travel routes to relay the energy supply location as necessary in consideration of the remaining energy, the remaining energy is considered. May be used to search for a plurality of travel routes.
[0080]
Note that the processing illustrated in FIG. 7 is suitable when the number of energy supply locations is relatively small (for example, when the energy supply locations are installed approximately every 1 km). On the other hand, when the number of energy supply locations is relatively large (for example, when the energy supply locations are installed approximately every 100 m), the processing illustrated in FIG. 7 is not particularly required. In this case, it is sufficient that the robot 1 measures the remaining amount of energy and, when the amount of energy becomes equal to or less than the predetermined amount, moves to the nearest energy supply place. When the robot 1 carries an energy supply cartridge, the processing shown in FIG. 7 is unnecessary. This is because energy can be supplied from the energy supply cartridge in a timely manner.
[0081]
In this embodiment, the fuel of the fuel cell is liquid fuel (ethanol). However, a gas such as hydrogen gas may be used as the fuel, and the liquid fuel is supplied from the energy supply port 92. There is no problem even if you replace things.
[0082]
Further, in the present embodiment, as a method of performing navigation (road guidance), when a robot moves, a method of moving using a world map having a movement route from its current location to a destination and environmental information around the route is used. IC tag navigation that performs navigation based on the moving environment information recorded on the non-contact IC tag (moving information such as the location of the tag to be read next and environmental information such as the number of stairs and height). A method or a method of moving while tracing a line / landmark may be used alone or in combination.
[0083]
As described above, the robot 1 moves along the optimal movement route. The robot 1 can obtain various information during the movement. By collating the obtained information with desired information stored in the robot 1 in advance, it becomes possible to obtain information close to the desired information.
[0084]
FIG. 9 shows a procedure of a process in which the robot 1 acquires information desired by the owner of the robot 1.
[0085]
In step ST91, information desired by the owner of the robot 1 is stored in the information database 160 of the robot 1. The information desired by the owner of the robot 1 is, for example, information that the owner is interested in (for example, information on hobbies, information on a search object, and the like).
[0086]
FIG. 10 shows an example of information desired by the owner of the robot 1.
[0087]
As illustrated in FIG. 10, when the information desired by the owner of the robot 1 is “a lost dog”, hierarchical information for classifying a dog as information for identifying the dog (for example, a seed : Pomerarian, hair color: orange) and information (related information) related to information desired by the owner of the robot 1 are preferably stored in the information database 160. Other information desired by the owner of the robot 1 includes newly-published book information whose author is XX and motorcycle information whose model is 750 to 1500 cc and whose model is Harle-Davidson. After performing the preparations in step ST91, in step ST92, the robot 1 starts moving according to the optimum moving route.
[0088]
In step ST93, the processing unit 50 acquires information of at least the same category as the desired information stored in advance in step ST91. This is because even if the identification ability of the robot 1 is low, a candidate close to desired information is obtained. For example, when the camera 10 of the robot 1 recognizes an animal close to the desired dog, it is first determined whether or not the animal is a dog, at least in the same category, and if so, an image of the animal is determined. get.
[0089]
In step ST94, the processing unit 50 determines whether the obtained information is close to desired information. In the previous example, it is determined from the acquired dog image whether the coat color is orange and of Pomeranian breed. For this purpose, information is also used that the body height of a Pomeranian species is about 20 cm for both males and females, the body weight is 1.3 to 3.2 kg for males, 1.8 to 2.3 kg for females, and the hair is long and bushy. You. The determination (collation) is performed by the processing unit 50. As a result of the determination, when it is determined that the acquired information is close to the desired information, in step ST95, the processing unit 50 acquires information (related information) related to the acquired information, and The information is stored in the information database 160. In this example, for example, the related information indicates the location, time, and the like at which the image of the dog was acquired. Also, if there is a current owner, the owner can ask the owner for information related to the dog, such as when it was taken out of the dog and where the dog was obtained, in a dialogue, and then share the relevant information with the dog. It is stored in the information database 160 together with the image.
[0090]
In step ST96, the owner is notified of the related information. The contact may be made promptly, or the report may be made after returning to the owner after completing the business.
[0091]
If the determination in step ST94 is "NO", the process proceeds to step ST97, and discards the information obtained in step ST93. Here, the method of acquiring information in step ST93 may be image acquisition by a camera, or may be text information or audio information obtained by receiving a local broadcast by a transmission / reception unit. For example, when a robot passes by in front of a bookstore, the bookstore may acquire new publication information of a book that is being advertised / promoted by a local broadcast. If the writer is the same as XX in the comparison between the obtained information and the desired information, the related information such as issue time, title, bookstore location, name, etc. is also obtained as the related information, and the related information is obtained. The information is stored in the information database 160.
[0092]
As described above, if the information obtained by receiving an image or a broadcast while the robot 1 is moving is information that is close to the desired information that the owner has been searching for before, the information is stored in the robot 1. Can provide unexpected information.
[0093]
Other desired information examples include a wanted person, a lost cat, a wanted bag, an antique, and the like. Since the information obtained by chance during the movement of the robot 1 can be acquired without missing, the owner of the robot 1 can be satisfied.
[0094]
【The invention's effect】
As described above, according to the autonomous mobile robot of the present invention, one of the plurality of travel routes is optimized based on at least one of the travel cost and travel time required for each of the plurality of travel routes. It is determined as a travel route. This makes it possible to determine the movement route by reflecting the intention of the robot owner. Further, if importance is placed on the moving cost, economic waste can be eliminated. The result is a very satisfying result for the robot owner.
[Brief description of the drawings]
FIG. 1 is a diagram showing an appearance of a robot 1 as an example of an autonomous mobile robot according to an embodiment of the present invention.
FIG. 2 is a diagram showing an internal configuration of the robot 1.
FIG. 3 is a flowchart showing a procedure of a process for determining one of a plurality of travel routes from a travel start point to a travel end point as an optimal travel route.
FIG. 4 is a diagram showing a search result of a plurality of travel routes from a travel start point to a travel end point using map information.
FIG. 5: Slope coefficient aiDiagram showing the relationship between the road and the degree of inclination of the road
FIG. 6 shows a slope coefficient a stored in a map database 150.1, A2, A3Figure showing an example of
FIG. 7 is a flowchart showing a procedure of a process of a modification of the process (FIG. 3) for determining an optimal movement route;
FIG. 8 is a diagram showing a movement route that leaves a movement route for energy replenishment and returns to a movement route again after energy replenishment;
FIG. 9 is a flowchart showing a procedure of a process in which the robot 1 acquires information desired by the owner of the robot 1;
FIG. 10 is a diagram showing an example of information desired by the owner of the robot 1.
[Explanation of symbols]
30 voice input unit
40 voice recognition unit
50 processing unit
120 ° operation control unit
130 ° actuator
150 map database
170 ° moving unit

Claims (7)

移動開始地点と移動終了地点とを指定する指定手段と、
前記移動開始地点から前記移動終了地点に至る複数の移動ルートを検索する検索手段と、
前記複数の移動ルートのそれぞれに必要な移動コストおよび移動時間のうちの少なくとも一方を算出する算出手段と、
前記複数の移動ルートのそれぞれに必要な移動コストおよび移動時間のうちの少なくとも一方に基づいて、前記複数の移動ルートのうちの1つを最適な移動ルートとして決定する決定手段と、
自律移動ロボットが移動することを可能にする移動手段と、
前記最適な移動ルートに沿って前記自律移動ロボットが移動するように前記移動手段を制御する制御手段と
を備えた、自律移動ロボット。
Designation means for designating a movement start point and a movement end point;
Search means for searching for a plurality of travel routes from the travel start point to the travel end point,
Calculating means for calculating at least one of a moving cost and a moving time required for each of the plurality of moving routes,
Determining means for determining one of the plurality of travel routes as an optimal travel route based on at least one of a travel cost and a travel time required for each of the plurality of travel routes;
Means of movement for enabling the autonomous mobile robot to move;
Control means for controlling the moving means so that the autonomous mobile robot moves along the optimal movement route.
前記算出手段は、道路の傾斜の度合いを考慮して前記移動コストを算出する、請求項1に記載の自律移動ロボット。The autonomous mobile robot according to claim 1, wherein the calculation unit calculates the moving cost in consideration of a degree of inclination of a road. 前記算出手段は、前記移動コストおよび前記移動時間を算出し、前記移動コストおよび前記移動時間に基づいて、前記最適な移動ルートを決定する、請求項1に記載の自律移動ロボット。The autonomous mobile robot according to claim 1, wherein the calculation unit calculates the moving cost and the moving time, and determines the optimum moving route based on the moving cost and the moving time. 前記複数の移動ルートは、交通手段を利用する移動ルートと、前記自律移動ロボットによる移動のみの移動ルートとを含む、請求項1〜3のいずれかに記載の自律移動ロボット。The autonomous mobile robot according to any one of claims 1 to 3, wherein the plurality of travel routes include a travel route using transportation means and a travel route only for movement by the autonomous mobile robot. 前記交通手段を利用する移動ルートに必要な移動コストは、前記交通手段の運賃と、前記自律移動ロボットによる移動に必要な移動コストとを含む、請求項4に記載の自律移動ロボット。The autonomous mobile robot according to claim 4, wherein the travel cost required for the travel route using the transport means includes a fare of the transport means and a travel cost required for travel by the autonomous mobile robot. 前記交通手段の運賃に関する情報をネットワーク経由で取得する取得手段をさらに備えた、請求項5に記載の自律移動ロボット。The autonomous mobile robot according to claim 5, further comprising an acquisition unit configured to acquire information on a fare of the transportation means via a network. 前記複数の移動ルートのうちの少なくとも1つは、エネルギー供給場所を中継した移動ルートである、請求項1〜3のいずれかに記載の自律移動ロボット。The autonomous mobile robot according to claim 1, wherein at least one of the plurality of travel routes is a travel route that relays an energy supply location.
JP2002264808A 2002-09-10 2002-09-10 Autonomous mobile robot Withdrawn JP2004098233A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002264808A JP2004098233A (en) 2002-09-10 2002-09-10 Autonomous mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002264808A JP2004098233A (en) 2002-09-10 2002-09-10 Autonomous mobile robot

Publications (1)

Publication Number Publication Date
JP2004098233A true JP2004098233A (en) 2004-04-02

Family

ID=32264108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002264808A Withdrawn JP2004098233A (en) 2002-09-10 2002-09-10 Autonomous mobile robot

Country Status (1)

Country Link
JP (1) JP2004098233A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006015434A (en) * 2004-06-30 2006-01-19 Honda Motor Co Ltd Customer responding robot
JP2008282073A (en) * 2007-05-08 2008-11-20 Matsushita Electric Ind Co Ltd Pet guiding robot and pet guiding method
WO2009075053A1 (en) * 2007-12-10 2009-06-18 Honda Motor Co., Ltd. Target route generation system
KR100929927B1 (en) * 2007-12-24 2009-12-04 삼성중공업 주식회사 Route planning method of mobile cargo ship wall robot
JP2010117847A (en) * 2008-11-12 2010-05-27 Toyota Motor Corp Moving object, moving object control system, and control method for moving object
US9192869B2 (en) 2008-06-09 2015-11-24 Hitachi, Ltd. Autonomous mobile robot system
KR20170140561A (en) * 2016-06-13 2017-12-21 한국전자통신연구원 Apparatus and method for controlling driving of multi-robot
KR20180029742A (en) * 2016-09-13 2018-03-21 엘지전자 주식회사 Airport robot, and airport robot system including same
WO2018105400A1 (en) * 2016-12-05 2018-06-14 ヤンマー株式会社 Path generation system
JP2019097505A (en) * 2017-12-05 2019-06-24 株式会社クボタ Management system
US10496093B2 (en) 2017-03-17 2019-12-03 Kabushiki Kaisha Toshiba Movement control system, movement control device, and computer-implemented program for movement control
USD921081S1 (en) * 2020-04-30 2021-06-01 Ubtech Robotics Corp Ltd Robot
USD921080S1 (en) * 2020-04-30 2021-06-01 Ubtech Robotics Corp Ltd Robot
US20210353808A1 (en) * 2020-05-14 2021-11-18 Micro-Star Int'l Co., Ltd. Field disinfection mobile robot and control method thereof

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006015434A (en) * 2004-06-30 2006-01-19 Honda Motor Co Ltd Customer responding robot
JP4611675B2 (en) * 2004-06-30 2011-01-12 本田技研工業株式会社 Customer service robot
JP2008282073A (en) * 2007-05-08 2008-11-20 Matsushita Electric Ind Co Ltd Pet guiding robot and pet guiding method
US8447455B2 (en) 2007-12-10 2013-05-21 Honda Motor Co., Ltd. Target route generation system
WO2009075053A1 (en) * 2007-12-10 2009-06-18 Honda Motor Co., Ltd. Target route generation system
JP2009136996A (en) * 2007-12-10 2009-06-25 Honda Motor Co Ltd Target route generation system
EP2157490A1 (en) * 2007-12-10 2010-02-24 Honda Motor Co., Ltd. Target route generation system
EP2157490A4 (en) * 2007-12-10 2010-11-24 Honda Motor Co Ltd Target route generation system
KR100929927B1 (en) * 2007-12-24 2009-12-04 삼성중공업 주식회사 Route planning method of mobile cargo ship wall robot
US9192869B2 (en) 2008-06-09 2015-11-24 Hitachi, Ltd. Autonomous mobile robot system
JP2010117847A (en) * 2008-11-12 2010-05-27 Toyota Motor Corp Moving object, moving object control system, and control method for moving object
KR102511004B1 (en) * 2016-06-13 2023-03-17 한국전자통신연구원 Apparatus and method for controlling driving of multi-robot
KR20170140561A (en) * 2016-06-13 2017-12-21 한국전자통신연구원 Apparatus and method for controlling driving of multi-robot
KR20180029742A (en) * 2016-09-13 2018-03-21 엘지전자 주식회사 Airport robot, and airport robot system including same
KR102549978B1 (en) * 2016-09-13 2023-07-03 엘지전자 주식회사 Airport robot, and airport robot system including same
WO2018105400A1 (en) * 2016-12-05 2018-06-14 ヤンマー株式会社 Path generation system
JP2018092401A (en) * 2016-12-05 2018-06-14 ヤンマー株式会社 Path generation system
US10496093B2 (en) 2017-03-17 2019-12-03 Kabushiki Kaisha Toshiba Movement control system, movement control device, and computer-implemented program for movement control
JP7072376B2 (en) 2017-12-05 2022-05-20 株式会社クボタ Management system
JP2019097505A (en) * 2017-12-05 2019-06-24 株式会社クボタ Management system
USD921080S1 (en) * 2020-04-30 2021-06-01 Ubtech Robotics Corp Ltd Robot
USD921081S1 (en) * 2020-04-30 2021-06-01 Ubtech Robotics Corp Ltd Robot
US20210353808A1 (en) * 2020-05-14 2021-11-18 Micro-Star Int'l Co., Ltd. Field disinfection mobile robot and control method thereof

Similar Documents

Publication Publication Date Title
JP2004098233A (en) Autonomous mobile robot
Werner et al. Modelling navigational knowledge by route graphs
RU2734744C1 (en) Operational control of autonomous vehicle, including operation of model instance of partially observed markov process of decision making
Churchill et al. Practice makes perfect? managing and leveraging visual experiences for lifelong navigation
US8010231B2 (en) Communication robot
D'Atri et al. A system to aid blind people in the mobility: A usability test and its results
Ding et al. The research on blind navigation system based on RFID
US20070135962A1 (en) Interface apparatus and mobile robot equipped with the interface apparatus
CN111247540A (en) Autonomous vehicle routing
US20120010816A1 (en) Navigation system, route search server, route search agent server, and navigation method
JP2019131332A (en) Drone control system and drone control method
CN102374862A (en) Multi-modal navigation system and method
CN101520331A (en) GPS navigation system and method capable of automatically updating map
CN103994771A (en) Scenic region intelligent navigation application system and using method thereof
CN109974741B (en) Interactive blind guiding method, system and equipment
CN101354258B (en) Navigation apparatus and method utilizing popular transportation
JP4037866B2 (en) POSITION ESTIMATION DEVICE FOR MOBILE BODY, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM
Lu et al. Assistive navigation using deep reinforcement learning guiding robot with UWB/voice beacons and semantic feedbacks for blind and visually impaired people
JP2001317947A (en) Navigation apparatus
CN107869996B (en) Method for processing navigation information and device
WO2020008754A1 (en) Information processing device, optimum time estimation method, self-position estimation method, and recording medium in which program is recorded
Kammoun et al. Toward a better guidance in wearable electronic orientation aids
CN104202726B (en) A kind of entity localization method and system
Johnsen et al. Roboat: a fleet of autonomous boats for amsterdam
CN115310692A (en) Wisdom rural area tourism service platform

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060110