JP2015083927A - 案内用ロボット - Google Patents
案内用ロボット Download PDFInfo
- Publication number
- JP2015083927A JP2015083927A JP2013221741A JP2013221741A JP2015083927A JP 2015083927 A JP2015083927 A JP 2015083927A JP 2013221741 A JP2013221741 A JP 2013221741A JP 2013221741 A JP2013221741 A JP 2013221741A JP 2015083927 A JP2015083927 A JP 2015083927A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- destination
- self
- voice
- obstacle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims description 23
- 238000013459 approach Methods 0.000 claims description 8
- 238000000034 method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 238000012937 correction Methods 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 5
- 239000002245 particle Substances 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000001771 impaired effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000005281 excited state Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Navigation (AREA)
Abstract
【課題】低コストで、自律歩行が困難な歩行者に進むべき方向を案内することができる案内用ロボットを提供する。
【解決手段】自走体2が走行するエリアの地図情報(フロア形状図)を格納しておき、自走体2が有する車輪の回転量と、格納した地図情報とに基づいて、自走体2の現在位置を推定する。そして、推定した現在位置から歩行者が指定した目的地までの目標進行方向を、格納した地図情報をもとに決定し、決定した目標進行方向を音声で案内する。
【選択図】 図7
【解決手段】自走体2が走行するエリアの地図情報(フロア形状図)を格納しておき、自走体2が有する車輪の回転量と、格納した地図情報とに基づいて、自走体2の現在位置を推定する。そして、推定した現在位置から歩行者が指定した目的地までの目標進行方向を、格納した地図情報をもとに決定し、決定した目標進行方向を音声で案内する。
【選択図】 図7
Description
本発明は、自律歩行が困難な歩行者に進行方向を案内する案内用ロボットに関する。
従来の案内用ロボットとしては、例えば特許文献1に記載の技術がある。この技術は、建屋内に設置したビーコン等が発する信号をもとに自己位置の特定を行い、操作者を目的地まで誘導するものである。
また、他の案内用ロボットとしては、特許文献2に記載の技術がある。この技術は、GPS信号を用いて現在位置を特定し、操作者を目的地まで誘導するものである。
また、他の案内用ロボットとしては、特許文献2に記載の技術がある。この技術は、GPS信号を用いて現在位置を特定し、操作者を目的地まで誘導するものである。
しかしながら、上記特許文献1に記載の技術にあっては、建屋内にビーコンを設置するなどの支援設備が必要となり、コストが嵩む。
また、上記特許文献2に記載の技術にあっては、GPS信号を用いたナビゲーションシステムであるため高価であると共に、屋内ではGPS信号を受信しにくく、操作者を適切に誘導することができない。
そこで、本発明は、低コストで、自律歩行が困難な歩行者に進行方向を案内することができる案内用ロボットを提供することを課題としている。
また、上記特許文献2に記載の技術にあっては、GPS信号を用いたナビゲーションシステムであるため高価であると共に、屋内ではGPS信号を受信しにくく、操作者を適切に誘導することができない。
そこで、本発明は、低コストで、自律歩行が困難な歩行者に進行方向を案内することができる案内用ロボットを提供することを課題としている。
上記課題を解決するために、本発明に係る案内用ロボットの一態様は、歩行者が把持して移動方向を入力する操作入力部と、車輪によって任意の方向に走行可能な自走体と、前記操作入力部で入力された移動方向に基づいて、前記自走体の走行を制御する走行制御部と、前記歩行者が指定した目的地を取得する目的地取得部と、前記自走体が走行するエリアの地図情報を格納する地図情報格納部と、前記車輪の回転情報を検出する回転情報検出部と、前記回転情報検出部で検出した車輪の回転情報と、前記地図情報格納部に格納した地図情報とに基づいて、前記自走体の現在位置を推定する自己位置推定部と、前記自己位置推定部で推定した現在位置から前記目的地取得部で取得した目的地までの目標進行方向を、前記地図情報格納部に格納した地図情報をもとに決定する目標進行方向決定部と、前記目標進行方向決定部で決定した目標進行方向を音声で案内する進行方向案内部と、を備えることを特徴としている。
このように、自走体が有する車輪の回転情報と自走体が走行するエリアの地図情報とに基づいて、自走体の現在位置を推定するので、建屋内にビーコン等を設置することなく、屋内で適切に自己位置を推定することができる。そのため、目が不自由な人など自律走行が困難な歩行者に対して、進むべき方向を適切に音声で指示することができ、歩行者を指定された目的地へ案内することができる。
また、上記の案内用ロボットにおいて、前記自走体の周囲の障害物を検出する障害物検出部と、前記障害物検出部で障害物を検出したとき、前記自走体が前記障害物に接近していることを音声で案内する障害物接近案内部と、を備えることが好ましい。これにより、歩行者は障害物に接近していることを適切に認識することができる。
さらに、上記の案内用ロボットにおいて、前記目的地取得部は、前記歩行者に複数の目的地候補を順番に音声で案内する目的地候補案内部を備え、前記目的地候補案内部で1つの目的地候補を音声で案内した後、所定時間内に前記歩行者の目的地選択動作を検出したとき、音声で案内した目的地候補を前記歩行者が指定した目的地として取得することが好ましい。
このように、複数の目的地候補を1つずつ順番に音声により案内するので、目の不自由な歩行者が被案内者の場合にも、当該歩行者は適切に目的地を指定することができる。
このように、複数の目的地候補を1つずつ順番に音声により案内するので、目の不自由な歩行者が被案内者の場合にも、当該歩行者は適切に目的地を指定することができる。
本発明の案内用ロボットでは、自走体が有する車輪の回転情報と、予め記憶している自走体が走行するエリアの地図情報とに基づいてナビゲーションが可能であるため、建物側に付加的な設備が必要なく、低コストでナビゲーション機能を実現することができる。
以下、本発明の実施形態を図面に基づいて説明する。
(構成)
図1は、本実施形態に係る案内用ロボットを示す斜視図、図2は正面図、図3は右側面図、図4は底面図である。
案内用ロボット1は、任意の方向に走行する自走体2を有する。この自走体2は、底面から見て前端部が尖った流線形状に形成され、且つ例えば案内用ロボット1の操作者(歩行者)の膝程度の高さを有する基台3を備えている。この基台3は、その後端面側の幅が操作者の肩幅以上に形成され、且つ後端面に前方側に凹む操作者の下肢を収容する凹部4が形成されている。
(構成)
図1は、本実施形態に係る案内用ロボットを示す斜視図、図2は正面図、図3は右側面図、図4は底面図である。
案内用ロボット1は、任意の方向に走行する自走体2を有する。この自走体2は、底面から見て前端部が尖った流線形状に形成され、且つ例えば案内用ロボット1の操作者(歩行者)の膝程度の高さを有する基台3を備えている。この基台3は、その後端面側の幅が操作者の肩幅以上に形成され、且つ後端面に前方側に凹む操作者の下肢を収容する凹部4が形成されている。
基台3の底面には、前端側にキャスター5が旋回自在に配置され、後方端側の左右位置に駆動輪(車輪)6L及び6Rが回転自在に支持されている。これら駆動輪6L及び6Rの夫々は、車軸7L及び7Rの内側にプーリ8L及び8Rが固定されている。
そして、これらプーリ8L及び8Rと、各駆動輪6L及び6Rの前方側に配置した電動モータ9L及び9Rの回転軸に固定したプーリ10L及び10Rとの間に無端のタイミングベルト11L及び11Rが巻回されて、電動モータ9L及び9Rの回転軸の回転速度と同一回転速度で駆動輪6L及び6Rが回転駆動される。ここで、各電動モータ9L及び9Rには、無励磁状態でブレーキが作動する無励磁作動形ブレーキ12L及び12Rが設けられている。
そして、これらプーリ8L及び8Rと、各駆動輪6L及び6Rの前方側に配置した電動モータ9L及び9Rの回転軸に固定したプーリ10L及び10Rとの間に無端のタイミングベルト11L及び11Rが巻回されて、電動モータ9L及び9Rの回転軸の回転速度と同一回転速度で駆動輪6L及び6Rが回転駆動される。ここで、各電動モータ9L及び9Rには、無励磁状態でブレーキが作動する無励磁作動形ブレーキ12L及び12Rが設けられている。
このとき、電動モータ9L及び9Rの回転軸の回転速度を等しくすると、回転軸の回転方向に応じて基台3が前後方向に移動し、左側の駆動輪6Lの回転速度を右側の駆動輪6Rの回転速度より遅い回転加速度(又は速い回転速度)で駆動すると基台3が左旋回(又は右旋回する。
また、左側の駆動輪6L(又は右側の駆動輪6R)を停止させた状態で、右側の駆動輪6R(又は左側の駆動輪6L)を正回転駆動すると信地左(又は右)旋回状態となる。
また、左側の駆動輪6L(又は右側の駆動輪6R)を停止させた状態で、右側の駆動輪6R(又は左側の駆動輪6L)を正回転駆動すると信地左(又は右)旋回状態となる。
さらに、左側の駆動輪6L(又は右側の駆動輪6R)を逆回転駆動し、右側の駆動輪6R(又は左側の駆動輪6L)を正回転駆動する超信地左(又は右)旋回状態となる。
このように、左右の駆動輪6L及び6Rの回転速度を制御することにより、基台3を任意の方向に走行させることができる。
基台3には、その上面における前端側から後方側に傾斜延長する支持腕15が固定されている。この支持腕15の上端部には、基台3と平行に後方に基台3の凹部4の近傍位置まで延長する水平腕16が形成されている。
このように、左右の駆動輪6L及び6Rの回転速度を制御することにより、基台3を任意の方向に走行させることができる。
基台3には、その上面における前端側から後方側に傾斜延長する支持腕15が固定されている。この支持腕15の上端部には、基台3と平行に後方に基台3の凹部4の近傍位置まで延長する水平腕16が形成されている。
この水平腕16の上面における後端側には、走行方向を入力する操作入力部17が配置されている。操作入力部17は、操作者が一方の手指で把持することが可能なグリップ18と、このグリップ18を連結支持して、グリップ18に加えられたXYZ軸方向の入力を検出する六軸力センサ19とを備える。
また、水平腕16の上面における中央部には、操作者が目的地を選択するための目的地選択部20が配置されている。目的地選択部20は、操作者が手指で押下することが可能な選択ボタン20aと、この選択ボタン20aを連結支持して、選択ボタン20aに加えられたZ軸方向の力を検出する圧力センサ等で構成される力入力センサ20bとで備える。
また、水平腕16の上面における中央部には、操作者が目的地を選択するための目的地選択部20が配置されている。目的地選択部20は、操作者が手指で押下することが可能な選択ボタン20aと、この選択ボタン20aを連結支持して、選択ボタン20aに加えられたZ軸方向の力を検出する圧力センサ等で構成される力入力センサ20bとで備える。
基台3の先端側の側面には、例えば300度の角度範囲に渡って帯状の開口部21が形成されている。そして、この開口部21の先端部に対応する内側には、障害物検出センサとしてのスキャナ式レンジセンサ22が設けられている。このスキャナ式レンジセンサ22は、水平方向に後方側の90度の角度範囲を除く270度の角度範囲でレーザ光を使用して、障害物までの距離を計測するものである。
また、水平腕16の前端側には、障害物センサとしてのスキャナ式レンジセンサ23が設けられている。このスキャナ式レンジセンサ23も、スキャナ式レンジセンサ22と同様に、水平方向に後方側の90度の角度範囲を除く270度の角度範囲でレーザ光を使用して障害物までの距離を計測するものである。
また、支持腕15の上端側における裏面側には、障害物センサとしてのスキャナ式レンジセンサ24が設けられている。このスキャナ式レンジセンサ24は、例えば上方側の120度の角範囲を除く240度の角度範囲で斜め下側の障害物までの距離を計測するものである。
また、支持腕15の上端側における裏面側には、障害物センサとしてのスキャナ式レンジセンサ24が設けられている。このスキャナ式レンジセンサ24は、例えば上方側の120度の角範囲を除く240度の角度範囲で斜め下側の障害物までの距離を計測するものである。
電動モータ9L及び9Rは、図5に示すように、走行制御装置30によって、駆動制御される。
この走行制御装置30は、図5に示すように、自走体2に内蔵するバッテリによって駆動される、例えばマイクロコンピュータ等の演算処理装置31を備えている。演算処理装置31は、センサ信号入力I/F61と、速度指令値出力I/F62と、回転角度位置入力I/F63と、音声出力I/F64とを備える。また、この演算処理装置31は、走行制御部51と、音声案内部52とを備える。
この走行制御装置30は、図5に示すように、自走体2に内蔵するバッテリによって駆動される、例えばマイクロコンピュータ等の演算処理装置31を備えている。演算処理装置31は、センサ信号入力I/F61と、速度指令値出力I/F62と、回転角度位置入力I/F63と、音声出力I/F64とを備える。また、この演算処理装置31は、走行制御部51と、音声案内部52とを備える。
センサ信号入力I/F61には、操作入力部17の六軸力センサ19と、力入力センサ20bと、各スキャナ式レンジセンサ22〜24とが接続されている。そして、センサ信号入力I/F61は、六軸力センサ19から出力されるX,Y,Z軸の3軸方向に付与される力Fx、Fy及びFzと、X,Y,Z軸の3軸回りのモーメントMx、My及びMzとを読込む。また、センサ信号入力I/F61は、力入力センサ20bから出力される選択情報を読込むと共に、スキャナ式レンジセンサ22〜24から出力される障害物位置情報を読込む。センサ信号入力I/F61は、読込んだ各種情報を走行制御部51及び音声案内部52へ出力する。
速度指令値出力I/F62は、走行制御部51で生成した速度指令値を、モータドライバ65L及び65Rに出力する。ここで、モータドライバ65L及び65Rは、自走体2に内蔵するバッテリから電力が供給され、電動モータ9L及び9Rを駆動するためのものである。
回転角度位置入力I/F63は、電動モータ9L及び9Rの回転角度位置を検出するエンコーダ66L及び66Rから出力される回転角度位置情報を読込み、走行制御部51及び音声案内部52へ出力する。
回転角度位置入力I/F63は、電動モータ9L及び9Rの回転角度位置を検出するエンコーダ66L及び66Rから出力される回転角度位置情報を読込み、走行制御部51及び音声案内部52へ出力する。
音声出力I/F64は、走行制御部51及び音声案内部52で生成した音声案内情報をスピーカ67へ出力する。ここで、音声案内情報とは、操作者が進むべき方向(目標進行方向)や障害物の接近を知らせる情報などを含む。
以下、走行制御部51及び音声案内部52について具体的に説明する。
以下、走行制御部51及び音声案内部52について具体的に説明する。
(走行制御部51の構成)
図6は、走行制御部51の機能ブロック図である。
この図6に示すように、走行制御部51は、走行方向算出部51aと、障害物検出部51bと、走行方向補正部51cと、モータ駆動制御部51dとを備える。
この走行制御部51は、操作者による操作入力部17の操作に基づいて電動モータ9L及び9Rに対する速度指令値を生成し、これを出力することで自走体2を走行制御するものである。また、走行制御部51は、自走体2の移動過程において、常時、周囲の障害物の有無を検出し、障害物を検出すると操作者に障害物が接近していることを音声で案内すると共に、操作者が操作入力部17から指定した移動方向を、障害物を回避する方向に修正する障害物回避機能を有する。
図6は、走行制御部51の機能ブロック図である。
この図6に示すように、走行制御部51は、走行方向算出部51aと、障害物検出部51bと、走行方向補正部51cと、モータ駆動制御部51dとを備える。
この走行制御部51は、操作者による操作入力部17の操作に基づいて電動モータ9L及び9Rに対する速度指令値を生成し、これを出力することで自走体2を走行制御するものである。また、走行制御部51は、自走体2の移動過程において、常時、周囲の障害物の有無を検出し、障害物を検出すると操作者に障害物が接近していることを音声で案内すると共に、操作者が操作入力部17から指定した移動方向を、障害物を回避する方向に修正する障害物回避機能を有する。
先ず、走行方向算出部51aは、操作入力部17の六軸力センサ19から出力されるX,Y,Z軸に付与される力Fx,Fy及びFzと、X,Y,Z軸回りのモーメントMx,My及びMzを、操作入力情報として読込む。
次に走行方向算出部51aは、Z軸方向の力Fzと予め設定した閾値とを比較することで、操作者がグリップ18を押下したか否かを検出する。このとき、操作者がグリップ18を押下していない(Fz≦閾値)場合にはそのまま待機し、操作者がグリップ18を押下すると(Fz>閾値)、Y軸方向の力FyとZ軸回りのモーメントMzとに基づいて、自走体2の前後進速度V0[m/s]及び旋回速度ω0[rad/s]を算出する。
次に走行方向算出部51aは、Z軸方向の力Fzと予め設定した閾値とを比較することで、操作者がグリップ18を押下したか否かを検出する。このとき、操作者がグリップ18を押下していない(Fz≦閾値)場合にはそのまま待機し、操作者がグリップ18を押下すると(Fz>閾値)、Y軸方向の力FyとZ軸回りのモーメントMzとに基づいて、自走体2の前後進速度V0[m/s]及び旋回速度ω0[rad/s]を算出する。
ここで、前後進速度V0は、自走体2の仮想質量をMとしたとき、例えば次式をもとに算出する。
V0=∫(Fy/M)dt …………(1)
また、旋回速度ω0は、自走体2のZ軸回りの仮想慣性モーメントをIrzとしたとき、例えば次式をもとに算出する。
V0=∫(Fy/M)dt …………(1)
また、旋回速度ω0は、自走体2のZ軸回りの仮想慣性モーメントをIrzとしたとき、例えば次式をもとに算出する。
ω0=∫(Mz/Irz)dt …………(2)
そして、走行方向算出部51aは、算出した前後進速度V0及び旋回速度ω0をRAM等に記憶すると共に、これらを障害物検出部51b及び走行方向補正部51cに出力する。
障害物検出部51bは、障害物位置情報として、スキャン式レンジセンサ22及び23で測定したスキャン角度及び距離検出値を読込み、障害物の位置及び障害物までの距離を算出する。ここで、障害物が複数存在する場合には、各障害物について位置及び障害物までの距離を算出する。
そして、走行方向算出部51aは、算出した前後進速度V0及び旋回速度ω0をRAM等に記憶すると共に、これらを障害物検出部51b及び走行方向補正部51cに出力する。
障害物検出部51bは、障害物位置情報として、スキャン式レンジセンサ22及び23で測定したスキャン角度及び距離検出値を読込み、障害物の位置及び障害物までの距離を算出する。ここで、障害物が複数存在する場合には、各障害物について位置及び障害物までの距離を算出する。
そして、障害物検出部51bは、走行方向算出部51aで記憶した前後進速度V0及び旋回速度ω0と、検出した障害物の位置及び距離とに基づいて、自走体2が障害物に接触する可能性があるか否かを判定する。この判定結果は、走行方向補正部51cに出力される。
また、障害物検出部51bは、自走体2が障害物に接触する可能性があると判定すると、操作者に障害物が接近していることを知らせるための音声案内情報を生成し、その音声案内情報をもとにスピーカ67から音声を出力する。
また、障害物検出部51bは、自走体2が障害物に接触する可能性があると判定すると、操作者に障害物が接近していることを知らせるための音声案内情報を生成し、その音声案内情報をもとにスピーカ67から音声を出力する。
走行方向補正部51cは、障害物検出部51bで障害物に接触する可能性があると判定したとき、当該障害物を回避する方向に前後進速度V0及び旋回速度ω0を補正し、補正後の前後進速度V及び旋回速度ωをモータ駆動制御部51dに出力する。また、走行方向補正部51cは、障害物検出部51dで障害物に接触する可能性はないと判定した場合には、前後進速度V0及び旋回速度ω0をそのまま前後進速度V及び旋回速度ωとしてモータ駆動制御部51dに出力する。
モータ駆動制御部51dは、前後進速度V及び旋回速度ωに基づいて、駆動輪6L及び6Rの車輪周速度VL〔m/s〕及びVR〔m/s〕を算出する。
VL=V+Lw・ω/2 …………(3)
VR=V−Lw・ω/2 …………(4)
VL=V+Lw・ω/2 …………(3)
VR=V−Lw・ω/2 …………(4)
ここで、Lwは、左右の駆動輪6L及び6Rの車輪間距離〔m〕である。そして、モータ駆動制御部51dは、上記(3)及び(4)をもとに算出した駆動輪6L及び6Rの車輪周速度VL及びVRに基づいて、電動モータ9L及び9Rの速度指令値VML及びVMRを算出し、これらを速度指令値出力I/F62を介してモータドライバ65L及び65Rに出力する。
なお、ここでは、走行制御部51に障害物回避機能を設ける場合について説明したが、自走体2が障害物に接近していることを音声により操作者に知らせる障害物接近案内機能のみに止めてもよい。
なお、ここでは、走行制御部51に障害物回避機能を設ける場合について説明したが、自走体2が障害物に接近していることを音声により操作者に知らせる障害物接近案内機能のみに止めてもよい。
(音声案内部52の構成)
図7は、音声案内部52の機能ブロック図である。
この図7に示すように、音声案内部52は、目的地決定部52aと、自己位置推定部52bと、自己位置補正部52cと、ルート生成部52dと、マップ格納部52eと、音声出力部52fとを備える。この音声案内部52は、主に、操作者を音声により目的地へ案内するナビゲーション制御を実行するものである。
図7は、音声案内部52の機能ブロック図である。
この図7に示すように、音声案内部52は、目的地決定部52aと、自己位置推定部52bと、自己位置補正部52cと、ルート生成部52dと、マップ格納部52eと、音声出力部52fとを備える。この音声案内部52は、主に、操作者を音声により目的地へ案内するナビゲーション制御を実行するものである。
目的地決定部52aは、力入力センサ20bから出力される選択情報を入力する。そして、図示しない始動スイッチがオン状態となった後、初めて選択ボタン20aが押されたと判断すると、目的地決定部52aは、予め記憶した目的地候補のリストから順番に1つずつ選択し、選択した目的地候補をスピーカ67から音声で出力するための音声案内情報を音声出力部52fに出力する。ここで、目的地決定部52aは、1つの目的地候補を音声出力した後、選択ボタン20aが押されたことを確認したら、次の目的地候補を音声出力するようにする。このとき、音声出力がリストの最後に達すると、リストの最初に戻って音声出力するものとする。
そして、目的地決定部52aは、1つの目的地候補を音声出力した後、予め設定した一定時間、選択ボタン20aが押されない状態が続いたとき、操作者による目的地選択動作が行われたと判断し、その時点で音声出力された目的地候補を案内すべき目的地として選択する。選択した目的地情報は、ルート生成部52dに出力される。
なお、選択ボタン20aの近傍に決定ボタンを追加し、その決定ボタンが押されたときに操作者による目的地選択動作が行われたと判断し、その時点で音声出力された目的地候補を案内すべき目的地として選択するようにしてもよい。但し、本実施形態は、目の不自由な操作者を主な被案内者として想定しているため、操作者が操作するボタンは少ない方が望ましい。
なお、選択ボタン20aの近傍に決定ボタンを追加し、その決定ボタンが押されたときに操作者による目的地選択動作が行われたと判断し、その時点で音声出力された目的地候補を案内すべき目的地として選択するようにしてもよい。但し、本実施形態は、目の不自由な操作者を主な被案内者として想定しているため、操作者が操作するボタンは少ない方が望ましい。
自己位置推定部52bは、エンコーダ66L及び66Rが出力する回転角度位置情報(回転情報)を入力し、その回転角度位置情報に基づいて、自走体2の移動方向とスタート地点からの移動距離とを算出する。すなわち、移動方向と移動距離とは、スタート地点から積算した左右の駆動輪6L,6Rの回転量に基づいて算出する。なお、スタート地点は予め決められた位置であり、マップ格納部52eに格納したフロア形状図にその情報を含ませておく。
自己位置推定部52bは、算出した移動方向及び移動距離を、自己位置補正部52cに出力する。
自己位置補正部52cは、自己位置推定部52bで推定した自己位置情報と、スキャン式レンジセンサ22及び23が出力する障害物位置情報とを読込み、公知のパーティクルフィルタを用いて、自己位置推定部52bで推定した自己位置を補正する。
自己位置補正部52cは、自己位置推定部52bで推定した自己位置情報と、スキャン式レンジセンサ22及び23が出力する障害物位置情報とを読込み、公知のパーティクルフィルタを用いて、自己位置推定部52bで推定した自己位置を補正する。
この自己位置補正部52cは、案内用ロボット1の移動中、常時、スキャン式レンジセンサ22及び23からスキャン角度及び距離検出値を読込み、案内用ロボット1の周囲に何らかの物体を検出したとき、その検出パターンを記憶する。同時に、案内用ロボット1の周囲にパーティクルをランダムに配置し、それぞれのパーティクルからその物体がどのように検出されるか、検出パターンを算出する。
そして、スキャン式レンジセンサ22及び23の検出パターンに最も近い検出パターンが得られたパーティクルを選定し、選定したパーティクルの位置と自己位置推定部52bで推定した自己位置との差を位置誤差として、自己位置推定部52bで推定した自己位置を補正する。
自走体2の走行距離が長くなると、自己位置推定部52bで算出する積算値は誤差を含むようになるが、自己位置補正部52cにより自己位置を補正することで、上記誤差を解消することができる。
自走体2の走行距離が長くなると、自己位置推定部52bで算出する積算値は誤差を含むようになるが、自己位置補正部52cにより自己位置を補正することで、上記誤差を解消することができる。
ルート生成部52dは、目的地決定部52aが出力する目的地情報と、自己位置補正部52cが出力する自己位置情報とを入力し、マップ格納部52eに格納したフロア形状図を用いて案内用ロボット1の進行ルートを生成する。ルート生成方法として、ここでは2種類の方法を説明する。
(第1のルート生成方法)
ルート生成部52dは、ナビゲーション開始時には、目的地決定部52aが出力する目的地情報と、自己位置補正部52cが出力する自己位置情報とをもとに、現在位置から目的地までの方向を決定する。ここでは、マップ格納部52eに格納したフロア形状図をもとに、壁を考慮せずに現在位置から目的地までの方向を決定する。そして、決定した方向を操作者が進むべき方向(目標進行方向)とし、これを操作者に知らせるための音声案内情報を生成し、音声出力部52fに出力する。
ルート生成部52dは、ナビゲーション開始時には、目的地決定部52aが出力する目的地情報と、自己位置補正部52cが出力する自己位置情報とをもとに、現在位置から目的地までの方向を決定する。ここでは、マップ格納部52eに格納したフロア形状図をもとに、壁を考慮せずに現在位置から目的地までの方向を決定する。そして、決定した方向を操作者が進むべき方向(目標進行方向)とし、これを操作者に知らせるための音声案内情報を生成し、音声出力部52fに出力する。
また、ルート生成部52dは、スキャン式レンジセンサ22及び23が出力する障害物位置情報とマップ格納部52eに格納したフロア形状図とに基づいて、目標進行方向に壁を検出すると、目標進行方向の修正を行う。ここでは、目的地までの方向に近く、且つ検出した壁に平行に進む方向を新たな目標進行方向として設定する。そして、その新たな目標進行方向を操作者に知らせるための音声案内情報を生成し、音声出力部52fに出力する。
なお、スキャン式レンジセンサ22及び23で検出した物体が壁であるか否かは、フロア形状図の壁形状と自己位置との比較により判断する。すなわち、フロア形状図には無い物体を検出した場合には、それを障害物と見なす。
ナビゲーション制御中に障害物を検出した場合には、ルート生成部52dは障害物に接近していることを操作者に知らせるための音声案内情報を生成し、音声出力部52fに出力する。その後、障害物を検出しなくなったら、再度、壁を考慮せずにその地点から目的地までの方向を決定し、これを新たな目標進行方向として設定する。そして、設定した目標信号方向を操作者に知らせるための音声案内情報を生成し、音声出力部52fに出力する。
ナビゲーション制御中に障害物を検出した場合には、ルート生成部52dは障害物に接近していることを操作者に知らせるための音声案内情報を生成し、音声出力部52fに出力する。その後、障害物を検出しなくなったら、再度、壁を考慮せずにその地点から目的地までの方向を決定し、これを新たな目標進行方向として設定する。そして、設定した目標信号方向を操作者に知らせるための音声案内情報を生成し、音声出力部52fに出力する。
また、ナビゲーション制御中に、案内用ロボット1が目的地までの適正なルートから逸脱した場合には、適正ルートから逸脱していることを操作者に知らせるための音声案内情報を生成し、音声出力部52fに出力する。さらに、適正ルートに戻るための進行方向を決定し、これを操作者に知らせるための音声案内情報を生成し、音声出力部52fに出力する。
この第1のルート生成方法を採用した場合、最短経路とならない場合があるが、目的地にはほぼ確実に到達することができる。
この第1のルート生成方法を採用した場合、最短経路とならない場合があるが、目的地にはほぼ確実に到達することができる。
(第2のルート生成方法)
第2のルート生成方法を採用する場合、予めフロア形状図において、通路を「エッジ」、交差点を「ノード」に設定し、マップ格納部52eに格納しておく。
ルート生成部52dは、ナビゲーション開始時には、マップ格納部52eに格納したフロア形状図と、自己位置補正部52cが出力する自己位置情報とをもとに、現在位置に最も近いノードを選択し、そのノードの位置を仮の目的地として設定する。そして、設定した仮の目的地の方向を、上述した第1のルート生成方法に従って決定し、音声案内情報を生成して音声出力部52fに出力する。
第2のルート生成方法を採用する場合、予めフロア形状図において、通路を「エッジ」、交差点を「ノード」に設定し、マップ格納部52eに格納しておく。
ルート生成部52dは、ナビゲーション開始時には、マップ格納部52eに格納したフロア形状図と、自己位置補正部52cが出力する自己位置情報とをもとに、現在位置に最も近いノードを選択し、そのノードの位置を仮の目的地として設定する。そして、設定した仮の目的地の方向を、上述した第1のルート生成方法に従って決定し、音声案内情報を生成して音声出力部52fに出力する。
その後、仮の目的地であるノードに到着したことを検出すると、真の目的地(操作者が選択した目的地)に最も近いノードを選択し、現在位置から選択したノードの位置までの最適経路を探索する。ここで、経路探索方法としては、一般的なポテンシャル法や、ダイクストラ法、深さ優先探索あるいは幅優先探索などのアルゴリズムを用いる。
そして、得られた最適経路に従って、真の目的地に最も近いノードまでエッジ上を進むように目標進行方向を設定し、これを操作者に知らせるための音声案内情報を生成し、音声出力部52fに出力する。
そして、得られた最適経路に従って、真の目的地に最も近いノードまでエッジ上を進むように目標進行方向を設定し、これを操作者に知らせるための音声案内情報を生成し、音声出力部52fに出力する。
このナビゲーション制御中に、スキャン式レンジセンサ22及び23によって何らかの物体を検出すると、ナビゲーションの誤差によって壁に接近したか障害物に接近したと判断し、その地点をスタート地点として上述した第1のルート生成方向に切り替える。
また、ナビゲーション制御中に、案内用ロボット1が目的地までの適正なルートから逸脱した場合には、適正ルートから逸脱していることを操作者に知らせるための音声案内情報を生成し、音声出力部52fに出力する。さらに、適正ルートに戻るための進行方向を決定し、これを操作者に知らせるための音声案内情報を生成し、音声出力部52fに出力する。
また、ナビゲーション制御中に、案内用ロボット1が目的地までの適正なルートから逸脱した場合には、適正ルートから逸脱していることを操作者に知らせるための音声案内情報を生成し、音声出力部52fに出力する。さらに、適正ルートに戻るための進行方向を決定し、これを操作者に知らせるための音声案内情報を生成し、音声出力部52fに出力する。
この第2のルート生成方法を採用すれば、最短経路が得られる。但し、ナビゲーションの誤差によって壁に接近した場合には、第1のルート生成方法に切り替えざるを得ない。
図7の音声出力部52fは、目的地決定部52aやルート生成部52dが出力する音声案内情報を入力し、入力した音声案内情報に基づいてスピーカ67から音声を出力する。
以上のように、案内用ロボット1は、ロボットがその動きで操作者を「誘導」するのではなく、目的地の方向や障害物への接近を音声で操作者に伝えるという「案内」を行うものである。
図7の音声出力部52fは、目的地決定部52aやルート生成部52dが出力する音声案内情報を入力し、入力した音声案内情報に基づいてスピーカ67から音声を出力する。
以上のように、案内用ロボット1は、ロボットがその動きで操作者を「誘導」するのではなく、目的地の方向や障害物への接近を音声で操作者に伝えるという「案内」を行うものである。
なお、エンコーダ66L及び66Rが回転情報検出部に対応し、スキャン式レンジセンサ22及び23が障害物検出部に対応している。また、図7において、目的地決定部52aが目的地取得部に対応し、自己位置推定部52b及び自己位置補正部52が自己位置推定部に対応し、ルート生成部52dが目標進行方向決定部に対応し、マップ格納部52eが地図情報格納部に対応し、音声出力部52fが進行方向案内部に対応している。
(動作)
次に、本実施形態の動作及び効果について説明する。
自律歩行が困難な歩行者が自走体2の後方側の凹部4に下肢収納するようにして自走体2の後方に立ち、図示しない始動スイッチをオン状態とすると、自走体2に内蔵するバッテリの電力が走行制御装置30及びモータドライバ65L及び65Rに供給され、自走体2が走行可能状態となる。このとき、歩行者(操作者)が操作入力部17のグリップ18を把持していない場合には、自走体2は停止状態を維持する。
次に、本実施形態の動作及び効果について説明する。
自律歩行が困難な歩行者が自走体2の後方側の凹部4に下肢収納するようにして自走体2の後方に立ち、図示しない始動スイッチをオン状態とすると、自走体2に内蔵するバッテリの電力が走行制御装置30及びモータドライバ65L及び65Rに供給され、自走体2が走行可能状態となる。このとき、歩行者(操作者)が操作入力部17のグリップ18を把持していない場合には、自走体2は停止状態を維持する。
この停止状態で、歩行者が選択ボタン20aを押すと、音声案内部52は、リストの最初の目的地候補をスピーカ67から音声で出力する。そして、歩行者が選択ボタン20aを押すごとに、音声案内部52はリスト内の次の目的地候補を音声で出力する(目的地候補案内部)。そして、音声出力の後、一定時間、選択ボタンが押されないことを検知したとき、その時点で音声出力した目的地候補を真の目的地として設定する。
目的地が決定すると、音声案内部52はナビゲーション制御を開始する。先ず、音声案内部52は、フロア形状図に基づいて現在位置から目的地までの方向を決定し、これを目標進行方向とする。このとき、フロア内の壁は考慮しない。そして、音声案内部52は、決定した目標進行方向を歩行者に対して音声により指示する。
目標進行方向の指示を受けて、歩行者が操作入力部17のグリップ18を把持しながら進行方向へ押すと、走行制御部51は、その操作入力情報(力Fx,Fy及びFz、モーメントMx,My及びMz)を入力する。すると、走行制御部51は、入力した操作入力情報に基づいて前後進速度V及び旋回速度ωを算出し、これらに基づいて電動モータ9L及び9Rを駆動するための速度指令値をモータドライバ65L及び64Rに出力する。
目標進行方向の指示を受けて、歩行者が操作入力部17のグリップ18を把持しながら進行方向へ押すと、走行制御部51は、その操作入力情報(力Fx,Fy及びFz、モーメントMx,My及びMz)を入力する。すると、走行制御部51は、入力した操作入力情報に基づいて前後進速度V及び旋回速度ωを算出し、これらに基づいて電動モータ9L及び9Rを駆動するための速度指令値をモータドライバ65L及び64Rに出力する。
これにより、自走体2は歩行者が指示した方向に走行する。すなわち、案内用ロボット1は、歩行者の明示的な操作があって初めて走行するようになっている。
移動の過程で目的地までの適正ルートから逸脱した場合、走行制御部51は自動で適正ルートに戻る処理は行わない。代わりに、音声案内部52が歩行者に対して適正ルートから逸脱していることを音声で知らせると共に、適正ルートに戻るための進行方向を音声で指示する。
移動の過程で目的地までの適正ルートから逸脱した場合、走行制御部51は自動で適正ルートに戻る処理は行わない。代わりに、音声案内部52が歩行者に対して適正ルートから逸脱していることを音声で知らせると共に、適正ルートに戻るための進行方向を音声で指示する。
このようにして、歩行者が目的地に到達するまで音声で案内する。
この案内の途中で、スキャン式レンジセンサ22及び23によって何らかの物体を検出した場合、それがフロア形状図に存在しない物体であれば、音声案内部52は、検出した物体を障害物と見なして歩行者に障害物の接近を音声で知らせる(障害物接近案内部)。そして、音声案内部52はナビゲーション制御を中断する。
この案内の途中で、スキャン式レンジセンサ22及び23によって何らかの物体を検出した場合、それがフロア形状図に存在しない物体であれば、音声案内部52は、検出した物体を障害物と見なして歩行者に障害物の接近を音声で知らせる(障害物接近案内部)。そして、音声案内部52はナビゲーション制御を中断する。
このとき、走行制御部51は、歩行者が入力指示した進行方向を示す操作入力情報に基づいて算出した前後進速度V0及び旋回速度ω0を、障害物を回避する方向に補正し、それを最終的な前後進速度V及び旋回速度ωとして算出する。そして、算出した前後進速度V及び旋回速度ωに基づいて電動モータ9L及び9Rを駆動するための速度指令値を算出し、これをモータドライバ65L及び64Rに出力する。これにより、自走体2は、歩行者が指示した走行方向を、障害物を回避する方向に変更して走行する。
そして、障害物を検出しない状態に復帰すると、音声案内部52は、その地点からナビゲーション制御を再開する。すなわち、その地点から目的地までの方向を求め、これを新たな目標進行方向として歩行者に音声で指示する。
また、案内の途中で操作入力部17のグリップ18へのZ軸方向の力Fzが無くなる(Fz≦閾値)と、走行制御部51は、歩行者がグリップ18から手を放したと判断し、自走体2を停止する。これにより、案内用ロボット1が常に歩行者の手の届く範囲にいるようにすることができる。
また、案内の途中で操作入力部17のグリップ18へのZ軸方向の力Fzが無くなる(Fz≦閾値)と、走行制御部51は、歩行者がグリップ18から手を放したと判断し、自走体2を停止する。これにより、案内用ロボット1が常に歩行者の手の届く範囲にいるようにすることができる。
このように、本実施形態では、自走体2が走行するエリアの地図情報であるフロア形状図を予め記憶しておき、フロア内の自己位置の特定と目的地までの目標進行方向の決定とを自動で行いつつ、その目標進行方向を操作者(歩行者)に音声で案内する。
このとき、自走体2が有する車輪の回転量と自走体が走行するエリアの地図情報とに基づいて、自走体2の現在位置を推定する。そのため、建屋内にビーコンを設置したりGPS信号を受信したりすることなく、屋内で適切に自己位置を推定することができる。したがって、低コストでのナビゲーションが可能となる。
このとき、自走体2が有する車輪の回転量と自走体が走行するエリアの地図情報とに基づいて、自走体2の現在位置を推定する。そのため、建屋内にビーコンを設置したりGPS信号を受信したりすることなく、屋内で適切に自己位置を推定することができる。したがって、低コストでのナビゲーションが可能となる。
また、歩行者が進むべき方向を音声で案内するので、目が不自由な人など自律走行が困難な歩行者を、当該歩行者が指定した目的地へ適切に案内することができる。
さらに、自走体2の周囲に障害物を検出した場合には、自走体2が障害物に接近していることを音声で案内するので、歩行者は障害物に接近していることを適切に認識することができる。
さらに、自走体2の周囲に障害物を検出した場合には、自走体2が障害物に接近していることを音声で案内するので、歩行者は障害物に接近していることを適切に認識することができる。
また、ナビゲーションの開始に先立って、複数の目的地候補を1つずつ順番に音声で案内するので、目の不自由な歩行者が被案内者の場合にも、当該歩行者は適切に目的地を指定することができる。
このとき、1つの目的地候補を音声案内した後、被案内者が選択ボタン20aを押すごとに次の目的地候補を音声案内するようにする。そして、1つの目的地候補を音声案内した後、所定時間、選択ボタン20aが押されないとき、被案内者による目的地選択動作が行われたと判断して、そのとき音声案内した目的地候補を目的地に設定する。そのため、ボタン1つで次の目的地候補の案内開始の指示と目的地の確定とを行うことができる。すなわち、極力、被案内者が操作するボタンを少なくすることができ、目の不自由な歩行者が被案内者の場合に望ましい構造とすることができる。
このとき、1つの目的地候補を音声案内した後、被案内者が選択ボタン20aを押すごとに次の目的地候補を音声案内するようにする。そして、1つの目的地候補を音声案内した後、所定時間、選択ボタン20aが押されないとき、被案内者による目的地選択動作が行われたと判断して、そのとき音声案内した目的地候補を目的地に設定する。そのため、ボタン1つで次の目的地候補の案内開始の指示と目的地の確定とを行うことができる。すなわち、極力、被案内者が操作するボタンを少なくすることができ、目の不自由な歩行者が被案内者の場合に望ましい構造とすることができる。
(変形例)
上記実施形態においては、障害物センサとしてスキャン式レンジセンサ22,23を適用した場合について説明したが、超音波式センサ等の他の測距センサを適用することもできる。また、スキャン式レンジセンサに代えて、1方向にレーザ光を出射する測距センサをZ軸方向に回動させて走査するようにしてもよい。
また、上記実施形態においては、力入力センサ20bとして圧力センサを用いた場合について説明したが、圧力センサに代えて、タッチセンサや単なるスイッチを用いることもできる。
上記実施形態においては、障害物センサとしてスキャン式レンジセンサ22,23を適用した場合について説明したが、超音波式センサ等の他の測距センサを適用することもできる。また、スキャン式レンジセンサに代えて、1方向にレーザ光を出射する測距センサをZ軸方向に回動させて走査するようにしてもよい。
また、上記実施形態においては、力入力センサ20bとして圧力センサを用いた場合について説明したが、圧力センサに代えて、タッチセンサや単なるスイッチを用いることもできる。
さらに、上記実施形態においては、選択した目的地を取り消す機能を設けてもよい。例えば、目的地選択部20に選択ボタン20aしか設けられていない場合には、案内開始後に操作者が選択ボタン20aを押したことを検出したら、案内を中止する旨の音声を出力して案内を中止し、その後の操作者の選択を待つようにする。また、選択ボタン20aの近傍に選択取り消しボタンを追加するようにしてもよい。この場合、案内開始後に操作者が選択取り消しボタンを押したことを検出したら、案内を中止する旨の音声を出力して案内を中止し、その後の操作者の選択を待つようにする。但し、本実施形態は、目の不自由な操作者を主な被案内者として想定しているため、操作者が操作するボタンは少ない方が望ましい。
また、上記実施形態においては、自走体2として、前側にキャスター5を設置し、後輪側に駆動輪6L及び6Rを設ける場合について説明したが、前側の左右位置に駆動輪を配置し、後輪側にキャスターを配置するようにしてもよい。
さらに、上記実施形態においては、自走体2を2輪駆動する場合について説明したが、自動車のように前後に2輪ずつ配置し、前後の一方を転舵輪とすることにより、走行方向を制御するようにしてもよい。この場合でも転舵輪の転舵量及び転舵角に基づいて走行軌跡を算出することができるので、自己位置の推定が可能となる。
さらに、上記実施形態においては、自走体2を2輪駆動する場合について説明したが、自動車のように前後に2輪ずつ配置し、前後の一方を転舵輪とすることにより、走行方向を制御するようにしてもよい。この場合でも転舵輪の転舵量及び転舵角に基づいて走行軌跡を算出することができるので、自己位置の推定が可能となる。
1…案内用ロボット、2…自走体、3…基台、4…凹部、5…キャスター、6L,6R…駆動輪、9L,9R…電動モータ、11L,11R…タイミングベルト、12L,12R…無励磁作動形ブレーキ、15…支持腕、16…水平腕、17…操作入力部、18…グリップ、19…六軸力センサ、20…目的地選択部、20a…選択ボタン、20b…力入力センサ、22〜24…スキャン式レンジセンサ、30…走行制御装置、51…走行制御部、51a…障害物検出部、51b…走行方向算出部、51c…走行方向補正部、51d…モータ駆動制御部、52…音声案内部、52a…目的地決定部、52b…自己位置推定部、52c…自己位置補正部、52d…ルート生成部、52e…マップ格納部、52f…音声出力部、61…センサ信号入力I/F、62…速度指令値出力I/F、63…回転速度位置入力I/F、64…音声出力I/F、65L,65R…モータドライバ、66L,66R…エンコーダ、67…スピーカ
Claims (3)
- 歩行者が把持して移動方向を入力する操作入力部と、
車輪によって任意の方向に走行可能な自走体と、
前記操作入力部で入力された移動方向に基づいて、前記自走体の走行を制御する走行制御部と、
前記歩行者が指定した目的地を取得する目的地取得部と、
前記自走体が走行するエリアの地図情報を格納する地図情報格納部と、
前記車輪の回転情報を検出する回転情報検出部と、
前記回転情報検出部で検出した車輪の回転情報と、前記地図情報格納部に格納した地図情報とに基づいて、前記自走体の現在位置を推定する自己位置推定部と、
前記自己位置推定部で推定した現在位置から前記目的地取得部で取得した目的地までの目標進行方向を、前記地図情報格納部に格納した地図情報をもとに決定する目標進行方向決定部と、
前記目標進行方向決定部で決定した目標進行方向を音声で案内する進行方向案内部と、を備えることを特徴とする案内用ロボット。 - 前記自走体の周囲の障害物を検出する障害物検出部と、
前記障害物検出部で障害物を検出したとき、前記自走体が前記障害物に接近していることを音声で案内する障害物接近案内部と、を備えることを特徴とする請求項1に記載の案内用ロボット。 - 前記目的地取得部は、
前記歩行者に複数の目的地候補を順番に音声で案内する目的地候補案内部を備え、
前記目的地候補案内部で1つの目的地候補を音声で案内した後、所定時間内に前記歩行者の目的地選択動作を検出したとき、音声で案内した目的地候補を前記歩行者が指定した目的地として取得することを特徴とする請求項1又は2に記載の案内用ロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013221741A JP2015083927A (ja) | 2013-10-25 | 2013-10-25 | 案内用ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013221741A JP2015083927A (ja) | 2013-10-25 | 2013-10-25 | 案内用ロボット |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015083927A true JP2015083927A (ja) | 2015-04-30 |
Family
ID=53047598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013221741A Pending JP2015083927A (ja) | 2013-10-25 | 2013-10-25 | 案内用ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015083927A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017097538A (ja) * | 2015-11-20 | 2017-06-01 | 日本精工株式会社 | 移動ロボットシステム |
KR20180110480A (ko) * | 2017-03-29 | 2018-10-10 | 네이버랩스 주식회사 | 퍼스널 모빌리티, 리모트 컨트롤러 및 이를 포함하는 자율 주행용 퍼스널 모빌리티 시스템 |
JP2020187551A (ja) * | 2019-05-14 | 2020-11-19 | 株式会社豊田自動織機 | 自律走行車 |
JP7107616B1 (ja) | 2022-01-20 | 2022-07-27 | 直子 近藤 | 誘導案内杖 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0854894A (ja) * | 1994-08-10 | 1996-02-27 | Fujitsu Ten Ltd | 音声処理装置 |
JP2000279452A (ja) * | 1999-03-31 | 2000-10-10 | Matsushita Electric Works Ltd | 回転数検出装置付き車椅子 |
JP2001212189A (ja) * | 2000-01-31 | 2001-08-07 | Sanyo Electric Co Ltd | 視覚障害者用誘導装置 |
JP2002267483A (ja) * | 2001-03-07 | 2002-09-18 | Taisei Shoko Kk | 盲人用誘導案内システム |
JP2008134744A (ja) * | 2006-11-27 | 2008-06-12 | Matsushita Electric Works Ltd | 自律移動装置群制御システム |
US20110054773A1 (en) * | 2009-08-28 | 2011-03-03 | National Taiwan University | Electronic Blind-Navigation Device and Electronic Blind-Navigation Cane having the same |
JP2013101602A (ja) * | 2011-10-17 | 2013-05-23 | Nsk Ltd | 走行装置 |
-
2013
- 2013-10-25 JP JP2013221741A patent/JP2015083927A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0854894A (ja) * | 1994-08-10 | 1996-02-27 | Fujitsu Ten Ltd | 音声処理装置 |
JP2000279452A (ja) * | 1999-03-31 | 2000-10-10 | Matsushita Electric Works Ltd | 回転数検出装置付き車椅子 |
JP2001212189A (ja) * | 2000-01-31 | 2001-08-07 | Sanyo Electric Co Ltd | 視覚障害者用誘導装置 |
JP2002267483A (ja) * | 2001-03-07 | 2002-09-18 | Taisei Shoko Kk | 盲人用誘導案内システム |
JP2008134744A (ja) * | 2006-11-27 | 2008-06-12 | Matsushita Electric Works Ltd | 自律移動装置群制御システム |
US20110054773A1 (en) * | 2009-08-28 | 2011-03-03 | National Taiwan University | Electronic Blind-Navigation Device and Electronic Blind-Navigation Cane having the same |
JP2013101602A (ja) * | 2011-10-17 | 2013-05-23 | Nsk Ltd | 走行装置 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017097538A (ja) * | 2015-11-20 | 2017-06-01 | 日本精工株式会社 | 移動ロボットシステム |
KR20180110480A (ko) * | 2017-03-29 | 2018-10-10 | 네이버랩스 주식회사 | 퍼스널 모빌리티, 리모트 컨트롤러 및 이를 포함하는 자율 주행용 퍼스널 모빌리티 시스템 |
KR102031757B1 (ko) * | 2017-03-29 | 2019-10-15 | 네이버랩스 주식회사 | 퍼스널 모빌리티, 리모트 컨트롤러 및 이를 포함하는 자율 주행용 퍼스널 모빌리티 시스템 |
JP2020187551A (ja) * | 2019-05-14 | 2020-11-19 | 株式会社豊田自動織機 | 自律走行車 |
JP7107616B1 (ja) | 2022-01-20 | 2022-07-27 | 直子 近藤 | 誘導案内杖 |
JP2023105863A (ja) * | 2022-01-20 | 2023-08-01 | 直子 近藤 | 誘導案内杖 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6601001B2 (ja) | 走行装置、案内用ロボット及び走行装置の制御方法 | |
JP2016024766A (ja) | 案内用ロボット | |
JP6080887B2 (ja) | 充電ステーションおよび無人作業車の充電ステーション誘導装置 | |
JP2015084129A (ja) | 案内用ロボット | |
JP6656673B2 (ja) | 自律移動システム | |
JP6569342B2 (ja) | 移動ロボット | |
JP6187049B2 (ja) | 歩行アシスト移動体 | |
JP2018120524A (ja) | 案内用ロボット | |
US20120166048A1 (en) | Inverted pendulum type moving body | |
JP5761152B2 (ja) | 走行装置 | |
JP5065206B2 (ja) | 移動体、倒立型移動体、及びその制御方法 | |
JP2017033450A (ja) | 移動ロボット | |
JP2005224265A (ja) | 自走式掃除機 | |
JP2015047298A (ja) | 歩行アシスト移動体 | |
JP2015083927A (ja) | 案内用ロボット | |
JP6638348B2 (ja) | 移動ロボットシステム | |
JP5553220B2 (ja) | 移動体 | |
JP2007168602A (ja) | 二輪移動台車 | |
JP2020176997A (ja) | 案内装置および案内方法 | |
JP7462416B2 (ja) | 自律走行作業装置 | |
JP2017129908A (ja) | 移動体 | |
JP5024896B2 (ja) | 移動ロボットの操縦システム | |
JP2013086234A (ja) | 目的方向通知システム、目的方向通知方法、及び、目的方向通知プログラム | |
WO2017164911A1 (en) | Transportation device | |
JP7464780B2 (ja) | 自律走行作業装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161025 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170705 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170711 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180123 |