JP2017097537A - 案内用ロボット - Google Patents
案内用ロボット Download PDFInfo
- Publication number
- JP2017097537A JP2017097537A JP2015227613A JP2015227613A JP2017097537A JP 2017097537 A JP2017097537 A JP 2017097537A JP 2015227613 A JP2015227613 A JP 2015227613A JP 2015227613 A JP2015227613 A JP 2015227613A JP 2017097537 A JP2017097537 A JP 2017097537A
- Authority
- JP
- Japan
- Prior art keywords
- destination
- unit
- display
- image
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims description 42
- 238000000034 method Methods 0.000 description 51
- 230000008569 process Effects 0.000 description 37
- 238000012545 processing Methods 0.000 description 18
- 238000012937 correction Methods 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 15
- 239000003550 marker Substances 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 239000002245 particle Substances 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 238000013130 cardiovascular surgery Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000000172 allergic effect Effects 0.000 description 4
- 208000010668 atopic eczema Diseases 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 206010020751 Hypersensitivity Diseases 0.000 description 1
- 208000026935 allergic disease Diseases 0.000 description 1
- 230000007815 allergy Effects 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
Images
Abstract
Description
そこで、本発明は、このような従来の技術の有する未解決の課題に着目してなされたものであって、被案内者が目的地の設定を簡易な操作で行うことが可能な案内用ロボットを提供することを課題としている。
また、以下に示す実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の材質、形状、構造、配置等を下記のものに特定するものでない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。
本実施形態に係る案内用ロボット1は、図1〜図2に示すように、車輪による走行によって任意の方向に移動する移動体2を有する。この移動体2は、底面から見て前端部が尖った流線形状に形成され、且つ例えば案内用ロボット1に案内される被案内者の膝程度の高さを有する基台3を備えている。この基台3は、その上面に荷台部4を備え、荷台部4の両側端部及び後端部に沿って荷台部4上に載せた荷物の落下を防止するための落下防止柵13が形成されている。加えて、基台3は、その後端部側の幅が被案内者の肩幅以下になるよう形成されている。
なお、図1〜図2に示すように、移動体2の上下方向に延びる軸をZ軸とし、移動体2の前後方向に延びる軸をY軸とし、移動体2の左右方向に延びる軸をX軸とする。
そして、これらプーリ8L及び8Rと、各駆動輪6L及び6Rの前方側に配置した第1及び第2電動モータ9L及び9Rの回転軸に固定したプーリ10L及び10Rとの間に無端のタイミングベルト11L及び11Rが巻回されて、第1及び第2電動モータ9L及び9Rの回転軸の回転速度と同一回転速度で駆動輪6L及び6Rが回転駆動される。ここで、各第1及び第2電動モータ9L及び9Rには、ギアヘッド12L及び12Rが設けられている。
また、左側の駆動輪6L(又は右側の駆動輪6R)を停止させた状態で、右側の駆動輪6R(又は左側の駆動輪6L)を正回転駆動すると信地左(又は右)旋回状態となる。
さらに、左側の駆動輪6L(又は右側の駆動輪6R)を逆回転駆動し、右側の駆動輪6R(又は左側の駆動輪6L)を正回転駆動する超信地左(又は右)旋回状態となる。
基台3には、その上面における前端側から上方側に延長する支持腕15が固定されている。この支持腕15の上端部には、基台3と平行かつ後方に基台3の後端部の近傍位置まで延長する水平腕16が形成されている。
この水平腕16の上面における後端側には、被案内者が把持すると共に前後進速度を入力する操作入力部17が配置されている。操作入力部17は、被案内者が一方の手指で把持することが可能なグリップ18と、このグリップ18を連結支持して、グリップ18に加えられた互いに交差する二軸方向の力をそれぞれ検出する力センサ19とを備える。本実施形態では、二軸の一方を、図1及び図2に示す移動体2の前後方向に延びるY軸とし、二軸の他方を、図1に示す支持腕15に沿った方向(グリップ18を力センサ19に向かって押し下げる方向)に延びる軸(以下、「Z'軸」と称す)とした場合について説明する。
なお、力センサ19は、Y軸及びZ'軸方向の力を検出する構成に限らず、図2に示す移動体2の左右方向に延びるX軸回りのモーメントMxと、Z'軸方向の力Fz'とを検出する構成としてもよい。
また、水平腕16の上面における中央部には、被案内者が目的地の選択や経路の確認等をするための表示入力装置であるタッチパネルディスプレイ20が配置されている。
タッチパネルディスプレイ20は、タッチパネルの位置検出方式に応じて、静電容量方式、超音波方式、抵抗膜方式、光学方式等の種類がある。
タッチパネルディスプレイ20は、後述する演算処理装置31からの指令に応じて各種画像の表示を行うと共に、被案内者が表示パネル部の表示面(タッチ面)をタッチすることによってタッチパネルを介して検出されたタッチ位置情報を後述するタッチ位置入力I/F66を介して演算処理装置31に入力する。
基台3の先端側の側面には、例えば300度の角度範囲に渡って帯状の開口部21が形成されている。そして、この開口部21の先端部に対応する内側には、スキャナ式レンジセンサから構成される第1障害物検出センサ22が設けられている。この第1障害物検出センサ22は、水平方向に後方側の90度の角度範囲を除く270度の角度範囲でレーザ光を使用して、下方(床上)にある障害物(以下、下方障害物という)までの距離を計測するものである。
また、支持腕15の上端側における裏面側には、スキャナ式レンジセンサから構成される第2障害物検出センサ24が設けられている。この第2障害物検出センサ24は、例えば上方側の120度の角度範囲を除く240度の角度範囲で斜め下側の障害物までの距離を計測するものである。
さらに、案内用ロボット1の中央部付近である支持腕15の下端部の前面側には、距離画像センサから構成される上方障害物センサ25が設けられている。この上方障害物センサ25は、赤外線レーザによって前方且つ上方の空間に特定のパターンを投影し、それをカメラで撮影して対象物の位置と距離とを測定する、所謂デプスカメラである。上方障害物センサ25は、案内用ロボット1の前方且つ上方にある障害物(以下、上方障害物という)を検出する。
この走行制御装置30は、図3に示すように、移動体2に内蔵するバッテリによって駆動される、例えばマイクロコントローラ等の演算処理装置31を備えている。演算処理装置31は、走行制御部51と、目的地案内部52と、センサ信号入力I/F53と、速度指令値出力I/F54と、回転角度位置入力I/F55と、画像出力I/F56と、タッチ位置入力I/F57と、音声出力I/F58と、を備える。
センサ信号入力I/F53には、操作入力部17の力センサ19と、各第1及び第2障害物検出センサ22及び24と、位置測位センサ23と、上方障害物センサ25とが接続されている。そして、センサ信号入力I/F53は、力センサ19から出力されるY,Z'軸の2軸方向に付与される力Fy及びFz'を読込む。また、センサ信号入力I/F53は、第1及び第2障害物検出センサ22及び24から出力される障害物位置情報と、位置測位センサ23から出力される天井マーカ位置情報と、上方障害物センサ25から出力される障害物位置情報とを読込む。センサ信号入力I/F53は、読込んだ各種情報を走行制御部51へ出力する。
回転角度位置入力I/F55は、第1及び第2電動モータ9L及び9Rの回転角度位置を検出する第1及び第2ロータリエンコーダ62L及び62Rから出力される回転角度位置情報を読込み、走行制御部51及び目的地案内部52へ出力する。
タッチ位置入力I/F57は、タッチパネルディスプレイ20からのタッチ位置の位置情報(座標情報)を読込み、目的地案内部52へ出力する。
音声出力I/F58は、走行制御部51及び目的地案内部52で生成した音声案内情報をスピーカ67へ出力する。ここで、音声案内情報とは、被案内者が進むべき方向(目標進行方向)や、被案内者の現在位置の場所情報、障害物の接近を知らせる情報などを含むものである。
以下、図4に基づき、走行制御部51について具体的に説明する。
走行制御部51は、図4に示すように、走行方向算出部51aと、障害物検出部51bと、走行方向補正部51cと、モータ駆動制御部51dとを備える。
この走行制御部51は、被案内者による操作入力部17の操作入力に基づいて第1及び第2電動モータ9L及び9Rに対する速度指令値を生成し、これを第1及び第2モータドライバ61L及び61Rに出力することで移動体2を走行制御するものである。また、走行制御部51は、移動体2の移動過程において、常時、周囲の障害物の有無を検出し、障害物を検出すると被案内者に障害物が接近していることを音声や警報で知らせると共に、移動体2の移動方向を、障害物を回避する方向に修正する障害物回避機能を有する。
次に、走行方向算出部51aは、Z'軸方向の力Fz'と予め設定した閾値とを比較することで、被案内者がグリップ18を押下したか否かを検出する。このとき、被案内者がグリップ18を押下していない(Fz'≦閾値)場合にはそのまま待機し、被案内者がグリップ18を押下すると(Fz'>閾値)、Y軸方向の力Fyに基づいて、移動体2の前後進方向の進行速度である前後進速度V0[m/s]及び旋回速度ω0[rad/s]を算出する。
V0=∫(Fy/M)dt …………(1)
更に、走行方向算出部51aは、自己位置情報と走行経路情報とに基づき、進行方向(旋回角度θ)を決定し、この旋回角度θと、実験等によって求めた旋回角度と旋回半径との関係とに基づき、旋回半径rを算出する。即ち、実験によって、安全性や快適性等を考慮して決定した旋回角度と旋回半径との関係(例えば、マップデータ)から、旋回半径rを算出(決定)する。
ω0=r/V0 …………(2)
そして、走行方向算出部51aは、算出した前後進速度V0及び旋回速度ω0をRAM等に記憶すると共に、これらを障害物検出部51b及び走行方向補正部51cに出力する。
なお、前後進速度V0及び旋回速度ω0には、安全性を確保するためにそれぞれ上限速度Vmax及びωmaxが設定されており、算出後の前後進速度V0及び旋回速度ω0が上限速度Vmax及びωmaxを超えないように制限される。例えば、算出後の前後進速度V0及び旋回速度ω0が上限速度Vmax及びωmaxを超える場合、これら算出値を上限速度Vmax及びωmaxに変更する。
そして、障害物検出部51bは、走行方向算出部51aで記憶した前後進速度V0及び旋回速度ω0と、検出した障害物の位置及び距離とに基づいて、移動体2が下方障害物又は上方障害物に接触する可能性があるか否かを判定する。この判定結果は、走行方向補正部51cに出力される。
また、障害物検出部51bは、障害物の検出位置の情報である障害物検出位置情報を目的地案内部52に出力する。
走行方向補正部51cは、障害物検出部51bで障害物に接触する可能性があると判定したとき、当該障害物を回避する方向に前後進速度V0及び旋回速度ω0を補正し、補正後の前後進速度V及び旋回速度ωをモータ駆動制御部51dに出力する。
モータ駆動制御部51dは、前後進速度V及び旋回速度ωに基づいて、下式(3)及び(4)に従って、駆動輪6L及び6Rの車輪周速度VL〔m/s〕及びVR〔m/s〕を算出する。
VL=V+Lw・ω/2 …………(3)
VR=V−Lw・ω/2 …………(4)
なお、ここでは、走行制御部51の障害物回避制御として、障害物との接触を回避する方向に移動体2の走行方向を修正する制御を行う場合について説明したが、障害物を検出したとき、移動体2の走行を停止することで障害物との接触を回避するようにしてもよい。
次に、図5に基づき、目的地案内部52について具体的に説明する。
目的地案内部52は、図5に示すように、メニュー画像表示部52aと、目的地決定部52bと、画像格納部52cと、自己位置推定部52dと、自己位置補正部52eと、ルート生成部52fと、マップ格納部52gと、ナビゲーション画像表示部52hと、音声出力部52iとを備える。この目的地案内部52は、主に、被案内者が目的地を決定するための処理や、被案内者を目的地へと案内するための情報の伝達を画像表示や音声出力によって行う制御を実行するものである。
ここで、メニュー画像は、例えば、目的地設定ボタン画像、地図設定ボタン画像、音声設定ボタン画像等の各種設定メニューを選択するための設定ボタン画像を含んで構成された画像である。
メニュー画像表示部52aは、被案内者がタッチパネルディスプレイ20に表示された設定ボタン画像のいずれかの表示位置をタッチすることで、そのタッチ位置情報に基づきタッチされた設定ボタン画像に対応する設定メニューの選択情報を、各設定メニューの設定処理を行う構成部に出力する。
また、メニュー画像表示部52aは、地図設定ボタン画像がタッチされたと判定した場合に、地図設定メニューが選択されたことを示す選択情報M2をナビゲーション画像表示部52hに出力し、音声設定ボタン画像がタッチされた場合に、音声設定メニューが選択されたことを示す選択情報M3を音声出力部52iに出力する。
ここで、目的地決定用画像は、被案内者がタッチパネルディスプレイ20をタッチ操作して目的地を決定するための画像であり、例えば、案内用ロボット1が移動可能なエリア内に存在する複数の目的地候補の情報を示す目的地候補画像、目的地候補画像をタッチパネルディスプレイ20に表示する際の複数の表示形態候補の情報を示す表示形態候補画像等を含む。
自己位置推定部52dは、第1及び第2ロータリエンコーダ62L及び62Rが出力する回転角度位置情報(回転情報)を入力し、その回転角度位置情報に基づいて、移動体2の移動方向とスタート地点からの移動距離とを算出する。すなわち、移動方向と移動距離とは、スタート地点から積算した左右の駆動輪6L,6Rの回転量に基づいて算出する。なお、スタート地点は予め決められた位置であり、マップ格納部52gに格納したフロア形状図にその情報を含ませておく。なお、スタート地点は、予め決められた位置に限らず、エリア内の任意の位置としてもよい。この場合、例えば、原点位置を予め決定しておき、原点位置からの移動方向及び移動距離の情報を保持しておくものとする。
自己位置補正部52eは、自己位置推定部52dで推定した自己位置情報と、第1障害物検出センサ22が出力する障害物位置情報と、位置測位センサ23が出力する天井マーカ位置情報とを読込み、公知のパーティクルフィルタを用いて、自己位置推定部52dで推定した自己位置を補正する。
この自己位置補正部52eは、案内用ロボット1の移動中、常時、第1障害物検出センサ22からスキャン角度及び距離検出値を読込み、案内用ロボット1の周囲に何らかの物体を検出したとき、その検出パターンを記憶する。同時に、案内用ロボット1の周囲にパーティクルをランダムに配置し、それぞれのパーティクルからその物体がどのように検出されるか、検出パターンを算出する。
移動体2の走行距離が長くなると、自己位置推定部52dで算出する積算値は誤差を含むようになるが、自己位置補正部52eによりパーティクルフィルタを用いて自己位置を補正することで、上記誤差を解消することができる。更に、上記パーティクルフィルタを用いた補正処理でも解消できない誤差は、位置測位センサ23が読み取った天井マーカの位置情報を用いて補正することで解消することができる。また、天井マーカは、初期位置、現在地、方位、現在階の認識に用いることができる。
ルート生成部52fは、目的地決定部52bが出力する目的地情報と、自己位置補正部52eが出力する自己位置情報とを入力し、マップ格納部52gに格納したフロア形状図を用いて案内用ロボット1の走行経路情報を生成する。
ルート生成部52fは、生成した走行経路情報を、走行制御部51の走行方向算出部51aに出力する。
ルート生成部52fは、更に、生成した走行経路情報に含まれる各ブロックの情報のうち、予め設定した被案内者に知らせるべき情報について音声案内情報を生成し、音声出力部52iに出力する。具体的に、ルート生成部52fは、自己位置補正部52eから入力される移動体2の現在位置に基づき、現在位置のブロック番号に対応する音声案内情報がある場合に、この音声案内情報を、音声出力部52iに出力する。
ナビゲーション画像表示部52hは、メニュー画像表示部52aが出力する選択情報M2と、目的地決定部52bが出力する目的地情報と、自己位置補正部52eが出力する自己位置情報と、ルート生成部52fが出力する走行経路情報と、障害物検出部51bが出力する障害物検出位置情報とを入力する。
そして、ナビゲーション画像表示部52hは、選択情報M2の入力に応じて、地図設定画像をタッチパネルディスプレイ20に表示し、地図設定画像を表示しているときのタッチ位置の情報に基づき、ナビゲーション画像の表示形態(以下、「ナビ表示形態」と記載する場合がある)等を設定する。地図設定画像は、図示省略するが、例えば、2D表示、3D表示などの複数のナビ表示形態候補のうちからタッチ入力によっていずれかのナビ表示形態を選択することなどが可能な画像である。
ここで、ナビゲーション画像は、案内用ロボット1の現在位置周辺の地図画像と、現在位置のマーカ画像と、目的地までの経路を示す画像と、経路上に存在する障害物の画像とを含むものである。また、ナビゲーション画像は、案内用ロボット1の移動に応じて、表示内容が更新されるようになっている。また、ナビゲーション画像の地図画像中には、目的地までの途中に存在するランドマーク(目印)となる施設のブロックと、該ブロックに対して例えば施設名を示す画像が重ねて又は注釈で表示される。
ここで、音声設定画像は、日本語、英語、ドイツ語、フランス語、スペイン語、中国語、韓国語等の言語種類、男性の声、女性の声等の音声種類、音声ボリューム等を、タッチパネルディスプレイ20を介したタッチ入力によって設定するための画像である。
音声出力部52iは、案内が開始されると、ルート生成部52fから入力された音声案内情報に基づき、スピーカ67から音声を出力する。
次に、図6に基づき、目的地決定部52bについて具体的に説明する。
目的地決定部52bは、図6に示すように、表示形態候補画像表示部521と、目的地候補画像表示部522とを備えている。
表示形態候補画像表示部521は、選択情報M1が入力されたことに応じて、画像格納部52cから表示形態候補画像データを読み出し、読み出した表示形態候補画像データに基づき表示形態候補画像をタッチパネルディスプレイ20に表示する。
表示形態候補としては、例えば、50音順、アルファベット順、番号順、新しい順、古い順、人気の高い順、人気の低い順、近い順、遠い順、種類順、小さい文字、中くらいの文字、大きい文字、これらのうちいずれか2以上の組合せなどがあり、これらのうちから案内するエリアの種類等に応じていくつかの表示形態候補が予め設定されている。
この場合、これらの施設を50音順で表示する表示形態や、これらの施設に通し番号を設定しておき、その番号の小さい順又は大きい順に表示する表示形態などを表示形態候補として表示する。
目的地候補画像表示部522は、表示形態候補画像表示部521からの表示形態情報DFの入力に応じて、画像格納部52cから表示形態情報DFに対応する目的地候補画像データを読み出し、読み出した目的地候補画像データに基づき目的地候補画像をタッチパネルディスプレイ20に表示する。また、目的地候補画像をタッチパネルディスプレイ20に表示しているときに、タッチパネルディスプレイ20からタッチ位置入力I/F57を介して入力されるタッチ位置情報に基づき、複数の目的地候補のうちから選択された目的地候補を示す目的地情報ODをルート生成部52fに出力する。
次に、図7に基づき、演算処理装置31で実行される目的地決定処理の処理手順について説明する。
演算処理装置31において、目的地決定処理が開始されると、図7に示すように、まず、ステップS100に移行する。
ステップS100では、目的地決定部52bの表示形態候補画像表示部521において、目的地設定メニューが選択されたことを示す選択情報M1が入力されたか否かを判定する。そして、入力されたと判定した場合(Yes)は、ステップS102に移行し、そうでないと判定した場合(No)は、選択情報M1が入力されるまで判定処理を繰り返す。
ステップS104では、表示形態候補画像表示部521において、表示形態候補画像が表示されているときのタッチパネルディスプレイ20からのタッチ位置の情報に基づき、表示形態候補が選択されたか否かを判定する。そして、選択されたと判定した場合(Yes)は、選択された表示形態候補を目的地候補画像の表示形態として設定し、設定した表示形態を示す表示形態情報DFを目的地決定部52bの目的地候補画像表示部522に出力して、ステップS106に移行する。一方、選択されていないと判定した場合(No)は、選択されるまで判定処理を繰り返す。
ステップS106に移行した場合は、目的地候補画像表示部522において、表示形態情報DFの入力に応じて、画像格納部52cから表示形態情報DFに対応する目的地候補画像データを読み出し、読み出した目的地候補画像データに基づき、表示形態情報DFの示す表示形態の目的地候補画像をタッチパネルディスプレイ20に表示する。その後、ステップS108に移行する。
また、目的地となる施設数が多くて、一画面に表示しきれない場合は、スクロールバー等によってスクロール表示するように構成されている。
なお、判定処理を繰り返すことに加えて、例えば「戻るボタン」を表示するように構成し、目的地の選択前に「戻るボタン」がタッチされた場合に、表示形態候補画像の表示画面に戻るようにしてもよい。
ステップS110に移行した場合は、目的地候補画像表示部522において、ステップS108で設定した目的地を示す目的地情報ODをルート生成部52fに出力して、一連の処理を終了する。
次に、図8に基づき、演算処理装置31で実行される歩行支援処理の処理手順について説明する。
演算処理装置31において、歩行支援処理が実行されると、図8に示すように、まず、ステップS200に移行する。
ステップS200では、ルート生成部52fにおいて、目的地決定部52bからの目的地情報ODが入力されたか否かを判定する。そして、入力されたと判定した場合(Yes)は、ステップS202に移行し、そうでないと判定した場合(No)は、目的地情報ODが入力されるまで判定処理を繰り返す。
また、ルート生成部52fは、自己位置補正部52eからの自己位置情報に基づき、案内用ロボット1が、走行経路上の音声案内が用意されているブロックに移動したときに、その都度、移動したブロックに対応する音声案内情報を音声出力部52iに出力するようになっている。
ステップS204に移行した場合は、走行方向算出部51aにおいて、自己位置情報と、走行経路情報とに基づき、案内用ロボット1の進行方向(旋回角度θ)を決定して、ステップS206に移行する。なお、直進の場合は、旋回角度θが0度となる。
ステップS208では、走行方向算出部51aにおいて、ステップS204で決定した旋回角度θと、ステップS206で算出した前後進速度V0と、予め設定した旋回半径rとに基づき、上式(2)に従って、案内用ロボット1の旋回速度ω0を算出する。その後、ステップS210に移行する。
ステップS212では、第1及び第2モータドライバ61L及び61Rにおいて、速度指令値に基づき、第1及び第2電動モータ9L及び9Rを駆動制御する。これにより、案内用ロボット1が、走行経路に沿って直進走行又は旋回走行を行う。その後、ステップS214に移行する。
ステップS214では、走行方向算出部51aにおいて、自己位置情報と走行経路情報とに基づき、案内用ロボット1が目的地に到達したか否かを判定する。そして、到達したと判定した場合(Yes)は、歩行支援処理を終了する。一方、到達していないと判定した場合(No)は、ステップS204に移行する。
即ち、本実施形態の案内用ロボット1は、被案内者は前後進速度V0を指示するための操作を行うのみで、目的地までの進行方向(旋回角度θ)及び旋回速度ω0の決定は、案内用ロボット1が自律的に行うものである。
次に、図9及び図10に基づき、本実施形態の動作について説明する。
被案内者が移動体2の後方に立ち、図示しない始動スイッチをオン状態とすると、移動体2に内蔵するバッテリの電力が走行制御装置30及び第1及び第2モータドライバ61L及び61Rに供給され、移動体2が走行可能状態となる。このとき、目的地が設定されていないため移動体2は停止状態を維持する。また、目的地案内部52は、電力の供給に応じて、図9(a)に示すように、タッチパネルディスプレイ20にメニュー画像MPを表示する。
なお、操作方法が良く解らない場合などの困ったことがあった場合は、スタッフ呼出ボタン画像SCの表示位置をタッチすることで、無線でスタッフまで連絡が届き、案内用ロボット1のところまでスタッフを呼び出すことが可能となっている。
メニュー画像が表示された状態で、被案内者が目的地を設定するためにタッチパネルディスプレイ20に表示された各設定ボタン画像B1〜B3のうち目的地設定ボタン画像B1の表示位置をタッチしたとする。これにより、タッチ位置の情報が目的地案内部52に入力される。
表示形態候補画像FPは、図9(b)に示すように、画面上部に表示された「目的地設定」のタイトルを示す第2タイトル画像TP2と、第2タイトル画像TP2の下部に表示された「50音順」の文字が描かれた50音順選択ボタン画像B4と、50音順選択ボタン画像B4の下部に表示された「番号順」の文字が描かれた番号順選択ボタン画像B5と、番号順選択ボタン画像B5の下部に表示された「番号入力」の文字が描かれた番号入力選択ボタン画像B6とを含んで構成される。更に、表示形態候補画像FPは、画面右上隅に表示されたスタッフ呼出ボタン画像SCと、画面左下隅に表示された「戻る」の文字が描かれた戻るボタン画像RBとを含んで構成される。
そして、被案内者が、50音順選択ボタン画像B4の表示位置をタッチすることで、目的地案内部52は、そのタッチ位置の情報から50音順選択ボタン画像B4がタッチされたことを判定する。そして、図10(a)に示すように、タッチパネルディスプレイ20に、50音順の表示形態に対応する第1目的地候補画像OP1を表示する。
第1目的地候補画像OP1は、図10(a)に示すように、画面上部に表示された「目的地設定(50音順)」のタイトルを示す第3タイトル画像TP3と、第3タイトル画像TP3の下部に表示された案内用ロボット1が案内するエリア内に存在する複数の目的地候補の施設名を示す文字画像が50音順に配列された50音順画像FTとを含んで構成される。更に、第1目的地候補画像OP1は、50音順画像FTの下部に表示された「案内開始」の文字が描かれた案内開始ボタン画像IBと、画面右上隅に表示されたスタッフ呼出ボタン画像SCと、画面左下隅に表示された戻るボタン画像RBとを含んで構成される。
従って、50音順画像FTは、図10(a)に示すように、「アレルギーリウマチ科」、「心臓血管外科」、「脳神経外科」、「皮膚科」、「泌尿器科」・・・といったように施設名を示す文字画像が50音順で上から順番に表示された画像となる。
このように、案内開始ボタン画像IBの表示位置をタッチするまでは、目的地が確定しないようになっているので、間違った施設名をタッチしてしまった場合に何度でもやり直すことが可能となっている。
また、現在の表示形態を変更したい場合は戻るボタン画像RBの表示位置をタッチすることで表示形態候補画像FPの表示画面に戻ることが可能となっている。
ここで、第2目的地候補画像OP2は、図10(b)に示すように、画面上部に表示された「目的地設定(番号順)」のタイトルを示す第4タイトル画像TP4と、第4タイトル画像TP4の下部に表示された案内用ロボット1が案内するエリア内に存在する複数の目的地候補の施設名を示す文字画像が番号順に配列された番号順画像NTとを含んで構成される。更に、第2目的地候補画像OP2は、番号順画像NTの下部に表示された案内開始ボタン画像IBと、画面右上隅に表示されたスタッフ呼出ボタン画像SCと、画面左下隅に表示された戻るボタン画像RBとを含んで構成される。
従って、番号順画像NTは、図10(b)に示すように、・・・「10:皮膚科」、「11:心臓血管外科」、「12:脳神経外科」、「13:アレルギーリウマチ科」、「14:泌尿器科」・・・といったように通し番号及び施設名を示す文字画像が番号順で上から順番に表示された画像となる。
そして、被案内者は、表示欄内に目的の施設名を見つけた場合、その施設名の表示位置をタッチすることで、タッチした施設名の文字画像が強調表示され、この強調表示された状態で案内開始ボタン画像IBの表示位置をタッチすることで強調表示された施設名の施設が選択され目的地として設定される。これにより、目的地が確定する。
番号入力用画像NIPは、図10(c)に示すように、画面上部に表示された「目的地設定(番号入力)」のタイトルを示す第5タイトル画像TP5と、第5タイトル画像TP5の下部に表示された番号入力欄画像NIと、番号入力欄画像NIの右隣に表示された施設名表示欄画像DIと、番号入力欄画像NI及び施設名表示欄画像DIの下部に表示された1〜9までの9つの数字ボタン画像から構成される番号ボタン画像NBと、番号ボタン画像NBの右隣に表示された「削除」の文字が描かれた削除ボタン画像DBとを含んで構成される。加えて、番号入力用画像NIPは、番号ボタン画像NBの下部に表示された案内開始ボタン画像IBと、画面右上隅に表示されたスタッフ呼出ボタン画像SCと、画面左下隅に表示された戻るボタン画像RBとを含んで構成される。
即ち、本実施形態では、被案内者が目的地の番号を把握している場合などに、目的地に対応する番号を直接入力して目的地を設定できるようになっている。
目的地が確定すると、目的地案内部52は、先ず、地図情報に含まれるフロア形状図に基づいて現在位置(スタート地点)から目的地までの走行経路を生成する。
目的地案内部52は、生成した走行経路情報を、走行制御部51に出力する。また、目的地案内部52は、生成した走行経路情報に含まれるブロックのうち、音声案内をすべき場所情報について音声案内情報を生成する。この音声案内情報による音声の出力は、案内用ロボット1が、音声案内を要するブロックに移動したときに行われる。
被案内者は、ナビゲーション画像を見てランドマークとなる施設名などを確認しながら歩行することで、正しい経路を進んでいるかを容易に確認することが可能となる。
その後、被案内者が操作入力部17のグリップ18を把持しながらY軸方向へ押すと、走行制御部51は、その操作入力情報(Fy及びFz')を入力する。すると、走行制御部51は、入力した操作入力情報に基づいて前後進速度V0を算出する。更に、走行制御部51は、前後進速度V0及び予め設定した旋回半径rとから旋回速度ω0を算出する。ここでは、直進移動するため、旋回速度ω0が0〔m/s〕となる。
そして、算出した前後進速度V0と旋回速度ω0とから前後進速度Vと旋回速度ωとが決定され、これらに基づいて第1及び第2電動モータ9L及び9Rを駆動するための速度指令値を第1及び第2モータドライバ61L及び61Rに出力する。
これにより、案内用ロボット1は、走行制御部51が決定した進行方向に向かって直進走行する。その後、案内用ロボット1が左折又は右折すべき位置に到達すると、走行制御部51は、目的地へと向かう方向へと移動すべく、新たな進行方向を決定する。ここでは、例えばT字路を右折することとして、走行制御部51は、右旋回方向に90度旋回する旋回角度θを決定する。引き続き、走行制御部51は、被案内者によるグリップ18の操作入力情報に基づいて前後進速度V0を算出し、この前後進速度V0と旋回半径rとから旋回速度ω0を算出する。そして、算出した前後進速度V0と旋回速度ω0とから前後進速度Vと旋回速度ωが決定され、これらに基づいて第1及び第2電動モータ9L及び9Rを駆動するための速度指令値を第1及び第2モータドライバ61L及び61Rに出力する。これにより、案内用ロボット1は、90度右旋回して、目的の方向へと向く。
また、案内用ロボット1の移動途中で音声案内すべきブロックへと到達すると、目的地案内部52によって、現在、歩行中のブロックの場所情報等を音声で案内する。
その後、案内用ロボット1が、目的地へと到達すると、案内用ロボット1が停止すると共に、目的地案内部52によって、目的地に到達したことを知らせる音声案内が行われる。
また、走行制御部51は、操作入力情報に基づいて算出した前後進速度V0及び旋回速度ω0を、障害物を回避する方向に補正し、それを最終的な前後進速度V及び旋回速度ωとして算出する。そして、算出した前後進速度V及び旋回速度ωに基づいて第1及び第2電動モータ9L及び9Rを駆動するための速度指令値を算出し、これを第1及び第2モータドライバ61L及び61Rに出力する。これにより、移動体2は、現在の走行方向を、障害物を回避する方向に変更して走行する。
ここで、第1及び第2電動モータ9L及び9Rがアクチュエータに対応し、走行制御部51が移動制御部に対応し、タッチパネルディスプレイ20が表示入力部に対応している。
また、走行方向算出部51aが目標進行方向決定部に対応し、自己位置推定部52d及び自己位置補正部52eが自己位置推定部に対応し、ルート生成部52fが経路生成部に対応し、マップ格納部52gが地図情報格納部に対応している。
(1)本実施形態に係る案内用ロボット1は、移動体2が、第1及び第2電動モータ9L及び9Rから付与される駆動力によって任意の方向に移動可能に構成されている。タッチパネルディスプレイ20が、移動体2に取り付けられ、画像を表示する表示部と被案内者が表示部の表示面をタッチしたときのタッチ位置の情報を入力するタッチパネルとを備える。目的地候補画像表示部522が、表示パネルに、被案内者の案内先となる複数の目的地候補の情報を示す画像である目的地候補画像を表示する。目的地候補画像表示部522が、表示部に目的地候補画像が表示されているときのタッチ位置の情報に基づき、複数の目的地候補のうちからタッチ位置に対応する目的地候補を選択し、選択した目的地候補を目的地として設定する。マップ格納部52gが、移動体2が移動するエリアの地図情報を格納する。自己位置推定部52d及び自己位置補正部52eが、移動体2の現在位置を推定する。ルート生成部52fが、地図情報に基づき、自己位置推定部52d及び自己位置補正部52eで推定した現在位置から目的地候補画像表示部522で設定した目的地までの移動体2の移動経路を生成する。走行方向算出部51aが、自己位置推定部52d及び自己位置補正部52eで推定した現在位置とルート生成部52fで生成した移動経路とに基づき、移動体2の目標進行方向を決定する。走行制御部51が、走行方向算出部51aで決定した目標進行方向に基づき、第1及び第2電動モータ9L及び9Rを駆動制御して移動体2の移動を制御する。
これによって、複数の目的地候補が表示されている表示面における所望の目的地候補の表示位置をタッチするといった簡易な操作で目的地の設定を行うことが可能となり、例えば目的地の名称を入力するといった比較的複雑な操作を要する場合と比較して目的地の設定にかかる時間を低減することが可能となる。その結果、案内用ロボットが1人の被案内者によって占有される時間を短縮することが可能となり、案内用ロボットの稼動効率を向上することが可能となる。
この構成であれば、複数の目的地候補を表示する際に、その表示形態を複数の表示形態のうちから選択し、選択した表示形態で目的地候補画像を表示させることが可能となる。
これによって、被案内者が、目的地候補を見つけやすい好みの表示形態で目的地候補画像を表示させることが可能となり、目的地の設定にかかる時間をより低減することが可能となる。その結果、案内用ロボットが1人の被案内者によって占有される時間をより短縮することが可能となり、案内用ロボットの稼動効率をより向上することが可能となる。
この構成であれば、案内用ロボット1が車輪移動型ロボットとして構成されるので、脚型ロボット等と比較して簡易に旋回制御や速度制御等の移動制御を行うことが可能となる。
この構成であれば、案内用ロボット1を、屋内施設を案内するロボットとして構成することが可能となる。これによって、雨の降っている環境下等の屋外に特有の環境下での活動を考慮しなくて済むので、案内用ロボット1を比較的安価に製造することが可能となる。
この構成であれば、被案内者は、タッチパネルディスプレイ20の表示パネルに表示されたナビゲーション画像を見ながら案内を受けることが可能となる。
これによって、被案内者は、正しい経路を進んでいることを常に確認することが可能となり、安心して案内を受けることが可能となる。
この構成であれば、移動体2の周囲に障害物を検出した場合に、移動体2の移動方向を、障害物を回避する方向に補正する制御を行うことが可能となる。
これによって、障害物との接触を回避しながら移動体2の移動を継続することが可能となる。
(1)上記実施形態において、目的地候補の文字画像の表示位置をタッチすることで、目的地候補の文字画像を強調表示して選択していることが解るように構成したが、例えば、強調表示に加えて、選択された目的地候補の概要等を音声案内又は文字表示する構成としてもよい。例えば、施設名からどのような施設なのか解りづらい場合や似たような名称のものが複数ある場合などに、概要を音声案内又は文字表示することで被案内者が間違った目的地を設定することを低減することが可能となる。
(4)上記実施形態においては、移動体2として、前側にキャスター5を設置し、後輪側に駆動輪6L及び6Rを設ける場合について説明したが、前側の左右位置に駆動輪を配置し、後輪側にキャスターを配置するようにしてもよい。
(6)上記実施形態においては、ダイクストラ法を用いて走行経路を探索する構成としたが、この構成に限らない。例えば、ポテンシャル法、深さ優先探索、幅優先探索などの他のアルゴリズムを用いて経路を探索してもよい。
Claims (6)
- アクチュエータから付与される駆動力によって任意の方向に移動可能な移動体と、
前記移動体に取り付けられ、画像を表示する表示部と被案内者が前記表示部の表示面をタッチしたときのタッチ位置を検出するタッチ位置検出部とを備えた表示入力装置と、
前記表示部に、前記被案内者の案内先となる複数の目的地候補の情報を示す画像である目的地候補画像を表示する目的地候補画像表示部と、
前記表示部に前記目的地候補画像が表示されているときの前記タッチ位置の情報に基づき、前記複数の目的地候補のうちからタッチ位置に対応する目的地候補を選択し、選択した目的地候補を目的地として設定する目的地設定部と、
前記移動体が移動するエリアの地図情報が格納された地図情報格納部と、
前記移動体の現在位置を推定する自己位置推定部と、
前記地図情報に基づき、前記自己位置推定部で推定した現在位置から前記目的地設定部で設定した目的地までの前記移動体の移動経路を生成する経路生成部と、
前記自己位置推定部で推定した現在位置と前記経路生成部で生成した移動経路とに基づき、前記移動体の目標進行方向を決定する目標進行方向決定部と、
前記目標進行方向決定部で決定した目標進行方向に基づき、前記アクチュエータを駆動制御して前記移動体の移動を制御する移動制御部と、を備えることを特徴とする案内用ロボット。 - 前記表示部に、前記目的地候補画像を表示する際の複数の表示形態候補の情報を示す表示形態候補画像を表示する表示形態候補画像表示部と、
前記表示形態候補画像が表示されているときの前記タッチ位置の情報に基づき、前記複数の表示形態候補のうちからタッチ位置に対応する表示形態候補を表示形態として設定する表示形態設定部と、を備え、
前記目的地候補画像表示部は、前記表示形態設定部で設定した表示形態で前記目的地候補画像を表示する請求項1に記載の案内用ロボット。 - 前記移動体は、車輪を備え、前記アクチュエータから付与される駆動力によって前記車輪を回転駆動して任意の方向に走行可能な車輪型の移動体である請求項1又は2に記載の案内用ロボット。
- 前記移動体が移動するエリアは屋内であり、前記複数の目的地候補は前記エリア内に存在する複数の屋内施設である請求項1から3のいずれか1項に記載の案内用ロボット。
- 前記地図情報と前記自己位置推定部で推定した現在位置と前記経路生成部で生成した移動経路とに基づき、前記表示部に前記現在位置の周辺の地図、前記現在位置及び前記移動経路の情報を示すナビゲーション画像を表示するナビゲーション画像表示部を備える請求項1から4のいずれか1項に記載の案内用ロボット。
- 前記移動体の周囲の障害物を検出する障害物検出部を備え、
前記移動制御部は、前記障害物検出部で障害物を検出したとき、前記障害物を回避する方向に、前記移動体の移動方向を補正する前記アクチュエータの駆動制御を行う請求項1から5のいずれか1項に記載の案内用ロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015227613A JP2017097537A (ja) | 2015-11-20 | 2015-11-20 | 案内用ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015227613A JP2017097537A (ja) | 2015-11-20 | 2015-11-20 | 案内用ロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017097537A true JP2017097537A (ja) | 2017-06-01 |
JP2017097537A5 JP2017097537A5 (ja) | 2019-01-10 |
Family
ID=58817000
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015227613A Pending JP2017097537A (ja) | 2015-11-20 | 2015-11-20 | 案内用ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017097537A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019044499A1 (ja) * | 2017-09-04 | 2019-03-07 | 日本電産株式会社 | 移動体、位置推定装置、およびコンピュータプログラム |
CN111033425A (zh) * | 2017-09-04 | 2020-04-17 | 日本电产株式会社 | 移动体、位置推断装置以及计算机程序 |
CN114527743A (zh) * | 2020-11-06 | 2022-05-24 | 熊机器人技术有限公司 | 用于控制机器人的目的地的方法、系统及记录介质 |
WO2023089867A1 (ja) * | 2021-11-19 | 2023-05-25 | 村田機械株式会社 | 搬送システム |
CN116817903A (zh) * | 2023-08-24 | 2023-09-29 | 湖南大学 | 一种基于先验视觉引导的智能机器人全局定位方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005221497A (ja) * | 2004-02-05 | 2005-08-18 | Alpine Electronics Inc | ナビゲーションシステムの表示方法と装置 |
JP2010271911A (ja) * | 2009-05-21 | 2010-12-02 | Nsk Ltd | 案内用ロボット及びその制御方法 |
KR20150051709A (ko) * | 2013-11-05 | 2015-05-13 | 임재호 | 환자용 안전 보행 도움기 |
WO2015068229A1 (ja) * | 2013-11-07 | 2015-05-14 | 富士機械製造株式会社 | 自動運転システム及び自動走行機 |
JP2016024766A (ja) * | 2014-07-24 | 2016-02-08 | 日本精工株式会社 | 案内用ロボット |
-
2015
- 2015-11-20 JP JP2015227613A patent/JP2017097537A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005221497A (ja) * | 2004-02-05 | 2005-08-18 | Alpine Electronics Inc | ナビゲーションシステムの表示方法と装置 |
JP2010271911A (ja) * | 2009-05-21 | 2010-12-02 | Nsk Ltd | 案内用ロボット及びその制御方法 |
KR20150051709A (ko) * | 2013-11-05 | 2015-05-13 | 임재호 | 환자용 안전 보행 도움기 |
WO2015068229A1 (ja) * | 2013-11-07 | 2015-05-14 | 富士機械製造株式会社 | 自動運転システム及び自動走行機 |
JP2016024766A (ja) * | 2014-07-24 | 2016-02-08 | 日本精工株式会社 | 案内用ロボット |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019044499A1 (ja) * | 2017-09-04 | 2019-03-07 | 日本電産株式会社 | 移動体、位置推定装置、およびコンピュータプログラム |
CN111033426A (zh) * | 2017-09-04 | 2020-04-17 | 日本电产株式会社 | 移动体、位置推断装置以及计算机程序 |
CN111033425A (zh) * | 2017-09-04 | 2020-04-17 | 日本电产株式会社 | 移动体、位置推断装置以及计算机程序 |
JPWO2019044499A1 (ja) * | 2017-09-04 | 2020-08-20 | 日本電産株式会社 | 移動体、位置推定装置、およびコンピュータプログラム |
JP7111424B2 (ja) | 2017-09-04 | 2022-08-02 | 日本電産シンポ株式会社 | 移動体、位置推定装置、およびコンピュータプログラム |
US11537140B2 (en) | 2017-09-04 | 2022-12-27 | Nidec-Shimpo Corporation | Mobile body, location estimation device, and computer program |
CN114527743A (zh) * | 2020-11-06 | 2022-05-24 | 熊机器人技术有限公司 | 用于控制机器人的目的地的方法、系统及记录介质 |
WO2023089867A1 (ja) * | 2021-11-19 | 2023-05-25 | 村田機械株式会社 | 搬送システム |
CN116817903A (zh) * | 2023-08-24 | 2023-09-29 | 湖南大学 | 一种基于先验视觉引导的智能机器人全局定位方法及系统 |
CN116817903B (zh) * | 2023-08-24 | 2023-11-21 | 湖南大学 | 一种基于先验视觉引导的智能机器人全局定位方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017097537A (ja) | 案内用ロボット | |
Wachaja et al. | Navigating blind people with walking impairments using a smart walker | |
Baker et al. | Improved interfaces for human-robot interaction in urban search and rescue | |
US7788028B2 (en) | Navigation system | |
US7577518B2 (en) | Navigation system | |
JP6126139B2 (ja) | 移動補助ロボット | |
JP2006107475A (ja) | 移動ロボット | |
KR20170109283A (ko) | 차량 및 차량의 제어방법 | |
JP7075822B2 (ja) | マップ情報更新システム | |
JP2017004102A (ja) | 走行装置、案内用ロボット及び走行装置の制御方法 | |
JP2016024766A (ja) | 案内用ロボット | |
JP6638348B2 (ja) | 移動ロボットシステム | |
JP2018120524A (ja) | 案内用ロボット | |
JP5009205B2 (ja) | 駐車支援装置 | |
JP6303784B2 (ja) | 駐車支援装置及び駐車支援方法 | |
JP6299401B2 (ja) | 駐車支援装置及び駐車支援方法 | |
JPH10230862A (ja) | 車両用駐車補助装置 | |
JP2002036152A (ja) | 自律移動ロボット | |
JP2010190593A (ja) | 地図表示装置 | |
JP2008185452A (ja) | ナビゲーション装置 | |
JP2014218139A (ja) | 運転支援装置 | |
CN116327570A (zh) | 一种面向主动引导的多模式自主驱动导盲方法及装置 | |
JP2007017331A (ja) | ナビゲーション装置 | |
JPWO2016199311A1 (ja) | 移動筐体 | |
JP2017124231A (ja) | 移動補助ロボット |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181115 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190917 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190918 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200317 |