JP2022185185A - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP2022185185A
JP2022185185A JP2021092691A JP2021092691A JP2022185185A JP 2022185185 A JP2022185185 A JP 2022185185A JP 2021092691 A JP2021092691 A JP 2021092691A JP 2021092691 A JP2021092691 A JP 2021092691A JP 2022185185 A JP2022185185 A JP 2022185185A
Authority
JP
Japan
Prior art keywords
map information
robot
boarding
time
floor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021092691A
Other languages
English (en)
Other versions
JP2022185185A5 (ja
Inventor
アレックス 益男 金子
Alex Masuo Kaneko
久洋 腰塚
Hisahiro Koshizuka
雅俊 芝崎
Masatoshi Shibazaki
亮介 中村
Ryosuke Nakamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Building Systems Co Ltd
Original Assignee
Hitachi Building Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Building Systems Co Ltd filed Critical Hitachi Building Systems Co Ltd
Priority to JP2021092691A priority Critical patent/JP2022185185A/ja
Priority to CN202210478699.7A priority patent/CN115494835A/zh
Publication of JP2022185185A publication Critical patent/JP2022185185A/ja
Publication of JP2022185185A5 publication Critical patent/JP2022185185A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)

Abstract

【課題】目的地に向かって移動するロボットにおいて、分割地図情報の切り換え時の現在位置を推定するためにロボットを敢えて停止させて無駄な待ち時間が発生するのを抑制することができるロボットを提供する。【解決手段】2つの分割地図情報をメモリにローディングする分割地図情報ローディング手段と、メモリに記憶された分割地図情報を用いて目的地への走行経路を求めるナビゲーション手段と、現在位置から目的地へ移動する走行経路上のロボットが停止する状態となる所定数の停止個所までの移動時間と、次の分割地図情報を読み出して現在位置を推定するまでの地図切換時間とを求める時間推定手段と、所定数の停止個所までの移動時間と地図切換時間の関係性を判断して、現在の分割地図情報から次の分割地図情報に切り換える停止個所を決定する地図情報切換手段を備える。【選択図】図2B

Description

本発明は自律的に移動可能なロボットに係り、特に地図情報に基づいて自律的に移動するロボットに関する。
自律的に移動可能なロボットは、ロボットに搭載したセンサ類(カメラ等)を使用して周囲の環境情報を収集し、ロボットの現在位置、及び走行経路を推定して移動するように構成されている。
ロボットの現在位置を推定するには、一般的にGPS信号を使用することが多いが、建築物内で使用されるロボットでは、GPS信号による検出精度が十分でない場合があり、正確な位置が推定できないという課題がある。このため、ロボットに搭載したセンサ類、例えば、カメラの撮像画像に撮像されている事物(撮像)と、地図に記憶されている事物(地図)とを比較(マッチング)し、これらの認識結果から現在位置を推定することが提案されている。
この現在位置の推定精度は、例えば、収集した周囲の画像情報の精度や量に依存する。収集した画像情報量が多い場合は、精度よく現在位置を推定できるが、これに合わせて比較される地図情報も多く必要となる。特に、建築物内において使用される案内用のロボットにおいては、複数の階床に跨ってエレベーターを利用して移動するため、多くの地図情報が必要である。
したがって、ハードディスク装置のような外部記憶装置から、現在位置を推定するための地図情報を転送して一時的に記憶するために、ロボットの制御装置には大容量のメモリ(RAM)が必要になる。また、多くの地図情報を取り扱うための処理時間が必要となる。このため、ロボットの走行制御に支障が生じてロボットを運営、管理する上で好ましいものではない。
このような課題に対して、例えば、特開2017-21570号公報(特許文献1)には、次のことが示されている。外部記憶装置には複数に分割された分割地図情報が格納されており、この外部記憶装置から、2つ以上の階床の分割地図情報を1つにまとめて形成した複数階床地図情報を読み込んでメインメモリ(例えば、RAM)に書き込んでいる。そして、走行経路生成部によって、メインメモリに記憶されている複数階床地図情報を参照して、予め設定された目的地までのロボットの走行経路が生成されている。
これによって、ロボットが他の階床に移動するとしても、外部記憶装置から多くの地図情報の読み込みを行わなくて済み、しかも分割された地図情報であるので、メインメモリへの書き込み(ローディング)に伴う待ち時間の発生も抑制することができる。これにより、ロボットを他の階床に円滑に移動することができる。
特開2017-21570号公報
このようなロボットにおいては、走行経路を求めるために、演算手段(CPU)は、メインメモリから分割地図情報を読み出し、この読み出された分割地図情報を参照して現在位置の推定演算を実行している。そして、ロボットが走行するにつれて、現在の分割地図情報に代えて新たな分割地図情報に切り換えて、再び切り換えられた分割地図情報を読み出し、読み出された地図情報を参照して現在位置の推定演算を逐次実行している。
ところで、メインメモリから分割地図情報を読み出して現在位置を推定するまでには所定の時間(以下、地図切換時間と称することもある)を必要とする。このため、ロボットの走行に合わせて、この分割地図情報を切り換え、再読み出しを実行して現在位置を推定する地図切換時間の間は、安全性を確保するためにロボットを走行させず、ロボットを停止して分割地図情報を参照して現在位置を推定する必要がある。尚、地図情報が多いほど、この停止時間は長くなる傾向にある。
このように、ロボットの走行に合わせて現在位置を推定するために、分割地図情報を切り換えて参照する場合は、走行中のロボットを敢えて停止するため、無駄な待ち時間が発生する。更には、ロボットに必ずしも多くの地図情報を記憶できる容量のメモリが搭載されているとは限らなく、また、メインメモリのメモリ容量をできるだけ少なくしたいという要請もある。
本発明の主たる目的は、目的地に向かって移動するロボットにおいて、分割地図情報の切り換え時に、現在位置を推定するために走行中のロボットを敢えて停止させることによる無駄な待ち時間が発生するのを抑制することができるロボットを提供することにある。
本発明の特徴は、
制御手段によって求められた複数の階床に跨った目的地にエレベーターを利用して移動する場合において、制御手段は、
ロボットが搭乗階エレベーター乗り場に向かって移動する前に、少なくとも、搭乗階エレベーター乗り場付近分割地図情報と目的階エレベーター乗り場付近分割地図情報をメモリにローディングする昇降エリア地図情報ローディング手段と、
メモリに記憶された搭乗階エレベーター乗り場付近分割地図情報と目的階エレベーター乗り場付近分割地図情報を用いて、現在位置から目的地への走行経路を求めるナビゲーション手段と、
搭乗階エレベーター乗り場から目的階エレベーター乗り場へ移動する走行経路における、ロボットが意図的に停止する状態となる所定の停止個所までの移動時間を推定する移動時間推定手段と、
搭乗階エレベーター乗り場付近分割地図情報から目的階エレベーター乗り場付近分割地図情報に切り換えるときの、目的階エレベーター乗り場付近分割地図情報を読み出して現在位置を推定するまでの地図切換時間を求める地図切換時間推定手段と、
移動時間と地図切換時間の関係性を判断して、搭乗階エレベーター乗り場付近分割地図情報から目的階エレベーター乗り場付近分割地図情報に切り換える停止個所を決定する地図情報切換手段を備える
ところにある。
本発明によれば、目的地に向かって移動するロボットにおいて、分割地図情報の切り換え時に走行中のロボットを敢えて停止させないので、分割地図情報を参照して現在位置を推定するための無駄な待ち時間が発生するのを抑制することができる。
本発明が適用されるロボットの構成を示す構成図である。 本発明の実施形態になる分割地図情報の切り換え処理手順の前半を説明するフローチャートである。 本発明の実施形態になる分割地図情報の切り換え処理手順の後半を説明するフローチャートである。 図2Bの切り換え処理Aの切り換え処理手順を説明するフローチャートである。 図2Bの切り換え処理Bの切り換え処理手順を説明するフローチャートである。 図2Bの切り換え処理Cの切り換え処理手順を説明するフローチャートである。 地図サイズと地図切換時間の関係を説明する説明図である。 搭乗階のエレベーター前に到着し、目的階のエレベーターから降車するまでの動作を説明する説明図である。 エレベーター乗り場の間口の検出処理を説明する説明図である。 間口の検出結果を説明する説明図である。 本発明の実施形態の動作を説明する説明図である。
本発明の実施形態について図面を用いて詳細に説明するが、本発明は以下の実施形態に限定されることなく、本発明の技術的な概念の中で種々の変形例や応用例をもその範囲に含むものである。
図1は、本発明が適用される自律的に移動可能なロボット10の構成を示している。このロボット10は、4個の車輪の少なくとも2個の駆動車輪11を駆動し、残りの2個の操舵車輪12で進行方向を決める構成である。
ロボット10に設けられた信号受付部13は、外部からの種々の信号(センサ信号等)を受け付けするものであり、この信号受付部2は、例えば、世界絶対座標で現在位置を推定するGPS信号が入力されている。また、この信号受付部13は、外部サーバから、地図情報を受信する機能を備える場合もある。
更に、信号受付部2は、GPS信号よりも精度よく現在位置を推定するRTK-GPS信号が入力されていても良い。また、準天頂衛星からの信号、既知の位置に固定された無線ビーコンからの信号、車輪エンコーダやIMUやジャイロ等の相対座標で位置を推定するセンサからの信号、走行環境における事物の形状、大きさ、高さなどの形状情報の信号が入力されていても良い。要は、信号受付部2の入力は、最終的にロボット10の現在位置の推定、制御、認知に利用できれば、特に限定されない。
センサ14は、例えばスチルカメラ、又はビデオカメラである。また、カメラ14は単眼カメラまたは複眼カメラでもよい。また、カメラ14はライダーのようなレーザセンサでも良い。要は、最終的に、走行経路での事物の形状(柱、壁面、什器等)の情報を抽出できれば、特に限定されない。以下では、センサ14は、カメラとして説明する。
カメラ14aは、例えば、ロボット10の前方に設置されており、カメラ14aの撮影方向は、ロボット10の前方である。このため、カメラ14aは、例えば、ロボット10の前方の遠景の撮像画像を取得できる。他のカメラ14b…カメラ14nは、カメラ14aと異なる位置に設置され、カメラ14aと異なる方向の撮影方向、または撮影領域を撮像する。センサ14bは、例えば、ロボット10の後方で下方に向けて設置されていても良く、更には、カメラ14bは、ロボット10の後方の近景の撮像画像を取得するもので良い。ここで、撮像画像は画像情報としての機能を備えている。
そして、カメラ14が単眼カメラの場合、床面が平らであれば、画像上のピクセル位置と実際の地上位置関係(x、y)が一定になるため、カメラ14から特徴点までの距離を幾何学的に計算できる。また、床面が平らでない場合、画像上での特徴点の時系列での移動量とロボット10の移動量に基づいて、特徴点までの距離を推定できる。
また、カメラ14がステレオカメラの場合、画像上の特徴点までの距離を正確に幾何学的に計測できる。また、レーザセンサの場合、より正確で遠方の形状情報を取得できる。以下の説明では、カメラやレーザを採用した事例について説明するが、周囲の事物への距離を算出できれば、これ以外のカメラ(広角レンズを有するカメラ、またはTOFカメラなど)も使用できる。
また、カメラ14a・・・カメラ14nが、或る時刻で取得する事物は、それぞれ互いに異なるもので良い。例えば、カメラ14aは、ロボット10の前方の遠景の撮像画像報を取得するもので、この場合、遠景の撮像画像は、立体形状の事物、または位置推定のためのランドマーク等の特徴が抽出されるようにしても良い。また、カメラ14bは、ロボット10の周辺の床面等の近景情報を取得するようにしても良い。
また、カメラ14a・・・カメラ14nは、雨や日差しなどの環境外乱の影響を受けないような条件で、ロボット10に設置されても良い。例えば、カメラ14aは、ロボット10の前方で前向きに設置されるのに対して、カメラ14bはロボット10の後方で後ろ向き、または下向きに設置されても良い。
これにより、例えば、降雨時にカメラ14aのレンズに雨滴が付着した場合でも、進行方向の逆向き、または下向きのカメラ14bのレンズには雨滴が付着しにくい。このため、カメラ14aが取得した撮像画像が雨滴の影響で不鮮明であっても、カメラ14bが取得した撮像画像報は雨滴の影響を受け難い。或は、日差しの影響でカメラ14aの撮像画像が不鮮明であっても、カメラ14bが取得した撮像画像は鮮明である。
また、カメラ14a、カメラ14b…カメラ14nの撮像画像は、互いに異なる取得条件(絞り値、ホワイトバランス、周期等)で取得してもよい。例えば、明るい場所用にパラメータを調整したカメラと、暗い場所用にパラメータを調整したカメラとを搭載することで、撮影空間の明暗によらず良好な撮像画像を得ることができる。
制御部CUは、制御処理部15、揮発性メモリ(RAM)17、表示制御部18等を備えている。また、制御部CUには、外部記憶装置16から地図情報が送られており、外部記憶装置16は、ハードディスク装置や、フラッシュメモリが使用されている。
カメラ14a、カメラ14b…カメラ14nは、制御部CUを構成する制御処理部15から撮像画像の取得開始の指令を受けたとき、又は一定の時間間隔で撮像画像を取得する。取得された撮像画像のデータ、及び取得時刻等は、揮発性メモリ(RAM)17に格納される。更に、揮発性メモリ(RAM)17には、地図を描画したり、現在位置を推定するための地図情報が、外部記憶装置16から書き込まれる。
また、カメラ14a、カメラ14b…カメラ14nによって取得された撮像画像を用いて、異なる制御タスクを実行してもよい。例えば、カメラ14aとカメラ14bで取得した撮像画像の情報に基づいてロボット10の位置推定を行い、カメラ14cとカメラ14dで障害物検知を行い、最終的に、夫々のカメラ14a、カメラ14b…カメラ14nから得られた撮像画像の情報に基づいて、制御処理部15によるロボット10の制御ができれば良い。
また、制御処理部15のCPUがシングルスレッドでしか処理できない場合、夫々のカメラ14a、カメラ14b…カメラ14nから得られた情報を、カメラ14a、カメラ14b…カメラ14nの順番で処理する。一方、制御処理部15のCPUがマルチスレッドで処理できる場合は、カメラ14a、カメラ14b…カメラ14nから得られた情報を同時に処理することができる。
また、制御処理部15は、信号受付部2やカメラ14で取得した情報を処理してロボット10の位置、及び移動量を算出する。例えば、制御処理部15は、カメラ14が時系列に取得した撮像画像に基づいて、ロボット10の移動量を算出し、過去のロボット10の位置に、移動量を加算してロボット10の現在位置を推定する。制御処理部15は、時系列に取得した情報の各情報で特徴部分を抽出しても良い。
制御処理部15は、更に次以降の撮像画像で同じ特徴部分を抽出する。そして、特徴部分のトラッキングによりロボット10の移動量を算出することができる。また、制御処理部15は、SLAM(Simultaneous Localization and Mapping)手法や、SFM(Structure from Motion)手法を用いて、ロボット10の走行経路上の事物の形状を算出することができる。
また、制御処理部15は、ICP(Iterative Closest Point)手法を用いて、カメラ14で取得された撮像画像と事前に作られた走行経路上の事物の形状情報と比較するマップマッチングを行い、ロボット10の現在位置を推定することができる。また、制御処理部15は、外部記憶装置16から得られた情報を処理する。更に、制御処理部15は、算出された位置、及び移動量に応じた表示を行ってもよく、またはロボット10の制御に関する信号を出力しても良い。
更に制御処理部15は、例えば、ロボット10の走行中にカメラ14が取得した撮像画像を処理して、障害物を検知することができ、また、例えば、ロボット10の走行中に、カメラ14が取得した撮像画像を処理して、事前に定められたランドマークを認識することができる。
また、制御処理部14は、外部記憶装置16に蓄積された地図情報を、信号受付部13を介して受信し、受信した地図情報を揮発性メモリ(RAM)17にローディングして記憶させる。ローディングされる地図情報は、外部記憶装置16の側で、予め分割された分割地図情報であるが、場合によっては、ロボット10の側で所定の容量に分割して分割地図情報を生成することもできる。
また、制御処理部15は、情報処理の結果に基づいて、ロボット10に対して移動速度に関する指令を出力する。例えば、制御処理部15は、撮像画像内の事物の解像度、撮像画像内の特徴のうちの外れ値の数、または情報処理の種類(手法)等に応じて、ロボット10の移動速度を増加させる指令、或いは減少させる指令、或いは維持させる指令を出力することができる。
揮発性メモリ(RAM)17は、ロボット10の主記憶装置(メインメモリ)であり、これ以外のストレージなどの補助記憶装置を含んでいても良い。そして、制御処理部15は、揮発性メモリ(RAM)17に格納された種々の情報、及び取得時刻等に基づいて、様々な情報処理を行う。この情報処理では、例えば、中間情報が作成されて揮発性メモリ(RAM)17に保存される。中間情報は、制御処理部15による処理の他、他の処理による判断や処理に利用されても良い。
表示制御部18は、ロボット10の状態情報や、次に実行する制御動作を表示する制御を実行する。表示制御部18は、例えば、カメラ14で得られた情報を表示する。また、制御処理部15の処理結果や、制御処理部15の指令を表示することができ、例えば、ロボット10が次に移動する目的地や目的階を表示することができる。また、カメラ14で認識した周囲の障害物を表示することができる。また、表示制御部18は、ローディングされた地図を表示することができる。
バスライン19は、IEBUS(Inter Equipment Bus)やLIN(Local Interconnect Network)やCAN(Controller Area Network)などで構成されている。
外部記憶装置16は、ロボット10が走行する走行経路上の事物等の空間情報を含む地図情報を蓄積している。外部記憶装置16の地図情報は、例えば、制御処理部15に備えられたナビゲーション手段によって走行されるロボット10の走行経路上にある事物(壁、柱、看板、照明、テーブル、椅子等)の形状や位置である。外部記憶装置16は、外部サーバに設けられていても良い。この場合は、無線通信によって地図情報を送ることができる。
尚、外部記憶装置16の夫々の地図情報は、数式で表現されていても良い。例えば、線情報を複数点で構成せず、線の傾きと切片のみで表現することもできる。また、外部記憶装置16の地図情報を区別せずに、点群で表してもよい。点群は3D(x、y、z)、4D(x、y、z、色)等で表現しても良い。最終的に、ロボット10の現在位置からカメラ等によって走行経路上の空間情報を検出し、ローディングされた地図情報とマップマッチングができれば、外部記憶装置16の地図情報の表現形態は限定されないものである。
そして、外部記憶部16は、制御処理部15から地図情報の取得開始の指令を受け付けたとき、外部記憶部16に蓄積された地図情報の内、必要とされる分割地図情報をロボット10の揮発性メモリ(RAM)17に転送(ローディング)する。
ここで、外部記憶装置16がロボット10に搭載されていない外部サーバのような場合は、信号受付部2でロボット10と外部サーバの記憶装置を接続する。ロボット10と外部サーバの記憶装置の接続は、例えば、無線通信によって、LAN(Local Area Network)や、WAN(Wide Area Network)で実行される。尚、外部記憶装置16がロボット10に搭載されている場合、地図情報はバスライン19を介して送受信される。また、外部記憶装置16の地図情報は、事前に分割した分割地図情報で構成されている。
外部記憶装置16は、制御処理部15からローディング指令を受けたとき、外部記憶装置16に蓄積されたロボット10の走行経路上の分割地図情報を揮発性メモリ(RAM)17に送信する。また、外部記憶装置16は、地図情報として事前に分割された分割地図情報、または分割地図情報の一部を送信することもできる。
そして、制御処理部15は、揮発性メモリ(RAM)17にローディングされた現在の分割地図情報を、走行経路の適切な所定の停止個所で、次の分割地図情報に切り替える機能を備えている。例えば、ロボット10が走行経路を走行する場合において、ロボットが移動しないで意図的に停止する停止個所を求め、このロボットが移動しない停止時間を利用して、分割地図情報を切り換えるようにすれば、ロボットの走行に影響を与えないで、分割地図情報を切り換えることができる。停止個所は、特に指定しないが、乗りかごが階床間で移動する場合は、搭乗階の乗場、乗りかご内、目的階の乗場が該当する。
次に、制御処理部15による分割地図情報の切り換えに関する処理フローを、図2に基づいて説明する。尚、ロボット10は、制御処理部15に備えられたナビゲーション手段によって、走行経路上を移動する構成とされている。
ここで、特にロボット10が異なった階床に異動する場合の地図の切り換えが重要であるので、本実施形態ではこの点に重きを置いて説明する。尚、以下に説明する処理フローは、プログラムで実行される機能、或いは手段として捉えることができる。
≪ステップS10≫(目的地設定手段)
ステップS10においては、ロボット10が異なった階床に移動する場合の目的地を設定する。制御処理部15は、信号受信部13から受信した信号に基づいて、目的地を設定することができる。例えば、ユーザが形態端末を用いてロボット10を呼び出したときや、ロボット10を特定の目的地に移動させたいとき、目的地をロボット10へ送信することで、目的地を設定することができる。
そして、ユーザによって送信された目的地を信号受信部13が受信すると、制御処理部15は、目的地を揮発性メモリ(RAM)17に一時的に記憶させ、次に揮発性メモリ(RAM)17にアクセスして記憶された目的地を設定する。目的地の設定が完了するとステップS11に移行する。
尚、本実施例において、制御処理部15では、カメラ14で得られた走行経路上の空間情報(地図情報)に基づいて、ロボット10の走行が管理される。例えば、ロボット10の走行経路上で事物等の障害物が出現すると、制御処理部15が、カメラ14からの撮像画像によって障害物を認識し、この障害物を回避する。
≪ステップS11≫(位置推定手段)
ステップS11においては、カメラで撮像された撮像画像から、現在のロボット10の位置を推定する。ロボット10は、現時点で搭乗階の階床のある位置に存在している。そして、この位置推定は先に述べたように、撮像された撮像画像とロボットが存在する分割地図情報とをマップマッチングすることによって実行することができる。この現在位置の推定を完了すると、ステップS12に移行する。
マップマッチングは、撮像した事物と地図情報として記憶された事物との一致度を判定し、所定の一致度に達すると、その事物の位置を現在位置として推定するものである。
≪ステップS12≫(昇降エリア地図情報ローディング手段)
ステップS12においては、搭乗階のエレベーター乗り場付近の分割地図情報を外部記装置16からローディングする。ここで、搭乗階のエレベーター乗り場付近においては、ロボット10は乗り場付近にいる乗客や、障害物を避けるために、一時的に停止する頻度が高いので、この搭乗階のエレベーター乗り場付近は、所定の停止個所として予め設定されている。また、乗降口の前もロボット10が乗りかごの到着に待機するので、所定の停止個所として予め設定されている。
搭乗階のエレベーター乗り場付近の分割地図情報のローディングは、制御処理部15の指令によって、外部記憶装置16から搭乗階のエレベーター乗り場付近の分割地図情報が送信され、揮発性メモリ(RAM)17に一時的に記憶される。搭乗階のエレベーター乗り場付近の分割地図情報のローディングが完了するとステップS13に移行する。
≪ステップS13≫(昇降エリア地図情報ローディング手段)
ステップS13においては、目的階のエレベーター乗り場付近の分割地図情報を外部記憶装置16からローディングする。ここでも、目的階のエレベーター乗り場付近においては、ロボット10は乗り場付近にいる乗客や、障害物を避けるために、一時的に停止する頻度が高いので、この目的階のエレベーター乗り場付近は、所定の停止個所として予め設定されている。
目的階のエレベーター乗り場付近の分割地図情報のローディングは、制御処理部15の指令によって、外部記憶装置16から目的階のエレベーター乗り場付近の分割地図情報が送信され、揮発性メモリ(RAM)17に一時的に記憶される。目的階のエレベーター乗り場付近の分割地図情報のローディングが完了するとステップS14に移行する。
尚、搭乗階から目的階に移動するためには、エレベーターの乗りかごに搭乗して移動するが、この乗りかごに搭乗している状態も、所定の停止位置として設定されている。
≪ステップS14≫(ナビゲーション手段)
ステップS14においては、ロボット10の走行計画(経路探索)の立案を実行する。この走行計画は、ステップS10で設定された目的地とステップS11で推定された現在位置とから、ロボット10を走行させる走行経路を求めるものである。経路探索は、代表的にはダイクストラ法があるが、これに限らず他の経路探索アルゴリズムを用いることもできる。走行計画が完了すると、ステップS15に移行する。
≪ステップS15≫(移動時間(待ち時間)推定手段)
ステップS15においては、ロボット10の搭乗階の乗り場でのエレベーターの乗りかごの待ち時間(TW)を推定する。この場合は、エレベーターの管理制御置から取り寄せた乗りかごの運行状況から、ロボット10が搭乗階の乗り場で待機する待ち時間(TW)を求めることができる。エレベーターの管理制御装置からの乗りかごの運行状況は、無線によって送信される。また、これとは別に、過去の待ち時間から統計的な手法を用いてエレベーターの乗りかごの待ち時間(TW)を推定することができる。
搭乗階の乗り場でのエレベーターの乗りかごの待ち時間(TW)を推定するとステップS16に移行する。
≪ステップS16≫(移動時間(搭乗時間)推定手段)
ステップS16においては、搭乗階から目的階へ移動する時の乗りかごに搭乗している移動時間(TM)を推定する。この移動時間は予め決めることができ、基本的には搭乗階から目的階への階数差によって決められている。したがって、階数差が多いほど移動時間は長くなる。ただ、途中階で乗りかごが停車する場合もあるので、これを考慮した移動時間とするのが好ましい。この場合も統計的な手法で移動時間を求めることができる。
搭乗階から目的階へ移動する時の乗りかごの移動時間(TM)を推定すると、ステップS18に移行する。
≪ステップS17≫(地図切換時間推定手段)
ステップS17においては、分割地図情報の地図切換時間(Tn)を推定する。この地図切換時間は、制御処理部15が、揮発性メモリ(RAM)17に既にローディングされている分割地図情報を参照して現在位置を推定するまでの時間である。
つまり、現在の分割地図情報(本実施例では、搭乗階のエレベーター乗り場付近の分割地図情報)から次の分割地図情報(本実施例では、目的階のエレベーター乗り場付近の分割地図情報)に切り換えるときの、次の分割地図情報を読み出して現在位置を推定するまでの時間を意味している。
図4に、分割地図情報と地図切換時間の関係を示している。図4において、横軸は分割地図の情報量である地図のサイズ、縦軸は地図切換時間を示している。そして、サイズ/時間特性線(F)は、分割地図のサイズと地図切換時間の関係を表している。理解を助けるために、サイズ/時間特性線(F)を線形で示しているが、サイズ/時間特性線(F)は、曲線の特性線や多項式で表される特性線で表現される場合もある。
このサイズ/時間特性線(F)は、分割地図のサイズと、制御処理部15がその分割地図の情報を参照して現在位置を推定するまでの時間に基づいて、実験的に特性線を求めることができる。また、制御処理部15の演算速度や、バスライン19の送信速度に基づいて、理論的に求めることもできる。
要は、切り換える分割地図から現在位置を推定するまでの時間を予測できれば良いものである。図4において、分割地図のサイズ(Sn)は、特定の分割地図のサイズであり、地図切換時間(Tn)は、分割地図のサイズ(Sn)をサイズ/時間特性線(F)に代入したときの出力である。したがって、揮発性メモリ(RAM)17から参照される分割地図のサイズがわかれば、地図切換時間(Tn)を推定することができる。
尚、演算によらず、地図切換時間と分割地図のサイズとを記憶したテーブルから読み出すこともできる。分割地図情報の地図切換時間(Tn)を推定すると、ステップS18に移行する。
≪ステップS18≫(地図情報切換手段)
ステップS18においては、ステップS17で推定した地図切換時間(Tn)と、ステップS15で推定した待ち時間(TW)の時間的な関係性を判断する。つまり、待ち時間(TW)に対して、地図切換時間(Tn)が時間的に長いか否を判断している。
そして、地図切換時間(Tn)が長いと判断されると、現在地を出発して搭乗階で待機している間に、目的階の乗り場付近の分割地図情報を参照して現在位置を推定するすることができないと見做してステップS1に移行する。
一方、地図切換時間(Tn)が短いと判断されると、現在地を出発して搭乗階で待機している間に、目的階の乗り場付近の分割地図情報を参照して現在位置を推定することができると見做してステップS22に移行する。
≪ステップS19≫(地図情報切換手段)
ステップS19においては、ステップS18で推定した地図切換時間(Tn)と、ステップS16で推定した乗りかごによる移動時間(TM)の時間的な関係性を判断する。つまり、乗りかごの移動時間(TM)に対して、地図切換時間(Tn)が時間的に長いか否を判断している。
そして、地図切換時間(Tn)が長いと判断されると、乗りかごに搭乗している間に、目的階の乗り場付近の分割地図情報を参照して現在位置を推定することができないと見做してステップS20に移行する。
一方、地図切換時間(Tn)が短いと判断されると、乗りかごに搭乗している間に、目的階の乗り場付近の分割地図情報を参照して現在位置を推定することができると見做してステップS20に移行する。
≪ステップS20≫(地図情報切換手段)
ステップS20においては、後述する「処理A」を実行する。「処理A」は、目的階に到着して目的階の乗り場付近の分割地図情報を参照して現在位置を推定するものである。「処理A」を実行すると、エンドに抜ける。
≪ステップS21≫(地図情報切換手段)
ステップS21においては、後述する「処理B」を実行する。「処理B」は、乗りかごに搭乗している間に目的階の乗り場付近の分割地図情報を参照して現在位置を推定するものである。「処理B」を実行すると、エンドに抜ける。
≪ステップS22≫(地図情報切換手段)
ステップS22においては、ステップS17で推定した地図切換時間(Tn)と、ステップS16で推定した乗りかごによる移動時間(TM)の時間的な関係性を判断する。つまり、乗りかごの移動時間(TM)に対して、地図切換時間(Tn)が時間的に長いか否を判断している。
そして、地図切換時間(Tn)が長いと判断されると、乗りかごに搭乗している間に、目的階の乗り場付近の分割地図情報を参照して現在位置を推定することができないと見做してステップS23に移行する。
一方、地図切換時間(Tn)が短いと判断されると、乗りかごに搭乗している間、或いは搭乗階の乗り場で、目的階の乗り場付近の分割地図情報を参照して現在位置を推定することができると見做してステップS24に移行する。
≪ステップS23≫(地図情報切換手段)
ステップS23においては、後述する「処理C」を実行する。「処理C」は、搭乗階の乗り場で、目的階の乗り場付近の分割地図情報を参照して現在位置を推定するものである。「処理C」を実行すると、エンドに抜ける。
≪ステップS24≫(地図情報切換手段)
ステップS24においては、後述する「処理B」、或いは「処理C」を実行する。「処理B」、「処理C」は、上述した通りである。「処理B」、或いは「処理C」を実行すると、エンドに抜ける。
以上の「処理A」~「処理C」を実行する前の制御ステップは、ロボット10が走行を始める前の前処理である。次に「処理A」~「処理C」の具体的な処理について説明する。「処理A」は図3Aに示し、「処理B」は図3Bに示し、「処理C」は図3Cに示している。
[処理A]について(目的階の乗り場で分割地図情報を切り換える);
≪ステップS30≫
ステップS30においては、ロボット10が位置する搭乗階の階床分割地図情報にしたがって、搭乗階の乗り場付近に移動を開始する。このロボット10の移動はステップS14で設定した走行計画に沿っている。ロボット10は、走行しながら自身の現在位置を推定しながら移動する。この状態でステップS31に移行する。
≪ステップS31≫
ステップS31においては、走行経路に沿って現在位置を推定しながらロボット10は移動し、搭乗階の乗り場付近に到着したか否かを判断している。そして、搭乗階の乗り場付近に到着したと判断すると、この搭乗階のエレベーター乗り場付近は、所定の停止個所として設定されているので、ロボット10は、一時的に停止する。ロボットが停止するとステップS32に移行する。
≪ステップS32≫
ステップS32においては、搭乗階の階床分割地図情報から、搭乗階の乗り場付近の分割地図情報に切り換える処理を実行する。この処理は、現在の搭乗階の階床分割地図情報から、次の搭乗階のエレベーター乗り場付近の分割地図情報に切り換えるものである。
この切り換えに際して、ロボット10が走行中ではなく、搭乗階の乗り場付近に到着して意図的に一時停止されるので、上述した地図切換時間が発生したとしても、待ち時間とはならない。そして、地図の切り換えが完了するとステップS33に移行する。
≪ステップS33≫
ステップS33においては、切り換えた搭乗階の乗り場付近の分割地図情報に基づいて、現在位置を推定しながらエレベーターの前の乗降口に向けて移動を開始する。ロボット10が移動を開始すると、ステップS34に移行する。
≪ステップS34≫
ステップS34においては、切り換えた搭乗階の乗り場付近の分割地図情報に基づいて、現在位置を推定しながらエレベーターの乗降口の前に到着したか否の判断を行う。乗降口の前に到着したと判断されると、ステップS35に移行する。
≪ステップS35≫
ステップS35においては、到着した乗りかごに搭乗し、目的階に向けて出発する。尚、この時に乗降口の間口幅が狭く、ステップ34の位置推定で得られた位置誤差が大きい場合、ロボット10がエレベーターの乗りかごに入れない場合が生じる。
この場合は、カメラ14でエレベーターの乗降口の開閉ドアの間口を検出し、相対位置を算出しながらエレベーターの乗りかごに乗り込むことができる。このエレベーターの乗降口の開閉ドアの間口検出処理の詳細は後述する。目的階に到着すると、ステップS36に移行する。
≪ステップS36≫
ステップS36においては、目的階の乗降口から目的階の乗り場に降車する。ここで、目的階の乗り場付近は、所定の停止個所として設定されているので、ロボット10は、一時的に停止される。ロボットが停止するとステップS37に移行する。
≪ステップS37≫
ステップS37においては、階層間の地図情報の切り換えを実行する。この処理は、現在の搭乗階の乗り場付近の分割地図情報から、次の目的階の乗り場付近の分割地図情報に切り換える処理を実行する。この切り換えに際して、ロボット10が走行中ではなく、目的階の乗り場で降車して意図的に一時停止されるので、上述した地図切換時間が発生したとしても、待ち時間とはならない。そして、分割地図情報の切り換えが完了するとステップS38に移行する。
尚、この地図情報の切り換えに際して、エレベーターの乗りかごを降車して直ぐにカメラ14の情報に基づいて安全な停止場所を見つけて、分割地図情報の切替を実施する。安全な停止場所は、例えば、乗客等の走行の妨げにならないエレベータホールの壁部付近がある。また、安全な停止場所は、夫々のエレベータホールの事前に定められた特定の場所であっても良い。
≪ステップS38≫
ステップS38においては、切り換えた目的階の乗り場付近の分割地図情報に基づいて、現在位置を推定しながら目的地に向けて移動を開始する。ロボット10が移動を開始すると、エンドに抜ける。
[処理B]について(乗りかごで分割地図情報を切り換える);
この「処理B」は、ステップS37の階層間の地図の切り換えを、ステップS35とステップS36の間の、乗りかごの移動中に実行するものである。この乗りかごに搭乗している状態では、ロボットは意図的に停止されて移動しないので、所定の停止位置として設定されている。尚、具体的な処理内容は「処理A」と同様なので、説明は省略する。
[処理C]について(搭乗階の乗降口の前で分割地図情報を切り換える);
この「処理C」は、ステップS37の階層間の地図の切り換えを、ステップS34とステップS35の間の、搭乗階の乗降口の前で実行するものである。乗降口の前は、ロボット10が意図的に停止されて乗りかごの到着に待機するので、所定の停止個所として設定されている。尚、具体的な処理内容は「処理A」と同様なので、説明は省略する。
次に、上述した処理フローにおける搭乗階から目的階に異動する場合のロボット10の挙動について補足的に説明する。
図5において、搭乗階のエレベーター乗り場付近(EH1)は、ロボット10がエレベーターの乗りかごに搭乗するエリアである。便宜的に搭乗階のエレベーター乗り場付近(EH1)を建築物の1階とする。エレベーターの乗りかご20は、ロボット10が搭乗階から目的階へ移動するための乗りかごである。目的階のエレベーター乗り場付近(EHn)は、ロボット10が目的とする目的階のエレベーター乗り場付近である。目的階のエレベーター乗り場付近(EHn)を建築物のn階とする。ここで、本実施形態ではエレベーター乗り場付近とは、エレベータホールを意味している。
そして、ロボット10が、搭乗階のエレベーター乗り場付近(EH1)に存在し、乗客21が、目的階のエレベーター乗り場付近(EHn)に存在している。分割地図情報(M1)、(M2)…(Mn)は、建築物の異なる階床の夫々の分割地図情報である。
ここで、制御処理部15の指令で、ロボット10が1階からn階へ移動する場合を考える。ステップS12において、ロボット10が搭乗階のエレベーター乗り場付近(EH1)の分割地図情報(M1)をローディングし、ステップS13において、目的階のエレベーター乗り場付近(EHn)の分割地図情報(Mn)をローディングする。
そして、ロボット10が搭乗階のエレベーター乗り場付近の分割地図情報(M1)を参照しながら、エレベーターの乗りかご20の前へ移動する。次に目的階とするn階の分割地図情報(Mn)に切り換える。
この分割地図情報の切り換えのタイミングは、ロボット10が現在位置から1階のエレベーター乗り場付近(EH1)で乗りかごの到着に待機する時間(TG+TW)と、ロボット10がエレベーターの乗りかごに搭乗して1階からn階へ移動する移動時間(TM)と、図4に示された地図切換時間(Tn)によって決められる。
これは、図2Bに示した通りであり、ロボット10は、搭乗階のエレベーター乗り場で乗りかごを待機して停止している状態、乗りかごに搭乗して停止している状態、及び目的階のエレベーター乗り場で乗りかごから降車して停止している状態で、搭乗階のエレベーター乗り場付近(EH1)の分割地図情報(M1)から目的階のエレベーター乗り場付近(EHn)の分割地図情報(Mn)に切り換えられる。
次に、ステップS35で実行される間口検出処理について説明する。ロボット10は、常に所定の時間間隔で位置推定(ステップS11)を実行するが、走行環境や障害物の影響で、位置推定の誤差が大きくなる場合がある。特に、エレベーターの乗降口の間口幅が狭く、乗降口の位置が精度よく推定できない場合は、ロボット10がエレベーターの乗降口を通れない恐れが出てくる。このため、間口検出処理が必要となってくる。
図6、及び図7においては、エレベータホールに乗りかご20が到着して乗降口の開閉ドア22が開かれている状態を示している。そして、ロボット10は、カメラ14によって、乗降口を視野角(θ)で撮像している。
ステップS11で推定したロボット10の位置誤差が大きい場合、開閉ドア22の狭い間口を通ることができない。そこで、カメラ14を用いて、ロボット10を左右回転させながら、開閉ドア22を含む周囲の事物への距離を計測する。
図7は、ロボット10が左右回転した後のカメラ14で得られた周囲の事物への距離を示している。そしてコーナー部Cnは、開閉ドア22の左側、及び右側のコーナーである。コーナー部Cnは、事物(ここでは、開閉ドア22と乗りかご20を抽出して示している)までの距離の変化を算出して求められたエッジ部分である。
また、このデータを画像にして、HCD(Harris Corner Detection)手法を用いてコーナー部Cnを算出する。要は最終的に、コーナー部Cnが求められれば良い。そして、ロボット10は、検出されたコーナー部Cnの相対位置を参考にしながら、エレベーターの乗りかご20に搭乗し、更には目的階で降車する。
ステップS11で推定したロボット10の位置誤差が大きい場合、図7の処理を行いながら、エレベーターの乗りかご20に搭乗、及び降車するが、位置誤差が小さい場合、ステップS11で推定した位置のみでエレベーターの乗りかご20に搭乗、及び降車することができる。
位置推定の誤差の判断は、例えば、カメラ14で行ったSLAM手法での誤差楕円に基づいて判断することができる。そして、ロボット10がエレベーターの乗りかご20に搭乗、及び降車するときの誤差楕円が、事前に予め定められた閾値を超えた場合は、間口検出処理を行うようにしても良い。また、カメラ14で行ったICP手法のマッチングができた点数やスコア(最も近い点への距離)で判断しても良い。
尚、間口検出処理に必要なロボット10の回転角は、例えば、ステップS11で推定したロボット10の位置誤差と視野角(θ)に基づいて算出することができる。
次に、搭乗階から目的階に異動する場合のロボット10の挙動と分割地図情報の流れにつて説明する。図8では、1階の現在地から6階の目的地に移動する場合を示している。
図8において、ロボット10は1階の階床(FL1)を走行しており、この場合は階床分割地図情報(M1F)を参照して走行し、1階のエレベーターホール(EH1)に到着すると、1階のエレベーターホール(EH1)の分割地図情報(M1H)を参照して、エレベーターの乗降口に移動する。
そして、乗りかごに搭乗して6階のエレベーターホール(EH6)に到着すると、6階のエレベーターホール(EH6)の分割地図情報(M6H)を参照して走行し、更に、6階の階床分割地図情報(M6F)を参照して目的地に向かうものである。
このロボットの挙動に合わせて、図2B、図3A~図3Cに示す処理ステップを実行しながら、位置推定の演算のために使用する分割地図情報を切り換えて参照しながら目的地に移動する。
尚、6階のエレベーターホール(EH6)に乗客21がいる場合は、ロボット190は一時停止し、カメラ14の撮像画像を用いて乗客21がいなくなったことを確認した後に、安全な場所へ移動してエレベーターホール(EH6)の分割地図情報(M6H)に切り換えることもできる。
以上述べた通り、本発明においては、制御手段によって求められた複数の階床に跨った目的地にエレベーターの乗りかごを利用して移動する場合において、ロボットが搭乗階エレベーター乗り場に向かって移動する前に、少なくとも、搭乗階エレベーター乗り場付近分割地図情報と目的階エレベーター乗り場付近分割地図情報をメモリにローディングする昇降エリア地図情報ローディング手段と、メモリに記憶された搭乗階エレベーター乗り場付近分割地図情報と目的階エレベーター乗り場付近分割地図情報を用いて、現在位置から目的地への走行経路を求めるナビゲーション手段と、搭乗階エレベーター乗り場から目的階エレベーター乗り場へ移動する走行経路における、ロボットが意図的に停止する状態となる所定の停止個所までの移動時間を推定する移動時間推定手段と、搭乗階エレベーター乗り場付近分割地図情報から目的階エレベーター乗り場付近分割地図情報に切り換えるときの、目的階エレベーター乗り場付近分割地図情報を読み出して現在位置を推定するまでの地図切換時間を求める地図切換時間推定手段と、移動時間と地図切換時間の関係性を判断して、搭乗階エレベーター乗り場付近分割地図情報から目的階エレベーター乗り場付近分割地図情報に切り換える停止個所を決定する地図情報切換手段を備える、ところにある。
本発明によれば、目的地に向かって移動するロボットにおいて、分割地図情報の切り換え時に走行中のロボットを敢えて停止させないので、現在位置を推定するための無駄な待ち時間が発生するのを抑制することができる。
尚、本発明は上記したいくつかの実施例に限定されるものではなく、様々な変形例が含まれる。上記の実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、ある実施例の構成に他の実施例の構成を加えることも可能である。各実施例の構成について、他の構成の追加、削除、置換をすることも可能である。
10…ロボット、11…駆動輪、12…操舵輪、13…信号受付部、14…カメラ、15…制御処理部、16…外部記憶装置、17…揮発性メモリ(RAM)、18…表示制御部、19…バスライン、20…乗りかご。

Claims (5)

  1. 制御手段によって求められた複数の階床に跨った目的位置にエレベーターの乗りかごを利用して移動するロボットにおいて、
    前記制御手段は、
    前記ロボットが搭乗階エレベーター乗り場に向かって移動する前に、少なくとも、搭乗階エレベーター乗り場付近分割地図情報と目的階エレベーター乗り場付近分割地図情報をメモリにローディングする昇降エリア地図情報ローディング手段と、
    前記メモリに記憶された前記搭乗階エレベーター乗り場付近分割地図情報と前記目的階エレベーター乗り場付近分割地図情報を用いて、現在位置から目的位置への走行経路を求めるナビゲーション手段と、
    前記搭乗階エレベーター乗り場から目的階エレベーター乗り場へ移動する走行経路における、前記ロボットが意図的に停止する状態となる所定の停止個所までのそれぞれの移動時間を推定する移動時間推定手段と、
    前記搭乗階エレベーター乗り場付近分割地図情報から前記目的階エレベーター乗り場付近分割地図情報に切り換えるときの、前記目的階エレベーター乗り場付近分割地図情報を読み出して現在位置を推定するまでの地図切換時間を求める地図切換時間推定手段と、
    それぞれの前記移動時間と前記地図切換時間の関係性を判断して、前記搭乗階エレベーター乗り場付近分割地図情報から前記目的階エレベーター乗り場付近分割地図情報に切り換える所定の前記停止個所を決定する地図情報切換手段を備える
    ことを特徴とするロボット。
  2. 請求項1に記載のロボットにおいて、
    所定の前記停止個所は、前記搭乗階エレベーター乗り場である
    ことを特徴とするロボット。
  3. 請求項1に記載のロボットにおいて、
    所定の前記停止個所は、前記ロボットが搭乗している乗りかごである
    ことを特徴とするロボット。
  4. 請求項1に記載のロボットにおいて、
    所定の前記停止個所は、前記目的階エレベーター乗り場である
    ことを特徴とするロボット。
  5. 請求項1に記載のロボットにおいて、
    所定の前記停止個所は、少なくとも、前記搭乗階エレベーター乗り場、前記ロボットが搭乗している乗りかご、及び前記目的階エレベーター乗り場であり、
    夫々の前記移動時間は、少なくとも、前記搭乗階エレベーター乗り場での待ち時間(TW)、前記ロボットが搭乗している乗りかごの搭乗時間(TM)であり、
    前記地図情報切換手段は、
    前記地図切換時間(Tn)が、前記待ち時間(TW)より長く、且つ前記搭乗時間(TM)より長い場合は、前記目的階エレベーター乗り場で地図情報の切り換えを実行し、
    前記地図切換時間(Tn)が、前記待ち時間(TW)より長く、且つ前記搭乗時間(TM)より短い場合は、前記ロボットが搭乗している乗りかごで地図情報の切り換えを実行し、
    前記地図切換時間(Tn)が、前記待ち時間(TW)より短く、且つ前記搭乗時間(TM)より長い場合は、前記搭乗階エレベーター乗り場で地図情報の切り換えを実行し、
    前記地図切換時間(Tn)が、前記待ち時間(TW)より短く、且つ前記搭乗時間(TM)より短い場合は、前記ロボットが搭乗している乗りかご、或いは前記搭乗階エレベーター乗り場で地図情報の切り換えを実行する
    ことを特徴とするロボット。
JP2021092691A 2021-06-02 2021-06-02 ロボット Pending JP2022185185A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021092691A JP2022185185A (ja) 2021-06-02 2021-06-02 ロボット
CN202210478699.7A CN115494835A (zh) 2021-06-02 2022-05-05 机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021092691A JP2022185185A (ja) 2021-06-02 2021-06-02 ロボット

Publications (2)

Publication Number Publication Date
JP2022185185A true JP2022185185A (ja) 2022-12-14
JP2022185185A5 JP2022185185A5 (ja) 2024-02-29

Family

ID=84438798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021092691A Pending JP2022185185A (ja) 2021-06-02 2021-06-02 ロボット

Country Status (2)

Country Link
JP (1) JP2022185185A (ja)
CN (1) CN115494835A (ja)

Also Published As

Publication number Publication date
CN115494835A (zh) 2022-12-20

Similar Documents

Publication Publication Date Title
US9541922B2 (en) Vehicle control system and vehicle control method
US20160360940A1 (en) Methods and systems for movement of an automatic cleaning device using video signal
US20190232953A1 (en) Parking control method and parking control device
KR102022773B1 (ko) 자율주행차량의 정밀위치감지 장치, 감지방법, 그 정밀위치감지장치를 통한 정차지원 시스템 및 정차지원방법
WO2019187816A1 (ja) 移動体および移動体システム
RU2744447C1 (ru) Способ управления парковкой и аппаратура управления парковкой
KR101049906B1 (ko) 자율 이동 장치 및 이의 충돌 회피 방법
RU2746684C1 (ru) Способ управления парковкой и оборудование управления парковкой
JPWO2018110568A1 (ja) 障害物の回避動作を行う移動体およびそのコンピュータプログラム
WO2019026761A1 (ja) 移動体およびコンピュータプログラム
JP2014034251A (ja) 車両走行制御装置及びその方法
US20210271246A1 (en) Arithmetic device, movement control system, control device, moving object, calculation method, and computer-readable storage medium
US20220392345A1 (en) Control device, parking lot system, and location accuracy calculation method
JP2019175137A (ja) 移動体および移動体システム
RU2719083C1 (ru) Способ для управления движением и устройство для управления движением транспортного средства
US20230049918A1 (en) Control device, system, control method, and storage medium storing program
JP2019175136A (ja) 移動体
CN113795802A (zh) 自主矿车操作
CN110816522A (zh) 车辆姿态的控制方法、设备及计算机可读存储介质
JP2019179497A (ja) 移動体および移動体システム
JP2022185185A (ja) ロボット
US11964402B2 (en) Robot control system, robot control method, and control program
US20210149412A1 (en) Position estimating apparatus, method for determining position of movable apparatus, and non-transitory computer readable medium
JP7294356B2 (ja) 車両制御方法、車両制御システム、及び車両制御プログラム
CN113492846B (zh) 控制装置、控制方法以及存储程序的计算机可读取存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240220