JP7112066B2 - 自律移動ロボット及びその制御方法 - Google Patents

自律移動ロボット及びその制御方法 Download PDF

Info

Publication number
JP7112066B2
JP7112066B2 JP2018072389A JP2018072389A JP7112066B2 JP 7112066 B2 JP7112066 B2 JP 7112066B2 JP 2018072389 A JP2018072389 A JP 2018072389A JP 2018072389 A JP2018072389 A JP 2018072389A JP 7112066 B2 JP7112066 B2 JP 7112066B2
Authority
JP
Japan
Prior art keywords
mobile robot
autonomous mobile
distance
self
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018072389A
Other languages
English (en)
Other versions
JP2019185213A (ja
Inventor
英治 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu Institute of Technology NUC
Original Assignee
Kyushu Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu Institute of Technology NUC filed Critical Kyushu Institute of Technology NUC
Priority to JP2018072389A priority Critical patent/JP7112066B2/ja
Publication of JP2019185213A publication Critical patent/JP2019185213A/ja
Application granted granted Critical
Publication of JP7112066B2 publication Critical patent/JP7112066B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、自己位置を推定し、障害物を避けながら、自律的な移動を行う自律移動ロボット及びその制御方法に関するものである。
近年、建物内部や屋外の限定された領域内を、周囲の環境に基づいて自律的に移動可能な自律移動ロボット(移動体)が開発されつつある。このような自律移動ロボットは、例えば、特許文献1~3のように、予め記憶された移動する領域に関する移動マップ上において、現在の自己の位置から特定の目標地点までの移動経路を作成することで自律移動を可能とするため、通常、移動する領域内における自己位置を認識する機能を備えている。そして、この自律移動ロボットは、例えば、林野での下刈りや立木のモニタリング、農地での下刈り、モニタリング、果実の収穫等に利用できる。また、海岸でのゴミの収集と運搬、海藻の収穫、モニタリング等に利用することや、コミュニティーロードでの買い物の代替、人や物の運搬等に利用することもできる。自律移動ロボットをこれらの作業に利用することにより、労務又は労働の代替となり、労働者不足を補うことができる。
特開2011-209845号公報 特開2015-170127号公報 特開2017-102705号公報
しかしながら、自律移動ロボットを林野、農地、海岸等の屋外で利用する場合、屋内とは、外光、路面環境等の認識条件が異なり、移動距離の長さ、移動範囲の広さ等も違うため、ロボット自身が高精度の探査を行いながら行動できるようにする必要があり、従来とは異なるロボットプラットフォーム、センサ処理技法、及び自律移動技法の構築が求められる。
本発明は、かかる事情に鑑みてなされたもので、林野、農地、海岸等の移動領域において、自己位置を高精度で推定することができ、障害物を確実に避けながら、移動領域内をくまなく自律的に移動することが可能で、管理対象物となる果実等の収穫や雑草の刈り取り等の作業を効率的に行って労働者不足の解消を実現することができる動作の安定性、機能性、及び実用性に優れる自律移動ロボット及びその制御方法を提供することを目的とする。
前記目的に沿う第1の発明に係る自律移動ロボットは、移動領域内を自律移動する自律移動ロボットであって、
移動手段と、進行方向に存在する1又は複数の物体をそれぞれ撮影する撮影手段と、前記各物体までの距離を測定する測距手段と、前記撮影手段で撮影された画像と前記測距手段で測定された距離データを基に作成された距離画像から重畳画像処理により前記各物体が存在する割合を表す物体率と前記物体が存在していない割合を示す空間率を求め、前記各物体までの距離の変化と、前記物体率及び前記空間率の変化との関係から、前記各物体が障害物であるか非障害物であるかを判別する判別手段と、前記物体のうち前記判別手段で前記障害物と判別された物体の位置を二次元マップ上に記録するマップ作成手段と、自己位置を推定する自己位置推定手段とを有し、前記障害物を避けながら自律移動する。
前記目的に沿う第2の発明に係る自律移動ロボットは、移動領域内を自律移動する自律移動ロボットであって、
移動手段と、進行方向に存在する1又は複数の物体をそれぞれ撮影する撮影手段と、前記各物体までの距離を測定する測距手段と、前記撮影手段で撮影された画像と前記測距手段で測定された距離データを基に作成された距離画像から重畳画像処理を行って前記各物体の種別を判別する判別手段と、前記物体のうち前記判別手段で障害物と判別された物体の位置を二次元マップ上に記録するマップ作成手段と、リアルタイムキネマティックGPSモジュールを用いて測量を行い自己位置を測位する測位手段による測位結果に基づく測定位置と慣性計測センサとしてマイコンが実装された9軸センサを使用して経路計算を行う経路計算手段によって算出された測定位置からモンテカルロ法により自己位置を推定する自己位置推定手段とを有し、前記障害物を避けながら自律移動する。
第1、第2の発明に係る自律移動ロボットにおいて、前記測距手段は、2台の3D距離画像センサを備え、該2台の3D距離画像センサは、測定範囲が部分的に重なるように位置をずらして配置されていることが好ましい。
第1、第2の発明に係る自律移動ロボットにおいて、前記撮影手段及び前記測距手段は、3自由度を有する架台に取り付けられ、該自律移動ロボットの姿勢に応じて、水平を維持することが好ましい。
の発明に係る自律移動ロボットにおいて、前記判別手段は、前記重畳画像処理により、前記各物体の色及び形から該各物体の種別を判別することが好ましい。
の発明に係る自律移動ロボットにおいて、前記判別手段は、前記重畳画像処理により前記各物体が存在する割合を表す物体率と前記物体が存在していない割合を示す空間率を求め、前記各物体までの距離の変化と、前記物体率及び前記空間率の変化との関係から、前記各物体が障害物であるか非障害物であるかを判別することが好ましい。
第1、第2の発明に係る自律移動ロボットにおいて、前記判別手段は、RFIDリーダーを備え、前記移動領域内に存在する管理対象物に予め取り付けられたRFタグから電波を受信して、その電波強度により前記物体の中から前記管理対象物の位置を推定することが好ましい。
第1の発明に係る自律移動ロボットにおいて、前記自己位置推定手段は、衛星航法システムを利用して自己位置を測位する測位手段と、慣性計測センサを利用して経路計算を行う経路計算手段を有していることが好ましい。
前記目的に沿う第の発明に係る自律移動ロボットの制御方法は、移動領域内を自律移動する自律移動ロボットの制御方法であって、
撮影手段で進行方向に存在する1又は複数の物体をそれぞれ撮影する第1の工程と、
該第1の工程中に前記各物体までの距離を測距手段で測定する第2の工程と、
前記第1の工程で撮影された画像と前記第2の工程で測定された距離データを基に作成された距離画像から判別手段で重畳画像処理を行って前記各物体の種別を判別し、該各物体が存在する割合を表す物体率と前記物体が存在していない割合を示す空間率を求め、前記各物体までの距離の変化と、前記物体率及び前記空間率の変化との関係から、前記各物体が障害物であるか非障害物であるかを判別する第3の工程と、
前記物体のうち前記第3の工程で前記障害物と判別された物体の位置をマップ作成手段により二次元マップ上に記録する第4の工程と、
自己位置推定手段で自己位置を推定する第5の工程と、
前記障害物を避けながら前記移動領域内を移動手段で自律移動する第6の工程とを有する。
の発明に係る自律移動ロボットの制御方法において、前記自律移動ロボットと通信を行うサーバにより、前記自律移動ロボットの位置を捕捉及び同定して、該自律移動ロボットが移動する軌跡を可視化することが好ましい。
の発明に係る自律移動ロボットの制御方法において、前記二次元マップ上に前記障害物の位置が記録されていない情報未取得領域が存在している際に、該情報未取得領域に経路を設定し、前記自律移動ロボットを該経路上で移動させて、前記移動領域内に存在する全ての前記障害物が前記二次元マップ上に記録されるまで前記第1~第6の工程を繰り返すことが好ましい。
第1、第2の発明に係る自律移動ロボットは、自己位置を高精度で推定することができ、移動領域内に存在する障害物の二次元マップに基づいて、移動領域内をくまなく自律的に移動しながら、各物体の種別を判別してそれぞれの種別に応じた動作を行うことができる。これにより、立木等の障害物であると判別された物体を確実に避けながら移動することができる。そして、移動中に、例えば、育成中の苗木等の管理対象物となる物体が存在する場合は、傷付けたり、踏み潰したりしないように避けながら、育成状況の確認や果実等の収穫を行うことができる。また、ゴミ或いは海藻や果実等の管理対象物(回収対象物或いは収穫対象物)となる物体が落下している場合は、管理対象物の種類に応じて自律移動ロボットに搭載した回収手段や収穫手段を用いてそれらを回収、収穫することができる。さらに、自律移動ロボットの進行方向に存在する物体が、移動を妨げる立木等の障害物か、苗木等の管理対象物か、移動を妨げない雑草等の非障害物かを判別し、移動の妨げとならない非障害物上を通過しながら効率的に移動することや、必要に応じて、管理対象物の周囲に存在する雑草等の刈り取り(下刈り)を行うことができる。
第1、第2の発明に係る自律移動ロボットにおいて、測距手段として、測定範囲が部分的に重なるように位置をずらして配置した2台の3D距離画像センサを用いた場合、視野角を拡張して、予め広範囲にわたって物体(障害物)の存在を認識することができるので、方向転換した際に、不意に障害物を認識して停止或いは後退の動作を行うおそれが低く、確実に障害物を避けながらスムーズかつ効率的に移動を行うことができる。
第1、第2の発明に係る自律移動ロボットにおいて、撮影手段及び測距手段が、3自由度を有する架台に取り付けられ、自律移動ロボットの姿勢に応じて、水平を維持する場合、撮影手段及び測距手段の視認性、制御性を向上させて、物体の位置を正確に検出することができ、動作の安定性に優れる。
の発明に係る自律移動ロボットにおいて、各物体の色及び形から各物体の種別を判別する場合、例えば、立木、雑草、苗木等を誤認識(混同)することなく正確に判別して、その種別に応じた動作を行うことができる。
第1の発明に係る自律移動ロボットにおいて、自律移動ロボットから各物体までの距離の変化と、それに伴う各物体の物体率及び周囲の空間率の変化との関係から、各物体上を通過可能か否かを判別するので、各物体の周囲や背後に存在する空間の奥行きを正しく認識して、他の物体や障害物等に邪魔されることなく、確実に移動を行うことができる。
第1、第2の発明に係る自律移動ロボットにおいて、管理対象物に予め取り付けられたRFタグからの電波をRFIDリーダーで受信して、その電波強度により物体の中から管理対象物の位置を推定する場合、例えば苗木等の管理対象物と周囲の雑草等を確実に判別することができる。
第1、第2の発明に係る自律移動ロボットにおいて、自己位置推定手段が、衛星航法システムを利用して自己位置を測位する測位手段と、慣性計測センサを利用して経路計算を行う経路計算手段を有している場合、自己位置の推定精度を高めることができる。
の発明に係る自律移動ロボットの制御方法は、予め移動領域内の障害物の位置が記録された二次元マップと、移動領域内の移動中に撮影手段で撮影した各物体の画像及び測距手段で測定された各物体までの距離を基にして、障害物を確実に避けながら自律移動を行うことができ、自己位置推定精度が高く、動作の安定性に優れる。
の発明に係る自律移動ロボットの制御方法において、自律移動ロボットと通信を行うサーバにより、自律移動ロボットの位置を捕捉及び同定して、自律移動ロボットが移動する軌跡を可視化した場合、管理者が自律移動ロボットの移動状況を常に監視して、動作不良や不具合等が生じた際に、直ちに自律移動ロボットを停止させ、事故等の発生を未然に防ぐことが可能で安全性に優れる。
の発明に係る自律移動ロボットの制御方法において、二次元マップ上に障害物の位置が記録されていない情報未取得領域が存在している際に、情報未取得領域に経路を設定し、自律移動ロボットを経路上で移動させて、移動領域内に存在する全ての障害物が二次元マップ上に記録されるまで第1~第6の工程を繰り返した場合、自律移動ロボットを使用して作業を行う時に、自己位置の推定精度を高め、移動領域内をくまなく効率的に移動させることができ、作業漏れが発生せず、動作の信頼性に優れる。
本発明の一実施の形態に係る自律移動ロボットの構成を示すブロック図である。 同自律移動ロボットの撮影手段及び測距手段が架台に取り付けられている状態を示す斜視図である。 同自律移動ロボットの測距手段の視野角を示す説明図である。 同自律移動ロボットの重畳画像処理の説明図である。 同自律移動ロボットの自律移動の説明図である。
続いて、本発明を具体化した実施の形態について説明し、本発明の理解に供する。
本発明の一実施の形態に係る自律移動ロボット10は、図5に示すように、ロボット本体11に4つの車輪を有する移動手段12を備えたものであり、林野、農地、海岸等の移動領域内を自律移動しながら、林野や農地等での下刈り、立木等のモニタリング、果実等の収穫、海岸等でのゴミの収集、海藻の収穫等の各種作業を行うものである。
本実施の形態のように、移動手段12として、前輪、後輪を2つずつ設けたものは移動の安定性に優れる。このとき、前輪と後輪の少なくともどちら一方を駆動輪とすればよいが、全輪駆動としてもよい。なお、移動手段として車輪を用いる場合、4輪に限らず、3輪でもよいし、6輪以上でもよい。動力部としては正逆回転可能なモーターが好適に用いられる。また、移動手段12は、ロボット本体11を移動(走行或いは飛行)させることができればよく、クローラ、多足歩行の脚部、プロペラ等で構成されていてもよい。
次に、自律移動ロボット10は、図1、図2に示すように、進行方向に存在する1又は複数の物体をそれぞれ撮影する撮影手段としてのCCDカメラ13と、各物体までの距離を測定する測距手段としての2台の3D距離画像センサ14、15を有している。CCDカメラ13及び3D距離画像センサ14、15は、図2に示すように、3自由度を有する架台16に取り付けられており、ロボット本体11の前方(進行方向側)に配置される。CCDカメラ13及び3D距離画像センサ14、15を支持するベース部17は、互いに直交するそれぞれの回転軸18~20を中心に回転してピッチ角、ロール角、及びヨー角を調整し、自律移動ロボット10の姿勢に応じて、水平を維持する。これにより、CCDカメラ13及び3D距離画像センサ14、15の視認性、制御性を向上させて、物体の位置を正確に検出することができる。撮影手段として、可視光及び赤外線のいずれか一方又は両方を用いて物体を撮影するCCDカメラ13が好適に用いられるが、これに限定されるものではない。また、測距手段として、レーザー光を照射しながら、所定のピッチで上下、左右にスキャン(走査)して、照射したレーザー光が物体に反射して戻ってくるまでの時間を測定することで、物体までの距離及び物体の方向を検出する3D距離画像センサ14、15が好適に用いられるが、これに限定されるものではない。
なお、3D距離画像センサ14、15は、図3に示すように、測定範囲が部分的に重なるように位置をずらして配置されている。これにより、例えば、各々の3D距離画像センサ14、15の水平方向の視野角α=α’=60度の場合に、全体としてθ=100~110度の視野角を確保して、広範囲を同時に測定することができる。自律移動ロボット10は、図1に示すように、CCDカメラ(撮影手段)13で撮影された画像と3D距離画像センサ(測距手段)14、15で測定された距離データを基に作成された距離画像との重畳画像から各物体の種別を判別する判別手段22を有している。CCDカメラ13の画像と3D距離画像センサ14、15の距離画像から重畳画像を作成するために、図4に示す透視投影法を用いた。図4において、fはCCDカメラ13の焦点距離、dはCCDカメラ13と3D距離画像センサ14(又は15)との等位平行距離、K、KはそれぞれCCDカメラ13で撮影された二次元平面画像23のピクセル幅とピクセル高さ、(o,o)は二次元平面画像23の中心、(X,Y,Z)は点Pの3次元空間座標、(u,v)は二次元平面画像23中の点Pの2次元空間座標である。判別手段22は、これらの関係を用いて、CCDカメラ13の画像と、視野を拡張した3D距離画像センサ14、15の距離画像から重畳画像処理を行って、各物体の種別を判別することができる。このとき、判別手段22は、重畳画像処理により、各物体の色及び形から各物体の種別を判別することができる。
図1に示すように、自律移動ロボット10はマップ作成手段25を有しており、移動領域内に存在する物体のうち、判別手段22で障害物26と判別された物体の位置を図5に示した二次元マップ27上に記録する。x(水平)方向、y(高さ)方向、z(奥行き)方向からなる障害物26の距離データをx-z平面に変換することにより、二次元マップ27が得られる。
また、自律移動ロボット10は、図1に示すように、自己位置を推定する自己位置推定手段28を有している。自己位置推定手段28は、衛星航法システムを利用して自己位置を測位する測位手段29と、慣性計測センサを利用して経路計算を行う経路計算手段30を用いて自己位置の推定を行う。測位手段29は、リアルタイムキネマティックGPSモジュールを用いて測量を行うものが好適に用いられる。一般的なGPSでは森林等の中で受信強度が弱くなって誤差が大きくなるが、それに比べて高い精度が得られる。また、経路計算手段30としては、9軸IMUセンサモジュールが好適に用いられる。慣性計測センサとして9軸センサ(3軸加速度、3軸ジャイロ、3軸コンパス)を使用しており、マイコンが実装されているので、センサデータの取得とデータの処理を一枚の基板で行うことができる。
なお、自律移動ロボット10は、自律移動ロボット10全体の動作を制御する制御部32を有している。制御部32には、CPU、ROM、RAM、通信用のインタフェイス等を有する演算処理装置が用いられ、例えばROMには、自律移動ロボット10を自律移動させるための制御プログラムが記録されている。そして、制御部32のCPUがこの制御プログラムを実行することにより、制御部32を上記の判別手段22、マップ作成手段25、自己位置推定手段28として機能させることができる。自己位置推定手段28による自己位置推定方法は特に限定されるものではないが、具体的な制御プログラムとしては、例えばSLAM(Simultaneous Localization and Mapping)アルゴリズムであり、確率的手法としてモンテカルロ法(パーティクルフィルタ)を実行するものが好適に用いられる。SLAM処理は、CCDカメラ13による各物体の画像と、3D距離画像センサ14、15の距離画像に基づく各物体までの距離情報とを照合することにより算出される測定位置と、経路計算手段30によって算出された測定位置から、自己位置を推定することができる。自己位置と周囲環境とをリアルタイムに認識することができるので、高精度の自己位置推定が可能である。また、測位手段29による測位結果に基づく測定位置と、経路計算手段30によって算出された測定位置からは、モンテカルロ法により自己位置を推定することができる。
自律移動ロボット10は、図5に示すように、進行方向に存在する障害物(立木等)26に対して、近い順に目標値を設定しながら移動を行う。このとき、進行方向の左右2箇所に目標点a、bを定め、条件に応じて目標点a、bのいずれか一方を選択する。
なお、判別手段22は、重畳画像処理により各物体が存在する割合を表す物体率と物体が存在していない割合を示す空間率を求め、各物体までの距離の変化と、物体率及び空間率の変化との関係から、各物体上を通過可能か否かを判別することもできる。これは、各物体の色及び形から各物体の種別を判別することが困難である場合に有効である。特に、物体が立木のような通過を妨げる障害物であるか、通過を妨げない雑草等の非障害物であるかを判別することにより、不要な停止、後退、迂回を防いで効率的に移動することができる。
また、農地等の移動領域において、自律移動ロボット10を苗木の周囲の下刈りや果実の収穫等に用いる場合は、管理対象物となる苗木に予めRFタグを取り付けておき、自律移動ロボット10に判別手段としてRFIDリーダーを取り付けることにより、RFIDリーダーでRFタグから電波を受信して、その電波強度により物体の中から管理対象物の位置を推定することができる。これにより、管理対象物となる苗木と周囲の草木や雑草を確実に判別し、苗木を傷付けることなく移動できると共に、苗木のモニタリング、果実の収穫、下刈り等の各種作業を確実に行うことができる。
以下、本発明の一実施の形態に係る自律移動ロボットの制御方法について説明する。
自律移動ロボット10は、事前に移動領域内に存在する障害物の位置を予め記録した上で、各種作業を行う際に、障害物を避けながら移動領域内を移動する。
まず、CCDカメラ(撮影手段)13で進行方向に存在する各物体を撮影する(第1の工程)。また、第1の工程中に各物体までの距離を3D距離画像センサ(測距手段)14、15で測定する(第2の工程)。そして、第1の工程で撮影された画像と第2の工程で測定された距離データを基に作成された距離画像から判別手段22で重畳画像処理を行って各物体の種別を判別する(第3の工程)。物体のうち第3の工程で障害物と判別された物体の位置をマップ作成手段25により二次元マップ27上に記録する(第4の工程)。自律移動ロボット10は、自己位置推定手段28で自己位置を推定し(第5の工程)、障害物を避けながら移動領域内を移動手段12で自律移動する(第6の工程)。
自律移動ロボット10は、以上の工程を繰り返しながら、ある経路上を移動することにより、その経路の周辺に存在する障害物を記録することができる。移動領域内をくまなく自律移動して作業を行うためには、移動領域内の全ての障害物を記憶し、それらの間を順次通過させる必要があるが、移動領域が広い場合には、全ての障害物を記録することができない。そこで、移動領域全体の中で二次元マップ27上に障害物の位置が記録されていない情報未取得領域が存在している際に、情報未取得領域に経路を設定し、自律移動ロボット10をその経路上で移動させて、移動領域内に存在する全ての障害物が二次元マップ27上に記録されるまで第1~第6の工程を繰り返す必要がある。この作業にはハミルトン法が好適に用いられ、最終的に移動領域内をくまなく自律移動することが可能な経路が得られる。
なお、図1に示すように、自律移動ロボット10と通信を行うサーバ33を備えることにより、自律移動ロボット10の位置を捕捉及び同定して、自律移動ロボット10が移動する軌跡を可視化することができる。その結果、管理者が自律移動ロボット10の移動状況を常に監視することができ、動作不良や不具合等が生じた際に、直ちに自律移動ロボット10を停止させ、事故等の発生を未然に防ぐことが可能となる
自律移動ロボット10が実際に各種作業を行う際には、前述と同様に、CCDカメラ13及び3D距離画像センサ14、15で進行方向に存在する各物体の撮影、距離測定を行い、判別手段22で各物体の種別を判別して、自己位置推定手段28で自己位置を推定し、障害物を避けて自律移動を行いながら、各物体の種別に応じて、モニタリング、果実の収穫、下刈り、ゴミの回収等を行う。自律移動ロボット10の後方を撮影するためのCCDカメラ等の撮影手段を取り付けることにより、後退時に障害物等を避けながら安全に移動することができる。このとき、自律移動ロボット10の後方に存在する物体までの距離を測定するための3D距離画像センサ等の測距手段も取り付けて、判別手段22によって物体の種別を判別するようにしてもよい。
以上、本発明を、実施の形態を参照して説明してきたが、本発明は何ら上記した実施の形態に記載した構成に限定されるものではなく、特許請求の範囲に記載されている事項の範囲内で考えられるその他の実施の形態や変形例も含むものである。
自律移動ロボットには、その用途(作業内容)に応じて、様々な器具を取り付けることができる。例えば、下刈りを行うためには、ロボット本体の前方下部に回転ブレードを有する下刈り手段を取り付ければよい。このとき、回転ブレードの数や配置は適宜、選択できる。また、果実の収穫やゴミの回収等を行うためにアームの先端に把持部を備えた収穫手段や回収手段を取り付けてもよい。このとき、アームや把持部の形態は適宜、選択することができるが、伸縮可能なアームや多関節のアームを用いれば作業性に優れる。
10:自律移動ロボット、11:ロボット本体、12:移動手段、13:CCDカメラ(撮影手段)、14、15:3D距離画像センサ(測距手段)、16:架台、17:ベース部、18~20:回転軸、22:判別手段、23:二次元平面画像、25:マップ作成手段、26:障害物、27:二次元マップ、28:自己位置推定手段、29:測位手段、30:経路計算手段、32:制御部、33:サーバ

Claims (7)

  1. 移動領域内を自律移動する自律移動ロボットであって、
    移動手段と、進行方向に存在する1又は複数の物体をそれぞれ撮影する撮影手段と、前記各物体までの距離を測定する測距手段と、前記撮影手段で撮影された画像と前記測距手段で測定された距離データを基に作成された距離画像から重畳画像処理により前記各物体が存在する割合を表す物体率と前記物体が存在していない割合を示す空間率を求め、前記各物体までの距離の変化と、前記物体率及び前記空間率の変化との関係から、前記各物体が障害物であるか非障害物であるかを判別する判別手段と、前記物体のうち前記判別手段で前記障害物と判別された物体の位置を二次元マップ上に記録するマップ作成手段と、自己位置を推定する自己位置推定手段とを有し、前記障害物を避けながら自律移動することを特徴とする自律移動ロボット。
  2. 請求項記載の自律移動ロボットにおいて、前記自己位置推定手段は、衛星航法システムを利用して自己位置を測位する測位手段と、慣性計測センサを利用して経路計算を行う経路計算手段を有していることを特徴とする自律移動ロボット。
  3. 移動領域内を自律移動する自律移動ロボットであって、
    移動手段と、進行方向に存在する1又は複数の物体をそれぞれ撮影する撮影手段と、前記各物体までの距離を測定する測距手段と、前記撮影手段で撮影された画像と前記測距手段で測定された距離データを基に作成された距離画像から重畳画像処理を行って前記各物体の種別を判別する判別手段と、前記物体のうち前記判別手段で障害物と判別された物体の位置を二次元マップ上に記録するマップ作成手段と、リアルタイムキネマティックGPSモジュールを用いて測量を行い自己位置を測位する測位手段による測位結果に基づく測定位置と慣性計測センサとしてマイコンが実装された9軸センサを使用して経路計算を行う経路計算手段によって算出された測定位置からモンテカルロ法により自己位置を推定する自己位置推定手段とを有し、前記障害物を避けながら自律移動することを特徴とする自律移動ロボット。
  4. 請求項記載の自律移動ロボットにおいて、前記判別手段は、前記重畳画像処理により、前記各物体の色及び形から該各物体の種別を判別することを特徴とする自律移動ロボット。
  5. 移動領域内を自律移動する自律移動ロボットの制御方法であって、
    撮影手段で進行方向に存在する1又は複数の物体をそれぞれ撮影する第1の工程と、
    該第1の工程中に前記各物体までの距離を測距手段で測定する第2の工程と、
    前記第1の工程で撮影された画像と前記第2の工程で測定された距離データを基に作成された距離画像から判別手段で重畳画像処理を行って前記各物体の種別を判別し、該各物体が存在する割合を表す物体率と前記物体が存在していない割合を示す空間率を求め、前記各物体までの距離の変化と、前記物体率及び前記空間率の変化との関係から、前記各物体が障害物であるか非障害物であるかを判別する第3の工程と、
    前記物体のうち前記第3の工程で前記障害物と判別された物体の位置をマップ作成手段により二次元マップ上に記録する第4の工程と、
    自己位置推定手段で自己位置を推定する第5の工程と、
    前記障害物を避けながら前記移動領域内を移動手段で自律移動する第6の工程とを有することを特徴とする自律移動ロボットの制御方法。
  6. 請求項記載の自律移動ロボットの制御方法において、前記自律移動ロボットと通信を行うサーバにより、前記自律移動ロボットの位置を捕捉及び同定して、該自律移動ロボットが移動する軌跡を可視化することを特徴とする自律移動ロボットの制御方法。
  7. 請求項又は記載の自律移動ロボットの制御方法において、前記二次元マップ上に前記障害物の位置が記録されていない情報未取得領域が存在している際に、該情報未取得領域に経路を設定し、前記自律移動ロボットを該経路上で移動させて、前記移動領域内に存在する全ての前記障害物が前記二次元マップ上に記録されるまで前記第1~第6の工程を繰り返すことを特徴とする自律移動ロボットの制御方法。
JP2018072389A 2018-04-04 2018-04-04 自律移動ロボット及びその制御方法 Active JP7112066B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018072389A JP7112066B2 (ja) 2018-04-04 2018-04-04 自律移動ロボット及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018072389A JP7112066B2 (ja) 2018-04-04 2018-04-04 自律移動ロボット及びその制御方法

Publications (2)

Publication Number Publication Date
JP2019185213A JP2019185213A (ja) 2019-10-24
JP7112066B2 true JP7112066B2 (ja) 2022-08-03

Family

ID=68341232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018072389A Active JP7112066B2 (ja) 2018-04-04 2018-04-04 自律移動ロボット及びその制御方法

Country Status (1)

Country Link
JP (1) JP7112066B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112041634A (zh) * 2020-08-07 2020-12-04 苏州珊口智能科技有限公司 移动机器人的定位方法、构建地图的方法及移动机器人
CN113310488A (zh) * 2021-04-29 2021-08-27 西安交通大学 一种基于slam的果园机器人导航方法
JP7509178B2 (ja) 2021-09-15 2024-07-02 Jfeスチール株式会社 自律走行装置および自律走行方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134226A (ja) 2009-12-25 2011-07-07 Ihi Aerospace Co Ltd 移動ロボットの遠方環境認識装置及び方法
JP2011209845A (ja) 2010-03-29 2011-10-20 Toyota Motor Corp 自律移動体、自己位置推定方法、地図情報作成システム
JP2011226959A (ja) 2010-04-21 2011-11-10 Kobe Steel Ltd 移動体の位置検出方法
JP2015170127A (ja) 2014-03-06 2015-09-28 トヨタ自動車株式会社 自律移動ロボット、及びその制御方法
JP2017102705A (ja) 2015-12-02 2017-06-08 株式会社リコー 自律移動装置及び自律移動装置システム
US20170341237A1 (en) 2016-05-27 2017-11-30 General Electric Company Multisensory data fusion system and method for autonomous robotic operation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134226A (ja) 2009-12-25 2011-07-07 Ihi Aerospace Co Ltd 移動ロボットの遠方環境認識装置及び方法
JP2011209845A (ja) 2010-03-29 2011-10-20 Toyota Motor Corp 自律移動体、自己位置推定方法、地図情報作成システム
JP2011226959A (ja) 2010-04-21 2011-11-10 Kobe Steel Ltd 移動体の位置検出方法
JP2015170127A (ja) 2014-03-06 2015-09-28 トヨタ自動車株式会社 自律移動ロボット、及びその制御方法
JP2017102705A (ja) 2015-12-02 2017-06-08 株式会社リコー 自律移動装置及び自律移動装置システム
US20170341237A1 (en) 2016-05-27 2017-11-30 General Electric Company Multisensory data fusion system and method for autonomous robotic operation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
伊藤友孝、松本和也、伴野 裕,山林管理ロボットのための周囲環境認識,ロボティクス・メカトロニクス講演会 ’11 講演論文集,日本,一般社団法人日本機械学会,2011年05月26日,1471~1474,学術文献等2013-08015-454

Also Published As

Publication number Publication date
JP2019185213A (ja) 2019-10-24

Similar Documents

Publication Publication Date Title
US9481982B1 (en) Method and control system for surveying and mapping a terrain while operating a bulldozer
US9603300B2 (en) Autonomous gardening vehicle with camera
Inoue et al. The development of autonomous navigation and obstacle avoidance for a robotic mower using machine vision technique
Shalal et al. Orchard mapping and mobile robot localisation using on-board camera and laser scanner data fusion–Part B: Mapping and localisation
AU2011232739B2 (en) System and method for governing a speed of an autonomous vehicle
Subramanian et al. Sensor fusion using fuzzy logic enhanced kalman filter for autonomous vehicle guidance in citrus groves
JP7112066B2 (ja) 自律移動ロボット及びその制御方法
BRPI1106300A2 (pt) Metodo e sistema para manter comunicacao de linha de visao entre uma pluralidade de maquinas, e, produto de programa de computador
Post et al. Autonomous navigation with ROS for a mobile robot in agricultural fields
EP3761136B1 (en) Control device, mobile body, and program
US11751497B2 (en) Method, system and robot for autonomous navigation thereof between two rows of plants
WO2023055383A1 (en) Vehicle row follow system
Batavia et al. Autonomous coverage operations in semi-structured outdoor environments
Post et al. Autonomous navigation with open software platform for field robots
EP4066076B1 (en) Autonomous machine navigation in various lighting environments
Hyyti et al. Feature based modeling and mapping of tree trunks and natural terrain using 3D laser scanner measurement system
US11981336B2 (en) Vehicle row follow system
EP4398202A2 (en) Autonomous machine having vision system for navigation and method of using same
CN113093155B (zh) 一种激光雷达联合标定方法及系统
Inoue et al. Autonomous Navigation and Obstacle Avoidance in an Orchard Using Machine Vision Techniques for a Robotic Mower
KR20210155322A (ko) 라이다 센서를 포함하는 지형 비행 장치
CN112148032B (zh) 一种微型树洞检测飞行器及控制方法
Tikanmaki et al. Development of Mörri, a high performance and modular outdoor robot
PEREIRA et al. Sensory Architecture Applied to Robotic Systems in Forest Environments
Liu et al. Sensor-based scouting algorithms for automatic sampling tasks in rough and large unstructured agricultural fields

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220714

R150 Certificate of patent or registration of utility model

Ref document number: 7112066

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150