JP2019185213A - Autonomous movement robot and control method thereof - Google Patents

Autonomous movement robot and control method thereof Download PDF

Info

Publication number
JP2019185213A
JP2019185213A JP2018072389A JP2018072389A JP2019185213A JP 2019185213 A JP2019185213 A JP 2019185213A JP 2018072389 A JP2018072389 A JP 2018072389A JP 2018072389 A JP2018072389 A JP 2018072389A JP 2019185213 A JP2019185213 A JP 2019185213A
Authority
JP
Japan
Prior art keywords
mobile robot
autonomous mobile
distance
moving
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018072389A
Other languages
Japanese (ja)
Other versions
JP7112066B2 (en
Inventor
林 英治
Eiji Hayashi
英治 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu Institute of Technology NUC
Original Assignee
Kyushu Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu Institute of Technology NUC filed Critical Kyushu Institute of Technology NUC
Priority to JP2018072389A priority Critical patent/JP7112066B2/en
Publication of JP2019185213A publication Critical patent/JP2019185213A/en
Application granted granted Critical
Publication of JP7112066B2 publication Critical patent/JP7112066B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide an autonomous movement robot and a control method thereof which highly precisely estimate an own local position in a movement region, such as a forest, a firm field, or a sea coast, capable of autonomously moving within the movement region far and wide while surely avoiding obstacles, available for various works, such as harvesting of fruits, etc., and mowing of glass, addressing the insufficiency of labors, and have excellent stability, functionality, and practicability of action.SOLUTION: An autonomous movement robot includes: moving means 12; imaging means 13 for imaging each object present in a travelling direction; distance measuring means 14 and 15 for measuring a distance to each object; determining means 22 for determining the kind of each object by performing an image superimposing process on a distance image created on the basis of an image picked up by the imaging means 13 and of distance data measured by the distance measuring means 14 and 15; map creating means 25 for recording the position of the object determined as an obstacle 26 by the determining means 22 among the objects on a two-dimensional map 27; and own local position estimating means 28 for estimating an own local position, and autonomously moves while avoiding the obstacle 26.SELECTED DRAWING: Figure 1

Description

本発明は、自己位置を推定し、障害物を避けながら、自律的な移動を行う自律移動ロボット及びその制御方法に関するものである。 The present invention relates to an autonomous mobile robot that autonomously moves while estimating its own position and avoiding an obstacle, and a control method thereof.

近年、建物内部や屋外の限定された領域内を、周囲の環境に基づいて自律的に移動可能な自律移動ロボット(移動体)が開発されつつある。このような自律移動ロボットは、例えば、特許文献1〜3のように、予め記憶された移動する領域に関する移動マップ上において、現在の自己の位置から特定の目標地点までの移動経路を作成することで自律移動を可能とするため、通常、移動する領域内における自己位置を認識する機能を備えている。そして、この自律移動ロボットは、例えば、林野での下刈りや立木のモニタリング、農地での下刈り、モニタリング、果実の収穫等に利用できる。また、海岸でのゴミの収集と運搬、海藻の収穫、モニタリング等に利用することや、コミュニティーロードでの買い物の代替、人や物の運搬等に利用することもできる。自律移動ロボットをこれらの作業に利用することにより、労務又は労働の代替となり、労働者不足を補うことができる。 In recent years, autonomous mobile robots (moving bodies) that can move autonomously within a limited area inside a building or outdoors based on the surrounding environment are being developed. Such an autonomous mobile robot creates a movement route from its current position to a specific target point on a movement map relating to a moving area stored in advance, for example, as in Patent Documents 1 to 3. In order to enable autonomous movement, a function of recognizing its own position in the moving area is usually provided. And this autonomous mobile robot can be used for, for example, undercutting in forests, monitoring of standing trees, undercutting in farmland, monitoring, fruit harvesting, and the like. It can also be used for collecting and transporting trash on the coast, harvesting seaweed, and monitoring, substituting for shopping on community roads, transporting people and things, and so on. By using the autonomous mobile robot for these operations, it becomes a substitute for labor or labor, and can compensate for the shortage of workers.

特開2011−209845号公報JP2011-209845A 特開2015−170127号公報Japanese Patent Laying-Open No. 2015-170127 特開2017−102705号公報JP 2017-102705 A

しかしながら、自律移動ロボットを林野、農地、海岸等の屋外で利用する場合、屋内とは、外光、路面環境等の認識条件が異なり、移動距離の長さ、移動範囲の広さ等も違うため、ロボット自身が高精度の探査を行いながら行動できるようにする必要があり、従来とは異なるロボットプラットフォーム、センサ処理技法、及び自律移動技法の構築が求められる。 However, when using autonomous mobile robots outdoors in forests, farmlands, coasts, etc., recognition conditions such as outside light and road surface environment are different from indoors, and the length of travel distance and the range of travel range are also different. Therefore, it is necessary to allow the robot itself to behave while performing high-accuracy exploration, and it is required to construct a robot platform, a sensor processing technique, and an autonomous movement technique that are different from the conventional ones.

本発明は、かかる事情に鑑みてなされたもので、林野、農地、海岸等の移動領域において、自己位置を高精度で推定することができ、障害物を確実に避けながら、移動領域内をくまなく自律的に移動することが可能で、管理対象物となる果実等の収穫や雑草の刈り取り等の作業を効率的に行って労働者不足の解消を実現することができる動作の安定性、機能性、及び実用性に優れる自律移動ロボット及びその制御方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and can estimate the self-position with high accuracy in moving areas such as forests, farmlands, and coasts, and can avoid the obstacles while reliably avoiding obstacles. It is possible to move autonomously, and the stability and function of the operation that can effectively eliminate the labor shortage by efficiently performing operations such as harvesting of fruits to be managed and cutting weeds. It is an object to provide an autonomous mobile robot excellent in performance and practicality and a control method thereof.

前記目的に沿う第1の発明に係る自律移動ロボットは、移動領域内を自律移動する自律移動ロボットであって、
移動手段と、進行方向に存在する1又は複数の物体をそれぞれ撮影する撮影手段と、前記各物体までの距離を測定する測距手段と、前記撮影手段で撮影された画像と前記測距手段で測定された距離データを基に作成された距離画像から重畳画像処理を行って前記各物体の種別を判別する判別手段と、前記物体のうち前記判別手段で障害物と判別された物体の位置を二次元マップ上に記録するマップ作成手段と、自己位置を推定する自己位置推定手段とを有し、前記障害物を避けながら自律移動する。
The autonomous mobile robot according to the first aspect of the present invention is an autonomous mobile robot that autonomously moves within a movement area,
A moving means, an imaging means for imaging one or more objects existing in the traveling direction, a distance measuring means for measuring a distance to each object, an image photographed by the imaging means, and the distance measuring means A determination unit that performs superimposed image processing from a distance image created based on the measured distance data to determine the type of each object, and a position of the object that is determined to be an obstacle by the determination unit among the objects. It has a map creation means for recording on a two-dimensional map and a self-position estimation means for estimating the self-position, and moves autonomously while avoiding the obstacle.

第1の発明に係る自律移動ロボットにおいて、前記測距手段は、2台の3D距離画像センサを備え、該2台の3D距離画像センサは、測定範囲が部分的に重なるように位置をずらして配置されていることが好ましい。 In the autonomous mobile robot according to the first aspect of the present invention, the distance measuring means includes two 3D distance image sensors, and the two 3D distance image sensors are shifted in position so that the measurement ranges partially overlap. It is preferable that they are arranged.

第1の発明に係る自律移動ロボットにおいて、前記撮影手段及び前記測距手段は、3自由度を有する架台に取り付けられ、該自律移動ロボットの姿勢に応じて、水平を維持することが好ましい。 In the autonomous mobile robot according to the first aspect of the present invention, it is preferable that the photographing means and the distance measuring means are attached to a gantry having three degrees of freedom, and maintain the level according to the posture of the autonomous mobile robot.

第1の発明に係る自律移動ロボットにおいて、前記判別手段は、前記重畳画像処理により、前記各物体の色及び形から該各物体の種別を判別することが好ましい。 In the autonomous mobile robot according to the first aspect of the present invention, it is preferable that the determination unit determines the type of each object from the color and shape of each object by the superimposed image processing.

第1の発明に係る自律移動ロボットにおいて、前記判別手段は、前記重畳画像処理により前記各物体が存在する割合を表す物体率と前記物体が存在していない割合を示す空間率を求め、前記各物体までの距離の変化と、前記物体率及び前記空間率の変化との関係から、前記各物体上を通過可能か否かを判別することが好ましい。 In the autonomous mobile robot according to the first aspect of the present invention, the determination means obtains an object rate indicating a ratio of the presence of each object and a spatial rate indicating a ratio of the absence of the object by the superimposed image processing, It is preferable to determine whether or not the object can be passed from the relationship between the change in the distance to the object and the change in the object ratio and the space ratio.

第1の発明に係る自律移動ロボットにおいて、前記判別手段は、RFIDリーダーを備え、前記移動領域内に存在する管理対象物に予め取り付けられたRFタグから電波を受信して、その電波強度により前記物体の中から前記管理対象物の位置を推定することが好ましい。 In the autonomous mobile robot according to the first aspect of the present invention, the discrimination means includes an RFID reader, receives radio waves from an RF tag attached in advance to a management target existing in the movement area, and It is preferable to estimate the position of the management object from among the objects.

第1の発明に係る自律移動ロボットにおいて、前記自己位置推定手段は、衛星航法システムを利用して自己位置を測位する測位手段と、慣性計測センサを利用して経路計算を行う経路計算手段を有していることが好ましい。 In the autonomous mobile robot according to the first aspect of the present invention, the self-position estimating means includes positioning means for positioning the self-position using a satellite navigation system and route calculating means for performing route calculation using an inertial measurement sensor. It is preferable.

前記目的に沿う第2の発明に係る自律移動ロボットの制御方法は、移動領域内を自律移動する自律移動ロボットの制御方法であって、
撮影手段で進行方向に存在する1又は複数の物体をそれぞれ撮影する第1の工程と、
該第1の工程中に前記各物体までの距離を測距手段で測定する第2の工程と、
前記第1の工程で撮影された画像と前記第2の工程で測定された距離データを基に作成された距離画像から判別手段で重畳画像処理を行って前記各物体の種別を判別する第3の工程と、
前記物体のうち前記第3の工程で障害物と判別された物体の位置をマップ作成手段により二次元マップ上に記録する第4の工程と、
自己位置推定手段で自己位置を推定する第5の工程と、
前記障害物を避けながら前記移動領域内を移動手段で自律移動する第6の工程とを有する。
The method for controlling an autonomous mobile robot according to the second aspect of the present invention is a method for controlling an autonomous mobile robot that autonomously moves within a movement area,
A first step of photographing one or a plurality of objects existing in the traveling direction by the photographing means;
A second step of measuring a distance to each object during the first step by a distance measuring means;
A third type of discriminating the type of each object by performing a superimposing image process with a discriminating unit from a distance image created based on the image photographed in the first step and the distance data measured in the second step. And the process of
A fourth step of recording, on the two-dimensional map, the position of the object determined as an obstacle in the third step among the objects,
A fifth step of estimating the self position by the self position estimating means;
And a sixth step of autonomously moving within the moving area by moving means while avoiding the obstacle.

第2の発明に係る自律移動ロボットの制御方法において、前記自律移動ロボットと通信を行うサーバにより、前記自律移動ロボットの位置を捕捉及び同定して、該自律移動ロボットが移動する軌跡を可視化することが好ましい。 In the method for controlling an autonomous mobile robot according to the second invention, the server that communicates with the autonomous mobile robot captures and identifies the position of the autonomous mobile robot, and visualizes the trajectory of the autonomous mobile robot moving Is preferred.

第2の発明に係る自律移動ロボットの制御方法において、前記二次元マップ上に前記障害物の位置が記録されていない情報未取得領域が存在している際に、該情報未取得領域に経路を設定し、前記自律移動ロボットを該経路上で移動させて、前記移動領域内に存在する全ての前記障害物が前記二次元マップ上に記録されるまで前記第1〜第6の工程を繰り返すことが好ましい。 In the autonomous mobile robot control method according to the second invention, when there is an information unacquired area where the position of the obstacle is not recorded on the two-dimensional map, a route is routed to the information unacquired area. Set, move the autonomous mobile robot along the route, and repeat the first to sixth steps until all the obstacles existing in the moving area are recorded on the two-dimensional map Is preferred.

第1の発明に係る自律移動ロボットは、自己位置を高精度で推定することができ、移動領域内に存在する障害物の二次元マップに基づいて、移動領域内をくまなく自律的に移動しながら、各物体の種別を判別してそれぞれの種別に応じた動作を行うことができる。これにより、立木等の障害物であると判別された物体を確実に避けながら移動することができる。そして、移動中に、例えば、育成中の苗木等の管理対象物となる物体が存在する場合は、傷付けたり、踏み潰したりしないように避けながら、育成状況の確認や果実等の収穫を行うことができる。また、ゴミ或いは海藻や果実等の管理対象物(回収対象物或いは収穫対象物)となる物体が落下している場合は、管理対象物の種類に応じて自律移動ロボットに搭載した回収手段や収穫手段を用いてそれらを回収、収穫することができる。さらに、自律移動ロボットの進行方向に存在する物体が、移動を妨げる立木等の障害物か、苗木等の管理対象物か、移動を妨げない雑草等の非障害物かを判別し、移動の妨げとならない非障害物上を通過しながら効率的に移動することや、必要に応じて、管理対象物の周囲に存在する雑草等の刈り取り(下刈り)を行うことができる。 The autonomous mobile robot according to the first aspect of the present invention can estimate the self-position with high accuracy, and autonomously moves throughout the moving area based on the two-dimensional map of the obstacle existing in the moving area. However, it is possible to determine the type of each object and perform an operation according to the type. Thereby, it is possible to move while reliably avoiding an object determined to be an obstacle such as a standing tree. And when moving, for example, if there are objects to be managed such as growing seedlings, check the growing status and harvest fruits etc. while avoiding being damaged or stepping over Can do. In addition, if an object to be managed (collection object or harvest object) such as garbage or seaweed or fruit is falling, the collection means and harvester mounted on the autonomous mobile robot according to the type of the management object They can be recovered and harvested using means. Furthermore, it is determined whether the object that exists in the direction of travel of the autonomous mobile robot is an obstacle such as a standing tree that prevents movement, an object to be managed such as a seedling, or a non-obstacle such as weed that does not prevent movement. It is possible to move efficiently while passing over non-obstacles that do not become, and to cut weeds (undercutting) around the management target as necessary.

第1の発明に係る自律移動ロボットにおいて、測距手段として、測定範囲が部分的に重なるように位置をずらして配置した2台の3D距離画像センサを用いた場合、視野角を拡張して、予め広範囲にわたって物体(障害物)の存在を認識することができるので、方向転換した際に、不意に障害物を認識して停止或いは後退の動作を行うおそれが低く、確実に障害物を避けながらスムーズかつ効率的に移動を行うことができる。 In the autonomous mobile robot according to the first aspect of the present invention, when two 3D distance image sensors arranged so as to have the measurement ranges partially overlapped as distance measuring means are used, the viewing angle is expanded, Presence of objects (obstacles) can be recognized over a wide range in advance, so there is little risk of suddenly recognizing obstacles and stopping or moving backward when turning around, while avoiding obstacles reliably It is possible to move smoothly and efficiently.

第1の発明に係る自律移動ロボットにおいて、撮影手段及び測距手段が、3自由度を有する架台に取り付けられ、自律移動ロボットの姿勢に応じて、水平を維持する場合、撮影手段及び測距手段の視認性、制御性を向上させて、物体の位置を正確に検出することができ、動作の安定性に優れる。 In the autonomous mobile robot according to the first invention, when the photographing means and the distance measuring means are attached to a gantry having three degrees of freedom and maintain the level according to the posture of the autonomous mobile robot, the photographing means and the distance measuring means The position and position of the object can be detected accurately, and the stability of the operation is excellent.

第1の発明に係る自律移動ロボットにおいて、各物体の色及び形から各物体の種別を判別する場合、例えば、立木、雑草、苗木等を誤認識(混同)することなく正確に判別して、その種別に応じた動作を行うことができる。 In the autonomous mobile robot according to the first aspect of the present invention, when determining the type of each object from the color and shape of each object, for example, accurately determining without standing up, weeds, seedlings, etc. An operation according to the type can be performed.

第1の発明に係る自律移動ロボットにおいて、自律移動ロボットから各物体までの距離の変化と、それに伴う各物体の物体率及び周囲の空間率の変化との関係から、各物体上を通過可能か否かを判別する場合、各物体の周囲や背後に存在する空間の奥行きを正しく認識して、他の物体や障害物等に邪魔されることなく、確実に移動を行うことができる。 In the autonomous mobile robot according to the first invention, is it possible to pass over each object based on the relationship between the change in the distance from the autonomous mobile robot to each object and the accompanying change in the object ratio of each object and the surrounding space ratio? In the case of determining whether or not, the depth of the space existing around and behind each object is correctly recognized, and the movement can be surely performed without being obstructed by other objects or obstacles.

第1の発明に係る自律移動ロボットにおいて、管理対象物に予め取り付けられたRFタグからの電波をRFIDリーダーで受信して、その電波強度により物体の中から管理対象物の位置を推定する場合、例えば苗木等の管理対象物と周囲の雑草等を確実に判別することができる。 In the autonomous mobile robot according to the first aspect of the present invention, when the RFID reader receives radio waves from an RF tag attached in advance to the management target and estimates the position of the management target from the object by the radio wave intensity, For example, it is possible to reliably discriminate management objects such as seedlings and surrounding weeds.

第1の発明に係る自律移動ロボットにおいて、自己位置推定手段が、衛星航法システムを利用して自己位置を測位する測位手段と、慣性計測センサを利用して経路計算を行う経路計算手段を有している場合、自己位置の推定精度を高めることができる。 In the autonomous mobile robot according to the first invention, the self-position estimating means has positioning means for positioning the self-position using a satellite navigation system and route calculation means for calculating a route using an inertial measurement sensor. In this case, it is possible to improve the estimation accuracy of the self position.

第2の発明に係る自律移動ロボットの制御方法は、予め移動領域内の障害物の位置が記録された二次元マップと、移動領域内の移動中に撮影手段で撮影した各物体の画像及び測距手段で測定された各物体までの距離を基にして、障害物を確実に避けながら自律移動を行うことができ、自己位置推定精度が高く、動作の安定性に優れる。 An autonomous mobile robot control method according to a second aspect of the invention includes a two-dimensional map in which the position of an obstacle in the movement area is recorded in advance, an image of each object photographed by the photographing means while moving in the movement area, and measurement. Based on the distance to each object measured by the distance means, autonomous movement can be performed while avoiding obstacles with certainty, self-position estimation accuracy is high, and operation stability is excellent.

第2の発明に係る自律移動ロボットの制御方法において、自律移動ロボットと通信を行うサーバにより、自律移動ロボットの位置を捕捉及び同定して、自律移動ロボットが移動する軌跡を可視化した場合、管理者が自律移動ロボットの移動状況を常に監視して、動作不良や不具合等が生じた際に、直ちに自律移動ロボットを停止させ、事故等の発生を未然に防ぐことが可能で安全性に優れる。 In the method for controlling an autonomous mobile robot according to the second aspect of the invention, when a server that communicates with the autonomous mobile robot captures and identifies the position of the autonomous mobile robot and visualizes the trajectory of the autonomous mobile robot, However, it is possible to always monitor the movement state of the autonomous mobile robot, and when an operation failure or malfunction occurs, the autonomous mobile robot can be stopped immediately to prevent an accident or the like from occurring, which is excellent in safety.

第2の発明に係る自律移動ロボットの制御方法において、二次元マップ上に障害物の位置が記録されていない情報未取得領域が存在している際に、情報未取得領域に経路を設定し、自律移動ロボットを経路上で移動させて、移動領域内に存在する全ての障害物が二次元マップ上に記録されるまで第1〜第6の工程を繰り返した場合、自律移動ロボットを使用して作業を行う時に、自己位置の推定精度を高め、移動領域内をくまなく効率的に移動させることができ、作業漏れが発生せず、動作の信頼性に優れる。 In the autonomous mobile robot control method according to the second invention, when there is an information unacquired area where the position of the obstacle is not recorded on the two-dimensional map, a route is set in the information unacquired area, When the autonomous mobile robot is moved on the route and the first to sixth steps are repeated until all obstacles existing in the movement area are recorded on the two-dimensional map, the autonomous mobile robot is used. When performing work, the self-position estimation accuracy can be improved, the work can be efficiently moved throughout the moving area, work leakage does not occur, and operation reliability is excellent.

本発明の一実施の形態に係る自律移動ロボットの構成を示すブロック図である。It is a block diagram which shows the structure of the autonomous mobile robot which concerns on one embodiment of this invention. 同自律移動ロボットの撮影手段及び測距手段が架台に取り付けられている状態を示す斜視図である。It is a perspective view which shows the state by which the imaging | photography means and the ranging means of the autonomous mobile robot are attached to the mount frame. 同自律移動ロボットの測距手段の視野角を示す説明図である。It is explanatory drawing which shows the viewing angle of the ranging means of the autonomous mobile robot. 同自律移動ロボットの重畳画像処理の説明図である。It is explanatory drawing of the superimposition image process of the autonomous mobile robot. 同自律移動ロボットの自律移動の説明図である。It is explanatory drawing of the autonomous movement of the autonomous mobile robot.

続いて、本発明を具体化した実施の形態について説明し、本発明の理解に供する。
本発明の一実施の形態に係る自律移動ロボット10は、図5に示すように、ロボット本体11に4つの車輪を有する移動手段12を備えたものであり、林野、農地、海岸等の移動領域内を自律移動しながら、林野や農地等での下刈り、立木等のモニタリング、果実等の収穫、海岸等でのゴミの収集、海藻の収穫等の各種作業を行うものである。
本実施の形態のように、移動手段12として、前輪、後輪を2つずつ設けたものは移動の安定性に優れる。このとき、前輪と後輪の少なくともどちら一方を駆動輪とすればよいが、全輪駆動としてもよい。なお、移動手段として車輪を用いる場合、4輪に限らず、3輪でもよいし、6輪以上でもよい。動力部としては正逆回転可能なモーターが好適に用いられる。また、移動手段12は、ロボット本体11を移動(走行或いは飛行)させることができればよく、クローラ、多足歩行の脚部、プロペラ等で構成されていてもよい。
Subsequently, an embodiment in which the present invention is embodied will be described for the understanding of the present invention.
As shown in FIG. 5, the autonomous mobile robot 10 according to an embodiment of the present invention is provided with a moving means 12 having four wheels in a robot body 11, and a moving area such as a forest field, farmland, coast, or the like. While moving autonomously, various operations such as cutting under forests, farmland, etc., monitoring of standing trees, harvesting of fruits, etc., collection of garbage on the beach, harvesting of seaweed, etc. are performed.
As in this embodiment, the moving means 12 provided with two front wheels and two rear wheels is excellent in movement stability. At this time, at least one of the front wheel and the rear wheel may be a drive wheel, but all-wheel drive may be used. In addition, when using a wheel as a moving means, not only four wheels but three wheels may be sufficient, and six wheels or more may be sufficient. As the power unit, a motor that can rotate forward and reverse is preferably used. Moreover, the moving means 12 should just be able to move the robot main body 11 (running or flying), and may be comprised by the crawler, the leg part of multi-leg walking, a propeller, etc.

次に、自律移動ロボット10は、図1、図2に示すように、進行方向に存在する1又は複数の物体をそれぞれ撮影する撮影手段としてのCCDカメラ13と、各物体までの距離を測定する測距手段としての2台の3D距離画像センサ14、15を有している。CCDカメラ13及び3D距離画像センサ14、15は、図2に示すように、3自由度を有する架台16に取り付けられており、ロボット本体11の前方(進行方向側)に配置される。CCDカメラ13及び3D距離画像センサ14、15を支持するベース部17は、互いに直交するそれぞれの回転軸18〜20を中心に回転してピッチ角、ロール角、及びヨー角を調整し、自律移動ロボット10の姿勢に応じて、水平を維持する。これにより、CCDカメラ13及び3D距離画像センサ14、15の視認性、制御性を向上させて、物体の位置を正確に検出することができる。撮影手段として、可視光及び赤外線のいずれか一方又は両方を用いて物体を撮影するCCDカメラ13が好適に用いられるが、これに限定されるものではない。また、測距手段として、レーザー光を照射しながら、所定のピッチで上下、左右にスキャン(走査)して、照射したレーザー光が物体に反射して戻ってくるまでの時間を測定することで、物体までの距離及び物体の方向を検出する3D距離画像センサ14、15が好適に用いられるが、これに限定されるものではない。 Next, as shown in FIGS. 1 and 2, the autonomous mobile robot 10 measures a distance from the CCD camera 13 as an imaging unit that captures one or more objects existing in the traveling direction, and the distance to each object. Two 3D distance image sensors 14 and 15 as distance measuring means are provided. As shown in FIG. 2, the CCD camera 13 and the 3D distance image sensors 14 and 15 are attached to a gantry 16 having three degrees of freedom, and are arranged in front of the robot body 11 (traveling direction side). The base unit 17 that supports the CCD camera 13 and the 3D distance image sensors 14 and 15 rotates about respective rotation axes 18 to 20 that are orthogonal to each other, adjusts the pitch angle, roll angle, and yaw angle, and moves autonomously. The level is maintained according to the posture of the robot 10. Thereby, the visibility and controllability of the CCD camera 13 and the 3D distance image sensors 14 and 15 can be improved, and the position of the object can be accurately detected. As the photographing means, the CCD camera 13 for photographing an object using one or both of visible light and infrared light is preferably used, but is not limited thereto. Also, as a distance measuring means, while irradiating laser light, scan (scan) up and down, left and right at a predetermined pitch, and measure the time until the irradiated laser light is reflected back to the object The 3D distance image sensors 14 and 15 that detect the distance to the object and the direction of the object are preferably used, but are not limited thereto.

なお、3D距離画像センサ14、15は、図3に示すように、測定範囲が部分的に重なるように位置をずらして配置されている。これにより、例えば、各々の3D距離画像センサ14、15の水平方向の視野角α=α’=60度の場合に、全体としてθ=100〜110度の視野角を確保して、広範囲を同時に測定することができる。自律移動ロボット10は、図1に示すように、CCDカメラ(撮影手段)13で撮影された画像と3D距離画像センサ(測距手段)14、15で測定された距離データを基に作成された距離画像との重畳画像から各物体の種別を判別する判別手段22を有している。CCDカメラ13の画像と3D距離画像センサ14、15の距離画像から重畳画像を作成するために、図4に示す透視投影法を用いた。図4において、fはCCDカメラ13の焦点距離、dはCCDカメラ13と3D距離画像センサ14(又は15)との等位平行距離、K、KはそれぞれCCDカメラ13で撮影された二次元平面画像23のピクセル幅とピクセル高さ、(o,o)は二次元平面画像23の中心、(X,Y,Z)は点Pの3次元空間座標、(u,v)は二次元平面画像23中の点Pの2次元空間座標である。判別手段22は、これらの関係を用いて、CCDカメラ13の画像と、視野を拡張した3D距離画像センサ14、15の距離画像から重畳画像処理を行って、各物体の種別を判別することができる。このとき、判別手段22は、重畳画像処理により、各物体の色及び形から各物体の種別を判別することができる。 As shown in FIG. 3, the 3D distance image sensors 14 and 15 are arranged at different positions so that the measurement ranges partially overlap. Thereby, for example, when the horizontal viewing angle α = α ′ = 60 degrees of each of the 3D distance image sensors 14 and 15, a viewing angle of θ = 100 to 110 degrees as a whole is secured, and a wide range is simultaneously obtained. Can be measured. As shown in FIG. 1, the autonomous mobile robot 10 is created based on an image photographed by a CCD camera (imaging means) 13 and distance data measured by 3D distance image sensors (ranging means) 14 and 15. A determination unit 22 is provided for determining the type of each object from the superimposed image with the distance image. In order to create a superimposed image from the image of the CCD camera 13 and the distance images of the 3D distance image sensors 14 and 15, the perspective projection method shown in FIG. 4 was used. In FIG. 4, f is the focal length of the CCD camera 13, d is the equivalent parallel distance between the CCD camera 13 and the 3D distance image sensor 14 (or 15), and K x and K y are taken by the CCD camera 13, respectively. The pixel width and pixel height of the two-dimensional plane image 23, (o x , o y ) is the center of the two-dimensional plane image 23, (X d , Y d , Z d ) are the three-dimensional spatial coordinates of the point P, (u, v) is a two-dimensional space coordinate of the point P in the two-dimensional planar image 23. Using these relationships, the determination unit 22 can perform superimposed image processing from the image of the CCD camera 13 and the distance images of the 3D distance image sensors 14 and 15 with an expanded visual field to determine the type of each object. it can. At this time, the discrimination means 22 can discriminate the type of each object from the color and shape of each object by the superimposed image processing.

図1に示すように、自律移動ロボット10はマップ作成手段25を有しており、移動領域内に存在する物体のうち、判別手段22で障害物26と判別された物体の位置を図5に示した二次元マップ27上に記録する。x(水平)方向、y(高さ)方向、z(奥行き)方向からなる障害物26の距離データをx−z平面に変換することにより、二次元マップ27が得られる。
また、自律移動ロボット10は、図1に示すように、自己位置を推定する自己位置推定手段28を有している。自己位置推定手段28は、衛星航法システムを利用して自己位置を測位する測位手段29と、慣性計測センサを利用して経路計算を行う経路計算手段30を用いて自己位置の推定を行う。測位手段29は、リアルタイムキネマティックGPSモジュールを用いて測量を行うものが好適に用いられる。一般的なGPSでは森林等の中で受信強度が弱くなって誤差が大きくなるが、それに比べて高い精度が得られる。また、経路計算手段30としては、9軸IMUセンサモジュールが好適に用いられる。慣性計測センサとして9軸センサ(3軸加速度、3軸ジャイロ、3軸コンパス)を使用しており、マイコンが実装されているので、センサデータの取得とデータの処理を一枚の基板で行うことができる。
As shown in FIG. 1, the autonomous mobile robot 10 has a map creating means 25, and among the objects existing in the moving area, the positions of the objects determined as the obstacle 26 by the determining means 22 are shown in FIG. Recorded on the two-dimensional map 27 shown. A two-dimensional map 27 is obtained by converting the distance data of the obstacle 26 composed of the x (horizontal) direction, the y (height) direction, and the z (depth) direction into an xz plane.
Moreover, the autonomous mobile robot 10 has a self-position estimating means 28 for estimating the self-position as shown in FIG. The self-position estimating means 28 estimates the self-position using a positioning means 29 for positioning the self-position using a satellite navigation system and a route calculating means 30 for performing a route calculation using an inertial measurement sensor. As the positioning means 29, one that performs surveying using a real-time kinematic GPS module is preferably used. In general GPS, the received intensity is weakened in a forest or the like and the error is increased, but higher accuracy can be obtained. As the route calculation means 30, a 9-axis IMU sensor module is preferably used. Since a 9-axis sensor (3-axis acceleration, 3-axis gyro, 3-axis compass) is used as the inertial measurement sensor and a microcomputer is mounted, sensor data acquisition and data processing must be performed on a single board. Can do.

なお、自律移動ロボット10は、自律移動ロボット10全体の動作を制御する制御部32を有している。制御部32には、CPU、ROM、RAM、通信用のインタフェイス等を有する演算処理装置が用いられ、例えばROMには、自律移動ロボット10を自律移動させるための制御プログラムが記録されている。そして、制御部32のCPUがこの制御プログラムを実行することにより、制御部32を上記の判別手段22、マップ作成手段25、自己位置推定手段28として機能させることができる。自己位置推定手段28による自己位置推定方法は特に限定されるものではないが、具体的な制御プログラムとしては、例えばSLAM(Simultaneous Localization and Mapping)アルゴリズムであり、確率的手法としてモンテカルロ法(パーティクルフィルタ)を実行するものが好適に用いられる。SLAM処理は、CCDカメラ13による各物体の画像と、3D距離画像センサ14、15の距離画像に基づく各物体までの距離情報とを照合することにより算出される測定位置と、経路計算手段30によって算出された測定位置から、自己位置を推定することができる。自己位置と周囲環境とをリアルタイムに認識することができるので、高精度の自己位置推定が可能である。また、測位手段29による測位結果に基づく測定位置と、経路計算手段30によって算出された測定位置からは、モンテカルロ法により自己位置を推定することができる。 The autonomous mobile robot 10 has a control unit 32 that controls the operation of the entire autonomous mobile robot 10. As the control unit 32, an arithmetic processing unit having a CPU, a ROM, a RAM, a communication interface, and the like is used. For example, a control program for autonomously moving the autonomous mobile robot 10 is recorded in the ROM. When the CPU of the control unit 32 executes this control program, the control unit 32 can function as the determination unit 22, the map creation unit 25, and the self-position estimation unit 28. Although the self-position estimation method by the self-position estimation means 28 is not particularly limited, a specific control program is, for example, a SLAM (Simultaneous Localization and Mapping) algorithm, and a Monte Carlo method (particle filter) as a probabilistic method. Those that execute are preferably used. The SLAM process is performed by the path calculation means 30 and the measurement position calculated by collating the image of each object by the CCD camera 13 with the distance information to each object based on the distance images of the 3D distance image sensors 14 and 15. The self-position can be estimated from the calculated measurement position. Since the self-position and the surrounding environment can be recognized in real time, high-precision self-position estimation is possible. Further, from the measurement position based on the positioning result by the positioning means 29 and the measurement position calculated by the route calculation means 30, the self position can be estimated by the Monte Carlo method.

自律移動ロボット10は、図5に示すように、進行方向に存在する障害物(立木等)26に対して、近い順に目標値を設定しながら移動を行う。このとき、進行方向の左右2箇所に目標点a、bを定め、条件に応じて目標点a、bのいずれか一方を選択する。
なお、判別手段22は、重畳画像処理により各物体が存在する割合を表す物体率と物体が存在していない割合を示す空間率を求め、各物体までの距離の変化と、物体率及び空間率の変化との関係から、各物体上を通過可能か否かを判別することもできる。これは、各物体の色及び形から各物体の種別を判別することが困難である場合に有効である。特に、物体が立木のような通過を妨げる障害物であるか、通過を妨げない雑草等の非障害物であるかを判別することにより、不要な停止、後退、迂回を防いで効率的に移動することができる。
また、農地等の移動領域において、自律移動ロボット10を苗木の周囲の下刈りや果実の収穫等に用いる場合は、管理対象物となる苗木に予めRFタグを取り付けておき、自律移動ロボット10に判別手段としてRFIDリーダーを取り付けることにより、RFIDリーダーでRFタグから電波を受信して、その電波強度により物体の中から管理対象物の位置を推定することができる。これにより、管理対象物となる苗木と周囲の草木や雑草を確実に判別し、苗木を傷付けることなく移動できると共に、苗木のモニタリング、果実の収穫、下刈り等の各種作業を確実に行うことができる。
As shown in FIG. 5, the autonomous mobile robot 10 moves while setting target values in order of proximity to an obstacle (such as a standing tree) 26 existing in the traveling direction. At this time, target points a and b are determined at two locations on the left and right in the traveling direction, and either one of the target points a or b is selected according to the conditions.
The discriminating means 22 obtains an object rate indicating the proportion of each object existing by superimposing image processing and a spatial rate indicating the proportion of the object not present, a change in distance to each object, an object rate, and a space rate. It is also possible to determine whether or not it is possible to pass over each object based on the relationship with the change in. This is effective when it is difficult to determine the type of each object from the color and shape of each object. In particular, by judging whether an object is an obstacle that prevents passage, such as standing trees, or non-obstacles such as weeds that do not prevent passage, it moves efficiently while preventing unnecessary stops, retreats, and detours. can do.
In addition, when the autonomous mobile robot 10 is used for undercutting around the seedlings or harvesting fruits in a moving area such as farmland, an RF tag is attached in advance to the seedlings to be managed, and the autonomous mobile robot 10 By attaching an RFID reader as the discriminating means, the RFID reader can receive radio waves from the RF tag, and the position of the management object can be estimated from the object based on the radio wave intensity. This makes it possible to reliably identify seedlings to be managed and surrounding vegetation and weeds, move them without damaging them, and reliably perform various operations such as seedling monitoring, fruit harvesting, and undercutting. it can.

以下、本発明の一実施の形態に係る自律移動ロボットの制御方法について説明する。
自律移動ロボット10は、事前に移動領域内に存在する障害物の位置を予め記録した上で、各種作業を行う際に、障害物を避けながら移動領域内を移動する。
まず、CCDカメラ(撮影手段)13で進行方向に存在する各物体を撮影する(第1の工程)。また、第1の工程中に各物体までの距離を3D距離画像センサ(測距手段)14、15で測定する(第2の工程)。そして、第1の工程で撮影された画像と第2の工程で測定された距離データを基に作成された距離画像から判別手段22で重畳画像処理を行って各物体の種別を判別する(第3の工程)。物体のうち第3の工程で障害物と判別された物体の位置をマップ作成手段25により二次元マップ27上に記録する(第4の工程)。自律移動ロボット10は、自己位置推定手段28で自己位置を推定し(第5の工程)、障害物を避けながら移動領域内を移動手段12で自律移動する(第6の工程)。
自律移動ロボット10は、以上の工程を繰り返しながら、ある経路上を移動することにより、その経路の周辺に存在する障害物を記録することができる。移動領域内をくまなく自律移動して作業を行うためには、移動領域内の全ての障害物を記憶し、それらの間を順次通過させる必要があるが、移動領域が広い場合には、全ての障害物を記録することができない。そこで、移動領域全体の中で二次元マップ27上に障害物の位置が記録されていない情報未取得領域が存在している際に、情報未取得領域に経路を設定し、自律移動ロボット10をその経路上で移動させて、移動領域内に存在する全ての障害物が二次元マップ27上に記録されるまで第1〜第6の工程を繰り返す必要がある。この作業にはハミルトン法が好適に用いられ、最終的に移動領域内をくまなく自律移動することが可能な経路が得られる。
Hereinafter, an autonomous mobile robot control method according to an embodiment of the present invention will be described.
The autonomous mobile robot 10 records the position of an obstacle existing in the movement area in advance, and moves in the movement area while avoiding the obstacle when performing various operations.
First, each object existing in the traveling direction is imaged by the CCD camera (imaging means) 13 (first step). Further, the distance to each object is measured by the 3D distance image sensors (ranging means) 14 and 15 during the first step (second step). Then, the type of each object is discriminated by performing superimposing image processing by the discriminating means 22 from the distance image created based on the image photographed in the first step and the distance data measured in the second step (first step). Step 3). Among the objects, the position of the object determined as an obstacle in the third step is recorded on the two-dimensional map 27 by the map creating means 25 (fourth step). The autonomous mobile robot 10 estimates its own position with the self-position estimating means 28 (fifth step), and autonomously moves within the movement area with the moving means 12 while avoiding obstacles (sixth step).
The autonomous mobile robot 10 can record obstacles around the route by moving on a route while repeating the above steps. In order to work by moving autonomously throughout the moving area, it is necessary to memorize all obstacles in the moving area and pass between them sequentially, but if the moving area is wide, all The obstacles cannot be recorded. Therefore, when there is an information unacquired area in which the position of the obstacle is not recorded on the two-dimensional map 27 in the entire moving area, a route is set in the information unacquired area, and the autonomous mobile robot 10 It is necessary to repeat the first to sixth steps until all obstacles existing in the moving area are recorded on the two-dimensional map 27 by moving on the route. The Hamilton method is preferably used for this work, and finally a route capable of autonomous movement all over the moving area is obtained.

なお、図1に示すように、自律移動ロボット10と通信を行うサーバ33を備えることにより、自律移動ロボット10の位置を捕捉及び同定して、自律移動ロボット10が移動する軌跡を可視化することができる。その結果、管理者が自律移動ロボット10の移動状況を常に監視することができ、動作不良や不具合等が生じた際に、直ちに自律移動ロボット10を停止させ、事故等の発生を未然に防ぐことが可能となる
自律移動ロボット10が実際に各種作業を行う際には、前述と同様に、CCDカメラ13及び3D距離画像センサ14、15で進行方向に存在する各物体の撮影、距離測定を行い、判別手段22で各物体の種別を判別して、自己位置推定手段28で自己位置を推定し、障害物を避けて自律移動を行いながら、各物体の種別に応じて、モニタリング、果実の収穫、下刈り、ゴミの回収等を行う。自律移動ロボット10の後方を撮影するためのCCDカメラ等の撮影手段を取り付けることにより、後退時に障害物等を避けながら安全に移動することができる。このとき、自律移動ロボット10の後方に存在する物体までの距離を測定するための3D距離画像センサ等の測距手段も取り付けて、判別手段22によって物体の種別を判別するようにしてもよい。
In addition, as shown in FIG. 1, by providing the server 33 that communicates with the autonomous mobile robot 10, it is possible to capture and identify the position of the autonomous mobile robot 10 and visualize the trajectory of the movement of the autonomous mobile robot 10. it can. As a result, the administrator can always monitor the movement status of the autonomous mobile robot 10, and immediately stop the autonomous mobile robot 10 when an operation failure or malfunction occurs, thereby preventing an accident or the like from occurring. When the autonomous mobile robot 10 capable of performing various operations actually performs the various operations, the CCD camera 13 and the 3D distance image sensors 14 and 15 capture and measure the distance of each object existing in the traveling direction. Then, the type of each object is discriminated by the discriminating means 22, the self-position estimating means 28 estimates the self-position, and autonomous movement is performed while avoiding obstacles. , Undercutting, collecting garbage, etc. By attaching a photographing means such as a CCD camera for photographing the rear of the autonomous mobile robot 10, it is possible to move safely while avoiding an obstacle or the like when retreating. At this time, distance measuring means such as a 3D distance image sensor for measuring the distance to the object existing behind the autonomous mobile robot 10 may be attached, and the type of the object may be determined by the determining means 22.

以上、本発明を、実施の形態を参照して説明してきたが、本発明は何ら上記した実施の形態に記載した構成に限定されるものではなく、特許請求の範囲に記載されている事項の範囲内で考えられるその他の実施の形態や変形例も含むものである。
自律移動ロボットには、その用途(作業内容)に応じて、様々な器具を取り付けることができる。例えば、下刈りを行うためには、ロボット本体の前方下部に回転ブレードを有する下刈り手段を取り付ければよい。このとき、回転ブレードの数や配置は適宜、選択できる。また、果実の収穫やゴミの回収等を行うためにアームの先端に把持部を備えた収穫手段や回収手段を取り付けてもよい。このとき、アームや把持部の形態は適宜、選択することができるが、伸縮可能なアームや多関節のアームを用いれば作業性に優れる。
As described above, the present invention has been described with reference to the embodiment. However, the present invention is not limited to the configuration described in the above-described embodiment, and the matters described in the scope of claims. Other embodiments and modifications conceivable within the scope are also included.
Various devices can be attached to the autonomous mobile robot according to its application (work content). For example, in order to perform the lower cutting, a lower cutting means having a rotating blade may be attached to the lower front part of the robot body. At this time, the number and arrangement of the rotating blades can be selected as appropriate. Further, a harvesting means or a collecting means provided with a gripping portion at the tip of the arm may be attached in order to harvest fruits or collect garbage. At this time, the form of the arm and the gripping part can be selected as appropriate, but if a telescopic arm or an articulated arm is used, the workability is excellent.

10:自律移動ロボット、11:ロボット本体、12:移動手段、13:CCDカメラ(撮影手段)、14、15:3D距離画像センサ(測距手段)、16:架台、17:ベース部、18〜20:回転軸、22:判別手段、23:二次元平面画像、25:マップ作成手段、26:障害物、27:二次元マップ、28:自己位置推定手段、29:測位手段、30:経路計算手段、32:制御部、33:サーバ DESCRIPTION OF SYMBOLS 10: Autonomous mobile robot, 11: Robot main body, 12: Moving means, 13: CCD camera (photographing means), 14, 15: 3D distance image sensor (ranging means), 16: Mount, 17: Base part, 18 ~ 20: rotation axis, 22: discrimination means, 23: two-dimensional plane image, 25: map creation means, 26: obstacle, 27: two-dimensional map, 28: self-position estimation means, 29: positioning means, 30: route calculation Means, 32: control unit, 33: server

Claims (10)

移動領域内を自律移動する自律移動ロボットであって、
移動手段と、進行方向に存在する1又は複数の物体をそれぞれ撮影する撮影手段と、前記各物体までの距離を測定する測距手段と、前記撮影手段で撮影された画像と前記測距手段で測定された距離データを基に作成された距離画像から重畳画像処理を行って前記各物体の種別を判別する判別手段と、前記物体のうち前記判別手段で障害物と判別された物体の位置を二次元マップ上に記録するマップ作成手段と、自己位置を推定する自己位置推定手段とを有し、前記障害物を避けながら自律移動することを特徴とする自律移動ロボット。
An autonomous mobile robot that moves autonomously within a moving area,
A moving means, an imaging means for imaging one or more objects existing in the traveling direction, a distance measuring means for measuring a distance to each object, an image photographed by the imaging means, and the distance measuring means A determination unit that performs superimposed image processing from a distance image created based on the measured distance data to determine the type of each object, and a position of the object that is determined to be an obstacle by the determination unit among the objects. An autonomous mobile robot comprising map creating means for recording on a two-dimensional map and self-position estimating means for estimating self-position, and autonomously moving while avoiding the obstacle.
請求項1記載の自律移動ロボットにおいて、前記測距手段は、2台の3D距離画像センサを備え、該2台の3D距離画像センサは、測定範囲が部分的に重なるように位置をずらして配置されていることを特徴とする自律移動ロボット。 2. The autonomous mobile robot according to claim 1, wherein the distance measuring means includes two 3D distance image sensors, and the two 3D distance image sensors are arranged so that the measurement ranges partially overlap each other. An autonomous mobile robot characterized by 請求項1又は2記載の自律移動ロボットにおいて、前記撮影手段及び前記測距手段は、3自由度を有する架台に取り付けられ、該自律移動ロボットの姿勢に応じて、水平を維持することを特徴とする自律移動ロボット。 The autonomous mobile robot according to claim 1 or 2, wherein the photographing means and the distance measuring means are attached to a gantry having three degrees of freedom, and maintain the level according to the posture of the autonomous mobile robot. Autonomous mobile robot. 請求項1〜3のいずれか1記載の自律移動ロボットにおいて、前記判別手段は、前記重畳画像処理により、前記各物体の色及び形から該各物体の種別を判別することを特徴とする自律移動ロボット。 The autonomous mobile robot according to any one of claims 1 to 3, wherein the discrimination means discriminates the type of each object from the color and shape of each object by the superimposed image processing. robot. 請求項4記載の自律移動ロボットにおいて、前記判別手段は、前記重畳画像処理により前記各物体が存在する割合を表す物体率と前記物体が存在していない割合を示す空間率を求め、前記各物体までの距離の変化と、前記物体率及び前記空間率の変化との関係から、前記各物体上を通過可能か否かを判別することを特徴とする自律移動ロボット。 The autonomous mobile robot according to claim 4, wherein the determination unit obtains an object rate indicating a ratio of the presence of each object and a spatial rate indicating a ratio of the absence of the object by the superimposed image processing. An autonomous mobile robot, wherein it is determined whether or not it is possible to pass over each object from a relationship between a change in the distance to the object and a change in the object ratio and the space ratio. 請求項1〜5のいずれか1記載の自律移動ロボットにおいて、前記判別手段は、RFIDリーダーを備え、前記移動領域内に存在する管理対象物に予め取り付けられたRFタグから電波を受信して、その電波強度により前記物体の中から前記管理対象物の位置を推定することを特徴とする自律移動ロボット。 The autonomous mobile robot according to any one of claims 1 to 5, wherein the determination unit includes an RFID reader, receives radio waves from an RF tag attached in advance to a management target existing in the movement area, An autonomous mobile robot characterized in that the position of the management object is estimated from the object based on the radio field intensity. 請求項1〜6のいずれか1記載の自律移動ロボットにおいて、前記自己位置推定手段は、衛星航法システムを利用して自己位置を測位する測位手段と、慣性計測センサを利用して経路計算を行う経路計算手段を有していることを特徴とする自律移動ロボット。 The autonomous mobile robot according to any one of claims 1 to 6, wherein the self-position estimating means performs route calculation using a positioning means for positioning the self-position using a satellite navigation system and an inertial measurement sensor. An autonomous mobile robot characterized by having a route calculation means. 移動領域内を自律移動する自律移動ロボットの制御方法であって、
撮影手段で進行方向に存在する1又は複数の物体をそれぞれ撮影する第1の工程と、
該第1の工程中に前記各物体までの距離を測距手段で測定する第2の工程と、
前記第1の工程で撮影された画像と前記第2の工程で測定された距離データを基に作成された距離画像から判別手段で重畳画像処理を行って前記各物体の種別を判別する第3の工程と、
前記物体のうち前記第3の工程で障害物と判別された物体の位置をマップ作成手段により二次元マップ上に記録する第4の工程と、
自己位置推定手段で自己位置を推定する第5の工程と、
前記障害物を避けながら前記移動領域内を移動手段で自律移動する第6の工程とを有することを特徴とする自律移動ロボットの制御方法。
A method for controlling an autonomous mobile robot that autonomously moves within a moving area,
A first step of photographing one or a plurality of objects existing in the traveling direction by the photographing means;
A second step of measuring a distance to each object during the first step by a distance measuring means;
A third type of discriminating the type of each object by performing a superimposing image process with a discriminating unit from a distance image created based on the image photographed in the first step and the distance data measured in the second step. And the process of
A fourth step of recording, on the two-dimensional map, the position of the object determined as an obstacle in the third step among the objects,
A fifth step of estimating the self position by the self position estimating means;
And a sixth step of autonomously moving within the moving area by moving means while avoiding the obstacle.
請求項8記載の自律移動ロボットの制御方法において、前記自律移動ロボットと通信を行うサーバにより、前記自律移動ロボットの位置を捕捉及び同定して、該自律移動ロボットが移動する軌跡を可視化することを特徴とする自律移動ロボットの制御方法。 9. The autonomous mobile robot control method according to claim 8, wherein a server that communicates with the autonomous mobile robot captures and identifies the position of the autonomous mobile robot, and visualizes a trajectory of the autonomous mobile robot moving. A method for controlling an autonomous mobile robot. 請求項8又は9記載の自律移動ロボットの制御方法において、前記二次元マップ上に前記障害物の位置が記録されていない情報未取得領域が存在している際に、該情報未取得領域に経路を設定し、前記自律移動ロボットを該経路上で移動させて、前記移動領域内に存在する全ての前記障害物が前記二次元マップ上に記録されるまで前記第1〜第6の工程を繰り返すことを特徴とする自律移動ロボットの制御方法。 The autonomous mobile robot control method according to claim 8 or 9, wherein when there is an information unacquired area in which the position of the obstacle is not recorded on the two-dimensional map, a route is passed to the information unacquired area. The autonomous mobile robot is moved along the route, and the first to sixth steps are repeated until all the obstacles existing in the moving area are recorded on the two-dimensional map. An autonomous mobile robot control method characterized by the above.
JP2018072389A 2018-04-04 2018-04-04 Autonomous mobile robot and its control method Active JP7112066B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018072389A JP7112066B2 (en) 2018-04-04 2018-04-04 Autonomous mobile robot and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018072389A JP7112066B2 (en) 2018-04-04 2018-04-04 Autonomous mobile robot and its control method

Publications (2)

Publication Number Publication Date
JP2019185213A true JP2019185213A (en) 2019-10-24
JP7112066B2 JP7112066B2 (en) 2022-08-03

Family

ID=68341232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018072389A Active JP7112066B2 (en) 2018-04-04 2018-04-04 Autonomous mobile robot and its control method

Country Status (1)

Country Link
JP (1) JP7112066B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113310488A (en) * 2021-04-29 2021-08-27 西安交通大学 Orchard robot navigation method based on SLAM
WO2022027611A1 (en) * 2020-08-07 2022-02-10 苏州珊口智能科技有限公司 Positioning method and map construction method for mobile robot, and mobile robot
JP7509178B2 (en) 2021-09-15 2024-07-02 Jfeスチール株式会社 AUTONOMOUS DRIVING DEVICE AND AUTONOMOUS DRIVING METHOD

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134226A (en) * 2009-12-25 2011-07-07 Ihi Aerospace Co Ltd Method and device for recognizing remote environment of mobile robot
JP2011209845A (en) * 2010-03-29 2011-10-20 Toyota Motor Corp Autonomous mobile body, self-position estimation method and map information creation system
JP2011226959A (en) * 2010-04-21 2011-11-10 Kobe Steel Ltd Position detecting method for moving body
JP2015170127A (en) * 2014-03-06 2015-09-28 トヨタ自動車株式会社 Autonomous mobile robot and control method of the same
JP2017102705A (en) * 2015-12-02 2017-06-08 株式会社リコー Autonomous mobile device and autonomous mobile device system
US20170341237A1 (en) * 2016-05-27 2017-11-30 General Electric Company Multisensory data fusion system and method for autonomous robotic operation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134226A (en) * 2009-12-25 2011-07-07 Ihi Aerospace Co Ltd Method and device for recognizing remote environment of mobile robot
JP2011209845A (en) * 2010-03-29 2011-10-20 Toyota Motor Corp Autonomous mobile body, self-position estimation method and map information creation system
JP2011226959A (en) * 2010-04-21 2011-11-10 Kobe Steel Ltd Position detecting method for moving body
JP2015170127A (en) * 2014-03-06 2015-09-28 トヨタ自動車株式会社 Autonomous mobile robot and control method of the same
JP2017102705A (en) * 2015-12-02 2017-06-08 株式会社リコー Autonomous mobile device and autonomous mobile device system
US20170341237A1 (en) * 2016-05-27 2017-11-30 General Electric Company Multisensory data fusion system and method for autonomous robotic operation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
伊藤友孝、松本和也、伴野 裕: "山林管理ロボットのための周囲環境認識", ロボティクス・メカトロニクス講演会 ’11 講演論文集, JPN7022000292, 26 May 2011 (2011-05-26), JP, pages 1471 - 1474, ISSN: 0004688964 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022027611A1 (en) * 2020-08-07 2022-02-10 苏州珊口智能科技有限公司 Positioning method and map construction method for mobile robot, and mobile robot
CN113310488A (en) * 2021-04-29 2021-08-27 西安交通大学 Orchard robot navigation method based on SLAM
JP7509178B2 (en) 2021-09-15 2024-07-02 Jfeスチール株式会社 AUTONOMOUS DRIVING DEVICE AND AUTONOMOUS DRIVING METHOD

Also Published As

Publication number Publication date
JP7112066B2 (en) 2022-08-03

Similar Documents

Publication Publication Date Title
US9481982B1 (en) Method and control system for surveying and mapping a terrain while operating a bulldozer
US9603300B2 (en) Autonomous gardening vehicle with camera
AU2011232739B2 (en) System and method for governing a speed of an autonomous vehicle
Kanade et al. Real-time and 3D vision for autonomous small and micro air vehicles
Inoue et al. The development of autonomous navigation and obstacle avoidance for a robotic mower using machine vision technique
Dos Santos et al. Towards a reliable robot for steep slope vineyards monitoring
Subramanian et al. Sensor fusion using fuzzy logic enhanced kalman filter for autonomous vehicle guidance in citrus groves
BRPI1106300A2 (en) METHOD AND SYSTEM FOR MAINTAINING VISION LINE COMMUNICATION AMONG A PLURALITY OF MACHINES AND, COMPUTER PROGRAM PRODUCT
Post et al. Autonomous navigation with ROS for a mobile robot in agricultural fields
US20220030759A1 (en) Method, system and robot for autonomous navigation thereof between two rows of plants
JP7112066B2 (en) Autonomous mobile robot and its control method
EP3761136B1 (en) Control device, mobile body, and program
Rossmann et al. Realization of a highly accurate mobile robot system for multi purpose precision forestry applications
Batavia et al. Autonomous coverage operations in semi-structured outdoor environments
Post et al. Autonomous navigation with open software platform for field robots
WO2023055383A1 (en) Vehicle row follow system
EP4066076B1 (en) Autonomous machine navigation in various lighting environments
US20230094371A1 (en) Vehicle row follow system
KR102384333B1 (en) Apparatus for Terrain flight including lidar sensor
US20220151144A1 (en) Autonomous machine navigation in lowlight conditions
Inoue et al. Autonomous Navigation and Obstacle Avoidance in an Orchard Using Machine Vision Techniques for a Robotic Mower
Lee et al. Design of Autonomous Driving Algorithms for Fruit harvesting in orchards
Mark et al. Autonomous Navigation with Open Software Platform for Field Robots
Rovira-Más et al. Agricultural 3d maps with stereovision
CA3160530A1 (en) Autonomous machine navigation in various lighting environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220714

R150 Certificate of patent or registration of utility model

Ref document number: 7112066

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150