JP6192506B2 - Moving body - Google Patents

Moving body Download PDF

Info

Publication number
JP6192506B2
JP6192506B2 JP2013239481A JP2013239481A JP6192506B2 JP 6192506 B2 JP6192506 B2 JP 6192506B2 JP 2013239481 A JP2013239481 A JP 2013239481A JP 2013239481 A JP2013239481 A JP 2013239481A JP 6192506 B2 JP6192506 B2 JP 6192506B2
Authority
JP
Japan
Prior art keywords
search range
search
orientation
range
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013239481A
Other languages
Japanese (ja)
Other versions
JP2015099518A (en
Inventor
高斉 松本
高斉 松本
一登 白根
一登 白根
修一 槙
修一 槙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industrial Equipment Systems Co Ltd
Original Assignee
Hitachi Industrial Equipment Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industrial Equipment Systems Co Ltd filed Critical Hitachi Industrial Equipment Systems Co Ltd
Priority to JP2013239481A priority Critical patent/JP6192506B2/en
Publication of JP2015099518A publication Critical patent/JP2015099518A/en
Application granted granted Critical
Publication of JP6192506B2 publication Critical patent/JP6192506B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は移動体に関する。より具体的には、当該移動体の位置および姿勢を推定する機能を持つ移動体に関する。   The present invention relates to a moving body. More specifically, the present invention relates to a moving body having a function of estimating the position and posture of the moving body.

移動体に関する背景技術として、特許文献1には、予め地図情報や障害物情報を認識させておき、タッチパネル上にて目的地等設定することで自律移動が可能な自律移動装置ついての開示がある。   As a background art relating to a moving object, Patent Document 1 discloses an autonomous mobile device that can recognize autonomously map information and obstacle information in advance and set a destination or the like on a touch panel. .

特開2007-316799JP2007-316799

無人搬送車等、所定の経路に沿って走行する移動体が、自身の位置を認識できない状態に陥って脱線した場合、あるいは電源がオフで位置を認識できない状態のまま別の場所に運ばれた場合等においては、走行可能な状態に復帰するために、初期位置および初期姿勢の推定を行う必要がある。この推定は、ユーザによって入力された移動体のおよその位置(位置・姿勢の探索の基準の位置)を含む範囲を探索範囲として行うこととなる。ここで、例えば工場で似たような光景が多数ある環境や、またはユーザが不慣れな環境である等の理由により、ユーザが適切に移動体のおよその位置を入力できない場合がありえる。このような場合に、より短時間で走行可能な状態に復帰するための技術については、特許文献1には、何ら記載がない。   When a moving body that travels along a predetermined route, such as an automated guided vehicle, derails due to its position being unrecognizable, or has been moved to another location with its power turned off and unrecognizable. In some cases, it is necessary to estimate an initial position and an initial posture in order to return to a travelable state. This estimation is performed using a range including the approximate position of the moving body (reference position for position / posture search) input by the user as a search range. Here, for example, the user may not be able to input the approximate position of the moving object appropriately due to an environment where there are many similar scenes in the factory or an environment where the user is unfamiliar. In such a case, Patent Document 1 has no description of a technique for returning to a state in which the vehicle can travel in a shorter time.

本願発明による課題を解決する手段のうち代表的なものを例示すれば、移動体であって、移動体と環境中の物体との距離および移動体から環境中の物体への方向を測定するセンサ部と、センサ部が測定したデータを元に得られた環境中の物体の幾何形状データと環境中の物体の地図データのマッチングを取るによって移動体の位置および姿勢を推定する位置姿勢推定部と、入力された位置を含む範囲であって位置姿勢推定部がマッチングを取る際に移動体の位置および姿勢を推定する範囲である探索範囲を表示する表示部と、を有し、表示部が、マッチングが失敗した際に、探索に失敗した探索範囲を表示することを特徴とする。   A typical example of the means for solving the problems according to the present invention is exemplified by a sensor that measures a distance between a moving object and an object in the environment and a direction from the moving object to the object in the environment. A position and orientation estimation unit that estimates the position and orientation of the moving object by matching the geometric shape data of the object in the environment obtained based on the data measured by the sensor unit and the map data of the object in the environment A display unit that displays a search range that is a range that includes the input position and that estimates the position and orientation of the moving object when the position and orientation estimation unit performs matching, and the display unit includes: When matching fails, a search range in which the search has failed is displayed.

ユーザが、過去の探索範囲の履歴を確認しながら基準位置を指定できるようになるため、基準位置の指定を誤る可能性が減り、ひいては迅速に走行可能な状態に復帰できるようになる。   Since the user can specify the reference position while checking the history of the past search range, the possibility of erroneous specification of the reference position is reduced, and as a result, the vehicle can be returned to a state in which the vehicle can run quickly.

実施例1に係る移動体の構成を示す模式図である。FIG. 3 is a schematic diagram illustrating a configuration of a moving object according to the first embodiment. 実施例1に係る移動体の動作を示すフローチャートである。3 is a flowchart illustrating the operation of the moving object according to the first embodiment. 実施例1に係る移動体が配置される環境を示す模式図である。It is a schematic diagram which shows the environment where the mobile body which concerns on Example 1 is arrange | positioned. 実施例1に係る移動体による初期位置および初期姿勢の推定が成功と判断される例を示す模式図である。FIG. 6 is a schematic diagram illustrating an example in which the initial position and initial posture are determined to be successful by the moving body according to the first embodiment. 実施例1に係る移動体による初期位置および初期姿勢の推定が失敗と判断される例を示す模式図である。FIG. 5 is a schematic diagram illustrating an example in which the estimation of the initial position and the initial posture by the moving body according to the first embodiment is determined to have failed. 実施例1に係る移動体による初期位置および初期姿勢の推定が失敗と判断された後に成功と判断される例を示す模式図である。FIG. 6 is a schematic diagram illustrating an example in which the initial position and initial posture estimation by the moving body according to the first embodiment is determined to be successful after it is determined to be a failure. 実施例2に係る移動体の表示部を示す模式図である。6 is a schematic diagram illustrating a display unit of a moving body according to Embodiment 2. FIG. 実施例3に係る移動体の表示部を示す模式図である。FIG. 10 is a schematic diagram illustrating a display unit of a moving object according to a third embodiment. 実施例4に係る移動体の構成を示す模式図である。FIG. 10 is a schematic diagram illustrating a configuration of a moving object according to a fourth embodiment. 実施例4に係る移動体の、探索範囲設定の動作を示すフローチャートである。10 is a flowchart illustrating an operation of setting a search range of a moving object according to the fourth embodiment. 実施例4に係る移動体の表示部を示す模式図である。FIG. 10 is a schematic diagram illustrating a display unit of a moving object according to a fourth embodiment.

移動体の1つの例として、以下では車輪による移動機構を備えるロボットにおける発明の実施について、図1で述べる。ロボット0101は、コントローラ部0102、移動機構部0103、距離センサ部0104、距離センサ制御部0105、位置姿勢推定部0106、経路計画部0107、移動機構制御部0108、地図データ0109、経路データ0110、表示部0111、探索範囲履歴データ0112、入力表示制御部0113から構成される。また、ここでは図示していないが、例えば筐体、電源・配線等ハードウェアやOSや各種ファームウェア等基本的なソフトウェアのように各部が連携し、動作するために必要なものは備わっているものとする。   As an example of the moving body, an embodiment of the invention in a robot having a moving mechanism using wheels will be described below with reference to FIG. The robot 0101 includes a controller unit 0102, a movement mechanism unit 0103, a distance sensor unit 0104, a distance sensor control unit 0105, a position / orientation estimation unit 0106, a route planning unit 0107, a movement mechanism control unit 0108, map data 0109, route data 0110, a display. A section 0111, search range history data 0112, and an input display control section 0113. In addition, although not shown here, for example, hardware such as a case, power supply / wiring, and basic software such as OS and various types of firmware that are necessary for each unit to work together and operate And

また、ここでは、コントローラ0102内の各部についてはソフトウェア、他はハードウェアとしての実装を想定しているが、コントローラ0102内の各部についてハードウェアとして実装してもよい。また、距離センサ部0104と移動機構部0103を除く各部については、通信が可能ならば部分的に遠隔地にあってもよい。また、以上の各部をなすハードウェアやソフトウェアは、実施形態に応じた取捨選択を行ってもよい。   Here, it is assumed that each unit in the controller 0102 is implemented as software, and the others are implemented as hardware. However, each unit in the controller 0102 may be implemented as hardware. In addition, each unit other than the distance sensor unit 0104 and the moving mechanism unit 0103 may be partially in a remote place as long as communication is possible. Moreover, the hardware and software which comprise the above each part may perform selection according to embodiment.

まず、通常の自動走行時におけるロボット0101内の処理について述べる。ロボット0101は、距離センサ制御部0105により、距離センサ部0104に、環境を計測させることで、移動体と環境中の物体の距離および移動体から環境中の物体への方向からなる距離データを得る。ここでは、距離センサ部0104として、レーザ距離センサを用いるものとする。このレーザ距離センサは、レーザを照射してから、照射したレーザが環境中の物体により反射してセンサに返ってくるまでの時間を計測することで、センサから物体までの距離を計測するレーザ照射部を備えており、このレーザ照射部を一定の回転角毎に回転させながら計測することで、回転角度の範囲内にある物体までの距離の計測(以下、スキャン)が可能であるとする。今、このスキャンが平面内で行われるとすると、スキャンによりレーザがなす平面(以下、スキャン面)上におけるセンサから物体のまでの距離と方向が得られることとなる。このときに得られる各方向におけるセンサと物体間の距離のデータとレーザを照射した方向データを組としたデータを、ここでは単に距離データと呼ぶものとする。   First, processing in the robot 0101 during normal automatic traveling will be described. The robot 0101 causes the distance sensor control unit 0105 to cause the distance sensor unit 0104 to measure the environment, thereby obtaining distance data including the distance between the moving object and the object in the environment and the direction from the moving object to the object in the environment. . Here, a laser distance sensor is used as the distance sensor unit 0104. This laser distance sensor measures the distance from the sensor to the object by measuring the time from when the laser is irradiated until the irradiated laser is reflected by the object in the environment and returns to the sensor. It is assumed that a distance to an object within the range of the rotation angle (hereinafter referred to as scanning) can be measured by measuring the laser irradiation unit while rotating the laser irradiation unit at a certain rotation angle. If this scan is performed in a plane, the distance and direction from the sensor to the object on the plane (hereinafter referred to as the scan plane) formed by the laser can be obtained by the scan. The data obtained by combining the distance data between the sensor and the object in each direction obtained at this time and the direction data irradiated with the laser are simply referred to as distance data.

この距離データは、距離と方向のデータを組として記録されているため、センサを基準とした位置のデータに変換することができる。このようにして距離データを位置のデータに変換したものをここでは幾何形状データと呼ぶものとする。ここでは、レーザ距離センサのスキャン面が床面に平行となるようにロボットに取り付けられており、レーザ距離センサのスキャン面の高さでの幾何形状データが得られるものとする。   Since this distance data is recorded as a set of distance and direction data, it can be converted into position data based on the sensor. The data obtained by converting the distance data into the position data in this way is referred to herein as geometric shape data. Here, it is assumed that the scanning surface of the laser distance sensor is attached to the robot so as to be parallel to the floor surface, and geometric shape data at the height of the scanning surface of the laser distance sensor can be obtained.

得られた幾何形状データは位置姿勢推定部0106に送られる。位置姿勢推定部0106には、スキャン面の高さでの環境の幾何形状を画像として記録した地図データ0109が予め読み込まれている。この地図データ0109の画素には、物体の有無が記録されており、物体が存在することが記録された画素(以下、物体存在画素)に対して、画像状に表わされた幾何形状データ内の物体存在画素が最も重なり合うときの地図データ上での幾何形状データの位置・姿勢を探索する処理(以下、マッチング)が行われる。これにより、幾何形状データと地図データ0109が最も重なりあうときの地図データ0109の座標系での幾何形状データの位置・姿勢が求まる。これは、直接的には距離センサ部0104のレーザ照射部の位置・姿勢に相当するが、ロボットの位置・姿勢を表す際にはロボットの筐体のどこを基準としてもよいため、ここでは、得られた距離センサ部0104の位置・姿勢をもってロボット0101の位置・姿勢とする。   The obtained geometric shape data is sent to the position / orientation estimation unit 0106. In the position / orientation estimation unit 0106, map data 0109 in which the geometric shape of the environment at the height of the scan plane is recorded as an image is read in advance. In the map data 0109, the presence or absence of an object is recorded, and the pixel in which the presence of an object is recorded (hereinafter referred to as an object existence pixel) is included in the geometric shape data represented in an image form. A process (hereinafter referred to as matching) for searching the position / orientation of the geometric shape data on the map data when the object existing pixels overlap most is performed. As a result, the position and orientation of the geometric shape data in the coordinate system of the map data 0109 when the geometric shape data and the map data 0109 are most overlapped are obtained. This directly corresponds to the position / orientation of the laser irradiation unit of the distance sensor unit 0104, but when representing the position / orientation of the robot, any part of the robot housing may be used as a reference. The obtained position / posture of the distance sensor unit 0104 is taken as the position / posture of the robot 0101.

続いて、経路計画部0107に処理が進み、予め設定された経路データ0110と位置姿勢推定部0106で得られたロボットの現在の位置・姿勢より、自動走行する際の目標位置・姿勢の算出が行われる。   Subsequently, the process proceeds to the route planning unit 0107, and the target position / orientation for automatic traveling is calculated from the route data 0110 set in advance and the current position / orientation of the robot obtained by the position / orientation estimating unit 0106. Done.

続いて、移動機構制御部0108では、算出された目標位置・姿勢とロボット0101の現在の位置・姿勢とのずれを小さくするように移動機構部0103の制御、すなわち、車輪の回転速度やステアリングの切れ角などが求められ、さらにモータ等への指示が行われる。以上により、ロボットの経路への追従、ひいては目的地までの自動走行が実現される。   Subsequently, the moving mechanism control unit 0108 controls the moving mechanism unit 0103 so as to reduce the deviation between the calculated target position / posture and the current position / posture of the robot 0101, that is, the rotational speed of the wheel and the steering. A cutting angle or the like is obtained, and an instruction is given to the motor or the like. As described above, tracking of the robot's route and thus automatic traveling to the destination are realized.

このロボットが、メンテナンス等で電源がオフにされた状態のまま移動され、別の場所で電源をオンとされた場合、あるいは偶発的に生じた通信のトラブル等で位置姿勢推定が行えないままに一定距離を走行したところで停止した場合などのように、自身の位置・姿勢を把握していないロボットを走行すべき経路に復帰させる場合を考える。   If this robot is moved with its power turned off for maintenance, etc., and turned on at another location, or it is unable to perform position and orientation estimation due to a communication trouble, etc. Consider a case in which a robot that does not know its own position / orientation is returned to the route to be traveled, such as when it stops after traveling a certain distance.

このような場合、ロボットは初期位置および初期姿勢の推定(初期位置姿勢推定)を行う必要がある。これは、ロボットの動作開始時に行う位置および姿勢の推定を指す。   In such a case, the robot needs to estimate the initial position and initial posture (initial position and posture estimation). This refers to the estimation of the position and posture performed at the start of robot operation.

この処理では、まず、入力表示制御部0113により、表示部0111に地図が表示される。ここでの表示部0111としてはタッチパネルを想定するが、ディスプレイとマウスを組み合わせる等他の表示・操作入力装置を用いてもよい。このタッチパネル上に表示された環境の地図において、ユーザがロボットのおよその位置を画面へのタッチ等によって指定すると、指定された位置を含むマッチングの探索範囲が設定・表示される。続いて、設定された探索範囲に移動体が位置すると仮定し、任意の姿勢を取っているとした際の幾何形状データと地図データとのマッチングにより初期位置および初期姿勢の推定が行われる。   In this process, first, the input display control unit 0113 displays a map on the display unit 0111. As the display unit 0111 here, a touch panel is assumed, but other display / operation input devices such as a combination of a display and a mouse may be used. In the map of the environment displayed on the touch panel, when the user designates the approximate position of the robot by touching the screen or the like, a matching search range including the designated position is set and displayed. Subsequently, assuming that the moving body is located in the set search range, the initial position and the initial posture are estimated by matching the geometric shape data and the map data when assuming an arbitrary posture.

この初期位置および初期姿勢の推定の結果の成否については、マッチングにおける幾何形状データと地図とが重なる割合によって行われ、成功と判断された場合は、前述の自動走行において定期的に行われる位置姿勢推定(以下、通常位置姿勢推定)に進むこととなる。   The success or failure of the result of the estimation of the initial position and the initial posture is performed based on the ratio of the geometric shape data in the matching and the map, and if it is determined to be successful, the position and posture periodically performed in the automatic driving described above. The process proceeds to estimation (hereinafter, normal position / orientation estimation).

一方、失敗したと判断された場合、再度、探索範囲を指定した上で初期位置および初期姿勢の推定をやりなおすこととなる。ここで、本実施例に係る移動体は、入力表示制御部0113により、探索に失敗した探索範囲(以下、探索範囲履歴)が表示された状態で探索範囲を指定することを特徴とする。これにより、初期位置および初期姿勢の推定が失敗する探索範囲を避けながら探索範囲を設定することが可能となる。その後、あらためて初期位置および初期姿勢の推定を行い、成功した場合は、通常位置姿勢推定に処理が進む。以上により、ロボットが環境中における自身の位置・姿勢を把握した状態になり、自動走行が可能となる。なお、成功したと判断された際の表示態様については、本実施例に係る発明は、特に限定しない。すなわち、本実施例に係る移動体は、少なくとも失敗したと判断された際に上記表示を行っていれば良く、成功した際に探索範囲を表示する移動体も、表示しない移動体も、その技術的思想の範囲に含むものである。   On the other hand, if it is determined that it has failed, the initial position and the initial posture are estimated again after specifying the search range again. Here, the moving body according to the present embodiment is characterized in that the search range is designated by the input display control unit 0113 in a state where the search range in which the search has failed (hereinafter referred to as search range history) is displayed. As a result, the search range can be set while avoiding the search range in which the estimation of the initial position and the initial posture fails. Thereafter, the initial position and the initial posture are estimated again, and if successful, the process proceeds to normal position and posture estimation. As described above, the robot is in a state of grasping its own position / posture in the environment, and automatic traveling is possible. It should be noted that the invention according to the present embodiment is not particularly limited as to the display mode when it is determined to be successful. That is, the mobile object according to the present embodiment only needs to display the above when it is determined that the mobile device has failed, and the mobile object that displays the search range when it succeeds and the mobile object that does not display the technology It is included in the scope of philosophy.

続いて、具体的なシチュエーションを設定し、その状況でのロボット0101の動作について、図2のフローチャートを用いて説明する。具体的なシチュエーションとしては、図3に示されるような環境において、図中の位置にてロボットを起動して自動走行させることを想定する。   Next, a specific situation is set, and the operation of the robot 0101 in that situation will be described with reference to the flowchart of FIG. As a specific situation, it is assumed that the robot is automatically run at the position shown in the drawing in the environment shown in FIG.

まず、コントローラ0102が起動されると(0201)、図1の各部の初期化として、距離センサや移動機構等ハードウェアのリセット、コントローラ内のOSやロボット用ソフトウェアの起動などが行われる(0202)。   First, when the controller 0102 is activated (0201), as initialization of each unit in FIG. 1, resetting of hardware such as a distance sensor and a moving mechanism, activation of an OS and robot software in the controller, and the like are performed (0202). .

続いて、位置姿勢推定部0106の処理として、地図データ0109が読み込まれる(0203)。なお、ここでの地図データ0109は画像データとなっており、各画素の位置が座標に対応し、各画素の画素値に環境中の物体の存在の有無が記録されているものとする。   Subsequently, as processing of the position / orientation estimation unit 0106, map data 0109 is read (0203). Here, the map data 0109 is image data, the position of each pixel corresponds to the coordinate, and the presence or absence of an object in the environment is recorded in the pixel value of each pixel.

続いて、初期位置および初期姿勢の推定が完了しているかの確認が行われ(0204)、完了していない場合は探索範囲設定処理(0210)に移り、表示部0111に相当するタッチパネルに、地図データが表示される(0217)。今、図3において、左下がりの斜線による領域0301が障害物の存在領域を表わすとき、障害物の存在領域の外縁が図4の0401で表わされる物体存在画素としてタッチパネルに表示される。また、この表示に関する処理0217においては、過去の探索範囲が履歴として残っている場合はそれも表示されるが、この例における、この時点においては過去の探索範囲はまだ表示されていないものとする。なお、座標系0302は、位置姿勢推定を行った際に得られる位置・姿勢の基準となる座標系の取り方を便宜上書き記しているが図3のように表示されてもされなくてもよい。   Subsequently, it is confirmed whether the estimation of the initial position and the initial posture is completed (0204). If the estimation is not completed, the process proceeds to the search range setting process (0210), and a map corresponding to the display unit 0111 is displayed on the touch panel. Data is displayed (0217). Now, in FIG. 3, when an area 0301 with a slanting line on the left represents an obstacle existing area, the outer edge of the obstacle existing area is displayed on the touch panel as an object presence pixel represented by 0401 in FIG. In the process 0217 regarding this display, if the past search range remains as a history, it is also displayed, but in this example, the past search range is not yet displayed at this time. . Note that the coordinate system 0302 describes how to take a coordinate system that is a reference for the position and orientation obtained when the position and orientation are estimated, but may or may not be displayed as shown in FIG.

ユーザがこの地図0401を確認し、画面へのタッチにより、ロボットのおよその位置0406を指定すると、位置0406を中心とする矩形による探索範囲0407が設けられ、タッチパネルに表示されると共に探索範囲の位置・形状は探索範囲履歴データ0112として記録される(0218)。   When the user confirms this map 0401 and designates the approximate position 0406 of the robot by touching the screen, a search range 0407 by a rectangle centering on the position 0406 is provided and displayed on the touch panel and the position of the search range The shape is recorded as search range history data 0112 (0218).

探索範囲設定処理(0210)に続いて、レーザ距離センサによる計測が行われる。今、レーザ距離センサ0306を備えるロボット0305が位置0307に配置されているとすると、図3のスキャン範囲0304に相当する環境の幾何形状データ0303が得られる(0211)。なお、スキャン範囲0304のうち、太い点線で表わされる部分が、障害物にレーザが反射して、幾何形状データ0303として得られる部分となる。   Subsequent to the search range setting process (0210), measurement by a laser distance sensor is performed. Assuming that the robot 0305 including the laser distance sensor 0306 is disposed at the position 0307, the geometric shape data 0303 of the environment corresponding to the scan range 0304 in FIG. 3 is obtained (0211). In the scan range 0304, a portion represented by a thick dotted line is a portion obtained as the geometric shape data 0303 when the laser beam is reflected by the obstacle.

続いて、幾何形状データと地図データを用いた初期位置および初期姿勢の推定が行われる(0212)。位置および姿勢の推定は前述の通り、位置姿勢推定部0106にて、幾何形状データと地図データのマッチングにもとづき行われる。   Subsequently, an initial position and an initial posture are estimated using the geometric shape data and the map data (0212). As described above, the position / orientation estimation is performed by the position / orientation estimation unit 0106 based on matching between geometric shape data and map data.

今、地図データ0401に対して、ロボット0305が図3の位置・姿勢でスキャンすることで得られた幾何形状データ0402のマッチングを行い、ロボット0305の位置・姿勢を推定する場合を考える。   Consider a case where the map data 0401 is matched with the geometric shape data 0402 obtained by the robot 0305 scanning with the position / posture of FIG. 3 to estimate the position / posture of the robot 0305.

マッチングでは、ユーザの指定にもとづいて設けられた探索範囲0407において、幾何形状データ0402がとりうる位置・姿勢で幾何形状データ0402と地図データ0401とが重なる割合を評価し、重なる割合が最大となるときの位置・姿勢を求める。   In the matching, in the search range 0407 provided based on the user's specification, the ratio at which the geometric shape data 0402 and the map data 0401 overlap with each other in the position / posture that the geometric shape data 0402 can take is evaluated, and the overlapping ratio becomes the maximum. Find the position and posture of the moment.

具体的には、例えば、図4の位置0405で、かつ位置0405から伸びる矢印の姿勢において、幾何形状データ0402を地図データ0401に重ね合わせたとすると、図4のような重なり方となる。   Specifically, for example, when the geometric shape data 0402 is superimposed on the map data 0401 at the position 0405 in FIG. 4 and the posture of the arrow extending from the position 0405, the overlapping method is as shown in FIG.

このとき、例えば0403の範囲に着目すると、地図データ0401は、物体存在画素0409と物体が存在しないことを示す画素0411からなる画像で表されており、また、この画像に対して幾何形状データ0402をなす物体存在画素0410で表される。このとき、幾何形状データ0402をなす物体存在画素0410は、0408で地図データ0401の物体存在画素0409と重なり合っており、この場合、この画素はマッチしたものとみなされる。このようにマッチする物体存在画素の数をカウントしておき、幾何形状データをなす物体存在画素の総数に対するマッチした物体存在画素の数、すなわち地図データにマッチした幾何形状データの割合が最大となるときの幾何形状データの位置・姿勢を探索範囲内にて求める。   At this time, for example, when focusing on the range of 0403, the map data 0401 is represented by an image made up of an object presence pixel 0409 and a pixel 0411 indicating that no object exists. It is represented by an object existence pixel 0410 that forms At this time, the object existence pixel 0410 forming the geometric shape data 0402 overlaps with the object existence pixel 0409 of the map data 0401 at 0408. In this case, this pixel is regarded as a match. The number of matching object existence pixels is counted in this way, and the number of matching object existence pixels with respect to the total number of object existence pixels constituting the geometric shape data, that is, the ratio of the geometric shape data matching the map data is maximized. The position / posture of the geometric data at the time is obtained within the search range.

この図4においては、幾何形状データ0402が、位置0404にて、かつ、この位置0404から伸びる矢印の姿勢をとるときに地図データをなす物体存在画素0401と重なる割合(以下、評価値)が最大となり、マッチングの解、つまりはロボット0305の位置・姿勢が求められることとなる。   In FIG. 4, the ratio (hereinafter referred to as an evaluation value) that the geometric shape data 0402 overlaps with the object existence pixel 0401 forming the map data at the position 0404 and the posture of the arrow extending from the position 0404 is maximum. Thus, a matching solution, that is, the position / posture of the robot 0305 is obtained.

評価値が閾値より大きい場合は、初期位置および初期姿勢の推定は成功と判断される。これに対し、閾値より小さい場合は失敗と判断され、探索範囲設定0210に戻ることなる(0214)。   When the evaluation value is larger than the threshold value, it is determined that the initial position and the initial posture are successfully estimated. On the other hand, if it is smaller than the threshold value, it is determined as failure and the process returns to the search range setting 0210 (0214).

前述の例では、ユーザがロボットのおよその位置として、位置0406を指定しており、これにより設けられた探索範囲0407に解となる位置0404が含まれていたため、評価値は大きくなり、初期位置および初期姿勢の推定は成功と判断される。これに対して、ユーザが、ロボットのおよその位置として、図5の位置0501を指定した場合を考える。この場合、位置0501を基準に設けられる探索範囲0503に前述の解である位置0404が含まれていないため、幾何形状データは地図データに対して重なりあわず、例えば図5の0502のように重ならない状態での初期位置および初期姿勢の推定結果が得られることとなり、評価値は小さくなる。このとき、処理0210に戻ることになり(0214)、探索範囲設定を再度行うこととなる。ここで、本実施例に係る発明は、図6に示すように、再度の処理0210を行う際に、前回の探索範囲0503を表示部0111に表示することを特徴とする。これにより、ユーザが位置0501を基準として設けられた探索範囲0503に解がなかった点を踏まえ、表示されている探索範囲0503より離れた位置0505を指定することが容易となる。以上を踏まえ、再度の処理0210では探索範囲0504が設けられたとする。   In the above-described example, the user designates the position 0406 as the approximate position of the robot, and the search range 0407 provided thereby includes the position 0404 to be a solution. Therefore, the evaluation value increases, and the initial position And the estimation of the initial posture is judged to be successful. On the other hand, consider a case where the user designates the position 0501 in FIG. 5 as the approximate position of the robot. In this case, the search range 0503 provided on the basis of the position 0501 does not include the position 0404 which is the above-described solution. Therefore, the geometric shape data does not overlap with the map data, and is overlapped as 0502 in FIG. The estimation result of the initial position and the initial posture in a state where it is not obtained is obtained, and the evaluation value becomes small. At this time, the process returns to the process 0210 (0214), and the search range is set again. Here, the invention according to the present embodiment is characterized in that the previous search range 0503 is displayed on the display unit 0111 when the process 0210 is performed again, as shown in FIG. This makes it easy for the user to specify a position 0505 that is distant from the displayed search range 0503 based on the fact that there is no solution in the search range 0503 provided with the position 0501 as a reference. Based on the above, it is assumed that the search range 0504 is provided in the second processing 0210.

この場合は、前述の解である位置0404(0505)が探索範囲内となるため、前述のマッチングにより、評価値が高い解、すなわちロボットの位置・姿勢の推定結果(図6の0601)が得られることとなる。このとき、幾何形状データ0602は地図データ0603とマッチングした状態で表示され、正しく位置姿勢推定が行われていることが確認できる。なお、図6では幾何形状データ0602と地図データ0603を完全に重ね合わせると判読しづらくなるため、説明用としてややずらして表記している。   In this case, since the position 0404 (0505), which is the above-mentioned solution, is within the search range, the above-described matching results in a solution with a high evaluation value, that is, an estimation result (0601 in FIG. 6) of the robot position / posture. Will be. At this time, the geometric shape data 0602 is displayed in a state matched with the map data 0603, and it can be confirmed that the position / orientation is correctly estimated. In FIG. 6, since it becomes difficult to read the geometric shape data 0602 and the map data 0603 when they are completely overlapped, they are shown slightly shifted for explanation.

このように、本実施例に係る移動体は、移動体と環境中の物体との距離および移動体から環境中の物体への方向を測定するセンサ部(0104)と、センサ部が測定したデータを元に得られた環境中の物体の幾何形状データと環境中の物体の地図データのマッチングを取ることによって移動体の位置および姿勢を推定する位置姿勢推定部(0106)と、入力された位置を含む範囲であって位置姿勢推定部がマッチングを取る際に移動体の位置および姿勢を推定する範囲である探索範囲を表示する表示部(0111)と、を有し、表示部は、マッチングが失敗した際に、探索に失敗した前記探索範囲を表示することを特徴とする。   As described above, the moving body according to the present embodiment includes a sensor unit (0104) that measures the distance between the moving body and an object in the environment and the direction from the moving body to the object in the environment, and data measured by the sensor unit. A position and orientation estimation unit (0106) for estimating the position and orientation of the moving object by matching the geometric shape data of the object in the environment obtained based on the map and the map data of the object in the environment, and the input position And a display unit (0111) for displaying a search range that is a range for estimating the position and orientation of the moving object when the position and orientation estimation unit performs matching. When the search fails, the search range where the search has failed is displayed.

このような特徴によって、本実施例に係る移動体は、初期位置および初期姿勢の推定に失敗する探索範囲を誤って再指定してしまうことが減らせることとなり、ひいてはロボットを迅速に自動走行可能な状態にできることとなる。   With such a feature, the moving body according to the present embodiment can reduce erroneously specifying a search range that fails to estimate the initial position and initial posture, and thus the robot can automatically run quickly. It will be possible to be in a state.

なお、位置姿勢推定プログラム0214にて位置・姿勢を算出する処理としては前述のようなマッチングの処理をここでは想定しているが、同様の効果が得られるならば他の方法であってもよい。例えばICP(Iterative Closest Point)等を用いてもよい。また、探索範囲の基準として位置のみを指定しているが、位置と姿勢、探索範囲形状を指定してもよい。また、設定した矩形をタッチしたままドラッグすることで、矩形の位置・姿勢、つまりは探索範囲の位置・姿勢が調整できるようになっていてもよい。   Note that the above-described matching process is assumed here as the process for calculating the position / orientation by the position / orientation estimation program 0214, but other methods may be used as long as the same effect can be obtained. . For example, ICP (Iterative Closest Point) may be used. Further, although only the position is specified as the reference of the search range, the position and orientation, and the search range shape may be specified. Alternatively, the position and orientation of the rectangle, that is, the position and orientation of the search range may be adjusted by dragging while keeping touching the set rectangle.

以上のフローにより、初期位置および初期姿勢の推定が成功した場合は、レーザ距離センサによる幾何形状データの取得が行われ(0205)、初期位置および初期姿勢の推定と同等のマッチングにもとづく通常位置姿勢推定が行われる(0206)。これは前述の初期位置および初期姿勢の推定と同じ原理にもとづく位置姿勢推定であるが、探索範囲は直前の推定位置・姿勢をもとに自動的に設定される点で異なっている。   If the initial position and the initial posture are successfully estimated by the above flow, the geometric shape data is acquired by the laser distance sensor (0205), and the normal position and posture based on matching equivalent to the estimation of the initial position and the initial posture is performed. Estimation is performed (0206). This is position and orientation estimation based on the same principle as the above-described initial position and initial orientation estimation, but the search range is different in that it is automatically set based on the immediately preceding estimated position and orientation.

その後、通常位置姿勢推定の結果をもとに経路計画(0208)として、現在位置から所定の経路に沿って自動走行するための目標位置・姿勢の算出が行われ、移動機構制御が行われる(0209)。なお、通常位置姿勢推定0206から移動機構の制御0209までの処理の間にて終了の操作入力があった場合(0207)、自動走行が停止され、ハードウェア・ソフトウェアの終了処理が行われ、プログラムが終了となる(0215)。   Thereafter, as a route plan (0208) based on the result of the normal position and orientation estimation, a target position and orientation for automatic traveling along a predetermined route from the current position is calculated, and movement mechanism control is performed ( 0209). Note that if there is an end operation input during the processing from the normal position / orientation estimation 0206 to the control 0209 of the moving mechanism (0207), the automatic running is stopped, the hardware / software end processing is performed, and the program Is terminated (0215).

実施例1の探索範囲設定0210について、別の方法を示す。実施例1において、初期位置および初期姿勢の推定に際しては、タッチパネル上に表示された地図上にて、ユーザによる画面へのタッチによって指定された位置を基準として矩形による探索範囲が設定された。ここでは、矩形以外の任意の形状による探索範囲を設定可能なものとする。   Another method is shown about the search range setting 0210 of Example 1. FIG. In Example 1, when estimating the initial position and initial posture, a rectangular search range was set on the map displayed on the touch panel based on the position specified by the user touching the screen. Here, it is assumed that a search range having an arbitrary shape other than a rectangle can be set.

具体的には探索範囲設定0210の際に、図形の頂点の位置を入力すると任意の形状が描かれ、この形状が探索範囲として設定される機能を備えるものとする。これにより、例えば、図7の探索範囲0701のように、任意形状で探索範囲を設定することが可能となる。また、探索範囲は、複数個所設定可能なものとし、図7での探索範囲0701に加えて、探索範囲0703を追加することが可能なものとする。   Specifically, it is assumed that an arbitrary shape is drawn when the position of the vertex of a figure is input at the time of search range setting 0210, and this shape is set as a search range. As a result, for example, the search range can be set in an arbitrary shape like the search range 0701 in FIG. Further, it is assumed that a plurality of search ranges can be set, and a search range 0703 can be added in addition to the search range 0701 in FIG.

また、設定された探索範囲において、初期位置および初期姿勢の推定に要する時間を算出し、表示を行う。この時間は、多角形の面積の公式より得られた探索範囲の面積に単位面積当たりの探索時間を乗じることで求める。なお、算出された時間は図7の探索時間表示エリア0702に表示される。   In the set search range, the time required to estimate the initial position and initial posture is calculated and displayed. This time is obtained by multiplying the area of the search range obtained from the polygon area formula by the search time per unit area. The calculated time is displayed in the search time display area 0702 of FIG.

実施例1の探索範囲設定0210について、別の方法を示す。具体的には、図8のように、タッチパネル上に地図と共に表示される許容探索時間入力エリア0802にユーザが時間を入力すると、許容探索時間に応じた大きさの探索範囲0801が表示され、ユーザがこの探索範囲を、ロボットのおよその位置を含む位置にドラッグ等で移動させることで、探索範囲を設定するものとする。これにより、許容探索時間を大きくするほど、時間はかかるものの、探索範囲履歴を見ながら探索範囲の設定をやり直す可能性が減ることとなる。なお、実施例1の探索範囲の履歴の表示と組み合わせて実施してもよい。   Another method is shown about the search range setting 0210 of Example 1. FIG. Specifically, as shown in FIG. 8, when the user inputs time in an allowable search time input area 0802 displayed together with a map on the touch panel, a search range 0801 having a size corresponding to the allowable search time is displayed. The search range is set by moving the search range to a position including the approximate position of the robot by dragging or the like. As a result, the longer the allowable search time is, the longer it takes, but the possibility of re-setting the search range while looking at the search range history decreases. The search range history display of the first embodiment may be combined with the display.

実施例1〜3においては、ユーザがタッチパネルに表示されている地図上において、ロボットのおよその位置を指定していた。しかし、このような指定を実効的なものとするためには、ユーザ自身が地図上のおよその位置をある程度把握している必要がある。この場合、その場所に詳しくないユーザにとってはロボットの位置の指定が困難となる。これを踏まえ、ロボットのおよその位置の指定をより簡単に行う方法について述べる。   In Examples 1 to 3, the user has specified the approximate position of the robot on the map displayed on the touch panel. However, in order to make such a designation effective, the user himself / herself needs to know the approximate position on the map to some extent. In this case, it is difficult for a user who is not familiar with the location to specify the position of the robot. Based on this, we will describe a simpler method for specifying the approximate position of the robot.

このときのロボットの構成を図9に示す。基本構成は図1と同様であるが、領域別探索範囲データ・位置姿勢履歴データ0901が追加されている。また、探索範囲設定0210は図10の処理に変更されているものとする。   The configuration of the robot at this time is shown in FIG. The basic configuration is the same as that in FIG. 1, but region-specific search range data / position / attitude history data 0901 is added. Further, it is assumed that the search range setting 0210 has been changed to the process of FIG.

処理1001では、領域別探索範囲データ・位置姿勢履歴データ0901が読み込まれる。ここで、領域別探索範囲データとは、地図上において、ユーザが、地図上に設定した領域に部屋や通路などの名前をタグ付けしたデータであり、探索範囲として指定可能となっている。   In processing 1001, area-specific search range data / position and orientation history data 0901 are read. Here, the area-specific search range data is data in which a user tags a region set on the map with a name such as a room or a passage, and can be specified as a search range.

また、同時に読み込まれた位置姿勢履歴データが含まれる領域の検索が行われ、これに該当する領域が探索範囲として設定された状態となる(1002)。   In addition, a region including the position and orientation history data read at the same time is searched, and the corresponding region is set as a search range (1002).

続いて、タッチパネル上に地図などが表示される。これを図11に示す。画面には、地図に加えて、領域別探索範囲データに記録されていた通路領域1101や部屋領域1103が区別して表示されている。また、同時に読み込まれた位置姿勢履歴データをもとに直前の位置・姿勢が1102として表示されている。   Subsequently, a map or the like is displayed on the touch panel. This is shown in FIG. On the screen, in addition to the map, the passage area 1101 and the room area 1103 recorded in the area-specific search range data are displayed separately. The previous position / orientation is displayed as 1102 based on the position / orientation history data read at the same time.

ここで、ユーザが、ロボットが少なくとも通路上にあると判断できる場合はこのまま位置姿勢推定を開始する。通路上になく、例えば部屋内にあると判断できる場合は、部屋を探索範囲として選択し(1004、1005)、初期位置および初期姿勢の推定を行う。なお、ここでの通慮領域や部屋領域といった探索範囲と対応づけた探索範囲の候補のリストを、図11右側のように表示し、1105〜1109のような領域に対応する名前のリストからロボットが含まれる領域の名前を選択することで探索範囲が設定されるようにしてもよい。   Here, if the user can determine that the robot is at least on the passage, the position and orientation estimation is started as it is. When it can be determined that the object is not on the passage and is, for example, in the room, the room is selected as the search range (1004, 1005), and the initial position and initial posture are estimated. Here, a list of search range candidates associated with the search range such as the common area and the room area is displayed as shown on the right side of FIG. 11, and the robot is selected from the list of names corresponding to the areas 1105 to 1109. The search range may be set by selecting the name of the area including the.

0101:ロボット、0102:コントローラ部、0103:移動機構部、0104:距離センサ部、0105:距離センサ制御部、0106:位置姿勢推定部、0107:経路計画部、0108:移動機構制御部、0109:地図データ、0110:経路データ、0111:表示部、0112:探索範囲履歴データ、0113:入力表示制御部、0201〜0214:フローチャート、0301:障害物の存在領域、0302:地図に設定された座標系、0303:幾何形状データ、0304:スキャン範囲、0305:ロボット、0306:レーザ距離センサ、0307:位置、0401:地図データ、0402:幾何形状データ、0403:範囲、0404:位置、0405:位置、0406:位置、0407:探索範囲、0408:画素、0409:物体存在画素、0410:物体存在画素、0411:画素、0501:位置、0502:推定結果、0503:探索範囲、0504:探索範囲、0505:位置、0601:推定結果、0602:幾何形状データ、0603:地図データ、0701:探索範囲、0702:探索時間表示エリア、0703:探索範囲、0801:探索範囲、0802:許容探索時間入力エリア、0901:位置姿勢履歴データ、1001〜1005:フローチャート、1101:通路領域、1102:位置・姿勢、1103:部屋領域、1105:領域に該当する名前のリスト,1106:領域に該当する名前のリスト。   0101: Robot, 0102: Controller unit, 0103: Movement mechanism unit, 0104: Distance sensor unit, 0105: Distance sensor control unit, 0106: Position and orientation estimation unit, 0107: Path planning unit, 0108: Movement mechanism control unit, 0109: Map data, 0110: Route data, 0111: Display unit, 0112: Search range history data, 0113: Input display control unit, 0201-0214: Flow chart, 0301: Obstacle presence area, 0302: Coordinate system set in the map , 0303: Geometric shape data, 0304: Scan range, 0305: Robot, 0306: Laser distance sensor, 0307: Position, 0401: Map data, 0402: Geometric shape data, 0403: Range, 0404: Position, 0405: Position, 0406 : Position, 0407: Search range, 0408: Element, 0409: Object existence pixel, 0410: Object existence pixel, 0411: Pixel, 0501: Position, 0502: Estimation result, 0503: Search range, 0504: Search range, 0505: Position, 0601: Estimation result, 0602: Geometric shape Data, 0603: map data, 0701: search range, 0702: search time display area, 0703: search range, 0801: search range, 0802: allowable search time input area, 0901: position and orientation history data, 1001-1005: flowchart, 1101: Passage area 1102: Position / Attitude 1103: Room area 1105: List of names corresponding to the area 1106: List of names corresponding to the area

Claims (5)

移動体と環境中の物体との距離、および、前記移動体から前記環境中の物体への方向を測定するセンサ部と、
前記センサ部が測定したデータを元に得られた前記環境中の物体の幾何形状データと、前記環境中の物体の地図データのマッチングを取ることによって、前記移動体の位置および姿勢を推定する位置姿勢推定部と、
入力された位置を含む範囲であって前記位置姿勢推定部が前記マッチングを取る際に前記移動体の位置および姿勢を推定する範囲である探索範囲を表示する表示部と、を有し、
前記表示部は、前記マッチングが失敗した際に、探索に失敗した前記探索範囲を表示し、
前記表示部は、前記探索範囲が設定された際にその範囲を探索するために必要な探索時間を表示する探索時間表示エリアを有することを特徴とする移動体。
A sensor unit for measuring a distance between the moving object and an object in the environment, and a direction from the moving object to the object in the environment;
A position for estimating the position and orientation of the moving object by matching the geometric shape data of the object in the environment obtained based on the data measured by the sensor unit and the map data of the object in the environment A posture estimation unit;
A display unit that displays a search range that is a range that includes an input position and that is a range in which the position and orientation estimation unit estimates the position and orientation of the moving body when the matching is performed;
When the matching fails, the display unit displays the search range where the search has failed ,
Wherein the display unit, the moving body, characterized in that have a search time display area for displaying the search time required to explore the range in which the search range is set.
移動体と環境中の物体との距離、および、前記移動体から前記環境中の物体への方向を測定するセンサ部と、A sensor unit for measuring a distance between the moving object and an object in the environment, and a direction from the moving object to the object in the environment;
前記センサ部が測定したデータを元に得られた前記環境中の物体の幾何形状データと、前記環境中の物体の地図データのマッチングを取ることによって、前記移動体の位置および姿勢を推定する位置姿勢推定部と、A position for estimating the position and orientation of the moving object by matching the geometric shape data of the object in the environment obtained based on the data measured by the sensor unit and the map data of the object in the environment A posture estimation unit;
入力された位置を含む範囲であって前記位置姿勢推定部が前記マッチングを取る際に前記移動体の位置および姿勢を推定する範囲である探索範囲を表示する表示部と、を有し、A display unit that displays a search range that is a range that includes an input position and that is a range in which the position and orientation estimation unit estimates the position and orientation of the moving body when the matching is performed;
前記表示部は、前記マッチングが失敗した際に、探索に失敗した前記探索範囲を表示し、When the matching fails, the display unit displays the search range where the search has failed,
前記表示部は、許容探索時間の入力を受け付ける許容探索時間入力エリアを有し、The display unit has an allowable search time input area for receiving an input of an allowable search time,
前記探索範囲は、その範囲を探索するために必要な探索時間が前記許容探索時間以下となるように設定されることを特徴とする移動体。The search range is set such that a search time required for searching the range is equal to or less than the allowable search time.
請求項1または2において、
前記探索範囲は、矩形であることを特徴とする移動体。
In claim 1 or 2 ,
The mobile object characterized in that the search range is a rectangle.
請求項1からのいずれか1つにおいて、
前記表示部は、前記環境の地図を、通路領域と部屋領域が区別できる態様で表示することを特徴とする移動体。
In any one of claims 1 to 3,
The display unit displays a map of the environment in such a manner that a passage area and a room area can be distinguished.
請求項1または2において、
前記表示部は、前記入力を受け付けるタッチパネルであることを特徴とする移動体。
In claim 1 or 2 ,
The moving body, wherein the display unit is a touch panel that receives the input.
JP2013239481A 2013-11-20 2013-11-20 Moving body Expired - Fee Related JP6192506B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013239481A JP6192506B2 (en) 2013-11-20 2013-11-20 Moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013239481A JP6192506B2 (en) 2013-11-20 2013-11-20 Moving body

Publications (2)

Publication Number Publication Date
JP2015099518A JP2015099518A (en) 2015-05-28
JP6192506B2 true JP6192506B2 (en) 2017-09-06

Family

ID=53376085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013239481A Expired - Fee Related JP6192506B2 (en) 2013-11-20 2013-11-20 Moving body

Country Status (1)

Country Link
JP (1) JP6192506B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6711138B2 (en) * 2016-05-25 2020-06-17 村田機械株式会社 Self-position estimating device and self-position estimating method
JP7151035B2 (en) * 2019-01-16 2022-10-12 株式会社豊田自動織機 travel control device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2759134B2 (en) * 1995-07-25 1998-05-28 矢崎化工株式会社 Automatic guidance method for guided vehicles
JP2006111381A (en) * 2004-10-13 2006-04-27 Toyota Industries Corp Operation status display system
JP2008276754A (en) * 2007-03-30 2008-11-13 Topy Ind Ltd Robot position detection system
JP2012194517A (en) * 2011-02-28 2012-10-11 Nikon Corp Image display device, observation apparatus, display program, image display method, and observation control method
JP2012234449A (en) * 2011-05-08 2012-11-29 Yasuaki Iwai Search support system, transmission device, display method, transmission method and search assistance program
JP5800613B2 (en) * 2011-07-08 2015-10-28 株式会社日立産機システム Position / posture estimation system for moving objects

Also Published As

Publication number Publication date
JP2015099518A (en) 2015-05-28

Similar Documents

Publication Publication Date Title
JP6769659B2 (en) Mobile management systems, methods, and computer programs
US10953869B2 (en) Automated driving control device, vehicle, and automated driving control method
CN109154827B (en) Positioning of robotic vehicles
CN106200633B (en) Locating and mapping using physical features
KR20200121334A (en) Control method for edge driving of autonomous mobile robot
JP5157803B2 (en) Autonomous mobile device
US20100076599A1 (en) Manually driven determination of a region of interest (roi) or a path of interest (poi) for a robotic device
US11351986B2 (en) In-vehicle processing apparatus
JP5278283B2 (en) Autonomous mobile device and control method thereof
JP5298741B2 (en) Autonomous mobile device
KR101771643B1 (en) Autonomously traveling robot and navigation method thereof
CN108227699B (en) Method for operating a vehicle with automatic forward motion
JP2012173843A (en) Travel route generation device and travel route generation method
JP6348971B2 (en) Moving body
JP2014067223A (en) Autonomous mobile body
JP2020184148A (en) Information processing device and information processing method
JP5983088B2 (en) Autonomous mobile device and autonomous mobile method
CN111694358A (en) Method and device for controlling transfer robot, and storage medium
JP6025814B2 (en) Operating device and autonomous mobile system
US20160231744A1 (en) Mobile body
JP6192506B2 (en) Moving body
US20190094025A1 (en) Apparatus and method for localising a vehicle
CN114578821A (en) Mobile robot, method for overcoming difficulty of mobile robot, and storage medium
JP7144491B2 (en) FORKLIFT, POSITION ESTIMATION METHOD, AND PROGRAM
CN114942644A (en) Method for controlling robot to clean and robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160826

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170116

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170808

R150 Certificate of patent or registration of utility model

Ref document number: 6192506

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees