WO2022070575A1 - 移動体の制御装置及び制御方法 - Google Patents

移動体の制御装置及び制御方法 Download PDF

Info

Publication number
WO2022070575A1
WO2022070575A1 PCT/JP2021/027771 JP2021027771W WO2022070575A1 WO 2022070575 A1 WO2022070575 A1 WO 2022070575A1 JP 2021027771 W JP2021027771 W JP 2021027771W WO 2022070575 A1 WO2022070575 A1 WO 2022070575A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving body
destination
map data
moving
data
Prior art date
Application number
PCT/JP2021/027771
Other languages
English (en)
French (fr)
Inventor
昇尚 浦田
Original Assignee
株式会社牧野フライス製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社牧野フライス製作所 filed Critical 株式会社牧野フライス製作所
Publication of WO2022070575A1 publication Critical patent/WO2022070575A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Definitions

  • the present invention relates to a moving body control device and a control method.
  • AGVs Automated Guided Vehicles
  • AGVs Automated Guided Vehicles
  • a map created from images taken by a camera is often used as a map for planning a route.
  • Such an image-based map representation is suitable for route planning because it is easy to represent a movable area.
  • the resolution of the map is determined by the resolution of the image data, the accuracy of self-position estimation and positioning of the AGV based on the map largely depends on the resolution of the image data. Therefore, a method for correcting the position / orientation of the AGV, which may cause a certain degree of error, has also been proposed.
  • Patent Document 1 discloses a vehicle that autonomously moves along a route from a starting point to a destination. This vehicle sets the overall route from the starting point to the destination prior to autonomous movement. Specifically, for example, only the starting point and the destination are plotted, and the route between the starting point and the destination is automatically determined based on the movement capacity of the vehicle and the processing capacity of the control device mounted on the vehicle. Is set to.
  • the vehicle identifies its own (vehicle) position in the digital map and moves to its destination along the route based on the identified self-position.
  • the vehicle temporarily stops when it arrives near the destination.
  • the stopped vehicle uses a sensor to detect environmental data around the stop position and compares the detected environmental data with the target position / attitude at the destination. Based on the result of the comparison, the vehicle automatically moves the vehicle so that the deviation of the position / posture of the vehicle is within a predetermined allowable value.
  • the vehicle is repeatedly moved by processing such as stopping the vehicle, detecting environmental data around the stop position, and moving the vehicle.
  • An object of the present invention is to provide a moving body control device and a control method capable of improving the accuracy of self-position estimation of a moving body and improving the efficiency of self-position estimation.
  • the present invention has a sensor that detects the presence or absence of surrounding objects, and in a moving body that autonomously moves from a starting point to a destination, scan data detected by the sensor and a region in which the moving body moves.
  • a storage device that stores the image map data of the above, a local map generator that generates local map data around the destination from scan data, and a moving object from the starting point to the vicinity of the destination based on the image map data.
  • a moving body control device including a control unit that continuously switches from movement control based on image map data to movement control based on local map data during movement is provided.
  • it is a control method for autonomously moving a moving body having a sensor for detecting the presence or absence of a surrounding object from a starting point to a destination, and scan data detected by the sensor and The step of storing the image map data of the area where the moving body moves in the moving body, the step of generating the local map data around the destination from the scan data, and the step of generating the local map data around the destination from the scan data, and the step from the starting point to the destination based on the image map data.
  • the step of moving the moving object to the periphery of the destination, and the moving object continuously switches from the movement control based on the image map data to the movement control based on the local map data, and moves the moving object from the periphery of the destination to the destination.
  • a method of controlling a moving body comprising a step of moving.
  • the control device includes a storage device
  • the scan data detected by the sensor and the image map data of the area where the moving body moves are stored in advance before the moving body starts moving from the starting point to the destination. I can let you.
  • the local map generator may generate local map data around the destination from the scan data stored in the storage device. can. This eliminates the need to stop the moving object around the destination just to generate local map data. As a result, the self-position estimation of the moving body can be efficiently performed, and the moving time from the starting point of the moving body to the destination can be shortened.
  • the moving body may start moving from the starting point to the destination after storing the scan data detected by the sensor and the image map data of the area where the moving body moves. can.
  • the moving object that has started the movement generates local map data around the destination from the scan data while moving to the vicinity of the destination. This eliminates the need for the moving object to stop around the destination just to generate local map data.
  • the moving body can efficiently estimate its own position and can shorten the moving time from the starting point of the moving body to the destination. Furthermore, it travels from the starting point to the vicinity of the destination using image map data, and when it arrives around the destination, it continuously switches from the image map data to the use of local map data to the destination. Move to.
  • the moving object switched to use the local map data moves from the periphery of the destination to the destination after controlling the movement using the scan data. As a result, it is possible to move from the periphery of the destination to the destination after improving the accuracy of self-position estimation of the moving body.
  • the moving body control device and control method according to the present invention can improve the accuracy of self-position estimation of the moving body and improve the efficiency of self-position estimation.
  • FIG. 1 shows a schematic side view of a moving body according to an embodiment.
  • FIG. 2 shows a schematic plan view of the inside of the factory where the moving body according to the embodiment moves.
  • FIG. 3 shows a block diagram of a configuration of a moving body control device.
  • FIG. 4 schematically shows image map data and point cloud data generated by a moving body.
  • FIG. 4A schematically shows the relationship between the image map data and the point cloud data for the same object
  • FIG. 4B schematically shows the relationship between the point data acquired at each position. ..
  • FIG. 5 schematically shows the generation of local map data.
  • FIG. 6 shows a method of controlling a moving body as a flowchart.
  • FIG. 1 shows a schematic side view showing a moving body 10 according to an embodiment.
  • a vehicle that is used for industrial purposes in a factory 100 (see FIG. 2) and can autonomously travel (move) without a human operation is shown. Has been done.
  • the moving body 10 is an AGV.
  • the moving body 10 controls the vehicle body 11, one or more wheels 12, one or more rotary encoders 13, an arm 14, a sensor 15, a camera 16, and autonomous traveling of the moving body 10.
  • the control device 20 for the purpose is provided.
  • the control device 20 is communicably connected to some of the components of the mobile body 10 by wire or wirelessly.
  • the moving body 10 is not limited to the above configuration, and may further include other components.
  • Wheels 12 for movement are provided on the lower side of the vehicle body 11, and the wheels 12 are connected to, for example, a drive device (not shown) such as a servomotor for rotating the wheels 12. Further, in order to detect the rotation speed of the wheel 12, the rotary encoder 13 is arranged adjacent to the wheel 12 for each wheel 12. The rotary encoder 13 is communicably connected to the control device 20 by wire or wirelessly in order to transmit the detected rotation speed to the control device 20.
  • the arm 14 is, for example, a multi-axis articulated robot, and is attached to the upper part of the vehicle body 11.
  • a hand 18, a gripper, a chuck, or the like for holding an article such as a tool T or a work W (both see FIG. 2) is provided at the tip of the arm 14.
  • a camera 16 is provided on the tip end side of the arm 14.
  • the camera 16 is a CMOS camera or a CCD camera, but is not limited to this, and may be a color camera or a black-and-white camera.
  • the camera 16 is communicably connected to the control device 20 by wire or wirelessly. As a result, the camera 16 can transmit the acquired image to the control device 20, and the control device 20 gives a command to the drive device (not shown) of the arm 14 based on the image acquired by the camera 16. Can be sent.
  • a sensor 15 such as a laser sensor is attached to the front side of the vehicle body 11 in order to detect the presence or absence of an object around the moving body 10.
  • the sensor 15 may be attached around or in the center of the vehicle body 11.
  • the sensor 15 can measure, for example, the presence or absence of an object around the moving body 10 and the distance to the object by the time until the laser emitted from the sensor 15 hits the object and returns.
  • the sensor 15 is communicably connected to the control device 20 by wire or wirelessly in order to transmit data such as the distance to the measured object to the control device 20.
  • the senor 15 is described as being attached to the front side of the vehicle body 11, but the sensor 15 is not limited to this, and is not limited to this, for example, other parts of the moving body 10 such as the arm 14 or the vehicle body 11. It may be mounted in other positions. Further, although the sensor 15 is described as a laser sensor, the sensor 15 is not limited to this, and other types of sensors such as a depth camera may be provided.
  • FIG. 2 shows a schematic plan view of the factory 100 in which the moving body 10 moves.
  • the moving body 10 according to the present embodiment moves in the factory 100 provided with one or more machine tools 50.
  • the factory 100 is provided with one or more machine tools 50, one or more stockers 60, one or more tables 70, and a factory management system 90.
  • the factory 100 is not limited to these, and other equipment may be provided.
  • the mobile body 10 will be described as moving in the factory 100, but the present invention is not limited to this, and the mobile body 10 may be configured to move in another facility such as a warehouse.
  • a machining center is provided as a machine tool 50 in the factory 100. Therefore, the machine tool 50 includes a spindle 51 for machining the work W by the tool T, and a tool magazine 52 for storing a plurality of tools T. A stocker 60 for storing a work W or other articles such as a tool is arranged at a predetermined place in the factory. Further, a tool T or another article such as a work W is arranged on the table 70.
  • the machine tool 50 is provided with a machining center, the present invention is not limited to this, and a machine tool other than the machining center may be provided. Further, although it has been described here that the machine tool 50 includes a spindle 51 and a tool magazine 52, the machine tool 50 is not limited to this, and the machine tool may further include other components.
  • a factory management system 90 for controlling some components (equipment) in the factory 100 is provided.
  • the factory management system 90 includes a PLC (Programmable Logic Controller), a PC (Personal Computer), a server, a tablet, and the like. Further, the factory management system 90 includes a processor, a storage unit, a display device, an input device, and the like.
  • the factory management system 90 is wirelessly or wirelessly connected to communicably the components that need to be controlled in the factory 100.
  • the inside of the factory 100 is partitioned by one or a plurality of walls 80, and the moving body 10 is partitioned by the walls 80 so as not to collide with the equipment arranged in the factory 100 such as the wall 80 and the machine tool 50.
  • the moving body 10 autonomously moves between the machine tool 50, the stocker 60, the table 70, and the like, and transports the work W, the tool T, or other articles between them. It is configured in.
  • the factory management system 90 can transmit various commands including a destination to the mobile body 10, and the mobile body 10 can move in the factory 100 based on the command from the factory management system 90.
  • FIG. 3 shows a block diagram of the configuration of the control device 20 of the mobile body 10.
  • the control device 20 includes a processor 30 as a control unit, a storage device 40, and an interface 45.
  • the control device 20 may be configured to include a PLC, a PC, or the like.
  • the processor 30 is composed of, for example, one or a plurality of CPUs, and controls the movement of the mobile body 10 as described later.
  • the storage device 40 includes, for example, one or a plurality of hard disk drives, a ROM (read only memory) and / or a RAM (random access memory) and the like.
  • the interface 45 is composed of, for example, an I / O port or the like. The components of these control devices 20 are connected to each other by a bus (not shown).
  • the control device 20 may be configured to further include other components, and specifically includes a display device such as a liquid crystal display and / or a touch panel, and an input device such as a mouse, a keyboard, and / or a touch panel. You may.
  • a display device such as a liquid crystal display and / or a touch panel
  • an input device such as a mouse, a keyboard, and / or a touch panel. You may.
  • the processor 30 includes a local map generation unit 31, a movement route switching unit 32, a position estimation unit 33, a location registration unit 34, and a speed control unit 35 as a configuration for controlling the movement of the moving body 10. ing. Specifically, these components are executed by a circuit, an operating system, or the like incorporated in the processor 30 and the mobile body 10. As the operating system, various operating systems developed for robots, such as ROS (Robot Operating System) managed by the Open Source Robotics Foundation in the United States, may be used. Not limited to these, the program may be executed using the program incorporated in the mobile body 10. The program may be recorded directly in the processor 30, or the program stored in the storage device 40 may be called from the processor 30 and executed.
  • ROS Robot Operating System
  • the storage device 40 stores the scan data 130 measured in advance and the generated image map data 120 by the control device 20 before the moving body 10 starts moving from the starting point to the destination.
  • the storage device 40 stores not only the scan data 130 measured in advance immediately before the movement control and the generated image map data 120, but also the data 130 and 140 measured and generated in the past movement control.
  • the stored scan data 130 and the image map data 120 are indexed by time, place, etc., and the storage device 40 is constructed with a searchable database using these indexes.
  • the image map data 120 is information on the entire environment in the movement path of the moving body 10 for determining the self-position of the moving body 10, the moving amount (speed) toward the destination of the moving body 10, and the moving direction.
  • the information on the entire environment is information in which the entire environment is divided into fine grids, and each grid is classified into three categories: "obstacles", "no obstacles", and "unobserved”.
  • the image map data 120 needs to be generated in advance before the moving body 10 autonomously moves to the destination, and is generally generated by using a SLAM (Simultaneous Localization and Mapping) method.
  • SLAM Simultaneous Localization and Mapping
  • the environment of the entire factory 100 is sensed from the estimated self-position.
  • the moving body 10 moves to another point in the factory 100, estimates its own position, and senses the environment of the entire factory 100 from the estimated self position.
  • the moving body 10 moves in the factory 100 until it covers a range sufficient to generate the image map data 120, and repeats 1) to 4). In such a step, the moving body 10 generates the image map data 120.
  • the image map data 120 is generated based on the data acquired by the sensor 15 provided on the moving body 10.
  • the movement of the moving body 10 in the factory 100 may be manually operated by the operator, or the moving body 10 may autonomously travel based on the map data input to the moving body 10 in advance, or The moving body 10 may autonomously travel by automatically calculating the moving route based on the image map being created.
  • the generated image map data is stored in the storage device 40.
  • the scan data 130 is a set (point group) of points scanned (measured) at a constant frequency / interval by the sensor 15 of the moving body 10.
  • the moving body 10 moves in the factory 100, and at each point (position) in the factory 100, from the sensor 15, the machine tool 50, the stocker 60, and the table 70 in the factory 100 at regular intervals. And irradiate an object such as a wall 80 with a laser. By measuring the time until the laser that hits the object returns, the distance (distance) between the moving body 10 and these objects can be measured.
  • the mobile body 10 acquires point data 132 within a range that can be irradiated from each position in the factory 100.
  • the shape of the surface of each object arranged in the factory 100 can be recognized as scan data 130 which is an aggregate of the point data 132.
  • a method such as ICP (Iterative Closest Point) is used for the alignment of the point data 132.
  • the data in the area not detected by the sensor 15 is not included in the scan data 130.
  • the scan data 130 is acquired together with the self-position (here, the position irradiated with the laser) data of the moving body 10, the coordinate values (u, v, w coordinates) based on the center of gravity of the moving body 10 are obtained.
  • Each point data 132 of the scan data 130 obtained as can be coordinate-converted into coordinate values (x, y, z coordinates) with respect to the reference point in the factory 100, for example.
  • the accuracy of the scan data 130 thus acquired depends on the resolution of the sensor 15.
  • the generated scan data 130 is stored in the storage device 40.
  • FIGS. 4 (A) and 4 (B) schematically show image map data 120 and scan data 130 generated by the moving body 10 in the factory 100.
  • the moving body 10 is moving along the wall 80 in the factory 100, and the moving bodies 10 from time T1 to T2 and further to T3 are grouped together in the same figure. It is shown.
  • the control device 20 of the mobile body 10 generates image map data 120 based on the scan data in the factory 100 acquired by the sensor 15 at each time (each position).
  • image map data 120 as an "obstacle” corresponding to the wall 80 is shown (black square portion in the figure).
  • the data corresponding to "no obstacle” and “unobserved” are not explicitly shown in the figure, they are included in the image map data 120 together with the data about "obstacle".
  • FIG. 4B shows the relationship of the point data 132 acquired at each time (each position) after aligning the positions of the moving body 10 in the figure in the traveling direction (U direction).
  • the point data 132 for each time shown in 4 (A) is shown separately.
  • the moving body 10 at each time is also shown in the figure.
  • the point data 132 acquired at each position is aggregated to generate the scan data 130. ..
  • the point data 132 may cause an error between the point data 132 even if they are the same object (position) in the factory 100 without completely matching each other. Therefore, it is aligned so as to minimize the error by a method such as ICP.
  • the moving body 10 moves on the image map data 120 as a starting point. Generate an overall route from the coordinate value to the coordinate value of the destination. Further, the coordinate value of the destination may be a position input in advance or a position instructed by the factory management system 90 as the destination.
  • the moving body 10 that has generated the entire route controls the drive circuit 17 arranged in the vehicle body 11 while referring to the image map data 120, and starts autonomous movement by rotating the wheels 12.
  • the control device 20 includes a local map generation unit 31, and the local map generation unit 31 scans from the starting point to reaching the vicinity of the destination. From the data 130, local map data 140 around the destination can be generated.
  • the local map data 140 can be generated by using the scan data 130 at the shortest position from the destination as the reference data and integrating only the scan data 130 around the destination.
  • the control device 20 searches for the scan data 130 of the moving body 10 stored in the storage device 40 (registered in the database), and the scan data 130 located at the shortest position from the destination. And extracts the scan data 130 within a predetermined range from the specified scan data 130. Then, based on the scan data 130 at the shortest position from the destination, the scan data 130 within a predetermined range is aligned based on the ICP method or the like, and the integrated data is used as the local map data 140.
  • FIG. 5 shows an example of the extraction method.
  • the local map data 140 is generated by extracting only the scan data 130 located within the range of the radius d from the self-position of the specified moving body 10.
  • the local map data 140 extracts only the scan data 130 around the destination, the number of data to be processed can be reduced. As a result, the time for estimating the self-position of the moving body 10 can be shortened.
  • the scan data 130 around the destination will be described as scan data 130 located within a radius d from the specified self-position, but the present invention is not limited to this.
  • scan data 130 within a range of a radius d from the specified self-position of the moving body 10 and within a range of a predetermined angle (predetermined direction) in a plan view with respect to the traveling direction of the moving body 10 is extracted. May be done.
  • a predetermined range from the specified self-position for extracting the scan data 130 may be appropriately determined according to the amount of objects arranged around the destination, the size of the space, and the like.
  • the moving path switching unit 32 of the control device 20 can continuously switch the data referred to by the moving body 10 from the image map data 120 to the local map data 140.
  • the position estimation unit 33 estimates the self-position of the moving body 10 using the scan data 130. Specifically, by comparing (aligning) the scan data 130 at the current location of the moving body 10 with the local map data 140, the coordinate values at the current location of the moving body 10 are obtained. Thereby, the control device 20 of the moving body 10 can control the movement from the periphery of the destination to the destination by using one or both of the local map data 140 and the image map data 120.
  • the position estimation unit 33 positions the moving body by using one or both of the local map data 140 and the image map data 120 in which the coordinate values of the moving body 10 at the current location are registered. Specifically, by calculating the deviation from the pre-generated overall route, the movement amount and direction (direction) of the moving body 10 for the moving body 10 to move to the destination along the entire route are calculated. do.
  • the location registration unit 34 acquires the coordinate value of the destination in the local map data 140. Specifically, after the moving body 10 moves to the destination, the scan data 130 that is in the vicinity of the coordinates at the current location is acquired from the database on the image map data 120, and the local map data 140 is obtained using the peripheral scan data 130. Generate. By aligning the scan data 130 at the current location with respect to the generated local map data 140, the coordinate values at the current location on the local map data 140 are calculated, and the image map data 120 and the local map data 140 are displayed. The coordinate value at the current location is registered in the location registration unit 34. Further, as for the coordinate values, not only the image map data 120 but also the coordinate values on the scan data 130 can be registered.
  • the speed control unit 35 sets the moving speed of the moving body 10 based on the calculated movement amount of the moving body 10. Further, the speed control unit 35 sets the rotation speed of each wheel 12 from the set moving speed and transmits the rotation speed to the wheel 12 via the drive circuit 17 (see FIGS. 2 and 3). Further, in the speed control unit 35, for example, the moving speed of the moving body 10 immediately after switching the data referred to by the moving body 10 to the local map data 140 is predetermined to be the speed immediately before switching the data referred to by the moving body 10. When a difference of more than the threshold value is generated, the difference in moving speed is corrected so as to be small, for example, decelerating the moving speed or increasing the speed to the extent that a large acceleration does not occur.
  • step S10 the activated moving body 10 moves in the factory 100 and is a self-position in the factory 100, that is, a position (x, y, z coordinate values) with respect to a reference point in the factory 100 and in the factory 100. Acquires attitude (orientation) data with respect to the reference coordinate system (xyz coordinate system) of.
  • step S20 at the position where the self-position data is acquired, the image map data 120 is generated from the data acquired by the sensor 15, and the sensor 15 is used to scan the object installed and placed in the factory 100. Generates scan data 130. Steps S10 and S20 are repeated until the area required for autonomous movement of the moving body 10 is covered.
  • the completed image map data 120 and scan data 130 are stored in the storage device 40. Note that, for example, when the data 120 and 130 including the movement route are already registered in the database of the storage device 40, steps S10 and S20 may be omitted.
  • step S30 the moving body 10 generates an overall route from the coordinate value of the starting point to the coordinate value of the destination on the image map data 120.
  • the mobile body 10 that has generated the entire route controls the drive circuit 17 arranged in the vehicle body 11 while referring to the image map data 120, and starts autonomous movement.
  • step S40 the control device 20 determines whether or not to use the local map data 140 (necessity) based on the generated overall route and the image map data 120 before or at the same time as the start of the autonomous movement of the moving body 10. do.
  • step S50 the moving body 10 moves to the destination with reference only to the image map data 120.
  • step S60 the process proceeds to step S60, and the moving body 10 generates the local map data 140 after the departure point and before reaching the vicinity of the destination.
  • the self-position estimation of the moving body 10 can be efficiently performed and the moving time from the starting point of the moving body 10 to the destination can be shortened. can.
  • the local map data 140 can be generated by using the scan data 130 at the shortest position from the destination as the reference data and extracting only the scan data 130 around the destination.
  • the control device 20 searches for the self-position data of the moving body 10 stored in the storage device 40 (registered in the database), and identifies the scan data 130 at the shortest position from the destination.
  • the scan data 130 within a predetermined range is extracted from the specified scan data 130.
  • the local map data 140 extracts only the scan data 130 around the destination, the number of data to be processed can be reduced and the time for estimating the self-position of the moving body 10 can be shortened.
  • step S70 the moving body 10 moves to the vicinity of the destination with reference only to the image map data 120 even after the local map data 140 is generated.
  • step S80 the control device of the moving body 10 arriving around the destination switches the map data to be referred from the image map data 120 to the local map data 140.
  • the moving body 10 can perform self-position estimation and positioning using scan data, so that the moving body 10 moves from the periphery of the destination to the destination after improving the accuracy of the self-position estimation of the moving body. be able to.
  • step S90 when the moving speed of the moving body 10 immediately after switching the data referred to by the moving body 10 to the local map data 140 has a difference of more than a predetermined threshold value from the speed immediately before the switching, the speed control unit 35 may use the speed control unit 35. For example, the moving speed is slowed down, or the speed is increased so as not to cause a large acceleration. As a result, it is possible to suppress an increase in the acceleration of the moving body 10, and for example, it is possible to suppress an impact on the load on the gantry of the moving body 10.
  • step S100 the moving body 10 continues to move to the destination with reference to the local map data 140, and when the moving body 10 arrives at the destination, the moving body 10 stops in step S110.

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

移動体の自己位置推定の精度向上と共に、自己位置推定の効率化を図ることができる移動体の制御装置及び制御方法を提供する。 周囲の物体の有無を検出するセンサ15を有しており、出発点から目的地まで自律的に移動する移動体10の制御装置20に、センサ15によって検出されたスキャンデータ130及び移動体10が移動する領域の画像地図データ120を記憶する、記憶装置40と、スキャンデータ130から、目的地の周辺の局所地図データ140を生成する、局所地図生成部31と、画像地図データ120に基づいて、移動体10を出発点から目的地の周辺まで移動させている間に、画像地図データ120に基づいた移動制御から局所地図データ140に基づいた移動制御に連続的に切り替える、制御部30と、を具備する。

Description

移動体の制御装置及び制御方法
 本発明は、移動体の制御装置及び制御方法に関する。
 主に、産業用途で使用されており、人間が運転操作を行わなくても自律で走行(移動)することができる移動体(車両)である、AGV(Automated Guided Vehicle)についての様々な技術が提案されている。AGVの自律移動において、経路を計画するための地図は、カメラによる画像から作成された地図が用いられることが多い。このような画像ベースの地図表現は、移動可能領域の表現が簡便であることから、経路計画に適している。その一方で、地図の解像度は、画像データの解像度によって決定されることから、地図に基づくAGVの自己位置推定及び位置決めの精度は、概ね画像データの解像度に依存している。このため、一定程度の誤差が生じ得るAGVの位置/姿勢を修正するための手法も提案されている。
 AGVの位置/姿勢を修正するための手法は、例えば、特許文献1に開示されている。特許文献1には、出発地点から目的地まで経路に沿って自律的に移動する車両が開示されている。この車両は、自律移動に先立ち、出発地点から目的地までの全体的な経路を設定する。具体的には、例えば、出発地点及び目的地だけをプロットし、出発地点と目的地との間の経路は、車両の移動能力及び車両に搭載された制御装置等の処理能力に基づいて自動的に設定される。自律移動の際には、車両は、デジタルマップ中における自己(車両)位置を特定し、特定した自己位置に基づいて、経路に沿って目的地まで移動する。しかしながら、経路設定や位置特定には、一定の誤差が含まれるため、目的地において目標とする位置/姿勢と、車両が目的地近傍に到達した際の実際の位置/姿勢とは、異なり得る。したがって、特許文献1では、車両は、目的地近傍に到着すると、一旦停止する。停止した車両は、センサを用いて、停止位置周辺の環境のデータを検出すると共に、検出した環境データと目的地において目標とする位置/姿勢とを比較する。車両は、比較した結果に基づき、車両の位置/姿勢のずれが、所定の許容値以内に収まるように、車両を自動的に移動させる。しかしながら、車両の位置/姿勢を修正するために、車両の停止、停止位置周辺の環境のデータの検出、車両の移動といった処理を繰り返して移動する。このため、出発地点から目的地までの移動において、車両の位置/姿勢の修正にかかる時間の割合が大きくなる事に加えて、通常、架台上の積載物に衝撃を与えないように、低加速度かつ低速度での移動が求められる車両の移動時間は、さらに増加する。
米国特許第9244463号明細書
 本発明の目的は、移動体の自己位置推定の精度向上と共に、自己位置推定の効率化を図ることができる移動体の制御装置及び制御方法を提供することである。
 本発明によれば、周囲の物体の有無を検出するセンサを有しており、出発点から目的地まで自律的に移動する移動体において、センサによって検出されたスキャンデータ及び移動体が移動する領域の画像地図データを記憶する記憶装置と、スキャンデータから、目的地の周辺の局所地図データを生成する局所地図生成部と、画像地図データに基づいて、移動体を出発点から目的地の周辺まで移動させている間に、画像地図データに基づいた移動制御から局所地図データに基づいた移動制御に連続的に切り替える制御部と、を具備する移動体の制御装置が提供される。
 さらに、本発明によれば、周囲の物体の有無を検出するセンサを有する移動体を、出発点から目的地まで自律的に移動させるための制御方法であって、センサによって検出されたスキャンデータ及び移動体が移動する領域の画像地図データを、移動体に記憶させるステップと、スキャンデータから、目的地の周辺の局所地図データを生成するステップと、画像地図データに基づいて、出発点から目的地の周辺まで移動体を移動させるステップと、移動体が、画像地図データに基づいた移動制御から局所地図データに基づいた移動制御に連続的に切り替えて、目的地の周辺から目的地まで移動体を移動させるステップと、を具備する、移動体の制御方法が提供される。
 制御装置は、記憶装置を備えているため、センサによって検出されたスキャンデータ及び移動体が移動する領域の画像地図データを、移動体が出発地点から目的地への移動を開始する前に予め記憶させておくことができる。移動体は、出発地点を出発して目的地の周辺まで移動させている間に、局所地図生成部によって、記憶装置に記憶されたスキャンデータから目的地の周辺の局所地図データを生成することができる。このため、局所地図データを生成するためだけに、移動体を、目的地の周辺において停止する必要がなくなる。これにより、移動体の自己位置推定を、効率よく行うことができると共に、移動体の出発地点から目的地への移動時間を短縮することができる。
 移動体の制御方法によれば、移動体は、センサによって検出されたスキャンデータ及び移動体が移動する領域の画像地図データを記憶した上で、出発地点から目的地への移動を開始することができる。移動を開始した移動体は、目的地の周辺まで移動させている間に、スキャンデータから目的地の周辺の局所地図データを生成する。このため、移動体は、局所地図データを生成するためだけに、目的地の周辺において停止する必要がなくなる。これにより、移動体は、効率よく自己位置推定を行うことができると共に、移動体の出発地点から目的地への移動時間を短縮することができる。さらに、出発地点から目的地の周辺までは、画像地図データを使用して移動し、目的地の周辺に到着した際に、画像地図データから局所地図データの使用に連続的に切り替えて、目的地まで移動する。局所地図データを使用するように切り替えられた移動体は、スキャンデータを使用して、移動制御を行った上で、目的地の周辺から目的地まで移動する。これにより、移動体の自己位置推定の精度を向上した上で、目的地の周辺から目的地まで移動することができる。
 本発明に係る移動体の制御装置及び制御方法によって、移動体の自己位置推定の精度向上と共に、自己位置推定の効率化を図ることができる。
図1は、実施形態に係る移動体の概略的な側面図を示す。 図2は、実施形態に係る移動体が移動する工場内の概略的な平面図を示す。 図3は、移動体の制御装置の構成についてのブロック図を示す。 図4は、移動体により生成される画像地図データ及び点群データを模式的に示す。図4(A)は、同じ物体に対する画像地図データと点群データとの関係を模式的に示しており、図4(B)は、各位置において取得される点データの関係を模式的に示す。 図5は、局所地図データの生成を模式的に示す。 図6は、移動体の制御方法をフローチャートとして示す。
 以下、添付図面を参照して、実施形態に係る移動体の制御装置及び制御方法を説明する。同様な又は対応する要素には同一の符号を付し、重複する説明は省略する。理解を容易にするために、図の縮尺を変更して説明する場合がある
 図1は、実施形態に係る移動体10を示す概略的な側面図を示す。ここでは、移動体10の一例として、工場100(図2参照)等において、産業用途で使用されており、人間が運転操作を行わなくても自律で走行(移動)することができる車両が示されている。
 具体的には、移動体10は、AGVとされている。移動体10は、車両本体11と、1つ又は複数の車輪12と、1つ又は複数のロータリエンコーダ13と、アーム14と、センサ15と、カメラ16と、移動体10の自律走行を制御するための制御装置20と、を備えている。制御装置20は、移動体10のいくつかの構成要素を制御するために、これらの構成要素と有線又は無線によって、通信可能に接続されている。なお、上記構成に限らず、移動体10は、他の構成要素を更に備えてもよい。
 車両本体11の下方側には、移動のための車輪12が設けられており、車輪12は、これを回転させるための、例えば、サーボモータ等の駆動装置(図示省略)と連結されている。また、車輪12の回転数を検出するために、ロータリエンコーダ13が、車輪12毎に車輪12に隣接して配置されている。ロータリエンコーダ13は、検出した回転数を制御装置20に送信するために、有線又は無線によって、制御装置20と通信可能に接続されている。
 アーム14は、例えば、多軸多関節型ロボットとされており、車両本体11の上部に取り付けられている。アーム14の先端には、工具T又はワークW等(共に、図2参照)の物品を保持するためのハンド18、グリッパ又はチャック等が設けられている。また、アーム14の先端側には、カメラ16が設けられている。カメラ16は、CMOSカメラ又はCCDカメラとされているが、これ限らず、カラーカメラ又は白黒カメラとされてもよい。カメラ16は、有線又は無線によって、制御装置20と通信可能に接続されている。これにより、カメラ16は、取得した画像を制御装置20に送信することができ、制御装置20は、カメラ16によって取得された画像に基づいて、アーム14の駆動装置(図示省略)に対して指令を送信することができる。
 車両本体11の前方側には、移動体10の周囲における物体の有無を検出するために、レーザセンサ等のセンサ15が取り付けられている。なお、車両本体11の周囲又は中心にセンサ15が取り付けられてもよい。センサ15は、例えば、センサ15から発射したレーザが物体に当たって、戻ってくるまでの時間によって、移動体10の周囲における物体の有無及び当該物体までの距離を測定することができる。また、センサ15は、測定した物体までの距離等のデータを制御装置20に送信するために、有線又は無線によって、制御装置20と通信可能に接続されている。なお、以下の説明では、センサ15は、車両本体11の前方側に取り付けられているとして説明するが、これに限らず、例えば、アーム14等の移動体10の他の部分や車両本体11の他の位置に取り付けられてもよい。さらに、センサ15は、レーザセンサであるとして説明するが、これに限らず、例えば、デプスカメラ等の他の種類のセンサが設けられてもよい。
 図2には、移動体10が移動する工場100内の概略的な平面図を示す。本実施形態に係る移動体10は、1つ又は複数の工作機械50が設けられた工場100内を移動する。工場100には、1つ又は複数の工作機械50と、1つ又は複数のストッカ60と、1つ又は複数のテーブル70と、工場管理システム90と、が設けられている。なお、工場100には、これらに限らず、他の設備が設けられてもよい。また、以下の説明では、移動体10は、工場100内を移動するものとして説明するが、これに限らず、例えば、倉庫等の他の施設内を移動するように構成されてもよい。
 工場100内には、工作機械50として、マシニングセンタが設けられている。このため、工作機械50は、工具TによってワークWを加工するための主軸51と、複数の工具Tを格納するためのツールマガジン52と、を備えている。工場内の所定の場所には、ワークW又は、例えば、工具等の他の物品を保管するためのストッカ60が配置されている。また、テーブル70上には、工具T又は、例えば、ワークW等の他の物品が配置されている。なお、ここでは、工作機械50として、マシニングセンタが設けられているとして説明したが、これに限らず、マシニングセンタ以外の他の工作機械が設けられてもよい。さらに、ここでは、工作機械50は、主軸51と、ツールマガジン52と、を備えているとして説明したが、これに限らず、工作機械は、更に他の構成要素を備えていてもよい。
 また、工場100内には、工場100内のいくつかの構成要素(設備)を制御するための工場管理システム90が設けられている。工場管理システム90は、PLC(Programmable Logic Controller)、PC(Personal Computer)、サーバー、又は、タブレット等を含んで構成されている。また、工場管理システム90は、プロセッサ、記憶部、表示装置、及び、入力装置等を有する。工場管理システム90は、有線又は無線によって、工場100において制御する必要のある構成要素と通信可能に接続されている。
 工場100内は、1つ又は複数の壁80によって仕切られており、移動体10は、壁80や工作機械50等の工場100内に配置された設備と衝突しないように、壁80によって仕切られた床の上を移動する。具体的には、移動体10は、工作機械50、ストッカ60、及び、テーブル70等の間を自律的に移動し、これらの間でワークW、工具T、又は、他の物品を搬送するように構成されている。工場管理システム90は、目的地を含む様々な指令を移動体10に送信することができ、移動体10は、工場管理システム90からの指令に基づいて工場100内を移動することができる。
 図3は、移動体10の制御装置20の構成についてのブロック図を示す。制御装置20は、制御部としてのプロセッサ30と、記憶装置40と、インタフェース45と、を含んで構成されて。制御装置20は、PLC又はPC等を含んで構成されてもよい。プロセッサ30は、例えば、1つ又は複数のCPU等によって構成されており、後述するように、移動体10の移動を制御する。また、記憶装置40は、例えば、1つ又は複数のハードディスクドライブ、ROM(read only memory)及び/又はRAM(random access memory)等を含んで構成されている。さらに、インタフェース45は、例えば、I/Oポート等によって構成されている。これらの制御装置20の構成要素は、図示しないバスによって互いに接続されている。
 制御装置20は、更に他の構成要素を含んで構成されてもよく、具体的には、液晶ディスプレイ及び/又タッチパネル等の表示装置、及び、マウス、キーボード及び/又タッチパネル等の入力装置を備えてもよい。
 プロセッサ30は、移動体10の移動を制御するための構成として、局所地図生成部31と、移動経路切り替え部32と、位置推定部33と、ロケーション登録部34、速度制御部35と、を備えている。これらの構成部分は、具体的には、プロセッサ30と移動体10に組み込まれた回路又はオペレーティングシステム等によって実行される。オペレーティングシステムとしては、例えば、米国のオープンソースロボティクス財団によって管理されるROS(Robot Operating System)のような、ロボット用に開発された様々なオペレーティングシステムが使用されてもよい。なお、これらに限らず、移動体10に組み込まれたプログラムを用いて実行されてもよい。プログラムは、プロセッサ30に直接記録されていてもよく、記憶装置40に記憶されたプログラムをプロセッサ30から呼び出して実行されてもよい。
 記憶装置40は、移動体10が、出発地点から目的地への移動を開始する前に、制御装置20によって、予め計測されたスキャンデータ130及び生成された画像地図データ120を記憶する。記憶装置40には、移動制御の直前に予め計測されたスキャンデータ130及び生成された画像地図データ120に限らず、過去の移動制御において計測、生成されたデータ130、140も記憶されている。記憶されているスキャンデータ130及び画像地図データ120には、時間、場所等のインデックスが付されており、記憶装置40には、これらのインデックスを用いて検索可能なデータベースが構築されている。
 ここで、画像地図データ120とは、移動体10の自己位置や移動体10の目的地へ向けた移動量(速度)及び移動方向を決定するための移動体10の移動経路における環境全体の情報である。環境全体の情報とは、具体的には、環境全体を細かい格子状に区切り、各格子を「障害物」、「障害物なし」、「未観測」の3つに分類された情報である。画像地図データ120は、移動体10が、目的地まで自律移動する前に予め生成する必要があり、一般的には、SLAM(Simultaneous Localization and Mapping)手法を用いて生成される。SLAM手法によれば、1)移動体10の自己位置を推定する。2)移動体10の自己位置を推定するのと同時に、推定した自己位置から工場100全体の環境をセンシングする。3)センシングした範囲の格子を「障害物」又は「障害物なし」に分類する。4)移動体10は、工場100内の別の地点へ移動し、自己位置を推定すると共に、推定した自己位置から工場100全体の環境をセンシングする。5)移動体10は、画像地図データ120を生成するのに十分な範囲を網羅するまで、工場100内を移動して、1)~4)を繰り返す。このようなステップで、移動体10は、画像地図データ120の生成を行う。ここでは、移動体10に設けられたセンサ15によって取得されたデータに基づいて画像地図データ120が生成される。このとき、移動体10の工場100内における移動は、オペレータによって手動で操作されてもよく、又は、予め移動体10に入力した地図データに基づき移動体10が自律走行してもよく、又は、作成中の画像地図に基づき自動的に移動経路を算出し、移動体10が自律走行してもよい。生成された画像地図データは、記憶装置40に記憶される。
 また、スキャンデータ130とは、移動体10のセンサ15によって、一定の頻度/間隔でスキャン(測定)された点の集合(点群)である。具体的には、移動体10は、工場100内を移動し、工場100内の各地点(位置)において、センサ15から、一定のインターバルで、工場100内における工作機械50、ストッカ60、テーブル70及び壁80等の物体にレーザを照射する。物体に当たったレーザが戻ってくるまでの時間を測定することによって、移動体10とこれらの物体との間隔(距離)を測定することができる。移動体10は、工場100内の各位置において、そこから照射できる範囲内での点データ132を取得する。このように計測した点データ132を集約(位置合わせ)することによって、工場100内に配置された各物体表面の形状を点データ132の集合体であるスキャンデータ130として認識することができる。点データ132の位置合わせには、ICP(Iterative Closest Point)等の手法が用いられる。一方、センサ15によって検出されない領域(例えば、物体が配置されていない単なる空間)のデータは、スキャンデータ130には含まれない。通常、スキャンデータ130は、移動体10の自己位置(ここでは、レーザを照射した位置)データと併せて取得するため、移動体10の重心を基準とする座標値(u、v、w座標)として得られるスキャンデータ130の各点データ132は、例えば、工場100内の基準点に対する座標値(x、y、z座標)へ座標変換することができる。このように取得されるスキャンデータ130の精度は、センサ15の分解能に依存する。生成されたスキャンデータ130は、記憶装置40に記憶される。
 図4(A)及び図4(B)に、工場内100内において、移動体10により生成される画像地図データ120及びスキャンデータ130を模式的に示す。図中に示された例では、移動体10は、工場100内の壁80に沿って移動しており、時間T1からT2、さらに、T3までの間における移動体10が同じ図中にまとめて示されている。移動体10の制御装置20は、各時間(各位置)において、センサ15によって取得された工場100内のスキャンデータに基づいて、画像地図データ120を生成する。図4(A)中には、壁80に相当する「障害物」としての画像地図データ120が示されている(図中の黒四角部分)。なお、「障害物なし」及び「未観測」に相当するデータは、図中には明示的に示されていないが、「障害物」についてのデータと共に画像地図データ120に含まれている。
 図4(B)には、各時間(各位置)において取得された点データ132の関係を示すために、図中における移動体10の進行方向(U方向)の位置を合わせた上で、図4(A)中に示されている各時間の点データ132を分離して示す。同じく図中には、各時間における移動体10も示す。図中に示されるように、各時間(各位置)で計測できる点データ132の範囲は、空間的に制限されるため、各位置で取得した点データ132を集約してスキャンデータ130を生成する。このとき、図4(A)に示されるように、点データ132は、工場100内の同じ物体(位置)であっても、完全に一致することなく、点データ132同士の誤差を生じ得る。このため、ICP等の手法によって、誤差を最小化するように位置合わせされる。
 スキャンデータ130及び画像地図データ120が、記憶装置40に記憶された状態で、例えば、オペレータや工場管理システム90から移動指令を受けると、移動体10は、画像地図データ120上において、出発地点の座標値から目的地の座標値までの全体経路を生成する。また、目的地の座標値は、予め入力された位置、又は、工場管理システム90から指令された位置を目的地としてもよい。全体経路を生成した移動体10は、画像地図データ120を参照しながら、車両本体11に配置された駆動回路17を制御して、車輪12を回転させることにより、自律移動を開始する。図3に示されるように、制御装置20は、局所地図生成部31を備えており、局所地図生成部31は、出発地点を出発して、目的地の周辺に到達するまでの間に、スキャンデータ130から、目的地の周辺の局所地図データ140を生成することができる。
 ここで、局所地図データ140は、目的地から最短の位置におけるスキャンデータ130を基準データとすると共に、目的地の周辺におけるスキャンデータ130だけを統合することによって、生成することができる。具体的には、制御装置20は、記憶装置40に記憶されている(データベースに登録されている)、移動体10のスキャンデータ130を検索して、目的地から最短の位置にあるスキャンデータ130を特定すると共に、特定されたスキャンデータ130から所定の範囲内にあるスキャンデータ130を抽出する。そして、目的地から最短の位置におけるスキャンデータ130を基準にして、所定の範囲内にあるスキャンデータ130をICP手法等に基づいて位置合わせし、統合したデータを局所地図データ140としている。
 図5には、抽出方法の一例を示す。ここでは、特定された移動体10の自己位置から半径dの範囲内に位置するスキャンデータ130だけを抽出して、局所地図データ140が生成されている。目的地から最短の位置にある自己位置に対応するスキャンデータ130を基準にすると共に、自己位置から所定の範囲内にあるスキャンデータ130だけを使用することによって、局所地図データ140を生成する際の誤差の蓄積を抑制することができる。さらに、局所地図データ140は、目的地の周辺におけるスキャンデータ130だけを抽出するため、処理するデータ数を低減することができる。これにより、移動体10の自己位置推定の時間を、短縮することができる。
 なお、以下の説明では、目的地の周辺におけるスキャンデータ130とは、特定された自己位置から半径dの範囲内に位置するスキャンデータ130であるとして説明するが、これに限らない。例えば、移動体10の特定された自己位置から半径dの範囲内、かつ、移動体10の進行方向を基準として、平面視で所定の角度(所定の方位)の範囲内のスキャンデータ130が抽出されてもよい。また、スキャンデータ130を抽出する、特定された自己位置からの所定の範囲は、目的地の周辺に配置された物体の量、空間の広さ等に応じて、適宜決定されてよい。
 移動体10が、目的地の周辺に到着すると、制御装置20の移動経路切り替え部32は、移動体10が参照するデータを画像地図データ120から局所地図データ140に連続的に切り替えることができる。位置推定部33は、スキャンデータ130を使用して、移動体10の自己位置を推定する。具体的には、移動体10の現在地におけるスキャンデータ130と局所地図データ140とを対比する(位置合わせする)ことによって、移動体10の現在地における座標値を求める。これにより、移動体10の制御装置20は、局所地図データ140及び画像地図データ120の一方又は両方を使用して、目的地の周辺から目的地までの移動制御を行うことができる。位置推定部33は、移動体10の現在地における座標値が登録された局所地図データ140及び画像地図データ120の一方又は両方を使用して、移動体の位置決めを行う。具体的には、予め生成した全体経路からのずれを算出することによって、移動体10が、全体経路に沿って目的地へ移動するための、移動体10の移動量及び方位(方向)を算出する。
 本実施形態(本発明)で高精度位置決めを行う場合は、画像地図データ120作成後、ロケーション登録部34において局所地図データ140での目的地の座標値を取得する。具体的には、移動体10が目的地に移動後、画像地図データ120上で現在地における座標の近傍となるスキャンデータ130をデータベースから取得し、周辺のスキャンデータ130を用いて局所地図データ140を生成する。生成した局所地図データ140に対して、現在地におけるスキャンデータ130の位置合わせを行うことによって、局所地図データ140上での現在地における座標値を算出し、画像地図データ120と局所地図データ140上での現在地における座標値をロケーション登録部34に登録する。また、座標値については、画像地図データ120だけでなく、スキャンデータ130上での座標値も登録することができる。
 速度制御部35は、算出された移動体10の移動量に基づいて移動体10の移動速度を設定する。さらに、速度制御部35は、設定された移動速度から各車輪12の回転数を設定し、駆動回路17を介して車輪12へ伝達する(図2及び図3参照)。また、速度制御部35は、例えば、移動体10が参照するデータを局所地図データ140に切り替えた直後の移動体10の移動速度が、移動体10が参照するデータを切り替える直前の速度と所定の閾値以上の差を生じる場合は、例えば、移動速度を減速する、又は、大きな加速度が生じない程度に増速する等のように、移動速度の差が小さくなるように修正する。
 本発明の作用及び効果について、図6のフローチャートに基づいて説明する。
 ステップS10では、起動された移動体10は、工場100内を移動して、工場100内における自己位置、すなわち、工場100内の基準点に対する位置(x、y、z座標値)及び工場100内の基準座標系(xyz座標系)に対する姿勢(方位)のデータを取得する。また、ステップS20では、自己位置データを取得した位置において、センサ15により取得したデータから画像地図データ120を生成すると共に、センサ15を用いて工場100内に設置及び配置された物体をスキャンすることによって、スキャンデータ130を生成する。ステップS10及びステップS20は、移動体10の自律移動に必要な領域を網羅するまで繰り返される。完成した画像地図データ120及びスキャンデータ130は、記憶装置40に記憶される。なお、例えば、既に移動経路を含むデータ120、130が記憶装置40のデータベースに登録されている場合は、ステップS10及びステップS20は、省略されてもよい。
 ステップS30では、移動体10は、画像地図データ120上において、出発地点の座標値から目的地の座標値までの全体経路を生成する。全体経路を生成した移動体10は、画像地図データ120を参照しながら、車両本体11に配置された駆動回路17を制御して、自律移動を開始する。ステップS40では、制御装置20は、移動体10の自律移動の開始前又は開始と同時に、生成した全体経路及び画像地図データ120に基づいて、局所地図データ140の使用の有無(要否)を決定する。局所地図データ140を使用しない場合は、ステップS50において、移動体10は、画像地図データ120だけを参照して、目的地まで移動する。
 局所地図データ140を使用する場合は、ステップS60へ移行し、移動体10は、出発地点を出発後、目的地の周辺に到達するまでの間に、局所地図データ140を生成する。これにより、目的地の周辺において停止する必要がなくなるため、移動体10の自己位置推定を、効率よく行うことができると共に、移動体10の出発地点から目的地への移動時間を短縮することができる。
 局所地図データ140は、目的地から最短の位置におけるスキャンデータ130を基準データとすると共に、目的地の周辺におけるスキャンデータ130だけを抽出することによって、生成することができる。例えば、制御装置20は、記憶装置40に記憶されている(データベースに登録されている)、移動体10の自己位置のデータを検索して、目的地から最短の位置にあるスキャンデータ130を特定すると共に、特定されたスキャンデータ130から所定の範囲内にあるスキャンデータ130を抽出する。これにより、局所地図データ140の誤差の蓄積を抑制することができる。また、局所地図データ140は、目的地の周辺におけるスキャンデータ130だけを抽出するため、処理するデータ数を低減し、移動体10の自己位置推定の時間を、短縮することができる。
 ステップS70において、移動体10は、局所地図データ140の生成後も、目的地の周辺までは、画像地図データ120だけを参照して移動する。ステップS80では、目的地の周辺に到着した移動体10の制御装置は、参照する地図データを画像地図データ120から局所地図データ140へ切り替える。これにより、移動体10は、スキャンデータを使用して自己位置推定及び位置決めを行うことができるため、移動体の自己位置推定の精度を向上した上で、目的地の周辺から目的地まで移動することができる。
 ステップS90では、速度制御部35は、移動体10が参照するデータを局所地図データ140に切り替えた直後の移動体10の移動速度が、切り替える直前の速度と所定の閾値以上の差を生じる場合は、例えば、移動速度を減速する、又は、大きな加速度が生じない程度に増速するように修正する。これにより、移動体10の加速度が大きくなることを抑制し、例えば、移動体10の架台上の積載物に衝撃が生じることを抑制することができる。
 ステップS100では、移動体10は、局所地図データ140を参照して目的地まで移動を続け、目的地に到着すると、ステップS110において、移動体10は、停止する。
 以上の方法を通じて、移動体を制御することによって、移動体の自己位置推定の精度向上と共に、自己位置推定の効率化を図ることができる。
 移動体の制御装置及び制御方法の実施形態について説明したが、本発明は上記の実施形態に限定されない。当業者が想到する範囲において、上記の実施形態の様々な変形が本発明の実施形態に含まれる。
 10    移動体
 15    センサ
 20    制御装置
 30    プロセッサ(制御部)
 31    局所地図生成部
 40    記憶装置
 120   画像地図データ
 130   スキャンデータ
 140   局所地図データ

Claims (6)

  1.  周囲の物体の有無を検出するセンサを有しており、出発点から目的地まで自律的に移動する移動体において、
     前記センサによって検出されたスキャンデータ及び前記移動体が移動する領域の画像地図データを記憶する、記憶装置と、
     前記スキャンデータから、前記目的地の周辺の局所地図データを生成する、局所地図生成部と、
     前記画像地図データに基づいて、前記移動体を前記出発点から前記目的地の周辺まで移動させている間に、前記画像地図データに基づいた移動制御から前記局所地図データに基づいた移動制御に連続的に切り替える、制御部と、
     を具備する、移動体の制御装置。
  2.  前記局所地図データは、前記目的地の周辺における前記移動体の自己位置と、前記スキャンデータと、から生成される、請求項1に記載の移動体の制御装置。
  3.  前記目的地の周辺の移動制御において、前記移動体の位置及び経路に基づき求めた前記移動体の移動速度が、前記移動体の直前の移動速度と所定の閾値以上の差を生じる場合は、移動速度の差が小さくなるように該移動速度を変更する、速度制御部を備えた、請求項1又は請求項2に記載の移動体の制御装置。
  4.  周囲の物体の有無を検出するセンサを有する移動体を、出発点から目的地まで自律的に移動させるための制御方法であって、
     前記センサによって検出されたスキャンデータ及び前記移動体が移動する領域の画像地図データを、前記移動体に記憶させるステップと、
     前記スキャンデータから、前記目的地の周辺の局所地図データを生成するステップと、
     前記画像地図データに基づいて、前記出発点から前記目的地の周辺まで前記移動体を移動させるステップと、
     前記移動体が、前記画像地図データに基づいた移動制御から前記局所地図データに基づいた移動制御に連続的に切り替えて、前記目的地の周辺から前記目的地まで前記移動体を移動させるステップと、
     を具備する、移動体の制御方法。
  5.  前記局所地図データは、前記目的地の周辺における前記移動体の自己位置と、前記スキャンデータと、から生成される、請求項4に記載の移動体の制御方法。
  6.   前記目的地の周辺の移動制御において、前記移動体の位置及び経路に基づき求めた前記移動体の移動速度が、前記移動体の直前の移動速度と所定の閾値以上の差を生じる場合は、移動速度の差が小さくなるように該移動速度を変更するステップを備えた、請求項4又は請求項5に記載の移動体の制御方法。
PCT/JP2021/027771 2020-09-30 2021-07-27 移動体の制御装置及び制御方法 WO2022070575A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-165826 2020-09-30
JP2020165826A JP7155216B2 (ja) 2020-09-30 2020-09-30 移動体の制御装置及び制御方法

Publications (1)

Publication Number Publication Date
WO2022070575A1 true WO2022070575A1 (ja) 2022-04-07

Family

ID=80951290

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/027771 WO2022070575A1 (ja) 2020-09-30 2021-07-27 移動体の制御装置及び制御方法

Country Status (2)

Country Link
JP (1) JP7155216B2 (ja)
WO (1) WO2022070575A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011063643A (ja) * 2009-09-15 2011-03-31 Jfe Steel Corp コークス炉用移動機械の走行制御方法
JP5157803B2 (ja) * 2008-10-06 2013-03-06 村田機械株式会社 自律移動装置
JP5803392B2 (ja) * 2011-08-01 2015-11-04 株式会社豊田中央研究所 自律移動装置
JP2019179497A (ja) * 2018-03-30 2019-10-17 日本電産シンポ株式会社 移動体および移動体システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019220035A (ja) 2018-06-22 2019-12-26 株式会社明電舎 無人搬送車、無人搬送車の大域地図作成システム及び大域地図作成方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5157803B2 (ja) * 2008-10-06 2013-03-06 村田機械株式会社 自律移動装置
JP2011063643A (ja) * 2009-09-15 2011-03-31 Jfe Steel Corp コークス炉用移動機械の走行制御方法
JP5803392B2 (ja) * 2011-08-01 2015-11-04 株式会社豊田中央研究所 自律移動装置
JP2019179497A (ja) * 2018-03-30 2019-10-17 日本電産シンポ株式会社 移動体および移動体システム

Also Published As

Publication number Publication date
JP2022057524A (ja) 2022-04-11
JP7155216B2 (ja) 2022-10-18

Similar Documents

Publication Publication Date Title
US11241796B2 (en) Robot system and method for controlling robot system
EP3552775B1 (en) Robotic system and method for operating on a workpiece
JP6811258B2 (ja) ロボット車両の位置測定
US9244463B2 (en) Automated guided vehicle and method of operating an automated guided vehicle
US20180120465A1 (en) Methods and Systems for Pallet Detection
JP6661001B2 (ja) ワークオフセットを決定するシステムおよび方法
JP6802137B2 (ja) 搬送車システム、搬送車制御システム及び搬送車制御方法
JP5549223B2 (ja) ロボットの制御装置および制御方法、ロボットシステム
CN110849366A (zh) 一种基于视觉和激光雷达融合的导航方法及系统
KR20180015774A (ko) 로봇 제어 방법 및 장치
Seelinger et al. Automatic pallet engagment by a vision guided forklift
JPWO2016113836A1 (ja) マニプレータ制御方法、システム、およびマニプレータ
US11478932B2 (en) Handling assembly comprising a handling device for carrying out at least one work step, method, and computer program
WO2022070575A1 (ja) 移動体の制御装置及び制御方法
Cong Combination of two visual servoing techniques in contour following task
JP7049411B2 (ja) 移動体
EP4094904B1 (en) Robot system control device, robot system control method, computer control program, and robot system
US11370124B2 (en) Method and system for object tracking in robotic vision guidance
US20220339788A1 (en) Method and system for positioning sensors within a workspace
WO2018180175A1 (ja) 移動体、信号処理装置およびコンピュータプログラム
WO2022168377A1 (ja) 荷物搬送システム、並びに荷物搬送システムにおいて用いられる方法およびコンピュータプログラム
KR20180125935A (ko) 로봇 제어 방법 및 장치
US20230286143A1 (en) Robot control in working space
US20230264352A1 (en) Robot device for detecting interference of constituent member of robot
Fujita et al. Gripping position detection of a box-shaped object using a RGB-D sensor by tracked mobile robot with two manipulators

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21874879

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21874879

Country of ref document: EP

Kind code of ref document: A1