WO2018212099A1 - Mobile computer for controlling motion of mobile body, mobile body control system, and computer program - Google Patents

Mobile computer for controlling motion of mobile body, mobile body control system, and computer program Download PDF

Info

Publication number
WO2018212099A1
WO2018212099A1 PCT/JP2018/018362 JP2018018362W WO2018212099A1 WO 2018212099 A1 WO2018212099 A1 WO 2018212099A1 JP 2018018362 W JP2018018362 W JP 2018018362W WO 2018212099 A1 WO2018212099 A1 WO 2018212099A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobile
widget
travel
data
touch
Prior art date
Application number
PCT/JP2018/018362
Other languages
French (fr)
Japanese (ja)
Inventor
信也 安達
麻衣子 龍
悠平 角宮
赤松 政弘
Original Assignee
日本電産シンポ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電産シンポ株式会社 filed Critical 日本電産シンポ株式会社
Priority to JP2019518752A priority Critical patent/JP6794539B2/en
Publication of WO2018212099A1 publication Critical patent/WO2018212099A1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot

Definitions

  • the present disclosure relates to a mobile computer, a mobile control system, and a computer program that control the operation of a mobile.
  • AGV Automatic Guided Vehicle
  • Patent Document 1 discloses a mobile body having a tag communication unit.
  • a tag communication unit In the travel target area, a plurality of IC tags each having position information are arranged in a distributed manner.
  • the tag communication unit performs wireless communication with the IC tag and reads position information of the IC tag. Thereby, the moving body can acquire information on the current position and perform automatic traveling.
  • Patent Document 2 discloses a system for moving an AGV to a designated position.
  • the AGV reads a location marker representing a position and moves to a designated position
  • the AGV corrects it using its own navigation system if the position is shifted.
  • Patent Document 3 discloses a technique for determining the position of an address mark by simulation prior to laying the address mark on a course on which an AGV runs.
  • the IC tag or location marker necessary for detecting the position is placed in advance in the traveling area of the AGV, and the route on which the AGV can travel is determined. About. When it becomes necessary to change the position of the IC tag or the location marker at the site after starting the operation of the AGV, it takes a great deal of work for the change.
  • One non-limiting exemplary embodiment of the present application provides a technique that makes it possible to easily perform AGV setting, travel route setting, change, and the like on site.
  • the mobile computer of the present disclosure is a mobile computer that receives input from a user via a graphical user interface (GUI) and controls the operation of the mobile body, and communicates with the mobile body
  • GUI graphical user interface
  • a touch screen panel that outputs data of a detection position and a processing circuit that performs travel control or setting processing of the moving body associated with the widget arranged at the detection position in response to the detection of the touch.
  • the GUI includes at least one operation widget for travel control of the mobile body, A map creation widget for causing the mobile body to create a map of the space, a capture widget for creating a travel route of the mobile body by specifying a passing position of the mobile body, and one or more created A route selection widget for selecting one travel route from the travel routes is included.
  • the mobile computer includes a display device that displays a GUI, and a touch screen panel that detects a touch on the display device by a user and outputs data of a detection position. Since the GUI includes a plurality of widgets associated with traveling control or setting processing of the moving body, the user can control various operations of the moving body with intuitive operations.
  • FIG. 1 is a diagram illustrating an overview of a control system 100 that controls traveling of each AGV according to the present disclosure.
  • FIG. 2 is an external view of an exemplary AGV 10 according to the present embodiment.
  • FIG. 3 is a diagram illustrating a hardware configuration of the AGV 10.
  • FIG. 4 is a diagram illustrating a hardware configuration of the tablet computer 20.
  • FIG. 5 is a view showing an example of a GUI image displayed on the display 25 of the tablet computer 20.
  • FIG. 6A is a diagram illustrating an example of manual operation of the AGV 10 using the forward button 30a.
  • FIG. 6B is a diagram illustrating an example of manual operation of the AGV 10 using the forward button 30a.
  • FIG. 7A is a diagram illustrating an example of manual operation of the AGV 10 using the right turn button 30c.
  • FIG. 7B is a diagram illustrating an example of manual operation of the AGV 10 using the right turn button 30c.
  • FIG. 8A is a diagram illustrating an example of manual operation of the AGV 10 using the joystick type slider 31.
  • FIG. 8B is a diagram illustrating an example of manual operation of the AGV 10 using the joystick type slider 31.
  • FIG. 9 is a diagram illustrating an example of the sliding direction ⁇ and the sliding amount d of the joystick-type slider 31.
  • FIG. 10A is a diagram showing an AGV 10 that generates a map while moving.
  • FIG. 10B is a diagram illustrating the AGV 10 that generates a map while moving.
  • FIG. 10A is a diagram showing an AGV 10 that generates a map while moving.
  • FIG. 10C is a diagram illustrating the AGV 10 that generates a map while moving.
  • FIG. 10D is a diagram illustrating the AGV 10 that generates a map while moving.
  • FIG. 10E is a diagram showing the AGV 10 that generates a map while moving.
  • FIG. 10F is a diagram schematically showing a part of the completed map 60.
  • FIG. 11 is a diagram showing an example of a procedure for creating a travel route using the capture button 33 (FIG. 5).
  • FIG. 12 is a diagram showing the capture button 33 on which a number icon 33a indicating the number of markers set is displayed.
  • FIG. 13A is a diagram illustrating an example of marker data included in certain travel route data R.
  • FIG. 13B is a diagram illustrating an example of marker data in which richer data than the example of FIG. 13A is set.
  • FIG. 14 is a diagram showing a display example of a plurality of travel routes R1 to R3 displayed on the display 25 after touching the route selection button 35 (FIG. 5).
  • FIG. 15 is a diagram showing an example of an image of a GUI (initial GUI) immediately after an application for controlling the AGV 10 is started on the tablet computer 20.
  • GUI initial GUI
  • a tablet computer 20 is given as an example of a mobile computer.
  • Other examples of the mobile computer are a smartphone and a laptop PC.
  • an automatic guided vehicle is mentioned as an example of a moving body.
  • the automatic guided vehicle is called AGV (Automated Guided Vehicle) and is also described as “AGV” in this specification.
  • FIG. 1 shows an overview of a control system 100 that controls the running of each AGV according to the present disclosure.
  • the control system 100 includes an AGV 10 and a tablet computer 20.
  • the AGV 10 and the tablet computer 20 are connected, for example, in a one-to-one manner and perform communication conforming to the Bluetooth (registered trademark) standard, or Wi-Fi (registered) using one or a plurality of access points 2a, 2b, etc. (Trademark) is performed.
  • the plurality of access points 2 a and 2 b are connected to the switching hub 3. By transferring the data frame via the switching hub 3, bidirectional communication between the AGV 10 and the tablet computer 20 is realized.
  • User 1 uses tablet computer 20 to control the operation of AGV 10. Specifically, the user 1 uses the tablet computer 20 to cause the AGV 10 to create a map of the traveling space S, set or change the travel route of the AGV 10 after creating the map, and manually run the AGV 10. it can.
  • the operation of the tablet computer 20 by the user 1 is performed via a graphical user interface (hereinafter referred to as “GUI”).
  • GUI graphical user interface
  • the GUI is realized by the display of the tablet computer 20 and the touch screen panel.
  • the GUI includes a plurality of widgets.
  • “Widget” means a user interface component displayed on a display such as a GUI button, slider, icon, or the like.
  • the user interface component is sometimes called a “UI part”.
  • Each widget is associated with a travel control operation for traveling the AGV 10, or setting processing such as map creation, travel route setting or change.
  • the tablet computer 20 receives an input from the user 1 via the GUI and performs a traveling control operation or a setting process. Details of the GUI will be described later.
  • AGV 10 Although one AGV 10 is shown in FIG. 1, a plurality of AGVs may be used.
  • the user 1 can select one AGV 10 from a plurality of registered AGVs via the GUI of the tablet computer 20 and perform a travel control operation or a setting process.
  • FIG. 2 is an external view of an exemplary AGV 10 according to the present embodiment.
  • the AGV 10 includes four wheels 11a to 11d, a frame 12, a transport table 13, a travel control device 14, and a laser range finder 15.
  • the AGV 10 also has a plurality of motors, which are not shown in FIG. 2 shows the front wheel 11a, the rear wheel 11b, and the rear wheel 11c, but the front wheel 11d is not clearly shown because it is hidden behind the frame 12.
  • the traveling control device 14 is a device that controls the operation of the AGV 10, and mainly includes an integrated circuit including a microcomputer (described later), electronic components, and a board on which they are mounted.
  • the traveling control device 14 performs the above-described data transmission / reception with the tablet computer 20 and the preprocessing calculation.
  • the laser range finder 15 is an optical device that measures the distance to a target by, for example, irradiating the target with infrared laser light 15a and detecting the reflected light of the laser light 15a.
  • the laser range finder 15 of the AGV 10 has a pulsed laser beam while changing its direction every 0.25 degrees in a space in the range of 135 degrees to the left and right (total 270 degrees) with respect to the front of the AGV 10, for example. 15a is emitted, and the reflected light of each laser beam 15a is detected. Thereby, the data of the distance to the reflection point in the direction determined by the angle for a total of 1080 steps every 0.25 degrees can be obtained.
  • the AGV 10 can create a map of the space S based on the position and orientation of the AGV 10 and the scan result of the laser range finder 15.
  • the map may reflect the arrangement of walls, pillars and other structures around the AGV, and objects placed on the floor.
  • the map data is stored in a storage device provided in the AGV 10.
  • the position and posture of the moving body are called poses.
  • the position and orientation of the moving body in the two-dimensional plane are expressed by position coordinates (x, y) in the XY orthogonal coordinate system and an angle ⁇ with respect to the X axis.
  • the position and posture of the AGV 10, that is, the pose (x, y, ⁇ ) may be simply referred to as “position” hereinafter.
  • the position of the reflection point seen from the radiation position of the laser beam 15a can be expressed using polar coordinates determined by the angle and the distance.
  • the laser range finder 15 outputs sensor data expressed in polar coordinates.
  • the laser range finder 15 may convert the position expressed in polar coordinates into orthogonal coordinates and output the result.
  • Examples of objects that can be detected by the laser range finder 15 are people, luggage, shelves, and walls.
  • the laser range finder 15 is an example of an external sensor for sensing the surrounding space and acquiring sensor data.
  • Other examples of such an external sensor include an image sensor and an ultrasonic sensor.
  • the traveling control device 14 can estimate its current position by comparing the measurement result of the laser range finder 15 with the map data held by itself.
  • the map data may be acquired by the AGV 10 itself using a SLAM (Simultaneous Localization and Mapping) technique.
  • FIG. 3 shows the hardware configuration of AGV10.
  • FIG. 3 also shows a specific configuration of the travel control device 14.
  • the AGV 10 includes a travel control device 14, a laser range finder 15, two motors 16 a and 16 b, and a drive device 17.
  • the traveling control device 14 includes a microcomputer 14a, a memory 14b, a storage device 14c, a communication circuit 14d, and a positioning device 14e.
  • the microcomputer 14a, the memory 14b, the storage device 14c, the communication circuit 14d, and the positioning device 14e are connected by a communication bus 14f and can exchange data with each other.
  • the laser range finder 15 is also connected to the communication bus 14f via a communication interface (not shown), and transmits measurement data as a measurement result to the microcomputer 14a, the positioning device 14e, and / or the memory 14b.
  • the microcomputer 14a is a processor or a control circuit (computer) that performs calculations for controlling the entire AGV 10 including the travel control device 14.
  • the microcomputer 14a is a semiconductor integrated circuit.
  • the microcomputer 14a transmits a PWM (Pulse Width Modulation) signal, which is a control signal, to the drive device 17 to control the drive device 17 and adjust the voltage applied to the motor.
  • PWM Pulse Width Modulation
  • the memory 14b is a volatile storage device that stores a computer program executed by the microcomputer 14a.
  • the memory 14b can also be used as a work memory when the microcomputer 14a and the positioning device 14e perform calculations.
  • the storage device 14c is a non-volatile semiconductor memory device.
  • the storage device 14c may be a magnetic recording medium typified by a hard disk or an optical recording medium typified by an optical disk.
  • the storage device 14c may include a head device for writing and / or reading data on any recording medium and a control device for the head device.
  • the storage device 14c stores map data M of the traveling space S and data (travel route data) R of one or more travel routes.
  • the map data M is created by the AGV 10 operating in the map creation mode and stored in the storage device 14c.
  • the travel route data R is created by the AGV 10 operating in the route creation mode after the map data M is created, and stored in the storage device 14c.
  • the traveling route data R includes marker data indicating the marker position. “Marker” indicates the passing position (route point) of the traveling AGV 10.
  • the travel route data R includes at least a start marker indicating a travel start position and an end marker indicating a travel end position.
  • the travel route data R may further include one or more intermediate waypoints. When one or more intermediate waypoints are included, a route from the start marker to the end marker via the travel route point in order is defined as a travel route.
  • Each marker data includes the direction (angle) of the AGV 10 until moving to the next marker, the traveling speed, the acceleration time for accelerating to reach the traveling speed, and / or the deceleration time for decelerating from the traveling speed. Data can be included.
  • the AGV 10 can travel along the selected travel route while estimating its own position using the created map and the sensor data output from the laser range finder 15 acquired during travel.
  • the map data M and the travel route data R are stored in the same storage device 14c, but may be stored in different storage devices.
  • the communication circuit 14d is a wireless communication circuit that performs wireless communication based on, for example, Bluetooth (registered trademark) and / or Wi-Fi (registered trademark) standards.
  • Each standard includes a wireless communication standard using a frequency of 2.4 GHz band.
  • wireless communication conforming to the Bluetooth (registered trademark) standard is performed and communication with the tablet computer 20 is performed one-on-one.
  • the positioning device 14e receives the sensor data from the laser range finder 15 and reads the map data M stored in the storage device 14c. By comparing (matching) the local map data created from the scan result of the laser range finder 15 with a wider range of map data M, the self position (x, y, ⁇ ) on the map data M is identified. The positioning device 14e generates “reliability” indicating the degree to which the local map data matches the map data M. The self position (x, y, ⁇ ) and reliability data can be transmitted from the AGV 10 to the tablet computer 20. The tablet computer 20 can receive the self-position (x, y, ⁇ ) and reliability data and display them on a built-in display device.
  • the microcomputer 14a and the positioning device 14e are separate components, but this is an example.
  • the microcomputer 14a and the positioning device 14e may be integrated, and a single chip circuit or a semiconductor integrated circuit capable of performing each operation of the microcomputer 14a and the positioning device 14e independently may be provided.
  • FIG. 3 shows a chip circuit 14g including the microcomputer 14a and the positioning device 14e.
  • the positioning device 14e and the laser range finder 15 are assumed to be separate components, this is also an example.
  • a laser positioning system in which the positioning device 14e and the laser range finder 15 are integrated may be employed.
  • the two motors 16a and 16b are attached to the two wheels 11b and 11c, respectively, and rotate each wheel. That is, the two wheels 11b and 11c are drive wheels, respectively.
  • the motor 16a and the motor 16b are described as being motors that drive the right wheel and the left wheel of the AGV 10, respectively.
  • the drive device 17 has motor drive circuits 17a and 17b for adjusting the voltage applied to each of the two motors 16a and 16b.
  • Each of the motor drive circuits 17a and 17b is a so-called inverter circuit, and the current applied to each motor is turned on or off by the PWM signal transmitted from the microcomputer 14a, thereby adjusting the voltage applied to the motor.
  • FIG. 4 shows the hardware configuration of the tablet computer 20.
  • the tablet computer 20 includes a CPU 21, a memory 22, a communication circuit 23, an image processing circuit 24, a display 25, a touch screen panel 26, and a communication bus 27.
  • the CPU 21, the memory 22, the communication circuit 23, the image processing circuit 24, and the touch screen panel 26 are connected by a communication bus 27 and can exchange data with each other via the communication bus 27.
  • the CPU 21 is a signal processing circuit (computer) that controls the operation of the tablet computer 20.
  • the CPU 21 is a semiconductor integrated circuit.
  • the CPU 21 may be simply referred to as a “processing circuit”.
  • the memory 22 is a volatile storage device that stores a computer program executed by the CPU 21.
  • the memory 22 can also be used as a work memory when the CPU 21 performs calculations.
  • the computer program may be stored in a nonvolatile storage device (not shown) such as an EEPROM.
  • the CPU 21 reads out a computer program from the non-volatile storage device when the tablet computer 20 is activated, expands it in the memory 22 and executes it.
  • the communication circuit 23 is a wireless communication circuit that performs wireless communication based on, for example, Bluetooth (registered trademark) and / or Wi-Fi (registered trademark) standards. Similar to the communication circuit 14d of the AGV 10, in this specification, the tablet computer 20 performs wireless communication in accordance with the Bluetooth (registered trademark) standard and communicates with the AGV 10 on a one-to-one basis.
  • the communication circuit 23 receives data to be transmitted to the AGV 10 from the CPU 21 via the bus 27.
  • the communication circuit 23 transmits data (notification) received from the AGV 10 to the CPU 21 and / or the memory 22 via the bus 27.
  • the image processing circuit 24 generates an image to be displayed on the display 25 in accordance with an instruction from the CPU 21. For example, the image processing circuit 24 displays an image for the GUI, and rewrites the image on the display 25 according to the touch operation of the user 1 received via the touch screen panel 26.
  • the touch screen panel 26 can detect the touch of the user 1 performed with a finger or a pen.
  • detection methods electrostatic methods, resistive film methods, optical methods, ultrasonic methods, electromagnetic methods, and the like are known.
  • the touch screen panel 26 detects a change in capacitance at a specific position, and transmits data related to the change to the CPU 21 via the communication bus 27.
  • CPU21 judges the presence or absence of the touch by a user based on the sent data.
  • An example of “data related to change” is data of the position where the capacitance has changed and the time length that has changed.
  • “Touch” includes various operations such as short press (or tap), long press, and slide.
  • the short press is an operation of releasing the finger within a predetermined reference time after the user 1 touches the touch screen panel 26 with the finger.
  • the long press is an operation of maintaining the state without moving the finger after the user 1 touches the touch screen panel 26 and releasing the finger after a time longer than the reference time has elapsed.
  • the slide is an operation in which, after the user 1 touches the touch screen panel 26 with his / her finger, the user 1 slides left and right on the touch screen panel 26 without releasing his / her finger. is there.
  • the touch screen panel 26 is provided so as to overlap the display 25.
  • the user 1 touches the image while viewing the image displayed on the display 25.
  • the CPU 21 determines which position of the image displayed on the display 25 the detected position data output from the touch screen panel 26 indicates. As a result of the determination, the CPU 21 can execute a function associated with the image displayed at the position.
  • the CPU 21 of the tablet computer 20 can perform the travel control or setting process of the AGV 10.
  • the AGV 10 can perform manual travel that travels according to a real-time operation from the user 1 using the tablet computer 20 and automatic travel that travels according to the created travel route.
  • the user 1 can select whether to run the AGV 10 manually or automatically from the GUI of the tablet computer 20.
  • the AGV 10 and the tablet computer 20 perform communication every several hundred milliseconds to confirm that the connection is maintained. Thereby, at the time of manual driving, it is possible to realize control such as starting and stopping of driving of the AGV 10 from the tablet computer 20 in almost real time.
  • the AGV 10 stops traveling. The AGV 10 can perform manual travel via the tablet computer 20 in a state where control from the tablet computer 20 is possible.
  • FIG. 5 shows an example of a GUI image displayed on the display 25 of the tablet computer 20.
  • the GUI includes a plurality of widgets associated with the traveling control or setting process of the AGV 10.
  • the GUI includes a forward button 30a, a backward button 30b, a right turn button 30c, a left turn button 30d, a joystick-type slider 31, a map creation button 32, a capture button 33, an option setting button 34, and a route.
  • a selection button 35 is provided.
  • an area 36 for displaying the estimated self-position (x, y, ⁇ ) of the AGV 10, the reliability of estimation, etc. received from the positioning device 14e of the AGV 10 is provided.
  • the forward button 30a, the backward button 30b, the right turn button 30c, the left turn button 30d, and the joystick type slider 31 are operation widgets for controlling manual travel of the AGV 10.
  • the AGV 10 operates while the user 1 continues to touch the buttons 30a to 30d and the slider 31.
  • the joystick type slider 31 can be slid in an arbitrary direction.
  • the tablet computer 20 controls the traveling direction of the AGV 10 according to the sliding direction and sliding amount of the joystick-type slider 31 by the user 1.
  • the map creation button 32 is a widget for shifting the operation mode of the AGV 10 to a map creation mode for creating a map of the space S.
  • the capture button 33 is a widget for shifting the operation mode of the AGV 10 to a route creation mode for creating a travel route of the AGV 10.
  • the option setting button 34 is a widget for shifting to a setting mode for setting various parameters applied to the AGV 10.
  • the route selection button 35 is a widget for selecting one travel route from the created one or more travel routes.
  • FIGS. 6A and 6B show an example of manual operation of the AGV 10 using the forward button 30a.
  • the user 1 touches the forward button 30a displayed on the display 25 with a finger.
  • the CPU 21 of the tablet computer 20 determines that the coordinates of the touch position output from the touch screen panel 26 are the coordinates of the forward button 30a. Thereby, CPU21 detects that user 1 touched forward button 30a.
  • the CPU 21 When detecting a touch on the forward button 30a, the CPU 21 generates a control signal including a command for causing the AGV 10 to move straight forward.
  • the communication circuit 23 transmits the generated control signal to the AGV 10.
  • CPU21 produces
  • the microcomputer 14a of the AGV 10 receives a control signal from the tablet computer 20 via the communication circuit 14d.
  • the microcomputer 14a transmits a PWM signal to each of the motor drive circuits 17a and 17b in response to a command for running the AGV 10 forward included in the control signal.
  • the PWM signal is a signal for causing the motors 16a and 16b to rotate forward at the same rotational speed. Note that “forward rotation” means rotation in a direction in which the AGV 10 travels forward.
  • the AGV 10 goes straight as shown in FIG. 6B.
  • the CPU 21 When the touch on the forward button 30a is not detected, the CPU 21 generates a control signal including a command for stopping the traveling of the AGV 10 and transmits it to the AGV 10. Thereby, AGV10 stops driving
  • the speed at the time of going straight forward or backward may be the maximum speed of the AGV 10 or may be set in advance by the user.
  • FIG. 7A and 7B show an example of manual operation of the AGV 10 using the right turn button 30c.
  • the CPU 21 detects that the user 1 has touched the right turn button 30c. Since the detection process is similar to the detection process of the touch on the forward button 30a, the description is omitted. The description of the subsequent detection processing is also omitted.
  • the CPU 21 When detecting a touch on the right turn button 30c, the CPU 21 generates a control signal including a command for turning the AGV 10 right on the spot.
  • the communication circuit 23 transmits the generated control signal to the AGV 10.
  • CPU21 produces
  • the microcomputer 14a of the AGV 10 receives a control signal from the tablet computer 20 via the communication circuit 14d.
  • the microcomputer 14a transmits a PWM signal to each of the motor drive circuits 17a and 17b in response to a command to turn the AGV 10 included in the control signal to the right.
  • the PWM signal is a signal for rotating the motors 16a and 16b in the reverse directions.
  • the CPU 21 generates a control signal for rotating the motor 16a in the reverse direction at the same rotation speed and rotating the motor 16b in the forward direction. Thereby, as shown in FIG. 7B, the AGV 10 turns right on the spot.
  • the CPU 21 When the touch on the right turn button 30c is no longer detected, the CPU 21 generates a control signal including a command for stopping the turning of the AGV 10 and transmits the control signal to the AGV 10. Thereby, AGV10 stops turning, when the user's 1 finger
  • each motor When turning right or turning left, each motor may rotate at the highest speed, or each motor may rotate so as to have a turning speed (angular speed) set in advance by the user.
  • the setting by the user can be performed using the option setting button 34, for example.
  • the CPU 21 receives an input of the turning speed of the AGV 10.
  • CPU21 may receive the maximum speed at the time of driving
  • FIG. 8A and 8B show an example of manual operation of the AGV 10 using the joystick type slider 31.
  • the CPU 21 When detecting a touch on the joystick slider 31, the CPU 21 generates a control signal for causing the AGV 10 to travel in a direction corresponding to the sliding direction of the joystick slider 31 and at a speed corresponding to the sliding amount.
  • the user 1 slides the joystick-type slider 31 in the upper right direction. Then, the AGV 10 travels diagonally right forward as shown in FIG. 8B.
  • the joystick type slider 31 is provided so that the user 1 can intuitively operate the traveling direction and traveling speed of the AGV 10.
  • FIG. 9 shows an example of the sliding direction ⁇ and the sliding amount d of the joystick type slider 31.
  • the X axis, the Y axis, and the origin O are set.
  • the right side of the origin O is the + X direction and the upper side is the + Y direction.
  • the + Y direction is the straight direction of AGV10.
  • the + X direction is a direction directly beside the right hand of the AGV 10.
  • the CPU 21 acquires the center coordinates P (X, Y) of the joystick slider 31 that has been slid from the touch screen panel 26.
  • Vbase Vmax ⁇ d / 100
  • the motor 16a and the motor 16b are rotated at the speed shown in the following table according to the quadrant where the coordinate P exists.
  • the right wheel rotation speed V r and the left wheel rotation speed V l mean the rotation speeds of the motor 16a and the motor 16b, respectively.
  • the user 1 slides the joystick type slider 31 in the + Y direction, the ⁇ Y direction, or other directions. Then, the CPU 21 generates a control signal for causing the AGV 10 to travel in the forward direction, the backward direction, the direction along the arc, and the like according to the slide direction.
  • the user 1 can intuitively control the traveling direction of the AGV 10 and can travel at a speed corresponding to the amount of slide.
  • the CPU 21 When the CPU 21 detects a touch on the map creation button 32, the CPU 21 shifts the AGV 10 to a map creation mode for creating a map of the space S.
  • the AGV 10 scans the space S using the laser range finder 15 and creates a map using the positioning device 14e.
  • FIGS. 10A to 10F show the AGV 10 that generates a map while moving.
  • the user 1 may move the AGV 10 using the joystick-type slider 31 described above, or move the AGV 10 using the forward button 30a, the backward button 30b, the right turn button 30c, and the left turn button 30d. Also good.
  • FIG. 10A shows an AGV 10 that scans the surrounding space using the laser range finder 15. Laser light is emitted at every predetermined step angle, and scanning is performed.
  • the illustrated scan range is an example schematically shown, and is different from the above-described scan range of 270 degrees in total.
  • the position of the reflection point of the laser beam is shown using a plurality of black dots 4 represented by the symbol “ ⁇ ”.
  • the positioning device 14e accumulates the position of the black spot 4 obtained as a result of traveling, for example, in the memory 14b. By continuously scanning while the AGV 10 travels, the map is gradually completed.
  • 10B to 10E only the scan range is shown for the sake of simplicity. The scan range is an example, and is different from the above-described example of 270 degrees in total.
  • FIG. 10F schematically shows a part of the completed map 60.
  • the positioning device 14e accumulates the data of the map 60 (map data M) in the memory 14b or the storage device 14c.
  • the number or density of black spots shown in the figure is an example.
  • the user 1 can set the travel route of the AGV 10.
  • FIG. 11 shows an example of a procedure for creating a travel route using the capture button 33 (FIG. 5).
  • the CPU 21 shifts the AGV 10 to the route creation mode.
  • the user 1 moves the AGV 10 to the start position of the travel route to be newly created, and further touches the capture button 33.
  • the CPU 21 transmits to the AGV 10 a command for acquiring the pause (x, y, ⁇ ) of the AGV 10 at that time.
  • the microcomputer 14a of the AGV 10 stores the data of the pause (x, y, ⁇ ) at that time as a “marker” in the memory 14b or the storage device 14c.
  • a marker M1 in FIG. 11 indicates the travel start position of the AGV 10.
  • FIG. 12 shows the capture button 33 on which a number icon 33a indicating the number of markers set is displayed. At the time when the marker M1 is acquired, the number icon 33a indicates “1”.
  • the user 1 moves the AGV 10 to the next passing position on the travel route and touches the capture button 33.
  • the microcomputer 14a of the AGV 10 stores the data of the pose (x, y, ⁇ ) at that time in the memory 14b or the storage device 14c in accordance with the command of the tablet computer 20.
  • the AGV 10 sequentially acquires the poses (x, y, ⁇ ) of the AGV 10 at each passing position on the travel route.
  • the markers M2 to M4 in FIG. 11 indicate the passing points acquired in this way.
  • the creation of the travel route is completed.
  • the marker M5 represents the travel end position.
  • the user 1 may be able to attach a route name for determining the travel route.
  • Markers M1, M2,..., M5 indicate the passage path of AGV10 from marker M1 to marker M5 via markers M2,.
  • the AGV 10 moves from the travel start position to the travel end position by changing the position and orientation pose in the order in which each marker data is acquired.
  • the travel route data R can be defined as a set of a plurality of markers.
  • the created travel route data R is stored in the storage device 14c.
  • FIG. 13A shows an example of marker data included in a certain travel route data R.
  • Each marker indicated by numbers M1 to M5 has marker data including an X coordinate, a Y coordinate, and an angle ⁇ .
  • the position of the marker M3 is the same as the position of the marker M2.
  • the AGV 10 is acquired as a different marker by turning left by an angle ⁇ from the pose at the marker M2.
  • FIG. 13B shows an example of marker data in which abundant data is set as compared with the example of FIG. 13A.
  • the marker data of some markers has data on travel speed, acceleration time, and deceleration time.
  • the “traveling speed” indicates the traveling speed of the AGV 10 from the position indicated by the k-th (k: 1 or larger) marker data to the position indicated by the (k + 1) -th acquired marker data.
  • the “acceleration time” is an acceleration time for accelerating until reaching the traveling speed
  • the “deceleration time” is a deceleration time for decelerating from the traveling speed. Note that the traveling speed, acceleration time, and deceleration time need not always be set simultaneously. Like the marker M2, there may be a case where none of the traveling speed, acceleration time, and deceleration time is set, and any one or more of the traveling speed, acceleration time, and deceleration time may be set.
  • the user 1 can create one or a plurality of travel routes.
  • the travel route data R is stored in the storage device 14c of the AGV 10, but when the connection is established between the AGV 10 and the tablet computer 20, the travel route data R is transferred from the AGV 10 to the tablet computer 20. Is done.
  • the user 1 can edit the marker data constituting the transferred travel route data R on the tablet computer 20.
  • the editing of the marker data is, for example, deleting a part of the marker data and changing the value of the X coordinate, the Y coordinate and / or the angle ⁇ .
  • FIG. 14 shows a display example of a plurality of travel routes R1 to R3 displayed on the display 25 after touching the route selection button 35 (FIG. 5). Each route number and the route name given by the user 1 are displayed.
  • User 1 touches the displayed route number or route name to select it.
  • the selected travel route R2 is highlighted.
  • CPU21 transmits the instruction
  • the microcomputer 14a of the AGV 10 that has received the command reads each marker data of the travel route R2 from the plurality of travel routes stored in the storage device 14c.
  • a start button not shown
  • the microcomputer 14a of the AGV 10 starts automatic operation along the travel route R2.
  • FIG. 14 shows a menu 40 for editing the selected travel route.
  • the menu 40 includes an edit button 40a for editing individual marker data, a delete button, and the like.
  • the convenience of the user 1 can be improved by providing on the display 25 a menu 40 for enabling not only selection relating to the travel route but also editing.
  • the following method may be further adopted. That is, after setting one or more travel routes, the user 1 may find it troublesome to select a travel route each time.
  • the user 1 may find it troublesome to select a travel route each time.
  • FIG. 15 shows an example of the GUI (initial GUI) immediately after the application for controlling the AGV 10 is started on the tablet computer 20.
  • the initial GUI displays a plurality of travel routes 50a and 50b registered in advance. These correspond to the travel routes R1 and R2 in FIG. Further, a start button 51 is displayed on the initial GUI. User 1 completes the selection of the travel route and touches start button 51. Then, the CPU 21 transmits a travel route designation and a travel start instruction to the AGV 10.
  • the AGV 10 reads each marker data of the selected travel route, and then travels while passing through each marker.
  • the user 1 can run the AGV 10 immediately after starting the application.
  • the technique of the present disclosure can be widely used for controlling the operation of a moving object.
  • 1 user 2a, 2b wireless access point, 10 AGV (mobile), 14a microcomputer, 14b memory, 14c storage device, 14d communication circuit, 14e positioning device, 16a, 16b motor, 15 laser range finder, 17a, 17b motor drive Circuit, 20 tablet computer (mobile computer), 21 CPU, 22 memory, 23 communication circuit, 24 image processing circuit, 25 display, 26 touch screen panel, 100 control system

Abstract

A mobile computer (20) receives an input from a user via a graphical user interface (GUI) to control the motion of a mobile body. The mobile computer is provided with: a communication circuit (23); a display device (25) for displaying the GUI; a touch screen panel (26) for outputting the data of a position at which a touch on the display device is detected; and a processing circuit (21) that, in response to the detection of a touch, performs travel control or a setting process for the mobile body associated with a widget installed at the detection position. The GUI includes: one or more operation widgets (30a-30d, 31) for travel control of the mobile body; a map-making widget (32) for causing the mobile body to generate a spatial map; a capture widget (33) for generating a travel route of the mobile body; and a route selection widget (35) for selecting a route that has been selected.

Description

移動体の動作を制御するモバイルコンピュータ、移動体制御システムおよびコンピュータプログラムMobile computer, mobile control system and computer program for controlling operation of mobile
 本開示は、移動体の動作を制御するモバイルコンピュータ、移動体制御システムおよびコンピュータプログラムに関する。 The present disclosure relates to a mobile computer, a mobile control system, and a computer program that control the operation of a mobile.
 無人搬送車および当該無人搬送車の移動を制御するシステムの開発が進められている。無人搬送車は「AGV」(Automatic Guided Vehicle)と呼ばれることがある。 Developed automated guided vehicles and systems that control the movement of automated guided vehicles. The automated guided vehicle is sometimes referred to as “AGV” (Automatic Guided Vehicle).
 特許文献1は、タグ通信部を有する移動体を開示する。走行対象エリアには、各々の位置情報を有する複数のICタグが分散して配置されている。移動体が走行すると、タグ通信部はICタグと無線通信を行ってICタグの位置情報を読み取る。これにより、移動体は現在の位置の情報を取得し、自動走行を行うことができる。 Patent Document 1 discloses a mobile body having a tag communication unit. In the travel target area, a plurality of IC tags each having position information are arranged in a distributed manner. When the mobile object travels, the tag communication unit performs wireless communication with the IC tag and reads position information of the IC tag. Thereby, the moving body can acquire information on the current position and perform automatic traveling.
 特許文献2は、指定された位置にAGVを移動させるシステムを開示する。AGVは、位置を表すロケーションマーカを読み取り、指定された位置に移動する際、自らの位置がずれている場合には、自らのナビゲーションシステムを用いて修正する。 Patent Document 2 discloses a system for moving an AGV to a designated position. When the AGV reads a location marker representing a position and moves to a designated position, the AGV corrects it using its own navigation system if the position is shifted.
 特許文献3は、AGVが走行するコース上にアドレスマークを敷設するに先立って、当該アドレスマークの位置をシミュレーションによって決定する技術が開示されている。 Patent Document 3 discloses a technique for determining the position of an address mark by simulation prior to laying the address mark on a course on which an AGV runs.
国際公開第2008/035433号International Publication No. 2008/035433 特開平11-154013号公報Japanese Patent Laid-Open No. 11-154013 特開平11-143534号公報JP-A-11-143534
 上述の特許文献1から3の技術では、いずれも、位置を検出するために必要なICタグまたはロケーションマーカをAGVの走行エリア内に予め配置し、AGVが走行し得る経路を決定しておく技術に関する。AGVの運用を開始した後、現場でICタグまたはロケーションマーカの位置を変更する必要が生じた場合には、当該変更のための作業に多大な手間を要する。 In any of the techniques disclosed in Patent Documents 1 to 3, the IC tag or location marker necessary for detecting the position is placed in advance in the traveling area of the AGV, and the route on which the AGV can travel is determined. About. When it becomes necessary to change the position of the IC tag or the location marker at the site after starting the operation of the AGV, it takes a great deal of work for the change.
 本願の、限定的ではない例示的なある実施形態は、現場でAGVの設定、走行経路の設定、変更等を容易に行うことを可能にする技術を提供する。 One non-limiting exemplary embodiment of the present application provides a technique that makes it possible to easily perform AGV setting, travel route setting, change, and the like on site.
 本開示のモバイルコンピュータは、例示的な実施形態において、ユーザからグラフィカル・ユーザ・インタフェース(GUI)を介して入力を受け付けて移動体の動作を制御するモバイルコンピュータであって、前記移動体と通信することが可能な通信回路と、各々が、前記移動体の走行制御または設定処理に関連付けられた複数のウィジェットを含むGUIを表示する表示装置と、前記ユーザによる前記表示装置へのタッチを検出して検出位置のデータを出力するタッチスクリーンパネルと、前記タッチの検出に応答して、前記検出位置に配置された前記ウィジェットに関連付けられた、前記移動体の走行制御または設定処理を行う処理回路とを備え、前記GUIは、前記移動体の走行制御のための少なくとも1つの操作ウィジェット、前記移動体に空間の地図を作成させるための地図作成ウィジェット、前記移動体の通過位置を指定して前記移動体の走行経路を作成するためのキャプチャウィジェット、および、作成された1つまたは複数の走行経路のうちから一つの走行経路を選択するための経路選択ウィジェットを含む。 In an exemplary embodiment, the mobile computer of the present disclosure is a mobile computer that receives input from a user via a graphical user interface (GUI) and controls the operation of the mobile body, and communicates with the mobile body A communication circuit capable of detecting a touch on the display device by the user, a display device displaying a GUI including a plurality of widgets each associated with travel control or setting processing of the mobile object A touch screen panel that outputs data of a detection position; and a processing circuit that performs travel control or setting processing of the moving body associated with the widget arranged at the detection position in response to the detection of the touch. The GUI includes at least one operation widget for travel control of the mobile body, A map creation widget for causing the mobile body to create a map of the space, a capture widget for creating a travel route of the mobile body by specifying a passing position of the mobile body, and one or more created A route selection widget for selecting one travel route from the travel routes is included.
 本開示の一態様にかかるモバイルコンピュータは、GUIを表示する表示装置と、ユーザによる表示装置へのタッチを検出して検出位置のデータを出力するタッチスクリーンパネルを備えている。GUIは、移動体の走行制御または設定処理に関連付けられた複数のウィジェットを含むため、ユーザは直感的な操作で移動体の種々の動作を制御することができる。 The mobile computer according to an aspect of the present disclosure includes a display device that displays a GUI, and a touch screen panel that detects a touch on the display device by a user and outputs data of a detection position. Since the GUI includes a plurality of widgets associated with traveling control or setting processing of the moving body, the user can control various operations of the moving body with intuitive operations.
図1は、本開示による、各AGVの走行を制御する制御システム100の概要を示す図である。FIG. 1 is a diagram illustrating an overview of a control system 100 that controls traveling of each AGV according to the present disclosure. 図2は本実施形態にかかる例示的なAGV10の外観図である。FIG. 2 is an external view of an exemplary AGV 10 according to the present embodiment. 図3はAGV10のハードウェアの構成を示す図である。FIG. 3 is a diagram illustrating a hardware configuration of the AGV 10. 図4はタブレットコンピュータ20のハードウェア構成を示す図である。FIG. 4 is a diagram illustrating a hardware configuration of the tablet computer 20. 図5はタブレットコンピュータ20のディスプレイ25に表示されたGUIの画像例を示す図である。FIG. 5 is a view showing an example of a GUI image displayed on the display 25 of the tablet computer 20. 図6Aはフォワードボタン30aを利用したAGV10の手動運転の例を示す図である。FIG. 6A is a diagram illustrating an example of manual operation of the AGV 10 using the forward button 30a. 図6Bはフォワードボタン30aを利用したAGV10の手動運転の例を示す図である。FIG. 6B is a diagram illustrating an example of manual operation of the AGV 10 using the forward button 30a. 図7Aは右旋回ボタン30cを利用したAGV10の手動運転の例を示す図である。FIG. 7A is a diagram illustrating an example of manual operation of the AGV 10 using the right turn button 30c. 図7Bは右旋回ボタン30cを利用したAGV10の手動運転の例を示す図である。FIG. 7B is a diagram illustrating an example of manual operation of the AGV 10 using the right turn button 30c. 図8Aはジョイスティック型スライダ31を利用したAGV10の手動運転の例を示す図である。FIG. 8A is a diagram illustrating an example of manual operation of the AGV 10 using the joystick type slider 31. 図8Bはジョイスティック型スライダ31を利用したAGV10の手動運転の例を示す図である。FIG. 8B is a diagram illustrating an example of manual operation of the AGV 10 using the joystick type slider 31. 図9は、ジョイスティック型スライダ31のスライド方向θおよびスライド量dの例を示す図である。FIG. 9 is a diagram illustrating an example of the sliding direction θ and the sliding amount d of the joystick-type slider 31. 図10Aは移動しながら地図を生成するAGV10を示す図である。FIG. 10A is a diagram showing an AGV 10 that generates a map while moving. 図10Bは移動しながら地図を生成するAGV10を示す図である。FIG. 10B is a diagram illustrating the AGV 10 that generates a map while moving. 図10Cは移動しながら地図を生成するAGV10を示す図である。FIG. 10C is a diagram illustrating the AGV 10 that generates a map while moving. 図10Dは移動しながら地図を生成するAGV10を示す図である。FIG. 10D is a diagram illustrating the AGV 10 that generates a map while moving. 図10Eは移動しながら地図を生成するAGV10を示す図である。FIG. 10E is a diagram showing the AGV 10 that generates a map while moving. 図10Fは完成した地図60の一部を模式的に示す図である。FIG. 10F is a diagram schematically showing a part of the completed map 60. 図11はキャプチャボタン33(図5)を利用した走行経路の作成手順の例を示す図である。FIG. 11 is a diagram showing an example of a procedure for creating a travel route using the capture button 33 (FIG. 5). 図12はマーカの設定数の数字アイコン33aが表示されたキャプチャボタン33を示す図である。FIG. 12 is a diagram showing the capture button 33 on which a number icon 33a indicating the number of markers set is displayed. 図13Aはある走行経路データRに含まれるマーカデータの例を示す図である。FIG. 13A is a diagram illustrating an example of marker data included in certain travel route data R. FIG. 図13Bは図13Aの例よりも豊富なデータが設定されたマーカデータの例を示す図である。FIG. 13B is a diagram illustrating an example of marker data in which richer data than the example of FIG. 13A is set. 図14は経路選択ボタン35(図5)へのタッチ後にディスプレイ25に表示される、複数の走行経路R1~R3の表示例を示す図である。FIG. 14 is a diagram showing a display example of a plurality of travel routes R1 to R3 displayed on the display 25 after touching the route selection button 35 (FIG. 5). 図15はタブレットコンピュータ20上でAGV10を制御するアプリケーションが起動された直後のGUI(初期GUI)の画像例を示す図である。FIG. 15 is a diagram showing an example of an image of a GUI (initial GUI) immediately after an application for controlling the AGV 10 is started on the tablet computer 20.
 以下、添付の図面を参照しながら、本開示によるモバイルコンピュータ、および、当該モバイルコンピュータと移動体とを有する移動体制御システムの一例を説明する。本明細書では、モバイルコンピュータの一例として、タブレットコンピュータ20を挙げる。モバイルコンピュータの他の例は、スマートフォン、ラップトップ型PCである。また本明細書では、移動体の一例として無人搬送車を挙げる。無人搬送車はAGV(Automated Guided Vehicle)と呼ばれており、本明細書でも「AGV」と記述する。 Hereinafter, an example of a mobile computer according to the present disclosure and a mobile body control system including the mobile computer and the mobile body will be described with reference to the accompanying drawings. In this specification, a tablet computer 20 is given as an example of a mobile computer. Other examples of the mobile computer are a smartphone and a laptop PC. Moreover, in this specification, an automatic guided vehicle is mentioned as an example of a moving body. The automatic guided vehicle is called AGV (Automated Guided Vehicle) and is also described as “AGV” in this specification.
 図1は、本開示による、各AGVの走行を制御する制御システム100の概要を示している。制御システム100は、AGV10とタブレットコンピュータ20とを含む。AGV10とタブレットコンピュータ20とは、たとえば1対1で接続されてBluetooth(登録商標)規格に準拠した通信を行い、または、1または複数のアクセスポイント2a、2b等を利用してWi-Fi(登録商標)に準拠した通信を行う。複数のアクセスポイント2a、2bはスイッチングハブ3に接続されている。スイッチングハブ3を介してデータフレームが転送されることにより、AGV10およびタブレットコンピュータ20の間の双方向通信が実現される。 FIG. 1 shows an overview of a control system 100 that controls the running of each AGV according to the present disclosure. The control system 100 includes an AGV 10 and a tablet computer 20. The AGV 10 and the tablet computer 20 are connected, for example, in a one-to-one manner and perform communication conforming to the Bluetooth (registered trademark) standard, or Wi-Fi (registered) using one or a plurality of access points 2a, 2b, etc. (Trademark) is performed. The plurality of access points 2 a and 2 b are connected to the switching hub 3. By transferring the data frame via the switching hub 3, bidirectional communication between the AGV 10 and the tablet computer 20 is realized.
 ユーザ1はタブレットコンピュータ20を利用して、AGV10の動作を制御する。具体的には、ユーザ1はタブレットコンピュータ20を利用して、走行する空間Sの地図をAGV10に作成させ、地図の作成後にAGV10の走行経路を設定または変更し、AGV10を手動により走行させることができる。 User 1 uses tablet computer 20 to control the operation of AGV 10. Specifically, the user 1 uses the tablet computer 20 to cause the AGV 10 to create a map of the traveling space S, set or change the travel route of the AGV 10 after creating the map, and manually run the AGV 10. it can.
 ユーザ1によるタブレットコンピュータ20の操作は、グラフィカル・ユーザ・インタフェース(以下「GUI」と記述する。)を介して行われる。GUIは、タブレットコンピュータ20のディスプレイとタッチスクリーンパネルとによって実現される。GUIは複数のウィジェットを含んでいる。「ウィジェット」とは、GUIのボタン、スライダ、アイコン等の、ディスプレイに表示されたユーザインタフェース部品を意味する。ユーザインタフェース部品は、「UIパーツ」と呼ばれることもある。個々のウィジェットは、AGV10を走行させるための走行制御動作、または、地図の作成、走行経路の設定または変更等の設定処理に関連付けられている。タブレットコンピュータ20は、GUIを介してユーザ1からの入力を受け付けて走行制御動作または設定処理を行う。GUIの詳細は後述する。 The operation of the tablet computer 20 by the user 1 is performed via a graphical user interface (hereinafter referred to as “GUI”). The GUI is realized by the display of the tablet computer 20 and the touch screen panel. The GUI includes a plurality of widgets. “Widget” means a user interface component displayed on a display such as a GUI button, slider, icon, or the like. The user interface component is sometimes called a “UI part”. Each widget is associated with a travel control operation for traveling the AGV 10, or setting processing such as map creation, travel route setting or change. The tablet computer 20 receives an input from the user 1 via the GUI and performs a traveling control operation or a setting process. Details of the GUI will be described later.
 なお、図1には1台のAGV10が示されているが、AGVは複数台であってもよい。ユーザ1はタブレットコンピュータ20のGUIを介して、登録された複数のAGVのうちから一台のAGV10を選択して、走行制御動作または設定処理を行うことができる。 Although one AGV 10 is shown in FIG. 1, a plurality of AGVs may be used. The user 1 can select one AGV 10 from a plurality of registered AGVs via the GUI of the tablet computer 20 and perform a travel control operation or a setting process.
 以下では、まずAGV10の構成を説明し、その後、タブレットコンピュータ20の構成、GUIおよび動作を説明する。 Hereinafter, the configuration of the AGV 10 will be described first, and then the configuration, GUI, and operation of the tablet computer 20 will be described.
 図2は、本実施形態にかかる例示的なAGV10の外観図である。AGV10は、4つの車輪11a~11dと、フレーム12と、搬送テーブル13と、走行制御装置14と、レーザレンジファインダ15とを有する。なお、AGV10は複数のモータも有するが図2には示されていない。また、図2には、前輪11a、後輪11bおよび後輪11cが示されているが、前輪11dはフレーム12の蔭に隠れているため明示されていない。 FIG. 2 is an external view of an exemplary AGV 10 according to the present embodiment. The AGV 10 includes four wheels 11a to 11d, a frame 12, a transport table 13, a travel control device 14, and a laser range finder 15. The AGV 10 also has a plurality of motors, which are not shown in FIG. 2 shows the front wheel 11a, the rear wheel 11b, and the rear wheel 11c, but the front wheel 11d is not clearly shown because it is hidden behind the frame 12.
 走行制御装置14は、AGV10の動作を制御する装置であり、主としてマイコン(後述)を含む集積回路、電子部品およびそれらが搭載された基板を含む。走行制御装置14は、上述した、タブレットコンピュータ20とのデータの送受信、および、前処理演算を行う。 The traveling control device 14 is a device that controls the operation of the AGV 10, and mainly includes an integrated circuit including a microcomputer (described later), electronic components, and a board on which they are mounted. The traveling control device 14 performs the above-described data transmission / reception with the tablet computer 20 and the preprocessing calculation.
 レーザレンジファインダ15は、たとえば赤外のレーザ光15aを目標物に照射し、当該レーザ光15aの反射光を検出することにより、目標物までの距離を測定する光学機器である。本実施形態では、AGV10のレーザレンジファインダ15は、たとえばAGV10の正面を基準として左右135度(合計270度)の範囲の空間に、0.25度ごとに方向を変化させながらパルス状のレーザ光15aを放射し、各レーザ光15aの反射光を検出する。これにより、0.25度ごと、合計1080ステップ分の角度で決まる方向における反射点までの距離のデータを得ることができる。 The laser range finder 15 is an optical device that measures the distance to a target by, for example, irradiating the target with infrared laser light 15a and detecting the reflected light of the laser light 15a. In the present embodiment, the laser range finder 15 of the AGV 10 has a pulsed laser beam while changing its direction every 0.25 degrees in a space in the range of 135 degrees to the left and right (total 270 degrees) with respect to the front of the AGV 10, for example. 15a is emitted, and the reflected light of each laser beam 15a is detected. Thereby, the data of the distance to the reflection point in the direction determined by the angle for a total of 1080 steps every 0.25 degrees can be obtained.
 AGV10の位置および姿勢と、レーザレンジファインダ15のスキャン結果とにより、AGV10は、空間Sの地図を作成することができる。地図には、AGVの周囲の壁、柱等の構造物、床の上に載置された物体の配置が反映され得る。地図のデータは、AGV10内に設けられた記憶装置に格納される。 The AGV 10 can create a map of the space S based on the position and orientation of the AGV 10 and the scan result of the laser range finder 15. The map may reflect the arrangement of walls, pillars and other structures around the AGV, and objects placed on the floor. The map data is stored in a storage device provided in the AGV 10.
 一般に、移動体の位置および姿勢は、ポーズ(pose)と呼ばれる。2次元面内における移動体の位置および姿勢は、XY直交座標系における位置座標(x, y)と、X軸に対する角度θによって表現される。AGV10の位置および姿勢、すなわちポーズ(x, y, θ)を、以下、単に「位置」と呼ぶことがある。 Generally, the position and posture of the moving body are called poses. The position and orientation of the moving body in the two-dimensional plane are expressed by position coordinates (x, y) in the XY orthogonal coordinate system and an angle θ with respect to the X axis. The position and posture of the AGV 10, that is, the pose (x, y, θ) may be simply referred to as “position” hereinafter.
 なお、レーザ光15aの放射位置から見た反射点の位置は、角度および距離によって決定される極座標を用いて表現され得る。本実施形態では、レーザレンジファインダ15は極座標で表現されたセンサデータを出力する。ただし、レーザレンジファインダ15は、極座標で表現された位置を直交座標に変換して出力してもよい。 In addition, the position of the reflection point seen from the radiation position of the laser beam 15a can be expressed using polar coordinates determined by the angle and the distance. In the present embodiment, the laser range finder 15 outputs sensor data expressed in polar coordinates. However, the laser range finder 15 may convert the position expressed in polar coordinates into orthogonal coordinates and output the result.
 レーザレンジファインダの構造および動作原理は公知であるため、本明細書ではこれ以上の詳細な説明は省略する。なお、レーザレンジファインダ15によって検出され得る物体の例は、人、荷物、棚、壁である。 Since the structure and operating principle of the laser range finder are known, further detailed description is omitted in this specification. Examples of objects that can be detected by the laser range finder 15 are people, luggage, shelves, and walls.
 レーザレンジファインダ15は、周囲の空間をセンシングしてセンサデータを取得するための外界センサの一例である。そのような外界センサの他の例としては、イメージセンサおよび超音波センサが考えられる。 The laser range finder 15 is an example of an external sensor for sensing the surrounding space and acquiring sensor data. Other examples of such an external sensor include an image sensor and an ultrasonic sensor.
 走行制御装置14は、レーザレンジファインダ15の測定結果と、自身が保持する地図データとを比較して、自身の現在位置を推定することができる。地図データは、SLAM(Simultaneous Localization and Mapping)技術を用いて、AGV10自身によって取得されてもよい。 The traveling control device 14 can estimate its current position by comparing the measurement result of the laser range finder 15 with the map data held by itself. The map data may be acquired by the AGV 10 itself using a SLAM (Simultaneous Localization and Mapping) technique.
 図3は、AGV10のハードウェアの構成を示している。また図3は、走行制御装置14の具体的な構成も示している。 FIG. 3 shows the hardware configuration of AGV10. FIG. 3 also shows a specific configuration of the travel control device 14.
 AGV10は、走行制御装置14と、レーザレンジファインダ15と、2台のモータ16aおよび16bと、駆動装置17とを備えている。 The AGV 10 includes a travel control device 14, a laser range finder 15, two motors 16 a and 16 b, and a drive device 17.
 走行制御装置14は、マイコン14aと、メモリ14bと、記憶装置14cと、通信回路14dと、測位装置14eとを有している。マイコン14a、メモリ14b、記憶装置14c、通信回路14dおよび測位装置14eは通信バス14fで接続されており、相互にデータを授受することが可能である。またレーザレンジファインダ15もまた通信インタフェース(図示せず)を介して通信バス14fに接続されており、計測結果である計測データを、マイコン14a、測位装置14eおよび/またはメモリ14bに送信する。 The traveling control device 14 includes a microcomputer 14a, a memory 14b, a storage device 14c, a communication circuit 14d, and a positioning device 14e. The microcomputer 14a, the memory 14b, the storage device 14c, the communication circuit 14d, and the positioning device 14e are connected by a communication bus 14f and can exchange data with each other. The laser range finder 15 is also connected to the communication bus 14f via a communication interface (not shown), and transmits measurement data as a measurement result to the microcomputer 14a, the positioning device 14e, and / or the memory 14b.
 マイコン14aは、走行制御装置14を含むAGV10の全体を制御するための演算を行うプロセッサまたは制御回路(コンピュータ)である。典型的にはマイコン14aは半導体集積回路である。マイコン14aは、制御信号であるPWM(Pulse Width Modulation)信号を駆動装置17に送信して駆動装置17を制御し、モータに印加する電圧を調整させる。これによりモータ16aおよび16bの各々が所望の回転速度で回転する。 The microcomputer 14a is a processor or a control circuit (computer) that performs calculations for controlling the entire AGV 10 including the travel control device 14. Typically, the microcomputer 14a is a semiconductor integrated circuit. The microcomputer 14a transmits a PWM (Pulse Width Modulation) signal, which is a control signal, to the drive device 17 to control the drive device 17 and adjust the voltage applied to the motor. As a result, each of the motors 16a and 16b rotates at a desired rotation speed.
 メモリ14bは、マイコン14aが実行するコンピュータプログラムを記憶する、揮発性の記憶装置である。メモリ14bは、マイコン14aおよび測位装置14eが演算を行う際のワークメモリとしても利用され得る。 The memory 14b is a volatile storage device that stores a computer program executed by the microcomputer 14a. The memory 14b can also be used as a work memory when the microcomputer 14a and the positioning device 14e perform calculations.
 記憶装置14cは、不揮発性の半導体メモリ装置である。ただし、記憶装置14cは、ハードディスクに代表される磁気記録媒体、または、光ディスクに代表される光学式記録媒体であってもよい。さらに、記憶装置14cは、いずれかの記録媒体にデータを書き込みおよび/または読み出すためのヘッド装置および当該ヘッド装置の制御装置を含んでもよい。 The storage device 14c is a non-volatile semiconductor memory device. However, the storage device 14c may be a magnetic recording medium typified by a hard disk or an optical recording medium typified by an optical disk. Furthermore, the storage device 14c may include a head device for writing and / or reading data on any recording medium and a control device for the head device.
 記憶装置14cは、走行する空間Sの地図データM、および、1または複数の走行経路のデータ(走行経路データ)Rを記憶する。地図データMは、AGV10が地図作成モードで動作することによって作成され記憶装置14cに記憶される。走行経路データRは、地図データMが作成された後、AGV10が経路作成モードで動作することによって作成され記憶装置14cに記憶される。 The storage device 14c stores map data M of the traveling space S and data (travel route data) R of one or more travel routes. The map data M is created by the AGV 10 operating in the map creation mode and stored in the storage device 14c. The travel route data R is created by the AGV 10 operating in the route creation mode after the map data M is created, and stored in the storage device 14c.
 走行経路データRは、マーカの位置を示すマーカデータを含む。「マーカ」は走行するAGV10の通過位置(経由点)を示す。走行経路データRは、走行開始位置を示す開始マーカおよび走行終了位置を示す終了マーカを少なくとも含む。走行経路データRは、さらに、1以上の中間経由点を含んでもよい。1以上の中間経由点を含む場合には、開始マーカから、当該走行経由点を順に経由して終了マーカに至る経路が、走行経路として定義される。 The traveling route data R includes marker data indicating the marker position. “Marker” indicates the passing position (route point) of the traveling AGV 10. The travel route data R includes at least a start marker indicating a travel start position and an end marker indicating a travel end position. The travel route data R may further include one or more intermediate waypoints. When one or more intermediate waypoints are included, a route from the start marker to the end marker via the travel route point in order is defined as a travel route.
 なお、各マーカデータは、次のマーカに移動するまでのAGV10の向き(角度)、走行速度、当該走行速度に達するまでに加速する加速時間、および/または、当該走行速度から減速する減速時間のデータを含み得る。 Each marker data includes the direction (angle) of the AGV 10 until moving to the next marker, the traveling speed, the acceleration time for accelerating to reach the traveling speed, and / or the deceleration time for decelerating from the traveling speed. Data can be included.
 AGV10は、作成された地図と走行中に取得されたレーザレンジファインダ15が出力したセンサデータとを利用して自己位置を推定しながら、選択された走行経路に沿って走行することができる。なお、本実施形態では、地図データMおよび走行経路データRは同じ記憶装置14cに記憶されているが、異なる記憶装置に記憶されてもよい。 The AGV 10 can travel along the selected travel route while estimating its own position using the created map and the sensor data output from the laser range finder 15 acquired during travel. In the present embodiment, the map data M and the travel route data R are stored in the same storage device 14c, but may be stored in different storage devices.
 通信回路14dは、たとえば、Bluetooth(登録商標)および/またはWi-Fi(登録商標)規格に準拠した無線通信を行う無線通信回路である。いずれの規格も、2.4GHz帯の周波数を利用した無線通信規格を含む。本明細書では、Bluetooth(登録商標)規格に準拠した無線通信を行い、1対1でタブレットコンピュータ20と通信する例を挙げる。 The communication circuit 14d is a wireless communication circuit that performs wireless communication based on, for example, Bluetooth (registered trademark) and / or Wi-Fi (registered trademark) standards. Each standard includes a wireless communication standard using a frequency of 2.4 GHz band. In this specification, an example will be given in which wireless communication conforming to the Bluetooth (registered trademark) standard is performed and communication with the tablet computer 20 is performed one-on-one.
 測位装置14eは、レーザレンジファインダ15からセンサデータを受け取り、また、記憶装置14cに記憶された地図データMを読み出す。レーザレンジファインダ15のスキャン結果から作成された局所的地図データを、より広範囲の地図データMと照合(マッチング)することにより、地図データM上における自己位置(x, y, θ)を同定する。測位装置14eは、局所的地図データが地図データMに一致した程度を表す「信頼度」を生成する。自己位置(x, y, θ)、および、信頼度の各データは、AGV10からタブレットコンピュータ20に送信され得る。タブレットコンピュータ20は、自己位置(x, y, θ)、および、信頼度の各データを受信して、内蔵された表示装置に表示することができる。 The positioning device 14e receives the sensor data from the laser range finder 15 and reads the map data M stored in the storage device 14c. By comparing (matching) the local map data created from the scan result of the laser range finder 15 with a wider range of map data M, the self position (x, y, θ) on the map data M is identified. The positioning device 14e generates “reliability” indicating the degree to which the local map data matches the map data M. The self position (x, y, θ) and reliability data can be transmitted from the AGV 10 to the tablet computer 20. The tablet computer 20 can receive the self-position (x, y, θ) and reliability data and display them on a built-in display device.
 本実施形態では、マイコン14aと測位装置14eとは別個の構成要素であるとしているが、これは一例である。マイコン14aおよび測位装置14eを統合し、マイコン14aおよび測位装置14eの各動作を独立して行うことが可能な1つのチップ回路または半導体集積回路を設けてもよい。図3には、マイコン14aおよび測位装置14eを包括するチップ回路14gが示されている。以下では、マイコン14aおよび測位装置14eが別個独立に設けられている例で説明する。さらに、測位装置14eとレーザレンジファインダ15とは別個の構成要素であるとしているが、これも一例である。測位装置14eおよびレーザレンジファインダ15を統合したレーザ測位システムを採用してもよい。 In the present embodiment, the microcomputer 14a and the positioning device 14e are separate components, but this is an example. The microcomputer 14a and the positioning device 14e may be integrated, and a single chip circuit or a semiconductor integrated circuit capable of performing each operation of the microcomputer 14a and the positioning device 14e independently may be provided. FIG. 3 shows a chip circuit 14g including the microcomputer 14a and the positioning device 14e. Hereinafter, an example in which the microcomputer 14a and the positioning device 14e are provided separately and independently will be described. Furthermore, although the positioning device 14e and the laser range finder 15 are assumed to be separate components, this is also an example. A laser positioning system in which the positioning device 14e and the laser range finder 15 are integrated may be employed.
 2台のモータ16aおよび16bは、それぞれ2つの車輪11bおよび11cに取り付けられ、各車輪を回転させる。つまり、2つの車輪11bおよび11cはそれぞれ駆動輪である。本明細書では、モータ16aおよびモータ16bは、それぞれAGV10の右輪および左輪を駆動するモータであるとして説明する。 The two motors 16a and 16b are attached to the two wheels 11b and 11c, respectively, and rotate each wheel. That is, the two wheels 11b and 11c are drive wheels, respectively. In the present specification, the motor 16a and the motor 16b are described as being motors that drive the right wheel and the left wheel of the AGV 10, respectively.
 駆動装置17は、2台のモータ16aおよび16bの各々に印加される電圧を調整するためのモータ駆動回路17aおよび17bを有する。モータ駆動回路17aおよび17bの各々はいわゆるインバータ回路であり、マイコン14aから送信されたPWM信号によって各モータに流れる電流をオンまたはオフし、それによりモータに印加される電圧を調整する。 The drive device 17 has motor drive circuits 17a and 17b for adjusting the voltage applied to each of the two motors 16a and 16b. Each of the motor drive circuits 17a and 17b is a so-called inverter circuit, and the current applied to each motor is turned on or off by the PWM signal transmitted from the microcomputer 14a, thereby adjusting the voltage applied to the motor.
 図4は、タブレットコンピュータ20のハードウェア構成を示している。タブレットコンピュータ20は、CPU21と、メモリ22と、通信回路23と、画像処理回路24と、ディスプレイ25と、タッチスクリーンパネル26と、通信バス27とを有する。CPU21、メモリ22、通信回路23、画像処理回路24およびタッチスクリーンパネル26は通信バス27で接続されており、通信バス27を介して相互にデータを授受することが可能である。 FIG. 4 shows the hardware configuration of the tablet computer 20. The tablet computer 20 includes a CPU 21, a memory 22, a communication circuit 23, an image processing circuit 24, a display 25, a touch screen panel 26, and a communication bus 27. The CPU 21, the memory 22, the communication circuit 23, the image processing circuit 24, and the touch screen panel 26 are connected by a communication bus 27 and can exchange data with each other via the communication bus 27.
 CPU21は、タブレットコンピュータ20の動作を制御する信号処理回路(コンピュータ)である。典型的にはCPU21は半導体集積回路である。CPU21を単に「処理回路」と呼ぶこともある。 The CPU 21 is a signal processing circuit (computer) that controls the operation of the tablet computer 20. Typically, the CPU 21 is a semiconductor integrated circuit. The CPU 21 may be simply referred to as a “processing circuit”.
 メモリ22は、CPU21が実行するコンピュータプログラムを記憶する、揮発性の記憶装置である。メモリ22は、CPU21が演算を行う際のワークメモリとしても利用され得る。コンピュータプログラムは、図示されない不揮発性の記憶装置、たとえばEEPROMに格納されていてもよい。CPU21は、タブレットコンピュータ20の起動時に不揮発性の記憶装置からコンピュータプログラムを読み出してメモリ22に展開し、実行する。 The memory 22 is a volatile storage device that stores a computer program executed by the CPU 21. The memory 22 can also be used as a work memory when the CPU 21 performs calculations. The computer program may be stored in a nonvolatile storage device (not shown) such as an EEPROM. The CPU 21 reads out a computer program from the non-volatile storage device when the tablet computer 20 is activated, expands it in the memory 22 and executes it.
 通信回路23は、たとえば、Bluetooth(登録商標)および/またはWi-Fi(登録商標)規格に準拠した無線通信を行う無線通信回路である。AGV10の通信回路14dと同様、本明細書では、タブレットコンピュータ20は、Bluetooth(登録商標)規格に準拠した無線通信を行い、1対1でAGV10と通信する。通信回路23は、AGV10に送信すべきデータを、バス27を介してCPU21から受信する。また通信回路23は、AGV10から受信したデータ(通知)を、バス27を介してCPU21および/またはメモリ22に送信する。 The communication circuit 23 is a wireless communication circuit that performs wireless communication based on, for example, Bluetooth (registered trademark) and / or Wi-Fi (registered trademark) standards. Similar to the communication circuit 14d of the AGV 10, in this specification, the tablet computer 20 performs wireless communication in accordance with the Bluetooth (registered trademark) standard and communicates with the AGV 10 on a one-to-one basis. The communication circuit 23 receives data to be transmitted to the AGV 10 from the CPU 21 via the bus 27. The communication circuit 23 transmits data (notification) received from the AGV 10 to the CPU 21 and / or the memory 22 via the bus 27.
 画像処理回路24は、CPU21の指示に従い、ディスプレイ25に表示する画像を生成する。たとえば画像処理回路24は、GUIのための画像を表示し、タッチスクリーンパネル26を介して受け付けたユーザ1のタッチ操作に応じて、ディスプレイ25上の画像を書き換える。 The image processing circuit 24 generates an image to be displayed on the display 25 in accordance with an instruction from the CPU 21. For example, the image processing circuit 24 displays an image for the GUI, and rewrites the image on the display 25 according to the touch operation of the user 1 received via the touch screen panel 26.
 タッチスクリーンパネル26は、指やペンなどで行われたユーザ1のタッチを検出することができる。検出方式として、静電式、抵抗膜式、光学式、超音波方式、電磁式などが知られている。たとえば、静電容量方式のタッチスクリーンパネル26の場合、タッチスクリーンパネル26は、特定の位置における静電容量の変化を検出し、当該変化に関するデータを、通信バス27を介してCPU21に送信する。CPU21は、送られてきたデータに基づいて、ユーザによるタッチの有無を判断する。「変化に関するデータ」の例は、静電容量が変化した位置および変化した時間長のデータである。 The touch screen panel 26 can detect the touch of the user 1 performed with a finger or a pen. As detection methods, electrostatic methods, resistive film methods, optical methods, ultrasonic methods, electromagnetic methods, and the like are known. For example, in the case of the capacitive touch screen panel 26, the touch screen panel 26 detects a change in capacitance at a specific position, and transmits data related to the change to the CPU 21 via the communication bus 27. CPU21 judges the presence or absence of the touch by a user based on the sent data. An example of “data related to change” is data of the position where the capacitance has changed and the time length that has changed.
 「タッチ」は、短押し(またはタップ)、長押し、スライド等の種々の操作を含む。短押しは、ユーザ1がタッチスクリーンパネル26に指を触れた後、予め定められた基準時間以内に指を離す操作である。長押しは、ユーザ1がタッチスクリーンパネル26に指を触れてから指を動かさずにその状態を維持し、当該基準時間よりも長い時間が経過した後、指を離す操作である。スライドは、ユーザ1がタッチスクリーンパネル26に指を触れてから、指を離さずにタッチスクリーンパネル26上を、例えば左右に滑らして、操作が終了したら、タッチスクリーンパネル26から指を離す操作である。 “Touch” includes various operations such as short press (or tap), long press, and slide. The short press is an operation of releasing the finger within a predetermined reference time after the user 1 touches the touch screen panel 26 with the finger. The long press is an operation of maintaining the state without moving the finger after the user 1 touches the touch screen panel 26 and releasing the finger after a time longer than the reference time has elapsed. The slide is an operation in which, after the user 1 touches the touch screen panel 26 with his / her finger, the user 1 slides left and right on the touch screen panel 26 without releasing his / her finger. is there.
 本実施形態では、タッチスクリーンパネル26はディスプレイ25に重畳して設けられている。ユーザ1は、ディスプレイ25に表示された画像を見ながら、当該画像へのタッチを行う。CPU21は、タッチスクリーンパネル26から出力された検出位置のデータが、ディスプレイ25に表示されている画像のどの位置を示しているかを判定する。判定の結果、CPU21は、位置に表示されている画像に対応付けられた機能を実行することができる。 In the present embodiment, the touch screen panel 26 is provided so as to overlap the display 25. The user 1 touches the image while viewing the image displayed on the display 25. The CPU 21 determines which position of the image displayed on the display 25 the detected position data output from the touch screen panel 26 indicates. As a result of the determination, the CPU 21 can execute a function associated with the image displayed at the position.
 次に、タブレットコンピュータ20のGUIおよびGUIを介したユーザ1の操作によるAGV10の動作を説明する。 Next, the operation of the AGV 10 by the operation of the user 1 via the GUI of the tablet computer 20 and the GUI will be described.
 AGV10とタブレットコンピュータ20との間に接続が確立されると、タブレットコンピュータ20のCPU21は、AGV10の走行制御または設定処理を行うことができる。 When the connection is established between the AGV 10 and the tablet computer 20, the CPU 21 of the tablet computer 20 can perform the travel control or setting process of the AGV 10.
 AGV10は、タブレットコンピュータ20を用いたユーザ1からのリアルタイムの操作に従って走行する手動走行と、作成された走行経路に従って走行する自動走行とを行うことができる。AGV10を手動走行させるか、自動走行させるかは、ユーザ1がタブレットコンピュータ20のGUIから選択することができる。 The AGV 10 can perform manual travel that travels according to a real-time operation from the user 1 using the tablet computer 20 and automatic travel that travels according to the created travel route. The user 1 can select whether to run the AGV 10 manually or automatically from the GUI of the tablet computer 20.
 本実施形態では、AGV10とタブレットコンピュータ20との接続が確立されると、AGV10およびタブレットコンピュータ20は数百ミリ秒ごとに通信を行い、接続が維持されていることを確認する。これにより、手動走行時には、ほぼリアルタイムで、タブレットコンピュータ20からAGV10の走行の開始および走行の停止等の制御を実現できる。接続の維持が確認できなくなった場合には、AGV10は走行を停止する。AGV10は、タブレットコンピュータ20からの制御が可能な状態下で、タブレットコンピュータ20を介して手動走行を行うことができる。 In this embodiment, when the connection between the AGV 10 and the tablet computer 20 is established, the AGV 10 and the tablet computer 20 perform communication every several hundred milliseconds to confirm that the connection is maintained. Thereby, at the time of manual driving, it is possible to realize control such as starting and stopping of driving of the AGV 10 from the tablet computer 20 in almost real time. When the connection cannot be confirmed, the AGV 10 stops traveling. The AGV 10 can perform manual travel via the tablet computer 20 in a state where control from the tablet computer 20 is possible.
 図5は、タブレットコンピュータ20のディスプレイ25に表示されたGUIの画像例を示している。GUIは、AGV10の走行制御または設定処理に関連付けられた複数のウィジェットを含んでいる。具体的には、GUIは、フォワードボタン30a、バックワードボタン30b、右旋回ボタン30c、左旋回ボタン30d、ジョイスティック型スライダ31、地図作成ボタン32、キャプチャボタン33、オプション設定ボタン34、および、経路選択ボタン35を有する。また、ディスプレイ25上には、AGV10の測位装置14eから受信した、AGV10の推定された自己位置(x, y, θ)、推定の信頼度等を表示する領域36が設けられている。 FIG. 5 shows an example of a GUI image displayed on the display 25 of the tablet computer 20. The GUI includes a plurality of widgets associated with the traveling control or setting process of the AGV 10. Specifically, the GUI includes a forward button 30a, a backward button 30b, a right turn button 30c, a left turn button 30d, a joystick-type slider 31, a map creation button 32, a capture button 33, an option setting button 34, and a route. A selection button 35 is provided. On the display 25, an area 36 for displaying the estimated self-position (x, y, θ) of the AGV 10, the reliability of estimation, etc. received from the positioning device 14e of the AGV 10 is provided.
 フォワードボタン30a、バックワードボタン30b、右旋回ボタン30c、左旋回ボタン30dおよびジョイスティック型スライダ31は、AGV10の手動走行を制御するための操作ウィジェットである。ユーザ1が各ボタン30a~30dおよびスライダ31にタッチし続けている間、AGV10が動作する。なおジョイスティック型スライダ31は、任意の方向にスライドさせることが可能である。タブレットコンピュータ20は、ユーザ1によるジョイスティック型スライダ31のスライド方向およびスライド量に応じてAGV10の進行方向を制御する。 The forward button 30a, the backward button 30b, the right turn button 30c, the left turn button 30d, and the joystick type slider 31 are operation widgets for controlling manual travel of the AGV 10. The AGV 10 operates while the user 1 continues to touch the buttons 30a to 30d and the slider 31. The joystick type slider 31 can be slid in an arbitrary direction. The tablet computer 20 controls the traveling direction of the AGV 10 according to the sliding direction and sliding amount of the joystick-type slider 31 by the user 1.
 地図作成ボタン32は、AGV10の動作モードを、空間Sの地図を作成させるための地図作成モードに移行させるためのウィジェットである。キャプチャボタン33は、AGV10の動作モードを、AGV10の走行経路を作成するための経路作成モードに移行させるためのウィジェットである。オプション設定ボタン34は、AGV10に適用される種々のパラメータを設定するための設定モードに移行させるためのウィジェットである。経路選択ボタン35は、作成された1つまたは複数の走行経路のうちから一つの走行経路を選択するためのウィジェットである。 The map creation button 32 is a widget for shifting the operation mode of the AGV 10 to a map creation mode for creating a map of the space S. The capture button 33 is a widget for shifting the operation mode of the AGV 10 to a route creation mode for creating a travel route of the AGV 10. The option setting button 34 is a widget for shifting to a setting mode for setting various parameters applied to the AGV 10. The route selection button 35 is a widget for selecting one travel route from the created one or more travel routes.
 以下、GUIを構成する各ウィジェットとAGV10の動作との関係を具体的に説明する。 Hereinafter, the relationship between each widget constituting the GUI and the operation of the AGV 10 will be described in detail.
 図6Aおよび図6Bは、フォワードボタン30aを利用したAGV10の手動運転の例を示している。ユーザ1が指でディスプレイ25に表示されたフォワードボタン30aをタッチする。タブレットコンピュータ20のCPU21は、タッチスクリーンパネル26から出力されたタッチ位置の座標がフォワードボタン30aの座標であると判定する。これにより、CPU21は、ユーザ1がフォワードボタン30aにタッチしたことを検出する。 6A and 6B show an example of manual operation of the AGV 10 using the forward button 30a. The user 1 touches the forward button 30a displayed on the display 25 with a finger. The CPU 21 of the tablet computer 20 determines that the coordinates of the touch position output from the touch screen panel 26 are the coordinates of the forward button 30a. Thereby, CPU21 detects that user 1 touched forward button 30a.
 フォワードボタン30aへのタッチを検出すると、CPU21は、AGV10を前方向に直進させるための指令を含む制御信号を生成する。通信回路23は、生成された制御信号をAGV10に送信する。CPU21は、フォワードボタン30aへのタッチが検出されなくなるまで同じ制御信号を生成し、継続的にAGV10に送信する。 When detecting a touch on the forward button 30a, the CPU 21 generates a control signal including a command for causing the AGV 10 to move straight forward. The communication circuit 23 transmits the generated control signal to the AGV 10. CPU21 produces | generates the same control signal until the touch to the forward button 30a is no longer detected, and transmits to AGV10 continuously.
 AGV10のマイコン14aは、通信回路14dを介してタブレットコンピュータ20から制御信号を受信する。マイコン14aは、制御信号に含まれるAGV10を前方向へ走行させる指令に応答して、モータ駆動回路17aおよび17bにそれぞれPWM信号を送信する。当該PWM信号は、モータ16aおよび16bを同じ回転速度で正回転させるための信号である。なお「正回転」とは、AGV10を前方向へ走行させる方向への回転を意味する。AGV10は、図6Bに示されるように直進する。 The microcomputer 14a of the AGV 10 receives a control signal from the tablet computer 20 via the communication circuit 14d. The microcomputer 14a transmits a PWM signal to each of the motor drive circuits 17a and 17b in response to a command for running the AGV 10 forward included in the control signal. The PWM signal is a signal for causing the motors 16a and 16b to rotate forward at the same rotational speed. Note that “forward rotation” means rotation in a direction in which the AGV 10 travels forward. The AGV 10 goes straight as shown in FIG. 6B.
 CPU21は、フォワードボタン30aへのタッチが検出されなくなると、AGV10の走行を停止させるための指令を含む制御信号を生成してAGV10に送信する。これにより、ユーザ1の指がフォワードボタン30aから離れるとAGV10は走行を停止する。 When the touch on the forward button 30a is not detected, the CPU 21 generates a control signal including a command for stopping the traveling of the AGV 10 and transmits it to the AGV 10. Thereby, AGV10 stops driving | running | working, when the user's 1 finger | toe leaves | separates from the forward button 30a.
 なお、図5に示すバックワードボタン30bがタッチされたときのタブレットコンピュータ20およびAGV10の動作は、フォワードボタン30aがタッチされたときの動作と同様である。バックワードボタン30bがタッチされると、AGV10を後方向に直進させる制御信号が生成され、当該制御信号によりAGV10が後方向に直進することを除いて、フォワードボタン30aがタッチされたときの動作と同様である。 Note that the operations of the tablet computer 20 and the AGV 10 when the backward button 30b shown in FIG. 5 is touched are the same as the operations when the forward button 30a is touched. When the backward button 30b is touched, a control signal for causing the AGV 10 to go straight backward is generated, and the operation when the forward button 30a is touched except that the AGV 10 goes straight backward by the control signal. It is the same.
 なお、前方向または後方向への直進時の速度は、AGV10の最高速度であってもよいし、ユーザが予め設定しておいてもよい。 In addition, the speed at the time of going straight forward or backward may be the maximum speed of the AGV 10 or may be set in advance by the user.
 図7Aおよび図7Bは、右旋回ボタン30cを利用したAGV10の手動運転の例を示している。CPU21は、ユーザ1が右旋回ボタン30cにタッチしたことを検出する。検出処理はフォワードボタン30aへのタッチの検出処理に準ずるため、説明は省略する。なお、以降の検出処理についても同様に説明を省略する。 7A and 7B show an example of manual operation of the AGV 10 using the right turn button 30c. The CPU 21 detects that the user 1 has touched the right turn button 30c. Since the detection process is similar to the detection process of the touch on the forward button 30a, the description is omitted. The description of the subsequent detection processing is also omitted.
 右旋回ボタン30cへのタッチを検出すると、CPU21は、AGV10をその場で右旋回させるための指令を含む制御信号を生成する。通信回路23は、生成された制御信号をAGV10に送信する。CPU21は、フォワードボタン30aへのタッチが検出されなくなるまで同じ制御信号を生成し、継続的にAGV10に送信する。 When detecting a touch on the right turn button 30c, the CPU 21 generates a control signal including a command for turning the AGV 10 right on the spot. The communication circuit 23 transmits the generated control signal to the AGV 10. CPU21 produces | generates the same control signal until the touch to the forward button 30a is no longer detected, and transmits to AGV10 continuously.
 AGV10のマイコン14aは、通信回路14dを介してタブレットコンピュータ20から制御信号を受信する。マイコン14aは、制御信号に含まれるAGV10を右旋回させる指令に応答して、モータ駆動回路17aおよび17bにそれぞれPWM信号を送信する。当該PWM信号は、モータ16aおよび16bを互いに逆回転させるための信号である。CPU21は、同じ回転速度でモータ16aを逆回転させ、モータ16bを正回転させるための制御信号を生成する。これにより、図7Bに示されるように、AGV10はその場で右旋回する。 The microcomputer 14a of the AGV 10 receives a control signal from the tablet computer 20 via the communication circuit 14d. The microcomputer 14a transmits a PWM signal to each of the motor drive circuits 17a and 17b in response to a command to turn the AGV 10 included in the control signal to the right. The PWM signal is a signal for rotating the motors 16a and 16b in the reverse directions. The CPU 21 generates a control signal for rotating the motor 16a in the reverse direction at the same rotation speed and rotating the motor 16b in the forward direction. Thereby, as shown in FIG. 7B, the AGV 10 turns right on the spot.
 CPU21は、右旋回ボタン30cへのタッチが検出されなくなると、AGV10の旋回を停止させるための指令を含む制御信号を生成してAGV10に送信する。これにより、ユーザ1の指がフォワードボタン30aから離れるとAGV10は旋回を停止する。 When the touch on the right turn button 30c is no longer detected, the CPU 21 generates a control signal including a command for stopping the turning of the AGV 10 and transmits the control signal to the AGV 10. Thereby, AGV10 stops turning, when the user's 1 finger | toe leaves | separates from the forward button 30a.
 なお、図5に示す左旋回ボタン30dがタッチされたときのタブレットコンピュータ20およびAGV10の動作は、右旋回ボタン30cがタッチされたときの動作と同様である。左旋回ボタン30dがタッチされると、AGV10を左旋回させる制御信号が生成され、当該制御信号によりAGV10が左旋回する。 Note that the operations of the tablet computer 20 and the AGV 10 when the left turn button 30d shown in FIG. 5 is touched are the same as the operations when the right turn button 30c is touched. When the left turn button 30d is touched, a control signal for turning the AGV 10 to the left is generated, and the AGV 10 turns to the left by the control signal.
 なお、右旋回時または左旋回時は、各モータが最速で回転してもよいし、ユーザが予め設定した旋回速度(角速度)になるよう、各モータが回転してもよい。ユーザによる設定は、たとえばオプション設定ボタン34を利用して行うことができる。ユーザ1がオプション設定ボタン34をタッチすると、CPU21は、AGV10の旋回速度の入力を受け付ける。なおCPU21は、旋回速度とは別に、AGV10の前方向または後方向への走行時の最大速度を受け付けてもよい。 When turning right or turning left, each motor may rotate at the highest speed, or each motor may rotate so as to have a turning speed (angular speed) set in advance by the user. The setting by the user can be performed using the option setting button 34, for example. When the user 1 touches the option setting button 34, the CPU 21 receives an input of the turning speed of the AGV 10. In addition, CPU21 may receive the maximum speed at the time of driving | running | working forward or backward of AGV10 separately from turning speed.
 図8Aおよび図8Bは、ジョイスティック型スライダ31を利用したAGV10の手動運転の例を示している。CPU21は、ジョイスティック型スライダ31へのタッチを検出すると、ジョイスティック型スライダ31のスライド方向に応じた方向に、かつ、スライド量に応じた速度でAGV10を走行させるための制御信号を生成する。たとえば図8Aに示されるように、ユーザ1がジョイスティック型スライダ31を右上の方向にスライドさせる。すると、AGV10は、図8Bに示されるように、右斜め前方向に走行する。ジョイスティック型スライダ31は、ユーザ1が、直感的に、AGV10の進行方向および走行速度を操作できるようにするために設けられている。 8A and 8B show an example of manual operation of the AGV 10 using the joystick type slider 31. FIG. When detecting a touch on the joystick slider 31, the CPU 21 generates a control signal for causing the AGV 10 to travel in a direction corresponding to the sliding direction of the joystick slider 31 and at a speed corresponding to the sliding amount. For example, as shown in FIG. 8A, the user 1 slides the joystick-type slider 31 in the upper right direction. Then, the AGV 10 travels diagonally right forward as shown in FIG. 8B. The joystick type slider 31 is provided so that the user 1 can intuitively operate the traveling direction and traveling speed of the AGV 10.
 図9は、ジョイスティック型スライダ31のスライド方向θおよびスライド量dの例を示している。図示されるように、X軸、Y軸および原点Oを設定する。図面上、原点Oの右側が+X方向、上側が+Y方向であるとする。+Y方向はAGV10の直進方向である。+X方向はAGV10の右手の真横の方向である。 FIG. 9 shows an example of the sliding direction θ and the sliding amount d of the joystick type slider 31. As shown in the figure, the X axis, the Y axis, and the origin O are set. In the drawing, it is assumed that the right side of the origin O is the + X direction and the upper side is the + Y direction. The + Y direction is the straight direction of AGV10. The + X direction is a direction directly beside the right hand of the AGV 10.
 CPU21は、タッチスクリーンパネル26から、スライドされたジョイスティック型スライダ31の中心座標P(X,Y)を取得する。スライド方向θおよびスライド量dは以下のように求めることができる。
 θ=tan-1(Y/X)  ・・・(1)
 d=(X2+Y21/2  ・・・(2)
The CPU 21 acquires the center coordinates P (X, Y) of the joystick slider 31 that has been slid from the touch screen panel 26. The sliding direction θ and the sliding amount d can be obtained as follows.
θ = tan −1 (Y / X) (1)
d = (X 2 + Y 2 ) 1/2 (2)
 なお、Xが0に近付くと、θの値が算出できなくなる。よって、CPU21は、Xが予め定められた値よりも小さな値になった場合で、Y>0のときはθ=90度、Y<0のときはθ=270度であると判定してもよい。 Note that when X approaches 0, the value of θ cannot be calculated. Accordingly, the CPU 21 determines that θ is 90 degrees when X is smaller than a predetermined value, and θ = 90 degrees when Y> 0, and θ = 270 degrees when Y <0. Good.
 いま、設定された最大速度をVmaxとし、AGV10のモータの基準回転速度をVbaseとする。また、原点OからX軸およびY軸の端までの距離を100とおく。今、下記の式(3)によってVbaseを求める。
 Vbase=Vmax・d/100  ・・・(3)
Now, it is assumed that the set maximum speed is Vmax and the reference rotational speed of the AGV10 motor is Vbase. The distance from the origin O to the ends of the X axis and the Y axis is set to 100. Now, Vbase is obtained by the following equation (3).
Vbase = Vmax · d / 100 (3)
 CPU21は、座標Pについて、X=0で、Y>0のときはモータ16aおよびモータ16bを、Vbaseで回転(正回転)させ、Y<0のときはモータ16aおよびモータ16bを-Vbaseで回転させる。 The CPU 21 rotates the motor 16a and the motor 16b at Vbase (positive rotation) when the coordinate P is X = 0 and Y> 0, and rotates the motor 16a and the motor 16b at −Vbase when Y <0. Let
 CPU21は、座標Pについて、Y=0で、X>0のときは、モータ16aを逆回転させ、モータ16bを正回転させる。いずれも速さはVbaseである。これによりAGV10は右旋回する。一方、X<0のときは、モータ16aを正回転させ、モータ16bを逆回転させる。いずれも速さはVbaseである。これによりAGV10は左旋回する。 When the coordinate P is Y = 0 and X> 0, the CPU 21 reversely rotates the motor 16a and rotates the motor 16b forward. In either case, the speed is Vbase. As a result, the AGV 10 turns right. On the other hand, when X <0, the motor 16a is rotated forward and the motor 16b is rotated backward. In either case, the speed is Vbase. As a result, the AGV 10 turns left.
 座標PのXおよびYの各値が0ではない場合には、座標Pが存在する象限によって、以下の表に示す速度でモータ16aおよびモータ16bを回転させる。 When the X and Y values of the coordinate P are not 0, the motor 16a and the motor 16b are rotated at the speed shown in the following table according to the quadrant where the coordinate P exists.
Figure JPOXMLDOC01-appb-T000001
Figure JPOXMLDOC01-appb-T000001
 なお表1では、右軸車輪回転速度Vrおよび左軸車輪回転速度Vlは、それぞれモータ16aおよびモータ16bの回転速度を意味している。 In Table 1, the right wheel rotation speed V r and the left wheel rotation speed V l mean the rotation speeds of the motor 16a and the motor 16b, respectively.
 上述したように、ユーザ1がジョイスティック型スライダ31を+Y方向、-Y方向、またはそれら以外の方向にスライドさせる。すると、CPU21はスライド方向に応じて、AGV10を前方向、後方向および円弧に沿った方向等に走行させるための制御信号を生成する。ジョイスティック型スライダ31を利用することにより、ユーザ1は直感的にAGV10の進行方向を制御でき、さらにスライド量に応じた速度で走行させることができる。 As described above, the user 1 slides the joystick type slider 31 in the + Y direction, the −Y direction, or other directions. Then, the CPU 21 generates a control signal for causing the AGV 10 to travel in the forward direction, the backward direction, the direction along the arc, and the like according to the slide direction. By using the joystick type slider 31, the user 1 can intuitively control the traveling direction of the AGV 10 and can travel at a speed corresponding to the amount of slide.
 次に、ユーザ1が地図作成ボタン32(図5)をタッチしたときのタブレットコンピュータ20の処理およびAGV10の動作を説明する。 Next, the processing of the tablet computer 20 and the operation of the AGV 10 when the user 1 touches the map creation button 32 (FIG. 5) will be described.
 CPU21は、地図作成ボタン32へのタッチを検出すると、AGV10を、空間Sの地図を作成させるための地図作成モードに移行させる。地図作成モードでは、AGV10はレーザレンジファインダ15を利用して空間Sをスキャンし、測位装置14eを用いて地図を作成する。 When the CPU 21 detects a touch on the map creation button 32, the CPU 21 shifts the AGV 10 to a map creation mode for creating a map of the space S. In the map creation mode, the AGV 10 scans the space S using the laser range finder 15 and creates a map using the positioning device 14e.
 図10A~図10Fは、移動しながら地図を生成するAGV10を示す。ユーザ1は、上述したジョイスティック型スライダ31を利用してAGV10を移動させてもよいし、フォワードボタン30a、バックワードボタン30b、右旋回ボタン30c、左旋回ボタン30dを用いてAGV10を移動させてもよい。 10A to 10F show the AGV 10 that generates a map while moving. The user 1 may move the AGV 10 using the joystick-type slider 31 described above, or move the AGV 10 using the forward button 30a, the backward button 30b, the right turn button 30c, and the left turn button 30d. Also good.
 図10Aには、レーザレンジファインダ15を用いて周囲の空間をスキャンするAGV10が示されている。所定のステップ角毎にレーザ光が放射され、スキャンが行われる。なお、図示されたスキャン範囲は模式的に示した例であり、上述した合計270度のスキャン範囲とは異なっている。 FIG. 10A shows an AGV 10 that scans the surrounding space using the laser range finder 15. Laser light is emitted at every predetermined step angle, and scanning is performed. The illustrated scan range is an example schematically shown, and is different from the above-described scan range of 270 degrees in total.
 図10A~図10Fの各々では、レーザ光の反射点の位置が、記号「・」で表される複数の黒点4を用いて示されている。測位装置14eは、走行に伴って得られる黒点4の位置を、たとえばメモリ14bに蓄積する。AGV10が走行しながらスキャンを継続して行うことにより、地図が徐々に完成されてゆく。図10Bから図10Eでは、簡略化のためスキャン範囲のみが示されている。当該スキャン範囲は例示であり、上述した合計270度の例とは異なる。 In each of FIGS. 10A to 10F, the position of the reflection point of the laser beam is shown using a plurality of black dots 4 represented by the symbol “·”. The positioning device 14e accumulates the position of the black spot 4 obtained as a result of traveling, for example, in the memory 14b. By continuously scanning while the AGV 10 travels, the map is gradually completed. 10B to 10E, only the scan range is shown for the sake of simplicity. The scan range is an example, and is different from the above-described example of 270 degrees in total.
 図10Fは、完成した地図60の一部を模式的に示す。測位装置14eは、地図60のデータ(地図データM)をメモリ14bまたは記憶装置14cに蓄積する。なお図示されている黒点の数または密度は一例である。 FIG. 10F schematically shows a part of the completed map 60. The positioning device 14e accumulates the data of the map 60 (map data M) in the memory 14b or the storage device 14c. The number or density of black spots shown in the figure is an example.
 地図データMの作成が完了すると、ユーザ1はAGV10の走行経路を設定することができる。 When the creation of the map data M is completed, the user 1 can set the travel route of the AGV 10.
 図11は、キャプチャボタン33(図5)を利用した走行経路の作成手順の例を示している。CPU21は、キャプチャボタン33へのタッチを検出すると、AGV10を経路作成モードに移行させる。ユーザ1は、新たに作成しようとする走行経路の開始位置までAGV10を移動させ、さらにキャプチャボタン33にタッチする。CPU21は、その時点におけるAGV10のポーズ(x, y, θ)を取得させる指令をAGV10に送信する。AGV10のマイコン14aは、指令に従い、そのときのポーズ(x, y, θ)のデータをメモリ14bまたは記憶装置14cに「マーカ」として記憶する。図11のマーカM1は、AGV10の走行開始位置を示している。 FIG. 11 shows an example of a procedure for creating a travel route using the capture button 33 (FIG. 5). When detecting a touch on the capture button 33, the CPU 21 shifts the AGV 10 to the route creation mode. The user 1 moves the AGV 10 to the start position of the travel route to be newly created, and further touches the capture button 33. The CPU 21 transmits to the AGV 10 a command for acquiring the pause (x, y, θ) of the AGV 10 at that time. In accordance with the command, the microcomputer 14a of the AGV 10 stores the data of the pause (x, y, θ) at that time as a “marker” in the memory 14b or the storage device 14c. A marker M1 in FIG. 11 indicates the travel start position of the AGV 10.
 図12は、マーカの設定数の数字アイコン33aが表示されたキャプチャボタン33を示している。マーカM1が取得された時点では、数字アイコン33aは「1」を示している。 FIG. 12 shows the capture button 33 on which a number icon 33a indicating the number of markers set is displayed. At the time when the marker M1 is acquired, the number icon 33a indicates “1”.
 さらにユーザ1がAGV10を、走行経路上の次の通過位置まで移動させてキャプチャボタン33にタッチする。すると、AGV10のマイコン14aは、タブレットコンピュータ20の指令に従い、そのときのポーズ(x, y, θ)のデータをメモリ14bまたは記憶装置14cに記憶する。同様の操作が繰り返されると、AGV10は、走行経路の各通過位置におけるAGV10のポーズ(x, y, θ)を順に取得する。図11のマーカM2~M4は、そのようにして取得された通過点を示している。 Furthermore, the user 1 moves the AGV 10 to the next passing position on the travel route and touches the capture button 33. Then, the microcomputer 14a of the AGV 10 stores the data of the pose (x, y, θ) at that time in the memory 14b or the storage device 14c in accordance with the command of the tablet computer 20. When the same operation is repeated, the AGV 10 sequentially acquires the poses (x, y, θ) of the AGV 10 at each passing position on the travel route. The markers M2 to M4 in FIG. 11 indicate the passing points acquired in this way.
 マーカM5が取得された後、ユーザ1がキャプチャボタン33を長押しすると、走行経路の作成が完了する。これにより、マーカM5は走行終了位置を表すことになる。なお、走行経路の作成後、ユーザ1が走行経路を判別するための経路名を付すことができてもよい。 After the marker M5 is acquired, when the user 1 presses the capture button 33 for a long time, the creation of the travel route is completed. Thereby, the marker M5 represents the travel end position. Note that after the travel route is created, the user 1 may be able to attach a route name for determining the travel route.
 マーカM1、M2、・・・、M5は、マーカM1から順にマーカM2、・・・、M4を経由して、マーカM5に至るAGV10の通過経路を示している。AGV10は、位置および向きであるポーズを、各マーカデータが取得された順序で変化させて、走行開始位置から走行終了位置まで移動する。走行経路データRは、複数のマーカの集合として定義され得る。作成された走行経路データRは記憶装置14cに記憶される。 Markers M1, M2,..., M5 indicate the passage path of AGV10 from marker M1 to marker M5 via markers M2,. The AGV 10 moves from the travel start position to the travel end position by changing the position and orientation pose in the order in which each marker data is acquired. The travel route data R can be defined as a set of a plurality of markers. The created travel route data R is stored in the storage device 14c.
 図13Aは、ある走行経路データRに含まれるマーカデータの例を示している。番号M1~M5で示される各マーカには、X座標、Y座標および角度θを含むマーカデータが存在する。なお、マーカM3の位置はマーカM2の位置と同じである。しかしながら、AGV10は、マーカM2におけるポーズから、角度φだけ左旋回したことにより、異なるマーカとして取得されている。 FIG. 13A shows an example of marker data included in a certain travel route data R. Each marker indicated by numbers M1 to M5 has marker data including an X coordinate, a Y coordinate, and an angle θ. The position of the marker M3 is the same as the position of the marker M2. However, the AGV 10 is acquired as a different marker by turning left by an angle φ from the pose at the marker M2.
 さらに図13Bは、図13Aの例よりも豊富なデータが設定されたマーカデータの例を示している。図13Bの例では、一部のマーカのマーカデータは、走行速度、加速時間および減速時間のデータを有している。以下、一般化して説明する。 Further, FIG. 13B shows an example of marker data in which abundant data is set as compared with the example of FIG. 13A. In the example of FIG. 13B, the marker data of some markers has data on travel speed, acceleration time, and deceleration time. Hereinafter, a generalized description will be given.
 「走行速度」は、k番目(k:1以上の整数)のマーカデータが示す位置から、(k+1)番目に取得されたマーカデータが示す位置に移動するまでのAGV10の走行速度を示している。「加速時間」は、走行速度に達するまでに加速する加速時間であり、「減速時間」は走行速度から減速する減速時間である。なお、走行速度、加速時間および減速時間は常に同時に設定される必要はない。マーカM2のように、走行速度、加速時間および減速時間がいずれも設定されていない場合もあり得るし、走行速度、加速時間および減速時間のうちの任意の一つまたは複数が設定され得る。 The “traveling speed” indicates the traveling speed of the AGV 10 from the position indicated by the k-th (k: 1 or larger) marker data to the position indicated by the (k + 1) -th acquired marker data. . The “acceleration time” is an acceleration time for accelerating until reaching the traveling speed, and the “deceleration time” is a deceleration time for decelerating from the traveling speed. Note that the traveling speed, acceleration time, and deceleration time need not always be set simultaneously. Like the marker M2, there may be a case where none of the traveling speed, acceleration time, and deceleration time is set, and any one or more of the traveling speed, acceleration time, and deceleration time may be set.
 上述の手順により、ユーザ1は、1つまたは複数の走行経路を作成することができる。上述したように、走行経路データRは、AGV10の記憶装置14cに記憶されるが、AGV10とタブレットコンピュータ20との間で接続が確立されると、走行経路データRがAGV10からタブレットコンピュータ20に転送される。ユーザ1は、タブレットコンピュータ20上で、転送された走行経路データRを構成するマーカデータを編集することができる。マーカデータの編集は、たとえば一部のマーカデータの削除、X座標、Y座標および/または角度θの値の変更である。 According to the above procedure, the user 1 can create one or a plurality of travel routes. As described above, the travel route data R is stored in the storage device 14c of the AGV 10, but when the connection is established between the AGV 10 and the tablet computer 20, the travel route data R is transferred from the AGV 10 to the tablet computer 20. Is done. The user 1 can edit the marker data constituting the transferred travel route data R on the tablet computer 20. The editing of the marker data is, for example, deleting a part of the marker data and changing the value of the X coordinate, the Y coordinate and / or the angle θ.
 図14は、経路選択ボタン35(図5)へのタッチ後にディスプレイ25に表示される、複数の走行経路R1~R3の表示例を示している。各経路番号と、ユーザ1によって付された経路名が表示されている。 FIG. 14 shows a display example of a plurality of travel routes R1 to R3 displayed on the display 25 after touching the route selection button 35 (FIG. 5). Each route number and the route name given by the user 1 are displayed.
 ユーザ1は、表示された経路番号または経路名をタッチして選択する。図14では、選択された走行経路R2がハイライト表示されている。CPU21は、AGV10に、走行経路R2が選択されたことを示す指令を送信する。指令を受信したAGV10のマイコン14aは、記憶装置14cに記憶している複数の走行経路の中から走行経路R2の各マーカデータを読み出す。ユーザ1が、走行経路R2の走行開始位置までAGV10を移動させ、たとえばスタートボタン(図示せず)をタッチすることにより、AGV10のマイコン14aは走行経路R2に沿って自動運転を開始する。 User 1 touches the displayed route number or route name to select it. In FIG. 14, the selected travel route R2 is highlighted. CPU21 transmits the instruction | command which shows that driving | running route R2 was selected to AGV10. The microcomputer 14a of the AGV 10 that has received the command reads each marker data of the travel route R2 from the plurality of travel routes stored in the storage device 14c. When the user 1 moves the AGV 10 to the travel start position on the travel route R2, and touches a start button (not shown), for example, the microcomputer 14a of the AGV 10 starts automatic operation along the travel route R2.
 図14には、選択した走行経路の編集を行うためのメニュー40が示されている。メニュー40は、個々のマーカデータの編集を行う編集ボタン40a、削除ボタン等が含まれている。ディスプレイ25上に、走行経路に関する選択だけでなく、編集も可能にするためのメニュー40を設けることにより、ユーザ1の利便性を向上させることができる。 FIG. 14 shows a menu 40 for editing the selected travel route. The menu 40 includes an edit button 40a for editing individual marker data, a delete button, and the like. The convenience of the user 1 can be improved by providing on the display 25 a menu 40 for enabling not only selection relating to the travel route but also editing.
 ユーザの利便性をさらに向上させるために、さらに以下の方法を採用してもよい。すなわち、1つ以上の走行経路の設定が完了した後、ユーザ1にとって走行経路を毎回選択することが煩わしいと感じる場合がある。走行経路の選択手順を簡略化する方法として、一部の走行経路を予め登録しておくことが考えられる。 In order to further improve user convenience, the following method may be further adopted. That is, after setting one or more travel routes, the user 1 may find it troublesome to select a travel route each time. As a method for simplifying the travel route selection procedure, it is conceivable to register some travel routes in advance.
 図15は、タブレットコンピュータ20上でAGV10を制御するアプリケーションが起動された直後のGUI(初期GUI)の画像例を示している。初期GUIには、予め登録された複数の走行経路50aおよび50bが表示されている。これらは、図14における走行経路R1およびR2に対応している。さらに初期GUIには、スタートボタン51が表示されている。ユーザ1は、走行経路の選択を完了し、スタートボタン51にタッチする。すると、CPU21は、走行経路の指定および走行開始指示を、AGV10に送信する。 FIG. 15 shows an example of the GUI (initial GUI) immediately after the application for controlling the AGV 10 is started on the tablet computer 20. The initial GUI displays a plurality of travel routes 50a and 50b registered in advance. These correspond to the travel routes R1 and R2 in FIG. Further, a start button 51 is displayed on the initial GUI. User 1 completes the selection of the travel route and touches start button 51. Then, the CPU 21 transmits a travel route designation and a travel start instruction to the AGV 10.
 AGV10は、選択された走行経路の各マーカデータを読み出し、その後、各マーカを通過しながら走行する。ユーザ1は、アプリケーションを起動した後すぐに、AGV10を走行させることが可能になる。 The AGV 10 reads each marker data of the selected travel route, and then travels while passing through each marker. The user 1 can run the AGV 10 immediately after starting the application.
 本開示の技術は、移動体の動作の制御に広く用いられ得る。 The technique of the present disclosure can be widely used for controlling the operation of a moving object.
 1 ユーザ、 2a、2b 無線アクセスポイント、 10 AGV(移動体)、 14a マイコン、 14b メモリ、 14c 記憶装置、 14d 通信回路、 14e 測位装置、 16a、16b モータ、 15 レーザレンジファインダ、 17a、17b モータ駆動回路、 20 タブレットコンピュータ(モバイルコンピュータ)、 21 CPU、 22 メモリ、 23 通信回路、 24 画像処理回路、 25 ディスプレイ、 26 タッチスクリーンパネル、 100 制御システム 1 user, 2a, 2b wireless access point, 10 AGV (mobile), 14a microcomputer, 14b memory, 14c storage device, 14d communication circuit, 14e positioning device, 16a, 16b motor, 15 laser range finder, 17a, 17b motor drive Circuit, 20 tablet computer (mobile computer), 21 CPU, 22 memory, 23 communication circuit, 24 image processing circuit, 25 display, 26 touch screen panel, 100 control system

Claims (24)

  1.  ユーザからグラフィカル・ユーザ・インタフェース(GUI)を介して入力を受け付けて移動体の動作を制御するモバイルコンピュータであって、
     前記移動体と通信することが可能な通信回路と、
     各々が、前記移動体の走行制御または設定処理に関連付けられた複数のウィジェットを含むGUIを表示する表示装置と、
     前記ユーザによる前記表示装置へのタッチを検出して検出位置のデータを出力するタッチスクリーンパネルと、
     前記タッチの検出に応答して、前記検出位置に配置された前記ウィジェットに関連付けられた、前記移動体の走行制御または設定処理を行う処理回路と
     を備え、前記GUIは、
      前記移動体の走行制御のための少なくとも1つの操作ウィジェット、
      前記移動体に空間の地図を作成させるための地図作成ウィジェット、
      前記移動体の通過位置を指定して前記移動体の走行経路を作成するためのキャプチャウィジェット、および、
      作成された1つまたは複数の走行経路のうちから一つの走行経路を選択するための経路選択ウィジェット
     を含む、モバイルコンピュータ。
    A mobile computer that receives input from a user via a graphical user interface (GUI) and controls the operation of a moving object,
    A communication circuit capable of communicating with the mobile body;
    A display device each displaying a GUI including a plurality of widgets associated with travel control or setting processing of the mobile body;
    A touch screen panel that detects a touch on the display device by the user and outputs data of a detection position;
    In response to the detection of the touch, a processing circuit that performs a traveling control or setting process of the moving body associated with the widget arranged at the detection position, and the GUI includes:
    At least one operation widget for driving control of the mobile body;
    A map creation widget for causing the moving object to create a map of the space;
    A capture widget for creating a travel route of the moving object by designating a passing position of the moving object; and
    A mobile computer including a route selection widget for selecting one travel route from one or a plurality of travel routes created.
  2.  前記少なくとも1つの操作ウィジェットは、前記移動体が走行する方向および速度を制御するジョイスティック型スライダを含む、請求項1に記載のモバイルコンピュータ。 The mobile computer according to claim 1, wherein the at least one operation widget includes a joystick-type slider that controls a direction and a speed in which the moving body travels.
  3.  前記処理回路は、前記タッチスクリーンパネルの出力に基づいて、前記ユーザが、前記ジョイスティック型スライダが表示された前記表示装置上の基準位置にタッチしたこと、および、前記基準位置からのスライド量およびスライド方向を検出し、前記スライド量に応じた速度で、かつ、前記スライド方向に応じた方向に前記移動体を走行させるための指令を含む制御信号を生成し、
     前記通信回路は、前記制御信号を前記移動体に送信する、請求項2に記載のモバイルコンピュータ。
    The processing circuit detects that the user has touched a reference position on the display device on which the joystick-type slider is displayed based on an output of the touch screen panel, and a slide amount and a slide from the reference position. Detecting a direction, generating a control signal including a command for causing the moving body to travel at a speed corresponding to the slide amount and in a direction corresponding to the slide direction;
    The mobile computer according to claim 2, wherein the communication circuit transmits the control signal to the mobile body.
  4.  前記処理回路は、前記スライド方向に応じて、前記移動体を前方向、後方向および円弧に沿った方向のいずれかに走行させるための指令を含む制御信号を生成する、請求項3に記載のモバイルコンピュータ。 4. The control circuit according to claim 3, wherein the processing circuit generates a control signal including a command for causing the moving body to travel in any one of a forward direction, a backward direction, and a direction along an arc according to the sliding direction. Mobile computer.
  5.  前記少なくとも1つの操作ウィジェットは前記移動体を前方向に走行させるフォワードボタンを含む、請求項1から4のいずれかに記載のモバイルコンピュータ。 The mobile computer according to any one of claims 1 to 4, wherein the at least one operation widget includes a forward button that causes the moving body to travel forward.
  6.  前記処理回路は、前記タッチスクリーンパネルの出力に基づいて前記ユーザによる前記フォワードボタンへのタッチを検出すると、前記移動体を前方向に走行させるための指令を含む制御信号を生成し、
     前記通信回路は、前記制御信号を前記移動体に送信する、請求項5に記載のモバイルコンピュータ。
    When the processing circuit detects a touch on the forward button by the user based on an output of the touch screen panel, the processing circuit generates a control signal including a command for causing the moving body to travel forward,
    The mobile computer according to claim 5, wherein the communication circuit transmits the control signal to the mobile body.
  7.  前記少なくとも1つの操作ウィジェットは前記移動体を後方向に走行させるバックワードボタンを含む、請求項1から6のいずれかに記載のモバイルコンピュータ。 The mobile computer according to any one of claims 1 to 6, wherein the at least one operation widget includes a backward button that causes the moving body to travel backward.
  8.  前記処理回路は、前記タッチスクリーンパネルの出力に基づいて前記ユーザによる前記バックワードボタンへのタッチを検出すると、前記移動体を後方向に走行させるための指令を含む制御信号を生成し、
     前記通信回路は、前記制御信号を前記移動体に送信する、請求項7に記載のモバイルコンピュータ。
    When the processing circuit detects a touch on the backward button by the user based on the output of the touch screen panel, the processing circuit generates a control signal including a command for causing the moving body to travel backward,
    The mobile computer according to claim 7, wherein the communication circuit transmits the control signal to the mobile body.
  9.  前記少なくとも1つの操作ウィジェットは、前記移動体を右回りに旋回させる右旋回ボタン、および、左回りに旋回させる左旋回ボタンを含む、請求項1から8のいずれかに記載のモバイルコンピュータ。 The mobile computer according to any one of claims 1 to 8, wherein the at least one operation widget includes a right turn button for turning the mobile body clockwise and a left turn button for turning counterclockwise.
  10.  前記処理回路は、前記タッチスクリーンパネルの出力に基づいて前記ユーザによる前記右旋回ボタンおよび前記左旋回ボタンの一方へのタッチを検出すると、タッチが検出されたボタンに関連付けられた方向に前記移動体を旋回させるための指令を含む制御信号を生成し、
     前記通信回路は、前記制御信号を前記移動体に送信する、請求項9に記載のモバイルコンピュータ。
    When the processing circuit detects a touch on one of the right turn button and the left turn button by the user based on an output of the touch screen panel, the processing circuit moves in a direction associated with the button in which the touch is detected. Generate a control signal including a command to turn the body,
    The mobile computer according to claim 9, wherein the communication circuit transmits the control signal to the mobile body.
  11.  前記制御信号は、予め設定された速度で前記移動体を走行させるための指令を含む、請求項6または8に記載のモバイルコンピュータ。 The mobile computer according to claim 6 or 8, wherein the control signal includes a command for causing the moving body to travel at a preset speed.
  12.  前記GUIは、前記移動体の速度を指定するためのオプション設定ボタンをさらに含み、
     前記処理回路は、
      前記タッチスクリーンパネルの出力に基づいて、前記ユーザによる前記オプション設定ボタンへのタッチを検出し、さらに前記移動体の走行速度の入力を受け付け、
      入力された前記走行速度で前記移動体を走行させるための指令を含む制御信号を生成する、請求項11に記載のモバイルコンピュータ。
    The GUI further includes an option setting button for designating the speed of the moving object,
    The processing circuit includes:
    Based on the output of the touch screen panel, it detects a touch on the option setting button by the user, and further receives an input of the traveling speed of the moving body,
    The mobile computer according to claim 11, wherein a control signal including a command for causing the moving body to travel at the input traveling speed is generated.
  13.  前記制御信号は、予め設定された旋回速度で前記移動体を旋回させるための指令を含む、請求項10に記載のモバイルコンピュータ。 The mobile computer according to claim 10, wherein the control signal includes a command for turning the moving body at a preset turning speed.
  14.  前記GUIは、前記移動体の旋回速度を指定するためのオプション設定ボタンをさらに含み、
     前記処理回路は、
      前記タッチスクリーンパネルの出力に基づいて、前記ユーザによる前記オプション設定ボタンへのタッチを検出し、さらに前記移動体の旋回速度の入力を受け付け、
      入力された前記旋回速度で前記移動体を旋回させるための指令を含む制御信号を生成する、請求項13に記載のモバイルコンピュータ。
    The GUI further includes an option setting button for designating a turning speed of the moving body,
    The processing circuit includes:
    Based on the output of the touch screen panel, it detects a touch on the option setting button by the user, and further receives an input of the turning speed of the moving body,
    The mobile computer according to claim 13, wherein a control signal including a command for turning the moving body at the inputted turning speed is generated.
  15.  前記処理回路は、前記タッチスクリーンパネルの出力に基づいて前記ユーザによる前記少なくとも1つの操作ウィジェットへのタッチを検出し続けている期間中、前記少なくとも1つの操作ウィジェットに関連付けられた、前記移動体の走行制御または設定処理を行う、請求項1から10のいずれかに記載のモバイルコンピュータ。 The processing circuit is configured to detect the touch of the at least one operation widget by the user based on the output of the touch screen panel. The processing circuit is associated with the at least one operation widget. The mobile computer according to claim 1, wherein the mobile computer performs traveling control or setting processing.
  16.  前記移動体は、
      モータと、
      前記モータを制御して前記移動体を移動させる駆動装置と、
      周囲の空間をセンシングしてセンサデータを出力するセンサと、
      空間を移動することによって経時的に取得された前記センサデータから、移動した空間の地図データを生成する演算回路と、
      前記地図データを記憶する記憶装置と、
      通信装置と
     を有しており、
     前記モバイルコンピュータの前記処理回路は、前記タッチスクリーンパネルから出力された前記検出位置に基づいて前記ユーザによる前記地図作成ウィジェットへのタッチを検出すると、前記地図データを生成させるための指令を含む制御信号を生成し、
     前記通信回路は、前記制御信号を前記移動体に送信する、請求項1に記載のモバイルコンピュータ。
    The moving body is
    A motor,
    A drive device for controlling the motor to move the movable body;
    A sensor that senses the surrounding space and outputs sensor data;
    An arithmetic circuit that generates map data of the moved space from the sensor data acquired over time by moving the space;
    A storage device for storing the map data;
    Communication device and
    The processing circuit of the mobile computer includes a control signal including a command for generating the map data when detecting a touch on the map creation widget by the user based on the detection position output from the touch screen panel. Produces
    The mobile computer according to claim 1, wherein the communication circuit transmits the control signal to the mobile body.
  17.  前記移動体は、
      モータと、
      前記モータを制御して前記移動体を移動させる駆動装置と、
      周囲の空間をセンシングしてセンサデータを出力するセンサと、
      前記地図データが記憶された記憶装置と、
      前記センサデータおよび前記地図データを利用して、前記移動体の位置および向きを推定する演算回路と、
      通信装置と
     を有しており、
     前記モバイルコンピュータの処理回路は、前記タッチスクリーンパネルの出力に基づいて前記キャプチャウィジェットへのタッチを検出すると、前記移動体を経路作成モードに移行させ、
     前記処理回路は、
      前記タッチスクリーンパネルの出力に基づいて前記キャプチャウィジェットへのタッチを検出する度に、検出した時点における前記移動体の位置および向きを示すマーカデータを、前記移動体に記憶させ、
      前記移動体に複数のマーカデータが記憶された後に、予め定められたタッチ操作を検出すると、前記複数のマーカデータに基づく走行経路データを前記移動体に生成させる、請求項1に記載のモバイルコンピュータ。
    The moving body is
    A motor,
    A drive device for controlling the motor to move the movable body;
    A sensor that senses the surrounding space and outputs sensor data;
    A storage device storing the map data;
    An arithmetic circuit that estimates the position and orientation of the moving body using the sensor data and the map data;
    Communication device and
    When the processing circuit of the mobile computer detects a touch to the capture widget based on the output of the touch screen panel, the mobile body shifts to the path creation mode,
    The processing circuit includes:
    Each time a touch on the capture widget is detected based on the output of the touch screen panel, marker data indicating the position and orientation of the moving body at the time of detection is stored in the moving body,
    2. The mobile computer according to claim 1, wherein when a predetermined touch operation is detected after a plurality of marker data is stored in the mobile body, the mobile body generates travel route data based on the plurality of marker data. .
  18.  前記走行経路データは、前記移動体の位置および向きを、各マーカデータが取得された順序で変化させることによって前記移動体の走行経路を規定するデータである、請求項17に記載のモバイルコンピュータ。 The mobile computer according to claim 17, wherein the travel route data is data defining a travel route of the moving body by changing a position and an orientation of the moving body in an order in which each marker data is acquired.
  19.  前記GUIは、前記移動体の走行速度を指定するためのオプション設定ウィジェットをさらに含み、
     前記処理回路は、
      前記タッチスクリーンパネルの出力に基づいて、前記ユーザによる前記オプション設定ウィジェットへのタッチを検出すると、前記移動体に、前記走行経路データの送信を指示し、
      前記移動体から前記走行経路データを受信すると、k番目(k:1以上の整数)に取得されたマーカデータが示す位置から、(k+1)番目に取得されたマーカデータが示す位置に移動するまでの前記移動体の走行速度の入力を受け付け、
      受け付けた前記走行速度を、前記k番目に取得されたマーカデータとして前記移動体に記憶させる、請求項18に記載のモバイルコンピュータ。
    The GUI further includes an option setting widget for designating a traveling speed of the mobile body,
    The processing circuit includes:
    When detecting a touch on the option setting widget by the user based on the output of the touch screen panel, the mobile unit is instructed to transmit the travel route data.
    When the travel route data is received from the mobile body, the k-th (k: an integer equal to or greater than 1) acquired marker data is moved to a position indicated by the (k + 1) -th acquired marker data. Accepts the input of the traveling speed of the moving body of
    The mobile computer according to claim 18, wherein the received traveling speed is stored in the moving body as the k-th acquired marker data.
  20.  前記処理回路は、前記走行速度に達するまでに加速する加速時間、および、前記走行速度から減速する減速時間の少なくとも一方の入力をさらに受け付け、
      受け付けた前記加速時間および前記減速時間の少なくとも一方を、前記k番目に取得されたマーカデータとして前記移動体に記憶させる、請求項19に記載のモバイルコンピュータ。
    The processing circuit further accepts at least one of an acceleration time for accelerating until reaching the traveling speed and a deceleration time for decelerating from the traveling speed,
    The mobile computer according to claim 19, wherein at least one of the received acceleration time and the deceleration time is stored in the moving body as the k-th acquired marker data.
  21.  前記内部ストレージは、複数の走行経路データを記憶しており、
     前記処理回路は、
      前記タッチスクリーンパネルの出力に基づいて前記経路選択ウィジェットへのタッチを検出すると、
    前記複数の走行経路データによって示される複数の走行経路を前記表示装置に表示させ、
      前記複数の走行経路の一つを選択する入力を受け付ける、請求項17から20のいずれかに記載のモバイルコンピュータ。
    The internal storage stores a plurality of travel route data,
    The processing circuit includes:
    Detecting a touch to the routing widget based on the output of the touch screen panel;
    Displaying a plurality of travel routes indicated by the plurality of travel route data on the display device;
    The mobile computer according to any one of claims 17 to 20, which receives an input for selecting one of the plurality of travel routes.
  22.  前記処理回路は、前記モバイルコンピュータの起動直後に前記表示装置に表示される前記GUIに、前記複数の走行経路の中から予め選択された少なくとも1つの走行経路を表示する、請求項21に記載のモバイルコンピュータ。 The processing circuit according to claim 21, wherein the processing circuit displays at least one travel route selected in advance from the plurality of travel routes on the GUI displayed on the display device immediately after the mobile computer is activated. Mobile computer.
  23.  移動体と、
     前記ユーザからグラフィカル・ユーザ・インタフェース(GUI)を介して入力を受け付けて前記移動体の動作を制御するモバイルコンピュータと
     を備えた移動体制御システムであって、
     前記モバイルコンピュータは、
      前記移動体と通信することが可能な通信回路と、
      各々が、前記移動体の走行制御または設定処理に関連付けられた複数のウィジェットを含むGUIを表示する表示装置と、
      前記ユーザによる前記表示装置へのタッチを検出して検出位置のデータを出力するタッチスクリーンパネルと、
      処理回路と
     を備え、前記GUIは、
      前記移動体の走行制御のための少なくとも1つの操作ウィジェット、
      前記移動体に空間の地図を作成させるための地図作成ウィジェット、
      前記移動体の通過位置を指定して前記移動体の走行経路を作成するためのキャプチャウィジェット、および、
      作成された1つまたは複数の走行経路のうちから一つの走行経路を選択するための経路選択ウィジェット
     を含み、
     前記処理回路は、前記タッチの検出に応答して、前記検出位置に配置された前記ウィジェットに関連付けられた、前記移動体の走行制御または設定処理を行う、移動体制御システム。
    A moving object,
    A mobile computer control system comprising: a mobile computer that receives input from the user via a graphical user interface (GUI) and controls the operation of the mobile device;
    The mobile computer is
    A communication circuit capable of communicating with the mobile body;
    A display device each displaying a GUI including a plurality of widgets associated with travel control or setting processing of the mobile body;
    A touch screen panel that detects a touch on the display device by the user and outputs data of a detection position;
    A processing circuit, and the GUI includes:
    At least one operation widget for driving control of the mobile body;
    A map creation widget for causing the moving object to create a map of the space;
    A capture widget for creating a travel route of the moving object by designating a passing position of the moving object; and
    A route selection widget for selecting one route from one or more created routes,
    In response to detection of the touch, the processing circuit performs travel control or setting processing of the mobile body associated with the widget disposed at the detection position.
  24.  ユーザからグラフィカル・ユーザ・インタフェース(GUI)を介して入力を受け付けて移動体の動作を制御するモバイルコンピュータを動作させるコンピュータプログラムであって、
     前記モバイルコンピュータは、
      前記移動体と通信することが可能な通信回路と、
      各々が、前記移動体の走行制御または設定処理に関連付けられた複数のウィジェットを含むGUIを表示する表示装置と、
      前記ユーザによる前記表示装置へのタッチを検出して検出位置のデータを出力するタッチスクリーンパネルと、
      コンピュータである処理回路と
     を備え、
     前記コンピュータプログラムは、前記処理回路に、
      前記移動体の走行制御のための少なくとも1つの操作ウィジェット、前記移動体に空間の地図を作成させるための地図作成ウィジェット、前記移動体の通過位置を指定して前記移動体の走行経路を作成するためのキャプチャウィジェット、および、作成された1つまたは複数の走行経路のうちから一つの走行経路を選択するための経路選択ウィジェットを含むGUIを前記表示装置に表示させ、
      前記タッチスクリーンパネルから出力された、前記検出位置のデータを受け取らせ、
      前記検出位置に配置された前記ウィジェットに関連付けられた、前記移動体の走行制御または設定処理を行わせるための指令を、前記通信回路を介して送信させる、コンピュータプログラム。
    A computer program for operating a mobile computer that receives input from a user via a graphical user interface (GUI) and controls the operation of a moving object,
    The mobile computer is
    A communication circuit capable of communicating with the mobile body;
    A display device each displaying a GUI including a plurality of widgets associated with travel control or setting processing of the mobile body;
    A touch screen panel that detects a touch on the display device by the user and outputs data of a detection position;
    And a processing circuit that is a computer,
    The computer program is stored in the processing circuit.
    At least one operation widget for running control of the mobile body, a map creation widget for causing the mobile body to create a map of space, and a travel route of the mobile body by creating a passing position of the mobile body A GUI including a capture widget for selecting a route selection widget for selecting one of a plurality of generated driving routes and one or a plurality of generated driving routes on the display device,
    Receiving the data of the detection position output from the touch screen panel;
    The computer program which transmits the instruction | command for performing the traveling control or the setting process of the said mobile body linked | related with the said widget arrange | positioned in the said detection position via the said communication circuit.
PCT/JP2018/018362 2017-05-19 2018-05-11 Mobile computer for controlling motion of mobile body, mobile body control system, and computer program WO2018212099A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019518752A JP6794539B2 (en) 2017-05-19 2018-05-11 Mobile computers, mobile control systems and computer programs that control the movement of mobiles

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-099592 2017-05-19
JP2017099592 2017-05-19

Publications (1)

Publication Number Publication Date
WO2018212099A1 true WO2018212099A1 (en) 2018-11-22

Family

ID=64274424

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/018362 WO2018212099A1 (en) 2017-05-19 2018-05-11 Mobile computer for controlling motion of mobile body, mobile body control system, and computer program

Country Status (2)

Country Link
JP (1) JP6794539B2 (en)
WO (1) WO2018212099A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020047168A (en) * 2018-09-21 2020-03-26 シャープ株式会社 Carrier system, carrier method, and program
CN111086572A (en) * 2020-01-16 2020-05-01 深圳市科昭科技有限公司 Intelligence lift post turns to AGV robot

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6122703A (en) * 1984-07-10 1986-01-31 Toyoda Autom Loom Works Ltd Overspeed detector of operatorless vehicle or the like
JPH03148708A (en) * 1989-11-02 1991-06-25 Ishikawajima Shibaura Kikai Kk Steering controller for automatic traveling working vehicle
JPH08170438A (en) * 1994-12-20 1996-07-02 Sumitomo Heavy Ind Ltd Method for controlling stopping position of travel device
JPH08272439A (en) * 1995-03-30 1996-10-18 Nissan Diesel Motor Co Ltd Radio control system for vehicle
JP2001142533A (en) * 1999-11-12 2001-05-25 Nissan Diesel Motor Co Ltd Operation control system for unmanned carrier
WO2014129042A1 (en) * 2013-02-21 2014-08-28 ソニー株式会社 Information processing device, information processing method, and program
JP2016067800A (en) * 2014-10-01 2016-05-09 パナソニックIpマネジメント株式会社 Electric equipment system
JP2016122278A (en) * 2014-12-24 2016-07-07 ヤマハ発動機株式会社 Manipulation device and autonomous mobile system
JP2017021445A (en) * 2015-07-07 2017-01-26 キヤノン株式会社 Communication device, control method thereof, and program
JP2017509034A (en) * 2013-07-31 2017-03-30 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Remote control method and terminal

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6122703A (en) * 1984-07-10 1986-01-31 Toyoda Autom Loom Works Ltd Overspeed detector of operatorless vehicle or the like
JPH03148708A (en) * 1989-11-02 1991-06-25 Ishikawajima Shibaura Kikai Kk Steering controller for automatic traveling working vehicle
JPH08170438A (en) * 1994-12-20 1996-07-02 Sumitomo Heavy Ind Ltd Method for controlling stopping position of travel device
JPH08272439A (en) * 1995-03-30 1996-10-18 Nissan Diesel Motor Co Ltd Radio control system for vehicle
JP2001142533A (en) * 1999-11-12 2001-05-25 Nissan Diesel Motor Co Ltd Operation control system for unmanned carrier
WO2014129042A1 (en) * 2013-02-21 2014-08-28 ソニー株式会社 Information processing device, information processing method, and program
JP2017509034A (en) * 2013-07-31 2017-03-30 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Remote control method and terminal
JP2016067800A (en) * 2014-10-01 2016-05-09 パナソニックIpマネジメント株式会社 Electric equipment system
JP2016122278A (en) * 2014-12-24 2016-07-07 ヤマハ発動機株式会社 Manipulation device and autonomous mobile system
JP2017021445A (en) * 2015-07-07 2017-01-26 キヤノン株式会社 Communication device, control method thereof, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020047168A (en) * 2018-09-21 2020-03-26 シャープ株式会社 Carrier system, carrier method, and program
CN111086572A (en) * 2020-01-16 2020-05-01 深圳市科昭科技有限公司 Intelligence lift post turns to AGV robot

Also Published As

Publication number Publication date
JPWO2018212099A1 (en) 2020-02-27
JP6794539B2 (en) 2020-12-02

Similar Documents

Publication Publication Date Title
US10866587B2 (en) System, method, and computer program for mobile body management
JP7103585B2 (en) Mobiles, mobile management systems and computer programs
JP6665506B2 (en) Remote control device, method and program
US9002535B2 (en) Navigation portals for a remote vehicle control user interface
CN108016497A (en) Apparatus and method for scanning parking stall
US20150130759A1 (en) Display apparatus, vehicle equipped with the display apparatus and control method for the display apparatus
WO2018110568A1 (en) Moving body performing obstacle avoidance operation and computer program therefor
US20190360835A1 (en) Stand-alone self-driving material-transport vehicle
JP5805841B1 (en) Autonomous mobile body and autonomous mobile body system
JP6104715B2 (en) Route generation method and apparatus
WO2018212099A1 (en) Mobile computer for controlling motion of mobile body, mobile body control system, and computer program
JP2014067223A (en) Autonomous mobile body
JP6025814B2 (en) Operating device and autonomous mobile system
WO2019054209A1 (en) Map creation system and map creation device
KR102637701B1 (en) Method and apparatus for route guidance using augmented reality view
KR20100099489A (en) Apparatus and method for controlling navigation based on collision prediction
JPWO2018179960A1 (en) Moving object and self-position estimation device
US20190302757A1 (en) Computer system and computer program
KR102117338B1 (en) Method for controling unmanned moving object based on cylindrical coordinate system and recording medium storing program for executing the same, and computer prograom stored in recording medium for executing the same
JP4975693B2 (en) Mobile robot apparatus and mobile robot control method
JP2019179497A (en) Moving body and moving body system
US11221760B2 (en) Information processing apparatus, information processing method, and storage medium
JP2017224048A (en) Movement target determination device and movement target determination method
JP6192506B2 (en) Moving body
EP4258077A1 (en) Device and method for simulating mobile robot at work site

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18801280

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019518752

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18801280

Country of ref document: EP

Kind code of ref document: A1