WO2016158683A1 - 地図作成装置、自律走行体、自律走行体システム、携帯端末、地図作成方法、地図作成プログラム及びコンピュータ読み取り可能な記録媒体 - Google Patents

地図作成装置、自律走行体、自律走行体システム、携帯端末、地図作成方法、地図作成プログラム及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2016158683A1
WO2016158683A1 PCT/JP2016/059438 JP2016059438W WO2016158683A1 WO 2016158683 A1 WO2016158683 A1 WO 2016158683A1 JP 2016059438 W JP2016059438 W JP 2016059438W WO 2016158683 A1 WO2016158683 A1 WO 2016158683A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
unit
information
robot
map
Prior art date
Application number
PCT/JP2016/059438
Other languages
English (en)
French (fr)
Inventor
融 空閑
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2016158683A1 publication Critical patent/WO2016158683A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram

Definitions

  • the present invention relates to a map creation device, an autonomous vehicle, an autonomous vehicle system, a portable terminal, a map creation method, a map creation program, and a computer-readable recording medium.
  • an autonomous traveling body that autonomously travels within a limited area inside a building or outdoors is known.
  • an autonomous traveling body has been developed which is a region where the autonomous traveling body should move and has a function of creating a map corresponding to the surrounding environment.
  • the autonomous traveling body autonomously travels to create a map on the autonomous traveling body, and the operator operates the autonomous traveling body to map the autonomous traveling body to the map. The method of making it can be mentioned.
  • a method in which the latter operator operates the autonomous traveling body to cause the autonomous traveling body to create a map is preferable.
  • the autonomously movable cleaning robot described in Patent Document 1 has a teaching travel mode that generates a map representing an area where the cleaning robot should autonomously operate when the operator operates the cleaning robot.
  • the cleaning robot described in Patent Document 1 includes a laser range sensor that is a distance sensor for measuring the distance between itself and a surrounding obstacle.
  • the cleaning robot receives laser light emitted from the laser range sensor and reflected by surrounding obstacles, so that its position on the map and obstacles around it can be detected. Recognize this, and the self should run autonomously, and create a map according to the surrounding environment. Further, when the cleaning robot creates a map in the teaching travel mode, if the distance between its own position and the obstacle is equal to or less than a predetermined distance, the cleaning robot uses the cleaning unit user interface or the speaker as a travel start position. Notify the operator that it is inappropriate.
  • the distance between the cleaning robot and the surrounding obstacle is a distance that can be measured by the laser range sensor provided in the cleaning robot. If the limit is exceeded, information for generating the map is interrupted or the map is distorted, and the autonomous traveling body cannot correctly create a map according to the surrounding environment. It is difficult for the operator to determine whether the distance between the cleaning robot and surrounding obstacles is appropriate.
  • the operator may be provided with a laser range provided for the cleaning robot. It may be difficult to know whether the sensor distance measurement state is appropriate.
  • the present invention has been made in view of the above-described problems, and an object of the present invention is to create a map creation device, an autonomous traveling body, and an autonomous traveling body system that guides an operator to move the sensor in a direction in which the distance can be accurately measured ,
  • a portable terminal a map creation method, a map creation program, and a computer-readable recording medium.
  • a map creation device includes a distance sensor that detects a distance from a surrounding obstacle, and is moved by an operator according to the surrounding environment.
  • a map creation device for creating a map a map creation unit for creating a map according to the surrounding environment from the distance information measured by the distance sensor with movement, and the distance information in the first direction
  • a distance calculating unit that calculates a first distance that is a distance to the obstacle and a second distance that is a distance to the obstacle in a second direction different from the first direction; It is determined whether the distance or the second distance is greater than or equal to the predetermined longest distance, or less than or equal to the predetermined shortest distance, and moves between the first direction and the second direction.
  • a distance determination unit for determining a power direction, and the above movement The can-direction is characterized by comprising a notification information generating unit that generates notification information is information to be notified to the operator.
  • the map creation method is based on distance information measured by a distance sensor moved by an operator, and the distance to a surrounding obstacle that changes with movement.
  • a map creation step for creating a map according to the surrounding environment, and a first distance that is a distance from the obstacle in the first direction based on the distance information, and a second direction different from the first direction
  • a distance calculating step for calculating a second distance that is a distance to the obstacle in the first and second distances is greater than or equal to a predetermined longest distance, or less than a shortest distance, or
  • a distance determination step for determining which of the first direction and the second direction is to be determined, and a notification information which is information for notifying the operator of the direction to be moved.
  • Notification information generation step It is characterized by having a flop.
  • FIG. 1 according to Embodiment 1 of the present invention is a functional block diagram showing a configuration of a robot system. It is the schematic showing the structure of the robot system which concerns on Embodiment 1 of this invention. It is a figure explaining LRF with which the robot concerning Embodiment 1 of the present invention is provided.
  • (A) is a figure showing the map produced
  • (b) is a figure showing the node A which comprises the map of (a)
  • (c) is another figure which comprises (a).
  • FIG. (A) is a figure showing a mode that LRF of a robot is measuring the distance of the right wall
  • (b) is a figure showing a mode that the right representative distance is calculated from the distance data of the right wall. .
  • (A) is a figure showing a mode that LRF of the robot which concerns on Embodiment 2 of this invention measures the intensity
  • (b) is an intensity
  • a cleaning robot will be described as an example of an autonomous traveling body.
  • the present invention is not limited to a cleaning robot.
  • the present invention can be applied to an air cleaning device, a photographing device, and various robot devices (for example, a security robot, a housework support robot, an animal type robot, etc.).
  • FIG. 2 is a schematic diagram showing the configuration of the robot system 1.
  • the robot system 1 includes a tablet terminal (portable terminal) 40 and a robot (autonomous vehicle) 10.
  • the tablet terminal 40 is a portable terminal that can communicate with the robot 10 wirelessly.
  • the tablet terminal 40 mainly includes an input display unit 42 and an audio output unit 43.
  • the tablet terminal 40 receives input for the operator (operator) 3 to operate the robot 10, displays various information such as the state of the robot 10, and outputs various information as sound.
  • the input display unit 42 is, for example, a touch panel.
  • the input display unit 42 receives instructions input from the operator 3 and displays various information such as a map created by the robot 10.
  • the input display part 42 does not necessarily need to be comprised integrally as the input part which receives the input from the operator 3, and the display part which displays various information, and may be comprised as a respectively separate member. Good.
  • the audio output unit 43 outputs various information as audio. As an example, as will be described later, when the operator 3 is operating the robot 10 using the tablet terminal 40, the audio output unit 43 provides guidance that prompts the operator 3 to move the robot 10 to an optimal position. Output as audio.
  • the robot 10 has a function of performing a cleaning operation, and is a device capable of autonomously traveling on a flat floor surface by left and right independent drive wheels.
  • the robot 10 is an autonomous traveling body that cleans the floor.
  • the robot 10 mainly includes an LRF (Laser Range Finder: sensor) 12, which is a distance sensor, a drive wheel 14, an encoder 15, a main body unit 17, and a control unit 20.
  • the LRF 12 and the control unit 20 function as a map creation device.
  • the robot 10 further includes a work unit for performing cleaning work.
  • the work unit includes a suction unit that sucks dust falling on the floor, a wet cleaning unit including a mop, a cleaning liquid tank, and a waste liquid tank.
  • the function which a work unit has is not limited to cleaning, For example, the lawn mowing function which mows a lawn by having a rotating cutting blade may be sufficient.
  • the robot 10 can communicate with the tablet terminal 40.
  • the robot 10 can be operated by the tablet terminal 40.
  • the robot 10 can transmit the state of the robot 10 and other various information to the tablet terminal 40.
  • the LRF 12 is disposed on the front surface of the main body unit 17, which is the front surface of the robot 10 in the traveling direction. Furthermore, it may be arranged on the rear surface of the main body portion 17 that is opposite to the front surface of the main body portion 17.
  • the LRF 12 measures the distance between the robot 10 and an object such as the wall 2 around the robot 10 by outputting the laser beam L radially and scanning the horizontal plane, and outputs the distance data. The specific configuration of the LRF 12 will be described later.
  • One drive wheel 14 is arranged on each of the left and right sides of the main body 17. Each of the two drive wheels 14 is rotated by a motor 13 (FIG. 1) connected to itself.
  • the encoder 15 is a sensor that outputs the rotation angle of each of the two drive wheels 14.
  • the encoder 15 is connected to each of the two drive wheels 14.
  • the control unit 20 controls the operation of the robot 10 and creates a map for the robot 10 to travel autonomously. A specific configuration of the control unit 20 will be described later.
  • the robot 10 has a function of creating a map for specifying an area to be cleaned autonomously and a cleaning order according to an environment such as surrounding terrain.
  • the robot 10 has a function of creating a map by having the robot 10 autonomously travel to create a map and a function of creating a map by moving the operator 3 from the tablet terminal 40.
  • the operator 3 actually creates the map by moving the robot 10 using the tablet terminal 40 as in the latter case.
  • the function of causing the robot 10 to create a map when the operator 3 moves the robot 10 is referred to as a map creation mode.
  • the operator 3 operates the movement button displayed on the input display unit 42 of the tablet terminal 40 to move the robot 10 within the range of the place where the map is to be created.
  • the robot 10 creates a map based on the distance information indicating the distance between the robot 10 and the wall 2 that is the output of the LRF 12 and the rotation speed information that indicates the rotation speed of each of the drive wheels 14 that is the output from the encoder 15. Further, the robot 10 updates the created map as it moves.
  • the input display unit 42 of the tablet terminal 40 displays a map created by the robot 10.
  • FIG. 1 is a functional block diagram showing the configuration of the robot system 1.
  • the robot 10 includes a communication unit 11 and a motor 13 in addition to the LRF 12, the drive wheel 14, the encoder 15, and the control unit 20.
  • the tablet terminal 40 includes a communication unit 41 in addition to the input display unit 42 and the audio output unit 43.
  • the communication unit 11 wirelessly communicates with a communication unit 41 of the tablet terminal 40 described later.
  • the motor 13 is connected to the drive wheel 14 and rotates the drive wheel 14.
  • the encoder 15 detects the rotational speed of each drive wheel 14 and outputs the rotational speed information e to the control unit 20.
  • the control unit 20 stores the rotation speed information e output from the encoder 15 in the storage unit 16 as the rotation speed information 16a.
  • the LRF 12 is a measuring instrument that measures a distance to a surrounding object in a scanning plane orthogonal to the rotation axis while rotating an optical distance measuring unit around the rotation axis.
  • the LRF 12 includes a laser light output unit 12a, a laser light receiving unit 12b, and a distance information output unit 12c.
  • the control unit 20 includes a travel control unit 21, a node information generation unit 22, a map matching unit 23, a map creation unit 24, a representative distance calculation unit (distance calculation unit) 25, a distance determination unit 26, and notification information. And a generation unit 27.
  • the traveling control unit 21 controls driving of the motor 13 based on an input from the operator 3. Thereby, the robot 10 travels autonomously or moves based on a movement instruction from the operator 3 input via the tablet terminal 40.
  • the node information generation unit 22 is referred to as a node representing the position of an obstacle such as a wall and its own position in each direction from the distance information d output from the LRF 12 and the rotation speed information e output from the encoder 15.
  • a local map at a predetermined timing is generated and stored in the storage unit 16 as node information 16c.
  • the node information generation unit 22 when the robot 10 moves a predetermined distance or a predetermined angle, the node information generation unit 22 generates a node at every predetermined timing set in advance, and sequentially adds and stores it as the node information 16c in the storage unit 16. To do.
  • the map matching unit 23 and the map creation unit 24 are components that realize a SLAM function described later.
  • the map matching unit 23 performs a so-called scan match process in which, when connecting the nodes, a position where the positions of the obstacles at each node best overlap each other is centered on the self-position indicated by each node. Thereby, the map matching part 23 improves the precision at the time of connecting each node.
  • the map creation unit 24 draws the position of the obstacle at each node connected by the map matching unit 23 to a previously prepared empty map having an area equivalent to the outer shape of the measurement range. Then, the map creation unit 24 identifies the inside of the position of the obstacle input to this sky map as the travelable area of the robot 10. Thereby, the map creation unit 24 creates a map, and stores the created map in the storage unit 16 as map information 16d.
  • the representative distance calculation unit 25, the distance determination unit 26, the notification information generation unit 27, and the wall state information control unit 30 are components that realize the distance notification function that is the center of the present invention.
  • the representative distance calculation unit 25 extracts distance data corresponding to a predetermined azimuth from the distance information d, and the traveling direction (x direction) of the robot 10 among the extracted distance data corresponding to the predetermined azimuth.
  • the distance in the vertical direction (y direction) is calculated and stored in the storage unit 16 as distance string information 16e.
  • the representative distance calculation unit 25 rearranges the distance string information 16e stored in the storage unit 16 in ascending order, and calculates an average value for a predetermined number from the shorter distance. Thereby, the representative distance calculation unit 25 calculates the representative distance.
  • the representative distance calculation unit 25 calculates the left and right representative distances.
  • the representative distance calculation unit 25 extracts distance data for a predetermined azimuth on the right side from the distance information d, and among the extracted distance data for the predetermined azimuth, A distance in a direction (y direction) perpendicular to the traveling direction (x direction) of the robot 10 is calculated and stored in the storage unit 16 as right distance string information 16e1. Then, the representative distance calculation unit 25 rearranges the right distance string information 16e1 stored in the storage unit 16 in ascending order, and calculates an average value for a predetermined number (for example, 10 cases) from the shorter distance. Thereby, the representative distance calculation unit 25 calculates the right-side representative distance.
  • the representative distance calculation unit 25 extracts distance data for a predetermined left direction from the distance information d, and among the extracted distance data for the predetermined direction.
  • the distance in the direction (y direction) perpendicular to the traveling direction (x direction) of the robot 10 is calculated and stored in the storage unit 16 as left distance column information 16e2.
  • the representative distance calculation unit 25 rearranges the left distance column information 16e2 stored in the storage unit 16 in ascending order, and calculates an average value for a predetermined number from the shorter distance. Thereby, the representative distance calculation unit 25 calculates the left-side representative distance.
  • the distance determination unit 26 determines whether the distance between the left obstacle and the right obstacle is long or an appropriate distance. Based on the determination result, the wall state information W representing the distance state between the robot 10 and the wall 2 is updated. Specifically, the distance determination unit 26 performs the flow of FIG.
  • the notification information generation unit 27 corrects the moving direction of the robot 10 that the operator 3 moves based on the updated content.
  • Notification information which is information for making a notification prompting the user, is generated. That is, the notification information generation unit 27 generates notification information when the distance state between the robot 10 and the left and right obstacles changes.
  • the notification information generation unit 27 notifies the operator 3 of notification information for prompting the operator 3 to move the robot 10 further to the right based on the result of the flow of FIG. Notification information for prompting the robot 10 to move further left, notification information for prompting the operator 3 to move the robot 10 further left, and prompting the operator 3 to move the robot 10 further right Notification information, notification information for prompting the operator 3 to move the robot 10 further to the left or right, and notification information for prompting the operator 3 to move the robot 10 in this direction are generated.
  • the voice output unit 43 of the tablet terminal 40 outputs information prompting the operator 3 to correct the moving direction of the robot 10 moved by the operator 3 as voice based on the notification information generated by the notification information generating unit 27. .
  • the tablet terminal 40 is notification information generated by the notification information generation unit 27, and the tablet terminal 40 acquires notification information for prompting the robot 10 to move further to the right via the communication units 11 and 41. Then, a voice for prompting the robot 10 to move further to the right is output.
  • the tablet terminal 40 is notification information generated by the notification information generation unit 27, and the tablet terminal 40 acquires notification information for prompting the robot 10 to move further left via the communication units 11 and 41. Then, a sound for prompting the robot 10 to move further left is output.
  • the tablet terminal 40 is notification information generated by the notification information generation unit 27, and the tablet terminal 40 sends notification information for prompting the robot 10 to move in this direction via the communication units 11 and 41. When acquired, a sound for urging the robot 10 to move in this direction is output.
  • FIG. 3 is a diagram illustrating the LRF 12 included in the robot 10.
  • the LRF 12 is arranged on the front surface of the robot 10 as described above.
  • the LRF 12 has a laser beam output unit 12a and a laser beam receiving unit 12b on a scanning mechanism that rotates on a predetermined rotation axis.
  • the LRF 12 detects the distance of the obstacle that has reflected the laser beam L in the measurement direction at a certain time point based on the angle of irradiation with the laser beam L and the time required from the irradiation to the reflection.
  • Obstacle detection (sensing) based on the so-called TOF (time of flight) principle.
  • the rotation axis of the LRF 12 is installed in the robot 10 so as to be in a substantially vertical direction.
  • the LRF 12 measures the distance in each direction in a substantially horizontal plane by repeatedly transmitting the measurement light and receiving the reflected light while rotating the rotating shaft.
  • the field of view of the left and right direction of the LRF 12 is 100 degrees to the left and right, with the forward direction of the robot 10 being 0 degrees, and the distance is measured every degree.
  • the forward direction of the robot 10 is the x-axis plus direction
  • the direction perpendicular to the x-axis is the y-axis direction
  • the counterclockwise direction from the x-axis is a plus angle.
  • Direction, and the clockwise direction from the x-axis is the minus direction of the angle.
  • the direction of the y-axis that is rotated 90 degrees counterclockwise in the x-axis plus direction (the leftward direction in FIG. 3) is the y-axis plus direction, and is rotated 90 degrees clockwise from the x-axis plus direction.
  • the direction (the right direction in FIG. 3) is the y-axis minus direction.
  • 1 set of distance data measured by LRF12 consists of a total of 201 measurement data from -100 degrees to 0 degrees to +100 degrees.
  • the LRF 12 outputs a set of distance data to the control unit 20 at every measurement cycle.
  • the measurement period of the LRF 12 may be set arbitrarily, but is assumed to be 50 ms as an example.
  • the LRF 12 sets the distance data of the azimuth as a predetermined invalid value set in advance.
  • the case where the distance could not be measured by the LRF 12 means that the intensity of the reflected light of the laser light L is too small because the distance to the wall in that direction is too far or the reflectance is low. Examples include cases where the reflected light cannot be detected and cases where the laser light receiving unit 12b cannot identify the reflected light of the laser light L because the light around the robot 10 is too strong.
  • the invalid value is set to a value that is significantly larger than the rated distance defined as LRF12.
  • the rated distance of the LRF 12 is set to 10 m
  • the invalid value is set to 99 m.
  • the distance data measured by the LRF 12 is 99 m, it can be determined that the wall existing in that direction is located far enough so that the distance cannot be measured by the LRF 12.
  • FIG. (A) of FIG. 4 is a figure showing the map produced
  • (b) is a figure showing the node A which comprises the map of (a)
  • (c) is (a). It is a figure showing the other node B which comprises.
  • SLAM Simultaneous Localization and Mapping
  • the encoder 15 outputs the rotational speed of the drive wheel 14 to the control unit 20 as rotational speed information e.
  • the rotational speed information e is stored in the storage unit 16 by the control unit 20.
  • the distance information output unit 12c of the LRF 12 outputs a set of distance data as distance information d to the control unit 20 for each predetermined measurement period (for example, 50 ms).
  • the node information generation unit 22 calculates the movement distance and direction of the vehicle body from the rotation number of the driving wheel 14 stored and stored as the rotation number information 16a, thereby determining its own position (on the coordinate axis of the robot 10 ( x, y, ⁇ ) is calculated (that is, odometry processing is performed). Thereby, the node information generation unit 22 recognizes the self-position on the coordinate axis of the robot 10.
  • the node information generation unit 22 determines the position (x, y, ⁇ ) of the robot 10 at that time. ) And a set of distance data is generated and stored in the storage unit 16 as node information 16c.
  • the node information generation unit 22 generates a set of distance shapes by projecting the distance to the wall 2 in each direction onto a plane coordinate system. For each node, the position of the wall 2 detected by the LRF 12 is represented by a distance shape including a plurality of points p in the control unit 20.
  • FIG. 4 represents the distance shape at node A.
  • FIG. 4B shows the distance shape at node B after the robot 10 has moved a predetermined distance or azimuth from node A.
  • FIG. The node information generation unit 22 sequentially generates nodes at a predetermined timing after the node B and stores the generated nodes in the storage unit 16 as node information 16c.
  • the node information generation unit 22 generates the output from the LRF 12 at a timing suitable for SLAM processing. As an output from the LRF 12, since one set of distance data is output to the control unit 20 at relatively short time intervals such as every 50 ms as an example, if a node is generated for each output of the LRF 12, the amount of data becomes too large. . For this reason, the node information generation unit 22 generates each node at an appropriately thinned time interval and stores it in the storage unit 16 as node information 16c. Note that the timing at which the node information generation unit 22 generates a node may be arbitrarily set.
  • the map matching unit 23 refers to the node information 16c stored in the storage unit 16, and calculates the positional relationship of each node.
  • the map matching unit 23 performs a so-called scan match process in which a position relationship in which the distance shapes in each node overlap best is found using the self-position (x, y, ⁇ ) on the plane coordinates by the odometry process as an initial value, Improve the accuracy of obstacles such as walls when connecting nodes together.
  • the map matching unit 23 joins the node A and the node B while performing a scan match process.
  • the map matching unit 23 connects the node A and the node B so that each point p in the node A and each point p in the node B have continuity.
  • the distance information d is generated by the LRF 12 so that each point p of each of the node A and the node B configures more uneven shapes.
  • the accuracy of the map created by connecting the nodes to each other is further improved. It is because it can be made.
  • the map creation unit 24 is the position of the obstacle at each of the nodes A, B,... Joined by the map matching unit 23 to a previously prepared empty map having an area corresponding to the outer shape of the measurement range. The position of each point p is drawn.
  • the map creation unit 24 first displays the obstacles at the nodes A, B,... Where the map matching unit 23 connects the position coordinates of the obstacles such as walls and pillars on the empty map which is an unknown area. It calculates from the position of each point p to represent, and inputs it into an empty map. Then, the map creation unit 24 identifies the inside of the position of each point p input to this sky map as the travelable area of the robot 10. Thereby, the map creation unit 24 creates a map, and stores the created map in the storage unit 16 as map information 16d.
  • the distance information output unit 12c of the LRF 12 sufficiently detects the distance of an obstacle such as a wall in each direction and outputs the distance information d to the control unit 20.
  • the robot 10 is not too close to an obstacle such as a wall.
  • the LRF 12 has a maximum distance that can be measured, it is also important not to separate the robot 10 from the obstacle.
  • the measurement accuracy of the LRF 12 is lowered.
  • the distance between the robot 10 and the obstacle is 1 m or more and less than 9 m centering on 5 m in the middle of the measurement range of the LRF 12. It is preferable to keep the distance between 10 and the obstacle.
  • the robot 10 needs to pass through a place where there are few obstacles such as walls due to the topography of the robot 10 traveling. Accordingly, when a map is created by manually operating the robot 10, the operator 3 is notified of the travel position where the map can be created with higher accuracy, but it is preferable not to force it.
  • FIG. 5A is a diagram illustrating a state in which the LRF 12 of the robot 10 is measuring the distance of the right wall 2
  • FIG. 5B is a state in which the right representative distance is calculated from the distance data of the right wall.
  • the robot 10 performs calculation of the left representative distance and the right representative distance shown in FIG. 5 and processing for determining whether the left and right distances described later with reference to FIG. These processes are slower than the measurement interval (about 50 ms) of the LRF 12, and as an example, the processes are performed about once per second.
  • the representative distance calculation unit 25 refers to the distance information d, and the distance data between -100 degrees and -40 degrees among the distance data of the wall 2 in each direction measured by the LRF 12. Data L-100 to L-40 are extracted. Then, as shown in FIG. 5B, the representative distance calculation unit 25 calculates y40 to y100 that are y components (distances in the y direction) of the extracted L-100 to L-40. Specifically, the representative distance calculation unit 25 performs the following calculation for each of the distance data L-100 to L-40.
  • yn Ln x sin (n)
  • n is an index of ⁇ 100 to ⁇ 40.
  • sin (n) is a sine function and returns a sine of an angle n [degrees].
  • the representative distance calculation unit 25 calculates a total of 61 y components and stores them in the storage unit 16 as the right distance column information 16e1.
  • the representative distance calculation unit 25 rearranges the right distance string information 16e1 stored in the storage unit 16 in ascending order, and calculates the average value of six cases from the side with the short distance in the y direction. As a result, in FIG. 5B, the average value of the distances in the y direction of each of the six cases L-40p to L-45p is calculated as the right-side representative distance.
  • the representative distance calculation unit 25 may store the calculated right-side representative distance in the storage unit 16.
  • the representative distance calculator 25 refers to the distance information d, stores the left distance column information 16e2 in the storage unit 16, and calculates the left representative distance from the left distance column information 16e2.
  • FIG. 6 is a flowchart showing a flow of processing for notifying the operator whether or not the distance between the robot 10 and the left and right obstacles is appropriate.
  • the distance determination part 26 determines whether the distance with the left wall is near based on the left representative distance and the right representative distance which the representative distance calculation part 25 calculated as step S11. Specifically, as an example, the distance determination unit 26 has a left representative distance of less than 1 m, a right representative distance of 2 m or more and 9 m or less, and the value of the wall state information W is other than 1. YES is determined. If any of the conditions is not met, it is determined as NO.
  • step S12 the distance determination unit 26 updates the value of the wall state information W to 1.
  • the notification information generation unit 27 moves the robot 10 further to the operator 3 to the right because the distance to the left wall is short. Generate notification information to prompt.
  • the notification information is transmitted from the communication unit 11 of the robot 10 to the communication unit 41 of the tablet terminal 40.
  • the voice output unit 43 outputs a voice message such as “It seems that the left wall is close.
  • the distance determination unit 26 next determines whether the distance to the right wall is close based on the left representative distance and the right representative distance calculated by the representative distance calculation unit 25. judge. Specifically, as an example, the distance determination unit 26 has a left representative distance of 2 m to 9 m, a right representative distance of less than 1 m, and a value of the wall state information W other than 2. YES is determined. If any of the conditions is not met, it is determined as NO.
  • step S14 the distance determination unit 26 updates the value of the wall state information W to 2.
  • the notification information generation unit 27 moves the robot 10 further to the operator 3 to the left because the distance to the right wall is short. Generate notification information to prompt.
  • the notification information is transmitted from the communication unit 11 of the robot 10 to the communication unit 41 of the tablet terminal 40. Accordingly, the voice output unit 43 outputs a voice message such as “It seems that the right wall is close.
  • step S15 the distance determination unit 26 next determines whether or not the distance from the left wall is far based on the left representative distance and the right representative distance calculated by the representative distance calculation unit 25. judge. Specifically, as an example, the distance determination unit 26 determines that the left representative distance is 9 m or more, the right representative distance is less than 5 m, and the value of the wall state information W is other than 3. Is determined. If any of the conditions is not met, it is determined as NO.
  • step S16 the distance determination unit 26 updates the value of the wall state information W to 3.
  • the notification information generation unit 27 moves the robot 10 to the operator 3 further left because the distance to the left wall is far. Generate notification information to prompt.
  • the notification information is transmitted from the communication unit 11 of the robot 10 to the communication unit 41 of the tablet terminal 40.
  • the voice output unit 43 outputs a voice message such as “Looks that the left wall is far away.
  • step S17 the distance determination unit 26 next determines whether or not the distance from the right wall is far based on the left representative distance and the right representative distance calculated by the representative distance calculation unit 25. judge. Specifically, as an example, the distance determination unit 26 determines that the left representative distance is less than 5 m, the right representative distance is 9 m or more, and the value of the wall state information W is other than 4. Is determined. If any of the conditions is not met, it is determined as NO.
  • step S18 the distance determination unit 26 updates the value of the wall state information W to 4.
  • the notification information generation unit 27 moves the robot 10 to the operator 3 further to the right because the distance from the right wall is far. Generate notification information to prompt.
  • the notification information is transmitted from the communication unit 11 of the robot 10 to the communication unit 41 of the tablet terminal 40. Accordingly, the voice output unit 43 outputs a voice message such as “It seems that the right wall is far away.
  • the distance determination unit 26 next determines the distances of both the left wall and the right wall based on the left representative distance and the right representative distance calculated by the representative distance calculation unit 25. Determine if you are far away. Specifically, as an example, the distance determination unit 26 determines that the left representative distance is 9 m or more, the right representative distance is 9 m or more, and the value of the wall state information W is other than 5. Is determined. If any of the conditions is not met, it is determined as NO.
  • step S20 the distance determination unit 26 updates the value of the wall state information W to 5.
  • the notification information generation unit 27 moves the robot 10 to the operator 3 further to the left or right because the distance to both the left and right walls is far.
  • Notification information for prompting the user to move is generated.
  • the notification information is transmitted from the communication unit 11 of the robot 10 to the communication unit 41 of the tablet terminal 40.
  • the voice output unit 43 outputs a voice message such as “The left and right walls are far away.
  • the distance determination unit 26 next determines the distances of both the left wall and the right wall based on the left representative distance and the right representative distance calculated by the representative distance calculation unit 25. Determine if appropriate. Specifically, as an example, the distance determination unit 26 determines that the left representative distance is 1 m or more and less than 9 m, the right representative distance is 1 m or more and less than 9 m, and the value of the wall state information W is other than 6. If yes, it is determined as YES. If any of the conditions is not met, it is determined as NO.
  • step S22 the distance determination unit 26 updates the value of the wall state information W to 6. Then, when the value of the wall state information W is updated to 6 by the distance determining unit 26, the notification information generating unit 27 determines that the distance between the left and right walls is within a predetermined range. Notification information indicating that the distance to is just right is generated. Then, the notification information is transmitted from the communication unit 11 of the robot 10 to the communication unit 41 of the tablet terminal 40. As a result, the voice output unit 43 outputs a voice message such as “It is just the right distance”.
  • step S21 the distance determination unit 26 does not update the wall state information W, and the notification information generation unit 27 does not generate notification information for prompting the operator 3 to respond. Then, the process is completed.
  • the left representative distance is 0.5 m and the right representative distance is 1.5 m, or the left representative distance is 7 m. And the case where the right representative distance is 15 m, and the case where the value of the wall state information W is 6 from the beginning can be mentioned.
  • the cycle for performing the processing shown in FIG. 6 may be later than the cycle (for example, 50 ms) by which the LRF 12 measures the distance.
  • the control unit 20 may perform the process shown in FIG. 6 at a cycle of about once per second.
  • the configuration including the LRF 12 as the distance sensor and the control unit 20 functions as a map creation device that creates a map corresponding to the surrounding environment by being moved by the operator 3. From the distance information d obtained by the LRF 12 measuring the distance to the surrounding wall 2 that changes with movement, the control unit 20 creates a map according to the surrounding environment and the distance information d on the right side.
  • a representative distance calculation unit 25 that calculates a right representative distance that is a distance to the wall 2 and a left representative distance that is a distance to the wall 2 on the left side, and the right representative distance or the left representative distance is a predetermined upper limit (longest distance) ) It is necessary to move between the right side (first direction) and the left side (second direction) by determining whether it is greater than or equal to or less than a predetermined lower limit (shortest distance) or neither
  • a distance determination unit 26 that determines a direction, and a notification information generation unit 27 that generates notification information that is information for notifying the operator 3 of the direction to be moved are provided.
  • the map creation unit 24 creates a map according to the surrounding environment by moving the operator 3, the distance between the LRF 12 and the wall 2 is separated to such an extent that the measurement of the LRF 12 becomes unstable. Even so, the distance determination unit 26 determines the direction to move, and the notification information generation unit 27 generates notification information that is information for notifying the operator 3 of the direction to move. For this reason, the operator 3 is guided to move the LRF 12 in a direction in which the LRF 12 can be accurately measured by notifying the operator 3 as a voice from the voice output unit 43 via the communication units 11 and 41 via the communication units 11 and 41. Can do. For this reason, a map can be created accurately.
  • the notification information generation unit 27 Since the notification information generation unit 27 generates information including a response method that can be taken by the operator 3 as the notification information, the operator 3 can easily grasp the possible response method such as changing the moving direction. Specifically, the voice output unit 43 notifies the operator 3 of information as a voice based on the notification information. For this reason, it is possible to make the map of the operator 3 accurately. Furthermore, since guidance is provided by voice, the operator 3 can work while looking at the movement of the apparatus and the surroundings, and can work safely.
  • FIG. 7 is a functional block diagram showing the configuration of the robot system (autonomous vehicle system) 1A.
  • the robot system 1A includes a robot (autonomous traveling body) 10A and a tablet terminal 40.
  • the robot 10A is different in that the robot 10A includes an LRF (sensor) 12A, a control unit (map creation device) 20A, and a storage unit 16A instead of the LRF 12, the control unit 20, and the storage unit 16 included in the robot 10. To do.
  • Other configurations of the robot 10A are the same as those of the robot 10.
  • the LRF 12A further includes an intensity information output unit 12d in addition to the configuration included in the LRF 12.
  • the LRF 12A outputs the intensity data representing the intensity of the light returned by the reflection of the laser light L together with the distance data.
  • the intensity information output unit 12d generates intensity data indicating the intensity of the reflected light by measuring the amplitude, length, and the like of the reflected light irradiated by the laser light output unit 12a and reflected by the obstacle, and as intensity information s Output to the control unit 20A.
  • the control unit 20A stores the intensity information s in the storage unit 16 as the intensity information 16f.
  • the LRF 12A that also measures the intensity of reflected light than the LRF 12 can utilize the LRF capability in a wider range by using measurement with less error based on the intensity.
  • the control unit 20A includes a wall state information control unit (direction specifying unit) 30A instead of the distance determination unit 26 from the control unit 20, and further includes an intensity level calculation unit 28A and an intensity level determination unit 29A.
  • the intensity level calculation unit 28A extracts intensity data for a predetermined azimuth from the left and right in the intensity information 16f.
  • the intensity level calculation unit 28A refers to the distance data included in the node information 16c in addition to the intensity information 16f as a predetermined azimuth, thereby obtaining the intensity data for the azimuth used by the representative distance calculation unit 25 for the representative distance calculation. You may make it extract.
  • the intensity level calculation unit 28A stores the extracted intensity data for a predetermined azimuth in the storage unit 16A as intensity string information 16g. Further, the intensity level calculation unit 28A counts the number of data having a predetermined intensity level or higher in the intensity string information 16g.
  • the intensity level determination unit 29A determines the intensity of reflected light on the left and right from the number of data counted by the intensity level calculation unit 28A. If the number of intensity levels of the reflected light from the left wall counted by the intensity level calculation unit 28A is equal to or greater than a predetermined number, the intensity level determination unit 29A has a strong left intensity level that is the intensity level of the reflected light on the left side. And the information indicating that the left intensity level is strong is output to the wall state information control unit 30A.
  • the intensity level determination unit 29A has a strong right intensity level that is the intensity level of the right reflected light. And the information indicating that the right intensity level is strong is output to the wall state information control unit 30A.
  • the predetermined number is 10.
  • the wall state information control unit 30A based on the left representative distance and the right representative distance calculated by the representative distance calculation unit 25, and the determination result determined by the strength level determination unit 29A, according to the later-described flow corresponding to FIG.
  • the wall state information W stored in is updated.
  • FIG. 8A is a diagram showing a state in which the LRF 12A of the robot 10A measures the intensity of the reflected light from the right wall 2
  • FIG. 8B is a diagram showing the right side of the intensity data of the reflected light from the right wall. It is a figure showing a mode that the intensity level is calculated.
  • the stability of the measurement can be determined based on the intensity data.
  • the intensity level calculation unit 28A refers to the distance data and the intensity information 16f of the node information 16c, and among the intensity data of the reflected light from the wall 2 in each direction measured by the LRF 12A, L-100 to L-40 used by the representative distance calculation unit 25 for calculating the right representative distance are specified.
  • the intensity data of the reflected light from the wall 2 in each direction measured by the intensity information output unit 12d is stored in the storage unit 16A as the intensity information 16f, for example, by 10 levels of 0 to 9. It is assumed that the measurement accuracy is the worst when the value of the intensity data is 0, and the measurement accuracy is the best when the value is 9. When the distance between the robot 10 and the wall 2 is long, or when the color of the wall 2 is dark and the reflected light is weak, the intensity data takes a value of less than 4. Even when the intensity information output unit 12d cannot measure intensity data due to strong external light, the intensity data has a value of less than 4.
  • the intensity level calculation unit 28A refers to the intensity information 16f in the storage unit 16, and z40 which is the intensity data of the reflected light at each of the specified points ⁇ 100p to ⁇ 40p. Extract ⁇ z100.
  • the intensity level calculation unit 28A extracts a total of 61 intensity data and stores them in the storage unit 16 as the right intensity column information 16g1.
  • the intensity level calculation unit 28A counts the number of data whose intensity data value is 5 or more from the right intensity column information 16g1 stored in the storage unit 16.
  • the intensity level determination unit 29A determines that the right intensity level is strong if the number of data counted by the intensity level calculation unit 28A is 6 or more, and the number of data counted by the intensity level calculation unit 28A is less than 6. If there is, the right intensity level is determined to be weak.
  • the intensity level calculation unit 28A refers to the intensity information 16f of the storage unit 16 and stores the left intensity column information 16g2 in the storage unit 16, and the intensity level determination unit 29A calculates the left intensity string information from the left intensity column information 16g2. Determine the strength of the level.
  • an appropriate distance measurement can be performed without depending on the color or material of the wall 2 and the ability of the LRF 12A can be improved. Can be used in a wide range. For example, if the intensity level of the reflected light from the wall 2 is high even if the distance between the robot 10 and the wall 2 is long, the measurement can be continued without determining that the distance between the robot 10 and the wall 2 is long.
  • FIG. 9 is a flowchart showing the flow of processing for notifying the operator whether the distance between the robot 10A and the obstacles on the left and right is appropriate.
  • step S31 the wall state information control unit 30A determines whether the distance to the left wall is close based on the values of the left representative distance and the right representative distance calculated by the representative distance calculation unit 25. And the stability of the right distance data is determined from the determination result of the right intensity level determined by the intensity level determination unit 29A. Furthermore, the wall state information control unit 30A determines whether the wall state information W stored in the storage unit 16A is other than 1. Specifically, if the left representative distance is less than 1 m, the right representative distance is 2 m or more, the right intensity level is strong, and the wall state is other than 1, the determination is YES. If any of the conditions is not met, it is determined as NO.
  • step S32 the wall state information control unit 30A updates the value of the wall state information W to 1.
  • the notification information generation unit 27A generates notification information for prompting the operator 3 to move the robot 10A to the right.
  • the notification information is transmitted from the communication unit 11 of the robot 10A to the communication unit 41 of the tablet terminal 40.
  • the voice output unit 43 outputs a voice message such as “It seems that the left wall is close.
  • the wall state information control unit 30A next has a short distance to the right wall based on the values of the left representative distance and right representative distance calculated by the representative distance calculation unit 25. And the stability of the distance data on the left side is determined from the determination result of the left intensity level determined by the intensity level determination unit 29A. Furthermore, the wall state information control unit 30A determines whether or not the wall state information W stored in the storage unit 16A is other than 2.
  • the wall state information control unit 30A determines that the left representative distance is 2 m or more, the right representative distance is less than 1 m, and the left intensity level is strong, the intensity level determination unit.
  • the wall state information W stored in the storage unit 16 is other than 2, it is determined as YES, and when any of the conditions is not satisfied, it is determined as NO.
  • step S32 the wall state information control unit 30A updates the value of the wall state information W to 2. Then, when the value of the wall state information W is updated to 2 by the wall state information control unit 30, the notification information generation unit 27A is close to the right wall and the measurement of the distance data on the left side is stable. Therefore, notification information for urging the operator 3 to move the robot 10A further to the left is generated. Then, the notification information is transmitted from the communication unit 11 of the robot 10A to the communication unit 41 of the tablet terminal 40. Accordingly, the voice output unit 43 outputs a voice message such as “It seems that the right wall is close.
  • step S35 the wall state information control unit 30A, in step S35, next, the value of the right representative distance calculated by the representative distance calculation unit 25, the left intensity level and the right intensity calculated by the intensity level calculation unit 28A. It is determined from the determination result of the intensity level determination unit 29A based on the level whether the distance from the left wall is long. Furthermore, the wall state information control unit 30A determines whether the wall state information W stored in the storage unit 16A is other than 3.
  • step S35 the wall state information control unit 30A determines that the right representative distance is less than 9 m, the left intensity level is weak, and the right intensity level is strong, the intensity level determination unit 29A determines And when wall condition information W memorized by storage part 16 is other than 3, it judges with YES, and when any conditions are removed, it judges with NO. Since the left intensity level is weak, the distance information output unit 12c may not be able to measure the left distance data.
  • step S36 the wall state information control unit 30A updates the value of the wall state information W to 3.
  • the notification information generation unit 27A generates notification information for urging the operator 3 to move the robot 10A further left.
  • the notification information is transmitted from the communication unit 11 of the robot 10A to the communication unit 41 of the tablet terminal 40.
  • the voice output unit 43 outputs a voice message such as “Looks that the left wall is far away.
  • step S37 the intensity level determination unit based on the value of the right representative distance calculated by the representative distance calculation unit 25 and the left intensity level and the right intensity level calculated by the intensity level calculation unit 28A. From the determination result of 29A, it is determined whether or not the distance from the right wall is long. Furthermore, the wall state information control unit 30A determines whether the wall state information W stored in the storage unit 16A is other than 4.
  • the wall state information control unit 30A determines that the left representative distance is less than 9 m, the left signal level is strong, and the right intensity level is weak, the intensity level determination unit 29A determines.
  • the wall state information control unit 30A determines that the wall state information W stored in the storage unit 16 is other than 4, the determination is YES, and when any of the conditions is not satisfied, the determination is NO. To do. Since the right intensity level is weak, the distance information output unit 12c may not be able to measure the right distance data.
  • step S38 the wall state information control unit 30A updates the value of the wall state information W to 4. Then, when the value of the wall state information W is updated to 4 by the wall state information control unit 30, the notification information generation unit 27A generates notification information for prompting the operator 3 to move the robot 10A further to the right. . Then, the notification information is transmitted from the communication unit 11 of the robot 10A to the communication unit 41 of the tablet terminal 40. Accordingly, the voice output unit 43 outputs a voice message such as “It seems that the right wall is far away.
  • step S39 the distance from the left and right walls is far from the determination result of the intensity level determination unit 29A based on the left intensity level and the right intensity level calculated by the intensity level calculation unit 28A. It is determined whether or not. Furthermore, the wall state information control unit 30A determines whether or not the wall state information W stored in the storage unit 16A is other than 5.
  • the strength level determination unit 29A determines that the left intensity level is weak and the right intensity level is weak, and is stored in the storage unit 16.
  • the wall state information W is other than 5
  • it is determined as YES and when any of the conditions is not satisfied, it is determined as NO. Since both the left intensity level and the right intensity level are weak, the distance information output unit 12c may not be able to measure both the left distance data and the right distance data.
  • step S40 the wall state information control unit 30A updates the value of the wall state information W to 5. Then, when the value of the wall state information W is updated to 5 by the wall state information control unit 30, the notification information generation unit 27A provides notification information for urging the operator 3 to move the robot 10A further left or right. Generate. Then, the notification information is transmitted from the communication unit 11 of the robot 10A to the communication unit 41 of the tablet terminal 40. Thereby, the voice output unit 43 outputs a voice message such as “It seems that the left and right walls are far away.
  • step S41 the distance between the left and right walls is appropriate from the determination result of the intensity level determination unit 29A based on the left intensity level and the right intensity level calculated by the intensity level calculation unit 28A. It is determined whether or not. Furthermore, the wall state information control unit 30A determines whether the wall state information W stored in the storage unit 16A is other than 6.
  • the strength level determination unit 29A determines that the left intensity level is strong and the right intensity level is strong, and is stored in the storage unit 16. If the wall state information W being present is other than 6, it is determined as YES, and if any of the conditions is not satisfied, it is determined as NO.
  • step S42 the wall state information control unit 30A updates the value of the wall state information W to 6.
  • the notification information generation unit 27A generates notification information indicating that the distance between the left and right walls is just right for the operator 3. Then, the notification information is transmitted from the communication unit 11 of the robot 10A to the communication unit 41 of the tablet terminal 40. As a result, the voice output unit 43 outputs a voice message such as “It is just the right distance”.
  • the LRF 12A and the control unit 20A included in the robot 10A function as a map creation device.
  • the LRF 12A further includes an intensity information output unit 12d that detects the intensity of the reflected signal from the surrounding wall 2 and outputs it as intensity information (intensity signal) s.
  • the control unit 20A determines the right intensity level, which is the intensity level of the reflected signal on the right side, and the reflected light on the left side, from the intensity information 16f obtained by the LRF 12A measuring the intensity of the reflected signal from the surrounding wall 2 that changes with movement.
  • the direction to move between the right side and the left side is specified from the intensity level calculation unit 28A that calculates the left intensity level, which is the intensity level of the left, the right representative distance and the left representative distance, and the right intensity level and the left intensity level.
  • Wall state information control unit 30A Further, the notification information generation unit 27 generates information for notifying the worker of the direction to move as the notification information.
  • the wall state information control unit 30A specifies the direction to move between the right side and the left side including not only the right representative distance and the left representative distance but also the right intensity level and the left intensity level. For this reason, the direction which should be moved among the right side and the left side can be presented to the operator 3 more appropriately. Thereby, since the capability of LRF12A sensor can be used in a wider range, a map can be created efficiently.
  • FIG. 10 is a perspective view showing the configuration of a robot (autonomous vehicle) 10B according to the third embodiment of the present invention.
  • the robot 10 ⁇ / b> B is different in that it includes a plurality of ultrasonic sensors (sensors) 12 ⁇ / b> B instead of the LRF 12 included in the robot 10.
  • the plurality of ultrasonic sensors 12B are arranged on the front surface and the side surface of the main body portion 17 for measuring distance data.
  • the plurality of ultrasonic sensors 12 ⁇ / b> B are arranged in a row on the front surface of the main body portion 17, and one ultrasonic sensor 12 ⁇ / b> B is arranged on each side surface.
  • Each of the plurality of ultrasonic sensors 12B measures the distance to the object or wall in the measurement axis direction (normal direction of the surface to which it is attached), and outputs the distance information d.
  • Embodiment 4 of the present invention will be described below with reference to FIG.
  • members having the same functions as those explained in the first to third embodiments are given the same reference numerals and explanation thereof is omitted.
  • FIG. 11 is a perspective view showing a configuration of a robot (autonomous traveling body) 10C according to the fourth embodiment of the present invention.
  • the robot 10 ⁇ / b> C is different in that it includes a distance image sensor 12 ⁇ / b> C instead of the LRF 12 included in the robot 10.
  • the distance image sensor (sensor) 12C is disposed on the front surface of the main body unit 17 for measuring distance data.
  • the distance image sensor 12C captures an image in three dimensions.
  • the distance image sensor 12C has a visual field of about 60 degrees left and right and about 45 degrees up and down with respect to the front direction.
  • the distance image sensor 12C measures the distance data for each direction by dividing the inside of the visual field vertically and horizontally with a predetermined resolution, collects all distance data, and outputs a set of distance data corresponding to a three-dimensional shape as distance information d. To do.
  • the map matching unit 23 performs scan matching between three-dimensional data.
  • FIG. 12 is a perspective view showing the configuration of a robot (autonomous vehicle) 10D according to the fifth embodiment of the present invention. As shown in FIG. 12, the robot 10 ⁇ / b> D is different from the robot 10 in that it includes a plurality of indicator lights 51 in addition to the configuration of the robot 10.
  • the plurality of indicator lights 51 are arranged on the outer periphery of the main body portion 17.
  • the main body portion 17 is disposed at two locations, the right front portion and the left front portion.
  • the indicator lamp 51 corresponding to a preferable direction as the direction in which the worker moves (left direction or right direction) is turned on. That is, in the present embodiment, the control unit 20 (see FIG. 1) turns on the indicator lamp 51 corresponding to the direction indicated by the notification information generated by the notification information generation unit 27 as information indicating the direction in which the operator 3 moves.
  • Embodiment 6 The following describes Embodiment 6 of the present invention with reference to FIG.
  • members having the same functions as those described in the first to fifth embodiments are given the same reference numerals and explanation thereof is omitted.
  • FIG. 13 is a perspective view showing the configuration of a robot (autonomous vehicle) 10E according to Embodiment 6 of the present invention.
  • the robot 10 ⁇ / b> E is different from the robot 10 in that a display unit 52 is provided in addition to the configuration of the robot 10.
  • the display unit 52 is disposed on the upper surface of the main body unit 17.
  • the display unit 52 displays an arrow indicating a preferable direction as a direction (left direction or right direction) to be moved by the worker in creating a map. That is, in the present embodiment, the control unit 20 (see FIG. 1) displays an arrow indicating the direction indicated by the notification information generated by the notification information generation unit 27 on the display unit 52 as information indicating the direction in which the operator 3 moves. indicate.
  • FIG. 14 is a perspective view showing a configuration of a robot 10F according to the seventh embodiment of the present invention.
  • the robot (autonomous traveling body) 10 ⁇ / b> F is different from the robot 10 in that an operation unit 53 is provided in addition to the configuration of the robot 10.
  • the operation unit 53 is disposed on the upper surface of the main body unit 17.
  • the operation unit 53 also outputs sound.
  • the operation unit 53 includes four buttons corresponding to the front, rear, left, and right of the traveling direction of the robot 10F. When the operator presses the front / rear direction buttons, the robot 10F advances in that direction. When the left / right button in the traveling direction is pressed by an operator or the like, the robot 10F turns in that direction. That is, in the present embodiment, the control unit 20 (see FIG. 1) outputs the direction indicated by the notification information generated by the notification information generation unit 27 as sound as information indicating the direction in which the operator 3 moves.
  • the operation unit 53 can assume the function of acquiring input from the operator in the input display unit 42 and the function of outputting the sound of the audio output unit 43, so the tablet terminal 40 is omitted. Also good.
  • Embodiment 8 The following describes Embodiment 8 of the present invention with reference to FIG.
  • members having the same functions as those described in the first to seventh embodiments are denoted by the same reference numerals and description thereof is omitted.
  • FIG. 15 is a perspective view showing the configuration of a robot (autonomous vehicle) 10G according to Embodiment 8 of the present invention.
  • the robot 10 ⁇ / b> G includes the two wheels 14 ⁇ / b> G and the gripping unit 54, omitting the communication unit 11, the travel control unit 21, the motor 13, the driving wheel 14, and the encoder 15. This is different from the robot 10 in that respect.
  • the tablet terminal 40 is not necessary, and the robot 10G is not an autonomous traveling body but a hand-held device that is moved by being pushed by an operator.
  • the worker grips the grip portion 54 disposed on the main body portion 17 and moves the robot 10G.
  • the wheel 14G has no power or does not drive even if it has it.
  • FIG. 16 is a perspective view showing a configuration of a measuring instrument (portable terminal) 60 according to the ninth embodiment of the present invention.
  • the measuring instrument 60 is a measuring instrument for creating a map of a building or the like.
  • the robot 10 or the like is not necessary, and is configured only by the mobile measuring device 60 that the operator 3 has and is moved by the operator 3.
  • the measuring device 60 includes a main body portion 67 and a distance image sensor disposed on the back surface of the main body portion 67.
  • FIG. 17 is a block diagram showing the configuration of the measuring instrument 60.
  • the measuring device 60 includes an input display unit 61, an audio output unit 63, a distance image sensor 62, a storage unit 66, and a calculation unit (map creation device) 70.
  • the input display unit 61 and the audio output unit 63 are the same as the input display unit 42 and the audio output unit 43 (see FIG. 1).
  • the distance image sensor 62 includes a distance information output unit 62c.
  • the distance image sensor 62 captures an image in three dimensions.
  • the distance image sensor 62 has a visual field of about 60 degrees left and right and about 45 degrees up and down with respect to the front direction.
  • the distance information output unit 62c measures the distance data for each azimuth by dividing the visual field vertically and horizontally with a predetermined resolution, collects all distance data, and sets a set of distance data corresponding to a three-dimensional shape as distance information d9. The result is output to the calculation unit 70.
  • the calculation unit 70 stores the distance information d9 in the storage unit 66 as the distance information 66b.
  • the calculation unit 70 includes a node information generation unit 72, a map matching unit 73, a map creation unit 74, a representative distance calculation unit 75, a distance determination unit 76, and a notification information generation unit 77. These are, in order, a node information generation unit 22, a map matching unit 23, a map creation unit 24, a representative distance calculation unit 25, a distance determination unit 26, and a notification information generation unit 27 provided in the control unit 20 shown in FIG. It has the same function.
  • the storage unit 66 stores distance information 66b, node information 66c, map information 66d, distance column information 66e (right distance column information 66e1 and left distance column information 66e2), and wall state information W. These are, in order, distance information d shown in FIG. 1, node information 16c, map information 16d, distance string information 16e (right distance string information 16e1 and left distance string information 16e2) stored in the storage unit 16, and This is the same as the wall state information W.
  • the node information generation unit 72 Since the measuring device 60 has no wheels, there is no encoder 15 (see FIG. 1 and the like), and the node information generation unit 72 generates nodes at predetermined time intervals and calculates the inter-node positional relationship by scan matching.
  • the map matching unit 73 performs map matching between the three-dimensional data.
  • control block particularly the representative distance calculation unit 25, the distance determination unit 26 (wall state information control unit 30A), and the notification information generation unit 27) and the storage unit 16 of the control unit 20 in the robot 10 include an integrated circuit (IC chip) and the like. It may be realized by a logic circuit (hardware) formed in the above, or may be realized by software using a CPU (Central Processing Unit).
  • IC chip integrated circuit
  • CPU Central Processing Unit
  • the control unit 20 in the robot 10 includes a CPU that executes instructions of a program that is software that implements each function, and a ROM (Read Only) in which the program and various data are recorded so as to be readable by the computer (or CPU).
  • Memory or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like.
  • the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it.
  • a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • a transmission medium such as a communication network or a broadcast wave
  • the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
  • the map creation device (control unit 20 / LRF 12) has a distance sensor that detects a distance from a surrounding obstacle, and is moved by an operator (operator 3) so that the surrounding environment Map creation device (control unit 20 / LRF12) for creating a map according to the distance from the distance information d measured by the distance sensor (LRF12) with movement, creating a map according to the surrounding environment From the distance information d, the first distance (right representative distance) that is the distance between the part 24 and the obstacle (wall 2) in the first direction (right side) and the first direction (right side) are A distance calculation unit (representative distance calculation unit 25) that calculates a second distance (left representative distance) that is a distance to the obstacle (wall 2) in a different second direction (left side); and the first distance (Right representative distance) or second distance (left representative distance) The first direction (right side) and the second direction are determined by determining whether the distance is not less than a predetermined longest distance (upper limit
  • the map creation unit 24 creates a map corresponding to the surrounding environment by moving the operator (operator 3), the distance between the sensor (LRF12) and the obstacle (wall 2).
  • the distance determination unit 26 determines the direction to move, and the notification information generation unit 27
  • Notification information that is information for notifying the operator (operator 3) of the direction to move is generated. Therefore, by notifying the operator (operator 3) of the direction based on the notification information, the operator (operator 3) can be guided so as to move in the direction in which the sensor (LRF 12) can be measured accurately. For this reason, a map can be created accurately.
  • the notification information generation unit 27 preferably generates information including a handling method that can be taken by the worker (operator 3) as the notification information. .
  • the operator (operator 3) can easily grasp possible countermeasures such as changing the moving direction, the operator (operator 3) can create a map more accurately. .
  • the distance sensor (LRF12A) further detects the intensity of the reflected signal from the surrounding obstacle (wall 2). And output as an intensity signal (intensity information s), and the first intensity level, which is the intensity level of the reflected light in the first direction (right side), and the intensity level of the reflected light in the second direction (left side).
  • An intensity level calculation unit 28A for calculating the second intensity level, the first distance (right representative distance), the second distance (left representative distance), the first intensity level, and the second intensity level.
  • a direction specifying unit (wall state information control unit 30A) that specifies a direction to be moved among the first direction (right side) and the second direction (left side) from the intensity level of 2.
  • the information generator 27 As the notification information, it is preferable to generate the information for notifying the direction to be the move to the operator.
  • the direction specifying unit not only includes the first distance (right representative distance) and the second distance (left representative distance), but also the first intensity level.
  • a direction to be moved is specified from the first direction (right side) and the second direction (left side) including the second intensity level. For this reason, the direction which should be moved among the said 1st direction (right side) and 2nd direction (left side) can be shown to an operator more appropriately. Thereby, since the capability of a sensor can be used in a wider range, a map can be created efficiently.
  • the distance sensor (LRF12 ⁇ 12A) is preferably a laser range finder.
  • the autonomous traveling body (robot 10) according to aspect 5 of the present invention preferably includes the map creation device (control unit 20 / LRF 12) in the above aspects 1 to 4.
  • the map creation device control unit 20 / LRF 12
  • an accurate map can be created when the operator creates the map by moving the autonomous traveling body.
  • An autonomous traveling body system (robot system 1) is the above aspect 5 in which the autonomous traveling body (robot 10) and the communication unit 41 capable of communicating with the autonomous traveling body (robot 10) are provided. It is preferable that the mobile terminal (tablet terminal 40) which has the audio
  • the mobile terminal (tablet terminal 40) which has the audio
  • the operator (operator 3) can know the direction to be moved accurately. Thereby, an operator (operator 3) can be made to produce an exact map reliably.
  • the mobile terminal (measuring instrument 60) in the above aspects 1 to 4 the operator It is preferable that the operator 3) includes a voice output unit 63 that outputs information as voice.
  • the portable terminal (measuring instrument 60) which makes an operator (operator 3) produce a map correctly can be obtained.
  • the distance information measured by the distance sensor (LRF 12) moved by the operator (operator 3) is measured with respect to the distance to the surrounding obstacle (wall 2) that changes with movement.
  • the first distance (right representative distance) that is the distance from the obstacle (wall 2) in the first direction (right side)
  • a distance calculating step for calculating a second distance (left representative distance) that is a distance from the obstacle (wall 2) in a second direction (left side) different from the first direction;
  • Determine whether the distance (right representative distance) or the second distance (right representative distance) is greater than or equal to the predetermined longest distance (upper limit), less than the shortest distance (lower limit), or neither
  • the first direction (right side) and the second direction (left side) Of having a distance determining step of determining the direction to be moved, and a notification information generation step of generating notification information is information for notifying the direction to be the move to the worker (oper
  • the map creation device (control unit 20 / LRF12) according to each aspect of the present invention may be realized by a computer.
  • the computer is operated as each unit (software element) included in the map creation device.
  • a map creation program of a map creation device that implements the map creation device by a computer and a computer-readable recording medium that records the program also fall within the scope of the present invention.
  • the present invention can be used for a map creation device, an autonomous vehicle, an autonomous vehicle system, a portable terminal, a map creation method, a map creation program, and a computer-readable recording medium.

Abstract

 センサが正確に距離を測定できる方向へ移動させるよう作業者を導く。制御部20は、移動に伴い変化する周囲の壁(2)との距離をLRF(12)が測定した距離情報から、右側代表距離と左側代表距離とを算出する代表距離算出部(25)と、右側代表距離又は左側代表距離が上限値以上または下限値以下となると、適切な距離とするための移動方向をオペレータ(3)へ通知する情報である通知情報を生成する通知情報生成部(27)とを備える。

Description

地図作成装置、自律走行体、自律走行体システム、携帯端末、地図作成方法、地図作成プログラム及びコンピュータ読み取り可能な記録媒体
 本発明は地図作成装置、自律走行体、自律走行体システム、携帯端末、地図作成方法、地図作成プログラム及びコンピュータ読み取り可能な記録媒体に関する。
 従来から、建物内や屋外の限定された領域内を自律的に走行する自律走行体が知られている。また、近年、自律走行体が移動すべき領域であって、周囲の環境に応じた地図を作成する機能を有する自律走行体が開発されている。この周囲の環境に応じた地図を作成する方法として、自律走行体を自律走行させて自律走行体に地図を作成させる方法と、操作者が自律走行体を操作することで自律走行体に地図を作成させる方法とを挙げることができる。
 特に操作者が望む範囲の地図を作成するには、後者の操作者が自律走行体を操作することで自律走行体に地図を作成させる方法が好ましい。
 特許文献1に記載の自律移動可能な清掃用ロボットは、操作者が清掃用ロボットを操作することで、清掃用ロボットが自律走行すべき領域を表す地図を生成する教示走行モードを機能として有する。
 特許文献1に記載の清掃用ロボットは、自己と周囲の障害物との距離を計測するための距離センサであるレーザレンジセンサを備える。当該清掃用ロボットは、上記レーザレンジセンサから出射されたレーザ光であって、周囲の障害物で反射された反射光を受光することで、地図上の自己の位置や、周囲にある障害物を認識し、これにより自己が自律走行すべきであって、周囲の環境に応じた地図を作成する。さらに、上記清掃用ロボットは、教示走行モードにより地図を作成する際、自己の位置と、障害物との距離が所定距離以下である場合、清掃部ユーザインターフェイス又はスピーカを介して、走行開始位置として不適切である旨を操作者へ通知する。
日本国公開特許公報「特開2014‐219723号公報(2014年11月20日公開)」 日本国公開特許公報「特開2008‐4078号公報(2008年1月10日公開)」 日本国公開特許公報「特開2014‐174275号公報(2014年9月22日公開)」
 しかしながら、特許文献1の清掃用ロボットにおける教示走行モードを、広い場所にて実行した場合など、清掃用ロボットと周囲の障害物との距離が、清掃用ロボットが備えるレーザレンジセンサが計測できる距離の限界を超えると、地図を生成するための情報が途切れたり、地図が歪んだりし、自律走行体において周囲の環境に応じた地図を正しく作成することができない。この清掃用ロボットと、周囲の障害物との距離が適切かどうかは、操作者には分かりにくい。
 また、例えば、清掃用ロボットが遠すぎて見えない場合若しくは逆に近すぎる場合、または、周囲の環境が見えにくい物質若しくは色からなる等の理由により、操作者が、清掃用ロボットが備えるレーザレンジセンサの距離の計測状態が適切かどうか分かりにくい場合もある。
 本発明は、上記の問題点に鑑みてなされたものであり、その目的は、センサが正確に距離を測定できる方向へ移動させるよう作業者を導く地図作成装置、自律走行体、自律走行体システム、携帯端末、地図作成方法、地図作成プログラム及びコンピュータ読み取り可能な記録媒体を提供することである。
 上記の課題を解決するために、本発明の一態様に係る地図作成装置は、周囲の障害物との距離を検出する距離センサを有し、作業者により移動されることで周囲の環境に応じた地図を作成する地図作成装置であって、移動に伴い上記距離センサが測定した距離情報から、周囲の環境に応じた地図を作成する地図作成部と、上記距離情報から、第1の方向における障害物との距離である第1の距離と、上記第1の方向とは異なる第2の方向における障害物との距離である第2の距離とを算出する距離算出部と、上記第1の距離又は第2の距離が所定の最長距離以上であるか、または所定の最短距離以下であるか、またはどちらでもないかを判定して、上記第1の方向及び第2の方向のうち移動すべき方向を判定する距離判定部と、上記移動すべき方向を作業者へ通知する情報である通知情報を生成する通知情報生成部とを備えていることを特徴としている。
 上記の課題を解決するために、本発明の一態様に係る地図作成方法は、移動に伴い変化する周囲の障害物との距離を、作業者が移動させた距離センサが測定した距離情報から、周囲の環境に応じた地図を作成する地図作成ステップと、上記距離情報から、第1の方向における障害物との距離である第1の距離と、上記第1の方向とは異なる第2の方向における障害物との距離である第2の距離とを算出する距離算出ステップと、上記第1の距離又は第2の距離が所定の最長距離以上であるか、または最短距離以下であるか、またはどちらでもないかを判定して、上記第1の方向及び第2の方向のうち、移動すべき方向を判定する距離判定ステップと、上記移動すべき方向を作業者へ通知する情報である通知情報を生成する通知情報生成ステップとを有することを特徴としている。
 本発明の一態様によれば、センサが正確に距離を測定できる方向へ移動させるよう作業者を導くという効果を奏する。
本発明の実施形態1に係る図1は、ロボットシステムの構成を表す機能ブロック図である。 本発明の実施形態1に係るロボットシステムの構成を表す概略図である。 本発明の実施形態1に係るロボットが備えるLRFを説明する図である。 (a)はノード同士を組み合わせて生成された地図を表す図であり、(b)は(a)の地図を構成するノードAを表す図であり、(c)は(a)を構成する他のノードBを表す図である。 (a)はロボットのLRFが右側の壁の距離を測定している様子を表す図であり、(b)は右側の壁の距離データから右代表距離を算出している様子を表す図である。 ロボットと左右の障害物との距離が適切か否かをオペレータへ通知する処理の流れを表すフローチャートである。 本発明の実施形態2に係るロボットシステムの構成を表す機能ブロック図である。 (a)は本発明の実施形態2に係るロボットのLRFが右側の壁からの反射光の強度を測定している様子を表す図であり、(b)は右側の壁からの反射光の強度データから右強度レベルを算出している様子を表す図である。 本発明の実施形態2に係るロボットと左右の障害物との距離が適切か否かをオペレータへ通知する処理の流れを表すフローチャートである。 本発明の実施形態3に係るロボットの構成を表す斜視図である。 本発明の実施形態4に係るロボットの構成を表す斜視図である。 本発明の実施形態5に係るロボットの構成を表す斜視図である。 本発明の実施形態6に係るロボットの構成を表す斜視図である。 本発明の実施形態7に係るロボットの構成を表す斜視図である。 本発明の実施形態8に係るロボットの構成を表す斜視図である。 本発明の実施形態9に係る測定器の構成を表す斜視図である。 本発明の実施形態9に係る測定器の構成を表すブロック図である。
 〔実施形態1〕
 以下に、本発明に係る自律走行体及び自律走行体システムの実施形態を説明する。各実施形態では、自律走行体の一例として清掃用のロボットを挙げて説明するが、本発明は清掃用のロボットに限定されるものではない。例えば、空気清浄機器、撮影機器、各種ロボット機器(例えば、警備ロボット、家事支援ロボット、動物型ロボット等)に対しても本発明を適用することができる。
 (ロボットシステム1の概略)
 まず、図2を用いて、本発明の実施形態1に係るロボットシステム(自律走行体システム)1の構成について説明する。図2はロボットシステム1の構成を表す概略図である。図2に示すようにロボットシステム1はタブレット端末(携帯端末)40とロボット(自律走行体)10とからなる。
 タブレット端末40はロボット10と無線により通信可能な携帯端末である。タブレット端末40は主に入力表示部42及び音声出力部43を備えている。タブレット端末40は、オペレータ(作業者)3がロボット10を操作するための入力を受け付けたり、ロボット10の状態等、各種の情報を表示したり、各種の情報を音声として出力したりする。
 入力表示部42は、例えばタッチパネルである。入力表示部42は、オペレータ3から入力される指示を受け付けると共に、ロボット10が作成した地図等、各種の情報を表示する。なお、入力表示部42は、必ずしも、オペレータ3からの入力を受け付ける入力部と、各種情報を表示する表示部とが一体として構成されている必要はなく、それぞれ別の部材として構成されていてもよい。
 音声出力部43は各種の情報を音声として出力する。一例として、後述するように、オペレータ3がタブレット端末40を使ってロボット10の操作をしているとき、音声出力部43は、ロボット10が最適な位置へ移動できるようにオペレータ3に促す案内を音声として出力する。
 ロボット10は、清掃作業を行う機能を有し、さらに、左右独立した駆動輪により平面である床面を自律的に走行可能な装置である。本実施軽形態では、ロボット10は床面の清掃を行う自律走行体であるものとする。
 ロボット10は、主として、距離センサであるLRF(Laser Range Finder:センサ)12と、駆動輪14と、エンコーダ15と、本体部17と、制御部20とを備えている。特に、LRF12と、制御部20とは地図作成装置として機能する。なお、図示しないが、ロボット10は、さらに、清掃作業を行うための作業ユニットを備える。作業ユニットは、床に落ちているゴミを吸引する吸引部や、モップ、洗浄液タンク及び廃液タンクを有するウェット洗浄部等を有する。なお、作業ユニットが有する機能は清掃に限定されず、例えば、回転する刈刃を有することで芝を刈る芝刈り機能であってもよい。
 ロボット10は、タブレット端末40と通信が可能である。ロボット10は、タブレット端末40により操作可能である。ロボット10は、ロボット10の状態その他の各種情報をタブレット端末40に送信することができる。
 LRF12は、ロボット10のうち進行方向前側の面である、本体部17の前面に配されている。なお、さらに、本体部17の前面とは逆側である本体部17の後面にも配されていてもよい。LRF12は、レーザ光Lを放射状に出力して水平面内をスキャンすることで、ロボット10と、ロボット10の周囲の壁2などの物体との距離を測定し、距離データとして出力するものである。なお、LRF12の具体的な構成は後述する。
 駆動輪14は本体部17の左右に1つずつ配されている。2個の駆動輪14は、自身に接続されているモータ13(図1)により、それぞれが回転する。エンコーダ15は、2個の駆動輪14それぞれの回転角度を出力するセンサである。エンコーダ15は2個の駆動輪14それぞれに接続されている。制御部20は、ロボット10の動作を制御したり、ロボット10が自律走行するための地図を作成したりする。この制御部20の具体的な構成は後述する。
 ロボット10は、周囲の地形などの環境に応じて、自律走行して清掃すべき領域や清掃順等を特定するための地図を作成する機能を有する。ロボット10は、地図を作成する機能として、ロボット10が自律走行をして地図を作成する機能と、タブレット端末40を介してオペレータ3から移動操作させることで地図を作成する機能とを有する。特にオペレータ3が望む地図をロボット10に作成させる場合、後者のように、オペレータ3が実際にタブレット端末40を用いてロボット10を移動させることで地図を作成することが好ましい。
 本実施形態においては、オペレータ3がロボット10を移動操作することでロボット10に地図を作成させる機能を地図作成モードと称する。
 地図作成モードでは、オペレータ3がタブレット端末40の入力表示部42に表示された移動ボタンを操作することで、地図を作成したい場所の範囲内にてロボット10を移動させる。ロボット10は、LRF12の出力であるロボット10と壁2との距離を示す距離情報と、エンコーダ15からの出力である駆動輪14それぞれの回転数を示す回転数情報とを基に地図を作成し、さらに、ロボット10は移動するにつれ作成した地図を更新していく。タブレット端末40の入力表示部42は、このロボット10が作成した地図を表示する。
 (ロボットシステム1の構成)
 図1は、ロボットシステム1の構成を表す機能ブロック図である。ロボット10は、LRF12、駆動輪14、エンコーダ15及び制御部20に加え、さらに、通信部11と、モータ13とを備えている。タブレット端末40は、入力表示部42及び音声出力部43に加え、通信部41を備えている。
 通信部11は、後述するタブレット端末40の通信部41と無線通信するものである。モータ13は、駆動輪14と接続されており、駆動輪14を回転させる。エンコーダ15は、駆動輪14それぞれの回転数を検出し回転数情報eとして制御部20へ出力する。制御部20は、エンコーダ15から出力される回転数情報eを回転数情報16aとして記憶部16に記憶する。
 LRF12は、光学式の距離測定手段を回転軸周りに回転しながら回転軸と直交する走査平面内の周囲物体までの距離を測定する測定器である。LRF12は、レーザ光出力部12aと、レーザ光受光部12bと、距離情報出力部12cとを備えている。
 [スキャンする説明]
 制御部20は、走行制御部21と、ノード情報生成部22と、マップマッチング部23と、地図作成部24と、代表距離算出部(距離算出部)25と、距離判定部26と、通知情報生成部27とを備えている。
 走行制御部21は、オペレータ3からの入力に基づいてモータ13を駆動制御する。これにより、ロボット10は、自律走行したり、又は、タブレット端末40を介して入力されるオペレータ3からの移動指示に基づく移動をしたりする。
 ノード情報生成部22は、LRF12からの出力である距離情報d及びエンコーダ15からの出力である回転数情報eから、各方位における壁等の障害物の位置及び自己位置を表すノードとよばれる、所定のタイミングにおけるローカル地図を生成し、ノード情報16cとして記憶部16に記憶する。ノード情報生成部22は、例えば、ロボット10が所定距離や所定角度を移動したとき等、予め設定された所定のタイミングごとにノードを生成し、ノード情報16cとして記憶部16に順次追加して記憶する。
 マップマッチング部23および地図作成部24は、後述するSLAM機能を実現する構成要素である。
 マップマッチング部23は、各ノードをつなぎ合わせる際、各ノードに示されている自己位置を中心に、各ノードにおける障害物の位置同士が最もよく重なり合う位置を見つける、いわゆるスキャンマッチ処理を行う。これにより、マップマッチング部23は、各ノード同士をつなぎ合わせる際の精度を向上させる。
 地図作成部24は、測定範囲外形相当の面積を持つ予め用意した空マップに、マップマッチング部23がつなぎ合わせた各ノードにおける障害物の位置を描いていく。そして、地図作成部24は、この空マップに入力した障害物の位置の内側を、ロボット10の走行可能領域として特定する。これにより、地図作成部24は地図を作成し、作成した地図を地図情報16dとして記憶部16に記憶する。
 代表距離算出部25、距離判定部26、通知情報生成部27、壁状態情報制御部30は、本発明の中心である距離の通知機能を実現する構成要素である。
 代表距離算出部25は、距離情報dのうち、左右とも所定の方位分の距離データを抽出し、その抽出した所定の方位分の距離データのうち、ロボット10の進行方向(x方向)とは垂直な方向(y方向)の距離を算出し、距離列情報16eとして記憶部16に記憶する。そして、代表距離算出部25は、記憶部16に記憶した距離列情報16eを昇順に並び替え、距離が短い方から所定の個数分の平均値を算出する。これにより、代表距離算出部25は代表距離を算出する。代表距離算出部25は左右の代表距離を算出する。
 すなわち、右側代表距離を算出するために、代表距離算出部25は、距離情報dのうち、右側の所定の方位分の距離データを抽出し、その抽出した所定の方位分の距離データのうち、ロボット10の進行方向(x方向)とは垂直な方向(y方向)の距離を算出し、右側距離列情報16e1として記憶部16に記憶する。そして、代表距離算出部25は、記憶部16に記憶した右側距離列情報16e1を昇順に並び替え、距離が短い方から所定の個数分(例えば10件分等)の平均値を算出する。これにより、代表距離算出部25は右側代表距離を算出する。
 同様に、左側代表距離を算出するために、代表距離算出部25は、距離情報dのうち、左側の所定の方位分の距離データを抽出し、その抽出した所定の方位分の距離データのうち、ロボット10の進行方向(x方向)とは垂直な方向(y方向)の距離を算出し、左側距離列情報16e2として記憶部16に記憶する。そして、代表距離算出部25は、記憶部16に記憶した左側距離列情報16e2を昇順に並び替え、距離が短い方から所定の個数分の平均値を算出する。これにより、代表距離算出部25は左側代表距離を算出する。
 距離判定部26は、代表距離算出部25が算出した左代表距離及び右代表距離に基づき、左側の障害物と、右側の障害物との何れの距離が遠いか、又は適度な距離かどうかを判定し、判定結果に基づいて、ロボット10と壁2との距離状態を表す壁状態情報Wを更新する。具体的には距離判定部26は後述する図6のフローを実施する。
 通知情報生成部27は、記憶部16に記憶されている壁状態情報Wの値が更新されたとき、当該更新された内容に基づいて、オペレータ3が移動させるロボット10の移動方向を修正することを促す通知をするための情報である通知情報を生成する。すなわち、通知情報生成部27は、ロボット10と左右の障害物との距離の状態が変わったときに通知情報を生成する。
 例えば、通知情報生成部27は、距離判定部26が実施する後述の図6のフローの結果に基づいて、オペレータ3へもっと右へロボット10を移動させるよう促すための通知情報や、オペレータ3へもっと左へロボット10を移動させるよう促すための通知情報や、オペレータ3へもっと左へロボット10を移動させるよう促すための通知情報や、オペレータ3へもっと右へロボット10を移動させるよう促すための通知情報や、オペレータ3へもっと左右どちらかへロボット10を移動させるよう促すための通知情報や、オペレータ3へこのままの方向でロボット10を移動させるよう促すための通知情報を生成する。
 タブレット端末40の音声出力部43は、通知情報生成部27が生成した通知情報に基づいて、オペレータ3へ、オペレータ3が移動させるロボット10の移動方向を修正することを促す情報を音声として出力する。
 例えば、タブレット端末40は、通知情報生成部27が生成した通知情報であって、もっと右へロボット10を移動させるよう促すための通知情報を、通信部11・41を介してタブレット端末40が取得すると、もっと右へロボット10を移動させるよう促すための音声を出力する。また、タブレット端末40は、通知情報生成部27が生成した通知情報であって、もっと左へロボット10を移動させるよう促すための通知情報を、通信部11・41を介してタブレット端末40が取得すると、もっと左へロボット10を移動させるよう促すための音声を出力する。また、タブレット端末40は、通知情報生成部27が生成した通知情報であって、このままの方向でロボット10を移動させるよう促すための通知情報を、通信部11・41を介してタブレット端末40が取得すると、このままの方向でロボット10を移動させるよう促すための音声を出力する。
 (LRF12について)
 図3は、ロボット10が備えるLRF12を説明する図である。LRF12は、上述のように、ロボット10の前面に配されている。LRF12は、所定の回転軸で回転する走査機構上にレーザ光出力部12aと、レーザ光受光部12bとを持つ。LRF12は、レーザ光Lの照射した角度と、照射してから反射するまでに要した時間とに基づいて、ある時点での測定方向についてのレーザ光Lを反射した障害物の距離を検出する、いわゆるTOF(time of flight)の原理による障害物検知(センシング)を行う。LRF12の前記回転軸は略鉛直方向になるように、ロボット10に設置されている。LRF12は、前記回転軸を回転しつつ繰り返し、測定光の発信と反射光の受信とを行うことによって、略水平面内の周囲各方向の距離を測定する。
 LRF12の左右方向の視野は、ロボット10の進行方向前方を0度として、左右100度であって、1度ごとに距離を測定する。
 ロボット10の進行方向前方へ向かう方向をx軸プラス方向とし、当該x軸と直角に交差する方向をy軸方向とし、ロボット10を平面視したとき、x軸から反時計回り方向を角度のプラス方向とし、x軸から時計回り方向を角度のマイナス方向とする。また、y軸のうち、x軸プラス方向を反時計回りへ90度回転させた方向(図3の紙面左向き方向)をy軸プラス方向とし、x軸プラス方向から時計回りへ90度回転させた方向(図3の紙面右向き方向)をy軸マイナス方向とする。
 LRF12が測定する距離データ1式は-100度~0度~+100度の合計201件の測定データから構成されている。LRF12は、測定周期のたびに、距離データ1式を制御部20へ出力する。LRF12の測定周期は任意で設定すればよいが、一例として、50msであるものとする。
 LRF12は、ある方位の距離が測定できなかった場合、その方位の距離データを、予め設定した所定の無効値とする。
 このLRF12によって距離が測定できなかった場合とは、その方位の壁までの距離が遠すぎたり、反射率が低いなどにより、レーザ光Lの反射光の強度が小さすぎ、レーザ光受光部12bが反射光を検出できない場合や、ロボット10の周囲の光が強すぎることでレーザ光受光部12bがレーザ光Lの反射光を識別できない場合などを挙げることができる。
 また、無効値は、LRF12として規定されている定格距離よりも大幅に大きな値を設定しておく。一例として、LRF12の定格距離が10mと定められている場合、無効値は99mと設定しておく。この場合、LRF12が測定した距離データが99mである場合、その方位に存在する壁は、LRF12にて距離を測定できない程遠い位置に存在すると判定することができる。
 (地図作成モード)
 次に、主に図4の(a)~(c)及び図1を用いて地図作成モードについて説明する。図4の(a)はノード同士を組み合わせて生成された地図を表す図であり、(b)は(a)の地図を構成するノードAを表す図であり、(c)は(a)を構成する他のノードBを表す図である。
 ロボット10が実行する地図作成モードとして、自己位置を推定しつつ地図を作成する、いわゆるSLAM(Simultaneous Localization and Mapping)処理を用いることができる。ロボット10は、移動するにつれて以下の(1)~(4)にて説明する処理を繰り返し実行することで地図を作成する。
 (1)オドメトリ処理
 図1に示すように、エンコーダ15は、駆動輪14の回転数を回転数情報eとして制御部20へ出力する。この回転数情報eは制御部20により記憶部16に記憶される。LRF12の距離情報出力部12cは、予め設定された所定の測定周期(例えば50ms)毎に、距離データ1式を距離情報dとして制御部20へ出力する。そして、ノード情報生成部22は、回転数情報16aとして蓄積して記憶された駆動輪14の回転数から車体の移動距離と方位を計算することで、ロボット10が有する座標軸上の自己の位置(x、y、θ)を計算する(すなわちオドメトリ処理を行う)。これにより、ノード情報生成部22は、ロボット10の座標軸上の自己位置を認識する。
 (2)ノード情報生成
 次に、ノード情報生成部22は、ロボット10が、距離または方位角が所定以上となる程度移動するごとに、そのときのロボット10の自己の位置(x、y、θ)及び距離データ1式からなるノードを生成し、ノード情報16cとして記憶部16に記憶する。
 図4に示すように、ノード情報生成部22は、各方位における壁2までの距離を平面座標系に投影演算することで1式の距離形状を生成する。各ノード毎に、LRF12が検出した壁2の位置は、制御部20において、複数の点pからなる距離形状で表される。
 図4の(b)はノードAでの距離形状を表している。図4の(b)はノードAから、ロボット10が所定の距離又は方位角移動した後のノードBでの距離形状を表している。ノード情報生成部22は、ノードB以降も順次、所定のタイミングでノードを生成し、当該生成したノードをノード情報16cとして記憶部16に記憶していく。
 この各ノードは、LRF12からの出力をSLAM処理に適したタイミングでノード情報生成部22が生成するものである。LRF12からの出力として、一例として50ms毎など、比較的、短い時間間隔で1式の距離データが制御部20へ出力されるため、このLRF12の出力毎にノードを生成するとデータ量が多くなりすぎる。このため、ノード情報生成部22は、適度に間引いた時間間隔で、各ノードを生成し、ノード情報16cとして記憶部16へ記憶していく。なお、このノード情報生成部22がノードを生成するタイミングは、任意で設定すればよい。
 (3)スキャンマッチ
 次に、マップマッチング部23は、記憶部16に記憶されたノード情報16cを参照し、各ノードの位置関係を算出する。マップマッチング部23は、オドメトリ処理による平面座標上の自己位置(x、y、θ)を初期値として、各ノードにおける距離形状同士が最もよく重なり合う位置関係を見つける、いわゆるスキャンマッチ処理を行い、各ノード同士をつなぎ合わせる際の壁等の障害物の精度を向上させる。
 図4の(a)に示すように、マップマッチング部23は、ノードAとノードBとを、スキャンマッチ処理をしつつつなぎ合わせる。マップマッチング部23は、ノードAにおける各点pと、ノードBにおける各点pとが連続性を有するように、ノードAと、ノードBとをつなぎ合わせる。
 ここで、ノードA及びノードBそれぞれの各点pが、より多くの凹凸形状を構成するように、LRF12により距離情報dが生成されていることが好ましい。これにより、ノードAの各点pが表す凹凸と、ノードBの各点pが表す凹凸とのマッチング精度を向上させることができるため、より、各ノード同士をつなぎ合わせて作る地図の精度を向上させることができるためである。
 (4)地図生成
 地図作成部24は、測定範囲外形相当の面積を持つ予め用意した空マップに、マップマッチング部23がつなぎ合わせた各ノードA、B、・・・における障害物の位置である各点pの位置を描いていく。地図作成部24は、最初は未知領域である空マップ上の、壁や柱等の障害物の位置座標を、マップマッチング部23がつなぎ合わせた各ノードA、B、・・・における障害物を表す各点pの位置から算出し、空マップに入力していく。そして、地図作成部24は、この空マップに入力した各点pの位置の内側を、ロボット10の走行可能領域として特定する。これにより、地図作成部24は地図を作成し、作成した地図を地図情報16dとして記憶部16に記憶する。
 (地図の作成に重要なこと)
 地図を作成するに当たり、特に重要なこととして、マップマッチング部23が各ノード同士をつなぎ合わせる際、壁2の形状、すなわち各点pが表す凹凸形状により、各ノード同士の相対位置を確認可能であることを挙げることができる。
 そのために、LRF12の距離情報出力部12cが、十分に各方位における壁等の障害物の距離を検出し、距離情報dとして制御部20へ出力している必要がある。
 また、障害物におけるより多くの凹凸が測定されていることが好ましい。これは、マップマッチング部23がノード同士をつなげる際の障害物同士のつながりの精度を向上させるためである。
 また、LRF12における距離データの視野を広げるため、ロボット10を壁等の障害物に近づけすぎないことが重要である。また、逆に、LRF12が距離の測定が可能な最大距離があるため、ロボット10を障害物から離しすぎないことも重要である。ロボット10と障害物との距離が、LRF12の定格距離を超えると、LRF12の測定精度が低下することになる。
 例えば、定格測定距離が10mのLRF12をロボット10に搭載した場合、ロボット10と障害物との距離を、LRF12の測定範囲の真中である5mを中心として、1m以上9m未満となるように、ロボット10と障害物との距離を保つことが好ましい。
 しかし、ロボット10と、障害物との距離が適切な範囲内に保たれているか否かを、見た目で判断することは困難である。このため、ロボット10を手動操作することで地図を作成する場合、ロボット10と、障害物との距離が適切な否かを、オペレータ3に、音声等により通知することが好ましい。
 ただし、ロボット10を走行させる地形の都合で、壁等の障害物が少ない場所をロボット10が通る必要がある場合もある。したがって、ロボット10を手動操作することで地図を作成する場合、より精度が高く地図を作成することができる走行位置をオペレータ3に通知するが、強制しないことが好ましい。
 (左右の代表距離の算出)
 次に、ロボット10の左右の障害物との距離が適切か否かを判定するために用いる代表距離の算出方法について説明する。図5を用いて、一例として右代表距離を算出する方法について説明する。図5の(a)はロボット10のLRF12が右側の壁2の距離を測定している様子を表す図であり、(b)は右側の壁の距離データから右代表距離を算出している様子を表す図である。
 ロボット10は、一定周期ごとに図5に示す左代表距離及び右代表距離の算出、及び図6を用いて後述する左右の距離が適切か否の処理を実施する。これらの処理はLRF12の測定間隔(50ms程度)より遅く、一例として、1秒に1回程度、処理を行う。
 図5の(a)に示すように、代表距離算出部25は、距離情報dを参照し、LRF12が測定した各方位における壁2の距離データのうち、-100度~-40度までの距離データであるL-100~L-40を抽出する。そして、図5の(b)に示すように、代表距離算出部25は、抽出したL-100~L-40それぞれのy成分(y方向の距離)であるy40~y100を算出する。具体的には代表距離算出部25は、距離データL-100~L-40のそれぞれについて、以下の計算を行う。
 yn = Ln ×sin(n)
 ただし、nは-100~-40の指数である。sin(n)は正弦関数であり、角度n[度]の正弦を返す。代表距離算出部25は、合計61件のy成分を算出し、右側距離列情報16e1として記憶部16に記憶する。
 次に、代表距離算出部25は、記憶部16に記憶した右側距離列情報16e1を、昇順に並べ替え、y方向の距離が短い側から6件の平均値を算出する。結果として、図5の(b)では、L-40p~L-45pの6件それぞれのy方向の距離の平均値が右側代表距離として算出される。代表距離算出部25は、この算出した右側代表距離を記憶部16に記憶してもよい。
 同様に、代表距離算出部25は、距離情報dを参照し、左側距離列情報16e2を記憶部16へ記憶し、その左側距離列情報16e2から左側代表距離を算出する。
 (壁との距離を通知する処理の流れ)
 図6は、ロボット10と左右の障害物との距離が適切か否かをオペレータへ通知する処理の流れを表すフローチャートである。
 図6に示すように、距離判定部26は、ステップS11として、代表距離算出部25が算出した左代表距離及び右代表距離に基づき、左側の壁との距離が近いか否かを判定する。具体的には、一例として、距離判定部26は、左代表距離が1m未満であり、かつ、右代表距離が2m以上9m以下であり、かつ、壁状態情報Wの値が1以外である場合にYESと判定する。いずれかの条件が外れる場合、NOと判定する。
 ステップS11でYESの場合、次に、ステップS12として、距離判定部26は、壁状態情報Wの値を1に更新する。そして、距離判定部26により壁状態情報Wの値が1に更新されると、通知情報生成部27は、左の壁との距離が近いため、オペレータ3へもっと右へロボット10を移動させるよう促すための通知情報を生成する。すると、当該通知情報は、ロボット10の通信部11からタブレット端末40の通信部41へ送信される。これにより、音声出力部43は、「左の壁が近いようです。少し、右に寄れませんか」等といった音声メッセージを出力する。
 ステップS11のNOの場合、ステップS13として、距離判定部26は、次に、代表距離算出部25が算出した左代表距離及び右代表距離に基づき、右側の壁との距離が近いか否かを判定する。具体的には、一例として、距離判定部26は、左代表距離が2m以上9m以下であり、かつ、右代表距離が1m未満であり、かつ、壁状態情報Wの値が2以外である場合にYESと判定する。いずれかの条件が外れる場合、NOと判定する。
 ステップS13でYESの場合、次に、ステップS14として、距離判定部26は、壁状態情報Wの値を2に更新する。そして、距離判定部26により壁状態情報Wの値が2に更新されると、通知情報生成部27は、右の壁との距離が近いため、オペレータ3へもっと左へロボット10を移動させるよう促すための通知情報を生成する。すると、当該通知情報は、ロボット10の通信部11からタブレット端末40の通信部41へ送信される。これにより、音声出力部43は、「右の壁が近いようです。少し、左に寄れませんか」等といった音声メッセージを出力する。
 ステップS13のNOの場合、ステップS15として、距離判定部26は、次に、代表距離算出部25が算出した左代表距離及び右代表距離に基づき、左側の壁との距離が遠いか否かを判定する。具体的には、一例として、距離判定部26は、左代表距離が9m以上であり、かつ、右代表距離が5m未満であり、かつ、壁状態情報Wの値が3以外である場合にYESと判定する。いずれかの条件が外れる場合、NOと判定する。
 ステップS15でYESの場合、次に、ステップS16として、距離判定部26は、壁状態情報Wの値を3に更新する。そして、距離判定部26により壁状態情報Wの値が3に更新されると、通知情報生成部27は、左の壁との距離が遠いため、オペレータ3へもっと左へロボット10を移動させるよう促すための通知情報を生成する。すると、当該通知情報は、ロボット10の通信部11からタブレット端末40の通信部41へ送信される。これにより、音声出力部43は、「左の壁が遠いようです。少し、左に寄れませんか」等といった音声メッセージを出力する。
 ステップS15のNOの場合、ステップS17として、距離判定部26は、次に、代表距離算出部25が算出した左代表距離及び右代表距離に基づき、右の壁との距離が遠いか否かを判定する。具体的には、一例として、距離判定部26は、左代表距離が5m未満であり、かつ、右代表距離が9m以上であり、かつ、壁状態情報Wの値が4以外である場合にYESと判定する。いずれかの条件が外れる場合、NOと判定する。
 ステップS17でYESの場合、次に、ステップS18として、距離判定部26は、壁状態情報Wの値を4に更新する。そして、距離判定部26により壁状態情報Wの値が4に更新されると、通知情報生成部27は、右の壁との距離が遠いため、オペレータ3へもっと右へロボット10を移動させるよう促すための通知情報を生成する。すると、当該通知情報は、ロボット10の通信部11からタブレット端末40の通信部41へ送信される。これにより、音声出力部43は、「右の壁が遠いようです。少し、右に寄れませんか」等といった音声メッセージを出力する。
 ステップS17のNOの場合、ステップS19として、距離判定部26は、次に、代表距離算出部25が算出した左代表距離及び右代表距離に基づき、左の壁及び右の壁の両方の距離が遠いか否かを判定する。具体的には、一例として、距離判定部26は、左代表距離が9m以上であり、かつ、右代表距離が9m以上であり、かつ、壁状態情報Wの値が5以外である場合にYESと判定する。いずれかの条件が外れる場合、NOと判定する。
 ステップS19でYESの場合、次に、ステップS20として、距離判定部26は、壁状態情報Wの値を5に更新する。そして、距離判定部26により壁状態情報Wの値が5に更新されると、通知情報生成部27は、左右両方の壁との距離が遠いため、オペレータ3へもっと左右どちらかへロボット10を移動させるよう促すための通知情報を生成する。すると、当該通知情報は、ロボット10の通信部11からタブレット端末40の通信部41へ送信される。これにより、音声出力部43は、「左右の壁が遠いです。左右どちらかに寄れませんか」等といった音声メッセージを出力する。
 ステップS19のNOの場合、ステップS21として、距離判定部26は、次に、代表距離算出部25が算出した左代表距離及び右代表距離に基づき、左の壁及び右の壁の両方の距離が適切か否かを判定する。具体的には、一例として、距離判定部26は、左代表距離が1m以上9m未満であり、かつ、右代表距離が1m以上9m未満であり、かつ、壁状態情報Wの値が6以外である場合にYESと判定する。いずれかの条件が外れる場合、NOと判定する。
 ステップS21でYESの場合、次に、ステップS22として、距離判定部26は、壁状態情報Wの値を6に更新する。そして、距離判定部26により壁状態情報Wの値が6に更新されると、通知情報生成部27は、左右両方の壁との距離が所定の範囲内であるため、オペレータ3へ左右の壁との距離がちょうど良い旨の通知情報を生成する。すると、当該通知情報は、ロボット10の通信部11からタブレット端末40の通信部41へ送信される。これにより、音声出力部43は、「ちょうど良い距離です」等といった音声メッセージを出力する。
 ステップS21のNOの場合、距離判定部26は壁状態情報Wを更新せず、また、通知情報生成部27は、オペレータ3へ対応を促すための通知情報も生成しない。そして処理を完了する。
 このステップS21のNOの場合とは、具体的には、一例として、左代表距離が0.5mであり、かつ、右代表距離が1.5mである場合や、左代表距離が7mであり、かつ、右代表距離が15mである場合、および、壁状態情報Wの値が元から6であった場合などを挙げることができる。
 制御部20において、この図6に示した処理を行う周期は、LRF12が距離を測定する周期(例えば、50ms)よりも遅くてよい。例えば、制御部20は、1秒に1回程度の周期で図6に示す処理を行えばよい。
 (ロボットシステム1における主な利点)
 以上のように、距離センサであるLRF12と、制御部20とからなる構成は、オペレータ3により移動されることで周囲の環境に応じた地図を作成する地図作成装置として機能する。制御部20は、移動に伴い変化する周囲の壁2との距離をLRF12が測定した距離情報dから、周囲の環境に応じた地図を作成する地図作成部24と、距離情報dから、右側における壁2との距離である右代表距離と、左側における壁2との距離である左代表距離とを算出する代表距離算出部25と、右側代表距離又は左側代表距離が所定の上限値(最長距離)以上であるか、または所定の下限値(最短距離)以下であるか、またはどちらでもないかを判定して、右側(第1の方向)及び左側(第2の方向)のうち移動すべき方向を判定する距離判定部26と、上記移動すべき方向をオペレータ3へ通知する情報である通知情報を生成する通知情報生成部27とを備えている。
 このため、オペレータ3が移動させることで地図作成部24が周囲の環境に応じた地図を作成しているときとき、LRF12と壁2との距離が、LRF12の測定が不安定になる程度離れたとしても、距離判定部26は移動すべき方向を判定し、通知情報生成部27は、上記移動すべき方向をオペレータ3へ通知する情報である通知情報を生成する。このため、この通知情報に基づく方向を通信部11・41を介して音声出力部43からオペレータ3へ音声として通知することで、LRF12が正確に測定できる方向へ移動させるようにオペレータ3を導くことができる。このため、正確に地図を作成させることができる。
 通知情報生成部27は、オペレータ3に取りうる対応方法を含む情報を上記通知情報として生成するため、オペレータ3は、移動方向を変更するなど、取りうる対応方法を容易に把握することができる。具体的には、通知情報に基づく方向を音声出力部43が音声としての情報をオペレータ3に通知する。このため、正確に、オペレータ3へ地図を成させることができる。さらに、音声で案内するため、オペレータ3は装置の動きや周囲を見つつ作業することができ、安全に作業することができる。
 〔実施形態2〕
 本発明の他の実施形態について、図7~図9に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 (ロボットシステム1Aの構成)
 図7は、ロボットシステム(自律走行体システム)1Aの構成を表す機能ブロック図である。ロボットシステム1Aは、ロボット(自律走行体)10Aと、タブレット端末40とからなる。ロボット10Aは、ロボット10が備えていたLRF12、制御部20及び記憶部16に換えて、それぞれ、LRF(センサ)12A、制御部(地図作成装置)20A及び記憶部16Aを備えている点で相違する。ロボット10Aの他の構成はロボット10と同様である。
 LRF12Aは、LRF12が備えていた構成に加え、さらに、強度情報出力部12dを備えている。LRF12Aは、距離データとともに、レーザ光Lが反射して帰ってきた光の強度を表す強度データを出力する。
 強度情報出力部12dは、レーザ光出力部12aが照射し障害物により反射した反射光の振幅や長さ等を測定することで、反射光の強度を示す強度データを生成し、強度情報sとして制御部20Aへ出力する。制御部20Aは強度情報sを強度情報16fとして記憶部16に記憶する。
 ここで、LRFとして、LRF12のように距離データだけを測定し、強度情報出力部12dを有さず反射光の強度を測定しない構成の方がシンプルな構造とすることができる。しかし測定の安定性を評価するには、周囲の障害物との距離を測定するより、反射光の強度データを測定した方が良い。例えば、定格距離より遠くにある白い壁は、定格距離以内にある黒い壁よりも反射光が強い場合があり、距離が遠くても強度が高い測定は測定誤差が小さい。このため、LRF12より、反射光の強度も測定するLRF12Aの方が、強度に基づいて誤差の少ない測定を利用することで、LRFの能力を広い範囲で活かすことができる。
 制御部20Aは、制御部20から距離判定部26に換えて壁状態情報制御部(方向特定部)30Aを備え、さらに、強度レベル算出部28A及び強度レベル判定部29Aを備えている。
 強度レベル算出部28Aは、強度情報16fのうち、左右とも所定の方位分の強度データを抽出する。強度レベル算出部28Aは、所定の方位として、強度情報16fに加え、ノード情報16cに含まれる距離データも参照することで、代表距離算出部25が代表距離算出に使用した方位分の強度データを抽出するようにしてもよい。強度レベル算出部28Aは、抽出した所定の方位分の強度データを強度列情報16gとして記憶部16Aに記憶する。さらに、強度レベル算出部28Aは、強度列情報16gのうち、所定の強度レベル以上のデータの個数をカウントする。
 強度レベル判定部29Aは、強度レベル算出部28Aがカウントしたデータの個数から、左右における反射光の強度を判定するものである。強度レベル判定部29Aは、強度レベル算出部28Aがカウントした左側の壁からの反射光の強度レベルの個数が所定の個数以上であれば、左側の反射光の強度レベルである左強度レベルは強いと判定し、左強度レベルは強い旨の情報を壁状態情報制御部30Aへ出力する。一方、強度レベル算出部28Aがカウントした左側の壁からの反射光の強度レベルの個数が所定の個数未満であれば、左強度レベルは弱いと判定し、左強度レベルは弱い旨の情報を壁状態情報制御部30Aへ出力する。強度レベル判定部29Aは、強度レベル算出部28Aがカウントした右側の壁からの反射光の強度レベルの個数が所定の個数以上であれば、右側の反射光の強度レベルである右強度レベルは強いと判定し、右強度レベルは強い旨の情報を壁状態情報制御部30Aへ出力する。一方、強度レベル算出部28Aがカウントした右側の壁からの反射光の強度レベルの個数が所定の個数未満であれば、右強度レベルは弱いと判定し、右強度レベルは弱い旨の情報を壁状態情報制御部30Aへ出力する。本実施形態では上記所定の個数は10個とする。
 壁状態情報制御部30Aは、代表距離算出部25が算出した左代表距離及び右代表距離と、強度レベル判定部29Aが判定した判定結果とから、図9に対応する後述のフローに従って記憶部16に記憶された壁状態情報Wの情報を更新する。
 (左右の強度レベルの算出)
 次に、ロボット10Aの左右の障害物との距離を判定するための強度レベルの算出方法について説明する。図8を用いて、一例として右強度レベルを算出する方法について説明する。図8の(a)はロボット10AのLRF12Aが右側の壁2からの反射光の強度を測定している様子を表す図であり、(b)は右側の壁からの反射光の強度データから右強度レベルを算出している様子を表す図である。
 LRF12Aが測定できる最大距離は、測定する壁2の色などによって異なるが、強度データをもとに、測定の安定度を判定することができる。
 図8の(a)に示すように、強度レベル算出部28Aは、ノード情報16cの距離データ及び強度情報16fを参照し、LRF12Aが測定した各方位における壁2から反射光の強度データのうち、代表距離算出部25が右代表距離の算出に使用した、L-100~L-40までを特定する。
 強度情報出力部12dが測定した各方位における壁2からの反射光の強度データは、例えば、0~9の10段階の値により強度情報16fとして記憶部16Aに記憶されている。強度データの値が0のとき一番測定精度が悪く、値が9のとき最も測定精度が良好であるとする。ロボット10と壁2との距離が遠い場合や、壁2の色が暗く反射光が弱い場合は、強度データは4未満の値をとる。また、外光が強いために強度情報出力部12dが強度データを測定できない場合も、強度データは4未満の値となる。
 そして、図8の(b)に示すように、強度レベル算出部28Aは、記憶部16の強度情報16fを参照し、特定した点-100p~点-40pそれぞれの反射光の強度データであるz40~z100を抽出する。強度レベル算出部28Aは、合計61件の強度データを抽出し、右側強度列情報16g1として記憶部16に記憶する。
 次に、強度レベル算出部28Aは、記憶部16に記憶した右側強度列情報16g1から、強度データの値が5以上であるデータの個数を数える。
 そして、強度レベル判定部29Aは、強度レベル算出部28Aが数えたデータの個数が6以上であれば右強度レベルは強いと判定し、強度レベル算出部28Aが数えたデータの個数が6未満であれば右強度レベルは弱いと判定する。
 同様に、強度レベル算出部28Aは、記憶部16の強度情報16fを参照し、左側強度列情報16g2を記憶部16へ記憶し、強度レベル判定部29Aは、その左側強度列情報16g2から左強度レベルの強弱を判定する。
 この強度データを利用して、ロボット10Aと壁2との距離を認識すると、壁2の色や材質等に比較的依存せず、適切な距離測定をすることができるので、よりLRF12Aの能力を広い範囲で使うことができる。たとえば、ロボット10と壁2との距離が遠くても壁2からの反射光の強度レベルが高いときは、ロボット10と壁2との距離を遠いと判定せず、測定を続けることができる。
 (壁との距離を通知する処理の流れ)
 図9は、ロボット10Aと左右の障害物との距離が適切か否かをオペレータへ通知する処理の流れを表すフローチャートである。
 図9に示すように、ステップS31として壁状態情報制御部30Aは、代表距離算出部25が算出した左代表距離及び右代表距離の値に基づいて、左側の壁との距離が近いか否かを判定すると共に、強度レベル判定部29Aが判定した右強度レベルの判定結果から右側の距離データの安定度を判定する。さらに、壁状態情報制御部30Aは記憶部16Aに記憶された壁状態情報Wが1以外であるか否かを判定する。具体的には、左代表距離が1m未満であり、かつ右代表距離が2m以上であり、かつ右強度レベルが強いであり、かつ壁状態が1以外である場合に、YESと判定する。いずれかの条件が外れる場合、NOと判定する。
 ステップS31でYESの場合、次に、ステップS32として、壁状態情報制御部30Aは、壁状態情報Wの値を1に更新する。そして、壁状態情報制御部30Aにより壁状態情報Wの値が1に更新されると、通知情報生成部27Aは、オペレータ3へもっと右へロボット10Aを移動させるよう促すための通知情報を生成する。すると、当該通知情報は、ロボット10Aの通信部11からタブレット端末40の通信部41へ送信される。これにより、音声出力部43は、「左の壁が近いようです。少し、右に寄れませんか」等といった音声メッセージを出力する。
 ステップS31のNOの場合、ステップS33として壁状態情報制御部30Aは、つぎに、代表距離算出部25が算出した左代表距離及び右代表距離の値に基づいて、右側の壁との距離が近いか否かを判定すると共に、強度レベル判定部29Aが判定した左強度レベルの判定結果から、左側の距離データの安定度を判定する。さらに、壁状態情報制御部30Aは記憶部16Aに記憶された壁状態情報Wが2以外であるか否かを判定する。
 具体的には壁状態情報制御部30Aは、ステップS33の一例として、左代表距離が2m以上であり、かつ、右代表距離が1m未満であり、かつ、左強度レベルが強いと強度レベル判定部29Aが判定し、かつ、記憶部16に記憶されている壁状態情報Wが2以外である場合に、YESと判定し、いずれかの条件が外れる場合、NOと判定する。
 ステップS33でYESの場合、次に、ステップS32として、壁状態情報制御部30Aは、壁状態情報Wの値を2に更新する。そして、壁状態情報制御部30により壁状態情報Wの値が2に更新されると、通知情報生成部27Aは、右の壁との距離が近く、また、左側の距離データの測定は安定しているため、オペレータ3へもっと左へロボット10Aを移動させるよう促すための通知情報を生成する。すると、当該通知情報は、ロボット10Aの通信部11からタブレット端末40の通信部41へ送信される。これにより、音声出力部43は、「右の壁が近いようです。少し、左に寄れませんか」等といった音声メッセージを出力する。
 ステップS33のNOの場合壁状態情報制御部30Aは、ステップS35として、つぎに、代表距離算出部25が算出した右代表距離の値と、強度レベル算出部28Aが算出した左強度レベル及び右強度レベルに基づく強度レベル判定部29Aの判定結果とから、左側の壁との距離が遠いか否かを判定する。さらに、壁状態情報制御部30Aは記憶部16Aに記憶された壁状態情報Wが3以外であるか否かを判定する。
 具体的には壁状態情報制御部30Aは、ステップS35の一例として、右代表距離が9m未満であり、かつ、左強度レベルが弱い、かつ、右強度レベルが強いと強度レベル判定部29Aが判定し、かつ、記憶部16に記憶されている壁状態情報Wが3以外である場合に、YESと判定し、いずれかの条件が外れる場合、NOと判定する。なお、左強度レベルが弱いため、距離情報出力部12cは左側の距離データを測定できない場合がある。
 ステップS35でYESの場合、次に、ステップS36として、壁状態情報制御部30Aは、壁状態情報Wの値を3に更新する。そして、壁状態情報制御部30により壁状態情報Wの値が3に更新されると、通知情報生成部27Aは、オペレータ3へもっと左へロボット10Aを移動させるよう促すための通知情報を生成する。すると、当該通知情報は、ロボット10Aの通信部11からタブレット端末40の通信部41へ送信される。これにより、音声出力部43は、「左の壁が遠いようです。少し、左に寄れませんか」等といった音声メッセージを出力する。
 ステップS35のNOの場合、ステップS37として、つぎに、代表距離算出部25が算出した右代表距離の値と、強度レベル算出部28Aが算出した左強度レベル及び右強度レベルに基づく強度レベル判定部29Aの判定結果とから、右側の壁との距離が遠いか否かを判定する。さらに、壁状態情報制御部30Aは記憶部16Aに記憶された壁状態情報Wが4以外であるか否かを判定する。
 具体的には壁状態情報制御部30Aは、ステップS37の一例として、左代表距離が9m未満であり、かつ、左信号レベルが強く、かつ、右強度レベルが弱いと強度レベル判定部29Aが判定し、かつ、記憶部16に記憶されている壁状態情報Wが4以外であると壁状態情報制御部30Aが判定した場合に、YESと判定し、いずれかの条件が外れる場合、NOと判定する。なお、右強度レベルが弱いため、距離情報出力部12cは右側の距離データを測定できない場合がある。
 ステップS37でYESの場合、次に、ステップS38として、壁状態情報制御部30Aは、壁状態情報Wの値を4に更新する。そして、壁状態情報制御部30により壁状態情報Wの値が4に更新されると、通知情報生成部27Aは、オペレータ3へもっと右へロボット10Aを移動させるよう促すための通知情報を生成する。すると、当該通知情報は、ロボット10Aの通信部11からタブレット端末40の通信部41へ送信される。これにより、音声出力部43は、「右の壁が遠いようです。少し、右に寄れませんか」等といった音声メッセージを出力する。
 ステップS37のNOの場合、ステップS39として、つぎに、強度レベル算出部28Aが算出した左強度レベル及び右強度レベルに基づく強度レベル判定部29Aの判定結果から、左右両方の壁との距離が遠いか否かを判定する。さらに、壁状態情報制御部30Aは記憶部16Aに記憶された壁状態情報Wが5以外であるか否かを判定する。
 具体的には壁状態情報制御部30Aは、ステップS39の一例として、左強度レベルが弱く、かつ、右強度レベルが弱いと強度レベル判定部29Aが判定し、かつ、記憶部16に記憶されている壁状態情報Wが5以外であると判定した場合に、YESと判定し、いずれかの条件が外れる場合、NOと判定する。なお、左強度レベル及び右強度レベルの両方とも弱いため、距離情報出力部12cは左側の距離データ及び右側の距離データの両方とも測定できない場合がある。
 ステップS39でYESの場合、次に、ステップS40として、壁状態情報制御部30Aは、壁状態情報Wの値を5に更新する。そして、壁状態情報制御部30により壁状態情報Wの値が5に更新されると、通知情報生成部27Aは、オペレータ3へもっと左右どちらかへロボット10Aを移動させるよう促すための通知情報を生成する。すると、当該通知情報は、ロボット10Aの通信部11からタブレット端末40の通信部41へ送信される。これにより、音声出力部43は、「左右の壁が遠いようです。左右どちらかに寄れませんか」等といった音声メッセージを出力する。
 ステップS39のNOの場合、ステップS41として、つぎに、強度レベル算出部28Aが算出した左強度レベル及び右強度レベルに基づく強度レベル判定部29Aの判定結果から、左右両方の壁との距離が適切か否かを判定する。さらに、壁状態情報制御部30Aは記憶部16Aに記憶された壁状態情報Wが6以外であるか否かを判定する。
 具体的には壁状態情報制御部30Aは、ステップS41の一例として、左強度レベルが強く、かつ、右強度レベルが強いと強度レベル判定部29Aが判定し、かつ、記憶部16に記憶されている壁状態情報Wが6以外である場合に、YESと判定し、いずれかの条件が外れる場合、NOと判定する。
 ステップS41でYESの場合、次に、ステップS42として、壁状態情報制御部30Aは、壁状態情報Wの値を6に更新する。そして、壁状態情報制御部30により壁状態情報Wの値が6に更新されると、通知情報生成部27Aは、オペレータ3へ左右の壁との距離がちょうど良い旨の通知情報を生成する。すると、当該通知情報は、ロボット10Aの通信部11からタブレット端末40の通信部41へ送信される。これにより、音声出力部43は、「ちょうど良い距離です」等といった音声メッセージを出力する。
 ステップS41でNOの場合は処理を完了する。
 (ロボットシステム1Aによる主な利点)
 以上のように、ロボット10Aが備えるLRF12A及び制御部20Aは地図作成装置として機能する。そして、LRF12Aは、LRF12の構成に加え、さらに、周囲の壁2からの反射信号の強度を検出して強度情報(強度信号)sとして出力する強度情報出力部12dを備える。そして、制御部20Aは、移動に伴い変化する周囲の壁2からの反射信号の強度をLRF12Aが測定した強度情報16fから、右側における反射信号の強度レベルである右強度レベルと、左側における反射光の強度レベルである左強度レベルとを算出する強度レベル算出部28Aと、右代表距離及び左代表距離と、右強度レベル及び左強度レベルとから、右側及び左側のうち、移動すべき方向を特定する壁状態情報制御部30Aとを備える。さらに、通知情報生成部27は、上記通知情報として、上記移動すべき方向を作業者へ通知する情報を生成する。
 これにより、壁状態情報制御部30Aは、右代表距離及び左代表距離だけでなく、右強度レベルと左強度レベルとも含め、右側及び左側のうち、移動すべき方向を特定する。このため、より適切に、オペレータ3へ、右側及び左側のうち移動させるべき方向を提示することができる。これにより、LRF12Aセンサの能力をより広い範囲で使用することができるため、効率よく地図を作成することができる。
 〔実施形態3〕
 本発明の実施形態3について、図10に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態1~2にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 図10は本発明の実施形態3に係るロボット(自律走行体)10Bの構成を表す斜視図である。図10に示すようにロボット10Bは、ロボット10が備えていたLRF12に換えて、複数の超音波センサ(センサ)12Bを備えている点で相違する。
 複数の超音波センサ12Bは、距離データの測定のため、本体部17の前面及び側面に配されている。図10に示す例では、複数の超音波センサ12Bは、本体部17の前面に一列に3個配されており、両側面にそれぞれ1つずつ配されている。複数の超音波センサ12Bは、それぞれ測定軸方向(取り付けられている面の法線方向)の物体や壁までの距離を測定し、距離情報dとして出力する。
 〔実施形態4〕
 本発明の実施形態4について、図11に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態1~3にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 図11は本発明の実施形態4に係るロボット(自律走行体)10Cの構成を表す斜視図である。図10に示すようにロボット10Cは、ロボット10が備えていたLRF12に換えて、距離画像センサ12Cを備えている点で相違する。
 距離画像センサ(センサ)12Cは、距離データの測定のため、本体部17の前面に配されている。距離画像センサ12Cは3次元で画像を撮像する。距離画像センサ12Cは、正面方向を中心として左右約60度、上下約45度の視野を持つ。距離画像センサ12Cは視野内を所定の分解能で縦横に区切って各方位毎の距離データを測定し、すべての距離データを集めて3次元形状に相当する距離データ1式を、距離情報dとして出力する。
 なお、本実施形態では、マップマッチング部23は、スキャンマッチを、3次元データ同士で行う。
 〔実施形態5〕
 本発明の実施形態5について、図12に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態1~4にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 図12は本発明の実施形態5に係るロボット(自律走行体)10Dの構成を表す斜視図である。図12に示すようにロボット10Dは、ロボット10の構成に加え、複数の表示灯51を備えている点でロボット10と相違する。
 複数の表示灯51は、本体部17の外周に配されている。図12の例では、本体部17の右側前方部と左側前方部の2ヶ所に配されている。地図作成上、作業者が移動させる方向(左方向又は右方向)として好ましい方向に対応する表示灯51が点灯する。すなわち、本実施形態においては、制御部20(図1参照)は、オペレータ3が移動させる方向を示す情報として、通知情報生成部27が生成した通知情報が示す方向と対応する表示灯51を点灯させる。
 〔実施形態6〕
 本発明の実施形態6について、図13に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態1~5にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 図13は本発明の実施形態6に係るロボット(自律走行体)10Eの構成を表す斜視図である。図13に示すようにロボット10Eは、ロボット10の構成に加え、表示部52を備えている点でロボット10と相違する。
 表示部52は、本体部17の上面に配されている。表示部52は、地図作成上、作業者が移動させる方向(左方向又は右方向)として好ましい方向を示す矢印を表示する。すなわち、本実施形態においては、制御部20(図1参照)は、オペレータ3が移動させる方向を示す情報として、通知情報生成部27が生成した通知情報が示す方向を示す矢印を表示部52に表示する。
 〔実施形態7〕
 本発明の実施形態7について、図14に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態1~6にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 図14は本発明の実施形態7に係るロボット10Fの構成を表す斜視図である。図14に示すようにロボット(自律走行体)10Fは、ロボット10の構成に加え、操作部53を備えている点でロボット10と相違する。
 操作部53は、本体部17の上面に配されている。操作部53は音声も出力する。操作部53は、ロボット10Fの進行方向前・後・左・右に対応する4個のボタンから構成されている。進行方向前・後のボタンを、作業者などに押されると、ロボット10Fはその方向へ進む。進行方向左・右のボタンを、作業者などに押されると、ロボット10Fはその方向へ旋回する。すなわち、本実施形態においては、制御部20(図1参照)は、オペレータ3が移動させる方向を示す情報として、通知情報生成部27が生成した通知情報が示す方向を音声として出力する。
 本実施形態においては、操作部53が、入力表示部42における作業者からの入力を取得する機能及び音声出力部43の音声を出力する機能を担うことができるため、タブレット端末40を省略してもよい。
 〔実施形態8〕
 本発明の実施形態8について、図15に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態1~7にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 図15は本発明の実施形態8に係るロボット(自律走行体)10Gの構成を表す斜視図である。図15に示すようにロボット10Gは、ロボット10のうち、通信部11、走行制御部21、モータ13、駆動輪14及びエンコーダ15を省略し、2個の車輪14G及び把持部54を備えている点でロボット10と相違する。本実施形態においては、タブレット端末40不要であり、ロボット10Gは、自律走行体ではなく、作業者により押されて動く手押し式の装置である。
 作業者は、本体部17に配された把持部54を把持してロボット10Gを移動させる。車輪14Gは、動力を持たないか、または、持っていても駆動しない。
 〔実施形態9〕
 本発明の実施形態9について、図16及び図17に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態1~8にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 図16は本発明の実施形態9に係る測定器(携帯端末)60の構成を表す斜視図である。図16に示すように測定器60は、建物内等の地図を作るための測定器である。本実施形態では、ロボット10などは不要であり、オペレータ3が持って、オペレータ3により移動されるモバイル型の測定器60だけで構成されている。測定器60は本体部67と、本体部67の裏面に配された距離画像センサとを備えている。
 図17は、測定器60の構成を表すブロック図である。測定器60は、入力表示部61と、音声出力部63と、距離画像センサ62と、記憶部66と、演算部(地図作成装置)70とを備えている。入力表示部61及び音声出力部63は、入力表示部42及び音声出力部43(図1参照)と同様である。
 距離画像センサ62は距離情報出力部62cを備えている。距離画像センサ62は3次元で画像を撮像する。距離画像センサ62は、正面方向を中心として左右約60度、上下約45度の視野を持つ。距離情報出力部62cは視野内を所定の分解能で縦横に区切って各方位毎の距離データを測定し、すべての距離データを集めて3次元形状に相当する距離データ1式を、距離情報d9として演算部70へ出力する。演算部70は距離情報d9を距離情報66bとして記憶部66に記憶する。
 演算部70は、ノード情報生成部72、マップマッチング部73、地図作成部74、代表距離算出部75、距離判定部76、及び通知情報生成部77を備えている。これらは、順に、図1に示した制御部20が備える、ノード情報生成部22、マップマッチング部23、地図作成部24、代表距離算出部25、距離判定部26、及び通知情報生成部27と同様の機能を有する。
 また、記憶部66には、距離情報66b、ノード情報66c、地図情報66d、距離列情報66e(右側距離列情報66e1・左側距離列情報66e2)、及び壁状態情報Wが記憶されている。これらは、順に、図1に示した、距離情報d、記憶部16に記憶された、ノード情報16c、地図情報16d、距離列情報16e(右側距離列情報16e1・左側距離列情報16e2)、及び壁状態情報Wと同様である。
 測定器60は、車輪がないためエンコーダ15(図1等参照)はなく、ノード情報生成部72は所定の時間間隔ごとにノードを生成し、スキャンマッチによりノード間位置関係を算出する。マップマッチング部73は3次元データ同士でマップマッチングを行う。
 〔ソフトウェアによる実現例〕
 ロボット10における制御部20の制御ブロック(特に代表距離算出部25、距離判定部26(壁状態情報制御部30A)、及び通知情報生成部27)および記憶部16は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
 後者の場合、ロボット10における制御部20は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係る地図作成装置(制御部20・LRF12)は、周囲の障害物との距離を検出する距離センサを有し、作業者(オペレータ3)により移動されることで周囲の環境に応じた地図を作成する地図作成装置(制御部20・LRF12)であって、移動に伴い上記距離センサ(LRF12)が測定した距離情報dから、周囲の環境に応じた地図を作成する地図作成部24と、上記距離情報dから、第1の方向(右側)における障害物(壁2)との距離である第1の距離(右代表距離)と、上記第1の方向(右側)とは異なる第2の方向(左側)における障害物(壁2)との距離である第2の距離(左代表距離)とを算出する距離算出部(代表距離算出部25)と、上記第1の距離(右代表距離)又は第2の距離(左代表距離)が所定の最長距離(上限値)以上であるか、または所定の最短距離(下限値)以下であるか、またはどちらでもないかを判定して、上記第1の方向(右側)及び第2の方向(左側)のうち移動すべき方向を判定する距離判定部26(壁状態情報制御部30A)と、上記移動すべき方向を作業者(オペレータ3)へ通知する情報である通知情報を生成する通知情報生成部27とを備えていることを特徴とする。
 上記構成によると、作業者(オペレータ3)が移動させることで地図作成部24が周囲の環境に応じた地図を作成しているときとき、センサ(LRF12)と障害物(壁2)との距離が、センサ(LRF12)の測定が不安定になる程度離れたとしても、上記距離判定部26(壁状態情報制御部30A)は移動すべき方向を判定し、上記通知情報生成部27は、上記移動すべき方向を作業者(オペレータ3)へ通知する情報である通知情報を生成する。このため、この通知情報に基づく方向を作業者(オペレータ3)へ通知することで、センサ(LRF12)が正確に測定できる方向へ移動させるように作業者(オペレータ3)を導くことができる。このため、正確に地図を作成させることができる。
 本発明の態様2に係る地図作成装置は、上記態様1において、上記通知情報生成部27は、上記作業者(オペレータ3)に取りうる対応方法を含む情報を上記通知情報として生成することが好ましい。これにより、作業者(オペレータ3)は、移動方向を変更するなど、取りうる対応方法を容易に把握することができるため、より正確に、作業者(オペレータ3)へ地図を作成させることができる。
 本発明の態様3に係る地図作成装置(制御部20A・LRF12A)は、上記態様1又は2において、上記距離センサ(LRF12A)はさらに周囲の障害物(壁2)からの反射信号の強度を検出して強度信号(強度情報s)として出力し、上記第1の方向(右側)における反射光の強度レベルである第1の強度レベルと、上記第2の方向(左側)における反射光の強度レベルである第2の強度レベルとを算出する強度レベル算出部28Aと、上記第1の距離(右代表距離)及び上記第2の距離(左代表距離)と、上記第1の強度レベル及び上記第2の強度レベルとから、上記第1の方向(右側)及び第2の方向(左側)のうち、移動すべき方向を特定する方向特定部(壁状態情報制御部30A)とを備え、上記通知情報生成部27は、上記通知情報として、上記移動すべき方向を作業者へ通知する情報を生成することが好ましい。
 上記構成によると、方向特定部(壁状態情報制御部30A)は、上記第1の距離(右代表距離)及び上記第2の距離(左代表距離)だけでなく、上記第1の強度レベルと上記第2の強度レベルとも含め、上記第1の方向(右側)及び第2の方向(左側)のうち、移動すべき方向を特定する。このため、より適切に、作業者へ、上記第1の方向(右側)及び第2の方向(左側)のうち移動させるべき方向を提示することができる。これにより、センサの能力をより広い範囲で使用することができるため、効率よく地図を作成することができる。
 本発明の態様4に係る地図作成装置は、上記態様1~3において、上記距離センサ(LRF12・12A)はレーザーレンジファインダであることが好ましい。
 本発明の態様5に係る自律走行体(ロボット10)は、上記態様1~4において、上記地図作成装置(制御部20・LRF12)を備えていることが好ましい。上記構成により、作業者に上記自律走行体を移動させることで地図を作成するに際し、正確な地図を作成させることができる。
 本発明の態様6に係る自律走行体システム(ロボットシステム1)は、上記態様5において、上記自律走行体(ロボット10)と、上記自律走行体(ロボット10)と通信可能な通信部41と、上記通知情報に基づいて、上記作業者(作業者)に音声として情報を出力する音声出力部43とを有する携帯端末(タブレット端末40)とを備えていることが好ましい。上記構成によると、作業者(オペレータ3)が持つ携帯端末(タブレット端末40)が有する上記音声出力部43は、上記通知情報に基づいて上記作業者(作業者)に音声として情報を出力するため、作業者(オペレータ3)は、正確に移動させるべき方向を知ることができる。これにより、確実に、作業者(オペレータ3)に正確な地図を作成させることができる。
 本発明の態様7に係る携帯端末(測定器60)は、上記態様1~4において、上記地図作成装置(演算部70・距離画像センサ62)と、上記通知情報に基づいて、上記作業者(オペレータ3)に音声として情報を出力する音声出力部63とを備えていることが好ましい。上記構成によると、作業者(オペレータ3)に正確に地図を作成させる携帯端末(測定器60)を得ることができる。
 本発明の態様8に係る地図作成方法は、移動に伴い変化する周囲の障害物(壁2)との距離を、作業者(オペレータ3)が移動させた距離センサ(LRF12)が測定した距離情報から、周囲の環境に応じた地図を作成する地図作成ステップと、上記距離情報から、第1の方向(右側)における障害物(壁2)との距離である第1の距離(右代表距離)と、上記第1の方向とは異なる第2の方向(左側)における障害物(壁2)との距離である第2の距離(左代表距離)とを算出する距離算出ステップと、上記第1の距離(右代表距離)又は第2の距離(右代表距離)が所定の最長距離(上限値)以上であるか、または最短距離(下限値)以下であるか、またはどちらでもないかを判定して、上記第1の方向(右側)及び第2の方向(左側)のうち、移動すべき方向を判定する距離判定ステップと、上記移動すべき方向を作業者(オペレータ3)へ通知する情報である通知情報を生成する通知情報生成ステップとを有する。上記構成によると、センサ(LRF12)が正確に測定できる方向へ移動させるように作業者(オペレータ3)を導くことができる。このため、正確に地図を作成させることができる。
 本発明の各態様に係る地図作成装置(制御部20・LRF12)は、コンピュータによって実現してもよく、この場合には、コンピュータを上記地図作成装置が備える各部(ソフトウェア要素)として動作させることにより上記地図作成装置をコンピュータにて実現させる地図作成装置の地図作成プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 本発明は、地図作成装置、自律走行体、自律走行体システム、携帯端末、地図作成方法、地図作成プログラム及びコンピュータ読み取り可能な記録媒体に利用することができる。
1・1A ロボットシステム(自律走行体システム)
3 オペレータ(作業者)
10・10A~10G ロボット(自律走行体)
11・41 通信部
12・12A LRF(距離センサ・地図作成装置)
12a レーザ光出力部
12b レーザ光受光部
12c 距離情報出力部
12d 強度情報出力部
12B 超音波センサ(センサ)
12C 距離画像センサ(センサ)
15 エンコーダ
16・16A 記憶部
16a 回転数情報
d 距離情報
16c ノード情報
16d 地図情報
16e1 右側距離列情報
16e2 左側距離列情報
16f 強度情報
16g1 右側強度列情報
16g2 左側強度列情報
20・20A 制御部(地図作成装置)
22 ノード情報生成部
23 マップマッチング部
24 地図作成部
25 代表距離算出部(距離算出部)
26 距離判定部
27・27A 通知情報生成部
28A 強度レベル算出部
29A 強度レベル判定部
30・30A 壁状態情報制御部(方向特定部)
40 タブレット端末(携帯端末)
42 入力表示部
43 音声出力部
51 表示灯
52 表示部
53 操作部
54 把持部
60 測定器(携帯端末)
61 入力表示部
62 距離画像センサ(距離センサ)
62c 距離情報出力部
63 音声出力部
66 記憶部
70 演算部

Claims (10)

  1.  周囲の障害物との距離を検出する距離センサを有し、作業者により移動されることで周囲の環境に応じた地図を作成する地図作成装置であって、
     移動に伴い上記距離センサが測定した距離情報から、周囲の環境に応じた地図を作成する地図作成部と、
     上記距離情報から、第1の方向における障害物との距離である第1の距離と、上記第1の方向とは異なる第2の方向における障害物との距離である第2の距離とを算出する距離算出部と、
     上記第1の距離又は第2の距離が所定の最長距離以上であるか、または所定の最短距離以下であるか、またはどちらでもないかを判定して、上記第1の方向及び第2の方向のうち移動すべき方向を判定する距離判定部と、
     上記移動すべき方向を作業者へ通知する情報である通知情報を生成する通知情報生成部とを備えていることを特徴とする地図作成装置。
  2.  上記通知情報生成部は、上記作業者に取りうる対応方法を含む情報を上記通知情報として生成することを特徴とする請求項1に記載の地図作成装置。
  3.  上記距離センサはさらに周囲の障害物からの反射信号の強度を検出して強度信号として出力し、
     上記第1の方向における反射信号の強度レベルである第1の強度レベルと、上記第2の方向における反射信号の強度レベルである第2の強度レベルとを算出する強度レベル算出部と、
     上記第1の距離及び上記第2の距離と、上記第1の強度レベル及び上記第2の強度レベルとから、上記第1の方向及び第2の方向のうち、移動すべき方向を特定する方向特定部とを備え、
     上記通知情報生成部は、上記通知情報として、上記移動すべき方向を作業者へ通知する情報を生成することを特徴とする請求項1又は2に記載の地図作成装置。
  4.  上記距離センサはレーザーレンジファインダであることを特徴とする請求項1~3の何れか1項に記載の地図作成装置。
  5.  請求項1~4の何れか1項に記載の地図作成装置を備えていることを特徴とする自律走行体。
  6.  請求項5に記載の自律走行体と、
     上記自律走行体と通信可能な通信部と、上記通知情報に基づいて、上記作業者に音声として情報を出力する音声出力部とを有する携帯端末とを備えることを特徴とする自律走行体システム。
  7.  請求項1~4の何れか1項に記載の地図作成装置と、
     上記通知情報に基づいて、上記作業者に音声として情報を出力する音声出力部とを備えていることを特徴とする携帯端末。
  8.  移動に伴い変化する周囲の障害物との距離を、作業者が移動させた距離センサが測定した距離情報から、周囲の環境に応じた地図を作成する地図作成ステップと、
     上記距離情報から、第1の方向における障害物との距離である第1の距離と、上記第1の方向とは異なる第2の方向における障害物との距離である第2の距離とを算出する距離算出ステップと、
     上記第1の距離又は第2の距離が所定の最長距離以上であるか、または最短距離以下であるか、またはどちらでもないかを判定して、上記第1の方向及び第2の方向のうち、移動すべき方向を判定する距離判定ステップと、上記移動すべき方向を作業者へ通知する情報である通知情報を生成する通知情報生成ステップとを有することを特徴とする地図作成方法。
  9.  請求項1に記載の地図作成装置としてコンピュータを機能させるための地図作成プログラムであって、上記地図作成部、上記距離算出部、上記距離判定部、上記通知情報生成部としてコンピュータを機能させるための地図作成プログラム。
  10.  請求項9に記載の地図作成プログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2016/059438 2015-03-30 2016-03-24 地図作成装置、自律走行体、自律走行体システム、携帯端末、地図作成方法、地図作成プログラム及びコンピュータ読み取り可能な記録媒体 WO2016158683A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015070257A JP2016191735A (ja) 2015-03-30 2015-03-30 地図作成装置、自律走行体、自律走行体システム、携帯端末、地図作成方法、地図作成プログラム及びコンピュータ読み取り可能な記録媒体
JP2015-070257 2015-03-30

Publications (1)

Publication Number Publication Date
WO2016158683A1 true WO2016158683A1 (ja) 2016-10-06

Family

ID=57006809

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/059438 WO2016158683A1 (ja) 2015-03-30 2016-03-24 地図作成装置、自律走行体、自律走行体システム、携帯端末、地図作成方法、地図作成プログラム及びコンピュータ読み取り可能な記録媒体

Country Status (2)

Country Link
JP (1) JP2016191735A (ja)
WO (1) WO2016158683A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220003569A1 (en) * 2018-11-30 2022-01-06 Sony Group Corporation Controller, control method, and program

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6751469B2 (ja) * 2017-03-28 2020-09-02 株式会社日立産機システム 地図作成システム
US10835096B2 (en) * 2018-08-30 2020-11-17 Irobot Corporation Map based training and interface for mobile robots
CN214231240U (zh) 2019-11-18 2021-09-21 北京石头世纪科技股份有限公司 一种清洁机器人

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310866A (ja) * 2006-05-16 2007-11-29 Samsung Electronics Co Ltd 絶対方位角を利用したロボット及びこれを利用したマップ作成方法
JP2009175932A (ja) * 2008-01-23 2009-08-06 Ihi Corp 移動ロボットの走行領域判別装置及び走行領域判別方法
JP2013242738A (ja) * 2012-05-22 2013-12-05 Sharp Corp ロボット装置、端末装置、ロボット装置の遠隔操作システム及びプログラム
JP2014219723A (ja) * 2013-05-01 2014-11-20 村田機械株式会社 自律移動体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4984650B2 (ja) * 2006-05-30 2012-07-25 トヨタ自動車株式会社 移動装置及び移動装置の自己位置推定方法
JP4413957B2 (ja) * 2007-08-24 2010-02-10 株式会社東芝 移動物体検出装置および自律移動物体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310866A (ja) * 2006-05-16 2007-11-29 Samsung Electronics Co Ltd 絶対方位角を利用したロボット及びこれを利用したマップ作成方法
JP2009175932A (ja) * 2008-01-23 2009-08-06 Ihi Corp 移動ロボットの走行領域判別装置及び走行領域判別方法
JP2013242738A (ja) * 2012-05-22 2013-12-05 Sharp Corp ロボット装置、端末装置、ロボット装置の遠隔操作システム及びプログラム
JP2014219723A (ja) * 2013-05-01 2014-11-20 村田機械株式会社 自律移動体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220003569A1 (en) * 2018-11-30 2022-01-06 Sony Group Corporation Controller, control method, and program
US11797023B2 (en) * 2018-11-30 2023-10-24 Sony Group Corporation Controller, control method, and program

Also Published As

Publication number Publication date
JP2016191735A (ja) 2016-11-10

Similar Documents

Publication Publication Date Title
JP7374547B2 (ja) 探測方法、装置、移動ロボット及び記憶媒体
JP6949107B2 (ja) 経路を自律走行するようにロボットを訓練するためのシステムおよび方法
US20240118700A1 (en) Mobile robot and control method of mobile robot
WO2021254367A1 (zh) 机器人系统及定位导航方法
EP3104194B1 (en) Robot positioning system
JP7159291B2 (ja) 自律移動ロボットの経路計画方法、自律移動ロボット及び記憶媒体
KR101372482B1 (ko) 이동 로봇의 경로 계획 방법 및 장치
CN114468898B (zh) 机器人语音控制方法、装置、机器人和介质
JP6867120B2 (ja) 地図作成方法及び地図作成装置
US20200088524A1 (en) Airport guide robot and operation method therefor
AU2019210565A1 (en) Moving robot, method for controlling moving robot, and moving robot system
WO2016031263A1 (ja) 自律移動体及び自律移動体システム
WO2016158683A1 (ja) 地図作成装置、自律走行体、自律走行体システム、携帯端末、地図作成方法、地図作成プログラム及びコンピュータ読み取り可能な記録媒体
US11852484B2 (en) Method for determining the orientation of a robot, orientation determination apparatus of a robot, and robot
JP5805841B1 (ja) 自律移動体及び自律移動体システム
CN104245244A (zh) 移动机器人上的接近度感测
JP2007310866A (ja) 絶対方位角を利用したロボット及びこれを利用したマップ作成方法
CN108628318B (zh) 拥堵环境检测方法、装置、机器人及存储介质
WO2019037668A1 (zh) 自移动机器人及其行走方法、显示障碍物分布的方法
TWI739255B (zh) 移動式機器人
CN111990930B (zh) 一种测距方法、装置、机器人和存储介质
JP2018185767A (ja) 環境整備ロボットおよびその制御プログラム
JP2018206004A (ja) 自律走行台車の走行制御装置、自律走行台車
Zaki et al. Microcontroller-based mobile robot positioning and obstacle avoidance
JP2007101492A (ja) 移動ロボットの距離および位置検出装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16772564

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16772564

Country of ref document: EP

Kind code of ref document: A1