WO2020129120A1 - 情報処理装置および移動ロボット - Google Patents

情報処理装置および移動ロボット Download PDF

Info

Publication number
WO2020129120A1
WO2020129120A1 PCT/JP2018/046320 JP2018046320W WO2020129120A1 WO 2020129120 A1 WO2020129120 A1 WO 2020129120A1 JP 2018046320 W JP2018046320 W JP 2018046320W WO 2020129120 A1 WO2020129120 A1 WO 2020129120A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
change
measurement value
moving
mobile robot
Prior art date
Application number
PCT/JP2018/046320
Other languages
English (en)
French (fr)
Inventor
智章 吉田
古田 貴之
秀彰 大和
清 入江
孝明 松澤
清水 正晴
Original Assignee
学校法人 千葉工業大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 学校法人 千葉工業大学 filed Critical 学校法人 千葉工業大学
Priority to PCT/JP2018/046320 priority Critical patent/WO2020129120A1/ja
Priority to EP18943392.3A priority patent/EP3901573A4/en
Priority to US17/299,870 priority patent/US20220083067A1/en
Priority to JP2020560652A priority patent/JP7221549B2/ja
Priority to CN201880099573.0A priority patent/CN113056651A/zh
Priority to TW108144918A priority patent/TW202024666A/zh
Publication of WO2020129120A1 publication Critical patent/WO2020129120A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • G01S17/875Combinations of systems using electromagnetic waves other than radio waves for determining attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders

Definitions

  • the present invention relates to an information processing device and a mobile robot.
  • a mobile robot that autonomously travels along a floor in a traveling environment is a distance sensor that measures a distance to an object such as a floor or an obstacle in order to detect an obstacle or a step existing in the traveling environment.
  • a distance measurement system using such a distance sensor has been proposed (for example, refer to Patent Document 1).
  • a distance measuring system (information processing device) described in Patent Document 1 measures a distance between a robot body (moving body) that can travel along a floor surface by driving wheels and an object in front of the robot body in a traveling direction. And a control device that controls the drive unit of the drive wheels based on the measurement result of the distance sensor.
  • the distance sensor has a first distance measuring sensor for a short distance and a second distance measuring sensor for a long distance. By integrating the distance data measured by each sensor, the measurement range in the front in the traveling direction is expanded. It has become so.
  • the pattern of the environmental change appearing in the measured value of the distance sensor is assumed and the pattern of the environmental change is calculated.
  • a method of presetting a digitized threshold value may be considered. Even if such a threshold is set, in order to increase the detection accuracy of environmental changes, there are a wide variety of patterns of environmental changes and the effects of moving speed, moving distance, posture changes, etc. of moving objects. Further improvement is desired.
  • An object of the present invention is to provide an information processing device and a mobile robot capable of improving the detection accuracy when detecting a change in the environment accompanying the movement of a mobile body.
  • An information processing apparatus of the present invention is an information processing apparatus that processes movement information of a moving body moving in an environment, and is a distance to different positions in the environment at predetermined time intervals with the movement of the moving body. And a plurality of sets of first measurement value groups are obtained, and the plurality of sets of first measurement value groups are processed to generate a plurality of sets of second measurement value groups for each moving distance of the moving body. It is characterized by further comprising a determination means for determining the change of the environment by comparing the plurality of sets of the second measurement value groups.
  • the determination means processes the plurality of sets of the first measurement value groups detected at each predetermined time interval to generate the plurality of sets of the second measurement value groups, and By determining the change in the environment by comparing the second measurement value groups for each moving distance, it is possible to reduce the influence of the moving speed of the moving body and improve the detection accuracy of the environmental change.
  • the determination means interpolates between the measurement values of the first set of measurement values of the plurality of groups based on the distance measurement value obtained by detecting the movement distance of the moving body, and resamples to a value for each movement distance. It is preferable to generate the plurality of sets of second measurement values.
  • the determination unit interpolates between the measurement values of the first measurement value group based on the distance measurement value obtained by detecting the movement distance of the moving body, and resamples to a value for each movement distance, By generating the two measurement value groups, it is possible to obtain the second measurement value group that appropriately reflects the position of the moving body that moves in the environment, and it is possible to further improve the detection accuracy of the environment change.
  • the determination means inputs the plurality of sets of second measurement value groups into the learning model based on a learning model in which a weighting coefficient is set in advance by learning, and obtains whether or not the environment has changed as an output. It is preferable.
  • the determination unit obtains the presence or absence of the environment change as an output based on the learning model in which the weighting coefficient is set in advance by learning, and therefore, the determination unit can cope with various environment change patterns. can do.
  • the second measurement value group has a higher affinity for the learning model than the first measurement value group affected by the moving speed of the moving body, and the determination means of the present invention uses the second measurement value for the learning model. Since a value group is input and the presence or absence of the environment change is obtained as an output, a better judgment result can be obtained as compared with the case where the first measurement value group is directly input to the learning model and the presence or absence of the environment is obtained as an output Obtainable.
  • the learning model an appropriate model such as a learning model using a neural network or a deep learning model can be adopted.
  • the learning model has a weighting factor set by executing learning for comparing the plurality of sets of second measurement value groups by the determining unit to determine a change in the environment. ..
  • the learning model has various weighting factors set by performing learning for determining a change in environment by comparing a plurality of sets of second measurement value groups by the determination unit. It is possible to deal with various environmental change patterns.
  • a mobile robot according to the present invention is a mobile robot according to any one of the above, a moving means for moving the moving body, and a first position detecting a distance to two different positions in the environment as different positions in the environment.
  • the second position is set to a position closer to the moving body than the first position detected by the first distance sensor along the moving direction of the moving body.
  • the mobile robot of the present invention similar to the above-described information processing apparatus, by comparing the second measurement value groups for each moving distance of the moving body to determine the change in the environment, It is possible to reduce the influence of the moving speed and the like and improve the detection accuracy of the environmental change.
  • the first distance sensor detects a distance to a front first position along the moving direction of the moving body, and a distance to a second position rearward from the first position is a second distance sensor. It is possible to reliably detect the environmental change that appears in front of the moving body by moving the moving body by detecting the first and second measurement value groups. Therefore, the mobile robot (moving body) can appropriately determine whether to avoid or get over an obstacle, a step, or the like when moving.
  • the control means obtains a change in distance between the first position and the second position detected by the first distance sensor and the second distance sensor.
  • a distance change comparison unit that compares changes in the distances to the first position and the second position acquired by the distance change acquisition unit, and based on the result of comparison by the distance change comparison unit. It is preferable that a distance change determination unit that determines a change in distance due to a change in posture of the moving body and a change in distance due to a change in the environment be provided.
  • the distance change determination unit changes the distance due to the change in the posture of the moving body (change in the same phase) and the change in distance caused by the change in the environment (obstacle, step, etc.). Since the control means (determination means) excludes the change in the distance caused by the change in the posture of the moving body, it is based on the change in the distance caused by the change in the environment. This makes it possible to accurately detect changes in the environment. Therefore, it is possible to improve the measurement accuracy by reducing the influence of the posture change of the moving body on the measurement values of the first measurement value group, and thereby to further improve the detection accuracy of the environmental change.
  • FIG. 9 is a conceptual diagram showing a measuring operation by the mobile robot whose speed is different from that in FIG. Graph showing a first measurement value group obtained by the measurement operation A graph showing a second measurement value group generated by processing the first measurement value group The figure which shows the procedure of comparing the said 2nd measured value group and judging the change of environment.
  • the top view which shows the modification of the said mobile robot.
  • FIG. 1 is a side view of a mobile robot according to an embodiment of the present invention
  • FIG. 2 is a plan view of the mobile robot
  • FIG. 3 is a block diagram of a mobile robot.
  • the mobile robot 1 includes, for example, a robot body 1A as a moving body that travels along a floor surface F that is a predetermined surface in a room (environment), and each part of the robot body 1A.
  • Control means 2 for driving and controlling to autonomously travel
  • detection means 3 for detecting an object around the robot body 1A and the posture of the robot body 1A
  • moving means 4 for moving the robot body 1A.
  • the control means 2 and the detection means 3 constitute an information processing device 5 which processes movement information of the mobile robot 1.
  • the control means 2 is provided with a computing means such as a CPU and a storage means such as a ROM and a RAM to control the operation of the robot body 1A. As shown in FIG. 3, the control means 2 drives and controls the moving means 4.
  • the determination unit 25 and the reliability evaluation unit 26, and a storage unit 27 for storing various programs and data are provided.
  • the detection unit 3 detects the first distance sensor 31 and the second distance sensor 32, which are front sensors provided in the front portion of the robot body 1A, and the direction in which the distance sensors 31 and 32 detect the distance.
  • a sensor direction changing unit 33 for changing and a posture detecting unit 34 for detecting the posture of the robot body 1A are provided.
  • a plurality of first distance sensors 31 and a plurality of second distance sensors 32 are provided at the front of the robot body 1A, respectively, for measuring the distance to the object in front of the robot body 1A.
  • a laser range finder that measures a distance by irradiating a laser beam such as an infrared laser.
  • the sensor direction changing unit 33 changes the irradiation direction of the laser light by rotating the first distance sensor 31 and the second distance sensor 32 in the vertical direction.
  • the posture detection unit 34 is composed of, for example, an acceleration sensor, and detects the inclination of the robot body 1A with respect to the horizontal plane.
  • the plurality of first distance sensors 31 detect the distance to the first position P1 on the floor surface F in front of the moving direction D1 of the robot body 1A, and the plurality of second distance sensors 31 are detected.
  • the sensor 32 detects the distance to the second position P2 on the floor surface F in front of the moving direction D1.
  • the plurality of first distance sensors 31 and the plurality of second distance sensors 32 are set to a plurality of first distance sensors 31 that are set along an intersecting direction D2 that intersects the moving direction D1 of the robot body 1A. The distances to the position P1 and the plurality of second positions P2 are detected.
  • the second position P2 is set closer to the robot body 1A than the first position P1 along the moving direction D1 of the robot body 1A, and the first position P1 and the second position P2 on the flat floor surface F.
  • the distance difference L from P2 is set to a predetermined value.
  • the second distance sensor 32 has a lower resolution than the first distance sensor 31, that is, the first distance sensor 31 is composed of a sensor having a high distance resolution (fine), and The distance sensor 32 is composed of a sensor whose resolution of distance is lower than that of the first distance sensor 31 (coarse).
  • the moving unit 4 includes a drive unit 41 having a motor and the like, four front, rear, left and right wheels 42, and a vehicle height adjustment unit 43 that adjusts the vehicle height of the robot body 1A by changing the height of the front wheels. ..
  • the drive unit 41 independently rotates and drives the wheels 42, which are the left and right rear wheels, to move the robot body 1A forward or backward, or change the direction.
  • the vehicle height adjusting unit 43 adjusts the vehicle height of the robot body 1A by vertically displacing the wheels 42, which are the left and right front wheels.
  • FIG. 4 is a diagram showing the operation of the mobile robot
  • FIG. 5 is a conceptual diagram showing measurement information by the mobile robot.
  • the first distance sensor 31 reaches the first position P1 on the floor surface F.
  • the second distance sensor 32 detects the distance to the second position P2 of the floor surface F.
  • the measurement data obtained by the first distance sensor 31 is transmitted to the distance change acquisition unit 23 of the control unit 2, and the distance change acquisition unit 23 acquires the change in the distance to the floor surface F and is shown in FIG.
  • the first change value S1 is stored in the storage unit 27 in time series based on the change in the distance.
  • the measurement data obtained by the second distance sensor 32 is transmitted to the distance change acquisition unit 23, and the distance change acquisition unit 23 acquires the change in the distance to the floor surface F and, as shown in FIG.
  • the second change value S2 is stored in the storage unit 27 in time series based on the change in distance. At this time, if the floor surface F is flat, there is no change in the change values S1 and S2 (that is, the change values S1 and S2 are zero), or only small values appear in the change values S1 and S2.
  • the first position P1 reaches the object M and the first distance sensor
  • the distance change acquisition unit 23 acquires the change in the distance closer to the floor surface F as shown in FIG. 5A, and the first change value S1a. Is stored in the storage unit 27.
  • the second position P2 reaches the object M and the second distance sensor 32 detects the distance to the object M as shown in FIG. As shown in B), the change in the distance closer to the floor surface F is acquired and stored in the storage unit 27 as the second change value S2a.
  • the first distance sensor 31 measures the distance to the floor surface F. Therefore, the first change value S1 is zero or a minute value again. It becomes a value. Further, as shown in FIG. 4D, when the second position P2 is in front of the object M, the second change value S2 becomes zero or a minute value again.
  • the distance change comparing section 24 of the control means 2 compares the first change value S1 and the second change value S2. ..
  • a difference value S3 that is a difference between the first change value S1 and the second change value S2 is calculated, and the difference value S3 is calculated.
  • the distance change determination unit 25 uses the difference value S3 between the first change value S1 and the second change value S2 compared by the distance change comparison unit 24 to determine the distance caused by the change in the posture of the mobile robot 1.
  • the first difference value S3a and the second difference value S3b are values that are equal to or greater than a predetermined threshold value
  • the generated time difference T1 is a time difference (phase difference) according to the speed of the mobile robot 1. If so, the distance change determination unit 25 determines that the change values S1a and S2a are changes in distance due to the shape of the floor F (that is, the object M).
  • the time difference according to the speed of the mobile robot 1 is a time difference obtained by dividing the distance difference L between the first position P1 and the second position P2 by the speed of the mobile robot 1.
  • FIG. 6 is a conceptual diagram showing measurement information due to a change in posture of the mobile robot.
  • the change value S1 of the distance to the floor F acquired by the distance change acquisition unit 23 is based on the distance to the first position P1 of the floor F detected by the first distance sensor 31. It is shown.
  • the change value S2 of the distance to the floor surface F acquired by the distance change acquisition unit 23 is based on the distance to the second position P2 of the floor surface F detected by the second distance sensor 32. It is shown.
  • the difference value S3 which is the difference between the first change value S1 and the second change value S2 calculated by the distance change comparing unit 24, is It becomes almost zero as shown in FIG.
  • the distance change determination unit 25 does not have a time difference (phase difference) in the generation timing of the change values S1b and S2b, and it is not caused by the shape of the floor surface F. Instead, it is determined that the distance is changed due to the change in the posture of the mobile robot 1.
  • the attitude detecting means 34 of the detecting means 3 detects a change in the attitude of the mobile robot 1. That is, when the robot main body 1A vibrates or shakes so as to lean back and forth and left and right with respect to the floor surface F due to fine irregularities on the floor surface F, seams of flooring and tiles, steps of carpets, etc.
  • the posture detection unit 34 detects a posture change such as a tilt, a shake, and the like, and transmits it to the detection control unit 22.
  • the reliability evaluation unit 26 of the control unit 2 detects the first change value S1 and the second change value S2 acquired by the distance change acquisition unit 23. Evaluate the reliability.
  • the distance change comparison unit 24 determines whether to compare the first change value S1 and the second change value S2 based on the evaluation result of the reliability evaluation unit 26. That is, when the reliability evaluation unit 26 evaluates that the change values S1 and S2 at that time are unreliable, the first change value S1 and the second change value by the distance change comparing unit 24 as described above. No comparison with the value S2 is performed.
  • FIG. 7 is a flowchart showing a processing procedure of the information processing device in the mobile robot.
  • the information processing device 5 processes the movement information of the mobile robot 1 by repeating steps ST1 to ST9 shown in FIG. 7 in a predetermined cycle (for example, a short time of about 0.1 seconds).
  • the detection control unit 22 causes the first distance sensor 31 to detect the distance to the first position P1 (first distance detection step: In step ST1), the second distance sensor 32 is caused to detect the distance to the second position P2 (second distance detecting step: step ST2). Further, the detection control unit 22 causes the posture detection unit 34 to detect the posture change of the robot body 1A (posture change detection step: step ST3).
  • the distance change acquisition unit 23 acquires a change in the distance to the floor surface F and a change value.
  • the distance change acquisition unit 23 determines a change in the traveling environment based on the acquired change values S1 and S2 by a determination method using a learning model described later (environmental change determination step: step ST5).
  • the reliability evaluation unit 26 evaluates the reliability of the change values S1 and S2 at that time (reliability evaluation step: step ST6). ..
  • step ST6 when it is determined that the change values S1 and S2 have no reliability (NO in step ST6), the control means 2 returns to the first distance detection step (step ST1), The above steps ST1 to ST6 are repeated.
  • step ST6 when it is determined that the change values S1 and S2 have reliability (YES in step ST6), the control means 2 executes the next step ST8. That is, the distance change comparison unit 24 calculates a difference value S3 that is the difference between the first change value S1 and the second change value S2 (distance change comparison step: step ST8).
  • the distance change determination unit 25 determines, based on the difference value S3, a change in distance caused by a change in the posture of the mobile robot 1 and a change in distance caused by the shape of the floor F (change in distance). Discrimination process: Step ST9), and then the process returns to the first distance detection process (Step ST1).
  • the environment change determination process of step ST5 is executed before the distance change determination process of step ST9, but it may be executed after the distance change determination process.
  • the environmental change determination step is performed only when the distance change determination unit 25 determines that the change in distance is caused by the shape of the floor F, not the change in distance caused by the change in the posture of the mobile robot 1. It may be executed.
  • the control unit 2 can travel with the floor surface F in front of the movement direction D1 of the robot body 1A being flat, or in the movement direction D1 front of the robot body 1A.
  • the robot main body 1A is caused to travel by the moving means 4 while always determining whether or not there are irregularities or obstacles (objects M) on the floor surface F.
  • an obstacle (object M) is present on the floor surface F in front of the moving direction D1 of the robot body 1A, the height of the object M from the floor surface F is also determined, so that the control means 2 can get over the object M. Or not.
  • control unit 2 causes the movement control unit 21 to drive and control the moving unit 4 so as to avoid the object M.
  • control unit 2 continues the drive control of the moving unit 4 by the movement control unit 21 to get over the object M.
  • FIG. 8 is a diagram showing a vehicle height adjusting operation of the mobile robot. As shown in FIG. 8A, when the vehicle height of the robot body 1A is increased by the vehicle height adjusting unit 43, the posture of the robot body 1A changes, so that the first distance sensor 31 and the second distance sensor 31 The direction of the distance sensor 32 changes.
  • the control unit 2 drives and controls the sensor direction changing unit 33 by the detection control unit 22 so that the first distance sensor 31 and the second distance sensor 32 are directed downward. change. Further, as shown in FIG. 8B, when the front wheels 42 ride on the object M and the posture of the robot body 1A further changes, the detection control unit 22 controls the sensor based on the detection by the posture detection unit 34.
  • the direction changing unit 33 changes the direction of the first distance sensor 31 and the second distance sensor 32 further downward.
  • FIGS. 9 and 10 are conceptual diagrams showing the measurement operation by the mobile robot
  • FIG. 10(A) shows the case where the moving speed of the mobile robot is faster than that of FIG. 9, and FIG. The case where the moving speed of the mobile robot is slower than the case of 9 is shown.
  • FIG. 11 is a graph showing a first measurement value group obtained by the measurement operation of the mobile robot
  • FIG. 12 is a graph showing a second measurement value group generated by processing the first measurement value group.
  • FIG. 13 is a diagram showing a procedure for comparing the second measurement value group and determining a change in the environment.
  • the control unit 2 of the information processing device 5 functions as a determination unit that determines a change in the traveling environment.
  • the first distance sensor 31 detects the distance to the first position P1 on the floor surface F in front of the moving direction D1 of the robot body 1A
  • the second distance sensor 32 detects the distance to the second position P2 on the floor surface F in front of the moving direction D1.
  • the detection of the distance by the first and second distance sensors 31 and 32 is performed substantially at the same time and continuously at predetermined time intervals (for example, 0.01 second intervals).
  • the distance to the first position P1 detected by the first distance sensor 31 and the distance to the second position P2 detected by the second distance sensor 32 are two sets of continuous sampling data ( Plural sets) are stored in the storage unit 27 as the first measurement value groups S11 and S12 (see FIG. 11).
  • FIG. 11A shows a first measurement value group S11 that is a measurement value of the distance to the first position P1 detected by the first distance sensor 31, and FIG. 11B shows the second distance.
  • the 1st measured value group S12 which is the measured value of the distance to the 2nd position P2 detected by the sensor 32 is shown.
  • the distance to the first position P1 shows a substantially constant value of around 150 mm until the measurement time is about 0.6 seconds, and is 0.6 After a lapse of seconds, it drops sharply, which means that the first position P1 has reached the object M.
  • FIG. 11A shows a substantially constant value of around 150 mm until the measurement time is about 0.6 seconds, and is 0.6 After a lapse of seconds, it drops sharply, which means that the first position P1 has reached the object M.
  • the distance to the second position P2 shows a substantially constant value of around 65 to 70 mm until the measurement time is about 0.7 seconds, and 0 After 7 seconds, it drops sharply, which indicates that the second position P2 has reached the object M.
  • the control means 2 processes the two sets of the first measurement value groups S11 and S12 obtained at each predetermined time interval as described above, and two sets for each moving distance of the mobile robot 1 (for example, for every 10 mm interval).
  • the second measurement value groups S21 and S22 of are generated. Specifically, the measured values for a predetermined time (for example, the range indicated by A in FIG. 11) are extracted from the past first measured value groups S11 and S12 stored in the storage unit 27, and the extracted first measured value group S11. , S12 are converted into measured values per moving distance of the mobile robot 1 to generate two sets of second measured value groups S21, S22 as shown in FIG.
  • the range of the past predetermined time for extracting the first measurement value groups S11 and S12 is, for example, a range in which the moving distance of the mobile robot 1 is 150 mm at that time.
  • the solid line is the second measurement value group S21 generated from the measurement values of the distance to the first position P1
  • the broken line is the second measurement value group generated from the measurement values of the distance to the second position P2. It is S22.
  • the control unit 2 detects the movement distance from the rotation speed of the wheels 42 of the mobile robot 1 and the like, and the first measurement is performed based on the distance measurement value.
  • the value groups S11 and S12 are interpolated to generate the second measured value groups S21 and S22.
  • the movement distance is applied to the time at which each measurement value of the first measurement value group S11, S12 is measured, the measurement values are linearly interpolated to correspond to the movement distance, and the measurement is performed for each movement distance.
  • the second measurement value groups S21 and S22 are generated by resampling the values.
  • the control means 2 After generating the two sets of second measurement value groups S21 and S22 for each moving distance of the mobile robot 1 as described above, the control means 2 uses these two sets of second measurement value groups S21 and S22 as input values, The learning model is used to determine whether or not the traveling environment has changed. Specifically, as shown in FIG. 13, the control means 2 has two sets of second measurement value groups S21 and S22 as inputs 1 and 2, and has a convolutional layer, a pooling layer, and a coupling layer, and has a running environment. The presence/absence of a change in the running environment is determined using a neural network that outputs the presence/absence of a change.
  • the two sets of the second measurement value groups S21 and S22 that have been input are subjected to convolution processing by a filter having a predetermined weighting coefficient in the convolution layer, and each feature is extracted and the amount of data is reduced before pooling. Output to layer. Further, in the pooling layer, the two sets of second measurement value groups S21 and S22 are reduced by a filter having a predetermined weighting coefficient while maintaining their respective characteristics, and then output to the coupling layer. In the coupling layer, the features of the second measurement value groups S21 and S22 output from the pooling layer are superimposed and compared, and the comparison result is output.
  • the learning model determines whether or not the traveling environment has changed based on the comparison result. As the learning model, a deep learning model having a plurality of intermediate layers including a convolutional layer, a pooling layer, and a connection layer may be adopted, or another appropriate learning model may be used.
  • the weighting factors used in each layer are set by prior learning.
  • This learning is executed in an environment with environmental changes such as steps, unevenness, and obstacles, and is output by inputting the second measurement value groups S21 and S22 generated as described above into the learning model.
  • the presence/absence) is obtained, and the step of teaching whether or not the obtained output is suitable for the actual change in the environment is repeatedly executed.
  • the learning model changes the weight coefficient by itself by performing input and output and teaching the output, and the learning is repeated until an appropriate weight coefficient is obtained.
  • the weighting coefficient obtained as a result of such repeated learning is stored in the storage unit 27 as a practical value and used for actual operation of the mobile robot 1.
  • the control means 2 which is the determination means of the mobile robot 1 processes the two sets of the first measurement value groups S11 and S12 detected at every predetermined time interval to process the two sets of the second measurement value groups S21 and S22. Are generated, and the generated second measured value groups S21 and S22 for each moving distance of the mobile robot 1 are compared to determine the change in the environment (steps and irregularities on the floor surface F, presence/absence of an obstacle M, etc.). By making the determination, it is possible to reduce the influence of the moving speed of the mobile robot 1 or the like and improve the detection accuracy of the environmental change.
  • the control means 2 which is a determination means, interpolates between the measurement values of the first measurement value groups S11 and S12 based on the distance measurement values detected from the rotation speed of the wheels 42 of the mobile robot 1 and the like for each movement distance.
  • the second measurement value group S21, S22 that appropriately reflects the position of the mobile robot 1 moving in the environment can be obtained by re-sampling to the value of 2 to generate the second measurement value group S21, S22, It is possible to further improve the detection accuracy of environmental changes.
  • the control means 2 as the determination means obtains the presence or absence of the environment change as an output based on the learning model in which the weighting coefficient is set in advance by learning, it is possible to cope with various patterns of environment change.
  • the second measurement value groups S21, S22 have a higher affinity for the learning model than the first measurement value groups S11, S12 affected by the moving speed of the mobile robot 1, etc., and the control means 2 performs learning. Since the second measurement value group S21, S22 is input to the model and the presence or absence of the environment change is obtained as the output, the first measurement value group S11, S12 is directly input to the learning model and the presence or absence of the environment change is output. A good judgment result can be obtained as compared with the case where it is obtained.
  • the control means 2 of the mobile robot 1 uses the distance change determination unit 25 to change the distance (change in phase) due to the posture change of the robot body 1A and the distance due to the shape of the floor surface F in the environment. Change (change having a phase difference) is excluded, and the change in distance due to the posture change of the robot body 1A is excluded, while the unevenness and obstacles are caused by the change in distance due to the shape of the floor surface F. Objects such as objects can be accurately detected. Therefore, it is possible to reduce the influence of the posture change of the robot body 1A on the distance measurement, and to improve the measurement accuracy of the distance to the target object such as the unevenness or the obstacle existing on the floor surface F.
  • the first distance sensor 31 and the second distance sensor 32 are distances to the plurality of first positions P1 and second positions P2 along the intersecting direction D2 intersecting the moving direction D1 of the robot body 1A. By detecting, it is possible to detect a change in the distance due to the shape of the floor surface F within a width corresponding to the robot body 1A.
  • the second distance sensor 32 has a resolution lower than that of the first distance sensor 31, so that the second distance sensor 32 is located closer to the robot body 1A than the first position P1 along the moving direction D1.
  • the distance change determination unit 25 can easily determine the distance change caused by the posture change of the robot body 1A and the distance change caused by the shape of the floor surface F.
  • the distance change comparison unit 24 compares the change in distance to the first position P1 and the second position P2 acquired by the distance change acquisition unit 23 based on the evaluation result of the reliability evaluation unit 26. Since it is determined whether or not to perform the change, it is possible not to compare the change in the distance to the first position P1 and the second position P2 with low reliability, and it is possible to reduce the calculation cost.
  • the control unit 2 changes the direction of the first distance sensor 31 and the second distance sensor 32 by the sensor direction changing unit 33 based on the change in the posture of the robot body 1A detected by the posture detecting unit 34, and the floor
  • the sensor direction changing unit 33 changes the direction of the first distance sensor 31 and the second distance sensor 32 by the sensor direction changing unit 33 based on the change in the posture of the robot body 1A detected by the posture detecting unit 34, and the floor
  • the mobile robot 1 is not specifically exemplified, but the mobile robot may be a service robot, a home robot, or the like, and more specifically, a cleaning robot, a security robot, or a transportation robot. Examples include robots and guide robots.
  • the moving range of the moving body is not limited to the two-dimensional plane space but may be a three-dimensional space, and in that case, the moving body may be a flying body such as a drone.
  • the predetermined surface in the environment is not limited to a horizontal surface such as the floor surface F, but may be a flat surface such as a vertical surface or an inclined surface, or an appropriate curved surface.
  • control means 2 and the detection means 3 that constitute the information processing device 5 are provided in the robot body 1A that is a moving body, but all or part of the control means 2 is not the robot body 1A, It may be provided in another device capable of communicating with the robot body 1A, and the whole or part of the function of the control means 2 may be configured by the other device.
  • the information processing apparatus of the present invention can also be used for processing movement information of moving bodies such as self-driving automobiles, work vehicles, and flying bodies.
  • the moving body is not limited to the one having the moving means 4 like the mobile robot 1, but may be a dolly moved by another device or a person.
  • control unit 2 which is the determination unit determines the change of the environment by the learning model, but the threshold value that digitizes the pattern of the environmental change may be set in advance without using the learning model.
  • the control unit 2 interpolates between the measurement values of the first measurement value groups S11 and S12 based on the distance measurement values detected from the rotation speed of the wheels 42 of the mobile robot 1 and the value for each movement distance.
  • the second measurement value groups S21 and S22 are generated by resampling into a plurality of sets, it is possible to process a plurality of sets of the first measurement value groups and generate a plurality of sets of the second measurement value groups for each moving distance of the moving body. If possible, a method different from this embodiment may be adopted.
  • the distance change comparison unit 24 determines that the distance changes are not compared when the reliability is low. However, even if the distance change comparison unit 24 is configured to compare all distance changes regardless of the reliability. Good. Further, in the above-described embodiment, the attitude detection unit 34 detects the attitude change of the robot body 1A, and the sensor direction changing unit 33 changes the directions of the first distance sensor 31 and the second distance sensor 32.
  • the means 34 and the sensor direction changing unit 33 are not essential for the present invention and can be omitted as appropriate.
  • the first distance sensor 31 and the second distance sensor 32 are laser rangefinders that measure the distance by irradiating laser light, but the distance sensor is not limited to the laser rangefinder, It may be an optical sensor such as an infrared sensor or LIDAR (Light Detection and Ranging or Laser Imaging and Detection and Ranging), an ultrasonic sensor, or an image sensor having a camera and an image sensor.
  • the acceleration sensor is illustrated as the attitude detection unit 34, but the present invention is not limited to this, and a gyro sensor may be used.
  • the posture detecting means 34 changes the posture of the robot body 1A such as vibration, tilt, and shake in a minute manner, and changes in the vehicle height by the vehicle height adjusting unit 43 and when the robot body 1A is mounted on the object M is large.
  • the first posture detecting means for detecting a fine posture change and the second posture detecting means for detecting a large posture change are constituted by different sensors. May be.
  • FIG. 14 is a plan view showing a modified example of the mobile robot. As shown in FIG. 14_, each of the first distance sensor 31 and the second distance sensor 32 is provided at the center of the front part of the robot body 1A, and is provided so as to be rotatable left and right. It is configured to detect distances to the plurality of first positions P1 and second positions P2 along the intersecting direction D2.
  • the first distance sensor 31 and the second distance sensor 32 are configured as separate sensors, but the present invention is not limited to this, and a configuration as shown in FIG. 15 can be adopted.
  • FIG. 15 is a side view showing another modification of the mobile robot.
  • the first distance sensor 31 and the second distance sensor 32 are configured by a single sensor, and the first position sensor 31 and the second position sensor 32 are arranged at the first position according to the detection range of the distance sensors 31 and 32 in the vertical direction.
  • the P1 and the second position P2 are configured to be distinguished from each other.
  • the single distance sensor 31, 32 is rotated up and down by the sensor direction changing unit 33, so that the detection distance from the robot body 1A is changed, whereby the first position P1 and the second position P2 are changed.
  • the distance may be detected.
  • the second distance sensor 32 is not limited to one having a lower resolution than the first distance sensor 31, but may be one in which the first distance sensor 31 and the second distance sensor 32 have the same resolution. Alternatively, the second distance sensor 32 may have a higher resolution than the first distance sensor 31.
  • the present invention can be suitably used for an information processing device and a mobile robot that can reduce the influence of a posture change of a moving body and improve the measurement accuracy of the distance to an object.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Optics & Photonics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】移動体の移動に伴って環境変化を検知する際の検知精度を向上させることができる情報処理装置および移動ロボットを提供。 【解決手段】移動ロボット1は、ロボット本体1Aの各部を駆動制御するための制御手段2と、ロボット本体1Aの周辺の対象物を検出するための検出手段3と、ロボット本体1Aを移動させるための移動手段4と、を備える。制御手段2は、移動ロボット1の移動に伴い所定の時間間隔ごとに環境内の異なる位置P1,P2までの距離を検出した二組の第1測定値群S11,S12を得るとともに、第1測定値群を加工して移動ロボット1の移動距離ごとの二組の第2測定値群S21,S22を生成し、生成した第2測定値群S21,S22同士を比較することにより環境の変化を判定する。

Description

情報処理装置および移動ロボット
 本発明は、情報処理装置および移動ロボットに関する。
 従来、サービスロボットやホームロボットなどの自律走行可能な移動ロボットであって、具体的には、掃除ロボットや警備ロボット、運搬ロボット、案内ロボット、介護ロボット、農業ロボットなど、各種の移動ロボットが実用化されている。例えば、走行環境における床面に沿って自律走行する移動ロボットは、走行環境に存在する障害物や段差等を検知するために、床面や障害物等の対象物との距離を測定する距離センサを備えていることが一般的であり、そのような距離センサを用いた距離計測システムが提案されている(例えば、特許文献1参照)。
 特許文献1に記載された距離計測システム(情報処理装置)は、駆動輪により床面に沿って走行可能なロボット本体(移動体)と、ロボット本体の走行方向前方の対象物までの距離を測定する距離センサ(測距センサ)と、距離センサの測定結果に基づいて駆動輪の駆動部を制御する制御装置と、を備えている。距離センサは、近距離用の第1測距センサと遠距離用の第2測距センサとを有し、各センサで測定した距離データを統合することで、走行方向前方の測定範囲が拡大されるようになっている。
特開2014-21625号公報
 ところで、距離センサによって対象物までの距離を測定して障害物や段差等の環境の変化を検知するためには、距離センサの測定値に現れる環境変化のパターンを想定し、環境変化のパターンを数値化した閾値を予め設定しておく手法が考えられる。そのような閾値を設定しておいたとしても、環境変化のパターンが多岐に渡るとともに、移動体の移動速度や移動距離、姿勢変化等による影響を受けることから、環境変化の検知精度を高めるためにはさらなる改良が望まれている。
 本発明は、移動体の移動に伴って環境変化を検知する際の検知精度を向上させることができる情報処理装置および移動ロボットを提供することを目的とする。
 本発明の情報処理装置は、環境内を移動する移動体の移動情報を処理する情報処理装置であって、前記移動体の移動に伴い所定の時間間隔ごとに前記環境内の異なる位置までの距離を検出した複数組の第1測定値群を得るとともに、前記複数組の第1測定値群を加工して前記移動体の移動距離ごとの複数組の第2測定値群を生成し、生成した前記複数組の第2測定値群同士を比較することにより前記環境の変化を判定する判定手段を備えることを特徴とする。
 このような本発明によれば、判定手段は、所定の時間間隔ごとに検出した複数組の第1測定値群を加工して複数組の第2測定値群を生成し、生成した移動体の移動距離ごとの第2測定値群同士を比較して環境の変化を判定することで、移動体の移動速度等による影響を低減し、環境変化の検知精度を向上させることができる。
 本発明では、前記判定手段は、前記移動体の移動距離を検出した距離測定値に基づき、前記複数組の第1測定値群の測定値間を補間するとともに移動距離ごとの値にリサンプリングして前記複数組の第2測定値群を生成することが好ましい。
 ここで、第1測定値群は、所定の時間間隔ごとに検出されたサンプリング値であるため、検出中に移動体の速度が変動すると第1測定値群の各測定値に対応した検出位置の間隔にばらつきが生じることになる。
 このような構成によれば、判定手段は、移動体の移動距離を検出した距離測定値に基づいて第1測定値群の測定値間を補間するとともに移動距離ごとの値にリサンプリングして第2測定値群を生成することで、環境内を移動する移動体の位置を適切に反映した第2測定値群を得ることができ、環境変化の検知精度をさらに向上させることができる。
 本発明では、前記判定手段は、予め学習により重み係数が設定された学習モデルに基づき、前記複数組の第2測定値群を前記学習モデルに入力して前記環境の変化の有無を出力として得ることが好ましい。
 ここで、移動体が走行しつつ検出するサンプリング値である第1測定値群に基づいて環境の変化を判定するという本発明の判定手法においては、移動体の走行条件の変化や障害物等の移動など、測定条件が様々に変化することが予測されることから、環境変化のパターンを数値化した閾値を予め設定しておくことは困難である。
 これに対して、このような構成によれば、判定手段は、予め学習により重み係数が設定された学習モデルに基づいて環境の変化の有無を出力として得るので、様々な環境変化のパターンに対応することができる。
 また、第2測定値群は、移動体の移動速度等による影響を受けた第1測定値群と比較して学習モデルに対する親和性が高く、本発明の判定手段は、学習モデルに第2測定値群を入力して環境の変化の有無を出力として得るので、学習モデルに第1測定値群を直に入力して環境の変化の有無を出力として得る場合と比較して良好な判定結果を得ることができる。この際、学習モデルとしては、ニューラルネットワークを用いた学習モデルや、深層学習モデルなど、適宜なものを採用可能である。
 本発明では、前記学習モデルは、前記判定手段により前記複数組の第2測定値群同士を比較して前記環境の変化を判定する学習を実行することで重み係数が設定されていることが好ましい。
 このような構成によれば、学習モデルは、判定手段により複数組の第2測定値群同士を比較して環境の変化を判定する学習を実行することで重み係数が設定されているので、様々な環境変化のパターンに対応することができる。
 本発明の移動ロボットは、前記いずれかにの情報処理装置と、前記移動体を移動させる移動手段と、前記環境内の異なる位置として前記環境内の異なる二位置までの距離を検出する第1の距離センサおよび第2の距離センサと、前記第1の距離センサおよび前記第2の距離センサを制御するとともに前記判定手段として機能する制御手段と、を備え、前記第2の距離センサにより検出する第2の位置は、前記移動体の移動方向に沿って前記第1の距離センサにより検出する第1の位置よりも前記移動体に近い位置に設定されることを特徴とする。
 このような本発明の移動ロボットによれば、前述の情報処理装置と同様に、移動体の移動距離ごとの第2測定値群同士を比較して環境の変化を判定することで、移動体の移動速度等による影響を低減し、環境変化の検知精度を向上させることができる。また、移動体の移動方向に沿った前方の第1の位置までの距離を第1の距離センサで検出し、第1の位置よりも後方の第2の位置までの距離を第2の距離センサとで検出し、これにより二組の第1測定値群を得ることで、移動体の移動に伴って前方に出現する環境変化を確実に検出することができる。したがって、移動ロボット(移動体)は、移動する際に障害物や段差等を回避したり乗り越えたりの判断を適切に行うことができる。
 本発明では、前記制御手段は、前記第1の距離センサおよび前記第2の距離センサにて検出された前記第1の位置および前記第2の位置までの距離の変化を取得する距離変化取得部と、前記距離変化取得部にて取得された前記第1の位置および前記第2の位置までの距離の変化を比較する距離変化比較部と、前記距離変化比較部にて比較された結果に基づいて、前記移動体の姿勢の変化に起因する距離の変化と、前記環境の変化に起因する距離の変化とを判別する距離変化判別部と、を備えることが好ましい。
 このような構成によれば、距離変化判別部は、移動体の姿勢の変化に起因する距離の変化(同位相の変化)と、環境の変化(障害物や段差等)に起因する距離の変化(位相差を有する変化)とを判別するので、制御手段(判定手段)は、移動体の姿勢の変化に起因する距離の変化を除外しつつ、環境の変化に起因する距離の変化に基づくことにより、環境の変化を正確に検出することができる。したがって、移動体の姿勢変化が第1測定値群の測定値に与える影響を低減して測定精度を向上させることができ、これにより環境変化の検知精度をより一層向上させることができる。
本発明の一実施形態に係る移動ロボットの側面図 前記移動ロボットの平面図 前記移動ロボットのブロック図 前記移動ロボットの動作を示す図 前記移動ロボットによる測定情報を示す概念図 前記移動ロボットの姿勢変化による測定情報を示す概念図 前記移動ロボットにおける情報処理装置の処理手順を示すフローチャート 前記移動ロボットの車高調整動作を示す図 前記移動ロボットによる測定動作を示す概念図 図9と速度が異なる前記移動ロボットによる測定動作を示す概念図 前記測定動作により得られる第1測定値群を示すグラフ 前記第1測定値群を加工して生成した第2測定値群を示すグラフ 前記第2測定値群を比較して環境の変化を判定する手順を示す図 前記移動ロボットの変形例を示す平面図 前記移動ロボットの他の変形例を示す側面図
 以下、本発明の一実施形態を図1~図13に基づいて説明する。
 図1は、本発明の一実施形態に係る移動ロボットの側面図であり、図2は、移動ロボットの平面図である。図3は、移動ロボットのブロック図である。図1~3に示すように、移動ロボット1は、例えば、部屋(環境)内の所定の面である床面Fに沿って走行する移動体としてのロボット本体1Aと、ロボット本体1Aの各部を駆動制御して自律走行させるための制御手段2と、ロボット本体1Aの周辺の対象物やロボット本体1Aの姿勢を検出するための検出手段3と、ロボット本体1Aを移動させるための移動手段4と、を備える。また、図3に示すように、制御手段2と検出手段3とによって、移動ロボット1の移動情報を処理する情報処理装置5が構成されている。
 制御手段2は、CPU等の演算手段やROM、RAM等の記憶手段を備えてロボット本体1Aの動作を制御するものであって、図3に示すように、移動手段4を駆動制御するための移動制御部21と、検出手段3を駆動制御するための検出制御部22と、後述するように移動ロボット1の移動情報を処理するための距離変化取得部23、距離変化比較部24、距離変化判別部25および信頼度評価部26と、各種のプログラムやデータを記憶するための記憶部27と、を備える。
 検出手段3は、例えば、ロボット本体1Aの前部に設けられた前方センサである第1の距離センサ31および第2の距離センサ32と、これらの距離センサ31,32が距離を検出する方向を変更するセンサ方向変更部33と、ロボット本体1Aの姿勢を検出するための姿勢検出手段34と、を備える。第1の距離センサ31および第2の距離センサ32は、ロボット本体1Aの前部にそれぞれ複数ずつ設けられ、ロボット本体1Aの前方の対象物までの距離を測定するためのものであって、例えば、赤外線レーザー等のレーザー光を照射して距離を測定するレーザー距離計で構成されている。センサ方向変更部33は、第1の距離センサ31および第2の距離センサ32を上下方向に回動させることでレーザー光の照射方向を変更する。姿勢検出手段34は、例えば、加速度センサで構成され、ロボット本体1Aの水平面に対する傾きなどを検出する。
 図1、2に示すように、複数の第1の距離センサ31は、ロボット本体1Aの移動方向D1前方の床面Fにおける第1の位置P1までの距離を検出し、複数の第2の距離センサ32は、移動方向D1前方の床面Fにおける第2の位置P2までの距離を検出する。また、複数の第1の距離センサ31および第2の距離センサ32は、図2に示すように、ロボット本体1Aの移動方向D1と交差する交差方向D2に沿って設定された複数の第1の位置P1および複数の第2の位置P2までの距離を検出する。第2の位置P2は、ロボット本体1Aの移動方向D1に沿って第1の位置P1よりもロボット本体1Aに近い位置に設定され、平坦な床面Fにおいて第1の位置P1と第2の位置P2との距離差Lは所定値に設定されている。第2の距離センサ32は、第1の距離センサ31よりも低い分解能を有しており、すなわち、第1の距離センサ31は、距離の分解能が高い(細かい)センサで構成され、第2の距離センサ32は、距離の分解能が第1の距離センサ31よりも低い(粗い)センサで構成されている。
 移動手段4は、モータなどを有する駆動部41と、前後左右の四輪の車輪42と、前輪の高さを変更してロボット本体1Aの車高を調整する車高調整部43と、を備える。駆動部41は、左右の後輪である車輪42を各々独立して回転駆動することで、ロボット本体1Aを前進または後進させたり方向転換させたりする。車高調整部43は、左右の前輪である車輪42を上下方向に変位させることで、ロボット本体1Aの車高を調整する。
 図4は、移動ロボットの動作を示す図であり、図5は、移動ロボットによる測定情報を示す概念図である。図4(A)に示すように、移動ロボット1が床面Fに沿って移動方向D1前方に向かって走行しているとき、第1の距離センサ31が床面Fの第1の位置P1までの距離を検出し、第2の距離センサ32が床面Fの第2の位置P2までの距離を検出する。第1の距離センサ31による測定データは、制御手段2の距離変化取得部23に送信され、距離変化取得部23は、床面Fまでの距離の変化を取得し、図5(A)に示すように、その距離の変化に基づき第1の変化値S1を時系列に記憶部27に記憶する。第2の距離センサ32による測定データは、距離変化取得部23に送信され、距離変化取得部23は、床面Fまでの距離の変化を取得し、図5(B)に示すように、その距離の変化に基づき第2の変化値S2を時系列に記憶部27に記憶する。このとき、床面Fが平坦であれば、変化値S1,S2にも変化がない(すなわち、変化値S1,S2がゼロ)か、変化値S1,S2には微小な値しか表れない。
 次に、図4(B)に示すように、移動ロボット1の移動方向D1前方の床面Fに物体Mが存在する場合、第1の位置P1が物体Mに到達し、第1の距離センサ31が物体Mまでの距離を検出すると、距離変化取得部23は、図5(A)に示すように、床面Fまでよりも近くなった距離の変化を取得し、第1の変化値S1aとして記憶部27に記憶する。さらに、図4(C)に示すように、第2の位置P2が物体Mに到達し、第2の距離センサ32が物体Mまでの距離を検出すると、距離変化取得部23は、図5(B)に示すように、床面Fまでよりも近くなった距離の変化を取得し、第2の変化値S2aとして記憶部27に記憶する。この際、第1の位置P1が物体Mよりも前方になれば、第1の距離センサ31によって床面Fまでの距離が測定されることから、再び第1の変化値S1はゼロか微小な値となる。さらに、図4(D)に示すように、第2の位置P2が物体Mよりも前方になれば、再び第2の変化値S2はゼロか微小な値となる。
 このようにして第1の変化値S1および第2の変化値S2が得られると、制御手段2の距離変化比較部24は、第1の変化値S1と第2の変化値S2とを比較する。距離変化比較部24による比較方法としては、例えば、図5(C)に示すように、第1の変化値S1と第2の変化値S2との差分をとった差分値S3を算出し、その差分値S3に残る第1の差分値S3aと第2の差分値S3bとの時間差T1を算出する。距離変化判別部25は、距離変化比較部24にて比較された第1の変化値S1と第2の変化値S2との差分値S3に基づいて、移動ロボット1の姿勢の変化に起因する距離の変化(同位相の変化)と、床面Fの形状に起因する距離の変化(位相差を有する変化)とを判別する。具体的には、第1の差分値S3aと第2の差分値S3bとが所定の閾値以上となる値であって、その発生する時間差T1が移動ロボット1の速度に応じた時間差(位相差)であれば、距離変化判別部25は、変化値S1a,S2aを床面Fの形状(すなわち、物体M)に起因する距離の変化であると判別する。ここで、移動ロボット1の速度に応じた時間差とは、第1の位置P1と第2の位置P2との距離差Lを移動ロボット1の速度で除して求まる時間差である。
 一方、移動ロボット1の姿勢の変化に起因する距離の変化としては、図6に示す場合が例示できる。図6は、移動ロボットの姿勢変化による測定情報を示す概念図である。図6(A)には、第1の距離センサ31が検出した床面Fの第1の位置P1までの距離に基づき、距離変化取得部23が取得した床面Fまでの距離の変化値S1が示されている。図6(B)には、第2の距離センサ32が検出した床面Fの第2の位置P2までの距離に基づき、距離変化取得部23が取得した床面Fまでの距離の変化値S2が示されている。ここで、変化値S1b,S2bの発生タイミングがほぼ同時である場合、距離変化比較部24によって算出される第1の変化値S1と第2の変化値S2との差分である差分値S3は、図6(C)に示すようにほぼゼロとなる。このように差分値S3がほぼゼロである場合、距離変化判別部25は、変化値S1b,S2bの発生タイミングに時間差(位相差)がないものであり、床面Fの形状に起因するものではなく移動ロボット1の姿勢の変化に起因する距離の変化であると判別する。
 また、検出手段3の姿勢検出手段34は、移動ロボット1の姿勢の変化を検出する。すなわち、車輪42が床面Fにある細かい凹凸、フローリングやタイルの継ぎ目、カーペットの段差などにより、ロボット本体1Aが振動したり床面Fに対して前後左右に傾くように揺れたりすると、その振動や傾き、揺れなどの姿勢変化を姿勢検出手段34が検出して検出制御部22に送信する。このようにロボット本体1Aの姿勢変化が検出されると、制御手段2の信頼度評価部26は、距離変化取得部23にて取得された第1の変化値S1および第2の変化値S2の信頼度を評価する。さらに、距離変化比較部24は、信頼度評価部26の評価結果に基づいて、第1の変化値S1および第2の変化値S2を比較するか否かを決定する。すなわち、そのときの変化値S1,S2が信頼できないものであると信頼度評価部26が評価した場合には、前述したような距離変化比較部24による第1の変化値S1と第2の変化値S2との比較を実行しない。
 以上のような情報処理装置5(制御手段2および検出手段3)による移動ロボット1の移動情報を処理する手順について、図7も参照して説明する。図7は、移動ロボットにおける情報処理装置の処理手順を示すフローチャートである。情報処理装置5は、図7に示すステップST1~ST9を所定周期(例えば、0.1秒程度の短時間)で繰り返すことで移動ロボット1の移動情報を処理する。
 移動ロボット1の移動中に制御手段2が移動情報処理を開始すると、検出制御部22は、第1の距離センサ31に第1の位置P1までの距離を検出させるとともに(第1距離検出工程:ステップST1)、第2の距離センサ32に第2の位置P2までの距離を検出させる(第2距離検出工程:ステップST2)。また、検出制御部22は、姿勢検出手段34にロボット本体1Aの姿勢変化を検出させる(姿勢変化検出工程:ステップST3)。距離検出工程(ステップST1,ST2)にて第1の位置P1および第2の位置P2までの距離を検出すると、距離変化取得部23は、床面Fまでの距離の変化を取得し、変化値S1,S2を記憶部27に記憶させる(距離変化取得工程:ステップST4)。さらに、距離変化取得部23は、取得した変化値S1,S2に基づいて後述する学習モデルを用いた判定手法により走行環境の変化を判定する(環境変化判定工程:ステップST5)。姿勢変化検出工程(ステップST3)にてロボット本体1Aの姿勢変化を検出すると、信頼度評価部26は、そのときの変化値S1,S2の信頼度を評価する(信頼度評価工程:ステップST6)。
 信頼度評価工程(ステップST6)において、変化値S1,S2に信頼度が無いものと判断した場合(ステップST6でNO)、制御手段2は、第1距離検出工程(ステップST1)に戻って、前述の各ステップST1~ST6を繰り返す。信頼度評価工程(ステップST6)において、変化値S1,S2に信頼度が有るものと判断した場合(ステップST6でYES)、制御手段2は、次のステップST8を実行する。すなわち、距離変化比較部24は、第1の変化値S1と第2の変化値S2との差分をとった差分値S3を算出する(距離変化比較工程:ステップST8)。次に、距離変化判別部25は、差分値S3に基づいて、移動ロボット1の姿勢の変化に起因する距離の変化と、床面Fの形状に起因する距離の変化とを判別し(距離変化判別工程:ステップST9)、その後、第1距離検出工程(ステップST1)に戻る。
 なお、本実施形態では、ステップST5の環境変化判定工程は、ステップST9の距離変化判別工程の前に実行しているが、距離変化判別工程の後に実行するようにしてもよく、この場合には、移動ロボット1の姿勢の変化に起因する距離の変化ではなく、床面Fの形状に起因する距離の変化であると距離変化判別部25にて判別された場合にのみ、環境変化判定工程を実行するようにしてもよい。
 以上のように移動ロボット1の移動情報を処理することで、制御手段2は、ロボット本体1Aの移動方向D1前方の床面Fが平坦で走行可能か、あるいは、ロボット本体1Aの移動方向D1前方の床面Fに凹凸や障害物(物体M)などが存在するか、を常時判別しつつ移動手段4によってロボット本体1Aを走行させる。ロボット本体1Aの移動方向D1前方の床面Fに障害物(物体M)が存在した場合、その物体Mの床面Fからの高さも判別されるため、制御手段2は、物体Mが乗り越えられるか否かを判定する。物体Mが乗り越えられないと判定した場合、制御手段2は、物体Mを回避するように移動制御部21によって移動手段4を駆動制御させる。ロボット本体1Aの車高を調整することなく物体Mが乗り越えられると判定した場合、制御手段2は、移動制御部21による移動手段4の駆動制御を継続して物体Mを乗り越えさせる。
 一方、ロボット本体1Aの車高を調整すれば物体Mが乗り越えられると判定した場合、制御手段2は、移動制御部21によって車高調整部43を駆動制御し、図8に示すように、左右の前輪である車輪42を下向きに変位させることで、ロボット本体1Aの前方側の車高を上げる。図8は、移動ロボットの車高調整動作を示す図である。図8(A)に示すように、車高調整部43によってロボット本体1Aの前方側の車高を上げると、ロボット本体1Aの姿勢が変化することから、第1の距離センサ31および第2の距離センサ32の方向が変化する。この姿勢変化を姿勢検出手段34が検出すると、制御手段2は、検出制御部22によってセンサ方向変更部33を駆動制御し、第1の距離センサ31および第2の距離センサ32の方向を下向きに変更する。また、図8(B)に示すように、前輪である車輪42が物体Mに乗り上げてロボット本体1Aの姿勢がさらに変化すると、姿勢検出手段34の検出に基づき、検出制御部22の制御によりセンサ方向変更部33が第1の距離センサ31および第2の距離センサ32の方向をさらに下向きに変更する。
 次に、情報処理装置5による走行環境の変化(床面Fの段差や凹凸、障害物である物体Mなどの有無)の判定手法について、図9~図13も参照して詳しく説明する。図9、10は、移動ロボットによる測定動作を示す概念図であり、図10(A)は、図9の場合よりも移動ロボットの移動速度が速い場合を示し、図10(B)は、図9の場合よりも移動ロボットの移動速度が遅い場合を示している。図11は、移動ロボットの測定動作により得られる第1測定値群を示すグラフであり、図12は、第1測定値群を加工して生成した第2測定値群を示すグラフである。図13は、第2測定値群を比較して環境の変化を判定する手順を示す図である。情報処理装置5の制御手段2は、走行環境の変化を判定する判定手段として機能する。
 図9、10に示すように、移動ロボット1の移動に伴い、第1の距離センサ31は、ロボット本体1Aの移動方向D1前方の床面Fにおける第1の位置P1までの距離を検出し、第2の距離センサ32は、移動方向D1前方の床面Fにおける第2の位置P2までの距離を検出する。これら第1および第2の距離センサ31,32による距離の検出は、略同時に実行されるとともに、所定の時間間隔(例えば、0.01秒間隔)で連続的に実行される。第1の距離センサ31により検出された第1の位置P1までの距離、および第2の距離センサ32により検出された第2の位置P2までの距離は、それぞれ連続したサンプリングデータである二組(複数組)の第1測定値群S11,S12として、それぞれ記憶部27に記憶される(図11参照)。ここで、図10(A)に示すように、図9の場合よりも移動ロボット1の移動速度が速い場合には、第1測定値群S11,S12の間隔が広くなり、図10(B)に示すように、図9の場合よりも移動ロボット1の移動速度が遅い場合には、第1測定値群S11,S12の間隔が狭くなる。
 図11(A)は、第1の距離センサ31により検出された第1の位置P1までの距離の測定値である第1測定値群S11を示し、図11(B)は、第2の距離センサ32により検出された第2の位置P2までの距離の測定値である第1測定値群S12を示している。図11(A)に示すように、第1の位置P1までの距離(第1測定値群S11)は、測定時間が0.6秒あたりまでは150mm前後の略一定値を示し、0.6秒を過ぎたところで急激に低下し、これは第1の位置P1が物体Mに到達したことを示している。図11(B)に示すように、第2の位置P2までの距離(第1測定値群S12)は、測定時間が0.7秒あたりまでは65~70mm前後の略一定値を示し、0.7秒を過ぎたところで急激に低下し、これは第2の位置P2が物体Mに到達したことを示している。
 制御手段2は、以上のようにして所定の時間間隔ごとに得た二組の第1測定値群S11,S12を加工し、移動ロボット1の移動距離ごと(例えば、10mm間隔ごと)の二組の第2測定値群S21,S22を生成する。具体的には、記憶部27に記憶された過去の第1測定値群S11,S12から所定時間分(例えば図11にAで示す範囲)の測定値を取り出し、取り出した第1測定値群S11,S12を移動ロボット1の移動距離あたりの測定値に変換することで、図12に示すように二組の第2測定値群S21,S22が生成される。ここで、第1測定値群S11,S12を取り出す過去の所定時間の範囲としては、例えば、その時間で移動ロボット1の移動距離が150mmとなる範囲である。
 図12において、実線は第1の位置P1までの距離の測定値から生成した第2測定値群S21であり、破線は第2の位置P2までの距離の測定値から生成した第2測定値群S22である。このように第2測定値群S21,S22を生成する際、制御手段2は、移動ロボット1の車輪42の回転数などから移動距離を検出しておき、この距離測定値に基づいて第1測定値群S11,S12を補間し、これにより第2測定値群S21,S22を生成する。具体的には、第1測定値群S11,S12の各測定値を測定した時刻に対して移動距離を当てはめ、測定値の間を一次補間して移動距離に対応させるとともに、移動距離ごとに測定値をリサンプリングすることで第2測定値群S21,S22を生成する。このように第1測定値群S11,S12を補間してリサンプリングすることで、移動ロボット1の移動速度の変動などにより第1測定値群S11,S12の間隔がばらついた場合でも、移動距離ごとの第2測定値群S21,S22に生じるばらつきの影響を抑制することができる。
 なお、本実施形態では、測定値の間は、一次補間して移動距離に対応させているが、他の補間法を採用してもよい。
 制御手段2は、以上のようにして移動ロボット1の移動距離ごとの二組の第2測定値群S21,S22を生成したら、これら二組の第2測定値群S21,S22を入力値とし、学習モデルを用いて走行環境の変化の有無を判定する。具体的には、制御手段2は、図13に示すように、二組の第2測定値群S21,S22を入力1、入力2とし、畳み込み層、プーリング層、結合層を有し、走行環境の変化の有無を出力するニューラルネットワークを用いて走行環境の変化の有無を判定する。入力された二組の第2測定値群S21,S22は、畳み込み層において所定の重み係数を有したフィルタによって畳み込み処理が実行され、それぞれの特徴が抽出されるとともにデータ量が縮小されてからプーリング層に出力される。さらに、プーリング層おいて、二組の第2測定値群S21,S22は、それぞれの特徴を維持しつつ所定の重み係数を有したフィルタによって縮小処理されてから結合層に出力される。結合層では、プーリング層から出力された第2測定値群S21,S22それぞれの特徴を重ね合わせて比較し、比較結果を出力する。学習モデルは、この比較結果に基づいて走行環境の変化の有無を判定する。なお、学習モデルとしては、畳み込み層、プーリング層、および結合層からなる中間層を複数有した深層学習モデルを採用してもよいし、その他の適宜な学習モデルであってもよい。
 以上のような学習モデルにおいて、各層で用いられる重み係数は、事前の学習により設定されている。この学習は、段差や凹凸、障害物等の環境変化のある環境において実行され、前述したように生成される第2測定値群S21,S22を学習モデルに入力することで出力(環境の変化の有無)を得るとともに、得られた出力が実際の環境の変化に適合しているか否かを教示する工程を繰り返し実行する。このように入力と出力、その出力に対する教示を行うことで、学習モデルが自ら重み係数を変更し、適切な重み係数となるまで学習を繰り返す。このような繰り返し学習の結果得られた重み係数を実用値として記憶部27に記憶させ、移動ロボット1の実稼働に利用する。
 このような本実施形態によれば、以下の作用・効果を奏することができる。
(1)移動ロボット1の判定手段である制御手段2は、所定の時間間隔ごとに検出した二組の第1測定値群S11,S12を加工して二組の第2測定値群S21,S22を生成し、生成した移動ロボット1の移動距離ごとの第2測定値群S21,S22同士を比較して環境の変化(床面Fの段差や凹凸、障害物である物体Mなどの有無)を判定することで、移動ロボット1の移動速度等による影響を低減し、環境変化の検知精度を向上させることができる。
(2)判定手段である制御手段2は、移動ロボット1の車輪42の回転数などから検出した距離測定値に基づいて第1測定値群S11,S12の測定値間を補間するとともに移動距離ごとの値にリサンプリングして第2測定値群S21,S22を生成することで、環境内を移動する移動ロボット1の位置を適切に反映した第2測定値群S21,S22を得ることができ、環境変化の検知精度をさらに向上させることができる。
(3)判定手段である制御手段2は、予め学習により重み係数が設定された学習モデルに基づいて環境の変化の有無を出力として得るので、様々な環境変化のパターンに対応することができる。また、第2測定値群S21,S22は、移動ロボット1の移動速度等による影響を受けた第1測定値群S11,S12と比較して学習モデルに対する親和性が高く、制御手段2は、学習モデルに第2測定値群S21,S22を入力して環境の変化の有無を出力として得るので、学習モデルに第1測定値群S11,S12を直に入力して環境の変化の有無を出力として得る場合と比較して良好な判定結果を得ることができる。
(4)移動ロボット1の制御手段2は、距離変化判別部25によってロボット本体1Aの姿勢変化に起因する距離の変化(同位相の変化)と、環境内の床面Fの形状に起因する距離の変化(位相差を有する変化)とを判別し、ロボット本体1Aの姿勢変化に起因する距離の変化を除外しつつ、床面Fの形状に起因する距離の変化に基づくことにより、凹凸や障害物などの対象物を正確に検出することができる。したがって、ロボット本体1Aの姿勢変化が距離測定に与える影響を低減し、床面Fに存在する凹凸や障害物などの対象物までの距離の測定精度を向上させることができる。
(5)第1の距離センサ31および第2の距離センサ32は、ロボット本体1Aの移動方向D1と交差する交差方向D2に沿った複数の第1の位置P1および第2の位置P2までの距離を検出することで、床面Fの形状に起因する距離の変化をロボット本体1Aに対応した幅で検出することができる。
(6)第2の距離センサ32は、第1の距離センサ31よりも低い分解能を有していることで、移動方向D1に沿って第1の位置P1よりもロボット本体1Aに近い位置にある第2の位置P2までの距離を検出する際に、第1の距離センサ31にて検出された第1の位置P1までの距離の変化とのバランスを取ることができる。このため、距離変化判別部25は、ロボット本体1Aの姿勢変化に起因する距離の変化と、床面Fの形状に起因する距離の変化とを判別しやすくすることができる。
(7)距離変化比較部24は、信頼度評価部26の評価結果に基づいて、距離変化取得部23にて取得された第1の位置P1および第2の位置P2までの距離の変化を比較するか否かを決定するので、信頼度の低い第1の位置P1および第2の位置P2までの距離の変化を比較しないようにすることができ、計算コストを削減することができる。
(8)制御手段2は、姿勢検出手段34が検出したロボット本体1Aの姿勢変化に基づき、センサ方向変更部33によって第1の距離センサ31および第2の距離センサ32の方向を変更し、床面Fに対する所定方向の距離を検出できるようにすることで、ロボット本体1Aの姿勢が変化した場合であっても確実に環境内の床面Fまでの距離を検出することができる。
〔実施形態の変形〕
 なお、本発明は、前記実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
 例えば、前記実施形態では、移動ロボット1として具体的なものを例示しなかったが、移動ロボットとしては、サービスロボットやホームロボットなどであって、より具体的には、掃除ロボットや警備ロボット、運搬ロボット、案内ロボットなどが例示できる。さらに、移動体の移動範囲は、二次元平面空間に限らず、三次元空間であってもよく、その場合には移動体がドローンなどの飛行体であってもよい。また、環境内の所定の面としては、床面Fなどの水平面に限らず、鉛直面や傾斜面などの平面であってもよいし、適宜な曲面であってもよい。
 前記実施形態では、情報処理装置5を構成する制御手段2および検出手段3が移動体であるロボット本体1Aに設けられていたが、制御手段2の全部または一部は、ロボット本体1Aではなく、ロボット本体1Aと通信可能な他の機器に設けられ、他の機器によって制御手段2の全部または一部の機能が構成されていてもよい。また、本発明の情報処理装置は、移動ロボット1に適用される以外に、自動運転自動車や作業車、飛行体などの移動体の移動情報を処理する用途に利用することも可能である。また、移動体は、移動ロボット1のように移動手段4を備えたものに限らず、他の装置や人などによって移動される台車などであってもよい。
 前記実施形態では、判定手段である制御手段2が学習モデルによって環境の変化を判定したが、学習モデルを用いずに、環境変化のパターンを数値化した閾値を予め設定しておいてもよい。
 前記実施形態では、制御手段2は、移動ロボット1の車輪42の回転数などから検出した距離測定値に基づいて第1測定値群S11,S12の測定値間を補間するとともに移動距離ごとの値にリサンプリングして第2測定値群S21,S22を生成したが、複数組の第1測定値群を加工して移動体の移動距離ごとの複数組の第2測定値群を生成することができれば、本実施形態とは異なる手法を採用してもよい。
 前記実施形態では、信頼度評価部26の評価結果に基づいて、距離変化取得部23にて取得された第1の位置P1および第2の位置P2までの距離の変化を比較するか否かを距離変化比較部24が決定し、信頼度が低い場合には距離の変化を比較しないように構成されていたが、信頼度に関わらず全ての距離の変化を比較するように構成されていてもよい。また、前記実施形態では、姿勢検出手段34によってロボット本体1Aの姿勢変化を検出し、センサ方向変更部33によって第1の距離センサ31および第2の距離センサ32の方向を変更したが、姿勢検出手段34やセンサ方向変更部33は本発明に必須の構成ではなく、適宜に省略することができる。
 前記実施形態では、第1の距離センサ31および第2の距離センサ32がレーザー光を照射して距離を測定するレーザー距離計で構成されていたが、距離センサは、レーザー距離計に限らず、赤外線センサやLIDAR(Light Detection and RangingまたはLaser Imaging Detection and Ranging)などの光学センサでもよいし、超音波センサでもよく、さらには、カメラと撮像素子を有した画像センサでもよい。また、前記実施形態では、姿勢検出手段34として、加速度センサを例示したが、これに限らず、ジャイロセンサであってもよい。また、前記実施形態では、姿勢検出手段34がロボット本体1Aの振動や傾き、揺れなどの細かい姿勢変化、および車高調整部43による車高の変化や物体Mへの乗り上げによるロボット本体1Aの大きな姿勢変化の両方を検出する構成であったが、細かい姿勢変化を検出する第1の姿勢検出手段と、大きな姿勢変化を検出する第2の姿勢検出手段と、がそれぞれ別のセンサによって構成されていてもよい。
 前記実施形態では、第1の距離センサ31および第2の距離センサ32がロボット本体1Aの前部にそれぞれ複数ずつ設けられていたが、これに限らず、図14に示すような構成が採用できる。図14は、移動ロボットの変形例を示す平面図である。図14_に示すように、第1の距離センサ31および第2の距離センサ32は、ロボット本体1Aの前部中央に各1個ずつ設けられるとともに、左右に回動可能に設けられ、これによって交差方向D2に沿った複数の第1の位置P1および第2の位置P2までの距離を検出するように構成されている。
 前記実施形態では、第1の距離センサ31と第2の距離センサ32とが別体のセンサで構成されていたが、これに限らず、図15に示すような構成が採用できる。図15は、移動ロボットの他の変形例を示す側面図である。図15に示すように、第1の距離センサ31および第2の距離センサ32は、単一のセンサで構成され、この距離センサ31,32の上下方向の検出範囲に応じて、第1の位置P1と第2の位置P2とが識別されるように構成されている。また、単一の距離センサ31,32がセンサ方向変更部33によって上下に回動されることで、ロボット本体1Aからの検出距離が変更され、これにより第1の位置P1および第2の位置P2までの距離を検出する構成であってもよい。また、第2の距離センサ32は、第1の距離センサ31よりも低い分解能を有したものに限らず、第1の距離センサ31と第2の距離センサ32とが同じ分解能を有したものでもよいし、第2の距離センサ32が第1の距離センサ31よりも高い分解能を有したものでもよい。
 以上のように、本発明は、移動体の姿勢変化による影響を低減して対象物までの距離の測定精度を向上させることができる情報処理装置および移動ロボットに好適に利用できる。
  1   移動ロボット
  1A  ロボット本体(移動体)
  2   制御手段(判定手段)
  3   検出手段
  4   移動手段
  5   情報処理装置
 23   距離変化取得部
 24   距離変化比較部
 25   距離変化判別部
 31   第1の距離センサ
 32   第2の距離センサ
 F    床面(所定の面)
 M    物体(環境の変化)
 P1   第1の位置
 P2   第2の位置
 S11,S12 第1測定値群
 S21,S22 第2測定値群

Claims (6)

  1.  環境内を移動する移動体の移動情報を処理する情報処理装置であって、
     前記移動体の移動に伴い所定の時間間隔ごとに前記環境内の異なる位置までの距離を検出した複数組の第1測定値群を得るとともに、
     前記複数組の第1測定値群を加工して前記移動体の移動距離ごとの複数組の第2測定値群を生成し、生成した前記複数組の第2測定値群同士を比較することにより前記環境の変化を判定する判定手段を備える
    ことを特徴とする情報処理装置。
  2.  請求項1に記載された情報処理装置において、
     前記判定手段は、前記移動体の移動距離を検出した距離測定値に基づき、前記複数組の第1測定値群の測定値間を補間するとともに移動距離ごとの値にリサンプリングして前記複数組の第2測定値群を生成する
    ことを特徴とする情報処理装置。
  3.  請求項1または請求項2に記載された情報処理装置において、
     前記判定手段は、予め学習により重み係数が設定された学習モデルに基づき、前記複数組の第2測定値群を前記学習モデルに入力して前記環境の変化の有無を出力として得る
    ことを特徴とする情報処理装置。
  4.  請求項3に記載された情報処理装置において、
     前記学習モデルは、前記判定手段により前記複数組の第2測定値群同士を比較して前記環境の変化を判定する学習を実行することで重み係数が設定されている
    ことを特徴とする情報処理装置。
  5.  請求項1から請求項4のいずれかに記載された情報処理装置と、
     前記移動体を移動させる移動手段と、
     前記環境内の異なる位置として前記環境内の異なる二位置までの距離を検出する第1の距離センサおよび第2の距離センサと、
     前記第1の距離センサおよび前記第2の距離センサを制御するとともに前記判定手段として機能する制御手段と、を備え、
     前記第2の距離センサにより検出する第2の位置は、前記移動体の移動方向に沿って前記第1の距離センサにより検出する第1の位置よりも前記移動体に近い位置に設定される
    ことを特徴とする移動ロボット。
  6.  請求項5に記載された移動ロボットにおいて、
     前記制御手段は、
     前記第1の距離センサおよび前記第2の距離センサにて検出された前記第1の位置および前記第2の位置までの距離の変化を取得する距離変化取得部と、
     前記距離変化取得部にて取得された前記第1の位置および前記第2の位置までの距離の変化を比較する距離変化比較部と、
     前記距離変化比較部にて比較された結果に基づいて、前記移動体の姿勢の変化に起因する距離の変化と、前記環境の変化に起因する距離の変化とを判別する距離変化判別部と、を備える
    ことを特徴とする移動ロボット。
PCT/JP2018/046320 2018-12-17 2018-12-17 情報処理装置および移動ロボット WO2020129120A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
PCT/JP2018/046320 WO2020129120A1 (ja) 2018-12-17 2018-12-17 情報処理装置および移動ロボット
EP18943392.3A EP3901573A4 (en) 2018-12-17 2018-12-17 INFORMATION PROCESSING DEVICE AND MOBILE ROBOT
US17/299,870 US20220083067A1 (en) 2018-12-17 2018-12-17 Information processing apparatus and mobile robot
JP2020560652A JP7221549B2 (ja) 2018-12-17 2018-12-17 情報処理装置および移動ロボット
CN201880099573.0A CN113056651A (zh) 2018-12-17 2018-12-17 信息处理装置以及移动机器人
TW108144918A TW202024666A (zh) 2018-12-17 2019-12-09 資訊處理裝置以及移動機器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/046320 WO2020129120A1 (ja) 2018-12-17 2018-12-17 情報処理装置および移動ロボット

Publications (1)

Publication Number Publication Date
WO2020129120A1 true WO2020129120A1 (ja) 2020-06-25

Family

ID=71100421

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/046320 WO2020129120A1 (ja) 2018-12-17 2018-12-17 情報処理装置および移動ロボット

Country Status (6)

Country Link
US (1) US20220083067A1 (ja)
EP (1) EP3901573A4 (ja)
JP (1) JP7221549B2 (ja)
CN (1) CN113056651A (ja)
TW (1) TW202024666A (ja)
WO (1) WO2020129120A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022013133A (ja) * 2020-07-03 2022-01-18 トヨタ自動車株式会社 レーザレーダ取付構造
WO2022123887A1 (ja) * 2020-12-11 2022-06-16 パナソニックIpマネジメント株式会社 測距装置および移動体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114460932A (zh) * 2021-12-29 2022-05-10 南京苏美达智能技术有限公司 多传感器安装平台及自行走机器周围环境数据采集、障碍物规避方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004294152A (ja) * 2003-03-26 2004-10-21 Pasuko:Kk 路面性状測定装置
JP2014021625A (ja) 2012-07-13 2014-02-03 Sharp Corp 距離計測システム
JP2017026535A (ja) * 2015-07-27 2017-02-02 シャープ株式会社 障害物判定装置及び障害物判定方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0476562A3 (en) * 1990-09-19 1993-02-10 Hitachi, Ltd. Method and apparatus for controlling moving body and facilities
JPH07229728A (ja) * 1994-02-22 1995-08-29 Nikon Corp 路面検出装置
JPH11191196A (ja) * 1997-10-20 1999-07-13 Omron Corp 車両計測装置および車種判別装置
JP2005309700A (ja) * 2004-04-20 2005-11-04 Sanyo Electric Co Ltd 自走式移動体、移動体制御方法、及びコンピュータプログラム
US7724355B1 (en) * 2005-11-29 2010-05-25 Navisense Method and device for enhancing accuracy in ultrasonic range measurement
WO2007144013A1 (en) * 2006-06-14 2007-12-21 Pirelli & C. S.P.A. Method and system for measuring the velocity of a moving object
JP2009032179A (ja) * 2007-07-30 2009-02-12 Sanyo Electric Co Ltd 移動ロボット及び遠隔操作システム
US9062980B2 (en) * 2011-11-22 2015-06-23 Hitachi, Ltd. Autonomous mobile system
JP2014197294A (ja) * 2013-03-29 2014-10-16 株式会社日立産機システム 位置同定装置、及びそれを備えた移動ロボット
JP5900462B2 (ja) * 2013-10-30 2016-04-06 株式会社安川電機 移動体、移動体の移動方法、ロボットシステム、及び加工品の製造方法
JP6135481B2 (ja) * 2013-11-28 2017-05-31 トヨタ自動車株式会社 自律移動体
US10093312B2 (en) * 2015-07-27 2018-10-09 Sharp Kabushiki Kaisha Obstacle determining apparatus, moving body, and obstacle determining method
US11927965B2 (en) * 2016-02-29 2024-03-12 AI Incorporated Obstacle recognition method for autonomous robots
KR20180087798A (ko) * 2017-01-25 2018-08-02 엘지전자 주식회사 이동 로봇 및 그 제어방법
WO2019004633A1 (ko) * 2017-06-30 2019-01-03 엘지전자 주식회사 이동 로봇의 동작 방법 및 이동 로봇
AT520579B1 (de) * 2017-09-26 2022-07-15 Tec Innovation Gmbh Verfahren und Vorrichtung zur Detektion eines hindernisfreien Bereichs
CN108957466B (zh) * 2018-04-18 2022-01-25 广东宝乐机器人股份有限公司 移动机器人的雷达数据补偿方法、装置、设备和存储介质
EP3739356A1 (en) * 2019-05-12 2020-11-18 Origin Wireless, Inc. Method, apparatus, and system for wireless tracking, scanning and monitoring
US20220308228A1 (en) * 2019-05-21 2022-09-29 Starship Technologies Oü System and method for robot localisation in reduced light conditions
KR102275300B1 (ko) * 2019-07-05 2021-07-08 엘지전자 주식회사 이동 로봇 및 그 제어방법
CN114153197B (zh) * 2020-08-17 2023-08-18 速感科技(北京)有限公司 自主移动设备的脱困方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004294152A (ja) * 2003-03-26 2004-10-21 Pasuko:Kk 路面性状測定装置
JP2014021625A (ja) 2012-07-13 2014-02-03 Sharp Corp 距離計測システム
JP2017026535A (ja) * 2015-07-27 2017-02-02 シャープ株式会社 障害物判定装置及び障害物判定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3901573A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022013133A (ja) * 2020-07-03 2022-01-18 トヨタ自動車株式会社 レーザレーダ取付構造
JP7294256B2 (ja) 2020-07-03 2023-06-20 トヨタ自動車株式会社 レーザレーダ取付方法
WO2022123887A1 (ja) * 2020-12-11 2022-06-16 パナソニックIpマネジメント株式会社 測距装置および移動体

Also Published As

Publication number Publication date
JPWO2020129120A1 (ja) 2021-09-30
EP3901573A1 (en) 2021-10-27
EP3901573A4 (en) 2022-07-06
JP7221549B2 (ja) 2023-02-14
CN113056651A (zh) 2021-06-29
TW202024666A (zh) 2020-07-01
US20220083067A1 (en) 2022-03-17

Similar Documents

Publication Publication Date Title
EP2495079B1 (en) Slip detection apparatus and method for a mobile robot
WO2020129120A1 (ja) 情報処理装置および移動ロボット
JP5310285B2 (ja) 自己位置推定装置及び自己位置推定方法
CN108873900B (zh) 一种机器人行走时越过障碍物的方法
JP6464410B2 (ja) 障害物判定装置および障害物判定方法
JP2011209845A (ja) 自律移動体、自己位置推定方法、地図情報作成システム
JP2009050936A (ja) 干渉判定装置および脚車輪型ロボット
US11628573B2 (en) Unmanned transfer robot system
US11361543B2 (en) System and method for detecting objects
KR102564663B1 (ko) 무인 반송 차량의 위치 인식 장치 및 방법
JP7002791B2 (ja) 情報処理装置および移動ロボット
KR100904769B1 (ko) 진로 방해물 감지 장치 및 방법
JP2009006984A (ja) 脚車輪型ロボット
JP7114867B2 (ja) 自律走行システム、これを備えた車両及び自律走行方法
JP5895682B2 (ja) 障害物検出装置及びそれを備えた移動体
JP6863049B2 (ja) 自律移動ロボット
JP2009042146A (ja) 物体認識装置および物体認識方法
US10119804B2 (en) Moving amount estimating apparatus, autonomous mobile body, and moving amount estimating method
JP2009006982A (ja) 脚車輪型ロボット
JP2009042147A (ja) 物体認識装置および物体認識方法
JP2009006466A (ja) 脚車輪型ロボット
JP2009042145A (ja) 物体認識装置および物体認識方法
US20240058943A1 (en) Moving apparatus and moving apparatus control method
US20220137633A1 (en) Method for an online calibration, and calibration device
Rachkov et al. Ultrasonic Location System of a Reconfigurable Mobile Robot

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18943392

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020560652

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018943392

Country of ref document: EP

Effective date: 20210719