WO2016067467A1 - ロボット制御装置、ロボットシステム、ロボット制御方法及びプログラム - Google Patents

ロボット制御装置、ロボットシステム、ロボット制御方法及びプログラム Download PDF

Info

Publication number
WO2016067467A1
WO2016067467A1 PCT/JP2014/079113 JP2014079113W WO2016067467A1 WO 2016067467 A1 WO2016067467 A1 WO 2016067467A1 JP 2014079113 W JP2014079113 W JP 2014079113W WO 2016067467 A1 WO2016067467 A1 WO 2016067467A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
obstacle
unit
route
movement
Prior art date
Application number
PCT/JP2014/079113
Other languages
English (en)
French (fr)
Inventor
壮一郎 黒川
及川 智明
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2014/079113 priority Critical patent/WO2016067467A1/ja
Priority to JP2016556169A priority patent/JPWO2016067467A1/ja
Publication of WO2016067467A1 publication Critical patent/WO2016067467A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions

Definitions

  • the present invention relates to a robot control device, a robot system, a robot control method, and a program.
  • the mobile robot system described in the cited document 1 includes a robot and a robot control device.
  • the robot described in the cited document 1 has a camera sensor and a moving mechanism.
  • the robot control apparatus described in the cited document 1 has a touch panel that receives and displays an image of the surrounding environment photographed by a camera sensor.
  • the robot control apparatus described in the cited document 1 uses the actual position corresponding to the arbitrary point as a target position, and moves the robot. To move the robot automatically.
  • cited document 1 describes that an obstacle sensor such as an ultrasonic sensor or an infrared sensor for preventing a collision with an obstacle is combined with a robot.
  • an obstacle sensor such as an ultrasonic sensor or an infrared sensor for preventing a collision with an obstacle is combined with a robot.
  • the robot processes information from each sensor, and accordingly, the robot controls movement, sends and receives various information to and from the robot controller, etc. Need to have various functions. This complicates the functional configuration of the robot.
  • the present invention has been made to solve the above-described problems, and provides a robot control device that can automatically move a robot without mounting a large number of sensors on the robot. With the goal.
  • a robot control apparatus remotely controls the movement of a robot in a predetermined control area, and includes a receiving unit, a route determining unit, and a command unit.
  • the receiving unit receives sensor data indicating an area occupied by an object placed in the control area from the sensor.
  • the route determination unit determines a movement route that is a route for moving the robot, based on the received sensor data.
  • the command unit creates a movement command for moving the robot according to the determined movement route and transmits the movement command to the robot.
  • the robot control device determines a movement path based on sensor data indicating an area occupied by an object in the control area, and transmits a movement command for moving the robot along the determined movement path to the robot.
  • the movement path can be determined without mounting a sensor such as a camera sensor, an ultrasonic sensor, or an infrared sensor on the robot, and the robot can be moved according to the determined movement path. Therefore, it is possible to automatically move the robot without mounting a large number of sensors on the robot.
  • FIG. 3A It is a figure which shows an example of the image shown with image data. It is a figure which shows an example of the target position set in the image shown in FIG.
  • FIG. 6 is a diagram illustrating an example of a current position and orientation of a robot specified in the image shown in FIG. 5 and a movable region. It is a figure which shows an example of the movement path
  • the robot system 100 includes an imaging sensor 101, a robot 102, and a robot control device 103 that are individually provided.
  • the image sensor 101 and the robot control device 103 are connected so as to be able to communicate with each other wirelessly or by wire.
  • the robot 102 and the robot control device 103 are connected so that they can communicate with each other wirelessly.
  • the robot system 100 automatically moves the robot 102 in accordance with a user instruction.
  • the imaging sensor 101 is a sensor that continuously captures an image including the entire floor of a room that is predetermined as an area (control area) for controlling the movement of the robot 102 by the robot control device 103, and includes a ceiling of the room, Fixed to a wall.
  • the imaging sensor 101 generates image data indicating the captured image and transmits it to the robot control device 103.
  • an example in which an image including the entire floor of the room is captured by one imaging sensor 101 is described.
  • an image including the entire floor of the room may be captured by a plurality of imaging sensors 101. Good.
  • each imaging sensor 101 generates image data and transmits it to the robot controller 103.
  • the image captured by the image sensor 101 includes the entire floor of the room viewed from the installation position of the image sensor 101, the image includes various objects placed in the room.
  • the “thing placed in the room” includes, for example, furniture and home appliances placed directly on the floor of the room.
  • “things placed in a room” includes tableware, home appliances, books, magazines, and the like placed on furniture.
  • the furniture is, for example, a table, a bed, a TV stand
  • the home appliance is, for example, a refrigerator, a TV
  • the tableware is, for example, a cup, a plate, or the like.
  • the image indicated by the image data shows the area occupied by the object placed in the room in two dimensions
  • the image data in the present embodiment is a sensor indicating the area occupied by the object placed in the control area. It is an example of data.
  • the “thing” may include a person other than a person (user) who gives an instruction to move the robot 102.
  • the “area occupied by the object placed in the control area” can be specified by combining the position of the object in the control area, the shape of the outer edge of the object, the size of the object, and the like.
  • the shape of the outer edge of the object is not limited to the shape of the outer edge of the object indicated by the sensor data, and may be, for example, a polygonal shape in which each corner is in contact with the outer edge of the object.
  • the robot 102 moves on the floor, which is the surface that is in contact with the moving object, thereby supporting, for example, user activities.
  • the robot 102 includes a robot body 105 having an upper surface provided with an index 104 indicating the direction of the robot 102 (for example, a traveling direction when the robot 102 is moved forward), and the robot body 105 approximately upward from the center.
  • a holding portion (not shown) that extends and holds the cup by holding the cup or the like is provided with a support portion 106 attached to the tip.
  • the robot body 105 includes a movement mechanism for moving the robot 102, a communication unit that communicates with the robot control device 103 such as receiving a movement command, and a movement control unit that controls the movement mechanism according to the movement command.
  • the moving mechanism includes, for example, a plurality of tires and a plurality of motors.
  • the movement command is a command for controlling the movement of the robot 102 and includes, for example, the magnitude of torque output from each motor provided in the movement mechanism, the magnitude of current input to each motor, and the like.
  • the movement control unit controls the movement mechanism in accordance with the received movement command. Thereby, the robot 102 moves according to the movement command.
  • the robot 102 moves according to the movement command from the robot control device 103 even if it does not include a sensor such as a camera sensor, an ultrasonic sensor, an infrared sensor, or a configuration for processing information output from the sensor. can do.
  • a sensor such as a camera sensor, an ultrasonic sensor, an infrared sensor, or a configuration for processing information output from the sensor. can do.
  • the robot control device 103 is a device that remotely controls the movement of the robot 102 in a room as a control area. As shown in FIG. 2, the robot controller 103 functionally includes a receiving unit 107 that receives image data from the imaging sensor 101, an operation-setting data storage unit 108 that stores operation-setting data, and a user instruction.
  • an obstacle data storage unit 110 for storing obstacle data
  • an interval data storage unit 111 for storing interval data
  • a receiving unit 107 A route determination unit 112 that determines a movement route based on the image data received by the commanding unit, and a command unit that generates a movement command for moving the robot 102 according to the movement route determined by the route determination unit 112 and transmits the movement command to the robot 102.
  • 113 a display unit 114 for displaying various types of information, and an input unit 115 for a user to input for settings, instructions, etc.
  • the movement path is a path along which the robot 102 moves from the current position to the target position, and is preferably the shortest path.
  • the robot control device 103 sets a target position, which is the destination of the robot 102, based on a user instruction.
  • the robot control apparatus 103 determines a path from the determined current position to the target position while avoiding an obstacle as a movement path.
  • the robot control apparatus 103 creates a movement command for moving the robot 102 according to the determined movement path, and transmits it to the robot 102.
  • the operation-setting data stored in the operation-setting data storage unit 108 is data including a user's operation and setting contents corresponding to the operation, and is set in advance by the user or the manufacturer, for example.
  • the setting contents here include the contents of data stored in the operation-setting data storage unit 108, the obstacle data storage unit 110, and the interval data storage unit 111.
  • the action-setting data includes a user's gesture and a method for setting the target position and setting the target position accordingly.
  • this data it is possible to set a target position according to a user instruction.
  • Operation for setting the target position-The setting data includes, in detail, for example, a gesture for drinking a drink and a method for determining a position where a container (for example, a cup) in which a drink can be held can be held as the target position. Including.
  • a gesture for pointing a direction with a finger and a method for determining a position where a predetermined object placed in the indicated direction can be held as a target position are included.
  • the user's operation may be an operation in which the user causes the imaging sensor 101 to photograph characters, symbols, and the like.
  • the operation-setting data includes the characters, symbols, and the setting contents corresponding to the characters and symbols. included.
  • the robot control apparatus 103 includes a microphone, the user's action may be a voice uttered by the user.
  • the target position setting unit 109 is stored in the user operation specifying unit 116 that specifies the user's operation based on the image data received by the receiving unit 107 and the operation-setting data storage unit 108. Based on the action-setting data and the user action specified by the user action specifying part 116, an instruction position determining part 117 for determining a target position is provided. Thereby, when the user is photographed by the imaging sensor 101, the user can indicate the target position by the operation.
  • the target position setting unit 109 may determine a target position related to a user instruction based on an input to the input unit 115.
  • the obstacle data stored in the obstacle data storage unit 110 is data indicating the shape of the outer edge of the obstacle that prevents the robot 102 from moving, and is set in advance by, for example, a user or a manufacturer.
  • the obstacle includes, for example, an object placed in the room as described above.
  • the interval data stored in the interval data storage unit 111 indicates a distance (for example, about several centimeters) that is separated from an obstacle when the robot 102 is moved. By referring to this data, the robot 102 can be moved away from the obstacle.
  • the route determination unit 112 specifies the obstacle occupying the area occupied by the obstacle based on the image data received by the reception unit 107 and the obstacle data stored in the obstacle data storage unit 110. Whether or not there is an obstacle in the moving direction of the robot 102 based on the image data received during the movement of the robot 102 by the receiving unit 107 and the obstacle data stored in the obstacle data storage unit 110 A determination unit 119 for determining whether or not the obstacle specified by the obstacle specifying unit 118 is determined as a movement route.
  • the determination unit 119 determines whether there is an obstacle at a predetermined distance or a distance that the robot 102 is expected to reach within a predetermined time along the movement path from the current position of the robot 102. Determine whether.
  • the obstacle avoidance unit 120 specifies the current position and orientation of the robot 102 based on the image indicated by the image data.
  • the obstacle avoiding unit 120 specifies an area occupied by the obstacle specified by the obstacle specifying unit 118 from among the images indicated by the image data.
  • the obstacle avoiding unit 120 specifies the peripheral area of the obstacle specified by the obstacle specifying unit 118 based on the area occupied by the specified obstacle and the interval data stored in the interval data storage unit 111.
  • the peripheral area is an area that surrounds an obstacle along the outer edge at an interval indicated by the interval data in the image indicated by the image data.
  • the failure avoidance unit 120 identifies a movable area.
  • the movable area is an area where the robot 102 can move while avoiding obstacles, and in the image indicated by the image data, the area occupied by the obstacle specified by the obstacle specifying unit 118 and the surrounding area are excluded from the entire floor. It is an area.
  • the failure avoidance unit 120 determines a movement route from among the routes included in the identified movable area. At this time, the obstacle avoiding unit 120 may determine, as a movement route, a route in which the movement distance from the current position of the robot 102 to the target position is the shortest among the routes that avoid the specified obstacle.
  • the obstacle avoiding unit 120 determines the moving route again based on the image data received by the receiving unit 107.
  • the display unit 114 displays an image indicated by the image data received by the receiving unit 107, for example.
  • the display unit 114 displays a location corresponding to the position set by the target position setting unit 109 on the image indicated by the image data.
  • the display unit 114 displays a route corresponding to the travel route determined by the route determination unit 112 on the image indicated by the image data.
  • the display unit 114 may display the contents included in each data stored in the operation-setting data storage unit 108, the obstacle data storage unit 110, and the interval data storage unit 111.
  • the input unit 115 receives, for example, a target position instruction.
  • a target position instruction When the touch panel is employed, the position in the real space corresponding to the location touched by the user in the room image (the image indicated by the image data) displayed on the display unit 114 may be determined as the target position.
  • the input unit 115 may accept an input for setting each data stored in the operation-setting data storage unit 108, the obstacle data storage unit 110, and the interval data storage unit 111.
  • the robot controller 103 physically includes, for example, one or a plurality of processors, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, a liquid crystal display, an input button, a keyboard, a pointing device, and a touch panel.
  • processors for example, one or a plurality of processors, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, a liquid crystal display, an input button, a keyboard, a pointing device, and a touch panel.
  • Each function exhibited by the robot control device 103 may be realized by, for example, a dedicated device in which a software program (program) is incorporated, or may be realized by a general-purpose computer executing the program.
  • the computers here include notebook personal computers, tablet terminals, smartphones, and the like. Therefore, the present invention may be realized as a program for causing a computer to perform each function, or may be realized as a storage medium on which the program is recorded.
  • Robot controller 103 executes a robot control method for remotely controlling the movement of robot 102 in the room, as shown in FIG. 3A.
  • the robot control method is repeatedly executed while the robot system 100 is operating.
  • the receiving unit 107 receives image data indicating an image including at least an image of the entire floor of the room from the imaging sensor 101 (step S101).
  • FIG. 5 shows an example of an image including the entire floor 121 of the room.
  • the image shown in the figure includes images of the robot 102, the table 122 and the bed 123 placed on the floor 121, and the cup 124 placed on the table 122.
  • the target position setting unit 109 sets the target position based on the image data received from the image sensor 101 or the input to the input unit 115 (step S102).
  • FIG. 4 shows an example of the flow of the target position setting process (step S102) for setting the target position based on the image data received from the image sensor 101.
  • the user action specifying unit 116 specifies a user action by, for example, pattern matching based on the image data acquired by the receiving unit 107 (step S201).
  • the user action specifying unit 116 holds in advance data in which a user action and an image feature amount corresponding to the action are associated with each other.
  • the user action specifying unit 116 determines whether or not the user is included in the image indicated by the image data, for example, by pattern matching. When it is determined that the user is included, the user action specifying unit 116 determines the feature amount of the image corresponding to the user action included in the image indicated by the image data, and the feature amount indicated by the data held in advance. Is within a predetermined range. When it is determined that the range is a predetermined range, the user action specifying unit 116 specifies a user action associated with the user action in the data held in advance.
  • the user action specifying unit 116 specifies the action of the user who drinks the drink.
  • the designated position determination unit 117 determines whether or not the operation-setting data stored in the operation-setting data storage unit 108 includes the user's operation specified by the user operation specifying unit 116.
  • the action-setting data includes the specified user action
  • the pointing position determining unit 117 refers to the action-setting data to specify the setting contents according to the user action, and sets the specified setting contents. Based on this, the target position related to the user's instruction is determined (step S202).
  • the operation-setting data includes a method for determining, as the setting contents according to the operation of the user who drinks the drink, the position where the container in which the drink can be held can be held as the target position.
  • the instruction position determining unit 117 determines the position where the container in which the drink can be placed can be held as the target position.
  • FIG. 6 shows an example in which the position where the cup 124 that is a container in which drinks can be held is determined as the target position DP.
  • the designated position determination unit 117 holds the determined target position (step S203), thereby setting the target position.
  • the designated position determination unit 117 returns to the robot control process shown in FIG. 3A.
  • the obstacle identifying unit 118 detects the obstacle indicated by the obstacle data stored in the obstacle data storage unit 110 in the image indicated by the image data received by the receiving unit 107, for example, by pattern matching similar to the above.
  • the obstacle identifying unit 118 holds in advance image data indicating an image in a state where nothing is placed in the room, and the image and the image indicated by the image data received by the receiving unit 107. May be extracted as an obstacle candidate. Then, the obstacle may be detected by comparing the extracted image with the obstacle image indicated by the obstacle data.
  • the obstacle identifying unit 118 identifies an area occupied by the detected obstacle in the image indicated by the image data received by the receiving unit 107 (step S103).
  • the obstacle avoiding unit 120 specifies the peripheral area of the obstacle specified by the obstacle specifying unit 118 based on the area occupied by the specified obstacle and the interval data stored in the interval data storage unit 111. Then, the obstacle avoiding unit 120 specifies a movable region in the image indicated by the image data by excluding the region occupied by the obstacle specified by the obstacle specifying unit 118 and the peripheral region from the entire floor (step S104).
  • the obstacle avoidance unit 120 identifies the current position and orientation of the robot 102 based on the image indicated by the image data (step S105).
  • the current position of the robot 102 is the current position of the robot 102 in the room, and is specified by, for example, detecting the shape of the outer edge of the robot 102 from the image indicated by the image data by pattern matching.
  • the orientation of the robot 102 is the current orientation of the robot 102 in the room.
  • the orientation of the robot 102 is specified by detecting the index 104 of the robot 102 from the image indicated by the image data by pattern matching.
  • the data indicating the shape of the outer edge of the robot 102 and the shape of the index 104 may be stored in advance by the obstacle avoiding unit 120, for example.
  • FIG. 7 shows areas occupied by obstacles identified by executing the processing of steps S103 to S105 based on the image shown in FIG. 5, their surrounding areas, the current position PP and the direction of the robot 102.
  • An example is shown.
  • the direction of the robot 102 specified based on the index 104 as described above is indicated by an arrow AL.
  • the obstacles are a table 122 and a bed 123. Since the image of the cup 124 placed on the table 122 is included in the image of the table 122 that is an obstacle, the cup 124 is not an obstacle.
  • the area occupied by the bed 123 matches the bed image itself.
  • a polygon with acute angles at each corner in contact with the outer edge of the table 122 is an area 125 occupied by the table 122.
  • the two-dot chain lines 126 and 127 shown in the figure are boundaries of the peripheral area of the area 125 occupied by the table 122 and the area occupied by the bed 123, respectively. That is, the area surrounded by the two-dot chain line 126 in the entire floor 121 is an area occupied by the table 122 that is an obstacle and its peripheral area. Moreover, the area
  • the obstacle avoidance unit 120 determines the route having the shortest travel distance as the travel route from the routes included in the movable region identified in Step S105 (Step S106).
  • the movement route MP determined by such a method is shown in FIG.
  • the movement path MP shown in the figure is the shortest path from the current position PP to the target position DP by moving in the movable area specified in step S105. Since the movable area is an area excluding the area occupied by the obstacle and its peripheral area, the robot 102 can be prevented from colliding with the obstacle by moving the movable area.
  • the movement route is determined based on the image showing the entire floor of the room, it is possible to determine a route that can surely avoid the obstacle, and the most of the routes that can avoid the obstacle. It is possible to determine a short distance.
  • the command unit 113 creates a movement command for moving the robot 102 according to the movement path determined in step S106, and transmits the movement command to the robot 102 (step S107).
  • the robot 102 receives a movement command. Since the robot 102 moves according to the movement command, the robot 102 moves according to the movement path determined in step S106.
  • the receiving unit 107 receives image data from the imaging sensor 101 in the same manner as in step S101 while the robot 102 is moving (step S108).
  • the determination unit 119 identifies the current position and orientation of the robot 102 based on the image indicated by the image data received in step S108 by the same method as in step S105 (step S109).
  • the determination unit 119 specifies an obstacle by the same method as in step S104 based on the image indicated by the image data received in step S108 and the current position and orientation of the robot 102 specified in step S109. Thereby, the determination unit 119 determines whether there is an obstacle in the moving direction of the robot 102 (step S110).
  • step S110 If it is determined that there is an obstacle (step S110; Yes), the processing of steps S103 to S107 is executed again. Thus, even when the user or the like moves an obstacle while the robot 102 is moving, a moving path that can avoid the obstacle is determined. Then, the robot 102 can be moved according to the movement path determined again.
  • step S110 When it is determined that there is no obstacle (step S110; No), the command unit 113 determines whether the robot 102 has arrived at the target position based on the image data received in step S108 (step S111). ).
  • step S111 If it is determined that the destination position has not been reached (step S111; No), the command unit 113 transmits a movement command for moving the robot 102 according to the determined movement path (step S112).
  • step S111 If it is determined that the vehicle has arrived at the target position (step S111; Yes), the command unit 113 stops transmitting the movement command (step S113) and ends the robot control process.
  • the robot control apparatus 103 determines a movement route based on image data indicating an area occupied by an object in a room, and gives a movement command to the robot 102 to move the robot 102 according to the determined movement route.
  • the movement path can be determined without mounting a sensor such as a camera sensor, an ultrasonic sensor, or an infrared sensor on the robot 102, and the robot 102 can be moved according to the determined movement path. Accordingly, the robot 102 can be automatically moved without mounting a large number of sensors on the robot 102.
  • the robot system 200 may be provided with a plurality of image sensors 201a and 201b that capture a common area (sensing area) in a room.
  • the sensing area may be the entire floor of the room as the control area, or a part thereof.
  • the robot 102 When determining a movement route based on a two-dimensional image from one imaging sensor 101, when there is an obstacle between the movement route and the imaging sensor 101, the robot 102 indicates the interval data in the real space. It will pass through a position that is more distant than the distance.
  • the robot 102 can be moved by determining a route close to the shortest route in the real space.
  • Modification 2 In the embodiment, an example has been described in which sensor data two-dimensionally represents an area occupied by an object placed in a control area.
  • the sensor data is not limited to this.
  • the sensors are arranged in the main scanning direction with distance measuring sensors that irradiate ultrasonic waves, lasers, infrared rays, or the like in a certain direction and measure the distance from the sensor to the object based on the reflected wave from the object.
  • It may be a line sensor.
  • the sensor data shows the area occupied by the object placed in the control area in a two-dimensional manner (main scanning direction and height direction).
  • the region detected by the line sensor is moved in the sub-scanning direction (a direction perpendicular to the main scanning direction and the height direction) by rotating the line sensor within a certain angle range around the main scanning direction. be able to.
  • sensor data output from the stereo camera three-dimensionally represents an area occupied by an object placed in the control area.
  • Modification 3 In the embodiment, an example has been described in which, when an obstacle is detected on the movement path while the robot 102 is moving, a movement path that avoids the obstacle is determined again. However, for example, when the robot 102 can remove the obstacle from the movement path by a sandwiching unit or the like, the robot 102 may move it. According to this, the robot 102 can be moved along the shortest route without determining the moving route again.
  • the robot control apparatus 103 controls one robot 102
  • the robot system may include a plurality of robots 102, and the robot control device may control the plurality of robots 102.
  • the movement path of each robot 102 can be determined based on the image including the entire floor of the room. Therefore, it is possible to determine a movement route that does not inhibit movement of the robots 102 from each other.
  • the present invention can be used for a robot control device that automatically moves a robot.
  • 100, 200 robot system 101, 201a, 201b, imaging sensor, 102 robot, 103 robot control device, 104 index, 105 robot body, 107 receiving unit, 108 operation-setting data storage unit, 109 target position setting unit, 110 obstacle Data storage unit, 111 interval data storage unit, 112 route determination unit, 113 command unit, 116 user action specification unit, 117 instruction position determination unit, 118 fault specification unit, 119 determination unit, 120 fault avoidance unit.

Abstract

 ロボット制御装置(103)は、予め定められた制御領域におけるロボットの移動を遠隔制御するものであって、受信部(107)と、経路決定部(112)と、指令部(113)とを備える。受信部(107)は、制御領域に置かれた物が占める領域を示すセンサデータをセンサから受信する。経路決定部(112)は、受信されたセンサデータに基づいて、ロボットを移動させる経路である移動経路を決定する。指令部(113)は、決定された移動経路に従ってロボットを移動させる移動指令を作成してロボットへ送信する。

Description

ロボット制御装置、ロボットシステム、ロボット制御方法及びプログラム
 本発明は、ロボット制御装置、ロボットシステム、ロボット制御方法及びプログラムに関する。
 引用文献1に記載の移動ロボットシステムは、ロボットと、ロボット制御装置とを備える。引用文献1に記載のロボットは、カメラセンサと移動機構とを有する。引用文献1に記載のロボット制御装置は、カメラセンサで撮影された周辺環境の画像を受信して表示するタッチパネルを有する。
 引用文献1に記載のロボット制御装置は、タッチパネルに表示されている画面内の任意点の位置を操作者が指定したとき、その任意点に対応する実際の位置を目標位置として、ロボットの移動機構を制御してロボットを自動的に移動させる。
 また、引用文献1には、障害物との衝突を防ぐための超音波センサや赤外線センサのような障害物センサをロボットに組み合わせることが記載されている。
特開2012-179682号公報
 引用文献1に記載の移動ロボットシステムでは、ロボットを自動的に移動させるために、カメラセンサ、超音波センサ、赤外線センサなどの多数のセンサが搭載される。そのため、ロボットを構成する部品点数が多くなるので、ロボットの物理的な構成が複雑になる。
 また、多数のセンサが搭載されると、ロボットが、各センサからの情報を処理し、それに伴って、移動を制御したり、種々の情報をロボット制御装置と情報を送受信したりするなど、ロボットが種々の機能を備える必要がある。そのため、ロボットの機能的な構成が複雑になる。
 本発明は、上記のような課題を解決するためになされたものであり、ロボットに多数のセンサを搭載しなくてもロボットを自動的に移動させることが可能なロボット制御装置などを提供することを目的とする。
 上記目的を達成するため、本発明に係るロボット制御装置は、予め定められた制御領域におけるロボットの移動を遠隔制御するものであって、受信部と、経路決定部と、指令部とを備える。受信部は、制御領域に置かれた物が占める領域を示すセンサデータをセンサから受信する。経路決定部は、受信されたセンサデータに基づいて、ロボットを移動させる経路である移動経路を決定する。指令部は、決定された移動経路に従ってロボットを移動させる移動指令を作成してロボットへ送信する。
 本発明によれば、ロボット制御装置は、制御領域において物が占める領域を示すセンサデータに基づいて移動経路を決定し、その決定した移動経路に従ってロボットを移動させる移動指令をロボットへ送信する。これにより、カメラセンサ、超音波センサ、赤外線センサなどのセンサをロボットに搭載しなくても、移動経路を決定することができるとともに、決定した移動経路に従ってロボットを移動させることができる。従って、ロボットに多数のセンサを搭載しなくてもロボットを自動的に移動させることが可能になる。
本発明の一実施の形態に係るロボットシステムの構成を示す図である。 一実施の形態に係るロボット制御装置の機能的な構成を示す図である。 一実施の形態に係るロボット制御処理の流れを示すフローチャートである。 一実施の形態に係るロボット制御処理の流れを示すフローチャートである。 図3Aに示す目的位置設定処理S102の流れを示すフローチャートである。 画像データによって示される画像の一例を示す図である。 図5に示す画像において設定される目的位置の一例を示す図である。 図5に示す画像において特定されたロボットの現在位置及び向きと、移動可能領域の一例を示す図である。 図5に示す画像において決定された移動経路の一例を示す図である。 本発明の変形例1に係るロボットシステムの構成を示す図である。
 本発明の実施の形態について図を参照して説明する。全図を通じて同一の要素には同一の参照符号を付す。
 本発明の一実施の形態に係るロボットシステム100は、図1に示すように、個別に設けられた撮像センサ101、ロボット102及びロボット制御装置103を備える。
 撮像センサ101とロボット制御装置103とは、無線又は有線によって相互に通信可能に接続されている。ロボット102とロボット制御装置103とは、無線によって相互に通信可能に接続されている。これによって、ロボットシステム100は、ユーザの指示に従ってロボット102を自動的に移動させる。
 撮像センサ101は、ロボット制御装置103によりロボット102の移動を制御する領域(制御領域)として予め定められた部屋の床全体を含む画像を継続的に撮影するセンサであって、その部屋の天井、壁などに固定される。撮像センサ101は、撮影した画像を示す画像データを生成してロボット制御装置103へ送信する。
 なお、本実施の形態では、1つの撮像センサ101によって、部屋の床全体を含む画像を撮影する例を説明するが、複数の撮像センサ101によって、部屋の床全体を含む画像を撮影してもよい。この場合、各撮像センサ101が画像データを生成してロボット制御装置103へ送信する。
 撮像センサ101によって撮影される画像は、撮像センサ101の設置位置から見た部屋の床全体を含むので、この画像には、部屋に置かれた種々の物が含まれる。「部屋に置かれた物」は、例えば、部屋の床に直接置かれた家具、家電製品などを含む。また、「部屋に置かれた物」は、家具などに置かれた食器、家電製品、本、雑誌などを含む。家具は、例えば、テーブル、ベッド、テレビ台などであり、家電製品は、例えば、冷蔵庫、テレビなどであり、食器は、例えば、コップ、皿などである。このように、画像データが示す画像は、部屋に置かれた物が占める領域を二次元で示すので、本実施の形態での画像データは、制御領域に置かれた物が占める領域を示すセンサデータの一例である。
 ここで、「物」は、ロボット102を移動させる指示を与える人(ユーザ)以外の人を含んでもよい。後述する「障害物」も同様である。
 また、「制御領域に置かれた物が占める領域」は、例えば、制御領域における物の位置、物の外縁の形状、物の大きさなどを組み合わせて特定することができる。物の外縁の形状は、センサデータによって示される物の外縁自体の形状に限られず、例えば、その物の外縁に接する、各角が鋭角の多角形の形状などであってもよい。
 ロボット102は、移動時に接している面である床の上を移動し、これによって、例えばユーザの活動を支援する。ロボット102は、図1に示すように、ロボット102の向き(例えば、前進させた場合の進行方向)を示す指標104が上面に設けられたロボット本体105と、ロボット本体105の概ね中心から上方へ延び、コップなどを挟持することで保持する保持部(図示せず)などが先端に取り付けられる支持部106とを備える。
 ロボット本体105には、ロボット102が移動するための移動機構、移動指令を受信するなどロボット制御装置103と通信する通信部、移動指令に従って移動機構を制御する移動制御部とを備える。移動機構は、例えば、複数のタイヤ、複数のモータなどから構成される。
 移動指令は、ロボット102の移動を制御するための指令であって、例えば、移動機構が備える各モータから出力するトルクの大きさ、各モータへ入力する電流の大きさなどを含む。移動制御部は、受信された移動指令に従って、移動機構を制御する。これにより、ロボット102は、移動指令に従って移動する。
 このように、ロボット102は、カメラセンサ、超音波センサ、赤外線センサなどのセンサ、センサから出力される情報を処理するための構成も備えてなくても、ロボット制御装置103からの移動指令に従って移動することができる。
 ロボット制御装置103は、制御領域としての部屋におけるロボット102の移動を遠隔制御する装置である。ロボット制御装置103は機能的には、図2に示すように、画像データを撮像センサ101から受信する受信部107と、動作-設定データを記憶する動作-設定データ記憶部108と、ユーザの指示に基づいて、ロボット102が移動する目的位置を設定する目的位置設定部109と、障害物データを記憶する障害物データ記憶部110と、間隔データを記憶する間隔データ記憶部111と、受信部107によって受信された画像データに基づいて、移動経路を決定する経路決定部112と、経路決定部112によって決定された移動経路に従ってロボット102を移動させる移動指令を作成してロボット102へ送信する指令部113と、各種情報を表示する表示部114と、設定、指示などのためにユーザが入力する入力部115とを備える。ここで、移動経路は、ロボット102が現在位置から目的位置へ至るまでに移動する経路であり、最短経路であることが望ましい。
 本実施の形態では、このような機能を備えることによって、ロボット制御装置103は、ユーザの指示に基づいてロボット102の移動先である目的位置を設定する。ロボット制御装置103は、決定した現在位置から障害物を回避しつつ目的位置に至る経路を、移動経路として決定する。ロボット制御装置103は、決定した移動経路に従ってロボット102を移動させる移動指令を作成してロボット102へ送信する。
 動作-設定データ記憶部108に記憶される動作-設定データは、ユーザの動作とその動作に応じた設定内容とを含むデータであり、例えばユーザ、製造者によって予め設定される。ここでの設定内容には、動作-設定データ記憶部108、障害物データ記憶部110、間隔データ記憶部111に記憶されるデータの内容などが含まれる。
 例えば、動作-設定データは、ユーザのジェスチャと、それに応じて目的位置を設定すること及びその目的位置を設定するための方法とを含む。このデータを参照することで、ユーザの指示による目的位置を設定することができる。
 目的位置を設定するための動作-設定データには、詳細には例えば、飲み物を飲むジェスチャと、飲み物が入れられる容器(例えば、コップ)を保持できる位置を目的位置として決定するための方法とを含む。また例えば、指で方向を指し示すジェスチャと、指し示された方向に置かれている予め定められた物を保持できる位置を目的位置として決定するための方法とを含む。
 なお、ユーザの動作は、ユーザが文字、記号などを撮像センサ101に撮影させる動作であってもよく、この場合、動作-設定データには、この文字、記号などと、それに応じた設定内容が含まれる。ロボット制御装置103が、マイクを備える場合、ユーザの動作は、ユーザの発する音声であってもよい。
 本実施の形態に係る目的位置設定部109は、受信部107によって受信される画像データに基づいて、ユーザの動作を特定するユーザ動作特定部116と、動作-設定データ記憶部108に記憶された動作-設定データとユーザ動作特定部116によって特定されたユーザの動作とに基づいて、目的位置を決定する指示位置決定部117とを備える。これによって、ユーザが撮像センサ101によって撮影されている場合、ユーザは、動作によって目的位置を指示することができる。
 目的位置設定部109は、入力部115への入力に基づいて、ユーザの指示に係る目的位置を決定してもよい。
 障害物データ記憶部110に記憶される障害物データは、ロボット102の移動を妨げる障害物の外縁の形状を示すデータであって、例えばユーザ、製造者によって予め設定される。障害物は、例えば、上述のような部屋に置かれる物を含む。
 間隔データ記憶部111に記憶される間隔データは、ロボット102を移動させる際に障害物から離間させる距離(例えば、数センチ程度)を示す。このデータを参照することで、ロボット102を障害物から離間させて移動させることができる。
 本実施の形態に係る経路決定部112は、受信部107によって受信された画像データと障害物データ記憶部110に記憶された障害物データとに基づいて、障害物が占める領域を特定する障害特定部118と、受信部107によってロボット102の移動中に受信される画像データと障害物データ記憶部110に記憶された障害物データとに基づいて、ロボット102の移動方向に障害物があるか否かを判定する判定部119と、障害特定部118によって特定された障害物をロボット102が回避する経路を移動経路として決定する障害回避部120とを有する。
 詳細には、判定部119は、ロボット102の現在位置から移動経路に沿って、予め定められた距離又は予め定められた時間内にロボット102が到達すると予想される距離に障害物があるか否かを判定する。
 詳細には、障害回避部120は、画像データによって示される画像に基づいて、ロボット102の現在位置と向きを特定する。障害回避部120は、画像データによって示される画像に中から、障害特定部118によって特定された障害物が占める領域を特定する。
 障害回避部120は、特定された障害物が占める領域と、間隔データ記憶部111に記憶された間隔データとに基づいて、障害特定部118によって特定された障害物の周辺領域を特定する。周辺領域は、画像データによって示される画像において、間隔データによって示される間隔で障害物をその外縁に沿って囲む領域である。
 障害回避部120は、移動可能領域を特定する。移動可能領域は、ロボット102が障害物を避けて移動できる領域であって、画像データによって示される画像において、障害特定部118によって特定された障害物が占める領域及び周辺領域を床全体から除いた領域である。
 障害回避部120は、特定した移動可能領域に含まれる経路の中から移動経路を決定する。このとき、障害回避部120は、特定された障害物を回避する経路のうち、ロボット102の現在位置から目的位置までの移動距離が最も短くなる経路を、移動経路として決定してもよい。
 判定部119によって障害物があると判定された場合に、障害回避部120は、受信部107によって受信された画像データに基づいて、移動経路を再び決定する。
 表示部114は、例えば、受信部107によって受信された画像データが示す画像を表示する。例えば、表示部114は、目的位置設定部109によって設定された位置に対応する箇所を、画像データが示す画像上に表示する。例えば、表示部114は、経路決定部112によって決定された移動経路に対応する経路を、画像データが示す画像上に表示する。
 なお、表示部114は、動作-設定データ記憶部108、障害物データ記憶部110、間隔データ記憶部111に記憶される各データに含まれる内容を表示してもよい。
 入力部115は、例えば、目的位置の指示が入力される。タッチパネルが採用される場合、表示部114に表示された部屋の画像(画像データが示す画像)においてユーザがタッチした箇所に対応する実空間での位置が、目的位置として決定されてもよい。
 なお、入力部115は、動作-設定データ記憶部108、障害物データ記憶部110、間隔データ記憶部111に記憶される各データを設定するための入力を受け付けてもよい。
 ロボット制御装置103は物理的には、例えば、1つ又は複数のプロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、液晶ディスプレイ、入力用のボタン、キーボード、ポインティングデバイス、タッチパネル、有線又は無線で通信するための1つ又は複数の通信インタフェースなどを適宜組み合わせて構成される。
 ロボット制御装置103が発揮する各機能は、例えば、ソフトウェアプログラム(プログラム)が組み込まれた専用の装置によって実現されてもよく、プログラムを汎用のコンピュータが実行することによって実現されるとよい。ここでのコンピュータは、ノート型のパーソナルコンピュータ、タブレット端末、スマートフォンなども含む。従って、本発明は、コンピュータに各機能を発揮させるプログラムとして実現されてもよく、そのプログラムが記録された記憶媒体として実現されてもよい。
 プログラムがインストールされた汎用のコンピュータ、そのプログラム、そのプログラムが記録された記憶媒体が採用される場合、そのプログラムは、専用の装置のためのものでなくてよいので、開発コストを抑えることができる。また、機能の追加又は修正、バグの修正のためのプログラムをインターネットなどを介して提供できるので、プログラムの更新を容易にすることが可能になる。さらに、汎用のコンピュータでは、ロボット102に情報処理のためのモジュール(プロセッサ、各種メモリなど)を搭載するよりも、一般的に、ユーザは比較的高性能なものが低価格であるため高性能なものを入手し易い。そのため、汎用のコンピュータであれば、複雑な情報処理であっても、ロボット102に搭載したモジュールにより情報処理を実行する場合よりも、速く実行することができる。
 これまで、本発明の一実施の形態に係るロボットシステム100の構成について説明した。ここから、本実施の形態に係るロボットシステム100の動作について説明する。
 ロボット制御装置103は、図3Aに示すように、部屋におけるロボット102の移動を遠隔制御するためのロボット制御方法を実行する。ロボット制御方法は、例えば、ロボットシステム100が動作している間、繰り返し実行される。
 受信部107は、部屋の床全体の画像を少なくとも含む画像を示す画像データを撮像センサ101から受信する(ステップS101)。図5に、部屋の床121の全体を含む画像の一例を示す。同図に示す画像は、ロボット102と、床121に置かれたテーブル122及びベッド123と、テーブル122に置かれたコップ124との画像を含む。
 目的位置設定部109は、撮像センサ101から受信した画像データ又は入力部115への入力に基づいて、目的位置を設定する(ステップS102)。
 図4に、撮像センサ101から受信した画像データに基づいて、目的位置を設定するための目的位置設定処理(ステップS102)の流れの一例を示す。
 ユーザ動作特定部116は、受信部107によって取得される画像データに基づいて、例えばパターンマッチングによりユーザの動作を特定する(ステップS201)。
 詳細には、ユーザ動作特定部116は、ユーザの動作と、その動作に応じた画像の特徴量とを対応付けたデータを予め保持する。ユーザ動作特定部116は、例えばパターンマッチングにより、画像データが示す画像にユーザが含まれているか否かを判定する。ユーザが含まれていると判定した場合、ユーザ動作特定部116は、画像データが示す画像に含まれるユーザの動作に応じた画像の特徴量と、予め保持しているデータにより示される特徴量とが、予め定められた範囲であるか否かを判定する。予め定められた範囲であると判定した場合に、ユーザ動作特定部116は、予め保持しているデータにおいて、そのユーザの動作に対応付けられたユーザの動作を特定する。
 このような方法によって、例えば、ユーザが飲み物を飲むジェスチャをした場合、ユーザ動作特定部116は、飲み物を飲むユーザの動作を特定する。
 指示位置決定部117は、動作-設定データ記憶部108に記憶された動作-設定データが、ユーザ動作特定部116によって特定されたユーザの動作を含むか否かを判定する。動作-設定データが特定されたユーザの動作を含む場合、指示位置決定部117は、動作-設定データを参照することによって、そのユーザの動作に応じた設定内容を特定し、特定した設定内容に基づいて、ユーザの指示に係る目的位置を決定する(ステップS202)。
 例えば、動作-設定データが、飲み物を飲むユーザの動作に応じた設定内容として、上述のように、飲み物が入れられる容器を保持できる位置を目的位置として決定するための方法を含むとする。そして、ユーザ動作特定部116によって飲み物を飲むユーザの動作が特定された場合、指示位置決定部117は、飲み物が入れられる容器を保持できる位置を目的位置として決定する。図6には、飲み物が入れられる容器であるコップ124を保持できる位置が、目的位置DPとして決定された例を示す。
 指示位置決定部117は、決定した目的位置を保持し(ステップS203)、これによって、目的位置が設定される。指示位置決定部117は、図3Aに示すロボット制御処理へ戻る。
 障害特定部118は、例えば上述と同様のパターンマッチングにより、受信部107によって受信された画像データが示す画像に、障害物データ記憶部110に記憶された障害物データが示す障害物を検出する。
 ここで例えば、障害特定部118は、部屋に何も物が置かれていない状態での画像を示す画像データを予め保持し、その画像と、受信部107によって受信された画像データが示す画像とを比較することによって、障害物の候補となる画像を抽出してもよい。そして、抽出した画像と障害物データが示す障害物の画像とを比較することによって、障害物を検出してもよい。
 障害特定部118は、受信部107によって受信された画像データが示す画像において、検出した障害物が占める領域を特定する(ステップS103)。
 障害回避部120は、特定された障害物が占める領域と、間隔データ記憶部111に記憶された間隔データとに基づいて、障害特定部118によって特定された障害物の周辺領域を特定する。そして、障害回避部120は、画像データによって示される画像において、障害特定部118によって特定された障害物が占める領域及び周辺領域を床全体から除いた移動可能領域を特定する(ステップS104)。
 障害回避部120は、画像データによって示される画像に基づいて、ロボット102の現在位置と向きを特定する(ステップS105)。
 詳細には、ロボット102の現在位置は、部屋におけるロボット102の現在位置であり、例えば、画像データによって示される画像から、ロボット102の外縁の形状をパターンマッチングで検出することによって、特定される。
 ロボット102の向きは、部屋におけるロボット102の現在の向きであり、例えば、画像データによって示される画像から、ロボット102の指標104をパターンマッチングで検出することによって、特定される。
 ロボット102の外縁の形状及び指標104の形状を示すデータは、例えば障害回避部120が予め保持されるとよい。
 ここで、図7は、図5に示す画像に基づいてステップS103~S105の処理が実行されることによって特定された障害物が占める領域、それらの周辺領域、ロボット102の現在位置PP及び向きの一例を示す。図7において、上述のように指標104に基づいて特定されるロボット102の向きは、矢印ALにより示される。また、図7に示す例では、障害物は、テーブル122及びベッド123である。テーブル122の上に置かれたコップ124の画像は、障害物であるテーブル122の画像に含まれるため、コップ124は、障害物とはされていない。
 図7の例では、ベッド123については、それが占める領域がベッドの画像自体と一致している。また、テーブル122については、テーブル122の外縁に接する各角が鋭角の多角形が、テーブル122が占める領域125とされている。
 同図に示す2点鎖線126,127は、それぞれ、テーブル122が占める領域125、ベッド123が占める領域の周辺領域の境界である。すなわち、床121の全体のうち2点鎖線126で囲まれる領域が、障害物であるテーブル122が占める領域及びその周辺領域である。また、床121の全体のうち2点鎖線127で囲まれる領域が、障害物であるベッド123が占める領域及びその周辺領域である。
 障害回避部120は、ステップS105にて特定した移動可能領域に含まれる経路の中から、移動距離が最も短くなる経路を、移動経路として決定する(ステップS106)。
 このような方法によって決定された移動経路MPの一例を図8に示す。同図に示す移動経路MPは、ステップS105にて特定した移動可能領域を移動することで、現在位置PPから目的位置DPに至る最短経路である。移動可能領域は、障害物が占める領域とその周辺領域とを除いた領域であるため、移動可能領域を移動することで、ロボット102が障害物に衝突することを防ぐことができる。
 このように、部屋の床全体を示す画像に基づいて移動経路が決定されるので、確実に障害物を回避できる経路を決定することが可能になるとともに、障害物を回避できる経路の中で最も距離が短いものを決定することが可能になる。
 指令部113は、ステップS106にて決定された移動経路に従ってロボット102を移動させる移動指令を作成し、その移動指令をロボット102へ送信する(ステップS107)。ロボット102は、移動指令を受信する。ロボット102は、移動指令に従って移動するので、ステップS106で決定された移動経路に従って移動することになる。
 図3Bを参照し、受信部107は、ロボット102の移動中に、ステップS101と同様に画像データを撮像センサ101から受信する(ステップS108)。
 判定部119は、ステップS108にて受信された画像データが示す画像に基づいて、ステップS105と同様の方法により、ロボット102の現在位置と向きとを特定する(ステップS109)。
 判定部119は、ステップS108にて受信された画像データが示す画像と、ステップS109にて特定したロボット102の現在位置及び向きとに基づいて、ステップS104と同様の方法により障害物を特定する。これによって、判定部119は、ロボット102の移動方向に障害物があるか否かを判定する(ステップS110)。
 障害物があると判定した場合(ステップS110;Yes)、ステップS103~S107の処理が再び実行される。これにより、ロボット102の移動中に、ユーザなどが障害物を移動させた場合であっても、それを回避できる移動経路が決定される。そして、再び決定された移動経路に従って、ロボット102を移動させることができる。
 障害物がないと判定した場合(ステップS110;No)、指令部113は、ステップS108にて受信された画像データに基づいて、ロボット102が目的位置に到着したか否かを判定する(ステップS111)。
 目的位置に到着していないと判定した場合(ステップS111;No)、指令部113は、決定された移動経路に従ってロボット102を移動させる移動指令を送信する(ステップS112)。
 目的位置に到着したと判定した場合(ステップS111;Yes)、指令部113は、移動指令の送信を停止し(ステップS113)、ロボット制御処理を終了する。
 以上、本発明の一実施の形態について説明した。
 本実施の形態によれば、ロボット制御装置103は、部屋において物が占める領域を示す画像データに基づいて移動経路を決定し、その決定した移動経路に従ってロボット102を移動させる移動指令をロボット102へ送信する。これにより、カメラセンサ、超音波センサ、赤外線センサなどのセンサをロボット102に搭載しなくても、移動経路を決定することができるとともに、決定した移動経路に従ってロボット102を移動させることができる。従って、ロボット102に多数のセンサを搭載しなくてもロボット102を自動的に移動させることが可能になる。
 変形例1.
 実施の形態では、部屋を撮影する撮像センサ101が1台である例を説明した。しかし、図9に示すように、ロボットシステム200は、部屋の中で共通の領域(センシング領域)を撮影する撮像センサ201a,201bが複数設けられてもよい。ここで、センシング領域は、制御領域としての部屋の床全体であってもよく、その一部であってもよい。
 これにより、共通の各撮像センサ101から異なる角度の画像を示す画像データを得ることができるので、部屋に置かれたものを立体的に特定することができる。
 1台の撮像センサ101による二次元的な画像に基づいて移動経路を決定する場合、移動経路と撮像センサ101との間に障害物があるときには、ロボット102が、実空間では、間隔データが示す距離よりも離れた位置を通過することになる。
 部屋に置かれたものを立体的に特定することによって、移動経路と撮像センサ101との間に障害物がある場合が低減するので、障害物の近傍を通過させることができる。従って、本変形例によれば、実空間での最短経路に近い経路を決定してロボット102を移動させることが可能になる。
 変形例2.
 実施の形態では、センサデータが、制御領域に置かれた物が占める領域を二次元的に示す例を説明した。しかし、センサデータは、これに限られない。
 例えば、センサは、超音波、レーザ、赤外線などを一定の方向へ照射し、対象物での反射波に基づいてセンサから対象物までの距離を測定する測距センサが主走査方向に並べられたラインセンサであってもよい。この場合、センサデータは、制御領域に置かれた物が占める領域を二次元的(主走査方向と高さ方向)に示す。例えば、主走査方向を中心に一定の角度の範囲でラインセンサを回転させることによって、ラインセンサにより検出される領域を副走査方向(主走査方向と高さ方向とに垂直な方向)に移動させることができる。このような方法で少なくとも制御領域の床全体を走査することによって得られるセンサデータを処理することによって、部屋に置かれた物が占める領域を二次元的又は三次元的に把握することが可能になる。
 例えば、2つの撮像センサを組み合わせたステレオカメラをセンサとして採用する場合、ステレオカメラから出力されるセンサデータは、制御領域に置かれた物が占める領域を三次元的に示す。
 変形例3.
 実施の形態では、ロボット102の移動中に移動経路に障害物が検出された場合に、その障害物を回避する移動経路が再び決定する例により説明した。しかし、例えば、ロボット102が挟持部などによってその障害物を移動経路から取り除ける場合には、ロボット102がそれを移動させてもよい。これによれば、移動経路を再び決定しなくても、ロボット102を最短の経路で移動させることができる。
 変形例4.
 実施の形態では、ロボット制御装置103が、1台のロボット102を制御する例により説明した。しかし、ロボットシステムが複数のロボット102を備え、ロボット制御装置が、その複数のロボット102を制御してもよい。
 これによれば、部屋の床全体を含む画像に基づいて、各ロボット102の移動経路を決定することができる。従って、各ロボット102が互いに移動を阻害しない移動経路を決定することが可能になる。
 本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。
 本発明は、ロボットを自動的に移動させるロボット制御装置などに利用することができる。
 100,200 ロボットシステム、101,201a,201b 撮像センサ、102 ロボット、103 ロボット制御装置、104 指標、105 ロボット本体、107 受信部、108 動作-設定データ記憶部、109 目的位置設定部、110 障害物データ記憶部、111 間隔データ記憶部、112 経路決定部、113 指令部、116 ユーザ動作特定部、117 指示位置決定部、118 障害特定部、119 判定部、120 障害回避部。

Claims (10)

  1.  予め定められた制御領域におけるロボットの移動を遠隔制御するロボット制御装置であって、
     前記制御領域に置かれた物が占める領域を示すセンサデータをセンサから受信する受信部と、
     前記受信されたセンサデータに基づいて、前記ロボットを移動させる経路である移動経路を決定する経路決定部と、
     前記決定された移動経路に従って前記ロボットを移動させる移動指令を作成して前記ロボットへ送信する指令部とを備えるロボット制御装置。
  2.  前記ロボットの移動を妨げる障害物の外縁の形状を示す障害物データを記憶する障害物データ記憶部をさらに備え、
     前記経路決定部は、
     前記受信されたセンサデータと前記記憶された障害物データとに基づいて、前記障害物が占める領域を特定する障害特定部と、
     前記ロボットが前記特定された障害物を回避する経路を前記移動経路として決定する障害回避部とを有する
     請求項1に記載のロボット制御装置。
  3.  ロボットを移動させる際に障害物から離間させる距離を示す間隔データを記憶する間隔データ記憶部をさらに備え、
     前記障害回避部は、前記特定された障害物が占める領域を特定し、当該特定した障害物が占める領域と前記間隔データとに基づいて前記特定された障害物の周辺領域を特定し、前記特定された障害物が占める領域及び周辺領域を前記制御領域から除いた移動可能領域を特定し、当該特定した移動可能領域に含まれる経路の中から前記移動経路を決定する
     請求項2に記載のロボット制御装置。
  4.  ユーザの指示に基づいて、ロボットが移動する目的位置を決定する目的位置設定部をさらに備え、
     前記障害回避部は、前記特定された障害物を回避して現在位置から目的位置に至る経路のうち、距離が最も短いものを前記移動経路として決定する
     請求項2又は3に記載のロボット制御装置。
  5.  ユーザの動作と当該動作に応じた設定内容とを含む動作-設定データを記憶する動作-設定データ記憶部をさらに備え、
     前記目的位置設定部は、
     前記受信されたセンサデータに基づいて、ユーザの動作を特定するユーザ動作特定部と、
     前記記憶された動作-設定データと前記特定されたユーザの動作とに基づいて、前記目的位置を決定する指示位置決定部とを有する
     請求項4に記載のロボット制御装置。
  6.  前記経路決定部は、前記受信部によって前記ロボットの移動中に受信されるセンサデータに基づいて、前記ロボットの移動方向に障害物があるか否かを判定する判定部をさらに備え、
     前記障害回避部は、前記判定部によって前記障害物があると判定された場合に、前記受信されたセンサデータに基づいて、前記移動経路を再び決定する
     請求項2から5のいずれか1項に記載のロボット制御装置。
  7.  前記受信部は、前記制御領域のうちの共通のセンシング領域を有する複数のセンサの各々からセンサデータを受信する
     請求項1から6までのいずれか1項に記載のロボット制御装置。
  8.  請求項1から7のいずれか1項に記載されたロボット制御装置と、
     前記センサデータを生成して前記ロボット制御装置へ送信するセンサと、
     前記送信された移動指令を受信し、当該受信した移動指令に従って移動するロボットとを備え、
     前記ロボット制御装置と前記センサと前記ロボットとが、個別に設けられているロボットシステム。
  9.  予め定められた制御領域におけるロボットの移動を遠隔制御するロボット制御方法であって、
     受信部が、前記制御領域に置かれた物が占める領域を示すセンサデータをセンサから受信することと、
     経路決定部が、前記受信されたセンサデータに基づいて、前記ロボットを移動させる経路である移動経路を決定することと、
     指令部が、前記決定された移動経路に従って前記ロボットを移動させる移動指令を作成して前記ロボットへ送信することとを含むロボット制御方法。
  10.  予め定められた制御領域におけるロボットの移動を遠隔制御するためのプログラムであって、
     コンピュータを、
     前記制御領域に置かれた物が占める領域を示すセンサデータをセンサから受信する受信部、
     前記受信されたセンサデータに基づいて、前記ロボットを移動させる経路である移動経路を決定する経路決定部、
     前記決定された移動経路に従って前記ロボットを移動させる移動指令を作成して前記ロボットへ送信する指令部として機能させるためのプログラム。
PCT/JP2014/079113 2014-10-31 2014-10-31 ロボット制御装置、ロボットシステム、ロボット制御方法及びプログラム WO2016067467A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2014/079113 WO2016067467A1 (ja) 2014-10-31 2014-10-31 ロボット制御装置、ロボットシステム、ロボット制御方法及びプログラム
JP2016556169A JPWO2016067467A1 (ja) 2014-10-31 2014-10-31 ロボット制御装置、ロボットシステム、ロボット制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/079113 WO2016067467A1 (ja) 2014-10-31 2014-10-31 ロボット制御装置、ロボットシステム、ロボット制御方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2016067467A1 true WO2016067467A1 (ja) 2016-05-06

Family

ID=55856846

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/079113 WO2016067467A1 (ja) 2014-10-31 2014-10-31 ロボット制御装置、ロボットシステム、ロボット制御方法及びプログラム

Country Status (2)

Country Link
JP (1) JPWO2016067467A1 (ja)
WO (1) WO2016067467A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105911992A (zh) * 2016-06-14 2016-08-31 广东技术师范学院 一种移动机器人的自动规划路径方法及移动机器人
JP6289791B1 (ja) * 2017-07-12 2018-03-07 三菱電機株式会社 情報処理装置及び情報処理システム
WO2019111523A1 (ja) * 2017-12-05 2019-06-13 株式会社大気社 表面処理システムの制御方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07175520A (ja) * 1993-12-20 1995-07-14 Matsushita Electric Ind Co Ltd 自動走行装置
JPH0981237A (ja) * 1995-09-18 1997-03-28 Matsushita Electric Ind Co Ltd 移動体制御装置
JPH09230933A (ja) * 1996-02-27 1997-09-05 Mitsubishi Electric Corp 自動搬送装置
WO2002023297A1 (fr) * 2000-09-11 2002-03-21 Kunikatsu Takase Systeme de commande de mouvement de corps mobiles
JP2004199451A (ja) * 2002-12-19 2004-07-15 Matsushita Electric Ind Co Ltd 自動走行装置及び経路管理装置
JP2004326264A (ja) * 2003-04-22 2004-11-18 Matsushita Electric Works Ltd 障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム
JP2007094743A (ja) * 2005-09-28 2007-04-12 Zmp:Kk 自律移動型ロボットとそのシステム
JP2007111854A (ja) * 2003-06-02 2007-05-10 Matsushita Electric Ind Co Ltd 物品取扱いシステムおよび物品取扱いサーバ
JP2009080527A (ja) * 2007-09-25 2009-04-16 Panasonic Electric Works Co Ltd 自律移動装置
WO2010044277A1 (ja) * 2008-10-16 2010-04-22 株式会社テムザック 移動体ナビゲーション装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4580226B2 (ja) * 2004-12-14 2010-11-10 本田技研工業株式会社 ロボット制御システム
JP2006202213A (ja) * 2005-01-24 2006-08-03 Yaskawa Electric Corp 全方向移動ロボット
JP2012053838A (ja) * 2010-09-03 2012-03-15 Hitachi Plant Technologies Ltd 無人搬送車および走行制御方法
WO2013099091A1 (ja) * 2011-12-28 2013-07-04 パナソニック株式会社 自走式ロボットハンド

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07175520A (ja) * 1993-12-20 1995-07-14 Matsushita Electric Ind Co Ltd 自動走行装置
JPH0981237A (ja) * 1995-09-18 1997-03-28 Matsushita Electric Ind Co Ltd 移動体制御装置
JPH09230933A (ja) * 1996-02-27 1997-09-05 Mitsubishi Electric Corp 自動搬送装置
WO2002023297A1 (fr) * 2000-09-11 2002-03-21 Kunikatsu Takase Systeme de commande de mouvement de corps mobiles
JP2004199451A (ja) * 2002-12-19 2004-07-15 Matsushita Electric Ind Co Ltd 自動走行装置及び経路管理装置
JP2004326264A (ja) * 2003-04-22 2004-11-18 Matsushita Electric Works Ltd 障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム
JP2007111854A (ja) * 2003-06-02 2007-05-10 Matsushita Electric Ind Co Ltd 物品取扱いシステムおよび物品取扱いサーバ
JP2007094743A (ja) * 2005-09-28 2007-04-12 Zmp:Kk 自律移動型ロボットとそのシステム
JP2009080527A (ja) * 2007-09-25 2009-04-16 Panasonic Electric Works Co Ltd 自律移動装置
WO2010044277A1 (ja) * 2008-10-16 2010-04-22 株式会社テムザック 移動体ナビゲーション装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105911992A (zh) * 2016-06-14 2016-08-31 广东技术师范学院 一种移动机器人的自动规划路径方法及移动机器人
JP6289791B1 (ja) * 2017-07-12 2018-03-07 三菱電機株式会社 情報処理装置及び情報処理システム
WO2019012612A1 (ja) * 2017-07-12 2019-01-17 三菱電機株式会社 情報処理装置及び情報処理システム
WO2019111523A1 (ja) * 2017-12-05 2019-06-13 株式会社大気社 表面処理システムの制御方法
JP2019098483A (ja) * 2017-12-05 2019-06-24 株式会社大気社 表面処理システムの制御方法
TWI724335B (zh) * 2017-12-05 2021-04-11 日商大氣社股份有限公司 表面處理系統之控制方法

Also Published As

Publication number Publication date
JPWO2016067467A1 (ja) 2017-04-27

Similar Documents

Publication Publication Date Title
CN111565896B (zh) 用于清洁的移动装置、协作清洁系统及其控制方法
US10591726B2 (en) Apparatus and method for controlling display of hologram, vehicle system
US10542859B2 (en) Cleaning robot and controlling method thereof
US9481087B2 (en) Robot and control method thereof
US11279042B2 (en) Robots for serving food and/or drinks
JP6979961B2 (ja) 自律移動ロボットを制御するための方法
KR102150013B1 (ko) 음향신호를 위한 빔포밍 방법 및 장치
US11124090B2 (en) Seat assembly
WO2012117508A1 (ja) 情報処理装置、方法およびプログラム
KR20200109235A (ko) 음식 및/또는 음료의 서빙을 위한 로봇
WO2016067467A1 (ja) ロボット制御装置、ロボットシステム、ロボット制御方法及びプログラム
CN104039582A (zh) 使用在三维空间中实施的手势操作在车辆的显示单元上显示的功能的方法和装置、以及相应的计算机程序产品
EP3391182B1 (en) Electronic device and cradle therefore
EP3655865B1 (en) Multi-device robot control
JP2010231698A (ja) ネットワークロボットシステム、ロボット制御装置、ロボット制御方法およびロボット制御プログラム
KR102434410B1 (ko) 전자장치 및 그의 동작 방법
JP6409667B2 (ja) 遠隔操作システム
CN108720731B (zh) 用于运行自主行进的车辆的方法
US11520341B2 (en) Information processing apparatus and information processing method
US20200158857A1 (en) Moving device and object detection method thereof
TW201621553A (zh) 三維虛擬飛行滑鼠及和其一起使用之顯示器
US20190354246A1 (en) Airport robot and movement method therefor
US20160214263A1 (en) Robot and method of controlling the same
KR102182087B1 (ko) 로봇 청소기의 정보표시장치
CN113974507A (zh) 清洁机器人的地毯探测方法、装置、清洁机器人及介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14904719

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016556169

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14904719

Country of ref document: EP

Kind code of ref document: A1