WO2021065880A1 - ロボット制御システム、ロボット制御方法およびプログラム - Google Patents
ロボット制御システム、ロボット制御方法およびプログラム Download PDFInfo
- Publication number
- WO2021065880A1 WO2021065880A1 PCT/JP2020/036823 JP2020036823W WO2021065880A1 WO 2021065880 A1 WO2021065880 A1 WO 2021065880A1 JP 2020036823 W JP2020036823 W JP 2020036823W WO 2021065880 A1 WO2021065880 A1 WO 2021065880A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- work
- robot
- dimensional shape
- imaging
- shape measuring
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 28
- 238000005259 measurement Methods 0.000 claims abstract description 85
- 238000003384 imaging method Methods 0.000 claims abstract description 73
- 238000012546 transfer Methods 0.000 description 13
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1653—Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
- G01B11/005—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
- G05B19/4183—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G47/00—Article or material-handling devices associated with conveyors; Methods employing such devices
- B65G47/74—Feeding, transfer, or discharging devices of particular kinds or types
- B65G47/90—Devices for picking-up and depositing articles or materials
- B65G47/905—Control arrangements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39543—Recognize object and plan hand shapes in grasping movements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40554—Object recognition to track object on conveyor
Definitions
- the present invention relates to a robot control system, a robot control method and a program.
- This picking device includes a robot that picks a work, a three-dimensional shape measuring device that measures the three-dimensional shape of the work, and a control device that controls the robot according to the measurement result of the three-dimensional shape measuring device. Therefore, since the control device can grasp the three-dimensional shape of the work, the control device operates the robot according to the three-dimensional shape of the work, so that the robot can appropriately hold the work.
- the control device can grasp the three-dimensional shape of the work, but since the measurement interval of the three-dimensional shape measuring device is large, the measurement by the three-dimensional shape measuring device is performed. It is conceivable that the work will move between the time it is broken and the time the robot is made to perform the picking work. If the work moves before the pick work by the robot is performed, the robot may fail in the pick work.
- the present invention has been made to solve the above problems, and an object of the present invention is to be able to monitor a work from the measurement by a three-dimensional shape measuring device to the work by a robot. To provide various robot control systems, robot control methods and programs.
- the robot control system is a robot that performs work on a work, a three-dimensional shape measuring device that measures the three-dimensional shape of the work, and a control device that controls the robot according to the measurement result of the three-dimensional shape measuring device. It is provided with an image pickup device for imaging a work. The imaging interval of the imaging device is smaller than the measurement interval of the three-dimensional shape measuring device.
- the control device is configured to calculate the position of the work based on the image pickup result by the image pickup device between the time when the measurement by the three-dimensional shape measuring device is performed and the time when the work is performed by the robot.
- the imaging interval of the imaging device is smaller than the measurement interval of the three-dimensional shape measuring device, so that the period between the measurement by the three-dimensional shape measuring device and the work by the robot is performed. Since the position of the work can be calculated based on the imaging result of the imaging device, even if the work moves, the movement can be detected.
- the robot control method includes a step in which a work is imaged by an imaging device, a step in which the three-dimensional shape of the work is measured by a three-dimensional shape measuring device, and a control device according to the measurement result of the three-dimensional shape measuring device. Controls the robot so that the robot can perform the work on the workpiece and the measurement interval of the three-dimensional shape measuring device between the measurement by the three-dimensional shape measuring device and the work by the robot. It includes a step in which the position of the work is calculated by the control device based on the image pickup result taken at the image pickup interval of the smaller image pickup device.
- the program according to the present invention includes a procedure in which an imaging result of imaging a work is input to a computer from an imaging device, a procedure in which a measurement result of measuring a three-dimensional shape of a work is input from a three-dimensional shape measuring device, and three dimensions.
- the procedure for causing the robot to perform the work on the work and the period between the measurement by the three-dimensional shape measuring device and the work by the robot are performed. This is for executing a procedure of calculating the position of a work based on an imaging result imaged at an imaging interval of an imaging device smaller than the measurement interval of the three-dimensional shape measuring apparatus.
- the work can be monitored from the measurement by the three-dimensional shape measuring device to the work by the robot.
- the robot control system 100 is applied to, for example, a production site of a factory, and is configured to cause the robot 2 to execute work at the production site.
- the robot control system 100 includes a control device 1, a robot 2, a three-dimensional shape measuring device 3, and an imaging device 4.
- a belt conveyor 50 for transporting a work is provided, and the work performed by the robot 2 is a pick work for picking up the work on the belt conveyor 50.
- the belt conveyor 50 has a belt, a belt drive unit, and the like, and is configured to convey the work mounted on the belt.
- the belt conveyor 50 includes a supply area arranged on the upstream side in the work transfer direction, a discharge area arranged on the downstream side in the work transfer direction, and a transfer area arranged between the supply area and the discharge area. I'm out.
- workpieces are sequentially placed in the supply region, and the workpieces are sent to the discharge region via the transport region.
- the control device 1 is configured to control the robot control system 100 including the robot 2.
- the control device 1 includes a calculation unit 11, a storage unit 12, and an input / output unit 13.
- the arithmetic unit 11 is configured to control the control device 1 by executing arithmetic processing based on a program or the like stored in the storage unit 12.
- the storage unit 12 stores a program or the like for controlling the robot 2.
- a robot 2, a three-dimensional shape measuring device 3, an imaging device 4, a belt conveyor 50, and the like are connected to the input / output unit 13.
- the control device 1 is an example of the "computer" of the present invention.
- the robot 2 is controlled by the control device 1 and is configured to perform, for example, a pick operation.
- the robot 2 has a multi-axis arm and a hand as an end effector provided at the tip of the multi-axis arm.
- the multi-axis arm is provided to move the hand, and the hand is provided to hold the work.
- the robot 2 is configured to pick up the work on the belt conveyor 50 in the discharge region and move the work to the outside of the belt conveyor 50. That is, the robot 2 is provided to discharge the work on the belt conveyor 50 from the belt conveyor 50.
- the three-dimensional shape measuring device 3 is provided to measure the three-dimensional shape of the work on the belt conveyor 50.
- the three-dimensional shape measuring device 3 is configured so that the measurement range is set in the discharge area of the belt conveyor 50 and the three-dimensional shape of the work sent to the discharge area of the belt conveyor 50 is measured.
- the three-dimensional shape measuring device 3 includes a light projecting unit that emits laser light, a light receiving unit that receives reflected light from the measurement object of the laser light, and the like, and calculates and measures the distance to the measurement object. It is configured to generate results (3D point group data).
- the measurement interval of the three-dimensional shape by the three-dimensional shape measuring device 3 is set to a preset first time interval (for example, about 1 second).
- the measurement result of the three-dimensional shape measuring device 3 is output to the control device 1.
- the image pickup device 4 is provided to image the work on the belt conveyor 50.
- the imaging device 4 is configured so that the imaging range is set to the entire belt conveyor 50 and the workpiece sent from the supply region to the discharge region of the belt conveyor 50 is imaged.
- the imaging interval by the imaging device 4 is set to a preset second time interval (for example, about 0.01 second to about 0.03 second), which is smaller than the first time interval.
- the image pickup result (captured image) of the image pickup device 4 is output to the control device 1.
- control device 1 the measurement result is input from the three-dimensional shape measuring device 3 at every first time interval, and the imaging result is input from the imaging device 4 at every second time interval.
- the control device 1 is configured to control the robot 2 and the belt conveyor 50 in response to inputs from the three-dimensional shape measuring device 3 and the imaging device 4.
- control device 1 is configured to grasp the accurate shape, position, and posture of the work from the measurement results of the three-dimensional shape measuring device 3. Further, the control device 1 has a pick position when the robot 2 picks the work based on the shape, position and orientation of the work based on the measurement result of the three-dimensional shape measuring device 3 and the transport speed of the work by the belt conveyor 50. (Position of the hand of the robot 2), pick posture (direction of the hand of the robot 2), and pick timing (timing when the hand of the robot 2 grabs the work) are calculated.
- the pick timing is the timing at which the work conveyed by the belt conveyor 50 passes through the picked position in the discharge area.
- the picked position is determined based on, for example, the position of the work, the transfer speed of the work by the belt conveyor 50, the time required for the robot 2 to prepare for the pick work, and the like.
- the pick position and pick posture are determined based on, for example, the shape, posture, and picked position of the work.
- control device 1 calculates the position and orientation of the work based on the image pickup result of the image pickup device 4 between the time when the measurement by the three-dimensional shape measurement device 3 is performed and the time when the pick operation is performed by the robot 2. It is configured as follows. As a result, the movement of the work on the belt conveyor 50 is monitored. Then, when the movement of the work on the belt conveyor 50 is detected, the control device 1 interrupts the transport of the work by the belt conveyor 50, and the measurement result of the three-dimensional shape measuring device 3 after the work moves. Is configured to wait until is entered. After that, when the measurement result after the work is moved is input, the control device 1 is configured to recalculate the pick position and the like using the measurement result and restart the transfer of the work by the belt conveyor 50. ing.
- the discharge area of the belt conveyor 50 is measured at every first time interval, and the measurement result is output to the control device 1. Further, in the image pickup device 4, the entire belt conveyor 50 is imaged at every second time interval smaller than the first time interval, and the image pickup result is output to the control device 1.
- the work is supplied to the supply area of the belt conveyor 50, the work is conveyed from the supply area to the discharge area by the belt conveyor 50. At this time, when the work is placed in the supply area of the belt conveyor 50, the work is included in the image pickup result output from the image pickup apparatus 4. Further, when the work is conveyed to the discharge region by the belt conveyor 50, the work is included in the measurement result output from the three-dimensional shape measuring device 3.
- the work transfer speed by the belt conveyor 50 is adjusted by the control device 1 so as to have a predetermined value.
- This predetermined value is a preset value.
- the three-dimensional shape measuring device 3 measures the three-dimensional shape at least once, and the three-dimensional shape measuring device.
- the robot 2 is set so that the picking operation can be completed after the measurement of the three-dimensional shape by 3.
- step S1 of FIG. 2 it is determined in step S1 of FIG. 2 whether or not the imaging result including the work is input from the imaging device 4. Then, when it is determined that the imaging result including the work has been input from the imaging device 4, the process proceeds to step S2. In this case, the work is placed on the belt conveyor 50. On the other hand, when it is determined that the imaging result including the work is not input from the imaging device 4 (when the imaging result is not input and when the imaging result not including the work is input), the step. Move on to S3.
- step S2 the position and orientation of the work are calculated based on the imaging result input in step S1. After that, the process proceeds to step S3.
- step S3 it is determined whether or not the measurement result including the work is input from the three-dimensional shape measuring device 3. Then, when it is determined that the measurement result including the work is input from the three-dimensional shape measuring device 3, the process proceeds to step S4. In this case, the work is conveyed to the discharge area by the belt conveyor 50. On the other hand, when it is determined that the measurement result including the work is not input from the three-dimensional shape measuring device 3 (when the measurement result is not input and when the measurement result not including the work is input). Returns to step S1.
- step S4 the pick position when the robot 2 picks the work is calculated. Specifically, the accurate shape, position, and posture of the work are grasped based on the measurement result input in step S3. Then, the pick position, pick posture, and pick timing when the robot 2 picks the work are calculated based on the shape, position, and posture of the work and the transport speed of the work by the belt conveyor 50.
- step S5 it is determined whether or not the imaging result has been input from the imaging device 4.
- the work is arranged in the discharge area of the belt conveyor 50, and when the imaging result is input, the work is included in the imaging result.
- step S6 it is determined that the imaging result has been input from the imaging device 4
- step S11 it is determined that the imaging result has not been input from the imaging device 4.
- step S6 the position and orientation of the work are calculated based on the imaging result input in step S5.
- step S7 it is determined whether or not the work has moved on the belt conveyor 50 by using the position and orientation of the work based on the image pickup result of the image pickup device 4. That is, it is determined whether or not the movement of the work is detected after excluding the movement of the work transported by the belt conveyor 50. For example, the position and orientation of the work based on the current imaging result is estimated from the position and orientation of the work based on the previous measurement result or the imaging result and the transport speed of the work by the belt conveyor 50, and the current position and orientation of the work. If it matches, it is judged that the work is not moving. Then, when it is determined that the work has moved on the belt conveyor 50, the process proceeds to step S8. On the other hand, if it is determined that the work is not moving on the belt conveyor 50, the process proceeds to step S11.
- step S8 the transfer of the work by the belt conveyor 50 is interrupted. That is, the belt conveyor 50 is temporarily stopped.
- step S9 it is determined whether or not the measurement result has been input from the three-dimensional shape measuring device 3.
- the work is arranged in the discharge area of the belt conveyor 50, and when the measurement result is input, the work is included in the measurement result.
- step S10 the control device 1 waits until the measurement result is input from the three-dimensional shape measuring device 3.
- step S10 the pick position and the like are recalculated, and the work transfer is restarted. Specifically, based on the measurement result input in step S9, the accurate shape, position, and posture of the work after moving on the belt conveyor 50 are grasped. Then, based on the shape, position, and posture of the work after movement, the timing of restarting the transfer of the work by the belt conveyor 50, and the transfer speed at that time, the pick position and pick when the robot 2 picks the work after movement. The posture and pick timing are calculated.
- step S11 it is determined whether or not the work reaches the picked position in the discharge region of the belt conveyor 50. That is, it is determined whether or not the pick timing based on the measurement result of the three-dimensional shape measuring device 3 arrives. Then, when it is determined that the work reaches the picked position, the process proceeds to step S14. On the other hand, if it is determined that the work does not reach the picked position, the process proceeds to step S12.
- step S14 the work picking work is performed by the robot 2. That is, when the work conveyed by the belt conveyor 50 passes through the picked position, it is picked up by the robot 2. Then move on to return.
- step S12 it is determined whether or not the measurement result is input from the three-dimensional shape measuring device 3. Then, when it is determined that the measurement result has been input from the three-dimensional shape measuring device 3, the pick position and the like are recalculated based on the input measurement result in step S13, and the process returns to step S5. That is, when the measurement result including the work is input a plurality of times, the pick position and the like are calculated (updated) using the latest measurement result (measurement result input later). On the other hand, if it is determined that the measurement result has not been input from the three-dimensional shape measuring device 3, the process returns to step S5.
- the robot 2 picks after the measurement by the three-dimensional shape measuring device 3 is performed. Since the position of the work can be calculated based on the imaging result of the imaging device 4 before the work is performed, even if the work moves on the belt conveyor 50, the movement can be detected. As a result, the work on the belt conveyor 50 can be monitored from the measurement performed by the three-dimensional shape measuring device 3 to the picking operation performed by the robot 2. That is, the disadvantage that the measurement interval in the three-dimensional shape measuring device 3 capable of grasping the accurate shape of the work is large can be compensated for by providing the imaging device 4 having a small imaging interval and monitoring the work. ..
- the transport of the work by the belt conveyor 50 is interrupted, and the device waits until the measurement result of the three-dimensional shape measuring device 3 is input.
- the exact shape, position, and posture of the work after the movement can be grasped, so that it is possible to prevent the robot 2 from failing in the picking operation. That is, when the work moves on the belt conveyor 50 between the time when the measurement by the three-dimensional shape measuring device 3 is performed and the time when the pick work is performed by the robot 2, the movement is detected and the work after the movement is performed. Since the measurement result by the three-dimensional shape measuring device 3 can be obtained, it is possible to suppress the failure of the picking operation by the robot 2.
- the robot 2 performs the pick work on the work, but the present invention is not limited to this, and the robot may perform the processing on the work. That is, in the above embodiment, the example in which the robot 2 has a multi-axis arm and a hand is shown, but the robot 2 is not limited to this, and the structure of the robot may be any.
- a pick position (a gripping force when the robot's hand grips the work) or the like may be set as a control parameter of the robot adjusted according to the measurement result of the three-dimensional shape measuring device.
- the transport of the work by the belt conveyor 50 is interrupted, but the present invention is not limited to this, and the size of the discharge area and the size of the discharge area are not limited to this.
- the work transfer speed may not be changed at a predetermined value, or the work transfer speed may be reduced. You may.
- the robot 2 performs a picking operation on the work conveyed by the belt conveyor 50, but the present invention is not limited to this, and the work in the stopped state not conveyed by the belt conveyor is not limited to this.
- the robot may perform the picking operation.
- the robot may perform a picking operation on a work housed in a tray.
- the picking operation is performed when the work passes through the picked position, but the present invention is not limited to this, and the belt conveyor is stopped when the work reaches the picked position. , The picking operation may be performed on the work stopped at the picked position.
- the measurement range of the three-dimensional shape measuring device 3 is set in the discharge region of the belt conveyor 50
- the measurement range of the three-dimensional shape measuring device is not limited to this, and the measurement range of the three-dimensional shape measuring device is the belt conveyor. It may be set as a whole.
- the image pickup range of the image pickup apparatus 4 is set to the entire belt conveyor 50, but the present invention is not limited to this, and the image pickup range of the image pickup apparatus is set to the discharge area of the belt conveyor. It may be.
- the present invention is not limited to this, and only the position of the work is calculated based on the imaging result of the imaging device. It may be done.
- the image pickup device 4 may be configured to image the work area of the robot 2, and the image pickup device 4 may be provided to detect the entry and exit of a person from the work area of the robot 2.
- the present invention can be used in a robot control system, a robot control method, and a program that control a robot according to the measurement result of a three-dimensional shape measuring device.
- Control device (computer) 2 Robot 3 3D shape measuring device 4 Imaging device 50 Belt conveyor 100 Robot control system
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Manufacturing & Machinery (AREA)
- Quality & Reliability (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
ロボット制御システムは、ワークに対して作業を行うロボットと、ワークの三次元形状を測定する三次元形状測定装置と、三次元形状測定装置の測定結果に応じてロボットを制御する制御装置とを備えるものであり、ワークを撮像する撮像装置を備える。撮像装置の撮像間隔は、三次元形状測定装置の測定間隔よりも小さい。制御装置は、三次元形状測定装置による測定が行われてからロボットによる作業が行われるまでの間に、撮像装置による撮像結果に基づいて、ワークの位置を算出するように構成されている。
Description
本発明は、ロボット制御システム、ロボット制御方法およびプログラムに関する。
従来、ワークをピックするピッキング装置が知られている(たとえば、特許文献1参照)。
このピッキング装置は、ワークをピックするロボットと、ワークの三次元形状を測定する三次元形状測定装置と、三次元形状測定装置の測定結果に応じてロボットを制御する制御装置とを備えている。このため、ワークの三次元形状を制御装置が把握できることから、ワークの三次元形状に応じて制御装置がロボットを動作させることにより、ロボットにワークを適切に保持させることが可能である。
ここで、上記のようなピッキング装置では、制御装置がワークの三次元形状を把握することが可能であるが、三次元形状測定装置の測定間隔が大きいので、三次元形状測定装置による測定が行われてからロボットにピック作業を行わせるまでの間にワークが動くことが考えられる。そして、ロボットによるピック作業が行われる前にワークが動いた場合には、ロボットがピック作業に失敗するおそれがある。
本発明は、上記の課題を解決するためになされたものであり、本発明の目的は、三次元形状測定装置による測定が行われてからロボットによる作業が行われるまでワークを監視することが可能なロボット制御システム、ロボット制御方法およびプログラムを提供することである。
本発明によるロボット制御システムは、ワークに対して作業を行うロボットと、ワークの三次元形状を測定する三次元形状測定装置と、三次元形状測定装置の測定結果に応じてロボットを制御する制御装置とを備えるものであり、ワークを撮像する撮像装置を備える。撮像装置の撮像間隔は、三次元形状測定装置の測定間隔よりも小さい。制御装置は、三次元形状測定装置による測定が行われてからロボットによる作業が行われるまでの間に、撮像装置による撮像結果に基づいて、ワークの位置を算出するように構成されている。
このように構成することによって、撮像装置の撮像間隔が三次元形状測定装置の測定間隔よりも小さいことにより、三次元形状測定装置による測定が行われてからロボットによる作業が行われるまでの間に、撮像装置の撮像結果に基づいてワークの位置を算出することができるので、ワークが動いたとしてもその動きを検出することができる。
本発明によるロボット制御方法は、撮像装置によってワークが撮像されるステップと、三次元形状測定装置によってワークの三次元形状が測定されるステップと、三次元形状測定装置の測定結果に応じて制御装置がロボットを制御することにより、ワークに対する作業をロボットに行わせるステップと、三次元形状測定装置による測定が行われてからロボットによる作業が行われるまでの間に、三次元形状測定装置の測定間隔よりも小さい撮像装置の撮像間隔で撮像された撮像結果に基づいて、制御装置によりワークの位置が算出されるステップとを備える。
本発明によるプログラムは、コンピュータに、ワークを撮像した撮像結果が撮像装置から入力される手順と、ワークの三次元形状を測定した測定結果が三次元形状測定装置から入力される手順と、三次元形状測定装置の測定結果に応じてロボットを制御することにより、ワークに対する作業をロボットに行わせる手順と、三次元形状測定装置による測定が行われてからロボットによる作業が行われるまでの間に、三次元形状測定装置の測定間隔よりも小さい撮像装置の撮像間隔で撮像された撮像結果に基づいて、ワークの位置を算出する手順と、を実行させるためのものである。
本発明のロボット制御システム、ロボット制御方法およびプログラムによれば、三次元形状測定装置による測定が行われてからロボットによる作業が行われるまでワークを監視することができる。
以下、本発明の一実施形態を説明する。
まず、図1を参照して、本発明の一実施形態によるロボット制御システム100の構成について説明する。
ロボット制御システム100は、たとえば工場の生産現場に適用されるものであり、生産現場においてロボット2に作業を実行させるように構成されている。このロボット制御システム100は、図1に示すように、制御装置1と、ロボット2と、三次元形状測定装置3と、撮像装置4とを備えている。たとえば、ロボット制御システム100では、ワークを搬送するベルトコンベア50が設けられており、ロボット2が行う作業は、ベルトコンベア50上のワークを掴み上げるピック作業である。
ベルトコンベア50は、ベルトおよびベルト駆動部などを有し、ベルトに載置されたワークを搬送するように構成されている。このベルトコンベア50は、ワーク搬送方向の上流側に配置される供給領域と、ワーク搬送方向の下流側に配置される排出領域と、供給領域および排出領域の間に配置される搬送領域とを含んでいる。ベルトコンベア50では、供給領域にはワークが順次載置され、そのワークが搬送領域を介して排出領域に送られるようになっている。
制御装置1は、ロボット2を含むロボット制御システム100を制御するように構成されている。この制御装置1は、演算部11と、記憶部12と、入出力部13とを含んでいる。演算部11は、記憶部12に記憶されたプログラムなどに基づいて演算処理を実行することにより、制御装置1を制御するように構成されている。記憶部12には、ロボット2を制御するためのプログラムなどが記憶されている。入出力部13には、ロボット2、三次元形状測定装置3、撮像装置4およびベルトコンベア50などが接続されている。なお、制御装置1は、本発明の「コンピュータ」の一例である。
ロボット2は、制御装置1によって制御され、たとえばピック作業を行うように構成されている。ロボット2は、多軸アームと、多軸アームの先端に設けられたエンドエフェクタとしてのハンドとを有する。多軸アームは、ハンドを移動させるために設けられ、ハンドは、ワークを保持するために設けられている。ロボット2は、ベルトコンベア50上のワークを排出領域で掴み上げ、そのワークをベルトコンベア50の外側に移動させるように構成されている。すなわち、ロボット2は、ベルトコンベア50上のワークをベルトコンベア50から排出するために設けられている。
三次元形状測定装置3は、ベルトコンベア50上のワークの三次元形状を測定するために設けられている。たとえば、三次元形状測定装置3は、測定範囲がベルトコンベア50の排出領域に設定され、ベルトコンベア50の排出領域に送られたワークの三次元形状を測定するように構成されている。三次元形状測定装置3は、レーザ光を投光する投光部、および、レーザ光の測定対象物での反射光を受光する受光部などを含み、測定対象物までの距離を算出して測定結果(3D点群データ)を生成するように構成されている。三次元形状測定装置3による三次元形状の測定間隔は、予め設定された第1時間間隔(たとえば、約1秒)に設定されている。三次元形状測定装置3の測定結果は、制御装置1に出力されるようになっている。
撮像装置4は、ベルトコンベア50上のワークを撮像するために設けられている。たとえば、撮像装置4は、撮像範囲がベルトコンベア50の全体に設定され、ベルトコンベア50の供給領域から排出領域に送られるワークを撮像するように構成されている。撮像装置4による撮像間隔は、第1時間間隔よりも小さい予め設定された第2時間間隔(たとえば、約0.01秒~約0.03秒)に設定されている。撮像装置4の撮像結果(撮像画像)は、制御装置1に出力されるようになっている。
ここで、制御装置1には、三次元形状測定装置3から第1時間間隔毎に測定結果が入力されるとともに、撮像装置4から第2時間間隔毎に撮像結果が入力されている。そして、制御装置1は、三次元形状測定装置3および撮像装置4からの入力に応じてロボット2およびベルトコンベア50を制御するように構成されている。
具体的には、制御装置1は、三次元形状測定装置3の測定結果からワークの正確な形状、位置および姿勢を把握するように構成されている。また、制御装置1は、三次元形状測定装置3の測定結果によるワークの形状、位置および姿勢と、ベルトコンベア50によるワークの搬送速度とに基づいて、ロボット2がワークをピックするときのピック位置(ロボット2のハンドの位置)、ピック姿勢(ロボット2のハンドの向き)およびピックタイミング(ロボット2のハンドがワークを掴むタイミング)を算出するように構成されている。
なお、ピックタイミングは、ベルトコンベア50によって搬送されるワークが排出領域の被ピック位置を通過するタイミングである。被ピック位置は、たとえば、ワークの位置、ベルトコンベア50によるワークの搬送速度、および、ロボット2のピック作業の準備に要する時間などに基づいて決定される。ピック位置およびピック姿勢は、たとえば、ワークの形状、姿勢および被ピック位置などに基づいて決定される。
また、制御装置1は、三次元形状測定装置3による測定が行われてからロボット2によるピック作業が行われるまでの間に、撮像装置4の撮像結果に基づいてワークの位置および姿勢を算出するように構成されている。これにより、ベルトコンベア50上でのワークの動きが監視されるようになっている。そして、制御装置1は、ベルトコンベア50上でのワークの動きが検出された場合に、ベルトコンベア50によるワークの搬送を中断して、ワークが動いた後における三次元形状測定装置3の測定結果が入力されるまで待機するように構成されている。その後、制御装置1は、ワークの移動後の測定結果が入力された場合に、その測定結果を用いてピック位置などを再計算するとともに、ベルトコンベア50によるワークの搬送を再開するように構成されている。
-ロボット制御システムの動作-
次に、図2を参照して、本実施形態によるロボット制御システム100の動作(ロボット制御方法)について説明する。なお、以下では、説明を簡略化するために、ベルトコンベア50にワークが1つずつ供給され、ベルトコンベア50上に複数のワークが載置されない場合について説明する。すなわち、ベルトコンベア50の供給領域に1つのワークが供給された後に、そのワークが排出領域から排出されるまで、新たなワークが供給領域に供給されることなく、ベルトコンベア50上の1つのワークが排出領域から排出された後に、新たなワークが供給領域に供給される場合について説明する。また、以下の各ステップは制御装置1によって実行される。
次に、図2を参照して、本実施形態によるロボット制御システム100の動作(ロボット制御方法)について説明する。なお、以下では、説明を簡略化するために、ベルトコンベア50にワークが1つずつ供給され、ベルトコンベア50上に複数のワークが載置されない場合について説明する。すなわち、ベルトコンベア50の供給領域に1つのワークが供給された後に、そのワークが排出領域から排出されるまで、新たなワークが供給領域に供給されることなく、ベルトコンベア50上の1つのワークが排出領域から排出された後に、新たなワークが供給領域に供給される場合について説明する。また、以下の各ステップは制御装置1によって実行される。
まず、三次元形状測定装置3では、第1時間間隔毎にベルトコンベア50の排出領域が測定され、その測定結果が制御装置1に出力される。また、撮像装置4では、第1時間間隔よりも小さい第2時間間隔毎にベルトコンベア50の全体が撮像され、その撮像結果が制御装置1に出力される。
そして、ベルトコンベア50の供給領域にワークが供給されると、そのワークがベルトコンベア50によって供給領域から排出領域に向けて搬送される。このとき、ワークがベルトコンベア50の供給領域に載置されると、撮像装置4から出力される撮像結果にワークが含まれるようになる。また、ベルトコンベア50によってワークが排出領域まで搬送されると、三次元形状測定装置3から出力される測定結果にワークが含まれるようになる。
なお、ベルトコンベア50によるワークの搬送速度は、所定値になるように制御装置1によって調整される。この所定値は、予め設定された値であり、たとえば、ワークが排出領域に位置するときに三次元形状測定装置3による三次元形状の測定が少なくとも1回以上行われるとともに、三次元形状測定装置3による三次元形状の測定後にロボット2がピック作業を完了可能なように設定されている。
制御装置1では、図2のステップS1において、ワークを含む撮像結果が撮像装置4から入力されたか否かが判断される。そして、ワークを含む撮像結果が撮像装置4から入力されたと判断された場合には、ステップS2に移る。なお、この場合、ワークがベルトコンベア50に載置されている。その一方、ワークを含む撮像結果が撮像装置4から入力されていないと判断された場合(撮像結果が入力されていない場合、および、ワークを含まない撮像結果が入力された場合)には、ステップS3に移る。
次に、ステップS2において、ステップS1で入力された撮像結果に基づいて、ワークの位置および姿勢が算出される。その後、ステップS3に移る。
次に、ステップS3において、ワークを含む測定結果が三次元形状測定装置3から入力されたか否かが判断される。そして、ワークを含む測定結果が三次元形状測定装置3から入力されたと判断された場合には、ステップS4に移る。なお、この場合、ワークがベルトコンベア50によって排出領域まで搬送されている。その一方、ワークを含む測定結果が三次元形状測定装置3から入力されていないと判断された場合(測定結果が入力されていない場合、および、ワークを含まない測定結果が入力された場合)には、ステップS1に戻る。
次に、ステップS4において、ロボット2がワークをピックする際のピック位置などが計算される。具体的には、ステップS3で入力された測定結果に基づいて、ワークの正確な形状、位置および姿勢が把握される。そして、それらワークの形状、位置および姿勢と、ベルトコンベア50によるワークの搬送速度とに基づいて、ロボット2がワークをピックするときのピック位置、ピック姿勢およびピックタイミングが算出される。
次に、ステップS5において、撮像装置4から撮像結果が入力されたか否かが判断される。このとき、ワークがベルトコンベア50の排出領域に配置されており、撮像結果が入力された場合には、その撮像結果にワークが含まれている。そして、撮像装置4から撮像結果が入力されたと判断された場合には、ステップS6に移る。その一方、撮像装置4から撮像結果が入力されていないと判断された場合には、ステップS11に移る。
次に、ステップS6において、ステップS5で入力された撮像結果に基づいて、ワークの位置および姿勢が算出される。
次に、ステップS7において、撮像装置4の撮像結果に基づくワークの位置および姿勢を用いて、ベルトコンベア50上でワークが動いたか否かが判断される。すなわち、ベルトコンベア50によるワークの搬送分の移動を除いた上で、ワークの動きが検出されたか否かが判断される。たとえば、今回の撮像結果に基づくワークの位置および姿勢が、前回の測定結果または撮像結果に基づくワークの位置および姿勢とベルトコンベア50によるワークの搬送速度とから推定される現在のワークの位置および姿勢と一致する場合に、ワークが動いていないと判断される。そして、ベルトコンベア50上でワークが動いたと判断された場合には、ステップS8に移る。その一方、ベルトコンベア50上でワークが動いていないと判断された場合には、ステップS11に移る。
次に、ステップS8において、ベルトコンベア50によるワークの搬送が中断される。すなわち、ベルトコンベア50が一時的に停止される。
次に、ステップS9において、三次元形状測定装置3から測定結果が入力されたか否かが判断される。このとき、ワークがベルトコンベア50の排出領域に配置されており、測定結果が入力された場合には、その測定結果にワークが含まれている。そして、三次元形状測定装置3から測定結果が入力されたと判断された場合には、ステップS10に移る。その一方、三次元形状測定装置3から測定結果が入力されていないと判断された場合には、ステップS9が繰り返し行われる。すなわち、制御装置1は、三次元形状測定装置3から測定結果が入力されるまで待機する。
次に、ステップS10において、ピック位置などが再計算されるとともに、ワークの搬送が再開される。具体的には、ステップS9で入力された測定結果に基づいて、ベルトコンベア50上で動いた後のワークの正確な形状、位置および姿勢が把握される。そして、移動後のワークの形状、位置および姿勢と、ベルトコンベア50によるワークの搬送再開タイミングおよびその際の搬送速度とに基づいて、ロボット2が移動後のワークをピックするときのピック位置、ピック姿勢およびピックタイミングが算出される。
次に、ステップS11において、ベルトコンベア50の排出領域における被ピック位置にワークが到達するか否かが判断される。すなわち、三次元形状測定装置3の測定結果に基づくピックタイミングが到来するか否かが判断される。そして、ワークが被ピック位置に到達すると判断された場合には、ステップS14に移る。その一方、ワークが被ピック位置に到達しないと判断された場合には、ステップS12に移る。
そして、ステップS14では、ロボット2によるワークのピック作業が行われる。すなわち、ベルトコンベア50により搬送されるワークが被ピック位置を通過する際にロボット2によって掴み上げられる。その後、リターンに移る。
また、ステップS12では、三次元形状測定装置3から測定結果が入力されたか否かが判断される。そして、三次元形状測定装置3から測定結果が入力されたと判断された場合には、ステップS13において、その入力された測定結果に基づいてピック位置などが再計算され、ステップS5に戻る。すなわち、ワークを含む測定結果が複数回入力された場合には、最新の測定結果(後で入力された測定結果)を用いてピック位置などが算出(更新)される。その一方、三次元形状測定装置3から測定結果が入力されていないと判断された場合には、ステップS5に戻る。
-効果-
本実施形態では、上記のように、三次元形状測定装置3の測定間隔よりも撮像間隔が小さい撮像装置4を設けることによって、三次元形状測定装置3による測定が行われてからロボット2によるピック作業が行われるまでの間に、撮像装置4の撮像結果に基づいてワークの位置を算出することができるので、ベルトコンベア50上でワークが動いたとしてもその動きを検出することができる。これにより、三次元形状測定装置3による測定が行われてからロボット2によるピック作業が行われるまでベルトコンベア50上のワークを監視することができる。つまり、ワークの正確な形状などを把握することが可能な三次元形状測定装置3における測定間隔が大きいという短所を、撮像間隔の小さい撮像装置4を設けてワークを監視することで補うことができる。
本実施形態では、上記のように、三次元形状測定装置3の測定間隔よりも撮像間隔が小さい撮像装置4を設けることによって、三次元形状測定装置3による測定が行われてからロボット2によるピック作業が行われるまでの間に、撮像装置4の撮像結果に基づいてワークの位置を算出することができるので、ベルトコンベア50上でワークが動いたとしてもその動きを検出することができる。これにより、三次元形状測定装置3による測定が行われてからロボット2によるピック作業が行われるまでベルトコンベア50上のワークを監視することができる。つまり、ワークの正確な形状などを把握することが可能な三次元形状測定装置3における測定間隔が大きいという短所を、撮像間隔の小さい撮像装置4を設けてワークを監視することで補うことができる。
また、本実施形態では、ベルトコンベア50上でのワークの動きが検出された場合に、ベルトコンベア50によるワークの搬送が中断され、三次元形状測定装置3の測定結果が入力されるまで待機することによって、動いた後のワークの正確な形状、位置および姿勢を把握することができるので、ロボット2のピック作業が失敗するのを抑制することができる。すなわち、三次元形状測定装置3による測定が行われてからロボット2によるピック作業が行われるまでの間に、ベルトコンベア50上でワークが動いた場合に、その動きを検出して移動後のワークについての三次元形状測定装置3による測定結果を得ることができるので、ロボット2によるピック作業が失敗するのを抑制することができる。
また、本実施形態では、撮像装置4による撮像結果に基づいてワークの位置および姿勢を算出することによって、ベルトコンベア50上でのワークの動きの検出精度の向上を図ることができる。
-他の実施形態-
なお、今回開示した実施形態は、すべての点で例示であって、限定的な解釈の根拠となるものではない。したがって、本発明の技術的範囲は、上記した実施形態のみによって解釈されるものではなく、特許請求の範囲の記載に基づいて画定される。また、本発明の技術的範囲には、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。
なお、今回開示した実施形態は、すべての点で例示であって、限定的な解釈の根拠となるものではない。したがって、本発明の技術的範囲は、上記した実施形態のみによって解釈されるものではなく、特許請求の範囲の記載に基づいて画定される。また、本発明の技術的範囲には、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。
たとえば、上記実施形態では、ロボット2がワークに対してピック作業を行う例を示したが、これに限らず、ロボットがワークに対して加工などを行うようにしてもよい。すなわち、上記実施形態では、ロボット2が多軸アームおよびハンドを有する例を示したが、これに限らず、ロボットの構造はどのようなものであってもよい。
また、上記実施形態では、三次元形状測定装置3の測定結果に応じて調整されるロボット2の制御パラメータとして、ピック位置、ピック姿勢およびピックタイミングが設定される例を示したが、これに限らず、三次元形状測定装置の測定結果に応じて調整されるロボットの制御パラメータとして、ピック力(ロボットのハンドがワークを掴むときの把持力)などが設定されるようにしてもよい。
また、上記実施形態では、ベルトコンベア50上でのワークの動きが検出された場合に、ベルトコンベア50によるワークの搬送が中断される例を示したが、これに限らず、排出領域の広さやワークの搬送速度によっては、ベルトコンベア上でのワークの動きが検出された場合に、ワークの搬送速度が所定値のまま変化されないようにしてもよいし、ワークの搬送速度が低下されるようにしてもよい。
また、上記実施形態では、ベルトコンベア50によって搬送されるワークに対してロボット2がピック作業を行う例を示したが、これに限らず、ベルトコンベアによって搬送されていない停止状態のワークに対してロボットがピック作業を行うようにしてもよい。たとえば、トレイに収容されたワークに対してロボットがピック作業を行うようにしてもよい。
また、上記実施形態では、ワークが被ピック位置を通過する際にピック作業が行われる例を示したが、これに限らず、ワークが被ピック位置に到達したときにベルトコンベアを停止させることにより、被ピック位置で停止状態のワークに対してピック作業が行われるようにしてもよい。
また、上記実施形態では、ベルトコンベア50上に複数のワークが載置されない例を示したが、これに限らず、ベルトコンベア上に複数のワークが載置されるようにしてもよい。すなわち、ベルトコンベアによって搬送されるワークが排出領域から排出される前に、新たなワークが供給領域に供給されるようにしてもよい。
また、上記実施形態では、三次元形状測定装置3の測定範囲がベルトコンベア50の排出領域に設定される例を示したが、これに限らず、三次元形状測定装置の測定範囲がベルトコンベアの全体に設定されるようにしてもよい。
また、上記実施形態では、撮像装置4の撮像範囲がベルトコンベア50の全体に設定される例を示したが、これに限らず、撮像装置の撮像範囲がベルトコンベアの排出領域に設定されるようにしてもよい。
また、上記実施形態では、撮像装置4の撮像結果に基づいてワークの位置および姿勢が算出される例を示したが、これに限らず、撮像装置の撮像結果に基づいてワークの位置のみが算出されるようにしてもよい。
また、上記実施形態において、撮像装置4がロボット2の作業領域を撮像するように構成され、撮像装置4がロボット2の作業領域に対する人の入出を検出するために設けられていてもよい。
本発明は、三次元形状測定装置の測定結果に応じてロボットを制御するロボット制御システム、ロボット制御方法およびプログラムに利用可能である。
1 制御装置(コンピュータ)
2 ロボット
3 三次元形状測定装置
4 撮像装置
50 ベルトコンベア
100 ロボット制御システム
2 ロボット
3 三次元形状測定装置
4 撮像装置
50 ベルトコンベア
100 ロボット制御システム
Claims (3)
- ワークに対して作業を行うロボットと、
ワークの三次元形状を測定する三次元形状測定装置と、
前記三次元形状測定装置の測定結果に応じて前記ロボットを制御する制御装置とを備えるロボット制御システムであって、
ワークを撮像する撮像装置を備え、
前記撮像装置の撮像間隔は、前記三次元形状測定装置の測定間隔よりも小さく、
前記制御装置は、前記三次元形状測定装置による測定が行われてから前記ロボットによる作業が行われるまでの間に、前記撮像装置による撮像結果に基づいて、ワークの位置を算出するように構成されていることを特徴とするロボット制御システム。 - 撮像装置によってワークが撮像されるステップと、
三次元形状測定装置によってワークの三次元形状が測定されるステップと、
前記三次元形状測定装置の測定結果に応じて制御装置がロボットを制御することにより、ワークに対する作業を前記ロボットに行わせるステップと、
前記三次元形状測定装置による測定が行われてから前記ロボットによる作業が行われるまでの間に、前記三次元形状測定装置の測定間隔よりも小さい前記撮像装置の撮像間隔で撮像された撮像結果に基づいて、前記制御装置によりワークの位置が算出されるステップとを備えることを特徴とするロボット制御方法。 - コンピュータに、
ワークを撮像した撮像結果が撮像装置から入力される手順と、
ワークの三次元形状を測定した測定結果が三次元形状測定装置から入力される手順と、
前記三次元形状測定装置の測定結果に応じてロボットを制御することにより、ワークに対する作業を前記ロボットに行わせる手順と、
前記三次元形状測定装置による測定が行われてから前記ロボットによる作業が行われるまでの間に、前記三次元形状測定装置の測定間隔よりも小さい前記撮像装置の撮像間隔で撮像された撮像結果に基づいて、ワークの位置を算出する手順と、
を実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202080067624.9A CN114450133A (zh) | 2019-09-30 | 2020-09-29 | 机器人控制系统、机器人控制方法以及程序 |
US17/761,213 US20220371201A1 (en) | 2019-09-30 | 2020-09-29 | Robot control system, robot control method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019179127A JP7313049B2 (ja) | 2019-09-30 | 2019-09-30 | ロボット制御システム、ロボット制御方法およびプログラム |
JP2019-179127 | 2019-09-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021065880A1 true WO2021065880A1 (ja) | 2021-04-08 |
Family
ID=75269299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/036823 WO2021065880A1 (ja) | 2019-09-30 | 2020-09-29 | ロボット制御システム、ロボット制御方法およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220371201A1 (ja) |
JP (1) | JP7313049B2 (ja) |
CN (1) | CN114450133A (ja) |
WO (1) | WO2021065880A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7516219B2 (ja) * | 2020-11-19 | 2024-07-16 | 株式会社ミツトヨ | 測定装置、制御装置、制御方法及びプログラム |
JP2024145678A (ja) * | 2023-03-31 | 2024-10-15 | Johnan株式会社 | ロボット制御システム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03161223A (ja) * | 1989-11-17 | 1991-07-11 | Kawasaki Heavy Ind Ltd | ワークのはめ合い方法 |
JPH10315167A (ja) * | 1997-05-16 | 1998-12-02 | Daihatsu Motor Co Ltd | ワークのピッキング装置 |
JP2013086230A (ja) * | 2011-10-20 | 2013-05-13 | Yaskawa Electric Corp | 対象物加工システム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3161223B2 (ja) | 1994-05-12 | 2001-04-25 | ブラザー工業株式会社 | ファクシミリ装置 |
DE102007028680A1 (de) * | 2007-06-21 | 2008-12-24 | Elau Elektronik-Automations-Ag | Gruppierungsstation |
EP2075096A1 (de) * | 2007-12-27 | 2009-07-01 | Leica Geosystems AG | Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum |
US8930009B2 (en) * | 2011-10-20 | 2015-01-06 | Kabushiki Kaisha Yaskawa Denki | Robot system and processed object manufacturing method |
JP6500852B2 (ja) * | 2016-07-11 | 2019-04-17 | 株式会社安川電機 | ロボットシステム、ロボットの制御方法、ロボットコントローラ |
US10386792B2 (en) * | 2016-10-19 | 2019-08-20 | Ants Technology (Hk) Limited | Sensory systems for autonomous devices |
JP6450726B2 (ja) * | 2016-10-26 | 2019-01-09 | ファナック株式会社 | ロボットの動作をシミュレーションするシミュレーション装置、およびシミュレーション方法 |
JP6450727B2 (ja) * | 2016-10-28 | 2019-01-09 | ファナック株式会社 | ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体 |
CN109454638A (zh) * | 2018-10-31 | 2019-03-12 | 昆山睿力得软件技术有限公司 | 一种基于视觉引导的机器人抓取系统 |
JP7513381B2 (ja) * | 2019-09-27 | 2024-07-09 | ファナック株式会社 | ワークを検出する検出システム |
US11243507B2 (en) * | 2020-04-29 | 2022-02-08 | Grale Technologies | Morphic manufacturing |
KR20230020843A (ko) * | 2021-08-04 | 2023-02-13 | 현대자동차주식회사 | 배송 로봇 제어 장치 및 그 방법 |
WO2024091617A1 (en) * | 2022-10-27 | 2024-05-02 | Berkshire Grey Operating Company, Inc. | Systems and methods for automated packaging and processing with object placement pose control |
US20240144494A1 (en) * | 2022-10-31 | 2024-05-02 | Chef Robotics, Inc. | System and/or method for conveyor motion estimation |
-
2019
- 2019-09-30 JP JP2019179127A patent/JP7313049B2/ja active Active
-
2020
- 2020-09-29 WO PCT/JP2020/036823 patent/WO2021065880A1/ja active Application Filing
- 2020-09-29 CN CN202080067624.9A patent/CN114450133A/zh active Pending
- 2020-09-29 US US17/761,213 patent/US20220371201A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03161223A (ja) * | 1989-11-17 | 1991-07-11 | Kawasaki Heavy Ind Ltd | ワークのはめ合い方法 |
JPH10315167A (ja) * | 1997-05-16 | 1998-12-02 | Daihatsu Motor Co Ltd | ワークのピッキング装置 |
JP2013086230A (ja) * | 2011-10-20 | 2013-05-13 | Yaskawa Electric Corp | 対象物加工システム |
Also Published As
Publication number | Publication date |
---|---|
US20220371201A1 (en) | 2022-11-24 |
JP2021053742A (ja) | 2021-04-08 |
JP7313049B2 (ja) | 2023-07-24 |
CN114450133A (zh) | 2022-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101485722B1 (ko) | 화상 처리 장치 및 화상 처리 시스템 | |
US10232512B2 (en) | Coordinate system setting method, coordinate system setting apparatus, and robot system provided with coordinate system setting apparatus | |
JP4174342B2 (ja) | ワーク搬送装置 | |
US20070179671A1 (en) | Tracking and handling device | |
WO2009148089A1 (ja) | ハンドリング装置、制御装置、制御方法およびプログラム | |
US20170043477A1 (en) | Robot system with visual sensor and a plurality of robots | |
CN109108959B (zh) | 机器人系统 | |
JP2005111607A (ja) | ロボット物流トラッキング装置 | |
WO2021065880A1 (ja) | ロボット制御システム、ロボット制御方法およびプログラム | |
CN108372503B (zh) | 使用至少一个传感器的物品运送装置 | |
JP5198155B2 (ja) | ハンドリング装置、ワークハンドリング方法および信号処理装置 | |
JP2016147330A (ja) | 物体認識に基づく制御装置 | |
US11230005B2 (en) | Following robot and work robot system | |
US11752621B2 (en) | Article transport system having plurality of movable parts | |
JP2013132726A (ja) | ロボットの制御方法、及びロボット | |
CN111085993A (zh) | 与人进行协同作业的机器人系统以及机器人控制方法 | |
JP5198161B2 (ja) | ハンドリング装置およびワークハンドリング方法 | |
JP6697510B2 (ja) | ロボットシステム | |
TWI727851B (zh) | 於弧形路徑中控制端效器追蹤物件的方法 | |
JP5353718B2 (ja) | 制御装置、ロボット、ロボットシステム及びロボットの追従制御方法 | |
CN115599092B (zh) | 一种工件搬运控制方法、装置、设备及存储介质 | |
JP2019214122A (ja) | 作業システム | |
US11660757B2 (en) | Robot control system simultaneously performing workpiece selection and robot task | |
US20220234201A1 (en) | Control method for robot system and robot system | |
WO2024203035A1 (ja) | ロボット制御システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20871420 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20871420 Country of ref document: EP Kind code of ref document: A1 |