WO2017183414A1 - 物体操作装置及び物体操作方法 - Google Patents

物体操作装置及び物体操作方法 Download PDF

Info

Publication number
WO2017183414A1
WO2017183414A1 PCT/JP2017/013407 JP2017013407W WO2017183414A1 WO 2017183414 A1 WO2017183414 A1 WO 2017183414A1 JP 2017013407 W JP2017013407 W JP 2017013407W WO 2017183414 A1 WO2017183414 A1 WO 2017183414A1
Authority
WO
WIPO (PCT)
Prior art keywords
gripping
control unit
operating
distance
operation control
Prior art date
Application number
PCT/JP2017/013407
Other languages
English (en)
French (fr)
Inventor
幸康 堂前
亮輔 川西
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to US16/082,371 priority Critical patent/US11065767B2/en
Priority to JP2018513093A priority patent/JP6548816B2/ja
Priority to CN201780024149.5A priority patent/CN109070365B/zh
Priority to DE112017002114.6T priority patent/DE112017002114T5/de
Publication of WO2017183414A1 publication Critical patent/WO2017183414A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects

Definitions

  • the present invention relates to an object operation device and an object operation method that are automatic machines that grip and operate an object while sharing a work space with a person.
  • Patent Documents 1 and 2 are disclosed.
  • Patent Document 1 discloses that an automatic machine detects the position of a person and changes the operation speed of the automatic machine according to the distance between the automatic machine and the person in order to achieve both safety and efficiency. .
  • safe operation is realized by reducing the operation speed of the automatic machine
  • efficient operation is realized by increasing the operation speed of the automatic machine.
  • Patent Document 2 discloses that both safety and work efficiency are achieved by switching operation modes. In other words, depending on the distance of a person (referred to as a moving body in Patent Document 2), the automatic machine is stopped or the automatic machine is operated at a low output, thereby ensuring safety and ensuring work safety. Efficiency is also secured.
  • An object of the present invention is an object operating device that can solve the above-described problems and achieves both safety and efficiency, and can realize an efficient operation even when a person is near To provide an operating device and an object operating method.
  • An object operating device includes: In an object operating device comprising at least one sensor and at least one gripping device, and gripping and operating at least one object by the gripping device, An object recognition unit for recognizing the position and orientation of the object based on the measurement data of the sensor; A distance calculation unit that calculates a distance from the object to an object different from both the object operating device and the object; An operation control unit for operating the gripping device based on the position and orientation of the object and the distance from the object to the object; When the object operating device has a plurality of selectable objects, the operation control unit selects one of the objects whose distance to the object exceeds a predetermined threshold value and selects the object by the gripping device. It is characterized by operation.
  • the object operating device selects an object that can be efficiently operated while judging the possibility of collision with a person. Therefore, the object operating device can operate efficiently rather than simply reducing the operation speed of the device. Can be realized.
  • FIG. 2 is an overall process flowchart executed by the object operating device of FIG. 1. It is a processing flowchart performed by the operation control part of the object operating device of FIG. It is a hardware block diagram which shows the object operating device which concerns on Embodiment 2 of this invention. It is a functional diagram which shows the object operating device of FIG. FIG. 6 is an overall processing flowchart executed by the object operating device of FIG. 5. It is a figure which shows the safe distance calculated based on the arbitrary surface information on the space defined beforehand. It is a hardware block diagram which shows the object operating device which concerns on Embodiment 3 of this invention.
  • FIG. 10 is a process flow diagram of an operation control unit for selecting a gripping device that realizes a safe operation and an object, which is executed by the object operation device of FIG. 9. It is a figure which shows the difference in the operation direction at the time of the holding
  • FIG. 10 is a process flow diagram for calculating safety in the operation direction for each gripping device, which is executed by the object operating device in FIG. 9.
  • FIG. 10 is a processing flow diagram of an operation control unit for selecting a gripping device and an object that realize a safe and efficient operation, which is executed by the object operating device of FIG. 9.
  • FIG. 10 is a process flow diagram of an operation control unit for selecting a gripping device and an object that realize a safe and efficient operation, which is executed by the object operating device of FIG. 9.
  • FIG. 10 is a process flow diagram of a gripping method, a gripping device, and an operation control unit for selecting an object that realizes a safe and efficient operation performed by the object manipulation device of FIG. 9. It is a hardware block diagram which shows the object operating device which concerns on Embodiment 4 of this invention.
  • FIG. 16 is a functional diagram showing the object operating device of FIG. 15.
  • FIG. 16 is a first overall process flowchart executed by the operation control unit of the object operating device in FIG. 15.
  • FIG. 16 is a second overall process flow diagram executed by the operation control unit of the object operating device in FIG. 15.
  • FIG. 20 is an overall processing flowchart executed by the operation control unit of the object operating device in FIG. 19.
  • FIG. FIG. 1 is a hardware configuration diagram showing an object operating device according to Embodiment 1 of the present invention.
  • the object operating device in FIG. 1 includes at least one sensor and at least one gripping device, and grips and operates at least one object to be operated (hereinafter referred to as a target) by the gripping device.
  • the information processing apparatus 4 includes a central processing unit (CPU) 41, a read-only memory (ROM) 42 that stores an execution program, a random access memory (RAM) 43 that stores input / output signals, an input device 44 that receives human operations, A display device 45 for presenting information to a person is provided.
  • the input device 44 includes, for example, a mouse, a keyboard, a gesture recognition camera, a wearable acceleration sensor, and the like.
  • the display device 45 includes, for example, a display.
  • the moving device 1 is a device that moves the sensor 2, the gripping device 3, and the sensor 5, and grips the sensor 2 or 5 at a position for operating the object in order to move the sensor 2 or 5 to the viewpoint for measurement. Used to move the device 3.
  • the moving device here is a device having a function of moving by automatic control based on an operation command, and may be a device that combines a robot, a manipulator, a moving carriage, a linear movement axis, and a plurality of movement axes.
  • Sensor 2 measures the periphery of the object operating device and recognizes the position and orientation of the object.
  • the sensor 2 is a camera or a three-dimensional vision sensor.
  • Sensor 2 includes pinhole camera, range finder camera, view camera, light field camera, stereo camera, active stereo camera, passive stereo camera, photometric stereo system, sensor using Time-of-Flight method, spatial coding method
  • a sensor using a sensor, a sensor using Structured Light method, or a laser scanner may be used.
  • the gripping device 3 is a mechanism for operating an object around the object operating device.
  • the gripping device 3 may be an adsorption-type gripping device that picks up and picks up an object, or may be a pinching-type gripping device that picks up and grips an object. Further, the number of nozzles of the suction-type gripping device, the number of fingers and nails of the sandwiching-type gripping device, and the shape thereof can be arbitrarily selected.
  • the sensor 5 measures the periphery of the object manipulating device and recognizes an object different from both the object manipulating device and the object around the object manipulating device, for example, the position and posture of a person around the object manipulating device.
  • the sensor 5 may be a camera or a three-dimensional vision sensor, or may be a sensor that detects sound waves, heat, light, vibration, or magnetism.
  • the camera or 3D vision sensor is a pinhole camera, range finder camera, view camera, light field camera, stereo camera, active stereo camera, passive stereo camera, photometric stereo system, Time-of-Flight
  • Sensors that detect sound waves, heat, light, vibration, or magnetism are optical sensors, photoelectric elements, photodiodes, infrared sensors, radiation sensors, magnetic sensors, ultrasonic distance meters, capacitance displacement meters, and optical position sensors. May be. It is obvious that the sensor 2 and the sensor 5 may be unified by one sensor of the same method, and the recognition of the position and posture of the object and the person may be realized by one sensor.
  • FIG. 2 is a functional diagram showing the object operating device of FIG.
  • the information processing apparatus 4 functionally includes an object recognition unit 4a, a person recognition unit 4b, a safe distance calculation unit 4c, and an operation control unit 4d.
  • the object recognition unit 4a recognizes the position and orientation of the object based on the measurement data of the object by the sensor 2.
  • the person recognition unit 4b recognizes the position and posture of the person around the object operating device based on the measurement data of the person by the sensor 5.
  • the safe distance calculation unit 4c calculates the distance from the object to an object different from both the object operating device and the object as the safety distance of the object.
  • the safe distance calculation unit 4c calculates the safe distance of the object based on the position and posture of the person and the position and posture of the object.
  • the operation control unit 4d generates an operation command for operating the gripping device 3 to grip the target object based on the position and orientation of the target object and the safe distance of the target object.
  • “safe” means that the possibility that the robot collides with a person is low.
  • the object recognition unit 4a recognizes the position and orientation of the object based on the measurement data of the sensor 2.
  • the background area is deleted from the camera image, the 3D vision sensor image, the distance image, the point cloud data, etc., and the center of gravity of the object area is calculated, or the object model is displayed as the image, the distance image.
  • the position of the object can also be defined from the area of the object in the image.
  • the center of gravity of the area may be defined as the position of the object, and the position of a point on the surface of the area closest to a specific position in space may be defined as the position of the object.
  • chamfer matching, template matching, iterative closest point method, feature extraction, hashing, machine learning methods including deep learning, reinforcement learning methods, and their derivative technologies may be applied.
  • the person recognition unit 4b recognizes the position and posture of the person around the object operating device based on the measurement data of the person by the sensor 5.
  • the position of a person can be recognized by a general computer vision technique.
  • it uses a light sensor, photoelectric element, photodiode, infrared sensor, radiation sensor, magnetic sensor, ultrasonic distance meter, capacitance displacement meter, optical position sensor, etc.
  • the position and posture of the person and the region of the person may be calculated by calculating the position closest to the mobile device 1 and calculating the direction vector with respect to the mobile device 1 from this position as the posture.
  • the position of the person may be defined from the area of the person.
  • the center of gravity of the area may be defined as the position of the person, and the position of the point on the surface of the area closest to the specific position in space may be defined as the position of the person.
  • the position of the person can be calculated.
  • the safe distance calculation unit 4c calculates the safe distance of the object based on the position and orientation of the person and the position and orientation of the object.
  • the safe distance here is how close the person and the object are to each other, and the distance between the position of the person and the position of the object is defined as the safe distance.
  • the safety distance is calculated between each person and each object.
  • the operation control unit 4d generates an operation command for operating the gripping device 3 so as to grip the target object based on the position and posture of the target object and the safe distance of the target object.
  • the operation control unit selects one of the objects whose safety distance exceeds a predetermined threshold value and operates the gripping device 3.
  • FIG. 3 is an overall processing flowchart executed by the object operating device of FIG.
  • the information processing apparatus 4 measures an object using the sensor 2.
  • the information processing apparatus 4 recognizes the position and orientation of the target by the object recognition unit 4a.
  • the information processing apparatus 4 measures a person with the sensor 5.
  • the information processing apparatus 4 recognizes the position and posture of the person by the person recognition unit 4b.
  • the information processing apparatus 4 calculates the safety distance for each object by the safety distance calculation unit 4c.
  • step S6 the information processing apparatus 4 determines whether or not there is another object within the safe distance range by the operation control unit 4d. If YES, the process proceeds to step S7. If NO, step S9 is performed. Proceed to In step S7, the information processing apparatus 4 executes the operation plan process of FIG. 4 by the operation control unit 4d.
  • FIG. 4 is a processing flowchart executed by the operation control unit 4d of the object operating device of FIG.
  • the operation control unit 4d according to the first embodiment determines which object is safe and efficient when there are a plurality of objects around the object operating device, and the operation according to the operation Generate and output a command.
  • step S11 of FIG. 4 the operation control unit 4d selects one of a plurality of objects.
  • step S12 the operation control unit 4d determines whether or not the safety distance of the object exceeds the threshold value. If YES, the process proceeds to step S13. If NO, the process proceeds to step S16.
  • the threshold value is based on the operating speed of the moving device 1 and the gripping device 3, the weight of the moving device 1 and the gripping device 3, and the force applied to the other side when the moving device 1 and the gripping device 3 collide.
  • the threshold value is determined so that the safety distance becomes longer when the operating speed, weight, and force applied to the other side of the collision are large, and the influence and damage are reduced even if the person collides.
  • the operation control unit 4d increases the threshold value as the weight and speed of the gripping device 3 increase, and decreases the threshold value as the weight and speed of the gripping device 3 decreases. decide.
  • the object When the safety distance of a certain object is less than or equal to the threshold value, the object is not regarded as a gripping candidate, and the operation planning process is continued for the next object.
  • the grasping posture of the grasping device 3 when grasping the object is calculated with the object as a grasping candidate.
  • step S13 the operation control unit 4d calculates the gripping posture of the gripping device 3 for gripping the target object based on the position and posture of the target object.
  • step S14 the operation control unit 4d determines whether or not the gripping posture calculated in step S13 can be moved from the current position of the gripping device 3. If YES, the process proceeds to step S15. If NO, Advances to step S16. This is performed by determining whether or not the interference between the object operating device and the surrounding environment does not occur and whether or not the kinematics of the mobile device 1 can be solved.
  • step S15 the operation control unit 4d calculates the moving time from the current position of the gripping device 3.
  • step S16 the operation control unit 4d determines whether or not calculation has been performed for all the objects. If YES, the process proceeds to step S18, and if NO, the process proceeds to step S17.
  • step S ⁇ b> 17 the operation control unit 4 d selects the next object among the plurality of objects.
  • step S ⁇ b> 18 the operation control unit 4 d selects an object that minimizes the movement time of the gripping device from among the objects whose safety distance exceeds the threshold value.
  • step S ⁇ b> 19 the operation control unit 4 d selects the gripping posture of the gripping device 3 that makes the work most efficient. Thereby, the operation control unit 4d determines an operation plan for moving the gripping device 3 to the object selected in step S18 and the gripping posture selected in step S19.
  • step S8 in FIG. 3 the information processing apparatus 4 issues an operation command based on the operation plan determined in step S7.
  • the information processing device 4 finally selects the gripping posture of the gripping device 3 that takes the shortest movement time and the corresponding object, and outputs an operation command for gripping the target.
  • step S9 of FIG. 3 the information processing apparatus 4 notifies the user that operation safety is necessary.
  • the operation speed of the moving device 1 and the gripping device 3 is decreased, the work of the object operating device is changed, and the object operating device is stopped. It is necessary to perform a process for making the operation safe, such as issuing a warning to the surrounding area. Therefore, the information processing apparatus 4 may notify the user to make the operation safe, or may automatically perform any of the above-described processes for making the operation safe.
  • a condition that the moving time is the shortest is preset in the information processing apparatus 4 as the priority for selecting the object.
  • the information processing apparatus 4 selects an object to be gripped according to the set priority.
  • the information processing apparatus 4 desirably selects an object with the shortest travel time, but an object having a travel time shorter than the travel time related to at least one other object (that is, the travel time).
  • the second, third,... Object that is the shortest may be selected.
  • the information processing device 4 may select any one or a plurality of objects whose moving time is shorter than a predetermined threshold value.
  • the object operating device since the object and the gripping method that can be efficiently operated are selected while judging the possibility of collision with a person, rather than simply reducing the operation speed of the device. Can work efficiently.
  • the object operating device in an environment where an object operating device, a plurality of objects, and a person are present, it is determined which of the plurality of objects is safe and efficient. Therefore, when a person approaches, more efficient work can be realized than when the operation speed is simply reduced.
  • FIG. FIG. 5 is a hardware configuration diagram showing an object operating device according to Embodiment 2 of the present invention.
  • the object operating device in FIG. 5 includes an information processing device 4A instead of the information processing device 4 and the sensor 5 in FIG.
  • the information processing apparatus 4A includes an auxiliary storage device 46 in addition to the components of the information processing apparatus 4 in FIG.
  • the auxiliary storage device 46 is, for example, a hard disk drive or a solid state drive.
  • the information processing apparatus 4A includes an auxiliary storage device 46 instead of being connected to a sensor that recognizes a person.
  • the auxiliary storage device 46 stores in advance a distance from the object to an object that is different from both the object operating device and the object.
  • the auxiliary storage device 46 stores, for example, information on an arbitrary point or surface on a predetermined space related to safety.
  • the information processing apparatus 4A refers to the information stored in the auxiliary storage device 46, rather than recognizing a person based on the measurement data of the sensor, thereby ensuring safety while making the work more efficient. Can do.
  • FIG. 6 is a functional diagram showing the object operating device of FIG.
  • the information processing apparatus 4A in FIG. 6 functionally has a database (DB) 4e instead of the person recognition unit 4b in FIG.
  • the database 4e exists on the auxiliary storage device 46 and stores information on an arbitrary point or surface on a predetermined space.
  • the safe distance calculation unit 4c calculates the safe distance of the object based on the information in the database 4e and the position and orientation of the object.
  • FIG. 7 shows an overall process flow diagram of the object operating device of FIG.
  • the information processing apparatus 4 ⁇ / b> A measures the object using the sensor 2.
  • the information processing apparatus 4A recognizes the position and orientation of the target by the object recognition unit 4a.
  • the information processing apparatus 4A calculates the safety distance for each object by the safety distance calculation unit 4c.
  • the information processing apparatus 4A executes an operation plan process by the operation control unit 4d.
  • the information processing apparatus 4A issues an operation command based on the operation plan determined in step S24. Since the person recognition unit in FIG. 2 does not exist, an operation plan for the object can be determined by measuring the object with the sensor 2.
  • the change from Embodiment 1 is in the calculation method of the safe distance for every target object.
  • FIG. 8 is a diagram showing a safety distance calculated based on information on an arbitrary surface on a predetermined space according to the second embodiment of the present invention.
  • the auxiliary storage device 46 stores information on an arbitrary surface 8 determined in advance. This indicates that, for example, when the gripping device 3 works beyond this surface, the risk of the gripping device 3 colliding with the person 7 increases.
  • a plurality of objects 6 exist beyond the surface 8 when viewed from the gripping device 3. For each object 6, the distance between the surface 8 and a point on the object farthest from the surface 8 is calculated and defined as the safety distance 9. In this case, it is determined that there is a possibility of collision with a person as the safety distance is longer.
  • the safety distance can be calculated in the same manner even if a “point” on a predetermined space is used instead of the surface 8.
  • auxiliary storage device 46 stores in advance the distance from the target object to an object different from both the object operating device and the target object, instead of predetermined planes and points on the space.
  • the safety distance of the target object 6 can be calculated from the relationship with the surface 8, and based on the safety distance for each target object and the position and orientation for each target object.
  • the operation of the object can be planned as in the first form.
  • FIG. 9 is a hardware configuration diagram showing an object operating device according to Embodiment 3 of the present invention.
  • the object operating device in FIG. 9 includes an information processing device 4B instead of the information processing device 4A of the object operating device in FIG.
  • the object operation device may include a plurality of gripping devices that can be selected.
  • the plurality of selectable gripping devices include different types of gripping devices, for example, a sandwich-type gripping device and an adsorption-type gripping device.
  • the object operating device includes two types of gripping devices, that is, the gripping device 3 and the gripping device 10. In this case, not only the object to be operated among the plurality of objects is determined, but also which gripping apparatus is to be used to grip the object among the plurality of gripping apparatuses. At this time, the overall processing flow is the same as that in FIG. 7, but an operation plan including selection of the gripping device is realized by changing the processing flow in the operation control unit.
  • FIG. 10 is a process flow diagram of the operation control unit for selecting a gripping device and an object that realizes a safe operation, which is executed by the object operation device of FIG. Based on the position and posture of the object and the safe distance of the object, the gripping device and the object are determined, and an operation command for taking the gripping posture of the gripping device corresponding thereto is output.
  • step S31 of FIG. 10 the operation control unit 4d selects one of the plurality of objects.
  • step S32 the operation control unit 4d calculates the gripping posture of each gripping device for gripping the target object based on the position and posture of the target object. At this time, since there are a plurality of types of gripping devices, the gripping posture of each gripping device is calculated.
  • step S33 the operation control unit 4d determines whether or not the gripping posture calculated in step S32 can be moved from the current position of the gripping device. If YES, the process proceeds to step S34, and if NO, Proceed to step S36.
  • step S34 based on the safety distance of the object, the operation direction when gripping with each gripping device is calculated.
  • step S35 the operation control unit 4d calculates the safety of the movement direction of each gripping device.
  • the direction of movement may be different for each gripping device.
  • the operation direction of the sandwiching gripping apparatus 12 is toward the person 7.
  • the approach direction is approached with respect to the wide surface of the target object 6, so the operation direction of the suction type gripping device 11 is different from the operation direction of the sandwiching type gripping device 12. ing.
  • the robot moves toward a person like the sandwiching type gripping apparatus 12 of FIG. 11, the possibility of a collision between the gripping apparatus 12 and the person increases. Therefore, in the processing flow of FIG. 10, after calculating the motion direction when gripping with each gripping device, the safety of the motion direction of each gripping device is calculated, and the gripping device with the safest motion direction and corresponding to it Select the target object.
  • step S36 the operation control unit 4d determines whether or not calculation has been performed for all the objects. If YES, the process proceeds to step S38, and if NO, the process proceeds to step S37.
  • step S37 the operation control unit 4d selects the next object among the plurality of objects.
  • step S38 the operation control unit 4d selects the gripping device having the safest movement direction and the corresponding object.
  • FIG. 12 is a process flow diagram for calculating the safety of the movement direction for each gripping device, which is executed by the object operating device of FIG.
  • the operation control unit 4d estimates the length and direction in which the object moves by the operation of the gripping device based on the moving direction of the gripping device.
  • the operation control unit 4d estimates the position of the moved object based on the estimation result in step S41.
  • the operation control unit 4d recalculates the safety distance of the object from the estimated position.
  • the safety distance of the object may be calculated based on the position and posture of the person recognized by the human recognition unit as in the first embodiment, and in a space that is predetermined in terms of safety as in the second embodiment. You may calculate based on the information of arbitrary points or surfaces.
  • the operation control unit 4d estimates the position of the object when the object is operated by each gripping device, and selects one of the gripping devices whose safety distance exceeds the threshold value from the estimated position. To operate the object.
  • the operation control unit 4d selects a gripping device that minimizes the movement time of the gripping device from among the gripping devices whose safety distance exceeds the threshold value from the estimated position, and operates the object. As a result, an operation plan for realizing safe and efficient work can be made.
  • FIG. 13 is a process flow diagram of the operation control unit for selecting a gripping device and an object that realizes a safe and efficient operation, which is executed by the object operation device of FIG. 9.
  • the movement time when moving from the current gripping device position to the gripping posture of the gripping device is calculated, and the operation direction that is safe and short in the travel time is finally calculated.
  • a gripping device to be held and a corresponding object are selected.
  • step S51 of FIG. 13 the operation control unit 4d selects one of the plurality of objects.
  • step S52 the operation control unit 4d calculates the gripping posture of each gripping device for gripping the target object based on the position and posture of the target object.
  • step S53 the operation control unit 4d determines whether or not the gripping posture calculated in step S52 can be moved from the current position of the gripping device. If YES, the process proceeds to step S54, and if NO, Proceed to step S57.
  • step S54 based on the safe distance of the object, the operation direction when gripping with each gripping device is calculated.
  • step S55 the operation control unit 4d calculates the safety of the movement direction of each gripping device.
  • step S56 the operation control unit 4d calculates the movement time from the current position of the gripping device.
  • step S57 the operation control unit 4d determines whether or not calculation has been performed for all objects. If YES, the process proceeds to step S59, and if NO, the process proceeds to step S58.
  • step S58 the operation control unit 4d selects the next object among the plurality of objects.
  • step S59 the operation control unit 4d selects a gripping device having a motion direction that is safe and has a short movement time, and a corresponding object.
  • S indicates the safety according to the operation direction, and is defined by a safety distance.
  • T indicates the moving time from the current position of the gripping device.
  • a and b are arbitrary weighting factors, and are adjusted according to whether priority is given to safety or efficiency in the work. A weight for normalizing each factor may be added to the evaluation function.
  • a condition that safety and travel time are shortened is preset in the information processing apparatus 4B as a priority for selecting a gripping apparatus.
  • the information processing device 4B selects a gripping device according to the set priority.
  • the information processing apparatus 4B desirably selects the gripping device that has the shortest travel time, but the gripping device having a travel time shorter than the travel time of at least one other gripping device (that is, the travel time is 2). , 3rd,... May be selected.
  • the information processing device 4B may select one of one or a plurality of gripping devices whose moving time is shorter than a predetermined threshold value.
  • the operation plan is determined by automatically selecting the gripping device and the object so as to achieve both safety and efficiency.
  • an operation plan can be determined by selecting a gripping method as described above.
  • FIG. 14 is a process flow diagram of the operation control unit for selecting a gripping method, a gripping device, and an object that realize a safe and efficient operation, which is executed by the object operating device of FIG.
  • the gripping method is selected by calculating the operation direction when gripping with each gripping method, as in the case where there are a plurality of gripping devices. be able to.
  • step S61 in FIG. 14 the operation control unit 4d selects one of the plurality of objects.
  • step S62 the operation control unit 4d calculates a gripping posture of each gripping method for gripping the target object based on the position and posture of the target object.
  • step S63 the operation control unit 4d determines whether or not the gripping posture calculated in step S62 can be moved from the current position of the gripping device. If YES, the process proceeds to step S64. If NO, Proceed to step S67.
  • step S64 based on the safe distance of the object, the motion direction when gripping by each gripping method is calculated.
  • the operation control unit 4d calculates the safety of the operation direction of each gripping method.
  • step S66 the operation control unit 4d calculates the movement time from the current position of the gripping device.
  • step S67 the operation control unit 4d determines whether or not calculation has been performed for all the objects. If YES, the process proceeds to step S69, and if NO, the process proceeds to step S68.
  • step S68 the operation control unit 4d selects the next object among the plurality of objects.
  • step S69 the operation control unit 4d selects a gripping method having a motion direction that is safe and has a short movement time, and a corresponding object.
  • a condition that the moving time is the shortest is preset in the information processing apparatus 4B as a priority for selecting a gripping method.
  • the information processing apparatus 4B selects a gripping method according to the set priority. It is desirable that the information processing apparatus 4B selects a gripping method that minimizes the travel time, but a gripping method having a travel time shorter than the travel time of the gripping apparatus according to at least one other gripping method (that is, A gripping method that makes the movement time the second, third,... Shortest may be selected. Further, the information processing apparatus 4B may select one of one or a plurality of gripping methods in which the moving time is shorter than a predetermined threshold value.
  • the operation control unit 4d estimates the position of the object when the object is operated by each gripping method, and selects one of the gripping methods whose safety distance exceeds the threshold value from the estimated position. To operate the object.
  • the operation control unit 4d operates a target by selecting a gripping method that minimizes the movement time of the gripping device among gripping methods in which the safety distance exceeds the threshold value from the estimated position.
  • the operation plan is determined by selecting the objects, the gripping devices, and the gripping methods. can do.
  • an object, a gripping device, and a gripping method can be selected safely and efficiently.
  • FIG. FIG. 15 is a hardware configuration diagram showing an object operating device according to Embodiment 4 of the present invention.
  • 15 includes an information processing device 4C instead of the information processing device 4 of FIG.
  • the information processing apparatus 4C includes an auxiliary storage device 46 in addition to the components of the information processing apparatus 4 in FIG. 1 as in the information processing apparatus 4A in FIG.
  • the auxiliary storage device 46 is, for example, a hard disk drive or a solid state drive.
  • FIG. 16 is a functional diagram showing the object operating device of FIG.
  • the database (DB) 4e exists on the auxiliary storage device 46, and stores the gripping success rate estimated in advance for each posture of the object and for each gripping posture of the gripping device 3.
  • the gripping success rate may be experimentally calculated in advance using an apparatus having a similar hardware configuration.
  • the success rate of gripping may be estimated by physical simulation based on CAD data of the object and CAD data of the gripping device 3 that grips the object.
  • step S7A the operation plan process (step S7A) in FIG. 17 or the operation plan process (step S7B) in FIG. 18 instead of the operation plan process (step S7) in FIG. To do.
  • FIG. 17 is a first overall process flowchart executed by the operation control unit 4d of the object operating device of FIG.
  • the operation plan process of FIG. 17 includes steps S15A and S18A instead of steps S15 and S18 of FIG.
  • step S15A the operation control unit 4d determines the success rate of gripping the object by the gripping device 3 based on the gripping success rate estimated in advance and stored in the database, based on the posture of the target object and the gripping posture of the gripping device 3. To decide.
  • step S ⁇ b> 18 ⁇ / b> A the operation control unit 4 d selects an object that maximizes the gripping success rate among objects whose safety distance exceeds the threshold value.
  • the success rate of gripping the object by the gripping device 3 is determined.
  • a condition that the gripping success rate is the highest is preset in the information processing apparatus 4C as a priority for selecting an object.
  • the information processing apparatus 4C selects an object to be grasped according to the set priority. It is desirable that the information processing apparatus 4C select an object having the highest gripping success rate, but an object having a gripping success rate higher than the gripping success rate related to at least one other object (that is, The object having the highest gripping success rate in the second, third,... May be selected. Further, the information processing apparatus 4C may select one of one or more objects whose gripping success rate is higher than a predetermined threshold value.
  • the movement time may be taken into consideration as in the first to third embodiments.
  • the operation plan process in consideration of the travel time will be described.
  • FIG. 18 is a second overall process flowchart executed by the operation control unit 4d of the object operating device in FIG.
  • the operation plan process of FIG. 18 includes steps S15B and S18B instead of steps S15 and S18 of FIG.
  • step S ⁇ b> 15 ⁇ / b> B the operation control unit 4 d calculates the movement time from the current position of the gripping device 3, and further determines the success rate of gripping the object by the gripping device 3.
  • step S18B the operation control unit 4d calculates the work efficiency based on both the gripping success rate and the movement time, and selects an object that maximizes the work efficiency from among objects whose safety distance exceeds the threshold value. To do.
  • the work efficiency is expressed by, for example, an estimated travel time TA of the following formula.
  • T1 indicates a moving time when the object is successfully gripped
  • T2 indicates a moving time when the gripping of the object fails and an attempt is made again.
  • a condition that the work efficiency is the highest is preset in the information processing apparatus 4C as a priority for selecting an object.
  • the information processing apparatus 4C selects an object to be grasped according to the set priority.
  • the information processing apparatus 4C desirably selects an object having the highest work efficiency.
  • the information processing apparatus 4C has a higher work efficiency than the work efficiency related to at least one other object (that is, the work efficiency is higher).
  • the second, third,... Highest object may be selected.
  • the information processing apparatus 4C may select any one or a plurality of objects whose work efficiency is higher than a predetermined threshold value.
  • the object and the gripping method that can be efficiently operated are selected while determining the possibility of collision with a person. Rather than simply reducing the operation speed of the apparatus, the work can be performed efficiently.
  • FIG. FIG. 19 is a hardware configuration diagram showing an object operating device according to Embodiment 5 of the present invention.
  • the object operating device in FIG. 19 includes an information processing device 4D instead of the information processing device 4C in FIG.
  • the information processing device 4D includes the same components as the information processing device 4C in FIG. 15 and is further connected to the external management device 13.
  • the management device 13 is a personal computer or a server device that operates software for managing the overall process of work in a site where the object operation device according to the fifth embodiment is used, such as a factory or a warehouse.
  • the management device 13 may be a warehouse management system (WMS) in a warehouse or a production management system at a production site.
  • WMS warehouse management system
  • FIG. 20 is a functional diagram showing the object operating device of FIG.
  • Information on the object prioritized in the subsequent process is sent from the management device 13 to the information processing device 4D and temporarily stored in the database 4e.
  • the information on the object prioritized in the post-process is, for example, the order of the objects that are preferentially required for the assembly work during production.
  • the information about the object that is prioritized in the post-process may be information about the product that is delivered next from the warehouse, or may be the order of the object (product) that is preferentially required.
  • Information about the object prioritized in the subsequent process is sent from the database 4e to the operation control unit 4d.
  • step S7C the operation plan process (step S7C) in FIG. 21 instead of the operation plan process (step S7) in FIG.
  • FIG. 21 is an overall processing flowchart executed by the operation control unit 4d of the object operating device of FIG.
  • the operation plan process in FIG. 21 includes steps S15C and S18C instead of steps S15 and S18 in FIG.
  • step S ⁇ b> 15 ⁇ / b> C the operation control unit 4 d calculates the movement time from the current position of the gripping device 3, and further determines the success rate of gripping the object by the gripping device 3.
  • step S ⁇ b> 18 ⁇ / b> C the operation control unit 4 d selects an object that maximizes work efficiency from among objects whose safety distance exceeds a threshold value, based on information about the object that is prioritized in the subsequent process.
  • the estimated movement time is calculated, and a plurality of objects having an estimated movement time shorter than the estimated movement time of at least one other object.
  • the object that is given the highest priority in the subsequent process may be selected.
  • An object prioritized in the subsequent process may be selected with the highest priority.
  • the information processing apparatus 4D further uses information on the target object prioritized in the subsequent process as the priority for selecting the target object.
  • the object and the gripping method that can be efficiently operated are selected while determining the possibility of collision with a person.
  • the work can be realized more efficiently than when the operation speed is reduced.
  • one of a plurality of objects is selected according to the priority related to the object prioritized in the subsequent process.
  • One of a plurality of gripping devices may be selected (see FIG. 13), and one of a plurality of gripping methods may be selected (see FIG. 14).
  • Embodiments 1 to 5 described above may be combined with each other.
  • the embodiment of the present invention has the following features.
  • the object recognition unit calculates the position and orientation of the object from the measurement data obtained from the sensor
  • the safety distance calculation unit calculates the possibility that a person will collide with the object
  • the operation control unit is one of an object to be operated by the robot, a type of the gripping device, and a gripping method by the gripping device based on the position and orientation of the target and the safety distance of the target. Determine more than one.
  • the operation control unit calculates an operation command to preferentially grip an object selected according to a predetermined priority among objects whose safety distance is within an arbitrary range.
  • the operation control unit is a target that can take the position and posture of the gripping device, in which the time of the gripping operation is shortened from the current posture of the robot among the targets in which the safe distance of the target object is within an arbitrary range, the gripping success
  • An operation command is calculated so as to preferentially hold at least one of an object having a high rate and an object to be prioritized in a subsequent process.
  • the operation control unit evaluates the risk of collision with a person based on the direction of movement when grasping an object, when a plurality of positions and postures of the grasping apparatus can be calculated.
  • the motion command is calculated so as to preferentially grip at the position and posture of the gripping device that reduces the risk of collision. Thereby, a safe, efficient and stable gripping method (position and posture of the gripping device with respect to the object) can be selected.
  • the robot has a plurality of gripping devices
  • the operation control unit evaluates the risk of collision with a person based on the direction of movement at the time of gripping, and issues an operation command to preferentially grip with the type of gripping device that reduces the risk of collision with the person. Calculate Thereby, a safe gripping device can be selected.
  • the robot has a plurality of gripping means
  • the operation control unit evaluates the risk of collision with a person based on the direction of movement during gripping, and calculates an operation command to preferentially grip with a gripping method that reduces the risk of collision with the person. To do. Thereby, a safe and efficient gripping method can be selected.
  • the safety distance calculation unit includes the position and posture of the object or the tip position of the gripping device when operating the object, and the position and posture of the person calculated by the person recognition unit from the measurement data obtained from the sensor. Based on the above, the possibility of collision between the robot and a person is determined. Thereby, it is possible to realize safer and more efficient object operation by sequentially calculating the danger of collision with a person.
  • the safety distance calculation unit calculates the possibility of collision between the robot and a person based on the tip position of the gripping device when operating the object and any point or surface information on a predetermined space. to decide. As a result, by defining the danger of collision with a person in the work space in advance, safe object operation can be realized more efficiently.
  • the embodiment of the present invention automatically selects a target to be operated by an automatic machine, a gripping device of the automatic machine for operating the target, and a gripping method according to the possibility of a collision with a person. Even when is close, highly efficient work can be realized.
  • the present invention relates to an automatic machine provided with means for sensing a surrounding environment and means for gripping and operating an object in order to share a work space with a person and realize the operation of a plurality of objects safely and efficiently. It can be used for the object operating device and the object operating method.
  • 1 Mobile device 2 sensor, 3 gripping device, 4, 4A-4D information processing device, 4a object recognition unit, 4b human recognition unit, 4c safety distance calculation unit, 4d operation control unit, 4e database (DB), 5 sensor, 6 objects, 7 persons, 8 any predetermined surface, 9 safe distance, 10 gripping device, 11 adsorption type gripping device, 12 clamping type gripping device, 13 management device, 41 CPU, 42 ROM, 43 RAM, 44 input devices, 45 display devices, 46 auxiliary storage devices.
  • DB database

Abstract

物体認識部(4a)は、センサ(2)の測定データに基づいて対象物(6)の位置及び姿勢を認識する。安全距離計測部(4c)は、対象物(6)から、物体操作装置及び対象物(6)のいずれとも異なる物体(7)までの距離を計算する。操作制御部(4d)は、対象物(6)の位置及び姿勢と、対象物(6)から物体(7)までの距離とに基づいて、把持装置(3)を操作する。操作制御部(4d)は、物体操作装置が選択可能な複数の対象物(6)を有するとき、物体(7)までの距離が所定のしきい値を超える対象物(6)のうちの1つを選択して把持装置(3)により操作する。

Description

物体操作装置及び物体操作方法
 本発明は、人と作業空間を共有しながら物体を把持して操作する自動機である物体操作装置及び物体操作方法に関する。
 ロボットなどの自動機が、人と作業空間を共有して作業を行う際、人と衝突しないための安全性と、作業を素早くおこなうための作業の効率性を考慮しなくてはならない。安全性と作業の効率性とを両立することを目的として、例えば特許文献1及び2の発明が開示されている。
 特許文献1は、安全性と効率性とを両立するために、自動機が人の位置を検知し、自動機と人の距離に応じて、自動機の動作速度を変えることを開示している。人が近づいた場合は自動機の動作速度を落とすことで安全な作業を実現し、人が離れている場合は自動機の動作速度をあげることで効率的な作業を実現する。
 特許文献2は、動作モードを切り替えることで安全性と作業の効率性とを両立することを開示している。つまり、人(特許文献2では移動体と称している)の距離に応じて、自動機を停止させたり、自動機を低出力で動作させたりすることで、安全性を確保しつつ、作業の効率性も確保している。
特表2015-526309号公報 特開2014―176934号公報
 このような自動機にあっては、自動機及び人の位置に応じて自動機の動作速度及び出力を落とすだけであるので、人が自動機に接近しているときは、常に動作速度及び/又は出力が低くなり、作業効率は低いままであるという課題があった。
 本発明の目的は、上記の問題点を解決し、安全性と効率性とを両立することができる物体操作装置であって、人が近い場合でも効率性の高い作業を実現することができる物体操作装置及び物体操作方法を提供することにある。
 本発明の一態様に係る物体操作装置は、
 少なくとも1つのセンサ及び少なくとも1つの把持装置を備え、前記把持装置により少なくとも1つの対象物を把持して操作する物体操作装置において、
 前記センサの測定データに基づいて前記対象物の位置及び姿勢を認識する物体認識部と、
 前記対象物から、当該物体操作装置及び前記対象物のいずれとも異なる物体までの距離を計算する距離計算部と、
 前記対象物の位置及び姿勢と、前記対象物から前記物体までの距離とに基づいて、前記把持装置を操作する操作制御部とを備え、
 前記操作制御部は、前記物体操作装置が選択可能な複数の対象物を有するとき、前記物体までの距離が所定のしきい値を超える対象物のうちの1つを選択して前記把持装置により操作することを特徴とする。
 本発明によれば、物体操作装置は、人との衝突可能性を判断しつつ、効率的に作業ができる対象物を選択するので、単純に装置の動作速度を落とすよりも、効率的に作業を実現することができる。
本発明の実施の形態1に係る物体操作装置を示すハードウェア構成図である。 図1の物体操作装置を示す機能図である。 図1の物体操作装置によって実行される全体処理フロー図である。 図1の物体操作装置の操作制御部によって実行される処理フロー図である。 本発明の実施の形態2に係る物体操作装置を示すハードウェア構成図である。 図5の物体操作装置を示す機能図である。 図5の物体操作装置によって実行される全体処理フロー図である。 事前に定められた空間上の任意の面情報に基づき計算された安全距離を示す図である。 本発明の実施の形態3に係る物体操作装置を示すハードウェア構成図である。 図9の物体操作装置によって実行される、安全な動作を実現する把持装置及び対象物を選択するための操作制御部の処理フロー図である。 把持装置ごとの把持の際の動作方向の違いを示す図である。 図9の物体操作装置によって実行される、把持装置ごとの動作方向の安全性を計算するための処理フロー図である。 図9の物体操作装置によって実行される、安全かつ効率的な動作を実現する把持装置及び対象物を選択するための操作制御部の処理フロー図である。 図9の物体操作装置によって実行される、安全かつ効率的な動作を実現する把持方法、把持装置、及び対象物を選択するための操作制御部の処理フロー図である。 本発明の実施の形態4に係る物体操作装置を示すハードウェア構成図である。 図15の物体操作装置を示す機能図である。 図15の物体操作装置の操作制御部によって実行される第1の全体処理フロー図である。 図15の物体操作装置の操作制御部によって実行される第2の全体処理フロー図である。 本発明の実施の形態5に係る物体操作装置を示すハードウェア構成図である。 図19の物体操作装置を示す機能図である。 図19の物体操作装置の操作制御部によって実行される全体処理フロー図である。
実施の形態1.
 図1は本発明の実施の形態1に係る物体操作装置を示すハードウェア構成図である。図1の物体操作装置は、少なくとも1つのセンサ及び少なくとも1つの把持装置を備え、把持装置により少なくとも1つの操作対象の物体(以下、対象物という)を把持して操作する。
 図1の物体操作装置は、移動装置1、センサ2、把持装置3、情報処理装置4、及びセンサ5を備える。移動装置1、センサ2、把持装置3、及びセンサ5が情報処理装置4に接続されている。情報処理装置4は、中央処理装置(CPU)41、実行プログラムを保存したリードオンリーメモリ(ROM)42、入出力信号を保持するランダムアクセスメモリ(RAM)43、人の操作を受け付ける入力装置44、人に情報を提示する表示装置45を備える。入力装置44は、例えば、マウス、キーボード、ジェスチャ認識用カメラ、装着型加速度センサなどを含む。表示装置45は、例えば、ディスプレイなどを含む。
 移動装置1は、センサ2、把持装置3、及びセンサ5を移動させる装置であり、センサ2,5を測定のための視点へ移動させるために、また、対象物を操作するための位置に把持装置3を移動させるために用いられる。ここでいう移動装置とは、動作指令に基づき自動制御によって移動する機能を持つ装置であり、ロボット、マニピュレータ、移動台車、直動軸、複数の移動軸を組み合わせた装置でもよい。
 センサ2は、物体操作装置の周辺を測定し、対象物の位置及び姿勢を認識する。センサ2は、カメラ又は3次元ビジョンセンサである。センサ2は、ピンホールカメラ、レンジファインダーカメラ、ビューカメラ、ライトフィールドカメラ、ステレオカメラ、アクティブステレオカメラ、パッシブステレオカメラ、照度差ステレオシステム、Time-of-Flight法を用いたセンサ、空間コード化法を用いたセンサ、Structured Light法を用いたセンサ、レーザースキャナであってもよい。
 把持装置3は、物体操作装置の周辺の対象物を操作するための機構である。把持装置3は、対象物に吸い付いてピッキングする吸着型把持装置であってもよく、対象物を挟んでつまみ上げる挟持型把持装置であってもよい。また、吸着型把持装置のノズルの個数、挟持型把持装置の指及び爪の本数、その形状は任意に選択可能である。
 センサ5は、物体操作装置の周辺を測定し、物体操作装置の周辺における物体操作装置及び対象物のいずれとも異なる物体、例えば、物体操作装置の周辺における人の位置及び姿勢を認識する。センサ5は、カメラ又は3次元ビジョンセンサであってもよく、音波、熱、光、振動、もしくは磁気を検知するセンサであってもよい。カメラ又は3次元ビジョンセンサは、センサ2と同様に、ピンホールカメラ、レンジファインダーカメラ、ビューカメラ、ライトフィールドカメラ、ステレオカメラ、アクティブステレオカメラ、パッシブステレオカメラ、照度差ステレオシステム、Time-of-Flight法を用いたセンサ、空間コード化法を用いたセンサ、Structured Light法を用いたセンサ、レーザースキャナあってあってもよい。音波、熱、光、振動、もしくは磁気を検知するセンサは、光センサ、光電素子、フォトダイオード、赤外線センサ、放射線センサ、磁気センサ、超音波距離計、静電容量変位計、光位置センサであってもよい。なお、センサ2及びセンサ5を同じ方式の1つのセンサで統一し、対象物及び人の位置及び姿勢の認識を1つのセンサで実現してもよいことは自明である。
 図2は、図1の物体操作装置を示す機能図である。ここで、情報処理装置4は、機能的に、物体認識部4a、人認識部4b、安全距離計算部4c、及び操作制御部4dを有する。物体認識部4aは、センサ2による対象物の測定データに基づいて、対象物の位置及び姿勢を認識する。人認識部4bは、センサ5による人の測定データに基づいて、物体操作装置の周辺における人の位置及び姿勢を認識する。安全距離計算部4cは、対象物から、当該物体操作装置及び対象物のいずれとも異なる物体までの距離を、当該対象物の安全距離として計算する。安全距離計算部4cは、人の位置及び姿勢と対象物の位置及び姿勢とに基づいて対象物の安全距離を計算する。操作制御部4dは、対象物の位置及び姿勢と、対象物の安全距離とに基づいて、対象物を把持するように把持装置3を操作するための動作指令を生成する。なお、本明細書において、安全とは、ロボットが人と衝突する可能性が低いことを意味する。
 物体認識部4aは、センサ2の測定データに基づいて、対象物の位置及び姿勢を認識する。この際、カメラの画像、3次元ビジョンセンサの画像、距離画像、ポイントクラウドデータなどから背景領域を削除して対象物の領域の重心を計算すること、又は、対象物のモデルを画像、距離画像、ポイントクラウドデータにあてはめることなど、一般的なコンピュータビジョンの手法により画像から対象物を抽出し、対象物の領域とその位置及び姿勢とを認識することができる。画像における対象物の領域から、対象物の位置を定義することもできる。領域の重心を対象物の位置として定義してもよく、空間上の特定の位置に最も近い領域の表面上の点の位置を対象物の位置として定義してもよい。この際、チャンファーマッチング、テンプレートマッチング、Iterative Closest Point法、特徴抽出、ハッシング、深層学習を含む機械学習手法、強化学習手法、それらの派生技術を応用してもよい。
 人認識部4bは、センサ5による人の測定データに基づいて、物体操作装置の周辺における人の位置及び姿勢を認識する。この際、物体認識部4aと同様に、一般的なコンピュータビジョンの手法により人の位置を認識することができる。また、光センサ、光電素子、フォトダイオード、赤外線センサ、放射線センサ、磁気センサ、超音波距離計、静電容量変位計、光位置センサなどを用いて、人のおおよその位置を推定し、人体のうちで移動装置1に最も近い位置を計算し、この位置から移動装置1に対する方向ベクトルを姿勢として計算することにより、人の位置及び姿勢と人の領域とを計算してもよい。人の領域から、人の位置を定義してもよい。領域の重心を人の位置として定義してもよく、空間上の特定の位置に最も近い領域の表面上の点の位置を人の位置として定義してもよい。以上により、人の位置を計算することができる。
 安全距離計算部4cは、人の位置及び姿勢と対象物の位置及び姿勢とに基づいて対象物の安全距離を計算する。ここでいう安全距離とは、人と対象物と互いにがどれだけ近いかであり、人の位置と対象物の位置との間の距離を安全距離として定義する。人及び/又は対象物が複数ある場合、それぞれの人とそれぞれの対象物との間で安全距離を計算する。
 操作制御部4dは、対象物の位置及び姿勢と、対象物の安全距離とに基づいて、対象物を把持するように把持装置3を操作するための動作指令を生成する。操作制御部は、物体操作装置が選択可能な複数の対象物を有するとき、安全距離が所定のしきい値を超える対象物のうちの1つを選択して把持装置3により操作する。
 図3は、図1の物体操作装置によって実行される全体処理フロー図である。図3のステップS1において、情報処理装置4は、センサ2により対象物を計測する。ステップS2において、情報処理装置4は、物体認識部4aにより対象物の位置及び姿勢を認識する。ステップS3において、情報処理装置4は、センサ5により人を計測する。ステップS4において、情報処理装置4は、人認識部4bにより人の位置及び姿勢を認識する。ステップS5において、情報処理装置4は、安全距離計算部4cにより対象物ごとの安全距離を計算する。ステップS6において、情報処理装置4は、操作制御部4dにより、安全距離の範囲内に他の物体が存在しないか否かを判断し、YESのときはステップS7に進み、NOのときはステップS9に進む。ステップS7において、情報処理装置4は、操作制御部4dにより図4の操作計画処理を実行する。
 図4は、図1の物体操作装置の操作制御部4dによって実行される処理フロー図である。実施の形態1に係る操作制御部4dは、物体操作装置の周辺に複数の対象物が存在する場合に、どの対象物を把持すれば安全かつ効率的であるかを判断し、それに応じた動作指令を生成して出力する。
 図4のステップS11において、操作制御部4dは、複数の対象物のうちの1つを選択する。ステップS12において、操作制御部4dは、対象物の安全距離がしきい値を超えているか否かを判断し、YESのときはステップS13に進み、NOのときはステップS16に進む。
 しきい値は、移動装置1及び把持装置3の動作速度、移動装置1及び把持装置3の重量、移動装置1及び把持装置3が衝突した際に相手側にかかる力を基準にする。しきい値は、動作速度、重量、衝突の相手側にかかる力が大きい場合は安全距離が長くなり、人に衝突しても影響及びダメージが小さくなるように決定される。操作制御部4dは、例えば、把持装置3の重量及び速度が増大するにつれてしきい値を増大させ、把持装置3の重量及び速度が減少するにつれてしきい値を減少させるように、しきい値を決定する。ある対象物の安全距離がしきい値以下である場合、その対象物は把持候補とせず、次の対象物について操作計画処理を続ける。ある対象物の安全距離がしきい値を超えている場合、その対象物を把持候補として、その対象物を把持する際の把持装置3の把持姿勢を計算する。
 ステップS13において、操作制御部4dは、対象物の位置及び姿勢に基づいて、当該対象物を把持するための把持装置3の把持姿勢を計算する。ステップS14において、操作制御部4dは、ステップS13で計算された把持姿勢に把持装置3の現在の位置から移動可能であるか否かを判断し、YESのときはステップS15に進み、NOのときはステップS16に進む。これは、物体操作装置と周辺環境との干渉が発生しないか否か、及び、移動装置1のキネマティクスが解けるか否かを判断することにより行われる。ステップS15において、操作制御部4dは、把持装置3の現在の位置からの移動時間を計算する。ステップS16において、操作制御部4dは、全ての対象物について計算したか否かを判断し、YESのときはステップS18に進み、NOのときはステップS17に進む。ステップS17において、操作制御部4dは、複数の対象物のうちの次の対象物を選択する。ステップS18において、操作制御部4dは、安全距離がしきい値を超える対象物のうち、把持装置の移動時間を最小化する対象物を選択する。ステップS19において、操作制御部4dは、作業が最も効率的になる把持装置3の把持姿勢を選択する。これにより、操作制御部4dは、ステップS18で選択された対象物及びステップS19で選択された把持姿勢に把持装置3を移動させる操作計画を決定する。
 図3のステップS8において、情報処理装置4は、ステップS7で決定された操作計画に基づいて動作指令を発行する。情報処理装置4は、最終的に、移動時間が最も短くなる把持装置3の把持姿勢と、それに対応する対象物とを選択し、その対象物を把持するための動作指令を出力する。
 図3のステップS9において、情報処理装置4は、操作の安全化が必要であることをユーザに通知する。安全距離の範囲内に他の物体が存在する場合、物体の操作を行うためには、移動装置1及び把持装置3の動作速度を下げる、物体操作装置の作業を変更する、物体操作装置を停止する、周辺に対して警告を出すなど、操作を安全化するための処理を行う必要がある。従って、情報処理装置4は、操作を安全化するようにユーザに通知してもよく、操作を安全化するための上述の処理のいずれかを自動的に行ってもよい。
 図3のステップS7では、対象物を選択するための優先度として、移動時間が最も短くなるという条件が情報処理装置4に予め設定されている。情報処理装置4は、設定されている優先度に従って、把持する対象物を選択する。なお、情報処理装置4は、移動時間が最も短くなる対象物を選択することが望ましいが、他の少なくとも1つの対象物に係る移動時間よりも短い移動時間を有する対象物(すなわち、移動時間が2番目、3番目、…に最も短くなる対象物)を選択してもよい。また、情報処理装置4は、移動時間が所定のしきい値より短くなる1つ又は複数の対象物のうちのいずれかを選択してもよい。
 実施の形態1に係る物体操作装置によれば、人との衝突可能性を判断しつつ、効率的に作業ができる対象物及び把持方法を選択するので、単純に装置の動作速度を落とすよりも、効率的に作業を実現することができる。
 実施の形態1に係る物体操作装置によれば、物体操作装置、複数の対象物、人が存在する環境において、複数の対象物のうちどれを把持すれば安全かつ効率的であるかを判断することができ、人が近づいてきた場合に単に動作速度を下げる場合よりも効率的な作業を実現することができる。
実施の形態2.
 図5は本発明の実施の形態2に係る物体操作装置を示すハードウェア構成図である。図5の物体操作装置は、図1の情報処理装置4及びセンサ5に代えて、情報処理装置4Aを備える。情報処理装置4Aは、図1の情報処理装置4の構成要素に加えて、補助記憶装置46を備える。補助記憶装置46は、例えば、ハードディスクドライブ又はソリッドステートドライブである。
 実施の形態2では、情報処理装置4Aは、人を認識するセンサに接続されることに代えて、補助記憶装置46を備える。補助記憶装置46は、対象物から、物体操作装置及び対象物のいずれとも異なる物体までの距離を予め格納する。補助記憶装置46は、例えば、安全に関して事前に定められた空間上の任意の点又は面の情報を格納する。情報処理装置4Aは、センサの測定データに基づいて人を認識するのではなく、補助記憶装置46に格納された情報を参照することで、より作業を効率的にしつつ、安全性を確保することができる。
 図6は、図5の物体操作装置を示す機能図である。図6の情報処理装置4Aは、機能的に、図2の人認識部4bに代えて、データベース(DB)4eを有する。データベース4eは補助記憶装置46上に存在し、事前に定められた空間上の任意の点もしくは面の情報を格納する。安全距離計算部4cは、データベース4eの情報と対象物の位置及び姿勢とに基づいて、対象物の安全距離を計算する。
 図7は、図5の物体操作装置の全体処理フロー図を示す。図7のステップS21において、情報処理装置4Aは、センサ2により対象物を計測する。図7のステップS22において、情報処理装置4Aは、物体認識部4aにより対象物の位置及び姿勢を認識する。図7のステップS23において、情報処理装置4Aは、安全距離計算部4cにより対象物ごとの安全距離を計算する。図7のステップS24において、情報処理装置4Aは、操作制御部4dにより操作計画処理を実行する。図7のステップS25において、情報処理装置4Aは、ステップS24で決定された操作計画に基づいて動作指令を発行する。図2の人認識部が存在しないので、センサ2で対象物を測定すれば、対象物の操作計画を決定することができる。実施の形態1からの変更点は、対象物ごとの安全距離の計算方法にある。
 図8は、本発明の実施の形態2による、事前に定められた空間上の任意の面の情報に基づき計算された安全距離を示す図である。補助記憶装置46は、事前に定められた任意の面8の情報を格納している。これは、例えば、把持装置3がこの面を越えて作業する場合は、把持装置3が人7と衝突する危険性が増大することを示す。図8では、把持装置3から見て面8を越えた先に複数の対象物6が存在している。各対象物6について、面8と、面8から最も離れた当該対象物上の点との間の距離を計算し、これを安全距離9として定義している。この場合、安全距離が長いほど、人に衝突する可能性があると判断される。
 なお、面8の代わりに、事前に定められた空間上の「点」を用いたとしても、同様に安全距離を計算できる。
 なお、補助記憶装置46は、事前に定められた空間上の面及び点に代えて、対象物から、物体操作装置及び対象物のいずれとも異なる物体までの距離を予め格納する。
 対象物6の位置及び姿勢を認識することで、面8との関係から対象物6の安全距離が計算でき、対象物ごとの安全距離と、対象物ごとの位置及び姿勢とに基づいて、実施の形態1と同様に対象物の操作を計画することができる。
 以上のように、実施の形態2では、センサ2により得られた測定データと、補助記憶装置46に格納された事前に定められた空間上の任意の点もしくは面の情報とに基づいて、安全かつ効率的な操作計画を立てることができる。
実施の形態3.
 図9は、本発明の実施の形態3に係る物体操作装置を示すハードウェア構成図である。図9の物体操作装置は、図5の物体操作装置の情報処理装置4Aに代えて情報処理装置4Bを備え、把持装置10をさらに備える。
 様々な対象物を操作するために、物体操作装置が選択可能な複数の把持装置を備える場合がある。選択可能な複数の把持装置は、異なる種類の把持装置、例えば、挟持型把持装置及び吸着型把持装置を含む。実施の形態3では、そのような作業を目的として、物体操作装置が2種類の把持装置、すなわち把持装置3及び把持装置10を備える。この場合、複数の対象物のうち、どの対象物を操作するかを決定するだけでなく、複数の把持装置のうち、どの把持装置で対象物を把持するかを決定する。この際、全体の処理フローは図7と同様であるが、操作制御部における処理フローを変えることで、把持装置の選択も含めた操作計画が実現する。
 図10は、図9の物体操作装置によって実行される、安全な動作を実現する把持装置及び対象物を選択するための操作制御部の処理フロー図である。対象物の位置及び姿勢と、対象物の安全距離とに基づいて、把持装置及び対象物を決定し、それに応じた把持装置の把持姿勢をとるための動作指令を出力する。
 図10のステップS31において、操作制御部4dは、複数の対象物のうちの1つを選択する。ステップS32において、操作制御部4dは、対象物の位置及び姿勢に基づいて、当該対象物を把持するための各把持装置の把持姿勢を計算する。このとき、複数種類の把持装置が存在しているので、それぞれの把持装置の把持姿勢を計算する。ステップS33において、操作制御部4dは、ステップS32で計算された把持姿勢に把持装置の現在の位置から移動可能であるか否かを判断し、YESのときはステップS34に進み、NOのときはステップS36に進む。
 ステップS34において、対象物の安全距離に基づいて、各把持装置で把持する際の動作方向を計算する。ステップS35において、操作制御部4dは、各把持装置の動作方向の安全性を計算する。
 同じ対象物を異なる把持装置で把持する場合、例えば図11のように、把持装置ごとに動作方向が異なる場合がある。図11では、挟持型把持装置12で対象物6を把持する場合、挟持型把持装置12の動作方向は人7に向かっている。一方で、吸着型把持装置11で対象物6を把持する場合、対象物6の広い面に対してアプローチするので、吸着型把持装置11の動作方向は挟持型把持装置12の動作方向とは異なっている。図11の挟持型把持装置12のように人に向かって動作する場合、把持装置12と人との衝突の可能性が高まる。そこで、図10の処理フローでは、各把持装置で把持する際の動作方向を計算した後、各把持装置の動作方向の安全性を計算し、最も安全な動作方向を持つ把持装置と、それに対応する対象物を選択する。
 ステップS36において、操作制御部4dは、全ての対象物について計算したか否かを判断し、YESのときはステップS38に進み、NOのときはステップS37に進む。ステップS37において、操作制御部4dは、複数の対象物のうちの次の対象物を選択する。ステップS38において、操作制御部4dは、最も安全な動作方向を有する把持装置及び対応する対象物を選択する。
 図12は、図9の物体操作装置によって実行される、把持装置ごとの動作方向の安全性を計算するための処理フロー図である。図12のステップS41において、操作制御部4dは、把持装置の移動方向に基づいて、把持装置の動作により対象物が移動する長さ及び方向を推定する。ステップS42において、操作制御部4dは、ステップS41の推定結果に基づいて、移動後の対象物の位置を推定する。ステップS43において、操作制御部4dは、推定した位置から対象物の安全距離を再計算する。対象物の安全距離は、実施の形態1のように人認識部で認識した人の位置及び姿勢に基づいて計算してもよく、実施の形態2のように安全に関して事前に定められた空間上の任意の点又は面の情報に基づいて計算してもよい。以上の処理により、安全な動作を実現する把持装置と、把持する対象物とを選択することができる。
 これにより、操作制御部4dは、各把持装置により対象物を操作したときの対象物の位置を推定し、推定された位置から安全距離がしきい値を超える把持装置のうちの1つを選択して対象物を操作する。操作制御部4dは、推定された位置から安全距離がしきい値を超える把持装置のうち、把持装置の移動時間を最小化する把持装置を選択して対象物を操作する。これにより、安全かつ効率的な作業を実現するための操作計画を立てることができる。
 さらに、図13及び図14を参照して、安全性と効率性を両立させる場合の操作制御部の処理フローチャートを示す。
 図13は、図9の物体操作装置によって実行される、安全かつ効率的な動作を実現する把持装置及び対象物を選択するための操作制御部の処理フロー図である。ここでは、図10で示したフローチャートに対して、さらに、現在の把持装置位置から、把持装置の把持姿勢に移動する際の移動時間を計算し、最終的に安全かつ移動時間が短い動作方向を持つ把持装置と、それに対応する対象物を選択する。
 図13のステップS51において、操作制御部4dは、複数の対象物のうちの1つを選択する。ステップS52において、操作制御部4dは、対象物の位置及び姿勢に基づいて、当該対象物を把持するための各把持装置の把持姿勢を計算する。ステップS53において、操作制御部4dは、ステップS52で計算された把持姿勢に把持装置の現在の位置から移動可能であるか否かを判断し、YESのときはステップS54に進み、NOのときはステップS57に進む。
 ステップS54において、対象物の安全距離に基づいて、各把持装置で把持する際の動作方向を計算する。ステップS55において、操作制御部4dは、各把持装置の動作方向の安全性を計算する。ステップS56において、操作制御部4dは、把持装置の現在の位置からの移動時間を計算する。
 ステップS57において、操作制御部4dは、全ての対象物について計算したか否かを判断し、YESのときはステップS59に進み、NOのときはステップS58に進む。ステップS58において、操作制御部4dは、複数の対象物のうちの次の対象物を選択する。ステップS59において、操作制御部4dは、安全かつ移動時間が短い動作方向を有する把持装置及び対応する対象物を選択する。
 安全性と移動時間とを両立させる場合、評価関数:F=aS+bTを用いてもよい。Sは、動作方向に応じた安全性を示し、安全距離で定義される。Tは、把持装置の現在の位置からの移動時間を示す。a及びbは任意の重み係数であり、作業において安全性を優先するか、それとも効率を優先するかに応じて調整される。評価関数に対して、それぞれのファクターを正規化する重みを加えてもよい。
 図13の操作計画処理では、把持装置を選択するための優先度として、安全かつ移動時間が短くなるという条件が情報処理装置4Bに予め設定されている。情報処理装置4Bは、設定されている優先度に従って、把持装置を選択する。なお、情報処理装置4Bは、移動時間が最も短くなる把持装置を選択することが望ましいが、他の少なくとも1つの把持装置の移動時間よりも短い移動時間を有する把持装置(すなわち、移動時間が2番目、3番目、…に最も短くなる把持装置)を選択してもよい。また、情報処理装置4Bは、移動時間が所定のしきい値より短くなる1つ又は複数の把持装置のうちのいずれかを選択してもよい。
 以上により、安全と効率性とを両立させるように把持装置及び対象物を自動的に選択して操作計画が決定される。
 例えば、挟持型把持装置で対象物を把持する際、対象物を挟むことができなくても、把持装置を対象物に押し付けて「掻き出す」ことができる場合もある。このように、1つの把持装置について、複数の異なる把持方法が存在する場合がある。この場合も、先の説明と同様に把持方法を選択して操作計画を決定することができる。
 図14は、図9の物体操作装置によって実行される、安全かつ効率的な動作を実現する把持方法、把持装置、及び対象物を選択するための操作制御部の処理フロー図である。少なくとも1つの把持装置が選択可能な複数の把持方法を有する場合、複数の把持装置が存在する場合と同様に、各把持方法で把持する際の動作方向を計算することで、把持方法を選択することができる。
 図14のステップS61において、操作制御部4dは、複数の対象物のうちの1つを選択する。ステップS62において、操作制御部4dは、対象物の位置及び姿勢に基づいて、当該対象物を把持するための各把持方法の把持姿勢を計算する。ステップS63において、操作制御部4dは、ステップS62で計算された把持姿勢に把持装置の現在の位置から移動可能であるか否かを判断し、YESのときはステップS64に進み、NOのときはステップS67に進む。
 ステップS64において、対象物の安全距離に基づいて、各把持方法で把持する際の動作方向を計算する。ステップS65において、操作制御部4dは、各把持方法の動作方向の安全性を計算する。ステップS66において、操作制御部4dは、把持装置の現在の位置からの移動時間を計算する。
 ステップS67において、操作制御部4dは、全ての対象物について計算したか否かを判断し、YESのときはステップS69に進み、NOのときはステップS68に進む。ステップS68において、操作制御部4dは、複数の対象物のうちの次の対象物を選択する。ステップS69において、操作制御部4dは、安全かつ移動時間が短い動作方向を有する把持方法及び対応する対象物を選択する。
 図14の操作計画処理では、把持方法を選択するための優先度として、移動時間が最も短くなるという条件が情報処理装置4Bに予め設定されている。情報処理装置4Bは、設定されている優先度に従って、把持方法を選択する。なお、情報処理装置4Bは、移動時間が最も短くなる把持方法を選択することが望ましいが、他の少なくとも1つの把持方法に係る把持装置の移動時間よりも短い移動時間を有する把持方法(すなわち、移動時間が2番目、3番目、…に最も短くなる把持方法)を選択してもよい。また、情報処理装置4Bは、移動時間が所定のしきい値より短くなる1つ又は複数の把持方法のうちのいずれかを選択してもよい。
 これにより、操作制御部4dは、各把持方法により対象物を操作したときの対象物の位置を推定し、推定された位置から安全距離がしきい値を超える把持方法のうちの1つを選択して対象物を操作する。操作制御部4dは、推定された位置から安全距離がしきい値を超える把持方法のうち、把持装置の移動時間を最小化する把持方法を選択して対象物を操作する。
 また、選択可能な複数の対象物、選択可能な複数の把持装置、及び選択可能な複数の把持方法がある場合も同様に、対象物、把持装置、及び把持方法を選択して操作計画を決定することができる。
 以上の方法により、安全かつ効率的に、対象物、把持装置、及び把持方法を選択することができる。
実施の形態4.
 図15は、本発明の実施の形態4に係る物体操作装置を示すハードウェア構成図である。図15の物体操作装置は、図1の情報処理装置4に代えて、情報処理装置4Cを備える。情報処理装置4Cは、図1の情報処理装置4の構成要素に加えて、図5の情報処理装置4Aと同様に、補助記憶装置46を備える。補助記憶装置46は、前述のように、例えば、ハードディスクドライブ又はソリッドステートドライブである。
 図16は、図15の物体操作装置を示す機能図である。データベース(DB)4eは補助記憶装置46上に存在し、物体の姿勢ごとに、かつ、把持装置3の把持姿勢ごとに、事前に推定された把持成功率を格納する。把持成功率は、事前に、同様のハードウェア構成を有する装置を用いて実験的に算出されてもよい。把持成功率は、物体のCADデータと、物体を掴む把持装置3のCADデータとに基づいて、物理シミュレーションにより推測されてもよい。
 図15の物体操作装置もまた、図3の全体処理フロー図に従って動作する。ただし、情報処理装置4Cの操作制御部4dは、図4の操作計画処理(ステップS7)に代えて、図17の操作計画処理(ステップS7A)又は図18の操作計画処理(ステップS7B)を実行する。
 図17は、図15の物体操作装置の操作制御部4dによって実行される第1の全体処理フロー図である。図17の操作計画処理は、図4のステップS15及びS18に代えて、ステップS15A及びS18Aを含む。ステップS15Aにおいて、操作制御部4dは、事前に推定されてデータベースに格納された把持成功率から、対象物の姿勢及び把持装置3の把持姿勢に基づいて、把持装置3による対象物の把持成功率を決定する。ステップS18Aにおいて、操作制御部4dは、安全距離がしきい値を超える対象物のうち、把持成功率を最大化する対象物を選択する。このように、図17の操作計画処理では、把持装置3の移動時間を計算することに代えて、把持装置3による対象物の把持成功率を決定する。
 図17の操作計画処理では、対象物を選択するための優先度として、把持成功率が最も高くなるという条件が情報処理装置4Cに予め設定されている。情報処理装置4Cは、設定されている優先度に従って、把持する対象物を選択する。なお、情報処理装置4Cは、把持成功率が最も高くなる対象物を選択することが望ましいが、他の少なくとも1つの対象物に係る把持成功率よりも高い把持成功率を有する対象物(すなわち、把持成功率が2番目、3番目、…に最も高くなる対象物)を選択してもよい。また、情報処理装置4Cは、把持成功率が所定のしきい値より高くなる1つ又は複数の対象物のうちのいずれかを選択してもよい。
 把持する対象物を選択する際、実施の形態1~3と同様に、移動時間を考慮してもよい。図18を参照して、移動時間を考慮した場合の操作計画処理について説明する。
 図18は、図15の物体操作装置の操作制御部4dによって実行される第2の全体処理フロー図である。図18の操作計画処理は、図4のステップS15及びS18に代えて、ステップS15B及びS18Bを含む。ステップS15Bにおいて、操作制御部4dは、把持装置3の現在の位置からの移動時間を計算し、さらに、把持装置3による対象物の把持成功率を決定する。ステップS18Bにおいて、操作制御部4dは、把持成功率及び移動時間の両方に基づいて作業効率を計算し、安全距離がしきい値を超える対象物のうち、作業効率を最大化する対象物を選択する。作業効率は、例えば、次式の想定移動時間TAにより表される。
TA=p×T1+(1-p)×T2
 ここで、pは把持成功率を示し、T1は対象物の把持に成功したときの移動時間を示し、T2は対象物の把持に失敗して再把持を試みるときの移動時間を示す。想定移動時間TAがより短いとき、作業効率がより高いと判断される。
 図18の操作計画処理では、対象物を選択するための優先度として、作業効率が最も高くなるという条件が情報処理装置4Cに予め設定されている。情報処理装置4Cは、設定されている優先度に従って、把持する対象物を選択する。なお、情報処理装置4Cは、作業効率が最も高くなる対象物を選択することが望ましいが、他の少なくとも1つの対象物に係る作業効率よりも高い作業効率を有する対象物(すなわち、作業効率が2番目、3番目、…に最も高くなる対象物)を選択してもよい。また、情報処理装置4Cは、作業効率が所定のしきい値より高くなる1つ又は複数の対象物のうちのいずれかを選択してもよい。
 図17及び図18の操作計画処理によれば、実施の形態1~3と同様に、人との衝突可能性を判断しつつ、効率的に作業ができる対象物及び把持方法を選択するので、単純に装置の動作速度を落とすよりも、効率的に作業を実現することができる。
 実施の形態3では、把持成功率に関連する優先度に従って複数の対象物のうちの1つを選択する場合について説明したが、把持成功率に関連する優先度に従って、複数の把持装置のうちの1つを選択してもよく(図13を参照)、複数の把持方法のうちの1つを選択してもよい(図14を参照)。
実施の形態5.
 図19は、本発明の実施の形態5に係る物体操作装置を示すハードウェア構成図である。図19の物体操作装置は、図15の情報処理装置4Cに代えて、情報処理装置4Dを備える。情報処理装置4Dは、図15の情報処理装置4Cと同様の構成要素を備え、さらに、外部の管理装置13に接続されている。
 管理装置13は、工場又は倉庫など、実施の形態5に係る物体操作装置が使われる現場における、作業の全体工程を管理するソフトウェアを動作させるパーソナルコンピュータ又はサーバ装置である。管理装置13は、倉庫におけるウェアハウスマネジメントシステム(WMS)であってもよく、生産現場における生産管理システムであってもよい。
 図20は、図19の物体操作装置を示す機能図である。管理装置13から、後工程で優先される物体についての情報が情報処理装置4Dに送られ、データベース4eにいったん格納される。後工程で優先される物体についての情報とは、例えば、生産時の組み立て作業のために優先的に必要な物体の順番である。後工程で優先される物体についての情報は、倉庫から次に配送される商品についての情報であってもよく、優先的に必要とされる物体(商品)の順番であってもよい。後工程で優先される物体についての情報は、データベース4eから操作制御部4dに送られる。
 図19の物体操作装置もまた、図3の全体処理フロー図に従って動作する。ただし、情報処理装置4Dの操作制御部4dは、図4の操作計画処理(ステップS7)に代えて、図21の操作計画処理(ステップS7C)を実行する。
 図21は、図19の物体操作装置の操作制御部4dによって実行される全体処理フロー図である。図21の操作計画処理は、図4のステップS15及びS18に代えて、ステップS15C及びS18Cを含む。ステップS15Cにおいて、操作制御部4dは、把持装置3の現在の位置からの移動時間を計算し、さらに、把持装置3による対象物の把持成功率を決定する。ステップS18Cにおいて、操作制御部4dは、後工程で優先される物体についての情報に基づいて、安全距離がしきい値を超える対象物のうち、作業効率を最大化する対象物を選択する。
 図21の操作計画処理では、例えば図18を参照して説明したように想定移動時間を計算し、他の少なくとも1つの対象物に係る想定移動時間よりも短い想定移動時間を有する複数の対象物のうち、後工程で最も優先される対象物を選択してもよい。後工程で優先される複数の対象物のうち、想定移動時間が最も短くなる対象物を選択してもよい。後工程で優先される対象物を最優先で選んでもよい。このように、情報処理装置4Dは、対象物を選択するための優先度として、後工程で優先される対象物についての情報をさらに使用する。
 図21の操作計画処理によれば、実施の形態1~4と同様に、人との衝突可能性を判断しつつ、効率的に作業ができる対象物及び把持方法を選択するので、単純に装置の動作速度を落とすよりも、効率的に作業を実現することができる。
 実施の形態5では、後工程で優先される物体に関連する優先度に従って複数の対象物のうちの1つを選択する場合について説明したが、後工程で優先される物体に関連する優先度に従って、複数の把持装置のうちの1つを選択してもよく(図13を参照)、複数の把持方法のうちの1つを選択してもよい(図14を参照)。
 以上に説明した実施の形態1~5の特徴を互いに組み合わせてもよい。
 本発明の実施の形態は、以下の特徴を有する。
 センサと把持装置を備えるロボットにおいて、
 物体認識部は、該センサから得られる測定データから対象物の位置及び姿勢を計算し、
 安全距離計算部は、該対象物と人が衝突する可能性を計算し、
 操作制御部は、該対象物の位置及び姿勢と該対象物の安全距離とに基づき、ロボットの操作対象となる対象物、該把持装置の種類、該把持装置による把持方法のうち、いずれか1つ以上を決定する。
 これにより、人との衝突危険性を考慮しながら、操作対象となる対象物、把持装置、把持方法を変えることで、効率的かつ安全な対象物操作を実現することができる。
 該操作制御部は、該対象物の安全距離が任意の範囲内になる対象物のうち、所定の優先度に従って選択した対象物を優先して把持するよう動作指令を計算する。
 これにより、人との衝突危険性を考慮しながら、操作対象となる対象物、把持装置、把持方法を変えることで、効率的かつ安全な対象物操作を実現することができる。
 該操作制御部は、該対象物の安全距離が任意の範囲内になる対象物のうち、現在のロボットの姿勢から把持動作の時間が短くなる把持装置の位置及び姿勢をとれる対象物、把持成功率が高くなる対象物、後工程で優先される対象物、のうち少なくとも一つを優先して把持するよう動作指令を計算する。
 これにより、安全性を確保しつつ、最も効率的な操作対象となる対象物を選択することができる。
 該操作制御部は、対象物を把持する際に、該把持装置の位置及び姿勢が複数計算できる場合に、把持の際の動作方向に基づいて人との衝突の危険性を評価し、人との衝突の危険性が少なくなる把持装置の位置及び姿勢で優先的に把持するように動作指令を計算する。
 これにより、安全かつ効率的で安定した把持方法(対象物に対する把持装置の位置及び姿勢)を選択することができる。
 該ロボットは複数の把持装置を持ち、
 該操作制御部は、把持の際の動作方向に基づいて人との衝突の危険性を評価し、人との衝突の危険性が少なくなる把持装置の種類で優先的に把持するように動作指令を計算する。
 これにより、安全な把持装置を選択することができる。
 該ロボットは複数の把持手段を持ち、
 該操作制御部は、把持の際の動作方向に基づいて人との衝突の危険性を評価し、人との衝突の危険性が少なくなる把持方法で優先的に把持するように動作指令を計算する。
 これにより、安全かつ効率的な把持方法を選択することができる。
 該安全距離計算部は、該対象物の位置及び姿勢もしくは該対象物を操作する際の該把持装置の先端位置と、該センサから得られる測定データから人認識部が計算する人の位置及び姿勢とに基づき、該ロボットと人の衝突可能性を判断する。
 これにより、人との衝突危険性を逐次的に計算することで、より安全に、効率的な対象物操作を実現することができる。
 該安全距離計算部は、該対象物を操作する際の該把持装置の先端位置と、事前に定められた空間上の任意の点もしくは面情報とに基づき、該ロボットと人の衝突可能性を判断する。
 これにより、人との衝突危険性を、事前に作業空間上に定義しておくことで、より効率的に、安全な対象物操作を実現することができる。
 本発明の実施の形態は、人への衝突可能性に応じて、自動機が操作する対象物、対象物を操作するための自動機の把持装置、把持方法を自動で選択することにより、人が近い場合でも、効率性の高い作業を実現することができる。
 本発明は、人と作業空間を共有し、安全かつ効率的に複数対象物の操作を実現するために、周辺環境をセンシングする手段と、対象物を把持及び操作する手段とを備えた自動機である物体操作装置及び物体操作方法に利用可能である。
 1 移動装置、2 センサ、3 把持装置、4,4A~4D 情報処理装置、4a 物体認識部、4b 人認識部、4c 安全距離計算部、4d 操作制御部、4e データベース(DB)、5 センサ、6 対象物、7 人、8 事前に定められた任意の面、9 安全距離、10 把持装置、11 吸着型把持装置、12 挟持型把持装置、 13 管理装置、41 CPU、42 ROM、43 RAM、44 入力装置、45 表示装置、46 補助記憶装置。

Claims (11)

  1.  少なくとも1つのセンサ及び少なくとも1つの把持装置を備え、前記把持装置により少なくとも1つの対象物を把持して操作する物体操作装置において、
     前記センサの測定データに基づいて前記対象物の位置及び姿勢を認識する物体認識部と、
     前記対象物から、当該物体操作装置及び前記対象物のいずれとも異なる物体までの距離を計算する距離計算部と、
     前記対象物の位置及び姿勢と、前記対象物から前記物体までの距離とに基づいて、前記把持装置を操作する操作制御部とを備え、
     前記操作制御部は、前記物体操作装置が選択可能な複数の対象物を有するとき、前記物体までの距離が所定のしきい値を超える対象物のうちの1つを選択して前記把持装置により操作することを特徴とする物体操作装置。
  2.  前記操作制御部は、予め定められた優先度に従って、前記物体までの距離が所定のしきい値を超える対象物のうちの1つを選択して前記把持装置により操作することを特徴とする請求項1記載の物体操作装置。
  3.  前記操作制御部は、前記物体までの距離が所定のしきい値を超える対象物のうち、他の少なくとも1つの対象物に係る前記把持装置の移動時間よりも短い前記把持装置の移動時間を有することと、他の少なくとも1つの対象物に係る把持成功率よりも高い把持成功率を有することと、後工程で優先されることとの少なくとも一つに該当する対象物を選択して前記把持装置により操作することを特徴とする請求項2記載の物体操作装置。
  4.  前記物体操作装置は選択可能な複数の把持装置を備え、
     前記操作制御部は、前記各把持装置により前記対象物を操作したときの前記対象物の位置を推定し、前記推定された位置から前記物体までの距離が前記しきい値を超える把持装置のうちの1つを選択して前記対象物を操作することを特徴とする請求項1記載の物体操作装置。
  5.  前記操作制御部は、前記推定された位置から前記物体までの距離が前記しきい値を超える把持装置のうち、他の少なくとも1つの把持装置の移動時間よりも短い移動時間を有することと、他の少なくとも1つの把持装置の把持成功率よりも高い把持成功率を有することと、後工程で優先されることとの少なくとも一つに該当する把持装置を選択して前記対象物を操作することを特徴とする請求項4記載の物体操作装置。
  6.  前記物体操作装置は選択可能な複数の把持方法を有する少なくとも1つの把持装置を備え、
     前記操作制御部は、前記各把持方法により前記対象物を操作したときの前記対象物の位置を推定し、前記推定された位置から前記物体までの距離が前記しきい値を超える把持方法のうちの1つを選択して前記対象物を操作することを特徴とする請求項1又は4記載の物体操作装置。
  7.  前記操作制御部は、前記推定された位置から前記物体までの距離が前記しきい値を超える把持方法のうち、他の少なくとも1つの把持方法に係る前記把持装置の移動時間よりも短い移動時間を有することと、他の少なくとも1つの把持方法に係る把持成功率よりも高い把持成功率を有することと、後工程で優先されることとの少なくとも一つに該当する把持方法を選択して前記対象物を操作することを特徴とする請求項6記載の物体操作装置。
  8.  前記物体操作装置は、前記対象物から、当該物体操作装置及び前記対象物のいずれとも異なる物体までの距離を測定する少なくとも1つのセンサを備えることを特徴とする請求項1~7のうちの1つに記載の物体操作装置。
  9.  前記物体操作装置は、前記対象物から、当該物体操作装置及び前記対象物のいずれとも異なる物体までの距離を予め格納した記憶装置をさらに備えることを特徴とする請求項1~7のうちの1つに記載の物体操作装置。
  10.  前記操作制御部は、前記把持装置の重量及び速度が増大するにつれて前記しきい値を増大させ、前記把持装置の重量及び速度が減少するにつれて前記しきい値を減少させるように、前記しきい値を決定することを特徴とする請求項1~9のうちの1つに記載の物体操作装置。
  11.  少なくとも1つのセンサ及び少なくとも1つの把持装置を備え、前記把持装置により少なくとも1つの対象物を把持して操作する物体操作装置の物体操作方法において、
     前記センサの測定データに基づいて前記対象物の位置及び姿勢を認識するステップと、
     前記対象物から、当該物体操作装置及び前記対象物のいずれとも異なる物体までの距離を計算するステップと、
     前記対象物の位置及び姿勢と、前記対象物から前記物体までの距離とに基づいて、前記把持装置を操作するステップとを含み、
     前記把持装置を操作するステップは、前記物体操作装置が選択可能な複数の対象物を有するとき、前記物体までの距離が所定のしきい値を超える対象物のうちの1つを選択して前記把持装置により操作するステップを含むことを特徴とする物体操作方法。
PCT/JP2017/013407 2016-04-22 2017-03-30 物体操作装置及び物体操作方法 WO2017183414A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/082,371 US11065767B2 (en) 2016-04-22 2017-03-30 Object manipulation apparatus and object manipulation method for automatic machine that picks up and manipulates an object
JP2018513093A JP6548816B2 (ja) 2016-04-22 2017-03-30 物体操作装置及び物体操作方法
CN201780024149.5A CN109070365B (zh) 2016-04-22 2017-03-30 物体操作装置及物体操作方法
DE112017002114.6T DE112017002114T5 (de) 2016-04-22 2017-03-30 Objekt-Handhabungsgerät und Objekthandhabungsverfahren

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016086373 2016-04-22
JP2016-086373 2016-04-22

Publications (1)

Publication Number Publication Date
WO2017183414A1 true WO2017183414A1 (ja) 2017-10-26

Family

ID=60116695

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/013407 WO2017183414A1 (ja) 2016-04-22 2017-03-30 物体操作装置及び物体操作方法

Country Status (5)

Country Link
US (1) US11065767B2 (ja)
JP (1) JP6548816B2 (ja)
CN (1) CN109070365B (ja)
DE (1) DE112017002114T5 (ja)
WO (1) WO2017183414A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110640749A (zh) * 2018-06-26 2020-01-03 精工爱普生株式会社 机器人控制装置以及机器人系统
JP2020110911A (ja) * 2019-01-08 2020-07-27 本田技研工業株式会社 物体を把持するための奥行知覚モデリング
WO2020184101A1 (ja) * 2019-03-13 2020-09-17 日本電気株式会社 情報処理装置、駆動制御方法およびプログラム記憶媒体
WO2022185760A1 (ja) * 2021-03-03 2022-09-09 オムロン株式会社 ロボット姿勢決定装置、方法、及びプログラム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018094284A1 (en) 2016-11-18 2018-05-24 Child Mind Institute, Inc. Thermal sensor position detecting device
DE112017007398B4 (de) 2017-04-04 2021-11-18 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm und Steuerverfahren
CN110494257B (zh) 2017-04-04 2020-12-18 牧今科技 控制装置、拾取系统、物流系统、程序、控制方法以及生产方法
JP6363294B1 (ja) 2017-04-04 2018-07-25 株式会社Mujin 情報処理装置、ピッキングシステム、物流システム、プログラム、及び、情報処理方法
CN115385039A (zh) 2017-04-04 2022-11-25 牧今科技 控制装置、信息处理装置、控制方法以及信息处理方法
DE112017007397B4 (de) 2017-04-04 2021-09-30 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
US10766145B2 (en) * 2017-04-14 2020-09-08 Brown University Eye in-hand robot
JP6880457B2 (ja) * 2017-11-14 2021-06-02 オムロン株式会社 把持方法、把持システム及びプログラム
JP6676030B2 (ja) * 2017-11-20 2020-04-08 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
US11453123B2 (en) * 2017-12-27 2022-09-27 Stmicroelectronics, Inc. Robotic device with time-of-flight proximity sensing system
JP6911777B2 (ja) * 2018-01-23 2021-07-28 トヨタ自動車株式会社 動作軌道生成装置
US11548152B2 (en) * 2019-08-02 2023-01-10 Dextrous Robotics, Inc. Systems and methods for robotic control under contact
US11694452B1 (en) * 2019-10-07 2023-07-04 Deshazo, LLC Crane-mounted system for automated object detection and identification
JP2022025271A (ja) * 2020-07-29 2022-02-10 セイコーエプソン株式会社 作業方法およびロボットシステム
CN113096090B (zh) * 2021-04-07 2022-12-06 中国工程物理研究院机械制造工艺研究所 带倒角的端面间隙视觉测量方法、装置、设备及存储介质
US11845184B2 (en) 2022-04-18 2023-12-19 Dextrous Robotics, Inc. System and/or method for grasping objects

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010120139A (ja) * 2008-11-21 2010-06-03 New Industry Research Organization 産業用ロボットの安全制御装置
JP2011125975A (ja) * 2009-12-18 2011-06-30 Denso Wave Inc ロボットの干渉回避装置
US20120327190A1 (en) * 2010-02-23 2012-12-27 Ifm Electronic Gmbh Monitoring system
JP2014176933A (ja) * 2013-03-15 2014-09-25 Yaskawa Electric Corp ロボットシステム、及び、ロボットシステムの制御方法
JP2014176932A (ja) * 2013-03-15 2014-09-25 Yaskawa Electric Corp ロボットシステム、及び、ロボットシステムの制御方法
JP2015201693A (ja) * 2014-04-04 2015-11-12 富士電機株式会社 安全制御装置および安全制御システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU6792698A (en) * 1997-04-01 1998-10-22 R.A. Jones & Co. Inc. Robot controlled work area processing method
WO2008047872A1 (fr) * 2006-10-20 2008-04-24 Hitachi, Ltd. Manipulateur
JP2012016780A (ja) * 2010-07-08 2012-01-26 Ihi Corp 把持搬送装置および把持搬送方法
DE112012002677B4 (de) * 2011-06-29 2018-12-06 Mitsubishi Electric Corp. Zuführvorrichtung für Bauelemente
CN104870147B (zh) 2012-08-31 2016-09-14 睿信科机器人有限公司 机器人安全工作的系统和方法
JP5768828B2 (ja) 2013-03-15 2015-08-26 株式会社安川電機 ロボットシステム、及び、ロボットシステムの制御方法
JP5616478B1 (ja) * 2013-04-18 2014-10-29 ファナック株式会社 ワークを搬送するロボットを備えるロボットシステム
JP6511715B2 (ja) * 2013-10-31 2019-05-15 セイコーエプソン株式会社 ロボット制御装置、ロボットシステム、及びロボット

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010120139A (ja) * 2008-11-21 2010-06-03 New Industry Research Organization 産業用ロボットの安全制御装置
JP2011125975A (ja) * 2009-12-18 2011-06-30 Denso Wave Inc ロボットの干渉回避装置
US20120327190A1 (en) * 2010-02-23 2012-12-27 Ifm Electronic Gmbh Monitoring system
JP2014176933A (ja) * 2013-03-15 2014-09-25 Yaskawa Electric Corp ロボットシステム、及び、ロボットシステムの制御方法
JP2014176932A (ja) * 2013-03-15 2014-09-25 Yaskawa Electric Corp ロボットシステム、及び、ロボットシステムの制御方法
JP2015201693A (ja) * 2014-04-04 2015-11-12 富士電機株式会社 安全制御装置および安全制御システム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110640749A (zh) * 2018-06-26 2020-01-03 精工爱普生株式会社 机器人控制装置以及机器人系统
JP2020001109A (ja) * 2018-06-26 2020-01-09 セイコーエプソン株式会社 ロボット制御装置およびロボットシステム
JP7155660B2 (ja) 2018-06-26 2022-10-19 セイコーエプソン株式会社 ロボット制御装置およびロボットシステム
JP2020110911A (ja) * 2019-01-08 2020-07-27 本田技研工業株式会社 物体を把持するための奥行知覚モデリング
US11185978B2 (en) 2019-01-08 2021-11-30 Honda Motor Co., Ltd. Depth perception modeling for grasping objects
JP7050740B2 (ja) 2019-01-08 2022-04-08 本田技研工業株式会社 物体を把持するための奥行知覚モデリング
WO2020184101A1 (ja) * 2019-03-13 2020-09-17 日本電気株式会社 情報処理装置、駆動制御方法およびプログラム記憶媒体
JPWO2020184101A1 (ja) * 2019-03-13 2021-10-21 日本電気株式会社 情報処理装置、駆動制御方法およびコンピュータプログラム
JP7384898B2 (ja) 2019-03-13 2023-11-21 日本電気株式会社 情報処理装置、駆動制御方法およびコンピュータプログラム
WO2022185760A1 (ja) * 2021-03-03 2022-09-09 オムロン株式会社 ロボット姿勢決定装置、方法、及びプログラム

Also Published As

Publication number Publication date
CN109070365B (zh) 2021-11-05
DE112017002114T5 (de) 2019-01-03
JPWO2017183414A1 (ja) 2018-11-22
US11065767B2 (en) 2021-07-20
CN109070365A (zh) 2018-12-21
JP6548816B2 (ja) 2019-07-24
US20190061159A1 (en) 2019-02-28

Similar Documents

Publication Publication Date Title
WO2017183414A1 (ja) 物体操作装置及び物体操作方法
JP6003942B2 (ja) 動作制限装置及び動作制限方法
JP6716178B2 (ja) ロボットの障害物回避制御システム、方法、ロボット及びプログラム
JP6586532B2 (ja) ロボットの把持のための深層機械学習方法および装置
CN110026977B (zh) 机器人控制装置及自动组装系统
US9089971B2 (en) Information processing apparatus, control method thereof and storage medium
CN105710888B (zh) 机器人系统中的动态避障
US20230321821A1 (en) Method and system for object grasping
US10864633B2 (en) Automated personalized feedback for interactive learning applications
JP6747665B2 (ja) ロボット
CN112936278A (zh) 机器人的人机协作控制方法、装置和机器人
CN116635193A (zh) 监督式自主抓取
Teke et al. Real-time and robust collaborative robot motion control with Microsoft Kinect® v2
CN116214522B (zh) 基于意图识别的机械臂控制方法、系统及相关设备
US11904470B2 (en) Systems, apparatuses, and methods for robotic learning and execution of skills including navigation and manipulation functions
US20230241770A1 (en) Control device, control method and storage medium
Pajak et al. Sub-optimal trajectory planning for mobile manipulators
WO2022038889A1 (ja) 情報処理装置及び情報処理方法、並びにコンピュータプログラム
CN116802020A (zh) 用于监督式自主抓取的用户界面
Rastegarpanah et al. Tracking linear deformable objects using slicing method
Al-Shanoon et al. Deepnet-based 3d visual servoing robotic manipulation
US11969893B2 (en) Automated personalized feedback for interactive learning applications
WO2023120728A1 (ja) ロボット制御装置及びロボット制御方法
Najmaei et al. On superquadric human modeling and risk assessment for safe planning of human-safe robotic systems
EP4088882A1 (en) Method of manipulating a construction object, construction robot system, and computer program product

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018513093

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17785756

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17785756

Country of ref document: EP

Kind code of ref document: A1