WO2017141567A1 - 作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラム - Google Patents

作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラム Download PDF

Info

Publication number
WO2017141567A1
WO2017141567A1 PCT/JP2017/000386 JP2017000386W WO2017141567A1 WO 2017141567 A1 WO2017141567 A1 WO 2017141567A1 JP 2017000386 W JP2017000386 W JP 2017000386W WO 2017141567 A1 WO2017141567 A1 WO 2017141567A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
work area
worker
unit
control
Prior art date
Application number
PCT/JP2017/000386
Other languages
English (en)
French (fr)
Inventor
小也香 内藤
嘉一 森
一希 笠井
修 西崎
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to EP17752831.2A priority Critical patent/EP3418835B1/en
Priority to CN201780002682.1A priority patent/CN107850892B/zh
Priority to US15/751,160 priority patent/US10591905B2/en
Publication of WO2017141567A1 publication Critical patent/WO2017141567A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • G05B19/41865Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by job scheduling, process planning, material flow
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D65/00Designing, manufacturing, e.g. assembling, facilitating disassembly, or structurally modifying motor vehicles or trailers, not otherwise provided for
    • B62D65/02Joining sub-units or components to, or positioning sub-units or components with respect to, body shell or other sub-units or components
    • B62D65/18Transportation, conveyor or haulage systems specially adapted for motor vehicle or trailer assembly lines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Definitions

  • the present invention relates to a work area estimation device, a control device, a control system, a work area estimation method, and a program.
  • Patent Document 1 a factory production line is known (see, for example, Patent Document 1).
  • Patent Document 1 The production line of Patent Document 1 is used in a vehicle assembly process, and the like.
  • a controller for controlling the conveyor and a sensor attached to the worker are provided.
  • the sensor has a function of detecting the orientation of the worker and the acceleration of the movement of the worker.
  • the controller is configured to control the operation direction and the operation speed of the worker conveyor according to the direction of the worker and the acceleration of movement.
  • the present invention has been made to solve the above-described problems, and an object of the present invention is to provide a work area estimation device, a control apparatus, a control system, and a work that can estimate an area in which an operator performs work.
  • An area estimation method and program are provided.
  • a work area estimation device estimates an area in which an operator performs work, and includes a first action acquisition unit that acquires movement information of the worker, a direction acquisition part that acquires direction information of the worker, A work area calculation unit that calculates an area in which the movement of the worker is predicted based on the movement information, the direction information, and the human body model of the worker.
  • the work area estimation device includes a movable range computing unit that computes a range of motion of the worker based on the orientation information and the human body model, and the work area computing unit is configured to calculate the worker based on the motion information and the movable range. It may be configured to calculate a region where the operation is predicted.
  • the orientation information includes orientation information of the worker's trunk and orientation information of the worker's head
  • the work area calculation unit includes the orientation information of the trunk and the orientation information of the head. Based on this, it may be configured to perform weighted evaluation of the motion possibility in the region where the motion of the worker is predicted.
  • the work area estimation apparatus may include a state acquisition unit that acquires at least one of the position information and the posture information of the worker.
  • the state acquisition unit acquires at least one of acceleration data, angular velocity data, velocity data, angular acceleration data, pressure data, and magnetic data, and acquires the acquired data. It may be configured to calculate at least one of position information and posture information.
  • the direction acquisition unit may be configured to calculate the direction information based on at least one of position information and posture information and a human body model.
  • the first movement acquisition unit may be configured to calculate movement information based on at least one of position information and posture information and a human body model. .
  • the work area estimation apparatus including the state acquisition unit may include a human body model calculation unit that calculates a human body model from at least one of position information and posture information.
  • the work area estimation apparatus may include a human body model recording unit in which a human body model is recorded.
  • a control device includes the work area estimation device and a control unit that controls a control target.
  • control unit may be configured to operate the control target outside the region where the operation of the worker is predicted.
  • the orientation information includes orientation information of the operator's torso and orientation information of the operator's head
  • the work area calculation unit is based on the orientation information of the torso and the orientation information of the head.
  • the controller is configured to weight and evaluate the operability within the region where the operator's motion is predicted, and the control unit is configured to operate the control target outside the region where the operability is a predetermined value or more. It may be.
  • the predetermined value is, for example, a preset value and a boundary value that is determined to have a high possibility of operation.
  • the control device may include a safety determination unit that determines safety when a control target enters inside an area where the operator's motion is predicted.
  • control unit may operate the control target inside the region where the operation of the worker is predicted when the safety determination unit determines that the operation is safe. It may be configured to be possible.
  • control unit determines that the safety determination unit is not safe
  • the operation of the operator is performed by setting the control target in a state where safety can be ensured. It may be configured to allow the operation of the controlled object inside the region where the prediction is expected.
  • the safety determination unit may be configured to determine safety based on operation information.
  • the control device including the safety determination unit includes a second operation acquisition unit that acquires operation information of a control target, and the safety determination unit is configured to determine safety based on the operation information of the control target. It may be.
  • a control system includes the above-described control device and a detection device worn by an operator.
  • the detection device is configured to detect at least one of acceleration data, angular velocity data, velocity data, angular acceleration data, pressure data, and magnetic data. It includes a state acquisition unit that acquires at least one of position information and posture information, the state acquisition unit acquires a detection result of the detection device, and uses the acquired detection result to at least one of position information and posture information One may be configured to calculate.
  • the work area estimation method estimates the area where the worker performs work, the step of obtaining the worker's motion information, the step of obtaining the worker's orientation information, the motion information and the orientation information. And a step of calculating a region where the motion of the worker is predicted based on the worker's human body model.
  • the program according to the present invention is for causing a computer to execute the above-described work area estimation method.
  • the work area estimation device the control device, the control system, the work area estimation method, and the program of the present invention, it is possible to estimate the area where the worker works.
  • the control system 100 includes a control device 1 that controls the robot 50 and a detection device 2 that is worn by an operator.
  • the control system 100 is configured, for example, to estimate a worker's work area (an area where motion is predicted) in a production line of a factory, and to control the robot 50 in accordance with the worker's work area.
  • the robot 50 is a robot arm installed on a production line of a factory, for example, and is an example of the “control target” in the present invention.
  • the detection device 2 is attached to each part of the worker, and each detection device 2 is provided to detect the operation of the attached part. Although two detection devices 2 are shown in FIG. 1, a larger number of detection devices 2 may be provided to detect the movement of the worker's whole body. Examples of attachment positions of the detection device 2 to the worker are the head, both shoulders, both arms (upper arm, forearm, hand), back, waist, and both legs (thigh, shin, foot). .
  • the detection device 2 includes an acceleration sensor 2a that detects acceleration data, an angular velocity sensor 2b that detects angular velocity data, and an output unit 2c that outputs detection results of the acceleration sensor 2a and the angular velocity sensor 2b to the control device 1. Yes.
  • the detection device 2 is connected to the control device 1 wirelessly, for example, but may be connected to the control device 1 by wire.
  • the control device 1 is configured to acquire the worker's orientation information and motion information, and to estimate the worker's work area based on the orientation information and motion information and the human body model.
  • the control device 1 is configured to operate the robot 50 outside the worker's work area. Furthermore, the control device 1 determines the safety when the robot 50 enters the worker's work area, and allows the robot 50 to enter the work area when it is safe.
  • the worker's human body model is, for example, a database of dimensions for each part of the worker's body.
  • the control device 1 includes a CPU 11, a ROM 12, a RAM 13, and an input / output unit 14.
  • the CPU 11 is configured to execute arithmetic processing based on a program 12a or the like stored in the ROM 12.
  • the ROM 12 is a non-volatile memory, and stores a program 12a and setting values used when the program 12a is executed.
  • the program 12a includes a control program for the robot 50 and the like.
  • the RAM 13 is a volatile memory, and has a function of temporarily storing a calculation result by the CPU 11 and a detection result of the detection device 2.
  • a plurality of detection devices 2, a robot 50, a tool device 60 for changing settings of the control device 1, and the like are connected to the input / output unit 14.
  • the control device 1 includes an operator information acquisition unit 21, a human body model calculation unit 22, a human body model recording unit 23, a direction calculation unit 24, a movable range calculation unit 25, an operation Calculation unit 26, operator work area calculation unit 27, robot information acquisition unit 28, robot motion calculation unit 29, work area calculation unit 30 for robot 50, safety determination unit 31, and robot control Part 32.
  • the worker information acquisition unit 21, the human body model calculation unit 22, the orientation calculation unit 24, the movable range calculation unit 25, the motion calculation unit 26, the work area calculation unit 27, the robot information acquisition unit 28, the robot motion calculation unit 29, the work The area calculation unit 30, the safety determination unit 31, and the robot control unit 32 are realized by the CPU 11 executing the program 12a.
  • the human body model recording unit 23 is configured by a part of the storage area of the ROM 12.
  • a work area estimation unit 40 for estimation is configured.
  • the work area estimation unit 40 is an example of the “work area estimation apparatus” in the present invention.
  • the worker information acquisition unit 21 is configured such that the detection results of each detection device 2 are input. That is, the worker information acquisition unit 21 acquires acceleration data and angular velocity data of each part of the worker over time. And the worker information acquisition part 21 is comprised so that position information and attitude
  • position information may be calculated using the acceleration data and angular velocity data. That is, the worker information acquisition unit 21 acquires position information and posture information for each part of the worker over time.
  • the position information is, for example, coordinate values of three-dimensional coordinates, and the posture information is, for example, a rotation angle with respect to each coordinate axis.
  • the worker information acquisition unit 21 is an example of the “state acquisition unit” in the present invention.
  • the human body model calculation unit 22 is provided to calculate the human body model of the worker based on the position information and posture information acquired by the worker information acquisition unit 21.
  • the human body model calculation unit 22 creates a human body model by calculating the size of each part from the temporal change of the position information and posture information of each part of the worker. Note that, when the human body model calculation unit 22 calculates the human body model, the operator may be prompted to perform a predetermined operation.
  • the human body model of the worker is recorded.
  • a human body model that is a calculation result of the human body model calculation unit 22 may be recorded, or a human body model input by an operator using the tool device 60 may be recorded.
  • Good That is, in the present embodiment, there are two human body model recording methods for the human body model recording unit 23, and the recording may be performed by any method.
  • the direction calculation unit 24 is provided to calculate the worker's direction information based on the position information and posture information acquired by the worker information acquisition unit 21 and the human body model recorded in the human body model recording unit 23. ing.
  • This orientation information includes, for example, the orientation information of the operator's trunk and the orientation information of the operator's head.
  • the direction of the body is, for example, the direction in which the front of the body is facing, and the change in the direction can be traced from the change in position and posture over time.
  • the direction of the head is, for example, the direction in which the front of the head is facing, and the change in the direction can be traced from the change in position and posture over time.
  • the direction calculation unit 24 is an example of the “direction acquisition unit” in the present invention.
  • the movable range calculating unit 25 is provided for calculating the movable range of the worker.
  • the range of motion calculation unit 25 is configured to calculate the range of motion of the worker based on the worker orientation information calculated by the direction calculation unit 24 and the human body model recorded in the human body model recording unit 23. Has been.
  • the movable range is a predetermined area surrounding the worker, and is an area where the worker can move the body from the current state. For example, when the shoulder is fixed, the range of motion of the arm is a range that can be reached by extending the arm.
  • the operation calculation unit 26 is provided for calculating the operation information of the worker.
  • the motion calculation unit 26 inputs the position information and posture information acquired by the worker information acquisition unit 21 with respect to the human body model recorded in the human body model recording unit 23, so that the motion information of each part of the worker is obtained. It is comprised so that may be calculated. That is, the operation of each part is calculated from the temporal change of the position and posture of each part of the operator.
  • the motion calculation unit 26 is an example of the “first motion acquisition unit” in the present invention.
  • the work area calculation unit 27 is provided for calculating the worker's work area. Specifically, the work area calculation unit 27 is configured to calculate the work area based on the movable range calculated by the movable range calculation unit 25 and the motion information calculated by the motion calculation unit 26. Yes.
  • Various information 50 a is input from the robot 50 to the robot information acquisition unit 28.
  • the various information 50a is, for example, position information, speed information, acceleration information, route information, and the like related to the robot 50, and is detected by a sensor (not shown) provided in the robot 50.
  • the robot motion calculation unit 29 is provided for calculating motion information of the robot 50.
  • the robot motion calculation unit 29 calculates motion information of the robot 50 based on, for example, various information 50a acquired by the robot information acquisition unit 28 and a control program for controlling the robot 50.
  • the robot motion calculation unit 29 is an example of the “second motion acquisition unit” in the present invention.
  • the work area calculation unit 30 is provided for calculating a work area (an area where the motion is predicted) of the robot 50.
  • the work area calculation unit 30 is configured to calculate the work area of the robot 50 based on the calculation result of the robot motion calculation unit 29, for example.
  • the safety judgment unit 31 is provided to judge the safety when the robot 50 enters the inside of the worker's work area.
  • the safety determination unit 31 determines whether or not the work area of the worker and the work area of the robot 50 interfere (overlap), and determines that the work area of the worker and the work area of the robot 50 interfere with each other. In such a case, the safety judgment is made.
  • the safety determination unit 31 determines that the work area of the worker and the work area of the robot 50 interfere with each other, the safety determination unit 31 is based on the operation information of the worker and the operation information of the robot 50. It is configured to determine whether or not the robot 50 collides. Furthermore, when it is determined that the worker and the robot 50 collide, the safety determination unit 31 is configured to calculate the impact force at the time of the collision. The impact force is calculated based on, for example, the operation information of the worker and the operation information of the robot 50. That is, safety is determined based on the operation information of the worker and the operation information of the robot 50.
  • the safety determination unit 31 determines that the worker is safe when the operator and the robot 50 do not collide, and when the impact force is less than a predetermined value, and the impact force is greater than or equal to the predetermined value. However, it is judged that it is not safe.
  • the predetermined value may be, for example, a preset value that does not cause the operator to feel pain or a value that does not cause injury to the operator.
  • the robot control unit 32 is provided for outputting an operation instruction to the robot 50.
  • the robot control unit 32 is configured to operate the robot 50 outside the worker's work area. Further, when the safety determination unit 31 determines that the robot is safe, the robot control unit 32 can operate the robot 50 inside the worker's work area. For example, the robot control unit 32 determines that the robot 50 is based on the control program when the worker's work area does not interfere with the work area of the robot 50 and when the safety judgment unit 31 determines that the work area is safe. When the safety determination unit 31 determines that the robot is not safe, the robot 50 is stopped so as not to enter the operator's work area.
  • the robot control unit 32 is an example of the “control unit” in the present invention.
  • This operation includes a work area estimation method by the control device 1.
  • the program 12a is for causing the control device 1 (see FIG. 1) to execute the following steps, and is stored in the ROM 12 (see FIG. 1) that is a recording medium readable by the control device 1. .
  • the human body model recording unit 23 (see FIG. 2) records the human body model of the worker in advance.
  • the human body model may be recorded by the human body model calculation unit 22 (see FIG. 2) or may be recorded using the tool device 60 (see FIG. 2).
  • a detection device 2 is attached to each part of the worker.
  • step S1 of FIG. 3 it is determined whether or not the cooperative operation between the worker and the robot 50 (see FIG. 2) has been started. For example, when the operator operates a start button (not shown), it is determined that the cooperative operation has started. If it is determined that the cooperative operation has started, the process proceeds to step S2. On the other hand, if it is determined that the cooperative operation has not been started, step S1 is repeated. That is, the control device 1 waits until the cooperative operation is started.
  • step S2 the worker information acquisition unit 21 (see FIG. 2) acquires position information and posture information for each part of the worker. Specifically, based on acceleration data and angular velocity data input from each detection device 2, position information and posture information of each part are calculated.
  • step S3 the orientation calculation unit 24 (see FIG. 2) calculates the operator orientation information. Specifically, based on the position information and posture information of the worker and the human body model recorded in the human body model recording unit 23, the orientation information of the body and the head of the worker is calculated.
  • step S4 the range of motion of the worker is calculated by the range of motion calculation unit 25 (see FIG. 2). Specifically, the range of motion of the worker is calculated based on the orientation information of the worker and the human body model.
  • step S5 the operation information of each part of the operator is calculated by the operation calculation unit 26 (see FIG. 2). Specifically, the position information and posture information of each part are input to the human body model recorded in the human body model recording unit 23, whereby the operation information of each part of the operator is calculated.
  • step S6 the work area calculation unit 27 (see FIG. 2) calculates the work area of the worker. Specifically, the work area is calculated from the operator's range of motion and motion information.
  • step S7 various information 50a (see FIG. 2) of the robot 50 is obtained by the robot information obtaining unit 28 (see FIG. 2).
  • step S8 the robot operation calculation unit 29 (see FIG. 2) calculates the operation information of the robot 50.
  • step S9 the work area calculation unit 30 (see FIG. 2) calculates the work area of the robot 50.
  • step S10 the safety determination unit 31 (see FIG. 2) determines whether or not the worker's work area interferes with the work area of the robot 50. This determination is made based on the worker work area calculated in step S6 and the work area of the robot 50 calculated in step S9. If it is determined that the work area of the worker interferes with the work area of the robot 50, the process proceeds to step S11. On the other hand, if it is determined that the work area of the worker does not interfere with the work area of the robot 50, the process proceeds to step S12.
  • the safety judgment part 31 judges safety. Specifically, it is determined whether or not the worker and the robot 50 collide based on the motion information of the worker calculated in step S5 and the motion information of the robot 50 calculated in step S8. . Further, when it is determined that the worker and the robot 50 collide, the impact force at the time of the collision is calculated based on the operation information of the worker and the operation information of the robot 50. The safety determination unit 31 determines that the worker is safe when the operator and the robot 50 do not collide, and when the impact force is less than a predetermined value, and the impact force is greater than or equal to the predetermined value. Judge that it is not safe.
  • Step S12 the robot 50 is controlled by the robot control unit 32 (see FIG. 2). Specifically, when it is determined that the work area of the worker and the work area of the robot 50 do not interfere with each other and when it is determined that the work area is safe, the robot 50 is operated based on the control program. That is, when it is safe, the robot 50 is operated inside the worker's work area. If it is determined that the robot 50 is not safe, for example, the robot 50 is stopped so as not to allow the robot 50 to enter the operator's work area.
  • step S13 it is determined whether or not the cooperative operation between the worker and the robot 50 has been completed. For example, when the operator operates an end button (not shown), it is determined that the cooperative operation has ended. When it is determined that the cooperative operation has been completed, the process proceeds to the end. On the other hand, if it is determined that the cooperative operation has not ended, the process returns to step S2.
  • the direction calculation unit 24 that calculates the worker's direction information
  • the range of motion calculation unit 25 that calculates the range of motion of the worker based on the direction information and the human body model
  • An operation calculation unit 26 for calculating the operator's movement information and a work area calculation unit 27 for calculating the worker's work area based on the movable range and the movement information are provided.
  • the work area of the worker can be estimated with high accuracy by estimating the work area based on the orientation information that is information reflecting the intention of the worker.
  • the work area estimation accuracy can be further improved by considering the operation information of the worker. That is, the work area narrowed down from the movable range can be estimated using the motion information.
  • a robot control unit 32 that operates the robot 50 outside the worker's work area is provided.
  • a safety determination unit 31 is provided for determining safety when the robot 50 enters the worker's work area.
  • the robot 50 is a robot arm
  • the present invention is not limited to this, and the control target may be a transport device that transports components. That is, the control object is, for example, an industrial machine.
  • the present invention is not limited to this, and only the motion of the worker's local area (for example, the upper body) is detected. May be.
  • the CPU 11 executes the program 12a, so that the worker information acquisition unit 21, the human body model calculation unit 22, the direction calculation unit 24, the movable range calculation unit 25, the motion calculation unit 26, and the operator
  • An example is shown in which the work area calculation unit 27, the robot information acquisition unit 28, the robot motion calculation unit 29, the work area calculation unit 30 for the robot 50, the safety determination unit 31, and the robot control unit 32 are realized.
  • the area calculation unit, the safety determination unit, and the robot control unit may each be configured by hardware.
  • the present embodiment the example in which the position information and the posture information are calculated based on the acceleration data and the angular velocity data is shown.
  • the present invention is not limited to this, and based on the velocity data, the angular acceleration data, the pressure data, the magnetic data, and the like.
  • the position information and the posture information may be calculated. That is, although the example in which the detection device 2 detects acceleration data and angular velocity data has been shown, the detection device is not limited to this, and the detection device may include acceleration data, angular velocity data, velocity data, angular acceleration data, pressure data, and magnetic data. What is necessary is just to be comprised so that at least 1 may be detected.
  • the worker information acquisition unit 21 acquires the acceleration data and the angular velocity data, and calculates the position information and the posture information using the acceleration data and the angular velocity data.
  • the worker information acquisition unit acquires at least one of acceleration data, angular velocity data, velocity data, angular acceleration data, pressure data, and magnetic data, and uses the acquired data for position information and posture information. At least one of them may be calculated.
  • the human body model calculating part 22 showed the example which calculates a human body model of an operator based on position information and attitude
  • the human body model of the operator may be calculated based on the above.
  • the human body model calculating part 22 was provided in the control apparatus 1 and the human body model was input from the tool apparatus 60, the human body model calculating part 22 was not limited to this. If provided, the human body model may not be input from the tool device 60, or the human body model calculation unit 22 may not be provided as long as the human body model can be input from the tool device 60.
  • the human body model recording unit 23 is provided.
  • the present invention is not limited thereto, and the human body model recording unit is not provided as long as the human body model of the worker can be obtained from the outside. Also good.
  • the direction calculation unit 24 calculates the worker's direction information based on the worker's position information and posture information and the human body model.
  • the present invention is not limited thereto, and the direction calculation unit is not limited thereto.
  • the orientation information of the worker may be calculated based on the position information or posture information of the worker and the human body model, or based on at least one of the position information and the posture information regardless of the human body model.
  • the orientation information of the worker may be calculated.
  • the direction calculating part does not need to be provided.
  • the direction calculating part 24 showed the example which calculates the direction information of an operator's torso, and the direction information of an operator's head, not only this but a direction calculating part, Only the orientation information of the operator's trunk may be calculated.
  • the present invention is not limited thereto, and the movable range calculation unit may not be provided.
  • the work area calculation unit may estimate the work area based on the worker orientation information and motion information and the human body model.
  • a motion calculation part is a position information or attitude
  • the motion information may be calculated from the human body model, or the motion information may be calculated based on at least one of the position information and the posture information regardless of the human body model. Further, as long as the first motion acquisition unit that acquires the motion information of the worker is provided, the motion calculation unit may not be provided.
  • the work area calculation unit 27 may estimate an area having a high operation possibility in the work area. Specifically, the work area calculation unit 27 weights and evaluates the operability in the work area based on the worker's direction information (body and head direction information) calculated by the direction calculation unit 24. It may be. Then, the work area calculation unit 27 may estimate an area having a weighting value (operability) equal to or higher than a predetermined value as an area having a high operation possibility.
  • the predetermined value is, for example, a preset value and a boundary value that is determined to have a high possibility of operation.
  • the robot control unit 32 may operate the robot 50 outside the region where the operation possibility is high.
  • control program for the robot 50 is recorded in the ROM 12 of the control device 1 .
  • the present invention is not limited thereto, and the robot control program may not be recorded in the ROM of the control device.
  • Good That is, for a robot that operates autonomously, if the robot is not safe to enter the worker's work area, the control device may prohibit the robot from entering.
  • the operation information is calculated from various information of the robot and the work area of the robot is calculated.
  • the operator's work area and the robot's work area interfere, if the operator's motion information and the robot's motion information are judged to be unsafe, a stop instruction or the like is output to the robot You just have to do it.
  • the robot control unit 32 stops the robot 50 when the safety determination unit 31 determines that the safety is not safe.
  • the safety determination unit 31 If it is determined that this is not the case, the robot may be caused to perform other work outside the worker's work area.
  • the robot may be allowed to move inside the work area by setting the robot in a state where safety can be ensured. In order to ensure safety, for example, the operation speed of the robot is reduced so that the impact force at the time of collision is less than a predetermined value.
  • Safety judgment part 31 showed the example which judges safety based on an operator's operation information and the operation information of the robot 50, not only this but a safety judgment part, Safety may be determined based on the operation information of the worker or the operation information of the robot.
  • the safety determination unit 31 is provided in the present embodiment.
  • the present invention is not limited thereto, and the safety determination unit may not be provided. In this case, it is preferable to operate the robot outside the worker's work area.
  • the present invention is not limited to this, and the cooperative operation is performed when the worker enters a predetermined section. It may be determined that it has started. Similarly, an example is shown in which it is determined that the cooperative operation is ended when the end button is operated. You may make it do.
  • the work area of the robot 50 is calculated after the work area of the worker is calculated.
  • the present invention is not limited thereto, and the work area of the worker and the work area of the robot are The calculation may be performed at the same time, or after calculating the work area of the robot, the work area of the worker may be calculated.
  • the operation information of the robot 50 is calculated after calculating the operation information of the worker is shown, the present invention is not limited thereto, and the operation information of the worker and the operation information of the robot may be calculated at the same time. Then, after calculating the operation information of the robot, the operation information of the operator may be calculated. That is, the flowchart of FIG. 3 is an example and is not limited to the procedure.
  • the present invention can be used for a work area estimation device, a control device, a control system, a work area estimation method, and a program.
  • Control device (computer) 2 Detection Device 12a Program 21 Worker Information Acquisition Unit (State Acquisition Unit) 22 Human Body Model Calculation Unit 23 Human Body Model Recording Unit 24 Direction Calculation Unit (Direction Acquisition Unit) 25 Range of motion computing unit 26 Motion computing unit (first motion acquisition unit) 27 Work area computing unit 29 Robot motion computing unit (second motion obtaining unit) 31 Safety judgment part 32 Robot control part (control part) 40 Work area estimation unit (work area estimation device) 50 Robot (control target) 100 Control system

Abstract

作業領域推定装置は、作業者が作業を行う領域を推定するものであり、作業者の動作情報を取得する第1動作取得部と、作業者の向き情報を取得する向き取得部と、動作情報と向き情報と作業者の人体モデルとに基づいて、作業者の動作が予測される領域を演算する作業領域演算部とを備える。

Description

作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラム
 本発明は、作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラムに関する。
 従来、工場の生産ラインが知られている(たとえば、特許文献1参照)。
 特許文献1の生産ラインは、車両の組立工程などに用いられるものであり、車両を搬送する車両用コンベアと、車両の搬送方向に沿って作業者を移動させる作業者用コンベアと、作業者用コンベアを制御するコントローラと、作業者に装着されるセンサとを備えている。センサは、作業者の向きと、作業者の移動の加速度とを検出する機能を有する。そして、コントローラは、作業者の向きおよび移動の加速度に応じて、作業者用コンベアの作動方向および作動速度を制御するように構成されている。これにより、作業者が歩行での移動を強いられることがほとんどないので、作業者の歩行疲労を軽減することが可能である。
特開2004-230541号公報
 ここで、工場の生産ラインなどにおいて、産業機械および作業者が作業を行う状況下では、作業者が作業を行う領域を推定することが望まれる。たとえば、作業者が作業を行う領域を推定することができれば、作業者の邪魔になる(産業機械の動作と作業者の動作とが干渉する)状況を抑制しながら、産業機械の作業領域を広くすることができるので、安全性を確保しつつ生産性を向上させることが可能である。
 本発明は、上記の課題を解決するためになされたものであり、本発明の目的は、作業者が作業を行う領域を推定することが可能な作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラムを提供することである。
 本発明による作業領域推定装置は、作業者が作業を行う領域を推定するものであり、作業者の動作情報を取得する第1動作取得部と、作業者の向き情報を取得する向き取得部と、動作情報と向き情報と作業者の人体モデルとに基づいて、作業者の動作が予測される領域を演算する作業領域演算部とを備える。
 このように構成することによって、作業者の意図が反映された情報である向き情報に基づいて、動作が予測される領域を推定することにより、作業者が作業を行う領域を高い精度で推定することができる。
 上記作業領域推定装置において、向き情報と人体モデルとに基づいて、作業者の可動域を演算する可動域演算部を備え、作業領域演算部は、動作情報と可動域とに基づいて、作業者の動作が予測される領域を演算するように構成されていてもよい。
 上記作業領域推定装置において、向き情報は、作業者の胴体の向き情報と、作業者の頭部の向き情報とを含み、作業領域演算部は、胴体の向き情報と頭部の向き情報とに基づいて、作業者の動作が予測される領域内における動作可能性を重み付け評価するように構成されていてもよい。
 上記作業領域推定装置において、作業者の位置情報および姿勢情報の少なくともいずれか一方を取得する状態取得部を備えていてもよい。
 上記状態取得部を備える作業領域推定装置において、状態取得部は、加速度データ、角速度データ、速度データ、角加速度データ、圧力データおよび磁気データのうちの少なくとも1つを取得し、その取得したデータを用いて位置情報および姿勢情報の少なくともいずれか一方を算出するように構成されていてもよい。
 上記状態取得部を備える作業領域推定装置において、向き取得部は、位置情報および姿勢情報の少なくともいずれか一方と人体モデルとに基づいて、向き情報を演算するように構成されていてもよい。
 上記状態取得部を備える作業領域推定装置において、第1動作取得部は、位置情報および姿勢情報の少なくともいずれか一方と人体モデルとに基づいて、動作情報を演算するように構成されていてもよい。
 上記状態取得部を備える作業領域推定装置において、位置情報および姿勢情報の少なくともいずれか一方から人体モデルを演算する人体モデル演算部を備えていてもよい。
 上記作業領域推定装置において、人体モデルが記録された人体モデル記録部を備えていてもよい。
 本発明による制御装置は、上記作業領域推定装置と、制御対象を制御する制御部とを備える。
 上記制御装置において、制御部は、作業者の動作が予測される領域の外側で、制御対象を動作させるように構成されていてもよい。
 上記制御装置において、向き情報は、作業者の胴体の向き情報と、作業者の頭部の向き情報とを含み、作業領域演算部は、胴体の向き情報と頭部の向き情報とに基づいて、作業者の動作が予測される領域内における動作可能性を重み付け評価するように構成され、制御部は、動作可能性が所定値以上の領域の外側で、制御対象を動作させるように構成されていてもよい。なお、所定値は、たとえば、予め設定された値であり、動作可能性が高いと判断される境界値である。
 上記制御装置において、作業者の動作が予測される領域の内側に、制御対象が進入した場合の安全性を判断する安全性判断部を備えていてもよい。
 上記安全性判断部を備える制御装置において、制御部は、安全性判断部により安全であると判断された場合に、作業者の動作が予測される領域の内側で、制御対象を動作させることが可能に構成されていてもよい。
 上記安全性判断部を備える制御装置において、制御部は、安全性判断部により安全ではないと判断された場合に、制御対象を安全性の確保が可能な状態にすることにより、作業者の動作が予測される領域の内側での制御対象の動作を許容するように構成されていてもよい。
 上記安全性判断部を備える制御装置において、安全性判断部は、動作情報に基づいて安全性を判断するように構成されていてもよい。
 上記安全性判断部を備える制御装置において、制御対象の動作情報を取得する第2動作取得部を備え、安全性判断部は、制御対象の動作情報に基づいて安全性を判断するように構成されていてもよい。
 本発明による制御システムは、上記制御装置と、作業者に装着される検出装置とを備える。
 上記制御システムにおいて、検出装置は、加速度データ、角速度データ、速度データ、角加速度データ、圧力データおよび磁気データのうちの少なくとも1つを検出するように構成され、作業領域推定装置は、作業者の位置情報および姿勢情報の少なくともいずれか一方を取得する状態取得部を含み、状態取得部は、検出装置の検出結果を取得し、その取得した検出結果を用いて位置情報および姿勢情報の少なくともいずれか一方を算出するように構成されていてもよい。
 本発明による作業領域推定方法は、作業者が作業を行う領域を推定するものであり、作業者の動作情報を取得するステップと、作業者の向き情報を取得するステップと、動作情報と向き情報と作業者の人体モデルとに基づいて、作業者の動作が予測される領域を演算するステップとを備える。
 本発明によるプログラムは、上記した作業領域推定方法をコンピュータに実行させるためのものである。
 本発明の作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラムによれば、作業者が作業を行う領域を推定することができる。
本発明の一実施形態による制御システムの構成を示したハードウェアブロック図である。 図1の制御システムにおける制御装置の機能ブロック図である。 本実施形態の制御システムの動作を説明するためのフローチャートである。
 以下、本発明の一実施形態について図面を参照して説明する。
 まず、図1および図2を参照して、本発明の一実施形態による制御システム100の構成について説明する。
 制御システム100は、図1に示すように、ロボット50を制御する制御装置1と、作業者に装着される検出装置2とを備えている。この制御システム100は、たとえば、工場の生産ラインなどにおいて作業者の作業領域(動作が予測される領域)を推定し、その作業者の作業領域に応じてロボット50を制御するように構成されている。なお、ロボット50は、たとえば工場の生産ラインなどに設置されるロボットアームであり、本発明の「制御対象」の一例である。
 検出装置2は、作業者の各部位に取り付けられており、各検出装置2は、取り付けられた部位についての動作を検出するために設けられている。なお、図1では2つの検出装置2を示したが、作業者の全身の動作を検出するためにより多数の検出装置2が設けられていてもよい。作業者に対する検出装置2の取付位置の一例としては、頭部、両肩部、両腕部(上腕、前腕、手)、背中部、腰部、および、両脚部(腿、脛、足)である。
 この検出装置2は、加速度データを検出する加速度センサ2aと、角速度データを検出する角速度センサ2bと、加速度センサ2aおよび角速度センサ2bの検出結果を制御装置1に出力する出力部2cとを含んでいる。なお、検出装置2は、たとえば無線で制御装置1に接続されているが、有線で制御装置1に接続されていてもよい。
 制御装置1は、作業者の向き情報および動作情報を取得し、その向き情報および動作情報と人体モデルとに基づいて作業者の作業領域を推定するように構成されている。そして、制御装置1は、作業者の作業領域の外側でロボット50を動作させるように構成されている。さらに、制御装置1は、作業者の作業領域の内側にロボット50が進入した場合の安全性を判断し、安全である場合に作業領域内へのロボット50の進入を許容するようになっている。なお、作業者の人体モデルとは、たとえば、作業者の身体の各部位についての寸法をデータベース化したものである。
 制御装置1は、CPU11と、ROM12と、RAM13と、入出力部14とを含んでいる。CPU11は、ROM12に記憶されたプログラム12aなどに基づいて演算処理を実行するように構成されている。ROM12は、不揮発性のメモリであり、プログラム12aやそのプログラム12aの実行の際に用いられる設定値などを記憶している。なお、プログラム12aにはロボット50の制御プログラムなどが含まれている。RAM13は、揮発性のメモリであり、CPU11による演算結果や検出装置2の検出結果などを一時的に記憶する機能を有する。入出力部14には、複数の検出装置2、ロボット50、および、制御装置1の設定変更などを行うためのツール装置60などが接続されている。
 また、制御装置1は、図2に示すように、作業者情報取得部21と、人体モデル演算部22と、人体モデル記録部23と、向き演算部24と、可動域演算部25と、動作演算部26と、作業者用の作業領域演算部27と、ロボット情報取得部28と、ロボット動作演算部29と、ロボット50用の作業領域演算部30と、安全性判断部31と、ロボット制御部32とを含んでいる。なお、作業者情報取得部21、人体モデル演算部22、向き演算部24、可動域演算部25、動作演算部26、作業領域演算部27、ロボット情報取得部28、ロボット動作演算部29、作業領域演算部30、安全性判断部31およびロボット制御部32は、CPU11がプログラム12aを実行することにより実現される。また、人体モデル記録部23は、ROM12の記憶領域の一部によって構成されている。
 また、作業者情報取得部21、人体モデル演算部22、人体モデル記録部23、向き演算部24、可動域演算部25、動作演算部26および作業領域演算部27により、作業者の作業領域を推定する作業領域推定部40が構成されている。なお、作業領域推定部40は、本発明の「作業領域推定装置」の一例である。
 作業者情報取得部21は、各検出装置2の検出結果が入力されるように構成されている。すなわち、作業者情報取得部21は、作業者の各部位の加速度データおよび角速度データを経時的に取得している。そして、作業者情報取得部21は、その加速度データおよび角速度データを用いて位置情報および姿勢情報を算出するように構成されている。つまり、作業者情報取得部21は、作業者の部位毎についての位置情報および姿勢情報を経時的に取得している。なお、位置情報は、たとえば3次元座標の座標値であり、姿勢情報は、たとえば各座標軸に対する回転角である。また、作業者情報取得部21は、本発明の「状態取得部」の一例である。
 人体モデル演算部22は、作業者情報取得部21により取得した位置情報および姿勢情報に基づいて、作業者の人体モデルを演算するために設けられている。この人体モデル演算部22は、作業者の各部位の位置情報および姿勢情報の経時変化から、各部位の寸法を算出することにより人体モデルを作成するようになっている。なお、人体モデル演算部22による人体モデルの演算時に、作業者に対して所定の動作を行うように促すようにしてもよい。
 人体モデル記録部23には、作業者の人体モデルが記録されている。この人体モデル記録部23には、人体モデル演算部22の演算結果である人体モデルが記録されていてもよいし、ツール装置60を用いて作業者によって入力された人体モデルが記録されていてもよい。すなわち、本実施形態では、人体モデル記録部23に対する人体モデルの記録方法が2つあり、いずれの方法で記録されていてもよい。
 向き演算部24は、作業者情報取得部21により取得した位置情報および姿勢情報と、人体モデル記録部23に記録された人体モデルとに基づいて、作業者の向き情報を演算するために設けられている。この向き情報には、たとえば、作業者の胴体の向き情報と、作業者の頭部の向き情報とが含まれている。なお、胴体の向きとは、たとえば、胴体の正面が向いている方向であり、位置および姿勢の経時変化からその向きの変化をトレースすることが可能である。同様に、頭部の向きとは、たとえば、頭部の正面が向いている方向であり、位置および姿勢の経時変化からその向きの変化をトレースすることが可能である。なお、向き演算部24は、本発明の「向き取得部」の一例である。
 可動域演算部25は、作業者の可動域を演算するために設けられている。この可動域演算部25は、向き演算部24により演算された作業者の向き情報と、人体モデル記録部23に記録された人体モデルとに基づいて、作業者の可動域を演算するように構成されている。なお、可動域とは、作業者の周囲を取り囲む所定の領域であり、現在の状態から作業者が身体を移動させることが可能な領域である。たとえば、肩部が固定されている場合において、腕部の可動域は、腕部を延ばして届く範囲である。
 動作演算部26は、作業者の動作情報を演算するために設けられている。この動作演算部26は、人体モデル記録部23に記録された人体モデルに対して、作業者情報取得部21により取得した位置情報および姿勢情報を入力することにより、作業者の各部位の動作情報を演算するように構成されている。すなわち、作業者の各部位の位置および姿勢の経時変化から各部位の動作を演算するようになっている。なお、動作演算部26は、本発明の「第1動作取得部」の一例である。
 作業領域演算部27は、作業者の作業領域を演算するために設けられている。具体的には、作業領域演算部27は、可動域演算部25により演算された可動域と、動作演算部26により演算された動作情報とに基づいて、作業領域を演算するように構成されている。
 ロボット情報取得部28には、ロボット50から各種情報50aが入力されている。各種情報50aは、たとえば、ロボット50に関する位置情報、速度情報、加速度情報および経路情報などであり、ロボット50に設けられたセンサ(図示省略)によって検出される。
 ロボット動作演算部29は、ロボット50の動作情報を演算するために設けられている。このロボット動作演算部29は、たとえば、ロボット情報取得部28により取得した各種情報50aと、ロボット50を制御する制御プログラムとに基づいて、ロボット50の動作情報を演算するようになっている。なお、ロボット動作演算部29は、本発明の「第2動作取得部」の一例である。
 作業領域演算部30は、ロボット50の作業領域(動作が予測される領域)を演算するために設けられている。この作業領域演算部30は、たとえば、ロボット動作演算部29の演算結果に基づいて、ロボット50の作業領域を演算するように構成されている。
 安全性判断部31は、作業者の作業領域の内側にロボット50が進入した場合の安全性を判断するために設けられている。この安全性判断部31は、作業者の作業領域とロボット50の作業領域とが干渉する(重なり合う)か否かを判断するとともに、作業者の作業領域とロボット50の作業領域とが干渉すると判断した場合に、安全性の判断を行うように構成されている。
 具体的には、安全性判断部31は、作業者の作業領域とロボット50の作業領域とが干渉すると判断した場合に、作業者の動作情報とロボット50の動作情報とに基づいて、作業者とロボット50とが衝突するか否かを判断するように構成されている。さらに、安全性判断部31は、作業者とロボット50とが衝突すると判断した場合に、その衝突時の衝撃力を演算するように構成されている。なお、衝撃力は、たとえば、作業者の動作情報およびロボット50の動作情報に基づいて演算される。すなわち、作業者の動作情報およびロボット50の動作情報に基づいて安全性が判断される。そして、安全性判断部31は、作業者とロボット50とが衝突しないと判断した場合、および、衝撃力が所定値未満の場合に、安全であると判断し、衝撃力が所定値以上の場合に、安全ではないと判断するようになっている。なお、この所定値は、たとえば、予め設定された値であって、作業者が痛みを感じない程度の値であってもよいし、作業者がけがをしない程度の値であってもよい。
 ロボット制御部32は、ロボット50に対して動作指示を出力するために設けられている。このロボット制御部32は、作業者の作業領域の外側でロボット50を動作させるように構成されている。さらに、ロボット制御部32は、安全性判断部31により安全であると判断された場合に、作業者の作業領域の内側でロボット50を動作させることが可能である。たとえば、ロボット制御部32は、作業者の作業領域とロボット50の作業領域とが干渉しない場合、および、安全性判断部31により安全であると判断された場合に、ロボット50を制御プログラムに基づいて動作させ、安全性判断部31により安全ではないと判断された場合に、ロボット50を停止させて作業者の作業領域に進入しないようになっている。なお、ロボット制御部32は、本発明の「制御部」の一例である。
 -制御システムの動作-
 次に、図3を参照して、本実施形態の制御システム100の動作について説明する。この動作には、制御装置1による作業領域推定方法が含まれている。
 なお、以下の各ステップはCPU11(図1参照)がプログラム12a(図1参照)を実行することにより行われる。すなわち、プログラム12aは、以下の各ステップを制御装置1(図1参照)に実行させるためのものであり、制御装置1が読み取り可能な記録媒体であるROM12(図1参照)に格納されている。
 また、人体モデル記録部23(図2参照)には作業者の人体モデルが予め記録されている。この人体モデルは、人体モデル演算部22(図2参照)により記録されていてもよいし、ツール装置60(図2参照)を用いて記録されていてもよい。また、作業者の各部位には検出装置2が装着されている。
 まず、図3のステップS1において、作業者とロボット50(図2参照)との協調動作が開始されたか否かが判断される。たとえば、作業者が開始ボタン(図示省略)を操作した場合に、協調動作が開始されたと判断される。そして、協調動作が開始されたと判断された場合には、ステップS2に移る。その一方、協調動作が開始されていないと判断された場合には、ステップS1が繰り返し行われる。すなわち、協調動作が開始されるまで制御装置1が待機する。
 次に、ステップS2において、作業者情報取得部21(図2参照)により、作業者の部位毎についての位置情報および姿勢情報が取得される。具体的には、各検出装置2から入力される加速度データおよび角速度データに基づいて、各部位の位置情報および姿勢情報が算出される。
 次に、ステップS3において、向き演算部24(図2参照)により、作業者の向き情報が演算される。具体的には、作業者の位置情報および姿勢情報と人体モデル記録部23に記録された人体モデルとに基づいて、作業者の胴体および頭部の向き情報が演算される。
 次に、ステップS4において、可動域演算部25(図2参照)により、作業者の可動域が演算される。具体的には、作業者の向き情報と人体モデルとに基づいて、作業者の可動域が演算される。
 次に、ステップS5において、動作演算部26(図2参照)により、作業者の各部位の動作情報が演算される。具体的には、人体モデル記録部23に記録された人体モデルに対して各部位の位置情報および姿勢情報が入力されることにより、作業者の各部位の動作情報が演算される。
 次に、ステップS6において、作業領域演算部27(図2参照)により、作業者の作業領域が演算される。具体的には、作業者の可動域および動作情報から作業領域が演算される。
 次に、ステップS7において、ロボット情報取得部28(図2参照)により、ロボット50の各種情報50a(図2参照)が取得される。そして、ステップS8において、ロボット動作演算部29(図2参照)により、ロボット50の動作情報が演算される。その後、ステップS9において、作業領域演算部30(図2参照)により、ロボット50の作業領域が演算される。
 次に、ステップS10において、安全性判断部31(図2参照)により、作業者の作業領域とロボット50の作業領域とが干渉するか否かが判断される。この判断は、ステップS6で算出された作業者の作業領域と、ステップS9で算出されたロボット50の作業領域とに基づいて行われる。そして、作業者の作業領域とロボット50の作業領域とが干渉すると判断された場合には、ステップS11に移る。その一方、作業者の作業領域とロボット50の作業領域とが干渉しないと判断された場合には、ステップS12に移る。
 そして、ステップS11では、安全性判断部31により、安全性の判断が行われる。具体的には、ステップS5で算出された作業者の動作情報と、ステップS8で算出されたロボット50の動作情報とに基づいて、作業者とロボット50とが衝突するか否かが判断される。さらに、作業者とロボット50とが衝突すると判断された場合には、作業者の動作情報とロボット50の動作情報とに基づいて、衝突時の衝撃力が演算される。そして、安全性判断部31は、作業者とロボット50とが衝突しないと判断した場合、および、衝撃力が所定値未満の場合に、安全であると判断し、衝撃力が所定値以上の場合に、安全ではないと判断する。
 次に、ステップS12では、ロボット制御部32(図2参照)により、ロボット50が制御される。具体的には、作業者の作業領域とロボット50の作業領域とが干渉しないと判断された場合、および、安全であると判断された場合に、ロボット50を制御プログラムに基づいて動作させる。すなわち、安全である場合には、作業者の作業領域の内側でロボット50を動作させる。また、安全ではないと判断された場合には、作業者の作業領域にロボット50を進入させないために、たとえばロボット50を停止させる。
 次に、ステップS13において、作業者とロボット50との協調動作が終了されたか否かが判断される。たとえば、作業者が終了ボタン(図示省略)を操作した場合に、協調動作が終了されたと判断される。そして、協調動作が終了されたと判断された場合には、エンドに移る。その一方、協調動作が終了されていないと判断された場合には、ステップS2に戻る。
 -効果-
 本実施形態では、上記のように、作業者の向き情報を演算する向き演算部24と、その向き情報と人体モデルとに基づいて作業者の可動域を演算する可動域演算部25と、作業者の動作情報を演算する動作演算部26と、可動域と動作情報とに基づいて作業者の作業領域を演算する作業領域演算部27とが設けられている。このように構成することによって、作業者の意図が反映された情報である向き情報に基づいて作業領域を推定することにより、作業者の作業領域を高い精度で推定することができる。さらに、作業者の動作情報を考慮することにより、作業領域の推定精度をより向上させることができる。すなわち、動作情報を用いて、可動域から絞り込んだ作業領域を推定することができる。
 また、本実施形態では、作業者の作業領域の外側でロボット50を動作させるロボット制御部32が設けられている。このように構成することによって、ロボット50および作業者が協調して作業を行う状況下において、ロボット50が作業者に衝突するのを抑制することができるので、安全性の向上を図ることができる。また、作業者に対してロボット50を限界まで接近させることが可能であることから、ロボット50の作業領域を広くすることができるので、生産性の向上を図ることができる。
 また、本実施形態では、作業者の作業領域の内側にロボット50が進入した場合の安全性を判断する安全性判断部31が設けられている。このように構成することによって、安全である場合に、作業者の作業領域の内側にロボット50を進入可能にすることにより、ロボット50の作業領域をより広くすることができるので、安全性の低下を抑制しながら、生産性をより向上させることができる。
 -他の実施形態-
 なお、今回開示した実施形態は、すべての点で例示であって、限定的な解釈の根拠となるものではない。したがって、本発明の技術的範囲は、上記した実施形態のみによって解釈されるものではなく、特許請求の範囲の記載に基づいて画定される。また、本発明の技術的範囲には、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。
 たとえば、本実施形態では、ロボット50がロボットアームである例を示したが、これに限らず、制御対象が部品を搬送する搬送装置などであってもよい。すなわち、制御対象はたとえば産業機械である。
 また、本実施形態では、複数の検出装置2により作業者の全身の動作を検出する例を示したが、これに限らず、作業者の局部(たとえば、上半身)の動作のみを検出するようにしてもよい。
 また、本実施形態では、CPU11がプログラム12aを実行することにより、作業者情報取得部21、人体モデル演算部22、向き演算部24、可動域演算部25、動作演算部26、作業者用の作業領域演算部27、ロボット情報取得部28、ロボット動作演算部29、ロボット50用の作業領域演算部30、安全性判断部31およびロボット制御部32が実現される例を示したが、これに限らず、作業者情報取得部、人体モデル演算部、向き演算部、可動域演算部、動作演算部、作業者用の作業領域演算部、ロボット情報取得部、ロボット動作演算部、ロボット用の作業領域演算部、安全性判断部およびロボット制御部がそれぞれハードウェアで構成されていてもよい。
 また、本実施形態では、加速度データおよび角速度データに基づいて、位置情報および姿勢情報を算出する例を示したが、これに限らず、速度データ、角加速度データ、圧力データおよび磁気データなどに基づいて、位置情報および姿勢情報を算出するようにしてもよい。すなわち、検出装置2が加速度データおよび角速度データを検出する例を示したが、これに限らず、検出装置は、加速度データ、角速度データ、速度データ、角加速度データ、圧力データおよび磁気データのうちの少なくとも1つを検出するように構成されていればよい。
 また、本実施形態では、作業者情報取得部21が、加速度データおよび角速度データを取得し、その加速度データおよび角速度データを用いて位置情報および姿勢情報を算出する例を示したが、これに限らず、作業者情報取得部が、加速度データ、角速度データ、速度データ、角加速度データ、圧力データおよび磁気データのうちの少なくとも1つを取得し、その取得したデータを用いて位置情報および姿勢情報の少なくともいずれか一方を算出するようにすればよい。
 また、本実施形態では、人体モデル演算部22が位置情報および姿勢情報に基づいて作業者の人体モデルを演算する例を示したが、これに限らず、人体モデル演算部が位置情報または姿勢情報に基づいて作業者の人体モデルを演算するようにしてもよい。
 また、本実施形態では、制御装置1に人体モデル演算部22が設けられるとともに、ツール装置60から人体モデルを入力可能に構成する例を示したが、これに限らず、人体モデル演算部22が設けられていれば、ツール装置60から人体モデルを入力できないようにしてもよいし、ツール装置60から人体モデルを入力可能であれば、人体モデル演算部22が設けられていなくてもよい。
 また、本実施形態では、人体モデル記録部23が設けられる例を示したが、これに限らず、作業者の人体モデルを外部から入手可能であれば、人体モデル記録部が設けられていなくてもよい。
 また、本実施形態では、向き演算部24が、作業者の位置情報および姿勢情報と人体モデルとに基づいて作業者の向き情報を演算する例を示したが、これに限らず、向き演算部が、作業者の位置情報または姿勢情報と人体モデルとに基づいて作業者の向き情報を演算するようにしてもよいし、人体モデルによらず、位置情報および姿勢情報の少なくともいずれか一方に基づいて作業者の向き情報を演算するようにしてもよい。また、作業者の向き情報を取得する向き取得部が設けられていれば、向き演算部が設けられていなくてもよい。
 また、本実施形態では、向き演算部24が、作業者の胴体の向き情報と、作業者の頭部の向き情報とを演算する例を示したが、これに限らず、向き演算部が、作業者の胴体の向き情報のみを演算するようにしてもよい。
 また、本実施形態では、可動域演算部25が設けられる例を示したが、これに限らず、可動域演算部が設けられていなくてもよい。この場合には、作業領域演算部が、作業者の向き情報および動作情報と人体モデルとに基づいて作業領域を推定するようにしてもよい。
 また、本実施形態では、動作演算部26が、位置情報および姿勢情報と人体モデルとから動作情報を演算する例を示したが、これに限らず、動作演算部が、位置情報または姿勢情報と人体モデルとから動作情報を演算するようにしてもよいし、人体モデルによらず、位置情報および姿勢情報の少なくともいずれか一方に基づいて動作情報を演算するようにしてもよい。また、作業者の動作情報を取得する第1動作取得部が設けられていれば、動作演算部が設けられていなくてもよい。
 また、本実施形態において、作業領域演算部27が、作業領域内における動作可能性が高い領域を推定するようにしてもよい。具体的には、作業領域演算部27が、向き演算部24により演算された作業者の向き情報(胴体および頭部の向き情報)に基づいて、作業領域内における動作可能性を重み付け評価するようにしてもよい。そして、作業領域演算部27は、重み付け値(動作可能性)が所定値以上の領域を、動作可能性が高い領域であると推定するようにしてもよい。なお、所定値は、たとえば、予め設定された値であり、動作可能性が高いと判断される境界値である。重み付け評価の具体例としては、作業者は頭部が向いている方向側の領域で作業を行う可能性が高いことから、その領域の重み付け値を高くし、その領域から離れるほど重み付け値を低くする。この場合には、ロボット制御部32が、動作可能性が高い領域の外側でロボット50を動作させるようにしてもよい。
 また、本実施形態では、ロボット動作演算部29および作業領域演算部30が設けられる例を示したが、これに限らず、制御装置のROMにロボットの動作情報および作業領域が予め記録されている場合には、ロボット動作演算部および作業領域演算部が設けられていなくてもよい。この場合には、図3のフローチャートにおけるステップS8およびS9を省略することが可能である。
 また、本実施形態では、制御装置1のROM12にロボット50の制御プログラムが記録されている例を示したが、これに限らず、制御装置のROMにロボットの制御プログラムが記録されていなくてもよい。すなわち、自律的に動作するロボットに対して、そのロボットが作業者の作業領域に進入すると安全ではない場合に、ロボットの進入を制御装置が禁止するようにしてもよい。この場合には、ロボットの各種情報から動作情報を演算するとともに、ロボットの作業領域を演算する。そして、作業者の作業領域とロボットの作業領域とが干渉する場合において、作業者の動作情報とロボットの動作情報とから安全ではないと判断される場合に、ロボットに対して停止指示などを出力するようにすればよい。
 また、本実施形態では、安全性判断部31により安全ではないと判断された場合に、ロボット制御部32がロボット50を停止させる例を示したが、これに限らず、安全性判断部により安全ではないと判断された場合に、作業者の作業領域の外側でロボットにその他の作業を行わせるようにしてもよい。また、安全性判断部により安全ではないと判断された場合に、ロボットを安全性の確保が可能な状態にすることにより、作業領域の内側でのロボットの動作を許容するようにしてもよい。なお、安全性の確保が可能な状態にするとは、たとえば、衝突時の衝撃力が所定値未満になるように、ロボットの動作速度を低下させることである。
 また、本実施形態では、安全性判断部31が、作業者の動作情報およびロボット50の動作情報に基づいて安全性を判断する例を示したが、これに限らず、安全性判断部が、作業者の動作情報またはロボットの動作情報に基づいて安全性を判断するようにしてもよい。
 また、本実施形態では、安全性判断部31が設けられる例を示したが、これに限らず、安全性判断部が設けられていなくてもよい。この場合には、作業者の作業領域の外側でロボットを動作させることが好ましい。
 また、本実施形態では、開始ボタンが操作された場合に、協調動作が開始されたと判断する例を示したが、これに限らず、作業者が所定の区画に進入した場合に、協調動作が開始されたと判断するようにしてもよい。同様に、終了ボタンが操作された場合に、協調動作が終了されたと判断する例を示したが、これに限らず、作業者が所定の区画から退出した場合に、協調動作が終了されたと判断するようにしてもよい。
 また、本実施形態のフローチャートでは、作業者の作業領域を演算した後に、ロボット50の作業領域を演算する例を示したが、これに限らず、作業者の作業領域とロボットの作業領域とを同時に演算してもよいし、ロボットの作業領域を演算した後に、作業者の作業領域を演算するようにしてもよい。同様に、作業者の動作情報を演算した後に、ロボット50の動作情報を演算する例を示したが、これに限らず、作業者の動作情報とロボットの動作情報とを同時に演算してもよいし、ロボットの動作情報を演算した後に、作業者の動作情報を演算するようにしてもよい。すなわち、図3のフローチャートは、一例であってその手順に限定されるものではない。
 本発明は、作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラムに利用可能である。
 1   制御装置(コンピュータ)
 2   検出装置
 12a プログラム
 21  作業者情報取得部(状態取得部)
 22  人体モデル演算部
 23  人体モデル記録部
 24  向き演算部(向き取得部)
 25  可動域演算部
 26  動作演算部(第1動作取得部)
 27  作業領域演算部
 29  ロボット動作演算部(第2動作取得部)
 31  安全性判断部
 32  ロボット制御部(制御部)
 40  作業領域推定部(作業領域推定装置)
 50  ロボット(制御対象)
 100 制御システム

Claims (21)

  1.  作業者が作業を行う領域を推定する作業領域推定装置であって、
     作業者の動作情報を取得する第1動作取得部と、
     作業者の向き情報を取得する向き取得部と、
     前記動作情報と前記向き情報と作業者の人体モデルとに基づいて、作業者の動作が予測される領域を演算する作業領域演算部とを備えることを特徴とする作業領域推定装置。
  2.  請求項1に記載の作業領域推定装置において、
     前記向き情報と前記人体モデルとに基づいて、作業者の可動域を演算する可動域演算部を備え、
     前記作業領域演算部は、前記動作情報と前記可動域とに基づいて、作業者の動作が予測される領域を演算するように構成されていることを特徴とする作業領域推定装置。
  3.  請求項1または2に記載の作業領域推定装置において、
     前記向き情報は、作業者の胴体の向き情報と、作業者の頭部の向き情報とを含み、
     前記作業領域演算部は、前記胴体の向き情報と前記頭部の向き情報とに基づいて、作業者の動作が予測される領域内における動作可能性を重み付け評価するように構成されていることを特徴とする作業領域推定装置。
  4.  請求項1~3のいずれか1つに記載の作業領域推定装置において、
     作業者の位置情報および姿勢情報の少なくともいずれか一方を取得する状態取得部を備えることを特徴とする作業領域推定装置。
  5.  請求項4に記載の作業領域推定装置において、
     前記状態取得部は、加速度データ、角速度データ、速度データ、角加速度データ、圧力データおよび磁気データのうちの少なくとも1つを取得し、その取得したデータを用いて前記位置情報および前記姿勢情報の少なくともいずれか一方を算出するように構成されていることを特徴とする作業領域推定装置。
  6.  請求項4または5に記載の作業領域推定装置において、
     前記向き取得部は、前記位置情報および前記姿勢情報の少なくともいずれか一方と前記人体モデルとに基づいて、前記向き情報を演算するように構成されていることを特徴とする作業領域推定装置。
  7.  請求項4~6のいずれか1つに記載の作業領域推定装置において、
     前記第1動作取得部は、前記位置情報および前記姿勢情報の少なくともいずれか一方と前記人体モデルとに基づいて、前記動作情報を演算するように構成されていることを特徴とする作業領域推定装置。
  8.  請求項4~7のいずれか1つに記載の作業領域推定装置において、
     前記位置情報および前記姿勢情報の少なくともいずれか一方から前記人体モデルを演算する人体モデル演算部を備えることを特徴とする作業領域推定装置。
  9.  請求項1~8のいずれか1つに記載の作業領域推定装置において、
     前記人体モデルが記録された人体モデル記録部を備えることを特徴とする作業領域推定装置。
  10.  請求項1~9のいずれか1つに記載の作業領域推定装置と、
     制御対象を制御する制御部とを備えることを特徴とする制御装置。
  11.  請求項10に記載の制御装置において、
     前記制御部は、作業者の動作が予測される領域の外側で、前記制御対象を動作させるように構成されていることを特徴とする制御装置。
  12.  請求項10に記載の制御装置において、
     前記向き情報は、作業者の胴体の向き情報と、作業者の頭部の向き情報とを含み、
     前記作業領域演算部は、前記胴体の向き情報と前記頭部の向き情報とに基づいて、作業者の動作が予測される領域内における動作可能性を重み付け評価するように構成され、
     前記制御部は、前記動作可能性が所定値以上の領域の外側で、前記制御対象を動作させるように構成されていることを特徴とする制御装置。
  13.  請求項10~12のいずれか1つに記載の制御装置において、
     作業者の動作が予測される領域の内側に、前記制御対象が進入した場合の安全性を判断する安全性判断部を備えることを特徴とする制御装置。
  14.  請求項13に記載の制御装置において、
     前記制御部は、前記安全性判断部により安全であると判断された場合に、作業者の動作が予測される領域の内側で、前記制御対象を動作させることが可能に構成されていることを特徴とする制御装置。
  15.  請求項13または14に記載の制御装置において、
     前記制御部は、前記安全性判断部により安全ではないと判断された場合に、前記制御対象を安全性の確保が可能な状態にすることにより、作業者の動作が予測される領域の内側での前記制御対象の動作を許容するように構成されていることを特徴とする制御装置。
  16.  請求項13~15のいずれか1つに記載の制御装置において、
     前記安全性判断部は、前記動作情報に基づいて安全性を判断するように構成されていることを特徴とする制御装置。
  17.  請求項13~16のいずれか1つに記載の制御装置において、
     前記制御対象の動作情報を取得する第2動作取得部を備え、
     前記安全性判断部は、前記制御対象の動作情報に基づいて安全性を判断するように構成されていることを特徴とする制御装置。
  18.  請求項10~17のいずれか1つに記載の制御装置と、
     作業者に装着される検出装置とを備えることを特徴とする制御システム。
  19.  請求項18に記載の制御システムにおいて、
     前記検出装置は、加速度データ、角速度データ、速度データ、角加速度データ、圧力データおよび磁気データのうちの少なくとも1つを検出するように構成され、
     前記作業領域推定装置は、作業者の位置情報および姿勢情報の少なくともいずれか一方を取得する状態取得部を含み、
     前記状態取得部は、前記検出装置の検出結果を取得し、その取得した検出結果を用いて前記位置情報および前記姿勢情報の少なくともいずれか一方を算出するように構成されていることを特徴とする制御システム。
  20.  作業者が作業を行う領域を推定する作業領域推定方法であって、
     作業者の動作情報を取得するステップと、
     作業者の向き情報を取得するステップと、
     前記動作情報と前記向き情報と作業者の人体モデルとに基づいて、作業者の動作が予測される領域を演算するステップとを備えることを特徴とする作業領域推定方法。
  21.  請求項20に記載の作業領域推定方法をコンピュータに実行させるためのプログラム。
     
PCT/JP2017/000386 2016-02-15 2017-01-10 作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラム WO2017141567A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP17752831.2A EP3418835B1 (en) 2016-02-15 2017-01-10 Work region estimation device, control device, control system, work region estimation method, and program
CN201780002682.1A CN107850892B (zh) 2016-02-15 2017-01-10 作业区域推断装置及方法、控制装置、系统及存储介质
US15/751,160 US10591905B2 (en) 2016-02-15 2017-01-10 Work region estimation device, control device, control system, work region estimation method, and non-transitory computer-readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016025959A JP6504072B2 (ja) 2016-02-15 2016-02-15 作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラム
JP2016-025959 2016-02-15

Publications (1)

Publication Number Publication Date
WO2017141567A1 true WO2017141567A1 (ja) 2017-08-24

Family

ID=59625843

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/000386 WO2017141567A1 (ja) 2016-02-15 2017-01-10 作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラム

Country Status (5)

Country Link
US (1) US10591905B2 (ja)
EP (1) EP3418835B1 (ja)
JP (1) JP6504072B2 (ja)
CN (1) CN107850892B (ja)
WO (1) WO2017141567A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10987810B2 (en) 2018-05-15 2021-04-27 Fanuc Corporation Robot system

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190138967A1 (en) * 2017-11-03 2019-05-09 Drishti Technologies, Inc. Workspace actor coordination systems and methods
JP6848934B2 (ja) * 2018-06-19 2021-03-24 株式会社ダイフク 物品搬送車
US20220187803A1 (en) * 2020-12-16 2022-06-16 The Boeing Company Shop Floor Social Distancing for Aircraft Assembly

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240791A (ja) * 1997-02-27 1998-09-11 Fujitsu Ltd 機器操作性評価支援装置
JP2006043862A (ja) * 2004-08-09 2006-02-16 Honda Motor Co Ltd マン・マシン作業システム
JP2015058167A (ja) * 2013-09-19 2015-03-30 カシオ計算機株式会社 運動支援装置及び運動支援方法、運動支援プログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004230541A (ja) 2003-02-03 2004-08-19 Daihatsu Motor Co Ltd 生産ライン
JP2004258802A (ja) * 2003-02-24 2004-09-16 Fuji Xerox Co Ltd 作業空間管理装置
CN100556623C (zh) * 2004-10-19 2009-11-04 松下电器产业株式会社 自动机械装置
US20100114373A1 (en) * 2008-10-31 2010-05-06 Camotion, Inc. Systems and methods for scanning a workspace volume for objects
US8253792B2 (en) * 2009-08-28 2012-08-28 GM Global Technology Operations LLC Vision system for monitoring humans in dynamic environments
WO2011089885A1 (ja) * 2010-01-25 2011-07-28 パナソニック株式会社 危険提示装置、危険提示システム、危険提示方法およびプログラム
KR101797261B1 (ko) * 2010-06-18 2017-11-13 히다찌 겐끼 가부시키가이샤 작업 기계의 주위 감시 장치
CN101913076B (zh) * 2010-06-23 2012-09-05 中国科学院自动化研究所 基于工业机器人的活塞、活塞销和连杆装配方法及装置
CN103052455A (zh) * 2011-01-17 2013-04-17 松下电器产业株式会社 安全装置及预备动作判定方法
JP5771413B2 (ja) * 2011-03-02 2015-08-26 パナソニック株式会社 姿勢推定装置、姿勢推定システム、および姿勢推定方法
JP2012236244A (ja) * 2011-05-10 2012-12-06 Sony Corp ロボット装置、ロボット装置の制御方法、並びにロボット装置制御用プログラム
CN103988136A (zh) * 2011-12-09 2014-08-13 戴姆勒股份公司 运行生产厂房的方法
JP5832388B2 (ja) * 2012-07-09 2015-12-16 本田技研工業株式会社 作業方法及び作業装置
WO2014008929A1 (de) * 2012-07-10 2014-01-16 Siemens Aktiengesellschaft Roboteranordnung und verfahren zum steuern eines roboters
JP5833998B2 (ja) * 2012-11-21 2015-12-16 株式会社日立製作所 組立作業性評価計算装置、および組立作業性評価方法
WO2014167465A1 (en) * 2013-04-11 2014-10-16 Koninklijke Philips N.V. User interface with adaptive extent of user control based on user presence information
US9269151B2 (en) * 2014-02-11 2016-02-23 Microsoft Technology Licensing, Llc Manufacturing line monitoring
KR101650764B1 (ko) * 2014-04-21 2016-08-24 한국기계연구원 작업자와 로봇 사이의 충돌 방지 시스템 및 방법
CN103955222B (zh) * 2014-05-05 2016-05-11 无锡普智联科高新技术有限公司 一种基于多障碍物环境的移动机器人路径规划方法
JP6397226B2 (ja) * 2014-06-05 2018-09-26 キヤノン株式会社 装置、装置の制御方法およびプログラム
US11022952B2 (en) * 2015-01-02 2021-06-01 Illinois Tool Works Inc. System and method for enhancing manufacturing efficiency via operator activity detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240791A (ja) * 1997-02-27 1998-09-11 Fujitsu Ltd 機器操作性評価支援装置
JP2006043862A (ja) * 2004-08-09 2006-02-16 Honda Motor Co Ltd マン・マシン作業システム
JP2015058167A (ja) * 2013-09-19 2015-03-30 カシオ計算機株式会社 運動支援装置及び運動支援方法、運動支援プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3418835A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10987810B2 (en) 2018-05-15 2021-04-27 Fanuc Corporation Robot system
DE102019112043B4 (de) 2018-05-15 2021-10-14 Fanuc Corporation Robotersystem

Also Published As

Publication number Publication date
EP3418835A1 (en) 2018-12-26
CN107850892B (zh) 2021-05-14
EP3418835A4 (en) 2019-11-06
JP6504072B2 (ja) 2019-04-24
CN107850892A (zh) 2018-03-27
EP3418835B1 (en) 2023-05-03
JP2017144488A (ja) 2017-08-24
US20180231961A1 (en) 2018-08-16
US10591905B2 (en) 2020-03-17

Similar Documents

Publication Publication Date Title
WO2017141567A1 (ja) 作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラム
CN106393097B (zh) 工业用机器人系统及其控制方法
US11548153B2 (en) Robot comprising safety system ensuring stopping time and distance
CN109834708B (zh) 限制机器人速度的控制装置
JP6883903B2 (ja) ロボットの安全性向上方法及び安全性評価方法
US11602863B2 (en) Device, method and program for estimating weight and position of gravity center of load by using robot
JP2019198907A (ja) ロボットシステム
KR102289375B1 (ko) 그래픽 정보를 이용한 실시간 로봇 충돌 위험도 모니터링이 가능한 충돌 물리력 빅데이터 기반 로봇 안전성 평가 방법
CN110948468A (zh) 机器人的控制方法和控制装置
JP6270334B2 (ja) ロボット制御装置及び方法
JP2017144490A (ja) 制御装置、制御システム、制御方法およびプログラム
WO2017141577A1 (ja) 衝撃予測装置、衝撃予測システム、制御装置、衝撃予測方法及び衝撃予測プログラム
KR101976358B1 (ko) 로봇의 안전성 향상 방법
WO2017141568A1 (ja) 作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラム
WO2017141579A1 (ja) 判定装置、制御装置、制御システム、判定方法およびプログラム
KR102003126B1 (ko) 로봇의 안전성 평가 방법
WO2017141570A1 (ja) 監視装置、制御装置、制御システム、監視方法およびプログラム
WO2023095926A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
WO2023037443A1 (ja) ロボット制御装置、学習装置および推論装置
KR101970951B1 (ko) 로봇 매니퓰레이터 충돌 검출 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17752831

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15751160

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE