WO2010092981A1 - 産業用ロボットシステム - Google Patents

産業用ロボットシステム Download PDF

Info

Publication number
WO2010092981A1
WO2010092981A1 PCT/JP2010/051962 JP2010051962W WO2010092981A1 WO 2010092981 A1 WO2010092981 A1 WO 2010092981A1 JP 2010051962 W JP2010051962 W JP 2010051962W WO 2010092981 A1 WO2010092981 A1 WO 2010092981A1
Authority
WO
WIPO (PCT)
Prior art keywords
work
unit
error
teaching
information
Prior art date
Application number
PCT/JP2010/051962
Other languages
English (en)
French (fr)
Inventor
哲男 野田
晴久 奥田
健一 田中
哲夫 椹木
寛 松久
泰義 横小路
秀夫 宇津野
雅晴 小森
元 水山
弘明 中西
由貴男 堀口
武久 幸田
一浩 泉井
Original Assignee
三菱電機株式会社
国立大学法人京都大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社, 国立大学法人京都大学 filed Critical 三菱電機株式会社
Priority to CN201080007473.4A priority Critical patent/CN102317044B/zh
Priority to JP2010550536A priority patent/JP5436460B2/ja
Priority to US13/147,415 priority patent/US9393691B2/en
Priority to DE112010000775.6T priority patent/DE112010000775B4/de
Priority to KR1020117018727A priority patent/KR101255948B1/ko
Publication of WO2010092981A1 publication Critical patent/WO2010092981A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23PMETAL-WORKING NOT OTHERWISE PROVIDED FOR; COMBINED OPERATIONS; UNIVERSAL MACHINE TOOLS
    • B23P19/00Machines for simply fitting together or separating metal parts or objects, or metal and non-metal parts, whether or not involving some deformation; Tools or devices therefor so far as not provided for in other classes
    • B23P19/04Machines for simply fitting together or separating metal parts or objects, or metal and non-metal parts, whether or not involving some deformation; Tools or devices therefor so far as not provided for in other classes for assembling or disassembling parts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4093Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by part programming, e.g. entry of geometrical information as taken from a technical drawing, combining this with machining and material information to obtain control information, named part programme, for the NC machine
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36404Adapt teached position as function of deviation 3-D, 2-D position workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39527Workpiece detector, sensor mounted in, near hand, gripper
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40111For assembly
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local

Definitions

  • the present invention relates to an industrial robot system used in a production system for executing product assembly of a manufacturing object.
  • product design procedure first, a structural design of a product to be manufactured and a cell layout design for manufacturing the product by unattended operation are performed.
  • product design data such as part connection information (part structure tree diagram) that represents the connection order relationship of the parts that make up the product, part geometry data, equipment layout data in the cell, robot specifications, etc.
  • Production equipment data Thereafter, programming, installation adjustment, teaching work, etc. for operating each facility such as a robot in the production system are started.
  • a processing operation for calculating an error recovery method in advance is performed only for the binary state of each component of the production system from the configuration information of the production system.
  • the present invention has been made to solve the above-described problems, and shortens the teaching time (installation adjustment time) when starting up and adjusting a production system (production line) using an industrial robot.
  • An object of the present invention is to obtain an industrial robot system with an extended continuous operation time in an error-free state after the start of operation.
  • An industrial robot system includes a robot having a manipulator and a hand, and is an industrial robot system used in a production system for assembling a product to be manufactured, at the time of starting and adjusting a production line Based on the work information corresponding to the choke stop that is an obstacle to the teaching work and the unattended continuous operation and the choke stop corresponding action plan unit for generating the first work path, the work that induces the error is suppressed.
  • An error inducing work suppression unit for generating error information for generating a teaching work unit for generating a second work path based on the first work path and the error information, and an optimal for the robot based on the second work path
  • the operation learning section that generates the third work path, the robot assembly work, and the control software are associated with each other and live.
  • An error recovery work teaching unit for teaching work, an error recovery library for storing error recovery work, and robot motion monitor information are generated and input to the error induction work suppression unit, the teaching work unit, and the motion learning unit
  • a first work path is generated based on each storage information of the data and error information from the error inducing work suppression unit, and the error recovery work teaching unit is based on the cause of the error from the teaching work unit and the operation history.
  • the error recovery information for the components including the robot is calculated, and the choke stop action planning unit, the teaching work unit, and the operation learning unit determine the necessary information for teaching the robot from the configuration information of the production system and the manufacturing object.
  • Program information including 3 work paths is generated.
  • the present invention it is possible to shorten the installation and adjustment time of a production line including an industrial robot and to increase the continuous operation time without error after the start of operation.
  • Example 1 It is a block block diagram which shows the industrial robot system which concerns on Example 1 of this invention.
  • Example 1 It is explanatory drawing which shows an example of the mounting image of the ecological interface used for Example 1 of this invention.
  • Example 1 It is explanatory drawing which shows the input / output information of the teaching operation
  • Example 1 It is explanatory drawing which shows the outline
  • Example 1 It is explanatory drawing which shows the input / output information of the operation learning part by Example 1 of this invention.
  • Example 1 It is a flowchart which shows the work analysis which considered auxiliary work, such as a chocolate stop return by Example 1 of this invention.
  • Example 1 It is explanatory drawing which shows the input / output information of the chocolate stop corresponding
  • Example 1 It is explanatory drawing which shows the framework of the error occurrence risk analysis method by Example 1 of this invention.
  • Example 1 It is explanatory drawing which shows the input / output information of the error induction work suppression part by Example 1 of this invention.
  • Example 1 It is explanatory drawing which shows the input / output information of the optimal work operation
  • Example 1 It is a block diagram which shows the structural example of the teaching learning system based on the deductive learning of knowledge by Example 1 of this invention.
  • Example 1 It is explanatory drawing which shows the input / output information of the error recovery operation
  • Example 1 It is explanatory drawing which shows notionally the structure of the finger eye camera measurement part used for Example 1 of this invention.
  • Example 1 It is explanatory drawing which shows the input / output information of the sensor feedback function based on the finger eye camera measurement part by Example 1 of this invention.
  • Example 1 It is explanatory drawing which shows the input / output information of the sensor feedback function based on the finger eye camera measurement part by Example 1 of this invention.
  • Example 1 It is explanatory drawing which shows the input / output information of the sensor feedback function based on the finger eye camera measurement part by Example 1 of this invention.
  • Example 1 It is explanatory drawing which shows the example of the three-dimensional measurement and recognition process by Example 1 of this invention with a block diagram.
  • Example 1 It is explanatory drawing which shows the input / output information of the three-dimensional recognition part by Example 1 of this invention.
  • Example 1 It is explanatory drawing which shows the input / output information of the algorithm design assistance part by Example 1 of this invention.
  • Example 1 It is explanatory drawing which shows the concept of the hand library by Example 1 of this invention typically.
  • Example 1 It is explanatory drawing which shows notionally the industrial robot system which concerns on Example 2 of this invention.
  • Example 2 It is explanatory drawing which shows the input / output information of the hand library function of the offline teaching part by Example 3 of this invention.
  • Example 3 It is explanatory drawing which shows the input / output information of the error detection function of the offline teaching part by Example 3 of this invention.
  • Example 3 It is explanatory drawing which shows the input / output information of the error recovery level determination function of the offline teaching part by Example 3 of this invention. (Example 3) It is explanatory drawing which shows the input / output information of the error occurrence risk analysis function of the offline teaching part by Example 3 of this invention. (Example 3) It is explanatory drawing which shows the input / output information of the action control function of the error recovery part by Example 5 of this invention. (Example 5) It is explanatory drawing which shows the input / output information of the teaching operation part reinforcement
  • Example 5 It is explanatory drawing which shows the input / output information of the teleoperation operation function of the error recovery part by Example 5 of this invention.
  • Example 5 It is explanatory drawing which shows the input-output information of the object recognition function for parts picking of the recognition part by Example 6 of this invention.
  • Example 6 It is explanatory drawing which shows the input / output information of the hybrid visual correction function of the recognition part by Example 6 of this invention.
  • Example 6 It is explanatory drawing which shows the input / output information of the visual function for error detection of the recognition part by Example 6 of this invention.
  • Example 6 It is explanatory drawing which shows the input / output information of the recognition application construction assistance function of the recognition part by Example 6 of this invention.
  • Example 6) It is a block block diagram which shows the industrial robot system which concerns on Example 7 of this invention.
  • Example 7 It is a block block diagram which shows the industrial robot system which concerns on Example 7 of this invention.
  • Example 7 It is a block block diagram which shows the industrial robot system which concerns on Example 7
  • Example 1 1 is a block diagram showing an industrial robot system according to Embodiment 1 of the present invention.
  • the industrial robot system is prepared and prepared in advance by three-dimensional CAD product design data and production equipment data 1 (including component connection information, geometric shape data, equipment layout data, etc.) and preparation preparation.
  • the specified work specification 2 and the robot system 3 installed in the production line are provided.
  • the controller 30, the manipulator 31, the finger eye camera measurement unit 32, and the three-dimensional recognition unit 33 are provided in the robot system 3.
  • the finger eye camera measurement unit 32 and the three-dimensional recognition unit 33 constitute an image measurement / recognition unit.
  • the manipulator 31 is provided with a manipulation device group 34, and the manipulation device group 34 includes a universal hand and the like.
  • the hand library 8 stores a gripping work operation sequence input from the manipulation device group 34.
  • the specific work library 9 stores a specific work action sequence input from the optimum work action generation unit 11 based on the specific work specification 2.
  • the error recovery library 10 stores the return work path corresponding to the error state generated by the error recovery work teaching unit 12 based on the cause of the error from the teaching work unit 6 and the operation history of the operator.
  • the chocolate stop response plan 4 An attached work sequence diagram and a work path with approximate coordinates are created and input to the teaching work unit 6. Further, the choke stop corresponding action planning unit 4 is interrelated with the error inducing work suppressing unit 5 and inputs a work order candidate to the error inducing work suppressing unit 5, and from the error inducing work suppressing unit 5. Capture error occurrence probability information.
  • the error inducing work suppression unit 5 is interrelated with the teaching work unit 6, inputs error occurrence probability information and an error cause to the teaching work unit 6, and takes in a teaching path from the teaching work unit 6. Further, the error inducing work suppression unit 5 generates error occurrence probability information and an error occurrence cause based on the operation monitor information from the controller 30 of the robot system 3.
  • the teaching work unit 6 includes a work sequence diagram (with error return sequence) and a work path (with approximate coordinates) from the chocolate stop corresponding action plan unit 4, error occurrence probability information and error occurrence cause from the error inducing work suppression unit 5. Based on the motion monitor information from the robot system 3 (the finger eye camera measurement unit 32 and the three-dimensional recognition unit 33), the cause of the error and the operation history of the operator are generated, and the refined work path ( (Robot program before learning) is generated and input to the operation learning unit 7 and the controller 30.
  • the operation learning unit 7 generates an optimized operation path (robot program after learning) based on the operation path from the teaching operation unit 6 and the operation monitor information from the robot system 3 and inputs the generated operation path to the controller 30.
  • the controller 30 drives and controls the manipulator 31 and the manipulation device group 34 based on the robot programs before and after learning, and the motion monitor information from the finger eye camera measurement unit 32 and the three-dimensional recognition unit 33.
  • the finger eye camera measurement unit 32 and the three-dimensional recognition unit 33 monitor the operations of the manipulator 31 and the manipulation device group 34 and input the operation monitor information to the controller 30 and the teaching work unit 6.
  • part connection information (part structure tree diagram) indicating the connection order relationship of the parts that make up the product
  • product design data such as part geometry data, equipment layout data in the cell, and robot specifications And other production equipment data.
  • product design data and production facility data 1 are input to the chocolate stop response plan 4.
  • work is decomposed
  • the work order is disassembled and the work order is determined, if the work order candidate is given to the error-induced work suppression unit 5, error occurrence probability information for the work is returned, so that the risk of chocolate stoppage is low.
  • a work order is selected. The error occurrence probability is updated as needed with the operation monitor information at the time of production execution.
  • a chocolate stop is an automatic facility that is used to perform automatic / semi-automatic operations such as transport, processing, assembly, and inspection / measurement on work objects (raw materials, workpieces, processing tools, etc.). It means a state where an abnormal condition occurs and the work function of the facility is temporarily stopped, and a non-serious temporary stop.
  • the chocolate stop response plan 4 determines each work and the work order, and checks the check point to check the chocolate stop being worked, and how far the work can be resumed when the check point is not passed. Points, return paths to return to return points, via points to avoid obstacles, work paths connecting each point, a sequence describing the execution order of each work path, and other robots and devices An “operation sequence diagram with error return sequence” including the synchronization point to be kept waiting is generated.
  • attribute labels are assigned to each work path. That is, sensor feedback such as “movement between two points”, “movement to a via point”, “operation with action by an end effector device”, “approach movement immediately before and after gripping a part, or work operation optimized in advance” “Work by control”, “Returning sequence from chocolate stop”, etc.
  • a plurality of labels may be attached to one work path.
  • the work sequence diagram at this stage includes only the labeled work path and each point, and does not yet include the contents of each work path.
  • the contents of the work path are specified by the position and orientation coordinates of the path ends and via points (multiple via points are added if necessary) and the inter-coordinate movement method (control law, interpolation method, etc.). is there.
  • the work operation optimized in advance includes tips for suppressing work mistakes and working quickly and flexibly.
  • a gripping strategy obtained from the optimized hand structure based on the gripping posture of the parts, a peg-in hole (use of a humanoid flexible finger), etc.
  • Specific work frequently used in the production process optimum work motion generation unit 11 and specific work library 9) and return path for returning to the return point according to the error state (error recovery work teaching unit 12 and error recovery library 10) , That is, the work operation obtained as knowledge from the results of teaching and execution of the robot work so far is used when generating work path candidates. Thereby, the recurrence of the chocolate stop induction work that occurred in the past is suppressed.
  • the choke stop corresponding action planning unit 4 generates the contents of a rough work path for each work using the equipment arrangement data and work order data in the cell. For example, assuming that there is a parts storage and a workbench in the production cell, and considering the work path related to a specific trajectory for transporting parts from the parts storage to the workbench, the robot Since there is a possibility of interference, finally, it is necessary to set the actual value of each work path to a precise value. However, in this case, since each work path is generated with an accuracy of about 5 cm, the reference posture for gripping the object (relative posture between the part and the hand) is set by the teaching work input means in the subsequent teaching work unit 6. It is determined by teaching by the operator.
  • the absolute coordinate is designated by the teaching worker using the teaching work input means only for final alignment of the operation point such as the gripping point with respect to the work path with the approximate coordinates.
  • a refined work path is determined.
  • the user's interface based on the ecological interface theory displayed on the teaching work PC or teaching pendant presents important points of operation and work status, and the operator looks at the presentation status and works to refine the position and orientation. And a work path is added by the teaching work input means as necessary.
  • the acquisition of the work situation is performed by the finger eye camera measurement unit 32 using an omnidirectional camera disposed on the hand (manipulation device group 34) of the robot (manipulator 31). Since the image acquired in this manner is a wide range that is difficult to conceal the visual field, the operator can easily observe the state of the hand of the robot during manual operation.
  • the work status is acquired using a force sensor (not shown) arranged on the hand (manipulation device group 34) of the robot (manipulator 31).
  • the force sensor is a sensor that measures both the force and torque applied to the sensor, and the hand of the robot refers to a finger portion of the robot hand or a connection portion between the robot hand and the robot. It is also possible to place a torque sensor on each joint axis of the manipulator and estimate and calculate both the force and torque applied to any position of the robot hand using data obtained from the plurality of torque sensors. The same effect can be obtained.
  • the data acquired by the force sensor can identify the displacement of the robot hand position that is so small that the camera hand cannot distinguish when the robot hand is in contact with the work object. It becomes easy to observe the state of the hand of the robot during manual operation. That is, it is possible to finely adjust the robot hand position.
  • the data acquired by the force sensor is collated with a model that abstracts the phenomenon that occurs in the robot hand prepared in advance, or the data acquired by the sensor is substituted into the model represented by the mathematical formula.
  • the information obtained by the calculation is displayed on the image as a phenomenon occurring at the hand. This makes it easier for the operator to observe the state of the hand of the robot during manual operation.
  • the acquired image information is processed by the finger eye camera measurement unit 32 to obtain the normal direction information of the gripping surface of the target object.
  • a semi-autonomous mode such as giving a movement command in a certain direction or reflecting an operator's command can be realized, which contributes to reducing the burden of teaching work.
  • the operation learning unit 7 optimizes the refined work path to obtain a work path (after learning) with a smooth work operation and a short tact time.
  • the chocolate stop corresponding action planning unit 4, the error induction work suppressing unit 5, the teaching work unit 6 and the operation learning unit 7 are each designed data 1, specific work specification 2, each library 8 to 10, and optimum work operation.
  • a robot program for the robot system 3 is generated in association with the generation unit 11 and the error recovery work teaching unit 12. That is, from the product design / production equipment data 1, a robot program that can be executed by the controller 30 including a return sequence when a chocolate stop occurs can be obtained with much less load on the teaching worker than in the past.
  • the robot operation sequence for producing a product is as follows (1) to (6).
  • (1) Normally, work paths described in the robot program are executed in order.
  • the finger eye camera measurement unit 32 and the three-dimensional recognition unit 33 are used to measure the distance / posture error with respect to the target object in real time. Then, work is performed by sensor feedback control.
  • high-speed and high-precision robot motion is realized by image / distance hybrid type feedback using two-dimensional image feedback with a high processing rate and three-dimensional distance / posture data feedback with a slow processing rate.
  • the gripping position and orientation of the component can be measured by the finger eye camera measurement unit 32 while the component is being gripped, correction of the position and orientation error that occurs when gripping the component, or accurate positioning by re-gripping Therefore, the chocolate stop caused by the positional deviation is suppressed.
  • the teaching work unit 6, the operation learning unit 7, the chocolate stop corresponding action planning unit 4, the error induction work suppressing unit 5, the optimum work operation generating unit 11, the error recovery work teaching unit 12, the finger eye camera measuring unit 32, and the controller 30 Image Processing Unit
  • the three-dimensional recognition unit 33, the manipulation device group 34 (universal hand), and the hand library 8 will be described in detail in order in association with the background art.
  • the teaching work unit 6 in FIG. 1 will be described in detail.
  • a human worker is responsible for performing a part that is difficult to automate. Therefore, the teaching work unit 6 supports the execution of the work by providing an effective user interface.
  • the processing of the chocolate stop corresponding action planning unit 4 can obtain the “work sequence diagram with error return sequence” and the “work path with rough coordinates” as intermediate outputs of the system.
  • the teaching work unit 6 realizes a countermeasure at the teaching work stage with respect to a variation factor in the assembling work by visualizing information on the variation of the dimensions and shapes of the assembled parts in the same manner.
  • EID Ecological Interface Design
  • FIG. 2 is an explanatory diagram showing an example of an ecological interface mounting image.
  • the mutual relationship between the universal hand 34a of the manipulator 31 and the assembly part W is captured as various sensor data, and information regarding the assembly part W is visualized and presented.
  • the teaching work unit 6 refers to the specific work action sequence via the specific work library 9 and makes it available to the worker for work path refinement.
  • teaching work unit 6 communicates with the error inducing work suppressing unit 5 to always check teachings of work operations that may induce mistakes, and when the corresponding teaching is made, To assist in performing efficient teaching tasks.
  • the input / output information of the teaching work unit 6 is as shown in the explanatory diagram of FIG. That is, the input information is a work sequence diagram with an error return sequence, a work path with schematic coordinates, various sensor data, and assembly part information.
  • the output information is a refined work path, and includes the start point coordinates, end point coordinates, and a plurality of via point coordinate value ranges and step sizes.
  • the work operation plan of the vertical articulated robot has a complexity due to the high degree of freedom of the mechanism. For example, when simply deriving a trajectory connecting the start point and the end point, it is necessary to solve the two-point boundary value problem, which is difficult to solve both analytically and numerically. In addition to the trajectory connecting the start point and the end point, it is further difficult to optimize a trajectory including a plurality of waypoints.
  • an optimal trajectory search method including a waypoint of a vertical articulated robot is used.
  • This is a method of searching for a sub-optimal solution from an observation signal of motion response obtained by operating a real robot.
  • the versatility which can respond flexibly to the change and complexity of a work environment can be expected.
  • the tact time can be shortened when the same operation is repeated.
  • FIG. 4 is an explanatory diagram showing an outline of the optimum tact time search in the operation learning unit 7.
  • (a) includes one waypoint (0, J2, J3, 0, 0, 0), from the start point ( ⁇ 60, 30, 80, 0, 0, 0) to the end point (60, 30 shows an example of a work path of a robot (manipulator 31) reaching 30, 80, 0, 0, 0).
  • FIG. 4B shows the position of the obstacle D with respect to the robot (manipulator 31) in three views (plan view, side view, front view).
  • the waypoints (0, J2, J3, 0, 0, 0) in FIG. 4A are set so as to avoid the obstacle D in FIG. 4B.
  • FIG. 4C shows a concept of the optimum tact time search in a three-dimensional perspective view.
  • Each axis represents the joint angle of “J2” included in the coordinates of the via point and “J3”. It corresponds to joint angle and tact time.
  • the tact time for each waypoint is observed, and a curved surface as shown in FIG. 4C is obtained.
  • the work path that interferes with the obstacle D has a tact time “0”. At this time, the shortest tact time appears in a region Z1 indicated by white in the curved surface. Note that, in FIG. 4C, in order to simplify the notation, a case where only two vias move is described as one, but in reality, a plurality of joints that change at the same time are described. Since the waypoints constitute a work path, it is necessary to search the multi-degree-of-freedom space and search for the white area Z1. Further, the search path PS1 with a small number of trials and the search paths PS2 and PS3 with a large number of trials are indicated by thick arrows.
  • the first embodiment of the present invention it is possible to provide a system function that speeds up such a search.
  • the framework of Active Learning in Computational Learning Theory is applied. That is, when the search trials are repeated one after another, the trial that is most preferable to be tried next is optimized using data obtained as a result of previous trials.
  • the results considered to be obtained by trying the candidates are digitized and compared, and the order of candidates to be tried next time is determined.
  • the quantification of the results after building a model that estimates the results obtained when a trial with a candidate is performed using the data obtained through trials so far, For all candidates, quantify the candidates considered to be obtained by that candidate.
  • this candidate optimization may be executed each time a trial is performed or each time a plurality of trials are performed using the obtained numerical values.
  • the effect of reducing the number of trials increases by executing each time.
  • the obtained result is combined with the result obtained so far.
  • the model that is constructed when performing optimization becomes gradually more accurate each time the trial is repeated.
  • the number of trials as a whole decreases, and for example, a “search path PS1 with a small number of trials” as shown by a “thick line arrow” in FIG. 4C is realized.
  • the vibration of the robot arm When the vibration of the robot arm is large, the next operation may not be started until the vibration is attenuated. As this waiting time becomes longer, the tact time becomes longer. Therefore, reducing the vibration is considered as one of the examination subjects for shortening the tact time.
  • the generation of such vibrations is caused by the inertial force of the hand arm and the restoring force due to the spring effect of the speed reduction mechanism and transmission mechanism such as a harmonic drive, but it can be said that the selection of the work path is also an important examination item.
  • the method of discretely indicating work points and check points is generally used, and in selecting the movement path between points and the trajectory in the work path, the trajectory selection considering vibration suppression is Since it is not performed, unnecessary vibration is excited every acceleration / deceleration.
  • a motor control signal is passed through a notch filter fixed to the natural frequency at the time of maximum extension of the arm.
  • the filter effect is not sufficient.
  • the time delay peculiar to the digital filter is also in a state of conflicting with the reduction of work time.
  • a skilled crane operator operates the crane tip position so as to suppress as much as possible the vibration of the workpiece from when the workpiece is lifted to when it is moved to the target position. Specifically, it is realized by moving the crane tip position onto the perpendicular of the workpiece at the moment when the workpiece reaches the maximum displacement position of the pendulum and the speed becomes zero by acceleration / deceleration. This means that if the target position can be set to the maximum displacement position of the pendulum, the vibration of the workpiece at the time of stopping can be avoided.
  • the harmonic drive is the spring element, and the motor is built in
  • the target position is different from the above example of the crane.
  • a condition in which the hand does not vibrate at the (stop position) is derived, and a method of changing the motion trajectory and acceleration / deceleration operation pattern of the robot is used.
  • a hand is attached to the tip of the robot.
  • the operation learning section 7 can obtain a work path with a short tact time by executing the above two tasks alternately.
  • the vibration suppression of the robot arm contributes to prevention of a decrease in positioning accuracy and suppression of a chocolate stop.
  • the input / output data of the operation learning unit 7 is as shown in the explanatory diagram of FIG. That is, the input information is the start point coordinates, end point coordinates, the range and step size of a plurality of via point coordinates, work environment information, and robot information.
  • the output information includes start point coordinates, end point coordinates, a plurality of waypoint coordinates, a locus between the start point, end point, waypoints and acceleration / deceleration commands.
  • the chocolate stop corresponding action plan unit 4 in FIG. 1 will be described in detail.
  • the product assembly work is divided into detailed element work, the element work is assigned to each facility, and the work order and work path are specifically formulated.
  • a choke stop corresponding action planning unit for quickly performing a comprehensive evaluation of a cell production robot system including auxiliary steps such as hand replacement and error handling in the initial design stage. 4 is used.
  • the chocolate stop corresponding action planning unit 4 determines the outline of the robot work while cooperating with each function component of the error induction work suppressing unit 5 and the optimum work operation generating unit 11 described later.
  • the specific functional configuration of the chocolate stop response plan 4 is as follows. First, three-dimensional geometric information including part connection information, geometric shape data, and equipment layout data is obtained from the results of product structure design and production equipment design (product design data and production equipment data 1). Further, from these pieces of information, the grippable surface of the geometric part is specified, and a series of assembly operations of the product is divided into element operations. Furthermore, based on these processing results, work procedure candidates are generated, and equipment to which each element work is assigned is determined.
  • the choke stop corresponding action planning unit 4 inputs a candidate work order to the error inducing work suppressing unit 5 and the optimum work operation generating unit 11, and the error inducing work suppressing unit 5 determines the work order. Capture error occurrence probability information for a candidate.
  • FIG. 6 is a flowchart showing a work analysis in consideration of an auxiliary work such as returning to a chocolate stop.
  • upstream operations t1 and t2 are performed in accordance with return operations c3 and c4 based on an error determination such as the occurrence of a chocolate stop.
  • the operation t3 is performed, and then the process proceeds to the inspection c1 to check whether or not a chocolate stop has occurred.
  • an optimal outline work path for the robot is automatically generated with an accuracy of about 5 cm.
  • This general work path becomes an output to a detailed design stage such as teaching to the robot.
  • a return point to the operations t1 and t2 when an error occurs, a synchronization point with other equipment, and a point for checking (c1) whether or not a predetermined operation is successful are simultaneously determined and output.
  • the robot can perform the operation for confirming the robot operation by actually causing the robot to actually execute only a part of the sequence that the operator particularly wants to confirm. Because, by using an error return sequence, it was necessary to perform the work carefully before (and not to make a mistake), and then clean up (return the physical position of the robot or peripheral device to the initial position) And the return of variables of the control device to constant initial values, etc.) are automated.
  • compatible action plan part 4 is as having shown in explanatory drawing of FIG. That is, the input information is three-dimensional geometric information of product component connection information, geometric shape data, and facility layout data, error occurrence probability information for work order candidates, and work path templates. Also, the output information includes work order including auxiliary work, rough work path, points that require teaching work, return procedures when an error occurs, return points and synchronization points, and parts surfaces that can be gripped by the robot. .
  • the error induction work suppression unit 5 analyzes the risk of error occurrence in robot work, provides information necessary for error reduction, and performs robot operation that induces errors during work design or teaching work by an operator. Suppress setting (or teaching).
  • the risk of errors that can occur in the set work procedure (the magnitude of the effect of errors and the likelihood of occurrence) is estimated, and checkpoints for achievement of work subgoals to detect the occurrence of errors are set.
  • the selection of a work method (for example, assembling from above or assembling from below) that is unlikely to induce an error is supported to the chocolate stop corresponding action planning unit 4 and the optimum work operation generating unit 11.
  • the next action to be instructed to the robot has a high risk of causing an undesirable phenomenon, or as the work by the robot progresses, the entrance of a work group with a high risk (or The teaching work unit 6 is warned that it is in the middle), and work settings that are likely to induce errors are suppressed.
  • the error occurrence risk estimation is a forward analysis for predicting the occurrence of a system error from the work conditions, and estimates how the error occurrence risk changes sequentially as the work progresses.
  • System engineering methods used in system risk analysis can be consulted to ensure consistent analysis in both directions.
  • the risk of error occurrence is sequentially updated based on the work information additionally input along with the progress of the work while considering the feature of the work and the dependency of the possibility of error occurrence using the Bayesian network. Furthermore, since the level of detail of design information used differs between the initial stage and the teaching stage of the work to be performed by the robot, more detailed quantitative information can be obtained from qualitative information using a hierarchical analysis method according to the stage. To ensure consistent analysis.
  • basic error-related information related to system components is stored as an information source such as failure mode impact analysis so that it can be reused in other functional components such as examination of error recovery methods.
  • FIG. 8 is an explanatory diagram showing a framework of an error occurrence risk analysis method (risk analysis result of error occurrence), and shows a causal relationship between the occurrence of an error and a factor in a Bayesian network.
  • estimation processing is performed from work (lower side in the figure) to error occurrence (upper side in the figure).
  • error occurrence upper side in the figure
  • cause identification process is performed from the occurrence of the error (upper side in the figure) to the work (lower stage in the figure).
  • the input / output information of the error inducing work suppressing unit 5 is as shown in the explanatory diagram of FIG. That is, the input information is a work sequence diagram showing a work order, a work sequence diagram with an error return sequence, information such as basic design specifications regarding equipment and robots, and operator teaching data.
  • the output information includes transition information of the error occurrence probability based on the work order, prediction results / warnings of the possibility of error occurrence, and information related to the error occurrence cause / countermeasure.
  • the optimum work motion generation unit 11 in FIG. 1 will be described in detail.
  • the “part assembly” phase in which the part gripped by the hand and the workpiece on the part to which the part is assembled can come into physical contact is most likely to cause problems such as a choke stop. This is one of the easy-to-occur phases.
  • the optimum work motion generation unit 11 reflects “skilled skill” on some typical assembly process patterns (hereinafter, each pattern of the assembly process is referred to as “specific work”). Such an optimal work path template is output. As a result, the teaching work unit 6 can easily teach a robust work path without referring to the experience of the skilled engineer by referring to the template of the optimum work path.
  • Embodiment 1 of the present invention is a technique for generating the above-mentioned optimum work path template offline for each specific work in order to realize the above teaching.
  • the basic idea of the first embodiment of the present invention is that the above-mentioned “skilled technique” is “a skill of dealing with the uncertainty of such an error”.
  • a measure is introduced to quantitatively evaluate the uncertainty caused by the error, and the different work paths are based on how they change over the course of the work path. Enables comparison of skill in dealing with uncertainties.
  • a work path template that allows robots to skillfully handle uncertainties according to input information is constructed.
  • the algorithm to do is obtained.
  • the work path is further improved by adding logic for searching for neighborhoods to the work path template obtained by the “work path template construction algorithm”.
  • a process of inserting a part into a hole or groove of a workpiece is taken up as a specific work. Since this insertion process further varies in character depending on the shape of the part, the first step is the most common so-called peg-in hole process, and gradually expands to a complicated shape.
  • the input / output information of the optimum work motion generation unit 11 is as shown in the explanatory diagram of FIG. That is, the input information includes the type of specific work (eg, peg-in holes), part / work design information (eg, dimensions, shape), the main errors to consider and their distribution, and the gripping posture of the part (generally Are a plurality of candidates), robot information (possible element motions, control laws, etc.) and available sensor information. Also, the output information includes a work path template with conditional branches (if there are multiple gripping posture candidates, output for each), and the waypoints and element work sequences on the work path template. And.
  • the input information includes the type of specific work (eg, peg-in holes), part / work design information (eg, dimensions, shape), the main errors to consider and their distribution, and the gripping posture of the part (generally Are a plurality of candidates), robot information (possible element motions, control laws, etc.) and available sensor information.
  • the output information includes a work path template
  • the robot operation to return from the error state including the chocolate stop is currently given by the worker, but the worker switches the recovery operation tactics according to the error state, and each operation is Experience the effectiveness of recovery and learn from learning.
  • the cause of the error that caused the error state is classified, and the direct or indirect cause of the error is identified by tracing the control law for local return in each case and going back to the state transition that led to the error state. Then, the response according to the cause of the error is learned as a general control law as much as possible.
  • the learning here is roughly divided into two phases, one is categorization of various error states, and the other is universal control for return under each categorized error state. It is the acquisition of the law. These two learning phases are not separable, and learning progresses “co-evolutionary” in accordance with the learning in each phase.
  • Embodiment 1 of the present invention a “learning method from a single case” using learning based on explanation (EBL), which is a representative method of deductive learning, is applied.
  • This learning method explains why it can be a model for the input of a return sequence for a given single teaching case (ie, error recovery taught as a demonstration).
  • the system generates a description of Knowledge (ie universal) that selectively extracts which part of the training case the teaching know-how is utilized, and generalizes it in an expression format (operability norm) that defines the applicability of the knowledge Control rule).
  • categorization of error states is executed while determining assignment to the most appropriate type class sequentially from a series of error recovery operations given as teaching examples.
  • a measure of the usefulness of the category is used in determining the assignment at this time.
  • the procedure for creating a categorized class starts with a class that consists of a single error condition case, and whenever a new case is added to it, reclassification of the typology class is as follows: It is determined and executed based on the evaluation criteria of the category usefulness while applying the four class operations. That is, the category usefulness when each operation is executed is calculated by the following four operations: addition of a ready-made class, generation of a new single case class, integration of a plurality of ready-made classes, and disassembly of a ready-made class. Perform the largest operation. Thereby, sequential optimization for classification / identification / identification of error states becomes possible.
  • FIG. 11 is a block diagram showing a configuration example of a teaching learning system based on the deductive learning of the knowledge.
  • the teaching learning system includes an error similarity learning block and a return operation control law learning block.
  • the error similarity learning block includes N type classes 1 to N branched from the error repertoire.
  • control law learning block of the return operation uses a stage where the worker teaches the return action corresponding to each type class 1 to N, a stage where the return action sequence is input, and learning EBL based on the explanation.
  • the stage of learning general rules from one modified example, N control laws 1 to N consisting of the learning results of general rules, and background knowledge (database) for generating explanations based on the learning results of general rules Including.
  • the error similarity learning block is reconstructed in response to the case addition based on the learning result of the general rule.
  • the input / output information of the error recovery work teaching unit 12 is as shown in the explanatory diagram of FIG. That is, the input information includes individual error occurrence causes, robot operation sequences at the time of individual error occurrences, and return operation history for individual errors of the operator.
  • the output information is a general return work path and return operation sequence for the categorized error states.
  • the finger eye camera measurement unit 32 of the image measurement / recognition unit in FIG. 1 will be described in detail.
  • the conventional camera takes advantage of the degree of freedom of the arm rather than looking at the peripheral part including the hand tip and the target object.
  • the purpose is to move the viewpoint, and it is assumed that the object is observed some distance away. Therefore, the conventional camera is used to fully grasp the proximity / contact state between the hand tip and the target object or the surrounding environment, or the state of the object being grasped, which is important in teaching and recovery operation from the chocolate stop.
  • concealment due to, for example, the arm itself or the surrounding environment may occur.
  • a finger eye camera having an ultra-compact optical system that can be arranged at a position relatively close to the hand end of the manipulator 31 and can observe a wide range of image information including the surrounding environment. (Hand and surrounding simultaneous measurement camera).
  • FIG. 13 is an explanatory diagram conceptually showing the configuration of the finger eye camera measurement unit 32.
  • the finger eye camera is composed of a high-speed camera 32a and an omnidirectional mirror 32b, and is configured to capture a reflected image of the omnidirectional mirror 32b with the high-speed camera 32a.
  • the high-speed camera 32a is provided for each finger of the robot hand 34b located at the tip of the manipulator 31, and the omnidirectional mirror 32b is disposed so as to face the fingers and the high-speed camera 32a.
  • the high-speed camera 32 a inputs the captured image of the robot hand 34 b as operation monitor information to the teaching work unit 6 and the controller 30, and also inputs the error induction work suppression unit 5 and the operation learning unit 7 via the controller 30. .
  • the image information obtained from the high-speed camera 32a not only assists the teaching operation by the operator's manual operation and the chocolate stop recovery operation, but is also used by the controller 30 as image input for sensor feedback control.
  • image information can be used for autonomy or semi-autonomy of various operations.
  • the finger eye camera it becomes easy to observe the hand state of the manipulator 31, and even when the target object in the hand direction cannot be directly observed by concealment, the image information on the side is adaptively selected for sensor feedback. It can be used as an image.
  • the proximity distance measuring function it is possible to accurately measure the distance distribution around the hand of the manipulator 31.
  • the same effect can be obtained by interlocking with a camera arranged on the environment side.
  • the image processing unit in the controller 30 in FIG. 1 for route guidance by sensor feedback control will be described in detail.
  • feedback using images it is basic to perform feedback control on a residual in a single image plane obtained from a single camera, and distance information includes a certain condition or Simple distance measurement information based on the target size has been used.
  • the first embodiment of the present invention is a gripping position / orientation measurement unit based on image information obtained from a finger eye camera in order to recognize the gripping position / posture of a target component in a gripping state.
  • the image processing unit in the controller 30 performs relatively simple image processing such as three-dimensional matching processing limited to search specification using edge processing.
  • the fact that the position and orientation of the object can be recognized is also utilized. This makes it possible to ensure position and orientation accuracy even when the component posture changes during gripping.
  • the input / output information of the sensor feedback function (controller 30) based on the finger eye camera measurement unit 32 of the image measurement / recognition unit is as shown in the explanatory diagram of FIG. That is, input information is a camera image, proximity distance data, reference model data, end point model data, and calibration data (internal and external), and output information is target deviation data.
  • the input / output information of the grip position / orientation measurement function (controller 30) based on the finger eye camera measurement unit 32 is as shown in the explanatory diagram of FIG. That is, the input information is a camera image, reference model data, and calibration data (internal and external), and the output information is position / orientation data of the target object.
  • the active three-dimensional measurement method can obtain dense distance distribution data by projecting pattern light. Therefore, a clear feature such as a notch feature is not necessarily required in the target object itself, and a more general-purpose position can be obtained. Posture recognition is possible.
  • FIG. 16 is an explanatory diagram showing an example of a three-dimensional measurement / recognition process together with a block diagram.
  • a measurement target object 40 composed of a part of piping is measured by a small three-dimensional sensor 41 having a laser device and a three-dimensional camera.
  • the three-dimensional sensor 41 irradiates the measurement target object 40 while scanning the laser beam, and images the measurement target object 40 with a three-dimensional camera while measuring the distance to the measurement target object 40.
  • the three-dimensional sensor 41 calculates the distance distribution of the measurement target object 40, displays the distance value in the image data with shading, and acquires the three-dimensional measurement result 42 of the measurement target object 40. Finally, the three-dimensional sensor 41 performs a process of recognizing the position and orientation of the measurement target object 40, and superimposes the model fitting result (bright region) on the measurement data (dark region).
  • the dimension model 43 is acquired.
  • FIG. 16 illustrates an example in which recognition results of a plurality of measurement target objects are acquired.
  • the practical performance in terms of high speed and robustness is further enhanced. Is desirable.
  • each function related to the chocolate stop correspondence is performed so that an appropriate image processing algorithm design combining two-dimensional processing and three-dimensional processing is performed in accordance with the shape and texture characteristics of the target object.
  • Two-way cooperation with the component group is provided to support the operator's design work.
  • the three-dimensional data used in the first embodiment of the present invention includes necessary specifications such as a small three-dimensional range finder developed by the inventor's company and three-dimensional data obtained from the above finger eye camera. Assume that data is used from a three-dimensional sensor.
  • the input / output information of the three-dimensional recognition unit 33 of the image measurement / recognition unit is as shown in the explanatory diagram of FIG. That is, the input information is distance distribution data, camera images, reference model data, and calibration data (internal and external), and the output information is position / orientation data of the target object.
  • the input / output information of the image measurement / recognition unit is as shown in the explanatory diagram of FIG. That is, input information is surface characteristic data, object three-dimensional shape data, camera image, and calibration data (internal and external), and output information is recognition availability and algorithm design plan.
  • the end effector typified by the hand and its drive technology are indispensable as elemental technologies. It has a great influence on the direction.
  • the end effector of a conventional production robot often uses a simple open / close gripper that is pneumatically driven, and each hand has a dedicated hand according to the shape of the workpiece to be gripped.
  • a conventional dedicated hand method although the operation strategy is simple, there are problems such as long design and production time, high cost, and enormous number of hands necessary for handling various products. there were.
  • Example 1 of this invention it can be set as the universal hand for a cell production robot system as a solution instead of the said exclusive hand.
  • the development of a universal single universal hand that can handle all assembly tasks is not realistic, and a hand that does not become more complex than necessary should be designed according to the target task.
  • the shape of the part targeted by the universal hand, the position of the fingertip of the universal hand suitable for gripping the part, and the workpiece are gripped in a determined posture even if there is some variation in the position of the workpiece.
  • FIG. 19 is an explanatory diagram schematically showing the concept of the hand library 8.
  • the hand library 8 is made into a library by associating universal hand grip strategy software with target tasks including assembly work and kitting. Note that it is conceivable that the gripping position determination and the gripping strategy are determined from the viewpoints of form closure, force closure, and the like.
  • the hand library 8 can be used not only at the time of mechanism design but also in action planning and teaching work in cooperation with each functional component group related to chocolate stop handling.
  • grip point position information is stored in a library according to a given part shape and other conditions, so that it is not necessary to teach hand operation during actual teaching work. Also, even if the initial position and orientation of parts include a certain range of errors, a robust gripping strategy that will eventually result in a specified position and orientation is also stored in a library, greatly reducing the time required for teaching. It becomes possible to do.
  • the industrial robot system includes a robot (robot system 3) having a manipulator 31 and a hand (manipulation device group 34), and is for assembling a product to be manufactured.
  • An industrial robot system used in a production system which includes work information and a first work path (schematic coordinates) for responding to a choke stop that is an obstacle to unattended continuous operation and teaching work at the start-up and adjustment of a production line Error stop work that generates error information (error occurrence probability information, error cause) for suppressing work that induces an error based on the work information
  • the suppression part 5 is provided.
  • the industrial robot system includes a teaching work unit 6 that generates a second work path (a refined work path) based on the first work path and error information, and a first work path 6. And an operation learning section 7 that generates an optimized third work path (optimized work path) for the robot based on the two work paths.
  • the industrial robot system includes a hand library 8 in which a robot assembly operation and control software are associated with each other into a library, and an optimum work operation generation unit 11 that generates a specific operation sequence.
  • a specific work library 9 for storing a specific work operation sequence, an error recovery work teaching unit 12 for teaching an error recovery work according to an error state based on an operation history in the teaching work unit 6, and an error recovery work And an error recovery library 10 to be stored.
  • the industrial robot system generates a motion monitor information of the robot and inputs it to the error induction work suppression unit 2, the teaching work unit 6, and the operation learning unit 7, the finger eye camera measurement unit 32 and a three-dimensional recognition unit 33, and a controller 30 for controlling the robot based on the second and third work paths and the motion monitor information.
  • the chocolate stop response plan 4 includes production system and manufacturing object configuration information (product design data and production facility data 1), hand library 8, specific work library 9 and error recovery library 10 storage information, and error information. Based on the error information from the induced work suppression unit 5, a first work path is generated.
  • the error recovery work teaching unit 12 calculates in advance error return information for components including the robot based on the cause of error occurrence and the operation history from the teaching work unit 6. Also, the chocolate stop corresponding action planning unit 4, the teaching work unit 6, and the operation learning unit 7 generate program information including a third work path necessary for teaching the robot, from the configuration information of the production system and the manufacturing object. .
  • the error return method is calculated in advance, and from the configuration information of the production system and the manufacturing object, By generating information necessary for teaching the robot, it is possible to reduce the installation and adjustment time of the production system using the industrial robot and to increase the continuous operation time without error after the start of operation.
  • Example 2 In the first embodiment (FIG. 1), it has been customary that most of the functional components 4 to 12 are implemented as software on a so-called personal computer. However, in the actual world of factory automation, control of production equipment is shown. Various personal computer OS, various real-time OS, and OS-less ones are mixed in the device. For example, intelligent module software implemented as software on a personal computer such as RT (robot technology) platform and distributed environment of various control devices Then, since it is necessary to perform data conversion, data communication, data exchange, or media conversion using an S / W that is some sort of green, mashup units 51 and 52 may be provided as shown in FIG.
  • RT robot technology
  • FIG. 20 is an explanatory diagram conceptually showing an industrial robot system according to Embodiment 2 of the present invention, and a mashup unit 51 for realizing cooperation of each functional component in an actual factory automation production system. The positional relationship is shown.
  • mashup units 51, 52, a higher-level information system 53, and PLCs (Programmable Logic Controllers) 54, 55 are connected to the network 50.
  • the operation panels 56 and 57 are connected.
  • the PLCs 54 and 55 include RC (Robot Controllers) 58 and 59, respectively.
  • the mashup units 51 and 52 are functional components on a personal computer. One mashup unit 51 is used when the system is started up, and the other mashup unit 52 is used when the system is executed.
  • the mashup units 51 and 52 each include a configuration setting function (A1), a PLC / RC conversion function (A2), an execution kernel unit (A3), and a safety function (A4).
  • the configuration setting function (A1) is a setting tool, and has a configuration including a GUI.
  • the configuration setting function (A1) collects data related to the arrangement of the dedicated controller for FA and the configuration of the device, and each function configuration unit (A2) to ( It has a function of referring to the collected data when executing A4).
  • the PLC / RC conversion function (A2) is used to develop a controller program for production equipment including robots using a function component on a personal computer, and then to each FA controller group specified by the configuration setting function (A1).
  • the function for distributing these programs is distributed, the sequence language is distributed to the PLCs 54 and 55, and the robot language is converted and distributed to the RCs 58 and 59.
  • the PLC / RC conversion function (A2) distributes the program portion that synchronizes the operation between the control devices after assigning a specific physical contact number or logical variable number.
  • the execution kernel part (A3) marshalls the operation of the functional component group used for execution on the personal computer and has a function for overall operation execution.
  • the functional component on each controller and personal computer is different in OS. It manages the interface when direct communication connection is not possible due to reasons such as
  • the safety function (A4) has a function of performing a bridge for exchanging an interlock signal between a functional component on the personal computer and a so-called safety system constituted by hardware.
  • the chocolate stop corresponding action planning unit 4 the error induction work suppressing unit 5, the teaching work unit 6, the operation learning unit 7, the hand library 8, and the optimum Since the work operation generating unit 11, the specific work library 9, the error recovery work teaching unit 12, the error recovery library 10, and the mashup units 51 and 52 for realizing cooperation with the controller 30 are provided, Even when the industrial robot is built with a general-purpose personal computer, dedicated FA controller group and safety system, shortening the time for installation adjustment of the production system using the industrial robot and continuous error-free operation Expansion of operating hours can be realized.
  • Example 3 Although not particularly mentioned in the first embodiment (FIG. 1), as shown in FIGS. 21 to 24, it has an error detection function for detecting a work error, and includes the error inducing work suppression unit 5 and the hand.
  • An offline teaching unit including the functions of the library 8 may be provided. Since an error detection function for detecting a work error and an error suppression function for suppressing the occurrence of an error are effective, the third embodiment of the present invention includes an offline teaching unit having the above function.
  • the offline teaching unit has an error recovery level determination function and an error occurrence risk analysis function in addition to an error detection function, an error suppression function, and a hand library function.
  • the error detection function of the offline teaching unit supports the construction of work error detection logic from various sensor information (robot position, time limit, joint torque, force sensor output value, image sensor output value). A serious error requiring an emergency stop is detected by providing a direct limit value for the sensor output value.
  • the error recovery level determination function of the offline teaching unit supports the determination of the error level used during error recovery and embedding of return checkpoints by conditional branching based on sensor information.
  • the error occurrence risk analysis function of the off-line teaching unit is a function of analyzing a risk that something that does not want to happen is generated, and is used here for the purpose of suppressing a work error of the robot.
  • the risk of various errors occurring for each candidate is calculated stochastically by statistically processing past error information.
  • the input / output information of the hand library function of the offline teaching unit is as shown in the explanatory diagram of FIG.
  • the input information is the part shape
  • the output information is the grippable / impossible and gripping position / posture values.
  • the input / output information of the error detection function of the offline teaching unit is as shown in the explanatory diagram of FIG. That is, the input information is various sensor information (robot position, time limit, joint torque, force sensor output value, image sensor output value), and the output information is work error detection logic.
  • the input / output information of the error recovery level determination function of the offline teaching unit is as shown in the explanatory diagram of FIG. That is, the input information is a work sequence diagram showing a work order, and the output information is a work sequence diagram in which an error level used at the time of error recovery is determined and checkpoints for restoration are embedded.
  • the input / output information of the error occurrence risk analysis function of the offline teaching unit is as shown in the explanatory diagram of FIG. That is, the input information includes a work sequence diagram showing a work order, a work sequence diagram with an error return sequence, information such as basic design specifications regarding equipment and robots, and operator teaching data.
  • the output information includes transition information of the error occurrence probability based on the work order, prediction results / warnings of the possibility of error occurrence, and information related to the error occurrence cause / countermeasure.
  • the offline teaching unit having the error detection function is provided, and the offline teaching unit includes the functions of the error inducing work suppressing unit 5 and the hand library 8, so that the industrial robot It is possible to shorten the installation adjustment time of the production system using the system and to increase the continuous operation time without error after the start of operation.
  • the teaching work unit 6 may be provided with a visual I / F and a teleoperation function. At the time of teaching, it is effective to use the teleoperation unit in order to shorten the work time by realizing intuitive operation of the teaching pendant and to quickly switch the model.
  • the teleoperation unit according to Embodiment 4 of the present invention uses the teaching work unit 6 as a visual I / F, and includes a simple perceptual feedback function, a function for refining a teaching operation using sensor information, and a sensor. It has an autonomous control law design support function using information history and a hybrid cooperative teaching function of autonomous control / manual operation.
  • the simple perceptual feedback function realizes simple perceptual feedback such as returning vibrator vibration when contact is detected by sensor information during jog operation.
  • the refinement function of the teaching operation using sensor information records the measured values of the force sensor and image sensor during the teaching operation performed by the operator, statistically processes the operation history of multiple times, and calculates the average value.
  • the refined teaching path is generated by obtaining the error value and eliminating the error value.
  • the autonomous control law design support function using the sensor information history provides a result of statistical processing of the sensor information history at the time of operator operation as a support function when designing the autonomous control law.
  • the hybrid cooperative teaching function of autonomous control / manual operation implements the teaching support function by applying the designed autonomous control law only to a specific movement direction and enabling manual operation for movement in another direction.
  • the teaching working unit 6 has the visual I / F and the teleoperation function, so that the installation system adjustment time using the industrial robot can be shortened and operated. It is possible to increase the continuous operation time without errors after the start, further reduce the work time, and quickly switch models.
  • Example 5 Although not particularly mentioned in the first embodiment (FIG. 1), as shown in FIGS. 25 to 27, the chocolate stop corresponding action planning unit 4, the teaching work unit 6, the error recovery work teaching unit 12, and the error recovery.
  • An error recovery unit that cooperates with the library 10 may be provided, and an action control function, a teaching work unit strengthening function, and a teleoperation function may be added to the error recovery unit.
  • a checkpoint function for detecting the occurrence of an error is embedded in the robot operation sequence output by the chocolate stop corresponding action planning unit 4, so this checkpoint function is used.
  • an error state is grasped from various sensor information (robot position, time limit, joint torque, force sensor, image sensor), and according to the error severity. Behavior control is performed. An error that requires an emergency stop is immediately stopped by providing a direct limit value for the sensor output value.
  • An industrial robot system has an error recovery unit having a behavior control function (B1), a teaching work unit reinforcement function (B2), and a teleoperation function (B3) in order to reliably perform the above-described operation. It has.
  • the behavior control function (B1) of the error recovery unit switches the error recovery operation mode of the following three stages (M1) to (M3) according to the severity of the error, and each mode (M1) to (M3) After recovering from the error state, assist the procedure for resuming production, such as synchronizing each robot and each production facility from an arbitrary stop position.
  • rewinding automatic return mode In the rewinding automatic return mode (M1), automatic return is performed in a rewinding manner from the current position where the error is detected to the adjacent previous check point.
  • operator return operation Teleoperation
  • M2 an error stop signal is generated to call the operator, and the operator performs an error recovery operation by a teleoperation operation. If it is necessary to return to a checkpoint that is not adjacent, the system supports the return while synchronizing each robot and each production facility.
  • an error stop signal is generated to call the operator, and the operator takes measures such as directly removing the work causing the error from the work location. If it is necessary to return to a checkpoint that is not adjacent, the system side supports the return while synchronizing each robot and each production facility.
  • the error recovery unit's teaching work unit enhancement function (B2) provides intuitive display of composite information consisting of force sensors and camera images, and visualizes force sensor information on the hand camera image to support intuitive operation. To do. In addition to improving the visibility of the hand camera image displayed on the display, digital zoom, edge-enhanced image generation, contrast improvement, and the like are performed.
  • the tele-operation function (B3) of the error recovery unit uses the teaching work unit 6 as a visual I / F and performs simple perceptual feedback. That is, simple sensory feedback such as returning vibrator vibration is realized when contact is detected by sensor information during jog operation.
  • the input / output information of the action control function of the error recovery unit is as shown in the explanatory diagram of FIG. That is, the input information is a work sequence diagram and the severity of an error, and the output information is an error recovery operation mode.
  • the input / output information of the teaching work unit reinforcement function of the error recovery unit is as shown in the explanatory diagram of FIG. That is, the input information is various sensor information (robot position, time limit, joint torque, force sensor output value, image sensor output value), work path, and operation amount of the operator, and the output information is It is a composite information display image.
  • the input / output information of the teleoperation operation function of the error recovery unit is as shown in the explanatory diagram of FIG. That is, the input information is an operation amount of the operator, and the output information is a simple perceptual feedback control operation amount.
  • the error stop unit cooperating with the chocolate stop corresponding action plan unit 4, the teaching work unit 6, the error recovery work teaching unit 12 and the error recovery library 10 is provided.
  • the recovery unit includes a behavior control function, a teaching work unit strengthening function, and a teleoperation function, so that the installation adjustment time of a production system using an industrial robot can be shortened and the continuous operation time without errors after the start of operation can be reduced. In addition to realizing expansion, high productivity can be realized by long-term stable operation and quick return in the event of a failure.
  • Example 6 Although not particularly mentioned in the first embodiment, as shown in FIGS. 28 to 31, it cooperates with the teaching work unit 6, the operation learning unit 7, the finger eye camera measurement unit 32, and the three-dimensional recognition unit 33.
  • a recognition unit may be provided, and a component picking object recognition function, a hybrid visual correction function, an error detection visual function, and a recognition application construction support function may be added to the recognition unit.
  • the sixth embodiment of the present invention by providing a recognition unit required for teaching, execution operation, and error detection, rapid model change and high productivity are realized.
  • a recognition unit required for teaching, execution operation, and error detection
  • rapid model change and high productivity are realized.
  • images the use of a hand camera and an environment-side fixed camera (including a stereo camera configuration) is assumed, and the use of an active three-dimensional sensor such as a three-dimensional range finder is assumed when necessary.
  • the recognition unit includes a component picking object recognition function (C1), a hybrid visual correction function (C2), an error detection visual function (C3), and a recognition application construction support function (C4). And.
  • the object recognition function for component picking (C1) of the recognition unit constitutes a recognition function for object picking from the component box using the three-dimensional recognition unit 33, and checks for interference occurring at the time of taking out and gripping in the component gripping state And an object position correction function.
  • the hybrid visual correction function (C2) of the recognition unit realizes a two-dimensional and three-dimensional hybrid visual correction function using the three-dimensional recognition unit 33.
  • a function for moving to a work point based on a three-dimensional position / orientation output obtained using the three-dimensional recognition unit 33 is realized, and a fixed surface with respect to the constraint surface is provided.
  • a semi-autonomous movement function combined with a manual movement instruction is realized.
  • the error detection visual function (C3) of the recognition unit uses a commercially available image recognition module such as a commercially available one, and provides a component shape check function using an image obtained from the hand camera. In this check, error detection is performed based on the result of statistical processing based on a plurality of component shape data.
  • the recognition application construction support function (C4) of the recognition unit performs model registration when constructing execution functions for picking work, visual correction work, and error detection using the above-described function constituent parts (C1) to (C3). Provides easy application construction support functions by users, such as parameter setting and calibration.
  • Input / output information of the object recognition function for component picking (C1) (recognition module) of the recognition unit is as shown in the explanatory diagram of FIG. That is, the input information is sensor output data, parameters, and model information, and the output information is the recognition result for object picking from the parts box, the interference check result, and the position correction value of the gripped object.
  • C1 recognition module
  • the input / output information of the hybrid visual correction function (C2) (correction module) of the recognition unit is as shown in the explanatory diagram of FIG. That is, the input information is sensor output data, a relative positioning instruction in the two-dimensional image, and a three-dimensional position / orientation value, and the output information is a movement trajectory and a movement amount to the work point.
  • C2 hybrid visual correction function
  • the input / output information of the error detection visual function (C3) (visual module) of the recognition unit is as shown in the explanatory diagram of FIG. That is, the input information is an image obtained from the hand camera and a plurality of component shape data, and the output information is an error detection output.
  • C3 visual module
  • the input / output information of the recognition application construction support function (C4) (construction support module) of the recognition unit is as shown in the explanatory diagram of FIG. That is, the input information is model information, parameter information, and calibration data.
  • the output information includes recognition processing parameters, recognition target object model data, and data representing a recognition processing sequence.
  • the teaching unit 6, the operation learning unit 7, the finger eye camera measurement unit 32, and the recognition unit that cooperates with the three-dimensional recognition unit 33 are provided.
  • the configurations of the first to sixth embodiments can be applied in any combination, thereby providing duplicated effects.
  • FIG. 32 is a block diagram showing an industrial robot system according to Embodiment 7 of the present invention. Components similar to those described above (see FIG. 1) are denoted by the same reference numerals as those described above, or after the reference numerals. “A” is attached.
  • the industrial robot system includes product design data and production equipment data 1 (including part connection information, geometric shape data, equipment layout data, etc.) prepared in advance and prepared by three-dimensional CAD, and a production line. And an installed robot system 3A.
  • a chocolate stop corresponding action planning unit 4A As a configuration related to the product design data and production equipment data 1 and the robot system 3A, a chocolate stop corresponding action planning unit 4A, an error induction work suppressing unit 5A, a teaching work unit 6A, a controller 30A, a manipulator 31A, It is equipped with.
  • the controller 30A and the manipulator 31A are provided in the robot system 3A.
  • the chocolate stop corresponding action planning unit 4A Based on the part connection information, the geometric shape data, and the equipment layout data from the product design data and the production equipment data 1, the chocolate stop corresponding action planning unit 4A, a work sequence diagram with an error return sequence, a work path with a rough coordinate, Is input to the teaching work unit 6A. Further, the chocolate stop corresponding action planning unit 4A is interrelated with the error inducing work suppressing unit 5A, and inputs a work order candidate to the error inducing work suppressing unit 5A, and from the error inducing work suppressing unit 5A. Capture error occurrence probability information.
  • the teaching work unit 6A is refined on the basis of the work sequence diagram (with error return sequence) and work path (with rough coordinates) from the choke stop corresponding action plan unit 4A, and the operation monitor information from the robot system 3A.
  • a work path (a robot program before learning) is generated and input to the controller 30A.
  • the controller 30A drives and controls the manipulator 31A based on the robot program and the operation monitor information from the manipulator 31A.
  • part connection information (part structure tree diagram) indicating the connection order relationship of the parts that make up the product
  • product design data such as part geometry data, equipment layout data in the cell, and robot specifications And other production equipment data.
  • product design data and production facility data 1 are input to the chocolate stop response plan 4A.
  • the chocolate stop corresponding action planning unit 4A based on the component connection information, the product manufacturing work is broken down into a series of fine work, and each work is assigned to each facility in the cell and a work order is generated.
  • the work order is determined by disassembling the work, if the work order candidate is given to the error inducing work suppression unit 5A, error occurrence probability information for the work is returned, so the risk of chocolate stoppage is low.
  • a work order is selected.
  • the error occurrence probability is updated as needed with the operation monitor information at the time of production execution.
  • each work and the work order are determined, a checkpoint for verifying the choke stop under work, and how far the work can be resumed when the checkpoint is not passed.
  • Points, return paths to return to return points, via points to avoid obstacles, work paths connecting each point, a sequence describing the execution order of each work path, and other robots and devices An “operation sequence diagram with error return sequence” including the synchronization point to be kept waiting is generated.
  • attribute labels are assigned to each work path. That is, sensor feedback such as “movement between two points”, “movement to a via point”, “operation with action by an end effector device”, “approach movement immediately before and after gripping a part, or work operation optimized in advance” “Work by control”, “Returning sequence from chocolate stop”, etc.
  • a plurality of labels may be attached to one work path.
  • the work sequence diagram at this stage includes only the labeled work path and each point, and does not yet include the contents of each work path.
  • the contents of the work path are specified by the position and orientation coordinates of the path ends and via points (multiple via points are added if necessary) and the inter-coordinate movement method (control law, interpolation method, etc.). is there.
  • the work operation optimized in advance includes tips for suppressing work mistakes and working quickly and flexibly.
  • the contents of a rough work path for each work are generated using the equipment arrangement data and work order data in the cell. For example, assuming that there is a parts storage and a workbench in the production cell, and considering the work path related to a specific trajectory for transporting parts from the parts storage to the workbench, the robot Since there is a possibility of interference, finally, it is necessary to set the actual value of each work path to a precise value. However, in this case, since each work path is generated with an accuracy of about 5 cm, a reference posture for gripping an object (relative posture between the part and the hand) is set by a teaching work input unit in the teaching work unit 6A at the subsequent stage. It is determined by teaching by the operator.
  • the absolute coordinate is designated by the teaching worker using the teaching work input means only for final alignment of the operation point such as the gripping point with respect to the work path with the approximate coordinates.
  • a refined work path is determined.
  • a user interface based on the ecological interface theory displayed on the teaching work personal computer or teaching pendant presents the operation points and work status, and the operator looks at the presentation status and works to refine the position and orientation. And a work path is added by the teaching work input means as necessary.
  • the chocolate stop corresponding action planning unit 4A, the error inducing work suppressing unit 5A, and the teaching work unit 6A cooperate with each design data 1 to generate a robot program for the robot system 3A. That is, even in the configuration of the seventh embodiment (FIG. 32) of the present invention, the robot program that can be executed by the controller 30A including the return sequence at the time of chocolate stoppage from the product design / production equipment data 1 is significantly larger than the conventional one. Can be obtained with less load on the teaching worker.

Abstract

課題:据付調整時間の短縮、運用開始後のエラー無し連続操業時間の拡大が可能な産業用ロボットシステムを得る。 解決手段:チョコ停対応行動計画部(4)と、エラー誘発作業抑制部(5)と、教示作業部(6)と、動作習熟部(7)と、ハンドライブラリ(8)と、最適作業動作生成部(11)と、特定作業ライブラリ(9)と、エラーリカバリ作業教示部(12)と、エラーリカバリライブラリ(10)と、フィンガーアイカメラ計測部(32)と、3次元認識部(33)と、コントローラ(30)と、マニピュレータ(31)と、マニピュレーションデバイス群(34)に含まれるユニバーサルハンドとを備えており、チョコ停対応行動計画部(4)は、生産システムおよび製造対象物の構成情報と、エラー誘発作業抑制部(5)からのエラー情報に基づいて、チョコ停に対応するためのエラー復帰シーケンス付き作業シーケンス図と概略座標付き作業パスとを生成する。

Description

産業用ロボットシステム
 この発明は、製造対象物の製品組立を実行するための生産システムに用いられる産業用ロボットシステムに関するものである。
 従来から、生産ラインへのロボットの導入時に生じる重要な課題として、チョコ停(一時的なトラブルのために設備が停止したり、空転したりする状態)を防止することがあげられる。チョコ停は、生産ラインの立上げ・調整時の教示時間短縮の障害となるうえ、無人連続操業時の障害となっている。
 一般的に、製品の設計手順としては、まず、製造したい製品の構造設計と、製品を無人運転で製造するためのセルのレイアウト設計とが行われる。これにより、製品を構成する部品の結合順序関係を表す部品連結情報(部品構成ツリー図)や、部品の幾何学的形状データなどの製品設計データと、セル内の設備レイアウトデータやロボットの仕様などの生産設備データとが得られる。その後、生産システムにおけるロボットなど、各設備を動作させるプログラミング、据付調整、教示作業などが開始される。
 従来の産業用ロボットシステムとして、生産設備を復帰させるために、動作状態が2値状態(ON/OFFなど)で表現可能な場合について、エラー発生の検知および復帰シーケンスの生成を行う技術が提案されている(たとえば、特許文献1、特許文献2参照)。
 同様に、生産ラインの故障を復帰させるために、制御シーケンスプログラムをあらかじめブロック単位で構成し、ブロックごとに故障の検知、復帰用プログラムの起動を行う技術も提案されている(たとえば、特許文献3参照)。
特許第3195000号公報 特開平6-190692号公報 特開平3-116304号公報
 従来の産業用ロボットシステムでは、生産システムの構成情報から、生産システムの各構成要素の2値状態のみについて、事前にエラー復帰方法を算出するための処理動作が行われるので、複雑な多値(3値以上)の状態値を取り得るロボットを含む生産システムで発生する故障を解決することができないという課題があった。
この発明は、上記のような課題を解決するためのなされたものであり、産業用ロボットを用いた生産システム(生産ライン)の立上げ・調整時における教示時間(据付調整時間)を短縮するとともに、運用開始後のエラー無し状態での連続操業時間を拡大した産業用ロボットシステムを得ることを目的とする。
 この発明による産業用ロボットシステムは、マニピュレータおよびハンドを有するロボットを含み、製造対象物となる製品を組み立てるための生産システムに用いられる産業用ロボットシステムであって、生産ラインの立上げ・調整時の教示作業および無人連続操業の障害となるチョコ停に対応するための作業情報および第1の作業パスを生成するチョコ停対応行動計画部と、作業情報に基づいて、エラーを誘発する作業を抑制するためのエラー情報を生成するエラー誘発作業抑制部と、第1の作業パスおよびエラー情報に基づいて第2の作業パスを生成する教示作業部と、第2の作業パスに基づいて、ロボットに対する最適化された第3の作業パスを生成する動作習熟部と、ロボットの組立作業と制御ソフトウェアとを対応付けてライブラリ化したハンドライブラリと、特定作業動作系列を生成する最適作業動作生成部と、特定作業動作系列を格納する特定作業ライブラリと、教示作業部における操作履歴に基づいて、エラー状態に応じたエラーリカバリ作業を教示するためのエラーリカバリ作業教示部と、エラーリカバリ作業を格納するエラーリカバリライブラリと、ロボットの動作モニタ情報を生成して、エラー誘発作業抑制部、教示作業部および動作習熟部に入力するフィンガーアイカメラ計測部および3次元認識部と、第2および第3の作業パスと動作モニタ情報とに基づいてロボットを制御するコントローラと、を備え、チョコ停対応行動計画部は、生産システムおよび製造対象物の構成情報と、ハンドライブラリ、特定作業ライブラリおよびエラーリカバリライブラリの各格納情報と、エラー誘発作業抑制部からのエラー情報とに基づいて、第1の作業パスを生成し、エラーリカバリ作業教示部は、教示作業部からのエラー発生原因および操作履歴に基づいて、ロボットを含む構成要素についてのエラー復帰情報を算出し、チョコ停対応行動計画部、教示作業部および動作習熟部は、生産システムおよび製造対象物の構成情報から、ロボットの教示に必要な第3の作業パスを含むプログラム情報を生成するものである。
 この発明によれば、産業用ロボットを含む生産ラインの据付調整時間の短縮と、運用開始後のエラー無し連続操業時間の拡大とを実現することができる。
この発明の実施例1に係る産業用ロボットシステムを示すブロック構成図である。(実施例1) この発明の実施例1に用いられるエコロジカル・インタフェースの実装イメージの一例を示す説明図である。(実施例1) この発明の実施例1による教示作業部の入出力情報を示す説明図である。(実施例1) この発明の実施例1による動作習熟部における最適タクトタイム探索の概要を示す説明図である。(実施例1) この発明の実施例1による動作習熟部の入出力情報を示す説明図である。(実施例1) この発明の実施例1によるチョコ停復帰などの補助作業を考慮した作業分析を示すフローチャートである。(実施例1) この発明の実施例1によるチョコ停対応公道計画部の入出力情報を示す説明図である。(実施例1) この発明の実施例1によるエラー発生リスク分析方法の枠組みを示す説明図である。(実施例1) この発明の実施例1によるエラー誘発作業抑制部の入出力情報を示す説明図である。(実施例1) この発明の実施例1による最適作業動作生成部の入出力情報を示す説明図である。(実施例1) この発明の実施例1による知識の演繹学習に基づく教示学習システムの構成例を示すブロック図である。(実施例1) この発明の実施例1によるエラーリカバリ作業教示部の入出力情報を示す説明図である。(実施例1) この発明の実施例1に用いられるフィンガーアイカメラ計測部の構成を概念的に示す説明図である。(実施例1) この発明の実施例1によるフィンガーアイカメラ計測部に基づくセンサフィードバック機能の入出力情報を示す説明図である。(実施例1) この発明の実施例1によるフィンガーアイカメラ計測部に基づくセンサフィードバック機能の入出力情報を示す説明図である。(実施例1) この発明の実施例1による3次元計測・認識処理の例をブロック図とともに示す説明図である。(実施例1) この発明の実施例1による3次元認識部の入出力情報を示す説明図である。(実施例1) この発明の実施例1によるアルゴリズム設計支援部の入出力情報を示す説明図である。(実施例1) この発明の実施例1によるハンドライブラリの概念を図式的に示す説明図である。(実施例1) この発明の実施例2に係る産業用ロボットシステムを概念的に示す説明図である。(実施例2) この発明の実施例3によるオフライン教示部のハンドライブラリ機能の入出力情報を示す説明図である。(実施例3) この発明の実施例3によるオフライン教示部のエラー検知機能の入出力情報を示す説明図である。(実施例3) この発明の実施例3によるオフライン教示部のエラーリカバリレベル決定機能の入出力情報を示す説明図である。(実施例3) この発明の実施例3によるオフライン教示部のエラー発生リスク分析機能の入出力情報を示す説明図である。(実施例3) この発明の実施例5によるエラーリカバリ部の行動制御機能の入出力情報を示す説明図である。(実施例5) この発明の実施例5によるエラーリカバリ部の教示作業部強化機能の入出力情報を示す説明図である。(実施例5) この発明の実施例5によるエラーリカバリ部のテレオペレーション操作機能の入出力情報を示す説明図である。(実施例5) この発明の実施例6による認識部の部品ピッキング用物体認識機能の入出力情報を示す説明図である。(実施例6) この発明の実施例6による認識部のハイブリッド視覚補正機能の入出力情報を示す説明図である。(実施例6) この発明の実施例6による認識部のエラー検知用視覚機能の入出力情報を示す説明図である。(実施例6) この発明の実施例6による認識部の認識アプリケーション構築支援機能の入出力情報を示す説明図である。(実施例6) この発明の実施例7に係る産業用ロボットシステムを示すブロック構成図である。(実施例7)
 (実施例1)
 図1はこの発明の実施例1に係る産業用ロボットシステムを示すブロック構成図である。
 図1において、産業用ロボットシステムは、あらかじめ作成準備された3次元CADによる製品設計データおよび生産設備データ1(部品連結情報、幾何学的形状データ、設備レイアウトデータなどを含む)と、あらかじめ作成準備された特定作業仕様2と、生産ラインに設置されたロボットシステム3とを備えている。
 また、製品設計データおよび生産設備データ1、特定作業仕様2およびロボットシステム3と関連した構成として、チョコ停対応行動計画部4と、エラー誘発作業抑制部5と、教示作業部6と、動作習熟部7と、ハンドライブラリ8と、特定作業ライブラリ9と、エラーリカバリライブラリ10と、最適作業動作生成部11と、エラーリカバリ作業教示部12と、コントローラ30と、マニピュレータ31と、フィンガーアイカメラ計測部32と、3次元認識部33と、マニピュレーションデバイス群34とを備えている。
 コントローラ30、マニピュレータ31、フィンガーアイカメラ計測部32および3次元認識部33は、ロボットシステム3内に設けられている。フィンガーアイカメラ計測部32および3次元認識部33は、画像計測・認識部を構成している。
 また、マニピュレータ31には、マニピュレーションデバイス群34が設けられており、マニピュレーションデバイス群34は、ユニバーサルハンドなどを含む。
 ハンドライブラリ8は、マニピュレーションデバイス群34から入力される把持作業動作系列を格納する。
 特定作業ライブラリ9は、特定作業仕様2に基づき最適作業動作生成部11から入力される特定作業動作系列を格納する。
 エラーリカバリライブラリ10は、教示作業部6からのエラー発生原因および作業者の操作履歴に基づき、エラーリカバリ作業教示部12で生成された、エラー状態に応じた復帰作業パスを格納する。
 チョコ停対応行動計画部4は、製品設計データおよび生産設備データ1から部品連結情報、幾何学的形状データ、設備レイアウトデータと、各ライブラリ8~10内の格納情報とに基づいて、エラー復帰シーケンス付き作業シーケンス図と、概略座標付き作業パスとを作成し、教示作業部6に入力する。
 また、チョコ停対応行動計画部4は、エラー誘発作業抑制部5と相互に関連しており、エラー誘発作業抑制部5に対して作業順序の候補を入力するとともに、エラー誘発作業抑制部5からエラー発生確率情報を取り込む。
 エラー誘発作業抑制部5は、教示作業部6と相互に関連しており、教示作業部6に対してエラー発生確率情報およびエラー発生原因を入力するとともに、教示作業部6から教示パスを取り込む。
 また、エラー誘発作業抑制部5は、ロボットシステム3のコントローラ30からの動作モニタ情報に基づいて、エラー発生確率情報およびエラー発生原因を生成する。
 教示作業部6は、チョコ停対応行動計画部4からの作業シーケンス図(エラー復帰シーケンス付き)および作業パス(概略座標付き)と、エラー誘発作業抑制部5からのエラー発生確率情報およびエラー発生原因と、ロボットシステム3(フィンガーアイカメラ計測部32および3次元認識部33)からの動作モニタ情報とに基づいて、エラー発生原因および作業者の操作履歴を生成するとともに、精密化された作業パス(習熟前のロボットプログラム)を生成して動作習熟部7およびコントローラ30に入力する。
 動作習熟部7は、教示作業部6からの作業パスと、ロボットシステム3からの動作モニタ情報とに基づいて、最適化された作業パス(習熟後のロボットプログラム)を生成してコントローラ30に入力する。
 コントローラ30は、習熟前および習熟後の各ロボットプログラムと、フィンガーアイカメラ計測部32および3次元認識部33からの動作モニタ情報とに基づいて、マニピュレータ31およびマニピュレーションデバイス群34を駆動制御する。
 フィンガーアイカメラ計測部32および3次元認識部33は、マニピュレータ31およびマニピュレーションデバイス群34の動作をモニタし、動作モニタ情報をコントローラ30および教示作業部6に入力する。
 次に、図1に示したこの発明の実施例1による動作について説明する。
 一般的に、設計者による製品の設計手順としては、前述のように、最初に、製造したい製品の構造設計と、それを製造するためのセルのレイアウト設計とが行われる。
 これにより、製品を構成する部品の結合順序関係を表す部品連結情報(部品構成ツリー図)と、部品の幾何学的形状データなどの製品設計データと、セル内の設備レイアウトデータと、ロボットの仕様などの生産設備データとが得られる。
 これらの設計者による設計作業の結果が得られている状態から、この発明の実施例1によるシステム動作が開始されるものとする。
 以下、生産設備の立上げ時における、この発明の実施例1によるシステム動作について説明する。
 最初のフェーズでは、製品設計データおよび生産設備データ1が、チョコ停対応行動計画部4に対して入力される。
 これにより、チョコ停対応行動計画部4においては、部品連結情報に基づき、製品製造作業を細かい作業の系列に分解し、セル内各設備への各作業の割付、作業順序の生成が行われる。このとき、作業を分解して作業順序を決定する際に、エラー誘発作業抑制部5に対して作業順序の候補を与えると、その作業に対するエラー発生確率情報が返されるので、チョコ停リスクの低い作業順序が選択される。なお、エラー発生確率は、生産実行時の動作モニタ情報で随時更新される。
 なお、チョコ停とは、自動化設備において、作業対象物(原材料、ワーク、加工工具など)に対する搬送、加工、組立、検査計測などの自動・半自動作業を行う際、作業対象物または設備部位などにおいて異常状態が起き、設備の持つ作業機能が一時的に停止する状態のことをいい、重篤でない一時的な停止のことをいう。
 また、チョコ停対応行動計画部4においては、各作業と作業順序とを決定するとともに、作業中のチョコ停を検定するチェックポイントと、チェックポイント不通過時にどこまで戻れば作業を再開できるかという復帰ポイントと、復帰ポイントに戻るための復帰パスと、障害物を回避するための経由ポイントと、各ポイントをつなぐ作業パスと、各作業パスの実行順序を記述したシーケンスと、他のロボットや装置を待たせておく同期ポイントを含む「エラー復帰シーケンス付き作業シーケンス図」が生成される。
 また、各作業パスに対しては、以下のような属性ラベルが付与される。
 すなわち、「2点間移動」、「経由点への移動」、「エンドエフェクタデバイスによる作用をともなう作業」、「部品を把持する直前直後のアプローチ移動、またはあらかじめ最適化された作業動作といったセンサフィードバック制御による作業」、「チョコ停からの復帰シーケンス中」などである。なお、ひとつの作業パスに対して複数のラベルが付けられる場合もある。
 この段階における作業シーケンス図には、ラベル付き作業パスおよび各ポイントのみが含まれ、各作業パスの中身はまだ含まれない。
 なお、作業パスの中身とは、パス両端および経由点(必要に応じて、複数の経由点が追加される)の位置姿勢座標と、座標間移動方法(制御則、補間方法など)の指定である。
 また、あらかじめ最適化された作業動作とは、作業ミスを抑制して、すばやく、かつしなやかに作業するコツを含んでいる。
 さらに、チョコ停対応行動計画部4においては、部品の把持姿勢に基づき最適化されたハンドの構造から得られる把持戦略(ハンドライブラリ8)と、ペグインホール(人間型柔軟指の使用)などの生産工程で頻繁に用いられる特定作業(最適作業動作生成部11および特定作業ライブラリ9)と、エラー状態に応じて復帰ポイントへ戻るための復帰パス(エラーリカバリ作業教示部12およびエラーリカバリライブラリ10)とを含む作業動作、すなわち、これまでのロボット作業の教示・実行の結果から知識として得られている作業動作が、作業パス候補の生成時に用いられる。
 これにより、過去に発生したチョコ停誘発作業の再発を抑制する。
 次のフェーズとして、チョコ停対応行動計画部4においては、セル内の設備配置データおよび作業順序データを用いて、各作業に対する大まかな作業パスの中身が生成される。
 たとえば、生産セル内に部品置場および作業台があったと仮定して、部品置場から作業台に部品を運ぶ作業について、部品を運ぶ具体的な軌道に関する作業パスを考えると、ロボットが周辺の物体と干渉する可能性があるので、最終的には、各作業パスの実現値を精密な値に設定する必要がある。
 ただし、この場合、各作業パスは約5cm程度の精度で生成されるので、物体を把持する基準姿勢(部品とハンドとの相対姿勢)は、後段の教示作業部6において、教示作業入力手段を用いて作業者による教示で決定される。
 上記操作は、すべての作業パスについて繰り返され、ここまでのフェーズで、チョコ停対応行動計画部4からの出力情報として、「エラー復帰シーケンス付き作業シーケンス図+概略座標付き作業パス」からなるデータが得られる。
 次に、教示作業部6の動作が開始する。
 教示作業部6においては、概略座標付き作業パスに対して、把持点など動作要所の最終的な位置合わせのみを教示作業入力手段を用いて教示作業者が行うことにより、絶対座標が指定された精密化された作業パスが決定される。
 このとき、教示作業用パソコンまたはティーチングペンダントに表示されるエコロジカル・インタフェース理論に基づくユーザインタフェースにより、動作要所および作業状況が提示され、作業者は提示状況を見て、位置姿勢の精密化作業を行い、必要に応じて作業パスを教示作業入力手段で追加する。
 なお、作業状況の取得は、フィンガーアイカメラ計測部32において、ロボット(マニピュレータ31)の手先(マニピュレーションデバイス群34)に配置された全方位視野のカメラを用いて行われる。
 こうして取得された画像は、視野の隠蔽の起きにくい広範囲なものとなっているので、作業者は、手動操作時にロボットの手先の状態を観測し易くなる。
 または、作業状況の取得は、ロボット(マニピュレータ31)の手先(マニピュレーションデバイス群34)に配置された力覚センサ(図示せず)を用いて行われる。
 力覚センサとは、センサにかかる力とトルクとの両方を計測するセンサであり、ロボットの手先とは、ロボットハンドのフィンガー部分、またはロボットハンドとロボットとの接続部などを指す。なお、マニピュレータの関節各軸にトルクセンサを配置し、それら複数のトルクセンサから得られたデータを用いて、ロボット手先の任意の位置にかかっている力とトルクとの両方を推定演算することでも同等の効果が得られる。
 力覚センサにより取得されたデータは、ロボット手先が、作業対象物と接触した状態になったとき、前記カメラでは区別がつかない程度に小さなロボット手先位置の変位を識別できるので、作業者は、手動操作時にロボットの手先の状態を観測し易くなる。つまりロボット手先位置の微調整が可能になる。
 すなわち、力覚センサにより取得されたデータを、あらかじめ用意したロボット手先で発生する現象を抽象化したモデルと照合すること、または、数式で表されたモデルに、センサにより取得されたデータを代入して演算すること、によって得られる情報は、手先で発生している現象として画像上に表示される。
 これにより、作業者は、手動操作時にロボットの手先の状態を観測し易くなる。
 また、取得された画像情報をフィンガーアイカメラ計測部32で処理し、対象物体の把持面の法線方向情報を得ることにより、対象物体に対して一定の姿勢を自律的に保ったまま、他の軸については一定方向への移動指令を与えるか、または、オペレータの指令を反映するなどの半自律モードを実現することができ、教示作業の負担削減に寄与する。
 力覚センサでロボット手先の状態を観測している場合も、同様に、対象物体とロボット手先の接触面の法線方向情報を得ることにより、対象物体に対して一定の姿勢を自律的に保ったまま、他の軸については一定方向への移動指令を与えるか、または、オペレータの指令を反映するなどの半自律モードを実現することができ、教示作業の負担削減に寄与する。
 なお、この場合も、エラー誘発作業抑制部5が活用され、作業ミスを誘発する動作を教示した場合には、警告が発報する。
 また、教示作業部6においては、たとえば把持位置・姿勢を決定する必要があるので、作業者が位置姿勢の「6自由度」のすべてを同時操作するのではなく、システム側が多自由度の複雑な同時制御を肩代わりし、作業者が少数の自由度のみを操作する。
 これにより、負担を減らしながら、把持位置・姿勢を決定する機能を備えることができる。
 次に、動作習熟部7においては、精密化された作業パスに対して最適化を行い、作業動作が滑らかでタクトタイムの短い作業パス(習熟後)を得る。
 以上のように、チョコ停対応行動計画部4、エラー誘発作業抑制部5、教示作業部6および動作習熟部7は、各設計データ1、特定作業仕様2、各ライブラリ8~10、最適作業動作生成部11およびエラーリカバリ作業教示部12と関連して、ロボットシステム3に対するロボットプログラムを生成する。
 すなわち、製品設計・生産設備データ1から、チョコ停発生時の復帰シーケンスを含むコントローラ30で実行可能なロボットプログラムが、従来に比べて大幅に少ない教示作業者の負荷で得られる。
 次に、この発明の実施例1による生産実行時のシステム動作について説明する。
 製品を生産する場合のロボット動作順序は、以下の(1)~(6)のようになる。
 (1)通常は、ロボットプログラム中に記された作業パスを順番に実行する。
 このとき、部品寸法公差、位置決めばらつきを吸収して安定な動作を実現するために、フィンガーアイカメラ計測部32および3次元認識部33を用いて、対象物体に対する距離・姿勢の誤差をリアルタイムで計測し、センサフィードバック制御により作業を遂行する。
 また、処理レートが高速な2次元画像フィードバックと、処理レートがやや遅い3次元の距離・姿勢データフィードバックと、を用いた画像・距離ハイブリッド型フィードバックなどにより、高速・高精度なロボット動作を実現する。
 また、フィンガーアイカメラ計測部32により、部品把持中において、部品の把持位置姿勢を計測することができるので、部品を把持する際に発生する位置姿勢誤差の補正、または握り直しによる正確な位置決め作業が可能となり、位置ずれに起因するチョコ停が抑制される。
 (2)同期ポイントで、複数のロボットまたは装置の間で、同期が行われる。
 (3)チェックポイントにおいては検定が行われ、異常が無ければ(1)に戻る。
 (4)もし、チェックポイントでの検定に通らなければ、復帰動作が行われる。
 (5)復帰動作において、チェックポイント間の任意の位置から、あらかじめ与えられた復帰パスにしたがって、復帰ポイントまで戻り、そのポイントから(1)に戻って通常モードで動作を再開する。
 (6)以上の復帰動作を一定回数以上実行しても、復帰ポイントに到達できない場合には、作業者が呼ばれる。
 作業者による復帰動作の教示方法は、エラーリカバリ作業教示部12に記録され、知識として次回のロボットプログラム作成時に活用される。
 以下、教示作業部6、動作習熟部7、チョコ停対応行動計画部4、エラー誘発作業抑制部5、最適作業動作生成部11、エラーリカバリ作業教示部12、フィンガーアイカメラ計測部32、コントローラ30(画像処理部)、3次元認識部33、マニピュレーションデバイス群34(ユニバーサルハンド)、ハンドライブラリ8について、背景技術と関連させながら、順に詳述する。
 まず、図1内の教示作業部6について詳述する。
 現物合わせによる意思決定が求められるような、ロボットに対する教示作業において、自動化困難な部分については、人間作業者がその遂行を担当する。
 そこで、教示作業部6においては、その作業遂行を効果的なユーザインタフェースの提供によって支援する。
 前述のように、チョコ停対応行動計画部4の処理によって、「エラー復帰シーケンス付き作業シーケンス図」と「概略座標付き作業パス」とが、システムの中間出力として得られるが、それらをロボットプログラムとして完成させるためには、作業パスの具体的な形状と経由点の精密な位置データを、設備や組立部品(ワーク)の現物に合わせて追加・修正する必要がある。
 したがって、ロボット作業パスの精密化作業においては、タクトタイムの短縮や、他の物体との干渉の回避、または、ミスを誘発する可能性の高い作業フェーズへの対策など、という多様な要求事項に配慮することが求められる。
 特に、各種の変動要因に対して、ロバスト(Robust:頑健)なロボットの作業パスを実現するには、部品の把持や組付といった、ハンドを含む異なる物体同士の物理的接触が発生する動作フェーズの教示が最大の問題となる。
 部品の正しい把持や組付を教示するためには、ロボットを適切な位置・姿勢に正確に誘導する必要があるが、その判断は、作業者の視認に専ら依存して下されており、作業者の技量が反映されるポイントである。
 また、部品の寸法や形状には、公差の範囲内でばらつきが存在するので、教示作業時に用いたサンプルやその固定の状態が、連続稼働中の部品のばらつき具合をうまく代表するものである必要がある。もしそうでないと、教示された作業パスで想定されていない不確実性が、ミスの発生確率を大幅に押し上げることになる。
 教示作業部6においては、以上にまとめた教示作業に係る課題への対策として、ロバスト認識知能部を構成する各種センサ類(フィンガーアイカメラ計測部32、3次元認識部33、図示されない力覚センサ)を、ロボット作業パスの教示のための情報源として活用し、センサから得られる計測データ(動作モニタ情報)を適切な形態で可視化する。
 これにより、正確な位置・姿勢の判断を、より単純かつ容易なものに変更し、教示作業の効率化を図ることができる。
 また、教示作業部6においては、組立部品の寸法や形状のばらつきについての情報を、同様に可視化することにより、組立作業における変動要因に対する教示作業段階での対策を実現する。
 なお、多数の数値データを2次元の画面に提示する際には、作業者が的確な作業状況を直感的に理解できるように、教示作業に適う形態や配置によって統合する必要がある。これについては、「エコロジカル・インタフェース設計」(Ecological Interface Design:EID)の理論をベースにすることができる。
 図2はエコロジカル・インタフェースの実装イメージの一例を示す説明図である。
 図2において、マニピュレータ31のユニバーサルハンド34aと組立部品Wとの相互関係は、各種センサデータとして取り込まれ、組立部品Wに関する情報が可視化されて提示される。
 なお、ペグインホールなどのような、事前に最適化可能な特定作業動作系列を、ロボット作業パスの精密化のためのテンプレートとして利用することは、教示作業の手間の削減に非常に有効である。
 したがって、教示作業部6は、特定作業ライブラリ9を介して特定作業動作系列を参照し、作業パス精密化のために作業者が利用できるようにする。
 また、教示作業部6は、エラー誘発作業抑制部5と通信して、ミスを誘発する可能性のある作業動作の教示を常にチェックし、該当する教示がなされた場合には、作業者に対して警告し、効率的な教示作業の遂行を支援する。
 ロボットの教示作業では、いずれも作業対象物体と周囲環境との相対的な関係に基づいた行動生成が行われる。この際、ある自由度を、自律的にセンサフィードバックをかけておき、他の自由度については、オペレータの操作にしたがうといった、半自律モードも有効となる場面も多いと考えられる。
 なお、想定される代表的なセンサ情報としては、画像センサ、距離センサ、力覚センサの例を示したが、作業用途によって、さらに別のセンサ情報を必要とする場合には、これに対応したシステム機能を追加することができる。
 教示作業部6の入出力情報は、図3の説明図に示した通りである。
 すなわち、入力情報は、エラー復帰シーケンス付き作業シーケンス図、概略座標付き作業パス、各種センサデータ、組立部品情報である。
 また、出力情報は、精密化された作業パスであり、作業パスの始点座標、終点座標、複数の経由点座標の値域と刻み幅を含む。
 次に、図1内の動作習熟部7について詳述する。
 垂直多関節型ロボットの作業動作計画は、機構の自由度の高さに起因した複雑さがある。たとえば、単に始点と終点とを結ぶ軌道を導出する場合にも、2点境界値問題を解く必要があり、これを解析的にも数値的にも解くことは難しい。また、始点と終点とを結ぶ軌道に加えて、複数の経由点を含む軌道を最適化する場合は、さらに困難になる。
 そこで、この発明の実施例1では、垂直多関節型ロボットの経由点を含む最適軌道探索手法を用いる。実ロボットを動作させて得られる動作応答の観測信号から、準最適解を探索するという手法である。
 これにより、作業環境の変化や複雑化に対して、柔軟に対応可能な汎用性が期待することができる。この結果、同一動作を繰り返したときに、タクトタイムの短縮を実現することができる。
 図4は動作習熟部7における最適タクトタイム探索の概要を示す説明図である。
 図4において、(a)は、1つの経由点(0,J2,J3,0,0,0)を含んで、始点(-60,30,80,0,0,0)から終点(60,30,80,0,0,0)に至るロボット(マニピュレータ31)の作業パスの一例を示している。
 また、図4(b)は、ロボット(マニピュレータ31)に対する障害物Dの位置を3面図(平面図、側面図、正面図)で示している。
 図4(a)内の経由点(0,J2,J3,0,0,0)は、図4(b)内の障害物Dを回避できるように設定される。
 さらに、図4(c)は、最適タクトタイム探索の概念を3次元的な斜視図で示しており、各軸は、経由点の座標に含まれる「J2」の関節角と、「J3」の関節角と、タクトタイムとに対応している。
 図4(a)内の経由点を様々に変化させると、経由点ごとのタクトタイムが観測され、図4(c)に示すような曲面が得られる。
 図4(c)において、障害物Dと干渉する作業パスは、タクトタイム「0」としている。このとき、タクトタイム最短は、曲面内に白抜きで示した領域Z1に現れる。なお、図4(c)では、表記を簡略化するために、2つの関節のみが動く経由点が1つのみの場合について説明しているが、実際には、多関節が同時に変化する複数の経由点が作業パスを構成するので、多自由度空間内を探索して、白抜きの領域Z1を探す必要がある。また、試行回数の少ない探索パスPS1と、試行回数の多い探索パスPS2、PS3とが、太線矢印で示されている。
 この発明の実施例1によれば、このような探索を高速化するシステム機能とすることができる。
 具体的には、能動学習理論(Active Learning in Computational Learning Theory)の枠組みを応用する。つまり、探索試行を次々に繰り返していく際に、これまでに試行した結果のデータを用いて、次に試行することが最も好ましい試行を最適化する。
 すなわち、次回に試行可能な複数の候補について、その候補を試行することで得られると見なされる結果を数値化して比較し、次回以降に試行する候補の順番を決めるという操作を行う。結果の数値化については、これまで試行して得られているデータを用いて、ある候補による試行が行われたときに得られる結果を推定するモデル構築した上で、このモデルを用いて、各候補すべてについて、その候補により得られると見なされる候補を数値化する。
 なお、得られた数値を用いて、この候補の最適化は、試行を行うごとに実行してもよいし、複数回の試行ごとに実行してもよい。ただし、毎回実行することにより、試行回数が少なくなる効果が高くなることが分かっている。
 実際に、ある候補を用いて試行が行われた際には、得られた結果を、それまでに得られている結果と合わせておく。つまり、最適化を行う際に構築するモデルは、試行を繰り返すたびに、徐々に精確なものとなる。
 これにより、全体として試行数が少なくなり、たとえば、図4(c)内の「太線矢印」で示すような、「試行回数の少ない探索パスPS1」が実現される。
 また、ロボットアームの振動が大きい場合には、振動が減衰するまで、次の動作を開始することができない場合がある。この待ち時間が長くなるとタクトタイムは長くなるので、振動を減少させることは、タクトタイム短縮のための検討課題の1つと考えられる。
 このような振動の発生は、ハンド・アームの慣性力と、ハーモニックドライブなどの減速機構、伝達機構のバネ効果による復元力とに起因するが、作業パスの選定も重要な検討項目と言える。
 実際、従来システムの教示では、作業ポイントやチェックポイントを離散的に指示する方法が一般的であり、ポイント間の移動経路や作業パス内の軌跡の選定において、振動抑制を意識した軌跡の選択は行われていないので、加減速ごとに不要な振動が励起される状況にある。
 従来から、実際に行われている振動抑制手法の1つとして、アーム最伸展時の固有振動数に固定したノッチフィルタに、モータ制御信号を通すことが行われている。しかし、固有振動数は、ワークの重量変化やアームの姿勢などによって変化するので、フィルタ効果が充分とは言えない状況にある。また、デジタルフィルタ特有の時間遅れも、作業時間短縮に相反する状況にある。
 たとえば、熟練したクレーンのオペレータは、ワークを吊上げてから目標位置に移動するまでのワークの振動を、可能な限り抑制するように、クレーン先端位置を操作する。具体的には、加減速によって、ワークが振り子の最大変位位置に到達して速度がゼロとなった瞬間に、クレーン先端位置をワークの垂線上に移すことで実現される。
 このことは、目標位置を振り子の最大変位位置に設定できれば、停止時のワークの振動を回避可能なことを意味している。
 この発明の実施例1に係る産業用ロボットシステムの場合、ハンドおよびアームを質量とし、ハーモニックドライブをバネ要素とし、モータを内蔵したシステムであることから、上記クレーンの例とは異なるが、目標位置(停止位置)でハンドが振動しない条件を、導出し、ロボットの動作軌跡および加減速運転パターンを変化させる方式を用いている。さらに、ロボットの先端には、ハンドが取り付けられている。このハンドを動吸振器、またはアクティブ動吸振器として働かすことで、アームの制振に利用する方法も合わせて用いることで、振動を抑制するのに要する時間をさらに短くする効果がある。
 すなわち、動作習熟部7においては、上記の2つのタスクを交互に実行することにより、タクトタイムが短い作業パスを得ることができる。また、ロボットアームの振動抑制は、位置決め精度の低下防止や、チョコ停抑制にも寄与する。
 動作習熟部7の入出力データは、図5の説明図に示した通りである。
 すなわち、入力情報は、作業パスの始点座標、終点座標、複数の経由点座標の値域と刻み幅、作業環境情報、ロボット情報である。
 また、出力情報は、作業パスの始点座標、終点座標、複数の経由点座標と、始点、終点、経由座標点間の軌跡および加減速指令と、である。
 次に、図1内のチョコ停対応行動計画部4について詳述する。
 セル生産ロボットシステムの設計においては、製品組立作業の詳細な要素作業への分解と、それら要素作業の各設備へ割当てと、作業順序および作業パスなどの具体的な策定とが行われる。
 この設計の結果は、ロボットによる各要素作業の効率のみでなく、要素作業のロボットへの教示およびエラーリカバリプロセスの難易度に大きな影響を及ぼす。しかしながら、セル生産ロボットシステムを設計するためには、ロボットが行う各要素作業の効率化という微視的観点から、生産システム全体の物流的観点まで、多岐にわたる事項についての検討が必要である。
 したがって、総合的に最適なシステムを設計することは、非常に困難であるのが現状である。特に、ロボットハンドの交換やチョコ停発生時の処理のような補助的作業は、セル生産ロボットシステム全体の効率に非常に大きな影響を与えるにもかかわらず、初期設計段階でこれらの影響を検討するためのツールは、現在のところ存在しない。
 また、ロボットの動作を詳細にシミュレーションする商用ソフトは、多数開発されてはいるものの、そのシミュレーションモデルの構築には多大な労力が必要であり、多様な事項の同時的な検討が必要な初期設計段階での利用には不向きである。
 そこで、この発明の実施例1では、初期設計段階において、ハンド交換やエラー処理のような補助的工程を含む、セル生産ロボットシステムの総合的な評価を迅速に行うためのチョコ停対応行動計画部4を用いている。
 チョコ停対応行動計画部4は、後述するエラー誘発作業抑制部5および最適作業動作生成部11の各機能構成部と連携をとりながら、ロボット作業の概要を決定する。
 チョコ停対応行動計画部4の具体的な機能構成は、以下の通りである。
 まず、製品構造設計および生産設備設計の結果(製品設計データおよび生産設備データ1)から、部品連結情報と幾何学的形状データと設備レイアウトデータとの3次元の幾何情報を得る。また、これらの情報から、幾何学的な部品の把持可能な面の特定と、製品の一連の組立作業の要素作業への分解を行う。さらに、これらの処理結果に基づいて、作業手順の候補を生成し、各要素作業を割り当てる設備を決定する。
 ここで、チョコ停対応行動計画部4は、エラー誘発作業抑制部5および最適作業動作生成部11に対して、作業順序の候補案を入力し、エラー誘発作業抑制部5からは、作業順序の候補に対するエラー発生確率情報を取り込む。
 以下、図6に示すように、エラー発生確率情報を利用して、作業手順の計画の段階で、ロボットハンドの交換やチョコ停発生時の復帰動作などの補助作業を含めた組立作業全体の分析を行い、チョコ停の発生に対してロバストな作業手順を策定する。
 図6はチョコ停復帰などの補助作業を考慮した作業分析を示すフローチャートである。
 図6において、上流側の作業t1、t2は、チョコ停発生などのエラー判断に基づく復帰作業c3、c4に応じて行われる。
 作業t2に続いて、作業t3が行われた後、検査c1に進み、チョコ停発生の有無がチェックされる。
 検査において、チョコ停発生の場合には、エラー判断されて、復帰作業c3、c4に進む。一方、チョコ停が発生せずに正常であれば、作業t4に進み、さらにハンド交換c2後に、作業t5が行われる。
 この結果、エラー発生確率情報に基づき、統計学的な評価によるハンド交換のタイミングやチョコ停からの復帰などの、補助作業を含めた作業順序が編成される。
 エラー誘発作業抑制部5との連携は、設計時にリアルタイムに行うことが望まれる。
 また、図6の作業順序の編成時に、最適作業動作生成部11からの入力情報として、作業パスのテンプレートを、要素作業の種類に応じて獲得する場合がある。この情報を、パッケージ化された、熟練した技を持つ作業動作のライブラリとして利用することにより、作業順序の編成において、より正確な作業時間の見積りが可能となる。
 以上のように策定された作業手順に基づき、ロボットの最適な概略作業パスを、5cm程度の精度で自動的に生成する。この概略作業パスは、ロボットへの教示などの詳細設計段階への出力となる。
 この際、エラー発生時の作業t1、t2への復帰ポイントと、他の設備との同期ポイントと、定められた作業の成否を検査(c1)するポイントと、を同時に決定出力する。
 これにより、従来のセル生産ロボットシステムでは、設計の後工程で逐次的に行わざるを得なかった検討(チョコ停への対応方法など)を、フロントローディングし、初期設計段階において適切な意思決定を行うことにより、セル生産ロボットシステムの設計・実装プロセス全体の生産性を大幅に向上させることができる。
 また、教示作業に対する寄与として、以下の点を追記することができる。
 すなわち、全体シーケンスのうち、作業者が特に確認したい一部分のシーケンスのみを実際にロボットに実行させて、ロボット動作を確認する作業を躊躇なく行うことができるというメリットがある。
 なぜなら、エラー復帰シーケンスを援用することによって、以前では作業者が慎重に(間違わないように)時間をかけて行う必要があった後始末(ロボットまたは周辺装置の物理的な位置を初期位置に戻すこと、および、制御装置の変数を一定の初期値に戻すことなど)が自動化されるからである。
 なお、チョコ停対応行動計画部4の入出力情報は、図7の説明図に示した通りである。
 すなわち、入力情報は、製品の部品連結情報と幾何学的形状データと設備レイアウトデータとの3次元の幾何情報と、作業順序の候補に対するエラー発生確率情報と、作業パスのテンプレートと、である。
 また、出力情報は、補助作業を含めた作業順序と、概略作業パスと、教示作業が必要なポイントと、エラー発生時の復帰手順、復帰ポイントおよび同期ポイントと、ロボットが把持可能な部品面と、である。
 次に、図1内のエラー誘発作業抑制部5について詳述する。
 エラー誘発作業抑制部5は、ロボット作業におけるエラー発生のリスクを分析して、エラー低減のために必要な情報を提供し、作業設計時または作業者による教示作業時に、エラーを誘発するロボット動作の設定(または、教示)を抑制する。
 すなわち、作業設計時には、設定された作業手順において起こり得るエラーのリスク(エラーの影響の大きさと発生し易さ)を推定して、エラー発生を検出するための作業サブゴール達成のチェックポイントの設定や、エラーを誘発しにくい作業方法(たとえば、上から組み立てるか、下から組み立てるか)の選択を、チョコ停対応行動計画部4や最適作業動作生成部11に対して支援する。
 また、チェックポイントで検出された運用時のエラー事例の原因を究明して、エラーリカバリ方法における復帰ポイントや復帰方法の改善を支援する。
 同時に、エラー発生に関する知識をデータベース化して、今後のエラー対策の検討を支援する。
 また、作業者による教示作業時には、次にロボットに指示しようとする動作は、好ましくない現象を発生するリスクが高いことや、ロボットによる作業が進展するにつれて、リスクの高い作業群の入り口(または、真っ只中)にいることを教示作業部6に警告して、エラーを誘発し易い作業設定を抑制する。
 上記機能を達成するために、まず、ロボットを用いたセル生産システムで回避すべき「システムエラー」の発生過程を同定するための「エラー発生分析方法」がある。これは、結果であるシステムエラーから、その発生原因を求める逆方向分析である。
 一方、エラー発生リスク推定は、作業条件からシステムエラー発生を予測する順方向分析であり、作業進展にともなって、エラー発生リスクが逐次どのように変化するかを推定する。
 両方向の分析が一貫して行えるように、システムリスク分析で用いられているシステム工学的方法を参考にすることができる。
 作業の特徴とエラー発生可能性の依存関係とを、ベイジアンネットワークを用いて考察しながら、作業の進展と共に追加入力される作業情報に基づいて、エラーの発生リスクを逐次更新する。
 さらに、ロボットに実行させる作業の設計の初期段階と教示段階とでは、用いる設計情報の詳細度が異なるので、段階に応じた階層的な分析方法により、定性的情報から、より詳細な定量的情報による分析が一貫して行えるようにする。
 また、システム構成要素に関する基本的なエラー関連情報は、エラーリカバリ方法の検討など、他の機能構成部で再利用できるように、故障モード影響度解析のような情報源として蓄積する。
 図8はエラー発生リスク分析方法の枠組み(エラー発生のリスク分析結果)を示す説明図であり、エラー発生と要因との因果関係をベイジアンネットワーク(Bayesian Network)で示している。
る。
 図8において、M段階の作業1~作業Mは、作業1→作業2→・・・→作業Mの順に進展するものとし、N個の要因1~要因Nに対して、それぞれ影響関係(点線矢印参照)を有している。
 また、各要因1~要因Nは、エラーiに関するn個の発生条件1~発生条件niに対して、それぞれ因果関係を有し、エラーiの発生へとつながっている。
 エラー発生のリスクを推定する場合には、作業(図中の下段側)からエラーの発生(図中の上段側)へと推定処理が行われる。
 逆に、エラー発生の原因を同定する場合には、エラーの発生(図中の上段側)から作業(図中の下段側)へと原因の同定処理が行われる。
 なお、エラー誘発作業抑制部5の入出力情報は、図9の説明図に示した通りである。
 すなわち、入力情報は、作業順序が示された作業シーケンス図と、エラー復帰シーケンス付き作業シーケンス図と、設備やロボットに関する基本設計仕様などの情報と、作業者の教示データと、である。
 また、出力情報は、作業順序に基づくエラー発生確率の推移情報と、エラー発生可能性の予測結果・警告と、エラー発生原因・対策に関連する情報と、である。
 次に、図1内の最適作業動作生成部11について詳述する。
 ロボットによる組立作業の中で、ハンドが把持している部品と、その部品を組み付ける対象側のワークとが物理的に接触し得る「部品組付」のフェーズは、チョコ停などにつながるトラブルが最も生じ易いフェーズの1つである。
 また、全く同じ部品およびワークであっても、熟練した技術者が教示した作業パスと、非熟練者が教示した作業パスとでは、「部品組付」のフェーズでトラブルが生じる頻度に、しばしば大きな差が生じることが知られている。
 この理由は、ロボットによる組立作業であっても、「部品組付」のフェーズを単純かつロバストに実現する「熟練の技」が存在し、熟練の技を反映した作業パスではトラブルが生じにくくなるからである、とも解釈することができる。
 最適作業動作生成部11は、いくつかの典型的な組付工程のパターン(以下、組付工程の各パターンを「特定作業」と呼ぶ)に対して、「熟練の技」を反映したと言えるような最適作業パスのテンプレートを出力するものである。
 これにより、教示作業部6においては、最適作業パスのテンプレートを参照することによって、熟練技術者の経験に依存することなく、ロバストな作業パスを容易に教示できるようになる。
 この発明の実施例1は、上記教示の実現に向けて、特定作業ごとに、上述の最適作業パスのテンプレートを、部品の把持姿勢に応じて、オフラインで生成する手法である。
 ロボットによる組立作業には、マニピュレータ31がハンドを操作する際の作業誤差・教示誤差、ハンドと部品との相対的な位置・姿勢誤差、部品・ワークの寸法・形状誤差、ワークの位置・姿勢誤差などの、様々な誤差が存在し、これら誤差の確率変数としての性質が、作業結果の不確実性を生んでいると考えられる。
 この発明の実施例1の基本的なアイデアは、上述の「熟練の技」とは、「そうした誤差の不確実性に対する対応の巧みさ」である、と考える点にある。その上で、誤差によって生じている不確実性を定量的に評価するための尺度(エントロピ)を導入し、作業パスの過程でそれがどのように変化していくかに基づいて、異なる作業パス同士で、不確実性への対応の巧みさを比較できるようにする。
 また、不確実性を巧みに処理できる作業パスを構成(または、探索)していくアプローチを展開することにより、ロボットが、入力情報に応じて不確実性を巧みに処理できる作業パステンプレートを構成するアルゴリズムが得られる。
 さらに、この「作業パステンプレート構成アルゴリズム」で得られた作業パステンプレートに、近傍探索するロジックを付加することにより、作業パスはさらに改善される。
 具体的な進め方としては、まず、現実の製造現場で最もよく見られる組付工程のパターンとして、「部品をワークの穴や溝に挿入する工程」を、特定作業として取り上げる。
 なお、この挿入工程は、さらに部品の形状などによって性格が異なるため、最初のステップでは、最も一般的な、いわゆるペグインホール工程を対象とし、徐々に複雑な形状のものに拡張していく。
 最適作業動作生成部11の入出力情報は、図10の説明図に示した通りである。
 すなわち、入力情報は、特定作業の種類(ペグインホールなど)と、部品・ワークの設計情報(寸法、形状など)と、考慮すべき主な誤差とそれらの分布と、部品の把持姿勢(一般には、複数の候補が与えられる)と、ロボット情報(可能な要素動作、制御則など)と、利用可能なセンサ情報と、である。
 また、出力情報は、条件分岐のある作業パスのテンプレート(把持姿勢の候補が複数ある場合は、それぞれに対して出力される)と、作業パステンプレート上の経由点および要素作業系列への意味付けと、である。
 次に、図1内のエラーリカバリ作業教示部12について詳述する。
 チョコ停を含むエラー状態から復帰するためのロボットの動作は、作業者が与えているのが現状であるが、作業者は、エラー状態によりリカバリ操作の戦術を切り替えており、個々の操作は、リカバリの効果を経験して学習的に習得している。
 すなわち、エラー状態をもたらした制御対象の局面を場合分けし、場合ごとのローカルな復帰のための制御則を、エラー状態に至った状態遷移をさかのぼることで、エラーの直接・間接の原因を同定し、エラーの原因に応じた対応をできるだけ一般的な制御則として学習している。
 ここでの学習は、大きく2つのフェーズに分けられ、一方は、多様なエラー状態の類型化であり、他方は、各類型化されたエラー状態のもとでの復帰のための普遍的な制御則の獲得である。これら2つの学習フェーズは、分離できるものではなく、各々のフェーズでの学習に合わせて「共進化的」に学習が進行する。
 この発明の実施例1では、演繹(えんえき)学習の代表的手法である、説明に基づく学習(EBL)を用いた「単一事例からの学習手法」を適用する。
 この学習手法は、与えられた単一の教示事例(すなわち、デモンストレーションとして教示されたエラーリカバリ)のための復帰動作系列の入力に対して、それが何故にお手本となるような事例たり得るのかについての説明を、システムが生成する。
 当該訓練事例のどの部分に教示ノウハウが活かされているかを選択的に抽出し、これをその知識の適用可能性の基準を定める表現形式(操作性規範)で一般化した知識(すなわち、普遍的な制御則)として生成する。
 一方、エラー状態の類型化については、教示例として与えられるエラー復帰動作の系列から、逐次的に最も的確な類型クラスへの割当てを決めながら実行される。このときの割当を決める際に用いられるのが、カテゴリ有用度の尺度である。
 付加された新たな事例(=分類したいエラー状態)を、候補となる類型クラスに仮に帰属させ、そのクラス内の属性値分布を更新した上でカテゴリ有用度を算出する。
 類型化クラス生成の手順は、単一のエラー状態の事例からなるクラスから開始し、これに対して随時に新たな事例が付加される度に、類型化クラスの再編成を、以下のような4つのクラス操作の適用をしながらカテゴリ有用度の評価基準に基づいて決定し実行する。すなわち、既成クラスの付加、新たな単一事例クラスの生成、複数の既成クラスの統合、既成クラスの解体、の4つの操作で、各々の操作を実行した場合のカテゴリ有用度を算出し、これが最大となる操作を実行する。これにより、エラー状態の分類・同定識別のための逐次最適化が可能になる。
 図11は上記知識の演繹学習に基づく教示学習システムの構成例を示すブロック図である。
 図11において、教示学習システムは、エラーの類似化学習ブロックと、復帰動作の制御則学習ブロックとを備えている。
 エラーの類似化学習ブロックは、エラーのレパートリーから分岐されたN個の類型クラス1~Nを含む。
 また、復帰動作の制御則学習ブロックは、各類型クラス1~Nに対応して作業員が復帰動作を教示する段階と、復帰動作の系列を入力する段階と、説明に基づく学習EBLを用いて1つの修正事例から一般則の学習を行う段階と、一般則の各学習結果からなるN個の制御則1~Nと、一般則の学習結果に基づく説明生成用の背景知識(データベース)とを含む。
 さらに、エラーの類似化学習ブロックは、一般則の学習結果に基づく事例追加に応答して再構築される。
 図11の教示学習システムが獲得した知識は、操作性規範を満たす表現形式で得られていることから、デモンストレーションとして教示された以外の「エラー状態」との間で直接的な照合操作をとることが可能になる。
 したがって、この制御則を適用することにより、教示者が介入することなく、同じ類型化されたエラー状態からの復帰動作は、自動的に実行される。この結果、従来の教示作業の頻度と教示時間が大幅に短縮されることが期待できる。
 なお、エラーリカバリ作業教示部12の入出力情報は、図12の説明図に示した通りである。
 すなわち、入力情報は、個別のエラー発生原因と、個別のエラー発生時のロボット操作系列と、作業者の個別のエラーに対する復帰操作履歴と、である。
 また、出力情報は、類型化されたエラー状態に対する汎用的な復帰作業パスならびに復帰操作系列である。
 次に、図1内の画像計測・認識部のフィンガーアイカメラ計測部32について詳述する。
 従来から、マニピュレータ31のアーム先端に近い位置に設置されるハンドアイカメラは存在するが、従来のカメラは、ハンド手先および対象物体を含む周辺部を見るというよりも、アームの自由度を生かした視点移動効果を目的としており、対象をある程度離れて観測することを想定している。したがって、従来のカメラは、教示やチョコ停からの復旧動作において重要な、ハンド手先部と対象物体や周囲環境との近接・接触状態、または、把持中の物体状態、を十分に把握するための構造を有しておらず、たとえば、アーム自身や周囲環境に起因した隠蔽が生じる可能性があった。
 そこで、この発明の実施例1では、マニピュレータ31のハンド手先部に比較的近い位置に配置可能で、かつ周囲環境も含めた広範囲な画像情報を観測可能な、超小型光学系を持つフィンガーアイカメラ(手先・周囲同時計測カメラ)である。
 図13はフィンガーアイカメラ計測部32の構成を概念的に示す説明図である。
 図13において、フィンガーアイカメラは、高速カメラ32aと、全方位ミラー32bとにより構成されており、全方位ミラー32bの反射像を高速カメラ32aで撮像するように構成されている。
 高速カメラ32aは、マニピュレータ31の先端部に位置するロボットハンド34bのフィンガーごとに設けられており、全方位ミラー32bは、フィンガーおよび高速カメラ32aに対向するように配置されている。
 高速カメラ32aは、撮像したロボットハンド34bの画像を、動作モニタ情報として教示作業部6およびコントローラ30に入力するとともに、コントローラ30を介して、エラー誘発作業抑制部5および動作習熟部7に入力する。
 高速カメラ32aから得られた画像情報は、オペレータの手動操作による教示動作と、チョコ停復旧動作とを助けるのみでなく、コントローラ30において、センサフィードバック制御用の画像入力として用いられる。
 このように、各種作業の自律化または半自律化に画像情報を使用することができる。
 フィンガーアイカメラを用いることにより、マニピュレータ31の手先状態を観測し易くなるとともに、手先方向の対象物体が隠蔽によって直接観測できない場合においても、側方の画像情報を適応的に選択してセンサフィードバック用の画像として用いることが可能である。
 また、近接距離計測機能を持たせることにより、マニピュレータ31の手先周辺の距離分布を正確に計測することも可能となる。
 なお、上記フィンガーアイカメラ以外にも、環境側に配置したカメラと連動しても、同等の効果が得られる。
 次に、センサフィードバック制御による経路誘導のための、図1内のコントローラ30内の画像処理部について詳述する。
 従来、画像を用いたフィードバック(ビジュアルフィードバック)においては、単一カメラから得られる単一画像平面内での残差に対するフィードバック制御を行うことが基本であり、距離情報としては、一定条件か、または、対象サイズに基づいた簡易的な距離計測情報が用いられてきた。
 しかし、これらの手法では、3次元空間内における高精度なフィードバック制御は困難である。
 そこで、この発明の実施例1では、処理レートが高速な2次元画像フィードバックと、処理レートがやや遅い距離・姿勢データフィードバックとを用いた、画像・距離ハイブリッド型フィードバックなどにより、これを解決する。
 また、距離の法線方向情報などを用いることにより、対象物体に対して一定の姿勢を自律的に保ったまま、他の軸については一定方向への移動指令を与えるか、または、オペレータの指令を反映するなどの、半自律モードを実現することができる。
 さらに、この発明の実施例1においては、把持状態における対象部品の把持位置姿勢を認識するために、フィンガーアイカメラから得られる画像情報に基づいた把持位置姿勢計測用部である。
 一般に、部品が把持されている状態では、一定の姿勢拘束が生じるので、コントローラ30内の画像処理部においては、エッジ処理を用いた探索指定限定の3次元マッチング処理など、比較的簡素な画像処理によっても、物体の位置姿勢認識が可能であることを利用する。
 これにより、把持作業時に部品姿勢が変化したような場合においても、位置姿勢精度を確保することが可能となる。
 画像計測・認識部のフィンガーアイカメラ計測部32に基づくセンサフィードバック機能(コントローラ30)の入出力情報は、図14の説明図に示した通りである。
 すなわち、入力情報は、カメラ画像と、近接距離データと、参照モデルデータと、終点モデルデータと、キャリブレーションデータ(内部、外部)と、であり、出力情報は、目標偏差データである。
 一方、フィンガーアイカメラ計測部32に基づく把持位置姿勢計測機能(コントローラ30)の入出力情報は、図15の説明図に示した通りである。
 すなわち、入力情報は、カメラ画像と、参照モデルデータと、キャリブレーションデータ(内部、外部)と、であり、出力情報は、対象物体の位置姿勢データである。
 次に、図1内の画像計測・認識部の3次元認識部33について詳述する。
 一般に、アクティブ3次元計測手法では、パターン光を投光することで密な距離分布データが得られるので、対象物体自体に切欠き特徴などの明確な特徴は必ずしも必要ではなく、より汎用的な位置姿勢認識が可能である。
 しかし、大量の3次元データを効率よく処理する必要があり、現在開発されている3次元位置姿勢認識アルゴリズムでは、処理時間をはじめとして、実用性能面で十分であるとは言えない。
 これまでに、発明者の所属会社においても、図16に示すような、3次元距離分布モデルに基づく位置姿勢認識アルゴリズム(3次元モデル照合手法)が試作されている。
 図16は3次元計測・認識処理の例をブロック図とともに示す説明図である。
 図16において、たとえば配管の一部からなる計測対象物体40は、レーザ装置および3次元カメラを有する小型の3次元センサ41により計測される。
 まず、3次元センサ41は、計測対象物体40に対してレーザ光をスキャンしながら照射し、計測対象物体40までの距離を計測しながら、計測対象物体40を3次元カメラで撮像する。
 続いて、3次元センサ41は、計測対象物体40の距離分布を計算し、画像データに距離値を濃淡で表示して、計測対象物体40の3次元計測結果42を取得する。
 最後に、3次元センサ41は、計測対象物体40の位置姿勢の認識処理を行い、計測データ(暗領域)上に、モデルの当てはめ結果(明領域)を重ね合わせて、計測対象物体40の3次元モデル43を取得する。図16では、複数の計測対象物体の認識結果を取得した例を示している。
 しかしながら、この発明の実施例1において、段積みされた部品供給箱(トレイ)ならびにキッティング状態からのパーツピッキング作業に適用するためには、高速性およびロバスト性といった面での実用性能をさらに高めることが望ましい。
 このため、この発明の実施例1では、3次元姿勢認識処理において、姿勢仮説の探索ツリーをオフライン解析することによる効率化や、計算機上での高速計算アーキテクチャを活用した処理時間向上などを行う。
 さらに、計測データの欠損などが生じた場合には、計測された部分の情報のみを用いて、位置姿勢認識に関して一部のあいまい性を残したまま認識処理を行い、ピッキング作業後に把持状態の対象部品を再計測して、把持位置姿勢を確定することにより、ロバストなパーツピッキング機能をシステム的に実現する。
 従来システムにおいては、画像処理アルゴリズムを設計する際に、オペレータが画像処理に関する豊富な知識を有する必要であった。また、3次元認識の場合には、2次元処理と3次元処理とを組合せることにより効率的な処理が可能となるが、設計に関する知識はさらに要求されることになる。
 そこで、この発明の実施例1では、対象物体の形状やテクスチャ特性に合せて、2次元処理と3次元処理とを組み合わせた適切な画像処理アルゴリズム設計が行われるように、チョコ停対応に関する各機能構成部群との間で双方向に連携を行い、オペレータの設計作業を支援する。
 なお、この発明の実施例1で用いる3次元データとしては、発明者の所属会社で開発されている小型3次元レンジファインダや、前述のフィンガーアイカメラから得られる3次元データなど、必要なスペックを有する3次元センサからのデータ利用を想定する。
 画像計測・認識部の3次元認識部33の入出力情報は、図17の説明図に示した通りである。
 すなわち、入力情報は、距離分布データと、カメラ画像と、参照モデルデータと、キャリブレーションデータ(内部、外部)と、であり、出力情報は、対象物体の位置姿勢データである。
 また、画像計測・認識部:アルゴリズム設計支援部の入出力情報は、図18の説明図に示した通りである。
 すなわち、入力情報は、表面特性データ、対象物立体形状データ、カメラ画像およびキャリブレーションデータ(内部、外部)であり、出力情報は、認識可否およびアルゴリズム設計プランである。
 次に、マニピュレーションデバイス群34内のユニバーサルハンドと、マニピュレーションデバイス群34からの把持作業動作系列を格納するハンドライブラリ8と、について詳述する。
 上述した各機能構成部の有効性は、実際の物理世界に作用してこそ発揮されるが、通常の作業動作のみならず、エラーリカバリ動作の実現においても当てはまる。
 すなわち、通常時およびエラー時の動作戦略が設計されても、それを実現する物理手段を備えていなければ無意味である。また、物理的な作用要素の形態が分かっていなければ、正しい行動計画自体を立案することもできない。
 以上のことから、ハンドに代表されるエンドエフェクタと、その駆動技術(マニピュレーション技術)とは、要素技術として不可欠であり、前節までに述べたチョコ停対応に関する各機能構成部群に対して、双方向的に大きな影響を及ぼしている。
 従来の生産ロボットのエンドエフェクタは、空気圧駆動の単純な開閉式グリッパを用いることが多く、把持するワークの形状に応じて、それぞれ専用ハンドを用意していた。
 このような従来の専用ハンド方式では、動作戦略は単純であるものの、設計・製作時間が長く、高コストになるうえ、多品種対応のために必要なハンド数が膨大となる、などの課題があった。
 これに対して、この発明の実施例1では、上記専用ハンドに代わる解決策として、セル生産ロボットシステムのためのユニバーサルハンドとすることができる。
 ただし、すべての組立作業をこなせる万能な単一ユニバーサルハンドの開発は現実的ではなく、対象作業に応じて、必要以上に複雑にならないハンドを設計すべきである。
 また、多自由度となるユニバーサルハンドは、その機構を設計するのみでは不十分であり、ワークを把持するまでの把持戦略なども考える必要がある。
 そこで、ユニバーサルハンドが対象とする部品の形状と、その部品を把持するのに適したユニバーサルハンドの指先位置と、ワークの位置に多少の変動があっても確実に決められた姿勢でワークを把持するための把持戦略と、ユニバーサルハンドの指先位置と動作を実現するための具体的なハンド機構とをライブラリ化したハンドライブラリ8とを作成し、対象とする組立作業の情報を入力することにより、その組立作業に適したユニバーサルハンド機構を提示することのできる枠組みである。
 図19はハンドライブラリ8の概念を図式的に示す説明図である。
 図19において、ハンドライブラリ8は、組立作業およびキッティングを含むターゲットタスクに対して、ユニバーサルハンドの把持戦略ソフトウェアを対応付けて、ライブラリ化している。
 なお、把持位置決定や把持戦略については、Form ClosureやForce Closureなどの観点から決定することが考えられる。
 ハンドライブラリ8は、単に機構設計時のみでなく、チョコ停対応に関する各機能構成部群と連携して、行動計画や教示作業にも役立てることができる。
 ハンドライブラリ8においては、与えられた部品形状その他の条件によって、把持点位置の情報がライブラリ化されているので、実際の教示作業の際に、ハンドの動作をティーチングする必要がない。また、部品の初期位置姿勢に所定範囲の誤差が含まれていたとしても、最終的に規定の位置姿勢になるようなロバスト把持戦略もライブラリ化しておくことにより、ティーチングに要する時間を大幅に削減することが可能となる。
 以上のように、この発明の実施例1に係る産業用ロボットシステムは、マニピュレータ31およびハンド(マニピュレーションデバイス群34)を有するロボット(ロボットシステム3)を含み、製造対象物となる製品を組み立てるための生産システムに用いられる産業用ロボットシステムであって、生産ラインの立上げ・調整時の教示作業および無人連続操業の障害となるチョコ停に対応するための作業情報および第1の作業パス(概略座標付き作業パス)を生成するチョコ停対応行動計画部4と、作業情報に基づいて、エラーを誘発する作業を抑制するためのエラー情報(エラー発生確率情報、エラー発生原因)を生成するエラー誘発作業抑制部5とを備えている。
 また、この発明の実施例1に係る産業用ロボットシステムは、第1の作業パスおよびエラー情報に基づいて第2の作業パス(精密化された作業パス)を生成する教示作業部6と、第2の作業パスに基づいて、ロボットに対する最適化された第3の作業パス(最適化された作業パス)を生成する動作習熟部7とを備えている。
 また、この発明の実施例1に係る産業用ロボットシステムは、ロボットの組立作業と制御ソフトウェアとを対応付けてライブラリ化したハンドライブラリ8と、特定作業動作系列を生成する最適作業動作生成部11と、特定作業動作系列を格納する特定作業ライブラリ9と、教示作業部6における操作履歴に基づいて、エラー状態に応じたエラーリカバリ作業を教示するためのエラーリカバリ作業教示部12と、エラーリカバリ作業を格納するエラーリカバリライブラリ10とを備えている。
 さらに、この発明の実施例1に係る産業用ロボットシステムは、ロボットの動作モニタ情報を生成して、エラー誘発作業抑制部2、教示作業部6および動作習熟部7に入力するフィンガーアイカメラ計測部32および3次元認識部33と、第2および第3の作業パスと動作モニタ情報とに基づいてロボットを制御するコントローラ30とを備えている。
 チョコ停対応行動計画部4は、生産システムおよび製造対象物の構成情報(製品設計データおよび生産設備データ1)と、ハンドライブラリ8、特定作業ライブラリ9およびエラーリカバリライブラリ10の各格納情報と、エラー誘発作業抑制部5からのエラー情報とに基づいて、第1の作業パスを生成する。
 エラーリカバリ作業教示部12は、教示作業部6からのエラー発生原因および操作履歴に基づいて、ロボットを含む構成要素についてのエラー復帰情報を事前に算出する。
 また、チョコ停対応行動計画部4、教示作業部6および動作習熟部7は、生産システムおよび製造対象物の構成情報から、ロボットの教示に必要な第3の作業パスを含むプログラム情報を生成する。
 このように、生産システムおよび製造対象物の構成情報から、多値状態を取り得るロボットを含む各構成要素について、エラー復帰方法を事前に算出するとともに、生産システムおよび製造対象物の構成情報から、ロボットの教示に必要な情報を生成することにより、産業用ロボットを用いた生産システムの据付調整時間の短縮と、運用開始後のエラー無し連続操業時間の拡大とを実現することができる。
 (実施例2)
 なお、上記実施例1(図1)では、各機能構成部4~12の大半がいわゆるパーソナルコンピュータ上のソフトウェアとして実装される通例を示したが、実際のファクトリーオートメーションの世界では、生産設備の制御装置に種々のパソコンOSや、各種リアルタイムOS、OSレスのものが混在しており、例えばRT(ロボットテクノロジ)プラットフォームのようなパソコン上のソフトウェアとして実装される知能モジュールソフトウェアと各種制御装置の分散環境では、何らかのglueとなるS/Wを用いてデータ変換、データ通信、データ交換、またはメディア変換をすることが必要なので、図20のように、マッシュアップ部51、52を設けてもよい。
 図20はこの発明の実施例2に係る産業用ロボットシステムを概念的に示す説明図であり、実際のファクトリーオートメーションの生産システム内における、各機能構成要素の連携を実現するためのマッシュアップ部51の位置関係を示している。
 図20において、ネットワーク50には、マッシュアップ部51、52と、上位情報系53と、PLC(Programmable Logic Controller:プログラマブルロジックコントローラ)54、55とが接続されており、PLC54、55には、それぞれ、操作盤56、57が接続されている。また、PLC54、55は、それぞれ、RC(Robot Controller:ロボットコントローラ)58、59を備えている。
 マッシュアップ部51、52は、パソコン上の機能構成部であり、一方のマッシュアップ部51は、システム立上げ時に使用され、他方のマッシュアップ部52は、システム実行時に使用される。
 マッシュアップ部51、52は、それぞれ、コンフィギュレーション設定機能(A1)と、PLC/RC変換機能(A2)と、実行カーネル部(A3)と、安全機能(A4)とにより構成される。
 コンフィギュレーション設定機能(A1)は、設定ツールであり、GUIを備えた構成からなり、FA用の専用コントローラの配置、デバイスの構成に関するデータを収集しておき、各機能構成部(A2)~(A4)の実行時に収集データを参照する機能を有する。
 PLC/RC変換機能(A2)は、パソコン上の機能構成部を用いてロボットを含む生産設備のコントローラのプログラムを開発した後、コンフィギュレーション設定機能(A1)で指定されたそれぞれのFAコントローラ群に、それら用のプログラムを分配する機能を有し、PLC54、55に対してはシーケンス言語を配布し、RC58、59に対してはロボット言語に変換して配布する。
 また、PLC/RC変換機能(A2)は、各制御装置間で動作の同期を取るプログラブ部分についても、具体的な物理的接点番号または論理的変数番号を割り当てた上で配布を行う。
 実行カーネル部(A3)は、パソコン上の実行時用に用いる機能構成要素群の動作をマーシャリングし、動作実行全体を司る機能を有し、各コントローラやパソコン上の機能構成要素が、OSの違いなどの理由により直接的に通信接続し得ない場合のインタフェースを司る。
 安全機能(A4)は、パソコン上の機能構成要素と、ハードウェアで構成されるいわゆる安全システムとの間で、インターロック信号の交換を行うための橋渡しをする機能を有する。
 以上のように、この発明の実施例2によれば、チョコ停対応行動計画部4と、エラー誘発作業抑制部5と、教示作業部6と、動作習熟部7と、ハンドライブラリ8と、最適作業動作生成部11と、特定作業ライブラリ9と、エラーリカバリ作業教示部12と、エラーリカバリライブラリ10と、コントローラ30との連携を実現するためのマッシュアップ部51、52を備えているので、産業用ロボットが、汎用的なパソコンおよび専用のFAコントローラ群や安全システムにより構築された場合であっても、産業用ロボットを用いた生産システムの据付調整時間の短縮と、運用開始後のエラー無し連続操業時間の拡大とを実現することができる。
 (実施例3)
 なお、上記実施例1(図1)では、特に言及しなかったが、図21~図24のように、作業エラーを検知するためのエラー検知機能を有するとともに、エラー誘発作業抑制部5およびハンドライブラリ8の機能を含むオフライン教示部を設けてもよい。
 作業エラーを検知するためのエラー検知機能、および、エラー発生を抑制するエラー抑制機能は有効なので、この発明の実施例3では、上記機能を有するオフライン教示部を備えている。
 オフライン教示部は、エラー検知機能、エラー抑制機能およびハンドライブラリ機能に加えて、エラーリカバリレベル決定機能と、エラー発生リスク分析機能とを備えている。
 オフライン教示部のエラー検知機能は、各種センサ情報(ロボット位置、タイムリミット、関節トルク、力覚センサ出力値、画像センサ出力値)から、作業エラー検知ロジック構築を支援する。なお、緊急停止が必要な重篤なエラーは、センサ出力値に直接のリミット値を設けることで検知する。
 オフライン教示部のエラーリカバリレベル決定機能は、センサ情報に基づいた条件分岐により、エラーリカバリ時に利用するエラーレベルの決定および復帰用チェックポイントの埋め込みを支援する。
 オフライン教示部のエラー発生リスク分析機能は、起きてほしくないことが発生するリスクを分析する機能であり、ここでは、ロボットの作業エラーを抑制する目的で利用される。つまり、ロボットの作業シーケンスおよび作業姿勢の候補が複数存在した場合に、それぞれの候補について、各種エラーの発生するリスクを、過去のエラー情報を統計処理することによって確率的に算出し、この算出値を比較した上で、作業を選択することにより、エラー発生の抑制がフロントローディング可能となる。
 なお、分析に用いられるエラー情報としては、エラーリカバリ時に記録したセンサ情報、および、エラー内容の記録結果も用いられる。
 オフライン教示部のハンドライブラリ機能の入出力情報は、図21の説明図に示した通りである。
 すなわち、入力情報は、部品形状であり、出力情報は、把持可能・不能および把持位置・姿勢値である。
 オフライン教示部のエラー検知機能の入出力情報は、図22の説明図に示した通りである。
 すなわち、入力情報は、各種センサ情報(ロボット位置、タイムリミット、関節トルク、力覚センサ出力値、画像センサ出力値)であり、出力情報は、作業エラー検知ロジックである。
 オフライン教示部のエラーリカバリレベル決定機能の入出力情報は、図23の説明図に示した通りである。
 すなわち、入力情報は、作業順序が示された作業シーケンス図であり、出力情報は、エラーリカバリ時に利用するエラーレベルの決定および復帰用チェックポイントの埋め込み済み作業シーケンス図である。
 オフライン教示部のエラー発生リスク分析機能の入出力情報は、図24の説明図に示した通りである。
 すなわち、入力情報は、作業順序が示された作業シーケンス図と、エラー復帰シーケンス付き作業シーケンス図と、設備やロボットに関する基本設計仕様などの情報と、作業者の教示データと、である。
 また、出力情報は、作業順序に基づくエラー発生確率の推移情報と、エラー発生可能性の予測結果・警告と、エラー発生原因・対策に関連する情報と、である。
 以上のように、この発明の実施例3によれば、エラー検知機能を有するオフライン教示部を備え、オフライン教示部は、エラー誘発作業抑制部5およびハンドライブラリ8の機能を含むので、産業用ロボットを用いた生産システムの据付調整時間の短縮と、運用開始後のエラー無し連続操業時間の拡大とを実現することができる。
 (実施例4)
 なお、上記実施例1(図1)では、特に言及しなかったが、教示作業部6に、視覚I/Fおよびテレオペレーション機能を設けてもよい。
 教示時においては、ティーチングペンダントの直感的操作を実現することで作業時間を短縮し、機種切り替えを迅速に行うために、テレオペレーション部を用いることが有効である。
 この発明の実施例4に係るテレオペレーション部は、視覚I/Fとしては教示作業部6を利用しており、簡易的知覚フィードバック機能と、センサ情報を用いた教示動作の洗練化機能と、センサ情報履歴を利用した自律制御則設計支援機能と、自律制御/マニュアルオペレーションのハイブリッド協調教示機能と、を備えている。
 簡易的知覚フィードバック機能は、ジョグ動作時に、センサ情報により接触を検知した場合、バイブレータ振動を返すなどの簡易的知覚フィードバックを実現する。
 センサ情報を用いた教示動作の洗練化機能は、オペレータが行う教示動作時に、力覚センサや画像センサの計測値を記録しておき、複数回の操作履歴を統計的に処理して、平均値の取得やエラー値の排除を行うことにより、洗練化された教示パスを生成する。
 センサ情報履歴を利用した自律制御則設計支援機能は、自律制御則を設計する際の支援機能として、オペレータ操作時のセンサ情報履歴を統計処理した結果を提供する。
 自律制御/マニュアルオペレーションのハイブリッド協調教示機能は、設計された自律制御則を特定移動方向のみに適用して、別方向移動にはマニュアルオペレーションを有効化することにより、教示支援機能を実現する。
 以上のように、この発明の実施例3によれば、教示作業部6は、視覚I/Fおよびテレオペレーション機能を有するので、産業用ロボットを用いた生産システムの据付調整時間の短縮と、運用開始後のエラー無し連続操業時間の拡大とを実現するとともに、作業時間をさらに短縮し、機種切り替えを迅速に行うことができる。
 (実施例5)
 なお、上記実施例1(図1)では、特に言及しなかったが、図25~図27のように、チョコ停対応行動計画部4、教示作業部6、エラーリカバリ作業教示部12およびエラーリカバリライブラリ10と協働するエラーリカバリ部を設け、エラーリカバリ部に、行動制御機能と、教示作業部強化機能と、テレオペレーション機能とを付加してもよい。
 チョコ停対応行動計画部4においては、チョコ停対応行動計画部4が出力するロボットの動作シーケンスに対して、エラーの発生を検知するためのチェックポイント機能が埋め込まれるので、このチェックポイント機能を用いて、検知されたエラー状態からの復帰行動制御を可能にすることにより、長時間の安定稼動、障害時での迅速復帰による高生産性を実現することができる。
 具体的には、この発明の実施例5によれば、各種センサ情報(ロボット位置、タイムリミット、関節トルク、力覚センサ、画像センサ)から、エラー状態が把握され、エラー重篤度に応じて行動制御が行われる。なお、緊急停止が必要なエラーは、センサ出力値に直接のリミット値を設けることで即停止が行われる。
 この発明の実施例5に係る産業用ロボットシステムは、上記動作を確実に行うために、行動制御機能(B1)、教示作業部強化機能(B2)およびテレオペレーション機能(B3)を有するエラーリカバリ部を備えている。
 エラーリカバリ部の行動制御機能(B1)は、エラーの重篤度に応じて、以下の3段階(M1)~(M3)のエラーリカバリ動作モードを切り替えるとともに、各モード(M1)~(M3)でエラー状態から復旧させた後、任意の停止位置から各ロボットおよび各生産設備の同期を取るなど、生産再開のための手順を補助する。
 巻き戻し的自動復帰モード(M1)は、エラーを検知した現在位置から、隣接する前チェックポイントまで、巻き戻し的に自動復帰を行う。
 オペレータ復帰動作(テレオペレーション)モード(M2)は、エラー停止信号を発生してオペレータを呼び出し、オペレータはテレオペレーション操作でエラーリカバリ動作を行う。なお、隣接しないチェックポイントへの復帰が必要な場合には、各ロボットおよび各生産設備の同期を取りながらの復帰をシステム側が支援する。
 オペレータ復帰動作(マニュアル操作)モード(M3)は、エラー停止信号を発生してオペレータを呼び出し、オペレータは作業箇所からエラーを起こしたワークを直接除去するなどの措置を講じる。なお、隣接しないチェックポイントへの復帰が必要な場合には、各ロボットおよび各生産設備の同期を取りながらの復帰を、システム側が支援する。
 エラーリカバリ部の教示作業部強化機能(B2)は、力覚センサ、カメラ画像からなる複合情報の直感的表示を行い、手先カメラ画像上に力覚センサ情報を可視化表示し、直感的操作を支援する。また、ディスプレイ表示される手先カメラ画像の視認性向上を実現するとともに、デジタルズーム、エッジ強調画像生成、コントラスト改善などを行う。
 エラーリカバリ部のテレオペレーション機能(B3)は、視覚I/Fとして教示作業部6を利用し、簡易的知覚フィードバックを行う。すなわち、ジョグ動作時、センサ情報により接触を検知した場合に、バイブレータ振動を返すなどの簡易的知覚フィードバックを実現する。
 エラーリカバリ部の行動制御機能の入出力情報は、図25の説明図に示した通りである。
 すなわち、入力情報は、作業シーケンス図およびエラーの重篤度であり、出力情報は、エラーリカバリ動作モードである。
 エラーリカバリ部の教示作業部強化機能の入出力情報は、図26の説明図に示した通りである。
 すなわち、入力情報は、各種センサ情報(ロボット位置、タイムリミット、関節トルク、力覚センサ出力値、画像センサ出力値)と、作業パスと、作業者の操作量と、であり、出力情報は、複合情報表示画像である。
 エラーリカバリ部のテレオペレーション操作機能の入出力情報は、図27の説明図に示した通りである。
 すなわち、入力情報は、作業者の操作量であり、出力情報は、簡易的知覚フィードバック制御操作量である。
 以上のように、この発明の実施例5によれば、チョコ停対応行動計画部4、教示作業部6、エラーリカバリ作業教示部12およびエラーリカバリライブラリ10と協働するエラーリカバリ部を備え、エラーリカバリ部は、行動制御機能と、教示作業部強化機能と、テレオペレーション機能とを含むので、産業用ロボットを用いた生産システムの据付調整時間の短縮と、運用開始後のエラー無し連続操業時間の拡大とを実現するとともに、長時間の安定稼動、障害時での迅速復帰による高生産性を実現することができる。
 (実施例6)
 なお、上記実施例1では、特に言及しなかったが、図28~図31のように、教示作業部6、動作習熟部7、フィンガーアイカメラ計測部32および3次元認識部33と協働する認識部を設け、認識部に、部品ピッキング用物体認識機能と、ハイブリッド視覚補正機能と、エラー検知用視覚機能と、認識アプリケーション構築支援機能とを付加してもよい。
 この発明の実施例6においては、教示、実行動作、エラー検知時に必要とされる認識部を設けることにより、迅速な機種切り替えおよび高生産性を実現する。
 画像関連では、手先カメラ、環境側固定カメラの使用(ステレオカメラ構成を含む)を前提とし、必要な場合には、3次元レンジファインダなどのアクティブ3次元センサの利用を想定する。
 この発明の実施例6に係る認識部は、部品ピッキング用物体認識機能(C1)と、ハイブリッド視覚補正機能(C2)と、エラー検知用視覚機能(C3)と、認識アプリケーション構築支援機能(C4)とを備えている。
 認識部の部品ピッキング用物体認識機能(C1)は、3次元認識部33を用いて、部品箱からの物体ピッキング用認識機能を構成し、取り出し時に発生する干渉のチェックと、部品把持状態における把持物体の位置補正機能とを含む。
 認識部のハイブリッド視覚補正機能(C2)は、3次元認識部33を利用して、2次元、3次元ハイブリッド視覚補正機能を実現する。また、画像中での相対位置あわせ指示を受けて、3次元認識部33を用いて得られる3次元位置姿勢出力に基づいた作業ポイントへの移動機能を実現するとともに、拘束面に対して一定の相対姿勢・相対距離を保ちつつ移動することにより、マニュアル移動指示とあわせた半自律移動機能を実現する。
 認識部のエラー検知用視覚機能(C3)は、市販など、一般的に入手可能な画像認識モジュールを利用し、手先カメラから得られる画像を用いて、部品形状のチェック機能を提供する。この際のチェックにおいては、複数個の部品形状データに基づく統計処理を施した結果に基づきエラー検知を行う。
 認識部の認識アプリケーション構築支援機能(C4)は、上記各機能構成部(C1)~(C3)を用いたピッキング作業、視覚補正作業、エラー検知、の実行機能を構築する際に、モデル登録、パラメータ設定、キャリブレーションなど、ユーザーによる容易なアプリケーション構築支援機能を提供する。
 認識部の部品ピッキング用物体認識機能(C1)(認識モジュール)の入出力情報は、図28の説明図に示した通りである。
 すなわち、入力情報は、センサ出力データ、パラメータおよびモデル情報であり、出力情報は、部品箱からの物体ピッキング用認識結果と、干渉チェック結果と、把持物体の位置補正値と、である。
 認識部のハイブリッド視覚補正機能(C2)(補正モジュール)の入出力情報は、図29の説明図に示した通りである。
 すなわち、入力情報は、センサ出力データと、2次元画像中での相対位置あわせ指示と、3次元位置姿勢値と、であり、出力情報は、作業ポイントへの移動軌道および移動量である。
 認識部のエラー検知用視覚機能(C3)(視覚モジュール)の入出力情報は、図30の説明図に示した通りである。
 すなわち、入力情報は、手先カメラから得られる画像と、複数個の部品形状データと、であり、出力情報は、エラー検知出力である。
 認識部の認識アプリケーション構築支援機能(C4)(構築支援モジュール)の入出力情報は、図31の説明図に示した通りである。
 すなわち、入力情報は、モデル情報、パラメータ情報およびキャリブレーションデータである。
 また、出力情報は、認識処理パラメータと、認識対象物体モデルデータと、認識処理シーケンスを表すデータと、である。
 以上のように、この発明の実施例6によれば、教示作業部6、動作習熟部7、フィンガーアイカメラ計測部32および3次元認識部33と協働する認識部を備え、認識部は、部品ピッキング用物体認識機能と、ハイブリッド視覚補正機能と、エラー検知用視覚機能と、認識アプリケーション構築支援機能とを含むので、産業用ロボットを用いた生産システムの据付調整時間の短縮と、運用開始後のエラー無し連続操業時間の拡大とを実現するとともに、迅速な機種切り替えおよび高生産性を実現することができる。
 なお、上記実施例1~6の構成は、任意に組み合わせて適用することができ、これにより重複した作用効果が得られることは言うまでもない。
 (実施例7)
 さらに、前述の実施例1(図1)では、動作習得部7および各種ライブラリ8~10を設けるとともに、ロボットシステム3内にフィンガーアイカメラ計測部32および3次元認識部33を設けたが、これらを省略して、図32のように構成してもよい。
 図32はこの発明の実施例7に係る産業用ロボットシステムを示すブロック構成図であり、前述(図1参照)と同様のものについては、前述と同一符号が付されるか、または符号の後に「A」が付されている。
 図32において、産業用ロボットシステムは、あらかじめ作成準備された3次元CADによる製品設計データおよび生産設備データ1(部品連結情報、幾何学的形状データ、設備レイアウトデータなどを含む)と、生産ラインに設置されたロボットシステム3Aとを備えている。
 また、製品設計データおよび生産設備データ1およびロボットシステム3Aと関連した構成として、チョコ停対応行動計画部4Aと、エラー誘発作業抑制部5Aと、教示作業部6Aと、コントローラ30Aと、マニピュレータ31Aと、を備えている。コントローラ30A、マニピュレータ31Aは、ロボットシステム3A内に設けられている。
 チョコ停対応行動計画部4Aは、製品設計データおよび生産設備データ1から部品連結情報、幾何学的形状データ、設備レイアウトデータに基づいて、エラー復帰シーケンス付き作業シーケンス図と、概略座標付き作業パスとを作成し、教示作業部6Aに入力する。
 また、チョコ停対応行動計画部4Aは、エラー誘発作業抑制部5Aと相互に関連しており、エラー誘発作業抑制部5Aに対して作業順序の候補を入力するとともに、エラー誘発作業抑制部5Aからエラー発生確率情報を取り込む。
 教示作業部6Aは、チョコ停対応行動計画部4Aからの作業シーケンス図(エラー復帰シーケンス付き)および作業パス(概略座標付き)と、ロボットシステム3Aからの動作モニタ情報とに基づいて、精密化された作業パス(習熟前のロボットプログラム)を生成してコントローラ30Aに入力する。
 コントローラ30Aは、ロボットプログラムと、マニピュレータ31Aからの動作モニタ情報とに基づいて、マニピュレータ31Aを駆動制御する。
 次に、図32に示したこの発明の実施例7による動作について説明する。
 一般的に、設計者による製品の設計手順としては、前述のように、最初に、製造したい製品の構造設計と、それを製造するためのセルのレイアウト設計とが行われる。
 これにより、製品を構成する部品の結合順序関係を表す部品連結情報(部品構成ツリー図)と、部品の幾何学的形状データなどの製品設計データと、セル内の設備レイアウトデータと、ロボットの仕様などの生産設備データとが得られる。
 これらの設計者による設計作業の結果が得られている状態から、この発明の実施例7によるシステム動作が開始されるものとする。
 以下、生産設備の立上げ時における、この発明の実施例7によるシステム動作について説明する。
 最初のフェーズでは、製品設計データおよび生産設備データ1が、チョコ停対応行動計画部4Aに対して入力される。
 これにより、チョコ停対応行動計画部4Aにおいては、部品連結情報に基づき、製品製造作業を細かい作業の系列に分解し、セル内各設備への各作業の割付、作業順序の生成が行われる。このとき、作業を分解して作業順序を決定する際に、エラー誘発作業抑制部5Aに対して作業順序の候補を与えると、その作業に対するエラー発生確率情報が返されるので、チョコ停リスクの低い作業順序が選択される。なお、エラー発生確率は、生産実行時の動作モニタ情報で随時更新される。
 また、チョコ停対応行動計画部4Aにおいては、各作業と作業順序とを決定するとともに、作業中のチョコ停を検定するチェックポイントと、チェックポイント不通過時にどこまで戻れば作業を再開できるかという復帰ポイントと、復帰ポイントに戻るための復帰パスと、障害物を回避するための経由ポイントと、各ポイントをつなぐ作業パスと、各作業パスの実行順序を記述したシーケンスと、他のロボットや装置を待たせておく同期ポイントを含む「エラー復帰シーケンス付き作業シーケンス図」が生成される。
 また、各作業パスに対しては、以下のような属性ラベルが付与される。
 すなわち、「2点間移動」、「経由点への移動」、「エンドエフェクタデバイスによる作用をともなう作業」、「部品を把持する直前直後のアプローチ移動、またはあらかじめ最適化された作業動作といったセンサフィードバック制御による作業」、「チョコ停からの復帰シーケンス中」などである。なお、ひとつの作業パスに対して複数のラベルが付けられる場合もある。
 この段階における作業シーケンス図には、ラベル付き作業パスおよび各ポイントのみが含まれ、各作業パスの中身はまだ含まれない。
 なお、作業パスの中身とは、パス両端および経由点(必要に応じて、複数の経由点が追加される)の位置姿勢座標と、座標間移動方法(制御則、補間方法など)の指定である。
 また、あらかじめ最適化された作業動作とは、作業ミスを抑制して、すばやく、かつしなやかに作業するコツを含んでいる。
 次のフェーズとして、チョコ停対応行動計画部4Aにおいては、セル内の設備配置データおよび作業順序データを用いて、各作業に対する大まかな作業パスの中身が生成される。
 たとえば、生産セル内に部品置場および作業台があったと仮定して、部品置場から作業台に部品を運ぶ作業について、部品を運ぶ具体的な軌道に関する作業パスを考えると、ロボットが周辺の物体と干渉する可能性があるので、最終的には、各作業パスの実現値を精密な値に設定する必要がある。
 ただし、この場合、各作業パスは約5cm程度の精度で生成されるので、物体を把持する基準姿勢(部品とハンドとの相対姿勢)は、後段の教示作業部6Aにおいて、教示作業入力手段を用いて作業者による教示で決定される。
 上記操作は、すべての作業パスについて繰り返され、ここまでのフェーズで、チョコ停対応行動計画部4Aからの出力情報として、「エラー復帰シーケンス付き作業シーケンス図+概略座標付き作業パス」からなるデータが得られる。
 次に、教示作業部6Aの動作が開始する。
 教示作業部6Aにおいては、概略座標付き作業パスに対して、把持点など動作要所の最終的な位置合わせのみを教示作業入力手段を用いて教示作業者が行うことにより、絶対座標が指定された精密化された作業パスが決定される。
 このとき、教示作業用パソコンまたはティーチングペンダントに表示されるエコロジカル・インタフェース理論に基づくユーザインタフェースにより、動作要所および作業状況が提示され、作業者は提示状況を見て、位置姿勢の精密化作業を行い、必要に応じて作業パスを教示作業入力手段で追加する。
 以上のように、チョコ停対応行動計画部4A、エラー誘発作業抑制部5A、教示作業部6Aは、各設計データ1は、連携して、ロボットシステム3Aに対するロボットプログラムを生成する。
 すなわち、この発明の実施例7(図32)の構成においても、製品設計・生産設備データ1から、チョコ停発生時の復帰シーケンスを含むコントローラ30Aで実行可能なロボットプログラムが、従来に比べて大幅に少ない教示作業者の負荷で得られる。
 1 製品設計データ・生産設備データ、2 特定作業仕様、3、3A ロボットシステム、4、4A チョコ停対応行動計画部、5、5A エラー誘発作業抑制部、6、6A 教示作業部、7 動作習熟部、8 ハンドライブラリ、9 特定作業ライブラリ、10 エラーリカバリライブラリ、11 最適作業動作生成部、12 エラーリカバリ作業教示部、30、30A コントローラ、31、31A マニピュレータ、32 フィンガーアイカメラ計測部、3次元認識部、34 マニピュレーションデバイス群、34a ユニバーサルハンド、34b ロボットハンド、32a 高速カメラ、32b 全方位ミラー、40 計測対象物体、41 3次元センサ、50 ネットワーク、51 マッシュアップ部、W 組立部品。

Claims (7)

  1.  マニピュレータおよびハンドを有するロボットを含み、製造対象物となる製品を組み立てるための生産システムに用いられる産業用ロボットシステムであって、
     生産ラインの立上げ・調整時の教示作業および無人連続操業の障害となるチョコ停に対応するための作業情報および第1の作業パスを生成するチョコ停対応行動計画部と、
     前記作業情報に基づいて、エラーを誘発する作業を抑制するためのエラー情報を生成するエラー誘発作業抑制部と、
     前記第1の作業パスおよび前記エラー情報に基づいて第2の作業パスを生成する教示作業部と、
     前記第2の作業パスに基づいて、前記ロボットに対する最適化された第3の作業パスを生成する動作習熟部と、
     前記ロボットの組立作業と制御ソフトウェアとを対応付けてライブラリ化したハンドライブラリと、
     特定作業動作系列を生成する最適作業動作生成部と、
     前記特定作業動作系列を格納する特定作業ライブラリと、
     前記教示作業部における操作履歴に基づいて、エラー状態に応じたエラーリカバリ作業を教示するためのエラーリカバリ作業教示部と、
     前記エラーリカバリ作業を格納するエラーリカバリライブラリと、
     前記ロボットの動作モニタ情報を生成して、前記エラー誘発作業抑制部、前記教示作業部および前記動作習熟部に入力するフィンガーアイカメラ計測部および3次元認識部と、
     前記第2および第3の作業パスと前記動作モニタ情報とに基づいて前記ロボットを制御するコントローラと、を備え、
     前記チョコ停対応行動計画部は、
     前記生産システムおよび前記製造対象物の構成情報と、
     前記ハンドライブラリ、前記特定作業ライブラリおよび前記エラーリカバリライブラリの各格納情報と、
     前記エラー誘発作業抑制部からのエラー情報と
     に基づいて、前記第1の作業パスを生成し、
     前記エラーリカバリ作業教示部は、前記教示作業部からのエラー発生原因および操作履歴に基づいて、前記ロボットを含む構成要素についてのエラー復帰情報を算出し、
     前記チョコ停対応行動計画部、前記教示作業部および前記動作習熟部は、前記生産システムおよび前記製造対象物の構成情報から、前記ロボットの教示に必要な前記第3の作業パスを含むプログラム情報を生成することを特徴とする産業用ロボットシステム。
  2.  前記チョコ停対応行動計画部と、前記エラー誘発作業抑制部と、前記教示作業部と、前記動作習熟部と、前記ハンドライブラリと、前記最適作業動作生成部と、前記特定作業ライブラリと、前記エラーリカバリ作業教示部と、前記エラーリカバリライブラリと、前記コントローラとの連携を実現するためのマッシュアップ部を備えたことを特徴とする請求項1に記載の産業用ロボットシステム。
  3.  エラー検知機能を有するオフライン教示部を備え、
     前記オフライン教示部は、前記エラー誘発作業抑制部および前記ハンドライブラリの機能を含むことを特徴とする請求項1または請求項2に記載の産業用ロボットシステム。
  4.  前記教示作業部は、視覚I/Fおよびテレオペレーション機能を含むことを特徴とする請求項1から請求項3までのいずれか1項に記載の産業用ロボットシステム。
  5.  前記チョコ停対応行動計画部、前記教示作業部、前記エラーリカバリ作業教示部および前記エラーリカバリライブラリと協働するエラーリカバリ部を備え、
     前記エラーリカバリ部は、行動制御機能と、教示作業部強化機能と、テレオペレーション機能とを含むことを特徴とする請求項1から請求項4までのいずれか1項に記載の産業用ロボットシステム。
  6.  前記教示作業部、前記動作習熟部、前記フィンガーアイカメラ計測部および前記3次元認識部と協働する認識部を備え、
     前記認識部は、部品ピッキング用物体認識機能と、ハイブリッド視覚補正機能と、エラー検知用視覚機能と、認識アプリケーション構築支援機能とを含むことを特徴とする請求項1から請求項5までのいずれか1項に記載の産業用ロボットシステム。
  7.  マニピュレータを有するロボットを含み、製造対象物となる製品を組み立てるための生産システムに用いられる産業用ロボットシステムであって、
     生産ラインの立上げ・調整時の教示作業および無人連続操業の障害となるチョコ停に対応するための作業情報および第1の作業パスを生成するチョコ停対応行動計画部と、
     前記作業情報に基づいて、エラーを誘発する作業を抑制するためのエラー情報を生成するエラー誘発作業抑制部と、
     前記第1の作業パスおよび前記エラー情報に基づいて第2の作業パスを生成する教示作業部と、
     前記第2の作業パスに基づいて前記ロボットを制御するコントローラと、を備え、
     前記チョコ停対応行動計画部は、前記生産システムおよび前記製造対象物の構成情報と、前記エラー誘発作業抑制部からのエラー情報とに基づいて、前記第1の作業パスを生成し、
     前記チョコ停対応行動計画部および前記教示作業部は、前記生産システムおよび前記製造対象物の構成情報から、前記ロボットの教示に必要な前記第2の作業パスを含むプログラム情報を生成することを特徴とする産業用ロボットシステム。
PCT/JP2010/051962 2009-02-12 2010-02-10 産業用ロボットシステム WO2010092981A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201080007473.4A CN102317044B (zh) 2009-02-12 2010-02-10 产业用机器人系统
JP2010550536A JP5436460B2 (ja) 2009-02-12 2010-02-10 産業用ロボットシステム
US13/147,415 US9393691B2 (en) 2009-02-12 2010-02-10 Industrial robot system including action planning circuitry for temporary halts
DE112010000775.6T DE112010000775B4 (de) 2009-02-12 2010-02-10 Industrierobotersystem
KR1020117018727A KR101255948B1 (ko) 2009-02-12 2010-02-10 산업용 로봇 시스템

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-029374 2009-02-12
JP2009029374 2009-02-12

Publications (1)

Publication Number Publication Date
WO2010092981A1 true WO2010092981A1 (ja) 2010-08-19

Family

ID=42561822

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/051962 WO2010092981A1 (ja) 2009-02-12 2010-02-10 産業用ロボットシステム

Country Status (6)

Country Link
US (1) US9393691B2 (ja)
JP (1) JP5436460B2 (ja)
KR (1) KR101255948B1 (ja)
CN (1) CN102317044B (ja)
DE (1) DE112010000775B4 (ja)
WO (1) WO2010092981A1 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014050950A (ja) * 2012-09-06 2014-03-20 Fanuc Robotics America Inc 触覚教示ペンダント
CN105459136A (zh) * 2015-12-29 2016-04-06 上海帆声图像科技有限公司 机器人视觉抓取方法
JP2016047591A (ja) * 2014-08-27 2016-04-07 キヤノン株式会社 ロボット教示装置、方法、およびロボットシステム
WO2017037844A1 (ja) * 2015-08-31 2017-03-09 株式会社ハッピージャパン Ic試験システム
JP2017146805A (ja) * 2016-02-17 2017-08-24 株式会社入曽精密 切削加工装置、撮像方法、およびプログラム、並びに撮像装置
JP2018051686A (ja) * 2016-09-29 2018-04-05 川崎重工業株式会社 ロボット復旧支援装置及びそれを備えるロボットシステム
JP2018176326A (ja) * 2017-04-07 2018-11-15 ライフロボティクス株式会社 教示装置、表示装置、教示プログラム及び表示プログラム
KR20190029746A (ko) * 2016-07-28 2019-03-20 엑스 디벨롭먼트 엘엘씨 현장에서 수집된 측정치들에 기반한 맞춤화된 로봇 설치
JP2019063951A (ja) * 2017-10-02 2019-04-25 株式会社オカムラ 作業システム、作業システムの制御方法及びプログラム
JP6658985B1 (ja) * 2019-05-17 2020-03-04 株式会社安川電機 ロボットシステム、復帰プログラム生成装置、制御支援装置、制御装置、プログラム、復帰プログラムの生成方法及び復帰プログラムの出力方法
JP2020189395A (ja) * 2019-05-17 2020-11-26 株式会社安川電機 ロボットシステム、復帰プログラム生成装置、制御支援装置、制御装置、プログラム、復帰プログラムの生成方法及び復帰プログラムの出力方法
CN113459108A (zh) * 2021-09-02 2021-10-01 杭州灵西机器人智能科技有限公司 基于插值补偿的手眼标定方法、系统、装置和介质
JP2022500722A (ja) * 2018-06-29 2022-01-04 センサーボット ピーティーイー. エルティーディー. タスク管理方法及びそのシステム
WO2022080006A1 (ja) * 2020-10-12 2022-04-21 東京ロボティクス株式会社 ロボットシステム、その制御方法及びプログラム並びにシステム
WO2023013784A1 (ja) * 2021-08-05 2023-02-09 京セラ株式会社 ライブラリ提示装置、ライブラリ提示方法及びロボット制御システム
CN115860431A (zh) * 2023-02-07 2023-03-28 广东技术师范大学 基于异构感知的多机器人智能调度方法、系统、机器人及介质
WO2023047588A1 (ja) * 2021-09-27 2023-03-30 ファナック株式会社 ロボットシステム
JP7327550B1 (ja) 2022-03-08 2023-08-16 株式会社安川電機 ロボットコントローラ、及び制御方法

Families Citing this family (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10093022B2 (en) * 2015-12-18 2018-10-09 General Electric Company Control system and method for brake bleeding
WO2011148719A1 (ja) * 2010-05-28 2011-12-01 日本電気株式会社 情報処理装置、gui操作支援方法およびコンピュータ読み取り可能な記録媒体
US20130079905A1 (en) * 2010-06-03 2013-03-28 Hitachi, Ltd. Human-Operated Working Machine System
US20120095575A1 (en) * 2010-10-14 2012-04-19 Cedes Safety & Automation Ag Time of flight (tof) human machine interface (hmi)
WO2012061970A1 (en) * 2010-11-08 2012-05-18 Abb Technology Ab Batteries testing and sorting system and the method thereof
DE102010053668A1 (de) * 2010-12-07 2012-06-14 Klaus-Dieter Becker Vorrichtung und Verfahren zur Erstellung eines Programms für computergesteuerte Maschinen
JP2012206219A (ja) * 2011-03-30 2012-10-25 Seiko Epson Corp ロボット制御装置及びロボットシステム
US9031697B2 (en) * 2011-04-15 2015-05-12 Irobot Corporation Auto-reach method for a remote vehicle
WO2013059143A1 (en) 2011-10-19 2013-04-25 Crown Equipment Corporation Identifying and locating possible lines corresponding to pallet structure in an image
JP5915214B2 (ja) * 2012-02-01 2016-05-11 セイコーエプソン株式会社 ロボット装置、組立て方法、及び組立てプログラム
CN102581445B (zh) * 2012-02-08 2014-08-13 中国科学院自动化研究所 机器人的视觉实时纠偏系统和纠偏方法
US9477936B2 (en) 2012-02-09 2016-10-25 Rockwell Automation Technologies, Inc. Cloud-based operator interface for industrial automation
KR101330049B1 (ko) * 2012-03-06 2013-11-18 한국기계연구원 3차원 특징점 기반 직접 교시 궤적 후보정 방법
DE102012008073A1 (de) * 2012-04-24 2013-10-24 Kuka Roboter Gmbh Verfahren und Mittel zum Vorgeben und/oder Steuern eines Manipulatorprozesses
US9753453B2 (en) 2012-07-09 2017-09-05 Deep Learning Robotics Ltd. Natural machine interface system
JP2014024162A (ja) * 2012-07-27 2014-02-06 Seiko Epson Corp ロボットシステム、ロボット制御装置、ロボット制御方法及びロボット制御プログラム
CN104812535A (zh) * 2012-10-11 2015-07-29 Abb技术有限公司 自动产生用于将机器人从停止位置返回预设重启位置的无碰撞返回程序的方法和设备
JP5582427B2 (ja) * 2012-12-18 2014-09-03 株式会社安川電機 教示データ作成装置、ロボットシステム、及び教示データ作成方法
KR101956073B1 (ko) * 2012-12-20 2019-03-08 삼성전자주식회사 시각적 인디케이터를 이용하여 사용자 인터페이스를 제공하는 3차원 입체 영상 표시 장치 및 그 장치를 이용한 방법
EP2749974A2 (en) * 2012-12-28 2014-07-02 Kabushiki Kaisha Yaskawa Denki Robot teaching system, robot teaching assistant device, and robot teaching method
US9798302B2 (en) 2013-02-27 2017-10-24 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with redundant system input support
US9804576B2 (en) 2013-02-27 2017-10-31 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with position and derivative decision reference
US9498885B2 (en) * 2013-02-27 2016-11-22 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with confidence-based decision support
US9393695B2 (en) 2013-02-27 2016-07-19 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
US9956687B2 (en) 2013-03-04 2018-05-01 Microsoft Technology Licensing, Llc Adapting robot behavior based upon human-robot interaction
JP6022394B2 (ja) * 2013-03-28 2016-11-09 株式会社神戸製鋼所 作業経路情報設定装置、プログラム、および作業経路情報設定方法
US9786197B2 (en) * 2013-05-09 2017-10-10 Rockwell Automation Technologies, Inc. Using cloud-based data to facilitate enhancing performance in connection with an industrial automation system
US9989958B2 (en) 2013-05-09 2018-06-05 Rockwell Automation Technologies, Inc. Using cloud-based data for virtualization of an industrial automation environment
US9703902B2 (en) 2013-05-09 2017-07-11 Rockwell Automation Technologies, Inc. Using cloud-based data for industrial simulation
US9162357B2 (en) * 2013-06-26 2015-10-20 Canon Kabushiki Kaisha Control method for robot system and robot system
JP5850003B2 (ja) * 2013-07-26 2016-02-03 株式会社安川電機 ロボットシステム、ロボットシステムのロボット管理コンピュータ及びロボットシステムの管理方法
JP5939213B2 (ja) * 2013-08-09 2016-06-22 株式会社安川電機 ロボット制御装置及びロボット制御方法
JP6309220B2 (ja) * 2013-08-12 2018-04-11 株式会社ダイヘン 搬送システム
EP2845696B1 (de) * 2013-09-10 2017-05-17 Siemens Aktiengesellschaft Bearbeitungsmaschine mit redundanten Achsen und Auflösung der Redundanz in Echtzeit
US9841749B2 (en) * 2014-04-01 2017-12-12 Bot & Dolly, Llc Runtime controller for robotic manufacturing system
US9958862B2 (en) * 2014-05-08 2018-05-01 Yaskawa America, Inc. Intuitive motion coordinate system for controlling an industrial robot
JP6418782B2 (ja) * 2014-05-16 2018-11-07 キヤノン株式会社 ロボットシステムの制御方法、プログラム、記録媒体、ロボットシステム、及び診断装置
DE102014213262A1 (de) * 2014-07-08 2016-01-14 Kuka Roboter Gmbh Maschine und Verfahren zum Betreiben einer Maschine
US11243505B2 (en) 2015-03-16 2022-02-08 Rockwell Automation Technologies, Inc. Cloud-based analytics for industrial automation
US11042131B2 (en) 2015-03-16 2021-06-22 Rockwell Automation Technologies, Inc. Backup of an industrial automation plant in the cloud
US10496061B2 (en) 2015-03-16 2019-12-03 Rockwell Automation Technologies, Inc. Modeling of an industrial automation environment in the cloud
US11513477B2 (en) 2015-03-16 2022-11-29 Rockwell Automation Technologies, Inc. Cloud-based industrial controller
US9939800B2 (en) * 2015-04-30 2018-04-10 Bae Systems Plc Path following machining method and apparatus
US9707680B1 (en) * 2015-05-28 2017-07-18 X Development Llc Suggesting, selecting, and applying task-level movement parameters to implementation of robot motion primitives
US9895809B1 (en) 2015-08-20 2018-02-20 X Development Llc Visual annotations in robot control interfaces
WO2017033353A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 遠隔操作ロボットシステム
KR20180015774A (ko) 2015-09-25 2018-02-14 두산로보틱스 주식회사 로봇 제어 방법 및 장치
DE102015222168B4 (de) * 2015-11-11 2024-02-22 Kuka Roboter Gmbh Verfahren und computerprogramm zur korrektur von fehlern eines manipulatorsystems
DE102015222164A1 (de) 2015-11-11 2017-05-11 Kuka Roboter Gmbh Verfahren und Computerprogramm zur Erzeugung einer grafischen Benutzerschnittstelle eines Manipulatorprogramms
DE102015122998B3 (de) * 2015-12-30 2017-01-05 Haddadin Beteiligungs UG (haftungsbeschränkt) Roboter und Verfahren zum Betreiben eines Roboters
JP6333868B2 (ja) 2016-01-21 2018-05-30 ファナック株式会社 セル制御装置、及び製造セルにおける複数の製造機械の稼働状況を管理する生産システム
JP6114421B1 (ja) 2016-02-19 2017-04-12 ファナック株式会社 複数の産業機械の作業分担を学習する機械学習装置,産業機械セル,製造システムおよび機械学習方法
KR101865691B1 (ko) * 2016-04-05 2018-06-11 한국과학기술원 인간 로봇 상호작용 기반의 작업 수행 로봇 및 방법
TWI805545B (zh) * 2016-04-12 2023-06-21 丹麥商環球機器人公司 用於藉由示範來程式化機器人之方法和電腦程式產品
CN105835058B (zh) * 2016-04-23 2017-10-27 福州环亚众志计算机有限公司 一种程序生成系统
CN105690395B (zh) * 2016-04-23 2017-09-19 宁波市智能制造产业研究院 工业机器人及其控制方法
US9990535B2 (en) 2016-04-27 2018-06-05 Crown Equipment Corporation Pallet detection using units of physical length
JP6360105B2 (ja) * 2016-06-13 2018-07-18 ファナック株式会社 ロボットシステム
US20180029235A1 (en) * 2016-07-28 2018-02-01 X Development Llc Error Accrual and Mitigation During Robotic Process
JP6392817B2 (ja) * 2016-08-04 2018-09-19 ファナック株式会社 シミュレーション装置
US10642244B2 (en) * 2016-12-19 2020-05-05 Autodesk, Inc. Robotic augmentation of creative tasks
JP2018126797A (ja) * 2017-02-06 2018-08-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
DE102017201949A1 (de) * 2017-02-08 2018-08-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System zur Steuerung mindestens eines Betriebsmittels zur Herstellung und/oder Montage von Werkstücken
JP6457587B2 (ja) * 2017-06-07 2019-01-23 ファナック株式会社 ワークの動画に基づいて教示点を設定するロボットの教示装置
CN107127381A (zh) * 2017-07-04 2017-09-05 四川普什宁江机床有限公司 连杆油孔孔口曲面倒角加工设备及方法
TWI650626B (zh) * 2017-08-15 2019-02-11 由田新技股份有限公司 基於三維影像之機械手臂加工方法及系統
CN111163907B (zh) * 2017-10-03 2022-11-25 三菱电机株式会社 抓持位置姿态示教装置、抓持位置姿态示教方法及机器人系统
EP3476549A1 (en) * 2017-10-27 2019-05-01 Creaholic SA Hardware module, robotic system, and method for operating the robotic system
JP7185640B2 (ja) * 2017-11-28 2022-12-07 川崎重工業株式会社 技能伝承機械装置
CN111417496B (zh) * 2017-12-08 2023-03-28 株式会社富士 控制装置、工件作业装置、工件作业系统以及控制方法
US11830131B2 (en) * 2018-02-06 2023-11-28 Veo Robotics, Inc. Workpiece sensing for process management and orchestration
JP6810087B2 (ja) * 2018-03-29 2021-01-06 ファナック株式会社 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
JP7091777B2 (ja) * 2018-03-30 2022-06-28 株式会社安川電機 ロボットシステム及び制御方法
CN108469824A (zh) * 2018-04-08 2018-08-31 浙江国自机器人技术有限公司 一种洗地机器人示教式工程实施系统及其方法
CN108501004B (zh) * 2018-04-13 2020-05-05 宁波德深机械设备有限公司 工业机器人的示教系统
US10824142B2 (en) 2018-05-01 2020-11-03 Dexterity, Inc. Autonomous robot with on demand teleoperation
EP3835008A4 (en) * 2018-08-08 2022-04-13 Sony Group Corporation CONTROL DEVICE, CONTROL METHOD AND PROGRAM
JP7337495B2 (ja) * 2018-11-26 2023-09-04 キヤノン株式会社 画像処理装置およびその制御方法、プログラム
EP3831547A4 (en) * 2019-03-15 2022-03-23 OMRON Corporation PARAMETER HOLDER, PARAMETER HOLDER METHOD, AND PROGRAM
JP7078174B2 (ja) * 2019-03-15 2022-05-31 オムロン株式会社 ロボット制御装置、方法、及びプログラム
CN112230647A (zh) * 2019-06-28 2021-01-15 鲁班嫡系机器人(深圳)有限公司 用于轨迹规划的智能动力系统行为模型、训练方法及装置
DE112019007691T5 (de) * 2019-09-05 2022-06-15 Mitsubishi Electric Corporation System zum planen von roboterhandlungen, robotersystem, roboteraufgabenverifizierungssystem und verfahren zum planen von roboterhandlungen
EP4051462A4 (en) * 2019-10-29 2023-10-18 ABB Schweiz AG SYSTEM AND METHOD FOR ROBOT EVALUATION
DE102019129417B4 (de) * 2019-10-31 2022-03-24 Sick Ag Verfahren zum automatischen Handhaben von Objekten
JP7047830B2 (ja) * 2019-12-05 2022-04-05 オムロン株式会社 自律走行システム、自律走行方法、及び自律走行プログラム
KR102272294B1 (ko) 2019-12-23 2021-07-02 주식회사 코아로봇 가상축 인터페이스를 갖는 로봇제어장치 및 그 장치의 구동방법
JP2021102240A (ja) * 2019-12-25 2021-07-15 セイコーエプソン株式会社 プログラム作成システム、プログラム作成装置およびロボットシステム
DE102020103852B4 (de) * 2020-02-14 2022-06-15 Franka Emika Gmbh Erzeugen und Optimieren eines Steuerprogramms für einen Robotermanipulator
DE102020103854B4 (de) 2020-02-14 2022-06-15 Franka Emika Gmbh Maschinelles Lernen einer erfolgreich abgeschlossenen Roboteranwendung
US20210323158A1 (en) * 2020-04-17 2021-10-21 Abb Schweiz Ag Recovery system and method using multiple sensor inputs
CN111860605B (zh) * 2020-06-24 2022-12-13 广州明珞汽车装备有限公司 一种工艺节拍处理方法、系统、装置及存储介质
DE102020211648A1 (de) 2020-09-17 2022-03-17 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Steuern einer Robotervorrichtung
CN113031591B (zh) * 2021-02-24 2023-04-07 丰疆智能(深圳)有限公司 推料机器人的异常处理方法、装置、服务器及存储介质
CN112975386B (zh) * 2021-03-09 2022-09-06 重庆机器人有限公司 一种冰箱自动装配工艺
US11755003B2 (en) * 2021-09-30 2023-09-12 Hitachi, Ltd. Autonomous task management industrial robot
DE102022103020A1 (de) 2022-02-09 2023-08-10 Schaeffler Technologies AG & Co. KG Verfahren zum Betrieb eines Antriebsmoduls zum Bewegen eines Gelenkarms eines Industrieroboters und Antriebsmodul

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03116304A (ja) * 1989-09-29 1991-05-17 Mazda Motor Corp 生産ライン故障復帰装置
JPH0577142A (ja) * 1991-09-18 1993-03-30 Mazda Motor Corp 生産設備の復帰方法およびその装置
JPH06190692A (ja) * 1992-12-28 1994-07-12 Mazda Motor Corp 生産設備の復帰装置
JPH0847880A (ja) * 1994-08-02 1996-02-20 Komatsu Ltd 異常復帰装置
JP2006012074A (ja) * 2004-06-29 2006-01-12 Fanuc Ltd ロボットの待機位置復帰プログラム作成装置
JP2007515305A (ja) * 2003-12-22 2007-06-14 エービービー・エーエス ロボット設備のためのコントロール方法、デバイス及びシステム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69012865T2 (de) 1989-03-25 1995-03-16 Mazda Motor Verfahren und System zur Wiederinbetriebnahme einer folgegesteuerten Anlage, installiert in einer Fertigungsstrasse.
KR940007722B1 (ko) * 1989-09-29 1994-08-24 마쯔다 가부시기가이샤 생산라인고장시의 복귀방법 및 그 방법을 달성하기 위한 장치
US6445964B1 (en) * 1997-08-04 2002-09-03 Harris Corporation Virtual reality simulation-based training of telekinegenesis system for training sequential kinematic behavior of automated kinematic machine
US6430472B1 (en) * 1999-12-20 2002-08-06 Servo-Robot Inc. Robot feature tracking devices and methods
JP3733364B2 (ja) 2003-11-18 2006-01-11 ファナック株式会社 教示位置修正方法
JP4960589B2 (ja) * 2004-12-08 2012-06-27 川崎重工業株式会社 ロボット制御装置およびロボット制御方法
JP2006289531A (ja) * 2005-04-07 2006-10-26 Seiko Epson Corp ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム
JP4171488B2 (ja) * 2005-12-16 2008-10-22 ファナック株式会社 オフラインプログラミング装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03116304A (ja) * 1989-09-29 1991-05-17 Mazda Motor Corp 生産ライン故障復帰装置
JPH0577142A (ja) * 1991-09-18 1993-03-30 Mazda Motor Corp 生産設備の復帰方法およびその装置
JPH06190692A (ja) * 1992-12-28 1994-07-12 Mazda Motor Corp 生産設備の復帰装置
JPH0847880A (ja) * 1994-08-02 1996-02-20 Komatsu Ltd 異常復帰装置
JP2007515305A (ja) * 2003-12-22 2007-06-14 エービービー・エーエス ロボット設備のためのコントロール方法、デバイス及びシステム
JP2006012074A (ja) * 2004-06-29 2006-01-12 Fanuc Ltd ロボットの待機位置復帰プログラム作成装置

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014050950A (ja) * 2012-09-06 2014-03-20 Fanuc Robotics America Inc 触覚教示ペンダント
JP2016047591A (ja) * 2014-08-27 2016-04-07 キヤノン株式会社 ロボット教示装置、方法、およびロボットシステム
US10527669B2 (en) 2015-08-31 2020-01-07 Happyjapan, Inc. IC test system
WO2017037844A1 (ja) * 2015-08-31 2017-03-09 株式会社ハッピージャパン Ic試験システム
JPWO2017037844A1 (ja) * 2015-08-31 2018-06-14 株式会社ハッピージャパン Ic試験システム
CN105459136A (zh) * 2015-12-29 2016-04-06 上海帆声图像科技有限公司 机器人视觉抓取方法
CN105459136B (zh) * 2015-12-29 2017-07-14 上海帆声图像科技有限公司 机器人视觉抓取方法
JP2017146805A (ja) * 2016-02-17 2017-08-24 株式会社入曽精密 切削加工装置、撮像方法、およびプログラム、並びに撮像装置
KR102513340B1 (ko) 2016-07-28 2023-03-22 인트린식 이노베이션 엘엘씨 현장에서 수집된 측정치들에 기반한 맞춤화된 로봇 설치
KR20190029746A (ko) * 2016-07-28 2019-03-20 엑스 디벨롭먼트 엘엘씨 현장에서 수집된 측정치들에 기반한 맞춤화된 로봇 설치
KR20210029301A (ko) * 2016-07-28 2021-03-15 엑스 디벨롭먼트 엘엘씨 현장에서 수집된 측정치들에 기반한 맞춤화된 로봇 설치
US10882181B2 (en) 2016-07-28 2021-01-05 X Development Llc Customized robotic installation based on measurements collected on site
KR102226599B1 (ko) 2016-07-28 2021-03-12 엑스 디벨롭먼트 엘엘씨 현장에서 수집된 측정치들에 기반한 맞춤화된 로봇 설치
JP2018051686A (ja) * 2016-09-29 2018-04-05 川崎重工業株式会社 ロボット復旧支援装置及びそれを備えるロボットシステム
JP2018176326A (ja) * 2017-04-07 2018-11-15 ライフロボティクス株式会社 教示装置、表示装置、教示プログラム及び表示プログラム
JP2019063951A (ja) * 2017-10-02 2019-04-25 株式会社オカムラ 作業システム、作業システムの制御方法及びプログラム
JP2022500722A (ja) * 2018-06-29 2022-01-04 センサーボット ピーティーイー. エルティーディー. タスク管理方法及びそのシステム
JP2020189395A (ja) * 2019-05-17 2020-11-26 株式会社安川電機 ロボットシステム、復帰プログラム生成装置、制御支援装置、制御装置、プログラム、復帰プログラムの生成方法及び復帰プログラムの出力方法
WO2020234946A1 (ja) * 2019-05-17 2020-11-26 株式会社安川電機 ロボットシステム、復帰プログラム生成装置、制御支援装置、制御装置、プログラム、復帰プログラムの生成方法及び復帰プログラムの出力方法
JP6658985B1 (ja) * 2019-05-17 2020-03-04 株式会社安川電機 ロボットシステム、復帰プログラム生成装置、制御支援装置、制御装置、プログラム、復帰プログラムの生成方法及び復帰プログラムの出力方法
JP7314824B2 (ja) 2019-05-17 2023-07-26 株式会社安川電機 ロボットシステム、復帰プログラム生成装置、制御支援装置、制御装置、プログラム、復帰プログラムの生成方法及び復帰プログラムの出力方法
WO2022080006A1 (ja) * 2020-10-12 2022-04-21 東京ロボティクス株式会社 ロボットシステム、その制御方法及びプログラム並びにシステム
WO2023013784A1 (ja) * 2021-08-05 2023-02-09 京セラ株式会社 ライブラリ提示装置、ライブラリ提示方法及びロボット制御システム
CN113459108A (zh) * 2021-09-02 2021-10-01 杭州灵西机器人智能科技有限公司 基于插值补偿的手眼标定方法、系统、装置和介质
CN113459108B (zh) * 2021-09-02 2021-11-12 杭州灵西机器人智能科技有限公司 基于插值补偿的手眼标定方法、系统、装置和介质
WO2023047588A1 (ja) * 2021-09-27 2023-03-30 ファナック株式会社 ロボットシステム
JP7327550B1 (ja) 2022-03-08 2023-08-16 株式会社安川電機 ロボットコントローラ、及び制御方法
JP2023130675A (ja) * 2022-03-08 2023-09-21 株式会社安川電機 ロボットコントローラ、及び制御方法
CN115860431A (zh) * 2023-02-07 2023-03-28 广东技术师范大学 基于异构感知的多机器人智能调度方法、系统、机器人及介质

Also Published As

Publication number Publication date
US20110288667A1 (en) 2011-11-24
US9393691B2 (en) 2016-07-19
KR101255948B1 (ko) 2013-04-23
DE112010000775T5 (de) 2013-03-28
JP5436460B2 (ja) 2014-03-05
KR20110114651A (ko) 2011-10-19
JPWO2010092981A1 (ja) 2012-08-16
CN102317044B (zh) 2014-03-26
DE112010000775B4 (de) 2016-03-17
CN102317044A (zh) 2012-01-11

Similar Documents

Publication Publication Date Title
JP5436460B2 (ja) 産業用ロボットシステム
Ostanin et al. Human-robot interaction for robotic manipulator programming in Mixed Reality
US9387589B2 (en) Visual debugging of robotic tasks
US10279476B2 (en) Method and system for programming a robot
Pichler et al. Towards shared autonomy for robotic tasks in manufacturing
Li et al. A flexible manufacturing assembly system with deep reinforcement learning
Kuts et al. Digital twin: concept of hybrid programming for industrial robots—use case
Rückert et al. Augmented Reality for teaching collaborative robots based on a physical simulation
Pedersen et al. Gesture-based extraction of robot skill parameters for intuitive robot programming
Kato et al. Predicting positioning error and finding features for large industrial robots based on Deep Learning
Chryssolouris et al. Artificial intelligence in manufacturing equipment, automation, and robots
WO2021049028A1 (ja) 数値制御装置、および機械学習装置
Weng et al. Quantitative assessment at task-level for performance of robotic configurations and task plans
Luczak et al. Development of error-compensating UI for autonomous production cells
Anagnostakis et al. A virtual cmm inspection tool for capturing planning strategies
Protic et al. Development of a novel control approach for collaborative robotics in i4 intelligent flexible assembling cells
Khalil et al. Robotic interaction with deformable objects under vision and tactile guidance-a review
Kirkpatrick Digital Twins in Advanced Manufacturing to Enhance Manufacturing Efficiency
RU2813444C1 (ru) Система взаимодействия человек-робот на основе смешанной реальности
Vergara et al. Expediting the Deployment of Industrial Robotic Applications by Learning from Operators Part 1: Generating reactive approach motions using generalized trajectories from demonstrations
Guo et al. Adaptive Biological Neural Network Control and Virtual Realization for Engineering Manipulator
Delledonne et al. Optimizing parameters of robotic task-oriented programming via a multiphysics simulation
Verma Design and Control of Advanced Robotic Systems for Manufacturing and Assembly
Xia et al. DTMR: Industrial Digital Twin Architecture for New Production Line Design in Mixed Reality Environment
Herrero Understanding and Learning Robotic Manipulation Skills from Humans

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080007473.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10741258

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010550536

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 5756/CHENP/2011

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 13147415

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20117018727

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 112010000775

Country of ref document: DE

Ref document number: 1120100007756

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10741258

Country of ref document: EP

Kind code of ref document: A1