WO2022002744A1 - Verfahren zur desinfektion einer bearbeitungsumgebung - Google Patents

Verfahren zur desinfektion einer bearbeitungsumgebung Download PDF

Info

Publication number
WO2022002744A1
WO2022002744A1 PCT/EP2021/067301 EP2021067301W WO2022002744A1 WO 2022002744 A1 WO2022002744 A1 WO 2022002744A1 EP 2021067301 W EP2021067301 W EP 2021067301W WO 2022002744 A1 WO2022002744 A1 WO 2022002744A1
Authority
WO
WIPO (PCT)
Prior art keywords
cobot
processor
routine
treatment plan
objects
Prior art date
Application number
PCT/EP2021/067301
Other languages
English (en)
French (fr)
Original Assignee
Broetje-Automation Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Broetje-Automation Gmbh filed Critical Broetje-Automation Gmbh
Publication of WO2022002744A1 publication Critical patent/WO2022002744A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2/00Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
    • A61L2/24Apparatus using programmed or automatic operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2202/00Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
    • A61L2202/20Targets to be treated
    • A61L2202/25Rooms in buildings, passenger compartments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40411Robot assists human in non-industrial environment like home or office
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40564Recognize shape, contour of object, extract position and orientation

Definitions

  • the invention relates to a method for disinfecting a processing environment using a cobot according to the preamble of claim 1, a system controller for operating a system for disinfecting a processing environment using a cobot according to the preamble of claim 19 and a cobot having a Such a system control according to claim 20.
  • a method for disinfecting a processing environment using a robot is already known from TW I 592175 B.
  • the robot has a manipulator with an end effector for disinfecting objects in the processing environment, a drive arrangement and a sensor arrangement for detecting objects.
  • the known robot is set up for an autonomous disinfection of the objects.
  • US 2019/0331701 A discloses a method for monitoring a processing environment using collaborative robots (cobots) which interact with a human operator.
  • the cobot supports the processor in his work in that part of the tasks arising in the context of monitoring are carried out by the cobot.
  • Predefined tasks are assigned to the cobot, for example the picking up and transport of samples collected by the human operator to a laboratory.
  • the starting point of the invention is that the cobot usually only has a passive role in interaction with humans.
  • the cobot only performs predefined tasks or is controlled directly by the processor to carry out individual process steps.
  • the invention is based on the problem of specifying a method for disinfecting a processing environment using a cobot, the flexibility and effectiveness of the method being further increased.
  • the above problem is solved in a method according to the preamble of claim 1 by the features of the characterizing part of claim 1.
  • the proposed solution assumes that the cobot has a manipulator with at least one end effector for disinfecting objects in the processing environment, a drive arrangement for moving the cobot and a sensor arrangement by means of which object-related sensor data is determined from at least one object in the processing environment will.
  • the processing environment is to be understood here as an area provided for disinfection, preferably at least a section of the interior or the surroundings of a building.
  • the objects in question can generally be immovable objects such as floors, walls and interior furnishings, or they can be movable objects.
  • the processing environment can also advantageously have a large number of moving objects and be highly frequented. Examples of this are commercial units such as office space or publicly accessible areas such as train stations, airports or the like.
  • the object is processed in a work routine in accordance with a treatment plan established by means of a system control, in particular disinfected by means of the manipulator of the cobot.
  • the essential idea is that, in addition to the object-related sensor data, environmental parameters as well as the presence and / or actions of a processor flow into the definition of the treatment plan in order to optimize the use of the cobot as much as possible.
  • the system control establish the treatment plan for the object in a planning routine in accordance with a predetermined planning rule based on the object-related sensor data, environmental parameters related to the processing environment and user data from the human operator.
  • the embodiment according to claim 2 is particularly preferred, according to which a compilation of treatment plans is specified which can provide for both automated disinfection of the object by means of the cobot and manual processing of the object by the human operator. This ensures that the cobot disinfects the objects as autonomously as possible. At the same time, it is ensured that the processing of objects that cannot or should not be carried out by the cobot is perceived by the human operator.
  • the prescribed treatment plans are each assigned treatment rules, the fulfillment of which is checked on the basis of the environmental parameters and the processor data. Consequently, the optimal treatment plan in each case can be selected in a simple manner on the basis of the treatment rules.
  • the embodiment according to claim 4 is particularly preferred that in the planning routine by means of the system control the object is classified into an object class from a compilation of predefined object classes using the object-related sensor data, with the predefined object classes each being assigned at least one predefined treatment plan.
  • the classification also allows an optimized and easy-to-configure definition of the treatment plan.
  • a degree of recognition is determined in the classification of the object, the object being classified as an object to be taught if the degree of recognition falls below a threshold value. This avoids incorrect identifications of objects.
  • objects classified as objects to be learned are approached by the cobot in a learning run routine and the operator is requested to carry out an operator action, preferably a manual classification of the object.
  • an operator action preferably a manual classification of the object.
  • a learning routine of the cobot can be carried out to specify a treatment plan, wherein in the further preferred refinements according to claims 9 and 10 the treatment plan to be learned is based on a sequence of movements carried out by the operator.
  • Claim 11 specifies a further embodiment of the method, an error criterion being checked in the work routine. If the error criterion is met, it is possible in particular to infer an incorrect object classification. The object is then classified, for example, as an object to be taught.
  • the preferred embodiment according to claim 12 is also particularly advantageous, in which an accessibility criterion of the cobot to the object is checked on the basis of the sensor data. For example, an object to be treated can be blocked by other objects and thus inaccessible to the cobot. Manual processing of the object then serves in particular to ensure treatment of the object, for example by creating access to the object or by manual disinfection.
  • the further, likewise preferred embodiments according to claims 13 to 16 relate to a request to the processor to carry out a manual processor action provided according to the treatment plan.
  • the human processor can also be instructed to perform manual operator actions, for example to process sensitive objects.
  • the cobot therefore not only takes on a passive role in interaction with the processor, but also actively supports the processor.
  • FIG. 1 shows a cobot according to the proposal in a processing environment for carrying out the method according to the proposal
  • FIG. 2 shows a schematic diagram of examples of a planning routine with an object classification
  • FIG. 4 shows a schematic representation of a processing environment.
  • the invention relates to a method for disinfecting a processing environment 1 using a cobot 2 in cooperation with a human operator 3.
  • a partial area of the processing environment 1 is indicated, which is preferably formed by a publicly accessible environment will.
  • the cobot 2 has a manipulator 4 with at least one end effector 5, 6 for disinfecting objects 7 in the processing environment 1.
  • end effectors 5, 6 are shown in FIG. 1, which here disinfect the objects 7 using various methods.
  • the end effector 5 is used here for atomizing or steaming the objects 7, in particular with a disinfectant, while the end effector 6 effects disinfection by means of irradiation, here by means of UV radiation.
  • Further configurations of end effectors 5, 6 are conceivable. Further end effectors can also be provided which serve purposes other than disinfection.
  • the cobot 2 also has a drive arrangement 8 for moving the cobot 2, which here and preferably is designed as a chassis arrangement.
  • the drive arrangement 8 allows the cobot 2 to move in the processing environment 1 and preferably allows the cobot 2 to be operated as an automated guided vehicle (AGV).
  • AGV automated guided vehicle
  • the cobot 2 also has a sensor arrangement 9, by means of which object-related sensor data from at least one object 7 of the processing environment 1 are determined.
  • the sensor arrangement 9 particularly preferably has at least one optical sensor such as a camera.
  • the sensor arrangement 9 has at least one camera for two-dimensional image acquisition and a 3D camera, preferably a stereo camera.
  • the sensor arrangement 9 determines object-related image data.
  • the sensor arrangement 9 can also have distance sensors, preferably a lidar and / or radar device, which can also be used when the cobot 2 is moving.
  • the objects 7 can generally be different movable or immovable objects, whereby reference may also be made to the introductory remarks.
  • various movable objects 7 are shown by way of example and are each provided with the same reference symbols.
  • the respective object 7 is processed in a work routine in accordance with a treatment plan established by means of a system controller 10.
  • a treatment plan established by means of a system controller 10.
  • this can in principle be the case automated processing of the object 7 by the cobot 2, in particular disinfection by means of the manipulator 4 and the end effectors 5, 6, manual processing by the human processor 3 or also joint processing by the processor 3 and the Trade Cobot 2.
  • the system controller 10 is here and preferably assigned to the cobot 2.
  • the system controller 10 can also perform other control-related tasks related to the cobot 2, for example controlling the drive arrangement 8 and / or the manipulator 4, as well as controlling the sensor arrangement and evaluating the sensor data.
  • the system controller 10 can also be a, in particular, stationary, central controller which communicates with one or more decentralized controllers.
  • the use of several cobots 2 is also conceivable, each of which is controlled via corresponding decentralized controls and which preferably communicate with one another via a network.
  • the corresponding decentralized controls can execute the planning routine jointly or individually and / or in turn receive the treatment plan from a central control.
  • system control 10 defines the treatment plan for the object 7 in a planning routine according to a predetermined planning rule based on the object-related sensor data, environmental parameters related to the processing environment 1 and the processing data of the human processor 3.
  • the treatment plan generally has specifications about the treatment to be carried out on the object 7.
  • the treatment plan preferably indicates whether and how disinfection of the object 7 is carried out.
  • the treatment plan can, among other things, specify a manual operator action and / or a treatment to be carried out by means of the cobot 2.
  • the treatment plan can contain the further configuration of the disinfection, for example the duration of the treatment, the end effector 5, 6 to be used, a disinfectant to be used, sequences of movements of the manipulator 4 to be observed during disinfection, the number of repetitions of an operation act or the like.
  • the treatment plan can also indicate that treatment by the cobot 2 and / or the processor 3 should not take place.
  • the environmental parameters here generally indicate boundary conditions of the processing environment 1 such as the time, temperature, public accessibility of the processing environment 1, lighting conditions, the presence of other people in addition to the operator 3 or the like.
  • the processor data preferably relate to the presence or availability of the processor 3, the tasks to be carried out by the processor 3 within the framework of the method, or the like.
  • the planning rule is generally a specification as to how the treatment plan is to be determined depending on the sensor data, the environmental parameters and the operator data.
  • the planning rule can, for example, also be implemented via an optimization routine in which the treatment plan is optimized in view of the boundary conditions with regard to predetermined criteria.
  • a compilation of treatment plans is particularly preferably specified in the planning routine. At least one of the specified treatment plans provides for automated disinfection of the object 7 by means of the cobot 2 and at least one of the specified treatment plans provides for manual processing of the object 7 by the human operator 3.
  • one of the specified treatment plans is defined as the treatment plan for the object 7 in accordance with the planning rule based on the object-related sensor data, the environmental parameters and the processor data.
  • the planning rule thus contains a specification as to how the selection is made from the given treatment plans.
  • the prescribed treatment plans are each assigned treatment rules, with compliance with the treatment rules being checked in the planning routine by means of the system controller 10 on the basis of the environmental parameters and the operator data.
  • a predetermined treatment plan, the assigned treatment rule of which is fulfilled, is then established for the object 7. If several treatment rules are met, a prioritization of the treatment plans can also be specified, according to which a decision is made as to which of these treatment rules plane for the object 7 is set.
  • a degree of fulfillment can also be determined for the respective treatment rule, which represents a probability for the fulfillment of the treatment rule.
  • the assigned treatment plans can be prioritized based on the degree of fulfillment.
  • the object 7 is classified into an object class from a compilation of predetermined object classes on the basis of the object-related sensor data. It is particularly expedient here to assign at least one predetermined treatment plan to the predetermined object classes, and a predetermined treatment plan of the object class into which the object 7 is classified is defined as the treatment plan for the object 7. Accordingly, the treatment plan can be determined in a flexible and simple manner using the object classification.
  • FIG. 2 are schematically specified object classes 11, 12, 13, 14, 15, 16 and their associated treatment plans 17, 18, 19, 20, 21, 22, 23, 24 and treatment rules 25, 26, 27, 28, 29, 30, 31, 32 shown.
  • the object classes can also have object superclasses and object subclasses or the like in different configurations.
  • FIG. 3 an upper-class object “computer hardware” 11 is shown as an example, which has, among other things, the “desktop keyboard” 12 and “notebook keyboard” 13 object classes as object subclasses.
  • For the object classes “desktop keyboard” 12 and “notebook keyboard” 13 two treatment plans 17, 18; 19, 20 specified, which in turn the treatment rules 25, 26; 27, 28 are assigned.
  • treatment rule 25 (“agent absent?”)
  • treatment rule 26 (“time of day?”)
  • the environmental parameters and the agent data here using the time and based on the presence of the processor 3 relevant processor data.
  • treatment plan 17 sees an automated disinfection via nebulization as well as a UV Irradiation with a specific sequence of movements for the manipulator 4 before.
  • treatment plan 19 for example, specifying an alternative sequence of movements for the manipulator 4, as a result of which the disinfection to be carried out can be optimized for the respective object 7.
  • treatment plan 20 it is provided that the object 7 is to be disinfected manually.
  • FIG. 2 for the object class “telephone” 14, it is shown by way of example that, depending on the fulfillment of treatment rule 29 (“time of day?”) Or treatment rule 30 (“night time?”), Different methods of disinfection, here UV irradiation or nebulization are provided in the treatment plans 21, 22.
  • the treatment plan 23 is set upon fulfillment of the treatment rule 31 (“night time?”), Which provides for moving the object 7, for example to gain access to further objects 7 of the processing environment 1 to accomplish.
  • the movement of the object 7 can be specified as manual movement and / or automated movement by means of the cobot 2.
  • the treatment plan 24 does not provide for any treatment for the object class “food” 16.
  • the assigned treatment rule 32 is always considered to be fulfilled, so that the treatment of objects 7 classified accordingly is always omitted.
  • FIG. 3 shows a schematic flow diagram of an exemplary embodiment of the proposed method.
  • the method here begins with action 33.
  • a movement routine 34 of the cobot 2 is carried out by means of the system controller 10, the processing environment 1 being divided into different areas 35, such as different interior spaces, as shown in FIG.
  • action 36 it is checked whether all areas 35 have already been passed through. If areas 35 still remain for processing, the next area 35 is approached in action 37 by the cobot 2 by means of the drive arrangement 8. If no areas 35 remain for processing, the method is ended in action 38. As further shown in FIG.
  • a route through the cobot 2 is
  • the processing environment 1 is specified, it being possible for the route to be specified automatically by the processor 3 by means of the system control 10 or also by guiding the cobot 2.
  • the route can be specified, for example, by means of the system controller 10 on the basis of the sensor data determined in the exploration routine to be explained.
  • the sensor data relating to the processing environment 1 can be recorded and continuously stored.
  • object-related sensor data can be stored and the stored sensor data can be compared with the sensor data recorded during ongoing processing, for example changes to objects 7, such as a movement of objects 7 and / or that Adding or removing objects 7 to be determined.
  • an object 7 is selected for object recognition, whereby here and preferably the objects 7 are fed one after the other for object recognition.
  • object recognition is carried out, which is carried out here and preferably via the object classification already described.
  • image recognition is preferably carried out on the basis of optical sensor data, using methods for image recognition known from the prior art.
  • the optical sensor data can also be recorded in multiple stages, with two-dimensional image data of the object 7 and, in addition, three-dimensional image data of the object 7 being determined, for example.
  • the three-dimensional image data can be ascertained by moving the manipulator 4, moving the cobot 2 and / or by using a 3D camera, which has already been mentioned.
  • a degree of recognition related to the object classes is determined.
  • the degree of recognition is a measure of the reliability of the classification.
  • a threshold value is specified for the degree of recognition, with action 42 checking whether the threshold value has been exceeded.
  • Object 7 is classified in action 43 in one of the predefined object classes only if the threshold value is exceeded by the degree of recognition. Preferably If the level of recognition falls below the threshold value, object 7 is classified in action 44 as an object to be taught.
  • the classification as an object to be taught-in is thus preferably carried out when the respective object 7 cannot be recognized or cannot be recognized with a sufficiently high degree of certainty.
  • the object 7 classified as the object to be taught-in or the objects 7 classified as the object to be taught-in is or are approached by the cobot 2 in a learning run routine and the operator 3 to carry out an operator action, preferably a manual classification of the object 7 requested.
  • the request can take place via a user interface, in particular via a user interface 45 of the cobot 2 and / or via a mobile device 46 of the operator 3.
  • the object-related image data are displayed on the user interface, the objects 7 recognized with the image recognition being marked by an enveloping body, for example a bounding box.
  • the cobot 2 can also perform a gesture to identify the object 7 and, for example, point to the object 7 with the manipulator 4.
  • the object 7 is preferably classified by the processor 3 into an already predetermined object class or into a newly created object class.
  • the manual classification can be used for the future automatic classification so that the degree of automation is steadily increased.
  • the newly generated object class is assigned a treatment plan by the processor 3 via a user interface of the cobot 2, preferably on the basis of a selection from the compilation of predetermined treatment plans.
  • the processor 3 can consequently select the treatment plan on the basis of existing templates. The selection can be made, for example, via a touchscreen and / or via voice input.
  • the learning drive routine is preferably triggered by means of the system controller 10 upon fulfillment of a learning drive criterion.
  • the learning trip criterion can relate to the presence of a minimum number of objects 7 classified as objects to be learned, so that, for example, the processor 3 only has to be used for manual classification when a significant number of Objects 7 was not reliably recognized. Fulfillment of the learning travel criterion can also be triggered in a time-controlled manner, in particular cyclically, and / or the learning travel routine can take place after a certain number of processing operations.
  • a treatment plan is preferably established in action 47, as already described, by checking the assigned treatment rules.
  • the work routine can then be triggered, the object being processed in a work routine in accordance with the treatment plan. If the treatment plan provides for an automated disinfection of the object 7, this is carried out in action 48.
  • the treatment plan can contain, among other things, a sequence of movements to be carried out which is run through by means of the manipulator 4 and / or the drive arrangement 8. It is particularly preferred if a learning routine of the cobot 2 is carried out in order to specify a treatment plan, wherein the cobot 2 preferably carries out a movement sequence carried out by the operator 3 in the learning routine, in particular a manual operation of the manipulator 4 and / or the cobot 2 the processor is determined as a template for the treatment plan.
  • the learning routine is started manually by the processor 3, for example, the sequence of movements is carried out and the learning routine is ended manually by the processor 3. It is further preferred that the movement sequence is demonstrated to the worker 3 by the cobot 2 after the training has taken place, whereby the movement sequence can be checked by the worker 3 and, if necessary, corrected.
  • a further optimization of the treatment plan and in particular of the movement sequence can also take place by means of the system controller 10 as part of an optimization routine.
  • the treatment plan can be optimized under various criteria, for example disinfecting as completely as possible, processing as quickly as possible, to save energy or the like.
  • the correspondingly optimized treatment plan can then be used as a predetermined treatment plan.
  • the optimized treatment plan can in turn be output to the processor 3 via a user interface and / or demonstrated to the processor by the cobot 2, whereby the processor 3 can check the movement sequence and correct it if necessary.
  • the fulfillment of an error criterion in the work routine is checked in action 49. If the error criterion is met, the object 7 is preferably classified in action 44 as an object to be learned, since if an error occurs in the autonomous processing, it can be assumed that the object is incorrectly recognized.
  • the object-related sensor data are preferably also representative of the surroundings and / or arrangement of the object 7 in the processing environment 1.
  • an accessibility criterion of the cobot 2 to the object can thus be checked on the basis of the sensor data.
  • the accessibility criterion is representative of whether the object 7 can be approached by the cobot 2 and / or the object 7 can be treated by the manipulator 4 due to the spatial arrangement of the object 7. If the accessibility criterion is not met, the object 7 is classified as an object to be learned and / or a prescribed treatment plan is created for the object 7, which allows manual processing of the object, in particular manual movement and / or the creation of access to object 7 for the cobot 2, provided by the human processor 3, redefined.
  • a treatment plan containing a movement of the object 7 by the cobot 2 can also be established.
  • automated movement by the cobot 2 is provided for the object class “seating furniture” 15 from FIG. 2, as a result of which the cobot 2 can gain access to further objects 7.
  • the processor 3 is requested in a particularly preferred embodiment by means of the system control 10 to carry out the processor action.
  • the agent action to be carried out by the human agent 3 for the object 7 can include manual disinfection and / or manual movement of the object 7.
  • the request is preferably made via a user interface, for example on the processor's mobile device 46.
  • a request via a user interface 45 of the cobot 2 for example via a voice output, by running through a predetermined request gesture of the cobot 2, such as pointing to the respective object 7 by means of the manipulator 4, and / or by means of marking of the object 7 by the cobot 2.
  • a removable marking can be applied to the object 7 for this purpose.
  • the cobot 2 thus has an active role in the treatment, the cobot 2 not only supporting the human operator through the autonomous processing, but also providing further guidance to the operator.
  • the request can be made promptly after the object has been recognized, for example when the cobot 2 is accompanied by the processor 3.
  • a processor 3 when a processor 3 is absent, information on the objects 7 to be processed manually can initially be stored, with the cobot 2 continuing with the autonomous processing.
  • the processor 3 he can receive the request for the processor actions, the cobot 2 leading the processor 3 in particular to the respective objects 7 and the processor 3 being provided with information on the respective treatment plan.
  • the execution of the operator action is monitored by means of the sensor arrangement 9, sensor data relating to the execution of the operator action preferably being stored by means of the system controller 10.
  • the execution of the processor action is accordingly documented using the sensor data.
  • the processor action can be checked on the basis of the sensor data relating to the execution of the processor action for compliance with a quality criterion contained in the processing specification of the object 7, with the result of the checking of the quality criterion preferably being stored by means of the system controller 10 and / or the processing.
  • output 3 is output.
  • the processor 3 is informed that disinfection of the object 7 has only taken place incompletely. 6th
  • the objects 7 of the processing environment 1 are approached by the cobot 2 in an exploration routine, in particular when the work routine is not carried out, and the objects are classified.
  • the planning routine can consequently be carried out before the treatment.
  • the learning run routine can also be triggered.
  • the cobot 2 is guided by the processor 3 to the respective objects 7 in the exploration routine.
  • the cobot 2 can follow the processor 3 by means of the sensor arrangement 9, wherein the processor 3 can alternatively or additionally also use a mobile device to guide the cobot 2.
  • the processor 3 can alternatively or additionally also use a mobile device to guide the cobot 2.
  • the object classification within the scope of the exploration routine at least some of the objects 7 are classified manually by the processor 3, so that the most extensive possible automated classification of the objects 7 is ensured after the exploration routine.
  • the addressed system control 10 which is used to operate a cobot 2 for disinfecting a processing environment 1 in cooperation with a human operator 3, is claimed as such.
  • the cobot 2 has a manipulator 4 with at least one end effector 5, 6 for disinfecting objects 7 in the processing environment 1, a drive arrangement 8 for moving the cobot 2 and a sensor arrangement 9 by means of which object-related sensor data from at least one object 7 of the processing environment 1 can be determined.
  • the system controller 10 defines a treatment plan according to which the object 7 is processed in a work routine.
  • a cobot 2 is claimed as such for the disinfection of a processing environment.
  • the cobot 2 has a manipulator 4 with at least one end effector 5, 6 for disinfecting objects 7 in the processing environment 1, a drive arrangement 8 for moving the cobot 2 and a sensor arrangement 9 for detecting objects 7.
  • the cobot 2 has a proposed system controller 10. In this respect, reference may also be made to all statements relating to the proposed procedure.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Manipulator (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Desinfektion einer Bearbeitungsumgebung (1) unter Einsatz eines Cobots (2) im Zusammenwirken mit einem menschlichen Bearbeiter (3), wobei der Cobot (2) über einen Manipulator (4) mit mindestens einem Endeffektor (5, 6) zum Desinfizieren von Objekten (7) der Bearbeitungsumgebung (1 ), über eine Antriebsanordnung (8) zum Bewegen des Cobots (2) sowie über eine Sensoranordnung (9) verfügt, mittels welcher objektbezogene Sensordaten von mindestens einem Objekt (7) der Bearbeitungsumgebung (1) ermittelt werden, wobei das Objekt (7) in einer Arbeitsroutine gemäß einem mittels einer Systemsteuerung (10) festgelegten Behandlungsplan bearbeitet wird. Es wird vorgeschlagen, dass mittels der Systemsteuerung (10) in einer Planungsroutine gemäß einer vorgegebenen Planungsvorschrift anhand der objektbezogenen Sensordaten, anhand von auf die Bearbeitungsumgebung (1) bezogenen Umgebungsparametern sowie anhand von Bearbeiterdaten des menschlichen Bearbeiters (3) der Behandlungsplan für das Objekt (7) festgelegt wird.

Description

Verfahren zur Desinfektion einer Bearbeitungsumgebung
Die Erfindung betrifft ein Verfahren zur Desinfektion einer Bearbeitungsumge- bung unter Einsatz eines Cobots gemäß dem Oberbegriff von Anspruch 1 , eine Systemsteuerung zum Betrieb eines Systems für die Desinfektion einer Bear- beitungsumgebung unter Einsatz eines Cobots gemäß dem Oberbegriff von Anspruch 19 sowie einen Cobot aufweisend eine solche Systemsteuerung ge- mäß Anspruch 20. Ein Verfahren zur Desinfektion einer Bearbeitungsumgebung unter Einsatz ei- nes Roboters ist bereits aus der TW I 592175 B bekannt. Der Roboter verfügt über einen Manipulator mit einem Endeffektor zum Desinfizieren von Objekten der Bearbeitungsumgebung, über eine Antriebsanordnung sowie über eine Sensoranordnung zum Erfassen von Objekten. Der bekannte Roboter ist für ein autonomes Desinfizieren der Objekte eingerichtet.
Weiter ist aus der US 2019/0331701 A ein Verfahren zur Überwachung einer Bearbeitungsumgebung unter Einsatz von kollaborativen Robotern (Cobots) bekannt, welche mit einem menschlichen Bearbeiter Zusammenwirken. Hierbei unterstützt der Cobot den Bearbeiter in seiner Tätigkeit dadurch, dass ein Teil der im Rahmen der Überwachung anfallenden Aufgaben von dem Cobot wahr- genommen werden. Dem Cobot sind hierbei vorbestimmte Aufgaben zugewie- sen, beispielsweise das Aufnehmen und Transportieren von durch den menschlichen Bearbeiter gesammelten Proben zu einem Labor.
Der Ausgangspunkt der Erfindung ist hierbei, dass dem Cobot im Zusammen- wirken mit dem Menschen üblicherweise lediglich eine passive Rolle zukommt. Der Cobot erledigt hierbei lediglich vordefinierte Aufgaben oder wird direkt vom Bearbeiter angesteuert, einzelne Verfahrensschritte vorzunehmen.
Der Erfindung liegt das Problem zugrunde, ein Verfahren zur Desinfektion einer Bearbeitungsumgebung unter Einsatz eines Cobots anzugeben, wobei die Fle- xibilität und Effektivität des Verfahrens weiter erhöht wird. Das obige Problem wird bei einem Verfahren gemäß dem Oberbegriff von An- spruch 1 durch die Merkmale des kennzeichnenden Teils von Anspruch 1 ge- löst.
Die vorschlagsgemäße Lösung geht davon aus, dass der Cobot über einen Manipulator mit mindestens einem Endeffektor zum Desinfizieren von Objekten der Bearbeitungsumgebung, über eine Antriebsanordnung zum Bewegen des Cobots sowie über eine Sensoranordnung verfügt, mittels welcher objektbezo- gene Sensordaten von mindestens einem Objekt der Bearbeitungsumgebung ermittelt werden. Unter der Bearbeitungsumgebung ist hierbei ein zur Desinfek- tion vorgesehenes Gebiet, vorzugsweise zumindest ein Abschnitt der Innen- räume bzw. der Umgebung eines Gebäudes zu verstehen. Bei den in Rede stehenden Objekten kann es sich allgemein um unbewegliche Objekte wie Fußböden, Wände und Inneneinrichtung oder um bewegliche Objekte handeln. Die Bearbeitungsumgebung kann im Rahmen des vorschlagsgemäßen Verfah- rens auch vorteilhafterweise eine hohe Anzahl an beweglichen Objekten auf- weisen und hoch frequentiert werden. Beispiele hierfür sind Gewerbeeinheiten wie Büroflächen oder auch öffentlich zugängliche Umgebungen wie Bahnhöfe, Flughäfen oder dergleichen.
Weiter wird davon ausgegangen, dass das Objekt in einer Arbeitsroutine ge- mäß einem mittels einer Systemsteuerung festgelegten Behandlungsplan bear- beitet, insbesondere mittels des Manipulators des Cobots desinfiziert wird.
Wesentlich ist nun der grundsätzliche Gedanke, dass neben den objektbezo- genen Sensordaten auch Umgebungsparameter sowie die Anwesenheit und/oder Handlungen eines Bearbeiters in die Festlegung des Behandlungs- plans einfließen, um den Einsatz des Cobots möglichst weitgehend zu optimie- ren.
Im Einzelnen wird vorgeschlagen, dass mittels der Systemsteuerung in einer Planungsroutine gemäß einer vorgegebenen Planungsvorschrift anhand der objektbezogenen Sensordaten, anhand von auf die Bearbeitungsumgebung bezogenen Umgebungsparametern sowie anhand von Bearbeiterdaten des menschlichen Bearbeiters der Behandlungsplan für das Objekt festgelegt wird. Besonders bevorzugt ist die Ausgestaltung gemäß Anspruch 2, wonach eine Zusammenstellung von Behandlungsplänen vorgegeben ist, welche sowohl ein automatisiertes Desinfizieren des Objekts mittels des Cobots als auch ein ma- nuelles Bearbeiten des Objekts durch den menschlichen Bearbeiter vorsehen sein können. Hiermit wird erreicht, dass der Cobot das Desinfizieren der Objek- te möglichst weitgehend autonom vornimmt. Gleichzeitig wird sichergestellt, dass die Bearbeitung von Objekten, die vom Cobot nicht vorgenommen werden kann oder nicht vorgenommen werden soll, vom menschlichen Bearbeiter wahrgenommen wird.
In der weiteren Ausgestaltung gemäß Anspruch 3 sind den vorgegebenen Be- handlungsplänen jeweils Behandlungsregeln zugeordnet, deren Erfüllen an- hand der Umgebungsparameter und der Bearbeiterdaten geprüft wird. Folglich kann auf einfache Weise eine Selektion des jeweils optimalen Behandlungs- plans anhand der Behandlungsregeln erfolgen.
Besonders bevorzugt ist die Ausgestaltung gemäß Anspruch 4, dass in der Planungsroutine mittels der Systemsteuerung das Objekt anhand der objektbe- zogenen Sensordaten in eine Objektklasse aus einer Zusammenstellung von vorgegebenen Objektklassen klassifiziert wird, wobei den vorgegebenen Ob- jektklassen jeweils mindestens ein vorgegebener Behandlungsplan zugeordnet ist. Das Klassifizieren erlaubt hierbei ebenfalls eine optimierte und einfach zu konfigurierende Festlegung des Behandlungsplans.
In der Ausgestaltung gemäß Anspruch 5 ist vorgesehen, dass in dem Klassifi- zieren des Objekts ein Erkennungsgrad ermittelt wird, wobei auf ein Unter- schreiten eines Schwellwerts durch den Erkennungsgrad das Objekt als ein an- zulernendes Objekt eingeordnet wird. Hiermit werden Fehlerkennungen von Objekten vermieden.
Gemäß Anspruch 6 wird bzw. werden in einer Lernfahrtroutine als anzulernen- de Objekte eingeordnete Objekte vom Cobot angefahren und der Bearbeiter wird zum Durchführen einer Bearbeiteraktion, vorzugsweise einem manuellen Klassifizieren des Objekts aufgefordert. Somit kann die Erkennung von zuvor dem System unbekannten Objekte erlernt werden und ein zukünftiges, automa- tisiertes Klassifizieren dieser Objekte ermöglicht werden. Vorteilhafte Ausge- staltungen der Lernfahrtroutine sind Gegenstand der Ansprüche 7 und 8.
Allgemein kann zum Vorgeben eines Behandlungsplans eine Lernroutine des Cobots durchgeführt werden, wobei in den weiter bevorzugten Ausgestaltungen gemäß den Ansprüchen 9 und 10 dem zu erlernenden Behandlungsplan ein vom Bearbeiter durchgeführter Bewegungsablauf zugrunde gelegt wird.
Anspruch 11 gibt eine weitere Ausgestaltung des Verfahrens an, wobei in der Arbeitsroutine ein Fehlerkriterium geprüft wird. Mit Erfüllen des Fehlerkriteriums kann insbesondere auf eine fehlerhafte Objektklassifizierung geschlossen wer- den. Das Objekt wird dann beispielsweise als anzulernendes Objekt eingeord- net.
Besonders vorteilhaft ist auch die bevorzugte Ausgestaltung gemäß Anspruch 12, bei der ein Zugänglichkeitskriterium des Cobots zu dem Objekt anhand der Sensordaten geprüft wird. Beispielsweise kann ein zu behandelndes Objekt durch weitere Objekte blockiert und somit für den Cobot unzugänglich sein. Ein manuelles Bearbeiten des Objekts dient dann insbesondere einer Sicherstel- lung einer Behandlung des Objekts, etwa über die Schaffung eines Zugangs zum Objekt oder durch ein manuelles Desinfizieren.
Die weiteren, ebenfalls bevorzugten Ausgestaltungen gemäß den Ansprüchen 13 bis 16 betreffen eine Aufforderung an den Bearbeiter zum Durchführen einer gemäß dem Behandlungsplan vorgesehenen, manuellen Bearbeiteraktion. Ne- ben dem autonomen Desinfizieren von Objekten kann somit auch der mensch- liche Bearbeiter zu manuellen Bearbeiteraktionen angeleitet werden, etwa zur Bearbeitung von sensiblen Objekten. Der Cobot nimmt somit nicht nur eine passive Rolle im Zusammenwirken mit dem Bearbeiter ein, sondern unterstützt den Bearbeiter aktiv.
Besonders zweckmäßig sind auch die Ausgestaltungen des vorschlagsgemä- ßen Verfahrens gemäß den Ansprüchen 17 und 18, wobei vom Cobot eine Er- kundungsroutine vorgenommen wird. Hiermit kann insbesondere das Festlegen der Behandlungspläne für die Objekte vorab erfolgen. Nach einer weiteren Lehre gemäß Anspruch 19, der eigenständige Bedeutung zukommt, wird eine Systemsteuerung zum Betrieb eines Cobots für die Desin- fektion einer Bearbeitungsumgebung als solche beansprucht. Die vorschlags- gemäße Systemsteuerung kann hierbei die angesprochene Planungsroutine des vorschlagsgemäßen Verfahrens durchführen. Insoweit darf zur vorschlag- gemäßen Systemsteuerung auf alle Ausführungen zu dem vorschlagsgemäßen Verfahren verwiesen werden.
Nach einer weiteren Lehre gemäß Anspruch 20, der ebenfalls eigenständige Bedeutung zukommt, wird ein Cobot für die Desinfektion einer Bearbeitungs- umgebung, welcher eine vorschlagsgemäße Systemsteuerung aufweist, als solcher beansprucht. Auch insoweit darf auf alle Ausführungen zu dem vor- schlagsgemäßen Verfahren verwiesen werden.
Im Folgenden wird die Erfindung anhand einer lediglich ein Ausführungsbeispiel darstellenden Zeichnung näher erläutert. In der Zeichnung zeigt
Fig. 1 einen vorschlagsgemäßen Cobot in einer Bearbeitungsumgebung zur Durchführung des vorschlagsgemäßen Verfahrens,
Fig. 2 ein schematisches Diagramm von Beispielen einer Planungsroutine mit einer Objektklassifizierung,
Fig. 3 ein Ablaufdiagramm des vorschlagsgemäßen Verfahrens und
Fig. 4 eine schematische Darstellung einer Bearbeitungsumgebung.
Die Erfindung betrifft ein Verfahren zur Desinfektion einer Bearbeitungsumge- bung 1 unter Einsatz eines Cobots 2 im Zusammenwirken mit einem menschli- chen Bearbeiter 3. In Fig. 1 ist hierbei ein Teilbereich der Bearbeitungsumge- bung 1 angedeutet, welche vorzugsweise durch eine öffentlich zugängliche Umgebung gebildet wird. Zur Bearbeitungsumgebung 1 darf allgemein auf die einleitenden Ausführungen verwiesen werden.
Der Cobot 2 verfügt über einen Manipulator 4 mit mindestens einem Endeffek- tor 5, 6 zum Desinfizieren von Objekten 7 der Bearbeitungsumgebung 1. In Fig. 1 sind gemäß einer bevorzugten Ausgestaltung mehrere Endeffektoren 5, 6 dargestellt, welche hier ein Desinfizieren der Objekte 7 über verschiedene Methoden bewirken. Der Endeffektor 5 dient hier einem Vernebeln bzw. Be- dampfen der Objekte 7, insbesondere mit einem Desinfektionsmittel, während der Endeffektor 6 ein Desinfizieren über eine Bestrahlung, hier mittels UV- Strahlung, bewirkt. Weitere Ausgestaltungen von Endeffektoren 5, 6 sind denk- bar. Ebenfalls können weitere Endeffektoren vorgesehen sein, welche anderen Zwecken als der Desinfektion dienen.
Weiter verfügt der Cobot 2 über eine Antriebsanordnung 8 zum Bewegen des Cobots 2, welche hier und vorzugsweise als Fahrwerksanordnung ausgebildet ist. Die Antriebsanordnung 8 erlaubt hierbei die Bewegung des Cobots 2 in der Bearbeitungsumgebung 1 und vorzugsweise den Betrieb des Cobots 2 als Au- tomated Guided Vehicle (AGV).
Ferner verfügt der Cobot 2 über eine Sensoranordnung 9, mittels welcher ob- jektbezogene Sensordaten von mindestens einem Objekt 7 der Bearbeitungs- umgebung 1 ermittelt werden. Besonders bevorzugt weist die Sensoranord- nung 9 mindestens einen optischen Sensor wie eine Kamera auf. Hier verfügt die Sensoranordnung 9 gemäß einer nicht im Detail dargestellten Ausgestal- tung zumindest über eine Kamera zur zweidimensionalen Bilderfassung sowie über eine 3D-Kamera, vorzugsweise eine Stereo-Kamera. Die Sensoranord- nung 9 ermittelt hierbei objektbezogene Bilddaten. Gemäß einer weiteren Aus- gestaltung kann die Sensoranordnung 9 auch Abstandssensoren, vorzugswei- se eine Lidar- und/oder Radareinrichtung aufweisen, welche auch bei der Fort- bewegung des Cobots 2 herangezogen werden können.
Bei den Objekten 7 kann es sich allgemein um verschiedene bewegliche oder unbewegliche Objekte handeln, wobei ebenfalls auf die einleitenden Ausfüh- rungen verwiesen werden darf. Vorliegend sind beispielhaft verschiedene be- wegliche Objekte 7 dargestellt und jeweils mit dem gleichen Bezugszeichen versehen.
Das jeweilige Objekt 7 wird in einer Arbeitsroutine gemäß einem mittels einer Systemsteuerung 10 festgelegten Behandlungsplan bearbeitet. Wie aus den nachfolgenden Erläuterungen noch deutlich wird, kann es sich hierbei prinzipiell um eine automatisierte Bearbeitung des Objekts 7 durch den Cobot 2, insbe- sondere um ein Desinfizieren mittels des Manipulators 4 und den Endeffektoren 5, 6, um eine manuelle Bearbeitung durch den menschlichen Bearbeiter 3 oder auch um eine gemeinsame Bearbeitung durch den Bearbeiter 3 und den Cobot 2 handeln.
Die Systemsteuerung 10 ist hier und vorzugsweise dem Cobot 2 zugeordnet. Die Systemsteuerung 10 kann hierbei neben dem Festlegen des Behandlungs- plans auch weitere, auf den Cobot 2 bezogene steuerungstechnische Aufgaben wahrnehmen, beispielsweise die Ansteuerung der Antriebsanordnung 8 und/oder des Manipulators 4, sowie die Ansteuerung der Sensoranordnung und Auswertung der Sensordaten übernehmen. Bei der Systemsteuerung 10 kann es sich auch in einer nicht dargestellten Ausgestaltung um eine, insbesondere ortsfeste, zentrale Steuerung handeln, welche mit einer oder mehreren dezent- ralen Steuerungen kommuniziert. Denkbar ist auch die Verwendung von meh- reren Cobots 2, welche jeweils über entsprechende dezentrale Steuerungen gesteuert werden und miteinander vorzugsweise über ein Netzwerk kommuni- zieren. Die entsprechenden dezentralen Steuerungen können gemeinsam oder einzeln die Planungsroutine ausführen und/oder wiederum den Behandlungs- plan von einer zentralen Steuerung erhalten.
Wesentlich ist nun, dass mittels der Systemsteuerung 10 in einer Planungsrou- tine gemäß einer vorgegebenen Planungsvorschrift anhand der objektbezoge- nen Sensordaten, anhand von auf die Bearbeitungsumgebung 1 bezogenen Umgebungsparametern sowie anhand von Bearbeiterdaten des menschlichen Bearbeiters 3 der Behandlungsplan für das Objekt 7 festgelegt wird.
Der Behandlungsplan weist allgemein Vorgaben über die durchzuführende Be- handlung des Objekts 7 auf. Vorzugsweise gibt der Behandlungsplan an, ob und wie eine Desinfektion des Objekts 7 durchgeführt wird. Der Behandlungs- plan kann unter anderem eine manuelle Bearbeiteraktion und/oder eine mittels des Cobots 2 durchzuführende Behandlung vorgeben. Zudem kann der Be- handlungsplan die weitere Ausgestaltung der Desinfektion enthalten, beispiels- weise die Zeitdauer der Behandlung, den zu verwendenden Endeffektor 5, 6, ein zu verwendendes Desinfektionsmittel, beim Desinfizieren einzuhaltende Bewegungsabläufe des Manipulators 4, Anzahl der Wiederholungen einer Be- handlung oder dergleichen. Ebenfalls kann der Behandlungsplan angeben, dass eine Behandlung durch den Cobot 2 und/oder den Bearbeiter 3 ausblei- ben soll.
Die Umgebungsparameter geben hierbei allgemein Randbedingungen der Be- arbeitungsumgebung 1 wie die Uhrzeit, Temperatur, öffentliche Zugänglichkeit der Bearbeitungsumgebung 1 , Lichtverhältnisse, Anwesenheit weiterer Perso- nen neben dem Bearbeiter 3 oder dergleichen an. Die Bearbeiterdaten bezie- hen sich vorzugsweise auf die Anwesenheit bzw. Verfügbarkeit des Bearbeiters 3, die im Rahmen des Verfahrens durch den Bearbeiter 3 auszuführenden Auf- gaben oder dergleichen. Bei der Planungsvorschrift handelt es sich allgemein um eine Vorgabe dahingehend, wie der Behandlungsplan abhängig von den Sensordaten, den Umgebungsparametern und den Bearbeiterdaten festzule- gen ist. Die Planungsvorschrift kann beispielsweise auch über eine Optimie- rungsroutine umgesetzt sein, in welcher der Behandlungsplan angesichts der Randbedingungen in Hinsicht auf vorbestimmte Kriterien optimiert wird.
Besonders bevorzugt ist in der Planungsroutine eine Zusammenstellung von Behandlungsplänen vorgegeben. Mindestens einer der vorgegebenen Behand- lungspläne sieht ein automatisiertes Desinfizieren des Objekts 7 mittels des Cobots 2 vor und mindestens einer der vorgegebenen Behandlungspläne sieht ein manuelles Bearbeiten des Objekts 7 durch den menschlichen Bearbeiter 3 vor. In der Planungsroutine wird gemäß der Planungsvorschrift anhand der ob- jektbezogenen Sensordaten, der Umgebungsparameter sowie der Bearbeiter- daten einer der vorgegebenen Behandlungspläne als Behandlungsplan für das Objekt 7 festgelegt. Die Planungsvorschrift enthält somit eine Vorgabe, wie die Selektion aus den vorgegebenen Behandlungsplänen vorgenommen wird.
Gemäß einer besonders bevorzugten Ausgestaltung sind den vorgegebenen Behandlungsplänen jeweils Behandlungsregeln zugeordnet, wobei in der Pla- nungsroutine mittels der Systemsteuerung 10 das Erfüllen der Behandlungsre- geln anhand der Umgebungsparameter und der Bearbeiterdaten geprüft wird. Ein vorgegebener Behandlungsplan, dessen zugeordnete Behandlungsregel erfüllt wird, wird dann für das Objekt 7 festgelegt. Soweit mehrere Behand- lungsregeln erfüllt werden, kann auch eine Priorisierung der Behandlungspläne vorgegeben sein, nach welcher entschieden wird, welcher dieser Behandlungs- plane für das Objekt 7 festgelegt wird. Für die jeweilige Behandlungsregel kann auch ein Erfüllungsgrad ermittelt werden, welcher eine Wahrscheinlichkeit für das Erfüllen der Behandlungsregel repräsentiert. Eine Priorisierung der zuge- ordneten Behandlungspläne kann anhand des Erfüllungsgrads erfolgen.
Ebenfalls ist besonders bevorzugt, dass in der Planungsroutine mittels der Sys- temsteuerung 10 das Objekt 7 anhand der objektbezogenen Sensordaten in ei- ne Objektklasse aus einer Zusammenstellung von vorgegebenen Objektklas- sen klassifiziert wird. Besonders zweckmäßig ist hierbei den vorgegebenen Ob- jektklassen jeweils mindestens ein vorgegebener Behandlungsplan zugeordnet und für das Objekt 7 wird ein vorgegebener Behandlungsplan der Objektklasse, in welche das Objekt 7 klassifiziert wird, als Behandlungsplan festgelegt. Ent- sprechend kann das Festlegen des Behandlungsplans auf flexible und einfache Art über die Objektklassifizierung durchgeführt werden.
In Fig. 2 sind schematisch vorgegebene Objektklassen 11 , 12, 13, 14, 15, 16 sowie deren zugeordnete Behandlungspläne 17, 18, 19, 20, 21, 22, 23, 24 und Behandlungsregeln 25, 26, 27, 28, 29, 30, 31 , 32 dargestellt. Die Objektklassen können hierbei auch Objekt-Oberklassen und Objekt-Unterklassen oder der- gleichen in verschiedenen Ausgestaltungen aufweisen. In Fig. 3 ist beispielhaft eine Objekt-Oberklasse „Computer-Hardware“ 11 gezeigt, welche als Objekt- Unterklassen unter anderem die Objektklassen „Desktop-Tastatur“ 12 und „Notebook-Tastatur' 13 aufweist. Für die Objektklassen „Desktop-Tastatur“ 12 und „Notebook-Tastatur“ 13 sind jeweils zwei Behandlungspläne 17, 18; 19, 20 vorgegeben, welchen wiederum die Behandlungsregeln 25, 26; 27, 28 zuge- ordnet sind.
Wird ein Objekt 7 in die Objektklasse „Desktop-Tastatur“ 12 klassifiziert, kann beispielsweise ein Erfüllen der Behandlungsregel 25 („Bearbeiter abwesend?“) und der Behandlungsregel 26 („Tagzeit?“) anhand der Umgebungsparameter und der Bearbeiterdaten geprüft werden, hier anhand der Uhrzeit sowie anhand die Anwesenheit des Bearbeiters 3 betreffenden Bearbeiterdaten. Abhängig davon, welche der Behandlungsregeln 25, 26 erfüllt ist bzw. sind, wird einer der Behandlungspläne 17, 18 für das Objekt 7 festgelegt. Behandlungsplan 17 sieht hier eine automatisierte Desinfektion über ein Vernebeln sowie eine UV- Bestrahlung mit einem bestimmten Bewegungsablauf für den Manipulator 4 vor. Behandlungsplan 18 sieht dagegen vor, dass keine Behandlung erfolgt.
Für die Objektklasse „Notebook-Tastatur“ 13 sind auf ähnliche Weise zwei Be- handlungspläne 19, 20 vorgegeben, wobei Behandlungsplan 19 beispielsweise einen alternativen Bewegungsablauf für den Manipulator 4 vorgibt, wodurch das durchzuführende Desinfizieren für das jeweilige Objekt 7 optimiert werden kann. In Behandlungsplan 20 ist dagegen vorgesehen, dass eine manuelle Desinfektion des Objekts 7 erfolgen soll.
Weiter ist in Fig. 2 für die Objektklasse „Telefon“ 14 beispielhaft dargestellt, dass je nach Erfüllen der Behandlungsregel 29 („Tagzeit?“) bzw. Behandlungs- regel 30 („Nachtzeit?“) verschiedene Methoden zur Desinfektion, hier UV- Bestrahlung bzw. Vernebeln in den Behandlungsplänen 21 , 22 vorgesehen sind. Für die Objektklasse „Sitzmöbel“ 15 ist beispielhaft dargestellt, dass auf Erfüllen der Behandlungsregel 31 („Nachtzeit?“) der Behandlungsplan 23 fest- gelegt wird, der ein Bewegen des Objekts 7 vorsieht, etwa um einen Zugang zu weiteren Objekten 7 der Bearbeitungsumgebung 1 zu schaffen. Das Bewegen des Objekts 7 kann hierbei als manuelles Bewegen und/oder automatisiertes Bewegen mittels des Cobots 2 vorgegeben werden. Ferner ist beispielhaft in Fig. 2 dargestellt, dass für die Objektklasse „Lebensmittel“ 16 der Behand- lungsplan 24 keine Behandlung vorsieht. Die zugeordnete Behandlungsregel 32 gilt hierbei immer als erfüllt, womit die Behandlung entsprechend klassifizier- ter Objekte 7 stets ausbleibt.
In Fig. 3 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des vorschlagsgemäßen Verfahrens dargestellt. Das Verfahren beginnt hierbei mit Aktion 33. In einer bevorzugten Ausgestaltung wird eine Bewegungsroutine 34 des Cobots 2 mittels der Systemsteuerung 10 durchgeführt, wobei hier die Be- arbeitungsumgebung 1 wie in Fig. 4 gezeigt in verschiedene Bereiche 35, etwa verschiedene Innenräume, eingeteilt wird. Zunächst wird in Aktion 36 geprüft, ob alle Bereiche 35 bereits durchlaufen wurden. Falls noch Bereiche 35 zur Bearbeitung verbleiben, wird der nächste Bereich 35 in Aktion 37 durch den Cobot 2 mittels der Antriebsanordnung 8 angefahren. Sollten keine Bereiche 35 zur Bearbeitung verbleiben, wird das Verfahren in Aktion 38 beendet. Wie in Fig. 4 weiter gezeigt, ist beispielsweise für den Cobot 2 eine Route durch die Bearbeitungsumgebung 1 vorgegeben, wobei die Route automatisch mittels der Systemsteuerung 10 oder auch durch ein Führen des Cobots 2 vom Bearbeiter 3 vorgegeben werden kann. Die Vorgabe der Route kann beispielsweise mittels der Systemsteuerung 10 auf Grundlage der in der noch zu erläuternden Erkun- dungsroutine ermittelten Sensordaten erfolgen. Im Rahmen der Bewegungsrou- tine 34 können die auf die Bearbeitungsumgebung 1 bezogene Sensordaten er- fasst und fortlaufend gespeichert werden.
In Aktion 39 werden die Objekte 7 in dem angefahrenen Bereich 35 mittels der Sensoranordnung 9 erfasst. Auch hierbei kann ein Hinterlegen von objektbezo- genen Sensordaten vorgenommen werden und die hinterlegten Sensordaten mit denen in der laufenden Bearbeitung erfassten Sensordaten verglichen wer- den, beispielsweise um Änderungen an Objekten 7, etwa ein erfolgtes Ver- schieben von Objekten 7, und/oder das Hinzufügen bzw. Entfernen von Objek- ten 7 zu ermitteln. In Aktion 40 wird ein Objekt 7 zur Objekterkennung selek- tiert, wobei hier und vorzugsweise die Objekte 7 nacheinander der Objekter- kennung zugeführt werden.
In Aktion 41 wird eine Objekterkennung vorgenommen, welche hier und vor- zugsweise über die bereits beschriebene Objektklassifizierung vorgenommen wird. Vorzugsweise wird hierfür eine Bilderkennung auf Grundlage optischer Sensordaten durchgeführt, wobei auf aus dem Stand der Technik bekannte Me- thoden zur Bilderkennung zurückgegriffen werden kann. Die optischen Sensor- daten können auch mehrstufig erfasst werden, wobei beispielsweise zweidi- mensionale Bilddaten des Objekts 7 und ergänzend dreidimensionale Bilddaten des Objekts 7 ermittelt werden. Das Ermitteln der dreidimensionalen Bilddaten kann über ein Bewegen des Manipulators 4, ein Bewegen des Cobots 2 und/oder über den bereits angesprochenen Einsatz einer 3D-Kamera erfolgen.
Gemäß einer besonders bevorzugten Ausgestaltung wird mit dem Klassifizieren des Objekts 7 ein auf die Objektklassen bezogener Erkennungsgrad ermittelt. Bei dem Erkennungsgrad handelt es sich um ein Maß für die Zuverlässigkeit des Klassifizierens. Für den Erkennungsgrad ist ein Schwellwert vorgegeben, wobei in Aktion 42 ein Überschreiten des Schwellwerts geprüft wird. Nur auf ein Überschreiten des Schwellwerts durch den Erkennungsgrad wird das Objekt 7 in Aktion 43 in einer der vorgegebenen Objektklassen klassifiziert. Vorzugswei- se wird auf ein Unterschreiten des Schwellwerts durch den Erkennungsgrad das Objekt 7 in Aktion 44 als anzulernendes Objekt eingeordnet.
Die Einordnung als anzulernendes Objekt erfolgt somit vorzugsweise dann, wenn das jeweilige Objekt 7 nicht bzw. nicht mit ausreichend hoher Sicherheit erkannt werden kann. Gemäß einer bevorzugten Ausgestaltung wird bzw. wer- den in einer Lernfahrtroutine das als anzulernendes Objekt eingeordnete Objekt 7 bzw. die als anzulernende Objekte eingeordneten Objekte 7 vom Cobot 2 an- gefahren und der Bearbeiter 3 zum Durchführen einer Bearbeiteraktion, vor- zugsweise einem manuellen Klassifizieren des Objekts 7 aufgefordert. Das Auf- fordern kann über eine Benutzerschnittstelle, insbesondere über eine Benut- zerschnittstelle 45 des Cobots 2 und/oder über ein Mobilgerät 46 des Bearbei- ters 3, erfolgen. Beispielsweise werden auf der Benutzerschnittstelle die ob- jektbezogenen Bilddaten angezeigt, wobei die mit der Bilderkennung erkannten Objekte 7 durch einen Hüllkörper, etwa eine Bounding Box, markiert werden. Alternativ oder zusätzlich kann der Cobot 2 auch eine Geste zur Identifizierung des Objekts 7 durchführen und beispielsweise mit dem Manipulator 4 auf das Objekt 7 zeigen.
In dem manuellen Klassifizieren wird das Objekt 7 vorzugsweise durch den Be- arbeiter 3 in eine bereits vorgegebene Objektklasse oder in eine neu erzeugte Objektklasse eingeordnet. Hierbei kann das manuelle Klassifizieren für die zu- künftige automatische Klassifizierung herangezogen werden, sodass der Auto- matisierungsgrad stetig erhöht wird. Insbesondere wird der neu erzeugten Ob- jektklasse vom Bearbeiter 3 über eine Benutzerschnittstelle des Cobots 2 ein Behandlungsplan, vorzugsweise anhand einer Auswahl aus der Zusammenstel- lung von vorgegebenen Behandlungsplänen, zugeordnet. Der Bearbeiter 3 kann folglich den Behandlungsplan anhand von bereits vorhandenen Vorlagen auswählen. Die Auswahl kann beispielsweise über einen Touchscreen und/oder über eine Spracheingabe erfolgen.
Die Lernfahrroutine wird vorzugsweise auf Erfüllen eines Lernfahrtkriteriums mittels der Systemsteuerung 10 ausgelöst. Das Lernfahrtkriterium kann das Vorliegen einer Mindestanzahl an als anzulernende Objekte eingeordneten Ob- jekten 7 betreffen, sodass beispielsweise der Bearbeiter 3 erst zum manuellen Klassifizieren herangezogen werden muss, wenn eine nennenswerte Zahl von Objekten 7 nicht zuverlässig erkannt wurde. Ebenfalls kann das Erfüllen des Lernfahrtkriteriums zeitgesteuert ausgelöst werden, insbesondere zyklisch, und/oder die Lernfahrtroutine nach einer bestimmten Anzahl von erfolgten Be- arbeitungen erfolgen.
Wird ein Objekt 7 mit einem über dem Schwellwert liegenden Erkennungsgrad erkannt, wird in Aktion 47 vorzugsweise wie bereits beschrieben anhand eines Prüfens der zugeordneten Behandlungsregeln ein Behandlungsplan festgelegt. Hierauf kann die Arbeitsroutine ausgelöst werden, wobei das Objekt in einer Arbeitsroutine gemäß dem Behandlungsplan bearbeitet wird. Sieht der Behand- lungsplan ein automatisiertes Desinfizieren des Objekts 7 vor, wird diese in Ak- tion 48 vorgenommen.
Der Behandlungsplan kann unter anderem einen vorzunehmenden Bewe- gungsablauf enthalten, welcher mittels des Manipulators 4 und/oder der An- triebsanordnung 8 durchlaufen wird. Besonders bevorzugt ist es, wenn zum Vorgeben eines Behandlungsplans eine Lernroutine des Cobots 2 durchgeführt wird, wobei vorzugsweise vom Cobot 2 in der Lernroutine ein durch den Bear- beiter 3 durchgeführter Bewegungsablauf, insbesondere ein manuelles Führen des Manipulators 4 und/oder des Cobots 2 durch den Bearbeiter, als Vorlage für den Behandlungsplan ermittelt wird. Die Lernroutine wird beispielsweise durch den Bearbeiter 3 manuell gestartet, der Bewegungsablauf durchgeführt und die Lernroutine durch den Bearbeiter 3 manuell beendet. Weiter bevorzugt wird der Bewegungsablauf nach erfolgtem Anlernen dem Bearbeiter 3 durch den Cobot 2 demonstriert, wodurch der Bewegungsablauf durch den Bearbeiter 3 geprüft und gegebenenfalls korrigiert werden kann.
Eine weitere Optimierung des Behandlungsplans und insbesondere des Bewe- gungsablaufs kann auch mittels der Systemsteuerung 10 im Rahmen einer Op- timierungsroutine erfolgen. Hierbei kann der Behandlungsplan unter verschie- denen Kriterien optimiert werden, beispielsweise einem möglichst vollständigen Desinfizieren, einer möglichst schnellen Bearbeitung, zur Energieeinsparung oder dergleichen. Der entsprechend optimierte Behandlungsplan kann dann als vorgegebener Behandlungsplan verwendet werden. Der optimierte Behand- lungsplan kann dem Bearbeiter 3 wiederum über eine Benutzerschnittstelle ausgegeben und/oder dem Bearbeiter durch den Cobot 2 demonstriert werden, wodurch der Bearbeiter 3 den Bewegungsablauf prüfen und gegebenenfalls korrigieren kann.
Gemäß einer weiteren bevorzugten Ausgestaltung wird in Aktion 49 das Erfül- len eines Fehlerkriteriums in der Arbeitsroutine geprüft. Auf Erfüllen des Fehler- kriteriums wird das Objekt 7 vorzugsweise in Aktion 44 als anzulernendes Ob- jekt eingeordnet, da mit dem Auftreten eines Fehlers in der autonomen Bear- beitung von einer fehlerhaften Objekterkennung ausgegangen werden kann.
Vorzugsweise sind die objektbezogenen Sensordaten auch repräsentativ für die Umgebung und/oder Anordnung des Objekts 7 in der Bearbeitungsumge- bung 1. In der Arbeitsroutine kann damit ein Zugänglichkeitskriterium des Cobots 2 zu dem Objekt anhand der Sensordaten geprüft werden. Das Zugäng- lichkeitskriterium ist hierbei repräsentativ dafür, ob ein Anfahren des Objekts 7 durch den Cobot 2 und/oder eine Behandlung des Objekts 7 mittels des Mani- pulators 4 aufgrund der räumlichen Anordnung des Objekts 7 möglich ist. Auf Nichterfüllen des Zugänglichkeitskriteriums wird das Objekt 7 als anzulernen- des Objekt eingeordnet und/oder für das Objekt 7 wird ein vorgegebener Be- handlungsplan, welcher ein manuelles Bearbeiten des Objekts, insbesondere ein manuelles Bewegen und/oder die Schaffung eines Zugangs zum Objekt 7 für den Cobot 2, durch den menschlichen Bearbeiter 3 vorsieht, neu festgelegt. Folglich wird bei einer fehlenden Zugänglichkeit der menschliche Bearbeiter 3 zur Unterstützung des Cobots 2 herangezogen. Es kann jedoch auch ein Be- handlungsplan enthaltend eine Bewegung des Objekts 7 durch den Cobot 2 festgelegt sein. Beispielsweise ist für die Objektklasse „Sitzmöbel“ 15 aus Fig. 2 ein automatisiertes Bewegen durch den Cobot 2 vorgesehen, wodurch der Cobot 2 Zugang zu weiteren Objekten 7 erhalten kann.
Wenn der Behandlungsplan ein manuelles Bearbeiten des Objekts 7 durch den menschlichen Bearbeiter 3 vorsieht, wird der Bearbeiter 3 in einer besonders bevorzugten Ausgestaltung mittels der Systemsteuerung 10 zum Durchführen der Bearbeiteraktion aufgefordert. Die vom menschlichen Bearbeiter 3 auszu- führende Bearbeiteraktion für das Objekt 7 kann hierbei ein manuelles Desinfi- zieren und/oder ein manuelles Bewegen des Objekts 7 umfassen. Die Aufforderung erfolgt vorzugsweise über eine Benutzerschnittstelle, etwa auf dem Mobilgerät 46 des Bearbeiters. Besonders bevorzugt ist ebenfalls eine Aufforderung über eine Benutzerschnittstelle 45 des Cobots 2, etwa über eine Sprachausgabe, mittels eines Durchlaufens einer vorgegebenen Aufforde- rungsgeste des Cobots 2, etwa ein Zeigen auf das jeweilige Objekt 7 mittels des Manipulators 4, und/oder mittels eines Markierens des Objekts 7 durch den Cobot 2. Beispielsweise kann hierzu eine entfernbare Markierung auf das Ob- jekt 7 gebracht werden. Dem Cobot 2 kommt in dieser Ausgestaltung somit ei- ne aktive Rolle in der Behandlung zu, wobei der Cobot 2 den menschlichen Bearbeiter nicht nur durch die autonome Bearbeitung unterstützt, sondern den Bearbeiter auch weitergehend anleitet.
Die Aufforderung kann zeitnah nach der Objekterkennung erfolgen, etwa wenn der Cobot 2 in Begleitung des Bearbeiters 3 ist. Ebenfalls können beispielswei- se bei Abwesenheit eines Bearbeiters 3 Informationen zu den manuell zu bear- beitenden Objekten 7 zunächst hinterlegt werden, wobei der Cobot 2 mit der autonomen Bearbeitung fortfährt. Sobald der Bearbeiter 3 anwesend ist, kann dieser die Aufforderung zu den Bearbeiteraktionen erhalten, wobei der Cobot 2 den Bearbeiter 3 insbesondere zu den jeweiligen Objekten 7 führt und dem Be- arbeiter 3 Informationen zum jeweiligen Behandlungsplan zur Verfügung ge- stellt werden.
Gemäß einer weiteren bevorzugten Ausgestaltung wird das Durchführen der Bearbeiteraktion mittels der Sensoranordnung 9 überwacht, wobei vorzugswei- se von der Sensoranordnung 9 ermittelte, auf das Durchführen der Bearbeiter- aktion bezogene Sensordaten mittels der Systemsteuerung 10 hinterlegt wer- den. Entsprechend wird die Durchführung der Bearbeiteraktion anhand der Sensordaten dokumentiert. Zudem kann die Bearbeiteraktion anhand der auf das Durchführen der Bearbeiteraktion bezogenen Sensordaten auf Erfüllen ei- nes in der Bearbeitungsvorgabe des Objekts 7 enthaltenen Qualitätskriteriums überprüft werden, wobei vorzugsweise das Ergebnis des Überprüfens des Qua- litätskriteriums mittels der Systemsteuerung 10 hinterlegt und/oder dem Bear- beiter 3 ausgegeben wird. Hierbei wird etwa der Bearbeiter 3 darauf hingewie- sen, dass eine Desinfektion des Objekts 7 nur unvollständig erfolgt ist. 6
Gemäß einer ebenfalls bevorzugten, weiteren Ausgestaltung ist vorgesehen, dass die Objekte 7 der Bearbeitungsumgebung 1 in einer Erkundungsroutine von dem Cobot 2, insbesondere unter Ausbleiben des Durchführens der Ar- beitsroutine, angefahren werden und die Objekte klassifiziert werden. Die Pla- nungsroutine kann folglich vor der Behandlung vorgenommen werden. Auf Be- enden der Erkundungsroutine kann auch die Lernfahrtroutine ausgelöst wer- den.
Gemäß einer weiteren Ausgestaltung wird der Cobot 2 in der Erkundungsrouti- ne von dem Bearbeiter 3 zu den jeweiligen Objekten 7 geführt. Allgemein kann der Cobot 2 mittels der Sensoranordnung 9 dem Bearbeiter 3 folgen, wobei der Bearbeiter 3 alternativ oder zusätzlich auch ein Mobilgerät zur Anleitung des Cobots 2 verwenden kann. Vorzugsweise wird in der Objektklassifizierung im Rahmen der Erkundungsroutine zumindest teilweise ein manuelles Klassifizie- ren der Objekte 7 durch den Bearbeiter 3 vorgenommen, sodass im Nachgang zur Erkundungsroutine ein möglichst weitgehendes automatisiertes Klassifizie- ren der Objekte 7 gewährleistet wird.
Nach einer weiteren Lehre, der eigenständige Bedeutung zukommt, wird die angesprochene Systemsteuerung 10, welche dem Betrieb eines Cobots 2 für die Desinfektion einer Bearbeitungsumgebung 1 im Zusammenwirken mit ei- nem menschlichen Bearbeiter 3 dient, als solche beansprucht. Der Cobot 2 ver- fügt über einen Manipulator 4 mit mindestens einem Endeffektor 5, 6 zum Des- infizieren von Objekten 7 der Bearbeitungsumgebung 1 , über eine Antriebsan- ordnung 8 zum Bewegen des Cobots 2 sowie über eine Sensoranordnung 9, mittels welcher objektbezogene Sensordaten von mindestens einem Objekt 7 der Bearbeitungsumgebung 1 ermittelt werden. Die Systemsteuerung 10 legt einen Behandlungsplan fest, gemäß welchem das Objekt 7 in einer Arbeitsrou- tine bearbeitet wird. Wesentlich ist, dass die Systemsteuerung 10 in einer Pla- nungsroutine gemäß einer vorgegebenen Planungsvorschrift anhand der ob- jektbezogenen Sensordaten, anhand von auf die Bearbeitungsumgebung 1 be- zogenen Umgebungsparametern sowie anhand von Bearbeiterdaten des menschlichen Bearbeiters 3 den Behandlungsplan für das Objekt 7 festlegt. Auf alle Ausführungen zu dem vorschlagsgemäßen Verfahren darf insoweit verwie- sen werden. Nach einer weiteren Lehre, der ebenfalls eigenständige Bedeutung zukommt, wird ein Cobot 2 für die Desinfektion einer Bearbeitungsumgebung als solcher beansprucht. Der Cobot 2 verfügt über einen Manipulator 4 mit mindestens ei- nem Endeffektor 5, 6 zum Desinfizieren von Objekten 7 der Bearbeitungsum- gebung 1 , über eine Antriebsanordnung 8 zum Bewegen des Cobots 2 sowie über eine Sensoranordnung 9 zum Erfassen von Objekten 7. Der Cobot 2 weist eine vorschlagsgemäße Systemsteuerung 10 auf. Insoweit darf ebenfalls auf al- le Ausführungen zu dem vorschlagsgemäßen Verfahren verwiesen werden.

Claims

Patentansprüche
1. Verfahren zur Desinfektion einer Bearbeitungsumgebung (1) unter Einsatz eines Cobots (2) im Zusammenwirken mit einem menschlichen Bearbeiter (3), wobei der Cobot (2) über einen Manipulator (4) mit mindestens einem Endef- fektor (5, 6) zum Desinfizieren von Objekten (7) der Bearbeitungsumgebung (1), über eine Antriebsanordnung (8) zum Bewegen des Cobots (2) sowie über eine Sensoranordnung (9) verfügt, mittels welcher objektbezogene Sensorda- ten von mindestens einem Objekt (7) der Bearbeitungsumgebung (1 ) ermittelt werden, wobei das Objekt (7) in einer Arbeitsroutine gemäß einem mittels einer Systemsteuerung (10) festgelegten Behandlungsplan bearbeitet, insbesondere mittels des Manipulators (4) des Cobots (2) desinfiziert, wird, dadurch gekennzeichnet, dass mittels der Systemsteuerung (10) in einer Planungsroutine gemäß einer vorgegebenen Planungsvorschrift anhand der objektbezogenen Sensordaten, anhand von auf die Bearbeitungsumgebung (1 ) bezogenen Umgebungspara- metern sowie anhand von Bearbeiterdaten des menschlichen Bearbeiters (3) der Behandlungsplan für das Objekt (7) festgelegt wird.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass in der Pla- nungsroutine eine Zusammenstellung von Behandlungsplänen vorgegeben ist, dass mindestens einer der vorgegebenen Behandlungspläne ein automatisier- tes Desinfizieren des Objekts (7) mittels des Cobots (2) vorsieht und mindes- tens einer der vorgegebenen Behandlungspläne ein manuelles Bearbeiten des Objekts (7) durch den menschlichen Bearbeiter (3) vorsieht, und dass in der Planungsroutine gemäß der Planungsvorschrift anhand der objektbezogenen Sensordaten, der Umgebungsparameter sowie der Bearbeiterdaten einer der vorgegebenen Behandlungspläne als Behandlungsplan für das Objekt (7) fest- gelegt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass den vorgegebenen Behandlungsplänen jeweils Behandlungsregeln zugeordnet sind, dass in der Planungsroutine mittels der Systemsteuerung das Erfüllen der Behandlungsregeln anhand der Umgebungsparameter und der Bearbeiterdaten geprüft wird und dass ein vorgegebener Behandlungsplan, dessen zugeordnete Behandlungsregel erfüllt wird, für das Objekt (7) festgelegt wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekenn- zeichnet, dass in der Planungsroutine mittels der Systemsteuerung (10) das Objekt (7) anhand der objektbezogenen Sensordaten in eine Objektklasse aus einer Zusammenstellung von vorgegebenen Objektklassen klassifiziert wird, dass den vorgegebenen Objektklassen jeweils mindestens ein vorgegebener Behandlungsplan zugeordnet ist, und dass für das Objekt (7) ein vorgegebener Behandlungsplan der Objektklasse, in welche das Objekt (7) klassifiziert wird, als Behandlungsplan festgelegt wird, vorzugsweise, dass ein vorgegebener Behandlungsplan, dessen zugeordnete Behandlungsregel erfüllt wird, als Be- handlungsplan festgelegt wird.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass in der Klassifi- zierung des Objekts (7) ein auf die Objektklassen bezogener Erkennungsgrad ermittelt wird, dass für den Erkennungsgrad ein Schwellwert vorgegeben ist und nur auf ein Überschreiten des Schwellwerts durch den Erkennungsgrad das Objekt (7) in einer der vorgegebenen Objektklasse klassifiziert wird, vor- zugsweise, dass auf ein Unterschreiten des Schwellwerts durch den Erken- nungsgrad das Objekt (7) als anzulernendes Objekt eingeordnet wird.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekenn- zeichnet, dass in einer Lemfahrtroutine das als anzulernendes Objekt einge- ordnete Objekt (7) bzw. die als anzulernende Objekte eingeordneten Objekte (7) vom Cobot (2) angefahren wird bzw. werden und der Bearbeiter (3) zum Durchführen einer Bearbeiteraktion, vorzugsweise einem manuellen Klassifizie- ren, des Objekts (7) aufgefordert wird.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass in dem manu- ellen Klassifizieren das Objekt (7) durch den Bearbeiter (3) in eine bereits vor- gegebene Objektklasse oder in eine neu erzeugte Objektklasse eingeordnet wird, insbesondere, dass der neu erzeugten Objektklasse vom Bearbeiter (3) über eine Benutzerschnittstelle ein Behandlungsplan, vorzugsweise anhand ei- ner Auswahl aus der Zusammenstellung von vorgegebenen Behandlungsplä- nen, zugeordnet wird.
8. Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass die Lernfahrroutine auf Erfüllen eines Lemfahrtkriteriums mittels der Systemsteue- rung (10) ausgelöst wird, vorzugsweise, dass das Lernfahrtkriterium das Vorlie- gen einer Mindestanzahl an als anzulernende Objekte eingeordneten Objekten (7) betrifft und/oder dass Erfüllen des Lernfahrtkriteriums zeitgesteuert ausge- löst wird.
9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekenn- zeichnet, dass zum Vorgeben eines Behandlungsplans eine Lernroutine des Cobots (2) durchgeführt wird, vorzugsweise, dass vom Cobot (2) in der Lem- routine ein durch den Bearbeiter (3) durchgeführter Bewegungsablauf, insbe- sondere ein manuelles Führen des Manipulators (4) durch den Bearbeiter (3), als Vorlage für den Behandlungsplan ermittelt wird, weiter vorzugsweise, dass der Bewegungsablauf nach erfolgter Ermittlung dem Bearbeiter (3) vom Cobot (2) demonstriert wird.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass der Behand- lungsplan, insbesondere der Bewegungsablauf, mittels der Systemsteuerung (10) einer Optimierungsroutine unterzogen wird und der optimierte Behand- lungsplan als vorgegebener Behandlungsplan verwendet wird, vorzugsweise, dass der optimierte Behandlungsplan dem Bearbeiter (3) über eine Benutzer- schnittstelle ausgegeben und/oder dem Bearbeiter (3) durch den Cobot (2) de- monstriert wird.
11. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekenn- zeichnet, dass auf Erfüllen eines Fehlerkriteriums in der Arbeitsroutine, insbe- sondere beim autonomen Desinfizieren, das Objekt (7) als anzuiernendes Ob- jekt eingeordnet wird.
12. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekenn- zeichnet, dass die objektbezogenen Sensordaten repräsentativ für die Umge- bung und/oder Anordnung des Objekts (7) in der Bearbeitungsumgebung (1) sind und dass in der Arbeitsroutine ein Zugänglichkeitskriterium des Cobots (2) zu dem Objekt (7) anhand der Sensordaten geprüft wird, wobei auf Nichterfül- ien des Zugängiichkeitskriteriums das Objekt (7) als anzulernendes Objekt ein- geordnet wird und/oder für das Objekt (7) ein vorgegebener Behandlungsplan, welcher ein manuelles Bearbeiten des Objekts (7), insbesondere ein manuelles Bewegen und/oder die Schaffung eines Zugangs zum Objekt (7) für den Cobot
(2), durch den menschlichen Bearbeiter (3) vorsieht, neu festgelegt wird.
13. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekenn- zeichnet, dass in der Arbeitsroutine, wenn der Behandlungsplan ein manuelles Bearbeiten des Objekts (7) durch den menschlichen Bearbeiter (3) vorsieht, der Bearbeiter (3) mittels der Systemsteuerung (10) zum Durchführen der Bearbei- teraktion aufgefordert wird, vorzugsweise, dass die vom menschlichen Bearbei- ter (3) auszuführende Bearbeiteraktion des Objekts (7) ein manuelles Desinfi- zieren, ein manuelles Bewegen und/oder ein manuelles, erneutes Klassifizieren des Objekts (7) in eine Objektklasse umfasst.
14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass das Auffor- dern zum Durchführen der Bearbeiteraktion mittels einer Ausgabe einer Auffor- derung auf einem Mobilgerät (46) des Bearbeiters (3), auf einer Benutzer- schnittstelle (45) des Cobots (7), mittels eines Durchlaufens einer vorgegebe- nen Aufforderungsgeste des Cobots (2) und/oder mittels eines Markierens des Objekts (7) durch den Cobot (2) vorgenommen wird.
15. Verfahren nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass das Durchführen der Bearbeiteraktion mittels der Sensoranordnung (9) überwacht wird, vorzugsweise, dass von der Sensoranordnung (9) ermittelte, auf das Durchführen der Bearbeiteraktion bezogene Sensordaten mittels der Sys- temsteuerung (10) hinterlegt werden.
16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass das Durchfüh- ren der Bearbeiteraktion mittels der Systemsteuerung (10) anhand der auf das Durchführen der Bearbeiteraktion bezogenen Sensordaten auf Erfüllen eines in der Bearbeitungsvorgabe des Objekts (7) enthaltenen Quatitätskriteriums über- prüft wird, vorzugsweise, dass das Ergebnis des Überprüfens des Qualitätskri- teriums mittels der Systemsteuerung (10) hinterlegt und/oder dem Bearbeiter
(3) ausgegeben wird.
17. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekenn- zeichnet, dass die Objekte (7) der Bearbeitungsumgebung in einer Erkun- dungsroutine von dem Cobot (2), insbesondere unter Ausbleiben des Durchfüh- rens der Arbeitsroutine, angefahren werden und für die Objekte (7) die Pla- nungsroutine durchgeführt wird, vorzugsweise, dass auf Beenden der Erkun- dungsroutine die Lernfahrtroutine ausgelöst wird.
18. Verfahren nach Anspruch 17, dadurch gekennzeichnet, dass der Cobot (2) in der Erkundungsroutine von dem Bearbeiter (3) zu den jeweiligen Objekten (7) geführt wird, vorzugsweise, dass in der Klassifizierung der Objekte (7) im Rahmen der Erkundungsroutine zumindest teilweise ein manuelles Klassifizie- ren der Objekte (7) durch den Bearbeiter (3) vorgenommen wird.
19. Systemsteuerung (10) zum Betrieb eines Cobots (2) für die Desinfektion einer Bearbeitungsumgebung (1) im Zusammenwirken mit einem menschlichen Bearbeiter (3), wobei der Cobot (2) über einen Manipulator (4) mit mindestens einem Endeffektor (5, 6) zum Desinfizieren von Objekten (7) der Bearbeitungs- umgebung (1), über eine Antriebsanordnung (8) zum Bewegen des Cobots (2) sowie über eine Sensoranordnung (9) verfügt, mittels welcher objektbezogene Sensordaten von mindestens einem Objekt (7) der Bearbeitungsumgebung (1) ermittelt werden, wobei die Systemsteuerung (10) einen Behandlungsplan fest- legt, gemäß welchem das Objekt (7) in einer Arbeitsroutine bearbeitet, insbe- sondere mittels des Manipulators (4) des Cobots (2) desinfiziert wird, dadurch gekennzeichnet, dass die Systemsteuerung (10) in einer Planungsroutine gemäß einer vorgege- benen Planungsvorschrift anhand der objektbezogenen Sensordaten, anhand von auf die Bearbeitungsumgebung bezogenen Umgebungsparametern sowie anhand von Bearbeiterdaten des menschlichen Bearbeiters (3) den Behand- lungsplan für das Objekt (7) festiegt.
20. Cobot (2) für die Desinfektion einer Bearbeitungsumgebung (1), wobei der Cobot (2) über einen Manipulator (4) mit mindestens einem Endeffektor (5, 6) zum Desinfizieren von Objekten (7) der Bearbeitungsumgebung (1), über eine Antriebsanordnung (8) zum Bewegen des Cobots (2) sowie über eine Sensor- anordnung (9) zum Erfassen von Objekten (7) verfügt und wobei der Cobot (2) eine Systemsteuerung nach Anspruch 19 aufweist.
PCT/EP2021/067301 2020-07-01 2021-06-24 Verfahren zur desinfektion einer bearbeitungsumgebung WO2022002744A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020117318.0 2020-07-01
DE102020117318.0A DE102020117318A1 (de) 2020-07-01 2020-07-01 Verfahren zur Desinfektion einer Bearbeitungsumgebung

Publications (1)

Publication Number Publication Date
WO2022002744A1 true WO2022002744A1 (de) 2022-01-06

Family

ID=76641701

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/067301 WO2022002744A1 (de) 2020-07-01 2021-06-24 Verfahren zur desinfektion einer bearbeitungsumgebung

Country Status (2)

Country Link
DE (1) DE102020117318A1 (de)
WO (1) WO2022002744A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022004936A1 (de) 2021-12-28 2023-06-29 Sumitomo Chemical Company, Limited Separator für Sekundärbatterie mit nichtwässrigem Elektrolyt, Bauteil für Sekundärbatterie mit nichtwässrigem Elektrolyt und Sekundärbatterie mit nichtwässrigem Elektrolyt

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI592175B (zh) 2015-06-03 2017-07-21 龍華科技大學 智慧型自動偵測消毒機器人
US20190331701A1 (en) 2018-04-30 2019-10-31 Lonza Limited System and Method for Environmental Monitoring

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW592175U (en) 2002-01-18 2004-06-11 Chiun-Chau Lin Improved jacket board structure for simply equipped data book, file folder capable of inclination
US20160271803A1 (en) 2013-05-03 2016-09-22 Michael Stewart Robotic disinfection system
DE202017106506U1 (de) 2016-11-15 2018-04-03 Google Llc Einrichtung für tiefes Maschinenlernen zum Robotergreifen
DE202017001227U1 (de) 2017-03-07 2018-06-08 Kuka Deutschland Gmbh Objekterkennungssystem mit einem 2D-Farbbildsensor und einem 3D-Bildsensor
DE102017113279A1 (de) 2017-06-16 2018-12-20 Vorwerk & Co. Interholding Gmbh System aus mindestens einem Haushaltsgerät, mindestens einem sich selbsttätig fortbewegenden Reinigungsgerät und einer Steuereinrichtung
US20190138880A1 (en) 2017-11-03 2019-05-09 Drishti Technologies, Inc. Workspace actor selection systems and methods
IT201800006156A1 (it) 2018-06-08 2019-12-08 Metodo di controllo predittivo di un robot e relativo sistema di controllo
US11135720B2 (en) 2018-10-23 2021-10-05 Siemens Industry Software Ltd. Method and system for programming a cobot for a plurality of industrial cells

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI592175B (zh) 2015-06-03 2017-07-21 龍華科技大學 智慧型自動偵測消毒機器人
US20190331701A1 (en) 2018-04-30 2019-10-31 Lonza Limited System and Method for Environmental Monitoring

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Springer tracts in advanced robotics", vol. 15, 13 November 2015, BERLIN ; HEIDELBERG ; NEW YORK : SPRINGER, 2003-, DE, ISSN: 1610-7438, article FIORE MICHELANGELO ET AL: "On Planning and Task Achievement Modalities for Human-Robot Collaboration", pages: 293 - 306, XP055842015, DOI: 10.1007/978-3-319-23778-7_20 *
DRUMWRIGHT EVAN ET AL: "Toward a Vocabulary of Primitive Task Programs for Humanoid Robots", INTERNATIONAL CONFERENCE ON DEVELOPMENT AND LEARNING, 1 May 2006 (2006-05-01), XP055842113, Retrieved from the Internet <URL:academia.edu> [retrieved on 20210917] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022004936A1 (de) 2021-12-28 2023-06-29 Sumitomo Chemical Company, Limited Separator für Sekundärbatterie mit nichtwässrigem Elektrolyt, Bauteil für Sekundärbatterie mit nichtwässrigem Elektrolyt und Sekundärbatterie mit nichtwässrigem Elektrolyt

Also Published As

Publication number Publication date
DE102020117318A1 (de) 2022-01-05

Similar Documents

Publication Publication Date Title
DE102016120559A1 (de) Verfahren und System zur Steuerung eines Roboters
DE102017217412A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Betreiben eines Robotersteuerungssystems
DE102015220495A1 (de) Schutzfeldanpassung eines Manipulatorsystems
DE102015107436A1 (de) Lernfähige Bahnsteuerung
EP3881079A1 (de) Laborsystem mit zumindest teilweise vernetzten laborgeräten und verfahren zur steuerung eines laborsystems mit zumindest teilweise vernetzten laborgeräten
DE102021201918A1 (de) Vorrichtung und Verfahren zum Steuern ein oder mehrerer Roboter
WO2017182520A1 (de) Verfahren zur steuerung einer mehrzahl von mobilen fahrerlosen manipulatorsystemen
WO2022002744A1 (de) Verfahren zur desinfektion einer bearbeitungsumgebung
EP3587045A1 (de) Verfahren und vorrichtung zum rechnergestützten ermitteln von regelparametern für eine günstige handlung eines technischen systems
DE112019007579B4 (de) Numerische-Steuerung-Vorrichtung und Maschinelles-Lernen-Gerät
DE102019205651B3 (de) Verfahren und System zum Ausführen von Roboterapplikationen
DE102015009892A1 (de) Verfahren und System zum Steuern eines Roboters
DE102010047641B4 (de) Steuerung eines Roboters
EP3365140A1 (de) Verifikation einer position eines manipulatorsystems
EP2359202B1 (de) Verfahren und vorrichtung zur auswahl einer gespeicherten position eines arbeitspunktes eines manipulators
EP3793785B1 (de) Verfahren und vorrichtung zum rechnergestützten ermitteln von regelparametern für eine günstige handlung eines technischen systems
DE102019207410A1 (de) Verfahren und Vorrichtung für eine automatisierte Beeinflussung eines Aktuators
EP2353800B1 (de) Verfahren und Vorrichtung zur Überwachung eines Manipulatorraumes
WO2019096636A1 (de) Verfahren und system zum vorgeben bzw. lernen eines roboterbefehls
WO2019057679A1 (de) Verfahren und robotersystem zum anpassen eines robotereinsatzes an einen arbeitsprozess
DE102020103852B4 (de) Erzeugen und Optimieren eines Steuerprogramms für einen Robotermanipulator
DE102022104525A1 (de) Verfahren und Roboter zum Ausführen von Aufgaben und Computerprogramm
DE102017105078A1 (de) Robotersteuerung, die einen Roboter Bearbeitungsbewegungen durchführen lässt, und Roboterprogramm-Generator
DE112019007691T5 (de) System zum planen von roboterhandlungen, robotersystem, roboteraufgabenverifizierungssystem und verfahren zum planen von roboterhandlungen
DE112018007703B4 (de) Robotersteuerung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21735291

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21735291

Country of ref document: EP

Kind code of ref document: A1