WO2024104711A1 - Autonomes oder manuelles arbeitsgerät, system und verfahren zu einem zumindest teilweise automatischen bearbeiten eines objekts - Google Patents
Autonomes oder manuelles arbeitsgerät, system und verfahren zu einem zumindest teilweise automatischen bearbeiten eines objekts Download PDFInfo
- Publication number
- WO2024104711A1 WO2024104711A1 PCT/EP2023/079264 EP2023079264W WO2024104711A1 WO 2024104711 A1 WO2024104711 A1 WO 2024104711A1 EP 2023079264 W EP2023079264 W EP 2023079264W WO 2024104711 A1 WO2024104711 A1 WO 2024104711A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- unit
- processing
- autonomous
- localization
- control unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 68
- 238000003754 machining Methods 0.000 title abstract 5
- 230000004807 localization Effects 0.000 claims abstract description 244
- 238000001514 detection method Methods 0.000 claims abstract description 192
- 238000005553 drilling Methods 0.000 claims abstract description 24
- 238000012545 processing Methods 0.000 claims description 424
- 230000008569 process Effects 0.000 claims description 15
- 230000001419 dependent effect Effects 0.000 claims description 2
- 238000012360 testing method Methods 0.000 description 53
- 230000003287 optical effect Effects 0.000 description 45
- 239000012530 fluid Substances 0.000 description 28
- 239000000463 material Substances 0.000 description 25
- 230000006870 function Effects 0.000 description 19
- 238000012546 transfer Methods 0.000 description 19
- 238000005516 engineering process Methods 0.000 description 17
- 238000004140 cleaning Methods 0.000 description 15
- 238000005259 measurement Methods 0.000 description 13
- 238000010276 construction Methods 0.000 description 12
- 238000005286 illumination Methods 0.000 description 11
- 239000003570 air Substances 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 238000010422 painting Methods 0.000 description 6
- 238000010408 sweeping Methods 0.000 description 5
- 239000012080 ambient air Substances 0.000 description 4
- 239000011888 foil Substances 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 238000009966 trimming Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 239000007789 gas Substances 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 239000012636 effector Substances 0.000 description 2
- 238000004146 energy storage Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000003534 oscillatory effect Effects 0.000 description 2
- 241001417527 Pempheridae Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 239000004567 concrete Substances 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23B—TURNING; BORING
- B23B39/00—General-purpose boring or drilling machines or devices; Sets of boring and/or drilling machines
- B23B39/14—General-purpose boring or drilling machines or devices; Sets of boring and/or drilling machines with special provision to enable the machine or the drilling or boring head to be moved into any desired position, e.g. with respect to immovable work
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23B—TURNING; BORING
- B23B49/00—Measuring or gauging equipment on boring machines for positioning or guiding the drill; Devices for indicating failure of drills during boring; Centering devices for holes to be bored
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25F—COMBINATION OR MULTI-PURPOSE TOOLS NOT OTHERWISE PROVIDED FOR; DETAILS OR COMPONENTS OF PORTABLE POWER-DRIVEN TOOLS NOT PARTICULARLY RELATED TO THE OPERATIONS PERFORMED AND NOT OTHERWISE PROVIDED FOR
- B25F5/00—Details or components of portable power-driven tools not particularly related to the operations performed and not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25H—WORKSHOP EQUIPMENT, e.g. FOR MARKING-OUT WORK; STORAGE MEANS FOR WORKSHOPS
- B25H1/00—Work benches; Portable stands or supports for positioning portable tools or work to be operated on thereby
- B25H1/0021—Stands, supports or guiding devices for positioning portable tools or for securing them to the work
- B25H1/0035—Extensible supports, e.g. telescopic
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/005—Manipulators for mechanical processing tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
- B25J13/089—Determining the position of the robot with reference to its environment
Definitions
- An autonomous or manual working device with a processing unit, with a movement unit for moving the processing unit and with a control unit at least for controlling the processing unit has already been proposed.
- the invention is based on an autonomous or manual working device, in particular a robot, with a processing unit, in particular a drilling unit, with a movement unit for moving the processing unit and with a control unit at least for controlling the processing unit.
- the working device has a detection unit arranged on the movement unit for detecting a localization reference element, wherein the control unit is provided to determine a position and an orientation of at least a part of the processing unit at least as a function of the localization reference element detected by means of the detection unit.
- Such a design of the working device enables a particularly precise localization of the processing unit. It can advantageously be achieved that a position and an orientation in a working environment of the processing unit can be determined precisely and/or reliably. Particularly precise autonomous processing of an object can be realized. Advantageously, collisions between the processing unit and objects in the working environment of the processing unit can be counteracted particularly reliably.
- the working device is preferably designed as a processing robot, in particular as a construction site robot.
- the working device is particularly preferably designed as a drilling robot.
- the working device is designed as a construction site robot that is different from a drilling robot, for example as a painting robot, as a window cleaning robot, as a sweeping machine robot, as an outdoor robot, for example as a mulching robot, as a hedge cutting robot, as a snow clearing robot, as a collecting robot, in particular for collecting leaves, branches or the like, as a combination of these or as another working device that appears to be useful to a specialist.
- the working device is designed in particular to be different from a stationary working device.
- the working device is preferably designed to be different from a device that is permanently installed in one position, in particular different from an industrial robot.
- the working device is designed to move independently.
- “Set up” is to be understood in particular as being specially programmed, specially designed and/or specially equipped.
- the fact that an object is set up for a specific function should be understood in particular to mean that the object fulfills and/or carries out this specific function in at least one application and/or operating state.
- the work device is preferably designed as a mobile work device.
- the work device is preferably designed to be mobile. Alternatively, however, it is also conceivable that the work device is designed as a drone.
- the working device is preferably provided for at least partially automatic processing of the object.
- the working device is provided for at least partially automatic creation of boreholes in the object.
- the working device is preferably provided for autonomous processing of the object, in particular for autonomous creation of boreholes in the object.
- “Provided” is to be understood as specifically set up, specifically designed and/or specially equipped.
- the fact that an object is intended for a specific function should be understood to mean that the object fulfills and/or carries out this specific function in at least one application and/or operating state.
- the object is a part of a building, for example a wall, a ceiling, a floor, a facade or the like.
- the object is different from a part of a building, for example a particularly fixed, preferably stationary, piece of furniture or the like.
- the processing unit preferably has a manipulator unit.
- the processing unit has a tool unit, in particular an end effector.
- the tool unit is preferably arranged on the manipulator unit, preferably on a free end of the manipulator unit.
- the tool unit preferably has a tool holder for holding a tool, a handheld power tool or the like.
- the tool is particularly preferably designed as a drill.
- the tool it is also conceivable for the tool to be designed as a brush, a squeegee, a grinding wheel, a saw blade, a hammer or another tool that appears useful to a person skilled in the art. It is conceivable that the tool and/or the handheld power tool are part of the tool unit.
- the handheld power tool is preferably designed as a drill.
- the handheld power tool can be designed as a commercially available handheld power tool.
- the handheld power tool can be designed as a battery-operated handheld power tool or as a corded handheld power tool.
- the hand-held power tool is specially designed to work together with the processing unit.
- the hand-held power tool is designed as a screwing machine, a jigsaw, a cut-off grinder, a circular saw, a demolition hammer, a nail gun, a grinding machine or any other hand-held power tool that appears to be useful to a person skilled in the art.
- the manipulator unit has, in particular, multi-axis kinematics.
- the manipulator unit preferably has a robot arm.
- the manipulator unit preferably has six degrees of freedom. Alternatively, however, It is also conceivable that the manipulator unit has fewer than six degrees of freedom.
- the manipulator unit can preferably be controlled via the control unit.
- the control unit is preferably provided to control the processing unit, in particular the manipulator unit and/or the tool unit, preferably the tool and/or the hand-held power tool, when processing the object.
- the propulsion unit is preferably provided for generating a propulsion force.
- the processing unit in particular the manipulator unit, is preferably arranged on, preferably on, the propulsion unit.
- the tool unit is preferably at least mechanically connected to the propulsion unit via the manipulator unit.
- the propulsion unit is in particular provided for moving the processing unit on a surface, for example a floor, a wall and/or a ceiling.
- the propulsion unit is preferably provided for moving the work device as a whole over the surface.
- the propulsion unit in particular has a chassis.
- the propulsion unit in particular the chassis, has, for example, a chain unit, a roller unit, a wheel unit, a propeller unit, a turbine unit or other means of propulsion that appear to be useful to a person skilled in the art, or a combination of these.
- the chain unit has in particular at least one chain drive, preferably at least two chain drives.
- the wheel unit comprises, for example, at least one wheel, preferably at least two wheels, preferably at least three wheels and particularly preferably at least four wheels.
- the roller unit comprises, for example, at least one roller, preferably at least two rollers, preferably at least three rollers and particularly preferably at least four rollers.
- the propulsion unit comprises at least one propeller unit, a turbine unit or the like for propulsion.
- the propeller unit has, for example, at least one propeller, preferably at least two propellers and particularly preferably at least four propellers.
- the turbine unit has, for example, at least one, preferably several, turbines.
- the propulsion unit preferably has at least one drive unit.
- the drive unit is provided to drive the chassis, preferably the wheel unit, the roller unit, the chain unit, the propeller unit or the like.
- the drive unit in particular comprises at least one electric motor or the like.
- a movement of a device frame of the work device, in particular of the propulsion unit is in particular coupled to a drive, in particular a movement, of the chassis.
- the chassis which is preferably driven by means of the drive unit, in particular a movement of the device frame relative to the ground, in particular relative to the working environment, can be generated.
- the movement of the device frame relative to the ground is particularly dependent on control by the control unit.
- the drive unit is provided to drive the chassis to a translatory and/or rotary movement of the device frame, particularly depending on control by the control unit.
- the control unit comprises in particular at least one processor and one memory element as well as an operating program stored on the memory element.
- the memory element is preferably designed as a digital storage medium, for example as a hard disk or the like.
- the working environment can be, for example, an interior area of a building, an exterior area, in particular of a building, or the like.
- the processing unit is in particular intended to process at least the object according to a processing plan.
- the processing plan is, for example, noted in a working environment model of the working environment.
- the working environment model is preferably a Building Information Modelling (BIM) model or the like.
- the processing plan is, for example, stored on the memory element of the control unit.
- the working environment model is preferably stored on the memory element of the control unit.
- the control unit is in particular intended to navigate the movement unit and/or the processing unit in the working environment, at least based on the processing plan and/or the working environment model.
- the working environment model is stored on an external unit, wherein the external unit is preferably data-based.
- the external unit can be connected to the work device, in particular wirelessly and/or wired.
- the external unit can be designed, for example, as a smartphone, as a cloud, as a central computer, as a server, as a laptop, as a smart home system or the like. It is also conceivable that the external unit has at least part of the control unit.
- the detection unit has, for example, a theodolite, a tachymeter or the like for detecting the at least one localization reference element.
- the detection unit in particular the theodolite or the tachymeter, is preferably set up for automatic detection of the localization reference element, in particular by means of the control unit.
- the localization reference elements are in particular objects specially designed for localization.
- the localization reference element is designed, for example, as a reflection marker, in particular as a triple mirror, as reflective foils, or the like.
- the detection unit is set up to automatically detect the localization reference element.
- the control unit is in particular provided to control the processing unit and/or the movement unit to move the processing unit and/or the movement unit in the work environment and/or to process the object by the processing unit depending on the at least one localization reference element arranged in the work environment.
- the detection unit has a lidar unit, a stereo camera, a time-of-flight camera, a camera system based on strip projection and/or other detection means that appear appropriate to a person skilled in the art for locating the work device, in particular the movement unit and/or the processing unit.
- the control unit is in particular intended to evaluate the information acquired by means of the acquisition unit based on a simultaneous localization and mapping (SLAM) method, preferably for a movement of the working device, preferably the processing unit and/or the movement unit, for a working position of the working device, in particular the movement unit.
- SLAM simultaneous localization and mapping
- the working position of the working device preferably only has information about a position of the working device, in particular the movement unit.
- the working position is preferably free of Information about an orientation, in particular about rotational positions, of the processing unit, preferably about the part of the processing unit.
- the working position is preferably stored in the processing plan, in particular in the work environment model.
- the control unit is preferably provided to move the work device, in particular the processing unit and/or the movement unit, to the working position for processing the at least one object depending on the processing plan and depending on the information recorded by the detection unit.
- the control unit is in particular provided to determine the position and orientation of at least the part of the processing unit after moving the work device, in particular the processing unit and/or the movement unit, to the working position, preferably with a fixed position of the movement unit.
- the determination of a position and an orientation of at least the part of the processing unit comprises in particular a determination of a position and all rotational positions of the part of the processing unit.
- the part of the processing unit preferably corresponds to the tool unit of the processing unit, in particular a tool, preferably a tool arranged on a handheld power tool of the tool unit, of the tool unit.
- the work device has a height-adjustable work platform which is arranged on the movement unit and on which the detection unit is arranged.
- the manipulator unit is arranged on the work platform.
- the work platform is preferably height-adjustable relative to a base on which the work device, in particular the movement unit, is arranged.
- the work device in particular has a lifting unit.
- the work platform is height-adjustable by means of the lifting unit.
- the lifting unit has, for example, a telescopic rod.
- the telescopic rod is designed, for example, as a hydraulic telescopic rod.
- the lifting unit has more than one telescopic rod.
- the lifting unit has a scissor lifting mechanism, a linear drive, for example a rack, a push chain, a ball screw drive, a linear motor, or the like.
- the work platform is connected to the movement unit in particular via the lifting unit, preferably the telescopic rod.
- the lifting unit is connected to the control unit in terms of control technology, in particular wirelessly and/or wired. It is conceivable that the lifting unit is part of the processing unit. Alternatively, it is also conceivable that the work platform is arranged on the manipulator unit of the processing unit in such a way that the work platform can be adjusted in height using the manipulator unit.
- the work device has an inclinometer, wherein the control unit is provided to determine the position and orientation of at least part of the processing unit in a work environment model, in particular the one already mentioned, depending on measured variables determined by means of the detection unit and the inclinometer.
- a design of the work device enables a coordinate system from the work environment model, in particular the processing plan, to be converted into a coordinate system of the processing unit.
- Particularly precise processing of an object can advantageously be made possible.
- the inclinometer is provided in particular for determining an inclination relative to a setup plane of the work device, preferably the movement unit.
- the inclinometer can be designed as a mechanical inclinometer, as an electrical inclinometer or as a digital inclinometer.
- the control unit is provided in particular to use at least one measured variable of the inclinometer to align the manipulator unit of the processing unit vertically.
- the control unit is preferably provided to transform a coordinate system of the manipulator unit into a vertical position depending on an inclination of the manipulator unit relative to the installation plane determined by means of the inclinometer.
- the work device in particular the movement unit, is preferably located in a fixed position when measured variables are recorded by the inclinometer and/or the recording unit for determining a position and an orientation of at least part of the processing unit.
- the working device has an inclinometer, in particular the one already mentioned above, wherein the control unit is provided to process at least one measurement value of the inclinometer to support detection of the at least one localization reference element.
- the control unit is provided to process at least one measurement value of the inclinometer to support detection of the at least one localization reference element.
- This can advantageously provide a particularly efficient, precise and/or rapid localization of the working device, in particular the processing unit and/or the movement unit.
- the at least one measurement variable of the inclinometer can be used in particular to support automatic detection of the at least one localization reference element by the detection unit by means of the control unit.
- control unit is provided to check for a need for additional localization reference elements.
- a need for the additional localization reference elements specially designed to support localization can be kept particularly low.
- user effort in particular due to the necessary attachment of additional navigation reference elements specially designed for localization, can be kept as low as possible.
- additional navigation reference elements can be dispensed with entirely.
- Autonomous localization of the work device, in particular of the processing unit and/or the movement unit can be achieved particularly cost-effectively.
- the control unit is preferably provided to check and/or determine a need for additional localization reference elements depending on the processing plan, in particular depending on the at least one work position.
- the control unit is in particular provided to determine, depending on the processing plan, preferably depending on the at least one working position, and/or on the basis of information on the working environment determined by means of the detection unit, at least one need for additional localization reference elements which the control unit requires in order to enable determination of the position and orientation of the part of the processing unit in the entire working environment or in a part of the working environment relevant with regard to processing of the at least one object.
- An extension of the part of the working environment relevant with regard to processing of the at least one object depends in particular on the processing plan, preferably the at least one working position.
- the additional localization reference elements are in particular objects specially designed for localization.
- the additional localization reference elements are preferably designed as reflection markers, in particular as triple mirrors, as reflective foils, or the like.
- the detection unit is preferably designed to detect the additional localization reference elements.
- the control unit is in particular intended to control the processing unit and/or the movement unit to localize the processing unit and/or the movement unit in the working environment and/or to process the object by the processing unit, in particular as required, depending on additional localization reference elements mounted in the working environment.
- the control unit is provided to determine a target mounting position for at least one additional localization reference element depending on a check of the need for additional localization reference elements.
- a required localization of the work device, in particular the processing unit and/or the movement unit, in the work environment can advantageously be ensured in a particularly convenient manner.
- a particularly high level of user comfort and/or a particularly low level of user effort can advantageously be achieved.
- the work device comprises an output unit.
- the output unit is designed, for example, as an optical output unit, an acoustic output unit, a haptic output unit or as a combination of these.
- the output unit has, for example, a screen, a loudspeaker, a light element, for example an LED, or the like.
- the output unit is provided to output the target mounting position.
- the target mounting position is displayed on a screen of the output unit and/or that the output unit is set up to project the target mounting position in the work environment.
- the working device in particular the processing unit, is designed to at least partially automatically attach the additional localization reference element to the desired mounting position.
- control unit is provided to determine an actual position of the at least one additional localization reference element by means of the detection unit, in particular the theodolite or the tachymeter.
- Additional localization reference elements for localizing the working device, in particular the processing unit and/or the movement unit can be used particularly comfortably and with particularly little user effort. Particularly efficient and/or precise operation of the work device can advantageously be enabled.
- the control unit is particularly provided to store the actual position of the additional localization reference element on the memory element of the control unit, particularly in the work environment model.
- the additional localization reference element can preferably be used to localize the work device, particularly the processing unit and/or the movement unit, in the work environment and/or to determine the position and orientation of at least part of the processing unit.
- a processing plan for the processing unit is stored on the control unit, whereby the need for additional localization reference elements depends on the processing plan.
- the need for additional localization reference elements specially designed to support localization can be kept to a minimum.
- a particularly low assembly effort for installing additional localization reference elements can advantageously be achieved.
- a system with the working device and with at least one localization reference element is proposed.
- Such a system enables particularly precise localization of the processing unit in a working environment. It can advantageously be achieved that a position and an orientation in the working environment of the processing unit can be determined precisely and/or reliably. Particularly precise autonomous processing of an object can be realized. Collisions of the processing unit with objects in the working environment of the processing unit can advantageously be counteracted particularly reliably.
- the invention is based on a method for at least partially automatic processing of an object, in particular the object already mentioned, in particular for at least partially automatic Creating boreholes in an object, preferably a part of a building, in particular the one already mentioned, by means of an autonomous or manual working device, in particular the one already mentioned, working device, or by means of a system, in particular the one already mentioned, system. It is proposed that a position and an orientation of at least part of a processing unit, in particular the one already mentioned, of the working device is determined at least as a function of a localization reference element detected by means of a detection unit of the working device, in particular the one already mentioned, arranged on a movement unit, in particular the one already mentioned, of a working device, in particular the one already mentioned.
- Such a method enables particularly precise localization of the processing unit in a working environment. It can advantageously be achieved that a position and an orientation in the working environment of the processing unit can be determined precisely and/or reliably. Particularly precise autonomous processing of an object can be realized. Collisions of the processing unit with objects in the working environment of the processing unit can advantageously be counteracted particularly reliably.
- the tool, the system and/or the method should not be limited to the application and embodiment described above.
- the tool, the system and/or the method can have a number of individual elements, components and units as well as method steps that differs from the number stated herein in order to fulfill a function described herein.
- values within the stated limits should also be considered disclosed and can be used as desired.
- Fig. 1 an autonomous working device and an object to be processed in a schematic representation
- Fig. 2 the autonomous work device in a working environment in a schematic plan view
- Fig. 3 a part of the autonomous working device with an interface device in a schematic view
- Fig. 4 shows a schematic flow of a method for at least partially automatic processing of an object
- Fig. 5 shows a schematic sequence of another method for at least partially automatically processing an object
- Fig. 6 a system with an autonomous working device in a first alternative embodiment and with a localization reference element and an object to be processed in a schematic representation
- Fig. 7 shows a schematic sequence of a method for at least partially automatically processing the object by means of the autonomous working device from Figure 6,
- Fig. 8 an autonomous working device in a second alternative embodiment and an object to be processed in a schematic representation
- Fig. 9 shows a schematic sequence of a method for at least partially automatically processing the object by means of the autonomous working device from Figure 8,
- Fig. 10 a system with an autonomous working device in a third alternative embodiment and with a projection unit and an object to be processed in a schematic representation
- Fig. 11 shows a schematic sequence of a method for at least partially automatically processing the object using the system of Figure 10
- Fig. 12 a system with an autonomous working device in a fourth alternative embodiment and with at least two localization elements and an object to be processed in a schematic representation
- Fig. 13 shows a schematic sequence of a method for at least partially automatically processing the object by means of the system from Figure 12.
- Figure 1 shows a system 36a with an autonomous working device 10a.
- the working device 10a is designed as a manual working device 10a.
- the autonomous working device 10a is designed as a construction site robot, in particular as a drilling robot.
- the autonomous working device 10a is designed as a construction site robot that is different from a drilling robot, for example as a painting robot, as a window cleaning robot, as a sweeping machine robot, as an outdoor robot, for example as a mulching robot, as a hedge trimming robot, as a snow clearing robot, as a collecting robot, in particular for collecting leaves, branches or the like, as a combination of these or as another autonomous working device 10a that appears to be useful to a person skilled in the art.
- the autonomous working device 10a is designed differently from a stationary autonomous working device.
- the autonomous working device 10a is designed differently from an autonomous device that is permanently installed in one position, in particular an industrial robot.
- the autonomous work device 10a is designed to move independently.
- the autonomous work device 10a is designed as a mobile autonomous work device.
- the autonomous work device 10a is designed to be mobile. Alternatively, however, it is also conceivable that the autonomous work device 10a is designed as a drone.
- the autonomous working device 10a is intended for at least partially automatic processing of an object 68a.
- the autonomous working device 10a is intended here, for example, for at least partially automatic creation of drill holes in the object 68a.
- the autonomous working device 10a is intended for independent processing of the object 68a, in particular for independent creation of drill holes in the object 68a.
- the object 68a is a part of a building, in particular a ceiling. Alternatively, it is conceivable that the object 68a is a wall, a floor, a facade, a piece of furniture or the like.
- the autonomous work device 10a has a processing unit 12a.
- the processing unit 12a has a drilling unit 88a, in particular is designed as a drilling unit 88a.
- the processing unit 12a has a tool unit 44a (see also Figure 3).
- the tool unit 44a is designed as an end effector.
- the tool unit 44a has a tool holder 120a for holding a hand-held power tool 122a.
- a hand-held power tool 122a is arranged on the tool holder 120a.
- the hand-held power tool 122a is part of the autonomous work device 10a, in particular the tool unit 44a.
- the tool unit 44a, in particular the hand-held power tool 122a can be controlled by the control unit 16a.
- the hand-held power tool 122a is designed as a drill.
- the hand-held power tool 122a can be designed as a commercially available hand-held power tool.
- the hand-held power tool 122a can be designed as a battery-operated hand-held power tool or as a corded hand-held power tool. Alternatively, it is also conceivable that the hand-held power tool 122a is specially designed to interact with the processing unit 12a. Alternatively, it is also conceivable that the hand-held power tool 122a is designed as a screwing machine, as a jigsaw, as a dowel inserter, as a slot cutter, as a cut-off grinder, as a circular saw, as a demolition hammer, as a nail gun, as a grinding machine or as another hand-held power tool that appears to be useful to a person skilled in the art.
- the tool holder 120a is designed to hold a tool or the like.
- the tool is, for example, designed as a drill, as a brush, as a squeegee, as a grinding wheel, as a saw blade, as a hammer or as another hand-held power tool that appears to be useful to a person skilled in the art.
- the tool is part of the tool unit 44a.
- the tool unit 44a is/is designed as a rotary drive, an oscillatory drive or the like for the tool.
- the tool holder 120a of the tool unit 44a has, for example, a two-point fastening to the handheld power tool 122a when the handheld power tool 122a is fastened to the tool holder 120a.
- the tool holder 120a has a one-point fastening or at least a three-point fastening to the handheld power tool 122a when the handheld power tool 122a is fastened to the tool holder 120a.
- the tool holder 120a preferably has a preferably dampened spring unit (not shown here), via which in particular the handheld power tool 122a and/or the tool is connected to the tool holder 120a when it is arranged on the tool holder 120a.
- the damping of the spring unit is adjustable.
- the spring unit has, for example, at least one spring element, in particular a coil spring, a leaf spring, a rubber-elastic element or the like.
- the processing unit 12a has a manipulator unit 72a.
- the manipulator unit 72a is designed as a robot arm.
- the manipulator unit 72a has multi-axis kinematics.
- the manipulator unit 72a has six degrees of freedom. Alternatively, however, it is also conceivable that the manipulator unit 72a has fewer than six degrees of freedom.
- the manipulator unit 72a can be controlled via the control unit 16a.
- the control unit 16a is provided to control the processing unit 12a, in particular the manipulator unit 72a and/or the tool unit 44a, preferably the hand-held power tool 122a, when processing the object 68a.
- the autonomous work device 10a has a movement unit 14a for moving the processing unit 12a.
- the movement unit 14a is provided for generating a movement force.
- the processing unit 12a in particular the manipulator unit 72a, is arranged on, preferably on, the movement unit 14a.
- the tool unit 44a is connected to the Manipulator unit 72a is at least mechanically connected to the movement unit 14a.
- the movement unit 14a is intended to move the processing unit 12a on a surface 150a, for example a floor, a wall and/or a ceiling.
- the movement unit 12a is intended to move the autonomous work device 10a as a whole over the surface 150a.
- the movement unit 14a has a chassis 128a.
- the movement unit 14a in particular the chassis 128a, has a wheel unit 124a.
- the wheel unit 124a comprises four wheels 126a (only two of the four wheels 126a are shown in Figure 1). Alternatively, it is also conceivable that the wheel unit 124a has only one wheel, two wheels, three wheels or more than four wheels.
- the propulsion unit 14a has a chain unit, a roller unit, a propeller unit or other means of propulsion that appear appropriate to a person skilled in the art, or a combination of these.
- the chain unit has in particular at least one chain drive, preferably at least two chain drives.
- the roller unit comprises, for example, at least one roller, preferably at least two rollers, preferably at least three rollers and particularly preferably at least four rollers.
- the propulsion unit 14a comprises at least one propeller unit or the like for propulsion.
- the propeller unit has, for example, at least one propeller, preferably at least two propellers and particularly preferably at least four propellers.
- the movement unit 14a has at least one drive unit (not shown here).
- the drive unit is intended to drive the chassis 128a, in particular the wheel unit 124a.
- the drive unit comprises at least one electric motor or the like.
- a movement of a device frame 130a of the autonomous work device 10a, in particular the movement unit 14a, is coupled to a drive, in particular a movement, of the chassis 128a.
- a movement of the device frame 130a can be generated by the chassis 128a, which is preferably driven by means of the drive unit.
- the autonomous working device 10a has a control unit 16a at least for controlling the processing unit 12a.
- the movement of the device frame 130a depends on a control by the control unit 16a.
- the drive unit is provided to drive the chassis 128a to perform a translatory and/or rotary movement of the device frame 130a, in particular depending on a control by the control unit 16a.
- the control unit 16a comprises in particular at least one processor and one memory element as well as an operating program stored on the memory element.
- the memory element is preferably designed as a digital storage medium, for example as a hard disk or the like.
- the processing unit 12a in particular the tool unit 44a and/or the manipulator unit 72a, can be controlled by means of the control unit 16a.
- the autonomous work device 10a has a height-adjustable work platform 32a.
- the autonomous work device 10a is designed free of a height-adjustable work platform 32a.
- the work platform 32a is arranged on the movement unit 14a.
- the manipulator unit 72a is arranged on the work platform 32a.
- the work platform 32a is height-adjustable relative to a base 150a on which the autonomous work device 10a, in particular the movement unit 14a, is arranged.
- the autonomous work device 10a has a lifting unit 144a.
- the work platform 32a is height-adjustable by means of the lifting unit 144a.
- the lifting unit 144a has a telescopic rod 146a.
- the telescopic rod 146a is designed as a hydraulic telescopic rod.
- the lifting unit 144a has more than one telescopic rod 146a.
- the lifting unit 144a has a scissor lifting mechanism, a linear drive, for example a rack, a push chain, a ball screw drive, a linear motor, or the like.
- the work platform 32a is connected to the movement unit 14a via the lifting unit 144a, in particular the telescopic rod 146a.
- the lifting unit 144a is connected to the control unit 16a in terms of control technology, in particular wirelessly and/or wired.
- the lifting unit 144a is part of the processing unit 12a.
- the work platform 32a is arranged on the manipulator unit 72a of the processing unit 12a in such a way that the work platform 32a is height-adjustable by means of the manipulator unit 72a.
- the control unit 16a is provided to classify the test object 18a as a localization reference object 20a at least depending on a comparison of a target parameter of at least one test object 18a in a working environment 26a of the processing unit 12a and an actual parameter of the at least one test object 18a.
- the working environment 26a here is, for example, an interior area of a building. Alternatively, it is also conceivable that the working environment is an outdoor area, in particular of a building, or the like.
- the test object 18a is a wall in the working environment 26a of the processing unit 12a.
- the test object 18a can alternatively also be the object 68a, in particular a ceiling, a floor, another, preferably fixed, part of a building or a fixed, in particular stationary, object in the working environment 26a.
- the target parameter of the test object 18a has at least one piece of information about a target position of the test object 18a.
- the target parameter of the test object 18a has information about at least one dimension, in particular a height and/or a width, of the test object 18a, a material parameter of the test object 18a, a surface parameter, for example a flatness, of the test object 18a, a temperature parameter of the test object 18a, a humidity parameter of the test object, a combination of these or the like.
- the target parameter is stored on the memory element of the control unit 14a, in particular in a work environment model of the work environment 26a.
- the work environment model is a Building Information Modeling (BIM) model or the like.
- the work environment model stores which objects in the work environment 26a are to be understood as test objects 18a.
- the work environment model is stored on the memory element of the control unit 16a.
- the work environment model is stored on an external unit (not shown here), wherein the external unit can preferably be connected to the autonomous work device 10a in terms of data technology, in particular wirelessly and/or wired.
- the external unit can be designed, for example, as a smartphone, as a cloud, as a central computer, as a server, as a laptop, as a smart home system or the like. It is also conceivable that the external unit has at least part of the control unit 16a.
- the processing unit 12a is provided to at least process the object 68a according to a Processing plan to be processed.
- the processing plan is stored, for example, on the memory element of the control unit 16a.
- the processing plan is noted, for example, in the work environment model.
- the control unit 16a is provided to navigate the movement unit 14a and/or the processing unit 12a in the work environment 26a, at least based on the processing plan and/or the work environment model.
- the autonomous work device 10a has at least one detection unit 30a.
- the detection unit 30a is arranged on the work platform 32a. Alternatively, it is also conceivable that the detection unit 30a is arranged on the processing unit 12a or on the movement unit 14a.
- the detection unit 30a is provided for detecting the actual characteristic of the test object 18a.
- the control unit 16a is provided for controlling the autonomous work device 10a, in particular the movement unit 14a and/or the processing unit 12a, depending on information detected by means of the detection unit 30a, preferably when localized in the work environment 26a, in particular when localized in the work environment 26a based on the processing plan and/or the work environment model.
- the detection unit 30a is designed as an optical detection unit.
- the detection unit 30a has at least one lidar unit (not shown here) for detecting the working environment 26a.
- the detection unit 30a has a stereo camera, a time-of-flight camera, a camera system based on strip projection and/or other detection means that appear useful to a person skilled in the art.
- the detection unit 30a is set up to detect the actual characteristic of the test object 18a or information for determining the actual characteristic of the test object 18a.
- the control unit 16a is provided to evaluate the information detected by means of the detection unit 30a, in particular the lidar unit, based on a simultaneous localization and mapping (SLAM) method.
- SLAM simultaneous localization and mapping
- the Simultaneous Localization and Mapping (SLAM) method is in particular a method for simultaneous position determination and map creation in robotics, wherein in particular within the method, preferably simultaneously, a virtual map of an environment and a spatial position of a movable unit, in particular the autonomous work device, within the virtual map are determined.
- the control unit 14a is provided to control the processing unit 12a depending on the at least one test object 18a classified as a localization reference object 20a.
- the control unit 16a is provided to control the movement unit 14a depending on the test object 18a classified as a localization reference object 20a.
- the control unit 16a is provided to control the processing unit 12a, in particular the manipulator unit 72a and/or the tool unit 44a, and/or the movement unit 14a depending on the test object 18a classified as a localization reference object 20a.
- the control unit 16a is provided to control the processing unit 12a and/or the movement unit 14a depending on the test object 18a classified as the localization reference object 20a for localization, in particular during a movement, of the processing unit 12a and/or the movement unit 14a in the work environment 26a.
- the control unit 16a is provided to control the processing unit 12a and/or the movement unit 14a depending on the test object 18a classified as the localization reference object 20a when the object 68a is processed by the processing unit 12a.
- the control unit 16a is provided to ignore a test object 18a that is excluded from classification as a localization reference object 20a as a result of the comparison of the actual characteristic of the test object 18a with the target characteristic of the test object 18a during a localization, in particular a movement, of the processing unit 12a and/or the movement unit 14a.
- the control unit 16a is provided to ignore a test object 18a that is excluded from classification as a localization reference object 20a as a result of the comparison of the actual characteristic of the test object 18a with the target characteristic of the test object 18a during a processing of the object 68a by the processing unit 12a.
- the control unit 16a is designed to determine a deviation of the actual parameter from the target parameter when comparing the target parameter of the test object 18a with the actual parameter of the test object 18a. If a value of the deviation of the actual parameter from the target parameter is within a tolerance range to a value of the target parameter, the control unit 16a classifies the Test object 18a as a localization reference object 20a. If a value of the deviation of the actual parameter from the target parameter is outside the tolerance range for a value of the target parameter, the test object 18a is excluded from classification as a localization reference object 20a by the control unit 16a.
- the tolerance range is defined in particular in the operating program, in particular stored in the work environment model. It is conceivable that the tolerance range is adjustable, in particular manually by an operator and/or automatically by the control unit 16a, for example depending on information stored in the work environment model.
- the control unit 16a is provided to identify sub-areas 90a, 92a of a working environment 26a in which a localization of the processing unit 12a is possible based on the at least one test object 18a, at least depending on a classification of the at least one test object 18a. For example, if the at least one test object 18a classified by the control unit 16a as a localization reference object 20a can be detected by the detection unit 30a in one of the sub-areas 90a, 92a, the processing unit 12a can be localized based on the test object 18a, preferably by means of the control unit 16a.
- a localization of the processing unit 12a in this other of the sub-areas 90a, 92a by the control unit 16a using localization reference objects 20a is unrealizable, in particular a sufficiently precise localization.
- Figure 2 shows, by way of example, a sub-area 90a of the working environment 26a in which the at least one test object 18a classified by the control unit 16a as a localization reference object 20a can be detected by the detection unit 30a, so that in the sub-area 90a a localization of the processing unit 12a is possible based on the at least one test object 18a.
- a further sub-area 92a of the working environment 26a is free of test objects 18a that can be detected by the detection unit 30a and that can be classified by the control unit 16a as localization reference objects 20a, so that in particular a localization of the processing unit 12a in the further sub-area 92a is possible based on Test objects 18a, in particular based on test objects 18a classified as localization reference objects 20a, is excluded by means of the control unit 16a.
- the control unit 16a is intended to use a support point 28a, 94a assigned to the processing unit 12a in the working environment 26a of the processing unit 12a to check a localization of the processing unit 12a at the support point 28a, 94a required for processing the object 68a.
- the support points 28a, 94a are stored in the working environment model.
- the support points 28a, 94a represent positions that enable autonomous localization and/or autonomous operation of the autonomous work device 10a, in particular the processing unit 12a and/or the movement unit 14a, in the entire work area 26a, in particular autonomous operation and/or autonomous navigation of the autonomous work device 10a, preferably the processing unit and/or the movement unit, for processing the object, preferably for carrying out the processing plan, if localization of the autonomous work device 10a, in particular the processing unit 12a and/or the movement unit 14a, is possible at the support points 28a, 94a.
- the control unit 16a is provided to check at least at the support points 28a, 94a, in particular based on information of the working environment 26a recorded by means of the recording unit 30a, whether a localization of the autonomous work device 10a, in particular the processing unit 12a and/or the movement unit 14a, is possible at the support points 28a, 94a based on the at least one test object 18a that can be classified as a localization reference object 20a.
- the control unit 16a is provided to check for a need for additional localization reference elements 22a.
- the control unit 16a is provided to check for a need for additional localization reference objects 22a, in particular one for localizing the processing unit 12a in the sub-areas 90a, 92a in which in particular a localization of the processing unit 12a is possible using the at least one test object 18a classifiable as a localization reference object 20a. classifiable test object 18a is excluded.
- control unit 16a is provided to determine a need for additional localization reference elements 22a, in particular a number of additional localization reference elements 22a required for localizing the processing unit 12a at the support points 28a, 94a, at which in particular localization of the processing unit 12a is excluded based on the at least one test object 18a classifiable as a localization reference object 20a.
- the need for additional localization reference elements 22a comprises only one additional localization reference element 22a, two additional localization reference elements 22a, at least three additional localization reference elements 22a or a plurality of additional localization reference elements 22a.
- the need for additional localization reference elements 22a depends on the processing plan.
- the additional localization reference elements 22a are objects specially designed for localization.
- the additional localization elements 22a are designed as reflection markers, in particular as triple mirrors, as reflective foils, or the like.
- the detection unit 30a is designed to detect the additional localization reference elements 22a.
- the control unit 16a is provided to control the processing unit 12a and/or the movement unit 14a to localize the processing unit 12a and/or the movement unit 14a in the work environment 26a and/or to process the object 68a by the processing unit 12a, in particular as required, depending on additional localization reference elements 22a mounted in the work environment 26a.
- the control unit 16a is provided to determine a target mounting position for at least one additional localization reference element 22a depending on a check of the need for additional localization reference elements 22a.
- the autonomous work device 10a comprises an output unit (not shown here).
- the output unit is designed, for example, as an optical output unit, an acoustic output unit, a haptic output unit or as a combination of these.
- the output unit has, for example, a screen, a light element, for example an LED or a laser, a loudspeaker or the like. It is conceivable that the output unit is provided to output the target mounting position.
- the target mounting position is displayed on a screen of the output unit and/or that the output unit is set up to project the target mounting position in the work environment 26a.
- the autonomous working device 10a in particular the processing unit 12a, is designed to at least partially automatically attach the additional localization reference element 22a to the desired mounting position.
- the autonomous work device 10a has an interface device 46a.
- the tool unit 44a is connected to the autonomous work device 10a, in particular the manipulator unit 72a of the processing unit 12a, by means of the interface device 46a.
- the interface device 46a has a robot tool connection unit 48a at least for a mechanical connection of the tool unit 44a to the autonomous work device 10a, in particular the manipulator unit 72a.
- the robot tool connection unit 48a is arranged on the manipulator unit 72a, preferably on a free end 118a of the manipulator unit 72a.
- the tool unit 44a, in particular the interface device 46a is arranged on the free end 118a of the manipulator unit 72a. It is conceivable that the robot tool connection unit 48a can be connected to a rotary drive, an oscillatory drive or the like of the tool unit 44a, in particular of the tool.
- the control unit 16a is provided to block or release a processing step 158a planned for the object 68a by the processing unit 12a depending on at least one surface characteristic of at least part of a surface 84a of the object 68a to be processed.
- the processing plan has at least the processing step 158a.
- the part of the surface 84a has at least one area to be processed in the processing step 158a. In particular, if the surface characteristic determined for the part of the surface 84a is within a limit range of a target value of the surface characteristic of the part of the surface 84a, the control unit 16a is provided to release the planned processing step 158a.
- the control unit 16a is provided to block the planned processing step 158a.
- the target value of the surface characteristic of the part of the surface 84a and/or the associated limit range are stored, for example, on the memory element of the control unit 16a, in particular in the work environment model.
- the surface characteristic contains at least information about a flatness of the part of the surface 84a.
- the flatness of a surface corresponds in particular to a value of a distance between two planes arranged parallel to one another, which are arranged at a minimum distance from one another, at which an entirety of the surface is arranged within the two planes.
- the surface characteristic contains information about a material of the part of the surface 84a or the like.
- the surface characteristic or information for determining the surface characteristic can be detected by the detection unit 30a, in particular the lidar unit of the detection unit 30a.
- An orientation of the detection unit 30a is preferably changeable, in particular adjustable.
- the detection unit 30a has an adjustment unit (not shown here) for adjusting an orientation of the detection unit 30a.
- the adjustment unit 30a preferably has a servomotor.
- the adjustment unit 30a is preferably at least in terms of control technology with the control unit 16a.
- the detection unit 30a is arranged on the processing unit 12a, in particular on the manipulator unit 72a, in such a way that an orientation of the detection unit 30a can be changed, in particular adjusted, by means of the manipulator unit 72a.
- the control unit 16a is provided to adjust an orientation of the detection unit 30a, in particular by controlling the adjustment unit, at least for detecting the at least one surface parameter.
- the autonomous work device 10a has a further detection unit, in particular a separate one from the detection unit 30a, in particular a further lidar unit or the like, for detecting the surface parameter or the information for determining the surface parameter.
- the control unit 16a is provided to enable the planned processing step 158a. If the flatness determined for the part of the surface 84a is outside a limit range of the target value of the flatness of the part of the surface 84a, the control unit 16a is provided to block the planned processing step 158a.
- the target value of the flatness of the part of the surface 84a and/or the associated limit range are stored, for example, on the memory element of the control unit 16a, in particular in the work environment model.
- the control unit 16a is provided to enable or block the processing step 158a planned for the object 68a by the processing unit 12a depending on an obstacle detection in a processing area 86a of the part of the surface 84a of the object 68a.
- Information about obstacle objects 96a in the processing area 86a can be detected by means of the obstacle detection.
- the detection unit 30a in particular the lidar unit of the detection unit 30a, is provided to detect obstacle objects 96a during obstacle detection.
- the autonomous work device 10a has a further detection unit for obstacle detection, in particular separate from the detection unit 30a.
- the processing area 86a is part of the working environment 26a, in particular an area around the part of the surface 84a in which the autonomous work device 10a, in particular the processing unit 12a and/or the movement unit 14a, moves when processing the object 68a, in particular when carrying out the planned processing step 158a.
- the part of the surface 84a is part of the processing area 86a. If an obstacle object 96a is detected in the processing area 86a during obstacle detection, the control unit 16a is provided to block the planned processing step 158a. If it can be determined during obstacle detection that the processing area 86a is free of obstacle objects 96a, the control unit 16a is provided to release the planned processing step 158a.
- the control unit 16a is provided to block the planned processing step 158a.
- the target value of the flatness of the part of the surface 84a and/or the associated limit range are stored, for example, on the memory element of the control unit 16a, in particular in the work environment model.
- the control unit 16a is provided to determine blocked movement areas for the processing unit 12a depending on the obstacle detection. If an obstacle object 96a is detected in an area in the work environment 26a, the control unit 16a is provided to classify the area as a blocked movement area.
- the control unit 16a is provided to control the processing unit 12a and/or the movement unit 14a in such a way that the autonomous work device 10a, in particular the processing unit 12a and/or the movement unit 14a, are always located outside of areas of the work environment 26a classified as blocked movement areas.
- Information on blocked movement areas can be stored, for example, on the memory element of the control unit 16a, in particular in the work environment model.
- the control unit 16a is designed to compare at least one piece of information from the obstacle detection with the working environment model. By comparing information from obstacle detection with the work environment model, it can be determined whether an obstacle identified during obstacle detection is known in the work environment model.
- control unit 16a is provided to release or block the planned processing step 158a depending on a comparison of information from the obstacle detection with the work environment model. For example, it is conceivable that the control unit 16a releases the planned processing step 158a if the comparison of information from the obstacle detection with the work environment model shows that an obstacle object 96a detected during the obstacle detection is already known in the work environment model. It is also conceivable, for example, that the control unit 16a is provided to block the planned processing step 158a if an obstacle object 96a detected during the obstacle detection is unknown in the work environment model.
- control unit 16a is provided to carry out a correction of the planned processing step 158a depending on a comparison of the work environment model with the information from the obstacle detection. For example, it is conceivable that by comparing the work environment model with the information from the obstacle detection, a position deviation of an obstacle object 96a known in the work environment model from the obstacle object 96a detected by the detection unit 30a in the work environment 26a can be determined by the control unit 16a.
- control unit 16a is provided to correct a processing coordinate, a processing angle, a processing duration, a processing intensity or the like of the planned processing step 158a depending on the comparison of the work environment model with the information from the obstacle detection, in particular depending on a position deviation, determined by means of the control unit 16a, of an obstacle object 96a known in the work environment model from the obstacle object 96a detected by means of the detection unit 30a in the work environment 26a.
- the robot tool connection unit 48a is designed to be modularly expandable for the arrangement of different interface function modules.
- the Interface modules can be detachably attached to the robot tool connection unit 48a. It is conceivable that at least some of the interface modules can be attached to the robot tool connection unit 48a without tools and/or detached from the robot tool connection unit 48a without tools.
- At least some of the interface modules are connected to the control unit 16a in terms of data and/or control technology when arranged on the robot tool connection unit 48a, in particular wirelessly and/or cable-based.
- the control unit 16a is provided for controlling at least some of the interface modules.
- the tool unit 44a is connected to the control unit 16a in terms of data and/or control technology when arranged on the robot tool connection unit 48a, in particular wirelessly and/or cable-based. It is conceivable that at least some of the interface modules have at least one valve for controlling the function of the respective interface module. It is conceivable that the robot tool connection unit 48a, in particular the control unit 16a, is set up to automatically detect a connection to one of the interface modules. It is also conceivable that the robot tool connection unit 48a, in particular the control unit 16a, is set up to automatically identify an interface module connected to the robot tool connection unit 48a.
- the robot tool connection unit 48a has at least one module interface (not shown here), preferably several module interfaces, for fastening at least one interface module, preferably several interface modules.
- the at least one module interface is preferably set up at least for a mechanical connection to at least one of the interface modules. It is conceivable that the at least one module interface is set up for an electrical connection to at least one of the interface modules, for example for an electrical power supply of the at least one interface module that can be arranged on the module interface.
- the at least one module interface is preferably set up for a data and/or control connection to at least one interface module arranged on the module interface.
- the interface device 46a has a sensor module 50a for detecting an environmental parameter and/or the tool unit 44a.
- the sensor module 50a is one of the above-mentioned interface modules. Alternatively, it is also conceivable that the interface device 46a is designed free of a sensor module 50a.
- the environmental parameter can, for example, have information about a distance of the tool unit 44a from the object 68a to be processed or another object in the work environment 26a, a temperature, in particular a temperature of the object 68a, another object and/or ambient air, an air humidity, a force acting on the robot-tool connection unit 48a, for example when processing the object 68a using the processing unit 12a, information about a gas composition in the ambient air, in particular about hazardous gases in the ambient air, an ambient air pressure, information about people in the work area 26a, a combination of these or the like.
- the sensor module 50a can, for example, detect an at least mechanical and/or electrical connection between the robot tool connection unit 48a and the tool unit 44a.
- the sensor module 50a is connected to the control unit 16a at least in terms of data technology, in particular wirelessly and/or wired.
- the sensor module 50a preferably has an optical sensor unit, for example a lidar unit, a laser interferometer or the like, and/or a capacitive sensor unit, preferably to detect the tool unit 44a, in particular to detect information about a connection between the robot tool connection unit 48a and the tool unit 44a.
- the optical sensor unit can be provided to detect information about a distance between the tool unit 44a and the object 68a to be processed or another object in the work environment 26a or the like.
- Sensor elements of the sensor module 50a in particular the optical sensor unit, are arranged on the robot tool connection unit 48a in a vibration-decoupled manner relative to the tool unit 44a and/or the robot tool connection unit 48a.
- the sensor module 50a has a temperature sensor, a humidity sensor, a barometer, a force sensor, a gas sensor or the like or a combination thereof.
- the interface device 46a has a power supply module 52a for transmitting energy to the tool unit 44a arranged on the robot tool connection unit 48a, in particular the handheld power tool 122a.
- the power supply module 52a is one of the above-mentioned interface modules. Alternatively, it is also conceivable that the interface device 46a is designed free of a power supply module 52a.
- the tool unit 44a, in particular the handheld power tool 122a, can be supplied with electrical energy via the power supply module 52a.
- the power supply module 52a has at least one electrical interface (not shown here) for an electrical connection to the tool unit 44a, preferably the handheld power tool 122a, in particular a power cable or a battery pack interface, of the tool unit 44a, in particular the handheld power tool 122a.
- the energy supply module 52a draws energy, in particular electrical energy, from an energy storage device (not shown here) of the autonomous work device 10a and/or that the energy supply module 52a has its own energy storage device, for example a rechargeable battery, a battery, a solar module or the like. It is conceivable that the energy supply module 52a is connected to the control unit 16a in terms of control technology and/or data technology, in particular wirelessly and/or wired, preferably at least in a state of the energy supply module 52a arranged on the robot tool connection unit 48a. Alternatively, it is conceivable that the energy supply module 52a is designed free of a data technology and/or control technology connection to the control unit 16a.
- the interface device 46a has a fluid transfer module 54a for transferring a fluid from the tool unit 44a arranged on the robot-tool connection unit 48a, in particular from the hand-held power tool 122a.
- the fluid transfer module 54a is one of the above-mentioned interface modules. Alternatively, it is also conceivable that the interface device 46a is designed free of a fluid transfer module 54a.
- the fluid transfer module 54a is one of the interface modules.
- the Fluid transfer module 54a has at least one fluidic interface (not shown here) for a fluidic connection to a suction element 136a, for example a hose, a pipe, an air connection piece or the like, of the tool unit 44a, in particular the handheld power tool 122a.
- the fluid transfer module 54a is provided for suctioning off a material that can be produced, in particular, by processing the object 68a by the processing unit 12a, in particular the tool unit 44a.
- the fluid transfer module 54a has a further fluidic interface (not shown here) for a fluidic connection to a suction unit (not shown here), in particular a suction hose 140a of the suction unit.
- a suction unit not shown here
- the suction unit is part of the autonomous work device 10a or that the suction unit is designed separately from the autonomous work device 10a.
- the fluid transfer module 54a has the suction unit.
- the suction unit has, for example, a fan or the like, in particular to generate an air flow for sucking away material.
- the suction unit is designed as a vacuum cleaner or the like.
- the fluid transfer module 54a is provided to connect the tool unit 44a, in particular the suction element 136a, to the suction unit. It is conceivable that the fluid transfer module 54a has at least one valve for controlling the function of the fluid transfer module 54a, in particular to regulate, preferably release and/or block fluid transfer through the fluid transfer module 54a. It is conceivable that the fluid transfer module 54a, in particular the valve of the fluid transfer module 54a, is connected to the control unit 16a in terms of control technology and/or data technology, preferably at least in a state of the fluid transfer module 54a arranged on the robot-tool connection unit 48a.
- the fluid transfer module 54a is designed to transfer a fluid, in particular a liquid, preferably water, and/or air, to the tool unit 44a arranged on the robot tool connection unit 48a, for example for cleaning the tool and/or the object 68a to be processed, in particular during processing by the processing unit 12a, in particular the tool unit 44a.
- the tool unit 44a has a Blow-out lance (not shown here) or the like, which is intended to blow material out of a borehole created by means of the processing unit 12a, preferably by means of air transmitted via the fluid transmission module 54a.
- the fluid transmission module 54a is provided for a fluidic drive of a tool unit 44a arranged on the robot tool connection unit 48a, in particular designed to be fluidically drivable. It is conceivable, for example, that a pneumatically drivable tool unit 44a can be pneumatically driven by means of the fluid transmission module 54a or can be connected to a pneumatic drive unit via the fluid transmission module 54a.
- the pneumatic drive unit can be part of the autonomous work device 10a or can be designed separately from the autonomous work device 10a.
- a hydraulically drivable tool unit 44a can be hydraulically driven by means of the fluid transmission module 54a or can be connected to a hydraulic drive unit via the fluid transmission module 54a.
- the hydraulic drive unit can be part of the autonomous working device 10a or can be designed separately from the autonomous working device 10a.
- the interface device 46a has a detection module 56a for identifying the tool unit 44a arranged on the robot tool connection unit 48a, in particular the handheld power tool 122a.
- the detection module 56a is one of the above-mentioned interface modules. Alternatively, it is also conceivable that the interface device 46a is designed free of a detection module 56a.
- the detection module 56a is connected to the control unit 16a in terms of data technology, in particular wirelessly and/or wired, at least in a state arranged on the robot tool connection unit 48a.
- the detection module 56a can identify the tool unit 44a, for example by means of RFID, mechanical coding, optical detection or the like, at least in a state of the tool unit 44a arranged on the robot tool connection unit 48a.
- the detection module 56a is, for example, designed to detect at least one tool type, a serial number or the like when identifying the tool unit 44a. tool unit 44a, in particular the hand-held power tool 122a.
- the interface device 46a has a material feed module 58a for feeding material to the tool unit 44a arranged on the robot-tool connection unit 48a.
- the material feed module 58a is one of the above-mentioned interface modules.
- the material feed module 58a is set up to feed dowels, paint, adhesive, concrete or the like.
- the material feed module 58a is connected to a material reservoir which is, for example, part of the autonomous work device 10a or is designed separately from the autonomous work device 10a, or itself has a material reservoir.
- the material reservoir has in particular the material to be conveyed to the tool unit 44a via the material feed module 58a.
- a material can be fed to the tool unit 44a via the material feed module 58a by means of a conveying unit, in particular a pump, a compressor or the like.
- a conveying unit in particular a pump, a compressor or the like.
- the conveyor unit is part of the material feed module 58a, part of the autonomous work device 10a or is designed separately from the autonomous work device 10a.
- the material feed module has at least one valve for controlling the function of the material feed module 58a, in particular to regulate, preferably release or block, a material transfer through the material feed module 58a.
- the material feed module 58a in particular the valve of the material feed module 58a, is connected to the control unit 16a in terms of control technology and/or data technology, preferably at least in a state of the material feed module 58a arranged on the robot-tool connection unit 48a.
- a connection of the tool unit 44a with the robot tool connection unit 48a can be made and/or released manually and/or at least partially automatically.
- the autonomous work device 10a has a tool magazine (not shown here).
- the tool magazine is designed separately from the autonomous work device 10a, preferably positioned stationary in the work environment 26a.
- the tool magazine has, for example, a large number of different Tool units.
- the interface device 46a is designed such that the tool units from the tool magazine can be coupled manually and/or automatically to the robot tool connection unit 48a.
- At least one mechanical connection of the tool unit 44a to the robot tool connection unit 48a can be established, for example, by means of a locking connection, a clamping connection, a bayonet lock or the like.
- the locking connection can be made, for example, by means of a locking hook and/or a ball catch.
- a connection of the robot tool connection unit 48a to the tool unit 44a is preferably based on the Poka-Yoke principle. It is conceivable that the robot tool connection unit 48a has a servomotor or the like for automatically releasing the connection between the tool unit 44a and the robot tool connection unit 48a. Alternatively or additionally, it is conceivable that the mechanical connection between the tool unit 44a and the robot-tool connection unit 48a can be automatically released by mechanical contact of the tool unit 44a and/or the robot-tool connection unit 48a with an object.
- the interface device 46a has a cleaning unit 60a.
- the cleaning unit 60a is intended to at least partially automatically clean the robot tool connection unit 48a and/or the tool unit 44a when the robot tool connection unit 48a is connected to the tool unit 44a.
- the cleaning unit 60a is set up for fluidic cleaning.
- the cleaning unit 60a has a fluid channel 142a.
- the fluid channel preferably runs at least partially through the robot tool connection unit 48a. By bringing the tool unit 44a closer to the robot tool connection unit 48a, an air flow can be generated in the fluid channel, which can be used in particular for cleaning the tool unit 44a and/or the robot tool connection unit 48a.
- the interface device 46a is designed free of a cleaning unit 60a. It is conceivable that the cleaning unit 60a is designed as one of the interface modules.
- Figure 4 shows a schematic sequence of a method for at least partially automatically processing the object 68a, in particular for a at least partially automatic creation of boreholes in the object 68a by means of the autonomous working device 10a, in particular by means of the processing unit 12a.
- the test object 18a is classified as a localization reference object 20a depending on a comparison of the target characteristic of the at least one test object 18a in the working environment of the processing unit 12a and the actual characteristic of the at least one test object 18a.
- a need for additional localization reference elements 22a is checked.
- sub-areas 90a, 92a of the working environment 26a are identified by means of the control unit 16a in which a localization of the processing unit 12a is possible using the at least one test object 18a.
- the checking step 98a it is checked whether in the sub-areas 90a, 92a relevant for the processing of the object 68a, in particular for the implementation of the processing plan, preferably whether at the support points 28a, 94a relevant for the processing of the object 68a, in particular for the implementation of the processing plan, a localization of the processing unit 12a is possible using the at least one test object 18a classified as a localization reference object 20a.
- a target assembly position for the at least one additional localization reference element 22a is determined by means of the control unit 16a, at least depending on a check of the need for additional localization reference elements 22a. It is conceivable that in a method step, in particular in the assembly planning step 102, a target assembly position determined for the at least one additional localization reference element 22a is output via the output unit, projected onto the target assembly position in the work environment 26a and/or stored in the work environment model.
- the at least one additional localization reference element 22a is attached to the desired assembly position of the additional localization reference element 22a, for example manually by a user or automatically by the autonomous working device 10a, in particular by the processing unit 12a.
- the object 68a is processed by means of the processing unit 12a.
- the object 68a in particular in the work step 104a, at least one borehole is created by means of the processing unit 12a.
- the processing unit 12a and/or the movement unit 14a is controlled by the control unit 16a, in particular in the work step 104a, when processing the object 68a and/or for localization in the work environment depending on the at least one test object 18a classified as a localization reference object 20a and/or depending on the at least one additional localization reference element 22a.
- Figure 5 shows a schematic sequence of a method, in particular the work step 104a from Figure 4, for at least partially automatically processing the object 68a, in particular for at least partially automatically creating boreholes in the object 68a by means of the autonomous work device 10a.
- a method step in particular in a release step 138a, the processing step 158a planned for the object 68a is blocked or released by the processing unit 12a depending on at least one surface characteristic of at least part of the surface 84a of the object 68a.
- the planned processing step is corrected depending on the comparison of the information from the obstacle detection in the processing area 86a of the processing unit 12a with the working environment model.
- the planned processing step 158a which in particular may be corrected in the correction step 106a, is carried out.
- Further embodiments of the invention are shown in Figures 6 to 13.
- the following descriptions and the drawings are essentially limited to the differences between the embodiments, whereby with regard to components with the same designation, in particular with regard to components with the same reference numerals, reference can also be made to the drawings and/or the description of the other embodiments, in particular Figures 1 to 5.
- the letter a is placed after the reference numerals of the embodiment in Figures 1 to 5.
- the letter a is replaced by the letters b to e.
- Figure 6 shows a system 36b with an autonomous working device.
- the working device 10b is designed as a manual working device 10b and with at least one localization reference element 22b.
- the autonomous working device 10b is designed as a construction site robot, in particular as a drilling robot.
- the autonomous working device 10b is designed as a construction site robot that is different from a drilling robot, for example as a painting robot, as a window cleaning robot, as a sweeping machine robot, as an outdoor robot, for example as a mulching robot, as a hedge trimming robot, as a snow clearing robot, as a collecting robot, in particular for collecting leaves, twigs or the like, as a combination of these or as another autonomous working device 10b that appears useful to a specialist.
- the autonomous working device 10b has a processing unit 12b.
- the processing unit 12b has a drilling unit 88b and is designed in particular as a drilling unit 88b.
- the autonomous working device 10b has a movement unit 14b for moving the processing unit 12b.
- the autonomous working device 10b has a control unit 16b at least for controlling the processing unit 12b.
- the autonomous working device 10b has a detection unit 30b arranged on the movement unit 14b for detecting the at least one localization reference element 22b.
- the detection unit 30b has, for example, a theodolite, a tachymeter or the like for detecting the Localization reference element 22b.
- the detection unit 30b in particular the theodolite or the tachymeter, is set up for automatic detection of the localization reference element 22b, in particular by means of the control unit 16b.
- the localization reference element 22b is designed, for example, as a reflection marker, in particular as a triple mirror, as reflective foils, or the like.
- the control unit 16b is provided to control the processing unit 12b and/or the movement unit 14b to move the processing unit 12b and/or the movement unit 14b in one of the working environments 26b and/or to process an object 68b by the processing unit 12b depending on the at least one localization reference element 22b arranged in the working environment 26b.
- the detection unit 30b has a lidar unit, a stereo camera, a time-of-flight camera, a camera system based on strip projection and/or other detection means that appear useful to a person skilled in the art for localizing the autonomous work device 10b, in particular the movement unit 14b and/or the processing unit 12b.
- the control unit 16b is provided to evaluate the information acquired by means of the acquisition unit 30b based on a simultaneous localization and mapping (SLAM) method, preferably for a movement of the autonomous work device 10b, preferably the processing unit 12b and/or the movement unit 14b, for a working position of the autonomous work device 10b, in particular the movement unit 14b.
- the working position of the autonomous work device 10b only has information about a position of the autonomous work device 10b, in particular the movement unit 14b.
- the working position is free of information about an orientation, in particular about rotational positions, of the processing unit 12b, preferably about the part of the processing unit 12b.
- the working position is stored in the processing plan, in particular in the work environment model.
- the control unit 16b is intended to control the autonomous work device 10b, in particular the processing unit 12b and/or the movement unit 14b, depending on the processing plan and depending on the data acquired by means of the detection unit 30b. recorded information to the working position for processing the at least one object 68b.
- the control unit 16b is provided to determine a position and an orientation of at least part of the processing unit 12b, at least as a function of the localization reference element 22b detected by means of the detection unit 30b.
- the determination of a position and an orientation of at least part of the processing unit 12b includes determining a position and all rotational positions of the part of the processing unit 12b.
- the part of the processing unit 12b here corresponds, for example, to a tool unit 44b of the processing unit 12b, in particular a tool, in particular a tool arranged on a hand-held power tool of the tool unit 44b, of the tool unit 44b.
- the control unit 16b is provided to determine the position and the orientation of at least part of the processing unit 12b after moving the autonomous work device 10b, in particular the processing unit 12b and/or the movement unit 14b, to the working position, preferably with a fixed position of the movement unit 14b.
- the autonomous work device 10b has a height-adjustable work platform 32b.
- the work platform 32b is arranged on the movement unit 14b.
- the detection unit 30b is arranged on the work platform 32b.
- a manipulator unit 72b of the processing unit 12b is arranged on the work platform 32b.
- the work platform 32b is height-adjustable relative to a base 150b on which the autonomous work device 10b, in particular the movement unit 14b, is arranged.
- the autonomous work device 10b has a lifting unit 144b.
- the work platform 32b is height-adjustable by means of the lifting unit 144b.
- the lifting unit 144b has a telescopic rod 146b.
- the telescopic rod 146b is designed as a hydraulic telescopic rod.
- the lifting unit 144b has more than one telescopic rod 146b.
- the lifting unit 144b has a scissor lifting mechanism, a linear drive, for example a rack, a push chain, a ball screw drive, a linear motor, or the like.
- the working platform 32b is connected to the movement unit via the lifting unit 144b, in particular the telescopic rod 146b. 14b.
- the lifting unit 144b is connected to the control unit 16b in terms of control technology, in particular wirelessly and/or wired.
- the lifting unit 144b is part of the processing unit 12b.
- the work platform 32b is arranged on the manipulator unit 72b of the processing unit 12b in such a way that the work platform 32b is height-adjustable by means of the manipulator unit 72b.
- the manipulator unit 72b is designed as a robot arm.
- the manipulator unit 72b has multi-axis kinematics.
- the manipulator unit 72b has six degrees of freedom. Alternatively, however, it is also conceivable that the manipulator unit 72b has fewer than six degrees of freedom.
- the autonomous work device 10b has an inclinometer 34b.
- the inclinometer 34b is provided for determining an inclination relative to a mounting plane 42b of the autonomous work device 10b, in particular the movement unit 14b.
- the control unit 16b is provided for determining the position and orientation of at least part of the processing unit 12b in a work environment model depending on measured variables determined by means of the detection unit 30b and the inclinometer 34b.
- the inclinometer 34b can be designed as a mechanical inclinometer, as an electrical inclinometer or as a digital inclinometer.
- the control unit 16b is provided to use at least one measurement variable of the inclinometer 34b to vertically align the manipulator unit 72b of the processing unit 12b.
- the control unit 16b is provided to transform a coordinate system of the manipulator unit 72b into a vertical position depending on an inclination of the manipulator unit 72b relative to the installation plane 42b determined by means of the inclinometer 34b.
- the autonomous work device 10b in particular the movement unit 14b, is preferably located in a fixed position when measurement variables are detected by the inclinometer 34b and/or the detection unit 30b to determine a position and an orientation of at least part of the processing unit.
- the control unit 16b is provided to process at least one measurement value of the inclinometer 34b to support detection of the at least one localization reference element 22b.
- the at least one measurement value The inclinometer 34b can be used to assist in the automatic detection of the at least one localization reference element 22b by the detection unit 30b by means of the control unit 16b.
- the control unit 16b is provided to check a need for additional localization reference elements 108b.
- the control unit 16b is provided to check and/or determine a need for additional localization reference elements 108b depending on the processing plan, in particular depending on the at least one work position.
- the control unit 16b is provided to determine at least one need for additional localization reference elements 108b depending on the processing plan, preferably depending on the at least one work position, and/or based on information on the work environment 26b determined by means of the detection unit 30b, which the control unit 16b requires in order to enable determination of the position and orientation of the part of the processing unit 12b in the entire work environment 26b or in a part of the work environment 26b relevant with regard to processing of the at least one object 68b.
- An extension of the part of the working environment 26b relevant with regard to processing of the at least one object 68b depends in particular on the processing plan, preferably of the at least one working position.
- the control unit 16b is provided to determine a target mounting position for at least one additional localization reference element 108b depending on a check of the need for additional localization reference elements 108b.
- the autonomous work device 10b comprises an output unit (not shown here).
- the output unit is designed, for example, as an optical output unit, an acoustic output unit, a haptic output unit or as a combination of these.
- the output unit has, for example, a screen, a loudspeaker, a light element, for example an LED, or the like. It is conceivable that the output unit is provided to output the target mounting position.
- the target mounting position is displayed on a screen of the output unit and/or that the output unit is set up to project the target mounting position in the work environment 26b.
- the autonomous working device 10b in particular the processing unit 12b, is designed to at least partially automatically attach the additional localization reference element 108b to the desired mounting position.
- the control unit 16b is provided to determine an actual position of the additional localization reference element 108b by means of the detection unit 30b, in particular the theodolite or the tachymeter.
- the control unit 16b is provided to store the actual position of the additional localization reference element 108b on the storage element of the control unit 16b, in particular in the work environment model.
- the additional localization reference element 108b can be used to localize the autonomous work device 10b, in particular the processing unit 12b and/or the movement unit 14b, in the work environment 26b and/or to determine the position and orientation of at least part of the processing unit 12b.
- Figure 7 shows a schematic sequence of a method for at least partially automatically processing the object 68b, in particular for at least partially automatically creating boreholes in the object 68b by means of the autonomous working device 10b.
- the autonomous work device 10b in particular the movement unit 14b, is moved in the work environment 26b as a function of information recorded by the detection unit 30b about the work environment 26b, in particular as a function of the at least one localization reference element 22b, preferably by means of a control by the control unit 16b.
- the autonomous work device 10b preferably the movement unit 14b, is controlled by the control unit 16b, in particular in the localization step 160b, to move the autonomous work device 10b to the working position of the processing unit 12b as a function of information recorded by the detection unit 30b.
- a measurement variable determined by means of the inclinometer 34b is used to support an automatic detection of the at least one localization reference element 22b.
- a localization reference element 22b by the detection unit 30b is processed by the control unit 16b.
- a position and an orientation of at least part of the processing unit 12b are determined at least as a function of the localization reference element 22b detected by means of the detection unit 30b arranged on the movement unit 14b.
- the autonomous work device 10b, in particular the movement unit 14b are located in a fixed position, in particular at the working position, in particular when measuring variables are detected by the inclinometer 34b and/or the detection unit 30b for determining a position and an orientation of at least part of the processing unit 12b.
- the object 68b is processed by means of the processing unit 12b.
- the object 68b in particular in the work step 104b, at least one borehole is created by means of the processing unit 12b.
- the processing unit 12b and/or the movement unit 14b are/is controlled by the control unit 16b when processing the object 68b, in particular in the work step 104b, depending on the position and orientation of at least part of the processing unit 12b in the work environment model, as determined in particular in the position determination step 110b.
- Figure 8 shows an autonomous working device 10c.
- the working device 10c is designed as a manual working device 10c.
- the autonomous working device 10c is designed as a construction site robot, in particular as a drilling robot.
- the autonomous working device 10c is designed as a construction site robot that is different from a drilling robot, for example as a painting robot, as a window cleaning robot, as a sweeping machine robot, as an outdoor robot, for example as a mulching robot, as a hedge cutting robot, as a snow clearing robot, as a collecting robot, in particular for collecting leaves, branches or the like, as a combination of these or as another autonomous working device 10c that appears to be useful to a specialist.
- the autonomous Working device 10c has a processing unit 12c.
- the processing unit 12c is designed as a drilling unit.
- the autonomous working device 10c has a movement unit 14c for moving the processing unit 12c.
- the autonomous working device 10c has a control unit 16c at least for controlling the processing unit 12c.
- the autonomous work device 10c has at least one detection unit 30c.
- the control unit 16c is intended to control the autonomous work device 10c, in particular the movement unit 14c and/or the processing unit 12c, depending on information detected by the detection unit 30c.
- the detection unit 30c is at least partially designed as an optical detection unit.
- the detection unit 30c has, for example, at least one lidar unit for detecting a work environment 26c.
- the detection unit 30c has a stereo camera, a time-of-flight camera, a camera system based on strip projection and/or other detection means that appear useful to a person skilled in the art.
- the control unit 16c is intended to evaluate the information detected by the detection unit 30c, in particular the lidar unit, based on a simultaneous localization and mapping (SLAM) method.
- the simultaneous localization and mapping (SLAM) method is in particular a method for simultaneous position determination and map creation in robotics, wherein in particular within the method, preferably simultaneously, a virtual map of an environment and a spatial position of a movable unit, in particular the autonomous work device 10c, are determined within the virtual map.
- the control unit 16c is provided to control the movement unit 14c during a movement in the work environment 26c depending on information about the work environment 26c acquired by means of the detection unit 30c, preferably the lidar unit.
- the autonomous working device 10c has an inclinometer 34c.
- the inclinometer 34c is used to determine an inclination relative to a mounting plane 42c of the autonomous working device 10c, in particular the
- the inclinometer 34c can be designed as a mechanical inclinometer, as an electrical inclinometer or as a digital inclinometer.
- the autonomous work device 10c has a rangefinder 38c.
- the rangefinder 38c is designed as an electro-optical rangefinder, in particular as a laser interferometer. Alternatively, it is also conceivable that the rangefinder 38c is designed as an optical rangefinder.
- the rangefinder 38c is provided for determining a distance to objects in the work environment.
- the rangefinder 38c is arranged on the processing unit 12c.
- the control unit 16c is provided to determine a position and an orientation of at least part of the processing unit 12c in a work environment model depending on measured variables determined by means of the inclinometer 34c and the rangefinder 38c.
- the determination of a position and an orientation of at least part of the processing unit 12c includes determining a position and all rotational positions of the part of the processing unit 12c.
- the part of the processing unit 12c here corresponds, for example, to a tool unit 44c of the processing unit 12c, in particular a tool, for example a tool arranged on a hand-held power tool, of
- the control unit 16c is provided to use at least one measurement value of the inclinometer 34c to align the distance meter 38c.
- the control unit 16c is provided to use at least one measurement value of the inclinometer 34c to vertically align a manipulator unit 72c of the processing unit 12c.
- the control unit 16c is provided to transform a coordinate system of the manipulator unit 72c into a vertical position depending on an inclination of the manipulator unit 72c relative to the installation plane 42c determined by means of the inclinometer 34c.
- the control unit 16c is provided to control the processing unit 12c and/or the movement unit 14c after a transformation of the coordinate system of the manipulator unit 72c into the vertical position to move the processing unit 12c to a processing position of the processing unit 12c.
- the processing position only contains information about a position of the autonomous work device, in particular the processing unit 12c.
- the processing position is at least free of information about an orientation, in particular about rotational positions, of the processing unit 12c, preferably about the part of the processing unit 12c.
- the processing position is stored in the processing plan, in particular in the work environment model.
- the autonomous work device 10c, in particular the movement unit 14c, are in a fixed position, in particular when measuring variables are recorded by the inclinometer 34c and/or the rangefinder 38c to determine a position and an orientation of at least the part of the processing unit 12c.
- the rangefinder 38c is provided to detect a measurement variable in at least two different angular positions in order to determine the position and orientation of the part of the processing unit 12c in the work environment model when the rangefinder 38c is aligned using the inclinometer 34c.
- the rangefinder 38c is arranged, in particular when the inclinometer 34c is aligned, such that a detection direction of the rangefinder 38c in a vertically aligned state of the manipulator unit 72c when the manipulator unit 72c rotates about an axis 40c runs in a plane that runs at least substantially perpendicular to the axis 40c.
- the axis 40c runs in the vertical direction.
- the control unit 16c is provided to control the manipulator unit 72c to rotate about the axis 40c so that the rangefinder 38c detects a measurement variable in the at least two different angular positions.
- the control unit 16c is provided to determine an actual position of at least one object classified in the work environment model as a localization reference object 20c in the work environment model and in particular to compare it with a target position from the work environment model.
- the object classified as a localization reference object 20c can be, for example, a wall, the object to be processed, a ceiling, a floor, a facade, another, preferably fixed, part of a building or a fixed, in particular stationary, object in the working environment 26c. It is It is conceivable that objects can be classified as a localization reference object 20c automatically by the autonomous work device 10c and/or manually by a user. An object is classified as a localization reference object 20c by means of the control unit 16c, in particular by comparing a target characteristic of the object and an actual characteristic of the object. The control unit 16c is provided to determine a deviation of the actual characteristic from the target characteristic when comparing the target characteristic of the object with the actual characteristic of the object.
- the control unit 16c is provided to classify the object as a localization reference object 20c if a value of the deviation of the actual characteristic from the target characteristic lies within a tolerance range to a value of the target characteristic. If a value of the deviation of the actual characteristic from the target characteristic lies outside the tolerance range for a value of the target characteristic, the object is excluded in particular from classification as a localization reference object 20c by the control unit 16c.
- the tolerance range is defined in the operating program, in particular stored in the work environment model. It is conceivable that the tolerance range is adjustable, in particular manually by an operator and/or automatically by the control unit 16c, for example depending on information stored in the work environment model. It is also conceivable that different objects in the work environment 26c are assigned different tolerance ranges in the work environment model.
- the control unit 16c is provided to determine a normal of the localization reference object 20c from the comparison of the actual position with the target position.
- the control unit 16c is provided to use the actual position of the object classified as the localization reference object 20c in the working environment 26c and its normal to determine the position and the orientation of the part of the processing unit 12c in the working environment model.
- the control unit 16c is preferably provided to convert a totality of coordinates from the processing plan into the coordinate system of the manipulator unit 72c, in particular into a coordinate system of at least the part of the processing unit 12, from the determined orientation and position of at least the part of the processing unit 12.
- the control unit 16c is preferably provided to enable the processing unit 12c and/or the movement unit 14c to process an object 68c depending on the determined To control the orientation and position of at least part of the processing unit 12c.
- the autonomous work device 10c has a height-adjustable work platform 32c.
- the work platform 32c is arranged on the movement unit 14c.
- the rangefinder 38c is arranged on the work platform 32c.
- the rangefinder 38c is arranged on the manipulator unit 72c, in particular on a free end 118c of the manipulator unit 72c.
- the inclinometer 34c is arranged on the work platform 32c.
- the inclinometer 34c is arranged on the manipulator unit 72c, in particular on the free end 118c of the manipulator unit 72c.
- the inclinometer 34c is arranged separately from the manipulator unit 72c, in particular the processing unit 12c, on the work platform 32c or that the inclinometer 34c is arranged on, in particular in, a housing 152c of the autonomous work device 10c, in particular the movement unit 14c.
- Figure 9 shows a schematic sequence of a method for at least partially automatically processing the object, in particular for at least partially automatically creating boreholes in the object by means of the autonomous working device 10c.
- the autonomous work device 10c in particular the movement unit 14c, is moved in the work environment 26c as a function of information about the work environment 26c acquired by means of the detection unit 30c, preferably the lidar unit, preferably by means of a control by the control unit 16c.
- the autonomous work device 10c preferably the movement unit 14c, is, in particular in the localization step 160c, controlled by the control unit 16c to move the autonomous work device 10c to an area of the processing position of the processing unit 12c as a function of information acquired by means of the detection unit 30c, preferably the lidar unit.
- the distance meter 38c is measured by means of the inclinometer 34c.
- the rangefinder 38c is rotated about the axis 40c, in particular in the detection step 112c, to detect one measurement variable in each of the at least two angular positions.
- the rangefinder 38c detects at least one measurement variable in at least two different angular positions, in a state aligned by means of the inclinometer 34c, in particular in the detection step 112c.
- the autonomous working device 10c in particular the movement unit 14c, is located in a fixed position, in particular when measuring variables are recorded by the inclinometer 34c and/or the rangefinder 38c to determine a position and an orientation of at least part of the processing unit 12c.
- a position and orientation of at least part of the processing unit 12c in the working environment model are determined as a function of measured variables determined by means of the inclinometer 34c and by means of the rangefinder 38c.
- the object 68c is processed by means of the processing unit 12c.
- the object 68c in particular in the work step 104c, at least one borehole is created by means of the processing unit 12c.
- the processing unit 12c and/or the movement unit 14c are controlled by the control unit 16c, in particular in the work step 104c, when processing the object 68c depending on the position and orientation of at least part of the processing unit 12c in the work environment model, as determined in particular in the position determination step 110c.
- Figure 10 shows a system 36d with an autonomous working device 10d.
- the working device 10d is designed as a manual working device 10d.
- the autonomous working device 10d is designed as a construction site robot, in particular as a drilling robot.
- the autonomous working device 10d is designed as a construction site robot that is different from a drilling robot, for example as a painting robot, as a Window cleaning robot, as a sweeper robot, as an outdoor robot, for example as a mulching robot, as a hedge trimming robot, as a snow clearing robot, as a collecting robot, in particular for collecting leaves, branches or the like, as a combination of these or as another autonomous working device lOd which appears to be useful to a person skilled in the art.
- a drilling robot for example as a painting robot, as a Window cleaning robot, as a sweeper robot, as an outdoor robot, for example as a mulching robot, as a hedge trimming robot, as a snow clearing robot, as a collecting robot, in particular for collecting leaves, branches or the like, as a combination of these or as another autonomous working device lOd which appears to be useful to a person skilled in the art.
- the autonomous working device lOd has a processing unit 12d.
- the processing unit 12d is designed as a drilling unit.
- the autonomous working device lOd has a movement unit 14d for moving the processing unit 12d.
- the autonomous working device lOd has a control unit 16d at least for controlling the processing unit 12d.
- the autonomous working device lOd is provided for at least partially automatically processing an object 68d, in particular by means of the processing unit 12d.
- the autonomous working device lOd is provided here, by way of example, for at least partially automatically creating drill holes in the object 68d.
- the processing unit 12d is provided, for example, to process at least the object 68d according to a processing plan.
- the processing plan is stored, for example, on the memory element of the control unit 16d.
- a work environment model of a work environment 26d of the autonomous work device 10d, in particular of the processing unit 12d, is stored on the control unit 16d, in particular the memory element of the control unit 16d.
- the work environment model is a Building Information Modeling (BIM) model or the like.
- BIM Building Information Modeling
- the processing plan is noted in the work environment model.
- the control unit 16d is provided to navigate the movement unit 14d and/or the processing unit 12d in the work environment 26d, at least based on the processing plan and/or the work environment model.
- the autonomous work device 10d has a detection unit 30d.
- the detection unit 30d is designed as an optical detection unit.
- the detection unit 30d has a camera 148d.
- the detection unit 30d, in particular the camera 148d has an image sensor (not shown here).
- the control unit 16d is provided to evaluate the information recorded by the camera for a localization, in particular for a movement, of the autonomous work device 10d, in particular of the processing unit 12d and/or the movement unit 14d, in the work environment 26d, in particular for a work position.
- the camera is provided to record a surface characteristic or information for determining the surface characteristic in a provided processing area 86d of the object 68d.
- the work position of the autonomous work device 10d is a position of the autonomous work device 10d, in particular of the movement unit 14d, in the work environment 26d, at which the object 68d can be processed by the processing unit 12d, in particular using an optical localization element 64d.
- the system 36d has a projection unit 62d at least for generating the optical localization element 64d.
- the optical localization element 64d is designed as a line element.
- the optical localization element 64d is formed by electromagnetic radiation, preferably by visible light.
- the optical localization element 64d is a laser line.
- the projection unit 62d has a line laser for generating the optical localization element 64d.
- the projection unit 62d has a projector or the like for generating the optical localization element 64d.
- the optical localization element 64d preferably has a straight line.
- the optical localization element 64d is designed as a circle, a point or the like.
- the projection unit 62d in particular a projection of the optical localization element 64d, is aligned with a marking point 66d.
- the marking point 66d is defined by a marking element arranged in the working environment 26d, in particular on the object 68d to be processed. Alternatively or additionally, it is conceivable that the marking point 66d is stored in the working environment model.
- the marking element here is, for example, a drill hole. Alternatively, however, it is also conceivable that the marking element is a reflection pin, a light element, for example an LED, a Color marker, a shape marker, a combination of these or the like.
- the marking element can be automatically attached or generated at the marking point 66d by the autonomous work device 10d, in particular the processing unit 12d.
- the marking element can be attached or generated at the marking point 66d by a user or by the user controlling the autonomous work device 10d, or that the marking element can be generated or arranged at the marking point 66d using a device separate from the autonomous work device 10d, for example a drilling machine.
- the projection unit 62d can be aligned at the marking point 66d, for example, by a user. Alternatively, however, it is also conceivable that the projection unit 62d is set up for automatic alignment, in particular free of user intervention, for example by means of a detection unit for detecting the marking point 66d or the like.
- the projection unit 62d is designed separately from the autonomous work device 10d.
- the projection unit 62d is provided to project the optical marking element 64d, in particular the line element, onto the processing area 86d and directly onto the detection unit 30d, in particular the image sensor, in particular simultaneously.
- the projection unit 62d is provided to project the optical localization element 64d directly onto the detection unit 30d, preferably the image sensor.
- the projection unit 62d is configured and/or arranged such that the optical localization element 64d between the projection unit 62d and the detection unit 30d, in particular the image sensor, does not encounter any reflection surfaces or the like.
- the control unit 16d is provided to control the movement unit 14d and/or the processing unit 12d depending on the optical localization element 64d projected directly onto the detection unit 30d, in particular the image sensor, in particular for processing the object 68d, preferably at at least one processing point of the object 68d.
- the control unit 16d is provided to control the movement unit 14d and/or the processing unit 12d in such a way that the optical localization element 64d can be detected by the detection unit 30d, preferably is projected onto the detection unit 30d, preferably directly. It is It is conceivable that information about a target position of the at least one processing point is stored in the processing plan, in particular in the work environment model. The processing point is in particular different from the marking point 66d.
- the control unit 16d is provided to control at least the processing unit 12d and in particular, if required, the movement unit 14d to process the object 68d along a processing line, in particular to create drill holes along the processing line.
- the at least one processing point is located in particular on the processing line.
- the processing line is specified by the optical localization element 64d in the work environment 26d. It is conceivable that information about the processing line, in particular about a position of the processing line, is stored in the processing plan, preferably in the work environment model.
- the control unit 16d is provided to control the processing unit 12d and in particular, if required, the movement unit 14d when processing the object 38d along the processing line, in particular the processing point, depending on the optical localization element 64d projected directly onto the detection unit, in particular the image sensor.
- the processing unit 12d has a manipulator unit 72d.
- a tool unit 44d of the processing unit 12d is arranged on the manipulator unit 72d, in particular on a free end 118d of the manipulator unit 72d.
- the detection unit 30d is arranged on the manipulator unit 72d.
- the tool unit 44d is provided for processing the object 68d.
- the tool unit 44d is set up here, for example, at least for producing drill holes.
- the control unit 16d is provided to align the manipulator unit 72d, in particular the tool unit 44d, depending on the optical localization element 64d.
- the control unit 16d is provided to align the manipulator unit 72d, in particular the tool unit 44d, depending on the localization element 64d for processing the object 68d, preferably along the processing line, preferably for processing the at least one processing point.
- the control unit 16d is provided, for example, to control the processing unit 12d and, if necessary, the movement unit 14d in such a way that the optical localization element 64d projected directly onto the detection unit 30d is arranged centrally on the image sensor.
- the manipulator unit 72d in particular the tool unit 44d, can be aligned because the control unit 16d controls the processing unit 12d and/or the movement unit 14d in such a way that the optical localization element 64d projected directly onto the detection unit 30d is arranged centrally on the image sensor.
- the image sensor has a rectangular sensor surface 162d.
- Figure 10 shows a schematic representation of the sensor surface 162d and the localization element 64d arranged centrally on the image sensor, in particular the sensor surface 162d.
- the sensor surface 162d is square, circular or has another surface shape that appears reasonable to a person skilled in the art.
- a main extension axis of the optical localization element 64d runs perpendicular to a main extension axis of the sensor surface 162d and in particular parallel to a main extension plane of the sensor surface 162d.
- the optical localization element 64d projected onto the detection unit 30d is arranged centrally, the main extension axis of the optical localization element 64d runs through a geometric center of the sensor surface 162d.
- the optical localization element 64d projected directly onto the detection unit 30d has a width.
- the width of the optical localization element 64d projected directly onto the detection unit 30d, in particular the image sensor runs perpendicular to the main extension axis of the optical localization element 64d projected directly onto the detection unit 30d, in particular the image sensor.
- the center of the optical localization element 64d projected directly onto the detection unit 30d, in particular the image sensor refers to the width.
- the control unit 16d is in particular provided to use an algorithm to determine the center.
- the control unit 16d is, for example, provided to apply the algorithm to a region determined by means of the detection unit 30d, in particular the camera 148d.
- the control unit 16d is configured to apply an algorithm analogous to a method by Lu Yonghua, Zhang Jia, Li Xiaoyan et al. (cf. Lu Yonghua, Zhang Jia, Li Xiaoyan. A robust method for adaptive center extraction of linear structured light stripe. Transactions of Nanjing University of Aeronautics and Astronautics. 2020, 37(4); 586-596).
- the detection unit 30d has a bandpass filter 70d adapted to the localization element 64d.
- the bandpass filter 70d is intended to allow only a wavelength range of the optical localization element 64d to pass through.
- Figure 11 shows a schematic sequence of a method for at least partially automatically processing the object 68d, in particular for at least partially automatically creating drill holes in the object 68d by means of the system 36d.
- a marking step in particular in a marking step 114d, a marking element is arranged or created at the marking point 66d.
- a projection of the optical localization element 64d, in particular the projection unit 62d, is aligned, preferably in the marking step 114d, at the marking point 66d, in particular at the marking element.
- the processing unit 12d and/or the movement unit 14d are/is controlled in a method step, in particular in a work step 104d, depending on the optical localization element 64d projected directly onto the detection unit 30d and preferably designed as a line element.
- the processing unit 12d and/or the movement unit 14d are/is controlled when processing the object 68d, preferably when processing the object 68d along the processing line, depending on the optical localization element 64d projected directly onto the detection unit 30d and preferably designed as a line element.
- Figure 12 shows a system 36e with an autonomous working device lOe. Alternatively, it is also conceivable that the working device lOe is designed as a manual working device lOe.
- the autonomous working device lOe has a processing unit 12e.
- the processing unit 12e is designed as a drilling unit.
- the autonomous working device lOe is designed as a construction site robot, in particular as a drilling robot.
- the autonomous working device lOe is designed as a construction site robot that is different from a drilling robot, for example as a painting robot, as a window cleaning robot, as a sweeping robot, as an outdoor robot, for example as a mulching robot, as a hedge trimming robot, as a snow clearing robot, as a collecting robot, in particular for collecting leaves, branches or the like, as a combination of these or as another autonomous working device lOe that appears to be useful to a person skilled in the art.
- the autonomous working device lOe has a movement unit 14e for moving the processing unit 12e.
- the autonomous working device lOe has a control unit 16e at least for controlling the processing unit 12e.
- the autonomous working device lOe is provided for at least partially automatically processing an object 68e, in particular by means of the processing unit 12e.
- the autonomous working device lOe is provided here, for example, for at least partially automatically creating boreholes in the object 68e.
- the system 36e has at least two localization elements 74e. Alternatively, however, it is also conceivable that the system 36e has a plurality of localization elements 74e, in particular more than two localization elements 74e.
- the localization elements 74e are designed here as reflection pins, for example. Alternatively, however, it is also conceivable that the localization elements 74e are designed as light elements, for example LEDs, color markers, shape markers, as a combination of these or the like.
- One localization element 74e of the two localization elements 74e is arranged at a first marking point 66e.
- Another localization element 74e of the two localization elements 74e is arranged at a second marking point 156e.
- the marking points 66e, 156e are each defined by a marking element arranged in a working environment 26e of the processing unit 12e, in particular on the object 68e to be processed. It is additionally or alternatively conceivable that the marking points 66e, 156e are stored in a working environment model of the working environment of the processing unit 12e.
- the marking elements are drill holes. Alternatively, it is conceivable that the marking elements are light elements, for example LEDs, color markers, shape markers, a combination of these or the like.
- the marking elements can be generated in particular automatically by the autonomous work device 10e, preferably the processing unit 12e, at the marking points 66e, 156e.
- the marking elements can be attached or generated at the marking points 66e, 156e by a user or by controlling the autonomous working device lOe by the user, or that the marking elements can be generated or arranged at the marking points 66e, 156e with a device separate from the autonomous working device lOe, for example a drilling machine.
- the control unit 16e is provided to control the movement unit 14e and/or the processing unit 12e depending on the two localization elements 74e, preferably depending on the respective positions of the two localization elements 74e, in particular for processing the object 68e, preferably at at least one processing point of the object 68e. It is conceivable that information on a target position of the at least one processing point is stored in the processing plan, in particular in the work environment model. The processing point is in particular different from the marking points 66e, 156e.
- the two localization elements 74e define a processing line 76e.
- the processing line 76e is a, preferably shortest, connecting line between the two localization elements 74e.
- the control unit 16e is provided to control at least the processing unit 12e, in particular after localization of the processing unit 12e and/or the movement unit to a working position of the autonomous work device 10e, preferably the movement unit 14e and/or the processing unit 12e, to process the object 68e, in particular to create a borehole in the Object 68e, along the processing line 76e, in particular depending on the two localization elements 74e.
- the working position of the autonomous work device lOe is a position of the autonomous work device lOe, preferably the movement unit 14e, in the working environment 26e, at which in particular the object 68e to be processed can be processed by the processing unit 12e, in particular based on the localization elements 74e.
- the autonomous work device 10e has at least one detection unit 30e.
- the detection unit 30e is provided to detect the at least one localization element 74e of the localization elements 74e.
- the detection unit 30e is designed as an optical detection unit.
- the detection unit 30e has a camera designed as an infrared camera 80e, in particular as a near-infrared camera, in particular for detecting the at least one localization element 74e.
- the control unit 16e is provided to control the movement unit 14e and/or the processing unit 12e in such a way that the at least one localization element 74e can be detected by the detection unit 30e.
- control unit 16e is provided to evaluate the information captured by the camera of the detection unit 30e for localizing the autonomous work device 10e, in particular the processing unit 12e and/or the movement unit 14e, in the work environment 26e, in particular the work position. It is alternatively or additionally conceivable that the camera of the detection unit is provided to capture the surface characteristic or information for determining the surface characteristic in the processing area.
- the autonomous work device 10e has at least one further detection unit 82e.
- the further detection unit 82e is provided to detect at least the further localization element 74e.
- the further detection unit 82e has an infrared camera 154e, in particular a near-infrared camera.
- the infrared camera 80e of the detection unit 30e is designed identically to the infrared camera 154e of the further detection unit 82e.
- the detection unit 30e and the further detection unit 82e are at least substantially facing away from each other.
- the control unit 16e is provided to control the movement unit 14e and/or the processing unit 12e in such a way that the at least one further localization element 74e can be detected by the further detection unit 82e.
- the control unit 16e is provided to control the movement unit 14e and/or the processing unit 12e in such a way that the two localization elements 74e can be detected by the detection unit 30e and the further detection unit 82e, preferably simultaneously.
- the processing unit 12e has a manipulator unit 72e.
- a tool unit 44e of the processing unit 12e is arranged on the manipulator unit 72e, in particular on a free end 118e of the manipulator unit 72e.
- the detection unit 30e and/or the further detection unit 82e are/is arranged on the manipulator unit 72e.
- the processing unit 12e, in particular the manipulator unit 72e is preferably arranged on, preferably on, the movement unit 14e.
- the tool unit 44e is provided for processing the object 68e.
- the tool unit 44e is set up here, for example, at least to create drill holes.
- the tool unit 44e is at least mechanically connected to the movement unit 14e via the manipulator unit 72e.
- the autonomous work device 10e has a lighting unit 78e.
- the lighting unit 78e has, for example, at least one light source (not shown here), for example an LED, a light bulb or the like.
- the lighting unit 78e preferably has several light sources (not shown here), preferably at least two light sources.
- the lighting unit 78e is provided to support the detection unit 30e, in particular the infrared camera 80e of the detection unit 30e, in detecting the at least one localization element 74e.
- the lighting unit 78e is provided to support the further detection unit 82e, in particular the infrared camera 154e of the further detection unit 82e, in detecting the further localization element 74e.
- the control unit 14e is provided to enable the detection unit 30e and the illumination unit 78e to capture an image of the localization element 74e by means of the detection unit 30e with active illumination by the illumination unit 78e and, in particular in an unchanged relative position of the autonomous work device 10e, in particular the processing unit 12e and/or the movement unit 14e, to the working environment 26e, to capture an image of the localization element 74e by means of the capture unit 30e free from active illumination by the illumination unit 78e.
- the control unit 14e is provided to control the further detection unit 82e and the lighting unit 78e to capture an image of the further localization element 74e by means of the further detection unit 82e with active lighting by the lighting unit 78e and, in particular in an unchanged relative position of the autonomous work device 10e, in particular the processing unit 12e and/or the movement unit 14e, to the work environment 26e, to capture an image of the further localization element 74e by means of the further detection unit 82e free of active lighting by the lighting unit 78e.
- the autonomous work device 10e in particular the processing unit 12e and/or the movement unit 14e, is in a fixed position relative to the work environment 26e.
- the control unit 16e is provided to process the images captured by means of the detection unit 30e with active illumination by the illumination unit 78e and free of active illumination 78e into a final image in which a background is subtracted to the localization element 74e.
- the control unit 16e is provided to process the images captured by means of the further detection unit 82e with active illumination by the illumination unit 78e and free of active illumination 78e into a final image in which a background is subtracted to the further localization element 74e.
- the control unit 16e is provided to align the processing unit 12e, in particular the manipulator unit 72e, preferably the tool unit 44e, depending on the two localization elements 74e, in particular for processing the object 68e along the processing line 76e.
- the control unit 16e is provided here, for example, to control the processing unit 12e and/or the movement unit 14e in such a way that the by means of the detection unit 30e and the further detection unit 82e, the localization elements 74e are arranged centrally in the respectively detected, in particular finally determined, image, in particular the respective image sensor.
- control unit 16e controls the processing unit 12e and in particular, if required, the movement unit 14e in such a way that the localization elements 74e detected by means of the detection unit 30e and the further detection unit 82e are arranged centrally in the respectively detected, in particular finally determined, image, in particular the respective image sensor, the manipulator unit 72e, in particular the tool unit 44e, can be aligned, in particular for processing the object 68e along the processing line 76e.
- the images captured by means of the capture unit 30e and/or the further capture unit 82e, in particular sensor surfaces 162e of the respective image sensors, have a rectangular landscape format here, for example.
- the sensor surfaces 162e of the capture unit 30e and the further capture unit 82e are shown schematically in Figure 12, with the captured localization elements 74e in particular being shown in an arrangement captured centrally on the sensor surfaces 162e.
- the capture unit 30e and/or the further capture unit 82e are set up to capture images in a square format or in a rectangular portrait format.
- a respective main extension axis of the localization elements 74e in the respective image runs through an image center of the respective image, in particular through a center of the respective sensor surface 162e.
- the respective main extension axis of the localization elements 74e in the respective image in particular on the respective sensor surface 162e, runs perpendicular to a main extension axis of the respective image, in particular perpendicular to a main extension axis of the respective sensor surface 162e, preferably in a rectangular landscape format of the images, in particular of the image sensors.
- Figure 13 shows a schematic sequence of a method for at least partially automatically processing the object 68e, in particular for at least partially automatically creating drill holes in the object 68e, by means of the system 36e.
- one of the two localization elements 74e is attached to the two marking points 66e, 156e, preferably automatically by means of the processing unit 12e of the autonomous working device 10e.
- the two localization elements 74e defining the processing line 76e for the processing unit 12e are detected, in particular by means of the detection unit 30e and the further detection unit 82e.
- the processing unit 12e and/or the movement unit 14e are controlled depending on the localization elements 74e.
- the processing unit 12e is aligned by means of a control by the control unit 16e using the two localization elements 74e, preferably before the object 12e is processed by the processing unit 12e.
- the processing unit 12e is preferably aligned in such a way that the localization elements 74e are arranged centrally on the images captured by the detection unit 30e and the further detection unit 82e, in particular on the respective image sensors of the detection unit 30e and the further detection unit 82e.
- the processing unit 12e and/or the movement unit 14e are/is controlled when processing the object 68e, preferably when processing the object 68e along the processing line 76e, depending on the localization elements 74e.
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
Die Erfindung geht aus von einem autonomen oder manuellen Arbeitsgerät (10b), insbesondere einem Roboter, mit einer Bearbeitungseinheit (12b), insbesondere einer Bohreinheit, mit einer Fortbewegungseinheit (14b) zu einem Fortbewegen der Bearbeitungseinheit (12b) und mit einer Steuereinheit (16b) zumindest zu einer Ansteuerung der Bearbeitungseinheit (12b). Es wird vorgeschlagen, dass das Arbeitsgerät (10b) eine an der Fortbewegungseinheit (14b) angeordnete Erfassungseinheit (30b) zur Erfassung zumindest eines Lokalisierungsreferenzelements (22b) aufweist, wobei die Steuereinheit (16b) dazu vorgesehen ist, zumindest in Abhängigkeit von dem mittels der Erfassungseinheit (30b) erfassten Lokalisierungsreferenzelement (22b) eine Position und eine Ausrichtung zumindest eines Teils der Bearbeitungseinheit (12b) zu ermitteln.
Description
Beschreibung
Autonomes oder manuelles Arbeitsgerät, System und Verfahren zu einem zumindest teilweise automatischen Bearbeiten eines Objekts
Stand der Technik
Es ist bereits ein autonomes oder manuelles Arbeitsgerät mit einer Bearbeitungseinheit, mit einer Fortbewegungseinheit zu einem Fortbewegen der Bearbeitungseinheit und mit einer Steuereinheit zumindest zu einer Ansteuerung der Bearbeitungseinheit vorgeschlagen worden.
Offenbarung der Erfindung
Die Erfindung geht aus von einem autonomen oder manuellen Arbeitsgerät, insbesondere einem Roboter, mit einer Bearbeitungseinheit, insbesondere einer Bohreinheit, mit einer Fortbewegungseinheit zu einem Fortbewegen der Bearbeitungseinheit und mit einer Steuereinheit zumindest zu einer Ansteuerung der Bearbeitungseinheit.
Es wird vorgeschlagen, dass das Arbeitsgerät eine an der Fortbewegungseinheit angeordnete Erfassungseinheit zur Erfassung eines Lokalisierungsreferenzelements aufweist, wobei die Steuereinheit dazu vorgesehen ist, zumindest in Abhängigkeit von dem mittels der Erfassungseinheit erfassten Lokalisierungsreferenzelement eine Position und eine Ausrichtung zumindest eines Teils der Bearbeitungseinheit zu ermitteln.
Durch eine derartige Ausgestaltung des Arbeitsgeräts kann eine besonders präzise Lokalisierung der Bearbeitungseinheit erfolgen. Es kann vorteilhaft erreicht
werden, dass eine Position und eine Ausrichtung in einer Arbeitsumgebung der Bearbeitungseinheit präzise und/oder zuverlässig bestimmbar sind. Es kann ein besonders präzises autonomes Bearbeiten eines Objekts realisiert werden. Vorteilhaft kann Kollisionen der Bearbeitungseinheit mit Objekten in der Arbeitsumgebung der Bearbeitungseinheit besonders zuverlässig entgegengewirkt werden.
Das Arbeitsgerät ist vorzugsweise als ein Bearbeitungsroboter, insbesondere als ein Baustellenroboter, ausgebildet. Besonders bevorzugt ist das Arbeitsgerät als ein Bohrroboter ausgebildet. Alternativ ist jedoch auch denkbar, dass das Arbeitsgerät als ein von einem Bohrroboter verschiedener Baustellenroboter, beispielsweise als ein Malerroboter, als ein Fensterputzroboter, als ein Kehrmaschinenroboter, als ein Außenbereichsroboter, beispielsweise als ein Mulchroboter, als ein Heckenschneidroboter, als ein Schneeräumroboter, als ein Sammelroboter, insbesondere zum Sammeln von Blättern, Zweigen oder dergleichen, als eine Kombination dieser oder als ein anderes, einem Fachmann als sinnvoll erscheinendes Arbeitsgerät ausgebildet ist. Das Arbeitsgerät ist insbesondere verschieden von einem stationären Arbeitsgerät ausgebildet. Vorzugsweise ist das Arbeitsgerät verschieden von einem an einer Position fest installierten Gerät, insbesondere verschieden von einem Industrieroboter, ausgebildet. Insbesondere ist das Arbeitsgerät dazu eingerichtet, sich selbstständig fortzubewegen. Unter „eingerichtet“ soll insbesondere speziell programmiert, speziell ausgelegt und/oder speziell ausgestattet verstanden werden. Darunter, dass ein Objekt zu einer bestimmten Funktion eingerichtet ist, soll insbesondere verstanden werden, dass das Objekt diese bestimmte Funktion in zumindest einem Anwendungs- und/oder Betriebszustand erfüllt und/oder ausführt. Das Arbeitsgerät ist bevorzugt als ein mobiles Arbeitsgerät ausgebildet. Bevorzugt ist das Arbeitsgerät fahrbar ausgebildet. Alternativ ist jedoch auch denkbar, dass das Arbeitsgerät als eine Drohne ausgebildet ist.
Das Arbeitsgerät ist vorzugsweise zu einem zumindest teilweise automatischen Bearbeiten des Objekts vorgesehen. Insbesondere ist das Arbeitsgerät zu einem zumindest teilweise automatischen Erzeugen von Bohrlöchern in dem Objekt vorgesehen. Das Arbeitsgerät ist bevorzugt zu einem selbstständigen Bearbeiten des Objekts vorgesehen, insbesondere zu einem selbstständigen Erzeugen von Bohrlöchern in dem Objekt. Unter „vorgesehen“ soll speziell eingerichtet, speziell
ausgelegt und/oder speziell ausgestattet verstanden werden. Darunter, dass ein Objekt zu einer bestimmten Funktion vorgesehen ist, soll verstanden werden, dass das Objekt diese bestimmte Funktion in zumindest einem Anwendungs- und/oder Betriebszustand erfüllt und/oder ausführt. Bevorzugt ist das Objekt ein Gebäudeteil, beispielsweise eine Wand, eine Decke, ein Boden, eine Fassade oder dergleichen. Alternativ ist jedoch auch denkbar, dass das Objekt verschieden von einem Gebäudeteil ist, beispielsweise ein, insbesondere feststehendes, vorzugsweise stationäres, Möbelstück oder dergleichen.
Die Bearbeitungseinheit weist vorzugsweise eine Manipulatoreinheit auf. Insbesondere weist die Bearbeitungseinheit eine Werkzeugeinheit, insbesondere einen Endeffektor, auf. Die Werkzeugeinheit ist bevorzugt an der Manipulatoreinheit, bevorzugt an einem freien Ende der Manipulatoreinheit, angeordnet. Die Werkzeugeinheit weist bevorzugt eine Werkzeugaufnahme zur Aufnahme eines Werkzeugs, einer Handwerkzeugmaschine oder dergleichen auf. Das Werkzeug ist besonders bevorzugt als ein Bohrer ausgebildet ist. Alternativ ist jedoch auch denkbar, dass das Werkzeug als ein Pinsel, als eine Rakel, als eine Schleifscheibe, als ein Sägeblatt, als ein Hammer oder als ein anderes, einem Fachmann als sinnvoll erscheinendes Werkzeug ausgebildet. Es ist denkbar, dass das Werkzeug und/oder die Handwerkzeugmaschine Teil der Werkzeugeinheit sind. Es ist auch denkbar, dass die Werkzeugeinheit, insbesondere das Werkzeug und/oder die Werkzeugeinheit, durch die Steuereinheit ansteuerbar ist. Die Handwerkzeugmaschine ist bevorzugt als eine Bohrmaschine ausgebildet. Die Handwerkzeugmaschine kann als eine handelsübliche Handwerkzeugmaschine ausgebildet sein. Die Handwerkzeugmaschine kann als eine akkubetriebene Handwerkzeugmaschine oder als eine kabelgebundene Handwerkzeugmaschine ausgebildet sein. Es ist alternativ auch denkbar, dass die Handwerkzeugmaschine speziell zu einem Zusammenwirken mit der Bearbeitungseinheit ausgebildet ist. Alternativ ist auch denkbar, dass die Handwerkzeugmaschine als eine Schraubmaschine, als eine Stichsäge, als ein Trennschleifer, als eine Kreissäge, als ein Abbruchhammer, als eine Nagelpistole, als eine Schleifmaschine oder als eine andere, einem Fachmann als sinnvoll erscheinende Handwerkzeugmaschine ausgebildet ist. Die Manipulatoreinheit weist insbesondere eine Mehrachskinematik auf. Die Manipulatoreinheit weist vorzugsweise einen Roboterarm auf. Die Manipulatoreinheit weist bevorzugt sechs Freiheitsgrade auf. Alternativ ist jedoch
auch denkbar, dass die Manipulatoreinheit weniger als sechs Freiheitsgrade aufweist. Die Manipulatoreinheit ist vorzugsweise über die Steuereinheit ansteuerbar. Bevorzugt ist die Steuereinheit dazu vorgesehen, die Bearbeitungseinheit, insbesondere die Manipulatoreinheit und/oder die Werkzeugeinheit, vorzugsweise das Werkzeug und/oder die Handwerkzeugmaschine, bei einem Bearbeiten des Objekts anzusteuern.
Die Fortbewegungseinheit ist vorzugsweise zu einer Erzeugung einer Fortbewegungskraft vorgesehen. Die Bearbeitungseinheit, insbesondere die Manipulatoreinheit, ist vorzugsweise an, bevorzugt auf, der Fortbewegungseinheit angeordnet. Die Werkzeugeinheit ist vorzugsweise über die Manipulatoreinheit mit der Fortbewegungseinheit zumindest mechanisch verbunden. Die Fortbewegungseinheit ist insbesondere dazu vorgesehen, die Bearbeitungseinheit auf einem Untergrund, beispielsweise einem Boden, einer Wand und/oder einer Decke, zu bewegen. Die Fortbewegungseinheit ist bevorzugt dazu vorgesehen, das Arbeitsgerät als Ganzes über den Untergrund zu bewegen. Die Fortbewegungseinheit weist insbesondere ein Fahrwerk auf. Die Fortbewegungseinheit, insbesondere das Fahrwerk, weist beispielsweise eine Ketten ei nh eit, eine Rolleneinheit, eine Radeinheit, eine Propellereinheit, eine Turbineneinheit oder andere, einem Fachmann als sinnvoll erscheinende Fortbewegungsmittel oder eine Kombination dieser auf.
Die Ketteneinheit weist insbesondere zumindest ein Kettenlaufwerk, vorzugsweise zumindest zwei Ketten laufwerke, auf. Die Radeinheit umfasst beispielsweise zumindest ein Rad, vorzugsweise zumindest zwei Räder, bevorzugt zumindest drei Räder und besonders bevorzugt zumindest vier Räder. Die Rolleneinheit umfasst beispielsweise zumindest eine Rolle, vorzugsweise zumindest zwei Rollen, bevorzugt zumindest drei Rollen und besonders bevorzugt zumindest vier Rollen. Insbesondere bei einem als Drohne ausgebildeten Arbeitsgerät umfasst die Fortbewegungseinheit zumindest eine Propellereinheit, eine Turbineneinheit oder dergleichen zur Fortbewegung. Die Propellereinheit weist beispielsweise zumindest einen Propeller, vorzugsweise zumindest zwei Propeller und besonders bevorzugt zumindest vier Propeller auf. Die Turbineneinheit weist beispielsweise zumindest eine, vorzugsweise mehrere, Turbinen auf.
Die Fortbewegungseinheit weist vorzugsweise zumindest eine Antriebseinheit auf. Insbesondere ist die Antriebseinheit dazu vorgesehen, das Fahrwerk, vorzugsweise die Radeinheit, die Rolleneinheit, die Ketten ei nh eit, die Propellereinheit oder dergleichen anzutreiben. Die Antriebseinheit umfasst insbesondere zumindest einen Elektromotor oder dergleichen. Eine Bewegung eines Geräterahmens des Arbeitsgeräts, insbesondere der Fortbewegungseinheit, ist insbesondere an einen Antrieb, insbesondere eine Bewegung, des Fahrwerks gekoppelt. Durch das, vorzugsweise mittels der Antriebseinheit, angetriebene Fahrwerk ist insbesondere eine Bewegung des Geräterahmens relativ zu dem Untergrund, insbesondere relativ zu der Arbeitsumgebung, erzeugbar.
Die Bewegung des Geräterahmens relativ zu dem Untergrund ist insbesondere abhängig von einer Ansteuerung durch die Steuereinheit. Die Antriebseinheit ist dazu vorgesehen, das Fahrwerk zu einer translatorischen und/oder rotatorischen Bewegung des Geräterahmens anzutreiben, insbesondere in Abhängigkeit von einer Ansteuerung durch die Steuereinheit. Die Steuereinheit umfasst insbesondere zumindest einen Prozessor und ein Speicherelement sowie ein auf dem Speicherelement gespeichertes Betriebsprogramm. Das Speicherelement ist vorzugsweise als digitales Speichermedium, beispielsweise als eine Festplatte oder dergleichen ausgebildet.
Die Arbeitsumgebung kann beispielsweise ein Gebäudeinnenbereich eines Gebäudes, ein Außenbereich, insbesondere eines Gebäudes, oder dergleichen sein. Die Bearbeitungseinheit ist insbesondere dazu vorgesehen, zumindest das Objekt nach einem Bearbeitungsplan zu bearbeiten. Der Bearbeitungsplan ist beispielsweise in einem Arbeitsumgebungsmodell der Arbeitsumgebung vermerkt. Das Arbeitsumgebungsmodell ist bevorzugt ein Building Information Modelling- (BIM-) Modell oder dergleichen. Der Bearbeitungsplan ist beispielsweise auf dem Speicherelement der Steuereinheit hinterlegt. Das Arbeitsumgebungsmodell ist vorzugsweise auf dem Speicherelement der Steuereinheit hinterlegt. Die Steuereinheit ist insbesondere dazu vorgesehen, die Fortbewegungseinheit und/oder die Bearbeitungseinheit, zumindest anhand des Bearbeitungsplans und/oder des Arbeitsumgebungsmodells in der Arbeitsumgebung zu navigieren. Alternativ ist auch denkbar, dass das Arbeitsumgebungsmodell auf einer externen Einheit gespeichert ist, wobei die externe Einheit bevorzugt datentechnisch
mit dem Arbeitsgerät verbindbar ist, insbesondere kabellos und/oder kabelgebunden. Die externe Einheit kann beispielsweise als ein Smartphone, als eine Cloud, als ein Zentralrechner, als ein Server, als ein Laptop, als ein Smart-Home System oder dergleichen ausgebildet sein. Es ist auch denkbar, dass die externe Einheit zumindest einen Teil der Steuereinheit aufweist.
Die Erfassungseinheit weist beispielsweise einen Theodolit, einen Tachymeter oder dergleichen zu einem Erfassen des zumindest einen Lokalisierungsreferenzelements auf. Die Erfassungseinheit, insbesondere der Theodolit oder das Tachymeter, ist vorzugsweise zu einem automatischen Erfassen des Lokalisierungsreferenzelements eingerichtet, insbesondere mittels der Steuereinheit. Die Lokalisierungsreferenzelemente sind insbesondere speziell zur Lokalisierung ausgebildete Objekte. Das Lokalisierungsreferenzelement ist beispielsweise als Reflexionsmarker, insbesondere als Tripelspiegel, als reflektierende Folien, oder dergleichen ausgebildet. Die Erfassungseinheit ist dazu eingerichtet, das Lokalisierungsreferenzelement automatisch zu erfassen. Die Steuereinheit ist insbesondere dazu vorgesehen, die Bearbeitungseinheit und/oder die Fortbewegungseinheit zu einer Bewegung der Bearbeitungseinheit und/oder der Fortbewegungseinheit in der Arbeitsumgebung und/oder zu einem Bearbeiten des Objekts durch die Bearbeitungseinheit in Abhängigkeit von dem zumindest einen in der Arbeitsumgebung angeordneten Lokalisierungsreferenzelement anzusteuern. Alternativ oder zusätzlich ist jedoch auch denkbar, dass die Erfassungseinheit eine Li- dareinheit, eine Stereokamera, eine Time-of- Flight- Kamera, ein auf Streifenprojektion basiertes Kamerasystem und/oder andere, einem Fachmann als sinnvoll erscheinende Erfassungsmittel zur Lokalisierung des Arbeitsgeräts, insbesondere der Fortbewegungseinheit und/oder der Bearbeitungseinheit, aufweist.
Die Steuereinheit ist insbesondere dazu vorgesehen, die mittels der Erfassungseinheit erfassten Informationen basierend auf einem Simultaneous Localization and Mapping- (SLAM) Verfahren auszuwerten, vorzugsweise zu einer Bewegung des Arbeitsgeräts, bevorzugt der Bearbeitungseinheit und/oder der Fortbewegungseinheit, zu einer Arbeitsposition des Arbeitsgeräts, insbesondere der Fortbewegungseinheit. Die Arbeitsposition des Arbeitsgeräts weist vorzugsweise lediglich Informationen zu einer Position des Arbeitsgeräts, insbesondere der Fortbewegungseinheit, auf. Die Arbeitsposition ist vorzugsweise frei von
Informationen zu einer Ausrichtung, insbesondere zu Drehlagen, der Bearbeitungseinheit, bevorzugt zu dem Teil der Bearbeitungseinheit. Die Arbeitsposition ist vorzugsweise in dem Bearbeitungsplan, insbesondere in dem Arbeitsumgebungsmodell, hinterlegt. Die Steuereinheit ist vorzugsweise dazu vorgesehen, das Arbeitsgerät, insbesondere die Bearbeitungseinheit und/oder die Fortbewegungseinheit, in Abhängigkeit von dem Bearbeitungsplan und in Abhängigkeit von den mittels der Erfassungseinheit erfassten Informationen zu der Arbeitsposition zur Bearbeitung des zumindest einen Objekts zu bewegen. Die Steuereinheit ist insbesondere dazu vorgesehen, die Position und die Ausrichtung zumindest des Teils der Bearbeitungseinheit nach einem Bewegen des Arbeitsgeräts, insbesondere der Bearbeitungseinheit und/oder der Fortbewegungseinheit, zu der Arbeitsposition zu bestimmen, bevorzugt bei fester Position der Fortbewegungseinheit. Die Ermittlung einer Position und einer Ausrichtung zumindest des Teils der Bearbeitungseinheit umfasst insbesondere eine Bestimmung einer Position und sämtlicher Drehlagen des Teils der Bearbeitungseinheit. Der Teil der Bearbeitungseinheit entspricht bevorzugt der Werkzeugeinheit der Bearbeitungseinheit, insbesondere einem Werkzeug, vorzugsweise einem an einer Handwerkzeugmaschine der Werkzeugeinheit angeordneten Werkzeug, der Werkzeugeinheit. Weiterhin wird vorgeschlagen, dass das Arbeitsgerät eine höhenverstellbare Arbeitsplattform aufweist, welche an der Fortbewegungseinheit angeordnet ist und auf welcher die Erfassungseinheit angeordnet ist. Vorteilhaft kann ein besonders flexibles und gleichzeitig präzises Bearbeiten eines Objekts ermöglicht werden. Insbesondere ist die Manipulatoreinheit auf der Arbeitsplattform angeordnet. Die Arbeitsplattform ist vorzugsweise relativ zu einem Untergrund, auf welchem das Arbeitsgerät, insbesondere die Fortbewegungseinheit, angeordnet ist, höhenverstellbar. Das Arbeitsgerät weist insbesondere eine Hubeinheit auf. Vorzugsweise ist die Arbeitsplattform mittels der Hubeinheit höhenverstellbar. Die Hubeinheit weist beispielsweise eine Teleskopstange auf. Die Teleskopstange ist beispielsweise als eine hydraulische Teleskopstange ausgebildet. Alternativ ist auch denkbar, dass die Hubeinheit mehr als eine Teleskopstange aufweist. Ferner ist alternativ oder zusätzlich denkbar, dass die Hubeinheit einen Scherenhubmechanismus, einen Linearantrieb, beispielsweise eine Zahnstange, eine Schubkette, einen Kugelgewindetrieb, einen Linearmotor, oder dergleichen aufweist. Die Arbeitsplattform ist insbesondere über die Hubeinheit, vorzugsweise die Teleskopstange, mit der Fortbewegungseinheit verbunden. Bevorzugt ist die Hubeinheit
steuerungstechnisch mit der Steuereinheit verbunden, insbesondere kabellos und/oder kabelgebunden. Es ist denkbar, dass die Hubeinheit Teil der Bearbeitungseinheit ist. Alternativ ist auch denkbar, dass die Arbeitsplattform derart an der Manipulatoreinheit der Bearbeitungseinheit angeordnet ist, dass die Arbeitsplattform mittels der Manipulatoreinheit höhenverstellbar ist.
Des Weiteren wird vorgeschlagen, dass das Arbeitsgerät einen Neigungsmesser aufweist, wobei die Steuereinheit dazu vorgesehen ist, die Position und die Ausrichtung zumindest des Teils der Bearbeitungseinheit in einem, insbesondere dem zuvor bereits genannten, Arbeitsumgebungsmodell in Abhängigkeit von mittels der Erfassungseinheit und des Neigungsmessers ermittelten Messgrößen zu ermitteln. Eine derartige Ausgestaltung des Arbeitsgeräts ermöglicht eine Umrechnung eines Koordinatensystems aus dem Arbeitsumgebungsmodell, insbesondere dem Bearbeitungsplan, in ein Koordinatensystem der Bearbeitungseinheit. Vorteilhaft kann ein besonders präzises Bearbeiten eines Objekts ermöglicht werden. Der Neigungsmesser ist insbesondere zu einer Ermittlung einer Neigung relativ zu einer Aufstellebene des Arbeitsgeräts, vorzugsweise der Fortbewegungseinheit, vorgesehen. Der Neigungsmesser kann als mechanischer Neigungsmesser, als elektrischer Neigungsmesser oder als digitaler Neigungsmesser ausgebildet sein. Die Steuereinheit ist insbesondere dazu vorgesehen, zumindest eine Messgröße des Neigungsmessers zu einem lotrechten Ausrichten der Manipulatoreinheit der Bearbeitungseinheit zu nutzen. Die Steuereinheit ist vorzugsweise dazu vorgesehen, ein Koordinatensystem der Manipulatoreinheit in Abhängigkeit von einer mittels des Neigungsmessers ermittelten Neigung der Manipulatoreinheit relativ zu der Aufstellebene in eine lotrechte Lage zu transformieren. Bevorzugt befindet sich das Arbeitsgerät, insbesondere die Fortbewegungseinheit, bei einer Erfassung von Messgrößen durch den Neigungsmesser und/oder die Erfassungseinheit zur Ermittlung einer Position und einer Ausrichtung zumindest des Teils der Bearbeitungseinheit an einer festen Position.
Außerdem wird vorgeschlagen, dass das Arbeitsgerät einen, insbesondere den zuvor bereits genannten, Neigungsmesser aufweist, wobei die Steuereinheit dazu vorgesehen ist, zumindest eine Messgröße des Neigungsmessers zur Unterstützung einer Erfassung des zumindest einen Lokalisierungsreferenzelements zu verarbeiten. Es kann vorteilhaft eine besonders effiziente, präzise und/oder
schnelle Lokalisierung des Arbeitsgeräts, insbesondere der Bearbeitungseinheit und/oder der Fortbewegungseinheit, erfolgen. Die zumindest eine Messgröße des Neigungsmessers ist insbesondere unterstützend bei einem automatischen Erfassen des zumindest einen Lokalisierungsreferenzelements durch die Erfassungseinheit mittels der Steuereinheit nutzbar.
Zudem wird vorgeschlagen, dass die Steuereinheit dazu vorgesehen ist, einen Bedarf an zusätzlichen Lokalisierungsreferenzelementen zu überprüfen. Vorteilhaft kann ein Bedarf an den speziell zur Lokalisierungsunterstützung ausgebildeten zusätzlichen Lokalisierungsreferenzelementen besonders gering gehalten werden. Durch eine derartige Ausgestaltung kann ein Nutzeraufwand, insbesondere durch ein notwendiges Anbringen von speziell zur Lokalisierung ausgebildeten zusätzlichen Navigationsreferenzelementen, möglichst gering gehalten werden. Es ist vorteilhaft denkbar, dass vollständig auf zusätzliche Navigationsreferenzelemente verzichtet werden kann. Es kann besonders kostengünstig eine autonome Lokalisierung des Arbeitsgeräts, insbesondere der Bearbeitungseinheit und/oder der Fortbewegungseinheit, erreicht werden. Vorzugsweise ist die Steuereinheit dazu vorgesehen, einen Bedarf an zusätzlichen Lokalisierungsreferenzelementen in Abhängigkeit von dem Bearbeitungsplan, insbesondere in Abhängigkeit von der zumindest einen Arbeitsposition, zu überprüfen und/oder zu ermitteln. Die Steuereinheit ist insbesondere dazu vorgesehen, in Abhängigkeit von dem Bearbeitungsplan, vorzugsweise in Abhängigkeit von der zumindest einen Arbeitsposition, und/oder anhand von mittels der Erfassungseinheit ermittelten Informationen zu der Arbeitsumgebung, zumindest einen Bedarf an zusätzlichen Lokalisierungsreferenzelementen zu ermitteln, welche die Steuereinheit benötigt, um eine Ermittlung der Position und Ausrichtung des Teils der Bearbeitungseinheit in der gesamten Arbeitsumgebung oder in einem hinsichtlich einer Bearbeitung des zumindest einen Objekts relevanten Teil der Arbeitsumgebung zu ermöglichen. Eine Ausdehnung des hinsichtlich einer Bearbeitung des zumindest einen Objekts relevanten Teils der Arbeitsumgebung hängt insbesondere von dem Bearbeitungsplan, vorzugsweise der zumindest einen Arbeitsposition, ab. Die zusätzlichen Lokalisierungsreferenzelemente sind insbesondere speziell zur Lokalisierung ausgebildete Objekte. Die zusätzlichen Lokalisierungsreferenzelemente sind bevorzugt als Reflexionsmarker, insbesondere als Tripelspiegel, als reflektierende Folien, oder dergleichen ausgebildet. Die Erfassungseinheit ist
vorzugsweise dazu eingerichtet, die zusätzlichen Lokalisierungsreferenzelemente zu erfassen. Die Steuereinheit ist insbesondere dazu vorgesehen, die Bearbeitungseinheit und/oder die Fortbewegungseinheit zu einer Lokalisierung der Bearbeitungseinheit und/oder die Fortbewegungseinheit in der Arbeitsumgebung und/oder zu einem Bearbeiten des Objekts durch die Bearbeitungseinheit, insbesondere bedarfsweise, in Abhängigkeit von in der Arbeitsumgebung montierten zusätzlichen Lokalisierungsreferenzelemente anzusteuern.
Ferner wird vorgeschlagen, dass die Steuereinheit dazu vorgesehen ist, in Abhängigkeit von einer Überprüfung des Bedarfs an zusätzlichen Lokalisierungsreferenzelementen eine Soll-Montageposition für zumindest ein zusätzliches Lokalisierungsreferenzelement zu bestimmen. Vorteilhaft kann eine benötigte Lokalisierung des Arbeitsgeräts, insbesondere der Bearbeitungseinheit und/oder der Fortbewegungseinheit, in der Arbeitsumgebung auf besonders komfortable Weise sichergestellt werden. Vorteilhaft kann ein besonders hoher Nutzerkomfort und/oder ein besonders geringer Nutzeraufwand erreicht werden. Beispielsweise umfasst das Arbeitsgerät eine Ausgabeeinheit. Die Ausgabeeinheit ist beispielsweise als eine optische Ausgabeeinheit, eine akustische Ausgabeeinheit, eine haptische Ausgabeeinheit oder als eine Kombination dieser ausgebildet. Die Ausgabeeinheit weist beispielsweise einen Bildschirm, einen Lautsprecher, ein Leuchtelement, beispielsweise eine LED, oder dergleichen auf. Es ist denkbar, dass die Ausgabeeinheit dazu vorgesehen ist, die Soll-Montageposition auszugeben. Beispielsweise ist denkbar, dass die Soll-Montageposition auf einem Bildschirm der Ausgabeeinheit angezeigt ist und/oder dass die Ausgabeeinheit zu einer Projektion der Soll-Montageposition in der Arbeitsumgebung eingerichtet ist. Alternativ oder zusätzlich ist auch denkbar, dass das Arbeitsgerät, insbesondere die Bearbeitungseinheit, dazu eingerichtet ist, das zusätzliche Lokalisierungsreferenzelement zumindest teilweise automatisch an der Soll-Montageposition zu befestigen.
Weiterhin wird vorgeschlagen, dass die Steuereinheit dazu vorgesehen ist, eine Ist-Position des zumindest einen zusätzlichen Lokalisierungsreferenzelements mittels der Erfassungseinheit, insbesondere dem Theodolit oder dem Tachymeter, zu ermitteln. Vorteilhaft können zusätzliche Lokalisierungsreferenzelemente zur Lokalisierung des Arbeitsgeräts, insbesondere der Bearbeitungseinheit
und/oder der Fortbewegungseinheit, besonders komfortabel und mit besonders geringem Nutzeraufwand genutzt werden. Vorteilhaft kann ein besonders effizienter und/oder präziser Betrieb des Arbeitsgeräts ermöglicht werden. Die Steuereinheit ist insbesondere dazu vorgesehen, die Ist-Position des zusätzlichen Lokalisierungsreferenzelements auf dem Speicherelement der Steuereinheit, insbesondere in dem Arbeitsumgebungsmodell, zu speichern. Das zusätzliche Lokalisierungsreferenzelement ist vorzugsweise zu einer Lokalisierung des Arbeitsgeräts, insbesondere der Bearbeitungseinheit und/oder der Fortbewegungseinheit, in der Arbeitsumgebung und/oder zu einer Ermittlung der Position und Ausrichtung zumindest des Teils der Bearbeitungseinheit nutzbar.
Des Weiteren wird vorgeschlagen, dass auf der Steuereinheit ein, insbesondere der zuvor bereits genannte, Bearbeitungsplan für die Bearbeitungseinheit hinterlegt ist, wobei der Bedarf an zusätzlichen Lokalisierungsreferenzelementen von dem Bearbeitungsplan abhängig ist. Vorteilhaft kann abhängig von einer vorgesehenen Bearbeitung des Objekts darauf verzichtet werden, eine Lokalisierbar- keit des Arbeitsgeräts in der gesamten Arbeitsumgebung sicherstellen zu müssen. Vorteilhaft kann ein Bedarf an speziell zur Lokalisierungsunterstützung ausgebildeten zusätzlichen Lokalisierungsreferenzelementen gering gehalten werden. Vorteilhaft kann ein besonders geringer Montageaufwand zur Montage von zusätzlichen Lokalisierungsreferenzelementen erreicht werden.
Außerdem wird ein System mit dem Arbeitsgerät und mit dem zumindest einen Lokalisierungsreferenzelement vorgeschlagen. Ein derartiges System ermöglicht eine besonders präzise Lokalisierung der Bearbeitungseinheit in einer Arbeitsumgebung. Es kann vorteilhaft erreicht werden, dass eine Position und eine Ausrichtung in der Arbeitsumgebung der Bearbeitungseinheit präzise und/oder zuverlässig bestimmbar sind. Es kann ein besonders präzises autonomes Bearbeiten eines Objekts realisiert werden. Vorteilhaft kann Kollisionen der Bearbeitungseinheit mit Objekten in der Arbeitsumgebung der Bearbeitungseinheit besonders zuverlässig entgegengewirkt werden.
Weiterhin geht die Erfindung aus von einem Verfahren zu einem zumindest teilweise automatischen Bearbeiten eines, insbesondere des zuvor bereits genannten, Objekts, insbesondere zu einem zumindest teilweise automatischen
Erzeugen von Bohrlöchern in einem Objekt, vorzugsweise einem, insbesondere dem zuvor bereits genannten, Gebäudeteil, mittels eines autonomen oder manuellen Arbeitsgeräts, insbesondere des zuvor bereits genannten, Arbeitsgeräts, oder mittels eines Systems, insbesondere des zuvor bereits genannten Systems. Es wird vorgeschlagen, dass zumindest in Abhängigkeit von einem mittels einer, insbesondere der zuvor bereits genannten, an einer, insbesondere der zuvor bereits genannten, Fortbewegungseinheit eines, insbesondere des zuvor bereits genannten, Arbeitsgeräts angeordneten Erfassungseinheit des Arbeitsgeräts erfassten Lokalisierungsreferenzelement eine Position und eine Ausrichtung zumindest eines Teils einer, insbesondere der zuvor bereits genannten, Bearbeitungseinheit des Arbeitsgeräts ermittelt wird. Ein derartiges Verfahren ermöglicht eine besonders präzise Lokalisierung der Bearbeitungseinheit in einer Arbeitsumgebung. Es kann vorteilhaft erreicht werden, dass eine Position und eine Ausrichtung in der Arbeitsumgebung der Bearbeitungseinheit präzise und/oder zuverlässig bestimmbar sind. Es kann ein besonders präzises autonomes Bearbeiten eines Objekts realisiert werden. Vorteilhaft kann Kollisionen der Bearbeitungseinheit mit Objekten in der Arbeitsumgebung der Bearbeitungseinheit besonders zuverlässig entgegengewirkt werden.
Das Arbeitsgerät, das System und/oder das Verfahren sollen/soll hierbei nicht auf die oben beschriebene Anwendung und Ausführungsform beschränkt sein. Insbesondere können/kann das Arbeitsgerät, das System und/oder das Verfahren zu einer Erfüllung einer hierin beschriebenen Funktionsweise eine von einer hierin genannten Anzahl von einzelnen Elementen, Bauteilen und Einheiten sowie Verfahrensschritten abweichende Anzahl aufweisen. Zudem sollen bei den in dieser Offenbarung angegebenen Wertebereichen auch innerhalb der genannten Grenzen liegende Werte als offenbart und als beliebig einsetzbar gelten.
Zeichnung
Weitere Vorteile ergeben sich aus der folgenden Zeichnungsbeschreibung. In der Zeichnung sind fünf Ausführungsbeispiele der Erfindung dargestellt. Die Zeichnung, die Beschreibung und die Ansprüche enthalten zahlreiche Merkmale in
Kombination. Der Fachmann wird die Merkmale zweckmäßigerweise auch einzeln betrachten und zu sinnvollen weiteren Kombinationen zusammenfassen.
Es zeigen:
Fig. 1 ein autonomes Arbeitsgerät und ein zu bearbeitendes Objekt in einer schematischen Darstellung,
Fig. 2 das autonome Arbeitsgerät in einer Arbeitsumgebung in einer schematischen Draufsicht,
Fig. 3 ein Teil des autonomen Arbeitsgeräts mit einer Schnittstellenvorrichtung in einer schematischen Ansicht,
Fig. 4 einen schematischen Ablauf eines Verfahrens zu einem zumindest teilweise automatischen Bearbeiten eines Objekts,
Fig. 5 einen schematischen Ablauf eines weiteren Verfahrens zu einem zumindest teilweise automatischen Bearbeiten eines Objekts,
Fig. 6 ein System mit einem autonomen Arbeitsgerät in einer ersten alternativen Ausführung und mit einem Lokalisierungsreferenzelement und ein zu bearbeitendes Objekt in einer schematischen Darstellung,
Fig. 7 einen schematischen Ablauf eines Verfahrens zu einem zumindest teilweise automatischen Bearbeiten des Objekts mittels des autonomen Arbeitsgeräts aus Figur 6,
Fig. 8 ein autonomes Arbeitsgerät in einer zweiten alternativen Ausführung und ein zu bearbeitendes Objekt in einer schematischen Darstellung,
Fig. 9 einen schematischen Ablauf eines Verfahrens zu einem zumindest teilweise automatischen Bearbeiten des Objekts mittels des autonomen Arbeitsgeräts aus Figur 8,
Fig. 10 ein System mit einem autonomen Arbeitsgerät in einer dritten alternativen Ausführung und mit einer Projektionseinheit und ein zu bearbeitendes Objekt in einer schematischen Darstellung,
Fig. 11 einen schematischen Ablauf eines Verfahrens zu einem zumindest teilweise automatischen Bearbeiten des Objekts mittels des Systems aus Figur 10,
Fig. 12 ein System mit einem autonomen Arbeitsgerät in einer vierten alternativen Ausführung und mit zumindest zwei Lokalisierungselementen und ein zu bearbeitendes Objekt in einer schematischen Darstellung, und
Fig. 13 einen schematischen Ablauf eines Verfahrens zu einem zumindest teilweise automatischen Bearbeiten des Objekts mittels des Systems aus Figur 12.
Beschreibung der Ausführungsbeispiele
Figur 1 zeigt ein System 36a mit einem autonomen Arbeitsgerät 10a. Alternativ ist auch denkbar, dass das Arbeitsgerät 10a als manuelles Arbeitsgerät 10a ausgebildet ist. Das autonome Arbeitsgerät 10a ist als ein Baustellenroboter, insbesondere als ein Bohrroboter, ausgebildet. Alternativ ist jedoch auch denkbar, dass das autonome Arbeitsgerät 10a als ein von einem Bohrroboter verschiedener Baustellenroboter, beispielsweise als ein Malerroboter, als ein Fensterputzroboter, als ein Kehrmaschinenroboter, als ein Außenbereichsroboter, beispielsweise als ein Mulchroboter, als ein Heckenschneidroboter, als ein Schneeräumroboter, als ein Sammelroboter, insbesondere zum Sammeln von Blättern, Zweigen oder dergleichen, als eine Kombination dieser oder als ein anderes, einem Fachmann als sinnvoll erscheinendes autonomes Arbeitsgerät 10a ausgebildet ist. Das autonome Arbeitsgerät 10a ist verschieden von einem stationären autonomen Arbeitsgerät ausgebildet. Das autonome Arbeitsgerät 10a ist verschieden von einem an einer Position fest installierten autonomen Gerät, insbesondere einem Industrieroboter, ausgebildet. Das autonome Arbeitsgerät 10a ist dazu eingerichtet, sich selbstständig fortzubewegen. Das autonome Arbeitsgerät 10a ist als ein mobiles autonomes Arbeitsgerät ausgebildet. Das autonome Arbeitsgerät 10a ist fahrbar ausgebildet. Alternativ ist jedoch auch denkbar, dass das autonome Arbeitsgerät 10a als eine Drohne ausgebildet ist.
Das autonome Arbeitsgerät 10a ist zu einem zumindest teilweise automatischen Bearbeiten eines Objekts 68a vorgesehen. Das autonome Arbeitsgerät 10a ist hier beispielhaft zu einem zumindest teilweise automatischen Erzeugen von Bohrlöchern in dem Objekt 68a vorgesehen. Das autonome Arbeitsgerät 10a ist zu einem selbstständigen Bearbeiten des Objekts 68a vorgesehen, insbesondere zu einem selbständigen Erzeugen von Bohrlöchern in dem Objekt 68a. Das Objekt 68a ist ein Gebäudeteil, insbesondere eine Decke. Alternativ ist denkbar, dass das Objekt 68a eine Wand, ein Boden, eine Fassade, ein Möbelstück oder dergleichen ist.
Das autonome Arbeitsgerät 10a weist eine Bearbeitungseinheit 12a auf. Die Bearbeitungseinheit 12a weist eine Bohreinheit 88a auf, ist insbesondere als Bohreinheit 88a ausgebildet. Die Bearbeitungseinheit 12a weist eine Werkzeugeinheit 44a auf (vgl. auch Figur 3). Die Werkzeugeinheit 44a ist als Endeffektor ausgebildet. Die Werkzeugeinheit 44a weist eine Werkzeugaufnahme 120a zur Aufnahme einer Handwerkzeugmaschine 122a auf. An der Werkzeugaufnahme 120a ist eine Handwerkzeugmaschine 122a angeordnet. Die Handwerkzeugmaschine 122a ist Teil des autonomen Arbeitsgeräts 10a, insbesondere der Werkzeugeinheit 44a. Die Werkzeugeinheit 44a, insbesondere die Handwerkzeugmaschine 122a, ist durch die Steuereinheit 16a ansteuerbar. Die Handwerkzeugmaschine 122a ist als eine Bohrmaschine ausgebildet. Die Handwerkzeugmaschine 122a kann als eine handelsübliche Handwerkzeugmaschine ausgebildet sein.
Die Handwerkzeugmaschine 122a kann als eine akkubetriebene Handwerkzeugmaschine oder als eine kabelgebundene Handwerkzeugmaschine ausgebildet sein. Es ist alternativ auch denkbar, dass die Handwerkzeugmaschine 122a speziell zu einem Zusammenwirken mit der Bearbeitungseinheit 12a ausgebildet ist. Alternativ ist auch denkbar, dass die Handwerkzeugmaschine 122a als eine Schraubmaschine, als eine Stichsäge, als ein Dübelsetzer, als eine Schlitzfräse, als ein Trennschleifer, als eine Kreissäge, als ein Abbruchhammer, als eine Nagelpistole, als eine Schleifmaschine oder als eine andere, einem Fachmann als sinnvoll erscheinende Handwerkzeugmaschine ausgebildet ist. Alternativ oder zusätzlich ist denkbar, dass die Werkzeugaufnahme 120a zu einer Aufnahme eines Werkzeugs oder dergleichen eingerichtet ist. Das Werkzeug ist beispielsweise als ein Bohrer, als ein Pinsel, als eine Rakel, als eine Schleifscheibe, als ein Sägeblatt, als ein Hammer oder als ein anderes, einem Fachmann als
sinnvoll erscheinendes Werkzeug ausgebildet. Es ist denkbar, dass das Werkzeug Teil der Werkzeugeinheit 44a ist. Ferner ist alternativ oder zusätzlich denkbar, dass die Werkzeugeinheit 44a zu einem rotatorischen Antrieb, einem oszilla- torischen Antrieb oder dergleichen des Werkzeugs ausgebildet sind/ist.
Die Werkzeugaufnahme 120a der Werkzeugeinheit 44a weist beispielsweise in einem an der Werkzeugaufnahme 120a befestigten Zustand der Handwerkzeugmaschine 122a mit der Handwerkzeugmaschine 122a eine Zweipunktbefestigung auf. Alternativ ist denkbar, dass die Werkzeugaufnahme 120a in einem an der Werkzeugaufnahme 120a befestigten Zustand der Handwerkzeugmaschine 122a mit der Handwerkzeugmaschine 122a eine Einpunktbefestigung oder zumindest eine Dreipunktbefestigung aufweist. Die Werkzeugaufnahme 120a weist bevorzugt eine, vorzugsweise gedämpfte, Federeinheit (hier nicht dargestellt) auf, über welche insbesondere die Handwerkzeugmaschine 122a und/oder das Werkzeug in einem an der Werkzeugaufnahme 120a angeordneten Zustand, mit der Werkzeugaufnahme 120a verbunden ist. Es ist denkbar, dass eine Dämpfung der Federeinheit einstellbar ist. Die Federeinheit weist beispielsweise zumindest ein Federelement, insbesondere eine Schraubenfeder, eine Blattfeder, ein gummielastisches Element oder dergleichen, auf.
Die Bearbeitungseinheit 12a weist eine Manipulatoreinheit 72a auf. Die Manipulatoreinheit 72a ist als Roboterarm ausgebildet. Die Manipulatoreinheit 72a weist eine Mehrachskinematik auf. Die Manipulatoreinheit 72a weist sechs Freiheitsgrade auf. Alternativ ist jedoch auch denkbar, dass die Manipulatoreinheit 72a weniger als sechs Freiheitsgrade aufweist. Die Manipulatoreinheit 72a ist über die Steuereinheit 16a ansteuerbar. Die Steuereinheit 16a ist dazu vorgesehen, die Bearbeitungseinheit 12a, insbesondere die Manipulatoreinheit 72a und/oder die Werkzeugeinheit 44a, vorzugsweise die Handwerkzeugmaschine 122a, bei einem Bearbeiten des Objekts 68a anzusteuern.
Das autonome Arbeitsgerät 10a weist eine Fortbewegungseinheit 14a zu einem Fortbewegen der Bearbeitungseinheit 12a auf. Die Fortbewegungseinheit 14a ist zu einer Erzeugung einer Fortbewegungskraft vorgesehen. Die Bearbeitungseinheit 12a, insbesondere die Manipulatoreinheit 72a, ist an, bevorzugt auf, der Fortbewegungseinheit 14a angeordnet. Die Werkzeugeinheit 44a ist über die
Manipulatoreinheit 72a mit der Fortbewegungseinheit 14a zumindest mechanisch verbunden. Die Fortbewegungseinheit 14a ist dazu vorgesehen, die Bearbeitungseinheit 12a auf einem Untergrund 150a, beispielsweise einem Boden, einer Wand und/oder einer Decke, zu bewegen. Die Fortbewegungseinheit 12a ist dazu vorgesehen, das autonome Arbeitsgerät 10a als Ganzes über den Untergrund 150a zu bewegen. Die Fortbewegungseinheit 14a weist ein Fahrwerk 128a auf. Die Fortbewegungseinheit 14a, insbesondere das Fahrwerk 128a, weist eine Radeinheit 124a auf. Die Radeinheit 124a umfasst vier Räder 126a (in Figur 1 sind lediglich zwei der vier Räder 126a dargestellt). Alternativ ist auch denkbar, dass die Radeinheit 124a lediglich ein Rad, zwei Räder, drei Räder oder mehr als vier Räder aufweist. Alternativ oder zusätzlich ist denkbar, dass die Fortbewegungseinheit 14a eine Ketteneinheit, eine Rolleneinheit, eine Propellereinheit oder andere, einem Fachmann als sinnvoll erscheinende Fortbewegungsmittel oder eine Kombination dieser aufweist. Die Ketteneinheit weist insbesondere zumindest ein Ketten laufwerk, vorzugsweise zumindest zwei Ketten laufwerke, auf. Die Rolleneinheit umfasst beispielsweise zumindest eine Rolle, vorzugsweise zumindest zwei Rollen, bevorzugt zumindest drei Rollen und besonders bevorzugt zumindest vier Rollen. Insbesondere bei einem als Drohne ausgebildeten autonomen Arbeitsgerät 10a umfasst die Fortbewegungseinheit 14a zumindest eine Propellereinheit oder dergleichen zur Fortbewegung. Die Propellereinheit weist beispielsweise zumindest einen Propeller, vorzugsweise zumindest zwei Propeller und besonders bevorzugt zumindest vier Propeller auf.
Die Fortbewegungseinheit 14a weist zumindest eine Antriebseinheit (hier nicht dargestellt) auf. Die Antriebseinheit ist dazu vorgesehen, das Fahrwerk 128a, insbesondere die Radeinheit 124a, anzutreiben. Die Antriebseinheit umfasst zumindest einen Elektromotor oder dergleichen. Eine Bewegung eines Geräterahmens 130a des autonomen Arbeitsgeräts 10a, insbesondere der Fortbewegungseinheit 14a, ist an einen Antrieb, insbesondere eine Bewegung, des Fahrwerks 128a gekoppelt. Durch das, vorzugsweise mittels der Antriebseinheit, angetriebene Fahrwerk 128a ist eine Bewegung des Geräterahmens 130a erzeugbar.
Das autonome Arbeitsgerät 10a weist eine Steuereinheit 16a zumindest zu einer Ansteuerung der Bearbeitungseinheit 12a auf. Die Bewegung des Geräterahmens 130a ist abhängig von einer Ansteuerung durch die Steuereinheit 16a. Die
Antriebseinheit ist dazu vorgesehen, das Fahrwerk 128a zu einer translatorischen und/oder rotatorischen Bewegung des Geräterahmens 130a anzutreiben, insbesondere in Abhängigkeit von einer Ansteuerung durch die Steuereinheit 16a. Die Steuereinheit 16a umfasst insbesondere zumindest einen Prozessor und ein Speicherelement sowie ein auf dem Speicherelement gespeichertes Betriebsprogramm. Das Speicherelement ist vorzugsweise als digitales Speichermedium, beispielsweise als eine Festplatte oder dergleichen ausgebildet. Die Bearbeitungseinheit 12a, insbesondere die Werkzeugeinheit 44a und/oder die Manipulatoreinheit 72a, sind mittels der Steuereinheit 16a ansteuerbar.
Das autonome Arbeitsgerät 10a weist eine höhenverstellbare Arbeitsplattform 32a auf. Alternativ ist auch denkbar, dass das autonome Arbeitsgerät 10a frei von einer höhenverstellbaren Arbeitsplattform 32a ausgebildet ist. Die Arbeitsplattform 32a ist an der Fortbewegungseinheit 14a angeordnet. Die Manipulatoreinheit 72a ist auf der Arbeitsplattform 32a angeordnet. Die Arbeitsplattform 32a ist relativ zu einem Untergrund 150a, auf welchem das autonome Arbeitsgerät 10a, insbesondere die Fortbewegungseinheit 14a, angeordnet ist, höhenverstellbar. Das autonome Arbeitsgerät 10a weist eine Hubeinheit 144a auf. Mittels der Hubeinheit 144a ist die Arbeitsplattform 32a höhenverstellbar. Die Hubeinheit 144a weist eine Teleskopstange 146a auf. Die Teleskopstange 146a ist als eine hydraulische Teleskopstange ausgebildet. Alternativ ist auch denkbar, dass die Hubeinheit 144a mehr als eine Teleskopstange 146a aufweist. Ferner ist alternativ oder zusätzlich denkbar, dass die Hubeinheit 144a einen Scherenhubmechanismus, einen Linearantrieb, beispielsweise eine Zahnstange, eine Schubkette, einen Kugelgewindetrieb, einen Linearmotor, oder dergleichen aufweist. Die Arbeitsplattform 32a ist über die Hubeinheit 144a, insbesondere die Teleskopstange 146a, mit der Fortbewegungseinheit 14a verbunden. Die Hubeinheit 144a ist steuerungstechnisch mit der Steuereinheit 16a verbunden, insbesondere kabellos und/oder kabelgebunden. Die Hubeinheit 144a ist Teil der Bearbeitungseinheit 12a. Beispielsweise ist alternativ denkbar, dass die Arbeitsplattform 32a derart an der Manipulatoreinheit 72a der Bearbeitungseinheit 12a angeordnet ist, dass die Arbeitsplattform 32a mittels der Manipulatoreinheit 72a höhenverstellbar ist.
Die Steuereinheit 16a ist dazu vorgesehen, zumindest in Abhängigkeit von einem Abgleich einer Soll-Kenngröße zumindest eines Prüfobjekts 18a in einer Arbeitsumgebung 26a der Bearbeitungseinheit 12a und einer Ist-Kenngröße des zumindest einen Prüfobjekts 18a das Prüfobjekt 18a als Lokalisierungsreferenzobjekt 20a zu klassifizieren. Die Arbeitsumgebung 26a ist hier beispielhaft ein Gebäudeinnenbereich eines Gebäudes. Alternativ ist auch denkbar, dass die Arbeitsumgebung ein Außenbereich, insbesondere eines Gebäudes, oder dergleichen ist. Das Prüfobjekt 18a ist eine Wand in der Arbeitsumgebung 26a der Bearbeitungseinheit 12a. Das Prüfobjekt 18a kann alternativ auch das Objekt 68a, insbesondere eine Decke, ein Boden, ein anderes, bevorzugt feststehendes, Gebäudeteil oder feststehendes, insbesondere stationäres, Objekt in der Arbeitsumgebung 26a sein.
Die Soll-Kenngröße des Prüfobjekts 18a weist zumindest eine Information zu einer Soll-Position des Prüfobjekts 18a auf. Alternativ oder zusätzlich ist denkbar, dass die Soll-Kenngröße des Prüfobjekts 18a eine Information zu zumindest einer Abmessung, insbesondere einer Höhe und/oder einer Breite, des Prüfobjekts 18a, eine Materialkenngröße des Prüfobjekts 18a, eine Oberflächenkenngröße, beispielsweise eine Ebenheit, des Prüfobjekts 18a, eine Temperaturkenngröße des Prüfobjekts 18a, eine Feuchtigkeitskenngröße des Prüfobjekts, eine Kombination dieser oder dergleichen aufweist. Die Soll-Kenngröße ist auf dem Speicherelement der Steuereinheit 14a, insbesondere in einem Arbeitsumgebungsmodell der Arbeitsumgebung 26a, hinterlegt. Das Arbeitsumgebungsmodell ist ein Building Information Modelling- (BIM-) Modell oder dergleichen. In dem Arbeitsumgebungsmodell ist hinterlegt, welche Objekte in der Arbeitsumgebung 26a als Prüfobjekte 18a zu verstehen sind. Das Arbeitsumgebungsmodell ist auf dem Speicherelement der Steuereinheit 16a hinterlegt. Alternativ ist auch denkbar, dass das Arbeitsumgebungsmodell auf einer externen Einheit (hier nicht dargestellt) gespeichert ist, wobei die externe Einheit bevorzugt datentechnisch mit dem autonomen Arbeitsgerät 10a verbindbar ist, insbesondere kabellos und/oder kabelgebunden. Die externe Einheit kann beispielsweise als ein Smartphone, als eine Cloud, als ein Zentralrechner, als ein Server, als ein Laptop, als ein Smart- Home System oder dergleichen ausgebildet sein. Es ist auch denkbar, dass die externe Einheit zumindest einen Teil der Steuereinheit 16a aufweist. Die Bearbeitungseinheit 12a ist dazu vorgesehen, zumindest das Objekt 68a nach einem
Bearbeitungsplan zu bearbeiten. Der Bearbeitungsplan ist beispielsweise auf dem Speicherelement der Steuereinheit 16a hinterlegt. Der Bearbeitungsplan ist beispielsweise in dem Arbeitsumgebungsmodell vermerkt. Die Steuereinheit 16a ist dazu vorgesehen, die Fortbewegungseinheit 14a und/oder die Bearbeitungseinheit 12a, zumindest anhand des Bearbeitungsplans und/oder dem Arbeitsumgebungsmodell in der Arbeitsumgebung 26a zu navigieren.
Das autonome Arbeitsgerät 10a weist zumindest eine Erfassungseinheit 30a auf. Die Erfassungseinheit 30a ist auf der Arbeitsplattform 32a angeordnet. Alternativ ist auch denkbar, dass die Erfassungseinheit 30a an der Bearbeitungseinheit 12a oder an der Fortbewegungseinheit 14a angeordnet ist. Die Erfassungseinheit 30a ist zu einem Erfassen der Ist-Kenngröße des Prüfobjekts 18a vorgesehen. Die Steuereinheit 16a ist dazu vorgesehen, das autonome Arbeitsgerät 10a, insbesondere die Fortbewegungseinheit 14a und/oder die Bearbeitungseinheit 12a, in Abhängigkeit von mittels der Erfassungseinheit 30a erfassten Informationen anzusteuern, bevorzugt bei einer Lokalisierung in der Arbeitsumgebung 26a, insbesondere bei einer Lokalisierung in der Arbeitsumgebung 26a anhand des Bearbeitungsplans und/oder des Arbeitsumgebungsmodells. Die Erfassungseinheit 30a ist als eine optische Erfassungseinheit ausgebildet. Die Erfassungseinheit 30a weist zumindest eine Lidareinheit (hier nicht dargestellt) zu einem Erfassen der Arbeitsumgebung 26a auf. Alternativ oder zusätzlich ist denkbar, dass die Erfassungseinheit 30a eine Stereokamera, eine Time-of-Flight-Kamera, ein auf Streifenprojektion basiertes Kamerasystem und/oder andere, einem Fachmann als sinnvoll erscheinende Erfassungsmittel aufweist. Die Erfassungseinheit 30a ist dazu eingerichtet, die Ist-Kenngröße des Prüfobjekts 18a oder Informationen zur Ermittlung der Ist-Kenngröße des Prüfobjekts 18a zu erfassen. Die Steuereinheit 16a ist dazu vorgesehen, die mittels der Erfassungseinheit 30a, insbesondere der Lidareinheit, erfassten Informationen basierend auf einem Simultaneous Localization and Mapping- (SLAM) Verfahren auszuwerten. Das Simultaneous Localization and Mapping- (SLAM-) Verfahren ist insbesondere ein Verfahren zu einer simultanen Positionsbestimmung und Kartenerstellung in der Robotik, wobei insbesondere innerhalb des Verfahrens, vorzugsweise gleichzeitig, eine virtuelle Karte einer Umgebung und eine räumliche Lage einer bewegbaren Einheit, insbesondere des autonomen Arbeitsgeräts, innerhalb der virtuellen Karte ermittelt wird.
Die Steuereinheit 14a ist dazu vorgesehen, die Bearbeitungseinheit 12a in Abhängigkeit von dem zumindest einen als Lokalisierungsreferenzobjekt 20a klassifizierten Prüfobjekt 18a anzusteuern. Die Steuereinheit 16a ist dazu vorgesehen, die Fortbewegungseinheit 14a in Abhängigkeit von dem als Lokalisierungsreferenzobjekt 20a klassifizierten Prüfobjekt 18a anzusteuern. Die Steuereinheit 16a ist dazu vorgesehen, die Bearbeitungseinheit 12a, insbesondere die Manipulatoreinheit 72a und/oder die Werkzeugeinheit 44a, und/oder die Fortbewegungseinheit 14a in Abhängigkeit von dem als Lokalisierungsreferenzobjekt 20a klassifizierten Prüfobjekt 18a anzusteuern. Die Steuereinheit 16a ist dazu vorgesehen, zur Lokalisierung, insbesondere bei einer Bewegung, der Bearbeitungseinheit 12a und/oder der Fortbewegungseinheit 14a in der Arbeitsumgebung 26a, die Bearbeitungseinheit 12a und/oder die Fortbewegungseinheit 14a in Abhängigkeit von dem als Lokalisierungsreferenzobjekt 20a klassifizierten Prüfobjekt 18a anzusteuern. Die Steuereinheit 16a ist dazu vorgesehen, die Bearbeitungseinheit 12a und/oder die Fortbewegungseinheit 14a bei einem Bearbeiten des Objekts 68a durch die Bearbeitungseinheit 12a in Abhängigkeit von dem als Lokalisierungsreferenzobjekt 20a klassifizierten Prüfobjekt 18a anzusteuern.
Die Steuereinheit 16a ist dazu vorgesehen, ein infolge des Abgleichs der Ist- Kenngröße des Prüfobjekts 18a mit der Soll-Kenngröße des Prüfobjekts 18a von einer Klassifizierung als Lokalisierungsreferenzobjekt 20a ausgeschlossene Prüfobjekt 18a bei einer Lokalisierung, insbesondere einer Bewegung, der Bearbeitungseinheit 12a und/oder der Fortbewegungseinheit 14a zu ignorieren. Die Steuereinheit 16a ist dazu vorgesehen, ein infolge des Abgleichs der Ist-Kenngröße des Prüfobjekts 18a mit der Soll-Kenngröße des Prüfobjekts 18a von einer Klassifizierung als Lokalisierungsreferenzobjekt 20a ausgeschlossene Prüfobjekt 18a bei einem Bearbeiten des Objekts 68a durch die Bearbeitungseinheit 12a zu ignorieren.
Die Steuereinheit 16a ist dazu vorgesehen, bei dem Abgleich der Soll-Kenngröße des Prüfobjekts 18a mit der Ist-Kenngröße des Prüfobjekts 18a eine Abweichung der Ist-Kenngröße von der Soll-Kenngröße zu ermitteln. Liegt ein Wert der Abweichung der Ist-Kenngröße von der Soll-Kenngröße innerhalb eines Toleranzbereichs zu einem Wert der Soll-Kenngröße, klassifiziert die Steuereinheit 16a das
Prüfobjekt 18a als Lokalisierungsreferenzobjekt 20a. Liegt ein Wert der Abweichung der Ist-Kenngröße von der Soll-Kenngröße außerhalb des Toleranzbereichs zu einem Wert der Soll-Kenngröße, ist das Prüfobjekt 18a von einer Klassifizierung als Lokalisierungsreferenzobjekt 20a durch die Steuereinheit 16a ausgeschlossen. Der Toleranzbereich ist insbesondere im Betriebsprogramm definiert, insbesondere in dem Arbeitsumgebungsmodell hinterlegt. Es ist denkbar, dass der Toleranzbereich anpassbar ist, insbesondere manuell durch einen Bediener und/oder automatisch durch die Steuereinheit 16a, beispielsweise in Abhängigkeit von in dem Arbeitsumgebungsmodell hinterlegten Informationen.
Die Steuereinheit 16a ist dazu vorgesehen, zumindest in Abhängigkeit von einer Klassifizierung des zumindest einen Prüfobjekts 18a Teilbereiche 90a, 92a einer Arbeitsumgebung 26a zu identifizieren, in welchen eine Lokalisierung der Bearbeitungseinheit 12a anhand des zumindest einen Prüfobjekts 18a möglich ist. Ist beispielsweise in einem der Teilbereiche 90a, 92a das zumindest eine durch die Steuereinheit 16a als Lokalisierungsreferenzobjekt 20a klassifizierte Prüfobjekt 18a durch die Erfassungseinheit 30a erfassbar, ist in diesem einen der Teilbereiche 90a, 92a eine Lokalisierung der Bearbeitungseinheit 12a anhand des Prüfobjekts 18a, vorzugsweise mittels der Steuereinheit 16a, möglich. Ist beispielsweise ein anderer der Teilbereiche 90a, 92a der Arbeitsumgebung frei von durch die Erfassungseinheit 30a erfassbaren Prüfobjekten 18a, die durch die Steuereinheit 16a als Lokalisierungsreferenzobjekte 20a klassifizierbar sind, ist eine, insbesondere ausreichend präzise, Lokalisierung der Bearbeitungseinheit 12a in diesem anderen der Teilbereiche 90a, 92a durch die Steuereinheit 16a anhand von Lokalisierungsreferenzobjekten 20a unrealisierbar.
Figur 2 zeigt beispielhaft einen Teilbereich 90a der Arbeitsumgebung 26a, in welchem das zumindest eine durch die Steuereinheit 16a als Lokalisierungsreferenzobjekt 20a klassifizierte Prüfobjekt 18a durch die Erfassungseinheit 30a erfassbar ist, sodass in dem Teilbereich 90a eine Lokalisierung der Bearbeitungseinheit 12a anhand des zumindest einen Prüfobjekts 18a möglich ist. Ein weiterer Teilbereich 92a der Arbeitsumgebung 26a ist frei von mittels der Erfassungseinheit 30a erfassbaren Prüfobjekten 18a, die mittels der Steuereinheit 16a als Lokalisierungsreferenzobjekte 20a klassifizierbar sind, sodass insbesondere eine Lokalisierung der Bearbeitungseinheit 12a in dem weiteren Teilbereich 92a anhand von
Prüfobjekten 18a, insbesondere anhand von als Lokalisierungsreferenzobjekte 20a klassifizierten Prüfobjekten 18a, mittels der Steuereinheit 16a ausgeschlossen ist.
Die Steuereinheit 16a ist dazu vorgesehen, eine der Bearbeitungseinheit 12a zugeordnete Stützstelle 28a, 94a in der Arbeitsumgebung 26a der Bearbeitungseinheit 12a zur Überprüfung einer zu einem Bearbeiten des Objekts 68a benötigten Lokalisierung der Bearbeitungseinheit 12a an der Stützstelle 28a, 94a zu nutzen. Die Stützstellen 28a, 94a sind in dem Arbeitsumgebungsmodell hinterlegt. Die Stützstellen 28a, 94a stellen Positionen dar, die eine autonome Lokalisierung und/oder ein autonomes Arbeiten des autonomen Arbeitsgeräts 10a, insbesondere der Bearbeitungseinheit 12a und/oder der Fortbewegungseinheit 14a, im gesamten Arbeitsbereich 26a, insbesondere ein autonomes Arbeiten und/oder autonomes Navigieren des autonomen Arbeitsgeräts 10a, vorzugsweise der Bearbeitungseinheit und/oder der Fortbewegungseinheit, zum Bearbeiten des Objekts, bevorzugt zur Durchführung des Bearbeitungsplans, ermöglichen, wenn eine Lokalisierung des autonomen Arbeitsgeräts 10a, insbesondere der Bearbeitungseinheit 12a und/oder der Fortbewegungseinheit 14a, an den Stützstellen 28a, 94a möglich ist. Die Steuereinheit 16a ist dazu vorgesehen, zumindest an den Stützstellen 28a, 94a, insbesondere anhand von mittels der Erfassungseinheit 30a erfassten Informationen der Arbeitsumgebung 26a, zu überprüfen, ob eine Lokalisierung des autonomen Arbeitsgeräts 10a, insbesondere der Bearbeitungseinheit 12a und/oder der Fortbewegungseinheit 14a, an den Stützstellen 28a, 94a anhand von dem zumindest einen als Lokalisierungsreferenzobjekt 20a klassifizierbaren Prüfobjekt 18a möglich ist.
Die Steuereinheit 16a ist dazu vorgesehen, einen Bedarf an zusätzlichen Lokalisierungsreferenzelementen 22a zu überprüfen. Die Steuereinheit 16a ist dazu vorgesehen, für Teilbereiche der 90a, 92a Arbeitsumgebung 26a, in welchen eine Lokalisierung der Bearbeitungseinheit 26a anhand des zumindest einen als Lokalisierungsreferenzobjekt 20a klassifizierbaren Prüfobjekts 18a ausgeschlossen ist, einen Bedarf an zusätzlichen Lokalisierungsreferenzobjekten 22a, insbesondere eine zur Lokalisierung der Bearbeitungseinheit 12a in den Teilbereichen 90a, 92a, in welchen insbesondere eine Lokalisierung der Bearbeitungseinheit 12a anhand des zumindest einen als Lokalisierungsreferenzobjekt 20a
klassifizierbaren Prüfobjekts 18a ausgeschlossen ist, benötigte Anzahl an zusätzlichen Lokalisierungsreferenzelementen 22a, zu ermitteln. Insbesondere ist die Steuereinheit 16a dazu vorgesehen, für Stützstellen 28a, 94a der Arbeitsumgebung 26a, an welchen eine Lokalisierung der Bearbeitungseinheit 12a anhand des zumindest einen als Lokalisierungsreferenzobjekt 20a klassifizierbaren Prüfobjekts 18a ausgeschlossen ist, einen Bedarf an zusätzlichen Lokalisierungsreferenzelementen 22a, insbesondere eine zur Lokalisierung der Bearbeitungseinheit 12a an den Stützstellen 28a, 94a, an welchen insbesondere eine Lokalisierung der Bearbeitungseinheit 12a anhand des zumindest einen als Lokalisierungsreferenzobjekt 20a klassifizierbaren Prüfobjekts 18a ausgeschlossen ist, benötigte Anzahl an zusätzlichen Lokalisierungsreferenzelementen 22a zu ermitteln.
Es ist denkbar, dass der Bedarf an zusätzlichen Lokalisierungsreferenzelementen 22a lediglich ein zusätzliches Lokalisierungsreferenzelement 22a, zwei zusätzliche Lokalisierungsreferenzelemente 22a, zumindest drei zusätzliche Lokalisierungsreferenzelemente 22a oder eine Vielzahl an zusätzlichen Lokalisierungsreferenzelementen 22a umfasst. Der Bedarf an zusätzlichen Lokalisierungsreferenzelementen 22a hängt von dem Bearbeitungsplan ab. Die zusätzlichen Lokalisierungsreferenzelemente 22a sind speziell zur Lokalisierung ausgebildete Objekte. Die zusätzlichen Lokalisierungselemente 22a sind als Reflexionsmarker, insbesondere als Tripelspiegel, als reflektierende Folien, oder dergleichen ausgebildet.
Die Erfassungseinheit 30a ist dazu eingerichtet, die zusätzlichen Lokalisierungsreferenzelemente 22a zu erfassen. Die Steuereinheit 16a ist dazu vorgesehen, die Bearbeitungseinheit 12a und/oder die Fortbewegungseinheit 14a zu einer Lokalisierung der Bearbeitungseinheit 12a und/oder der Fortbewegungseinheit 14a in der Arbeitsumgebung 26a und/oder zu einem Bearbeiten des Objekts 68a durch die Bearbeitungseinheit 12a, insbesondere bedarfsweise, in Abhängigkeit von in der Arbeitsumgebung 26a montierten zusätzlichen Lokalisierungsreferenzelementen 22a anzusteuern.
Teilbereiche 90a, 92a, insbesondere Stützstellen 28a, 94a, der Arbeitsumgebung 26a, in/an welchen eine Lokalisierung des autonomen Arbeitsgeräts 10a,
vorzugsweise der Bearbeitungseinheit 12a und/oder der Fortbewegungseinheit 14a, anhand des zumindest einen als Lokalisierungsreferenzobjekt 20a klassifizierten Prüfobjekts 18a mittels der Steuereinheit 16a möglich ist, sind frei von einem Bedarf an zusätzlichen Lokalisierungsreferenzelementen 22a.
Die Steuereinheit 16a ist dazu vorgesehen, in Abhängigkeit von einer Überprüfung des Bedarfs an zusätzlichen Lokalisierungsreferenzelementen 22a eine Soll-Montageposition für zumindest ein zusätzliches Lokalisierungsreferenzelement 22a zu bestimmen. Beispielsweise umfasst das autonome Arbeitsgerät 10a eine Ausgabeeinheit (hier nicht dargestellt). Die Ausgabeeinheit ist beispielsweise als eine optische Ausgabeeinheit, eine akustische Ausgabeeinheit, eine haptische Ausgabeeinheit oder als eine Kombination dieser ausgebildet. Die Ausgabeeinheit weist beispielsweise einen Bildschirm, ein Leuchtelement, beispielsweise eine LED oder einen Laser, einen Lautsprecher oder dergleichen auf. Es ist denkbar, dass die Ausgabeeinheit dazu vorgesehen ist, die Soll-Montageposi- tion auszugeben. Beispielsweise ist denkbar, dass die Soll-Montageposition auf einem Bildschirm der Ausgabeeinheit angezeigt ist und/oder dass die Ausgabeeinheit zu einer Projektion der Soll-Montageposition in der Arbeitsumgebung 26a eingerichtet ist. Alternativ oder zusätzlich ist auch denkbar, dass das autonome Arbeitsgerät 10a, insbesondere die Bearbeitungseinheit 12a, dazu eingerichtet ist, das zusätzliche Lokalisierungsreferenzelement 22a zumindest teilweise automatisch an der Soll-Montageposition zu befestigen.
Das autonome Arbeitsgerät 10a weist eine Schnittstellenvorrichtung 46a auf. Die Werkzeugeinheit 44a ist mittels der Schnittstellenvorrichtung 46a mit dem autonomen Arbeitsgerät 10a, insbesondere der Manipulatoreinheit 72a der Bearbeitungseinheit 12a, verbunden. Die Schnittstellenvorrichtung 46a weist eine Robo- ter-Werkzeug-Verbindungseinheit 48a zumindest zu einer mechanischen Verbindung der Werkzeugeinheit 44a mit dem autonomen Arbeitsgerät 10a, insbesondere der Manipulatoreinheit 72a, auf. Die Roboter-Werkzeug-Verbindungseinheit 48a ist an der Manipulatoreinheit 72a, vorzugsweise an einem freien Ende 118a der Manipulatoreinheit 72a, angeordnet. Die Werkzeugeinheit 44a, insbesondere die Schnittstellenvorrichtung 46a, ist an dem freien Ende 118a der Manipulatoreinheit 72a angeordnet. Es ist denkbar, dass die Roboter-Werkzeug-Verbin- dungseinheit 48a zu einem rotatorischen Antrieb, einem oszillatorischen Antrieb
oder dergleichen der Werkzeugeinheit 44a, insbesondere des Werkzeugs, ausgebildet ist.
Die Steuereinheit 16a ist dazu vorgesehen, einen für das Objekt 68a geplanten Bearbeitungsschritt 158a durch die Bearbeitungseinheit 12a in Abhängigkeit von zumindest einer Oberflächenkenngröße zumindest eines Teils einer Oberfläche 84a des zu bearbeitenden Objekts 68a zu blockieren oder freizugeben. Der Bearbeitungsplan weist zumindest den Bearbeitungsschritt 158a auf. Der Teil der Oberfläche 84a weist zumindest eine in dem Bearbeitungsschritt 158a zu bearbeitende Fläche auf. Befindet sich insbesondere die zu dem Teil der Oberfläche 84a ermittelte Oberflächenkenngröße innerhalb eines Grenzbereichs zu einem Soll-Wert der Oberflächenkenngröße des Teils der Oberfläche 84a ist die Steuereinheit 16a dazu vorgesehen, den geplanten Bearbeitungsschritt 158a freizugeben. Befindet sich insbesondere die zu dem Teil der Oberfläche 84a ermittelte Oberflächenkenngröße außerhalb eines Grenzbereichs zu dem Soll-Wert der Oberflächenkenngröße des Teils der Oberfläche 84a ist die Steuereinheit 16a dazu vorgesehen, den geplanten Bearbeitungsschritt 158a zu blockieren. Der Soll-Wert der Oberflächenkenngröße des Teils der Oberfläche 84a und/oder der zugehörige Grenzbereich sind beispielsweise auf dem Speicherelement der Steuereinheit 16a hinterlegt, insbesondere in dem Arbeitsumgebungsmodell.
Die Oberflächenkenngröße beinhaltet zumindest eine Information zu einer Ebenheit des Teils der Oberfläche 84a. Die Ebenheit einer Fläche entspricht insbesondere einem Wert eines Abstands von zwei zueinander parallel angeordneten Ebenen, welche in einem minimalen Abstand zueinander angeordnet sind, bei welchem eine Gesamtheit der Fläche innerhalb der zwei Ebenen angeordnet ist. Ferner ist alternativ oder zusätzlich denkbar, dass die Oberflächenkenngröße eine Information zu einem Material des Teils der Oberfläche 84a oder dergleichen aufweist. Die Oberflächenkenngröße oder eine Information zur Ermittlung der Oberflächenkenngröße ist durch die Erfassungseinheit 30a, insbesondere die Lidareinheit der Erfassungseinheit 30a, erfassbar. Eine Ausrichtung der Erfassungseinheit 30a ist vorzugsweise veränderbar, insbesondere einstellbar. Bevorzugt weist die Erfassungseinheit 30a eine Einstelleinheit (hier nicht dargestellt) zu einer Einstellung einer Ausrichtung der Erfassungseinheit 30a auf. Die Einstelleinheit 30a weist bevorzugt einen Stellmotor auf. Die Einstelleinheit 30a ist
vorzugsweise zumindest steuerungstechnisch mit der Steuereinheit 16a verbunden. Alternativ ist denkbar, dass die Erfassungseinheit 30a derart an der Bearbeitungseinheit 12a, insbesondere an der Manipulatoreinheit 72a, angeordnet ist, dass eine Ausrichtung der Erfassungseinheit 30a mittels der Manipulatoreinheit 72a veränderbar, insbesondere einstellbar, ist. Die Steuereinheit 16a ist dazu vorgesehen, eine Ausrichtung der Erfassungseinheit 30a, insbesondere durch eine Ansteuerung der Einstelleinheit, zumindest zu einem Erfassen der zumindest einen Oberflächenkenngröße einzustellen. Alternativ ist denkbar, dass das autonome Arbeitsgerät 10a eine weitere, insbesondere zu der Erfassungseinheit 30a separate, Erfassungseinheit, insbesondere eine weitere Lidareinheit oder dergleichen, zum Erfassen der Oberflächenkenngröße oder der Information zur Ermittlung der Oberflächenkenngröße aufweist.
Befindet sich die zu dem Teil der Oberfläche 84a ermittelte Ebenheit innerhalb eines Grenzbereichs zu einem Soll-Wert der Ebenheit des Teils der Oberfläche 84a ist die Steuereinheit 16a dazu vorgesehen, den geplanten Bearbeitungsschritt 158a freizugeben. Befindet sich die zu dem Teil der Oberfläche 84a ermittelte Ebenheit außerhalb eines Grenzbereichs zu dem Soll-Wert der Ebenheit des Teils der Oberfläche 84a ist die Steuereinheit 16a dazu vorgesehen, den geplanten Bearbeitungsschritt 158a zu blockieren. Der Soll-Wert der Ebenheit des Teils der Oberfläche 84a und/oder der zugehörige Grenzbereich sind beispielsweise auf dem Speicherelement der Steuereinheit 16a hinterlegt, insbesondere in dem Arbeitsumgebungsmodell.
Die Steuereinheit 16a ist dazu vorgesehen, den für das Objekt 68a geplanten Bearbeitungsschritt 158a durch die Bearbeitungseinheit 12a in Abhängigkeit von einer Hindernisdetektion in einem Bearbeitungsbereich 86a des Teils der Oberfläche 84a des Objekts 68a freizugeben oder zu blockieren. Mittels der Hindernisdetektion ist eine Information zu Hindernisobjekten 96a in dem Bearbeitungsbereich 86a erfassbar. Die Erfassungseinheit 30a, insbesondere die Lidareinheit der Erfassungseinheit 30a, ist zu einem Erfassen von Hindernisobjekten 96a bei der Hindernisdetektion vorgesehen. Alternativ ist denkbar, dass das autonome Arbeitsgerät 10a eine weitere, insbesondere zu der Erfassungseinheit 30a separate, Erfassungseinheit zur Hindernisdetektion aufweist.
Der Bearbeitungsbereich 86a ist ein Teil der Arbeitsumgebung 26a, insbesondere ein Bereich um den Teil der Oberfläche 84a, in welchem sich das autonome Arbeitsgerät 10a, insbesondere die Bearbeitungseinheit 12a und/oder die Fortbewegungseinheit 14a bei der Bearbeitung des Objekts 68a, insbesondere bei der Durchführung des geplanten Bearbeitungsschritts 158a, bewegt. Der Teil der Oberfläche 84a ist Teil des Bearbeitungsbereichs 86a. Bei einer Feststellung eines Hindernisobjekts 96a in dem Bearbeitungsbereich 86a bei der Hindernisdetektion ist die Steuereinheit 16a dazu vorgesehen, den geplanten Bearbeitungsschritt 158a zu blockieren. Ist bei der Hindernisdetektion feststellbar, dass der Bearbeitungsbereich 86a frei ist von Hindernisobjekten 96a, ist die Steuereinheit 16a dazu vorgesehen, den geplanten Bearbeitungsschritt 158a freizugeben.
Befindet sich die zu dem Teil der Oberfläche 84a ermittelte Ebenheit außerhalb eines Grenzbereichs zu einem Soll-Wert der Ebenheit des Teils der Oberfläche 84a ist die Steuereinheit 16a dazu vorgesehen, den geplanten Bearbeitungsschritt 158a zu blockieren. Der Soll-Wert der Ebenheit des Teils der Oberfläche 84a und/oder der zugehörige Grenzbereich sind beispielsweise auf dem Speicherelement der Steuereinheit 16a hinterlegt, insbesondere in dem Arbeitsumgebungsmodell.
Die Steuereinheit 16a ist dazu vorgesehen, in Abhängigkeit von der Hindernisdetektion gesperrte Bewegungsbereiche für die Bearbeitungseinheit 12a zu bestimmen. Bei einer Feststellung eines Hindernisobjekts 96a in einem Bereich in der Arbeitsumgebung 26a, ist die Steuereinheit 16a dazu vorgesehen, den Bereich als gesperrten Bewegungsbereich zu klassifizieren. Die Steuereinheit 16a ist dazu vorgesehen, die Bearbeitungseinheit 12a und/oder die Fortbewegungseinheit 14a derart anzusteuern, dass sich das autonome Arbeitsgerät 10a, insbesondere die Bearbeitungseinheit 12a und/oder die Fortbewegungseinheit 14a, stets außerhalb von als gesperrten Bewegungsbereichen klassifizierten Bereichen der Arbeitsumgebung 26a befinden. Eine Information zu gesperrten Bewegungsbereichen ist beispielsweise auf dem Speicherelement der Steuereinheit 16a hinterlegbar, insbesondere in dem Arbeitsumgebungsmodell.
Die Steuereinheit 16a ist dazu vorgesehen, zumindest eine Information aus der Hindernisdetektion mit dem Arbeitsumgebungsmodell abzugleichen. Durch einen
Abgleich einer Information aus der Hindernisdetektion mit dem Arbeitsumgebungsmodell ist feststellbar, ob ein bei der Hindernisdetektion festgestelltes Hindernis in dem Arbeitsumgebungsmodell bekannt ist.
Es ist denkbar, dass die Steuereinheit 16a dazu vorgesehen ist, den geplanten Bearbeitungsschritt 158a in Abhängigkeit von einem Abgleich einer Information aus der Hindernisdetektion mit dem Arbeitsumgebungsmodell freizugeben oder zu blockieren. Beispielsweise ist denkbar, dass die Steuereinheit 16a den geplanten Bearbeitungsschritt 158a freigibt, wenn der Abgleich einer Information aus der Hindernisdetektion mit dem Arbeitsumgebungsmodell ergibt, dass ein bei der Hindernisdetektion festgestelltes Hindernisobjekt 96a bereits im Arbeitsumgebungsmodell bekannt ist. Es ist beispielsweise auch denkbar, dass die Steuereinheit 16a dazu vorgesehen ist, den geplanten Bearbeitungsschritt 158a zu blockieren, wenn ein bei der Hindernisdetektion festgestelltes Hindernisobjekt 96a in dem Arbeitsumgebungsmodell unbekannt ist.
Ferner ist denkbar, dass die Steuereinheit 16a dazu vorgesehen ist, in Abhängigkeit von einem Abgleich des Arbeitsumgebungsmodells mit der Information aus der Hindernisdetektion eine Korrektur des geplanten Bearbeitungsschritts 158a vorzunehmen. Beispielsweise ist denkbar, dass durch den Abgleich des Arbeitsumgebungsmodells mit der Information aus der Hindernisdetektion eine Positionsabweichung eines in dem Arbeitsumgebungsmodell bekannten Hindernisobjekts 96a von dem mittels der Erfassungseinheit 30a in der Arbeitsumgebung 26a erfassten Hindernisobjekt 96a durch die Steuereinheit 16a feststellbar ist. Beispielsweise ist die Steuereinheit 16a dazu vorgesehen, eine Bearbeitungskoordinate, einen Bearbeitungswinkel, eine Bearbeitungsdauer, eine Bearbeitungsintensität oder dergleichen des geplanten Bearbeitungsschritts 158a in Abhängigkeit von dem Abgleich des Arbeitsumgebungsmodells mit der Information aus der Hindernisdetektion, insbesondere in Abhängigkeit von einer mittels der Steuereinheit 16a festgestellten Positionsabweichung eines in dem Arbeitsumgebungsmodell bekannten Hindernisobjekts 96a von dem mittels der Erfassungseinheit 30a in der Arbeitsumgebung 26a erfassten Hindernisobjekt 96a, zu korrigieren.
Die Roboter-Werkzeug-Verbindungseinheit 48a ist zur Anordnung unterschiedlicher Schnittstellenfunktionsmodule modular erweiterbar ausgebildet. Die
Schnittstellenmodule sind lösbar an der Roboter-Werkzeug-Verbindungseinheit 48a befestigbar. Es ist denkbar, dass zumindest ein Teil der Schnittstellenmodule werkzeuglos an der Roboter-Werkzeug-Verbindungseinheit 48a und/oder werkzeuglos von der Roboter-Werkzeug-Verbindungseinheit 48a lösbar ist. Zumindest ein Teil der Schnittstellenmodule ist in einem an der Roboter-Werkzeug-Verbin- dungseinheit 48a angeordneten Zustand datentechnisch und/oder steuerungstechnisch mit der Steuereinheit 16a verbunden, insbesondere kabellos und/oder kabellos. Die Steuereinheit 16a ist zur Ansteuerung zumindest eines Teils der Schnittstellenmodule vorgesehen. Die Werkzeugeinheit 44a ist in einem an der Roboter-Werkzeug-Verbindungseinheit 48a angeordneten Zustand der Werkzeugeinheit 44a datentechnisch und/oder steuerungstechnisch mit der Steuereinheit 16a verbunden, insbesondere kabellos und/oder kabelgebunden. Es ist denkbar, dass zumindest ein Teil der Schnittstellenmodule zumindest ein Ventil zur Funktionssteuerung des jeweiligen Schnittstellenmoduls aufweist. Es ist denkbar, dass die Roboter-Werkzeug-Verbindungseinheit 48a, insbesondere die Steuereinheit 16a, dazu eingerichtet ist, automatisch eine Verbindung mit einem der Schnittstellenmodule zu erkennen. Ferner ist denkbar, dass die Roboter- Werkzeug-Verbindungseinheit 48a, insbesondere die Steuereinheit 16a, dazu eingerichtet ist, ein mit der Roboter-Werkzeug-Verbindungseinheit 48a verbundenes Schnittstellenmodul automatisch zu identifizieren.
Die Roboter-Werkzeug-Verbindungseinheit 48a weist zumindest eine Modulschnittstelle (hier nicht dargestellt), bevorzugt mehrere Modulschnittstellen, zu einer Befestigung zumindest eines Schnittstellenmoduls, vorzugsweise mehreren Schnittstellenmodulen, auf. Die zumindest eine Modulschnittstelle ist vorzugsweise zumindest zu einer mechanischen Verbindung mit zumindest einem der Schnittstellenmodule eingerichtet. Es ist denkbar, dass die zumindest eine Modulschnittstelle zu einer elektrischen Verbindung mit zumindest einem der Schnittstellenmodule eingerichtet ist, beispielsweise zu einer elektrischen Energieversorgung des zumindest einen an der Modulschnittstelle anordenbaren Schnittstellenmoduls. Vorzugsweise ist die zumindest eine Modulschnittstelle zu einer datentechnischen und/oder steuerungstechnischen Verbindung mit zumindest einem an der Modulschnittstelle angeordneten Schnittstellenmodul eingerichtet.
Die Schnittstellenvorrichtung 46a weist ein Sensorikmodul 50a zu einem Erfassen einer Umgebungskenngröße und/oder der Werkzeugeinheit 44a auf. Das Sensorikmodul 50a ist eines der oben genannten Schnittstellenmodule. Alternativ ist auch denkbar, dass die Schnittstellenvorrichtung 46a frei von einem Sensorikmodul 50a ausgebildet ist. Die Umgebungskenngröße kann beispielsweise eine Information zu einem Abstand der Werkzeugeinheit 44a zu dem zu bearbeitenden Objekt 68a oder einem anderen Objekt in der Arbeitsumgebung 26a aufweisen, eine Temperatur, insbesondere eine Temperatur des Objekts 68a, eines anderen Objekts und/oder einer Umgebungsluft, eine Luftfeuchtigkeit, eine auf die Roboter-Werkzeug-Verbindungseinheit 48a wirkende Kraft, beispielsweise bei einem Bearbeiten des Objekts 68a mittels der Bearbeitungseinheit 12a, eine Information zu einer Gaszusammensetzung in der Umgebungsluft, insbesondere zu Gefahrengasen in der Umgebungsluft, einen Umgebungsluftdruck, eine Information zu im Arbeitsbereich 26a befindlichen Personen, eine Kombination dieser oder dergleichen aufweisen.
Das Sensorikmodul 50a kann beispielsweise eine, zumindest mechanische und/oder elektrische, Verbindung der Roboter-Werkzeug-Verbindungseinheit 48a mit der Werkzeugeinheit 44a erfassen. Das Sensorikmodul 50a ist in einem an der Roboter-Werkzeug-Verbindungseinheit 48a angeordneten Zustand des Sensorikmoduls 50a zumindest datentechnisch mit der Steuereinheit 16a verbunden, insbesondere kabellos und/oder kabelgebunden. Das Sensorikmodul 50a weist vorzugsweise eine optische Sensoreinheit auf, beispielsweise eine Lidareinheit, ein Laserinterferometer oder dergleichen, und/oder eine kapazitive Sensoreinheit auf, bevorzugt um die Werkzeugeinheit 44a zu erfassen, insbesondere eine Information zu einer Verbindung der Roboter-Werkzeug-Verbindungseinheit 48a mit der Werkzeugeinheit 44a zu erfassen. Die optische Sensoreinheit kann zu einem Erfassen einer Information zu einem Abstand der Werkzeugeinheit 44a zu dem zu bearbeitenden Objekt 68a oder einem anderen Objekt in der Arbeitsumgebung 26a oder dergleichen vorgesehen sein. Sensorelemente des Sensorikmoduls 50a, insbesondere die optische Sensoreinheit, sind relativ zu der Werkzeugeinheit 44a und/oder der Roboter-Werkzeug-Verbindungseinheit 48a schwingungsentkoppelt an der Roboter-Werkzeug-Verbindungseinheit 48a angeordnet. Alternativ oder zusätzlich ist denkbar, dass das Sensorikmodul 50a einen
Temperatursensor, einen Feuchtigkeitssensor, ein Barometer, ein Kraftsensor, ein Gassensor oder dergleichen oder eine Kombination dieser aufweist.
Die Schnittstellenvorrichtung 46a weist ein Energieversorgungsmodul 52a zu einer Energieübertragung an die an der Roboter-Werkzeug-Verbindungseinheit 48a angeordnete Werkzeugeinheit 44a, insbesondere die Handwerkzeugmaschine 122a, auf. Das Energieversorgungsmodul 52a ist eines der oben genannten Schnittstellenmodule. Alternativ ist auch denkbar, dass die Schnittstellenvorrichtung 46a frei von einem Energieversorgungsmodul 52a ausgebildet ist. Über das Energieversorgungsmodul 52a ist die Werkzeugeinheit 44a, insbesondere die Handwerkzeugmaschine 122a, mit elektrischer Energie versorgbar. Das Energieversorgungsmodul 52a weist zumindest eine elektrische Schnittstelle (hier nicht dargestellt) zu einer elektrischen Verbindung mit der Werkzeugeinheit 44a, vorzugsweise der Handwerkzeugmaschine 122a, insbesondere einem Netzkabel oder einer Akkupackschnittstelle, der Werkzeugeinheit 44a, insbesondere der Handwerkzeugmaschine 122a, auf. Es ist denkbar, dass das Energieversorgungsmodul 52a Energie, insbesondere elektrische Energie, aus einem Energiespeicher (hier nicht dargestellt) des autonomen Arbeitsgeräts 10a bezieht und/oder dass das Energieversorgungsmodul 52a einen eigenen Energiespeicher, beispielsweise einen Akku, eine Batterie, ein Solarmodul oder dergleichen, aufweist. Es ist denkbar, dass das Energieversorgungsmodul 52a steuerungstechnisch und/oder datentechnisch mit der Steuereinheit 16a verbunden ist, insbesondere kabellos und/oder kabelgebunden, vorzugsweise zumindest in einem an der Roboter-Werkzeug-Verbindungseinheit 48a angeordneten Zustand des Energieversorgungsmoduls 52a. Alternativ ist denkbar, dass das Energieversorgungsmodul 52a frei von einer datentechnischen und/oder steuerungstechnischen Verbindung mit der Steuereinheit 16a ausgebildet ist.
Die Schnittstellenvorrichtung 46a weist ein Fluidübertragungsmodul 54a zu einer Übertragung eines Fluids von dem an der Roboter-Werkzeug-Verbindungseinheit 48a angeordneten Werkzeugeinheit 44a, insbesondere von der Handwerkzeugmaschine 122a, auf. Das Fluidübertragungsmodul 54a ist eines der oben genannten Schnittstellenmodule. Alternativ ist auch denkbar, dass die Schnittstellenvorrichtung 46a frei von einem Fluidübertragungsmodul 54a ausgebildet ist. Das Fluidübertragungsmodul 54a ist eines der Schnittstellenmodule. Das
Fluidübertragungsmodul 54a weist zumindest eine fluidtechnische Schnittstelle (hier nicht dargestellt) zu einer fluidtechnischen Verbindung mit einem Absaugelement 136a, beispielsweise einem Schlauch, einem Rohr, einem Luftanschlussstutzen oder dergleichen, der Werkzeugeinheit 44a, insbesondere der Handwerkzeugmaschine 122a, auf. Das Fluidübertragungsmodul 54a ist zu einem Absaugen eines, insbesondere durch ein Bearbeiten des Objekts 68a durch die Bearbeitungseinheit 12a, insbesondere die Werkzeugeinheit 44a, erzeugbaren Abtrags vorgesehen. Das Fluidübertragungsmodul 54a weist eine weitere fluidtechnische Schnittstelle (hier nicht dargestellt) zu einer fluidtechnischen Verbindung mit einer Absaugeinheit (hier nicht dargestellt), insbesondere einem Absaugschlauch 140a der Absaugeinheit, auf. Es ist denkbar, dass die Absaugeinheit Teil des autonomen Arbeitsgeräts 10a ist oder, dass die Absaugeinheit separat zu dem autonomen Arbeitsgerät 10a ausgebildet ist. Alternativ ist auch denkbar, dass das Fluidübertragungsmodul 54a die Absaugeinheit aufweist. Die Absaugeinheit weist beispielsweise ein Gebläse oder dergleichen auf, um insbesondere einen Luftstrom zum Absaugen eines Abtrags zu erzeugen. Es ist denkbar, dass die Absaugeinheit als ein Staubsauger oder dergleichen ausgebildet ist. Das Fluidübertragungsmodul 54a ist dazu vorgesehen, die Werkzeugeinheit 44a, insbesondere das Absaugelement 136a, mit der Absaugeinheit zu verbinden. Es ist denkbar, dass das Fluidübertragungsmodul 54a zumindest ein Ventil zur Funktionssteuerung des Fluidübertragungsmoduls 54a aufweist, insbesondere um eine Fluidübertragung durch das Fluidübertragungsmodul 54a zu regeln, vorzugsweise freizugeben und/oder zu blockieren. Es ist denkbar, dass das Fluidübertragungsmodul 54a, insbesondere das Ventil des Fluidübertragungsmoduls 54a, steuerungstechnisch und/oder datentechnisch mit der Steuereinheit 16a verbunden ist, vorzugsweise zumindest in einem an der Roboter-Werkzeug-Verbin- dungseinheit 48a angeordneten Zustand des Fluidübertragungsmoduls 54a.
Alternativ oder zusätzlich ist denkbar, dass das Fluidübertragungsmodul 54a dazu eingerichtet ist, ein Fluid, insbesondere eine Flüssigkeit, vorzugsweise Wasser, und/oder Luft, zu der an der Roboter-Werkzeug-Verbindungseinheit 48a angeordneten Werkzeugeinheit 44a zu übertragen, beispielsweise zu einer Reinigung des Werkzeugs und/oder des zu bearbeitenden Objekts 68a, insbesondere bei einer Bearbeitung durch die Bearbeitungseinheit 12a, insbesondere die Werkzeugeinheit 44a. Beispielsweise weist die Werkzeugeinheit 44a eine
Ausblaslanze (hier nicht dargestellt) oder dergleichen auf, die dazu vorgesehen ist, Abtrag aus einem mittels der Bearbeitungseinheit 12a erzeugten Bohrloch zu blasen, vorzugsweise mittels einer über das Fluidübertragungsmodul 54a übertragenen Luft.
Ferner ist alternativ oder zusätzlich denkbar, dass das Fluidübertragungsmodul 54a zu einem fluidtechnischen Antrieb einer an der Roboter-Werkzeug-Verbin- dungseinheit 48a angeordneten, insbesondere fluidtechnisch antreibbar ausgebildeten, Werkzeugeinheit 44a vorgesehen ist. Es ist beispielsweise denkbar, dass eine pneumatisch antreibbare Werkzeugeinheit 44a mittels des Fluidübertragungsmoduls 54a pneumatisch antreibbar ist oder über das Fluidübertragungsmodul 54a mit einer pneumatischen Antriebseinheit verbindbar ist. Die pneumatische Antriebseinheit kann Teil des autonomen Arbeitsgeräts 10a oder separat zu dem autonomen Arbeitsgerät 10a ausgebildet sein. Beispielsweise ist auch denkbar, dass eine hydraulisch antreibbare Werkzeugeinheit 44a mittels des Fluidübertragungsmoduls 54a hydraulisch antreibbar ist oder über das Fluidübertragungsmodul 54a mit einer hydraulischen Antriebseinheit verbindbar ist. Die hydraulische Antriebseinheit kann Teil des autonomen Arbeitsgeräts 10a oder separat zu dem autonomen Arbeitsgerät 10a ausgebildet sein.
Die Schnittstellenvorrichtung 46a weist ein Detektionsmodul 56a zur Identifikation der an der Roboter-Werkzeug-Verbindungseinheit 48a angeordneten Werkzeugeinheit 44a, insbesondere der Handwerkzeugmaschine 122a, auf. Das Detektionsmodul 56a ist eines der oben genannten Schnittstellenmodule. Alternativ ist auch denkbar, dass die Schnittstellenvorrichtung 46a frei von einem Detektionsmodul 56a ausgebildet ist. Das Detektionsmodul 56a ist zumindest in einem an der Roboter-Werkzeug-Verbindungseinheit 48a angeordneten Zustand mit der Steuereinheit 16a datentechnisch verbunden, insbesondere kabellos und/oder kabelgebunden. Das Detektionsmodul 56a kann beispielsweise mittels RFID, mechanischer Codierung, optischer Detektion oder dergleichen die Werkzeugeinheit 44a zumindest in einem an der Roboter-Werkzeug-Verbindungseinheit 48a angeordneten Zustand der Werkzeugeinheit 44a identifizieren. Das Detektionsmodul 56a ist beispielsweise dazu eingerichtet, bei der Identifikation der Werkzeugeinheit 44a zumindest einen Werkzeugtyp, eine Seriennummer oder dergleichen der
Werkzeugeinheit 44a, insbesondere der Handwerkzeugmaschine 122a, zu identifizieren.
Alternativ oder zusätzlich ist denkbar, dass die Schnittstellenvorrichtung 46a ein Materialzuführungsmodul 58a zu einer Zuführung von Material an die an der Ro- boter-Werkzeug-Verbindungseinheit 48a angeordnete Werkzeugeinheit 44a aufweist. Das Materialzuführungsmodul 58a ist eines der oben genannten Schnittstellenmodule. Beispielsweise ist das Materialzuführungsmodul 58a zu einem Zuführen von Dübeln, Farbe, Klebstoff, Beton oder dergleichen eingerichtet. Es ist denkbar, dass das Materialzuführungsmodul 58a mit einem Materialreservoir verbunden ist, welches beispielsweise Teil des autonomen Arbeitsgeräts 10a ist oder separat zu dem autonomen Arbeitsgerät 10a ausgebildet ist, oder selbst ein Materialreservoir aufweist. Das Materialreservoir weist insbesondere das über das Materialzuführungsmodul 58a an die Werkzeugeinheit 44a zu fördernde Material auf. Beispielsweise ist ein Material mittels einer Fördereinheit, insbesondere einer Pumpe, einem Kompressor oder dergleichen, über das Materialzuführungsmodul 58a an die Werkzeugeinheit 44a zuführbar. Es ist denkbar, dass die Fördereinheit Teil des Materialzuführungsmoduls 58a, Teil des autonomen Arbeitsgeräts 10a oder separat zu dem autonomen Arbeitsgerät 10a ausgebildet ist. Es ist denkbar, dass das Materialzuführungsmodul zumindest ein Ventil zur Funktionssteuerung des Materialzuführungsmoduls 58a aufweist, insbesondere um eine Materialübertragung durch das Materialzuführungsmodul 58a zu regeln, vorzugsweise freizugeben oder zu blockieren. Es ist denkbar, dass das Materialzuführungsmodul 58a, insbesondere das Ventil des Materialzuführungsmoduls 58a, steuerungstechnisch und/oder datentechnisch mit der Steuereinheit 16a verbunden ist, vorzugsweise zumindest in einem an der Roboter-Werkzeug-Verbin- dungseinheit 48a angeordneten Zustand des Materialzuführungsmoduls 58a.
Eine Verbindung der Werkzeugeinheit 44a mit der Roboter-Werkzeug-Verbin- dungseinheit 48a ist manuell und/oder zumindest teilautomatisiert herstellbar und/oder lösbar. Es ist denkbar, dass das autonome Arbeitsgerät 10a ein Werkzeugmagazin (hier nicht dargestellt) aufweist. Alternativ ist denkbar, dass das Werkzeugmagazin separat zu dem autonomen Arbeitsgerät 10a ausgebildet ist, vorzugsweise stationär in der Arbeitsumgebung 26a positioniert ist. Das Werkzeugmagazin weist beispielsweise eine Vielzahl an unterschiedlichen
Werkzeugeinheiten auf. Die Schnittstellenvorrichtung 46a ist derart ausgebildet, dass die Werkzeugeinheiten aus dem Werkzeugmagazin manuell und/oder automatisch mit der Roboter-Werkzeug-Verbindungseinheit 48a koppelbar sind. Zumindest eine mechanische Verbindung der Werkzeugeinheit 44a mit der Robo- ter-Werkzeug-Verbindungseinheit 48a ist beispielsweise mittels einer Rastverbindung, einer Klemmverbindung, einem Bajonettverschluss oder dergleichen herstellbar. Die Rastverbindung kann beispielsweise durch einen Rasthaken und/oder eine Kugelraste erfolgen. Eine Verbindung der Roboter-Werkzeug-Ver- bindungseinheit 48a mit der Werkzeugeinheit 44a basiert vorzugsweise auf dem Poka-Yoke-Prinzip. Es ist denkbar, dass die Roboter-Werkzeug-Verbindungsein- heit 48a einen Stellmotor oder dergleichen zu einem automatischen Lösen der Verbindung zwischen der Werkzeugeinheit 44a und der Roboter-Werkzeug-Ver- bindungseinheit 48a aufweist. Alternativ oder zusätzlich ist denkbar, dass die mechanische Verbindung zwischen der Werkzeugeinheit 44a und der Roboter- Werkzeug-Verbindungseinheit 48a automatisch durch mechanische Kontaktierung der Werkzeugeinheit 44a und/oder der Roboter-Werkzeug-Verbindungsein- heit 48a mit einem Objekt automatisch lösbar ist.
Die Schnittstellenvorrichtung 46a weist eine Reinigungseinheit 60a auf. Die Reinigungseinheit 60a ist dazu vorgesehen, die Roboter-Werkzeug-Verbindungsein- heit 48a und/oder die Werkzeugeinheit 44a bei einem Verbinden der Roboter- Werkzeug-Verbindungseinheit 48a mit der Werkzeugeinheit 44a zumindest teilweise automatisch zu reinigen. Die Reinigungseinheit 60a ist zu einer fluidtechnischen Reinigung eingerichtet. Die Reinigungseinheit 60a weist einen Fluidkanal 142a auf. Der Fluidkanal verläuft vorzugsweise zumindest teilweise durch die Ro- boter-Werkzeug-Verbindungseinheit 48a. Durch eine Annäherung der Werkzeugeinheit 44a an die Roboter-Werkzeug-Verbindungseinheit 48a ist ein Luftstrom in dem Fluidkanal erzeugbar, welcher insbesondere zur Reinigung der Werkzeugeinheit 44a und/oder der Roboter-Werkzeug-Verbindungseinheit 48a nutzbar ist. Alternativ ist auch denkbar, dass die Schnittstellenvorrichtung 46a frei von einer Reinigungseinheit 60a ausgebildet ist. Es ist denkbar, dass die Reinigungseinheit 60a als eines der Schnittstellenmodule ausgebildet ist.
Figur 4 zeigt einen schematischen Ablauf eines Verfahrens zu einem zumindest teilweise automatischen Bearbeiten des Objekts 68a, insbesondere zu einem
zumindest teilweise automatischen Erzeugen von Bohrlöchern in dem Objekt 68a mittels des autonomen Arbeitsgeräts 10a, insbesondere mittels der Bearbeitungseinheit 12a.
In einem Verfahrensschritt, insbesondere in einem Klassifizierungsschritt 100a, wird in Abhängigkeit von einem Abgleich der Soll-Kenngröße des zumindest einen Prüfobjekts 18a in der Arbeitsumgebung der Bearbeitungseinheit 12a und der Ist-Kenngröße des zumindest einen Prüfobjekts 18a das Prüfobjekt 18a als Lokalisierungsreferenzobjekt 20a klassifiziert.
In einem Verfahrensschritt, insbesondere einem Überprüfungsschritt 98a, wird ein Bedarf an zusätzlichen Lokalisierungsreferenzelementen 22a überprüft. Vorzugsweise werden, insbesondere in dem Überprüfungsschritt 98a, Teilbereiche 90a, 92a der Arbeitsumgebung 26a mittels der Steuereinheit 16a identifiziert, in welchen eine Lokalisierung der Bearbeitungseinheit 12a anhand des zumindest einen Prüfobjekts 18a möglich ist. Insbesondere wird, vorzugsweise in dem Überprüfungsschritt 98a, überprüft, ob in den für die Bearbeitung des Objekts 68a, insbesondere für die Durchführung des Bearbeitungsplans, relevanten Teilbereichen 90a, 92a, vorzugsweise ob an den für die Bearbeitung des Objekts 68a, insbesondere für die Durchführung des Bearbeitungsplans, relevanten Stützstellen 28a, 94a eine Lokalisierung der Bearbeitungseinheit 12a anhand des zumindest einen als Lokalisierungsreferenzobjekt 20a klassifizierten Prüfobjekts 18a möglich ist.
In einem Verfahrensschritt, insbesondere in einem Montageplanungsschritt 102a, wird zumindest in Abhängigkeit von einer Überprüfung des Bedarfs an zusätzlichen Lokalisierungsreferenzelementen 22a eine Soll-Montageposition für das zumindest eine zusätzliche Lokalisierungsreferenzelement22a mittels der Steuereinheit 16a ermittelt. Es ist denkbar, dass in einem Verfahrensschritt, insbesondere in dem Montageplanungsschritt 102, eine für das zumindest eine zusätzliche Lokalisierungsreferenzelement 22a ermittelte Soll-Montageposition über die Ausgabeeinheit ausgegeben, auf die Soll-Montageposition in der Arbeitsumgebung 26a projiziert und/oder in dem Arbeitsumgebungsmodell hinterlegt wird.
In einem Verfahrensschritt, insbesondere in einem Montageschritt 134a, wird das zumindest eine zusätzliche Lokalisierungsreferenzelement 22a an der Soll-Mon- tageposition des zusätzlichen Lokalisierungsreferenzelements 22a befestigt, beispielsweise manuell durch einen Nutzer oder automatisch durch das autonome Arbeitsgerät 10a, insbesondere durch die Bearbeitungseinheit 12a.
In einem Verfahrensschritt, insbesondere in einem Arbeitsschritt 104a, wird das Objekt 68a mittels der Bearbeitungseinheit 12a bearbeitet. In dem Objekt 68a wird, insbesondere in dem Arbeitsschritt 104a, zumindest ein Bohrloch mittels der Bearbeitungseinheit 12a erzeugt. Die Bearbeitungseinheit 12a und/oder die Fortbewegungseinheit 14a wird, insbesondere in dem Arbeitsschritt 104a, bei dem Bearbeiten des Objekts 68a und/oder zur Lokalisierung in der Arbeitsumgebung in Abhängigkeit von dem zumindest einen als Lokalisierungsreferenzobjekt 20a klassifizierten Prüfobjekt 18a und/oder in Abhängigkeit von dem zumindest einen zusätzlichen Lokalisierungsreferenzelement22a von der Steuereinheit 16a angesteuert.
Figur 5 zeigt einen schematischen Ablauf eines Verfahrens, insbesondere des Arbeitsschritts 104a aus Figur 4, zu einem zumindest teilweise automatischen Bearbeiten des Objekts 68a, insbesondere zu einem zumindest teilweise automatischen Erzeugen von Bohrlöchern in dem Objekt 68a mittels des autonomen Arbeitsgeräts 10a. In einem Verfahrensschritt, insbesondere in einem Freigabeschritt 138a, wird der für das Objekt 68a geplante Bearbeitungsschritt 158a durch die Bearbeitungseinheit 12a in Abhängigkeit von zumindest einer Oberflächenkenngröße zumindest eines Teils der Oberfläche 84a des Objekts 68a blockiert oder freigegeben.
In einem Verfahrensschritt, insbesondere in einem Korrekturschritt 106a, wird der geplante Bearbeitungsschritt in Abhängigkeit von dem Abgleich der Information aus der Hindernisdetektion in dem Bearbeitungsbereich 86a der Bearbeitungseinheit 12a mit dem Arbeitsumgebungsmodell korrigiert.
In einem Verfahrensschritt, insbesondere in dem Bearbeitungsschritt 158a, wird der geplante, und insbesondere gegebenenfalls in dem Korrekturschritt 106a korrigierte, Bearbeitungsschritt 158a durchgeführt.
In den Figuren 6 bis 13 sind weitere Ausführungsbeispiele der Erfindung gezeigt. Die nachfolgenden Beschreibungen und die Zeichnungen beschränken sich im Wesentlichen auf die Unterschiede zwischen den Ausführungsbeispielen, wobei bezüglich gleich bezeichneter Bauteile, insbesondere in Bezug auf Bauteile mit gleichen Bezugszeichen, grundsätzlich auch auf die Zeichnungen und/oder die Beschreibung der anderen Ausführungsbeispiele, insbesondere der Figuren 1 bis 5, verwiesen werden kann. Zur Unterscheidung der Ausführungsbeispiele ist der Buchstabe a den Bezugszeichen des Ausführungsbeispiels in den Figuren 1 bis 5 nachgestellt. In den Ausführungsbeispielen der Figuren 6 bis 13 ist der Buchstabe a durch die Buchstaben b bis e ersetzt.
Figur 6 zeigt ein System 36b mit einem autonomen Arbeitsgerät Alternativ ist auch denkbar, dass das Arbeitsgerät 10b als manuelles Arbeitsgerät 10b ausgebildet ist. und mit zumindest einem Lokalisierungsreferenzelement 22b. Das autonome Arbeitsgerät 10b ist als ein Baustellenroboter, insbesondere als ein Bohrroboter, ausgebildet. Alternativ ist jedoch auch denkbar, dass das autonome Arbeitsgerät 10b als ein von einem Bohrroboter verschiedener Baustellenroboter, beispielsweise als ein Malerroboter, als ein Fensterputzroboter, als ein Kehrmaschinenroboter, als ein Außenbereichsroboter, beispielsweise als ein Mulchroboter, als ein Heckenschneidroboter, als ein Schneeräumroboter, als ein Sammelroboter, insbesondere zum Sammeln von Blättern, Zweigen oder dergleichen, als eine Kombination dieser oder als ein anderes, einem Fachmann als sinnvoll erscheinendes autonomes Arbeitsgerät 10b ausgebildet ist. Das autonome Arbeitsgerät 10b weist eine Bearbeitungseinheit 12b auf. Die Bearbeitungseinheit 12b weist eine Bohreinheit 88b auf, ist insbesondere als eine Bohreinheit 88b ausgebildet. Das autonome Arbeitsgerät 10b weist eine Fortbewegungseinheit 14b zu einem Fortbewegen der Bearbeitungseinheit 12b auf. Das autonome Arbeitsgerät 10b weist eine Steuereinheit 16b zumindest zu einer Ansteuerung der Bearbeitungseinheit 12b auf.
Das autonome Arbeitsgerät 10b weist eine an der Fortbewegungseinheit 14b angeordnete Erfassungseinheit 30b zur Erfassung des zumindest einen Lokalisierungsreferenzelements 22b auf. Die Erfassungseinheit 30b weist beispielsweise einen Theodolit, einen Tachymeter oder dergleichen zu einem Erfassen des
Lokalisierungsreferenzelements 22b auf. Die Erfassungseinheit 30b, insbesondere der Theodolit oder das Tachymeter, ist zu einem automatischen Erfassen des Lokalisierungsreferenzelements 22b eingerichtet, insbesondere mittels der Steuereinheit 16b. Das Lokalisierungsreferenzelement 22b ist beispielsweise als Reflexionsmarker, insbesondere als Tripelspiegel, als reflektierende Folien, oder dergleichen ausgebildet.
Die Steuereinheit 16b ist dazu vorgesehen, die Bearbeitungseinheit 12b und/oder die Fortbewegungseinheit 14b zu einer Bewegung der Bearbeitungseinheit 12b und/oder der Fortbewegungseinheit 14b einer der Arbeitsumgebung 26b und/oder zu einem Bearbeiten eines Objekts 68b durch die Bearbeitungseinheit 12b in Abhängigkeit von dem zumindest einen in der Arbeitsumgebung 26b angeordneten Lokalisierungsreferenzelement 22b anzusteuern. Alternativ oder zusätzlich ist jedoch auch denkbar, dass die Erfassungseinheit 30b eine Lidarein- heit, eine Stereokamera, eine Time-of-Flight-Kamera, ein auf Streifen Projektion basiertes Kamerasystem und/oder andere, einem Fachmann als sinnvoll erscheinende Erfassungsmittel zur Lokalisierung des autonomen Arbeitsgeräts 10b, insbesondere der Fortbewegungseinheit 14b und/oder der Bearbeitungseinheit 12b, aufweist.
Die Steuereinheit 16b ist dazu vorgesehen, die mittels der Erfassungseinheit 30b erfassten Informationen basierend auf einem Simultaneous Localization and Mapping- (SLAM) Verfahren auszuwerten, vorzugsweise zu einer Bewegung des autonomen Arbeitsgeräts 10b, bevorzugt der Bearbeitungseinheit 12b und/oder der Fortbewegungseinheit 14b, zu einer Arbeitsposition des autonomen Arbeitsgeräts 10b, insbesondere der Fortbewegungseinheit 14b. Die Arbeitsposition des autonomen Arbeitsgeräts 10b weist lediglich Informationen zu einer Position des autonomen Arbeitsgeräts 10b, insbesondere der Fortbewegungseinheit 14b, auf. Die Arbeitsposition ist frei von Informationen zu einer Ausrichtung, insbesondere zu Drehlagen, der Bearbeitungseinheit 12b, bevorzugt zu dem Teil der Bearbeitungseinheit 12b. Die Arbeitsposition ist in dem Bearbeitungsplan, insbesondere in dem Arbeitsumgebungsmodell, hinterlegt. Die Steuereinheit 16b ist dazu vorgesehen, das autonome Arbeitsgerät 10b, insbesondere die Bearbeitungseinheit 12b und/oder die Fortbewegungseinheit 14b, in Abhängigkeit von dem Bearbeitungsplan und in Abhängigkeit von den mittels der Erfassungseinheit 30b
erfassten Informationen zu der Arbeitsposition zur Bearbeitung des zumindest einen Objekts 68b zu bewegen.
Die Steuereinheit 16b ist dazu vorgesehen, zumindest in Abhängigkeit von dem mittels der Erfassungseinheit 30b erfassten Lokalisierungsreferenzelement 22b eine Position und eine Ausrichtung zumindest eines Teils der Bearbeitungseinheit 12b zu ermitteln. Die Ermittlung einer Position und einer Ausrichtung zumindest des Teils der Bearbeitungseinheit 12b umfasst eine Bestimmung einer Position und sämtlicher Drehlagen des Teils der Bearbeitungseinheit 12b. Der Teil der Bearbeitungseinheit 12b entspricht hier beispielhaft einer Werkzeugeinheit 44b der Bearbeitungseinheit 12b, insbesondere einem Werkzeug, insbesondere einem an einer Handwerkzeugmaschine der Werkzeugeinheit 44b angeordneten Werkzeug, der Werkzeugeinheit 44b. Die Steuereinheit 16b ist dazu vorgesehen, die Position und die Ausrichtung zumindest des Teils der Bearbeitungseinheit 12b nach einem Bewegen des autonomen Arbeitsgeräts 10b, insbesondere der Bearbeitungseinheit 12b und/oder der Fortbewegungseinheit 14b, zu der Arbeitsposition zu bestimmen, bevorzugt bei fester Position der Fortbewegungseinheit 14b.
Das autonome Arbeitsgerät 10b weist eine höhenverstellbare Arbeitsplattform 32b auf. Die Arbeitsplattform 32b ist an der Fortbewegungseinheit 14b angeordnet. Die Erfassungseinheit 30b ist auf der Arbeitsplattform 32b angeordnet. Eine Manipulatoreinheit 72b der Bearbeitungseinheit 12b ist auf der Arbeitsplattform 32b angeordnet. Die Arbeitsplattform 32b ist relativ zu einem Untergrund 150b, auf welchem das autonome Arbeitsgerät 10b, insbesondere die Fortbewegungseinheit 14b, angeordnet ist, höhenverstellbar. Das autonome Arbeitsgerät 10b weist eine Hubeinheit 144b auf. Mittels der Hubeinheit 144b ist die Arbeitsplattform 32b höhenverstellbar. Die Hubeinheit 144b weist eine Teleskopstange 146b auf. Die Teleskopstange 146b ist als eine hydraulische Teleskopstange ausgebildet. Alternativ ist auch denkbar, dass die Hubeinheit 144b mehr als eine Teleskopstange 146b aufweist. Ferner ist alternativ oder zusätzlich denkbar, dass die Hubeinheit 144b einen Scherenhubmechanismus, einen Linearantrieb, beispielsweise eine Zahnstange, eine Schubkette, einen Kugelgewindetrieb, einen Linearmotor, oder dergleichen aufweist. Die Arbeitsplattform 32b ist über die Hubeinheit 144b, insbesondere die Teleskopstange 146b, mit der Fortbewegungseinheit
14b verbunden. Die Hubeinheit 144b ist steuerungstechnisch mit der Steuereinheit 16b verbunden, insbesondere kabellos und/oder kabelgebunden. Die Hubeinheit 144b ist Teil der Bearbeitungseinheit 12b. Alternativ ist auch denkbar, dass die Arbeitsplattform 32b derart an der Manipulatoreinheit 72b der Bearbeitungseinheit 12b angeordnet ist, dass die Arbeitsplattform 32b mittels der Manipulatoreinheit 72b höhenverstellbar ist. Die Manipulatoreinheit 72b ist als Roboterarm ausgebildet. Die Manipulatoreinheit 72b weist eine Mehrachskinematik auf. Die Manipulatoreinheit 72b weist sechs Freiheitsgrade auf. Alternativ ist jedoch auch denkbar, dass die Manipulatoreinheit 72b weniger als sechs Freiheitsgrade aufweist.
Das autonome Arbeitsgerät 10b weist einen Neigungsmesser 34b auf. Der Neigungsmesser 34b ist zu einer Ermittlung einer Neigung relativ zu einer Aufstellebene 42b des autonomen Arbeitsgeräts 10b, insbesondere der Fortbewegungseinheit 14b, vorgesehen. Die Steuereinheit 16b ist dazu vorgesehen, die Position und die Ausrichtung zumindest des Teils der Bearbeitungseinheit 12b in einem Arbeitsumgebungsmodell in Abhängigkeit von mittels der Erfassungseinheit 30b und des Neigungsmessers 34b ermittelten Messgrößen zu ermitteln. Der Neigungsmesser 34b kann als mechanischer Neigungsmesser, als elektrischer Neigungsmesser oder als digitaler Neigungsmesser ausgebildet sein.
Die Steuereinheit 16b ist dazu vorgesehen, zumindest eine Messgröße des Neigungsmessers 34b zu einem lotrechten Ausrichten der Manipulatoreinheit 72b der Bearbeitungseinheit 12b zu nutzen. Die Steuereinheit 16b ist dazu vorgesehen, ein Koordinatensystem der Manipulatoreinheit 72b in Abhängigkeit von einer mittels des Neigungsmessers 34b ermittelten Neigung der Manipulatoreinheit 72b relativ zu der Aufstellebene 42b in eine lotrechte Lage zu transformieren. Bevorzugt befindet sich das autonome Arbeitsgerät 10b, insbesondere die Fortbewegungseinheit 14b, bei einer Erfassung von Messgrößen durch den Neigungsmesser 34b und/oder die Erfassungseinheit 30b zur Ermittlung einer Position und einer Ausrichtung zumindest des Teils der Bearbeitungseinheit an einer festen Position.
Die Steuereinheit 16b ist dazu vorgesehen, zumindest eine Messgröße des Neigungsmessers 34b zur Unterstützung einer Erfassung des zumindest einen Lokalisierungsreferenzelements 22b zu verarbeiten. Die zumindest eine Messgröße
des Neigungsmessers 34b ist unterstützend bei einem automatischen Erfassen des zumindest einen Lokalisierungsreferenzelements 22b durch die Erfassungseinheit 30b mittels der Steuereinheit 16b nutzbar.
Die Steuereinheit 16b ist dazu vorgesehen, einen Bedarf an zusätzlichen Lokalisierungsreferenzelementen 108b zu überprüfen. Die Steuereinheit 16b ist dazu vorgesehen, einen Bedarf an zusätzlichen Lokalisierungsreferenzelementen 108b in Abhängigkeit von dem Bearbeitungsplan, insbesondere in Abhängigkeit von der zumindest einen Arbeitsposition, zu überprüfen und/oder zu ermitteln. Die Steuereinheit 16b ist dazu vorgesehen, in Abhängigkeit von dem Bearbeitungsplan, vorzugsweise in Abhängigkeit von der zumindest einen Arbeitsposition, und/oder anhand von mittels der Erfassungseinheit 30b ermittelten Informationen zu der Arbeitsumgebung 26b, zumindest einen Bedarf an zusätzlichen Lokalisierungsreferenzelementen 108b zu ermitteln, welche die Steuereinheit 16b benötigt, um eine Ermittlung der Position und Ausrichtung des Teils der Bearbeitungseinheit 12b in der gesamten Arbeitsumgebung 26b oder in einem hinsichtlich einer Bearbeitung des zumindest einen Objekts 68b relevanten Teils der Arbeitsumgebung 26b zu ermöglichen. Eine Ausdehnung des hinsichtlich einer Bearbeitung des zumindest einen Objekts 68b relevanten Teils der Arbeitsumgebung 26b hängt insbesondere von dem Bearbeitungsplan, vorzugsweise der zumindest einen Arbeitsposition, ab.
Die Steuereinheit 16b ist dazu vorgesehen, in Abhängigkeit von einer Überprüfung des Bedarfs an zusätzlichen Lokalisierungsreferenzelementen 108b eine Soll-Montageposition für zumindest ein zusätzliches Lokalisierungsreferenzelement 108b zu bestimmen. Beispielsweise umfasst das autonome Arbeitsgerät 10b eine Ausgabeeinheit (hier nicht dargestellt). Die Ausgabeeinheit ist beispielsweise als eine optische Ausgabeeinheit, eine akustische Ausgabeeinheit, eine haptische Ausgabeeinheit oder als eine Kombination dieser ausgebildet. Die Ausgabeeinheit weist beispielsweise einen Bildschirm, einen Lautsprecher, ein Leuchtelement, beispielsweise eine LED, oder dergleichen auf. Es ist denkbar, dass die Ausgabeeinheit dazu vorgesehen ist, die Soll-Montageposition auszugeben. Beispielsweise ist denkbar, dass die Soll-Montageposition auf einem Bildschirm der Ausgabeeinheit angezeigt ist und/oder dass die Ausgabeeinheit zu einer Projektion der Soll-Montageposition in der Arbeitsumgebung 26b eingerichtet
ist. Alternativ oder zusätzlich ist auch denkbar, dass das autonome Arbeitsgerät 10b, insbesondere die Bearbeitungseinheit 12b, dazu eingerichtet ist, das zusätzliche Lokalisierungsreferenzelement 108b zumindest teilweise automatisch an der Soll-Montageposition zu befestigen.
Die Steuereinheit 16b ist dazu vorgesehen, eine Ist-Position des zusätzlichen Lokalisierungsreferenzelements 108b mittels der Erfassungseinheit 30b, insbesondere dem Theodolit oder dem Tachymeter, zu ermitteln. Die Steuereinheit 16b ist dazu vorgesehen, die Ist-Position des zusätzlichen Lokalisierungsreferenzelements 108b auf dem Speicherelement der Steuereinheit 16b, insbesondere in dem Arbeitsumgebungsmodell, zu speichern. Das zusätzliche Lokalisierungsreferenzelement 108b ist zu einer Lokalisierung des autonomen Arbeitsgeräts 10b, insbesondere der Bearbeitungseinheit 12b und/oder der Fortbewegungseinheit 14b, in der Arbeitsumgebung 26b und/oder zu einer Ermittlung der Position und Ausrichtung zumindest des Teils der Bearbeitungseinheit 12b nutzbar.
Figur 7 zeigt einen schematischen Ablauf eines Verfahrens zu einem zumindest teilweise automatischen Bearbeiten des Objekts 68b, insbesondere zu einem zumindest teilweise automatischen Erzeugen von Bohrlöchern in dem Objekt 68b mittels des autonomen Arbeitsgeräts 10b.
In einem Verfahrensschritt, insbesondere in einem Lokalisierungsschritt 160b, wird das autonome Arbeitsgerät 10b, insbesondere die Fortbewegungseinheit 14b, in Abhängigkeit von mittels der Erfassungseinheit 30b erfassten Informationen zu der Arbeitsumgebung 26b, insbesondere in Abhängigkeit von dem zumindest einen Lokalisierungsreferenzelement 22b, in der Arbeitsumgebung 26b bewegt, bevorzugt mittels einer Ansteuerung durch die Steuereinheit 16b. Das autonome Arbeitsgerät 10b, vorzugsweise die Fortbewegungseinheit 14b, wird, insbesondere in dem Lokalisierungsschritt 160b, zu einer Bewegung des autonomen Arbeitsgeräts 10b zu der Arbeitsposition der Bearbeitungseinheit 12b in Abhängigkeit von mittels der Erfassungseinheit 30b erfassten Informationen von der Steuereinheit 16b angesteuert. Es ist denkbar, dass, insbesondere in dem Lokalisierungsschritt 106b, eine mittels des Neigungsmessers 34b ermittelte Messgröße zu einer Unterstützung einer automatischen Erfassung des zumindest
einen Lokalisierungsreferenzelements 22b durch die Erfassungseinheit 30b von der Steuereinheit 16b verarbeitet wird.
In einem Verfahrensschritt, insbesondere in einem Lagebestimmungsschritt 110b, wird zumindest in Abhängigkeit von dem mittels der an der Fortbewegungseinheit 14b angeordneten Erfassungseinheit 30b erfassten Lokalisierungsreferenzelement 22b eine Position und eine Ausrichtung zumindest des Teils der Bearbeitungseinheit 12b ermittelt. Das autonome Arbeitsgerät 10b, insbesondere die Fortbewegungseinheit 14b, befinden sich insbesondere bei einer Erfassung von Messgrößen durch den Neigungsmesser 34b und/oder die Erfassungseinheit 30b zur Ermittlung einer Position und einer Ausrichtung zumindest des Teils der Bearbeitungseinheit 12b an einer festen Position, insbesondere an der Arbeitsposition.
In einem Verfahrensschritt, insbesondere in einem Arbeitsschritt 104b, wird das Objekt 68b mittels der Bearbeitungseinheit 12b bearbeitet. In dem Objekt 68b wird, insbesondere in dem Arbeitsschritt 104b, zumindest ein Bohrloch mittels der Bearbeitungseinheit 12b erzeugt. Die Bearbeitungseinheit 12b und/oder die Fortbewegungseinheit 14b werden/wird, insbesondere in dem Arbeitsschritt 104b, bei dem Bearbeiten des Objekts 68b in Abhängigkeit von der, insbesondere im Lagebestimmungsschritt 110b ermittelten, Position und Ausrichtung zumindest des Teils der Bearbeitungseinheit 12b in dem Arbeitsumgebungsmodell von der Steuereinheit 16b angesteuert.
Figur 8 zeigt ein autonomes Arbeitsgerät 10c. Alternativ ist auch denkbar, dass das Arbeitsgerät 10c als manuelles Arbeitsgerät 10c ausgebildet ist. Das autonome Arbeitsgerät 10c ist als ein Baustellenroboter, insbesondere als ein Bohrroboter, ausgebildet. Alternativ ist jedoch auch denkbar, dass das autonome Arbeitsgerät 10c als ein von einem Bohrroboter verschiedener Baustellenroboter, beispielsweise als ein Malerroboter, als ein Fensterputzroboter, als ein Kehrmaschinenroboter, als ein Außenbereichsroboter, beispielsweise als ein Mulchroboter, als ein Heckenschneidroboter, als ein Schneeräumroboter, als ein Sammelroboter, insbesondere zum Sammeln von Blättern, Zweigen oder dergleichen, als eine Kombination dieser oder als ein anderes, einem Fachmann als sinnvoll erscheinendes autonomes Arbeitsgerät 10c ausgebildet ist. Das autonome
Arbeitsgerät 10c weist eine Bearbeitungseinheit 12c auf. Die Bearbeitungseinheit 12c ist als eine Bohreinheit ausgebildet.
Das autonome Arbeitsgerät 10c weist eine Fortbewegungseinheit 14c zu einem Fortbewegen der Bearbeitungseinheit 12c auf. Das autonome Arbeitsgerät 10c weist eine Steuereinheit 16c zumindest zu einer Ansteuerung der Bearbeitungseinheit 12c auf.
Das autonome Arbeitsgerät 10c weist zumindest eine Erfassungseinheit 30c auf. Die Steuereinheit 16c ist dazu vorgesehen, das autonome Arbeitsgerät 10c, insbesondere die Fortbewegungseinheit 14c und/oder die Bearbeitungseinheit 12c, in Abhängigkeit von mittels der Erfassungseinheit 30c erfassten Informationen anzusteuern. Die Erfassungseinheit 30c ist zumindest teilweise als eine optische Erfassungseinheit ausgebildet. Die Erfassungseinheit 30c weist beispielsweise zumindest eine Lidareinheit zu einem Erfassen einer Arbeitsumgebung 26c auf. Alternativ oder zusätzlich ist auch denkbar, dass die Erfassungseinheit 30c eine Stereokamera, eine Time-of- Flight- Kamera, ein auf Streifenprojektion basiertes Kamerasystem und/oder andere, einem Fachmann als sinnvoll erscheinende Erfassungsmittel aufweist. Die Steuereinheit 16c ist dazu vorgesehen, die mittels der Erfassungseinheit 30c, insbesondere der Lidareinheit, erfassten Informationen basierend auf einem Simultaneous Localization and Mapping- (SLAM) Verfahren auszuwerten. Das Simultaneous Localization and Mapping- (SLAM-) Verfahren ist insbesondere ein Verfahren zu einer simultanen Positionsbestimmung und Kartenerstellung in der Robotik, wobei insbesondere innerhalb des Verfahrens, vorzugsweise gleichzeitig, eine virtuelle Karte einer Umgebung und eine räumliche Lage einer bewegbaren Einheit, insbesondere des autonomen Arbeitsgeräts 10c, innerhalb der virtuellen Karte ermittelt wird. Die Steuereinheit 16c ist dazu vorgesehen, die Fortbewegungseinheit 14c bei einer Bewegung in der Arbeitsumgebung 26c in Abhängigkeit von mittels der Erfassungseinheit 30c, vorzugsweise der Lidareinheit, erfassten Informationen zu der Arbeitsumgebung 26c anzusteuern.
Das autonome Arbeitsgerät 10c weist einen Neigungsmesser 34c auf. Der Neigungsmesser 34c ist zu einer Ermittlung einer Neigung relativ zu einer Aufstellebene 42c des autonomen Arbeitsgeräts 10c, insbesondere der
Fortbewegungseinheit 14c, vorgesehen. Der Neigungsmesser 34c kann als mechanischer Neigungsmesser, als elektrischer Neigungsmesser oder als digitaler Neigungsmesser ausgebildet sein.
Das autonome Arbeitsgerät 10c weist einen Entfernungsmesser 38c auf. Der Entfernungsmesser 38c ist als elektrooptischer Entfernungsmesser, insbesondere als Laserinterferometer, ausgebildet. Alternativ ist auch denkbar, dass der Entfernungsmesser 38c als optischer Entfernungsmesser ausgebildet ist. Der Entfernungsmesser 38c ist zu einer Ermittlung einer Entfernung zu Objekten in der Arbeitsumgebung vorgesehen. Der Entfernungsmesser 38c ist an der Bearbeitungseinheit 12c angeordnet. Die Steuereinheit 16c ist dazu vorgesehen, in Abhängigkeit von mittels des Neigungsmessers 34c und des Entfernungsmessers 38c ermittelten Messgrößen eine Position und eine Ausrichtung zumindest eines Teils der Bearbeitungseinheit 12c in einem Arbeitsumgebungsmodell zu ermitteln. Die Ermittlung einer Position und einer Ausrichtung zumindest des Teils der Bearbeitungseinheit 12c umfasst eine Bestimmung einer Position und sämtlicher Drehlagen des Teils der Bearbeitungseinheit 12c. Der Teil der Bearbeitungseinheit 12c entspricht hier beispielhaft einer Werkzeugeinheit 44c der Bearbeitungseinheit 12c, insbesondere einem Werkzeug, beispielsweise einem an einer Handwerkzeugmaschine angeordneten Werkzeug, der Werkzeugeinheit 44c.
Die Steuereinheit 16c ist dazu vorgesehen, zumindest eine Messgröße des Neigungsmessers 34c zum Ausrichten des Entfernungsmessers 38c zu nutzen. Die Steuereinheit 16c ist dazu vorgesehen, zumindest eine Messgröße des Neigungsmessers 34c zu einem lotrechten Ausrichten einer Manipulatoreinheit 72c der Bearbeitungseinheit 12c zu nutzen. Die Steuereinheit 16c ist dazu vorgesehen, ein Koordinatensystem der Manipulatoreinheit 72c in Abhängigkeit von einer mittels des Neigungsmessers 34c ermittelten Neigung der Manipulatoreinheit 72c relativ zu der Aufstellebene 42c in eine lotrechte Lage zu transformieren. Die Steuereinheit 16c ist dazu vorgesehen, die Bearbeitungseinheit 12c und/oder die Fortbewegungseinheit 14c nach einer Transformation des Koordinatensystems der Manipulatoreinheit 72c in die lotrechte Lage zu einer Bewegung der Bearbeitungseinheit 12c zu einer Bearbeitungsposition der Bearbeitungseinheit 12c anzusteuern.
Die Bearbeitungsposition weist lediglich Informationen zu einer Position des autonomen Arbeitsgeräts, insbesondere der Bearbeitungseinheit 12c, auf. Die Bearbeitungsposition ist zumindest frei von Informationen zu einer Ausrichtung, insbesondere zu Drehlagen, der Bearbeitungseinheit 12c, bevorzugt zu dem Teil der Bearbeitungseinheit 12c. Die Bearbeitungsposition ist in dem Bearbeitungsplan, insbesondere in dem Arbeitsumgebungsmodell, hinterlegt. Das autonome Arbeitsgerät 10c, insbesondere die Fortbewegungseinheit 14c, befinden sich insbesondere bei einer Erfassung von Messgrößen durch den Neigungsmesser 34c und/oder den Entfernungsmesser 38c zur Ermittlung einer Position und einer Ausrichtung zumindest des Teils der Bearbeitungseinheit 12c an einer festen Position.
Der Entfernungsmesser 38c ist dazu vorgesehen, in einem mittels des Neigungsmessers 34c ausgerichteten Zustand des Entfernungsmessers 38c eine Messgröße in zumindest zwei verschiedenen Winkelstellungen zur Ermittlung der Position und der Ausrichtung des Teils der Bearbeitungseinheit 12c in dem Arbeitsumgebungsmodell zu erfassen. Der Entfernungsmesser 38c ist, insbesondere in einem mittels des Neigungsmessers 34c ausgerichteten Zustand, derart angeordnet, dass sich eine Erfassungsrichtung des Entfernungsmessers 38c in einem lotrecht ausgerichteten Zustand der Manipulatoreinheit 72c bei einer Drehung der Manipulatoreinheit 72c um eine Achse 40c in einer Ebene verläuft, die zumindest im Wesentlichen senkrecht zu der Achse 40c verläuft. Die Achse 40c verläuft in Lotrichtung. Die Steuereinheit 16c ist dazu vorgesehen, die Manipulatoreinheit 72c zu einer Drehung um die Achse 40c anzusteuern, sodass der Entfernungsmesser 38c eine Messgröße in den zumindest zwei verschiedenen Winkelstellungen erfasst. Die Steuereinheit 16c ist dazu vorgesehen, eine Ist-Position zumindest eines in dem Arbeitsumgebungsmodell als Lokalisierungsreferenzobjekt 20c klassifizierten Objekts in der Arbeitsumgebung 26c zu ermitteln und insbesondere mit einer Soll-Position aus dem Arbeitsumgebungsmodell abzugleichen.
Das als Lokalisierungsreferenzobjekt 20c klassifizierte Objekt kann beispielsweise eine Wand, das zu bearbeitende Objekt, eine Decke, ein Boden, eine Fassade, ein anderes, bevorzugt feststehendes, Gebäudeteil oder feststehendes, insbesondere stationäres, Objekt in der Arbeitsumgebung 26c sein. Es ist
denkbar, dass Objekte automatisch durch das autonome Arbeitsgerät 10c und/oder durch einen Nutzer manuell als Lokalisierungsreferenzobjekt 20c klassifizierbar sind. Eine Klassifizierung eines Objekts als Lokalisierungsreferenzobjekt 20c erfolgt mittels der Steuereinheit 16c, insbesondere durch einen Abgleich einer Soll-Kenngröße des Objekts und einer Ist-Kenngröße des Objekts. Die Steuereinheit 16c ist dazu vorgesehen, bei dem Abgleich der Soll-Kenngröße des Objekts mit der Ist-Kenngröße des Objekts eine Abweichung der Ist-Kenngröße von der Soll-Kenngröße zu ermitteln. Die Steuereinheit 16c ist dazu vorgesehen, das Objekt als Lokalisierungsreferenzobjekt 20c zu klassifizieren, wenn ein Wert der Abweichung der Ist-Kenngröße von der Soll-Kenngröße innerhalb eines Toleranzbereichs zu einem Wert der Soll-Kenngröße liegt. Liegt ein Wert der Abweichung der Ist-Kenngröße von der Soll-Kenngröße außerhalb des Toleranzbereichs zu einem Wert der Soll-Kenngröße, ist das Objekt insbesondere von einer Klassifizierung als Lokalisierungsreferenzobjekt 20c durch die Steuereinheit 16c ausgeschlossen. Der Toleranzbereich ist im Betriebsprogramm definiert, insbesondere in dem Arbeitsumgebungsmodell hinterlegt. Es ist denkbar, dass der Toleranzbereich anpassbar ist, insbesondere manuell durch einen Bediener und/oder automatisch durch die Steuereinheit 16c beispielsweise in Abhängigkeit von in dem Arbeitsumgebungsmodell hinterlegten Informationen. Es ist auch denkbar, dass unterschiedlichen Objekten in der Arbeitsumgebung 26c im Arbeitsumgebungsmodell verschiedene Toleranzbereiche zugeordnet sind.
Die Steuereinheit 16c ist dazu vorgesehen, aus dem Abgleich der Ist-Position mit der Soll-Position eine Normale des Lokalisierungsreferenzobjekts 20c zu ermitteln. Die Steuereinheit 16c ist dazu vorgesehen, die Ist-Position des als Lokalisierungsreferenzobjekt 20c klassifizierten Objekts in der Arbeitsumgebung 26c und deren Normale zur Ermittlung der Position und der Ausrichtung des Teils der Bearbeitungseinheit 12c in dem Arbeitsumgebungsmodell zu nutzen. Vorzugsweise ist die Steuereinheit 16c dazu vorgesehen, aus der ermittelten Ausrichtung und Position zumindest des Teils der Bearbeitungseinheit 12c eine Gesamtheit an Koordinaten aus dem Bearbeitungsplan in das Koordinatensystem der Manipulatoreinheit 72c, insbesondere in ein Koordinatensystem zumindest des Teils der Bearbeitungseinheit 12, umzurechnen. Die Steuereinheit 16c ist bevorzugt dazu vorgesehen, die Bearbeitungseinheit 12c und/oder die Fortbewegungseinheit 14c zu einem Bearbeiten eines Objekts 68c in Abhängigkeit von der ermittelten
Ausrichtung und Position zumindest des Teils der Bearbeitungseinheit 12c anzusteuern.
Das autonome Arbeitsgeräte 10c weist eine höhenverstellbare Arbeitsplattform 32c auf. Die Arbeitsplattform 32c ist auf der Fortbewegungseinheit 14c angeordnet. Der Entfernungsmesser 38c ist auf der Arbeitsplattform 32c angeordnet. Der Entfernungsmesser 38c ist an der Manipulatoreinheit 72c, insbesondere an einem freien Ende 118c der Manipulatoreinheit 72c angeordnet. Der Neigungsmesser 34c ist auf der Arbeitsplattform 32c angeordnet. Der Neigungsmesser 34c ist auf der Manipulatoreinheit 72c angeordnet, insbesondere an dem freien Ende 118c der Manipulatoreinheit 72c angeordnet. Alternativ ist auch denkbar, dass der Neigungsmesser 34c separat zu der Manipulatoreinheit 72c, insbesondere der Bearbeitungseinheit 12c, auf der Arbeitsplattform 32c oder, dass der Neigungsmesser 34c an, insbesondere in, einem Gehäuse 152c des autonomen Arbeitsgeräts 10c, insbesondere der Fortbewegungseinheit 14c, angeordnet ist.
Figur 9 zeigt einen schematischen Ablauf eines Verfahrens zu einem zumindest teilweise automatischen Bearbeiten des Objekts, insbesondere zu einem zumindest teilweise automatischen Erzeugen von Bohrlöchern in dem Objekt mittels des autonomen Arbeitsgeräts 10c.
In einem Verfahrensschritt, insbesondere in einem Lokalisierungsschritt 160c, wird das autonome Arbeitsgerät 10c, insbesondere die Fortbewegungseinheit 14c, in Abhängigkeit von mittels der Erfassungseinheit 30c, vorzugsweise der Li- dareinheit, erfassten Informationen zu der Arbeitsumgebung 26c in der Arbeitsumgebung 26c bewegt, bevorzugt mittels einer Ansteuerung durch die Steuereinheit 16c. Das autonome Arbeitsgerät 10c, vorzugsweise die Fortbewegungseinheit 14c, wird, insbesondere in dem Lokalisierungsschritt 160c, zu einer Bewegung des autonomen Arbeitsgeräts 10c zu einem Bereich der Bearbeitungsposition der Bearbeitungseinheit 12c in Abhängigkeit von mittels der Erfassungseinheit 30c, vorzugsweise der Lidareinheit, erfassten Informationen von der Steuereinheit 16c angesteuert.
In einem Verfahrensschritt, insbesondere in einem Erfassungsschritt 112c, wird der Entfernungsmesser 38c vor einer Erfassung einer Messgröße mittels des
Neigungsmessers 34c ausgerichtet. Der Entfernungsmesser 38c wird, insbesondere in dem Erfassungsschritt 112c, zu einer Erfassung von jeweils einer Messgröße in den zumindest zwei Winkelstellungen um die Achse 40c gedreht. Der Entfernungsmesser 38c erfasst, insbesondere in dem Erfassungsschritt 112c, in einem mittels des Neigungsmessers 34c ausgerichteten Zustand in zumindest zwei verschiedenen Winkelstellungen zumindest eine Messgröße.
Das autonome Arbeitsgerät 10c, insbesondere die Fortbewegungseinheit 14c, befinden sich insbesondere bei einer Erfassung von Messgrößen durch den Neigungsmesser 34c und/oder den Entfernungsmesser 38c zur Ermittlung einer Position und einer Ausrichtung zumindest des Teils der Bearbeitungseinheit 12c an einer festen Position.
In einem Verfahrensschritt, insbesondere in einem Lagestimmungsschritt 110c, wird in Abhängigkeit von mittels des Neigungsmessers 34c und mittels des Entfernungsmessers 38c ermittelten Messgrößen die Position und die Ausrichtung zumindest des Teils der Bearbeitungseinheit 12c in dem Arbeitsumgebungsmodell ermittelt.
In einem Verfahrensschritt, insbesondere in einem Arbeitsschritt 104c, wird das Objekt 68c mittels der Bearbeitungseinheit 12c bearbeitet. In dem Objekt 68c wird, insbesondere in dem Arbeitsschritt 104c, zumindest ein Bohrloch mittels der Bearbeitungseinheit 12c erzeugt. Die Bearbeitungseinheit 12c und/oder die Fortbewegungseinheit 14c wird, insbesondere in dem Arbeitsschritt 104c, bei dem Bearbeiten des Objekts 68c in Abhängigkeit von der, insbesondere im Lagebestimmungsschritt 110c ermittelten, Position und Ausrichtung zumindest des Teils der Bearbeitungseinheit 12c in dem Arbeitsumgebungsmodell von der Steuereinheit 16c angesteuert.
Figur 10 zeigt ein System 36d mit einem autonomen Arbeitsgerät lOd. Alternativ ist auch denkbar, dass das Arbeitsgerät lOd als manuelles Arbeitsgerät lOd ausgebildet ist. Das autonome Arbeitsgerät lOd ist als ein Baustellenroboter, insbesondere als ein Bohrroboter, ausgebildet. Alternativ ist jedoch auch denkbar, dass das autonome Arbeitsgerät lOd als ein von einem Bohrroboter verschiedener Baustellenroboter, beispielsweise als ein Malerroboter, als ein
Fensterputzroboter, als ein Kehrmaschinenroboter, als ein Außenbereichsroboter, beispielsweise als ein Mulchroboter, als ein Heckenschneidroboter, als ein Schneeräumroboter, als ein Sammelroboter, insbesondere zum Sammeln von Blättern, Zweigen oder dergleichen, als eine Kombination dieser oder als ein anderes, einem Fachmann als sinnvoll erscheinendes autonomes Arbeitsgerät lOd ausgebildet ist.
Das autonome Arbeitsgerät lOd weist eine Bearbeitungseinheit 12d auf. Die Bearbeitungseinheit 12d ist als eine Bohreinheit ausgebildet. Das autonome Arbeitsgerät lOd weist eine Fortbewegungseinheit 14d zu einem Fortbewegen der Bearbeitungseinheit 12d auf. Das autonome Arbeitsgerät lOd weist eine Steuereinheit 16d zumindest zu einer Ansteuerung der Bearbeitungseinheit 12d auf. Das autonome Arbeitsgerät lOd ist zu einem zumindest teilweise automatischen Bearbeiten eines Objekts 68d vorgesehen, insbesondere mittels der Bearbeitungseinheit 12d. Das autonome Arbeitsgerät lOd ist hier beispielhaft zu einem zumindest teilweise automatischen Erzeugen von Bohrlöchern in dem Objekt 68d vorgesehen.
Die Bearbeitungseinheit 12d ist beispielsweise dazu vorgesehen, zumindest das Objekt 68d nach einem Bearbeitungsplan zu bearbeiten. Der Bearbeitungsplan ist beispielsweise auf dem Speicherelement der Steuereinheit 16d hinterlegt. Auf der Steuereinheit 16d, insbesondere dem Speicherelement der Steuereinheit 16d, ist ein Arbeitsumgebungsmodell einer Arbeitsumgebung 26d des autonomen Arbeitsgeräts lOd, insbesondere der Bearbeitungseinheit 12d, hinterlegt. Das Arbeitsumgebungsmodell ist ein Building Information Modelling- (BIM-) Modell oder dergleichen. Der Bearbeitungsplan ist in dem Arbeitsumgebungsmodell vermerkt. Die Steuereinheit 16d ist dazu vorgesehen, die Fortbewegungseinheit 14d und/oder die Bearbeitungseinheit 12d, zumindest anhand des Bearbeitungsplans und/oder dem Arbeitsumgebungsmodell in der Arbeitsumgebung 26d zu navigieren.
Das autonome Arbeitsgerät lOd weist eine Erfassungseinheit 30d auf. Die Erfassungseinheit 30d ist als optische Erfassungseinheit ausgebildet. Die Erfassungseinheit 30d weist eine Kamera 148d auf. Die Erfassungseinheit 30d, insbesondere die Kamera 148d, weist einen Bildsensor (hier nicht dargestellt) auf.
Es ist denkbar, dass die Steuereinheit 16d dazu vorgesehen ist, die mittels der Kamera erfassten Informationen zu einer Lokalisierung, insbesondere zu einer Bewegung, des autonomen Arbeitsgeräts lOd, insbesondere der Bearbeitungseinheit 12d und/oder der Fortbewegungseinheit 14d, in der Arbeitsumgebung 26d, insbesondere zu einer Arbeitsposition auszuwerten. Ferner ist alternativ oder zusätzlich denkbar, dass die Kamera dazu vorgesehen ist, eine Oberflächenkenngröße oder eine Information zu einer Ermittlung der Oberflächenkenngröße in einem vorgesehenen Bearbeitungsbereich 86d des Objekts 68d zu erfassen. Die Arbeitsposition des autonomen Arbeitsgeräts lOd ist eine Position des autonomen Arbeitsgeräts lOd, insbesondere der Fortbewegungseinheit 14d, in der Arbeitsumgebung 26d, an welcher das Objekt 68d durch die Bearbeitungseinheit 12d bearbeitbar ist, insbesondere anhand eines optischen Lokalisierungselements 64d.
Das System 36d weist eine Projektionseinheit 62d zumindest zur Erzeugung des optischen Lokalisierungselements 64d auf. Das optische Lokalisierungselement 64d ist als ein Linienelement ausgebildet. Das optische Lokalisierungselement 64d ist durch elektromagnetische Strahlung, vorzugsweise durch sichtbares Licht, gebildet. Das optische Lokalisierungselement 64d ist eine Laserlinie. Die Projektionseinheit 62d weist einen Linienlaser zur Erzeugung des optischen Lokalisierungselements 64d auf. Alternativ oder zusätzlich ist denkbar, dass die Projektionseinheit 62d zur Erzeugung des optischen Lokalisierungselements 64d einen Projektor oder dergleichen aufweist. Das optische Lokalisierungselement 64d weist vorzugsweise einen geradlinigen Verlauf auf. Alternativ ist jedoch auch denkbar, dass das optische Lokalisierungselement 64d als ein Kreis, ein Punkt oder dergleichen ausgebildet ist.
Die Projektionseinheit 62d, insbesondere eine Projektion des optischen Lokalisierungselements 64d, ist an einer Markierungsstelle 66d ausgerichtet. Die Markierungsstelle 66d ist durch ein in der Arbeitsumgebung 26d, insbesondere an dem zu bearbeitenden Objekt 68d, angeordnetes Markierungselement definiert. Alternativ oder zusätzlich ist denkbar, dass die Markierungsstelle 66d in dem Arbeitsumgebungsmodell hinterlegt ist. Das Markierungselement ist hier beispielhaft ein Bohrloch. Alternativ ist jedoch auch denkbar, dass das Markierungselement ein Reflexionsstift, ein Leuchtelement, beispielsweise eine LED, ein
Farbmarker, ein Formmarker, eine Kombination dieser oder dergleichen ist. Es ist denkbar, dass das Markierungselement durch das autonome Arbeitsgerät lOd, insbesondere die Bearbeitungseinheit 12d, an der Markierungsstelle 66d automatisch anbringbar bzw. erzeugbar ist. Alternativ ist auch denkbar, dass durch einen Nutzer oder durch eine Ansteuerung des autonomen Arbeitsgeräts lOd durch den Nutzer, das Markierungselement an der Markierungsstelle 66d anbringbar bzw. erzeugbar ist, oder dass das Markierungselement mit einem zu dem autonomen Arbeitsgerät lOd separaten Gerät, beispielsweise einer Bohrmaschine, an der Markierungsstelle 66d erzeugbar bzw. anordenbar ist.
Die Projektionseinheit 62d ist beispielsweise durch einen Nutzer an der Markierungsstelle 66d ausrichtbar. Alternativ ist jedoch auch denkbar, dass die Projektionseinheit 62d zu einer automatischen Ausrichtung, insbesondere frei von einem Nutzereingriff, eingerichtet ist, beispielsweise mittels einer Erfassungseinheit zum Erfassen der Markierungsstelle 66d oder dergleichen. Die Projektionseinheit 62d ist separat zu dem autonomen Arbeitsgerät lOd ausgebildet. Die Projektionseinheit 62d ist dazu vorgesehen, das optische Markierungselement 64d, insbesondere das Linienelement, auf den Bearbeitungsbereich 86d und unmittelbar auf die Erfassungseinheit 30d, insbesondere den Bildsensor, zu projizieren, insbesondere gleichzeitig. Die Projektionseinheit 62d ist dazu vorgesehen, das optische Lokalisierungselement 64d unmittelbar auf die Erfassungseinheit 30d, vorzugsweise den Bildsensor, zu projizieren. Insbesondere ist die Projektionseinheit 62d derart eingerichtet und/oder angeordnet, dass das optische Lokalisierungselement 64d zwischen der Projektionseinheit 62d und der Erfassungseinheit 30d, insbesondere dem Bildsensor, auf keine Reflexionsflächen oder dergleichen trifft.
Die Steuereinheit 16d ist dazu vorgesehen, die Fortbewegungseinheit 14d und/oder die Bearbeitungseinheit 12d in Abhängigkeit von dem unmittelbar auf die Erfassungseinheit 30d, insbesondere den Bildsensor, projizierten optischen Lokalisierungselement 64d anzusteuern, insbesondere zu einem Bearbeiten des Objekts 68d, vorzugsweise an zumindest einer Bearbeitungsstelle des Objekts 68d. Die Steuereinheit 16d ist dazu vorgesehen, die Fortbewegungseinheit 14d und/oder die Bearbeitungseinheit 12d derart anzusteuern, dass das optische Lokalisierungselement 64d durch die Erfassungseinheit 30d erfassbar ist, vorzugsweise auf die Erfassungseinheit 30d projiziert ist, bevorzugt unmittelbar. Es ist
denkbar, dass eine Information zu einer Soll-Position der zumindest einen Bearbeitungsstelle im Bearbeitungsplan, insbesondere in dem Arbeitsumgebungsmodell, hinterlegt ist. Die Bearbeitungsstelle ist insbesondere verschieden von der Markierungsstelle 66d.
Die Steuereinheit 16d ist dazu vorgesehen, zumindest die Bearbeitungseinheit 12d und insbesondere bedarfsweise die Fortbewegungseinheit 14d zu einem Bearbeiten des Objekts 68d entlang einer Bearbeitungslinie, insbesondere zu einem Erzeugen von Bohrlöchern entlang der Bearbeitungslinie, anzusteuern. Die zumindest eine Bearbeitungsstelle befindet sich insbesondere auf der Bearbeitungslinie. Die Bearbeitungslinie ist durch das optische Lokalisierungselement 64d in der Arbeitsumgebung 26d vorgegeben. Es ist denkbar, dass eine Information zu der Bearbeitungslinie, insbesondere zu einer Position der Bearbeitungslinie, im Bearbeitungsplan, vorzugsweise in dem Arbeitsumgebungsmodell, hinterlegt ist. Die Steuereinheit 16d ist dazu vorgesehen, die Bearbeitungseinheit 12d und insbesondere bedarfsweise die Fortbewegungseinheit 14d bei der Bearbeitung des Objekts 38d entlang der Bearbeitungslinie, insbesondere der Bearbeitungsstelle, in Abhängigkeit von dem unmittelbar auf die Erfassungseinheit, insbesondere den Bildsensor, projizierten optischen Lokalisierungselement 64d anzusteuern.
Die Bearbeitungseinheit 12d weist eine Manipulatoreinheit 72d auf. Eine Werkzeugeinheit 44d der Bearbeitungseinheit 12d ist an der Manipulatoreinheit 72d, insbesondere an einem freien Ende 118d der Manipulatoreinheit 72d, angeordnet. Die Erfassungseinheit 30d ist an der Manipulatoreinheit 72d angeordnet. Die Werkzeugeinheit 44d ist zur Bearbeitung des Objekts 68d vorgesehen. Die Werkzeugeinheit 44d ist hier beispielhaft zumindest zu einem Erzeugen von Bohrlöchern eingerichtet.
Die Steuereinheit 16d ist dazu vorgesehen, die Manipulatoreinheit 72d, insbesondere die Werkzeugeinheit 44d, in Abhängigkeit von dem optischen Lokalisierungselement 64d auszurichten. Die Steuereinheit 16d ist dazu vorgesehen, die Manipulatoreinheit 72d, insbesondere die Werkzeugeinheit 44d, in Abhängigkeit von dem Lokalisierungselement 64d zu einer Bearbeitung des Objekts 68d, vorzugsweise entlang der Bearbeitungslinie, bevorzugt zu einer Bearbeitung der
zumindest einen Bearbeitungsstelle, auszurichten. Die Steuereinheit 16d ist beispielsweise dazu vorgesehen, die Bearbeitungseinheit 12d und bedarfsweise die Fortbewegungseinheit 14d derart anzusteuern, dass das unmittelbar auf die Erfassungseinheit 30d projizierte optische Lokalisierungselement 64d mittig auf dem Bildsensor angeordnet ist. Dadurch, dass die Steuereinheit 16d die Bearbeitungseinheit 12d und/oder die Fortbewegungseinheit 14d derart ansteuert, dass das unmittelbar auf die Erfassungseinheit 30d projizierte optische Lokalisierungselement 64d mittig auf dem Bildsensor angeordnet ist, ist die Manipulatoreinheit 72d, insbesondere die Werkzeugeinheit 44d, ausrichtbar.
Der Bildsensor weist eine rechteckige Sensorfläche 162d auf. In Figur 10 ist die Sensorfläche 162d und das auf dem Bildsensor, insbesondere der Sensorfläche 162d, mittig angeordnete Lokalisierungselement 64d schematisch dargestellt. Alternativ ist auch denkbar, dass die Sensorfläche 162d quadratisch, kreisförmig oder eine andere, einem Fachmann als sinnvoll erscheinende Flächenform aufweist. Bei einer mittigen Anordnung des optischen Lokalisierungselements 64d auf dem Bildsensor verläuft eine Haupterstreckungsachse des optischen Lokalisierungselements 64d senkrecht zu einer Haupterstreckungsachse der Sensorfläche 162d und insbesondere parallel zu einer Haupterstreckungsebene der Sensorfläche 162d. Bei einer mittigen Anordnung des auf die Erfassungseinheit 30d projizierten optischen Lokalisierungselements 64d verläuft die Haupterstreckungsachse des optischen Lokalisierungselements 64d durch einen geometrischen Mittelpunkt der Sensorfläche 162d.
Das auf die Erfassungseinheit 30d, insbesondere den Bildsensor, unmittelbar projizierte optische Lokalisierungselement 64d weist eine Breite auf. Die Breite des auf die Erfassungseinheit 30d, insbesondere den Bildsensor, unmittelbar projizierten optischen Lokalisierungselements 64d verläuft senkrecht zu der Haupterstreckungsachse des auf die Erfassungseinheit 30d, insbesondere den Bildsensor, unmittelbar projizierten optischen Lokalisierungselements 64d. Die Mitte des auf die Erfassungseinheit 30d, insbesondere den Bildsensor, unmittelbar projizierten optischen Lokalisierungselements 64d bezieht sich auf die Breite. Die Steuereinheit 16d ist insbesondere dazu vorgesehen, einen Algorithmus zur Ermittlung der Mitte zu nutzen. Die Steuereinheit 16d ist beispielsweise dazu vorgesehen, den Algorithmus auf ein mittels der Erfassungseinheit 30d,
insbesondere der Kamera 148d, aufgenommenes Bild anzuwenden. Die Steuereinheit 16d ist beispielsweise zur Ermittlung der Mitte des unmittelbar auf die Erfassungseinheit 30d, vorzugsweise den Bildsensor, projizierten, optischen Lokalisierungselements 64d dazu eingerichtet, einen Algorithmus analog zu einem Verfahren von Lu Yonghua, Zhang Jia, Li Xiaoyan et al. (vgl. Lu Yonghua, Zhang Jia, Li Xiaoyan. A robust method for adaptive center extraction of linear structured light stripe. Transactions of Nanjing University of Aeronautics and Astronautics. 2020, 37(4); 586-596) anzuwenden.
Die Erfassungseinheit 30d weist einen auf das Lokalisierungselement 64d angepassten Bandpassfilter 70d auf. Der Bandpassfilter 70d ist dazu vorgesehen, lediglich einen Wellenlängenbereich des optischen Lokalisierungselements 64d passieren zu lassen.
Figur 11 zeigt einen schematischen Ablauf eines Verfahrens zu einem zumindest teilweise automatischen Bearbeiten des Objekts 68d, insbesondere zu einem zumindest teilweise automatischen Erzeugen von Bohrlöchern in dem Objekt 68d mittels des Systems 36d. In einem Verfahrensschritt, insbesondere in einem Markierungsschritt 114d, wird an der Markierungsstelle 66d ein Markierungselement angeordnet oder erzeugt. Eine Projektion des optischen Lokalisierungselements 64d, insbesondere die Projektionseinheit 62d wird, vorzugsweise in dem Markierungsschritt 114d, an der Markierungsstelle 66d, insbesondere an dem Markierungselement, ausgerichtet.
Die Bearbeitungseinheit 12d und/oder die Fortbewegungseinheit 14d wer- den/wird in einem Verfahrensschritt, insbesondere in einem Arbeitsschritt 104d, in Abhängigkeit von dem unmittelbar auf die Erfassungseinheit 30d projizierten, bevorzugt als Linienelement ausgebildeten, optischen Lokalisierungselement 64d angesteuert. Die Bearbeitungseinheit 12d und/oder die Fortbewegungseinheit 14d werden/wird bei einem Bearbeiten des Objekts 68d, vorzugsweise bei einem Bearbeiten des Objekts 68d entlang der Bearbeitungslinie, in Abhängigkeit von dem unmittelbar auf die Erfassungseinheit 30d projizierten, bevorzugt als Linienelement ausgebildeten, optischen Lokalisierungselement 64d angesteuert.
Figur 12 zeigt ein System 36e mit einem autonomen Arbeitsgerät lOe. Alternativ ist auch denkbar, dass das Arbeitsgerät lOe als manuelles Arbeitsgerät lOe ausgebildet ist. Das autonome Arbeitsgerät lOe weist eine Bearbeitungseinheit 12e auf. Die Bearbeitungseinheit 12e ist als eine Bohreinheit ausgebildet. Das autonome Arbeitsgerät lOe ist als ein Baustellenroboter, insbesondere als ein Bohrroboter, ausgebildet. Alternativ ist jedoch auch denkbar, dass das autonome Arbeitsgerät lOe als ein von einem Bohrroboter verschiedener Baustellenroboter, beispielsweise als ein Malerroboter, als ein Fensterputzroboter, als ein Kehrmaschinenroboter, als ein Außenbereichsroboter, beispielsweise als ein Mulchroboter, als ein Heckenschneidroboter, als ein Schneeräumroboter, als ein Sammelroboter, insbesondere zum Sammeln von Blättern, Zweigen oder dergleichen, als eine Kombination dieser oder als ein anderes, einem Fachmann als sinnvoll erscheinendes autonomes Arbeitsgerät lOe ausgebildet ist.
Das autonome Arbeitsgerät lOe weist eine Fortbewegungseinheit 14e zu einem Fortbewegen der Bearbeitungseinheit 12e auf. Das autonome Arbeitsgerät lOe weist eine Steuereinheit 16e zumindest zu einer Ansteuerung der Bearbeitungseinheit 12e auf. Das autonome Arbeitsgerät lOe ist zu einem zumindest teilweise automatischen Bearbeiten eines Objekts 68e vorgesehen, insbesondere mittels der Bearbeitungseinheit 12e. Das autonome Arbeitsgerät lOe ist hier beispielhaft zu einem zumindest teilweise automatischen Erzeugen von Bohrlöchern in dem Objekt 68e vorgesehen.
Das System 36e weist zumindest zwei Lokalisierungselemente 74e auf. Alternativ ist jedoch auch denkbar, dass das System 36e eine Vielzahl an Lokalisierungselementen 74e, insbesondere mehr als zwei Lokalisierungselemente 74e, aufweist. Die Lokalisierungselemente 74e sind hier beispielhaft als Reflexionsstifte ausgebildet. Alternativ ist jedoch auch denkbar, dass die Lokalisierungselemente 74e als Leuchtelemente, beispielsweise LEDs, Farbmarker, Formmarker, als eine Kombination dieser oder dergleichen ausgebildet sind. Ein Lokalisierungselement 74e der zwei Lokalisierungselemente 74e ist an einer ersten Markierungsstelle 66e angeordnet. Ein weiteres Lokalisierungselement 74e der zwei Lokalisierungselemente 74e ist an einer zweiten Markierungsstelle 156e angeordnet.
Die Markierungsstellen 66e, 156e sind jeweils durch ein in einer Arbeitsumgebung 26e der Bearbeitungseinheit 12e, insbesondere an dem zu bearbeitenden Objekt 68e, angeordnetes Markierungselement definiert. Es ist zusätzlich oder alternativ denkbar, dass die Markierungsstellen 66e, 156e in einem Arbeitsumgebungsmodell der Arbeitsumgebung der Bearbeitungseinheit 12e hinterlegt sind. Die Markierungselemente sind Bohrlöcher. Alternativ ist denkbar, dass die Markierungselemente Leuchtelemente, beispielsweise LEDs, Farbmarker, Formmarker, eine Kombination dieser oder dergleichen sind. Die Markierungselemente sind insbesondere automatisch durch das autonome Arbeitsgerät lOe, vorzugsweise die Bearbeitungseinheit 12e, an den Markierungsstellen 66e, 156e erzeugbar. Alternativ ist auch denkbar, dass durch einen Nutzer oder durch eine Ansteuerung des autonomen Arbeitsgeräts lOe durch den Nutzer, die Markierungselemente an den Markierungsstellen 66e, 156e anbringbar bzw. erzeugbar sind, oder dass die Markierungselemente mit einem zu dem autonomen Arbeitsgerät lOe separaten Gerät, beispielsweise einer Bohrmaschine, an den Markierungsstellen 66e, 156e erzeugbar bzw. anordenbar sind.
Die Steuereinheit 16e ist dazu vorgesehen, die Fortbewegungseinheit 14e und/oder die Bearbeitungseinheit 12e in Abhängigkeit von den zwei Lokalisierungselementen 74e, vorzugsweise in Abhängigkeit von jeweiligen Positionen der zwei Lokalisierungselemente 74e, anzusteuern, insbesondere zu einem Bearbeiten des Objekts 68e, vorzugsweise an zumindest einer Bearbeitungsstelle des Objekts 68e. Es ist denkbar, dass eine Information zu einer Soll-Position der zumindest einen Bearbeitungsstelle im Bearbeitungsplan, insbesondere in dem Arbeitsumgebungsmodell, hinterlegt ist. Die Bearbeitungsstelle ist insbesondere verschieden von den Markierungsstellen 66e, 156e.
Die zwei Lokalisierungselemente 74e definieren eine Bearbeitungslinie 76e. Die Bearbeitungslinie 76e ist eine, vorzugsweise kürzeste, Verbindungslinie zwischen den zwei Lokalisierungselementen 74e. Die Steuereinheit 16e ist dazu vorgesehen, zumindest die Bearbeitungseinheit 12e, insbesondere nach einer Lokalisierung der Bearbeitungseinheit 12e und/oder der Fortbewegungseinheit zu einer Arbeitsposition des autonomen Arbeitsgeräts lOe, vorzugsweise der Fortbewegungseinheit 14e und/oder der Bearbeitungseinheit 12e, zu einer Bearbeitung des Objekts 68e, insbesondere zu einem Erzeugen eines Bohrlochs in dem
Objekt 68e, entlang der Bearbeitungslinie 76e anzusteuern, insbesondere in Abhängigkeit von den zwei Lokalisierungselementen 74e. Die Arbeitsposition des autonomen Arbeitsgeräts lOe ist eine Position des autonomen Arbeitsgeräts lOe, vorzugsweise der Fortbewegungseinheit 14e, in der Arbeitsumgebung 26e, an welcher insbesondere das zu bearbeitende Objekt 68e durch die Bearbeitungseinheit 12e bearbeitbar ist, insbesondere anhand der Lokalisierungselemente 74e.
Das autonome Arbeitsgerät lOe weist zumindest eine Erfassungseinheit 30e auf. Die Erfassungseinheit 30e ist dazu vorgesehen, das zumindest eine Lokalisierungselement 74e der Lokalisierungselemente 74e zu erfassen. Die Erfassungseinheit 30e ist als optische Erfassungseinheit ausgebildet. Die Erfassungseinheit 30e weist eine als Infrarotkamera 80e, insbesondere als Nahinfrarotkamera, ausgebildete Kamera auf, insbesondere zur Erfassung des zumindest einen Lokalisierungselements 74e. Die Steuereinheit 16e ist dazu vorgesehen, die Fortbewegungseinheit 14e und/oder die Bearbeitungseinheit 12e derart anzusteuern, dass das zumindest eine Lokalisierungselement 74e durch die Erfassungseinheit 30e erfassbar ist.
Es ist denkbar, dass die Steuereinheit 16e dazu vorgesehen ist, die mittels der Kamera der Erfassungseinheit 30e erfassten Informationen zu einer Lokalisierung des autonomen Arbeitsgeräts lOe, insbesondere der Bearbeitungseinheit 12e und/oder der Fortbewegungseinheit 14e, in der Arbeitsumgebung 26e, insbesondere zu der Arbeitsposition auszuwerten. Es ist alternativ oder zusätzlich denkbar, dass die Kamera der Erfassungseinheit dazu vorgesehen ist, die Oberflächenkenngröße oder eine Information zu einer Ermittlung der Oberflächenkenngröße in dem Bearbeitungsbereich zu erfassen.
Das autonome Arbeitsgerät lOe weist zumindest eine weitere Erfassungseinheit 82e auf. Die weitere Erfassungseinheit 82e ist dazu vorgesehen, zumindest das weitere Lokalisierungselement 74e zu erfassen. Die weitere Erfassungseinheit 82e weist eine Infrarotkamera 154e, insbesondere eine Nahinfrarotkamera, auf. Die Infrarotkamera 80e der Erfassungseinheit 30e ist identisch zu der Infrarotkamera 154e der weiteren Erfassungseinheit 82e ausgebildet. Die Erfassungseinheit 30e und die weitere Erfassungseinheit 82e sind zumindest im Wesentlichen
voneinander abgewandt ausgerichtet. Die Steuereinheit 16e ist dazu vorgesehen, die Fortbewegungseinheit 14e und/oder die Bearbeitungseinheit 12e derart anzusteuern, dass das zumindest eine weitere Lokalisierungselement 74e durch die weitere Erfassungseinheit 82e erfassbar ist. Die Steuereinheit 16e ist dazu vorgesehen, die Fortbewegungseinheit 14e und/oder die Bearbeitungseinheit 12e derart anzusteuern, dass die zwei Lokalisierungselemente 74e durch die Erfassungseinheit 30e und die weitere Erfassungseinheit 82e erfassbar sind, vorzugsweise gleichzeitig.
Die Bearbeitungseinheit 12e weist eine Manipulatoreinheit 72e auf. Eine Werkzeugeinheit 44e der Bearbeitungseinheit 12e ist an der Manipulatoreinheit 72e, insbesondere an einem freien Ende 118e der Manipulatoreinheit 72e, angeordnet. Die Erfassungseinheit 30e und/oder die weitere Erfassungseinheit 82e sind/ist an der Manipulatoreinheit 72e angeordnet. Die Bearbeitungseinheit 12e, insbesondere die Manipulatoreinheit 72e, ist vorzugsweise an, bevorzugt auf, der Fortbewegungseinheit 14e angeordnet. Die Werkzeugeinheit 44e ist zur Bearbeitung des Objekts 68e vorgesehen. Die Werkzeugeinheit 44e ist hier beispielhaft zumindest zu einem Erzeugen von Bohrlöchern eingerichtet. Die Werkzeugeinheit 44e ist über die Manipulatoreinheit 72e mit der Fortbewegungseinheit 14e zumindest mechanisch verbunden.
Das autonome Arbeitsgerät lOe weist eine Beleuchtungseinheit 78e auf. Die Beleuchtungseinheit 78e weist beispielsweise zumindest eine Lichtquelle (hier nicht dargestellt), beispielsweise eine LED, eine Glühbirne oder dergleichen auf. Vorzugsweise weist die Beleuchtungseinheit 78e mehrere Lichtquellen (hier nicht dargestellt), bevorzugt zumindest zwei Lichtquellen, auf. Die Beleuchtungseinheit 78e ist dazu vorgesehen, die Erfassungseinheit 30e, insbesondere die Infrarotkamera 80e der Erfassungseinheit 30e, bei einem Erfassen des zumindest einen Lokalisierungselements 74e zu unterstützen. Die Beleuchtungseinheit 78e ist dazu vorgesehen, die weitere Erfassungseinheit 82e, insbesondere die Infrarotkamera 154e der weiteren Erfassungseinheit 82e, bei einem Erfassen des weiteren Lokalisierungselements 74e zu unterstützen. Die Steuereinheit 14e ist dazu vorgesehen, die Erfassungseinheit 30e und die Beleuchtungseinheit 78e zu einer Erfassung eines Bild des Lokalisierungselements 74e mittels der Erfassungseinheit 30e mit aktiver Beleuchtung durch die Beleuchtungseinheit 78e und,
insbesondere in unveränderter Relativposition des autonomen Arbeitsgeräts lOe, insbesondere der Bearbeitungseinheit 12e und/oder der Fortbewegungseinheit 14e, zu der Arbeitsumgebung 26e, zu einer Erfassung eines Bild des Lokalisierungselements 74e mittels der Erfassungseinheit 30e frei von einer aktiven Beleuchtung durch die Beleuchtungseinheit 78e anzusteuern.
Die Steuereinheit 14e ist dazu vorgesehen, die weitere Erfassungseinheit 82e und die Beleuchtungseinheit 78e zu einer Erfassung eines Bilds des weiteren Lokalisierungselements 74e mittels der weiteren Erfassungseinheit 82e mit aktiver Beleuchtung durch die Beleuchtungseinheit 78e und, insbesondere in unveränderter Relativposition des autonomen Arbeitsgeräts lOe, insbesondere der Bearbeitungseinheit 12e und/oder der Fortbewegungseinheit 14e, zu der Arbeitsumgebung 26e, zu einer Erfassung eines Bild des weiteren Lokalisierungselements 74e mittels der weiteren Erfassungseinheit 82e frei von einer aktiven Beleuchtung durch die Beleuchtungseinheit 78e anzusteuern. Bei der Erfassung der zwei Lokalisierungselemente 74e durch die Erfassungseinheit 30e und die weitere Erfassungseinheit 82e befindet sich das autonome Arbeitsgerät lOe, insbesondere die Bearbeitungseinheit 12e und/oder die Fortbewegungseinheit 14e, an einer festen Position relativ zu der Arbeitsumgebung 26e.
Die Steuereinheit 16e ist dazu vorgesehen, die mittels der Erfassungseinheit 30e erfassten Bilder mit aktiver Beleuchtung durch die Beleuchtungseinheit 78e und frei von aktiver Beleuchtung 78e zu einem finalen Bild zu verarbeiten, in welchem ein Hintergrund zu dem Lokalisierungselement 74e subtrahiert ist. Die Steuereinheit 16e ist dazu vorgesehen, die mittels der weiteren Erfassungseinheit 82e erfassten Bilder mit aktiver Beleuchtung durch die Beleuchtungseinheit 78e und frei von aktiver Beleuchtung 78e zu einem finalen Bild zu verarbeiten, in welchem ein Hintergrund zu dem weiteren Lokalisierungselement 74e subtrahiert ist.
Die Steuereinheit 16e ist dazu vorgesehen, die Bearbeitungseinheit 12e, insbesondere die Manipulatoreinheit 72e, vorzugsweise die Werkzeugeinheit 44e, in Abhängigkeit von den zwei Lokalisierungselementen 74e auszurichten, insbesondere zu einem Bearbeiten des Objekts 68e entlang der Bearbeitungslinie 76e.
Die Steuereinheit 16e ist hier beispielhaft dazu vorgesehen, die Bearbeitungseinheit 12e und/oder die Fortbewegungseinheit 14e derart anzusteuern, dass die
mittels der Erfassungseinheit 30e und der weiteren Erfassungseinheit 82e erfassten Lokalisierungselemente 74e mittig in dem jeweilig erfassten, insbesondere final ermittelten, Bild, insbesondere dem jeweiligen Bildsensor, angeordnet sind. Dadurch, dass die Steuereinheit 16e die Bearbeitungseinheit 12e und insbesondere bedarfsweise die Fortbewegungseinheit 14e derart ansteuert, dass die mittels der Erfassungseinheit 30e und der weiteren Erfassungseinheit 82e erfassten Lokalisierungselemente 74e mittig in dem jeweilig erfassten, insbesondere final ermittelten, Bild, insbesondere dem jeweiligen Bildsensor, angeordnet sind, ist die Manipulatoreinheit 72e, insbesondere die Werkzeugeinheit 44e, ausrichtbar, insbesondere zu einem Bearbeiten des Objekts 68e entlang der Bearbeitungslinie 76e.
Die mittels der Erfassungseinheit 30e und/oder der weiteren Erfassungseinheit 82e erfassten Bilder, insbesondere Sensorflächen 162e der jeweiligen Bildsensoren, weisen hier beispielsweise ein rechteckiges Querformat auf. Die Sensorflächen 162e der Erfassungseinheit 30e und der weiteren Erfassungseinheit 82e sind in der Figur 12 schematisch dargestellt, wobei insbesondere die erfassten Lokalisierungselemente 74e in einer auf den Sensorflächen 162e mittig erfassten Anordnung dargestellt sind. Alternativ ist jedoch auch denkbar, dass die Erfassungseinheit 30e und/oder die weitere Erfassungseinheit 82e dazu eingerichtet sind, Bilder in einem quadratischen Format oder in einem rechteckigen Hochformat aufzunehmen. Bei einer mittigen Anordnung der Lokalisierungselemente 74e in den jeweiligen Bildern, insbesondere auf dem jeweiligen Bildsensor, verläuft eine jeweilige Haupterstreckungsachse der Lokalisierungselemente 74e in dem jeweiligen Bild, insbesondere auf dem jeweiligen Bildsensor, durch einen Bildmittelpunkt des jeweiligen Bildes, insbesondere durch einen Mittelpunkt der jeweiligen Sensorfläche 162e. Bei einer mittigen Anordnung der Lokalisierungselemente 74e in den jeweiligen Bildern, insbesondere auf der jeweiligen Sensorfläche 162e, verläuft die jeweilige Haupterstreckungsachse der Lokalisierungselemente 74e in dem jeweiligen Bild, insbesondere auf der jeweiligen Sensorfläche 162e, senkrecht zu einer Haupterstreckungsachse des jeweiligen Bildes, insbesondere senkrecht zu einer Haupterstreckungsachse der jeweiligen Sensorfläche 162e vorzugsweise bei einem rechteckigen Querformat der Bilder, insbesondere der Bildsensoren.
Figur 13 zeigt einen schematischen Ablauf eines Verfahrens zu einem zumindest teilweise automatischen Bearbeiten des Objekts 68e, insbesondere zu einem zumindest teilweise automatischen Erzeugen von Bohrlöchern in dem Objekt 68e, mittels des Systems 36e.
In einem Verfahrensschritt, insbesondere in einem Montageschritt 116e, wird an den zwei Markierungsstellen 66e, 156e jeweils eines der zwei Lokalisierungselemente 74e angebracht, vorzugsweise automatisch mittels der Bearbeitungseinheit 12e des autonomen Arbeitsgeräts lOe.
In einem Verfahrensschritt, insbesondere in einem Erfassungsschritt 112e, werden die zwei die Bearbeitungslinie 76e für die Bearbeitungseinheit 12e definierenden Lokalisierungselemente 74e erfasst, insbesondere mittels der Erfassungseinheit 30e und der weiteren Erfassungseinheit 82e.
In einem Verfahrensschritt, insbesondere in einem Arbeitsschritt 104e, wer- den/wird in Abhängigkeit von den Lokalisierungselementen 74e die Bearbeitungseinheit 12e und/oder die Fortbewegungseinheit 14e angesteuert. Insbesondere wird die Bearbeitungseinheit 12e mittels einer Ansteuerung durch die Steuereinheit 16e anhand der zwei Lokalisierungselemente 74e, vorzugsweise vor einem Bearbeiten des Objekts 12e durch die Bearbeitungseinheit 12e, ausgerichtet. Bevorzugt wird die Bearbeitungseinheit 12e derart ausgerichtet, dass die Lokalisierungselemente 74e auf den mittels der Erfassungseinheit 30e und der weiteren Erfassungseinheit 82e erfassten Bildern, insbesondere auf den jeweiligen Bildsensoren der Erfassungseinheit 30e und der weiteren Erfassungseinheit 82e, mittig angeordnet sind.
Die Bearbeitungseinheit 12e und/oder die Fortbewegungseinheit 14e wer- den/wird bei einem Bearbeiten des Objekts 68e, vorzugsweise bei einem Bearbeiten des Objekts 68e entlang der Bearbeitungslinie 76e, in Abhängigkeit von den Lokalisierungselementen 74e angesteuert.
Claims
1. Autonomes oder manuelles Arbeitsgerät (10b), insbesondere Roboter, mit einer Bearbeitungseinheit (12b), insbesondere einer Bohreinheit, mit einer Fortbewegungseinheit (14b) zu einem Fortbewegen der Bearbeitungseinheit (12b) und mit einer Steuereinheit (16b) zumindest zu einer Ansteuerung der Bearbeitungseinheit (12b), gekennzeichnet durch eine an der Fortbewegungseinheit (14b) angeordnete Erfassungseinheit (30b) zur Erfassung zumindest eines Lokalisierungsreferenzelements (22b), wobei die Steuereinheit (16b) dazu vorgesehen ist, zumindest in Abhängigkeit von dem mittels der Erfassungseinheit (30b) erfassten Lokalisierungsreferenzelement (22b) eine Position und eine Ausrichtung zumindest eines Teils der Bearbeitungseinheit (12b) zu ermitteln.
2. Autonomes oder manuelles Arbeitsgerät (10b) nach Anspruch 1, gekennzeichnet durch eine höhenverstellbare Arbeitsplattform (32b), welche an der Fortbewegungseinheit (14b) angeordnet ist und auf welcher die Erfassungseinheit (30b) angeordnet ist.
3. Autonomes oder manuelles Arbeitsgerät (10b) nach Anspruch 1 oder 2, gekennzeichnet durch einen Neigungsmesser (34b), wobei die Steuereinheit (16b) dazu vorgesehen ist, die Position und die Ausrichtung zumindest des Teils der Bearbeitungseinheit (12b) in einem Arbeitsumgebungsmodell in Abhängigkeit von mittels der Erfassungseinheit (30b) und des Neigungsmessers (34b) ermittelten Messgrößen zu ermitteln.
4. Autonomes oder manuelles Arbeitsgerät (10b) nach einem der vorhergehenden Ansprüche, gekennzeichnet durch einen Neigungsmesser (34b), wobei die Steuereinheit (16b) dazu vorgesehen ist, zumindest eine Messgröße des Neigungsmessers (34b) zur Unterstützung einer Erfassung des zumindest einen Lokalisierungsreferenzelements (22b) zu verarbeiten.
Autonomes oder manuelles Arbeitsgerät (10b) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinheit (16b) dazu vorgesehen ist, einen Bedarf an zusätzlichen Lokalisierungsreferenzelementen (108b) zu überprüfen. Autonomes oder manuelles Arbeitsgerät (10b) nach Anspruch 5, dadurch gekennzeichnet, dass die Steuereinheit (16b) dazu vorgesehen ist, in Abhängigkeit von einer Überprüfung des Bedarfs an zusätzlichen Lokalisierungsreferenzelementen (108b) eine Soll-Montageposition für zumindest ein zusätzliches Lokalisierungsreferenzelement (108b) zu bestimmen. Autonomes oder manuelles Arbeitsgerät (10b) nach Anspruch 6, dadurch gekennzeichnet, dass die Steuereinheit (16b) dazu vorgesehen ist, eine Ist-Position des zusätzlichen Lokalisierungsreferenzelements (108b) mittels der Erfassungseinheit (30b) zu ermitteln. Autonomes oder manuelles Arbeitsgerät (10b) nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass auf der Steuereinheit (16b) ein Bearbeitungsplan für die Bearbeitungseinheit (12b) hinterlegt ist, wobei der Bedarf an Lokalisierungsreferenzelementen (22b, 108b) von dem Bearbeitungsplan abhängig ist. System (36b) mit einem autonomen oder manuellen Arbeitsgerät (10b) nach einem der Ansprüche 1 bis 8 und zumindest mit dem Lokalisierungsreferenzelement (22b).
Verfahren zu einem zumindest teilweise automatischen Bearbeiten eines Objekts (68b), insbesondere zu einem zumindest teilweise automatischen Erzeugen von Bohrlöchern in einem Objekt (68b), vorzugsweise einem Gebäudeteil, mittels eines autonomen oder manuellen Arbeitsgeräts (10b), insbesondere nach einem der Ansprüche 1 bis 8, oder mittels eines Systems (36b), insbesondere nach Anspruch 9, dadurch gekennzeichnet, dass zumindest in Abhängigkeit von einem mittels einer an einer Fortbewegungseinheit (14b) eines Arbeitsgeräts (10b) angeordneten Erfassungseinheit (30b) des Arbeitsgeräts (10b) erfassten Lokalisierungsreferenzelement (22b) eine Position und eine Ausrichtung zumindest eines Teils einer Bearbeitungseinheit (12b) des Arbeitsgeräts (10b) ermittelt wird.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022212338.7A DE102022212338A1 (de) | 2022-11-18 | 2022-11-18 | Autonomes oder manuelles Arbeitsgerät, System und Verfahren zu einem zumindest teilweise automatischen Bearbeiten eines Objekts |
DE102022212338.7 | 2022-11-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024104711A1 true WO2024104711A1 (de) | 2024-05-23 |
Family
ID=88511492
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2023/079264 WO2024104711A1 (de) | 2022-11-18 | 2023-10-20 | Autonomes oder manuelles arbeitsgerät, system und verfahren zu einem zumindest teilweise automatischen bearbeiten eines objekts |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102022212338A1 (de) |
WO (1) | WO2024104711A1 (de) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4788440A (en) * | 1981-05-11 | 1988-11-29 | Diffracto Ltd. | Electro-optical systems for control of robots, manipulator arms and coordinate measuring machines |
WO2016066615A2 (en) * | 2014-10-28 | 2016-05-06 | Nlink As | Mobile robotic drilling apparatus and method for drilling ceilings and walls |
DE202017105337U1 (de) * | 2017-09-05 | 2018-12-07 | Kuka Deutschland Gmbh | Omnidirektionales, autonomes Fahrzeug mit einer Bohrvorrichtung |
US20210060795A1 (en) * | 2019-08-26 | 2021-03-04 | Seiko Epson Corporation | Robot system and control method |
US20210323163A1 (en) * | 2018-08-22 | 2021-10-21 | Hilti Aktiengesellschaft | Mobile Construction Robot |
KR102435640B1 (ko) * | 2020-11-11 | 2022-08-25 | 현대건설주식회사 | 고소작업용 로봇 및 이를 이용한 동작방법 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012200445A1 (de) | 2012-01-13 | 2013-07-18 | Robert Bosch Gmbh | Autonomes Arbeitsgerät |
DE102014212399A1 (de) | 2014-06-27 | 2015-12-31 | Robert Bosch Gmbh | Arbeitsbereichsmarkiervorrichtung |
DE102014217352B4 (de) | 2014-08-29 | 2018-04-19 | HAP Handhabungs-, Automatisierungs- und Präzisionstechnik GmbH | Verfahrbare Vorrichtung zur Manipulation von Gegenständen |
DE102019201616A1 (de) | 2019-02-07 | 2020-08-13 | Robert Bosch Gmbh | Autonomes Arbeitsgerät |
EP3981551A1 (de) | 2020-10-09 | 2022-04-13 | Hilti Aktiengesellschaft | Baustellenbox |
EP4016212A1 (de) | 2020-12-17 | 2022-06-22 | Hilti Aktiengesellschaft | Werkzeugmaschinensystem und verfahren zur steuerung einer mobilen werkzeugmaschine |
-
2022
- 2022-11-18 DE DE102022212338.7A patent/DE102022212338A1/de active Pending
-
2023
- 2023-10-20 WO PCT/EP2023/079264 patent/WO2024104711A1/de unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4788440A (en) * | 1981-05-11 | 1988-11-29 | Diffracto Ltd. | Electro-optical systems for control of robots, manipulator arms and coordinate measuring machines |
WO2016066615A2 (en) * | 2014-10-28 | 2016-05-06 | Nlink As | Mobile robotic drilling apparatus and method for drilling ceilings and walls |
DE202017105337U1 (de) * | 2017-09-05 | 2018-12-07 | Kuka Deutschland Gmbh | Omnidirektionales, autonomes Fahrzeug mit einer Bohrvorrichtung |
US20210323163A1 (en) * | 2018-08-22 | 2021-10-21 | Hilti Aktiengesellschaft | Mobile Construction Robot |
US20210060795A1 (en) * | 2019-08-26 | 2021-03-04 | Seiko Epson Corporation | Robot system and control method |
KR102435640B1 (ko) * | 2020-11-11 | 2022-08-25 | 현대건설주식회사 | 고소작업용 로봇 및 이를 이용한 동작방법 |
Non-Patent Citations (1)
Title |
---|
LU YONGHUAZHANG JIALI XIAOYAN: "A robust method for adaptive center extraction of linear structured light stripe", TRANSACTIONS OF NANJING UNIVERSITY OF AERONAUTICS AND ASTRONAUTICS, vol. 37, no. 4, 2020, pages 586 - 596 |
Also Published As
Publication number | Publication date |
---|---|
DE102022212338A1 (de) | 2024-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11724404B2 (en) | Surface finish quality evaluation system and method | |
US20180281143A1 (en) | Automated drywall sanding system and method | |
EP3687738B1 (de) | Mobile werkzeugmaschine | |
CN107427868A (zh) | 用于天花板和墙壁钻孔的移动机器人式钻孔装置及方法 | |
DE102018107951A1 (de) | Bearbeitungsroboter | |
DE202017105337U1 (de) | Omnidirektionales, autonomes Fahrzeug mit einer Bohrvorrichtung | |
CN105499636A (zh) | 多头可调式高效钻孔作业装备 | |
GB2589419A (en) | Fabric maintenance sensor system | |
WO2023073251A2 (de) | Roboter zur einfachen oberflächenbearbeitung, insbesondere wand- und deckenbearbeitung | |
WO2022073991A1 (de) | Baustellenbox | |
DE102019211238A1 (de) | Sensormodul für ein Elektrogerät | |
DE202020005627U1 (de) | Mobiler Roboter | |
GB2589418A (en) | Fabric maintenance system and method of use | |
WO2024104711A1 (de) | Autonomes oder manuelles arbeitsgerät, system und verfahren zu einem zumindest teilweise automatischen bearbeiten eines objekts | |
DE102017126487B4 (de) | System mit einer optischen und/oder mechanischen Referenz zur Bearbeitung eines Werkstücks | |
EP3687740B1 (de) | Mobile werkzeugmaschine | |
WO2024104716A1 (de) | Autonomes oder manuelles arbeitsgerät und verfahren zu einem zumindest teilweise automatischen bearbeiten eines objekts | |
WO2024104717A1 (de) | Autonomes oder manuelles arbeitsgerät, system und verfahren zu einem zumindest teilweise automatischen bearbeiten eines objekts | |
WO2024104718A1 (de) | Autonomes oder manuelles arbeitsgerät, system und verfahren zu einem zumindest teilweise automatischen bearbeiten eines objekts | |
WO2024104672A1 (de) | Autonomes oder manuelles arbeitsgerät und verfahren zu einem zumindest teilweise automatischen bearbeiten eines objekts | |
WO2024104673A1 (de) | Schnittstellenvorrichtung, autonomes oder manuelles arbeitsgerät und system | |
WO2024104712A1 (de) | Autonomes oder manuelles arbeitsgerät und verfahren zu einem zumindest teilweise automatischen bearbeiten eines objekts | |
EP3703918B1 (de) | Hand-werkzeugmaschine mit einer lageranordnung | |
EP3687741B1 (de) | Mobile werkzeugmaschine | |
DE102023201409A1 (de) | Autonomes oder manuelles Arbeitsgerät, System und Verfahren zu einem Betrieb eines autonomen oder manuellen Arbeitsgeräts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23793812 Country of ref document: EP Kind code of ref document: A1 |