DE102022211255A1 - Steuerung von Robotern mit zentralisierter Positionserfassung - Google Patents

Steuerung von Robotern mit zentralisierter Positionserfassung Download PDF

Info

Publication number
DE102022211255A1
DE102022211255A1 DE102022211255.5A DE102022211255A DE102022211255A1 DE 102022211255 A1 DE102022211255 A1 DE 102022211255A1 DE 102022211255 A DE102022211255 A DE 102022211255A DE 102022211255 A1 DE102022211255 A1 DE 102022211255A1
Authority
DE
Germany
Prior art keywords
utility
robots
robot
room
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022211255.5A
Other languages
English (en)
Inventor
Frank Lieschke
Stefan Friedrich
Alexander Krämer
Shivam Rastogi
Markus Scherm
Thomas Schöcklmann
Lutz Weiß
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthineers AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthineers AG filed Critical Siemens Healthineers AG
Priority to DE102022211255.5A priority Critical patent/DE102022211255A1/de
Priority to CN202311387799.XA priority patent/CN117930695A/zh
Publication of DE102022211255A1 publication Critical patent/DE102022211255A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • G05D1/249Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons from positioning sensors located off-board the vehicle, e.g. from cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • G05B19/0423Input/output
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/69Coordinated control of the position or course of two or more vehicles
    • G05D1/698Control allocation
    • G05D1/6987Control allocation by centralised control off-board any of the vehicles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/10Safety means specially adapted therefor
    • A61B6/102Protection against mechanical damage, e.g. anti-collision devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4405Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/25Pc structure of the system
    • G05B2219/25257Microcontroller
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40298Manipulator on vehicle, wheels, mobile
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2105/00Specific applications of the controlled vehicles
    • G05D2105/30Specific applications of the controlled vehicles for social or care-giving applications
    • G05D2105/31Specific applications of the controlled vehicles for social or care-giving applications for attending to humans or animals, e.g. in health care environments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2107/00Specific environments of the controlled vehicles
    • G05D2107/60Open buildings, e.g. offices, hospitals, shopping areas or universities
    • G05D2107/65Hospitals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/10Land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2111/00Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
    • G05D2111/10Optical signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Manipulator (AREA)

Abstract

In einem Raum (1) ist eine Anzahl von Nutzrobotern (2) angeordnet, die sich in dem Raum (1) automatisiert bewegen. Den Nutzrobotern (2) ist zum Bewegen des jeweiligen Nutzroboters (2) individuell jeweils eine Roboter-Steuereinrichtung (5) zugeordnet. Zusätzlich zu den Nutzrobotern (2) ist in dem Raum (1) ortsfest oder beweglich eine Anzahl von weiteren Elementen (4) angeordnet. Dem Raum (1) ist ein von den Nutzrobotern (2) losgelöstes Erfassungssystem (9) zugeordnet, das Daten erfasst, die für die aktuellen Positionen (P) der Nutzroboter (2) und der weiteren Elemente (4) charakteristisch sind. Eine dem Raum (1) zugeordnete, den Nutzrobotern (2) gemeinsame Mastersteuerung (6) nimmt iterativ immer wieder die Daten (D) entgegen, ermittelt unter Berücksichtigung der aktuellen Positionen (P) der Nutzroboter (2) und der weiteren Elemente (4) Bewegungsvorgaben (V) für die Nutzroboter (2), die beim Bewegen des jeweiligen Nutzroboters (2) zu berücksichtigen sind, und übermittelt die Bewegungsvorgaben (V) an die Roboter-Steuereinrichtungen (5). Die Roboter-Steuereinrichtungen (5) berücksichtigen die an sie übermittelten Bewegungsvorgaben (V) beim Bewegen der Nutzroboter (2).

Description

  • Die vorliegende Erfindung geht aus von einem Verfahren zum Bewegen einer Anzahl von Nutzrobotern in einem Raum, in dem zusätzlich zu den Nutzrobotern ortsfest oder beweglich eine Anzahl von weiteren Elementen angeordnet ist.
  • Der Raum ist in der Regel von Wänden umschlossen. Der Raum kann insbesondere ein medizinisch genutzter Raum sein, beispielsweise ein Untersuchungsraum oder ein Behandlungsraum für einen Patienten.
  • Die Verwendung des Begriffs „Nutzroboter“ dient der sprachlichen Unterscheidung der entsprechenden Roboter von einem später noch eingeführten Überwachungsroboter. Eine weitergehende Bedeutung kommt dem Begriff „Nutzroboter“ nicht zu.
  • Ein Beispiel eines ortsfesten Elements ist ein in dem Raum angeordneter Schrank. Ein Beispiel eines beweglichen Elements ist eine verfahrbare CT-Anlage. Auch ein Mensch, beispielsweise medizinisches Personal, kann in diesem Sinne als weiteres Element angesehen werden. Auch eine Patientenliege, die zwar als Ganzes ortsfest ist, aber bewegliche Elemente aufweist, kann ein weiteres Element sein.
  • Die vorliegende Erfindung geht weiterhin aus von einem Steuerprogramm, das Maschinencode umfasst, der von einer einer Anzahl von Nutzrobotern gemeinsamen Mastersteuerung abarbeitbar ist, wobei die Abarbeitung des Maschinencodes durch die Mastersteuerung bewirkt, dass die Mastersteuerung ein derartiges Verfahren ausführt.
  • Der Begriff „Mastersteuerung“ dient der Betonung des Umstands, dass die entsprechende Steuereinrichtung nur einmal für alle Nutzroboter vorhanden ist. Sie ist also nicht einem einzelnen der Nutzroboter proprietär oder individuell zugeordnet.
  • Die vorliegende Erfindung geht weiterhin aus von einer einer Anzahl von Nutzrobotern gemeinsamen Mastersteuerung, die mit einem derartigen Steuerprogramm programmiert ist, so dass sie im Betrieb ein derartiges Verfahren ausführt.
  • Die vorliegende Erfindung geht weiterhin aus von einem Raum,
    • - wobei in dem Raum eine Anzahl von Nutzrobotern angeordnet ist, die sich in dem Raum automatisiert bewegen,
    • - wobei den Nutzrobotern zum Bewegen des jeweiligen Nutzroboters individuell jeweils eine Roboter-Steuereinrichtung zugeordnet ist,
    • - wobei in dem Raum zusätzlich zu den Nutzrobotern ortsfest oder beweglich eine Anzahl von weiteren Elementen angeordnet ist.
  • Die Verwendung des Begriffs „Roboter-Steuereinrichtung“ dient der Betonung des Umstands, dass die entsprechende Steuereinrichtung der Steuerung des jeweiligen Nutzroboters dient. Eine weitergehende Bedeutung kommt dem Begriff „Roboter-Steuereinrichtung“ nicht zu.
  • Derartige Verfahren und die zugehörigen weiteren Gegenstände sind allgemein bekannt.
  • Die Verwendung von Nutzrobotern nimmt immer mehr zu. Eine Umkehr dieses Trends ist nicht zu erwarten. Dies gilt zwar nicht nur, wohl aber auch im medizinischen Bereich. Mit der Verwendung von Nutzrobotern ergibt sich notwendigerweise die Anforderung an ein autonomes oder zumindest teilweise autonomes Manövrieren (Bewegen) der Nutzroboter. Um ein autonomes Manövrieren von Nutzrobotern realisieren zu können, ist im Stand der Technik ein hoher Aufwand erforderlich. Dies gilt sowohl für die Komplexität der Steuerung als solcher als auch für den Umfang an erforderlicher Sensorik. Der Umfang an Sensorik ist so groß, dass sogar der hierfür erforderliche Energieverbrauch signifikant ist.
  • Im Stand der Technik ist die Sensorik Bestandteil des jeweiligen Nutzroboters und dem jeweiligen Nutzroboter proprietär zugeordnet. Der Aufwand an Sensorik und auch der Verbrauch an Energie ist somit (mindestens) proportional zur Anzahl an Nutzrobotern.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, Möglichkeiten zu schaffen, mittels derer der zum autonomen Betreiben einer Anzahl von Nutzrobotern erforderliche Aufwand reduziert werden kann.
  • Die Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 gelöst. Vorteilhafte Ausgestaltungen des Verfahrens sind Gegenstand der abhängigen Ansprüche 2 bis 5.
  • Erfindungsgemäß wird ein Verfahren der eingangs genannten Art dadurch ausgestaltet, dass eine den Nutzrobotern gemeinsame Mastersteuerung iterativ immer wieder
    • - von einem von den Nutzrobotern losgelösten Erfassungssystem erfasste Daten entgegennimmt, die für die aktuellen Positionen der Nutzroboter und der weiteren Elemente charakteristisch sind,
    • - unter Berücksichtigung der aktuellen Positionen der Nutzroboter und der weiteren Elemente beim Bewegen des jeweiligen Nutzroboters zu berücksichtigende Bewegungsvorgaben für die Nutzroboter ermittelt und
    • - die Bewegungsvorgaben an den Nutzrobotern individuell zugeordnete Roboter-Steuereinrichtungen übermittelt.
  • Die Roboter-Bewegung Steuereinrichtungen berücksichtigen die Bewegungsvorgaben (selbstverständlich) bei der Ansteuerung der Nutzroboter.
  • Das Erfassungssystem ist also nicht Bestandteil des jeweiligen Nutzroboters, sondern als solches unabhängig von den Nutzrobotern. Daher muss das Erfassungssystem unabhängig von der Anzahl an Nutzrobotern nur einmal vorhanden sein. Der Aufwand für das Erfassungssystem als solches, der Aufwand für dessen Betrieb und auch der Energieverbrauch des Erfassungssystems sind damit unabhängig von der Anzahl an Nutzrobotern.
  • Die Anzahl an Nutzrobotern kann nach Bedarf sein. In seltenen Einzelfällen ist nur ein einziger Nutzroboter vorhanden. In aller Regel ist die Anzahl an Nutzrobotern jedoch größer als 1. Dies gilt sowohl im Stand der Technik als auch im Rahmen der vorliegenden Erfindung. Oftmals liegt die Anzahl an Nutzrobotern zwischen 3 und 10.
  • Es ist möglich, dass die Mastersteuerung als Bewegungsvorgabe ermittelt, wie der jeweilige Nutzroboter sich bewegen soll. Im einen Fall ist die Bewegungsvorgabe also beispielsweise vom Typ „dieser Nutzroboter soll jetzt 20 cm in die Richtung X fahren“ oder vom Typ „dieser Nutzroboter soll jetzt bis auf Widerruf mit der Geschwindigkeit Y in die Richtung X fahren“. Alternativ ist es möglich, dass die Mastersteuerung als Bewegungsvorgabe einen Rahmen ermittelt, innerhalb dessen der jeweilige Nutzroboter sich bewegen darf. In diesem Fall ist die Bewegungsvorgabe beispielsweise vom Typ „dieser Nutzroboter darf sich von seinem jetzigen Standort aus um 20 cm bewegen“. In diesem Fall entscheidet die jeweilige Roboter-Steuereinrichtung zwar selbst, ob der jeweilige Nutzroboter bewegt wird oder nicht. Die jeweilige Roboter-Steuereinrichtung beschränkt jedoch die Bewegung auf 20 cm.
  • In aller Regel sind die erfassten Daten kontaktlos erfasste Daten, insbesondere optisch erfasste Daten. Die Daten können beispielsweise mit Ultraschall, mit Radar, mit Lidar oder mit mindestens einer Kamera erfasst werden.
  • Die erfassten Daten können aus sich heraus dreidimensional ortsaufgelöst sein. Ein Beispiel derartiger Daten ist eine Ultraschall-, Radar- oder Laserabtastung, bei der sich der Ort im dreidimensionalen Raum durch die Richtung des jeweiligen Ultraschall-, Radar- oder Laserstrahls (zwei Koordinaten) in Verbindung mit der Laufzeit des jeweiligen Ultraschall-, Radar- oder Laserstrahls von seiner Quelle zum jeweils erfassten Objekt und zurück (dritte Koordinate) ergibt. Der Begriff „Objekt“ wird hier im Sinne eines beliebigen Objekts verwendet. Es kann sich sowohl um einen der Nutzroboter als auch um ein anderes Objekt handeln, beispielsweise um eines der weiteren Elemente.
  • Alternativ können die erfassten Daten aus sich heraus zunächst nur zweidimensional ortsaufgelöst sein. Ein Beispiel derartiger Daten ist eine Erfassung mittels üblicher Kameras. Im Falle einer zweidimensionalen Erfassung erfolgt in aller Regel eine rechnerische Ermittlung des Ortes der Nutzroboter in der dritten Dimension. Beispielsweise kann von einer Leuchtquelle ein Streifenmuster in den Raum projiziert werden, dass sich in dem erfassten Bild mindestens einer Kamera widerspiegelt. Anhand eines derartigen Streifenmusters kann - auch bei Verwendung nur einer einzelnen Kamera - ein sogenanntes Tiefenbild ermittelt werden. Ebenso ist es möglich, die dreidimensionalen Positionen der Nutzroboter anhand mehrerer an sich zweidimensionaler Bilder zu ermitteln, die von verschiedenen Positionen aus erfasst werden. Beispielsweise können mehrere Kameras vorhanden sein oder kann eine einzelne Kamera sequenziell nacheinander an verschiedenen Orten positioniert werden. Auch Kombinationen dieser Vorgehensweisen sind möglich. Im Einzelfall kann die rechnerische Ermittlung des Ortes der Nutzroboter in der dritten Dimension durch die Erfassungseinrichtung erfolgen. In aller Regel erfolgt sie jedoch durch die Mastersteuerung.
  • Vorzugsweise sind die erfassten Daten Kamerabilder. Diese Vorgehensweise ist aufgrund der weiten Verbreitung von Kameras und der zugehörigen Software für die Bildauswertung kostengünstig und zuverlässig. Sie ist auch in energetischer Sicht sehr vorteilhaft.
  • Vorzugsweise übermittelt die Mastersteuerung vor dem erstmaligen und/oder vor einem weiteren Ermitteln der Bewegungsvorgaben Identifikationsbefehle an die Roboter-Steuereinrichtungen, aufgrund derer die Nutzroboter simultan oder sequenziell nacheinander Maßnahmen ergreifen, die in den erfassten Daten erkennbar sind. In diesem Fall kann die Mastersteuerung die in den erfassten Daten erkennbaren Nutzroboter anhand der von den Nutzrobotern ergriffenen Maßnahmen identifizieren. Diese Vorgehensweise vereinfacht - beispielsweise bei der Inbetriebnahme des Gesamtsystems - die Zuordnung der in den erfassten Daten erkennbaren Nutzroboter zu den real vorhandenen Nutzrobotern.
  • Die Identifikationsbefehle können beispielsweise derart sein, dass sequenziell nacheinander jeweils ein einzelner Nutzroboter angesprochen wird, so dass dieser Nutzroboter eine definierte Aktion ergreift, während die anderen Nutzroboter keine Aktion ergreifen. Die definierte Aktion kann beispielsweise ein (geringfügiges, aber erkennbares) Bewegen des jeweiligen Nutzroboters im Raum sein. Es kann auch eine andere Aktion sein, beispielsweise ein Bewegen eines Armes des jeweiligen Nutzroboters oder ein Ansteuern einer Lichtquelle des jeweiligen Nutzroboters. Alternativ können die Identifikationsbefehle beispielsweise derart sein, dass zwar mehrere Nutzroboter gleichzeitig eine bestimmte Aktion ausführen, die Aktionen jedoch voneinander verschieden sind. Beispielsweise kann ein Nutzroboter eine lineare Bewegung ausführen (sei es unidirektional, sei es vor und zurück), ein anderer Nutzroboter einen Bogen oder einen Kreis fahren, ein wieder anderer Nutzroboter sich am Platz um seine eigene Achse drehen und ein wieder anderer Nutzroboter eines seiner Elemente bewegen, beispielsweise einen Arm heben.
  • Die Aufgabe wird weiterhin durch ein Steuerprogramm mit den Merkmalen des Anspruchs 6 gelöst. Erfindungsgemäß bewirkt die Abarbeitung des Steuerprogramms durch die Mastersteuerung, dass die Mastersteuerung ein erfindungsgemäßes Verfahren ausführt.
  • Die Aufgabe wird weiterhin durch eine Mastersteuerung mit den Merkmalen des Anspruchs 7 gelöst. Erfindungsgemäß ist die Mastersteuerung mit einem erfindungsgemäßen Steuerprogramm programmiert, so dass sie im Betrieb ein erfindungsgemäßes Verfahren ausführt.
  • Die Aufgabe wird weiterhin durch einen Raum mit den Merkmalen des Anspruchs 8 gelöst. Erfindungsgemäß wird ein Raum der eingangs genannten Art dadurch ausgestaltet,
    • - dass dem Raum ein von den Nutzrobotern losgelöstes Erfassungssystem zugeordnet ist, mittels dessen iterativ immer wieder Daten erfasst werden, die für die aktuellen Positionen der Nutzroboter und der weiteren Elemente charakteristisch sind,
    • - dass dem Raum eine erfindungsgemäße Mastersteuerung zugeordnet ist und
    • - dass die Mastersteuerung zum Entgegennehmen der erfassten Daten mit dem Erfassungssystem und zum Übermitteln von Bewegungsvorgaben mit den Roboter-Steuereinrichtungen datentechnisch verbunden ist.
  • In einer bevorzugten Ausgestaltung des Raumes weisen die Nutzroboter keine Sensorik zur Erfassung von Abständen des jeweiligen Nutzroboters von in der Umgebung des jeweiligen Nutzroboters befindlichen Objekten auf. In diesem Fall erfolgt die (direkte oder übergeordnete) Bewegungssteuerung der Nutzroboter ausschließlich durch die Mastersteuerung. Es werden sowohl Kostenvorteile als auch Vorteile beim Energieverbrauch erreicht. An dieser Stelle umfasst der Begriff „Objekt“ alle anderen Objekte als den jeweiligen Nutzroboter selbst, beispielsweise andere Nutzroboter oder die weiteren Elemente.
  • Alternativ ist es möglich, dass die Nutzroboter zwar eine derartige Sensorik aufweisen, die Sensorik jedoch nicht betreiben. In diesem Fall werden zwar nur die Vorteile beim Energieverbrauch erreicht. Dafür ist es aber möglich, die Sensorik als Rückfallebene für den Fall vorhanden vorzusehen, dass die Mastersteuerung ausfällt. Alternativ ist auch die umgekehrte Vorgehensweise möglich, dass also die Mastersteuerung erst dann eingreift, wenn die Sensorik eines jeweiligen Nutzroboters ausfällt. Es ergibt sich also eine Redundanz.
  • Eine Sensorik zur Erfassung von Abständen des jeweiligen Nutzroboters von in der Umgebung des jeweiligen Nutzroboters befindlichen Objekten ist eine Sensorik, die in der Lage ist, Objekte in der Umgebung des jeweiligen Nutzroboters zu erfassen, noch bevor der jeweilige Nutzroboter ein derartiges Objekt berührt, beispielsweise an ihm anstößt. Nicht unter den Begriff einer derartigen Sensorik fällt eine reine Positionsermittlung für den jeweiligen Nutzroboter, beispielsweise basierend auf einer Integration von einzelnen Verfahrbewegungen des jeweiligen Nutzroboters, bei denen jeweils die Verfahrrichtung bekannt ist und der Verfahrweg erfasst wird. Nicht unter den Begriff einer derartigen Sensorik fällt weiterhin eine Sensorik, die erst das Berühren eines anderen Objekts erkennt (beispielsweise das Anstoßen an einem anderen Objekt) .
  • Zur Erfassung der für die Positionen der Nutzroboter im Raum charakteristischen Daten kann das Erfassungssystem mindestens eine ortsfest in dem Raum angeordnete Erfassungseinheit aufweisen. Eine derartige Erfassungseinheit kann beispielsweise an einem ganz bestimmten Ort des Raumes fest angeordnet sein, beispielsweise an einer Wand des Raumes befestigt sein. Dies gilt auch, wenn die Erfassungseinheit, ohne sie translatorisch zu bewegen, lediglich um eine oder zwei Achsen schwenkbar ist.
  • Alternativ oder zusätzlich kann das Erfassungssystem zur Erfassung der Daten mindestens eine Erfassungseinheit aufweisen, die an einer in dem Raum ortsfesten starren oder beweglichen Trägerstruktur angeordnet ist. Eine derartige Erfassungseinheit kann beispielsweise an einer Schiene befestigt sein, entlang derer die Erfassungseinheit verfahrbar ist. Die Schiene, welche in diesem Fall die Trägerstruktur bildet, kann ihrerseits beispielsweise an einer Decke des Raumes befestigt sein. Eine derartige Erfassungseinheit kann beispielsweise an einem Ende eines Gelenkarms oder eines Teleskoparms befestigt sein, dessen anderes Ende bezüglich des Raumes ortsfest ist. Der Gelenkarm bzw. der Teleskoparm bilden in diesem Fall die bewegliche Trägerstruktur. Der entsprechende Arm kann beispielsweise an einer Wand des Raumes befestigt sein. Im Falle der Anordnung an einer Trägerstruktur kann die Erfassungseinheit gegebenenfalls um eine oder zwei Achsen schwenkbar sein.
  • Alternativ oder zusätzlich kann das Erfassungssystem zur Erfassung der Daten mindestens eine an einem in dem Raum verfahrbaren Überwachungsroboter befestigte Erfassungseinheit aufweisen. In diesem Fall ist der Überwachungsroboter sozusagen eine Art Masterroboter. Auch im Falle eines Überwachungsroboters kann die Erfassungseinheit um eine oder zwei Achsen schwenkbar sein. Gegebenenfalls kann sie von dem Überwachungsroboter auch - ohne dass der Überwachungsroboter als solcher verfahren wird - translatorisch verfahren werden.
  • Die Verwendung des Begriffs „Überwachungsroboter“ dient der sprachlichen Unterscheidung des entsprechenden Roboters von den bereits eingeführten Überwachungsrobotern. Eine weitergehende Bedeutung kommt dem Begriff „Überwachungsroboter“ nicht zu.
  • Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die in Verbindung mit den Zeichnungen näher erläutert werden. Hierbei zeigen in schematischer Darstellung:
    • 1 eine Draufsicht von oben auf einen Raum,
    • 2 ein Blockschaltbild,
    • 3 ein Ablaufdiagramm,
    • 4 eine Position eines Nutzroboters und mögliche Bewegungsvorgaben,
    • 5 ein weiteres Ablaufdiagramm,
    • 6 ein weiteres Ablaufdiagramm und
    • 7 einen Nutzroboter.
  • Gemäß 1 sind in einem Raum 1 Roboter 2 (nachfolgend als Nutzroboter 2 bezeichnet) angeordnet. Dargestellt sind in 1 drei Nutzroboter 2. Diese Anzahl ist aber nur beispielhaft. Es könnten auch mehr oder weniger Nutzroboter 2 vorhanden sein. Die Nutzroboter 2 sollen sich in dem Raum 1 automatisiert bewegen.
  • Der Raum 1 ist in aller Regel, wie allgemein üblich, von Wänden 3 begrenzt. Der Raum kann insbesondere ein medizinisch genutzter Raum sein, beispielsweise ein Untersuchungsraum oder ein Behandlungsraum für einen Patienten.
  • Weiterhin sind in dem Raum 1 weitere Elemente 4 angeordnet. Die weiteren Elemente 4 können in dem Raum 1 ortsfest angeordnet sein. Beispiele derartiger Elemente 4 sind Schränke oder Arbeitsstationen für die Nutzroboter 2. Die weiteren Elemente 4 können aber ebenso in dem Raum 1 beweglich angeordnet sein. Beispiele derartiger Elemente 4 sind insbesondere Personen, die sich in dem Raum 1 bewegen. Bei den Personen kann es sich beispielsweise um Ärzte oder anderes medizinisches Personal handeln. Auch Objekte, die sich zwar nicht selbst bewegen können, aber durch äußere Einwirkung bewegt werden können (beispielsweise ein Rollwagen, der von einer Person in dem Raum 1 abgestellt wird), können Elemente 4 sein. Ein Element 4 kann weiterhin beispielsweise ein Untersuchungsbereich für einen Patienten sein. Ein derartiger Untersuchungsbereich weist oftmals ein Basiselement auf, das als solches ortsfest ist und auf dem Boden des Raumes 1 aufsteht. Auf dem Basiselement kann jedoch eine Patientenliege angeordnet sein, die relativ zum Basiselement innerhalb gewisser Grenzen verfahrbar ist. Ein derartiges Element 4 ist zwar einerseits als Ganzes ortsfest, belegt aber nicht stets den gleichen Bereich des Raumes 1. Die genannten Elemente 4 sind rein beispielhaft.
  • Den Nutzrobotern 2 ist gemäß 2 individuell jeweils eine Roboter-Steuereinrichtung 5 zugeordnet. Die jeweilige Roboter-Steuereinrichtung 5 steuert den Nutzroboter 2, dem sie zugeordnet ist. Insbesondere steuert sie auch das Bewegen des jeweiligen Nutzroboters 2. Die jeweilige Roboter-Steuereinrichtung 5 kann auf dem jeweiligen Nutzroboter 2 angeordnet sein, so dass sie sich zusammen mit dem jeweiligen Nutzroboter 2 bewegt. Alternativ kann sie separat von dem jeweiligen Nutzroboter 2 angeordnet sein. Im letztgenannten Fall erfolgt eine drahtlose Kommunikation zwischen der jeweiligen Roboter-Steuereinrichtung 5 und dem jeweiligen Nutzroboter 2.
  • Gemäß 2 ist weiterhin eine Mastersteuerung 6 vorhanden. Die Mastersteuerung 6 ist dem Raum 1 als Ganzes zugeordnet und daher den Nutzrobotern 2 gemeinsam. Sie ist also unabhängig von der Anzahl an Nutzrobotern 2 nur einmal vorhanden.
  • Die Mastersteuerung 6 ist üblicherweise, wie in 2 durch die Angabe „µP“ (für Mikroprozessor) angedeutet ist, programmierbar. Die Mastersteuerung 6 ist mit einem Steuerprogramm 7 programmiert. Das Steuerprogramm 7 umfasst Maschinencode 8, der von der Mastersteuerung 6 abarbeitbar ist. Die Abarbeitung des Maschinencodes 8 durch die Mastersteuerung 6 bewirkt, dass die Mastersteuerung 6 ein Verfahren zum Steuern der Nutzroboter 5 ausführt, das nachstehend (zunächst in Verbindung mit den 2 und 3, später auch den weiteren FIG) näher erläutert wird.
  • Gemäß 3 führt die Mastersteuerung 6 zunächst in einem Schritt S1 eine Initialisierungsroutine aus. Der Schritt S1 ist nur optional und daher in 3 nur gestrichelt dargestellt. Eine mögliche Ausgestaltung des Schrittes S1 wird später erläutert werden.
  • In einem Schritt S2 nimmt die Mastersteuerung 6 von einem Erfassungssystem 9 (siehe 2) Daten D entgegen. Die Mastersteuerung 6 ist zu diesem Zweck mit dem Erfassungssystem 9 datentechnisch verbunden.
  • Die Daten D wurden zuvor von dem Erfassungssystem 9 erfasst. Die Daten D sind für die aktuellen Positionen P der Nutzroboter 2 und der weiteren Elemente 4 charakteristisch. Das Erfassungssystem 9 ist ebenfalls dem Raum 1 als Ganzes zugeordnet und daher von den Nutzrobotern 2 als solchen losgelöst. Mögliche Ausgestaltungen des Erfassungssystems 9 werden ebenfalls später noch erläutert werden.
  • In einem Schritt S3 ermittelt die Mastersteuerung 6 anhand der im Schritt S2 entgegengenommenen Daten D die aktuellen Positionen P der Nutzroboter 2 und der weiteren Elemente 4. Hierauf aufbauend, also unter Berücksichtigung der aktuellen Positionen P der Nutzroboter 2 und der weiteren Elemente 4, ermittelt die Mastersteuerung 6 in einem Schritt S4 Bewegungsvorgaben V für die Nutzroboter 2. Die Bewegungsvorgaben V sollen beim Bewegen des jeweiligen Nutzroboters 2 berücksichtigt werden.
  • In einem Schritt S5 übermittelt die Mastersteuerung 6 die Bewegungsvorgaben V an die Roboter-Steuereinrichtungen 5. Die Mastersteuerung 6 ist daher zum Übermitteln der Bewegungsvorgaben V mit den Roboter-Steuereinrichtungen 5 datentechnisch verbunden. Es ist natürlich ausreichend, wenn die Mastersteuerung 6 an die Roboter-Steuereinrichtungen 5 nur die für die jeweilige Roboter-Steuereinrichtung 5 relevanten Bewegungsvorgaben V übermittelt. Die Roboter-Steuereinrichtungen 5 berücksichtigen die an sie übermittelten Bewegungsvorgaben V beim Bewegen des jeweiligen Nutzroboters 2.
  • Vom Schritt S5 ausgeht die Mastersteuerung 6 wieder zum Schritt S2 zurück. Die Mastersteuerung 6 führt die Schritte S2 bis S5 also iterativ immer wieder aus. Falls der Schritt S1 vorhanden ist, ist es weiterhin möglich, dass die Mastersteuerung 6 von Zeit zu Zeit - beispielsweise einmal Stunde - vom Schritt S5 aus nicht zum Schritt S2, sondern zum Schritt S1 zurückgeht.
  • Die Bewegungsvorgaben V können entsprechend der Darstellung in 4 beispielsweise eine konkrete Vorgabe sein, wie der jeweilige Nutzroboter 2 sich ausgehend von seiner momentanen Position P im Raum 1 bewegen soll. Eine mögliche derartige Vorgabe ist in 4 durch einen entsprechenden Pfeil 10 angedeutet. Der Pfeil 10 weist eine bestimmte Richtung und eine bestimmte Länge auf. Durch Richtung und Länge ist die Bewegung des entsprechenden Nutzroboters 2 im Raum 1 ganz konkret spezifiziert. Die entsprechende Roboter-Steuereinrichtung 5 steuert den jeweiligen Nutzroboter 2 in diesem Fall so an, dass diese Bewegungsvorgabe V ausgeführt wird. Eine weitere mögliche derartige Vorgabe ist in 4 durch einen gestrichelten Kreis 11 um die aktuelle Position P des jeweiligen Nutzroboters 2 herum angedeutet. Der Kreis 11 weist einen bestimmten Radius R auf. Der Kreis 11 legt einen Bereich oder Rahmen fest, innerhalb dessen der jeweilige Nutzroboter 2 sich bewegen darf. Die entsprechende Roboter-Steuereinrichtung 5 ermittelt in diesem Fall die tatsächliche Ansteuerung anhand ihrer eigenen Programmierung. Sie berücksichtigt beim Ermitteln der konkreten Verfahrbewegung jedoch, dass die zulässige Verfahrbewegung des jeweiligen Nutzroboters 2 durch den Kreis 11 begrenzt ist. Anstelle der Vorgabe eines Kreises 11 wäre natürlich auch die Vorgabe einer anderen geometrischen Figur möglich. Ein Kreis weist jedoch den Vorteil auf, dass er durch eine einzige Größe, nämlich den Radius R, beschrieben werden kann.
  • Die Daten D werden von dem Erfassungssystem 9 in aller Regel kontaktlos erfasst. Auch wenn eine Erfassung beispielsweise mit Ultraschall oder mit Radar möglich ist, bietet sich jedoch insbesondere eine optische Datenerfassung an. Bei einer optischen Datenerfassung ist eine Erfassung mittels Lidar möglich. Vorzugsweise sind die erfassten Daten D jedoch Kamerabilder. Beispielsweise kann das Erfassungssystem 9 als Erfassungseinheit 12 - siehe 1 - (mindestens) eine Kamera umfassen.
  • Es ist möglich, dass das von einer einzelnen Kamera erfasste Bild - auch wenn es als solches zweidimensional ist - bereits eine Tiefeninformation umfasst und damit eine dreidimensionale Ortsauflösung ermöglicht. Entsprechende Verfahren und Vorgehensweisen sind im Stand der Technik bekannt. Üblicherweise ist ein von einer Kamera erfasstes Bild jedoch nur zweidimensional ortsaufgelöst und umfasst keine Tiefeninformation. Oftmals sind jedoch mehrere Kameras an verschiedenen Orten vorhanden. Beispielsweise kann entsprechend der Darstellung in 1 das Erfassungssystem 9 zur Erfassung der Daten D mehrere Erfassungseinheiten 12 bzw. Kameras aufweisen. Die Anordnung der Erfassungseinheiten 12 kann nach Bedarf sein. Dies wird nachstehend anhand von vier Erfassungseinheiten 12 erläutert, die nachstehend zur Unterscheidung voneinander als Erfassungseinheiten 12a bis 12d bezeichnet werden. Es wird jedoch darauf hingewiesen, dass auch andere Anzahlen und Anordnungen an Erfassungseinrichtungen 12 bzw. Kameras möglich sind.
  • Beispielsweise kann mindestens eine der Erfassungseinheiten 12 in dem Raum 1 ortsfest angeordnet sein. Gemäß 1 ist dies bei der Erfassungseinheit 12a der Fall, die vorliegend an einer Wand 3 des Raumes 1 befestigt ist. Die Erfassungseinheit 12a/Kamera kann gegebenenfalls noch um eine oder zwei Achsen geschwenkt werden. Auch ein Zoomen kann möglich sein.
  • Ebenso beispielsweise kann mindestens eine der Erfassungseinheiten 12 an einer in dem Raum ortsfesten starren Trägerstruktur angeordnet sein. Gemäß 1 ist dies bei der Erfassungseinheit 12b der Fall. Die Erfassungseinheit 12b ist vorliegend an einer Schiene 13 angeordnet, entlang derer die Erfassungseinheit 12b verfahrbar ist. Die Schiene 13 stellt eine in dem Raum 1 ortsfeste starre Trägerstruktur dar. Die Schiene 13 kann beispielsweise an einer Decke des Raumes 1 befestigt sein. Analog zur Erfassungseinheit 12a kann auch hier ein Schwenken der Erfassungseinheit 12b/Kamera um eine oder zwei Achsen und/oder ein Zoomen möglich sein.
  • Ebenso beispielsweise kann mindestens eine der Erfassungseinheiten 12 an einer in dem Raum ortsfesten beweglichen Trägerstruktur angeordnet sein. Gemäß 1 ist dies bei der Erfassungseinheit 12c der Fall. Die Erfassungseinheit 12c ist vorliegend an einem Gelenkarm 14 angeordnet, durch dessen Bewegung die Erfassungseinheit 12c verfahrbar ist. Der Gelenkarm 14 stellt eine in dem Raum 1 ortsfeste bewegliche Trägerstruktur dar. Der Gelenkarm 14 kann beispielsweise an einer Wand 3 des Raumes 1 befestigt sein. Auch bezüglich der Erfassungseinheit 12c kann ein Schwenken der Erfassungseinheit 12c/Kamera um eine oder zwei Achsen und/oder ein Zoomen möglich sein. Alternativ zu einem Gelenkarm 14 könnte auch ein Teleskoparm verwendet werden. Auch könnten die beiden Enden des Gelenkarms 14 eine Trägerschiene analog zur Befestigung der Erfassungseinheit 12a tragen.
  • Derzeit ist besonders bevorzugt, dass mindestens eine der Erfassungseinheiten 12 an einem Überwachungsroboter 15 befestigt ist. Vorliegend ist dies bei der Erfassungseinheit 12d der Fall. Der Überwachungsroboter 15 ist seinerseits in dem Raum 1 verfahrbar. Der Überwachungsroboter 15 ist sozusagen eine Art Masterroboter. Auch im Falle des Überwachungsroboters 15 kann die zugehörige Erfassungseinheit 12d um eine oder zwei Achsen schwenkbar sein. Auch ein Zoomen kann möglich sein.
  • Wie bereits erläutert, ermittelt die Mastersteuerung 6 im Schritt S3 die Positionen P der Nutzroboter 2 und der weiteren Elemente 4. In der Regel erfolgt dies entsprechend der Darstellung in 5 dadurch, dass die Mastersteuerung 6 in einem Schritt S11 von den verschiedenen Erfassungseinrichtungen 12 deren jeweilige Daten D entgegennimmt. Beispielsweise kann die Mastersteuerung 6 im Schritt S11 von jeder der Erfassungseinrichtungen 12a bis 12d als jeweilige Daten D jeweils ein zweidimensional ortsaufgelöstes Bild entgegennehmen. In einem Schritt S12 fusioniert die Mastersteuerung 6 die Daten der verschiedenen Erfassungseinrichtungen 12. Dadurch kann die Mastersteuerung 6 in einem Schritt S13, basierend auf den Daten D in ihrer Gesamtheit, die Positionen P der Nutzroboter 2 und der weiteren Elemente 4 ermitteln. Im Ergebnis ermittelt die Mastersteuerung 6 somit anhand der zweidimensionalen Daten D in ihrer Gesamtheit die entsprechenden Positionen P im Dreidimensionalen. Es sind aber auch andere Ausgestaltungen möglich. Entscheidend ist, dass der Mastersteuerung 6 die Positionen P bekannt werden.
  • Wie bereits erwähnt, ist die Anzahl von vier Erfassungseinheiten 12 rein beispielhaft. Es könnten ebenso auch mehr oder weniger Erfassungseinheiten 12 vorhanden sein. Auch könnte bei einer bewegbaren Erfassungseinheit 12 (gemäß Ausführungsbeispiel also den Erfassungseinheiten 12b bis 12d) auch eine Sequenz von Bildern derselben Erfassungseinheit 12 verwendet werden, wobei die entsprechende Erfassungseinheit 12 sich bei der Erfassung der jeweiligen Daten bzw. Bilder jeweils an einem anderen Erfassungsort befindet.
  • Nachstehend wird in Verbindung mit 6 eine mögliche Implementierung der Initialisierungsroutine des Schrittes S1 erläutert.
  • Gemäß 6 nimmt die Mastersteuerung 6 zunächst in einem Schritt S21 die Daten D entgegen. In einem Schritt S22 ermittelt die Mastersteuerung 6 anhand der Daten D des Schrittes S21 die Positionen P der Nutzroboter 2 und der weiteren Elemente 4. Die Schritte S21 und S22 korrespondieren im Wesentlichen mit den Schritten S2 und S3 von 3. Der wesentliche Unterschied besteht jedoch darin, dass der Mastersteuerung 6 bei der Ausführung des Schrittes S3 von 3 bekannt ist, welcher (reale) Nutzroboter 2 mit welcher Abbildung/Erkennung eines Nutzroboters 2 in den Daten D korrespondiert, während dies der Mastersteuerung 6 bei der Ausführung des Schrittes S22 von 6 zwar bekannt sein kann, aber nicht bekannt sein muss.
  • In einem Schritt S23 übermittelt die Mastersteuerung 6 Identifikationsbefehle B an die zugehörigen Roboter-Steuereinrichtungen 5. Die Roboter-Steuereinrichtungen 5 steuern die zugehörigen Nutzroboter 2 aufgrund der Identifikationsbefehle B derart an, dass die Nutzroboter 2 bestimmte Maßnahmen ausführen. Die Maßnahmen sind derart, dass anhand der ergriffenen Maßnahmen in den vom Erfassungssystem 9 erfassten Daten D erkennbar ist, welcher (reale) Nutzroboter 2 mit welchem Abbild eines Nutzroboters 2 in den Daten D korrespondiert. Die Maßnahmen können von den Nutzrobotern 2 simultan oder sequenziell nacheinander ergriffen werden. Beispiele hierfür wurden bereits angegeben. Nach dem Schritt S23 nimmt die Mastersteuerung 6 in einem Schritt S24 erneut die Daten D entgegen. Basierend auf den nunmehr entgegengenommenen Daten D - gegebenenfalls in Verbindung mit den im Schritt S21 entgegengenommenen Daten D bzw. den im Schritt S22 ermittelten Positionen P - kann die Mastersteuerung 6 in einem Schritt S25 die entsprechende Identifizierung des jeweiligen Nutzroboters 2 in den Daten D und somit auch die Zuordnung der erkannten Nutzroboter 2 zu den realen Nutzrobotern 2 vornehmen. Gegebenenfalls muss die Abfolge der Schritte S23 bis S25 mehrmals wiederholt werden, beispielsweise einzeln für jeden Nutzroboter 2.
  • Aufgrund der erfindungsgemäßen Betriebsweise beim Bewegen der Nutzroboter 2 ist es möglich, dass die Nutzroboter 2 entsprechend der Darstellung in 7 keine Sensorik 16 aufweisen, die zur Erfassung von Abständen des jeweiligen Nutzroboters 2 von Objekten erforderlich ist, die sich in der Umgebung des jeweiligen Nutzroboters 2 befinden. Die Sensorik 16 ist aus diesem Grund in 7 nur gestrichelt dargestellt. Alternativ ist es möglich, die Nutzroboter 2 zwar eine derartige Sensorik 16 aufweisen, die Sensorik 16 jedoch nicht betreiben.
  • Falls die Sensorik 16 nicht vorhanden ist, erfolgt die (direkte oder übergeordnete) Bewegungssteuerung der Nutzroboter 2 stets und ausschließlich durch die Mastersteuerung 6. Anderenfalls ist eine Steuerung der Nutzroboter 2 alternativ durch die Mastersteuerung 6 oder durch Nutzung der Sensorik 16 möglich. Meist erfolgt in einem derartigen Fall bevorzugt eine Steuerung durch die Mastersteuerung 6 und erst nachrangig eine Nutzung der Sensorik 16. Prinzipiell ist aber auch die umgekehrte Vorgehensweise möglich.
  • Zusammengefasst betrifft die vorliegende Erfindung somit folgenden Sachverhalt:
    • In einem Raum 1 ist eine Anzahl von Nutzrobotern 2 angeordnet, die sich in dem Raum 1 automatisiert bewegen. Den Nutzrobotern 2 ist zum Bewegen des jeweiligen Nutzroboters 2 individuell jeweils eine Roboter-Steuereinrichtung 5 zugeordnet. Zusätzlich zu den Nutzrobotern 2 ist in dem Raum 1 ortsfest oder beweglich eine Anzahl von weiteren Elementen 4 angeordnet. Dem Raum 1 ist ein von den Nutzrobotern 2 losgelöstes Erfassungssystem 9 zugeordnet, das Daten erfasst, die für die aktuellen Positionen P der Nutzroboter 2 und der weiteren Elemente 4 charakteristisch sind. Eine dem Raum 1 zugeordnete, den Nutzrobotern 2 gemeinsame Mastersteuerung 6 nimmt iterativ immer wieder die Daten D entgegen, ermittelt unter Berücksichtigung der aktuellen Positionen P der Nutzroboter 2 und der weiteren Elemente 4 Bewegungsvorgaben V für die Nutzroboter 2, die beim Bewegen des jeweiligen Nutzroboters 2 zu berücksichtigen sind, und übermittelt die Bewegungsvorgaben V an die Roboter-Steuereinrichtungen 5. Die Roboter-Steuereinrichtungen 5 berücksichtigen die an sie übermittelten Bewegungsvorgaben V beim Bewegen der Nutzroboter 2.
  • Die vorliegende Erfindung weist viele Vorteile auf. Durch die Verwendung des gemeinsamen Erfassungssystems 9 und der Mastersteuerung 6 ist eine einfache, von der Anzahl an Nutzrobotern 2 unabhängige Realisierung einer Bewegungsführung für die Nutzroboter 2 möglich. Insbesondere die Verwendung von Kameras als Erfassungseinheiten 12 ermöglicht eine sehr kostengünstige Realisierung, die auch nur einen geringen Energieverbrauch aufweist. Darüber hinaus ermöglicht die Mastersteuerung 6 eine übergreifende (koordinierte) Bewegungsführung der Nutzroboter 2.
  • Obwohl die Erfindung im Detail durch das bevorzugte Ausführungsbeispiel näher illustriert und beschrieben wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen.

Claims (10)

  1. Verfahren zum Bewegen einer Anzahl von Nutzrobotern (2) in einem Raum (1), in dem zusätzlich zu den Nutzrobotern (2) ortsfest oder beweglich eine Anzahl von weiteren Elementen (4) angeordnet ist, wobei eine den Nutzrobotern (2) gemeinsame Mastersteuerung (6) iterativ immer wieder - von einem von den Nutzrobotern (2) losgelösten Erfassungssystem (9) erfasste Daten (D) entgegennimmt, die für die aktuellen Positionen (P) der Nutzroboter (2) und der weiteren Elemente (4) charakteristisch sind, - unter Berücksichtigung der aktuellen Positionen (P) der Nutzroboter (2) und der weiteren Elemente (4) beim Bewegen des jeweiligen Nutzroboters (2) zu berücksichtigende Bewegungsvorgaben (V) für die Nutzroboter (2) ermittelt und - die Bewegungsvorgaben (V) an den Nutzrobotern (2) individuell zugeordnete Roboter-Steuereinrichtungen (5) übermittelt.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Mastersteuerung (6) als Bewegungsvorgabe (V) ermittelt, wie der jeweilige Nutzroboter (2) sich bewegen soll, oder als Bewegungsvorgabe (V) einen Rahmen ermittelt, innerhalb dessen der jeweilige Nutzroboter (2) sich bewegen darf.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die erfassten Daten (D) kontaktlos erfasste Daten sind, insbesondere optisch erfasste Daten.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die erfassten Daten (D) Kamerabilder sind.
  5. Verfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass die Mastersteuerung (6) vor dem erstmaligen und/oder vor einem weiteren Ermitteln der Bewegungsvorgaben (V) Identifikationsbefehle (B) an die Roboter-Steuereinrichtungen (5) übermittelt, aufgrund derer die Nutzroboter (2) simultan oder sequenziell nacheinander Maßnahmen ergreifen, die in den erfassten Daten (D) erkennbar sind, und dass die Mastersteuerung (6) die in den erfassten Daten (D) erkennbaren Nutzroboter (2) anhand der von den Nutzrobotern (2) ergriffenen Maßnahmen identifiziert.
  6. Steuerprogramm, das einen Maschinencode (8) umfasst, der von einer einer Anzahl von Nutzrobotern (2) gemeinsamen Mastersteuerung (6) abarbeitbar ist, wobei die Abarbeitung des Maschinencodes (8) durch die Mastersteuerung (6) bewirkt, dass die Mastersteuerung (6) ein Verfahren nach einem der obigen Ansprüche ausführt.
  7. Einer Anzahl von Nutzrobotern (2) gemeinsame Mastersteuerung, die mit einem Steuerprogramm (7) nach Anspruch 6 programmiert ist, so dass sie im Betrieb ein Verfahren nach einem der Ansprüche 1 bis 5 ausführt.
  8. Raum, - wobei in dem Raum eine Anzahl von Nutzrobotern (2) angeordnet ist, die sich in dem Raum automatisiert bewegen, - wobei den Nutzrobotern (2) zum Bewegen des jeweiligen Nutzroboters (2) individuell jeweils eine Roboter-Steuereinrichtung (5) zugeordnet ist, - wobei in dem Raum zusätzlich zu den Nutzrobotern (2) ortsfest oder beweglich eine Anzahl von weiteren Elementen (4) angeordnet ist, - wobei dem Raum ein von den Nutzrobotern (2) losgelöstes Erfassungssystem (9) zugeordnet ist, mittels dessen Daten (D) erfasst werden, die für die aktuellen Positionen (P) der Nutzroboter (2) und der weiteren Elemente (4) charakteristisch sind, - wobei dem Raum eine Mastersteuerung (6) nach Anspruch 7 zugeordnet ist, - wobei die Mastersteuerung (6) zum Entgegennehmen der erfassten Daten (D) mit dem Erfassungssystem (9) und zum Übermitteln von Bewegungsvorgaben (V) mit den Roboter-Steuereinrichtungen (5) datentechnisch verbunden ist.
  9. Raum nach Anspruch 8, dadurch gekennzeichnet, dass die Nutzroboter (2) keine Sensorik (16) zur Erfassung von Abständen des jeweiligen Nutzroboters (2) von in der Umgebung des jeweiligen Nutzroboters (2) befindlichen Objekten aufweisen oder dass die Nutzroboter (2) zwar eine derartige Sensorik (16) aufweisen, die Sensorik (16) jedoch nicht betreiben.
  10. Raum nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass das Erfassungssystem (9) zur Erfassung der für die Positionen (P) der Nutzroboter (2) im Raum charakteristischen Daten (D) - mindestens eine ortsfest in dem Raum angeordnete Erfassungseinheit (12a) und/oder - mindestens eine Erfassungseinheit (12a, 12b), die an einer in dem Raum ortsfesten starren oder beweglichen Trägerstruktur angeordnet ist, und/oder - mindestens eine an einem in dem Raum verfahrbaren Überwachungsroboter (15) befestigte Erfassungseinheit (12d) aufweist.
DE102022211255.5A 2022-10-24 2022-10-24 Steuerung von Robotern mit zentralisierter Positionserfassung Pending DE102022211255A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022211255.5A DE102022211255A1 (de) 2022-10-24 2022-10-24 Steuerung von Robotern mit zentralisierter Positionserfassung
CN202311387799.XA CN117930695A (zh) 2022-10-24 2023-10-23 具有集中的位置检测的机器人的控制

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022211255.5A DE102022211255A1 (de) 2022-10-24 2022-10-24 Steuerung von Robotern mit zentralisierter Positionserfassung

Publications (1)

Publication Number Publication Date
DE102022211255A1 true DE102022211255A1 (de) 2024-04-25

Family

ID=90572989

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022211255.5A Pending DE102022211255A1 (de) 2022-10-24 2022-10-24 Steuerung von Robotern mit zentralisierter Positionserfassung

Country Status (2)

Country Link
CN (1) CN117930695A (de)
DE (1) DE102022211255A1 (de)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007018810A1 (de) 2007-04-20 2008-10-30 Siemens Ag Verfahren zur Bewegungsüberwachung bei einer medizintechnischen Anlage sowie zugehörige medizintechnische Anlage
EP2208584B1 (de) 2009-01-14 2011-12-21 GFRT - Fortschrittliche Robotertechnologie GmbH & Co. KG Verfahren zur Steuerung von Industrierobotern
US20170248966A1 (en) 2015-10-26 2017-08-31 X Development Llc Communication of Information Regarding a Robot Using an Optical Identifier
CN107479544A (zh) 2016-06-08 2017-12-15 科沃斯机器人股份有限公司 母子机协同工作系统及其工作方法
CN111232884A (zh) 2018-11-29 2020-06-05 株式会社日立制作所 自主体系统及其控制方法
DE102019201696A1 (de) 2019-02-11 2020-08-13 Zf Friedrichshafen Ag Steuerung einer Bearbeitungsmaschine
US20210321044A1 (en) 2021-06-23 2021-10-14 Intel Corporation Robot sensor data management

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007018810A1 (de) 2007-04-20 2008-10-30 Siemens Ag Verfahren zur Bewegungsüberwachung bei einer medizintechnischen Anlage sowie zugehörige medizintechnische Anlage
EP2208584B1 (de) 2009-01-14 2011-12-21 GFRT - Fortschrittliche Robotertechnologie GmbH & Co. KG Verfahren zur Steuerung von Industrierobotern
US20170248966A1 (en) 2015-10-26 2017-08-31 X Development Llc Communication of Information Regarding a Robot Using an Optical Identifier
CN107479544A (zh) 2016-06-08 2017-12-15 科沃斯机器人股份有限公司 母子机协同工作系统及其工作方法
CN111232884A (zh) 2018-11-29 2020-06-05 株式会社日立制作所 自主体系统及其控制方法
DE102019201696A1 (de) 2019-02-11 2020-08-13 Zf Friedrichshafen Ag Steuerung einer Bearbeitungsmaschine
US20210321044A1 (en) 2021-06-23 2021-10-14 Intel Corporation Robot sensor data management

Also Published As

Publication number Publication date
CN117930695A (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
EP3415070B1 (de) System mit mindestens zwei bodenbearbeitungseinrichtungen
EP2259725B1 (de) Roentgenvorrichtung und medizinischer arbeitsplatz
EP3408719B1 (de) Verfahren zum erstellen einer umgebungskarte für ein selbsttätig verfahrbares bearbeitungsgerät
WO2017028951A1 (de) Verfahren zur baustellenüberwachung, arbeitsmaschine und system zur baustellenüberwachung
DE102017128543A1 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
EP3443908B1 (de) Verfahren zum betreiben eines röntgengeräts mit einem gelenkarm und röntgengerät mit einem gelenkarm
EP3367200A1 (de) Verfahren zum betrieb eines sich selbsttätig fortbewegenden roboters
DE102004042489A1 (de) Medizinische Untersuchungs- oder Behandlungseinrichtung
DE102010007025A1 (de) Verfahren und Vorrichtung zur Überwachung eines Manipulatorraumes
DE102009049075A1 (de) Röntgensystem und Verfahren zum Generieren einer Abtastbahn
WO2015014481A1 (de) Robotersystem
DE102014212632A1 (de) Verfahren zum Überwachen eines Betriebs eines Medizingeräts
DE102012112025A1 (de) Verfahren und Vorrichtungen zur Positionsbestimmung einer Kinematik
EP3974936B1 (de) Konfigurieren einer visualisierungsvorrichtung für einen maschinenbereich
DE102016204618A1 (de) Mobile Bildgebungseinrichtung
WO2005039836A2 (de) Verfahren zur einrichtung einer bewegung eines handhabungsgeräts und bildverarbeitung
DE102020112049A1 (de) Roboterbedienvorrichtung, roboter und roboterbedienungsverfahren
EP1915239B1 (de) Verfahren zum erzeugen eines umgebungsbildes
DE102022211255A1 (de) Steuerung von Robotern mit zentralisierter Positionserfassung
EP2353799B1 (de) Verfahren und Vorrichtung zur Überwachung eines Manipulatorraumes
DE202021100220U1 (de) Bildgebungssystem mit integriertem Roboter
EP2666955A2 (de) Verfahren und Vorrichtung zur halbautomatischen Justierung einer Handhabungseinrichtung
DE102016214391B4 (de) Verfahren zum Steuern eines Betriebes eines Koordinatenmessgerätes und Koordinatenmessgerät mit Steuerung
DE112020001675B4 (de) Fernbedienungsvorrichtung
DE102021134553A1 (de) Robotergestütztes Registrierungsverfahren und chirurgisches Navigationssystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: G05D0001430000

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE

R016 Response to examination communication