DE102021200676A1 - Verfahren zu einem Erkennen und einem Darstellen von Oberflächenveränderungen an einem Objekt, Gerät und System aus mehreren Geräten zu einer Durchführung des Verfahrens - Google Patents

Verfahren zu einem Erkennen und einem Darstellen von Oberflächenveränderungen an einem Objekt, Gerät und System aus mehreren Geräten zu einer Durchführung des Verfahrens Download PDF

Info

Publication number
DE102021200676A1
DE102021200676A1 DE102021200676.0A DE102021200676A DE102021200676A1 DE 102021200676 A1 DE102021200676 A1 DE 102021200676A1 DE 102021200676 A DE102021200676 A DE 102021200676A DE 102021200676 A1 DE102021200676 A1 DE 102021200676A1
Authority
DE
Germany
Prior art keywords
camera
unit
images
method step
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021200676.0A
Other languages
English (en)
Inventor
Jan Fabian Schmid
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102021200676.0A priority Critical patent/DE102021200676A1/de
Priority to CN202180091899.0A priority patent/CN116964626A/zh
Priority to PCT/EP2021/086421 priority patent/WO2022161700A1/de
Publication of DE102021200676A1 publication Critical patent/DE102021200676A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30132Masonry; Concrete

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Es wird ein Verfahren zu einem Erkennen und einem Darstellen von Oberflächenveränderungen (20) an einem Objekt (22), insbesondere einem Gebäude, vorzugsweise einem Boden eines Gebäudes, vorgeschlagen, wobei in zumindest einem Verfahrensschritt (70) mittels einer relativ zu dem Objekt (22) bewegbaren Kamera (26) eines Geräts (12), insbesondere eines Roboters, über eine Vielzahl von Bildern eine Oberfläche (24) des Objekts (22) erfasst wird, wobei in zumindest einem Verfahrensschritt (80) mittels einer Auswerteeinheit (34) über einen Vergleich von zumindest zwei zeitlich beabstandet voneinander erfassten Bildern eines Oberflächenabschnitts (50) der Oberfläche (24) zumindest eine Oberflächenveränderung (20) innerhalb des Oberflächenabschnitts (50) ermittelt wird, wobei in zumindest einem weiteren Verfahrensschritt (82) mittels der Auswerteeinheit (34) über eine in Abhängigkeit von einem erfassten Bild des Oberflächenabschnitts (50) erfolgende Zuordnung des die Oberflächenveränderung (20) aufweisenden Oberflächenabschnitts (50) auf der Oberfläche (24) des Objekts (22) eine Position der zumindest einen Oberflächenveränderung (20) an dem Objekt (22) ermittelt wird und wobei in zumindest einem Verfahrensschritt (84) mittels einer Ausgabeeinheit (28) die ermittelte Position der zumindest einen Oberflächenveränderung (20) an dem Objekt (22) dargestellt wird.

Description

  • Stand der Technik
  • Es ist bereits ein Verfahren zu einem Erkennen und einem Darstellen von Oberflächenveränderungen an einem Objekt vorgeschlagen worden.
  • Offenbarung der Erfindung
  • Es wird ein Verfahren zu einem Erkennen und einem Darstellen von Oberflächenveränderungen an einem Objekt, insbesondere einem Gebäude, vorzugsweise einem Boden eines Gebäudes, vorgeschlagen, wobei in zumindest einem Verfahrensschritt mittels einer relativ zu dem Objekt bewegbaren Kamera eines Geräts, insbesondere eines Roboters, über eine Vielzahl von Bildern eine Oberfläche des Objekts erfasst wird, wobei in zumindest einem Verfahrensschritt mittels einer Auswerteeinheit über einen Vergleich von zumindest zwei zeitlich beabstandet voneinander erfassten Bildern eines Oberflächenabschnitts der Oberfläche zumindest eine Oberflächenveränderung innerhalb des Oberflächenabschnitts ermittelt wird, wobei in zumindest einem weiteren Verfahrensschritt mittels der Auswerteeinheit über eine in Abhängigkeit von einem erfassten Bild des Oberflächenabschnitts erfolgende Zuordnung des die Oberflächenveränderung aufweisenden Oberflächenabschnitts auf der Oberfläche des Objekts eine Position der zumindest einen Oberflächenveränderung an dem Objekt ermittelt wird und wobei in zumindest einem Verfahrensschritt mittels einer Ausgabeeinheit die ermittelte Position der zumindest einen Oberflächenveränderung an dem Objekt dargestellt wird.
  • Vorzugsweise wird die Kamera zur Erfassung der Oberfläche zusammen mit dem Gerät relativ zu dem Objekt entlang der Oberfläche bewegt. Bevorzugt werden die Bilder jeweils während oder nach einer Bewegung des Geräts erfasst bzw. aufgenommen. Vorzugsweise wird die Oberfläche des Objekts in zumindest einem Verfahrensschritt über eine/die Vielzahl von Bildern erfasst, wobei die Vielzahl von Bildern zusammen die zumindest im Wesentlichen gesamte Oberfläche des Objekts umfassen. Insbesondere umfasst jedes erfasste/aufgenommene Bild zumindest einen Oberflächenabschnitt der Oberfläche des Objekts.
  • Bevorzugt werden die über die Kamera erfassten/aufgenommenen Bilder an die Auswerteeinheit übermittelt. Insbesondere sind die Kamera und die Auswerteeinheit elektrisch und/oder elektronisch miteinander verbunden. Es ist denkbar, dass die Kamera und die Auswerteeinheit einteilig und/oder als Teil des Geräts ausgebildet sind oder getrennt voneinander ausgebildet sind und beispielsweise über eine Kommunikationseinheit datentechnisch miteinander verbunden sind. Vorzugsweise werden zur Ermittlung von Oberflächenveränderungen zumindest zwei zeitlich voneinander beabstandet erfasste Bilder miteinander verglichen, welche jeweils einzeln einen gleichen Oberflächenabschnitt der Oberfläche umfassen bzw. darstellen. Vorzugsweise erfolgt eine Ermittlung der zumindest einen Oberflächenveränderung über den Vergleich von den zumindest zwei zeitlich beabstandet voneinander erfassten Bildern nach einer Ermittlung einer Position bzw. eines Erfassungsorts der Bilder, insbesondere eines erfassten Bilds, welches vorzugsweise zur Ermittlung der zumindest einen Oberflächenveränderung mit einem Referenzbild verglichen wird, an dem Objekt.
  • Vorzugsweise wird in zumindest einem Verfahrensschritt einem mittels der Kamera erfassten Bild eines Oberflächenabschnitts der Oberfläche eine Position des Oberflächenabschnitts auf der Oberfläche des Objekts zugeordnet, wobei insbesondere das Bild an der Position erfasst wurde. Vorzugsweise erfolgt in zumindest einem Verfahrensschritt, besonders bevorzugt bei einer Inbetriebnahme des Geräts, während eines Kalibriervorgangs des Geräts oder eines das Gerät umfassenden Systems und/oder in regelmäßigen zeitlichen Abständen ein Abdecken der Oberfläche des Objekts durch das Gerät mittels der Kamera, wobei bevorzugt die zumindest im Wesentlichen vollständige Oberfläche des Objekts erfasst wird. Vorzugsweise wird bei dem Abdecken der Oberfläche mittels der Auswerteeinheit ein Referenzbild der Oberfläche erzeugt, welches insbesondere die zumindest im Wesentlichen vollständige Oberfläche des Objekts umfasst bzw. darstellt. Bevorzugt wird das Referenzbild der Oberfläche in der Auswerteeinheit hinterlegt. Vorzugsweise erfolgt eine Ermittlung der Position eines erfassten Oberflächenabschnitts der Oberfläche über einen Vergleich des erfassten Oberflächenabschnitts mit dem Referenzbild der Oberfläche. Es ist denkbar, dass eine Mehrzahl von Referenzbildern der Oberfläche erzeugt werden und insbesondere jeweils in der Auswerteeinheit hinterlegt werden, wobei bevorzugt die einzelnen Referenzbilder der Oberfläche zeitlich beabstandet voneinander erfasst wurden. Besonders bevorzugt erfolgt in zumindest einem Verfahrensschritt eine Ermittlung einer Oberflächenveränderung über einen Vergleich eines erfassten Bildes, welches insbesondere einen Oberflächenabschnitt der Oberfläche umfasst, mit einem Referenzbild der Oberfläche. Insbesondere wird in zumindest einem Verfahrensschritt mittels der Auswerteeinheit einem über ein Bild erfassten Oberflächenabschnitt der Oberfläche mittels eines Vergleichs mit einem Referenzbild der Oberfläche eine Position auf der Oberfläche zugeordnet. Vorzugsweise wird einer ermittelten Oberflächenveränderung mittels der Auswerteeinheit eine Position zugeordnet, welche einer Position des Oberflächenabschnitts entspricht, welcher die Oberflächenveränderung umfasst.
  • Unter einem „Abdecken“ einer Fläche, insbesondere der Oberfläche, soll insbesondere ein Vorgang verstanden werden, wobei die Fläche von einem, insbesondere dem vorher genannten, Gerät zumindest im Wesentlichen vollständig abgedeckt, beispielsweise abgefahren, abgeflogen o.dgl., wird. Führt das Gerät eine Tätigkeit aus, beispielsweise ein Erfassen der Fläche bzw. der Oberfläche des Objekts, wird die Tätigkeit beim Abdecken der Fläche auf die zumindest im Wesentlichen gesamte Fläche ausgeführt/angewendet. Bevorzugt wird über die Kamera beim Abdecken der Oberfläche durch das Gerät mindestens 90%, vorzugsweise mindestens 95% und bevorzugt mindestens 98%, einer durch das Gerät erreichbaren Fläche der Oberfläche über eine Vielzahl von Bildern erfasst. Es ist denkbar, dass eine gesamte Oberfläche des Objekts durch das Gerät abgedeckt wird. Alternativ ist denkbar, dass eine zu erfassende bzw. zu untersuchende Oberfläche des Objekts durch einen Benutzer und/oder eine externe Einheit vorgegeben wird, wobei beim Abdecken der Oberfläche lediglich die vorgegebene Oberfläche des Objekts berücksichtigt wird. Beispielsweise ist denkbar, dass lediglich eine Bodenfläche eines Gebäudes untersucht werden soll, wobei lediglich die Bodenfläche beim Abdecken der Oberfläche berücksichtigt wird.
  • Besonders bevorzugt werden für Vergleiche von zwei oder mehr erfassten Bildern eine Vielzahl von Bildparametern der einzelnen Bilder miteinander verglichen. Insbesondere sind die Bildparameter als Helligkeitswerte und/oder Farbwerte von einzelnen das jeweilige Bild bildenden Pixeln ausgebildet. Alternativ oder zusätzlich ist denkbar, dass mittels der Auswerteeinheit Muster in erfassten Bildern erkannt werden, welche bei einem Vergleich von mehreren Bildern herangezogen werden. Beispielsweise sind die Muster als Farb- und/oder Helligkeitsverläufe innerhalb der Bilder ausgebildet. Besonders bevorzugt wird in der Auswerteeinheit zumindest ein Grenzwert der Bildparameter und/oder der Muster hinterlegt, der vorzugsweise zu einer Ermittlung von Oberflächenveränderungen herangezogen wird. Insbesondere wird mittels der Auswerteeinheit eine Oberflächenveränderung in einem Oberflächenabschnitt der Oberfläche erkannt, falls sich die zumindest zwei miteinander verglichenen Bilder des Oberflächenabschnitts derart unterscheiden, dass zumindest ein Bildparameter den Grenzwert der Bildparameter überschreitet. Vorzugsweise wird ein Grenzwert für eine Anzahl an aneinander angeordneten Pixeln und/oder Bildparametern aufweisenden Bildbereichen (Clustergröße) hinterlegt, wobei insbesondere eine Oberflächenveränderung in einem Oberflächenabschnitt der Oberfläche erkannt wird, falls eine Anzahl an aneinander angeordneten Pixeln und/oder Bildparametern, welche jeweils den Grenzwert der Bildparameter überschreiten, den Grenzwert für die Anzahl an aneinander angeordneten Pixeln und/oder Bildparametern überschreiten. Es ist denkbar, dass bei ausreichend große Bildparameter aufweisenden Bildbereichen bereits bei einem Überschreiten des Grenzwerts der Bildparameter für einen Bildbereich eine Oberflächenveränderung ermittelt wird. In einer bevorzugten Ausgestaltung der Bildbereiche als Pixel des Bildes ist jedoch ein Grenzwert für Cluster von mehr als einem Pixel zur Erkennung von Oberflächenveränderungen sinnvoll, vorzugsweise um ungewollte fälschlich ermittelte Oberflächenveränderungen durch Bildfehler o.dgl. zu verhindern.
  • Vorzugsweise ist das Verfahren dazu vorgesehen, Oberflächenveränderungen an einem Objekt zu erkennen und einem Benutzer auszugeben, wobei vorzugsweise eine detaillierte Inspektion der Oberflächenveränderungen durch einen Benutzer erfolgen kann. Es ist jedoch auch denkbar, dass in zumindest einem Verfahrensschritt mittels der Auswerteeinheit über die Bilder weitere Zusatzinformationen der erfassten Oberflächenveränderung(en) ermittelt werden, welche insbesondere möglicherweise eine detaillierte Inspektion ersparen können. Unter einer „Oberflächenveränderung“ soll insbesondere eine optisch wahrnehmbare Änderung einer Oberfläche verstanden werden, vorzugsweise unabhängig von Lichtverhältnissen und/oder Kameraeinstellungen. Beispiele für Oberflächenveränderungen sind insbesondere eine Änderung der Feuchtigkeit der Oberfläche, beispielsweise bei einem Wasserschaden o.dgl., Risse in der Oberfläche, Farbveränderung, Ablagerungen auf der Oberfläche, wie beispielsweise durch Schmutz oder Algen, usw.
  • Bevorzugt wird das Gerät zu einem Beginn des Verfahrens an einem beliebigen Punkt an die/auf der Oberfläche positioniert. Vorzugsweise erfolgt das Abdecken, insbesondere ein erstes Abdecken nach dem Beginn, der Oberfläche durch das Gerät, bis jeder Punkt der zu erfassenden Oberfläche des Objekts in mindestens einem erfassten Bild enthalten ist. Vorteilhafterweise sind ein Großteil der Punkte der Oberfläche in mehreren Bildern enthalten, wobei über eine Überlappung der Bilder ein Zusammenfügen der Bilder, beispielsweise zu einem Referenzbild der Oberfläche, erleichtert werden kann. Vorzugsweise wird in zumindest einem Verfahrensschritt von einem Vergleich von Bildern, vorzugsweise zur Ermittlung von Oberflächenveränderungen und/oder einer Position des Geräts bzw. der Kamera und/oder eines erfassten Bilds an dem Objekt, mittels der Auswerteeinheit zu einem Vergleich mit einem erfassten Bild zumindest ein hinterlegtes, insbesondere zuvor erfasstes, weiteres Bild, welches einen von dem erfassten Bild gezeigten Oberflächenabschnitt zumindest teilweise umfasst, beispielsweise ein Referenzbild der Oberfläche oder ein Ausschnitt des Referenzbilds, ausgewählt. Vorzugsweise werden zu dem Vergleich einem erfassten Bild jeweils eine Mehrzahl von hinterlegten Bildern ausgewählt und nacheinander und/oder zusammen mit dem erfassten Bild verglichen.
  • Durch die erfindungsgemäße Ausgestaltung des Verfahrens können Oberflächenveränderungen durch die Kamera über alle visuell detektierbaren Kenngrö-ßen bestimmt werden, insbesondere unabhängig von vorgegebenen visuellen Markern als Kennzeichen für bestimmte Oberflächenveränderungen. Es kann eine Erkennung von Oberflächenveränderungen über eine vorteilhaft große Anzahl an verschiedenen Zeitintervallen ermöglicht werden. Es kann eine vorteilhaft hohe Flexibilität erreicht werden, insbesondere da das Verfahren mit einer vorteilhaft hohen Anzahl an verschiedenen Geräten bzw. Robotern durchgeführt werden kann. Es kann vorteilhaft gleichzeitig eine Lokalisation des Geräts über erfasste Bilder der Oberfläche ermöglicht werden.
  • Des Weiteren wird vorgeschlagen, dass in zumindest einem Verfahrensschritt eine Lokalisation des Geräts und/oder der Kamera, insbesondere zu einer Navigation des Geräts, an dem Objekt in Abhängigkeit von einem Vergleich eines an der Position erfassten Bildes eines Oberflächenabschnitts der Oberfläche und einer zuvor erfassten hinterlegten Oberfläche, insbesondere einem Referenzbild der Oberfläche, des Objekts erfolgt, wobei in zumindest einem Verfahrensschritt eine Position einer Oberflächenveränderung in Abhängigkeit von einer Position des Geräts und/oder der Kamera bei einer Erfassung eines die Oberflächenveränderung umfassenden Bildes ermittelt wird. Es kann eine vorteilhaft einfache und genaue teilautonome oder vollautonome Steuerung des Geräts erreicht werden. Es kann vorteilhaft auf zusätzliche Sensoren zur Lokalisation des Geräts und/oder der Kamera verzichtet werden. Dadurch kann ein vorteilhaft geringer Datenfluss und/oder Rechenaufwand zur Durchführung des Verfahrens erreicht werden. Zudem kann eine vorteilhaft hohe Flexibilität des Verfahrens hinsichtlich einer Auswahl an zur Ausführung des Verfahrens verwendeten Geräten erreicht werden. Bevorzugt wird mittels der Auswerteeinheit über die erfassten Bilder und über ein Referenzbild der Oberfläche eine Fortbewegungsstrecke des Geräts entlang der Oberfläche ermittelt und vorzugsweise hinterlegt. Bevorzugt werden Positionen des Geräts und/oder ermittelte Fortbewegungsstrecken des Geräts mit einem Zeitstempel hinterlegt. Bevorzugt wird das Gerät in zumindest einem Verfahrensschritt mittels einer Steuer- und/oder Regeleinheit in Abhängigkeit von einer ermittelten Position des Geräts gesteuert, vorzugsweise zum Abdecken der Oberfläche, zu einem Erfassen von Oberflächenabschnitten o. dgl. Es ist denkbar, dass die Kamera relativ zu einem Grundkörper des Geräts beweglich ausgebildet ist. Insbesondere wird in zumindest einem Verfahrensschritt mittels der Auswerteeinheit in Abhängigkeit von einer Position der Kamera relativ zur Oberfläche, welche insbesondere über den Vergleich eines an der Position erfassten Bildes eines Oberflächenabschnitts der Oberfläche und einer zuvor erfassten hinterlegten Oberfläche, insbesondere einem Referenzbild der Oberfläche, des Objekts ermittelt wird, und von einer Position der Kamera relativ zu dem Grundkörper eine Position des Geräts, insbesondere des Grundkörpers, relativ zur Oberfläche ermittelt.
  • Zudem wird vorgeschlagen, dass Bilder der Oberfläche des Objekts und/oder Bilder von Oberflächenabschnitten der Oberfläche mittels der Kamera jeweils in einem zumindest im Wesentlichen identischen Abstand zur Oberfläche des Objekts erfasst werden. Es kann ein vorteilhaft einfacher und genauer Vergleich von mehreren aufgenommenen Bildern ermöglicht werden. Es kann ein vorteilhaft geringer Rechenaufwand zur Durchführung des Verfahrens erreicht werden, insbesondere da auf komplexe Transformationen und Bildbearbeitungen von/an aufgenommenen Bildern zu einem genauen Vergleich der Bilder vorteilhaft verzichtet werden kann. Vorzugsweise wird die Kamera beim Erfassen der Oberfläche und/oder beim Abdecken der Oberfläche durch das Gerät in einem gleichbleibenden Abstand zur Oberfläche bewegt. Es ist auch denkbar, dass ein minimaler Abstand der Kamera relativ zur Oberfläche verändert wird, beispielsweise beim Erfassen der Oberfläche und/oder beim Abdecken der Oberfläche durch das Gerät, wobei jedoch eine Erfassung von Bildern der Oberfläche über die Kamera jeweils bei einem vorgegebenen Abstand zur Oberfläche erfolgt. Es ist denkbar, dass die Kamera zur Erfassung eines Bildes eines Oberflächenabschnitts der Oberfläche jeweils auf den vorgegebenen Abstand zur Oberfläche bewegt wird, beispielsweise über einen Aktuator, einen Roboterarm, ein Fortbewegungsmittel des Geräts o.dgl.
  • Ferner wird vorgeschlagen, dass in zumindest einem Verfahrensschritt über ein autonomes systematisches Abdecken der Oberfläche des Objekts durch das Gerät mittels der Kamera die zumindest im Wesentlichen vollständige Oberfläche des Objekts über eine Vielzahl von Bildern erfasst wird und als Referenz, insbesondere zusammen als ein Referenzbild der Oberfläche, zu einer Ermittlung einer Position der Kamera und/oder des Geräts und/oder einer Ermittlung einer Position einer Oberflächenveränderung an der Oberfläche hinterlegt wird, wobei in zumindest einem Verfahrensschritt jedem erfassten Bild der Vielzahl von Bildern genau eine Position an der Oberfläche des Objekts zugeordnet wird. Es kann eine vorteilhaft schnelle Erkennung von Oberflächenveränderungen und/oder eine vorteilhaft schnelle Lokalisation des Geräts und/oder der Kamera ermöglicht werden, insbesondere da stets zumindest ein Referenzbild zu einem Vergleich mit einem aufgenommenen Bild vorhanden ist. Es kann eine vorteilhaft einfache Erstellung einer konsistenten Karte der Oberfläche des Objekts ermöglicht werden. Es kann eine vorteilhaft selbstständige Durchführung des Abdeckens der Oberfläche durch das Gerät erfolgen. Es kann ein vorteilhaft selbstständiges Durchführen des Verfahrens durch das Gerät erreicht werden, insbesondere da sowohl Referenzwerte als auch eine, insbesondere über die autonom systematisch bestimmte Strecke zum Abdecken vorgegebene, Route zur Erfassung von Oberflächenveränderungen ohne eine Interaktion mit einem Benutzer ermöglicht werden kann. Unter einem „autonomen systematischen Abdecken“ einer Fläche, insbesondere der Oberfläche, durch ein, insbesondere das vorher genannte, Gerät soll insbesondere verstanden werden, dass ein Abdecken der Fläche durch das Gerät selbstständig ausgeführt wird, wobei die zumindest im Wesentlichen gesamte Fläche systematisch überstrichen, insbesondere abgefahren, abgeflogen o.dgl., wird. Bevorzugt erfolgt eine Steuerung des Geräts zum autonomen systematischen Abdecken der Oberfläche durch das Gerät mittels der Steuer- und/oder Regeleinheit und/oder mittels der Auswerteeinheit. Vorzugsweise wird beim autonomen systematischen Abdecken der Oberfläche durch das Gerät, insbesondere über die Vielzahl von erfassten Bildern, ein Referenzbild der Oberfläche erzeugt. Bevorzugt wird in zumindest einem Verfahrensschritt, insbesondere zum autonomen systematischen Abdecken der Oberfläche durch das Gerät, mittels einer Sensoreinheit eine das Gerät umgebende Umgebung erfasst, wobei insbesondere in Abhängigkeit von über die Sensoreinheit erfasste Daten eine Begrenzung der, insbesondere für das Gerät zugänglichen, Oberfläche des Objekts ermittelt wird. Beispielsweise wird mittels der Sensoreinheit zumindest ein Rand der Oberfläche erfasst, wobei mittels der Steuer- und/oder Regeleinheit unter Berücksichtigung des Rands eine Navigation des Geräts zur Abdeckung der Oberfläche erfolgt. Insbesondere wird mittels der Steuer- und/oder Regeleinheit und/oder mittels der Auswerteeinheit, vorzugsweise in Abhängigkeit von einer erfassten Begrenzung der Oberfläche und/oder von vorgegebenen Informationen der Oberfläche bzw. des Objekts, eine Fortbewegungsstrecke des Geräts zum Abdecken der Oberfläche ermittelt. Es ist denkbar, dass die Fortbewegungsstrecke des Geräts zum Abdecken der Oberfläche derart ermittelt wird, dass das Abdecken der Oberfläche in möglichst kurzer Zeit erfolgt und/oder dass so wenig wie möglich Oberflächenabschnitte der Oberfläche mehrmals überstrichen werden.
  • Des Weiteren wird vorgeschlagen, dass in zumindest einem Verfahrensschritt nach oder bei einer Erfassung der zumindest im Wesentlichen vollständigen Oberfläche des Objekts, insbesondere nach oder bei dem Abdecken der Oberfläche durch das Gerät, zumindest ein virtuelles, insbesondere dreidimensionales, Modell des Objekts erzeugt wird, wobei in zumindest einem weiteren Verfahrensschritt zumindest eine erfasste Oberflächenveränderung über eine ermittelte Position der Oberflächenveränderung an dem Objekt an dem virtuellen Modell des Objekts dargestellt wird. Es kann eine vorteilhaft einfache und genaue Ausgabe von erfassten Oberflächenveränderungen und deren Positionen an einen Benutzer erreicht werden. Es kann eine vorteilhaft intuitive Interpretation von über das Verfahren ermittelten Parametern ermöglicht werden, vorzugsweise unabhängig von einem Lesen von Computercode o.dgl. Vorzugsweise erfolgt die Erzeugung des virtuellen Modells in Abhängigkeit von über die Sensoreinheit erfassten Daten der das Gerät umgebenden Umgebung, bevorzugt des Objekts bzw. der Oberfläche. Beispielsweise wird mittels der Sensoreinheit und/oder der Kamera, vorzugsweise kontinuierlich oder periodisch, eine Fortbewegungsrichtung des Geräts im Raum, eine Änderung einer Orientierung der überstrichenen Oberfläche o.dgl. erfasst, wobei die erfassten Bilder in Abhängigkeit von diesen Informationen zu dem virtuellen Modell zusammengesetzt werden. Vorzugsweise erfolgt die Erzeugung des virtuellen Modells des Objekts mittels der Auswerteeinheit. Es ist denkbar, dass eine Navigation des Geräts an dem Objekt und/oder entlang der Oberfläche mittels der Steuer- und/oder Regeleinheit in Abhängigkeit von dem erzeugten virtuellen Modell erfolgt. Vorzugsweise wird das erzeugte virtuelle Modell in der Steuer- und/oder Regeleinheit und/oder in der Auswerteeinheit hinterlegt. Vorzugsweise werden erfasste Bilder von Oberflächenabschnitten in Abhängigkeit von einer Position an dem Objekt, an der die einzelnen Bilder jeweils erfasst wurden und/oder die den einzelnen Bildern jeweils zugeordnet ist, in das virtuelle Modell übertragen. Bevorzugt ist das virtuelle Modell, insbesondere eine Oberfläche des virtuellen Modells, aus erfassten Bildern der Oberfläche gebildet. Es ist denkbar, dass eine Vielzahl von virtuellen Modellen erzeugt und/oder hinterlegt werden, welche jeweils erfasste Bilder der Oberfläche umfassen, welche zu unterschiedlichen Zeitpunkten erfasst wurden. In einer bevorzugten Ausgestaltung werden Oberflächenveränderungen innerhalb des virtuellen Modells, insbesondere zu oder bei einer Ausgabe an einen Benutzer, farblich hervorgehoben. Alternativ oder zusätzlich ist denkbar, dass Teilbereiche des Objekts/der Oberfläche innerhalb des virtuellen Modells gemäß einer Häufigkeit von Oberflächenveränderungen in den jeweiligen Teilbereichen farblich und/oder strukturiert hervorgehoben und/oder kodiert dargestellt werden, beispielsweise ähnlich einer „heat map“. Vorzugsweise wird das virtuelle Modell und/oder ein, insbesondere als Teil des virtuellen Modells ausgebildetes, Referenzbild der Oberfläche in zumindest einem Verfahrensschritt mit zumindest einem, insbesondere nach einem Erzeugen des virtuellen Modells erfassten, Bild eines Oberflächenabschnitts der Oberfläche aktualisiert, beispielsweise falls keine Oberflächenveränderung innerhalb des Oberflächenabschnitts ermittelt wurde und/oder falls ermittelte Oberflächenveränderungen bereits ausgegeben wurden o.dgl.
  • Zudem wird vorgeschlagen, dass in zumindest einem Verfahrensschritt, insbesondere bei oder nach dem Abdecken der Oberfläche durch das Gerät und/oder zur Erzeugung eines Referenzbilds der Oberfläche, mittels der Auswerteeinheit eine Mehrzahl von erfassten Bildern zu einer Abbildung der Oberfläche und/oder eines Oberflächenabschnitts des Objekts zusammengesetzt werden, wobei eine Ausrichtung der einzelnen Bilder in Abhängigkeit von über mehrere Bilder erfasste Bildmerkmale erfolgt. Es kann ein Zusammenfügen von mehreren erfassten Bildern vorteilhaft unabhängig von einer Position der Kamera beim Erfassen der einzelnen Bilder ermöglicht werden. Es kann ein vorteilhaft einfaches Erstellen einer Karte der Oberfläche ermöglicht werden, insbesondere unabhängig von einer gewählten Route zum Abdecken der Oberfläche durch das Gerät. Es kann eine vorteilhaft genaue Karte der Oberfläche erstellt werden, vorzugsweise in einem realen Maßstab und/oder ohne doppelt dargestellte Bereiche der Oberfläche. Vorzugsweise werden die Bilder derart zusammengesetzt, dass identische Bildmerkmale der Bilder jeweils übereinanderliegen. Vorzugsweise werden Oberflächenabschnitte, welche in mehreren Bildern identisch dargestellt sind, zur Abbildung der Oberfläche und/oder eines Oberflächenabschnitts des Objekts lediglich einmal verwendet. Es ist denkbar, dass eine Mehrzahl von erfassten Bildern zur Ermittlung einer Oberflächenveränderung zusammengesetzt werden, vorzugsweise zu einem Vergleich mit einem oder mehreren zeitlich versetzt erfassten Bildern eines Oberflächenabschnitts, welcher die Oberflächenveränderung umfasst, beispielsweise falls sich die erfasste Oberflächenveränderung über einen Rand eines Bildes hinaus erstreckt. Insbesondere falls eine Oberflächenveränderung in einem Randbereich eines erfassten Bildes ermittelt wird, wird mittels der Auswerteeinheit zumindest ein weiteres erfasstes Bild bestimmt, welches einen Oberflächenabschnitt umfasst, der an einen von dem Bild umfassten Oberflächenbereich angrenzt. Vorzugsweise wird mittels der Auswerteeinheit das weitere Bild mit einem Referenzbild und/oder mit einem zeitlich früher erfassten Bild des von dem weiteren Bild umfassten Oberflächenabschnitts verglichen, um eine Oberflächenveränderung in dem weiteren Bild zu ermitteln. Bevorzugt werden das Bild und das zumindest eine weitere Bild mit dem Bild zusammengesetzt, falls sich die Oberflächenveränderung über das Bild und das weitere Bild erstreckt. Vorzugsweise werden die Bilder über einen Stitchingprozess („image stitching“) zusammengefügt.
  • Ferner wird vorgeschlagen, dass in zumindest einem Verfahrensschritt vor einem Hinterlegen und/oder vor einem Vergleich zu einer Ermittlung einer Oberflächenveränderung und/oder einer Position des Geräts und/oder der Kamera zumindest ein Tiefpass-Filter auf erfasste Bilder angewandt wird. Es kann ein Rauschen innerhalb der aufgenommenen Bilder zu einem Vergleich von mehreren Bildern vorteilhaft reduziert werden. Dadurch kann eine vorteilhaft fehlerfreie Erkennung von Oberflächenveränderungen über einen Vergleich von mehreren Bildern ermöglicht werden. Vorzugsweise erfolgt ein Anwenden des Tiefpass-Filters mittels der Auswerteeinheit, bevorzugt im Anschluss an eine Übermittlung der erfassten Bilder von der Kamera an die Auswerteeinheit. Insbesondere ist der Tiefpass-Filter als ein Gauß-Filter ausgebildet. Es sind aber auch andere Ausgestaltungen des Tiefpass-Filters denkbar.
  • Des Weiteren wird vorgeschlagen, dass in zumindest einem Verfahrensschritt erfasste Bilder als Referenz zu einem zukünftigen Vergleich in einer Speichereinheit, insbesondere der Auswerteeinheit, hinterlegt werden, wobei den erfassten Bildern jeweils eine Position an dem Objekt, an der das jeweilige Bild jeweils erfasst wurde, und ein Erfassungszeitpunkt des jeweiligen Bilds zugeordnet wird. Es kann vorteilhaft eine zeit- und ortsabhängige Entwicklung der Oberfläche des Objekts ermöglicht werden. Bevorzugt werden die erfassten Bilder in Abhängigkeit von der zugeordneten Position und dem zugeordneten Erfassungszeitpunkt in der Auswerteeinheit hinterlegt.
  • Zudem wird vorgeschlagen, dass in zumindest einem Verfahrensschritt zu einer Ermittlung von Oberflächenveränderungen an dem Objekt mittels des Geräts, insbesondere der Kamera, ein Abdecken der zumindest im Wesentlichen vollständigen Oberfläche des Objekts erfolgt, wobei eine Fortbewegungstrecke des Geräts, insbesondere der Kamera, entlang der Oberfläche einem vorgegebenen Pfad folgt. Es kann ein vorteilhaft gleichbleibender zeitlicher Abstand zwischen allen bei einem Abdecken der Oberfläche erfassten Bildern der Oberfläche und zuvor erfassten Bildern der Oberfläche erreicht werden. Es kann eine vorteilhaft konsistente und gründliche Überwachung der gesamten Oberfläche des Objekts ermöglicht werden. Es kann ein vorteilhaft autonomes Abdecken der Oberfläche ermöglicht werden. Es kann ein vorteilhaft geringer Rechenaufwand zur Navigation des Geräts beim Abdecken der Oberfläche erreicht werden, insbesondere da ein erneutes Bestimmen einer Route des Geräts zum Abdecken der Oberfläche entfallen kann. Bevorzugt wird bei einem, insbesondere autonomen systematischen, Abdecken der Oberfläche durch das Gerät eine Fortbewegungsstrecke des Geräts und/oder der Kamera entlang der Oberfläche bestimmt und in der Auswerteeinheit und/oder der Steuer- und/oder Regeleinheit hinterlegt. insbesondere wird bei einem erneuten bzw. zu einem späteren Zeitpunkt erfolgenden Abdecken der Oberfläche durch das Gerät das Gerät und/oder die Kamera mittels der Steuer- und/oder Regeleinheit entlang der/einer hinterlegten Fortbewegungsstrecke des Geräts und/oder der Kamera bewegt. Besonders bevorzugt wird bei einem ersten Abdecken der Oberfläche durch das Gerät, beispielsweise bei einer Inbetriebnahme des Geräts, eine Fortbewegungsstrecke zum Abdecken der Oberfläche bestimmt/ermittelt und in der Auswerteeinheit und/oder der Steuer- und/oder Regeleinheit hinterlegt und vorzugsweise für ein regelmäßiges Abdecken der Oberfläche periodisch zurückgelegt. Alternativ oder zusätzlich ist denkbar, dass eine Fortbewegungsstrecke zum Abdecken der Oberfläche durch das Gerät von einem Benutzer und/oder einer externen Einheit hinterlegt wird.
  • Ferner wird vorgeschlagen, dass in zumindest einem Verfahrensschritt mittels einer Ausgabeeinheit einer externen Einheit und/oder des Geräts und/oder mittels einer Kommunikationseinheit, über welche insbesondere eine Übermittlung von elektronischen Daten an die Ausgabeeinheit und/oder eine/die externe Einheit erfolgt, zumindest ein Ausgabesignal an einen Benutzer ausgegeben wird, welches zumindest eine ermittelte Position zumindest einer ermittelten Oberflächenveränderung an dem Objekt und zumindest eine Zusatzinformation der Oberflächenveränderung umfasst. Es kann eine vorteilhaft einfache und direkte Benachrichtigung eines Benutzers bei einer Erfassung einer Oberflächenveränderung ermöglicht werden. Es kann eine vorteilhaft hohe Bedienerfreundlichkeit ermöglicht werden. Bevorzugt umfasst das Ausgabesignal zumindest teilweise eine Darstellung des erzeugten virtuellen Modells. Vorzugsweise wird das Ausgabesignal als ein optisches Signal ausgegeben. Alternativ oder zusätzlich ist denkbar, dass zumindest ein akustisches und/oder zumindest ein haptisches Signal ausgegeben wird, beispielsweise eine Sprachnachricht, die eine Art der Oberflächenveränderung benennt o.dgl. Vorzugsweise wird mittels der Auswerteeinheit, insbesondere nach einer Ermittlung einer Oberflächenveränderung in Abhängigkeit von einem Vergleich von zumindest zwei zeitlich versetzt zueinander erfassten Bildern, welche insbesondere zumindest teilweise einen Oberflächenabschnitt umfassen, der die Oberflächenveränderung umfasst, die Position der ermittelten Oberflächenveränderung an dem Objekt, insbesondere der Oberfläche, und die zumindest eine Zusatzinformation der Oberflächenveränderung bestimmt. Unter einer „Zusatzinformation der Oberflächenveränderung“ soll insbesondere eine Information verstanden werden, welche zumindest eine Eigenschaft der Oberflächenveränderung beschreibt, die sich von der Position der Oberflächenveränderung an dem Objekt unterscheidet. Vorzugsweise ist die Zusatzinformation als eine Art der Oberflächenveränderung, als ein Grad der Helligkeits- und/oder Farbwertveränderung im Bereich der Oberflächenveränderung, beispielsweise als Mittelwert einer Änderung aller die Oberflächenveränderung anzeigenden Pixel o.dgl., als eine Anzahl von die Oberflächenveränderung anzeigenden Bildbereichen, vorzugsweise aneinander angeordneten Pixeln (Clustergröße), als eine Häufigkeit der Oberflächenveränderung auf dem gesamten Objekt bzw. der gesamten Oberfläche und/oder auf einer gewissen Anzahl an zeitlich hintereinander erfassten Bildern an einer Stelle und/oder als ein Zeitintervall, über welches die Oberflächenveränderung bereits erfasst wurde o.dgl. Bevorzugt erfolgt eine Ermittlung der zumindest einen Zusatzinformation einer Oberflächenveränderung mittels der Auswerteeinheit automatisch bei einer Ermittlung der Oberflächenveränderung. Vorzugsweise werden für jede ermittelte Oberflächenveränderung jeweils eine Mehrzahl von verschiedenen Zusatzinformationen der jeweiligen Oberflächenveränderung bestimmt, insbesondere falls dies aus den die Oberflächenveränderung umfassenden Bildern möglich ist. Es ist denkbar, dass zumindest ein Ausgabegrenzwert in der Auswerteeinheit hinterlegt wird, wobei insbesondere eine Ausgabe des zumindest einen Ausgabesignals und/oder eine Übermittlung von elektronischen Daten zur Ausgabe des zumindest einen Ausgabesignals, insbesondere automatisch und/oder lediglich, bei einer Überschreitung des Ausgabegrenzwerts erfolgt. Beispielsweise ist der Ausgabegrenzwert an die Zusatzinformation der Oberflächenveränderung gekoppelt. Bevorzugt werden eine Mehrzahl von Ausgabegrenzwerten in der Auswerteeinheit hinterlegt, welche insbesondere verschieden voneinander ausgebildet sind. Beispielsweise stellt ein Ausgabegrenzwert einen Grenzwert einer Art der Oberflächenveränderung dar, wobei insbesondere der Ausgabegrenzwert bei bestimmten vorgegebenen Arten von Oberflächenveränderungen überschritten wird. Beispielsweise ist ein Ausgabegrenzwert als ein Grad der Helligkeits- und/oder Farbwertveränderung im Bereich der Oberflächenveränderung, beispielsweise als Mittelwert einer Änderung aller die Oberflächenveränderung anzeigenden Pixel o.dgl., ausgebildet. Beispielsweise ist ein Ausgabegrenzwert als eine Anzahl von die Oberflächenveränderung anzeigenden Bildbereichen, vorzugsweise aneinander angeordneten Pixeln (Clustergröße) ausgebildet, wobei vorzugsweise die Ausgabe des zumindest einen Ausgabesignals bei einer Überschreitung einer bestimmten Anzahl von aneinander angeordneten die Oberflächenveränderung anzeigenden Pixeln erfolgt. Alternativ oder zusätzlich ist denkbar, dass ein Ausgabegrenzwert als eine Häufigkeit der Oberflächenveränderung auf dem gesamten Objekt bzw. der gesamten Oberfläche und/oder auf einer gewissen Anzahl an zeitlich hintereinander erfassten Bildern an einer Stelle und/oder als ein Zeitintervall, über welches die Oberflächenveränderung bereits erfasst wurde, ausgebildet ist. Es ist denkbar, dass ein auszugebendes Ausgabesignal von einer Vielzahl von verschiedenen Ausgabesignalen in Abhängigkeit von einem überschrittenen Ausgabegrenzwert ausgewählt wird. Zusätzlich ist denkbar, dass die erfassten Bilder, welche die Oberflächenveränderung umfassen, insbesondere über die Ausgabeeinheit, als Zusatzinformation an den Benutzer ausgegeben werden.
  • Zudem wird ein, insbesondere das vorher genannte, Gerät, insbesondere ein Roboter, oder ein System aus mehreren Geräten, zu einer Durchführung eines erfindungsgemäßen Verfahrens zu einem Erkennen und einem Darstellen von Oberflächenveränderungen an einem Objekt, insbesondere einem Gebäude, vorzugsweise einem Boden eines Gebäudes, mit zumindest einer Kamera vorgeschlagen.
  • Bevorzugt ist die Kamera an dem Gerät angeordnet oder als Teil des Geräts ausgebildet. Vorzugsweise ist die Kamera derart ausgebildet und/oder an dem Gerät angeordnet, dass ein Erfassungsbereich der Kamera einen Öffnungswinkel zwischen 30° und 180°, vorzugsweise von kleiner als 120°, bevorzugt von kleiner als 90° und ganz besonders bevorzugt zwischen 40° und 50°, aufweist. Bevorzugt ist die Kamera derart ausgebildet und/oder an dem Gerät angeordnet, dass, insbesondere bei einer Erfassung der Oberfläche, ein Pixel eines über die Kamera aufgenommenen Bildes höchstens 0,2 mm, vorzugsweise höchstens 0,15 mm und bevorzugt höchstens 0,1 mm der Oberfläche darstellt. Es ist denkbar, dass die Kamera an dem Gerät relativ zu der Oberfläche bewegbar ausgebildet ist, beispielsweise über einen Roboterarm, einen Aktuator, einen Teleskopauszug o.dgl., wobei vorzugsweise bei einem Erfassen der Oberfläche jeweils ein identischer minimaler Abstand der Kamera zu einem zu erfassenden Oberflächenabschnitt der Oberfläche eingestellt wird. In einer bevorzugten Ausgestaltung ist die Kamera an einer Seite, insbesondere der Unterseite, des Geräts angeordnet, welche insbesondere bei einer Fortbewegung des Geräts an dem Objekt bzw. entlang der Oberfläche des Objekts zugewandt ist. Bevorzugt ist die Kamera derart ausgebildet und/oder an dem Gerät angeordnet, dass ein Erfassungsbereich der Kamera auf der Oberfläche, insbesondere quer zu einer Fortbewegungsrichtung des Geräts, mindestens 50%, vorzugsweise mindestens 70%, bevorzugt mindestens 80% und besonders bevorzugt mindestens 90%, einer von dem Gerät überstrichenden Fläche der Oberfläche überdeckt. Bevorzugt entspricht eine Breite des Erfassungsbereichs der Kamera auf der Oberfläche mindestens 50%, vorzugsweise mindestens 70%, bevorzugt mindestens 80% und besonders bevorzugt mindestens 90%, einer maximalen Quererstreckung des Geräts, welche sich insbesondere zumindest im Wesentlichen parallel zur Breite des Erfassungsbereichs erstreckt. Unter „im Wesentlichen parallel“ soll insbesondere eine Ausrichtung einer Geraden, einer Ebene oder einer Richtung, insbesondere einer die maximale Quererstreckung des Geräts umfassenden Gerade, relativ zu einer anderen Gerade, einer anderen Ebene oder einer Bezugsrichtung, insbesondere einer die Breite des Erfassungsbereichs umfassenden Gerade, verstanden werden, wobei die Gerade, die Ebene oder die Richtung gegenüber der anderen Gerade, der anderen Ebene oder der Bezugsrichtung, insbesondere in einer Projektionsebene betrachtet, eine Abweichung von insbesondere kleiner als 8°, vorteilhaft kleiner als 5° und besonders vorteilhaft kleiner als 2°, aufweist. Der Erfassungsbereich der Kamera ist bevorzugt kegelförmig oder pyramidenförmig ausgebildet und projiziert eine Bildfläche auf die Oberfläche bzw. einen Oberflächenabschnitt der Oberfläche. Insbesondere ist die Bildfläche kreisförmig, ellipsenförmig oder rechteckig ausgebildet. Es sind verschiedene Ausgestaltungen der Kamera denkbar. Vorzugsweise ist die Kamera als eine monokulare Kamera, als eine Stereo-Kamera, als eine Infrarot-Kamera, als eine Wärmebild-Kamera o.dgl. ausgebildet. Die Auswerteeinheit ist vorzugsweise als Teil des Geräts ausgebildet und umfasst zumindest eine, beispielsweise als FPGA, als Mikrocontroller, als Prozessor o.dgl. ausgebildete, Prozessoreinheit und zumindest eine, beispielsweise als physischer Speicher, als wechselbarer oder integrierter Datenträger o.dgl. ausgebildete, Speichereinheit. Die Kamera ist vorzugsweise dazu vorgesehen, die Oberfläche des Objekts bei einer Bewegung des Geräts über eine Vielzahl von Bildern zu erfassen, bevorzugt in, insbesondere regelmäßigen, zeitlichen Abständen, besonders bevorzugt zumindest im Wesentlichen vollständig. Bevorzugt ist die Auswerteeinheit dazu eingerichtet, mittels der erfassten Bilder Oberflächenveränderungen an der Oberfläche zu erkennen und/oder eine Position des Geräts auf der Oberfläche/dem Objekt zu ermitteln. Unter „eingerichtet“ soll insbesondere speziell programmiert, speziell ausgelegt und/oder speziell ausgestattet verstanden werden. Darunter, dass ein Objekt zu einer bestimmten Funktion eingerichtet ist, soll insbesondere verstanden werden, dass das Objekt diese bestimmte Funktion in zumindest einem Anwendungs- und/oder Betriebszustand erfüllt und/oder ausführt. Vorzugsweise ist die Auswerteeinheit dazu eingerichtet, über einen Vergleich von zumindest zwei zeitlich voneinander beabstandet erfassten Bildern eines Oberflächenabschnitts der Oberfläche Oberflächenveränderungen innerhalb des Oberflächenabschnitts zu erkennen bzw. zu ermitteln. Bevorzugt ist die Auswerteeinheit dazu eingerichtet, über einen Vergleich von zumindest zwei zeitlich voneinander beabstandet erfassten Bildern, insbesondere eines Referenzbilds der Oberfläche mit einem zeitlich von dem Referenzbild beabstandet erfassten Bild eines Oberflächenabschnitts der Oberfläche, eine Position des Oberflächenabschnitts an dem Objekt und/oder die Position des Geräts auf der Oberfläche/dem Objekt zu ermitteln.
  • Das Gerät ist vorzugsweise als ein teilautonomes oder vollautonomes Gerät ausgebildet. Bevorzugt ist das Gerät dazu vorgesehen, autonom, insbesondere ohne Steuerung durch einen Benutzer, die Oberfläche des Objekts zu erfassen. Unter „vorgesehen“ soll insbesondere speziell ausgelegt und/oder speziell ausgestattet verstanden werden. Darunter, dass ein Objekt zu einer bestimmten Funktion vorgesehen ist, soll insbesondere verstanden werden, dass das Objekt diese bestimmte Funktion in zumindest einem Anwendungs- und/oder Betriebszustand erfüllt und/oder ausführt. Vorzugsweise ist das Gerät dazu vorgesehen, das Objekt/die Oberfläche bei einem Betrieb zur Erfassung der Oberfläche und/oder zur Erkennung von Oberflächenveränderungen auf der Oberfläche automatisch und/oder selbstständig abzudecken, insbesondere abzufahren, abzufliegen o.dgl. Besonders bevorzugt ist das Gerät unabhängig von Führungssystemen o.dgl. auf der Oberfläche und/oder entlang der Oberfläche bewegbar. Vorzugsweise umfasst das Gerät und/oder das System eine Steuer- und/oder Regeleinheit zu einer Steuerung des Geräts. Insbesondere ist die Steuer- und/oder Regeleinheit dazu eingerichtet, eine Fortbewegungsrichtung und eine Fortbewegungsgeschwindigkeit des Geräts zu steuern und/oder zu regeln. Unter einer „Steuer- und/oder Regeleinheit“ soll insbesondere eine Einheit mit zumindest einer Steuerelektronik verstanden werden. Unter einer „Steuerelektronik“ soll insbesondere eine Einheit mit einer, beispielsweise als FPGA, als Mikrocontroller, als Prozessor o.dgl. ausgebildete, Prozessoreinheit und mit einer, beispielsweise als physischer Speicher, als wechselbarer oder integrierter Datenträger o.dgl. ausgebildete, Speichereinheit sowie mit einem in der Speichereinheit gespeicherten Betriebsprogramm verstanden werden. Es ist denkbar, dass die Steuer- und/oder Regeleinheit zumindest teilweise oder vollständig an dem Gerät angeordnet ist, insbesondere als Teil des Geräts ausgebildet ist, oder dass die Steuer- und/oder Regeleinheit getrennt von dem Gerät ausgebildet ist, beispielsweise als Teil einer geräteexternen Einheit, wie beispielsweise einem Netzwerk, einem Smart-Home-System, einem Server o.dgl. Es ist denkbar, dass die Steuer- und/oder Regeleinheit und die Auswerteeinheit einteilig ausgebildet sind. Alternativ oder zusätzlich ist denkbar, dass die Auswerteeinheit zumindest teilweise getrennt von dem Gerät ausgebildet ist. Beispielsweise ist denkbar, dass über die Kamera erfasste Bilder auf einer Speichereinheit der Auswerteeinheit, welche als Teil des Geräts ausgebildet ist, hinterlegt werden und regelmäßig und/oder an bestimmten Positionen des Geräts, insbesondere über die Kommunikationseinheit, zur Ermittlung von Oberflächenveränderungen und/oder zur Ermittlung einer Position des Geräts und/oder der Kamera und/oder zur Erzeugung des virtuellen Modells in Abhängigkeit von den erfassten Bildern an eine/die externe Einheit übermittelt werden.
  • Bevorzugt umfasst das Gerät zumindest eine Antriebseinheit und zumindest ein Fortbewegungsmittel. Vorzugsweise ist das zumindest eine Fortbewegungsmittel zur Richtungsänderung bewegbar, beispielsweise lenkbar, ausgebildet. Alternativ ist denkbar, dass das Gerät zumindest ein Steuerungsmittel zu einer Änderung der Fortbewegungsrichtung des Geräts umfasst. Vorzugsweise ist die Antriebseinheit dazu vorgesehen, das zumindest eine Fortbewegungsmittel zu einer Fortbewegung des Geräts anzutreiben. Bevorzugt umfasst die Antriebseinheit zumindest einen Motor. Beispielsweise ist das zumindest eine Fortbewegungsmittel als ein Rad, als eine Gleiskette, als ein Rotor, als ein Propeller o.dgl. ausgebildet. Bevorzugt umfasst das Gerät mehr als ein Fortbewegungsmittel. In einer bevorzugten Ausgestaltung des Geräts umfasst das Gerät eine Mehrzahl, beispielsweise drei oder vier, von als Räder ausgebildete Fortbewegungsmittel, wobei zumindest eines der Fortbewegungsmittel über die Antriebseinheit, insbesondere den Motor, antreibbar ist. Vorzugsweise ist das Gerät dazu vorgesehen, die Oberfläche des Objekts abzufahren, wobei die Oberfläche über die Kamera erfasst wird. Besonders bevorzugt ist die Steuer- und/oder Regeleinheit dazu eingerichtet, die Antriebseinheit zu steuern und/oder zu regeln. Alternativ sind auch andere Ausgestaltungen des Geräts denkbar, beispielsweise als schwimmendes und/oder fliegendes Gerät. Vorzugsweise sind fahrbar ausgebildete Geräte zur Erkennung von Oberflächenveränderungen auf Böden, Dächern, Straßen o.dgl. vorgesehen. Insbesondere fliegende Geräte sind beispielsweise auch für eine Erkennung von Oberflächenveränderungen an Wänden, Hängen oder anderen schwer erreichbaren oder unbefahrbaren Oberflächen denkbar. Es ist denkbar, dass das System oder das Gerät ein Führungssystem zu einem Halten des Geräts an einer Oberfläche umfasst, beispielsweise ein Schienensystem, ein beweglich gelagertes Halteseil, ein System zur Elektroadhesion o.dgl.
  • Bevorzugt umfasst das Gerät die zumindest eine Sensoreinheit, welche insbesondere zur Erfassung einer das Gerät umgebenden Umgebung vorgesehen ist. Beispielsweise umfasst die Sensoreinheit zumindest eine weitere Kamera, zumindest einen Tiefensensor, wie beispielsweise ein Lidar-System, einen TOF(„Time of flight“)-Sensor oder ein Radar-System, o.dgl. Bevorzugt ist die Sensoreinheit, insbesondere ein Erfassungsbereich der Sensoreinheit, zumindest teilweise in eine Fortbewegungsrichtung des Geräts und/oder zumindest teilweise zumindest im Wesentlichen parallel zur Oberfläche ausgerichtet. Bevorzugt ist die Sensoreinheit dazu vorgesehen, die Oberfläche des Objekts, insbesondere eine Begrenzung, wie beispielsweise einen Rand, einen Absatz o.dgl., der Oberfläche zu erfassen. Bevorzugt ist die Steuer- und/oder Regeleinheit dazu eingerichtet, das Gerät in Abhängigkeit von über die Sensoreinheit erfassten Daten der Umgebung zu steuern und/oder zu regeln, vorzugsweise zum, insbesondere autonomen systematischen, Abdecken der Oberfläche durch das Gerät. Alternativ oder zusätzlich ist denkbar, dass die Sensoreinheit zumindest einen Sensor zur Erfassung einer Odometrie umfasst, welcher insbesondere dazu vorgesehen ist, eine zurückgelegte Strecke des Geräts im Raum und/oder auf der/einer Oberfläche zu erfassen. Beispielsweise kann mittels des Odometrie-Sensors eine Ausrichtung von erfassten Bildern bereits bei einem Erfassen des der einzelnen Bilder ermittelt werden.
  • Vorzugsweise umfasst das System und/oder das Gerät die Kommunikationseinheit. Insbesondere ist die Kommunikationseinheit zu einer, insbesondere drahtlosen, Übertragung von elektronischen Daten zwischen dem Gerät, insbesondere der Kamera und/oder der Antriebseinheit und/oder anderen Bauteilen des Geräts, und der externen Einheit, insbesondere der Ausgabeeinheit, und/oder der Steuer- und/oder Regeleinheit vorgesehen. Beispielsweise ist die Kommunikationseinheit zu einer Funkübertragung, zu einer optischen Übertragung o.dgl. vorgesehen. Bevorzugt umfasst die Kommunikationseinheit mehrere Kommunikationselemente. Insbesondere sind die Kommunikationselemente jeweils als Schnittstelle für eine drahtlose Übertragung ausgebildet. Beispielsweise sind die Kommunikationselemente beispielsweise als Bluetooth-Schnittstellen, als WLAN-Schnittstellen, als NFC-Schnittstellen, als FSO-Schnittstellen o.dgl. ausgebildet. Vorzugsweise ist zumindest ein Kommunikationselement der Kommunikationseinheit an dem Gerät angeordnet, insbesondere als Teil des Geräts ausgebildet, wobei vorzugsweise die Antriebseinheit, die Kamera und/oder die Auswerteeinheit elektrisch und/oder elektronisch mit dem Kommunikationselement verbunden ist/sind. Insbesondere falls die Steuer- und/oder Regeleinheit getrennt von dem Gerät ausgebildet ist, ist vorzugsweise zumindest ein, insbesondere weiteres, Kommunikationselement der Kommunikationseinheit mit der Steuer- und/oder Regeleinheit verbunden. Vorzugsweise ist zumindest ein, insbesondere anderes, Kommunikationselement der Kommunikationseinheit mit der Ausgabeeinheit verbunden. Es sind auch andere Ausgestaltungen des Systems denkbar, beispielsweise mit weiteren über die Kommunikationseinheit miteinander verbundenen Geräten.
  • Die Ausgabeeinheit ist bevorzugt als Teil des Systems ausgebildet. Alternativ ist denkbar, dass die Ausgabeeinheit an dem Gerät angeordnet ist. Die Ausgabeeinheit ist insbesondere dazu vorgesehen, Ausgabesignale an einen Benutzer auszugeben. Vorzugsweise umfasst die Ausgabeeinheit zumindest ein optisches Ausgabeelement, wie beispielsweise ein Display o.dgl. Es ist denkbar, dass die Ausgabeeinheit zur Ausgabe von akustischen und/oder haptischen Signalen vorgesehen ist.
  • In einer, insbesondere der vorher genannten, beispielhaften Ausgestaltung ist das Gerät dazu vorgesehen, die Oberfläche des Geräts zum Abdecken der Oberfläche zumindest im Wesentlichen vollständig abzufahren, wobei die Oberfläche über die Kamera zumindest im Wesentlichen vollständig erfasst wird. Vorzugsweise ist die Steuer- und/oder Regeleinheit dazu eingerichtet, insbesondere in Abhängigkeit von der ermittelten Position des Geräts an dem Objekt, von über die Sensoreinheit erfassten Daten und/oder von vorgegebenen Informationen der Oberfläche, wie beispielsweise einem Grundriss des Objekts oder der Oberfläche o.dgl., eine Bewegung des Geräts zum Abdecken der Oberfläche zu steuern und/oder zu regeln. Vorzugsweise ist die Steuer- und/oder Regeleinheit dazu eingerichtet, das Gerät entlang einer bestimmten und/oder einer hinterlegten Fortbewegungsstrecke, insbesondere zum Abdecken der Oberfläche, entlang des Objekts bzw. der Oberfläche zu bewegen.
  • Durch die erfindungsgemäße Ausgestaltung des Geräts oder des Systems können Oberflächenveränderungen über alle visuell detektierbaren Kenngrößen bestimmt werden, insbesondere unabhängig von vorgegebenen visuellen Markern als Kennzeichen für bestimmte Oberflächenveränderungen. Es kann eine Erkennung von Oberflächenveränderungen über eine vorteilhaft große Anzahl an verschiedenen Zeitintervallen ermöglicht werden. Es kann vorteilhaft gleichzeitig eine Lokalisation des Geräts über erfasste Bilder der Oberfläche ermöglicht werden. Es kann eine vorteilhaft einfache Ausgestaltung des Geräts erfolgen, vorzugsweise unabhängig von weiteren Sensoren zur Bestimmung einer Position des Geräts bzw. der Oberflächenveränderung an dem Objekt. Es kann eine vorteilhaft kostengünstige Ausgestaltung ermöglicht werden.
  • Des Weiteren wird vorgeschlagen, dass das Gerät oder das System aus mehreren Geräten zumindest eine Beleuchtungseinheit zu einer Beleuchtung eines Erfassungsbereichs der Kamera auf einer Oberfläche des Objekts umfasst. Es kann eine ausreichend hohe Ausleuchtung des Erfassungsbereichs der Kamera zu einer Identifizierung von visuellen Merkmalen innerhalb von erfassten Bildern ermöglicht werden. Es können vorteilhaft gleichbleibende Lichtverhältnisse im Erfassungsbereich der Kamera zur Erfassung der Oberfläche des Objekts gewährleistet werden. Bevorzugt umfasst die Beleuchtungseinheit zumindest ein Beleuchtungsmittel, welches vorzugsweise an einer der Oberfläche zugewandten Seite, insbesondere der Unterseite, des Geräts angeordnet ist. Beispielsweise ist das zumindest eine Beleuchtungsmittel als eine LED, als eine Leuchtstofflampe, als eine Glühlampe oder als ein anderes, dem Fachmann sinnvoll erscheinendes Leuchtmittel ausgebildet. Bevorzugt ist das zumindest eine Beleuchtungsmittel zumindest teilweise in einem Nahbereich der Kamera, insbesondere einem Objektiv der Kamera, angeordnet. Unter einem „Nahbereich“ eines Objekts, insbesondere der Kamera und/oder dem Objektiv, soll insbesondere ein Bereich verstanden werden, welcher sich innerhalb eines minimalen Abstands von höchstens 15 cm, vorzugsweise höchstens 10 cm und bevorzugt höchstens 5 cm, um das Objekt erstreckt. Bevorzugt umfasst die Beleuchtungseinheit eine Mehrzahl von Beleuchtungsmitteln, welche vorzugsweise an einer Außenseite des Geräts, insbesondere um die Kamera und/oder um eine Mittelachse des Erfassungsbereichs, gleichmäßig verteilt angeordnet sind. In einer bevorzugten Ausgestaltung ist die Beleuchtungseinheit als ein LED-Ring ausgebildet, wobei insbesondere eine Symmetrieachse einer ringförmigen Grundform der Beleuchtungseinheit durch die Kamera und/oder entlang der Mittelachse des Erfassungsbereichs verläuft. Insbesondere ist die Kamera, insbesondere das Objektiv, entlang der Mittelachse des Erfassungsbereichs mittig zu der Beleuchtungseinheit, insbesondere in einer Anordnung von Beleuchtungsmitteln der Beleuchtungseinheit, angeordnet.
  • Zudem wird vorgeschlagen, dass das Gerät oder das System aus mehreren Geräten zumindest eine Abschirmeinheit umfasst, welche dazu vorgesehen ist, einen, insbesondere den vorher genannten, Erfassungsbereich der Kamera auf einer Oberfläche des Objekts vor Umgebungslicht abzuschirmen. Es können störende Einflüsse innerhalb des Erfassungsbereichs von externen Lichtquellen, beispielsweise der Sonne, generell schattenerzeugender Beleuchtung o.dgl., vorteilhaft verhindert werden. Es können vorteilhaft gleichbleibende Lichtverhältnisse im Erfassungsbereich der Kamera zur Erfassung der Oberfläche des Objekts gewährleistet werden, vorzugsweise auch unabhängig von einer Tageszeit bei der Erfassung o.dgl. Vorzugsweise umschließt die Abschirmeinheit den Erfassungsbereich der Kamera in einem Zwischenraum, welcher sich zwischen dem Gerät und der Oberfläche erstreckt, zumindest größtenteils. Bevorzugt ist die Abschirmeinheit an einer, insbesondere der Oberfläche des Objekts zugewandten Seite, insbesondere der Unterseite, des Geräts an dem Gerät angeordnet. Bevorzugt umfasst die Abschirmeinheit zumindest ein Abschirmelement, welches vorzugsweise an einem Gehäuse des Geräts befestigt ist. Insbesondere erstreckt sich das zumindest eine Abschirmelement in einem Bereich um den Erfassungsbereich der Kamera mindestens über 50%, vorzugsweise mindestens über 70% und bevorzugt mindestens über 90%, eines minimalen Abstands zwischen dem Gerät und der Oberfläche des Objekts. Insbesondere ist das zumindest eine Abschirmelement aus einem zumindest im Wesentlichen lichtundurchlässigen Material ausgebildet, beispielsweise einem Metall, einem Stoff, einer Folie, Plastik o.dgl. Bevorzugt umschließt das zumindest eine Abschirmelement den Erfassungsbereich entlang der Mittelachse des Erfassungsbereichs betrachtet, vorzugsweise in dem Zwischenraum, zumindest im Wesentlichen vollständig.
  • Es ist denkbar, dass die Abschirmeinheit mehr als ein Abschirmelement umfasst, wobei die Abschirmelemente entlang der Mittelachse des Erfassungsbereichs betrachtet gleichmäßig verteilt um die Mittelachse des Erfassungsbereichs und/oder um die Kamera angeordnet sind und vorzugsweise dazu vorgesehen sind, zusammen den Erfassungsbereich entlang der Mittelachse des Erfassungsbereichs betrachtet, vorzugsweise in dem Zwischenraum, zumindest im Wesentlichen vollständig zu umschließen. In einer bevorzugten Ausgestaltung ist die Abschirmeinheit, insbesondere das Abschirmelement, zumindest an einem der Oberfläche zugewandten Rand der Abschirmeinheit, insbesondere des Abschirmelements, formelastisch ausgebildet. Es ist denkbar, dass die Abschirmeinheit, insbesondere das Abschirmelement, zumindest größtenteils, insbesondere zumindest im Wesentlichen vollständig, formelastisch ausgebildet sind, beispielsweise als ein Stoffkragen. Alternativ oder zusätzlich ist denkbar, dass die Abschirmeinheit, insbesondere das Abschirmelement, an dem Rand aus einem anderen, insbesondere formelastischen, Material ausgebildet ist oder, dass die Abschirmeinheit ein formelastisches Element umfasst, welches an einem der Oberfläche zugewandten Rand des Abschirmelements angeordnet, insbesondere befestigt, ist. Insbesondere ist die Abschirmeinheit, insbesondere das Abschirmelement und/oder das formelastische Element, dazu vorgesehen, sich zumindest an dem/einem der Oberfläche zugewandten Rand reversibel und/oder flexibel an eine Form der Oberfläche anzupassen. Vorzugsweise ist die Abschirmeinheit, insbesondere das Abschirmelement und/oder das formelastische Element, dazu vorgesehen, einen über den Erfassungsbereich abgedeckten zu erfassenden Oberflächenabschnitt der Oberfläche vor Umgebungslicht abzuschirmen.
  • Außerdem wird ein System aus mehreren Geräten, insbesondere das erfindungsgemäße System aus mehreren Geräten, zu einer Durchführung eines erfindungsgemäßen Verfahrens zu einem Erkennen und einem Darstellen von Oberflächenveränderungen an einem Objekt, insbesondere einem Gebäude, vorzugsweise einem Boden eines Gebäudes, mit zumindest einem, insbesondere dem vorher genannten, Gerät, insbesondere einem Roboter, welches eine, insbesondere die vorher genannte, Kamera umfasst, mit einem weiteren Gerät, insbesondere einer, vorzugsweise der vorher genannten, Ausgabeeinheit, mit zumindest einer, insbesondere der vorher genannten, Steuer- und/oder Regeleinheit, welche insbesondere zumindest teilweise getrennt von dem zumindest einen Gerät ausgebildet ist, und mit zumindest einer, insbesondere der vorher genannten, Kommunikationseinheit zu einer drahtlosen Kommunikation zwischen dem zumindest einen Gerät und der Steuer- und/oder Regeleinheit, dem zumindest einen weiteren Gerät und/oder einer anderen geräteexternen Einheit, vorgeschlagen. Es ist denkbar, dass das System eine Mehrzahl von, insbesondere erfindungsgemäßen, Geräten umfasst, die vorzugsweise jeweils zu einer Erfassung der Oberfläche und/oder zu einer Erkennung und/oder zur Darstellung von Oberflächenveränderungen vorgesehen sind. Alternativ oder zusätzlich ist denkbar, dass das System eine Mehrzahl von, insbesondere erfindungsgemäßen, Geräten umfasst, die vorzugsweise jeweils zu einer Erfassung von verschiedenen Oberflächen des einen Objekts oder mehrerer Objekte und/oder zu einer Erkennung und/oder zur Darstellung von Oberflächenveränderungen an den Oberflächen vorgesehen sind.
  • Durch die erfindungsgemäße Ausgestaltung des Systems können Oberflächenveränderungen über alle visuell detektierbaren Kenngrößen bestimmt werden, insbesondere unabhängig von vorgegebenen visuellen Markern als Kennzeichen für bestimmte Oberflächenveränderungen. Es kann eine Erkennung von Oberflächenveränderungen über eine vorteilhaft große Anzahl an verschiedenen Zeitintervallen ermöglicht werden. Es kann vorteilhaft gleichzeitig eine Lokalisation des Geräts über erfasste Bilder der Oberfläche ermöglicht werden. Es kann eine vorteilhaft einfache Ausgestaltung des Geräts erfolgen, vorzugsweise unabhängig von weiteren Sensoren zur Bestimmung einer Position des Geräts bzw. der Oberflächenveränderung an dem Objekt. Es kann eine vorteilhaft kostengünstige Ausgestaltung ermöglicht werden. Es kann eine vorteilhaft benutzerspezifische Ausgabe, vorzugsweise auf einem tragbaren und/oder von dem Gerät beabstandeten weiteren Gerät des Benutzers, ermöglicht werden.
  • Das erfindungsgemäße Verfahren, das erfindungsgemäße Gerät und/oder das erfindungsgemäße System sollen/soll hierbei nicht auf die oben beschriebene Anwendung und Ausführungsform beschränkt sein. Insbesondere können/kann das erfindungsgemäße Verfahren, das erfindungsgemäße Gerät und/oder das erfindungsgemäße System zu einer Erfüllung einer hierin beschriebenen Funktionsweise eine von einer hierin genannten Anzahl von einzelnen Elementen, Bauteilen und Einheiten sowie Verfahrensschritten abweichende Anzahl aufweisen.
  • Zudem sollen bei den in dieser Offenbarung angegebenen Wertebereichen auch innerhalb der genannten Grenzen liegende Werte als offenbart und als beliebig einsetzbar gelten.
  • Figurenliste
  • Weitere Vorteile ergeben sich aus der folgenden Zeichnungsbeschreibung. In der Zeichnung ist ein Ausführungsbeispiel der Erfindung dargestellt. Die Zeichnung, die Beschreibung und die Ansprüche enthalten zahlreiche Merkmale in Kombination. Der Fachmann wird die Merkmale zweckmäßigerweise auch einzeln betrachten und zu sinnvollen weiteren Kombinationen zusammenfassen.
  • Es zeigen:
    • 1 eine schematische Darstellung eines erfindungsgemäßen Systems mit einem erfindungsgemäßen Gerät zu einer Durchführung eines erfindungsgemäßen Verfahrens zu einem Erkennen und einem Darstellen von Oberflächenveränderungen an einem Objekt,
    • 2 eine schematische Darstellung des erfindungsgemäßen Geräts zu einer Durchführung des erfindungsgemäßen Verfahrens in einer Seitenansicht,
    • 3 eine schematische Darstellung eines beispielhaften Ablaufs des erfindungsgemäßen Verfahrens zu einem Erkennen und einem Darstellen von Oberflächenveränderungen an dem Objekt,
    • 4 eine schematische Darstellung eines mittels einer Kamera des erfindungsgemäßen Geräts erfassten Bildes eines beispielhaften Oberflächenabschnitts einer Oberfläche des Objekts,
    • 5 eine schematische Darstellung eines mittels der Kamera erfassten Bildes des beispielhaften Oberflächenabschnitts der Oberfläche mit einer Oberflächenveränderung und
    • 6 eine schematische Darstellung eines Vergleichs von zwei mittels der Kamera erfassten Bildern, welche beide einen gleichen Teilbereich der Oberfläche umfassen, wobei über den Vergleich eine Oberflächenveränderung in dem Teilbereich erkannt wird.
  • Beschreibung des Ausführungsbeispiels
  • In 1 ist ein System 10 aus mehreren Geräten 12, 14, 16 gezeigt. Das System 10 ist zu einer Durchführung eines Verfahrens 18 zu einem Erkennen und einem Darstellen von Oberflächenveränderungen 20 (siehe 4 bis 6) an einem Objekt 22 vorgesehen. Das System 10 umfasst ein als fahrbarer Roboter ausgebildetes Gerät 12, welches dazu vorgesehen ist, eine Oberfläche 24 des Objekts 22 abzufahren und dabei die Oberfläche 24 mittels einer Kamera 26 des Geräts 12 zu erfassen. Es sind aber auch andere Ausgestaltungen des Geräts 12 denkbar, beispielsweise als eine flugfähige Drohne, als ein bewegbares schwimmfähiges Gefährt o.dgl. Das System 10 umfasst ein weiteres Gerät 14, welches eine Ausgabeeinheit 28 umfasst. Das weitere Gerät 14 ist als ein Computer eines Benutzers ausgebildet, wobei die Ausgabeeinheit 28 zumindest teilweise als ein Display des Computers ausgebildet ist. Es sind aber auch andere Ausgestaltungen des weiteren Geräts 14 denkbar, beispielsweise als ein Smartphone, als eine Smartwatch, als eine Bedienkonsole, als eine Fernbedienung o.dgl. Das System 10 umfasst eine Steuer- und/oder Regeleinheit 30, welche getrennt von dem Gerät 12 und getrennt von dem weiteren Gerät 14 ausgebildet ist. Es ist auch denkbar, dass die Steuer- und/oder Regeleinheit 30 und das weitere Gerät 14, insbesondere die Ausgabeeinheit 28, einteilig ausgebildet sind. Es ist denkbar, dass das System 10 weitere andere Geräte umfasst, beispielsweise eine Mehrzahl von Geräten zur Erfassung der Oberfläche 24. Das Objekt 22 ist als ein Gebäude ausgebildet. Vorzugsweise ist die Oberfläche 24 des Objekts 22 als eine Bodenfläche des Gebäudes ausgebildet und umfasst nicht die gesamte Oberfläche des Gebäudes. Insbesondere ist die Oberfläche 24 als eine einzige zusammenhängende Fläche ausgebildet. Es ist auch denkbar, dass das System 10 dazu vorgesehen ist, auf mehreren voneinander beabstandeten Oberflächen des Objekts 22 Oberflächenveränderungen 20 zu erkennen. Alternativ oder zusätzlich ist denkbar, dass das System 10 dazu vorgesehen ist, Oberflächenveränderungen 20 an einer gesamten sichtbaren Oberfläche des Objekts 22 zu erkennen. Das System 10 umfasst eine Kommunikationseinheit 32, welche insbesondere zu einer drahtlosen Kommunikation zwischen dem Gerät 12, dem weiteren Gerät 14 und der Steuer- und/oder Regeleinheit 30 vorgesehen ist. insbesondere ist die Kommunikationseinheit 32 dazu vorgesehen, über Funk elektronische Daten zu übertragen. Die Kommunikationseinheit 32 umfasst eine Mehrzahl von Kommunikationselementen 48, wobei insbesondere ein Kommunikationselement 48 als Teil des weiteren Geräts 14 ausgebildet ist und vorzugsweise ein weiteres Kommunikationselement 48 mit der Steuer- und/oder Regeleinheit 30 verbunden ist und/oder als Teil eines die Steuer- und/oder Regeleinheit umfassenden Geräts 16 ausgebildet ist.
  • In 2 ist eine Seitenansicht des Geräts 12 gezeigt. Das Gerät 12 umfasst eine Auswerteeinheit 34, eine Antriebseinheit 36, die Kamera 26, vier als Räder ausgebildete Fortbewegungsmittel 38, eine Sensoreinheit 40, eine Abschirmeinheit 42, eine Beleuchtungseinheit 44 und ein Gehäuse 46. Das Gerät 12 umfasst ein Kommunikationselement 48 der Kommunikationseinheit 32, welches insbesondere als eine Funk-Schnittstelle ausgebildet ist. Das Gerät 12 ist dazu vorgesehen, sich zur Erfassung der Oberfläche 24 autonom über die Oberfläche 24 zu bewegen, insbesondere zu fahren, wobei die Kamera 26 Bilder von Oberflächenabschnitten 50 der Oberfläche 24 erfasst. Die Kamera 26 ist an einer Unterseite 52 des Geräts, insbesondere des Gehäuses 46, angeordnet. Die Kamera 26 weist einen Erfassungsbereich 54 auf, welcher von der Kamera 26 aus in Richtung der Oberfläche 24 zeigt. Vorzugsweise weist der Erfassungsbereich 54 eine Mittelachse 56 auf, welche zumindest im Wesentlichen senkrecht zu einer Fortbewegungsrichtung 58 und/oder einer Haupterstreckungsebene des Geräts 12 und/oder einer Haupterstreckungsebene der Oberfläche 24 ausgerichtet ist. Insbesondere gibt die Mittelachse 56 des Erfassungsbereichs 54 eine Ausrichtung der Kamera 26 vor. Die Kamera 26 ist an dem Gehäuse 46 befestigt. Es sind aber auch andere Ausgestaltungen bzw. Anordnungen der Kamera 26 denkbar, beispielsweise an einer Seitenwand des Gehäuses 46 oder an einer Oberseite des Geräts 12, insbesondere des Gehäuses 46, insbesondere falls das Gerät 12 flugfähig ausgebildet ist und/oder falls eine von einer Bodenfläche verschiedene Oberfläche, wie beispielsweise eine Decke oder eine Wand, untersucht werden soll. Alternativ oder zusätzlich ist denkbar, dass die Kamera 26 an dem Gerät 12, insbesondere relativ zu dem Gehäuse 46, beweglich gelagert ist, beispielsweise an einem Teleskopauszug, einem Roboterarm o.dgl. Vorzugsweise ist das Gerät 12 dazu vorgesehen, die Kamera 26 zur Erfassung der Oberfläche 24 jeweils in einem gleichbleibenden Abstand 60 zur Oberfläche 24 anzuordnen. Beispielsweise ist denkbar, dass die Kamera 26 parallel zu einer der Oberfläche 24 zugewandten Richtung bewegbar ist, wobei relativ zu einer Beschaffenheit der Oberfläche 24 die Kamera 26 zur Erfassung der Oberfläche 24 derart bewegt wird, dass ein minimaler Abstand 60 von der Kamera 26 zur Oberfläche 24 für alle über die Kamera 26 erfassten Bilder von Oberflächenabschnitten 50 identisch ausgebildet ist. Beispielsweise umfasst das Gerät 12 dazu einen Abstandssensor o.dgl. zu einer Erfassung eines Abstands 60 der Kamera 26 zu einem zu erfassenden Oberflächenabschnitt 50 der Oberfläche 24. Alternativ oder zusätzlich ist denkbar, beispielsweise bei einem flugfähigen Gerät, dass das Gerät 12 über die Antriebseinheit 36 und ein Fortbewegungsmittel zur Erfassung eines Bildes eines Oberflächenabschnitts 50 jeweils auf einen vorgegebenen Abstand 60 zu der Oberfläche 26 bewegt wird.
  • Die Antriebseinheit 36 ist dazu vorgesehen, zwei der Fortbewegungsmittel 38 anzutreiben. Die Antriebseinheit 36 umfasst einen Motor, insbesondere einen Elektromotor (in Figuren nicht gezeigt). Die Antriebseinheit 36 umfasst Steuermittel zu einer Übertragung eines Lenkeinschlags auf zwei der Fortbewegungsmittel 38 (in Figuren nicht gezeigt). Die Steuer- und/oder Regeleinheit 30 ist dazu eingerichtet, die Antriebseinheit 36 zu einer Fortbewegung des Geräts 12 über die Fortbewegungsmittel 38 zu steuern und/oder zu regeln. Insbesondere ist die Steuer- und/oder Regeleinheit 30 dazu eingerichtet, Steuersignale zu einer Ansteuerung der Antriebseinheit 36 zur Verfügung zu stellen. Es sind auch andere Ausgestaltungen der Antriebseinheit 36 und/oder von Fortbewegungsmitteln 38 des Geräts 12 denkbar, beispielsweise mit einer von Vier verschiedenen Anzahl von Fortbewegungsmitteln 38, mit einer anderen Anordnung von Fortbewegungsmitteln 38, mit einer verschiedenen Anzahl von über die Antriebseinheit 36 antreibbaren und/oder lenkbaren Fortbewegungsmitteln 38 o.dgl.
  • Die Sensoreinheit 40 ist als eine weitere Kamera ausgebildet, welche insbesondere nach vorne in Fortbewegungsrichtung 58 ausgerichtet ist. Die Sensoreinheit 40 ist dazu vorgesehen, eine das Gerät 12 umgebende Umgebung zu erfassen, wobei eine Steuerung des Geräts 12 mittels der Steuer- und/oder Regeleinheit 30 in Abhängigkeit von über die Sensoreinheit 40 erfasste Informationen/Daten erfolgt. Insbesondere ist die Steuer- und/oder Regeleinheit 30 dazu eingerichtet, über die Sensoreinheit 40 bei einer Steuerung des Geräts 12 Kollisionen mit anderen Objekten und/oder anderen Flächen des Objekts 22 zu verhindern. Die Sensoreinheit 40 ist dazu vorgesehen, eine Begrenzung der zu erfassenden Oberfläche 24 zu erfassen. Vorzugsweise ist die Steuer- und/oder Regeleinheit 40 dazu eingerichtet, das Gerät 12 zu einem Abdecken der Oberfläche 24 in Abhängigkeit von den erfassten Begrenzungen der Oberfläche 24 zu steuern. Es sind aber auch andere Ausgestaltungen der Sensoreinheit 40 denkbar, beispielsweise mit einer Mehrzahl von, insbesondere auch verschieden voneinander ausgebildeten, Sensoren und/oder als Lidar-System, als Radar-System o.dgl.
  • Die Beleuchtungseinheit 44 ist zu einer Beleuchtung des Erfassungsbereichs 54 der Kamera 26 auf der Oberfläche 24 des Objekts 22 vorgesehen. Die Beleuchtungseinheit 44 ist als ein LED-Ring ausgebildet, welcher insbesondere eine Mehrzahl von einzelnen als LEDs ausgebildete Beleuchtungsmittel 62 umfasst. Es sind aber auch andere Ausgestaltungen der Beleuchtungseinheit 44 denkbar. Die Beleuchtungseinheit 44 ist um die Kamera 26, insbesondere ein Objektiv der Kamera 26, an der Unterseite 52 des Geräts 12 angeordnet. Die Kamera 26 ist mittig zur Beleuchtungseinheit 44 angeordnet. Insbesondere sind die Beleuchtungsmittel 62, insbesondere entlang der Mittelachse 56 des Erfassungsbereichs 54 betrachtet, gleichmäßig verteilt um die Kamera 26 und/oder die Mittelachse 56 angeordnet. Die Beleuchtungseinheit 44 ist in einem Nahbereich der Kamera 26 angeordnet. Besonders bevorzugt ist/sind die Beleuchtungseinheit 44, insbesondere die Beleuchtungsmittel 62, außerhalb des Erfassungsbereichs 54 angeordnet. Die Beleuchtungseinheit 44 ist dazu vorgesehen, einen von dem Erfassungsbereich 54 abgedeckten und/oder von der Abschirmeinheit 42 umschlossenen Oberflächenabschnitt 50 der Oberfläche 24 zu beleuchten bzw. auszuleuchten.
  • Die Abschirmeinheit 42 ist dazu vorgesehen, den Erfassungsbereich 54 der Kamera 26 auf der Oberfläche 24 des Objekts 22 vor Umgebungslicht abzuschirmen. Die Abschirmeinheit 42 umfasst ein Abschirmelement 64, welches eine zumindest im Wesentlichen zylinderförmige und/oder konische Grundform aufweist, wobei vorzugsweise der Erfassungsbereich zumindest größtenteils, insbesondere zumindest im Wesentlichen vollständig, innerhalb eines von dem Abschirmelement 64, insbesondere dem Grundkörper des Abschirmelements 64, aufgespannten Volumens angeordnet ist. Das Abschirmelement 64 ist insbesondere als ein Plastikschirm ausgebildet. Es sind auch andere Ausgestaltungen der Abschirmeinheit 42 denkbar, beispielsweise mit mehr als einem Abschirmelement 64 und/oder mit einem anders ausgebildeten Abschirmelement 64, beispielsweise aus Stoffvorhang o.dgl. Das Abschirmelement 64 ist an der Unterseite 52 des Geräts 12 befestigt. Das Abschirmelement 64 umschließt die Kamera 26 und den Erfassungsbereich 54 in einem Zwischenraum 66, um die Mittelachse 56 des Erfassungsbereichs 54 zumindest im Wesentlichen vollständig. Bevorzugt erstreckt sich der von dem Abschirmelement 64 umschlossene Zwischenraum 66 zwischen dem Gerät 12, insbesondere der Unterseite 52 des Geräts 12, und der Oberfläche 24, vorzugsweise über den gesamten Abstand 60 zwischen Kamera 26 und der Oberfläche 24. In einer bevorzugten Ausgestaltung ist die Abschirmeinheit 42, insbesondere das Abschirmelement 64, an einem der Oberfläche 24 zugewandten Rand 68 der Abschirmeinheit 42, insbesondere des Abschirmelements 64, formelastisch ausgebildet, beispielsweise über ein weicheres Material o.dgl. Insbesondere ist die Abschirmeinheit 42, insbesondere das Abschirmelement 64, dazu vorgesehen, sich zumindest an dem der Oberfläche 24 zugewandten Rand 68 reversibel und/oder flexibel an eine Form der Oberfläche 24 anzupassen. Vorzugsweise ist die Abschirmeinheit 42, insbesondere das Abschirmelement 64, dazu vorgesehen, einen über den Erfassungsbereich 54 abgedeckten zu erfassenden Oberflächenabschnitt 50 der Oberfläche 24 vor Umgebungslicht abzuschirmen. Alternativ ist denkbar, dass das Abschirmelement 64 vollständig formelastisch ausgebildet ist, beispielsweise als Stoffvorhang o.dgl.
  • Es sind auch andere Ausgestaltungen des Geräts 12 denkbar. Beispielsweise ist denkbar, dass die Auswerteeinheit 34 teilweise oder vollständig getrennt von dem Gerät 12 ausgebildet ist, insbesondere als Teil des weiteren Geräts 14 oder der Steuer- und/oder Regeleinheit 30, wobei vorzugsweise über die Kamera 26 erfasste Bilder über die Kommunikationseinheit 32 an die Auswerteeinheit 34 übertragen werden. Alternativ ist denkbar, dass die Auswerteeinheit 34 teilweise an/in dem Gerät 12 angeordnet ist, wobei beispielsweise eine Bearbeitung der erfassten Bilder, beispielsweise über einen Tiefpass-Filter, auf dem Gerät 12 erfolgt und beispielsweise eine Ermittlung von Oberflächenveränderungen 20, generell Vergleiche von mehreren Bildern und/oder das Erzeugen eines virtuellen Modells geräteextern erfolgt.
  • In 3 ist ein beispielhafter Ablauf des Verfahrens 18 zu einem Erkennen und einem Darstellen von Oberflächenveränderungen 20 an dem Objekt 22 gezeigt. In einem Verfahrensschritt 70 des Verfahrens 18 wird mittels der relativ zu dem Objekt 22 bewegbaren Kamera 26 des Geräts 12 über eine Vielzahl von Bildern die Oberfläche 24 des Objekts 22 erfasst. Insbesondere werden Bilder der Oberfläche 24 des Objekts 22 und/oder Bilder von Oberflächenabschnitten 50 der Oberfläche 24 mittels der Kamera 26 jeweils in einem zumindest im Wesentlichen identischen Abstand 60 zur Oberfläche 24 des Objekts 22 erfasst. insbesondere werden erfasste Bilder mit einem Zeitstempel an die Auswerteeinheit 34 übertragen. In einem Verfahrensschritt des Verfahrens 18, insbesondere in dem Verfahrensschritt 70, wird über ein autonomes systematisches Abdecken der Oberfläche 24 des Objekts 22 durch das Gerät 12 mittels der Kamera 26 die zumindest im Wesentlichen vollständige Oberfläche 24 des Objekts 22 über eine Vielzahl von Bildern erfasst und als Referenz zu einer Ermittlung einer Position der Kamera 26 und/oder des Geräts 12 und/oder zu einer Ermittlung einer Position einer Oberflächenveränderung 20 an der Oberfläche 24 hinterlegt, insbesondere in der Auswerteeinheit 34. Insbesondere wird die zurückgelegte Fortbewegungsstrecke des Geräts 12 beim autonomen systematischen Abdecken der Oberfläche 24 in der Auswerteeinheit 34 und in der Steuer- und/oder Regeleinheit 30 hinterlegt. In einem Verfahrensschritt des Verfahrens 18, insbesondere dem Verfahrensschritt 70, wird nach oder bei einer Erfassung der zumindest im Wesentlichen vollständigen Oberfläche 24 des Objekts 22, insbesondere bei dem Abdecken der Oberfläche 24 durch das Gerät 12, ein virtuelles dreidimensionales Modell des Objekts 22 erzeugt und in der Auswerteeinheit 34 hinterlegt. Es ist denkbar, dass das virtuelle Modell zusätzlich in der Steuer- und/oder Regeleinheit 30 hinterlegt wird, beispielsweise zu einer Navigation des Geräts 12 an dem Objekt 22. Vorzugsweise wird in dem Verfahrensschritt 70 des Verfahrens 18 mittels der Auswerteeinheit 34 ein Referenzbild der Oberfläche 24 des Objekts 22 erzeugt.
  • In einem weiteren Verfahrensschritt 72 des Verfahrens 18 werden mittels der Auswerteeinheit 34 eine Mehrzahl von erfassten Bildern zu einer Abbildung der Oberfläche 24 und/oder eines Oberflächenabschnitts 50 des Objekts 22, insbesondere zur Erzeugung des Referenzbilds, zusammengesetzt, wobei eine Ausrichtung der einzelnen Bilder in Abhängigkeit von über mehrere Bilder erfasste Bildmerkmale erfolgt. Es ist auch denkbar, dass, insbesondere in einem anderen Verfahrensschritt des Verfahrens, beispielsweise zur Ermittlung einer Oberflächenveränderung 20 und/oder zur Bestimmung einer Position einer Oberflächenveränderung 20 an dem Objekt 22 eine Mehrzahl von erfassten Bildern zusammengesetzt werden.
  • In einem weiteren Verfahrensschritt 74 des Verfahrens 18, vorzugsweise nach einem Erfassen eines Bildes eines Oberflächenabschnitts 50, wird vor einem Hinterlegen und/oder vor einem Vergleich zu einer Ermittlung einer Oberflächenveränderung 20 und/oder einer Position des Geräts 12 und/oder der Kamera 26 zumindest ein Tiefpass-Filter auf erfasste Bilder angewandt.
  • In einem weiteren Verfahrensschritt 76 des Verfahrens 18 erfolgt ein erneutes Abdecken der Oberfläche 24 durch das Gerät 12, wobei die zumindest im Wesentlichen vollständige Oberfläche 24 des Objekts 22 erfasst wird. Bei dem erneuten Abdecken der Oberfläche 24 durch das Gerät 12 wird das Gerät 12 mittels der Steuer- und/oder Regeleinheit 30 derart gesteuert, dass eine Fortbewegungstrecke des Geräts 12, insbesondere der Kamera 26, entlang der Oberfläche 24 einem vorgegebenen Pfad folgt, welcher der zuvor hinterlegten Fortbewegungsstrecke beim Abdecken der Oberfläche 24 durch das Gerät 12 entspricht. Es ist auch denkbar, dass eine Fortbewegungsstrecke zum Abdecken der Oberfläche 24 durch das Gerät 12 durch einen Benutzer hinterlegt wird oder von der Steuer- und/oder Regeleinheit 30 bestimmt und vorgegeben wird, beispielsweise zur Berücksichtigung von, insbesondere hier nicht gezeigten, anderen weiteren Geräten des Systems 10. Alternativ oder zusätzlich ist denkbar, dass die Oberfläche 24 zu einer Ermittlung von Oberflächenveränderungen 20 von dem Gerät 12 systematisch oder zufällig abgefahren wird, wobei insbesondere nicht unbedingt ein vollständiges Abdecken der Oberfläche 24 durch das Gerät 12 erfolgt.
  • In einem weiteren Verfahrensschritt 78 des Verfahrens 18 erfolgt eine Lokalisation des Geräts 12 und/oder der Kamera 26, insbesondere zu einer Navigation des Geräts 12, an dem Objekt 22 in Abhängigkeit von einem Vergleich eines an der Position erfassten Bilds eines Oberflächenabschnitts 50 der Oberfläche 24 und einer zuvor erfassten hinterlegten Oberfläche 24 des Objekts 22, insbesondere dem Referenzbild. Jedem Bild der Vielzahl von erfassten Bildern wird jeweils genau eine Position an der Oberfläche 24 des Objekts 22 und ein Erfassungszeitpunkt zugeordnet. In einem Verfahrensschritt des Verfahrens 18, insbesondere dem Verfahrensschritt 78, werden erfasste Bilder als Referenz zu einem zukünftigen Vergleich in einer Speichereinheit 102 (vgl. 2) der Auswerteeinheit 34 hinterlegt, wobei den erfassten Bildern jeweils eine Position an dem Objekt 22, an der das jeweilige Bild jeweils erfasst wurde, und ein Erfassungszeitpunkt des jeweiligen Bilds zugeordnet wird.
  • In einem weiteren Verfahrensschritt 80 des Verfahrens 18 wird mittels der Auswerteeinheit 34 über einen Vergleich von zumindest zwei zeitlich beabstandet voneinander erfassten Bildern eines Oberflächenabschnitts 50 oder mehrerer Oberflächenabschnitte der Oberfläche 24 eine Oberflächenveränderung 20 innerhalb des Oberflächenabschnitts 50 oder innerhalb eines aus mehreren Bildern zusammengesetzten Oberflächenabschnitts ermittelt.
  • In einem weiteren Verfahrensschritt 82 des Verfahrens 18 wird mittels der Auswerteeinheit 34 über eine in Abhängigkeit von einem erfassten Bild des Oberflächenabschnitts 50 erfolgende Zuordnung des die Oberflächenveränderung 20 aufweisenden Oberflächenabschnitts 50 auf der Oberfläche 24 des Objekts 22 eine Position der zumindest einen Oberflächenveränderung 20 an dem Objekt 22 ermittelt. Vorzugsweise wird die Position der Oberflächenveränderung 20 in Abhängigkeit von der Position des Geräts 12 und/oder der Kamera 26 bei einer Erfassung eines die Oberflächenveränderung 20 umfassenden Bilds, insbesondere zu einem Erfassungszeitpunkt des Bilds, ermittelt. In einem weiteren Verfahrensschritt 84 des Verfahrens 18 wird die erfasste Oberflächenveränderung 20 über eine ermittelte Position der Oberflächenveränderung 20 an dem Objekt 22 mittels der Auswerteeinheit 34 an dem virtuellen Modell des Objekts 22 dargestellt.
  • In einem Verfahrensschritt des Verfahrens 18, insbesondere dem Verfahrensschritt 84, wird mittels der Kommunikationseinheit 32, über welche insbesondere eine Übermittlung von elektronischen Daten an das weitere Gerät 14 erfolgt, zumindest ein Ausgabesignal an einen Benutzer ausgegeben, welches zumindest die ermittelte Position der ermittelten Oberflächenveränderung 20 an dem Objekt 22 und zumindest eine Zusatzinformation der Oberflächenveränderung 20 umfasst. In einem Verfahrensschritt des Verfahrens 18, insbesondere dem Verfahrensschritt 84, wird mittels der Ausgabeeinheit 28 über das Ausgabesignal die ermittelte Position der zumindest einen Oberflächenveränderung 20 an dem Objekt 22 dargestellt. Insbesondere wird dem Benutzer die Position der Oberflächenveränderung 20 sowie die Zusatzinformation über das virtuelle Modell dargestellt. Bevorzugt wird dem Benutzer über die Ausgabeeinheit 28 zumindest ein erfasstes Bild, welches die Oberflächenveränderung 20 umfasst/zeigt, als Zusatzinformation ausgegeben und/oder zur Verfügung gestellt. Zusätzlich oder alternativ sind auch weitere Ausgestaltungen der Zusatzinformation denkbar, wobei das Ausgabesignal beispielsweise eine Art der ermittelten Oberflächenveränderung, ein Grad der Helligkeits- und/oder Farbwertveränderung im Bereich der Oberflächenveränderung 20, beispielsweise als Mittelwert einer Änderung aller die Oberflächenveränderung 20 anzeigenden Pixel des jeweiligen Bilds o.dgl., eine Anzahl von die Oberflächenveränderung 20 anzeigenden Bildbereichen, vorzugsweise aneinander angeordneten Pixeln (Clustergröße), eine Häufigkeit von, insbesondere ähnlichen, Oberflächenveränderungen 20 auf dem gesamten Objekt 22 bzw. der gesamten Oberfläche 24 und/oder auf einer Anzahl an zeitlich hintereinander erfassten Bildern an einer Stelle und/oder ein Zeitintervall, über welches die Oberflächenveränderung 20 bereits erfasst wurde, umfasst.
  • Es sind auch andere Ausgestaltungen des Verfahrens 18 denkbar, beispielsweise mit einer von dem zuvor genannten beispielhaften Verlauf verschiedenen Abfolge von Verfahrensschritten 70, 72, 74, 76, 78, 80, 82, 84 und/oder mit einer von dem zuvor genannten beispielhaften Verlauf verschiedenen Anzahl an Verfahrensschritten 70, 72, 74, 76, 78, 80, 82, 84.
  • In den 4 und 5 ist jeweils ein beispielhaftes über die Kamera 26 erfasstes Bild 86, 88 eines Oberflächenabschnitts 50 einer als Betonboden ausgebildeten Oberfläche 24 gezeigt. In 4 ist ein Bild 86 des Oberflächenabschnitts 50 bei einem ersten Abdecken der Oberfläche 24 gezeigt. In 5 ist ein weiteres Bild 88 des Oberflächenabschnitts 50 bei einem zeitlich nach dem ersten Abdecken erfolgenden zweiten Abdecken der Oberfläche 24 gezeigt. In dem weiteren Bild 88 ist deutlich eine Oberflächenveränderung 20 in dem Oberflächenabschnitt 50 zu erkennen, welche als ein Riss ausgebildet ist. Über das Verfahren 18 wird mittels eines Vergleichs der zwei Bilder 86, 88 miteinander die Oberflächenveränderung 20 erkannt und deren Position an dem Objekt 22 über einen Vergleich der zwei Bilder 86, 88 mit einem Referenzbild der Oberfläche 24 des Objekts 22 ermittelt. Alternativ oder zusätzlich ist denkbar, dass die Position einer Oberflächenveränderung 20 und/oder eine Position des Geräts 12 über zumindest einen anderen Sensor des Geräts 12 und/oder des Systems 10, beispielsweise eine externe Kamera, ein Positionsermittlungssystem o.dgl. ermittelt wird. Beispielsweise werden mittels der Auswerteeinheit 34 eine Helligkeitsveränderung der einzelnen die Oberflächenveränderung 20 zeigenden Pixel 90 in dem weiteren Bild 88 im Vergleich zu dem Bild 86, eine Anzahl an die Oberflächenveränderung 20 zeigenden Pixel 90 in dem weiteren Bild 88 sowie eine Anordnung der die Oberflächenveränderung 20 zeigenden Pixel 90 zueinander als Zusatzinformation ermittelt.
  • In 6 ist beispielhaft ein Zusammensetzen von zwei erfassten Bildern 92, 94 zu einem Vergleich der zwei Bilder 92, 94 gezeigt, wobei insbesondere eine Oberflächenveränderung 20 in einem jeweils durch die zwei Bilder 92, 94 dargestellten Oberflächenabschnitt 98 ermittelt wird. Die zwei erfassten Bilder 92, 94 wurden insbesondere mit voneinander verschiedenen Ausrichtungen der Kamera 26 relativ zu der Oberfläche 24 erfasst, was beispielsweise bei einem zufälligen Abfahren der Oberfläche 24 zum Erkennen von Oberflächenveränderungen 20 erfolgen könnte. Vorzugsweise werden die zwei Bilder 92, 94 derart zusammengesetzt, dass gleiche von den zwei Bildern 92, 94 umfasste Bildmerkmale 100 (in 6 beispielhaft gezeigt) übereinanderliegen. Insbesondere sind die Bildmerkmale 100 als Anordnungen von, insbesondere aneinander angeordneten, Pixeln innerhalb eines Bilds 92, 94 ausgebildet. Analog ist ein solches Zusammensetzen von zwei oder auch mehreren Bildern ebenso zu einer Erstellung eines kombinierten Bilds aus mehreren Bildern, welche zusammen eine Oberflächenveränderung 20 darstellen, oder zu einer Erstellung eines Referenzbilds der Oberfläche 24, vorzugsweise nach einem Abdecken der Oberfläche 24 durch das Gerät 12, denkbar.

Claims (14)

  1. Verfahren zu einem Erkennen und einem Darstellen von Oberflächenveränderungen (20) an einem Objekt (22), insbesondere einem Gebäude, vorzugsweise einem Boden eines Gebäudes, wobei in zumindest einem Verfahrensschritt (70) mittels einer relativ zu dem Objekt (22) bewegbaren Kamera (26) eines Geräts (12), insbesondere eines Roboters, über eine Vielzahl von Bildern eine Oberfläche (24) des Objekts (22) erfasst wird, wobei in zumindest einem Verfahrensschritt (80) mittels einer Auswerteeinheit (34) über einen Vergleich von zumindest zwei zeitlich beabstandet voneinander erfassten Bildern eines Oberflächenabschnitts (50) der Oberfläche (24) zumindest eine Oberflächenveränderung (20) innerhalb des Oberflächenabschnitts (50) ermittelt wird, wobei in zumindest einem weiteren Verfahrensschritt (82) mittels der Auswerteeinheit (34) über eine in Abhängigkeit von einem erfassten Bild des Oberflächenabschnitts (50) erfolgende Zuordnung des die Oberflächenveränderung (20) aufweisenden Oberflächenabschnitts (50) auf der Oberfläche (24) des Objekts (22) eine Position der zumindest einen Oberflächenveränderung (20) an dem Objekt (22) ermittelt wird und wobei in zumindest einem Verfahrensschritt (84) mittels einer Ausgabeeinheit (28) die ermittelte Position der zumindest einen Oberflächenveränderung (20) an dem Objekt (22) dargestellt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt (78) eine Lokalisation des Geräts (12) und/oder der Kamera (26), insbesondere zu einer Navigation des Geräts (12), an dem Objekt (22) in Abhängigkeit von einem Vergleich eines an der Position erfassten Bilds eines Oberflächenabschnitts (50) der Oberfläche (24) und einer zuvor erfassten hinterlegten Oberfläche (24) des Objekts (22) erfolgt, wobei in zumindest einem Verfahrensschritt (78) eine Position einer Oberflächenveränderung (20) in Abhängigkeit von einer Position des Geräts (12) und/oder der Kamera (26) bei einer Erfassung eines die Oberflächenveränderung (20) umfassenden Bilds ermittelt wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass Bilder der Oberfläche (24) des Objekts (22) und/oder Bilder von Oberflächenabschnitten (50) der Oberfläche (24) mittels der Kamera (26) jeweils in einem zumindest im Wesentlichen identischen Abstand (60) zur Oberfläche (24) des Objekts (22) erfasst werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt (70) über ein autonomes systematisches Abdecken der Oberfläche (24) des Objekts (22) durch das Gerät (12) mittels der Kamera (26) die zumindest im Wesentlichen vollständige Oberfläche (24) des Objekts (22) über eine Vielzahl von Bildern erfasst wird und als Referenz zu einer Ermittlung einer Position der Kamera (26) und/oder des Geräts (12) und/oder einer Ermittlung einer Position einer Oberflächenveränderung (20) an der Oberfläche (24) hinterlegt wird, wobei in zumindest einem Verfahrensschritt jedem erfassten Bild der Vielzahl von Bildern genau eine Position an der Oberfläche (24) des Objekts (22) zugeordnet wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt (70) nach oder bei einer Erfassung der zumindest im Wesentlichen vollständigen Oberfläche (24) des Objekts (22) zumindest ein virtuelles, insbesondere dreidimensionales, Modell des Objekts (22) erzeugt wird, wobei in zumindest einem weiteren Verfahrensschritt (84) zumindest eine erfasste Oberflächenveränderung (20) über eine ermittelte Position der Oberflächenveränderung (20) an dem Objekt (22) an dem virtuellen Modell des Objekts (22) dargestellt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt (72) mittels der Auswerteeinheit (34) eine Mehrzahl von erfassten Bildern zu einer Abbildung der Oberfläche (24) und/oder eines Oberflächenabschnitts (50) des Objekts (22) zusammengesetzt werden, wobei eine Ausrichtung der einzelnen Bilder in Abhängigkeit von über mehrere Bilder erfasste Bildmerkmale (100) erfolgt.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt (74) vor einem Hinterlegen und/oder vor einem Vergleich zu einer Ermittlung einer Oberflächenveränderung (20) und/oder einer Position des Geräts (12) und/oder der Kamera (26) zumindest ein Tiefpass-Filter auf erfasste Bilder angewandt wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt (78) erfasste Bilder als Referenz zu einem zukünftigen Vergleich in einer Speichereinheit (102) hinterlegt werden, wobei den erfassten Bildern jeweils eine Position an dem Objekt (22), an der das jeweilige Bild jeweils erfasst wurde, und ein Erfassungszeitpunkt des jeweiligen Bilds zugeordnet wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt (76) zu einer Ermittlung von Oberflächenveränderungen (20) an dem Objekt (22) mittels des Geräts (12), insbesondere der Kamera (26), ein Abdecken der zumindest im Wesentlichen vollständigen Oberfläche (24) des Objekts (22) erfolgt, wobei eine Fortbewegungstrecke des Geräts (12), insbesondere der Kamera (26), entlang der Oberfläche (24) einem vorgegebenen Pfad folgt.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt (84) mittels der Ausgabeeinheit (28) einer externen Einheit (14) und/oder des Geräts (12) und/oder mittels einer Kommunikationseinheit (32), über welche insbesondere eine Übermittlung von elektronischen Daten an eine externe Einheit erfolgt, zumindest ein Ausgabesignal an einen Benutzer ausgegeben wird, welches zumindest eine ermittelte Position zumindest einer ermittelten Oberflächenveränderung (20) an dem Objekt (22) und zumindest eine Zusatzinformation der Oberflächenveränderung (20) umfasst.
  11. Gerät, insbesondere Roboter, oder System aus mehreren Geräten, zu einer Durchführung eines Verfahrens (18) zu einem Erkennen und einem Darstellen von Oberflächenveränderungen (20) an einem Objekt (22), insbesondere einem Gebäude, vorzugsweise einem Boden eines Gebäudes, nach einem der vorhergehenden Ansprüche, mit zumindest einer Kamera (26).
  12. Gerät oder System aus mehreren Geräten nach Anspruch 11, gekennzeichnet durch zumindest eine Beleuchtungseinheit (44) zu einer Beleuchtung eines Erfassungsbereichs (54) der Kamera (26) auf einer Oberfläche (24) des Objekts (22).
  13. Gerät oder System aus mehreren Geräten nach Anspruch 11 oder 12, gekennzeichnet durch zumindest eine Abschirmeinheit (42), welche dazu vorgesehen ist, einen Erfassungsbereich (54) der Kamera (26) auf einer Oberfläche (24) des Objekts (22) vor Umgebungslicht abzuschirmen.
  14. System aus mehreren Geräten, insbesondere zumindest nach einem der Ansprüche 11 bis 13, zu einer Durchführung eines Verfahrens (18) zu einem Erkennen und einem Darstellen von Oberflächenveränderungen (20) an einem Objekt (22), insbesondere einem Gebäude, vorzugsweise einem Boden eines Gebäudes, nach einem der Ansprüche 1 bis 10, mit zumindest einem Gerät (12), insbesondere einem Roboter, welches eine Kamera (26) umfasst, mit einem weiteren Gerät (14), insbesondere einer Ausgabeeinheit (28), mit zumindest einer Steuer- und/oder Regeleinheit (30), welche insbesondere zumindest teilweise getrennt von dem zumindest einen Gerät (12) ausgebildet ist, und mit zumindest einer Kommunikationseinheit (32) zu einer drahtlosen Kommunikation zwischen dem zumindest einen Gerät (12) und der Steuer- und/oder Regeleinheit (30), dem zumindest einen weiteren Gerät (14) und/oder einer anderen geräteexternen Einheit.
DE102021200676.0A 2021-01-26 2021-01-26 Verfahren zu einem Erkennen und einem Darstellen von Oberflächenveränderungen an einem Objekt, Gerät und System aus mehreren Geräten zu einer Durchführung des Verfahrens Pending DE102021200676A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102021200676.0A DE102021200676A1 (de) 2021-01-26 2021-01-26 Verfahren zu einem Erkennen und einem Darstellen von Oberflächenveränderungen an einem Objekt, Gerät und System aus mehreren Geräten zu einer Durchführung des Verfahrens
CN202180091899.0A CN116964626A (zh) 2021-01-26 2021-12-17 检测并呈现对象上的表面变化的方法、执行其的设备和多个设备构成的系统
PCT/EP2021/086421 WO2022161700A1 (de) 2021-01-26 2021-12-17 Verfahren zu einem erkennen und einem darstellen von oberflächenveränderungen an einem objekt, gerät und system aus mehreren geräten zu einer durchführung des verfahrens

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021200676.0A DE102021200676A1 (de) 2021-01-26 2021-01-26 Verfahren zu einem Erkennen und einem Darstellen von Oberflächenveränderungen an einem Objekt, Gerät und System aus mehreren Geräten zu einer Durchführung des Verfahrens

Publications (1)

Publication Number Publication Date
DE102021200676A1 true DE102021200676A1 (de) 2022-07-28

Family

ID=79316822

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021200676.0A Pending DE102021200676A1 (de) 2021-01-26 2021-01-26 Verfahren zu einem Erkennen und einem Darstellen von Oberflächenveränderungen an einem Objekt, Gerät und System aus mehreren Geräten zu einer Durchführung des Verfahrens

Country Status (3)

Country Link
CN (1) CN116964626A (de)
DE (1) DE102021200676A1 (de)
WO (1) WO2022161700A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011017564A1 (de) 2011-04-26 2012-10-31 Aerospy Sense & Avoid Technology Gmbh Verfahren und System zum Prüfen einer Oberfläche auf Materialfehler
WO2013020143A1 (en) 2011-08-04 2013-02-07 University Of Southern California Image-based crack quantification
WO2015111735A1 (ja) 2014-01-23 2015-07-30 デ・ファクト・スタンダード合同会社 コンクリート構造物維持管理システム
DE102018211704A1 (de) 2017-08-16 2019-02-21 Siemens Energy, Inc. Verfahren und System zum Detektieren von Liniendefekten auf einer Oberfläche eines Objekts
DE102018222447A1 (de) 2018-12-20 2020-06-25 Robert Bosch Gmbh Verfahren zum Klassifizieren eines Gebäudes, maschinelles Lernsystem sowie ein Verfahren, ein Computerprogramm und eine Computervorrichtung zum Anlernen des maschinellen Lernsystems

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9323250B2 (en) * 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
JP7441067B2 (ja) * 2019-03-22 2024-02-29 株式会社安藤・間 移動式ひび割れ検出装置、及びひび割れ検出方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011017564A1 (de) 2011-04-26 2012-10-31 Aerospy Sense & Avoid Technology Gmbh Verfahren und System zum Prüfen einer Oberfläche auf Materialfehler
WO2013020143A1 (en) 2011-08-04 2013-02-07 University Of Southern California Image-based crack quantification
WO2015111735A1 (ja) 2014-01-23 2015-07-30 デ・ファクト・スタンダード合同会社 コンクリート構造物維持管理システム
DE102018211704A1 (de) 2017-08-16 2019-02-21 Siemens Energy, Inc. Verfahren und System zum Detektieren von Liniendefekten auf einer Oberfläche eines Objekts
DE102018222447A1 (de) 2018-12-20 2020-06-25 Robert Bosch Gmbh Verfahren zum Klassifizieren eines Gebäudes, maschinelles Lernsystem sowie ein Verfahren, ein Computerprogramm und eine Computervorrichtung zum Anlernen des maschinellen Lernsystems

Also Published As

Publication number Publication date
WO2022161700A1 (de) 2022-08-04
CN116964626A (zh) 2023-10-27

Similar Documents

Publication Publication Date Title
DE102018129143B4 (de) Variabler messobjektabhängiger Kameraaufbau und Kalibrierung davon
EP2812766B2 (de) Verfahren zum automatischen auslösen einer selbstlokalisierung
DE102013110580B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Szene und Laserscanner, ausgebildet zur Durchführung des Verfahrens
DE102016105858A1 (de) Mobiles dreidimensionales Messinstrument
DE112015005711T5 (de) Integriertes kamerasystem mit zweidimensionaler bilderfassung und dreidimensionaler laufzeiterfassung mit beweglicher beleuchteter region von interesse
EP3441840A1 (de) Verfahren zum betrieb eines sich selbsttätig fortbewegenden reinigungsgerätes
EP1517117A1 (de) Verfahren und System zur Bestimmung einer Aktualposition eines Positionierungsgerätes
DE102008016215A1 (de) Informationsvorrichtungsbediengerät
DE102013110581A1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
EP2922384B1 (de) Autonomes fortbewegungsgerät
EP2915022B1 (de) Verfahren zum eingeben eines steuerbefehls für eine komponente eines kraftwagens
DE112018006048T5 (de) Bildverarbeitungsvorrichtung, steuersystem für einen mobilen roboter und steuerverfahren für einen mobilen roboter
DE102017127180A1 (de) Bodenbearbeitung mittels eines autonomen mobilen Roboters
EP3355147A1 (de) Verfahren zum betrieb eines sich selbsttätig fortbewegenden fahrzeugs
DE102017108194A1 (de) Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Fahrzeugs
DE102015222390A1 (de) Autonomes Arbeitsgerät
DE102016115636A1 (de) Bewegliche Vorrichtungen
EP2389757B1 (de) Lokalisierungssystem zur bestimmung einer lage einer auf dem boden bewegbaren vorrichtung
DE102017203528A1 (de) Verfahren und Vorrichtung zum Betreiben eines Beleuchtungssystems
EP3575912A1 (de) Mähroboter
DE102021200676A1 (de) Verfahren zu einem Erkennen und einem Darstellen von Oberflächenveränderungen an einem Objekt, Gerät und System aus mehreren Geräten zu einer Durchführung des Verfahrens
EP1095241B1 (de) Anordnung und verfahren zur ermittlung einer räumlichen position eines objekts
DE102019133753A1 (de) Werkzeuge für augmentierte realität in der lichtgestaltung
EP3974932B1 (de) Robotersystem und verfahren zur steuerung eines angetrieben bewegbaren roboters eines robotersystems
DE102017220634A1 (de) Fahrzeug mit Lokalisierungseinrichtung, System, Lokalisierungseinrichtung, Industrieroboter und Verfahren

Legal Events

Date Code Title Description
R163 Identified publications notified