DE102010020537A1 - Wasserdetektor - Google Patents

Wasserdetektor Download PDF

Info

Publication number
DE102010020537A1
DE102010020537A1 DE201010020537 DE102010020537A DE102010020537A1 DE 102010020537 A1 DE102010020537 A1 DE 102010020537A1 DE 201010020537 DE201010020537 DE 201010020537 DE 102010020537 A DE102010020537 A DE 102010020537A DE 102010020537 A1 DE102010020537 A1 DE 102010020537A1
Authority
DE
Germany
Prior art keywords
sensor
water surface
sensor elements
groups
surface detector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201010020537
Other languages
English (en)
Inventor
Bernd-Helge Schäfer
Alexander Renner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ROBOT MAKERS GMBH, DE
Original Assignee
H & S Robotic Solutions GbR Vertretungsberechtigter Gesellschafter Bernd Helge Schaefer
H&s Robotic Solutions GbR (vertretungsberechtigter Gesellschafter Bernd-Helge Schafer 67661 Kaiserslautern)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by H & S Robotic Solutions GbR Vertretungsberechtigter Gesellschafter Bernd Helge Schaefer, H&s Robotic Solutions GbR (vertretungsberechtigter Gesellschafter Bernd-Helge Schafer 67661 Kaiserslautern) filed Critical H & S Robotic Solutions GbR Vertretungsberechtigter Gesellschafter Bernd Helge Schaefer
Priority to DE201010020537 priority Critical patent/DE102010020537A1/de
Publication of DE102010020537A1 publication Critical patent/DE102010020537A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D34/00Mowers; Mowing apparatus of harvesters
    • A01D34/006Control or measuring arrangements
    • A01D34/008Control or measuring arrangements for automated or remotely controlled operation

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

Die Erfindung betrifft einen Wasserflächendetektor mit einem Bilddatengeneriermittel, aufweisend mehrere Gruppen von Sensorelementen zur Generierung von Szene-Bilddaten, die in einem Bilddatenauswertemittel zur wasserflächenindikativen Auswertung verarbeitbar sind. Hierbei ist vorgesehen, dass nur eine erste und eine zweite Gruppe von Sensorelementen vorgesehen und zur Generierung von Bildern derselben Szene mit unterschiedlichen Polarisationen ausgebildet ist.

Description

  • Die vorliegende Erfindung betrifft das oberbegrifflich Beanspruchte und befasst sich demgemäß mit der Detektion von Wasserflächen.
  • Es gibt eine Vielzahl von Anwendungen, bei denen sich Geräte autonom, das heißt selbstfahrend und ohne Steuerung von außen bewegen. Hierzu gehören beispielsweise selbstfahrende Rasenmäher. Wenn diese in größeren Geländen wie Golfplätzen eingesetzt werden, müssen sie in der Lage sein, Hindernisse zu erkennen und gegebenenfalls zu umfahren. Kritisch sind hierbei regelmäßig Wasserflächen, weil im Regelfall nicht abgeschätzt werden kann, wie tief das Wasser unter der Oberfläche ist; fährt in einer solchen Situation ein autonom bewegtes Gerät in die Wasserfläche, so besteht die Gefahr, dass es nicht ohne fremde Hilfe, also nicht autonom, aus der Wasserfläche zurück auf festen Boden gelangt. Deswegen ist es erforderlich, Wasserflächen zu umfahren.
  • Es ist daher wünschenswert, Wasserflächen sicher detektieren zu können. Es ist überdies wünschenswert, Wasserflächen nicht nur sicher, sondern auch schnell detektieren zu können, damit die Detektion während der Fahrt vorgenommen werden kann, und es ist wünschenswert, einen passiven Wasserflächendetektor zu erhalten, der ohne Emission von Strahlung wie Laser- oder Radarstrahlung auskommt, da die bei aktiven Sensoren erforderliche Strahlenemission vielfach als unerwünscht angesehen wird.
  • Es sind bereits eine Vielzahl von Schriften bekannt, bei welchen Oberflächen mit verschiedenen Mitteln untersucht werden.
  • Ein selbstfahrender, Gras erkennender Rasenmäher ist aus der DE 199 32 551 bekannt. Dieser soll durch Abtasten des Bodens mittels Infrarotlicht und Ultraschall die Bodenoberflächenstruktur sensorisch erfassen, Graswuchs, Grashöhe und Grasdichte analysieren und nicht-rasenartigen Boden wie Erde, Wasser, Sand, Steinplatten und Beete sowie nicht-grasartige Pflanzen erkennen und meiden.
  • Aus der DE 10 2007 061 385 A1 ist eine Vorrichtung zur Landschaftspflege, insbesondere ein Rasenmäher bekannt, umfassend zumindest eine Sensoreinrichtung, die verschiedene Beschaffenheiten eines Untergrunds unterhalb und/oder in der Umgebung der Vorrichtung erfassen und zuordnen kann. Dazu soll zumindest eine Sensoreinrichtung verschiedene Beschaffenheiten eines Untergrunds unterhalb und/oder in der Umgebung der Vorrichtung erfassen. Es wird die Verwendung einer Lichtquelle vorgeschlagen, die Licht im sichtbaren Spektralbereich und Licht im Infrarotbereich aussenden und verschiedene Untergrundbeschaffenheiten fluoreszensspektroskopisch erfassen und zuordnen kann.
  • Aus der DE 603 20 281 ist eine Einrichtung, ein Verfahren und ein System zur Bestimmung des Straßenoberflächenzustands bekannt. Die bekannte Anordnung soll ein Reflektanzspektrometer basierend auf Wellenlängenmodulation umfassen, das die Lichtwellenlänge mit der Frequenz f moduliert, wobei das genannte Reflektanzspektrometer die sich ergebende Amplitudenmodulation an mehr als einem einzigen Multipel der besagten Frequenz detektieren kann und weiterhin so gestaltet ist, dass es für die Messung von Reflektanzeigenschaften einer fahrbaren Oberfläche an mindestens einer fixen Zentralwellenlänge eingerichtet ist und die besagten Eigenschaften für die Bestimmung des Vorhandenseins von mindestens einem von flüssigem Wasser oder Eis verwendet.
  • Ein einen Infrarotemitter und Infrarotdetektor verwendender Wasserhahn, der automatisch erkennt, wenn sich eine Person die Hände waschen möchte, ist aus der US 6,598,245 B2 bekannt.
  • Ein Verfahren zur Bodenflächenanalyse und ein Rasenpflegeroboter zur Durchführung des Verfahrens sind aus der EP 1 704 766 B1 bekannt. Hiernach soll die Bodenoberfläche im zu bearbeitenden Bereich durch die eigene Vorwärtsbewegung einer mit IR-Diode und IR-Sensor ausgerüsteten Messvorrichtung auf ihre Reflektanz gescannt werden, um eine Bodenoberflächenanalyse durchzuführen und dem Rasenmäherroboter eine definierte Arbeitsfläche vorzugeben, wobei durch einen Distanzsensor Abweichungen von einem vorgegebenen Sollabstand der Messvorrichtung zum Boden festgestellt und der Reflektanzwert entsprechend dem Istabstand korrigiert werden soll.
  • Ein autonom navigierendes Robotersystem, bei dem die Orientierung anhand des von einer Kamera aufgenommenen aktuellen Laserprojektionslinienmusters und unter Berücksichtigung von vorherigen Untersuchungen des Verlaufs und der Anordnung von reflektierten Linienmustern, die bei Projektion dieser Linienmuster mittels eines Laserprojektors in unterschiedlichen, jeweils bekannten Richtungen in die Umgebung gewonnen wurden, ist aus der EP 1 176 487 bekannt.
  • Ein Roboterfahrzeug mit Antriebsmitteln sowie ein Verfahren zum Ansteuern der Antriebsmittel ist aus der DE 10 2007 023 157 A1 bekannt. Es wird vorgeschlagen, dass ein Infrarotsensor zum Detektieren der Intensität einer vom Untergrund reflektierten Infrarotstrahlung und mit Steuermitteln zum Ansteuern von Antriebsmitteln des autonomen Roboterfahrzeugs vorgesehen ist in Abhängigkeit von der gemessenen Intensität der Infrarotstrahlung. Es soll zusätzlich reflektierte Lichtstrahlung aus dem sichtbaren Spektrum erfasst und die Intensität der sichtbaren Lichtstrahlung mit ausgewertet werden.
  • Ein zum selbständigen Betrieb ausgebildetes Roboterfahrzeug ist auch aus der DE 10 2007 023 156 A1 bekannt. Hier soll einerseits der unmittelbar unterhalb des Roboterfahrzeugs befindliche Untergrund und andererseits der Untergrund außerhalb der Roboterfahrzeugsumfangskontur analysiert werden.
  • Ein selbstfahrender Roboter zur Behandlung von Bodenflächen ist auch aus der DE 10 2007 015 552 bekannt. Hier soll ein dreidimensionales Bild der Fahrumgebung mit einem einzigen Kameramodul erfasst werden, wobei zwei horizontal voneinander beabstandete optische Teilsysteme je ein Umgebungsbild auf je eine Hälfte des Kameramoduls lenken.
  • Aus der DE 10 2006 041 485 A1 ist ein Baukasten zum Aufbau einer Infrastruktur für eine Steuerung eines Flächenbearbeitungsgerätes bekannt. Es sollen insbesondere Befehle in einem Befehlssatz des modularen Systems vorgesehen werden, die sich auf Fahranweisungen beziehungsweise eine Fahrstrategie beziehen.
  • Eine aktive optische Einrichtung und ein Verfahren zur Erfassung von Medien wie Wasser, Beschlag und Schmutz und dergleichen auf der Scheibe eines Fahrzeugs, aufweisend ein Linsensystem mit mindestens zwei Linseneinheiten, ist aus der DE 199 29 964 A1 bekannt.
  • Ein Verfahren und ein System zur Ermittlung von Unebenheiten und Schadstellen in der Oberfläche einer Verkehrsfläche ist aus der DE 198 56 510 C2 bekannt. Hierbei können Unebenheiten und Schadstellen der Oberfläche abschnittsweise messtechnisch erfasst und in jedem Abschnitt die globale Position der Prüfeinrichtung anhand eines Ortungssignals ermittelt werden, wobei benachbarte Abschnitte durch Erfassung einer diesen Abschnitten gemeinsamen Oberflächenmarkierung miteinander korreliert werden können. Die Oberfläche jedes Abschnitts soll photographisch erfasst werden. Eine mögliche Wassertiefe jeder geschlossenen Vertiefung der Oberfläche soll ermittelt werden.
  • Aus der DE 197 57 840 C1 ist eine Vorrichtung zur optischen Erfassung und Abstandsermittlung von Objekten von einem Fahrzeug aus bekannt. Vorgesehen sein soll dabei eine ein Blickfeld betrachtende elektronische Kamera sowie eine Scannereinrichtung, die wenigstens einen gebündelten Strahl von Impulsen elektromagnetischer Strahlung in das Blickfeld lenkt und die aus Winkel und Laufzeit Objekte und deren Abstände ermittelt.
  • Ein Verfahren zur Bestimmung des Zustandes einer befahrbaren Oberfläche ist aus der DE 197 36 138 bekannt. Unter anderem soll Wasser/Eis auf einer befahrbaren Oberfläche durch Auswertung der Rückstreuung von Licht von der fahrbaren Oberfläche erfasst werden.
  • Aus der DE 196 14 916 A1 ist ein Fahrroboter für die automatische Behandlung von Bodenflächen bekannt. Die Verwendung digitaler Kameras für die Erfassung der Umgebung und Bewegung wird vorgeschlagen.
  • Ein weiterer selbstfahrender Rasenmäher ist aus der DE 103 27 223 bekannt. Hier soll unter anderem der Boden mittels Laserlicht abgetastet und die Bodenoberflächenstruktur sensorisch erfasst werden.
  • Aus der De 43 38 307 C1 ist ein Verfahren zur optischen Detektion von Objekten und Objektströmen bekannt, deren Oberflächen Licht zu reflektieren oder zu streuen im Stande sind, die selbstaffine oder selbstähnliche oder fraktale Muster oder Strukturen aufweisen. Es ist eine Belichtungseinrichtung zur Beleuchtung von Objekten vorhanden.
  • Aus der DE 10 2008 003 948 A1 ist eine Vorrichtung zur Bestimmung des Vorhandenseins von Nebel unter Verwendung einer Abbildung, die durch eine in ein Fahrzeug eingebaute Abbildungsvorrichtung erzielt wird, bekannt. Es wird unter anderem eine Vorrichtung vorgeschlagen, die das Vorhandensein eines Elements wie zum Beispiel Nebel, das die Sicht eines Fahrers stört, in einer Umgebungsatmosphäre vor dem Fahrzeug, das mit der Vorrichtung ausgestattet ist, während der Tageszeit bestimmt. Die Bestimmung bezüglich des Vorhandenseins des Elements soll auf der Grundlage einer Abbildung erfolgen, die von einer in ein Fahrzeug eingebauten Kamera erfasst wird und in welcher ein Bild eines Hindernisses, das sich auf einer Straße befindet, über welche das Fahrzeug fährt, markiert ist. Bei der Bestimmung wird eine Zuverlässigkeit eines Bestimmens des Vorhandenseins des Elements durch Messen des Effekts eines Markierens des Hindernisses betrachtet.
  • Eine weitere Vorrichtung zum Bestimmen des Vorhandenseins von Nebel ist aus der DE 10 2008 003 947 A1 bekannt.
  • Aus den PROCEEDINGS OF THE 2006 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, Orlando, Florida, Mai 2006, K. SHIMIZU und S. HIRAI, „CMOS PLUS FPGA – A VISION SYSTEM FOR VISUAL FEEDBACK OF MECHANICAL SYSTEMS" ist eine Kamera bekannt, die mit 1 000 Hertz eine optische Rückkopplung ermöglichen soll. Wasserdetektion wird nicht angesprochen.
  • Eine Kamera, mit der Polarisationen erfasst werden können und welche unter anderem für Orientierung auf der Oberfläche einsetzbar sein soll, ist erhältlich von BOSSANOVA Technologies LLC, Venice, Kalifornien. CCD-Kameras sind auch von anderen Herstellern erhältlich.
  • Aus dem Aufsatz „POLARIZATION-BASED WATER HAZARDS DETECTION FOR AUTONOMOUS OFF-ROAD NAVIGATION" von BIN XIE et al, PROCEEDINGS OF THE 2007 IEEE International Conference an Electronics and Automation, August 5–8 2007, Harbin, China, ist es bekannt, dass Wasserflächen durch Auswertung von Polarisationsinformation erfasst werden können. Es wird diskutiert, dass Licht, das von der Wasseroberfläche reflektiert wird, partiell linear polarisiert ist und die Polarisationsphasen ähnlicher als in der Umgebung sind. Durch Vergleich des Polarisationsmaßes und der Ähnlichkeit der Polarisationsphasen sollen Wasserflächen detektierbar sein. Es wird die Verwendung eines linearen Polarisationsfilters vor einer Kamera und dessen Drehung vorgeschlagen.
  • In dem Aufsatz „POLARIZATION-BASED MATERIAL CLASSIFICATION FROM SPECULAR REFLECTION" von L. B. WOLFF in IEEE Transactions an Pattern Analysis and Machine Intelligence, Band 12, Nr. 11, November 1990, wird ein Verfahren vorgeschlagen, mit dem elektrische und metallische Oberflächen unter Verwendung von Polarisation unterscheidbar sein sollen.
  • Aus dem Aufsatz „APPLICATIONS OF POLARRATION CAMERA TECHNOLOGY" von L. B. WOLFF, IEEE Expert, October 1995, Seiten 30–38, ist bekannt, vor einer Videokamera einen optischen Kopf mit einem festen linearen Polarisierer und Flüssigkristallen anzuordnen, um schnell wechselnde Polarisationen aufnehmen zu können und Bilder zur Unterscheidung unterschiedlicher Oberflächen aufzunehmen.
  • Aus dem Aufsatz „DETECTION OF SMALL WATER BODIES" von Alok SARWAL, Jeremy NETT, David SIMON, ist bekannt, drei Polarisationsfilter mit 0°, 45° und 90° vor drei Kameras anzuordnen und entsprechend auszuwerten. Es wird auch ein Einzelkamera-System mit Strahlteilung vorgeschlagen, so dass die 0°-, 45°- und 90°-Polarisationsfilter und die interne Linse identische Szenen beobachten. Es wird angegeben, dass der vorgeschlagene Ansatz eine Feinjustierung erfordert, nach welcher alle drei Linsen und Filteranordnungen der drei Kameras auf die gleiche Szene sehen.
  • In dem Aufsatz „DAYTIME AND WATER DETECTION BY FUSING MULTIPLE QUEUES FOR AUTONOMOUS OFF-ROAD NAVIGATION" von A. L. RANKIN et al wird vorgeschlagen, eine Vielzahl unterschiedlicher Bildeigenschaften von Stereoaufnahmen auszuwerten, insbesondere auch Farbsättigung und Helligkeit in Bildern.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, Neues für die gewerbliche Anwendung bereitzustellen.
  • Die Lösung dieser Aufgabe wird in unabhängiger Form beansprucht.
  • Damit schlägt die Erfindung zunächst einen Wasserflächendetektor mit einem Bilddatengeneriermittel, aufweisend mehrere Gruppen von Sensorelementen zur Generierung von Szene-Bilddaten, die in einem Bilddatenauswertemittel zur wasserflächenindikativen Auswertung verarbeitbar sind, vor. Hierbei ist vorgesehen, dass nur eine erste und eine zweite Gruppe von Sensorelementen vorgesehen und zur Generierung von Bildern derselben Szene mit unterschiedlichen Polarisationen ausgebildet ist.
  • Es wurde demnach erfindungsgemäß zunächst erkannt, dass es ausreicht, um Wasserflächen sicher zu identifizieren, wenn lediglich zwei Gruppen von Sensorelementen vorgesehen sind, die jeweils unterschiedliche Polarisationen aufnehmen. Von Polarisation wird vorliegend auch dann gesprochen, wenn den Sensoren nicht vollständig polarisiertes Licht, etwa auf Grund mangelhafter Polarisationswirkung der vorgeschalteten, Polarisationen aufspaltenden Elemente zugeführt wird. Eine sichere Detektion trotz Verwendung nur zweier Sensorgruppen wird dadurch ermöglicht, dass Bilder exakt derselben Szene aufgenommen werden, was die Auswertbarkeit signifikant verbessert.
  • Es wird bevorzugt, wenn zwei allgemein orthogonal aufeinander stehende Polarisierungen verwendet werden, insbesondere zwei lineare Polarisierungen mit orthogonaler Polarisationsrichtung. Dabei sei noch einmal darauf hingewiesen, dass typisch bei einer praktischen Implementierung der Erfindung nicht vollständig polarisierende oder nicht für alle Wellenlängen vollständig polarisierende Elemente verbaut werden, wobei vorliegend gleichwohl von orthogonaler Polarisierung gesprochen wird.
  • Es ist bevorzugt, wenn die Gruppen von Sensorelementen durch separate Sensorfelder gebildet sind. In einem solchen Fall ist es möglich, durch Ausrichtung der separaten Sensorfelder dieselbe Szene mit hoher Auflösung aufzunehmen; alternativ wäre es möglich, polarisierende Elemente vor einzelnen Sensorelementen eines einzelnen Sensorfeldes vorzusehen.
  • Es ist weiter möglich und bevorzugt, dass zwei Sensorfelder Licht von der Szene durch eine gemeinsame Frontlinse empfangen, insbesondere durch ein gemeinsames Objektiv, wobei bevorzugt ist, wenn dieses Objektiv von beiden Sensorfeldern geteilt wird und nur dieses Objektiv vor den Sensorfeldern vorgesehen ist. Damit wird die optische Anordnung insgesamt wesentlich vereinfacht und es wird möglich, die Polarisierung des einem jeweiligen Sensorfeld zugeführten Lichts hinter dem Objektiv vorzunehmen.
  • Es ist überdies möglich, auf den Sensorfeldern durch Regelung an nur einer einzigen Linse beziehungsweise einem einzigen Objektiv ein scharfes Bild zu erzeugen, wobei die Bildschärfe eingestellt werden kann im Ansprechen auf die bei einem Sensor ermittelte Schärfe oder durch eine Autofokusanordnung, die mindestens ein Sensor- beziehungsweise Detektorelement unabhängig von den beiden Sensorfeldern aufweist. Es kann weiter vorgesehen sein, dass zwischen der gemeinsamen Linse, insbesondere einem gemeinsamen Frontobjektiv, und den beiden Gruppen von Sensorelementen ein polarisierender Strahlteiler vorgesehen ist. Die Verwendung eines derartigen polarisierenden Strahlteilers hat den besonderen Vorteil, dass ein einfallender Lichtstrahl gleichzeitig sowohl polarisiert als auch auf die beiden Sensorelementgruppen aufgeteilt wird. Daher ist dies besonders bevorzugt, denn es ergeben sich deutlich geringere Lichtverluste und der Sensor wird auch bei schlechten Lichtverhältnissen besser einsetzbar. Die Verwendung eines polarisierenden Strahlteilers vor den beiden Gruppen von Sensorelementen und hinter einem Frontobjektiv wird daher als besonders vorteilhaft angesehen.
  • Der Wasserflächendetektor lässt sich weiter dadurch verbessern, dass die Szene-Bilddaten auch synchron mit beiden Gruppen von Sensorelementen aufgenommen werden, was insbesondere dadurch ermöglicht wird, dass die Bilddatenaufnahme für einen jeweiligen Frame bei beiden Gruppen von Sensorelementen synchron gestartet wird. Auf diese Weise ist selbst dann, wenn der Wasserflächendetektor auf einem mobilen Gerät angeordnet ist, das sich während der Aufnahme bewegt, die Aufnahme genau derselben Szene, das heißt die Betrachtung von Objekten aus der exakt identischen Perspektive heraus gewährleistet.
  • Es kann weiter bevorzugt sein, wenn verschieden Einstellungen für die Gruppen von Sensorelementen stets in gleicher Weise verändert werden. Hierzu gehört der Weißabgleich, die Einstellung der Sensorempfindlichkeit (das heißt des sogenannten ISO-Wertes), die typisch elektronisch bestimmte Belichtungsdauer für beide Gruppen von Sensorelementen und dergleichen. Die Einstellungen können dabei entweder durch Verwendung der Werte, die an einer Gruppe von Sensorelementen gewonnen werden, vorgenommen werden; in einem solchen Fall dient einer der Sensoren als Master, während der andere Sensor als Slave verwendet wird. Alternativ ist es möglich, die Ausgangssignale beider Sensoren heranzuziehen, um Einstellungen wie Weißabgleich, Sensorempfindlichkeit, elektronisch bestimmte Belichtungsdauer usw. für beide Sensoren simultan festzulegen.
  • Der beschriebene Wasserflächendetektor ist als Wasserflächendetektor für autonome Systeme besonders dann vorteilhaft, wenn ein passiver Wasserflächendetektor gewünscht oder erforderlich ist.
  • Schutz wird auch beansprucht für ein autonomes, insbesondere selbstfahrendes System mit einem entsprechenden passiven Wasserflächendetektor und für ein Verfahren zur Wasserflächendetektion, bei welchem Licht einer Szene nach Durchtritt durch wenigstens eine Linse an einem polarisierenden Strahlteiler aufgespalten und auf unterschiedliche Sensorgruppen eingestrahlt wird, und mit den Sensorgruppen dann synchron Bilder aufgenommen werden, die zur Wasserflächendetektion gemeinsam verarbeitet werden. Es sei darauf hingewiesen, dass die eigentliche Auswertung von mit unterschiedlicher Polarisation aufgenommenen Bildern vorliegend nicht beschrieben werden muss, da sie per se bekannt ist.
  • Die Erfindung wird im Folgenden nur beispielsweise anhand der Zeichnung beschrieben. In dieser ist dargestellt durch
  • 1 ein passiver Wasserflächendetektor für autonome System gemäß der vorliegenden Erfindung.
  • Nach 1 umfasst ein allgemein mit 1 bezeichneter Wasserflächendetektor ein Bilddatengeneriermittel 2 mit mehreren Gruppen von Sensorelementen 3a, 3b zur Generierung von Bilddaten einer Szene 4, die in einem Bilddatenauswertemittel 5 zur auf Wasserflächen 4a hindeutenden Auswertung verarbeitbar sind, wobei nur zwei Gruppen 3a, 3b von Sensorelementen vorgesehen sind, die zur Generierung derselben Szene mit unterschiedlichen Polarisationen ausgebildet sind.
  • Der Wasserflächendetektor 1 ist vorliegend dazu bestimmt, auf einem autonomen, das heißt selbstbewegt ohne Fremdsteuerung fahrenden Gerät angebracht zu werden und während dessen Bewegung Wasserflächen 4a zu erfassen. Die Verarbeitungsgeschwindigkeiten des Bildauswertemittels 5 sind so hoch gewählt, dass Hindernisse auch bei höheren Fahrtgeschwindigkeiten rechtzeitig erfasst werden können und Wasserflächen erfassbar sind. Es sei darauf hingewiesen, dass, obwohl vorliegend Wasserflächen spezifisch erkannt werden sollen, gleichwohl auch andere Umgebungsmerkmale anhand der generierten Bilddaten erfasst werden können und sollen, um beispielsweise Hindernisse und dergleichen erkennen und gegebenenfalls umfahren zu können. Dass hierzu gegebenenfalls Zusatzinformationen, zum Beispiel auf das Gelände bezogene, ausgewertet werden können, die gespeichert sind, sei erwähnt.
  • Das Bilddatengeneriermittel 2 des Wasserflächendetektors weist eine beiden Gruppen 3a, 3b von Sensorelementen gemeinsame Frontlinse 2a auf, an welcher eine Scharfstellung vorgenommen werden kann (sofern eine Fix-Fokus-Optik verwendet wird) und an der gegebenenfalls Blendenlamellen wie erforderlich vorgesehen sind. Eine Blendeneinstellung und eine Scharfstellung wirkt dabei für beide Sensorgruppen 3a, 3b. Im Strahlengang dem Frontobjektiv 2a folgend ist ein polarisierender Strahlteiler 2b angeordnet, der hier, wie bevorzugt, als Strahlteilerwürfel gebildet ist, was die Stabilität bei Geländefahrten erhöht. Dieser polarisierende Strahlteiler hat die Eigenschaft, einen einfallenden Lichtstrahl partiell gerade durchzulassen und den nicht durchgelassenen Teil etwa senkrecht abzulenken. Der durch das Objektiv 2a tretende Strahl ist mit 2c in 1 gekennzeichnet; auf die Darstellung der linsenbedingten Strahlkonvergenz wurde dabei aus Gründen der Übersichtlichkeit verzichtet. Der durch den Strahlteiler 2b geradeaus hindurchlaufende Teil 2c1 des Strahls 2c und der im Strahlteiler senkrecht abgelenkte Teil 2c2 des Strahls 2c sind nun bei dem dargestellten Strahlteilerwürfel erfindungsgemäß senkrecht linear aufeinander polarisiert.
  • Durch diese Anordnung ist gewährleistet, dass auf den beiden Sensorgruppen 3a, 3b parallaxefrei exakt die gleiche Szene beobachtet werden kann.
  • Die beiden Gruppen von Sensoren 3a, 3b umfassen neben den eigentlichen Sensorelementen 3b mit der lichtempfindlichen Oberfläche 3b1 beziehungsweise 3a mit der lichtempfindlichen Oberfläche 3a1 einen jeweiligen Vorverarbeitungsprozessor 3a2 beziehungsweise 3b2 und einen jeweiligen Bilddatenpufferspeicher 3b3 beziehungsweise 3a3. Der Bilddatenpufferspeicher dient auch als Schnittstelle zum Bilddatenauswertemittel 5, weshalb eine jeweilige Datenleitung von den jeweiligen Bilddatenpufferspeichern 3a3 beziehungsweise 3b3 zu Eingängen 5a beziehungsweise 5b des Bilddatenauswertemittels geführt sind. Von der Vorverarbeitungseinheit 3a2 sind überdies Steuerleitungen zum Bilddatenauswertemittel 5 geführt, genauso wie von der entsprechenden Einheit 3b2.
  • Das Frontobjektiv 2a, der Strahlteiler 2b sowie die beiden Gruppen von Sensorelementen mit den Sensorfeldern 3a, 3b sind in einem Gehäuse 2d untergebracht, wobei die Sensorelemente 3a, 3b relativ zum Strahlteiler 2b so montiert sind, dass bei Scharfstellung des Objektivs 2a auf eine der Sensorflächen das Bild auf der anderen Sensorfläche ebenfalls scharf ist.
  • Der Vorverarbeitungsprozessor 3a2 beziehungsweise 3b2 dient zugleich dazu, die Empfindlichkeit des Sensorfeldes 3a beziehungsweise 3b zu bestimmen durch Festlegung eines entsprechenden ISO-Wertes, den Weißabgleich bei der Verarbeitung von Rohdaten aus dem Sensorfeld festzulegen und die hier elektronisch gesteuerte Belichtungszeit durch entsprechende Aktivierung des Sensorfeldes festzulegen. Der Beginn des Auslesens der jeweiligen Sensorfelder 3a und 3b ist durch ein über die Leitungen 6a beziehungsweise 6b an die Einheiten 3a2 beziehungsweise 3b2 gespeistes Startsignal auslösbar. Das Objektiv ist mit einer Autofokuseinheit versehen (nicht dargestellt), die ihr Scharfstellsignal über eine Leitung 6c aus dem Bilddatenauswertemittel 5 erhält.
  • Die Anordnung wird montiert und verwendet wie folgt:
    Zunächst wird an dem Gehäuse 2 die erste Sensorgruppe befestigt, beispielsweise Sensorgruppe 3a. Ein Testbild wird scharf mit dem Objektiv 2a auf das Sensormittel 3a abgebildet.
  • Das Sensorfeld für die zweite Sensorfeldgruppe 3b wird dann so am Gehäuse des Bilddatengeneriermittels 2 montiert, dass das zuvor auf den Sensor 3a scharf eingestellte Bild ebenfalls scharf abgebildet wird. Es sei darauf hingewiesen, dass die Sensorfelder 3a, 3b so gepaart sein können, dass sie eine nahezu gleiche spektrale Empfindlichkeit, gleiche Lichtempfindlichkeit bei unterschiedlichem Lichteinfall usw. besitzen.
  • Die Sensoreinheit wird in üblicher Weise an das Bilddatenauswertemittel 5 angeschlossen und auf einem autonomen Gerät angeordnet.
  • Es wird nun das Fahrzeug in Bewegung gesetzt und für die autonome Navigation in einer Szene 4 nach Wasserflächen 4a gesucht. Dazu werden beiden Sensoren 3a, 3b synchron ausgelesen, was durch die über Leitungen 6a, 6b gleichzeitig ausgegebenen Auslesestartsignale veranlasst werden kann. Auch bei bewegtem autonomem Gerät wird damit sichergestellt, dass zwischen dem mit dem Sensor 3a aufgenommenen Bild und dem mit dem Sensor 3b aufgenommenen Bild kein Zeitversatz oder dergleichen besteht, und daher auch bei fahrendem Fahrzeug exakt identisch die gleiche Szene erfasst wird. Es werden dann die Bilddaten von den Sensoren 3a beziehungsweise 3b, die am Bilddatenauswertemittel 5 an den Eingängen 5a beziehungsweise 5b erhalten werden, zunächst daraufhin ausgewertet, ob die Bilder hinreichend lange belichtet beziehungsweise hell genug sind, ob der Weißabgleich korrekt vorgenommen wurde und ob die Bilder mit einem auf relevante Teile der Szene 4 scharf gestellten Objektiv 2a aufgenommen sind. Ist dies nicht der Fall, werden die entsprechenden Korrekturen vorgenommen.
  • Es wird dabei zum Beispiel das Objektiv 2a unter Bezugnahme auf eines der beiden Sensorfelder, vorliegend Sensorfeld 3a, scharf gestellt, was auf Grund der beschriebenen Montage auch zu einem scharfen Bild auf dem Sensor 3b führt. Es werden dann eventuell Weißabgleich und Belichtung beziehungsweise ISO-Wert (Verstärkung der erhaltenen Sensorsignale) eingestellt, und zwar bei beiden Sensorfeldern auf identische Weise, das heißt auf gleiche Werte. Dazu wird der Mittelwert der an beiden Sensoren erforderlichen Einstellungen verwendet.
  • Es sei im übrigen darauf hingewiesen, dass gegebenenfalls falls Kalibrierkurven für beide Sensoren hinterlegt sein können und eine Einstellung an einem jeweiligen Sensorfeld unter Rückgriff auf derartige Kalibrierkurven vorgenommen wird.
  • Es werden dann weitere Bilder aufgenommen, um einen Videostrom zu erzeugen, der gegebenenfalls auch aufgezeichnet oder an eine Zentrale übertragen werden kann. Die nach Einstellung scharfen und korrekt belichteten Bilder beider Sensoren können dann unter Bezugnahme auf die mit nur zwei Polarisationsrichtungen linearer Polarisierung aufgenommenen Bilddaten auf Wasserflächen mit per se bekannten Algorithmen untersucht werden. Es zeigt sich, dass durch die gute Übereinstimmung der Bilddaten beider Sensoren auch bei nicht exakt orthogonaler Polarisation, das heißt nicht vollständigem Polarisationsgrad, gute Detektionsergebnisse für Wasserflächen erhalten werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 19932551 [0005]
    • DE 102007061385 A1 [0006]
    • DE 60320281 [0007]
    • US 6598245 B2 [0008]
    • EP 1704766 B1 [0009]
    • EP 1176487 [0010]
    • DE 102007023157 A1 [0011]
    • DE 102007023156 A1 [0012]
    • DE 102007015552 [0013]
    • DE 102006041485 A1 [0014]
    • DE 19929964 A1 [0015]
    • DE 19856510 C2 [0016]
    • DE 19757840 C1 [0017]
    • DE 19736138 [0018]
    • DE 19614916 A1 [0019]
    • DE 10327223 [0020]
    • DE 4338307 C1 [0021]
    • DE 102008003948 A1 [0022]
    • DE 102008003947 A1 [0023]
  • Zitierte Nicht-Patentliteratur
    • PROCEEDINGS OF THE 2006 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, Orlando, Florida, Mai 2006, K. SHIMIZU und S. HIRAI, „CMOS PLUS FPGA – A VISION SYSTEM FOR VISUAL FEEDBACK OF MECHANICAL SYSTEMS” [0024]
    • „POLARIZATION-BASED WATER HAZARDS DETECTION FOR AUTONOMOUS OFF-ROAD NAVIGATION” von BIN XIE et al, PROCEEDINGS OF THE 2007 IEEE International Conference an Electronics and Automation, August 5–8 2007, Harbin, China [0026]
    • „POLARIZATION-BASED MATERIAL CLASSIFICATION FROM SPECULAR REFLECTION” von L. B. WOLFF in IEEE Transactions an Pattern Analysis and Machine Intelligence, Band 12, Nr. 11, November 1990 [0027]
    • „APPLICATIONS OF POLARRATION CAMERA TECHNOLOGY” von L. B. WOLFF, IEEE Expert, October 1995, Seiten 30–38 [0028]
    • „DETECTION OF SMALL WATER BODIES” von Alok SARWAL, Jeremy NETT, David SIMON [0029]
    • „DAYTIME AND WATER DETECTION BY FUSING MULTIPLE QUEUES FOR AUTONOMOUS OFF-ROAD NAVIGATION” von A. L. RANKIN et al [0030]

Claims (9)

  1. Wasserflächendetektor mit einem Bilddatengeneriermittel, aufweisend mehrere Gruppen von Sensorelementen zur Generierung von Szene-Bilddaten, die in einem Bilddatenauswertemittel zur wasserflächenindikativen Auswertung verarbeitbar sind, dadurch gekennzeichnet, dass nur eine erste und eine zweite Gruppe von Sensorelementen vorgesehen und zur Generierung von Bildern derselben Szene mit unterschiedlichen Polarisationen ausgebildet ist.
  2. Wasserflächendetektor nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass Bilder mit zwei allgemein orthogonal aufeinander stehenden Polarisierungen aufgenommen werden, insbesondere mit zwei linearen Polarisierungen oder mit zwei zirkularen Polarisierungen.
  3. Wasserflächendetektor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die beiden Gruppen von Sensoren mit zwei separaten Sensorfeldern, insbesondere CMOS- oder CCD-Sensorfeldern gebildet sind.
  4. Wasserflächendetektor nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass die beiden Sensorfelder wenigstens eine im Lichtweg zur Szene liegende Linse gemeinsam verwenden, insbesondere mindestens eine Linse, mit welcher eine Scharfstellung erfolgt, wobei insbesondere eine Regelung vorgesehen ist, mit welcher eine mittlere Schärfe auf beiden Sensoren zur Scharfstellung bestimmt wird und/oder welche eine Master-Slave-Scharfstellung vorgesehen ist und/oder wobei insbesondere für beide Sensorfelder lediglich ein Objektiv vorgesehen ist, das von den Sensorfeldern geteilt wird.
  5. Wasserflächendetektor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zwischen der gemeinsamen Linse und den beiden Gruppen von Sensorelementen ein polarisierender Strahlteiler vorgesehen ist.
  6. Wasserflächendetektor mit einer Steuerung für die beiden Sensorelementgruppen, die dazu ausgebildet ist, die Szene-Bilddaten beider Gruppen von Sensorelementen zu synchronisieren, insbesondere die Bilddatenaufnahme für einen Frame synchron zu starten und/oder zumindest eine, bevorzugt mehrere, insbesondere bevorzugt alle Elemente aus der Gruppe Weißabgleich, Sensorempfindlichkeit (ISO-Wert), vorzugsweise elektronisch bestimmte Belichtungsdauer für beide Gruppen von Sensorelementen in gleicher Weise zu bestimmen, bevorzugt identisch festzulegen und/oder unter Berücksichtigung von Kalibrierwerten aneinander angepasst festzulegen, insbesondere durch Mittelung und/oder Verwendung der ersten Gruppe von Sensorelementen als Master und der zweiten Gruppe von Sensorelement als Slave.
  7. Passiver Wasserflächendetektor für autonome Systeme mit einem Wasserflächendetektor nach einem der vorhergehenden Ansprüche.
  8. Autonomes System mit einem passiven Wasserflächendetektor.
  9. Verfahren zur Wasserflächendetektion, dadurch gekennzeichnet, dass Licht einer Szene nach Durchtritt durch eine Linse an einem polarisierenden Strahlteiler aufgespalten und auf unterschiedliche Sensorgruppen eingestrahlt wird, und mit den Sensorgruppen synchron Bilder aufgenommen werden, die zur Wasserflächendetektion gemeinsam verarbeitet werden.
DE201010020537 2010-05-14 2010-05-14 Wasserdetektor Withdrawn DE102010020537A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201010020537 DE102010020537A1 (de) 2010-05-14 2010-05-14 Wasserdetektor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201010020537 DE102010020537A1 (de) 2010-05-14 2010-05-14 Wasserdetektor

Publications (1)

Publication Number Publication Date
DE102010020537A1 true DE102010020537A1 (de) 2011-11-17

Family

ID=44859632

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201010020537 Withdrawn DE102010020537A1 (de) 2010-05-14 2010-05-14 Wasserdetektor

Country Status (1)

Country Link
DE (1) DE102010020537A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014205204B3 (de) * 2014-03-20 2015-05-13 Conti Temic Microelectronic Gmbh Kamerabasiertes Fahrerassistenzsystem zur Detektion des Zustandes einer Fahrbahnoberfläche
WO2016098040A1 (en) * 2014-12-17 2016-06-23 Husqvarna Ab Robotic vehicle with automatic camera calibration capability
US9867331B1 (en) 2014-10-28 2018-01-16 Hydro-Gear Limited Partnership Utility vehicle with onboard and remote control systems
US10058031B1 (en) 2015-02-28 2018-08-28 Hydro-Gear Limited Partnership Lawn tractor with electronic drive and control system
US10629005B1 (en) 2014-10-20 2020-04-21 Hydro-Gear Limited Partnership Interactive sensor, communications, and control system for a utility vehicle
CN111310651A (zh) * 2020-02-13 2020-06-19 杭州凌像科技有限公司 一种基于偏振相机和rgb-d传感器的水面检测方法

Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4300896C1 (de) * 1993-01-15 1994-04-21 Holger Dipl Ing Oldenettel Verfahren und Vorrichtung zur Ermittlung des Fahrbahnoberflächenzustandes
DE4338307C1 (de) 1993-11-10 1995-05-18 Mierswa Klaus Dipl Ing Verfahren zur optischen Detektion von Objekten oder Objektströmen, deren Oberflächen Licht zu reflektieren oder zu streuen imstande sind, die selbstaffine oder selbstähnliche oder fraktale Muster oder Strukturen aufweisen
DE19614916A1 (de) 1996-04-16 1997-11-06 Detlef Raupach Fahrroboter für die automatische Behandlung von Bodenflächen
JPH10115684A (ja) * 1996-10-15 1998-05-06 Nagoya Denki Kogyo Kk 路面状態判別方法およびその装置
DE19736138A1 (de) 1997-08-20 1999-04-08 Daimler Chrysler Ag Verfahren zur Bestimmung des Zustandes einer Fahrbahnoberfläche
DE19757840C1 (de) 1997-12-24 1999-09-30 Johann F Hipp Vorrichtung zur optischen Erfassung und Abstandermittlung von Objekten von einem Fahrzeug aus
DE19929964A1 (de) 1999-06-29 2001-01-04 Valeo Auto Electric Gmbh Einrichtung und Verfahren zur Erfassung von Medien wie Wasser, Beschlag, Schmutz und dergleichen auf einer Scheibe eines Fahrzeuges
EP1176487A1 (de) 2000-07-27 2002-01-30 Gmd - Forschungszentrum Informationstechnik Gmbh Autonom navigierendes Robotersystem
DE19856510C2 (de) 1998-02-20 2002-10-24 Cegelec Anlagen Und Automatisi Verfahren und System zur Ermittlung von Unebenheiten und Schadstellen in der Oberfläche einer Verkehrsfläche
US6598245B2 (en) 2001-01-19 2003-07-29 San-Ei Faucet Mfg. Co., Ltd Automatic water feed method in lavatory and automatic water feed mechanism in lavatory
DE10327223A1 (de) 2003-06-17 2005-01-05 Gunter Arnold Selbstfahrender Rasenmäher mit Grasdetektor
DE602004009422D1 (de) * 2003-03-14 2007-11-22 Liwas Aps Einrichtung zur detektion eines strassenoberflächenzustands
DE102006041485A1 (de) 2006-09-02 2008-03-13 Inmach Intelligente Maschinen Gmbh Baukasten zum Aufbau einer Infrastruktur für eine Steuerung eines Flächenbearbeitungsgeräts
DE102008003948A1 (de) 2007-01-11 2008-07-17 Denso Corp., Kariya Vorrichtung zum Bestimmen des Vorhandenseins von Nebel unter Verwendung einer Abbildung, die durch eine in ein Fahrzeug eingebaute Abbildungsvorrichtung erzielt wird
DE102008003947A1 (de) 2007-01-11 2008-07-24 Denso Corp., Kariya Vorrichtung zum Bestimmen des Vorhandenseins von Nebel unter Verwendung einer Abbildung, die durch eine in ein Fahrzeug eingebaute Abbildungsvorrichtung erzielt wird
DE102007015552B3 (de) 2007-03-29 2008-08-07 Miele & Cie. Kg Selbstfahrender Roboter zur Behandlung von Bodenflächen
DE102007023157A1 (de) 2007-05-16 2008-11-20 Robert Bosch Gmbh Roboter-Fahrzeug mit Antriebsmitteln sowie Verfahren zum Ansteuern von Antriebsmitteln
DE102007023156A1 (de) 2007-05-16 2008-11-20 Robert Bosch Gmbh Zum selbstständigen Betrieb ausgebildetes Roboterfahrzeug
EP1704766B1 (de) 2005-03-23 2008-12-24 Wolf-Garten GmbH & Co. KG Verfahren zur Bodenflächenanalyse und Rasenpflege-Roboter zur Durchführung des Verfahrens
DE60320281T2 (de) 2002-10-10 2009-05-14 Ulf Elman Einrichtung, verfahren und system zur bestimmung des strassenoberflächenzustands
DE102007061385A1 (de) 2007-12-19 2009-06-25 Robert Bosch Gmbh Vorrichtung zur Landschaftspflege

Patent Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4300896C1 (de) * 1993-01-15 1994-04-21 Holger Dipl Ing Oldenettel Verfahren und Vorrichtung zur Ermittlung des Fahrbahnoberflächenzustandes
DE4338307C1 (de) 1993-11-10 1995-05-18 Mierswa Klaus Dipl Ing Verfahren zur optischen Detektion von Objekten oder Objektströmen, deren Oberflächen Licht zu reflektieren oder zu streuen imstande sind, die selbstaffine oder selbstähnliche oder fraktale Muster oder Strukturen aufweisen
DE19614916A1 (de) 1996-04-16 1997-11-06 Detlef Raupach Fahrroboter für die automatische Behandlung von Bodenflächen
JPH10115684A (ja) * 1996-10-15 1998-05-06 Nagoya Denki Kogyo Kk 路面状態判別方法およびその装置
DE19736138A1 (de) 1997-08-20 1999-04-08 Daimler Chrysler Ag Verfahren zur Bestimmung des Zustandes einer Fahrbahnoberfläche
DE19757840C1 (de) 1997-12-24 1999-09-30 Johann F Hipp Vorrichtung zur optischen Erfassung und Abstandermittlung von Objekten von einem Fahrzeug aus
DE19856510C2 (de) 1998-02-20 2002-10-24 Cegelec Anlagen Und Automatisi Verfahren und System zur Ermittlung von Unebenheiten und Schadstellen in der Oberfläche einer Verkehrsfläche
DE19929964A1 (de) 1999-06-29 2001-01-04 Valeo Auto Electric Gmbh Einrichtung und Verfahren zur Erfassung von Medien wie Wasser, Beschlag, Schmutz und dergleichen auf einer Scheibe eines Fahrzeuges
EP1176487A1 (de) 2000-07-27 2002-01-30 Gmd - Forschungszentrum Informationstechnik Gmbh Autonom navigierendes Robotersystem
US6598245B2 (en) 2001-01-19 2003-07-29 San-Ei Faucet Mfg. Co., Ltd Automatic water feed method in lavatory and automatic water feed mechanism in lavatory
DE60320281T2 (de) 2002-10-10 2009-05-14 Ulf Elman Einrichtung, verfahren und system zur bestimmung des strassenoberflächenzustands
DE602004009422D1 (de) * 2003-03-14 2007-11-22 Liwas Aps Einrichtung zur detektion eines strassenoberflächenzustands
DE10327223A1 (de) 2003-06-17 2005-01-05 Gunter Arnold Selbstfahrender Rasenmäher mit Grasdetektor
EP1704766B1 (de) 2005-03-23 2008-12-24 Wolf-Garten GmbH & Co. KG Verfahren zur Bodenflächenanalyse und Rasenpflege-Roboter zur Durchführung des Verfahrens
DE102006041485A1 (de) 2006-09-02 2008-03-13 Inmach Intelligente Maschinen Gmbh Baukasten zum Aufbau einer Infrastruktur für eine Steuerung eines Flächenbearbeitungsgeräts
DE102008003948A1 (de) 2007-01-11 2008-07-17 Denso Corp., Kariya Vorrichtung zum Bestimmen des Vorhandenseins von Nebel unter Verwendung einer Abbildung, die durch eine in ein Fahrzeug eingebaute Abbildungsvorrichtung erzielt wird
DE102008003947A1 (de) 2007-01-11 2008-07-24 Denso Corp., Kariya Vorrichtung zum Bestimmen des Vorhandenseins von Nebel unter Verwendung einer Abbildung, die durch eine in ein Fahrzeug eingebaute Abbildungsvorrichtung erzielt wird
DE102007015552B3 (de) 2007-03-29 2008-08-07 Miele & Cie. Kg Selbstfahrender Roboter zur Behandlung von Bodenflächen
DE102007023157A1 (de) 2007-05-16 2008-11-20 Robert Bosch Gmbh Roboter-Fahrzeug mit Antriebsmitteln sowie Verfahren zum Ansteuern von Antriebsmitteln
DE102007023156A1 (de) 2007-05-16 2008-11-20 Robert Bosch Gmbh Zum selbstständigen Betrieb ausgebildetes Roboterfahrzeug
DE102007061385A1 (de) 2007-12-19 2009-06-25 Robert Bosch Gmbh Vorrichtung zur Landschaftspflege

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
"APPLICATIONS OF POLARRATION CAMERA TECHNOLOGY" von L. B. WOLFF, IEEE Expert, October 1995, Seiten 30-38
"DAYTIME AND WATER DETECTION BY FUSING MULTIPLE QUEUES FOR AUTONOMOUS OFF-ROAD NAVIGATION" von A. L. RANKIN et al
"DETECTION OF SMALL WATER BODIES" von Alok SARWAL, Jeremy NETT, David SIMON
"POLARIZATION-BASED MATERIAL CLASSIFICATION FROM SPECULAR REFLECTION" von L. B. WOLFF in IEEE Transactions an Pattern Analysis and Machine Intelligence, Band 12, Nr. 11, November 1990
"POLARIZATION-BASED WATER HAZARDS DETECTION FOR AUTONOMOUS OFF-ROAD NAVIGATION" von BIN XIE et al, PROCEEDINGS OF THE 2007 IEEE International Conference an Electronics and Automation, August 5-8 2007, Harbin, China
PROCEEDINGS OF THE 2006 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, Orlando, Florida, Mai 2006, K. SHIMIZU und S. HIRAI, "CMOS PLUS FPGA - A VISION SYSTEM FOR VISUAL FEEDBACK OF MECHANICAL SYSTEMS"
Rankin, Arturo L; Matthies, Larry H.; Huertas, Andres: Daytime water detection by fusing multiple cues for autonomous off-road navigation. Jet Propulsion Labratory, Pasadena, CA; 2004 *
Sarwal, Alok; Nett, Jeremy; Simon, David: Detection of small water-bodies. PercepTek Robotics 12395 N. Mead Way Littleton, CO 80125; 2004 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014205204B3 (de) * 2014-03-20 2015-05-13 Conti Temic Microelectronic Gmbh Kamerabasiertes Fahrerassistenzsystem zur Detektion des Zustandes einer Fahrbahnoberfläche
US10629005B1 (en) 2014-10-20 2020-04-21 Hydro-Gear Limited Partnership Interactive sensor, communications, and control system for a utility vehicle
US11127228B1 (en) 2014-10-20 2021-09-21 Hydro-Gear Limited Partnership Interactive sensor, communications, and control system for a utility vehicle
US9867331B1 (en) 2014-10-28 2018-01-16 Hydro-Gear Limited Partnership Utility vehicle with onboard and remote control systems
WO2016098040A1 (en) * 2014-12-17 2016-06-23 Husqvarna Ab Robotic vehicle with automatic camera calibration capability
US10058031B1 (en) 2015-02-28 2018-08-28 Hydro-Gear Limited Partnership Lawn tractor with electronic drive and control system
CN111310651A (zh) * 2020-02-13 2020-06-19 杭州凌像科技有限公司 一种基于偏振相机和rgb-d传感器的水面检测方法
CN111310651B (zh) * 2020-02-13 2023-05-02 杭州凌像科技有限公司 一种基于偏振相机和rgb-d传感器的水面检测方法

Similar Documents

Publication Publication Date Title
DE112007003673B4 (de) Vermessungsvorrichtung zum Verfolgen und Vermessen eines Objekts
DE102013227101B3 (de) Optisches System zur Nachverfolgung eines Ziels
DE112012004255T5 (de) Räumlich selektive Erkennung unter Verwendung einer dynamischen Maske in einer Bildebene
EP2005112B1 (de) Vorrichtung und Verfahren zum dreidimensionalen Erfassen eines Raumbereichs
AT509180B1 (de) Optoelektronisches messsystem
DE602004005012T2 (de) Detektionsvorrichtung
DE102011010334B4 (de) Kamerasystem und Verfahren zur Beobachtung von Objekten in großer Entfernung, insbesondere zur Überwachung von Zielobjekten bei Nacht, Dunst, Staub oder Regen
WO2013116880A1 (de) Vorrichtung zum erfassen der dreidimensionalen geometrie von objekten und verfahren zum betreiben derselben
DE102014019671B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels 2D-Kamera
DE102010020537A1 (de) Wasserdetektor
EP2433837A1 (de) Optisches Instrument und Verfahren zur optischen Überwachung der Umgebung sich langsam bewegender Fahrzeuge
DE112010000019T5 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
CH700023B1 (de) Scan-Einrichtung.
DE102013100192A1 (de) Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter
DE112012004055T5 (de) Bildaufnahmevorrichtung
DE19603267A1 (de) Vorrichtung zur Abstands- und/oder Positionsbestimmung
DE112012007096T5 (de) Trackereinheit und Verfahren in einer Trackereinheit
DE102016115277A1 (de) Optische Vorrichtung
EP1248120B1 (de) Dual-Mode Suchkopf
DE102017100885B4 (de) Verfahren und vorrichtung zum erzeugen und projizieren eines 3d-thermogramms samt daten zu den aufnahmebedingungen
DE102015106837B4 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels Gesten und Vorrichtung hierzu
DE102017117212A1 (de) System und Verfahren zur Stereotriangulation
DE102014019669B4 (de) 16Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mit vorgegebenen Bedingungen
DE60110341T2 (de) Anordnung und Verfahren zur Entfernungsmessung
DE102018218475B4 (de) Trackingsystem und optisches Messsystem zur Bestimmung mindestens einer räumlichen Position und Orientierung mindestens eines Messobjekts

Legal Events

Date Code Title Description
R016 Response to examination communication
R016 Response to examination communication
R082 Change of representative

Representative=s name: CLAUS PETER PIETRUK, DE

R081 Change of applicant/patentee

Owner name: ROBOT MAKERS GMBH, DE

Free format text: FORMER OWNER: H&S ROBOTIC SOLUTIONS GBR (VERTRETUNGSBERECHTIGTER GESELLSCHAFTER: BERND-HELGE SCHAEFER, 67661 KAISERSLAUTERN), 67661 KAISERSLAUTERN, DE

Effective date: 20120919

R082 Change of representative

Representative=s name: CLAUS PETER PIETRUK, DE

Effective date: 20120919

Representative=s name: VOSSIUS & PARTNER, DE

Effective date: 20120919

Representative=s name: VOSSIUS & PARTNER PATENTANWAELTE RECHTSANWAELT, DE

Effective date: 20120919

R082 Change of representative

Representative=s name: VOSSIUS & PARTNER, DE

Representative=s name: VOSSIUS & PARTNER PATENTANWAELTE RECHTSANWAELT, DE

R082 Change of representative

Representative=s name: VOSSIUS & PARTNER PATENTANWAELTE RECHTSANWAELT, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee