DE102010020537A1 - Wasserdetektor - Google Patents
Wasserdetektor Download PDFInfo
- Publication number
- DE102010020537A1 DE102010020537A1 DE201010020537 DE102010020537A DE102010020537A1 DE 102010020537 A1 DE102010020537 A1 DE 102010020537A1 DE 201010020537 DE201010020537 DE 201010020537 DE 102010020537 A DE102010020537 A DE 102010020537A DE 102010020537 A1 DE102010020537 A1 DE 102010020537A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- water surface
- sensor elements
- groups
- surface detector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01D—HARVESTING; MOWING
- A01D34/00—Mowers; Mowing apparatus of harvesters
- A01D34/006—Control or measuring arrangements
- A01D34/008—Control or measuring arrangements for automated or remotely controlled operation
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Environmental Sciences (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
Description
- Die vorliegende Erfindung betrifft das oberbegrifflich Beanspruchte und befasst sich demgemäß mit der Detektion von Wasserflächen.
- Es gibt eine Vielzahl von Anwendungen, bei denen sich Geräte autonom, das heißt selbstfahrend und ohne Steuerung von außen bewegen. Hierzu gehören beispielsweise selbstfahrende Rasenmäher. Wenn diese in größeren Geländen wie Golfplätzen eingesetzt werden, müssen sie in der Lage sein, Hindernisse zu erkennen und gegebenenfalls zu umfahren. Kritisch sind hierbei regelmäßig Wasserflächen, weil im Regelfall nicht abgeschätzt werden kann, wie tief das Wasser unter der Oberfläche ist; fährt in einer solchen Situation ein autonom bewegtes Gerät in die Wasserfläche, so besteht die Gefahr, dass es nicht ohne fremde Hilfe, also nicht autonom, aus der Wasserfläche zurück auf festen Boden gelangt. Deswegen ist es erforderlich, Wasserflächen zu umfahren.
- Es ist daher wünschenswert, Wasserflächen sicher detektieren zu können. Es ist überdies wünschenswert, Wasserflächen nicht nur sicher, sondern auch schnell detektieren zu können, damit die Detektion während der Fahrt vorgenommen werden kann, und es ist wünschenswert, einen passiven Wasserflächendetektor zu erhalten, der ohne Emission von Strahlung wie Laser- oder Radarstrahlung auskommt, da die bei aktiven Sensoren erforderliche Strahlenemission vielfach als unerwünscht angesehen wird.
- Es sind bereits eine Vielzahl von Schriften bekannt, bei welchen Oberflächen mit verschiedenen Mitteln untersucht werden.
- Ein selbstfahrender, Gras erkennender Rasenmäher ist aus der
DE 199 32 551 bekannt. Dieser soll durch Abtasten des Bodens mittels Infrarotlicht und Ultraschall die Bodenoberflächenstruktur sensorisch erfassen, Graswuchs, Grashöhe und Grasdichte analysieren und nicht-rasenartigen Boden wie Erde, Wasser, Sand, Steinplatten und Beete sowie nicht-grasartige Pflanzen erkennen und meiden. - Aus der
DE 10 2007 061 385 A1 ist eine Vorrichtung zur Landschaftspflege, insbesondere ein Rasenmäher bekannt, umfassend zumindest eine Sensoreinrichtung, die verschiedene Beschaffenheiten eines Untergrunds unterhalb und/oder in der Umgebung der Vorrichtung erfassen und zuordnen kann. Dazu soll zumindest eine Sensoreinrichtung verschiedene Beschaffenheiten eines Untergrunds unterhalb und/oder in der Umgebung der Vorrichtung erfassen. Es wird die Verwendung einer Lichtquelle vorgeschlagen, die Licht im sichtbaren Spektralbereich und Licht im Infrarotbereich aussenden und verschiedene Untergrundbeschaffenheiten fluoreszensspektroskopisch erfassen und zuordnen kann. - Aus der
DE 603 20 281 ist eine Einrichtung, ein Verfahren und ein System zur Bestimmung des Straßenoberflächenzustands bekannt. Die bekannte Anordnung soll ein Reflektanzspektrometer basierend auf Wellenlängenmodulation umfassen, das die Lichtwellenlänge mit der Frequenz f moduliert, wobei das genannte Reflektanzspektrometer die sich ergebende Amplitudenmodulation an mehr als einem einzigen Multipel der besagten Frequenz detektieren kann und weiterhin so gestaltet ist, dass es für die Messung von Reflektanzeigenschaften einer fahrbaren Oberfläche an mindestens einer fixen Zentralwellenlänge eingerichtet ist und die besagten Eigenschaften für die Bestimmung des Vorhandenseins von mindestens einem von flüssigem Wasser oder Eis verwendet. - Ein einen Infrarotemitter und Infrarotdetektor verwendender Wasserhahn, der automatisch erkennt, wenn sich eine Person die Hände waschen möchte, ist aus der
US 6,598,245 B2 bekannt. - Ein Verfahren zur Bodenflächenanalyse und ein Rasenpflegeroboter zur Durchführung des Verfahrens sind aus der
EP 1 704 766 B1 bekannt. Hiernach soll die Bodenoberfläche im zu bearbeitenden Bereich durch die eigene Vorwärtsbewegung einer mit IR-Diode und IR-Sensor ausgerüsteten Messvorrichtung auf ihre Reflektanz gescannt werden, um eine Bodenoberflächenanalyse durchzuführen und dem Rasenmäherroboter eine definierte Arbeitsfläche vorzugeben, wobei durch einen Distanzsensor Abweichungen von einem vorgegebenen Sollabstand der Messvorrichtung zum Boden festgestellt und der Reflektanzwert entsprechend dem Istabstand korrigiert werden soll. - Ein autonom navigierendes Robotersystem, bei dem die Orientierung anhand des von einer Kamera aufgenommenen aktuellen Laserprojektionslinienmusters und unter Berücksichtigung von vorherigen Untersuchungen des Verlaufs und der Anordnung von reflektierten Linienmustern, die bei Projektion dieser Linienmuster mittels eines Laserprojektors in unterschiedlichen, jeweils bekannten Richtungen in die Umgebung gewonnen wurden, ist aus der
EP 1 176 487 bekannt. - Ein Roboterfahrzeug mit Antriebsmitteln sowie ein Verfahren zum Ansteuern der Antriebsmittel ist aus der
DE 10 2007 023 157 A1 bekannt. Es wird vorgeschlagen, dass ein Infrarotsensor zum Detektieren der Intensität einer vom Untergrund reflektierten Infrarotstrahlung und mit Steuermitteln zum Ansteuern von Antriebsmitteln des autonomen Roboterfahrzeugs vorgesehen ist in Abhängigkeit von der gemessenen Intensität der Infrarotstrahlung. Es soll zusätzlich reflektierte Lichtstrahlung aus dem sichtbaren Spektrum erfasst und die Intensität der sichtbaren Lichtstrahlung mit ausgewertet werden. - Ein zum selbständigen Betrieb ausgebildetes Roboterfahrzeug ist auch aus der
DE 10 2007 023 156 A1 bekannt. Hier soll einerseits der unmittelbar unterhalb des Roboterfahrzeugs befindliche Untergrund und andererseits der Untergrund außerhalb der Roboterfahrzeugsumfangskontur analysiert werden. - Ein selbstfahrender Roboter zur Behandlung von Bodenflächen ist auch aus der
DE 10 2007 015 552 bekannt. Hier soll ein dreidimensionales Bild der Fahrumgebung mit einem einzigen Kameramodul erfasst werden, wobei zwei horizontal voneinander beabstandete optische Teilsysteme je ein Umgebungsbild auf je eine Hälfte des Kameramoduls lenken. - Aus der
DE 10 2006 041 485 A1 ist ein Baukasten zum Aufbau einer Infrastruktur für eine Steuerung eines Flächenbearbeitungsgerätes bekannt. Es sollen insbesondere Befehle in einem Befehlssatz des modularen Systems vorgesehen werden, die sich auf Fahranweisungen beziehungsweise eine Fahrstrategie beziehen. - Eine aktive optische Einrichtung und ein Verfahren zur Erfassung von Medien wie Wasser, Beschlag und Schmutz und dergleichen auf der Scheibe eines Fahrzeugs, aufweisend ein Linsensystem mit mindestens zwei Linseneinheiten, ist aus der
DE 199 29 964 A1 bekannt. - Ein Verfahren und ein System zur Ermittlung von Unebenheiten und Schadstellen in der Oberfläche einer Verkehrsfläche ist aus der
DE 198 56 510 C2 bekannt. Hierbei können Unebenheiten und Schadstellen der Oberfläche abschnittsweise messtechnisch erfasst und in jedem Abschnitt die globale Position der Prüfeinrichtung anhand eines Ortungssignals ermittelt werden, wobei benachbarte Abschnitte durch Erfassung einer diesen Abschnitten gemeinsamen Oberflächenmarkierung miteinander korreliert werden können. Die Oberfläche jedes Abschnitts soll photographisch erfasst werden. Eine mögliche Wassertiefe jeder geschlossenen Vertiefung der Oberfläche soll ermittelt werden. - Aus der
DE 197 57 840 C1 ist eine Vorrichtung zur optischen Erfassung und Abstandsermittlung von Objekten von einem Fahrzeug aus bekannt. Vorgesehen sein soll dabei eine ein Blickfeld betrachtende elektronische Kamera sowie eine Scannereinrichtung, die wenigstens einen gebündelten Strahl von Impulsen elektromagnetischer Strahlung in das Blickfeld lenkt und die aus Winkel und Laufzeit Objekte und deren Abstände ermittelt. - Ein Verfahren zur Bestimmung des Zustandes einer befahrbaren Oberfläche ist aus der
DE 197 36 138 bekannt. Unter anderem soll Wasser/Eis auf einer befahrbaren Oberfläche durch Auswertung der Rückstreuung von Licht von der fahrbaren Oberfläche erfasst werden. - Aus der
DE 196 14 916 A1 ist ein Fahrroboter für die automatische Behandlung von Bodenflächen bekannt. Die Verwendung digitaler Kameras für die Erfassung der Umgebung und Bewegung wird vorgeschlagen. - Ein weiterer selbstfahrender Rasenmäher ist aus der
DE 103 27 223 bekannt. Hier soll unter anderem der Boden mittels Laserlicht abgetastet und die Bodenoberflächenstruktur sensorisch erfasst werden. - Aus der
De 43 38 307 C1 ist ein Verfahren zur optischen Detektion von Objekten und Objektströmen bekannt, deren Oberflächen Licht zu reflektieren oder zu streuen im Stande sind, die selbstaffine oder selbstähnliche oder fraktale Muster oder Strukturen aufweisen. Es ist eine Belichtungseinrichtung zur Beleuchtung von Objekten vorhanden. - Aus der
DE 10 2008 003 948 A1 ist eine Vorrichtung zur Bestimmung des Vorhandenseins von Nebel unter Verwendung einer Abbildung, die durch eine in ein Fahrzeug eingebaute Abbildungsvorrichtung erzielt wird, bekannt. Es wird unter anderem eine Vorrichtung vorgeschlagen, die das Vorhandensein eines Elements wie zum Beispiel Nebel, das die Sicht eines Fahrers stört, in einer Umgebungsatmosphäre vor dem Fahrzeug, das mit der Vorrichtung ausgestattet ist, während der Tageszeit bestimmt. Die Bestimmung bezüglich des Vorhandenseins des Elements soll auf der Grundlage einer Abbildung erfolgen, die von einer in ein Fahrzeug eingebauten Kamera erfasst wird und in welcher ein Bild eines Hindernisses, das sich auf einer Straße befindet, über welche das Fahrzeug fährt, markiert ist. Bei der Bestimmung wird eine Zuverlässigkeit eines Bestimmens des Vorhandenseins des Elements durch Messen des Effekts eines Markierens des Hindernisses betrachtet. - Eine weitere Vorrichtung zum Bestimmen des Vorhandenseins von Nebel ist aus der
DE 10 2008 003 947 A1 bekannt. - Aus den PROCEEDINGS OF THE 2006 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, Orlando, Florida, Mai 2006, K. SHIMIZU und S. HIRAI, „CMOS PLUS FPGA – A VISION SYSTEM FOR VISUAL FEEDBACK OF MECHANICAL SYSTEMS" ist eine Kamera bekannt, die mit 1 000 Hertz eine optische Rückkopplung ermöglichen soll. Wasserdetektion wird nicht angesprochen.
- Eine Kamera, mit der Polarisationen erfasst werden können und welche unter anderem für Orientierung auf der Oberfläche einsetzbar sein soll, ist erhältlich von BOSSANOVA Technologies LLC, Venice, Kalifornien. CCD-Kameras sind auch von anderen Herstellern erhältlich.
- Aus dem Aufsatz „POLARIZATION-BASED WATER HAZARDS DETECTION FOR AUTONOMOUS OFF-ROAD NAVIGATION" von BIN XIE et al, PROCEEDINGS OF THE 2007 IEEE International Conference an Electronics and Automation, August 5–8 2007, Harbin, China, ist es bekannt, dass Wasserflächen durch Auswertung von Polarisationsinformation erfasst werden können. Es wird diskutiert, dass Licht, das von der Wasseroberfläche reflektiert wird, partiell linear polarisiert ist und die Polarisationsphasen ähnlicher als in der Umgebung sind. Durch Vergleich des Polarisationsmaßes und der Ähnlichkeit der Polarisationsphasen sollen Wasserflächen detektierbar sein. Es wird die Verwendung eines linearen Polarisationsfilters vor einer Kamera und dessen Drehung vorgeschlagen.
- In dem Aufsatz „POLARIZATION-BASED MATERIAL CLASSIFICATION FROM SPECULAR REFLECTION" von L. B. WOLFF in IEEE Transactions an Pattern Analysis and Machine Intelligence, Band 12, Nr. 11, November 1990, wird ein Verfahren vorgeschlagen, mit dem elektrische und metallische Oberflächen unter Verwendung von Polarisation unterscheidbar sein sollen.
- Aus dem Aufsatz „APPLICATIONS OF POLARRATION CAMERA TECHNOLOGY" von L. B. WOLFF, IEEE Expert, October 1995, Seiten 30–38, ist bekannt, vor einer Videokamera einen optischen Kopf mit einem festen linearen Polarisierer und Flüssigkristallen anzuordnen, um schnell wechselnde Polarisationen aufnehmen zu können und Bilder zur Unterscheidung unterschiedlicher Oberflächen aufzunehmen.
- Aus dem Aufsatz „DETECTION OF SMALL WATER BODIES" von Alok SARWAL, Jeremy NETT, David SIMON, ist bekannt, drei Polarisationsfilter mit 0°, 45° und 90° vor drei Kameras anzuordnen und entsprechend auszuwerten. Es wird auch ein Einzelkamera-System mit Strahlteilung vorgeschlagen, so dass die 0°-, 45°- und 90°-Polarisationsfilter und die interne Linse identische Szenen beobachten. Es wird angegeben, dass der vorgeschlagene Ansatz eine Feinjustierung erfordert, nach welcher alle drei Linsen und Filteranordnungen der drei Kameras auf die gleiche Szene sehen.
- In dem Aufsatz „DAYTIME AND WATER DETECTION BY FUSING MULTIPLE QUEUES FOR AUTONOMOUS OFF-ROAD NAVIGATION" von A. L. RANKIN et al wird vorgeschlagen, eine Vielzahl unterschiedlicher Bildeigenschaften von Stereoaufnahmen auszuwerten, insbesondere auch Farbsättigung und Helligkeit in Bildern.
- Die Aufgabe der vorliegenden Erfindung besteht darin, Neues für die gewerbliche Anwendung bereitzustellen.
- Die Lösung dieser Aufgabe wird in unabhängiger Form beansprucht.
- Damit schlägt die Erfindung zunächst einen Wasserflächendetektor mit einem Bilddatengeneriermittel, aufweisend mehrere Gruppen von Sensorelementen zur Generierung von Szene-Bilddaten, die in einem Bilddatenauswertemittel zur wasserflächenindikativen Auswertung verarbeitbar sind, vor. Hierbei ist vorgesehen, dass nur eine erste und eine zweite Gruppe von Sensorelementen vorgesehen und zur Generierung von Bildern derselben Szene mit unterschiedlichen Polarisationen ausgebildet ist.
- Es wurde demnach erfindungsgemäß zunächst erkannt, dass es ausreicht, um Wasserflächen sicher zu identifizieren, wenn lediglich zwei Gruppen von Sensorelementen vorgesehen sind, die jeweils unterschiedliche Polarisationen aufnehmen. Von Polarisation wird vorliegend auch dann gesprochen, wenn den Sensoren nicht vollständig polarisiertes Licht, etwa auf Grund mangelhafter Polarisationswirkung der vorgeschalteten, Polarisationen aufspaltenden Elemente zugeführt wird. Eine sichere Detektion trotz Verwendung nur zweier Sensorgruppen wird dadurch ermöglicht, dass Bilder exakt derselben Szene aufgenommen werden, was die Auswertbarkeit signifikant verbessert.
- Es wird bevorzugt, wenn zwei allgemein orthogonal aufeinander stehende Polarisierungen verwendet werden, insbesondere zwei lineare Polarisierungen mit orthogonaler Polarisationsrichtung. Dabei sei noch einmal darauf hingewiesen, dass typisch bei einer praktischen Implementierung der Erfindung nicht vollständig polarisierende oder nicht für alle Wellenlängen vollständig polarisierende Elemente verbaut werden, wobei vorliegend gleichwohl von orthogonaler Polarisierung gesprochen wird.
- Es ist bevorzugt, wenn die Gruppen von Sensorelementen durch separate Sensorfelder gebildet sind. In einem solchen Fall ist es möglich, durch Ausrichtung der separaten Sensorfelder dieselbe Szene mit hoher Auflösung aufzunehmen; alternativ wäre es möglich, polarisierende Elemente vor einzelnen Sensorelementen eines einzelnen Sensorfeldes vorzusehen.
- Es ist weiter möglich und bevorzugt, dass zwei Sensorfelder Licht von der Szene durch eine gemeinsame Frontlinse empfangen, insbesondere durch ein gemeinsames Objektiv, wobei bevorzugt ist, wenn dieses Objektiv von beiden Sensorfeldern geteilt wird und nur dieses Objektiv vor den Sensorfeldern vorgesehen ist. Damit wird die optische Anordnung insgesamt wesentlich vereinfacht und es wird möglich, die Polarisierung des einem jeweiligen Sensorfeld zugeführten Lichts hinter dem Objektiv vorzunehmen.
- Es ist überdies möglich, auf den Sensorfeldern durch Regelung an nur einer einzigen Linse beziehungsweise einem einzigen Objektiv ein scharfes Bild zu erzeugen, wobei die Bildschärfe eingestellt werden kann im Ansprechen auf die bei einem Sensor ermittelte Schärfe oder durch eine Autofokusanordnung, die mindestens ein Sensor- beziehungsweise Detektorelement unabhängig von den beiden Sensorfeldern aufweist. Es kann weiter vorgesehen sein, dass zwischen der gemeinsamen Linse, insbesondere einem gemeinsamen Frontobjektiv, und den beiden Gruppen von Sensorelementen ein polarisierender Strahlteiler vorgesehen ist. Die Verwendung eines derartigen polarisierenden Strahlteilers hat den besonderen Vorteil, dass ein einfallender Lichtstrahl gleichzeitig sowohl polarisiert als auch auf die beiden Sensorelementgruppen aufgeteilt wird. Daher ist dies besonders bevorzugt, denn es ergeben sich deutlich geringere Lichtverluste und der Sensor wird auch bei schlechten Lichtverhältnissen besser einsetzbar. Die Verwendung eines polarisierenden Strahlteilers vor den beiden Gruppen von Sensorelementen und hinter einem Frontobjektiv wird daher als besonders vorteilhaft angesehen.
- Der Wasserflächendetektor lässt sich weiter dadurch verbessern, dass die Szene-Bilddaten auch synchron mit beiden Gruppen von Sensorelementen aufgenommen werden, was insbesondere dadurch ermöglicht wird, dass die Bilddatenaufnahme für einen jeweiligen Frame bei beiden Gruppen von Sensorelementen synchron gestartet wird. Auf diese Weise ist selbst dann, wenn der Wasserflächendetektor auf einem mobilen Gerät angeordnet ist, das sich während der Aufnahme bewegt, die Aufnahme genau derselben Szene, das heißt die Betrachtung von Objekten aus der exakt identischen Perspektive heraus gewährleistet.
- Es kann weiter bevorzugt sein, wenn verschieden Einstellungen für die Gruppen von Sensorelementen stets in gleicher Weise verändert werden. Hierzu gehört der Weißabgleich, die Einstellung der Sensorempfindlichkeit (das heißt des sogenannten ISO-Wertes), die typisch elektronisch bestimmte Belichtungsdauer für beide Gruppen von Sensorelementen und dergleichen. Die Einstellungen können dabei entweder durch Verwendung der Werte, die an einer Gruppe von Sensorelementen gewonnen werden, vorgenommen werden; in einem solchen Fall dient einer der Sensoren als Master, während der andere Sensor als Slave verwendet wird. Alternativ ist es möglich, die Ausgangssignale beider Sensoren heranzuziehen, um Einstellungen wie Weißabgleich, Sensorempfindlichkeit, elektronisch bestimmte Belichtungsdauer usw. für beide Sensoren simultan festzulegen.
- Der beschriebene Wasserflächendetektor ist als Wasserflächendetektor für autonome Systeme besonders dann vorteilhaft, wenn ein passiver Wasserflächendetektor gewünscht oder erforderlich ist.
- Schutz wird auch beansprucht für ein autonomes, insbesondere selbstfahrendes System mit einem entsprechenden passiven Wasserflächendetektor und für ein Verfahren zur Wasserflächendetektion, bei welchem Licht einer Szene nach Durchtritt durch wenigstens eine Linse an einem polarisierenden Strahlteiler aufgespalten und auf unterschiedliche Sensorgruppen eingestrahlt wird, und mit den Sensorgruppen dann synchron Bilder aufgenommen werden, die zur Wasserflächendetektion gemeinsam verarbeitet werden. Es sei darauf hingewiesen, dass die eigentliche Auswertung von mit unterschiedlicher Polarisation aufgenommenen Bildern vorliegend nicht beschrieben werden muss, da sie per se bekannt ist.
- Die Erfindung wird im Folgenden nur beispielsweise anhand der Zeichnung beschrieben. In dieser ist dargestellt durch
-
1 ein passiver Wasserflächendetektor für autonome System gemäß der vorliegenden Erfindung. - Nach
1 umfasst ein allgemein mit1 bezeichneter Wasserflächendetektor ein Bilddatengeneriermittel2 mit mehreren Gruppen von Sensorelementen3a ,3b zur Generierung von Bilddaten einer Szene4 , die in einem Bilddatenauswertemittel5 zur auf Wasserflächen4a hindeutenden Auswertung verarbeitbar sind, wobei nur zwei Gruppen3a ,3b von Sensorelementen vorgesehen sind, die zur Generierung derselben Szene mit unterschiedlichen Polarisationen ausgebildet sind. - Der Wasserflächendetektor
1 ist vorliegend dazu bestimmt, auf einem autonomen, das heißt selbstbewegt ohne Fremdsteuerung fahrenden Gerät angebracht zu werden und während dessen Bewegung Wasserflächen4a zu erfassen. Die Verarbeitungsgeschwindigkeiten des Bildauswertemittels5 sind so hoch gewählt, dass Hindernisse auch bei höheren Fahrtgeschwindigkeiten rechtzeitig erfasst werden können und Wasserflächen erfassbar sind. Es sei darauf hingewiesen, dass, obwohl vorliegend Wasserflächen spezifisch erkannt werden sollen, gleichwohl auch andere Umgebungsmerkmale anhand der generierten Bilddaten erfasst werden können und sollen, um beispielsweise Hindernisse und dergleichen erkennen und gegebenenfalls umfahren zu können. Dass hierzu gegebenenfalls Zusatzinformationen, zum Beispiel auf das Gelände bezogene, ausgewertet werden können, die gespeichert sind, sei erwähnt. - Das Bilddatengeneriermittel
2 des Wasserflächendetektors weist eine beiden Gruppen3a ,3b von Sensorelementen gemeinsame Frontlinse2a auf, an welcher eine Scharfstellung vorgenommen werden kann (sofern eine Fix-Fokus-Optik verwendet wird) und an der gegebenenfalls Blendenlamellen wie erforderlich vorgesehen sind. Eine Blendeneinstellung und eine Scharfstellung wirkt dabei für beide Sensorgruppen3a ,3b . Im Strahlengang dem Frontobjektiv2a folgend ist ein polarisierender Strahlteiler2b angeordnet, der hier, wie bevorzugt, als Strahlteilerwürfel gebildet ist, was die Stabilität bei Geländefahrten erhöht. Dieser polarisierende Strahlteiler hat die Eigenschaft, einen einfallenden Lichtstrahl partiell gerade durchzulassen und den nicht durchgelassenen Teil etwa senkrecht abzulenken. Der durch das Objektiv2a tretende Strahl ist mit2c in1 gekennzeichnet; auf die Darstellung der linsenbedingten Strahlkonvergenz wurde dabei aus Gründen der Übersichtlichkeit verzichtet. Der durch den Strahlteiler2b geradeaus hindurchlaufende Teil2c1 des Strahls2c und der im Strahlteiler senkrecht abgelenkte Teil2c2 des Strahls2c sind nun bei dem dargestellten Strahlteilerwürfel erfindungsgemäß senkrecht linear aufeinander polarisiert. - Durch diese Anordnung ist gewährleistet, dass auf den beiden Sensorgruppen
3a ,3b parallaxefrei exakt die gleiche Szene beobachtet werden kann. - Die beiden Gruppen von Sensoren
3a ,3b umfassen neben den eigentlichen Sensorelementen3b mit der lichtempfindlichen Oberfläche3b1 beziehungsweise3a mit der lichtempfindlichen Oberfläche3a1 einen jeweiligen Vorverarbeitungsprozessor3a2 beziehungsweise3b2 und einen jeweiligen Bilddatenpufferspeicher3b3 beziehungsweise3a3 . Der Bilddatenpufferspeicher dient auch als Schnittstelle zum Bilddatenauswertemittel5 , weshalb eine jeweilige Datenleitung von den jeweiligen Bilddatenpufferspeichern3a3 beziehungsweise3b3 zu Eingängen5a beziehungsweise5b des Bilddatenauswertemittels geführt sind. Von der Vorverarbeitungseinheit3a2 sind überdies Steuerleitungen zum Bilddatenauswertemittel5 geführt, genauso wie von der entsprechenden Einheit3b2 . - Das Frontobjektiv
2a , der Strahlteiler2b sowie die beiden Gruppen von Sensorelementen mit den Sensorfeldern3a ,3b sind in einem Gehäuse2d untergebracht, wobei die Sensorelemente3a ,3b relativ zum Strahlteiler2b so montiert sind, dass bei Scharfstellung des Objektivs2a auf eine der Sensorflächen das Bild auf der anderen Sensorfläche ebenfalls scharf ist. - Der Vorverarbeitungsprozessor
3a2 beziehungsweise3b2 dient zugleich dazu, die Empfindlichkeit des Sensorfeldes3a beziehungsweise3b zu bestimmen durch Festlegung eines entsprechenden ISO-Wertes, den Weißabgleich bei der Verarbeitung von Rohdaten aus dem Sensorfeld festzulegen und die hier elektronisch gesteuerte Belichtungszeit durch entsprechende Aktivierung des Sensorfeldes festzulegen. Der Beginn des Auslesens der jeweiligen Sensorfelder3a und3b ist durch ein über die Leitungen6a beziehungsweise6b an die Einheiten3a2 beziehungsweise3b2 gespeistes Startsignal auslösbar. Das Objektiv ist mit einer Autofokuseinheit versehen (nicht dargestellt), die ihr Scharfstellsignal über eine Leitung6c aus dem Bilddatenauswertemittel5 erhält. - Die Anordnung wird montiert und verwendet wie folgt:
Zunächst wird an dem Gehäuse2 die erste Sensorgruppe befestigt, beispielsweise Sensorgruppe3a . Ein Testbild wird scharf mit dem Objektiv2a auf das Sensormittel3a abgebildet. - Das Sensorfeld für die zweite Sensorfeldgruppe
3b wird dann so am Gehäuse des Bilddatengeneriermittels2 montiert, dass das zuvor auf den Sensor3a scharf eingestellte Bild ebenfalls scharf abgebildet wird. Es sei darauf hingewiesen, dass die Sensorfelder3a ,3b so gepaart sein können, dass sie eine nahezu gleiche spektrale Empfindlichkeit, gleiche Lichtempfindlichkeit bei unterschiedlichem Lichteinfall usw. besitzen. - Die Sensoreinheit wird in üblicher Weise an das Bilddatenauswertemittel
5 angeschlossen und auf einem autonomen Gerät angeordnet. - Es wird nun das Fahrzeug in Bewegung gesetzt und für die autonome Navigation in einer Szene
4 nach Wasserflächen4a gesucht. Dazu werden beiden Sensoren3a ,3b synchron ausgelesen, was durch die über Leitungen6a ,6b gleichzeitig ausgegebenen Auslesestartsignale veranlasst werden kann. Auch bei bewegtem autonomem Gerät wird damit sichergestellt, dass zwischen dem mit dem Sensor3a aufgenommenen Bild und dem mit dem Sensor3b aufgenommenen Bild kein Zeitversatz oder dergleichen besteht, und daher auch bei fahrendem Fahrzeug exakt identisch die gleiche Szene erfasst wird. Es werden dann die Bilddaten von den Sensoren3a beziehungsweise3b , die am Bilddatenauswertemittel5 an den Eingängen5a beziehungsweise5b erhalten werden, zunächst daraufhin ausgewertet, ob die Bilder hinreichend lange belichtet beziehungsweise hell genug sind, ob der Weißabgleich korrekt vorgenommen wurde und ob die Bilder mit einem auf relevante Teile der Szene4 scharf gestellten Objektiv2a aufgenommen sind. Ist dies nicht der Fall, werden die entsprechenden Korrekturen vorgenommen. - Es wird dabei zum Beispiel das Objektiv
2a unter Bezugnahme auf eines der beiden Sensorfelder, vorliegend Sensorfeld3a , scharf gestellt, was auf Grund der beschriebenen Montage auch zu einem scharfen Bild auf dem Sensor3b führt. Es werden dann eventuell Weißabgleich und Belichtung beziehungsweise ISO-Wert (Verstärkung der erhaltenen Sensorsignale) eingestellt, und zwar bei beiden Sensorfeldern auf identische Weise, das heißt auf gleiche Werte. Dazu wird der Mittelwert der an beiden Sensoren erforderlichen Einstellungen verwendet. - Es sei im übrigen darauf hingewiesen, dass gegebenenfalls falls Kalibrierkurven für beide Sensoren hinterlegt sein können und eine Einstellung an einem jeweiligen Sensorfeld unter Rückgriff auf derartige Kalibrierkurven vorgenommen wird.
- Es werden dann weitere Bilder aufgenommen, um einen Videostrom zu erzeugen, der gegebenenfalls auch aufgezeichnet oder an eine Zentrale übertragen werden kann. Die nach Einstellung scharfen und korrekt belichteten Bilder beider Sensoren können dann unter Bezugnahme auf die mit nur zwei Polarisationsrichtungen linearer Polarisierung aufgenommenen Bilddaten auf Wasserflächen mit per se bekannten Algorithmen untersucht werden. Es zeigt sich, dass durch die gute Übereinstimmung der Bilddaten beider Sensoren auch bei nicht exakt orthogonaler Polarisation, das heißt nicht vollständigem Polarisationsgrad, gute Detektionsergebnisse für Wasserflächen erhalten werden.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 19932551 [0005]
- DE 102007061385 A1 [0006]
- DE 60320281 [0007]
- US 6598245 B2 [0008]
- EP 1704766 B1 [0009]
- EP 1176487 [0010]
- DE 102007023157 A1 [0011]
- DE 102007023156 A1 [0012]
- DE 102007015552 [0013]
- DE 102006041485 A1 [0014]
- DE 19929964 A1 [0015]
- DE 19856510 C2 [0016]
- DE 19757840 C1 [0017]
- DE 19736138 [0018]
- DE 19614916 A1 [0019]
- DE 10327223 [0020]
- DE 4338307 C1 [0021]
- DE 102008003948 A1 [0022]
- DE 102008003947 A1 [0023]
- Zitierte Nicht-Patentliteratur
-
- PROCEEDINGS OF THE 2006 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, Orlando, Florida, Mai 2006, K. SHIMIZU und S. HIRAI, „CMOS PLUS FPGA – A VISION SYSTEM FOR VISUAL FEEDBACK OF MECHANICAL SYSTEMS” [0024]
- „POLARIZATION-BASED WATER HAZARDS DETECTION FOR AUTONOMOUS OFF-ROAD NAVIGATION” von BIN XIE et al, PROCEEDINGS OF THE 2007 IEEE International Conference an Electronics and Automation, August 5–8 2007, Harbin, China [0026]
- „POLARIZATION-BASED MATERIAL CLASSIFICATION FROM SPECULAR REFLECTION” von L. B. WOLFF in IEEE Transactions an Pattern Analysis and Machine Intelligence, Band 12, Nr. 11, November 1990 [0027]
- „APPLICATIONS OF POLARRATION CAMERA TECHNOLOGY” von L. B. WOLFF, IEEE Expert, October 1995, Seiten 30–38 [0028]
- „DETECTION OF SMALL WATER BODIES” von Alok SARWAL, Jeremy NETT, David SIMON [0029]
- „DAYTIME AND WATER DETECTION BY FUSING MULTIPLE QUEUES FOR AUTONOMOUS OFF-ROAD NAVIGATION” von A. L. RANKIN et al [0030]
Claims (9)
- Wasserflächendetektor mit einem Bilddatengeneriermittel, aufweisend mehrere Gruppen von Sensorelementen zur Generierung von Szene-Bilddaten, die in einem Bilddatenauswertemittel zur wasserflächenindikativen Auswertung verarbeitbar sind, dadurch gekennzeichnet, dass nur eine erste und eine zweite Gruppe von Sensorelementen vorgesehen und zur Generierung von Bildern derselben Szene mit unterschiedlichen Polarisationen ausgebildet ist.
- Wasserflächendetektor nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass Bilder mit zwei allgemein orthogonal aufeinander stehenden Polarisierungen aufgenommen werden, insbesondere mit zwei linearen Polarisierungen oder mit zwei zirkularen Polarisierungen.
- Wasserflächendetektor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die beiden Gruppen von Sensoren mit zwei separaten Sensorfeldern, insbesondere CMOS- oder CCD-Sensorfeldern gebildet sind.
- Wasserflächendetektor nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass die beiden Sensorfelder wenigstens eine im Lichtweg zur Szene liegende Linse gemeinsam verwenden, insbesondere mindestens eine Linse, mit welcher eine Scharfstellung erfolgt, wobei insbesondere eine Regelung vorgesehen ist, mit welcher eine mittlere Schärfe auf beiden Sensoren zur Scharfstellung bestimmt wird und/oder welche eine Master-Slave-Scharfstellung vorgesehen ist und/oder wobei insbesondere für beide Sensorfelder lediglich ein Objektiv vorgesehen ist, das von den Sensorfeldern geteilt wird.
- Wasserflächendetektor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zwischen der gemeinsamen Linse und den beiden Gruppen von Sensorelementen ein polarisierender Strahlteiler vorgesehen ist.
- Wasserflächendetektor mit einer Steuerung für die beiden Sensorelementgruppen, die dazu ausgebildet ist, die Szene-Bilddaten beider Gruppen von Sensorelementen zu synchronisieren, insbesondere die Bilddatenaufnahme für einen Frame synchron zu starten und/oder zumindest eine, bevorzugt mehrere, insbesondere bevorzugt alle Elemente aus der Gruppe Weißabgleich, Sensorempfindlichkeit (ISO-Wert), vorzugsweise elektronisch bestimmte Belichtungsdauer für beide Gruppen von Sensorelementen in gleicher Weise zu bestimmen, bevorzugt identisch festzulegen und/oder unter Berücksichtigung von Kalibrierwerten aneinander angepasst festzulegen, insbesondere durch Mittelung und/oder Verwendung der ersten Gruppe von Sensorelementen als Master und der zweiten Gruppe von Sensorelement als Slave.
- Passiver Wasserflächendetektor für autonome Systeme mit einem Wasserflächendetektor nach einem der vorhergehenden Ansprüche.
- Autonomes System mit einem passiven Wasserflächendetektor.
- Verfahren zur Wasserflächendetektion, dadurch gekennzeichnet, dass Licht einer Szene nach Durchtritt durch eine Linse an einem polarisierenden Strahlteiler aufgespalten und auf unterschiedliche Sensorgruppen eingestrahlt wird, und mit den Sensorgruppen synchron Bilder aufgenommen werden, die zur Wasserflächendetektion gemeinsam verarbeitet werden.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201010020537 DE102010020537A1 (de) | 2010-05-14 | 2010-05-14 | Wasserdetektor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201010020537 DE102010020537A1 (de) | 2010-05-14 | 2010-05-14 | Wasserdetektor |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102010020537A1 true DE102010020537A1 (de) | 2011-11-17 |
Family
ID=44859632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE201010020537 Withdrawn DE102010020537A1 (de) | 2010-05-14 | 2010-05-14 | Wasserdetektor |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102010020537A1 (de) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014205204B3 (de) * | 2014-03-20 | 2015-05-13 | Conti Temic Microelectronic Gmbh | Kamerabasiertes Fahrerassistenzsystem zur Detektion des Zustandes einer Fahrbahnoberfläche |
WO2016098040A1 (en) * | 2014-12-17 | 2016-06-23 | Husqvarna Ab | Robotic vehicle with automatic camera calibration capability |
US9867331B1 (en) | 2014-10-28 | 2018-01-16 | Hydro-Gear Limited Partnership | Utility vehicle with onboard and remote control systems |
US10058031B1 (en) | 2015-02-28 | 2018-08-28 | Hydro-Gear Limited Partnership | Lawn tractor with electronic drive and control system |
US10629005B1 (en) | 2014-10-20 | 2020-04-21 | Hydro-Gear Limited Partnership | Interactive sensor, communications, and control system for a utility vehicle |
CN111310651A (zh) * | 2020-02-13 | 2020-06-19 | 杭州凌像科技有限公司 | 一种基于偏振相机和rgb-d传感器的水面检测方法 |
Citations (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4300896C1 (de) * | 1993-01-15 | 1994-04-21 | Holger Dipl Ing Oldenettel | Verfahren und Vorrichtung zur Ermittlung des Fahrbahnoberflächenzustandes |
DE4338307C1 (de) | 1993-11-10 | 1995-05-18 | Mierswa Klaus Dipl Ing | Verfahren zur optischen Detektion von Objekten oder Objektströmen, deren Oberflächen Licht zu reflektieren oder zu streuen imstande sind, die selbstaffine oder selbstähnliche oder fraktale Muster oder Strukturen aufweisen |
DE19614916A1 (de) | 1996-04-16 | 1997-11-06 | Detlef Raupach | Fahrroboter für die automatische Behandlung von Bodenflächen |
JPH10115684A (ja) * | 1996-10-15 | 1998-05-06 | Nagoya Denki Kogyo Kk | 路面状態判別方法およびその装置 |
DE19736138A1 (de) | 1997-08-20 | 1999-04-08 | Daimler Chrysler Ag | Verfahren zur Bestimmung des Zustandes einer Fahrbahnoberfläche |
DE19757840C1 (de) | 1997-12-24 | 1999-09-30 | Johann F Hipp | Vorrichtung zur optischen Erfassung und Abstandermittlung von Objekten von einem Fahrzeug aus |
DE19929964A1 (de) | 1999-06-29 | 2001-01-04 | Valeo Auto Electric Gmbh | Einrichtung und Verfahren zur Erfassung von Medien wie Wasser, Beschlag, Schmutz und dergleichen auf einer Scheibe eines Fahrzeuges |
EP1176487A1 (de) | 2000-07-27 | 2002-01-30 | Gmd - Forschungszentrum Informationstechnik Gmbh | Autonom navigierendes Robotersystem |
DE19856510C2 (de) | 1998-02-20 | 2002-10-24 | Cegelec Anlagen Und Automatisi | Verfahren und System zur Ermittlung von Unebenheiten und Schadstellen in der Oberfläche einer Verkehrsfläche |
US6598245B2 (en) | 2001-01-19 | 2003-07-29 | San-Ei Faucet Mfg. Co., Ltd | Automatic water feed method in lavatory and automatic water feed mechanism in lavatory |
DE10327223A1 (de) | 2003-06-17 | 2005-01-05 | Gunter Arnold | Selbstfahrender Rasenmäher mit Grasdetektor |
DE602004009422D1 (de) * | 2003-03-14 | 2007-11-22 | Liwas Aps | Einrichtung zur detektion eines strassenoberflächenzustands |
DE102006041485A1 (de) | 2006-09-02 | 2008-03-13 | Inmach Intelligente Maschinen Gmbh | Baukasten zum Aufbau einer Infrastruktur für eine Steuerung eines Flächenbearbeitungsgeräts |
DE102008003948A1 (de) | 2007-01-11 | 2008-07-17 | Denso Corp., Kariya | Vorrichtung zum Bestimmen des Vorhandenseins von Nebel unter Verwendung einer Abbildung, die durch eine in ein Fahrzeug eingebaute Abbildungsvorrichtung erzielt wird |
DE102008003947A1 (de) | 2007-01-11 | 2008-07-24 | Denso Corp., Kariya | Vorrichtung zum Bestimmen des Vorhandenseins von Nebel unter Verwendung einer Abbildung, die durch eine in ein Fahrzeug eingebaute Abbildungsvorrichtung erzielt wird |
DE102007015552B3 (de) | 2007-03-29 | 2008-08-07 | Miele & Cie. Kg | Selbstfahrender Roboter zur Behandlung von Bodenflächen |
DE102007023157A1 (de) | 2007-05-16 | 2008-11-20 | Robert Bosch Gmbh | Roboter-Fahrzeug mit Antriebsmitteln sowie Verfahren zum Ansteuern von Antriebsmitteln |
DE102007023156A1 (de) | 2007-05-16 | 2008-11-20 | Robert Bosch Gmbh | Zum selbstständigen Betrieb ausgebildetes Roboterfahrzeug |
EP1704766B1 (de) | 2005-03-23 | 2008-12-24 | Wolf-Garten GmbH & Co. KG | Verfahren zur Bodenflächenanalyse und Rasenpflege-Roboter zur Durchführung des Verfahrens |
DE60320281T2 (de) | 2002-10-10 | 2009-05-14 | Ulf Elman | Einrichtung, verfahren und system zur bestimmung des strassenoberflächenzustands |
DE102007061385A1 (de) | 2007-12-19 | 2009-06-25 | Robert Bosch Gmbh | Vorrichtung zur Landschaftspflege |
-
2010
- 2010-05-14 DE DE201010020537 patent/DE102010020537A1/de not_active Withdrawn
Patent Citations (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4300896C1 (de) * | 1993-01-15 | 1994-04-21 | Holger Dipl Ing Oldenettel | Verfahren und Vorrichtung zur Ermittlung des Fahrbahnoberflächenzustandes |
DE4338307C1 (de) | 1993-11-10 | 1995-05-18 | Mierswa Klaus Dipl Ing | Verfahren zur optischen Detektion von Objekten oder Objektströmen, deren Oberflächen Licht zu reflektieren oder zu streuen imstande sind, die selbstaffine oder selbstähnliche oder fraktale Muster oder Strukturen aufweisen |
DE19614916A1 (de) | 1996-04-16 | 1997-11-06 | Detlef Raupach | Fahrroboter für die automatische Behandlung von Bodenflächen |
JPH10115684A (ja) * | 1996-10-15 | 1998-05-06 | Nagoya Denki Kogyo Kk | 路面状態判別方法およびその装置 |
DE19736138A1 (de) | 1997-08-20 | 1999-04-08 | Daimler Chrysler Ag | Verfahren zur Bestimmung des Zustandes einer Fahrbahnoberfläche |
DE19757840C1 (de) | 1997-12-24 | 1999-09-30 | Johann F Hipp | Vorrichtung zur optischen Erfassung und Abstandermittlung von Objekten von einem Fahrzeug aus |
DE19856510C2 (de) | 1998-02-20 | 2002-10-24 | Cegelec Anlagen Und Automatisi | Verfahren und System zur Ermittlung von Unebenheiten und Schadstellen in der Oberfläche einer Verkehrsfläche |
DE19929964A1 (de) | 1999-06-29 | 2001-01-04 | Valeo Auto Electric Gmbh | Einrichtung und Verfahren zur Erfassung von Medien wie Wasser, Beschlag, Schmutz und dergleichen auf einer Scheibe eines Fahrzeuges |
EP1176487A1 (de) | 2000-07-27 | 2002-01-30 | Gmd - Forschungszentrum Informationstechnik Gmbh | Autonom navigierendes Robotersystem |
US6598245B2 (en) | 2001-01-19 | 2003-07-29 | San-Ei Faucet Mfg. Co., Ltd | Automatic water feed method in lavatory and automatic water feed mechanism in lavatory |
DE60320281T2 (de) | 2002-10-10 | 2009-05-14 | Ulf Elman | Einrichtung, verfahren und system zur bestimmung des strassenoberflächenzustands |
DE602004009422D1 (de) * | 2003-03-14 | 2007-11-22 | Liwas Aps | Einrichtung zur detektion eines strassenoberflächenzustands |
DE10327223A1 (de) | 2003-06-17 | 2005-01-05 | Gunter Arnold | Selbstfahrender Rasenmäher mit Grasdetektor |
EP1704766B1 (de) | 2005-03-23 | 2008-12-24 | Wolf-Garten GmbH & Co. KG | Verfahren zur Bodenflächenanalyse und Rasenpflege-Roboter zur Durchführung des Verfahrens |
DE102006041485A1 (de) | 2006-09-02 | 2008-03-13 | Inmach Intelligente Maschinen Gmbh | Baukasten zum Aufbau einer Infrastruktur für eine Steuerung eines Flächenbearbeitungsgeräts |
DE102008003948A1 (de) | 2007-01-11 | 2008-07-17 | Denso Corp., Kariya | Vorrichtung zum Bestimmen des Vorhandenseins von Nebel unter Verwendung einer Abbildung, die durch eine in ein Fahrzeug eingebaute Abbildungsvorrichtung erzielt wird |
DE102008003947A1 (de) | 2007-01-11 | 2008-07-24 | Denso Corp., Kariya | Vorrichtung zum Bestimmen des Vorhandenseins von Nebel unter Verwendung einer Abbildung, die durch eine in ein Fahrzeug eingebaute Abbildungsvorrichtung erzielt wird |
DE102007015552B3 (de) | 2007-03-29 | 2008-08-07 | Miele & Cie. Kg | Selbstfahrender Roboter zur Behandlung von Bodenflächen |
DE102007023157A1 (de) | 2007-05-16 | 2008-11-20 | Robert Bosch Gmbh | Roboter-Fahrzeug mit Antriebsmitteln sowie Verfahren zum Ansteuern von Antriebsmitteln |
DE102007023156A1 (de) | 2007-05-16 | 2008-11-20 | Robert Bosch Gmbh | Zum selbstständigen Betrieb ausgebildetes Roboterfahrzeug |
DE102007061385A1 (de) | 2007-12-19 | 2009-06-25 | Robert Bosch Gmbh | Vorrichtung zur Landschaftspflege |
Non-Patent Citations (8)
Title |
---|
"APPLICATIONS OF POLARRATION CAMERA TECHNOLOGY" von L. B. WOLFF, IEEE Expert, October 1995, Seiten 30-38 |
"DAYTIME AND WATER DETECTION BY FUSING MULTIPLE QUEUES FOR AUTONOMOUS OFF-ROAD NAVIGATION" von A. L. RANKIN et al |
"DETECTION OF SMALL WATER BODIES" von Alok SARWAL, Jeremy NETT, David SIMON |
"POLARIZATION-BASED MATERIAL CLASSIFICATION FROM SPECULAR REFLECTION" von L. B. WOLFF in IEEE Transactions an Pattern Analysis and Machine Intelligence, Band 12, Nr. 11, November 1990 |
"POLARIZATION-BASED WATER HAZARDS DETECTION FOR AUTONOMOUS OFF-ROAD NAVIGATION" von BIN XIE et al, PROCEEDINGS OF THE 2007 IEEE International Conference an Electronics and Automation, August 5-8 2007, Harbin, China |
PROCEEDINGS OF THE 2006 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, Orlando, Florida, Mai 2006, K. SHIMIZU und S. HIRAI, "CMOS PLUS FPGA - A VISION SYSTEM FOR VISUAL FEEDBACK OF MECHANICAL SYSTEMS" |
Rankin, Arturo L; Matthies, Larry H.; Huertas, Andres: Daytime water detection by fusing multiple cues for autonomous off-road navigation. Jet Propulsion Labratory, Pasadena, CA; 2004 * |
Sarwal, Alok; Nett, Jeremy; Simon, David: Detection of small water-bodies. PercepTek Robotics 12395 N. Mead Way Littleton, CO 80125; 2004 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014205204B3 (de) * | 2014-03-20 | 2015-05-13 | Conti Temic Microelectronic Gmbh | Kamerabasiertes Fahrerassistenzsystem zur Detektion des Zustandes einer Fahrbahnoberfläche |
US10629005B1 (en) | 2014-10-20 | 2020-04-21 | Hydro-Gear Limited Partnership | Interactive sensor, communications, and control system for a utility vehicle |
US11127228B1 (en) | 2014-10-20 | 2021-09-21 | Hydro-Gear Limited Partnership | Interactive sensor, communications, and control system for a utility vehicle |
US9867331B1 (en) | 2014-10-28 | 2018-01-16 | Hydro-Gear Limited Partnership | Utility vehicle with onboard and remote control systems |
WO2016098040A1 (en) * | 2014-12-17 | 2016-06-23 | Husqvarna Ab | Robotic vehicle with automatic camera calibration capability |
US10058031B1 (en) | 2015-02-28 | 2018-08-28 | Hydro-Gear Limited Partnership | Lawn tractor with electronic drive and control system |
CN111310651A (zh) * | 2020-02-13 | 2020-06-19 | 杭州凌像科技有限公司 | 一种基于偏振相机和rgb-d传感器的水面检测方法 |
CN111310651B (zh) * | 2020-02-13 | 2023-05-02 | 杭州凌像科技有限公司 | 一种基于偏振相机和rgb-d传感器的水面检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112007003673B4 (de) | Vermessungsvorrichtung zum Verfolgen und Vermessen eines Objekts | |
DE102013227101B3 (de) | Optisches System zur Nachverfolgung eines Ziels | |
DE112012004255T5 (de) | Räumlich selektive Erkennung unter Verwendung einer dynamischen Maske in einer Bildebene | |
EP2005112B1 (de) | Vorrichtung und Verfahren zum dreidimensionalen Erfassen eines Raumbereichs | |
AT509180B1 (de) | Optoelektronisches messsystem | |
DE602004005012T2 (de) | Detektionsvorrichtung | |
DE102011010334B4 (de) | Kamerasystem und Verfahren zur Beobachtung von Objekten in großer Entfernung, insbesondere zur Überwachung von Zielobjekten bei Nacht, Dunst, Staub oder Regen | |
WO2013116880A1 (de) | Vorrichtung zum erfassen der dreidimensionalen geometrie von objekten und verfahren zum betreiben derselben | |
DE102014019671B4 (de) | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels 2D-Kamera | |
DE102010020537A1 (de) | Wasserdetektor | |
EP2433837A1 (de) | Optisches Instrument und Verfahren zur optischen Überwachung der Umgebung sich langsam bewegender Fahrzeuge | |
DE112010000019T5 (de) | Verfahren zum optischen Abtasten und Vermessen einer Umgebung | |
CH700023B1 (de) | Scan-Einrichtung. | |
DE102013100192A1 (de) | Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter | |
DE112012004055T5 (de) | Bildaufnahmevorrichtung | |
DE19603267A1 (de) | Vorrichtung zur Abstands- und/oder Positionsbestimmung | |
DE112012007096T5 (de) | Trackereinheit und Verfahren in einer Trackereinheit | |
DE102016115277A1 (de) | Optische Vorrichtung | |
EP1248120B1 (de) | Dual-Mode Suchkopf | |
DE102017100885B4 (de) | Verfahren und vorrichtung zum erzeugen und projizieren eines 3d-thermogramms samt daten zu den aufnahmebedingungen | |
DE102015106837B4 (de) | Verfahren zur Steuerung einer 3D-Messvorrichtung mittels Gesten und Vorrichtung hierzu | |
DE102017117212A1 (de) | System und Verfahren zur Stereotriangulation | |
DE102014019669B4 (de) | 16Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mit vorgegebenen Bedingungen | |
DE60110341T2 (de) | Anordnung und Verfahren zur Entfernungsmessung | |
DE102018218475B4 (de) | Trackingsystem und optisches Messsystem zur Bestimmung mindestens einer räumlichen Position und Orientierung mindestens eines Messobjekts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R082 | Change of representative |
Representative=s name: CLAUS PETER PIETRUK, DE |
|
R081 | Change of applicant/patentee |
Owner name: ROBOT MAKERS GMBH, DE Free format text: FORMER OWNER: H&S ROBOTIC SOLUTIONS GBR (VERTRETUNGSBERECHTIGTER GESELLSCHAFTER: BERND-HELGE SCHAEFER, 67661 KAISERSLAUTERN), 67661 KAISERSLAUTERN, DE Effective date: 20120919 |
|
R082 | Change of representative |
Representative=s name: CLAUS PETER PIETRUK, DE Effective date: 20120919 Representative=s name: VOSSIUS & PARTNER, DE Effective date: 20120919 Representative=s name: VOSSIUS & PARTNER PATENTANWAELTE RECHTSANWAELT, DE Effective date: 20120919 |
|
R082 | Change of representative |
Representative=s name: VOSSIUS & PARTNER, DE Representative=s name: VOSSIUS & PARTNER PATENTANWAELTE RECHTSANWAELT, DE |
|
R082 | Change of representative |
Representative=s name: VOSSIUS & PARTNER PATENTANWAELTE RECHTSANWAELT, DE |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |