DE202014100346U1 - Mobiler Roboter - Google Patents

Mobiler Roboter Download PDF

Info

Publication number
DE202014100346U1
DE202014100346U1 DE202014100346.0U DE202014100346U DE202014100346U1 DE 202014100346 U1 DE202014100346 U1 DE 202014100346U1 DE 202014100346 U DE202014100346 U DE 202014100346U DE 202014100346 U1 DE202014100346 U1 DE 202014100346U1
Authority
DE
Germany
Prior art keywords
mobile robot
beams
processing unit
unit
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202014100346.0U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MSI Computer Shenzhen Co Ltd
Original Assignee
MSI Computer Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MSI Computer Shenzhen Co Ltd filed Critical MSI Computer Shenzhen Co Ltd
Publication of DE202014100346U1 publication Critical patent/DE202014100346U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

Mobiler Roboter mit: einer Lichtemissionseinheit, die einen Hauptstrahl emittiert; einer Verarbeitungseinheit, die den Hauptstrahl in mehrere Teilstrahlen ablenkt, wobei die Teilstrahlen ein einen Bereich abdeckendes Lichtmuster bilden, und wobei, wenn ein Teil der Teilstrahlen auf ein erstes Objekt auftrifft, das erste Objekt die Teilstrahlen reflektiert und mehrere reflektierte Strahlen erzeugt werden; einer optischen Komponente, die die reflektierten Strahlen zu einem ersten gebündelten Strahl bündelt; einer Bilderfassungseinheit, die den ersten gebündelten Strahl in ein erstes Erfassungsergebnis umwandelt; einer Steuereinheit, die gemäß dem ersten Erfassungsergebnis Tiefeninformation berechnet; und einer Antriebseinheit zum Antreiben des mobilen Roboters, wobei die Steuereinheit gemäß der Tiefeninformation eine relevante Verhaltenssteuerung des mobilen Roboters aktiviert und den mobilen Roboter durch die Antriebseinheit steuert.

Description

  • Querverweis zu verwandten Anmeldungen
  • Die vorliegende Anmeldung beansprucht die Priorität der am 26. April 2013 eingereichten chinesischen Patentanmeldung Nr. 2013 10159582.9 , die hierin in ihrer Gesamtheit durch Bezugnahme aufgenommen ist.
  • Hintergrund der Erfindung
  • Erfindungsgebiet
  • Die vorliegende Erfindung betrifft einen mobilen Roboter und insbesondere einen mobilen Roboter, der dazu geeignet ist, die Tiefe eines Feldes schnell und effektiv zu messen.
  • Beschreibung der verwandten Technik
  • Wenn ein mobiler Roboter sich in einer unbekannten Umgebung bewegt, muss der mobile Roboter durch Sensoren erzeugte Erfassungsergebnisse empfangen. Wenn die Erfassungsergebnisse unzulänglich sind, kann die Bewegung des mobilen Roboters unerwartete negative Auswirkungen haben.
  • Kurzbeschreibung der Erfindung
  • Es wird ein mobiler Roboter mit einer Lichtemissionseinheit, einer Verarbeitungseinheit, einer optischen Komponente, einer Bilderfassungseinheit, einer Steuereinheit und einer Antriebseinheit bereitgestellt. Die Lichtemissionseinheit emittiert einen Hauptstrahl. Die Verarbeitungseinheit lenkt den Hauptstrahl in mehrere Teilstrahlen ab. Die Teilstrahlen bilden ein einen Bereich abdeckendes Lichtmuster. Wenn ein Teil der Teilstrahlen auf ein erstes Objekt auftrifft, werden mehrere reflektierte Strahlen vom ersten Objekt reflektiert. Die optische Komponente bündelt die reflektierten Strahlen zu einem ersten gebündelten Strahl. Die Bilderfassungseinheit wandelt den ersten gebündelten Strahl in ein erstes Erfassungsergebnis um. Die Steuereinheit berechnet Tiefeninformation gemäß dem ersten Erfassungsergebnis. Die Steuereinheit bestimmt gemäß der Tiefeninformation eine relevante Verhaltenssteuerung des mobilen Roboters und steuert den mobilen Roboter durch die Antriebseinheit. Die Antriebseinheit bewegt den mobilen Roboter.
  • Nachstehend werden Ausführungsformen unter Bezug auf die beigefügten Zeichnungen näher beschrieben.
  • Kurze Beschreibung der Zeichnungen
  • Die Erfindung wird unter Bezug auf die folgende ausführliche Beschreibung und Beispiele unter Bezug auf die beigefügten Zeichnungen verdeutlicht; es zeigen:
  • 1A ein schematisches Diagramm einer exemplarischen Ausführungsform eines erfindungsgemäßen mobilen Roboters;
  • 1B ein schematisches Diagramm einer anderen exemplarischen Ausführungsform eines erfindungsgemäßen mobilen Roboters;
  • 2A2C Vorderansichten exemplarischer Ausführungsformen eines erfindungsgemäßen mobilen Roboters;
  • 3 eine Seitenansicht einer exemplarischen Ausführungsform eines erfindungsgemäßen mobilen Roboters;
  • 4 ein schematisches Diagramm einer exemplarischen Ausführungsform einer erfindungsgemäßen Verarbeitungseinheit; und
  • 5 ein schematisches Diagramm einer anderen exemplarischen Ausführungsform einer erfindungsgemäßen Verarbeitungseinheit.
  • Ausführliche Beschreibung der Erfindung
  • In der folgenden Beschreibung wird die als am besten erachtete Technik zum Implementieren der Erfindung betrachtet. Die Beschreibung dient zum Erläutern der allgemeinen Prinzipien der Erfindung und sollte nicht in einem einschränkenden Sinn verstanden werden. Der Umfang der Erfindung lässt sich am Besten unter Bezug auf die beigefügten Patentansprüche definieren.
  • 1A zeigt ein schematisches Diagramm einer exemplarischen Ausführungsform eines erfindungsgemäßen mobilen Roboters. Der mobile Roboter 100 weist eine Lichtemissionseinheit 101, eine Verarbeitungseinheit 102, eine optische Komponente 103, eine Bilderfassungseinheit 104, eine Steuereinheit 105 und eine Antriebseinheit 106 auf. In der vorliegenden Ausführungsform emittiert der mobile Roboter 100 einen einem Linienlaserstrahl ähnlichen Strahl, erfasst eine Umgebung umfassend, um Tiefeninformation zu erhalten, und aktiviert die relevante Verhaltenssteuerung des mobilen Roboters gemäß der Tiefeninformation.
  • Die Lichtemissionseinheit 101 emittiert einen Hauptstrahl LM. Die Erfindung schränkt die Art des Hauptstrahls nicht ein. In einer Ausführungsform ist der Hauptstrahl LM sichtbar oder unsichtbar. Außerdem schränkt die Erfindung die Schaltungsstruktur der Lichtemissionseinheit 101 nicht ein. Eine Schaltungsstruktur kann als die Lichtemissionseinheit 101 dienen, wenn die Schaltungsstruktur dazu geeignet ist, einen Strahl zu emittieren. In einer Ausführungsform weist die Lichtemissionseinheit 101 einen Laseremitter (nicht dargestellt) zum Emittieren eines Laserstrahls auf.
  • Die Verarbeitungseinheit 102 lenkt den Hauptstrahl LM in mehrere Teilstrahlen ab. Zur Verdeutlichung sind in 1A nur Teilstrahlen LS1–LS5 dargestellt. In der vorliegenden Ausführungsform sind die Teilstrahlen LS1–LS5 kontinuierlicher Art und bilden ein Lichtmuster 110, die Erfindung ist aber nicht darauf beschränkt. In anderen Ausführungsformen sind die Teilstrahlen diskreter Art. Die Details diskreter Teilstrahlen werden unter Bezug auf 2B näher beschrieben. Das Lichtmuster 110 deckt einen Bereich ab. Die Erfindung schränkt die Folge der abgelenkten Teilstrahlen LS1–LS5 nicht ein. In einer Ausführungsform werden die Teilstrahlen LS1–LS5 durch die Verarbeitungseinheit 102 nacheinander abgelenkt. In einer anderen Ausführungsform werden die Teilstrahlen LS1–LS5 durch die Verarbeitungseinheit 102 gleichzeitig abgelenkt. In anderen Ausführungsformen ist das Lichtmuster 110 linienähnlich. Wenn ein Teil der Teilstrahlen LS1–LS5 auf ein Objekt auftrifft, reflektiert das Objekt den Teil der Teilstrahlen LS1–LS5, und es werden reflektierte Teilstrahlen LR1–LR4 erzeugt. Die Erfindung schränkt die Struktur der Verarbeitungseinheit 102 nicht ein. Eine Hardwarestruktur kann als die Verarbeitungseinheit 102 dienen, wenn die Hardwarestruktur in der Lage ist, einen Hauptstrahl in mehrere Teilstrahlen abzulenken.
  • Die optische Komponente 103 empfängt den reflektierten Strahl und bündelt ihn zu einem gebündelten Strahl SDT1. Zur Verdeutlichung sind in 1A nur die reflektierten Strahlen LR1–LR4 dargestellt. Die reflektierten Strahlen LR1–LR4 kommen von verschiedenen Richtungen. In der vorliegenden Ausführungsform kann die optische Komponente 103 reflektierte Strahlen von der Umgebung über 360° umfassend empfangen. Die Erfindung schränkt die Art der optischen Komponente 103 nicht ein. In einer Ausführungsform ist die optische Komponente 103 ein Spiegel zum Reflektieren von Umgebungsstrahlen. In einer anderen Ausführungsform ist die optische Komponente eine omnidirektionale Linse.
  • Die Bilderfassungseinheit 104 ist mit der optischen Komponente 103 verbunden und wandelt den gebündelten Strahl SDT1 in ein Erfassungsergebnis IFM1 um. Die Erfindung schränkt nicht ein, wie die Bilderfassungseinheit 104 den gebündelten Strahl SDT1 erfasst. In einer Ausführungsform verwendet die Bilderfassungseinheit 104 ein ladungsgekoppeltes Bauelement (CCD) oder einen komplementären Metalloxidhalbleiter (CMOS) zum Erfassen des gebündelten Strahls SDT1. Außerdem schränkt die Erfindung die Art der Bilderfassungseinheit 104 nicht ein. In einer Ausführungsform ist die Bilderfassungseinheit 104 eine Kamera.
  • Die Steuereinheit 105 ist mit der Bilderfassungseinheit 104 verbunden und berechnet Tiefeninformation gemäß dem Erfassungsergebnis IFM1. Die Steuereinheit 105 erzeugt ein Steuersignal SC1 gemäß der Tiefeninformation. Die Steuereinheit 105 überträgt das Steuersignal SC1 an die Antriebseinheit 106 und verwendet die Antriebseinheit 106 zum Steuern der relevanten Verhaltenssteuerung des mobilen Roboters 100, z.B. des Fahrtweges des mobilen Roboters 100. In einer Ausführungsform ist die Antriebseinheit 106 mit der Steuereinheit 105 verbunden und weist mehrere Räder (nicht dargestellt) und ein Antriebselement (nicht dargestellt) auf. Das Antriebselement der Antriebseinheit 106 steuert die Drehrichtung der Räder gemäß dem Steuersignal SC1, so dass eine relevante Verhaltenssteuerung des mobilen Roboters 100 eingestellt werden kann.
  • In einer Ausführungsform weist die Steuereinheit 105 mindestens eine vordefinierte relevante Verhaltenssteuerung auf. Die Steuereinheit 105 wählt eine vordefinierte relevante Verhaltenssteuerung unter den vordefinierten relevanten Verhaltenssteuerungen gemäß der Tiefeninformation oder gemäß einem kombinierten Ergebnis aus den letzten in der Steuereinheit 105 gespeicherten Tiefeninformationen aus, wobei die ausgewählte relevante Verhaltenssteuerung als die relevante Verhaltenssteuerung des mobilen Roboters 100 dient. Mindestens eine der vordefinierten Verhaltenssteuerungen ist derart vordefiniert, dass der mobile Roboter 100 derart aktiviert wird, dass er sich entlang einer geraden Linie oder eines Hindernisses bewegt, sich zufällig bewegt, sich um eine Stelle dreht, sich spiralförmig dreht, sich bewegt und dreht, die Geschwindigkeit erhöht, die Geschwindigkeit vermindert, sich rückwärts bewegt oder stoppt.
  • In einer anderen Ausführungsform bestimmt die Steuereinheit 105 eine relevante Verhaltenssteuerung zufällig. Die Steuereinheit 105 bestimmt eine einzelne relevante Verhaltenssteuerung oder eine Kombination von verschiedenen relevanten Verhaltenssteuerungen gemäß den Erfassungsergebnissen, einem Gewicht und/oder einer Priorität der Sensoren. In diesem Fall ist die durch die Steuereinheit 105 bestimmte Verhaltenssteuerung keine vordefinierte Verhaltenssteuerung.
  • In einer anderen Ausführungsform aktiviert die Steuereinheit 105 eine entsprechende relevante Verhaltenssteuerung gemäß einem (nicht dargestellten) Steuerbefehl. In diesem Fall wird der Steuerbefehl durch einen Benutzer direkt oder indirekt gesetzt. In einer Ausführungsform berührt der Benutzer direkt eine Funktionstaste des mobilen Roboters 100, um die relevante Verhaltenssteuerung des mobilen Roboters 100 einzustellen. In einer anderen Ausführungsform verwendet der Benutzer ein berührungsloses Verfahren, z.B. eine Fernbedienung oder ein Programm, um die relevante Verhaltenssteuerung des mobilen Roboters 100 einzustellen.
  • In einigen Ausführungsformen ändert die durch die Steuereinheit 105 bestimmte relevante Verhaltenssteuerung die Position, die Richtung, den Rollwinkel, die Geschwindigkeit, die Winkelgeschwindigkeit, die Beschleunigung und die Beschleunigungswinkelgeschwindigkeit des mobilen Roboters 100. In anderen Ausführungsformen ändert die durch die Steuereinheit 105 bestimmte relevante Verhaltenssteuerung eine Beziehung zwischen dem mobilen Roboter 100 und mindestens einem umgebenden Objekt oder einen Elementzustand des mobilen Roboters 100.
  • In einer anderen Ausführungsform erzeugt und aktiviert die Steuereinheit 105 mindestens eine neue relevante Verhaltenssteuerung gemäß der Tiefeninformation. In diesem Fall ist die relevante Verhaltenssteuerung im mobilen Roboter 100 nicht vordefiniert. Beispielsweise verwendet die Steuereinheit 105 die Tiefeninformation, um einen kurzen Weg, einen sicheren Weg, einen verschmutzten Weg, einen hellen Weg oder einen dunklen Weg zu erhalten, woraufhin der mobile Roboter 100 dem erhaltenen Weg folgt. Der kurze Weg bedeutet, dass der mobile Roboter 100 einen Reinigungsvorgang gemäß der Tiefeninformation in der kürzesten Zeit oder gemäß einer Regel für einen minimalen Energieverbrauch abschließt. Der sichere Weg bedeutet, dass der mobile Roboter 100 den Reinigungsvorgang derart ausführt, dass er nicht mit irgendeinem Hindernis zusammenstößt. Der verschmutzte Weg wird durch viele verschmutzte Bereiche gebildet. Der helle Weg wird durch viele helle Bereiche gebildet. Der dunkle Weg wird durch viele dunkle Bereiche gebildet. In einer Ausführungsform weist der mobile Roboter 100 andere Sensoren zum Erfassen der Umgebung auf. Die Steuereinheit 105 ist dazu geeignet, neue relevante Verhaltenssteuerungssteuerungen gemäß den Erfassungsergebnissen bereitzustellen.
  • In anderen Ausführungsformen wandelt die Bilderfassungseinheit 104 den gebündelten Strahl SDT1 gemäß verschiedenen Brennweiten um, um verschiedene Erfassungskomponenten zu erzeugen. Die Erfassungskomponenten bilden das Erfassungsergebnis IFM1. In diesem Fall erhält die Steuereinheit 105 einen optimalen Weg gemäß einer optimalen Brennweite. Beispielsweise weist jedes Erfassungsergebnis mindestens eine einer optimalen Brennweite entsprechende optimale Erfassungskomponente auf. Die Steuereinheit 105 erhält den optimalen Weg gemäß den verschiedenen der optimalen Brennweite entsprechenden optimalen Erfassungskomponenten.
  • Die Erfindung schränkt die Schaltungsstruktur der Steuereinheit 105 nicht ein. In einer Ausführungsform weist die Steuereinheit 105 Mikrocontroller, Prozessoren, Speicher und Logikschaltungen auf. In einer anderen Ausführungsform erzeugt die Steuereinheit 105 ein anderes Steuersignal SC2 zum Ein- oder Ausschalten der Lichtemissionseinheit 101. Beispielsweise schaltet die Steuereinheit 105 die Lichtemissionseinheit 101 während einer ersten Periode aus.
  • Während dieser Zeit bündelt die optische Komponente 103 die reflektierten Strahlen in der Umgebung des mobilen Roboters 100. Die Bilderfassungseinheit 104 wandelt die durch die optische Komponente 103 gebündelten Lichtstrahlen in ein erstes Erfassungsergebnis um. Die Steuereinheit 105 speichert das erste Erfassungsergebnis. Während einer zweiten Periode schaltet die Steuereinheit 105 die Lichtemissionseinheit 101 ein. Während dieser Zeit lenkt die Verarbeitungseinheit 102 den Hauptstrahl LM in die Teilstrahlen LS1–LS5 ab. Wenn die Teilstrahlen LS1–LS5 auf ein Objekt auftreffen, reflektiert das Objekt die Teilstrahlen LS1–LS5, und es werden reflektierte Strahlen LR1–LR4 erzeugt. Die optische Komponente 103 empfängt die reflektierten Strahlen in der Umgebung des mobilen Roboters 100, wobei die reflektierten Strahlen in der Umgebung des mobilen Roboters die reflektierten Strahlen LR1–LR4 aufweisen. Die Bilderfassungseinheit 104 wandelt die durch die optische Komponente 103 empfangenen Strahlen in ein zweites Erfassungsergebnis um. Die Steuereinheit 105 vergleicht das erste Erfassungsergebnis mit dem zweiten Erfassungsergebnis, um die reflektierten Strahlen LR1–LR4 vom zweiten Erfassungsergebnis zu extrahieren, und berechnet die Abstände zwischen dem mobilen Roboter 100 und den umgebenden Objekten gemäß dem extrahierten Ergebnis. In diesem Fall schaltet die Steuereinheit 105 die Lichtemissionseinheit 101 geeignet ein oder aus und berechnet die Abstände zwischen dem mobilen Roboter 100 und den umgebenden Objekten gemäß zwei Erfassungsergebnissen. Um nur die reflektierten Strahlen LR1–LR4 vom zweiten Erfassungsergebnis zu extrahieren, ist es erforderlich, dass die Zeit zwischen der ersten Erfassung und der zweiten Erfassung kurz ist.
  • In einer Ausführungsform ist die optische Komponente 103 omnidirektional. D.h., der Erfassungswinkel der optischen Komponente 103 beträgt 360 Grad. Daher ist die optische Komponente 103 dazu geeignet, die reflektierten Strahlen in der Umgebung des mobilen Roboters 100 zu empfangen. Wenn der mobile Roboter 100 in einen schmalen Raum eintritt, stellt die Steuereinheit 105 die Drehrichtung der Räder gemäß dem durch die optische Komponente 103 empfangenen Ergebnis derart ein, dass der mobile Roboter 100 den schmalen Bereich schnell verlassen kann. Daher wird der mobile Roboter 100 nicht zu lange im schmalen Bereich stecken bleiben.
  • 1B zeigt ein schematisches Diagramm einer anderen exemplarischen Ausführungsform eines erfindungsgemäßen mobilen Roboters. 1B ist 1A ähnlich, außer dass eine Verarbeitungseinheit 108 hinzugefügt ist. In der vorliegenden Ausführungsform lenkt die Verarbeitungseinheit 108 den Hauptstrahl LM in mehrere Erfassungsstrahlen ab. Zur Verdeutlichung sind in 1B nur Erfassungsstrahlen LS6–LS10 dargestellt. Die Erfassungsstrahlen LS6–LS10 bilden ein einen Bereich abdeckendes Lichtmuster 102. Der Bereich wird durch die Erfassungsstrahlen LS6–LS10 abgedeckt.
  • Wenn ein Teil der Erfassungsstrahlen LS6–LS10 auf ein Objekt auftrifft, werden mehrere vom Boden reflektierte Strahlen LR5–LR8 erzeugt. Die optische Komponente 103 empfängt die vom Boden reflektierten Strahlen LR5–LR8 und bündelt sie zu einem gebündelten Strahl SDT2. Die Bilderfassungseinheit 104 wandelt den gebündelten Strahl SDT2 in ein Erfassungsergebnis IFM2 um. Die Steuereinheit 105 erzeugt das Steuersignal SC1 zum Einstellen der Drehrichtung der Räder gemäß dem Erfassungsergebnis IFM2.
  • In einer Ausführungsform stoppt, wenn die Verarbeitungseinheit 102 den Hauptstrahl LM in das Lichtmuster 110 ablenkt, die Verarbeitungseinheit 108 die Ablenkung des Hauptstrahls LM. Dann wird das Lichtmuster 120 nicht erzeugt. Infolgedessen werden nur die reflektierten Lichtstrahlen LR1–LR4 durch die optische Komponente 103 empfangen. In einer anderen Ausführungsform stoppt, wenn die Verarbeitungseinheit 108 den Hauptstrahl LM in das Lichtmuster 120 ablenkt, die Verarbeitungseinheit 102 die Ablenkung des Hauptstrahls LM. Dann wird das Lichtmuster 110 nicht gebildet. Infolgedessen werden nur die vom Boden reflektierten Strahlen LR5–LR8 durch die optische Komponente 103 empfangen. In anderen Ausführungsformen lenkt die Verarbeitungseinheit 102 den Hauptstrahl LM in das Lichtmuster 110 ab und lenkt die Verarbeitungseinheit 108 den Hauptstrahl LM gleichzeitig in das Lichtmuster 120 ab. Daher empfängt und bündelt die optische Komponente 103 die reflektierten Strahlen LR1–LR4 und die vom Boden reflektierten Strahlen LR5–LR8.
  • Die Erfindung schränkt die Abstrahlungsrichtungen der Lichtmuster 110 und 120 nicht ein. In einer Ausführungsform verlaufen die durch die Verarbeitungseinheit 102 abgelenkten Lichtmuster 110 im Wesentlichen parallel zu einer Grund- oder Bodenebene, um die Positionen von Objekten in der Umgebung des mobilen Roboters 100 zu erfassen. Die Verarbeitungseinheit 108 lenkt den Hauptstrahl LM in zum Boden hin gerichtete Erfassungsstrahlen LS6–LS10 zum Erfassen von Bodenzuständen ab, wie beispielsweise eines rauen oder eines unebenen Bodens. Der mobile Roboter 100 verwendet das von den reflektierten Strahlen LR1–LR4 umgewandelte Erfassungsergebnis, um eine Kollision mit Hindernissen zu vermeiden. Außerdem verwendet der mobile Roboter 100 das von den vom Boden reflektierten Strahlen LR5–LR8 umgewandelte Erfassungsergebnis, um zu verhindern, dass der Roboter herunterfällt.
  • Die Erfindung schränkt die Lichtmuster 110 und 120 nicht ein. In einer Ausführungsform sind die Lichtmuster 110 und 120 ebene oder gekrümmte Lichtmuster. Außerdem schränkt die Erfindung nicht ein, wie die Lichtmuster 110 und 120 abgelenkt werden. In der vorliegenden Ausführungsform lenken die Verarbeitungseinheiten 102 und 108 den durch die gleiche Lichtemissionseinheit 101 emittierten Hauptstrahl LM in die Lichtmuster 110 bzw. 120 ab. In anderen Ausführungsformen lenkt die Verarbeitungseinheit 102 einen Hauptstrahl in das Lichtmuster 110 ab und lenkt die Verarbeitungseinheit 108 einen anderen Hauptstrahl in das Lichtmuster 120 ab. In diesem Fall weist der mobile Roboter 100' zwei Lichtemissionseinheiten auf.
  • 2A zeigt eine Vorderansicht einer exemplarischen Ausführungsform eines erfindungsgemäßen mobilen Roboters. Wie in 2A dargestellt ist, emittiert der mobile Roboter 100 Teilstrahlen LS1–LS5. Die Teilstrahlen LS1–LS5 bilden ein Lichtmuster 110. Das Lichtmuster 110 hat Grenzen 201 und 202. Durch die Grenzen 201 und 202 wird ein Winkel 203 gebildet.
  • Die Erfindung schränkt das Maß des Winkels 203 nicht ein. In einer Ausführungsform beträgt der Winkel 203 180 Grad. In einer anderen Ausführungsform beträgt der Winkel 203 näherungsweise 360 Grad.
  • 2B zeigt eine andere Vorderansicht einer exemplarischen Ausführungsform eines erfindungsgemäßen mobilen Roboters. In dieser Ausführungsform emittiert der mobile Roboter 100 Teilstrahlen LS1–LS6. Wie in 2B dargestellt ist, werden die Teilstrahlen LS1–LS6 als diskrete Strahlen erzeugt. Die Teilstrahlen LS1 und LS2 bilden ein Lichtmuster 213. Die Teilstrahlen LS1 und LS2 bilden ein Lichtmuster 211. Die Teilstrahlen LS3 und LS4 bilden ein Lichtmuster 212. Die Teilstrahlen LS5 und LS6 bilden ein Lichtmuster 213. In der vorliegenden Ausführungsform erstrecken sich die Lichtmuster 211213 in verschiedene Richtungen. Die Lichtmuster 211213 berühren sich einander nicht. In einer Ausführungsform ist der durch das Lichtmuster 211 abgedeckte Bereich der gleiche wie der durch das Lichtmuster 211 abgedeckte Bereich. In einer anderen Ausführungsform ist der durch das Lichtmuster 211 abgedeckte Bereich von dem durch das Lichtmuster 211 abgedeckten Bereich verschieden.
  • 2C zeigt eine andere Vorderansicht einer exemplarischen Ausführungsform eines erfindungsgemäßen mobilen Roboters. In dieser Ausführungsform emittiert der mobile Roboter 100 Teilstrahlen LS1–LS12. Die Teilstrahlen LS1–LS6 werden als diskrete Strahlen gebildet. Die Teilstrahlen LS1–LS12 bilden Lichtmuster 221226. Die Lichtmuster 221226 erstrecken sich in verschiedene Richtungen. Die Lichtmuster 221226 berühren sich einander nicht. In einer Ausführungsform ist der durch eines der Lichtmuster 221226 abgedeckte Bereich dem durch ein anderes der Lichtmuster 221226 abgedeckten Bereich gleich oder davon verschieden. In einer anderen Ausführungsform haben die Lichtmuster 221226 Aufweitungswinkel θ11–θ16 von etwa 50 Grad. Die Winkel θ21–θ26 werden zwischen den Lichtmustern LS1–LS12 gebildet. Beispielsweise haben die Lichtmuster LS2 und LS3 einen Winkel θ21 von etwa 10 Grad, und die Lichtmuster LS4 und LS5 haben einen Winkel θ22 von etwa 10 Grad. In einer Ausführungsform sind die Winkel θ11–θ16 gleich und sind die Winkel θ21–θ26 gleich. In einer anderen Ausführungsform ist einer der Winkel θ11–θ16 von einem anderen der Winkel θ11–θ16 verschieden. Ähnlicherweise ist einer der Winkel θ21–θ26 von einem anderen der Winkel θ21–θ26 verschieden.
  • 3 zeigt eine Seitenansicht einer exemplarischen Ausführungsform eines erfindungsgemäßen mobilen Roboters. Der mobile Roboter 100 weist ein Gehäuse 300 auf. Die Lichtemissionseinheit 101 ist innerhalb des Gehäuses 300 angeordnet und emittiert einen Hauptstrahl LM. Die Verarbeitungseinheit 102 ist außerhalb des Gehäuses 300 angeordnet, um den Hauptstrahl LM abzulenken. In der vorliegenden Ausführungsform reflektiert die Verarbeitungseinheit 102 den Hauptstrahl LM, und der reflektierte Strahl bildet Teilstrahlen LS1–LS5, die ein Lichtmuster 110 bilden. In einer Ausführungsform erstreckt sich das Lichtmuster 110 parallel zum Boden 305.
  • Die Erfindung schränkt die innere Struktur der Verarbeitungseinheit 102 nicht ein. Die Verarbeitungseinheit 102 kann eine beliebige Struktur haben, insofern diese in der Lage ist, einen Hauptstrahl in mehrere Teilstrahlen abzulenken. Wie in 3 dargestellt ist, weist die Verarbeitungseinheit eine Basis 301 und einen Spiegel 302 auf. Der Spiegel 302 hat einen Neigungswinkel und ist mit einer Mitte der Basis 302 verbunden. Die Erfindung schränkt das Maß des Neigungswinkels nicht ein. In einer Ausführungsform beträgt der Neigungswinkel des Spiegels 302 etwa 45 Grad. In anderen Ausführungsformen kann die Abstrahlungsrichtung des Lichtmusters 110 durch Ändern des Neigungswinkels des Spiegels 302 geändert werden. In einer Ausführungsform wird das Lichtmuster 110 zum Boden 305 hin abgestrahlt. In einer anderen Ausführungsform deckt das Lichtmuster 110 einen Bereich vor dem mobilen Roboter 100 ab, wie in 3 dargestellt ist. In einer anderen Ausführungsform wird das Lichtmuster 110 nach oben abgestrahlt.
  • In der vorliegenden Ausführungsform dreht die Steuereinheit 105 die Basis 301. Dadurch reflektiert der Spiegel 302 den Hauptstrahl LM, und die reflektierten Strahlen werden in verschiedene Richtungen abgelenkt. Die reflektierten Strahlen werden als Teilstrahlen bezeichnet. Außerdem bilden die durch den Spiegel 302 reflektierten Strahlen das Lichtmuster 110. In diesem Fall reflektiert der Spiegel 302 den Hauptstrahl LM sequentiell und werden die reflektierten Strahlen in verschiedene Richtungen abgelenkt. D.h., die Teilstrahlen werden durch den Spiegel 302 nicht gleichzeitig abgelenkt.
  • Die optische Komponente 103 ist auf dem Gehäuse 300 angeordnet, um die reflektierten Strahlen zu empfangen und zu bündeln. Die Erfindung schränkt den Abstand zwischen der optischen Komponente 103 und der Verarbeitungseinheit 102 nicht ein. Die optische Komponente 103 ist nicht innerhalb des Strahlungsbereichs des Lichtmusters 110 angeordnet. In anderen Ausführungsformen wird mit zunehmendem Abstand zwischen der optischen Komponente 103 und der Verarbeitungseinheit 102 die Tiefeninformation eines weit entfernten bestrahlten Objekts genauer.
  • Die Bilderfassungseinheit 104 ist innerhalb des Gehäuses 300 und unter der optischen Komponente 103 angeordnet, um den durch die optische Komponente 103 gebündelten Strahl zu erfassen. Die Steuereinheit 105 erzeugt das Steuersignal SC1 gemäß dem durch die Bilderfassungseinheit 104 umgewandelten Erfassungsergebnis. Das Antriebselement 303 der Antriebseinheit 106 steuert die Drehrichtung des Rades 304. In 3 ist zur Verdeutlichung nur ein Rad dargestellt, die Erfindung ist aber nicht darauf beschränkt. In anderen Ausführungsformen weist der mobile Roboter 100 mehrere Räder auf. In der vorliegenden Ausführungsform schaut das Rad 304 aus dem Gehäuse 300 heraus. Das Rad 304 kann auch unter dem Gehäuse 300 angeordnet sein.
  • In anderen Ausführungsformen ist der Spiegel 302 durch einen konischen Spiegel ersetzt. Weil der konische Spiegel dazu geeignet ist, einen Hauptstrahl LM in mehrere reflektierte Strahlen abzulenken und die reflektierten Strahlen in verschiedene Richtungen abgelenkt werden, muss die Steuereinheit 305 keine drehbare Basis aufweisen. In einer Ausführungsform ist die Basis 301 weggelassen. Außerdem lenkt der konische Spiegel einen Hauptstrahl ab, um mehrere reflektierte Strahlen gleichzeitig zu erzeugen.
  • 4 zeigt ein schematisches Diagramm einer exemplarischen Ausführungsform einer erfindungsgemäßen Verarbeitungseinheit. 4 ist 3 mit der Ausnahme ähnlich, dass die Verarbeitungseinheit 102 den Hauptstrahl LM bricht. Weil die 3 und 4 die gleichen Elemente aufweisen, werden die Elemente in 4 zur Abkürzung nicht näher beschrieben. In der vorliegenden Ausführungsform ist die Verarbeitungseinheit 102 eine Zylinderlinse 401. Die Zylinderlinse 401 bricht den Hauptstrahl LM in mehrere abgelenkte Strahlen, wobei die abgelenkten Strahlen in verschiedene Richtungen abgelenkt werden und das Lichtmuster 110 bilden. Das Lichtmuster 110 hat einen Aufweitungswinkel von etwa 120 Grad. In einer Ausführungsform lenkt die Zylinderlinse 401 den Hauptstrahl LM gleichzeitig in die abgelenkten Strahlen ab.
  • In anderen Ausführungsformen ist eine Oberfläche der Zylinderlinse mit reflektierenden Schichten plattiert, um den Aufweitungswinkel der Zylinderlinse 401 zu vergrößern. Außerdem werden die Positionen der Lichtemissionseinheit 101 und der Zylinderlinse 401 eingestellt, um die Abstrahlungsrichtung des Lichtmusters 110 zu ändern. In dieser Ausführungsform deckt das Lichtmuster 110 den Bereich vor dem mobilen Roboter 100 ab.
  • Die Erfindung schränkt das Verfahren zum Ausbilden der reflektierenden Schicht nicht ein. In einer Ausführungsform wird ein Beschichtungsverfahren zum Ausbilden einer reflektierenden Schicht auf der Oberfläche der Zylinderlinse 401 verwendet. Die reflektierende Schicht kann auf der Oberfläche der Zylinderlinse 401 gleichmäßig oder ungleichmäßig ausgebildet werden. Beispielsweise weist die Zylinderlinse 401 eine Oberfläche mit einem ersten Bereich und einem zweiten Bereich auf. Der erste Bereich weist eine erste reflektierende Schicht auf. Der zweite Bereich weist eine zweite reflektierende Schicht auf. In einer Ausführungsform kann die Dicke der ersten reflektierenden Schicht der Dicke der zweiten reflektierenden Schicht gleich oder davon verschieden sein. In anderen Ausführungsformen ist die Dicke einer Oberfläche der Zylinderlinse 401 der Dicke einer anderen Oberfläche der Zylinderlinse 401 gleich oder davon verschieden.
  • 5 zeigt ein schematisches Diagramm einer anderen exemplarischen Ausführungsform einer erfindungsgemäßen Verarbeitungseinheit. 5 ist 3 mit der Ausnahme ähnlich, dass die Verarbeitungseinheit 102 den Hauptstrahl LM auf verschiedene Weisen ablenkt. Weil die 3 und 5 die gleichen Elemente aufweisen, werden die Elemente in 5 zur Abkürzung nicht näher beschrieben. In der vorliegenden Ausführungsform ist die Verarbeitungseinheit 102 eine Gitterlinse 501. Die Gitterlinse 501 hat ein spezifisches Muster (nicht dargestellt) zum Beugen des Hauptstrahls LM in mehrere Teilstrahlen. In diesem Fall lenkt die Gitterlinse 501 den Hauptstrahl LM gleichzeitig in Teilstrahlen ab.
  • In den 35 weist der mobile Roboter 100 eine einzelne Verarbeitungseinheit 102 zum Ablenken des Hauptstrahls LM in ein Lichtmuster 110 auf, die Erfindung ist aber nicht darauf beschränkt. In einer anderen Ausführungsform kann im in den 35 dargestellten mobilen Roboter 100 eine Verarbeitungseinheit 108 hinzugefügt werden, um den Hauptstrahl LM in ein anderes Lichtmuster 120 abzulenken. Die Positionen der Lichtemissionseinheit 101 und der Verarbeitungseinheiten 102 und 108 werden eingestellt, um die Abstrahlungsrichtung der Lichtmuster 110 und 120 zu ändern. Beispielsweise deckt das Lichtmuster 110 oder 120 einen Bereich vor dem mobilen Roboter 100 oder einen Bereich unter dem mobilen Roboter 100 ab.
  • In einer anderen Ausführungsform kann der mobile Roboter 100 zwei Lichtemissionseinheiten und zwei Verarbeitungseinheiten aufweisen. Die verschiedenen Verarbeitungseinheiten lenken die durch die verschiedenen Lichtemissionseinheiten emittierten Strahlen ab. In einer anderen Ausführungsform kann der mobile Roboter 100 zwei Lichtemissionseinheiten und eine Verarbeitungseinheit aufweisen. Die Verarbeitungseinheit erzeugt reflektierte Strahlen, die sich in verschiedene Richtungen erstrecken, gemäß den durch die verschiedenen Lichtemissionseinheiten emittierten verschiedenen Hauptstrahlen. In diesem Fall können die Lichtemissionseinheiten den entsprechenden Hauptstrahl gleichzeitig oder nicht gleichzeitig emittieren.
  • Insofern dies nicht ausdrücklich anders angegeben ist, haben alle hierin verwendeten Ausdrücke (einschließlich technischer und wissenschaftlicher Ausdrücke) die allgemein durch Fachleute auf dem Fachgebiet, dem die vorliegende Erfindung zugehörig ist, verstandene Bedeutung. Es ist ferner klar, dass Ausdrücke, wie sie beispielsweise in allgemein verwendeten Wörterbüchern definiert sind, so interpretiert werden sollten, dass sie die gleiche Bedeutung haben wie im Kontext des relevanten Fachgebiets und nicht in einer idealisierten Form oder in einem übermäßig formalen Sinne interpretiert werden sollen, insofern dies hierin nicht ausdrücklich anders definiert ist.
  • Obwohl die Erfindung anhand von Beispielen und bezüglich bevorzugten Ausführungsformen beschrieben worden ist, ist klar, dass die Erfindung nicht auf die dargestellten Ausführungsformen beschränkt ist. Sie soll ganz im Gegenteil verschiedene Modifikationen und ähnliche Anordnungen abdecken (die für Fachleute offensichtlich sind). Daher sollen die beigefügten Ansprüche in ihrem breitesten Sinne interpretiert werden, so dass alle derartigen Modifikationen und ähnlichen Anordnungen darin eingeschlossen sind.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • CN 201310159582 [0001]

Claims (25)

  1. Mobiler Roboter mit: einer Lichtemissionseinheit, die einen Hauptstrahl emittiert; einer Verarbeitungseinheit, die den Hauptstrahl in mehrere Teilstrahlen ablenkt, wobei die Teilstrahlen ein einen Bereich abdeckendes Lichtmuster bilden, und wobei, wenn ein Teil der Teilstrahlen auf ein erstes Objekt auftrifft, das erste Objekt die Teilstrahlen reflektiert und mehrere reflektierte Strahlen erzeugt werden; einer optischen Komponente, die die reflektierten Strahlen zu einem ersten gebündelten Strahl bündelt; einer Bilderfassungseinheit, die den ersten gebündelten Strahl in ein erstes Erfassungsergebnis umwandelt; einer Steuereinheit, die gemäß dem ersten Erfassungsergebnis Tiefeninformation berechnet; und einer Antriebseinheit zum Antreiben des mobilen Roboters, wobei die Steuereinheit gemäß der Tiefeninformation eine relevante Verhaltenssteuerung des mobilen Roboters aktiviert und den mobilen Roboter durch die Antriebseinheit steuert.
  2. Mobiler Roboter nach Anspruch 1, wobei das durch die Teilstrahlen konstruierte Lichtmuster sich im Wesentlichen parallel zur Grund- oder Bodenebene erstreckt.
  3. Mobiler Roboter nach Anspruch 1 oder 2, wobei die Verarbeitungseinheit die Teilstrahlen zum Boden hin oder nach oben emittiert.
  4. Mobiler Roboter nach einem der Ansprüche 1 bis 3, wobei die Verarbeitungseinheit den Hauptstrahl in mehrere Erfassungsstrahlen ablenkt, wobei einige Erfassungsstrahlen zum Boden hin abgelenkt werden und die anderen Erfassungsstrahlen sich parallel zum Boden erstrecken.
  5. Mobiler Roboter nach Anspruch 4, wobei, wenn ein Teil der Erfassungsstrahlen auf ein zweites Objekt auftrifft, das zweite Objekt die Erfassungsstrahlen reflektiert und mehrere vom Boden reflektierte Strahlen erzeugt werden, die optische Komponente die vom Boden reflektierten Strahlen zu einem zweiten gebündelten Strahl bündelt, die Bilderfassungseinheit den zweiten gebündelten Strahl in ein zweites Erfassungsergebnis umwandelt, und die Steuereinheit gemäß dem zweiten Erfassungsergebnis zweite Tiefeninformation berechnet und einen Fahrweg des mobilen Roboters über die Antriebseinheit einstellt.
  6. Mobiler Roboter nach einem der Ansprüche 1 bis 5, wobei das durch die Teilstrahlen konstruierte Lichtmuster ein ebenes oder ein gekrümmtes Lichtmuster ist.
  7. Mobiler Roboter nach einem der Ansprüche 1 bis 6, wobei die Teilstrahlen durch die Verarbeitungseinheit sequentiell abgelenkt werden.
  8. Mobiler Roboter nach einem der Ansprüche 1 bis 7, wobei die Teilstrahlen durch die Verarbeitungseinheit gleichzeitig abgelenkt werden.
  9. Mobiler Roboter nach einem der Ansprüche 1 bis 8, wobei die Verarbeitungseinheit den Hauptstrahl reflektiert und die Teilstrahlen reflektiert werden.
  10. Mobiler Roboter nach Anspruch 9, wobei die Verarbeitungseinheit aufweist: eine Basis; und einen mit der Basis verbundenen Spiegel, der den Hauptstrahl reflektiert, wobei die Steuereinheit die Basis dreht.
  11. Mobiler Roboter nach einem der Ansprüche 1 bis 10, wobei die Verarbeitungseinheit ein konischer Spiegel ist.
  12. Mobiler Roboter nach einem der Ansprüche 1 bis 11, wobei die Verarbeitungseinheit den Hauptstrahl bricht.
  13. Mobiler Roboter nach Anspruch 12, wobei die Verarbeitungseinheit eine Zylinderlinse ist.
  14. Mobiler Roboter nach Anspruch 13, wobei die Zylinderlinse eine Fläche mit einem ersten Bereich und einem zweiten Bereich aufweist, wobei der erste Bereich eine erste reflektierende Schicht aufweist, der zweite Bereich eine zweite reflektierende Schicht aufweist und die Dicke der ersten reflektierenden Schicht der Dicke der zweiten reflektierenden Schicht gleicht.
  15. Mobiler Roboter nach Anspruch 13, wobei die Zylinderlinse eine Oberfläche mit einem ersten Bereich und einem zweiten Bereich aufweist, wobei der erste Bereich eine erste reflektierende Schicht aufweist, der zweite Bereich eine zweite reflektierende Schicht aufweist und die Dicke der ersten reflektierenden Schicht von der Dicke der zweiten reflektierenden Schicht verschieden ist.
  16. Mobiler Roboter nach Anspruch 13, wobei die Zylinderlinse eine Oberfläche mit einer durch ein Beschichtungsverfahren ausgebildeten reflektierenden Schicht aufweist.
  17. Mobiler Roboter nach einem der Ansprüche 1 bis 16, wobei die Verarbeitungseinheit den Hauptstrahl beugt.
  18. Mobiler Roboter nach Anspruch 17, wobei die Verarbeitungseinheit eine Gitterlinse ist.
  19. Mobiler Roboter nach einem der Ansprüche 1 bis 18, wobei die Lichtemissionseinheit einen Laseremitter aufweist.
  20. Mobiler Roboter nach einem der Ansprüche 1 bis 19, wobei das durch die Teilstrahlen konstruierte Lichtmuster linienähnlich ist.
  21. Mobiler Roboter nach einem der Ansprüche 1 bis 20, wobei die Steuereinheit mindestens eine vordefinierte relevante Verhaltenssteuerung speichert, eine vordefinierte relevante Verhaltenssteuerung unter den vordefinierten relevanten Verhaltenssteuerungen gemäß der Tiefeninformation oder gemäß einem kombinierten Ergebnis aus in der Steuereinheit gespeicherten vorangehenden Tiefeninformationen auswählt, die ausgewählte vordefinierte relevante Verhaltenssteuerung als die relevante Verhaltenssteuerung des Fahrzeugs verwendet, die relevante Verhaltenssteuerung des mobilen Roboters gemäß der Tiefeninformation und einem beliebigen Verfahren bestimmt oder die relevante Verhaltenssteuerung des mobilen Roboters gemäß der Tiefeninformation und einem Steuerbefehl bestimmt, und ein Benutzer den Steuerbefehl direkt oder indirekt setzt.
  22. Mobiler Roboter nach Anspruch 21, wobei der mobile Roboter sich gemäß der vordefinierten relevanten Verhaltenssteuerung entlang einer geraden Linie, entlang des Außenumfangs eines Hindernisses oder entlang einer zufälligen Route bewegt und der mobile Roboter sich gemäß der vordefinierten relevanten Verhaltenssteuerung um einen festen Punkt dreht, der mobile Roboter sich gemäß der vordefinierten relevanten Verhaltenssteuerung spiralförmig dreht, der mobile Roboter sich gemäß der vordefinierten relevanten Verhaltenssteuerung dreht, der mobile Roboter gemäß der vordefinierten relevanten Verhaltenssteuerung die Antrisbsgeschwindigkeit erhöht oder vermindert oder der mobile Roboter sich gemäß der vordefinierten relevanten Verhaltenssteuerung rückwärts bewegt oder stoppt.
  23. Mobiler Roboter nach einem der Ansprüche 1 bis 22, wobei die Teilstrahlen in einem kontinuierlichen oder in einem diskreten Muster erzeugt werden.
  24. Mobiler Roboter nach einem der Ansprüche 1 bis 23, wobei die Steuereinheit die relevante Verhaltenssteuerung gemäß der Tiefeninformation erzeugt.
  25. Mobiler Roboter nach Anspruch 24, wobei die relevante Verhaltenssteuerung im mobilen Roboter nicht vordefiniert ist.
DE202014100346.0U 2013-04-26 2014-01-27 Mobiler Roboter Expired - Lifetime DE202014100346U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201310159582.3 2013-04-26
CN201310159582.3A CN104117987B (zh) 2013-04-26 2013-04-26 移动机器人

Publications (1)

Publication Number Publication Date
DE202014100346U1 true DE202014100346U1 (de) 2014-02-12

Family

ID=50182213

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202014100346.0U Expired - Lifetime DE202014100346U1 (de) 2013-04-26 2014-01-27 Mobiler Roboter

Country Status (4)

Country Link
US (1) US9052720B2 (de)
JP (1) JP3187472U (de)
CN (1) CN104117987B (de)
DE (1) DE202014100346U1 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016034843A1 (en) * 2014-09-03 2016-03-10 Dyson Technology Limited A mobile robot
US10860029B2 (en) 2016-02-15 2020-12-08 RobArt GmbH Method for controlling an autonomous mobile robot
US11175670B2 (en) 2015-11-17 2021-11-16 RobArt GmbH Robot-assisted processing of a surface using a robot
US11550054B2 (en) 2015-06-18 2023-01-10 RobArtGmbH Optical triangulation sensor for distance measurement
US11709489B2 (en) 2017-03-02 2023-07-25 RobArt GmbH Method for controlling an autonomous, mobile robot
US11768494B2 (en) 2015-11-11 2023-09-26 RobArt GmbH Subdivision of maps for robot navigation
US11789447B2 (en) 2015-12-11 2023-10-17 RobArt GmbH Remote control of an autonomous mobile robot

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9141852B1 (en) * 2013-03-14 2015-09-22 Toyota Jidosha Kabushiki Kaisha Person detection and pose estimation system
GB2529846B (en) 2014-09-03 2019-02-20 Dyson Technology Ltd Illumination Control of a Vision System for a Mobile Robot
GB2529847B (en) * 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile Robot with Independently Adjustable Light Sources
US9886035B1 (en) 2015-08-17 2018-02-06 X Development Llc Ground plane detection to verify depth sensor status for robot navigation
US9746852B1 (en) * 2015-08-17 2017-08-29 X Development Llc Using laser sensors to augment stereo sensor readings for robotic devices
DE102015114883A1 (de) 2015-09-04 2017-03-09 RobArt GmbH Identifizierung und Lokalisierung einer Basisstation eines autonomen mobilen Roboters
US11726490B1 (en) 2016-02-19 2023-08-15 AI Incorporated System and method for guiding heading of a mobile robotic device
US10901431B1 (en) * 2017-01-19 2021-01-26 AI Incorporated System and method for guiding heading of a mobile robotic device
US10386847B1 (en) * 2016-02-19 2019-08-20 AI Incorporated System and method for guiding heading of a mobile robotic device
DE102017205195A1 (de) * 2016-07-28 2018-02-01 Robert Bosch Gmbh Laserentfernungsmessgerät
CN107097122A (zh) * 2017-06-27 2017-08-29 长春工程学院 一种自主研磨大型自由曲面的机器人
CN107726977A (zh) * 2017-09-26 2018-02-23 京东方科技集团股份有限公司 一种位置检测机构及位置检测方法
US10293489B1 (en) * 2017-12-15 2019-05-21 Ankobot (Shanghai) Smart Technologies Co., Ltd. Control method and system, and cleaning robot using the same
EP3584662B1 (de) 2018-06-19 2022-04-13 Panasonic Intellectual Property Management Co., Ltd. Mobiler roboter
CN112888667B (zh) 2018-10-22 2023-08-18 尚科宁家运营有限公司 用于机器人清洁器的对接站
US11597104B2 (en) * 2019-07-31 2023-03-07 X Development Llc Mobile robot sensor configuration
SE544524C2 (en) * 2019-12-06 2022-06-28 Husqvarna Ab Robotic work tool system and method for defining a working area perimeter
US20240061439A1 (en) * 2020-12-18 2024-02-22 Husqvarna Ab Concrete surface mapping robots, systems, and methods for processing concrete surfaces
SE2051496A1 (en) * 2020-12-18 2022-06-19 Husqvarna Ab Concrete surface processing machines, systems, and methods for processing concrete surfaces

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006231477A (ja) * 2005-02-25 2006-09-07 Mitsubishi Heavy Ind Ltd 移動体における距離検出手段の校正方法
KR100704485B1 (ko) * 2005-07-22 2007-04-10 엘지전자 주식회사 이동체 인도 시스템
TWM294508U (en) * 2005-12-27 2006-07-21 Supply Internat Co Ltd E Self-moving device with obstacle-detecting function
US8242384B2 (en) * 2009-09-30 2012-08-14 International Business Machines Corporation Through hole-vias in multi-layer printed circuit boards
US9400503B2 (en) * 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot
EP2494900B1 (de) * 2011-03-04 2014-04-09 Samsung Electronics Co., Ltd. Fremdkörpererkennungseinheit und Roboterreinigungsvorrichtung damit
US9239389B2 (en) * 2011-09-28 2016-01-19 Samsung Electronics Co., Ltd. Obstacle sensor and robot cleaner having the same
US8958911B2 (en) * 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
CN102727133B (zh) * 2012-06-28 2014-10-15 柯约瑟 全自动位移清洁装置的移位运作装置
US9483055B2 (en) * 2012-12-28 2016-11-01 Irobot Corporation Autonomous coverage robot
CN203650524U (zh) * 2013-04-26 2014-06-18 恩斯迈电子(深圳)有限公司 移动机器人

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016034843A1 (en) * 2014-09-03 2016-03-10 Dyson Technology Limited A mobile robot
GB2529848B (en) * 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile robot
US11550054B2 (en) 2015-06-18 2023-01-10 RobArtGmbH Optical triangulation sensor for distance measurement
US11768494B2 (en) 2015-11-11 2023-09-26 RobArt GmbH Subdivision of maps for robot navigation
US11175670B2 (en) 2015-11-17 2021-11-16 RobArt GmbH Robot-assisted processing of a surface using a robot
US11789447B2 (en) 2015-12-11 2023-10-17 RobArt GmbH Remote control of an autonomous mobile robot
US10860029B2 (en) 2016-02-15 2020-12-08 RobArt GmbH Method for controlling an autonomous mobile robot
US11709497B2 (en) 2016-02-15 2023-07-25 RobArt GmbH Method for controlling an autonomous mobile robot
US11709489B2 (en) 2017-03-02 2023-07-25 RobArt GmbH Method for controlling an autonomous, mobile robot

Also Published As

Publication number Publication date
JP3187472U (ja) 2013-11-28
US9052720B2 (en) 2015-06-09
US20140324270A1 (en) 2014-10-30
CN104117987A (zh) 2014-10-29
CN104117987B (zh) 2017-05-10

Similar Documents

Publication Publication Date Title
DE202014100346U1 (de) Mobiler Roboter
EP3049823B1 (de) Verfahren zur steuerung eines mikrospiegelscanners und mikrospiegelscanner
EP2629050B1 (de) Triangulationslichttaster
EP3168642B1 (de) Optoelektronischer sensor und verfahren zur erfassung eines objekts
EP3596506B1 (de) Optische abstrahlvorrichtung für laserpulse mit selektiver optik
DE102013208649A1 (de) Optischer Winkeldetektor mit Strahlformungselement
EP3078984B1 (de) Optoelektronischer sensor und verfahren zur erfassung von objekten in einem überwachungsbereich
DE19851010B4 (de) Einrichtung zur Erkennung und Lokalisierung von Laserstrahlungsquellen
EP3652561B1 (de) Lidar-vorrichtung zum situationsabhängigen abtasten von raumwinkeln
WO2018019807A1 (de) Optische anordnung für ein lidar-system, lidar-system und arbeitsvorrichtung
DE102013007961A1 (de) Optisches Messsystem für ein Fahrzeug
DE102019213963A1 (de) LIDAR-Sensor zur optischen Erfassung eines Sichtfeldes, Arbeitsvorrichtung oder Fahrzeug mit einem LIDAR-Sensor und Verfahren zur optischen Erfassung eines Sichtfeldes mittels eines LIDAR-Sensors
DE102018212735A1 (de) LIDAR-Vorrichtung mit mindestens einem Streuscheibenelement
EP3622316A1 (de) Lidar-vorrichtung und verfahren mit vereinfachter detektion
DE102022115267A1 (de) Verfahren zur Ermittlung wenigstens einer Korrekturfunktionen für ein LiDARSystem, LiDAR-System, Fahrzeug mit wenigstens einem LiDAR-System, Messanlage
DE102012022258A1 (de) Sensor zur Erkennung und Lokalisierung von Laserstrahlungsquellen
DE102017101791A1 (de) Optoelektronische Sensoreinrichtung für ein Kraftfahrzeug und Kraftfahrzeug
EP3329300B1 (de) Optische sensorvorrichtung für ein kraftfahrzeug zum zweidimensionalen abtasten eines umgebungsbereiches des kraftfahrzeugs, kraftfahrzeug sowie verfahren
DE102020106993A1 (de) Infrarotbewegungsmelder
DE102017211503B4 (de) LIDAR-Vorrichtung zur Erfassung eines Objektes
EP3051312B1 (de) Triangulationslichttaster
DE102020210582A1 (de) LIDAR-Sensor zur optischen Erfassung eines Sichtfeldes und Verfahren zur Erfassung eines Sichtfeldes
EP3994482A1 (de) Optische messvorrichtung zur bestimmung von objektinformationen von objekten in wenigstens einem überwachungsbereich
EP4369031A2 (de) Optoelektronischer sensor
DE102022115275A1 (de) Verfahren zum Betreiben eines LiDAR-Systems, LiDAR-System und Fahrzeug mit wenigstens einem LiDAR-System

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20140320

R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: G05D0001430000

R071 Expiry of right