DE3787003T2 - Lenkvorrichtung für sich unbemannt bewegende körper. - Google Patents

Lenkvorrichtung für sich unbemannt bewegende körper.

Info

Publication number
DE3787003T2
DE3787003T2 DE87903418T DE3787003T DE3787003T2 DE 3787003 T2 DE3787003 T2 DE 3787003T2 DE 87903418 T DE87903418 T DE 87903418T DE 3787003 T DE3787003 T DE 3787003T DE 3787003 T2 DE3787003 T2 DE 3787003T2
Authority
DE
Germany
Prior art keywords
movable body
unmanned movable
unmanned
markings
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE87903418T
Other languages
English (en)
Other versions
DE3787003D1 (de
Inventor
Mitsuo Hosoi
Atsuhiko Kato
Ichiro Nakano
Toru Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Ltd
Original Assignee
Komatsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP61116856A external-priority patent/JPS62272307A/ja
Priority claimed from JP15090286A external-priority patent/JPS637820A/ja
Application filed by Komatsu Ltd filed Critical Komatsu Ltd
Publication of DE3787003D1 publication Critical patent/DE3787003D1/de
Application granted granted Critical
Publication of DE3787003T2 publication Critical patent/DE3787003T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Leitsystem für einen unbemannten bewegbaren Körper zum Leiten des letzteren oder zur Korrektur seiner Position unter Verwendung einer optischen Erkennungseinrichtung.
  • Bisher ist als Verfahren zur Überführung eines unbemannten Fahrzeugs zu seinem Bestimmungsort entlang eines vorbestimmten Fahrweges ein Leitverfahren unter Verwendung von Standortbestimmungen (dead reckoning) bekannt, das durch Abschätzung der gegebenen Position des Fahrzeugs mittels eines Bewegungsrichtungsdetektors und eines Wegstreckenmeßinstruments und dann durch automatisches Lenken des Fahrzeugs durchgeführt wird, so daß es zuvor bestimmte Passierpunkte auf einem vorbestimmten Weg passiert. Ein Nachteil dieses Verfahrens besteht darin, daß in bezug auf die abgeschätzte Position des Fahrzeugs aufgrund von Unebenheiten auf der Straßenoberfläche oder Rutschen des Fahrzeuges Fehler auftreten, was dazu führt, daß das Fahrzeug nicht exakt die vorbestimmten Passierpunkte passiert. Um dementsprechend dem oben erwähnten Nachteil abzuhelfen, sind bereits verschiedene Vorschläge, wie nachfolgend angeführt, bezüglich eines Verfahrens zum Anordnen geeigneter, voneinander beabstandeter Bodenmarkierungen auf dem Fahrweg und zum intermittierenden Korrigieren der abgeschätzten Position des Fahrzeugs durch Ermitteln der Bodenmarkierungen von dem Fahrzeug aus gemacht worden.
  • Die Japanische Patentanmeldung JP-A-57-182209 offenbart ein Fahrfehleranzeigesystem eines herkömmlichen unbemannten Transportfahrzeugs mit einer Positionsanzeigeplatte, die mit zwei rückreflektierenden Platten versehen ist, die einen vorbestimmten Abstand zu einer Referenzroute des unbemannten Fahrzeugs haben. Das unbemannte Fahrzeug ist mit einem Positionsanzeigeplattendetektor mit einer drehbaren Lichtemissionseinheit und einem Photodetektorsensor versehen. Zur Bestimmung der Position des unbemannten Fahrzeugs wird sowohl die Fahrstrecke gemessen als auch der Winkel zu der gewünschten Referenzroute, indem der Winkel zwischen dem Positionsanzeigeplattendetektor und der Positionsanzeigeplatte an zwei Positionen des Fahrzeugs gemessen wird.
  • Beispielsweise offenbart die Japanische Patentanmeldung Nr. 204915/1982 ein technisches Konzept dahingehend, daß ein Lichtreflektor an der Seitenfläche eines als Ziel dienenden Objekts angeordnet ist, ein lichtemittierendes Element und ein lichtempfangendes Element, die ein Paar bilden, an einem unbemannten Fahrzeug angebracht sind und letzteres veranlaßt wird, sich um einen fixierten Punkt in der Nähe des vorerwähnten Zieles zu drehen, bis das Fahrzeug eine Stellung einnimmt, in der das lichtempfangende Element von dem Lichtreflektor Licht von höchster Intensität empfängt, wodurch die Stellung des Fahrzeugs korrekt gesteuert wird.
  • Das oben offenbarte Verfahren versagt jedoch aufgrund von Störungen bei der Ermittlung der Bodenmarkierungen während der Bewegung des unbemannten bewegbaren Fahrzeugs, weil ein zum Ermitteln der Bodenmarkierungen ausgestalteter Sensor eine schmale Ermittlungsbreite aufweist.
  • Weiterhin schlägt die Japanische Patentanmeldung Nr. 199007/1982 ein weiteres technisches Konzept vor, wonach mehrere Elemente der Umgebung, wie beispielsweise Wald, Gebäude und dergleichen als Markierungen zum Messen nicht nur der Position eines unbemannten Fahrzeugs, sondern auch der eines bemannten Fahrzeugs verwendet werden. Auch bei diesem Verfahren bestehen Schwierigkeiten dahingehend, daß eine Einrichtung zum Unterscheiden der Elemente der Umgebung, wie beispielsweise Wald, Gebäude oder dergleichen bemerkenswert hohe Produktionskosten verursacht, und aus diesem Grund kann das Verfahren zur Zeit in der Praxis nicht angewandt werden.
  • Ein Verfahren zur Ergänzung bei einem mit Rädern versehenen Fahrzeug, das durch Standortbestimmung gelenkt wird, ist aus EP-A-0 050 101 bekannt, in der offenbart ist, daß bei einem Fahrzeug, das seine eigene Position auf der Basis von durch Abrollmessungen bestimmten Entfernungen berechnet, Fehler bei der Positionsbestimmung allmählich zunehmen und eine Aktualisierung erforderlich machen. Der Boden ist mit Markierungen versehen, die von einem quer in dem Fahrzeug angebrachten optischen Detektor wahrgenommen werden, und lineare Signale werden erhalten. Mindestens zwei unterschiedliche Messungen werden bei der Position einer ersten Markierung in bezug auf das Fahrzeug vorgenommen, und die von dem Fahrzeug zwischen den Messungen zurückgelegte Fahrstrecke wird gemessen. Anhand dieser drei gemessenen Entfernungen kann der Winkel zwischen dem Fahrzeug und der Markierung bestimmt werden. Eine zusätzliche Markierung, die mit der ersten Markierung einen Winkel bildet, ermöglicht auch die Bestimmung der Position in Bewegungsrichtung des Fahrzeugs.
  • Dieses Verfahren erfordert zwei Messungen oder alternativ zwei lineare Markierungen, um die Positions- und Stellungsdaten, die durch Standortbestimmung abgeschätzt wurden, zu aktualisieren.
  • Nach dieser Alternative ermittelt der optische Detektor die unterschiedlichen Entfernungen der beiden geradlinigen Markierungen, die nicht parallel zueinander sind. Durch Ermitteln entlang einer quer zu den Markierungslinien verlaufenden Linie können unterschiedliche Entfernungen der Markierungen gewonnen werden, die zur Aktualisierung der durch Standortbestimmung erhaltenen aktuellen Daten verwendet werden.
  • Diese Verfahren können Probleme verursachen, wenn die Ermittlungslinie des optischen Detektors parallel oder beinahe parallel zu einer der Markierungen verläuft, da dies die Erkennbarkeit der unterschiedlichen Markierungen und insbesondere die Entfernungsmessung beeinträchtigen würde.
  • Die vorliegende Erfindung schafft ein Leitsystem gemäß den Ansprüchen 1 und 6.
  • Auf diese Weise schafft die Erfindung ein Leitsystem, bei dem die Bodenmarkierungen leicht angeordnet werden können und darüber hinaus eine Korrektur der Position mit hoher Genauigkeit kostengünstig durchgeführt werden kann.
  • Mehrere Sätze von mindestens zwei Bodenmarkierungen mit Rückreflexions- oder Lichtemissionseigenschaften sind auf dem Fahrweg des unbemannten bewegbaren Körpers entlang eines Referenzweges angeordnet. Der unbemannte bewegbare Körper weist eine optische Erkennungseinrichtung zur Momentanberechnung der gegebenen Position und Stellung des unbemannten bewegbaren Körpers beispielsweise nach einem Leitverfahren auf der Basis von Standortbestimmung oder dergleichen und zu dessen Lenkung mit korrekter Steuerung in bezug auf die so errechneten Werte auf.
  • Die Koordinatenpositionen der vorerwähnten Bodenmarkierungen werden zuvor in einer Speichereinrichtung gespeichert. Eine Ermittlungseinrichtung erhält die Winkel des unbemannten bewegbaren Körpers relativ zu dem oben erwähnten Referenzweg und eine Strecke von einem Liniensegment, das derart durch den unbemannten bewegbaren Körper verläuft, daß es den Referenzweg zu dem unbemannten, sich bewegenden Körper im rechten Winkel in bezug auf mindestens die zwei Bodenmarkierungen, die von der oben erwähnten optischen Erkennungseinrichtung erkannt worden sind, schneidet. Dann wird die aktuelle Position und Stellung des unbemannten bewegbaren Körpers in bezug auf den so erhaltenen Deklinationswinkel, Verschiebung und Strecke sowie den in der oben erwähnten Speichereinrichtung gespeicherten Inhalt ermittelt. Die Leitpositionskorrektureinrichtung korrigiert korrekt die Position und Stellung des unbemannten bewegbaren Körpers, die gemäß dem oben erwähnten Leitverfahren oder dergleichen mit Bezug auf die so ermittelte Position und Stellung berechnet worden sind, wodurch die Position und Stellung des unbemannten bewegbaren Körpers intermittierend korrigiert werden.
  • Die Fign. 1, 2 und 3 sind eine perspektivische Ansicht, eine Seitenansicht bzw. eine Draufsicht eines unbemannten bewegbaren Körpers, dessen Bewegung von einer Vorrichtung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung geleitet wird.
  • Fig. 4 ist eine Ansicht, die eine geometrische Beziehung zwischen den Koordinaten an einer Kamera und den Koordinaten an der Bodenfläche darstellt.
  • Die Fign. 5 bzw. 6 veranschaulichen die Art und Weise, wie die Verschiebung, der Winkel und die Entfernung des unbemannten bewegbaren Körpers relativ zu der Bodenmarkierung erhalten werden.
  • Fig. 7 ist ein Blockdiagramm, das ein Beispiel der Anordnung zur Steuerung der Vorrichtung nach dem Ausführungsbeispiel der vorliegenden Erfindung zeigt.
  • Fig. 8 ist ein Graph, der die Art der Änderung des Wertes K darstellt.
  • Fig. 9 ist eine Ansicht, die ein System zur Erzeugung eines Geschwindigkeitsbefehlssignals veranschaulicht.
  • Fig. 10 ist eine Ansicht, die die Art des Leitens der Bewegung des unbemannten bewegbaren Körpers relativ zu einem Referenzweg gemäß einem anderen Leitsystem veranschaulicht.
  • Fig. 11 ist ein Blockdiagramm, das ein Beispiel der Anordnung zur Steuerung der Bewegung des unbemannten bewegbaren Körpers im Fall der Verwendung des Leitsystem von Fig. 10 zeigt.
  • Die Fign. 12 bzw. 13 sind Ansichten, die die Art der Bestimmung eines anderen Referenzweges in Übereinstimmung mit dem Leitsystem gemäß Fig. 10 veranschaulichen.
  • Im folgenden wird die vorliegende Erfindung in bezug auf die bevorzugte Ausführungsbeispiele zeigenden zugehörigen Zeichnungen im einzelnen beschrieben.
  • Die Fign. 1, 2 und 3 sind eine perspektivische Ansicht, eine Vorderansicht bzw. eine Seitenansicht, von denen jede einen unbemannten bewegbaren Körper 1 darstellt, dessen Bewegung von einem Leitsystem gemäß einem Ausführungsbeispiel der vorliegenden Erfindung geleitet wird.
  • Wie aus den Zeichnungen hervorgeht, ist der bewegbare Körper 1 an beiden Seiten der vorderen und hinteren Teile eines Gehäuses 2 mit Schwenkrollen 3 versehen und darüber hinaus mit Treibrädern 4R und 4L an beiden Seiten des mittleren Teils des Gehäuses 2. Die Treibräder 4R und 4L sind derart ausgestaltet, daß sie von Motoren MR und ML gedreht werden, welche separat im Inneren des Gehäuses 2 angebracht sind. Eine als optische Erkennungseinrichtung dienende Industrie-Fernseh-Kamera 6 ist auf einem Stützgestell 5 angebracht, das vom vorderen Teil des Gehäuses 2 nach oben ragt, und Lichtemitter 7 sind an beiden Seiten der Kamera 6 angeordnet.
  • Die Kamera 6 ist derart auf dem Stützgestell 5 angebracht, daß sie einen bestimmten Deklinationswinkel einnimmt, der in geeigneter Weise derart bestimmt ist, daß ein vorbestimmter Bereich der vor dem Gehäuse 2 liegenden Straßenoberfläche sich im Sehfeld der Kamera 6 befindet, und die Lichtemitter 7 sind derart angeordnet, daß sie das Sehfeld der Kamera 6 beleuchten. Die Motoren MR und ML sind mit Impulsgebern 9R und 9L ausgestattet, wie beispielsweise einem Impulskodierer oder dergleichen, die derart ausgestaltet sind, daß sie Impulssignale auf die Umdrehung der Motoren MR und ML ausgeben.
  • Ferner weist der bewegbare Körper 1 einen Richtungsdetektor 10, wie beispielsweise einem Wendekreisel oder eine ähnliche Einrichtung zur Ermittlung der Bewegungsrichtung des bewegbaren Körpers 1, eine CPU 11 zur Steuerung der Bewegung des bewegbaren Körpers 1 und zur Verarbeitung von Bildern, eine Batterie 12 und eine Sende- und Empfangsantenne 13 auf.
  • Mehrere auf der Straßenoberfläche angeordnete Bodenmarkierungen 8 sind derart ausgestaltet, daß sie als Merkmal zum Leiten der Bewegung des bewegbaren Körpers 1 dienen. Bei dem dargestellten Ausführungsbeispiel wird eine Glaskugel mit Rückreflexionseigenschaften, das heißt, einer Eigenschaft, bei der Licht in die gleiche Richtung reflektiert wird, aus der es einfällt, für die Bodenmarkierungen 8 verwendet. Die Bodenmarkierungen 8 werden im Abstand voneinander entlang des Fahrweges des bewegbaren Körpers 1 derart angeordnet, daß sie einen Satz aus zwei oder mehr Bodenmarkierungen bilden, und eine durch eine Reihe von Bodenmarkierungen 8 verlaufende Linie dient als Referenzlinie 15 für den bewegbaren Körper 1. Es sei angemerkt, daß der Abstand zwischen den benachbarten Bodenmarkierungen 8 so bestimmt ist, daß wenigstens zwei Bodenmarkierungen 8 im Sehfeld der Kamera 6 liegen.
  • Nachfolgend erfolgt die Beschreibung im Hinblick auf ein Prinzip zur Berechnung einer Position des bewegbaren Körpers 1 relativ zu der Bodenmarkierung 8 (identifiziert durch die Kombination aus Verschiebung d, Winkel (φ und Strecke l), während die Bodenmarkierung 8 unter Verwendung der Kamera 6 erfaßt wird.
  • Wenn die X- und Y-Koordinaten in bezug auf die Bodenfläche erstellt werden und darüber hinaus die x- und y- Koordinaten in bezug auf eine Bildfläche Q der Kamera 6, wie in Fig. 4 gezeigt, besteht eine geometrische Beziehung zwischen einem Koordinatenpunkt M auf der Bodenfläche und einem Koordinatenpunkt m auf der Bildfläche Q entsprechend dem vorerwähnten Koordinatenpunkt M. Wenn entsprechend der Koordinatenpunkt m auf der Bildfläche Q ermittelt ist, kann der Koordinatenpunkt M auf der Bodenfläche errechnet werden und darüber hinaus können auch ein zwischen einem Liniensegment Mm und der Bodenfläche gebildeter Winkel y sowie ein zwischen einem Liniensegment Mm, das durch Projizieren des oben erwähnten Liniensegments Mm auf die Bodenfläche auftritt, und der oben erwähnten Y-Achse gebildeter Winkel β (Seitenwinkel) errechnet werden.
  • In der Zeichnung steht ein Punkt C für einen Linsenhauptpunkt in der Kamera 6. Die Koordinaten X und Y auf der Bodenfläche werden auf der Annahme erstellt, daß ein Punkt an der Stelle, wo eine durch den Punkt C verlaufende Senkrechte die Bodenfläche schneidet, durch den Koordinatenursprungspunkt 0 dargestellt wird und die Y- Koordinate die Bewegungsrichtung des bewegbaren Körpers 1 darstellt.
  • Nun wird der Fall beschrieben, bei dem die Koordinatenpunkte M&sub1; und M&sub2; auf der Bodenfläche sich innerhalb des Sehfeldes der Kamera 6 befinden, wie in Fig. 5 dargestellt.
  • Ein Winkel γ&sub1; und ein Seitenwinkel β&sub1; in bezug auf den Koordinatenpunkt M&sub1; sowie ein Winkel γ&sub2; und ein Seitenwinkel β&sub2; in bezug auf den Koordinatenpunkt M&sub2; können anhand der (nicht dargestellten) Koordinatenpunkte m&sub1; und m&sub2; auf der Bildfläche Q der Kamera 6 entsprechend den vorerwähnten Koordinatenpunkten M&sub1; und M&sub2; auf die gleiche Weise wie oben beschrieben errechnet werden. Wenn die Koordinatenpunkte M&sub1; und M&sub2; errechnet sind, können sowohl ein Winkel φ, der zwischen einem Liniensegment (Referenzweg) 15, das durch die Koordinatenpunkte M&sub1; und M&sub2; und die Y-Achse verläuft, gebildet ist, als auch die Länge d der vom Ursprungspunkt 0 zum Referenzweg 15 verlaufenden Senkrechten mit den folgenden Formeln (1) und (2) berechnet werden.
  • wobei h die Entfernung zwischen Punkt C und dem Nullpunkt darstellt.
  • Ferner kann eine Entfernung l&sub1; zwischen einem Fußpunkt N der vom Nullpunkt ausgehenden Senkrechten und dem Koordinatenpunkt M&sub1; und eine Entfernung l&sub2; zwischen dem Fußpunkt N und dem Koordinatenpunkt M&sub2; auf dem Referenzweg 15 gemäß den folgenden Formeln (3) und (4) in bezug auf das geometrische Verhältnis nach Fig. 6 berechnet werden.
  • Wenn angenommen wird, daß die Koordinatenpunkte M&sub1; und M&sub2; die Position der Bodenmarkierung 8 darstellen, folgt daraus, daß der Winkel φ den Winkel des bewegbaren Körpers 1 relativ zu einem zwischen den benachbarten Bodenmarkierungen 8 verlaufenden Liniensegment darstellt, die Entfernung d die Verschiebung (Verschiebung in Querrichtung) des bewegbaren Körpers 1 relativ zu dem vorstehend erwähnten Liniensegment darstellt und die Entfernungen l&sub1; bzw. l&sub2; die Strecke der Bewegung des bewegbaren Körpers 1 zu den Bodenmarkierungen M&sub1; und M&sub2; entlang des Referenzweges 15.
  • Die vorstehende Beschreibung soll ein Prinzip zur Ermittlung der Position des bewegbaren Körpers 1 relativ zu der Bodenmarkierung 8 und einen Stellungswinkel des bewegbaren Körpers 1 relativ zu dem Referenzweg 15 erläutern. Bei den folgenden Ausführungsbeispielen wird dieses Prinzip auf die Korrektur der Position und Stellung des bewegbaren Körpers angewandt, wenn die Bewegung des bewegbaren Körpers entlang eines vorbestimmten Fahrweges nach einem Auswertungsnavigationsverfahren geleitet wird. Im folgenden wird ein Ausführungsbeispiel der vorliegenden Erfindung unter Bezugnahme auf Fig. 7 beschrieben, die ein die Art der Steuerung der Bewegung des bewegbaren Körpers darstellendes Blockdiagramm ist.
  • Wie Fig. 7 zeigt, ermittelt ein Bewegungsstreckendetektor 20 die Bewegungsstrecken LR und LL des bewegbaren Körpers 1 durch Zählen der Anzahl der von den an den Treibrädern 4R und 4L befestigten Impulsgebern 9R und 9L gesendeten Impulse unter Verwendung von Zählern 21 und 22, und die so ermittelten Bewegungsstrecken LR und LL werden in die CPU 11 eingegeben. In diesem Fall verwendet die CPU 11 einen Mittelwert der von den beiden Zählern 21 und 22 gezählten Werte als Entfernungsdaten, um eine Bewegungsstrecke von der zentralen Position des bewegbaren Körpers 1 zu erhalten. Der Richtungsdetektor 10 ist ein Wendekreisel, der die Bewegungsrichtung des bewegbaren Körpers 1 z. B. durch Ermitteln des Ausmaßes der Bewegungsrichtungsänderung erhält und dann die Ermittlungsergebnisse einbezieht, und die auf diese Weise ermittelte Bewegungsrichtung des bewegbaren Körpers wird in die CPU 11 eingegeben. Die CPU 11 wertet die gegebene Koordinatenposition des bewegbaren Körpers 1 in bezug auf die Bewegungsstrecke betreffende Daten und die Bewegungsrichtung betreffende Daten, die allesamt gerade von dem Bewegungsstreckendetektor 20 und dem Richtungsdetektor 10 eingegeben worden sind, aus, und ermittelt dann das Ausmaß der Verschiebung gegenüber dem vorbestimmten Fahrweg 16 (siehe Fig. 1) und den Winkel der Stellung des bewegbaren Körpers 1, wodurch die Bewegung des bewegbaren Körpers 1 so gesteuert wird, daß der bewegbare Körper 1 sich entlang des vorbestimmten Fahrweges 16 bewegt.
  • Wie Fig. 8 zeigt, weist die CPU 11 ein Programm zur Erzeugung eines Geschwindigkeitsbefehls VR durch Addieren des Wertes K zu einem Bewegungsgeschwindigkeitsbefehl V für den sich bewegenden Körper 1 und zur Erzeugung eines Geschwindigkeitsbefehls VL durch Subtrahieren des Wertes K von dem vorerwähnten Bewegungsgeschwindigkeitsbefehl V auf, und die so erzeugten Befehle VR und VL werden über D/A-Wandler 23 und 24 Servoverstärkern 25 und 26 zugeführt.
  • Der vorstehend erwähnte Wert K verändert sich in bezug auf ΔV = (dr - d) + C (φr - φ) (C; Konstante) in der in Fig. 9 dargestellten Weise. Wenn entsprechend sowohl die Differenz zwischen einer vorbestimmten Verschiebung dr und einer tatsächlichen Verschiebung d als auch die Differenz zwischen einem Zieldeklinationswinkel φr und einem tatsächlichen Deklinationswinkel φ gering sind und ΔV einen Wert innerhalb einer unempfindlichen Zone D aufweist, wie in Fig. 9 gezeigt, ergibt sich daraus, daß K = 0 ist und dadurch werden Geschwindigkeitsbefehle, ausgedrückt durch VR = V und VL = V, erzeugt, wodurch die Treibräder 4R und 4L mit der gleichen Umlaufgeschwindigkeit gedreht werden und wodurch eine lineare Bewegung des bewegbaren Körpers 1 bewirkt wird.
  • Wenn &Delta;V einen positiven Wert annimmt, der höher als der Wert innerhalb der unempfindlichen Zone D ist, ergibt sich VR > VL. Somit wird das rechte Treibrad 4R mit einer höheren Umlaufgeschwindigkeit gedreht als das linke Treibrad 4L und dadurch wird der bewegbare Körper 1 nach links geleitet. Wenn im Gegensatz dazu &Delta;V einen negativen, den Wert in der unempfindlichen Zone D übersteigenden Wert annimmt, ergibt sich daraus VR < VL. Somit wird der bewegbare Körper 1 nach rechts gelenkt. Es sei angemerkt, daß der Lenkwinkel zunimmt, wenn der Absolutwert von &Delta;V zunimmt.
  • Ein von der Kamera 6 ausgegebenes Videosignal wird in einem A/D-Wandler 27 binär kodiert und danach in einen Einzelbildspeicher 28 eingeschrieben. Jedesmal, wenn ein Abbildabschnitt erzeugt worden ist, wird der in dem Einzelbildspeicher 28 gespeicherte Inhalt der CPU 11 zugeführt. Entsprechend wird, wenn sich der bewegbare Körper 1 bei seiner Bewegung der Bodenmarkierung 8 nähert, die Bodenmarkierung 8 als ein helles punktförmiges Abbild von der Kamera 6 aufgrund dessen erfaßt, daß die Bodenmarkierung 8 aus einer Glaskugel mit Rückreflexionseigenschaften besteht. Dann erkennt die CPU 11 mehrere Bodenmarkierungen 8 (beispielsweise 2 bis 3 Bodenmarkierungen), die sich innerhalb des Sehfeldes der Kamera 6 befinden, und zwar unter Bezugnahme auf die Daten, die das in dem Einzelbildspeicher 28 gespeicherte helle punktförmige Abbild betreffen, und wählt zwei Bodenmarkierungen 8 aus den mehreren Bodenmarkierungen aus, beispielsweise zwei Bodenmarkierungen von den in der Nähe des bewegbaren Körpers befindlichen. Dann erhält die CPU 11 die Koordinatenpunkte M&sub1; und M&sub2; auf der Bodenfläche in bezug auf die zwei Bodenmarkierungen, berechnet den Deklinationswinkel &gamma;&sub1; und den Seitenwinkel &beta;&sub1; in bezug auf den Koordinatenpunkt M&sub1; sowie den Deklinationswinkel &gamma;&sub2; und den Seitenwinkel &beta;&sub2; in bezug auf den Koordinatenpunkt M&sub2; und führt dann die Operationen gemäß der Formeln (1), (2), (3) und (4) durch, um den Deklinationswinkel &phi;, die Verschiebung d und die Entfernung l&sub1; und l&sub2; des bewegbaren Körpers 1 zu erhalten.
  • Die Positionskoordinaten jeder der Bodenmarkierungen 8 werden zuvor in einem Bodenmarkierungsspeicher 29 gemäß Fig. 7 gespeichert und die CPU 11 erhält die gegebene Koordinatenposition und -stellung des bewegbaren Körpers 1 mit Bezug auf den Deklinationswinkel &phi;, die Verschiebung d und die Entfernungen l&sub1; und l&sub2; des bewegbaren Körpers 1, die in der oben beschriebenen Weise erhalten werden, und die aus dem Koordinatenpositionsspeicher 29 ausgelesene Koordinatenposition der Bodenmarkierung 8. Dann werden die so gewonnenen Daten mit der ausgewerteten Koordinatenposition und -stellung, die auf das Ermittlungsausgangssignals des Fahrstreckendetektors 20 und des Richtungsdetektors 10 hin erhalten werden, verglichen, und die ausgewertete Position und Stellung werden durch Antreiben der Motoren MR und ML unter korrekter Steuerung unter Bezugnahme auf die Ergebnisse des vorstehend erwähnten Vergleichs korrigiert. Danach erfolgt die Lenkung und Steuerung des bewegbaren Körpers 1 nach dem Auswertungsnavigationsverfahren, während die korrigierte Position und Stellung des bewegbaren Körpers 1 als Anfangszustand beibehalten werden.
  • Somit kann gemäß dem vor stehend beschriebenen Ausführungsbeispiel der vorliegenden Erfindung nicht nur jede Bodenmarkierung unter Verwendung einer optischen Erkennungseinrichtung mit einem weiten Sehfeld zuverlässig ermittelt werden, sondern auch die Plazierung der Bodenmarkierung kann auf einfache Weise durchgeführt werden. Dementsprechend kann die Position des bewegbaren Körpers in vorteilhafter Weise hinsichtlich der Kosten und mit hoher Genauigkeit durchgeführt werden.
  • Bei dem oben beschriebenen Ausführungsbeispiel werden Glaskugeln mit Rückreflexionseigenschaften als Bodenmarkierungen 8 verwendet. Die vorliegende Erfindung sollte jedoch nicht nur auf diese beschränkt sein. Alternativ können anstatt der Glaskugel prismatische eckige Kuben, Adhäsivband mit Rückreflexionseigenschaften in einer vorbestimmten Form, ein für Führungsschienen verwendbarer Lichtreflektor oder dergleichen verwendet werden. Wenn diese Bodenmarkierungen verwendet werden, können sie leicht von anderen auf dem Abbild erscheinenden Objekten unterschieden werden, wenn sie eine vorbestimmte Form aufweisen.
  • Ferner besteht die Möglichkeit, einen lichtemittierenden Körper, wie beispielsweise eine LED-Diode, eine elektrische Glühbirne, eine fluoreszierende Leuchte oder dergleichen als Bodenmarkierung 8 zu verwenden, und in diesem Fall sind die bei dem dargestellten Ausführungsbeispiel verwendeten Lichtemitter 7 nicht erforderlich. Wenn Lichtemitter verwendet werden, die derart ausgestaltet sind, daß sie Licht von einer speziellen Wellenlänge emittieren, können Störungen beseitigt werden, indem an der optischen Erkennungseinrichtung ein Filter vorgesehen wird, das von Licht mit der vorstehend erwähnten speziellen Wellenlänge passiert werden kann. Ferner können Störungen durch intermittierendes Einschalten des Lichtemitters mit einer vorbestimmten Frequenz verhindert werden, indem die Bildverarbeitung unter Verwendung der Frequenz des obenerwähnten Einschaltens der optischen Erkennungseinrichtung durchgeführt wird.
  • Sofern die optische Erkennungseinrichtung die Bodenmarkierung von anderen Objekten unterscheiden kann, können verschiedene Bodenmarkierungen selektiv als Bodenmarkierung 8 verwendet werden. Entsprechend reicht es aus, wenn Bodenmarkierungen ausgewählt und verwendet werden, die am besten für die Bewegungsumgebung geeignet sind, in der sich der bewegbare Körper 1 bewegt.
  • Ferner wird zwar bei dem oben beschriebenen Ausführungsbeispiel eine Fernsehkamera 6 als optische Erkennungseinrichtung verwendet, wenn jedoch Lichtemitter als Bodenmarkierungen 8 vorgesehen sind, kann auch ein zweidimensionaler Halbleiter-Positionsdetektor (Positionssensor) als optische Erkennungseinrichtung verwendet werden.
  • Bei dem dargestellten Ausführungsbeispiel erfolgt die Lenkung und Steuerung des bewegbaren Körpers 1 gemäß dem Auswertungsnavigationsverfahren. Ferner besteht nach der in der oben beschriebenen Art getroffenen Anordnung die Möglichkeit, es dem bewegbaren Körper 1 zu ermöglichen, sich entlang verschiedener Wege zu bewegen, indem die Bodenmarkierungen mit Rückreflexionseigenschaften, die intermittierend entlang eines vorbestimmten Referenzweges zum Leiten der Bewegung des bewegbaren Körpers 1 angeordnet sind, als Referenz verwendet werden.
  • Das heißt, ein Referenzweg k&sub1; setzt sich aus mehreren Bodenmarkierungen 8, wie in Fig. 10 gezeigt, zusammen. Wie aus der Zeichnung ersichtlich, sind die Bodenmarkierungen 8 intermittierend entlang eines Fahrweges des bewegbaren Körpers 1 angeordnet und eine durch die Bodenmarkierungen verlaufende Linie dient als Referenzweg k&sub1; relativ zu dem bewegbaren Körper 1, wie im folgenden beschrieben wird. Die Entfernung zwischen den benachbarten Bodenmarkierungen 8 ist so bestimmt, daß mindestens zwei Bodenmarkierungen immer innerhalb des Sehfeldes der Kamera 6 liegen. Das heißt, wenn eine Zielverschiebung dr (oder Zielentfernung dr und Zielwinkel &phi;r) in bezug auf jeden der Abschnitte Li, Li+1,- - - auf dem Weg voreingestellt ist und der bewegbare Körper 1 so gelenkt wird, daß eine tatsächliche Verschiebung dr (oder tatsächliche Verschiebung dr und tatsächlicher Winkel &phi;r) des bewegbaren Körpers 1 in bezug auf jeden der vorerwähnten Abschnitte mit einer vorbestimmten Verschiebung dr (oder vorbestimmten Entfernung dr und vorbestimmtem Winkel &phi;r) in Bezug auf den vorerwähnten Abschnitt übereinstimmt, kann die Bewegung des bewegbaren Körpers 1 entlang verschiedener Wege mit dem Referenzweg k&sub1; als Referenz, z. B. eines Weges k&sub1;' wie in der Zeichnung, geführt werden.
  • Fig. 11 ist ein Blockdiagramm, das ein Ausführungsbeispiel zur Steuerung der Bewegung des bewegbaren Körpers 1 unter korrekter Leitung in der oben beschriebenen Weise darstellt, und ein Zielverschiebungswinkel dr und ein von dem bewegbaren Körper 1 in jeder der Positionen einzunehmender Zielwinkel &phi;r werden zuvor in einem Wegspeicher 30 gespeichert. Wenn beispielsweise ein Referenzweg k&sub1; gemäß Fig. 10 durch eine Reihe von Bodenmarkierungen 8 gebildet wird, werden mehrere Zielverschiebungen dr (di, di+1, - - -) und mehrere Zieldeklinationswinkel &phi;r in bezug auf die Positionen Pi, Pi+1, - - - r gespeichert.
  • Da jedes der Bodenziele 8 aus einer Glaskugel mit Rückreflexionseigenschaften besteht, wie oben erwähnt, wird sie von der Kamera 6 als helles punktförmiges Abbild erfaßt. Dann erkennt die CPU 11 optisch mehrere Bodenmarkierungen 8 (z. B. 2 bis 3 Bodenmarkierungen), die sich in dem Sehfeld der Kamera 6 in bezug auf die Daten, die das helle punktförmige, in dem Einzelbildspeicher 28 gespeicherte Abbild betreffen, und wählt dann zwei Bodenmarkierungen aus, beispielsweise unter diesen Bodenmarkierungen zwei nebeneinanderliegende Bodenmarkierungen. Danach werden die in Fig. 5 gezeigten Koordinatenpunkte M&sub1; und M&sub2; auf der Bodenfläche in bezug auf die zwei Bodenmarkierungen in der oben erwähnten Weise gewonnen, ein Deklinationswinkel &gamma;&sub1; und ein Seitenwinkel &beta;&sub1; in bezug auf den Koordinatenpunkt M&sub1; sowie ein Deklinationswinkel &gamma;&sub2; und ein Seitenwinkel &beta;&sub2; werden berechnet und dann werden Operationen gemäß den vorstehend aufgeführten Gleichungen (1), (2), (3) und (4) durchgeführt, wodurch der Deklinationswinkel &phi; und die Verschiebung d des bewegbaren Körpers 1 erhalten werden.
  • Die CPU 11 ermittelt die Position Pi, Pi+1, - - -, indem sie aus dem Ausgangssignal der Kamera 6 die Anzahl der Bodenmarkierungen 8 zählt, die an jeder der oben genannten Positionen passiert werden, und dann sukzessive die Zielverschiebung dr und den Zieldeklinationswinkel &phi;r in bezug auf jede der Positionen aus dem Speicher 15 liest. Dann werden die an die Motoren MR und ML auszugebenden Geschwindigkeitsbefehle VR und VL erzeugt und in bezug auf die gelesene Verschiebung dr und den Deklinationswinkel sowie auf die ermittelte tatsächliche Verschiebung d und den tatsächlichen Winkel &phi; des bewegbaren Körpers 1 in der oben beschriebenen Weise ausgegeben.
  • Wenn das oben beschriebene Leitverfahren angewandt wird, wird, wenn die Zielverschiebungen dr in bezug auf die Positionen Pi, Pi+1, Pi+2, - - - gemäß Fig. 10 derart eingestellt sind, daß di; (> 0), di + 1 (> 0), di + 2 (> 0) und jeder der Zielwinkel &phi;r auf &phi;r = 0 eingestellt ist, die Bewegung des bewegbaren Körpers 1 so geleitet, daß z. B. in dem Abschnitt Li eine Verschiebung des bewegbaren Körpers 1 di beträgt und ein Deklinationswinkel des bewegbaren Körpers 1 Null. Auch in anderen Abschnitten wird die Bewegung des sich bewegenden Fahrzeugs 1 in der gleichen Weise geleitet. Entsprechend wird in dem dargestellten Beispiel ein Weg k&sub1;, der in der Zeichnung gestrichelt dargestellt ist, ein Fahrweg des bewegbaren Körpers 1.
  • Wenn dieses Leitverfahren verwendet wird, besteht die Möglichkeit, die Bewegung des bewegbaren Körpers 1 entlang eines Weges K&sub2;' zu leiten, der von dem Referenzweg K&sub2; gemäß Fig. 12 um einen Abstand von d&sub4; verschoben ist. Ferner ist es selbstverständlich möglich, die Bewegung des bewegbaren Körpers entlang eines Weges K&sub3; zu steuern, der identisch zu dem Referenzweg K&sub3; ist, wie in Fig. 13 gezeigt.
  • Wie aus der vorstehenden Beschreibung ersichtlich, bietet dieses Ausführungsbeispiel eine vorteilhafte Wirkung dahingehend, daß die Bewegung des bewegbaren Körpers entlang verschiedener Wege geleitet werden kann, die von einem Referenzweg verschieden sind, und zwar durch Verändern der Zielverschiebung oder sowohl der Zielverschiebung und des Zielwinkels in bezug auf jede der Positionen auf dem Referenzweg, der durch eine Reihe von Bodenmarkierungen gebildet wird.
  • Bei dem oben beschriebenen Ausführungsbeispiel ist ein vorbestimmter Deklinationswinkel &phi;r fest auf &phi;r + 0 eingestellt. Alternativ wird ein geeigneter Betrag des Deklinationswinkels &phi;r an jeder der Bewegungspositionen abhängig von der Form des Weges, entlang dessen die Bewegung des bewegbaren Körpers geleitet werden soll, eingestellt.
  • Ferner werden bei dem oben beschriebenen Ausführungsbeispiel sowohl die Zielverschiebung als auch der Zieldeklinationswinkel spezifiziert. Alternativ kann auch nur die Verschiebung dr spezifiziert werden. Das heißt, es ist auch möglich, den Wert des vorerwähnten K zu erhalten, indem eine Verarbeitung von &Delta;V = (dr - d) durch die CPU 11 zugelassen wird und die Bewegung des bewegbaren Körpers 1 unter Verwendung des so erhaltenen Wertes von K geleitet wird. Es sei angemerkt, daß eine Veränderung des Weges des bewegbaren Körpers mit höherer Genauigkeit erzielt werden kann, wenn sowohl die Verschiebung dr und der Winkel &phi;r spezifiziert sind.
  • Ferner werden bei dem oben beschriebenen Ausführungsbeispiel die Positionen Pi, Pi+1, - - -, an denen der Fahrweg des bewegbaren Körpers 1 variiert, anhand der Anzahl der Bodenmarkierungen 8 ermittelt, die an jeder der vorstehend erwähnten Positionen passiert werden. Alternativ ist es auch möglich, daß die Bodenmarkierungen relativ zu diesen Positionen in spezieller Form ausgestaltet sind und daß ihre Struktur optisch erkannt wird, um jede der Positionen zu ermitteln. Ferner besteht auch die Möglichkeit, Informationen bezüglich jeder der Positionen von einem Markierungspfosten oder einer ähnlichen, seitlich des Weges angeordneten Einrichtung aus zu geben.
  • Wenn eine Wegänderung an der Position vorgenommen wird, an der sich der bewegbare Körper 1 von beispielsweise der Position Pi um einen vorbestimmten Abstand entfernt, kann die Position, an der die Wegänderung vorgenommen worden ist, dadurch ermittelt werden, indem die Anzahl der von den Impulsgebern 9R und 9L gemäß Fig. 1 ausgegebenen Impulse unter Verwendung der Impulszähler gezählt wird, nachdem der bewegbare Körper 1 die Position Pi erreicht hat. In diesem Fall verwendet die CPU 11 einen Mittelwert der gezählten Werte sowohl der Zähler als auch der Entfernungsdaten, um eine Bewegungsstrecke der mittleren Position des bewegbaren Körpers 1 zu erhalten.

Claims (6)

1. Leitsystem zur Lenksteuerung eines auf einer Bodenfläche bewegten unbemannten bewegbaren Körpers (1) auf der Basis von Standortbestimmungen (dead reckoning), bei dem der unbemannte bewegbare Körper (1) aufweist: - eine Einrichtung (20) zum Messen der zurückgelegten Fahrstrecke des unbemannten bewegbaren Körpers (1), - eine Einrichtung (10) zum Messen der Fahrtrichtung des unbemannten bewegbaren Körpers (1), - eine Einrichtung (11) zum Errechnen der aktuellen Position und Stellung des unbemannten bewegbaren Körpers (1) durch Standortbestimmung auf der Basis des Ausgangssignals der Einrichtung (20) zum Messen der Fahrstrecke und der Einrichtung (10) zum Messen der Fahrtrichtung, - eine optische Einrichtung (6) zum Aufnehmen von Bildern von Markierungen (8, M1, M2), - eine Speichereinrichtung (29), und - eine Leitpositionskorrektureinrichtung (MR, ML) zur Lenksteuerung und zum Korrigieren der unter Verwendung der von der Berechnungseinrichtung (11) erhaltenen aktuellen Position und der aktuellen Stellung des unbemannten bewegbaren Körpers (1) berechneten aktuellen Position und der aktuellen Stellung des unbemannten bewegbaren Körpers (1), dadurch gekennzeichnet, - daß mehrere Sätze von mindestens zwei Markierungen (8) entlang eines Fahrweges des unbemannten bewegbaren Körpers (1) im Abstand angeordnet sind, wobei sich ein Satz hinter dem anderen befindet, - daß die Speichereinrichtung (29) zuvor gespeicherte Koordinaten jeder der Markierungen (8, M1, M2) enthält, - daß die Berechnungseinrichtung (11)
a) die tatsächliche Position und Stellung des unbemannten bewegbaren Körpers (1) von der Speichereinrichtung (29) erhält, wobei die Koordinaten von zwei Markierungen (8, M1, M2) verwendet werden, deren Bilddaten von der optischen Einrichtung (6) aufgenommen werden, wobei die Koordinaten berechnet werden auf der Basis
des Winkels (&phi;) zwischen einer die beiden Markierungen (8, M1, M2) verbindenden Referenzlinie (15) und einer aktuellen Fahrtrichtung (y) des unbemannten bewegbaren Körpers (1), der Entfernung (d) zwischen der Referenzlinie (15) und dem unbemannten bewegbaren Körper (1) und
der Entfernung (11, 12) von jeder der Markierungen (M1, M2) zu einer durch den unbemannten bewegbaren Körper (1) verlaufenden und die Referenzlinie (15) im rechten Winkel schneidenden Linie,
b) die durch Standortbestimmung errechnete Position und Stellung des unbemannten bewegbaren Körpers (1) mit den von der Speichereinrichtung (29) erhaltenen Daten vergleicht und
c) die Position und Stellung durch Steuern der Leitpositionskorrektureinrichtung (MR, ML) korrigiert.
2. Leitsystem für einen unbemannten bewegbaren Körper nach Anspruch 1, bei dem die Markierungen (8) eine Rückreflexionseigenschaft aufweisen und der unbemannte bewegbare Körper (1) ferner eine lichtemittierende Einrichtung (7) zum Beleuchten eines Sehfeldes der optischen Einrichtung (6) aufweist.
3. Leitsystem für einen unbemannten bewegbaren Körper nach Anspruch 1, bei dem die Markierungen (8) eine Leuchteigenschaft aufweisen.
4. Leitsystem für einen unbemannten bewegbaren Körper nach Anspruch 1, bei dem die optische Einrichtung (6) eine Fernsehkamera aufweist.
5. Leitsystem für einen unbemannten bewegbaren Körper nach Anspruch 1, bei dem die optische Einrichtung
(6) einen zweidimensionalen Halbleiter-Positionsdetektor aufweist.
6. Leitsystem zur Lenksteuerung eines unbemannten bewegbaren Körpers (1) auf der Basis von durch Aufnehmen von Bildern mehrerer entlang eines vorbestimmten Referenzweges (15) angeordneter Markierungen (8, M1, M2) durch eine optische Einrichtung (6) erhaltener Bilddaten, bei dem der unbemannte bewegbare Körper (1) aufweist: - eine Einrichtung (20) zum Messen der zurückgelegten Fahrstrecke des unbemannten bewegbaren Körpers (1), - eine Einrichtung (11) zum Errechnen der aktuellen Position des unbemannten bewegbaren Körpers (1) auf der Basis des Ausgangssignals der Einrichtung (9R, 9L, 21, 22) zum Messen der Fahrstrecke, - eine Speichereinrichtung (29) und - eine Leitpositionskorrektureinrichtung (MR, ML) zur Lenksteuerung des unbemannten bewegbaren Körpers (1) und zum Korrigieren der aktuellen Position und der aktuellen Stellung des unbemannten bewegbaren Körpers, dadurch gekennzeichnet, - daß die Speichereinrichtung (30) einen Wert der Zielverschiebung (dr) zwischen dem Referenzweg (15) und dem unbemannten bewegbaren Körper (1) und einen Wert eines Zielwinkels (&phi;r) zwischen dem Referenzweg (15) und einer aktuellen Fahrtrichtung (y) des unbemannten Fahrzeuges in bezug auf jede Position (Pi, Pi+1, . . . ) des Referenzweges (15), der in mehrere Abschnittseinheiten (Li, Li+1 . . . ) aufgeteilt ist, in denen mindestens zwei der Markierungen (8) in das Sehfeld der optischen Einrichtung (6) fallen, speichert, - die Berechnungseinrichtung (11) die tatsächliche Entfernung (di) und den tatsächlichen Winkel (&phi;) zwischen dem Referenzweg und dem unbemannten bewegbaren Körper (1) berechnet und eine auf Koordinaten der von der optischen Einrichtung (6) aufgenommenen Bilddaten zweier Markierungen (8) basierende aktuelle Position berechnet und die Position (Pi, Pi+1, . . . ) ermittelt, indem sie durch Zählen der Anzahl der Markierungen (8) in den von der optischen Einrichtung (6) aufgenommenen Bilddaten ermittelt, in welcher Abschnittseinheit (Li, Li+1, . . . ) sich der unbemannte bewegbare Körper (1) zur Zeit befindet, und - die Korrektureinrichtung (MR, ML) unter Verwendung von aus der Speichereinrichtung (30) ausgelesenen Daten (dr, &phi;r) sowie der berechneten tatsächlichen Entfernung (d) und dem tatsächlichen Winkel (&phi;) die Lenkung des unbemannten bewegbaren Körpers (1) steuert.
DE87903418T 1986-05-21 1987-05-21 Lenkvorrichtung für sich unbemannt bewegende körper. Expired - Fee Related DE3787003T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP61116856A JPS62272307A (ja) 1986-05-21 1986-05-21 無人移動体の誘導位置補正装置
JP15090286A JPS637820A (ja) 1986-06-27 1986-06-27 クリ−ンル−ムの防塵フイルタ検査装置
PCT/JP1987/000324 WO1987007403A1 (en) 1986-05-21 1987-05-21 Guiding apparatus for unmanned movable bodies

Publications (2)

Publication Number Publication Date
DE3787003D1 DE3787003D1 (de) 1993-09-16
DE3787003T2 true DE3787003T2 (de) 1994-03-24

Family

ID=26455093

Family Applications (1)

Application Number Title Priority Date Filing Date
DE87903418T Expired - Fee Related DE3787003T2 (de) 1986-05-21 1987-05-21 Lenkvorrichtung für sich unbemannt bewegende körper.

Country Status (4)

Country Link
US (2) US4862047A (de)
EP (2) EP0405623A3 (de)
DE (1) DE3787003T2 (de)
WO (1) WO1987007403A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006061748B4 (de) 2005-12-31 2018-05-03 Tsinghua University Abweichungskorrektionssystem zur Positionierung eines beweglichen Gegenstandes und Bewegungsverfolgungsmethode

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1989005456A1 (en) * 1987-12-01 1989-06-15 Biotope, Inc. Methods and devices for conducting assays
JPH01173825A (ja) * 1987-12-28 1989-07-10 Aisin Aw Co Ltd 車両用ナビゲーション装置
US5229941A (en) * 1988-04-14 1993-07-20 Nissan Motor Company, Limtied Autonomous vehicle automatically running on route and its method
US5155684A (en) * 1988-10-25 1992-10-13 Tennant Company Guiding an unmanned vehicle by reference to overhead features
EP0366350A3 (de) * 1988-10-25 1991-05-22 Tennant Company Führung eines führerlosen Fahrzeuges in Bezug auf über dem Fahrzeug angebrachte Markierungen
GB2242092A (en) * 1989-02-07 1991-09-18 Peter Lawrence Nolan Computer tracking system
US5144685A (en) * 1989-03-31 1992-09-01 Honeywell Inc. Landmark recognition for autonomous mobile robots
US4970653A (en) * 1989-04-06 1990-11-13 General Motors Corporation Vision method of detecting lane boundaries and obstacles
JP2669043B2 (ja) * 1989-04-12 1997-10-27 日産自動車株式会社 自律走行車両
JPH0313611A (ja) * 1989-06-07 1991-01-22 Toshiba Corp 自動清掃装置
US5051906A (en) * 1989-06-07 1991-09-24 Transitions Research Corporation Mobile robot navigation employing retroreflective ceiling features
US5087969A (en) * 1989-07-20 1992-02-11 Fujitsu Limited Unmanned vehicle control system with guide line detection
JP2669074B2 (ja) * 1989-09-27 1997-10-27 日産自動車株式会社 自律走行車両の車速感応操舵制御装置
FR2656435B1 (fr) * 1989-12-22 1996-07-05 Commissariat Energie Atomique Procede de recalage sur une trajectoire theorique pour un vehicule en modifiant la courbure de la trajectoire reelle.
JPH03201110A (ja) * 1989-12-28 1991-09-03 Toyota Central Res & Dev Lab Inc 自律走行車の位置方位検出装置
FR2660454B1 (fr) * 1990-03-27 1996-08-09 Commissariat Energie Atomique Procede de pilotage d'un vehicule tel qu'un fauteuil roulant pour personne handicapee.
JP2583641B2 (ja) * 1990-05-18 1997-02-19 日産自動車株式会社 走行制御方法
US5281901A (en) * 1990-12-03 1994-01-25 Eaton-Kenway, Inc. Downward compatible AGV system and methods
US5192903A (en) * 1990-07-10 1993-03-09 Daifuku Co., Ltd. Equipment for transporting a load
KR930010843B1 (ko) * 1990-12-15 1993-11-12 삼성전자 주식회사 이동감시 카메라장치
JP2738610B2 (ja) * 1991-09-07 1998-04-08 富士重工業株式会社 自走台車の走行制御装置
GB2259823A (en) * 1991-09-17 1993-03-24 Radamec Epo Limited Navigation system
CH683703A5 (de) * 1991-09-26 1994-04-29 Mueller J Ag Verfahren zur Geleisevermessung.
DE4138270C2 (de) * 1991-11-21 1996-10-02 Rheinmetall Ind Gmbh Verfahren zur Navigation eines selbstfahrenden Landfahrzeugs
US5300869A (en) * 1992-07-30 1994-04-05 Iowa State University Research Foundation, Inc. Nonholonomic camera space manipulation
JP3485336B2 (ja) * 1992-09-08 2004-01-13 キャタピラー インコーポレイテッド 乗物の位置を決定する方法及び装置
KR950009344B1 (ko) * 1992-09-15 1995-08-21 주식회사삼성중공업 무궤도식 크레인 자동주향방법 및 그 장치
US5440216A (en) * 1993-06-08 1995-08-08 Samsung Electronics Co., Ltd. Robot cleaner
IT1271241B (it) * 1994-10-04 1997-05-27 Consorzio Telerobot Sistema di navigazione per robot mobile autonomo
US5621645A (en) * 1995-01-24 1997-04-15 Minnesota Mining And Manufacturing Company Automated lane definition for machine vision traffic detector
US5764014A (en) * 1996-02-01 1998-06-09 Mannesmann Dematic Rapistan Corp. Automated guided vehicle having ground track sensor
AU706461B2 (en) * 1996-05-06 1999-06-17 Garrett Thermal Systems Limited Filter integrity monitoring system
AUPN968996A0 (en) * 1996-05-06 1996-05-30 Vision Products Pty Ltd Filter integrity monitoring system
US6163745A (en) * 1997-04-15 2000-12-19 Ainsworth Inc. Guidance system for automated vehicles, and guidance strip for use therewith
GB2367640B (en) * 1999-07-30 2002-10-16 Honda Motor Co Ltd Assembly line transporter control system
JP3995846B2 (ja) * 1999-09-24 2007-10-24 本田技研工業株式会社 物体認識装置
KR100478452B1 (ko) * 2002-06-12 2005-03-23 삼성전자주식회사 이동 로봇의 위치 및 방향 인식 장치 및 방법
US7130449B2 (en) * 2002-12-23 2006-10-31 The Boeing Company Method and system for ground imaging
US7706917B1 (en) * 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
JP4443350B2 (ja) * 2004-08-27 2010-03-31 株式会社大気社 空調設備
KR100560966B1 (ko) 2004-10-12 2006-03-15 삼성광주전자 주식회사 로봇 청소기의 자이로 센서 보정방법
JP4448759B2 (ja) * 2004-11-09 2010-04-14 本田技研工業株式会社 自走台車の走行制御方法
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
US8543276B2 (en) * 2006-04-18 2013-09-24 Lely Patent N.V. Unmanned autonomous vehicle for displacing feed
US8185241B2 (en) * 2006-11-13 2012-05-22 Raytheon Company Tracked robotic crawler having a moveable arm
WO2008127310A2 (en) * 2006-11-13 2008-10-23 Raytheon Sarcos Llc Unmanned ground robotic vehicle having an alternatively extendible and retractable sensing appendage
EP2086821B1 (de) * 2006-11-13 2010-07-14 Raytheon Sarcos LLC Vielseitig verwendbares endlosband für leichte mobile roboter
EP2258608A1 (de) * 2006-11-13 2010-12-08 Raytheon Sarcos LLC Konforme Spurenanordnung für eine Roboterraupe
JP2010526590A (ja) 2007-05-07 2010-08-05 レイセオン・サルコス・エルエルシー 複合構造物を製造するための方法
DE102007029299B4 (de) * 2007-06-22 2011-12-22 Fraba Ag Optischer Sensor für Positionieraufgaben
JP5285701B2 (ja) * 2007-07-10 2013-09-11 レイセオン カンパニー モジュール式ロボットクローラ
CN101751038B (zh) * 2008-12-05 2011-10-26 沈阳新松机器人自动化股份有限公司 一种移动机器人导航控制装置
US8392036B2 (en) * 2009-01-08 2013-03-05 Raytheon Company Point and go navigation system and method
WO2010144820A2 (en) 2009-06-11 2010-12-16 Raytheon Sarcos, Llc Amphibious robotic crawler
WO2010144813A1 (en) * 2009-06-11 2010-12-16 Raytheon Sarcos, Llc Method and system for deploying a surveillance network
DE102011082478A1 (de) * 2011-09-12 2013-03-14 Robert Bosch Gmbh Verfahren, System sowie Vorrichtung zur Lokalisation eines Fahrzeugs relativ zu einem vordefinierten Bezugssystem
US8393422B1 (en) 2012-05-25 2013-03-12 Raytheon Company Serpentine robotic crawler
US9031698B2 (en) 2012-10-31 2015-05-12 Sarcos Lc Serpentine robotic crawler
US9409292B2 (en) 2013-09-13 2016-08-09 Sarcos Lc Serpentine robotic crawler for performing dexterous operations
US9566711B2 (en) 2014-03-04 2017-02-14 Sarcos Lc Coordinated robotic control
US9405293B2 (en) * 2014-05-30 2016-08-02 Nissan North America, Inc Vehicle trajectory optimization for autonomous vehicles
US10071303B2 (en) 2015-08-26 2018-09-11 Malibu Innovations, LLC Mobilized cooler device with fork hanger assembly
US10807659B2 (en) 2016-05-27 2020-10-20 Joseph L. Pikulski Motorized platforms
US10589931B2 (en) 2016-09-30 2020-03-17 Staples, Inc. Hybrid modular storage fetching system
US10683171B2 (en) 2016-09-30 2020-06-16 Staples, Inc. Hybrid modular storage fetching system
CN109791477A (zh) 2016-09-30 2019-05-21 史泰博公司 混合式模块化存储提取系统
EP3527946B1 (de) * 2018-02-15 2024-07-03 Wipro Limited Verfahren und system zur echtzeit-erzeugung eines referenznavigationspfades zur navigation eines fahrzeugs
GB2574448A (en) * 2018-06-07 2019-12-11 Jaguar Land Rover Ltd Apparatus and method controlling a process
US11084410B1 (en) 2018-08-07 2021-08-10 Staples, Inc. Automated guided vehicle for transporting shelving units
US11590997B1 (en) 2018-08-07 2023-02-28 Staples, Inc. Autonomous shopping cart
US11630447B1 (en) 2018-08-10 2023-04-18 Staples, Inc. Automated guided vehicle for transporting objects
US11119487B2 (en) 2018-12-31 2021-09-14 Staples, Inc. Automated preparation of deliveries in delivery vehicles using automated guided vehicles
US11180069B2 (en) 2018-12-31 2021-11-23 Staples, Inc. Automated loading of delivery vehicles using automated guided vehicles
US11124401B1 (en) 2019-03-31 2021-09-21 Staples, Inc. Automated loading of delivery vehicles
EP4377641A1 (de) * 2021-07-28 2024-06-05 F. Hoffmann-La Roche AG Partikelzählvorrichtung und verfahren zum partikelzählen in einem sterilisationstunnel einer medikamentenabfüllanlage

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202830C (de) *
US3677065A (en) * 1970-10-14 1972-07-18 Us Air Force Transparent fluid sampler permitting particulate analysis in an assembled condition
FR2406245A1 (fr) * 1977-10-13 1979-05-11 Matra Engins Installation de transport a guidage automatique
JPS56145407A (en) * 1980-04-10 1981-11-12 Mitsubishi Electric Corp Steering controller for trackless roof car
JPS5757312A (en) * 1980-09-25 1982-04-06 Toshiba Corp Guiding device for unmanned monitor car
SE423840B (sv) * 1980-10-02 1982-06-07 Volvo Ab Sett att vid ett med dod rekning styrt hjulfordon anordna en uppdatering
JPS57204915A (en) * 1981-06-11 1982-12-15 Mitsubishi Electric Corp Control method for attitude of unattended running car
JPS57182209A (en) * 1981-04-30 1982-11-10 Mitsubishi Electric Corp Traveling error correcting device of unattended carrying vehicle
JPS57199007A (en) * 1981-06-02 1982-12-06 Kiyoto Furuya Traveling guide method
FR2526181A1 (fr) * 1982-04-30 1983-11-04 Traitement Information Tech Nl Installation de transport automatique par chariots autonomes, et chariots autonomes pour une telle installation
JPS5910831A (ja) * 1982-07-10 1984-01-20 Nitta Kk クリ−ンル−ム用高性能フィルタの自動リ−ク・テスト方法およびその装置
JPS5962917A (ja) * 1982-09-30 1984-04-10 Tsubakimoto Chain Co 無人搬送車の誘導方法
JPS5975315A (ja) * 1982-10-21 1984-04-28 Nippon Yusoki Co Ltd 無人搬送車
JPS59112312A (ja) * 1982-12-20 1984-06-28 Nippon Yusoki Co Ltd 無人搬送車の誘導帯
JPS59184917A (ja) * 1983-04-05 1984-10-20 Tsubakimoto Chain Co 無人搬送車の誘導方法
FR2554612B1 (fr) * 1983-11-04 1988-07-08 Onera (Off Nat Aerospatiale) Procede et dispositif de guidage automatique de mobiles en particulier de chariots automoteurs sans conducteur
JPS6118644A (ja) * 1984-06-30 1986-01-27 Babcock Hitachi Kk バ−ナ着脱移送装置
IT1185497B (it) * 1985-11-05 1987-11-12 Sirius Spa Automatismo programmabile particolarmente per emulare l'uomo nelle attivita' fisiche, didattiche,ludiche e simili
US4821665A (en) * 1986-03-13 1989-04-18 Honeywell Inc. Submersible ROV for cleaning and inspecting metal

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006061748B4 (de) 2005-12-31 2018-05-03 Tsinghua University Abweichungskorrektionssystem zur Positionierung eines beweglichen Gegenstandes und Bewegungsverfolgungsmethode

Also Published As

Publication number Publication date
EP0273976A4 (de) 1988-07-14
EP0273976A1 (de) 1988-07-13
US4862047A (en) 1989-08-29
EP0405623A2 (de) 1991-01-02
US4924153A (en) 1990-05-08
EP0405623A3 (en) 1991-02-06
DE3787003D1 (de) 1993-09-16
WO1987007403A1 (en) 1987-12-03
EP0273976B1 (de) 1993-08-11

Similar Documents

Publication Publication Date Title
DE3787003T2 (de) Lenkvorrichtung für sich unbemannt bewegende körper.
DE69306436T3 (de) Vorrichtung zur Detektion eines Hindernisses für Kraftfahrzeuge
DE69712906T2 (de) Von der umgebung unabhängiges positionsbestimmungssystem
EP1042643B1 (de) Vorrichtung zum bestimmen der rad- und/oder achsgeometrie von kraftfahrzeugen
DE69812673T2 (de) Verfahren und geraet zur zuweisung von anonymen reflektoren zur erkannten winkelposition
EP0954773B1 (de) Verfahren und anordnung zur andockpositionierung einer autonomen mobilen einheit
DE69605458T2 (de) Ausserhalb-der-Spur-Alarmeinrichtung
DE102005012107B4 (de) Meßsystem und Verfahren zur geodätischen Vermessung von Objekten
DE3741259A1 (de) Verfahren und vorrichtung zur autonomen steuerung eines fahrzeuges
DD228096A5 (de) Verfahren und vorrichtung zur automatischen fuehrung von fahzeugen, insbesondere von fahrerlosen elektrokarren
DE10246066B4 (de) Verfahren und Vorrichtung zur Kalibrierung eines Bildsensorsystems in einem Kraftfahrzeug
DE10246067A1 (de) Verfahren und Vorrichtung zur Kalibrierung eines Bildsensorsystems in einem Kraftfahrzeug
EP1517117A1 (de) Verfahren und System zur Bestimmung einer Aktualposition eines Positionierungsgerätes
DE102015201317A1 (de) Vermessen einer Abmessung auf einer Oberfläche
EP0195191A1 (de) Passivspur-System zur Führung und Steuerung von fahrerlosen Transport- und Montageeinheiten
WO1997006409A1 (de) Verfahren und vorrichtung zur schnellen erfassung der lage einer zielmarke
DE102007021762A1 (de) Straßenumgebungs-Erkennungsvorrichtung und Verfahren zum Erkennen einer Straßenumgebung
DE69822187T2 (de) Verfahren und vorrichtung zur ortung und führung eines mit einer linearen kamera versehenen fahrzeugs
DE3913988A1 (de) Verfahren und vorrichtung zum vermessen von strassen bezueglich achsenlaenge, breite und hoehe bzw. steigung
DE4138270C2 (de) Verfahren zur Navigation eines selbstfahrenden Landfahrzeugs
EP3482622B1 (de) Verfahren zur automatischen führung eines fahrzeugs entlang eines virtuellen schienensystems
DE4429016A1 (de) Navigation für fahrerlose Fahrzeuge
EP2171556B1 (de) Vorrichtung und verfahren zur positions- und orientierungsbestimmung
DE102016115636A1 (de) Bewegliche Vorrichtungen
EP3789842B1 (de) Verfahren zur lokalisierung eines fahrzeugs sowie fahrzeug zur durchführung des verfahrens

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee