DE102005014718B4 - Positionserfassungsvorrichtung für ein mobiles Objekt - Google Patents

Positionserfassungsvorrichtung für ein mobiles Objekt Download PDF

Info

Publication number
DE102005014718B4
DE102005014718B4 DE102005014718A DE102005014718A DE102005014718B4 DE 102005014718 B4 DE102005014718 B4 DE 102005014718B4 DE 102005014718 A DE102005014718 A DE 102005014718A DE 102005014718 A DE102005014718 A DE 102005014718A DE 102005014718 B4 DE102005014718 B4 DE 102005014718B4
Authority
DE
Germany
Prior art keywords
robot
signal
detector
mobile object
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102005014718A
Other languages
English (en)
Other versions
DE102005014718A1 (de
Inventor
Koji Wako Kawabe
Satoki Wako Matsumoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2004104174A external-priority patent/JP4477921B2/ja
Priority claimed from JP2004102655A external-priority patent/JP4174449B2/ja
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE102005014718A1 publication Critical patent/DE102005014718A1/de
Application granted granted Critical
Publication of DE102005014718B4 publication Critical patent/DE102005014718B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/12Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves by co-ordinating position lines of different shape, e.g. hyperbolic, circular, elliptical or radial
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/74Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)

Abstract

Positionserfassungsvorrichtung zum Messen einer Position eines mobilen Objekts (D), das sich in einem kontrollierten Bereich (C) herum bewegt, umfassend:
einen Detektor (R), der Objektpositionsinformation erhält, die die Position des mobilen Objekts (D) anzeigt, wobei die Objektpositionsinformation Richtungsinformation (Θ) und Abstandsinformation (r) des mobilen Objekts (D) relativ zu dem Detektor (R) enthält, und wobei sich der Detektor (R) in dem kontrollierten Bereich (C) herumbewegt;
eine Basisstation (1), die Detektorpositionsinformation erhält, die die Position des Detektors (R) angibt, wobei die Detektorpositionsinformation eine absolute Position (p(x, y)) und einen Winkel (I) des Detektors (R) innerhalb des kontrollierten Bereichs (C) enthält,
worin die Position des mobilen Objekts (D) innerhalb des kontrollierten Bereichs (C) auf der Basis der Objektpositionsinformation und der Detektorpositionsinformation gemessen wird,
dadurch gekennzeichnet, dass an dem mobilen Objekt (D) eine Kennung (T) vorgesehen ist; und
der Detektor (R) einen Lichtemitter (100), der Richtungsinformation enthaltende Lichtsignale in radialer...

Description

  • Die Erfindung betrifft eine Positions-Erfassungsvorrichtung zum Messen einer Position eines mobilen Objekts nach dem Oberbegriff von Anspruch 1.
  • In den letzten Jahren ist ein autonomer mobiler Roboter entwickelt worden. Insbesondere haben sich die jüngsten Entwicklungen in dieser Technik auf einen autonomen zweibeinig gehenden Roboter konzentriert.
  • Darüber hinaus sind eine Spracherkennungsvorrichtung, die eine Sprachmitteilung in Textdaten umwandelt, und eine Sprachsynthesevorrichtung, die eine synthetische Stimme ertönen lässt, indem sie die synthetische Stimme aus Textdaten synthetisiert, entwickelt worden und sind für verschiedene Vorrichtungen angewendet worden. Es ist ein mobiler Roboter entwickelt worden, der mit solchen Vorrichtungen ausgestattet ist, d. h. einer Spracherkennungsvorrichtung und einer Sprachsynthesevorrichtung, die dazu ausgelegt sind, mit einer Person eine dialogartige Kommunikation durchzuführen.
  • Um eine autonome Kommunikation zwischen einem mobilen Roboter und einer Person zu realisieren, muss der mobile Roboter eine Person suchen und identifizieren und muss sich zu der identifizierten Person hinbewegen.
  • Um dieses Erfordernis zu erzielen, sind eine Vorrichtung, die das Vorhandensein eines Zielobjekts innerhalb eines bestimmten Bereichs erfasst und die Position innerhalb des bestimmten Bereichs der erfassten Zielobjekte misst, und ein Verfahren davon entwickelt worden.
  • Als ein Beispiel dieser herkömmlichen Vorrichtungen sind Vorrichtungen entwickelt worden, wie sie etwa in den japanischen ungeprüften Patentschriften, wie etwa JP2002-307338 , JP2003-91678 und JP2002-98749 offenbart sind.
  • Die in der JP2002-307338 offenbarte Vorrichtung erfasst das Vorhandensein eines Zielobjekts durch Prüfung, ob Infrarotstrahlung von dem mobilen Objekt mit einem Infrarotsensor (Menschen-Sensor) sensiert wird oder nicht.
  • Die in der JP2003-91678 offenbarte Vorrichtung erfasst das Vorhandensein eines Zielobjekts mittels einer Mehrzahl von Detektoren, die innerhalb eines bestimmten Bereichs angeordnet sind, und die Position des Detektors, die das mobile Objekt sensiert hat, wird als die Position des mobilen Objekts betrachtet.
  • Die in der JP2002-98749 offenbarte Vorrichtung erfasst das Vorhandensein eines Zielobjekts mittels einer Mehrzahl von Sendern, die innerhalb eines bestimmten Bereichs angeordnet sind, sowie eines Senders, der an einem Zielobjekt vorgesehen ist. In dieser Vorrichtung werden die Feldintensität einer Funkwelle, die von dem Sender des mobilen Objekts gesendet wird, und die Feldintensität einer Funkwelle, die vom im spezifischen Bereich vorgesehenen Sender gesendet wird, berechnet, und die Position des mobilen Objekts wird mittels dieser berechneten Feldintensitäten gemessen.
  • Im Falle der JP2002-307338 kann jedoch die Erfassung des mobilen Objekts nur dann erreicht werden, wenn sich das mobile Objekt innerhalb einer Erfassungsreichweite des Infrarotsensors (Menschen-Sensors) befindet. D. h., wenn sich das mobile Objekt außerhalb der Erfassungsreichweite befindet, kann die Erfassung des mobilen Objekts nicht erreicht werden.
  • Im Falle der JP2003-91678 und der JP2002-98749 gibt es die folgenden Nachteile. (1) Da eine Mehrzahl von Detektoren oder Sensoren zum Erfassen eines Zielobjekts erforderlich sind, werden die Kosten der Vorrichtung hoch; (2) wenn sich ein Zielobjekt in dem weiten Bereich herumbewegt, kann die Erfassung des mobilen Objekts nur dann erreicht werden, wenn sich das Zielobjekt innerhalb eines bestimmten Bereichs befindet, wo die Detektoren und Sender vorgesehen sind; und (3) es kann eine grobe Position des Zielobjekts gemessen werden, aber die genaue Position des Zielobjekts, wie etwa eine Richtung und ein Abstand von dem Detektor (Sender) kann nicht gemessen werden.
  • Wenn hier zumindest eines von Zielobjekt und Detektor ein mobiles Objekt ist, wenn zum Beispiel das Zielobjekt ein mobiles Objekt ist und der Detektor selbst ein mobiler Roboter ist, ändert sich der Bereich, wo der mobile Roboter zum Erkennen einer Person installiert ist, fortlaufend. Da in diesem Fall das Vorsehen einer Mehrzahl von Detektoren und Sendern in dem Bereich vorab einfach unmöglich ist, waren die in den obigen Schriften offenbarten Vorrichtungen nicht angemessene Vorrichtungen.
  • Im Falle der herkömmlichen Vorrichtungen, d. h. einer Vorrichtung zum Messen der Position des mobilen Objekts hat es die folgenden Nachteile gegeben. Das heißt, da die Herstellungskosten von HF-ID (Hochfrequenz-Identifikation) niedrig sind, tritt das Kostenproblem nicht auf, wenn HF-ID als Sender verwendet wird, selbst wenn die Anzahl der zu erkennenden Personen zunimmt. Da jedoch die Leistung einer Funkwelle gering ist, ist die nutzbare Reichweite der Vorrichtung auf eine enge Reichweite begrenzt.
  • Wenn jedoch die nutzbare Reichweite der Vorrichtung vergrößert werden soll, ist der Sender, dessen Funkwellenleistung sehr hoch ist, oder eine Mehrzahl von Empfängern, die mit einem vorbestimmten Abstand vorgesehen sind, erforderlich. In diesem Fall erhöht die Anwendung des Senders mit hoher Leistung die Herstellungskosten davon und ruft die Kostenprobleme hervor, wenn jede Person mit dem Hochleistungssender versehen ist.
  • Wenn darüber hinaus eine Mehrzahl von Empfängern mit einem vorbestimmten Abstand vorgesehen sind, erfordert dies die Kosten der Infrastruktur und begrenzt die verwendbare Reichweite auf eine enge Reichweite. Da ferner eine Dämpfung der vom Sender gesendeten Funkwelle auftritt, wenn ein Hindernis in einem vorbestimmten Bereich vorhanden ist, verringert dies die Genauigkeit der Positionserfassung des Zielobjekts.
  • Da im Falle der Vorrichtung, die in der JP2002-98749 offenbart ist, die Dämpfung der von dem Sender übertragenen Funkwelle oft vorkommt, wenn HF-ID als der Sender verwendet wird, und in dem bestimmten Bereich ein Hindernis vorhanden ist, verringert dies die Genauigkeit der Positionserfassung des Zielobjekts.
  • Aus der US 2003/0083818 A1 ist eine Positions-Erfassungsvorrichtung nach dem Oberbegriff von Anspruch 1 bekannt.
  • Aus der US 4003049 A ist es bekannt, mobile Objekte mit Transpondern (Kennungen) zu versehen.
  • Aus der DE 25 30 841 C1 ist eine Positions-Erfassungsvorrichtung mit einem Abfragegerät und einem Antwortgerät bekannt. Das Abfragegerät sendet ein Abfragesignal mittels des HF-Senders HFS und ein Lasersignal mittels des Laser-Senders LS aus. Das Antwortgerät sendet ein Antwortsignal nur dann aus, wenn der Senderimpuls des Lasersenders in einem bestimmten Abschnitt während der Dauer des Abfragesignals des Abfragegerätes eintrifft. Das Antwortsignal kann eine Kennung enthalten.
  • Aufgabe der Erfindung ist es daher, eine Positions-Erfassungsvorrichtung anzugeben, die die Position innerhalb eines weiten kontrollierten Bereichs des Zielobjekts erfassen kann, ohne zusätzliche Ausstattungen zu benötigen, selbst wenn der Sender, dessen Sendeleistung gering ist, als Sender an dem mobilen Objekt verwendet wird.
  • Zur Lösung der Aufgabe wird eine Positions-Erfassungsvorrichtung gemäß Anspruch 1 angegeben. Diese Vorrichtung enthält eine Kennung, die an dem mobilen Objekt vorgesehen ist; einen Detektor, der Objektpositionsinformation erhält, die die Position des mobilen Objekts anzeigt, wobei die Objektpositionsinformation Richtungsinformation und Abstandsinformation des mobilen Objekts relativ zu dem Detektor enthält, und wobei sich der Detektor in dem kontrollierten Bereich herumbewegt; eine Basisstation, die Detektorpositionsinformation erhält, die die Position des Detektors angibt, wobei die Detektorpositionsinformation eine absolute Position und einen Winkel des Detektors innerhalb des kontrollierten Bereichs enthält. In diesem System wird die absolute Position des mobilen Objekts innerhalb des kontrollierten Bereichs auf der Basis der Objektpositionsinformation und der Detektorpositionsinformation gemessen.
  • Gemäß dieser Vorrichtung entspricht die Sendedistanz r der Objektinformation (Richtungsinformation und Abstandsinformation), die von der Kennung gesendet wird, der Distanz zwischen dem mobilen Objekt und dem Detektor, selbst wenn das Positions-Erfassungssystem bei einem weiten kontrollierten Bereich angewendet wird. Das heißt, die Sendedistanz der Objektinformation wird innerhalb eines vorbestimmten Abstands gehalten.
  • Daher kann der Datenaustausch zwischen dem mobilen Objekt und dem Detektor effizient erreicht werden, selbst wenn die Sendeleistung der Kennung gering ist.
  • Daher kann die genaue Position des mobilen Objekts innerhalb des kontrollierten Bereichs aus der Objektpositionsinformation und der Detektorpositionsinformation gemessen werden, wenn die Basisstation die von dem Detektor erfasste Objektpositionsinformation und die Detektorpositionsinformation erfasst.
  • Erfindungsgemäß ergeben sich die folgenden Vorteile. Das heißt, der kontrollierte Bereich, wo sich der mobile Roboter frei herumbewegt, kann vergrößert werden, ohne zusätzliche neue Ausstattungen vorzusehen, selbst wenn die Leistung der Kennung, die an dem mobilen Objekt vorgesehen ist, klein ist. Da in diesem Fall die Kennung, deren Leistung klein ist, als die Kennung verwendet werden kann, die an dem mobilen Objekt vorzusehen ist, ruft dies keinerlei Kostenproblem und gesetzliches Problem hervor.
  • Gemäß der Erfindung berechnet der Detektor den Abstand zwischen der Kennung und dem Detektor auf der Basis der Feldintensität des Empfangssignals, wenn das von der Kennung gesendete Empfangssignal mit dem Funkwellenempfänger empfangen wird, und betrachtet den berechneten Abstand als Abstandsinformation. Dann kann der Detektor die Objektpositionsinformation aus dieser Abstandsinformation und der Richtungsinformation, die in dem Empfangssignal enthalten war, erzeugen.
  • In der vorliegenden Erfindung ist ferner die Kennungs-ID zum Spezifizieren der Kennung der Kennung zugewiesen. Daher kann die Identifikation jedes mobilen Objekts unter Verwendung der Kennungs-ID der an dem mobilen Objekt vorgesehenen Kennung auch dann erfolgen, wenn sich eine Mehrzahl mobiler Objekte innerhalb des kontrollierten Bereichs befindet.
  • In der vorliegenden Erfindung kann die Basisstation einen Detektorcontroller aufweisen, der den Detektor steuer oder regelt, der in dem kontrollierten Bereich herumläuft, sowie eine Objektpositionsberechnungseinheit, die Objektpositionsinformation und Detektorpositionsinformation empfängt und eine absolute Position innerhalb des kontrollierten Bereichs des mobilen Objekts misst. Hier sind die Objektpositionsinformation und die Detektorpositionsinformation die vom Detektor gesendete Information. Ferner kann die Basisstation eine ID-Identifikationseinheit enthalten, die eine Identifikation des mobilen Objekts durchführt, in Bezug auf eine Datenbank auf der Basis der Kennungs-ID von dem Detektor.
  • Gemäß der vorliegenden Erfindung kann eine genaue Messung der Position des mobilen Objekts erreicht werden, während die Identifikation des mobilen Objekts durch die Basisstation durchgeführt wird. Daher kann der Lauf des mobilen Objekts auf der Basis der Position des mobilen Objekts bestimmt werden.
  • Wenn daher der Detektor ein mobiler Roboter ist, kann der mobile Roboter zu der Person mit der Kennung hinlaufen und diese erreichen, da die Richtung und der Abstand zu der Person von dem mobilen Roboter durch die Objektpositionsberechnungseinheit berechnet wird. Hierdurch kann der mobile Roboter einen Dialog mit der Person durchführen.
  • Insbesondere werden in diesem System das Senden der Funkwelle von dem Funkwellenempfänger und das Abstrahlen des Lichtsignals von dem Lichtemitter mit einem vorbestimmten Intervall unter der Steuerung des Detektorcontrollers wiederholt. Daher können die Richtung und der Abstand zu der Kennung durch Empfang des Empfangssignals von der Kennung, die die Funkwelle oder das Lichtsignal empfangen hat, zeitgerecht gemessen werden, selbst wenn sich die Position der Kennung und des mobilen Roboters fortlaufend ändern. Hierdurch kann der mobile Roboter zu der Position laufen, die gerade jetzt gemessen worden ist, indem der Laufweg des mobilen Roboters entsprechend korrigiert wird.
  • In diesem Fall kann daher der mobile Roboter zu der Person mit der Kennung laufen, während die Laufroute des mobilen Roboters korrigiert wird, selbst wenn der mobile Roboter Hindernissen ausweicht, die sich auf der Laufroute des mobilen Roboters befinden. Hier kann das Hindernis zum Beispiel ein Kind ohne Kennung oder ein Haustier sein.
  • Da gemäß der vorliegenden Erfindung die Positionsbeziehung (Richtung und Abstand der Person in Bezug auf den mobilen Roboter) fortlaufend zeitgerecht gemessen werden kann, kann der mobile Roboter auf der Basis der Positionsbeziehung zur gemessenen Position der Person laufen.
  • Ferner ist es bevorzugt, dass der Detektor ein autonomer zweibeinig gehender Roboter ist. In diesem Fall kann der Detektor eine Positionsidentifikationseinheit enthalten, die die Position des mobilen Roboters auf der Basis von Objektpositionsinformation und Detektorpositionsinformation identifiziert, sowie einen Laufcontroller, der den Lauf des Detektors von der Positionsidentifikationseinheit identifizierten Position steuert oder regelt. Darüber hinaus kann der Detektor eine Personeninformations-Erfassungseinheit enthalten, die persönliche Information enthält, die mit der im Empfangssignal enthaltenen Kennungs-ID korreliert, sowie eine Bewegungsbestimmungseinheit, die einen Dialog mit der Person oder eine Bewegung des mobilen Objekts auf der Basis der Personeninformation bestimmt. Hier ist es bevorzugt, dass das mobile Objekt eine Person mit der Kennung ist, und der Detektor kann einen Dialogcontroller enthalten, der einen Dialog mit der Person steuert.
  • Gemäß der vorliegenden Erfindung kann das mobile Objekt verschiedene Arten von Prozesseigenschaften bereitstellen, nachdem sich der Detektor in die Nähe des mobilen Objekts bewegt hat.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm eines Zielobjekterfassungssystems A gemäß der vorliegenden Ausführung.
  • 2 ist eine Erläuterungsansicht des Datenaustauschs, der zwischen dem mobilen Objekt D, dem Roboter R und dem Managementcomputer 3 durchgeführt wird, wenn sich das mobile Objekt D und der Roboter R innerhalb des kontrollierten Bereichs C befinden.
  • 3 ist ein Blockdiagramm des Roboters R.
  • 4 ist ein Blockdiagramm einer Zielerfassungseinheit 70 des Roboters R.
  • 5A ist einer Erläuterungsansicht einer um den Roboter R herum eingerichteten Suchregion.
  • 5B ist eine Erläuterungsansicht einer Strahlungsspannweite in einer Höhenrichtung eines Infrarotlichts, das von dem Lichtemitter der Lichtemissionseinheit 100 abgestrahlt wird.
  • 6 ist eine Erläuterungsansicht zum Erläutern der Emissionsreihenfolge jedes an dem Roboter R vorgesehenen Lichtemitters.
  • 7 ist eine Erläuterungsansicht zum Erläutern der auf der Feldintensität beruhenden Erzeugung von Information (Bereichsinformation), die den Bereich angibt, in dem sich das Zielobjekt befindet.
  • 8 ist eine Erläuterungsansicht zum Erläutern des Erzeugen von Information (Richtungsinformation), die die Richtung des Zielobjekts angibt.
  • 9 ist eine Erläuterungsansicht zum Bestimmen der Position des Zielobjekts D auf der Basis der Richtungsinformation und der Bereichsinformation.
  • 10 ist ein Blockdiagramm der Kennung T1, die als das Zielobjekt D dient.
  • 11 ist ein Blockdiagramm einer Basisstation 1.
  • 12 ist eine Erläuterungsansicht der Berechnung der absoluten Position (Positionsvektor q) innerhalb des kontrollierten Bereichs C des mobilen Objekts D.
  • 13 ist ein Flussdiagramm zur Erläuterung des Bewegungsbeispiels 1 des Positionserfassungssystems der vorliegenden Ausführung.
  • 14 ist ein Flussdiagramm zur Erläuterung des Bewegungsbeispiels 2 des Positionserfassungssystems der vorliegenden Ausführung.
  • 15 ist ein Blockdiagramm des Controllers 40 des Roboters R der zweiten Ausführung.
  • 16 ist ein Blockdiagramm des Managementcomputers 3 des Roboters R der zweiten Ausführung.
  • 17 ist ein Flussdiagramm der Signalverarbeitung des Objekterfassungssystems 70 des Roboters R.
  • 18 ist ein Flussdiagramm zum Erläuterung der Signalverarbeitung der Kennung T1.
  • 19 ist ein Flussdiagramm zur Erläuterung der Signalverarbeitung des Objekterfassungssystems, das zur Erkennung des Besuchers des Büros ausgelegt ist.
  • 20A ist eine Erläuterungsansicht des Bewegungsmusters 1 des Roboters.
  • 20B ist eine Erläuterungsansicht des Bewegungsmusters 1 des Roboters.
  • 20C ist eine Erläuterungsansicht des Bewegungsmusters 1 des Roboters.
  • 21 ist ein Flussdiagramm zur Erläuterung der Bewegung des Roboters R, die der Funktion des Bewegungsmusters 1 unterliegt.
  • 22 ist ein Flussdiagramm zur Erläuterung der Bewegung des Roboters R, die der Funktion des Bewegungsmusters 2 unterliegt.
  • 23 ist ein Flussdiagramm zur Erläuterung der Bewegung des Roboters R, die der Funktion des Bewegungsmusters 2 unterliegt.
  • 24 ist ein Flussdiagramm zur Erläuterung der Bewegung des Roboters R, die der Funktion des Bewegungsmusters 2 unterliegt.
  • 25A ist eine Erläuterungsansicht des Bewegungsmusters 3 des Roboters.
  • 25B ist eine Erläuterungsansicht des Bewegungsmusters 3 des Roboters.
  • 26 ist ein Flussdiagramm zur Erläuterung der Bewegung des Roboters R, die der Funktion des Bewegungsmusters 3 unterliegt.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNG
  • Zuerst wird ein mobiler Roboter (nachfolgend als „Roboter” bezeichnet) gemäß der vorliegenden Ausführung in Bezug auf die beigefügten Zeichnungen beschrieben. Hier hat der Roboter der vorliegenden Ausführung einen Mechanismus zum Erfassung einer Kennung, die an einem Zielobjekt (mobilen Objekt) vorgesehen ist und zusammen mit einer Kennung ein Mobilobjekt-Erfassungssystem konfiguriert.
  • <AUFBAU DES MOBILOBJEKT-ERFASSUNGSSYSTEMS A>
  • Der Aufbau des Positions-Erfassungssystems A zum Erfassen des mobilen Objekts wird in Bezug auf 1 und 2 erläutert.
  • Das Positions-Erfassungssystem A erfasst ein mobiles Objekt D innerhalb eines Umgebungsbereichs des Roboters R und identifiziert die Position des mobilen Objekts D, wenn es erfasst wird. Das Positions-Erfassungssystem A zum Erfassen des mobilen Objekts führt eine persönliche Erkennung des mobilen Objekts D durch, wenn die Position des mobilen Objekts identifiziert wird, falls erforderlich.
  • Wie in 1 gezeigt, enthält das Positions-Erfassungssystem A einen Roboter R, eine Basisstation 1, einen Managementcomputer 3, ein Terminal 5 und eine Kennung T. In diesem System kommuniziert der Roboter R mit der Basisstation 1 durch drahtlose Kommunikation. Die Basisstation 1 ist mit dem Managementcomputer 3 durch ein Roboternetzwerk 2 verbunden. Der Managementcomputer 3 ist mit dem Terminal 5 durch ein Netzwerk 4 verbunden. Die Kennung T ist an dem mobilen Objekt B angebracht. In dieser Ausführung entspricht das mobile Objekt D einer Person mit der mit der Kennung T.
  • In dem Positions-Erfassungssystem A erfasst der Roboter R das Vorhandensein des mobilen Objekts D, zum Beispiel einer Person mit einer Kennung T, innerhalb eines Umgebungsbereichs des Roboters R. Dann misst der Roboter R die Position des erfassten mobilen Objekts D und berechnet die relative Position (einen relativen Vektor S) des mobilen Objekts D in Bezug auf den Roboter R.
  • Die Basisstation 1 steuert/regelt die Bewegung des Roboters R, der sich in einem kontrollierten Bereich C herumbewegt, und berechnet die absolute Position des Roboters R (einen Positionsvektor p). Dann berechnet die Basisstation 1 die absolute Position des mobilen Objekts D (den Positionsvektor q) auf der Basis der absoluten Position des Roboters R (eines Positionsvektors p) und der relativen Position des mobilen Objekts (relativer Vektor s).
  • Der Managementcomputer 3 führt die Steuerung der Basisstation 1 durch und steuert die Bewegung, zum Beispiel den Lauf und die Sprache des Roboters R durch das Roboternetzwerk 2. Der Managementcomputer 3 tauscht wesentliche Information (Daten) mit dem Roboter R aus.
  • In dieser Ausführung entsprechen ein Name einer Person (mobiles Objekt D) und eine Karte (Karteninformation) des Bereichs, wo sich der Roboter R herumbewegt, der wesentlichen Information. Die wesentliche Information wird in einer Aufzeichnungseinheit (nicht gezeigt) gespeichert, die in dem Managementcomputer 3 vorgesehen ist.
  • Das Roboternetzwerk 2 verbindet die Basisstation 1, den Managementcomputer 3 und das Netzwerk 4 miteinander und kann durch ein LAN repräsentiert sein.
  • Das Terminal 5 ist mit dem Managementcomputer 3 durch das Netzwerk 4 verbunden und wird für die Eingabe und Aktualisierung der Information verwendet, die die Information in Bezug auf die Kennung T und die Person mit der Kennung T ist. Hier entspricht eine IC-Kennung der Kennung der vorliegenden Erfindung.
  • <<ERSTE AUSFÜHRUNG>>
  • Nachfolgend wird der Aufbau des Roboters R und des mobilen Objekts D (Kennung T) erläutert.
  • [ROBOTER R]
  • Der Roboter R, der dem Detektor des Positions-Erfassungssytems A dieser Ausführung entspricht, ist ein menschenförmiger autonomer mobiler Roboter, der zweibeinig gehen kann.
  • Der Roboter R sendet eine Funkwelle W zu einem Umgebungsbereich des Roboters R und strahlt ein Lichtsignal B (Infrarotlicht B) zu Suchregionen, die um den Roboter R herum eingerichtet sind.
  • Dann berechnet der Roboter R den Abstand zu dem mobilen Objekt D (Kennung T) von dem Roboter R auf der Basis der Feldstärke des Empfangssignals J, und wenn ein Signal (Empfangssignal J) von dem mobilen Objekt D (Kennung T) empfangen worden ist. Hier ist das Empfangssignal J ein Signal, das den Roboter R in Kenntnis setzt, dass die Funkwelle W und das Lichtsignal B, die von dem Roboter R gesendet (abgestrahlt) werden, von dem mobilen Objekt D (Kennung T) empfangen worden sind. Zusätzlich betrachtet der Roboter R die Strahlungsrichtung des von dem mobilen Objekt D empfangenen Lichtsignals als die Richtung θ des mobilen Objekts. Hierdurch kann der Roboter R auf der Basis des Empfangssignals J das mobile Objekt D erfassen und die Position des mobilen Objekts D messen und berechnet den relativen Vektor (r, θ) der die relative Position des mobilen Objekts D in Bezug auf den Roboter R angibt.
  • Wie in 1 und 2 gezeigt, enthält der Roboter R einen Kopfteil R1, einen Armteil R2 und einen Beinteil R3, die jeweils durch einen Aktuator aktiviert werden. Der Roboter R ist dazu ausgelegt, unter der Steuerung eines autonomen Laufcontrollers 50 ein zweibeiniges Gehen durchzuführen (siehe 2). Das Detail des zweibeinigen Gehens ist zum Beispiel in der japanischen ungeprüften Patentanmeldung JP2001-62760 offenbart. Die Inhalte dieser Anmeldung werden hierdurch bezugnehmend aufgenommen.
  • Wie in 3 gezeigt, enthält der Roboter R Kameras C, C, einen Lautsprecher S, ein Mikrofon MC, einen Bildprozessor 10, einen Sprachprozessor 20, einen Bildübertrager 30, einen Controller 40, einen autonomen Laufcontroller 50, eine Funkkommunikationseinheit 60 und eine Zielerfassungseinheit 70. Der Roboter R enthält ferner einen Gyrosensor SR1 und einen GPS-Empfänger SR2 zum Messen der Position des Roboters R.
  • [KAMERA C]
  • Die Kamera C erfasst Bilder in Form eines digitalen Formats. In dieser Ausführung wird zum Beispiel eine Farb-CCD (ladungsgekoppelte Vorrichtung) Kamera als die Kamera C verwendet. Die Kameras C, C sind entlang der Querrichtung in einer Linie angeordnet. Die von den Kameras C und C erfassten Bilder werden dem Bildprozessor 10 und dem Bildübertrager 30 zugeführt. In dieser Ausführung sind die Kameras C, C, der Lautsprecher S und das Mikrofon MC in dem Kopfteil R1 des Roboters R installiert.
  • [BILDPROZESSOR 10]
  • Der Bildprozessor 10 führt die Erkennung einer Person und eines Hindernisses in einem Umgebungsbereich durch, um den Zustand des Umgebungsbereichs des Roboters R auf der Basis des von den Kameras C, C erfassten Bilds zu erkennen. Dieser Bildprozessor 10 enthält einen stereoskopischen Prozessor 11a, eine Mobilobjekt-Extraktionseinheit 11b und eine Gesichtserkennungseinheit 11c.
  • Der stereoskopische Prozessor 11a führt einen Musterabgleich zwischen den von jeder Kamera 10 aufgenommenen Bildern auf der Basis eines der von den Kameras C, C erfassten Bildern durch. Da in dieser Ausführung der Robotor R zwei Kameras hat (eine linke Kamera und eine rechte Kamera), ist eines der zwei Bilder das von der linken Kamera erhaltene Bild, und das andere der zwei Bilder ist das von der rechten Kamera erhaltene Bild. Somit wird der Musterabgleich zwischen dem von der linken Kamera erhaltenen Bild und dem von der rechten Kamera erhaltenen Bild durchgeführt.
  • Dann berechnet der stereoskopische Prozessor 11a eine Parallaxe zwischen den zwei Bildern, um ein Parallaxenbild zu erzeugen, und gibt ein Parallaxenbild an die Mobilobjekt-Extraktionseinheit 11b zusammen mit dem von den Kameras C, C gegebenen Bild aus. Hier erfolgt die Berechnung der Parallaxe zwischen entsprechenden Pixeln in den zwei Bildern. In dem Parallaxenbild wird der Abstand von dem Roboter R (Kamera C) zu dem mobilen Objekt durch den Helligkeitsunterschied angezeigt.
  • Die Mobilobjekt-Extraktionseinheit 11b extrahiert ein bewegliches (sich bewegendes) Objekt aus dem von der Kamera C erhaltenen Bild auf der Basis von Daten, die von dem stereoskopischen Prozessor 11a eingegeben werden. Der Grund dafür, warum die Extraktion des mobilen Objekts durchgeführt wird, ist es, die Erkennung einer Person unter der Annahme durchzuführen, dass es wahrscheinlicher ist, dass das bewegende Objekt eine Person ist.
  • Die Mobilobjekt-Extraktionseinheit 11b führt den Musterabgleich durch, um das mobile Objekt zu extrahieren, und berechnet einen Abstand für entsprechende Pixel in zwei Bildern, um ein Abstandsbild zu erzeugen. Hier erfolgt der Musterabgleich durch den Vergleich zwischen dem gegenwärtigen Rahmen (Bild), der gegenwärtig von der Kamera C erhalten wird, und dem letzten Rahmen (Bild), das von mehreren Rahmen, die vor der Erfassung des gegenwärtigen Rahmens erhalten wurden, erzeugt wird.
  • Dann sucht die Mobilobjekt-Extraktionseinheit 11b auf der Basis des Abstandsbilds und des Parallaxenbilds diejenigen Pixel, deren Verschiebungsbetrag groß ist, aus den Pixeln innerhalb eines vorbestimmten Abstands von den Kameras C, C (Roboter R) aus. Wenn ein solches Pixel existiert, nimmt die Mobilobjekt-Extraktionseinheit 11b an, dass sich eine Person innerhalb der Pixel (des Abstands) befindet, und extrahiert ein mobiles Objekt aus dem von der Kamera eingegebenen Bild auf der Basis des Abstandsbilds und des Parallaxenbilds.
  • Die Gesichtserkennungseinheit 11c extrahiert einen Farbbereich eines menschlichen Körpers aus dem extrahierten mobilen Objekt und berechnet die Position des Gesichts eines Menschen unter Berücksichtigung von Größe und Form des extrahierten Farbbereichs des menschlichen Körpers. Die Position einer Hand wird auch durch das gleiche Verfahren berechnet.
  • Die Position des erkannten Gesichts wird dem Controller 40 zugeführt, zur Kommunikation mit einer Person und zum Aktivieren des Roboters R. Zusätzlich wird die Position des erkannten Gesichts der Funkkommunikationseinheit 60 zugeführt, um sie dem Managementcomputer 3 durch die Basisstation 1 zuzuführen.
  • [SPRACHPROZESSOR 20]
  • Der Sprachprozessor 20 enthält einen Sprachsynthetisierer 21a und einen Spracherkenner 21b.
  • Der Sprachsynthetisierer 21a erzeugt Sprachdaten aus Textinformation auf der Basis eines Befehls, das den Roboter R anweist, mit einem Menschen Konversation zu betreiben oder eine Sprachmitteilung auszugeben, die von dem Controller 40 eingegeben wird. Dann gibt der Sprachsynthetisierer 21a Sprachdaten an den Lautsprecher S aus. Hier erfolgt das Erzeugen der Sprachdaten zum Beispiel unter Nutzung der Korrespondenz zwischen den Sprachdaten und der Textinformation, die zuvor in einer Aufzeichnungseinheit (nicht gezeigt) aufgezeichnet ist.
  • Der Spracherkenner 21b erzeugt Textinformation aus Sprach(ton)-Daten auf der Basis der Korrespondenz zwischen den Sprachdaten und der Textinformation, die zuvor in der Aufzeichnungseinheit (nicht gezeigt) aufgezeichnet ist. Dann gibt der Spracherkenner 21b Textdaten an den Controller 40 aus.
  • Der Bildübertrager 30 gibt von der Kamera C, C eingegebene Bilddaten durch die Funkkommunikationseinheit 60 zu dem Managementcomputer 3 aus.
  • [AUTONOMER LAUFCONTROLLER 50]
  • Der autonome Laufcontroller 50 enthält einen Kopfcontroller 51a einen Armcontroller 51b und einen Beincontroller 51c.
  • Der Kopfcontroller 51a aktiviert den Kopfteil R1 auf der Basis eines von dem Controller 40 eingegebenen Befehls. Der Armcontroller 51b aktiviert den Armteil R2 auf der Basis eines von dem Controller 40 eingegebenen Befehls. Der Beincontroller 51c aktiviert einen Beinteil R3 auf der Basis eines von dem Controller 40 eingegebenen Befehls.
  • [ROBOTERPOSITIONS-MESSEINHEIT]
  • Der Gyorsensor SR1 und GPS-Empfänger SR2 dienen als Roboterpositions-Messeinheit zum Berechnen der Position des Roboters R.
  • In dieser Ausführung ist die Roboterpositions-Messeinheit die absolute Position (einen Positionsvektor p(x, y)) innerhalb des kontrollierten Bereichs C des Roboters R sowie einen Winkel θ des Roboters R. Zusätzlich werden die von dem Gyrosensor SR1 und dem GPS-Empfänger SR2 erhaltenen Daten dem Controller 40 zugeführt und zum Bestimmen der Bewegung des Roboters R genutzt. Auch werden die gleichen Daten der Managementcomputer 3 durch die Funkkommunikationseinheit 60 zugeführt. Hier bezeichnet der Winkel θ, in welcher Richtung der Roboter R innerhalb des kontrollierten Bereichs C ausgerichtet ist.
  • [FUNKKOMMUNIKATIONSEINHEIT 60]
  • Die Funkkommunikationseinheit 60 tauscht Daten mit dem Managementcomputer 3 aus. Die Funkkommunikationseinheit 60 enthält eine Öffentliche-Leitung-Kommunikationseinheit 61a und eine Funkkommunikationseinheit 61b.
  • Hier entsprechen der relative Vektor s (Objekt-Positionsinformation), der Positionsvektor p und der Winkel θ des Roboters R (Roboterpositionsinformation), eine Identifikationsnummer der Kennung (Kennungs-ID) und ein Befehl für den Roboter R den auszutauschenden Daten (Information).
  • Die Öffentliche-Leitung-Kommunikationseinheit 61a führt eine drahtlose Kommunikation mittels einer zellulären Telefonleitung oder eines persönlichen Handyphonesystems durch. Die Funkkommunikationseinheit 61b führt eine drahtlose Kommunikation mittels einer drahtlosen Kurzbereich-Kommunikationstechnik durch, zum Beispiel einem drahtlosen Lokalbereichnetzwerk gemäß dem IEEE802. 11b Standard.
  • Die Funkkommunikationseinheit 60 führt einen Datenaustausch mit dem Managementcomputer 3 unter Verwendung der Öffentliche-Leitung-Kommunikationseinheit 61a oder der Funkkommunikationseinheit 61b durch, wenn von dem Managementcomputer 3 ein Signal eingegeben wird, das den Roboter R anweist, mit dem Managementcomputer 3 zu kommunizieren.
  • [ZIELERFASSUNGSEINHEIT 70]
  • Die Zielerfassungseinheit 70 erfasst das Vorhandensein des mobilen Objekts D mit der Kennung T innerhalb des Umgebungsbereichs des Roboters R und berechnet die Position des mobilen Objekts D, wenn das mobile Objekt D erfasst wird. In diesem Fall berechnet die Zielerfassungseinheit 70 den relativen Vektor s, der den relativen Ort zwischen dem Roboter R und dem mobilen Objekt D angibt.
  • Wie in 4 gezeigt, enthält die Zielerfassungseinheit 70 einen Einheits-Controller 80, einen Funksender-Empfänger 90, eine Lichtemissionseinheit 100 und eine Aufzeichnungseinheit 110.
  • (EINHEIT-CONTROLLER 80)
  • Der Einheit-Controller 80 erzeugt ein Suchsignal, das von dem Funksender-Empfänger 90 zu senden ist, und ein Richtungsprüfsignal, das als Infrarotlicht von der Lichtemissionseinheit 100 emittiert wird.
  • Der Einheit-Controller 80 bestimmt darüber hinaus die Position des mobilen Objekts D auf der Basis eines Empfangssignals J, das von der Kennung T übertragen wird, wenn die Kennung T das Suchsignal F empfangen hat, und der Einheit-Controller 80 berechnet die Objekt-Positionsinformation (relativer Vektor s).
  • Hier ist das Suchsignal F ein Signal, das zur Prüfung zu verwenden ist, ob sich das mobile Objekt D in dem Umgebungsbereich des Roboters R befindet oder nicht, und das Richtungsprüfsignal H ist ein Signal, das zur Prüfung zu verwenden ist, in welcher Richtung in Bezug auf den Roboter R sich das mobile Objekt D befindet. Das Empfangssignal J ist ein Signal das anzeigt, dass die Kennung T zumindest das Suchsignal F empfangen hat.
  • Der Einheit-Controller 80 enthält einen Datenprozessor 81, eine Verschlüsselungseinheit 82, eine Zeitteilereinheit 83, einen Decoder 84 und eine Feldintensitätsmesseinheit 85.
  • Der Datenprozessor 81 erzeugt das Suchsignal F und das Richtungsprüfsignal H, und bestimmt die Position des mobilen Objekts D und berechnet aus dem Empfangssignal J die Objekt-Positionsinformation (relativer Vektor s).
  • Der Datenprozessor 81 enthält einen Signalgenerator 81a und einen Positionsberechnungsteil 81b.
  • (SIGNALGENERATOR 81a)
  • Der Signalgenerator 81a erhält eine eindeutige Identifikationsnummer des Roboters R (Roboter-ID) von der Aufzeichnungseinheit 110 mit einem vorbestimmten Zyklus, oder wenn ein Signal (ein Sendeanforderungssignal), das das Senden einer Funkwelle anfordert, von dem Controller 40 eingegeben wird. Hier ist die Roboter-ID eine eindeutige Identifikationsnummer des Roboters R, in dem die Zielerfassungseinheit 70 installiert ist.
  • Dann erzeugt der Signalgenerator 81a ein Suchsignal, das die Roboter-ID und das Empfangs-Anforderungssignal enthält. Hier ist das Empfangsanforderungssignal ein Signal, das das mobile Objekt D (die Kennung T) anweist, das Empfangssignal J zu erzeugen, wenn das mobile Objekt D (die Kennung T) das Suchsignal F empfängt.
  • Der Signalgenerator 81a erzeugt das Richtungsprüfsignal H, das als Infrarotlichtsignal von der Lichtemissionseinheit 100 abgegeben wird, wenn das Suchsignal F erzeugt wird.
  • Das Richtungsprüfsignal H wird für jeden Lichtemitter (LED1 bis LED8) der Lichtemissionseinheit 100 separat erzeugt und enthält die Roboter-ID und eine Emitter-ID, die eine eindeutige Identifikationsnummer zum Identifizieren den Lichtemitters ist. In dieser Ausführung wird auch das Richtungsprüfsignal erzeugt, wenn das von dem Decoder 84 eingegebene Empfangssignal ein Emissionsanforderungssignal enthält.
  • Hier ist die Emitter-ID Information (Richtungsinformation) zum Identifizieren der Richtung des mobilen Objekts D.
  • Da in der vorliegenden Ausführung insgesamt acht Lichtemitter an dem Roboter R vorgesehen sind, erzeugt der Datenprozessor 81 insgesamt acht Richtungsprüfsignale H, die eine Roboter-ID und die Emitter-ID enthalten.
  • Wenn man zum Beispiel annimmt, dass der Roboter-ID „02” ist (Roboter ID = 02), und dass die Emitter-ID der Lichtemitter (von LED1 bis LED8) von „θ1” bis „θ8” ist, enthält das Richtungsprüfsignal, das von dem Lichtemitter-LED1 zu erzeugen ist, die Roboter-ID, deren ID „02” ist, und die Emitter-ID, deren ID „θ1” ist. Zusätzlich enthält das Richtungsprüfsignal, das für den Lichtemitter LED2 zu erzeugen ist, die Roboter-ID, deren ID „02” ist, und die Emitter-ID, deren ID „θ2” ist.
  • Dann gibt der Signalgenerator 81a das Richtungsprüfsignal und das Suchsignal an die Verschlüsselungseinheit 82 aus.
  • Hier misst der Positionsberechnungsteil 81b des Datenprozessors 81 die Position des mobilen Objekts D auf der Basis des Empfangssignals J, das von der Kennung T gesendet wurde, die das Suchsignal F empfangen hat.
  • Die detaillierte Erläuterung der Signalverarbeitung in dem Positionsberechnungsteil 81b wird später zusammen mit der Signalverarbeitung in der Feldintensitätsmesseinheit 85 und dem Decoder 84 durchgeführt.
  • (VERSCHLÜSSELUNGSEINHEIT 82)
  • Die Verschlüsselungseinheit 82 gibt das verschlüsselte Suchsignal Fc, das durch die Verschlüsselung des Suchsignals F erhalten wird, an den Funksender-Empfänger 90 aus, wenn das Suchsingal F von dem Datenprozessor 81 eingegeben wird.
  • Hierdurch wird das verschlüsselte Suchsignal Fc moduliert und von dem Funksender-Empfänger 90 gesendet.
  • Die Verschlüsselungseinheit 82 verschlüsselt das Richtungsprüfsignal H, das von dem Datenprozessor 81 eingegeben wurde, um das verschlüsselte Richtungsprüfsignal Hc zu erhalten, und gibt das verschlüsselte Richtungsprüfsignal Hc zu der Zeitteilereinheit 83 aus.
  • In dieser Ausführung wird das Richtungsprüfsignal H für jeden Lichtemitter der Lichtemissionseinheit 100 erzeugt.
  • Da, wie in 3 gezeigt, die Lichtemissionseinheit 100 insgesamt acht Lichtemitter aufweist, werden insgesamt acht Richtungsprüfsignale in der Verschlüsselungseinheit 82 erzeugt und werden in die Zeitteilereinheit 83 eingegeben.
  • (ZEITTEILEREINHEIT 83)
  • Die Zeitteilereinheit 83 bestimmt die Emissionsreihenfolge der Lichtemitter (LED1–LED8) der Lichtemissionseinheit 100 und die Emissionszeitgebung jedes Lichtemitters (LED1–LED8).
  • Genauer gesagt, die Zeitteilereinheit 83 bestimmt die Reihenfolge und Zeitgebung der Emission jedes Lichtemitters (LED1–LED8), wenn das verschlüsselte Richtungsprüfsignal Hc von der Verschlüsselungseinheit 82 eingegeben wird. Dann gibt die Zeitteilereinheit 83 das verschlüsselte Richtungsprüfsignal Hc an die Lichtemissionseinheit 100 auf der Basis der Reihenfolge und Zeitgebung, die bestimmt wurden, aus.
  • Wenn zum Beispiel bestimmt wird, dass jeder Lichtemitter mit einem 0,5-Sekunden-Intervall in der Reihenfolge des Lichtemitters LED1, des Lichtemitters LED4, des Lichtemitters LED7, des Lichtemitters LED2, des Lichtemitters LED5, des Lichtemitters LED8, des Lichtemitters LED3 und des Lichtemitters LED6 emittiert, gibt die Zeitteilereinheit 83 das verschlüsselte Richtungsprüfsignal Hc mit dem 0,5-Sekunden-Intervall an den Modulator jedes Lichtemitters (LED1–LED8) aus. Das heißt, die Zeitteilereinheit 83 gibt das verschlüsselte Richtungsprüfsignal Hc mit dem 0,5-Sekunden-Intervall in der Reihenfolge aus: Der Modulator des Lichtemitters LED1; der Modulator des Lichtemitters LED4; der Modulator des Lichtemitters LED7; der Modulator des Lichtemitters LED2; der Modulator des Lichtemitters LED5; der Modulator des Lichtemitters LED8; der Modulator des Lichtemitters LED3; der Modulator des Lichtemitters LED6.
  • In dieser Ausführung werden insgesamt acht verschlüsselte Richtungsprüfsignale in die Zeitteilereinheit 83 eingegeben, und der Lichtemitter, zu dem jedes verschlüsselte Richtungsprüfsignal zugeführt wird, wird vorab in dem Datenprozessor 81 bestimmt.
  • Die Zeitteilereinheit 83 prüft daher die Emitter-ID, die in dem verschlüsselten Richtungsprüfsignal Hc enthalten ist, wenn das verschlüsselte Richtungsprüfsignal Hc eingegeben wird, und gibt das verschlüsselte Richtungsprüfsignal Hc an den Modulator des Lichtemitters, der durch die Emitter-ID spezifiziert ist, in der bestimmten Reihenfolge und Zeitgebung aus.
  • Wenn zum Beispiel die Emitter-ID des Lichtemitters (LED1–LED8) von θ1 bis θ8 ist, liefert die Zeitteilereinheit 83 das verschlüsselte Richtungsprüfsignal Hc, das die Emitter-ID = „θ1” enthält, an den Modulator des Lichtemitters, dessen Emitter-ID „θ1” ist. Zusätzlich liefert die Zeitteilereinheit 83 das verschlüsselte Richtungsprüfsignal Hc, das die Emitter-ID = „θ2” enthält, an den Modulator des Lichtemitters, dessen Emitter-ID „θ2” ist.
  • (LICHTEMISSIONSEINHEIT 100)
  • Die Lichtemissionseinheit 100 gibt Licht zu Suchregionen ab, die um den Roboter R herum eingerichtet sind, auf der Basis der Position des Roboters R.
  • In Bezug auf die 4 und 5A enthält die Lichtemissionseinheit 100 eine Mehrzahl von Lichtemittern (LED1–LED8) und Modulatoren, die für jeden Lichtemitter vorgesehen sind.
  • Der Modulator moduliert das von der Zeitteilereinheit 83 eingegebene verschlüsselte Richtungsprüfsignal Hc, um ein moduliertes Signal zu erhalten.
  • Der Lichtemitter emittiert das modulierte Signal als Infrarotlichtsignal (Infrarotlicht) zu der vorbestimmten Suchregion.
  • In dieser Ausführung ist der Umgebungsbereich des Roboters R in eine Mehrzahl von Suchregionen unterteilt, um die Position (Richtung) des mobilen Objekts D (siehe 5A) zu bestimmen. Der Roboter R ist mit Licht emittierenden Dioden versehen, die jeweils als Lichtemitter dienen, um Infrarotlicht zu der Suchregion abzugeben, und jede wird auf die bestimmte Suchregion ausgerichtet. Hier ist eine Licht emittierende Diode zu einer Suchregion ausgerichtet.
  • Genauer gesagt, im Falle von 5A sind insgesamt acht Suchregionen (erste Region bis achte Region) um den Roboter R herum eingerichtet. Das heißt, der Roboter R ist mit insgesamt acht Suchregionen in 360°-Richtungen des Roboters R versehen.
  • In anderen Worten, die fächerförmigen Suchregionen (erste Region bis achte Region) sind um den Roboter R herum so eingerichtet, dass der Roboter R von den fächerförmigen Suchregionen umgeben ist. Der Roboter R ist in der Mitte der Region angeordnet, die durch diese fächerförmigen Suchregionen gebildet ist (erste Region bis achte Region).
  • Daher sind im Falle von 5A insgesamt acht Lichtemitter um den Kopfteil R1 des Roboters R herum vorgesehen, so dass das Infrarotlicht sicher zu jeder Suchregion emittiert wird.
  • Wie aus 5A ersichtlich ist, sind die Suchregionen (erste Region bis dritte Region), die vor dem Roboter R vorgesehen sind, schmaler als die restlichen Suchregionen (vierte Region bis achte Region). Genauer gesagt, die Winkelspannweite (λa + α) der Suchregion (erste Region bis dritte Region) und die Winkelspannweite (λb + α) der Suchregionen (vierte Region bis achte Region) genügen der folgenden Beziehung, das heißt λb + α > λa + α.
  • Dies hat den folgenden Grund. Das heißt, wenn der Roboter R das Vorhandensein des mobilen Objekts D erfasst und das Gesicht des Roboters R zu dem erfassten Zielobjekt D ausrichtet und hierbei die Richtung des Gesichts des Roboters R nicht mit der Richtung des mobilen Objekts übereinstimmt, könnte das mobile Objekt D (die Person) das Gefühl haben, dass der Roboter R sein Gesicht nicht zu dem mobilen Objekt D hin ausrichtet.
  • Um das Vorkommen einer solchen Situation zu verhindern, ist es bevorzugt, die Anzahl der Suchregionen zu erhöhen, aber es ist nicht erforderlich, die Anzahl der Suchregionen entlang der 360°-Richtung zu erhöhen. Das Vorkommen einer solchen Situation kann verhindert werden, indem nur die Anzahl jener Suchregionen erhöht wird, die vor dem Roboter R angeordnet sind. Hierdurch kann die Positionserfassung an der Vorderseite des Roboters R mit Genauigkeit erreicht werden und kann die Anzahl der Lichtemitter begrenzt werden.
  • Daher wird in dieser Ausführung die Positionserfassung mit ausreichender Genauigkeit des mobilen Objekts D innerhalb jeder Suchregion (erste Region bis dritte Region) ermöglicht, indem der Bestrahlungsbereich von Infrarotlicht in Bezug auf die jeweiligen Suchregionen, die vor dem Roboter R angeordnet sind, verengt wird.
  • Somit kann die Positionserfassung der Person mit Genauigkeit erreicht werden, wenn das mobile Objekt D eine Person ist und mit den Kameras C, C des Roboters R eine Bildaufnahme eines Gesichtsbilds der Person durchgeführt wird. In diesem Fall können die Kameras C, C des Roboters R auf das Gesicht der Person als das mobile Objekt D ausgerichtet werden. Da das Ergebnis der Positionserfassung sich auf die Bewegungssteuerung des Roboters R und die Winkeleinstellung der Kameras C, C Wiederspiegeln kann, können die Kameras C, C des Roboters R auf das Gesicht der Person als das mobile Objekt D ausgerichtet werden.
  • In dieser Ausführung wird zusätzlich die Spannweite der Suchregion so bestimmt, dass benachbarte Suchregionen am Rand miteinander überlappen, um die Region zu minimieren, die aus der Suchregion ausgeschlossen ist, d. h. einen Totraum in dem Umgebungsbereich zu minimieren (siehe 5A).
  • In dieser Ausführung wird die Ausgabereihenfolge und die Zeitgebung des verschlüsselten Richtungsprüfsignals von der Zeitteilereinheit 83 des Einheit-Controllers 80 eingestellt. Dies ist so, weil es erforderlich ist, das Auftreten einer Störung eines Infrarotlichts zu vermeiden, die hervorgerufen wird, wenn ein Infrarotlicht aufeinanderfolgend auf die benachbarten Suchregionen strahlt.
  • In Bezug auf 6 stellt in dieser Ausführung die Zeitteilereinheit 83 die Ausgabereihenfolge und die Zeitgebung des verschlüsselten Richtungsprüfsignals Hc (Hc1–Hc8) ein, so dass die Strahlung des Infrarotlichts in der Reihenfolge erfolgt: Erste Region (Symbol Sa1 in der Figur); vierte Region (Symbol Sa4 in der Figur); siebte Region (Symbol Sa7 in der Figur); zweite Region (Symbol Sa2 in der Figur); fünfte Region (Symbol Sa5 in der Figur); achte Region (Symbol Sa8 in der Figur); dritte Region (Symbol Sa3 in der Figur); und sechste Region (Symbol Sa6 in der Figur).
  • In dieser Ausführung wird, wie in 5B gezeigt, eine Strahlungsspannweite in der Höhenrichtung von Infrarotlicht derart bestimmt, dass das Vorhandensein einer Person, zum Beispiel einer Person vom Kind zum Erwachsenen, mit einem Abstand X erfasst werden kann. Hier wird der Abstand X auf der Basis eines durchschnittlichen Abstands bestimmt, worin eine gegenseitige persönliche Kommunikation zur Verfügung steht. Daher ist der Abstand X ein Abstand von dem Roboter R, worin eine gegenseitige Kommunikation zwischen dem Roboter R und einer Person erfolgen kann.
  • Genauer gesagt, eine Strahlungsspannweite in der Höhenrichtung von Infrarotlicht wird so bestimmt, dass die Höhe Y, die einer durchschnittlichen Höhe einer Brust der erwachsenen Person entspricht, und eine Höhe Z, die einer durchschnittlichen Höhe der Brust eines Kindes entspricht, mit Infrarotlicht sicher bestrahlt werden. In diesem Fall wird der Bestrahlungswinkel in einer Höhenrichtung des Infrarotlichts mit W bezeichnet.
  • (FUNKSENDER-EMPFÄNGER 90)
  • Der Funksender-Empfänger 90 sendet eine Funkwelle W zu dem Umgebungsbereich des Roboters R und empfängt ein Empfangssignal J, das von dem mobilen Objekt D, das die Funkwelle empfangen hat, gesendet wird.
  • Der Funksender-Empfänger 90 enthält einen Modulator 91, einen Demodulator 92 und eine Tranceiverantenne 93.
  • Der Modulator 91 moduliert das verschlüsselte Suchsignal Fc, das von dem Datenprozessor 81 eingegeben wird, um ein moduliertes Signal zu erzeugen, und sendet das modulierte Signal durch die Transceiverantenne 93.
  • Der Demodulator 92 empfängt das modulierte Signal, das drahtlos von der Kennung T des mobilen Objekts D gesendet worden ist, und erhält das verschlüsselte Empfangssignal durch Demodulation des modulierten Signals.
  • Dann gibt der Demodulator 92 das verschlüsselte Empfangssignal an den Decoder 81 und die Feldintensitätsmesseinheit 85 des Einheit-Controllers 80 aus.
  • (DECODER 84)
  • Der Decoder 84 erhält das Empfangssignal durch Decodierung des verschlüsselten Empfangssignals Jc, das durch Codieren des Empfangssignals J erzeugt worden ist.
  • Da in dieser Ausführung das Empfangssignal J zumindest die Emitter-ID, die Roboter-ID, und eine Kennungs-ID enthält, gibt der Decoder 84 diese IDs an den Datenprozessor 81 aus. Hier ist die Kennungs-ID eine eindeutige Identifizierungsnummer zum Identifizieren der Kennung, die das Empfangssignal gesendet hat. Wenn darüber hinaus das Empfangssignal J das Emissionsanforderungssignal enthält, gibt der Decoder 84 auch das Emissionsanforderungssignal an den Datenprozessor 81 aus.
  • (FELDINTENSITÄTSMESSEINHEIT 85)
  • Die Feldintensitätsmesseinheit 85 misst die Intensität des modulierten Signals, wenn das von der Kennung T des mobilen Objekts D gesendete modulierte Signal von dem Funksender-Empfänger 90 empfangen wird.
  • Genauer gesagt, die Feldintensitätsmesseinheit 85 erfasst die Leistung des verschlüsselten Empfangssignals, das von dem Demodulator 92 des Funksender-Empfängers 90 eingegeben ist, und berechnet einen Mittelwert der erfassten Leistung. Dann gibt die Feldintensitätsmesseinheit 85 den berechneten Mittelwert als Daten der Feldintensität an den Datenprozessor 81 aus.
  • Der Positionsberechnungsteil 81b des Datenprozessors 81b bestimmt die Position des mobilen Objekts D und berechnet die Objektpositionsinformation (relativer Vektor s).
  • Genauer gesagt, der Positionsberechnungsteil 81b berechnet den Abstand zu dem mobilen Objekt D von dem Roboter R auf der Basis der Feldintensität des modulierten Signals, das von dem Funksender-Empfänger 90 empfangen wird und von der Kennung T des mobilen Objekts D gesendet wird.
  • Der Positionsberechnungsteil 81b bezieht sich darüber hinaus auf die in dem Empfangssignal J enthaltene Emitter-ID und identifiziert den Lichtemitter, der ein von dem mobilen Objekt D empfangenes Infrarotlicht emittiert hat, auf der Basis der Emitter-ID. Dann betrachtet der Positionsberechnungsteil 81b die Richtung der Suchregion, zu der der von der Emitter-ID identifizierte Lichtemitter Infrarotlicht abgestrahlt hat, als die Richtung des mobilen Objekts D. Hierdurch kann die Position (Richtung) des mobilen Objekts aus dieser Richtung und diesem Abstand r identifiziert werden.
  • In dieser Ausführung erhält der Positionsberechnungsteil 81b zuerst die Roboter-ID aus dem vom Decoder 84 eingegebenen Empfangssignal. Dann vergleicht der Positionsberechnungsteil 81b die erhaltene Roboter-ID mit der in der Aufzeichnungseinheit 110 gespeicherten Roboter-ID. Wenn beide Roboter-IDs die gleichen sind, startet der Positionsberechnungsteil 81b die Positionserfassung und Berechnung der Objekt-Positionsinformation (relativer Vektor).
  • In dieser Ausführung wird, wie in 7 gezeigt, der Umgebungsbereich des Roboters R in vier Bereiche aufgeteilt, in Abhängigkeit vom Abstand vom Roboter R. Das heißt, ein erster Bereich, ein zweiter Bereich, ein dritter Bereich und ein vierter Bereich werden um den Roboter R herum eingerichtet.
  • In dieser Ausführung wird jeder Bereich zuvor mit der Feldintensität auf der Basis eines Werts der Feldintensität korreliert, und es wird in einer Tabelle (Abstandstabelle), die die Korrelation zwischen dem Bereich und der Feldintensität anzeigt, in der Aufzeichnungseinheit 110 gespeichert.
  • Daher bezieht sich der Positionsberechnungsteil 81b auf die Abstandstabelle auf der Basis der Feldintensität, die von der Feldintensitätsmesseinheit 85 eingegeben ist, und erhält Abstandsinformation (Abstand r), die angibt, in welchem Bereich der Bereiche (vom ersten Bereich bis zum vierten Bereich) sich das mobile Objekt D befindet, das die Kennung T hat, die das Empfangssignal J gesendet hat.
  • Wenn hier zum Beispiel die Feldintensität α, die von der Feldintensitätsmesseinheit 85 eingegeben wird, zwischen den Schwellenwerten γ und β liegt (hier ist γ eine Untergrenze des dritten Bereichs und β ist eine Obergrenze des dritten Bereichs), erhält der Positionsberechnungsteil 81b die Bereichsinformation, die den dritten Bereich angibt.
  • Der Positionsberechnungsteil 81b bezieht sich auf die Emitter-ID, die in dem Empfangssignal J enthalten ist, das von dem Decoder 84 eingegeben wurde, und identifiziert den Lichtemitter, der ein Infrarotlicht emittiert hat, das von dem mobilen Objekt D empfangen wurde, auf der Basis der Emitter-ID. Dann erhält der Positionsberechnungsteil 81b Information (Richtungsinformation), die die Strahlungsrichtung des Infrarotlichts von dem identifizierten Lichtemitter angibt.
  • In dieser Ausführung sind, wie in 8 gezeigt, insgesamt acht Suchregionen (von der ersten Region zur achten Region) in dem Umgebungsbereich des Roboters R eingerichtet, und die Aufzeichnungseinheit 110 speichert eine Tabelle (Richtungstabelle), die die Suchregion angibt, zu der jeder Lichtemitter ausgerichtet ist.
  • Daher bezieht sich der Datenprozessor 81 auf die Richtungstabelle, die in der Aufzeichnungseinheit 110 gespeichert ist, auf der Basis der Emitter-ID, und erkennt die Suchregion, zu der der von der Emitter-ID identifizierte Lichtemitter Infrarotlicht abgestrahlt hat. Das heißt, die Suchregion, zu der Infrarotlicht gestrahlt worden ist, wird aus vorbestimmten Suchregionen heraus (von der ersten Region zur achten Region) bestimmt.
  • Dann erhält der Datenprozessor 81 Information, die die identifizierte Suchregion bezeichnet, als die Information (Richtungsinformation), die die Richtung des mobilen Objekts D angibt.
  • In dieser Ausführung überlappen benachbarte Suchregionen einander am Rand, wobei aber der Überlappungsrand in jeder Suchregion aus dieser 8 weggelassen ist. Das Weglassen des Überlappungsrands ist das gleiche wie in 8.
  • Der Positionsberechnungsteil 81b erzeugt grundlegend Information (Positionsinformation), die die Position des mobilen Objekts D anzeigt, aus der Abstandsinformation und der Richtungsinformation. In diesem Fall berechnet der Positionsberechnungsteil 81b den relativen Vektor s, der den relativen Ort zwischen dem Roboter R und dem mobilen Objekt D anzeigt, und der Positionsberechnungsteil 81b erzeugt die Objekt-Positionsinformation einschließlich zumindest des relativen Vektors s aus der Positionsinformation und dem relativen Vektor s.
  • Hier erfolgt die Erläuterung der Positionsinformation, die ohne Berücksichtigung der Lichtzustandsdaten erzeugt worden ist, in Bezug auf 9. 9 entspricht einer Figur, die durch Überlagern von 7 und 8 gebildet ist.
  • Wenn der Inhalt der Abstandsinformation „DRITTER BEREICH” ist und der Inhalt der Richtungsinformation „ZWEITE REGION” ist, bezeichnet der Datenprozessor 81 den Überlappungsbereich zwischen dem „DRITTEN BEREICH” und der „ZWEITEN REGION” als die Position des mobilen Objekts D und erzeugt Information (Objekt-Positionsinformation), die diesen Überlappungsbereich angibt. Hier ist in 9 dieser Überlappungsbereich mit dem Symbol P1 bezeichnet.
  • Wie oben beschrieben, wird die Positionsrelation zwischen dem Roboter R und dem mobilen Objekt D auf der Basis der Intensität des Empfangssignals J bestimmt, das von dem Roboter R empfangen worden ist, sowie der in dem Empfangssignal J empfangenen Emitter-ID. In anderen Worten, die Richtung und der Abstand des mobilen Objekts D wird auf der Basis der Position des Roboters R berechnet, und die Position des mobilen Objekts D kann bestimmt werden.
  • In dieser Ausführung, wie oben beschrieben, erzeugt der Positionsberechnungsteil 81b Information, die die relative Position des mobilen Objekts D in Bezug auf den Roboter R anzeigt, aus der Abstandsinformation und der Richtungsinformation. Nachfolgend wird diese Information auch als „Objekt-Positionsinformation s(r, θ)” bezeichnet.
  • Der Positionsberechnungsteil 81b gibt die Objekt-Positionsinformation an den Controller 40 des Roboters R zusammen mit der Kennungs-ID, die in dem vom Decoder 84 eingegebenen Empfangssignal J enthalten ist, aus.
  • Dann sendet der Controller 40 die Kennungs-ID, die Objekt-Positionsinformation s(r, θ) und die Roboterpositionsinformation [p(x, y), Winkel Φ) an den Managementcomputer 3 durch die Funkkommunikationseinheit 60. Hier bezeichnet die Roboterpositionsinformation die absolute Position innerhalb des kontrollierten Bereichs C des Roboters R.
  • Hierdurch bezieht sich der Managementcomputer 3 auf die Aufzeichnungseinheit (nicht gezeigt) auf der Basis der Kennungs-ID, wenn die Kennung von dem Roboter R gesendet wird, und erhält Information, die sich auf die Kennungs-ID korreliert, um die Identifikation des mobilen Objekts D mit der Kennung T durchzuführen. Dann gibt der Managementcomputer 3 die erhaltene Information an den Roboter R zusammen mit einem Befehlssignal aus, das den Roboter R anweist, eine vorbestimmte Bewegung durchzuführen.
  • Somit steuert der Controller 40 des Roboters R jeden Abschnitt, zum Beispiel den autonomen Laufcontroller 50, des Roboters R auf der Basis des Befehlssignals.
  • Zum Beispiel bestimmt der Controller 40 des Roboters R die Bewegung des Roboters R, wie etwa einen autonomen Lauf des Roboters R zur Vorderseite des mobilen Objekts D oder eine Bildaufnahme des Gesichtsbilds des Roboters D durch Einstellen des Winkels und der Richtung der Kamera C.
  • Wenn das Emissionsanforderungssignal in dem Empfangssignal J enthalten ist, erzeugt der Signalgenerator 81a da Richtungsprüfsignal H und gibt das Richtungsprüfsignal H an die Verschlüsselungseinheit 82 aus. Hierdurch wird von jedem Lichtemitter der Lichtemissionseinheit 100 Infrarotlicht emittiert.
  • [KENNUNG T]
  • Die Kennung T empfängt eine Funkwelle W und ein Lichtsignal B, die von dem Roboter R übertragen werden, und gibt das Empfangssignal J, das den Empfang der Funkwelle W oder eines Lichtsignals B anzeigt, an den Roboter R zurück.
  • Weil in dieser Ausführung eine Person, die eine Kennung T aufweist, dem mobilen Objekt D entspricht, wird die Funkwelle W und das Lichtsignal B von dem Roboter R von der Kennung T empfangen. Daher wird die Erläuterung der Kennung T wie folgt durchgeführt.
  • Wie in 10 gezeigt, enthält die Kennung T einen Funktransceiver 40, einen Lichtempfänger 150, einen Empfangssignalgenerator 160 und einen Speicher 170.
  • (FUNKTRANSCEIVER 140)
  • Der Funktransceiver 140 empfängt das modulierte Signal, das von dem Roboter R drahtlos übertragen wurde, und sendet drahtlos das modulierte Signal, das durch Modulieren des von dem Empfangssignalgenerator 160 eingegebenen Empfangssignal J erhalten wurde, zu dem Roboter R.
  • Der Funktransceiver 140 enthält eine Antenne 141, einen Demodulator 142 und einen Modulator 143.
  • Der Demodulator 142 demoduliert das modulierte Signal, das von dem Roboter R übertragen und durch die Antenne 141 empfangen ist, um das verschlüsselte Suchsignal Fc zu erhalten. Dann gibt der Demodulator 142 das verschlüsselte Suchsignal Fc an den Empfangssignalgenerator 160 aus.
  • Der Modulator 143 moduliert das verschlüsselte Empfangssignal J, das von einer Verschlüsselungseinheit 163 dem Empfangssignalgenerators 160 eingegeben ist, um ein moduliertes Signal zu erhalten. Dann sendet der Modulator 143 das modulierte Signal zu dem Roboter R drahtlos durch die Antenne 141.
  • (LICHTEMPFÄNGER 150)
  • Der Lichtempfänger 150 empfängt das von dem Roboter R abgestrahlte Infrarotlicht.
  • Der Lichtempfänger 150 enthält einen optischen Empfänger 151 und einen Lichtdemodulator 152.
  • Der optische Empfänger 151 empfängt direkt das Infrarotlicht (ein Infrarotlichtsignal), das von dem Roboter R abgestrahlt wurde. Der Lichtdemodulator 152 demoduliert das von dem optischen Empfänger 151 empfangene Infrarotlichtsignal, um das verschlüsselte Richtungsprüfsignal Hc zu erhalten.
  • Insgesondere wenn das Infrarotlichtsignal von dem optischen Empfänger 151 empfangen wird, demoduliert der Lichtempfänger 150 das Infrarotlichtsignal, um das verschlüsselte Richtungsprüfsignal zu erhalten. Dann gibt der Lichtempfänger 150 das verschlüsselte Richtungsprüfsignal Hc an den Empfangssignalgenerator 160 aus.
  • (EMPFANGSSIGNALGENERATOR 160)
  • Der Empfangssignalgenerator 160 erzeugt ein Signal (Empfangssignal J), das den Empfang des Suchsignals F von dem Roboter R angibt.
  • In dieser Ausführung wird dieses Empfangssignal J in Antwort auf das Empfangsanforderungssignal, das in dem Suchsignal F enthalten ist, erzeugt, wenn das Suchsignal F (das modulierte Signal), das von dem Roboter R übertragen wurde, von dem Funktransceiver 140 empfangen wurde.
  • Wie in 10 gezeigt, enthält der Empfangssignalgenerator 160 eine Decodereinheit 161, eine Prozessoreinheit 162 und die Verschlüsselungseinheit 163.
  • Die Decodereinheit 161 decodiert das verschlüsselte Signal, um das Signal zu erhalten. Das heißt, die Decodereinheit 161 decodiert das verschlüsselte Suchsignal Fc, das von dem Funktransceiver 140 eingegeben wird, und das verschlüsselte Richtungsprüfsignal Hc, das von dem Lichtempfänger 150 eingegeben wird, um das Suchsignal F bzw. das Richtungsprüfsignal H zu erhalten. Dann gibt die Decodereinheit 161 das Suchsignal F und das Richtungsprüfsignal H an die Prozessoreinheit 162 aus.
  • Die Prozessoreinheit 162 erzeugt das Empfangssignal J. In dieser Ausführung enthält das Suchsignal F die Roboter-ID und das Empfangsanforderungssignal. Hier ist die Roboter-ID eine eindeutige Identifikationsnummer, um den Roboter R zu spezifizieren, der das Suchsignal F gesendet hat. Das Empfangsanforderungssignal ist ein Signal, das das mobile Objekt D anweist, den vorbestimmten Prozess durchzuführen, wenn das mobile Objekt das Suchsignal F empfangen hat.
  • Das Richtungsprüfsignal H enthält die Roboter-ID zum Identifizieren des Roboters R, der das Richtungsprüfsignal H emittiert hat, und die Emitter-ID zum Identifizieren des Lichtemitters, der das Richtungsprüfsignal H emittiert hat.
  • Somit ändert die Prozessoreinheit 162 den Zustand des Lichtempfängers 150 von einem Standby-Zustand zu einem aktivierten Zustand in Antwort auf das in dem Suchsignal F enthaltene Empfangsanforderungssignal, wenn das Suchsignal F in die Prozessoreinheit 162 eingegeben wird.
  • Wenn die Prozessoreinheit 162 das Richtungsprüfsignal innerhalb einer vorbestimmten Zeit nach Aktivierung des Lichtempfängers 150 empfängt, vergleicht die Prozessoreinheit 162 die in dem Richtungsprüfsignal H enthaltene Roboter-ID mit der in dem Suchsignal F enthaltenen Roboter-ID.
  • Die Prozessoreinheit 162 enthält eine eindeutige Identifikationsnummer (Kennungs-ID), die der Kennung T zugewiesen ist, aus dem Speicher 170, wenn die Roboter-ID, die in dem Richtungsprüfsignal H enthalten ist, mit der Roboter-ID, die in dem Suchsignal F enthalten ist, übereinstimmt.
  • Dann erzeugt die Prozessoreinheit 162 das Empfangssignal J, in dem die Kennungs-ID, die in dem Suchsignal F enthaltene Roboter-ID und die in dem Richtungsprüfsignal H enthaltene Emitter-ID enthalten sind, und gibt das erzeugte Empfangssignal J an die Verschlüsselungseinheit 163 aus.
  • Hingegen erzeugt die Prozessoreinheit 162 das Empfangssignal J, in dem ferner das Emissionsanforderungssignal enthalten ist, wenn das Richtungsprüfsignal H nicht innerhalb einer vorbestimmten Zeit nach der Aktivierung des Lichtempfängers 150 eingegeben wird oder wenn die Roboter-ID des Richtungsprüfsignals H nicht mit der Roboter-ID des Suchsignals F übereinstimmt. Dann gibt die Prozessoreinheit 162 das erzeugte Empfangssignal J an die Verschlüsselungseinheit 163 aus. Hier ist das Emissionsanforderungssignal ein Signal, das den Roboter R (die Erfassungseinheit) anweist, Infrarotlicht zu emittieren.
  • Die Verschlüsselungseinheit 163 verschlüsselt das Empfangssignal J, um das verschlüsselte Empfangssignal Jc zu erzeugen, und gibt das verschlüsselte Empfangssignal Jc an den Funktransceiver 140 aus.
  • Hierdurch wird das verschlüsselte Empfangssignal Jc in dem Modulator 143 des Funktransceivers 140 moduliert und wird dann drahtlos durch die Antenne 141 übertragen.
  • [BASISSTATION 1]
  • Wie in 11 gezeigt, enthält die Basisstation 1 den Managementcomputer 3, eine Mobilobjekt-Datenbank 210, eine Kartendatenbank 220 und eine Datenspeichereinheit 230. Die Mobilobjekt-Datenbank 210 speichert Attributinformation des mobilen Objekts D. Die Kartendatenbank 220 speichert Karteninformation (Daten) des kontrollierten Bereichs C. Die Datenspeichereinheit 230 speichert Positionsinformation des mobilen Objekts D, die zur Attributinformation des mobilen Objekts D korreliert ist.
  • (MANAGEMENTCOMPUTER 3)
  • Der Managementcomputer 3 enthält einen Transceiver 240, einen Kennungs-ID-Kollator 250, einen Positionsrechner 260 und einen Robotermanager 270. Der Managementcomputer 3 führt eine Verarbeitung von Information aus (Objektpositionsinformation, Roboterpositionsinformation, etc.), die zwischen der Funkkommunikationseinheit 60 des Roboters R und dem Managementcomputer 3 ausgetauscht wird.
  • Der Transceiver 240 empfängt Daten, die von der Funkkommunikationseinheit 60 des Roboters R übertragen werden, durch einen Empfänger 242, und gibt Daten zu dem Kennungs-ID-Kollator 250 und dem Positionsrechner 260 aus. Hier enthalten die Daten von dem Roboter R die Kennungs-ID, die Objekt-Positionsinformation s(r, θ) und die Roboterpositionsinformation [p(x, y), Winkel Φ].
  • Der Transceiver 240 sendet das Befehlssignal zu der Funkkommunikationseinheit 60 des Roboters R durch einen Sender 243, wenn das Befehlssignal (oder Programm) zur Aktivierung des Roboters R von dem Robotermanager 270 eingegeben wird.
  • Der Kennungs-ID-Kollator 250 erhält die Kennungs-ID von dem vom Empfänger 242 eingegebenen Datensignal und bezieht sich auf die Mobilobjekt-Datenbank 210 auf der Basis der Kennungs-ID. Dann erhält der Kennungs-ID-Kollator 250 die Attributinformation, die mit der Kennungs-ID korreliert, um eine persönliche Identifikation des mobilen Objekts D, das durch die Kennungs-ID identifiziert ist, durchzuführen.
  • Der Positionsrechner 260 berechnet die absolute Position innerhalb des kontrollierten Bereichs C des mobilen Objekts D auf der Basis von Objekt-Positionsinformation s(r, θ), und Roboterpositionsinformation [p(x, y), Winkel Φ], die von dem Empfänger 242 eingegeben werden. In anderen Worten, der Positionsrechner 260 berechnet den Positionsvektor q (siehe 2). Dann gibt der Positionsrechner 260 diese aus.
  • Hier wird die Methode zum Berechnen der absoluten Position innerhalb des kontrollierten Bereichs C des mobilen Objekts D in Bezug auf 12 erläutert. In dieser 12 ist der kontrollierte Bereich C mit den Plankoordinaten α bezeichnet, der Positionsvektor des Roboters R ist mit den X-Y-Koordinaten p(x, y) bezeichnet, und die Position innerhalb der Plankoordinaten des mobilen Objekts D um den Roboter R herum ist mit s(r, θ) bezeichnet.
  • In diesem Fall ist der Positionsvektor q(X, Y) innerhalb der Plankoordinaten α des mobilen Objekts D gemäß der folgenden Formel 1 aufgezeigt. q(X, Y) = (x + r × cos(θ + Φ), y + r × sin(θ + Φ)) (1)
  • Hier bezeichnet Φ den absoluten Winkel des Roboters R in Bezug auf den kontrollierten Bereich C.
  • Wie aus der Formel (1) ersichtlich, ist der Positionsvektor q(X, Y) durch den Positionsvektor p(x, y) des Roboters R, einen Abstand r vom Basispunkt dieses Positionsvektors p(x, y) zu dem mobilen Objekt D und der Richtung θ aufgezeigt.
  • Da sich hierdurch der Roboter R in der Nähe des mobilen Objekts D bewegen kann, kann die Positionserfassung des mobilen Objekts erreicht werden, ohne die Sendeleistung der Kennung T, die an dem mobilen Objekt D angebracht ist, zu erhöhen, auch wenn die Reichweite des kontrollierten Bereichs C vergrößert wird.
  • Die Datenspeichereinheit 230 speichert die absolute Position (den Positionsvektor q) innerhalb des kontrollierten Bereichs C des mobilen Objekts D, Attributinformation des mobilen Objekts D, die aus der Mobilobjekt-Datenbank 210 erhalten wird, und Zeitinformation. Hier sind die absolute Position (Positionsvektor q), die Attributinformation und die Zeitinformation zueinander korreliert.
  • Der Robotermanager 270 steuert/regelt den Lauf des Roboters R innerhalb des kontrollierten Bereichs C. Genauer gesagt, der Robotermanager 270 erzeugt das Befehlssignal (Programm), damit der Roboter R entlang der Laufroute des Roboters R läuft.
  • In dieser Ausführung bezieht sich der Robotermanager 270, vor der Auswahlroute, auf die Kartendatenbank 220, um die Daten von Hindernissen innerhalb des kontrollierten Bereichs C zu erhalten.
  • Dann bestimmt der Robotermanager 270 die Route des Roboters R, so dass der Lauf des Roboters R nicht an Hindernissen innerhalb des kontrollierten Bereichs C unterbrochen wird, und erzeugt das Befehlssignal auf der Basis der Route.
  • Hier kann die Route des Roboters R vorab in der Kartendatenbank 220 gespeichert werden. In diesem Fall wählt der Robotermanager 270 die Route des Roboters R aus in der Kartendatenbank 220 gespeicherten Routen aus.
  • Zusätzlich kann die Route des Roboters R unter Berücksichtigung des Positionsvektors q(X, Y) des mobilen Objekts D bestimmt werden, so dass der Roboter R der Laufroute des mobilen Objekts folgt.
  • Hier kann das Befehlssignal, das den Roboter R zur Durchführung der vorbestimmten Bewegung anweist, wenn das spezifische mobile Objekt D erfasst wird, adoptierbar sein, wenn sich eine Mehrzahl mobiler Objekte innerhalb des kontrollierten Bereichs C befinden.
  • <PROZESS IM POSITIONSERFASSUNGSSYSTEM>
  • Als nächstes wird die Datenverarbeitung im Positionserfassungssystem A in Bezug auf die Flussdiagramme der 13 und 14 erläutert.
  • (BEWEGUNGSBEISPIEL 1)
  • Das Bewegungsbeispiel von 13 ist der Fall, wo der Roboter R Information des mobilen Objekts D sammelt, die vom Roboter R während des Laufs innerhalb des kontrollierten Bereichs C des Roboters R erfasst wurde.
  • Hier entspricht die Information, die angibt, wann und wo sich das mobile Objekt D befindet, der Information des mobilen Objekts D.
  • Zuerst wird die Route des Roboters R so festgelegt, dass sich der Roboter R um den kontrollierten Bereich C herumbewegt, und dann wird in dem Managementcomputer 3 ein Befehlssignal (Programm) eingegeben, das den Roboter R anweist, sich um die Route herumzubewegen (Schritt S11), und es wird auf den Roboter R übertragen (Schritt S12).
  • Wenn sich eine Mehrzahl von Robotern R (R1, R2, ...) innerhalb des kontrollierten Bereichs C befinden, werden für jeden Roboter R unterschiedliche Programme erzeugt und zu dem entsprechenden Roboter R (R1, R2, ...) übertragen.
  • Der Roboter R läuft in Übereinstimmung mit dem Programm in dem gesamten kontrollierten Bereich C herum, wenn der Roboter R das Programm empfängt (Schritt S13). In diesem Fall wird ein Infrarotlichtsignal B (Lichtsignal B), das das Richtungsprüfsignal H (Hc1, Hc2, ..., Hc8) enthält, von der Lichtemissionseinheit 100 (LED1–LED8) des Roboters R abgestrahlt (Schritt S14).
  • Wenn sich das mobile Objekt D innerhalb des Bereichs befindet, in dem ein Infrarotlichtsignal B von dem Roboter R empfangen werden kann und die an dem mobilen Objekt D vorgesehene Kennung T das Infrarotlichtsignal B empfängt, erfasst die Kennung T eines der Richtungsprüfsignale H (Hc1, Hc2, ..., Hc8). Dann wird die Richtungsinformation θ aus der im Richtungsprüfsignal H enthaltenen Emitter-ID erhalten.
  • Die Kennung T, die die Richtungsinformation θ empfangen hat, erzeugt das Empfangssignal einschließlich der Kennungs-ID und der Roboter-ID, die im Richtungsprüfsignal H enthalten sind, und sendet es zum Roboter R (Schritt S17).
  • Der Roboter R bewegt sich in Übereinstimmung mit dem Programm weiter, wenn der Roboter R das von der Kennung T übertragene Empfangssignal J nicht empfängt (Schritt S18, Nein).
  • Der Roboter R berechnet den Abstand r zwischen dem Roboter R und dem mobilen Objekt D auf der Basis der Intensität des Empfangssignals J, zusätzlich zum relativen Vektor s(r, θ) (Schritt S19), wenn der Roboter R das Empfangssignal J empfängt.
  • Dann erhält die Roboterpositionsmesseinheit die Roboterpositionsinformation [p(x, y), Winkel θ] unter Verwendung der Roboterpositionsmesseinheit, und der Roboter R sendet die Roboterpositionsinformation zu der Basisstation 1 zusammen mit der im Empfangssignal J enthaltenen Kennungs-ID und dem relativen Vektor s(r, θ) (Schritt S20).
  • Die absolute Position (Positionsvektor q(X, Y) innerhalb des kontrollierten Bereichs C des mobilen Objekts D wird auf der Basis der Formel (1) berechnet (Schritt S22), wenn die von dem Roboter R übertragene Information von der Basisstation 1 empfangen wird (Schritt S21).
  • Die absolute Position innerhalb des kontrollierten Bereichs C des mobilen Objekts D, die Attributinformation, zum Beispiel der Name einer Person, des mobilen Objekts D, die mit der Kennungs-ID korreliert sind, und die Zeitinformation werden als Dateninhalte gespeichert (Schritt S23). Hierdurch werden Informationen, die das Vorhandensein der Person innerhalb des kontrollierten Bereichs C anzeigt, und Information die angibt, wann und wo die Person erfasst wurde, erzeugt. Dann wiederholt der Roboter R die Prozesse von Schritt 11 zu Schritt 23 während des Laufs unter der Kontrolle des Programms des Roboters R (Schritt S24).
  • (BEWEGUNGSBEISPIEL 2)
  • Das Bewegungsbeispiel von 14 ist der Fall, wenn der Roboter R das mobile Objekts D innerhalb des kontrollierten Bereichs C erfasst hat und eine vorbestimmte Bewegung durchführt, wonach er sich dem mobilen Objekt D annähert.
  • Hier sind die Bewegungen zur Abgabe einer Meldung an das mobile Objekt D (Person) oder die Bewegung zum Tragen von Gepäck zu dem mobilen Objekt D (Person) das Beispiel der vorbestimmten Bewegung.
  • Zuerst wird das zu erfassende mobile Objekt D in der Basisstation 1 bestimmt (Schritt S51). Dann wird das Programm, das den Roboter R zum Suchen des mobilen Objekts D anweist, von der Basisstation 1 übertragen (Schritt S52).
  • Der Roboter R bewegt sich in Übereinstimmung mit dem Programm in dem gesamten kontrollierten Bereich C herum (Schritt S53), wenn der Roboter R das Programm empfangen hat.
  • In diesem Fall wird das Suchsignal F mit einem festen Zyklus von dem Funksender-Empfänger 90 in Form einer Funkwelle W wiederholt übertragen (Schritt S 54).
  • Wenn sich das mobile Objekt D mit der Kennung T innerhalb der Region befindet, wo der Empfang der Funkwelle W zur Verfügung steht, und die Kennung T die Funkwelle W empfangen hat (Schritt S55), sendet die Kennung T das Empfangssignal J einschließlich der Kennungs-ID und das Emissionsanforderungssignal zu dem Roboter R (Schritt S56).
  • Hier führt der Roboter R seinen Lauf in Übereinstimmung mit dem Programm fort, wenn der Roboter R das Empfangssignal J, das die Kennungs-ID und das Emissionsanforderungssignal enthält, nicht empfängt (Schritt S57, Nein).
  • Hingegen wird der Abstand r von dem Roboter R zu der Kennung T berechnet, wenn der Roboter R das Empfangssignal J empfangen hat. Dann wird der durch Berechnung erhaltene Abstand r mit einem Schwellenwert (a) verglichen.
  • Wenn der Abstand r kleiner als der Schwellenwert (a) ist (Schritt S58, Ja), sendet der Roboter R die aus dem Empfangssignal J erhaltene Kennungs-ID und die dem Roboter R zugewiesene Roboter-ID zur Basisstation 1 (Schritt S59).
  • Wenn der Abstand r den Schwellenwert (a) überschreitet (Schritt S58, Nein), läuft der Roboter R in Übereinstimmung mit dem Programm weiter.
  • Hier sollte der Schwellenwert (a) auf einen Abstand gelegt werden, in dem das Infrarotlicht B sicher empfangen wird.
  • Wenn die Kennungs-ID von dem Roboter R durch die Basisstation 1 empfangen wird (Schritt S60), wird die Objektdatenbank 210 auf der Basis der Kennungs-ID abgesucht, um das mobile Objekt (die Person) zu identifizieren, die das Empfangssignal J einschließlich der Kennungs-ID übertragen hat. Hierdurch wird die Prüfung davon durchgeführt, ob das mit der Kennungs-ID identifizierte mobile Objekt D (Person) das zu erfassende mobile Objekt D ist oder nicht (Schritt S61).
  • Wenn das mit der Kennungs-ID identifizierte mobile Objekt D (die Person) nicht das zu erfassende Objekt D ist (Schritt S62, Nein), läuft der Roboter R entsprechend dem Programm weiter (Schritt S52).
  • Wenn hingegen das mit der Kennungs-ID identifizierte mobile Objekt D (die Person) das zu erfassende mobile Objekt D ist (Schritt S62, Ja), weist die Basisstation 1 den Roboter R an, das Infrarotlichtsignal B (Lichtsignal) einschließlich des Richtungsprüfsignals H (Hc1, Hc2, ..., Hc8) abzustrahlen (Schritt S63).
  • Hierdurch strahlt der Roboter R das Infrarotlichtsignal B ab, um die Position des mobilen Objekts D zu bestimmen. Hier ist der detaillierte Prozess der Bestimmung der Position des mobilen Objekts D gleich jenem der Schritte von Schritt S63 bis S71. Daher wird die Erläuterung davon weggelassen.
  • Die Basisstation 1 sendet das Befehlssignal, das den Roboter R anweist, sich zu der mit dem Positionsvektor q(X, Y) bezeichneter Position zu bewegen (Schritt S72), wenn der Positionsvektor q(X, Y) des mobilen Objekts D berechnet ist (Schritt S71).
  • Somit bewegt sich der Roboter R zu der Position in der Nähe des mobilen Objekts D entsprechend dem Befehlssignal (Schritt S73), und dann führt der Roboter R die vorbestimmte Bewegung durch, zum Beispiel die Bewegung zur Abgabe der Meldung zu dem mobilen Objekt D (Schritt S74).
  • Dann wird der Prozess von Schritt S51 bis S74 wiederholt, wenn das nächste mobile Objekt D bereits bestimmt worden ist (Schritt S75, Nein).
  • In dem Bewegungsbeispiel 2 werden die Erfassung des mobilen Objekts D mittels der Funkwelle W (Schritt S54–Schritt S59) und die Bestimmung der Position des mobilen Objekts mittels Infrarotlicht B (Schritt S63–Schritt S69) separat durchgeführt. Dies ist so, weil die Transparenz aufgrund von Reflektion und Beugung der Funkwelle W hoch ist und der Erfassungsfehler der Kennung T wahrscheinlich nicht auftritt.
  • Daher wird in der vorliegenden Ausführung, um die Positionserfassung des mobilen Objekts D rasch und akkurat durchzuführen, das Vorhandensein des mobilen Objekts D vor der genauen Positionserfassung des mobilen Objekts D mittels des Lichtsignals (Infrarotlicht B) mittels der Funkwelle W geprüft.
  • In der oben beschriebenen Ausführung wird der Roboter R, der zweibeinig gehen kann, als Beispiel des Detektors verwendet. Jedoch ist der Detektor nicht auf den Roboter beschränkt, solange der Detektor Objektpositionsinformation s(r, θ) und Roboterpositionsinformation [p(x, y), Winkel θ] messen kann. Zum Beispiel kann ein funkgesteuerter Wagen Beispiel des Detektors sein.
  • In der oben beschriebenen Ausführung wird mittels der Emitter-ID aus Objektpositionsinformation s(r, θ) Richtungsinformation θ berechnet, und die Abstandsinformation r wird auf der Basis der Feldintensität des Empfangssignals J berechnet, das von der Kennung T übertragen wird. Jedoch kann die Objektpositionsinformation s(r, θ) auch mittels eines Bild berechnet werden, das aus den Kameras C des Roboters R erhalten wird.
  • <<ZWEITE AUSFÜHRUNG>>
  • Als nächstes wird eine zweite Ausführung des Positionserfassungsystems A für das mobile Objekt erläutert.
  • Das Positionserfassungssystem A dieser zweiten Ausführung hat angenähert die gleiche Konstruktion wie die erste Ausführung, und die Funktion jeder Komponente ist angenähert gleich jener der ersten Ausführung.
  • Daher erfolgt die Erläuterung des Positionserfassungssystems A hauptsächlich für davon abweichende Teile, und die Erläuterung des anderen Teils erfolgt nach Bedarf.
  • [CONTROLLER 40]
  • In Bezug auf 15 enthält der Controller 40 ein Personen-Identifikationseinheit 40a, einen Dialogcontroller 40b, eine Bewegungsbewertungseinheit 40c, einen Routenselektor 40d, einen Kartendatenselektor 40e, einen Transportcontroller 40f, einen Laufcontroller 40g, eine Personeninformations-Selektor 40h, einen spezifische Informations-Selektor 40i und eine Laufrichtungsbewertungseinheit 40j.
  • (PERSONEN-IDENTIFIKATIONSEINHEIT 40a)
  • Die Personen-Identifikationseinheit 40a führt eine Personenidentifikation des mobilen Objekts D (einer Person) mit der Kennung T auf der Basis der Kennungs-ID durch, die aus dem von der Kennung T übertragenen Empfangssignal J erhalten wird. Genauer gesagt, die Personen-Identifikationseinheit 40a bezieht sich auf eine Datenbank (Mobilobjekt-Datenbank 210), die in der Aufzeichnungseinheit (nicht gezeigt) des Managementcomputers 3 gespeichert ist, auf der Basis der Kennungs-ID, und erfasst persönliche Information, die mit der Kennungs-ID korreliert ist.
  • Hierdurch wird die Kommunikation mit einer bestimmten Person auf der Basis der persönlichen Information möglich gemacht. Auf diese Weise entspricht die Kennungs-ID einer bestimmten Person, der Name, das Alter, das Geschlecht, die Vorlieben und das Vorhaben der Person der persönlichen Information.
  • In dieser Ausführung erfolgt eine Eingabe und Aktualisierung der in der Datenbank (Mobilobjekt-Datenbank 210) gespeicherten Information durch das Terminal 5, das durch das Netzwerk 4 mit dem Managementcomputer verbunden ist.
  • Hier kann die persönliche Information in einer Speichereinheit (nicht gezeigt) gespeichert werden, die in dem Roboter R installiert ist.
  • Die Personen-Identifikationseinheit 40a kann die Personenidentifikation durch einen Vergleich zwischen Gesichtsinformation einer Person (mobiles Objekt D), die von dem Bildprozessor 10 eingegeben wird, und Gesichtsinformation, die vorab in der Speichereinheit gespeichert ist, durchführen. Da in diesem Fall die Personenidentifikation des mobilen Objekts (der Person) mittels Gesichtsinformation und persönlicher Information durchgeführt werden kann, kann die Genauigkeit der Personenidentifikation verbessert werden.
  • (DIALOGCONTROLLER 40b)
  • Der Dialogcontroller 40b erzeugt Sprachdaten, die durch den Lautsprecher S ausgegeben werden sollen, und führt diese dem Sprachprozessor 20 zu. In diesem Fall wird aus den Sprachdaten im Sprachsynthetisierer 21a eine synthetische Stimme erzeugt und durch den Lautsprecher S ausgegeben.
  • Hier entsprechen Textdaten von Inhalten der Sprache, die von dem Sprachprozessor 20 eingegeben werden, den Sprachdaten.
  • Der Dialogcontroller 40b erzeugt Sprachdaten für eine Antwort auf der Basis des semantischen Inhalts der Textdaten der Sprachinhalte.
  • (BEWEGUNGSBEWERTUNGSEINHEIT 40c)
  • Die Bewegungsbewertungseinheit 40c bestimmt die Bewegung, zum Beispiel Lauf und Sprache des Roboters R und gibt ein Befehlssignal aus, das jeden Abschnitt des Roboters R anweist, die Bewegung, welche bestimmt worden ist, durchzuführen.
  • Hier entspricht das Signal, das den autonomen Laufcontroller 50 anweist, sich zu der Position der Kennung T zu bewegen, wenn die Kennung T erfasst wird und die Position der Kennung T gemessen wird, im Befehlssignal.
  • (ROUTENSELEKTOR 40d)
  • Der Routenselektor 40d überlagert die von der Zielrfassungseinheit 70 gemessene Position auf von dem Kartendatenselektor 40e erfasste Kartendaten und bestimmt das Ziel des Roboters R. Dann wählt der Routenselektor 40d die Route zu dem Ziel an der gegenwärtigen Position des Roboters R.
  • (KARTENDATENSELEKTOR 40e)
  • Der Kartendatenselektor 40e erfasst Karteninformation des Umgebungsbereichs des Roboters R und Karteninformation der Route zu dem Ziel von der gegenwärtigen Position des Roboters R. Hier kann diese Karteninformation in der Speichereinheit (nicht gezeigt) des Managementcomputers 3 (siehe 1) gespeichert werden.
  • (TRANSPORTCONTROLLER 40f)
  • Der Transportcontroller 40f steuert den Transport von Gepäck, der durch die Bewegungsbewertungseinheit 40c bestimmt ist.
  • Hier entsprechen das Aufnehmen von Gepäck, der Transport von Gepäck und die Ausgabe von Gepäck dem Transport von Gepäck, der von einer Person durch Konversation erbeten wird.
  • (LAUFCONTROLLER 40g)
  • Der Laufcontroller 40g steuert den Beinteil R3, damit der Roboter R läuft. Genauer gesagt, der Laufcontroller 40g gibt ein Befehlssignal an den autonomen Laufcontroller 50 aus, um den Beinteil R3 zu steuern. In diesem Fall gibt der Laufcontroller 40g auch ein Befehlssignal aus, das den Kopfteil 51a und den Armteil 51b aktiviert, um die Verlagerung des Schwerpunkts zu steuern.
  • (PERSONENINFORMATIONS-SELEKTOR 40h)
  • Der Personeninformations-Selektor 40h erfasst persönliche Information. Der Personeninformations-Selektor 40h sendet die Kennungs-ID zu dem Managementcomputer 3, wenn die Kennungs-ID von der Kennung T erhalten wird. Hierdurch wird in dem Managementcomputer 3 die Speichereinheit (nicht gezeigt) des Managementcomputers 3 auf der Basis der Kennungs-ID abgesucht, um der Kennungs-ID entsprechende persönliche Information zu erhalten. Somit kann der Personeninformations-Selektor 40h persönliche Information erfassen.
  • (SPEZIFISCHE-INFORMATIONS-SELEKTOR 40i)
  • Der spezifische Informations-Selektor 40i erfasst spezifische Information, die für die spezifische Information des Roboters R erforderlich ist. In der vorliegenden Ausführung entspricht zum Beispiel Information, die für eine Konversation mit der Person, die durch persönliche Information identifiziert worden ist, erforderlich ist, der spezifische Information. Wenn der Inhalt der persönlichen Information sich auf ein Vorhaben der Person bezieht, und der Inhalt einen Golfplatz in Tochigi-Bezirk als Vorhaben angibt, ist ein Beispiel der spezifischen Information Wetterinformation in der Umgebung des Golfplatzes.
  • (LAUFRICHTUNGSBEWERTUNGSEINHEIT 40j)
  • Die Laufrichtungsbewertungseinheit 40j misst die Laufrichtung und die Laufstrecke der Kennung T. Hier werden die Laufrichtung und Laufstrecke unter Berücksichtigung der Beziehung zwischen der Richtung und dem Abstand der von der Zielerfassungseinheit 70 erfassten Kennung T zu einer gegebenen Zeit und der Richtung und dem Abstand der von der Zielerfassungseinheit 70 erfassten Kennung T zu einer anderen gegebenen Zeit erhalten.
  • Zum Beispiel trägt in dieser Ausführung die Laufrichtungsbewertungseinheit 40j die Position die auf der Basis der Richtung und des Abstands der von der Zielerfassungseinheit 70 erfassten Kennung T identifiziert ist, im x-y-Raum auf. Hier ist in diesem x-y-Raum die Frontrichtung des Roboters R die „+x-Axial”-Richtung” und die rechte Richtung des Roboters R ist die „+y-Axial”-Richtung.
  • Da hierdurch zwei Punkte im x-y-Raum angegeben sind, kann die Laufrichtung und der Abstand gemessen werden. Somit können die zeitliche Änderung der Laufrichtung und des Abstands durch die Laufrichtungsbewertungseinheit 40j auf der Basis der Information in Echtzeit gemessen werden, die die Richtung und den Abstand des mobilen Objekts D anzeigt, die von der Zielerfassungseinheit 70 eingegeben werden. Die ermöglicht die Laufsteuerung des Roboters R zu dem mobilen Objekt D.
  • [MANAGEMENTCOMPUTER 3]
  • 16 ist ein Blockdiagramm mit Darstellung der Konstruktion des Managementcomputers 3.
  • Der Managementcomputer 3 enthält eine Kommunikationseinheit 3a, eine Steuereinheit 3b, eine spezifische Informations-Erfassungseinheit 3c, eine Kartendatenbank 3d, einen Datenbankmanager 3e, eine spezifische Informationdatenbank 3f und eine Personenidentifikationsdatenbank 3g.
  • Die Kommunikationseinheit 3a erstellt eine Kommunikation zwischen dem Managementcomputer 3 und dem Roboter 3 durch die Basisstation 1 (siehe 1). Die Steuereinheit 3b steuert die Datenverarbeitung in dem Managementcomputer 3.
  • (SPEZIFISCHE-INFORMATION-ERFASSUNGSEINHEIT 3c)
  • Die Spezifische-Information-Erfassungseinheit 3c spielt die gleiche Rolle wie der spezifische Informationsselektor 40i des Controllers 40 des Roboters R und erfasst die spezifische Information.
  • Die Spezifische-Information-Erfassungseinheit 3c sucht die spezifische Informationdatenbank 3f auf der Basis von persönlicher Information, die auf der Basis der Kennungs-ID aus der Personeninformationsdatenbank 3g erhalten wird, wenn die Kennungs-ID von dem Roboter gesendet wird, und erhält spezifische Information.
  • (KARTENDATENBANK)
  • Die Kartendatenbank 3d speichert darin Kartendaten. Der Datenbankmanager 3e managt die Kartendatenbank 3d, die spezifische Informationdatenbank 3f und die Personeninformationdatenbank 3g und steuert die Eingabe/Ausgabe von Daten zu den jeweiligen Datenbanken.
  • (SPEZIFISCHE-INFORMATION-DATENBANK)
  • Die Spezifische-Information-Datenbank 3f speichert spezifische Information darin. In dieser Ausführung ist es bevorzugt, dass die Aktualisierung der spezifischen Information zu einem vorbestimmten Zyklus unter der Steuerung der Steuereinheit 3b erfolgt, durch Erfassung der Inhalte spezifischer Information von anderen Computern, die durch das Netzwerk mit dem Managementcomputer 3 verbunden sind. Hier spricht Information in Bezug auf Gemeinschaftsereignisse und Wetter der spezifischen Information.
  • (PERSONENINFORMATION-DATENBANK)
  • Die Personeninformation-Datenbank 3g speichert darin persönliche Information. Da in dieser Ausführung die persönliche Information in der Datenbank mit der Kennungs-ID korreliert ist, erfolgt die Suche der persönlichen Information unter Verwendung der Kennungs-ID. Jedoch kann die Suche nach persönlicher Information auch unter Verwendung einer Seriennummer oder eines Teils persönlicher Information erfolgen, wie etwa Name und Adresse, anstatt der Kennungs-ID.
  • Als nächstes wird die Signalverarbeitung des Positionserfassungssystems A der vorliegenden Ausführung unter Verwendung des Blockdiagramms von 4 und der Flussdiagramme der 17 bis 19 erläutert.
  • (SIGNALVERARBEITUNG IN DER OBJEKTERFASSUNGSEINHEIT 70)
  • Die Signalverarbeitung der Zielerfassungseinheit 70 des Roboters R wird in Bezug auf 17 erläutert.
  • Der Signalgenerator 81a des Einheit-Controllers 80 bezieht sich einem vorbestimmten Zyklus auf die Aufzeichnungseinheit 110 und erhält die eindeutige Identifikationsnummer des Roboters R, an dem die Zielerfassungseinheit 70 vorgesehen ist (Schritt S1). Das heißt, der Signalgenerator 81a erhält die Roboter-ID aus der Aufzeichnungseinheit 110.
  • Dann erzeugt der Signalgenerator 81a das Suchsignal, das die Roboter-ID und das Empfangsanforderungssignal enthält (Schritt S2). Zusätzlich erzeugt der Signalgenerator 81a das Richtungsprüfsignal H, das als Infrarotlichtsignal von jedem Lichtemitter der Lichtemissionseinheit 100 abgestrahlt wird, für die jeweiligen Lichtemitter (Schritt S3). Hier enthält das Richtungsprüfsignal H die in Schritt S1 enthaltene Roboter-ID und die Emitter-ID, die zum Identifizieren des Lichtemitters zu verwenden ist, der das Richtungsprüfsignal H emittiert.
  • Die Verschlüsselungseinheit 82 des Einheit-Controllers 80 verschlüsselt das Suchsignal F, um das verschlüsselte Suchsignal F zu erzeugen, und gibt das verschlüsselte Suchsignal Fc an den Funksender-Empfänger 90 aus. Somit wird das verschlüsselte Suchsignal Fc mit einem vorbestimmten Modulationsschema moduliert, um das modulierte Signal zu erzeugen. Dann wird das modulierte Signal durch die Transceiverantenne 93 übertragen (Schritt S4). Das heißt, das Suchsignal wird drahtlos übertragen.
  • Die Verschlüsselungseinheit 82 des Einheit-Controllers 80 verschlüsselt das Richtungsprüfsignal H, das in dem Signalgenerator 81a erzeugt ist, um das verschlüsselte Richtungsprüfsignal Hc zu erzeugen, und gibt dann das verschlüsselte Richtungsprüfsignal Hc an die Zeitteilereinheit 83 aus.
  • Die Zeitteilereinheit 83 bestimmt die Abstrahlungsreihenfolge und Zeitgebung jedes Lichtemitters (LED1–LED8) der Lichtemissionseinheit 100 (Schritt S5), wenn das verschlüsselte Richtungsprüfsignal Hc von der Verschlüsselungseinheit 82 eingegeben wird. Dann gibt die Zeitteilereinheit 83 das verschlüsselte Richtungsprüfsignal Hc an den Modulator des entsprechenden Lichtemitters (LED1–LED8) auf der Basis der vorbestimmten Zeitgebung aus (Schritt S6).
  • Der Modulator jedes Lichtemitters der Lichtemissionseinheit 100 moduliert das verschlüsselte Richtungsprüfsignal Hc in einer vorbestimmten Modulationsweise, um das Infrarotlichtsignal einer vorbestimmten Wellenlänge zu erhalten. Dann wird das Infrarotlichtsignal von dem dem Modulator benachbarten Lichtemitter zu der Suchregion abgestrahlt (Schritt S7). Hierdurch wird Infrarotlicht zu jeder Suchregion, die um den Roboter R herum eingerichtet ist, in der vorbestimmten Reihenfolge und Zeitgebung abgestrahlt.
  • Die Kennung T erzeugt das Empfangssignal J (modulierte Signal) und sendet es drahtlos, wenn die Kennung T das Suchsignal F (modulierte Signal) empfängt, das von der Sendeempfangsantenne 93 des Funksender-Empfängers 90 gesendet ist.
  • Der Demodulator 92 erhält das verschlüsselte Empfangssignal Jc durch Demodulieren des modulierten Signals, wenn der Demodulator 92 das von der Kennung T übertragene modulierte Signal (Empfangssignal J) empfängt (Schritt S8, Ja). Der Demodulator 92 gibt das verschlüsselte Empfangssignal Jc an den Decoder 84 und die Feldintensitätsmesseinheit 85 des Einheit-Controllers 80 aus.
  • Der Decoder 84 des Einheit-Controllers 80 decodiert das verschlüsselte Empfangssignal Jc, um das Empfangssignal J zu erhalten, und gibt das Empfangssignal J an den Datenprozessor 81 aus.
  • Die Feldintensitätsmesseinheit 85 des Einheit-Controllers 80 erfasst eine Leistung des verschlüsselten Empfangssignals Jc, das von dem Demodulator 92 des Funksender-Empfängers 90 eingegeben ist, und berechnet einen Mittelwert der erfassten Leistung. Dann gibt die Feldintensitätsmesseinheit 85 den berechneten Mittelwert als Daten der Feldintensität an den Datenprozessor 81 aus.
  • Der Positionsberechnungsteil 81b bezieht sich auf die Abstandstabelle auf der Basis der von der Feldintensitätsmesseinheit 85 eingegebenen Feldintensität, und erhält Information (Bereichsinformation), die jenen Bereich aus den Bereichen (ersten Bereich bis vierten Bereich) anzeigt, in dem sich die Kennung T, die das Empfangssignal J gesendet hat, befindet (Schritt S9). Das heißt, der Positionsberechnungsteil 81b bemisst den Abstand von dem Roboter R zu der Kennung T auf der Basis der Feldintensität.
  • Der Positionsberechnungsteil 81b bezieht sich auf die in der Aufzeichnungseinheit 110 gespeicherte Richtungstabelle auf der Basis der Emitter-ID, die in dem von dem Decoder 84 eingegebenen Empfangssignal enthalten ist. Dann erhält der Positionsberechnungsteil 81b die Information (Richtungsinformation), die den Lichtemitter identifiziert, der das von der Kennung T empfangene Infrarotlicht abgestrahlt hat.
  • Dann erzeugt der Positionsberechnungsteil 81b die Positionsinformation, die die Position des mobilen Objekts D anzeigt, aus Bereichsinformation und Richtungsinformation (Schritt S11). Somit wird die Position des mobilen Objekts D bestimmt.
  • Wenn das Empfangssignal J (modulierte Signal), das von der Kennung T übertragen worden ist, von dem Demodulator 92 des Funksender-Empfängers 90 nicht empfangen worden ist (Schritt S8, Nein), behält der Demodulator 92 den Standby-Zustand, bis das Empfangssignal J (moduliertes Signal) empfangen ist.
  • (SIGNALVERARBEITUNG IN DER KENNUNG T)
  • Als nächstes wird die Signalverarbeitung, die in der Kennung T durchzuführen ist, die als das mobile Objekt D dient, in Bezug auf das Blockdiagramm von 10 und das Flussdiagramm von 18 erläutert.
  • Wenn eine Funkwelle (ein moduliertes Signal), die von dem Roboter R übertragen worden ist, durch die Antenne 141 empfangen worden ist (Schritt S20, Ja), demoduliert der Demodulator 142 des Funktransceivers 140 das modulierte Signal, um das verschlüsselte Suchsignal Fc zu erhalten. Dann gibt der Demodulator 142 das verschlüsselte Suchsignal Fc an den Empfangssignalgenerator 160 aus.
  • Die Decodereinheit 161 des Empfangssignalgenerators 160 decodiert das von dem Funktransceiver 140 eingegebene verschlüsselte Suchsignal Fc, um das Suchsignal F zu erhalten. Dann gibt die Decodereinheit 161 das Suchsignal F an die Prozessoreinheit 162 aus.
  • Die Prozessoreinheit 162 des Empfangssignalgenerators 160 ändert den Zustand des Lichtempfängers 150 von einem Standby-Zustand zu einem aktivierten Zustand in Antwort auf das im Suchsignal enthaltene Empfangsanforderungssignal F (Schritt S21).
  • Wenn der optische Empfänger 151 des Lichtempfängers 150 das von dem Roboter R abgestrahlte Infrarotlichtsignal innerhalb einer vorbestimmten Zeit nach der Aktivierung des Lichtempfängers 150 empfängt (Schritt S22, Ja), demoduliert der Lichtdemodulator 152 des Lichtempfängers 150 das Infrarotlichtsignal, um das verschlüsselte Richtungsprüfsignal Hc zu erhalten. Dann gibt der Lichtdemodulator 152 das verschlüsselte Richtungsprüfsignal an den Empfangssignalgenerator 160 aus.
  • Somit decodiert die Decodereinheit 161 des Empfangssignalgenerators 160, zum Erhalt des Richtungsprüfsignals H, das verschlüsselte Richtungsprüfsignal Hc und gibt das Richtungsprüfsignal H an die Prozessoreinheit 162 aus.
  • Die Prozessoreinheit 162 des Empfangssignalgenerators 160 vergleicht die in dem Richtungsprüfsignal H enthaltene Roboter-ID mit der in dem Suchsignal F enthaltenen Roboter-ID.
  • Wenn beide Roboter-IDs miteinander übereinstimmen (Schritt S23), erzeugt die Prozessoreinheit 162 das Empfangssignal J. Vor der Erzeugung des Empfangssignals J bezieht sich die Prozessoreinheit 162 auf den Speicher 170 und erhält die der Kennung T zugewiesene eindeutige Identifikationsnummer (Kennungs-ID).
  • Dann erzeugt die Prozessoreinheit 162 das Empfangssignal, das die Kennungs-ID enthält, die in dem Suchsignal F enthaltene Roboter-ID und die in dem Richtungsprüfsignal H enthaltene Emitter-ID, und die Prozessoreinheit 162 gibt das erzeugte Empfangssignal an die Verschlüsselungseinheit 163 aus (Schritt S24).
  • Hier erzeugt die Prozessoreinheit 162 das Empfangssignal, das ferner das Emissionsanforderungssignal darin enthält, wenn das Richtungsprüfsignal H nicht innerhalb einer vorbestimmten Zeit nach der Aktivierung des Lichtempfängers 150 eingegeben wird (Schritt S22, Nein), oder wenn die Roboter-ID des Richtungsprüfsignals H nicht mit der Roboter-ID des Suchsignals F übereinstimmt (Schritt S23, Nein). Dann gibt die Prozessoreinheit 162 das erzeugte Empfangssignal an die Verschlüsselungseinheit 163 aus (Schritt S25).
  • Der Modulator 143 des Funktransceivers 140 moduliert, zum Erhalt des modulierten Signals, das von der Verschlüsselungseinheit 163 eingegebene verschlüsselte Empfangssignal Jc, und sendet dann das modulierte Signal drahtlos durch die Antenne 141 (Schritt S26).
  • (DER PROZESS IM POSITIONSERFASSUNGSSYSTEM A)
  • Als nächstes wird der Prozess in dem Positionserfassungssystem A, der für die Erkennung des Besuchers des Büro verwendet wird, in Bezug auf die Blockdiagramme der 1 bis 4, 10 und 19 erläutert.
  • Ein Besucher des Büros erhält zum Beispiel am Empfangstisch die Kennung T, und es wird Information, zum Beispiel Name des Besuchers und Besuchsabschnitt, durch das an dem Empfangstisch angeordnete Terminal 5 eingegeben (Schritt S50).
  • Somit wird die von dem Terminal 5 eingegebene Information in der Aufzeichnungseinheit (nicht gezeigt) des Managementcomputers 3 gespeichert, der mit dem Terminal 5 durch das Netzwerk 4 verbunden ist (Schritt S51).
  • Dann bringt der Besucher die Kennung an dem Empfangstisch an und geht zu dem Besuchsabschnitt los.
  • Der Controller 40 der Objekterfassungseinheit 70 erzeugt das Suchsignal F und das Richtungsprüfsignal H mit einem festen Zyklus (Schritt S52), und das Suchsignal F wird drahtlos von dem Funksender-Empfänger 90 übertragen (Schritt S53).
  • Das Richtungsprüfsignal H wird in der Lichtemissionseinheit 100 moduliert, und dann wird das modulierte Signal als Infrarotlichtsignal zu der vorbestimmten Suchregion abgestrahlt (Schritt S54).
  • Wenn die Kennung T das Richtungsprüfsignal H zusätzlich zum Suchsignal F empfängt (Schritt S55, Ja), wird das Empfangssignal erzeugt (Schritt S56), und dann wird das Empfangssignal J drahtlos übertragen (Schritt S57).
  • Wenn der Einheit-Controller 80 das von der Kennung T drahtlos übertragene Empfangssignal J empfängt, berechnet der Einheit-Controller 80 den Abstand von dem Roboter R zu dem mobilen Objekt D auf der Basis der Feldintensität des Empfangssignals J (Schritt S58). Der Einheit-Controller 80 identifiziert den Lichtemitter, der das von der Kennung T empfangene Lichtsignal abgestrahlt hat. Dann betrachtet der Einheit-Controller 80 die Abstrahlungsrichtung des identifizierten Lichtemitters als die Richtung des mobilen Objekts D (Schritt S59). Hier wird die Position des mobilen Objekts D bestimmt (Schritt S60).
  • Der Einheit-Controller 80 der Zielerfassungseinheit 70 gibt die Positionsinformation und die Kennungs-ID, die aus dem Empfangssignal J erhalten ist, an den Controller 40 des Roboters R aus.
  • Der Controller 40 des Roboters R sendet die Kennungs-ID zu dem Managementcomputer 3 zusammen mit der Positionsinformation (Schritt S61). In dem Managementcomputer 3 wird die Identifikation (Umorganisation) des mobilen Objekts D (der Person), das mit der der Kennung T ausgestattet ist, der die Kennungs-ID zugewiesen ist, durchgeführt, indem die Aufzeichnungseinheit (nicht gezeigt) auf der Basis der Kennungs-ID abgesucht wird (Schritt S62). Dann wird die Information (die persönliche Information) in Bezug auf das identifizierte mobile Objekt D (die Person) zusammen mit Befehlssignal, das zum Aktivieren des Roboters R erforderlich ist, auf den Roboter R übertragen (Schritt S63).
  • Dann führt der Roboter R die Bewegung (den Lauf) durch und lässt eine Sprachmitteilung ertönen, auf der Basis des Befehlssignals, das von dem Managementcomputer 3 eingegeben ist.
  • In der vorliegenden Erfindung führt der Roboter R zum Beispiel die folgenden Bewegungen etc. aus: 1. der Roboter R bewegt sich zu der Frontposition des mobilen Objekts D (der Person) mit der Kennung T und führt die Bildaufnahme des Gesichtsbilds des mobilen Objekts D durch; 2. der Roboter R lässt eine Sprachmitteilung ertönen, wie etwa „GUTEN MORGEN Herr ...” und 3. der Roboter R schickt eine vorbestimmte Mitteilung an das mobile Objekt D (die Person).
  • <BEWEGUNG DES ROBOTERS MIT INTERAKTION>
  • Als nächstes wird die Bewegung (Bewegungsmuster 1 bis Bewegungsmuster 3) mit Interaktion bei Konversation des Roboters R erläutert.
  • In der folgenden Erläuterung wird die Bewegung des Roboters R unter der Annahme erläutert, dass der Roboter in einem Büro angeordnet ist. Jedoch kann der Roboter R, anstatt im Büro einer Firma, auch in einem Krankenhaus oder einer städtischen Verwaltung angeordnet sein, und kann innerhalb oder außerhalb eines Gebäudes angeordnet sein. Darüber hinaus ist der Bereich, wo sich der Roboter herumbewegt, nicht auf einen spezifischen Bereich beschränkt, solange der Roboter R Kartendaten erhalten kann und auf der Basis der Kartendaten laufen kann.
  • (BEWEGUNGSMUSTER 1)
  • Das Bewegungsmuster 1 mit Interaktion bei Konversation des Roboters R wird in Bezug auf die 20 und 21 erläutert.
  • Hier ist das Bewegungsmuster 1 der Fall, wo der Roboter R Gepäck X von der Person D1 annimmt und das Gepäck X zur Person D2 befördert, während er mit der Person D1 oder D2 Konversation treibt und während er die Bewegung durchführt, die als Folge der Konversation erforderlich ist.
  • Wenn der Roboter R von der Person D1 gerufen wird (Schritt S200), wird die Stimme der Person D1 vom Mikrofon MC aufgenommen und dem Spracherkenner 21b des Sprachprozessors 20 zugeführt.
  • Der Spracherkenner 21b wandelt die Sprachdaten in Textdaten in Bezug auf Wörterbücher um, und gibt die Textdaten an den Dialogcontroller 40b des Controllers 40 aus (siehe 15). Dann erzeugt der Dialogcontroller 40b ein Befehlssignal, das den Roboter R anweist, entsprechend den Textdaten eine vorbestimmte Bewegung und Konversation durchzuführen.
  • Wenn es sich in dieser Ausführung herausstellt, dass die Person D1 den Roboter R gebeten hat, Gepäck zu tragen, wird ein Signal, das angibt, dass der Roboter R eine Gepäckbeförderung akzeptiert hat, erzeugt und der Bewegungsbewertungseinheit 40c zugeführt.
  • Dann führt die Bewegungsbewertungseinheit 40c einen vorbestimmten Prozess (siehe 17) durch, um die Position der Person D1 zu bestimmen, die den Roboter R gebeten hat, Gepäck zu tragen. Daher erzeugt die Bewegungsbewertungseinheit 40c ein Befehlssignal, das den Roboter R anweist, sich zu der bestimmten Position der Person D1 zu bewegen, und gibt es an den Laufcontroller 40g aus.
  • Dann lässt der Robotor R eine Sprachmitteilung für Gepäckbeförderung ertönen, zum Beispiel „Ich werde Ihr Gepäck zu D2 bringen” (Schritt S202) und führt eine Bewegung zur Aufnahme des Gepäcks durch (Schritt S203).
  • Als nächstes fordert der Kartendatenselektor 40e des Controllers 40 den Managementcomputer 3 auf, Kartendaten zu schicken, die für den Lauf zum Tisch der Person D2 aus der gegenwärtigen Position (dem Tisch der Person D1) des Roboters R erforderlich sind. In dem Managementcomputer 3 sucht der Datenbankmanager 3e die Kartendatenbank 3d ab, um Kartendaten zu erhalten, und sendet die Kartendaten, die erhalten worden sind, durch die Kommunikationseinheit 3a zu dem Roboter R.
  • Hierdurch wählt der Roboter R die Route zu dem Tisch der Person D2, der das Gepäck abgeliefert wird, aus der gegenwärtigen Position des Roboters R auf der Basis der Kartendaten (Schritt S204).
  • Als nächstes erzeugt die Bewegungsbewertungseinheit 40c ein Befehlssignal, das den Roboter R anweist, entlang der in Schritt S204 gewählten Route zu laufen, und sendet es zu dem autonomen Laufcontroller 50. Hierdurch läuft der Roboter R entlang der in Schritt S204 gewählten Route in Übereinstimmung mit dem Befehlssignal (Schritt S205).
  • Der Roboter R wiederholt die Prüfung, ob sich das mobile Objekt D mit der Kennung T innerhalb des Umgebungsbereichs befindet oder nicht, während des Laufs auf der gewählten Route. In diesem Fall führt der Roboter R die persönliche Identifikation durch, um die Person D2 zu suchen, zu der das Gepäck geliefert wird, wenn das mobile Objekt innerhalb des Umgebungsbereichs erfasst wird (Schritt S206).
  • Wenn die Person D2 erfasst ist (Schritt S207, Ja), strahlt der Roboter R ein Infrarotlichtsignal entsprechend der zuvor beschriebenen Weise aus und bestimmt die Position der Person D2.
  • Wenn das Infrarotlichtsignal von der Kennung T der Person D2 empfangen wird, wird das Empfangssignal von der Kennung T zu dem Roboter R übertragen. Hierdurch erfolgt in dem Roboter R die Prüfung davon, ob das von der Kennung T empfangene Infrarotlicht direktes Licht oder reflektiertes Licht ist oder nicht, durch Prüfung der Lichtzustandsdaten, die in dem Empfangssignal enthalten sind (Schritt S210).
  • In dieser Ausführung wird die Prüfung davon, ob das Infrarotlicht direktes oder reflektiertes Licht ist oder nicht, auf der Basis der Helligkeit des vom Lichtempfänger 150 empfangenen Infrarotlichts bestimmt, und der Empfangssignalgenerator 160 der Kennung T erzeugt das Empfangssignal J einschließlich der Lichtzustandsdaten, das das Ergebnis der Prüfung anzeigt. Daher kann die Bewegungsbewertungseinheit 40c des Roboters R den Lichtzustand auf der Basis der im Empfangssignal enthaltenen Lichtzustandsdaten bestimmen.
  • Wenn das von der Kennung T empfangene Licht direktes Licht ist (Schritt S210, Ja), geht der Prozess in dem Roboter R zu Schritt S215 weiter.
  • Wenn hingegen das von der Kennung T empfangene Licht reflektiertes Licht ist (Schritt S210, Nein), aktiviert die Bewegungsbewertungseinheit 40c des Roboters R den Kopfteil R1 um eine Bewegung durchzuführen, als ob er beim Suchen einer Person ruhelos umherblickt (Schritt S211). Hierdurch wird die Person in der Umgebung des Roboters R darüber in Kenntnis gesetzt, dass der Roboter R nach einer Person sucht.
  • Darüber hinaus steuert die Bewegungsbewertungseinheit 40c die Sprachverarbeitung in dem Dialogcontroller 40b, um eine Sprachmeldung ertönen zu lassen, wie etwa „Ist Herr D2 da?” (Schritt S212).
  • Die Objekterfassungseinheit 70 prüft erneut, ob die Kennung T der Person D2 erfasst wird oder nicht (Schritt S213) und prüft, ob die Person D2 vor dem Roboter R ist oder nicht (Schritt S214), wenn sie erfasst wird (Schritt S213, Ja).
  • Wenn die Person D2 vor dem Roboter R ist (Schritt S214, Ja), wird der Kopfteil R1 des Roboters R zu der Person D2 ausgerichtet (Schritt S215), und es ertönt eine Sprachmeldung, zum Beispiel „Ich habe Gepäck für Herrn D2” (Schritt S216). Dann gibt der Roboter R das Gepäck der Person D2 (Schritt S217).
  • Wenn hingegen der Roboter R am Tisch der Person D2 ankommt, ohne die Existenz der Person D2 zu erfassen (Schritt S207, Nein), führt der Roboter R erneut die Prüfung davon durch, ob die Person D2 in der Umgebung des Tischs der Person D2 erfasst wird oder nicht (Schritt S208). Der Roboter R stellt das Gepäck auf den Tisch der Person D2, wenn die Person D2 nicht erfasst wird (Schritt S209).
  • (BEWEGUNGSMUSTER 2)
  • Das Bewegungsmuster 2 mit Interaktion bei Konversation des Roboters R wird in Bezug auf die 22 bis 25 erläutert.
  • Das Bewegungsmuster 2 ist gleich dem Bewegungsmuster 1, außer dass der Roboter R, der zum Tragen von Gepäck X von der Person D3 zur Person D4 läuft, die Person D5 auftrifft, bevor er am Tisch der Person D4 ankommt. Daher wird in der folgenden Erläuterung nur der vom Bewegungsmuster 1 unterschiedliche Prozess erläutert.
  • Wenn in Bezug auf 22 der Roboter R die Person D5 erfasst hat, zum Beispiel leitende Direktoren, bevor er am Tisch der Person D4 ankommt (Schritt S318, Ja), führt der Roboter R die Unterroutine von Schritt S400 durch.
  • Hier wird die Unterroutine von Schritt S400 in Bezug auf 23 erläutert. Der Roboter R wendet den Körper des Roboters R, um die Vorderseite des Roboters R zur Person D5 auszurichten, in Übereinstimmung mit dem von der Bewegungsbewertungseinheit 40c eingegebenen Befehlssignal (Schritt S400). Dann lässt der Roboter R die Sprachmitteilung ertönen „Guten Nachmittag Herr D5” (Schritt S401), und der Roboter nickt der Person D5 zu, indem der Kopfteil R1, etc. des Roboters R aktiviert wird (Schritt S402). Dann beginnt der Roboter R wieder zum Tisch der Person D4 zu laufen (siehe 22) (Schritt S305).
  • Wenn der Roboter R die Person D3 erfasst hat, die den Roboter R gebeten hatte, das Gepäck C zur Person D4 zu bringen, führt der Roboter R, bevor er am Tisch der Person D4 ankommt, die Unterroutine von Schritt S500 aus.
  • Hier wird die Unterroutine von Schritt S410 in Bezug auf 24 erläutert.
  • Der Roboter R wendet den Körper des Roboters R, um die Vorderseite des Roboters R zu der Person D3 auszurichten, in Übereinstimmung mit dem von der Bewegungsbewertungseinheit 40c eingegebenen Befehlssignal (Schritt S501).
  • Der Roboter R prüft, ob die Auslieferung des Gepäcks X zur Person D4 bereits abgeschlossen worden ist oder nicht (Schritt S502). Wenn sie abgeschlossen ist, prüft der Roboter R, ob das Gepäck X direkt zur Person D4 gebracht worden ist oder nicht (Schritt S503). Wenn dies so ist (Schritt S503, Ja), lässt der Roboter R eine Sprachmitteilung ertönen, in der die Person D3 darüber informiert wird, dass das Gepäck X direkt zur Person D4 gebracht worden ist (Schritt S504).
  • Wenn das Gepäck X auf dem Tisch der Person D4 belassen wurde (Schritt S505, Ja), lässt der Roboter die Sprachmitteilung ertönen, die die Person D3 darüber informiert, dass das Gepäck X auf dem Tisch der Person D4 belassen wurde (Schritt S506).
  • Wenn das Gepäck X der anderen Person überlassen wurde, lässt der Roboter die Sprachmitteilung ertönen, die die Person D3 darüber informiert, dass das Gepäck X der anderen Person überlassen wurde (Schritt S507).
  • Wenn die Auslieferung des Gepäcks X nicht abgeschlossen worden ist (Schritt S502, Nein) und das Gepäck X noch am Roboter R ist (Schritt S502, Nein), lässt der Roboter R die Sprachmitteilung ertönen, die die Person D3 darüber informiert, dass der Roboter das Gepäck X zur Person D4 zurückbringen möchte (Schritt S509).
  • Wenn hier der Roboter R das Gepäck X bereits zum Tisch der Person D3 zurückgebracht hat, lässt der Roboter die Meldung ertönen, die die Person D3 darüber informiert, dass das Gepäck X bereits zum Tisch der Person D3 zurückgebracht worden ist.
  • (BEWEGUNGSMUSTER 3)
  • Das Bewegungsmuster 3 mit Interaktion bei Konversation des Roboters R wird in Bezug auf die 26 erläutert.
  • Hier ist das Bewegungsmuster 3 der Fall, wo der Roboter R die Personenidentifikation und die Bewegung zur Kommunikation mit der Person durchführt, wenn der Roboter R die Person erkannt hat.
  • Erstens, wenn der Roboter R die Kennung T erfasst hat (Schritt S601, Ja) während der Prüfung des Vorhandenseins der Kennung T (Schritt S600), bezieht sich der Roboter R auf die Aufzeichnungseinheit (nicht gezeigt) des Managementcomputers 3 auf der Basis der im Empfangssignal enthaltenen Kennungs-ID von der Kennung T, um die persönliche Identifikation der Person mit der Kennung T durchzuführen, die das Empfangssignal gesendet hat (Schritt S602).
  • Wenn die Person, die erfasst worden ist, die Person D6 ist, erhält der Roboter R die Personeninformation der Person D6 von der Personeninformationsdatenbank 3g in der Aufzeichnungseinheit (nicht gezeigt), um das Vorhaben der Person D6 zu prüfen.
  • Wenn zum Beispiel das Vorhaben erhalten wird (Schritt S604), das angibt, dass die Person D6 vor hat, nach Tochigi als Arbeitsbesuch zu reisen, erhält der Roboter R Information in Bezug auf Tochigi aus dem Netzwerk 4 (Schritt S605).
  • Wenn zum Beispiel die Wettervorhersage von Tochigi „Regen” ist und es Schwierigkeiten beim Transport nach Tochigi gibt (Schritt S606), führt der Roboter die Bewegung durch, um einen Regenschirm zu nehmen (Schritt S607), oder die Bewegung zum Suchen nach einem alternativen Transportmittel (Schritt S608). Dann führt der Roboter R die Bewegung durch, um der Person D6 den Regenschirm zu bringen (Schritte S609–S617).
  • Wenn zum Beispiel der Roboter die Bewegung zur Übergabe des Regenschirms an die Person D6 durchführt (Schritt S616), lässt der Roboter R die Sprachmitteilung ertönen „Nehmen Sie Ihren Regenschirm mit, weil es in Tochigi regnet” (siehe 25).
  • Da gemäß dem mobilen Roboter der vorliegenden Erfindung die Positionsbeziehung zwischen Roboter und dem mobilen Objekt gemessen werden kann, kann der mobile Roboter, zusätzlich zu einem Fahrzeug, auf verschiedene Arten mobiler Objekte angewendet werden. Zum Beispiel kann der mobile Roboter der vorliegenden Erfindung bei einem Verkehrssteuersystem angewendet werden. Zusätzlich sind verschiedene Typen von Bewegungsmustern als die Bewegungsmuster der vorliegenden Erfindung anwendbar, und die Typen der Bewegungsmuster können unter Berücksichtigung der Bewegung ausgewählt werden.

Claims (10)

  1. Positionserfassungsvorrichtung zum Messen einer Position eines mobilen Objekts (D), das sich in einem kontrollierten Bereich (C) herum bewegt, umfassend: einen Detektor (R), der Objektpositionsinformation erhält, die die Position des mobilen Objekts (D) anzeigt, wobei die Objektpositionsinformation Richtungsinformation (Θ) und Abstandsinformation (r) des mobilen Objekts (D) relativ zu dem Detektor (R) enthält, und wobei sich der Detektor (R) in dem kontrollierten Bereich (C) herumbewegt; eine Basisstation (1), die Detektorpositionsinformation erhält, die die Position des Detektors (R) angibt, wobei die Detektorpositionsinformation eine absolute Position (p(x, y)) und einen Winkel (I) des Detektors (R) innerhalb des kontrollierten Bereichs (C) enthält, worin die Position des mobilen Objekts (D) innerhalb des kontrollierten Bereichs (C) auf der Basis der Objektpositionsinformation und der Detektorpositionsinformation gemessen wird, dadurch gekennzeichnet, dass an dem mobilen Objekt (D) eine Kennung (T) vorgesehen ist; und der Detektor (R) einen Lichtemitter (100), der Richtungsinformation enthaltende Lichtsignale in radialer Richtung emittiert und einen Funkwellenempfänger (90), der ein von der Kennung (T) gesendetes Empfangssignal empfängt, umfasst, worin die Kennung (T) das Empfangssignal sendet, das die in dem Lichtsignal enthaltene Richtungsinformation enthält, wenn die Kennung (T) das Lichtsignal einer vorbestimmten Wellenlänge, das von dem Detektor (R) abgestrahlt wird, empfangen hat, und die Feldintensität des vom Funkwellenempfänger (90) empfangenen Empfangssignals als Abstandsinformation (r) verwendet wird.
  2. Positionserfassungsvorrichtung gemäß Anspruch 1, dadurch gekennzeichnet, dass das von der Kennung (T) gesendete Empfangssignal ferner eine Kennungs-ID enthält, die eine der Kennung (T) zugewiesene eindeutige Identifikationsnummer ist.
  3. Positionserfassungsvorrichtung gemäß Anspruch 1, dadurch gekennzeichnet, dass der Lichtemitter (100) das Lichtsignal emittiert, das ferner eine dem Detektor (R) zugewiesene eindeutige Identifikationsnummer enthält, und die eindeutige Identifikationsnummer des Detektors (R) zu dem Empfangssignal hinzugefügt und von der Kennung (T) übertragen wird.
  4. Positionserfassungsvorrichtung gemäß Anspruch 2, dadurch gekennzeichnet, dass der Detektor (R) eine Funkwelle vorbestimmter Wellenlänge sendet.
  5. Positionserfassungsvorrichtung gemäß Anspruch 2 oder 4, dadurch gekennzeichnet, dass die Basisstation (1) umfasst: einen Detektorcontroller, der den Detektor (R) steuert oder regelt, der in dem kontrollierten Bereich (C) herumläuft; und eine Objektpositionsberechnungseinheit (260), die die Objektpositionsinformation und die Detektorpositionsinformation, die von dem Detektor (R) übertragen werden, empfängt, und eine absolute Position des mobilen Objekts (D) innerhalb des kontrollierten Bereichs (C) misst.
  6. Positionserfassungsvorrichtung gemäß Anspruch 5, sofern von Anspruch 2 abhängig, dadurch gekennzeichnet, dass die Basisstation (1) ferner umfasst: eine ID-Identifikationseinheit (250), die eine Identifikation des mobilen Objekts (D) in Bezug auf eine Datenbank (210) auf der Basis der Kennungs-ID von dem Detektor (R) durchführt.
  7. Positionserfassungsvorrichtung gemäß einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Detektor (R) ein autonomer zweibeinig gehender Roboter (R) ist.
  8. Positionserfassungsvorrichtung gemäß Anspruch 7, dadurch gekennzeichnet, dass der Detektor (R) ferner umfasst: eine Positionsidentifikationseinheit (40a), die die Position des mobilen Objekts (D) auf der Basis von Objektpositionsinformation und Detektorpositionsinformation identifiziert; und einen Laufcontroller (40g), der den Lauf des Detektors (R) zu einer von der Positionsidentifikationseinheit (40a) identifizierten Position steuert oder regelt.
  9. Positionserfassungsvorrichtung gemäß Anspruch 8, dadurch gekennzeichnet, dass das mobile Objekt (D) eine Person mit der Kennung (T) ist, und der Detektor (R) ferner umfasst: einen Dialogcontroller (40b) zum Steuern eines Dialogs mit der Person (D).
  10. Positionserfassungsvorrichtung gemäß Anspruch 9, dadurch gekennzeichnet, dass der Detektor (R) ferner umfasst: eine Personeninformations-Erfassungseinheit (3g), die persönliche Information erhält, die mit der in dem Empfangssignal enthaltenen Kennungs-ID korreliert; und eine Bewegungsbestimmungseinheit (40c), die einen Dialog mit der Person (D) oder eine Bewegung des mobilen Objekts (D) auf der Basis der Personeninformation bestimmt.
DE102005014718A 2004-03-31 2005-03-31 Positionserfassungsvorrichtung für ein mobiles Objekt Expired - Fee Related DE102005014718B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004104174A JP4477921B2 (ja) 2004-03-31 2004-03-31 移動ロボット
JP2004102655A JP4174449B2 (ja) 2004-03-31 2004-03-31 移動体の位置検知システム
JP2004-104174 2004-03-31
JP2004-102655 2004-03-31

Publications (2)

Publication Number Publication Date
DE102005014718A1 DE102005014718A1 (de) 2005-12-15
DE102005014718B4 true DE102005014718B4 (de) 2011-06-01

Family

ID=35053258

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005014718A Expired - Fee Related DE102005014718B4 (de) 2004-03-31 2005-03-31 Positionserfassungsvorrichtung für ein mobiles Objekt

Country Status (3)

Country Link
US (1) US7317388B2 (de)
KR (1) KR100729870B1 (de)
DE (1) DE102005014718B4 (de)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006197115A (ja) * 2005-01-12 2006-07-27 Fuji Photo Film Co Ltd 撮像装置及び画像出力装置
FR2888705A1 (fr) * 2005-07-13 2007-01-19 France Telecom Terminal mobile equipe d'une alimentation automatique
JP2007030060A (ja) * 2005-07-22 2007-02-08 Honda Motor Co Ltd 移動ロボットの制御装置
JP4718987B2 (ja) 2005-12-12 2011-07-06 本田技研工業株式会社 インターフェース装置およびそれを備えた移動ロボット
JP4751192B2 (ja) * 2005-12-12 2011-08-17 本田技研工業株式会社 移動ロボット
WO2007132571A1 (ja) 2006-05-16 2007-11-22 Murata Kikai Kabushiki Kaisha ロボット
WO2008023817A1 (fr) * 2006-08-25 2008-02-28 Brother Kogyo Kabushiki Kaisha Dispositif de traitement d'opération
KR100882590B1 (ko) * 2006-12-04 2009-02-12 한국전자통신연구원 위치 판단 장치 및 방법
US8325040B2 (en) * 2008-05-13 2012-12-04 The Chamberlain Group, Inc. Method and apparatus to facilitate automated control of local lighting at a remote control
JP4709890B2 (ja) * 2008-12-12 2011-06-29 本田技研工業株式会社 自律移動装置における検出機能検査方法及び検出機能検査用のシート
WO2011001775A1 (ja) * 2009-07-03 2011-01-06 国立大学法人京都工芸繊維大学 センサおよびセンシング方法
TWI420421B (zh) * 2009-09-16 2013-12-21 Univ Nat Kaohsiung Applied Sci Automatic patrol tracing to capture the system
JP5803054B2 (ja) * 2009-12-02 2015-11-04 村田機械株式会社 自律移動装置
WO2011089885A1 (ja) 2010-01-25 2011-07-28 パナソニック株式会社 危険提示装置、危険提示システム、危険提示方法およびプログラム
US8452451B1 (en) * 2011-05-06 2013-05-28 Google Inc. Methods and systems for robotic command language
TWI427567B (zh) * 2011-07-04 2014-02-21 Oriental Inst Technology Anti-sitting device
US8761933B2 (en) * 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party
JP5835577B2 (ja) 2012-01-12 2015-12-24 吉川工業株式会社 接近検知システム
KR102121537B1 (ko) * 2013-01-22 2020-06-10 한국전자통신연구원 상대 장치의 위치 측정 장치 및 상대 장치의 위치 측정 방법
US11027193B2 (en) 2013-07-01 2021-06-08 Flyingtee Tech, Llc Two-environment game play system
US9310800B1 (en) * 2013-07-30 2016-04-12 The Boeing Company Robotic platform evaluation system
US9555284B2 (en) 2014-09-02 2017-01-31 Origin, Llc Multiple sensor tracking system and method
JP5679086B1 (ja) * 2014-10-07 2015-03-04 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
US11030591B1 (en) 2016-04-01 2021-06-08 Wells Fargo Bank, N.A. Money tracking robot systems and methods
CN106125146B (zh) * 2016-07-04 2018-09-04 北京理工大学 一种移动电荷源实时位置探测方法
CN106054256B (zh) * 2016-07-04 2018-09-04 北京理工大学 一种移动电荷源运动速度和方向的探测方法
WO2018027967A1 (zh) * 2016-08-12 2018-02-15 魏羽婕 基于面部识别的运载系统
WO2018027965A1 (zh) * 2016-08-12 2018-02-15 魏羽婕 基于手机号码识别的运载系统
US10810903B2 (en) 2017-04-05 2020-10-20 Flyingtee Tech, Llc Computerized method of detecting and depicting a travel path of a golf ball
CN111367320A (zh) * 2018-12-26 2020-07-03 沈阳新松机器人自动化股份有限公司 一种室内移动机器人的管理方法及管理系统
CN111381227B (zh) * 2018-12-28 2024-04-26 松下知识产权经营株式会社 推测方法以及推测装置
CN109883420A (zh) * 2019-01-21 2019-06-14 深圳市普渡科技有限公司 机器人位姿识别方法、系统及机器人
JP7273566B2 (ja) 2019-03-19 2023-05-15 パナソニックホールディングス株式会社 ロボット、ロボットの制御方法及びプログラム
CN110333541A (zh) * 2019-07-09 2019-10-15 中科传启(苏州)科技有限公司 一种生命体检测方法、设备及行车记录仪
CN110333540A (zh) * 2019-07-09 2019-10-15 中科传启(苏州)科技有限公司 一种生命体检测方法、设备及行车记录仪
JP2021157530A (ja) * 2020-03-27 2021-10-07 本田技研工業株式会社 自律作業機、自律作業設定方法、およびプログラム
US11290977B1 (en) * 2020-07-21 2022-03-29 Amazon Technolgies, Inc. System for localizing wireless transmitters with an autonomous mobile device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4003049A (en) * 1975-07-03 1977-01-11 Rca Corporation Dual mode automobile collision avoidance radar
DE2530841C1 (de) * 1975-07-10 1992-03-26 Siemens Ag Abfrage-Antwort-System mit breiter Strahlungscharakteristik,das mit einem Impuls-Ortungsgeraet mit schmaler Strahlungskeule zusammenarbeitet
US20030083818A1 (en) * 2001-10-31 2003-05-01 Masanori Tojima Obstacle detecting apparatus of vehicle

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0522200B1 (de) * 1991-07-10 1998-05-13 Samsung Electronics Co., Ltd. Bewegliche Überwachungsvorrichtung
US6452504B1 (en) * 1999-09-24 2002-09-17 Ge Interlogix, Inc. System and method for communication with radio frequency identification tags using tow message DFM protocol
KR100399372B1 (ko) * 2000-03-21 2003-09-26 주식회사 로티스 이동체의 위치 확인 시스템
JP3587448B2 (ja) 2000-09-27 2004-11-10 株式会社東芝 位置検出システム及び位置検出方法
JP2002307338A (ja) 2001-04-18 2002-10-23 Nippon Telegr & Teleph Corp <Ntt> 動作型存在情報伝達装置およびその制御方法
US6703935B1 (en) * 2001-05-14 2004-03-09 Amerasia International Technology, Inc. Antenna arrangement for RFID smart tags
JP2003091678A (ja) 2001-07-13 2003-03-28 Sony Urban Entertainment Inc 情報配信サーバ、記録媒体及び情報配信方法
US7693514B2 (en) * 2003-08-18 2010-04-06 Honda Motor Co., Ltd. Information gathering robot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4003049A (en) * 1975-07-03 1977-01-11 Rca Corporation Dual mode automobile collision avoidance radar
DE2530841C1 (de) * 1975-07-10 1992-03-26 Siemens Ag Abfrage-Antwort-System mit breiter Strahlungscharakteristik,das mit einem Impuls-Ortungsgeraet mit schmaler Strahlungskeule zusammenarbeitet
US20030083818A1 (en) * 2001-10-31 2003-05-01 Masanori Tojima Obstacle detecting apparatus of vehicle

Also Published As

Publication number Publication date
DE102005014718A1 (de) 2005-12-15
KR20060044938A (ko) 2006-05-16
KR100729870B1 (ko) 2007-06-18
US20050218292A1 (en) 2005-10-06
US7317388B2 (en) 2008-01-08

Similar Documents

Publication Publication Date Title
DE102005014718B4 (de) Positionserfassungsvorrichtung für ein mobiles Objekt
DE102005014146B4 (de) Zielobjekt-Erfassungsvorrichtung
DE102005014719B4 (de) Außenüberwachungsvorrichtung für einen mobilen Roboter
JP4460528B2 (ja) 識別対象識別装置およびそれを備えたロボット
EP2956920B1 (de) Orientierungshilfe für blinde und sehbehinderte mit einer vorrichtung zur detektierung einer umgebung
DE102007046955A1 (de) Mobiler Roboter und seine Steuerungsvorrichtung
DE60126382T2 (de) Verfahren und Gerät zur Erkennung von Gegenständen
DE102014009845A1 (de) Bestimmung von Nähe unter Verwendung von mehreren Transpondern
DE112014005010T5 (de) Fahrzeugsteuervorrichtung
DE102013019488A1 (de) Bilderfassung mit schutz der privatsphäre
EP3274735B1 (de) Tracking-system und verfahren zum tracken eines trägers einer mobilen kommunikationseinheit
DE112004000438T5 (de) Autonom sich bewegender Roboter
DE102015121384B4 (de) Verfahren und Vorrichtung zur hochpräzisen Positionsbestimmung eines mobilen Gerätes sowie Verfahren zur Lokalisierung oder Positionierung von ortsfesten Geräten
DE102008035942A1 (de) Erkennung von Verkehrsteilnehmern
DE102007062843A1 (de) Verfahren zur Bewegungserfassung
CN106162144A (zh) 一种用于夜视环境的视觉图像处理设备、系统和智能机器
US20210158674A1 (en) Worksite classification system and method
CN104902233A (zh) 综合安全监控系统
DE102013019647A1 (de) Indoor-Positionsbestimmung mittels Kamera und optischem Signal
CN115346256A (zh) 机器人寻人方法及系统
DE112018005351T5 (de) Verfahren und vorrichtung zum dimensionieren eines objekts unter verwendungvon nahbereichs-vorrichtungen
DE102021206075A1 (de) Fahrzeuglokalisierung als Mitfahrgelegenheit und Insassenidentifikation für autonome Fahrzeuge
DE102023133884A1 (de) System und verfahren für automatisierte und sichere abholung für einen dienst eines autonomen fahrzeugs
DE102020208850A1 (de) Verfahren zur Lokalisierung von Objekten
DE102022130559A1 (de) Systeme und verfahren für verbesserte dreidimensionale datenzuordnung unter verwendung von informationen aus zweidimensionalen bildern

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R020 Patent grant now final

Effective date: 20110902

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20131001