DE102005014719B4 - Außenüberwachungsvorrichtung für einen mobilen Roboter - Google Patents

Außenüberwachungsvorrichtung für einen mobilen Roboter Download PDF

Info

Publication number
DE102005014719B4
DE102005014719B4 DE102005014719A DE102005014719A DE102005014719B4 DE 102005014719 B4 DE102005014719 B4 DE 102005014719B4 DE 102005014719 A DE102005014719 A DE 102005014719A DE 102005014719 A DE102005014719 A DE 102005014719A DE 102005014719 B4 DE102005014719 B4 DE 102005014719B4
Authority
DE
Germany
Prior art keywords
target object
signal
robot
light
mobile robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102005014719A
Other languages
English (en)
Other versions
DE102005014719A1 (de
Inventor
Koji Wako Kawabe
Satoki Wako Matsumoto
Norihisa Wako Kobayashi
Takeshi Wako Koshiishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE102005014719A1 publication Critical patent/DE102005014719A1/de
Application granted granted Critical
Publication of DE102005014719B4 publication Critical patent/DE102005014719B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/027Electromagnetic sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Zielobjekterfassungssystem (A) umfassend ein Zielobjekt (D) und einen mobilen Roboter (R) mit einer Außenüberwachungsvorrichtung (W) zum Messen einer Richtung des Zielobjekts (D),
wobei die Außenüberwachungsvorrichtung (W) eine Mehrzahl von Lichtsendern (L1–L8) umfasst, welche an dem mobilen Roboter (R) vorgesehen sind und jeweils ein Lichtsignal in jeweils einen zugeordneten erfassbaren Bereich (Sa1–Sa8) von um den mobilen Roboter (R) herum eingerichteten erfassbaren Bereichen (Sa1–Sa8) abstrahlen,
wobei die Lichtsender (L1–L8) um eine Referenzachse (St) herum angeordnet sind, welche orthogonal zu einer Untergrundebene (F) des mobilen Roboters (R) verläuft,
dadurch gekennzeichnet, dass die Außenüberwachungsvorrichtung (W) die Richtung des Zielobjekts (D) unter Verwendung einer Marke (T) misst, welche an dem Zielobjekt (D) vorgesehen ist, und dass die Marke (T) nach Maßgabe des Lichtsignals von den Lichtsendern ein Empfangssignal an den mobilen Roboter (R) zurückgibt, um die Erfassung der Marke (T) innerhalb der erfassbaren Bereiche (Sa1–Sa8) zu ermöglichen.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft ein Zielobjekterfassungssystem, welches einen Zustand einer Umgebung eines mobilen Roboters überwacht. insbesondere betrifft die vorliegende Erfindung ein Zielobjekterfassungssystem für einen mobilen Roboter, welches die Erweiterung eines erfassbaren Bereichs in der Umgebung des mobilen Roboters ermöglicht.
  • 2. BESCHREIBUNG DES ZUGEHÖRIGEN FACHGEBIETS
  • Herkömmlich ist ein mobiler Roboter (hier im Folgenden als „Roboter” bezeichnet) mit verschiedenen Arten von Außenüberwachungsgeräten zum Überwachen eines externen Zustands ausgestattet. In der JP2003-266353 A sind beispielsweise verschiedene Sensorarten, zum Beispiel eine Bilderfassungseinheit, ein Mikrofon, ein Berührungssensor und ein Lichtsensor, an dem Roboter vorgesehen und die Ausgaben dieser Sensoren werden zum Ansteuern des Roboters verwendet.
  • In dem Fall des in der JP2002-154084 A offenbarten Roboters ist eine Bildaufnahmevorrichtung an einem Kopf des Roboters bereitgestellt, wobei der Kopf des Roboters um eine vertikale Achse und eine horizontale Achse bewegbar ist. Bei diesem Roboter wird das Auftreten der Verzerrung des Bildes, welche aufgrund der Änderung der Richtung der Augen (Kamera) verursacht wird, durch ein ständiges Synchronisieren der Drehung des Kopfes des Roboters und der Richtung der Augen der Bildaufnahmevorrichtung kontrolliert.
  • In den oben beschriebenen Geräten, welche in der JP2003-266353 A und der JP2002-154084 A offenbart sind, wird die Überwachung unter Verwendung einer Bildaufnahmevorrichtung (Kamera) durchgeführt, welche als eine Außenüberwachungsvorrichtung dient und welche in einer Vorwärtsrichtung ausgerichtet ist.
  • Das heißt, dass die Überwachung eines Zielobjekts, zum Beispiel der Form des Zielobjekts, welches sich vor der Bildaufnahmevorrichtung befindet, unter Verwendung der Bildaufnahmevorrichtung (Kamera) ausgeführt wird.
  • Wenn daher der Kopf des Roboters in Vorwärtsrichtung ausgerichtet ist, so ist der überwachbare Bereich auf den Bereich vor dem Roboter begrenzt. Somit werden das Zielobjekt, welches sich dem Roboter von hinten nähert, und das Zielobjekt auf der Rückseite des Roboters nicht durch den Roboter erfasst.
  • Wenn zum Erfassen der Bewegung des Zielobjekts eine Kamera verwendet wird, so ist zudem eine komplizierte Verarbeitung, wie der Vergleich zwischen dem vorhergehenden Bild und dem nächsten Bild, notwendig.
  • Die US 5,819,008 A offenbart ein Zielobjekterfassungssystem mit den Merkmalen des Oberbegriffes des Anspruchs 1, umfassend eine Mehrzahl von IR-Lichtsendern, welche an einem mobilen Roboter um eine Referenzachse herum angeordnet sind und Lichtsignale in die ihnen jeweils zugeordneten Bereiche um den Roboter herum abstrahlen. Der bekannte Roboter verwendet die Lichtsender zur Erfassung anderer mobiler Roboter oder Hindernisse in der Umgebung des Roboters, um eine Kollision mit solchen Objekten zu vermeiden und die Bewegung in solch einer Umgebung zu ermöglichen.
  • Ferner offenbart die US 5,165,064 A einen mobilen Roboter mit einer Außenüberwachungsvorrichtung, welcher eine Mehrzahl von um eine Referenzachse herum angeordneten Ultraschalldetektoren aufweist, um durch eine Auswertung eines empfangenen Echos eines in eine bestimmte Richtung ausgesandten Ultraschallsignals auf Objekte und Hindernisse in der Umgebung des Roboters schließen zu können und eine Kollision des Roboters mit diesen Objekten bzw. Hindernissen zu vermeiden.
  • Zur weiteren Illustration des fachmännischen Hintergrundes kann ferner auf die US 2002/0060783 A1 verwiesen werden, welche ebenfalls ein Zielobjekterfassungssystem für einen mobilen Roboter offenbart, welches auf der Erfassung von Lichtreflektionen von Objekten der Umgebung beruht.
  • ÜBERBLICK ÜBER DIE ERFINDUNG
  • Vor diesem Hintergrund ist es Aufgabe der vorliegenden Erfindung, ein Zielobjekterfassungssystem für einen mobilen Roboter bereitzustellen, welcher eine einfache und zuverlässige Überwachung einer Umgebung des Roboters sowie eine Messung einer Richtung eines Zielobjekts durch einfache Bearbeitung erlaubt.
  • Erfindungsgemäß wird diese Aufgabe durch ein Zielobjekterfassungssystem nach Anspruch 1 bzw. ein Zielobjekterfassungssystem nach Anspruch 6 gelöst.
  • Ein erfindungsgemäßes Zielobjekterfassungssystem misst die Richtung eines Zielobjekts unter Verwendung einer Marke, welche an einem Zielobjekt vorgesehen ist und dem mobilen Roboter entsprechend einem Lichtsignal von dem mobilen Roboter ein Empfangssignal zurückgibt. Die Außenüberwachungsvorrichtung enthält eine Mehrzahl von Lichtsendern und jeder Lichtsender strahlt ein Lichtsignal in einen zugeordneten erfassbaren Bereich von um den mobilen Roboter herum eingerichteten erfassbaren Bereichen ab. Dabei sind Lichtsender um eine Referenzachse herum angeordnet, welche orthogonal zu einer Untergrundebene des mobilen Roboters verläuft, um die Erfassung der Marke innerhalb erfassbarer Bereiche zu ermöglichen.
  • Bei dieser Vorrichtung sind eine Mehrzahl von erfassbaren Bereichen um den Roboter herum eingerichtet und jeder Lichtsender ist so angeordnet, dass der Lichtsender auf einen zugeordneten erfassbaren Bereich gerichtet ist. Somit kann die Erfassung des Zielobjekts mit der Marke unabhängig von der Position in einer Umgebung (erfassbare Bereiche) des Zielobjekts erreicht werden.
  • Da ferner jeder Lichtsender einem vorbestimmten erfassbaren Bereich zugeordnet ist und dies eine Richtwirkung bereitstellt, kann die Richtung des Zielobjekts mit der Marke sicher gemessen werden. In diesem Fall kann die Bestimmung der Richtung der Marke (Zielobjekt) mit einer einfachen Verarbeitung erzielt werden, d. h. die Richtung der Marke (Zielobjekt) kann durch Identifizieren des Lichtsenders, welcher ein durch die Marke des Zielobjekts empfangenes Lichtsignal abgestrahlt hat, bestimmt werden.
  • Es ist dabei bevorzugt, dass der mobile Roboter ein Kopfteil aufweist, welches von einem Rumpfteil getragen ist, und dass Lichtsender an dem Kopfteil bereitgestellt sind.
  • Da in diesem Fall die Lichtsender an einer hohen Stelle angeordnet sind und die Erfassung der Marke von einer hohen Stelle aus durchgeführt werden kann, kann die Erfassung des Zielobjekts über einen weiten Bereich erreicht werden. Dies verbessert die Genauigkeit der Authentizität der Erfassung des Zielobjekts.
  • In dieser Erfindung ist es bevorzugt, dass eine Kamera an dem Kopfteil bereitgestellt ist und der Lichtsender oberhalb der Kamera platziert ist. In diesem Fall kann die Messung der Richtung der Marke auf einem Niveau mit der Kamera durchgeführt werden und die Erfassung des Zielobjekts kann mit Genauigkeit erreicht werden. Die Bilderfassung des Zielobjekts kann dabei durch Verfolgen der Bewegung des Zielobjekts mit der Marke selbst dann erreicht werden, wenn sich die Position des Zielobjekts mit der Marke ständig ändert.
  • Es ist dabei bevorzugt, dass der mobile Roboter ein Kopfteil aufweist, welches durch ein Rumpfteil getragen ist, und dass der Lichtsender an dem Rumpfteil des mobilen Roboters bereitgestellt ist. Da in diesem Fall die Lichtsender an einer niedrigen Stelle angeordnet sind, kann die Erfassung des Zielobjekts selbst dann mit Genauigkeit erfolgen, wenn sich das Zielobjekt an einem niedrigen Ort in der Nähe des mobilen Roboters befindet.
  • In der Vorrichtung der vorliegenden Erfindung ist es bevorzugt, dass das Kopfteil dafür eingerichtet ist, sich um die Referenzachse entlang einer Ausrichtungsrichtung der Lichtsender zu drehen. Wenn dabei diese Vorrichtung in Kombination mit dem den Kopf drehenden Mechanismus verwendet wird, so kann die Erfassung der Marke an dem Zielobjekt mit höherer Genauigkeit erreicht werden. Wenn die Außenbildaufnahmevorrichtung beispielsweise am Kopfteil des Roboters bereitgestellt ist, so kann die Erfassung der Marke genauer und schneller erreicht werden, da die Außenbildaufnahmevorrichtung in die Richtung der Marke ausgerichtet werden kann.
  • Die Außenüberwachungsvorrichtung der vorliegenden Erfindung kann anstelle von Lichtsendern eine Mehrzahl von Funkübertragungseinrichtungen umfassen, welche Funkwellen an einen zugeordneten erfassbaren Bereich von um den mobilen Roboter eingerichteten erfassbaren Bereichen übertragen.
  • In diesem Fall ist es bevorzugt, dass die Marke dem mobilen Roboter entsprechend der Funkwelle von dem mobilen Roboter ein Empfangssignal zurückgibt und Funkübertragungseinrichtungen um eine Referenzachse angeordnet sind, welche orthogonal zu einer Untergrundebene des mobilen Roboters verläuft, um die Erfassung der Marke innerhalb erfassbarer Bereiche zu ermöglichen.
  • Da in diesem Fall die Richtwirkung durch Erhöhung der Frequenz der Funkwelle verbessert werden kann, kann der erfassbare Bereich in der Umgebung des mobilen Roboters erweitert werden. Somit kann eine genaue Erfassung des Zielobjekts innerhalb der erfassbaren Bereiche und eine genaue Messung der Richtung des Zielobjekts erzielt werden.
  • Bei dieser Erfindung sind eine Mehrzahl von Lichtsendern an dem mobilen Roboter angeordnet und Marken zum Empfang eines Lichtsignals von dem mobilen Roboter sind in einer Umgebung des mobilen Roboters verteilt. Somit kann die Erfassung des Zielobjekts und die Messung der Richtung des Zielobjekts genau und mit einer einfachen Verarbeitung erreicht werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine perspektivische Ansicht einer äußeren Erscheinung des Roboters, welcher mit der Außenüberwachungsvorrichtung einer ersten Ausführungsform ausgestattet ist.
  • 2 ist eine Draufsicht des Kopfteils des Roboters, betrachtet von einer Oberseite des Roboters.
  • 3 ist eine Blockdarstellung eines Zielobjekterfassungssystems A, welches ein Anwendungsbeispiel der Außenüberwachungsvorrichtung ist.
  • 4 ist eine Blockdarstellung des Roboters.
  • 5 ist eine Blockdarstellung einer Zielerfassungseinheit.
  • 6A ist eine Ansicht eines um den Roboter R eingerichteten erfassbaren Bereichs.
  • 6B ist eine Ansicht eines Bestrahlungsbereichs in Höhenrichtung eines von dem Lichtsender der Lichtsendeeinheit ausgestrahlten Infrarotlichts.
  • 7 ist eine Ansicht der Betätigungsreihenfolge jedes an dem Roboter bereitgestellten Lichtsensors.
  • 8 ist eine Ansicht zur Messung des Abstands zwischen dem Roboter und dem Zielobjekt.
  • 9 ist eine Ansicht zur Messung der Richtung des Zielobjekts.
  • 10 ist eine Ansicht zur Bestimmung der Position des Zielobjekts.
  • 11 ist eine Blockdarstellung der Marke T.
  • 12 ist ein Flussdiagramm zum Erläutern der Signalverarbeitung der Zielerfassungseinheit des Roboters.
  • 13 ist ein Flussdiagramm zum Erläutern der Signalverarbeitung in der Marke, welche als das Zielobjekt dient.
  • 14 ist ein Flussdiagramm zum Erläutern der Signalverarbeitung des Zielobjekterfassungssystems.
  • 15 ist eine perspektivische Ansicht eines äußeren Erscheinungsbilds des Roboters, welcher mit der Außenüberwachungsvorrichtung der zweiten Ausführungsform ausgestattet ist.
  • 16 ist eine Draufsicht, welche die Installationsweise des Lichtsenders der Außenüberwachungsvorrichtung der zweiten Ausführungsform am Rumpfteil zeigt.
  • 17 ist ein Abwandlungsbeispiel der Außenüberwachungsvorrichtung der zweiten Ausführungsform.
  • 18 ist eine Ansicht der Erfassung der Richtung des Zielobjekts durch Übertragen einer Funkwelle von dem Roboter, welcher mit der Außenüberwachungsvorrichtung der dritten Ausführungsform ausgestattet ist.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
  • Wie in 1 gezeigt ist, weist eine Außenüberwachungsvorrichtung W (im Folgenden als „Überwachungsvorrichtung” bezeichnet) eine Mehrzahl von Lichtsendern L1–L8 auf, welche an einem mobilen Roboter R (hier im Folgenden als „Roboter” bezeichnet) vorgesehen sind. Die Überwachungsvorrichtung W erfasst die Richtung einer Marke T innerhalb der Umgebung des Roboters R.
  • Der Roboter R weist ein Kopfteil R1, ein Paar Armteile R2, ein Paar Beinteile R3 und ein Rumpfteil R4 auf. An der Oberseite des Rumpfteils R4 ist das Kopfteil R1 vorgesehen, an seinen beiden Seiten sind die Armteile R2 vorgesehen und an seiner Unterseite sind die Beinteile R3 vorgesehen. Jedes Teil (das Kopfteil R1, die Armteile R2 und die Beinteile R3) des Roboters R wird durch eine Betätigungseinrichtung betätigt, um unter der Steuerung/Regelung einer Steuer-/Regeleinrichtung 50 für selbständige Fortbewegung ein zweifüßiges Gehen zu ermöglichen. Die Einzelheiten des zweifüßigen Gehens sind beispielsweise in der japanischen unveröffentlichten Patentanmeldung JP2001-62760 A offenbart. Der Inhalt dieser Anmeldung ist durch Bezugnahme hierin eingeschlossen.
  • Wie in 1 und 2 gezeigt ist, sind insgesamt acht Lichtsender (L1–L8) am Kopfteil R1 des Roboters R vorgesehen, wobei als Lichtsender eine Leuchtdiode (LED) verwendet wird, welche in Infrarotlichtsignal abstrahlen kann. Zur Vereinfachung der Erklärung steht in 2 jeder Lichtsender (L1–L8) über die Oberfläche des Kopfteils R1 des Roboters R vor. Die Spitze jedes Lichtsenders (L1–L8) ist jedoch eigentlich bündig mit der Oberfläche des Kopfteils R1 des Roboters R. Das heißt, dass die Spitze jedes Lichtsenders (L1–L8) nicht über die Oberfläche des Kopfteils R1 vorsteht.
  • Ein Paar Kameras C, welche als Bildaufnahmevorrichtung dienen, sind an dem Kopfteil R1 bereitgestellt. Die Kamera C erfasst Bilder im Digitalformat, wobei als Kamera C beispielsweise eine Farb-CCD(ladungsgekoppeltes Bauelement)– Kamera verwendet wird. Wie in 1 gezeigt ist, sind Kameras C am Kopfteil R1 bereitgestellt und in seitlicher Richtung entlang einer Linie angeordnet. Jeder Lichtsender (L1–L8) ist dabei oberhalb der Kameras C angeordnet.
  • Wie in 1 gezeigt ist, ist in dieser Ausführungsform eine orthogonal zu einer Untergrundebene F des Roboters R verlaufende Richtung, welche eine vertikale Richtung zur Untergrundebene F ist, als eine Referenzachse St definiert.
  • Wenn angenommen wird, dass die Referenzachse St durch die Mitte des Roboters R verläuft, so ist jeder Lichtsender (L1–L8) um die Referenzachse St herum angeordnet (siehe 1).
  • Wie in 2 gezeigt ist, ist die Referenzachse St so eingerichtet, dass die Referenzachse St durch die Mitte des Kopfteils R1 verläuft. Dabei sind die Lichtsender L1–L3, der Lichtsender L6, die Lichtsender L4 und L5 bzw. die Lichtsender L7 und L8 auf einer Vorderseite, einer Rückseite, einer rechten Seite bzw. einer linken Seite angeordnet. Dabei ist eine Höhe der jeweiligen Lichtsender L1–L8 von der Untergrundebene F zueinander nicht exakt die gleiche, wenn der Roboter R zur Vorderseite hin gerichtet ist. Die Höhe der jeweiligen Lichtsender L1–L8 von der Untergrundebene F kann in Höhenrichtung variieren.
  • Es wird nun die Überwachungsvorrichtung W der vorliegenden Ausführungsform unter Bezugnahme auf das in 3 gezeigte Anwendungsbeispiel (Zielobjekterfassungssystem A) detailliert erläutert.
  • Wie in 3 gezeigt ist, erfasst in dem Zielobjekterfassungssystem A ein Detektor, zum Beispiel Roboter R, ein Zielobjekt D, d. h. eine Person mit einer Marke T, welche sich in einer Umgebung des Roboters R befindet. Der Roboter R misst eine Richtung und einen Abstand des Zielobjekts D relativ zum Roboter R und bestimmt die Position des Zielobjekts D. Das bedeutet, dass zumindest die folgenden Punkte durch den Roboter R überprüft werden: (1) Wie weit ist das Zielobjekt D von dem Roboter R entfernt? (2) In welcher Richtung befindet sich das Zielobjekt D?
  • Speziell wird in einer ersten oder einer zweiten Ausführungsform der vorliegenden Erfindung gemessen, in welcher Richtung sich das Zielobjekt D befindet.
  • Wie in 3 gezeigt ist, umfasst das Zielobjekterfassungssystem A einen Roboter R, eine Basisstation 1, einen Steuerungscomputer 3, ein Terminal 5 und eine Marke T. In diesem System A kommuniziert der Roboter R mit der Basisstation 1 durch eine drahtlose Verbindung. Die Basisstation 1 ist mit dem Steuerungscomputer 3 über ein Roboternetzwerk 2 verbunden. Der Steuerungscomputer 3 ist mit dem Terminal 5 über ein Netzwerk 4 verbunden. Die Marke T ist an dem Zielobjekt D angebracht. In dieser Ausführungsform entspricht das Zielobjekt D einer Person mit der Marke T.
  • In dem Zielobjekterfassungssystem A erfasst der Roboter R die Gegenwart des Zielobjekts D, zum Beispiel eine Person mit einer Marke T, und misst die Position des erfassten Zielobjekts D. Der Roboter R führt ferner eine persönliche Identifikation in Bezug auf das erfasste Zielobjekt D aus. Das heißt, dass durch den Roboter R erfasst wird, wer das erfasste Zielobjekt D ist.
  • Der Steuerungscomputer 3 führt die Steuerung/Regelung der Basisstation 1 aus und steuert/regelt die Bewegung, zum Beispiel eine Fortbewegung und eine Sprache, des Roboters 3 über das Roboternetzwerk 2. Der Steuerungscomputer 3 tauscht wichtige Informationen (Daten) mit dem Roboter R aus.
  • In dieser Ausführungsform entsprechen den wichtigen Informationen beispielsweise ein Name einer Person (des Zielobjekts D) und eine Karte (Karteninformationen) des Gebiets, in welchem sich der Roboter R umherbewegt. Die wichtigen Informationen werden in einem Speichermittel (nicht gezeigt) gespeichert, welches in dem Steuerungscomputer 3 bereitgestellt ist.
  • Das Roboternetzwerk 2 verbindet die Basisstation 1, den Steuerungscomputer 3 und das Netzwerk 4 miteinander und kann durch ein LAN gebildet sein. Der Terminal 5 ist mit dem Steuerungscomputer 3 durch das Netzwerk 4 verbunden und wird zur Eingabe und Aktualisierung von Informationen, zum Beispiel einer Marke T und einer Person (Zielobjekt D) mit einer Marke T, verwendet. Dabei entspricht eine IC(integrated circuit)-Marke der Marke der vorliegenden Ausführungsform.
  • Als nächstes wird der Aufbau des Roboters R und des Zielobjekts D (Marke T) erläutert.
  • Wie in 4 gezeigt ist, enthält der Roboter R der vorliegenden Ausführungsform einen Lautsprecher S, ein Mikrofon MC, einen Bildprozessor 10, einen Sprachprozessor 20, eine Bildübertragungseinrichtung 30, eine Steuer-/Regeleinrichtung 40, eine Steuer-/Regeleinrichtung 50 für selbständige Fortbewegung, eine Funkkommunikationseinheit 60 und eine Zielerfassungseinheit 70 zusätzlich zu Lichtsendern (L1–L8) und Kameras C. Der Roboter R umfasst ferner einen Kreiselsensor SR1 und einen GPS-Empfänger SR2 zum Messen der Position des Roboters R.
  • Der Bildprozessor 10 führt die Erkennung einer Person und eines Hindernisses in der Umgebung aus, um den Zustand der Umgebung des Roboters R auf Grundlage des durch die Kameras C aufgenommenen Bildes zu erkennen. Dieser Bildprozessor 10 enthält einen 3D-Prozessor 11a, eine Einheit zum Extrahieren mobiler Objekte 11b und eine Gesichtserkennungseinheit 11c.
  • Der 3D-Prozessor 11a führt auf der Basis eines der beiden von den Kameras C aufgenommenen Bildern einen Musterabgleich zwischen den von jeder Kamera C erhaltenen Bildern aus. Da der Roboter R in dieser Ausführungsform zwei Kameras aufweist (eine linke Kamera und eine rechte Kamera), ist eines der beiden Bilder das von der linken Kamera erhaltene Bild und das andere der beiden Bilder ist das von der rechten Kamera erhaltene Bild. Der Musterabgleich wird somit zwischen dem von der linken Kamera erhaltenen Bild und dem von der rechten Kamera erhaltenen Bild durchgeführt.
  • Der 3D-Prozessor 11a berechnet dann eine Parallaxe zwischen zwei Bildern, um ein Parallaxenbild zu erzeugen, und gibt ein Parallaxenbild zusammen mit dem von den Kameras C eingegangenen Bild an die Einheit zum Extrahieren mobiler Objekte 11b aus. Die Berechnung der Parallaxe wird dabei zwischen zugeordneten Punkten in zwei Bildern ausgeführt.
  • Die Einheit zum Extrahieren mobiler Objekte 11b extrahiert aus dem von der Kamera C erhaltenen Bild ein mobiles (sich bewegendes) Objekt auf Grundlage von Daten, welche von dem 3D-Prozessor 11a eingegeben werden. Der Grund dafür, warum das Extrahieren des mobilen Objekts ausgeführt wird, ist die Durchführung der Erkennung einer Person unter der Annahme, dass es wahrscheinlicher ist, dass das mobile Objekt eine Person ist.
  • Die Einheit zum Extrahieren mobiler Objekte 11b führt den Musterabgleich aus, um das mobile Objekt zu Extrahieren, und berechnet einen Abstand für zugeordnete Punkte in zwei Bildern, um ein Abstandsbild zu erzeugen. Der Musterabgleich wird dabei durch Vergleichen des momentanen Vollbilds (Bild), welches momentan durch die Kamera C erhalten wird, mit dem letzten Vollbild (Bild), welches aus mehreren vor der Aufnahme des momentanen Vollbilds erhaltenen Vollbildern erzeugt wurde, durchgeführt.
  • Auf Grundlage des Abstandsbildes und des Parallaxenbildes sucht die Einheit zum Extrahieren mobiler Objekte 11b dann unter den Punkten innerhalb eines vorbestimmten Abstands von den Kameras C, C (Roboter R) nach Punkten, deren Verschiebungsbetrag groß ist. Wenn ein solcher Punkt existiert, so nimmt die Einheit zum Extrahieren mobiler Objekte 11b an, dass sich eine Person innerhalb der Punkte (Abstand) befindet und extrahiert auf Grundlage des Abstandsbildes und des Parallaxenbildes ein mobiles Objekt aus dem von der Kamera eingegebenen Bild.
  • Die Gesichtserkennungseinheit 11c extrahiert aus dem extrahierten mobilen Objekt einen Bereich mit einer Farbe eines menschlichen Körpers und berechnet die Position des Gesichts eines Menschen unter Berücksichtigung einer Größe und einer Form des extrahierten Bereichs mit der Farbe des menschlichen Körpers. Die Position einer Hand wird ebenfalls durch das gleiche Verfahren berechnet.
  • Die Position des erkannten Gesichts wird der Steuer-/Regeleinheit 40 zur Kommunikation mit einer Person und zur Betätigung des Roboters R zugeführt. Ferner wird die Position des erkannten Gesichts der Funkkommunikationseinheit 60 zugeführt, um sie dem Steuerungscomputer 3 über die Basisstation 1 zu übermitteln.
  • Wie in 4 gezeigt ist, enthält der Sprachprozessor 20 einen Spracherzeuger 21a und eine Spracherkennungseinrichtung 21b.
  • Der Spracherzeuger 21a erzeugt aus Textinformationen Sprachdaten, und zwar auf Grundlage einer Anweisung, welche den Roboter R dazu anweist, eine Unterhaltung mit einem Menschen auszuführen oder eine Sprachmitteilung ertönen zu lassen und welche von der Steuer-/Regeleinheit 40 eingegeben wird. Der Spracherzeuger 21a gibt dann die Sprachdaten an den Lautsprecher S aus. Die Erzeugung der Sprachdaten wird dabei zum Beispiel durch eine Zuordnung zwischen Sprachdaten und Textinformationen, welche zuvor in einer Speichereinheit (nicht gezeigt) gespeichert wurden, durchgeführt. Die Spracherkennungseinrichtung 21b erzeugt aus Sprach-(Klang-)Daten auf Grundlage der Zuordnung zwischen Sprachdaten und Textinformationen, welche zuvor in der Speichereinheit (nicht gezeigt) gespeichert wurden, Textinformationen. Die Spracherkennungseinrichtung 21b gibt dann die Textdaten an die Steuer-/Regeleinheit 40 aus.
  • Die Bildübertragungseinrichtung 30 gibt von der Kamera C eingegebene Bilddaten über die Funkkommunikationseinheit 60 an den Steuerungscomputer 3 aus.
  • Die Steuerungseinrichtung für selbständige Bewegung 50 umfasst eine Kopfsteuer-/-regeleinrichtung 51a, eine Armsteuer-/-regeleinrichtung 51b und eine Beinsteuer-/-regeleinrichtung 51c. Die Kopfsteuer-/-regeleinrichtung 51a betätigt das Kopfteil R1 auf Grundlage einer von der Steuer-/Regeleinrichtung 40 eingegebenen Anweisung. Die Armsteuer-/-regeleinrichtung 51b betätigt das Armteil R2 auf Grundlage einer von der Steuer-/Regeleinrichtung 40 eingegebenen Anweisung. Die Beinsteuer-/-regeleinrichtung 51c betätigt ein Beinteil R3 auf Grundlage einer von der Steuer-/Regeleinrichtung 40 eingegebenen Anweisung.
  • Das Kopfteil R1 ist drehbar am Rumpfteil R4 des Roboters R getragen und ist dafür eingerichtet, sich um eine Ausrichtungsrichtung Q von Lichtsendern (L1–L8) zu drehen (siehe 1 oder 2). Die Kopfsteuer-/-regeleinrichtung 51a steuert/regelt gemäß einem Anweisungssignal von der Steuer-/Regeleinrichtung 40 die Drehung entlang einer Ausrichtungsrichtung Q des Kopfteils R1. Das bedeutet, dass sich das Kopfteil R1 in Richtung des Uhrzeigers oder entgegen dem Uhrzeigersinn zusammen mit den Kameras C unter der Steuerung/Regelung der Kopfsteuer-/-regeleinrichtung 51a dreht, während die horizontale Position der Kameras C beibehalten wird.
  • Zusätzlich kann eine Betätigungseinheit, welche das Kopfteil R1 schräg nach oben oder nach unten dreht, am Roboter R vorgesehen sein. Da hierbei verschiedene Arten gut bekannter Einheiten als diese Betätigungseinheit eingesetzt werden können, wird in dieser Beschreibung die detaillierte Beschreibung dieser weggelassen.
  • Zusätzlich werden durch den Kreiselsensor SR1 und den GPS-Empfänger SR2 erhaltene Daten der Steuer-/Regeleinrichtung 40 zugeführt und werden zum Entscheiden der Bewegung des Roboters R verwendet. Dieselben Daten werden außerdem dem Steuerungscomputer 3 über die Funkkommunikationseinheit 60 zugeführt.
  • Die Funkkommunikationseinheit 60 tauscht mit dem Steuerungscomputer 3 Daten aus. Die Funkkommunikationseinheit 60 enthält eine Kommunikationseinheit 61a für eine öffentliche Verbindung und eine Funkkommunikationseinheit 61b.
  • Die Kommunikationseinheit für eine öffentliche Verbindung 61a führt eine drahtlose Kommunikation unter Verwendung einer Mobiltelefonverbindung oder eines persönlichen Handtelefonsystems aus. Die Funkkommunikationseinheit 61b führt eine drahtlose Kommunikation unter Verwendung einer drahtlosen Kommunikationstechnik geringer Reichweite, zum Beispiel eines drahtlosen lokalen Netzwerks nach dem IEEE802.11b-Standard, aus.
  • Die Funkkommunikationseinheit 60 führt einen Datenaustausch mit dem Steuerungscomputer 3 unter Verwendung der Kommunikationseinheit für die öffentliche Verbindung 61a oder der Funkkommunikationseinheit 61b aus, wenn von dem Steuerungscomputer 3 ein Signal eingeht, welches den Roboter R anweist, mit dem Steuerungscomputer 3 zu kommunizieren.
  • Die Zielerfassungseinheit 70 erfasst die Gegenwart des Zielobjekts D mit der Marke T (das Zielobjekt D weist die Marke T auf) innerhalb einer Umgebung des Roboters R und berechnet die Position des Zielobjekts D, wenn sich das Zielobjekt D in der Umgebung aufhält.
  • Wie in 5 gezeigt ist, enthält die Zielerfassungseinheit 70 eine Einheiten-Steuer-/-regeleinrichtung 80, einen Funksendeempfänger 90, eine Lichtsendeeinheit 100 und eine Aufnahmeeinheit 110.
  • Die Einheiten-Steuer-/-regeleinrichtung 80 erzeugt ein von dem Funksendeempfänger 90 zu übertragendes Suchsignal und ein Richtungstestsignal, welches als Infrarotlicht von der Lichtsendeeinheit 100 ausgesendet wird.
  • Die Einheiten-Steuer-/-regeleinrichtung 80 bestimmt ferner die Position des Zielobjekts D auf Grundlage eines Empfangssignals, welches von der Marke T übertragen wird, wenn die Marke T das Suchsignal empfangen hat.
  • Dabei ist das Suchsignal ein Signal, welches verwendet wird, um zu testen, ob sich das Zielobjekt D in der Umgebung des Roboters R befindet oder nicht, und das Richtungstestsignal ist ein Signal, welches verwendet wird, um zu testen, in welcher Richtung sich das Zielobjekt D in Bezug auf den Roboter befindet. Das Empfangssignal ist ein Signal, welches anzeigt, dass die Marke T wenigstens das Suchsignal empfangen hat.
  • Die Einheiten-Steuer-/-regeleinrichtung 80 enthält einen Datenprozessor 81, eine Verschlüsselungseinheit 82, eine Zeitmultiplexeinheit 83, eine Decodiereinrichtung 84 und eine Feldintensitätsmesseinheit 85.
  • Der Datenprozessor 81 erzeugt das Suchsignal und das Richtungstestsignal und bestimmt die Position des Zielobjekts D. Der Datenprozessor 81 enthält eine Signalerzeugungseinrichtung 81a und einen Positionsberechnungsabschnitt 81b.
  • In einem vorbestimmten Zyklus oder dann, wenn ein Signal (ein Übertragungsanforderungssignal), welches die Übertragung einer Funkwelle anfordert, von der Steuer-/Regeleinrichtung 40 eingeht, erhält die Signalerzeugungseinrichtung 81a eine Roboter-ID von der Aufnahmeeinheit 110. Die Roboter-ID ist dabei eine eindeutige Identifikationsnummer des Roboters R, in welchem die Zielerfassungseinheit 70 installiert ist.
  • Die Signalerzeugungseinrichtung 81a erzeugt ein Suchsignal, welches die Roboter-ID enthält, und ein Empfangsanforderungssignal. Das Empfangsanforderungssignal ist dabei ein Signal, welches das Zielobjekt D (Marke T) anweist, ein Empfangssignal zu erzeugen, wenn das Zielobjekt D (Marke T) das Suchsignal empfängt.
  • Die Signalerzeugungseinrichtung 81a erzeugt das Richtungstestsignal, welches als ein Infrarotlichtsignal von der Lichtsendeeinheit 100 ausgesendet wird, wenn das Suchsignal erzeugt wird.
  • Das Richtungstestsignal wird für jeden Lichtsender (L1–L8) der Lichtsendeeinheit 100 separat erzeugt und enthält eine Sender-ID, welche eine eindeutige Identifikationsnummer zum Identifizieren des Lichtsenders (L1–L8) ist. Dabei entspricht das Richtungstestsignal, einschließlich der Sender-ID, einem von dem Roboter R zu der Marke T zu übertragenden Lichtsignal. In dieser Ausführungsform wird dieses Richtungstestsignal auch dann erzeugt, wenn das von der Decodiereinrichtung 84 eingehende Empfangssignal ein Sendeanforderungssignal enthält.
  • Da in der vorliegenden Ausführungsform insgesamt acht Lichtsender (L1–L8) an dem Roboter R vorgesehen sind, erzeugt der Datenprozessor 81 insgesamt acht Richtungstestsignale, welche eine Roboter-ID und die Sender-ID enthalten.
  • Wird beispielsweise angenommen, dass die Roboter-ID „02” ist (Roboter-ID = 02) und dass die Sender-ID von Lichtsendern (von L1 bis L8) von „D1” bis „D8” reicht, so enthält das für den Lichtsender L1 zu erzeugende Richtungstestsignal die Roboter-ID, welche gleich „02” ist, und die Sender-ID, welche gleich „D1” ist.
  • Ferner enthält das für den Lichtsender L2 zu erzeugende Richtungstestsignal die Roboter-ID, welche gleich „02” ist und die Sender-ID, welche gleich „D2” ist.
  • Die Signalerzeugungseinrichtung 81a gibt dann das Richtungstestsignal und das Suchsignal an die Verschlüsselungseinheit 82 aus.
  • Der Positionsberechnungsabschnitt 81b des Datenprozessors 81 misst dabei die Position des Zielobjekts D auf Grundlage des Empfangssignals, welches von der Marke T, die das Suchsignal erhalten hat, übertragen wurde. Die detaillierte Erläuterung der Signalverarbeitung in dem Positionsberechnungsabschnitt 81b folgt später zusammen mit der Signalverarbeitung in der Feldintensitätsmesseinheit 85 und der Decodiereinrichtung 84.
  • Die Verschlüsselungseinheit 82 verschlüsselt das in die Verschlüsselungseinheit 82 eingegebene Signal und gibt das verschlüsselte Signal aus. Genauer gibt die Verschlüsselungseinheit 82 das verschlüsselte Suchsignal, welches durch die Verschlüsselung des Suchsignals erhalten wurde, an den Funksendeempfänger 90 aus. Dadurch wird das verschlüsselte Suchsignal moduliert und von dem Funksendeempfänger 90 übertragen.
  • Die Verschlüsselungseinheit 82 verschlüsselt das Richtungstestsignal, welches von dem Datenprozessor 81 eingeht, um das verschlüsselte Richtungstestsignal zu erhalten, und gibt das verschlüsselte Richtungstestsignal an die Zeitmultiplexeinheit 83 aus.
  • In dieser Ausführungsform wird das Richtungstestsignal für jeden Lichtsender der Lichtsendeeinheit 100 erzeugt.
  • Da die Lichtsendeeinheit 100 insgesamt acht Lichtsender aufweist, werden, wie in 5 gezeigt ist, insgesamt acht Richtungstestsignale in der Verschlüsselungseinheit 82 erzeugt und in die Zeitmultiplexeinheit 83 eingegeben.
  • Die Zeitmultiplexeinheit 83 bestimmt die Reihenfolge des Sendens der Lichtsender (L1–L8) der Lichtsendeeinheit 100 und die Zeitsteuerung des Sendens jedes Lichtsenders (L1–L8).
  • Genauer ausgedrückt bestimmt die Zeitmultiplexeinheit 83 die Reihenfolge und Zeitsteuerung des Sendens jedes Lichtsenders (L1–L8), wenn das verschlüsselte Richtungstestsignal von der Verschlüsselungseinheit 82 eingeht. Die Zeitmultiplexeinheit 83 gibt dann das verschlüsselte Richtungstestsignal an die Lichtsendeeinheit 100 auf Grundlage der Reihenfolge und der Zeitsteuerung, welche bestimmt wurden, aus.
  • Wird beispielsweise bestimmt, dass jeder Lichtsender in einem Intervall von 0,5 sec. sendet, und zwar in der Reihenfolge Lichtsender L1, Lichtsender L5, Lichtsender L2, Lichtsender L6, Lichtsender L3, Lichtsender L7, Lichtsender L4 und Lichtsender L8, so gibt die Zeitmultiplexeinheit 83 das verschlüsselte Richtungstestsignal in einem Intervall von 0,5 sec. an den Modulator jedes Lichtsenders (L1–L8) aus. Das bedeutet, dass die Zeitmultiplexeinheit 83 das verschlüsselte Richtungstestsignal im Intervall von 0,5 sec. in folgender Reihenfolge ausgibt: Modulator des Lichtsenders L1; Modulator des Lichtsenders L5; Modulator des Lichtsenders L2; Modulator des Lichtsenders L6; Modulator des Lichtsenders L3; Modulator des Lichtsenders L7; Modulator des Lichtsenders L4; Modulator des Lichtsenders L8.
  • In dieser Ausführungsform werden insgesamt acht verschlüsselte Richtungstestsignale in die Zeitmultiplexeinheit 83 eingegeben und der Lichtsender, welchem jedes verschlüsselte Richtungstestsignal zugeführt wird, wird zuvor in dem Datenprozessor 81 bestimmt.
  • Die Zeitmultiplexeinheit 83 testet daher die in dem verschlüsselten Richtungstestsignal beim Eingang des verschlüsselten Richtungstestsignals enthaltene Sender-ID und gibt das verschlüsselte Richtungstestsignal in der bestimmten Reihenfolge und Zeitsteuerung an den Modulator des Lichtsenders aus, der durch die Sender-ID spezifiziert ist.
  • Wenn beispielsweise die Sender-ID des Lichtsenders (L1–L8) von D1 bis D8 reicht, so führt die Zeitmultiplexeinheit 83 das verschlüsselte Richtungstestsignal, welches die Sender-ID „D1” enthält, dem Modulator desjenigen Lichtsenders zu, dessen Sender-ID „D1” ist. Zusätzlich führt die Zeitmultiplexeinheit 83 das verschlüsselte Richtungstestsignal, welches eine Sender-ID „D2” enthält, dem Modulator desjenigen Lichtsenders zu, dessen Sender-ID „D2” ist.
  • Die Lichtsendeeinheit 100 sendet Licht in erfassbare Bereiche (Sa1–Sa8) aus, welche um den Roboter R in Abhängigkeit von der Position des Roboters R eingerichtet sind.
  • Unter Bezugnahme auf 5 und 6A enthält die Lichtsendeeinheit 100 eine Mehrzahl von Lichtsendern (L1–L8) und an jedem Lichtsender vorgesehene Modulatoren. Der Modulator moduliert das verschlüsselte Richtungstestsignal, welches von der Zeitmultiplexeinheit 83 eingegeben wurde, um ein moduliertes Signal zu erhalten. Jeder Lichtsender (L1–L8) sendet das modulierte Signal als ein Infrarotlichtsignal (Infrarotlicht) in den vorbestimmten erfassbaren Bereich (Sa1–Sa8).
  • Wie in 6A gezeigt ist, sind jeweilige Lichtsender (L1–L8) jeweils vorbestimmten erfassbaren Bereichen (Sa1–Sa8) zugeordnet. Genauer ausgedrückt sind die Lichtsender (L1–L3) bzw. die Lichtsender (L4–L8) erfassbaren Bereichen (Sa1–Sa3) bzw. erfassbaren Bereichen (Sa4–Sa8) zugeordnet. In dieser Ausführungsform ist ein Winkelbereich α jedes erfassbaren Bereichs (Sa1–Sa3) kleiner eingerichtet als ein Winkelbereich β jedes erfassbaren Bereichs (Sa4–Sa8).
  • Dies hat den folgenden Grund. Wenn der Roboter R nämlich die Gegenwart des Zielobjekts D erfasst und das Gesicht des Roboters R auf das erfasste Zielobjekt D richtet, so könnte dann, wenn die Richtung des Gesichts des Roboters R nicht mit der Richtung des Zielobjekts übereinstimmt, das Zielobjekt D (eine Person) das Gefühl haben, dass der Roboter R sein Gesicht nicht in Richtung des Zielobjekts D richtet.
  • Um das Auftreten einer solchen Situation zu verhindern, ist es bevorzugt, die Anzahl erfassbarer Bereiche zu vergrößern, jedoch nicht notwendigerweise die Anzahl der erfassbaren Bereiche in 360-Grad-Richtung zu vergrößern. Das Auftreten einer solchen Situation kann verhindert werden, indem lediglich die Anzahl derjenigen erfassbaren Bereiche vergrößert wird, welche sich vor dem Roboter R befinden. Auf diese Weise kann die Positionserfassung auf der Vorderseite des Roboters R mit Genauigkeit erzielt werden und die Anzahl an Lichtsendern kann begrenzt werden.
  • In dieser Ausführungsform wird daher die Positionserfassung des Zielobjekts D innerhalb jedes erfassbaren Bereichs (Sa1–Sa3) mit ausreichender Genauigkeit ermöglicht, indem der Bestrahlungsbereich eines Infrarotlichts in Bezug auf jeweilige erfassbare Bereiche (Sa1–Sa3), welche sich vor dem Roboter R befinden, verschmälert wird.
  • Wenn daher das Zielobjekt D eine Person ist und eine Bilderfassung eines Gesichtsbildes der Person durch Kameras C des Roboters R durchgeführt wird, so kann die Positionserfassung der Person mit Genauigkeit erzielt werden. In diesem Fall können die Kameras C des Roboters R auf das Gesicht der Person als das Zielobjekt D gerichtet werden. Da das Ergebnis der Positionserfassung auf die Bewegungssteuerung/-regelung des Roboters R und die Einstellung eines Winkels der Kamera C reagieren kann, können die Kameras C des Roboters R auf das Gesicht der Person als Zielobjekt D gerichtet werden.
  • In dieser Ausführungsform kann zu einem Zeitpunkt zusätzlich der Zustand der Umgebung, d. h. der 360-Grad-Umgebungszustand, überwacht werden, indem erfassbare Bereiche (Sa1–Sa8) um den Roboter R eingerichtet werden.
  • Daher kann die Erfassung des Zielobjekts D selbst dann erreicht werden, wenn das Zielobjekt mit der Marke T sich nicht vor den Kameras C befindet.
  • Um den von dem erfassbaren Bereich ausgeschlossenen Bereich zu minimieren, d. h. einen toten Raum in der Umgebung zu minimieren, wird in dieser Ausführungsform zusätzlich der Umfang des erfassbaren Bereichs so bestimmt, dass benachbarte erfassbare Bereiche einander am Rand überlappen.
  • In diesem Fall kann jedoch eine Interferenz von Infrarotlicht an dem überlappenden Rand der erfassbaren Bereiche (Sa1–Sa8) verursacht werden, wenn Infrarotlicht in die benachbarten erfassbaren Bereiche nacheinander oder gleichzeitig gestrahlt wird.
  • Die Ausgabereihenfolge und -zeitsteuerung des verschlüsselten Richtungstestsignals von Zeitmultiplexeinheit 83 der Einheiten-Steuer-/-regeleinrichtung 80 wird daher in dieser Ausführungsform verstellt, um das Auftreten einer Interferenz von Infrarotlicht, welche verursacht wird, wenn Infrarotlicht nacheinander in benachbarte erfassbare Bereiche gesendet wird, zu verhindern.
  • Unter Bezugnahme auf 5 stellt in dieser Ausführungsform die Zeitmultiplexeinheit 83 die Ausgabereihenfolge und -zeitsteuerung des verschlüsselten Richtungstestsignals derart ein, dass die Abstrahlung von Infrarotlicht in folgender Reihenfolge durchgeführt wird: erfassbarer Bereich Sa1, erfassbarer Bereich Sa4, erfassbarer Bereich Sa7, erfassbarer Bereich Sa2, erfassbarer Bereich Sa5, erfassbarer Bereich Sa8, erfassbarer Bereich Sa3, erfassbarer Bereich Sa6, erfassbarer Bereich Sa1.
  • Wie in 6B gezeigt ist, wird in dieser Ausführungsform ein Bestrahlungsbereich für Infrarotlicht in Höhenrichtung so bestimmt, dass die Gegenwart einer Person, zum Beispiel Personen von Kindern bis zu Erwachsenen, in einem Abstand X erfasst werden kann. Der Abstand X ist dabei auf Grundlage eines mittleren Abstands bestimmt, in welchem eine zwischenmenschliche Kommunikation möglich ist. Der Abstand X ist somit ein Abstand von einem Roboter R, in welchem eine gegenseitige Kommunikation zwischen dem Roboter R und einer Person erreicht werden kann. In 6B ist dabei nur der Lichtsender L2 bildlich dargestellt, der Bestrahlungsbereich für Infrarotlicht in Höhenrichtung ist jedoch bei den anderen Lichtsendern (L1, L3–L8) der gleiche wie der bei Lichtsender L2.
  • Genauer gesagt wird ein Beleuchtungsbereich für Infrarotlicht in Höhenrichtung so bestimmt, dass eine Höhe Y, welche einer durchschnittlichen Höhe einer Brust einer erwachsenen Person entspricht, und eine Höhe Z, welche einer durchschnittlichen Höhe einer Brust eines Kindes entspricht, durch Infrarotlicht sicher bestrahlt werden. In dieser Ausführungsform wird ein Winkel γ, welcher ein Beleuchtungswinkel für Infrarotlicht in Höhenrichtung ist, so bestimmt, dass er diese Anforderung erfüllt.
  • Der Funksendeempfänger 90 überträgt eine Funkwelle in eine Umgebung des Roboters R und empfängt ein Empfangssignal, welches von dem Zielobjekt D, das die Funkwelle empfangen hat, übertragen wird.
  • Der Funksendeempfänger 90 enthält einen Modulator 91, einen Demodulator 92 und eine Sendeempfangsantenne 93.
  • Der Modulator 91 moduliert das verschlüsselte Suchsignal, welches von dem Datenprozessor 81 durch die Verschlüsselungseinheit 82 eingegeben wurde, um ein moduliertes Signal zu erzeugen, und überträgt das modulierte Signal durch die Sendeempfangsantenne 93.
  • Der Demodulator 92 empfängt das modulierte Signal, welches drahtlos von der Marke T des Zielobjekts D übertragen wurde, und erhält das verschlüsselte Empfangssignal durch Demodulieren des modulierten Signals.
  • Danach gibt der Demodulator 92 das verschlüsselte Empfangssignal an die Decodiereinrichtung 84 und die Feldintensitätsmesseinheit 85 der Einheiten-Steuer-/-regeleinrichtung 80 aus.
  • Die Decodiereinrichtung 84 erhält das Empfangssignal durch Decodierung des verschlüsselten Empfangssignals, welches durch Codieren des Empfangssignals erzeugt wurde, und gibt das Empfangssignal an den Datenprozessor 81 aus.
  • Da in dieser Ausführungsform das Empfangssignal wenigstens die Sender-ID, die Roboter-ID und eine Marken-ID enthält, gibt die Decodiereinrichtung 84 diese ID's an den Datenprozessor 81 aus. Die Marken-ID ist dabei eine eindeutige Identifikationsnummer zum Identifizieren der Marke, welche das Empfangssignal übertragen hat. Wenn ferner das Empfangssignal das Sendeanforderungssignal enthält, so gibt die Decodiereinrichtung 84 auch das Sendeanforderungssignal an den Datenprozessor 81 aus.
  • Die Feldintensitätsmesseinheit 85 misst eine Intensität des modulierten Signals, wenn das von der Marke T des Zielobjekts D übertragene modulierte Signal durch den Funksendeempfänger 90 empfangen wird. Genauer erfasst die Feldintensitätsmesseinheit 85 eine Leistung des verschlüsselten Empfangssignals, welche von dem Demodulator 92 des Funksendeempfängers 90 eingegeben wird und berechnet einen Mittelwert der erfassten Leistung. Die Feldintensitätsmesseinheit 85 gibt dann den berechneten Mittelwert als die Daten der Feldintensität an den Datenprozessor 81 aus.
  • Der Positionsberechnungsabschnitt 81b des Datenprozessors 81 bestimmt die Position des Zielobjekts D. Genauer ausgedrückt berechnet der Positionsberechnungsabschnitt 81b den Abstand des Zielobjekts D vom Roboter R auf Grundlage der Feldintensität des modulierten Signals, welches in dem Funksendeempfänger 90 empfangen und von der Marke T des Zielobjekts D übertragen wird.
  • Der Positionsberechnungsabschnitt 81b betrachtet ferner die Sender-ID, welche in dem Empfangssignal enthalten ist, und identifiziert auf Grundlage der Sender-ID den Lichtsender, der ein durch das Zielobjekt D empfangenes Infrarotlicht gesendet hat. Der Positionsberechnungsabschnitt 81b betrachtet dann die Richtung des erfassbaren Bereichs, in welche der durch die Sender-ID identifizierte Lichtsender ein Infrarotlicht ausgestrahlt hat, als die Richtung des Zielobjekts. Somit kann die Position (Richtung) des Zielobjekts identifiziert werden.
  • Wie oben beschrieben wurde, sind in dieser Ausführungsform eine Mehrzahl von Lichtsendern (L1–L8) am Kopfteil R1 des Roboters R bereitgestellt und zugeordneten erfassbaren Bereichen (Sa1–Sa8) zugewiesen. Da somit an den Lichtsendern Richtwirkung entfaltet wird, kann die Richtung des Zielobjekts D mit der Marke T genau gemessen werden.
  • Außerdem kann die Richtung des Zielobjekts D durch eine einfache Verarbeitung gemessen werden, d. h. die Richtung des Zielobjekts D kann durch Erfassen einer Sender-ID (D1–D8) gemessen werden, welche dem Lichtsender (L1–L8) zugeordnet ist. Eine komplizierte Verarbeitung, welche benötigt wird, wenn die Erfassung des Zielobjekts D unter Verwendung von Kameras C und C durchgeführt wird, ist somit nicht notwendig.
  • In dieser Ausführungsform erhält der Positionsberechnungsabschnitt 81b zuerst die Roboter-ID von dem von der Decodiereinrichtung 84 eingegebenen Empfangssignal. Der Positionsberechnungsabschnitt 81b vergleicht dann die erhaltene Roboter-ID mit der in der Aufnahmeeinheit 110 gespeicherten Roboter-ID. Wenn beide Roboter-ID's gleich sind, so beginnt der Positionsberechnungsabschnitt 81b mit der Positionserfassung.
  • Wie in 8 gezeigt ist, ist in dieser Ausführungsform die Umgebung des Roboters R in Abhängigkeit vom Abstand vom Roboter R in vier Bereiche unterteilt. Um den Roboter R sind somit ein Gebiet I, ein Gebiet II, ein Gebiet III und ein Gebiet IV eingerichtet.
  • In dieser Ausführungsform wird jedes Gebiet im Vorfeld einer Feldintensität auf Basis eines Werts der Feldintensität zugeordnet und eine Tabelle (eine Abstandstabelle), welche die Korrelation zwischen dem Gebiet und der Feldintensität angibt, ist in der Aufnahmeeinheit 110 gespeichert.
  • Auf Grundlage der von der Feldintensitätsmesseinheit 85 eingegebenen Feldintensität liest der Positionsberechnungsabschnitt 81b daher die Abstandstabelle aus und erhält Informationen (Gebietsinformationen), welche anzeigen in welchem Gebiet der Gebiete (aus Gebiet I bis Gebiet IV) sich das Zielobjekt D, das die Marke T aufweist, welche das Empfangssignal übertragen hat, befindet.
  • Wenn dabei beispielsweise die von der Feldintensitätsmesseinheit 85 eingehende Feldintensität E1 zwischen Schwellwerten E2 und E3 liegt (E2 ist hier eine untere Grenze des Bereichs III und E3 ist eine obere Grenze des Bereichs III), so erhält der Positionsberechnungsabschnitt 81b die Bereichsinformation, welche den Bereich III anzeigt.
  • Der Positionsberechnungsabschnitt 81b bezieht sich auf die Sender-ID, welche in dem von der Decodiereinrichtung 84 eingegangenen Empfangssignal enthalten ist, und identifiziert auf Grundlage der Sender-ID den Lichtsender, welcher ein durch das Zielobjekt D empfangenes Infrarotlicht ausgesendet hat. Der Positionsberechnungsabschnitt 81b erhält dann Informationen (Richtungsinformationen), welche die Abstrahlrichtung des Infrarotlichts von dem identifizierten Lichtsender angeben.
  • Wie in 9 gezeigt ist, sind in dieser Ausführungsform insgesamt acht erfassbare Bereiche (Sa1–Sa8) in der Umgebung des Roboters R eingerichtet und die Aufnahmeeinheit 110 speichert eine Tabelle (eine Richtungstabelle), welche den erfassbaren Bereich anzeigt, auf welchen jeder Lichtsender gerichtet ist.
  • Der Datenprozessor 81 bezieht sich daher auf die in der Aufnahmeeinheit 110 basierend auf der Sender-ID gespeicherte Richtungstabelle und erkennt den erfassbaren Bereich, in welchen der durch die Sender-ID identifizierte Lichtsender Infrarotlicht abgestrahlt hat. Das bedeutet, dass der erfassbare Bereich, in welchen Infrarotlicht abgestrahlt wurde, aus vorbestimmten erfassbaren Bereichen (Sa1–Sa8) bestimmt wird.
  • Als Informationen (Richtungsinformationen), welche die Richtung des Zielobjekts D angeben, erhält der Datenprozessor 81 dann Informationen, die den identifizierten erfassbaren Bereich angeben.
  • In dieser Ausführungsform überlappen benachbarte erfassbare Bereiche am Rand miteinander, in 9 ist der überlappende Rand jedes erfassbaren Bereichs (Sa1–Sa8) jedoch weggelassen. Diese Weglassung des überlappenden Randes betrifft ebenfalls 10.
  • Der Positionsberechnungsabschnitt 81b erzeugt grundsätzlich aus Bereichsinformationen und Richtungsinformationen Informationen (Positionsinformationen), welche die Position des Zielobjekts D angeben.
  • Die Erläuterung der Positionsinformationen erfolgen hier unter Bezugnahme auf 10. 10 entspricht einer Figur, welche durch Übereinanderlegen von 8 und 9 gebildet ist.
  • Wenn der Inhalt von Bereichsinformationen „BEREICH III” ist und der Inhalt von Richtungsinformationen „Sa2” ist, so betrachtet der Datenprozessor 81 den Überlappungsbereich zwischen „BEREICH III” und „Sa2” als die Position des Zielobjekts D und erzeugt Informationen (Positionsinformationen), welche diesen Überlappungsbereich anzeigen. In 10 ist dabei dieser Überlappungsbereich durch ein Symbol P1 bezeichnet.
  • Wie oben beschrieben wurde, wird die Positionsbeziehung zwischen dem Roboter R und dem Zielobjekt D auf Grundlage der Intensität des durch den Roboter R empfangenen Empfangssignals und der in dem Empfangssignal enthaltenen Sender-ID bestimmt. Mit anderen Worten wird die Richtung und der Abstand des Zielobjekts D auf der Basis der Position des Roboters R berechnet und die Position des Zielobjekts D kann bestimmt werden.
  • Der Positionsberechnungsabschnitt 81b gibt dann die Positionsinformationen zusammen mit der Marken-ID, welche in dem von der Decodiereinrichtung 84 eingehenden Empfangssignal enthalten ist, an die Steuer-/Regeleinrichtung 40 des Roboters R aus.
  • Die Steuer-/Regeleinrichtung 40 des Roboters R bestimmt dabei die Bewegung des Roboters R unter Berücksichtigung der Positionsinformationen und steuert/regelt die Bewegung der Steuer-/Regeleinrichtung für selbständige Fortbewegung 50, um den Roboter R auf Grundlage der bestimmten Bewegung zu betätigen.
  • In dieser Ausführungsform können eine selbständige Fortbewegung des Roboters zu einer Position vor dem Zielobjekt D oder eine Bilderfassung des Gesichtsbildes des Zielobjekts D durch Einstellen eines Winkels und einer Richtung der Kamera C ein Beispiel für die Bewegung des Roboters R sein.
  • In dieser Ausführungsform ist das mit Lichtsendern (L1–L8) versehene Kopfteil R1 drehbar am Rumpfteil R4 des Roboters R getragen und ist dafür eingerichtet, entlang einer Ausrichtungsrichtung Q von Lichtsendern L1–L8 zu drehen (1 oder 2). Da somit die Kameras C auf einfache Weise zur Vorderseite des Zielobjekts D hin gerichtet werden können, wird die Bilderfassung des Zielobjekts D (Gesicht einer Person) ermöglicht. Dadurch kann die genaue Erfassung des Zielobjekts D auf Grundlage eines durch die Bilderfassung des Zielobjekts D erhaltenen Bildes, zusätzlich zur durch die Überwachungsvorrichtung gemessenen Richtung des Zielobjekts D durchgeführt werden.
  • Wenn die erfassbaren Bereiche (Sa1–Sa3) enger sind als die anderen erfassbaren Bereiche (Sa4–Sa8), so kann das Zielobjekt D durch Drehen des Kopfteils R1, wie in 6A gezeigt ist, ferner selbst dann in die erfassbaren Bereiche (Sa1–Sa3) gerückt werden, wenn sich das Zielobjekt D innerhalb des erfassbaren Bereichs (Sa4–Sa8) befindet. Auf diese Weise kann die Richtung des Zielobjekts D genau gemessen werden.
  • Wenn das Sendeanforderungssignal in das Empfangssignal eingeschlossen wird, so erzeugt die Signalerzeugungseinrichtung 81a das Richtungstestsignal und gibt das Richtungstestsignal an die Verschlüsselungseinheit 82 aus. Dadurch wird ein Infrarotlicht von jedem Lichtsender der Lichtsendeeinheit 100 ausgesendet.
  • Die Steuer-/Regeleinrichtung 40 des Roboters R überträgt die Marken-ID an den Steuerungscomputer 3. Der Steuerungscomputer 3 liest daher auf Grundlage der Marken-ID die Speichereinheit (nicht gezeigt) aus, wenn die Marken-ID von dem Roboter R übertragen wird, und erhält mit der Marken-ID in Zusammenhang stehende Informationen, um die Identifizierung des Zielobjekts D mit der Marke T durchzuführen. Der Steuerungscomputer 3 gibt die erhaltenen Informationen dann zusammen mit einem Anweisungssignal, welches den Roboter R dazu anweist, eine vorbestimmte Bewegung auszuführen, an den Roboter R aus. Somit steuert/regelt die Steuer-/Regeleinrichtung 40 des Roboters R auf Grundlage des Anweisungssignals jeden Abschnitt, zum Beispiel die Steuer-/Regeleinrichtung 50 für selbstständige Fortbewegung des Roboters R.
  • Die Marke T empfängt eine Funkwelle und ein Lichtsignal, welche von dem Roboter R übertragen werden, und gibt an den Roboter R das Empfangssignal zurück, welches den Empfang der Funkwelle oder eines Lichtsignals anzeigt.
  • Da in dieser Ausführungsform eine Person, welche eine Marke T hat, dem Zielobjekt D entspricht, wird eine Funkwelle und ein Lichtsignal von dem Roboter R durch die Marke T empfangen. Nachfolgend wird daher die Marke T erläutert.
  • Wie in 11 gezeigt ist, enthält die Marke T einen Funksendeempfänger 140, einen Lichtempfänger 150, eine Empfangssignalerzeugungsvorrichtung 160 und einen Speicher 170.
  • Der Funksendeempfänger 140 empfängt das modulierte Signal, welches drahtlos von dem Roboter R übertragen wurde, und überträgt drahtlos das modulierte Signal, welches durch Modulieren des von der Empfangssignalerzeugungseinrichtung 160 eingehenden Empfangssignals erhalten wird, zu dem Roboter R. Der Funksendeempfänger 140 enthält eine Antenne 141, einen Demodulator 142 und einen Modulator 143.
  • Der Demodulator 142 demoduliert das modulierte Signal, welches von dem Roboter R übertragen und durch die Antenne 141 empfangen wurde, um das verschlüsselte Suchsignal zu erhalten. Dann gibt der Demodulator 142 das verschlüsselte Suchsignal an die Empfangssignalerzeugungseinrichtung 160 aus.
  • Der Modulator 143 moduliert das verschlüsselte Empfangssignal, welches von einer Verschlüsselungseinheit 163 der Empfangssignalerzeugungseinrichtung 160 eingegeben wird, um ein moduliertes Signal zu erhalten. Der Modulator 143 überträgt dann das modulierte Signal durch die Antenne 141 drahtlos zu dem Roboter R.
  • Der Lichtempfänger 150 empfängt das Infrarotlicht, welches von dem Roboter R ausgestrahlt wird.
  • Der Lichtempfänger 150 enthält einen optischen Empfänger 151 und einen Lichtdemodulator 152.
  • Der optische Empfänger 151 empfängt direkt das Infrarotlicht (ein Infrarotlichtsignal), welches von dem Roboter R ausgestrahlt wird. Der Lichtdemodulator 152 demoduliert das durch den optischen Empfänger 151 empfangene Infrarotlichtsignal, um das verschlüsselte Richtungstestsignal zu erhalten.
  • Genauer gesagt demoduliert der Lichtempfänger 150 das Infrarotlichtsignal dann, wenn ein Infrarotlichtsignal durch den optischen Empfänger 151 empfangen wird, um das verschlüsselte Richtungstestsignal zu erhalten. Der Lichtempfänger 150 gibt dann das verschlüsselte Richtungstestsignal an die Empfangssignalerzeugungseinrichtung 160 aus.
  • Die Empfangssignalerzeugungseinrichtung 160 erzeugt ein Signal (Empfangssignal), welches den Empfang des Suchsignals von dem Roboter R anzeigt. In dieser Ausführungsform wird dieses Empfangssignal in Antwort auf das in dem Suchsignal enthaltene Empfangsanforderungssignal erzeugt, wenn das von dem Roboter R übertragene Suchsignal (modulierte Signal) durch den Funksendeempfänger 140 empfangen wird.
  • Wie in 9 gezeigt ist, enthält die Empfangssignalerzeugungseinrichtung 160 eine Decodiereinheit 161, eine Prozessoreinheit 162 und die Verschlüsselungseinheit 163.
  • Die Decodiereinheit 161 decodiert das verschlüsselte Signal, um das Signal zu erhalten. Das heißt, dass die Decodiereinheit 161 das verschlüsselte Suchsignal decodiert, welches von dem Funksendeempfänger 140 eingegeben wird, und das verschlüsselte Richtungstestsignal decodiert, welches von dem Lichtempfänger 150 eingegeben wird, um das Suchsignal bzw. das Richtungstestsignal zu erhalten. Die Decodiereinheit 161 gibt dann das Suchsignal und das Richtungstestsignal an die Prozessoreinheit 162 aus.
  • Die Prozessoreinheit 162 erzeugt das Empfangssignal. In dieser Ausführungsform enthält das Suchsignal die Roboter-ID und das Empfangsanforderungssignal. Die Roboter-ID ist dabei eine eindeutige Identifikationsnummer, um den Roboter R zu spezifizieren, welcher das Suchsignal übertragen hat. Das Empfangsanforderungssignal ist ein Signal, welches das Zielobjekt D anweist, die vorbestimmte Verarbeitung durchzuführen, wenn das Zielobjekt das Suchsignal empfangen hat.
  • Das Richtungstestsignal enthält die Roboter-ID zum Identifizieren des Roboters R, welcher das Richtungstestsignal ausgesendet hat, und die Sender-ID zum Identifizieren des Lichtsenders, welcher das Richtungstestsignal ausgesendet hat.
  • Die Prozessoreinheit 162 ändert somit den Zustand des Lichtempfängers 150 in Antwort auf das in dem Suchsignal enthaltene Empfangsanforderungssignal von einem Bereitschaftszustand in einen aktivierten Zustand, wenn das Suchsignal in die Prozessoreinheit 162 eingegeben wird.
  • Die Prozessoreinheit 162 vergleicht die in dem Richtungstestsignal enthaltene Roboter-ID mit der in dem Suchsignal enthaltenen Roboter-ID, wenn die Prozessoreinheit 162 innerhalb einer vorbestimmten Zeit nach der Aktivierung des Lichtempfängers 150 das Richtungstestsignal empfängt.
  • Die Prozessoreinheit 162 erhält eine eindeutige Identifikationsnummer (Marken-ID), welche der Marke T zugeordnet ist, aus dem Speicher 170, wenn die in dem Richtungstestsignal enthaltene Roboter-ID mit der in dem Suchsignal enthaltenen Roboter-ID übereinstimmt.
  • Die Prozessoreinheit 162 erzeugt dann das Empfangssignal, in welchem die Marken-ID, die in dem Suchsignal enthaltene Roboter-ID und die in dem Richtungstestsignal enthaltene Sender-ID enthalten sind, und gibt das erzeugte Empfangssignal an die Verschlüsselungseinheit 163 aus.
  • Im Gegensatz dazu erzeugt die Prozessoreinheit 162 das Empfangssignal, welches ferner das Sendeanforderungssignal darin enthält, wenn das Richtungstestsignal nicht innerhalb einer vorbestimmten Zeit nach der Aktivierung des Lichtempfängers 150 eingegeben wird oder wenn die Roboter-ID des Richtungstestsignals nicht mit der Roboter-ID des Suchsignals übereinstimmt. Die Prozessoreinheit 162 gibt dann das erzeugte Empfangssignal an die Verschlüsselungseinheit 163 aus. Das Sendeanforderungssignal ist dabei ein Signal, welches den Roboter R (Erfassungseinheit) anweist, ein Infrarotlicht auszusenden.
  • Die Verschlüsselungseinheit 163 verschlüsselt das Empfangssignal, um das verschlüsselte Empfangssignal zu erzeugen, und gibt das verschlüsselte Empfangssignal an den Funksendeempfänger 140 aus.
  • Das verschlüsselte Empfangssignal wird dadurch in dem Modulator 143 des Funksendeempfängers 140 moduliert und dann drahtlos durch die Antenne 141 übertragen.
  • Wie oben beschrieben, sind in dieser Ausführungsform eine Mehrzahl von Lichtsendern (L1–L8) an dem Kopfteil R1 des Roboters R vorgesehen und den entsprechenden erfassbaren Bereichen (Sa1–Sa8) zugeordnet. Da die Lichtsender Richtwirkung entfalten, bedeutet dies, dass die Richtung des Zielobjekts D mit der Marke T genau gemessen werden kann.
  • In dieser Ausführungsform ist zusätzlich jeder Lichtsender (L1–L8) über den Kameras C vorgesehen, so dass die Erfassung des Zielobjekts D auf nahezu gleicher Höhe mit der Kamera erreicht werden kann.
  • Dadurch wird eine genaue Erfassung des Zielobjekts D ermöglicht.
  • Als nächstes wird unter Bezugnahme auf 12 bis 14 die in dem Zielobjekterfassungssystem A durchgeführte Datenverarbeitung erläutert.
  • Die in der Zielerfassungseinheit 70 des Roboters R durchgeführte Signalverarbeitung wird unter Bezugnahme auf 12 erläutert.
  • Die Signalerzeugungseinrichtung 81a der Einheiten-Steuer-/-regeleinrichtung 80 greift in einem vorbestimmten Zyklus auf die Aufnahmeeinheit 110 zu und erhält die eindeutige Identifikationsnummer des Roboters R, welche der Einheiten-Steuer-/-regeleinrichtung 80 bereitgestellt wird (Schritt S1). Das heißt, dass die Signalerzeugungseinrichtung 81a von der Aufnahmeeinheit 110 die Roboter-ID erhält.
  • Die Signalerzeugungseinrichtung 81a erzeugt dann das Suchsignal, welches die Roboter-ID und das Empfangsanforderungssignal enthält (Schritt S2). Zusätzlich erzeugt die Signalerzeugungseinrichtung 81a für die jeweiligen Lichtsender das Richtungstestsignal, welches als Infrarotlichtsignal von jedem Lichtsender der Lichtsendeeinheit 100 ausgestrahlt wird (Schritt S3).
  • Das Richtungstestsignal enthält dabei die in Schritt S1 erhaltene Roboter-ID und die Sender-ID, welche zur Identifizierung des Lichtsenders, welcher das Richtungstestsignal aussendet, verwendet werden soll.
  • Die Verschlüsselungseinheit 82 der Einheiten-Steuer-/-regeleinrichtung 80 verschlüsselt das Suchsignal, um das verschlüsselte Suchsignal zu erzeugen und gibt das verschlüsselte Suchsignal an den Funksendeempfänger 90 aus. Das verschlüsselte Suchsignal wird somit durch ein vorbestimmtes Modulationsschema moduliert, um das modulierte Signal zu erzeugen. Das modulierte Signal wird dann durch die Sendeempfangsantenne 93 übertragen (Schritt S4). Das heißt, das Suchsignal wird drahtlos übertragen.
  • Die Verschlüsselungseinheit 82 der Einheiten-Steuer-/-regeleinrichtung 80 verschlüsselt das in der Signalerzeugungseinrichtung 81a erzeugte Richtungstestsignal, um das verschlüsselte Richtungstestsignal zu erzeugen und gibt dann das verschlüsselte Richtungstestsignal an die Zeitmultiplexeinheit 83 aus.
  • Die Zeitmultiplexeinheit 83 bestimmt die Bestrahlungsreihenfolge und -zeitsteuerung jedes Lichtsenders (L1–L8) der Lichtsendeeinheit 100, wenn das verschlüsselte Richtungstestsignal von der Verschlüsselungseinheit 82 eingeht (Schritt S5). Die Zeitmultiplexeinheit 83 gibt dann das verschlüsselte Richtungstestsignal auf Grundlage der bestimmten Zeitsteuerung an den Modulator des entsprechenden Lichtsenders (L1–L8) aus (Schritt S6).
  • Der Modulator jedes Lichtsenders (L1–L8) der Lichtsendeeinheit 100 moduliert das verschlüsselte Richtungstestsignal in einer vorbestimmten Modulationsart, um das Infrarotlichtsignal einer vorbestimmten Wellenlänge zu erhalten. Das Infrarotlichtsignal wird dann von dem dem Modulator benachbarten Lichtsender aus in den erfassbaren Bereich abgestrahlt (Schritt S7). Dadurch wird in der vorbestimmten Reihenfolge und Zeitsteuerung Infrarotlicht in Richtung eines jeden um den Roboter R eingerichteten erfassbaren Bereichs abgestrahlt.
  • Die Marke T erzeugt das Empfangssignal (moduliertes Signal) und überträgt es drahtlos, wenn die Marke T das von der Sendeempfangsantenne übertragene Suchsignal (moduliertes Signal) empfängt.
  • Der Demodulator 92 erhält das verschlüsselte Empfangssignal durch Demodulieren des modulierten Signals, wenn der Demodulator 92 das von der Marke T übertragene modulierte Signal (Empfangssignal) empfängt.
  • Der Demodulator 92 gibt das verschlüsselte Empfangssignal an die Decodiereinrichtung 84 und die Feldintensitätsmesseinheit 85 der Einheiten-Steuer-/-regeleinrichtung 80 aus.
  • Die Decodiereinrichtung 84 der Einheiten-Steuer-/-regeleinrichtung 80 decodiert das verschlüsselte Empfangssignal, um das Empfangssignal zu erhalten und gibt das Empfangssignal an den Datenprozessor 81 aus.
  • Die Feldintensitätsmesseinheit 85 der Einheiten-Steuer-/-regeleinrichtung 80 erfasst eine Leistung des verschlüsselten Empfangssignals, welche von dem Demodulator 82 des Funksendeempfängers 90 eingeht, und berechnet einen Mittelwert der erfassten Leistung. Die Feldintensitätsmesseinheit 85 gibt dann den berechneten Mittelwert als Daten der Feldintensität an den Datenprozessor 81 aus.
  • Auf Grundlage der von der Feldintensitätsmesseinheit 85 eingegebenen Feldintensität nimmt der Positionsberechnungsabschnitt 81b Bezug auf die Abstandstabelle und erhält Informationen (Bereichsinformationen), welche anzeigen, in welchem Bereich der Bereiche (von Bereich I bis Bereich IV) sich die Marke T, welche das Empfangssignal übertragen hat, befindet (Schritt S9). Das heißt, dass der Positionsberechnungsabschnitt 81b auf Grundlage der Intensität der Feldintensität den Abstand von dem Roboter R zur Marke T misst.
  • Der Positionsberechnungsabschnitt 81b nimmt auf Grundlage der Sender-ID, welche aus dem von der Decodiereinrichtung 84 eingegebenen Empfangssignal erhalten wird, Bezug auf die in der Aufnahmeeinheit 110 gespeicherte Richtungstabelle. Der Positionsberechnungsabschnitt 81b erhält dann die Information (Richtungsinformation), welche den Lichtsender identifiziert, der ein von der Marke T empfangenes Infrarotlicht ausgestrahlt hat.
  • Der Positionsberechnungsabschnitt 81 erzeugt dann aus den Bereichsinformationen und den Richtungsinformationen die Positionsinformationen, welche die Position des Zielobjekts D anzeigen (Schritt S11). Auf diese Weise wird die Position des Zielobjekts D bestimmt.
  • Wenn das von der Marke T übertragene Empfangssignal (modulierte Signal) nicht durch den Demodulator 92 des Funksendeempfängers 90 empfangen worden ist (Schritt S8, Nein), so verbleibt der Demodulator 92 im Bereitschaftszustand, bis das Empfangssignal (moduliertes Signal) empfangen wird.
  • Unter Bezugnahme auf die Blockdarstellung in 11 und das Flussdiagramm in 13 folgt als nächstes die Signalverarbeitung, welche in einer Marke T, die als das Zielobjekt D dient, durchgeführt werden soll.
  • Wenn eine von dem Roboter R übertragene Funkwelle (moduliertes Signal) durch die Antenne 141 empfangen worden ist (Schritt S20, Ja), so demoduliert der Demodulator 142 des Funksendeempfängers 140 das modulierte Signal, um das verschlüsselte Suchsignal zu erhalten. Danach gibt der Demodulator 142 das verschlüsselte Suchsignal an die Empfangssignalerzeugungseinrichtung 160 aus.
  • Die Decodiereinrichtung 161 der Empfangssignalerzeugungseinrichtung 160 decodiert das von dem Funksendeempfänger 140 eingehende verschlüsselte Suchsignal, um das Suchsignal zu erhalten. Danach gibt die Decodiereinheit 161 das Suchsignal an die Prozessoreinheit 162 aus.
  • Die Prozessoreinheit 162 der Empfangssignalerzeugungseinrichtung 160 ändert den Zustand des Lichtempfängers 150 in Antwort auf das in dem Suchsignal enthaltene Empfangssignal von einem Bereitschaftszustand in einen aktivierten Zustand (Schritt S21).
  • Wenn der optische Empfänger 151 des Lichtempfängers 150 das von dem Roboter R ausgestrahlte Infrarotlichtsignal innerhalb einer vorbestimmten Zeit nach Aktivierung des Lichtempfängers 150 empfängt (Schritt S22, Ja), so demoduliert der Lichtdemodulator 152 des Lichtempfängers 150 das Infrarotlichtsignal, um das verschlüsselte Richtungstestsignal zu erhalten. Der Lichtdemodulator 152 gibt dann das verschlüsselte Richtungstestsignal an die Empfangssignalerzeugungseinrichtung 160 aus.
  • Um das Richtungstestsignal zu erhalten, decodiert somit die Decodiereinheit 161 der Empfangssignalerzeugungseinrichtung 160 das verschlüsselte Richtungstestsignal und gibt das Richtungstestsignal an die Prozessoreinheit 162 aus.
  • Die Prozessoreinheit 162 der Empfangssignalerzeugungseinrichtung 160 vergleicht die in dem Richtungstestsignal enthaltene Roboter-ID mit der in dem Suchsignal enthaltenen Roboter-ID.
  • Wenn beide Roboter-ID's miteinander übereinstimmen (Schritt S23), so erzeugt die Prozessoreinheit 162 das Empfangssignal. Vor der Erzeugung des Empfangssignals greift die Prozessoreinheit 162 auf den Speicher 170 zu und erhält eine eindeutige Identifikationsnummer (Marken-ID), welche der Marke T zugeordnet ist.
  • Danach erzeugt die Prozessoreinheit 162 das Empfangssignal, welches die Marken-ID, die in dem Suchsignal enthaltene Roboter-ID und die in dem Richtungstestsignal enthaltene Sender-ID enthält, und die Prozessoreinheit 162 gibt das erzeugte Empfangssignal an die Verschlüsselungseinheit 163 aus (Schritt S24).
  • Die Prozessoreinheit 162 erzeugt dabei das Empfangssignal, welches ferner das Sendeanforderungssignal darin enthält, falls das Richtungstestsignal nicht innerhalb einer vorbestimmten Zeit nach der Aktivierung des Lichtempfängers 150 eingeht (Schritt S22, Nein) oder falls die Roboter-ID des Richtungstestsignals nicht mit der Roboter-ID des Suchsignals übereinstimmt (Schritt S23, Nein). Danach gibt die Prozessoreinheit 162 das erzeugte Empfangssignal an die Verschlüsselungseinheit 163 aus.
  • Der Modulator 163 des Funksendeempfängers 140 moduliert dann das von der Verschlüsselungseinheit 163 eingegangene verschlüsselte Empfangssignal, um das modulierte Signal zu erhalten, und überträgt dann das modulierte Signal drahtlos durch die Antenne 141 (Schritt S26).
  • Schließlich wird unter Bezugnahme auf die Blockdarstellungen von 4, 5 und 11 sowie das Flussdiagramm in 14 die Verarbeitung in dem Zielobjekterfassungssystem A, welche für die Erfassung des Besuchers des Büros eingerichtet ist, erläutert.
  • Zum Beispiel erhält ein Besucher des Büros am Empfangsschalter die Marke T und durch den am Empfangsschalter vorgesehenen Terminal 5 werden Informationen, zum Beispiel ein Name des Besuchers und ein Besuchsbereich, eingegeben.
  • Von dem Terminal 5 eingegebene Informationen werden somit in der Aufnahmeeinheit (nicht gezeigt) des Steuerungscomputers 3 gespeichert, welcher mit dem Terminal 5 über das Netzwerk 4 verbunden ist (Schritt S51).
  • Am Empfangsschalter bringt dann der Besucher die Marke an und beginnt, sich im Besuchsbereich zu bewegen.
  • Die Steuer-/Regeleinrichtung 40 der Zielerfassungseinheit 70 erzeugt das Suchsignal und das Richtungstestsignal in einem festen Zyklus (Schritt S52) und das erzeugte Suchsignal wird drahtlos von dem Funksendeempfänger 90 übertragen (Schritt S53).
  • Das Richtungstestsignal wird in der Lichtsendeeinheit 100 moduliert und das modulierte Signal wird dann als Infrarotlichtsignal in den vorbestimmten Suchbereich abgestrahlt (Schritt S54).
  • Wenn die Marke T das Richtungstestsignal zusätzlich zu dem Suchsignal empfängt (Schritt S5, Ja), so wird das Empfangssignal erzeugt (Schritt S56) und das Empfangssignal wird dann drahtlos übertragen (Schritt S57).
  • Wenn die Einheiten-Steuer-/-regeleinrichtung 80 das drahtlos von der Marke T übertragene Empfangssignal empfängt, berechnet die Einheiten-Steuer-/-regeleinrichtung 80 den Abstand von dem Roboter R zum Zielobjekt D auf Grundlage der Feldintensität des Empfangssignals (Schritt S58). Die Einheiten-Steuer-/-regeleinrichtung 80 identifiziert den Lichtsender, welcher das von der Marke T empfangene Lichtsignal ausgesendet hat. Die Einheiten-Steuer-/-regeleinrichtung 80 betrachtet dann die Abstrahlrichtung des identifizierten Lichtsenders als die Richtung des Zielobjekts D (Schritt S59). Dadurch wird die Position des Zielobjekts D bestimmt (Schritt S60).
  • Die Einheiten-Steuer-/-regeleinrichtung 80 der Zielerfassungseinheit 70 gibt die Positionsinformationen und die Marken-ID, welche aus dem Empfangssignal erhalten wurden, an die Steuer-/Regeleinrichtung 40 des Roboters R aus.
  • Die Steuer-/Regeleinrichtung 40 des Roboters R überträgt die Marken-ID zusammen mit den Positionsinformationen an den Steuerungscomputer (Schritt S61). In dem Steuerungscomputer 3 wird die Identifikation (Neuorganisation) des Zielobjekts D (Person), welches mit der Marke T ausgestattet ist, der die Marken-ID zugeordnet ist, durch Durchsuchen der Aufnahmeeinheit (nicht gezeigt) auf Grundlage der Marken-ID ausgeführt (Schritt S62).
  • Es werden dann die Informationen (persönliche Informationen) bezüglich des identifizierten Zielobjekts D (Person) zusammen mit dem zum Betätigen des Roboters R notwendigen Anweisungssignals an den Roboter R übertragen (Schritt S63).
  • Auf Grundlage des von dem Steuerungscomputer 3 eingehenden Anweisungssignals führt der Roboter R dann die Bewegung (Fortbewegung) aus und gibt die Sprachmitteilung ab. In der vorliegenden Erfindung führt der Roboter R beispielsweise die folgenden Bewegungen usw. aus: 1) der Roboter R bewegt sich in einer Position vor dem Zielobjekt D (Person) mit der Marke T und führt die Bildaufnahme des Gesichtsbildes des Zielobjekts D durch, 2) der Roboter gibt die Sprachmitteilung, wie etwa „GUTEN MORGEN HERR” ab und 3) der Roboter R sendet die vorbestimmte Mitteilung an das Zielobjekt D (Person).
  • (ZWEITE AUSFÜHRUNGSFORM)
  • Als nächstes wird die zweite Ausführungsform der Außenüberwachungsvorrichtung der vorliegenden Erfindung erläutert.
  • Wie in 15 und 16 gezeigt ist, sind Lichtsender (L1–L8) der Überwachungsvorrichtung W1 um das Rumpfteil R4 des Roboters R herum angeordnet und sie sind um die Referenzachse St herum angeordnet, welche so eingerichtet ist, dass sie durch die Mitte des Roboters R hindurch verläuft.
  • Ähnlich der ersten Ausführungsform sind jeweilige Lichtsender der zweiten Ausführungsform um die Bezugsachse St herum angeordnet. Das heißt, Lichtsender L1–L3, der Lichtsender L6, Lichtsender S4 und L5 und Lichtsender L7 und L8 sind auf einer Vorderseite, einer Rückseite, einer rechten Seite bzw. einer linken Seite angeordnet.
  • Der Aufbau der Lichtsender der zweiten Ausführungsform ist dabei der gleiche wie der der ersten Ausführungsform, außer dass die Lichtsender an dem Rumpfteil R4 des Roboters R vorgesehen sind. Auf eine detaillierte Erläuterung der Lichtsender der zweiten Ausführungsform wird daher hier verzichtet.
  • Da in dieser Ausführungsform Lichtsender (L1–L8) um das Rumpfteil R4 des Roboters R herum angeordnet sind, wird die Erfassung der Marke T (Zielobjekt D) in der Umgebung des Roboters R ermöglicht.
  • Da zusätzlich alle Lichtsender L1–L8 den entsprechenden erfassbaren Bereichen (Sa1–Sa8) zugeordnet sind, welche um den Roboter R herum eingerichtet sind, und die Lichtsender eine Richtwirkung aufweisen, kann die Richtung des Zielobjekts D mit der Marke T genau gemessen werden.
  • In diesem Fall kann die Erfassung der Marke T' selbst dann genau erfolgen, wenn sich die Marke T' in der Nähe des Roboters R, jedoch in Höhenrichtung auf einer niedrigeren Position, befindet. Das liegt daran, dass die Marke T' sich innerhalb des erfassbaren Bereichs Sa2' des Infrarotlichts von dem Roboter R befindet.
  • 17 ist eine Draufsicht eines abgewandelten Beispiels der Überwachungsvorrichtung.
  • In diesem Beispiel sind insgesamt zwölf Lichtsender (L1–L12) an sechs Stellen des Kopfteils R1 des Roboters R angeordnet. Das heißt, an jedem Installationsort sind zwei Lichtsender angeordnet. Die Anzahl an an jedem Installationsort angeordneten Lichtsendern ist dabei nicht auf zwei beschränkt, beispielsweise können die Lichtsender zu dritt, zu viert oder mehr angeordnet werden.
  • In dieser Ausführungsform sind ein Paar Lichtsender L1 und L2, ein Paar Lichtsender L7 und L8, ein Paar Lichtsender L3 und L4, ein Paar Lichtsender L5 und L6, ein Paar Lichtsender L9 und L10 sowie ein Paar Lichtsender L11 und L12 jeweils als einzelnes Bauteil an einer vorbestimmten Stelle des Kopfteils R1 angeordnet.
  • Das heißt, dass jeweilige Lichtsender um die Referenzachse St herum angeordnet sind und ein Paar von Lichtsendern L1 und L2, Lichtsender L7 und L8, Lichtsender L3 und L4, Lichtsender L5 und L6, Lichtsender L9 und L10 und Lichtsender L11 und L12 jeweils auf einer Vorderseite, einer Rückseite, einer rechten Seite bzw. einer linken Seite in Bezug auf die Referenzachse St angeordnet sind.
  • In 17 steht jeder Lichtsender (L1–L12) von der Oberfläche des Kopfteils R1 des Roboters R aus vor. Die Spitze eines jeden Lichtsenders (L1–L12) ist jedoch eigentlich bündig mit der Oberfläche des Kopfteils R1 des Roboters R. Das heißt, dass die Spitze eines jeden Lichtsenders nicht über die Oberfläche des Kopfes R1 hervorsteht.
  • Zusätzlich kann die Richtung eines jeden Lichtsenders (L1–L12) eingestellt werden, so dass an dem überlappenden Rand zwischen benachbarten erfassbaren Bereichen keine Interferenz von Infrarotlicht verursacht wird.
  • Ebenso wie auch im Fall von 6A ist es bevorzugt, dass die Bestrahlungszeitsteuerung und -reihenfolge eines jeden Lichtsenders derart gesteuert/geregelt wird, dass die Interferenz von Infrarotlicht verhindert werden kann, falls benachbarte erfassbare Bereiche miteinander an der Kante überlappen.
  • Da in diesem Fall jeder Installationsort mit einem Paar Lichtsendern versehen ist, kann die Installation der Lichtsender unter Verwendung einer geringen Anzahl an Teilen erzielt werden und der Installationsprozess kann vereinfacht werden.
  • Dabei ist es möglich, dass die Höhen der jeweiligen Lichtsender (L1–L12) von der Untergrundebene F zueinander nicht genau gleich sind. Die Höhen der jeweiligen Lichtsender (L1–L12) von der Untergrundebene F können in Höhenrichtung verschoben sein. Beispielsweise können die Lichtsender so angeordnet sein, dass die Lichtsender (L3–L6 und L9–L1) jeweils zueinander auf gleichem Niveau angeordnet sind und höher angeordnet sind als die Lichtsender (L1, L2, L7 und L7).
  • In der vorliegenden Ausführungsform wird zur Erfassung der Richtung des Zielobjekts ein Lichtsignal verwendet. Statt eines Lichtsignals kann jedoch eine Funkwelle einsetzbar sein, welche eine Bandbreite mit Richtwirkung aufweist, wie etwa eine Ultraschallwelle oder eine Mikrowelle. Beispielsweise können ein Ultraschallsensor und ein Mikrowellensensor von 2,4 GHz, 10 GHz und 24 GHz einsetzbar sein, um das System mit demselben Aufbau wie in der oben beschriebenen Ausführungsform aufzubauen.
  • (DRITTE AUSFÜHRUNGSFORM)
  • Als nächstes wird eine dritte Ausführungsform der vorliegenden Erfindung unter Bezugnahme auf 18 erläutert.
  • Das System der dritten Ausführungsform weist denselben Aufbau auf wie das System der ersten Ausführungsform, außer dass ein Funksendeempfänger, welcher eine Funkwelle überträgt, anstatt eines Lichtsenders des Roboters R verwendet wird.
  • In diesem Fall wird eine Richtwirkung durch Erhöhen der Frequenz der Funkwelle realisiert, selbst wenn der Funksendeempfänger anstatt des Lichtsenders verwendet wird. Die Erfassung der Richtung des Zielobjekts D mit der Marke T kann in einer ähnlichen Weise wie bei der ersten Ausführungsform erzielt werden.
  • Wenngleich die Patentausführungsformen der Erfindung offenbart worden sind, wird es der Fachmann als selbstverständlich ansehen, dass Variationen und Abwandlungen an diesen ausgeführt werden können, ohne den Inhalt der Erfindung zu verlassen, welcher in den beigefügten Ansprüchen angegeben ist.
  • Insbesondere kann die Anzahl und der Installationsort der Lichtsender und ein Bereich des erfassbaren Bereichs eines jeden Lichtsenders entsprechend abgewandelt werden.
  • Der Installationsort der Lichtsender (L1–L8) ist nicht nur auf das Kopfteil R1 oder das Rumpfteil R4 begrenzt. Die Lichtsender (L1–L8) können sowohl am Kopfteil R1 als auch am Rumpfteil R4 angeordnet sein.
  • Wie in 6B gezeigt ist, können erfassbare Bereiche derart eingerichtet werden, dass erfassbare Bereiche in Höhenrichtung aneinandergrenzen (siehe Sa2 und Sa2' in 6B). In diesem Fall kann zusätzlich zur Richtung des Zielobjekts D die Höhe des Zielobjekts D gemessen werden. Da somit eine Unterscheidung zwischen einem Erwachsenen und einem Kind erreicht werden kann, kann der Klang der Stimme auf Grundlage des Ergebnisses dieser Unterscheidung gesteuert werden.

Claims (12)

  1. Zielobjekterfassungssystem (A) umfassend ein Zielobjekt (D) und einen mobilen Roboter (R) mit einer Außenüberwachungsvorrichtung (W) zum Messen einer Richtung des Zielobjekts (D), wobei die Außenüberwachungsvorrichtung (W) eine Mehrzahl von Lichtsendern (L1–L8) umfasst, welche an dem mobilen Roboter (R) vorgesehen sind und jeweils ein Lichtsignal in jeweils einen zugeordneten erfassbaren Bereich (Sa1–Sa8) von um den mobilen Roboter (R) herum eingerichteten erfassbaren Bereichen (Sa1–Sa8) abstrahlen, wobei die Lichtsender (L1–L8) um eine Referenzachse (St) herum angeordnet sind, welche orthogonal zu einer Untergrundebene (F) des mobilen Roboters (R) verläuft, dadurch gekennzeichnet, dass die Außenüberwachungsvorrichtung (W) die Richtung des Zielobjekts (D) unter Verwendung einer Marke (T) misst, welche an dem Zielobjekt (D) vorgesehen ist, und dass die Marke (T) nach Maßgabe des Lichtsignals von den Lichtsendern ein Empfangssignal an den mobilen Roboter (R) zurückgibt, um die Erfassung der Marke (T) innerhalb der erfassbaren Bereiche (Sa1–Sa8) zu ermöglichen.
  2. Zielobjekterfassungssystem (A) nach Anspruch 1, dadurch gekennzeichnet, dass der mobile Roboter (R) ein Kopfteil (R1) und ein das Kopfteil (R1) tragendes Rumpfteil (R4) aufweist und wobei die Lichtsender (L1–L8) an dem Kopfteil (R1) vorgesehen sind.
  3. Zielobjekterfassungssystem (A) nach Anspruch 2, dadurch gekennzeichnet, dass eine Kamera (C) an dem Kopfteil (R1) vorgesehen ist und die Lichtsender (L1–L8) oberhalb der Kamera (C) angeordnet sind.
  4. Zielobjekterfassungssystem (A) nach Anspruch 1, dadurch gekennzeichnet, dass der mobile Roboter (R) ein Kopfteil (R1) und ein das Kopfteil (R1) tragendes Rumpfteil (R4) aufweist und dass die Lichtsender (L1–L8) an dem Rumpfteil (R4) des mobilen Roboters (R) vorgesehen sind.
  5. Zielobjekterfassungssystem (A) nach einem beliebigen der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass das Kopfteil (R1) dafür ausgelegt ist, sich um die Referenzachse (St) entlang einer Ausrichtungsrichtung (Q) der Lichtsender (L1–L8), entlang der die Lichtsender (L1–L8) um die Referenzachse herum angeordnet sind, zu drehen.
  6. Zielobjekterfassungssystem (A) umfassend ein Zielobjekt (D) und einen mobilen Roboter (R) mit einer Außenüberwachungsvorrichtung (W) zum Messen einer Richtung des Zielobjekts (D), dadurch gekennzeichnet, dass die Außenüberwachungsvorrichtung (W) eine Mehrzahl von an dem mobilen Roboter (R) vorgesehenen Funksendeempfängern (90) umfasst, welche jeweils eine Funkwelle an jeweils einen zugeordneten erfassbaren Bereich (Sa1–Sa8) von um den mobilen Roboter (R) herum eingerichteten erfassbaren Bereichen (Sa1–Sa8) übertragen, dass die Funksendeempfänger (90) um eine Referenzachse (St) herum angeordnet sind, welche orthogonal zu einer Untergrundebene (F) des mobilen Roboters (R) verläuft, dass die Außenüberwachungsvorrichtung (W) die Richtung des Zielobjekts (D) unter Verwendung einer Marke (T) misst, welche an dem Zielobjekt (D) vorgesehen ist, und dass die Marke (T) nach Maßgabe der Funkwelle von den Funksendeempfängern (90) ein Empfangssignal an den mobilen Roboter (R) zurückgibt, um die Erfassung der Marke (T) innerhalb der erfassbaren Bereiche (Sa1–Sa8) zu ermöglichen.
  7. Zielobjekterfassungssystem (A) nach Anspruch 1, dadurch gekennzeichnet, dass die Marke (T) ein Empfangssignal an den mobilen Roboter (R) überträgt, welches anzeigt, dass die Marke (T) das Lichtsignal von dem mobilen Roboter (R) empfangen hat, und dass der mobile Roboter (R) die Richtung des Zielobjekts (D) auf Grundlage des Empfangssignals misst.
  8. Zielobjekterfassungssystem (A) nach Anspruch 6, dadurch gekennzeichnet, dass die Marke (T) an den mobilen Roboter (R) ein Empfangssignal überträgt, welches anzeigt, dass die Marke (T) die Funkwelle von dem mobilen Roboter (R) empfangen hat, und wobei der mobile Roboter (R) die Richtung des Zielobjekts (D) auf Grundlage des Empfangssignals misst.
  9. Zielobjekterfassungssystem (A) nach Anspruch 1, dadurch gekennzeichnet, dass das Lichtsignal eine Sender-ID zum Identifizieren des Lichtsenders enthält und dass die Marke (T) an den mobilen Roboter (R) das Empfangssignal zurückgibt, welches die in dem empfangenen Lichtsignal enthaltene Sender-ID umfasst, und dass die Außenüberwachungsvorrichtung (W) die Richtung des Zielobjekts (D) auf Grundlage der Sender-ID und den Abstand zu dem Zielobjekt (D) auf Grundlage der Intensität des Empfangssignals misst.
  10. Zielobjekterfassungssystem (A) nach Anspruch 1, dadurch gekennzeichnet, dass die Außenüberwachungsvorrichtung (W) ferner einen Funksendeempfänger (90) umfasst, welcher ein Funksignal sendet, um zu überprüfen, ob sich das Zielobjekt (D) in der Umgebung des mobilen Roboters (R) befindet oder nicht.
  11. Zielobjekterfassungssystem (A) nach Anspruch 1, dadurch gekennzeichnet, dass der Bestrahlungsbereich des Lichtsignals in Bezug auf die jeweiligen erfassbaren Bereiche (Sa1–Sa3), welche vor dem Roboter (R) angeordnet sind, schmaler ist als der Bestrahlungsbereich des Lichtsignals bezüglich der übrigen erfassbaren Bereiche (Sa4–Sa8).
  12. Zielobjekterfassungssystem (A) nach Anspruch 1, dadurch gekennzeichnet, dass eine Kamera (C) an dem Kopfteil (R1) des mobilen Roboters (R) vorgesehen ist und dass der Bestrahlungsbereich des Lichtsignals bezüglich der jeweiligen erfassbaren Bereiche (Sa1–Sa3), welche vor dem Roboter (R) angeordnet sind, schmaler ist als der Bestrahlungsbereich des Lichtsignals bezüglich der übrigen erfassbaren Bereiche (Sa4–Sa8).
DE102005014719A 2004-03-31 2005-03-31 Außenüberwachungsvorrichtung für einen mobilen Roboter Expired - Fee Related DE102005014719B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-106794 2004-03-31
JP2004106794A JP4477924B2 (ja) 2004-03-31 2004-03-31 移動ロボットの外部検出装置

Publications (2)

Publication Number Publication Date
DE102005014719A1 DE102005014719A1 (de) 2005-12-29
DE102005014719B4 true DE102005014719B4 (de) 2010-08-19

Family

ID=35055431

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005014719A Expired - Fee Related DE102005014719B4 (de) 2004-03-31 2005-03-31 Außenüberwachungsvorrichtung für einen mobilen Roboter

Country Status (4)

Country Link
US (1) US7761231B2 (de)
JP (1) JP4477924B2 (de)
KR (1) KR100635593B1 (de)
DE (1) DE102005014719B4 (de)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4262196B2 (ja) * 2004-12-14 2009-05-13 本田技研工業株式会社 自律移動ロボット
KR100696134B1 (ko) * 2005-04-25 2007-03-22 엘지전자 주식회사 이동로봇의 위치 산출 시스템과 그를 이용한 충전대 복귀시스템 및 그 방법
DE602006009885D1 (de) * 2005-12-12 2009-12-03 Honda Motor Co Ltd Steuersystem für einen beweglichen Roboter mit Beinen
US7668797B2 (en) * 2006-04-07 2010-02-23 Gary Kuvich Active semiotic system for image and video understanding by robots and unmanned vehicles, methods and apparatus
JP4822926B2 (ja) * 2006-05-01 2011-11-24 本田技研工業株式会社 無線発信機の三次元位置を推定する方法、プログラムおよびシステム
KR100711559B1 (ko) * 2006-07-26 2007-04-27 김승우 홈 메스클린업 로봇 시스템 및 구현방법
JP4576445B2 (ja) * 2007-04-12 2010-11-10 パナソニック株式会社 自律移動型装置および自律移動型装置用プログラム
US20100192181A1 (en) * 2009-01-29 2010-07-29 At&T Intellectual Property I, L.P. System and Method to Navigate an Electonic Program Guide (EPG) Display
JP5319433B2 (ja) * 2009-07-16 2013-10-16 エンパイア テクノロジー ディベロップメント エルエルシー 撮影システム、移動体、撮影制御方法
US8879426B1 (en) * 2009-09-03 2014-11-04 Lockheed Martin Corporation Opportunistic connectivity edge detection
DE102010006982A1 (de) * 2010-02-05 2011-08-11 Siemens Aktiengesellschaft, 80333 Mobiles Lesegerät und Verfahren zum Auffinden eines mit einem aktiven Transponder markierten Objekts
KR101251184B1 (ko) * 2010-08-05 2013-04-08 서울대학교산학협력단 구동 명령을 이용한 비젼 트래킹 시스템 및 방법
JP5530902B2 (ja) * 2010-11-16 2014-06-25 株式会社エヌ・ティ・ティ・データ 警報装置、警報システムおよび警報出力方法
DE102012014249B4 (de) * 2012-07-19 2014-04-03 Audi Ag Schutzvorrichtung zur Bewegungsabsicherung eines über mehrere Achsen verstellbaren Roboterarms
KR20140025079A (ko) * 2012-08-21 2014-03-04 연세대학교 산학협력단 로봇, 로봇의 위치 추정 방법, 및 그 방법을 실행시키기 위한 프로그램이 기록된 기록 매체
JP6123307B2 (ja) * 2013-01-23 2017-05-10 株式会社デンソーウェーブ ロボット周辺への物体の侵入を監視する監視システムおよび監視方法
US9517175B1 (en) * 2013-03-14 2016-12-13 Toyota Jidosha Kabushiki Kaisha Tactile belt system for providing navigation guidance
JP5835254B2 (ja) * 2013-03-15 2015-12-24 株式会社安川電機 ロボットシステム、及び、ロボットシステムの制御方法
JP5668770B2 (ja) * 2013-03-15 2015-02-12 株式会社安川電機 ロボットシステム、及び、ロボットシステムの制御方法
EP2824522B1 (de) * 2013-05-06 2017-11-29 ABB Schweiz AG Menschliche Sicherheitsvorkehrung in mobilen Automatisierungsumgebungen
US9310800B1 (en) * 2013-07-30 2016-04-12 The Boeing Company Robotic platform evaluation system
WO2015060672A1 (ko) * 2013-10-25 2015-04-30 삼성전자주식회사 청소 로봇
US9626764B2 (en) * 2014-07-01 2017-04-18 Castar, Inc. System and method for synchronizing fiducial markers
US9501059B2 (en) * 2014-09-12 2016-11-22 Qualcomm Incorporated Pocket robot
US9914218B2 (en) * 2015-01-30 2018-03-13 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and apparatuses for responding to a detected event by a robot
USD872768S1 (en) * 2016-02-19 2020-01-14 Sony Corporation Robot having display screen with animated graphical user interface
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
CN109803795A (zh) * 2016-09-06 2019-05-24 高级智能系统股份有限公司 用于运输多件物品的移动工作站
USD862551S1 (en) * 2016-11-21 2019-10-08 Ninebot (Beijing) Tech. Co., Ltd Head for mobile service robot
KR20180064821A (ko) * 2016-12-06 2018-06-15 한화에어로스페이스 주식회사 경계면 설정 장치 및 방법
CN107330368A (zh) * 2017-05-27 2017-11-07 芜湖星途机器人科技有限公司 倾斜式多摄像头的机器人人脸识别器
CN107330366A (zh) * 2017-05-27 2017-11-07 芜湖星途机器人科技有限公司 倾斜式可调节多摄像头的机器人人脸识别器
USD818020S1 (en) * 2017-06-06 2018-05-15 The Provost, Fellows, Foundation Scholars and the other members of Board, of the College of the Holy and Undivided Trinity of Queen Elizabeth near Dublin Robot head
DE102017123295A1 (de) * 2017-10-06 2019-04-11 Pilz Gmbh & Co. Kg Sicherheitssystem zur Absicherung eines kooperativen Betriebs von Menschen, Robotern und Maschinen
KR101896477B1 (ko) * 2017-11-16 2018-09-07 영남대학교 산학협력단 스캐닝 라이다 장치 및 그 방법
CA3090827C (en) 2018-02-15 2021-01-19 Advanced Intelligent Systems Inc. Apparatus for supporting an article during transport
WO2019167203A1 (ja) * 2018-02-28 2019-09-06 本田技研工業株式会社 制御装置、作業機械及びプログラム
US10745219B2 (en) 2018-09-28 2020-08-18 Advanced Intelligent Systems Inc. Manipulator apparatus, methods, and systems with at least one cable
US10751888B2 (en) 2018-10-04 2020-08-25 Advanced Intelligent Systems Inc. Manipulator apparatus for operating on articles
KR102228866B1 (ko) * 2018-10-18 2021-03-17 엘지전자 주식회사 로봇 및 그의 제어 방법
US10966374B2 (en) 2018-10-29 2021-04-06 Advanced Intelligent Systems Inc. Method and apparatus for performing pruning operations using an autonomous vehicle
US10645882B1 (en) 2018-10-29 2020-05-12 Advanced Intelligent Systems Inc. Method and apparatus for performing pruning operations using an autonomous vehicle
US10676279B1 (en) 2018-11-20 2020-06-09 Advanced Intelligent Systems Inc. Systems, methods, and storage units for article transport and storage
CN110171005A (zh) * 2019-06-10 2019-08-27 杭州任你说智能科技有限公司 一种基于智能音箱的旅游机器人系统
USD972047S1 (en) 2020-02-12 2022-12-06 The Provost, Fellows, Foundation Scholars, And The Other Members Of Board Of The College Of The Holy And Undivided Trinity Of Queen Elizabeth, Near Dublin Robot

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5165064A (en) * 1991-03-22 1992-11-17 Cyberotics, Inc. Mobile robot guidance and navigation system
US5819008A (en) * 1995-10-18 1998-10-06 Rikagaku Kenkyusho Mobile robot sensor system
JP2001062760A (ja) * 1999-08-30 2001-03-13 Honda Motor Co Ltd 脚式歩行ロボット
US20020060783A1 (en) * 2000-11-17 2002-05-23 Chiaki Aoyama Distance measuring apparatus and method employing two image taking devices having different measurement accuracy
JP2002154084A (ja) * 2000-11-17 2002-05-28 Honda Motor Co Ltd ロボットの頭部
JP2003266353A (ja) * 2002-03-18 2003-09-24 Sony Corp ロボット装置及びその制御方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4772875A (en) * 1986-05-16 1988-09-20 Denning Mobile Robotics, Inc. Intrusion detection system
KR0152096B1 (ko) * 1992-10-26 1998-10-15 윤종용 이동감시용 로보트의 장애물 감지장치
JP3474372B2 (ja) 1995-10-18 2003-12-08 理化学研究所 センサ・システム
WO2002045913A1 (fr) * 2000-11-20 2002-06-13 Sony Corporation Dispositif et procede permettant de commander le fonctionnement d'un robot a jambes et ensemble robot
CA2445161A1 (en) * 2001-05-08 2002-11-14 Hill-Rom Services, Inc. Article locating and tracking system
US7242306B2 (en) * 2001-05-08 2007-07-10 Hill-Rom Services, Inc. Article locating and tracking apparatus and method
JP2002350555A (ja) 2001-05-28 2002-12-04 Yamaha Motor Co Ltd 人検出装置
JP2004042148A (ja) 2002-07-09 2004-02-12 Mitsubishi Heavy Ind Ltd 移動ロボット
WO2004025947A2 (en) * 2002-09-13 2004-03-25 Irobot Corporation A navigational control system for a robotic device
AU2003900861A0 (en) * 2003-02-26 2003-03-13 Silverbrook Research Pty Ltd Methods,systems and apparatus (NPS042)
US20040223629A1 (en) * 2003-05-06 2004-11-11 Viswis, Inc. Facial surveillance system and method
US7286624B2 (en) * 2003-07-03 2007-10-23 Navcom Technology Inc. Two-way RF ranging system and method for local positioning

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5165064A (en) * 1991-03-22 1992-11-17 Cyberotics, Inc. Mobile robot guidance and navigation system
US5819008A (en) * 1995-10-18 1998-10-06 Rikagaku Kenkyusho Mobile robot sensor system
JP2001062760A (ja) * 1999-08-30 2001-03-13 Honda Motor Co Ltd 脚式歩行ロボット
US20020060783A1 (en) * 2000-11-17 2002-05-23 Chiaki Aoyama Distance measuring apparatus and method employing two image taking devices having different measurement accuracy
JP2002154084A (ja) * 2000-11-17 2002-05-28 Honda Motor Co Ltd ロボットの頭部
JP2003266353A (ja) * 2002-03-18 2003-09-24 Sony Corp ロボット装置及びその制御方法

Also Published As

Publication number Publication date
JP4477924B2 (ja) 2010-06-09
US20050222713A1 (en) 2005-10-06
KR20060045020A (ko) 2006-05-16
JP2005288623A (ja) 2005-10-20
KR100635593B1 (ko) 2006-10-17
US7761231B2 (en) 2010-07-20
DE102005014719A1 (de) 2005-12-29

Similar Documents

Publication Publication Date Title
DE102005014719B4 (de) Außenüberwachungsvorrichtung für einen mobilen Roboter
DE102005014718B4 (de) Positionserfassungsvorrichtung für ein mobiles Objekt
DE102005014146B4 (de) Zielobjekt-Erfassungsvorrichtung
EP1672456B1 (de) Zielobjektdetektionsgerät und Roboter damit
US8115814B2 (en) Mobile tracking system, camera and photographing method
EP3371800B1 (de) Verfahren und vorrichtung zur auswahl und übertragung von sensordaten von einem ersten zu einem zweiten kraftfahrzeug
DE10145150B4 (de) Verfahren zur Einstellung eines Kurses eines mobilen Roboters
CN106527426A (zh) 一种室内多目轨迹规划系统及其方法
EP1842382B1 (de) Verfahren, Vorrichtung, Computersoftware und entsprechender Datenträger zum Bestimmen einer Objekteigenschaft eines Objekts mit Hilfe von Bildern, die mit Hilfe einer Kamera erfasst werden
DE60207655T2 (de) Vorrichtung zum Anzeigen der Umgebung eines Fahrzeuges und System zur Bildbereitstellung
CN106778656A (zh) 一种基于ToF相机的公交车客流量统计系统
DE102016202920A1 (de) Gemeinsam genutzte Fahrzeugkamera
DE60117093T2 (de) System zur Kartenbilddarstellung
US20050041839A1 (en) Picture taking mobile robot
DE102004012811A1 (de) Vorrichtung zum Überwachen der Umgebung eines Fahrzeugs
DE112005002337T5 (de) Erfassen von Bewegungen von mit RFID-Plaketten versehenen Objekten über mehrere Plaketten/Leseeinrichtungen
DE112019001973T5 (de) Fahrzeugfernbedienungssystem
DE112013004569T5 (de) Verfahren zur Verwendung eines tragbaren Geräts zum Auswählen, festen Anvisieren und Verfolgen eines Retroreflektors mit einem Lasertracker
DE112016007236T5 (de) System und Verfahren für die Zusammenarbeit einer feststehenden Kamera und einer unbemannten mobilenVorrichtung zur Verbesserung der Identifikationssicherheit eines Objektes
DE102013019647A1 (de) Indoor-Positionsbestimmung mittels Kamera und optischem Signal
DE112018003270T5 (de) Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und programm
DE102015221183A1 (de) Verfahren und Vorrichtung zur Zuordnung von Verkehrsteilnehmern und Kommunikations-Identifikatoren
EP1426784A1 (de) Vorrichtung und Verfahren zur Positionsbestimmung
CN206400573U (zh) 一种基于ToF相机的公交车客流量统计系统
CN113670202A (zh) 三维扫描系统和三维扫描方法

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20131001