DE112017004512T5 - Autonom agierender Roboter, der einen natürlichen Abstand hält - Google Patents

Autonom agierender Roboter, der einen natürlichen Abstand hält Download PDF

Info

Publication number
DE112017004512T5
DE112017004512T5 DE112017004512.6T DE112017004512T DE112017004512T5 DE 112017004512 T5 DE112017004512 T5 DE 112017004512T5 DE 112017004512 T DE112017004512 T DE 112017004512T DE 112017004512 T5 DE112017004512 T5 DE 112017004512T5
Authority
DE
Germany
Prior art keywords
robot
target object
user
distance
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017004512.6T
Other languages
English (en)
Inventor
Kaname HAYASHI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groove X Inc
Original Assignee
Groove X Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X Inc filed Critical Groove X Inc
Publication of DE112017004512T5 publication Critical patent/DE112017004512T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Ein Roboter 100 umfasst eine Aufnahmeeinheit, die eine Peripherie aufnimmt, und eine Bewegungssteuereinheit, die einen Abstand von einem aufgenommenen Zielobjekt 414 entsprechend einer Größe des Zielobjekts 414 steuert. Der Roboter 100 kann ferner eine Betriebssteuereinheit umfassen, die einen Betrieb eines Kopfabschnitts steuert, und eine Erkennungseinheit, die ein Gesicht des aufgenommenen Zielobjekts 414 erkennt. Die Betriebssteuereinheit kann den Betrieb des Kopfabschnitts so steuern, dass eine Sichtlinie des Kopfabschnitts einen nach oben gerichteten Blickwinkel θ erreicht, der auf das Gesicht des Zielobjekts 414 gerichtet ist. Die Bewegungssteuereinheit kann den Abstand vom Zielobjekt 414 entsprechend einer Größe des Zielobjekts 414 steuern.

Description

  • Technischer Bereich
  • Die vorliegende Erfindung bezieht sich auf einen Roboter, der autonom eine Handlung in Übereinstimmung mit einem internen Zustand oder einer externen Umgebung auswählt.
  • Stand der Technik
  • Entwicklung eines autonom agierenden Roboters, der dem Menschen Interaktion und Trost bietet, wie beispielsweise ein humanoider Roboter oder ein Haustierroboter (siehe beispielsweise Patentschrift 1). Obwohl diese Art Roboter nach einem Steuerungsprogramm arbeitet, ruft er eine Verhaltensentwicklung durch autonomes Lernen basierend auf einer peripheren Situation hervor, wobei der Roboter zu einer Existenz neben einem Lebewesen werden kann.
  • Referenzliste
  • Patentliteratur
  • Patentschrift 1: JP-A-2000-323219
  • Zusammenfassung der Erfindung
  • Technisches Problem
  • Obwohl sich die Robotertechnologie in den letzten Jahren rasch weiterentwickelt hat, ist die Technologie dennoch nicht so weit fortgeschritten, dass sie einen haustierähnlichen Begleiter präsentieren könnte. So leistungsstark ein Roboter auch sein mag, er verfügt nicht über die Wärme von Fleisch und Blut eines Lebewesens. Das liegt daran, dass ein Roboter auf der Grundlage einer solchen festen Idee entwickelt wird und eine Operationssteuerung durchgeführt wird.
  • Die Erfindung, die auf der Grundlage einer Erkenntnis des bisher beschriebenen Problems vervollständigt wurde, hat die Hauptaufgabe, die Steuerungstechnik zur Belebung eines Roboters bereitzustellen.
  • Lösung des Problems
  • Ein Aspekt der Erfindung ist ein autonom agierender Roboter. Der Roboter umfasst eine Aufnahmeeinheit, die eine Peripherie aufnimmt, und eine Bewegungssteuereinheit, die einen Abstand von einem aufgenommenen Zielobjekt in Abhängigkeit von einer Größe des Zielobjekts steuert.
  • Ein weiterer Aspekt der Erfindung ist ein autonom agierendes Aktionssteuerungsprogramm für einen Roboter. Das Programm veranlasst einen Rechner zur Umsetzung einer Funktion zur Erfassung eines aufgenommenen Peripheriebildes eines Roboters, einer Funktion zur Identifizierung eines festgelegten Zielobjekts im aufgenommenen Bild, einer Funktion zur Berechnung einer Positionsbeziehung, die der Roboter und ein aufgenommenes Zielobjekt gemäß einer Größe des Zielobjekts annehmen sollten, und einer Funktion der Bewegungssteuerung des Roboters, um die errechnete Positionsbeziehung umzusetzen.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß der Erfindung kann die Steuerungstechnik zur Belebung eines Roboters bereitgestellt werden.
  • Figurenliste
    • [1] 1 ist eine Zeichnung, die Außenansichten eines Roboters gemäß einer Ausführungsform darstellt.
    • [2] 2 ist eine Schnittansicht, die schematisch eine Struktur des Roboters darstellt.
    • [3] 3 ist eine Seitenansicht, die die Struktur des Roboters darstellt, der auf einem Rahmen zentriert ist.
    • [4] 4 ist ein Konfigurationsdiagramm eines Robotersystems.
    • [5] 5 ist eine schematische Ansicht einer Emotionskarte.
    • [6] 6 ist ein Hardware-Konfigurationsdiagramm des Roboters.
    • [7] 7 ist ein Funktionsblockdiagramm des Robotersystems.
    • [8] 8 ist eine schematische Ansicht, die ein Verfahren zum Steuern der Entfernung von einem Benutzer darstellt.
    • [9] 9 ist eine Zeichnung, die ein Beispiel für ein Verfahren zur Einstellung eines nach oben gerichteten Blickwinkels zeigt.
    • [10] 10 ist eine Zeichnung, die weitere Beispiele für Verfahren zur Einstellung des nach oben gerichteten Blickwinkels zeigt.
    • [11] 11 ist eine Zeichnung, die eine Einstelltabelle darstellt, auf die bei der Bestimmung des nach oben gerichteten Blickwinkels Bezug genommen wird.
    • [12] 12 ist ein Flussdiagramm, das ein Beispiel für eine Operationssteuerung des Roboters zeigt.
  • Beschreibung der Ausführungsformen
  • Im Folgenden wird unter Bezugnahme auf die Figuren eine Ausführungsform der Erfindung ausführlich beschrieben. In der folgenden Beschreibung kann aus Gründen der Übersichtlichkeit eine Positionsbeziehung jeder Struktur mit einem in den Figuren gezeigten Zustand als Bezug ausgedrückt werden. Außerdem werden dieselben Bezugszeichen in der folgenden Ausführungsform und modifizierten Beispielen davon praktisch identischen Komponenten zugeordnet, und eine Beschreibung davon kann gegebenenfalls ausgelassen werden.
  • 1 ist eine Zeichnung, die Außenansichten eines Roboters 100 gemäß der Ausführungsform darstellt. 1 (a) ist eine Vorderansicht und 1(b) ist eine Seitenansicht.
  • Der Roboter 100 in dieser Ausführungsform ist ein autonom agierender Roboter, der eine Handlung oder Geste basierend auf einer äußeren Umgebung und einem internen Zustand bestimmt. Die äußere Umgebung wird mit verschiedenen Arten von Sensoren wie einer Kamera oder einem Thermosensor erkannt. Der interne Zustand wird als verschiedene Parameter quantifiziert, die Emotionen des Roboters 100 ausdrücken. Diese werden im Folgenden beschrieben.
  • Bei einer Innenraumaktion als Voraussetzung hat der Roboter 100 beispielsweise einen Innenraum eines Heims eines Besitzers als Aktionsbereich. Nachfolgend wird ein mit dem Roboter 100 verbundener Mensch als „Benutzer“ bezeichnet, und ein Benutzer, der ein Mitglied eines Hauses bildet, zu dem der Roboter 100 gehört, wird als „Besitzer“ bezeichnet.
  • Ein Körper 104 des Roboters 100 hat eine überall abgerundete Form und umfasst eine Außenhaut, die aus einem weichen Material mit Elastizität gebildet ist, wie beispielsweise Urethan, Gummi, einem Harz oder einer Faser. Der Roboter 100 kann bekleidet sein. Indem der Körper 104, der abgerundet, weich und angenehm anzufassen ist, angenommen wird, vermittelt der Roboter 100 einem Benutzer ein Gefühl von Sicherheit und ein angenehmes Tastgefühl.
  • Das Gesamtgewicht des Roboters 100 beträgt 15 Kilogramm oder weniger, vorzugsweise 10 Kilogramm oder weniger und noch bevorzugter 5 Kilogramm oder weniger. Ein Großteil der Babys beginnt im Alter von 13 Monaten alleine zu gehen. Das Durchschnittsgewicht eines 13 Monate alten Babys beträgt für Jungen etwas mehr als 9 kg und für Mädchen etwas weniger als 9 kg. Wenn daher das Gesamtgewicht des Roboters 100 10 kg oder weniger beträgt, kann ein Benutzer den Roboter 100 mit einem Kraftaufwand tragen, der praktisch dem Tragen eines Babys, das nicht alleine gehen kann, entspricht. Das durchschnittliche Gewicht eines weniger als 2 Monate alten Babys beträgt sowohl für Jungen als auch für Mädchen weniger als 5 kg. Wenn daher das Gesamtgewicht des Roboters 100 5 kg oder weniger beträgt, kann ein Benutzer den Roboter 100 mit einem Kraftaufwand tragen, der praktisch dem Tragen eines sehr jungen Babys entspricht.
  • Die Annehmlichkeiten, die sich einem Benutzer bieten sind, dass der Roboter 100 leicht zu tragen ist, und dass er getragen werden will, werden durch die Attribute des entsprechenden Gewichts und die Rundheit, Weichheit und die angenehme Berührung realisiert. Aus den gleichen Gründen beträgt die Höhe des Roboters 100 wünschenswerterweise 1,2 Meter oder weniger oder vorzugsweise 0,7 Meter oder weniger. In dieser Ausführungsform ist es ein wichtiges Konzept des Roboters 100, dass er getragen werden kann.
  • Der Roboter 100 umfasst drei Räder für das Fahren auf drei Rädern. Wie in den Zeichnungen gezeigt, umfasst der Roboter 100 ein Paar Vorderräder 102 (ein linkes Rad 102a und ein rechtes Rad 102b) und ein Hinterrad 103. Die Vorderräder 102 sind Antriebsräder und das Hinterrad 103 ist ein angetriebenes Rad. Obwohl die Vorderräder 102 keinen Lenkmechanismus haben, können die Drehzahl und die Drehrichtung individuell gesteuert werden. Das Hinterrad 103 ist aus einem sogenannten Omni-Rad gebildet und dreht sich frei, um zu bewirken, dass sich der Roboter 100 vorwärts und rückwärts sowie nach links und rechts bewegt. Durch Steuern, so dass die Drehzahl des rechten Rades 102b größer als die des linken Rades 102a ist, kann sich der Roboter 100 nach links oder gegen den Uhrzeigersinn drehen. Durch Steuern, so dass die Drehzahl des linken Rades 102a größer als die des rechten Rades 102b ist, kann sich der Roboter 100 nach rechts oder im Uhrzeigersinn drehen.
  • Die Vorderräder 102 und das Hinterrad 103 können unter Verwendung eines Antriebsmechanismus (eines Schwenkmechanismus und eines Verbindungsmechanismus) vollständig in dem Körper 104 untergebracht werden. Ein größerer Teil jedes Rades wird vom Körper 104 auch beim Fahren verborgen, wenn jedoch jedes Rad vollständig im Körper 104 untergebracht ist, befindet sich der Roboter 100 in einem Zustand, in dem er sich nicht bewegen kann. Das heißt, der Körper 104 senkt sich ab und sitzt auf einer Bodenfläche, begleitet von einer Betätigung der untergebrachten Räder. Im Sitzzustand kommt eine in einem Bodenabschnitt des Körpers 104 ausgebildete flache Sitzfläche 108 (eine Bodenunterseite) mit der Bodenfläche F in Kontakt.
  • Der Roboter 100 hat zwei Arme 106. Die Arme 106 haben keine Funktion zum Ergreifen eines Objekts. Die Arme 106 können einfache Aktionen ausführen, wie beispielsweise Anheben, Winken und Schwenken. Die beiden Arme 106 können auch einzeln gesteuert werden.
  • Zwei Augen 110 sind in einem Kopfabschnitt der Vorderfläche (einem Gesicht) des Roboters 100 angeordnet. Eine hochauflösende Kamera 402 ist im Auge 110 integriert. Das Auge kann auch mit Hilfe eines Flüssigkristallelements oder einem organischen EL-Element ein Bild anzeigen. Der Roboter 100 enthält einen Lautsprecher und kann auch eine einfache Sprache wiedergeben. Ein Horn 112 ist an einem Scheitelabschnitt des Roboters 100 angebracht. Da der Roboter 100, wie zuvor beschrieben, leicht ist, kann ein Benutzer den Roboter 100 auch durch Ergreifen des Horns 112 anheben.
  • Eine omnidirektionale Kamera 400 (eine erste Kamera) ist in das Horn 112 des Roboters 100 dieser Ausführungsform integriert. Die omnidirektionale Kamera 400 kann mit einem Fischaugen-Objektiv in alle Richtungen auf- und abwärts sowie links und rechts (360 Grad: insbesondere praktisch alle Bereiche über dem Roboter 100) auf einmal aufnehmen (siehe 8). Die im Auge 110 integrierte hochauflösende Kamera 402 (eine zweite Kamera) kann nur in einer Richtung vor dem Roboter 100 aufnehmen. Ein Aufnahmebereich der omnidirektionalen Kamera 400 ist groß, aber die Auflösung ist geringer als bei der hochauflösenden Kamera 402.
  • Darüber hinaus beinhaltet der Roboter 100 verschiedene Sensoren, wie beispielsweise einen Temperatursensor (Thermosensor), der eine periphere Temperaturverteilung in ein Bild umwandelt, ein Mikrofonarray mit einer Vielzahl von Mikrofonen, einen Formmesssensor (Tiefensensor), der eine Form eines Messziels messen kann, und einen Ultraschallwellensensor.
  • 2 ist eine Schnittansicht, die schematisch eine Struktur des Roboters 100 darstellt. 3 ist eine Seitenansicht, die die Struktur des Roboters 100 darstellt, der auf einem Rahmen zentriert ist. 2 entspricht einem Abschnitt, der entlang eines A-A-Pfeils von 3 betrachtet wird.
  • Wie in 2 gezeigt ist, umfasst der Körper 104 des Roboters 100 einen Basisrahmen 308, einen Hauptkörperrahmen 310, ein Paar Radabdeckungen 312 aus Harz und eine Außenhaut 314. Der Basisrahmen 308 ist aus Metall gebildet und trägt einen inneren Mechanismus sowie die Konfiguration einer Welle des Körpers 104. Der Basisrahmen 308 ist aus einer oberen Platte 332 und einer unteren Platte 334 aufgebaut, die vertikal durch eine Vielzahl von Seitenplatten 336 verbunden sind. Zwischen der Vielzahl der Seitenplatten 336 ist ein ausreichender Abstand vorgesehen, so dass eine Belüftung möglich ist. Eine Batterie 118, eine Steuerschaltung 342 und verschiedene Arten von Stellgliedern und dergleichen sind innerhalb des Basisrahmens 308 untergebracht.
  • Der Hauptkörperrahmen 310 ist aus einem Harzmaterial gebildet und umfasst einen Kopfabschnittsrahmen 316 und einen Rumpfabschnittsrahmen 318. Der Kopfabschnittrahmen 316 hat eine hohle Halbkugelform und bildet einen Kopfabschnittrahmen des Roboters 100. Der Rumpfabschnittrahmen 318 hat eine gestufte zylindrische Form und bildet ein Rumpfabschnitttragwerk des Roboters 100. Der Rumpfabschnittsrahmen 318 ist fest mit dem Basisrahmen 308 verbunden. Der Kopfabschnittrahmen 316 ist an einem oberen Endabschnitt des Rumpfabschnittrahmens 318 so angebracht, dass er relativ verschiebbar ist.
  • Drei Wellen, nämlich eine Gierwelle 321, eine Nickwelle 322 und eine Wickelwelle 323, und die Stellglieder 324 und 325 zum drehbaren Antreiben jeder Welle sind in dem Kopfabschnittsrahmen 316 angeordnet. Das Stellglied 324 umfasst einen Servomotor zum Antreiben der Gierwelle 321. Das Stellglied 325 umfasst mehrere Servomotoren zum Antreiben der Nickwelle 322 und der Wickelwelle 323. Die Gierwelle 321 wird für eine Kopfbewegungsaktion angetrieben, die Nickwelle 322 wird für eine Nickbewegung, eine nach oben und eine nach unten gerichtete Blickbewegung angetrieben, und die Wickelwelle 323 wird für eine Kopfkippaktion angetrieben.
  • Eine Platte 326, die die Gierwelle 321 trägt, ist an einem oberen Abschnitt des Kopfabschnittrahmens 316 befestigt. Eine Vielzahl von Belüftungslöchern 327 zum Sichern der Belüftung zwischen den oberen und unteren Abschnitten ist in der Platte 326 ausgebildet.
  • Eine Basisplatte 328 aus Metall ist angeordnet, um den Kopfabschnittrahmen 316 und einen inneren Mechanismus davon von unten zu stützen. Die Basisplatte 328 ist über ein Gelenk 330 mit der oberen Platte 332 (dem Grundrahmen 308) verbunden. Eine Stützbasis 335 ist auf der Basisplatte 328 angeordnet, und die Stellglieder 324 und 325 und ein Quervernetzungsmechanismus 329 (ein Pantagraphenmechanismus) werden von der Stützbasis 335 gestützt. Der Quervernetzungsmechanismus 329 verbindet die Stellglieder 325 und 326 vertikal, und kann bewirken, dass sich ein Abstand zwischen den Stellgliedern 325 und 326 ändert.
  • Genauer gesagt, ist die Wickelwelle 323 des Stellglieds 325 über ein in den Zeichnungen nicht berücksichtigtes Getriebe mit der Stützfläche 335 verbunden. Die Neigungswelle 322 des Stellglieds 325 ist mit einem unteren Endabschnitt des Quervernetzungsmechanismus 329 verbunden. Währenddessen ist das Stellglied 324 an einem oberen Endabschnitt des Quervernetzungsmechanismus 329 befestigt. Die Gierwelle 321 des Stellglieds 324 ist mit der Platte 326 verbunden. Ein in den Zeichnungen nicht berücksichtigter Drehantriebsmechanismus zum Antreiben des Quervernetzungsmechanismus 329 zum Verlängern- und Zusammenziehen ist in dem Stellglied 325 angeordnet.
  • Gemäß dieser Konfigurationsart können das Stellglied 325 und der Kopfabschnittsrahmen 316 integral zur Drehung (Walzen) veranlasst werden, indem die Wickelwelle 323 veranlasst wird sich zu drehen, wodurch eine Kopfkippaktion umgesetzt werden kann. Auch der Quervernetzungsmechanismus 329 und der Kopfabschnittsrahmen 316 können integral zur Drehung (Neigung) veranlasst werden, indem die Nickwelle 322 veranlasst wird, sich zu drehen, wodurch eine Nickbewegung umgesetzt werden kann. Die Platte 326 und der Kopfabschnittsrahmen 316 können integral zur Drehung (Gieren) veranlasst werden, indem die Gierwelle 321 veranlasst wird sich zu drehen, wodurch eine Schüttelbewegung des Kopfes umgesetzt werden kann. Ferner kann eine Verlängerung und Stauchung des Halses umgesetzt werden, indem der Quervernetzungsmechanismus 329 veranlasst wird, sich auszudehnen, bzw. zusammenzuziehen.
  • Der Rumpfabschnittrahmen 318 beherbergt den Basisrahmen 308 und einen Radantriebsmechanismus 370. Wie in 3 dargestellt, umfasst der Radantriebsmechanismus 370 einen Vorderradantriebsmechanismus 374 und einen Hinterradantriebsmechanismus 376. Ein oberer Halbabschnitt 380 des Rumpfabschnittrahmens 318 ist von glatter gebogener Form, um eine runde Kontur des Körpers zu bilden. Der obere Hababschnitt 380 ist so ausgebildet, dass er sich nach und nach zu einem oberen Abschnitt verjüngt, der einem Halsabschnitt entspricht. Ein unterer Halbabschnitt des Rumpfabschnittsrahmens 318 ist von geringer Breite, um einen Gehäuseraum S des Vorderrades 102 zwischen den Radabdeckungen 312 zu bilden. Eine Begrenzung des oberen Halbabschnitts 380 und des unteren Halbabschnitts 382 ist stufenförmig.
  • Linke und rechte Seitenwände, die den unteren Halbabschnitt 382 bilden und parallel zueinander verlaufen, werden von einer nachstehend beschriebenen Schwenkwelle 378 des Vorderradantriebsmechanismus 374 durchbrochen und stützen die Schwenkwelle 378. Die untere Platte 334 ist so angeordnet, dass sie einen Öffnungsabschnitt am unteren Ende des unteren Halbabschnitts 382 verschließt. Mit anderen Worten, der Basisrahmen 308 ist an einem unteren Endabschnitt des Rumpfabschnittsrahmens 318 befestigt und wird von diesem gestützt.
  • Die beiden Radabdeckungen 312 sind so angeordnet, dass sie den unteren Halbabschnitt 382 des Rumpfabschnittsrahmens 318 links und rechts abdecken. Die Radabdeckung 312 ist aus Harz gebildet und so befestigt, dass sie eine glatte Außenfläche (gebogene Fläche) bildet, die durchgehend zum oberen Halbabschnitt 380 des Rumpfabschnittsrahmens 318 verläuft. Ein oberer Endabschnitt der Radabdeckung 312 ist entlang eines unteren Endabschnitts des oberen Halbabschnitts 380 verbunden. Deswegen wird der nach unten geöffnete Gehäuseraum S zwischen der Seitenwand des unteren Halbabschnitts 382 und der Radabdeckung 312 gebildet.
  • Die Außenhaut 314 ist aus Urethangummi gebildet und bedeckt den Hauptkörperrahmen 310 und die Radabdeckungen 312 von einer Außenseite. Die Arme 106 sind einstückig mit der Außenhaut 314 geformt. Ein Öffnungsabschnitt 390 zum Einführen von Außenluft ist in einem oberen Endabschnitt der Außenhaut 314 angeordnet.
  • Der Vorderradantriebsmechanismus 374 umfasst einen Drehantriebsmechanismus zum Drehen des Vorderrades 102 und einen Gehäusebetätigungsmechanismus zum Ein- und Ausfahren des Vorderrades 102 aus dem Gehäuseraum S. Das heißt, der Vorderradantriebsmechanismus 374 umfasst die Schwenkwelle 378 und ein Stellglied 379. Das Vorderrad 102 weist in einem zentralen Abschnitt einen Direktantriebsmotor 396 (nachfolgend als „DD-Motor“ bezeichnet) auf. Der DD-Motor 396 weist eine äußere Rotoranordnung auf, wobei ein Stator an einer Achse 398 befestigt ist und ein Rotor koaxial an einer Felge 397 des Vorderrades 102 befestigt ist. Die Achse 398 ist über einen Arm 350 mit der Gelenkwelle 378 integriert. Ein Lager 352, durch das die Schwenkwelle 378 hindurchgeht und dass die Schwenkwelle 378 schwenkbar stützt, ist in einen unteren Abschnitt der Seitenwand des Rumpfabschnittsrahmens 318 eingebettet. Im Lager 352 ist eine Dichtungsanordnung (Lagerdichtung) zur hermetischen Abdichtung des Kofferraumabschnittsrahmens 318 innen und außen angeordnet. Das Vorderrad 102 kann durch einen Antrieb des Stellglieds 379 zwischen dem Gehäuseraum S und einer Außenseite hin und her bewegt werden.
  • Der Hinterradantriebsmechanismus 376 umfasst eine Schwenkwelle 354 und ein Stellglied 356. Zwei Arme 358 erstrecken sich von der Schwenkwelle 354, und eine Achse 360 ist integral mit den vorderen Enden der Arme 358 angeordnet. Das Hinterrad 103 ist so gelagert, dass es sich um die Achse 360 drehen kann. Ein in den Zeichnungen nicht aufgeführtes Lager, durch das die Schwenkwelle 354 hindurchgeht und dass die Schwenkwelle 354 schwenkbar trägt, ist in den unteren Abschnitt der Seitenwand des Rumpfabschnittsrahmens 318 eingebettet. Eine Wellenabdichtungsanordnung ist ebenfalls im Lager angeordnet. Das Hinterrad 103 kann durch einen Antrieb des Stellglieds 356 zwischen dem Gehäuseraum S und der Außenseite hin und her bewegt werden.
  • Beim Aufnehmen der Räder werden die Stellglieder 379 und 356 in eine Richtung angetrieben. Zu diesem Zeitpunkt schwenkt der Arm 350 auf der Schwenkwelle 378, und das Vorderrad 102 hebt sich von der Bodenfläche F ab. Außerdem schwenkt der Arm 358 auf der Schwenkwelle 354, und das Hinterrad 103 hebt sich von der Bodenfläche F ab. Deshalb senkt sich der Körper 104 ab, und die Sitzfläche 108 liegt auf der Bodenfläche F auf. Dadurch wird ein Sitzzustand des Roboters 100 umgesetzt. Durch den gegenläufigen Antrieb der Stellglieder 379 und 356 wird jedes Rad aus dem Gehäuseraum S herausgefahren, wodurch der Roboter 100 zum Stehen gebracht werden kann.
  • Ein Antriebsmechanismus zum Antreiben des Arms 106 beinhaltet einen in die Außenhaut 314 eingebetteten Draht 134 und eine Treiberschaltung 340 (Erregerschaltung) des Drahtes 134. Der Draht 134 ist aus einer Formgedächtnislegierungslinie in dieser Ausführungsform gebildet, zieht sich zusammen und härtet beim Erwärmen aus, entspannt und verlängert sich beim Abkühlen. Die von beiden Enden des Drahtes 134 ausgehenden Leitungen sind mit der Treiberschaltung 340 verbunden. Wenn ein Schalter der Treiberschaltung 340 aktiviert wird, wird der Draht 134 (Formgedächtnislegierungslinie) aktiviert.
  • Der Draht 134 ist so geformt oder eingewebt, dass er sich von der Außenhaut 314 bis zum Arm 106 erstreckt. Die Leitungen gehen von beiden Enden des Drahtes 134 in den Rumpfabschnittrahmen 318. Jeweils ein Draht 134 kann in einer linken und rechten Seite der Außenhaut 314 oder mehrere Drähte 134 können parallel in jeder der linken und rechten Seiten der Außenhaut 314 angeordnet sein. Der Arm 106 kann durch Aktivieren des Drahtes 134 angehoben werden, und der Arm 106 kann durch Unterbrechen der Aktivierung abgesenkt werden.
  • Ein Winkel einer Sichtlinie (siehe gestrichelte Pfeile) des Roboters 100 kann durch Steuern eines Drehwinkels der Neigungswelle 322 eingestellt werden. In der Ausführungsform wird aus Gründen der Bequemlichkeit eine Richtung einer imaginären Geraden, die durch die Neigungswelle 322 und das Auge 110 verläuft, als eine Richtung der Sichtlinie betrachtet. Eine optische Achse der hochauflösenden Kamera 402 entspricht der Sichtlinie. Um einen nachstehend beschriebenen Berechnungsprozess zu erleichtern, werden außerdem eine gerade Linie, die die omnidirektionale Kamera 400 und die Neigungswelle 322 verbindet, und die Sichtlinie so festgelegt, dass sie einen rechten Winkel bilden.
  • An der Vorder- und Rückseite des Kopfabschnittsrahmens 316 sind Schlitze 362 und 364 angeordnet, durch die der obere Endabschnitt des Rumpfabschnittsrahmens 318 eingeführt werden kann. Dadurch kann ein Bewegungsbereich (Drehbereich) des Kopfabschnittsrahmens 316, der auf der Neigungswelle 322 zentriert ist, vergrößert werden. In der Ausführungsform wird der Bewegungsbereich auf 90 Grad festgelegt, was 45 Grad nach oben und unten aus einem Zustand heraus beträgt, in dem die Sichtlinie horizontal ist. Das bedeutet, dass ein Grenzwert eines Winkels, bei dem die Sichtlinie des Roboters 100 nach oben gerichtet ist (ein Blickwinkel nach oben), 45 Grad beträgt, und ein Grenzwert eines Winkels, bei dem die Sichtlinie nach unten gerichtet ist (ein Blickwinkel nach unten), ebenfalls 45 Grad beträgt.
  • 4 ist ein Konfigurationsdiagramm eines Robotersystems 300.
  • Das Robotersystem 300 umfasst den Roboter 100, einen Server 200 und eine Vielzahl von externen Sensoren 114. Das Vielzahl der externen Sensoren 114 (externe Sensoren 114a, 114b, und so weiter bis 114n) werden im Voraus in einem Haus installiert. Der externe Sensor 114 kann an einer Wandfläche des Hauses befestigt oder auf einem Boden platziert werden. Die Positionskoordinaten des externen Sensors 114 werden auf dem Server 200 registriert. Die Positionskoordinaten, die als Aktionsbereich des Roboters 100 vorgesehen sind, werden im Haus als x, y-Koordinaten definiert.
  • Der Server 200 wird im Haus eingerichtet. In dieser Ausführungsform entsprechen der Server 200 und der Roboter 100 Eins-zu-Eins. Der Server 200 bestimmt eine Basisaktion des Roboters 100 auf der Grundlage von Informationen, die von den in dem Roboter 100 enthaltenen Sensoren und der Vielzahl der externen Sensoren 114 empfangen werden. Der externe Sensor 114 dient zur Verstärkung von Sinnesorganen des Roboters 100 und der Server 200 dient zur Verstärkung der Gehirnleistung des Roboters 100.
  • Der externe Sensor 114 sendet regelmäßig ein drahtloses Signal (im Folgenden als „Robotersuchsignal“ bezeichnet) einschließlich der ID (im Folgenden als „Baken-ID“ bezeichnet) des externen Sensors 114. Beim Empfang des Robotersuchsignals sendet der Roboter 100 ein drahtloses Signal (im Folgenden als „Roboterantwortsignal“ bezeichnet) zurück, das die Baken-ID enthält. Der Server 200 misst eine Zeit von dem externen Sensor 114, der das Robotersuchsignal überträgt, bis er das Roboterantwortsignal empfängt, und misst eine Entfernung von dem externen Sensor 114 zu dem Roboter 100. Durch Messen des Abstands zwischen jedem der Vielzahl der externen Sensoren 114 und dem Roboter 100 identifiziert der Server 200 die Positionskoordinaten des Roboters 100. Natürlich kann auch ein Verfahren angewendet werden, bei dem der Roboter 100 regelmäßig seine eigenen Positionskoordinaten an den Server 200 überträgt.
  • 5 ist eine schematische Ansicht einer Emotionskarte 116.
  • Die Emotionskarte 116 ist eine im Server 200 gespeicherte Datentabelle. Der Roboter 100 wählt eine Aktion gemäß der Emotionskarte 116 aus. Die in 5 gezeigte Emotionskarte 116 zeigt eine Größe einer emotionalen Verbundenheit oder einer Abneigung gegen einen Ort des Roboters 100. Eine x-Achse und eine y-Achse der Emotionskarte 116 zeigen zweidimensionale Raumkoordinaten an. Eine z-Achse zeigt die Stärke einer emotionalen Anziehungskraft oder einer Abneigung an. Wenn ein z-Wert ein positiver Wert ist, ist eine Anziehungskraft zu dem Ort hoch, und wenn der z-Wert ein negativer Wert ist, ist der Roboter 100 dem Ort abgeneigt.
  • Auf der Emotionskarte 116 von 5 ist eine Koordinate P1 ein Punkt in einem Innenraum, der vom Server 200 als Aktionsbereich des Roboters 100 verwaltet wird, an dem eine Emotion der Anziehung hoch ist (nachstehend als bevorzugter Punkt bezeichnet). Der bevorzugte Punkt kann ein „sicherer Ort“ sein, wie z. B. hinter einem Sofa oder unter einem Tisch, oder er kann ein Ort sein, an dem sich die Menschen gerne zusammenfinden, oder ein belebter Ort wie ein Wohnzimmer. Der sichere Ort kann auch ein Ort sein, an dem der Roboter 100 in der Vergangenheit sanft gestreichelt oder berührt wurde. Festzulegen, welche Art Ort der Roboter 100 bevorzugt, geschieht willkürlich, aber es ist generell wünschenswert, dass ein von Kleinkindern oder von Kleintieren wie Hunden oder Katzen bevorzugter Ort als bevorzugter Punkt festgelegt wird.
  • Eine Koordinate P2 ist ein Punkt, an dem ein Gefühl der Abneigung hoch ist (im Folgenden als „unbeliebter Punkt“ bezeichnet). Der unbeliebte Punkt kann ein Ort sein, an dem es ein lautes Geräusch gibt, wie z.B. in der Nähe eines Fernsehers, ein Ort, an dem es wahrscheinlich ein Leck geben kann, wie z.B. ein Badezimmer oder ein Waschraum, ein geschlossener Raum oder ein dunkler Ort, ein Ort, an dem der Roboter 100 von einem Benutzer grob behandelt wurde und der eine unangenehme Erinnerung hervorruft, oder dergleichen. Festzulegen, welche Art Ort der Roboter 100 ablehnt, geschieht willkürlich, aber es ist generell wünschenswert, dass ein von Kleinkindern oder von Kleintieren wie Hunden oder Katzen gefürchteter Ort als unbeliebter Punkt gesetzt wird.
  • Eine Koordinate Q zeigt eine aktuelle Position des Roboters 100 an. Der Server 200 identifiziert die Positionskoordinaten des Roboters 100 unter Verwendung des Robotersuch-signals, das regelmäßig von der Vielzahl der externen Sensoren 114 übertragen wird, und des Antwortsignals des Roboters, das auf das Robotersuchsignal reagiert. Wenn beispielsweise der externe Sensor 114 mit Baken-ID = 1 und der externe Sensor 114 mit Baken-ID = 2 jeweils den Roboter 100 erfassen, bezieht der Server 200 die Abstände des Roboters 100 von den beiden externen Sensoren 114 und erhält die Positionskoordinaten des Roboters 100 aus den Abständen.
  • Alternativ sendet der externe Sensor 114 mit Baken-ID = 1 das Robotersuchsignal in ein Vielfaches der Richtungen, und der Roboter 100 gibt beim Empfang des Robotersuchsignals das Roboterantwortsignal zurück. Auf diese Weise kann der Server 200 feststellen, in welcher Richtung und in welcher Entfernung sich der Roboter 100 von welchem externen Sensor 114 befindet. Außerdem kann der Server 200 in einer weiteren Ausführungsform aus der Drehzahl des Rades 102 eine vom Roboter 100 zurückgelegte Entfernung berechnen und so die aktuelle Position identifizieren oder die aktuelle Position basierend auf einem von der Kamera erhaltenen Bild identifizieren. Wenn die in 5 dargestellte Emotionskarte 116 bereitgestellt wird, bewegt sich der Roboter 100 in Richtung des bevorzugten Punktes (Koordinate P1) oder in eine Richtung weg vom unbeliebten Punkt (Koordinate P2).
  • Die Emotionskarte 116 ändert sich dynamisch. Wenn der Roboter 100 an der Koordinate P1 ankommt, nimmt der z-Wert (Emotion der Anziehung) an der Koordinate P1 mit der Zeit ab. Deshalb kann der Roboter 100 ein tierähnliches Verhalten nachahmen, indem er „emotional zufrieden ist“, wenn er an dem bevorzugten Punkt (Koordinate P1) angekommen ist und mit der Zeit „gelangweilt“ bei dem Punkt werden. In gleicher Weise wird das Gefühl der Abneigung an der Koordinate P2 im Laufe der Zeit gelindert. Ein neuer bevorzugter oder unbeliebter Punkt erscheint nachdem einige Zeit verstrichen ist, weshalb der Roboter 100 eine neue Aktionsauswahl vornimmt. Der Roboter 100 hat „Interesse“ an einem neuen bevorzugten Punkt und führt ununterbrochen eine neue Aktionsauswahl aus.
  • Die Emotionskarte 116 drückt emotionale Schwingungen als einen internen Zustand des Roboters 100 aus. Der Roboter 100 sucht nach einem bevorzugten Punkt, vermeidet einen unbeliebten Punkt, bleibt eine Weile am bevorzugten Punkt und führt rechtzeitig die nächste Aktion aus. Mit dieser Art Steuerung kann die Aktionsauswahl des Roboters 100 eine menschenähnliche oder tierähnliche Aktionsauswahl sein.
  • Karten, die eine Aktion des Roboters 100 beeinflussen (im Folgenden zusammenfassend als „Aktionskarten“ bezeichnet), sind nicht auf den Typ der in 5 gezeigten Emotionskarte 116 beschränkt. Zum Beispiel können verschiedene Aktionskarten definiert werden, wie z. B. Neugier, der Wunsch, Angst zu vermeiden, der Wunsch innere Ruhe zu finden und der Wunsch nach physischer Behaglichkeit, wie Ruhe, schwachem Licht, Kühle oder Wärme. Darüber hinaus kann ein Zielpunkt des Roboters 100 bestimmt werden, indem ein gewichteter Mittelwert der Z-Werte von jeweils einem Vielfachen von Aktionskarten gebildet wird.
  • Der Roboter 100 kann zusätzlich zu einer Aktionskarte auch Parameter aufweisen, die eine Größe verschiedener Emotionen oder Sinne anzeigen. Wenn beispielsweise ein Wert eines Einsamkeits-Emotionsparameters steigt, kann ein Gewichtungskoeffizient einer Aktionskarte, die Orte auswertet, an denen sich der Roboter 100 wohl fühlt, hoch gesetzt werden, und der Wert dieses Emotionsparameters wird reduziert, wenn der Roboter 100 einen Zielpunkt erreicht. Ebenso genügt es, wenn ein Wert eines Parameters, der ein Gefühl der Langeweile anzeigt, zunimmt, dass ein Gewichtungskoeffizient einer Aktionskarte, die Orte bewertet, an denen die Neugier befriedigt wird, hoch gesetzt wird.
  • ist ein Hardware-Konfigurationsdiagramm des Roboters 100.
  • Der Roboter 100 beinhaltet einen internen Sensor 128, einen Kommunikator 126, eine Speichervorrichtung 124, einen Prozessor 122, einen Antriebsmechanismus 120 und die Batterie 118. Der Antriebsmechanismus 120 umfasst den Radantriebsmechanismus 370. Der Prozessor 122 und die Speichervorrichtung 124 sind in der Steuerschaltung 342 enthalten. Die Einheiten sind durch eine Stromleitung 130 und eine Signalleitung 132 miteinander verbunden. Die Batterie 118 versorgt jede Einheit über die Stromleitung 130 mit Strom. Jede Einheit sendet und empfängt über die Signalleitung 132 ein Steuersignal. Die Batterie 118 ist eine wieder aufladbare Batterie, wie beispielsweise eine Lithiumionenbatterie, und ist eine Energiequelle des Roboters 100.
  • Der interne Sensor 128 ist eine Sammlung verschiedener Arten von Sensoren, die in den Roboter 100 eingebaut sind. Insbesondere ist der interne Sensor 128 zusätzlich zu einer Kamera 410 (der omnidirektionalen Kamera 400 und der hochauflösenden Kamera 402), einem Mikrofonarray 404, einem Temperatursensor 406 und einem Formmesssensor 408, ein Infrarotsensor, ein Berührungssensor, ein Beschleunigungssensor, ein Geruchssensor und dergleichen. Der Geruchssensor ist ein allgemein bekannter Sensor, der ein Prinzip anwendet, bei dem sich der elektrische Widerstand entsprechend einer Adsorption eines Moleküls ändert, das eine Geruchsquelle bildet. Der Geruchssensor klassifiziert verschiedene Gerüche in verschiedene Kategorien (nachfolgend „Geruchskategorien“ genannt).
  • Der Kommunikator 126 ist ein Kommunikationsmodul, das eine drahtlose Kommunikation mit dem Server 200 und verschiedenen Arten von externen Geräten, wie beispielsweise dem externen Sensor 114 und einem mobilen Gerät, das ein Benutzer besitzt, als Ziel ausführt. Die Speichervorrichtung 124 ist aus einem nichtflüchtigen Speicher und einem flüchtigen Speicher aufgebaut und speichert ein Computerprogramm und verschiedene Arten von Einstellungsinformationen. Der Prozessor 122 ist ein Mittel zum Ausführen eines Computerprogramms. Der Antriebsmechanismus 120 ist ein Stellglied, das einen internen Mechanismus steuert. Darüber hinaus sind auch eine Anzeige, ein Lautsprecher und dergleichen angebracht.
  • Der Prozessor 122 wählt eine Aktion des Roboters 100 aus, indem er über den Kommunikator 126 mit dem Server 200 oder dem externen Sensor 114 kommuniziert. Verschiedene Arten externer Informationen, die durch den internen Sensor 128 erhalten werden, beeinflussen auch die Aktionsauswahl.
  • Der Antriebsmechanismus 120 steuert hauptsächlich die Räder (die Vorderräder 102), den Kopfabschnitt (den Kopfabschnittrahmen 316) und den Rumpfabschnitt (den Arm 106). Der Antriebsmechanismus 120 bewirkt eine Änderung einer Bewegungsrichtung und einer Bewegungsgeschwindigkeit des Roboters 100, indem er die Drehgeschwindigkeit und die Drehrichtung jedes der beiden Vorderräder 102 ändert. Der Antriebsmechanismus 120 kann auch die Räder (die Vorderräder 102 und das Hinterrad 103) anheben und absenken. Wenn sich die Räder anheben, sind die Räder vollständig im Körper 104 gelagert, und der Roboter 100 kommt über die Sitzfläche 108 mit der Bodenfläche in Kontakt und nimmt den Sitzzustand an.
  • Der Arm 106 kann durch den Antriebsmechanismus 120 angehoben werden, der den Arm 106 mit Hilfe des Drahtes 134 zieht. Eine Geste wie ein Winken mit dem Arm kann auch dadurch ausgeführt werden, dass der Arm 106 zum Schwingen gebracht wird. Eine komplexere Geste kann auch durch eine Vielzahl des verwendeten Drahtes 134 dargestellt werden.
  • 7 ist ein Funktionsblockdiagramm des Robotersystems 300.
  • Wie zuvor beschrieben, umfasst das Robotersystem 300 den Roboter 100, den Server 200 und die Vielzahl von externen Sensoren 114. Jede Komponente des Roboters 100 und des Servers 200 wird durch Hardware realisiert, die einen Computer umfasst, der aus einer CPU (zentrale Verarbeitungseinheit) gebildet wird, verschiedenen Arten von Co-Prozessoren und dergleichen, einer Speichervorrichtung, die ein Kurzzeitspeicher oder Langzeitspeicher ist, und einer verdrahteten oder drahtlosen Kommunikationsleitung, die den Computer und die Speichervorrichtung miteinander verbindet, sowie auf der Speichervorrichtung gespeicherte Software, die dem Computer einen Verarbeitungsbefehl liefert. Ein Computerprogramm kann aus einem Gerätetreiber, einem Betriebssystem, verschiedenen Arten von Anwendungsprogrammen, die in einer oberen Schicht davon positioniert sind, und einer Bibliothek konfiguriert sein, die den Programmen eine gemeinsame Funktion bietet. Jeder im Folgenden beschriebene Block zeigt einen funktionalen Einheitenblock anstelle einer Konfiguration einer Hardwareeinheit an. Ein Teil der Funktionen des Roboters 100 kann durch den Server 200 realisiert werden, und ein Teil oder alle Funktionen des Servers 200 können durch den Roboter 100 realisiert werden.
  • Server 200
  • Der Server 200 umfasst eine Kommunikationseinheit 204, eine Datenverarbeitungseinheit 202 und eine Datenspeichereinheit 206. Die Kommunikationseinheit 204 verwaltet einen Prozess zum Kommunizieren mit dem externen Sensor 114 und dem Roboter 100. Die Datenspeichereinheit 206 speichert verschiedene Arten von Daten. Die Datenverarbeitungseinheit 202 führt verschiedene Arten von Prozessen auf der Grundlage der von der Kommunikationseinheit 204 erfassten Daten und der in der Datenspeichereinheit 206 gespeicherten Daten aus. Die Datenverarbeitungseinheit 202 fungiert auch als eine Schnittstelle der Kommunikationseinheit 204 und der Datenspeichereinheit 206.
  • Die Datenspeichereinheit 206 enthält eine Bewegungsspeichereinheit 232, eine Kartenspeichereinheit 216 und eine individuelle Datenspeichereinheit 218. Der Roboter 100 hat eine Vielzahl von Betriebsmustern (Bewegungen). Es werden verschiedene Bewegungen definiert, z. B. das Winken einer Hand, Annäherung an einen Benutzer während des Umherschweifens und Anstarren eines Benutzers mit zur Seite geneigtem Kopf.
  • Die Bewegungsspeichereinheit 232 speichert eine „Bewegungsdatei“, die Steuerdetails einer Bewegung definiert. Jede Bewegung wird durch die Bewegungs-ID identifiziert. Die Bewegungsdatei wird auch in eine Bewegungsspeichereinheit 160 des Roboters 100 heruntergeladen. Welche Bewegung ausgeführt werden soll, kann vom Server 200 oder vom Roboter 100 bestimmt werden.
  • Viele Bewegungen des Roboters 100 sind als zusammengesetzte Bewegungen konfiguriert, die eine Vielzahl von Bauteilbewegungen umfassen. Wenn sich der Roboter 100 beispielsweise einem Besitzer nähert, kann die Annäherung als eine Kombination aus einer Bauteilbewegung mit Richtungsänderung gegenüber dem Besitzer, einer Bauteilbewegung mit Annäherung beim Anheben eines Arms, einer Bauteilbewegung mit Annäherung beim Schütteln des Körpers und einer Bauteilbewegung mit Sitz beim Anheben beider Arme ausgedrückt werden. Durch die Kombination dieser vier Bewegungsarten wird die Bewegung „Annäherung an einen Besitzer, Anheben eines Armes auf dem Weg dorthin und anschließendes Sitzen nach dem Schütteln des Körpers“ verwirklicht. Ein Drehwinkel, eine Winkelgeschwindigkeit und dergleichen eines im Roboter 100 vorgesehenen Stellglieds ist in Korrelation mit einer Zeitachse in einer Bewegungsdatei definiert. Verschiedene Bewegungen werden ausgeführt, indem jedes Stellglied zusammen mit dem Zeitablauf gemäß der Bewegungsdatei (Stellglied-Steuerinformationen) gesteuert wird.
  • Eine Schaltzeit für den Wechsel von einer vorhergehenden Bauteilbewegung zu einer nachfolgenden Bauteilbewegung wird als „Intervall“ bezeichnet. Es genügt, dass ein Intervall entsprechend der Zeit definiert wird, die für eine Änderung der Bewegungseinheit oder Details einer Bewegung benötigt wird. Es kann eine Länge eines Intervalls eingestellt werden. Im Folgenden werden Einstellungen zum Steuern des Verhaltens des Roboters 100, wie z. B. welche Bewegung wann gewählt wird, und zur Regelung der Leistung jedes Stellglieds bei der Realisierung einer Bewegung, zusammenfassend als „Verhaltensmerkmale“ bezeichnet. Die Verhaltenseigenschaften des Roboters 100 werden durch einen Bewegungsauswahlalgorithmus, eine Bewegungsauswahlwahrscheinlichkeit, eine Bewegungsdatei und dergleichen definiert.
  • Die Kartenspeichereinheit 216 speichert eine Vielzahl von Aktionskarten. Die individuelle Datenspeichereinheit 218 speichert Informationen über einen Benutzer und insbesondere über einen Besitzer. Insbesondere speichert die individuelle Datenspeichereinheit 218 verschiedene Arten von Parametern, wie z. B. Vertrautheit mit einem Benutzer und physikalische Merkmale und Verhaltenseigenschaften eines Benutzers. Die individuelle Datenspeichereinheit 218 kann auch andere Attributinformationen wie Alter und Geschlecht speichern.
  • Der Roboter 100 identifiziert einen Benutzer basierend auf den physikalischen Eigenschaften des Benutzers oder den Verhaltenseigenschaften. Der Roboter 100 nimmt mit der integrierten Kamera ständig eine Peripherie auf. Zudem extrahiert der Roboter 100 die physikalischen Eigenschaften und Verhaltensmerkmale einer Person, die in einem Bild erscheinen. Bei den physischen Merkmalen kann es sich um körpereigene visuelle Merkmale wie Körpergröße, Kleidung nach Wahl, Vorhandensein oder Fehlen einer Brille, Hautfarbe, Haarfarbe oder Größe des Ohrs handeln oder auch um andere Merkmale wie eine durchschnittliche Körpertemperatur, einen Geruch und eine Stimmqualität. Die Verhaltensmerkmale sind insbesondere verhaltensbegleitende Merkmale, wie z. B. ein Ort, den der Benutzer bevorzugt, eine Lebendigkeit der Bewegung und ein Vorhandensein oder Fehlen von Rauchen. So extrahiert der Roboter 100 beispielsweise Verhaltensmerkmale, so dass ein als Vater identifizierter Besitzer oft außerhalb des Hauses ist und zu Hause oft bewegungslos auf einem Sofa liegt, aber eine Mutter oft in einer Küche ist, und ein Tätigkeitsbereich breit ist. Der Roboter 100 gruppiert Benutzer, die mit hoher Frequenz als „Besitzer“ erscheinen, basierend auf physikalischen Eigenschaften und Verhaltenseigenschaften, die aus einer großen Menge von Bildinformationen oder anderen Erfassungsinformationen erhalten werden.
  • Obwohl das Verfahren zum Identifizieren eines Benutzers anhand der Benutzer-ID einfach und zuverlässig ist, ist der Benutzer mit einer Vorrichtung, die eine Benutzer-ID bereitstellen kann, eine Vorbedingung. Inzwischen ist das Verfahren zur Identifizierung eines Benutzers anhand von physikalischen Merkmalen oder Verhaltensmerkmalen dergestalt, dass eine große Prozesslast bei der Bilderkennung entsteht, aber es hat den Vorteil, dass auch ein Benutzer, der keine mobile Vorrichtung besitzt, identifiziert werden kann. Eine der beiden Methoden kann einzeln angewendet werden, oder die Benutzeridentifikation kann mit den beiden Methoden zusammen auf komplementäre Weise durchgeführt werden. In dieser Ausführungsform werden die Benutzer basierend auf physikalischen Merkmalen und Verhaltensmerkmalen gebündelt, und ein Benutzer wird durch Deep Learning (ein mehrschichtiges neuronales Netzwerk) identifiziert.
  • Der Roboter 100 hat einen internen Parameter der Vertrautheit für jeden Benutzer. Wenn der Roboter 100 eine Aktion erkennt, die eine Zuneigung für den Roboter 100 anzeigt, wie beispielsweise das Aufheben des Roboters 100 oder das Sprechen mit dem Roboter 100, steigt die Vertrautheit mit diesem Benutzer. Die Vertrautheit nimmt in Bezug auf einen Benutzer ab, der sich nicht für den Roboter 100 interessiert, einen Benutzer, der sich grob verhält, oder einen Benutzer, der selten anzutreffen ist.
  • Die Datenverarbeitungseinheit 202 umfasst eine Positionsverwaltungseinheit 208, eine Kartenverwaltungseinheit 210, eine Erkennungseinheit 212, eine Betriebsbestimmungseinheit 222 und eine Vertrautheitsverwaltungseinheit 220. Die Positionsverwaltungseinheit 208 identifiziert die Positionskoordinaten des Roboters 100 unter Verwendung des unter 4 beschriebenen Verfahrens. Die Positionsverwaltungseinheit 208 kann auch Positionskoordinaten eines Benutzers in Echtzeit verfolgen.
  • Die Kartenverwaltungseinheit 210 ändert den Parameter jeder Koordinate auf der Vielzahl von Aktionskarten unter Verwendung des in Verbindung mit 5 beschriebenen Verfahrens. Die Kartenverwaltungseinheit 210 verwaltet eine Temperaturkarte, die eine Art Aktionskarte ist.
  • Die Kartenverwaltungseinheit 210 kann eine aus der Vielzahl von Aktionskarten auswählen oder einen gewichteten Durchschnitt der z-Werte der Vielzahl von Aktionskarten verwenden. Es wird beispielsweise angenommen, dass die z-Werte an einer Koordinate R1 und einer Koordinate R2 auf einer Aktionskarte A 4 und 3 sind und die z-Werte an der Koordinate R1 und der Koordinate R2 auf einer Aktionskarte B -1 und 3 sind. Bei der Bildung eines einfachen Mittelwertes ist der gesamte z-Wert an der Koordinate R1 4 - 1 = 3, und der gesamte z-Wert an der Koordinate R2 ist 3 + 3 = 6, weshalb der Roboter 100 nicht in Richtung der Koordinate R1, sondern in Richtung der Koordinate R2 steuert. Wenn die Aktionskarte A 5-mal in Bezug auf die Aktionskarte B gewichtet wird, beträgt der gesamte z-Wert an der Koordinate R1 4 × 5 - 1 = 19, und der gesamte z-Wert an der Koordinate R2 3 × 5 + 3 = 18, wodurch der Roboter 100 in Richtung der Koordinate R1 steuert.
  • Die Erkennungseinheit 212 erkennt eine externe Umgebung. Verschiedene Arten der Erkennung, wie beispielsweise die Erkennung von Wetter oder Jahreszeit basierend auf Temperatur und Luftfeuchtigkeit und die Erkennung von Schutz (sicherer Bereich) basierend auf Lichtmenge und Temperatur, sind in die Erkennung der äußeren Umgebung einbezogen. Die Erkennungseinheit 212 umfasst ferner eine Personenerkennungseinheit 214 und eine Reaktionserkennungseinheit 228. Die Personenerkennungseinheit 214 erkennt eine Person aus einem Bild, das von der im Roboter 100 eingebauten Kamera aufgenommen wurde, und extrahiert die physikalischen Eigenschaften und Verhaltenseigenschaften der Person. Auf der Grundlage der in der individuellen Datenspeichereinheit 218 registrierten physikalischen Merkmalsinformationen und Verhaltensmerkmalsinformationen bestimmt die Personenerkennungseinheit 214 ferner, welche Person, beispielsweise ein Vater, eine Mutter oder ein ältester Sohn, dem aufgenommenen Benutzer, d. h. der Benutzer, auf den der Roboter 100 schaut, entspricht. Die Personenerkennungseinheit 214 umfasst eine Ausdruckerkennungseinheit 230. Die Ausdruckerkennungseinheit 230 bewertet eine Emotion eines Benutzers unter Verwendung einer Bilderkennung eines Ausdrucks des Benutzers. Zusätzlich zu einer Person extrahiert die Personenerkennungseinheit 214, beispielsweise auch Merkmale einer Katze oder eines Hundes, die ein Haustier sind.
  • Die Reaktionserkennungseinheit 228 erkennt verschiedene Reaktionshandlungen, die von einem Benutzer in Bezug auf den Roboter 100 ausgeführt werden, und klassifiziert die Aktionen als angenehme oder unangenehme Aktionen. Außerdem erkennt die Reaktionserkennungseinheit 228 eine Reaktionshandlung eines Besitzers in Bezug auf eine Aktion des Roboters 100, wodurch die Reaktionshandlung als positive oder negative Reaktion klassifiziert wird. Es wird zwischen angenehmen und unangenehmen Aktionen unterschieden, je nachdem, ob eine ansprechende Aktion eines Benutzers für ein Lebewesen angenehm oder unangenehm ist. Zum Beispiel ist das Umarmen eine angenehme Aktion für den Roboter 100, und das Getreten werden ist eine unangenehme Aktion für den Roboter 100. Positive und negative Reaktionen werden unterschieden, je nachdem, ob eine Reaktion eines Benutzers auf eine angenehme oder eine unangenehme Emotion des Benutzers hinweist. Zum Beispiel ist die Umarmung eine positive Reaktion, die eine angenehme Emotion des Benutzers anzeigt, und der Tritt ist eine negative Reaktion, die eine unangenehme Emotion des Benutzers anzeigt.
  • Die Betriebsbestimmungseinheit 222 des Servers 100 bestimmt eine Bewegung des Roboters 100 in Zusammenarbeit mit einer Steuereinheit 150 des Roboters 100. Die Betriebsbestimmungseinheit 222 stellt einen Bewegungszielpunkt des Roboters 100 und eine Bewegungsroute für den Bewegungszielpunkt basierend auf einer Aktivitätskartenauswahl durch die Kartenverwaltungseinheit 210 zusammen. Die Betriebsbestimmungseinheit 222 stellt eine Vielzahl von Bewegungsrouten zusammen und kann, nachdem sie das getan hat, eine der Bewegungsrouten auswählen.
  • Die Betriebsbestimmungseinheit 222 wählt eine Bewegung des Roboters 100 aus einer Vielzahl von Positionen der Bewegungsspeichereinheit 232 aus. Eine Auswahlwahrscheinlichkeit wird für jede Situation mit jeder Bewegung korreliert. So wird beispielsweise ein Auswahlverfahren definiert, bei dem eine Bewegung A mit einer Wahrscheinlichkeit von 20 % ausgeführt wird, wenn eine angenehme Aktion von einem Besitzer ausgeführt wird, und eine Bewegung B mit einer Wahrscheinlichkeit von 5 %, wenn eine Temperatur 30 °C oder höher beträgt. Ein Bewegungszielpunkt und eine Bewegungsroute werden durch eine Aktionskarte bestimmt, und eine Bewegung wird gemäß verschiedenen Arten von Ereignissen ausgewählt, die im Folgenden beschrieben werden.
  • Die Vertrautheitsverwaltungseinheit 220 verwaltet die Vertrautheit für jeden Benutzer. Wie zuvor beschrieben, wird die Vertrautheit als ein Teil der einzelnen Daten in der individuellen Datenspeichereinheit 218 registriert. Wenn eine angenehme Aktion erfasst wird, erhöht die Vertrautheitsverwaltungseinheit 220 die Vertrautheit mit diesem Benutzer. Wird eine unangenehme Aktion erfasst, verringert die Vertrautheitsverwaltungseinheit 220 die Vertrautheit. Auch die Vertrautheit mit einem Besitzer, der über einen längeren Zeitraum nicht visuell erkannt wurde, nimmt allmählich ab.
  • Roboter 100
  • Der Roboter 100 umfasst den internen Sensor 128, eine Kommunikationseinheit 142, eine Datenverarbeitungseinheit 136, eine Datenspeichereinheit 148 und den Antriebsmechanismus 120. Der interne Sensor 128 ist eine Sammlung von verschiedenen Arten von Sensoren. Der interne Sensor 128 umfasst das Mikrofonarray 404, die Kamera 410, den Temperatursensor 406 und den Formmesssensor 408.
  • Das Mikrofonarray 404, das eine Einheit ist, wobei eine Vielzahl von Mikrofonen miteinander verbunden sind, ist ein Sprachsensor, der Geräusche erkennt. Es ist ausreichend, dass das Mikrofonarray 404 eine Vorrichtung ist, die Geräusche erkennt und eine Richtung einer Geräuschquelle erkennen kann. Das Mikrofonarray 404 ist im Kopfabschnittsrahmen 316 integriert. Da die Abstände zwischen einer Geräuschquelle und dem jeweiligen Mikrofon nicht übereinstimmen, kommt es zu Schwankungen zum Zeitpunkt der Geräuschaufnahme. Deshalb kann eine Position der Geräuschquelle anhand einer Größe und einer Klangphase an jedem Mikrofon identifiziert werden. Der Roboter 100 kann mit Hilfe des Mikrofonarrays 404 eine Position einer Geräuschquelle, insbesondere eine Richtung der Geräuschquelle, erkennen.
  • Die Kamera 410 ist eine Vorrichtung, die die Umgebung aufnimmt. Die Kamera 410 umfasst die omnidirektionale Kamera 400 und die hochauflösende Kamera 402. Der Temperatursensor 406 erfasst eine Temperaturverteilung einer Außenumgebung und wandelt die Temperaturverteilung in ein Bild um. Der Formmesssensor 408 ist ein Infrarot-Tiefensensor, der eine Tiefe und im weiteren Sinne eine ungleiche Form eines Zielobjekts ausliest, indem er Nahinfrarotstrahlen von einem Projektor aussendet und das reflektierte Licht der Nahinfrarotstrahlen mit einer Nahinfrarotkamera erfasst.
  • Die Kommunikationseinheit 142 entspricht dem Kommunikator 126 (siehe 6) und verwaltet einen Prozess der Kommunikation mit dem externen Sensor 114 und dem Server 200. Die Datenspeichereinheit 148 speichert verschiedene Arten von Daten. Die Datenspeichereinheit 148 entspricht der Speichervorrichtung 124 (siehe 6). Die Datenverarbeitungseinheit 136 führt verschiedene Arten von Prozessen auf der Grundlage der von der Kommunikationseinheit 142 erfassten Daten und der in der Datenspeichereinheit 148 gespeicherten Daten aus. Die Datenverarbeitungseinheit 136 entspricht dem Prozessor 122 und einem Computerprogramm, das von dem Prozessor 122 ausgeführt wird. Die Datenverarbeitungseinheit 136 fungiert auch als eine Schnittstelle der Kommunikationseinheit 142, des internen Sensors 128, des Antriebsmechanismus 120 und der Datenspeichereinheit 148.
  • Die Datenspeichereinheit 148 umfasst die Bewegungsspeichereinheit 160, die die verschiedenen Bewegungsarten des Roboters 100 definiert. Verschiedene Arten von Bewegungsdateien werden in die Bewegungsspeichereinheit 160 von der Bewegungsspeichereinheit 232 des Servers 200 heruntergeladen. Eine Bewegung wird durch die Bewegungs-ID identifiziert. Ein Arbeitstakt, eine Betriebszeit, eine Betriebsrichtung und dergleichen der verschiedenen Arten von Stellgliedern (der Antriebsmechanismus 120) sind chronologisch definiert in einer Bewegungsdatei, um verschiedene Bewegungen auszuführen, wie z. B. Sitzen durch Aufnahme des Vorderrades 102, Anheben des Arms 106, wodurch der Roboter 100 eine Drehaktion ausführt, indem er die beiden Vorderräder 102 in umgekehrter Richtung drehen lässt oder indem er nur ein Vorderrad 102 in Drehung versetzt, Schütteln durch Bewegen des Vorderrades 102 in einem Zustand, in dem das Vorderrad 102 untergebracht ist, oder einmal Anhalten und Zurückblicken, wenn er sich von einem Benutzer fortbewegt.
  • Die Datenverarbeitungseinheit 136 umfasst eine Erkennungseinheit 156, die Steuereinheit 150 und eine Empfindlichkeitssteuereinheit 172. Die Steuereinheit 150 umfasst eine Bewegungssteuereinheit 152 und eine Betriebssteuereinheit 154. Die Bewegungssteuereinheit 152 bestimmt eine Bewegungsrichtung des Roboters 100 zusammen mit der Betriebsbestimmungseinheit 222 des Servers 200. Die Bewegung, basierend auf einer Aktionskarte, kann vom Server 200 bestimmt werden, und eine sofortige Bewegung, wie beispielsweise das Umgehen eines Hindernisses, kann vom Roboter 100 bestimmt werden. Der Antriebsmechanismus 120 bewirkt, dass der Roboter 100 durch Antreiben des Vorderrades 102 gemäß einer Anweisung der Betriebssteuereinheit 152 zu einem Bewegungszielpunkt fährt.
  • Die Betriebssteuereinheit 154 des Roboters 100 bestimmt Bewegungen des Roboters 100 in Zusammenarbeit mit der Betriebsbestimmungseinheit 222 des Servers 200. Ein Teil der Bewegungen kann vom Server 200, und andere Bewegungen können vom Roboter 100 bestimmt werden. Eine Konfiguration kann auch dergestalt sein, dass, obwohl der Roboter 100 Bewegungen bestimmt, der Server 200 eine Bewegung bestimmt, wenn eine Verarbeitungslast des Roboters 100 hoch ist. Eine Bewegung, die eine Basis bildet, kann vom Server 200 bestimmt werden, und eine zusätzliche Bewegung kann vom Roboter 100 bestimmt werden. Es ist ausreichend, dass die Art und Weise, wie ein bewegungsbestimmender Prozess zwischen dem Server 200 und dem Roboter 100 aufgeteilt wird, gemäß den Spezifikationen des Robotersystems 300 ausgelegt ist. Es ist ausreichend, dass eine Art und Weise, in der ein bewegungsbestimmender Prozess zwischen dem Server 200 und dem Roboter 100 aufgeteilt wird, gemäß den Spezifikationen des Robotersystems 300 ausgelegt ist. Die Betriebssteuereinheit 154 weist den Antriebsmechanismus 120 an, eine ausgewählte Bewegung auszuführen. Der Antriebsmechanismus 120 steuert jedes Stellglied in Übereinstimmung mit der Bewegungsdatei.
  • Die Aktionssteuereinheit 154 kann auch eine Bewegung zum Hochhalten beider Arme 106 als eine Geste ausführen, die um „eine Umarmung“ bittet, wenn sich ein Benutzer mit einem hohen Vertrautheitsgrad in der Nähe befindet, und kann auch eine Bewegung ausführen, bei der er nicht mehr umarmt werden will, indem er bewirkt, dass die linken und rechten Vorderräder 102 wiederholt zwischen Rückwärtsdrehen und Anhalten in einem untergebrachten Zustand abwechseln, wenn er der „Umarmung“ überdrüssig ist. Der Antriebsmechanismus 120 bewirkt, dass der Roboter 100 verschiedene Bewegungen ausführt, indem er die Vorderräder 102, den Arm 106 und den Hals (den Kopfabschnittsrahmen 316) entsprechend einer Anweisung von der Betriebssteuereinheit 154 antreibt.
  • Die Sensorsteuereinheit 172 steuert den internen Sensor 128. Insbesondere steuert die Sensorsteuereinheit 172 eine Messrichtung durch die hochauflösende Kamera 402, den Temperatursensor 406 und den Formmesssensor 408. Die Messrichtung durch die hochauflösende Kamera 402, der Temperatursensor 406 und der im Kopfabschnitt des Roboters 100 befestigte Formmesssensor 408 ändern sich entsprechend der Ausrichtung des Kopfabschnittsrahmens 316. Die Sensorsteuereinheit 172 steuert eine Aufnahmerichtung durch die hochauflösende Kamera 402 (d.h. die Sensorsteuereinheit 172 steuert die Bewegung des Kopfabschnitts entsprechend der Aufnahmerichtung). Die Sensorsteuereinheit 172 und die Kamera 410 fungieren als „Aufnahmeeinheit“.
  • Die Erkennungseinheit 156 des Roboters 100 analysiert externe Informationen, die von dem internen Sensor 128 erhalten werden. Die Erkennungseinheit 156 ist zur visuellen Erkennung (einer visuellen Einheit), zur Geruchserkennung (einer Riecheinheit), zur Tonerkennung (einer akustischen Einheit) und zur taktilen Erkennung (einer taktilen Einheit) fähig. Die Erkennungseinheit 156 erfasst regelmäßig Erkennungsinformationen von der Kamera 410, dem Temperatursensor 406 und dem Formmesssensor 408 und erkennt ein sich bewegendes Objekt wie eine Person oder ein Haustier. Diese Informationen werden an den Server 200 übertragen, und die Personenerkennungseinheit 214 des Servers 200 extrahiert die physikalischen Eigenschaften des sich bewegenden Objekts. Außerdem erkennt die Erkennungseinheit 156 auch den Geruch eines Benutzers und die Stimme eines Benutzers. Geruch und Ton (Stimme) werden unter Verwendung eines bereits bekannten Verfahrens in mehrere Arten klassifiziert.
  • Wenn eine starke Kraft auf den Roboter 100 ausgeübt wird, erkennt die Erkennungseinheit 156 dies unter Verwendung des eingebauten Beschleunigungssensors, und die Reaktionserkennungseinheit 228 des Servers 200 erkennt, dass eine „gewaltsame Aktion“ von einem Benutzer in der Umgebung ausgeführt wurde. Packt der Benutzer den Roboter 100 beim Horn 112, kann dies ebenfalls als eine gewaltsame Aktion erkannt werden. Wenn ein Benutzer in einem Zustand, in dem er dem Roboter 100 zugewandt ist, in einem bestimmten Volumenbereich und einem bestimmten Frequenzband spricht, kann die Reaktionserkennungseinheit 228 des Servers 200 erkennen, dass eine „Sprechaktion“ in Bezug auf den Roboter 100 durchgeführt wurde. Auch wenn eine Temperatur im Bereich der Körpertemperatur erfasst wird, erkennt die Reaktionserkennungseinheit 228 des Servers 200, dass eine „Berührungsaktion“ von einem Benutzer durchgeführt wurde, und wenn eine Aufwärtsbeschleunigung in einem Zustand erfasst wird, in dem eine Berührung erkannt wird, erkennt die Reaktionserkennungseinheit 228 des Servers 200, dass eine „Umarmung“ durchgeführt wurde. Körperlicher Kontakt, wenn ein Benutzer den Körper 104 anhebt, kann ebenfalls wahrgenommen werden, und eine Umarmung kann auch an einer Last erkannt werden, die auf die Vorderräder 102 wirkt und sich verringert.
  • Die Reaktionserkennungseinheit 228 des Servers 200 erkennt verschiedene Arten von Reaktionen eines Benutzers auf den Roboter 100. „Angenehm“ oder „unangenehm“, „positiv“ oder „negativ“ ist mit einem Teil der typischen Reaktionshandlungen unter verschiedenen Arten von Reaktionshandlungen korreliert. Im Allgemeinen sind fast alle reagierenden Aktionen, die angenehme Aktionen sind, positive Reaktionen, und fast alle reagierenden Aktionen, die unangenehme Aktionen sind, sind negative Reaktionen. Angenehme und unangenehme Handlungen beziehen sich auf Vertrautheit, und positive und negative Reaktionen beeinflussen die Aktionsauswahl des Roboters 100.
  • Eine Reihe von Erkennungsprozessen, einschließlich des Erkennens, Analysierens und Bestimmens, kann von der Erkennungseinheit 212 des Servers 200 alleine oder von der Erkennungseinheit 156 des Roboters 100 alleine ausgeführt werden, oder die beiden können die Erkennungsprozesse ausführen, indem sie die Rollen teilen.
  • Die Vertrautheitsverwaltungseinheit 220 des Servers 200 ändert die Vertrautheit gegenüber einem Benutzer gemäß einer von der Erkennungseinheit 156 erkannten reagierenden Handlung. Im Wesentlichen nimmt die Vertrautheit mit einem Benutzer, der eine angenehme Aktion ausführt, zu, während die Vertrautheit mit einem Benutzer, der eine unangenehme Aktion ausführt, abnimmt.
  • Die Erkennungseinheit 212 des Servers 200 kann bestimmen, ob eine Reaktion angenehm oder unangenehm ist, und die Kartenverwaltungseinheit 210 des Servers 200 kann den z-Wert des Punkts ändern, an dem die angenehme oder unangenehme Aktion auf einer Aktionskarte ausgeführt wurde, die eine „Anhaftung an einen Ort“ darstellt. Wenn beispielsweise eine angenehme Aktion in einem Wohnzimmer ausgeführt wird, kann die Kartenverwaltungseinheit 210 einen bevorzugten Punkt mit hoher Wahrscheinlichkeit in dem Wohnzimmer festlegen. In diesem Fall wird ein positiver Rückkopplungsvorteil dadurch realisiert, dass der Roboter 100 das Wohnzimmer bevorzugt und das Wohnzimmer weiterhin bevorzugt, da er im Wohnzimmer der Empfänger einer angenehmen Handlung ist.
  • Die Personenerkennungseinheit 214 des Servers 200 erfasst ein sich bewegendes Objekt aus verschiedenen Arten von Daten, die von dem externen Sensor 114 oder dem internen Sensor 128 erhalten werden, und entnimmt deren Merkmale (physikalische und Verhaltensmerkmale). Ferner bündelt die Personenerkennungseinheit 214 durch Analyse, die auf diesen Merkmalen beruht, eine Vielzahl von sich bewegenden Objekten. Nicht nur ein Mensch, sondern auch ein Haustier wie ein Hund oder eine Katze kann als sich bewegendes Objekt ein Analysegegenstand sein.
  • Der Roboter 100 führt regelmäßig Bildaufnahmen durch, und die Personenerkennungseinheit 214 erkennt ein sich bewegendes Objekt aus den Bildern und entnimmt Merkmale des sich bewegenden Objekts. Wenn ein sich bewegendes Objekt erfasst wird, werden auch physikalische Merkmale und Verhaltensmerkmale aus dem Geruchssensor, einem eingebauten Mikrofon mit starker Richtwirkung, dem Temperatursensor und dergleichen entnommen. Wenn zum Beispiel ein sich bewegendes Objekt in einem Bild erscheint, werden verschiedene Merkmale entnommen, wie z. B. trägt einen Bart, ist früh am Morgen aktiv, trägt rote Kleidung, riecht nach Parfüm, hat eine laute Stimme, trägt eine Brille, trägt einen Rock, hat weißes Haar, ist groß, ist dick, ist sonnengebräunt oder befindet sich auf einem Sofa.
  • Es wird angenommen, dass der Roboter 100 ein sich bewegendes Objekt (Benutzer) in einem Zustand, in dem diese Art von Clusteranalyse mittels Merkmalsextraktion abgeschlossen ist, neu erkennt. Zu diesem Zeitpunkt entnimmt die Personenerkennungseinheit 214 des Servers 200 Merkmale aus der Erfassung von Informationen eines Bildes oder dergleichen, die von dem Roboter 100 erhalten werden, und bestimmt, dass ein sich bewegendes Objekt in der Nähe des Roboters 100 in einem Cluster zusammengefasst wird, wenn ein tiefes Lernen verwendet wird (ein mehrschichtiges neuronales Netzwerk).
  • Die Bildung eines Clusters durch Merkmalsextraktion (Clusteranalyse) und Anwendung auf ein Cluster, das die Merkmalsextraktion (Deep Learning) begleitet, kann gleichzeitig ausgeführt werden. Die Vertrautheit mit einem sich bewegenden Objekt (Benutzer) ändert sich entsprechend der Behandlung des Roboters 100 durch den Benutzer.
  • Der Roboter 100 legt eine hohe Vertrautheit für eine häufig getroffene Person, eine Person, die häufig den Roboter 100 berührt, und eine Person, die häufig mit dem Roboter 100 spricht, fest. Indessen nimmt die Vertrautheit für eine selten gesehene Person ab, eine Person, die den Roboter 100 nicht oft berührt, eine gewalttätige Person und eine Person, die mit lauter Stimme schimpft. Der Roboter 100 ändert die Vertrautheit jedes Benutzers basierend auf verschiedenen von den Sensoren erfassten äußeren Winkelinformationen (visuell, taktil und akustisch).
  • Der tatsächliche Roboter 100 führt autonom eine komplexe Aktionsauswahl gemäß einer Aktionskarte aus. Der Roboter 100 agiert, indem er von einer Vielzahl von Aktionskarten beeinflusst wird, die auf verschiedenen Parametern wie Einsamkeit, Langeweile und Neugier basieren. Wenn die Wirkung der Aktionskarten aufgehoben wird, oder wenn er sich in einem internen Zustand befindet, in dem die Wirkung der Aktionskarten gering ist, versucht der Roboter 100 im Wesentlichen, sich einer Person mit hoher Vertrautheit zu nähern, und versucht, sich von einer Person mit geringer Vertrautheit zu entfernen.
  • Aktionen des Roboters 100 werden im Folgenden entsprechend der Vertrautheit klassifiziert.
  • Ein Cluster mit extrem hoher Vertrautheit
  • Der Roboter 100 drückt ein Gefühl der Zuneigung stark aus, indem er sich einem Benutzer nähert (nachfolgend als „Annäherungsaktion“ bezeichnet) und indem er eine Zuneigungsgeste ausführt, die zuvor als eine Geste definiert wurde, die den guten Willen gegenüber einer Person anzeigt.
  • Ein Cluster mit vergleichsweise hoher Vertrautheit
  • Der Roboter 100 führt nur eine Annäherungsaktion aus.
  • Ein Cluster mit vergleichsweise niedriger Vertrautheit
  • Der Roboter 100 führt keine besondere Aktion aus.
  • Ein Cluster mit besonders niedriger Vertrautheit
  • Der Roboter 100 führt eine Rückzugsaktion aus.
  • Gemäß dem zuvor beschriebenen Steuerverfahren nähert sich der Roboter 100 dem Benutzer, wenn er einen Benutzer mit hoher Vertrautheit findet, und bewegt sich umgekehrt von dem Benutzer weg, wenn er einen Benutzer mit geringer Vertrautheit findet. Gemäß dieser Art von Steuerungsverfahren kann der Roboter 100 durch sein Verhalten eine sogenannte „Schüchternheit“ ausdrücken. Wenn ein Besucher (ein Benutzer A mit geringer Vertrautheit) erscheint, kann sich der Roboter 100 vom Besucher wegbewegen und auf ein Familienmitglied (einen Benutzer B mit hoher Vertrautheit) zugehen. In diesem Fall kann der Benutzer B erkennen, dass der Roboter 100 schüchtern ist und sich unwohl fühlt, und sich auf Benutzer B verlässt. Dank dieser Art von Vertrauensausdruck wird beim Benutzer B, weil er ausgewählt und ihm Vertrauen geschenkt wurde, ein Gefühl der Freude geweckt, das von einem Gefühl der Zuneigung begleitet wird.
  • Wenn indes der Benutzer A, ein Besucher ist, der den Roboter 100 häufig besucht und mit ihm spricht und ihn berührt, nimmt die Vertrautheit des Roboters 100 gegenüber dem Benutzer A allmählich zu, und der Roboter 100 hört auf, eine Aktion der Schüchternheit (eine Rückzugsaktion) in Bezug auf Benutzer A durchzuführen. Der Benutzer A kann auch eine Zuneigung zu dem Roboter 100 empfinden, indem er feststellt, dass sich der Roboter 100 an den Benutzer A gewöhnt hat.
  • Die bisher beschriebene Aktionsauswahl muss nicht unbedingt ständig ausgeführt werden. Wenn beispielsweise ein interner Parameter, der die Neugier des Roboters 100 anzeigt, hoch ist, wird eine Aktionskarte gewichtet, aus der ein Ort ermittelt wird, an dem die Neugierde befriedigt wird, wodurch auch die Möglichkeit besteht, dass der Roboter 100 keine von Vertrautheit betroffene Aktion auswählt. Wenn der in dem Eingangsbereich installierte externe Sensor 114 die Heimkehr eines Benutzers erkennt, kann der Roboter 100 außerdem eine Aktion zum Begrüßen des Benutzers mit maximaler Priorität ausführen.
  • Als nächstes wird eine Steuerung für den Roboter 100 beschrieben, um einen natürlichen Abstand zu einem Benutzer einzuhalten.
  • Der Roboter 100 der Ausführungsform hält entsprechend den Attributen und der Vertrautheit (Präferenz) eines Benutzers, der ein Sichtfeld betritt, einen Abstand zum Benutzer ein und emuliert so eine natürliche Aktion auf tierähnliche Weise. Die Erkennungseinheit 156 fungiert auch als „Präferenzbestimmungseinheit“. Auch durch eine Geste, in einem natürlichen Winkel, entsprechend der Entfernung zum Gesicht des Benutzers, aufzuschauen, wird der Benutzer dazu gebracht, Zuneigung zu empfinden. Im Folgenden werden die Einzelheiten dazu beschrieben.
  • 8 ist eine schematische Ansicht, die ein Verfahren zum Steuern der Entfernung von einem Benutzer darstellt.
  • Der Roboter 100 extrahiert einen Benutzer (Zielobjekt) von Objekten der Kamera 410 und analysiert ein Bild davon, und wenn entsprechende Benutzerinformationen vorhanden sind, bezieht er sich auf die Benutzerinformationen und bewegt sich in einem angemessenen Abstand zu dem Benutzer. Es wird angenommen, dass die Höhe des Roboters 100 in der Ausführungsform im Bereich von 50 Zentimetern liegt.
  • Wenn der Roboter 100 dieser Höhe das Gesicht eines Benutzers optisch erkennt, nimmt der Roboter 100 durch Neigen des Kopfabschnitts zwangsläufig einen Zustand des Aufschauens an. Um den nach oben gerichteten Blickwinkel zu vergrößern und um das Gesicht eines Benutzers optisch zu erkennen, muss sich der Roboter 100 dem Benutzer nähern, und wenn er den nach oben gerichteten Blickwinkel verringert, muss sich der Roboter 100 vom Benutzer wegbewegen. Durch Steuern, so dass der nach oben gerichtete Blickwinkel konstant ist, und Steuern einer Vorwärts- und Rückwärtsbewegung des Roboters 100, so dass der Zustand der optischen Gesichtserkennung des Benutzers zu diesem Zeitpunkt erhalten bleibt, kann der Roboter 100 veranlasst werden, dem Benutzer zu folgen und gleichzeitig einen natürlichen Abstand zum Benutzer einzuhalten. Das heißt, ein natürlicher Abstand kann eingehalten werden, ohne einen bestimmten Abstand zwischen dem Roboter 100 und dem Benutzer zu messen.
  • In 8 ist ein omnidirektionaler Aufnahmebereich 418 ein Aufnahmebereich der omnidirektionalen Kamera 400. Die omnidirektionale Kamera 400 kann etwa den gesamten Bereich der Hemisphäre über dem Roboter 100 auf einmal aufnehmen. Die Erkennungseinheit 156 analysiert ein Bild (aufgenommenes Bild) eines Aufnahmebereichs 420, der ein festgelegter Bereich des omnidirektionalen Aufnahmebereichs 418 ist, der eine Richtung eines Zielobjekts 414 umfasst. In der Ausführungsform wird ein Lebewesen zwischen den Subjekten, dass ein Ziel der Interaktion oder des Körperkontaktes bildet, wie eine Person (Benutzer) oder ein Tier (Haustier), als „Zielobjekt“ bezeichnet, aber eine Konfiguration kann dergestalt sein, dass nur der Mensch im Besonderen ein Zielobjekt ist.
  • Die Erkennungseinheit 156 führt eine Bildanalyse durch, um zu bestimmen, ob ein Subjekt mit vorgegebenen Eigenschaften im Aufnahmebereich 420 vorhanden ist. In der Ausführungsform führt die Erkennungseinheit 156 des Roboters 100 einen Prozess zur Bilderkennung des Zielobjekts 414 aus dem Aufnahmebereich 420 aus. In einem modifizierten Beispiel kann die Erkennungseinheit 212 des Servers 200 die Bilderkennung ausführen, oder sowohl die Erkennungseinheit 212 des Servers 200 als auch die Erkennungseinheit 156 des Roboters 100 können die Bilderkennung ausführen.
  • Bei der Identifizierung des Zielobjekts 414 von den Subjekten misst die Erkennungseinheit 156 die periphere Temperaturverteilung eines Subjekts unter Verwendung des Temperatursensors 406 und bestimmt, ob das Subjekt ein wärmeerzeugendes Objekt ist oder nicht, insbesondere ein Objekt, das Wärme im Bereich von 30 bis 40 Grad Celsius erzeugt. Die Erkennungseinheit 156 fungiert auch als „Temperaturbestimmungseinheit“. Da ein warmblütiges Lebewesen wie ein Mensch oder ein Haustier ein wärmeerzeugendes Objekt ist, können Audiogeräte, ein Fernseher, eine Wand, ein Spiegel und dergleichen durch die Temperaturmessung als potentielle Zielobjekte 414 eliminiert werden.
  • Ferner misst die Erkennungseinheit 156 eine dreidimensionale Form eines Subjekts unter Verwendung des Formmesssensors 408 und bestimmt, ob das Subjekt ein Objekt mit einer festgelegten Form ist oder nicht. So bestimmt beispielsweise die Erkennungseinheit 156, ob das Subjekt eine ungleichmäßige Form hat oder nicht. Wenn das Subjekt keine ungleichmäßige Form hat, wird angenommen, dass das Subjekt ein flacher Körper wie ein Fernseher, eine Wand oder ein Spiegel ist, wodurch diese als potentielles Zielobjekt 414 eliminiert werden können. Bevorzugter ist es wünschenswert, dass Merkmale der dreidimensionalen Form des Subjekts durch den Formmesssensor 408 erfasst werden. Wenn Merkmale der Gesichtsform einer Person oder eines Tieres (die Position der Nase, die Form des Mundes und dergleichen) erkannt werden können, kann ein unbelebtes Objekt wie ein Audiogerät oder ein Fernseher leichter als potentielles Zielobjekt 414 eliminiert werden. Charakteristische Informationen über die Flächen jedes Clusters werden ebenfalls in der individuellen Datenspeichereinheit 218 durch den Formmesssensor 408 gespeichert. Das bedeutet, dass vorzugsweise durch den Formmesssensor 408 bestimmt werden kann, wer das Zielobjekt 414 ist.
  • Wird ein Kandidat als Zielobjekt 414 (genannt „Zielobjektkandidat“) durch den Temperatursensor 406 und den Formmesssensor 408 auf diese Weise identifiziert, wird der Zielobjektkandidat mit der hochauflösenden Kamera 402 aufgenommen. Zu diesem Zeitpunkt wird ein Blickwinkel so eingestellt, dass der Zielobjektkandidat in der Mitte eines Bildschirms dargestellt wird. Wie bereits erwähnt, stimmt die optische Achse der hochauflösenden Kamera 402 mit der Sichtlinie überein. Deshalb existiert der Zielobjektkandidat in Richtung der Sichtlinie des Roboters 100. Die Erkennungseinheit 156 identifiziert den Zielobjektkandidaten als Zielobjekt 414 basierend auf dem Bild der hochauflösenden Kamera 402.
  • Beispielsweise wird ein Zielobjektkandidat mit physischen und Verhaltensmerkmalen, die einem Lebewesen eigen sind, wie beispielsweise Abschnitte, die zwei Augen und einem Mund entsprechen, Hautfarbe, Bewegung und das Tragen von Kleidung, als Zielobjekt 414 erkannt. Darüber hinaus wird eine allgemein bekannte Gesichtserkennungstechnologie eingesetzt, um das Gesicht des Zielobjekts 414 zu identifizieren. Die Gesichtserkennung ist derart, dass beispielsweise ein Gesichtsbereich durch Erfassen eines Randabschnitts des Gesichts aus dem Bild des Zielobjekts 414 identifiziert wird und ein Muster einer vorgegebenen charakteristischen Menge (eine Anordnung eines Auges, einer Nase, eines Mundes oder dergleichen) mit dem Bild des Gesichtsbereichs verglichen wird. Wenn eine aus dem Vergleich resultierende Ähnlichkeit gleich oder größer als ein Referenzwert ist, kann bestimmt werden, dass das Bild ein Gesicht ist. Wenn ein Vielfaches des Zielobjekts 414 vorhanden ist, werden mehrere Gesichter identifiziert.
  • Nach der Identifizierung des Zielobjekts 414 auf diese Weise identifiziert die Erkennungseinheit 156 weiterhin eine Höhe des Zielobjekts 414 und eine Größe des Gesichtes. Insbesondere extrahiert die Erkennungseinheit 156 einen charakteristischen Punkt des Zielobjekts 414 aus dem Bildschirm und identifiziert eine Höhe des charakteristischen Punktes als „Zielobjekthöhe“. In der Ausführungsform extrahiert die Erkennungseinheit 156 eine aus einer Mitte des Gesichts nach vorne ragende Nase als charakteristischen Punkt und identifiziert die Höhe des Zielobjekts 414. Außerdem extrahiert die Erkennungseinheit 156 einen Gesichtsumriss und identifiziert eine vertikale Richtungslänge davon als „Gesichtsgröße“. Die Ein- und Ausfahrbewegung des Roboters 100 wird so gesteuert, dass die Größe des als Gesicht erkannten Bereichs (auch „Gesichtsbereich“ genannt), d.h. ein Bereich des Gesichtsbereichs, ein vorgegebener Bereich auf dem Bildschirm ist. Wenn die Fläche des Gesichtsbereichs vergrößert wird, verringert sich ein Abstand zum Zielobjekt 414, und wenn die Fläche des Gesichtsbereichs verkleinert wird, vergrößert sich ein Abstand zum Zielobjekt 414.
  • Wenn ein Vielfaches des Zielobjekts 414 vorhanden ist, wird das Zielobjekt 414, das ein Ziel der Abstandsanpassung sein soll, basierend auf Informationen über die Höhen und Gesichtsgrößen des Vielfachen des Zielobjekts 414 identifiziert. Wenn es ein einzelnes Zielobjekt 414 gibt, wird dies als Ziel der Anpassung angesehen. Weiterhin wird der nach oben gerichtete Blickwinkel entsprechend den Attributen und der Vertrautheit des Zielobjekts 414, das das Ziel der Anpassung ist, festgelegt und der Abstand vom Zielobjekt 414 (auch „persönlicher Abstand“ genannt) so gesteuert, dass das Gesicht des Zielobjekts 414 auf der Sichtlinie unter dem nach oben gerichteten Blickwinkel liegt, wenn er dem Zielobjekt 414 zugewandt ist. Wenn man sich beispielsweise einem Kind in einer Situation nähert, in der Eltern und Kind versammelt sind, ist es schwierig, mit einem Ultraschallsensor einen genauen Abstand zum Kind zu messen. Durch die Steuerung, dass der Bereich des Gesichtsbereichs des Kindes nach dem optischen Erkennen des Gesichts des Kindes und dem Einstellen des nach oben gerichteten Blickwinkels in einem konstanten Winkel in einen bestimmten Bereich passt, kann der Abstand jedoch entsprechend dem Kind angepasst werden.
  • 9 ist eine Zeichnung, die ein Beispiel für ein Verfahren zur Einstellung eines nach oben gerichteten Blickwinkels zeigt.
  • Ein vertikaler Bereich der Sichtlinie des Roboters 100 (d.h. ein Bereich, in dem sich der Kopfabschnitt bewegen kann) wird mit -45 Grad bis +45 Grad (siehe gestrichelte Linien) in Bezug auf eine horizontale Richtung (siehe eine doppeltgepunktete Kettenlinie) angenommen. Ein Gefühl, ein Subjekt in einen bequemen Blickwinkel innerhalb des Bewegungsbereichs des Kopfabschnitts einzubringen, wie es bei einem Lebewesen der Fall ist, wird nachempfunden. Deshalb wird ein nach oben gerichteter Blickwinkel θ (ein nach oben gerichteter Winkel in Bezug auf die horizontale Richtung) des Roboters 100 in einem Bereich von 0 bis 45 Grad eingestellt. Um die Geste des Aufschauens natürlich erscheinen zu lassen, werden 30 Grad (siehe gestrichelte Linie) als Referenzwert festgelegt.
  • Wenn die vom Roboter 100 erkannten Vertrautheiten gleich sind, unterscheidet sich der persönliche Abstand d je nach Attribut, z. B. ob das Zielobjekt 414 ein Erwachsener oder ein Kind, ein Mann oder eine Frau ist. Das heißt, eine Entfernung von einem Kind 414c ist kürzer als die von Erwachsenen 414m und 414f. Auch bei einem Erwachsenen ist die Entfernung je nach Größe des Erwachsenen unterschiedlich. In dem in der Zeichnung gezeigten Beispiel ist ein Abstand df von der Frau 414f kürzer als ein Abstand dm vom erwachsenen Mann 414m, und ein Abstand dc vom Kind 414c ist noch kürzer. Auf diese Weise kann die instinktive Abstandsanpassung eines Tieres, bei der sich das Tier von einem großen Objekt entfernt und sich einem kleinen Objekt nähert, durch einen einheitlichen Prozess der Durchführung der Vor- und Rückwärtssteuerung realisiert werden, so dass die Fläche des Gesichtsbereichs in einem Zustand, in dem der nach oben gerichtete Blickwinkel konstant ist, innerhalb eines vorgegebenen Bereichs liegt.
  • Unter der Annahme, dass die drei Personen nebeneinanderstehen (siehe 8), priorisiert der Roboter 100 die Entfernung dc vom Kleinkind 414c. Das heißt, die Bewegungssteuereinheit 152 bewirkt, dass sich der Roboter 100 so bewegt, dass der Abstand vom Kind 414c der Abstand dc ist. Zu diesem Zeitpunkt, damit die Geste des Roboters 100 natürlich erscheint, wird die Steuerung so vorgenommen, dass der Antrieb des Kopfabschnitts eingeleitet wird, wenn sich der Roboter 100 innerhalb einer vorgegebenen Entfernung (z.B. innerhalb von 5 m) zum Kind 414c angenähert hat und sich der nach oben gerichtete Blickwinkel □ allmählich dem festgelegten Wert nähert.
  • Eine Geschwindigkeit, mit der sich der Roboter 100 dem Zielobjekt 414 nähert, sollte behutsam sein. Deshalb kann das Zielobjekt 414 den Roboter 100 berühren, obwohl der persönliche Abstand festgelegt ist. Das heißt, der physische Kontakt mit dem Roboter 100, entsprechend der Absicht eines Benutzers, ist gewährleistet.
  • 10 ist eine Zeichnung, die weitere Beispiele für Verfahren zur Einstellung des nach oben gerichteten Blickwinkels zeigt. 10(a) zeigt einen Fall, in dem ein Vielfaches der Zielobjekte vorhanden ist, und 10(b) zeigt eine Änderung des nach oben gerichteten Blickwinkels entsprechend der Vertrautheit.
  • In einem Fall, in dem beispielsweise der Vater 414m in der Nähe des Kindes 414c hockt und mit dem Roboter 100 spricht, wie in 10(a) dargestellt, wird angenommen, dass die Reaktion auf den Vater 414m, der Vertrautheit ausdrückt, natürlich ist und dass Empathie erreicht wird. Wenn also ein Vielfaches des Zielobjekts 414 auf diese Weise vorhanden ist, wird das Zielobjekt 414 mit dem größeren Gesicht als Referenz für die Abstandsregelung herangezogen, wenn eine Differenz Δh zwischen den Höhen zweier identifizierter Zielobjekte 414 gleich oder kleiner als ein Referenzwert ist (z.B. eine Höhe auf dem Bildschirm entsprechend 20 cm oder kleiner). In dem in der Zeichnung gezeigten Beispiel bewirkt die Bewegungssteuereinheit 152, dass der Roboter 100 dem Vater 414 m zugewandt ist, und dass sich der Roboter 100 in eine Position bewegt, in der der nach oben gerichtete Blickwinkel auf dem festgelegten Wert liegt (z.B. 30 Grad). Die Betriebssteuereinheit 154 treibt den Kopfabschnitt so an, dass sich der nach oben gerichtete Blickwinkel θ während des Bewegungsvorgangs schrittweise dem festgelegten Wert nähert. Die „Höhendifferenz Δh“ und der „Referenzwert“ können in der Bildverarbeitung als Pixelzahlen festgelegt werden.
  • Der nach oben gerichtete Blickwinkel θ kann entsprechend der Vertrautheit mit dem Zielobjekt 414 variieren. Das heißt, wenn die Vertrautheit des Zielobjekts 414 höher wird als zuvor, wird die Einstellung so geändert, dass der nach oben gerichtete Blickwinkel zu einem Winkel wird (z.B. 40 Grad, siehe eine dicke gestrichelte Linie), der größer ist als der vorherige Winkel (z.B. 30 Grad, siehe eine dünne gestrichelte Linie), wie in 10(b) dargestellt. Dadurch verringert sich der Abstand zwischen dem Roboter 100 und dem Zielobjekt 414 von d1 auf d2. Deshalb kann der Roboter 100 ein größeres Wohlwollen als bisher gegenüber dem Zielobjekt 414 ausdrücken, so wie sich ein Haustier an einen Besitzer gewöhnt und einen Abstand zum Besitzer verringert.
  • 11 ist eine Zeichnung, die eine Einstelltabelle darstellt, auf die bei der Bestimmung des nach oben gerichteten Blickwinkels Bezug genommen wird.
  • Die Einstelltabelle ist eine Datentabelle, in der eine Übereinstimmung zwischen dem nach oben gerichteten Blickwinkel und Vertrautheit definiert ist. In dem in der Zeichnung gezeigten Beispiel ist eine Standardvertrautheit (genannt „Standardvertrautheit“) 21 oder größer, 40 oder kleiner, und der entsprechende nach oben gerichtete Blickwinkel θ beträgt 30 Grad. Wenn die Vertrautheit zum Zielobjekt 414 höher wird als die Standardvertrautheit, wird der nach oben gerichtete Blickwinkel θ größer als 30 Grad. Zu diesem Zeitpunkt nähert sich der Roboter 100 dem Zielobjekt 414 näher als zuvor und führt eine Geste der genauen Beobachtung aus. Deshalb kann der Roboter 100 ein größeres Wohlwollen als bisher gegenüber dem Zielobjekt 414 ausdrücken.
  • Wenn umgekehrt die Vertrautheit des Zielobjekts 414 geringer wird als die Standardvertrautheit, wird der nach oben gerichtete Blickwinkel θ nach oben kleiner als 30 Grad. Zu diesem Zeitpunkt entfernt sich der Roboter 100 weiter vom Zielobjekt 414 als zuvor und führt eine Geste der genauen Beobachtung aus. Deshalb kann Unzufriedenheit oder Zurückhaltung hinsichtlich mangelnder Zuneigung zum Zielobjekt 414 ausgedrückt werden. Durch die Abstandsänderung entsprechend der Vertrautheit auf diese Weise kann die Aktionsauswahl des Roboters 100 eine menschen- oder tierähnliche Aktionsauswahl sein.
  • 12 ist ein Flussdiagramm, das ein Beispiel für eine Operationssteuerung des Roboters zeigt.
  • Ein Prozess in der Zeichnung wird wiederholt in einem vorgegebenen Regelkreis ausgeführt. Nachstehend wird eine Beschreibung mit einem Fall gegeben, in dem das Zielobjekt 414 als Beispiel ein Benutzer ist.
  • Der interne Sensor 128 nimmt regelmäßig die Peripherie des Roboters 100 auf und misst die Umgebungstemperatur. Wenn ein Subjekt von der omnidirektionalen Kamera 400 erfasst wird, bestimmt die Erkennungseinheit 156, ob das Subjekt ein Benutzer ist oder nicht, basierend auf Informationen, die vom Temperatursensor 406 und dem Formmesssensor 408 erfasst werden. Wenn das Subjekt ein Benutzer ist (Y in S10), erkennt die Erkennungseinheit 156 das Gesicht des Benutzers mit der hochauflösenden Kamera 402 und verfolgt das Gesicht (S12).
  • Die Erkennungseinheit 156 bestimmt, basierend auf einem von der hochauflösenden Kamera 402 aufgenommenen Bild, eine Höhe h des Benutzers (S14) und die Größe des Benutzergesichts (S16). Wenn ein Vielfaches von Benutzern vorhanden ist (Y in S18), wird der kleinere Benutzer als Ziel der Entfernungseinstellung (S22) festgelegt, wenn die Höhendifferenz Δh des Vielfachen von Benutzern nicht gleich oder kleiner als ein Referenzwert ist (N in S20). Wenn hingegen die Höhendifferenz Δh gleich oder kleiner als der Referenzwert (Y in S20) ist, wird der Benutzer mit dem größeren Gesicht festgelegt (S24). Wenn es einen Benutzer gibt (N in S18), werden die Prozesse von S20 bis S24 übersprungen. Ein zu diesem Zeitpunkt festgelegter Benutzer wird auch als „festgelegter Benutzer“ bezeichnet.
  • Die Erkennungseinheit 156 erfasst Informationen über den festgelegten Benutzer und bestimmt die Vertrautheit des festgelegten Benutzers (S26). Wenn keine Informationen über den festgelegten Benutzer vorliegen, bestimmt die Erkennungseinheit 156 vorläufig die Vertrautheit als Standardvertrautheit. Weiterhin bezieht sich die Erkennungseinheit 156 auf die Einstelltabelle (11) unter Verwendung der Vertrautheit und legt den nach oben gerichteten Blickwinkel θ fest (S28).
  • Die Bewegungssteuereinheit 152 veranlasst den Roboter 100, sich dem festgelegten Benutzer (S30) zuzuwenden, und bewirkt, dass sich der Roboter 100 in Richtung des festgelegten Benutzers (S32) bewegt. Zu diesem Zeitpunkt steuert die Betriebssteuereinheit 154 den Kopfabschnitt derart an, dass sich der nach oben gerichtete Blickwinkel im Laufe der Bewegung allmählich dem festgelegten Wert nähert. Wenn sich der Benutzer dem Roboter 100 weiter nähert als die Entfernung, die dem nach oben gerichteten Blickwinkel θ entspricht, veranlasst die Bewegungssteuereinheit 152 den Roboter 100, sich vom festgelegten Benutzer bis zu dem Abstand zu entfernen, der dem nach oben gerichteten Blickwinkel θ entspricht. Wenn kein Benutzer erkannt wird (N in S10), werden die Prozesse von S12 bis S32 übersprungen und der Prozess wird einmal beendet.
  • Bislang wurden der Roboter 100 und das Robotersystem 300, einschließlich des Roboters 100, anhand der Ausführungsform beschrieben. Gemäß der Ausführungsform steuert der Roboter 100 den Abstand zu einem Benutzer in Abhängigkeit von der Körpergröße und der Gesichtsgröße des Benutzers. Der Abstand von einer großen Person wird vergrößert, und der Abstand von einer kleinen Person wird verringert. Durch diese Art der Bedienung kann ein natürlicher Abstand zum Roboter 100 aus der Sicht des Benutzers eingehalten werden. Da dieser Abstand von der Einstellung des nach oben gerichteten Blickwinkels abhängt, richtet der Roboter 100 in einem natürlichen Winkel einen Blick auf einen Benutzer. Deshalb kann der Benutzer auch veranlasst werden, ein Gefühl der Sympathie zu empfinden.
  • Die Steuerung erfolgt so, dass der nach oben gerichtete Blickwinkel konstant (ein festgelegter Wert) ist, wodurch der Roboter 100, wenn ein Benutzer in die Hocke geht und physischen Kontakt mit dem Roboter 100 sucht, eine Aktion zur Annäherung an den Benutzer ausführt. Deshalb kann der Roboter 100 problemlos auf den Wunsch des Benutzers reagieren, dass sich der Roboter 100 nähert.
  • Auch der nach oben gerichtete Blickwinkel ändert sich entsprechend dem Umfang der Vertrautheit. Wenn die Vertrautheit zunimmt, ändert sich der nach oben gerichtete Blickwinkel in Aufwärtsrichtung. Deshalb kann der Roboter 100 auch eine Geste der körperlichen Kontaktaufnahme mit einem Benutzer ausführen. Wenn umgekehrt die Vertrautheit abnimmt, ändert sich der nach oben gerichtete Blickwinkel in Abwärtsrichtung. Deshalb zeigt der Roboter 100 ein Gefühl der Zurückhaltung gegenüber einem Benutzer oder kann auch eine Geste der Schüchternheit oder dergleichen ausführen.
  • Wenn man sich beispielsweise eine Beziehung zwischen einem Tier wie einem Haustier und einer Person vorstellt, ist es für die Person selbstverständlich, einen gewissen Abstand zum Tier einzuhalten, wenn die Person steht. Erst wenn ein beträchtliches Wohlwollen besteht, nähert sich das Tier dem Menschen und tollt umher. Je nach Ausführungsform kann diese Art einer tierähnlichen natürlichen Aktion (instinktive und einfache Aktion) nachgeahmt werden, indem der nach oben gerichtete Blickwinkel des Roboters 100 entsprechend der Vertrautheit gesteuert wird.
  • Die Erfindung ist nicht auf die zuvor beschriebene Ausführungsform und das modifizierte Beispiel beschränkt, so dass Komponenten modifiziert und dargestellt werden können, ohne vom Umfang der Erfindung abzuweichen. Verschiedene Erfindungen können durch geeignete Kombination einer Vielzahl von Komponenten gebildet werden, die in der vorstehend beschriebenen Ausführungsform und dem modifizierten Beispiel offenbart sind. Außerdem können einige Komponenten aus der Gesamtheit der Komponenten weggelassen werden, die in der vorstehend beschriebenen Ausführungsform und dem modifizierten Beispiel dargestellt sind.
  • Obwohl eine Beschreibung unter der Annahme gegeben wurde, dass das Robotersystem 300 aus einem Roboter 100, einem Server 200 und der Vielzahl der externen Sensoren 114 konfiguriert ist, kann ein Teil der Funktionen des Roboters 100 durch den Server 200 realisiert werden, und ein Teil oder alle Funktionen des Servers 200 können dem Roboter 100 zugeordnet sein. Ein Server 200 kann ein Vielfaches des Roboters 100 steuern, oder ein Vielfaches des Servers 200 kann einen oder mehrere des Roboters 100 in Zusammenarbeit steuern.
  • Eine dritte Vorrichtung mit Ausnahme des Roboters 100 und des Servers 200 kann einen Teil der Funktionen verwalten. Eine Sammlung der Funktionen des Roboters 100 und der Funktionen des Servers 200, die in 7 beschrieben sind, kann auch als ein „Roboter“ umfassend verstanden werden. Es ist ausreichend, dass ein Verfahren zum Verteilen der Vielzahl von Funktionen, die zum Verwirklichen der Erfindung in Bezug auf ein oder mehrere Hardwarekomponenten erforderlich sind, unter Berücksichtigung der Verarbeitungsfähigkeit jedes Hardwareelements, der Spezifikationen, die für das Robotersystem 300 und dergleichen erforderlich sind, bestimmt wird.
  • Wie zuvor beschrieben, ist „der Roboter im engeren Sinn“ der Roboter 100 mit Ausnahme des Servers 200, aber „der Roboter im weiteren Sinne“ ist das Robotersystem 300. Es wird angenommen, dass es eine Möglichkeit gibt, dass zukünftig viele Funktionen des Servers 200 in den Roboter 100 integriert werden.
  • In der vorstehend beschriebenen Ausführungsform ist eine Konfiguration einschließlich der omnidirektionalen Kamera 400 und der hochauflösenden Kamera 402 als Beispiel für die Kamera 410 dargestellt. In einem modifizierten Beispiel kann die hochauflösende Kamera 402 weggelassen werden, um Kosten und dergleichen zu reduzieren. Das heißt, der Bildschirm mit dem Zielobjekt 414 kann als ein Teil des omnidirektionalen Aufnahmebereichs 418 der omnidirektionalen Kamera 400 herausgeschnitten werden. Es ist zu beachten, dass es vorteilhafter ist auch die hochauflösende Kamera 402 zu verwenden, um die Gesichtserkennung des Zielobjekts 414 (Benutzer) mit hoher Genauigkeit zu erhalten, wie in der vorstehend beschriebenen Ausführungsform. In der vorstehend beschriebenen Ausführungsform werden die optische Achse der hochauflösenden Kamera 402 und die Sichtlinie des Roboters 100 übereinstimmen, wodurch die Einstellung des nach oben gerichteten Blickwinkels auch in Richtung der optischen Achse erfolgt und die Steuerung einfach ist.
  • Alternativ kann auch die omnidirektionale Kamera 400 weggelassen und das Zielobjekt 414 mit der hochauflösenden Kamera 402 identifiziert werden. Es ist zu beachten, dass es in diesem Fall notwendig ist, dass der Kopfabschnitt ständig angetrieben wird, um die Peripherie aufzunehmen. Außerdem wird die Verfolgung gestartet, sobald das Zielobjekt 414 in das Aufnahmefeld der hochauflösenden Kamera 402 eintritt, und die Aktion des Roboters 100 wird möglicherweise unangenehm. Hinsichtlich dessen ist die omnidirektionale Kamera 400 so konzipiert, dass die Erkennung des Zielobjekts 414 einfach ist, auch ohne dass sich die Kamera selbst bewegt. Deshalb ist es vorzuziehen, dass die omnidirektionale Kamera 400 und die hochauflösende Kamera 402 gemeinsam verwendet werden, wie in der vorstehend beschriebenen Ausführungsform.
  • In der Ausführungsform wird das Zielobjekt 414 mit Hilfe der Kamera 410, des Temperatursensors 406 und des Formmesssensors 408 erfasst und ein Erkennungsprozess durch die Erkennungseinheit 156 des Roboters 100 ausgeführt. In einem modifizierten Beispiel kann ein Teil oder der gesamte Erkennungsprozess durch die Erkennungseinheit 212 des Servers 200 ausgeführt werden. Außerdem kann ein Teil der Funktionen des internen Sensors 128 in den externen Sensor 114 eingebaut werden. Beispielsweise kann eine Ausführung so vorgenommen werden, dass die Kamera 410 im externen Sensor 114 montiert ist, Bildinformationen vom externen Sensor 114 durch den Server 200 analysiert werden und der Roboter 100 die Position des Zielobjekts 414, basierend auf einem Ergebnis der Analyse, identifiziert.
  • In der vorstehend beschriebenen Ausführungsform ist die omnidirektionale Kamera 400 im Horn 112 angeordnet und weist eine Konfiguration auf, die sich integral mit dem Kopfabschnitt des Roboters 100 bewegt. In einem modifizierten Beispiel kann die omnidirektionale Kamera 400 in einem Bereich (eine Position, die nicht von der Bewegung der Sichtlinie beeinflusst wird) unabhängig vom Kopfabschnitt angeordnet sein. Beispielsweise kann die omnidirektionale Kamera 400 an der Basisplatte 328 befestigt werden und eine Konfiguration aufweisen, die über den Kopfabschnitt hinausragt. Deshalb kann ein von der omnidirektionalen Kamera 400 aufgenommenes Bild von der Bewegung des Kopfabschnitts gelöst werden, wodurch ein Berechnungsverfahren zur Identifizierung der Position des Zielobjekts 414 vereinfacht wird und dessen Verarbeitungslast reduziert werden kann.
  • Obwohl in der Ausführungsform nicht erwähnt, kann das Mikrofonarray 404 auch verwendet werden, um das Zielobjekt 414 zu erkennen. Das Zielobjekt 414 kann mit Hilfe des Mikrofonarrays 404 erfasst werden, und die Richtung zum Zielobjekt 414 kann identifiziert werden. Außerdem können Mikrofone anstelle des im Roboter 100 befestigten Mikrofonarrays 404 an mehreren Stellen im Roboter 100 angeordnet sein.
  • Ein Beispiel, bei dem der Roboter 100 dem Zielobjekt 414 zugewandt ist und den Abstand anpasst (hauptsächlich durch Annäherung), ist in der vorstehend beschriebenen Ausführungsform dargestellt. In einem modifizierten Beispiel kann die Steuerung so durchgeführt werden, dass der gleiche Abstand erreicht wird, wenn sich der Roboter 100 vom Zielobjekt 414 entfernt. Beispielsweise kann die Steuerung so erfolgen, dass der Roboter unter Einhaltung des Abstands entsprechend der Höhe des Zielobjekts 414 ausweicht, wenn dem Roboter 100 das Zielobjekt 414 folgt. In diesem Fall kann, obwohl der Roboter 100 dem Zielobjekt 414 seinen Rücken zuwendet, die Entfernung anhand eines von der omnidirektionalen Kamera 400 aufgenommenen Bildes gesteuert werden. Alternativ kann das Zielobjekt 414, das sich dem Roboter 100 von hinten nähert, mit der omnidirektionalen Kamera 400 erfasst werden, und die Steuerung kann ausgeführt werden, um die Ausrichtung zu ändern, so dass sich der Roboter 100 dem Zielobjekt 414 zuwendet. Ferner kann eine Steuerung ausgeführt werden, die den Roboter 100 veranlasst, sich gemäß der Vertrautheit mit dem Zielobjekt 414 zurückzuziehen oder dergleichen.
  • In diesem Fall ist die Sichtlinie des Roboters 100 grundsätzlich auf die der Seite des Zielobjekts 414 entgegengesetzte Seite ausgerichtet, aber zur Vereinfachung eines Regelalgorithmus kann bei der Berechnung ein „hypothetischer nach oben gerichtete Blickwinkel“ festgelegt werden, der davon ausgeht, dass sich ein Gesicht in einem hinteren Kopfabschnitt befindet. Auf diese Weise kann die gleiche Art von Einstellungstabelle wie beim Betrachten eines Benutzers verwendet werden. Diese Art der Steuerung kann einfach realisiert werden, indem der Bildschirm der omnidirektionalen Kamera 400 herausgeschnitten wird.
  • Ein Beispiel, bei dem der Abstand entsprechend der Höhe des Zielobjekts 414 eingestellt wird, ist in der vorstehend beschriebenen Ausführungsform dargestellt. In einem modifizierten Beispiel kann der Abstand entsprechend einer Größe gesteuert werden, die eine Breite des Zielobjekts 414 beinhaltet. Dabei wird berücksichtigt, dass die Körpergröße nicht nur aus der Höhe, sondern auch aus dem Volumen in Breitenrichtung wahrgenommen wird. Die Steuerung erfolgt so, dass der Abstand zu einem Benutzer mit einem großen Körper relativ vergrößert wird und dass sich der Abstand zu einem Benutzer mit einem kleinen Körper relativ verringert. Diese Form der Handlung entspricht weitgehend einer tierähnlichen Handlung.
  • In der vorstehend beschriebenen Ausführungsform wird die Nase des Zielobjekts 414 als charakteristischer Punkt extrahiert und die Höhe der Nase als Höhe des Zielobjekts 414 identifiziert. In einem modifizierten Beispiel kann die Höhe des Zielobjekts 414 durch Setzen eines anderen charakteristischen Punktes identifiziert werden. Beispielsweise kann ein Umriss des Kopfabschnitts (Gesicht) des Zielobjekts 414 identifiziert werden, und eine Höhe eines Scheitelabschnitts davon wird als die Höhe des Zielobjekts 414 angenommen. Außerdem wird in der zuvor beschriebenen Ausführungsform der Umriss des Gesichts extrahiert und dessen vertikale Richtungslänge als „Gesichtsgröße“ identifiziert. In einem modifizierten Beispiel kann beispielsweise ein aus der Gesichtskontur berechneter Gesichtsbereich als „Gesichtsgröße“ identifiziert werden.
  • Ein Beispiel, in dem sich ein Elternteil und ein Kind in praktisch der gleichen Position befinden, ist in der vorstehend beschriebenen Ausführungsform als Beispiel für einen Fall dargestellt, in dem ein Vielfaches des Zielobjekts 414 in den Aufnahmebereich der Kamera eintritt, aber die gleiche Art der Steuerung kann auch durchgeführt werden, wenn die Perspektive berücksichtigt werden soll, wie wenn ein Vielfaches der Zielobjekte voneinander distanziert ist. Wenn sich beispielsweise ein Benutzer C in der Nähe des Roboters 100 befindet und ein Benutzer D distanziert ist, ist der Benutzer C größer und sein Gesicht ist größer auf dem Bildschirm. Deshalb wird die Abstandsregelung in Bezug auf den näheren Benutzer durchgeführt. Auch in Anbetracht einer tierähnlichen Aktion ist die Reaktion auf ein Objekt in der Nähe von sich selbst natürlich und logisch.
  • Ein Beispiel in dem, wenn sich der Roboter 100 dem Zielobjekt 414 nähert, der Antrieb des Kopfabschnitts gestartet wird, wenn sich der Roboter 100 innerhalb eines festgelegten Abstandes angenähert hat, und der nach oben gerichtete Blickwinkel allmählich näher an den festgelegten Wert herangeführt wird, ist in der vorstehend beschriebenen Ausführungsform dargestellt. In einem modifizierten Beispiel kann der nach oben gerichtete Blickwinkel des Roboters 100 im Wesentlichen fixiert sein, und der Roboter 100 veranlasst werden, sich dem Zielobjekt 414 mit dem unveränderten nach oben gerichteten Blickwinkel zu nähern. Ferner kann der Roboter 100 zum Stillstand gebracht werden, wenn der gesamte Körper des Zielobjekts 414 in den Sichtwinkel (Blickwinkel) der hochauflösenden Kamera 402 eintritt. Gemäß dieser Art von Konfiguration kann eine Frequenz der Bewegung des Kopfabschnitts des Roboters 100 reduziert werden, wodurch eine Steuerlast reduziert wird.
  • In der vorstehend beschriebenen Ausführungsform wird der Abstand zum Zielobjekt 414 so gesteuert, dass der nach oben gerichtete Blickwinkel θ des Roboters 100 konstant ist. Insbesondere wird der Antrieb des Kopfabschnitts gestartet, wenn sich der Roboter 100 innerhalb eines vorgegebenen Abstandes vom Zielobjekt 414 angenähert hat, wobei sich der Roboter 100 selbst allmählich dem Zielobjekt 414 nähert, während der nach oben gerichtete Blickwinkel allmählich dem festgelegten Wert angenähert wird, und der Roboter 100 stoppt, wenn der nach oben gerichtete Blickwinkel den festgelegten Wert erreicht. Folglich wird die Bewegung des Roboters 100 nicht durch einen bestimmten Messabstand gesteuert. In einem modifizierten Beispiel kann der Roboter 100 einen Abstandsmesssensor umfassen, der einen Abstand zu einem Objekt erfasst. Ferner kann der Abstand vom Zielobjekt 414 (ein festgelegter Abstand) berechnet werden, wenn der nach oben gerichtete Blickwinkel den festgelegten Wert erreicht, und der Roboter 100 kann veranlasst werden, sich zu bewegen, sodass der festgelegte Abstand erreicht wird. Dabei können die vom Abstandsmesssensor erfassten Informationen nacheinander erfasst werden, und eine Aktion des Aufschauens zu 414 kann gestartet werden, indem der Kopfabschnitt kurz vor Erreichen des festgelegten Abstands angetrieben wird. Ferner kann die Steuerung so durchgeführt werden, dass der nach oben gerichtete Blickwinkel den festgelegten Wert zu dem Zeitpunkt erreicht, zu dem der festgelegte Abstand erreicht wird.
  • In der vorstehend beschriebenen Ausführungsform ist das Zielobjekt 414 ein Benutzer (Person), aber das Zielobjekt 414 kann ein Tier wie einen Hund oder eine Katze umfassen. Deshalb kann eine Funktion, bei der sich der Roboter 100 in angemessenem Abstand einem Tier zuwendet, ausgedrückt werden.
  • Obwohl in der vorstehend beschriebenen Ausführungsform nicht erwähnt, ist es oft der Fall, dass ein Kameraaufnahmezustand ein hinterleuchteter Zustand ist, wenn der Roboter 100 eine Aktion des Aufschauens durchführt. Deshalb kann an einem aufgenommenen Bild ein Korrekturprozess durchgeführt werden, so dass der Roboter 100 das Zielobjekt 414 auch in einem hinterleuchteten Zustand genau erkennen kann. Insbesondere kann eine Belichtungskorrektur durchgeführt werden, so dass das gesamte aufgenommene Bild heller wird. Alternativ kann eine Korrektur, die die Belichtung erhöht (die Helligkeit erhöht), durchgeführt werden, außer an einer hellen Stelle im aufgenommenen Bild. Die Belichtung kann zentriert auf einen charakteristischen Abschnitt (das Gesicht oder dergleichen) des Zielobjekts 414 erhöht werden. Eine Korrektur mit dem HDR-Rendering (High-Dynamic-Range) kann durchgeführt werden. Die Erkennungseinheit 156 kann den vorstehend beschriebenen Erkennungsprozess durchführen, wie beispielsweise das Extrahieren der Eigenschaften des Zielobjekts 414, basierend auf einem Bild nach dieser Form der Korrektur. Das aufgenommene Bild wird in einem internen Prozess (Bilderkennung) des Roboters 100 verwendet, anstatt einem Benutzer zur Verfügung gestellt zu werden, wodurch „Farbsprünge“ und „Verdunkelungen“ eines nicht mit dem Zielobjekt 414 verbundenen Bildabschnitts kein besonderes Problem darstellen.
  • Obwohl die omnidirektionale Kamera 400 in der vorstehend beschriebenen Ausführungsform als Beispiel dargestellt ist, kann stattdessen eine 180-Grad-Kamera verwendet werden. Alternativ kann eine Konfiguration so gewählt werden, dass nur der Abschnitt der Kugel über der omnidirektionalen Kamera 400 ein Aufnahmeziel ist. Es ist zu beachten, dass diese omnidirektionalen und 180-Grad-Kameras so beschaffen sind, dass die Verzerrung eines damit aufgenommenen Bildes (ein sphärisches Bild) im Allgemeinen erheblich ist, weshalb die Erkennungseinheit 156 nach der Korrektur vorzugsweise eine Bilderkennung durchführt, um die Verzerrung des sphärischen Bildes zu reduzieren.
  • Wenn der Abstand zu einem Zielobjekt durch Aufrechterhaltung eines konstanten nach oben gerichteten Blickwinkels eines Roboters aufrechterhalten wird, wird das Vor- und Zurückfahren des Roboters so gesteuert, dass eine Position und Größe eines Identifikationsbereichs (ein Gesicht oder ein charakteristischer Punkt) des Zielobjekts auf einem Bildschirm beibehalten wird. Dabei entspricht der „nach oben gerichtete Blickwinkel“ einem Drehwinkel (auch „Neigungswinkel“ genannt) einer Neigungswelle. Ein Aufnahmebereich in Auf- und Ab-Richtung (aufwärts und abwärts schauend) einer Kamera kann sich durch Einstellen des Neigungswinkels ändern. Das heißt, bei der Steuerung des Abstandes vom Zielobjekt unter Beibehaltung des nach oben gerichteten Blickwinkels des Roboters genügt es, die Bewegung des Roboters so zu steuern, dass der Identifikationsbereich des Zielobjekts, der auf dem Bildschirm in einem Zustand erscheint, in dem der Neigungswinkel konstant ist, in einem festgelegten Bereich (einer festgelegten Position und einem festgelegten Bereich) auf dem Bildschirm beibehalten wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2000323219 A [0003]

Claims (10)

  1. Autonom agierender Roboter, umfassend: Eine Aufnahmeeinheit, die eine Peripherie aufnimmt, und eine Bewegungssteuereinheit, die einen Abstand von einem aufgenommenen Zielobjekt gemäß einer Größe des Zielobjekts steuert.
  2. Autonom agierender Roboter gemäß Anspruch 1, weiter umfassend: Eine Betriebssteuerungseinheit, die einen Betrieb des Kopfabschnitts steuert, und eine Erkennungseinheit, die ein Gesicht eines aufgenommenen Zielobjekts erkennt, wobei die Betriebssteuereinheit den Betrieb des Kopfabschnitts steuert, so dass der Kopfabschnitt einen Winkel erreicht, in dem der Kopfabschnitt nach oben in das Gesicht des Zielobjekts blickt, und die Bewegungssteuereinheit einen Abstand vom Zielobjekt entsprechend einer Höhe des Zielobjekts steuert.
  3. Autonom agierender Roboter nach Anspruch 2, wobei die Bewegungssteuereinheit den Abstand vom Zielobjekt steuert, so dass ein nach oben gerichteter Blickwinkel des Kopfabschnitts innerhalb eines voreingestellten Winkelbereichs liegt.
  4. Autonom agierender Roboter nach Anspruch 2 oder 3, wobei die Bewegungssteuereinheit den Abstand vom Zielobjekt entsprechend einer Höhe des kleineren Zielobjekts steuert, wenn ein Vielfaches von Zielobjekten auf einem Bildschirm existiert.
  5. Autonom agierender Roboter nach Anspruch 2 oder 3, wobei die Bewegungssteuereinheit den Abstand vom Zielobjekt entsprechend einer Höhe eines Zielobjekts mit einem größeren Gesicht steuert, wenn ein Vielfaches von Zielobjekten auf einem Bildschirm existiert.
  6. Autonom agierender Roboter nach Anspruch 4 oder 5, wobei die Bewegungssteuereinheit den Roboter so steuert, dass er einem Zielobjekt zugewandt ist, das eine Referenz für die Abstandssteuerung bildet.
  7. Autonom agierender Roboter nach einem der Ansprüche 2 bis 6, wobei die Aufnahmeeinheit eine Kamera umfasst, die praktisch einen ganzen Randbereich aufnehmen kann, und die Kamera in einer Position angeordnet ist, die nicht von einer Bewegung einer Sichtlinie des Kopfabschnitts beeinflusst wird.
  8. Autonom agierender Roboter nach einem der Ansprüche 1 bis 7, ferner umfassend eine Präferenzbestimmungseinheit, die eine Präferenz in Bezug auf ein Zielobjekt bestimmt, wobei die Bewegungssteuereinheit eine Übereinstimmung zwischen der Größe des Zielobjekts und dem Abstand, der ein Steuerziel ist, entsprechend der Präferenz für das Zielobjekt ändert.
  9. Autonom agierender Roboter nach einem der Ansprüche 1 bis 8, ferner umfassend eine Temperaturbestimmungseinheit, die eine Temperatur eines Zielobjekts bestimmt, wobei die Bewegungssteuereinheit bestimmt, dass ein Zielobjekt ein Ziel der Abstandssteuerung ist, basierend auf der Temperatur des Zielobjekts.
  10. Programm, um einen Computer zur Ausführung zu veranlassen: eine Funktion zum Aufnehmen eines aufgenommenen Bildes von einer Peripherie eines Roboters, eine Funktion zum Identifizieren eines festgelegten Zielobjekts im aufgenommenen Bild, eine Funktion zur Berechnung einer Positionsbeziehung, die der Roboter und ein aufgenommenes Zielobjekt entsprechend einer Größe des aufgenommenen Zielobjekts annehmen sollten, und eine Funktion zur Steuerung der Bewegung des Roboters, um die berechnete Positionsbeziehung zu verwirklichen.
DE112017004512.6T 2016-09-08 2017-09-05 Autonom agierender Roboter, der einen natürlichen Abstand hält Pending DE112017004512T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016175163 2016-09-08
JP2016-175163 2016-09-08
PCT/JP2017/031890 WO2018047802A1 (ja) 2016-09-08 2017-09-05 自然な距離感を保つ自律行動型ロボット

Publications (1)

Publication Number Publication Date
DE112017004512T5 true DE112017004512T5 (de) 2019-06-13

Family

ID=61562098

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017004512.6T Pending DE112017004512T5 (de) 2016-09-08 2017-09-05 Autonom agierender Roboter, der einen natürlichen Abstand hält

Country Status (6)

Country Link
US (1) US11148294B2 (de)
JP (2) JP6472113B2 (de)
CN (1) CN109690435A (de)
DE (1) DE112017004512T5 (de)
GB (1) GB2570584B (de)
WO (1) WO2018047802A1 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10489638B2 (en) * 2016-11-09 2019-11-26 Nanjing Avatarmind Robot Technology Co., Ltd. Visual tracking method and robot based on monocular gesture recognition
JP2020017206A (ja) * 2018-07-27 2020-01-30 ソニー株式会社 情報処理装置、行動決定方法及びプログラム
NL2022442B1 (nl) * 2019-01-24 2020-01-07 Lely Patent Nv Positiebepalingsinrichting
JP7320240B2 (ja) 2019-04-01 2023-08-03 国立大学法人豊橋技術科学大学 ロボット
US11883963B2 (en) * 2019-06-03 2024-01-30 Cushybots Corporation Robotic platform for interactive play using a telepresence robot surrogate
CN110757477A (zh) * 2019-10-31 2020-02-07 昆山市工研院智能制造技术有限公司 一种陪护机器人的高度方位自适应调整方法及陪护机器人
CN111300437B (zh) * 2019-12-06 2022-01-04 西南石油大学 一种图书馆图书智能收集存储集运机器人
US11806881B1 (en) * 2020-06-09 2023-11-07 Multimedia Led, Inc. Artificial intelligence system for automatic tracking and behavior control of animatronic characters
CN115428470B (zh) * 2020-12-23 2023-12-26 松下知识产权经营株式会社 机器人控制方法、机器人、程序以及记录介质
US11297247B1 (en) * 2021-05-03 2022-04-05 X Development Llc Automated camera positioning for feeding behavior monitoring
JPWO2022259595A1 (de) * 2021-06-10 2022-12-15
CN114489133B (zh) * 2022-01-26 2023-12-26 深圳市奥拓电子股份有限公司 一种无人机自动校正led显示屏的距离保持方法
WO2024004623A1 (ja) * 2022-06-29 2024-01-04 ソニーグループ株式会社 ロボット及びロボットの制御方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000323219A (ja) 1999-05-10 2000-11-24 Sony Corp 接続装置及びロボットシステム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6367959A (ja) 1986-09-10 1988-03-26 Mitsubishi Electric Corp プリンタ制御装置
JPH036710A (ja) * 1989-06-05 1991-01-14 Toshiba Corp 追随移動ロボット制御装置
WO2000067959A1 (fr) * 1999-05-10 2000-11-16 Sony Corporation Dispositif robotique et procede de commande associe
JP4689107B2 (ja) * 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
JP2003205482A (ja) * 2002-01-08 2003-07-22 Fuji Photo Film Co Ltd ペット型ロボット
JP2003275976A (ja) * 2002-03-22 2003-09-30 Matsushita Electric Ind Co Ltd 移動作業ロボット
JP4131392B2 (ja) * 2003-01-28 2008-08-13 ソニー株式会社 ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
US8583282B2 (en) * 2005-09-30 2013-11-12 Irobot Corporation Companion robot for personal interaction
JP2011054082A (ja) * 2009-09-04 2011-03-17 Hitachi Ltd 自律移動装置
ES2358139B1 (es) * 2009-10-21 2012-02-09 Thecorpora, S.L. Robot social.
CN102134022B (zh) * 2011-03-31 2013-09-25 浙江天下实业有限公司 紧急自锁宠物牵引器
US9517559B2 (en) * 2013-09-27 2016-12-13 Honda Motor Co., Ltd. Robot control system, robot control method and output control method
CN106096373A (zh) * 2016-06-27 2016-11-09 旗瀚科技股份有限公司 机器人与用户的交互方法及装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000323219A (ja) 1999-05-10 2000-11-24 Sony Corp 接続装置及びロボットシステム

Also Published As

Publication number Publication date
GB2570584B (en) 2021-12-08
CN109690435A (zh) 2019-04-26
JP6472113B2 (ja) 2019-02-20
US20190184572A1 (en) 2019-06-20
US11148294B2 (en) 2021-10-19
WO2018047802A1 (ja) 2018-03-15
GB2570584A (en) 2019-07-31
GB201902513D0 (en) 2019-04-10
JPWO2018047802A1 (ja) 2018-10-18
JP2019089197A (ja) 2019-06-13

Similar Documents

Publication Publication Date Title
DE112017004512T5 (de) Autonom agierender Roboter, der einen natürlichen Abstand hält
DE112017003480B4 (de) Autonom handelnder Roboter
DE112017004363T5 (de) Autonom agierender roboter, der die richtung einer geräuschquelle erkennt
DE112017002606B4 (de) Autonom handelnder Roboter, der Kleidung trägt
DE112017005954T5 (de) Autonom agierender Roboter, der die Pupille verändert
DE112018005034B4 (de) Autonom handelnder Roboter, der den Begleiter anblickt
DE112017001573B4 (de) Autonom agierender Roboter, der eine Begrüssungsaktion durchführt
DE112017003651T5 (de) Autonom agierender Roboter, der Körperkontakt versteht
DE112017001874T5 (de) Autonom handelnder Roboter mit Schüchternheit
DE112017003497T5 (de) Selbständig agierender Roboter mit gesteuerter Aktivitätsmenge
DE112017002960T5 (de) Autonom handelnder roboter, der kühle sucht
DE112017004554B4 (de) Autonom handelnder Roboter, der einen Gast akzeptiert
DE112018001944T5 (de) Roboter, auf dem Außenhaut befestigt ist
DE112017004414T5 (de) Autonom handelnder roboter, server und verhaltenssteuerungsprogramm
DE112018005162T5 (de) Roboter, der lustig agiert und dessen Aufbau
DE112018000722T5 (de) Roboter mit einer weichen Außenhaut
DE112018001700T5 (de) Für Robotergelenk geeignete Gelenkstruktur
JPWO2020116412A1 (ja) ロボット用充電ステーション
JP7189620B2 (ja) 天球画像の歪みを補正する画像処理装置とそれを備えるロボット

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: G05D0001430000