DE102019134695A1 - Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und sich bewegendes Subjekt - Google Patents

Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und sich bewegendes Subjekt Download PDF

Info

Publication number
DE102019134695A1
DE102019134695A1 DE102019134695.9A DE102019134695A DE102019134695A1 DE 102019134695 A1 DE102019134695 A1 DE 102019134695A1 DE 102019134695 A DE102019134695 A DE 102019134695A DE 102019134695 A1 DE102019134695 A1 DE 102019134695A1
Authority
DE
Germany
Prior art keywords
area
moving subject
unit
information processing
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019134695.9A
Other languages
English (en)
Inventor
Satoshi Fukumoto
Yoshimasa Okabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of DE102019134695A1 publication Critical patent/DE102019134695A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/145Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas
    • G08G1/146Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas where the parking area is a limited parking space, e.g. parking garage, restricted space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/145Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas
    • G08G1/147Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas where the parking area is within an open public zone, e.g. city centre
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9314Parking operations

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Eine Informationsverarbeitungsvorrichtung (20) gemäß der vorliegenden Offenbarung enthält eine Bestimmungseinheit (20E) und eine Ausgabesteuereinheit (20F). Die Bestimmungseinheit (20E) ist konfiguriert, eine Bereichsrichtung (L1) zu bestimmen, in die ein vorgegebener Bereich eines Körpers eines Benutzers (B), der sich innerhalb eines sich bewegenden Subjekts (10) befindet, gerichtet ist. Die Ausgabesteuereinheit (20F) ist konfiguriert, Kandidateninformationen auszugeben, die eine Fläche (S) darstellen, auf die das sich bewegende Subjekt (10) fahren darf, wobei die Fläche (S) der durch die Bestimmungseinheit (20E) bestimmten Bereichsrichtung (L1) entspricht.

Description

  • Gebiet
  • Die hierin beschriebenen Ausführungsformen betreffen eine Informationsverarbeitungsvorrichtung, ein Informationsverarbeitungsverfahren und ein sich bewegendes Subjekt.
  • Hintergrund
  • Herkömmlicherweise sind Techniken zum Anzeigen eines Bilds, das Kandidaten zum Parken verfügbarer Flächen darstellt, die sich in einer Fahrtrichtung eines Fahrzeugs befinden, auf einem Anzeigebildschirm in dem Fahrzeug bekannt. Außerdem sind Techniken zum Bestimmen einer auf dem Anzeigebildschirm an einer von einem Benutzer angegebenen Position angezeigten Fläche unter einer Vielzahl von Flächen, die auf dem Anzeigebildschirm angezeigt werden, als ein Ziel eines Stellplatzes bekannt. Eine der herkömmlichen Techniken ist beispielsweise in der internationalen Veröffentlichung Nr. WO2017/145364 offenbart.
  • In der herkömmlichen Technik sind die zum Parken verfügbaren Flächen, die in den Anzeigebildschirm aufgenommen werden, jedoch auf die Flächen begrenzt, die sich in der Fahrtrichtung des sich bewegenden Subjekts, z. B. eines Fahrzeugs, befinden. Infolgedessen ist es mit der herkömmlichen Technik schwer, einen Stellplatz entsprechend der Absicht des Benutzers auszuwählen.
  • Es ist ein Ziel der vorliegenden Offenbarung, eine Informationsverarbeitungsvorrichtung, ein Informationsverarbeitungsverfahren und ein sich bewegendes Subjekt zu schaffen, die entsprechend der Absicht eines Benutzers eine Fläche auswählen können, auf die das sich bewegende Subjekt fahren darf.
  • Zusammenfassung
  • Eine Informationsverarbeitungsvorrichtung gemäß der vorliegenden Offenbarung enthält eine Bestimmungseinheit und eine Ausgabesteuereinheit. Die Bestimmungseinheit ist konfiguriert, eine Bereichsrichtung zu bestimmen, in die ein vorgegebener Bereich eines Körpers eines Benutzers, der sich innerhalb eines sich bewegenden Subjekts befindet, gerichtet ist. Die Ausgabesteuereinheit ist konfiguriert, Kandidateninformationen auszugeben, die eine Fläche darstellen, auf die das sich bewegende Subjekt fahren darf, wobei die Fläche der durch die Bestimmungseinheit bestimmten Bereichsrichtung entspricht.
  • Gemäß der vorliegenden Offenbarung ist es möglich, entsprechend der Absicht eines Benutzers eine Fläche auszuwählen, auf die das sich bewegende Subjekt fahren kann.
  • Figurenliste
    • 1 ist ein Diagramm eines Beispiels eines sich bewegenden Subjekts gemäß einer Ausführungsform der vorliegenden Offenbarung;
    • 2 ist eine schematische Darstellung eines Beispiels einer Anordnung von Anzeigeeinheiten gemäß der Ausführungsform;
    • 3 ist eine schematische Darstellung eines Beispiels von Montagepositionen externer Sensoren gemäß der Ausführungsform;
    • 4 ist ein Diagramm einer beispielhaften Hardwarekonfiguration einer Informationsverarbeitungsvorrichtung gemäß der Ausführungsform;
    • 5 ist ein Blockdiagramm einer beispielhaften funktionellen Konfiguration des sich bewegenden Subjekts gemäß der Ausführungsform;
    • 6 ist eine Ansicht eines Beispiels eines Umgebungsbilds gemäß der Ausführungsform;
    • 7 ist eine schematische Darstellung eines Beispiels eines Falls, auf den das sich bewegende Subjekt gemäß der Ausführungsform angewendet wird;
    • 8 ist eine Ansicht zur Erläuterung eines Beispiels von Kandidateninformationen gemäß der Ausführungsform;
    • 9 ist eine schematische Darstellung eines Beispiels eines Kandidatenbilds gemäß der Ausführungsform;
    • 10 ist eine schematische Darstellung eines Beispiels eines Anzeigebildschirms gemäß der Ausführungsform; und
    • 11 ist ein Ablaufdiagramm eines Beispiels eines Prozesses zur Informationsverarbeitung gemäß der Ausführungsform.
  • Genaue Beschreibung
  • Beispielhafte Ausführungsformen einer Informationsverarbeitungsvorrichtung, eines Informationsverarbeitungsverfahrens und eines sich bewegenden Subjekts gemäß der vorliegenden Offenbarung sind nachfolgend unter Bezugnahme auf die beigefügte Zeichnung beschrieben.
  • 1 ist ein Diagramm eines Beispiels eines sich bewegenden Subjekts 10 gemäß einer Ausführungsform der vorliegenden Offenbarung.
  • Das sich bewegende Subjekt 10 enthält eine Informationsverarbeitungsvorrichtung 20, eine Ausgabeeinheit 10A, eine Eingabeeinheit 10B, einen internen Sensor 10C, einen externen Sensor 10D, eine Fotografiervorrichtung 10E, eine Antriebssteuereinheit 10F und eine Antriebseinheit 10G.
  • Die Informationsverarbeitungsvorrichtung 20 ist beispielsweise ein dedizierter oder universeller Computer. In der vorliegenden Ausführungsform ist angenommen, dass die Informationsverarbeitungsvorrichtung 20 an dem sich bewegenden Subjekt 10 montiert ist.
  • Das sich bewegende Subjekt 10 ist ein bewegliches Objekt. In der vorliegenden Ausführungsform ist das sich bewegende Subjekt 10 ein Objekt, in dem ein Benutzer fahren kann. Das sich bewegende Subjekt 10 ist beispielsweise ein Fahrzeug. Beispiele des Fahrzeugs umfassen, aber sind nicht beschränkt auf zweirädrige Fahrzeuge, dreirädrige Fahrzeuge, vierrädrige Fahrzeuge usw. Das sich bewegende Subjekt 10 ist beispielsweise ein sich bewegendes Subjekt, das mittels Fahroperationen durch eine Person gefahren wird, oder ein sich bewegendes Subjekt, das ohne jegliche Fahroperationen durch eine Person automatisch fahren kann (autonomes Fahren). In der vorliegenden Ausführungsform ist das sich bewegende Subjekt 10 durch ein vierrädriges Fahrzeug veranschaulicht, das autonom fahren kann.
  • Die Ausgabeeinheit 10A gibt Informationen aus. Die Ausgabeeinheit 10A der vorliegenden Ausführungsform gibt Informationen wie z.B. Kandidateninformationen aus, die durch die Informationsverarbeitungsvorrichtung 20 erzeugt werden. Die Kandidateninformationen sind weiter unten ausführlich beschrieben.
  • Die Ausgabeeinheit 10A weist eine Anzeigefunktion zum Anzeigen von Informationen auf. Die Ausgabeeinheit 10A kann außerdem beispielsweise eine Kommunikationsfunktion zum Übermitteln von Informationen an eine externe Vorrichtung oder dergleichen, eine Tonausgabefunktion zum Ausgeben von Ton und eine Funktion zum Beleuchten oder Blinken aufweisen. Die Ausgabeeinheit 10A enthält beispielsweise eine Anzeigeeinheit 10K und mindestens eine Einheit aus einer Kommunikationseinheit 10H, einem Lautsprecher 101 und einer Beleuchtungseinheit 10J. Die Ausgabeeinheit 10A in der vorliegenden Ausführungsform enthält beispielsweise die Kommunikationseinheit 10H, den Lautsprecher 101, die Beleuchtungseinheit 10J und die Anzeigeeinheit 10K.
  • Die Kommunikationseinheit 10H übermittelt Informationen an andere Vorrichtungen. Die Kommunikationseinheit 10H übermittelt beispielsweise über eine öffentlich bekannte Kommunikationsleitung Informationen an andere Vorrichtungen. Der Lautsprecher 101 gibt Ton aus. Die Beleuchtungseinheit 10J ist eine Leuchte, die leuchtet oder blinkt. Die Anzeigeeinheit 10K zeigt Informationen an. Die Anzeigeeinheit 10K ist beispielsweise eine öffentlich bekannte organische Elektrolumineszenz-(EL)-Anzeige, eine Flüssigkristallanzeige oder ein Projektor.
  • Die Montageposition der Ausgabeeinheit 10A kann eine beliebige Position sein, an welcher der Benutzer, der in dem sich bewegenden Subjekt 10 fährt, die von der Ausgabeeinheit 10A ausgegebenen Informationen überprüfen kann.
  • In der vorliegenden Ausführungsform ist die Anzeigeeinheit 10K innerhalb des sich bewegenden Subjekts 10 angeordnet. Die Anzeigeeinheit 10K ist an einer Position angeordnet, an der sie in den Blick gelangt, wenn der Benutzer, der in dem sich bewegenden Subjekt 10 fährt, in verschiedene Richtungen blickt.
  • 2 ist eine schematische Darstellung eines Beispiels einer Anordnung der Anzeigeeinheit 10K. Das sich bewegende Subjekt 10 kann beispielsweise mit einer Vielzahl der Anzeigeeinheiten 10K versehen sein (Anzeigeeinheiten 10K1 bis 10K8). Diese Anzeigeeinheiten 10K sind an verschiedenen Positionen in der Fahrgastzelle des sich bewegenden Subjekts 10 angeordnet. Die Anzahl der Anzeigeeinheiten 10K, die in dem sich bewegenden Subjekt 10 vorgesehen sind, muss nicht unbedingt eine Mehrzahl sein und kann eins betragen. In der vorliegenden Ausführungsform ist angenommen, dass das sich bewegende Subjekt 10 mit einer Vielzahl von Anzeigeeinheiten 10K versehen ist.
  • Genauer sind die Anzeigeeinheiten 10K einzeln in Zonen angeordnet, die erhalten werden, in dem ein Umgebungsbereich von 360 Grad um einen Benutzer B, der in dem sich bewegenden Subjekt 10 fährt, in einer horizontalen Ebene aufgeteilt wird. Die Richtungen der Anzeigeflächen der Anzeigeeinheiten 10K sind im Voraus so eingestellt, dass der Benutzer B, der in dem sich bewegenden Subjekt 10 fährt, auf die Anzeigeflächen blicken kann.
  • Genauer ist die Anzeigeeinheit 10K1 beispielsweise in der Mitte eines Armaturenbretts 15A des sich bewegenden Subjekts 10 in der Fahrzeugbreitenrichtung angeordnet (siehe Pfeil w1). Die Anzeigeeinheit 10K2 ist an einer A-Säule 15B innerhalb der Fahrgastzelle auf einer ersten Seite in der Fahrzeugbreitenrichtung des sich bewegenden Subjekts 10 angeordnet. Die Anzeigeeinheit 10K3 ist an einer A-Säule 15C innerhalb der Fahrgastzelle auf einer zweiten Seite in der Fahrzeugbreitenrichtung des sich bewegenden Subjekts 10 angeordnet. Die Anzeigeeinheit 10K4 ist an einer B-Säule 15D innerhalb der Fahrgastzelle auf der ersten Seite in der Fahrzeugbreitenrichtung des sich bewegenden Subjekts 10 angeordnet. Die Anzeigeeinheit 10K5 ist an einer B-Säule 15E innerhalb der Fahrgastzelle auf der zweiten Seite in der Fahrzeugbreitenrichtung des sich bewegenden Subjekts 10 angeordnet. Die Anzeigeeinheit 10K6 ist an einer C-Säule 15F innerhalb der Fahrgastzelle auf der ersten Seite in der Fahrzeugbreitenrichtung des sich bewegenden Subjekts 10 angeordnet. Die Anzeigeeinheit 10K7 ist an einem oberen Teil eines Rückfensters 15H innerhalb der Fahrgastzelle angeordnet. Die Anzeigeeinheit 10K8 ist an einer C-Säule 15G innerhalb der Fahrgastzelle auf der zweiten Seite in der Fahrzeugbreitenrichtung des sich bewegenden Subjekts 10 angeordnet.
  • Wie oben beschrieben, sind die Anzeigeeinheiten 10K an verschiedenen Positionen so angeordnet, dass irgendeine der Anzeigeeinheiten 10K auch dann in den Blick gelangt, wenn der Benutzer B, der in dem sich bewegenden Subjekt 10 fährt, in eine beliebige der Richtungen von innerhalb nach außerhalb der Fahrgastzelle blickt. Mindestens zwei oder mehr der Anzeigeeinheiten 10K können integriert sein. Ein Teil oder die gesamte Fläche der Innenwand der Fahrgastzelle des sich bewegenden Subjekts 10 kann beispielsweise als die Anzeigeeinheit 10K dienen.
  • Es ist wieder auf 1 Bezug genommen. Die Eingabeeinheit 10B empfängt eine Eingabe von Anweisungen oder Informationen von dem Benutzer B. Die Eingabeeinheit 10B ist mindestens eines aus beispielsweise einer Anweisungseingabevorrichtung, die eine Eingabe durch eine Bedieneingabe empfängt, die durch den Benutzer B ausgeführt wird, und einem Mikrofon, das eine Spracheingabe empfängt. Beispiele der Anweisungseingabevorrichtung umfassen, sind aber nicht beschränkt auf eine Taste, eine Zeigevorrichtung wie eine Maus oder eine Steuerkugel (Trackball), eine Tastatur usw. Die Anweisungseingabevorrichtung kann eine Eingabefunktion eines Berührungsbildschirms, der mit der Anzeigeeinheit 10K integriert ist, sein.
  • Der interne Sensor 10C ist ein Sensor, der Informationen über das sich bewegende Subjekt 10 erfasst. Der interne Sensor 10C erfasst die Position, die Geschwindigkeit, die Beschleunigung oder andere Informationen des sich bewegenden Subjekts 10.
  • Der interne Sensor 10C ist beispielsweise eine Trägheitsmesseinheit (IMU), ein Geschwindigkeitssensor oder ein globales Positionsbestimmungssystem (GPS).
  • Der externe Sensor 10D ist ein Sensor, der die Umgebung des sich bewegenden Subjekts 10 erfasst. Der externe Sensor 10D kann an dem sich bewegenden Subjekt 10 montiert sein oder außerhalb des sich bewegenden Subjekts 10 vorgesehen sein. Außerhalb des sich bewegenden Subjekts 10 bezieht sich beispielsweise auf ein anderes sich bewegendes Subjekt oder eine externe Vorrichtung.
  • Die Umgebung des sich bewegenden Subjekts 10 bezeichnet eine Region innerhalb eines vorgegebenen Bereichs von dem sich bewegenden Subjekt 10. Der Bereich entspricht einem Bereich, der durch den externen Sensor 10D erfasst werden kann. Der Bereich kann im Voraus festgelegt sein.
  • Der externe Sensor 10D erfasst die Umgebung des sich bewegenden Subjekts 10 und erhält Umgebungsinformationen. Die Umgebungsinformationen umfassen mindestens entweder ein Umgebungsbild der Umgebung des sich bewegenden Subjekts 10 oder Informationen, die den Abstand und die Richtung des sich bewegenden Subjekts 10 in Bezug auf Objekte in der Umgebung des sich bewegenden Subjekts 10 darstellen.
  • Der externe Sensor 10D ist beispielsweise eine Fotografiervorrichtung oder ein Abstandssensor (z. B. ein Millimeterwellenradar und ein Lasersensor), die den Abstand und die Richtung von dem sich bewegenden Subjekt 10 messen können.
  • Die Fotografiervorrichtung, die als der externe Sensor 10D dient, erhält durch Fotografieren aufgenommene Bilddaten (nachfolgend als ein aufgenommenes Bild bezeichnet). Die Fotografiervorrichtung ist beispielsweise eine Digitalkamera oder eine Stereokamera. Das aufgenommene Bild stellt beispielsweise digitale Bilddaten, welche die Pixelwerte der jeweiligen Pixel definieren, oder eine Tiefenkarte, welche die Abstände von dem externen Sensor 10D für die jeweiligen Pixel definiert, dar. Der Abstandssensor ist beispielsweise ein zweidimensionaler oder dreidimensionaler LIDAR-Sensor (Laser Imaging Detection and Ranging, Laser-Bilderfassung und -Entfernungsmessung), der parallel zu der horizontalen Ebene angeordnet ist.
  • In der vorliegenden Ausführungsform ist der externe Sensor 10D durch eine Fotografiervorrichtung veranschaulicht. Die Umgebungsinformationen, die durch den externen Sensor 10D erhalten werden, sind somit durch ein aufgenommenes Bild der Umgebung des sich bewegenden Subjekts 10 veranschaulicht. In der folgenden Beschreibung ist das aufgenommene Bild der Umgebung des sich bewegenden Subjekts 10 als ein Umgebungsbild bezeichnet.
  • Die Montageposition und der Sichtwinkel des externen Sensors 10D sind im Voraus so eingestellt, dass der externe Sensor 10D die Umgebung des sich bewegenden Subjekts 10 fotografieren kann. Das sich bewegende Subjekt 10 in der vorliegenden Ausführungsform enthält eine Vielzahl der externen Sensoren 10D mit verschiedenen Fotografierrichtungen.
  • 3 ist eine schematische Darstellung eines Beispiels der Montagepositionen der externen Sensoren 10D. Das sich bewegende Subjekt 10 ist beispielsweise mit vier externen Sensoren 10D (externe Sensoren 10D1, 10D2, 10D3 und 10D4) versehen. Die Anzahl der externen Sensoren 10D, die an dem sich bewegenden Subjekt 10 vorgesehen sind, ist nicht auf vier eingeschränkt.
  • Die externen Sensoren 10D1 und 10D2 sind die externen Sensoren 10D, deren Fotografierrichtungen die Vorwärtsrichtung bzw. Rückwärtsrichtung in der Gesamtlängenrichtung (Richtung des Pfeils w2 in 3), die zur Fahrzeugbreitenrichtung (Richtung des Pfeils w1) orthogonal ist, sind. Die externen Sensoren 10D3 und 10D4 sind die externen Sensoren 10D, deren Fotografierrichtungen die Rechtsrichtung bzw. Linksrichtung in der Fahrzeugbreitenrichtung (Richtung des Pfeils w1) des sich bewegenden Subjekts 10 sind.
  • Die Montagepositionen und die Anzahl der externen Sensoren 10D können so eingestellt sein, dass die externen Sensoren 10D die aufgenommenen Bilder in den Richtungen der im Wesentlichen gesamten Region (z. B. 360 Grad) um das sich bewegende Subjekt 10 in der horizontalen Ebene erhalten kann. Die Montagepositionen und die Anzahl sind nicht auf die in 3 dargestellten beschränkt. Der externe Sensor 10D kann beispielsweise eine Fotografiervorrichtung sein, welche die aufgenommenen Bilder in 360-Grad-Richtungen um das sich bewegende Subjekt 10 mit Hilfe eines Weitwinkelobjektivs erhalten kann.
  • Es ist wieder auf 1 Bezug genommen. Die Fotografiervorrichtung 10E fotografiert den Benutzer B, der in dem sich bewegenden Subjekt 10 fährt. Die Fotografiervorrichtung 10E ist beispielsweise eine Digitalkamera, die aufgenommene Bilder durch Fotografieren erhält. Der Sichtwinkel und die Montageposition der Fotografiervorrichtung 10E sind im Voraus so eingestellt, dass die Fotografiervorrichtung 10E die obere Hälfte des Körpers, die mindestens den Kopf umfasst, des Benutzers B, der sich innerhalb der Fahrgastzelle des sich bewegenden Subjekts 10 befindet, fotografieren kann. Wie in 2 dargestellt, ist die Fotografiervorrichtung 10E beispielsweise an dem Armaturenbrett 15A des sich bewegenden Subjekts 10 so angeordnet, dass sie die Fahrgastzelle des sich bewegenden Subjekts 10 von der Montageposition fotografieren kann.
  • Es ist wieder auf 1 Bezug genommen. Die Antriebseinheit 10G ist eine Antriebsvorrichtung, die an dem sich bewegenden Subjekt 10 montiert ist. Die Antriebseinheit 10G umfasst beispielsweise einen Verbrennungsmotor, einen anderen Motor und Räder.
  • Die Antriebssteuereinheit 10F steuert die Antriebseinheit 10G. Die Antriebseinheit 10G wird durch die Steuerung der Antriebssteuereinheit 10F angesteuert. Um beispielsweise das sich bewegende Subjekt 10 automatisch fahren zu lassen, steuert die Antriebssteuereinheit 10F die Antriebseinheit 10G auf Grundlage der Informationen, die von dem internen Sensor 10C oder dem externen Sensor 10D erhalten werden, oder der Informationen, die von der Informationsverarbeitungsvorrichtung 20 empfangen werden. Die Antriebseinheit 10G wird gesteuert, wodurch beispielsweise der Beschleunigungsbetrag, der Bremsbetrag, und der Lenkwinkel des sich bewegenden Subjekts 10 gesteuert werden. Die Antriebssteuereinheit 10F steuert das sich bewegende Subjekt 10 so, dass es auf eine Fläche, die durch die von der Informationsverarbeitungsvorrichtung 20 empfangenen Informationen angegeben wird, fährt und stoppt oder sich auf der Fläche fortbewegt. Die Antriebssteuereinheit 10F steuert die Antriebseinheit 10G so, dass das sich bewegende Subjekt 10 auf einer momentanen Fahrspur bleibt und den Abstand von einem anderen, vorausbefindlichen sich bewegenden Subjekt auf einem vorgegebenen Abstand oder mehr hält.
  • Nachfolgend ist eine Hardwarekonfiguration der Informationsverarbeitungsvorrichtung 20 beschrieben. 4 ist ein Diagramm einer beispielhaften Hardwarekonfiguration der Informationsverarbeitungsvorrichtung 20.
  • Die Informationsverarbeitungsvorrichtung 20 enthält beispielsweise eine zentrale Verarbeitungseinheit (CPU) 11A, einen Festwertspeicher (ROM) 11B, einen Direktzugriffsspeicher (RAM) 11C und eine Schnittstelle 11D, die über einen Bus 11E miteinander verbunden sind. Die Informationsverarbeitungsvorrichtung 20 weist eine Hardwarekonfiguration auf, die einen typischen Computer verwendet.
  • Die CPU 11A ist eine arithmetische Vorrichtung, welche die Informationsverarbeitungsvorrichtung 20 gemäß der vorliegenden Ausführungsform steuert. Das ROM 11B speichert beispielsweise ein Computerprogramm zur Durchführung der Verarbeitung durch die CPU 11A. Das RAM 11C speichert Daten, die für die Verarbeitung durch die CPU 11A benötigt werden. Die Schnittstelle 11D ist eine Schnittstelle zum Übermitteln und Empfangen von Daten.
  • Ein Computerprogramm zum Durchführen der Informationsverarbeitung, das durch die Informationsverarbeitungsvorrichtung 20 gemäß der vorliegenden Ausführungsform ausgeführt wird, ist beispielsweise in dem ROM 11B eingebettet und vorgesehen. Das Computerprogramm, das durch die Informationsverarbeitungsvorrichtung 20 gemäß der vorliegenden Ausführungsform ausgeführt wird, kann bereitgestellt werden, indem es auf einem computerlesbaren Aufzeichnungsmedium, wie etwa einem Compact-Disk-Nur-Lesespeicher (CD-ROM), einer flexiblen Platte (FD), einer beschreibbaren Compact-Disk (CD-R) und einer Digital Versatile Disc (DVD), als eine Datei aufgezeichnet ist, die durch die Informationsverarbeitungsvorrichtung 20 installierbar oder ausführbar ist.
  • Nachfolgend ist eine funktionelle Konfiguration des sich bewegenden Subjekts 10 beschrieben. 5 ist ein Blockdiagramm einer beispielhaften funktionellen Konfiguration des sich bewegenden Subjekts 10.
  • Das sich bewegende Subjekt 10 ist mit der Informationsverarbeitungsvorrichtung 20, der Ausgabeeinheit 10A, der Eingabeeinheit 10B, dem internen Sensor 10C, dem externen Sensor 10D, der Fotografiervorrichtung 10E, der Antriebssteuereinheit 10F und der Antriebseinheit 10G versehen.
  • Die Informationsverarbeitungsvorrichtung 20, die Ausgabeeinheit 10A, die Eingabeeinheit 10B, der interne Sensor 10C, der externe Sensor 10D, die Fotografiervorrichtung 10E und die Antriebssteuereinheit 10F sind über einen Bus 10L miteinander verbunden, um Daten oder Signale aneinander zu senden und voneinander zu empfangen. Die Antriebssteuereinheit 10F ist mit der Antriebseinheit 10G verbunden, um Daten oder Signale an die Antriebseinheit 10G zu senden und von dieser zu empfangen.
  • Die Informationsverarbeitungsvorrichtung 20 enthält eine Speichereinheit 20B und eine Verarbeitungseinheit 20A. Die Verarbeitungseinheit 20A und die Speichereinheit 20B sind miteinander über den Bus 10L verbunden, um Daten oder Signale aneinander zu senden und voneinander zu empfangen. Die Ausgabeeinheit 10A, die Eingabeeinheit 10B, der interne Sensor 10C, der externe Sensor 10D, die Fotografiervorrichtung 10E und die Antriebssteuereinheit 10F sind über den Bus 10L mit der Verarbeitungseinheit 20A verbunden, um Daten oder Signale an die Verarbeitungseinheit 20A zu senden und von dieser zu empfangen.
  • Mindestens eine Einheit aus der Speichereinheit 20B, der Ausgabeeinheit 10A (Kommunikationseinheit 10H, Lautsprecher 101, Beleuchtungseinheit 10J und Anzeigeeinheit 10K), der Eingabeeinheit 10B, dem internen Sensor 10C, dem externen Sensor 10D, der Fotografiervorrichtung 10E und der Antriebssteuereinheit 10F kann in einer drahtgebundenen oder drahtlosen Weise mit der Verarbeitungseinheit 20A verbunden sein. Mindestens eine Einheit aus der Speichereinheit 20B, der Ausgabeeinheit 10A (Kommunikationseinheit 10H, Lautsprecher 101, Beleuchtungseinheit 10J und Anzeigeeinheit 10K), der Eingabeeinheit 10B, dem internen Sensor 10C, dem externen Sensor 10D, der Fotografiervorrichtung 10E und der Antriebssteuereinheit 10F können über ein Netzwerk mit der Verarbeitungseinheit 20A verbunden sein.
  • Die Speichereinheit 20B speichert Daten. Die Speichereinheit 20B ist beispielsweise eine Halbleiterspeichervorrichtung wie ein RAM und ein Flash-Speicher, eine Festplatte oder ein optischer Datenträger. Die Speichereinheit 20B kann eine Speichervorrichtung sein, die außerhalb der Informationsverarbeitungsvorrichtung 20 vorgesehen ist. Die Speichereinheit 20B kann ein Aufzeichnungsmedium sein. Genauer kann das Aufzeichnungsmedium beispielsweise ein Computerprogramm oder Informationen, das bzw. die über ein Local Area Network (LAN) oder das Internet heruntergeladen werden, speichern oder vorübergehend speichern. Die Speichereinheit 20B kann eine Vielzahl von Aufzeichnungsmedien darstellen.
  • Die Verarbeitungseinheit 20A enthält eine Erlangungseinheit 20C, eine Erfassungseinheit 20D, eine Bestimmungseinheit 20E, eine Ausgabesteuereinheit 20F und eine Empfangseinheit 20G.
  • Die Erlangungseinheit 20C, die Erfassungseinheit 20D, die Bestimmungseinheit 20E, die Ausgabesteuereinheit 20F und die Empfangseinheit 20G sind durch ein oder mehrere Hardwareprozessoren umgesetzt. Diese Komponenten können durch Ausführung auf einem Prozessor wie einer CPU als ein Computerprogramm, das heißt als Software, umgesetzt sein. Alternativ können diese Komponenten durch einen Prozessor wie zum Beispiel eine dedizierte integrierte Schaltung (IC), das heißt durch Hardware, umgesetzt sein. Als eine weitere Alternative können diese Komponenten durch eine Kombination von Software und Hardware umgesetzt sein. Wenn zwei oder mehr Prozessoren verwendet werden, können diese eine der Komponenten oder zwei oder mehr davon umsetzen.
  • Der Prozessor liest ein Computerprogramm, das in der Speichereinheit 20B gespeichert ist, und führt dieses aus, wodurch die oben beschriebenen Komponenten umgesetzt werden. Das Computerprogramm kann direkt in eine Schaltung des Prozessors integriert sein, anstatt in der Speichereinheit 20B gespeichert zu werden. In diesem Fall liest der Prozessor das Computerprogramm, das in die Schaltung integriert ist, und führt dieses aus, wodurch die oben beschriebenen Komponenten umgesetzt werden.
  • Die Erlangungseinheit 20C erhält die Umgebungsinformationen von dem externen Sensor 10D. Wie oben beschrieben, erhält der externe Sensor 10D in der vorliegenden Ausführungsform als die Umgebungsinformationen die Umgebungsbilder, bei denen es sich um die aufgenommenen Bilder der Umgebung des sich bewegenden Subjekts 10 handelt. Dazu erhält die Erlangungseinheit 20C die Umgebungsbilder des sich bewegenden Subjekts 10 von dem externen Sensor 10D.
  • 6 ist eine Ansicht eines Beispiels eines Umgebungsbilds 40. Ein Umgebungsbild 40A, das in 6 dargestellt ist, ist ein Beispiel des Umgebungsbilds 40, das durch den externen Sensor 10D3 (siehe 3) unter den externen Sensoren 10D (10D1 bis 10D4) erfasst wird.
  • Es ist wieder auf 5 Bezug genommen. Wie oben beschrieben, enthält das sich bewegende Subjekt 10 gemäß der vorliegenden Ausführungsform eine Vielzahl der externen Sensoren 10D (10D1 bis 10D4). Die Erlangungseinheit 20C erhält die aufgenommenen Bilder, die durch die jeweiligen externen Sensoren 10D erfasst werden, und erzeugt durch Anordnen dieser Bilder an den Positionen, die den jeweiligen Fotografierrichtungen entsprechen, ein Panoramabild. Die Erlangungseinheit 20C erhält somit das Umgebungsbild 40 einer Region von beispielsweise 360 Grad in der Umgebung des sich bewegenden Subjekts 10.
  • Das Umgebungsbild 40 kann entweder ein 360-Grad-Bild in der horizontalen Richtung um das sich bewegende Subjekt 10 oder das gesamte sphärische Bild als ein 360-Grad-Panoramabild in allen Richtungen um das sich bewegende Subjekt 10 sein. Alternativ kann das Umgebungsbild 40 ein Bild eines Winkelbereichs in der horizontalen Richtung um das sich bewegende Subjekt 10 sein, der kleiner als 360 Grad ist. Wenn das Umgebungsbild 40 ein 360-Grad-Bild in der horizontalen Richtung um das sich bewegende Subjekt 10 ist, kann das Umgebungsbild 40 entweder ein Vogelperspektivenbild, welches das sich bewegende Subjekt 10 vertikal von oben zeigt, oder ein Viertelansichtsbild, welches das sich bewegende Subjekt 10 schräg von oben zeigt, sein.
  • Die externen Sensoren 10D erhalten die Umgebungsbilder 40 zu vorgegebenen Zeiten in einer Zeitreihe. Jedes Mal, wenn die externen Sensoren 10D die Umgebungsbilder 40 erhalten, geben sie die erhaltenen Umgebungsbilder 40 an die Verarbeitungseinheit 20A aus. Infolgedessen erhält die Erlangungseinheit 20C der Verarbeitungseinheit 20A sequentiell die Umgebungsbilder 40 von den externen Sensoren 10D.
  • Die Erfassungseinheit 20D analysiert die Umgebungsbilder 40, die durch die Erlangungseinheit 20C von den externen Sensoren 10D erhalten werden, wodurch eine Fläche, auf die das sich bewegende Subjekt (10) fahren darf, in der Umgebung des sich bewegenden Subjekts 10 erfasst wird.
  • Die Fläche bezeichnet eine Fläche, auf die das sich bewegende Subjekt 10 fahren kann. Der Zustand, in welchem das sich bewegende Subjekt 10 auf die Fläche fahren kann, bezieht sich auf einen Zustand, in welchem das sich bewegende Subjekt 10 sich auf die Fläche bewegen und auf der Fläche parken kann, ohne gegen ein anderes Objekt zu stoßen. Beispiele der Fläche umfassen, sind aber nicht beschränkt auf Flächen, auf denen das sich bewegende Subjekt 10 geparkt werden kann, Flächen einer anderen Fahrspur, auf die das sich bewegende Subjekt 10 durch Wechseln der Fahrspur fahren kann, usw.
  • 7 ist eine schematische Darstellung eines Beispiels eines Falls, auf den das sich bewegende Subjekt 10 gemäß der vorliegenden Ausführungsform angewendet wird. Hierin ist angenommen, dass das sich bewegende Subjekt 10 nach dem Fahren auf einem Parkplatz 60 in einer Fahrtrichtung (z. B. einer Richtung des Pfeils L2) auf dem Parkplatz 60 bewegt und ein Fahrer B1, der in dem sich bewegenden Subjekt 10 fährt, versucht, das sich bewegende Subjekt 10 auf dem Parkplatz 60 zu parken. Der Fahrer B1 ist ein Beispiel des Benutzers B, der in dem sich bewegenden Subjekt 10 fährt.
  • In diesem Fall fotografieren die externen Sensoren 10D, die an dem sich bewegenden Subjekt 10 vorgesehen sind, die Umgebung Q des sich bewegenden Subjekts 10, wodurch die Erlangungseinheit 20C die Umgebungsbilder 40 der Umgebung Q erhält. Die Erfassungseinheit 20D erhält die Umgebungsbilder 40 der Umgebung des sich bewegenden Subjekts 10 von der Erlangungseinheit 20C. Die Erfassungseinheit 20D analysiert die Umgebungsbilder 40, wodurch eine Fläche S erfasst wird, die in den Umgebungsbildern 40 enthalten ist. In dem in 7 dargestellten Beispiel enthält die Umgebung Q des sich bewegenden Subjekts 10 eine Vielzahl von Flächen S (Flächen S1 bis S5). Die Erfassungseinheit 20D erfasst diese Flächen S1 bis S5.
  • Das Verfahren zum Erfassen der Fläche S durch die Erfassungseinheit 20D kann ein öffentlich bekanntes Verfahren sein und ist nicht auf ein bestimmtes beschränkt. Beispielsweise analysiert die Erfassungseinheit 20D die Umgebungsbilder 40 und sucht nach einer Fläche, die der Größe des sich bewegenden Subjekts 10 entspricht, wodurch die Fläche S erfasst wird.
  • Die Erfassungseinheit 20D wendet Identifikationsinformationen auf die erfasste Fläche S an. Die Erfassungseinheit 20D speichert dann die Identifikationsinformationen und Informationen, welche die Position und den Bereich der Fläche S in einem tatsächlichen Raum darstellen, sodass diese in der Speichereinheit 20B miteinander verknüpft werden. Die Erfassungseinheit 20D kann die Informationen, welche die Position und den Bereich der Fläche S in einem tatsächlichen Raum darstellen, mit Hilfe der Positionsinformationen über das sich bewegende Subjekt 10, die von dem internen Sensor 10C erhalten werden, bestimmen.
  • Es ist wieder auf 5 Bezug genommen. Die Bestimmungseinheit 20E bestimmt eine Bereichsrichtung, in die ein vorgegebener Bereich eines Körpers des Benutzers B, der sich innerhalb des sich bewegenden Subjekts 10 befindet, gerichtet ist. Mit anderen Worten bestimmt die Bestimmungseinheit 20E die Bereichsrichtung, in die der Körperbereich des Benutzers B gerichtet ist.
  • Der vorgegebene Bereich ist mindestens ein Teilbereich des Körpers des Benutzers B. Genauer ist der vorgegebene Bereich des Körpers natürlicherweise in eine Richtung gerichtet, in welche die Aufmerksamkeit des Benutzers B gerichtet ist. Ein solcher vorgegebener Bereich ist beispielsweise mindestens ein Bereich aus dem Kopf, dem Gesicht, den Augen und dem Torso des Benutzers B.
  • In der vorliegenden Ausführungsform ist angenommen, dass es sich bei dem vorgegebenen Bereich um die Augen des Benutzers B handelt. Somit ist die Bereichsrichtung in der vorliegenden Ausführungsform eine Richtung, in welche die Augen des Benutzers B gerichtet sind, d. h. die Richtung der Sichtlinie. Nachfolgend ist die Bereichsrichtung als eine Sichtlinienrichtung bezeichnet.
  • Der Benutzer B mit der durch die Bestimmungseinheit 20E zu bestimmenden Sichtlinienrichtung kann ein beliebiger Benutzer B sein, der in dem sich bewegenden Subjekt 10 fährt. Beispielsweise bestimmt die Bestimmungseinheit 20E den Fahrer B1 unter den Benutzern B, die in dem sich bewegenden Subjekt 10 fahren, als einen Zielbenutzer B mit der zu bestimmenden Sichtlinienrichtung.
  • Der Zielbenutzer B mit der durch die Bestimmungseinheit 20E zu bestimmenden Sichtlinienrichtung kann ein anderer Benutzer B, der in dem sich bewegenden Subjekt 10 fährt (beispielsweise ein Benutzer B2 in 2, der auf einem Rücksitz, der nicht der Fahrersitz ist, sitzt), oder ein Benutzer B, der auf dem vorderen Beifahrersitz sitzt, sein. Die Bestimmungseinheit 20E enthält beispielsweise im Voraus Informationen, welche die Sitzposition des Zielbenutzers B mit der zu bestimmenden Sichtlinienrichtung in der Fahrgastzelle des sich bewegenden Subjekts 10 darstellen. Die Bestimmungseinheit 20E kann den Benutzer B, der auf der Sitzposition sitzt, als den Zielbenutzer B mit der zu bestimmenden Sichtlinienrichtung bestimmen. Die Informationen, welche die Sitzposition darstellen, können in geeigneter Weise beispielsweise durch Bedienung der Eingabeeinheit 10B durch den Benutzer B zur Eingabe einer Anweisung korrigiert werden.
  • In der vorliegenden Ausführungsform bestimmt die Bestimmungseinheit 20E die Sichtlinienrichtung des Fahrers B1.
  • Die Bestimmungseinheit 20E bestimmt die Sichtlinienrichtung des Fahrers B1 mit Hilfe des aufgenommenen Bilds, das durch die Fotografiervorrichtung 10E erfasst wird. Wie oben beschrieben, fotografiert die Fotografiervorrichtung 10E das Innere der Fahrgastzelle des sich bewegenden Subjekts 10. Somit erhält die Bestimmungseinheit 20E das aufgenommene Bild des Inneren der Fahrgastzelle des sich bewegenden Subjekts 10. Die Bestimmungseinheit 20E analysiert das aufgenommene Bild durch eine öffentlich bekannte Methode, wodurch die Sichtlinienrichtung des Fahrers B1 bestimmt wird.
  • Die Bestimmungseinheit 20E kann die Sichtlinienrichtung des Fahrers B1 durch andere Methoden bestimmen. Beispielsweise ist in der Fahrgastzelle des sich bewegenden Subjekts 10 ein öffentlich bekannter Sensor vorgesehen, der die Sichtlinienrichtung des Fahrers B1 erfassen kann. In diesem Fall erhält die Bestimmungseinheit 20E Informationen, welche die Sichtlinienrichtung darstellen, von dem Sensor, wodurch die Sichtlinienrichtung des Fahrers B1 bestimmt wird.
  • Die Bestimmungseinheit 20E bestimmt die Sichtlinienrichtung des Fahrers B1 vorzugsweise, wenn vorgegebene Bedingungen erfüllt sind. Die vorgegebenen Bedingungen können im Voraus festgelegt sein. Die vorgegebenen Bedingungen können beispielsweise mindestens entweder die Bedingung, dass die Geschwindigkeit des sich bewegenden Subjekts 10 kleiner als eine vorgegebene Geschwindigkeit ist, oder die Bedingung, dass die Sichtlinienrichtung des Fahrers B1 für eine vorgegebene Zeit oder länger in eine bestimmte Richtung gerichtet bleibt, umfassen. Die vorgegebene Geschwindigkeit und die vorgegebene Zeit können im Voraus festgelegt sein. Die vorgegebene Geschwindigkeit und die vorgegebene Zeit können in geeigneter Weise durch Bedienung der Eingabeeinheit 10B durch den Benutzer B zur Eingabe einer Anweisung geändert werden.
  • Die Bestimmungseinheit 20E bestimmt die Sichtlinienrichtung des Fahrers B1, wenn beispielsweise die Bewegungsgeschwindigkeit des sich bewegenden Subjekts 10 auf die vorgegebene Geschwindigkeit oder weniger verzögert wird. Alternativ bestimmt die Bestimmungseinheit 20E, wenn der Fahrer B1 für die vorgegebene Zeit oder länger in eine bestimmte Richtung (beispielsweise schräg nach hinten) von innerhalb nach außerhalb der Fahrgastzelle des sich bewegenden Subjekts 10 blickt, die Richtung als die Sichtlinienrichtung. Als eine weitere Alternative bestimmt die Bestimmungseinheit 20E die Richtung als die Sichtlinienrichtung, wenn die Bewegungsgeschwindigkeit des sich bewegenden Subjekts 10 auf die vorgegebene Geschwindigkeit oder weniger verzögert wird und außerdem der Fahrer B1 für die vorgegebene Zeit oder länger in eine bestimmte Richtung blickt.
  • Nachfolgend ist die Ausgabesteuereinheit 20F beschrieben. Die Ausgabesteuereinheit 20F übermittelt Informationen an die Ausgabeeinheit 10A.
  • Die Ausgabesteuereinheit 20F in der vorliegenden Ausführungsform übermittelt Kandidateninformationen an die Ausgabeeinheit 10A.
  • Die Kandidateninformationen sind Informationen, welche die Fläche S in der Umgebung Q des sich bewegenden Subjekts 10 darstellen. Die Fläche S befindet sich in einem vorgegebenen Bereich, der die Bereichsrichtung (eine Sichtlinienrichtung L1) umfasst, in die der vorgegebene Körperbereich (die Augen) des Benutzers B, der sich innerhalb des sich bewegenden Subjekts 10 befindet, gerichtet ist.
  • 8 ist eine Ansicht zur Erläuterung eines Beispiels der Kandidateninformationen. Es ist hierin angenommen, dass sich das sich bewegende Subjekt 10 nach dem Fahren auf den Parkplatz 60 in der Fahrtrichtung (einer Richtung des Pfeils L2 in 8) bewegt. Es ist außerdem angenommen, dass die Sichtlinienrichtung des Fahrers B1 in dem sich bewegenden Subjekt 10 die Sichtlinienrichtung L1 ist und die Erfassungseinheit 20D die Flächen S1 und S5 aus der Umgebung Q des sich bewegenden Subjekts 10 erfasst.
  • In diesem Fall sind die Kandidateninformationen Informationen, welche die Fläche S (beispielsweise die Flächen S3 und S4) darstellen, die sich in einer Region E innerhalb des vorgegebenen Bereichs, der die Sichtlinienrichtung L1 umfasst, befindet. Die Kandidateninformationen sind beispielsweise Informationen, welche die Fläche S darstellen, die sich in der Region E innerhalb eines vorgegebenen Winkelbereichs α, der die Sichtlinienrichtung L1 umfasst, befindet. Der Winkelbereich α kann im Voraus festgelegt sein.
  • Die Kandidateninformationen können beliebige Informationen aus einem Kandidatenbild, das durch ein Bild dargestellt wird, einer Kandidatensprachmeldung, die durch Sprache dargestellt wird, und Kandidatenzeichen, die durch Text dargestellt werden, sein. In der vorliegenden Ausführungsform sind die Kandidateninformationen durch ein Bild veranschaulicht, das die Fläche S, die der Sichtlinienrichtung L1 entspricht, darstellt. Die Kandidateninformationen sind als ein Kandidatenbild bezeichnet, wenn die Kandidateninformationen ein Bild sind.
  • 9 ist eine schematische Darstellung eines Beispiels eines Kandidatenbilds 52. Wie in 9 dargestellt, gibt das Kandidatenbild 52 die Fläche S (die Flächen S3 und S4 in 9) an, die der Sichtlinienrichtung L1 des Fahrers B1 entspricht.
  • Die Ausgabesteuereinheit 20F erzeugt das Kandidatenbild 52 unter Verwendung der Umgebungsbilder 40, die durch die Erlangungseinheit 20C erhalten werden, der Flächen S, die durch die Erfassungseinheit 20D erfasst werden, und der Sichtlinienrichtung L1, die durch die Bestimmungseinheit 20E bestimmt wird.
  • Genauer extrahiert die Ausgabesteuereinheit 20F die Fläche S, die sich in der Region E innerhalb des vorgegebenen Bereichs befindet, der die Sichtlinienrichtung L1 umfasst, in dem von dem externen Sensor 10D erhaltenen Umgebungsbild 40 und erzeugt das Kandidatenbild 52. Genauer extrahiert die Ausgabesteuereinheit 20F in dem Sichtwinkel in dem von dem externen Sensor 10D erhaltenen Umgebungsbild 40 eine Region, welche die durch die Erfassungseinheit 20D erfasste Fläche S und die Sichtlinienrichtung L1 des Fahrers B1 umfasst, und erzeugt das Kandidatenbild 52. Der Sichtwinkel kann beispielsweise dem Winkelbereich α entsprechen, der die in 8 dargestellte Sichtlinienrichtung L1 umfasst. In diesem Fall erzeugt die Ausgabesteuereinheit 20F das Kandidatenbild 52 durch Ausschneiden der Region E innerhalb des Winkelbereichs α, der die Sichtlinienrichtung L1 umfasst, aus dem Umgebungsbild 40.
  • Die Ausgabesteuereinheit 20F kann als das Kandidatenbild 52 ein Bild, das einen Sichtwinkel aufweist, der in der Sichtlinienrichtung L1 zu der Umgebung Q des sich bewegenden Subjekts 10 gerichtet ist, von einem Blickpunkt P, welcher der Position des Fahrers B1 entspricht, erzeugen. Mit anderen Worten kann die Ausgabesteuereinheit 20F ein Fahreransichtsbild erzeugen, das die Sicht des Fahrers B1, der auf dem Fahrersitz sitzt, von dem Blickpunkt P in der Sichtlinienrichtung L1 zeigt.
  • In diesem Fall kann die Ausgabesteuereinheit 20F das Bild der Region E, die aus dem Umgebungsbild 40 ausgeschnitten ist, visuell in ein Bild umwandeln, das die Sicht in der Sichtlinienrichtung L1 von dem Blickpunkt P, welcher der Position des Fahrers B1 entspricht, zeigt, wodurch das Kandidatenbild 52 erzeugt wird. Eine solche Umwandlung kann durch eine öffentlich bekannte Blickpunkt-Umwandlungstechnik durchgeführt werden.
  • Die Ausgabesteuereinheit 20F erzeugt vorzugsweise das Kandidatenbild 52, das ein hervorgehobenes Bild 54 enthält, in dem die Fläche S hervorgehoben ist, wie in 9 dargestellt. Das hervorgehobene Bild 54 kann ein beliebiges Bild sein, das die Fläche S, die in dem Kandidatenbild 52 enthalten ist, hervorhebt. Beispielsweise ist das hervorgehobene Bild 54 ein Rahmenbild, das die Fläche S darstellt, oder ein Farbbild, das die Farbe der Fläche S mit einer Farbe, die den Benutzer B darauf aufmerksam macht, darstellt. Während die Aufmerksamkeit erregende Farbe beispielsweise Gelb oder Rot ist, ist sie nicht darauf eingeschränkt.
  • Wie in 9 dargestellt, erzeugt die Ausgabesteuereinheit 20F das Kandidatenbild 52 vorzugsweise einschließlich eines Richtungsbilds 56. Das Richtungsbild 56 stellt die Sichtlinienrichtung L1 dar.
  • Die Ausgabesteuereinheit 20F gibt das erzeugte Kandidatenbild 52 dann an die Ausgabeeinheit 10A aus.
  • Die Ausgabesteuereinheit 20F in der vorliegenden Ausführungsform zeigt das Kandidatenbild 52 auf derjenigen Anzeigeeinheit 10K unter den an dem sich bewegenden Subjekt 10 vorgesehenen Anzeigeeinheiten 10K (10K1 bis 10K8) an, die in der Sichtlinienrichtung L1 vorne angeordnet ist.
  • Die Anzeigeeinheit 10K, die in der Sichtlinienrichtung L1 vorne angeordnet ist, bezieht sich auf die Anzeigeeinheit 10K, die in einer Region innerhalb eines Bereichs eines vorgegebenen Winkels auf der linken und rechten Seite in Bezug auf die Sichtlinienrichtung L1 um die Position des Fahrers B1 in der horizontalen Ebene angeordnet ist. Der vorgegebene Winkel kann ein im Voraus festgelegter Winkel innerhalb eines Bereichs sein, der in den Blick des Benutzers B kommt. Mit anderen Worten kann die Anzeigeeinheit 10K, die in der Sichtlinienrichtung L1 vorne angeordnet ist, in einer beliebigen Region sein, die in den Blick des Fahrers B1 kommt, wenn die Augen des Fahrers B1 in die Sichtlinienrichtung L1 gerichtet sind.
  • Beispielsweise ist angenommen, wie in 2 dargestellt, dass sich die Sichtlinienrichtung L1 des Fahrers B1 von der Position des Fahrers B1, der auf dem Fahrersitz des sich bewegenden Subjekts 10 sitzt, durch das Seitenfenster des Beifahrersitzes des sich bewegenden Subjekts 10 nach außerhalb der Fahrgastzelle erstreckt. In diesem Fall zeigt die Ausgabesteuereinheit 20F das Kandidatenbild 52 auf der Anzeigeeinheit 10K (beispielsweise den Anzeigeeinheiten 10K2 und 10K4) unter den Anzeigeeinheiten 10K (10K1 bis 10K8) an, die innerhalb des vorgegebenen Winkelbereichs in Bezug auf die Sichtlinienrichtung L1 positioniert ist.
  • Infolgedessen kann der Fahrer B1 das auf der Anzeigeeinheit 10K angezeigte Kandidatenbild 52 durch Blicken auf die Anzeigeeinheit 10K, die in der Sichtlinienrichtung L1 vorne angeordnet ist, überprüfen, ohne die Sichtlinienrichtung L1 des Fahrers B1 zu ändern.
  • Die Ausgabesteuereinheit 20F kann das Kandidatenbild 52, das diejenige Fläche S unter den ein oder mehreren durch die Erfassungseinheit 20D erfassten Flächen S, die der Sichtlinienrichtung L1 entspricht, darstellt, an die Anzeigeeinheit 10K ausgeben, wenn vorgegebene Bedingungen, die im Voraus festgelegt sind, erfüllt sind. Die vorgegebenen Bedingungen sind die gleichen wie die vorgenannten vorgegebenen Bedingungen, die von der Erfassungseinheit 20D zum Erfassen der Sichtlinienrichtung L1 verwendet werden. Die vorgegebenen Bedingungen können beispielsweise mindestens entweder die Bedingung, dass die Geschwindigkeit des sich bewegenden Subjekts 10 kleiner als eine vorgegebene Geschwindigkeit ist, oder die Bedingung, dass die Sichtlinienrichtung des Fahrers B1 für eine vorgegebene Zeit oder länger in eine bestimmte Richtung gerichtet bleibt, umfassen.
  • Wenn Informationen, die durch Sprache dargestellt werden, als die Kandidateninformationen verwendet werden, gibt die Ausgabesteuereinheit 20F die Sprachmeldung der Kandidateninformationen über den Lautsprecher 101 aus. In diesem Fall kann die Ausgabesteuereinheit 20F beispielsweise die Kandidatensprachmeldung „In Ihrer Sichtlinienrichtung sind zwei Parkplätze vorhanden“ über den Lautsprecher 101 ausgeben.
  • Es ist wieder auf 5 Bezug genommen. Nachfolgend ist die Empfangseinheit 20G beschrieben. Die Empfangseinheit 20G empfängt eine Eingabe einer Fahrzielfläche S in dem Kandidatenbild 52.
  • Hierin ist angenommen, dass die Anzeigeeinheit 10K das in 9 dargestellte Kandidatenbild 52 anzeigt. Wenn die in dem Kandidatenbild 52 angezeigten Flächen S die Fläche S, auf die der Benutzer B mit dem sich bewegenden Subjekt 10 fahren möchte, enthalten, gibt der Benutzer B die Fahrzielfläche S an.
  • Der Benutzer B bedient die Eingabeeinheit 10B und gibt dadurch die Fahrzielfläche S unter den in dem Kandidatenbild 52 enthaltenen Flächen S an. Genauer berührt der Benutzer B, falls es sich bei der Eingabeeinheit 10B um einen Berührungsbildschirm handelt, einen Anzeigebereich einer bestimmten Fläche S auf der Anzeigeeinheit 10K, wodurch die Fahrzielfläche S eingegeben wird. Die Empfangseinheit 20G empfängt die Informationen, welche die durch den Benutzer B festgelegte Fläche S darstellen, von der Eingabeeinheit 10B, wodurch die Eingabe der Fahrzielfläche S empfangen wird.
  • Alternativ kann die Empfangseinheit 20G die Eingabe der Fahrzielfläche S durch Analysieren einer durch den Benutzer B ausgeführten Geste oder einer Sprachäußerung des Benutzers B empfangen.
  • Der Benutzer B zeigt mit einem Bereich seines Körpers in eine Richtung in einem tatsächlichen Raum, die der Fahrzielfläche S unter den in dem Kandidatenbild 52 enthaltenen Flächen S entspricht. Beispielsweise zeigt der Benutzer B mit seinem Finger in die Richtung, in der das sich bewegende Subjekt 10 nach dem Wunsch des Benutzers B auf die Fläche fahren soll.
  • In diesem Fall kann die Empfangseinheit 20G die Eingabe der Fahrzielfläche S durch Analysieren des aufgenommenen Bilds der Fahrgastzelle des sich bewegenden Subjekts 10, das durch die Fotografiervorrichtung 10E erfasst wird, mittels eines öffentlich bekannten Verfahrens empfangen und die Richtung, die durch die von dem Benutzer B ausgeführte Geste angegeben wird, bestimmen.
  • Alternativ kann der Benutzer eine Sprachäußerung tätigen, die eine Richtung angibt, in die sich das sich bewegende Subjekt 10 unter den in dem Kandidatenbild 52 enthaltenen Flächen S nach dem Wunsch des Benutzers B bewegen soll. In diesem Fall kann die Empfangseinheit 20G die Eingabe der Fahrzielfläche S durch Analysieren der Sprachdaten der Sprachäußerung, die mit einem Mikrofon, das als die Eingabeeinheit 10B dient, erfasst wird, mittels eines öffentlich bekannten Sprachanalyseverfahrens empfangen.
  • Die Empfangseinheit 20G gibt Informationen, welche die empfangene Fahrzielfläche S darstellen, an die Antriebssteuereinheit 10F aus. Die Informationen, welche die Fahrzielfläche S darstellen, umfassen beispielsweise Informationen über die Position, die Größe und den Bereich der Fläche S.
  • Die Antriebssteuereinheit 10F steuert die Antriebseinheit 10G des sich bewegenden Subjekts 10 so, dass das sich bewegende Subjekt 10 auf die Fahrzielfläche S fährt, die durch die Empfangseinheit 20G empfangen wurde. Hierin ist angenommen, dass die Fahrzielfläche S ein Stellplatz ist, auf dem das sich bewegende Subjekt 10 geparkt werden soll. In diesem Fall steuert die Antriebssteuereinheit 10F die Antriebseinheit 10G so, dass das sich bewegende Subjekt 10 auf der Fläche S geparkt wird, ohne gegen ein Objekt 11 wie ein anderes Fahrzeug zu stoßen. Als ein anderes Beispiel ist angenommen, dass sich die Fahrzielfläche S auf einer anderen Fahrspur befindet als einer Fahrspur, auf der das sich bewegende Subjekt 10 fährt. In diesem Fall steuert die Antriebssteuereinheit 10F die Antriebseinheit 10G so, dass das sich bewegende Subjekt 10 von der momentanen Fahrspur auf eine andere Fahrspur wechselt, auf der sich die Fläche S befindet, ohne gegen das Objekt 11 wie ein anderes Fahrzeug zu stoßen.
  • Folglich kann die Antriebssteuereinheit 10F das sich bewegende Subjekt 10 veranlassen, auf die durch den Benutzer B angegebene Fahrzielfläche S unter den Flächen S, die in dem der Sichtlinienrichtung L1 des Benutzers B entsprechenden Kandidatenbild 52 enthalten sind, zu fahren.
  • Die Ausgabesteuereinheit 20F zeigt vorzugsweise einen Bildschirm auf der Anzeigeeinheit 10K an, wenn die Antriebssteuereinheit 10F die Fahrsteuerung für die Antriebseinheit 10G durchführt, um das sich bewegende Subjekt 10 auf die Fläche S, die durch die Empfangseinheit 20G angegeben wird, zu bewegen. Der Anzeigebildschirm in diesem Fall gibt an, dass eine Fahrhilfe durchgeführt wird.
  • 10 ist eine schematische Darstellung eines Beispiels eines Anzeigebildschirms 58. Der Anzeigebildschirm 58 enthält ein Vogelperspektivenbild 58A, welches das sich bewegende Subjekt 10 vertikal von oben zeigt, und ein Viertelansichtsbild 58B, welches das sich bewegende Subjekt 10 schräg von oben zeigt. Das Vogelperspektivenbild 58A und das Viertelansichtsbild 58B enthalten jeweils ein Bild 59A, welches das sich bewegende Subjekt 10 darstellt, und ein Bild 59B, welches die Fahrzielfläche S darstellt.
  • Folglich kann der Benutzer B die Positionsbeziehung zwischen dem sich bewegenden Subjekt 10 und der Fahrzielfläche S leicht erfassen, indem er auf den Anzeigebildschirm 58 blickt.
  • Der Anzeigebildschirm 58 kann ein Tastenbild 59C zum Eingeben einer Anweisung enthalten, um die Steuerung zum Fahren auf die Fläche S durch die Antriebssteuereinheit 10F zu beenden. Die Antriebssteuereinheit 10F kann die Steuerung zum Fahren auf die Fläche S beenden, wenn der Benutzer B die Eingabeeinheit 10B bedient, um das Tastenbild 59C anzugeben.
  • Nachfolgend ist ein Beispiel eines Prozesses zur Informationsverarbeitung, die von dem sich bewegenden Subjekt 10 durchgeführt wird, beschrieben. 11 ist ein Ablaufdiagramm eines Beispiels des Prozesses zur Informationsverarbeitung, die von dem sich bewegenden Subjekt 10 durchgeführt wird.
  • Als Erstes erhält die Erlangungseinheit 20C das Umgebungsbild 40 von dem externen Sensor 10D (Schritt S100). Daraufhin bestimmt die Erfassungseinheit 20D, ob die Fläche S aus dem in Schritt S100 erhaltenen Umgebungsbild 40 erfasst wurde (Schritt S102). Wenn die Erfassungseinheit 20D die Fläche S nicht erfasst hat (Nein in Schritt S102), kehrt der Prozess zu Schritt S100 zurück. Wenn die Erfassungseinheit 20D die Fläche S erfasst hat (Ja in Schritt S102), wird der Prozess mit Schritt S104 fortgesetzt.
  • In Schritt S104 wendet die Erfassungseinheit 20D Identifikationsinformationen auf die in Schritt S102 erfasste Fläche S an und speichert die Identifikationsinformationen und Informationen, welche die Position und den Bereich der Fläche S in einem tatsächlichen Raum darstellen, sodass diese in der Speichereinheit 20B miteinander verknüpft sind (Schritt S104). Die Ausgabesteuereinheit 20F gibt Erfassungsinformationen, die angeben, dass eine andere Fläche S erfasst wurde, an die Ausgabeeinheit 10A aus (Schritt S106). Folglich kann die Ausgabesteuereinheit 20F dem Benutzer B jedes Mal, wenn die andere Fläche S erfasst wird, leicht Informationen bereitstellen, welche die Erfassung der anderen Fläche S angeben.
  • Daraufhin bestimmt die Bestimmungseinheit 20E, ob vorgegebene Bedingungen erfüllt sind (Schritt S108). Die Bestimmungseinheit 20E bestimmt beispielsweise, ob die Bewegungsgeschwindigkeit des sich bewegenden Subjekts 10 auf eine vorgegebene Geschwindigkeit oder weniger verzögert wird und ob der Fahrer B1 für eine vorgegebene Zeit oder länger in eine bestimmte Richtung blickt.
  • Wenn die Bestimmungseinheit 20E bestimmt, dass die vorgegebenen Bedingungen nicht erfüllt sind (Nein in Schritt S108), kehrt der Prozess zu Schritt S100 zurück. Wenn die Bestimmungseinheit 20E bestimmt, dass die vorgegebenen Bedingungen erfüllt sind (Ja in Schritt S108), wird der Prozess mit Schritt S110 fortgesetzt.
  • Die Bestimmungseinheit 20E bestimmt die Sichtlinienrichtung L1 des Fahrers B1 des sich bewegenden Subjekts 10 (Schritt S110). Die Bestimmungseinheit 20E bestimmt die Sichtlinienrichtung L1 des Fahrers B1 beispielsweise durch Analysieren eines aufgenommenen Bilds des Inneren der Fahrgastzelle des sich bewegenden Subjekts 10, das durch die Fotografiervorrichtung 10E erfasst wurde.
  • Daraufhin bestimmt die Ausgabesteuereinheit 20F, ob die Fläche S in einer vorgegebenen Region, welche die in Schritt S110 bestimmte Sichtlinienrichtung L1 umfasst, vorhanden ist (Schritt S112). Beispielsweise bestimmt die Ausgabesteuereinheit 20F, ob die Speichereinheit 20B die Informationen, welche die Fläche S darstellen, die in der vorgegebenen Region positioniert ist, welche die in Schritt S110 bestimmte Sichtlinienrichtung L1 umfasst, bereits gespeichert hat.
  • Wenn die Ausgabesteuereinheit 20F bestimmt, dass die Fläche S in der vorgegebenen Region, welche die Sichtlinienrichtung L1 umfasst, nicht vorhanden ist (Nein in Schritt S112), kehrt der Prozess zu Schritt S108 zurück. Wenn die Ausgabesteuereinheit 20F bestimmt, dass die Fläche S in der vorgegebenen Region, welche die Sichtlinienrichtung L1 umfasst, vorhanden ist (Ja in Schritt S112), wird der Prozess mit Schritt S114 fortgesetzt.
  • Daraufhin erzeugt die Ausgabesteuereinheit 20F das Kandidatenbild 52 (Schritt S114). In Schritt S114 erzeugt die Ausgabesteuereinheit 20F das Kandidatenbild 52 unter Verwendung des in Schritt S100 erhaltenen Umgebungsbilds 40, der in Schritt S102 erfassten Fläche S und der in Schritt S110 bestimmten Sichtlinienrichtung L1 Durch Ausführung der Verarbeitung in Schritt S114 erzeugt die Ausgabesteuereinheit 20F das Kandidatenbild 52 der Region, welche die in Schritt S102 erfasste Fläche S und die in Schritt S110 bestimmte Sichtlinienrichtung L1 des Fahrers B1 umfasst. Wie oben beschrieben, erzeugt die Ausgabesteuereinheit 20F zu dieser Zeit vorzugsweise das Kandidatenbild 52 durch Ausführung der Blickpunktumwandlung auf Grundlage des Blickpunkts P, welcher der Position des Fahrers B1 entspricht.
  • Daraufhin gibt die Ausgabesteuereinheit 20F das in Schritt S114 erzeugte Kandidatenbild 52 an die Anzeigeeinheit 10K aus, die in der in Schritt S110 bestimmten Sichtlinienrichtung L1 vorne angeordnet ist (oder zeigt es an) (Schritt S116). Infolgedessen wird das Kandidatenbild 52, das die Fläche S, die der Sichtlinienrichtung L1 entspricht, darstellt, auf der Anzeigeeinheit 10K angezeigt, die in der Sichtlinienrichtung L1 des Fahrers B1 vorne angeordnet ist.
  • Daraufhin bestimmt die Empfangseinheit 20G, ob sie die Eingabe der Fahrzielfläche S in dem in Schritt S116 ausgegebenen Kandidatenbild 52 empfangen hat (Schritt S118). Die Empfangseinheit 20G wiederholt die negative Bestimmung (Nein in Schritt S118), bis sie bestimmt, dass sie die Eingabe der Fläche S empfangen hat (Ja in Schritt S118). Wenn die Empfangseinheit 20G bestimmt, dass sie die Eingabe der Fläche S empfangen hat (Ja in Schritt S118), wird der Prozess mit Schritt S120 fortgesetzt.
  • Wenn die Empfangseinheit 20G in Schritt S118 eine negative Bestimmung trifft (Nein in Schritt S118), kann die Empfangseinheit 20G weiterhin bestimmen, ob eine vorgegebene Zeit verstrichen ist, seit das Kandidatenbild 52 in Schritt S116 auf der Anzeigeeinheit 10K auf angezeigt wurde. Wenn die Empfangseinheit 20G bestimmt, dass die vorgegebene Zeit verstrichen ist, kann der Prozess mit Schritt S110 fortgesetzt werden. Wenn die Empfangseinheit 20G bestimmt, dass die vorgegebene Zeit nicht verstrichen ist, trifft die Empfangseinheit 20G in Schritt S118 die Bestimmung erneut.
  • Daraufhin steuert die Antriebssteuereinheit 10F die Antriebseinheit 10G des sich bewegenden Subjekts 10 so, dass das sich bewegende Subjekt 10 auf die in Schritt S118 empfangene Fahrzielfläche S fährt (Schritt S120). Durch Ausführung der Verarbeitung in Schritt S120 kann die Antriebssteuereinheit 10F das sich bewegende Subjekt 10 veranlassen, auf diejenige Fahrzielfläche S unter den in dem Kandidatenbild 52, das der Sichtlinienrichtung L1 des Benutzers B entspricht, enthaltenen Flächen S zu fahren, die durch den Benutzer B angegeben wird. Dann ist die vorliegende Routine beendet.
  • Wie oben beschrieben, enthält die Informationsverarbeitungsvorrichtung 20 gemäß der vorliegenden Ausführungsform die Bestimmungseinheit 20E und die Ausgabesteuereinheit 20F. Die Bestimmungseinheit 20E bestimmt eine Bereichsrichtung (die Sichtlinienrichtung L1), in die ein vorgegebener Bereich des Körpers des Benutzers B, der sich innerhalb des sich bewegenden Subjekts 10 befindet, gerichtet ist. Die Ausgabesteuereinheit 20F gibt Kandidateninformationen (das Kandidatenbild 52) aus, die eine Fläche (die Fläche S) angeben, auf die das sich bewegende Subjekt 10 fahren kann, wobei die Fläche der durch die Bestimmungseinheit 20E bestimmten Bereichsrichtung (der Sichtlinienrichtung L1) entspricht.
  • Bei der herkömmlichen Technik sind zum Parken verfügbare Flächen, die auf dem Anzeigebildschirm anzuzeigen sind, auf Flächen beschränkt, die sich in der Fahrtrichtung des sich bewegenden Subjekts befinden. Weiterhin werden die Flächen bei der herkömmlichen Technik auf einem Anzeigebildschirm einer Anzeigeeinheit angezeigt, die beispielsweise an der Vorderfläche des Armaturenbretts in dem Fahrzeug vorgesehen ist. In tatsächlichen Fällen jedoch, in denen der Benutzer wünscht, dass das sich bewegende Subjekt auf die zum Parken verfügbare Fläche fährt, sucht der Benutzer möglicherweise nach der zum Parken verfügbaren Fläche, während er in verschiedene Richtungen blickt, z. B. die Richtungen nach hinten, schräg nach hinten, zur Seite und schräg nach vorne von dem sich bewegenden Subjekt. Bei der herkömmlichen Technik ist es für den Benutzer schwierig, die Entsprechung zwischen solchen verschiedenen Richtungen und den auf dem Anzeigebildschirm angezeigten Stellplätzen intuitiv zu erfassen. Infolgedessen kann es bei der herkömmlichen Technik für den Benutzer schwierig sein, eine Fläche entsprechend der Absicht des Benutzers auszuwählen.
  • Demgegenüber gibt die Informationsverarbeitungsvorrichtung 20 gemäß der vorliegenden Ausführungsform das Kandidatenbild 52 aus, das die Fläche S darstellt, auf die das sich bewegende Subjekt 10 fahren kann. Die Fläche S entspricht der Bereichsrichtung wie z. B. der Sichtlinienrichtung L1 des Benutzers B. Folglich kann die Informationsverarbeitungsvorrichtung 20 das Kandidatenbild 52 ausgeben, das die Fläche S darstellt, die sich in der Richtung in einem tatsächlichen Raum befindet, in welche die Aufmerksamkeit des Benutzers B gerichtet ist. Hierin ist angenommen, dass der Benutzer B, der in dem sich bewegenden Subjekt 10 fährt, nach der Fläche S sucht, während sein Körperbereich in eine Richtung gerichtet ist, die sich von der Fahrtrichtung des sich bewegenden Subjekts 10 unterscheidet. Auch in diesem Fall ist die Informationsverarbeitungsvorrichtung 20 in der Lage, das Kandidatenbild 52 auszugeben, das die Fläche S darstellt, die sich in der Richtung, in die der vorgegebene Bereich gerichtet ist, befindet.
  • Folglich ermöglicht es die Informationsverarbeitungsvorrichtung 20 gemäß der vorliegenden Ausführungsform dem Benutzer B, entsprechend der Absicht des Benutzers eine Fläche (die Fläche S) auszuwählen, auf die das sich bewegende Subjekt 10 fahren kann.
  • Die Informationsverarbeitungsvorrichtung 20 gemäß der vorliegenden Ausführungsform ist an dem sich bewegenden Subjekt 10 montiert. Alternativ kann sie außerhalb des sich bewegenden Subjekts 10 vorgesehen sein. In diesem Fall weist die Informationsverarbeitungsvorrichtung 20 eine Funktion oder eine Vorrichtung zum Kommunizieren über ein Netzwerk mit elektronischen Vorrichtungen wie dem internen Sensor 10C, der an dem sich bewegenden Subjekt 10 montiert ist, auf.
  • Das Computerprogramm zum Durchführen der oben beschriebenen Informationsverarbeitung gemäß der vorstehenden Ausführungsform weist eine Modulkonfiguration einschließlich der oben beschriebenen Funktionseinheiten auf. Als tatsächliche Hardware liest die CPU (eine Prozessorschaltung) das Informationsverarbeitungsprogramm aus dem ROM oder einer Festplatte aus und führt dieses aus, um jede der Funktionseinheiten in das RAM (einen Hauptspeicher) zu laden. Infolgedessen werden die Funktionseinheiten in dem RAM erzeugt. Einige oder alle der Funktionseinheiten können unter Verwendung dedizierter Hardware wie einer anwendungsspezifischen integrierten Schaltung (ASIC) und einer feldprogrammierbaren Gatteranordnung (FPGA) umgesetzt sein.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2017/145364 [0002]

Claims (13)

  1. Informationsverarbeitungsvorrichtung (20), umfassend: eine Bestimmungseinheit (20E), die konfiguriert ist, eine Bereichsrichtung (L1) zu bestimmen, in die ein vorgegebener Bereich eines Körpers eines Benutzers (B), der sich innerhalb eines sich bewegenden Subjekts (10) befindet, gerichtet ist; und eine Ausgabesteuereinheit (20F), die konfiguriert ist, Kandidateninformationen auszugeben, die eine Fläche (S) darstellen, auf die das sich bewegende Subjekt (10) fahren darf, wobei die Fläche (S) der durch die Bestimmungseinheit (20E) bestimmten Bereichsrichtung (L1) entspricht.
  2. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die Kandidateninformationen die Fläche (S) darstellen, die innerhalb eines vorgegebenen Bereichs (E), der die Bereichsrichtung (L1) umfasst, in der Umgebung des sich bewegenden Subjekts (10) vorhanden ist.
  3. Informationsverarbeitungsvorrichtung nach Anspruch 1 oder 2, wobei die Ausgabesteuereinheit (20F) konfiguriert ist, als die Kandidateninformationen ein Kandidatenbild (52) auszugeben, das die Fläche (S) darstellt, auf die das sich bewegende Subjekt fahren darf, wobei die Fläche (S) der Bereichsrichtung (L1) entspricht.
  4. Informationsverarbeitungsvorrichtung nach Anspruch 3, wobei die Ausgabesteuereinheit (20F) konfiguriert ist, als die Kandidateninformationen ein Kandidatenbild (52) mit einem Sichtwinkel, der in der Bereichsrichtung (L1) zu der Umgebung des sich bewegenden Subjekts (10) gerichtet ist, von einer Position des Benutzers (B) als einem Blickpunkt auszugeben.
  5. Informationsverarbeitungsvorrichtung nach Anspruch 3 oder 4, wobei die Ausgabesteuereinheit (20F) konfiguriert ist, die Kandidateninformationen einschließlich eines hervorgehobenen Bilds (54), in dem die Fläche (S) hervorgehoben ist, auszugeben.
  6. Informationsverarbeitungsvorrichtung nach einem beliebigen der Ansprüche 3 bis 5, wobei die Ausgabesteuereinheit (20F) konfiguriert ist, die Kandidateninformationen einschließlich eines Richtungsbilds (56), das die Bereichsrichtung (L1) darstellt, auszugeben.
  7. Informationsverarbeitungsvorrichtung nach einem beliebigen der Ansprüche 1 bis 6, wobei die Ausgabesteuereinheit (20F) konfiguriert ist, die Kandidateninformationen an eine oder mehrere Anzeigeeinheiten (10K), die in dem sich bewegenden Subjekt (10) vorgesehen sind, auszugeben.
  8. Informationsverarbeitungsvorrichtung nach Anspruch 7, wobei die Ausgabesteuereinheit (20F) konfiguriert ist, die Kandidateninformationen an mindestens eine der Anzeigeeinheiten (10K), die in der Bereichsrichtung (L1) vorne angeordnet ist, auszugeben.
  9. Informationsverarbeitungsvorrichtung nach einem beliebigen der Ansprüche 1 bis 8, wobei der vorgegebene Bereich mindestens einer aus dem Gesicht, den Augen und dem Torso des Benutzers (B) ist.
  10. Informationsverarbeitungsvorrichtung nach einem beliebigen der Ansprüche 1 bis 9, weiter umfassend eine Erfassungseinheit (20D), die konfiguriert ist, ein oder mehrere Flächen in der Umgebung des sich bewegenden Subjekts zu erfassen, wobei das sich bewegende Subjekt (10) auf jede der ein oder mehreren Flächen fahren darf, wobei die Ausgabesteuereinheit (20F) konfiguriert ist zum: Extrahieren aus den ein oder mehreren Flächen, die durch die Erfassungseinheit (20D) erfasst werden, einer Fläche, die in einer Region innerhalb des vorgegebenen Bereichs, der die Bereichsrichtung (L1) umfasst, in der Umgebung des sich bewegenden Subjekts (10) vorhanden ist; und Ausgeben der Kandidateninformationen, welche die extrahierte Fläche darstellen.
  11. Informationsverarbeitungsvorrichtung nach Anspruch 10, wobei die Bestimmungseinheit (20E) konfiguriert ist, die Bereichsrichtung (L1) des Benutzers (B) zu bestimmen, wenn eine vorgegebene Bedingung erfüllt ist.
  12. Informationsverarbeitungsverfahren, das durch einen Computer umgesetzt ist, wobei das Informationsverarbeitungsverfahren umfasst: Bestimmen (S110) einer Bereichsrichtung, in die ein vorgegebener Bereich eines Körpers eines Benutzers, der sich innerhalb eines sich bewegenden Subjekts befindet, gerichtet ist; und Ausgeben (S116) von Kandidateninformationen, die eine Fläche darstellen, auf die das sich bewegende Subjekt fahren darf, wobei die Fläche der bestimmten Bereichsrichtung entspricht.
  13. Sich bewegendes Subjekt (10), umfassend: eine Ausgabesteuereinheit (20F), die konfiguriert ist, Kandidateninformationen auszugeben, die eine Fläche (S) darstellen, auf die das sich bewegende Subjekt (10) fahren darf, wobei die Fläche (S) einer Bereichsrichtung (L1) entspricht, in die ein vorgegebener Bereich eines Körpers eines Benutzers, der sich innerhalb des sich bewegenden Subjekts (10) befindet, gerichtet ist; eine Empfangseinheit (20G), die konfiguriert ist, als ein Fahrziel eine Eingabe zu empfangen, welche die Fläche (S) angibt, die durch die von der Ausgabesteuereinheit (20F) ausgegebenen Kandidateninformationen dargestellt wird; und eine Antriebssteuereinheit (10F), die konfiguriert ist, eine Antriebseinheit (10G) des sich bewegenden Subjekts (10) zu steuern, um das sich bewegende Subjekt (10) zu veranlassen, auf die Fläche (S) zu fahren, die von der durch die Empfangseinheit (20G) empfangenen Eingabe angegeben wird.
DE102019134695.9A 2018-12-26 2019-12-17 Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und sich bewegendes Subjekt Pending DE102019134695A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-243611 2018-12-26
JP2018243611A JP2020106986A (ja) 2018-12-26 2018-12-26 情報処理装置、情報処理方法、および移動体

Publications (1)

Publication Number Publication Date
DE102019134695A1 true DE102019134695A1 (de) 2020-07-02

Family

ID=71079729

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019134695.9A Pending DE102019134695A1 (de) 2018-12-26 2019-12-17 Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und sich bewegendes Subjekt

Country Status (2)

Country Link
JP (1) JP2020106986A (de)
DE (1) DE102019134695A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022002325B4 (de) 2022-06-28 2023-11-30 Mercedes-Benz Group AG Verfahren zur Aktivierung einer Parkfunktion eines Fahrzeugs und zum Auffinden potenzieller Parklücken

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024033967A1 (ja) * 2022-08-08 2024-02-15 日産自動車株式会社 駐車支援方法及び駐車支援装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017145364A1 (ja) 2016-02-26 2017-08-31 三菱電機株式会社 駐車支援装置および駐車支援方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017145364A1 (ja) 2016-02-26 2017-08-31 三菱電機株式会社 駐車支援装置および駐車支援方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022002325B4 (de) 2022-06-28 2023-11-30 Mercedes-Benz Group AG Verfahren zur Aktivierung einer Parkfunktion eines Fahrzeugs und zum Auffinden potenzieller Parklücken

Also Published As

Publication number Publication date
JP2020106986A (ja) 2020-07-09

Similar Documents

Publication Publication Date Title
DE102016114535B4 (de) Wegbestimmung für automatisierte Fahrzeuge
DE102014116140B4 (de) Einparkhilfsvorrichtung und Einparkhilfsverfahren für ein Fahrzeug
DE112019000049T5 (de) Für autonomes fahren geeignete objekterfassung und erfassungssicherheit
DE102019112002A1 (de) Systeme und verfahren zur automatischen detektion von anhängereigenschaften
DE102014115399B4 (de) Vorrichtung und Verfahren zur Einparkhilfe
DE102017125493A1 (de) Verkehrszeichenerkennung
DE102017129075A1 (de) Parkplatznavigationssystem und -verfahren
DE102019124152A1 (de) Kupplungsunterstützungssystem
DE102017128294A1 (de) Fahrzeugumgebung-abbildungssysteme und -verfahren
DE102019117270A1 (de) Fahrzeugkupplungsunterstützungssystem
DE112018000786T5 (de) EINE VORRICHTUNG UND EIN VERFAHREN ZUM STEUERN EINER HEAD-UP-vvANZEIGE EINES FAHRZEUGS
EP2805183A1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
DE102018101105A1 (de) Diagnose für eine kamera und reinigungssprühvorrichtung
DE102015203016A1 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102019122266A1 (de) Systeme und Verfahren zur Parkverwaltung
DE112018004891T5 (de) Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren, programm und mobiler körper
DE112017007205T5 (de) Modusumschaltsteuergerät, Modusumschaltsteuerungssystem, Modusumschaltsteuerverfahren und Programm
DE112021006402T5 (de) Schätzung von Automatikbelichtungswerten einer Kamera durch Priorisieren eines Objekts von Interesse auf Basis von kontextuellen Eingaben aus 3D-Karten
DE102018127605A1 (de) Informationsverarbeitungsvorrichtung, fahrerüberwachungssystem, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm
DE102015112605A1 (de) System zum bestimmen eines kupplungswinkels
DE102018127600A1 (de) Informationsverarbeitungsvorrichtung, Fahrerüberwachungssystem, Informationsverarbeitungsverfahren und Informationsverarbeitungsprogramm
DE112020006684T5 (de) Fahrassistenzvorrichtung, fahrzeug und fahrassistenzverfahren
DE112021001882T5 (de) Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren und programm
DE112018004904T5 (de) Informationsverarbeitungseinrichtung, selbstpositionsschätzverfahren und programm
DE102019134695A1 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und sich bewegendes Subjekt

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings