DE112017007050T5 - Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Informationsverarbeitungsprogramm - Google Patents

Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Informationsverarbeitungsprogramm Download PDF

Info

Publication number
DE112017007050T5
DE112017007050T5 DE112017007050.3T DE112017007050T DE112017007050T5 DE 112017007050 T5 DE112017007050 T5 DE 112017007050T5 DE 112017007050 T DE112017007050 T DE 112017007050T DE 112017007050 T5 DE112017007050 T5 DE 112017007050T5
Authority
DE
Germany
Prior art keywords
image data
vehicle
priority
unit
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112017007050.3T
Other languages
English (en)
Other versions
DE112017007050B4 (de
Inventor
Takefumi Hasegawa
Masahiro Abukawa
Shu Murayama
Yohei Miki
Michinori Yoshida
Kentaro Ishikawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112017007050T5 publication Critical patent/DE112017007050T5/de
Application granted granted Critical
Publication of DE112017007050B4 publication Critical patent/DE112017007050B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0297Fleet control by controlling means in a control room
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0145Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/145Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas
    • G08G1/146Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas where the parking area is a limited parking space, e.g. parking garage, restricted space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Astronomy & Astrophysics (AREA)
  • Theoretical Computer Science (AREA)

Abstract

Eine erste Bilddaten-Erwerbseinheit (101) erwirbt mehrere Stücke von Bilddaten, in denen verschiedene Bereiche in einer Einrichtung, in der ein autonom fahrendes Fahrzeug autonomes Fahren durchführt, gezeigt sind. Eine Prioritätensetzeinheit (102) analysiert einen in jedem der mehreren Stücke von Bilddaten gezeigten Zustand und setzt eine Priorität für jedes Bilddatenstück. Eine erste Bilddaten-Anzeigeeinheit (103) bestimmt einen Anzeigemodus zu einer Zeit des Anzeigens der mehreren Stück von Bilddaten gemäß der durch die Prioritätensetzeinheit (102) gesetzten Priorität.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf die Überwachung von autonom fahrenden Fahrzeugen.
  • Stand der Technik
  • In den letzten Jahren sind ein ADAS (Advanced Driver Assistance System, fortgeschrittenes Fahrerunterstützungssystem), das durch autonomes Bremsen repräsentiert ist, eine adaptive Fahrsteuerung und dergleichen auf den Markt gekommen. Weiterhin schreitet die Forschung und Entwicklung der autonomen Antriebs- und Fahrtechnologie fort, und mehrere Automobilhersteller haben Demonstrationsversuche auf öffentlichen Straßen durchgeführt. Die Forschung und Entwicklung der automatischen Parktechnologie wurde aktiv durchgeführt als ein Teil der autonomen Antriebs- und Fahrtechnologie, und mehrere Automobilhersteller haben Fahrzeuge mit einer darin enthaltenen automatischen Parkfunktion vermarktet.
  • Bei den meisten automatischen Parkfunktionen wird, wenn ein Fahrer eine Parkposition auf einem Touchpanel auswählt, das Fahrzeug autonom gefahren, um auf der ausgewählten Parkposition einzuparken.
  • Ein Parkservice ist in einigen Fällen bei Hotels und Restaurants vorgesehen. Beim Parkservice parkt, wenn ein Schlüssel eines Fahrzeugs einem Manager an einem Hoteleingang oder einem Restauranteingang ausgehändigt wird, der Manager das Fahrzeug für den Fahrer. Wenn der Parkservice durch eine automatische Parkfunktion realisiert wird, ist es erforderlich, dass das Fahrzeug autonom in einem unbemannten Zustand fährt. Aufgrund der Fortschritte der autonomen Fahrtechnologie kann in Normalfällen ein unbemanntes automatisches Parken durchgeführt werden. Wenn jedoch der Parkplatz versperrt ist, um Sicherheit zu gewährleisten, gibt es den Fall, in welchem jedes von autonom fahrenden Fahrzeugen seine Fahrt anhält. Weiterhin wird, wenn sowohl autonom fahrende Fahrzeuge als auch manuell gefahrene Fahrzeuge gemischt auf einem Parkplatz vorhanden sind, automatisches Einparken schwieriger im Vergleich zu dem Fall, in welchem nur autonom fahrende Fahrzeuge vorhanden sind.
  • Wie vorstehend beschrieben ist, wird, wenn ein Parkplatz versperrt ist und wenn autonom fahrende Fahrzeuge und manuell gefahrene Fahrzeuge gemischt auf einem Parkplatz vorhanden sind, das automatische Einparken schwierig. Wenn derartige Umstände angenommen werden, ist es erforderlich, dass die automatische Einparkfunktion eines autonom fahrenden Fahrzeugs durch den Menschen unterstützt wird, um keinen Unfall zu bewirken.
  • In dieser Hinsicht offenbart das Patentdokument 1 ein Einparkunterstützungssystem. Im Patentdokument werden Bilder, die durch eine am Fahrzeug befestigte Kamera eines einzuparkenden Fahrzeugs aufgenommen werden, zu einem Manager eines Parkplatzes gesendet. Der Manager überwacht die von der am Fahrzeug befestigten Kamera aufgenommenen Bilder, fährt das Fahrzeug für seinen Fahrer durch simuliertes Lenken und parkt das Fahrzeug ein.
  • Aufgrund der Technologie des Patentdokuments 1 kann der Manager des Parkplatzes das Fahrzeug für seinen Fahrer selbst dann fahren, wenn der Manager sich an einem von dem Parkplatz entfernten Ort befindet.
  • Das Patentdokument 2 offenbart eine Technologie des Anhaltens eines autonom fahrenden Fahrzeugs unter Verwendung eines Smartphones. Im Patentdokument 2 wird ein einen Fahrzustand mitteilendes Bild, das eine Position eines autonom fahrenden Fahrzeugs und Personen und Hindernisse um das autonom fahrende Fahrzeug herum anzeigt, auf einem Smartphone eines Fahrers dargestellt. Wenn der Fahrer beurteilt, dass es erforderlich ist, das autonom fahrende Fahrzeug anzuhalten, betätigt der Fahrer eine Stopptaste, um das autonom fahrende Fahrzeug anzuhalten.
  • Aufgrund der Technologie des Patentdokuments 2 ist es möglich, dass der Fahrer den Fahrzustand des autonom fahrenden Fahrzeugs, das ein automatisches Einparken durchführt, bestätigt und eine Stopptaste betätigt, wenn eine Gefahr besteht, wodurch das autonom fahrende Fahrzeug angehalten wird.
  • Zitierungsliste
  • Patentliteratur
    • Patentdokument 1: JP 2012-126193 A
    • Patentdokument 2: JP 2016-99953 A
  • Kurzfassung der Erfindung
  • Technisches Problem
  • Bei den Technologien der Patentdokumente 1 und 2 ist erforderlich, dass ein Manager eine Fahrunterstützung für ein autonom fahrendes Fahrzeug vornimmt. Daher besteht bei der Technologie des Patentdokuments 1 und der Technologie des Patentdokuments 2 das Problem, dass bei einer Einrichtung wie einem Parkplatz, wenn die Anzahl von autonom fahrenden Fahrzeugen groß wird, eine von dem Manager geleistete Unterstützung unzureichend wird, und die Möglichkeit des Auftretens eines durch autonom fahrende Fahrzeuge, die in der Einrichtung, wie einem Parkplatz, ein automatisches Einparken durchführen, bewirkten Unfalls wird hoch.
  • Die vorliegende Erfindung hat die hauptsächliche Aufgabe, das vorstehend beschriebene Problem zu lösen. Genauer gesagt, die hauptsächliche Aufgabe der vorliegenden Erfindung besteht darin, eine Konfiguration zu erhalten, die wirksam durch autonom fahrende Fahrzeuge in einer Einrichtung bewirkte Unfälle verhindert.
  • Lösung des Problems
  • Eine Informationsverarbeitungsvorrichtung nach der vorliegenden Erfindung enthält:
    • eine Bilddaten-Erwerbseinheit zum Erwerben mehrerer Stücke von Bilddaten, in denen verschiedene Bereiche in einer Einrichtung, in der ein autonom fahrendes Fahrzeug ein autonomes Fahren durchführt, gezeigt sind;
    • eine Prioritätssetzeinheit zum Analysieren eines in jedem der mehreren Stücke von Bilddaten gezeigten Zustands und zum Setzen einer Priorität für jedes Bilddatenstück; und
    • eine Bildsteuereinheit zum Bestimmen eines Anzeigemodus zu der Zeit der Anzeige der mehreren Stücke von Bilddaten gemäß der durch die Prioritätssetzeinheit gesetzten Priorität.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß der vorliegenden Erfindung kann ein Manager eine Fahrunterstützung für mehrere autonom fahrende Fahrzeuge ausüben, und durch mehrere in einer Einrichtung autonom fahrende Fahrzeuge bewirkte Unfälle können wirksam verhindert werden.
  • Figurenliste
    • 1 ist ein Diagramm, das ein Konfigurationsbeispiel für ein Parkplatz-Verwaltungssystem nach einem ersten Ausführungsbeispiel illustriert.
    • 2 ist ein Diagramm, das ein Hardware-Konfigurationsbeispiel für das Parkplatz-Verwaltungssystem nach dem ersten Ausführungsbeispiel illustriert.
    • 3 ist ein Diagramm, das eine funktionelles Konfigurationsbeispiel für eine Überwachungsvorrichtung nach dem ersten Ausführungsbeispiel illustriert.
    • 4 ist ein Diagramm, das ein Beispiel für Einrichtungssensor-Bilddaten nach dem ersten Ausführungsbeispiel illustriert.
    • 5 ist ein Diagramm, das ein Beispiel für einen Parkplatz nach dem ersten Ausführungsbeispiel aus der Vogelperspektive illustriert.
    • 6 ist ein Diagramm, das ein Anzeigebeispiel für die Einrichtungssensor-Bilddaten nach dem ersten Ausführungsbeispiel illustriert.
    • 7 ist ein Diagramm, das ein Anzeigebeispiel für die Einrichtungssensor-Bilddaten nach dem ersten Ausführungsbeispiel illustriert.
    • 8 ist ein Diagramm, das ein anderes funktionelles Konfigurationsbeispiel für die Überwachungsvorrichtung nach dem ersten Ausführungsbeispiel illustriert.
    • 9 ist ein Diagramm, das einen Erzeugungsvorgang für die Vogelperspektivansicht des Parkplatzes nach dem ersten Ausführungsbeispiel illustriert.
    • 10 ist ein Diagramm, das einen Erzeugungsvorgang für die Vogelperspektivansicht des Parkplatzes nach dem ersten Ausführungsbeispiel illustriert.
    • 11 ist ein Diagramm, das einen Erzeugungsvorgang für die Vogelperspektivansicht des Parkplatzes nach dem ersten Ausführungsbeispiel illustriert.
    • 12 ist ein Diagramm, das ein Beispiel für eine Vogelperspektivansicht des Parkplatzes, die Hervorhebungen enthält, nach dem ersten Ausführungsbeispiel illustriert.
    • 13 ist ein Diagramm, das ein Anzeigebeispiel für eine Anzeigeoperationsvorrichtung nach dem ersten Ausführungsbeispiel illustriert.
    • 14 ist ein Diagramm, das ein Beispiel für eine Gesamtstopptaste nach dem ersten Ausführungsbeispiel illustriert.
    • 15 ist ein Flussdiagramm, das ein Operationsbeispiel für die Überwachungsvorrichtung nach dem ersten Ausführungsbeispiel illustriert.
    • 16 ist ein Flussdiagramm, das ein Operationsbeispiel für die Überwachungsvorrichtung nach dem ersten Ausführungsbeispiel illustriert.
    • 17 ist ein Diagramm, das ein Hardware-Konfigurationsbeispiel für ein Parkplatz-Verwaltungssystem nach einem zweiten Ausführungsbeispiel illustriert.
    • 18 ist ein Diagramm, das ein funktionelles Konfigurationsbeispiel für eine Überwachungsvorrichtung nach dem zweiten Ausführungsbeispiel illustriert.
    • 19 ist ein Diagramm, das ein Beispiel für Fahrzeugsensor-Bilddaten nach dem zweiten Ausführungsbeispiel illustriert.
    • 20 ist ein Diagramm, das ein Beispiel für eine Vogelperspektivansicht eines Parkplatzes nach dem zweiten Ausführungsbeispiel illustriert.
    • 21 illustriert ein Beispiel für Fahrzeugsensor-Bilddaten und Einrichtungssensor-Bilddaten nach dem zweiten Ausführungsbeispiel.
    • 22 ist ein Diagramm, das ein Anzeigebeispiel für die Fahrzeugsensor-Bilddaten nach dem zweiten Ausführungsbeispiel illustriert.
    • 23 ist ein Diagramm, das ein Anzeigebeispiel für die Fahrzeugsensor-Bilddaten nach dem zweiten Ausführungsbeispiel illustriert.
    • 24 ist ein Diagramm, das ein Anzeigebeispiel für die Fahrzeugsensor-Bilddaten und die Einrichtungssensor-Bilddaten nach dem zweiten Ausführungsbeispiel illustriert.
    • 25 ist ein Flussdiagramm, das ein Operationsbeispiel für die Überwachungsvorrichtung nach dem zweiten Ausführungsbeispiel illustriert.
  • Beschreibung von Ausführungsbeispielen
  • Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend mit Bezug auf die Zeichnungen beschrieben. In der folgenden Beschreibung der Ausführungsbeispiele und in den Zeichnungen zeigen Elemente, die durch die gleichen Bezugszeichen bezeichnet sind, die gleichen oder entsprechende Teile an.
  • Erstes Ausführungsbeispiel
  • *** Beschreibung von Konfigurationen ***
  • Bei dem vorliegenden Ausführungsbeispiel wird ein System zum Verwalten einer Einrichtung, in der autonom fahrende Fahrzeuge autonom fahren, beschrieben. Beispiele für die Einrichtung, in der autonom fahrende Fahrzeuge autonom fahren, schließen eine Parkeinrichtung, ein Lagerhaus und ein Fabrik mit ein.
  • In der folgenden Beschreibung wird ein Parkverwaltungssystem zum Verwalten einer Parkeinrichtung erläutert.
  • 1 illustriert ein Konfigurationsbeispiel für ein Parkplatz-Verwaltungssystem nach dem vorliegenden Ausführungsbeispiel.
  • Eine Parkeinrichtung 20 enthält einen Parkplatz 200.
  • Auf dem Parkplatz 200 führen ein oder mehrere autonom fahrende Fahrzeuge ein autonomes Fahren durch und führen ein automatisches Einparken durch.
  • Eine Einrichtungssensorvorrichtung 21 ist in der Parkeinrichtung 20 installiert. Die Einrichtungssensorvorrichtung 21 überwacht den Parkplatz 200. Die Einrichtungssensorvorrichtung 21 ist beispielsweise ein Kamerasensor (eine Überwachungskamera), ein Infrarotsensor oder ein optischer Radarsensor. Obgleich nur eine Einrichtungssensorvorrichtung 21 in 1 illustriert ist, sind mehrere Einrichtungssensorvorrichtungen 21 in der Parkeinrichtung 20 installiert. Jede der Einrichtungssensorvorrichtungen 21 überwacht verschiedene Bereiche auf dem Parkplatz 200. Jede der Einrichtungssensorvorrichtungen 21 sendet Bilddaten (nachfolgend Einrichtungssensor-Bilddaten), die durch Überwachen erhalten wurden, an eine Überwachungsvorrichtung 31 in einem Parkplatz-Verwaltungsraum 30, der nachfolgend beschrieben wird.
  • Der Parkplatz-Verwaltungsraum 30 ist ein Raum zum Verwalten der Parkeinrichtung 20. Bei dem vorliegenden Ausführungsbeispiel befindet sich der Parkplatz-Verwaltungsraum 30 an einem Ort, der von der Parkeinrichtung 20 entfernt ist. Es ist zu beachten, dass der Parkplatz-Verwaltungsraum 30 sich an einem Ort nahe der Parkeinrichtung 20 befinden kann.
  • In dem Parkplatz-Verwaltungsraum 30 empfängt die Überwachungsvorrichtung 31 mehrere Stücke von Einrichtungssensor-Bilddaten, die von den mehreren Einrichtungssensorvorrichtungen 120 gesendet wurden, und setzt eine Priorität für jedes der mehreren empfangenen Stücke von Einrichtungssensor-Bilddaten. Die Überwachungsvorrichtung 31 bestimmt einen Anzeigemodus zu der Zeit des Anzeigens der mehreren Stücke von Einrichtungssensor-Bilddaten auf der Grundlage der Priorität. Danach zeigt die Überwachungsvorrichtung 31 die mehreren Stücke von Einrichtungssensor-Bilddaten in dem bestimmten Anzeigemodus an. Weiterhin sendet die Überwachungsvorrichtung 31 einen Steuerbefehl von einem Manager 300 an autonom fahrende Fahrzeuge auf dem Parkplatz 200.
  • Der Manager 300 verwendet die Überwachungsvorrichtung 31. Genauer gesagt, der Manager 300 betrachtet die mehreren auf der Überwachungsvorrichtung 31 angezeigten Stücke von Einrichtungssensor-Bilddaten, um den Zustand der autonom fahrenden Fahrzeuge, den Zustand von Fußgängern und dergleichen auf dem Parkplatz 200 zu erkennen, und gibt einen Steuerbefehl an die Überwachungsvorrichtung 31 aus, falls dies erforderlich ist.
  • Eine Eintrittsposition 40 ist ein Ort, an welchem ein Fahrer 400 aus einem autonom fahrenden Fahrzeug 41 aussteigt. Der Fahrer 400 hält das autonom fahrende Fahrzeug 41 an der Eintrittsposition 40 an und steigt aus dem autonom fahrenden Fahrzeug 41 aus. Wenn der Fahrer 400 aus dem autonom fahrenden Fahrzeug 41 aussteigt, wird die Fahrautorität über das autonom fahrende Fahrzeug an den Manager 300 übergeben. Zusätzlich zu dem Aussteigen aus dem autonom fahrenden Fahrzeug 41 kann der Fahrer 400 die Übergabe der Fahrautorität durch Verwendung eines Touchpanels eines Fahrzeug-Navigationssystems, das in dem autonom fahrenden Fahrzeug 41 enthalten ist, oder eines mobilen Endgeräts, das der Fahrer 400 besitzt, ausdrücklich anweisen.
  • Nachdem die Fahrautorität von dem Fahrer 400 an den Manager 300 übergeben wurde, fährt das autonom fahrende Fahrzeug 41 autonom zu der Parkeinrichtung 20. Der Fahrzustand des autonom fahrenden Fahrzeugs wird durch die Einrichtungssensorvorrichtung 21 erfasst, und die Einrichtungssensorvorrichtung 21 sendet Einrichtungssensor-Bilddaten an die Überwachungsvorrichtung 31. Wie vorstehend beschrieben wurde, betrachtet der Manager 300 die Einrichtungssensor-Bilddaten, um den Fahrzustand des autonom fahrenden Fahrzeugs 41 zu überwachen. Aufgrund des Fahrens des autonom fahrenden Fahrzeugs 41 weist, wenn die Möglichkeit einer Gefahr besteht, wie einer Kollision mit einem anderen Fahrzeug, einer Kollision mit einem Fußgänger und dergleichen, der Manager 300 die Überwachungsvorrichtung 31 an, das Fahrens des autonom fahrenden Fahrzeugs 41 anzuhalten. Aufgrund der Anweisung zum Anhalten des Fahrens von dem Manager 300 werden Fahrzeug-Steuerinformationen zum Anweisen des Anhaltens des Fahrens von der Überwachungsvorrichtung 31 an das autonom fahrende Fahrzeug 41 gesendet, und das autonom fahrende Fahrzeug 41 hält seine Fahrt an.
  • Während hier das Anhalten der Fahrt des autonom fahrenden Fahrzeugs 41 beschrieben wurde, ist es in einem Fall, in welchem das autonom fahrende Fahrzeug 41 anhält, wenn der Parkplatz 200 versperrt ist und das autonome Fahren schwierig geworden ist, möglich, so zu konfigurieren, dass der Manager 300 die Sicherheit um das autonom fahrende Fahrzeug 41 herum bestätigt und Fahrzeug-Steuerinformationen zum Anweisen des Startens des Fahrens über die Überwachungsvorrichtung 31 sendet.
  • 2 illustriert ein Hardware-Konfigurationsbeispiel für das Parkplatz-Verwaltungssystem.
  • In der Parkeinrichtung 20 ist ein Paar aus der Einrichtungssensorvorrichtung 21 und einer Funkkommunikationsvorrichtung 22 angeordnet. Obgleich nur ein Paar aus der Einrichtungssensorvorrichtung 21 und der Funkkommunikationsvorrichtung 22 in 2 illustriert ist, wird angenommen, dass mehrere Paare aus der Einrichtungssensorvorrichtung 21 und der Funkkommunikationsvorrichtung 22 in der Parkeinrichtung 20 angeordnet sind.
  • Die Überwachungsvorrichtung 31 und eine Anzeigeoperationsvorrichtung 32 sind in dem Parkplatz-Verwaltungsraum 30 angeordnet.
  • Die Überwachungsvorrichtung 31 ist mit einer Sensorschnittstelle 12, einem Prozessor 13, einem RAM (Random Access Memory, Speicher mit wahlfreiem Zugriff) 14, einem ROM (Read Only Memory, Festwertspeicher) 15, einer Anzeigeoperations-Schnittstelle 16 und einer Funkkommunikations-Schnittstelle 17 konfiguriert. Die Überwachungsvorrichtung 31 ist ein Computer. Die Überwachungsvorrichtung 31 kann durch Verwendung eines üblichen Personal-Computers implementiert sein. Weiterhin kann die Überwachungsvorrichtung auch durch eine eingebettete Vorrichtung, ein FPGA (Field-Programmable Gate Array, vor Ort programmierbares Gate-Array) und dergleichen implementiert sein.
  • Die Überwachungsvorrichtung 31 entspricht einer Informationsverarbeitungsvorrichtung. Weiterhin entsprechen die von der Überwachungsvorrichtung 31 durchgeführten Operationen einem Informationsverarbeitungsverfahren und einem Informationsverarbeitungsprogramm.
  • Jede der mehreren Einrichtungssensorvorrichtungen 21, die in der Parkeinrichtung 20 angeordnet sind, ist mit der Überwachungsvorrichtung 31 verbunden. Die mehreren Einrichtungssensorvorrichtungen 2 und die Überwachungsvorrichtung 31 sind beispielsweise über das Internet miteinander verbunden. Da die mehreren Einrichtungssensorvorrichtungen 21 und die Überwachungsvorrichtung 31 über das Internet miteinander verbunden sind, stehen, selbst wenn die Überwachungsvorrichtung 31 sich an einem von der Parkeinrichtung 20 entfernten Ort befindet, die mehreren Einrichtungssensorvorrichtungen 21 und die Überwachungsvorrichtung 31 in Kommunikationsverbindung miteinander.
  • Einrichtungssensor-Bilddaten, die durch jede der Einrichtungssensorvorrichtungen 21 erhalten wurden, werden an die Überwachungsvorrichtung 31 gesendet. In der Überwachungsvorrichtung 31 empfängt die Sensorschnittstelle 12 von jeder der Einrichtungssensorvorrichtungen 21 gesendete Einrichtungssensor-Bilddaten. Die empfangenen Einrichtungssensor-Bilddaten werden vorübergehend in dem RAM 14 gespeichert. Danach berechnet der Prozessor 13 die Priorität der Einrichtungssensor-Bilddaten. Einrichtungssensor-Bilddaten mit einer hohen Priorität werden bevorzugt auf der Anzeigeoperationsvorrichtung 32, die mit der Überwachungsvorrichtung 31 über die Anzeigeoperations-Schnittstelle 16 verbunden ist, angezeigt.
  • Die Anzeigeoperationsvorrichtung 32 ist beispielsweise ein Touchpanel mit einer Anzeigevorrichtung.
  • Eine Anweisung an das autonom fahrende Fahrzeug 41, die durch den Manager 300 in die Anzeigeoperationsvorrichtung 32 eingegeben wurde, wird von der Anzeigeoperations-Schnittstelle 16 empfangen. Der Prozessor 13 erzeugt Fahrzeug-Steuerinformationen gemäß der Anweisung von dem Manager 300. Die erzeugten Fahrzeug-Steuerinformationen werden von der Funkkommunikations-Schnittstelle 17 an die in der Parkeinrichtung 20 installierte Funkkommunikationsvorrichtung 22 gesendet.
  • Die Funkkommunikationsvorrichtung 22 empfängt die von der Überwachungsvorrichtung 31 gesendeten Fahrzeug-Steuerinformationen und verteilt die empfangenen Fahrzeug-Steuerinformationen.
  • Das autonom fahrende Fahrzeug 41 enthält eine Funkkommunikationsvorrichtung 42.
  • Die Funkkommunikationsvorrichtung 42 empfängt Fahrzeug-Steuerinformationen, die von der Funkkommunikationsvorrichtung 22 verteilt wurden.
  • Normalerweise fährt das autonom fahrende Fahrzeug 41 mit einer automatischen Parkfunktion. Wenn jedoch die Funkkommunikationsvorrichtung 42 die Fahrzeug-Steuerinformationen empfängt, gibt das autonom fahrende Fahrzeug 41 der Anweisung durch die Fahrzeug-Steuerinformationen die Priorität und hält seine Fahrt an oder startet diese.
  • 3 illustriert ein funktionelles Konfigurationsbeispiel für die Überwachungsvorrichtung 31.
  • Die Überwachungsvorrichtung 31 enthält eine erste Bilddaten-Erwerbseinheit 101, eine Prioritätensetzeinheit 102, eine erste Bilddaten-Anzeigeeinheit 103, eine Steueranweisungseinheit 104 und eine Bewegungssteuereinheit 105.
  • Die erste Bilddaten-Erwerbseinheit 101, die Prioritätensetzeinheit 102, die erste Bilddaten-Anzeigeeinheit 103, die Steueranweisungseinheit 104 und die Bewegungssteuereinheit 105 werden durch ein Programm realisiert. Das Programm zum Realisieren der ersten Bilddaten-Erwerbseinheit 101, der Prioritätensetzeinheit 102, der ersten Bilddaten-Anzeigeeinheit 103, der Steueranweisungseinheit 104 und der Bewegungssteuereinheit 105 wird in dem ROM 15 gespeichert. Das Programm wird von dem ROM 15 in den RAM 14 geladen. Das Programm wird dann von dem Prozessor 13 gelesen und durch den Prozessor 13 ausgeführt.
  • 3 illustriert schematisch einen Zustand, in welchem der Prozessor 13 ein Programm zum Realisieren der Funktionen der ersten Bilddaten-Erwerbseinheit 101, der Prioritätensetzeinheit 102, der ersten Bilddaten-Anzeigeeinheit 103, der Steueranweisungseinheit 104 und der Bewegungssteuereinheit 105 ausführt.
  • Die erste Bilddaten-Erwerbseinheit 101 erwirbt mehrere Stück von Einrichtungssensor-Bilddaten, die von mehreren Funkkommunikationsvorrichtungen 22 über die Sensorschnittstelle 12 gesendet wurden.
  • 4 illustriert ein Beispiel für Einrichtungssensor-Bilddaten, wenn die Einrichtungssensorvorrichtungen 21 Kamerasensoren sind.
  • Die jeweiligen Bilddaten A, Bilddaten B, Bilddaten C und Bilddaten D sind Einrichtungssensor-Bilddaten, die von Einrichtungssensorvorrichtungen 21, die an verschiedenen Positionen angeordnet sind, aufgenommen wurden. Die Bilddaten A, die Bilddaten B, die Bilddaten C und die Bilddaten D stellen die Zustände von verschiedenen Bereichen in der Parkeinrichtung 20 dar.
  • Weiterhin können Infrarotsensoren oder optische Lasersensoren als die Einrichtungssensorvorrichtungen 21 verwendet werden. Infrarotsensoren können Temperaturänderungen messen. Daher können, wenn Infrarotsensoren als die Einrichtungssensorvorrichtungen 21 verwendet werden, die Einrichtungssensorvorrichtungen 21 Fußgänger auf dem Parkplatz 200 erfassen. Optische Lasersensoren berechnen Abstandsinformationen auf der Grundlage einer Zeit, zu der projiziertes Licht an einem Objekt reflektiert wird, bis zu der Zeit, bis es ankommt. Durch Projizieren von Laserlicht unter verschiedenen Winkeln können die optischen Lasersensoren eine dreidimensionale Form der Parkeinrichtung 20 messen.
  • Auf diese Weise kann die erste Bilddaten-Erwerbseinheit 101 Informationen wie die Position und das äußere des autonom fahrenden Fahrzeugs 41 und die Anwesenheit/Abwesenheit von Fußgängern auf dem Parkplatz 200 sowie die dreidimensionale Form der Parkeinrichtung 20 erwerben.
  • Die erste Bilddaten-Erwerbseinheit 101 entspricht einer Bilddaten-Erwerbseinheit. Weiterhin entsprechen die Prozesse, die von der ersten Bilddaten-Erwerbseinheit 101 durchgeführt werden, einem Bilddaten-Erwerbsprozess.
  • Die Prioritätensetzeinheit 102 setzt eine Priorität für jedes der mehreren Stücke von Einrichtungssensor-Bilddaten, die von der ersten Bilddaten-Erwerbseinheit 101 erworben wurden. Die Priorität ist eine Priorität, mit der die Einrichtungssensor-Bilddaten dem Manager 300 anzuzeigen sind.
  • Stücke von Einrichtungssensor-Bilddaten mit einer hohen Priorität werden in einem Anzeigemodus mit einer hohen Sichtbarkeit angezeigt.
  • Die Prioritätensetzeinheit 102 berechnet die Priorität anhand des Gefahrengrads. Die Prioritätensetzeinheit 102 analysiert den in jedem der Stücke von Einrichtungssensor-Bilddaten gezeigten Zustand und schätzt den Grad der Gefahr in dem in jedem der Stücke von Einrichtungssensor-Bilddaten gezeigten Bereich. Beispielsweise schätzt die Prioritätensetzeinheit 102 den Grad der Gefahr auf der Grundlage von irgendeinem/irgendeiner von dem Abstand und der Ansammlung von Fahrzeugen, der Anwesenheit/Abwesenheit von Fußgängern und der Anwesenheit/Abwesenheit von manuell gefahrenen Fahrzeugen oder jeder Kombination dieser Elemente. Die Prioritätensetzeinheit 102 setzt dann die Priorität jedes der Stücke von Einrichtungssensor-Bilddaten auf der Grundlage des geschätzten Gefahrengrads. Die Prioritätensetzeinheit 102 setzt eine höhere Priorität für Stücke von Einrichtungssensor-Bilddaten mit einem höheren Gefahrengrad.
  • Die durch die Prioritätensetzeinheit 102 durchgeführten Prozesse entsprechen einem Prioritätensetzprozess.
  • 5 illustriert ein Beispiel für eine Vogelperspektivansicht des Parkplatzes 200. Das heißt, 5 sind Bilddaten, die erworben werden, wenn der gesamte Parkplatz 200 von oben aufgenommen wird. Die Fahrzeuge innerhalb der Rahmenlinien in 5 (die weißen Rahmen in dem Parkplatz 200) sind geparkte Fahrzeuge und befinden sich in einem angehaltenen Zustand. Ein Fahrzeug A, ein Fahrzeug B und ein Fahrzeug C, die sich außerhalb der Rahmenlinien in 5 befinden, sind Fahrzeuge, die ein autonomes Fahren für automatisches Einparken durchführen, und sie sind in einem Bewegungszustand.
  • Die Prioritätensetzeinheit 102 setzt den Gefahrengrad von Einrichtungssensor-Bilddaten, in denen ein autonom fahrendes Fahrzeug gezeigt ist, als höher als den von Einrichtungssensor-Bilddaten, in denen ein angehaltenes Fahrzeug gezeigt ist.
  • Weiterhin setzt die Prioritätensetzeinheit 102 den Gefahrengrad der Einrichtungssensor-Bilddaten, in denen ein Fahrzeug mit einem kurzen Abstand von einem anderen Fahrzeug gezeigt ist, als höher.
  • Die Prioritätensetzeinheit 102 verwendet von der ersten Bilddaten-Erwerbseinheit erworbene Positionsdaten von Fahrzeugen, um einen Abstand zwischen Fahrzeugen zu berechnen. Die Prioritätensetzeinheit 102 berechnet keinen direkten Abstand zwischen Fahrzeugen, sondern berechnet einen Bewegungsabstand (einen Durchgang) auf einem Parkplatz. Während der direkte Abstand zwischen dem Fahrzeug A und dem Fahrzeug B und der direkte Abstand zwischen dem Fahrzeug A und dem Fahrzeug C in 5 nahezu gleich sind, ist, da Rahmengrenzen (leere Rahmen) (Parkplätze) zwischen dem Fahrzeug A und dem Fahrzeug C vorhanden sind, der Bewegungsabstand von der Position des Fahrzeugs A zu der Position des Fahrzeugs C größer als der Bewegungsabstand von der Position des Fahrzeugs A zu der Position des Fahrzeugs B. Daher werden der Gefahrengrad von Einrichtungssensor-Bilddaten, in denen das Fahrzeug A gezeigt ist, und der Gefahrengrad von Einrichtungssensor-Bilddaten, in denen das Fahrzeug B gezeigt ist, höher als der Gefahrengrad von Einrichtungssensor-Bilddaten, in denen das Fahrzeug C gezeigt ist. Die Prioritätensetzeinheit 102 analysiert eine durch eine Vogelperspektivansicht-Erzeugungseinheit 106, die später beschrieben wird, erzeugte Vogelperspektivansicht, um einen Abstand zwischen Fahrzeugen zu berechnen.
  • Die Prioritätensetzeinheit 102 setzt den Gefahrengrad höher für Einrichtungssensor-Bilddaten mit einem höheren Anhäufungsgrad von Fahrzeugen.
  • Die Prioritätensetzeinheit 102 analysiert eine Vogelperspektivansicht, um ein Verhältnis von Fahrzeugen, die einen bestimmten Bereich auf dem Parkplatz 200 besetzen, zu berechnen, wodurch der Anhäufungs- oder Sammlungsgrad von Fahrzeugen bestimmt wird.
  • Weiterhin setzt die Prioritätensetzeinheit 102 den Gefahrengrad höher für Einrichtungssensor-Bilddaten, in denen Fußgänger gezeigt sind. Das heißt, die Prioritätensetzeinheit 102 analysiert die Einrichtungssensor-Bilddaten, um Fußgänger zu erfassen. Danach setzt die Prioritätensetzeinheit 102 den Gefahrengrad höher für Einrichtungssensor-Bilddaten, in denen eine größere Anzahl von Fußgängern gezeigt ist.
  • Weiterhin setzt die Prioritätensetzeinheit 102 den Gefahrengrad von Einrichtungssensor-Bilddaten, in denen manuell gesteuerte Fahrzeuge gezeigt sind, höher als den Gefahrengrad von Einrichtungssensor-Bilddaten, in denen keine manuell gesteuerten Fahrzeuge gezeigt sind.
  • Die Bewegungssteuereinheit 105, die später beschrieben wird, bestimmt, dass nicht steuerbare Fahrzeuge manuell gesteuerte Fahrzeuge sind. Die Prioritätensetzeinheit 102 bestimmt, ob in den Einrichtungssensor-Bilddaten irgend ein Straßenfahrzeug gezeigt ist, auf der Grundlage der in den Einrichtungssensor-Bilddaten gezeigten Nummernschilder der Fahrzeuge.
  • Weiterhin setzt die Prioritätensetzeinheit 102 den Gefahrengrad von Einrichtungssensor-Bilddaten, in denen irgendein autonom fahrendes Fahrzeug gezeigt ist, das seine Fahrt auf einer Straße angehalten hat, höher als den Gefahrengrad von Einrichtungssensor-Bilddaten, in denen kein autonom gefahrenes Fahrzeug, das seine Fahrt angehalten wird, gezeigt ist.
  • Autonom gefahrene Fahrzeuge halten ihre Fahrt an unter Berücksichtigung der Sicherheit, wenn ein anderes Fahrzeug um diese Fahrzeuge herum vorhanden ist. Daher setzt die Prioritätensetzeinheit 102 den Gefahrengrad von Einrichtungssensor-Bilddaten, in denen irgendein automatisch gefahrenes Fahrzeug gezeigt ist, das seine Fahrt auf einer Straße anhält, höher.
  • Weiterhin ist es möglich, dass die Prioritätensetzeinheit 102 bewirkt, dass autonom gefahrene Fahrzeuge den Schwierigkeitsgrad berechnen, wenn ein autonomes Fahren durchgeführt wird. Zusätzlich ist es auch möglich, dass die Prioritätensetzeinheit 102 Schwierigkeitsgradinformationen über die erste Bilddaten-Erwerbseinheit 101 erwirbt und den Gefahrengrad von Einrichtungssensor-Bilddaten, in denen Fahrzeuge mit einem höheren Schwierigkeitsgrad gezeigt sind, höher setzt.
  • Mit den oben beschriebenen Vorgängen berechnet die Prioritätensetzeinheit 102 eine Priorität hinsichtlich jedes der Stücke der Einrichtungssensor-Bilddaten, die durch mehrere Einrichtungssensorvorrichtungen 21 erhalten wurden.
  • Die erste Bilddaten-Anzeigeeinheit 103 bestimmt einen Anzeigemodus zu der Zeit der Anzeige von mehreren Stücken von Einrichtungssensor-Bilddaten gemäß der durch die Prioritätensetzeinheit 102 gesetzten Priorität. Danach zeigt die erste Bilddaten-Anzeigeeinheit 103 die mehreren Stücke von Einrichtungssensor-Bilddaten in dem bestimmten Anzeigemodus auf der Anzeigeoperationsvorrichtung 32 über die Anzeigeoperations-Schnittstelle 16 an.
  • Die erste Bilddaten-Anzeigeeinheit 103 entspricht einer Anzeigesteuereinheit. Weiterhin entsprechen die von der ersten Bilddaten-Anzeigeeinheit 103 durchgeführten Prozesse einem Anzeigesteuerprozess.
  • 6 illustriert ein Anzeigebeispiel für Einrichtungssensor-Bilddaten.
  • 6 illustriert ein Beispiel, in welchem Stücke von Einrichtungssensor-Bilddaten in der Reihenfolge der Priorität auf der Anzeigeoperationsvorrichtung 32 angezeigt werden. In dem Beispiel von 6 werden Einrichtungssensor-Bilddaten mit der höchsten Priorität in dem oberen linken Bereich des Schirms angezeigt. Einrichtungssensor-Bilddaten mit der zweithöchsten Priorität werden in dem oberen rechten Bereich auf dem Schirm angezeigt. Einrichtungssensor-Bilddaten mit der dritthöchsten Priorität werden in dem unteren linken Bereich auf dem Schirm angezeigt. Einrichtungssensor-Bilddaten mit der niedrigsten Priorität werden in dem unteren rechten Bereich des Schirms angezeigt.
  • Weiterhin ist es möglich, dass, wenn die Überwachungsvorrichtung 31 n Stücke von Einrichtungssensor-Bilddaten empfängt, die durch n (n ≥ 3) Einrichtungssensorvorrichtungen 21 erhalten wurden, die erste Bilddaten-Anzeigeeinheit 103 m (2 ≤ m < n) Stücke von Einrichtungssensor-Bilddaten auf der Grundlage der Priorität auswählt, um nur m Stücke von Einrichtungssensor-Bilddaten auf der Anzeigeoperationsvorrichtung 32 anzuzeigen.
  • In 6 können, während vier Stücke von Einrichtungssensor-Bilddaten in der gleichen Größe angezeigt werden, die Anzeigegrößen der Stücke von Einrichtungssensor-Bilddaten gemäß der Priorität geändert werden.
  • 7 illustriert ein Beispiel, in welchem die Anzeigegrößen von Stücken von Einrichtungssensor-Bilddaten gemäß der Priorität geändert sind.
  • In dem Beispiel von 7 haben Einrichtungssensor-Bilddaten mit einer höheren Priorität eine größere Anzeigegröße.
  • Weiterhin kann die erste Bilddaten-Anzeigeeinheit 103 eine Vogelperspektivansicht des in 5 veranschaulichten Parkplatzes 200 anzeigen. Wenn die erste Bilddatenanzeigeeinheit 103 eine Vogelperspektivansicht des Parkplatzes 200 anzeigt, wie in 8 gezeigt ist, wird die Vogelperspektivansicht-Erzeugungseinheit 106 zu dem funktionellen Konfigurationsbeispiel in 3 hinzugefügt.
  • Die Vogelperspektivansicht-Erzeugungseinheit 106 erzeugte eine Vogelperspektivansicht auf der Grundlage mehrerer Stücke von Einrichtungssensor-Bilddaten, die von mehreren Einrichtungssensorvorrichtungen 21 erhalten wurden.
  • Ähnlich wie die erste Bilddaten-Erwerbseinheit 101, die Prioritätensetzeinheit 102, die erste Bilddaten-Anzeigeeinheit 103, die Steueranweisungseinheit 104 und die Bewegungssteuereinheit 105 wird die Vogelperspektivansicht-Erzeugungseinheit 106 auch durch ein Programm realisiert.
  • Bei der in 8 illustrierten funktionellen Konfiguration entsprechen die erste Bilddaten-Anzeigeeinheit 103 und die Vogelperspektivansicht-Erzeugungseinheit 106 einer Anzeigesteuereinheit.
  • Erzeugungsvorgänge einer Vogelperspektivansicht durch die Vogelperspektivansicht-Erzeugungseinheit 106 sind in den 9, 10 und 11 illustriert.
  • Bilddaten A, Bilddaten B, Bilddaten C und Bilddaten D in 9 sind die gleichen wie die in 4 illustrierten Bilddaten A, die Bilddaten B, die Bilddaten C beziehungsweise die Bilddaten D. Wenn die Installationsposition und die Installationsrichtung des Kamerasensors bekannt sind, führt die Vogelperspektivansicht-Erzeugungseinheit 106 eine affine Transformation bei Einrichtungssensor-Bilddaten durch (Vergrößerung, Verkleinerung, Drehung und Parallelverschiebung von Bilddaten). Genauer gesagt, durch affine Transformation kann, wie in 10 illustriert ist, die Vogelperspektivansicht-Erzeugungseinheit 106 die Bilddaten A, die Bilddaten B, die Bilddaten C und die Bilddaten D in Bilddaten A', Bilddaten B', Bilddaten C' und Bilddaten D' transformieren, die Bilddaten sind, wenn der Parkplatz 200 von oben betrachtet wird. Weiterhin kann, wenn die Installationsrichtung des Kamerasensors nicht bekannt ist, die Vogelperspektivansicht-Erzeugungseinheit 106 sich auf die Form der Rahmenlinien (der weißen Rahmen) auf dem Parkplatz 200 beziehen, um eine Bildtransformation durchzuführen. Weiterhin kann die Vogelperspektivansicht-Erzeugungseinheit 106, wenn die Installationsposition des Kamerasensors nicht bekannt ist, Zahleninformationen und dergleichen, die auf die Straßenoberfläche des Parkplatzes 200 gezeichnet sind, anhand der Einrichtungssensor-Bilddaten erkennen, um die Installationsposition des Kamerasensors zu schätzen.
  • Als Nächstes setzt die Vogelperspektivansicht-Erzeugungseinheit 106, wie in 11 illustriert ist, die Bilddaten A', die Bilddaten B', die Bilddaten C' und die Bilddaten D', die durch affine Transformation erhalten wurden, zusammen, um eine Vogelperspektivansicht des gesamten Parkplatzes 200 zu erzeugen.
  • Die Vogelperspektivansicht-Erzeugungseinheit 106 setzt Stücke von Einrichtungssensor-Bilddaten zusammen, während sie bewirkt, dass Teile der Stücke von Einrichtungssensor-Bilddaten von benachbarten Kamerasensoren einander überlappen. Demgemäß kann die Vogelperspektivansicht-Erzeugungseinheit 106 die Zoomfunktion der Kamerasensoren einstellen. Genauer gesagt, die Vogelperspektivansicht-Erzeugungseinheit 106 stellt die Zoomfunktion der Kamerasensoren ein, um den Aufnahmebereich der Kamerasensoren zu vergrößern oder zu verkleinern, wodurch die Steuerung so erfolgt, dass eine Überlappung von Teilen der Stücke von Einrichtungssensor-Bilddaten übereinander bewirkt wird.
  • Mit den oben beschriebenen Prozessen kann die Vogelperspektivansicht-Erzeugungseinheit 106 mehrere Stücke von Einrichtungssensor-Bilddaten mehrerer Kamerasensoren zusammensetzen, um eine Vogelperspektivansicht des gesamten Parkplatzes 200 zu erzeugen.
  • Danach kann die erste Bilddaten-Anzeigeeinheit 103 dem Manager 300 die Vogelperspektivansicht präsentieren.
  • Weiterhin kann, wie in 12 illustriert ist, die erste Bilddaten-Anzeigeeinheit 103 einen Bereich einer Vogelperspektivansicht hervorheben, in welchem Einrichtungssensor-Bilddaten, für die die von der Prioritätensetzeinheit 102 gesetzte Priorität einer vorbestimmten Bedingung genügt, sich widerspiegeln. Das heißt, die erste Bilddaten-Anzeige 103 kann einen Bereich hervorheben, für den Einrichtungssensor-Bilddaten, für die eine Priorität gleich einem oder größer als ein Schwellenwert gesetzt ist, sich wiederspiegeln. In 12 ist, da die Priorität von Einrichtungssensor-Bilddaten, in denen ein Fußgänger gezeigt ist, gleich einem oder größer als ein Schwellenwert ist, ein Bereich, in welchem ein Fußgänger in der Vogelperspektivansicht gezeigt ist, von einem Kreis umgeben, um hervorgehoben zu werden. In gleicher Weise sind in 12, da der Abstand zwischen dem Fahrzeug A und dem Fahrzeug B kurz ist, die Priorität der Einrichtungssensor-Bilddaten, in denen das Fahrzeug A gezeigt ist, und die Priorität der Einrichtungssensor-Bilddaten, in denen das Fahrzeug B gezeigt ist, gleich einem oder größer als ein Schwellenwert, und somit ist der Bereich, in welchem das Fahrzeug A und das Fahrzeug B in der Vogelperspektivansicht gezeigt ist, von einem Kreis umgeben, um hervorgehoben zu sein.
  • Wie in 12 illustriert ist, kann, da die erste Bilddaten-Anzeigeeinheit 103 einen Bereich mit einer hohen Priorität hervorhebt, der Manager 300 leicht eine Gefahr erkennen.
  • Die Steueranweisungseinheit 104 erzeugt einen Befehl auf der Grundlage einer Anweisung an das autonom fahrende Fahrzeug 41, der beispielsweise von dem Manager 300 in die Anzeigeoperationsvorrichtung 32 eingegeben wurde. Danach gibt die Steueranweisungseinheit 104 den erzeugten Befehl an die Bewegungssteuereinheit 105 aus.
  • Der von der Steueranweisungseinheit 104 erzeugte Befehl ist irgendeiner von einem Gesamtstoppbefehl zum Anweisen des Anhaltens sämtlicher autonom fahrender Fahrzeuge 41, einem Stoppbefehl zum Anweisen des Anhaltens eines bestimmten autonom fahrenden Fahrzeugs 41 und einem Bewegungsbefehl zum Anweisen einer Bewegung eines bestimmten autonom fahrenden Fahrzeugs 41.
  • Bei dem vorliegenden Ausführungsbeispiel wird beispielsweise die in 13 illustrierte Anzeigeoperationsvorrichtung 32 verwendet. Die Anzeigeoperationsvorrichtung 32 in 13 ist ein Touchpanel mit einer Anzeigevorrichtung.
  • Die von der Vogelperspektivansicht-Erzeugungseinheit 106 erzeugte Vogelperspektivansicht des gesamten Parkplatzes 200 wird auf dem Anzeigebild der Anzeigeoperationsvorrichtung 32 in 13 angezeigt. Eine Gesamtstopptaste, eine Stopptaste und eine Bewegungstaste sind auf der rechten Seite des Anzeigebildes angezeigt. Die Gesamtstopptaste, die Stopptaste und die Bewegungstaste werden durch die erste Bilddaten-Anzeigeeinheit 103 angezeigt.
  • Wenn der Manager 300 die Fahrt aller autonom fahrenden Fahrzeuge 41, die auf dem Parkplatz 200 fahren, anhalten will, berührt der Manager 300 die Gesamtstopptaste auf dem Anzeigebild. Durch die Berührung der Gesamtstopptaste wird der Steueranweisungseinheit 104 eine Anweisung zum Anhalten der Fahrt sämtlicher autonom fahrenden Fahrzeuge 41, die auf dem Parkplatz 200 fahren, mitgeteilt. Als ein Ergebnis kann der Manager 300 die Fahrt sämtlicher autonom fahrenden Fahrzeuge 41 anhalten.
  • Wenn der Manager 300 die Fahrt eines bestimmten autonom fahrenden Fahrzeugs 41 anhalten muss, berührt der Manager 300 zuerst die Stopptaste auf dem Anzeigebild. Als Nächstes berührt der Manager 300 das anzuhaltende autonom fahrende Fahrzeug 41 auf der Vogelperspektivansicht. Mit diesen Betätigungen wird der Steueranweisungseinheit 104 ein Befehl zum Anhalten des bestimmten autonom fahrenden Fahrzeugs 41 mitgeteilt. Als ein Ergebnis kann der Manager die Fahrt des bestimmten autonom fahrenden Fahrzeugs 41 anhalten.
  • Weiterhin berührt, wenn der Manager 300 ein bestimmtes autonom fahrendes Fahrzeug 41 zu einem bestimmten Ort bewegen will, der Manager 300 zuerst die Bewegungstaste auf dem Anzeigebild. Als Nächstes berührt der Manager 300 das zu bewegende autonom fahrende Fahrzeug 41 auf der Vogelperspektivansicht und bewegt das autonom fahrende Fahrzeug 41 an einen beliebigen Bewegungszielort, während er die Berührung auf dem autonom fahrenden Fahrzeug 41 beibehält. Der Fingerbewegungsweg ist die Fahrtroute des autonom fahrenden Fahrzeugs 41. Mit diesen Betätigungen wird der Steueranweisungseinheit 104 eine Anweisung zum Bewegen des bestimmten autonom fahrenden Fahrzeugs 41 zu dem bestimmten Ort mitgeteilt. Als ein Ergebnis kann der Manager 300 das bestimmte autonom fahrende Fahrzeug 41 an den bestimmten Ort bewegen.
  • Da die Anweisungsgenauigkeit der Anweisung einer Fahrtroute unter Verwendung eines Fingers gering ist, korrigiert, wenn der Finger von der Fahrstraßenoberfläche auf dem Parkplatz 200 auf dem Touchpanel abweicht, die Steueranweisungseinheit 104 die Fahrtroute derart, dass die Fahrtroute auf der Fahrstraßenoberfläche bleibt.
  • Weiterhin kann, wie in 14 illustriert ist, eine Gesamtstopptaste 33 mit der Anzeigeoperationsvorrichtung 32 verbunden werden. Wenn der Manager 300 die Gesamtstopptaste 33 drückt, wird der Steueranweisungseinheit 104 eine Anweisung zum Anhalten der Fahrt sämtlicher autonom fahrender Fahrzeuge 41, die auf dem Parkplatz 200 fahren, mitgeteilt. Als ein Ergebnis kann der Manager 300 die Fahrt sämtlicher autonom fahrender Fahrzeuge 41 anhalten.
  • Auch wenn die Gesamtstopptaste 33 mit der Anzeigeoperationsvorrichtung 32 verbunden ist, wie in 14 illustriert ist, werden das Anhalten eines bestimmten autonom fahrenden Fahrzeugs 41 und die Bewegung eines bestimmten autonom fahrenden Fahrzeugs 41 durchgeführt durch Verwendung der Stopptaste und der Bewegungstaste, die in 13 illustriert sind.
  • Wenn die Anweisung von dem Manager 300 eine Stoppanweisung zum Anhalten eines bestimmten autonom fahrenden Fahrzeugs 41 ist, erwirbt die Steueranweisungseinheit 104 geografische Koordinaten der gegenwärtigen Position des autonom fahrenden Fahrzeugs 41 über die Anzeigeoperationsschnittstelle 16 von der Anzeigeoperationsvorrichtung 32. Als Nächstes bestimmt die Steueranweisungseinheit 104 eine Funkkommunikationsvorrichtung 22, die in der Nähe der geografischen Koordinaten der gegenwärtigen Position des autonom fahrenden Fahrzeugs 41, die von der Anzeigeoperationsvorrichtung 32 erworben wurden, angeordnet ist. Danach gibt die Steueranweisungseinheit 104 einen Identifizierer für die bestimmte Funkkommunikationsvorrichtung 22 und einen Stoppbefehl zu der Bewegungssteuereinheit 5 aus. Funkkommunikationsvorrichtungs-Koordinateninformationen, die Identifizierer von jeweiligen Funkkommunikationsvorrichtungen 22 und geografische Koordinaten von Anordnungspositionen der jeweiligen Funkkommunikationsvorrichtungen 22 anzeigen, sind in dem ROM 15 gespeichert. Die Steueranweisungseinheit 104 verwendet die Funkkommunikationsvorrichtungs-Koordinateninformationen, um die Funkkommunikationsvorrichtung 22 zu bestimmen, die in der Nähe der gegenwärtigen Position des autonom fahrenden Fahrzeugs 41 angeordnet ist.
  • Weiterhin erwirbt, wenn die Anweisung von dem Manager 300 eine Anweisung zum Bewegen eines bestimmten autonom fahrenden Fahrzeugs 41 ist, die Steueranweisungseinheit 104 über die Anzeigeoperations-Schnittstelle 16 geografische Koordinaten der gegenwärtigen Position des autonom fahrenden Fahrzeugs 41, geografische Koordinaten des Bewegungszielorts des autonom fahrenden Fahrzeugs 41 und geografische Koordinaten eines oder mehrerer Zwischenpunkte zwischen der gegenwärtigen Position und dem Bewegungszielort des autonom fahrenden Fahrzeugs 41 von der Anzeigeoperationsvorrichtung 32. Als Nächstes bestimmt die Steueranweisungseinheit 104 die Funkkommunkationsvorrichtung 22, die in der Nähe der von der Anzeigeoperationsvorrichtung 32 erworbenen Koordinaten der gegenwärtigen Position des autonom fahrenden Fahrzeugs 41 angeordnet ist. Danach gibt die Steueranweisungseinheit 104 den Identifizierer der bestimmten Funkkommunikationsvorrichtung 22, die geografischen Koordinaten des Bewegungszielorts, die geografischen Koordinaten des Zwischenpunkts und einen Bewegungsbefehl an die Bewegungssteuereinheit 105 aus.
  • Weiterhin zieht, wenn die Anweisung von dem Manager 300 eine Anweisung zum Anhalten aller autonom fahrenden Fahrzeuge 41 ist, die Steueranweisungseinheit 104 Identifizierer aller Funkkommunikationsvorrichtungen 22, die auf dem Parkplatz 200 angeordnet sind, heraus. Die Steueranweisungseinheit 104 gibt dann die Identifizierer aller Funkkommunikationsvorrichtungen 22 und einen Gesamtstoppbefehl an die Bewegungssteuereinheit 105 aus.
  • Die Bewegungssteuereinheit 105 sendet Fahrzeugsteuerinformationen, die einen von der Steueranweisungseinheit 104 ausgegebenen Befehl enthalten, an das autonom fahrende Fahrzeug 41.
  • Genauer gesagt, wenn ein Stoppbefehl und ein Identifizierer der Funkkommunikationsvorrichtung 22 von der Steueranweisungseinheit 104 ausgegeben werden, sendet die Bewegungssteuereinheit 105 Fahrzeugsteuerinformationen, die den Stoppbefehl enthalten, an eine Funkkommunikationsvorrichtung 22, die dem von der Steueranweisungseinheit 104 ausgegebenen Identifizierer entspricht.
  • Weiterhin sendet, wenn ein Bewegungsbefehl, ein Identifizierer der Funkkommunikationsvorrichtung 22, geografische Koordinaten eines Bewegungszielorts und geografische Koordinaten eines Zwischenpunkts von der Steueranweisungseinheit 104 ausgegeben werden, die Bewegungssteuereinheit 105 Fahrzeugsteuerinformationen, die den Bewegungsbefehl, die geografischen Koordinaten des Bewegungszielorts und die geografischen Koordinaten des Zwischenpunkts enthalten, an eine Funkkommunikationsvorrichtung 22, die dem von der Steueranweisungseinheit 104 ausgegebenen Identifizierer entspricht.
  • Weiterhin sendet, wenn ein Gesamtstoppbefehl und Identifizierer aller Funkkommunikationsvorrichtungen 22 ausgegeben werden, die Bewegungssteuereinheit 105 Fahrzeugsteuerinformationen, die den Gesamtstoppbefehl enthalten, an alle Funkkommunikationsvorrichtungen 22.
  • Die Funkkommunikationsvorrichtung 22, die die Fahrzeugsteuerinformationen empfangen hat, verteilt die Fahrzeugsteuerinformationen über den Bereich in der Nähe.
  • Da die Funkkommunikationsvorrichtung 42 des autonom fahrenden Fahrzeugs 41 an dem Sendezielort der Fahrzeugsteuerinformationen in der Nähe der Funkkommunikationsvorrichtung 22, die die Fahrzeuginformationen verteilt, vorhanden ist, kann sie die Fahrzeugsteuerinformationen empfangen.
  • *** Beschreibung der Arbeitsweise ***
  • Als Nächstes werden Operationsbeispiele der Überwachungsvorrichtung 31 nach dem vorliegenden Ausführungsbeispiel beschrieben.
  • 15 ist ein Flussdiagramm, das Arbeitsschritte der Überwachungsvorrichtung 31 von dem Erwerb von Einrichtungssensor-Bilddaten bis zur Anzeige der Einrichtungssensor-Bilddaten illustriert.
  • Im Schritt S11 erwirbt die erste Bilddaten-Erwerbseinheit 101 Einrichtungssensor-Bilddaten, die durch die Einrichtungssensorvorrichtung 21 erhalten wurden.
  • Als Nächstes berechnet im Schritt S12 die Prioritätensetzeinheit 102 die Priorität der im Schritt S11 erworbenen Einrichtungssensor-Bilddaten. Wie vorstehend beschrieben ist, berechnet die Prioritätensetzeinheit 102 einen Gefahrengrad auf der Grundlage der Anhäufung von Fahrzeugen, der Anwesenheit/Abwesenheit von Fußgängern, der Anwesenheit/Abwesenheit von autonom fahrenden Fahrzeugen 41, die ihre Fahrt anhalten, und dergleichen und setzt die Priorität auf der Grundlage des berechneten Gefahrengrads.
  • Als Nächstes bestimmt im Schritt S13 die erste Bilddaten-Anzeigeeinheit 103 einen Anzeigemodus zu der Zeit der Anzeige von Einrichtungssensor-Bilddaten auf der Anzeigeoperationsvorrichtung 32 gemäß der im Schritt S12 gesetzten Priorität und erzeugt ein Anzeigebild in dem bestimmten Anzeigemodus. Die erste Bilddaten-Anzeigeeinheit 103 gibt dann das erzeugte Anzeigebild über die Anzeigeoperationsschnittstelle 16 an die Anzeigeoperationsvorrichtung 32 aus.
  • Das heißt, wenn die Einrichtungssensor-Bilddaten wie in 6 illustriert angezeigt werden, bestimmt die erste Bilddaten-Anzeigeeinheit 103 den Anzeigemodus gemäß der Priorität, wie das Anzeigen von Einrichtungssensor-Bilddaten A mit der höchsten Priorität in dem oberen linken Bereich und das Anzeigen der Einrichtungssensor-Bilddaten B mit der zweithöchsten Priorität in dem oberen rechten Bereich.
  • Weiterhin bestimmt, wenn die Einrichtungssensor-Bilddaten wie in 7 illustriert angezeigt werden, die erste Bilddaten-Anzeigeeinheit 103 den Anzeigemodus gemäß der Priorität, wie das Anzeigen der Bilddaten A mit der höchsten Priorität in der größten Größe und das Anzeigen der Bilddaten B mit der zweithöchsten Priorität in einer Größe, die kleiner als die der Bilddaten A ist, auf der rechten Seite der Bilddaten A.
  • Im Schritt S14 bestimmt die erste Bilddaten-Anzeigeeinheit 103, ob die Anzeige der Einrichtungssensor-Bilddaten fortgesetzt wird. Wenn die Anzeige der Einrichtungssensor-Bilddaten fortgesetzt wird, werden die Prozesse der Schritte S11 bis S13 wiederholt durchgeführt.
  • Mit den oben beschriebenen Prozessen setzt die Überwachungsvorrichtung 31 die Priorität jedes der mehreren Stücke von Einrichtungssensor-Bilddaten, die durch die mehreren in der Parkeinrichtung 20 installierten Einrichtungssensorvorrichtungen 21 erhalten wurden, und zeigt die mehreren Stücke von Einrichtungssensor-Bilddaten gemäß der gesetzten Priorität in einem Anzeigemodus mit besserer Sichtbarkeit für den Manager 300 an.
  • 16 ist ein Flussdiagramm, das Arbeitsschritte der Überwachungsvorrichtung 31 von dem Erwerb einer Anweisung von dem Manager 300 bis zum Senden von Fahrzeugsteuerinformationen illustriert.
  • Im Schritt S21 wartet die Steueranweisungseinheit 104 auf die Eingabe einer Anweisung von dem Manager 300.
  • Wenn eine Anweisung von dem Manager 300 über die Anzeigeoperationsvorrichtung 32 und die Anzeigeoperations-Schnittstelle 16 eingegeben wird (JA im Schritt S22), erzeugt die Steueranweisungseinheit 104 im Schritt S23 einen Befehl.
  • Wie oben beschrieben ist, erzeugt, wenn die Anweisung von dem Manager 300 eine Anweisung zum Anhalten eines bestimmten autonom fahrenden Fahrzeugs 41 ist, die Steueranweisungseinheit 104 einen Stoppbefehl. Wenn die Anweisung von dem Manager 300 eine Anweisung zum Bewegen eines bestimmten autonom fahrenden Fahrzeugs 41 ist, erzeugt die Steueranweisungseinheit 104 einen Bewegungsbefehl. Wenn die Anweisung von dem Manager 300 eine Anweisung zum Anhalten sämtlicher autonom fahrender Fahrzeuge 41 ist, erzeugt die Steueranweisungseinheit 104 einen Gesamtstoppbefehl.
  • Weiterhin erwirbt, wie vorstehend beschrieben ist, wenn die Anweisung von dem Manager 300 eine Anweisung zum Anhalten eines bestimmten autonom fahrenden Fahrzeugs 41 ist, die Steueranweisungseinheit 104 geografische Koordinaten der gegenwärtigen Position des autonom fahrenden Fahrzeugs 41 über die Anzeigeoperations-Schnittstelle 16 von der Anzeigeoperationsvorrichtung 32. Als Nächstes bestimmt die Steueranweisungseinheit 104 eine Funkkommunikationsvorrichtung 22, die in der Nähe der von der Anzeigeoperationsvorrichtung 32 erworbenen geografischen Koordinaten der gegenwärtigen Position des autonom fahrenden Fahrzeugs 41 angeordnet sind. Die Steueranweisungseinheit 104 gibt dann den Identifizierer der bestimmten Funkkommunikationsvorrichtung 22 und einen Stoppbefehl an die Bewegungssteuereinheit 105 aus.
  • Weiterhin erwirbt, wenn die Anweisung von dem Manager 300 eine Anweisung zum Bewegen eines bestimmten autonom fahrenden Fahrzeugs 41 ist, die Steueranweisungseinheit 104 geografische Koordinaten der gegenwärtigen Position des autonom fahrenden Fahrzeugs 41, geografische Koordinaten des Bewegungsbestimmungsorts des autonom fahrenden Fahrzeugs 41 und geografische Koordinaten eines oder mehrerer Zwischenpunkte zwischen der gegenwärtigen Position und dem Bewegungszielort des autonom fahrenden Fahrzeugs 41 über die Anzeigeoperations-Schnittstelle 16 von der Anzeigeoperationsvorrichtung 32. Als Nächstes bestimmt die Steueranweisungseinheit 104 die Funkkommunikationsvorrichtung 22, die in der Nähe der von der Anzeigeoperationsvorrichtung 32 erworbenen geografischen Koordinaten der gegenwärtigen Position des autonom fahrenden Fahrzeugs 41 angeordnet ist. Danach gibt die Steueranweisungseinheit 104 den Identifizierer der bestimmten Funkkommunikationsvorrichtung 22, die geografischen Koordinaten des Bewegungsbestimmungsorts, die geografischen Koordinaten des Zwischenpunktes und einen Bewegungsbefehl an die Bewegungssteuereinheit 105 aus.
  • Weiterhin zieht, wenn die Anweisung von dem Manager 300 eine Anweisung zum Anhalten aller autonom fahrenden Fahrzeuge 41 ist, die Steueranweisungseinheit 104 Identifizierer für alle auf dem Parkplatz 200 angeordneten Funkkommunikationsvorrichtungen 22 heraus. Die Steueranweisungseinheit 104 gibt dann die Identifizierer aller Funkkommunikationsvorrichtungen 22 und einen Gesamtstoppbefehl an die Bewegungssteuereinheit 105 aus.
  • Als Nächstes sendet im Schritt S24 die Bewegungssteuereinheit 105 einen von der Steueranweisungseinheit 104 ausgegebenen Befehl, der Fahrzeugsteuerinformationen enthält, an die Funkkommunikationsvorrichtung 22.
  • Genauer gesagt, wenn ein Stoppbefehl und ein Identifizierer der Funkkommunikationsvorrichtung 22 von der Steueranweisungseinheit 104 ausgegeben werden, sendet die Bewegungssteuereinheit 105 einen Stoppbefehl enthaltende Fahrzeugsteuerinformationen an eine Funkkommunikationsvorrichtung 22, die dem von der Steueranweisungseinheit 104 ausgegebenen Identifizierer entspricht.
  • Weiterhin sendet, wenn ein Bewegungsbefehl, ein Identifizierer der Funkkommunikationsvorrichtung 22, geografische Koordinaten eines Bewegungszielorts und geografische Koordinaten eines Zwischenpunktes von der Steueranweisungseinheit 104 ausgegeben werden, die Bewegungssteuereinheit 105 Fahrzeugsteuerinformationen, die den Bewegungsbefehl, die geografischen Koordinaten des Bewegungszielorts und die geografischen Koordinaten des Zwischenpunktes enthalten, an eine Funkkommunikationsvorrichtung 22, die dem von der Steueranweisungseinheit 104 ausgegebenen Identifzierer entspricht.
  • Weiterhin sendet, wenn ein Gesamtstoppbefehl und Identifizierer aller Funkkommunikationsvorrichtungen 22 ausgegeben werden, die Bewegungssteuereinheit 105 den Gesamtstoppbefehl enthaltende Fahrzeugsteuerinformationen an alle Funkkommunikationsvorrichtungen 22.
  • Im Schritt S25 bestimmt die Steueranweisungseinheit 104, ob die Steuerung des autonom fahrenden Fahrzeugs 41 fortgesetzt wird. Wenn die Steuerung des autonom fahrenden Fahrzeugs 41 fortgesetzt wird, werden die Prozesse in den Schritten S21 bis S24 wiederholt durchgeführt.
  • Wie vorstehend beschrieben ist, führt die Überwachungsvorrichtung 31 eine Fahrsteuerung des autonom fahrenden Fahrzeugs 41 gemäß der Anweisung des Managers 300 aus.
  • *** Beschreibung von Wirkungen des Ausführungsbeispiels ***
  • Bei dem vorliegenden Ausführungsbeispiel setzt die Überwachungsvorrichtung 31 eine Priorität für jedes der mehreren Stücke von Einrichtungssensor-Bilddaten, die von mehreren in der Parkeinrichtung 20 installierten Einrichtungssensorvorrichtungen 21 erhalten wurden, und zeigt die mehreren Stücke von Einrichtungssensor-Bilddaten gemäß der Priorität in einem Anzeigemodus mit besserer Sichtbarkeit für den Manager 300 an. Demgemäß kann bei dem vorliegenden Ausführungsbeispiel der Manager 300 den Fahrzustand des autonom fahrenden Fahrzeugs 41 überwachen, während er Einrichtungssensor-Bilddaten mit einer hohen Priorität beachtet. Daher kann bei dem vorliegenden Ausführungsbeispiel ein Manager 300 eine Fahrunterstützung für mehrere autonom fahrende Fahrzeuge 41 durchführen, und durch autonom fahrende Fahrzeuge in der Parkeinrichtung 20 bewirkte Unfälle können wirksam verhindert werden.
  • Zweites Ausführungsbeispiel
  • Die Überwachungsvorrichtung 31 nach dem zweiten Ausführungsbeispiel verwendet nicht nur die in der Parkeinrichtung 20 installierte Einrichtungssensorvorrichtung 21, sondern auch Bilddaten, die durch eine in dem autonom fahrenden Fahrzeug 41 enthaltene Sensorvorrichtung erhalten werden. Mit dieser Konfiguration kann der Manager 300 eine Fahrunterstützung für das autonom fahrende Fahrzeug 41 wirksamer durchführen.
  • Bei dem vorliegenden Ausführungsbeispiel werden hauptsächlich Unterschiede gegenüber dem ersten Ausführungsbeispiel erläutert.
  • Gegenstände, die in der folgenden Beschreibung nicht erläutert werden, sind identisch mit denjenigen bei dem ersten Ausführungsbeispiel.
  • *** Beschreibung der Arbeitsweise ***
  • Auch bei dem vorliegenden Ausführungsbeispiel ist die Gesamtkonfiguration des Parkplatz-Managementsystems wie in 1 illustriert.
  • 17 illustriert ein Hardware-Konfigurationsbeispiel für ein Parkplatz-Managementsystem nach dem vorliegenden Ausführungsbeispiel.
  • In 17 ist im Vergleich mit der Hardwarekonfiguration in 2 eine Fahrzeugsensorvorrichtung 43 in dem autonom fahrenden Fahrzeug 41 enthalten. Die Fahrzeugsensorvorrichtung 43 ist ein Kamerasensor, ein Infrarotsensor, ein optischer Lasersensor, ein Millimeterwellen-Radarsensor, ein Ultraschallsensor oder dergleichen.
  • Bilddaten (nachfolgend Fahrzeugsensor-Bilddaten), die durch die Fahrzeugsensorvorrichtung 43 erhalten wurden, werden durch die Funkkommunikationsvorrichtung 42 an die Funkkommunikationsvorrichtung 22 gesendet.
  • Die Funkkommunikationsvorrichtung 22 sendet die Fahrzeugsensor-Bilddaten an die Überwachungsvorrichtung 31.
  • In der Überwachungsvorrichtung 31 empfängt die Sensorschnittstelle 12 die Fahrzeugsensor-Bilddaten.
  • In 17 sind Bestandselemente, die andere als die Fahrzeugsensorvorrichtung 43 sind, identisch mit den in 2 illustrierten, und somit wird die Beschreibung hiervon weggelassen.
  • 18 illustriert ein funktionelles Konfigurationsbeispiel für die Überwachungsvorrichtung 31 nach dem vorliegenden Ausführungsbeispiel.
  • In 18 sind im Vergleich mit dem funktionellen Konfigurationsbeispiel in 3 eine zweite Bilddaten-Erwerbseinheit 201 und eine zweite Bilddaten-Anzeigeeinheit 202 hinzugefügt.
  • Ähnlich der ersten Bilddaten-Erwerbseinheit 101, der Prioritätensetzeinheit 102, der ersten Bilddaten-Anzeigeeinheit 103, der Steueranweisungseinheit 104 und der Bewegungssteuereinheit 105 werden die zweite Bilddaten-Erwerbseinheit 201 und die zweite Bilddaten-Anzeigeeinheit 202 durch ein Programm realisiert.
  • Die zweite Bilddaten-Erwerbseinheit 201 erwirbt die mehreren Stücke von Fahrzeugsensor-Bilddaten, die von mehreren Fahrzeugsensorvorrichtungen 43 über die Sensorschnittstelle 12 gesendet wurden.
  • 19 illustriert ein Beispiel für Fahrzeugsensor-Bilddaten, wenn die Fahrzeugsensorvorrichtung 43 ein Kamerasensor ist. Bilddaten P, Bilddaten Q, Bilddaten R und Bilddaten S sind von den Fahrzeugsensorvorrichtungen 43, die in verschiedenen autonom fahrenden Fahrzeugen 41 angeordnet sind, aufgenommene Aufnahmebilder.
  • In den Bilddaten P sind geparkte Fahrzeuge auf der linken und der rechten Seite eines autonom fahrenden Fahrzeugs 41, das eine Fahrzeugsensorvorrichtung 43 enthält, die die Bilddaten P aufgenommen hat. In den Bilddaten Q geht ein Fußgänger vor dem autonom fahrenden Fahrzeug 41, das die Fahrzeugsensorvorrichtung 43 enthält, die die Bilddaten P aufgenommen hat. In den Bilddaten R ist ein anderes Fahrzeug, das vor einem autonom fahrenden Fahrzeug 41 fährt, das eine Fahrzeugsensorvorrichtung 43 enthält, die das Bild R aufgenommen hat. In den Bilddaten S befindet sich kein anderes Fahrzeug oder kein Fußgänger um das autonom fahrende Fahrzeug 41 herum, das eine Fahrzeugsensorvorrichtung 43 enthält, die die Bilddaten S aufgenommen hat.
  • Als die Fahrzeugsensorvorrichtung 43 können ein Infrarotsensor, ein optischer Lasersensor, ein Millimeterwellen-Radarsensor, ein Ultraschallsensor oder dergleichen verwendet werden. Ein Infrarotsensor und ein optischer Lasersensor sind wie bei dem ersten Ausführungsbeispiel beschrieben, und diese Sensoren können die Anwesenheit/Abwesenheit von Fußgängern und eine dreidimensionale Form der Parkeinrichtung 20 messen. Ein Millimeterwellen-Radarsensor kann durch Verwendung von Radiowellen in einem Millimeterwellenband Hindernisse, wie Fahrzeug und Fußgänger, selbst bei Nebel, bei Regen oder bei Schnee erfassen. Ein Ultraschallsensor ist kostengünstiger im Vergleich mit anderen Sensoren und kann Hindernisse in einem nahen Bereich erfassen. Auf diese Weise kann die zweite Bilddaten-Erwerbseinheit 201 Hindernisse (Fußgänger oder andere Fahrzeuge) um das autonom fahrende Fahrzeug 41 herum, den Zustand auf dem Parkplatz 200 um das autonom fahrende Fahrzeug 41 herum, eine dreidimensionale Form um das autonom fahrende Fahrzeug 41 herum und dergleichen erwerben.
  • Bei dem vorliegenden Ausführungsbeispiel entsprechen die erste Bilddaten-Erwerbseinheit 101 und die zweite Bilddaten-Erwerbseinheit 201 einer Bilddaten-Erwerbseinheit. Weiterhin entsprechen die von der ersten Bilddaten-Erwerbseinheit 101 und der zweiten Bilddaten-Erwerbseinheit 201 durchgeführten Prozesse einem Bilddaten-Erwerbsprozess.
  • Die Prioritätensetzeinheit 102 nach dem vorliegenden Ausführungsbeispiel setzt eine Priorität für jedes von mehreren Stücken von durch die zweite Bilddaten-Erwerbseinheit 201 erworbenen Fahrzeugsensor-Bilddaten. Die Priorität ist eine Priorität, mit der die Fahrzeugsensor-Bilddaten dem Manager 300 anzuzeigen sind. Die Fahrzeugsensor-Bilddaten werden in einem Anzeigemodus mit höherer Sichtbarkeit, wenn die Priorität höher ist, angezeigt. Ähnlich wie bei dem ersten Ausführungsbeispiel berechnet die Prioritätensetzeinheit 102 die Priorität auf der Grundlage des Gefahrengrads.
  • In dem Beispiel der Bilddaten P, der Bilddaten Q, der Bilddaten R und der Bilddaten S in 19 setzt die Prioritätensetzeinheit 102 den Gefahrengrad der Bilddaten Q, in denen sich ein Fußgänger vor dem autonom fahrenden Fahrzeug 41 befindet, als den höchsten Punkt. Die Prioritätensetzeinheit 102 setzt dann den Gefahrengrad der Bilddaten R, in denen ein anderes Fahrzeug vor dem autonom fahrenden Fahrzeug 41 fährt, als den zweithöchsten. Die Prioritätensetzeinheit 102 setzt den Gefahrengrad der Bilddaten P, in denen geparkte Fahrzeuge auf der linken und der rechten Seite des autonom fahrenden Fahrzeugs 41 angeordnet sind, als den dritthöchsten. Danach setzt die Prioritätensetzeinheit 102 den Gefahrengrad der Bilddaten S, in denen sich kein Fußgänger oder kein anderes Fahrzeug um das autonom fahrende Fahrzeug 41 herum befindet, als den niedrigsten.
  • Als ein Ergebnis nimmt die Priorität der Bilddaten in 19 in der Reihenfolge Bilddaten Q → Bilddaten R → Bilddaten P → Bilddaten S ab.
  • Weiterhin kann ähnlich wie bei dem ersten Ausführungsbeispiel die Prioritätensetzeinheit 102 den Gefahrengrad von Fahrzeugsensor-Bilddaten von autonom fahrenden Fahrzeugen, die auf einer Straße anhalten, als hoch setzen.
  • Weiterhin ist es möglich, dass die Prioritätensetzeinheit 102 mehrere Stücke von Einrichtungssensor-Bilddaten und mehrere Stücke von Fahrzeugsensor-Bilddaten analysiert, den Gefahrengrad des Bereichs, der in den jeweiligen Fahrzeugsensor-Bilddaten gezeigt ist, schätzt und eine Priorität für jedes Stück von Fahrzeugsensor-Bilddaten auf der Grundlage des geschätzten Gefahrengrads setzt.
  • Weiterhin ist es möglich, dass die Prioritätensetzeinheit 102 die mehreren Stücke von Einrichtungssensor-Bilddaten und mehrere Stücke von Fahrzeugsensor-Bilddaten analysiert, den Gefahrengrad eines Bereichs, der in den jeweiligen Einrichtungssensor-Bilddaten gezeigt ist, schätzt und eine Priorität für jedes Stück von Einrichtungssensor-Bilddaten auf der Grundlage des geschätzten Gefahrengrads setzt.
  • Die Prioritätensetzeinheit 102 kann die Anwesenheit/Abwesenheit von Hindernissen (andere Fahrzeuge und Fußgänger) um das autonom fahrende Fahrzeug 41 und die Positionen der Hindernisse durch Verwendung entweder von Fahrzeugsensor-Bilddaten oder von Einrichtungssensor-Bilddaten erfassen. Daher ist es möglich, dass die Prioritätensetzeinheit 102 durch Bezugnahme auf sowohl Fahrzeugsensor-Bilddaten als auch Einrichtungssensor-Bilddaten einen Gefahrengrad schätzt und eine Priorität setzt.
  • Selbst wenn dasselbe Hindernis in Fahrzeugsensor-Bilddaten und in Einrichtungssensor-Bilddaten gezeigt ist, gibt es einen Fall, in welchem ein Erkennungsergebnis für das Hindernis unter Verwendung der Einrichtungssensor-Bilddaten unterschiedlich ist. Der Unterschied zwischen diesen Erkennungsergebnissen wird unter Verwendung einer Vogelperspektivansicht des in 20 illustrierten Parkplatzes 200 beschrieben.
  • Die in einem Fahrzeug B in 20 enthaltene Fahrzeugsensorvorrichtung 43 und die in der Parkeinrichtung 20 installierte Einrichtungssensorvorrichtung 21 erfassen einen Fußgänger A als dasselbe Hindernis.
  • Da jedoch die Erfassungsrichtung der Fahrzeugsensorvorrichtung 43 und die der Einrichtungssensorvorrichtung 21 unterschiedlich sind, sind die erfassten Bilder auch unterschiedlich, wie in 21 illustriert ist. Daher besteht die Möglichkeit, dass eine fehlerhafte Erkennung sowohl bei der Analyse der Bilddaten P als auch bei der Analyse der Bilddaten A auftritt. Der Bildbereich des Fußgängers in den Bilddaten P in 21 ist kleiner als der Bildbereich des Fußgängers in dem Bild A. Die Durchführung einer Bilderkennung eines Objekts in einem kleinen Bildbereich ist im Allgemeinen schwierig. Daher besteht, obgleich die Einrichtungssensorvorrichtung 21 einen Fußgänger korrekt erfassen kann, die Möglichkeit, dass die Fahrzeugsensorvorrichtung 43 des Fahrzeugs B den Fußgänger nicht erfassen kann. In diesem Fall kann die Prioritätensetzeinheit 102 durch Analysieren sowohl der Bilddaten P als auch der Bilddaten A korrekt den Umstand erkennen, dass ein Fußgänger geht, und kann den Gefahrengrad korrekt schätzen. Wenn Hindernisse auf der Fahrtroute durch das autonom fahrende Fahrzeug 41 nicht erfasst werden, ist der Gefahrengrad sehr hoch. Wenn daher das Analyseergebnis hinsichtlich der Fahrzeugsensor-Bilddaten und das Analyseergebnis hinsichtlich der Einrichtungssensor-Bilddaten unterschiedlich sind, kann die Prioritätensetzeinheit 102 die Priorität der Fahrzeugsensor-Bilddaten höher setzen.
  • Wie vorstehend beschrieben ist, kann die Prioritätensetzeinheit 102 die Priorität von Bilddaten durch Bezugnahme auf Fahrzeugsensor-Bilddaten, die durch Fahrzeugsensorvorrichtungen 43, die in mehreren autonom fahrenden Fahrzeugen 41 enthalten sind, erhalten wurden, und Einrichtungssensor-Bilddaten, die durch mehrere in der Parkeinrichtung 20 installierte Einrichtungssensorvorrichtungen 21 erhalten wurden, berechnen.
  • Die zweite Bilddaten-Anzeigeeinheit 202 bestimmt einen Anzeigemodus zu der Zeit der Anzeige mehrerer Stücke von Fahrzeugsensor-Bilddaten gemäß der durch die Prioritätensetzeinheit 102 gesetzten Priorität. Die zweite Bilddaten-Anzeigeeinheit 202 zeigt dann über die Anzeigeoperations-Schnittstelle 16 mehrere Stücke von Fahrzeugsensor-Bilddaten in dem bestimmten Anzeigemodus auf der Anzeigeoperationsvorrichtung 32 an.
  • Bei dem vorliegenden Ausführungsbeispiel entsprechen die erste Bilddaten-Anzeigeeinheit 103 und die zweite Bilddaten-Anzeigeeinheit 202 einer Anzeigesteuereinheit. Weiterhin entsprechen die von der ersten Bilddaten-Anzeigeeinheit 103 und der zweiten Bilddaten-Anzeigeeinheit 202 durchgeführten Prozesse einem Anzeigesteuerprozess.
  • 22 illustriert ein Anzeigebeispiel für Fahrzeugsensor-Bilddaten.
  • Ein Beispiel für die Anzeige von Stücken von Fahrzeugsensor-Bilddaten in der Reihenfolge der Priorität auf der Anzeigeoperationsvorrichtung 32 ist in 22 illustriert. In dem Beispiel von 22 sind Fahrzeugsensor-Bilddaten mit der höchsten Priorität in dem oberen linken Bereich des Schirms angezeigt. Fahrzeugsensor-Bilddaten mit der zweithöchsten Priorität sind in dem oberen rechten Bereich angezeigt. Fahrzeugsensor-Bilddaten mit der dritthöchsten Priorität sind in dem unteren linken Bereich angezeigt. Fahrzeugsensor-Bilddaten mit der niedrigsten Priorität sind in dem unteren rechten Bereich angezeigt.
  • Weiterhin ist es, wenn die Überwachungsvorrichtung 31 klein n Stücke von Fahrzeugsensor-Bilddaten empfangen hat, die durch n (n ≥ 3) Fahrzeugsensorvorrichtungen 43 erhalten wurden, möglich, dass die zweite Bilddaten-Anzeigeeinheit 202 m (2 ≤m < n) Stücke von Fahrzeugsensor-Bilddaten auf der Grundlage der Priorität auswählt, um nur m Stücke von Fahrzeugsensor-Bilddaten auf der Anzeigeoperationsvorrichtung 32 anzuzeigen.
  • In 22 können, während vier Stücke von Fahrzeugsensor-Bilddaten in derselben Größe angezeigt sind, die Anzeigegrößen der Stücke von Fahrzeugsensor-Bilddaten gemäß der Priorität geändert werden.
  • 23 illustriert ein Beispiel, bei dem die Anzeigegrößen von Stücken von Fahrzeugsensor-Bilddaten gemäß der Priorität geändert sind.
  • In dem Beispiel von 23 haben Fahrzeugsensor-Bilddaten mit einer höheren Priorität eine größere Anzeigegröße.
  • Weiterhin kann die zweite Bilddaten-Anzeigeeinheit 202 ein Anzeigebild erzeugen, der mit dem von der ersten Bilddaten-Anzeigeeinheit 103 oder der in 8 illustrierten Vogelperspektivansicht-Erzeugungseinheit 106 erzeugten Anzeigebild kooperiert.
  • 24 illustriert ein Beispiel, bei dem die zweite Bilddaten-Anzeigeeinheit 202 Fahrzeugsensor-Bilddaten anzeigt, während sie mit einer von der Vogelperspektivansicht-Erzeugungseinheit 106 erzeugten Vogelperpektivansicht kooperiert.
  • In 24 wird eine Vogelperspektivansicht des Parkplatzes 200 auf einer tischartigen Anzeigeoperationsvorrichtung 321 angezeigt, und mehrere Stücke von Fahrzeugsensor-Bilddaten werden auf mehreren Anzeigeoperationsvorrichtungen 322 angezeigt.
  • Die erste Bilddaten-Anzeigeeinheit 103 kann Fahrzeugsensor-Bilddaten in die Vogelperspektivansicht einfügen.
  • In der Vogelperspektivansicht ist ähnlich wie bei dem ersten Ausführungsbeispiel ein Bereich mit hoher Priorität hervorgehoben. Weiterhin kann die zweite Bilddaten-Anzeigeeinheit 202 Fahrzeugsensor-Bilddaten entsprechend dem in der Vogelperspektivansicht hervorgehobenen Bereich auf den Anzeigeoperationsvorrichtungen 322 anzeigen.
  • Wie oben beschrieben ist, zeigt die Überwachungsvorrichtung 31 bevorzugt Fahrzeugsensor-Bilddaten eines autonom fahrenden Fahrzeugs 41 mit einem hohen Gefahrengrad auf der Anzeigeoperationsvorrichtung 32 an. Demgemäß kann der Manager 300 den Fahrzustand des autonom fahrenden Fahrzeugs 41 überwachen, während auf Fahrzeugsensor-Bilddaten mit einer hohen Priorität geachtet wird.
  • *** Beschreibung der Arbeitsweise ***
  • Als Nächstes werden Beispiele für die Arbeitsweise der Überwachungsvorrichtung 31 nach dem vorliegenden Ausführungsbeispiel beschrieben.
  • 25 ist ein Flussdiagramm, das Prozessschritte der Überwachungsvorrichtung 31 von dem Erwerb von Einrichtungssensor-Bilddaten bis zum Anzeigen der Einrichtungssensor-Bilddaten illustriert.
  • Im Schritt S31 erwirbt die zweite Bilddaten-Erwerbseinheit 201 durch die Fahrzeug-Sensorvorrichtung 43 erhaltene Fahrzeugsensor-Bilddaten.
  • Als Nächstes berechnet im Schritt S32 die Prioritätensetzeinheit 102 die Priorität der im Schritt S31 erworbenen Fahrzeugsensor-Bilddaten. Wie vorstehend beschrieben ist, berechnet die Prioritätensetzeinheit 102 den Gefahrengrad auf der Grundlage der Anhäufung von Fahrzeugen, der Anwesenheit/Abwesenheit von Fußgängern, der Anwesenheit/Abwesenheit von autonom fahrenden Fahrzeugen, die ihre Fahrt angehalten haben, und dergleichen, und setzt die Priorität auf der Grundlage des berechneten Gefahrengrads.
  • Als Nächstes bestimmt die zweite Bilddaten-Anzeigeeinheit 202 im Schritt S33 einen Anzeigemodus, in welchem Fahrzeugsensor-Bilddaten auf der Anzeigeoperationsvorrichtung 32 gemäß der im Schritt S32 gesetzten Priorität angezeigt werden, und erzeugt ein Anzeigebild in dem bestimmten Anzeigemodus. Die zweite Bilddaten-Anzeigeeinheit 202 gibt dann das erzeugte Anzeigebild über die Anzeigeoperations-Schnittstelle 16 an die Anzeigeoperationsvorrichtung aus.
  • Das heißt, wenn die Fahrzeugsensor-Bilddaten wie in 22 illustriert angezeigt werden, bestimmt die zweite Bilddaten-Anzeigeeinheit 202 den Anzeigemodus gemäß der Priorität, wie die Anzeige von Bilddaten Q mit der höchsten Priorität in dem oberen linken Bereich und die Anzeige von Bilddaten R mit der zweithöchsten Priorität in dem oberen rechten Bereich.
  • Weiterhin bestimmt, wenn die Fahrzeugsensor-Bilddaten wie in 23 illustriert angezeigt werden, die zweite Bilddaten-Anzeigeeinheit 202 den Anzeigemodus gemäß der Priorität, wie die Anzeige der Bilddaten Q mit der höchsten Priorität mit der größten Größe und die Anzeige der Bilddaten R mit der zweithöchsten Priorität in einer Größe, die kleiner als die der Bilddaten Q ist, auf der rechten Seite der Bilddaten R.
  • Im Schritt S34 bestimmt die zweite Bilddaten-Anzeigeeinheit 202, ob die Anzeige der Fahrzeugsensor-Bilddaten fortgesetzt wird. Wenn die Anzeige der Fahrzeugsensor-Bilddaten fortgesetzt wird, werden die Prozesse in den Schritten S31 bis S33 wiederholt durchgeführt.
  • Wie vorstehend beschrieben ist, setzt die Überwachungsvorrichtung 31 die Priorität von jedem von mehreren Stücken von Fahrzeugsensor-Bilddaten, die durch mehrere in mehreren autonom fahrenden Fahrzeugen 41 enthaltene Fahrzeugsensorvorrichtungen 43 erhalten wurden, und zeigt die mehreren Stücke von Fahrzeugsensor-Bilddaten gemäß der gesetzten Priorität in einem Anzeigemodus mit besserer Sichtbarkeit für den Manager 300 an.
  • *** Beschreibung von Wirkungen des Ausführungsbeispiels ***
  • Gemäß dem vorliegenden Ausführungsbeispiel kann der Manager 300 den Fahrzustand des autonom fahrenden Fahrzeugs 41 überwachen, während Fahrzeugsensor-Bilddaten mit hoher Priorität beachtet werden. Daher kann bei dem vorliegenden Ausführungsbeispiel ein Manager 300 eine Fahrunterstützung für mehrere autonom fahrende Fahrzeuge 41 vornehmen, und durch autonom fahrende Fahrzeuge in der Parkeinrichtung 20 bewirkte Unfälle können wirksam verhindert werden.
  • Während vorstehend Ausführungsbeispiele der vorliegenden Erfindung beschrieben wurden, können zwei dieser Ausführungsbeispiele durch Kombinieren dieser miteinander ausgeführt werden.
  • Alternativ kann eines dieser Ausführungsbeispiele teilweise ausgeführt werden.
  • Alternativ können zwei dieser Ausführungsbeispiele durch teilweises Kombinieren von diesen miteinander ausgeführt werden.
  • Die vorliegende Erfindung ist nicht auf diese Ausführungsbeispiele beschränkt und kann in verschiedener Weise wie erforderlich modifiziert werden.
  • Während vorstehend die Steuerung von autonom fahrenden Fahrzeugen in der Parkeinrichtung 20 beschrieben wurde, kann die Überwachungsvorrichtung 31 nach dem vorliegenden Ausführungsbeispiel auf die Steuerung von autonom fahrenden Fahrzeugen in Einrichtungen wie einem Lagerhaus, einer Fabrik oder dergleichen angewendet werden.
  • *** Beschreibung von Hardwarekonfigurationen ***
  • Schließlich wird eine ergänzende Beschreibung einer Hardwarekonfiguration der Überwachungsvorrichtung 31 gegeben.
  • Der Prozessor 13 ist eine IC (Integrated Circuit, integrierte Schaltung), die die Verarbeitung durchführt.
  • Der Prozessor 13 ist eine CPU (Central Processing Unit, zentrale Verarbeitungseinheit), ein DSP (Digital Signal Processor, digitaler Signalprozessor) oder dergleichen.
  • Ein OS (Operating System, Betriebssystem) ist auch in dem ROM 15 gespeichert.
  • Zumindest ein Teil des OS wird in den RAM 14 geladen und von dem Prozessor 13 gelesen. Der Prozessor 13 führt zumindest einen Teil des OS aus.
  • Der Prozessor 13 führt Programme aus, die die Funktionen der ersten Bilddaten-Erwerbseinheit 101, der Prioritätensetzeinheit 102, der ersten Bilddaten-Anzeigeeinheit 103, der Steueranweisungseinheit 104, der Bewegungssteuereinheit 105, der Vogelperspektivansicht-Erzeugungseinheit 106, der zweiten Bilddaten-Erwerbseinheit 201 und der zweiten Bilddaten-Anzeigeeinheit 202 realisieren, während er zumindest einen Teil des OS ausführt.
  • Mit der Ausführung des OS durch den Prozessor 13 werden eine Prozessverwaltung, eine Speicherverwaltung, eine Dateiverwaltung, eine Kommunikationssteuerung und dergleichen durchgeführt.
  • Weiterhin kann die Überwachungsvorrichtung 31 mehrere Prozessoren enthalten, die den Prozessor 13 ersetzen. Diese Prozessoren teilen sich die Ausführung der Programme, die die Funktionen der ersten Bilddaten-Erwerbseinheit 101, der Prioritätensetzeinheit 102, der ersten Bilddaten-Anzeigeeinheit 103, der Steueranweisungseinheit 104, der Bewegungssteuereinheit 105, der Vogelperspektivansicht-Erzeugungseinheit 106, der zweiten Bilddaten-Erwerbseinheit 201 und der zweiten Bilddaten-Anzeigeeinheit 202 realisieren. Jeder der Prozessoren ist eine IC, die die Verarbeitung ähnlich der des Prozessors 13 durchführt.
  • Weiterhin wird zumindest irgendeines von Stücken von Informationen, Daten, Signalwerten und variablen Werten, die Ergebnisse der Verarbeitung durch die erste Bilddaten-Erwerbseinheit 101, die Prioritätensetzeinheit 102, die erste Bilddaten-Anzeigeeinheit 103, die Steueranweisungseinheit 104, die Bewegungssteuereinheit 105, die Vogelperspektivansicht-Erzeugungseinheit 106, die zweite Bilddaten-Erwerbseinheit 201 und die zweite Bilddaten-Anzeigeeinheit 202 anzeigen, zumindest in irgendeinem von dem RAM 14 und einem Register und einem Cachespeicher in dem Prozessor 13 gespeichert.
  • Weiterhin können die Programme, die die Funktionen der ersten Bilddaten-Erwerbseinheit 101, der Prioritätensetzeinheit 102, der ersten Bilddaten-Anzeigeeinheit 103, der Steueranweisungseinheit 104, der Bewegungssteuereinheit 105, der Vogelperspektivansicht-Erzeugungseinheit 106, der zweiten Bilddaten-Erwerbseinheit 201 und der zweiten Bilddaten-Anzeigeeinheit 202 realisieren, in einem tragbaren Speichermedium, wie einer magnetischen Disk, einer flexiblen Disk, einer optischen Disk, einer Compact Disc, einer Blu-ray-Disk (Blu-ray ist eine registrierte Marke) und einer DVD gespeichert werden.
  • Der Bestandteil „-einheit“ der ersten Bilddaten-Erwerbseinheit 101, der Prioritätensetzeinheit 102, der ersten Bilddaten-Anzeigeeinheit 103, der Steueranweisungseinheit 104, der Bewegungssteuereinheit 105, der Vogelperspektivansicht-Erzeugungseinheit 106, der zweiten Bilddaten-Erwerbseinheit 201 und der zweiten Bilddaten-Anzeigeeinheit 202 kann durch „Schaltung“, „Schritt“, „Prozedur“ oder „Prozess“ ersetzt werden.
  • Die Überwachungsvorrichtung 31 kann durch eine elektronische Schaltung, wie eine logische IC (Integrated Circuit, integrierte Schaltung), ein GA (Gate-Array), eine ASIC (Application Specific Integrated Circuit, anwendungsspezifische integrierte Schaltung) und ein FPGA implementiert werden.
  • In diesem Fall wird jede von der ersten Bilddaten-Erwerbseinheit 101, der Prioritätensetzeinheit 102, der ersten Bilddaten-Anzeigeeinheit 103, der Steueranweisungseinheit 104, der Bewegungssteuereinheit 105, der Vogelperspektivansicht-Erzeugungseinheit 106, der zweiten Bilddaten-Erwerbseinheit 201 und der zweiten Bilddaten-Anzeigeeinheit 202 als ein Teil einer elektronischen Schaltung implementiert.
  • Der Prozessor und die elektronische Schaltung, die oben beschrieben wurden, werden auch kollektiv als eine Verarbeitungsschaltung bezeichnet.
  • Bezugszeichenliste
  • 12:
    Sensorschnittstelle
    13:
    Prozessor
    14:
    RAM
    15:
    ROM
    16:
    Anzeigeoperations-Schnittstelle
    17:
    Funkkommunikations-Schnittstelle
    20:
    Parkeinrichtung
    21:
    Einrichtungssensorvorrichtung
    22:
    Funkkommunikationsvorrichtung
    30:
    Parkplatz-Verwaltungsraum
    31:
    Überwachungsvorrichtung
    32:
    Anzeigeoperationsvorrichtung
    33:
    Gesamtstopptaste
    40:
    Eintrittsposition
    41:
    autonom fahrendes Fahrzeug
    42:
    Funkkommunikationsvorrichtung
    43:
    Fahrzeugsensorvorrichtung
    101:
    erste Bilddaten-Erwerbseinheit
    102:
    Prioritätensetzeinheit
    103:
    erste Bilddaten-Anzeigeeinheit
    104:
    Steueranweisungseinheit
    105:
    Bewegungssteuereinheit
    106:
    Vogelperspektivansicht-Erzeugungseinheit
    200:
    Parkplatz
    201:
    zweite Bilddaten-Erwerbseinheit
    202:
    zweite Bilddaten-Anzeigeeinheit
    300:
    Manager
    400:
    Fahrer
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2012126193 A [0009]
    • JP 2016099953 A [0009]

Claims (13)

  1. Informationsverarbeitungsvorrichtung, welche aufweist: eine Bilddaten-Erwerbseinheit zum Erwerben mehrerer Stücke von Bilddaten, in denen verschiedene Bereiche in einer Einrichtung, in der ein autonom fahrendes Fahrzeug eine autonome Fahrt durchführt, gezeigt sind; eine Prioritätensetzeinheit zum Analysieren eines in jedem der mehreren Stücke von Bilddaten gezeigten Zustands und zum Setzen einer Priorität für jedes Stück von Bilddaten; und eine Anzeigesteuereinheit zum Bestimmen eines Anzeigemodus zu einer Zeit des Anzeigens der mehreren Stücke von Bilddaten gemäß der durch die Prioritätensetzeinheit gesetzten Priorität.
  2. Informationsverarbeitungsvorrichtung nach Anspruch 1, bei der die Prioritätensetzeinheit einen in jedem Bilddatenstück gezeigten Zustand analysiert, einen Gefahrengrad in einem Bereich, der in jedem Bilddatenstück gezeigt ist, schätzt und eine Priorität für jedes Bilddatenstück auf der Grundlage eines geschätzten Gefahrengrads setzt.
  3. Informationsverarbeitungsvorrichtung nach Anspruch 2, bei der die Bilddaten-Erwerbseinheit mehrere Stücke von Bilddaten erwirbt, in denen verschiedene Bereiche in einer Einrichtung, in der ein oder mehrere autonom fahrende Fahrzeuge ein autonomes Fahren durchführen und ein oder mehrere gehende Fußgänger gezeigt sind, und die Prioritätensetzeinheit einen Zustand eines autonom fahrenden Fahrzeugs und einen Zustand eines Fußgängers als einen Zustand, der in jedem Bilddatenstück gezeigt ist, analysiert und einen Gefahrengrad in einem Bereich, der in jedem Bilddatenstück gezeigt ist, schätzt.
  4. Informationsverarbeitungsvorrichtung nach Anspruch 1, bei der eine Bilddaten-Erwerbseinheit mehrere Stücke von Bilddaten, die durch mehrere in der Einrichtung installierte Sensorvorrichtungen erzeugt wurden, erwirbt und die Anzeigesteuereinheit die mehreren Stücke von Bilddaten kombiniert, um eine Vogelperspektivansicht zu erzeugen, und die erzeugte Vogelperspektivansicht anzeigt.
  5. Informationsverarbeitungsvorrichtung nach Anspruch 4, bei der die Anzeigesteuereinheit einen Bereich der Vogelperspektivansicht hervorhebt, in welchem Bilddaten, in denen eine durch die Prioritätensetzeinheit gesetzte Priorität einer vorbestimmten Bedingung entspricht, widergespiegelt werden.
  6. Informationsverarbeitungsvorrichtung nach Anspruch 1, bei der die Bilddaten-Erwerbseinheit mehrere Stücke von Bilddaten erwirbt, die durch mehrere Sensorvorrichtungen erzeugt wurden, die in mehreren autonom fahrenden Fahrzeugen, die in der Einrichtung vorhanden sind, installiert sind.
  7. Informationsverarbeitungsvorrichtung nach Anspruch 1, bei der die Bilddaten-Erwerbseinheit mehrere Stücke von Einrichtungssensor-Bilddaten erwirbt, die mehrere Stücke von Bilddaten sind, die durch mehrere Sensorvorrichtungen erzeugt wurden, die in der Einrichtung installiert sind, und mehrere Stücke von Fahrzeugsensor-Bilddaten erwirbt, die mehrere Stücke von Bilddaten sind, die durch mehrere Sensorvorrichtungen erzeugt wurden, die in mehreren autonom fahrenden Fahrzeugen, die in der Einrichtung vorhanden sind, installiert sind, die Prioritätensetzeinheit die mehreren Stücke von Einrichtungssensor-Bilddaten und die mehreren Stücke von Fahrzeugsensor-Bilddaten analysiert, einen Gefahrengrad in einem Bereich, der in jedem Einrichtungssensor-Bilddatenstück gezeigt ist, schätzt und eine Priorität für jedes Einrichtungssensor-Bilddatenstück auf der Grundlage des geschätzten Gefahrengrads setzt und die Anzeigesteuereinheit einen Anzeigemodus zu einer Zeit des Anzeigens der mehreren Stücke von Einrichtungssensor-Bilddaten gemäß der durch die Prioritätensetzeinheit gesetzten Priorität bestimmt.
  8. Informationsverarbeitungsvorrichtung nach Anspruch 1, bei der die Bilddaten-Erwerbseinheit mehrere Stücke von Einrichtungssensor-Bilddaten erwirbt, die mehrere Stücke von Bilddaten sind, die durch mehrere in der Einrichtung installierte Sensorvorrichtungen erzeugt wurden, und mehrere Stücke von Fahrzeugsensor-Bilddaten erwirbt, die mehrere Stücke von Bilddaten sind, die durch mehrere in mehreren autonom fahrenden Fahrzeugen, die in der Einrichtung vorhanden sind, installierte Sensorvorrichtungen erzeugt wurden, die Prioritätensetzeinheit die mehreren Stücke von Einrichtungssensor-Bilddaten und die mehreren Stücke von Fahrzeugsensor-Bilddaten analysiert, einen Gefahrengrad in einem Bereich, der in jedem Fahrzeugsensor-Bilddatenstück gezeigt ist, schätzt und eine Priorität für jedes Fahrzeugsensor-Bilddatenstück auf der Grundlage des geschätzten Gefahrengrads setzt und die Anzeigesteuereinheit einen Anzeigemodus zu einer Zeit des Anzeigens der mehreren Stücke von Fahrzeugsensor-Bilddaten gemäß der durch die Prioritätensetzeinheit gesetzten Priorität bestimmt.
  9. Informationsverarbeitungsvorrichtung nach Anspruch 1, weiterhin aufweisend eine Steueranweisungseinheit zum Anweisen des Anhaltens der Fahrt des autonom fahrenden Fahrzeugs.
  10. Informationsverarbeitungsvorrichtung nach Anspruch 1, weiterhin aufweisend eine Steueranweisungseinheit zum Bezeichnen einer Fahrtroute und zum Anweisen des Fahrens des autonom fahrenden Fahrzeugs entlang der Fahrtroute.
  11. Informationsverarbeitungsvorrichtung nach Anspruch 1, weiterhin aufweisend eine Steueranweisungseinheit zum Anweisen, wenn mehrere autonom fahrende Fahrzeuge in der Einrichtung vorhanden sind, des Anhaltens des Fahrens der mehreren autonom fahrenden Fahrzeuge.
  12. Informationsverarbeitungsverfahren, welches aufweist: Erwerben, durch einen Computer, mehrerer Stücke von Bilddaten, in denen verschiedene Bereiche in einer Einrichtung, in der ein autonom fahrendes Fahrzeug autonomes Fahren durchführt, gezeigt sind; Analysieren, durch den Computer, eines in jedem der mehreren Stücke von Bilddaten gezeigten Zustands und Setzen einer Priorität für jedes Bilddatenstück; und Bestimmen, durch den Computer, eines Anzeigemodus zu einer Zeit des Anzeigens der mehreren Stücke von Bilddaten gemäß der gesetzten Priorität.
  13. Informationsverarbeitungsprogramm, das bewirkt, dass ein Computer ausführt: eine Bilddaten-Erwerbsprozess des Erwerbens mehrerer Stücke von Bilddaten, in denen verschiedene Bereiche in einer Einrichtung, in der ein autonom fahrendes Fahrzeug autonomes Fahren durchführt, gezeigt sind; einen Prioritätensetzprozess des Analysierens eines in jedem der mehreren Stücke von Bilddaten gezeigten Zustands und des Setzens einer Priorität für jedes Bilddatenstück; und einen Anzeigesteuerprozess des Bestimmens eines Anzeigemodus zu einer Zeit des Anzeigens der mehreren Stücke von Bilddaten gemäß der durch den Prioritätenprozess gesetzten Priorität.
DE112017007050.3T 2017-03-15 2017-03-15 Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Informationsverarbeitungsprogramm Expired - Fee Related DE112017007050B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/010502 WO2018167891A1 (ja) 2017-03-15 2017-03-15 情報処理装置、情報処理方法及び情報処理プログラム

Publications (2)

Publication Number Publication Date
DE112017007050T5 true DE112017007050T5 (de) 2019-10-24
DE112017007050B4 DE112017007050B4 (de) 2020-12-31

Family

ID=60265754

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017007050.3T Expired - Fee Related DE112017007050B4 (de) 2017-03-15 2017-03-15 Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Informationsverarbeitungsprogramm

Country Status (5)

Country Link
US (1) US11366477B2 (de)
JP (1) JP6227211B1 (de)
CN (1) CN110419211B (de)
DE (1) DE112017007050B4 (de)
WO (1) WO2018167891A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11119200B2 (en) * 2017-06-01 2021-09-14 Mitsubishi Electric Corporation Object detection apparatus, object detection method, and computer readable medium
EP4088980A1 (de) * 2021-05-11 2022-11-16 Toyota Jidosha Kabushiki Kaisha Fahrzeugverwaltungssystem und fahrzeugverwaltungsverfahren

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6943777B2 (ja) * 2018-01-22 2021-10-06 トヨタホーム株式会社 監視システム
JP6989429B2 (ja) * 2018-03-28 2022-01-05 株式会社東芝 隊列走行運用システムおよび隊列走行運用方法
JP7249879B2 (ja) * 2018-10-05 2023-03-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、及び、情報処理システム
CN111038521A (zh) * 2018-10-11 2020-04-21 顾泽苍 一种自动驾驶“意识决定”模型的构成方法
KR102651410B1 (ko) * 2018-12-28 2024-03-28 현대자동차주식회사 자율 발렛 주차를 지원하는 시스템 및 방법, 그리고 이를 위한 인프라 및 차량
JP7447820B2 (ja) * 2019-02-13 2024-03-12 ソニーグループ株式会社 移動体、通信方法、およびプログラム
WO2020202378A1 (ja) * 2019-03-29 2020-10-08 本田技研工業株式会社 表示制御装置、表示制御方法及びプログラム
JP7363084B2 (ja) * 2019-04-24 2023-10-18 三菱電機株式会社 制御システム
DE102019206945A1 (de) * 2019-05-14 2020-11-19 Volkswagen Aktiengesellschaft Verfahren zum Erkennen einer potenziellen Kollision eines Fahrzeugs mit einem Lebewesen sowie Parkhausmanagementsystem
DE102019114673A1 (de) * 2019-05-31 2020-12-03 Fraba B.V. Fahrzeugsteueranordnung zur automatischen Steuerung von mindestens einem Fahrzeug sowie Verfahren zu dessen Steuerung
JP2021149704A (ja) * 2020-03-19 2021-09-27 本田技研工業株式会社 収容領域管理装置
CN111524347B (zh) * 2020-04-13 2022-05-06 东风柳州汽车有限公司 一种预介入的远程遥控泊车控制方法
WO2021210134A1 (ja) * 2020-04-16 2021-10-21 日本電信電話株式会社 映像配信装置、映像配信方法及びプログラム
CN116234730A (zh) * 2020-09-30 2023-06-06 株式会社电装 中继装置、数据中继方法以及数据中继程序
CN112560769B (zh) * 2020-12-25 2023-08-29 阿波罗智联(北京)科技有限公司 用于检测障碍物的方法、电子设备、路侧设备和云控平台
CN112885087A (zh) * 2021-01-22 2021-06-01 北京嘀嘀无限科技发展有限公司 确定路况信息的方法、装置、设备和介质和程序产品
US20230249588A1 (en) * 2022-02-10 2023-08-10 Matthew BAYES Vehicle seat adjustment system and method
WO2023188702A1 (ja) * 2022-03-28 2023-10-05 日本電気株式会社 制御装置、制御方法、および記録媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012126193A (ja) 2010-12-14 2012-07-05 Denso Corp 駐車場の自動駐車システム
JP2016099953A (ja) 2014-11-26 2016-05-30 株式会社デンソー 車両自動運転システム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100429101C (zh) * 2005-09-09 2008-10-29 中国科学院自动化研究所 汽车行驶安全监控系统及监控方法
JP2010117800A (ja) * 2008-11-11 2010-05-27 Toshiba It & Control Systems Corp 駐車場監視装置及び方法
CN101710943A (zh) * 2009-12-14 2010-05-19 奇瑞汽车股份有限公司 一种汽车全景与夜视显示方法及装置
US9400183B1 (en) * 2011-11-10 2016-07-26 Google Inc. Method and apparatus to transition between levels using warp zones
DE102012200636A1 (de) * 2012-01-17 2013-07-18 Robert Bosch Gmbh Anzeigesystem für ein Fahrzeug
US9129524B2 (en) * 2012-03-29 2015-09-08 Xerox Corporation Method of determining parking lot occupancy from digital camera images
DE102012222562A1 (de) * 2012-12-07 2014-06-12 Robert Bosch Gmbh System für bewirtschaftete Parkflächen zur Überführung eines Fahrzeugs von einer Startposition in eine Zielposition
JP6329746B2 (ja) 2013-10-04 2018-05-23 株式会社デンソーアイティーラボラトリ 交通制御システム、交通制御方法、およびプログラム
JP6120371B2 (ja) 2013-10-23 2017-04-26 クラリオン株式会社 自動駐車制御装置および駐車支援装置
JP6331714B2 (ja) * 2014-06-02 2018-05-30 住友電気工業株式会社 通信方法、路側装置、移動通信機、車両、車両の制御装置、及び車両の動作決定方法
JP5983680B2 (ja) 2014-06-06 2016-09-06 トヨタ自動車株式会社 自動駐車システム
JP2016173682A (ja) 2015-03-16 2016-09-29 シャープ株式会社 異常判定装置および異常判定方法
EP3936394A1 (de) * 2015-07-02 2022-01-12 Sony Group Corporation Fahrzeugsteuerungsvorrichtung, fahrzeugsteuerungsverfahren und programm
KR101850795B1 (ko) * 2015-11-09 2018-04-20 엘지전자 주식회사 주차 수행 장치 및 차량
CN205609015U (zh) * 2016-03-18 2016-09-28 邦奇智能科技(上海)有限公司 一种基于图像识别的停车管理系统
CN205862609U (zh) * 2016-08-01 2017-01-04 北京博锐尚格节能技术股份有限公司 停车场调度系统
US20180178840A1 (en) * 2016-12-28 2018-06-28 Automotive Research & Testing Center Automatic vehicle parking assistance correcting system with instant environmental detection and correcting method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012126193A (ja) 2010-12-14 2012-07-05 Denso Corp 駐車場の自動駐車システム
JP2016099953A (ja) 2014-11-26 2016-05-30 株式会社デンソー 車両自動運転システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11119200B2 (en) * 2017-06-01 2021-09-14 Mitsubishi Electric Corporation Object detection apparatus, object detection method, and computer readable medium
EP4088980A1 (de) * 2021-05-11 2022-11-16 Toyota Jidosha Kabushiki Kaisha Fahrzeugverwaltungssystem und fahrzeugverwaltungsverfahren

Also Published As

Publication number Publication date
DE112017007050B4 (de) 2020-12-31
JPWO2018167891A1 (ja) 2019-03-28
JP6227211B1 (ja) 2017-11-08
CN110419211B (zh) 2020-12-22
US20210173400A1 (en) 2021-06-10
CN110419211A (zh) 2019-11-05
US11366477B2 (en) 2022-06-21
WO2018167891A1 (ja) 2018-09-20

Similar Documents

Publication Publication Date Title
DE112017007050T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Informationsverarbeitungsprogramm
EP3204279B1 (de) Verfahren zum betrieb eines automatisiert geführten, fahrerlosen kraftfahrzeugs und überwachungssystem
DE112018006665T5 (de) Verfahren zum zugreifen auf ergänzende wahrnehmungsdaten von anderen fahrzeugen
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE112018001277T5 (de) Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren
DE102016110215A1 (de) System und Verfahren zum Steuern von Fahrzeugkomponenten basierend auf von einer Kamera erhaltenen Bildinformationen
DE102017120498A1 (de) Wahrnehmen von fahrbahnbedingungen aus fusionierten sensordaten
DE102017116213A1 (de) Fahrspurerkennung mit rückfahrkamera
DE102018104147A1 (de) Karteninformations-Aktualisierungssystem und Karteninformations-Aktualisierungsserver
DE102016115541A1 (de) System und verfahren zum autonomen valet-parken unter verwendung plenoptischer kameras
DE102019122266A1 (de) Systeme und Verfahren zur Parkverwaltung
DE102017128294A1 (de) Fahrzeugumgebung-abbildungssysteme und -verfahren
DE102017115318A1 (de) Heads-Up-Anzeige zum Beobachten von Fahrzeugwahrnehmungsaktivität
DE112016007376T5 (de) Vorrichtung zur Bestimmung von Peripherie-Informationen und Verfahren zur Bestimmung von Peripherie-Informationen
DE112018001106T5 (de) Fahrassistenzverfahren, Fahrassistenzvorrichtung und dieses Verfahren verwendendes Fahrassistenzsystem
DE112018000335T5 (de) Systeme und verfahren für einen berechnungsrahmen zur visuellen warnung des fahrers unter verwendung einer &#34;fully convolutional&#34;-architektur
DE112016003473T5 (de) Fahrunterstützungsvorrichtung, Fahrunterstützungssystem und Fahrunterstützungsverfahren
DE112015007066T5 (de) Fahrunterstützungsvorrichtung
DE102018104270A1 (de) Verfahren zum Vorhersagen des Verhaltens mindestens eines Fußgängers
WO2015000882A1 (de) Assistenzsystem und assistenzverfahren zur unterstützung bei der steuerung eines kraftfahrzeugs
DE102019108610A1 (de) Verbesserung des fahrzeugverhaltens unter verwendung von informationen aus anderen fahrzeugleuchten
DE102020117732A1 (de) Eigenständiges Ausrichten eines Fahrzeugs und einer drahtlosen Ladevorrichtung
DE112019002394T5 (de) Erkennen von aktivität in der nähe von autonomen fahrzeugen
DE102018212655A1 (de) Erkennung der Bewegungsabsicht eines Fußgängers aus Kamerabildern
DE102018133441A1 (de) Verfahren und System zum Bestimmen von Landmarken in einer Umgebung eines Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R084 Declaration of willingness to licence
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee