DE102021211882A1 - Sichtschattenschätzvorrichtung, Fahrzeugfahrsystem und Sichtschattenschätzverfahren - Google Patents

Sichtschattenschätzvorrichtung, Fahrzeugfahrsystem und Sichtschattenschätzverfahren Download PDF

Info

Publication number
DE102021211882A1
DE102021211882A1 DE102021211882.8A DE102021211882A DE102021211882A1 DE 102021211882 A1 DE102021211882 A1 DE 102021211882A1 DE 102021211882 A DE102021211882 A DE 102021211882A DE 102021211882 A1 DE102021211882 A1 DE 102021211882A1
Authority
DE
Germany
Prior art keywords
area
vehicle
visual shadow
visual
shadow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021211882.8A
Other languages
English (en)
Inventor
Haiyue Zhang
Toshihide Satake
Toru Higuchi
Hideyuki Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE102021211882A1 publication Critical patent/DE102021211882A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3461Preferred or disfavoured areas, e.g. dangerous zones, toll or emission zones, intersections, manoeuvre types, segments such as motorways, toll roads, ferries
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/3867Geometry of map features, e.g. shape points, polygons or for simplified maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • G01C21/3893Transmission of map data from distributed sources, e.g. from roadside stations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0297Fleet control by controlling means in a control room
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

Aufgabe ist es, eine Technik bereitzustellen, die in der Lage ist, einen Sichtschattenbereich zu schätzen, der z.B. beim automatischen Fahren verwendet werden kann, um das automatische Fahren zu optimieren. Eine Sichtschattenschätzvorrichtung umfasst einen Erfassungsteil und einen Schätzungsteil. Der Erfassungsteil erfasst einen Objektbereich auf der Grundlage von Objektinformationen. Die Objektinformationen sind Informationen über ein Objekt in einem vorbestimmten Bereich, der von einem Erkennungsteil erkannt wurde. Der Objektbereich ist ein Bereich des Objekts. Der Schätzungsteil schätzt einen Sichtschattenbereich auf der Grundlage des Objektbereichs. Der Blindbereich ist ein Bereich, der für den Erkennungsteil ein durch das Objekt verursachter Blindbereich ist.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Offenbarung betrifft eine Vorrichtung zur Schätzung eines Sichtschattens bzw. toten Winkels (Sichtschattenschätzvorrichtung), ein Fahrzeugfahrsystem und ein Verfahren zur Schätzung eines Sichtschattens bzw. toten Winkels (Sichtschattenschätzverfahren).
  • Beschreibung des Stands der Technik
  • Ein herkömmliches Fahrzeugfahrsystem erfasst eine Position eines Objekts in einem vorbestimmten Bereich als Objektinformation durch eine Straßenrandeinheit (Road Side Unit, RSU), die eine am Straßenrand angeordnete Vorrichtung ist, und versorgt ein automatisch fahrendes Fahrzeug in dem Bereich mit Objektinformation (z. B. Japanische offengelegte Patentanmeldung Nr. 2020-37400 ). Genauer gesagt verarbeitet ein Server die von der RSU erfassten Objektinformationen und überträgt die verarbeiteten Objektinformationen an das automatisch fahrende Fahrzeug in der Region. Das automatisch fahrende Fahrzeug bestimmt unter Berücksichtigung der Objektinformationen eine Fahrtroute und fährt auf der Grundlage der Fahrtroute. Entsprechend einer solchen Konfiguration kann auch das automatisch fahrende Fahrzeug, das keinen Sensor zur Umgebungserfassung enthält, in der Region mit einer automatischen Fahrt fahren.
  • ZUSAMMENFASSUNG
  • Jedoch ist die RSU in vielen Fällen dazu vorgesehen, den Boden aus der Höhe zu überwachen, sodass es einen Bereich gibt, der aufgrund der Abschirmung durch ein Objekt auf dem Boden nicht erfasst werden kann, d.h. einen Sichtschattenbereich, der ein durch das Objekt verursachter Sichtschatten für die RSU ist. Wenn sich, wie oben beschrieben, ein Hindernis im Sichtschattenbereich befindet, dessen Zustand die RSU nicht erfassen kann, besteht die Möglichkeit, dass ein automatisch fahrendes Fahrzeug, das im Sichtschattenbereich fährt, mit dem Hindernis kollidiert. Es wird also ein Sichtschattenbereich benötigt, der z.B. beim automatischen Fahren genutzt werden kann.
  • Die vorliegende Offenbarung dient daher der Lösung der oben beschriebenen Probleme, und es ist ein Ziel der vorliegenden Offenbarung, eine Technik bereitzustellen, die in der Lage ist, einen Sichtschattenbereich bzw. einen Bereich eines toten Winkels zu schätzen.
  • Eine Sichtschattenschätzvorrichtung gemäß der vorliegenden Offenbarung umfasst: einen Erfassungsteil, der einen Objektbereich erfasst, der ein Bereich eines Objekts auf der Grundlage von Objektinformationen ist, die Informationen über das Objekt in einem vorbestimmten Bereich sind, der durch einen Erkennungsteil erkannt wird; und einen Schätzteil, der einen Sichtschattenbereich schätzt, der ein Bereich eines Sichtschattens für den Erfassungsteil ist, der durch das Objekt auf der Grundlage des Objektbereichs verursacht wird.
  • Der Sichtschattenbereich bzw. der Bereich eines toten Winkels kann geschätzt werden.
  • Diese und andere Objekte, Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden aus der folgenden detaillierten Beschreibung der vorliegenden Erfindung deutlicher, wenn sie in Verbindung mit den beigefügten Zeichnungen betrachtet wird.
  • Figurenliste
    • 1 ist eine Zeichnung, die ein Fahrzeugfahrsystem gemäß einer Ausführungsform 1 darstellt.
    • 2 ist ein Blockdiagramm, das eine Konfiguration einer RSU gemäß der Ausführungsform 1 darstellt.
    • 3 ist eine Zeichnung zur Beschreibung eines Sichtschattenerzeugungsmechanismus, der durch ein Objekt verursacht wird, und eines Verfahrens zur Berechnung des Sichtschattenbereichs.
    • 4 ist eine Zeichnung zur Beschreibung eines Sichtschattenerzeugungsmechanismus, der durch ein Objekt verursacht wird, und eines Verfahrens zur Berechnung des Sichtschattenbereichs.
    • 5 ist eine Zeichnung zur Beschreibung des Sichtschattens gemäß der Ausführungsform 1.
    • 6 ist ein Flussdiagramm, das den Betrieb der RSU gemäß Ausführungsform 1 darstellt.
    • 7 ist eine Zeichnung, die die Übertragung von Informationen von der RSU an einen Zusammenführungsserver gemäß Ausführungsform 1 darstellt.
    • 8 ist ein Blockdiagramm, das eine Konfiguration des Zusammenführungsservers gemäß der Ausführungsform 1 illustriert.
    • 9 ist ein Flussdiagramm, das den Betrieb des Zusammenführungsservers gemäß Ausführungsform 1 darstellt.
    • 10 ist eine Zeichnung zur Beschreibung einer Integration eines Bereichs, die vom Zusammenführungsserver gemäß Ausführungsform 1 durchgeführt wird.
    • 11 ist eine Zeichnung, die die Übertragung von Informationen vom Zusammenführungsserver an ein automatisch fahrendes Fahrzeug gemäß Ausführungsform 1 darstellt.
    • 12 ist ein Blockdiagramm, das eine Konfiguration einer fahrzeugseitigen Regelvorrichtung gemäß der Ausführungsform 1 darstellt.
    • 13 ist ein Flussdiagramm, das einen Betrieb der fahrzeugseitigen Regelvorrichtung gemäß Ausführungsform 1 darstellt.
    • 14 ist eine Zeichnung zur Erläuterung der Funktionsweise der fahrzeugseitigen Regelvorrichtung nach Ausführungsform 1.
    • 15 ist eine Zeichnung zur Erläuterung der Funktionsweise der fahrzeugseitigen Regelvorrichtung gemäß der Ausführungsform 1.
    • 16 ist eine Zeichnung zur Erläuterung der Funktionsweise der fahrzeugseitigen Regelvorrichtung nach Ausführungsform 1.
    • 17 ist eine Zeichnung zur Erläuterung der Funktionsweise der fahrzeugseitigen Regelvorrichtung nach Ausführungsform 1.
    • 18 ist eine Zeichnung zur Erläuterung der Funktionsweise der fahrzeugseitigen Regelvorrichtung nach Ausführungsform 1.
    • 19 ist eine Zeichnung, die ein Fahrzeugfahrsystem gemäß einer Ausführungsform 2 darstellt.
    • 20 ist ein Blockdiagramm, das eine Konfiguration eines Routenplanservers gemäß der Ausführungsform 2 darstellt.
    • 21 ist eine Zeichnung, die die Übertragung von Informationen vom Routenplanserver an das automatisch fahrende Fahrzeug gemäß Ausführungsform 2 darstellt.
    • 22 ist ein Flussdiagramm, das einen Betrieb des Routenplanservers gemäß Ausführungsform 2 darstellt.
    • 23 ist ein Blockdiagramm, das eine Konfiguration einer fahrzeugseitigen Regelvorrichtung gemäß Ausführungsform 2 darstellt.
    • 24 ist ein Blockdiagramm, das eine Hardware-Konfiguration einer Sichtschattenschätzvorrichtung gemäß einem anderen Modifikationsbeispiel darstellt.
    • 25 ist ein Blockdiagramm, das eine Hardware-Konfiguration einer Sichtschattenschätzvorrichtung gemäß einem anderen Modifikationsbeispiel darstellt.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • <Ausführungsform 1>
  • 1 ist eine Zeichnung, die ein Fahrzeugfahrsystem gemäß der vorliegenden Ausführungsform 1 darstellt. Das Fahrzeugfahrsystem in 1 umfasst eine Straßenrandeinheit (RSU) 1, einen Zusammenführungsserver 2 und ein automatisch fahrendes Fahrzeug 3.
  • Die RSU 1 ist eine Sichtschattenschätzvorrichtung und erzeugt einen Objektbereich, der ein Bereich eines Objekts in einem vorbestimmten Bereich ist, und einen Sichtschattenbereich, der ein Bereich eines Sichtschattens für einen Erkennungsteil der RSU 1 durch das Objekt ist, wie im Folgenden beschrieben. In der vorliegenden Ausführungsform 1 ist der vorbestimmte Bereich ein Bereich, der ein Ziel der Erzeugung des Objektbereichs und des Sichtschattenbereichs durch die RSU 1 ist, d.h. ein Erzeugungszielbereich, jedoch ist diese Konfiguration nicht erforderlich. In der vorliegenden Ausführungsform 1 sind die Vielzahl von RSUs 1 jeweils auf eine Vielzahl von Richtungen ausgerichtet, jedoch ist diese Konfiguration nicht notwendig, sondern es kann z.B. auch nur eine RSU 1 vorgesehen sein.
  • Der Zusammenführungsserver 2 erzeugt einen integrierten Objektbereich und Sichtschattenbereich auf der Grundlage der von der Vielzahl der RSU 1 erzeugten Objektbereichen und Sichtschattenbereichen. Das automatisch fahrende Fahrzeug 3 bestimmt eine Fahrtroute, entlang der das automatisch fahrende Fahrzeug 3 eine automatische Fahrt durchführen soll, basierend auf dem vom Zusammenführungsserver 2 erzeugten integrierten Objektbereich und Sichtschattenbereich. Das automatische Fahren des automatisch fahrenden Fahrzeugs 3 kann ein automatisches Fahren der autonomen Fahrsteuerung (AD) oder ein automatisches Fahren der erweiterten Fahrerassistenzsystemsteuerung (ADAS) sein.
  • <Konfiguration der RSU>
  • 2 ist ein Blockdiagramm, das eine Konfiguration der RSU 1 gemäß der vorliegenden Ausführungsform 1 darstellt. Die RSU 1 in 2 umfasst einen Erkennungsteil 11, einen Primärzusammenführungsteil 12, einen Ortungsteil 13 und einen Kommunikationsteil 14.
  • Der Erkennungsteil 11 besteht aus einem Sensor, der in der Lage ist, Objektinformationen zu erfassen, bei denen es sich um Informationen über ein Objekt im Erzeugungszielbereich handelt, und einer Unterstützungsschaltung des Sensors. In der vorliegenden Ausführungsform 1 umfasst der Sensor eine Kamera 111, ein Funkwellenradar 112 und ein Laserradar 113, und die Objektinformation ist eine Information, die einem Erfassungsergebnis der Kamera 111, des Funkwellenradars 112 und des Laserradars 113 entspricht. Das Objekt kann ein sich bewegendes oder ein stationäres Objekt sein.
  • Der Primärzusammenführungsteil 12 verarbeitet die vom Erkennungsteil 11 erkannten Objektinformationen. Der Primärzusammenführungsteil 12 umfasst einen Objektzusammenführungsteil 121, der ein Erfassungsteil ist, und einen Sichtschattenberechnungsteil 122, der ein Schätzungsteil ist. Der Objektzusammenführungsteil 121 erfasst den Objektbereich, der der Bereich des Objekts im Erzeugungszielbereich ist, durch Berechnung, zum Beispiel auf der Grundlage der vom Erkennungsteil 11 erkannten Objektinformationen. Der Teil 122 zur Berechnung des Sichtschattens schätzt den Sichtschattenbereich, bei dem es sich um einen durch das Objekt verursachten Bereich eines Sichtschattens für den Erkennungsteil 11 handelt, durch Berechnung, z. B. auf der Grundlage des berechneten Objektbereichs.
  • Der Ortungsteil 13 erfasst eine Position der RSU 1 und eine Richtung (z. B. Orientierung) der RSU 1. Der Ortungsteil 13 besteht aus einem Positionierungsmodul eines globalen Navigationssatellitensystems (GNSS) wie GPS, einem Quasi-Zenit-Satelliten wie Michibiki, Beidou, Galileo, GLONASS und NAVIC und einem Mittel zur Orientierungsmessung, das ein Trägheitsprinzip wie z. B. ein Gyroskop verwendet.
  • Der Kommunikationsteil 14 überträgt Informationen über den Objektbereich und den Bereich des Sichtschattens des Primärzusammenführungsteils 12 sowie Informationen über eine Position und eine Richtung der RSU 1 des Ortungsteils 13 an den Zusammenführungsserver 2. Der Kommunikationsteil 14 besteht z.B. aus einer allgemeinen Kommunikationsvorrichtung oder einer speziellen Kommunikationsnetzwerkvorrichtung.
  • 3 und 4 sind Zeichnungen zur Beschreibung eines Sichtschattenerzeugungsmechanismus, der durch ein Objekt verursacht wird, und eines Verfahrens zur Berechnung des Sichtschattenbereichs. 3 ist eine Zeichnung aus einer horizontalen Richtung des Bodens, und 4 ist eine Zeichnung aus einer vertikalen Richtung des Bodens (d.h. eine Draufsicht). 3 und 4 stellen ein Objekt 6 im Bereich des Erzeugungsziels und einen Sichtschatten 7 für die RSU 1 dar, der durch das Objekt 6 erzeugt wird. Das heißt, 3 und 4 stellen den Objektbereich dar, der der Bereich des Objekts 6 ist, der von der RSU 1 erfasst werden kann, und den Bereich des Sichtschattens, der der Bereich des Sichtschattens 7 ist, der sich auf einer der RSU 1 gegenüberliegenden Seite des Objekts 6 befindet und von der RSU 1 nicht erfasst werden kann.
  • In 3 ist ein Platzierungsbezugspunkt der RSU 1 mit 0 bezeichnet, eine Höhe von O über dem Boden mit H, ein Abstand von der RSU 1 zu einer Ecke VA des Objekts 6 auf einer distalen Seite im Querschnitt mit LA, und ein Winkel zwischen einem Segment zwischen 0 und VA und der horizontalen Richtung mit θA. In diesem Fall kann jeder der Abstände ra von einem distalsten Punkt A des Sichtschattens 7 und einer Bodenprojektion 0' von O, ein Abstand ra' von einer distalen Seite des Objekts 6 im Querschnitt und einer Platzierungsposition der RSU 1 entlang des Bodens und eine Breite w eines Querschnitts des Sichtschattenbereichs entlang des Bodens unter Verwendung der folgenden Gleichungen (1), (2) und (3) berechnet werden.
    [Mathe 1] r a = H tan θ A
    Figure DE102021211882A1_0001

    [Mathe 2] r a' = L A cos θ A
    Figure DE102021211882A1_0002

    [Mathe 3] w = r a r a' = H tan θ A L A cos θ A
    Figure DE102021211882A1_0003
  • Angenommen, das Objekt 6 hat in 4 eine viereckige Form, dann gibt es einen Sichtschattenbereich, der von Seiten umgeben ist, die durch vorstehende Seiten der viereckigen Form auf der Grundlage eines Platzierungsbezugspunkts O der RSU 1 gebildet werden. Im Fall von 4 ist beispielsweise ein durch eine Seite C'B' des Objekts 6 verursachter Sichtschattenbereich ein Bereich C'B'BC und ein durch eine Seite A'B' verursachter Sichtschattenbereich ein Bereich A'B'BA. Die Form des Sichtschattenbereichs C'B'BC und des Sichtschattenbereichs A'B'BA kann sich einer viereckigen Form annähern. So ist im Fall von 4 der durch das Objekt 6 verursachte Sichtschattenbereich ein sechseckiger Bereich A'B'CBA, der durch die Kombination des Sichtschattenbereichs C'B'BC und des Sichtschattenbereichs A'B'BA gebildet wird. Auf diese Weise kann der Sichtschattenbereich durch die Koordinaten der Ecken A', B' und C' des Objekts 6 und die Koordinaten der dazugehörigen Punkte A, B und C ausgedrückt werden.
  • Als nächstes wird eine Berechnung der Koordinaten der Punkte A, B und C beschrieben. Angenommen wird, wie in 4 dargestellt, ein ebenes, bodenparalleles Koordinatensystem mit dem Aufstellungsbezugspunkt O der RSU 1 als Ursprungspunkt. Der Punkt A befindet sich auf einer verlängerten Linie zwischen dem Platzierungsbezugspunkt O und dem Punkt A'. Wenn der Winkel zwischen der Geraden OA'A und der X-Achse φA beträgt, kann die Koordinate von A mit der folgenden Gleichung (4) und die Koordinate von A' mit der folgenden Gleichung (5) berechnet werden. Die Koordinaten der Punkte B, C, B' und C' können ebenfalls auf ähnliche Weise berechnet werden wie die Koordinaten der Punkte A und A'.
    [Mathe 4] ( r a cos ϕ A , r a sin ϕ A ) = ( Hcos ϕ A tan θ A , Hsin ϕ A tan θ A )
    Figure DE102021211882A1_0004

    [Mathe 5] ( r a' cos ϕ A , r a' sin ϕ A ) = ( L A cos θ A cos ϕ A , L A cos θ A sin ϕ A )
    Figure DE102021211882A1_0005
  • Wie oben beschrieben, wendet der Teil 122 zur Berechnung des Sichtschattens den Objektbereich, der LA, θA und φA jedes Punktes des Objekts 6 umfasst, und eine Höhe H des Platzierungsbezugspunkts O vom Boden auf die obigen Gleichungen (1) bis (5) an, um den Sichtschattenbereich zu schätzen. Die Höhe H kann ein fester Wert sein, der zum Zeitpunkt der Platzierung der RSU 1 festgelegt wird, oder ein Wert, der von dem Erkennungsteil 11 angemessen erfasst wird.
  • Wie in 5 dargestellt, ändert sich die Form des Sichtschattens in eine Form, bei der zwei viereckige Formen kombiniert werden, und in eine Form, bei der drei viereckige Formen kombiniert werden, z. B. in Übereinstimmung mit einer Richtung (z. B. einer Orientierung) des Objektbereichs des Objekts 6 in Bezug auf die RSU 1. Zum Beispiel ist im Fall einer Richtung eines Objektbereichs 61 die Form eines Sichtschattenbereichs 71 eine sechseckige Form, die durch die Kombination von zwei viereckigen Formen gebildet wird, und im Fall einer Richtung des Objektbereichs 62 ist die Form eines Sichtschattenbereichs 72 eine achteckige Form, die durch die Kombination von drei viereckigen Formen gebildet wird. Der Teil 122 zur Berechnung des Sichtschattens kann auch den achteckigen Sichtschattenbereich 72 in ähnlicher Weise wie den sechseckigen Sichtschattenbereich 71 berechnen.
  • <Flussdiagramm der RSU>
  • 6 ist ein Flussdiagramm, das einen Betrieb der RSU 1 gemäß der vorliegenden Ausführungsform 1 darstellt. Die RSU 1 führt den in 6 dargestellten Vorgang in jeder vorbestimmten Zeitperiode aus.
  • Zunächst nimmt der Erkennungsteil 11 in Schritt S1 Rohdaten von jedem Sensor auf und erzeugt Objektinformationen auf der Grundlage der Rohdaten jedes Sensors. Zum Beispiel identifiziert der Erkennungsteil 11 das Objekt 6 auf einem Bildschirm zu einer bestimmten Zeit aus einem Bildsignal, das Rohdaten der Kamera 111 sind, um eine Position und eine Richtung des Objekts 6 als Objektinformation zu erzeugen. Dann erzeugt der Erkennungsteil 11 eine Punktgruppe, die aus Rohdaten des Radiowellenradars 112 und des Laserradars 113 besteht, als Objektinformation. Wenn eine Ausgangsperiode jedes Sensors voneinander verschieden ist, synchronisiert der Erkennungsteil 11 die Daten, die der Ausgang jedes Sensors sind.
  • In Schritt S2 führt der Objektzusammenführungsteil 121 eine Fusions- bzw. Zusammenführverarbeitung durch, bei der die vom Erkennungsteil 11 erzeugten Objektinformationen zusammengeführt werden, um den Objektbereich zu berechnen. Bei der Zusammenführungsverarbeitung wird eine bekannte Technik verwendet, bei der ein Wert eines Sensors mit hoher Zuverlässigkeit bevorzugt verwendet wird, um die Zuverlässigkeit jedes Sensors unter Umgebungsbedingungen wie Temperatur und Lichtintensität zu berücksichtigen, wenn die verschiedenen Sensoren beispielsweise Werte desselben Objekts erfassen. Der Objektzusammenführungsteil 121 kann nicht nur den Objektbereich, sondern beispielsweise auch eine Geschwindigkeit und eine Beschleunigungsrate des Objekts 6 berechnen.
  • In der vorliegenden Ausführungsform 1 schätzt der Objektzusammenführungsteil 121 in Schritt S2, ob es sich bei dem Objekt 6 um ein sich bewegendes Objekt oder ein stationäres Objekt handelt. Das heißt, der Objektzusammenführungsteil 121 schätzt, ob der im folgenden Schritt S3 geschätzte Bereich des blinden Bereichs ein Bereich ist, der ein Bereich eines blinden Bereichs ist, der durch ein sich bewegendes Objekt verursacht wird, oder ein Bereich, der ein Bereich eines blinden Bereichs ist, der durch ein stationäres Objekt verursacht wird. Zum Beispiel schätzt der Objektzusammenführungsteil 121, dass das Objekt 6 ein sich bewegendes Objekt ist, wenn eine Aufhängungszeit des Objekts 6 gleich oder kleiner als ein Schwellenwert ist, und schätzt, dass das Objekt 6 ein stationäres Objekt ist, wenn eine Aufhängungszeit des Objekts 6 größer als der Schwellenwert ist. Das andere Element (z.B. der Teil 122 zur Berechnung des Sichtschattens) des Primärzusammenführungsteils 12 kann abschätzen, ob es sich bei einem Bereich um einen Sichtschatten handelt, der durch ein sich bewegendes Objekt oder ein stationäres Objekt verursacht wird.
  • In Schritt S3 berechnet der Sichtschattenberechnungsteil 122 den Bereich des Sichtschattens unter Verwendung der in 3 und 4 beschriebenen Berechnungsverfahren auf der Grundlage des vom Objektzusammenführungsteil 121 berechneten Objektbereichs.
  • In Schritt S4 überträgt der Kommunikationsteil 14 an den Zusammenführungsserver 2 die Informationen über den Objektbereich und den Sichtschattenbereich, das Schätzergebnis, das angibt, ob das Objekt 6 das sich bewegende Objekt oder das stationäre Objekt ist, und die Informationen über die Position und die Richtung der RSU 1 des Ortungsteils 13. Anschließend wird der Vorgang in 6 beendet.
  • Der obige Vorgang wird von jeder der Vielzahl von RSUs 1 durchgeführt, die jeweils in eine Vielzahl von Richtungen ausgerichtet sind. Dementsprechend berechnen die Primärzusammenführungsteile 12 der Vielzahl von RSUs 1 eine Vielzahl von Objektbereichen auf der Grundlage von Objektinformationen in einer Vielzahl von Richtungen, und die Blindflächenberechnungsteile 122 der Vielzahl von RSUs 1 berechnen eine Vielzahl von Sichtschattenbereichen auf der Grundlage einer Vielzahl von Objektbereichen.
  • <Beschreibung der Übertragungsinformationen der RSU>
  • 7 ist eine Zeichnung, die Übertragungsinformationen von der RSU 1 an den Zusammenführungsserver 2 darstellt. Jede Spalte in einer Tabelle in 7 zeigt eine der Objektbereichen und einen viereckigen Teil des Sichtschattenbereichs an.
  • Eine erste Spalte in der Tabelle in 7 zeigt eine Nummer für jedes von der RSU 1 erfasste Objekt an, d.h. eine Objektnummer, die jedem Objekt in einer RSU 1 zugeordnet ist. Die Objektnummer eines Objekts, das die Ursache für das Auftreten des Sichtschattens ist, wird dem Bereich des Sichtschattens zugewiesen. Wenn beispielsweise in 5 dem Objektbereich 62 die Objektnummer „1“ zugewiesen wird, wird die Objektnummer „1“ auch dem entsprechenden Sichtschattenbereich 72 zugewiesen, der aus den drei viereckigen Formen besteht. Wenn in 5 dem Objektbereich 61 die Objektnummer „2“ zugewiesen wird, wird die Objektnummer „2“ auch dem entsprechenden Sichtschattenbereich 71 zugewiesen, der aus den beiden viereckigen Formen besteht.
  • Eine zweite Spalte in 7 zeigt den Typcode eines Bereichs an. Die Zeichenkette obj_move bezeichnet einen Objektbereich eines sich bewegenden Objekts, und die Zeichenkette obj_stand bezeichnet einen Objektbereich eines stationären Objekts. Eine Zeichenkette mit dem Wert bld_move kennzeichnet einen Sichtschattenbereich, der durch ein sich bewegendes Objekt verursacht wird, und eine Zeichenkette mit dem Wert bld_stand kennzeichnet einen Sichtschattenbereich, der durch ein stationäres Objekt verursacht wird.
  • Die dritte Spalte in zeigt die Eckenkoordinate einer viereckigen Form jedes Bereichs an. Dieser Koordinatenwert ist ein Wert eines für jede RSU 1 spezifischen Koordinatensystems.
  • Die Übertragungsinformationen von jeder RSU 1 an den Zusammenführungsserver 2 umfassen nicht nur die Informationen in 7, sondern auch die Informationen über die Position und die Richtung der RSU 1 des Ortungsteils 13.
  • <Konfiguration des Zusammenführungsservers>
  • 8 ist ein Blockdiagramm, das eine Konfiguration des Zusammenführungsservers 2 gemäß der vorliegenden Ausführungsform 1 darstellt. Der Zusammenführungsserver 2 in 8 umfasst einen Empfangsteil 21, einen Sekundärzusammenführungsteil 22 und einen Sendeteil 23.
  • Der Empfangsteil 21 empfängt den Objektbereich und den Sichtschattenbereich in 7 von der Vielzahl der RSUs 1. Der Empfangsteil 21 synchronisiert die Vielzahl der RSUs 1 mit einer bekannten Technik.
  • Der Sekundärzusammenführungsteil 22 verarbeitet die Übertragungsinformationen von der Vielzahl der RSUs 1. Der Sekundärzusammenführungsteil 22 umfasst einen Koordinatenumwandlungsteil 221, einen Integrationszusammenführungsteil 222 und einen Sichtschatten-Neuberechnungsteil 223. Der Koordinatenumwandlungsteil 221 wandelt ein Koordinatensystem des Objektbereichs und des Sichtschattenbereichs, die von der Vielzahl von RSU 1 übertragen werden, in ein integriertes globales Koordinatensystem um, das auf den Informationen über die Position und die Richtung der Vielzahl von RSU 1 basiert. Der Integrationszusammenführungsteil 222 integriert den Objektbereich aus der Vielzahl der RSU 1, dessen Koordinaten im Koordinatenumwandlungsteil 221 umgerechnet werden. Der Sichtschatten-Neuberechnungsteil 223 integriert den Bereich des Sichtschattens aus der Vielzahl der RSUs 1, deren Koordinaten im Koordinatenumwandlungsteil 221 umgewandelt wurden.
  • Der Übertragungsteil 23 überträgt den integrierten Objektbereich und den Sichtschattenbereich an das automatisch fahrende Fahrzeug 3 in dem Erzeugungszielbereich, der den integrierten Objektbereich und den Sichtschattenbereich umfasst. Dementsprechend werden der Objektbereich und der Sichtschattenbereich der RSU 1 im Wesentlichen an das automatisch fahrende Fahrzeug 3 im Erzeugungszielbereich übertragen.
  • <Flussdiagramm des Zusammenführungsservers>
  • 9 ist ein Flussdiagramm, das einen Vorgang des Zusammenführungsservers 2 gemäß der vorliegenden Ausführungsform 1 darstellt. Der Zusammenführungsserver 2 führt den in 9 dargestellten Vorgang in jeder vorbestimmten Zeitperiode aus.
  • Zunächst empfängt der Empfangsteil 21 in Schritt S11 den Objektbereich und den Bereich des Sichtschattens in 7 von der Vielzahl der RSUs 1.
  • In Schritt S12 wandelt der Koordinatenumwandlungsteil 221 ein von der Vielzahl von RSU 1 übertragenes Koordinatensystem des Objektbereichs und des Sichtschattenbereichs in ein integriertes globales Koordinatensystem in der Vielzahl von RSU 1 um, basierend auf der Information der Position und der Richtung der Vielzahl von RSU 1.
  • In Schritt S13 führt der Integrationszusammenführungsteil 222 eine Zusammenführungsverarbeitung der Integration der von der Vielzahl von RSU 1 übertragenen Objektbereichen für jedes Objekt 6 durch. Bei der Zusammenführungsverarbeitung wird beispielsweise eine ODER-Verarbeitung zum Addieren des von der Vielzahl von RSUs 1 für jedes Objekt 6 übertragenen Objektbereichs durchgeführt.
  • In Schritt S14 führt der Sichtschatten-Neuberechnungsteil 223 eine Zusammenführungsverarbeitung zur Integration des Sichtschattenbereichs durch, der von der Vielzahl von RSUs 1 für jedes Objekt 6 übertragen wurde. Bei der Zusammenführungsverarbeitung wird beispielsweise eine UND-Verarbeitung zum Extrahieren eines gemeinsamen Teils des von der Vielzahl von RSUs 1 für jedes Objekt 6 übertragenen Sichtschattenbereichs durchgeführt.
  • Wie in 10 dargestellt, erzeugt z. B. eine RSU 1a einen Sichtschattenbereich 73a für das Objekt 6, und eine RSU 1b erzeugt einen Sichtschattenbereich 73b für das Objekt 6. In diesem Fall extrahiert der Sichtschatten-Neuberechnungsteil 223 nach der Zusammenführung einen gemeinsamen Teil der Sichtschattenbereiche 73a und 73b desselben Objekts 6 in 10 als einen Sichtschattenbereich 73c. Der Sichtschattenbereich 73c ist ein Bereich, der in beiden RSUs 1a und 1b ein Sichtschatten ist.
  • In Schritt S15 in 9 überträgt das Übertragungsteil 23 den integrierten Objektbereich und den Sichtschattenbereich an das automatisch fahrende Fahrzeug 3 in dem Erzeugungszielbereich, der den integrierten Objektbereich und den Sichtschattenbereich umfasst. Anschließend wird der Vorgang in 9 beendet.
  • <Konfigurieren der Übertragungsinformationen des Zusammenführungsservers>
  • 11 ist eine Zeichnung, die Übertragungsinformationen vom Zusammenführungsserver 2 an das automatisch fahrende Fahrzeug 3 darstellt. Jede Spalte in einer Tabelle in 11 zeigt einen der integrierten Objektbereiche und Sichtschattenbereiche an.
  • Eine erste Spalte in der Tabelle in 11 zeigt eine Objektnummer an, die sowohl dem Objektbereich als auch dem Sichtschattenbereich als ein Element gegeben wird, unabhängig von einer Beziehung zwischen dem Objekt und dem Sichtschatten. Eine zweite Spalte in der Tabelle in 11 gibt einen Typencode an, der den Übertragungsinformationen in 7 ähnelt. Der Typcode kann eine Zeichenkette obj_fix umfassen, die den Objektbereich eines Fixierkörpers angibt, der eine längere Verweildauer hat als das stationäre Objekt, und eine Zeichenkette bld_fix, die den durch den Fixierkörper verursachten Sichtschattenbereich angibt. Eine dritte Spalte in der Tabelle in 11 zeigt eine Eckenkoordinate jedes Bereichs an, ähnlich wie die Übertragungsinformation in 7. Ein Koordinatenwert in 11 ist jedoch ein Wert in einem integrierten globalen Koordinatensystem in der Vielzahl der RSUs 1. Wenn der Bereich, der einer Zeile in 11 entspricht, eine dreieckige Form hat, kann ein ungültiger Wert auf v4 gesetzt werden, und wenn der Bereich, der einer Zeile in 11 entspricht, eine fünfeckige Form mit fünf Ecken hat oder eine Form mit mehr Ecken hat, kann der Bereich durch fünf oder mehr Koordinaten ausgedrückt werden.
  • <Konfiguration der fahrzeugseitigen Regelvorrichtung>
  • 12 ist ein Blockdiagramm, das eine Konfiguration einer fahrzeugseitigen Regelvorrichtung darstellt, die in dem automatisch fahrenden Fahrzeug 3 vorgesehen ist. Die fahrzeugseitige Regelvorrichtung in 12 umfasst einen Kommunikationsteil 31, einen Positionsmessteil 32, einen Steuerungsteil 33 und einen Antriebsteil 34. Das automatisch fahrende Fahrzeug 3, in dem die fahrzeugseitige Regelvorrichtung vorgesehen ist, wird in einigen Fällen im Folgenden auch als „das betreffende Fahrzeug“ bezeichnet.
  • Der Kommunikationsteil 31 kommuniziert mit dem Zusammenführungsserver 2. Dementsprechend empfängt das Kommunikationsteil 31 den Objektbereich und den vom Zusammenführungsserver 2 integrierten Sichtschattenbereich.
  • Der Positionsmessteil 32 misst eine Position und eine Richtung (z. B. eine Orientierung) des betreffenden Fahrzeugs auf ähnliche Weise wie der Ortungsteil 13 der RSU 1 in 2. Die vom Positionsmessteil 32 gemessene Position und Richtung des betreffenden Fahrzeugs wird durch ein globales Koordinatensystem ausgedrückt.
  • Der Regelteil 33 regelt die Fahrt des betreffenden Fahrzeugs auf der Grundlage des Objektbereichs und des Bereichs des Sichtschattens, die vom Kommunikationsteil 31 empfangen wurden. Der Regelteil 33 umfasst einen Routenerzeugungsteil 331 und einen Zielwertgenerierungsteil 332. Der Routenerzeugungsteil 331 erzeugt und bestimmt eine Fahrroute, entlang der das betreffende Fahrzeug fahren sollte, basierend auf der Position des betreffenden Fahrzeugs, die durch den Positionsmessteil 32 gemessen wurde, einem Ziel, dem Objektbereich, dem Sichtschattenbereich und einer Karte des globalen Koordinatensystems. Der Zielwerterzeugungsteil 332 erzeugt einen Regelzielwert einer Fahrzeuggeschwindigkeit und eines Lenkwinkels, zum Beispiel, für das betreffende Fahrzeug, um entlang der Fahrtroute zu fahren, die durch den Routenerzeugungsteil 331 erzeugt wurde.
  • Der Antriebsteil 34 umfasst einen Sensor 341, eine elektronische Steuereinheit (ECU) 342 und eine Architektur 343. Die ECU 342 steuert die Architektur 343 auf der Grundlage von Informationen um das betreffende Fahrzeug, die von dem Sensor 341 erfasst werden, und dem von dem Regelteil 33 erzeugten Regelzielwert.
  • <Flussdiagramm des fahrzeugseitigen Regelungssystems>
  • 13 ist ein Flussdiagramm, das einen Betrieb der fahrzeugseitigen Regelvorrichtung des automatisch fahrenden Fahrzeugs 3 gemäß der vorliegenden Ausführungsform 1 darstellt. Die fahrzeugseitige Regelvorrichtung führt einen in 13 dargestellten Vorgang in jeder vorbestimmten Zeitperiode aus.
  • Zunächst misst und erfasst der Positionsmessteil 32 in Schritt S21 die Position und die Richtung des betreffenden Fahrzeugs.
  • In Schritt S22 empfängt der Kommunikationsteil 31 den Objektbereich und den Bereich des Sichtschattens, die vom Zusammenführungsserver 2 integriert wurden.
  • In Schritt S23 überträgt der Routenerzeugungsteil 331 die Position und die Richtung des betreffenden Fahrzeugs, die von dem Positionsmessteil 32 gemessen wurden, das Ziel, den Objektbereich und den Sichtschattenbereich auf die Karte des globalen Koordinatensystems, um sie abzubilden. Die Zuordnung in Schritt S23 kann einfach durchgeführt werden, indem zuvor alle Koordinatenwerte in den Wert des globalen Koordinatensystems vereinheitlicht werden.
  • In Schritt S24 erzeugt der Routenerzeugungsteil 331 die Fahrtroute, entlang der das betreffende Fahrzeug fahren sollte, basierend auf der Karte, auf der die Zuordnung durchgeführt wurde. Zum Beispiel erzeugt der Routenerzeugungsteil 331 zunächst, wie in 14 dargestellt, als eine temporäre Route 53 eine Route, entlang der das betreffende Fahrzeug 51 ein Ziel 52 in einer kürzesten Entfernung von der Position und der Richtung des betreffenden Fahrzeugs 51 erreichen kann, die durch den Positionsmessteil 32 gemessen wurden. In dem Beispiel in 14 ist das Ziel 52 ein Platz in einer Parklücke, aber die Konfiguration ist nicht darauf beschränkt. Der Routenerzeugungsteil 331 spiegelt den Objektbereich und den Bereich des Sichtschattens in der temporären Route 53 wider, um die Fahrroute zu erzeugen. Diese Konfiguration wird im Folgenden anhand der 15 bis 18 beschrieben.
  • In einem Fall, in dem sich ein Objektbereich 54 eines sich bewegenden Objekts auf der temporären Route 53 befindet, wie in 15 dargestellt, erzeugt der Routenerzeugungsteil 331 eine Fahrtroute für das betreffende Fahrzeug, um vorübergehend vor dem Objektbereich 54 des sich bewegenden Objekts anzuhalten und die Fahrt zu beginnen, wenn sich der Objektbereich außerhalb der Front des betreffenden Fahrzeugs 51 befindet. In einem Fall, in dem sich ein Objektbereich 55 eines stationären Objekts auf der temporären Route 53 befindet, wie in 16 dargestellt, erzeugt der Routenerzeugungsteil 331 die Fahrtroute 56 für das betreffende Fahrzeug, um den Objektbereich 55 des stationären Objekts zu vermeiden.
  • In einem Fall, in dem sich ein Sichtschattenbereich 57 eines sich bewegenden Objekts auf der temporären Route 53 befindet, erzeugt der Routenerzeugungsteil 331 eine Fahrtroute für das betreffende Fahrzeug, um vorübergehend vor dem Sichtschattenbereich 57 des sich bewegenden Objekts anzuhalten und die Fahrt zu beginnen, wenn sich der Sichtschattenbereich 57 außerhalb der Sichtweite des betreffenden Fahrzeugs 51 befindet. In einem Fall, in dem sich ein Sichtschattenbereich 58 eines stationären Objekts auf der temporären Route 53 befindet, wie in 18 dargestellt, erzeugt der Routenerzeugungsteil 331 die Fahrtroute 59 für das betreffende Fahrzeug, um den Objektbereich 55 des stationären Objekts und den Sichtschattenbereich 58 zu vermeiden.
  • Wenn eine Vielzahl von Bereichen, die den Objektbereich und den Sichtschattenbereich umfassen, zwischen dem betreffenden Fahrzeug und dem Ziel liegen, erzeugt der Routenerzeugungsteil 331 eine Fahrtroute, die die Bedingungen von 15 bis 18 für alle Bereiche als endgültige Fahrtroute erfüllt. Das betreffende Fahrzeug hält vorübergehend vor dem Objektbereich und dem Bereich des Sichtschattens des sich bewegenden Objekts an, und dann wird der Vorgang im Flussdiagramm in 13 periodisch ausgeführt, so dass das betreffende Fahrzeug entsprechend einer Bewegung des Objektbereichs und des Bereichs des Sichtschattens des sich bewegenden Objekts wieder zu fahren beginnt.
  • In Schritt S25 in 13 erzeugt der Zielwerterzeugungsteil 332 einen Relegzielwert auf der Grundlage der in dem Routenerzeugungsteil 331 erzeugten Fahrtroute. Anschließend wird der Vorgang in 13 beendet.
  • <Schlussfolgerung zu Ausführungsform 1>
  • Gemäß der vorliegenden, oben beschriebenen Ausführungsform 1 erfasst die RSU 1 den Objektbereich des Objekts und schätzt den Sichtschattenbereich des Objekts. Gemäß einer solchen Konfiguration kann das automatisch fahrende Fahrzeug 3, selbst wenn es keinen Sensor umfasst, den Objektbereich und den Sichtschattenbereich des Objekts erfassen, der sich beispielsweise um das automatisch fahrende Fahrzeug 3 herum befindet. Selbst wenn das automatisch fahrende Fahrzeug 3 keinen Sensor umfasst, kann das automatisch fahrende Fahrzeug 3 eine Fahrtroute planen, die eine Kollision mit dem Objekt und eine Kollision mit einem Hindernis im Sichtschattenbereich auf der Grundlage des Objektbereichs und des Sichtschattenbereichs verhindert. Es wird geschätzt, ob der Sichtschattenbereich ein Bereich eines Sichtschattens ist, der durch ein sich bewegendes Objekt oder ein stationäres Objekt verursacht wird, so dass das automatisch fahrende Fahrzeug 3 eine geeignete Fahrtroute z.B. nach der Art des Objekts planen kann.
  • <Modifikationsbeispiel>
  • In der Ausführungsform 1 umfasst der Erkennungsteil 11 der RSU 1 in 2 die drei Sensortypen der Kamera 111, des Radiowellenradars 112 und des Laserradars 113, kann aber auch einen anderen Sensor umfassen, um einen notwendigen Objektbereich und einen Sichtschattenbereich zu erfassen.
  • In der Ausführungsform 1 umfasst die RSU 1 in 2 den Primärzusammenführungsteil 12, diese Konfiguration ist jedoch nicht erforderlich. Der Primärzusammenführungsteil kann beispielsweise den Zusammenführungsserver 2 umfassen oder in einem anderen Element als der RSU 1 und dem Zusammenführungsserver 2 untergebracht sein. In diesem Fall kann der Primärzusammenführungsteil 12 bei der Konfiguration der RSU 1 weggelassen werden, und darüber hinaus können die Berechnung des Objektbereichs in Schritt S2 und die Berechnung des Sichtschattenbereichs in Schritt S3 im Flussdiagramm der RSU 1 in 6 weggelassen werden.
  • In der Ausführungsform 1 werden verschiedene GNSS-Typen als Ortungsteil 13 in 2 verwendet, jedoch ist diese Konfiguration nicht notwendig. Im Falle einer stationären RSU 1 kann der Ortungsteil 13 beispielsweise ein Speicher für eine feste Position sein, in dem das GNSS nicht angeordnet ist, aber eine Position und eine Richtung der RSU 1 gespeichert werden. Der Speicher für den festen Standort kann in den Kommunikationsteil 14, den Primärzusammenführungsteil 12 oder den Erkennungsteil 11 integriert sein. Der Ortungsteil 13 kann einen Beschleunigungssensor und einen Kreiselsensor umfassen, um eine durch starken Wind verursachte Schwingung zu messen.
  • <Ausführungsform 2>
  • 19 ist eine Zeichnung, die ein Fahrzeugfahrsystem gemäß der vorliegenden Ausführungsform 2 darstellt. Die gleichen oder ähnlichen Referenznummern wie die oben beschriebenen werden den gleichen oder ähnlichen Bestandteilen gemäß der vorliegenden Ausführungsform 2 zugewiesen, und die verschiedenen Bestandteile werden hauptsächlich im Folgenden beschrieben.
  • In der Ausführungsform 1 überträgt der Zusammenführungsserver 2 den Objektbereich und den Bereich des Sichtschattens an das automatisch fahrende Fahrzeug 3, und das automatisch fahrende Fahrzeug 3 erzeugt die Fahrtroute und den Regelungszielwert basierend auf dem Objektbereich und dem Bereich des Sichtschattens. Im Gegensatz dazu bestimmt in der vorliegenden Ausführungsform 2 ein Routenplanserver 8, der eine Vorrichtung zur Erzeugung von Fahrmustern ist, ein Fahrmuster eines automatisch fahrenden Fahrzeugs 9 im Erzeugungszielbereich auf der Grundlage des Objektbereichs und des Sichtschattenbereichs, die von der Vielzahl von RSUs 1 übertragen werden, und überträgt das Fahrmuster an das automatisch fahrende Fahrzeug 9. Das Fahrmuster ist ein Fahrmuster zum Durchführen einer Fahrt entlang der in der Ausführungsform 1 beschriebenen Fahrtroute 56 und ist im Wesentlichen dasselbe wie die Fahrtroute 56. Das automatisch fahrende Fahrzeug 9 erzeugt den Regelzielwert auf der Grundlage des vom Routenplanserver 8 empfangenen Fahrmusters und fährt auf der Grundlage des Regelzielwertes. Das automatische Fahren des automatisch fahrenden Fahrzeugs 9 kann ein automatisches Fahren der Regelung des autonomen Fahrens (AD) oder ein automatisches Fahren der Regelung des erweiterten Fahrerassistenzsystems (ADAS) sein.
  • <Konfiguration der RSU>
  • Eine Konfiguration der RSU 1 gemäß der vorliegenden Ausführungsform 2 ist ähnlich der Konfiguration der RSU 1 gemäß der Ausführungsform 1.
  • <Konfiguration des Routenplanservers>
  • 20 ist ein Blockdiagramm, das eine Konfiguration des Routenplanservers 8 gemäß der vorliegenden Ausführungsform 2 darstellt. Der Routenplanserver 8 in 20 umfasst einen Empfangsteil 81, einen Sekundärzusammenführungsteil 82, einen Fahrzeugpositionserfassungsteil 83, eine Kartendatenbank 84, einen Fahrmustererzeugungsteil 85 und einen Sendeteil 86.
  • Der Empfangsteil 81 empfängt Übertragungsinformationen beispielsweise von der Vielzahl von RSUs 1 in ähnlicher Weise wie der Empfangsteil 21 in Ausführungsform 1.
  • Der Sekundärzusammenführungsteil 82 umfasst einen Koordinatenumwandlungsteil 821, einen Integrationszusammenführungsteil 822 und einen Blindbereich-Neuberechnungsteil 823, die dem Koordinatenumwandlungsteil 221, dem Integrationszusammenführungsteil 222 bzw. dem Blindbereich-Neuberechnungsteil 223 in der Ausführungsform 1 entsprechen. Der Sekundärzusammenführungsteil 82, der eine solche Konfiguration aufweist, integriert die von der Vielzahl von RSUs 1 übertragenen Objektbereiche und integriert die von der Vielzahl von RSUs 1 übertragenen Sichtschattenbereiche in einer Weise, die dem Sekundärzusammenführungsteil 22 in der Ausführungsform 1 ähnelt.
  • Zum Beispiel kommuniziert der Fahrzeugpositionserfassungsteil 83 mit jedem automatisch fahrenden Fahrzeug 9 in dem Erzeugungszielbereich, wodurch sequentiell eine Position, eine Orientierung und ein Ziel jedes automatisch fahrenden Fahrzeugs 9 in jedem automatisch fahrenden Fahrzeug 9 erfasst wird. Die Kartendatenbank 84 speichert eine Karte eines globalen Koordinatensystems in dem Erzeugungszielbereich.
  • Der Fahrmustererzeugungsteil 85 führt eine ähnliche Verarbeitung durch wie der Routenerzeugungsteil 331, der in der Ausführungsform 1 das automatisch fahrende Fahrzeug 3 umfasst. Insbesondere erzeugt und bestimmt der Fahrmustererzeugungsteil 85 ein Fahrmuster des automatisch fahrenden Fahrzeugs 9 auf der Grundlage der Position, der Ausrichtung und des Ziels des automatisch fahrenden Fahrzeugs 9, die durch den Fahrzeugpositionserfassungsteil 83 erfasst werden, des Objektbereichs und des Bereichs des Sichtschattens, die durch den Sekundärzusammenführungsteil 82 integriert werden, und der Karte der Kartendatenbank 84. Der Übertragungsteil 86 überträgt das Fahrmuster, das eine Liste mit einer Zeit und einer Zielposition umfasst, an das automatisch fahrende Fahrzeug 9. 21 ist eine Zeichnung, die die Liste der Zeit und der Zielposition darstellt, die vom Routenplanserver 8 an das automatisch fahrende Fahrzeug 9 übertragen wird. Die Zielposition wird durch eine XY-Koordinate eines globalen Koordinatensystems angegeben.
  • <Flussdiagramm des Routenplanservers>
  • 22 ist ein Flussdiagramm, das einen Betrieb des Routenplanservers 8 gemäß der vorliegenden Ausführungsform 2 darstellt. Der Routenplanserver 8 führt den in 22 dargestellten Vorgang in jeder vorbestimmten Zeitperiode aus.
  • In den Schritten S31 bis S34 führt der Routenplanserver 8 eine Verarbeitung durch, die der Verarbeitung des Empfangs der Übertragungsinformationen in Schritt S11 und der Verarbeitung der Integration des Sichtschattenbereichs in Schritt S14 in 9 ähnelt.
  • In den Schritten S35 bis S38 führt der Routenplanserver 8 eine Verarbeitung durch, die der Verarbeitung der Erfassung der Position und der Orientierung der Richtung des betreffenden Fahrzeugs in Schritt S21 und der Verarbeitung der Erzeugung der Fahrtroute in Schritt S24 in 13 ähnlich ist. Das heißt, in der vorliegenden Ausführungsform 2 erzeugt der Routenplanserver 8 in Schritt S38 ein Fahrmuster für das automatisch fahrende Fahrzeug 9, um entlang der Fahrtroute in ähnlicher Weise wie die Fahrtroute in Schritt S24 zu fahren. Dementsprechend wird das Fahrmuster für die Fahrt entlang der in 15 bis 18 beschriebenen Fahrtroute erzeugt.
  • Wenn beispielsweise geschätzt wird, dass der Sichtschattenbereich ein Bereich eines Sichtschattens ist, der durch ein stationäres Objekt verursacht wird, bestimmt der Routenplanserver 8 ein Fahrmuster für das automatisch fahrende Fahrzeug 9, um den Sichtschattenbereich zu vermeiden. Wenn beispielsweise geschätzt wird, dass der Bereich des blinden Bereichs ein Bereich eines blinden Bereichs ist, der durch ein sich bewegendes Objekt verursacht wird, bestimmt der Routenplanserver 8 ein Fahrmuster für das automatisch fahrende Fahrzeug 9, um vor dem Bereich des blinden Bereichs anzuhalten und mit der Fahrt zu beginnen, wenn der Bereich des blinden Bereichs sich außerhalb des automatisch fahrenden Fahrzeugs 9 befindet.
  • In Schritt S39 überträgt der Routenplanserver 8 das Fahrmuster an das automatisch fahrende Fahrzeug 9. Anschließend ist der Vorgang in 22 beendet.
  • <Konfigurieren des automatisch fahrenden Fahrzeugs>
  • 23 ist ein Blockdiagramm, das eine Konfiguration einer fahrzeugseitigen Regelvorrichtung darstellt, die in dem automatisch fahrenden Fahrzeug 9 vorgesehen ist. Die fahrzeugseitige Regelvorrichtung in 23 umfasst einen Kommunikationsteil 91, einen Standortmessteil 92, einen Regelwerterzeugungsteil 93 und einen Antriebsteil 94.
  • Der Kommunikationsteil 91 kommuniziert mit dem Routenplanserver 8. Dementsprechend empfängt der Kommunikationsteil 91 das von dem Routenplanserver 8 erzeugte Fahrmuster. Der Standortmessteil 92 misst eine Position und eine Richtung des betreffenden Fahrzeugs auf ähnliche Weise wie der Positionsmessteil 32 in Ausführungsform 1.
  • Der Regelwerterzeugungsteil 93 erzeugt einen Regelzielwert einer Fahrzeuggeschwindigkeit und eines Lenkwinkels, z.B. auf der Grundlage des vom Kommunikationsteil 91 empfangenen Fahrmusters und der vom Ortsmessteil 92 gemessenen Position und Ausrichtung des betreffenden Fahrzeugs.
  • Der Antriebsteil 94 umfasst einen Sensor 941, eine ECU 942 und eine Architektur 943. Die ECU 942 steuert die Architektur 943 auf der Grundlage von Informationen um das betreffende Fahrzeug, die von dem Sensor 941 erfasst werden, und dem Regelzielwert, der von dem Regelwerterzeugungsteil 93 erzeugt wird.
  • <Schlussfolgerung von Ausführungsform 2>
  • Gemäß der oben beschriebenen vorliegenden Ausführungsform 2 kann der Routenplanserver 8 den Objektbereich und den Sichtschattenbereich des um jedes automatisch fahrende Fahrzeug 9 befindlichen Objekts erfassen. Dementsprechend kann der Routenplanserver 8 selbst dann, wenn das automatisch fahrende Fahrzeug 9 keinen Sensor und keinen Routenerzeugungsteil umfasst, ein Fahrmuster zur Unterdrückung einer Kollision zwischen dem automatisch fahrenden Fahrzeug 9 und einem Objekt planen, zum Beispiel auf der Grundlage des Objektbereichs und des Sichtschattenbereichs. Es wird abgeschätzt, ob der Bereich des Sichtschattens ein Bereich eines Sichtschattens ist, der durch ein sich bewegendes Objekt oder ein stationäres Objekt verursacht wird, so dass das automatisch fahrende Fahrzeug 9 ein geeignetes Fahrmuster zum Beispiel anhand eines Objekttyps planen kann.
  • <Anderes Modifikationsbeispiel>
  • Der Erfassungsteil und der Schätzungsteil, die in 2 als Objektzusammenführungsteil 121 bzw. als Sichtschattenberechnungsteil 122 beschrieben sind, werden im Folgenden als „der Erfassungsteil usw.“ bezeichnet. Der Erfassungsteil usw. wird durch eine Verarbeitungsschaltung 101 realisiert, die in 24 dargestellt ist. Das heißt, die Verarbeitungsschaltung 101 umfasst: einen Erfassungsteil, der einen Objektbereich erfasst, der ein Bereich eines Objekts auf der Grundlage von Objektinformationen ist, bei denen es sich um Informationen über das Objekt in einem vorbestimmten Bereich handelt, der von einem Erkennungsteil erfasst wird; und einen Schätzungsteil, der einen Blindbereichsbereich schätzt, der ein Bereich eines durch das Objekt verursachten Blindbereichs für den Erkennungsteil auf der Grundlage des Objektbereichs ist. Die Verarbeitungsschaltung 101 kann mit dedizierter Hardware ausgestattet sein, oder es kann auch ein Prozessor verwendet werden, der ein in einem Speicher gespeichertes Programm ausführt. Beispiele für den Prozessor umfassen eine zentrale Verarbeitungseinheit, eine Verarbeitungsvorrichtung, eine arithmetische Vorrichtung, einen Mikroprozessor, einen Mikrocomputer oder einen digitalen Signalprozessor (DSP).
  • Handelt es sich bei der Verarbeitungsschaltung 101 um die dedizierte Hardware, so fällt darunter beispielsweise eine einzelne Schaltung, eine komplexe Schaltung, ein programmierter Prozessor, ein parallel programmierter Prozessor, eine anwendungsspezifische integrierte Schaltung (ASIC), ein feldprogrammierbares Gate-Array (FPGA) oder eine Kombination davon. Jede Funktion jedes Teils des Erfassungsteils usw. kann durch Schaltungen erreicht werden, auf die die Verarbeitungsschaltung verteilt ist, oder jede Funktion von ihnen kann auch gemeinsam durch eine Verarbeitungsschaltung erreicht werden.
  • Wenn die Verarbeitungsschaltung 101 der Prozessor ist, werden die Funktionen des Erfassungsteils usw. durch eine Kombination mit Software usw. erreicht. Software, Firmware oder Software und Firmware fallen beispielsweise unter die Software usw. Die Software usw. wird als Programm beschrieben und ist in einem Speicher gespeichert. Wie in 25 dargestellt, liest ein an die Verarbeitungsschaltung 101 angeschlossener Prozessor 102 ein im Speicher 103 gespeichertes Programm aus und führt es aus, wodurch die Funktion jeder Einheit erreicht wird. Das heißt, die Vorrichtung zur Schätzung des Sichtschattens umfasst einen Speicher 103 zum Speichern des Programms, um die folgenden Schritte auszuführen: Erfassen eines Objektbereichs, der ein Bereich eines Objekts ist, auf der Grundlage von Objektinformationen, die Informationen über das Objekt in einem vorbestimmten Bereich sind, der von einem Erfassungsteil erfasst wird; und Schätzen eines Sichtschattenbereichs, der ein Bereich eines Sichtschattens für den Erfassungsteil ist, der durch das Objekt verursacht wird, auf der Grundlage des Objektbereichs. Mit anderen Worten, dieses Programm dient auch dazu, dass ein Computer eine Prozedur oder ein Verfahren des Erfassungsteils usw. ausführt. Der Speicher 103 kann ein nichtflüchtiger oder flüchtiger Halbleiterspeicher sein, wie z.B. ein Direktzugriffsspeicher (RAM), ein Nur-Lese-Speicher (ROM), ein Flash-Speicher, ein elektrisch programmierbarer Nur-Lese-Speicher (EPROM) oder ein elektrisch löschbarer programmierbarer Nur-Lese-Speicher (EEPROM), ein Festplattenlaufwerk (HDD), eine magnetische Scheibe, eine flexible Scheibe, eine optische Scheibe, eine Compact Disc, eine Mini-Disc, eine Digital Versatile Disc (DVD) oder eine Vorrichtung davon, oder ein beliebiges Speichermedium, das in Zukunft verwendet werden soll.
  • Oben ist die Konfiguration beschrieben, dass jede Funktion des Erfassungsteils usw. durch eine der Hardware und der Software erreicht wird. Die Konfiguration ist jedoch nicht darauf beschränkt, sondern es kann auch so konfiguriert werden, dass ein Teil des Erfassungsteils usw. durch dedizierte Hardware und ein anderer Teil davon z. B. durch Software erreicht wird. Zum Beispiel kann die Funktion des Erfassungsteils durch die Verarbeitungsschaltung 101 als dedizierte Hardware, eine Schnittstelle und einen Empfänger erreicht werden, und die Funktion der anderen Einheiten kann durch die Verarbeitungsschaltung 101 als Prozessor 102 erreicht werden, der das im Speicher 103 gespeicherte Programm ausliest und ausführt.
  • Wie oben beschrieben, kann die Verarbeitungsschaltung 101 jede oben beschriebene Funktion beispielsweise durch die Hardware, die Software oder eine Kombination von ihnen erreichen.
  • Jede Ausführungsform und jedes Modifikationsbeispiel kann beliebig kombiniert werden, oder jede Ausführungsform und jedes Modifikationsbeispiel kann in geeigneter Weise variiert oder weggelassen werden.
  • Obwohl die Erfindung im Detail dargestellt und beschrieben wurde, ist die vorangehende Beschreibung in jeder Hinsicht illustrativ und nicht einschränkend. Es versteht sich daher, dass zahlreiche Modifikationen und Variationen entwickelt werden können, ohne vom Anwendungsbereich der Erfindung abzuweichen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 202037400 [0002]

Claims (14)

  1. Sichtschattenschätzvorrichtung (1), umfassend: einen Erfassungsteil (121), der einen Objektbereich (61, 62) erfasst, der ein Bereich eines Objekts ist, basierend auf Objektinformationen, die Informationen des Objekts (6) in einem vorbestimmten Bereich sind, der von einem Erkennungsteil (11) erkannt wird; und einen Schätzungsteil (122), der einen Sichtschattenbereich (71, 72) schätzt, der ein Bereich eines Sichtschattens (7) für den Erkennungsteil ist, der durch das Objekt verursacht wird, basierend auf dem Objektbereich.
  2. Sichtschattenschätzvorrichtung (1) nach Anspruch 1, wobei der Erfassungsteil (121) eine Vielzahl von Objektbereichen (61, 62) auf der Grundlage der Objektinformationen in einer Vielzahl von Richtungen erfasst, der Schätzteil (122) eine Vielzahl von Sichtschattenbereichen (71, 72) auf der Grundlage der Vielzahl von Objektbereichen schätzt und einen gemeinsamen Teil der Vielzahl von Sichtschattenbereichen extrahiert.
  3. Sichtschattenschätzvorrichtung (1) nach Anspruch 1 oder 2, wobei das Objekt (6) ein sich bewegendes Objekt und ein stationäres Objekt umfasst, und geschätzt wird, ob der Sichtschattenbereich (71, 72) ein Bereich ist, der der Sichtschatten (7) ist, der durch das sich bewegende Objekt verursacht wird, oder ein Bereich, der der Sichtschatten (7) ist, der durch das stationäre Objekt verursacht wird.
  4. Sichtschattenschätzvorrichtung (1) nach Anspruch 1 oder 2, wobei der Objektbereich (61, 62) und der Bereich des Sichtschattens (71, 72) in dem vorbestimmten Bereich an ein automatisch fahrendes Fahrzeug (3) übertragen werden.
  5. Sichtschattenschätzvorrichtung (1) nach Anspruch 3, wobei der Objektbereich (61, 62) und der Sichtschattenbereich (71, 72) an ein automatisch fahrendes Fahrzeug (3) in dem vorbestimmten Bereich übertragen werden.
  6. Fahrzeugfahrsystem, umfassend: die Sichtschattenschätzvorrichtung (1) nach Anspruch 4; und das automatisch fahrende Fahrzeug (3), wobei das automatisch fahrende Fahrzeug eine Fahrtroute (56) des automatisch fahrenden Fahrzeugs basierend auf dem Objektbereich (61, 62) und dem Sichtschattenbereich (71, 72) bestimmt.
  7. Fahrzeugfahrsystem, umfassend: die Sichtschattenschätzvorrichtung (1) nach Anspruch 5; und das automatisch fahrende Fahrzeug (3), wobei das automatisch fahrende Fahrzeug eine Fahrtroute (56) des automatisch fahrenden Fahrzeugs auf der Grundlage des Objektbereichs (61, 62) und des Sichtschattenbereich (71, 72) bestimmt.
  8. Fahrzeugfahrsystem nach Anspruch 7, wobei das automatisch fahrende Fahrzeug (3) die Fahrtroute (56) für das automatisch fahrende Fahrzeug (3) bestimmt, um den Sichtschattenbereich zu vermeiden, wenn der Sichtschattenbereich (71, 72) als ein Bereich geschätzt wird, der der durch das stationäre Objekt verursachte Sichtschattenbereich (7) ist.
  9. Fahrzeugfahrsystem nach Anspruch 7, wobei wenn der Sichtschattenbereich (71, 72) als ein Bereich geschätzt wird, der der durch das sich bewegende Objekt verursachte Sichtschattenbereich (7) ist, das automatisch fahrende Fahrzeug (3) die Fahrtroute für das automatisch fahrende Fahrzeug (3) bestimmt, um vor dem Sichtschattenbereich auf der Fahrtroute (56) anzuhalten und die Fahrt zu beginnen, wenn der Sichtschattenbereich außerhalb des automatisch fahrenden Fahrzeugs liegt.
  10. Fahrzeugfahrsystem, umfassend: die Sichtschattenschätzvorrichtung (1) nach Anspruch 1 oder 2; ein automatisch fahrendes Fahrzeug (9), das auf der Grundlage eines Fahrmusters fährt; und eine Vorrichtung zur Erzeugung eines Fahrmusters, die das Fahrmuster des automatisch fahrenden Fahrzeugs in dem vorbestimmten Bereich auf der Grundlage des Objektbereichs (61, 62) und des Sichtschattenbereichs (71, 72) bestimmt.
  11. Fahrzeugfahrsystem, umfassend: die Sichtschattenschätzvorrichtung (1) nach Anspruch 3; ein automatisch fahrendes Fahrzeug (9), das auf der Grundlage eines Fahrmusters fährt; und eine Vorrichtung (8) zur Erzeugung eines Fahrmusters, die das Fahrmuster des automatisch fahrenden Fahrzeugs in dem vorbestimmten Bereich auf der Grundlage des Objektbereichs (61, 62) und des Sichtschattenbereichs (71, 72) bestimmt.
  12. Fahrzeugfahrsystem nach Anspruch 11, wobei die Vorrichtung (8) zur Erzeugung von Fahrmustern das Fahrmuster für das automatisch fahrende Fahrzeug (9) bestimmt, um den Sichtschattenbereich (71, 72) zu vermeiden, wenn geschätzt wird, dass der Sichtschattenbereich ein Bereich ist, der der durch das stationäre Objekt verursachte Sichtschattenbereich (7) ist.
  13. Fahrzeugfahrsystem nach Anspruch 11, wobei wenn der Sichtschattenbereich (71, 72) als ein Bereich geschätzt wird, bei dem es sich um den Sichtschattenbereich (7) handelt, der durch das sich bewegende Objekt verursacht wird, die Vorrichtung (8) zur Erzeugung von Fahrmustern das Fahrmuster für das automatisch fahrende Fahrzeug (9) bestimmt, um vor dem Sichtschattenbereich anzuhalten und mit der Fahrt zu beginnen, wenn sich der Sichtschattenbereich außerhalb der Sichtweite des automatisch fahrenden Fahrzeugs befindet.
  14. Sichtschattenschätzverfahren, umfassend: Erfassen eines Objektbereichs (61, 62), der ein Bereich eines Objekts ist, basierend auf Objektinformationen, die Informationen des Objekts (6) in einem vorbestimmten Bereich sind, der von einem Erkennungsteil (11) erfasst wird; und Schätzen eines Sichtschattenbereichs (71, 72), der ein Bereich eines Sichtschattens (7) für den Erkennungsteil ist, der durch das Objekt verursacht wird, basierend auf dem Objektbereich.
DE102021211882.8A 2020-12-24 2021-10-21 Sichtschattenschätzvorrichtung, Fahrzeugfahrsystem und Sichtschattenschätzverfahren Pending DE102021211882A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020214993A JP7166325B2 (ja) 2020-12-24 2020-12-24 車両走行システム、死角推定方法
JP2020-214993 2020-12-24

Publications (1)

Publication Number Publication Date
DE102021211882A1 true DE102021211882A1 (de) 2022-06-30

Family

ID=81972301

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021211882.8A Pending DE102021211882A1 (de) 2020-12-24 2021-10-21 Sichtschattenschätzvorrichtung, Fahrzeugfahrsystem und Sichtschattenschätzverfahren

Country Status (4)

Country Link
US (1) US20220206502A1 (de)
JP (1) JP7166325B2 (de)
CN (1) CN114670840A (de)
DE (1) DE102021211882A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115547105A (zh) * 2022-09-19 2022-12-30 智道网联科技(北京)有限公司 路侧设备数据处理方法、装置及电子设备、存储介质
CN116798272B (zh) * 2023-08-23 2023-11-28 威海爱思特传感技术有限公司 基于车辆通信的道路十字路口盲区车辆预警系统及方法
CN117022260A (zh) * 2023-08-29 2023-11-10 中国第一汽车股份有限公司 安全驾驶辅助方法、装置、电子设备和存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020037400A (ja) 2018-08-31 2020-03-12 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 車両インフラ協調に基づく路側感知システムおよびその車両制御方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248870A (ja) 2010-04-27 2011-12-08 Denso Corp 死角領域検出装置、死角領域検出プログラム、および死角領域検出方法
US10993688B2 (en) * 2015-12-15 2021-05-04 Koninklijke Philips N.V. Method of data processing for computed tomography
CA3060925A1 (en) * 2017-04-19 2019-10-18 Nissan Motor Co., Ltd. Traveling assistance method and traveling assistance device
JP2018193535A (ja) 2017-05-16 2018-12-06 株式会社ブリヂストン タイヤ
JP7128625B2 (ja) 2017-05-18 2022-08-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 車両システム、車両情報処理方法、プログラム、交通システム、インフラシステムおよびインフラ情報処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020037400A (ja) 2018-08-31 2020-03-12 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 車両インフラ協調に基づく路側感知システムおよびその車両制御方法

Also Published As

Publication number Publication date
US20220206502A1 (en) 2022-06-30
CN114670840A (zh) 2022-06-28
JP7166325B2 (ja) 2022-11-07
JP2022100793A (ja) 2022-07-06

Similar Documents

Publication Publication Date Title
DE102021211882A1 (de) Sichtschattenschätzvorrichtung, Fahrzeugfahrsystem und Sichtschattenschätzverfahren
DE102017116088B4 (de) Vorrichtung und Verfahren zum Abschätzen einer Position eines Fahrzeugs
DE102020105639A1 (de) Vorrichtung und Verfahren zum Schätzen einer Position in einem automatisierten Parkdienstsystem
DE102007041121B4 (de) Verfahren und Vorrichtung zum Verarbeiten von Sensordaten für ein Fahrerassistenzsystem eines Fahrzeugs
DE102019114511A1 (de) Radar-odometrie für ein fahrzeug
DE102015214338A1 (de) Bestimmung einer Anordnungsinformation für ein Fahrzeug
EP3577420B1 (de) Verfahren und vorrichtung zur aktualisierung einer digitalen karte
DE102018116633A1 (de) Vorrichtung und verfahren zum steuern einer fahrmodusumschaltung eines fahrzeugs und fahrzeugsystem
WO2020216559A1 (de) Verfahren zur erkennung einer funktionsfähigkeit eines umgebungssensors, steuergerät und fahrzeug
DE112014004163T5 (de) Vorrichtung zur Erkennung eines dreidimensionalen Objekts, Verfahren zur Erkennung eines dreidimensionalen Objekts und Fahrzeug
DE112016006616T5 (de) Peripherieerkennungseinrichtung, Peripherieerkennungsverfahren und Peripherieerkennungsprogramm
DE102019119204A1 (de) Assistenzsteuerungssystem
DE102017125356A1 (de) Positionsberechnungsvorrichtung
DE102016003261A1 (de) Verfahren zur Selbstlokalisierung eines Fahrzeugs in einer Fahrzeugumgebung
DE112015007054T5 (de) Fahrunterstützungsvorrichtung, fahrunterstützungssystem, fahrunterstützungsverfahren und fahrunterstützungsprogramm
DE112018007134T5 (de) Fahrassistenzssystem, fahrassistenzverfahren und fahrassistenzprogramm
DE112021003371T5 (de) Fahrzeugpositionsschätzvorrichtung und Fahrpositionsschätzverfahren
DE102014207694A1 (de) Verfahren zum Evaluieren der Errechnung von Umfeldmodellen durch Fahrzeuge
DE102015225577A1 (de) Verbessertes Verfahren zum Ermitteln der Randbebauung einer Fahrbahn für die Lokalisierung von Kraftfahrzeugen
DE112019007757T5 (de) Informationsverarbeitungseinrichtung, Informationsverarbeitungssystem, Informationsverarbeitungsverfahren und Informationsverarbeitungsprogramm
EP3637311A1 (de) Vorrichtung und verfahren zum ermitteln von höheninformationen eines objekts in einer umgebung eines fahrzeugs
DE102019126116A1 (de) Vorrichtung zum Informieren über eine Fahrspur und Steuerverfahren hierfür
DE102021201273A1 (de) Sensorsystem zur Erfassung des Umfelds von wenigstens einer ersten und einer zweiten miteinander schwenkbar gekoppelten Fahrzeugeinheit
DE102020118318A1 (de) Verfahren und Vorrichtung zur Erkennung eines Verkehrsknotenpunktes auf Basis von Trajektoriendaten
DE102021124240B4 (de) Verfahren und Vorrichtung zum Ermitteln von Positions- und Orientierungs-Koordinaten von an einem Fahrzeug fest angeordneten Sensoren

Legal Events

Date Code Title Description
R012 Request for examination validly filed