DE112016006616T5 - Peripherieerkennungseinrichtung, Peripherieerkennungsverfahren und Peripherieerkennungsprogramm - Google Patents

Peripherieerkennungseinrichtung, Peripherieerkennungsverfahren und Peripherieerkennungsprogramm Download PDF

Info

Publication number
DE112016006616T5
DE112016006616T5 DE112016006616.3T DE112016006616T DE112016006616T5 DE 112016006616 T5 DE112016006616 T5 DE 112016006616T5 DE 112016006616 T DE112016006616 T DE 112016006616T DE 112016006616 T5 DE112016006616 T5 DE 112016006616T5
Authority
DE
Germany
Prior art keywords
moving body
detection
control unit
allocation rate
calculation resources
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112016006616.3T
Other languages
English (en)
Inventor
Takafumi Kasuga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112016006616T5 publication Critical patent/DE112016006616T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Eine Kontrolleinheit (21) ermittelt eine Zuweisungsrate von Berechnungsressourcen, die zuzuweisen sind zu jedem einer Vielzahl von Erfassungsprozessen des Analysierens von Sensordaten, ausgegeben von einer Vielzahl von Sensoren, die einen Bereich rund um einen bewegten Körper (100) beobachten, auf Grundlage einer Bewegungsumgebung des bewegten Körpers (100), wie z. B. die Art der Straße, wo der bewegte Körper (100) fährt, Verhalten des bewegten Körpers (100) und Sicht vom bewegten Körper (100). Eine Detektionseinheit (22) erkennt ein Objekt im Bereich um den bewegten Körper (100), unter Verwendung, für einen entsprechenden Erfassungsprozess, von Berechnungsressourcen einer zugewiesenen Menge, spezifiziert auf Grundlage der Zuweisungsrate, ermittelt von der Kontrolleinheit (21).

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf eine Methode zum Erkennen eines Objektes, präsent in einem Bereich um einen bewegten Körper.
  • Hintergrund zum Stand der Technik
  • Fahrerassistenzsysteme, wie ein Spurhalteassistent (LDW), ein Fußgänger-Erkennungs-System (PD) und eine Adaptive Geschwindigkeitsregelanlage (ACC) werden entwickelt oder kommerzialisiert mit dem Ziel, das Fahren durch Autofahrer und die präventive Sicherheit zu unterstützen. Weiterhin werden autonome Fahrsysteme, die anstelle der Autofahrer das Fahren von Teilen des Weges oder des ganzen Weges zum Ziel übernehmen, entwickelt.
  • Die Fahrerassistenzsysteme und die autonomen Fahrsysteme werden realisiert auf Grundlage des Zustands eines Bereichs rund um ein Fahrzeug, erkannt durch einen Sensor oder ähnliches. Folglich, um die Genauigkeit der Fahrerassistenzsysteme und der autonomen Fahrsysteme zu erhöhen, muss der Zustand des Bereichs um ein Fahrzeug genau erkannt werden.
  • Generell, laut eines Erfassungsprozesses des Analysierens von Sensordaten, ausgegeben von einem Sensor, ist eine große Menge von Berechnungsressourcen nötig, um die Detektionsgenauigkeit zu erhöhen. Die Detektionsgenauigkeit zu erhöhen, bedeutet, einen Erfassungszyklus zu reduzieren, einen Erfassungsbereich zu erhöhen und die Detektionsauflösung zu erhöhen.
  • Insbesondere bei den Fahrerassistenzsystemen und den autonomen Fahrsystemen muss das Erfassen für eine Vielzahl an Sensordaten gleichzeitig erfolgen und so entsteht ein Problem des Mangels an Berechnungsressourcen.
  • Patentliteratur 1 beschreibt das Festlegen einer Prioritätenfolge einer Vielzahl von Sensoren, die verschiedene Räume rund um ein Fahrzeug überwachen, auf der Grundlage von einem, einem Fahrzustand eines Fahrzeugs und einem Zustand eines Fahrers eines Fahrzeugs, und beschreibt das Kontrollieren von einem Betrieb eines Sensors und das Verarbeiten der Information, ausgegeben von einem Sensor, auf Grundlage der Prioritätenfolge. In Patentliteratur 1 wird dadurch die Erkennung des Bereichs rund um das Fahrzeug ausgeführt, die Last auf eine Zentraleinheit (CPU) und ein fahrzeuginternes lokales Netzwerk reduzierend, im Falle der Verwendung einer Vielzahl von Sensoren.
  • Referenzliste
  • Patentliteratur
  • Patentliteratur 1: WO 2010/140239 A
  • Beschreibung der Erfindung
  • Technisches Problem
  • Jedoch, laut der Technik von Patentliteratur 1, wird eine große Menge an Berechnungsressourcen verwendet für einen Erfassungsprozess mit einer hohen Priorität, und Berechnungsressourcen, die einem Erfassungsprozess mit niedriger Priorität zuzuweisen sind, sind unzureichend. Als Folge wird ein Objekt, das erkannt werden soll, möglicherweise nicht erkannt.
  • Die vorliegende Erfindung hat zum Ziel, ein Objekt im Bereich um den bewegten Körper angemessen innerhalb verfügbarer Berechnungsressourcen zu erkennen.
  • Lösung des Problems
  • Eine Peripherieerkennungseinrichtung gemäß der vorliegenden Erfindung beinhaltet:
    • eine Kontrolleinheit zum Bestimmen, auf Grundlage einer Bewegungsumgebung eines bewegten Körpers, einer Zuweisungsrate von Berechnungsressourcen, die zuzuweisen sind zu jeder einer Vielzahl von Erfassungsprozessen des Analysierens von Sensordaten, ausgegeben von einer Vielzahl von Sensoren, die den Bereich um den bewegten Körper beobachten; und
    • eine Detektionseinheit zum Detektieren eines Objektes im Bereich um den bewegten Körper, unter Verwendung, für einen entsprechenden Erfassungsprozess, von Berechnungsressourcen in einer zugewiesenen Menge spezifiziert auf Grundlage der Zuweisungsrate, bestimmt durch die Kontrolleinheit.
  • Vorteilhafte Effekte der Erfindung
  • Die vorliegende Erfindung legt eine Zuweisungsrate von Berechnungsressourcen für jeden Erfassungsprozess für eine Bewegungsumgebung eines bewegten Körpers fest und erkennt ein Objekt unter Verwendung einer zugewiesenen Menge an Berechnungsressourcen, spezifiziert durch die festgelegte Zuweisungsrate. Ein Objekt im Bereich um den bewegten Körper kann damit angemessen erkannt werden, innerhalb verfügbarer Berechnungsressourcen.
  • Figurenliste
    • 1 ist ein Schaltschema einer Peripherieerkennungseinrichtung 10 gemäß einer ersten Ausführungsform.
    • 2 ist ein Flussdiagramm eines grundlegenden Betriebs der Peripherieerkennungseinrichtung 10 gemäß der ersten Ausführungsform.
    • 3 ist ein Flussdiagramm eines Ressourcenkontrollprozesses gemäß der ersten Ausführungsform.
    • 4 ist eine erläuternde Darstellung einer Betätigungsfläche gemäß der ersten Ausführungsform.
    • 5 ist eine Zuweisungsratentabelle 411, darstellend eine Zuweisungsrate von Berechnungsressourcen, erforderlich für jeden Genauigkeitsgrad eines Erfassungsprozesses, gemäß der ersten Ausführungsform.
    • 6 ist eine Verteilungstabelle 412, darstellend Verteilung von Berechnungsressourcen gemäß einer Fahrumgebung, gemäß der ersten Ausführungsform.
    • 7 ist ein Flussdiagramm eines Ressourcenkontrollprozesses gemäß einer zweiten Ausführungsform.
    • 8 ist eine erläuternde Darstellung einer Risikoverteilung gemäß der zweiten Ausführungsform.
    • 9 ist eine erläuternde Darstellung einer Risikoverteilung gemäß der zweiten Ausführungsform.
    • 10 ist ein Schaltschema einer Peripherieerkennungseinrichtung 10 gemäß einer dritten Ausführungsform.
    • 11 ist ein Flussdiagramm eines Ressourcenkontrollprozesses gemäß der dritten Ausführungsform.
    • 12 ist eine Zuweisungsratentabelle 411, darstellend eine Zuweisungsrate von Berechnungsressourcen, benötigt für jedes Genauigkeitslevel eines Erfassungsprozesses, gemäß der dritten Ausführungsform.
    • 13 ist eine erläuternde Darstellung eines Datenkreislaufs 43 gemäß der dritten Ausführungsform.
  • Beschreibung von Ausführungsformen
  • Erste Ausführungsform
  • ***Konfigurationsbeschreibung***
  • Bezug nehmend auf 1, wird eine Konfiguration einer Peripherieerkennungseinrichtung 10 gemäß einer ersten Ausführungsform beschrieben werden.
  • 1 veranschaulicht einen Zustand, wo die Peripherieerkennungseinrichtung 10 an einem bewegten Körper 100 befestigt ist. Der bewegte Körper 100 ist ein Kraftfahrzeug, ein Wasserfahrzeug oder ein Fußgänger. In der ersten Ausführungsform ist der bewegte Körper 100 ein Kraftfahrzeug.
  • Darüber hinaus kann die Peripherieerkennungseinrichtung 10 befestigt werden, indem sie im bewegten Körper oder anderen dargestellten Strukturelementen eingebaut oder untrennbar davon ist, oder sie kann befestigt werden, indem sie abnehmbar oder trennbar von dem bewegten Körper 100 oder anderen dargestellten Strukturelementen ist.
  • Die Peripherieerkennungseinrichtung 10 ist ein Computer, der am bewegten Körper 100 befestigt ist.
  • Die Peripherieerkennungseinrichtung 10 beinhaltet Teile von Hardware, inklusive einem Prozessor 11, einem Speicher 12, einer Sensorschnittstelle 13 und einer Kommunikationsschnittstelle 14. Der Prozessor 11 ist mit anderen Teilen von Hardware über ein Bussystem verbunden und kontrolliert die anderen Hardwareteile.
  • Der Prozessor 11 ist ein integrierter Schaltkreis zum Ausführen der Verarbeitung. Spezifische Beispiele des Prozessors 11 beinhalten eine Zentraleinheit (CPU), eine digitale Signalverarbeitung (DSP - digital signal processor) und eine graphische Datenverarbeitung (GPU -graphics processing unit).
    1 veranschaulicht nur einen Prozessor 11. Es können jedoch eine Vielzahl von Prozessoren bereitgestellt werden und die Vielzahl an Prozessoren 11 kann das Ausführen eines Programms zur Realisierung jeder Funktion koordinieren. In der ersten Ausführungsform beinhaltet der Prozessor 11 eine CPU, eine DSP und eine GPU, und diese koordinieren sich zum Ausführen eines Programms zur Realisierung jeder Funktion.
  • Die CPU ist ein Prozessor zum Ausführen von Programmen und zum Durchführen von Verarbeitung, wie z. B. Datenberechnung.
  • Die DSP ist ein Prozessor, dediziert für digitale Signalverarbeitung, wie z. B. arithmetische Berechnung und Datentransfer. Zum Beispiel wird das Verarbeiten eines Digitalsignals, wie das Erfassen von Sensordaten, erlangt von einem Sonargerät, bevorzugt mit hoher Geschwindigkeit durch die DSP verarbeitet, statt durch die CPU.
  • Die GPU ist ein Prozessor, dediziert für das Verarbeiten von Bildern, und ist ein Prozessor, der schnelle Verarbeitung durch Verarbeiten einer Vielzahl von Teilen von Pixel-Daten parallel vornimmt, und der in der Lage ist, Prozesse wie Template-Matching, was regelmäßig in der Bildverarbeitung verwendet wird, mit hoher Geschwindigkeit durchzuführen. Wenn zum Beispiel das Erfassen von Sensordaten, erlangt von einer Kamera, von einer CPU durchgeführt wird, wird die Verarbeitungszeit sehr lang und somit werden solche Auswertungen bevorzugt von der GPU durchgeführt.
  • Der Speicher 12 ist mit einem permanenten Speicher konfiguriert, der in der Lage ist, Ausführungsprogramme und Daten zu halten, wenn der Strom der Peripherieerkennungseinrichtung 10 ausgeschaltet ist, und mit einem nicht-permanenten Speicher, der in der Lage ist, Daten mit hoher Geschwindigkeit während eines Betriebs der Peripherieerkennungseinrichtung 10 zu transferieren. Spezifische Beispiele des permanenten Speichers beinhalten ein Festplattenlaufwerk (HDD), ein Solid-State-Laufwerk (SSD) und einen Flash-Speicher. Spezifische Beispiele des nicht-permanenten Speichers beinhalten einen DDR2-SDRAM (double-data-rate2 synchronous dynamic random access memory) und einen DDR3-SDRAM (double-data-rate3 synchronous dynamic random access memory). Der permanente Speicher kann ein tragbares Speichermedium sein, wie eine sichere digitale Speicherkarte (SD), ein Compact-Flash (CF), ein NAND-Flash, eine flexible Platte, eine optische Platte, eine CD, eine Blu-ray-Disc (eingetragene Marke) oder eine DVD.
  • Der Speicher 12 ist verbunden mit dem Prozessor 11 über eine Speicherschnittstelle. Die Speicherschnittstelle ist eine Einrichtung zum Ausführen von effizienter Speicherzugangskontrolle durch kollektives Kontrollieren der Speicherzugriffe von Prozessor 11. Die Speicherschnittstelle wird verwendet für Verarbeitung, wie z. B. Datentransfer zwischen funktionalen Elementen, wie später beschrieben, und das Schreiben der Sensordaten in den Speicher 12.
  • Die Sensorschnittstelle 13 ist eine Einrichtung zum Verbinden eines Sensors 31, befestigt auf dem bewegten Körper 100. Spezifische Beispiele der Sensorschnittstelle 13 beinhalten eine Endstelle einer Schnittstelle, kompatibel mit Kommunikationsstandards wie Ethernet (eingetragene Marke), I-Quadrat-C (I2C), Serial Peripheral Interface (SPI), Videosignalen und CAN-Bus.
  • Eine Vielzahl von Sensoren 31, zum Observieren des Bereichs um den bewegten Körper 100, wird auf dem bewegten Körper 100 befestigt. Spezifische Beispiele des Sensors 31 beinhalten eine Kamera, ein Sonargerät, einen Lasersensor und einen Global-Positioning-Sensor (GPS). Die Typen und Zahl der Sensoren 31 werden festgelegt gemäß der erforderlichen Objektdetektionsgenauigkeit und Kosten.
  • Die Kommunikationsschnittstelle 14 ist eine Einrichtung zum Verbinden eines Kontrollgerätes 32 (ECU), befestigt auf dem bewegten Körper 100. Spezifische Beispiele der Kommunikationsschnittstelle beinhalten Endstellen von Ethernet, CAN-Bus, RS232C, USB und IEEE1394.
  • Das Kontrollgerät 32 ist eine Einrichtung zum Erwerben von Fahrzeuggeschwindigkeitsinformation, die die Geschwindigkeit des bewegten Körpers 100 anzeigt, von Einschlagwinkelinformation und Temperaturinformation, die die Temperatur des Bereichs um den bewegten Körper 100 anzeigt.
  • Die Peripherieerkennungseinrichtung 10 beinhaltet eine Kontrolleinheit 21 und eine Detektionseinheit 22 als funktionale Bauelemente. Die Detektionseinheit 22 beinhaltet eine Erfassungseinheit 23, eine Integrationseinheit 24, eine Standortspezifizierungseinheit 25 und eine Erkannte-Information-Generierungseinheit 26. Funktionen der Kontrolleinheit 21, der Detektionseinheit 22, der Erfassungseinheit 23, der Integrationseinheit 24, der Standortspezifizierungseinheit 25 und der Erkannte-Information-Generierungseinheit 26 werden von Software durchgeführt.
  • Programme zum Durchführen der Funktionen entsprechender Einheiten werden im Speicher 12 gespeichert. Die Programme werden gelesen und ausgeführt vom Prozessor 11.
  • Der Speicher 12 speichert auch Ressourceninformation 41 und Kartendaten 42. Die Ressourceninformation 41 beinhaltet eine Zuweisungsratentabelle 411, die eine Zuweisungsrate von Berechnungsressourcen anzeigt, benötigt für jedes Genauigkeitslevel des Erfassungsprozesses, und eine Verteilungstabelle 412, die Verteilung von Berechnungsressourcen gemäß der Fahrumgebung anzeigend. Die Kartendaten 42 sind konfiguriert aus statischen Kartendaten und dynamischen Kartendaten. Die statischen Kartendaten zeigen die Zahl der Spuren auf einer Straße, die Breite einer Spur, ein Profil, eine Steigung, ein Straßenschild, eine Ampel und ähnliches an. Die dynamischen Kartendaten zeigen eine Situation an, die sich dynamisch ändert und sind Verkehrsstörungsinformationen, Vorschrifteninformationen, Verkehrsunfallinformationen, Straßenbauinformationen und ähnliches.
  • Informationen, Daten, Signalwerte und variable Werte zeigen Verarbeitungsergebnisse der Funktionen der Einheiten der Peripherieerkennungseinrichtung 10 an und werden in Speicher 12 oder einem Verzeichnis oder einem Cache-Speicher im Prozessor 11 gespeichert. In der folgenden Beschreibung wird vorausgesetzt, dass Informationen, Daten, Signalwerte und variable Werte, die Verarbeitungsergebnisse der Funktionen der Einheiten der Peripherieerkennungseinrichtung 10 anzeigen, im Speicher 12 gespeichert werden.
  • Weiterhin ist die Peripherieerkennungseinrichtung 10 verbunden mit einer Prognoseeinrichtung 33, befestigt am bewegten Körper 100. Die Prognoseeinrichtung 33 ist eine Einrichtung zum Schätzen einer Risikoverteilung und einer Umgebungssituation aus Informationen, erkannt durch die Peripherieerkennungseinrichtung 10, und zum Ermitteln von Fahrdetails des bewegten Körpers 100 aus der geschätzten Risikoverteilung und Umgebungssituation. Darüber hinaus ist die Prognoseeinrichtung 33 eine Einrichtung zum Führen des bewegten Körpers 100 gemäß der ermittelten Fahrdetails.
  • Die Risikoverteilung zeigt eine Position und ein Level eines Risikos an, mit dem Standort des bewegten Körpers 100 als Ausgangspunkt. Die Umgebungssituation zeigt Verhalten, Bewegung, Beschleunigung / Verlangsamung und ähnliches eines Objektes im Bereich des bewegten Körpers 100 an. Die Fahrdetails zeigen eine Reiseroute, eine Spur, einen Spurwechselstandort und ähnliches an.
  • ***Betriebsbeschreibung***
  • Bezug nehmend auf 2 bis 6, wird ein Betrieb der Peripherieerkennungseinrichtung 10 gemäß der ersten Ausführungsform beschrieben.
  • Ein Betrieb der Peripherieerkennungseinrichtung 10 gemäß der ersten Ausführungsform entspricht einem Peripherieerkennungsverfahren gemäß der ersten Ausführungsform. Weiterhin entspricht der Betrieb der Peripherieerkennungseinrichtung 10 gemäß der ersten Ausführungsform dem Verarbeiten eines Peripherieerkennungsprogramms gemäß der ersten Ausführungsform.
  • Bezug nehmend auf 2 wird ein grundlegender Betrieb der Peripherieerkennungseinrichtung 10 gemäß der ersten Ausführungsform beschrieben.
  • (Schritt S11: Ressourcenkontrollprozess)
  • Die Kontrolleinheit 21 ermittelt eine Zuweisungsrate von Berechnungsressourcen, die zuzuweisen sind zu jedem einer Vielzahl von Erfassungsprozessen des Analysierens von Sensordaten, ausgegeben von einer Vielzahl von Sensoren, zum Observieren des Bereichs um den bewegten Körper.
  • In der ersten Ausführungsform sind die Berechnungsressourcen der Prozessor 11 und der Speicher 12. Dementsprechend zeigt die Zuweisungsrate von Berechnungsressourcen ein Verhältnis einer zugewiesenen Menge zu verfügbaren Kapazitäten des Prozessors 11 und des Speichers 12.
  • (Schritt S12: Erfassungsprozess)
  • Die Erfassungseinheit 23 führt das Erfassen von Sensordaten, ausgegeben vom Sensor 31, durch, unter Verwendung von Berechnungsressourcen einer zugewiesenen Menge für die entsprechende Erfassung, spezifiziert auf Grundlage der Zuweisungsrate, ermittelt in Schritt S11, und erkennt Objekte, wie z. B. Hindernisse und Verkehrsschilder, in einem Überwachungsbereich. Die Erfassungseinheit 23 generiert Erfassungsinformation, ein detektiertes Objekt anzeigend.
  • Speziell analysiert zum Beispiel die Erfassungseinheit 23 Bilddaten, welche Sensordaten sind, ausgegeben von zwei Frontkameras, zum Erfassen der Vorderseite des bewegten Körpers 100, und detektiert ein Objekt, angezeigt durch die Bilddaten. Weiterhin detektiert die Erfassungseinheit 23 eine Entfernung zum detektierten Objekt durch eine Stereomethode, auf Grundlage der Bilddaten, ausgegeben von jeder der zwei Frontkameras. Dann generiert die Erfassungseinheit 23 die Erfassungsinformation, das detektierte Objekt und die spezifizierte Entfernung zum Objekt anzeigend.
  • (Schritt S13: Integrationsprozess)
  • Die Integrationseinheit 24 integriert die Erfassungsinformation, generiert in Schritt S12, und generiert integrierte Information mit einer großen Menge an Information und mit hoher Genauigkeit.
  • Speziell wird zum Beispiel angenommen, dass die Anwesenheit einer Person ca. 10 Meter vorweg spezifiziert ist, in Schritt S12, als Folge des Ausführens von Erfassung an den Bilddaten, ausgegeben von den zwei Frontkameras. Zudem wird angenommen, dass die Anwesenheit eines Hindernisses 10,2 Meter vorweg spezifiziert ist, in Schritt S12, als Folge des Ausführens von Erfassung an Sensordaten, ausgegeben von einem Lasersensor. In diesem Fall integriert die Integrationseinheit 24 die zwei Teile der Erfassungsinformation und generiert integrierte Information, die die Anwesenheit einer Person 10,2 Meter vorweg anzeigt.
  • (Schritt S14: Standortspezifizierungsprozess)
  • Die Standortspezifizierungseinheit 25 spezifiziert Standort und Ausrichtung des bewegten Körpers 100 auf Grundlage verschiedener Informationen über den bewegten Körper 100, erworben vom Kontrollgerät 32 durch die Kommunikationsschnittstelle 14, die Erfassungsinformation, generiert in Schritt S12, und die Kartendaten 42, gespeichert im Speicher 12.
  • Speziell spezifiziert zum Beispiel die Standortspezifizierungseinheit 25 auf Grundlage eines Standortes, angezeigt durch die Erfassungsinformation und die Kartendaten 42 für den Standort, dass der bewegte Körper 100 auf einer Spur nächstmöglich zur Mitte fährt, auf einer Straße mit drei Spuren in jeder Richtung. Weiterhin spezifiziert die Standortspezifizierungseinheit 25 auf Grundlage des Einschlagwinkels Informationen, enthalten in den Informationen, erworben von dem Kontrollgerät 32, dass der bewegte Körper 100 zwei Grad nach rechts geneigt ist.
  • (Schritt S15: Erkannte-Information-Generierungsprozess)
  • Die Erkannte-Information-Generierungseinheit 26 generiert, auf Grundlage der integrierten Information, generiert in Schritt S13, und dem Standort und der Ausrichtung, spezifiziert in Schritt S14, erkannte Information und kartographiert dabei Standort, Attribut und Größe eines Objekts, wie z. B. ein Hindernis, ein Verkehrsschild oder eine Ampel in einem dreidimensionalen Raum um den bewegten Körper 100.
  • Spezifische Beispiele des Attributs beinhalten eine Person, ein Verkehrsschild, eine Ampel, ein entgegenkommendes Fahrzeug, ein Fahrzeug vorweg und ähnliches. Zusätzlich kann, im Falle eines Objektes, dessen Zustand sich ändert, wie z. B. eine Ampel, der Zustand des Objektes, oder die Farbe im Falle der Ampel, als Attribut mit eingeschlossen werden. Speziell ist zum Beispiel ein dreidimensionaler Raum ein dreidimensionaler Raum, welcher eine Fahrtrichtung als eine X-Achse annimmt, eine laterale Richtung als eine Y-Achse und eine vertikale Richtung als eine Z-Achse mit einem bestimmten Punkt auf dem bewegten Körper 100 als Ausgangspunkt. Durch Kartographieren von Informationen, erlangt durch die Vielzahl von Erfassungsprozessen in einem räumlichen Koordinatensystem, kann angezeigt werden, welches Objekt zugegen ist, in welchem Zustand und an welchem Standort, aus Sicht des bewegten Körpers 100.
  • Prozesse von Schritt S12 bis Schritt S15 werden gesammelt als Detektionsprozess bezeichnet.
  • Dann schätzt die Prognoseeinrichtung 33 die Risikoverteilung und die Umgebungssituation auf Grundlage der erkannten Information, generiert in Schritt S15, und ermittelt Fahrtdetails des bewegten Körpers 100 aus der geschätzten Risikoverteilung und Umgebungssituation. Dann führt die Prognoseeinrichtung 33 den bewegten Körper 100 auf Grundlage der ermittelten Fahrtdetails.
  • Bezug nehmend auf 3 wird der Ressourcenkontrollprozess in Schritt S11 gemäß der ersten Ausführungsform beschrieben.
  • (Schritt S21: Initialisierungsprozess)
  • Beginnt die Peripherieerkennungseinrichtung 10 mit der Verarbeitung, liest die Kontrolleinheit 21 aus der Ressourceninformation 41 einen Anfangswert einer Zuweisungsrate von Berechnungsressourcen, zugewiesen zu jedem einer Vielzahl von Erfassungsprozessen. Dann ermittelt die Kontrolleinheit 21 den Anfangswert, der als Zuweisungsrate von Berechnungsressourcen ausgegeben wird.
  • In der ersten Ausführungsform wird eine Beschreibung eines Beispiels gegeben, wo der Bereich um ein Fahrzeug, welches der bewegte Körper 100 ist, klassifiziert ist in die vier Bereiche vorne, hinten, links und rechts, und in jedem Bereich Erfassung durch einen Sensor ausgeführt wird. In der unten stehenden Beschreibung wird die Erfassung an der Vorderseite als „Erfassung vorne“, Erfassung auf der linken Seite als „Erfassung links“, Erfassung auf der rechten Seite als „Erfassung rechts“ und Erfassung auf der Hinterseite als „Erfassung hinten“ bezeichnet. Wie in 5 dargestellt, liest die Kontrolleinheit 21 aus der Zuweisungsratentabelle 411 in der Ressourceninformation 41 die Zuweisungsrate für das Level an Genauigkeit, festgelegt als Anfangswert für jeden der Vielzahl an Erfassungsprozessen. Zum Beispiel wird die Zuweisungsrate für Klasse A jeweils für die Erfassung vorne, Erfassung links, Erfassung rechts und die Erfassung hinten ausgegeben.
  • Dann wird Schritt S12 in 2 ausgeführt, auf Grundlage der zugewiesenen Mengen, spezifiziert von den ermittelten Zuweisungsraten von Berechnungsressourcen. Dann werden Schritte S13 bis S15 in 2 entsprechend ausgeführt.
  • (Schritt S22: Zuweisungsratenleseprozess)
  • Die Kontrolleinheit 21 ermittelt die Zuweisungsrate von Berechnungsressourcen entsprechend einer Bewegungsumgebung des bewegten Körpers 100. Die Bewegungsumgebung des bewegten Körpers 100 zeigt mindestens eines an von der Art der Straße, auf der der bewegte Körper 100 fährt, dem Verhalten des bewegten Körpers 100 und der Sichtverhältnisse des bewegten Körpers 100.
  • Speziell, wie in 6 dargestellt, gibt die Kontrolleinheit 21 für jeden der Vielzahl an Erfassungsprozessen aus der Verteilungstabelle 412 in der Ressourceninformation 41 eine Klasse entsprechend der Art der Straße, dem Verhalten und der Sichtverhältnisse aus, welche die Bewegungsumgebung des bewegten Körpers 100 ausmachen. Speziell zum Beispiel im Fall, wo der bewegte Körper 100 sich geradlinig auf einer Ortsstraße bewegt und die Sichtverhältnisse dank guten Wetters und Tageslichts gut sind, gibt die Kontrolleinheit 21 Klassen für die Vielzahl an Erfassungsprozessen in Verarbeitungsklasse 1 in 6 aus. Das bedeutet, die Kontrolleinheit 21 gibt Klasse C für die Erfassung vorne, Klasse A für die Erfassung links, Klasse A für die Erfassung rechts und Klasse C für die Erfassung hinten aus.
  • In der ersten Ausführungsform ist die Bewegungsumgebung des bewegten Körpers 100 spezifiziert auf Grundlage verschiedener Informationen über den bewegten Körper 100, wie z. B. die Fahrzeuggeschwindigkeitsinformation, die Einschlagwinkelinformation und die Temperaturinformation, und einer Umgebung um den bewegten Körper 100, erworben von dem Kontrollgerät 32 durch die Kommunikationsschnittstelle 14, den Standort und die Ausrichtung des bewegten Körpers 100, spezifiziert in Schritt S14 durch die Standortspezifizierungseinheit 25, die erkannte Information, generiert in Schritt S15 durch die Erkannte-Information-Generierungseinheit 26 und die umgebende Situation, ermittelt durch die Prognoseeinrichtung 33.
  • Zum Beispiel spezifiziert die Kontrolleinheit 21 die Art der Straße, auf der der bewegte Körper 100 unterwegs ist, auf Grundlage des Standorts des bewegten Körpers 100. Zu diesem Zeitpunkt kann die Kontrolleinheit 21 die Art der Straße spezifizieren, indem sie Bezug nimmt auf die Kartendaten 42. Weiterhin spezifiziert die Kontrolleinheit 21 das Verhalten des bewegten Körpers 100 auf Grundlage der Geschwindigkeit und des Einschlagwinkels des bewegten Körpers 100, angezeigt durch verschiedene Informationen über den bewegten Körper 100, und der Umgebung um den bewegten Körper 100, dem Standort und der Ausrichtung des bewegten Körpers 100, der erkannten Information und der umgebenden Situation. Weiterhin spezifiziert die Kontrolleinheit 21 die Sichtverhältnisse auf Grundlage der Temperatur oder ähnlichem, angezeigt durch verschiedene Informationen über den bewegten Körper 100, und der Umgebung um den bewegten Körper 100. Zu diesem Zeitpunkt kann die Kontrolleinheit 21 von einem externen Server oder ähnlichem Wetterinformationen für einen Bereich beziehen, der den Standort des bewegten Körpers 100 beinhaltet, und kann sich auf die Wetterinformationen beziehen und die Sichtverhältnisse spezifizieren.
  • (Schritt S23: Zuweisungsänderungsprozess)
  • Die Kontrolleinheit ändert die Zuweisungsrate von Berechnungsressourcen, zugewiesen zu jedem einer Vielzahl von Erfassungsprozessen, zu einer Zuweisungsrate von Berechnungsressourcen, ermittelt in Schritt S22.
  • Dann wird Schritt S12 in 2 ausgeführt, gemäß den Zuweisungsraten von Berechnungsressourcen nach Änderung. Dann werden entsprechend die Schritte S13 bis S15 in 2 ausgeführt.
  • (Schritt S24: Fortführungsermittlungsprozess)
  • Die Kontrolleinheit 21 ermittelt, ob oder ob nicht der Detektionsprozess der Schritte S12 bis S15 in 2 fortgeführt werden soll.
  • Im Falle der Fortführung des Detektionsprozesses, fährt die Kontrolleinheit 21 mit Schritt S25 fort und im Falle der Nicht-Fortführung des Erkennungsprozesses beendet die Kontrolleinheit 21 den Prozess.
  • (Schritt S25: Situationsermittlungsprozess)
  • Die Kontrolleinheit 21 ermittelt ob oder ob nicht die Fahrumgebung geändert wird.
  • Im Fall, dass die Fahrumgebung geändert wird, kehrt die Kontrolleinheit 21 zu Schritt S22 zurück. Im Fall, dass die Fahrumgebung nicht geändert wird, kehrt die Kontrolleinheit zu Schritt S24 zurück.
  • ***Vorteilhafte Effekte der ersten Ausführungsform***
  • Wie oben beschrieben, ermittelt die Peripherieerkennungseinrichtung 10 gemäß der ersten Ausführungsform die Zuweisungsrate von Berechnungsressourcen, die zuzuweisen sind zu jeder einer Vielzahl von Erfassungsprozessen, gemäß der Bewegungsumgebung des bewegten Körpers 100. Ein Objekt im Bereich um den bewegten Körper kann dabei angemessen erkannt werden, innerhalb verfügbarer Berechnungsressourcen.
  • ***Andere Konfigurationen***
  • <Erste Modifikation>
  • In Schritt S25 in 3 kann, hinsichtlich sowohl der Fahrumgebung als auch der Risikoverteilung, das Auftreten einer Veränderung nur ermittelt werden, wenn es eine Veränderung am oder über einem Schwellenwert gibt, und eine subtile Veränderung kann ermittelt werden als keine Veränderung. Regelmäßiges Vorkommen von Umverteilung der Zuweisungsrate von Berechnungsressourcen, verursacht durch Ermittlung von Vorkommen einer Veränderung auf der Grundlage einer subtilen Veränderung, kann dadurch verhindert werden und ineffiziente Erfassungskontrolle kann somit verhindert werden.
  • Zweite Ausführungsform
  • Eine zweite Ausführungsform ist insofern anders als die erste Ausführungsform, als dass die Zuweisungsrate von Berechnungsressourcen ferner ermittelt wird unter Berücksichtigung der Risikoverteilung. Dieser Unterschied wird in der zweiten Ausführungsform beschrieben.
  • ***Betriebsbeschreibung***
  • Bezug nehmend auf die 7 bis 9 wird ein Betrieb der Peripherieerkennungseinrichtung 10 gemäß der zweiten Ausführungsform beschrieben.
  • Ein Betrieb der Peripherieerkennungseinrichtung 10 gemäß der zweiten Ausführungsform entspricht einem Peripherieerkennungsverfahren gemäß der zweiten Ausführungsform. Weiterhin entspricht der Betrieb der Peripherieerkennungseinrichtung 10 gemäß der zweiten Ausführungsform der Verarbeitung eines Peripherieerkennungsprogramms gemäß der zweiten Ausführungsform.
  • Bezug nehmend auf 7, wird ein Ressourcenkontrollprozess entsprechend der zweiten Ausführungsform beschrieben.
  • Prozesse in Schritt S31 und S32 und ein Prozess in Schritt S36 sind die gleichen wie die Prozesse in Schritt S21 und S22 sowie Schritt S24 in 3.
  • (Schritt S33: Wichtigkeitsermittlungsprozess)
  • Die Kontrolleinheit 21 ermittelt ein Wichtigkeitslevel jedes einer Vielzahl von Erfassungsprozessen auf Grundlage einer Risikoverteilung um den bewegten Körper 100, geschätzt von der Prognoseeinrichtung 33. Die Kontrolleinheit 21 ermittelt, dass je höher das Risiko in einem Bereich ist, desto höher ist das Wichtigkeitslevel der Erfassung. Zusätzlich ist die Risikoverteilung nicht darauf beschränkt, von der Prognoseeinrichtung 33 erworben zu werden und kann von einer anderen Einrichtung, wie einer Straßenrandeinrichtung, erworben werden.
  • Die Risikoverteilung zeigt eine Position und ein Level eines Risikos in zweidimensionalen räumlichen Koordinaten oder dreidimensionalen räumlichen Koordinaten an, mit dem bewegten Körper 100 als Anfangspunkt. Speziell wird zum Beispiel das Risikolevel auf Grundlage einer Wahrscheinlichkeit berechnet, dass ein Objekt in eine Reiseroute eindringt, angezeigt durch Fahrtdetails, generiert von der Prognoseeinrichtung 33, und ein Aufpralllevel, im Falle der Kollision. Speziell wird zum Beispiel das Aufpralllevel auf Grundlage der Art des Objekts, der Fahrzeuggeschwindigkeit, des Gewichts und ähnlichem berechnet.
  • Zu diesem Zeitpunkt kann die Kontrolleinheit 21 das Wichtigkeitslevel ermitteln, ferner unter Berücksichtigung der Umgebungssituation, geschätzt durch die Prognoseeinrichtung 33. Die Umgebungssituation zeigt Verhalten, Bewegung, Beschleunigung / Verlangsamung und ähnliches des Objekts im Bereich um den bewegten Körper 100 an.
  • Speziell ist die Risikoverteilung zum Beispiel in einem Fall, wo auf einer Straße mit zwei Spuren in jeder Richtung geradeaus gefahren wird, wie in 8 dargestellt. In 8 wird angezeigt, dass das Risikolevel an schattigen Stellen hoch ist. In 8 werden Stellen, wo ein Fahrzeug vorweg, ein entgegenkommendes Fahrzeug, ein Motorrad hinten und ähnliches, was erkannt wurde, zugegen ist, als Stellen mit hohem Risikolevel dargestellt. Darüber hinaus, als ein anderes spezifisches Beispiel, ist die Risikoverteilung in einem Fall des Rechtsabbiegens an einer Kreuzung wie in 9 dargestellt. Auch in 9 ist angezeigt, dass das Risikolevel an schattigen Stellen hoch ist. In 9 werden Stellen, wo ein entgegenkommendes Fahrzeug und ein folgendes Fahrzeug, die erkannt wurden, zugegen sind und eine Stelle, die verdeckt ist von dem erkannten entgegenkommenden Fahrzeug und die nicht gesehen werden kann, dargestellt als Stellen mit hohem Risikolevel.
  • (Schritt S34: Optimierungsprozess)
  • Die Kontrolleinheit 21 optimiert die Zuweisungsrate von Berechnungsressourcen auf Grundlage der Zuweisungsrate von Berechnungsressourcen, ermittelt in Schritt S32 und des Wichtigkeitslevels, ermittelt in Schritt S33.
  • Speziell optimiert die Kontrolleinheit 21 und ermittelt schließlich die Zuweisungsrate von Berechnungsressourcen durch Erhöhen, hinsichtlich eines Bereichs mit einem hohen Risikolevel, angezeigt durch die Risikoverteilung um den bewegten Körper 100, der Zuweisungsrate von Berechnungsressourcen, ermittelt (provisorisch ermittelt) in Schritt S32.
  • Speziell wird zum Beispiel angenommen, dass Klassen in Verarbeitungsklasse 6 in 6 in Schritt S32 ausgelesen werden. In diesem Fall ist die Erfassung vorne in Klasse I und verwendet 26% der verfügbaren Berechnungsressourcen. Die Erfassung links ist in Klasse I und verwendet 18% der verfügbaren Berechnungsressourcen. Die Erfassung rechts ist in Klasse I und verwendet 18% der verfügbaren Berechnungsressourcen. Die Erfassung hinten ist in Klasse I und verwendet 22% der verfügbaren Berechnungsressourcen. Entsprechend ist der Gesamtumfang von Berechnungsressourcen, verwendet durch die Erfassungsprozesse, 84 % der verfügbaren Berechnungsressourcen.
  • Es wird angenommen, dass die Erfassung vorne, ermittelt in Schritt S33, wichtig ist. In diesem Fall verändert die Kontrolleinheit 21 die Zuweisungsrate von Berechnungsressourcen für die Erfassung vorne zu einer der Zuweisungsraten von Klasse J, Klasse K und Klasse L mit höheren Genauigkeitslevels als dem in Klasse I, ermittelt in Schritt S32. Zu diesem Zeitpunkt wählt die Kontrolleinheit 21 eine Klasse mit dem höchsten Genauigkeitslevel innerhalb einer Spanne aus, in der die Gesamtmenge der Berechnungsressourcen, verwendet durch die Erfassungsprozesse, nicht 100% übersteigt. In diesem Fall liegt die Gesamtmenge bei 92%, selbst bei Klasse L mit dem höchsten Genauigkeitslevel, und übersteigt nicht 100%, und folglich verändert die Kontrolleinheit 21 die Zuweisungsrate von Berechnungsressourcen für die Erfassung vorne zu der Zuweisungsrate in Klasse L.
  • In diesem Fall ist die Erfassung vorne der einzige Erfassungsprozess mit einem hohen Wichtigkeitslevel, aber im Fall, wo zwei oder mehr Erfassungsprozesse bestimmt sind, ein hohes Wichtigkeitslevel zu haben, kann die Kontrolle in solcher Weise ausgeführt werden, dass das Genauigkeitslevel der Erfassung in einem Bereich mit dem höchsten Wichtigkeitslevel so viel wie möglich innerhalb der verfügbaren Berechnungsressourcen erhöht wird, oder in solcher Weise, dass die Genauigkeitslevel in ausgewogener Weise erhöht werden, gemäß den Wichtigkeitslevels.
  • Weiterhin, um Energieverbrauch zu unterbinden, kann die Kontrolleinheit 21 Kontrolle ausführen, um ein Minimum des benötigten Genauigkeitslevels zu erlangen. Das heißt, in der oben stehenden Beschreibung wird eine Klasse mit einem höchsten Genauigkeitslevel ausgewählt innerhalb einer Spanne, in der die Summe der Berechnungsressourcen, verwendet von den Erfassungsprozessen, nicht 100% übersteigt, aber die Kontrolleinheit 21 kann eine Klasse auswählen mit einem Minimum des benötigten Genauigkeitslevels, gemäß des Wichtigkeitslevels.
  • (Schritt S35: Zuweisungsveränderungsprozess)
  • Die Kontrolleinheit 21 verändert die Zuweisungsrate von Berechnungsressourcen, die jedem einer Vielzahl von Erfassungsprozessen zugewiesen sind, zu der Zuweisungsrate von Berechnungsressourcen, endgültig ermittelt in Schritt S35.
  • Dann wird Schritt S12 in 2 ausgeführt, auf Grundlage der zugewiesenen Mengen, spezifiziert von den Zuweisungsraten von Berechnungsressourcen nach Veränderung. Dann werden entsprechend Schritte S13 bis S15 ausgeführt.
  • (Schritt S37: Situationsermittlungsprozess)
  • Die Kontrolleinheit 21 ermittelt, ob oder ob nicht zumindest eine von der Fahrumgebung und der Risikoverteilung verändert werden.
  • Im Fall, wo nur die Fahrumgebung verändert wird oder im Fall, wo beide, die Fahrumgebung und die Risikoverteilung, verändert werden, kehrt die Kontrolleinheit 21 zu Schritt S32 zurück. Im Fall, wo nur die Risikoverteilung verändert wird, kehrt die Kontrolleinheit zu Schritt S33 zurück. Im Fall, wo keine der beiden verändert wird, kehrt die Kontrolleinheit zu Schritt S36 zurück.
  • ***Vorteilhafte Effekte der zweiten Ausführungsform***
  • Wie oben beschrieben, ermittelt die Peripherieerkennungseinrichtung 10 gemäß der zweiten Ausführungsform die Zuweisungsrate von Berechnungsressourcen gemäß der Risikoverteilung um den bewegten Körper. Ein Objekt, nötig, um Risiken zu vermeiden, kann dabei angemessen erkannt werden innerhalb der verfügbaren Berechnungsressourcen.
  • Dritte Ausführungsform
  • Eine dritte Ausführungsform unterscheidet sich von den ersten und zweiten Ausführungsformen insofern, dass entsprechende Funktionen der Einheiten einer Peripherieerkennungseinrichtung 10 von Hardware durchgeführt werden. Eine Beschreibung hinsichtlich dieser Unterscheidung wird gegeben mit Bezug auf die dritte Ausführungsform.
  • In der dritten Ausführungsform werden die Unterschiede zur zweiten Ausführungsform beschrieben, aber einzelne Funktionen der Einheiten können auch in der ersten Ausführungsform von Hardware durchgeführt werden.
  • ***Konfigurationsbeschreibung***
  • Bezugnehmend auf 10 wird eine Konfiguration der Peripherieerkennungseinrichtung 10 gemäß der dritten Ausführungsform beschrieben.
  • Die Peripherieerkennungseinrichtung 10 beinhaltet einen Verarbeitungsschaltkreis 15 anstelle des Prozessors 11.
  • Der Verarbeitungsschaltkreis 15 ist ein elektronischer Schaltkreis zur Realisierung der Funktion jeder Einheit der Peripherieerkennungseinrichtung 10. In 10 ist nur ein Verarbeitungsschaltkreis 15 dargestellt. Allerdings kann es eine Vielzahl von Verarbeitungsschaltkreisen 15 geben und die Vielzahl der Verarbeitungsschaltkreise 15 kann sich zur Realisierung jeder Funktion koordinieren.
  • In der dritten Ausführungsform ist der Verarbeitungsschaltkreis 15 ein Feld-Programmierbare Gitter-Anordnung (FPGA). Die FPGA ist eine Großintegration (LSI), die konfiguriert ist aus einer Vielzahl von Logikblöcken, einer Vielzahl von arithmetischen Blöcken und einer Vielzahl von Block-RAMs (SRAM: static random access memory), und die eine Schaltkreiskonfiguration dynamisch ändern kann durch Wechseln der Konfigurationen der Logikblöcke und durch Routing von Leitungen, die die Elemente verbinden.
  • Der Speicher 12 speichert außerdem Schaltkreisdaten 43. Die Schaltkreisdaten 43 zeigen eine Schaltkreiskonfiguration an zum Durchführen von jedem einer Vielzahl von Erfassungsprozessen.
  • In der dritten Ausführungsform sind Berechnungsressourcen ein Schaltkreis, ausgeführt von einer FPGA. Entsprechend zeigt die zugewiesene Menge, die spezifiziert ist auf Grundlage der Zuweisungsrate von Berechnungsressourcen, den Umfang des Schaltkreises an. Die Schaltkreisdaten 43 zeigen eine Schaltkreiskonfiguration an für jede Klasse von Erfassungsprozessen und den Umfang des Schaltkreises.
  • ***Betriebsbeschreibung***
  • Bezug nehmend auf 11 bis 13, wird ein Betrieb der Peripherieerkennungseinrichtung 10 gemäß der dritten Ausführungsform beschrieben.
  • Ein Betrieb der Peripherieerkennungseinrichtung 10 gemäß der dritten Ausführungsform entspricht einem Peripherieerkennungsverfahren gemäß der dritten Ausführungsform. Darüber hinaus entspricht der Betrieb der Peripherieerkennungseinrichtung 10 gemäß der dritten Ausführungsform der Verarbeitung eines Peripherieerkennungsprogramms gemäß der dritten Ausführungsform.
  • Bezug nehmend auf 11 wird ein Ressourcenkontrollprozess gemäß der dritten Ausführungsform beschrieben.
  • Prozesse von Schritt S42 bis S44 und Prozesse in Schritt S47 und S48 sind die gleichen wie die Prozesse von Schritt S32 bis S34 und die Prozesse in Schritt S36 und S37 in 7.
  • (Schritt S41: Initialisierungsprozess)
  • Wie in der ersten Ausführungsform liest die Kontrolleinheit 21 wenn die Peripherieerkennungseinrichtung 10 mit der Verarbeitung beginnt, aus der Ressourceninformation 41 einen Anfangswert der Zuweisungsrate von Berechnungsressourcen, die zugewiesen sind zu jeder einer Vielzahl von Erfassungsprozessen, ab. Dann ermittelt die Kontrolleinheit 21 den Anfangswert, der ausgelesen wird als die Zuweisungsrate von Berechnungsressourcen. Dann bestimmt die Kontrolleinheit 21 die FPGA so, dass die Schaltkreiskonfiguration, angezeigt durch die Schaltkreisdaten 43 hinsichtlich des Umfangs des Schaltkreises, angezeigt durch die zugewiesene Menge, spezifiziert auf Grundlage der ermittelten Zuweisungsrate, ausgeführt wird für jeden einer Vielzahl von Erfassungsprozessen.
  • Speziell, wie in 12 dargestellt, liest die Kontrolleinheit 21 aus der Zuweisungsratentabelle 411 in der Ressourceninformation 41 die Zuweisungsrate für das Genauigkeitslevel, eingesetzt als der Anfangswert für jeden einer Vielzahl von Erfassungsprozessen, ab. Zum Beispiel wird die Zuweisungsrate für Klasse A ausgegeben für jede der Erfassungen vorne, der Erfassungen links, der Erfassungen rechts und der Erfassungen hinten. Wie in 13 dargestellt, liest die Kontrolleinheit 21 aus der Schaltkreiskonfiguration, angezeigt durch die Schaltkreisdaten 43, Konfigurationsinformation ab, entsprechend des Umfangs des Schaltkreises, angezeigt durch die zugewiesene Menge, spezifiziert auf Grundlage der Zuweisungsrate, die ausgegeben wird für jede der Erfassungen vorne, der Erfassungen links, der Erfassungen rechts und der Erfassungen hinten. Dann setzt die Kontrolleinheit 21 die FPGA so ein, dass die Schaltkreiskonfiguration, angezeigt durch die Konfigurationsinformation, die ausgegeben wurde, ausgeführt wird für jeden einer Vielzahl von Erfassungsprozessen.
  • Dann wird Schritt S12 in 2 ausgeführt durch die FPGA, die festgelegt ist. Dann werden Schritte S13 bis S15 in 2 entsprechend ausgeführt.
  • (Schritt S45: Veränderungsermittlungsprozess)
  • Die Kontrolleinheit 21 berechnet, für jeden einer Vielzahl von Erfassungsprozessen, die Zeit, die benötigt wird, um die FPGA in der Schaltkreiskonfiguration, angezeigt durch die Schaltkreisdaten 43, einzusetzen, mit Bezug auf den Umfang des Schaltkreises, angezeigt durch die zugewiesene Menge, spezifiziert auf Grundlage der Zuweisungsrate von Berechnungsressourcen, final ermittelt in Schritt S44. Dann, im Fall, dass die berechnete Zeit kürzer ist als eine Referenzzeit, bestimmt die Kontrolleinheit 21, die Zuweisungsrate von Berechnungsressourcen zu ändern, und, im Fall, dass die berechnete Zeit länger ist als die Referenzzeit, bestimmt die Kontrolleinheit 21, die Zuweisungsrate von Berechnungsressourcen nicht zu ändern.
  • Im Fall des Veränderns der Zuweisungsrate von Berechnungsressourcen, geht die Kontrolleinheit 21 weiter zu Schritt S46, und im Fall des nicht Veränderns der Zuweisungsrate von Berechnungsressourcen geht die Kontrolleinheit 21 weiter zu Schritt S47.
  • Speziell liest die Kontrolleinheit 21 aus der Zuweisungstabelle 411 in der Ressourceninformation 41, dargestellt in 12, eine Aktualisierungszeit für das Genauigkeitslevel, bestimmt für jeden einer Vielzahl von Erfassungsprozessen, ab. Dann zählt die Kontrolleinheit 21 die Aktualisierungszeiten, die ausgegeben wurden, zusammen. Zum Beispiel wird angenommen, dass die Erfassung vorne verändert wird zu Klasse D, die Erfassung links zu Klasse F, die Erfassung rechts zu Klasse I und die Erfassung hinten zu Klasse E. In diesem Fall beträgt die Aktualisierungszeit für die Erfassung vorne 8 [ms (Millisekunden)], die Aktualisierungszeit für die Erfassung links ist 9 [ms], die Aktualisierungszeit für die Erfassung rechts ist 9 [ms] und die Aktualisierungszeit für die Erfassung hinten ist 7 [ms]. Entsprechend ist die Summe der Aktualisierungszeiten 33 [ms].
  • Dann, im Fall, dass die berechnete Summe der Aktualisierungszeiten kürzer ist als die Referenzzeit, bestimmt die Kontrolleinheit 21, die Zuweisungsrate von Berechnungsressourcen zu ändern und im Fall, dass die berechnete Summe länger ist als die Referenzzeit, bestimmt die Kontrolleinheit 21, die Zuweisungsrate von Berechnungsressourcen nicht zu ändern. Die Referenzzeit wird für jede Fahrumgebung bestimmt. Speziell, zum Beispiel, im Fall des Fahrens an einem sonnigen Tag auf einer Ortsstraße, wo keine Hindernisse sind, wird die Referenzzeit bestimmt, 40 [ms] zu sein.
  • (Schritt S46: Zuweisungsveränderungsprozess)
  • Die Kontrolleinheit 21 verändert die Zuweisungsrate von Berechnungsressourcen, die zugewiesen sind zu jedem einer Vielzahl von Erfassungsprozessen, zu der Zuweisungsrate von Berechnungsressourcen, ermittelt in Schritt S44. Dann setzt die Kontrolleinheit 21 die FPGA so ein, dass die Schaltkreiskonfiguration, angezeigt durch die Schaltkreisdaten 43, in Bezug auf den Umfang des Schaltkreises, angezeigt durch die zugewiesene Menge, spezifiziert auf Grundlage der Zuweisungsrate nach Veränderung, ausgeführt wird für jeden einer Vielzahl von Erfassungsprozessen.
  • Dann wird Schritt S12 in 2 durch die eingesetzte FPGA durchgeführt. Dann werden Schritte S13 bis S15 in 2 entsprechend durchgeführt.
  • ***Vorteilhafte Effekte der Dritten Ausführungsform***
  • Wie oben beschrieben, führt die Peripherieerkennungseinrichtung 10 gemäß der dritten Ausführungsform Erfassung durch Konfigurieren eines Schaltkreises eines Umfangs, angezeigt durch die Zuweisungsrate von Berechnungsressourcen, durch. Entsprechend kann selbst im Fall, dass Erfassung durch einen Schaltkreis ausgeführt wird, ein notwendiges Objekt innerhalb der verfügbaren Berechnungsressourcen angemessen erkannt werden.
  • Obwohl abhängig von der Änderung des Umfangs, ist eine Zeit in der Größenordnung von Millisekunden notwendig, um die Schaltkreiskonfiguration der FPGA zu verändern. Jedoch verändert die Peripherieerkennungseinrichtung 10 gemäß der dritten Ausführungsform nicht die Schaltkreiskonfiguration im Fall, dass die Aktualisierungszeit, notwendig zum Verändern der Schaltkreiskonfiguration, länger ist als die Referenzzeit, ermittelt für jede Bewegungsumgebung. Entsprechend kann das Vorkommen von Verzögerung in der Erkennung eines Objektes, verursacht durch Verändern der Schaltkreiskonfiguration, verhindert werden.
  • ***Andere Konfigurationen***
  • <Zweite Modifikation>
  • In der dritten Ausführungsform wird die Funktion jeder Einheit der Peripherieerkennungseinrichtung 10 von Hardware ausgeführt. Jedoch können in einer zweiten Modifikation eine oder einige der Funktionen der Peripherieerkennungseinrichtung 10 ausgeführt werden durch Hardware und andere Funktionen können ausgeführt werden durch Software. In diesem Fall beinhaltet die Peripherieerkennungseinrichtung 10 beides, den Prozessor 11 und den Verarbeitungsschaltkreis 15.
  • Zusätzlich werden der Prozessor 11, der Speicher 12 und der Verarbeitungsschaltkreis 15 in der oben stehenden Beschreibung gemeinsam bezeichnet als „Verarbeitungsschaltung“. Das heißt, die Funktion jeder Einheit wird ausgeführt von der Verarbeitungsschaltung.
  • Bezugszeichenliste
  • 10: Peripherieerkennungseinrichtung, 11: Prozessor, 12: Speicher, 13: Sensorschnittstelle, 14: Kommunikationsschnittstelle, 15: Verarbeitungsschaltkreis, 21: Kontrolleinheit, 22: Detektionseinheit, 23: Erfassungseinheit, 24: Integrationseinheit, 25: Standortspezifizierungseinheit, 26: Erkannte-Information-Generierungseinheit, 31: Sensor, 32: Kontrollgerät, 33: Prognoseeinrichtung, 41: Ressourceninformation, 42: Kartendaten, 43: Schaltkreisdaten, 100: bewegter Körper.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2010/140239 A [0007]

Claims (9)

  1. Peripherieerkennungseinrichtung umfassend: eine Kontrolleinheit zum Ermitteln, auf Grundlage einer Bewegungsumgebung eines bewegten Körpers, einer Zuweisungsrate von Berechnungsressourcen, die zuzuweisen sind zu jedem einer Vielzahl von Erfassungsprozessen des Analysierens von Sensordaten, ausgegeben von einer Vielzahl von Sensoren, die einen Bereich um den bewegten Körper beobachten; und eine Detektionseinheit zum Detektieren eines Objektes im Bereich um den bewegten Körper unter Verwendung, für einen entsprechenden Erfassungsprozess, von Berechnungsressourcen einer zugewiesenen Menge, spezifiziert auf Grundlage der Zuweisungsrate, bestimmt durch die Kontrolleinheit.
  2. Peripherieerkennungseinrichtung gemäß Anspruch 1, wobei die Kontrolleinheit die Zuweisungsrate ermittelt, auf Grundlage der Bewegungsumgebung und einer Risikoverteilung um den bewegten Körper herum.
  3. Peripherieerkennungseinrichtung gemäß Anspruch 2, wobei die Kontrolleinheit die Zuweisungsrate auf Grundlage der Bewegungsumgebung provisorisch ermittelt und schließlich die Zuweisungsrate durch Erhöhen der provisorisch ermittelten Zuweisungsrate für einen Erfassungsprozess in einer Umgebung mit einem hohen Risikolevel, angezeigt durch die Risikoverteilung um den bewegten Körper herum, ermittelt.
  4. Peripherieerkennungseinrichtung gemäß einem der Ansprüche 1 bis 3, wobei die Bewegungsumgebung mindestens eines anzeigt von der Art einer Straße, auf der der bewegte Körper fährt, Verhalten des bewegten Körpers und Sicht vom bewegten Körper.
  5. Peripherieerkennungseinrichtung gemäß einem der Ansprüche 1 bis 4, wobei eine Funktion der Detektionseinheit zumindest teilweise realisiert wird von einem Schaltkreis und die zugewiesene Menge einen Umfang des Schaltkreises anzeigt.
  6. Peripherieerkennungseinrichtung gemäß Anspruch 5, wobei die Kontrolleinheit den Schaltkreis konfiguriert, der jeden einer Vielzahl von Erfassungsprozessen an dem Umfang, angezeigt durch die zugewiesene Menge, ausführt und die Detektionseinheit ein Objekt erkennt im Bereich um den bewegten Körper unter Verwendung des Schaltkreises, der konfiguriert ist.
  7. Peripherieerkennungseinrichtung gemäß einem der Ansprüche 1 bis 6, wobei die Kontrolleinheit die Zuweisungsrate neu ermittelt, in einem Fall, in dem es eine Veränderung an oder über einem Schwellenwert in der Bewegungsumgebung gibt.
  8. Peripherieerkennungsverfahren umfassend: Bestimmen, durch einen Prozessor, auf Grundlage einer Bewegungsumgebung eines bewegten Körpers, einer Zuweisungsrate von Berechnungsressourcen, die zuzuweisen sind zu jedem einer Vielzahl von Erfassungsprozessen des Analysierens von Sensordaten, ausgegeben von einer Vielzahl von Sensoren, die einen Bereich um den bewegten Körper beobachten; und Detektieren, durch den Prozessor, eines Objekts im Bereich um den bewegten Körper, unter Verwendung, für einen entsprechenden Erfassungsprozess, von Berechnungsressourcen in zugewiesener Menge, spezifiziert auf Grundlage der Zuweisungsrate, die ermittelt ist.
  9. Peripherieerkennungsprogramm, das einen Computer veranlasst zum Ausführen: eines Kontrollprozesses des Ermittelns, auf Grundlage einer Bewegungsumgebung eines bewegten Körpers, einer Zuweisungsrate von Berechnungsressourcen, die zuzuweisen sind zu jeder einer Vielzahl von Erfassungsprozessen des Analysierens von Sensordaten, ausgegeben von einer Vielzahl von Sensoren, die einen Bereich rund um den bewegten Körper beobachten; und ein Detektionsprozess des Detektierens eines Objektes in einem Bereich um den bewegten Körper, unter Verwendung, für einen entsprechenden Erfassungsprozess, von Berechnungsressourcen in einer zugewiesenen Menge, spezifiziert auf Grundlage der Zuweisungsrate, bestimmt im Kontrollprozess.
DE112016006616.3T 2016-04-20 2016-04-20 Peripherieerkennungseinrichtung, Peripherieerkennungsverfahren und Peripherieerkennungsprogramm Pending DE112016006616T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/062558 WO2017183141A1 (ja) 2016-04-20 2016-04-20 周辺認知装置、周辺認知方法及び周辺認知プログラム

Publications (1)

Publication Number Publication Date
DE112016006616T5 true DE112016006616T5 (de) 2018-11-29

Family

ID=60116644

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016006616.3T Pending DE112016006616T5 (de) 2016-04-20 2016-04-20 Peripherieerkennungseinrichtung, Peripherieerkennungsverfahren und Peripherieerkennungsprogramm

Country Status (5)

Country Link
US (1) US11003922B2 (de)
JP (1) JP6223607B1 (de)
CN (1) CN109074742B (de)
DE (1) DE112016006616T5 (de)
WO (1) WO2017183141A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018043540A1 (ja) * 2016-08-31 2019-06-24 パイオニア株式会社 制御装置、制御方法、およびプログラム
JP6652477B2 (ja) * 2016-10-03 2020-02-26 日立オートモティブシステムズ株式会社 車載処理装置
CN109885392B (zh) * 2019-01-03 2021-04-13 北京百度网讯科技有限公司 分配车载计算资源的方法以及装置
JP2020181105A (ja) * 2019-04-25 2020-11-05 キヤノン株式会社 投影装置およびその制御方法
US20200361452A1 (en) * 2019-05-13 2020-11-19 Toyota Research Institute, Inc. Vehicles and methods for performing tasks based on confidence in accuracy of module output
CN112257486B (zh) * 2019-12-23 2023-12-29 北京国家新能源汽车技术创新中心有限公司 算力分配方法、装置、计算机设备和存储介质
WO2022139843A1 (en) * 2020-12-24 2022-06-30 Intel Corporation Radar apparatus, system, and method
WO2023281784A1 (ja) * 2021-07-05 2023-01-12 日立Astemo株式会社 電子制御装置及び車載システム
US20230194704A1 (en) * 2021-12-22 2023-06-22 Gm Cruise Holdings Llc Anomaly prioritization using dual-mode adaptive radar

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010140239A1 (ja) 2009-06-04 2010-12-09 トヨタ自動車株式会社 車両用周辺監視装置及び車両用周辺監視方法

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19845568A1 (de) 1998-04-23 1999-10-28 Volkswagen Ag Vorrichtung zur Objekterfassung für Kraftfahrzeuge
JP4052496B2 (ja) 1998-08-07 2008-02-27 富士通テン株式会社 車両用障害物検知システム
US6492949B1 (en) 2000-08-16 2002-12-10 Raytheon Company Slot antenna element for an array antenna
US6903679B2 (en) 2000-08-16 2005-06-07 Raytheon Company Video amplifier for a radar receiver
US20020075138A1 (en) 2000-08-16 2002-06-20 Van Rees H. Barteld Portable object detection system
DE60122168T2 (de) 2000-08-16 2007-08-23 Raytheon Company, Waltham Sicherheitsabstandsalgorithmus für ein fahrgeschwindigkeitsregelsystem
WO2002014898A2 (en) 2000-08-16 2002-02-21 Raytheon Company Near object detection system
US6577269B2 (en) 2000-08-16 2003-06-10 Raytheon Company Radar detection method and apparatus
WO2002015323A2 (en) 2000-08-16 2002-02-21 Raytheon Company Highly integrated single substrate mmw multi-beam sensor
US6489927B2 (en) 2000-08-16 2002-12-03 Raytheon Company System and technique for mounting a radar system on a vehicle
US6657581B1 (en) 2000-08-16 2003-12-02 Raytheon Company Automotive lane changing aid indicator
EP1873551B1 (de) 2000-08-16 2019-03-06 Valeo Radar Systems, Inc. Kraftfahrzeug-Radarsysteme und Verfahren
US6708100B2 (en) 2001-03-14 2004-03-16 Raytheon Company Safe distance algorithm for adaptive cruise control
US6970142B1 (en) 2001-08-16 2005-11-29 Raytheon Company Antenna configurations for reduced radar complexity
US6995730B2 (en) 2001-08-16 2006-02-07 Raytheon Company Antenna configurations for reduced radar complexity
US7183995B2 (en) 2001-08-16 2007-02-27 Raytheon Company Antenna configurations for reduced radar complexity
JP3879610B2 (ja) 2002-07-15 2007-02-14 株式会社デンソー 障害物検出装置及びプログラム並びに記録媒体
DE10238936A1 (de) 2002-08-24 2004-03-04 Robert Bosch Gmbh Vorrichtung und Verfahren zur Steuerung wenigstens einer Systemkomponente eines informationstechnischen Systems
JP2005309644A (ja) * 2004-04-20 2005-11-04 Hitachi Ltd リソース制御方法及びそのシステム
DE102005046045A1 (de) 2005-09-27 2007-03-29 Robert Bosch Gmbh Verfahren und Vorrichtung zur Steuerung mindestens eines Objektdetektionssensors
DE102006032541A1 (de) * 2006-07-13 2008-01-17 Robert Bosch Gmbh Warneinrichtung und Verfahren zur Umfeldüberwachung
WO2008015891A1 (fr) * 2006-08-02 2008-02-07 Pioneer Corporation appareil de gestion de ressources, procédé de gestion de ressources, programme de gestion de ressources et support d'enregistrement lisible par un ordinateur
US7792641B2 (en) * 2007-06-12 2010-09-07 Palo Alto Research Center Incorporated Using long-range dynamics and mental-state models to assess collision risk for early warning
US7831391B2 (en) * 2007-06-12 2010-11-09 Palo Alto Research Center Incorporated Using segmented cones for fast, conservative assessment of collision risk
JP4883248B2 (ja) * 2009-06-02 2012-02-22 トヨタ自動車株式会社 車両用周辺監視装置
JP5634046B2 (ja) 2009-09-25 2014-12-03 クラリオン株式会社 センサコントローラ、ナビゲーション装置、センサ制御方法
JP5441626B2 (ja) 2009-11-06 2014-03-12 日立オートモティブシステムズ株式会社 車載用マルチアプリ実行装置
JP5545022B2 (ja) * 2010-05-14 2014-07-09 トヨタ自動車株式会社 障害物認識装置
US20120182160A1 (en) * 2011-01-14 2012-07-19 TCS International, Inc. Directional Vehicle Sensor Matrix
JP2012221031A (ja) 2011-04-05 2012-11-12 Toyota Motor Corp 車両データ取得装置及び車両データ取得方法
WO2012144076A1 (ja) * 2011-04-22 2012-10-26 トヨタ自動車株式会社 車両周辺監視装置及び車両周辺監視情報の表示方法
WO2013058128A1 (ja) * 2011-10-18 2013-04-25 本田技研工業株式会社 車両周辺監視装置
CN103108152A (zh) * 2011-11-09 2013-05-15 能晶科技股份有限公司 盲点侦测警示系统
US20130278441A1 (en) * 2012-04-24 2013-10-24 Zetta Research and Development, LLC - ForC Series Vehicle proxying
US9021493B2 (en) * 2012-09-14 2015-04-28 International Business Machines Corporation Management of resources within a computing environment
DE102012219637A1 (de) * 2012-10-26 2014-04-30 Continental Teves Ag & Co. Ohg Verfahren und system zur fusion von umfeldsensordaten mit kommunikationsdaten sowie verwendung des systems
US9679196B2 (en) * 2013-02-27 2017-06-13 Hitachi Automotive Systems, Ltd. Object sensing device
CN103402261B (zh) * 2013-07-12 2017-02-08 北京邮电大学 一种自适应的多业务资源分配的方法和装置
US20150153184A1 (en) * 2013-12-04 2015-06-04 GM Global Technology Operations LLC System and method for dynamically focusing vehicle sensors
CN106060947B (zh) * 2016-07-12 2019-09-24 惠州Tcl移动通信有限公司 一种无线移动通信中的资源分配方法及系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010140239A1 (ja) 2009-06-04 2010-12-09 トヨタ自動車株式会社 車両用周辺監視装置及び車両用周辺監視方法

Also Published As

Publication number Publication date
US20190042863A1 (en) 2019-02-07
JP6223607B1 (ja) 2017-11-01
WO2017183141A1 (ja) 2017-10-26
CN109074742A (zh) 2018-12-21
JPWO2017183141A1 (ja) 2018-04-26
CN109074742B (zh) 2022-05-13
US11003922B2 (en) 2021-05-11

Similar Documents

Publication Publication Date Title
DE112016006616T5 (de) Peripherieerkennungseinrichtung, Peripherieerkennungsverfahren und Peripherieerkennungsprogramm
DE102017201717B4 (de) Verfahren zur Verwendung eines Rückblicksystem für ein Trägerfahrzeug sowie Rückblicksystem zur Ausführung des Verfahrens
DE112020000369T5 (de) Objekterfassung unter verwendung von verzerrten polygonen, die zur parkplatzerfassung geeignet ist
DE102016123887A1 (de) Virtuelle sensordatenerzeugung zur radanschlagdetektion
DE112019000049T5 (de) Für autonomes fahren geeignete objekterfassung und erfassungssicherheit
DE102016119128A1 (de) Fahrbahnbegrenzungsdetektions-Datenerzeugung in virtueller Umgebung
DE102016100416A1 (de) Prüfstand für virtuelle Sensoren
DE102016100492A1 (de) Virtueller autonomer Antwortprüfstand
DE102017115393A1 (de) Virtuelles sensordatenerzeugungssystem und verfahren zum unterstützen der entwicklung von sichtbasierten regendetektionsalgorithmen
DE102012208974A1 (de) System und Verfahren zum sensorbasierten Aufbauen eines Umgebungsmodells
DE112016005947B4 (de) Fahrzeugbestimmungsvorrichtung, Fahrzeugbestimmungsverfahren und Fahrzeugbestimmungsprogramm
DE102013221497A1 (de) Gerät und Verfahren für das Erkennen einer Fahrbahn bzw. Fahrspur
DE102020105117A1 (de) Verfahren und Systeme zum Verbessern von Karten
DE102014104663A1 (de) Fahrbahnbasierte Lokalisierung
WO2017102623A1 (de) VERFAHREN UND VORRICHTUNG ZUM PRÄDIZIEREN EINER BEWEGUNG EINES STRAßENVERKEHRSTEILNEHMERS IN EINEM VERKEHRSRAUM
DE102013227222A1 (de) Gerät und Verfahren für das Extrahieren eines Merkmalpunktes zum Erkennen eines Hindernisses, wobei ein Laserscanner benutzt wird
DE102014212702B4 (de) Vorrichtung und verfahren zum erkennen eines fahrumfeldes eines fahrzeugs
DE102021211882A1 (de) Sichtschattenschätzvorrichtung, Fahrzeugfahrsystem und Sichtschattenschätzverfahren
DE102017108248A1 (de) Strassenmerkmalserkennung mit einem fahrzeugkamerasystem
DE102018131833A1 (de) Simulationslatenzangabe
EP3637311A1 (de) Vorrichtung und verfahren zum ermitteln von höheninformationen eines objekts in einer umgebung eines fahrzeugs
DE102016107323A1 (de) Verkehrskomplexitätsschätzung
DE102021117850A1 (de) Fahrzeugbetrieb
DE102015216979A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs, Steuergerät und Fahrzeug
DE102023103171A1 (de) VERFAHREN UND VORRICHTUNG ZUM BESTIMMEN DER POSITION EINES FUßGÄNGERS

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R084 Declaration of willingness to licence
R016 Response to examination communication