DE112019001545T5 - ELECTRONIC CONTROL DEVICE AND OPERATING PROCEDURES - Google Patents

ELECTRONIC CONTROL DEVICE AND OPERATING PROCEDURES Download PDF

Info

Publication number
DE112019001545T5
DE112019001545T5 DE112019001545.1T DE112019001545T DE112019001545T5 DE 112019001545 T5 DE112019001545 T5 DE 112019001545T5 DE 112019001545 T DE112019001545 T DE 112019001545T DE 112019001545 T5 DE112019001545 T5 DE 112019001545T5
Authority
DE
Germany
Prior art keywords
future
unit
area
classification
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019001545.1T
Other languages
German (de)
Inventor
Yuta Muto
Akira Kuriyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Publication of DE112019001545T5 publication Critical patent/DE112019001545T5/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Eine elektronische Steuervorrichtung umfasst eine Sensorinformations-Erfassungseinheit, die die Zustandsgrößen einschließlich einer Position eines Messobjekts unter Verwendung einer Ausgabe mehrerer Sensoren erfasst oder die Zustandsgrößen des Messobjekts unter Verwendung der Ausgabe der mehreren Sensoren berechnet, eine Speichereinheit, die Positionsbestimmungsinformationen als eine Bedingung einer auf die Position bezogenen Klassifikation speichert, eine Positionsbestimmungseinheit, die das Messobjekt unter Verwendung der Positionsbestimmungsinformationen klassifiziert, und eine Verschmelzungseinheit, die unter Bezugnahme auf die Zustandsgrößen eine Übereinstimmung unter mehreren der Messobjekte bestimmt, die durch die Positionsbestimmungseinheit als völlig gleich klassifiziert werden und die durch verschiedene Sensoren gemessen wurden, und die die Positionen der mehreren Messobjekte verschmilzt, die als eine Übereinstimmung bestimmt wurden, wobei die Messobjekte Objekte sind, die durch jeden der mehreren Sensoren gemessen werden können.An electronic control device includes a sensor information acquisition unit that acquires the state quantities including a position of a measurement object using an output of a plurality of sensors or calculates the state quantities of the measurement object using the output of the plurality of sensors, a storage unit that stores position determination information as a condition of the position related classification stores, a position determination unit that classifies the measurement object using the position determination information, and a merging unit that, with reference to the state quantities, determines a match among a plurality of the measurement objects which are classified as identical by the position determination unit and which have been measured by different sensors , and which merges the positions of the plurality of measurement objects determined as a match, the measurement objects being objects that you Each of the multiple sensors can be measured.

Description

TECHNISCHES GEBIETTECHNICAL AREA

Die vorliegende Erfindung bezieht sich auf eine elektronische Steuervorrichtung und ein Betriebsverfahren.The present invention relates to an electronic control device and an operating method.

TECHNISCHER HINTERGRUNDTECHNICAL BACKGROUND

In den letzten Jahren wird die Entwicklung des autonomen Fahrens von Fahrzeugen aktiv ausgeführt. Beim autonomen Fahren werden die Messergebnisse mehrerer Sensoren oft verwendet, indem sie kombiniert werden. Die PTL 1 offenbart einen Mechanismus zur Detektion eines vorausfahrenden Fahrzeugs einer Fahrsteuervorrichtung, der ein vorausfahrendes Fahrzeug durch das Ausführen einer Bildverarbeitung an Bildern erkennt, die durch das Erfassen der Umstände vor dem eigenen Fahrzeug basierend auf Kameramitteln erhalten werden, und der eine Kraftmaschinen-Ausgangsleistung steuert, um zu veranlassen, dass das Fahrzeug fährt, während es dem vorausfahrenden Fahrzeug folgt, wobei der Mechanismus zur Detektion eines vorausfahrenden Fahrzeugs ein Laserradar, das eine Position eines vor dem eigenen Fahrzeug vorhandenen Objekts durch das Emittieren eines Laserstrahls von dem eigenen Fahrzeug in einer Vorwärtsrichtung, während es einen Bereich in einer horizontalen Ebene abtastet und den reflektierten Laserstrahl empfängt, detektiert, und Bildverarbeitungsmittel, die beim Ausführen der Bildverarbeitung an den Bildern und beim Erkennen des vorausfahrenden Fahrzeugs einen Verarbeitungsbereich innerhalb eines Schirms festlegen, der der Position des mit dem Laserradar detektierten Objekts entspricht, und das vorausfahrende Fahrzeug durch das Ausführen der Bildverarbeitung nur an den Bildern des Verarbeitungsbereichs erkennen, umfasst.In recent years, the development of autonomous driving of vehicles is being actively carried out. In autonomous driving, the measurement results of several sensors are often used by combining them. PTL 1 discloses a preceding vehicle detection mechanism of a travel control device that recognizes a preceding vehicle by performing image processing on images obtained by detecting the circumstances ahead of the own vehicle based on camera means and that controls engine output to make the vehicle travel while following the preceding vehicle, wherein the preceding vehicle detecting mechanism is a laser radar that detects a position of an object in front of the own vehicle by emitting a laser beam from the own vehicle in a forward direction while scanning an area in a horizontal plane and receiving the reflected laser beam, detects, and image processing means which, when performing image processing on the images and recognizing the preceding vehicle, a processing area within a Sc Set hirms, which corresponds to the position of the object detected with the laser radar, and recognize the vehicle ahead by executing the image processing only on the images of the processing area.

LISTE DER ENTGEGENHALTUNGENLIST OF REPUTATIONS

PATENTLITERATURPATENT LITERATURE

[PTL 1] Japanische ungeprüfte Patentanmeldung, Veröffentlichungs-Nr. H7-125567[PTL 1] Japanese Unexamined Patent Application Publication No. H7-125567

ZUSAMMENFASSUNG DER ERFINDUNGSUMMARY OF THE INVENTION

DIE DURCH DIE ERFINDUNG ZU LÖSENDEN PROBLEMETHE PROBLEMS TO BE SOLVED BY THE INVENTION

Bei der in der PTL 1 beschriebenen Erfindung wird die Menge der Berechnung enorm, wenn es mehrere Messobjekte gibt.In the invention described in PTL 1, the amount of calculation becomes enormous when there are several measurement objects.

MITTEL, UM DIE PROBLEME ZU LÖSENMEANS TO SOLVE THE PROBLEMS

Gemäß dem ersten Aspekt der vorliegenden Erfindung umfasst eine elektronische Steuervorrichtung: eine Sensorinformations-Erfassungseinheit, die die Zustandsgrößen einschließlich einer Position eines Messobjekts unter Verwendung einer Ausgabe mehrerer Sensoren erfasst oder die Zustandsgrößen des Messobjekts unter Verwendung der Ausgabe der mehreren Sensoren berechnet; eine Speichereinheit, die Positionsbestimmungsinformationen als eine Bedingung einer auf die Position bezogenen Klassifikation speichert; eine Positionsbestimmungseinheit, die das Messobjekt unter Verwendung der Positionsbestimmungsinformationen klassifiziert; und eine Verschmelzungseinheit, die unter Bezugnahme auf die Zustandsgrößen eine Übereinstimmung unter mehreren der Messobjekte bestimmt, die durch die Positionsbestimmungseinheit als völlig gleich klassifiziert werden und die durch verschiedene Sensoren gemessen wurden, und die die Positionen der mehreren Messobjekte, die als eine Übereinstimmung bestimmt wurden, verschmilzt, wobei die Messobjekte Objekte sind, die durch jeden der mehreren Sensoren gemessen werden können.According to the first aspect of the present invention, an electronic control device comprises: a sensor information acquisition unit that acquires the state quantities including a position of a measurement object using an output of a plurality of sensors or calculates the state quantities of the measurement object using the output of the plurality of sensors; a storage unit that stores positioning information as a condition of a position-related classification; a position determination unit that classifies the measurement object using the position determination information; and a merging unit which, with reference to the state variables, determines a correspondence among a plurality of the measurement objects which are classified as identical by the position determination unit and which have been measured by different sensors, and which the positions of the plural measurement objects which have been determined as a match, merges, with the measurement objects being objects that can be measured by each of the multiple sensors.

Gemäß dem weiten Aspekt der vorliegenden Erfindung umfasst ein Betriebsverfahren, das durch eine elektronische Steuervorrichtung auszuführen ist, die eine Sensorinformations-Erfassungseinheit, die die Zustandsgrößen, die eine Position eines Messobjekts enthalten, unter Verwendung einer Ausgabe mehrerer Sensoren erfasst oder die Zustandsgrößen des Messobjekts unter Verwendung der Ausgabe der mehreren Sensoren berechnet, und eine Speichereinheit, die Positionsbestimmungsinformationen als eine Bedingung einer auf die Position bezogenen Klassifikation speichert, umfasst: Klassifizieren des Messobjekts unter Verwendung der Positionsbestimmungsinformation; und Bestimmen unter Bezugnahme auf die Zustandsgrößen einer Übereinstimmung unter mehreren der Messobjekte, die basierend auf der Klassifikation als völlig gleich klassifiziert werden und die durch verschiedene Sensoren gemessen wurden, und Verschmelzen der Positionen der mehreren Messobjekte, die als eine Übereinstimmung bestimmt wurden, wobei die Messobjekte Objekte sind, die durch jeden der mehreren Sensoren gemessen werden können.According to the broad aspect of the present invention, an operating method to be executed by an electronic control device that includes a sensor information acquisition unit that acquires the state quantities including a position of a measurement object using an output of a plurality of sensors, or using the state quantities of the measurement object calculates the output of the plurality of sensors, and a storage unit that stores positioning information as a condition of position-related classification includes: classifying the measurement object using the positioning information; and determining, with reference to the state quantities, a match among a plurality of the measurement objects that are classified as identical based on the classification and that have been measured by different sensors, and merging the positions of the plurality of measurement objects that have been determined as a match, the measurement objects Are objects that can be measured by any of the multiple sensors.

VORTEILHAFTE WIRKUNGEN DER ERFINDUNGADVANTAGEOUS EFFECTS OF THE INVENTION

Gemäß der vorliegenden Erfindung kann die Menge der Berechnung verringert werden.According to the present invention, the amount of computation can be reduced.

FigurenlisteFigure list

  • 1 ist ein Konfigurationsdiagramm des Fahrzeugs C. 1 Fig. 3 is a configuration diagram of the vehicle C. .
  • 2(a) ist eine graphische Darstellung, die den Datenerfassungsbereich der Sensorgruppe 1 zeigt, und 2(b) ist eine perspektivische Ansicht der definierten Bereiche. 2 (a) Figure 3 is a graph showing the data acquisition area of the sensor array 1 shows, and 2 B) Fig. 3 is a perspective view of the defined areas.
  • 3 ist eine graphische Darstellung, die ein Beispiel der Bereichsbestimmungstabelle 3211 zeigt. 3 Fig. 13 is a diagram showing an example of the area determination table 3211 shows.
  • 4 ist eine graphische Darstellung, die ein Beispiel der Vorverarbeitungstabelle 3212 zeigt. 4th Fig. 13 is a diagram showing an example of the preprocessing table 3212 shows.
  • 5 ist eine graphische Darstellung, die ein Beispiel der Nachbearbeitungstabelle 3213 zeigt. 5 Fig. 13 is a diagram showing an example of the post-processing table 3213 shows.
  • 6 ist eine graphische Darstellung, die ein Beispiel der ersten Bereichsbestimmungstabelle 3221A zeigt. 6th Fig. 13 is a diagram showing an example of the first area determination table 3221A shows.
  • 7 ist ein Ablaufplan, der die durch die Verarbeitungseinheit 31 auszuführende Verarbeitung zeigt. 7th is a flow chart which is used by the processing unit 31 shows processing to be performed.
  • 8 ist ein Ablaufplan, der die Einzelheiten des S103 nach 7 zeigt. 8th is a flow chart showing the details of the S103 after 7th shows.
  • 9 ist eine graphische Darstellung, die die Konfiguration des Fahrzeugs C in der zweiten Ausführungsform zeigt. 9 Fig. 13 is a diagram showing the configuration of the vehicle C. in the second embodiment shows.
  • 10 ist eine graphische Darstellung, die ein Beispiel der Musterbestimmungstabelle 3214 zeigt. 10 Fig. 13 is a diagram showing an example of the pattern determination table 3214 shows.
  • 11 ist eine graphische Darstellung, die ein Beispiel der Bereichsbestimmungstabelle 3211A in der zweiten Ausführungsform zeigt. 11 Fig. 13 is a diagram showing an example of the area determination table 3211A in the second embodiment.
  • 12 ist eine graphische Darstellung, die ein Beispiel der Sensorbereichs-Zuordnungsinformationen 3217 zeigt. 12th FIG. 13 is a diagram showing an example of the sensor area allocation information 3217.
  • 13 ist ein Ablaufplan, der die Verarbeitung der Verarbeitungseinheit 31 in der zweiten Ausführungsform zeigt. 13 Fig. 3 is a flow chart showing the processing of the processing unit 31 in the second embodiment shows.
  • 14 ist eine graphische Darstellung, die die Konfiguration des Fahrzeugs C in der dritten Ausführungsform zeigt. 14th Fig. 13 is a diagram showing the configuration of the vehicle C. in the third embodiment shows.
  • 15 ist eine graphische Darstellung, die ein Beispiel der Bestimmungstabelle 3215 der zukünftigen Bereiche zeigt. 15th Fig. 13 is a diagram showing an example of the future area determination table 3215.
  • 16 ist eine graphische Darstellung, die ein Beispiel der zukünftigen Tabelle 3216 zeigt. 16 FIG. 13 is a diagram showing an example of the future table 3216.
  • 17 ist ein Ablaufplan, der die Verarbeitung der Verarbeitungseinheit 31 in der dritten Ausführungsform zeigt. 17th Fig. 3 is a flow chart showing the processing of the processing unit 31 in the third embodiment shows.

BESCHREIBUNG DER AUSFÜHRUNGSFORMENDESCRIPTION OF THE EMBODIMENTS

- Erste Ausführungsform -- First embodiment -

Die erste Ausführungsform der elektronischen Vorrichtung gemäß der vorliegenden Erfindung wird nun mit Bezug auf 1 bis 8 erklärt.The first embodiment of the electronic device according to the present invention will now be described with reference to FIG 1 to 8th explained.

(Konfigurationsdiagramm)(Configuration diagram)

1 ist ein Konfigurationsdiagramm des Fahrzeugs C. Das Fahrzeug C umfasst eine Sensorgruppe 1, eine elektronische Steuervorrichtung 3 und eine Aktuatorgruppe 4. Die Sensorgruppe 1 und die Aktuatorgruppe 4 sind mit der elektronischen Steuervorrichtung 3 verbunden. 1 Fig. 3 is a configuration diagram of the vehicle C. . The vehicle C. includes a sensor group 1 , an electronic control device 3 and an actuator group 4th . The sensor group 1 and the actuator group 4th are with the electronic control device 3 connected.

Die Sensorgruppe 1 ist aus zwei oder mehr Sensoren, z. B. einer linken Kamera LC, einer rechten Kamera RC, einem linken Radar LR und einem rechten Radar RR, konfiguriert. Die linke Kamera LC ist eine Kamera, die die linke Vorderseite des Fahrzeugs C erfasst, während die rechte Kamera RC eine Kamera ist, die die rechte Vorderseite des Fahrzeugs C erfasst. Das linke Radar LR ist ein Radar, wie z. B. ein Millimeterwellenradar, das ein Hindernis auf der linken Vorderseite des Fahrzeugs C misst, während das rechte Radar RR ein Radar, wie z. B. ein Millimeterwellenradar, ist, das ein Hindernis auf der rechten Vorderseite des Fahrzeugs C misst.The sensor group 1 is made up of two or more sensors, e.g. B. a left camera LC, a right camera RC, a left radar LR and a right radar RR configured. The left camera LC is a camera that is the left front of the vehicle C. while the right camera RC is a camera that is the right front of the vehicle C. detected. The left radar LR is a radar such as B. a millimeter wave radar that an obstacle on the left front of the vehicle C. measures, while the right radar RR a radar such. B. a millimeter wave radar, which is an obstacle on the right front of the vehicle C. measures.

Die jeweiligen Sensoren, die die Sensorgruppe 1 konfigurieren, erfassen die Informationen über ein Messobjekt, das ein Objekt ist, das durch jeden der Sensoren gemessen werden kann, und berechnen aus den erfassten Informationen die Position und die Geschwindigkeit des Messobjekts. Anschließend geben die jeweiligen Sensoren die Position und die Geschwindigkeit als Zustandsgrößen an die elektronische Steuervorrichtung 3 aus. Die Zustandsgröße kann jedoch andere Informationen als die Position und die Geschwindigkeit enthalten, die Zustandsgröße kann z. B. außerdem die Winkelgeschwindigkeit enthalten. Die linke Kamera LC und die rechte Kamera RC analysieren z. B. jeweils die aufgenommenen Bilder, die erhalten wurden, und berechnen aus der Kontinuität der Leuchtdichte und der Sättigung und deren Zeitreihenvariation die Position und die Geschwindigkeit des Messobjekts. Das linke Radar LR und das rechte Radar RR berechnen z. B. jeweils die Position und die Geschwindigkeit des Messobjekts aus der Kontinuität der Entfernung und deren Zeitreihenvariation. Die jeweiligen Sensoren können die Position des Messobjekts mit den jeweiligen Sensoren als die Referenz oder der elektronischen Steuervorrichtung 3 als die Referenz ausgeben.The respective sensors that make up the sensor group 1 configure, acquire the information on a measurement object that is an object that can be measured by each of the sensors, and calculate the position and speed of the measurement object from the acquired information. The respective sensors then transmit the position and the speed as state variables to the electronic control device 3 out. The state variable can, however, contain other information than the position and the speed, the state variable can e.g. B. also contain the angular velocity. The left camera LC and the right camera RC analyze z. B. in each case the recorded images that were obtained, and calculate the position and the speed of the measurement object from the continuity of the luminance and the saturation and their time series variation. The left radar LR and the right radar RR calculate e.g. B. in each case the position and the speed of the measurement object from the continuity of the distance and its time series variation. The respective sensors can check the position of the measurement object with the respective sensors as the reference or the electronic control device 3 output as the reference.

Es wird angegeben, dass sich das „Messobjekt“ abhängig von dem Sensor unterscheidet, wobei, selbst wenn die messbaren Bereiche mehrerer Sensoren überlappen, es ein Objekt gibt, das nur mit einem bestimmten Sensor gemessen werden kann. Überdies gibt es unter den Messobjekten jene, die die Fahrt des Fahrzeugs nicht behindern, wie z. B. Rauch. Selbst bei einem Objekt wie Rauch, das die Fahrt des Fahrzeugs C nicht behindert, trägt das Messen eines derartigen Objekts mit einem Sensor, der dieses Objekt messen kann, dazu bei, die äußere Umgebung zu erfassen.It is stated that the "target" differs depending on the sensor, even if the measurable areas are several Sensors overlap, there is an object that can only be measured with a certain sensor. In addition, among the measurement objects there are those that do not hinder the movement of the vehicle, such as B. smoke. Even with an object like smoke, the vehicle is moving C. does not hinder, measuring such an object with a sensor that can measure that object helps to sense the external environment.

2(a) ist eine graphische Darstellung, die den Datenerfassungsbereich der Sensorgruppe 1 zeigt, und 2(b) ist eine perspektivische Ansicht der definierten Bereiche. In 2(a) ist jedoch das Bezugszeichen des entsprechenden Sensors dem Datenerfassungsbereich jedes Sensors zugeordnet. Wie in 2(a) gezeigt ist, überlappen die Datenerfassungsbereiche der linken Kamera LC und des linken Radars LR auf der linken Seite der graphischen Darstellung, überlappen die Datenerfassungsbereiche von zwei bis vier Sensoren in der Nähe der Mitte der graphischen Darstellung und überlappen die Datenerfassungsbereiche der rechten Kamera RC und des rechten Radars RR auf der rechten Seite der graphischen Darstellung. 2 (a) Figure 3 is a graph showing the data acquisition area of the sensor array 1 shows, and 2 B) Fig. 3 is a perspective view of the defined areas. In 2 (a) however, the reference number of the corresponding sensor is assigned to the data acquisition area of each sensor. As in 2 (a) is shown, the data capture areas of the left camera LC and the left radar LR overlap on the left side of the graph, overlap the data capture areas of two to four sensors near the center of the graph, and overlap the data capture areas of the right RC and right cameras Radars RR on the right of the graph.

In dieser Ausführungsform sind die drei Bereiche von Z1 bis Z3 so definiert, wie in 2(b) gezeigt ist. Der erste Bereich Z1 ist ein Bereich, in dem die Datenerfassungsbereiche der linken Kamera LC und des linken Radars LR überlappen. Der zweite Bereich Z2 ist ein Bereich, in dem die Datenerfassungsbereiche von zwei bis vier Sensoren überlappen. Der dritte Bereich Z3 ist ein Bereich, in dem die Datenerfassungsbereiche der rechten Kamera RC und des rechten Radars RR überlappen. Die jeweiligen Sensoren können jedoch außerdem Daten von Bereichen erfassen, die breiter als die in 2(a) gezeigten Datenerfassungsbereiche sind. Im vorhergehenden Fall können die Informationen, die durch Sensoren außerhalb des in 2(a) gezeigten Bereichs erfasst werden, berücksichtigt oder ignoriert werden. Wenn z. B. die Position des Messobjekts, das durch die rechte Kamera RC erfasst wird, der erste Bereich Z1 ist, kann das Verarbeiten unter Berücksichtigung der Informationen dieses Messobjekts oder durch Ignorieren derartiger Informationen ausgeführt werden. Die Erklärung wird nun bezüglich 1 fortgesetzt.In this embodiment, the three areas from Z1 to Z3 are defined as in FIG 2 B) is shown. The first area Z1 is an area in which the data acquisition areas of the left camera LC and the left radar LR overlap. The second area Z2 is an area in which the data acquisition areas of two to four sensors overlap. The third area Z3 is an area in which the data acquisition areas of the right camera RC and the right radar RR overlap. However, the respective sensors can also collect data from areas wider than that in 2 (a) are the data acquisition areas shown. In the previous case, the information received by sensors outside the in 2 (a) can be detected, taken into account or ignored. If z. For example, if the position of the measurement object captured by the right camera RC is the first area Z1, the processing can be carried out taking the information of this measurement object into account or by ignoring such information. The explanation is now regarding 1 continued.

Die Aktuatorgruppe 4 besteht aus mehreren Aktuatoren, die die Richtung oder die Geschwindigkeit des Fahrzeugs steuern, und enthält z. B. ein Lenkrad, eine Bremse und ein Fahrpedal. Die Aktuatorgruppe 4 wird basierend auf einem Betriebsbefehl der elektronischen Steuervorrichtung 3 betrieben. Die Aktuatorgruppe 4 kann jedoch außerdem basierend auf der Betätigung eines Anwenders betrieben werden.The actuator group 4th consists of several actuators that control the direction or speed of the vehicle and contains e.g. B. a steering wheel, a brake and an accelerator pedal. The actuator group 4th is based on an operation command of the electronic control device 3 operated. The actuator group 4th however, it can also be operated based on a user's operation.

Die elektronische Steuervorrichtung 3 ist eine elektronische Steuereinheit, die eine Verarbeitungseinheit 31, eine Speichereinheit 32 und eine E/A-Einheit 33 umfasst. Die Verarbeitungseinheit 31, die eine CPU, die eine Zentraleinheit ist, einen ROM, der ein Festwertspeicher ist, und einen RAM, der ein Schreib-Lese-Speicher ist, umfasst, wobei die folgenden Funktionen durch die CPU verwirklicht sind, die die im ROM gespeicherten Programme in den RAM lädt und derartige Programme ausführt. Die Verarbeitungseinheit 31 umfasst als ihre Funktionen eine Positionsbestimmungseinheit 311, eine Verschmelzungseinheit 312 und eine Fahrzeugsteuerungs-Verarbeitungseinheit 313. Diese Funktionen werden später beschrieben. Die E/A-Einheit 33 ist eine Kommunikationsschnittstelle, die mit der Sensorgruppe 1 und der Aktuatorgruppe 4 kommuniziert. Die E/A-Einheit 33 ist mit einem Kommunikationsstandard, wie z. B. einem CAN (eingetragenes Warenzeichen) oder dem IEEE802.3, konform.The electronic control device 3 is an electronic control unit that is a processing unit 31 , a storage unit 32 and an I / O base 33 includes. The processing unit 31 , which comprises a CPU which is a central processing unit, a ROM which is a read only memory, and a RAM which is a random access memory, the following functions being realized by the CPU which converts the programs stored in the ROM into loads the RAM and runs such programs. The processing unit 31 comprises as its functions a position determining unit 311 , a merging entity 312 and a vehicle control processing unit 313 . These functions are described later. The I / O base 33 is a communication interface that connects to the sensor group 1 and the actuator group 4th communicates. The I / O base 33 is with a communication standard such as B. a CAN (registered trademark) or the IEEE802.3, compliant.

Die Verschmelzungseinheit 312 umfasst eine erste Verschmelzungseinheit 312A, in der der erste Bereich Z1 das Verarbeitungsziel ist, eine zweite Verschmelzungseinheit 312B, in der der zweite Bereich Z2 das Verarbeitungsziel ist, und eine dritte Verschmelzungseinheit 312C, in der der dritte Bereich Z3 das Verarbeitungsziel ist. Die Verschmelzungseinheit 312 bestimmt, ob die Messobjekte, in denen die Zustandsgrößen von verschiedenen Sensoren erfasst wurden, übereinstimmen, und verschmilzt die Zustandsgrößen der mehreren Messobjekte, die als eine Übereinstimmung bestimmt wurden. In der folgenden Erklärung werden die Messobjekte, in denen die Zustandsgrößen verschmolzen worden sind, als „verschmolzene Messobjekte“ bezeichnet. Überdies kann für jede Verschmelzungseinheit 312 außerdem ein aus dem Verarbeitungsziel auszuschließender Sensor in der Sensorgruppe 1 vorgegeben sein. Die erste Verschmelzungseinheit 312A kann z. B. nur die Messobjekte der linken Kamera LC und des linken Radars LR verarbeiten und die rechte Kamera RC und das rechte Radar RR als die vom Verarbeitungsziel auszuschließenden Sensoren vorgeben.The merging unit 312 comprises a first merging unit 312A in which the first area Z1 is the processing target, a second merging unit 312B in which the second area Z2 is the processing target, and a third merging unit 312C in which the third area Z3 is the processing target. The merging unit 312 determines whether the measurement objects in which the state quantities have been detected by different sensors match, and merges the state quantities of the plurality of measurement objects determined as a match. In the following explanation, the measurement objects in which the state variables have been merged are referred to as “merged measurement objects”. Furthermore, for each merging unit 312 also a sensor in the sensor group to be excluded from the processing target 1 be given. The first fusing unit 312A may e.g. B. process only the measurement objects of the left camera LC and the left radar LR and specify the right camera RC and the right radar RR as the sensors to be excluded from the processing target.

Die Speichereinheit 32 ist eine nichtflüchtige Speichervorrichtung, wie z. B. ein Flash-Speicher. Die Speichereinheit 32 ist in eine gemeinsame Speichereinheit 321, auf die von der gesamten Verarbeitungseinheit 31 Bezug genommen werden kann, und eine dedizierte Speichereinheit 322, aus der nur durch jede Verschmelzungseinheit 312 gelesen oder in die nur durch jede Verschmelzungseinheit 312 geschrieben werden kann, unterteilt. Die gemeinsame Speichereinheit 321 und die dedizierte Speichereinheit 322 können mit der gleichen Hardware verwirklicht sein oder mit unterschiedlicher Hardware verwirklicht sein. Die gemeinsame Speichereinheit 321 speichert eine Bereichsbestimmungstabelle 3211, eine Vorverarbeitungstabelle 3212 und eine Nachbearbeitungstabelle 3213.The storage unit 32 is a non-volatile storage device such as B. a flash memory. The storage unit 32 is in a common storage unit 321 on which the entire processing unit 31 Can be referenced, and a dedicated storage unit 322 , made up of just by each merging entity 312 read or put in just by each merging entity 312 can be written, divided. The common storage unit 321 and the dedicated storage unit 322 can be implemented with the same hardware or implemented with different hardware. The common storage unit 321 stores an area designation table 3211 , a preprocessing table 3212 and a post-processing table 3213 .

Die dedizierte Speichereinheit 322 speichert eine erste Bereichstabelle 3221A, aus der nur durch die erste Verschmelzungseinheit 312A gelesen oder in die nur durch die erste Verschmelzungseinheit 312A geschrieben wird, eine zweite Bereichstabelle 3221B, aus der nur durch die zweite Verschmelzungseinheit 312B gelesen oder in die nur durch die zweite Verschmelzungseinheit 312B geschrieben wird, und eine dritte Bereichstabelle 3221C, aus der nur durch die dritte Verschmelzungseinheit 312C gelesen oder in die nur durch die dritte Verschmelzungseinheit 312C geschrieben wird. Es wird angegeben, dass in dieser Ausführungsform in dem Sinn, dass beim Verarbeiten eines spezifischen Bereichs nicht auf Informationen eines weiteren Bereichs Bezug genommen werden muss, z. B. die Erklärung bereitgestellt wird, dass „aus der ersten Bereichstabelle 3221A nur durch die erste Verschmelzungseinheit 312A gelesen oder in die erste Bereichstabelle 3221A nur durch die erste Verschmelzungseinheit 312A geschrieben wird“. In dieser Ausführungsform benötigt die erste Bereichstabelle 3221A folglich keine speziellen Zugriffsbeschränkungsmittel, wie z. B. eine Genehmigungsfestlegung oder einen Sperrmechanismus.The dedicated storage unit 322 stores a first range table 3221A read from or written to only by the first merging unit 312A, a second area table 3221B which is read from or written to only by the second merging unit 312B, and a third area table 3221C which is read from or written to only by the third merging unit 312C. It is stated that in this embodiment, in the sense that when processing a specific area there is no need to refer to information of another area, e.g. B. the explanation is provided that “from the first range table 3221A read only by the first merging unit 312A or into the first range table 3221A is written only by the first merging unit 312A ”. In this embodiment, the first area table is required 3221A consequently no special access restriction means, such as e.g. B. an approval specification or a locking mechanism.

(Bereichsbestimmungstabelle 3211)(Area definition table 3211 )

3 ist eine graphische Darstellung, die ein Beispiel der Bereichsbestimmungstabelle 3211 zeigt. Die Bereichsbestimmungstabelle 3211 speichert eine Übereinstimmung der Bedingung und der auf die Position des Messobjekts bezogenen Bereichsnummer. Die auf die Position bezogene Bedingung wird z. B. basierend auf einem Bedingungsausdruck dargestellt, wobei in dem in 3 gezeigten Beispiel der Bedingungsausdruck als ein Polarkoordinatensystem beschrieben ist, das auf dem Fahrzeug C basiert. Mit anderen Worten, es werden ein Abstand R vom Bezugspunkt, der auf dem Fahrzeug C bereitgestellt ist, und eine Bedingung eines Winkels θ des Messobjekts mit der Frontrichtung des Fahrzeugs C als null Grad und der rechten Seite als wahr beschrieben. Die auf der rechten Seite der 3 gezeigten Bereichsnummern sind die in 2(b) gezeigten Bereichsnummern Z1 bis Z3. Mit anderen Worten, die Bereichsbestimmungstabelle 3211 drückt die in 2(b) gezeigten Bereiche des ersten Bereichs Z1, des zweiten Bereichs Z2 und des dritten Bereichs Z3 basierend auf den Bedingungsausdrücken aus. 3 Fig. 13 is a diagram showing an example of the area determination table 3211 shows. The range definition table 3211 stores a match between the condition and the area number related to the position of the measurement object. The condition related to the position is e.g. B. based on a conditional expression, where in 3 For example, the conditional expression is described as a polar coordinate system on the vehicle C. based. In other words, there will be a distance R from the reference point on the vehicle C. is provided, and a condition of an angle θ of the measurement object with the front direction of the vehicle C. described as zero degrees and the right side as true. The one on the right of the 3 Area numbers shown are those in 2 B) Area numbers Z1 to Z3 shown. In other words, the area determination table 3211 pushes the in 2 B) areas of the first area Z1, the second area Z2 and the third area Z3 shown based on the conditional expressions.

Die Positionsbestimmungseinheit 311 nimmt auf die Bereichsbestimmungstabelle 3211 Bezug und bestimmt die Position z. B. in der folgenden Weise. Wenn z. B. die Position eines bestimmten Messobjekts in einem Polarkoordinatenformat ausgedrückt ist, wenn der Abstand R vom Bezugspunkt in einen Bereich von einem vorgegebenen Schwellenwert R1a bis zu einem Schwellenwert R1A fällt und der Winkel θ von der Bezugsrichtung zwischen einem Schwellenwert θ1a und einem Schwellenwert θ1A liegt, bestimmt die Positionsbestimmungseinheit 311, dass das Messobjekt zum ersten Bereich Z1 gehört.The position determination unit 311 takes on the area definition table 3211 Reference and determines the position z. B. in the following manner. If z. B. the position of a particular measurement object is expressed in a polar coordinate format when the distance R from the reference point falls within a range from a predetermined threshold value R1a to a threshold value R1A and the angle θ from the reference direction is between a threshold value θ1a and a threshold value θ1A, determines the position determination unit 311 that the measurement object belongs to the first area Z1.

(Vorverarbeitungstabelle 3212)(Preprocessing table 3212 )

4 ist eine graphische Darstellung, die ein Beispiel der Vorverarbeitungstabelle 3212 zeigt. Die Vorverarbeitungstabelle 3212 speichert die Informationen, die die E/A-Einheit 33 von der Sensorgruppe 1 erfasst hat, und die durch die Positionsbestimmungseinheit 311 erzeugten Informationen. Die Vorverarbeitungstabelle 3212 speichert die Zustandsgrößen des Messobjekts, bevor die Verschmelzungseinheit 312 die Verarbeitung ausführt. Die Vorverarbeitungstabelle 3212 ist aus mehreren Datensätzen konfiguriert, wobei jeder Datensatz die Felder der ID, des Erfassungssensors, der Position, der Geschwindigkeit und des Bereichs enthält. Das ID-Feld speichert eine zweckmäßige Kennung zum Identifizieren des Messobjekts. Die Kennung ist z. B. eine Kombination aus „B“, die angibt, dass es die Vorverarbeitung ist, und einer laufenden Nummer, die die Reihenfolge angibt, in der das Messobjekt erfasst wurde. 4th Fig. 13 is a diagram showing an example of the preprocessing table 3212 shows. The preprocessing table 3212 stores the information that the I / O base 33 from the sensor group 1 has detected, and by the position determination unit 311 generated information. The preprocessing table 3212 stores the state variables of the measurement object before the merging unit 312 executes the processing. The preprocessing table 3212 is configured from several data sets, each data set containing the fields of ID, detection sensor, position, speed and area. The ID field stores an appropriate identifier for identifying the measurement object. The identifier is e.g. B. a combination of “B”, which indicates that it is preprocessing, and a serial number, which indicates the order in which the measurement object was recorded.

Das Erfassungssensorfeld speichert den Namen des Sensors, der verwendet wurde, als die E/A-Einheit 33 die Zustandsgrößen erfasst hat. Die Felder der Position und der Geschwindigkeit speichern die durch die E/A-Einheit 33 erfassten Zustandsgrößen. Das Geschwindigkeitsfeld speichert den Namen des Bereichs, der durch die Positionsbestimmungseinheit 311 bestimmt wurde. Mit anderen Worten, unter den Feldern der Vorverarbeitungstabelle 3212 werden andere Felder als das Bereichsfeld durch die E/A-Einheit 33 eingegeben, wobei nur das Bereichsfeld durch die Positionsbestimmungseinheit 311 eingegeben wird.The acquisition sensor field stores the name of the sensor that was used as the I / O base 33 has recorded the state variables. The position and speed fields are stored by the I / O base 33 recorded state variables. The speed field stores the name of the area covered by the positioning unit 311 was determined. In other words, under the fields of the preprocessing table 3212 become fields other than the area field through the I / O base 33 entered, with only the area field by the position determination unit 311 is entered.

(Nachbearbeitungstabelle 3213)(Post processing table 3213 )

5 ist eine graphische Darstellung, die ein Beispiel der Nachbearbeitungstabelle 3213 zeigt. Die Nachbearbeitungstabelle 3213 speichert die durch die erste Verschmelzungseinheit 312A, die zweite Verschmelzungseinheit 312B und die dritte Verschmelzungseinheit 312C berechneten Zustandsgrößen der verschmolzenen Messobjekte. Die Nachbearbeitungstabelle 3213 ist aus mehreren Datensätzen konfiguriert, wobei jeder Datensatz die Felder der neuen ID, der ursprünglichen ID, der Position und der Geschwindigkeit enthält. Das Feld der neuen ID speichert eine zweckmäßige Kennung zum Identifizieren der verschmolzenen Messobjekte. Die Kennung ist z. B. eine Kombination aus „A“, die angibt, dass es eine Nachbearbeitung ist, und einer laufenden Nummer, die die Reihenfolge angibt, in der das Messobjekt berechnet wurde. 5 Fig. 13 is a diagram showing an example of the post-processing table 3213 shows. The post-processing table 3213 stores the state quantities of the merged measurement objects calculated by the first merging unit 312A, the second merging unit 312B, and the third merging unit 312C. The post-processing table 3213 is configured from several data sets, each data set containing the fields of the new ID, the original ID, the position and the speed. The new ID field stores an appropriate identifier for identifying the merged measurement objects. The identifier is e.g. B. a combination of "A", which indicates that it is a post-processing, and a sequential number, which indicates the order in which the measurement object was calculated.

Das Feld der ursprünglichen ID speichert eine ID des Messobjekts, die zum Erzeugen der verschmolzenen Messobjekte verwendet wurde; d. h., den Wert der ID der Vorverarbeitungstabelle 3212. Die Felder der Position und der Geschwindigkeit speichern die Position und die Geschwindigkeit der verschmolzenen Messobjekte. Es wird angegeben, dass die Felder der neuen ID und der ursprünglichen ID lediglich um der Zweckmäßigkeit willen bereitgestellt werden und die Nachbearbeitungstabelle 3213 diese Felder nicht enthalten muss.The original ID field stores an ID of the measurement object that was used to create the fused measurement objects; that is, the value of the ID of the preprocessing table 3212 . The position and speed fields store the position and speed of the merged measurement objects. It is stated that the new ID and original ID fields are provided for convenience only, and the post-processing table 3213 does not have to contain these fields.

(Erste Bereichstabelle 3221A)(First range table 3221A )

6 ist eine graphische Darstellung, die ein Beispiel des ersten Bereichstabelle 3221A zeigt. Die erste Bereichstabelle 3221A speichert hauptsächlich die Zustandsgröße des Messobjekts, das im durch die Sensorgruppe 1 erfassten ersten Bereich Z1 vorhanden ist. Die erste Bereichstabelle 3221A ist aus mehreren Datensätzen konfiguriert, wobei jeder Datensatz die Datensätze der ID, des Erfassungssensors, der Position, der Geschwindigkeit und des Abgleichs enthält. Die Felder der ID, des Erfassungssensors, der Position und der Geschwindigkeit speichern die gleichen Informationen wie die Vorverarbeitungstabelle 3212. Das Abgleichfeld speichert eine interne Variable, die durch die erste Verschmelzungseinheit 312A beim Ausführen der später beschriebenen Verarbeitung verwendet wird. Der Anfangswert des Abgleichfeldes ist „noch nicht abgeglichen“. Die erste Bereichstabelle 3221A wird durch die erste Verschmelzungseinheit 312A erzeugt, die einen Datensatz aus der Vorverarbeitungstabelle 3212 extrahiert, in der der Bereich „Z1“ ist. Es wird angegeben, dass, während das Bereichsfeld in dem in 6 gezeigten Beispiel gelöscht worden ist, das Bereichsfeld außerdem gelassen werden kann, wie es ist. 6th Fig. 13 is a diagram showing an example of the first area table 3221A shows. The first range table 3221A mainly stores the state variable of the measurement object, which is imposed by the sensor group 1 detected first area Z1 is present. The first range table 3221A is configured from several data sets, each data set containing the data sets of the ID, the detection sensor, the position, the speed and the adjustment. The fields of ID, detection sensor, position and speed store the same information as the preprocessing table 3212 . The matching field stores an internal variable that is used by the first merging unit 312A in executing the processing described later. The initial value of the adjustment field is "not yet adjusted". The first range table 3221A is generated by the first merging unit 312A taking a record from the preprocessing table 3212 extracted, in which the area "Z1" is. It is stated that while the range field in the in 6th If the example shown has been deleted, the range field can also be left as is.

Die Konfiguration der ersten Bereichstabelle 3221A ist oben erklärt worden, wobei aber die Konfiguration der zweiten Bereichstabelle 3221B und der dritten Bereichstabelle 3221C außerdem die gleiche wie die Konfiguration der ersten Bereichstabelle 3221A ist. Die zweite Bereichstabelle 3221B wird jedoch durch die zweite Verschmelzungseinheit 312B erzeugt und speichert hauptsächlich die Zustandsgrößen des im zweiten Bereich Z2 vorhandenen Messobjekts. Überdies wird die dritte Bereichstabelle 3221C durch die dritte Verschmelzungseinheit 312C erzeugt, wobei sie hauptsächlich die Zustandsgrößen des im dritten Bereich Z3 vorhandenen Messobjektes speichert.The configuration of the first range table 3221A has been explained above, but the configuration of the second range table 3221B and the third range table 3221C also the same as the configuration of the first range table 3221A is. The second range table 3221B however, is generated by the second merging unit 312B and mainly stores the state variables of the measurement object present in the second area Z2. In addition, the third range table 3221C generated by the third merging unit 312C, mainly storing the state variables of the measurement object present in the third area Z3.

(Betrieb der Verarbeitungseinheit 31)(Operation of the processing unit 31 )

7 ist ein Ablaufplan, der die durch die Verarbeitungseinheit 31 auszuführende Verarbeitung zeigt. Die Verarbeitungseinheit 31 führt die in 7 gezeigte Verarbeitung für jeden vorgegebenen Verarbeitungszyklus, z. B. alle 100 ms, aus. In der Verarbeitungseinheit 31 erfasst die E/A-Einheit 33 zuerst die Zustandsgrößen des Messobjekts von der Sensorgruppe 1, wobei sie die Vorverarbeitungstabelle 3212 erzeugt, (S101). Es wird angegeben, dass zum Zeitpunkt des S101 das Bereichsfeld der Vorverarbeitungstabelle 3212 leer ist. Als Nächstes bestimmt die Positionsbestimmungseinheit 311 der Verarbeitungseinheit 31 den Bereich mit jeder im S101 erfassten Zustandsgröße als das Verarbeitungsziel (S102). Mit anderen Worten, die Positionsbestimmungseinheit 311 bestimmt den Bereich jedes Datensatzes unter Bezugnahme auf das Positionsfeld der Vorverarbeitungstabelle 3212 und die Bereichsbestimmungstabelle 3211, wobei sie den Namen des bestimmten Bereichs im Bereichsfeld jedes Datensatzes speichert. 7th is a flow chart which is used by the processing unit 31 shows processing to be performed. The processing unit 31 leads the in 7th processing shown for each given processing cycle, e.g. B. every 100 ms. In the processing unit 31 detects the I / O base 33 first the state variables of the measurement object from the sensor group 1 , being the preprocessing table 3212 generated (S101). It is indicated that at the time of S101, the area field of the preprocessing table 3212 is empty. Next, the position determining unit determines 311 the processing unit 31 the area with each state quantity detected in S101 as the processing target (S102). In other words, the position determination unit 311 determines the area of each record with reference to the position field of the preprocessing table 3212 and the area determination table 3211 , storing the name of the specific range in the range field of each record.

Anschließend führt die erste Verschmelzungseinheit 312A als das Verarbeitungsziel die Verschmelzungsverarbeitung nur an den Zustandsgrößen, die zum ersten Bereich Z1 gehören, unter den im S101 erfassten Zustandsgrößen aus (S103). Als Nächstes führt die zweite Verschmelzungseinheit 312B als das Verarbeitungsziel die Verschmelzungsverarbeitung nur an den Zustandsgrößen, die zum zweiten Bereich Z2 gehören, unter den im S101 erfassten Zustandsgrößen aus (S104). Als Nächstes führt die dritte Verschmelzungseinheit 312C als das Verarbeitungsziel die Verschmelzungsverarbeitung nur für die Zustandsgrößen, die zum dritten Bereich Z3 gehören, unter den im S101 erfassten Zustandsgrößen aus (S105).Subsequently, the first merging unit 312A, as the processing target, performs the merging processing only on the state quantities belonging to the first area Z1 among the state quantities acquired in S101 (S103). Next, the second merging unit 312B as the processing target performs the merging processing only on the state quantities belonging to the second area Z2 among the state quantities acquired in S101 (S104). Next, the third merging unit 312C as the processing target executes the merging processing only for the state quantities belonging to the third area Z3 among the state quantities acquired in S101 (S105).

Es wird angegeben, dass, während die Einzelheiten von S103 bis S105 später beschrieben werden, die erste Verschmelzungseinheit 312A, die zweite Verschmelzungseinheit 312B und die dritte Verschmelzungseinheit 312C die Verarbeitungsergebnisse in die Nachbearbeitungstabelle 3213 schreiben. Überdies kann hier, während S103 bis S105 der Reihe nach ausgeführt werden, die Reihenfolge der Schritte vertauscht sein oder können hier die Schritte parallel ausgeführt werden. Schließlich nimmt die die Fahrzeugsteuerungs-Verarbeitungseinheit 313 auf die Nachbearbeitungstabelle 3213 Bezug und bestimmt die Steuerverarbeitung des Fahrzeugs C, wobei sie einen Betriebsbefehl an die Aktuatorgruppe 4 ausgibt. Es wird angegeben, dass die Fahrzeugsteuerungs-Verarbeitungseinheit 313 außerdem die in der ersten Bereichstabelle 3221A, der zweiten Bereichstabelle 3221B und der dritten Bereichstabelle 3221C gespeicherten Informationen vor der Ausführung des S106 oder nach der Ausführung des S106 löschen kann.It is indicated that, while the details of S103 to S105 will be described later, the first fusing unit 312A, the second fusing unit 312B, and the third fusing unit 312C put the processing results into the post-processing table 3213 write. Moreover, while S103 to S105 are executed in sequence, the order of the steps can be reversed or the steps can be executed in parallel here. Finally, this takes the vehicle control processing unit 313 on the post-processing table 3213 Reference and determines the tax processing of the vehicle C. , giving an operation command to the actuator group 4th issues. It is indicated that the vehicle control processing unit 313 also those in the first range table 3221A , the second range table 3221B and the third range table 3221C saved Delete information before running the S106 or after running the S106.

(Verschmelzungsverarbeitung)(Merger processing)

8 ist ein Ablaufplan, der die Einzelheiten der durch die erste Verschmelzungseinheit 312A auszuführenden Verschmelzungsverarbeitung; d. h., die Einzelheiten des S103 nach 7 zeigt. Die Verarbeitungseinheit 31 nimmt zuerst auf die Vorverarbeitungstabelle 3212 Bezug und erzeugt die erste Bereichstabelle 3221A durch das Messen der Messobjekte, die zum ersten Bereich Z1 gehören, (S210). Es wird angegeben, dass, wie oben beschrieben worden ist, die Abgleichspalte aller Messobjekte in der ersten Bereichstabelle 3221A zum Zeitpunkt der Erzeugung „noch nicht abgeglichen“ ist. 8th Fig. 13 is a flowchart showing the details of the merging processing to be executed by the first merging unit 312A; ie, the details of the S103 after 7th shows. The processing unit 31 takes on the preprocessing table first 3212 Reference and creates the first range table 3221A by measuring the measurement objects belonging to the first area Z1 (S210). It is indicated that, as described above, the adjustment column of all measurement objects in the first range table 3221A is "not yet adjusted" at the time of generation.

Als Nächstes legt die Verarbeitungseinheit 31 das Messobjekt mit der kleinsten ID unter den in der im S210 erzeugten ersten Bereichstabelle 3221A beschriebenen Messobjekten als das Verarbeitungsziel fest (S211). Als Nächstes extrahiert die Verarbeitungseinheit 31 unter den in der ersten Bereichstabelle 3221A beschriebenen Messobjekten ein Messobjekt, bei dem die Abgleichspalte „noch nicht abgeglichen“ ist, sich der Erfassungssensor von den Messobjekten als das Verarbeitungsziel unterscheidet und sich der Unterschied der Position im Vergleich zum Verarbeitungsziel innerhalb eines vorgegebenen Wertes befindet (S212). Als Nächstes extrahiert die Verarbeitungseinheit 31 unter den im S212 extrahierten Messobjekten ein Messobjekt, bei dem sich der Unterschied der Geschwindigkeit im Vergleich zu den Messobjekten als das Verarbeitungsziel innerhalb eines vorgegebenen Wertes befindet (S213).Next, the processing unit lays down 31 the measurement object with the smallest ID among the first range table generated in the S210 3221A as the processing target (S211). Next, the processing unit extracts 31 below those in the first range table 3221A measurement objects described above, a measurement object in which the adjustment column is “not yet adjusted”, the detection sensor differs from the measurement objects as the processing target, and the difference in position compared to the processing target is within a predetermined value (S212). Next, the processing unit extracts 31 Among the measurement objects extracted in S212, a measurement object in which the difference in speed compared with the measurement objects as the processing target is within a predetermined value (S213).

Als Nächstes bestimmt die Verarbeitungseinheit 31, ob es ein Messobjekt gibt, das im S213 extrahiert wurde, (S214). Wenn die Verarbeitungseinheit 31 bestimmt, dass es ein Messobjekt gibt, das im S213 extrahiert wurde; d. h., dass es ein weiteres Messobjekt, das die Bedingungen des S212 und des S213 erfüllt, mit Ausnahme der Messobjekte als das Verarbeitungsziel gibt, geht die Verarbeitungseinheit 31 beim Bestimmen, dass diese Messobjekte eine Übereinstimmung sind, zum S215 weiter, wobei sie zum S215 weitergeht und beim Bestimmen, dass es kein derartiges anderes Messobjekt, das im S213 extrahiert wurde, gibt, zum S218 weitergeht. Im S215 verschmilzt die Verarbeitungseinheit 31 die Position und die Geschwindigkeit des Verarbeitungsziels und des im S213 extrahierten Messobjekts. Die Verschmelzung ist z. B. ein einfacher Durchschnitt. Als Nächstes schreibt die Verarbeitungseinheit 31 das Berechnungsergebnis des S215 in die Nachbearbeitungstabelle 3213, wobei sie die Abgleichspalten der Messobjekte als das Verarbeitungsziel der ersten Bereichstabelle 23221A und des im S213 extrahierten Messobjekts in „abgeglichen“ (S216) umschreibt.Next, the processing unit determines 31 whether there is a measurement object extracted in S213 (S214). When the processing unit 31 determines that there is a measurement object extracted in S213; that is, there is another measurement object that satisfies the conditions of S212 and S213 except for the measurement objects as the processing target, the processing unit goes 31 upon determining that these measurement objects are a match, proceeds to S215, proceeding to S215; and upon determining that there is no such other measurement object extracted in S213, proceeds to S218. The processing unit merges in S215 31 the position and speed of the processing target and the measurement object extracted in S213. The merger is z. B. a simple average. Next, the processing unit writes 31 the calculation result of the S215 into the post-processing table 3213 , rewriting the adjustment columns of the measurement objects as the processing target of the first range table 23221A and the measurement object extracted in S213 as “adjusted” (S216).

Als Nächstes bestimmt die Verarbeitungseinheit 31, ob es ein Messobjekt gibt, das in der Bereichstabelle 3221A beschrieben ist, das kein Verarbeitungsziel ist und bei dem die Abgleichspalte „noch nicht abgeglichen“ ist (S217). Wenn die Verarbeitungseinheit 31 im S217 eine positive Bestimmung erhält, bestimmt die Verarbeitungseinheit 31 ein Messobjekt, das noch kein Verarbeitungsziel ist und in dem die Abgleichspalte „noch nicht abgeglichen“ ist, als ein neues Verarbeitungsziel (S218), wobei sie zum S212 zurückkehrt. Die Verarbeitungseinheit 31 beendet die in 8 gezeigte Verarbeitung beim Erhalten einer negativen Bestimmung im S217.Next, the processing unit determines 31 whether there is a measurement object that is in the range table 3221A is described that is not a processing target and that the matching column is “not yet matched” (S217). When the processing unit 31 receives an affirmative determination in S217, the processing unit determines 31 a measurement object that is not yet a processing target and in which the matching column is “not yet matched” as a new processing target (S218), returning to S212. The processing unit 31 ends the in 8th processing shown in obtaining a negative determination in S217.

Während die durch die erste Verschmelzungseinheit 312A auszuführende Verschmelzungsverarbeitung in 8 erklärt wurde, wird angegeben, dass, weil die durch die zweite Verschmelzungseinheit 312B und die dritte Verschmelzungseinheit 312C auszuführende Verschmelzungsverarbeitung außerdem die gleiche ist, deren Erklärung weggelassen wird. Es gibt jedoch folgende Unterschiede; spezifisch soll die zweite Verschmelzungseinheit 312B nur die Messobjekte verarbeiten, die zum zweiten Bereich Z2 gehören, und soll die dritte Verschmelzungseinheit 312C nur die Messobjekte verarbeiten, die zum dritten Bereich Z3 gehören.While the merging processing to be performed by the first merging unit 312A in FIG 8th has been explained, it is indicated that since the merging processing to be executed by the second merging unit 312B and the third merging unit 312C is also the same, the explanation thereof is omitted. However, there are the following differences; specifically, the second merging unit 312B should only process the measurement objects that belong to the second area Z2, and the third merging unit 312C should only process the measurement objects that belong to the third area Z3.

Gemäß der vorhergehenden ersten Ausführungsform ergeben sich der folgende Betrieb und die folgende Wirkung.
(1) Eine elektronische Steuereinrichtung umfasst eine E/A-Einheit 33, die die Zustandsgrößen einschließlich einer Position eines Messobjekts unter Verwendung einer Ausgabe mehrerer Sensoren, die in einer Sensorgruppe 1 enthalten sind, erfasst, eine Speichereinheit 32, die eine Bereichsbestimmungstabelle 3211 als eine Bedingung einer auf die Position bezogenen Klassifikation speichert, eine Positionsbestimmungseinheit 311, die das Messobjekt unter Verwendung der Klassifikationsbedingung klassifiziert, und eine Verschmelzungseinheit 312, die unter Bezugnahme auf die Zustandsgrößen eine Übereinstimmung zwischen mehreren der Messobjekte, die durch die Positionsbestimmungseinheit 311 als völlig gleich klassifiziert worden sind und die durch verschiedenen Sensoren gemessen wurden, bestimmt und die Positionen der mehreren Messobjekte, die als eine Übereinstimmung bestimmt wurden, verschmilzt. Die Messobjekte sind Objekte, die durch jeden der mehreren Sensoren gemessen werden können.
According to the foregoing first embodiment, there is the following operation and effect.
(1) An electronic control device includes an I / O unit 33 that the state variables including a position of a measurement object using an output of several sensors that are in a sensor group 1 are included, detected, a storage unit 32 , which is an area definition table 3211 stores as a condition of a position-related classification, a position determining unit 311 that classifies the measurement object using the classification condition, and a fusing unit 312 which, with reference to the state variables, determine a correspondence between a plurality of the measurement objects that are determined by the position determination unit 311 have been classified as identical and which have been measured by different sensors, are determined and the positions of the plurality of measurement objects determined as a match are merged. The measurement objects are objects that can be measured by each of the multiple sensors.

Die Verschmelzungseinheit 312 bestimmt eine Übereinstimmung der Messobjekte, indem sie auf die Messobjekte abzielt, die durch die Positionsbestimmungseinheit 311 als völlig gleich klassifiziert werden. Weil die Ziele, für die eine Übereinstimmung mit den Messobjekten durch die Verschmelzungseinheit 312 bestimmt werden soll, auf die Klassifikation durch die Positionsbestimmungseinheit 311 eingeschränkt sind, kann folglich die Verarbeitungslast der Verschmelzungseinheit 312 verringert werden. Überdies ist es möglich, die Obergrenze der Messobjekte, die durch die elektronische Steuervorrichtung 3 verarbeitet werden können, zu erhöhen.The merging unit 312 determines a correspondence of the measurement objects by aiming at the measurement objects generated by the position determining unit 311 classified as exactly the same will. Because the goals for which a match with the measurement objects through the merging unit 312 is to be determined on the classification by the position determining unit 311 are limited, the processing load of the fuser may consequently 312 be reduced. Moreover, it is possible to set the upper limit of the measurement objects that are generated by the electronic control device 3 can be processed to increase.

Hier wird ein Fall, in dem die Positionsbestimmungseinheit 311 die Klassifikation nicht ausführt, als ein „Vergleichsbeispiel“ bezeichnet, wobei nun die Wirkung der Positionsbestimmungseinheit 311, mit der die elektronische Steuervorrichtung 3 ausgerüstet ist, erklärt wird. Es wird z. B. ein Fall betrachtet, in dem die linke Kamera LC, die rechte Kamera RC, das linke Radar LR und das rechte Radar RR jeweils 10 Messobjekte messen; d. h., ein Fall, in dem insgesamt 40 Messobjekte gemessen werden. Hier wird im Vergleichsbeispiel bezüglich eines bestimmten Messobjekts, das mit der linken Kamera LC gemessen wird, eine Übereinstimmung mit insgesamt 30 Messobjekten, die mit den anderen drei Sensoren gemessen wurden, bestimmt. Weil in einer einfachen Berechnung eine Übereinstimmung jedes der 40 Messobjekte mit 30 Messobjekten bestimmt wird, müssen im Vergleichsbeispiel 1200 Kombinationen berücksichtigt werden. Unterdessen nimmt beim Ausführen der Klassifikation basierend auf der Positionsbestimmungseinheit 311 die Gesamtzahl der Kombinationen ab, weil die Kombinationen der Messobjekte in den jeweiligen Bereichen vom ersten Bereich Z1 bis zum dritten Bereich Z3 berücksichtigt werden.Here becomes a case where the position determining unit 311 does not carry out the classification, referred to as a “comparative example”, with the effect of the position determining unit now 311 with which the electronic control device 3 is equipped, is explained. It is z. For example, consider a case where the left camera LC, the right camera RC, the left radar LR and the right radar RR each measure 10 measurement objects; that is, a case where a total of 40 measurement objects are measured. Here, in the comparative example, with regard to a specific measurement object measured with the left camera LC, a correspondence with a total of 30 measurement objects measured with the other three sensors is determined. Because a match of each of the 40 measurement objects with 30 measurement objects is determined in a simple calculation, 1200 combinations must be taken into account in the comparative example. Meanwhile, in performing the classification based on the position determining unit, it increases 311 the total number of combinations, because the combinations of the measurement objects are taken into account in the respective areas from the first area Z1 to the third area Z3.

Weil die Verarbeitung der Verarbeitungseinheit 31 für jeden vorgegebenen Verarbeitungszyklus ausgeführt wird, gibt es überdies eine Obergrenze für die Anzahl der Kombinationen, die berücksichtigt werden können. Selbst wenn die Gesamtzahl der Messobjekte, die mit den jeweiligen Sensoren gemessen wurden, die gleiche ist, ist die Anzahl der zu berücksichtigenden Kombinationen in der elektronischen Steuervorrichtung 3 im Vergleich zum Vergleichsbeispiel kleiner. Anders ausgedrückt, wenn die Anzahl der Kombinationen, die berücksichtigt werden können, im Vergleichsbeispiel und in der elektronischen Steuervorrichtung 3 die gleiche ist, ist die Obergrenze der Messobjekte, die mit der elektronischen Steuervorrichtung 3 verarbeitet werden können, größer.Because the processing of the processing unit 31 is performed for any given processing cycle, there is also an upper limit to the number of combinations that can be considered. Even if the total number of measurement objects measured with the respective sensors is the same, the number of combinations to be considered is in the electronic control device 3 smaller compared to the comparative example. In other words, if the number of combinations that can be considered in the comparative example and in the electronic control device 3 is the same, is the upper limit of the measurement objects that can be used with the electronic control device 3 can be processed larger.

(Modifiziertes Beispiel 1)(Modified example 1)

Der Typ und die Anzahl der Sensoren, die die Sensorgruppe 1 in der ersten Ausführungsform konfigurieren, der Datenerfassungsbereich jedes Sensors und die definierten Bereiche sind lediglich Veranschaulichungen und können von der ersten Ausführungsform abweichen. Die Sensorgruppe 1 muss nur wenigstens zwei Sensoren enthalten. Die Datenerfassungsbereiche der jeweiligen Sensoren müssen nur an wenigstens einer Stelle überlappen. Die Bereiche können basierend auf den Datenerfassungsbereichen der jeweiligen Sensoren, insbesondere basierend auf der Anzahl der Überlappungen der Datenerfassungsbereiche mit den anderen Sensoren definiert sein. Überdies kann die Bereichsbestimmungstabelle 3211 in einem anderen Format als einem Tabellenformat ausgedrückt sein, wobei die Bedingung der Position außerdem als ein mathematischer Ausdruck angegeben sein kann. Weiterhin kann die Bereichsbestimmungstabelle 3211 die Position mit den Koordinaten eines rechtwinkligen Koordinatensystems ausdrücken.The type and number of sensors that make up the sensor group 1 Configure in the first embodiment, the data acquisition area of each sensor and the defined areas are just illustrations and may differ from the first embodiment. The sensor group 1 only needs to contain at least two sensors. The data acquisition areas of the respective sensors only need to overlap at at least one point. The areas can be defined based on the data acquisition areas of the respective sensors, in particular based on the number of overlaps of the data acquisition areas with the other sensors. Moreover, the area determination table 3211 expressed in a format other than a table format, and the condition of position can also be expressed as a mathematical expression. Furthermore, the area definition table 3211 express the position with the coordinates of a right-angled coordinate system.

(Modifiziertes Beispiel 2)(Modified example 2)

Die jeweiligen Sensoren, die in der Sensorgruppe 1 enthalten sind, können die Sensorausgänge außerdem direkt an die elektronische Steuervorrichtung 3 ausgeben. Im vorhergehenden Fall umfasst die elektronische Steuervorrichtung 3 zusätzlich eine Zustandsgrößen-Berechnungseinheit, die unter Verwendung der jeweiligen Sensoren die Zustandsgrößen der Messobjekte berechnet. Die Zustandsgrößen-Berechnungseinheit kann mit der Verarbeitungseinheit 31 oder mit einer Hardware-Schaltung verwirklicht sein.The respective sensors that are in the sensor group 1 are included, the sensor outputs can also be sent directly to the electronic control device 3 output. In the foregoing case, the electronic control device comprises 3 In addition, a state variable calculation unit that uses the respective sensors to calculate the state variables of the objects to be measured. The state variable calculation unit can communicate with the processing unit 31 or be realized with a hardware circuit.

(Modifiziertes Beispiel 3)(Modified example 3)

Die elektronische Steuervorrichtung 3 kann außerdem mit einer Eingabevorrichtung, wie z. B. einer Maus oder einer Tastatur, verbunden sein, wobei die Eingabe der Bedienungsperson, die über die E/A-Einheit 33 in die Eingabevorrichtung eingegeben wurde, beim erneuten Schreiben der in der Speichereinheit 32 gespeicherten Informationen verwendet werden kann.The electronic control device 3 can also be connected to an input device, such as. B. a mouse or a keyboard connected, with the input of the operator via the I / O unit 33 was entered into the input device when rewriting the in the memory unit 32 stored information can be used.

(Modifiziertes Beispiel 4)(Modified example 4)

Wenn die Verschmelzungsverarbeitung außerhalb der elektronischen Steuervorrichtung 3 durchgeführt werden soll und deren Operationsergebnis in die elektronische Steuervorrichtung 3 eingegeben werden soll, kann die elektronische Steuervorrichtung 3 eine derartige Verschmelzungsverarbeitung weglassen. Unter Verwendung der von der linken Kamera LC und der rechten Kamera RC ausgegebenen Bilder wird z. B. ein Disparitätsbild erzeugt, wobei das erzeugte Disparitätsbild in die elektronische Steuervorrichtung 3 eingegeben wird. Im vorhergehenden Fall kann das Disparitätsbild entweder durch die linke Kamera LC oder die rechte Kamera RC oder durch eine weitere Vorrichtung erzeugt werden.When the merging processing is outside the electronic control device 3 is to be carried out and its operation result in the electronic control device 3 should be entered, the electronic control device 3 omit such merging processing. Using the images output from the left camera LC and the right camera RC, e.g. B. generated a disparity image, wherein the generated disparity image in the electronic control device 3 is entered. In the preceding case, the disparity image can be generated either by the left camera LC or the right camera RC or by a further device.

Gemäß dem modifizierten Beispiel 4 kann durch das Weglassen der durch die elektronische Steuervorrichtung 3 auszuführenden Verschmelzungsverarbeitung die Verarbeitungsmenge verringert werden, wobei die Verarbeitungsverzögerung verringert werden kann. Weil überdies die Verarbeitungsleistung, die durch die elektronische Steuervorrichtung 3 benötigt wird, abnimmt, können die Herstellungskosten des elektronischen Steuervorrichtung 3 verringert werden.According to Modified Example 4, by omitting the information provided by the electronic control device 3 the amount of processing to be performed can be reduced, and the processing delay can be reduced. Moreover, because the processing power required by the electronic control device 3 is required decreases, the manufacturing cost of the electronic control device can 3 be reduced.

- Zweite Ausführungsform -- Second embodiment -

Die zweite Ausführungsform der elektronischen Steuervorrichtung gemäß der vorliegenden Erfindung wird nun bezüglich 9 bis 12 erklärt. In der folgenden Erläuterung sind den gleichen konstituierenden Elementen wie die erste Ausführungsform das gleiche Bezugszeichen gegeben, wobei hauptsächlich die Unterschiede zwischen der zweiten Ausführungsform und der ersten Ausführungsform erklärt werden. Alle Punkte, die nicht spezifisch erklärt werden, sind die gleichen wie die erste Ausführungsform. Diese Ausführungsform unterscheidet sich von der ersten Ausführungsform hauptsächlich bezüglich des Punkts, dass in der Bereichsbestimmungstabelle mehrere Muster beschrieben sind und das zu verwendende Muster abhängig von der Leistungsverschlechterung des Sensors geändert wird. Überdies sind in dieser Ausführungsform die Sensoren den jeweiligen Bereichen zugeordnet, wobei die jeweiligen Bereiche überlappen können.The second embodiment of the electronic control device according to the present invention will now be referred to 9 to 12th explained. In the following explanation, the same constituent elements as the first embodiment are given the same reference numerals, mainly explaining the differences between the second embodiment and the first embodiment. All points that are not specifically explained are the same as the first embodiment. This embodiment differs from the first embodiment mainly in the point that plural patterns are described in the area determination table and the pattern to be used is changed depending on the deterioration in the performance of the sensor. In addition, in this embodiment the sensors are assigned to the respective areas, it being possible for the respective areas to overlap.

(Konfiguration)(Configuration)

9 ist eine graphische Darstellung, die die Konfiguration des Fahrzeugs C in der zweiten Ausführungsform zeigt. In dieser Ausführungsform umfasst das Fahrzeug C alle Konfigurationen der ersten Ausführungsform, wobei es zusätzlich einen Beleuchtungsstärkensensor 21, der die Umgebungshelligkeit misst, und einen Wischersensor 22, der den Betriebs des Wischers des Fahrzeugs C überwacht, umfasst. In der folgenden Erklärung werden der Beleuchtungsstärkensensor 21 und der Wischersensor 22 jedoch gegebenenfalls gemeinsam als eine Umgebungsüberwachungsvorrichtung 2 bezeichnet. Die elektronische Steuervorrichtung 3 erfasst den Messwert der Umgebungsüberwachungsvorrichtung 2 unter Verwendung der E/A-Einheit 33. Überdies speichert in dieser Ausführungsform die gemeinsame Speichereinheit 321 zusätzlich eine Musterbestimmungstabelle 3214 und die Sensorbereichs-Zuordnungsinformationen 3217, wobei sie eine Bereichsbestimmungstabelle 3211A als Ersatz für die Bereichsbestimmungstabelle 3211 speichert. Die Verarbeitungseinheit 31 enthält als ihre Funktion zusätzlich eine Bereichsänderungseinheit 314. 9 Fig. 13 is a diagram showing the configuration of the vehicle C. in the second embodiment shows. In this embodiment, the vehicle comprises C. all configurations of the first embodiment, with the addition of an illuminance sensor 21, which measures the ambient brightness, and a wiper sensor 22, which controls the operation of the vehicle's wiper C. monitors, includes. In the following explanation, however, the illuminance sensor 21 and the wiper sensor 22 may be used together as an environment monitoring device 2 designated. The electronic control device 3 detects the measured value of the environmental monitoring device 2 using the I / O base 33 . Moreover, in this embodiment, the common storage unit stores 321 additionally a pattern determination table 3214 and the sensor area allocation information 3217, being an area designation table 3211A as a substitute for the area designation table 3211 saves. The processing unit 31 additionally contains a range change unit as its function 314 .

Die Bereichsänderungseinheit 314 schätzt die Leistungsverschlechterung eines oder mehrerer Sensoren basierend auf den Informationen über die Zustandsgrößen des Messobjekts, die von der Sensorgruppe 1 erfasst werden, und der äußeren Umgebung, die von der Umgebungsüberwachungsvorrichtung 2 erfasst wird, und bestimmt, ob die geschätzte Leistungsverschlechterung irgendeinem der mehreren vorgegebenen Muster entspricht. Dieses Muster ist ein Muster, das den Bereich definiert. Die Leistungsverschlechterung enthält eine Verschlechterung der Informationsmenge und der Qualität der erhaltenen Informationen und eine Verschlechterung der Empfindlichkeit. Anders ausgedrückt, die Bereichsänderungseinheit 314 erfasst die Leistungsschätzungsinformationen zum Schätzen der Leistungsverschlechterung der Sensorgruppe 1 von der Sensorgruppe 1 und der Umgebungsüberwachungsvorrichtung 2. Eine Konzeptualisierung höherer Ebene des Betriebs der Bereichsänderungseinheit 314 ist wie folgt. Mit anderen Worten, die Bereichsänderungseinheit 314 identifiziert einen Sensor, dessen Leistung sich verschlechtert hat, unter Verwendung der durch die E/A-Einheit 33 erfassten Leistungsschätzungsinformationen und ändert die Koordinatenbedingung der Bereichsbestimmungstabelle 3211A so, dass der diesem Sensor zugeordnete Bereich verschmälert wird.The range change unit 314 estimates the deterioration in performance of one or more sensors based on the information about the state quantities of the measurement object received from the sensor group 1 are detected, and the external environment, which is determined by the environmental monitoring device 2 is detected and determines whether the estimated performance degradation corresponds to any one of the plurality of predetermined patterns. This pattern is a pattern that defines the area. The deterioration in performance includes deterioration in the amount of information and the quality of the information obtained, and deterioration in sensitivity. In other words, the area changing unit 314 acquires the performance estimation information for estimating the performance deterioration of the sensor group 1 from the sensor group 1 and the environmental monitoring device 2 . A higher level conceptualization of the operation of the range changing unit 314 is as follows. In other words, the range changing unit 314 identifies a sensor that has deteriorated in performance using the number indicated by the I / O base 33 acquired performance estimation information and changes the coordinate condition of the area determination table 3211A so that the area assigned to this sensor is narrowed.

Die Bereichsbestimmungstabelle 3211A in der zweiten Ausführungsform beschreibt die Koordinatenbedingung, die den jeweiligen Mustern entspricht, die durch die Bereichsänderungseinheit 314 bestimmt wurden. Es wird angegeben, dass in der folgenden Erklärung die Koordinatenbedingung gegebenenfalls außerdem als die „Positionsbedingung“ bezeichnet wird. In dieser Ausführungsform nimmt folglich die Positionsbestimmungseinheit 311 auf die Bereichsbestimmungstabelle 3211A Bezug, nachdem die Bereichsänderungseinheit 314 zuerst das Muster bestimmt hat. Mit anderen Worten, die Positionsbestimmungseinheit 311 bestimmt die Bereiche der jeweiligen Messobjekte basierend auf der Koordinatenbedingung, die in der Bereichsbestimmungstabelle 3211A beschrieben ist und die dem durch die Bereichsänderungseinheit 314 ermittelten Muster entspricht. Überdies sind in dieser Ausführungsform die sechs Bereiche eines zweiten A-Bereichs Z2A bis zu einem zweiten F-Bereich Z2F als Ersatz für den zweiten Bereich Z2 in der ersten Ausführungsform definiert, wobei insgesamt acht Bereiche definiert sind.The area determination table 3211A in the second embodiment describes the coordinate condition that corresponds to the respective patterns created by the area changing unit 314 were determined. It is noted that in the following explanation, the coordinate condition is also referred to as the “position condition” as appropriate. In this embodiment, the position determining unit therefore takes 311 Referring to the area determination table 3211A after the area changing unit 314 first determined the pattern. In other words, the position determination unit 311 determines the areas of the respective measurement objects based on the coordinate condition described in the area determination table 3211A and that by the area changing unit 314 determined pattern corresponds. In addition, in this embodiment the six areas of a second A area Z2A to a second F area Z2F are defined as replacements for the second area Z2 in the first embodiment, with a total of eight areas being defined.

Es wird angegeben, dass, während in 9 nur eine zweite Verschmelzungseinheit 312B veranschaulicht ist, die zweite Verschmelzungseinheit 312B die sechs Bereiche des zweiten A-Bereichs Z2A bis zum zweiten F-Bereich Z2F verarbeiten kann oder die Verschmelzungseinheiten zum Verarbeiten der vorhergehenden sechs Bereiche unabhängig voneinander vorhanden sein können. Im vorhergehenden Fall umfasst die Verarbeitungseinheit 31 insgesamt acht Verschmelzungseinheiten.It is stated that while in 9 only one second fusing unit 312B is illustrated, the second fusing unit 312B can process the six areas of the second A-area Z2A to the second F-area Z2F, or the fusing units for processing the previous six areas independently each other may be present. In the previous case, the processing unit comprises 31 a total of eight merger units.

Die Musterbestimmungstabelle 3214 beschreibt die Informationen zum Bestimmen, welchem der mehreren Muster zum Definieren des Bereichs der Zustand der Sensorgruppe 1 entspricht. Weil in dieser Ausführungsform mehrere Muster in der Bereichsbestimmungstabelle 3211A beschrieben sind, nimmt die Positionsbestimmungseinheit 311 zum Bestimmen, welches dieser Muster verwendet werden sollte, auf die Musterbestimmungstabelle 3214 Bezug, wie oben beschrieben worden ist.The pattern determination table 3214 describes the information for determining which of the multiple patterns defining the area of the state of the sensor group 1 corresponds. In this embodiment, since a plurality of patterns are described in the area determination table 3211A, the position determination unit takes 311 to determine which of these patterns should be used, refer to the pattern determination table 3214 Reference as described above.

Die Sensorbereichs-Zuordnungsinformationen 3217 zeigen die Zuordnung der Sensoren hinsichtlich der jeweiligen Bereiche, wobei jedem Bereich wenigstens zwei Sensoren zugeordnet sind. Die Verschmelzungsverarbeitungseinheit 312 nimmt auf die Sensorbereichs-Zuordnungsinformationen 3217 Bezug und verarbeitet nur die Messobjekte der Sensoren, die jedem Bereich zugeordnet sind. Die Einzelheiten werden später beschrieben.The sensor area assignment information 3217 shows the assignment of the sensors with regard to the respective areas, with at least two sensors being assigned to each area. The merge processing unit 312 refers to the sensor area assignment information 3217 and processes only the measurement objects of the sensors assigned to each area. The details will be described later.

(Musterbestimmungstabelle 3214)(Sample determination table 3214)

10 ist eine graphische Darstellung, die ein Beispiel der Musterbestimmungstabelle 3214 zeigt. Die Musterbestimmungstabelle 3214 beschreibt eine Kombination aus einer Bedingung und einem Bereichsmuster. Das Bedingungsfeld beschreibt die Bedingung bezüglich der Leistung des Sensors, während das Bereichsmusterfeld den Namen des entsprechenden Bereichsmusters beschreibt. Der erste Datensatz nach 10 zeigt z. B., dass das Bereichsmuster das „Muster B“ ist, wenn die vom Beleuchtungsstärkesensor 21 erfasste Beleuchtungsstärke E kleiner als ein vorgegebener Schwellenwert Ea ist. Der nächste Datensatz zeigt, dass das Bereichsmuster das „Muster C“ ist, wenn vom Ausgang des Wischersensors 22 bestimmt wird, dass der Schalter des Wischers auf EIN geschaltet worden ist. 10 Fig. 13 is a diagram showing an example of the pattern determination table 3214 shows. The pattern determination table 3214 describes a combination of a condition and a range pattern. The condition field describes the condition related to the performance of the sensor, while the area pattern field describes the name of the corresponding area pattern. The first record after 10 shows e.g. B. that the area pattern is the “pattern B” when the illuminance E detected by the illuminance sensor 21 is less than a predetermined threshold value Ea. The next record shows that the area pattern is "Pattern C" when it is determined from the output of the wiper sensor 22 that the switch of the wiper has been turned ON.

Der nächste Datensatz zeigt, dass das Bereichsmuster das „Muster D“ ist, wenn die von der linken Kamera LC ausgegebene Geschwindigkeit des Messobjekts diskontinuierlich ist. Die Kontinuität der Geschwindigkeit des Messobjekts, die von der linken Kamera LC ausgegeben wird, kann z. B. in der folgenden Weise bewertet werden. Hinsichtlich eines bestimmtes Messobjekts, das von der linken Kamera LC ausgegeben wird, wird angenommen, dass der vorher gemessene Zeitpunkt t0 ist, die vorher gemessene Position R(t0) ist, die vorher gemessene Geschwindigkeit V(t0) ist, der aktuell gemessene Zeitpunkt t1 ist, die aktuell gemessene Position R(t1) ist und die aktuell gemessene Geschwindigkeit V(t1) ist. Wenn hier die nachstehende Formel (1) für eine vorgegebene Anzahl N von Malen hinsichtlich aller Messobjekte der linken Kamera LC kontinuierlich erfüllt ist, wird bestimmt, dass die Geschwindigkeit diskontinuierlich ist. | R ( t1 ) { R ( t0 ) + V ( t0 ) ( t1 t0 ) } | > Δ R

Figure DE112019001545T5_0001
The next data set shows that the area pattern is the “pattern D” when the speed of the measurement object output by the left camera LC is discontinuous. The continuity of the speed of the measurement object, which is output from the left camera LC, can e.g. B. be evaluated in the following manner. With regard to a certain measurement object output from the left camera LC, it is assumed that the previously measured time point is t0, the previously measured position is R (t0), the previously measured speed is V (t0), the currently measured time point t1 is, the currently measured position is R (t1) and the currently measured speed is V (t1). Here, when the following formula (1) is continuously satisfied for a predetermined number N of times with respect to all measurement objects of the left camera LC, it is determined that the speed is discontinuous. | R. ( t1 ) - { R. ( t0 ) + V ( t0 ) ( t1 - t0 ) } | > Δ R.
Figure DE112019001545T5_0001

Der nächste Datensatz zeigt, dass, wenn bestimmt wird, dass die linke Kamera LC ausgefallen ist, das Bereichsmuster das „Muster D“ ist, das das gleiche wie der unmittelbar vorhergehenden Datensatz ist. Der letzte Datensatz zeigt, dass das Bereichsmuster das „Muster A“ ist, wenn die Bedingung keinem der Fälle entspricht; d. h., wenn es kein besonderes Problem mit der Sensorgruppe 1 gibt. Es wird angegeben, dass das Bereichsmuster in der ersten Ausführungsform dem „Muster A“ entspricht. Während im in 10 gezeigten Beispiel mehrere Muster angegeben sind, gibt es überdies keine Einschränkung an die Anzahl der Muster, wobei es ausreichend ist, solange wie die Anzahl der Muster zwei oder mehr Muster beträgt.The next record shows that when it is determined that the left camera LC has failed, the area pattern is "Pattern D" which is the same as the immediately preceding record. The last record shows that the range pattern is "Pattern A" if the condition does not match any of the cases; ie if there is no particular problem with the sensor group 1 gives. It is indicated that the area pattern corresponds to “Pattern A” in the first embodiment. While in the in 10 In addition, when a plurality of patterns are given in the example shown, there is no restriction on the number of patterns, and it is sufficient as long as the number of patterns is two or more patterns.

(Bereichsbestimmungstabelle 3211A)(Area definition table 3211A)

11 ist eine graphische Darstellung, die ein Beispiel der Bereichsbestimmungstabelle 3211A in der zweiten Ausführungsform zeigt. Die Bereichsbestimmungstabelle 3211A zeichnet mehrere Muster hinsichtlich der Positionsbedingung auf. In dem in 11 gezeigten Beispiel sind z. B. die beiden Positionsbedingungen des Musters A und des Musters B in der Bereichsbestimmungstabelle 3211A spezifiziert, während die spezifischen Werte der anderen Muster weggelassen sind. Die Bereichsbestimmungstabelle 3211A enthält die Koordinatenbedingungen aller in der Musterbestimmungstabelle 3214 beschriebenen Muster. 11 Fig. 13 is a diagram showing an example of the area determination table 3211A in the second embodiment. The area determination table 3211A records a plurality of patterns regarding the position condition. In the in 11 example shown are e.g. For example, the two positional conditions of the pattern A and the pattern B are specified in the area designation table 3211A while the specific values of the other patterns are omitted. The area designation table 3211A contains the coordinate conditions of all in the pattern designation table 3214 described pattern.

(Sensorbereichs-Zuordnungsinformationen 3217)(Sensor area assignment information 3217)

12 ist eine graphische Darstellung, die ein Beispiel der Sensorbereichs-Zuordnungsinformationen 3217 zeigt. Das in 12 gezeigte Beispiel stellt dar, dass die linke Kamera LC und das linke Radar LR dem ersten Bereich Z1 zugeordnet sind, zwei Sensoren, die aus vier Sensoren, spezifisch der linken Kamera LC, der rechten Kamera RC, dem linken Radar LR und dem rechten Radar RR, ausgewählt sind, dem zweiten A-Bereich Z2A bis zum zweiten F-Bereich Z2F zugeordnet sind und die rechte Kamera RC und das rechte Radar RR dem dritten Bereich Z3 zugeordnet sind. 12th FIG. 13 is a diagram showing an example of the sensor area allocation information 3217. This in 12th The example shown shows that the left camera LC and the left radar LR are assigned to the first area Z1, two sensors consisting of four sensors, specifically the left camera LC, the right camera RC, the left radar LR and the right radar RR , are selected, are assigned to the second A area Z2A to the second F area Z2F and the right camera RC and the right radar RR are assigned to the third area Z3.

Es wird angegeben, dass hinsichtlich des Musters D, das in 11 nicht veranschaulicht ist, die Größe des ersten Bereichs Z1, des zweiten A-Bereichs Z2A, des zweiten B-Bereichs Z2B und des zweiten C-Bereichs Z2C, die der linken Kamera LC zugeordnet sind, gleich der oder kleiner als die Größe der Bereiche des Musters A ist, und die Größe der Bereiche mit Ausnahme der vorhergehenden Bereiche, die nicht der linken Kamera LC zugeordnet sind, zunimmt. Im Muster D ist z. B. der erste Bereich Z1 im Vergleich zum Muster A schmaler, ändern sich die ebenen Abmessungen des zweiten A-Bereichs Z2A bis zum zweiten F-Bereich Z2F nicht und sind die ebenen Abmessungen des dritten Bereichs Z3 breiter.It is stated that with respect to the pattern D shown in 11 not illustrated, the size of the first area Z1, the second A area Z2A, the second B area Z2B and the second C area Z2C, which are assigned to the left camera LC, equal to or smaller than that Size of the areas of the pattern A, and the size of the areas other than the preceding areas not assigned to the left camera LC increases. In the pattern D is z. For example, if the first area Z1 is narrower compared to the pattern A, the planar dimensions of the second A area Z2A do not change up to the second F area Z2F and the planar dimensions of the third area Z3 are wider.

(Betrieb der Verarbeitungseinheit 31)(Operation of the processing unit 31)

13 ist ein Ablaufplan, der die Verarbeitung der Verarbeitungseinheit 31 in der zweiten Ausführungsform zeigt. Die Unterschiede im Vergleich zu der in 7 gezeigten Verarbeitung der ersten Ausführungsform sind, dass der S101A und der S101B zwischen dem S101 und dem S102 hinzugefügt worden sind und dass der S102 in den S102A geändert worden ist. Die Unterschiede im Vergleich zur ersten Ausführungsform werden nun erklärt. 13 Fig. 3 is a flow chart showing the processing of the processing unit 31 in the second embodiment shows. The differences compared to the in 7th processing shown in the first embodiment are that the S101A and the S101B have been added between the S101 and the S102, and that the S102 has been changed to the S102A. The differences compared with the first embodiment will now be explained.

Im S101A empfängt die E/A-Einheit 33 die Ausgabe der Umgebungsüberwachungsvorrichtung 2. Im anschließenden S101B nimmt die Bereichsänderungseinheit 314 auf die im S101 und im S101A erfassten Informationen und die Musterbestimmungstabelle 3214 Bezug und bestimmt ein Bereichsmuster. Im S102A verwendet die Positionsbestimmungseinheit 311 die basierend auf dem im S101B bestimmten Bereichsmuster und der Bereichsbestimmungstabelle 3211A identifizierte Positionsbedingung, wobei sie den Bereich bestimmt, zu dem das im S101 erfasste Verarbeitungsziel gehört.In the S101A, the I / O base receives 33 the output of the environmental monitoring device 2 . In the subsequent S101B, the range change unit takes 314 to the information acquired in the S101 and S101A and the pattern determination table 3214 Reference and determines an area pattern. In the S102A, the position determining unit is used 311 the position condition identified based on the area pattern determined in the S101B and the area determination table 3211A, thereby determining the area to which the processing target acquired in the S101 belongs.

(Verschmelzungsverarbeitung)(Merger processing)

Der Betrieb der Verschmelzungseinheit 312 in der zweiten Ausführungsform unterscheidet sich von der ersten Ausführungsform bezüglich des Punkts, dass das Verarbeitungsziel bestimmt wird, indem außerdem die Sensorbereichs-Zuordnungsinformationen 3217 in Betracht gezogen werden. Die erste Verschmelzungseinheit 312A legt z. B. das Messobjekt, bei dem die Position des Verarbeitungsziels der erste Bereich Z1 ist und bei dem der Sensor, der das Verarbeitungsziel erfasst hat, dem ersten Bereich in den Sensorbereichs-Zuordnungsinformationen 3217 zugeordnet ist, als das Verarbeitungsziel fest. Wenn der Ablaufplan des Betriebs der ersten Verschmelzungseinheit 312A in der zweiten Ausführungsform beschrieben wird, kann der S210 nach 8 wie folgt geändert werden.Operation of the merging unit 312 in the second embodiment is different from the first embodiment in the point that the processing target is determined by also taking the sensor area allocation information 3217 into consideration. The first fusing unit 312A sets e.g. For example, the measurement object in which the position of the processing target is the first area Z1 and the sensor that has detected the processing target is assigned to the first area in the sensor area assignment information 3217 is set as the processing target. When describing the flowchart of the operation of the first fusing unit 312A in the second embodiment, S210 may go to 8th can be changed as follows.

Mit anderen Worten, im S210 nimmt die erste Verschmelzungseinheit 312A auf die Vorverarbeitungstabelle 3212 und die Sensorbereichs-Zuordnungsinformationen 3217 Bezug, wobei sie durch das Extrahieren eines Messobjekts, das zum ersten Bereich Z1 gehört und bei dem der Erfassungssensor die linke Kamera LC oder der linke Laser LR ist, eine erste Bereichstabelle 3221A erzeugt. Es wird angegeben, dass in der ersten Ausführungsform, wenn die Position des Messobjekts, die durch die rechte Kamera RC erfasst wird, der erste Bereich Z1 ist, erklärt wurde, dass die Verarbeitung ausgeführt werden kann, indem die Informationen über dieses Messobjekt in Betracht gezogen oder ignoriert werden. In dieser Ausführungsform wird jedoch das Messobjekt im ersten Bereich Z1, das durch die rechte Kamera RC erfasst wird, ignoriert.In other words, in S210, the first merging unit 312A picks up the preprocessing table 3212 and the sensor area assignment information 3217, obtaining a first area table by extracting a measurement object belonging to the first area Z1 and in which the detection sensor is the left camera LC or the left laser LR 3221A generated. It is stated that in the first embodiment, when the position of the measurement object detected by the right camera RC is the first area Z1, it has been explained that the processing can be carried out by taking the information on this measurement object into consideration or be ignored. In this embodiment, however, the measurement object in the first area Z1, which is captured by the right camera RC, is ignored.

Gemäß der vorhergehenden zweiten Ausführungsform ergeben sich der folgende Betrieb und die folgende Wirkung.
(2) Die basierend auf der Bereichsbestimmungstabelle 3211A klassifizierten entsprechenden Bereiche sind wenigstens zwei Sensoren unter mehreren Sensoren zugeordnet. Die Verschmelzungseinheit 312 bestimmt unter Bezugnahme auf die Zustandsgrößen eine Übereinstimmung zwischen den mehreren Messobjekten, die durch die Positionsbestimmungseinheit 311 als im gleichen Bereich klassifiziert werden und die durch verschiedene demselben Bereich zugeordneten Sensoren gemessen wurden, und verschmilzt die Positionen der mehreren Messobjekte, die als eine Übereinstimmung bestimmt wurden. Die elektronische Steuervorrichtung 3 umfasst eine E/A-Einheit 33, die die Leistungsschätzungsinformationen zum Schätzen der Verschlechterung der Leistungjedes der mehreren Sensoren erfasst, und eine Bereichsänderungseinheit 314, die den Bereich, auf den durch die Bereichsbestimmungstabelle 3211A Bezug zu nehmen ist, ändert, so dass der Bereich, dem Sensor zugeordnet ist, in dem sich die Leistung verschlechtert hat, unter Verwendung der Leistungsschätzungsinformationen verschmälert wird.
According to the foregoing second embodiment, there is the following operation and effect.
(2) The corresponding areas classified based on the area determination table 3211A are assigned to at least two sensors among a plurality of sensors. The merging unit 312 determines, with reference to the state variables, a correspondence between the plurality of measurement objects determined by the position determining unit 311 are classified as being in the same area and which have been measured by different sensors associated with the same area, and merges the positions of the plural measurement objects determined as a match. The electronic control device 3 includes an I / O base 33 that acquires the performance estimation information for estimating the deterioration in performance of each of the plurality of sensors, and a range changing unit 314 that changes the area to be referred to by the area determination table 3211A so that the area associated with the sensor in which the performance has deteriorated is narrowed using the performance estimation information.

Weil z. B. das Muster D als Bereichsmuster ausgewählt wird, wenn bestimmt wird, dass sich die Leistung der linken Kamera LC verschlechtert hat, wird der erste Bereich Z1, der der linken Kamera LC zugeordnet ist, verschmälert, während der dritte Bereich Z3, der nicht der linken Kamera LC zugeordnet ist, verbreitert wird. Folglich wird die Größe des Bereichs, der die linke Kamera LC verwendet, in der sich die Leistung verschlechtert hat, verringert, so dass die Verschmelzungsverarbeitung unter Verwendung des Detektionsergebnisses eines Sensors mit einer relativ hohen Sensorleistung im Vergleich zur Sensorleistung vor dem Ändern des Bereichs wahrscheinlicher ausgewählt wird. Entsprechend kann die elektronische Steuervorrichtung 3 die Verschmelzungsverarbeitung unter Verwendung eines Detektionsergebnisses eines Sensors mit einer relativ hohen Sensorleistung auswählen, ohne die Gesamtverarbeitungsmenge zu erhöhen. Folglich kann ein hohes Niveau der Sicherheit mit einer kleineren Verarbeitungsmenge sichergestellt sein, selbst wenn es eine Änderung der Sensorleistung gibt.Because z. For example, if the pattern D is selected as the area pattern, if it is determined that the performance of the left camera LC has deteriorated, the first area Z1 associated with the left camera LC is narrowed, while the third area Z3 that is not the left camera LC is assigned, is widened. As a result, the size of the area using the left camera LC in which the performance has deteriorated is reduced, so that the merging processing using the detection result of a sensor having a relatively high sensor performance compared to the sensor performance before changing the area is more likely to be selected becomes. Accordingly, the electronic control device 3 select the merging processing using a detection result of a sensor having a relatively high sensor performance without increasing the total processing amount. As a result, a high level of safety can be ensured with a smaller amount of processing even if there is a change in sensor performance.

Überdies wird das Muster C gewählt, wenn der Wischerschalter EIN ist, wobei der Bereich, der wenigstens entweder der linken Kamera LC oder der rechten Kamera RC zugeordnet ist, verschmälert wird. Spezifisch können die folgenden drei Konfigurationen betrachtet werden. Die erste Konfiguration legt nur den zweiten F-Bereich Z2F, der dem linken Radar LR und dem rechten Radar RR zugeordnet ist, als eine nicht leere Menge fest, während die anderen Bereiche als eine leere Menge festgelegt werden. Mit anderen Worten, in der ersten Konfiguration ist die ebene Abmessung der Bereiche mit Ausnahme des zweiten F-Bereichs Z2F null. In der zweiten Konfiguration wird nur der zweite C-Bereich Z2C, der der linken Kamera LC und der rechten Kamera RC zugeordnet ist, als eine leere Menge festgelegt, während die anderen Bereiche so festgelegt werden, dass sie die gleichen wir das Muster A sind. Die dritte Konfiguration ist eine Festlegung, die sich in der Mitte der ersten Konfiguration und der zweiten Konfiguration befindet, Der Grund dafür wird im Folgenden erklärt.Moreover, the pattern C. is selected when the wiper switch is ON, narrowing the area associated with at least one of the left camera LC and the right camera RC. Specifically, the following three configurations can be considered. The first configuration sets only the second F area Z2F associated with the left radar LR and the right radar RR as a non-empty set, while the other areas are set as an empty set. In other words, in the first configuration, the planar dimension of the areas with the exception of the second F area Z2F is zero. In the second configuration, only the second C area Z2C associated with the left camera LC and the right camera RC is set as an empty set, while the other areas are set to be the same as pattern A. The third configuration is a setting that is in the middle of the first configuration and the second configuration. The reason for this is explained below.

Wenn der Wischerschalter EIN ist, regnet es höchstwahrscheinlich. Während eine Kamera leicht durch Regen beeinflusst wird, wird weiterhin ein Millimeterwellenradar nicht leicht durch Regen beeinflusst. Folglich können die drei oben beschriebenen Konfigurationen angewendet werden, um das linke Radar LR und das rechte Radar RR zu verwenden, die nicht leicht durch Regen beeinflusst werden.
(3) Die Speichereinheit 32 speichert eine Musterbestimmungstabelle 3214, die eine Übereinstimmung zwischen der Verschlechterung der Leistung der mehreren Sensoren, die in der Sensorgruppe 1 enthalten sind, und der Bedingung der Klassifikation vorschreibt. Die Bereichsänderungseinheit 314 bestimmt ein in der Musterbestimmungstabelle 3214 enthaltenes Muster unter Verwendung der Leistungsschätzungsinformation. Folglich kann der Bereich leicht verändert werden.
If the wiper switch is ON, it is most likely raining. Furthermore, while a camera is easily affected by rain, a millimeter wave radar is not easily affected by rain. Thus, the three configurations described above can be applied to use the left radar LR and the right radar RR, which are not easily affected by rain.
(3) The storage unit 32 stores a pattern determination table 3214 showing a correspondence between the degradation in performance of the multiple sensors that are in the sensor group 1 and the condition of the classification prescribes. The range change unit 314 determines one in the pattern determination table 3214 contained pattern using the performance estimation information. As a result, the range can be changed easily.

(Modifiziertes Beispiel 1 der zweiten Ausführungsform)(Modified Example 1 of the Second Embodiment)

Die Umgebungsüberwachungsvorrichtung 2 kann durch die Sensorgruppe 1 ersetzt sein. Mit anderen Worten, wenn die in der Musterbestimmungstabelle 3214 beschriebenen Bedingungen unter Verwendung der Ausgabe der Sensorgruppe 1 bestimmt werden können, muss die elektronische Steuervorrichtung 3 die Umgebungsüberwachungsvorrichtung 2 nicht umfassen. Wenn die CPU, die die Verarbeitungseinheit 31 konfiguriert, die Funktion einer Uhr oder eines Kalenders aufweist, kann weiterhin die elektronische Steuervorrichtung 3 die Ausgabe der Verarbeitungseinheit 31 für die Bestimmung der Musterbestimmungstabelle 3214 verwenden.The environmental monitoring device 2 can through the sensor group 1 be replaced. In other words, if those in the pattern determination table 3214 using the output of the sensor group 1 can be determined, the electronic control device must 3 the environmental monitoring device 2 not include. When the CPU running the processing unit 31 configured to have the function of a clock or a calendar, the electronic control device 3 the output of the processing unit 31 for determining the pattern determination table 3214 use.

(Modifiziertes Beispiel 2 der zweiten Ausführungsform)(Modified Example 2 of the Second Embodiment)

In der vorhergehenden zweiten Ausführungsform wurden mehrere Muster in der Bereichsbestimmungstabelle 3211A im Voraus registriert. Die elektronische Steuervorrichtung 3 kann dennoch die jeweiligen Bereiche außerdem basierend auf dem Betrieb bestimmen, ohne die Bereichsbestimmungstabelle 3211A zu umfassen. Die Verarbeitungseinheit 31 kann z. B. zusätzlich ein Kalman-Filter umfassen, das einen Fehler schätzt, der in der beobachteten Menge der jeweiligen Sensoren enthalten ist, die in der Sensorgruppe 1 enthalten sind, wobei die Bereichsänderungseinheit 314 die jeweiligen Bereiche basierend auf der Größe des durch das Kalman-Filter geschätzten Fehlers bestimmen kann. Im vorhergehenden Fall wird außerdem basierend auf demselben Konzept wie der zweiten Ausführungsform der Bereich, der dem Sensor zugeordnet ist, in dem der geschätzte Fehler groß ist, verschmälert, während der Bereich, der dem Sensor zugeordnet ist, in dem der geschätzte Fehler klein ist, verbreitert wird. Mit anderen Worten, in diesem modifizierten Beispiel kann die Größe des Bereichs gemäß der Größe des Fehlers flexibel geändert werden.In the foregoing second embodiment, plural patterns have been registered in the area determination table 3211A in advance. The electronic control device 3 however, can also determine the respective areas based on the operation without including the area determination table 3211A. The processing unit 31 can e.g. B. additionally comprise a Kalman filter which estimates an error contained in the observed set of the respective sensors included in the sensor group 1 are included, the range changing unit 314 determine the respective areas based on the size of the error estimated by the Kalman filter. Also, in the foregoing case, based on the same concept as the second embodiment, the area assigned to the sensor in which the estimated error is large is narrowed while the area assigned to the sensor in which the estimated error is small is narrowed. is widened. In other words, in this modified example, the size of the area can be flexibly changed according to the size of the defect.

(Modifiziertes Beispiel 3 der zweiten Ausführungsform)(Modified Example 3 of the Second Embodiment)

In der zweiten Ausführungsform waren der Sensor und der Bereich den Sensorbereichs-Zuordnungsinformationen 3217 zugeordnet. Dennoch kann der Sensor außerdem den entsprechenden Verschmelzungseinheiten 312 zugeordnet sein. Im vorhergehenden Fall sind die Verschmelzungseinheiten 312 z. B. aus acht Verschmelzungseinheiten (der ersten Verschmelzungseinheit bis zur achten Verschmelzungseinheit) konfiguriert, wobei jede Verschmelzungseinheit einem anderen Bereich zugeordnet ist.In the second embodiment, the sensor and the area were assigned to the sensor area assignment information 3217. Nevertheless, the sensor can also use the corresponding fusing units 312 be assigned. In the previous case, these are merging units 312 z. B. configured from eight merging units (the first merging unit to the eighth merging unit), each merging unit being assigned to a different area.

- Dritte Ausführungsform -- Third embodiment -

Die dritte Ausführungsform der elektronischen Steuervorrichtung gemäß der vorliegenden Erfindung wird nun bezüglich 14 bis 17 erklärt. In der folgenden Erklärung sind den gleichen konstituierenden Elementen wie der ersten Ausführungsform das gleiche Bezugszeichen gegeben, wobei hauptsächlich die Unterschiede zwischen der dritten Ausführungsform und der ersten Ausführungsform erklärt werden. Alle Punkte, die nicht spezifisch erklärt werden, sind die gleichen wie die erste Ausführungsform. Diese Ausführungsform unterscheidet sich von der ersten Ausführungsform hauptsächlich hinsichtlich des Punkts, dass die zukünftigen Positionen der verschmolzenen Messobjekte geschätzt werden und die geschätzten zukünftigen Positionen außerdem der Verschmelzungsbearbeitung unterworfen werden.The third embodiment of the electronic control device according to the present invention will now be referred to 14th to 17th explained. In the following explanation, the same constituent elements as the first embodiment are given the same reference numerals, mainly explaining the differences between the third embodiment and the first embodiment. All points that are not specifically explained are the same as the first embodiment. This embodiment differs from the first embodiment mainly in the point that the future positions of the merged measurement objects are estimated and the estimated future positions also be subjected to the merger processing.

(Konfiguration)(Configuration)

14 ist eine graphische Darstellung, die die Konfiguration des Fahrzeugs C in der dritten Ausführungsform zeigt. In dieser Ausführungsform umfasst die elektronische Steuervorrichtung 3 zusätzlich zu der Konfiguration der ersten Ausführungsform ferner eine Schätzeinheit 315 der zukünftigen Positionen in der Verarbeitungseinheit 31. Überdies speichert die Speichereinheit 32 zusätzlich eine Bestimmungstabelle 3215 der zukünftigen Bereiche und eine zukünftige Tabelle 3216. 14th Fig. 13 is a diagram showing the configuration of the vehicle C. in the third embodiment shows. In this embodiment, the electronic control device comprises 3 an estimation unit in addition to the configuration of the first embodiment 315 the future positions in the processing unit 31 . The storage unit also stores 32 additionally a determination table 3215 of future ranges and a future table 3216.

Die Schätzeinheit 315 der zukünftigen Positionen schätzt die Zustandsgrößen der Zukunft basierend auf den in der Nachbearbeitungstabelle 3213 beschriebenen verschmolzenen Zustandsgrößen und schreibt das Ergebnis in die zukünftige Tabelle 3216. In der folgenden Erklärung wird die Position, die in den durch die Schätzeinheit 315 der zukünftigen Positionen geschätzten Zustandsgrößen enthalten ist, als die „zukünftige Position“ bezeichnet. Die Schätzeinheit 315 der zukünftigen Positionen berechnet z. B. den Unterschied der Positionen unter Verwendung des Zeitintervalls für jeden Verarbeitungszyklus und der Geschwindigkeit der verschmolzenen Zustandsgrößen und schätzt die zukünftige Position basierend auf der Position der verschmolzenen Zustandsgrößen und dem berechneten Unterschied. Die Schätzeinheit 315 der zukünftigen Positionen kann z. B. die zukünftige Geschwindigkeit als die Geschwindigkeit der verschmolzenen Zustandsgrößen festlegen. Weiterhin bestimmt die Schätzeinheit 315 der zukünftigen Positionen, ob die geschätzte Position irgendeinem in der Bestimmungstabelle 3215 der zukünftigen Bereiche beschriebenen Bereich entspricht, wobei sie das Bestimmungsergebnis in der Bestimmungstabelle 3215 der zukünftigen Bereiche speichert.The estimation unit 315 of the future positions estimates the state quantities of the future based on the fused state quantities described in the post-processing table 3213 and writes the result in the future table 3216. In the following explanation, the position that is in the by the estimating unit 315 of the future positions estimated state variables is referred to as the "future position". The estimation unit 315 the future positions calculated e.g. B. the difference in positions using the time interval for each processing cycle and the speed of the fused state quantities, and estimates the future position based on the position of the fused state quantities and the calculated difference. The estimation unit 315 the future positions can e.g. B. define the future speed as the speed of the fused state variables. The estimation unit also determines 315 of future positions, whether the estimated position is any in the determination table 3215 corresponds to the area described in the future areas, and the determination result in the determination table 3215 of future areas stores.

Wenn der Zeitpunkt des aktuellen Verarbeitungszyklus t1 ist, der Zeitpunkt des nächsten Verarbeitungszyklus t2 ist, die Position der verschmolzenen Zustandsgrößen R(t1) ist und die Geschwindigkeit der verschmolzenen Zustandsgrößen V(t1) ist, kann die Schätzeinheit 315 der zukünftigen Positionen z. B. außerdem die zukünftige Position R(t2) berechnen, wie in der Formel (2) im Folgenden gezeigt ist. R ( t2 ) = R ( t1 ) + V ( t1 )   ( t2 t1 ) .

Figure DE112019001545T5_0002
When the time point of the current processing cycle is t1, the time point of the next processing cycle is t2, the position of the fused state quantities is R (t1), and the velocity of the fused state quantities is V (t1), the estimating unit may 315 the future positions z. B. also calculate the future position R (t2) as shown in the formula (2) below. R. ( t2 ) = R. ( t1 ) + V ( t1 ) ( t2 - t1 ) .
Figure DE112019001545T5_0002

(Bestimmungstabelle 3215 der zukünftigen Bereiche)(Determination table 3215 future areas)

15 ist eine graphische Darstellung, die ein Beispiel der Bestimmungstabelle 3215 der zukünftigen Bereiche zeigt. Die Bestimmungstabelle 3215 der zukünftigen Bereiche speichert die zukünftigen Positionen der verschmolzenen Messobjekte; d. h., darin ist die Übereinstimmung des Zustands und der auf die durch die Schätzeinheit 315 der zukünftigen Positionen geschätzten Position bezogenen Bereichsnummer gespeichert. Die Konfiguration der Bestimmungstabelle 3215 der zukünftigen Bereiche ist die gleiche wie die der Bereichsbestimmungstabelle 3211. Die in der Bestimmungstabelle 3215 der zukünftigen Bereiche 3215 enthaltenen Bereichsnummern sind die gleichen wie die der Bereichsbestimmungstabelle 3211, wobei die Positionsbedingungen die gleichen wie die der Bereichsbestimmungstabelle 3211 oder von diesen verschieden sein können. 15th Fig. 13 is a diagram showing an example of the destination table 3215 of future areas shows. The determination table 3215 the future area stores the future positions of the merged measurement objects; that is, therein is the correspondence of the state and that to which the estimation unit provides 315 the position-related area number estimated from the future positions. The configuration of the determination table 3215 the future areas is the same as that of the area designation table 3211 . The ones in the determination table 3215 of future areas 3215 area numbers included are the same as those of the area designation table 3211 , where the position conditions are the same as those of the area determination table 3211 or can be different from these.

(Zukünftige Tabelle 3216)(Future table 3216)

16 ist eine graphische Darstellung, die ein Beispiel der zukünftigen Tabelle 3216 zeigt. Die zukünftige Tabelle 3216 speichert die zukünftigen Zustandsgrößen der verschmolzenen Messobjekte und die Klassifikation der zukünftigen Positionen der verschmolzenen Messobjekte. Die zukünftige Tabelle 3216 wird durch die Schätzeinheit 315 der zukünftigen Positionen geschrieben. 16 FIG. 13 is a diagram showing an example of the future table 3216. The future table 3216 stores the future state variables of the merged measurement objects and the classification of the future positions of the merged measurement objects. The future table 3216 is made by the estimating unit 315 of future positions written.

(Betrieb der Verarbeitungseinheit 31)(Operation of the processing unit 31 )

17 ist ein Ablaufplan, der die Verarbeitung der Verarbeitungseinheit 31 in der dritten Ausführungsform zeigt. Die Unterschiede im Vergleich zu der in 7 gezeigten Verarbeitung der ersten Ausführungsform sind, dass der S102B nach dem S102 hinzugefügt worden ist und der S107 und der S108 nach dem S106 hinzugefügt worden sind. Die Unterschiede im Vergleich zur ersten Ausführungsform werden nun erklärt. 17th Fig. 3 is a flow chart showing the processing of the processing unit 31 in the third embodiment shows. The differences compared to the in 7th The processing shown in the first embodiment is that the S102B has been added after the S102 and the S107 and the S108 have been added after the S106. The differences compared with the first embodiment will now be explained.

In S102B schreibt die Schätzeinheit 315 der zukünftigen Positionen die zukünftige Tabelle 3216 um; d. h., sie liest die gesamte zukünftige Tabelle 3216 und zeichnet in der entsprechenden Bereichstabelle die entsprechenden Datensätze gemäß dem Wert des Bereichsnummernfeldes auf. Weil in dem in 16 gezeigten Beispiel die beiden obersten Datensätze z. B. beide einen zukünftigen Bereich von „Z2“ aufweisen, werden die Informationen dieser Datensätze in der zweiten Bereichstabelle 3221B aufgezeichnet. Der Wert des Erfassungssensorfeldes, der im S102B in die Bereichstabelle zu schreiben ist, wird jedoch festgelegt, so dass er ein Wert ist, der sich von den jeweiligen Sensoren unterscheidet, wie z. B. „Verschmelzung“. Sobald die Schätzeinheit 315 der zukünftigen Positionen die gesamte zukünftige Tabelle 3216 gelesen hat, löscht die Schätzeinheit 315 der zukünftigen Positionen alle Informationen, die in der zukünftigen Tabelle 3216 gespeichert waren.The estimating unit writes in S102B 315 the future table 3216 for future positions; that is, it reads the entire future table 3216 and records in the appropriate range table the appropriate records according to the value of the range number field. Because in the in 16 The example shown, the two top data records z. B. both have a future range of "Z2", the information from these records will be in the second range table 3221B recorded. However, the value of the detection sensor field to be written in the area table in the S102B is set to be a value different from the respective sensors, e.g. B. "Merger". Once the valuation unit 315 of future positions the entire future Has read table 3216, the estimation unit clears 315 the future positions all information that was stored in the future table 3216.

Im S107 berechnet die Schätzeinheit 315 der zukünftigen Positionen die Zustandsgrößen im nächsten Verarbeitungszyklus, einschließlich der zukünftigen Positionen aller verschmolzenen Verarbeitungsziele, die in der Nachbearbeitungstabelle 3213 beschrieben sind, wobei sie das Ergebnis in der Zukunftstabelle 3216 beschreibt. Im anschließenden S108 nimmt die Schätzeinheit 315 der zukünftigen Positionen auf die zukünftige Tabelle 3216 und die Bestimmungstabelle 3215 der zukünftigen Bereiche Bezug, wobei sie die zukünftigen Positionen klassifiziert und das Ergebnis in das Bereichsnummernfeld der zukünftigen Tabelle 3216 eingibt. Spezifischer bestimmt die Schätzeinheit 315 der zukünftigen Positionen, ob die zukünftigen Positionen irgendeinem in der Bestimmungstabelle 3215 der zukünftigen Bereiche beschriebenen Bereich entsprechen, wobei sie das Bestimmungsergebnis in das Bereichsnummernfeld der zukünftigen Tabelle 3216 eingibt. Dies schließt die Erklärung der 17 ab.In S107, the estimation unit calculates 315 of the future positions, the state quantities in the next processing cycle, including the future positions of all merged processing targets that are in the post-processing table 3213 are described, with the result in the future table 3216 describes. In the subsequent S108, the estimation unit takes 315 of the future positions to the future table 3216 and the future area determination table 3215, classifying the future positions and entering the result into the area number field of the future table 3216. More specifically, the estimation unit determines 315 of the future positions, whether the future positions correspond to any area described in the future area determination table 3215, entering the determination result in the area number field of the future table 3216. This concludes the explanation of the 17th from.

Es wird angegeben, dass die Verschmelzungsverarbeitung in den jeweiligen Bereichen, die in S103 bis S105 gezeigt sind, die gleiche wie die ersten Ausführungsform ist, wobei sie aber aufgrund des Einflusses des S102B wie folgt erheblich variiert. Die erste Verschmelzungseinheit 312A extrahiert z. B. die Zustandsgrößen einschließlich der zukünftigen Position im S212 nach 8, wobei sie im S214 die zukünftigen Positionen, die die Bedingungen des S212 und des S213 erfüllen, als das Verschmelzungsziel einbezieht. Im S214 kann die Verarbeitungseinheit 31 einen einfachen Durchschnitt wie bei der ersten Ausführungsform verwenden oder einen gewichteten Durchschnitt verwenden, bei dem das Gewicht zwischen den geschätzten Positionen und den anderen Positionen geändert ist.It is indicated that the merging processing in the respective areas shown in S103 to S105 is the same as the first embodiment, but varies significantly as follows due to the influence of the S102B. The first merging unit 312A extracts e.g. B. the state variables including the future position in S212 8th , including in S214 the future positions that meet the conditions of S212 and S213 as the merging target. In S214, the processing unit 31 use a simple average as in the first embodiment or use a weighted average in which the weight is changed between the estimated positions and the other positions.

Gemäß der vorhergehenden dritten Ausführungsform ergeben sich der folgende Betrieb und die folgende Wirkung.
(4) Die Speichereinheit 32 speichert eine Bestimmungstabelle 3215 der zukünftigen Bereiche als eine Bedingung einer auf eine zukünftige Position bezogenen Klassifikation, die eine zukünftige Position des Messobjekts ist, und eine zukünftige Tabelle 3216, die die zukünftige Position enthält, an der der zukünftige Bereich durch die Bestimmungstabelle 3215 der zukünftigen Bereiche klassifiziert wurde. Die Verarbeitungseinheit 31 umfasst eine Schätzeinheit 315 der zukünftigen Positionen, die die zukünftige Position des Messobjekts schätzt und die zukünftige Position unter Verwendung der Bestimmungstabelle 3215 der zukünftigen Bereiche klassifiziert. Die Verschmelzungseinheit 312 enthält in den zu bestimmenden Zielen außerdem die Messobjekte, die durch die Schätzeinheit 315 der zukünftigen Positionen bei der Bestimmung einer Übereinstimmung der Messobjekte als völlig gleich klassifiziert werden, und verschmilzt die Positionen und die zukünftigen Positionen der mehreren Messobjekte, die als eine Übereinstimmung bestimmt wurden.
According to the foregoing third embodiment, there is the following operation and effect.
(4) The storage unit 32 stores a future area determination table 3215 as a condition of a future position related classification that is a future position of the measurement object and a future table 3216 containing the future position at which the future area by the future area determination table 3215 was classified. The processing unit 31 includes an estimation unit 315 of the future positions that estimates the future position of the measurement object and the future position using the determination table 3215 of future areas classified. The merging unit 312 also contains the measurement objects in the goals to be determined, which are determined by the estimation unit 315 of the future positions are classified as identical when determining a match of the measurement objects, and merges the positions and the future positions of the plurality of measurement objects that have been determined as a match.

Um die Genauigkeit der verschmolzenen Messobjekte zu verbessern, würde es im Allgemeinen effektiv sein, die auf vergangenen Messwerten basierenden Schätzwerte in die Ziele der Verschmelzungsverarbeitung einzubeziehen. Dennoch nimmt die Anzahl der Kombinationen entsprechend der Zunahme der Anzahl der Verarbeitungsziele erheblich zu, wobei es ein Problem gibt, dass die Verarbeitungsmenge zunimmt und die Anzahl der Messobjekte, die innerhalb des Verarbeitungszyklus verarbeitet werden können, abnimmt. Die elektronische Steuervorrichtung 3 bestimmt folglich den Bereich der berechneten zukünftigen Positionen und schränkt die Kombinationen ein, so dass sie sich innerhalb desselben Bereichs befinden. Folglich kann die Genauigkeit der Zustandsgrößen der verschmolzenen Messobjekte verbessert werden, während die Zunahme der Verarbeitungslast unterdrückt wird.
(5) Die Schätzeinheit 315 der zukünftigen Positionen schätzt die zukünftigen Positionen der durch die Verschmelzungseinheit 312 verschmolzenen Messobjekte. Folglich können die Zustandsgrößen der Messobjekte im anschließenden Verarbeitungszyklus mit hoher Genauigkeit unter Verwendung der zukünftigen Positionen der unter Verwendung mehrerer Sensorausgaben berechneten Zustandsgrößen berechnet werden.
In general, in order to improve the accuracy of the merged measurement objects, it would be effective to incorporate the estimates based on past measurement values into the objectives of the merge processing. However, the number of combinations increases significantly in accordance with the increase in the number of processing targets, and there is a problem that the processing amount increases and the number of measurement objects that can be processed within the processing cycle decreases. The electronic control device 3 thus determines the range of the calculated future positions and restricts the combinations so that they are within the same range. As a result, the accuracy of the state quantities of the fused measurement objects can be improved while suppressing the increase in the processing load.
(5) The estimation unit 315 of Future Positions estimates the future positions of the Merger 312 fused measurement objects. As a result, the state variables of the measurement objects can be calculated with high accuracy in the subsequent processing cycle using the future positions of the state variables calculated using a plurality of sensor outputs.

(Modifiziertes Beispiel 1 der dritten Ausführungsform)(Modified Example 1 of the Third Embodiment)

Als Ersatz zum Schreiben der geschätzten zukünftigen Positionen in die zukünftige Tabelle 3216 kann die Schätzeinheit 315 der zukünftigen Positionen außerdem die geschätzten zukünftigen Positionen in eine aus der ersten Bereichstabelle 3221A, der zweiten Bereichstabelle 3221B und der dritten Bereichstabelle 3221C schreiben. Mit anderen Worten, die Schätzeinheit 315 der zukünftigen Positionen schreibt die zukünftigen Positionen gemäß dem Bereich, in den die berechneten zukünftigen Positionen klassifiziert werden, in eine aus der ersten Bereichstabelle 3221A, der zweiten Bereichstabelle 3221B und der dritten Bereichstabelle 3221C. Im vorhergehenden Fall kann der S102B nach 17 gelöscht werden.As a substitute for writing the estimated future positions in the future table 3216, the estimation unit 315 of the future positions also write the estimated future positions in one of the first area table 3221A, the second area table 3221B, and the third area table 3221C. In other words, the estimation unit 315 of the future positions writes the future positions according to the area into which the calculated future positions are classified in one of the first area table 3221A, the second area table 3221B, and the third area table 3221C. In the previous case, the S102B can follow 17th to be deleted.

(Modifiziertes Beispiel 2 der dritten Ausführungsform)(Modified Example 2 of the Third Embodiment)

In der vorhergehenden dritten Ausführungsform war das Schätzziel der Zustandsgrößen nur die verschmolzenen Messobjekte. Dennoch kann die Schätzeinheit 315 der zukünftigen Positionen das Schätzziel der Zustandsgrößen außerdem festlegen, so dass es nur die Messobjekte sind, die nicht verschmolzen worden sind, oder das Schätzziel der Zustandsgrößen festlegen, dass es sowohl die verschmolzenen Messobjekte als auch die nicht verschmolzenen Messobjekte sind.In the foregoing third embodiment, the estimation target of the state quantities was only the merged measurement objects. Nevertheless, the Estimation unit 315 of the future positions also set the estimation target of the state quantities so that it is only the measurement objects that have not been merged, or set the estimation target of the state quantities to be both the merged measurement objects and the unfused measurement objects.

Weiterhin kann die Schätzeinheit 315 der zukünftigen Positionen die folgende Verarbeitung als Ersatz für das Schreiben der geschätzten Zustandsgrößen in die zukünftige Tabelle 3216 ausführen. Mit anderen Worten, die Schätzeinheit 315 der zukünftigen Positionen kann außerdem die zukünftigen Positionen der Messobjekte, die nicht verschmolzen worden sind, unter Bezugnahme auf die Bestimmungstabelle 3215 der zukünftigen Bereiche klassifizieren und das Ergebnis in eine aus der ersten Bereichstabelle 3221A, der zweiten Bereichstabelle 3221B und der dritten Bereichstabelle 3221C schreiben, die dem klassifizierten Bereich entspricht. Es könnte gesagt werden, dass die Verarbeitung im vorhergehenden Fall die Verarbeitung des Löschens der Messobjekte, die als sich in einen anderen Bereich bewegend bestimmt wurden, aus der Bereichstabelle der Bewegungsquelle und des Verschiebens dieser in die Bereichstabelle des Bewegungsziels ist.Furthermore, the estimation unit 315 of the future positions, execute the following processing as a substitute for writing the estimated state quantities to the future table 3216. In other words, the estimation unit 315 of the future positions can also classify the future positions of the measurement objects that have not been merged with reference to the future area determination table 3215 and write the result to one of the first area table 3221A, the second area table 3221B, and the third area table 3221C, which corresponds to the classified area. It could be said that the processing in the foregoing case is the processing of deleting the measurement objects determined to be moving to another area from the area table of the movement source and moving them to the area table of the movement destination.

Gemäß diesem modifizierten Beispiel ergeben sich der folgende Betrieb und die folgende Wirkung.
(6) Die Positionsbestimmungseinheit 311 und die Schätzeinheit 315 der zukünftigen Positionen speichern die Ergebnisse der Klassifikation in einem zugeordneten Bereich der dedizierten Speichereinheit 322 für jedes Ergebnis der Klassifikation, das bezüglich der Bereichstabelle 3211A und der zukünftigen Tabelle 3216 bestimmt wurde. Folglich gibt es keine Notwendigkeit, die Zustandsgrößen aus der zukünftigen Tabelle 3216 in die dedizierte Speichereinheit 322 umzuschreiben, wobei dadurch die Verarbeitung vereinfacht werden kann.
According to this modified example, there is the following operation and effect.
(6) The position determining unit 311 and the estimation unit 315 of the future positions store the results of the classification in an assigned area of the dedicated memory unit 322 for each result of the classification determined with reference to the range table 3211A and the future table 3216. Consequently there is no need to transfer the state variables from the future table 3216 into the dedicated storage unit 322 rewrite, which can simplify processing.

In jeder der oben erklärten Ausführungsformen und jedem der oben erklärten modifizierten Beispiele sind die Programme der elektronischen Steuervorrichtung 3 im ROM gespeichert, wobei aber die Programme außerdem in der Speichereinheit 32 gespeichert sein können. Überdies können die Programme außerdem über die E/A-Schnittstelle und ein Medium, das durch die elektronische Steuervorrichtung 3 verwendet werden kann, aus einer weiteren Vorrichtung gelesen werden. Als das Medium kann hier z. B. ein Speichermedium, das an eine E/A-Schnittstelle angeschlossen und von dieser gelöst werden kann, oder ein Kommunikationsmedium, wie z. B. ein drahtgebundenes, drahtloses oder optisches Netz, oder Trägerwellen oder digitale Signale, die über ein derartiges Netz übertragen werden, verwendet werden. Überdies kann ein Teil oder alles der durch die Programme verwirklichten Funktionen mit einer Hardware-Schaltung oder einer FPGA verwirklicht sein.In each of the above-explained embodiments and each of the above-explained modified examples, the programs of the electronic control device are 3 stored in the ROM, but the programs also in the memory unit 32 can be stored. Moreover, the programs can also be accessed through the I / O interface and a medium provided by the electronic control device 3 can be used to be read from another device. As the medium here z. B. a storage medium that can be connected to and detached from an I / O interface, or a communication medium such as. B. a wired, wireless or optical network, or carrier waves or digital signals transmitted over such a network can be used. In addition, some or all of the functions realized by the programs can be realized with a hardware circuit or an FPGA.

Jede der oben beschriebenen Ausführungsformen und jedes der oben beschriebenen modifizierten Beispiele kann jeweils kombiniert werden. Während verschiedene Ausführungsformen und modifizierte Beispiele oben erklärt wurden, ist die vorliegende Erfindung nicht auf ihren Gegenstand eingeschränkt. Andere Modi, die als in das technische Konzept der vorliegenden Erfindung fallend betrachtet werden, fallen außerdem in den Schutzumfang der vorliegenden Erfindung.Each of the above-described embodiments and each of the above-described modified examples can be combined respectively. While various embodiments and modified examples have been explained above, the present invention is not limited to the subject matter. Other modes considered falling within the technical concept of the present invention also fall within the scope of the present invention.

Die Offenbarung der folgenden Prioritätsanmeldung ist hier durch Bezugnahme vollständig mit aufgenommen.The disclosure of the following priority application is fully incorporated herein by reference.

Japanische Patentanmeldung Nr. 2018-84266 (eingereicht am 25. April 2018)Japanese Patent Application No. 2018-84266 (submitted on April 25, 2018)

BezugszeichenlisteList of reference symbols

11
SensorgruppeSensor group
22
UmgebungsüberwachungsvorrichtungEnvironmental monitoring device
33
elektronische Steuervorrichtungelectronic control device
44th
AktuatorgruppeActuator group
3131
VerarbeitungseinheitProcessing unit
3232
SpeichereinheitStorage unit
3333
E/A-EinheitI / O unit
311311
PositionsbestimmungseinheitPosition determination unit
312312
VerschmelzungseinheitMerger unit
313313
Fahrzeugsteuerungs-VerarbeitungseinheitVehicle control processing unit
314314
BereichsänderungseinheitRange change unit
315315
Schätzeinheit der zukünftigen PositionenUnit of estimation of future positions
321321
gemeinsame Speichereinheitcommon storage unit
322322
dedizierte Speichereinheitdedicated storage unit
32113211
BereichsbestimmungstabelleRange definition table
32123212
VorverarbeitungstabellePreprocessing table
32133213
NachbearbeitungstabellePost processing table
32143214
MusterbestimmungstabellePattern determination table
32153215
Bestimmungstabelle der zukünftigen BereicheDetermination table of future areas
32163216
zukünftige Tabellefuture table
3221A3221A
erste Bereichstabellefirst range table
3221B3221B
zweite Bereichstabellesecond range table
3221C3221C
dritte Bereichstabellethird range table
CC.
Fahrzeugvehicle

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • JP 201884266 [0088]JP 201884266 [0088]

Claims (12)

Elektronische Steuervorrichtung, die umfasst: eine Sensorinformations-Erfassungseinheit, die die Zustandsgrößen einschließlich einer Position eines Messobjekts unter Verwendung einer Ausgabe mehrerer Sensoren erfasst oder die Zustandsgrößen des Messobjekts unter Verwendung der Ausgabe der mehreren Sensoren berechnet; eine Speichereinheit, die Positionsbestimmungsinformationen als eine Bedingung einer auf die Position bezogenen Klassifikation speichert; eine Positionsbestimmungseinheit, die das Messobjekt unter Verwendung der Positionsbestimmungsinformationen klassifiziert; und eine Verschmelzungseinheit, die unter Bezugnahme auf die Zustandsgrößen eine Übereinstimmung unter mehreren der Messobjekte bestimmt, die durch die Positionsbestimmungseinheit als völlig gleich klassifiziert werden und die durch verschiedene Sensoren gemessen wurden, und die die Positionen der mehreren Messobjekte, die als eine Übereinstimmung bestimmt wurden, verschmilzt, wobei die Messobjekte Objekte sind, die durch jeden der mehreren Sensoren gemessen werden können.Electronic control device comprising: a sensor information acquisition unit that acquires the state quantities including a position of a measurement object using an output of a plurality of sensors or calculates the state quantities of the measurement object using the output of the plurality of sensors; a storage unit that stores positioning information as a condition of a position-related classification; a positioning unit that classifies the measurement object using the positioning information; and a merging unit which, with reference to the state variables, determines a match among a plurality of the measurement objects which are classified as identical by the position determining unit and which have been measured by different sensors, and which merges the positions of the multiple measurement objects which were determined as a match , wherein the measurement objects are objects that can be measured by each of the plurality of sensors. Elektronische Steuervorrichtung nach Anspruch 1, wobei: jeweilige Bereiche, die basierend auf den Positionsbestimmungsinformationen klassifiziert sind, wenigstens zwei Sensoren unter den mehreren Sensoren zugeordnet sind; die Verschmelzungseinheit unter Bezugnahme auf die Zustandsgrößen eine Übereinstimmung zwischen den mehreren Messobjekten bestimmt, die durch die Positionsbestimmungseinheit als in demselben Bereich klassifiziert werden und die durch verschiedene Sensoren, die demselben Bereich zugeordnet sind, gemessen wurden, und die Positionen der mehreren Messobjekte, die als eine Übereinstimmung bestimmt wurden, verschmilzt; die Verschmelzungseinheit umfasst: eine Leistungsschätzungs-Informationserfassungseinheit, die Leistungsschätzungsinformationen zum Schätzen der Verschlechterung der Leistungjedes der mehreren Sensoren erfasst; und eine Bereichsänderungseinheit, die die Positionsbestimmungsinformationen ändert, so dass der Bereich, der dem Sensor zugeordnet ist, in dem sich die Leistung verschlechtert hat, unter Verwendung der Leistungsschätzungsinformationen verschmälert wird.Electronic control device according to Claim 1 wherein: respective areas classified based on the positioning information are assigned to at least two sensors among the plurality of sensors; the merging unit determines a correspondence between the plurality of measurement objects, which are classified by the position determination unit as being in the same area and which have been measured by different sensors associated with the same area, and the positions of the plurality of measurement objects, which are classified as one Agreement were determined, merges; the merging unit includes: a performance estimation information acquisition unit that acquires performance estimation information for estimating deterioration in performance of each of the plurality of sensors; and an area changing unit that changes the positioning information so that the area associated with the sensor in which the performance has deteriorated is narrowed using the performance estimation information. Elektronische Steuervorrichtung nach Anspruch 2, wobei: die Speichereinheit zusätzlich Musterbestimmungsinformationen speichert, die mehrere der Bedingungen der Klassifikation und eine Übereinstimmung der Verschlechterung der Leistung der mehreren Sensoren und der Bedingungen der Klassifikation vorschreiben; und die Bereichsänderungseinheit unter Verwendung der Leistungsschätzungsinformationen bestimmt, welche der Bedingungen der Klassifikation, die in den Musterbestimmungsinformationen enthalten sind, verwendet werden sollen.Electronic control device according to Claim 2 wherein: the storage unit additionally stores pattern determination information prescribing a plurality of the conditions of the classification and a correspondence of the deterioration in performance of the plurality of sensors and the conditions of the classification; and the area changing unit determines which of the conditions of the classification included in the pattern determination information should be used using the performance estimation information. Elektronische Steuervorrichtung nach Anspruch 1, wobei: die Speichereinheit zusätzlich speichert: eine zukünftige Klassifikationsbedingung als eine Bedingung einer Klassifikation, die sich auf eine zukünftige Position bezieht, die eine zukünftige Position des Messobjekts ist; und eine klassifizierte zukünftige Position als die zukünftige Position des Messobjekts, die durch die zukünftige Klassifikationsbedingung klassifiziert wurde; die elektronische Steuereinrichtung zusätzlich umfasst: eine Schätzeinheit der zukünftigen Positionen, die die zukünftige Position des Messobjekts schätzt und die zukünftige Position unter Verwendung der zukünftigen Klassifikationsbedingung klassifiziert; und die Verschmelzungseinheit in die zu bestimmenden Ziele außerdem die Messobjekte einbezieht, die durch die Schätzeinheit der zukünftigen Positionen bei der Bestimmung einer Übereinstimmung der Messobjekte als völlig gleich klassifiziert werden, und die Positionen und die zukünftigen Positionen der mehreren Messobjekte, die als eine Übereinstimmung bestimmt wurden, verschmilzt.Electronic control device according to Claim 1 wherein: the storage unit additionally stores: a future classification condition as a condition of classification relating to a future position that is a future position of the measurement object; and a classified future position as the future position of the measurement object classified by the future classification condition; the electronic control device further comprises: a future position estimating unit that estimates the future position of the measurement object and classifies the future position using the future classification condition; and the merging unit also includes in the targets to be determined the measurement objects that are classified as identical by the future position estimating unit in determining a match of the measurement objects, and the positions and the future positions of the plurality of measurement objects that have been determined as a match , merges. Elektronische Steuervorrichtung nach Anspruch 4, wobei: die Schätzeinheit der zukünftigen Positionen wenigstens eine entweder der zukünftigen Positionen der durch die Verschmelzungseinheit verschmolzenen Messobjekte oder der zukünftigen Positionen der Messobjekte, für die die Zustandsgröße durch die Sensorinformations-Erfassungseinheit erfasst wurde, schätzt.Electronic control device according to Claim 4 wherein: the future position estimating unit estimates at least one of the future positions of the measurement objects fused by the fusing unit or the future positions of the measurement objects for which the state quantity has been acquired by the sensor information acquisition unit. Elektronische Steuervorrichtung nach Anspruch 4, wobei: die Positionsbestimmungseinheit und die Schätzeinheit der zukünftigen Positionen die Ergebnisse der Klassifikation in einem zugeordneten Bereich der Speichereinheit für jedes Ergebnis der Klassifikation speichern.Electronic control device according to Claim 4 wherein: the position determining unit and the estimating unit of the future positions store the results of the classification in an assigned area of the storage unit for each result of the classification. Betriebsverfahren, das durch eine elektronische Steuervorrichtung auszuführen ist, die eine Sensorinformations-Erfassungseinheit, die die Zustandsgrößen, die eine Position eines Messobjekts enthalten, unter Verwendung einer Ausgabe mehrerer Sensoren erfasst oder die Zustandsgrößen des Messobjekts unter Verwendung der Ausgabe der mehreren Sensoren berechnet, und eine Speichereinheit, die Positionsbestimmungsinformationen als eine Bedingung einer auf die Position bezogenen Klassifikation speichert, umfasst, wobei das Betriebsverfahren umfasst: Klassifizieren des Messobjekts unter Verwendung der Positionsbestimmungsinformation; und Bestimmen unter Bezugnahme auf die Zustandsgrößen einer Übereinstimmung unter mehreren der Messobjekte, die basierend auf der Klassifikation als völlig gleich klassifiziert werden und die durch verschiedene Sensoren gemessen wurden, und Verschmelzen der Positionen der mehreren Messobjekte, die als eine Übereinstimmung bestimmt wurden, wobei die Messobjekte Objekte sind, die durch jeden der mehreren Sensoren gemessen werden können.An operation method to be executed by an electronic control device that includes a sensor information acquisition unit that acquires the state quantities including a position of a measurement object using an output of a plurality of sensors or calculates the state quantities of the measurement object using the output of the plurality of sensors, and a Storage unit, the positioning information as a Stores condition of a position-related classification, the operating method comprising: classifying the measurement object using the position determination information; and determining, with reference to the state quantities, a match among a plurality of the measurement objects that are classified as identical based on the classification and that have been measured by different sensors, and merging the positions of the plurality of measurement objects that have been determined as a match, the measurement objects Are objects that can be measured by any of the multiple sensors. Betriebsverfahren nach Anspruch 7, wobei: die Speichereinheit zusätzlich Sensorbereichs-Zuordnungsinformationen als eine Zuordnung zu wenigstens zwei Sensoren unter den mehreren Sensoren hinsichtlich jeweiliger basierend auf der Bedingung der Klassifikation klassifizierter Bereiche speichert; bei der Verschmelzung eine Übereinstimmung unter den mehreren Messobjekten, die basierend auf der Klassifikation als in demselben Bereich klassifiziert werden und die durch verschiedene Sensoren gemessen wurden, die basierend auf den Sensorbereichs-Zuordnungsinformationen demselben Bereich zugeordnet sind, bestimmt wird und die Positionen der mehreren Messobjekte, die als eine Übereinstimmung bestimmt wurden, verschmolzen werden; wobei das Betriebsverfahren zusätzlich umfasst: Erfassen von Leistungsschätzungsinformationen zum Schätzen der Verschlechterung der Leistung jedes der mehreren Sensoren; und Ändern der Positionsbestimmungsinformationen, so dass der Bereich, der dem Sensor zugeordnet ist, in dem sich die Leistung verschlechtert hat, unter Verwendung der Leistungsschätzungsinformationen verschmälert wird.Operating procedures according to Claim 7 wherein: the storage unit additionally stores sensor area assignment information as an assignment to at least two sensors among the plurality of sensors with respect to respective areas classified based on the condition of the classification; in the merging, a match is determined among the plurality of measurement objects that are classified as being in the same area based on the classification and that have been measured by different sensors that are assigned to the same area based on the sensor area assignment information, and the positions of the plurality of measurement objects, that are determined to be a match are merged; the method of operation additionally comprising: acquiring performance estimation information for estimating degradation in performance of each of the plurality of sensors; and changing the positioning information so that the area associated with the sensor in which the performance has deteriorated is narrowed using the performance estimation information. Betriebsverfahren nach Anspruch 8, wobei: die Speichereinheit zusätzlich Musterbestimmungsinformationen speichert, die mehrere der Bedingungen der Klassifikation und eine Übereinstimmung der Verschlechterung der Leistung der mehreren Sensoren und der Bedingungen der Klassifikation vorschreiben; und das Betriebsverfahren zusätzlich umfasst: Bestimmen unter Verwendung der Leistungsschätzungsinformationen, welche der Bedingungen der Klassifikation, die in den Musterbestimmungsinformationen enthalten sind, als die neuen Positionsbestimmungsinformationen festgelegt werden sollen.Operating procedures according to Claim 8 wherein: the storage unit additionally stores pattern determination information prescribing a plurality of the conditions of the classification and a correspondence of the deterioration in performance of the plurality of sensors and the conditions of the classification; and the operation method further comprises: determining, using the performance estimation information, which of the conditions of the classification included in the pattern determination information should be set as the new positioning information. Betriebsverfahren nach Anspruch 7, wobei: die Speichereinheit zusätzlich speichert: eine zukünftige Klassifikationsbedingung als eine Bedingung einer Klassifikation, die sich auf eine zukünftige Position bezieht, die eine zukünftige Position des Messobjekts ist; und eine klassifizierte zukünftige Position als die zukünftige Position des Messobjekts, die durch die zukünftige Klassifikationsbedingung klassifiziert wurde; das Betriebsverfahren zusätzlich umfasst: Schätzen der zukünftigen Position des Messobjekts und Klassifizieren der zukünftigen Position unter Verwendung der zukünftigen Klassifikationsbedingung; wobei bei der Klassifikation die zukünftigen Positionen, die als völlig gleich klassifiziert werden, in die Ziele einbezogen werden, die bei der Bestimmung einer Übereinstimmung der Messobjekte bestimmt werden, und die Positionen und die zukünftigen Positionen der mehreren Messobjekte, die als eine Übereinstimmung bestimmt wurden, verschmolzen werden.Operating procedures according to Claim 7 wherein: the storage unit additionally stores: a future classification condition as a condition of classification relating to a future position that is a future position of the measurement object; and a classified future position as the future position of the measurement object classified by the future classification condition; the operating method additionally comprises: estimating the future position of the measurement object and classifying the future position using the future classification condition; wherein, in the classification, the future positions that are classified as identical are included in the goals that are determined in determining a match of the measurement objects, and the positions and the future positions of the plurality of measurement objects that have been determined as a match, be merged. Betriebsverfahren nach Anspruch 10, wobei: bei der Schätzung der zukünftigen Position wenigstens eine entweder der zukünftigen Positionen der Messobjekte, die verschmolzen wurden, oder der zukünftigen Positionen der Messobjekte, für die die Zustandsgröße erfasst wurde, geschätzt werden.Operating procedures according to Claim 10 wherein: in the estimation of the future position, at least one of either the future positions of the measurement objects that have been merged or the future positions of the measurement objects for which the state variable was detected are estimated. Betriebsverfahren nach Anspruch 10, wobei: die Zustandsmenge und die zukünftige Position, die der Klassifikation unterzogen wurden, für jedes Ergebnis der Klassifikation in einem zugeordneten Bereich der Speichereinheit gespeichert werden.Operating procedures according to Claim 10 , wherein: the quantity of state and the future position which have been subjected to the classification are stored for each result of the classification in an assigned area of the storage unit.
DE112019001545.1T 2018-04-25 2019-04-12 ELECTRONIC CONTROL DEVICE AND OPERATING PROCEDURES Pending DE112019001545T5 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018084266A JP7019503B2 (en) 2018-04-25 2018-04-25 Electronic control device, calculation method
JP2018-084266 2018-04-25
PCT/JP2019/016010 WO2019208271A1 (en) 2018-04-25 2019-04-12 Electronic control device, and computation method

Publications (1)

Publication Number Publication Date
DE112019001545T5 true DE112019001545T5 (en) 2020-12-24

Family

ID=68295458

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019001545.1T Pending DE112019001545T5 (en) 2018-04-25 2019-04-12 ELECTRONIC CONTROL DEVICE AND OPERATING PROCEDURES

Country Status (4)

Country Link
US (1) US11958480B2 (en)
JP (1) JP7019503B2 (en)
DE (1) DE112019001545T5 (en)
WO (1) WO2019208271A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7019503B2 (en) * 2018-04-25 2022-02-15 日立Astemo株式会社 Electronic control device, calculation method
JP7283413B2 (en) * 2020-02-17 2023-05-30 株式会社デンソー IN-VEHICLE MEASURING DEVICE UNIT AND INTEGRATED DATA GENERATION METHOD IN IN-VEHICLE MEASURING DEVICE UNIT
KR102303854B1 (en) * 2020-07-10 2021-09-23 경일대학교산학협력단 The fail safe system and method of operating the same
US20220300743A1 (en) * 2021-03-18 2022-09-22 Aptiv Technologies Limited History-Based Identification of Incompatible Tracks
JP7449907B2 (en) 2021-09-22 2024-03-14 ダイハツ工業株式会社 Vehicle control device
JP2023069374A (en) * 2021-11-05 2023-05-18 ソニーグループ株式会社 Information processing device, information processing method, and program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3264060B2 (en) 1993-11-04 2002-03-11 三菱自動車工業株式会社 The preceding vehicle detection mechanism of the vehicle travel control device
JP5379543B2 (en) * 2009-04-09 2013-12-25 日立オートモティブシステムズ株式会社 Automobile external recognition device
JP2010249613A (en) * 2009-04-14 2010-11-04 Toyota Motor Corp Obstacle recognition device and vehicle control unit
JP4819166B2 (en) * 2010-01-25 2011-11-24 富士通テン株式会社 Information processing apparatus, information acquisition apparatus, information integration apparatus, control apparatus, and object detection apparatus
JP5724955B2 (en) * 2012-06-22 2015-05-27 トヨタ自動車株式会社 Object detection apparatus, information processing apparatus, and object detection method
JP5905846B2 (en) 2013-03-29 2016-04-20 株式会社日本自動車部品総合研究所 Crossing determination device and program
JP6462328B2 (en) * 2014-11-18 2019-01-30 日立オートモティブシステムズ株式会社 Travel control system
JP6858002B2 (en) * 2016-03-24 2021-04-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Object detection device, object detection method and object detection program
CN107226091B (en) 2016-03-24 2021-11-26 松下电器(美国)知识产权公司 Object detection device, object detection method, and recording medium
JP6787102B2 (en) * 2016-12-14 2020-11-18 株式会社デンソー Object detection device, object detection method
JP7019503B2 (en) * 2018-04-25 2022-02-15 日立Astemo株式会社 Electronic control device, calculation method

Also Published As

Publication number Publication date
JP7019503B2 (en) 2022-02-15
JP2019191945A (en) 2019-10-31
US20210256328A1 (en) 2021-08-19
WO2019208271A1 (en) 2019-10-31
US11958480B2 (en) 2024-04-16

Similar Documents

Publication Publication Date Title
DE112019001545T5 (en) ELECTRONIC CONTROL DEVICE AND OPERATING PROCEDURES
DE102013208521A1 (en) Collective learning of a highly accurate road model
DE112016006692T5 (en) Method for predicting a movement of an object
DE102021106518A1 (en) Electronic device for fused camera and radar sensor-based three-dimensional object recognition and operating procedures for it
EP3767403B1 (en) Machine learning based shape and surface measurement for monitoring production
EP3526624A1 (en) Automated open space identification by means of difference analysis for vehicles
WO2020048669A1 (en) Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle
DE102019215811A1 (en) DEVICE AND METHOD OF DETECTING LOCATION IN AN AUTONOMOUS VEHICLE
DE102018206108A1 (en) Generate validation data with generative contradictory networks
DE112019005326T5 (en) OBJECT TRACKER
DE102018220892A1 (en) Device and method for generating label objects for the surroundings of a vehicle
WO2022247994A1 (en) System for sensor data fusion for environmental perception
DE112019003929T5 (en) ELECTRONIC CONTROL DEVICE AND UPDATING SYSTEM OF A NEURAL NETWORK
DE102019130096A1 (en) Method for determining radar information, simulation method, classification method, computer program and calculation system
DE102021207613A1 (en) Process for quality assurance of a system
DE112021004200T5 (en) object detection device
DE102021133977A1 (en) Method and system for classifying virtual test scenarios and training methods
DE102022100545A1 (en) IMPROVED OBJECT RECOGNITION
CN114662691A (en) Characteristic knowledge base system and method for automatic driving vehicle
DE102020203828A1 (en) Method for recognizing the surroundings of a vehicle
DE102022214233B3 (en) Determining the similarity of traffic scenes to improve machine learning systems or algorithms for trajectory prediction or maneuver planning for automated vehicles
DE112022001304T5 (en) MAP GENERATION/SELF POSITION ESTIMATING DEVICE
DE102021210322A1 (en) Method for generating a data set for training and/or testing a machine learning algorithm based on an ensemble of data filters
DE102020212770A1 (en) Computer-implemented method, integrated circuit and computer program for identifying environment recognition errors for a perception system and automated driving system
DE102022207101A1 (en) Method for determining inadequacies in the detection of objects in data acquired by an environmental sensor of a motor vehicle

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: HITACHI ASTEMO, LTD., HITACHINAKA-SHI, JP

Free format text: FORMER OWNER: HITACHI AUTOMOTIVE SYSTEMS, LTD., HITACHINAKA-SHI, IBARAKI, JP